上海交通大学 MVIG 实验室刚刚开源了 AlphaPose ,这是一个精准的多人姿态估计系统,是首个在 COCO 数据集上可达到 70+ mAP(72.3 mAP,高于 Mask-RCNN 8.2 个百分点),在 MPII 数据集上可达到 80+ mAP(82.1 mAP)的开源系统。为了能将同一个人的所有姿态关联起来,AlphaPose 还提供了一个称为 Pose Flow 的在线姿态跟踪器,这也是首个在 PoseTrack 挑战数据集上达到 60+ mAP(66.5 mAP)和 50+ MOTA(58.3 MOTA)的开源在线姿态跟踪器,精准度高于现有技术的最好结果。
Demo
AlphaPose 支持多人关键点检测,可输入图像和视频,并在检测完成后以多种格式输出,包括 PNG、JPG、AVI、JSON 等等。目前仅支持 Ubuntu 系统。
姿态估计测试结果
COCO test-dev 2015:
MPII full test set:
姿态跟踪测试结果(代码即将发布)
Multi-Person Pose Estimation (mAP)
Pose Tracking (MOTA)
了解更多,可前往查阅相关论文。
转自 http://www.oschina.net/news/93121/alphapose-open-source