2 个月前

YOLO-Pose:使用目标关键点相似性损失增强YOLO进行多人姿态估计

Debapriya Maji; Soyeb Nagori; Manu Mathew; Deepak Poddar
YOLO-Pose:使用目标关键点相似性损失增强YOLO进行多人姿态估计
摘要

我们介绍了一种名为YOLO-pose的新方法,该方法基于流行的YOLO目标检测框架,无需热图即可实现图像中的关节检测和2D多人姿态估计。现有的基于热图的两阶段方法存在次优问题,因为它们无法进行端到端训练,并且训练依赖于一种替代的L1损失,而这种损失并不等同于最大化评估指标(即对象关键点相似度(OKS))。我们的框架允许我们对模型进行端到端训练,并直接优化OKS指标。所提出的模型能够在一次前向传播中同时检测多个人物的边界框及其对应的2D姿态,从而结合了自上而下和自下而上方法的优点。与自下而上的方法不同,YOLO-pose不需要在后处理中将检测到的关键点组合成骨架,因为每个边界框都关联了一个姿态,从而实现了关键点的内在分组。与自上而下的方法不同,YOLO-pose避免了多次前向传播的需求,因为在一次推理中就能同时定位所有人及其姿态。YOLO-pose在COCO验证集(90.2% AP50)和测试开发集(90.3% AP50)上取得了新的最先进结果,超过了所有现有的自下而上的方法,并且在单次前向传播中没有使用翻转测试、多尺度测试或其他任何测试时增强技术。本文报告的所有实验和结果均未使用任何测试时增强技术,这与传统方法通过翻转测试和多尺度测试来提升性能的做法不同。我们的训练代码将在以下网址公开发布:https://github.com/TexasInstruments/edgeai-yolov5 和 https://github.com/TexasInstruments/edgeai-yolox。

YOLO-Pose:使用目标关键点相似性损失增强YOLO进行多人姿态估计 | 最新论文 | HyperAI超神经