©PaperWeekly 原创 · 作者|黄飘
学校|华中科技大学硕士
研究方向|多目标跟踪
最近基于深度学习的多目标跟踪算法越来越多,有用于特征提取的,有改进单目标跟踪器的,也有提升数据关联的。如果真的要总结的话那就太多了,所以我准备分类别进行介绍,这次是这一系列最后一篇。我主要介绍 基于行人重识别(ReID)算法 的方法,相关 MOT 的基础知识可以去我的专栏查看。
ReID与MOT的联系
在 MOT 任务中,一般常用的特征模型有运动模型和表观模型,其中表观模型以行人重识别(ReID)类算法为主流。Re-ID 任务主要解决的是跨摄像头场景下行人的识别与检索,其中存在给定了身份的图片序列 query,需要为不同摄像头场景下的多组图片 gallery 的行人身份进行判定。
随着现在视觉任务需求的增加,车辆重识别任务也随之诞生,包括与之对应的数据集。对于多目标跟踪任务而言,由于目前只有行人和车辆的标注,所以基本只针对这两类目标,不过最近出来一个 833 类的多目标跟踪数据集 TAO [8] 。
以行人为例,多目标跟踪相对于 Re-ID 多出了空间位置信息和时间联系,其更多的是针对的同一摄像头场景,还包括可能出现的相机运动。
除此之外,对于 Re-ID 任务而言,其不需要考虑新身份的诞生和旧身份的消失,所有目标在 query 中一般都有对应的身份,而 MOT 任务中需要判定是否有可能不存在现有跟踪轨迹中,是否需要与已经丢失跟踪轨迹身份进行匹配等等,二者的异同总结如下:
指标 |
Re-ID |
MOT |
研究对象 |
行人/车辆 |
行人/车辆 |
场景 |
跨摄像头 |
单一摄像头 |
先验信息 |
表观信息 |
时空运动信息、 表观信息 |
研究任务 |
行人匹配 |
数据关联 |
目标序列是否 严格对称 |
是 |
否 |
其中,目标序列严格对称的意思是指的待比对的两个序列中,目标的 id 是否一致,如果不一致,则表明两个序列各自可能存在新的目标。
借鉴这个问题里面的回答行人重识别(re-ID)与跟踪(tracking)有什么区别 [9] 。
我们可以看到 ReID 是一个相对底层的任务,随着检测、时序信息的加入,就可以拓展至行人检索和视频 ReID 任务,再引入 MOT 则可以得到更为高层的任务 MTMC(跨摄像头多目标跟踪)。
实际上 ReID 只是个任务名,我们不要将其具象化成了某一类数据集或者某一类深度框架,我们甚至可以直接用传统的图像特征来应用于这个任务,关键要看这个任务的定义。
MOT/MTMC中的ReID框架设计
2.1 DeepCC
论文标题: Features for multi-target multi-camera tracking and re-identification
论文来源: CVPR 2018
论文链接: https://arxiv.org/abs/1803.10859
代码链接: https://github.com/SamvitJ/Duke-DeepCC
考虑到 MOT 和 MTMC 在表征模型方面的相似性,我们一并介绍。DeepCC 是 MTMC 领域的一篇经典论文,我们可以先看看 MTMC 的基础流程:
给定多个摄像头的视频流,由检测器得到所有的观测行人信息,通过提取每个人的特征对每个行人进行关联匹配/聚类,最后通过后处理进行完善。这篇论文主要做的是 ReID 任务在 MTMC 任务上的适配 ,其关注点不在网络的设计上,而是从训练策略上着手。
首先我们不妨思考下如果从 MTMC / MOT 任务中抽象出 ReID 任务,无非就是 数据集的提取(即相同身份行人序列的抽取),网络框架的设计(特征模型),还有训练策略(损失函数的设计等) ,而且这里面抽取出来的行人序列在多样性等方面可能都与 ReID 数据集有着差异。当然,不同视频数据集之间的域自适应性问题是这几个任务的共性问题。
由于我们这次主要关注的是表观特征层面,所以对于其他的部分就暂时忽略。DeepCC 设计了一种自适应的三元组损失函数:
我们知道的是,在 batch-hard triplet loss,选取的是相同身份中距离最远的样本组为 positive,不同身份中距离最近的为 negative 组。
作者并没有使用 batch-hard 的方式,通过自适应权重的设计我们可以看到,作者通过 softmax 的方式,使得相同身份样本组中距离越大的权重越大,不同身份样本组中距离越小的权重越大,相当于给了 easy sampels 更多的注意力。
为了防止数据量大了之后,很多 batch 不存在 hard samples,作者创建了两个样本池:
根据给定的 query,设计一组难例样本池和一组随机身份样本池,在训练的时候就可保证难例样本对的正常获取。
很可惜,由于国外对于个人隐私的保护,MTMC 相关的数据集都被禁用了。
2.2 NOTA
论文标题: Aggregate Tracklet Appearance Features for Multi-Object Tracking
论文来源: SPL 2019
论文链接: https://www.sci-hub.shop/10.1109/lsp.2019.2940922
如果说 DeepCC 关注的是 ReID 任务在 MTMC 任务中的训练策略设计,那 NOTA 就是针对 ReID 任务在 MOT 任务中的网络框架设计。熟悉 MOT 任务的人应该知道,由于不同质量观测信息和遮挡等问题的影响,我们直接根据给定行人框提取的行人特征并不一定可靠,例如下图中,一个行人框中可能存在多个行人和大量背景信息。
因此这篇文章设计了一种时空注意力网络,其中空间注意力模型叫做 Position-Sensitive Mask,类似于检测框架中的 R-FCN 算法,通过将空间分为 3x3 的网格,每个网格都预测前景/背景的概率,整体打分取平均得到这张图属于前景的概率。
作者所针对的是测试阶段的跟踪序列,以前景背景 mask 作为时间注意力,然后对跟踪序列每个 patch 的特征和前景背景 mask 进行加权融合得到轨迹特征,用于轨迹相似度计算:
而关于特征模型,这篇论文做了很多实验,挺有价值的:
2.3 LAAM
论文标题: Locality Aware Appearance Metric for Multi-Target Multi-Camera Tracking
论文来源: CVPR 2019 WorkShop
论文链接: https://arxiv.org/abs/1911.12037
代码链接: https://github.com/hou-yz/DeepCC-local
LAAM 这篇关注的主要是 ReID 任务在 MTMC 任务中的数据集构建和训练策略,这里 [10] 有作者的详细讲解,我也相应地谈谈。我们知道无论是 Tracktor++ [4] 还是 DeepSort [5] ,二者都是单独训练的 ReID 特征模型,然后直接应用于 MOT 任务。LAAM 一文就是提出了一个 re-ID 特征是否适合直接用于跟踪任务的问题。
作者提到:
由于目标(行人/车辆)轨迹(trajectory)的连续性,在一般情况下,跟踪系统只需要匹配一个 局部邻域 中的目标,而不需要全局匹配。
-
局部邻域:对于单相机跟踪,指代同相机的连续帧内的样本;对于跨相机跟踪,指代相邻(距离较小)的几个相机(如下图小框中的一组相机)内的样本。
-
全局:指代全部相机中的样本。
跟踪系统中的匹配一般被限制在局部邻域内,而应用于相似度估计的重识别特征,则是从全局学到的,相似度估计的结果直接决定数据匹配的性能。在这个关键部分,出现了局部 vs 全局的失配,则会对系统整体性能有很大影响。
的确,在 MTMC 任务中,如果处理的是较短时间内的连续视频帧,目标更倾向于出现在较小的局部空间内,并且特征差异性并没有很大。
对此作者就提出对相机内和相机之间的样本分开训练,即同相机内的正负样本来自于同一相机,不同相机内的正负样本来自于不同相机。
在 MOT 任务中,除了表观特征,还存在运动特征,除此之外,跟踪序列与跟踪序列/目标之间的相似度度量也是一个问题。
STRN 这篇论文所针对的就是运动表观特征的结合、跟踪序列特征的融合和目标与周围目标间的交互。下图中虽然 t 帧中中心目标被遮挡了,但是其周围目标还在,所以依旧被跟踪到了,这一点对于遮挡问题有一定缓解能力。
首先,作者利用周围目标表观特征对中心目标的特征进行更新:
其中周围目标的注意力模型(ORM)权重是通过一组仿射矩阵求得周围目标与中心目标的相似度和位置形状相似度加权得到的。
而对于时间信息,同样地,就是对于跟踪序列中不同特征的注意力打分:
接下来,作者对于每条跟踪序列和每个观测行人之间的相似度度量进行了研究,首先是将跟踪序列最新的一部分特征加权融合,再与待比对特征进行拼接,通过一个线性转换得到表观关联性特征。
同样地,计算出二者的余弦距离:
那么对于位置信息 L 和运动信息 M 则有:
我们可以看到的是,这里面大多数的相似性度量都是人为设定的,但是也都引入了线性变换矩阵 W,这些都是通过一个小网络得来的:
整体框架如下:
其效果如下:
总结
这次我主要介绍了 ReID 和 MOT / MTMC 等跟踪人物的结合,可以看到 ReID 任务可以应用于跟踪人物中的表观特征模型部分。而应用时则需要注意数据集构建的差异、网络框架的设计、训练策略的问题、ReID 中域自适应性问题、特征融合与选择等问题。
随着这两年联合检测和跟踪的框架的兴起,在这类集成框架中引入 ReID 分支的算法也相继出现,包括 JDE [11] 和 FairMOT [12] 等。那么单独使用 ReID 特征进行跟踪的话效果会如何呢?各位不妨试试。
参考文献
[1] Ristani E, Tomasi C. Features for multi-target multi-camera tracking and re-identification[C]. in: Proceedings of the IEEE conference on computer vision and pattern recognition. 2018. 6036-6046.
[2] Chen L, Ai H, Chen R, et al. Aggregate Tracklet Appearance Features for Multi-Object Tracking[J]. IEEE Signal Processing Letters, 2019, 26(11): 1613-1617.
[3] Yunzhong H, Liang Z, Zhongdao W, et al. Locality Aware Appearance Metric for Multi-Target Multi-Camera Tracking[J]. arXiv preprint arXiv:1911.12037, 2019.
[4] Bergmann P, Meinhardt T, Leal-Taixe L. Tracking without bells and whistles[C]. in: Proceedings of the IEEE International Conference on Computer Vision. 2019. 941-951.
[5] Wojke N, Bewley A, Paulus D. Simple online and realtime tracking with a deep association metric[C]. in: 2017 IEEE international conference on image processing (ICIP). IEEE, 2017. 3645-3649.
[6] Xu J, Cao Y, Zhang Z, et al. Spatial-temporal relation networks for multi-object tracking[C]. in: Proceedings of the IEEE International Conference on Computer Vision. 2019. 3988-3998.
[7] Wang Z, Zheng L, Liu Y, et al. Towards Real-Time Multi-Object Tracking[J]. arXiv preprint arXiv:1909.12605, 2019.
[8] http://taodataset.org/
[9] https://www.zhihu.com/question/68584669/answer/326110383
[10] https://zhuanlan.zhihu.com/p/96999382
[11] https://zhuanlan.zhihu.com/p/125395219
[12] https://zhuanlan.zhihu.com/p/126558285
更多阅读
# 投 稿 通 道 #
让你的论文被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢? 答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是 最新论文解读 ,也可以是 学习心得 或 技术干货 。我们的目的只有一个,让知识真正流动起来。
:memo: 来稿标准:
• 稿件确系个人 原创作品 ,来稿需注明作者个人信息(姓名+学校/工作单位+学历/职位+研究方向)
• 如果文章并非首发,请在投稿时提醒并附上所有已发布链接
• PaperWeekly 默认每篇文章都是首发,均会添加“原创”标志
:mailbox_with_mail: 投稿邮箱:
• 投稿邮箱: hr@paperweekly.site
• 所有文章配图,请单独在附件中发送
• 请留下即时联系方式(微信或手机),以便我们在编辑发布时和作者沟通
:mag:
现在,在 「知乎」 也能找到我们了
进入知乎首页搜索 「PaperWeekly」
点击 「关注」 订阅我们的专栏吧
关于PaperWeekly
PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击 「交流群」 ,小助手将把你带入 PaperWeekly 的交流群里。
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网
猜你喜欢:- 三次成功挑战目标跟踪算法极限,商汤开源 SiamRPN 系列算法
- 论文盘点:基于图卷积GNN的多目标跟踪算法解析
- CVPR 2019 Oral 目标跟踪最强算法SiamRPN++开源实现
- 联合检测和跟踪的MOT算法解析(含MOT17 No.1等多个榜前算法)
- 2D AR算法新突破,亮风台提出基于约束置信度的鲁棒跟踪算法CCM
- 重磅!商汤开源最大目标跟踪库PySOT:含SiamRPN++和SiamMask等算法
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
深入浅出React和Redux
程墨 / 机械工业出版社 / 2017-4-28 / 69
本书作者是资深开发人员,有过多年的开发经验,总结了自己使用React和Redux的实战经验,系统分析React和Redux结合的优势,与开发技巧,为开发大型系统提供参考。主要内容包括:React的基础知识、如何设计易于维护的React组件、如何使用Redux控制数据流、React和Redux的相结合的方式、同构的React和Redux架构、React和Redux的性能优化、组件的测试等。一起来看看 《深入浅出React和Redux》 这本书的介绍吧!