旷视科技2018 COCO负责人俞刚:如何构建检测与分割的冠军系统

栏目: 数据库 · 发布时间: 6年前

旷视科技2018 COCO负责人俞刚:如何构建检测与分割的冠军系统

思源 原创

思源 原创

旷视科技2018 COCO负责人俞刚:如何构建检测与分割的冠军系统

ECCV 2018 如期而至,旷视科技在首席科学家、研究院长孙剑博士的带领下获得 2018 COCO+Mapillary 联合挑战赛四项第一。机器之心专访 2018 COCO+Mapillary 挑战赛&旷视科技 Detection 组负责人俞刚,从算法模型与团队创新等方面讲述构建多项冠军方案的秘诀。

2018 COCO+Mapillary 联合挑战赛有实例分割、全景分割、人体关键点检测和人体密集姿态估计 4 类任务共 6 个赛项。中国战队摘取全部冠军。

实例分割在区分异类物体的基础上进一步区分同类物体及其 ID;人体关键点检测模型区分关节、头部和身体等关键结构,构建人体姿态的高级语义信息。全景分割通过融合语义分割与实例分割,将一张图像分割为不同的前景与背景,旨在生成丰富而完整的连贯性场景分割。

俞刚认为,现代目标检测的技术流程为输入(图像)> Backbone(主干网络)> Head(出口)> NMS(后处理),深度学习很多方法都依照这一流程。

比如 Faster R-CNN,其利用深度卷积网络作为 Backbone,并从原始图像中抽取一张特征图。随后根据 RPN 输出的候选框截取主干网络输出的特征图,并作 RoI池化得到最终的 Head;而最后一个后处理过程 NMS 则搜索局部极大值、抑制非极大值元素。

正因为检测和分割等任务的处理框架已整体成型,在 COCO 竞赛以及实际应用中,各个环节的创新变得格外重要。

针对 2018 COCO + Mapillary 挑战赛、检测&分割新探索以及团队研究三个方面,俞刚博士条分缕析,系统介绍了旷视科技的技术突破与团队创新;其中检测与分割将基于上文介绍的整体流程,主干网络、Head 和批量大小等方面的创新环节也将作具体探讨。

以下是机器之心对俞刚博士的专访。

2018 COCO + Mapillary 联合挑战赛

机器之心:在去年的 COCO 挑战赛中,旷视在三个 track 中同样也获得了最好的水平,那么相比之下,这一次旷视采用了哪些新策略?

俞刚:这一次比较新的策略主要体现在赛前准备、团队组成和算法创新上。那第一点就是准备方面,就是我们这次准备会比去年准备会更充分一点,因为去年第一次参加比赛,其实经验并不多。

首先对于这次赛前准备,我们可以分成三个阶段,第一个阶段可能是一个比较发散的过程。刚开始我们有很多大方向,想知道某一点哪个方向可能会更科学一点,这就相当于选择不同的设计路线。这个阶段会经历一个月或一个多月一点,思考讨论的频率是一周一次。

第二个阶段,大概到比赛前一个半月的时候,我们会根据前期的探索确定具体路线,并优化整个流程里面的细节。这一个阶段讨论的频率大概是一周两次,我们经常会脑洞一些新的想法,完善整个流程的一些细节。

最后第三个阶段是前三周,目标是优化 Pipeline 的所有细节。这一个阶段每天都会讨论与思考,并尽可能把一些很细节的结构做得更极致。

其次从团队组成来说,我们去年第一次参赛,所有人都是新人,但是今年好处就是有一些经验丰富的「老人」。所以每个 Track 和比赛都是一个老人带上多个新人,希望以老带新,把团队锻炼起来,我觉得这是一个比较差异的地方。团队的培养和锻炼对于我们旷视来讲是打比赛的一个非常重要的目的。

最后对于算法来说,第一年参加比赛时算法的积累还比较小,细节积累反而更多。今年的话,我们对问题理解会更深入一点,同时有蛮多新的创新。

先从实例分割任务开始说起,我们的突破主要在 backbone 以及 head 上面。Backbone 我们使用旷视最新推出的 ShuffleNet V2,并且在大模型上面做了很多尝试。ShuffleNet V2 最早的设计初衷给出了一些设计 backbone 的原则,这些原则在大模型上面也很适用。我们内部大模型已经有超过 30G FLOPs,并且在ImageNet数据集上面精度高于市面上 report 的结果。

最重要的是,我们的 backbone 针对检测以及分割任务做了优化设计,比如增加 receptive field 等。Head 上面我们提出了一种新结构,叫做 Location Sensitive Header, 主要的 motivation 是在 head 上面把 localization 相关的 (框的定位以及分割)merge 在一个 branch 出,然后把分类在另一枝出。

这样可以避免分类任务跟定位任务的相互影响。同时,我们对定位那支的 head 加厚,增强对定位的效果。从 loss 上面来讲,我们引入了 Mask Edge Loss,对分割的结果做更精细的监督处理。

全景分割我们主要是分别处理 stuff 以及实例分割,然后做后处理的 Merge 操作。Stuff 方面,我们针对有些位置的类似 appearance 但是不同类别的问题提出了一种新的 Multi-stage 的 context loss。在做 stuff 的时候,希望引入物体 (things) 的监督信号,从而增强网络的 representation 能力。另外,在 merge 上面,我们引入了一种新的后处理策略,可以自适应地学习物体的上下层次关系,避免歧义。

人体姿态估计这个任务,在去年的基础上面,我们今年主要针对 backbone 提出改进,引入了一种 cascade 的 backbone 结构。区别于传统的 Hourglass 结构,我们网络内部增加了多个 stage 的信息通道,同时不同 stage 的学习目标也是有差异的。前面 stage 希望是粗略定位简单的关键点,后面的 stage 会不停的对关键点的定位进行 refine,同时希望能解决困难的关键点定位。

机器之心:在今年的挑战赛中,是不是更注重于目标分割,而不是边界框检测?

俞刚:虽然今年的比赛任务取消了边界框检测,但我们做法其实还是依赖于有检测框的;最后的算法其实分成两步,第一步会生成了一个检测框,第二步会训练一个实例分割模型。这个实例分割模型一开始其实不依赖于独立训练的检测框,但是在做推断的时候,我们会把检测框模型的 RoIs 拿过来替换实例分割模型的 RoIs。这使得我们相对有更好的检测框,并对 Detection 模型的候选框做一个分割(Mask)。

因此整个实例分割任务相当于分割为了两个任务,第一个任务即预测边界框的检测任务,第二个是基于这个检测任务输出一个可能的 Mask。检测框的目的只是保证召回率(Recall),即确保大多数物体都能检测到。而 Mask 的目的是给定一个候选检测框,我们希望模型能将目标整体画地更精细一些。

机器之心:实际参与挑战赛的模型会采用模型集成等技巧提升准确度吗?

俞刚:这次竞赛本质上来说一共三个任务,即实例分割、全景分割和关键点检测。正如前面所说实例分割可以分成两支,其中对于目标检测分支,我们会集成多个模型。这一分支大概集成了三个检测模型的结果,并希望得到更好的候选框。另一实例分割分支其实只使用了单个模型,所以单看任务本身的话实际只使用单个模型.

对于第二个全景分割任务,我们也是用了一些模型集成技巧,而且也有一些涨点。最后的关键点检测也会使用更多模型,但涨点并不多,大概只有零点几的收益。

此外对于全景分割的集成,首先全景分割可以视为两部分,即 Stuff 和 Thing。我们最开始是尝试使用端到端的方法将这两部分组合在一起,但发现组合在一起会产生性能上的损失,且短期内做不到让这两部分形成互补的关系。最后我们分别处理这两件事,并通过一些后处理方式将它们结合在一起。这种结合的方式非常重要,它能使实例分割与语义风格产生互补的效果,同时涨点比较多。

人体姿态估计这个任务,我们也用了模型集成,但是涨点不多。

旷视科技在检测与分割上的新探索

如前文所示,现代目标检测的基本框架基本可以表示为输入、 Backbone、 Head(出口)和 NMS(后处理)五个部分,俞刚博士表示这其中暴漏了五个潜在的难题:

  • Backbone,目前主要使用基于ImageNet的预训练分类模型,比如 VGG-16、ResNet、DenseNet 等,可以令其更适合检测与分割任务;

  • Head,传统的两阶段网络慢的主要原因在于 Head 太厚,可以对其进行加速;

  • Scale,图像中物体的尺寸变化很大,大到 2k x 2k,小到 10 x 10,如何使神经网络算法更好地处理物体尺寸的变化是一个非常有趣的话题;

  • BatchSize,传统目标检测器的batch size非常小,为什么不尝试使用更大的batch size呢?

  • Crowd,无论是传统还是现代目标检测器,都会使用到一个叫做 NMS 后处理步骤,这种方法无法处理多个重叠的物体。

机器之心:旷视的在目标检测上的研究主要是在于细节上,包括骨干网络、目标的尺寸变化和密集型检测等,这一次的竞赛也会用到这些研究吗?

俞刚:在比赛中其实我们用得更多的是主干网络,它在实际应用占比会很大,但是 Scale 的变化和 Crowd 的数据影响并不大。原因很简单,因为 COCO 数据集本身是从互联网中收集的标准图像,它会有自己固定的分布。该数据集图像本身就不会很大,因此对目标尺寸的变化也不会很敏感。其次对于密集型检测,COCO 数据集本身并没有太多密集的目标,因此 Crowd 问题也不是非常明显。但是密集型场景在实际应用中会存在很多问题,我们需要针对这一问题做更多的优化。而这一次更重要的是在主干网络、Head 与损失函数等方面的改进。

首先对于主干网络,其实我们会发现各大队伍都会使用比较大型的网络作为 Backbone,而旷视在主干网络上也有非常多的研究,包括张祥雨博士提出的 ShuffleNet 以及最近的 ShuffleNet v2。其实我们针对检测与分割网络还提出了一种新型的 DetNet 架构,它不仅会保留感受野的信息,同时还会保留空间分辨率的信息。Backbone 在检测和分割任务中占据了很大的计算量,它与 Head 两部分是我们重点优化的方向。

旷视在主干网络上有非常深的积累,小到几兆十几兆,大到十几 G参数的模型都会有积累。这种积累一般来说即什么样的模型段需要用什么样的结构,而这个过程中的细节选择也非常讲究,因此我们认为旷视在主干网络的积累还是非常独到的。第二个比较重要的部分是 Head,我们希望把 Head(输出的特征图)变轻变合理。我们以前就有关于 Light-Head R-CNN 的研究,今年也会再有新研究对 Head 做优化,其主要逻辑是设计一个定位更鲁棒的结构。

最后比较重要的是损失函数的设计,我们这一次竞赛在全景分割里面还是对损失函数做了一些创新,例如 Multi-stage context loss, Residual L2 loss 等,这些创新最后对结果的影响还是挺大的。在 COCO stuff 任务中,我们需要对背景类或那些不是物体类别的类进行分类,但是发现很多时候这些 stuff 根据颜色纹理等特征很难区分。

例如背景是一块草坪,那么它的类别可能是 grass 或 playground,但是如果能加上一些实例分割方面的语义信息,例如有一个人在踢球,那么它对类别的判断会更准。所以在损失函数上,我们希望把这些语义信息引入到里面去,使得对最后的影响更好。这种损失函数的改进,也可以视为在全景分割中,希望语义分割与实例分割能相互促进。

机器之心:对于目标检测的主干网络,旷视提出了一种名为 DetNet 的网络,相比于传统的 ResNet 或 DenseNet,它有什么特点?

俞刚:很多主干网络基于ImageNet进行预训练,因此它是一个分类任务,而完成这种任务的网络结构是一种金字塔形状,底层的特征图尺寸会非常大,而越往上面特征图越小,这一变小的目标是希望能获得更多的信息,它需要整张图的所有信息进行分类。但检测不一样,它是一种像素级的分类任务,每一个像素都需要做一些预测,所以如果把所有特征图压缩到一个点的话,信息损失非常多,尤其是空间上的信息损失。所以我们的想法是在预训练主干网络时,希望它不会丢弃空间信息,同时还能抽象出高级语义信息。

相较于 FPN 和一般的分类网络,DetNet 的改动相对简单,但是效果非常明显,即在后面几层不做下采样,而是增加 dilation,从而保留了一定空间分辨率的特征图。另外,还会把 P6 加进去一直训练。

具体而言,DetNet stage 1,2,3,4 与 ResNet 设置相同,从第 4 层的输出开始,每层之后会做一个 16x 的下采样;做ImageNet预训练时会接一个 14x14 GAP 和一个 FC-1000,训练完之后再把这两部分去掉。可以看出 DetNet 结构上来讲和 FPN 类似,只不过是把 ResNet-50 替换为 DetNet,想法直观而简单。

机器之心:从 R-CNN 到 R-FCN,两阶段的目标检测框架都在尝试降低计算力,且 Head 过厚是计算慢的主要原因,那么旷视提出的 Light Head RCNN 有什么样的提升,它的出发点是什么?

俞刚:R-FCN 是对 Faster R-CNN 的改进,它主要会使用全卷积网络代替全连接网络,而 Light Head RCNN 可以视为这两种方法的结合体。首先第一点,R-FCN 解决了候选框复用的问题,但是空间分辨率却丢失很多,因此需要通过增加大量的通道来弥补这一损失,导致通道过多(4000+ 维),特征图过厚。而 Light Head RCNN 所做工作就是去除这些过多的通道,发现对速度影响很明显,对结果几乎没有影响。

另外一点是在原来的 R-FCN 后面加上一些全连接层,而不是直接输出预测,这对最后的效果其实还是有非常大的提升。从本质上来说,前面 R-FCN 给出的是一种比较抽象的特征机制,而全连接层会将这些抽象的特征组合成更加精确的类别。此外,由于 Light Head RCNN 将特征图的通道数降得很低,因此再接入全连接层也不会出现参数量过多的情况。

因此总体上,Light Head RCNN 将 R-FCN 的特征图变得非常「薄」,由 3969 的通道数降为 490。同时结合了 Faster R-CNN 的全连接层以实现更准确的分类。

机器之心:在最近的 ECCV 2018 中,何恺明的 Group Normolization 获得了最佳论文荣誉提名奖,它降低了批量过小时采用 BN 的影响。您怎么看待这篇论文,旷视在 batchsize 大小上有什么样的探索?

俞刚:在一般的目标检测框架中,BatchSize 往往很小,比如 R-CNN 和 Faster RCNN 的为 2,在一些最新的工作比如 RetinaNet 和 Mask RCNN 中,BatchSize 也仅为 16。然后何恺明的 GroupNormalization在我们没办法提高批量大小的情况下是比较科学的一种方法,GN 把通道分为不同的组,并计算每一组之内的均值和方差,以进行归一化。GN 的计算与批量大小无关,其精度也在各种批量大小下保持稳定。

但是在很多情况下,我们其实用的并不是很多,因为 GN 在批量受限的情况下可能会比较有用,但是在批量不受限的情况下,它的意义可能不是那么大,我们还不如使用一般的BatchNormalization。但是如果模型的输入是视频流,里面有非常多的视频帧,那么在这种情况下因为显存受限很难有比较大的批量,因此 GroupNormalization在这种任务中的价值就会非常大。

此外,增加批量大小通常需要配置更高的学习率以保持精度,但是在物体检测中,高学习率很可能导致模型无法收敛。因此旷视在BatchSize 上也做了一些研究,并提出了一项名为 MegDet 的解决方案。MegDet 在训练早期借助「warmup」学习率策略逐渐提高学习率,并引入多 GPU 批归一化(CGBN)以更好地统计 BN,这样就能解决精度和收敛问题。

旷视科技团队与研究

机器之心:目前旷视在检测与分割方向的团队构成都是怎么样的,会划分更细致的研究方向吗?

俞刚:我们 Detection 组的「Detection」是比较广义的定义,包括检测、分割、关键点和跟踪等等。从整体上来说,大多数员工都是在做目标检测相关的工作,同时会支持很多产品的落地。但是我们内部的训练机制是希望所有同学都能了解广义 Detection 所涉及的任务,例如主做目标检测的同学同时还需要了解语义分割和关键点检测等研究内容。

机器之心:您认为在工业中做计算机视觉的研究和学界中做研究有什么不同?在旷视做研究都有什么样的优势?

俞刚:就工业界而言,我们更侧重一些实际产品的落地,也会做一些更远方向的探索,但是我们首先会判断这个方向会不会有用。所以从本身来讲,不管是短期内落地还是长线应用,我们判断的标准一定是认定这个方向在实践中会比较有用。但是学术界可能会做一些更长期、形式更发散的的探索,甚至可能做一些比如说深度学习下一代方法或后续的发展是什么。工业界的好处在于目前有非常多的资源和数据,因此对于大多数研究者来说,工业界会有很大的施展空间。

对于在旷视做研究的优势,我认为主要有几个方面,包括创新氛围、平台、团队知识共享和技术积累等。首先是创新氛围,整个研究院从孙剑老师开始就非常鼓励尝试一些新的想法和实验。因为我了解过其它一些研究院,其实很多都不一定是在算法层面或细节上的创新,他们主要是研究一些开源代码或论文复现,并在本地运行或落地到产品中。而旷视会很鼓励做一些原创性的技术或尝试,我认为这是非常不错的氛围。然后从公司平台角度来说,包括计算资源、数据以及内部非常稳定的深度学习框架都很有帮助。

在团队方面,我们的内部培训机制还是很科学的,我们希望将每一个人都培养成有独立思考与创新的研究者。这可能体现在多个方面,首先我们希望每个人能将自己的实验、自己的想法、自己的一些经验分享给大家。因为每个人都只对自己的实验与想法比较清楚,而通过分享能激发出一些新的东西来。其次是我们鼓励有一些比较发散的想法,并通过实验判断这一想法能不能行。

最后对于研究的积累,其实我们做 Detection 已经两年多,读过、复现过市面上很多很好的论文,对于一些新的问题,比如产品中的实际问题或者下一代检测的方向,我们也有很多深入的理解和探索。这一连串的东西其实是非常重要的无形资产,对大家的成长是非常有价值的。

俞刚博士简介:

旷视科技2018 COCO负责人俞刚:如何构建检测与分割的冠军系统

俞刚博士现为旷视科技 Research Leader、Detection 组负责人,2014 年毕业于新加坡南洋理工大学。博士毕业后在南洋理工大学从事 research fellow 的研发工作。2014 年底加入旷视科技公司。其主要研究方向主要集中在计算机视觉以及机器学习方面,包括物体检测,语义分割,行人姿态估计以及行人动作行为分析。自 2010 年以来,已经在顶级会议如 CVPR, AAAI, ECCV 以及顶级期刊如 IEEE Transaction on Image Processing, IEEE Transaction on Multimedia 等上面发表学术论文二十余篇。同时著有书籍一本。俞刚博士带队参加 2017 COCO+Places 挑战赛获得检测第一名,人体姿态估计第一名;接着,带队参加 2018 COCO+Mapillary 挑战赛,获四项第一。

产业 旷视科技 ECCV 2018

相关数据

神经网络 技术

Neural Network

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

来源:机器之心

收敛 技术

Convergence

在数学,计算机科学和逻辑学中,收敛指的是不同的变换序列在有限的时间内达到一个结论(变换终止),并且得出的结论是独立于达到它的路径(他们是融合的)。 通俗来说,收敛通常是指在训练期间达到的一种状态,即经过一定次数的迭代之后,训练损失和验证损失在每次迭代中的变化都非常小或根本没有变化。也就是说,如果采用当前数据进行额外的训练将无法改进模型,模型即达到收敛状态。在深度学习中,损失值有时会在最终下降之前的多次迭代中保持不变或几乎保持不变,暂时形成收敛的假象。

来源: Wikipedia Google ML glossary

Computer Vision

计算机视觉(CV)是指机器感知环境的能力。这一技术类别中的经典任务有图像形成、图像处理、图像提取和图像的三维推理。目标识别和面部识别也是很重要的研究领域。

来源:机器之心

图网 技术

ImageNet

学习率 技术

Learning rate

在使用不同优化器(例如随机梯度下降,Adam)神经网络相关训练中,学习速率作为一个超参数控制了权重更新的幅度,以及训练的速度和精度。学习速率太大容易导致目标(代价)函数波动较大从而难以找到最优,而弱学习速率设置太小,则会导致收敛过慢耗时太长

来源:Liu, T. Y. (2009). Learning to rank for information retrieval. Foundations and Trends® in Information Retrieval, 3(3), 225-331. Wikipedia

逻辑 技术

Logic

人工智能领域用逻辑来理解智能推理问题;它可以提供用于分析编程语言的技术,也可用作分析、表征知识或编程的工具。目前人们常用的逻辑分支有命题逻辑(Propositional Logic )以及一阶逻辑(FOL)等谓词逻辑。

来源:机器之心

机器学习 技术

Machine Learning

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

来源:Mitchell, T. (1997). Machine Learning. McGraw Hill.

损失函数 技术

Loss function

在数学优化,统计学,计量经济学,决策理论,机器学习和计算神经科学等领域,损失函数或成本函数是将一或多个变量的一个事件或值映射为可以直观地表示某种与之相关“成本”的实数的函数。

来源: Wikipedia

规范化 技术

Normalization

规范化:将属性数据按比例缩放,使之落入一个小的特定区间,如-1.0 到1.0 或0.0 到1.0。 通过将属性数据按比例缩放,使之落入一个小的特定区间,如0.0到1.0,对属性规范化。对于距离度量分类算法,如涉及神经网络或诸如最临近分类和聚类的分类算法,规范化特别有用。如果使用神经网络后向传播算法进行分类挖掘,对于训练样本属性输入值规范化将有助于加快学习阶段的速度。对于基于距离的方法,规范化可以帮助防止具有较大初始值域的属性与具有较小初始值域的属相相比,权重过大。有许多数据规范化的方法,包括最小-最大规范化、z-score规范化和按小数定标规范化。

来源:Jiawei Han;Micheline Kamber著 数据挖掘概念与技术 机械工业出版社

池化 技术

Pooling

池化(Pooling)是卷积神经网络中的一个重要的概念,它实际上是一种形式的降采样。有多种不同形式的非线性池化函数,而其中“最大池化(Max pooling)”是最为常见的。它是将输入的图像划分为若干个矩形区域,对每个子区域输出最大值。直觉上,这种机制能够有效的原因在于,在发现一个特征之后,它的精确位置远不及它和其他特征的相对位置的关系重要。池化层会不断地减小数据的空间大小,因此参数的数量和计算量也会下降,这在一定程度上也控制了过拟合。通常来说,CNN的卷积层之间都会周期性地插入池化层。

来源: cs231n

参数 技术

parameter

在数学和统计学裡,参数(英语:parameter)是使用通用变量来建立函数和变量之间关系(当这种关系很难用方程来阐述时)的一个数量。

来源: 维基百科

批次 技术

Batch

模型训练的一次迭代(即一次梯度更新)中使用的样本集。

来源: Google ML glossary

批次规模 技术

batch size

一个批次中的样本数。例如,SGD 的批次规模为 1,而小批次的规模通常介于 10 到 1000 之间。批次规模在训练和推断期间通常是固定的;不过,TensorFlow 允许使用动态批次规模。

来源: Google ML glossary

深度学习 技术

Deep learning

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

来源: LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. nature, 521(7553), 436.

孙剑 人物

Jian Sun

孙剑,男,前微软亚研院首席研究员,现任北京旷视科技有限公司(Face++)首席科学家、旷视研究院院长 。自2002年以来在CVPR, ICCV, SIGGRAPH, PAMI等顶级学术会议和期刊上发表学术论文100余篇,两次获得CVPR最佳论文奖(2009, 2016)。孙剑博士带领的团队于2015年获得图像识别国际大赛五项冠军 (ImageNet分类,检测和定位,MS COCO 检测和分割) ,其团队开发出来的“深度残差网络”和“基于区域的快速物体检测”技术已经被广泛应用在学术和工业界。

涉及领域

来源:https://baike.baidu.com/item/%E5%AD%99%E5%89%91/19814032?fr=aladdin

何恺明 人物

Kaiming He

Facebook AI Research研究科学家。Residual Net提出者。

涉及领域

来源: 个人网站

旷视科技2018 COCO负责人俞刚:如何构建检测与分割的冠军系统
思源

机器之心编辑


以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

数据结构与算法分析

数据结构与算法分析

张琨、张宏、朱保平 / 人民邮电出版社 / 2016-2-1 / 45

本书共分10章,主要包括第1章绪论,第2章线性表,第3章栈和队列,第4章串,第5章数组和广义表,第6章 树和二叉树,第7章图,第8章查找,第9章内部排序,第10章算法分析。其内容模块涵盖了课堂教学、习题课教学、实验教学、自学辅导、综合训练等。立体化教材的使用在提高教学效率、增强教学效果、加大教学信息量、培养学生的应用与实践能力。 作者简介一起来看看 《数据结构与算法分析》 这本书的介绍吧!

CSS 压缩/解压工具
CSS 压缩/解压工具

在线压缩/解压 CSS 代码

图片转BASE64编码
图片转BASE64编码

在线图片转Base64编码工具

HEX HSV 转换工具
HEX HSV 转换工具

HEX HSV 互换工具