内容简介:AI 前线导读:支撑人工智能的崛起的背后不仅有科学家、程序员,还有 “农民工”。这些所谓的农民工就是数据标注员。在人工智能灼热与闪亮的背后,数据标注产业,作为做基础的支撑,却显得格外粗粝与拙朴。这个产业就是个“血汗工厂”,引用该产业的一个员工的说法:“人工智能就像是一个孩子,标注好的图片就像是孩子的食物,而我们就是制作食物的人,最苦最累的我们做了,成名的只是那些制造孩子的人。” 这话说得没有错。那么,我们能不能让机器解放这些数据标注员呢?Google AI 就推出了 Fluid Annotation ,旨
AI 前线导读:支撑人工智能的崛起的背后不仅有科学家、程序员,还有 “农民工”。这些所谓的农民工就是数据标注员。在人工智能灼热与闪亮的背后,数据标注产业,作为做基础的支撑,却显得格外粗粝与拙朴。这个产业就是个“血汗工厂”,引用该产业的一个员工的说法:“人工智能就像是一个孩子,标注好的图片就像是孩子的食物,而我们就是制作食物的人,最苦最累的我们做了,成名的只是那些制造孩子的人。” 这话说得没有错。那么,我们能不能让机器解放这些数据标注员呢?Google AI 就推出了 Fluid Annotation ,旨在提高数据标注的能力。
基于现代深度学习的计算机视觉模型(如由 TensorFlow 对象检测 API 实现的模型)的性能取决于日益增大的标注训练数据集(如 Open Images)的可用性。然而,获得高质量的训练数据很快成为计算机视觉的主要瓶颈。对于像语义分割(semantic segmentation)这样的像素级预测任务尤为如此,语义分割在自动驾驶、机器人和图像搜索之类等有广泛的应用。实际上,传统的手动标注 工具 需要使用注释器仔细点击边界来勾勒出图像中每个对象,这种过程很令人乏味,如下面的视频所示。在 COCO+Stuff 数据集中标注一个图像需要 19 分钟,而完成整个数据集的标注需要 53000 个小时!
AI 前线注:
使用 TensorFlow 对象检测 API 实现的计算机视觉模型可以参见《 http://ai.googleblog.com/2017/06/supercharge-your-computer-vision-models.html 》( https://ai.googleblog.com/2017/06/supercharge-your-computer-vision-models.html )。
关于标准训练数据集 Open Images,可参见《Announcing Open Images V4 and the ECCV 2018 Open Images Challenge》( https://ai.googleblog.com/2018/04/announcing-open-images-v4-and-eccv-2018.html )。
语义分割的应用可参见《Semantic Image Segmentation with DeepLab in TensorFlow》( https://ai.googleblog.com/2018/03/semantic-image-segmentation-with.html )
视频地址:https://v.qq.com/x/page/t0761gtjon6.html
左图为 COCO 数据集的图像示例,右图为像素级语义标注。
我们将在 2018 ACM Multimedia Conference 会议的 Brave New Ideas 公开论文《 Fluid Annotation:用于完整图像标注的人机协作接口》( Fluid Annotation: A Human-Machine Collaboration Interface for Full Image Annotation ),在这篇论文中,我们探讨了机器学习驱动的接口,用于标注图像中每个对象和背景区域的类标签与轮廓,从而将标注数据集的创建速度提高三倍。
AI 前线注: Fluid Annotation: A Human-Machine Collaboration Interface for Full Image Annotation 论文地址为: https://arxiv.org/abs/1806.07527
Fluid Annotation 从强语义分割模型的输出开始,人们要做标注工作,可以使用自然用户接口通过机器辅助编辑操作进行修改。我们的接口可以让标注者选择正确的内容和顺序,使他们能够有效地将精力集中在机器尚未知晓的内容上。
COCO 数据集中图像 Fluid Annotation 接口的可视化效果。
更确切地说,为了标注一张图像,我们首先通过预训练的语义分割模型(Mask R-CNN)来运行它。这将生成大约 1000 个带有类标签和置信度分数的图像片段。具有最高置信度的片段用于初始化标记,并将标记呈现给注释器。之后,注释器可以:(1)从机器生成的候选列表选择现有片段的标签。(2)添加一个片段来覆盖缺失的对象。机器识别出最可能预先生成的片段,通过这些片段,注释器可以滚动并选择最佳片段。(3)删除现有片段。(4)改变重叠片段的深度顺序。要更好地了解这个接口,请访问此网址 https://fluidann.appspot.com/ 来尝试 Demo(仅限于桌面)。
AI 前线注:Mask R-CNN 论文参见 https://arxiv.org/abs/1703.06870
在三幅COCO图像(左)分别使用传统手工标注(中)与 Fluid Annotation (右)的对比。虽然使用手工标注工具时,对象边界通常更精确,但标注差异的最大来源是由于人类注释器通常不同意确切的对象类。
Fluid Annotation 是使图像标注更快、更容易的第一步探索。在未来的工作中,我们的目标是改进对象边界的标注,通过加入更多的机器智能,使接口更快,最后扩展接口来处理以前看不到的类,而这些类最需要高效的数据收集。
查看英文原文: https://ai.googleblog.com/2018/10/fluid-annotation-exploratory-machine.html
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网
猜你喜欢:- 众包标注质量不稳定?让机器给标注工上个课吧! | KDD 2018
- 超级好用的视频标注工具
- 文本分类和序列标注“深度”实践
- NLTK学习笔记(五):分类和标注词汇
- 标注图+部分举例聊聊Vue生命周期
- 利用Stub File标注Python文件
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
腾讯网UED体验设计之旅
任婕 等 / 电子工业出版社 / 2015-4 / 99.00元
《腾讯网UED体验设计之旅》是腾讯网UED的十年精华输出,涵盖了丰富的案例、极富冲击力的图片,以及来自腾讯网的一手经验,通过还原一系列真实案例的幕后设计故事,从用户研究、创意剖析、绘制方法、项目管理等实体案例出发,带领读者经历一场体验设计之旅。、 全书核心内容涉及网媒用户分析与研究方法、门户网站未来体验设计、H5技术在移动端打开的触控世界、手绘原创设计、改版迭代方法、文字及信息图形化设计、媒......一起来看看 《腾讯网UED体验设计之旅》 这本书的介绍吧!
URL 编码/解码
URL 编码/解码
HSV CMYK 转换工具
HSV CMYK互换工具