内容简介:这些参考图片能为目标物体或环境的细节进行编码,让机器学习模型不断自我完善。1、猎云网原创文章未经授权转载必究,如需转载请联系官方微信号进行授权。2、转载时须在文章头部明确注明出处、保留官方微信、作者和原文超链接。如转自猎云网(微信号:)字样。
阅读时间大约2分钟(621字)
2019-06-17 14:31:14 MIT最新AI研究,让机器人利用触觉感知物体
这些参考图片能为目标物体或环境的细节进行编码,让机器学习模型不断自我完善。
【猎云网(微信号:)】6月17日报道(编译:胖虎)
麻省理工学院计算机科学及人工智能实验室(CSAIL)的研究人员表示,在不久的将来,机器人将能够通过触觉来感知物体。一篇最新的相关论文将于下周在加利福尼亚长滩市的计算机视觉与模式识别会议上公开,这篇论文描述了一种人工智能系统,它可以通过触觉信号生成触摸物的视觉形象,还能根据视觉数据来预测物体的触感。
“通过观察物体的表面,我们的模型可以预测某个平面或棱角的触感。通过触摸物体,我们的人工智能模型可以根据触感来构建感知到的环境。将这两种感知数据相结合,机器人的性能就会得到优化,它在搬运或抓取某个物体时所需的数据就更少,”CSAIL博士生Yunzhu Li说道,他与他的导师Russ Tedrake、Antonio Torralba以及另一位博士后Jun-Yan Zhu一起撰写了本篇论文。
这支团队的系统采用了生成式对抗神经网络(GAN),这种神经网络包含了生成模型和判别模型,前者负责生成样本,后者负责辨别生成样本和现实样本的不同。该系统能将触觉数据产生的图像拼接起来。训练时它采用了VisGel的数据,该数据库拥有300万组视觉和触觉的配套数据,其中包含1.2万个视频片段,对象多达200种(包括 工具 、织物和家具产品等)。它会预测出形状和接触点的材料,然后与参考图片进行对比。
例如你给出一只鞋子上某个点的触觉数据,这个模型就能确定出这个接触点到底在什么地方。
这些参考图片能为目标物体或环境的细节进行编码,让机器学习模型不断自我完善。
这些研究人员指出,目前的数据集还非常有限,对于现有的系统而言,物体的颜色、柔软度等细节还很难预测。但很显然他们的研究会为更多的人机一体化打下基础,尤其是针对光线昏暗甚至黑暗密闭空间中的任务。
1、猎云网原创文章未经授权转载必究,如需转载请联系官方微信号进行授权。
2、转载时须在文章头部明确注明出处、保留官方微信、作者和原文超链接。如转自猎云网(微信号:)字样。
3、猎云网报道中所涉及的融资金额均由创业公司提供,仅供参考,猎云网不对真实性背书。
推荐阅读
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网
猜你喜欢:- 除了看和听之外,AI能拥有触觉吗?
- MIT新AI系统成精了,扫一眼就能知道物体的“触觉”!
- 有触觉,懂策略,能交互!MIT开发出比你更灵活的搭积木大师,还发了Science子刊
- Unity 2018.3正式发布 为VR控制器添加新的Prefab工作流程及触觉反馈API等
- 庖丁解LevelDB之整体感知
- 态势感知之Malware Callback
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。