内容简介:9月12日上午,AR公司亮亮视野与中科院自动化所宣布,双方将联合成立“第一视角计算联合实验室”。同时,由该实验室主办的“首届第一视角智能交互高峰论坛”在北京举行,多位人工智能领域专家学者和产业界人士就第一视角“智能感知交互的未来”进行主题研讨。据双方介绍,中科院自动化所和亮亮视野成立联合实验室,将聚焦于第一视角计算前沿课题的研究及其成果落地。具体内容为:研究视觉智能感知技术,涵盖目标检测、人脸识别和场景识别;研究深度神经网络压缩和加速技术,并落地到亮亮视野实际业务中使用。
9月12日上午,AR公司亮亮视野与中科院自动化所宣布,双方将联合成立“第一视角计算联合实验室”。同时,由该实验室主办的“首届第一视角智能交互高峰论坛”在北京举行,多位人工智能领域专家学者和产业界人士就第一视角“智能感知交互的未来”进行主题研讨。
成立联合实验室,聚焦第一视角计算
据双方介绍,中科院自动化所和亮亮视野成立联合实验室,将聚焦于第一视角计算前沿课题的研究及其成果落地。具体内容为:研究视觉智能感知技术,涵盖目标检测、人脸识别和场景识别;研究深度神经网络压缩和加速技术,并落地到亮亮视野实际业务中使用。
所谓“第一视角”,指的是人类自主的通过眼睛来观察事物,即主动感知。区别于只能被动感知的“第三视角”,“第一视角”在获取数据与知识方面具有很大的潜能。以安防场景为例,一线警员在执法办案过程中,经常要捕捉第一现场的信息。但既有的城市监控点属于固定监控点,只能对固定目标或有限监控区域进行监控。且突发事件地点、时间过于随机,阻碍了警方快速反应和执行。而采用AR警用智能眼镜,则能进行“第一人称视角”的识别和判断,并进行各方联动。于是,安防警务,成了亮亮视野CEO吴斐最看好的AR应用场景之一。
第一视角主动感知,更多的是对人类能力的增强而非替代。在安防场景中,警察用智能眼镜主动对其怀疑有问题的车辆进行车牌识别查询,便是对人机交互能力的一个增强。同时,通过第一视角结构化的知识标签,人类智能可以反过来再增强AI,形成一个感知闭环。
现阶段,对于第一视角的研究主要集中在感知方向。 第一视角的感知,对计算能力提出了一个超高的要求,即对现实感知的超高实时性。而AI芯片的边缘计算是目前认可度最高的解决方案之一,它克服了传统云端计算方案容易造成网络延迟的问题,且对云端服务器并发能力有着更大的释放,从而提升用户体验以及商业应用价值。
从技术概念到商业落地,亮亮视野以第一视角赋能警务交互
2014年成立的亮亮视野,立足于AR智能硬件,通过AR技术驱动下的“第一视角交互”,实现多维度的连接、认知与协同。具体到行业表现为,助力安防、工业、医疗等行业智能化升级,亮亮视野为用户提供远程指导、一体化指挥等场景下的软硬一体化平台。
面向行业用户,亮亮视野先后推出GLXSS Live第一视角人机协作平台以及GLXSS Force移动警务解决方案。
其中,GLXSS Force集成了亮亮视野自主研发的离线人像识别技术,以及高性能、低功耗的神经网络推理框架,能帮助用户快速准确的进行识别研判重点人员、离线布控、人证合一、人像和车牌比对、远程调度和协同指挥。该方案由GLXSS智能眼镜、移动警务客户端、警务平台这三个核心部件构成。
2018年1月,亮亮视野推出了新产品GLXSS ME。这款全球首款搭载AI芯片的“人工智能”AR眼镜,重量达到33.4g,支持长时间佩戴,同时应用了自主研发的基于端计算的神经网络推理框架。一线民警佩戴上GLXSS ME,在将眼镜对准人脸时,便能自动进行识别,显示出执法相关信息。一旦发现犯罪嫌疑人员,GLXSS ME会自动报警,随后巡逻人员将信息快速反馈给指挥中心,进行持续锁定,进而对犯罪嫌疑人进行快速打击。
GLXSS智能眼镜与后台数据相连接,可对不同犯罪嫌疑人进行智能识别,从识别信息到发出预警,最快只需要1秒钟,确保警方更加快速发现处置违法犯罪人员。2018年春运,郑州铁路使用亮亮生产的GLXSS ME警务智能眼镜,查获涉嫌拐卖人口、交通肇事逃逸等重大刑事案件的网上在逃人员7名,及冒用他人身份证件的人员26名,受到了海内外主流媒体的大量报道。
发布Laffe计算库,公布阵列光波导L-PAT
除了联合实验室的成立,亮亮视野还发布了第一视角计算基础库Laffe。
亮亮视野首席AI博士姚寒星在会上介绍道:“我们今天发布的Laffe,是一个第一视角计算的基础库,在VPU/NPU上,对卷积神经网络推理计算能力进行了深度优化,部分算子的计算速度提升了1倍到10倍不等,可以支持各种主流深度学习框架如Caffe/Mxnet/TensorFlow训练的模型在智能眼镜上快速部署。”
另外,亮亮视野创始人吴斐还透露了亮亮视野在光学技术领域最新的研发成果。“第一视角产生的结果和数据需要通过可视化的手段展示,我们经过四年的探索,研发出阵列波导L-PAT, 其优势是通过薄至1.5mm的镜片,便可以将主动感知的信息实时与现实进行叠加。”
未来,智能眼镜的第一视角可以随时伴随用户一起观察世界,感知眼动、身体姿态与手势,分析并学习这些数据形成结构化知识。基于“第一视角”的交互方式最接近人的本能,我们期待这种方式能够在人工智能领域落地生根。
近年来,粤港澳大湾区在打造创新驱动新引擎,科技创新带动资源集聚等方面着力颇多,创新机制、产业升级、人才引流、协同发展等带来了多方面的机遇。相应的,人工智能、人才赋能正深刻地影响着商业步伐。
2018年10月18-19日,亿欧将在深圳举办 “引擎·引领” 2018大湾区国际科创峰会(BATi) ,集合智能制造、智能产品、智慧城市、智慧安防、智慧交通等一众热点问题展开探讨,分析科技创新未来趋势,盘点技术革命下的发展契机。
报名链接:
https://www.iyiou.com/post/ad/id/664?herkunft=6648
版权声明
凡来源为亿欧网的内容,其版权均属北京亿欧网盟科技有限公司所有。文章内容系作者个人观点,不代表亿欧对观点赞同或支持。
以上所述就是小编给大家介绍的《亮亮视野携手中科院自动化所,成立联合实验室,聚焦第一视角计算》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!
猜你喜欢:- 中科院 “木兰” 开发者道歉
- 中科院专家:密码实现与应用的安全挑战
- 中科院首席专家布道中瑞思创时尚行业主题沙龙
- 直击|联想与中科院共建HPC平台 满足5年科研需求
- 中科院院士: 建立国家主权区块链基础平台迫在眉睫
- 中科院教授王斌加入小米,任自然语言处理首席科学家
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
JavaScript权威指南(第6版)
David Flanagan / 淘宝前端团队 / 机械工业出版社 / 2012-4-1 / 139.00元
本书是程序员学习核心JavaScript语言和由Web浏览器定义的JavaScript API的指南和综合参考手册。 第6版涵盖HTML 5和ECMAScript 5。很多章节完全重写,以便与时俱进,紧跟当今的最佳Web开发实践。本书新增章节描述了jQuery和服务器端JavaScript。 本书适合那些希望学习Web编程语言的初、中级程序员和希望精通JavaScript的JavaSc......一起来看看 《JavaScript权威指南(第6版)》 这本书的介绍吧!