内容简介:。# AR实现原理分析三要素:
导语 AR浪潮正滚滚而来,Web 浏览器作为人们最唾手可得的人机交互终端,AR技术又有那些进展,下面作者将自己在项目内AR的探索总结了一下,和大家分享 。
。
# AR实现原理分析三要素:
1.摄像头的调用
2.视频流内容识别
3.虚拟物体的叠加在画面上
# 技术实现一:摄像头的调用
1.使用getUsermedia获取摄像头内容
2.截取当前帧的内容:canvas toDataURL
目前的浏览器支持情况如下:
#技术实现第二步:视频流内容识别
方案1:纯JS识别库:js-aruco,tracking.js ,jsartoolkit5, ar.js进行识别
js-aruco和tracking.js在处理识别主要应用了:canvas来读取分析对应的图片信息。在处理视频流,视频如果尺寸大了,则识别速度慢,卡顿明显。目前主流分辨率都在750*1334左右,直接处理这个大小的视频,速度肯定不够。下图附上参考和网址:
jsartoolkit5和 AR.js:主要是将artoolkit c++库通过 Emscripten编译成对应的js文件(asm.js)文件,在性能和计算上得到了提升。但是对应视频流的解析会有轻微的抖动。
观看对应的帧频,js-aruco = tracking.js <jsartoolkit5+ar.js
方案2:websocket + opencv
既然前端处理视频流不够快,那我们是否直接后端处理就好?
为了减少网络请求:主要用上了websocket来网络请求处理,
后台主要适用了node-opencv
问题:网络传输会影响识别速度。
1.图片数据转化耗时:视频转成当前帧图片,toDataURL(),750*1334,耗时大概在80ms左右。
优化方法:toDataURL(‘image/jpeg’)会加快速度,因为这里不需要计算Alpha通道。在20ms左右。速度会高于toDataURL();
2.图片传输耗时:websocket在传输图片信息大约在50ms左右。
#技术实现第三步:实现虚拟场景和视频结合
2D内容和视频结合:canvas,利用 Canvas API 在相应坐标上进行绘制,展示一个实现的demo:
3D内容和视频结合:three.js或者layabox,利用webgl API在对应位置增加3D模型。
最后附上demo:
#总结
最近在AR项目探索,在web端的实现AR已经有了很好基础,解析耗时都是可以接受的。后端解析,前端结合3D是比较理想的解决方案。
以上就是本文的全部内容,希望本文的内容对大家的学习或者工作能带来一定的帮助,也希望大家多多支持 码农网
猜你喜欢:- ROS探索总结(五十六)—— launch文件
- ROS2探索总结(十)—— ROS 2基础工具使用入门
- ROS2探索总结(十二)—— ROS2 Python编程基础
- airflow探索篇
- 探索 React 合成事件
- webSocket原理探索
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。
乔布斯离开了,马斯克来了
[日]竹内一正 / 干太阳 / 中信出版社 / 2015-11
在电动汽车的创新上,特斯拉抓住了一个群体的独特需求,外形很酷,不烧油,智能化控制。所有的颠覆式创新都不是敲锣打鼓来的,而是隐藏在一片噪声里,马斯克给我们带来的特斯拉虽然不尽完美,但他做产品的思维和执着于未来的勇气,值得学习。埃隆•马斯克创办公司也不是为了赚钱,而是为了拯救人类和地球,电动汽车、太阳能发电、宇宙火箭,不管是哪一项都足以令一个国家付出巨大的代价去研究开发,但埃隆•马斯克却一个人在做这些......一起来看看 《乔布斯离开了,马斯克来了》 这本书的介绍吧!