小觅双目深度相机开源vSLAM算法用于无人驾驶
转载 2019-04-27 15:32 小觅 来源:小觅2016年以来,无人驾驶创业公司不断涌现,如今正面临着商业化探索的关键时期。接下来,无人驾驶的行驶方式等待检验、量产中亦有诸多难题等待解决。前不久,李开复还曾公开表示,像Waymo一样的自动驾驶,即人可以不在驾驶位上,还需要很久,但是以后的车没法人机协作。
他还进一步解释道:“我们也可以认为以后无人驾驶达到了一定的程度,它就会通过物联网彼此交流,比如说一辆车可以告诉另外一辆车,说我爆胎了,请你们让开一点。自动驾驶将取代人类驾驶。当然达到这个程度还有20年,30年还是40年,有争议存在。”
虽然在商业落地的过程中,无人驾驶的生态圈还面临众多难点。但大多数人依然支持“自动驾驶是人工智能改变世界的光辉起点”的这一观点,对该领域的探索也不会止步。这其中,SLAM的应用至关重要。
SLAM(同步定位与地图构建),是指运动物体根据传感器的信息,一边计算自身位置,一边构建环境地图的过程,解决机器人等在未知环境下运动时的定位与地图构建问题。目前,SLAM在无人驾驶领域的用途包括传感器自身的定位,以及后续的路径规划、运动性能、场景理解等。
由于传感器种类和安装方式的不同,SLAM 的实现方式和难度会有一定的差异。按传感器来分,SLAM 主要分为激光 SLAM 和 vSLAM 两大类。早在 2005 年的时候,激光 SLAM 就已经被研究的比较透彻,直到目前,激光 SLAM仍然是最稳定、最主流的定位导航方法。
随着计算机视觉的迅速发展,vSLAM(基于视觉的定位与建图)因为信息量大,适用范围广等优点逐渐受到广泛关注。基于视觉的 SLAM 方案目前主要有两种实现路径,一种是基于 RGBD 的深度摄像机,比如英特尔的Realsense和小觅深度相机系列产品;还有一种就是基于单目、双目或者鱼眼摄像头的。
基于深度相机的SLAM ,跟激光 SLAM 类似,通过收集到的点云数据,能直接计算障碍物距离,相比基于单目、鱼眼相机的 vSLAM 方案,需要利用多帧图像来估计自身的位姿变化,再通过累计位姿变化来计算距离物体的距离,并进行定位与地图构建,基于深度相机的 SLAM 方案在无人驾驶领域应用更为普遍。
小觅双目摄像头深度版(MYNT EYE Depth)采用“视觉+结构光+惯性导航”融合的方案,内置深度计算芯片,无需上位机即可输出深度。相较固态激光、单目相机、视觉相机、结构光相机和ToF相机等单一深度传感器方案,“视觉+结构光+惯性导航”融合的方案是适用场景更广泛且更具性价比的3D传感器融合解决方案。
小觅双目摄像头深度版提供120°FOV和50°FOV两种视角方案给客户选择,120°FOV版本提供更广阔的深度识别范围,50°FOV版本则具备更高精度水平和识别深度,识别距离可达15m,精度可达毫米级,为室外作业环境提供了更多可能。
总的来说,想让用户在AR/VR、机器人、无人机、无人驾驶领域体验加强,还是需要更多SLAM前沿技术做支持。未来新型传感器的出现也会不停地为SLAM注入活力,在降低SLAM算法难度的同时,也会给SLAM的技术格局带来许多变化。
网友评论0条评论
相关资讯
更多- 合肥搬易通MiMA人上型三向堆垛车,为汽车零部件产业仓储升级保驾护航
- 新质三一 全球领航丨三一机器人邀您相约2024上海宝马展
- “双十一”背后的物流创新引擎:科尔摩根AMS助力郑州机场货运智慧升级
- 案例集 | 优化仓储管理,未来机器人助力食品饮料行业提升自动化
- 全球首发丨磅旗首款全自动化OHT上下料产品,以深度数字化、全自动赋能无人工厂
- 双11余温未散,双12备战正酣:木蚁无人叉车助力物流公司高效迎战
- 卓一智能叉车在CeMAT ASIA (2024)展示物流领域的先锋力量
- 千里同行,向“智”而行!中力第九届双十一完美收官!
- 大道至"减",快仓为提高用户ROI持续创新
- 镭神智能激光雷达全场景系统解决方案赋能低空经济新时代