【泡泡传感器评测】小觅双目摄像头D1000-IR-120/Color模组评测(上)
转载 2019-08-07 14:39 paopaoslam 来源:泡泡机器人SLAM在本次评测过程中,泡泡机器人的评测人和传感器厂商的技术人员进行了充分的沟通。传感器厂商表示,在沟通过程中,为小觅双目摄像头提供了很多有用的建议,使得小觅双目摄像头在未来,能够产出更适合vSLAM的模组,为vio的技术发展提供更好的传感器支持。
评测前的准备工作
本次评测的型号是 D1000-IR-120/Color, 特点是 相机自带芯片计算出深度图,深度图的计算不耗费计算平台的算力。带IR补光提升深度图效果,120度FOV,支持输出彩色图。
ubuntu, windows, 以及ROS Wrapper的安装教程在这里:[安装教程](https://mynt-eye-d-sdk.readthedocs.io/zh_CN/latest/sdk/sdk_install.html)
小觅双目摄像头的固件和SDK迭代比较快,新的固件和SDK里往往会输出更好的效果,因此建议在安装完SDK,验证相机可以正常使用后,对固件进行升级。
另外,升级固件时,最好将主处理器和协处理器都进行升级[相关文件链接](https://mynt-eye-d-sdk.readthedocs.io/zh_CN/latest/firmware/contents.html)。
经测试,imu和相机的位置关系如下:
imu采用的是bmi088,角速度和加速度的时间戳是分别输出的。SDK中使用了插值法,对两个时间戳进行了统一。
如果对于imu更深入的使用,可以参考[bmi088的datasheet](https://www.bosch-sensortec.com/bst/products/all_products/bmi088_1)。
IR光斑可以增强深度识别精度,但是对rgb图像有干扰,因为测试VIO,所以关掉了IR, 在launch⽂件中有参数配置,可以[关掉IR](https://mynt-eye-d-sdk.readthedocs.io/zh_CN/latest/sdk/samples/set_open_params.html#ir)。
笔者最先使用了640x480⼤小的图像,采样不够理想,于是改用1280x720的图像crop,再resize使用,能够满⾜需求。
D系列支持的分辨率和帧率比较多, [详见这里](https://mynt-eye-d-sdk.readthedocs.io/zh_CN/latest/product/support_resolutions.html)。分辨率和帧的修改可以在launch文件中做,按着支持列表的参数进行修改,就可以生效。
小觅双目摄像头输出的yuyv422格式的彩色图, 而VIO其实只需要灰度图就够了, 因此笔者对图像进行了处理,输出灰度图后使用。
关于本模组的imu数据:
1)时间单位(stamp)是0.01ms
2)加速度计(accel)的单位是一个重力加速度
3)陀螺仪(gyro)的单位是度/s。
4) imu的频率200hz
其中加速度计输出的是一个norm向量值,需要自己进行转化成m/s^2的单位, 恢复真实加速度的话,一般乘以9.8即可。
如果要严谨处理,则需要按当地的纬度计算一个重力加速度。
评测前的话
本次主要是从标定维度对小觅双目摄像头模组进行评测,并基于此模组,通过VSLAM进行初步的验证。
VSLAM是使用uSens公司的自研sSensSLAMAR, uSensSLAMAR引擎实现了高性能的SLAM跟踪算法,拥有更高的计算效率、稳定性、抗干扰性及精度,并在中低端手机上进行了优化。
VSLAM测试
笔者使用公司uSenseSLAMAR测试效果如下
从视频 可以看出,稳定性、及精度都很不错。其中红色是camera的轨迹, 绿色是imu的轨迹。
从上面视频中,可以看出抗干扰性好,轻拍摄像头,虽然会对相机和imu产生一些的震荡,相机仍旧保持正确的位姿。
(此文系转载,文中所有文字内容和图片之知识产权均系原作者和机构所有。)