资讯

为机器赋能‘看得懂’的智慧——速感科技CEO陈震在机器人大会的演讲

编辑 2017-08-30 08:21 AGV网 来源:AGV网
北京辰天科技有限公司
  2017世界机器人大会于8月23日盛大开启,本届大会由北京市人民政府、工业和信息化部、中国科学技术协会共同主办,中国电子学会、北京市经济和信息化委员会、北京经济技术开发区管委会承办。来自全球300余位机器人领域的顶级专家、知名学者共赴盛宴。在“2017世界机器人大会人工智能与机器人青年创新创业专题论坛”当中,各位专家围绕战略布局、政策发展、创新趋势等行业热点话题展开了深入的沟通和研讨。
以下是速感科技CEO陈震在机器人大会的演讲实录:


速感科技CEO陈震在机器人大会的演讲


陈震:谢谢安冉的介绍,谢谢今天大会在创新创业论坛有机会可以向大家来介绍一下分享一下过去我们做的事情。我是速感科技的创始人陈震,今天分享的题目“为机器赋能‘看得懂’的智慧”。我们本身定位而言不是做像智行者还有纳恩博做toC级的消费机器人,我们是做关键的部件,刚才介绍服务级的机器人的时候都提到关于行动移动决策的时候如何为机器人和无人驾驶汽车做多传感器融合的定位和导航方案。其实这里面最关键的核心,我们认为其实我们在做的事情就是给现在的机器人加了一双眼睛,主要用今天的视觉为主的低成本高效的视觉融合方法来帮助这些设备解决在三维空间当中的定位、感知、导航、避障和路径规划,所以起了这样一个名字。

速感科技2014年10月份成立,主要致力于帮助下游的行业客户包括今天的VR/AR设备公司,包括今天的服务机器人公司,还有扫地机器人、自动化叉车企业解决它们的智能设备在实际过程实际作业当中如何去进行自主决策、自主移动和自主定位和感知。今天上午有嘉宾提到,在今天的高校而言,我们这场论坛更偏向青年的创新创业论坛,里面有老师提出,现在很多的高校对于研究生培养计划,对于博士、硕士培养计划里面提到双导师制。很荣幸从2014年慢慢成立公司走到今天,感谢在创新创业的环境下高校包括北航、清华给了我们这样的机会,我在研究生刚入学有两位双导师制,上午老师提到一位导师是学术导师,在整个研究生入学一年到两年时间里面对我们进行学术性的指导,包括我的主攻方向是关于机器人视觉计算机人机交互,如何探讨机器和人之间的交互方式和视觉的交互进程的演进。第二位导师来自微软亚洲研究院的许老师,主要帮助我们通过在清华、北航、微软进行合作间的项目型的建立,我主要担任的课题就是特种飞行器和特种机器人,包括服务机器人、火场救援机器人、扫地机器人和清洁家电机器人,利用整体的视觉感知系统来达到实时的常规性作业。基于这样的环境下,2014年成立速感科技致力于帮助下游的用户解决相关问题。

今年的WRC看到工业、消费两个大的展区,分别展示了今天的服务机器人包括无人机包括快递机器人、扫地机器人,还有AR/VR设备。我们看到在过去的三到五年时间已经不断融入我们的生活,通过一代两代三代不断迭代,让它们更好满足我们之间的用户体验。在这些体验过程当中,大家可能没有意识到在整个体验过程当中视觉技术在里面起到非常关键和决定性的作用,它决定了在整个用户体验当中包括我们的扫地机器人产品,包括AR/VR设备如何更好地满足用户端在使用防晕眩、更智能的行走这样一些相关问题。

提到视觉技术不得不说在过去的30多年将近40年时间里面,视觉技术的起源和发展的关系。30多年时间机器人行业一个重要性的里程碑事件,美国斯坦福机器人研究严在1980年提出来智能移动机器人shakey,当时搭载了几乎所有市面上电子行业能看到的传感器,包括电子摄像头、微博测距、接近传感器,整个完成了自底向上的顶层设计分层设计的智能机器人。这套机器人在当时可以完成局部的环境数据采集,达到局部的路径规划,在当时应该是这样一套自底层向顶层。我们分析底层有机器人的移动层、决策控制层,中间层有系统中间件,顶层有机器人的交互系统,基本这套系统在今天所有的智能设备里面一直是在沿用。1980年shakey机器人的发明自此拉开智能移动机器人研究的大幕。

2004年美国发射了两颗火星探测车,机遇号、勇气号,当时应该是全球最早搭载多目立体视觉传感器的探测车,视觉领域应用的这些设备都是最典型的军转民甚至是航空器转民的过程。最早搭载的好奇号的火星探测车上通过双目电子摄像机模拟人眼拿到深度信息,就是今天的距离信息,更好地帮助它在未知的环境下进行移动和决策。在这个时间点2004年提出了一套视觉的同步定位与地图构建算法VSLAM,今天被应用到各种各样的智能设备里面。2013年中国的第一台月球探测车玉兔号发射升空,搭载了更为先进的技术,2013年在军方包括航空器里面已经开始应用结构光技术的传感器,利用双目立体视觉特别是主动光源的结构光和TOF光源进行未知环境下的探测。在2013年之后的2015年、2016年明星创业公司深圳大疆发布SLAM双目立体视觉定位导航系统,可以实时提取出前端人的信息、环境信息,让环境和前景进行分离。我们大家都玩过大疆最新的精灵4,上面有自动跟随的系统,主要应用这样一套立体视觉的成像方法,帮助锁定移动物体进行跟踪。

2015年GOOGLE发布了Tango手机,美国的创新公司发布了结构光传感器,2016年微软发布了HoloLens传感器,在今天的VR/AR设备,结合最先进的视觉传感器以及视觉传感器背后的溶融合视觉方法,解决地图构建和环境自身定位的相关问题。整个发展过程当中可以看到,传统的计算机视觉领域CV领域在几何学上一直分有两个重要的研究方向,就是今天的学习几何和非学习几何。学习几何过去五年为机器学习深度学习为代表的,包括今天的卷积神经网络,还有搭载的浅层和深层的深度学习,可以帮助我们解决识别感知、场景语义相关的方式。今天可以看到的最早把字符通过16线的分割来进行模式识别,通过搭载一个浅层的深度学习网络,可以帮助它进行更好提取到高层的语义特征,进行整个特征识别。在今天人脸识别物体识别做得非常好了,特别是人脸识别前段时间Image.Net宣布结束它的时代任务已经完成。今天大的明星创业公司包括商汤、旷视做的事情已经把人脸识别包括今天的学习和感知的算法提升到一个堪比人甚至超过人的高度。

过去三年时间里面ICCV包括CVPR大会上更关注的一点和更新的起点,在非学习多面几何里面的实时性的SLAM,同步定位与地图构建的算法原理。今年国际的计算机视觉大会上,我们看到戴文森教授提出深度学习和实时SLAM结合帮助我们进行整体的场景语义和同步定位的理解。SLAM系统究竟是什么?为什么过去五年当中可以说是一夜爆火,几乎看到的所有智能硬件里面都应用到这样一个SLAM算法技术。简单来说,同步定位和地图构建智行者刚刚提到,很长一段时间里面被人们认为是一个鸡生蛋和蛋生鸡的问题,达到一个精度的实时定位需要高精度的地图,依据地图能够知道在环境当中的具体位置。第二,我只有知道了具体位置才能对一个未知的环境地图进行更好的拼接地图构件,需要同步地位和地图构建不断相互补充融合迭代,达到非常理想的实时定位效果。举个简单的例子,让一个机器人在执行任务的过程当中让它看到冰箱并且去抓取冰箱里面的牛奶,这时候用的是学习几何里面的识别和感知。第二点,我如何让机器人从我现在的位置到达冰箱的位置,在到达过程当中选取最简单最直接的路径,并且在过程当中如果有人阻挡有障碍物要学会躲避障碍物躲开人。在这个过程当中应用的是SLAM技术。

在SLAM技术里面,我们认为它有三个关键式的里程碑,最为关键的里程碑2003年英国帝国理工学院的安卓戴维森教授是当时最早提出来MonoSLAM系统,它的诞生到今天影响了很多服务机器人厂商。全球的家电领导者戴森推出的唯一一款扫地机器人应用的就是戴维森教授在2003年提出的MonoSLAM系统。软银最近一段时间增持了IROBOT5%的股份,IROBOT最近五年股价从30块钱到110块钱/股,整个过程当中体现出SLAM系统朝着实时性、低成本、高效的视觉融合的方案演进。基于SLAM系统和基于图形图象的视觉VSLAM当中可以延伸出来不同跟机器人的决策相关算法,包括融合定位、路径规划、检测跟踪和自主导航,速感科技在过去三年多的时间里面,基于核心的VSLAM系统四个不同方向进行更深一步的研究,为下游的工业和消费类的客户体了四个方向上的算法和相关解决方案。

在2012年,我在实验室跟着师兄师姐一起做项目,用当时2010年以色列的PrimeSense和微软发布了第一代Kinect传感器,我们在实验室进行系统性搭建用了这样一套传感器结合英特尔的嵌入式计算机。当时搭载这样一套视觉系统整个的功耗还有当时的实时运算处理效果,在机器人无人机上考虑它的有效载荷,整个成本报价,在去年年底把整个前端的视觉采集装置和后面的嵌入式计算融合到一起推出了传感器M32,今年推出M01,可以达到1瓦以内的实时功耗,整个定位采集的数据可以达到90赫兹,整个传感器的重量只有20克。现在面向下游的企业推出来的这款传感器的价格是200块钱左右。在2012、2013年国内也好包括国际市场也好,在各个大会上已经看到,所有的算法所有的图形图样的算法一直朝着小型化、模块化和前端化的趋势上走。

今天也看到非常非常多的前端传感器公司在开发FPGA,包括在DSP还有自己的SOC上进行开发,都是朝着芯片的专用化包括算法的专用化和模块化方向上做。在整个VSLAM系统里面如何去选取到不同的市场特征点,作为整个坐标原点,我们的视觉算法和单纯的依靠成绩码盘的服务机器人做的整个视觉效果的对比,对于SLAM系统里面分了前端后端两块。最主要的一块是后端进行回还检测,整个服务机器人里面刚刚蒲立学长讲过,我们遇到即使是今天的会场环境下,有非常非常多的环境问题,包括毛毯、地毯、上下斜坡,这样过程当中我们所用到的贯导仪器失灵的程度非常大,我们必须依赖其它传感器的融合来帮助服务机器人进行作业和执行任务过程当中解决定位精度和零偏漂移的问题,我们应用的是视觉的办法。蓝色的线是我们今天看到的视觉,除了进行回还检测,在局部特征的时候基于所有的市场特征进行全部回还的优化。


速感科技推出的扫地机器人视觉传感器


作为今天而言,现在的云计算成立更多成为大家所用的功能,在今年的6月份美国IROBOT扫地机器人厂商发布最新的如何利用深度学习,后端云计算和前端服务机器人进行更好地有机结合。首先在第一步可以利用视觉SLAM算法对家庭地图进行构建,视觉加载了比其它二维线状、激光、雷达,惯性测量单元更具备的图象信息,所以在地图构建过程当中可以进行嵌入式本地化的特征场景识别,包括识别到家庭里面的沙发、家庭里面的电视。第三步,可以基于这些特征点把这些高维的特征点通过深度学习的方式上传到我的云端进行云端的更深层次的理解,包括场景语义的理解,场景的分割和地图标签的标注。

最后一点,服务机器人可以基于云端深度学习的理解,对家庭场景进行更深层次的理解,从而对家庭场景达到特定任务的执行。今天的扫地机器人按下开关进行全覆盖式的路径规划,今天以后在Irobot可以有针对性进行特定点、特定场景的工作和作业。我们在今年的5月份面向全部的下游客户推出来扫地机器人视觉关键部件,刚刚提到对于扫地机器人从过去的17年左右的时间一共分为三代扫地机器人。第一代扫地机器人做类布朗形式的乱撞,不会搭载任何传感器,碰到墙壁就会旋转135度进行下一个位置的清扫和作业。第二代扫地机器人,随着工作时间的累计和增加,陀螺仪、码盘的数据随着飘移的程度越来越大,我们在今年5月份推出第三代扫地机器人关键传感器,让整个扫地机器人和未来服务的服务机器人达到更低功耗的智能行走,有效降低漏扫率和重复清扫。

在工业的场景里面,WSC会议上也有一些下游的合作厂商利用我们的SLAM定位控制器帮助现在的做HV的厂商解决在物料运输过程当中HV的自然导航和有特征点和有mark点的相关信息,SLAM最核心的应用场景基于消费核工业的两个场景。

最后介绍一下我们的整个产品系列,我们是做一家toB的解决方案厂商,面向下游的客户提供了包括消费级的核心传感器、工业级的导航定位控制器,我们和英特尔合作的服务机器人开发控制平台,这样一个开发控制平台在过去一年多的时间里面已经帮助国内的30多家服务机器人厂商解决了它们服务机器人商用具体场景里面的场景对接和场景落地问题。

谢谢!

(以上讲演内容为速感科技供稿,中国AGV网整理编写)

0 0

网友评论

取消