基于视觉的智能移动

已取得突破性成果,达到国际先进水平

作为基础,我们实现了基于同步定位与绘制地图(SLAM)等多种运动功能,可以在陌生环境中自主进行周围环境检测、所在地区地图构建,避障行走,并且能够跟随指定的用户一起行动,当指定用户不在视野中时,会主动旋转方向寻找该用户。尤为有特色的有两点:

1、机器人在SLAM与避障行走过程中的精细物体检测方法。在SLAM与行走过程中,正确检测障碍物是确保运行安全的重要一环。然而,对于场景中的精细障碍物,如细线、树枝等物体,当今行业内,现有的障碍物检测方法存在着很大的局限性,从而导致此类障碍物成为影响无人机、机器人运行的隐患。例如雷达、超声波等主动式传感器往往存在着成本较高,或分辨率较低的缺陷;经典的基于双目立体视觉的深度计算方法,易于因为能量函数中过平滑而导致部分精细结构深度估计失败。对此,我们提出了利用边缘对场景进行表示,并利用基于边缘的视觉测距技术对精细障碍物的深度进行恢复的国际领先方法。实验证明,与传统障碍物检测方法相比,我们的方法能够精确、实时地识别精细物体并恢复其深度,将SLAM与避障行走水平大大提高,达到了国际先进水平。

一系列工作成果发表在CVPRW 2017、WACV 2018上。

 

   2、机器人对人物跟随时的高精度实时多人检测方法。当今行业内普通的方法在多人交错运动、人物暂离摄像头范围时会出现跟丢、跟错的情况,而我们利用了兼顾运算速率与检测质量的DPM特征方法,将特征提取等局部性、重复性强的工作转移到移动GPU上,通过巧妙的并行化算法设计,既实现了准确、错误率低、误检率低、可以处理偏移等特性,又达到了实时的效果。能够实时准确地跟踪人物。实时性和综合效果都达到国际领先水平。

一系列工作成果发表在DATE 2014、DAC 2013、DAC2012上。