Files
openmlsys-zh/chapter_rl_sys/perception.md
Jack 433015d944 robo_sys (#253)
* ch13

* ch13

* ch13

* ch13

* fix

* fix

* update

* update

* update

* update

* update

Co-authored-by: Dalong <39682259+eedalong@users.noreply.github.com>
Co-authored-by: Jiankai-Sun <jkaisun1@gmail.com>
2022-04-17 23:06:48 +01:00

2.0 KiB
Raw Permalink Blame History

感知系统

感知系统不仅可以包括视觉还可以包含触觉、声音等。在未知环境中机器人想实现自主移动和导航必须知道自己在哪例如通过相机重定位周围什么情况例如通过3D物体检测或语义分割这些要依靠感知系统来实现。 一提到感知系统不得不提的就是即时定位与建图Simultaneous Localization and MappingSLAM)系统。SLAM大致过程包括地标提取、数据关联、状态估计、状态更新以及地标更新等。视觉里程计Visual Odometry是SLAM中的重要部分它估计两个时刻机器人的相对运动Ego-motion。ORB-SLAM系列是视觉SLAM中有代表性的工作图 :numref:orbslam3 展示了最新的ORB-SLAM3的主要系统组件。香港科技大学开源的基于单目视觉与惯导融合的SLAM技术VINS-Mono也很值得关注。多传感器融合、优化数据关联与回环检测、与前端异构处理器集成、提升鲁棒性和重定位精度都是SLAM技术接下来的发展方向。

最近随着机器学习的兴起基于学习的SLAM框架也被提了出来。TartanVO是第一个基于学习的视觉里程计VO模型该模型可以推广到多个数据集和现实世界场景并优于传统基于几何的方法。 UnDeepVO是一个无监督深度学习方案能够通过使用深度神经网络估计单目相机的 6-DoF 位姿及其视图深度。DROID-SLAM是用于单目、立体和 RGB-D 相机的深度视觉 SLAM它通过Bundle Adjustment层对相机位姿和像素深度的反复迭代更新具有很强的鲁棒性故障大大减少尽管对单目视频进行了训练但它可以利用立体声或 RGB-D 视频在测试时提高性能。其中Bundle Adjustment (BA)与机器学习的结合被广泛研究。CMU提出通过主动神经 SLAM 的模块化系统帮助智能机器人在未知环境中的高效探索。

ORB-SLAM3主要系统组件

:width:800px

🏷️orbslam3