移动机器人课设项目,拟实现在A-LOAM的基础上,使用DeepLabV3PLUS进行语义分割,实现语义地图
的构建,并将语义信息和视觉信息融合。实时构建带有物体标签的语义信息。在复杂环境下,面对车辆、行人等动态物体具有较好的鲁棒性。最后,能够根据语义信息很好识别行人和车辆。
1、使用激光SLAM构建地图
2、视觉信息与激光信息的融合进行建图
3、使用深度学习方法提取语义信息,将语义信息和几何信息融合,构建语义地图
4、在语义地图的基础上检测车辆和行人,提高无人车的安全性
5、在构建的语义地图基础上进行自主导航(未实现)
该项目构建的语义地图相比传统的SLAM建图利用了语义信息,将数据关联从像素级别提升到了物体级别,能够提高在复杂环境下的鲁棒性。
语义信息的加入,使得路径规划和路径导航更加智能。无人车在进行自主导航时,面对移动的车辆和行人,能够快速的避障,保障了无人车的安全性、高效性。
gmapping是基于粒子滤波的2D激光雷达SLAN。在小场景中建图效果较好。
但对于此项目的无人送货小车来说,当送货路途较远时,建图规模较大,随着建图时间的增加,会逐渐累计里程误差,最后建立的地图很难用于导航。此外gmapping是2DSLAM,面对空旷的室外环境时,定位将失效,很难得到有效的点云信息。
为了满足无人送货小车在室外环境送货的需要,选用ALOAM进行地图构建。该SLAM算法使用的是3D激光雷达,对复杂室外环境具有更好的适应性,提取的环境点云信息更加丰富。
此外,该算法将低精度高速度的里程计和低速度高精度的里程计结合,实现实时建图。在减小计算量的同时,保证了较高的精度。
该项目使用DeepLabV3PLUS进行语义分割,将提取的语义信息传给ALOAM进行地图构建。语义信息的融合,提高了机器人与环境的交互能力。在无人车自主驾驶时,能更好识别出车辆和行人,保障了无人车工作中的安全性。
此外,该项目也能应用在家庭服务机器人,语义信息的结合,机器人能根据下达的指令前往目标点抓取指定的东西。