您当前的位置: 首页 >  自动驾驶

自动驾驶场景下的高效激光里程计

发布时间:2021-05-12 07:00:00 ,浏览量:2

标题:Efficient LiDAR Odometry for Autonomous Driving

作者:Xin Zheng, Jianke Zhu, Senior Member, IEEE

Zhejiang University, Hangzhou, China

来源:arxiv 2021

编译:丛阳滋

审核:lionheart

转载:泡泡机器人SLAM

摘要

  激光里程计在自动驾驶领域的自定位与建图占据着重要的角色,它通常可以看作是激光匹配的问题。尽管在KITTI数据集上已经存在效果很好的方法,在处理大规模点云时,传统基于搜索树的方法仍存在困难。球形距离影像(SRI)为快速邻域搜索提供了可能,然而在处理与激光束平行的地面点时不是那么高效,因此,本文提出了一种利用非地面点的SRI与地面点的鸟瞰图(BEV)来进行激光里程计的方法,利用新颖的距离自适应的方法来估计点的法向量,另外,采用一种非常快速并且内存高效的地图更新方式来融合不同时间的点云以及对应的法向量。通过KITTI上大量的测试证明了本文方法的有效性。

主要贡献

  一种利用非地面点SRI与地面BEV地图进行高效激光里程计的方法;

  一种距离自适应的法向量估计方法用于激光匹配;

  一种利用SRI与地面BEV地图快速且内存高效的地图更新方式;

  KITTI上的实验结果表明本文方法不仅可以达到很好的激光里程计效果,并且可以每秒处理169帧数据。

方法流程

  本文方法的总体流程如上图所示,首先利用球面投影的距离影像进行快速地面分割与非地面点残差的构建,再将分割出来的地面点投影到鸟瞰图上,构建地面点的残差,第三,利用距离自适应的方法计算SRI对应的法向量图,用于ICP匹配,最后更新非地面球形距离模型与地面BEV地图。

  如上图所示,由于地面点与非地面点分布上的差异性,地面点在SRI上的邻域并不能表达真实的局部表面,给法向量估计造成误差,进而影响匹配效果,所以本文利用SRI结合地面BEV图来进行地图的匹配。

  本文只采用帧与局部地图匹配的方式,而不是帧间的,利用上式中的两种误差误差项。

A 非地面点误差

  利用上式将离散的三维点云投影到二维SRI图像上,通过领域搜索来构建点到平面的误差

  上式为非地面点的误差项,可以看出法向量的正确十分重要,本文则提出了一种距离自适应的法向量估计方法以及两个粗差剔除的法则。

  利用上式可以灵活的估计邻域的大小,再通过判断邻域点协方差SVD分解后的特征值大小来选择平面特征明显的点位。

B 地面点误差

  借助SRI图像通过计算每一列相邻像素的上述两个角度来提取地面点。

  通过上式将地面点投影到BEV地图上来寻找对应关系

  与非地面不同的是,地面点的法向量并不是在特征提取阶段预先计算的,由于地面上的相邻点距离较远,因此法向量在每次迭代时会重新计算,利用相邻5个点。

实验结果

  上表中的结果表明本文提出的SRI与BEV融合方法能够达到最好的激光里程计效果。

  与其他SOTA方法的结果进行对比发现,帧与模型的匹配能够实现更好的效果。

  上表为法向量估计的精度评价,采用本文提出的方法能够达到最好的里程计精度。

  上表结果证明在小型处理机上本文方法依然能够达到非常高的处理效率,为自动驾驶提供了非常可靠的前景。

Abstract

LiDAR odometry plays an important role in selflocalization and mapping for autonomous navigation, which isusually treated as a scan registration problem. Although havingachieved promising performance on KITTI odometry benchmark, the conventional searching tree-based approach still hasthe difficulty in dealing with the large scale point cloud efficiently.The recent spherical range image-based method enjoys the meritsof fast nearest neighor search by spherical mapping. However, itis not very effective to deal with the ground points nearly parallelto LiDAR beams. To address these issues, we propose a novelefficient LiDAR odometry approach by taking advantage of bothnon-ground spherical range image and bird’s-eye-view map forground points. Moreover, a range adaptive method is introducedto robustly estimate the local surface normal. Additionally, avery fast and memory-efficient model update scheme is proposedto fuse the points and their corresponding normals at differenttime-stamps. We have conducted extensive experiments on KITTIodometry benchmark, whose promising results demonstrate thatour proposed approach is effective.

本文仅做学术分享,如有侵权,请联系删文。

下载1

在「3D视觉工坊」公众号后台回复:3D视觉,即可下载 3D视觉相关资料干货,涉及相机标定、三维重建、立体视觉、SLAM、深度学习、点云后处理、多视图几何等方向。

下载2

在「3D视觉工坊」公众号后台回复:3D视觉github资源汇总,即可下载包括结构光、标定源码、缺陷检测源码、深度估计与深度补全源码、点云处理相关源码、立体匹配源码、单目、双目3D检测、基于点云的3D检测、6D姿态估计源码汇总等。

下载3

在「3D视觉工坊」公众号后台回复:相机标定,即可下载独家相机标定学习课件与视频网址;后台回复:立体匹配,即可下载独家立体匹配学习课件与视频网址。

重磅!3DCVer-学术论文写作投稿 交流群已成立

扫码添加小助手微信,可申请加入3D视觉工坊-学术论文写作与投稿 微信交流群,旨在交流顶会、顶刊、SCI、EI等写作与投稿事宜。

同时也可申请加入我们的细分方向交流群,目前主要有3D视觉、CV&深度学习、SLAM、三维重建、点云后处理、自动驾驶、多传感器融合、CV入门、三维测量、VR/AR、3D人脸识别、医疗影像、缺陷检测、行人重识别、目标跟踪、视觉产品落地、视觉竞赛、车牌识别、硬件选型、学术交流、求职交流、ORB-SLAM系列源码交流、深度估计等微信群。

一定要备注:研究方向+学校/公司+昵称,例如:”3D视觉 + 上海交大 + 静静“。请按照格式备注,可快速被通过且邀请进群。原创投稿也请联系。

▲长按加微信群或投稿

▲长按关注公众号

3D视觉从入门到精通知识星球:针对3D视觉领域的视频课程(三维重建系列、三维点云系列、结构光系列、手眼标定、相机标定、orb-slam3等视频课程)、知识点汇总、入门进阶学习路线、最新paper分享、疑问解答五个方面进行深耕,更有各类大厂的算法工程人员进行技术指导。与此同时,星球将联合知名企业发布3D视觉相关算法开发岗位以及项目对接信息,打造成集技术与就业为一体的铁杆粉丝聚集区,近2000星球成员为创造更好的AI世界共同进步,知识星球入口:

学习3D视觉核心技术,扫描查看介绍,3天内无条件退款

 圈里有高质量教程资料、可答疑解惑、助你高效解决问题

觉得有用,麻烦给个赞和在看~  

关注
打赏
1688896170
查看更多评论

暂无认证

  • 2浏览

    0关注

    104724博文

    0收益

  • 0浏览

    0点赞

    0打赏

    0留言

私信
关注
热门博文
立即登录/注册

微信扫码登录

0.0480s