SegICP: Integrated Deep Semantic Segmentation and Pose Estimation
代码地址:在公众号「3D视觉工坊」,后台回复「SegICP」,即可直接下载。
尽管机器人的相关技术近年快速发展,但机器人如何在复杂、真实的场景中实现快速、可靠地感知与任务相关的物体仍然是一项十分具有挑战性的工作。为了提高机器人系统的感知速度和鲁棒性,作者提出了 SegICP,这是一种用于对象识别和位姿估计的集成解决方案。SegICP 结合卷积神经网络和多假设点云配准,以实现鲁棒的像素级语义分割以及相关对象的准确实时 6 自由度姿态估计。该架构在没有初始解的情况下实现了实时的1 cm 位置误差和 小于5°的角度误差。最后在根据运动捕捉生成的带注释的基准数据集上完成了SegICP的评估。本文主要贡献如下:
1)提出一种高度并行化的综合语义分割和多假设物体姿态估计方法,其单视图操作精度为1cm。在70-270毫秒(4-14赫兹)的时间内,不需要任何先验的位姿状态。
2) 提出一种新的点云配准评价指标,对点云的配准质量进行评分,允许在许多潜在的假设上进行自主和准确的位姿初始化。
3) 提出一个高效的自动数据收集框架,用于通过使用运动捕捉系统获取带注释的语义分割和位姿数据集。