您当前的位置: 首页 > 

室内场景中语义分割的自动标注

发布时间:2020-09-25 07:00:00 ,浏览量:0

点击上方“3D视觉工坊”,选择“星标”

干货第一时间送达

论文标题:Automatic Annotation for Semantic Segmentation in Indoor Scenes

作者:Md Alimoor Reza, Akshay U. Naik, Kai Chen, and David J. Crandall

论文地址:在公众号「3D视觉工坊」,后台回复「自动标注」,即可直接下载。

摘要

家用机器人最终可以改变我们的生活,但是要在家庭环境中安全操作,需要对室内场景有深入的了解。基于学习的场景分割技术需要大规模的像素级标注,这些标注既费力又费钱。我们提出了一种用于视频序列的逐像素语义自动标注的方法,该方法从目标检测器收集线索并进行室内3D房间布局估计,然后在能量最小化框架中标注所有图像像素。在公开的视频数据集(SUN3D)上进行的大量实验评估了该方法并证明了其有效性。

贡献

  1. 提出了一种新颖的方法来密集标注室内场景的像素以进行语义分割。我们的方法将预训练目标检测器的遮罩与估计的室内场景布局结合起来,以解释图像中包括背景在内的所有像素。我们在条件随机场(CRF)能量最小化框架中制定像素级标注,以使用连续视频帧之间的规则性在整个视频上产生一致的标注。

  2. 该方法是为整个视频生成大量自动标注标签的替代方法。

  3. 证明了我们的自动标注可用于训练需要大量数据的Deep Neural Network,以在SUN3D上进行语义分割。

图1 我们会自动为室内场景添加标注,以训练语义分割模型。图像(左)基于现成的对象检测器和3D房间布局估算器自动标注(右)。

图2 对于每个视频帧,我们使用预训练的对象检测器(顶部分支)来识别候选对象蒙版。检测器未标注的像素是根据3d场景布局(底部分支)估算的。这些证据被合并到一个能量最小化框架中,以估算我们的最终标注。

图3 可视化我们的能量最小化方法。(a)对于每一帧,我们(b)从预训练的目标检测器中识别候选目标分割掩模。(d)剩余像素是根据场景的布局估算的。通过能量最小化将这些组合在一起,以估计我们的最终注释(h)。除了当前帧中的一元项(e)外,我们还结合了第二个一元(g),它使用(f)中所示的光流对前一帧中的证据进行编码。

图4 样本检测和3D房间布局来自两个不同的场景:SUN3D的学习室(左)和MIT-32(右)。Mask RCNN 的检测器输出(顶部)在检测到的物体周围提供了初始的粗略分割,而3D布局估算(如下)说明了包括“墙”,“地板”和“天花板”在内的背景类别。

图5 视频序列中三个连续帧上的检测掩码。请注意,探测器在“椅子”对象类别的同一实例上触发不一致。我们的公式可以用一元项φ(。)处理这种噪声,该项可以促进帧之间的时间一致性。

表1 对我们提出的自动标注方法进行定量评估。每个条目中的第一和第二项分别表示平均评估每类和平均IoU。最后一栏报告的意思是每个视频中的类别(按行)。底行显示每个类别的视频序列的平均值(按列)。

表2 SUN3D中8个视频序列的统计

表3 语义分割性能比较。每个表条目中的第一和第二项分别表示平均每类指标和平均IoU。最后一列显示了所有8个类别的综合性能。

图6 SUN3D在不同视频序列上进行自动标注实验的定性结果。从左到右,我们显示了RGB图像,地面真实情况以及方法中的自动标注。

图7 在对人类注释(中)和自动注释(右)进行训练时,对测试集上图像的语义分割进行定性比较(左)。

表4 对于我们的自动注释方法,将不同的MS COCO类别映射到不同的室内场景类别。

Abstract

Domestic robots could eventually transform our lives, but safely operating in home environments requires a rich understanding of indoor scenes. Learning-based techniques for scene segmentation require large-scale, pixel-level annotations, which are laborious and expensive to collect. We propose an automatic method for pixel-wise semantic annotation of video sequences, that gathers cues from object detectors and indoor 3D room-layout estimation and then annotates all the image pixels in an energy minimization framework. Extensive experiments on a publicly available video dataset (SUN3D) evaluate the approach and demonstrate its effectiveness.

本文仅做学术分享,如有侵权,请联系删文。

下载1

在「3D视觉工坊」公众号后台回复:3D视觉,即可下载 3D视觉相关资料干货,涉及相机标定、三维重建、立体视觉、SLAM、深度学习、点云后处理、多视图几何等方向。

下载2

在「3D视觉工坊」公众号后台回复:3D视觉github资源汇总,即可下载包括结构光、标定源码、缺陷检测源码、深度估计与深度补全源码、点云处理相关源码、立体匹配源码、单目、双目3D检测、基于点云的3D检测、6D姿态估计源码汇总等。

下载3

在「3D视觉工坊」公众号后台回复:相机标定,即可下载独家相机标定学习课件与视频网址;后台回复:立体匹配,即可下载独家立体匹配学习课件与视频网址。

重磅!3DCVer-学术论文写作投稿 交流群已成立

扫码添加小助手微信,可申请加入3D视觉工坊-学术论文写作与投稿 微信交流群,旨在交流顶会、顶刊、SCI、EI等写作与投稿事宜。

同时也可申请加入我们的细分方向交流群,目前主要有3D视觉、CV&深度学习、SLAM、三维重建、点云后处理、自动驾驶、CV入门、三维测量、VR/AR、3D人脸识别、医疗影像、缺陷检测、行人重识别、目标跟踪、视觉产品落地、视觉竞赛、车牌识别、硬件选型、学术交流、求职交流等微信群。

一定要备注:研究方向+学校/公司+昵称,例如:”3D视觉 + 上海交大 + 静静“。请按照格式备注,可快速被通过且邀请进群。原创投稿也请联系。

▲长按加微信群或投稿

▲长按关注公众号

3D视觉从入门到精通知识星球:针对3D视觉领域的知识点汇总、入门进阶学习路线、最新paper分享、疑问解答四个方面进行深耕,更有各类大厂的算法工程人员进行技术指导。与此同时,星球将联合知名企业发布3D视觉相关算法开发岗位以及项目对接信息,打造成集技术与就业为一体的铁杆粉丝聚集区,近2000星球成员为创造更好的AI世界共同进步,知识星球入口:

学习3D视觉核心技术,扫描查看介绍,3天内无条件退款

 圈里有高质量教程资料、可答疑解惑、助你高效解决问题

觉得有用,麻烦给个赞和在看~  

关注
打赏
1688896170
查看更多评论

暂无认证

  • 0浏览

    0关注

    106485博文

    0收益

  • 0浏览

    0点赞

    0打赏

    0留言

私信
关注
热门博文
立即登录/注册

微信扫码登录

0.3952s