作者I Roar冷颜@CSDN
编辑I 3D视觉开发者社区
前言
目前,深度图像的获取方法有:激光雷达深度成像法、计算机立体视觉成像、坐标测量机法、莫尔条纹法、结构光法等。针对深度图像的研究重点主要集中在以下几个方面:深度图像的分割技术,深度图像的边缘检测技术,基于不同视点的多幅深度图像的配准技术,基于深度数据的三维重建技术,基于深度图像的三维目标检测技术,深度数据的多分辨率建模和几何压缩技术等。在PCL中深度图像与点云最主要的区别在于,其近邻的检索方式不同,并且可以互相转换。
本文首先对深度图像的概念以及表示方法进行简介,其次对PCL的两个RangeImage类进行简单介绍,最后通过如何从一个点云创建一个深度图像以及如何从深度图像中提取物体边界的两个应用实例,来展示如何对PCL中的RangeImage相关类进行灵活运用。
RangeImage概念及相关算法
1.1 深度图像简介
深度图像(Depth Images),也被称为距离影像(Range Images),是指将图像采集器到场景中各点的距离(深度)值作为像素值的图像,它直接反映了景物可见表面的几何形状,利用它可以很方便的解决3D目标描述中的许多问题。深度图像经过坐标转换可以计算为点云数据,有规则及必要信息的点云数据也可以反算为深度图像数据。
从数学模型上看,深度图像可以看作是标量函数 在集合 上的离散采样,得到 ,其中 为二维网格(矩阵)的索引, ,
, ,如下图所示:
1.2 PCL中RangeImage的相关类
PCL中的range_image库包含两个表达深度图像和对深度图像进行操作的类,其依赖于pcl::common模块。深度图像(或距离图像)的像素值代表从传感器到物体的距离或者深度,如下图所示。深度图像是物体三维表示形式,一般通过立体相机或者ToF相机获取。如果知道相机的内标定参数,就可以将深度图像转化为点云。
从一个点云创建一个深度图像
本节将介绍如何从点云和给定的传感器位置来创建深度图像:首先创建一个工作空间range_image_creation,然后再在工作空间创建一个文件夹src用于存放源代码:
mkdir -p range_image_creation/src
接着,在range_image_creation/src路径下,创建一个文件并命名为range_image_creation.cpp,拷贝如下代码:
#include // 深度图像头文件int main (int argc, char** argv){ pcl::PointCloudpointCloud; // 定义点云对象/* 生成点云数据 */for (float y=-0.5f; y<=0.5f; y+=0.01f) {for (float z=-0.5f; z<=0.5f; z+=0.01f) { pcl::PointXYZ point; point.x = 2.0f - y; point.y = y; point.z = z; pointCloud.points.push_back(point); } } pointCloud.width = (uint32_t) pointCloud.points.size(); pointCloud.height = 1; // 设置点云对象的头信息float angularResolution = (float) ( 1.0f * (M_PI/180.0f)); // 按弧度1°float maxAngleWidth = (float) (360.0f * (M_PI/180.0f)); // 按弧度360°float maxAngleHeight = (float) (180.0f * (M_PI/180.0f)); // 按弧度180° Eigen::Affine3f sensorPose = (Eigen::Affine3f)Eigen::Translation3f(0.0f, 0.0f, 0.0f); // 采集位置 pcl::RangeImage::CoordinateFrame coordinate_frame = pcl::RangeImage::CAMERA_FRAME; // 深度图像遵循的坐标系统float noiseLevel=0.00;float minRange = 0.0f;int borderSize = 1; pcl::RangeImage rangeImage; rangeImage.createFromPointCloud(pointCloud, angularResolution, maxAngleWidth, maxAngleHeight, sensorPose, coordinate_frame, noiseLevel, minRange, borderSize);std::cout << rangeImage << "\n";}
【解释说明】
/* 生成点云数据 */for (float y=-0.5f; y<=0.5f; y+=0.01f) {for (float z=-0.5f; z<=0.5f; z+=0.01f) { pcl::PointXYZ point; point.x = 2.0f - y; point.y = y; point.z = z; pointCloud.points.push_back(point); }}pointCloud.width = (uint32_t) pointCloud.points.size();pointCloud.height = 1; // 设置点云对象的头信息
这段程序首先创建一组数据作为点云的数据内容,再设置点云头的信息,整个实现生成一个呈现矩形形状的点云,如下图所示:
float angularResolution = (float) ( 1.0f * (M_PI/180.0f)); // 按弧度1° float maxAngleWidth = (float) (360.0f * (M_PI/180.0f)); // 按弧度360° float maxAngleHeight = (float) (180.0f * (M_PI/180.0f)); // 按弧度180° Eigen::Affine3f sensorPose = (Eigen::Affine3f)Eigen::Translation3f(0.0f, 0.0f, 0.0f); // 采集位置 pcl::RangeImage::CoordinateFrame coordinate_frame = pcl::RangeImage::CAMERA_FRAME; // 深度图像遵循的坐标系统 float noiseLevel=0.00; float minRange = 0.0f; int borderSize = 1;
这部分定义了创建深度图像时需要的设置参数,将角度分辨率angularResolution定义为1°,意味着邻近的像素点所对应的每个光束之间相差1°;maxAngleWidth = 360 和 maxAngleHeight = 180 意味着,我们进行模拟的距离传感器对周围的环境拥有一个完整的360°视角,用户在任意数据集下都可以使用此设置,因为最终获取的深度图像将被裁剪到有空间物体存在的区域范围。但是,用户可以通过减小数值来节省一些计算资源,例如:当传感器后面没有可以观测的点时,一个水平视角为180°的激光扫描仪,即maxAngleWidth = 180 就足够了,这样只需要观察距离传感器前面就可以了,因为后面没有需要观察的场景。sensorPose定义了模拟深度图像获取传感器的6自由度位置,其原始值横滚角roll、俯仰角pitch、偏航角yaw都为0。coordinate_frame = pcl::RangeImage::CAMERA_FRAME说明系统的X轴是向右的,Y轴是向下的,Z轴是向前的。另外一个选择是LASER_FRAME,其X轴向前,Y轴向左,Z轴向上。noiseLevel = 0是指使用一个归一化的Z缓冲器来创建深度图像,但是如果想让邻近点集都落在同一像素单元,用户可以设置一个较高的值,例如noiseLevel = 0.05可以理解为,深度距离值是通过查询点半径为5cm的圆内包含的点以平均计算而得到的。如果minRange > 0,则所有模拟器所在的位置半径minRange内的邻近点都将被忽略,即为盲区。在裁剪图像时,如果borderSize > 0,将在图像周围留下当前视点不可见点的边界。
pcl::RangeImage rangeImage;rangeImage.createFromPointCloud(pointCloud, angularResolution, maxAngleWidth, maxAngleHeight, sensorPose, coordinate_frame, noiseLevel, minRange, borderSize);std::cout << rangeImage << "\n";
最后,使用上述设定的参数,从点云创建深度图像,并且打印一些信息。
深度图像继承于PointCloud类,它的点类型具有x,y,z和range距离字段,共有三种类型的点集,有效点集是距离大于0的点集,当前视点不可见点集x = y = z = NAN且值域为负无穷大,远距离点集x = y = z = NAN且值域为无穷大。
【编译和运行程序】
在工作空间根目录range_image_creation下,编写CMakeLists.txt文件如下:
cmake_minimum_required(VERSION 2.6 FATAL_ERROR)project(range_image_creation)find_package(PCL 1.2 REQUIRED)include_directories(${PCL_INCLUDE_DIRS})link_directories(${PCL_LIBRARY_DIRS})add_definitions(${PCL_DEFINITIONS})add_executable (${PROJECT_NAME}_node src/range_image_creation.cpp)target_link_libraries (${PROJECT_NAME}_node ${PCL_LIBRARIES})
在工作空间根目录range_image_creation下创建一个build文件夹,用于存放编译过程中产生的文件,然后执行编译:
mkdir build cd build cmake .. make
此时,会在build文件夹下生成一个可执行文件range_image_creation_node,运行该可执行文件:
./range_image_creation_node
在终端中可以看到如下输出结果:
header: seq: 0 stamp: 0 frame_id: points[]: 1360width: 40height: 34sensor_origin_: 0 0 0sensor_orientation_: 0 0 0 1is_dense: 0angular resolution: 1deg/pixel in x and 1deg/pixel in y.
从深度图像中提取边界
本小节将学习如何从深度图像中提取边界(从前景跨越到背景的位置定义为边界):
一般,我们只对三种类型的点集感兴趣:物体边界,这是物体最外层和阴影边界的可见点集;阴影边界:毗连于遮挡的背景上的点集;Veil点集,在被遮挡物边界和阴影边界之间的内插点,它们是由激光雷达获取的3D距离数据中的典型数据类型。这三类数据及深度图像的边界如下图所示:
首先创建一个工作空间range_image_border_extraction,然后再在工作空间创建一个文件夹src用于存放源代码:
mkdir -p range_image_border_extraction/src
接着,在range_image_border_extraction/src路径下,创建一个文件并命名为range_image_border_extraction.cpp,拷贝如下代码:
#include#include #include #include #include #include #include #include typedef pcl::PointXYZ PointType;/* 参数初始化 */float angular_resolution = 0.5f;pcl::RangeImage::CoordinateFrame coordinate_frame = pcl::RangeImage::CAMERA_FRAME;bool setUnseenToMaxRange = false;/* 帮助 */void printUsage (const char* progName){ std::cout << "\n\nUsage: "<关注打赏
最近更新
- 深拷贝和浅拷贝的区别(重点)
- 【Vue】走进Vue框架世界
- 【云服务器】项目部署—搭建网站—vue电商后台管理系统
- 【React介绍】 一文带你深入React
- 【React】React组件实例的三大属性之state,props,refs(你学废了吗)
- 【脚手架VueCLI】从零开始,创建一个VUE项目
- 【React】深入理解React组件生命周期----图文详解(含代码)
- 【React】DOM的Diffing算法是什么?以及DOM中key的作用----经典面试题
- 【React】1_使用React脚手架创建项目步骤--------详解(含项目结构说明)
- 【React】2_如何使用react脚手架写一个简单的页面?


微信扫码登录