2024年4月17日发(作者:华硕rog售后服务网点)
一种视点直方图特征优化的点云目标识别算法
杜靖远;邓计才
【摘 要】为了提高点云目标识别算法的识别率、增强算法鲁棒性,研究了一种将颜
色纹理的方向特征直方图(CSHOT)算法与视点特征直方图(VFH)算法相结合的点云
目标识别算法(CSHOT-VFH).利用 VFH 特征对点云目标进行识别,实现目标快速估
测.在此基础上,进一步利用 CSHOT特征进行精确识别.搭建了实验系统,分别对单物
体场景、多物体场景及目标存在部分遮挡等情况进行了测试.测试结果表明:本文算
法识别率达到了90%以上,在目标遮挡的两组实验中,本文算法比 VFH算法的识别
率提高了 10%以上,能够满足室内场景目标检测的需求.
【期刊名称】《河南科技大学学报(自然科学版)》
【年(卷),期】2018(039)005
【总页数】6页(P45-50)
【关键词】点云目标识别;鲁棒性;VFH 特征描述符;CSHOT特征描述符;目标遮挡;
目标检测
【作 者】杜靖远;邓计才
【作者单位】郑州大学 信息工程学院,河南 郑州 450001;郑州大学 信息工程学院,
河南 郑州 450001
【正文语种】中 文
【中图分类】TP391.41
0 引言
三维点云数据包含了物体的几何形状、深度信息及相对位置关系,利用三维特征描
述对目标进行分类和识别比二维特征更具可靠性。文献[1]利用快速点特征直方图
(fast point feature histogram,FPFH)描述子,提出了一种基于法线分布特征与传
统迭代最近点结合的点云配准算法,与传统算法相比有效地提高了配准效率。文献
[2]利用视点特征直方图(viewpoint feature histogram,VFH)特征建立了行人、自
行车等三维模型库,利用激光点云数据识别算法实现了铁路场景入侵目标检测。文
献[3]利用聚类视点特征直方图(cluster view feature histogram,CVFH)特征对室
内物体进行点云识别,并在实验机器人上进行测试,在目标遮挡情况下算法识别率
有待提高。为了提高遮挡情况下点云识别算法的鲁棒性,本文利用实验室常见的牛
奶盒、茶杯、篮球等物体作为点云数据采集模型,提出了一种基于颜色纹理的方向
特征直方图(color based signature of histograms of orientations,CSHOT)的
改进型VFH识别算法(CSHOT-VFH)。
1 点云滤波及分割
点云数据的滤波和分割是点云特征提取、目标分类与识别的前提,分割出形状较为
规则且边缘无噪声干扰的点云模型,可以提高识别算法的效率。
1.1 点云数据滤波
Kinect摄像机采集的数据包含彩色图像信息和深度信息,获取到的彩色图像和深
度图像融合构成点云集合。采集到的点云数据包含了大量无效点、冗余背景信息以
及由于采集设备测量误差形成的部分不稳定离群噪声点。点云去噪算法步骤为:
(Ⅰ)利用直通滤波器滤除范围之外的不规则冗余背景点云,深度方向的周届参数取
[0,180]。
(Ⅱ)采用统计离群点滤波算法滤除。邻域平均距离的概率密度函数可以表示为:
(1)
其中:xi为任意点的邻域平均距离。设置每个点最大临近点阈值为K,标准差倍数
为n,超出平均距离nσ 的点被定义为离群点。设置K=50,n=3,即计算点云中每
个点与它临近的50个点的平均距离。当该值大于3倍标准差时,该点即为离群点。
点云滤波过程如图1所示。
图1a为Kinect摄像机采集到的原始点云场景,从左至右依次摆放篮球、塑料瓶、
塑料杯、牛奶盒、茶杯、书本。图1b显示了直通滤波的结果,从图1b中可以看
出:统计离群点滤波只是简单地滤除了指定深度范围以外的背景墙面点云,无法滤
除稀疏离群噪声点。图1c和图1d分别为统计离群点滤波前后场景中牛奶盒的点
云分布情况。从图1d可以看出:统计离群点滤波剔除了图1c中牛奶盒边缘部分
的离群点,使得整个牛奶盒点云模型更加平滑, 保证接下来在分割时得到形状、
边缘尽量规则的模型,在特征提取过程中提高了特征的可靠性。
图1 点云滤波过程
1.2 模型分割
点云模型分割是根据空间位置、几何关系等将点云数据划分为互不相交子集的过程。
本文采用随机采样一致(random sample consensus,RANSAC)[4]粗分割,配合
欧氏聚类精细分割的方法对场景进行快速分割处理,相比于最小割的分割算法[5]
以及区域生长分割算法[6],优点在于对室内小目标物体分割效果较好,实时性高。
为了防止点云模型过分割以及分割不足的情况,根据图1a中室内目标物体摆放特
点,设置RANSAC分割平面的最大迭代次数为10,定义距离阈值为d=0.01 m,
欧氏聚类参数搜索半径取r=2 cm,聚类点的范围阈值设置为[100,300]。
RANSAC结合欧氏聚类分割过程如图2所示,图2a为RANSAC粗分割过程,左
右两边分别为RANSAC拟合平面和待分割点云,图2b为欧氏聚类细分割结果。
由图2b可以看出:欧氏聚类细分割将点云场景有效地分割为单目标点云,满足点
云模型分割需求。
图2 RANSAC结合欧氏聚类分割过程
2 特征融合与特征匹配
图3 牛奶盒VFH特征示意图
全局特征可以从宏观上把握图像整体信息,而局部特征则更注重局部稳定且特征显
著的细节信息,两者具有一定的互补性。VFH[2]是一种全局特征,是在快速点特
征直方图[1]的基础上加入了视点分量,使其构造的特征有缩放不变性。图3为牛
奶盒VFH特征示意图。从图3中可以看到不同姿态下牛奶盒的VFH,其中,角度
[1°,135°]对应直方图的形状分量,角度[136°,308°]对应的是视点方向分量。相同
牛奶盒不同姿态下的视点方向分量差别较大,形状分量几乎没有变化。CSHOT[7]
是一种具有很强的可重复检测持续性、旋转不变性和尺度不变性的局部特征描述符,
表征了目标的曲面几何拓扑性质,与方向直方图特征(signature of histogram of
orientations,SHOT)[8]形状分量Dshape(p)相比,增加了颜色纹理分量
Dtexture(P),具有更强的抗噪、抗干扰能力,对局部具有更强的特征描述能力。
故本文先采用VFH进行分割点云快速目标估计,再利用CSHOT特征进行目标识
别。
算法主要分为离线训练和在线识别两个阶段,算法结构框架如图4所示。
图4 算法结构框架
离线训练步骤为:
步骤1 采集一个只包含单个物体的场景,方便得到单一模型准确位姿。利用欧氏
聚类分割算法对100个不同姿态、不同角度且无遮挡的牛奶盒进行采集,并分割
得到单目标点云,建立点云模型库。
图5 模型近邻查找结果
步骤2 计算各分割模型的VFH特征描述符,建立包含物体类别以及VFH特征的K
维树(K-dimension tree,Kd-树)结构[9]索引,用以查找候选集。图5显示了在卡
方检测[10]阈值设置为300时,近邻查找得到最相似的16个模型,证明计算机能
够查找到最近邻目标,具有了识别能力。
在线识别步骤为:
步骤1 利用Kinect设备采集点云数据,通过点云滤波算法以及分割算法得到待识
别场景点云P。
步骤2 设置卡方检测阈值dth ,计算第i个单目标点云的VFH特征,对分割到的
点云模型进行K-最近邻(K-nearest neighbor,KNN)[11]识别,利用快速最近邻算
法查找树(fast library for approxinate nearest neighbors-tree,FLANN-树)结构
的Kd-树对模型库进行近似查找,检索得到N个卡方检验值小于dth的分割点云
聚类集合D,集合中每一个聚类Pi对应一个卡方检测值dn。
步骤3 利用排序算法将识别到的N个点云聚类分别按照计算卡方距离值的大小排
序。
步骤4 判断所得集合D的卡方距离值,若dmin< dn∈{di,…,dn}(n≠min),则将VFH估计得到的结果pn作为目标点云,直接跳转 到步骤8;若dmax-dmin 征的点云聚类,则进行局部特征匹配,转到步骤5~步骤7。 步骤5 按照最小距离的排序结果,利用重采样(uniform sampling,US)[12]对点 云分割后的场景进行体素栅格[13]划分,将候选的N个点云聚类PN每个体素内 的点形成的重心标记为关键点。 步骤6 对提取到的关键点分别计算CSHOT特征描述子并使用FLANN匹配,在 Kd-树结构上搜索2个近似最近邻,在点云关键点集查询到2个最好的匹配子,当 两者比例足够小时,接受最近邻匹配子为匹配点对。 步骤7 设置局部特征匹配阈值ε,利用几何一致算法[14]去除误匹配特征点对,其 中阈值ε满足: (2) 其中:和分别代表模型和场景的匹配点对,当两点的关系满足式(2)时,定义为内 点。若满足式(2)条件的对应点对达到比例阈值,则认为是有效点云模型,并返回 n对最佳匹配点对,此时标记得到的点云模型为目标模型,否则计算下一个候选点 云聚类。 步骤8 将匹配到的分割点云关键点染色,利用最小包围框[15]显示点云识别结果, 迭代下一帧。 3 点云目标识别实验 3.1 实验平台搭建 系统环境采用Windows 10,硬件环境为Intel(R) Core(TM) i5-3470 CPU @3.20 GHz;结合PCL 1.8.0 函数库,在Visual Studio 2013编程环境中的程序 以发布方式运行。以牛奶盒的识别为例,应用CSHOT-VFH特征融合算法,与 VFH、点特征直方图(point feature histograms,PFH)、FPFH这3种传统算法做 对比实验,分别在单物体场景、多物体场景、单物体遮挡场景和多物体遮挡场景下, 检测300帧视频点云数据得到的识别结果。 3.2 结果与分析 图6为目标识别结果。图6a~图6d分别为单物体场景、多物体场景、单物体遮 挡场景和多物体遮挡场景下的识别结果,并利用最小包围框框出了待识别的单物体 点云。图6a和6b为同一视角牛奶盒在无遮挡情况下,单物体和多物体干扰时的 对比情况。图6c和6d显示了牛奶盒被塑料瓶部分遮挡时单物体场景和多物体场 景的对比情况。在图6b和图6d多物体场景中,牛奶盒的摆放位置以及形状与旁 边的茶杯模型较为相似,而场景中物体的纹理均具有较好的区分度。 图6 目标识别结果 3.2.1 无遮挡实验 表1为图6a和图6b的实验结果。从表1可以看出:多物体场景中,利用全局特 征VFH算法识别率不高,但计算速度较其他算法快。而本文算法较传统FPFH算 法、PFH算法具有计算速度快、识别率高的优点,与VFH算法相比,修正了复杂 场景下个别帧中包含相似位置及形状的点云分割模型造成的匹配错误,得到了更高 的识别率。 表1 不同算法时,单物体场景和多物体场景实验结果算法场景类型帧率/Hz识别 帧/未识别帧识别率/%VFH[2]单物体场景1.100 19294/698.00多物体场景0.863 18249/5183.00FPFH[1]单物体场景0.971 60272/2890.67多物体场景0.504 26258/4286.00PFH[16]单物体场景0.634 72274/2691.33多物体场景0.252 70266/3488.67本文算法单物体场景1.000 05296/498.67多物体场景0.853 12277/2392.33 3.2.2 部分遮挡实验 实验中对牛奶盒模型进行一定程度的遮挡处理,进一步验证算法的有效性。图7 为遮挡前后的牛奶盒VFH对比。图7a和图7b右上方的图示分别为遮挡前后牛奶 盒模型聚类和关键点提取情况。由图7可以看到:在目标存在部分遮挡时,遮挡 物对目标造成点云缺失。此时,在牛奶盒VFH的角度为69°、108°处,点数峰值有 较大变化,在这两处对应着牛奶盒VFH的形状分量。遮挡后的点云模型利用US 提取模型关键点,对关键点计算CSHOT特征描述并筛选匹配对。关键点提取时取 降采样密度size=1 cm,几何一致匹配阈值取ε=0.01,通过FLANN快速查找模 型库中模型,局部特征匹配结果如图8所示。图8a和图8b左下方均为模型库模 型,右上角为场景分割得到的点云聚类,图中每一条斜线连接的两个关键点代表了 查找到的特征匹配点对。图8a显示了未遮挡时牛奶盒模型的匹配情况,几何一致 算法去除误匹配之后得到7个匹配对,模型和场景点云可以较好地匹配。图8b显 示了部分遮挡情况下,特征匹配对数与图8a相比由7对减少为5对,但牛奶盒中 间区域具有的纹理,以及边缘处形状较为明显部分形成的点对依然存在。由图8 可以看出:CSHOT特征匹配在纹理鲜明、颜色鲜明的模型识别过程中结果准确度 较高,证明利用CSHOT融合局部特征匹配在三维模型中对于具有颜色纹理的物体 有更好的识别效果,具有一定的遮挡抗干扰能力,可用来实现局部特征匹配。 图7 遮挡前后的牛奶盒VFH对比 图8 遮挡前后的牛奶盒局部特征匹配结果 表2为牛奶盒部分遮挡情况下,图6c和图6d场景的算法结果对比。从表2可以 看出:传统的VFH算法在目标遮挡情况下识别率下降明显。本文算法在部分遮挡 场景下利用CSHOT特征做修正识别,比传统FPFH、PFH算法的识别率高、耗时 短,与VFH算法相比,对模型的识别率提高了10%以上。 表2 不同算法时,牛奶盒部分遮挡后算法结果算法场景类型帧率/Hz识别帧/未识 别帧识别率/%VFH单物体遮挡1.100 12260/4086.67多物体遮挡0.853 80224/76 74.67FPFH单物体遮挡0.905 69256/4485.33多物体遮挡0.495 32241/59 80.33PFH单物体遮挡0.514 60266/3488.67多物体遮挡0.230 69260/40 86.67本文算法单物体遮挡0.914 60290/1096.67多物体遮挡0.842 02272/28 90.67 4 结论 为了提高复杂三维场景下点云识别算法的鲁棒性,本文研究了一种将CSHOT算法 与VFH算法相结合的改进型点云目标识别算法(CSHOT-VFH)。搭建了实验环境进 行融合算法研究,分别对单物体场景、多物体场景、单物体遮挡场景和多物体遮挡 场景进行了测试。4种场景下,本文算法识别率均达到了90%以上。在目标遮挡 的两组实验中,本文算法的识别率与VFH算法相比提高了10%以上,能够满足室 内场景目标检测的需求。 【相关文献】 [1] 张哲,许宏丽,尹辉.一种基于关键点选择的快速点云配准算法[J].激光与光电子学进 展,2017(12):1-9. [2] 郭保青,余祖俊,张楠等.铁路场景三维点云分割与分类识别算法[J].仪器仪表学报,2017(9):2103- 2111. [3] 张强.基于点云库的服务机器人视觉识别算法研究[D].合肥:中国科学技术大学,2014. [4] 李云帆,谭德宝,刘瑞,等.顾及建筑物屋顶结构的改进RANSAC点云分割算法[J].国土资源遥 感,2017,29(4):20-25. [5] URAL S,SHAN J.A min-cut based filter for airborne LIDAR data[J].ISPRS-international archives of the photogrammetry,remote sensing and spatial information sciences,2016,XLI-B3:395-401. [6] XIANG B,YAO J,LU X,et tation-based classification for 3D urban point clouds[C]//IEEE International Conference on Information and ,2017:172- 177. [7] 张凯霖,张良.复杂场景下基于C-SHOT特征的3D物体识别与位姿估计[J].计算机辅助设计与图 形学学报,2017,29(5):846-853. [8] SALTI S,TOMBARI F,STEFANO L :unique signatures of histograms for surface and texture description[J].Computer vision and image understanding,2014,125(8):251-264. [9] 马志强,李海生.基于KD-tree剖分的三维动态场景快速有效压缩[J].计算机应 用,2016,36(9):2590-2596. [10] YANG W,XU L H,CHEN X P,et -squared distance metric learning for histogram data[J].Mathematical problems in engineering,2015,2015:1-12. [11] 雷博文,石英.一种用于螺纹桶内壁图像拼接的匹配方法[J].河南科技大学学报(自然科学 版),2017,38(5):37-42. [12] TOMBARI F,SALTI S,STEFANO L mance evaluation of 3D keypoint detectors[J].International journal of computer vision,2013,102(1/3):198-220. [13] VO A V,TRUONG-HONG L,LAEFER D F,et -based region growing for point cloud segmentation[J].ISPRS journal of photogrammetry & remote sensing,2015,104:88- 100. [14] TANNER E S. Geometric consistency checks for kNN based image classification relying on local features[C]//International Conference on Similarity Search & ,2011:81-88. [15] 谭晔汶,王鑫,王治国.基于车载点云空间分布的城区地物分类[J].海洋测绘,2017,37(3):79-82. [16] WANG G H,LI N,LI ed histogram feature descriptor for automated point cloud registration[C]//Control ,2016:7032-7037.
发布者:admin,转转请注明出处:http://www.yc00.com/num/1713333036a2228067.html
评论列表(0条)