2024年1月12日发(作者:)
引用格式:侯伟鹏,王蕾.基于全局上下文注意力的点云语义分割[J].现代电子技术,2023,46(9):120⁃125.120
DOI:10.16652/.1004⁃373x.2023.09.0232023年5月1日第46卷第9期现代电子技术ModernElectronicsTechniqueMay2023Vol.46No.9基于全局上下文注意力的点云语义分割侯伟鹏,王蕾330013)(东华理工大学信息工程学院,江西南昌摘要:点云语义分割是三维环境感知的基础,直接基于点的语义分割方法避免了因点云结构化处理所造成的信息损失,但大多数深度学习模型的研究主要集中在提取局部几何特征,没有考虑点云不同局部结构之间的上下文关系,并且忽略了低级与高级特征之间的语义差距,限制了特征表示的能力,影响了点云语义分割的精度。因此,文中提出一种基于全局上下文注意力的点云语义分割方法,该方法主要由基于外部注意力的全局上下文特征聚合和基于后向竞争性注意力的邻近尺度特征融合两部分组成。通过外部注意力学习不同局部结构之间的长距离依赖关系,从而获得丰富的全局上下文信息。为了进一步增强模型的上下文感知能力,设计基于后向竞争性注意力的邻近尺度特征融合模块,学习低级与高级语义特征之间的相似度,重新为中间特征通道分配权重。在S3DIS大规模室内点云数据集上对所提方法进行评估,结果表明,所提方法的平均交并比在Area5上达到了65.2%,相比于RandLA⁃Net提高了2.5%,在6折交叉验证上的平均交并比达到了71.4%,相比于RandLA⁃Net提高了1.4%。证明了所提方法能够有效提取全局上下文特征,提高了语义分割的精度。关键词:点云语义分割;全局上下文特征;邻近尺度;外部注意力;后向竞争性注意力;平均交并比中图分类号:TN911.7⁃34;TP391.4;TP183文献标识码:A文章编号:1004⁃373X(2023)09⁃0120⁃06Pointcloudsemanticsegmentationbasedonglobalcontextualattention(InstituteofInformationEngineering,EastChinaUniversityofTechnology,Nanchang330013,China)HOUWeipeng,WANGLeiAbstract:Poectpoint⁃basedsemanticsegmentationmethodpreventsinformationlossbroughtonbystructuredprocessingofpointclouds,butthemajorityofdeeplearningmodelstudiesprimarilyconcentrateonextractinglocalgeometricfeatureswithouttakingintoaccountthecontextualrelationshipbetweenvariouslocalstructuresofpointcloudsandfailtotakeintoaccountthesemanticgapbetweenlow⁃levelandhigh⁃levelfeatures,whichrescloudsemanticfeatureaggregationbasedonexternalattentionandnthodismainlycomposedoftwoparts:globalcontextlearningthelong⁃distancedependencebetweendifferentlocalstructuresbymeansoftheexternalattention,rtofurtherenhancethecontext⁃awareabilityofthemodel,aneighboringscalefeaturefusionmodulebasedonbackwardcompetitiveattentionisdesignedtolearnthesimilaritybetweenlow⁃levelandhigh⁃levelsemanticfeatures,andre⁃posedmethodisevaluatedontheS3DISlarge⁃scaleindoorpointclouddataset,andtheresultsshowthattheproposedmethodachievesanaveragecross⁃mergeratioof65.2%onArea5,whichis2.5%higherthanRandLA⁃Net,andanmeanintersectionoverunion(mIoU)of71.4%on6⁃foldcross⁃validation,whichis1.4%higherthanRandLA⁃monstratedthattheproposedmethodcaneffectivelyextractglobalcontextualfeatures,rdcompetitiveattention;mIoUKeywords:pointcloudsemanticsegmentation;globalcontextualfeatures;neighborhood⁃scale;externalattention;0引言的快速发展,人类能够快速地获取各种复杂场景以及物体的点云数据。点云作为3D数据的一种常用表示形式,能够在不进行任何离散化的情况下保留三维空间中近年来,随着3D传感器的广泛普及与3D扫描技术收稿日期:2022⁃10⁃10修回日期:2022⁃10⁃31基金项目:国家自然科学基金项目(42001411);江西省核地学数据科学与系统工程技术研究中心基金(JELRGBDT202202)Copyright©博看网. All Rights Reserved.
第9期侯伟鹏,等:基于全局上下文注意力的点云语义分割121
提供了丰富的几何、原始的信息,形状和尺度信息,为机器更好地了解周围环境提供了机会。因此,点云是许多场景理解相关应用的首选表示形式,已经被广泛地应用到无人驾驶、室内导航、增强现实、虚拟现实等多个领域。点云语义分割是三维场景理解和分析的关键步骤,受到研究者们的广泛关注。点云语义分割是三维场景理解的基础,也是点云数据处理与分析中的重要步骤。基于属性聚类、基于模型拟合和基于区域增长等传统的点云语义分割方法用于三维点云语义分割任务的效果并不理想。由于原始点云数据具有不规则、稀疏和无序结构等特点,目前基于深度学习的三维点云语义分割方法大致可以分为基于多视图的方法、基于体素的方法、直接基于点的方法。但是现有很多深度学习方法在点云语义分割上的运用具有效率低、计算量大、场景通用性差等缺陷。基于多视图的[1⁃3]方法是将三维点云投影为多个视角下的二维图像,再借助成熟的图像语义分割方法进行分割后重新映射到点云。虽然基于多视图的方法取得了较好的效果,但是该方法的性能对视点的选择和遮挡非常敏感,并且在投影过程中会带来几何空间的信息损失。基于体素的方法[4⁃6]是将无序的点云体素化为规则结构的密集网格,然后使用标准的三维卷积进行特征学习,实现点云的语义分割。虽然基于体素的方法自然地保留了三维点云的邻域结构,但是在体素化过程中会引入离散伪影和信息丢失,通常情况下,高分辨率会导致较高的内存和计算成本,而低分辨率会导致细节的丢失,因此会损失分割精度。基于多视图、体素的方法都有效地解决了点云非结构化的特性,但是在结构化的过程中不可避免地造成了点云原始结构信息的损失。为了捕获点云的原始高分辨率特征,基于点的方法直接对不规则的点云进行处理,但是点云是无序的、非结构化的,无法直接使用标准的CNN。最具有代表性的方法是文献[7]提出的PointNet和文献[8]提出的PointNet++,PointNet使用共享的MLP学习点的特征,使用对称池化函数学习全局特征,虽然PointNet在点云分割中取得了良好的效果,但由于共享的MLP提取的逐点特征不能捕捉局部几何结构以及点与点之间的相互作用,因此,在处理大场景点云时会导致点云的细节信息丢失。为了捕获局部几何结构,PointNet++将点分层分组,通过聚合局部相邻点的信息来学习每一个点的特征,并且从更大的局部区域逐步学习。为了改善点云的语义分割效果,在PointNet的基础上,最近出现了一系列基于点的网络。为了对不同点之间的相互作用进行建模,文献[9]提出PointWeb,通过密集构建一个局部全连接网络来探索局部区域内所有点对之间的关系,提出了一种自适应特征调整模块实现信息交换和特征细化,这种聚合操作有助于网络学习有区别的特征表示。为了捕捉三维点云的基本形状和几何结构,文献[10]借助图网络将点云表示为一组相互连接的简单形状构成超点,其属性有向图可以捕捉丰富的几何结构和上下文信息,同时超点能够较大减少点云中点的数量,使网络应用于大规模点云。文献[11]提出Graph⁃PointNet网络,借助图神经网络局部特征可以有效提高点云语义分割的准确率。文献[12]提出一种高效、轻量级的网络RandLA⁃Net,用于大规模点云分割,该网络利用随机采样在内存和计算方面实现了非常高的效率,进一步提出局部特征聚合模块来捕获和保留几何特征。但是上述方法的研究都侧重于设计高效的局部特征聚合算法,未考虑不同局部特征之间的上下文关系,并且忽略了高级特征与低级特征之间的语义差距。为了解决上述问题,本文设计了基于全局上下文注意力点云语义分割网络BAEAF⁃Net,主要包括基于外部注意力机制的全局上下文特征聚合模块(EAGF)和基于后向竞争性注意力机制的邻近尺度特征融合模块(BCAF)两个模块。其中EAGF模块在编码阶段利用轻量级注意力机制提取多尺度的全局上下文特征用于增强特征的表示能力;BCAF模块在解码阶段使用后向竞争性注意力机制建立全局特征通道的相互依赖关系,充分考虑了邻近特征之间的语义差距,有效地融合了浅层的局部特征和高级语义上下文信息。11.1基于全局上下文注意力的点云语义分割本文方法以RandLA⁃Net为主干网络,其结构遵循网络结构具有跳跃连接的编码、解码思想。在编码端,点云通过每一层的局部特征聚合(LFA)模块学习点的特征,并且使用随机点采样,降低点的规模,为了减小随机点采样造成数据点信息丢失的影响,LFA模块使用注意力机制编码数据点与其邻近点的空间特征。在解码端,首先使用KNN算法寻找每个点的最近邻点,并且使用最近邻插值对点云进行上采样,然后通过跳跃连接将上采样特征与编码层的特征图连接起来输入到共享的MLP层中进行降维。然而,RandLA⁃Net网络未从全局角度考虑点云的上下文信息,只是在局部点云空间中应用注意力机制学习局部上下文信息,其次,在解码阶段简单地将编码器特征与上采样特征相连,这种特征融合机制忽略了低级与高级特征之间的语义差距,限制了特征的表示能力,从而影响了点云语义分割的精度。因此,本文提Copyright©博看网. All Rights Reserved.
122BAEAF⁃Net,如图1所示。现代电子技术2023年第46卷出了基于
全局上下文注意力的点云语义分割网络偏差来代替整个注意力特征,使网络更加专注于偏差的学习,从而得到更关键的全局特征。变换(MLP)得到查询张量Query∈RN×C。Query=MLP(FLFA)将LFA组件编码后的特征FLFA作为输入,经过线性(1)行Softmax归一化,然后进行Norm归一化,得到双重归一化注意力图矩阵Fa。Fa=Softmax(Fa,dim=1)Fa=Norm(Fa,dim=2)Fa=Mk(Query)Query通过线性变换(Mk)得到注意力权重,首先进(2)(4)(3)图1BAEAF⁃Net网络整体框架key;Norm是避免某一个特征向量的尺度过大而引起的式中:Mk为一个外部的S×C维空间的记忆单元作为注意力失效的归一化方法。其中,在每一层编码器后加入基于外部注意力机制的全局上下文特征聚合(EAGF)模块,EAGF模块根据每个点的估计关系,有选择地聚合长距离的依赖关系,增强特征的表示能力,减少噪声干扰,同时扩大了局部特征的感受野,并通过轻量级计算保留了全局上下文信息。BCAF模块利用后向竞争性注意力机制捕获高级与低级语义特征之间的相互依赖关系来改进最近邻上采样对特定语义的特征表示,弥补边界模糊,促进不同层次特征之间的融合。最后3个全连接层与Dropout层用于预测每个点的类别。1.2充分利用点云的全局上下文依赖关系可以有效提EAGF模块输入特征与注意力特征的偏移量最终得到输出特征Fout。关注不同局部特征之间的相互依赖关系,可以提S=C4,高特征的表示能力,在实验参数设置时,因此SFa通过线性变换(Mv)后得到注意力特征Fattn,学习远小于N,矩阵乘法可以减少大量内存。Fout=MLP(FLFA-Fattn)+FLFAFattn=Mv(Fa)(5)(6)式中Mv为一个外部的S×C维空间的记忆单元作为value。1.3融合多尺度特征可以显著扩大网络的感受野,保留BCAF模块更多的局部细粒度信息。其次,在网络解码阶段,最近邻上采样过程中会导致特征信息的丢失。文献[15]提出使用竞争性注意力机制学习多层级特征的全局表征和中间特征的内在相似度,在三维点云分类任务中显著提高了对全局特征的提取与表达能力。为此,本文设计了基于后向竞争性注意力的特征融合模块,充分考虑了相邻尺度特征之间的差异,对中间特征通道权值重新分配,利用高、低层次特征之间的相互依赖关系改进最近邻上采样对特定语义的特征表示。通过建立不同层级特征的通道权重,从通道的角度捕获全局信息,有效地融合了浅层的局部特征和高级语义上下文信息。BCAF模块如图3所示。Fl+1使用每个点与KNN获得最近首先,在解码端,高特征的表示能力,自注意力机制对全局特征和局部特征之间依赖关系的挖掘具有良好的效果[13],但是目前自注意力机制只适用于小规模的点云,难以直接拓展到大规模点云上,其主要原因在于大规模点云N×N的点注意力图会占用大量的计算资源和内存消耗。因此,本文基于外部注意力机制[14]设计了全局上下文特征聚合模块(EAGF),如图2所示。邻点的线性插值方法进行上采样,通过跳跃连接与编码图2EAGF模块端的特征图进行连接,然后将特征通过共享的MLP进行特征降维,最后得到下一层级特征Fl。Fl=MLP(US(Fl+1))外部注意力机制将自注意力机制的二次复杂度降到线性复杂度,可以直接拓展到大规模点云。无论不同局部空间特征之间的距离多远,都可以学习到它们之间的上下文关系,其次学习输入特征和注意力特征之间的(7)Fl+1与Fl分别通过平均池化和最大池化聚合然后,Fl+1channel。平均池不同通道上的显著特征,得到Flchannel、Copyright©博看网. All Rights Reserved.
第9期侯伟鹏,等:基于全局上下文注意力的点云语义分割123
化可以学习到目标物体的程度信息,最大池化则能够学习到物体的判别性特征,同时使用的话,最大池化编码目标的显著性信息能够很好地弥补平均池化编码的全局信息。然后通过全连接层和激活函数得到两组池化特征Flchannelr和Fl+1channelr,最后将两组池化特征连接后再通过全连接层和Sigmoid激活函数得到特征通道权重系数Fchannel。于13个类别中的一个,每个点的原始特征包含位置和颜色。该数据集覆盖的占地面积超过6000m2,包含的点个数超过了2亿。2.2本文的所有实验均在同一台计算机上完成,该计算实验环境与评价指标机的配置如下:CPU为Intelcorei5⁃11400,使用的GPU为3060,显存为12GB,内存为32GB。在软件方面,本文实验在Ubuntu20.04操作系统上完成,配置环境为:CUDA11.4,采用TensorFlow2.6的编程框架进行深度学习编程,并基于Python3.6构建网络模型。批大小设数,优化器选用Adam算法,初始学习率设置为0.01,学习率每个epochs衰减5%。语义分割性能一般采用总体分类精度(OverallAccuracy,OA)、交并比(IntersectionoverUnion,IoU)和平均交并比(meanIntersectionoverUnion,mIoU)进行评估,可定义为:OA=IoU=Pii置为4,训练次数设置为100,损失函数选用交叉熵函图3BCAF模块Flchannel=φc(Maxpooling(Fl))+φc(Meanpooling(Fl))(8)Fl+1channel=φc(Maxpooling(Fl+1))+φc(Meanpooling(Fl+1))1mIoU=N(∑∑)∑(∑∑)N-1N-1∑P∑∑PN-1N-1N-1iii=0i=0j=0ij(14)(15)(16)Pij+N-1Pji-PiiN-1j=0j=0N-1PiiPij+Pji-Piii=0j=0j=0Pij为假阴性;Pii为真阳性;Pji为假阳性;N为标签式中:(9)Flchannelr=φcr(Flchannel)(10)Fl+1channelr=φcr(Fl+1channel)(11)Fchannel=θc(concat(Flchannelr,Fl+1channelr))(12)φc由全连接FC与ReLU激活函数组成,式中:且通道数φcr由全连接FC与ReLU激活函数组成,变化为c→c;类别的数量。2.32.3.1实验结果与分析本文分别使用6折交叉验证和单独将Area5作为测对比实验试区域对网络进行评估。采用平均交并比和总体分类精度作为衡量分割任务性能的指标,并与现有算法进行比较。表1为不同模型使用6折交叉验证在S3DIS数据集的实验结果,6折交叉验证是将数据集分为6份,每一份分别作为测试集进行6次的测试和训练,可以充分评估模型的泛化能力。本文模型的总体分类精度比RandLA⁃Net高出0.3%,在平均交并比上比RandLA⁃Net提高了1.4%,可以看出本文在天花板、地板、窗户、门、椅子、沙发、木板等8个类别都取得了较好的分割精度。表2为将Area5作为测试区域时的实验结果。使用Area5作为测试集,由于Area5和其他区域有所不同,包含的物体存在差异,可以评估模型的泛化性能。可以看出本文模型的总体分类精度比RandLA⁃Net高出0.9%,在平均交并比方面,比RandLA⁃Net高出2.5%,并在墙面、窗户、椅子、沙发、书架、木板等6个类别都取得了较好的分割精度。考虑到参数量过大带来的训练困难,通道数变化为c→cr;θc由全连接FC与Sigmoid激活函数组成,通道数变r=4。化为c→c;在实验参数设置时,最后,将输入特征Fl与当前特征通道权重系数Fchannel相乘,并通过残差连接保留邻近尺度中的浅层特征,最终得到后向竞争性注意力特征Flenhanced。22.1实验Flenhanced=Fchannel×Fl+Fl(13)的语义标注的室内三维点云数据集,S3DIS的原始数据集包含了3栋用于教学和办公的建筑大楼的6个大型室S3DIS[16]数据集是斯坦福大学开放的具有像素级别数据集介绍内区域,包括272个房间。房间中的每个点被标记为属Copyright©博看网. All Rights Reserved.
124现代电子技术2023年第46卷%chair42.069.267.176.481.1sofa63.250.360.067.09.6book.38.245.962.764.263.9board29.462.265.967.68.735.252.958.560.160.2clut.
PointNe[7]PointWebSPG[10][17]表16折交叉验证在S3DIS数据集上的语义分割结果.47.555.364.964.464.651.668.468.169.470.3doortable54.173.571.469.471.1BAEAF⁃Net(ours)RandLA⁃Net[12]表2S3DIS数据集中Area5的语义分割结果PointNet[7]DGCNNSPG[10][18][12]%OA—97.396.997.597.197.269.878.174.980.581.1wallbeam0.10000col.42.811.821.831.93.9wind.46.348.950.762.963.210.861.623.742.846.4doorBAEAF⁃Net(ours)RandLA⁃Net如图4所示为本文模型的可视化。第一列为一些房间的原型,文件中包含模型自己的坐标信息和RGB参数信息;第二列的图片是点云文件和自带正确的label标签可视化生成;第三列是RandLA⁃Net的可视化结果;第四列是本文模型测试所得的点以及预测标签可视化所得的分割结果。实验结果证明,本文提出的BAEAF⁃Net网络能够较为准确的分割,与RandLA⁃Net的结果相比有一定的提升。2.3.2模块消融实验为了进一步探究网络结构中不同模块的重要性,本文在S3DIS数据集的Area5上进行消融实验,研究每个模块对测试结果的影响,结果如表3所示。图4RandLA⁃Net、BAEAF⁃Net在S3DIS数据集上的语义分割结果表3模块重要性分析EAGF√√.62.962.863.363.242.951.157.846.4doortable76.578.377.876.4chair87.587.387.887.865.268.367.577.9sofabook.71.670.372.9board62.662.169.268.8%53.253.850.852.9clut.√√70.55结合EAGF模块,本文模型EAGF⁃RandLANet的总体分类精度比RandLA⁃Net高出0.5%,平均交并比比RandLA⁃Ne高出1.6%。EAGF模块在具有相似局部结构特征的物体上具有较大的改进,在门、柱子、沙发、桌子等类别上的IoU分别提升8.2%、7.2%、3.1%、1.8%。结合BCAF模块,本文模型BCAF⁃RandLANet的总Copyright©博看网. All Rights Reserved.
第9期侯伟鹏,等:基于全局上下文注意力的点云语义分割125
比RandLA⁃Net高出0.2%,体分类精度平均交并比比RandLA⁃Net高出1.7%。BCAF模块充分融合了邻近尺度的特征,缓解了小目标特征在下采样时的信息损失,对小目标物体识别具有较好的效果,在门、桌子、沙发、木板、椅子等类别上的IoU分别提升14.9%、1.3%、2.33%、6.6%、0.3%。而将EAGF、BCAF模块二者结合,本文模型BAEAF⁃worksfortherecognitionof3Dpointcloudmodels[C]//Pro⁃ceedingsoftheIEEEInternationalConferenceonComputerVi⁃[7]QICR,SUH,MOK,et:Deeplearningonpointsetsfor3Dclassificationandsegmentation[C]//Proceedingsoftion.[S.l.]:IEEE,2017:652⁃EConferenceonComputerVisionandPatternRecogni⁃[8]QICR,YIL,SUH,et++:Deephierarchicalfea⁃turelearningonpointsetsinametricspace[C]//Proceedingsofthe31stInternationalConferenceonNeuralInformationPro⁃5105⁃,Italy:IEEE,2017:863⁃的总体分类精度比RandLA⁃Net高出0.9%,平均交并比比RandLA⁃Net高出2.5%,并且在门、墙、柱子、窗户、门、桌子、椅子、沙发、书架、木板、杂类等11个类别取得了较好的分割精度,这得益于BAEAF⁃Net模型可以有效提取多尺度全局上下文特征并融合相邻尺度的语义特征,提高了特征的辨别性和表达能力。ach,California,USA:ACM,2017:[9]ZHAOH,JIANGL,FUCW,eb:Enhancinglo⁃ceedingsoftheIEEE/CVFConferenceonComputerVisionand5565⁃ghborhoodfeaturesforpointcloudprocessing[C]//Pro⁃ach,CA,USA:IEEE,2019:3结语针对直接点语义分割方法对全局上下文特征的利用不充分,本文提出了BAEAF⁃Net网络,该网络主要由EAGF和BCAF两大模块组成,EAGF模块通过外部注意力机制提取多尺度全局上下文特征,BCAF模块通过后向竞争性通道注意力融合邻近尺度上下文特征。实验结果表明,BAEAF⁃Net网络能有效提高整体分割精度;点云语义分割在自动驾驶领域的感知模块占据重要地位,因此,将进一步优化网络结构与实时应用的效率。参考文献[10]LANDRIEUL,⁃scalepointcloudse⁃manticsegmentationwithsuperpointgraphs[C]//keCity,UT,USA:IEEE,2018:4558⁃4567.算法Graph⁃PointNet[J].现代电子技术,2022,45(6):87⁃EEEConferenceonComputerVisionandPatternRec⁃[11]陈苏婷,陈怀新,张闯.基于图卷积神经网络的三维点云分割[12]HUQ,YANGB,XIEL,⁃net:efficientsemanticsegmentationoflarge⁃scalepointclouds[C]//ProceedingsoftheIEEE/e,WA,USA:IEEE,2020:11108⁃11117.[1]SUH,MAJIS,KALOGERAKISE,⁃viewconvolu⁃ingsoftheIEEEInternationalConferenceonComputerVision.2015:945⁃neuralnetworksfor3dshaperecognition[C]//Proceed⁃[13]GUOMH,CAIJX,LIUZN,:Pointcloudtrans⁃[14]GUOMH,LIUZN,MUTJ,self⁃attention:Externalattentionusingtwolinearlayersforvisualtasks[J].gence,2022(5):1⁃ansactionsonpatternanalysisandmachineintelli⁃[15]陈涵娟,达飞鹏,盖绍彦.基于竞争注意力融合的深度三维点云分类网络[J].浙江大学学报(工学版),2021,55(12):2342⁃2351.[16]ARMENII,SENERO,ZAMIRAR,etal.3Dsemanticparsingoflarge⁃scaleindoorspaces[C]//Proceedingsofthetion.[S.l.]:IEEE,2016:1534⁃nferenceonComputerVisionandPatternRecogni⁃[17]ZHAOH,JIANGL,FUCW,eb:Enhancinglo⁃ceedingsoftheIEEE/CVFConferenceonComputerVision2019:5565⁃[J].Computationalvisualmedia,2021,7(2):187⁃199.[2]BOULCHA,GUERRYJ,LESAUXB,t:3Dworks[J].Computers&graphics,2018,71:189⁃loudsemanticlabelingwith2Ddeepsegmentationnet⁃[3]GUERRYJ,BOULCHA,LESAUXB,t⁃r:con⁃sistent3Dmulti⁃viewsemanticlabelingforrobotics[C]//Pro⁃ceedingsoftheIEEEInternationalConferenceonComputerVi⁃[4]MATURANAD,:A3DconvolutionalRSJIn,Italy:IEEE,2017:669⁃networkforreal⁃timeobjectrecognition[C]//2015IEEE/(IROS).[S.l.]:IEEE,2015:922⁃ghborhoodfeaturesforpointcloudprocessing[C]//Pro⁃ach,CA,USA:IEEE,[5]RIEGLERG,OSMANULUSOYA,:learn⁃ingsoftheIEEEConferenceonComputerVisionandPatternRecognition.[S.l.]:IEEE,2017:3577⁃p3drepresentationsathighresolutions[C]//Proceed⁃[18]WANGY,SUNY,LIUZ,cgraphCNNfor2019,38(5):1⁃12.[6]KLOKOVR,fromcells:Deepkd⁃net⁃王learningonpointclouds[J].ACMtransactionsongraphics,作者简介:侯伟鹏(1998—),男,江西赣州人,硕士研究生,主要研究方向为三维点云语义分割、图像处理。蕾(1979—),女,湖北黄陂人,副教授,主要研究方向为计算机视觉、三维点云数据处理。Copyright©博看网. All Rights Reserved.
发布者:admin,转转请注明出处:http://www.yc00.com/web/1705061640a1389889.html
评论列表(0条)