融合改进ASPP和CBAM的竹材端面分割与竹梢位置检测方法

融合改进ASPP和CBAM的竹材端面分割与竹梢位置检测方法


2024年4月12日发(作者:)

林业工程学报,2023,8(5):138

145

Journal

ofForestryEngineering

DOI:10.13360/j.issn.2096

1359.202211036

融合改进ASPP和CBAM的竹材端面分割与

竹梢位置检测方法

石烨炜,鲍光海

(福州大学电气工程与自动化学院,福州350108)

摘 要:在竹集成材的生产流程中,为了减少竹材加工过程中产生的浪费,需要精确获取竹材端面的内周长与厚

度。而生长过竹梢的长竹条由于其纤维结构上的特征也无法进行粗刨。为提高竹产业生产效率,降低竹材浪

费,提出了一种融合改进后的空洞空间卷积池化金字塔(ASPP)与双注意力机制(CBAM)的轻量级端到端网络

模型。该网络既能够得到竹梢的精确位置,又能够提取出竹材端面的内外轮廓为后续计算竹材内轮廓周长与厚

度提供条件。主干特征提取网络由4个卷积模块(block)组成,共实现16倍的下采样,每个模块内搭建残差结构

来缓解梯度消失的问题;上采样阶段采用两次4倍的上采样实现端到端的输出,在两次上采样前分别加入改进

后的空洞空间卷积池化金字塔与双注意力机制以提高网络输出的精度。该研究在训练阶段针对不同输出任务

采用了不同的损失函数。试验表明,所提出的方法在分割竹材端面任务中交并比达到96.11%,竹梢位置检测任

务中距离误差为3.09%,每秒传输帧数达到114.21。与LEDNet、BiSeNet⁃V2、RegSeg分割网络相比,本研究所提

方法能够更好地平衡检测精度与检测速度。

关键词:语义分割;关键点检测;轻量级;空洞空间卷积池化金字塔;双注意力机制;竹材

中图分类号:TP183;S795     文献标志码:A     文章编号:2096

1359(2023)05

0138

08

Bambooendfacesegmentationandbranchpositiondetectionmethod

fusedwithimprovedASPPandCBAM

SHIYewei,BAOGuanghai

(CollegeofElectricalEngineeringandAutomation,FuzhouUniversity,Fuzhou350108,China)

Abstract:Intheproductionprocessofbamboolaminatedlumber,inordertoreducethewastegeneratedintheprocess

ofbamboosubdivisionandroughsection,itisnecessarytodeterminetheinnercontourperimeterandthicknessofthe

bambooendsurface.Thelongbamboostripwithbamboobranchalsocannotcarryouttheroughsectionbecauseofthe

featureonitsfiberstructure.Inordertoimprovetheproductionefficiencyofthebambooindustryandreducethewaste

ofbamboomaterials,thisstudyproposedalightweightend⁃to⁃endnetworkmodel,whichcouldnotonlyobtainthe

precisepositionofbamboobranches,butalsosegmenttheinnerandoutercontoursofbambooendfaces,providing

conditionsforsubsequentcalculationofthebambooinnercontourandthickness.Thenetworkcanbedividedintotwo

stages,i.e.,down⁃samplingandup⁃sampling.Inthedown⁃samplingstage,abackbonefeatureextractionnetworkwas

builtbystacking3

×

3convolutionallayerstoachieve16timesdown⁃sampling.Eachconvolutionallayerwouldbefol⁃

lowedbyaBNlayerandaPReLUactivationfunction.Inordertoalleviatetheproblemofgradientdisappearance,this

studyalsobuiltaresidualstructureinthebackbone.Intheup⁃samplingstage,twotimesoffourtimesup⁃sampling

wereusedtoachieveend⁃to⁃endoutput.Beforethefirstup⁃sampling,thefeaturemapwassenttotheserial⁃parallel

ASPP.Serial⁃parallelASPPwasimprovedonthebasisofASPP.Itchangedtheconvolutionkernelofthefirstbranch

to3

×

3tofurtherexpandthereceptivefield.Inordertoalleviatethe“grideffect”causedbythedilatedconvolution,

theparalleldilatedconvolutionbranchwasreducedtotwo,eachwithserialtwodilatedconvolutions.Experiments

provedthattheimprovedASPPcanfurtherimprovedthenetworkaccuracy.Beforethesecondup⁃sampling,itwas

fusedwiththeCBAMmechanism,whichconsistedoftwoparts,i.e.,thespatialattentionmoduleandthechannelat⁃

tentionmodule.Thisresearchuseddifferentlossfunctionsfordifferentoutputtasksinthetrainingstage.Theendface

segmentationadoptedthelossfunctioncombiningBCEandDice,andthebamboobranchpositiondetectionadopted

收稿日期:2022

11

29    修回日期:2023

01

10

基金项目:福建省科技计划项目(2018H0014)。

作者简介:石烨炜,男,研究方向为图像处理与人工智能。通信作者:鲍光海,男,教授。E⁃mail:19428733@qq.com

Copyright©博看网. All Rights Reserved.

 第5期

石烨炜,等:融合改进ASPP和CBAM的竹材端面分割与竹梢位置检测方法

139

theMSElossfunction.Experimentresultsshowedthattheproposedmethodachieved96.11%intersection⁃over⁃union

114.21framespersecond.ComparedwiththeLEDNet,BiSeNet⁃V2,andRegSeglightweightsegmentationnetworks,

themethodproposedinthisstudycanbetterbalancethedetectionaccuracyanddetectionspeed,providingtechnical

supportforrealizingtheautomationofbamboolaminatedlumberproductions.

Keywords:semanticsegmentation;keypointdetection;lightweight;ASPP;CBAM;bamboo

inthetaskofsegmentingbambooendfaces,3.09%distanceerrorinthebamboobranchpositiondetectiontask,and

  近年来,为保护生态环境,推动实施可持续发

展战略,以竹代木

[1]

、以竹代塑

[2]

等倡议相继被提

出,竹产业产值也在逐年上升。竹集成材能够保持

竹材优异的物理力学特性,在竹制家具领域中具有

良好的发展前景。其生产流程大致为分段、剖分、

粗刨、干燥、精刨、分拣、涂胶等

[3]

。其中剖分阶段

是将分段后的竹材根据端面内轮廓的周长选择合

适的刀具,将其等分成所需要宽度的长竹条,其中

带竹梢的长竹条由于其纤维结构上的特征在粗刨

时易断裂,所以需从中去除掉。粗刨阶段是将剖分

后的长竹条打磨成近似梯形的加工雏形体。目前,

刀具的选择大多采用人工方式,精确度不高,而粗

刨阶段更是将所有竹条直接送入同一厚度的粗刨

机,造成了原材料的大量浪费;因此,现代竹产业亟

须一种能准确识别竹端面竹梢位置并计算出其内

轮廓周长与厚度的技术。

要想准确得到竹材端面周长、厚度的信息,精

确分割出竹材端面是关键。传统的图像分割方法

大多简单直接,它们能快速获取到图像的关键信

息,常用于图像的预处理步骤。常见的有基于阈值

的图像分割

[4]

、基于边缘的图像分割

[5

6]

、基于聚

类的图像分割

[7]

以及基于图论的图像分割方法

[8]

等。朱峰等

[8]

将Gabor小波与聚类算法相结合在

竹材端面的两类纹理分割中取得了较好的效果。

柴华

[9]

利用蚁群算法对Sobel算子进行优化,能够

成功提取竹材截面轮廓图像。虽然竹端面分割任

务并不复杂,传统的分割方案已证明能实现,但由

于后续将用于计算竹材的内轮廓周长与厚度,所以

需要分割结果非常精确,而且不同图片也会存在不

同干扰问题。例如:不同位置的竹端面会呈现出不

同的色泽;受分段的影响,竹青面可能会有毛刺凸

起,竹黄面也可能存在表面组织剥离,从而影响轮

廓四周的像素梯度。因此对细节把握不强、无法灵

活排除干扰的传统图像分割方法,无法达到其精度

要求。近年来随着深度学习的不断发展,卷积神经

网络已成为用来处理图像的重要手段,其在图像分

割领域也取得了巨大突破。2015年Long等

[10]

出了FCN(fullyconvolutionalnetworks),是首个能

对图像进行像素点级别分类的卷积神经网络,整个

网络不含有全连接层,可对任意尺寸图像进行分

割。近几年,为将模型部署到各种移动端场合中运

行,多种轻量级分割网络相继被提出。ENet

[11]

过减轻解码阶段,大幅度降低了网络复杂度。

LEDNet

[12]

在残差模块中先将输入拆分成两条分

支来降低计算量,再通过通道混洗来实现两条分支

之间的信息交互,并在解码过程中加入金字塔注意

模块融入不同尺度信息。BiSeNet⁃V2

[13]

采用细节

分支与语意分支并行的方式实现高效率高精度的

实时语意分割,并在训练阶段将不同阶段的特征信

息同时送入损失函数中进行辅助训练。RegSeg

[14]

采用逐步增加膨胀因子的方法实现在扩大感受野

的同时尽可能地减少信息丢失。

竹子的前三分之一部分其侧面会生长出竹梢,

受竹梢的影响该节的竹端面会在竹梢纵向坐落的

部位产生一定程度的凹陷,利用该特征可通过对竹

端面进行图像处理识别出竹梢生长位置。黄安贻

[15]

通过角点检测和圆形掩膜的方法搜索出凹点

的位置。刘双喜等

[16]

采用求取矢量三角形面积的

方法判断轮廓上的凹点。He等

[17]

建立线性方程

组,根据轮廓上各个像素点之间的位置关系检测凹

点。但对于竹梢凹点检测同样也存在一些干扰,竹

梢位置的凹陷程度不一,能够检测大凹陷的传统算

法不一定适用于小凹陷。竹青面的毛刺凸起也可

能造成伪凹陷,影响传统算法的判断。考虑到竹端

面分割采用深度学习的方式进行处理,该研究决定

用一种神经网络同时进行竹端面分割与竹梢位置

检测,以简化检测流程、提高图像处理速度。近年

来越来越多的学者也在用卷积神经网络来检测一

些复杂的特征点,Toshev等

[18]

提出的DeepPose算

法,最早将卷积神经网络应用于人体关节点检测;

Tompson等

[19]

用输出热力图的方式得到关键点信

息,这也是目前主流的输出方式。除此之外,基于

深度学习的关键点检测还被应用到医学、交通、农

业等多个领域

[20

22]

针对上述需求与问题,本研究对竹材端面图像

进行了收集,并提出一种能够同时分割竹材端面与

输出竹梢位置的卷积神经网络。该网络通过堆叠

×

3的卷积对输入图像进行主要的特征提取,在上

Copyright©博看网. All Rights Reserved.

140

林业工程学报第8卷

采样阶段通过融合改进后的空洞空间卷积池化金

字塔与双注意力机制进一步提升网络精度。最终

实验表明,本研究所提方法兼顾了精度与速度,能

够快速实现对竹端面的精确分割与竹梢位置的精

准定位。

1 数据获取与处理

1.1 图像采集

本研究所需的竹材料均来自福建古田某竹材

加工公司。为扩大数据集选择,先将分段后的竹材

再切割成若干小段后进行拍摄,不同位置的再分段

也保证了竹端面色泽与竹梢凹陷程度的多样性。

拍摄时相机选用MindvisionGigE彩色工业相机,

图像分辨率自定义为480

×

480,镜头为Mindvision

FA镜头,焦距为8mm,光源选用环形无影光源。

该研究共采集1200张原始图像,采集后的图像如

图1所示。

图3 图像增强

Fig.3 Imageaugment

图2 标签图片

Fig.2 Labelimages

2 网络结构

2.1 整体框架

输入图片会先经过主干特征提取网络,它将图

片从3通道扩张到了128通道,并进行了4次2

×

的最大池化操作。上采样方式采用转置卷积,每次

上采样不仅扩大特征图的分辨率,同时也会对通道

数进行调整,通过两次4倍上采样实现网络端到端

图1 竹材原图

Fig.1 Bamboooriginalimage

的输出。第1次上采样前先对特征图进行一次

网络中第2次最大池化后的特征图相加进行特征

1.2 图像处理与标签制作

将采集原图送入labelme软件进行关键点标

记,之后再以该关键点为中心用高斯分布的方式生

成对应的热力图。整张热力图的宽与高和输入图

像的宽与高相同,像素值分布在[0,1],与关键点

重合的坐标像素值为1,如图2a所示可将竹材端

面分割网络视为基于像素点的二分类问题。该研

究将每张图片送入PS软件制作标签,端面部分设

置为纯白,其余部分设置成纯黑,如图2b所示。

为防止网络训练时出现过拟合现象,该研究对

训练集图片进行了在线数据增强,具体操作如下:

对比度的变换。

1)以50%的概率对图像进行随机亮度、随机

2)以50%的概率对图像添加随机高斯噪声。

SP⁃ASPP操作,上采样后将输出与主干特征提取

融合。在第2次上采样前融合进了CBAM模块。

网络经过两次上采样后的输出有3个通道,前两个

通道对背景与端面进行分类,第3个通道经过Sig⁃

架结构如图4所示。

2.2 主干特征提取网络

moid激活函数后输出竹梢关键点热力图。整体框

主干特征提取网络由4个模块组成,分别将通

道数上升到16,32,64和128。图5为每个模块的

示意图。在第1个3

×

3的卷积时实现对通道数的

升维,每个卷积层后面都会跟随BN层和PReLU

激活函数,并建立残差结构

[23]

使之在一定程度上

缓解梯度消失的问题。最后通过最大池化层实现

对特征图的下采样。其中BN层是将网络中的参

数进行批次归一化,使网络在较大学习率的情况下

依旧能够实现相同的分割精度。PReLU是在

3所示。

以图1左上图为例,其图像增强后的效果如图

Copyright©博看网. All Rights Reserved.

 第5期

石烨炜,等:融合改进ASPP和CBAM的竹材端面分割与竹梢位置检测方法

141

图4 网络框架

Fig.4 Networkframework

ReLU上的改进,它通过加入可学习参数α改善了

ReLU中存在部分神经元坏死的问题,使网络得到

更好的收敛效果。图6为PReLU激活函数示

意图。

别设置为1,2,3时网络明显更能全面地利用到特

征图上的每个像素点。

图5 模块结构

Fig.5 Blockstructure

图7 空洞空间卷积池化金字塔

Fig.7 Atrousspatialpyramidpooling

图6 PReLU激活函数

Fig.6 PReLUactivationfunction

2.3 改进后的ASPP模块

Chen等

[24]

在Deeplab系列网络中提出ASPP

(atrousspatialpyramidpooling)模块,它由5条不同

采样率的分支组成。第1条为1

×

1的普通卷积分

支,中间3条为3

×

3的不同膨胀率的卷积分支,最

后一条为全局池化分支。在通道数上对5条分支

的输出进行堆叠,以获取多尺度的目标信息。具体

结构如图7所示。

格效应

[25]

。图8为网格效应示意图。如图8a所

示,在一个特征图上连续使用3次膨胀率为2、卷

积核为3

×

3的卷积操作时,特征图上并非所有的

像素点都参与了运算。从图8b可见,当膨胀率分

虽然膨胀卷积能够增大感受野,但其会造成网

图8 网格效应示意图

Fig.8 Grideffectschematic

parallelatrousspatialpyramidpooling)。首先,将第

1层1

×

1的卷积改为3

×

3的卷积,扩大第1层的感

受野;其次,将3条膨胀卷积分支缩减到2条,每条

由2个膨胀卷积串联组成,第1条分支的膨胀率设

置为2和3,第2条分支的膨胀率设置为5和7,这

样在获取到不同尺度目标特征的同时能够大幅度

针对以上问题笔者提出SP⁃ASPP(series⁃

减少网格效应,更充分地利用特征层的有效信息;

最后,用平均池化获得特征图的全局特征最为第4

层。SP⁃ASPP结构如图9所示。

Copyright©博看网. All Rights Reserved.

142

林业工程学报第8卷

python语言在Pytoch1.7深度学习框架下进行编

程,CUDA的版本为11.0。

3.1 模型训练

960张,验证集240张。采用Adam优化器进行训

练,初始学习率设置为0.005。训练时Batchsize设

置为8,并且采用早停机制。当验证集的损失函数

图9 串并联空洞空间卷积池化金字塔

Fig.9 Series⁃parallelatrousspatialpyramidpooling

将数据集按照8∶2的比例进行划分,训练集

输出最小值连续20个Epoch不下降时网络自动停

止训练,最大Epoch设置为500。

在二分类的网络中损失函数一般采用二元交

叉熵(binarycrossentropy,BCE),公式如下:

BCE

=-

+--

[g·

ln(p

)(1g

)ln(1p

)]

2.4 CBAM机制

由Woo等

[26]

在2018年提出的一种轻量级双重注

意力机制。与SE

[27]

注意力机制不同,特征图会依

次经过通道、空间两种注意力模块实现双重调节,

在实际应用中能够取得更好的效果。

CAM)中,输入特征图会经过全局最大池化和全局

平均池化两个并行分支提取全局特征;接着分别通

过多重感知层(multilayerperceptron,MLP)模块将

通道数压缩到原来的1/r,其后再扩张回原通道数

(本研究中r取4);然后将两个并行输出结果逐元

素相加,再通过一个Sigmoid激活函数得到CAM

计算公式如下:

P(F

(F)

σ[P(F

avg

max

)]

的输出结果;最后将这个结果与输入特征图相乘。

在通道注意力模块(channelattentionmodule,

CBAM(convolutionalblockattentionmodule)是

(3)

式中:g

为像素点的真实标签;p

为网络对该像素

点的预测结果。

BCE损失函数在解决梯度消失的问题上有着

不错的表现,但面对前后景比例失衡的数据集该函

数未能有适合的调节措施,导致过于注重占比多的

类别,而忽略了占比少的类别。Dice损失函数能

够从整体上考虑图像的分割效果,在一定程度上调

节了网络的优化方向,让网络更加重视前景部分。

该损失函数公式如下:

Dice

式中:F为输入特征图;P为多重感知层;W

、W

别为P中的单个全连接层;σ为Sigmoid激活

函数。

SAM),首先分别对输入特征图进行通道上的最大

池化与均值池化,然后用concat操作对两个输出进

行堆叠。通过7

×

7的卷积操作变为通道为1的特

征图,再经过一个Sigmoid激活函数后得到SAM的

输出,最后将这个结果与输入相乘得到最终的输

出。计算公式如下:

(F)

σ[f

×

(F

avg

;F

max

)]

卷积操作;σ为Sigmoid激活函数。

(2)

在空间注意力模块中(spatialattentionmodule,

σ{W

[W

(F

[W

(F

(1)

avg

)]

max

)]}

结合二者优势,本研究对竹端面分割任务采用

的损失函数如下:

seg

αL

BCE

(1

α)L

Dice

α设为0.5。

(meansquarederror,MSE)函数作为损失函数,其

计算公式如下:

mse

3.2 评价指标

(g

(6)

在竹梢关键点检测任务中采用均方误差

(5)

1i

(4)

式中,α为权重因子,经过多次对比试验该研究将

式中:F为输入特征图;f

×

为卷积核大小为7

×

7的

tersectionoverunion)作为竹端面分割任务的评价

指标,当两块区域完全重合时IoU为1;用DE(dis⁃

tanceerror)来衡量竹梢关键点的准确性,其计算方

式为预测关键点和实际关键点之间的欧式距离与

竹端面最小外接矩形其面积平方根的比值;用FPS

境为NVIDIAGTX1080Ti显卡。

(framepersecond)来衡量网络的推理速度,推理环

在对比实验过程中:本研究用交并比IoU(in⁃

3 模型训练与分析

Corei59400F,16GB内存,NVIDIAGTX1080Ti显

卡,11G显存;基于Windows10操作系统,采用

试验平台采用台式计算机,CPU型号为Inter

Copyright©博看网. All Rights Reserved.

 第5期

石烨炜,等:融合改进ASPP和CBAM的竹材端面分割与竹梢位置检测方法

143

3.3 对比实验

为确定权重因子α的最佳取值,本研究做了相

关对比实验。实验中分别将α设置为1.00,0.75,

0.50,0.25和0.00在Backbone

SP⁃ASPP

CBAM网

络模型中进行对比,结果如表3所示。对比5组实

验可以看出,当结合两种损失函数且α为0.50时

的网络精度最优。

Table1 Comparativeexperimentof

differentweightfactors

α

IoU/%

95.43

95.44

96.11

96.10

95.92

αDE/%

3.54

3.35

3.09

3.22

3.20

信息,使得DE指标有了大幅度提升,但IoU却略

微下降。将ASPP替换成SP⁃ASPP后,缓解了

ASPP中存在的网格问题。虽然融合的特征分支

减少了,但每条分支的信息更加丰富,总体上丢

0.20%,DE降低了0.44%。在加入SP⁃ASPP的基

和DE两个指标中均为最优指标。其原因在于在

进行高低阶特征融合后虽然能找回许多丢失的

特征信息,但其中不免也掺杂着许多无用信息,

CBAM模块通过对特征图在空间上和通道上同时

调整权重,关注重要特征,抑制不重要特征,使得

融合过程变得更加有效。

Table2 Ablationexperiment

网络

Backbone

Backbone

CBAM

Backbone

ASPP

Backbone

SP⁃ASPP

Backbone

ASPP

CBAM

IoU/%

95.93

96.03

95.84

96.04

95.88

96.11

DE/%

6.08

5.11

4.73

4.29

3.78

3.09

FPS

160.24

130.51

146.25

138.74

115.26

114.21

失的信息反而更少了,指标上体现在IoU提高了

础上继续加入CBAM,可以看出该组实验在IoU

表1 不同权重因子

α

的对比实验

1.00

0.75

0.50

0.25

0.00

表2 消融实验

  为了验证SP⁃ASPP与CBAM对网络的优化

作用,本研究进行了消融实验。首先对单一主干

特征提取网络进行训练作为对照组,然后依次加

入CBAM、ASPP、SP⁃ASPP。由表1可以看出,3

种模块都能够在一定程度上提高模型的准确率,

当网络仅由Backbone组成时,凭借着3

×

3卷积的

有效堆叠以及残差结构,网络依旧能在竹端面分

割中取得较好的效果,只是对于一切干扰问题还

无法正确判别。当在Backbone的基础上加入

ASPP模块时,网络融合了5种不同尺度的特征

Backbone

SP⁃ASPP

CBAM

  为了验证该研究中网络的优势,共选取了

LEDNet、RegSeg、BiSeNet⁃V23种网络与本研究网

络进行对比,对比的可视化结果如图10所示,各网

络性能指标对比如表3所示。

图10 4种网络模型输出对比

Fig.10 Comparisonoffournetworkmodelsoutputs

Copyright©博看网. All Rights Reserved.

144

表3 4种网络模型性能对比

林业工程学报第8卷

Table3 Performancecomparisonoffournetworkmodels

网络

LEDNet

RegSeg

BiSeNet⁃V2

本研究

IoU/%

95.97

96.04

96.19

96.11

DE/%

4.47

4.20

3.94

3.09

FPS

51.72

53.81

114.21

84.51

[3]李吉庆,李永春.竹集成材家具生产工艺及其关键技术[J].

家具,2013,34(1):15

18,30.DOI:10.16610/j.cnki.jiaju.

2013.01.012.

LIJQ,LIYC.Studyontechnologyandkeytechniquesofnew

[4]李秋洁,杨远明,袁鹏成,等.基于饱和度分割的叶面积图像

10.13360/j.issn.2096

1359.202009007.

typeglue⁃laminatedbamboofurniture[J].Furniture,2013,34

(1):15

18,30.

测量方法[J].林业工程学报,2021,6(4):147

152.DOI:

LIQJ,YANGYM,YUANPC,etal.Imagemeasurement

methodofleafareabasedonsaturationsegmentation[J].Journal

ofForestryEngineering,2021,6(4):147

152.

  从第1、4张图可看出,对于明显的竹梢凹陷4

种网络都能够准确地检测出,但由于竹黄面有部分

表面组织剥离导致LEDNet网络在分割内轮廓时

误差相较其他3种网络较大。由第2、3张图可以

看出,对于凹陷较小的情况本试验网络依旧能在正

确的竹梢位置呈现出淡红色,而其他网络要么位置

判断错误要么分辨更加困难。从表3中可以看出,

本试验网络的检测速度要明显优于其他3种网络,

精度指标上IoU仅次于BiSeNet⁃V2,DE为最优。

综合考虑网络精度与网络速度,本试验网络更加适

用于该领域。

[5]LIES,ZHUSL,ZHUBS,etal.Anadaptiveedge⁃detection

methodbasedonthecannyoperator[C]//2009International

[6]LANGY,ZHENGD.Animprovedsobeledgedetectionoperator

[C]//Proceedingsofthe20166thInternationalConferenceon

2016),AdvancesinIntelligentSystemsResearch.November11

2016.DOI:10.2991/mcei

16.2016.123.

Mechatronics,ComputerandEducationInformationization(MCEI

13,2016.Shenyang,China.Paris,France:AtlantisPress,

465

469.DOI:10.1109/ESIAT.2009.49.

ConferenceonEnvironmentalScienceandInformationApplication

Technology.July4

5,2009,Wuhan,China.IEEE,2009:

4 结 论

[7]贾新宇,江朝晖,李娟,等.基于图像测量的毛竹笋高生长在

线监测[J].林业工程学报,2021,6(4):134

139.DOI:10.

13360/j.issn.2096

1359.202009032.

ForestryEngineering,2021,6(4):134

139.

JIAXY,JIANGZH,LIJ,etal.On⁃linemonitoringofbamboo

shootgrowthheightbasedonimagemeasurement[J].Journalof

[8]朱峰,王海丰,任洪娥.基于Gabor变换的纹理图像分割算法

16270/j.cnki.slgc.2013.05.026.

及应用[J].森林工程,2013,29(5):60

63.DOI:10.

ZHUF,WANGHF,RENHE.Researchontextureimageseg⁃

transform[J].ForestEngineering,2013,29(5):60

63.

为提高竹产业生产效率、降低原材料浪费,笔

者提出一种融合SP⁃ASPP与CBAM的神经网络,

能够同时用于竹端面分割与竹梢位置检测,为实现

竹集成材自动化提供技术支持。该网络由下采样

与上采样两部分组成。在下采样阶段中本试验设

计了一种简单高效的主干特征提取网络;在上采样

阶段通过融合SP⁃ASPP和CBAM两种模块来提高

网络检测精度。其中SP⁃ASPP为ASPP的改进版

本,它通过减少并联、增加串联的方式进一步提升

96.11%,竹梢位置距离误差为3.09%,FPS达到

114.21。与其他轻量级网络相比,本试验网络更能

够平衡检测精度与检测速度,在竹集成材自动化领

域具有潜在实用价值。

参考文献(References):

[1]季柳炎.以竹代木构建我国溶解浆产业安全防护体系探讨

1007

9211.2022.12.002.

[J].中华纸业,2022,43(12):6

9.DOI:10.3969/j.issn.

dissolvingpulpindustrywithusingbambooinsteadofwood[J].

ChinaPulp&PaperIndustry,2022,43(12):6

9.

JILY.Aprobeontheconstructionofsafetyprotectionsystemfor

mentationalgorithmanditsapplicationbasedonGaborwavelet

[9]柴华.基于图像识别的竹材横截面轮廓提取技术研究[D].

哈尔滨:东北林业大学,2014.

CHAIH.Researchontheextractiontechnologyofthecross

sectionofbamboobasedonimagerecognition[D].Harbin:

[10]LONGJ,SHELHAMERE,DARRELLT.Fullyconvolutional

NortheastForestryUniversity,2014.

networksforsemanticsegmentation[C]//2015IEEEConference

了检测精度。本试验网络竹端面分割IoU达到

[11]PASZKEA,CHAURASIAA,KIMS,etal.ENet:adeepneural

[12]WANGY,ZHOUQ,LIUJ,etal.LEDNet:alightweighten⁃

2019IEEEInternationalConferenceonImageProcessing

(ICIP).September22

25,2019,Taipei,China.IEEE,2019:

[13]YUCQ,GAOCX,WANGJB,etal.BiSeNetV2:bilateral

networkwithguidedaggregationforreal⁃time

2021,129(11):3051

3068.DOI:10.1007/s11263

021

01515

2.

1860

1864.DOI:10.1109/ICIP.2019.8803154.

semantic

coder⁃decodernetworkforreal⁃timesemanticsegmentation[C]//

networkarchitectureforreal⁃timesemanticsegmentation[EB/

OL].2016[2022

08

15].https://arxiv.org/abs/1606.02147.

10.1109/CVPR.2015.7298965.

onComputerVisionandPatternRecognition(CVPR).June7

12,2015,Boston,MA,USA.IEEE,2015:3431

3440.DOI:

[2]戴武军,谭益民,谢奕辉.以竹代塑、以竹治污系列竹类新产

10.12168/sjzttx.2021.02.003.

DAIWJ,TANYM,XIEYH.Newbamboo⁃basedproductsde⁃

velopmentforplasticreplacementandpollutioncontrolwithbam⁃

boo[J].WorldBambooandRattan,2021,19(2):10

14.

品的开发[J].世界竹藤通讯,2021,19(2):10

14.DOI:

segmentation[J].InternationalJournalofComputerVision,

Copyright©博看网. All Rights Reserved.

 第5期

石烨炜,等:融合改进ASPP和CBAM的竹材端面分割与竹梢位置检测方法

145

[14]GAOR.Rethinkdilatedconvolutionforreal⁃timesemanticseg⁃

mentation[EB/OL].2021[2022

08

15].https://arxiv.org/

[15]黄安贻,吴帅,胡舜迪,等.基于凹点检测的卵母细胞极体识

别方法[J].计算机工程与设计,2022,43(1):217

223.

DOI:10.16208/j.issn1000

7024.2022.01.029.

HUANGAY,WUS,HUSD,etal.Oocytespolarbodyrecog⁃

abs/2111.09957.

[21]朱肖磊,吴训成.车辆姿态感知注意力增强的车辆重识别

[J].电子测量技术,2021,44(24):91

97.DOI:10.19651/

j.cnki.emt.2107881.

ZHUXL,WUXC.Enhancedattentionofvehiclepostureper⁃

ceptionforvehiclere⁃identification[J].ElectronicMeasurement

Technology,2021,44(24):91

97.

[16]刘双喜,刘印增,胡安瑞,等.基于ECMM分割法的杂草稻

20220812.1103.008.html.

种子在线识别研究[J/OL].农业机械学报,2022:1

19.

[2022

08

15].https://kns.cnki.net/kcms/detail/11.1964.s.

nitionmethodbasedonconcavepointdetection[J].Computer

EngineeringandDesign,2022,43(1):217

223.

[22]张宏鸣,李永恒,周利香,等.基于改进YOLOv3的肉牛多

目标骨架提取方法[J].农业机械学报,2022,53(3):285

293.DOI:10.6041/j.issn.1000

1298.2022.03.030.

extractionmethodofbeefcattlebasedonimprovedYOLOv3[J].

ZHANGHM,LIYH,ZHOULX,etal.Multi⁃targetskeleton

TransactionsoftheChineseSocietyforAgriculturalMachinery,

2022,53(3):285

293.

forimagerecognition[C]//2016IEEEConferenceonComputer

CVPR.2016.90.

VisionandPatternRecognition(CVPR).June27

30,2016,

LasVegas,NV,USA.IEEE,2016:770

778.DOI:10.1109/

[24]CHENLC,PAPANDREOUG,SCHROFFF,etal.Rethinking

[25]WANGPQ,CHENPF,YUANY,etal.Understandingconvo⁃

atrousconvolutionforsemanticimagesegmentation[EB/OL].

2017[2022

08

15].https://arxiv.org/abs/1706.05587.

LIUSX,LIUYZ,HUAR,etal.Onlineidentificationof

weedyriceseedsbasedonECMMsegmentation[J/OL].Transac⁃

tionsoftheChineseSocietyforAgriculturalMachinery,2022:1

19.[2022

08

15].

algorithm[J].Measurement,2022,196:111041.DOI:10.

[23]HEKM,ZHANGXY,RENSQ,etal.Deepresiduallearning

[17]HEL,WANGS,GUOYC,etal.Multi⁃scalecoalandgangue

dual⁃energyX⁃rayimageconcavepointdetectionandsegmentation

1016/j.measurement.2022.111041.

[18]TOSHEVA,SZEGEDYC.DeepPose:humanposeestimationvia

deepneuralnetworks[C]//2014IEEEConferenceonComputer

[19]TOMPSONJ,GOROSHINR,JAINA,etal.Efficientobjectlo⁃

renceonComputerVisionandPatternRecognition(CVPR).

June7

12,2015,Boston,MA,USA.IEEE,2015:648

656.

DOI:10.1109/CVPR.2015.7298664.

大学,2022.

2014.214.

VisionandPatternRecognition.June23

28,2014,Columbus,

OH,USA.IEEE,2014:1653

1660.DOI:10.1109/CVPR.

calizationusingConvolutionalNetworks[C]//2015IEEEConfe⁃

lutionforsemanticsegmentation[C]//2018IEEEWinterConfe⁃

renceonApplicationsofComputerVision(WACV).March12

15,2018,LakeTahoe,NV,USA.IEEE,2018:1451

1460.

DOI:10.1109/WACV.2018.00163.

[26]WOOS,PARKJ,LEEJY,etal.CBAM:convolutionalblock

attentionmodule[M]//ComputerVision

ECCV2018.Cham:

[27]HUJ,SHENL,SUNG.Squeeze⁃and⁃excitationnetworks[C]//

IEEE,2018:7132

7141.DOI:10.1109/CVPR.2018.00745.

SpringerInternationalPublishing,2018:3

19.DOI:10.1007/

978

030

01234

2_1.

[20]江浩.基于关键点的细胞检测算法研究[D].成都:电子科技

JIANGH.Researchoncelldetectionalgorithmbasedonkeypoint

ofChina,2022.

[D].Chengdu:UniversityofElectronicScienceandTechnology

2018IEEE/CVFConferenceonComputerVisionandPattern

Recognition.June18

23,2018,SaltLakeCity,UT,USA.

(责任编辑 葛华忠)

Copyright©博看网. All Rights Reserved.


发布者:admin,转转请注明出处:http://www.yc00.com/news/1712937287a2151512.html

相关推荐

发表回复

评论列表(0条)

  • 暂无评论

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信