2024年1月12日发(作者:)
第 50 卷
2023 年 10 月第 10 期
Journal of Hunan University(Natural Sciences)湖南大学学报(自然科学版)Vol.50,No.10Oct. 2023文章编号:1674-2974(2023)10-0175-10DOI:10.16339/b.2023184基于激光点云特征的LiDAR-GNSS/IMU联合自动标定方法22†秦晓辉 1,,刘硕 1,常灯祥 1,李建中 1,周云水 1,谢国涛 1,(1.湖南大学 机械与运载工程学院, 湖南 长沙 410082;2.湖南大学无锡智能控制研究院, 江苏 无锡 214115)摘要:车载多线激光雷达与GNSS/IMU系统间的数据融合可以提高智能驾驶定位系统的精度,两传感器间外部参数的标定是完成数据融合的前提.针对车辆传感器间外部参数手动测量困难、标定自动化程度低的问题,提出了一种不依赖标志物的自动标定方法,首先构建线、面两类特征点云地图并采用闭环约束减小累积误差,对两类点云地图分别提取面特征体素和线特征聚类,并将每一激光帧中的激光点与面特征体素和线特征聚类进行关联,结合基于运动标定的约束,构建最小二乘问题优化求解外部参数,最后通过实车实验验证了所提出算法的有效性和鲁棒性.关键词:自动驾驶;多传感器融合;激光SLAM;GNSS/IMU;传感器标定中图分类号:TP18 文献标志码:A LiDAR-GNSS /IMU Automatic Joint Calibration Method Based on Laser
Point Cloud Features22†QIN Xiaohui1,,LIU Shuo1,CHANG Dengxiang1,LI Jianzhong1,ZHOU Yunshui1,XIE Guotao1,(e of Mechanical and Vehicle Engineering, Hunan University, Changsha 410082, China; Intelligent Control Research Institute(WICRI) of Hunan University, Wuxi 214115, China)Abstract:The data fusion between onboard Light Detection and Ranging(LiDAR)and GNSS/IMU can improve
the accuracy of the localization system in intelligent driving, and the calibration of external parameters between two
sensors is the premise of data fusion. It is hard to measure external parameters between onboard sensors manually
and the the calibration of automation degree is lower. In this paper, an automatic calibration method that does not
rely on markers is proposed. First, the line feature map and surface feature map are constructed, respectively, and
closed-loop constraints are used to reduce the accumulated error. The laser points in each frame are matched with
surface feature voxels and line feature clusters extracted from two feature maps. The matching errors are integrated
with the constraints based on motion calibration. Then a least squares problem is built to optimize the external
parameters. Finally, we evaluate the efficiency and robustness of the proposed algorithm by conducting experiments
with real vehicles.∗
收稿日期:2022-11-03基金项目:国家自然科学基金资助项目(52102456,52172384), National Natural Science Foundation of China (52102456,52172384);国家重点研发计划资助项目(2021YFB2501800),National Key Research and Development Program (2021YFB2501800);长沙市自然科学基金资助项目(kq2202162), Natural Science Foundation of Changsha (kq2202162)作者简介:秦晓辉(1988—),男,湖南张家界人,湖南大学副研究员,博士†
通信联系人,E-mail:*********************Copyright©博看网. All Rights Reserved.
176
湖南大学学报(自然科学版)2023 年 Key words:automatic driving; multi-sensor fusion; LiDAR SLAM; GNSS/IMU; sensor calibration在智能驾驶系统中,车体安装有大量传感器,通过多种传感器数据的互补,用来实现定位、环境感知、决策、规划等功能[1].激光雷达(Light Detection
and Ranging,LiDAR)扫描范围广泛,获得的点云包含丰富的信息,常被用于同步定位与建图中,但它具种LiDAR-GNSS/IMU标定解决方案,首先利用初始的标定外参,将LiDAR、GNSS数据投影到世界坐标系中,并通过点云配准找到点与点间最好的对应关系,用最佳对应点的欧氏距离之和来构造损失函数优化求解,但该方法鲁棒性较差.Chen等[19]提出了一种LiDAR-GNSS/IMU解耦有运动畸变的缺点.GNSS/IMU组合惯导系统能够提供高频的全局定位信息,且基于载波相位的差分全球导航卫星系统技术(RTK)可以采集厘米级的定位信息,但是GNSS数据在复杂的城市道路环境中会产生信号丢失等现象.基于上述原因,在室外环境的导航定位系统中,将激光雷达数据与GNSS/IMU数据融合是十分必要的[2-3].将LiDAR数据与GNSS/IMU数据进行融合的前[4-6]的联合标定方法,该方法将标定参数解耦为两组,偏航角、X和Y方向平移通过手眼标定模型获得,俯仰角、翻滚角和Z轴平移通过GNSS在车体安装位置手动获得,此方法在每次标定时都要对GNSS重新安装,较为繁杂. LÜ等[20]提出了一种基于连续时间的LiDAR-IMU标定方法,其利用样条曲线获得连续的IMU数据,通过手眼标定对外部参数初始化,基于此初始值和连续的IMU位姿去除激光点云的畸变,并提是对两传感器间外部参数进行精确标定,外部参数的标定方法分为手动标定和自动标定,手动标定是通过人工测量来确定标志物的位置或者两传感器间的对应关系,通过此关系来提供准确的标定信息,此方法过于依赖人为操作或特殊的标定物.近年来,多种新颖的自动标定方法开始涌现,可分为基于深度学习的标定、基于运动的标定、基于特征的标IMU的标定问题,由于GNSS/IMU系统只能提供运动方案.基于运动的标定方法[10-14]不依赖特定的图像或激光点云特征,只要两传感器均能获得自身的运动,就能对外部参数进行标定,自动化程度较高.目前基于运动的多传感器间的标定方法,大多是在机器人手眼标定的框架基础上进行外参求解.当两个传感器刚性连接且各自的运动增量已知时,求解传感器间的外部参数的问题,可转换为求解AX=XB的矩阵方程的问题,其中A、B为传感器各自的相对运动增量,X为传感器间的外部参数,此过程称为机器人手眼标定[15-16],常采用两步法和直接优化法进行求解.基于运动的标定比较经典的是Taylor等[17]的方法,作者通过视觉里程计计算相机的位姿,通过ICP配准来计算LiDAR的运动,在手眼标定的框架上标定外部参数和时间偏移,并对传感器不同采样率引起的误校准进行检测和误差补偿.Xia等[18]提供了一定[7]和基于互信息的标定[8-9].对于LiDAR与GNSS/信息和位置姿态信息,通常采用基于运动的标定构建点到平面的约束问题,迭代求解精确的外部参数.此方法基于NDT构建点云地图,会产生较大累积误差,且其只提取地图中的面特征,在室外环境中会因为缺少“非地面的平面特征约束”导致标定精度变差.IMU标定方案[20]中的启发,针对室外环境下的LiDAR-GNSS/IMU标定问题,提出一种融合激光雷法,此方法通过激光里程计构建全局点云地图,对地图提取线特征聚类和面特征体素,通过线特征聚类、面特征体素关联并结合运动约束,构建外部参数联合标定最小二乘优化问题,求解LiDAR-GNSS/IMU间精确的外部参数.此方法通过回环约束优化地图,减小累积误差,提升点云特征提取的精度,引入线特征约束,提升在缺少点云面特征室外场景下的标定精度和稳定性,并通过实验对比验证了此方法的有效性.达点云特征的LiDAR-GNSS/IMU联合自动标定方基于上述方案的不足之处,且受吕佳俊LiDAR-1 标定方案概述本文的标定算法流程如图1所示.首先车辆采集能形成单一闭环的激光点云数据和GNSS/IMU数据;对点云数据采用激光里程计计算每一激光帧的Copyright©博看网. All Rights Reserved.
第 10 期
秦晓辉等:基于激光点云特征的LiDAR-GNSS/IMU联合自动标定方法177位姿 TLL,并通过回环检测构建位姿图优化问题;对0素”和“线特征聚类”;将每一帧去畸变后的激光点通过回环约束后的位姿与“面特征体素”和“线特征聚类”进行所属关系关联.构建以外部参数为优化量的最小二乘问题,并加入点线关联的距离残差、点面关联的距离残差和手眼标定残差,通过高斯-牛顿法进行求解,以得到精确的外部参数.激光里程计数据和GNSS/IMU数据分别求取相对位姿,通过手眼标定计算初始外部参数 TLG,并用此参数和GNSS/IMU位姿对每一帧的点云去畸变;利用去畸变后的点云和回环约束后的位姿构建面特征地图和线特征地图,并对两类地图分别检测“面特征体图1 LiDAR-GNSS/IMU自动标定算法流程图Fig.1 LiDAR-GNSS/IMU automatic calibration algorithm flow chart2 算法设计本节对LiDAR-GNSS/IMU标定系统所包含的各个核心流程进行设计与理论分析,包括两类激光特征点云地图的构建、外部参数的初始化、点云地图中的特征提取、融合激光点云特征与运动优化问题的构建.2.1 激光里程计与地图的构建本文激光里程计是基于LOAM[21]的改进算法,首先对多线激光雷达数据线束划分,对一帧点云进行聚类,并对每一线束的点云进行特征提取;对相邻两帧进行特征匹配,推算当前帧的位姿并判断是否为关键帧;基于关键帧建立局部点云地图,进行当前关键帧与局部地图的匹配,得到精确的里程计;进行起始帧与结束帧的闭环检测,构建位姿图优化问题求得校正后的里程计位姿.2.1.1 特征点云提取特征点云提取参照了LOAM算法[21]c=|S|⋅X(1(Lk,i))(∑j∈S,j≠iL X(Lk,i)-X(k,j)())(1)X(Lk,式中:c为当前激光点的曲率;i)为当前激光点;X(Lk,S为邻域点的个数.为相邻激光点;j)通过曲率 c
的值对每一线的激光点进行排序,将大于角点阈值的归类为线特征点,将小于面点阈值的归类为面特征点.之后采用LeGO-LOAM算法[22]中的点云聚类思想,将树叶点等不稳定特征点剔除,得到每一帧激光点云中的线特征点与面特征点.2.1.2 回环检测与地图构建由于误差的累积,当激光里程计回到原点附近时,构建的地图具有重影,因此通过回环检测构建位姿图优化问题,得到全局位姿的最优解来减小累积误差.如图2所示,由于激光里程计累积误差较小,本文算法以距离为判定条件,在原点附近检测两帧间距离是否满足闭环约束条件.对约束的先前帧构建局部地图,采用点云ICP的方法,进行帧到局部地图的配准,并根据ICP中最近点距离的总和是否小中激光点曲于设定的阈值进一步判断当前回环是否精确.在满足回环的激光帧对中,选择ICP配准后最近点距离总和最小的一对作为回环帧约束,并构建位姿图优化问题,通过高斯-牛顿法进行求解得到优率计算方法,首先剔除遮挡点和斜面点这两类不稳定点,并通过一线中的邻域点计算当前帧每一个激光点的曲率,曲率计算表达式为:Copyright©博看网. All Rights Reserved.
178
湖南大学学报(自然科学版)2023 年对于LiDAR与GNSS/IMU间的手眼标定问题,由于激光里程计的计算频率较高,两关键帧间的相对运动较小,相邻关键帧构建的手眼标定问题不具有稳定性.本文通过对相对运动进行累积,当平移和旋转大于设定的阈值时,对此时的LiDAR和GNSS/IMU相对运动进行选用,在里程计累积误差较小的同时,也保证有一定的运动激励.图2 点云帧回环检测Fig.2 Point cloud frame loopback detection化后的里程计位姿.通过回环约束后的位姿,将2.1.1节中每一帧的线特征点与面特征点构建点云地图,得到面特征点云地图和线特征点云地图,如图3所示,红色为线特征点云地图,蓝色为面特征点云地图.图4 基于运动的外参初始化Fig.4 Initialization of external parameters based on motionL
的超定方程组,组,形成一组关于求解 TG公式如下:选择所有符合上述条件的n组手眼标定方程KKi=1ìTLLTGL=TGLTGG,ïï…íïLGLLïi=nîTLTG=TGTG
,K-1K-1KKK-1K-1(3)对于此超定方程构建最小二乘优化问题,把每ri=TGL-1TGGTLLTGLK-1KK-1K-1一项手眼标定方程作为残差加入优化目标函数中.(4)图3 特征点云地图Fig.3 Feature Points Cloud Mapri
为构建每一项的残差.将 n
组残差的马氏范式中:数累加得到总体的无约束最小二乘优化目标函数如下:21GLL-1Lρ((TTTT)GGLG2)(5)ii2∑式中:FTGL
为构建的目标函数,对ρi(∙)为核函数;2.2 基于运动的外参初始化如图4所示,本文的外参初始化算法首先将LiDAR位姿和GNSS/IMU数据的时间戳同步,然后利用未经过位姿图优化的“激光里程计关键帧位姿”和同时间戳的“GNSS/IMU位姿”构建位姿组[PLL,PLL]、K-10K0FTGL= min ()此目标函数采用高斯-牛顿法求解,得到外部参数 TGL
的最优估计.()K-1KK-1K-1[PG0GK-1,P],其中P是当前帧在K时刻激光雷达世G0GKG0GKL0LKP是GNSS/IMU在GNSS世界坐标系(L0)下的位姿,2.3 特征提取与关联在本文的特征提取算法中,首先对2.1.2节获得的面特征点云地图和线特征点云地图分别进行“面特征体素”和“线特征聚类”的提取,并把所有关键帧中的每一点通过位姿图优化后的位姿转到地图坐标系下,计算其与体素和聚类的关联.2.3.1 面特征体素提取与关联本文的面特征提取算法[16]首先将面特征点云地界坐标系(G0)下的位姿.分别计算激光雷达和GNSS/TGG,IMU从K-1时刻到K时刻的位姿变换TLL、由于KKK-1K-1GNSS与LiDAR在车辆上是固定连接,两传感器间的外部参数TGL不随时间发生变化,因此利用上述位姿变换构建手眼标定问题,见公式(2):TLLTGL=TGLTGGKK-1KK-1(2)求解此方程,得到从GNSS/IMU坐标系到LiDAR坐标系下的变换TGL,即传感器间的外部参数.图划分为三维体素网格,对每一体素网格内的点云计算其协方差矩阵,并进行特征值分解,得到从小到Copyright©博看网. All Rights Reserved.
第 10 期
秦晓辉等:基于激光点云特征的LiDAR-GNSS/IMU联合自动标定方法179e1、e2,大的三个特征值e0、通过式(6)计算此体素网格内点云的平整程度[23]:e1-e0λ=2×
e0+e1+e2(6)1.由于激光里程计具有一定的误差,本文认为当 λ值大于0.7时,此体素网格内的点云满足面特征,此征点云地图中包含多个“面特征体素”.体素网格被归类为“面特征体素”,如图5所示,面特λ
值越接近当网格内点云的越趋近于平面时,图6 线特征点云聚类Fig.6 Line feature point cloud cluster云的最小包围盒,并采用随机抽样一致性算法拟合出线特征的表示参数[O, a0],其中O是直线上一点a0是直线的方向向量.之后将所有关键帧的的坐标,线特征点云通过位姿图优化后的位姿转到地图坐标系下,基于每一激光点与点云包围盒的所属关系和点到直线的距离,分类出每一“线特征聚类”所关联的所有关键帧中激光点,然后将所关联的激光点云降采样,完成线特征关联.图5 面特征点云体素Fig.5 Plane feature point cloud voxels2.4 联合优化求解2.4.1 联合优化问题构建在完成特征提取与关联后,把每一“面特征体对“面特征体素”中的点云,采用随机抽样一致性算法拟合出面特征平面方程 Ax+By+Cz+D= B, C, D],并将所有关键帧中的面0
的4个参数[A,素”所关联的激光点和每一“线特征聚类”所关联的激光点通过位姿图优化后的位姿,转到地图坐标系下,转换公式为:PL是对应点在激光雷达关键帧下的坐标;TGG0式中:PM=TGLTGG0TGL-1PL特征点通过位姿图优化后的位姿转到地图坐标系下,基于每一激光点与体素网格的所属关系和点到平面的距离,筛选出每一“面特征体素”所关联的所有关键帧中激光点,然后对每一“面特征体素”所关联的激光点降采样,完成面特征关联.2.3.2 线特征聚类提取与关联在线特征聚类提取的算法中,本文首先对线特(8)是当前帧的GNSS/IMU到GNSS世界坐标系下的变PM 是通过GNSS/IMU位姿和外参转换到激换矩阵;光世界坐标系(地图坐标系)下的面特征激光点.征体素”点云所拟合平面的距离dM
,公式如下:dM=B,C]∙(P)+D[A,TM对属于面特征体素的激光点,计算此点到“面特(9)征点云地图进行离群点滤除,然后采用欧式聚类分割,将线特征点云地图划分成多个点云聚类;对于每一聚类内的点云计算其协方差矩阵,并对协方差矩阵进行特征值分解,得到从小到大的三个特征值e0、e1、e2,通过三个特征值之间的关系,提出式(7)来计A、B 、C、D为其中,“面特征体素”内拟合平面方程 Ax+By+Cz+D=0
的参数.对属于线特征聚类的激光点,计算此点到线特算线特征点云聚类的直线度:β=(1-е-e1e1-e0征聚类点云所拟合直线的距离dL,公式如下:dL=β
为点云聚类的直线度,式中:当聚类的点云越接近e-e1)2e1+e2(7)|(PM-O×a0|a0)(10)O、a0分别为其中,“线特征聚类”所拟合直线上一点直线时,直线度 β
值越接近1,本文认为直线度 β
值大于0.65的点云聚类符合线特征,如图6所示为线特征地图检测出的所有线特征聚类.对满足直线度的线特征聚类中的点云,计算点的坐标和其方向向量.通过外部参数转化后,点到对应直线的距离和点到对应平面的距离能够反映外参标定结果的精确程度,因此在2.2节构建的无约束最小二乘优化目标Copyright©博看网. All Rights Reserved.
180
湖南大学学报(自然科学版)2023 年函数中,加入点到线距离的残差和点到平面距离的残差,以提高标定结果的准确性与鲁棒性,总体优化目标函数如下:argmin 12{∑ρ(r)+∑ρ(r)+∑ρ(r)}iihejjlkkpKK-1rhe=(TGL-1TGGrp=-12TGLTGGTGL-1PL-O×a0rl=a020B,C]∙(TT[A,TLGTLLTGL)KK-1(11)(12)22GG0TL-1G|()PL+D)|22(13)图7 实验平台Fig.7 Experimental platform(14)的X轴垂直于车辆行进方向向右,坐标系的Y轴沿着车辆前进方向向后,Z轴直于地面向上.3.2 实验场地与数据本文在4处场地进行实验,分别为室外小型停车场、丁字路口、十字路口、室外园区,如图8所示,4处场地均具有良好的GNSS信号和丰富的三维激光点云特征.实验时,车辆在行驶中进行旋转和平移运动,并分别采集形成单一闭环的激光点云数据和GNSS/IMU位姿轨迹数据.4处场地场景大小不同,且各自所包含的线特征式中:rhe为手眼标定所构建的残差;rp为点到平面距离所构成的残差;rl为点到直线距离所构成的残差;ρi(∙)、ρj(∙)、ρk(∙)分别为上述各残差的核函数,采用高斯-牛顿法最小化目标函数进行求解,可以得到优化后的精确外部参数TGL.2.4.2 迭代优化求解在最小化联合优化问题后得到较为精确的外部参数TGL,利用此外部参数对原始激光点云进行畸变去除,并重新进行激光里程计和回环检测,更新线特征点云地图和面特征点云地图.基于最新的点云地图重新进行特征提取与关联,并构建联合优化问题求解,在经过多次迭代后,可以得到精确的外部参数和面特征数量也有较大的差异,图8(a)为室外小型停车场,停车场临靠大楼和树林,具有丰富的面特征和线特征;图8(b)为丁字路口,该路口两侧具有较高的围墙,此场景富含面特征,但缺少线特征;图8(c)为十字路口,该场地四周被树木和指示牌包围,富含线特征,但缺乏除地面外的面特征;图8(d)为室外园区,场景尺寸较大,且该场地包含线特征、面特征.在4种场地中采集数据的情况见表1.3.3 实验结果与分析3.3.1 实验结果3 实验结果与分析3.1 实验平台与设备本算法的实验平台如图7所示,该实验车辆安装有16线旋转式机械激光雷达、融合载波相位差分(RTK)的GNSS/IMU组合惯性导航设备.多线激光雷达采集激光点云数据,采样频率为10 Hz,点云精度可达厘米级;组合导航系统采集GNSS/IMU位姿和轨迹数据,频率为50 Hz,定位精度小于2 cm,姿态精度可达0.02°.激光雷达坐标系原点在雷达机械结构几何中心,坐标系的X轴沿着车辆行进方向向前,坐标系的Y轴垂直于车辆行进方向向左,Z轴垂直于地面向上.GNSS/IMU坐标系原点在车辆后轴中心,坐标系本实验平台车辆中的GNSS/IMU以Z轴垂直于地面的方式安装,由于GNSS/IMU的高度数据误差较大,在实验中不会被使用,本文算法得到的外部标定θpitch、θroll和平移标定数据有旋转标定外部参数θyaw、外部参数X、Y.通过传感器在车辆上的安装方式能够获得的车辆LiDAR与GNSS/IMU间外部参数的参考值(非真实值)见表2.对4种不同场景中采集到的多组实验数据进行外部参数的标定,标定的部分结果见表3.本文标定算法分为里程计与建图、外参标定两Copyright©博看网. All Rights Reserved.
第 10 期
秦晓辉等:基于激光点云特征的LiDAR-GNSS/IMU联合自动标定方法表3 外部参数标定结果Tab.3 Calibration result of external parameter场地场地1场地2场地3(a)室外小型停车场场地4θyaw /(˚)88.9389.2488.8788.15θpitch/ (˚)0.190.240.36θroll /(˚)-0.20-0.33-0.29-0.37X/m-0.0220.0210.0390.016181Y/m0.760.790.750.82-0.15表4 外部参数标定时间Tab.4 Cost time of external parameter calibration s场地场地1场地2场地3(b)丁字路口场地4里程计与建图45.62213.462113.70216.358外参标定1.9421.7111.1184.641总时间47.56415.173118.34317.4763.3.2 算法标定准确性验证在获得标定参数后,将GNSS/IMU的位姿通过此标定参数转到LiDAR坐标系下,通过对比转化后得到GNSS/IMU位姿轨迹与经过回环检测优化后的激光里程计位姿轨迹的对齐程度,能够反映外部参数(c)十字路口标定结果的精确程度.本文采用evo评估工具对算法标定准确性验证,如图9所示:图9(a)和图9(b)的实验数据均在室外小型停车场中采集,虚线轨迹为回环检测后的激光里程计轨迹;橙色轨迹为使用本文算法获得的标定值将GNSS/IMU的位姿转到LiDAR坐标系下形成的轨迹;蓝色为使用手眼标定的结果将GNSS/IMU的位姿转到LiDAR坐标系形成的轨迹.通过与回环检测轨迹进行对比,能够发现经过本文算法转化后的轨迹可以很好地与里程计轨迹重场地类型中型小型小型大型(d)室外园区图8 标定试验场地Fig.8 Calibration experiment site表1 4种场地数据情况Tab.1 Data details of four sites场地场地1场地2场地3场地4线特征丰富稀少丰富丰富面特征丰富丰富稀少丰富合,且相较于手眼标定初始化参数的转换轨迹,本文算法在车辆转弯处、长段平移处均有着较好的重合效果.为进一步验证标定结果的准确性,本文针对室外小型停车场数据1,采用evo工具计算轨迹间的绝对位置误差(ATE)以评估标定精度.回环优化后的轨迹和经手眼标定外参转换后的GNSS/IMU轨迹间表2 外部参数参考值Tab.2 Reference value of external parameterθyaw /(˚)90θpitch/ (˚)0θroll /(˚)0X/m0Y/m0.8的绝对位置误差如图10所示,其中绝对位置误差的均方根误差(RMSE)为0.396 m、平均绝对误差(MAE)为0.332 m、中值误差为0.325 m、最大误差为0.758 m.经过本文算法转化后的GNSS/IMU轨迹和回环步骤,为分析算法的实效性,统计标定实验中各步骤花费的时间.如表4所示,外参标定步骤耗时短,能够保证算法的时效性.Copyright©博看网. All Rights Reserved.
182
湖南大学学报(自然科学版)2023 年图11 经本文算法外参转换后的轨迹间误差(a)室外小型停车场数据1Fig.11 The trajectory error after extrinsic parametertransformation using our method图12 轨迹间ATE对比结果(b)室外小型停车场数据2Fig.12 Result of ATE comparison between tracks图9 不同外参的轨迹对准情况Fig.9 Track alignment of different external parameters对比标定参数的分布情况能够体现本文算法在不同点云特征环境下求解的稳定性.图13中的红色箱体为本文算法求解的标定参数,蓝色箱体为手眼标定求解的标定参数,X轴为两标定算法在场地1、场地2、场地3中求解结果的分布表现.从图13中可以看出,在富含线面特征的场景、富含线特征但缺乏面特征的场景和富含面特征但缺乏线特征的三个场景中,相较于手眼标定,本文的标图10 手眼标定转换后轨迹精度评估Fig.10 ATE of trajectory accuracy after hand-eye calibration定算法求得的标定结果分布更为集中,且一致性较好,能体现本文的标定算法在多种类型的场景中,标定稳定性和精度均高于手眼标定.为分析本文算法在大场景下的稳定性和精度,本文在图8(d)所示的大型室外园区场景进行标定实验,此场地路径全长411 m.图14(a)所示为手眼标定外参转换轨迹、本文算法外参转换轨迹和回环检测后轨迹.如图14(b)所示,将本文算法ATE与手眼标定算法ATE对比,本文标定算法转换轨迹ATE的均方根误差为0.549 m,手眼标定算法转换轨迹ATE的均方根误差为1.054 m,可见本文标定算法轨迹与回环后轨迹间误差更小,能体现算法在大场景下的有效性和精度.为分析算法在缺乏面特征的场景中的稳定性与精度,本文在场地3中对是否使用线特征约束做出优化后轨迹间的绝对轨迹误差如图11所示,其中均方根误差(RMSE)为0.232 m,平均绝对误差(MAE)为0.201 m,中值误差为0.199 m,最大误差为0.460 m.本文算法转换后的轨迹与回环优化后轨迹间ATE的均方根误差、均值误差等都显著小于手眼标定结果,两者全时间周期内ATE对比结果如图12所示,可以体现算法的有效性与准确性.3.3.3 算法稳定性分析为了分析本文算法在不同场景下求解的稳定性,将图8前三种环境中求得的多组标定外部参数的θyaw、X、Y值分别绘制成图13所示的箱线图,通过Copyright©博看网. All Rights Reserved.
第 10 期
秦晓辉等:基于激光点云特征的LiDAR-GNSS/IMU联合自动标定方法183(a)旋转角度θyaw标定稳定性分析(a)大型场景下轨迹对比图(b)大型场景下ATE结果对比(b)X轴平移标定稳定性分析图14 大型场景(场地4)算法稳定性分析Fig.14 Algorithm stability analysis in large sites (site 4)(c)Y轴平移标定稳定性分析图13 多场景标定算法稳定性分析Fig.13 Stability analysis of multi-scene calibration algorithm分析,标定结果如图15所示.仅使用面特征约束优化的外参转换轨迹相对于回环后里程计轨迹有大幅度的偏移;使用线特征约束与面特征约束的轨迹,与回环后里程计轨迹有较好的重合效果,能够体现该算法可以很好地解决在面特征缺失的室外场景下的自动标定问题.总体而言,本文所提出的基于激光点云特征的LiDAR-GNSS/IMU联合自动标定算法的求解稳定性和精度均优于手眼标定算法,且在缺少点云特征的室外场景下,有较好的鲁棒性.图15 面特征缺乏场地(场地3)稳定性分析Fig.15 Stability analysis of sites lacking surface features(site 3)动约束导致的约束不足、标定精度差、鲁棒性低的问题,本文设计了一种基于激光点云特征的LiDAR-GNSS/IMU联合自动标定方法,利用回环检测优化后特征进行关联,在基于运动约束的基础上,增加了面特征和线特征约束,以提高算法的精确性和鲁棒性.此方法不需要特殊的标志物和繁杂的人工测量,仅需要激光点云数据和GNSS/IMU数据即可自动标定出两传感器间的外部参数,便于实际的应用.此算法仍有一些不足之处,此标定算法的激光里程计模块只通过闭环检测与位姿图优化消除重影以提高点云的位姿构建两类特征点云地图并将激光点与相应的4 结 论针对室外LiDAR与GNSS/IMU标定中仅依赖运Copyright©博看网. All Rights Reserved.
184
湖南大学学报(自然科学版)2023 年地图的全局一致性,没有耦合GNSS/IMU的真实位置数据进一步提升激光里程计的精度,从而影响标定结果的准确性,这也会在后续的研究中做出改进.IMU联合标定方法[J].电子技术应用,2019,45(12):78-82.WU Y H,WANG Y B,XUE Q Q,et al.A LiDAR/IMU joint
calibration method based on point cloud matching[J].Application of Electronic Technique,2019,45(12):78-82.(in
[12]YAN G H,PI J H,WANG C J,et al. An extrinsic calibration
method between LiDAR and GNSS/INS for autonomous driving[EB/[13]LV J J,ZUO X X,HU K W,et al.Observability-aware intrinsic
and extrinsic calibration of LiDAR-IMU systems[J].IEEE
[14]孙炜,舒帅,李汶霖,等.基于阶梯形标定物的线激光传感器手眼标定算法[J].湖南大学学报(自然科学版),2022,49(2):83-92.SUN W,SHU S,LI W L,et al.Hand-eye calibration algorithm of
Transactions on Robotics,2022,38(6):3734-3753.OL].2022:arXiv::///abs/e)参考文献[1]王金科,左星星,赵祥瑞,等.多源融合SLAM的现状与挑战[J].中国图象图形学报,2022,27(2):368-389.WANG J K,ZUO X X,ZHAO X R,et al.Review of multi-source
and Graphics,2022,27(2):368-389.(in Chinese)fusion SLAM:current status and challenges[J].Journal of Image
[2]SCHÜTZ A,SÁNCHEZ-MORALES D E,PANY T.Precise
positioning through a loosely-coupled sensor fusion of GNSS-RTK,INS and LiDAR for autonomous driving[C]//2020 IEEE/Portland,OR: IEEE,2020:219-225.ION Position,Location and Navigation Symposium (PLANS).[3]CHANG D X,ZHOU Y S,HU M J,et al.Robust accurate
[J].IEEE Sensors Journal,2023,23(5):5188-5199.LiDAR-GNSS/IMU self-calibration based on iterative refinementline laser sensor based on step-shaped calibrators[J].Journal of
Chinese)Hunan University (Natural Sciences),2022,49(2):83-92.(in
[15]TSAI R Y,LENZ R K.A new technique for fully autonomous and
efficient 3D robotics hand/eye calibration[J].IEEE Transactions
[16]CHEN J T,ZHU B L,ZHANG X M.A flexible hand-eye and tool
offset calibration approach using the least square method[C]//Cham:Springer,2022:459-470.International Conference on Intelligent Robotics and Applications.[17]TAYLOR Z,NIETO J.Motion-based calibration of multimodal
sensor extrinsics and timing offset estimation[J].IEEE
[18]XIA C,SHEN Y Q,ZHANG T,et al.Robust extrinsic parameter
calibration of 3D LIDAR using lie algebras[C]//2019 IEEE
Intelligent Vehicles Symposium (IV). Paris:IEEE,2019:1775-1781.Transactions on Robotics,2016,32(5):1215-1229.on Robotics and Automation,1989,5(3):345-358.[4]MUÑOZ-BAÑÓN M Á,CANDELAS F A,TORRES F.Targetless
camera-LiDAR calibration in unstructured environments[J].[5]MA T,LIU Z Z,YAN G H,et al.CRLF:automatic calibration
and refinement based on line feature for LiDAR and camera in
org/abs/ scenes[EB/OL].2021:arXiv:2103.04558.https://arxiv.[6]CAI H Y,PANG W S,CHEN X D,et al.A novel calibration
board and experiments for 3D LiDAR and camera calibration[J].[7]JIANG P,OSTEEN P,SARIPALLI S.SemCal:semantic LiDAR-camera calibration using neural mutual information estimator[C]//2021 IEEE International Conference on Multisensor Fusion and
2021:1-7.Sensors,2020,20(4):1130.IEEE Access,2020,8:143692-143705.[19]CHEN C,XIONG G M,ZHANG Z H,et al.3D LiDAR-GPS/IMU
calibration based on hand-eye calibration model for unmanned
Systems (ICUS). Harbin:IEEE,2020:337-341.vehicle[C]//2020 3rd International Conference on Unmanned
[20]LÜ J J,XU J H,HU K W,et al.Targetless calibration of LiDAR-IMU system based on continuous-time batch estimation[C]//2020
IEEE/RSJ International Conference on Intelligent Robots and
Systems (IROS). Las Vegas,NV:IEEE,2021:9968-9975.Integration for Intelligent Systems (MFI). Karlsruhe:IEEE,[8]JIANG P,OSTEEN P,SARIPALLI S.Calibrating LiDAR and
Camera using Semantic Mutual information[EB/OL].2021:[9]林鑫,张捷,冯景怡,等.高鲁棒性两阶段激光雷达-惯性测量单元外参在线标定算法[J].中国机械工程,2022,33(24):2980-2989.LIN X,ZHANG J,FENG J Y,et al.Highly robust two-stage
arXiv:2104.12023.https://arxiv.org/abs/2104.12023.[21]ZHANG J,SINGH S.LOAM:lidar odometry and mapping in
real-time[C]//Robotics:Science and Systems X.Robotics:[22]SHAN T X,ENGLOT B.LeGO-LOAM:lightweight and ground-optimized lidar odometry and mapping on variable terrain[C]//and Systems (IROS). Madrid:IEEE,2019:4758-4765.2018 IEEE/RSJ International Conference on Intelligent Robots
[23]BOSSE M,ZLOT R.Continuous 3D scan-matching with a
spinning 2D laser[C]//2009 IEEE International Conference on
Robotics and Automation. Kobe:IEEE,2009:4312-4319.Science and Systems Foundation,2014:1-9.LiDAR-IMU external parameter online calibration algorithm[J].China Mechanical Engineering,2022,33(24):2980-2989.(in
[10]ZHU F C,REN Y F,ZHANG F.Robust real-time LiDAR-inertial
Conference on Intelligent Robots and Systems (IROS). Kyoto:[11]吴昱晗, 王蕴宝, 薛庆全, 等. 一种基于点云匹配的激光雷达/IEEE,2022:3948-3955.initialization[C]//2022 IEEE/RSJ International
Chinese)Copyright©博看网. All Rights Reserved.
发布者:admin,转转请注明出处:http://www.yc00.com/web/1705052858a1389011.html
评论列表(0条)