摘要
为了更好地建立单木三维彩色模型,获得准确表型参数,提出了一种基于Kinect v2相机和激光雷达的单木点云信息融合检测方法。首先由激光雷达采集樱树单木所在区域的完整环境点云,生成点云地图;由Kinect相机采集樱树单木多视角点云得到完整的三维彩色点云;然后以激光雷达点云位置为基准,通过选取对应同名点的方式对2种点云进行初始配准,使点云之间具有良好的初始位置关系,再使用最近点迭代 (iterative closest point, ICP)算法对点云进行精配准;最后使用彩色点云对雷达点云进行点云着色融合处理,实现樱树单木的三维重建。结果显示:与只使用Kinect v2相机生成的樱树单木表型参数对比,融合后的樱树单木的株高、冠幅和胸径的平均相对误差分别降低了1.52、6.46和18.17个百分点。研究结果表明,Kinect v2深度彩色相机和激光雷达在单木三维重建上能实现优势互补,提升点云配准精度,同时,既能降低光照气候条件的影响,又能增加测量距离,单木表型参数更准确。
随着计算机技术的发展,激光雷达和Kinect相机等高精度传感器在三维重建方面的应用越来越广
本研究以Kinect v2相机(以下简称Kinect相机)和激光雷达为主要设备,结合二者数据优势,以樱树单木为研究对象,提出一种基于激光雷达和Kinect相机的单木点云三维信息融合方法,旨在为后续单木表型特征研究提供三维重建基础,为数字果园发展提供技术支撑。
1)激光雷达。试验采用的激光雷达为美国Velodyne公司的VLP-16机械式激光雷达。激光雷达发射16束激光获得360°水平视场角和30°垂直视场角的三维空间点云信息,测量百米范围内的目标场景时精度可达 3 cm,水平方向角度分辨率0.1°~0.4°。
2)Kinect v2相机。本研究使用的相机型号为Kinect 2.0,该相机是Microsoft公司于2014年发布的一款RGB-D相机,能同时获得彩色图像和深度图像。其中,彩色相机可以获得当前场景的RGB色彩信息,深度相机可以获得每个像素的深度信息。彩色图像和深度相机分辨率分别为1 920像素×1 080像素、512像素×424像素,视场角为84°×54°和70°×60°。深度分辨率高达1 mm,测量范围为0.5~4.5 m。
试验场地位于广东省广州市天河区内一片20 m×50 m成行种植的樱树林中,属于亚热带季风气候,适合樱树生长。为降低光照对Kinect相机的影响,室外试验选取阴天无风条件下进行。Kinect相机获取彩色图像和深度图像数据,激光雷达获取场景的激光点云数据,PC端进行数据采集和处理,如

图1 试验场景
Fig.1 Experimental scene
1.目标树 Target tree; 2.Kinect相机 Kinect camera; 3.激光雷达Lidar; 4.PC端 The PC.

图2 点云融合流程图
Fig.2 Point cloud fusion flowchart
1)使用Kinect的樱木3D点云获取。Kinect相机是一种广泛应用的消费级RGB-D相机,能同时获取目标的色彩信息以及每个像素点的深度信息。由于彩色相机和深度相机均采用针孔相机模型,因此需要对相机进行标定来提高配准精度。依据Zhan
(1) |
标定后得到相机的内参数、外参数和畸变参数。用内参数和畸变参数消除相机畸变,得到校正后的彩色图像和深度图像。由外参数实现2种图像的对齐,得到同一视角场景下的三维彩色点云数据。
在使用Kinect相机进行数据采集时,共采集6个方向的数据。对Kinect彩色点云配准融合前需要对采集的数据进行预处理,依次进行以下5个步骤:①删除背景和地面等冗余点云;②配准多角度Kinect彩色点云生成樱树单木彩色点云;③对樱树单木彩色点云进行滤波去噪;④对Kinect彩色点云进行点云平滑;⑤对Kinect彩色点云进行点云下采
原始的彩色点云中存在冗余背景信息以及少量的噪声,因此需要先去除背景和噪声,在预处理阶段使用直通滤波算法和欧式聚类算
2)激光雷达数据采集与处理。Velodyne VLP-16激光雷达通过激光连续对不同方位进行扫描获得整个场景的成像,扫描原理如

图3 激光雷达扫描原理图
Fig.3 Schematic diagram of lidar scanning
点云Q是激光雷达扫描得到的三维点的集合。每个点包含1个相对于传感器中心的三维坐标向量,以及1个相关的特征向量I,即激光器的反射强度。计算点的三维坐标向量:
(2) |
为了获得目标当前所在场景激光雷达点云,本研究使用LeGO-LOAM框架对点云进行建图,激光雷达顺着樱树的种植行“之”字形路径来回采集数据。将激光雷达采集的包含目标樱树单木的数据通过LeGO-LOAM方法生成完整的三维树林点云地图。LeGO-LOAM框架是LOAM的改进版,LeGO-LOAM相对于LOAM的提升主要在于轻量级和地面优化,其核心在于4个部分,分别是分割、特征提取、雷达里程计和建图。LeGO-LOAM框架的建图流程如

图4 LeGO-LOAM建图流程
Fig.4 LeGO-LOAM drawing process
3)Kinect彩色点云和激光点云融合。完成点云预处理后需要对点云进行配准,将两类点云融合在一起。首先对两类点云同名点进行粗配准;其次使用ICP算法进行精细配准;最后将Kinect彩色点云的颜色融合到激光雷达点云中。
目前的点云配准算法中应用最为广泛的是Besl
①粗配准。点云配准过程包括粗配准和精配准2个步骤。粗配准目的是空间对齐激光雷达输出和Kinect相机点云的数

图5 传感器放置示意图
Fig.5 Schematic diagram of sensor placement
假设Kinect相机与激光雷达垂直对齐,距离D为:
(3) |
(4) |
式(
单木T的垂直高度为:
(5) |
粗配准的目的是找到参数、、HL和HK获得旋转矩阵使2种点云在1个坐标系下,提供较好的初始迭代位置。
②ICP精配准。ICP算法的实质是点与点之间的匹配,对点云集进行旋转和平移,以最小二乘为基础的最优化配准,直至点与点之间的距离达到预先设定的阈值。寻找1组旋转矩阵R和平移向量T使其匹配误差收敛,已知2个待配准点云P和Q,点云P中的点Pi从点云Q中查找距离Pi欧氏距离最小的点Qi,并以Pi和Qi作为对应点对获取变换矩阵,剔除一些距离较远的点对,不断迭代运算,极小化误差函数,使得多次迭代后得到的目标函数最小,最终得到最优变换矩阵,使两点云重合。点云P和点云Q的坐标形式为:
(6) |
P和Q的均方匹配误差为:
(7) |
使得函数f收敛的旋转矩阵R和平移向量T即为所求。
Kinect相机采集的彩色图像和深度图像如图

图6 Kinect相机采集的数据
Fig.6 Data collected by the Kinect camera
A:彩色图像Color image;B:标定后的彩色图像Color image after calibration;C:深度图像Depth image;D:标定后的深度图像Depth image after calibration.
使用仿真树进行预试验,仿真树株高1.7 m,冠层直径1.6 m。其中,

图7 Kinect彩色点云背景分割结果
Fig.7 Kinect color point cloud background segmentation result
A:分割前点云Point cloud before segmentation;B:分割后点云Point cloud after segmentation.

图8 部分不同角度点云配准效果图
Fig.8 Partial effect of point cloud registration from different angles
A:1帧点云The frame of a point cloud;B:旋转30°后另1帧点云Another frame of point cloud after 30° rotation;C:配准后点云Point cloud after registration.

图9 总体融合效果图
Fig.9 Overall fusion effect diagram
A:多帧点云融合结果 Multi-frame point cloud fusion results; B:整体彩色点云 Overall color point cloud.
仿真树的点云在进行去噪后,虽然直观的特征更加明显,但是表面的点云还是不平整的,存在很多凹凸不平的点,如

图10 点云平滑处理前后效果对比
Fig.10 Comparison of the effect before and after point cloud smoothing
A:去噪结果 Denoising result; B:平滑处理后点云 Point cloud after smoothing.
仿真树点云在经过前面的处理步骤后已经能很好地显示,利用前面处理得到的点云进行特征提取能够很好地保存仿真树的三维特征信息,但点云往往是无序存在的,直接提取特征会消耗大量的计算资源,尤其是在对邻域的搜索过程上,因此,需对点云进行下采样处理。经过处理后,点云的数量会大大减少,但并不会影响到点云隐含的三维特征。在进行下采样处理时,发现体素值的大小设置为0.01 m时稀疏效果最好,能在不影响点云特征的情况下尽可能减少点云数量。处理后结果对比示意图如

图11 下采样处理前后对比
Fig.11 Comparison before and after sampling
A:处理前效果 Effect before treatment; B:处理后效果 The effect after treatment; C:等比例缩小结果 Equal scale reduction results.
以仿真树为例,先对处理后的激光雷达无色点云和Kinect彩色点云进行配准,再将彩色点云中的颜色融合到激光雷达的点云上,实现点云着色,最后合并2个点云,实现完整仿真树点云的融合。

图12 待配准点云
Fig.12 Point cloud to be registered
A:实物图 Real figure; B:雷达点云预处理结果 Lidar point cloud preprocessing results; C: Kinect点云预处理结果 Kinect point cloud preprocessing results.
以激光雷达点云为基点,配准Kinect点云转换到雷达点云坐标。如

图13 融合位置对比图
Fig.13 Comparison of fusion positions
A:配准场景结果 Result of registration scenario; B:雷达点云配准前后位置 Location of the lidar point cloud before and after registration.

图14 点云融合结果
Fig.14 Point cloud fusion results
A:配准结果 The registration result; B:融合结果 The fusion result.
由于仿真树不规则,不容易进行精确地量化比较,本研究分别将10个大小不同的规则长方体以不同距离放置在相机前面进行测量。比较由Kinect相机预处理后的点云和使用本研究融合算法后的点云,解算结果显示:当采集距离为1.5 m时,Kinect获取点云精度误差为16.97%,本研究融合算法得出的相对误差为8.08%;当采集距离为3 m时,Kinect获取点云精度误差为22.3%,本研究融合算法得出的相对误差为13.97%。显然,相对单一Kinect相机,相对精度平均提升8.89个百分点;采集距离为3 m时精度平均提升8.31个百分点。总体而言,融合结果的精度相对单一的Kinect相机结果得到了提升,平均提升4.26个百分点。
测量结果和实际结果如

图15 不同数据精度比较
Fig.15 Comparison of different data precisions
仿真树预试验验证了本方法的可行性,本研究以樱树单木为研究对象,对室外樱树进行樱树单木测量。通过SLAM方法生成的场景三维地图点云如

图16 点云预处理过程图
Fig.16 Point cloud pretreatment process diagram
A:激光雷达点云数据 Lidar point cloud data; B:选定区域The selected area; C:选定区域雷达点云侧视图 Side view of radar point cloud in selected area; D:1棵融合结果侧视图 Side view of fusion results of a tree; E: 选定区域融合结果侧视图 Side view of fusion result of selected area; F:选定区域融合结果俯视图 Top view of fusion results for selected area.
樱树部分表型参数如

图17 参数计算示意图
Fig.17 Schematic diagram of parameter calculation

图18 单一Kinect点云数据和融合点云数据的结果对比
Fig.18 Comparison of single Kinect point cloud data and fusion point cloud data
A:株高 Plant height; B:冠幅 Crown amplitude; C:胸径 Diameter at breast height.
从株高测量来看,Kinect彩色点云与人工测量方法相比,试验结果的平均绝对误差为11.4 cm,平均相对误差为4.17%;本研究方法与人工测量方法相比,试验结果的平均绝对误差为6.8 cm,平均相对误差为2.65%。从冠幅测量来看,Kinect彩色点云与人工测量方法相比,试验结果的平均绝对误差为18.1 cm,平均相对误差为8.78%;本研究方法与人工测量方法相比,试验结果的平均绝对误差为4.7 cm,平均相对误差为2.32%。从胸径测量来看,Kinect彩色点云与人工测量方法相比,试验结果的平均绝对误差为1.1 cm,平均相对误差为23.85%;本研究方法与人工测量方法相比,试验结果的平均绝对误差为0.3 cm,平均相对误差为5.68%。从上述计算结果可知,本研究方法较Kinect彩色点云株高、冠幅和胸径的平均相对误差分别降低了1.52、6.46、18.17个百分点。
单木表型参数估测能为果树生长监测、数字果园和智慧农业发展等提供数据支持。本研究以樱树为研究对象,使用基于激光雷达和Kinect相机融合的樱树单木三维点云重建方法,克服单一传感器缺陷,实现优势互补。2种传感器的有效融合不仅提高了樱树单木三维数据信息的精准度,还解决了激光雷达传感器点云色彩信息不完整的问题。试验结果表明,Kinect相机能得到彩色点云,但检测距离有限,光照条件也会影响测量结果。激光雷达则不受光照天气条件影响,同时能远距离测量。Kinect相机融合激光雷达能得到更好的单木三维重建效果。激光雷达生成的地图点云较稀疏,测量时可能会遗漏樱树单木某些特征点的位置信息,且不能得到单木的色彩信息,给完整三维信息的探测带来了困难,结合Kinect相机数据能更好地完善目标各种信息,完成单木三维重建。在后续的研究中可以考虑改进雷达生成地图点云算法,以实现更准确的三维重建效果。
参考文献References
徐焕良,马仕航,王浩云,等.基于几何模型的绿萝叶片外部表型参数三维估测[J].农业机械学报,2020,51(12):220-228.XU H L,MA S H,WANG H Y,et al.Three-dimensional estimation of money plant leaf external phenotypic parameters based on geometric model[J].Transactions of the CSAM,2020,51(12):220-228(in Chinese with English abstract). [百度学术]
LUO S Z,WANG C,XI X H,et al.Fusion of airborne LiDAR data and hyperspectral imagery for aboveground and belowground forest biomass estimation[J].Ecological indicators,2017,73:378-387. [百度学术]
付昱兴,李承明,朱江,等.Alpha-shape算法构建枣树点云三维模型[J].农业工程学报,2020,36(22):214-221.FU Y X,LI C M,ZHU J,et al.Three-dimensional model construction method and experiment of jujube tree point cloud using Alpha-shape algorithm[J].Transactions of the CSAE,2020,36(22):214-221(in Chinese with English abstract). [百度学术]
王纪章,顾容榕,孙力,等.基于Kinect相机的穴盘苗生长过程无损监测方法[J].农业机械学报,2021,52(2):227-235.WANG J Z,GU R R,SUN L,et al.Non-destructive monitoring of plug seedling growth process based on kinect camera[J].Transactions of the CSAM,2021,52(2):227-235(in Chinese with English abstract). [百度学术]
吴升,赵春江,郭新宇,等.基于点云的果树冠层叶片重建方法[J].农业工程学报,2017,33(S1):212-218.WU S,ZHAO C J,GUO X Y,et al.Method of fruit tree canopy leaf reconstruction based on point cloud[J].Transactions of the CSAE,2017,33(S1):212-218(in Chinese with English abstract). [百度学术]
刘刚,张伟洁,郭彩玲.基于动态K阈值的苹果叶片点云聚类与生长参数提取[J].农业机械学报,2019,50(4):163-169,178.LIU G,ZHANG W J,GUO C L.Apple leaf point cloud clustering based on dynamic-K-threshold and growth parameters extraction[J].Transactions of the CSAM,2019,50(4):163-169,178(in Chinese with English abstract). [百度学术]
吴志鹏,付威,娄朝霞,等.基于激光雷达的枣树轮廓测量平台的设计与试验[J].农机化研究,2020,42(12):52-57.WU Z P,FU W,LOU Z X,et al.Design and test of a lidar-based date tree profile measuring platform[J].Journal of agricultural mechanization research,2020,42(12):52-57(in Chinese with English abstract). [百度学术]
WU Y T,WANG Y Y,ZHANG S W,et al.Deep 3D object detection networks using LiDAR data:a review[J].IEEE sensors journal,2021,21(2):1152-1171. [百度学术]
WANG J H,GAO Y. Multi-sensor data fusion for land vehicle attitude estimation using a fuzzy expert system[J]. Data science journal, 2005, 4(1):127-139. [百度学术]
MOON H S,KIM Y B,BEATTIE R J.Multi sensor data fusion for improving performance and reliability of fully automatic welding system[J].The international journal of advanced manufacturing technology,2006,28(3/4):286-293. [百度学术]
GAO H B,CHENG B,WANG J Q,et al.Object classification using CNN-based fusion of vision and LIDAR in autonomous vehicle environment[J].IEEE transactions on industrial informatics,2018,14(9):4224-4231. [百度学术]
赵新,李杰,岳丹丹,等.三维激光雷达果园路面不平度采集试验与分析[J].华中农业大学学报,2022,41(2):227‐236. The road roughness acquisition test and analysis of three-dimensional lidar orchard pavement[J].Journal of Huazhong Agricultural University,2022,41(2):227‐236 (in Chinese with English abstract). [百度学术]
ZHAO X M,SUN P P,XU Z G,et al.Fusion of 3D LIDAR and camera data for object detection in autonomous vehicle applications[J].IEEE sensors journal,2020,20(9):4901-4913. [百度学术]
刘慧,潘成凯,沈跃,等.基于SICK和Kinect的植株点云超限补偿信息融合[J].农业机械学报,2018,49(10):284-291.LIU H,PAN C K,SHEN Y,et al.Plant point cloud information fusion method based on SICK and Kinect sensors[J].Transactions of the CSAM,2018,49(10):284-291(in Chinese with English abstract). [百度学术]
史蒲娟,翟瑞芳,常婷婷,等.基于单目视觉和激光扫描技术的油菜植株模型重建及株型参数测量[J] .华中农业大学学报,2017,36(3):63-68.SHI P J,ZHAI R F,CHANG T T,et al.3D model generation and phenotypic measurement of rapeseed plant based on monocular vision and laser scanning technology[J].Journal of Huazhong Agricultural University,2017,36(3):63-68 (in Chinese with English abstract). [百度学术]
ZHANG Z.A flexible new technique for camera calibration[J].IEEE transactions on pattern analysis and machine intelligence,2000,22(11):1330-1334. [百度学术]
师翊,何鹏,胡少军,等.基于角度约束空间殖民算法的树点云几何结构重建方法[J].农业机械学报,2018,49(2):207-216.SHI Y,HE P,HU S J,et al.Reconstruction method of tree geometric structures from point clouds based on angle-constrained space colonization algorithm[J].Transactions of the CSAM,2018,49(2):207-216(in Chinese with English abstract). [百度学术]
王甲福,秦昊.基于八叉树的均值聚类点云精简方法[J].自动化应用,2019(4):81-82,99.WANG J F,QIN H.Octal tree-based mean clustering point cloud simplification method[J].Automation application,2019(4):81-82,99(in Chinese). [百度学术]
郭海,樊江川,李英伦,等.基于RGB-D点云的田间原位玉米株高测量试验研究[J].农机化研究,2021,43(10):102-109.GUO H,FAN J C,LI Y L,et al.Experimental study on measuring plant height in field based on RGB-D point cloud[J].Journal of agricultural mechanization research,2021,43(10):102-109(in Chinese with English abstract). [百度学术]
BESL P J,MCKAY N D.A method for registration of 3-D shapes[J].IEEE transactions on pattern analysis and machine intelligence,1992,14(2):239-256. [百度学术]
ZHOU H,ZHANG J X,GE L Z,et al.Research on volume prediction of single tree canopy based on three-dimensional (3D) LiDAR and clustering segmentation[J].International journal of remote sensing,2021,42(2):738-755. [百度学术]