摘要
为解决三维扫描仪、多视图数据获取的三维点云因缺少语义信息导致难以从点云上判别植株器官部位问题,提出一种二维先验语义嵌入的大豆植株叶片三维语义建模方法:首先,基于Mask R-CNN模型对大豆叶片进行语义分割;然后,对分割结果和多视图数据进行立体重建融合学习,实现大豆植株叶片二维语义到三维叶片点云迁移,获得植株叶片点云语义信息,进而建立植株叶片三维语义模型。通过多组盆栽大豆植株试验对该模型进行验证,提取叶长和叶宽与人工实测数据进行对比分析,叶长和叶宽均方误差分别为2.53 和1.52 mm,决定系数分别为0.97和0.89。结果表明,该方法能够便捷、精准地构建植株叶片三维语义模型。
作物品种的生产潜力受多方面因素影响,其中作物生长发育过程中植株的外观形态和组织结构起重要作
与上述基于三维扫描仪和深度相机模式建立植株三维模型不同,一些研究利用二维图像或视频进行作物形态结构三维建
尽管目前三维植株建模研究取得了较好进展,但无论三维扫描仪或多视图方式获取的三维数据大都只包含场景的几何属性,如形状、法向、曲率等,缺少高层语义类别属性。此外,三维点云的非结构化特性使得点云具有较强的主观性和不确定性,导致植株不同器官(如叶柄、叶片、茎干等)颜色相近或遮挡时,难以在点云上实现不同器官的准确分割,进而影响后续各器官形态结构解析。另一方面,植株二维图像蕴含丰富的语义信息和结构信息(如叶片和茎干结构、不同视角对应等),这些可为植株精准三维建模提供监督信息。
针对上述问题,本研究提出一种植株三维叶片语义建模方法,通过将植株二维叶片语义信息作为一种先验知识嵌入到现有植株多视图三维建模学习过程,以提升模型的语义表达能力。首先,基于Mask R-CNN模型对大豆植株叶片进行语义分割,获得不同视角大豆植株叶片语义信息,然后结合叶片语义信息和多视角重建模型进行二维到三维的语义迁移学习,实现植株叶片三维语义建模,旨在便捷、精准构建植株叶片三维语义模型,为后续植株生长发育、理想株型设计及株型解析等提供支持。
选取盆栽大豆植株为试验材料。由于大豆植株的复杂性和特殊性,如叶片密集、非刚体且柔软、茎较细等,为获取高精度的植株图像数据,本研究搭建一个全自动密闭采集环境(

图1 数据采集平台及结构图
Fig.1 Data acquisition platform and structure diagram
A:采集装置结构图; B:内部控制结构图。A:Structure of acquisition device; B:Control structure diagram.
此外,进行植株叶片语义信息采集的植株叶片应满足以下要求:(1)拍摄角度按照预定义的角度旋转拍摄;(2)使用统一的相机设定曝光时间、焦距等;(3)植株尽可能摆放在扫描装置的中心位置;(4)尽可能保证植株每张叶片至少在某视图中无遮挡出现。
基于上述设备得到大豆植株图像,使用标注工具Labelme对叶片进行标注(

图2 大豆植株叶片标注
Fig.2 Samples of soybean plant with leaf label
A:叶片标注图; B:叶片掩码图。A:The leaf annotation; B :The leaf mask.
为充分利用多视角图像蕴含的语义信息驱动现有基于图像的三维重建模型学习,以得到具有叶片语义信息的植株点云,首先,对采集得到的植株图像进行分割,获得叶片分割实例;然后,借助叶片分割结果结合多视角重建进行二维到三维的语义迁移学习,进而实现大豆植株叶片三维语义建模。建模流程如

图3 大豆植株叶片语义建模流程
Fig.3 Pipeline of semantic model of soybean plant leaf
1)大豆植株叶片语义分割。基于Mask R-CNN模型对大豆植株叶片进行语义分割,获得其语义信息。分割模型如

图4 大豆植株叶片语义分割
Fig.4 Semantic segmentation of soybean plant leaf
2)大豆植株叶片语义建模。为获得包含叶片语义信息的大豆植株三维点云,将经由Mask R-CNN模型学习得到的二维叶片语义知识嵌入到基于图像的三维重建模型,自动利用这些高层语义信息驱动模型训练,实现二维到三维的叶片语义迁移学习,进而得到包含叶片语义的大豆植株三维模型。具体流程如
①基于SfM的大豆植株叶片稀疏语义重建。为获得包含叶片语义信息的大豆植株稀疏三维点云,采用SfM方法对输入的一系列无序且带有叶片语义信息的大豆植株图像进行重建,其流程见

图5 包含叶片语义的大豆植株稀疏三维点云重建
Fig.5 Sparse reconstruction process of soybean plant with leaf semantics
②基于深度图融合的大豆植株叶片稠密语义重建。基于上述SfM得到的相机位姿和稀疏语义点云,进一步通过深度图融合方法对其进行稠密点云语义重建。如

图6 包含叶片语义的大豆植株稠密点云重建流程
Fig. 6 Flow chart of dense reconstruction of soybean plant with leaf semantics
3)叶片重建评价准则。由于重建过程会丢失尺度信息,为准确提取大豆植株叶片性状,我们基于大豆植株三维点云和实际植株获得其对应比例。其中,为花盆的真实直径, 为花盆重建模型的直径,为坐标比例。对应计算公式为,其中为带真实尺度的叶子点云测量值,为基于叶子点云自动获得的测量值。试验结果采用均方根误差(root mean square error, RMSE)和决定系数(determination coefficient)进行度量。RMSE表示预测值和观测值之间差异的样本标准偏差,则是实测值与预测值之间的模型拟合度,取值范围为[0,1]。计算公式如下所示:
(1) |
(2) |
其中,和分别为第个叶子的预测值和人工测量的实际值,和分别为预测值和实际值的平均值, 为目标个数。
为验证本研究提出的算法性能,以盆栽大豆植株幼苗为材料,进行如下几组试验:(1)自然环境与自动密闭采集环境下三维重建性能分析;(2)大豆植株图像语义分割性能分析;(3)大豆植株叶片语义重建性能分析;(4)不同生长期及视图数量的大豆植株重建性能分析。试验环境为Ubuntu 18.04, Intel(R) Core(TM) i7-6700K CPU @ 4.00 GHz, NVIDIA GeForce GTX TITAN X,开发语言为Python和C++。详细试验数据和相关代码可通过如下链接获取:https://github.com/xiaodongdong101/-.git。
为验证本研究搭建的自动密闭环境采集的大豆植株三维重建效果,分别对自然环境下采集的20张、40张大豆植株图像和本研究搭建环境下采集的20张大豆植株图像,均采用colmap算法(https://github.com/colmap/colmap)进行多视图建模。重建效果如

图7 不同采集环境大豆植株三维重建效果
Fig.7 3D reconstruction of soybean plant under different scenes
A和B分别为自然场景采集的20张和40张图像随机样本,C为密闭环境采集的20张图像随机样本;D、E、F为其对应的重建效果。A and B are random samples of 20 and 40 images acquired in natural scenes, respectively, and C is a random sample of 20 images acquired in closed environment; D, E and F are their corresponding reconstruction point clouds.
采集不同大豆植株幼苗多株多视角图像(2 800多张叶片共387张图像)进行叶片语义分割试验,其中80%为训练集,20%为测试集。分割结果见

图8 不同类型大豆植株幼苗叶片语义分割图
Fig.8 Leaf semantics segmentation of different soybean plant seedlings
A、B和C分别为正视图,D、E和F分别为对应的侧视图。A, B, and C are front views;D, E, and F are their corresponding side views.
为验证大豆植株叶片三维语义建模效果,进行以下4组试验:(1)原始图像与带有掩膜图像的大豆植株重建;(2)大豆植株叶片表型参数提取及误差分析;(3)不同大豆植株的叶片语义重建;(4)同一大豆植株不同视图个数的大豆植株重建。
1)基于原始图像与带掩膜图像的大豆植株重建。为验证基于原始图像与带有语义掩膜图像的大豆植株重建效果,分别对72张原始大豆植株图像和72张带有叶片语义信息的大豆植株图像进行多视角重建。重建效果如

图9 基于原始图像和带叶片语义信息图像的大豆植株点云图
Fig.9 Soybean plant point cloud based on with/without leaf semantic information
A和B分别为原始图像的大豆植株点云,C和D分别为带叶片语义信息图像的大豆植株点云。A and B are the soybean plant point clouds of the original image, respectively; and C and D are the soybean plant point clouds with semantic information images of the leaves, respectively.
为进一步验证图像叶片语义信息是否影响大豆植株重建性能,
类别 Category | 重建时间/min Reconstruction time | 原始点云数 Number of original point cloud | 优化后点云数 Number of optimized point cloud |
---|---|---|---|
原始数据 Original data | 77.488 | 1 219 505 | 807 797 |
带语义信息数据 Data with semantic information | 75.727 | 1 064 686 | 810 295 |
误差绝对值 Absolute value of error | 1.761 | 154 819 | 2 498 |
2)大豆植株叶片表型参数提取与分析。为验证大豆植株叶片三维语义的重建精度,对重建得到的大豆植株叶片语义点云进行叶长和叶宽测量,并与人工实测数据进行对比分析。首先,使用20张带语义信息的图像重建大豆植株;然后,基于叶片语义信息提取出叶片点云数据(

图10 大豆叶片语义点云提取
Fig.10 Soybean leaf semantic point cloud extraction
A为植株二维图像,B为A对应的语义点云图,C为B中提取的叶片点云图。A is a 2D image of the soybean plant, B is the semantic point cloud of corresponding to A, and C is the point cloud of the leaf extracted from B.
计算
序号 Leaf | 类型 Type | 人工测量值 Manual measurement | 点云测量值 Point cloud measurement | 误差值 Error value |
---|---|---|---|---|
叶1 Leaf 1 | 长Length | 40 | 42 | 2 |
宽Width | 25 | 26 | 1 | |
叶2 Leaf 2 | 长Length | 46 | 46 | 0 |
宽Width | 30 | 28 | -2 | |
叶3 Leaf 3 | 长Length | 37 | 38 | 1 |
宽Width | 25 | 24 | -1 | |
叶4 Leaf4 | 长Length | 60 | 64 | 4 |
宽Width | 38 | 37 | -1 | |
叶5 Leaf 5 | 长Length | 56 | 61 | 5 |
宽Width | 35 | 39 | 4 | |
叶6 Leaf 6 | 长Length | 60 | 62 | 2 |
宽Width | 38 | 39 | 1 | |
叶7 Leaf 7 | 长Length | 55 | 55 | 0 |
宽Width | 32 | 34 | 2 | |
叶8 Leaf 8 | 长Length | 57 | 59 | 2 |
宽Width | 30 | 31 | 1 | |
叶9 Leaf 9 | 长Length | 55 | 56 | 1 |
宽Width | 30 | 32 | 2 | |
叶10 Leaf 10 | 长Length | 46 | 49 | 3 |
宽Width | 26 | 28 | 2 |
由

图11 大豆植株叶片精度对比
Fig.11 Accuracy comparison of soybean leaf measurement
3)大豆植株叶片语义重建。为验证不同大小的植株叶片语义重建的效果,选择3组不同大小、每组带叶片语义信息的大豆植株36张图像进行试验,重建效果见

图12 不同大小大豆植株叶片语义点云图
Fig.12 Semantic point cloud of soybean plants with different sizes
A、B和C分别为不同大小大豆植株点云正视图,D, E和F为其对应点云侧视图。A, B and C are point cloud front views of soybean plants with different sizes, and D, E, and F are their corresponding point cloud side views, respectively.
4)同株且不同数量视图的大豆植株语义重建。为验证不同视图数量的同一大豆植株的重建性能,选取包含不同视图数的同一植株叶片进行重建试验。该试验共分4组:第1组包含18张图像,图像间拍摄角度间隔为20°;第2组为36张图像,图像间拍摄间隔为10°;第3组共54张图像,其中36张图像拍摄间隔为10°,另外18张图像拍摄角度通过增加5°偏移后得到;第4组共72张图像,图像间拍摄间隔5°。

图13 同株不同视图数量的大豆植株叶片语义重建
Fig.13 Semantic reconstruction of soybean plant leaves from the same plant with different images
A: 18张带叶片语义信息的重建点云图 Point cloud based on 18 images with leaf semantic information; B:36张带叶片语义信息的重建点云图 Point cloud based on 36 images with leaf semantic information; C: 54张带叶片语义信息的重建点云图 Point cloud based on 54 images with leaf semantic information; D: 72张带叶片语义信息的重建点云图 Point cloud based on 72 images with leaf semantic information.
图像重建数量 Number of images | 重建时间/min Reconstruction time | 原始点云数 Number of original point cloud | 优化后点云数 Number of point cloud after optimization |
---|---|---|---|
18 | 17.968 | 240 073 | 239 670 |
36 | 37.731 | 461 193 | 451 157 |
54 | 56.369 | 767 094 | 668 552 |
72 | 75.727 | 1 064 686 | 810 295 |
从
当前常用的植株三维建模手段(三维扫描仪、多视图建模等)缺少对器官分割和关键部位定位的语义信息,导致当重建的植株点云中叶片和茎秆等颜色相近或遮挡时,较难从点云上判别所属器官,进而影响后续的株型解析。本研究提出一种二维先验语义引导的大豆植株叶片三维语义建模方法,可以较准确地将植株二维图像中的叶片语义信息迁移到三维叶片点云上(图
本研究结果表明,利用深度学习技术对植株图像进行准确语义分割处理,可以实现基于二维图像重建的不同语义信息由二维到三维的迁移,进而得到包含不同语义信息的作物点云语义模型(
本研究结果还表明,相同重建技术下,相比开放环境下采集的图像数据,基于全自动密闭环境下采集相同数量图像可更高精度重建大豆植株三维点云(
参考文献 References
WANG L,MING L,LIAO K Y,et al.Bract suppression regulated by the miR156 / 529-SPLs -NL1 -PLA1 module is required for the transition from vegetative to reproductive branching in rice[J].Molecular plant,2021,14(7): 1168-1184. [百度学术]
LIU J,HUANG J,GUO H,et al.The conserved and unique genetic architecture of kernel size and weight in maize and rice[J].Plant physiology,2017,175(2): 774-785. [百度学术]
PAN Q C,XU Y C,LI K,et al.The genetic basis of plant architecture in 10 maize recombinant inbred line populations[J].Plant physiology,2017,175(2): 858-873. [百度学术]
朱荣胜,李帅,孙永哲,等.作物三维重构技术研究现状及前景展望[J].智慧农业,2021,3(3): 94-115.ZHU R S,LI S,SUN Y Z,et al.Research advances and prospects of crop 3D reconstruction technology[J].Smart agriculture,2021,3(3): 94-115 (in Chinese with English abstract). [百度学术]
张慧春,周宏平,郑加强,等.植物表型平台与图像分析技术研究进展与展望[J].农业机械学报,2020,51(3): 1-17.ZHANG H C,ZHOU H P,ZHENG J Q,et al.Research progress and prospect in plant phenotyping platform and image analysis technology [J].Transactions of the CSAM,2020,51(3): 1-17 (in Chinese with English abstract). [百度学术]
徐凌翔,陈佳伟,丁国辉,等.室内植物表型平台及性状鉴定研究进展和展望[J].智慧农业,2020,2(1):23-42.XU L X,CHEN J W,DING G H,et al.Indoor phenotyping platforms and associated trait measurement:progress and prospects[J].Smart agriculture,2020,2(1):23-42 (in Chinese with English abstract). [百度学术]
ZHENG Q,FAN X C,GONG M L,et al.4D reconstruction of blooming flowers[C].Computer graphics forum,2017,36(6): 405-417. [百度学术]
傅汝佳,冼楚华,李桂清,等.面向表型精确鉴定的豆株快速三维重建[J].浙江大学学报(理学版),2021,48(5):531-539.FU R J,XIAN C H,LI G Q,et al.Rapid 3D reconstruction of bean plant for accurate phenotype identification[J].Journal of Zhejiang University (science edition),2021,48(5): 531-539 (in Chinese with English abstract). [百度学术]
LIU Y D,YUAN H B,ZHAO X,et al.Fast reconstruction method of three-dimension model based on dual RGB-D cameras for peanut plant[J/OL].Plant methods,2023,19:17[2022-11-19].https://doi.org/10.1186/s13007-023-00998-z. [百度学术]
ANDO R,OZASA Y,GUO W.Robust surface reconstruction of plant leaves from 3D point clouds[J/OL].Plant phenomics,2021,2:3184185[2022-11-19].https://spj.science.org/doi/10.34133/2021/3184185. [百度学术]
ZERMAS D,MORELLAS V,MULLA D,et al.3D model processing for high throughput phenotype extraction–the case of corn[J/OL].Computers and electronics in agriculture,2020,172: 105047[2022-11-19].https://doi.org/10.1016/j.compag.2019.105047. [百度学术]
LI Y C,LIU J Y,ZHANG B,et al.Three-dimensional reconstruction and phenotype measurement of maize seedlings based on multi-view image sequences[J/OL].Frontiers in plant science,2022,13: 974339[2022-11-19].https://doi.org/10.3389/fpls.2022.974339. [百度学术]
孙凯.基于三维重构的普兰种业主栽大豆种植密度的优化研究[D].哈尔滨: 东北农业大学,2019.SUN K.Study on optimization of soybean planting density based on three-dimensional reconstruction of Pulan plantation[D].Harbin:Northeast Agricultural University,2019 (in Chinese with English abstract). [百度学术]
冯佳睿,马晓丹,关海鸥,等.基于深度信息的大豆株高计算方法[J].光学学报,2019,39(5):258-268.FENG J R,MA X D,GUAN H O,et al.Calculation method of soybean plant height based on depth information[J].Acta optics sinica,2019,39(5):258-268 (in Chinese with English abstract). [百度学术]
DOI T,OKURA F,NAGAHARA T,et al.Descriptor-free multi-view region matching for instance-wise 3D reconstruction[C]//Computer Vision-ACCV 2020: 15th Asian Conference on Computer Vision,November 30-December 4,2020,Kyoto,Japan.Kyoto:Springer International Publishing,2021: 581-599. [百度学术]
WU S,WEN W L,WANG Y J,et al.MVS-Pheno: a portable and low-cost phenotyping platform for maize shoots using multiview stereo 3D reconstruction[J/OL].Plant phenomics,2020,12: 1848437[2022-11-19].https://spj.science.org/doi/10.34133/2020/1848437. [百度学术]
WU S,WEN W L,GOU W B,et al.A miniaturized phenotyping platform for individual plants using multi-view stereo 3D reconstruction[J/OL].Frontiers in plant science,2022,13:897746[2022-11-19].https://doi.org/10.3389/fpls.2022.897746. [百度学术]
DAS-CHOUDHURY S,MATURU S,SAMAL A,et al.Leveraging image analysis to compute 3D plant phenotypes based on voxel-grid plant reconstruction[J/OL].Frontiers in plant science,2020,11: 521431[2022-11-19].https://doi.org/10.3389/fpls.2020.521431. [百度学术]