摘要
为改善基于GNSS/INS组合定位的水稻插秧机在遇到遮挡、电磁干扰、传感器失效等情况时的导航效果,在原有GNSS/INS组合定位的基础上,提出一种视觉导航系统(vision navigation system,VNS)补充的水稻插秧机多传感器组合定位方法。首先设计改进的Otsu法和改进的Hough变换算法用于视觉定位信息提取,并构建插秧机和相机坐标系关系方程以求解位姿值;然后采用具有容错功能的联邦卡尔曼滤波算法将VNS输出的定位信息和GNSS、INS输出的定位信息进行融合;最后分别在水泥地和水田进行试验。结果显示,空旷水泥地场景下,GNSS/INS/VNS组合定位和GNSS/INS组合定位精度相近,而在遮挡水泥地场景下,GNSS/INS/VNS组合定位解算出的位置误差和航向误差的平均值分别为1.77 cm和0.99°,相较于GNSS/INS组合定位方法分别提高46.8%和61.5%;水田试验中,经过视觉补充后导航系统的横向偏差和航向偏差平均值分别降低45.7%和67.9%,横向偏差平均值为1.97 cm,航向偏差平均值为0.49°。试验结果表明,基于视觉补充的多传感器组合定位方法能有效降低导航系统的定位误差和跟踪偏差,满足插秧机自动驾驶作业的要求。
随着传感器技术和自动控制技术在农业生产上的应用,农业车辆正逐步向自动化、智能化方向发
现有的插秧机自动驾驶技术成果主要基于全球导航卫星系统(GNSS)和惯性导航系统(INS)提供的农机位置信息和航向信息为插秧机提供定位信息。GNSS是实现精准农业作业的基础,在农用车辆中的应用极大地提高了农业生产效
因此,为改善基于GNSS/INS组合定位的水稻插秧机在遇到遮挡、电磁干扰、传感器失效等情况时的导航效果,本研究在原有GNSS/INS组合定位的基础上,开展基于视觉补充的水稻插秧机多传感器组合定位并针对插秧机设计视觉系统定位信息提取方法,提高定位系统的精度和容错性能,旨在为进一步开展插秧机自动作业研究提供理论参考。
本研究以水稻插秧机为载体,在原有的GNSS/INS组合导航的基础上增加视觉实现插秧机的组合定位,以提高插秧机抗遮挡与抗电磁干扰的能力。系统总体方案如

图1 总体方案示意图
Fig.1 Schematic diagram of the overall scheme
系统的硬件平台主要包括洋马RR6高速插秧机、苏测导航卫星接收机、HG-GOYH卫星天线、工控一体机、林柏视S907工业摄像头、非接触式陀螺仪等。系统的软件设计主要包括视觉定位信息提取方法和联邦卡尔曼滤波器设计,本研究在VS2019上基于OpenCV完成了视觉系统的图像处理和位姿求解,并通过Matlab2021搭建联邦卡尔曼滤波器对采集到的多种传感器信息进行融合处理。
在分析水稻秧苗行成像特点的基础上,设计一种视觉定位信息提取方法。首先是选择合适的色彩空间将秧苗与背景特征区分开来,并采用改进的Otsu法对图像进行二值化;再利用改进的Hough变换算法进行直线检测,拟合出1条导航基准线;最后分析插秧机与相机之间的投影关系并进一步得到插秧机相对于秧苗行的位姿信息。
1)色彩空间转换。本研究采用Lab色彩空间对图像进行分割。在Lab色彩空间中,L分量表示亮度,a分量表示红绿对立维度,b分量表示黄蓝对立维度。RGB图像无法直接转换为Lab图像,需要先转换为XYZ图像,转换公式如
(1) |
(2) |

A:原图像 Original image;B:L分量 L componen;C:a分量 a component;D:b分量 b component.图2 Lab空间各分量灰度图
Fig.2 Gray scale image of each component in Lab space

A:L分量L componen;B:a分量a component;C:b分量b component.图3 Lab空间各分量灰度直方图
Fig.3 Gray level histogram of each component in Lab space
2)改进Otsu法阈值分割。本研究通过分析秧田秧苗图像的特征,缩小Otsu法的阈值搜索范围,从而减小算法耗时。由
(3) |
在进行阈值搜索时,先对像素值进行统计,从像素数目最多的像素值向下搜索,直到搜索到像素数目为零的像素值。根据像素值是否大于K值将灰度图中的像素分为背景和秧苗行两部分,记p1为背景部分像素数目和总的像素数目的比值,p2为秧苗行部分像素数目和总的像素数目的比值,全图像素均值则可由
(4) |
(5) |
最终确定的最优阈值由
(6) |
对秧田图像灰度图分别使用Otsu法和改进Otsu法进行阈值分割,得到的二值化图像如

图4 秧田二值化图像
Fig.4 Binary image
使用改进Otsu法分别对反光、阴影、昏暗条件下的秧苗图像灰度图进行图像分割,效果如

图5 不同光照条件下的图像分割效果
Fig.5 Image segmentation effect under different illumination conditions
A:反光环境原图 Original drawing of reflective environment;B:阴影环境原图 Shadow environment original picture;C:昏暗环境原图Dark environment original picture;D:反光环境二值图 Reflective environment binary map;E:阴影环境二值图 Shadow environment binary graph; F:昏暗环境二值图 Dim environment binary graph.
3)改进Hough变换直线检测。Hough变换是检测直线的经典算法,它可以分析二值图像中经过每个像素点的所有直线,并把穿过足够多像素点的直线筛选出来。利用Hough变换对图像进行直线检测,检测出的每条直线都可由
(7) |

图6 秧苗行矩形描述符
Fig.6 Seedling row rectangular descriptor
改进Hough变换算法的流程如

图7 改进Hough变换算法流程图
Fig.7 Flow chart of improved Hough transform algorithm
4)相对位姿求解。假定插秧机在近似平坦的地面上活动,

图8 插秧机和相机坐标系示意图
Fig.8 Schematic diagram of rice transplanter and camera coordinate system
相机坐标系与插秧机坐标系之间的齐次变换则可用
(8) |
(9) |

图9 直线检测输出示意图
Fig.9 Schematic diagram of linear detection output
(10) |
且相机坐标系中直线的方程可以用
(11) |
在计算机的帧存图像中,相邻像素之间的实际距离为dx和dy,那么相机坐标系中的点D(λdx/cosθ,0)对应于插秧机坐标系中的点Dt(xt,yt,zt),由(8)式结合小孔成像原理,得:
(12) |
插秧机坐标系中的直线用
(13) |
插秧机坐标系中的直线方向角θt和相机图像中的直线方向角θ之间的关系则可由
(14) |
(15) |
其中,fx=f/dx、fy=f/dy,分别用于定义水平像素和垂直像素表示的相机焦距,在相机标定的过程中给出。将点(λ/cosθ,0)代入上式并与(14)式联立,即可得到由相机图像中的λ、θ值计算插秧机坐标系中λt、θt的方程,如式(
(16) |
(17) |
5)视觉系统实时采样试验。为了将VNS和GNSS、INS融合,视觉系统在保证识别精度的同时必须具有足够高的采样频率。本试验使用林柏视S907工业摄像头获取图像,相机分辨率为1 280像素×720像素。采用张氏标定法求解出的相机内参数矩阵为:
(18) |
将相机安装在三脚架上,相机距地面垂直高度为1.5 m,与水平线的夹角为45°,在地面上设置3条仿真秧苗行,如

图10 试验场景图
Fig.10 Test scene diagram
本研究设计了一种具有容错功能的最优信息融合联邦卡尔曼滤波器。联邦滤波器选择INS作为公共参考系统,与GNSS和VNS分别构成2个卡尔曼子滤波器。
1)状态方程的建立。联邦滤波器的状态向量为:
(19) |
状态向量共13维,其状态方程为:
(20) |
系统噪声w和系统噪声的分布矩阵G如
(21) |
(22) |
2)GNSS/INS测量方程。在GNSS和INS融合子系统中,系统的量测值有3种:位置量测差值、速度量测差值、航向量测差值。将INS输出的位置、速度和航向信息与GNSS输出的对应信息相减即可得量测方程如
(23) |
其中,H1=[I9×9 09×27],HGNSS=[I9×9],VGNSS是卫星接收器的测量白噪声。
3)VNS/INS测量方程。视觉系统获得的量测值包括插秧机相对于秧苗行导航线的航向偏差β和横向偏差λVNS,而INS系统获得的量测值为插秧机绝对位姿,无法直接与视觉系统获得的相对位姿求差值。将INS获得的绝对位置信息与导航系统预设路径结合,求出插秧机航向偏差和横向偏差后,再与视觉系统获得的相对位姿信息求差值,即可作为VNS/INS子系统的位置量测差值和航向量测差值。位置量测差值和航向量测差值可由
(24) |
其中,
(25) |
其中,HVNS是由
4)滤波器信息更新。在具有2层融合结构的最优信息融合联邦卡尔曼滤波器中,时间更新在主滤波器和子滤波器中独立进行,量测更新则只在子滤波器中进行,各个子滤波器的时间更新和量测更新分别用
(26) |
(27) |
式(
状态转换矩阵Φ和输入映射矩阵B可由
(28) |
(29) |
P矩阵、Q矩阵和R矩阵的初始值分别设置为:
(30) |
主滤波器中的全局状态估计和状态协方差矩阵Pg可由
(31) |
(32) |
联邦滤波器结构如

图11 联邦滤波器结构图
Fig.11 Structure diagram of federated filter
(33) |
(34) |
式(
(35) |
ki取为3σi,σ为r的实验标准差,计算公式如
(36) |
本研究使用GNSS自带的脉冲发生器作为各个传感器的时钟源进行时钟同步,以保证传感器之间的时间差没有累计漂移。将INS(100 Hz)、GNSS(10 Hz)和视觉系统(6 Hz)统一到同一时间戳上,以INS的采样频率为基准进行匹配,如

图12 时钟同步示意图
Fig.12 Clock synchronization diagram
为验证多传感器融合算法在不同环境下的定位效果,在南京农业大学校内分别选取1块空旷地面和1块遮挡地面作为试验区域,在2块试验区域内分别测试GNSS/INS融合定位、GNSS/INS/VNS融合定位的定位精度。在地面上铺设3条模拟秧苗行作为视觉识别目标,模拟秧苗行距30 cm、株距20 cm。由于插秧机栽植装置宽度180 cm,因此模拟秧苗设置在预设路径左侧90 cm处用于视觉系统获取信息(

图13 水泥地试验场景
Fig.13 Test scene of cement ground
A:空旷场景 Empty scene; B:遮挡场景 Occlusion scene.
场地 Space | 起始点坐标 Starting point coordinates | 结束点坐标 End point coordinates | 方向(EbN) Direction |
---|---|---|---|
空旷场景Empty scene | 32.07954685/118.41734462 | 32.07983439/118.41574435 | 70 |
遮挡场景Occlusion scene | 32.07944899/118.41735266 | 32.07972582/118.41577258 | 80 |
2种定位方法分别在空旷场景和遮挡场景的定位效果如

图14 2种定位方法在水泥地的定位效果
Fig.14 Positioning effect in two scenes and two positioning methods of cement ground
遮挡场景试验中,分析GNSS输出数据串可知,在9.5 s后,由于信号遮挡严重,平均只能接收到15颗卫星信号,GNSS输出的信号变为浮点解(float),并在37.5 s时恢复固定解(fix),搜星数变为20颗。对比图
试验场景Test scenario | 定位方法 Positioning | 位置误差/cm Position error | 航向误差/(°) Course error | ||||
---|---|---|---|---|---|---|---|
平均误差 绝对值 Average | 最大误差 绝对值 Maximum | 标准差 Standard deviation | 平均误差 绝对值Average | 最大误差 绝对值 Maximum | 标准差 Standard deviation | ||
空旷场景 Empty | GNSS/INS | 0.57 | 1.42 | 0.65 | 0.61 | 1.65 | 1.28 |
空旷场景 Empty | GNSS/INS/VNS | 0.51 | 1.40 | 0.60 | 0.56 | 1.48 | 1.25 |
遮挡场景 Occlusion | GNSS/INS | 3.33 | 13.48 | 4.00 | 2.60 | 10.65 | 3.16 |
遮挡场景 Occlusion | GNSS/INS/VNS | 1.77 | 5.77 | 2.05 | 0.99 | 5.51 | 1.84 |
为验证多传感器组合导航定位方法在水稻插秧机自动驾驶与作业系统中的适用性,在南京八卦洲农场开展水稻插秧机自动驾驶田间试验,试验场景如

图15 田间试验场景
Fig.15 Field experiment
A:田间试验场景 Field experiment scene;B:导航系统用户界面 Navigation system user interface.
视觉导航系统采集的秧苗图像处理结果如

A:秧苗原图 Seedling original picture; B:秧苗二值图 Seedling binary map; C:秧苗导航线 Seedling navigation line.图16 秧苗图像处理结果
Fig.16 Seedling image processing results

图17 2种定位方法的田间定位效果试验
Fig.17 Positioning effect in two scenes and two positioning methods
A:有秧苗行引导时的横向偏差 Lateral deviation in guiding seedlings in rows;B:有秧苗行引导时的航向偏差 Course deviation in guiding seedlings in rows;C:无秧苗行引导时的横向偏差 Lateral deviation of no-seedling row guidance;D:无秧苗行引导时的航向偏差Course deviation of no-seedling row guidance.
本研究分析了水稻秧苗行成像特点,设计了一种视觉定位信息提取方法。相机直接获取的图像为RGB图像,但RGB图像中单独的任何一种颜色分量都不能有效地将秧苗的绿色特征区分开来。一般常用的色彩空间有XYZ、HIS、Luv和Lab
信息融合中的卡尔曼滤波理论已经被广泛应用于飞机、汽车、机器人等的自动驾驶导航系统
参考文献 References
周俊,何永强.农业机械导航路径规划研究进展[J].农业机械学报,2021,52(9):1-14.ZHOU J,HE Y Q.Research progress on navigation path planning of agricultural machinery[J].Transactions of the CSAM,2021,52(9):1-14 (in Chinese with English abstract). [百度学术]
胡子谦,王登辉,胡瑞,等.基于拟人驾驶模型的联合收获机导航控制器设计与试验[J].华中农业大学学报,2022,41(4):248-258.HU Z Q,WANG D H,HU R,et al.Design and test of navigation controller for combine harvester based on humanoid driving model[J].Journal of Huazhong Agricultural University,2022,41(4):248-258 (in Chinese with English abstract). [百度学术]
张漫,季宇寒,李世超,等.农业机械导航技术研究进展[J].农业机械学报,2020,51(4):1-18.ZHANG M,JI Y H,LI S C,et al.Research progress of agricultural machinery navigation technology[J].Transactions of the CSAM,2020,51(4):1-18 (in Chinese with English abstract). [百度学术]
SALEEM M H,POTGIETER J,ARIF K M.Automation in agriculture by machine and deep learning techniques:a review of recent developments[J].Precision agriculture,2021,22(6):2053-2091. [百度学术]
杨卫中,吴才聪.国际GNSS精准农业应用概况[J].农业工程技术,2018,38(18):20-21.YANG W Z,WU C C.General situation of international GNSS precision agriculture application[J].Agricultural engineering technology,2018,38(18):20-21 (in Chinese). [百度学术]
何杰,朱金光,张智刚,等.水稻插秧机自动作业系统设计与试验[J].农业机械学报,2019,50(3):17-24.HE J,ZHU J G,ZHANG Z G,et al.Design and experiment of automatic operation system for rice transplanter[J].Transactions of the CSAM,2019,50(3):17-24 (in Chinese with English abstract). [百度学术]
YIN X,DU J,NOGUCHI N,et al.Development of autonomous navigation system for rice transplanter[J].International journal of agricultural and biological engineering,2018,11(6):89-94. [百度学术]
GAO P,LEE H,JEON C W,et al.Improved position estimation algorithm of agricultural mobile robots based on multisensor fusion and autoencoder neural network[J/OL].Sensors (Basel,Switzerland),2022,22(4):1522[2023-02-09]. https://doi.org/10.3390/s22041522. [百度学术]
YAN Y X,ZHANG B H,ZHOU J,et al.Real-time localization and mapping utilizing multi-sensor fusion and visual-IMU-wheel odometry for agricultural robots in unstructured,dynamic and GPS-denied greenhouse environments[J/OL].Agronomy,2022,12(8):1740[2023-02-09].https://doi.org/10.3390/agronomy12081740. [百度学术]
邱权,胡青含,樊正强,等.基于自适应系数卡尔曼滤波的农业移动机器人组合定位[J].农业机械学报,2022,53(S1):36-43.QIU Q,HU Q H,FAN Z Q,et al.Integrated positioning of agricultural mobile robots based on adaptive coefficient Kalman filter[J].Transactions of the CSAM,2022,53(S1):36-43 (in Chinese with English abstract). [百度学术]
关卓怀,陈科尹,丁幼春,等.水稻收获作业视觉导航路径提取方法[J].农业机械学报,2020,51(1):19-28.GUAN Z H,CHEN K Y,DING Y C,et al.Visual navigation path extraction method in rice harvesting[J].Transactions of the CSAM,2020,51(1):19-28 (in Chinese with English abstract). [百度学术]
ZHANG Q,SHAOJIE CHEN M E,LI B.A visual navigation algorithm for paddy field weeding robot based on image understanding[J].Computers and electronics in agriculture,2017,143:66-78. [百度学术]
LI J, ZHU R, CHEN B. Image detection and verification of visual navigation route during cotton field management period[J]. International journal of agricultural and biological engineering, 2018, 11(6): 159-165. [百度学术]
TIAN H K,WANG T H,LIU Y D,et al.Computer vision technology in agricultural automation:a review[J].Information processing in agriculture,2020,7(1):1-19. [百度学术]
张泽清,陈海,蒋浩,等.基于视觉的插秧机导航线提取方法研究[J].中国稻米,2020,26(5):34-39.ZHANG Z Q,CHEN H,JIANG H,et al.Extraction of guiding line in unmanned driving technology of rice transplanter[J].China rice,2020,26(5):34-39 (in Chinese with English abstract). [百度学术]
贺静,何杰,罗锡文,等.基于多传感器融合的水稻行识别与跟踪导航研究[J].农业机械学报,2022,53(3):18-26.HE J,HE J,LUO X W,et al.Rice row recognition and navigation control based on multi-sensor fusion[J].Transactions of the CSAM,2022,53(3):18-26(in Chinese with English abstract). [百度学术]
李伟斌,马洪林,易贤,等.基于色彩空间变换的彩色图像分割方法[J].计算机工程与应用,2019,55(9):162-167.LI W B,MA H L,YI X,et al.Segmentation method for color image based on transformed color space[J].Computer engineering and applications,2019,55(9):162-167 (in Chinese with English abstract). [百度学术]
OTSU N.A threshold selection method from gray-level histograms[J].IEEE transactions on systems,man,and cybernetics,1979,9(1):62-66. [百度学术]
MUKHOPADHYAY P,CHAUDHURI B B.A survey of Hough transform[J].Pattern recognition,2015,48(3):993-1010. [百度学术]
段汝娇,赵伟,黄松岭,等.一种基于改进Hough变换的直线快速检测算法[J].仪器仪表学报,2010,31(12):2774-2780.DUAN R J,ZHAO W,HUANG S L,et al.Fast line detection algorithm based on improved Hough transformation[J].Chinese journal of scientific instrument,2010,31(12):2774-2780 (in Chinese with English abstract). [百度学术]
ROTH M,FRITSCHE C,HENDEBY G,et al.The ensemble Kalman filter and its relations to other nonlinear filters[C]//2015 23rd European Signal Processing Conference (EUSIPCO).August 31 - September 4,2015,Nice,France.Nice:IEEE,2015:1236-1240. [百度学术]
JIN T,WANG C Y,LU X Y,et al.Analysis of a federal Kalman filter-based tracking loop for GPS signals[J/OL].GPS solutions,2019,23(4):119[2023-02-09]. https://doi.org/10.1007/s10291-019-0911-6. [百度学术]
LI S C,ZHANG M,JI Y H,et al.Agricultural machinery GNSS/IMU-integrated navigation based on fuzzy adaptive finite impulse response Kalman filtering algorithm[J/OL].Computers and electronics in agriculture,2021,191:106524[2023-02-09].https://doi.org/10.1016/j.compag.2021.106524. [百度学术]