摘要
针对目前养殖场中自动检测奶牛跛行效率低、准确率不高等问题,设计了一种基于姿态估计和膝关节角度特征向量的奶牛跛行识别方法。鉴于奶牛行为具有随机停留的特点,制作奶牛在不同远近视场尺度和观测角度等条件下奶牛姿态估计数据集。将Faster RCNN卷积神经网络模型引入到奶牛关键点检测中提高跛行识别的可靠性;以ResNet101网络作为特征提取网络,构建奶牛姿态估计网络,并采用超参数微调训练方法,对网络模型进行迁移训练。通过视频中的奶牛姿态信息和关键点坐标信息,计算出奶牛行走时膝关节的角度特征,并利用1-D Convolution分类模型实现奶牛的跛行识别。实验结果显示:以ResNet101网络模型为基础的奶牛姿态估计网络的PCK@0.1值可以达到0.925 0;使用1-D Convolution模型对奶牛行为分类识别的准确率为97.22%,与LSTM、Bi-LSTM、GRU模型相比,分别提高5.55、2.78、11.11百分点。以上结果表明,所提方法对自然环境下奶牛跛行有较好的检测效果,可用于奶牛智能化养殖并为养殖管理提供技术参考。
奶牛的健康状态是提高奶量和优质生产的重要保证,同时也是牧场和个体养殖户追求的目标。圈养饲喂环境下,奶牛因各种蹄病出现的跛行行为引起养殖场的严重经济损
传统的奶牛跛行检测采用人工方法,对奶牛跛行的判定依赖观察者的主观判断,不仅费时费力,且结果也会产生偏差。接触式方法大多使用电子项圈、电子脚环等可穿戴设备,通过这些设备获取奶牛的步幅等行为特征参
尽管基于机器视觉的奶牛跛行识别取得了一些成果,但仍然存在以下问题:一是奶牛具有体型大、四肢相似度高、对称性高的特点,基于目标检测方法难以精准检测到奶牛行走特征;二是现有的特征分类方法,对奶牛跛行特征不敏感,分类效果不佳。针对以上问题,本研究基于Faster RCNN和ResNet101网络模型,提出了一种基于姿态估计和膝关节角度特征向量的奶牛跛行识别方法,以实现自然养殖环境下奶牛跛行的有效识别。
研究的实验数据采集于新疆石河子市天璐牧场,为了高度还原奶牛真实的生活环境,对行走和站立状态的奶牛进行拍摄得到视频数据集。采集设备主要参数为:1 200万像素摄像头,IMX703传感器,帧率为30 帧/s,分辨率为1 920像素×1 080像素,每个视频约100~200帧,采集数据时闪光灯保持关闭状态。
研究共采集了228段奶牛行为视频,其中随机选取40段跛行、40段站立、25段正常行走视频用于视频分帧和训练奶牛姿态估计网络,剩余的123段视频用于跛行识别。
为加强模型的鲁棒性和防止模型出现过拟合问题,人工挑选视频分帧后的1 050幅图像数据,并采用水平镜像数据增强的方式扩充样本容量。在深度学习中,对图像的数据增强操作大多是对图像进行平移、旋转、增加噪声、增减亮度等方式来扩充实验数据集。但在奶牛的姿态估计研究方面,上述的数据增强方法对奶牛的姿态变换并无影响。本研究数据增强则采用水平镜像的方式,此方法主要改变了牛体的左右肢体骨架结
本研究中的奶牛姿态估计数据集需要对牛体的位置信息和牛体关键点信息进行标注。奶牛出现跛行后,奶牛头部和四肢部位相较于奶牛背部、颈部和尾椎等部位对行走特征影响较大,因此,本研究忽略奶牛的尾巴区域,仅对奶牛的头部、颈部、脊椎和四肢等部分进行标注。本次标签制作使用的标注工具为LabelMe软件。主要标注牛体的位置信息和牛体的17个关键点信息,对于被遮挡但能够估计出其位置的关键点,在进行标注时把该关键点认为是可见的并进行标注,具体标注信息如

图1 奶牛牛体位置标定和关键点标定
Fig.1 Dairy cow body position calibration and key point calibration
1.牛嘴Cow mouth;2.额头Forehead;3.颈部Neck;4.脊椎Spine;5.尾椎Tailbone;6.前左腿根Front left leg root;7.前左膝Front left knee;8.前左蹄Front left hoof;9.前右腿根Front right leg root;10.前右膝Front right knee;11.前右蹄Front right hoof;12.后左腿根Rear left leg root;13.后左膝Rear left knee;14.后左蹄Rear left hoof;15.后右腿根Rear right leg root;16.后右膝Rear right knee;17.后右蹄Rear right hoof.
1)总体技术路线。研究设计一种基于姿态估计和膝关节角度特征向量的奶牛跛行识别方法,其技术路线如

图2 基于姿态估计和膝关节角度特征向量的奶牛行为识别技术路线
Fig.2 A technical route to cow behavior recognition based on posture estimation and knee joint angle feature vectors
2)奶牛姿态估计网络。研究采用自顶向下的热力图方法来实现奶牛的姿态估计,基于Faster RCNN网络和ResNet101网络,构建奶牛姿态估计网络,其技术路线如

图3 奶牛姿态估计网络技术路线
Fig.3 Dairy cow posture estimation network technology route

图4 奶牛姿态估计结果
Fig.4 Results of dairy cow stance estimates
3)关节坐标数据提取。奶牛无论在行走还是站立过程中后腿膝关节角度仅有细微的变化,而前腿膝关节角度这一特征有着明显的变化,因此,本研究采用检测前腿膝关节角度的变化情况来识别奶牛行为。奶牛正常行走时,前、后腿的关节有规律地变化,体现在前腿膝关节角度在120°~180°较为规律的变化;奶牛跛行时,蹄部疼痛导致步态不平衡,会出现2个前腿的膝盖关节都不能正常弯曲活动的情况,体现在前腿膝关节角度在140°~180°无规律的变化,在膝关节角度不能正常弯曲和行走时所站立的时间更长;奶牛站立时,4条腿伸直以支撑身体,前腿膝关节角度在170°~180°变化。
前腿膝关节角度是检测到的腿根、膝关节和牛蹄的3个坐标信息,代表了奶牛的真实运动情况,通过记录腿根、膝关节和牛蹄的3个坐标位置的变化,计算得到前腿膝关节角度的变化曲线。采用奶牛姿态估计网络检测牛蹄的位置坐标,符合构建前腿膝关节角度特征向量的基本要求;获取腿根、膝关节和牛蹄的位置坐标得到前腿膝关节角度的变化曲线;使用分类算法进而判断出奶牛是正常行走、跛行还是站立状态。使用前腿膝关节角度作为特征向量符合本研究的实际研究情况。
设奶牛的前腿腿根、前腿膝盖、前蹄的位置分别为A(x1,y1)、B(x2,y2)、C(x2,y2),则前腿膝关节角度计算公式为:
(1) |
(2) |
(3) |
(4) |
式(
计算所有视频序列帧的前腿膝关节角度,并构造出对应的特征向量vj,其公式如下:
(5) |
4)基于1-D Convolution的跛行识别。传统的神经网络由于各层节点不连通,在没有构造时序特征的情况下不能通过动态的记忆过程学习到时序特性,而卷积神经网络的特点主要在于它能够捕捉局部特征,并将这些局部特征逐渐融合成整体特征。使用一维卷积神经网络可对时间序列数据进行分类,将一维数据输入到一维卷积层,在一维卷积层中通过滑动卷积滤波器来学习特征。相较于LSTM等模型,一维卷积神经网络的优点是在处理长时间序列时能够并行且速度更快。
本研究构建了1-D Convolution分类模型用于检测奶牛是否跛行,1-D Convolution模型结构如

图5 1-D Convolution模型结构
Fig.5 1-D Convolution model structure
为实现基于1-D Convolution分类模型的奶牛跛行的识别和分类,采取以下步骤:
第一步,整理数据,将原始的123段视频样本通过水平镜像的方式扩充到246段视频样本,使用这246段视频样本进行训练,每个视频持续100帧到200帧左右以保证提取的前腿膝关节角度特征向量的维度一致性。246个视频样本按7∶3的比例分为训练集和测试集。训练集中有174个样本(跛行70个样本、站立72个样本和正常行走32个样本),测试集中有72个样本(跛行28个样本、站立30个样本和正常行走14个样本)。
第二步,提取246个视频样本的膝关节角度特征向量并建立标签。奶牛姿态估计网络用于检测视频中每帧奶牛的前腿腿根、膝关节、牛蹄3个跟随特性特征参数,并计算每帧中奶牛前腿膝关节角度;结合每帧膝关节角度变化情况,构造出与视频帧数长度相对应的膝关节角度特征向量;最后,为训练视频对应的膝关节角度特征向量建立标签,奶牛的跛行、正常行走和站立视频膝关节角度特征向量对应的标签分别为0、1和2。
第三步,标准化246个视频样本的246个前腿膝关节角度特征向量。
第四步,设计并训练1-D Convolution分类模型。在批次大小为35、迭代次数为1 000的行为分类实验中,本研究设计了一个双层的一维卷积分类模型。该模型使用了大小为5×5的卷积核,分别包含了64和128个卷积核,最后基于测试集评估模型的识别效果。
本研究评价奶牛姿态估计网络的性能采用PCK(probability of correct keypoint)关键点检测评价指标。当某个被检测的关键点与真实的关键点坐标之间的距离小于某个长度的某个比例时,则被认为该检测是有效的。PCK是以关键点为单位计算的指标,其计算公式为:
(6) |
跛行识别模型中的评价指标包括准确率(accuracy,A)、精确率(precision,P)、召回率(recall,R)、假阳性率(false positive rate,F)。A、R和F的计算公
(7) |
(8) |
(9) |
(10) |
式(
本研究的实验训练和测试均在同一台计算机上,操作系统为Windows 10,处理器为Inter(R)Core(TM) i7-9700k CPU@3.2GHz,GPU为GeForce RTX 2080,运行内存为32 GB。模型搭建与训练验证的编程语言为Python3.7,深度学习框架采用PyTorch,PyCharm开发工具,计算框架使用CUDA 10.2版本。训练的Batchsize设置为16,选用Adam优化器,学习率从1
按照7∶3的比例将实验数据集划分为训练集、验证集。牛体检测框的高宽比为设为1∶1,并从原图像中剪裁出检测框,最后本研究中输入图像模型的大小为256像素×256像素。热力图大小设置为64像素×64像素。奶牛姿态估计网络输入的每张图像都经过随机翻转、旋转(±90°)和缩放(±30%)的数据增强操作,以验证集中关键点的平均PCK值作为最终的评估指标。
1)评价指标及结果。为评价牛体关键点的检测性能,本研究使用ResNet101网络模型作为奶牛关键点的特征提取网络,并使用了在horse10数据集上的预训练权重,ResNet101在验证集上的准确率变化曲线如

图6 ResNet101的准确率变化曲线
Fig.6 Accuracy curve of ResNet101
数据集中奶牛都处于站立或行走状态,除腿根部分和行走过程中部分帧的牛腿相互交替形成自身遮挡外,绝大部分关键点都能被准确地检测。不同输入尺寸下ResNet101特征提取网络在验证集上的检测结果如
网络模型 Network model | 输入尺寸 Input size | FLOPs/G | PCK@0.2 | PCK@0.1 |
---|---|---|---|---|
ResNet101 | 192×192 | 5.76 | 0.979 4 | 0.869 0 |
ResNet101 | 256×256 | 10.25 | 0.982 4 | 0.925 0 |
不同输入尺寸下PCK值取0.1时各个关键点的检测结果如
输入尺寸Input size | 嘴 Mouth | 额头 Forehead | 颈部 Neck | 脊椎 Spine | 尾椎 Tailbone | 腿根 Leg root | 膝 Knee | 蹄 Hoof |
---|---|---|---|---|---|---|---|---|
192×192 | 0.941 4 | 0.921 2 | 0.774 6 | 0.768 3 | 0.909 5 | 0.794 1 | 0.881 0 | 0.939 7 |
256×256 | 0.969 1 | 0.940 5 | 0.844 4 | 0.834 9 | 0.946 0 | 0.876 2 | 0.955 9 | 0.965 5 |
奶牛姿态估计结果以及图片所预测的热力图如

图7 奶牛姿态估计图及热力图
Fig.7 Dairy cow stance estimation diagram and heat map
图中数字代表奶牛关键点所对应的编号The numbers in the figure represent the numbers corresponding to the key points of the cow.
2)不同特征提取网络。本研究综合比较HRNet网络模型和ResNet网络模型在奶牛数据集上的表现,以寻求适合本研究的特征提取网络模型。在特征提取网络中分别配置了HRNet32、HRNet48、ResNet50网络模型,输入尺寸为256像素×256像素,使用在ImageNet上的预训练权重。
网络模型 Network Model | FLOPs/G | Params/M | PCK@0.2 | PCK@0.1 |
---|---|---|---|---|
HRNet32 | 10.25 | 28.54 | 0.982 1 | 0.914 2 |
HRNet48 | 21.00 | 63.59 | 0.982 3 | 0.919 4 |
HRNet48* | 21.00 | 63.59 | 0.962 4 | 0.853 7 |
ResNet50 | 5.38 | 25.56 | 0.978 2 | 0.895 3 |
ResNet101 | 10.25 | 44.55 | 0.982 4 | 0.925 0 |
ResNet101* | 10.25 | 44.55 | 0.979 9 | 0.906 1 |
注: * 代表未使用预训练权重。Note: * means no pre-training weights are used.
由
使用HRNet48和ResNet101网络奶牛跛行和正常行走状态下进行姿态估计,结果如

图8 HRNet48和ResNet101网络在奶牛跛行、正常行走状态下的姿态估计结果
Fig.8 Pose estimation results of HRNet48 and ResNet101 networks for cows in lame, normal walking condition
3)奶牛目标检测对姿态估计的影响。在奶牛站立、行走2种状态下,本研究使用未添加Faster RCNN的姿态估计网络和本研究方法对其进行姿态估计,结果如

图9 未使用Faster RCNN的姿态估计网络和本文方法对奶牛站立、行走的姿态估计结果
Fig.9 Posture estimation network without Faster RCNN and the results of this study’s method for estimating the posture of cows standing and walking
奶牛行走过程中,正常奶牛后蹄着地点应接近或超过同侧前蹄着地点,如

图10 3种行为状态下的奶牛侧视图
Fig.10 Side view of a cow in 3 states of behavior
A:正常行走 Normal walking; B:跛行 Limping;C:站立 Standing.
1)不同分类器准确率比较。为了比较不同分类算法的有效性,本研究基于246个测试视频片段(98个跛行、102个站立和46个正常行走视频)进行前腿关键点的检测,并构建了246个前腿膝关节角度特征向量。实验中设置学习率为0.001,训练轮数为1 000轮。在LSTM、Bi-LSTM、GRU、1-D Convolution分类网络完成训练后,结合前腿膝关节角度特征向量,分类网络得出各类行为相对应的置信度值,并根据该值完成行为分类。
实验结果表明,LSTM、Bi-LSTM、GRU、1-D Convolution均可完成奶牛行为识别的任务,其识别准确率分别为91.67%、94.44%、86.11%、97.22%。相较于其他模型,1-D Convolution模型实现了最高的分类精度,分别高出LSTM、Bi-LSTM和GRU 5.55、2.78和11.11百分点。相较于LSTM网络,Bi-LSTM网络的获得了更高的准确率,但在相同的输入大小和隐藏元素下,Bi-LSTM的网络结构比LSTM更复杂,计算参数更多。1-D Convolution模型简单,采用1-D Convolution用于检测奶牛跛行,在保证检测精度的同时,可以有效降低对硬件的要求,在一定程度上降低实际应用的成本。因此,本文方法对奶牛的检测跛行行为具有更高的实用性。
2)不同分类器的精确率、召回率和假阳性率。
模型 Model | 跛行Limping | 正常行走Normal walking | 站立Standing | ||||||
---|---|---|---|---|---|---|---|---|---|
P | R | F | P | R | F | P | R | F | |
LSTM | 0.892 9 | 0.892 9 | 0.063 8 | 0.823 5 | 0.823 5 | 0.051 7 | 1 | 1 | 0 |
Bi-LSTM | 0.961 5 | 0.892 9 | 0.022 7 | 0.812 5 | 0.928 6 | 0.051 7 | 1 | 1 | 0 |
GRU | 0.827 6 | 0.857 1 | 0.113 6 | 0.687 5 | 0.785 7 | 0.086 2 | 1 | 0.9 | 0 |
1-D Convolution | 1 | 0.928 6 | 0 | 0.875 0 | 1 | 0.034 5 | 1 | 1 | 0 |
由
结果表明,本研究所构建的1-D Convolution分类方法对奶牛跛行的识别具有较高的精确率、召回率和较低的假阳性率,该算法能很好地识别奶牛跛行、正常行走和站立这3类行为。
3)基于前腿膝关节角度特征向量方法对奶牛跛行识别的分析。随机选取3类不同行为的奶牛视频并检测其前腿膝关节角度变化,如

图11 奶牛3类行为的前腿膝关节角度运动变化曲线
Fig.11 Change curve of foreleg knee angle movement for 3 types of behavior in dairy cows
综上所述,可以看出跛牛的前腿膝关节角度变化幅度较小,相较于正常奶牛,跛足奶牛的变化规律性较低。
本研究针对奶牛跛行行为识别任务,提出了一种基于姿态估计和膝关节角度特征向量的奶牛跛行识别方法,并通过迁移学习实现自然养殖环境下奶牛正常行走、跛行和站立行为的有效识别,能够实现视频数据下的奶牛行为分类,提升检测精度的同时降低奶牛养殖的人工成本。在奶牛姿态估计网络构建中,有自顶向下和自底向上2种方
为了实现多目标姿态估计任务,本研究采用Faster RCNN来得到目标检测框,在此基础上使用ResNet101进行姿态估计,不仅减少了背景因素的干扰,有利于提升骨架信息的精度;同时以目标框为基础,个体姿态信息已经得到分组,免除了多目标时姿态信息复杂的后处理过程;ResNet101凭借深度网络,不仅可以实现深层次信息理解与提取,而且残差连接的方式可以使得网络在学习中自动将不利于训练的隐层权重降低,有利于网络的收敛。对于得到的骨架信息,1-D Convolution拥有较少的参数量及较高的泛化性,基于此对建立的膝关节角度特征向量集进行分类得到较高精度的分类结果,实现自然养殖环境下奶牛正常行走、跛行和站立行为的有效识别。研究的主要结论如下:
1)本研究引入Faster RCNN目标检测网络模型对牛体进行识别,缩小奶牛关键点检测范围,奶牛关键点检测的精度明显提高。
2)建立基于ResNet101的奶牛姿态估计模型,从Faster RCNN模型的检测框中提取奶牛关键点特征,其PCK@0.1值可以达到0.925 0,与HRNet32、HRNet48、ResNet50网络模型相比,能更准确地反映出奶牛关键点特征。
3)使用迁移学习将在大数据集上训练完成的模型迁移至奶牛侧视数据集。结果表明,在参数量和计算量一致的情况下,使用迁移学习后模型的PCK@0.1均有较大的提升。
4)通过奶牛的前腿关键点坐标构建前腿膝关节角度特征向量集,并利用1-D Convolution分类模型实现奶牛的跛行、站立和正常行走的检测,其分类准确率为97.22%。相较于LSTM、Bi-LSTM、GRU模型,准确率分别提高5.55、2.78和11.1百分点。本研究设计的膝盖关节角度特征向量不受限于拍摄距离远近的影响,有较好的实用性,可为奶牛跛行自动检测提供参考。
参考文献 References
邵军,林为民,孙新文,等.石河子地区奶牛肢蹄病类型和发病情况调查分析[J].中国奶牛,2017(1):30-33.SHAO J,LIN W M,SUN X W,et al.Investigation and analysis on the types and incidence of limb and hoof disease in dairy cows in Shihezi area[J].China dairy cattle,2017(1):30-33 (in Chinese). [百度学术]
BOOTH C J,WARNICK L D,GRÖHN Y T,et al.Effect of lameness on culling in dairy cows[J].Journal of dairy science,2004,87(12):4115-4122. [百度学术]
PLUK A,BAHR C,POURSABERI A,et al.Automatic measurement of touch and release angles of the fetlock joint for lameness detection in dairy cattle using vision techniques[J].Journal of dairy science,2012,95(4):1738-1748. [百度学术]
吴倩.基于视频分析的奶牛关键部位提取及跛行检测研究[D].杨凌:西北农林科技大学,2019.WU Q.Research on cow key part extraction and limping detection based on video analysis[D].Yangling:Northwest A & F University,2019 (in Chinese with English abstract). [百度学术]
POURSABERI A,BAHR C,PLUK A,et al.Real-time automatic lameness detection based on back posture extraction in dairy cattle:shape analysis of cow with image processing techniques[J].Computers and electronics in agriculture,2010,74(1):110-119. [百度学术]
顾静秋,王志海,高荣华,等.基于融合图像与运动量的奶牛行为识别方法[J].农业机械学报,2017,48(6):145-151.GU J Q,WANG Z H,GAO R H,et al.Recognition method of cow behavior based on combination of image and activities[J].Transactions of the CSAM,2017,48(6):145-151 (in Chinese with English abstract). [百度学术]
康熙,张旭东,刘刚,等.基于机器视觉的跛行奶牛牛蹄定位方法[J].农业机械学报,2019,50(S1):276-282.KANG X,ZHANG X D,LIU G,et al.Hoof location method of lame dairy cows based on machine vision[J].Transactions of the CSAM,2019,50(S1):276-282 (in Chinese with English abstract). [百度学术]
ZHAO K,BEWLEY J M,HE D,et al.Automatic lameness detection in dairy cattle based on leg swing analysis with an image processing technique[J].Computers and electronics in agriculture,2018,148:226-236. [百度学术]
於少文,孔繁涛,张建华,等.可穿戴设备技术在奶牛养殖中的应用及发展趋势[J].中国农业科技导报,2016,18(5):102-110.YU S W,KONG F T,ZHANG J H,et al.Application and development trend of wearable devices technology in dairy farming[J].Journal of agricultural science and technology,2016,18(5):102-110 (in Chinese with English abstract). [百度学术]
LI X Y,CAI C,ZHANG R F,et al.Deep cascaded convolutional models for cattle pose estimation[J/OL].Computers and electronics in agriculture,2019,164:104885[2022-11-17].https://doi.org/10.1016/j.compag.2019.104885. [百度学术]
LIU H,REIBMAN A R,BOERMAN J P.A cow structural model for video analytics of cow health[DB/OL].arXiv,2020:2003.05903[2022-11-17].https://arxiv.org/abs/2003.05903. [百度学术]
TSAI Y C, HSU J T, DING S T,et al.An imaging system based on deep learning for monitoring the feeding behavior of dairy cows[J/OL].American society of agricultural and biological engineers,2019:1469[2022-11-17]. https://www.semanticscholar.org/paper/An-Imaging-System-Based-on-Deep-Learning-for-the-of-Kuan-Tsai/50bbc50d3ba3bac2399018223c5dd19e263ff8e0. DOI:10.13031/aim.201901469. [百度学术]
WU D H,WU Q,YIN X Q,et al.Lameness detection of dairy cows based on the YOLOv3 deep learning algorithm and a relative step size characteristic vector[J].Biosystems engineering,2020,189:150-163. [百度学术]
WU D H,YIN X Q,JIANG B,et al.Detection of the respiratory rate of standing cows by combining the Deeplab
刘忠超,何东健.基于卷积神经网络的奶牛发情行为识别方法[J].农业机械学报,2019,50(7):186-193.LIU Z C,HE D J.Recognition method of cow estrus behavior based on convolutional neural network[J].Transactions of the CSAM,2019,50(7):186-193 (in Chinese with English abstract). [百度学术]
王少华,何东健,刘冬.基于机器视觉的奶牛发情行为自动识别方法[J].农业机械学报,2020,51(4):241-249.WANG S H,HE D J,LIU D.Automatic recognition method of dairy cow estrus behavior based on machine vision[J].Transactions of the CSAM,2020,51(4):241-249 (in Chinese with English abstract). [百度学术]
付涛.基于卷积热点图回归的牛体姿态估计研究[D].杨凌:西北农林科技大学,2018.FU T.Research on bovine body pose estimation based on convolution heatmap regression[D].Yangling:Northwest A & F University,2018 (in Chinese with English abstract). [百度学术]
宋怀波,李振宇,吕帅朝,等.基于部分亲和场的行走奶牛骨架提取模型[J].农业机械学报,2020,51(8):203-213.SONG H B,LI Z Y,LÜ S C,et al.Skeleton extraction model of walking dairy cows based on partial affinity field[J].Transactions of the CSAM,2020,51(8):203-213 (in Chinese with English abstract). [百度学术]
周志华.机器学习[M].北京:清华大学出版社,2016.ZHOU Z H.Machine learning[M].Beijing:Tsinghua University Press,2016(in Chinese). [百度学术]
卢健,杨腾飞,赵博,等.基于深度学习的人体姿态估计方法综述[J].激光与光电子学进展,2021,58(24):69-88.LU J,YANG T F,ZHAO B,et al.Review of deep learning-based human pose estimation[J].Laser & optoelectronics progress,2021,58(24):69-88 (in Chinese with English abstract). [百度学术]
NIBALI A,HE Z,MORGAN S,et al.Numerical coordinate regression with convolutional neural networks[DB/OL]. arXiv,2018:1801.07372[2022-11-17].https://arxiv.org/abs/1801.07372. [百度学术]
张飞宇,王美丽,王正超.引入Transformer和尺度融合的动物骨骼关键点检测模型构建[J].农业工程学报,2021,37(23):179-185.ZHANG F Y,WANG M L,WANG Z C.Construction of the animal skeletons keypoint detection model based on transformer and scale fusion[J].Transactions of the CSAM,2021,37(23):179-185 (in Chinese with English abstract). [百度学术]
龙满生,欧阳春娟,刘欢,等.基于卷积神经网络与迁移学习的油茶病害图像识别[J].农业工程学报,2018,34(18):194-201.LONG M S,OUYANG C J,LIU H,et al.Image recognition of Camellia oleifera diseases based on convolutional neural network & transfer learning[J].Transactions of the CSAE,2018,34(18):194-201 (in Chinese with English abstract). [百度学术]
PAN S J,YANG Q A.A survey on transfer learning[J].IEEE transactions on knowledge and data engineering,2010,22(10):1345-1359. [百度学术]
SUN K,XIAO B,LIU D,et al.Deep high-resolution representation learning for human pose estimation[C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).June 15-20,2019,Long Beach,CA,USA.Long Beach:IEEE,2020:5686-5696. [百度学术]
MATHIS A,BIASI T,SCHNEIDER S,et al.Pretraining boosts out-of-domain robustness for pose estimation[C]//2021 IEEE Winter Conference on Applications of Computer Vision (WACV).January 3-8,2021,Waikoloa,HI,USA.Waikoloa:IEEE,2021:1858-1867. [百度学术]