亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于雙目立體匹配與改進(jìn)YOLOv8n-Pose關(guān)鍵點(diǎn)檢測(cè)的奶牛體尺測(cè)量方法

        2024-01-01 00:00:00鄧洪興許興時(shí)王云飛張姝瑾宋懷波
        關(guān)鍵詞:奶牛

        摘要: 【目的】實(shí)現(xiàn)奶牛體尺準(zhǔn)確測(cè)量,精準(zhǔn)評(píng)定奶牛體型?!痉椒ā酷槍?duì)奶牛體尺測(cè)量精度有限、自動(dòng)化程度低等問(wèn)題,提出一種基于雙目立體匹配和改進(jìn)YOLOv8n-Pose 的奶牛體尺測(cè)量方法,利用CREStereo 獲取深度信息,在YOLOv8n-Pose 中引入SimAM 注意力機(jī)制,使網(wǎng)絡(luò)更加關(guān)注奶牛個(gè)體識(shí)別及奶牛關(guān)鍵點(diǎn)位置信息,并采用CoordConv 卷積改進(jìn)網(wǎng)絡(luò)結(jié)構(gòu),增強(qiáng)網(wǎng)絡(luò)空間坐標(biāo)感知能力?!窘Y(jié)果】改進(jìn)的YOLOv8n-Pose 可快速準(zhǔn)確檢測(cè)奶牛體尺測(cè)量關(guān)鍵點(diǎn),檢測(cè)精度為94.3%,模型參數(shù)量為2.99 M,浮點(diǎn)計(jì)算量為8.40 G,檢測(cè)速度為55.6 幀/s。融合雙目立體匹配與改進(jìn)YOLOv8n-Pose 關(guān)鍵點(diǎn)檢測(cè)的奶牛體尺測(cè)量最大平均相對(duì)誤差為4.19%。【結(jié)論】所提出的體尺測(cè)量方法具有較高的精度及較快的檢測(cè)速度,能夠滿足奶牛體尺測(cè)量的實(shí)用要求。

        關(guān)鍵詞: 體尺測(cè)量;雙目立體視覺(jué);關(guān)鍵點(diǎn)檢測(cè);奶牛

        中圖分類號(hào): S823;TP391.41 文獻(xiàn)標(biāo)志碼: A 文章編號(hào): 1001-411X(2024)05-0802-10

        奶牛體尺能夠反映其生長(zhǎng)發(fā)育狀況、繁殖能力、產(chǎn)奶能力及潛在經(jīng)濟(jì)價(jià)值等重要信息[1-3]。長(zhǎng)期以來(lái),我國(guó)奶牛體尺測(cè)量主要采用傳統(tǒng)的接觸式測(cè)量,由經(jīng)驗(yàn)豐富的工作人員利用卡尺、皮尺、卷尺、測(cè)杖等工具測(cè)量或者通過(guò)人眼估算,存在復(fù)雜繁瑣、測(cè)量效率低、易受環(huán)境和測(cè)量人員主觀因素影響等問(wèn)題[4]。

        隨著機(jī)器視覺(jué)技術(shù)的快速發(fā)展,家禽家畜的體尺測(cè)量有更多的解決方案,主要可分為基于二維圖像的體尺測(cè)量和基于三維點(diǎn)云的體尺測(cè)量2 種方式[4]。在基于二維圖像的體尺測(cè)量方面,Tasdemir等[5] 拍攝荷斯坦奶牛頂部和側(cè)面RGB 圖像,采用直接線性變化法標(biāo)定相機(jī),利用圖像分析軟件基于點(diǎn)云計(jì)算奶牛體尺,該方法測(cè)得奶牛體高、臀高、體長(zhǎng)、臀寬準(zhǔn)確率分別為97.72%、98.00%、97.89%、95.25%。劉同海等[6] 在飲水器正上方采集120 日齡豬只的體尺圖像,將豬體目標(biāo)從二值圖像中分割,實(shí)時(shí)提取體尺測(cè)點(diǎn),該方法測(cè)得豬只體長(zhǎng)的平均相對(duì)誤差為0.92%。薛廣順等[7] 利用Logitech WebcamPro 9000 攝像機(jī)采集牛體圖像,采用貝葉斯決策皮膚檢測(cè)法提取牛體,基于尺度不變特征變換(Scaleinvariantfeature transform,SIFT) 算法實(shí)現(xiàn)特征點(diǎn)匹配,利用雙目相機(jī)成像模型結(jié)合相機(jī)標(biāo)定參數(shù)獲取牛體三維點(diǎn)云。張晨光等[8] 采用雙目視覺(jué)技術(shù)進(jìn)行奶牛圖像采集,提取奶牛背部輪廓與側(cè)面輪廓,通過(guò)SIFT 算法,結(jié)合相機(jī)標(biāo)定參數(shù)獲取特征點(diǎn)空間坐標(biāo),最終利用歐式距離計(jì)算奶牛體高、體長(zhǎng)和體寬。在基于三維點(diǎn)云的體尺測(cè)量方面,趙建敏等[9] 使用雙目相機(jī)采集體尺圖像,利用YOLOv5 檢測(cè)牛體及牛頭、軀干、牛蹄、牛尻、腿關(guān)節(jié)等特征部位,基于改進(jìn)的Canny 邊緣檢測(cè)算法及曲線擬合算法提取牛體局部邊緣輪廓,通過(guò)U 弦長(zhǎng)得到體尺測(cè)量特征點(diǎn),最終完成體高、體長(zhǎng)、體斜長(zhǎng)等體尺測(cè)量,該方法平均體尺測(cè)量誤差為2.4%。Huang等[10] 利用IFM O3D303 相機(jī)獲取秦川牛側(cè)面點(diǎn)云數(shù)據(jù),采用KD-Network 訓(xùn)練牛體輪廓提取模型,通過(guò)快速點(diǎn)特征直方圖獲得特征表面中心完成體尺測(cè)量,該方法最大測(cè)量誤差為2.0%。初夢(mèng)苑等[11] 使用Kinect DK 深度相機(jī)拍攝奶牛側(cè)面與俯視圖像,基于視頻錯(cuò)幀補(bǔ)全奶牛側(cè)面點(diǎn)云,采用迭代最近點(diǎn)算法配準(zhǔn)奶牛側(cè)面點(diǎn)云與俯視點(diǎn)云,基于幾何特征測(cè)量奶牛體直長(zhǎng)、肩寬、臀寬等7 種體尺參數(shù)。Yang等[12] 使用智能手機(jī)環(huán)繞奶牛拍攝圖像,通過(guò)運(yùn)動(dòng)結(jié)構(gòu)法構(gòu)造三維點(diǎn)云模型,根據(jù)形態(tài)特征自動(dòng)標(biāo)記體尺測(cè)量點(diǎn),該方法體尺測(cè)量平均相對(duì)誤差小于4.67%?;谌S點(diǎn)云的體尺測(cè)量方法提供了精確的測(cè)量,但計(jì)算量大、測(cè)量過(guò)程復(fù)雜、測(cè)量成本高,并且需要特定的環(huán)境條件,在規(guī)?;B(yǎng)殖場(chǎng)實(shí)現(xiàn)其快速準(zhǔn)確體尺測(cè)量尚需進(jìn)一步驗(yàn)證。相比之下,使用單個(gè)深度相機(jī)進(jìn)行體尺測(cè)量具有計(jì)算負(fù)擔(dān)低、測(cè)量設(shè)備部署簡(jiǎn)單和設(shè)備成本低等優(yōu)點(diǎn),更適合家禽家畜體尺參數(shù)的快速測(cè)量。

        測(cè)量關(guān)鍵點(diǎn)的快速準(zhǔn)確檢測(cè)是奶牛體尺快速準(zhǔn)確測(cè)量的前提。Yin 等[13] 采用對(duì)豬只身體部位平均分割的方法定位測(cè)量關(guān)鍵點(diǎn),并將點(diǎn)云姿態(tài)標(biāo)準(zhǔn)化, 實(shí)現(xiàn)了體尺的自動(dòng)測(cè)量。H u 等[ 1 4 ] 通過(guò)PointNet++對(duì)不同姿勢(shì)的豬只點(diǎn)云進(jìn)行分割,根據(jù)幾何特征定位豬體測(cè)量關(guān)鍵點(diǎn),該方法最大體尺測(cè)量誤差為5.26%。陸明洲等[15] 利用圖像處理技術(shù)獲取山羊體尺關(guān)鍵點(diǎn),測(cè)量最大相對(duì)誤差為5.5%。本研究基于YOLOv8n-Pose 快速準(zhǔn)確獲取測(cè)量關(guān)鍵點(diǎn),利用雙目立體視覺(jué)模型獲取深度信息,完成奶牛體尺的快速準(zhǔn)確測(cè)量。

        1 數(shù)據(jù)采集及數(shù)據(jù)集制作

        1.1 數(shù)據(jù)采集

        奶牛雙目圖像數(shù)據(jù)采集自陜西省咸陽(yáng)市楊陵區(qū)官村奶牛養(yǎng)殖場(chǎng)與楊凌科元克隆股份有限公司奶牛養(yǎng)殖場(chǎng),采集時(shí)間為2022 年11 月至2023 年4 月,包括奶牛側(cè)面雙目圖像及視頻數(shù)據(jù),采用ZED 2i 相機(jī)采集奶牛側(cè)面圖像。圖像數(shù)據(jù)的圖像分辨率為2 208 像素×1 242 像素,用于構(gòu)建目標(biāo)檢測(cè)及關(guān)鍵點(diǎn)檢測(cè)數(shù)據(jù)集;雙目視頻數(shù)據(jù)的視頻分辨率為4 416 像素×1 242 像素,幀率為15 幀/s,用于最終體尺測(cè)量。圖1 為數(shù)據(jù)采集及數(shù)據(jù)集構(gòu)建示意圖,圖1a 為數(shù)據(jù)采集平臺(tái)示意圖,ZED 2i 雙目立體相機(jī)固定于相機(jī)支架上,距離地面約1.1 m,將相機(jī)支架置于奶牛側(cè)面2~3 m 處,拍攝奶牛側(cè)面圖像或采集視頻數(shù)據(jù),在采集過(guò)程中避免陽(yáng)光直射相機(jī),減少陽(yáng)光直射對(duì)立體匹配的影響;圖1b 為通過(guò)采集平臺(tái)采集單幅奶牛側(cè)面圖像,共采集1 895 幅圖像,按8∶2 劃分訓(xùn)練集與驗(yàn)證集,構(gòu)建奶牛目標(biāo)檢測(cè)及關(guān)鍵點(diǎn)檢測(cè)數(shù)據(jù)集;圖1c 為視頻數(shù)據(jù)采集及體尺測(cè)量數(shù)據(jù)集構(gòu)建示意圖,將圖1a 所示的采集平臺(tái)置于奶牛擠奶通道外2.5 m 處采集奶牛在擠奶通道的側(cè)面視頻,并將采集的視頻進(jìn)行分幀,以2 幀/s 構(gòu)建體尺測(cè)量數(shù)據(jù)集。

        1.2 體尺測(cè)量標(biāo)準(zhǔn)與數(shù)據(jù)標(biāo)注

        本研究涉及奶牛體斜長(zhǎng)、體高、臀高和尻長(zhǎng)4 項(xiàng)體尺測(cè)量。圖2 為奶牛體尺測(cè)量標(biāo)準(zhǔn)的示意圖,奶牛體斜長(zhǎng)近似為坐骨端(C) 到肩端(D) 的直線距離,體高為鬐甲部最高點(diǎn)(A) 到前蹄與地面交點(diǎn)(E1) 的直線距離,臀高為臀部最高點(diǎn)(B) 到后蹄與地面交點(diǎn)(E2) 的直線距離,尻長(zhǎng)為坐骨端(C) 到尻尖(F) 的直線距離。在構(gòu)建的目標(biāo)檢測(cè)及關(guān)鍵點(diǎn)檢測(cè)數(shù)據(jù)集中標(biāo)注鬐甲部、尻尖、坐骨端、肩端、蹄部等8 個(gè)測(cè)量關(guān)鍵點(diǎn)。

        1.3 真實(shí)體尺數(shù)據(jù)獲取

        奶牛體尺真實(shí)數(shù)據(jù)的準(zhǔn)確獲取是試驗(yàn)測(cè)試的前提,但由于手動(dòng)測(cè)量體尺依賴于人工經(jīng)驗(yàn),存在較大的偶然誤差與粗大誤差, H u 等[ 1 4 ] 采用PointNet++分割奶牛點(diǎn)云后獲取奶牛體尺,與手動(dòng)測(cè)量相比,體長(zhǎng)、體高的平均偏差僅為2.34%,說(shuō)明點(diǎn)云數(shù)據(jù)測(cè)量與手動(dòng)測(cè)量相差少。Tran 等[ 1 6 ] 和Deris 等[17] 證實(shí)了ZED 相機(jī)在點(diǎn)云三維重建與測(cè)量方面具有高精度的優(yōu)勢(shì)。因此,本研究采用ZED2i 相機(jī)采集奶牛側(cè)面點(diǎn)云數(shù)據(jù)并依據(jù)手動(dòng)測(cè)量的方法獲取體尺的真實(shí)值。

        2 基于CREStereo 和YOLOv8n-Pose 的體尺測(cè)量

        2.1 基于CREStereo 立體匹配的深度估計(jì)網(wǎng)絡(luò)

        2.1.1 小孔成像模型與視差計(jì)算

        小孔成像模型是常用的相機(jī)模型,雙目相機(jī)基于小孔成像模型,利用2 個(gè)相機(jī)從不同角度同時(shí)拍攝,通過(guò)標(biāo)定參數(shù)進(jìn)行畸變矯正、極限矯正,根據(jù)拍攝點(diǎn)在左右圖像中成像位置的差異,確定點(diǎn)在空間中的位置。根據(jù)文獻(xiàn)[18],設(shè)計(jì)雙目相機(jī)成像模型(圖3),Ol 和Or 分別是雙目立體相機(jī)左右相機(jī)的光心,ol 和or 分別是左右相機(jī)光軸與成像平面的交點(diǎn),假設(shè)兩成像平面寬度為W,成像平面與相機(jī)之間的距離為焦距f,P 是三維空間中的一個(gè)點(diǎn),pl 和pr 是點(diǎn)P 在左右相機(jī)成像平面上的像點(diǎn),xl 和xr 是pl 和pr 的x 坐標(biāo),z 為P 到左右相機(jī)所在直線的距離,根據(jù)相似三角形可得公式(1):

        式中,b 為左右相機(jī)的基線距離。

        令xl?xr為視差(d),根據(jù)公式(1),則點(diǎn)P 的深度為:

        z = b f / d。(2)

        根據(jù)視差值(d),結(jié)合雙目立體相機(jī)標(biāo)定參數(shù)基線(b) 和焦距(f) 推導(dǎo)每個(gè)像素點(diǎn)在三維空間中的深度,進(jìn)而推導(dǎo)出三維空間坐標(biāo)。

        2.1.2 CREStereo 立體匹配

        立體匹配是從一對(duì)圖像中推斷每個(gè)像素的深度信息。傳統(tǒng)的立體匹配算法是將立體匹配問(wèn)題轉(zhuǎn)化為在左右兩幅圖像中尋找最相似的像素點(diǎn)的過(guò)程。相比傳統(tǒng)立體匹配算法,基于深度學(xué)習(xí)的立體匹配方法具有更高的精度和更好的魯棒性,能夠處理復(fù)雜的場(chǎng)景[19]。因此,本研究采用CREStereo 算法[20] 對(duì)奶牛雙目圖像進(jìn)行立體匹配獲取視差值。圖4 為CREStereo 算法立體匹配推理過(guò)程,推理網(wǎng)絡(luò)采用堆疊級(jí)聯(lián)架構(gòu),在保證魯棒性的基礎(chǔ)下,保留高分辨率輸入的細(xì)節(jié),利用循環(huán)更新模塊(Recurrent update module,RUM)處理實(shí)際應(yīng)用中的非理想矯正情況,盡可能地緩解下采樣過(guò)程中區(qū)域的特征退化。RUM 采用循環(huán)架構(gòu),逐步更新和細(xì)化深度圖,通過(guò)多次迭代整合上下文信息,提高視差計(jì)算的整體精度。

        2.2 基于YOLOv8n-Pose 的測(cè)量關(guān)鍵點(diǎn)檢測(cè)網(wǎng)絡(luò)

        2 . 2 . 1 Y O L O v 8 n - P o s e 估計(jì)網(wǎng)絡(luò)

        本文基于YOLOv8n-Pose 估計(jì)網(wǎng)絡(luò)、SimAM 注意力機(jī)制[21]及CoordConv 卷積[22] 改進(jìn)網(wǎng)絡(luò),提出適用于奶牛關(guān)鍵點(diǎn)檢測(cè)的姿態(tài)估計(jì)模型。其中YOLOv8n-Pose 網(wǎng)絡(luò)是基于YOLOv8 及YOLO-Pose 估計(jì)網(wǎng)絡(luò)而提出的多任務(wù)聯(lián)合學(xué)習(xí)網(wǎng)絡(luò),能夠同時(shí)實(shí)現(xiàn)目標(biāo)分類及姿態(tài)估計(jì)任務(wù)。圖5 為改進(jìn)的YOLOv8n-Pose 估計(jì)網(wǎng)絡(luò)。

        2.2.2 SimAM 注意力機(jī)制

        SimAM 注意力模塊是Yang 等[21] 基于神經(jīng)科學(xué)理論,受人腦注意力機(jī)制的啟發(fā),提出的一種3D 注意力模塊,SimAM 注意力機(jī)制通過(guò)構(gòu)建一個(gè)優(yōu)化能量函數(shù)來(lái)挖掘神經(jīng)元的重要性以計(jì)算注意力權(quán)重,公式(3) 為能量函數(shù)(et):

        式中,t 為輸入特征的目標(biāo)神經(jīng)元;λ 為正則化系數(shù);i 為空間維度索引號(hào);xi 為其他神經(jīng)元;M 為通道上所有神經(jīng)元的個(gè)數(shù);y 為標(biāo)簽值,用于確定該神經(jīng)元是否為重要神經(jīng)元;wt 為權(quán)重;bt 為偏置。根據(jù)公式(3),推導(dǎo)最小能量函數(shù)如公式(4):

        式中,?為輸入特征 t 的均值,σ? 2為輸入特征 t 的方差。

        由公式(4) 可知,能量越低,特征相關(guān)的神經(jīng)元(t) 與周圍神經(jīng)元區(qū)別越大,重要程度越高,則神經(jīng)元重要性為1/et*。

        本研究增加SimAM,位置如圖5 Backbone 部分所示,SimAM 注意力模塊嵌入在C2f 與SPPF 之間,以觀察整個(gè)Backbone 中的重要神經(jīng)元,增強(qiáng)重要特征,抑制其他神經(jīng)元,從而聚焦于更有利于奶牛關(guān)鍵點(diǎn)檢測(cè)的特征表示。

        2.2.3 CoordConv 卷積

        CoordConv 卷積是由Liu 等[22] 開發(fā)的卷積方法,旨在提高神經(jīng)網(wǎng)絡(luò)對(duì)坐標(biāo)信息的感知能力。圖6 為CoordConv 結(jié)構(gòu),在傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)中,通過(guò)1 個(gè)拼接操作在通道維度上引入2 個(gè)額外的通道,這2 個(gè)通道分別包含x 坐標(biāo)(j) 和y 坐標(biāo)(i) 的信息。CoordConv 顯著提升了模型對(duì)空間布局的理解能力,使得網(wǎng)絡(luò)能夠更有效地處理具有明確空間關(guān)系的任務(wù)。在本研究中,參考PP-YOLO[23] 網(wǎng)絡(luò),如圖5 Head 部分所示,在YOLOv8 網(wǎng)絡(luò)的Head 部分引入2 層卷積核大小為1×1 的CoordConv 卷積層,旨在增強(qiáng)網(wǎng)絡(luò)對(duì)奶??臻g坐標(biāo)的感知,從而提升目標(biāo)檢測(cè)及關(guān)鍵點(diǎn)檢測(cè)的性能。

        2.3 融合立體匹配與關(guān)鍵點(diǎn)檢測(cè)的奶牛體尺測(cè)量

        本研究中,奶牛直線體尺自動(dòng)測(cè)量算法分為以下5 個(gè)步驟:

        1) 利用雙目相機(jī)拍攝奶牛側(cè)面圖像,并進(jìn)行立體校正;

        2) 采用CREStereo 算法對(duì)奶牛雙目圖像立體匹配,并計(jì)算左目圖像深度信息;

        3) 采用改進(jìn)YOLOv8n-Pose 檢測(cè)奶牛左目圖像中的關(guān)鍵點(diǎn),并分別計(jì)算每頭奶牛目標(biāo)檢測(cè)及關(guān)鍵點(diǎn)檢測(cè)置信度,優(yōu)先選擇關(guān)鍵點(diǎn)檢測(cè)置信度高的奶牛作為最優(yōu)體尺測(cè)量目標(biāo);

        4) 結(jié)合雙目相機(jī)參數(shù)與左目圖像深度信息,將奶牛關(guān)鍵點(diǎn)映射至三維空間中;

        5) 完成奶牛體斜長(zhǎng)、體高、臀高和尻長(zhǎng)指標(biāo)的測(cè)量。

        為計(jì)算奶牛體尺,需將關(guān)鍵點(diǎn)像素坐標(biāo)映射到相機(jī)坐標(biāo)系或世界坐標(biāo)系下,采用相機(jī)坐標(biāo)系作為三維空間坐標(biāo)系,以減少因相機(jī)標(biāo)定不準(zhǔn)確及坐標(biāo)變換對(duì)精度的影響。假設(shè)由步驟3) 改進(jìn)的YOLOv8n-Pose 模型進(jìn)行奶牛關(guān)鍵點(diǎn)檢測(cè)后,奶牛鬐甲部最高點(diǎn)像素坐標(biāo)為(uA, vA),臀部為(uB,vB),坐骨端為(uC, vC),肩端為(uD, vD),奶牛前、后蹄與地面交點(diǎn)為(uE1, vE1) 和(uE2, vE2),尻尖為(uF,vF )。根據(jù)公式(2) 得到對(duì)應(yīng)的相機(jī)坐標(biāo)為公式(5):

        3 結(jié)果與分析

        3.1 立體匹配測(cè)量與分析

        為探究2~3 m 不同距離的雙目立體匹配結(jié)果,選用5 頭奶牛在距離2~3 m 處進(jìn)行立體匹配,圖7為不同距離下立體匹配結(jié)果,表1 為不同距離的體尺手動(dòng)點(diǎn)云測(cè)量與人工測(cè)量的相對(duì)誤差??梢?jiàn),在2~3 m 深度范圍內(nèi)CREStereo 方法能正確地從ZED 2i 拍攝的奶牛雙目圖像中估算深度信息,滿足奶牛體尺測(cè)量要求,但在實(shí)際測(cè)量中為避免距離過(guò)近導(dǎo)致的信息缺失和距離過(guò)遠(yuǎn)造成的圖像質(zhì)量下降,應(yīng)保證奶牛位于在雙目圖像中央完整且占據(jù)圖像主體的距離。

        3.2 YOLOv8n-Pose 模型訓(xùn)練環(huán)境

        本文提出的改進(jìn)的YOLOv8n-Pose 模型在G PU 計(jì)算服務(wù)器訓(xùn)練的硬件配置為I n t e l ( R )Xeon(R) Platinum 8255C CPU @ 2.50 GHz 12 核、RTX 3090 24 GB、內(nèi)存為43 GB;軟件環(huán)境為Ubuntu18.04、Python3.8、PyTorch1.8.1、Cuda11.1;網(wǎng)絡(luò)訓(xùn)練初始學(xué)習(xí)率為0.001,周期學(xué)習(xí)率為0.02,采用Adam 優(yōu)化器。

        3.3 模型改進(jìn)的消融試驗(yàn)

        為了驗(yàn)證SimAM 注意力機(jī)制和CoordConv 卷積在奶牛關(guān)鍵點(diǎn)檢測(cè)上的作用,以Y O L O v 8 n -Pose 模型為基礎(chǔ),設(shè)計(jì)消融試驗(yàn)驗(yàn)證改進(jìn)效果,圖8 為消融試驗(yàn)結(jié)果。在YOLOv8n-Pose 中分別添加S i m AM 機(jī)制和C o o r d C o n v 后, 重疊度(Intersection over union,IoU) 閾值為50% 的平均精確度均值(mAP50) 和IoU 閾值為50%~95% 的平均精確度均值(mAP50~95) 均有所提高,最終網(wǎng)絡(luò)較原網(wǎng)絡(luò)目標(biāo)檢測(cè)mAP50~95 提高了1.1 個(gè)百分點(diǎn)(圖8a),關(guān)鍵點(diǎn)檢測(cè)mAP50~95 提高了4.5 個(gè)百分點(diǎn)(圖8b)。

        表2 為消融試驗(yàn)?zāi)P蛥?shù)量與計(jì)算量的對(duì)比結(jié)果,從表2 可以看出,最終改進(jìn)模型的參數(shù)量?jī)H增加了0.34%,而運(yùn)算量降低了1.18%。

        3.4 奶牛目標(biāo)檢測(cè)及關(guān)鍵點(diǎn)檢測(cè)結(jié)果分析

        為檢驗(yàn)改進(jìn)后模型的關(guān)鍵點(diǎn)檢測(cè)性能,利用測(cè)試集驗(yàn)證改進(jìn)的YOLOv8n-Pose 模型,圖9 為模型在不同復(fù)雜情景下的奶牛關(guān)鍵點(diǎn)檢測(cè)結(jié)果。如圖9a 為奶牛側(cè)面存在遮擋時(shí)的檢測(cè)結(jié)果,圖9b 為不同奶牛品種的檢測(cè)結(jié)果,圖9c 為多目標(biāo)奶牛檢測(cè)結(jié)果;改進(jìn)后的模型在多種復(fù)雜因素影響下均可較好地完成奶牛關(guān)鍵點(diǎn)檢測(cè)任務(wù)。

        為客觀地衡量改進(jìn)的YOLOv8n-Pose 性能,與Hourglass[24]、HRNet[25]、SimCC[26] 和RTMpose[27] 等其他優(yōu)秀算法比較,各算法使用相同數(shù)據(jù)集和軟硬件環(huán)境,表3 為對(duì)比結(jié)果。本文提出的改進(jìn)YOLOv8n-Pose 的精度最高,且模型參數(shù)量和浮點(diǎn)運(yùn)算量均表現(xiàn)優(yōu)秀。

        3.5 體尺測(cè)量結(jié)果對(duì)比與分析

        在拍攝的15 頭奶牛的雙目視頻中分別選取5 幀站立視頻,計(jì)算體尺平均值作為測(cè)量值。圖10為體尺測(cè)量最優(yōu)目標(biāo)判斷結(jié)果,圖10a 為單頭奶牛且環(huán)境較暗,圖10b 為兩頭奶牛,圖10c 多頭奶牛且相互遮擋,圖10d 為多頭奶牛且被欄桿遮擋。

        表4 為15 頭奶牛的體尺測(cè)量結(jié)果,測(cè)量值為本文提出的奶牛體尺測(cè)量方法的平均測(cè)量結(jié)果,真實(shí)值為通過(guò)點(diǎn)云數(shù)據(jù)手動(dòng)平均測(cè)量結(jié)果。

        利用箱線圖分析各項(xiàng)體尺的相對(duì)誤差,圖11為體尺測(cè)量相對(duì)誤差箱線圖,其中體斜長(zhǎng)相對(duì)誤差最小,臀高相對(duì)誤差最大。體斜長(zhǎng)的最大相對(duì)誤差為3.74%,平均相對(duì)誤差為1.84%,平均絕對(duì)誤差為3.2 cm;體高的最大相對(duì)誤差為6.54%,平均相對(duì)誤差為2.34%,平均絕對(duì)誤差為3.5 cm;臀高的最大相對(duì)誤差為9.11%,平均相對(duì)誤差為2.98%,平均絕對(duì)誤差為4.5 cm;尻長(zhǎng)的最大相對(duì)誤差為8.62%,平均相對(duì)誤差為4.19%,平均絕對(duì)誤差為2.3 cm。分析誤差來(lái)源,主要如下:1) 在奶牛關(guān)鍵點(diǎn)檢測(cè)數(shù)據(jù)集中,部分奶牛輪廓不明顯或標(biāo)注不規(guī)范,導(dǎo)致奶牛關(guān)鍵點(diǎn)檢測(cè)存在一定偏差;2) 雙目相機(jī)在實(shí)際使用中存在一定的畸變,奶牛深度信息計(jì)算的偏差導(dǎo)致體尺測(cè)量偏差。

        4 結(jié)論

        基于YOLOv8n-Pose 模型,通過(guò)引入SimAM注意力機(jī)制和CoordConv 卷積,提出了改進(jìn)的YOLOv8n-Pose 奶牛關(guān)鍵點(diǎn)檢測(cè)模型,模型檢測(cè)精度為94.30%,參數(shù)量為2.99 M,計(jì)算量為8.40 G,視頻平均檢測(cè)速度為55.6 幀/s;相比于原網(wǎng)絡(luò),有著更好的精度,更小的計(jì)算量,更適合奶牛養(yǎng)殖場(chǎng)實(shí)際的部署與應(yīng)用。本研究融合CREStereo 立體匹配與改進(jìn)的YOLOv8n-Pose,提出一種奶牛體尺測(cè)量方法,利用CREStereo 對(duì)奶牛雙目圖像立體匹配計(jì)算視差值,利用改進(jìn)的YOLOv8n-Pose 檢測(cè)左目圖像中奶牛關(guān)鍵點(diǎn),結(jié)合雙目相機(jī)標(biāo)定參數(shù)將奶牛關(guān)鍵點(diǎn)像素坐標(biāo)轉(zhuǎn)換至空間坐標(biāo),通過(guò)計(jì)算關(guān)鍵點(diǎn)間的歐氏距離完成奶牛體尺自動(dòng)測(cè)量,體尺測(cè)量最大平均相對(duì)誤差為4.19%。

        參考文獻(xiàn):

        [1]COMMUNOD R, GUIDA S, VIGO D, et al. Body measuresand milk production, milk fat globules granulometryand milk fatty acid content in cabannina cattle breed[J].Italian Journal of Animal Science, 2013, 12(1): e18.

        [2] RATHBUN F M, PRALLE R S, BERTICS S J, et al. Relationships between body condition score change, priormid-lactation phenotypic residual feed intake, and hyperketonemiaonset in transition dairy cows[J]. Journal ofDairy Science, 2017, 100(5): 3685-3696.

        [3]王宇. 基于三維點(diǎn)云數(shù)據(jù)的奶牛體尺測(cè)量研究[D]. 鄭州: 華北水利水電大學(xué), 2023.

        [4]初夢(mèng)苑, 司永勝, 李前, 等. 家畜體尺自動(dòng)測(cè)量技術(shù)研究進(jìn)展[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2022, 38(13): 228-240.

        [5]TASDEMIR S, URKMEZ A, INAL S. Determination ofbody measurements on the Holstein cows using digitalimage analysis and estimation of live weight with regressionanalysis[J]. Computers and Electronics in Agriculture,2011, 76(2): 189-197.

        [6]劉同海, 滕光輝, 付為森, 等. 基于機(jī)器視覺(jué)的豬體體尺測(cè)點(diǎn)提取算法與應(yīng)用[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2013, 29(2):161-168.

        [7]薛廣順, 來(lái)智勇, 張志毅, 等. 基于雙目立體視覺(jué)的復(fù)雜背景下的牛體點(diǎn)云獲取[J]. 計(jì)算機(jī)工程與設(shè)計(jì), 2015,36(5): 1390-1395.

        [8]張晨光, 雷金輝, 陳焰, 等. 基于機(jī)器雙目視覺(jué)的奶牛體尺參數(shù)的測(cè)量應(yīng)用[J]. 電子技術(shù)應(yīng)用, 2020, 46(6): 59-62.

        [9]趙建敏, 關(guān)曉鵬. 基于雙目深度估計(jì)的牛體尺測(cè)量方法設(shè)計(jì)[J]. 光電子·激光, 2022, 33(4): 429-435.

        [10]HUANG L W, GUO H, RAO Q Q, et al. Body dimensionmeasurements of Qinchuan cattle with transfer learningfrom LiDAR sensing[J]. Sensors, 2019, 19(22): 5046.

        [11]初夢(mèng)苑, 李孟飛, 李前, 等. 基于關(guān)鍵幀提取與頭頸部去除的奶牛體尺測(cè)量方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2022,53(S2): 226-233.

        [12]YANG G Y, XU X S, SONG L, et al. Automated measurementof dairy cows body size via 3D point cloud dataanalysis[J]. Computers and Electronics in Agriculture,2022, 200: 107218.

        [13]YIN L, ZHU J M, LIU C X, et al. Point cloud-based pigbody size measurement featured by standard and nonstandardpostures[J]. Computers and Electronics in Agriculture,2022, 199: 107135.

        [14]HU H, YU J C, YIN L, et al. An improved PointNet++point cloud segmentation model applied to automaticmeasurement method of pig body size[J]. Computers andElectronics in Agriculture, 2023, 205: 107560.

        [15]陸明洲, 光二穎, 陳子康, 等. 基于雙視角圖像的山羊體尺自動(dòng)測(cè)量方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2023, 54(8): 286-295.

        [16]TRAN T M, TA K D, HOANG M, et al. A study on determinationof simple objects volume using ZED stereocamera based on 3D-points and segmentation images[J].International Journal of Emerging Trends in EngineeringResearch, 2020, 8(5): 1990-1995.

        [17]DERIS A, TRIGONIS I, ARAVANIS A, et al. Depthcameras on UAVs: A first approach[J]. The InternationalArchives of the Photogrammetry, Remote Sensing andSpatial Information Sciences, 2017, XLII-2/W3: 231-236.

        [18]HARTLEY R, ZISSERMAN A. Multiple view geometryin computer vision[M]. New York: Cambridge UniversityPress, 2003.

        [19]SCH?PS T, SCH?NBERGER J L, GALLIANI S, et al.A multi-view stereo benchmark with high-resolution imagesand multi-camera videos[C]//2017 IEEE Conferenceon Computer Vision and Pattern Recognition (CVPR).Honolulu: IEEE, 2017: 2538-2547.

        [20]LI J, WANG P, XIONG P, et al. Practical stereo matchingvia cascaded recurrent network with adaptive correla-tion[C]//2022 IEEE/CVF Conference on Computer Visionand Pattern Recognition (CVPR). New Orleans:IEEE, 2022: 16242-16251.

        [21]YANG L X, ZHANG R Y, LI L, et al. SimAM: Asimple, parameter-free attention module for convolutionalneural networks[C]//PMLR. International Conferenceon Machine Learning. New York: PMLR, 2021: 11863-11874.

        [22]LIU R, LEHMAN J, MOLINO P, et al. An intriguingfailing of convolutional neural networks and the Coord-Conv solution[EB/OL]. arXiv: 1807.03247 (2018-07-09)[2024-04-01]. https://doi.org/10.48550/arXiv.1807.03247.

        [23]LONG X, DENG K P, WANG G Z, et al. PP-YOLO: Aneffective and efficient implementation of object detector[EB/OL]. arXiv: 2007.12099 (2020-07-23) [2024-04-01].https://doi.org/10.48550/arXiv.2007.12099.

        [24]NEWELL A, YANG K, DENG J. Stacked hourglass networksfor human pose estimation[EB/OL]. arXiv:1603.06937 (2016-03-22) [2024-04-01]. https://doi.org/10.48550/arXiv.1603.06937.

        [25]SUN K, XIAO B, LIU D, et al. Deep high-resolution representationlearning for human pose estimation[C]//2019IEEE/CVF Conference on Computer Vision and PatternRecognition (CVPR). Long Beach: IEEE, 2019: 5693-5703.

        [26]LI Y J, YANG S, LIU P D, et al. SimCC: A simple coordinateclassification perspective for human pose estimation[EB/OL]. arXiv: 2107.03332 (2021-07-07) [2024-04-01]. https://doi.org/10.48550/arXiv.2107.03332.

        [27]JIANG T, LU P, ZHANG L, et al. RTMPose: Real-timemulti-person pose estimation based on MMPose[EB/OL].arXiv: 2303.07399 (2023-03-13) [2024-04-01]. https://doi.org/10.48550/arXiv.2303.07399.

        【責(zé)任編輯 李慶玲】

        基金項(xiàng)目:國(guó)家重點(diǎn)研發(fā)計(jì)劃(2023YFD1301800);國(guó)家自然科學(xué)基金(32272931)

        猜你喜歡
        奶牛
        巨型奶牛
        大自然探索(2023年7期)2023-08-15 00:48:21
        乍暖還寒時(shí)奶牛注意防凍傷
        奶牛腹瀉的治療與預(yù)防
        小奶牛便簽夾
        夏季奶牛如何預(yù)防熱應(yīng)激
        奶牛印印印
        夏至?xí)r節(jié)奶牛飼養(yǎng)六注意
        奶牛吃草
        《奶牛的家》
        一例奶牛酮病的診治
        草食家畜(2010年4期)2010-03-20 13:22:28
        在线观看特色大片免费视频| 精品日产一区2区三区 | 爆爽久久久一区二区又大又黄又嫩| 高清偷自拍第1页| 国产污污视频| 亚洲成av人片在线天堂无| 国产精品福利高清在线| 美女性色av一区二区三区| 一区二区三区国产免费视频| 国产中文字幕乱人伦在线观看| 国产精品高潮呻吟av久久4虎 | 成人免费xxxxx在线视频| 日本av一区二区播放| 中文字幕乱码日本亚洲一区二区| 国产婷婷成人久久av免费| 三年片免费观看影视大全视频| 久久精品免费观看国产| 国产精品一区高清在线观看| 色青青女同性恋视频日本熟女| 精品人妻码一区二区三区红楼视频 | 国产精品久久久久免费看| 亚洲国产精品亚洲高清| 亚洲中文字幕久久在线| 大地资源高清在线视频播放| 亚洲欧美另类激情综合区| 亚洲无线码1区| 一级老熟女免费黄色片| 中文人妻熟妇乱又伦精品| 亚洲中文字幕无码久久| 色综合色综合久久综合频道| 最近中文字幕精品在线| 大地资源网高清在线播放| 99re6热在线精品视频播放6| 精品一区二区三区中文字幕在线| 狼狼色丁香久久女婷婷综合| av免费播放网站在线| 日韩毛片免费无码无毒视频观看| 99久久夜色精品国产网站| 久久视频在线视频精品| 日本一区二区三级在线观看| 久久综合精品国产一区二区三区无码|