亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度學(xué)習(xí)的奶牛個(gè)體識(shí)別

        2024-12-05 00:00:00吳瑞志羅維平
        關(guān)鍵詞:深度學(xué)習(xí)

        摘要:為了實(shí)現(xiàn)適合大規(guī)模奶牛養(yǎng)殖環(huán)境下的無接觸、高精度奶牛個(gè)體識(shí)別和自動(dòng)化管理,提出了一種基于YO?LOv5m網(wǎng)絡(luò)模型的奶牛個(gè)體識(shí)別方法,將攝像頭采集到的視頻數(shù)據(jù)經(jīng)過分幀處理后,采用結(jié)構(gòu)相似性算法(SSIM)及均方誤差算法(MSE)去除冗余圖像,通過標(biāo)注、Mosaic數(shù)據(jù)增強(qiáng)處理后得到10545幅標(biāo)簽數(shù)據(jù),對(duì)YOLOv5m模型進(jìn)行訓(xùn)練和優(yōu)化實(shí)現(xiàn)奶牛個(gè)體的準(zhǔn)確識(shí)別。同時(shí),還設(shè)計(jì)了基于YOLOv5m的奶牛個(gè)體識(shí)別檢測(cè)系統(tǒng),驗(yàn)證了該算法和系統(tǒng)的正確性。結(jié)果表明:在訓(xùn)練次數(shù)為300次時(shí),YOLOv5m模型對(duì)奶牛個(gè)體識(shí)別的平均精度達(dá)到98.75%,相比較YOLOv4提高5.88個(gè)百分點(diǎn),為現(xiàn)代畜牧業(yè)的發(fā)展提供了重要的技術(shù)支持和應(yīng)用基礎(chǔ)。

        關(guān)鍵詞:深度學(xué)習(xí);奶牛個(gè)體識(shí)別;YOLO模型;目標(biāo)檢測(cè);

        中圖分類號(hào):TP391.9文獻(xiàn)標(biāo)志碼:A文章編號(hào):2095-414X(2024)06-0063-07

        0引言

        隨著計(jì)算機(jī)視覺技術(shù)的發(fā)展和深度學(xué)習(xí)算法的應(yīng)用,圖像識(shí)別技術(shù)已成為國(guó)際人工智能領(lǐng)域研究最熱點(diǎn)的方向之一[1]。在農(nóng)業(yè)領(lǐng)域中,奶牛的自動(dòng)化識(shí)別對(duì)于牧場(chǎng)管理和奶牛飼養(yǎng)的監(jiān)測(cè)與控制具有重要的意義[2]。傳統(tǒng)的奶牛識(shí)別方法耗費(fèi)大量人力和物力,且容易出現(xiàn)誤差。而利用圖像識(shí)別技術(shù),可以實(shí)現(xiàn)奶牛的自動(dòng)化檢測(cè)和分類[3-4],極大地提高了識(shí)別的準(zhǔn)確性和效率。

        利用圖像識(shí)別算法模型實(shí)現(xiàn)奶牛個(gè)體識(shí)別已引起國(guó)內(nèi)外相關(guān)學(xué)者的關(guān)注[5-8]。張滿囤等[9]通過設(shè)置不同網(wǎng)絡(luò)層、不同卷積核尺寸、不同全連接層節(jié)點(diǎn)個(gè)數(shù)等進(jìn)行多組對(duì)比試驗(yàn),結(jié)果深度卷積網(wǎng)絡(luò)對(duì)養(yǎng)殖場(chǎng)環(huán)境下的奶牛個(gè)體識(shí)別率優(yōu)于SIFT[10]與圖像特征提?。˙OF)[11]兩種傳統(tǒng)模型。趙凱旋等[12]提出了一種基于CNN網(wǎng)絡(luò)的奶牛個(gè)體特征識(shí)別的方法,該方法采用幀間差值法、二值圖像跨度分析和Meanshift算法,對(duì)奶牛個(gè)體特征進(jìn)行了有效的定位與追蹤,采用LeNet-5網(wǎng)絡(luò)對(duì)其進(jìn)行了訓(xùn)練與預(yù)測(cè),其識(shí)別率達(dá)到了90.55%。P.Tassinari等[13]使用YOLOv3算法對(duì)拍攝的牛圈中奶牛的活動(dòng)視頻,以奶牛臀部為主要檢測(cè)區(qū)域進(jìn)行目標(biāo)檢測(cè),結(jié)果獲得的平均檢測(cè)精度為0.64-0.66。Shen W等[14]利用YOLO模型檢測(cè)所采集的奶牛側(cè)視圖中的奶牛目標(biāo),通過微調(diào)卷積神經(jīng)網(wǎng)絡(luò)模型對(duì)奶牛進(jìn)行分類,對(duì)奶牛個(gè)體識(shí)別的準(zhǔn)確率為96.65%。

        本文基于深度學(xué)習(xí)的奶牛個(gè)體識(shí)別技術(shù),通過采集、標(biāo)注和數(shù)據(jù)增強(qiáng)處理后得到10545幅奶牛圖像,利用YOLOv5m算法模型進(jìn)行訓(xùn)練和優(yōu)化,實(shí)現(xiàn)對(duì)奶牛個(gè)體的自動(dòng)識(shí)別和跟蹤。同時(shí),還設(shè)計(jì)了基于深度學(xué)習(xí)的奶牛個(gè)體識(shí)別檢測(cè)系統(tǒng),實(shí)現(xiàn)了奶牛個(gè)體識(shí)別檢測(cè)的人機(jī)交互,界面簡(jiǎn)潔,簡(jiǎn)單易懂,進(jìn)一步提高了奶牛飼養(yǎng)管理的效率和準(zhǔn)確性。

        1實(shí)驗(yàn)數(shù)據(jù)

        1.1數(shù)據(jù)采集

        本文試驗(yàn)數(shù)據(jù)采集自內(nèi)蒙古自治區(qū)烏蘭浩特市某牧業(yè)有限公司的規(guī)?;膛pB(yǎng)殖場(chǎng),采集于2022年11月至12月,分早中晚三個(gè)時(shí)段拍攝采集視頻,拍攝對(duì)象為健康的美國(guó)荷斯坦奶牛。奶牛在牛舍內(nèi)走動(dòng)、進(jìn)食、躺臥等,在與飼料道平行的牛舍內(nèi)飼料道上方上安裝3臺(tái)DS-IPC-B12V2-I(POE)網(wǎng)絡(luò)攝像機(jī)(??低暎贾荩?,距離地面高度3.1 m,向下傾斜25.5°,兩攝像機(jī)間隔15 m,攝像機(jī)安裝示意圖如圖1所示。

        在自然天氣情況下,奶牛個(gè)體出現(xiàn)在攝像頭視野時(shí)開始采集,采集分辨率為(1280×720)像素,視頻幀率為20 f/s,每段視頻時(shí)長(zhǎng)約為12min,并剔除包含奶牛姿態(tài)無較大變化和設(shè)備入場(chǎng)的視頻,累計(jì)獲取400段視頻數(shù)據(jù),數(shù)據(jù)包含多種復(fù)雜場(chǎng)景、角度和光照等情況,呈現(xiàn)出大規(guī)模養(yǎng)殖環(huán)境特點(diǎn)。在進(jìn)行數(shù)據(jù)集制作前,需先完成視頻取幀、無效樣本剔除等工作。本文通過KMPlayer軟件,為防止相鄰幀之間產(chǎn)生大量的冗余圖像,按每300幀取1幀的方式獲取奶牛個(gè)體圖像并保存到相應(yīng)的文件夾中。

        為去除冗余圖像,采用了兩種不同的算法來衡量相鄰幀之間的相似性:結(jié)構(gòu)相似性算法(Structural Sim?ilarity,SSIM)和均方誤差算法(Mean Squared Error,MSE)。從圖像結(jié)構(gòu)和像素值兩個(gè)角度對(duì)相鄰幀之間的相似性進(jìn)行衡量。

        在SSIM算法中,我們使用了以下公式來計(jì)算相鄰幀x和y之間的結(jié)構(gòu)相似性指數(shù):

        式中μx和μy分別表示圖像x和y中像素的平均值,σx(2)y表示圖像x和y中所有像素的協(xié)方差,σx(2)和σy(2)為圖像x和y中所有像素的方差,c1和c2為非0常量,表示為攝像頭的動(dòng)態(tài)范圍。

        而在MSE算法中,我們采用以下公式計(jì)算相鄰幀x和y之間的均方誤差:

        其中M和N表示圖像的長(zhǎng)和寬,f(i,j) 和f′(i,j) 表示相鄰幀。

        通過這兩種算法,在剔除冗余圖像后,將訓(xùn)練集和測(cè)試集按8:2進(jìn)行劃分,最終得到8335張訓(xùn)練集和2210張測(cè)試集的奶牛個(gè)體圖像。

        表1定義了奶牛的2種行為姿態(tài)及標(biāo)簽判定標(biāo)準(zhǔn)。奶牛在牛舍行走過程中,奶牛頭部未伸出護(hù)欄標(biāo)注為cow,奶牛頭部伸出護(hù)欄標(biāo)注為cow eating。根據(jù)表1中定義,標(biāo)注數(shù)據(jù)集,得到94665個(gè)標(biāo)簽,標(biāo)簽尺度可視化如圖2所示。

        圖2(a)展示了所有標(biāo)簽框的尺度信息,并進(jìn)行了可視化。從圖中可以看出,標(biāo)簽框的尺度涵蓋了多尺度的目標(biāo),其中中、小目標(biāo)的分布較多,而大目標(biāo)分布數(shù)量較少。圖2(b)比較了兩種標(biāo)簽的數(shù)量,其中cow eating行為出現(xiàn)的頻率較低,而cow行為的數(shù)量占比最大,這與實(shí)際養(yǎng)殖牧場(chǎng)中奶牛行為分布情況基本一致,符合大規(guī)模養(yǎng)殖環(huán)境下的奶牛行為分布的需求。

        1.2數(shù)據(jù)增強(qiáng)

        針對(duì)大規(guī)模養(yǎng)殖環(huán)境下,采集奶牛行為姿態(tài)數(shù)據(jù)多尺度目標(biāo)及場(chǎng)景差異大,導(dǎo)致模型泛化能力低,因此需要引入數(shù)據(jù)增強(qiáng)方法,豐富奶牛多尺度行為姿態(tài)數(shù)據(jù)及場(chǎng)景信息。Mosaic數(shù)據(jù)增強(qiáng)方法提供了一種新的增強(qiáng)方式,它是一種混合四幅圖像生成新的圖像的方法。具體實(shí)現(xiàn)過程如下,生成新圖像的中心點(diǎn)→擺放第一張圖像→填充剩余三張圖像→標(biāo)簽格式轉(zhuǎn)換→縮放到輸入圖像尺寸。不同數(shù)據(jù)增強(qiáng)效果如圖3所示。

        Mosaic增強(qiáng)后的圖像具有更多的背景和多尺度信息,利用融合后的圖像來訓(xùn)練模型,間接地提高樣本數(shù)量,并加速模型收斂,因此使用Mosaic方法增強(qiáng)奶牛行為數(shù)據(jù)集。

        經(jīng)過上述一系列處理后得到10545幅奶牛圖片,分辨率為1280×720像素。奶牛個(gè)體識(shí)別數(shù)據(jù)集參照VOC格式,使用LabelImg對(duì)圖像數(shù)據(jù)集進(jìn)行人工標(biāo)注。在標(biāo)注時(shí)框選奶牛個(gè)體,標(biāo)注完成后會(huì)自動(dòng)生成對(duì)應(yīng)的xml文件。奶牛數(shù)據(jù)集實(shí)際標(biāo)注情況示例如圖4所示。

        2方法

        YOLOv5是YOLO系列中推理速度和識(shí)別效果最優(yōu)的模型,其中,YOLOv5m模型檢測(cè)的準(zhǔn)確性高,推理速度快,適用于實(shí)時(shí)應(yīng)用和大規(guī)模目標(biāo)檢測(cè)任務(wù),滿足奶牛個(gè)體識(shí)別實(shí)時(shí)、準(zhǔn)確的要求,因此選擇YOLOv5m作為基礎(chǔ)模型,如圖5所示。

        YOLOv5m的網(wǎng)絡(luò)結(jié)構(gòu)由三個(gè)主要部分組成:主干網(wǎng)絡(luò)、特征金字塔網(wǎng)絡(luò)和檢測(cè)頭。主干網(wǎng)絡(luò)[15-17]采用了CSPDarknet53,整合了多種特征提取模塊,能夠生成豐富的語(yǔ)義信息。利用Focus和Conv(s=2)模塊將輸入圖像切片實(shí)現(xiàn)無損下采樣,得到特征圖F2。F2經(jīng)過兩次下采樣后的特征圖,大小為原圖像的1/4。在主干網(wǎng)絡(luò)頂層,采用了空間金字塔池化(Spatial Pyramid Pooling,SPP)技術(shù)[18],通過使用不同大小的池化核(如5×5、9×9、13×13),對(duì)特征圖進(jìn)行多尺度池化,從而實(shí)現(xiàn)融合多重感受野,增強(qiáng)語(yǔ)義信息的表達(dá)能力。特征金字塔網(wǎng)絡(luò)通過Neck模塊[19-20]進(jìn)行特征處理,進(jìn)一步增強(qiáng)特征的表達(dá)能力。YOLOv5使用了PAN Neck(Path Aggrega?tion Neck)傳遞三條支路的特征信息,各個(gè)支路的特征圖大小分別為80×80、40×40和20×20,并通過Concat模塊將它們?nèi)诤显谝黄稹H缓?,這些特征將被輸入到P3、P4、P5三個(gè)檢測(cè)器中,分別用于識(shí)別不同尺度的目標(biāo),實(shí)現(xiàn)對(duì)目標(biāo)的語(yǔ)義預(yù)測(cè)和識(shí)別。

        3結(jié)果與分析

        3.1實(shí)驗(yàn)平臺(tái)

        本文在Python 3.8和Pytorch 1.13.0的深度學(xué)習(xí)框架進(jìn)行試驗(yàn),電腦配置為Intel(R)Core(TM)i7-9700k,顯卡為NVIDIA GeForce RTX 2080Ti*2,主頻3.6GHz,內(nèi)存64GB,操作系統(tǒng)為Windows10×64系統(tǒng)(表2)。在訓(xùn)練模型時(shí)使用GPU并行運(yùn)算,加快模型的收斂速度。

        本文訓(xùn)練YOLOv5m網(wǎng)絡(luò)模型時(shí),設(shè)置權(quán)重衰減系數(shù)為0.0005,初始學(xué)習(xí)率為0.01,批次大小batch_size為64,線程數(shù)目num works為5,訓(xùn)練輪數(shù)epochs初定為300,訓(xùn)練圖像和測(cè)試圖像像素均設(shè)置為640×640像素(表3)。

        3.2評(píng)判指標(biāo)

        在深度學(xué)習(xí)領(lǐng)域常用RMSE作為訓(xùn)練準(zhǔn)確率的評(píng)斷依據(jù),但在目標(biāo)檢測(cè)細(xì)分領(lǐng)域,由于識(shí)別的種類相對(duì)而言往往較少(如本文僅兩個(gè)類別:cow,意為奶牛;cow eating,意為奶牛吃草;),RMSE值很容易達(dá)到接近1的較高值。而且目標(biāo)檢測(cè)時(shí)更注重目標(biāo)在圖像中的位置與錨定框的貼合程度,故本文采用Precision(準(zhǔn)確率,P)、Recall(召回率,R)和Average Precision(平均精確度,AP)[21]三個(gè)方面作為評(píng)價(jià)標(biāo)準(zhǔn)對(duì)模型進(jìn)行評(píng)估。準(zhǔn)確率P表示模型分類器認(rèn)為是正類且事實(shí)上是正類的部分占所有分類器是正類的比例,計(jì)算公式為:

        P=×100%(3)

        召回率R表示模型分類器認(rèn)為是正類且事實(shí)上是正類的部分占所有事實(shí)上是正類的比例,計(jì)算公式為:

        R=×100%(4)

        式中:TP為檢測(cè)結(jié)果為正類且事實(shí)上是正類的數(shù)量,F(xiàn)P為檢測(cè)結(jié)果為正類而事實(shí)上為負(fù)類的數(shù)量,F(xiàn)N為檢測(cè)結(jié)果為負(fù)類而事實(shí)上是正類的數(shù)量。

        平均精確度AP為通過Precision和Recall的點(diǎn)的組合,畫出來的曲線下面的面積,計(jì)算公式為:

        AP=P(R)dR×100%(5)

        式中:P(R)為PR曲線上R對(duì)應(yīng)的P的值。

        3.3訓(xùn)練結(jié)果

        利用YOLOV5m網(wǎng)絡(luò),訓(xùn)練了8335個(gè)訓(xùn)練集的奶牛圖像,得到了圖6所示的全局損失函數(shù)的訓(xùn)練誤差曲線??梢钥吹?,在前100次迭代中,模型可以快速擬合,在進(jìn)行到200個(gè)迭代次數(shù)之后,曲線趨于平穩(wěn),準(zhǔn)確率和召回率波動(dòng)小,訓(xùn)練模型收斂,這說明了訓(xùn)練效果較好。

        為驗(yàn)證該方法的有效性,對(duì)牧場(chǎng)采集到的12段奶牛視頻數(shù)據(jù)分別測(cè)試Faster R-CNN模型、YOLOv4模型和本文YOLOv5m模型,對(duì)測(cè)試集識(shí)別結(jié)果從精確率、召回率、平均精度均值三個(gè)方面來評(píng)價(jià)不同模型的性能,試驗(yàn)結(jié)果如表4所示,本文提出的識(shí)別方法的準(zhǔn)確率為97.73%;召回率為96.36%;平均精確度為98.75%。

        調(diào)整卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練參數(shù),反復(fù)訓(xùn)練提高識(shí)別效果,系統(tǒng)對(duì)不同行為姿態(tài)奶牛圖片實(shí)現(xiàn)智能識(shí)別并顯示識(shí)別率如圖7所示??梢钥闯霰疚奶岢龅姆椒▽?duì)于不同時(shí)間段、不同姿態(tài)的奶牛均有較好的識(shí)別準(zhǔn)確性,從圖7(a)-(d)可看出本文提出的方法對(duì)于白天、夜晚、遮擋、躺臥的奶牛均能準(zhǔn)確識(shí)別。

        4奶牛個(gè)體識(shí)別檢測(cè)系統(tǒng)設(shè)計(jì)

        4.1系統(tǒng)總體方案設(shè)計(jì)

        結(jié)合牧場(chǎng)對(duì)奶牛自動(dòng)化管理的特點(diǎn),設(shè)計(jì)的圖形界面具備以下特點(diǎn):可以實(shí)現(xiàn)視頻和攝像頭的實(shí)時(shí)檢測(cè)和流量計(jì)趨勢(shì)曲線查看。用戶界面簡(jiǎn)潔且操作方便,用戶可迅速掌握操作方法??梢灾庇^地看到系統(tǒng)的檢測(cè)狀態(tài)以及檢測(cè)結(jié)果。

        4.2圖形用戶界面設(shè)計(jì)與實(shí)現(xiàn)

        GUI用戶界面的設(shè)計(jì)主要包括注冊(cè)登錄界面和奶牛智能監(jiān)測(cè)系統(tǒng)主界面兩大部分:

        (1)登錄界面設(shè)計(jì)。登錄界面的設(shè)計(jì),在首次登錄時(shí)需要注冊(cè)用戶信息,并按規(guī)定注冊(cè),注冊(cè)完成后可在登錄界面輸入用戶名和密碼,若信息正確則進(jìn)入檢測(cè)主界面,注冊(cè)登錄界面的設(shè)計(jì)流程圖如圖9所示。

        圖形界面由Qt Designer進(jìn)行設(shè)計(jì),主要分為登錄界面和注冊(cè)界面。在PyCharm中選擇:工具-Qt De?signer,進(jìn)入GUI界面設(shè)計(jì)板塊,新建Main Window后,繪制所需功能界面,然后對(duì)這些按鈕以及顯示框等進(jìn)行屬性設(shè)置,例如界面排版、文字大小、PushButton按鈕關(guān)聯(lián)動(dòng)作函數(shù)等。最后保存界面設(shè)置,保存為*.ui格式文件。

        功能實(shí)現(xiàn):在Pycharm中點(diǎn)選:工具-PyUIC,將保存的*.ui文件轉(zhuǎn)換為py文件,并根據(jù)設(shè)計(jì)需求編寫相應(yīng)功能函數(shù),設(shè)計(jì)完成的注冊(cè)登錄界面如圖10所示。

        (2)主界面設(shè)計(jì)。用戶在注冊(cè)用戶信息并登錄系統(tǒng)后,可選擇進(jìn)入奶牛智能監(jiān)測(cè)系統(tǒng)主界面。界面部件添加方式與登錄界面設(shè)計(jì)方式相同,包括統(tǒng)計(jì)分析、運(yùn)行監(jiān)測(cè)、設(shè)備管理、參數(shù)配置、流量計(jì)趨勢(shì)和溫度/濕度顯示等功能。

        最后,根據(jù)設(shè)計(jì)需求編寫功能函數(shù),并把上述注冊(cè)登錄界面和奶牛智能監(jiān)測(cè)系統(tǒng)主界面的py文件導(dǎo)入,以及將YOLOv5m算法打包寫入,最終實(shí)現(xiàn)奶牛智能監(jiān)測(cè)系統(tǒng)的各項(xiàng)功能。具體GUI界面設(shè)計(jì)如圖11所示。

        5結(jié)語(yǔ)

        由于大規(guī)模養(yǎng)殖環(huán)境中獲取的奶牛行為數(shù)據(jù),背景復(fù)雜、奶牛行為姿態(tài)多樣和自動(dòng)化管理等問題,探索具有更強(qiáng)實(shí)際應(yīng)用能力的奶牛個(gè)體識(shí)別新方法以及推動(dòng)智能化牧場(chǎng)養(yǎng)殖方式的發(fā)展,本文提出了基于深度學(xué)習(xí)的識(shí)別奶牛個(gè)體的方法。采用結(jié)構(gòu)相似性算法(SSIM)和均方誤差算法(MSE)剔除冗余圖像,通過標(biāo)注、Mosaic數(shù)據(jù)增強(qiáng)處理后得到10545幅標(biāo)簽數(shù)據(jù),并對(duì)YOLOv5m模型進(jìn)行訓(xùn)練和優(yōu)化,成功地實(shí)現(xiàn)了對(duì)奶牛個(gè)體的準(zhǔn)確識(shí)別,并實(shí)現(xiàn)了基于YOLOv5m網(wǎng)絡(luò)的奶牛識(shí)別檢測(cè)的可視化實(shí)時(shí)監(jiān)測(cè)界面。

        實(shí)驗(yàn)結(jié)果表明:基于YOLOv5m的奶牛個(gè)體識(shí)別技術(shù)具有較高的準(zhǔn)確性和魯棒性。在不同光照、姿態(tài)和遮擋條件下,模型的平均識(shí)別準(zhǔn)確率達(dá)到了98.75%,相比較YOLOv4提高5.88個(gè)百分點(diǎn),能夠滿足實(shí)際應(yīng)用的需求。未來研究可進(jìn)一步拓展數(shù)據(jù)集,優(yōu)化模型算法,拓展系統(tǒng)功能,并探索更廣泛的應(yīng)用場(chǎng)景,以提高奶牛養(yǎng)殖管理的效率和準(zhǔn)確性,促進(jìn)農(nóng)業(yè)的可持續(xù)發(fā)展。

        參考文獻(xiàn):

        [1]王思懿.機(jī)器視覺在奶牛個(gè)體識(shí)別中的研究進(jìn)展[J].農(nóng)業(yè)工程術(shù),2020,40(27):55-57.

        [2]許貝貝,王文生,郭雷風(fēng),等.基于非接觸式的牛只身份識(shí)別研究進(jìn)展與展望[J].中國(guó)農(nóng)業(yè)科技導(dǎo)報(bào),2020,22(7):79-89.

        [3]李昊玥,陳桂芬,裴傲.基于改進(jìn)Mask R-CNN的奶牛個(gè)體識(shí)別方法研究[J].華南農(nóng)業(yè)大學(xué)學(xué)報(bào),2020,41(6):161-168.

        [4]宋一凡,王娟,李建麗,等.精準(zhǔn)化養(yǎng)殖模式下牛只個(gè)體識(shí)別方法綜述[J].黑龍江畜牧獸醫(yī),2021(22):48-53.

        [5]Okura F,Ikuma S,Makihara Y,et al.RGB-D Video-based Individual Identification of Dairy Cows Using Gait and Texture Analyses[J].Computers and Electronics in Ag?riculture,2019,165:104944.

        [6]Bezen R,Edan Y,Halachmi I.Computer Vision System for Measuring Individual Cow Feed Intake Using RGB-D Camera and Deep Learning Algorithms[J].Computers and Electronics in Agriculture,2020,172:105345.

        [7]Yin X,Wu D,Shang Y,et al.Using an Efficient Net-LSTM for the Recognition of Single Cow's Motion Behav?iours in a Complicated Environment[J].Computers and Electronics in Agriculture,2020,177:105707.

        [8]Dihua W,Yunfei W,Mengxuan H,et al.Using a CNN-LSTM for Basic Behaviors Detection of a Single Dairy Cow in a Complex Environment[J].Computers and Electronics in Agriculture,2021,182:106016.

        [9]張滿囤,單新媛,于津蘇,等.基于卷積神經(jīng)網(wǎng)絡(luò)的個(gè)體奶牛識(shí)別[J].東華大學(xué)學(xué)報(bào),2018,35(2):107-112.

        [10]王立中,麻碩士,薛河儒,等.基于SIFT檢測(cè)與匹配算法的奶牛形體圖像技術(shù)研究[J].內(nèi)蒙古農(nóng)業(yè)大學(xué)學(xué)報(bào)(自然科學(xué)版),2009,30(1):238-242.

        [11]陳娟娟,劉財(cái)興,高月芳,等.基于改進(jìn)特征袋模型的奶牛識(shí)別算法[J].計(jì)算機(jī)應(yīng)用,2016,36(8):2346-2351.

        [12]趙凱旋,何東健.基于卷積神經(jīng)網(wǎng)絡(luò)的奶牛個(gè)體身份識(shí)別方法[J].農(nóng)業(yè)工程學(xué)報(bào),2015,31(5):181-187.

        [13]Patrizia T,Marco B,Stefano B,et al.A Computer Vision Approach Based on Deep Learning for the Detection of Dairy Cows in Free Stall Barn[J].Computers and Electron?ics in Agriculture,2021,182:106030.

        [14]Shen W,Hu H,Dai B,et al.Individual Identification of Dairy Cows Based on Convolutional Neural Networks[J].Multimedia Tools and Applications,2019,79:1.

        [15]Simonyan K,Zisserman A.Very Deep Convolutional Net?works for Large-scale Image Recognition[J].CoRR,2014,abs/1409.1556.

        [16]He K,Zhang X,Ren S,et al.Deep Residual Learning for Image Recognition[J].IEEE Conference on Computer Vi?sion and Pattern Recognition,2016,770-778.

        [17]Howard A G,Zhu M,Chen B,et al.MobileNets:Efficient Convolutional Neural Networks for Mobile Vision Applica?tions[J].arXiv preprint arXiv,2017,1704:04861.

        [18]He K,Zhang X,Ren S,et al.Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition[J].IEEE Transactions on Pattern Analysisamp;Machine Intelli?gence,2014,8691:346-361.

        [19]Liu S,Qi L,Qin H,et al.Path Aggregation Network for In?stance Segmentation[J].IEEE/CVF Conference on Com?puter Vision and Pattern Recognition,2018,8759-8768.

        [20]M.T,R.P,Q.V.L.Efficient Det:Scalable and Efficient Object Detection[J].Proceedings of the IEEE Computer So?ciety Conference on Computer Vision and Pattern Recogni?tion,2020,10778-10787.

        [21]院老虎,常玉坤,劉家夫.基于改進(jìn)YOLOv5s的霧天場(chǎng)景車輛檢測(cè)方法[J].鄭州大學(xué)學(xué)報(bào),2023,44(3):35-41.

        Individual Cow Identification Based on Deep Learning

        WU Ruizhi1,LUO Weiping1,2

        (1.School of Mechanical Engineering and Automation,Wuhan Textile University,Wuhan Hubei 430200,China;2.Hubei Provincial Key Laboratory of Digital Textile Equipment,Wuhan Hubei 430200,China)

        Abstract:In order to realize non-contact and high-precision individual cow identification and automated management suitable for large-scale dairy farming environment,a method of individual cow identification based on YOLOv5m network model is proposed,in"which the video data captured by the camera are processed in frames,and then the redundant images are removed by using Structural Similarity algo-rithm(SSIM)and Mean Squared Error algorithm(MSE)to train and optimize the YOLOv5m model to realize the individual cow identifica-tion.Mean Squared Error(MSE)was used to remove redundant images,and 10545 labeled data were obtained after labeling and Mosaic da-ta enhancement processing,and the YOLOv5m model was trained and optimized to achieve accurate recognition of individual cows.At the same time,a YOLOv5m-based individual cow recognition detection system was also designed to verify the correctness of the algorithm and the system.The results show that when the number of training times is 300 times,the average accuracy of YOLOv5m model for individual cow recognition reaches 98.75%,which is 5.88 percentage points higher than that of YOLOv4,and it provides an important technical sup-port and application basis for the development of modern animal husbandry.

        Keywords:deep learning;individual cow identification;YOLO model;target detection

        (責(zé)任編輯:孫婷)

        猜你喜歡
        深度學(xué)習(xí)
        從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
        面向大數(shù)據(jù)遠(yuǎn)程開放實(shí)驗(yàn)平臺(tái)構(gòu)建研究
        基于自動(dòng)智能分類器的圖書館亂架圖書檢測(cè)
        搭建深度學(xué)習(xí)的三級(jí)階梯
        有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
        電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
        利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
        考試周刊(2016年94期)2016-12-12 12:15:04
        MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
        大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        爆操丝袜美女在线观看| 精品一二区| 一区二区三区日本在线| 中文字幕亚洲乱码熟女1区| 一本色道无码道在线观看| 欧美日韩亚洲成人| 少妇极品熟妇人妻高清| 蜜臀av毛片一区二区三区| 久久成人国产精品免费软件 | 亚洲黄色免费网站| 一区二区三区在线免费av| 精品人妖一区二区三区四区| 亚洲毛片αv无线播放一区| 91亚洲国产成人aⅴ毛片大全| 玩弄丝袜美腿超短裙校花| 精品国产一区二区三区亚洲人| 永久免费看黄在线观看| 人人澡人人妻人人爽人人蜜桃麻豆| 无码国产精品一区二区高潮| 国产三级黄色在线观看| 成人国产高清av一区二区三区| 黑人巨茎大战俄罗斯美女| 久久精品国产9久久综合| 蜜桃网站在线免费观看视频| 精品人妻一区二区三区不卡毛片| 一边摸一边抽搐一进一出视频| 欧美日韩亚洲tv不卡久久| av无码一区二区三| av中文字幕一区人妻| 成人aaa片一区国产精品| 中文字幕在线码一区| 日韩美女人妻一区二区三区 | 屁屁影院ccyy备用地址| 香蕉视频毛片| 日本小视频一区二区三区| 成 人色 网 站 欧美大片在线观看| 最新亚洲精品国偷自产在线| 亚洲蜜芽在线精品一区| 久久在一区二区三区视频免费观看 | 精品久久精品久久精品| 中国无码人妻丰满熟妇啪啪软件 |