亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于Clite-YOLOv5的雞狀態(tài)檢測算法

        2023-09-28 03:41:18初曉玉祖麗楠
        計(jì)算機(jī)測量與控制 2023年9期
        關(guān)鍵詞:卷積深度預(yù)測

        初曉玉,祖麗楠

        (青島科技大學(xué) 自動(dòng)化與電子工程學(xué)院,山東 青島 266061)

        0 引言

        1950年代開始,國外畜禽養(yǎng)殖業(yè)逐步向集約標(biāo)準(zhǔn)化過渡,規(guī)?;笄蒺B(yǎng)殖開始成為畜禽養(yǎng)殖的趨勢,其對環(huán)境的要求比較嚴(yán)格[1]。因此,畜禽環(huán)境監(jiān)控系統(tǒng)的開發(fā)從20世紀(jì)70年代開始成為了必然的發(fā)展趨勢[2]。目前,在荷蘭、美國、日本和以色列等發(fā)達(dá)國家,智能化的環(huán)境控制系統(tǒng)已經(jīng)普遍在現(xiàn)代化養(yǎng)殖場中應(yīng)用。有些先進(jìn)的智能控制系統(tǒng)甚至整合了投喂料、疫病診斷、畜禽污染物管理等功能,形成了智能養(yǎng)殖管理系統(tǒng)[3]。國內(nèi)相關(guān)技術(shù)的研發(fā)主要集中在2 000年以后,涉及畜禽環(huán)境測量與監(jiān)控、單一指標(biāo)的監(jiān)控和干預(yù)、多指標(biāo)控制策略研究、硬件開發(fā)與系統(tǒng)組建等各方面,其工作主要側(cè)重于技術(shù)研發(fā)和驗(yàn)證[4]。

        目前,機(jī)器視覺在畜牧養(yǎng)殖行業(yè)的技術(shù)研究有很多[5]。如:在羊群活動(dòng)分析任務(wù)中,F(xiàn)raess等人[6]通過計(jì)算視頻相鄰兩種中改變的像素?cái)?shù)量占總像素的比值得出羊群的活動(dòng)水平。在商業(yè)養(yǎng)殖場中,畜群的活動(dòng)和突變可能與設(shè)備故障、病害等異常情況有關(guān),將圖像轉(zhuǎn)換為動(dòng)物分布指數(shù),通過分布指數(shù)的突然變化,可以實(shí)時(shí)發(fā)現(xiàn)肉雞舍的設(shè)備故障[7]。Li等人采用Mask-RCNN算法檢測家禽的梳理行為[8]。Kashiha等人采用橢圓擬合模型的方法將鳥的輪廓從背景中提取出來[9]。Aydin等人[10]將和相機(jī)安裝在測試走廊的中央采集母雞的圖像,使用背景減法分割形狀,然后使用橢圓形狀模型定義雞的大小和方向,從而對雞的躺臥事件數(shù)(NOL)和躺臥時(shí)延(LTL)進(jìn)行分類并實(shí)時(shí)記錄。與人工計(jì)算結(jié)果相比,該自動(dòng)監(jiān)測系統(tǒng)識(shí)別NOL的準(zhǔn)確率為83%。隨后,Aydin等人通過提取特征向量對該圖像處理算法進(jìn)行改進(jìn),實(shí)現(xiàn)了更高的準(zhǔn)確性[11]。Kristensen和Cornou等人[12]設(shè)計(jì)了一種可以自動(dòng)記錄肉雞活動(dòng)的模型。在他們的研究中,他們記錄了三周內(nèi)雞的活動(dòng)水平。采用一種方法來檢測給定年齡的肉雞活動(dòng)與規(guī)定水平的偏差,以便及時(shí)通知生產(chǎn)商。Riddle等人[13]使用ImageJ和MATLAB軟件研究了每只母雞站立、躺臥、棲息、拍打翅膀和吸塵行為所需的面積。但是,這中算法需要手動(dòng)選擇完美的圖像。Zhuang等人[14]通過SVM模型對患病肉雞進(jìn)行自動(dòng)預(yù)測和分類,為獲得姿態(tài)特征,采用k均值聚類方法對圖像進(jìn)行分割,采用細(xì)化方法獲得骨架結(jié)構(gòu)。SVM模型的準(zhǔn)確率達(dá)到99.47%,優(yōu)于其他機(jī)器學(xué)習(xí)算法。De Wet等人[15]是少數(shù)幾個(gè)基于機(jī)器視覺的肉雞稱重的例子之一,他們研究了肉雞的表面積和外圍輪廓作為體重描述參數(shù)用來估計(jì)肉雞每天的體重變化。他們在表面積的預(yù)測權(quán)重上實(shí)現(xiàn)了11%的平均相對誤差。

        中國肉雞養(yǎng)殖規(guī)模飛速上漲,極大地提高了我國的肉雞產(chǎn)量[16]。高密度的規(guī)?;B(yǎng)殖同時(shí)也會(huì)對雞場的飼養(yǎng)管理方法提出更高要求,籠內(nèi)雞群的密集接觸容易產(chǎn)生疾病問題,而傳染病的出現(xiàn)會(huì)威脅整個(gè)雞場的安全生產(chǎn)[4]。因此,應(yīng)及早發(fā)現(xiàn)問題雞只并做隔離處理,防止傳染病的傳播。

        目前肉雞養(yǎng)殖中能使用環(huán)境控制系統(tǒng)自動(dòng)控制溫濕度等環(huán)境參數(shù),但對于病雞死雞的檢查仍需人工進(jìn)入雞舍查看,這種方法監(jiān)測結(jié)果往往依賴于工作人員的實(shí)際操作,首先實(shí)時(shí)性較差,不能及時(shí)清理問題雞只,其次人工的頻繁進(jìn)出查看會(huì)將細(xì)菌帶進(jìn)雞舍,影響雞群的健康生長[17]。因此從很大程度上影響了我國畜禽規(guī)模養(yǎng)殖環(huán)境測控設(shè)備的深度發(fā)展?;趫D像處理的動(dòng)物監(jiān)測系統(tǒng)可以做到自動(dòng)、無創(chuàng)、連續(xù)地監(jiān)測和識(shí)別動(dòng)物的不同行為及狀態(tài)。圖像處理技術(shù)可以同時(shí)監(jiān)測多個(gè)動(dòng)物個(gè)體、工作時(shí)長沒有限制且不會(huì)出現(xiàn)視覺疲勞,因此機(jī)器視覺在動(dòng)物監(jiān)測系統(tǒng)中的應(yīng)用將成為必然趨勢。

        上述基于機(jī)器視覺的畜牧養(yǎng)殖技術(shù)提供了多種檢測算法,但由于不同的檢測任務(wù)有不同的目標(biāo)和約束條件,難度也會(huì)有所不同。因此,上述算法并不能很好地解決雞狀態(tài)檢測問題。原因如下:1)實(shí)際應(yīng)用:上述討論的相關(guān)算法大多是基于實(shí)驗(yàn)室的理想環(huán)境,實(shí)際應(yīng)用中的限制條件更多,如拍攝角度、拍攝距離、雞群密度等。2)目標(biāo)背景復(fù)雜:籠養(yǎng)雞不同于散養(yǎng)雞,雞籠內(nèi)雞群密度較大,且多處于俯臥姿態(tài)且相機(jī)安裝高度受限,背景中雞群交錯(cuò)重疊且混有大量雞籠框架信息。3)雞眼睛目標(biāo)較?。河捎谂臄z距離和雞眼睛本身特征影響,其在圖像上的尺寸約為20*20像素,屬于小目標(biāo)檢測,難度較高。4)雞眼睛不同形態(tài)特征不明顯:在雞狀態(tài)檢測任務(wù)中,需要識(shí)別出3種形態(tài):全睜、半睜、全閉。其中半睜狀態(tài)的雞眼睛相較于全睜狀態(tài)的特征并不明顯,容易導(dǎo)致目標(biāo)分類錯(cuò)誤。

        針對以上問題,為了能夠更好地實(shí)現(xiàn)機(jī)器視覺技術(shù)在畜牧養(yǎng)殖業(yè)的實(shí)際應(yīng)用,提出基于機(jī)器視覺的雞狀態(tài)檢測算法Clite-YOLOv5。具體貢獻(xiàn)如下:

        1)改進(jìn)特征提取網(wǎng)絡(luò):提出lite-CBC3模塊,該模塊將C3模塊輕量化之后融合CBAM注意力機(jī)制,在減少參數(shù)量的同時(shí)充分利用淺層淺層卷積神經(jīng)網(wǎng)絡(luò)中特征信息的提取。

        2)改進(jìn)目標(biāo)框抑制算法:提出Fuse-NMS算法對重疊框進(jìn)行調(diào)整,該算法將置信度分?jǐn)?shù)作為權(quán)重參數(shù),對重疊框按照該權(quán)重對目標(biāo)框位置進(jìn)行精修。提高了目標(biāo)位置預(yù)測的精確度。

        3)模型輕量化:提出采用深度可分離卷積對骨干網(wǎng)絡(luò)的普通卷積進(jìn)行替換,減少模型參數(shù)量和計(jì)算量,從而更易于移動(dòng)端部署。

        1 數(shù)據(jù)集建立及處理

        以現(xiàn)代標(biāo)準(zhǔn)肉雞養(yǎng)殖場中籠養(yǎng)模式下的肉雞作為研究對象,采集了真實(shí)養(yǎng)殖環(huán)境中籠養(yǎng)雞的原始圖像。肉雞的籠養(yǎng)模式下,雞籠大小為1.2米*1米*0.6米,每個(gè)籠內(nèi)約有12只雞。

        異常雞不同于健康雞眼睛呈圓形,病雞眼睛多呈橢圓形或細(xì)長狀與健康雞只的眼睛形態(tài)有明顯區(qū)別,而死雞的眼睛呈緊閉狀態(tài)。由于正常情況下雞只閉眼以及半閉眼的狀態(tài)較少,因此現(xiàn)場采集時(shí),采用多機(jī)位架設(shè)攝像頭采集視頻流的方式對雞眼睛狀態(tài)進(jìn)行捕捉,后期對視頻流進(jìn)行抽幀,將雞只眨眼時(shí)從睜眼到閉眼的狀態(tài)進(jìn)行精確的捕捉。經(jīng)過上述步驟,共抽取到有效雞只照片2 146張,像素大小為1 920*1 080,保存格式為JPG。使用Labelimg[18]軟件對圖像進(jìn)行標(biāo)注,標(biāo)注標(biāo)簽分別為:0(全睜眼)、1(半睜眼)、2(閉眼),由于雞眼睛目標(biāo)過小,因此選擇將整個(gè)雞頭作為標(biāo)注對象,標(biāo)注示例如圖1所示。各類別數(shù)量如表1所示。

        表1 數(shù)據(jù)集各類別標(biāo)簽數(shù)量

        圖1 標(biāo)注示例

        2 YOLOv5目標(biāo)檢測算法原理

        目前目標(biāo)檢測主要分為兩類,分別是兩階段和一階段檢測算法[19],其中兩階段算法主要有RCNN系列[20],此系列算法適合精度需求較的目標(biāo)檢測任務(wù),其缺點(diǎn)是檢測速度非常慢,不能滿足實(shí)時(shí)檢測的需求[21]。一階段算法以YOLO系列為代表,此系列算法采用回歸的思想,形成了端到端的檢測網(wǎng)絡(luò)[22],因此,YOLO系列在檢測速度上有明顯的提升。根據(jù)任務(wù)背景對于的實(shí)時(shí)性需求,以YOLOv5算法為基礎(chǔ),分別針對網(wǎng)絡(luò)的特征提取能力、假陽性檢測框抑制能力以及模型的參數(shù)量3個(gè)方面進(jìn)行改進(jìn)。

        YOLOv5網(wǎng)絡(luò)結(jié)構(gòu):

        YOLOv5網(wǎng)絡(luò)結(jié)構(gòu)共包括輸入端、主干、頸部和頭部網(wǎng)絡(luò)四部分[23]。輸入端主要包括Mosaic數(shù)據(jù)增強(qiáng),自適應(yīng)錨框計(jì)算等[24]。Mosaic數(shù)據(jù)增強(qiáng)極大的豐富了檢測物體的背景;自適應(yīng)描框計(jì)算是在訓(xùn)練時(shí)對真實(shí)框相對于預(yù)測框的位置偏移反復(fù)進(jìn)行迭代更新,得到最合適的預(yù)測框[25]。在主干網(wǎng)絡(luò)中,YOLOv5采用了新的CSP-Darknet53,用于提取特征并向下級頸部網(wǎng)絡(luò)傳遞[26];頸部網(wǎng)絡(luò)將原本YOLOv4頸部網(wǎng)絡(luò)中的PAN結(jié)構(gòu)替換為增加了CSP結(jié)構(gòu)的New CSP-PAN,用于將提取的特征進(jìn)行有效的融合[27];頭部網(wǎng)絡(luò)與YOLOv3相同,用于輸出檢測的目標(biāo)信息[28]。

        3 改進(jìn)的Clite-YOLOv5算法

        雞眼睛狀態(tài)的識(shí)別算法不僅要實(shí)現(xiàn)復(fù)雜雞籠環(huán)境下的高精度目標(biāo)識(shí)別,還要考慮到嵌入式移動(dòng)硬件的部署,因此,應(yīng)盡可能地壓縮模型的參數(shù)量和計(jì)算量。為此,提出Clite-YOLOv5目標(biāo)檢測算法,如圖2所示。Clite-YOLOv5采用提出的lite-CBC3模塊重構(gòu)了主干網(wǎng)絡(luò),該模塊對C3模塊進(jìn)行了刪減并添加了輕量的CBAM注意力模塊[29],實(shí)現(xiàn)了對目標(biāo)特征更好地提取;同時(shí),改進(jìn)了DIoU-NMS算法[30],增加了重疊目標(biāo)框?qū)τ谧罱K目標(biāo)框的決定權(quán),在改善目標(biāo)檢測框被誤刪的同時(shí)提高檢測框的預(yù)測精度;使用深度可分離卷積[31]替代主干網(wǎng)絡(luò)中的普通卷積,極大地減少了模型的參數(shù)量,使其更適合在移動(dòng)端部署。

        圖2 Clite-YOLOv5結(jié)構(gòu)示意圖

        3.1 主干網(wǎng)絡(luò)重建

        對YOLOv5的主干網(wǎng)絡(luò)進(jìn)行了重構(gòu),在提高精度的同時(shí)盡可能壓縮模型大小。為了提取圖像中的特征信息,主干網(wǎng)絡(luò)中包含了大量的卷積層,但過多卷積層的堆疊并不能明顯提升模型效果,同時(shí)這些卷積層包含了大量的參數(shù),導(dǎo)致模型過于臃腫。因此改進(jìn)了主干網(wǎng)絡(luò)中的C3模塊得到lite-C3模塊,如圖3所示,將C3模塊中橋接分支上的卷積層刪除,使另一分支輸出的特征圖直接與輸入特征圖進(jìn)行拼接操作,能夠有效減少模型的參數(shù)量。

        圖3 lite-C3模塊結(jié)構(gòu)示意圖

        隨著網(wǎng)絡(luò)層數(shù)的加深,高層語義信息越能被更好的提取,但高層的特征圖的分辨率通常較低。由于雞眼睛屬于小目標(biāo),且其處于復(fù)雜的雞籠環(huán)境中,過于深層的卷積操作可能會(huì)導(dǎo)致雞眼睛的特征信息難以提取。因此,為了能夠充分利用淺層卷積神經(jīng)網(wǎng)絡(luò)中的高分別率信息,最大限度地提取淺層網(wǎng)絡(luò)中小目標(biāo)的特征信息,提出lite-CBC3模塊,該模塊在淺層特征提取階段就增加了較為輕量的注意力機(jī)制CBAM,實(shí)現(xiàn)從淺層到深層網(wǎng)絡(luò)的多特征提取,lite-CBC3模塊結(jié)構(gòu)圖如圖4所示。

        圖4 lite-CBC3模塊結(jié)構(gòu)示意圖

        lite-CBC3模塊能夠更好的區(qū)分背景與目標(biāo),提高小目標(biāo)的檢測能力,同時(shí)彌補(bǔ)刪除部分卷積層導(dǎo)致的精度略有下降的問題。

        3.2 改進(jìn)NMS算法

        YOLOv5原網(wǎng)絡(luò)中采用的是普通NMS非極大值抑制算法[32],該算法按照置信度分?jǐn)?shù),將檢測框分為最高分?jǐn)?shù)檢測框與其他檢測框,依次將其他檢測框與最高分?jǐn)?shù)框進(jìn)行IoU計(jì)算,并將IoU大于閾值的其他檢測框刪除,上述操作可以有效去掉重復(fù)的檢測框,該算法用公式(1)表示為:

        (1)

        其中:Si是置信度,BM為當(dāng)前最大置信度預(yù)測框,Bi為其他預(yù)測框,Qth為IOU閾值。

        但是當(dāng)兩個(gè)相同類別的不同物體距離接近時(shí),會(huì)因?yàn)镮OU的計(jì)算值比較大,經(jīng)過NMS處理后只剩下一個(gè)預(yù)測框,導(dǎo)致漏檢。為此,有人提出DIOU-NMS算法,該算法在計(jì)算IOU的基礎(chǔ)上添加了一個(gè)懲罰項(xiàng),將兩個(gè)框的中心點(diǎn)距離也作為過濾指標(biāo),其公式(2)如下所示:

        RDIoU=ρ2(b,bgt)/c2

        (2)

        其中:b和bgt表示兩個(gè)預(yù)測框的中心點(diǎn),ρ2(b,bgt)是兩個(gè)中心點(diǎn)之間的歐式距離,c是包含兩個(gè)預(yù)測框的最小方框的對角線長度。如果兩個(gè)預(yù)測框之間的IOU比較大,同時(shí)兩個(gè)框之間的中心距離也較大時(shí),這兩個(gè)框就都不會(huì)被過濾掉。

        從DIOU-NMS算法原理上來看,該算法可以在一定程度上解決檢測框誤刪的問題。但在雞眼睛的檢測任務(wù)中,雞舍中的雞只相互遮擋,不僅存在NMS算法誤刪檢測框的問題,同時(shí)還存在多個(gè)檢測框都不能準(zhǔn)確預(yù)測的問題。因此,提出Fuse-NMS算法,該算法對DIoU-NMS進(jìn)行了改進(jìn),保留了將要被刪除的預(yù)測框Bi,并將其與當(dāng)前最大置信度的預(yù)測框BM進(jìn)行加權(quán)融合,得到新預(yù)測框BMi的位置。新預(yù)測框BMi將根據(jù)BM和Bi的相關(guān)信息計(jì)算得到左上角及右下角坐標(biāo)點(diǎn)的位置信息,計(jì)算方法如公式(3)、(4)所示。

        f(pM,pi)=pM+(pi-pM)×Ci

        (3)

        BMiL(x,y)=(f(xML,xiL),f(yML,yiL))

        BMiR(x,y)=(f(xMR,xiR),f(yMR,yiR))

        (4)

        公式(3)中,f(pM,pi)為計(jì)算新預(yù)測框BMi橫(縱)坐標(biāo)值的函數(shù),pM為BM的橫(縱)坐標(biāo)值,pi為Bi的橫(縱)坐標(biāo)值,Ci為Bi的置信度分?jǐn)?shù);公式(4)中BMiL(x,y)為新預(yù)測框BMi左上角坐標(biāo),BMiR(x,y)為新預(yù)測框BMi右下角角坐標(biāo)。從上述公式可以看出,Bi的置信度分?jǐn)?shù)越高,對新預(yù)測框的位置影響越大,從而盡可能高質(zhì)量地保留了網(wǎng)絡(luò)對于目標(biāo)位置的預(yù)測信息,使輸出結(jié)果更加精確。

        Fuse-NMS算法流程如圖5所示,算法會(huì)根據(jù)置信度分?jǐn)?shù)對檢測框進(jìn)行排序并放入列表S,并將分?jǐn)?shù)最高的檢測框BM移入最終檢測列表F,根據(jù)公式(2)依次計(jì)算剩余檢測框Bi的Si值,對于IoU值大于閾值Qth,即Si為0的檢測框,將視為重復(fù)框并進(jìn)行加權(quán)融合,用融合后的Bmi位置信息更新列表F中的Bm;遍歷完列表S后剩余的檢測框再重新取出當(dāng)前列表中置信度分?jǐn)?shù)最高的檢測框BM,重復(fù)上述操作直至列表S為空,輸出最終檢測框列表F。

        圖5 Fuse-NMS算法流程圖

        3.3 模型輕量化

        為了能夠縮減模型的參數(shù)量和計(jì)算量,提高模型的運(yùn)行效率,提出將主干網(wǎng)絡(luò)中的普通卷積替換為深度可分離卷積。深度可分離卷積(Depthwise Separable Convolution)是一種卷積神經(jīng)網(wǎng)絡(luò)中常用的卷積操作,與傳統(tǒng)的卷積操作相比,它有著更小的參數(shù)數(shù)量和更快的計(jì)算速度,同時(shí)仍然保持著較好的性能表現(xiàn)。

        深度可分離卷積本質(zhì)上由兩個(gè)部分組成。第一個(gè)部分是深度卷積(Depthwise Convolution),它是一種僅在輸入的每個(gè)通道上獨(dú)立進(jìn)行的卷積操作,可以對每個(gè)通道單獨(dú)地提取特征,不同通道之間不會(huì)互相影響,這使得它的參數(shù)數(shù)量相較于傳統(tǒng)的卷積操作要小得多。但這一操作并不能將各通道上的信息進(jìn)行交互融合,而一個(gè)目標(biāo)的特征信息一般由多個(gè)通道的特征信息組合而成,因此需要第二個(gè)部分逐點(diǎn)卷積(Pointwise Convolution)來進(jìn)行通道維度的信息融合,它是一種多通道卷積操作,其采用1*1卷積核與生成的特征圖進(jìn)行卷積并在通道維度上進(jìn)行疊加生成一張新的特征圖,從而增強(qiáng)了卷積的非線性性。

        深度可分離卷積中深度卷積和逐點(diǎn)卷積的具體計(jì)算步驟如下:如圖6所示,假設(shè)輸入圖片的特征維度為W*H*D,其中W、H為輸入特征圖的寬高、D通道數(shù),假設(shè)深度卷積的卷積核大小為K。

        圖6 深度可分離卷積

        深度卷積(DW)的計(jì)算步驟為:對于輸入圖像的每一個(gè)通道,單獨(dú)使用一個(gè)K*K卷積核與輸入特征圖進(jìn)行卷積操作,共得到D張輸出特征圖,則深度卷積的卷積運(yùn)算量如公式(5)所示。

        FLOPs(DW)=D×W×H×K×K

        (5)

        逐點(diǎn)卷積(PW)的計(jì)算步驟為:對深度卷積輸出的特征圖(W*H*D)使用N個(gè)1*1*D卷積核進(jìn)行卷積運(yùn)算,輸出得到N個(gè)新特征圖,即完成深度可分離卷積操作。則逐點(diǎn)卷積的卷積運(yùn)算如公式(6)所示。

        FLOPs(PW)=N×W×H×D

        (6)

        經(jīng)過深度可分離卷積的總運(yùn)算量即為二者相加,如公式(7)所示。相較于普通卷積的運(yùn)算量如公式(8)所示,深度可分離卷積的運(yùn)算量大大減少。

        FLOPs(DSC)=K×K×D+D×N

        (7)

        FLOPs(C)=(2×D×K2-1)×W×H×N

        (8)

        深度可分離卷積通過深度卷積和逐點(diǎn)卷積兩個(gè)操作的組合將普通卷積計(jì)算參數(shù)量的乘法運(yùn)算轉(zhuǎn)變?yōu)榧臃ㄟ\(yùn)算,實(shí)現(xiàn)了與傳統(tǒng)卷積相似的特征提取效果,但是相對于傳統(tǒng)卷積,它具有更快的計(jì)算速度和更少的參數(shù)數(shù)量及運(yùn)算量,節(jié)省了計(jì)算和存儲(chǔ)成本,同時(shí)也減小了過擬合的風(fēng)險(xiǎn),對于輕量級計(jì)算設(shè)備等資源限制性場景有著非常好的應(yīng)用前景。

        4 實(shí)驗(yàn)分析

        4.1 實(shí)驗(yàn)環(huán)境及參數(shù)配置

        訓(xùn)練參數(shù)設(shè)置如下:初始學(xué)習(xí)率為0.01;動(dòng)量參數(shù)為0.937;權(quán)重衰減系數(shù)為0.000 5;迭代次數(shù)為300,每次迭代訓(xùn)練圖像的數(shù)量為8;輸入圖像大小為640*640。實(shí)驗(yàn)環(huán)境如表2所示。

        表2 環(huán)境配置

        4.2 評價(jià)指標(biāo)

        本研究中,采用P(Precision)、R(Recall)和mAP(mean average Precision)作為客觀評價(jià)指標(biāo)對訓(xùn)練后的雞眼睛目標(biāo)檢測模型進(jìn)行評價(jià)。各指標(biāo)計(jì)算公式分別如公式(9)、(10)、(11)所示:

        (9)

        (10)

        (11)

        其中:TP為正確識(shí)別雞眼睛目標(biāo)的數(shù)量;FP為將背景錯(cuò)誤地識(shí)別為雞眼睛目標(biāo)的數(shù)量;FN為沒有識(shí)別出雞眼睛目標(biāo)的數(shù)量;C為雞眼睛目標(biāo)類別的數(shù)量;N為測試集圖片的數(shù)量;K為IoU閾值;P(k)表示精度;R(k)為召回率。

        4.3 實(shí)驗(yàn)結(jié)果對比

        4.3.1 消融實(shí)驗(yàn)

        為驗(yàn)證提出的改進(jìn)方法的有效性,設(shè)計(jì)了消融實(shí)驗(yàn),給出了各模型的Recall、mAP、參數(shù)量以及檢測速度FPS。檢測結(jié)果如表3所示。

        表3 消融實(shí)驗(yàn)結(jié)果

        從表3中可以看出,原YOLOv5算法的mAP為85.76%,精度較低;從YOLOv5(lite-CBC3)實(shí)驗(yàn)結(jié)果可以看出,加入lite-CBC3模塊后,模型精度提升了4.67%,召回率提升了4.31%,可以看出該模塊對于雞眼睛的檢測有明顯的提升效果;實(shí)驗(yàn)YOLOv5(Fuse-NMS)將原有NMS算法替換為Fuse-NMS,從實(shí)驗(yàn)結(jié)果來看,mAP提高了3.59%,召回率提高了6.47%,在減少檢測框誤刪方面有明顯的提升效果;YOLOv5(深度可分卷積)實(shí)驗(yàn)結(jié)果表示在替換為深度可分離卷積后,模型性能略有下降,但模型的參數(shù)量大大減少,更加易于移動(dòng)的部署;Clite-YOLOv5為提出的最終模型,相較于原YOLOv5模型,提出的模型在精度上提高了7.12%,召回率提升了7.93%,參數(shù)量減少了19.79萬,同時(shí)檢測速度能夠滿足實(shí)時(shí)檢測任務(wù)的需要。

        為了能夠直觀看出模型改進(jìn)前后的檢測效果,選取了部分典型的檢測效果圖進(jìn)行相關(guān)分析。

        圖中包含了所有檢測類別,從圖8左邊的圖片中可以看出,原YOLOv5對于目標(biāo)與背景較難區(qū)分且有一定遮擋時(shí)檢測效果不佳,出現(xiàn)漏檢現(xiàn)象;圖8右邊圖像中,當(dāng)兩個(gè)目標(biāo)較為靠近時(shí)出現(xiàn)了將兩個(gè)目標(biāo)看作一個(gè)目標(biāo)的錯(cuò)誤;從圖9可以看出,提出的Clite-YOLOv5可以能夠檢測出左邊圖像中的漏檢目標(biāo),同時(shí)右邊兩個(gè)靠近的目標(biāo)也能夠?qū)崿F(xiàn)精確檢測。

        圖8 YOLOv5檢測效果圖

        圖9 Clite-YOLOv5檢測效果

        4.3.2 主流算法比較

        將提出的算法與現(xiàn)有主流算法進(jìn)行比較,實(shí)驗(yàn)結(jié)果如表4所示。從表中可以看出提出的Clite-YOLOv5模型檢測算法在檢測精度和檢測速度上都優(yōu)于其他算法。

        表4 主流算法比較結(jié)果

        5 結(jié)束語

        為實(shí)現(xiàn)移動(dòng)端部署雞狀態(tài)檢測技術(shù),提出Clite-YOLOv5雞狀態(tài)檢測模型,該模型對YOLOv5的特征提取網(wǎng)絡(luò)進(jìn)行了改進(jìn),提出了融合CBAM注意力機(jī)制的輕量化模塊lite-CBC3,輕量主干網(wǎng)絡(luò)的同時(shí)提高網(wǎng)絡(luò)對淺層特征的提取能力;提出將NMS非極大值抑制算法改為Fuse-NMS算法,該算法按照權(quán)重將重疊框信息作用于目標(biāo)框,實(shí)現(xiàn)目標(biāo)位置的微調(diào),提高目標(biāo)的定位精度;提出采用深度可分離卷積替換主干網(wǎng)絡(luò)中的普通卷積,減少模型參數(shù)量。實(shí)驗(yàn)結(jié)果表明提出的算法檢測精度與速度都優(yōu)于現(xiàn)有算法,且適合在移動(dòng)端部署。

        猜你喜歡
        卷積深度預(yù)測
        無可預(yù)測
        黃河之聲(2022年10期)2022-09-27 13:59:46
        選修2-2期中考試預(yù)測卷(A卷)
        選修2-2期中考試預(yù)測卷(B卷)
        基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
        深度理解一元一次方程
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        深度觀察
        深度觀察
        深度觀察
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        久久精品女人天堂AV一个| 亚洲av熟妇高潮30p| 宅男666在线永久免费观看 | 国产做国产爱免费视频| аⅴ资源天堂资源库在线 | 在线观看av手机网址| 国产九九在线观看播放| 台湾自拍偷区亚洲综合| 丝袜美腿精品福利在线视频| 日出白浆视频在线播放| 国产精品扒开腿做爽爽爽视频| 白天躁晚上躁麻豆视频| 人妻无码中文字幕免费视频蜜桃| 亚洲不卡无码高清视频| 极品美女尤物嫩模啪啪| 亚洲中文乱码在线观看| 91久久精品色伊人6882| 337p西西人体大胆瓣开下部| 亚洲av第一成肉网| 最新福利姬在线视频国产观看| 中文字幕手机在线精品| 日本女优在线一区二区三区| 手机福利视频| 亚洲av无码精品色午夜蛋壳| 久久精品中文字幕极品| 亚洲中文字幕亚洲中文| 亚洲av一区二区三区色多多| 高潮抽搐潮喷毛片在线播放| 国产99久久久久久免费看| 国产精品嫩草影院午夜| 国产精品一区二区三密桃| 狼狼色丁香久久女婷婷综合| 熟女人妇 成熟妇女系列视频| 久久人妻公开中文字幕| 一区二区在线视频大片| 日本亚洲系列中文字幕| 成年性生交大片免费看| 人人妻人人澡人人爽久久av| 亚州精品无码人妻久久| 国产精品不卡在线视频| 一区二区在线观看精品在线观看|