亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        改進YOLOv5的蘋果花生長狀態(tài)檢測方法

        2022-03-02 08:32:06楊其晟李文寬楊曉峰岳琳茜李海芳
        計算機工程與應(yīng)用 2022年4期
        關(guān)鍵詞:花朵卷積特征

        楊其晟,李文寬,楊曉峰,岳琳茜,李海芳

        太原理工大學(xué) 信息與計算機學(xué)院,山西 晉中030600

        近幾年來我國經(jīng)濟林果產(chǎn)業(yè)飛速發(fā)展,蘋果作為最常見的經(jīng)濟林果之一,其規(guī)模與產(chǎn)量逐年增加,但目前經(jīng)濟林果的栽培質(zhì)量與技術(shù)仍然有待提高。在蘋果發(fā)育的整個物候期中,想要提高蘋果產(chǎn)量除了要做好土、肥、水管理和病蟲害防治外,花期管理在整個過程中也具有非常重要的地位,針對不同的花朵生長狀態(tài)進行人工干預(yù)可以有效提高坐果率和果實品質(zhì)。對于蘋果花朵生長狀態(tài)的自動檢測也成為一項具有重要價值的研究。

        目前,國內(nèi)外對經(jīng)濟林果等農(nóng)作物的自動觀測已經(jīng)展開了非常廣泛的研究,通過計算機視覺技術(shù)可以實現(xiàn)農(nóng)作物的自動化觀測,從而提高對農(nóng)作物的管理效率。目前已經(jīng)有多種方法實現(xiàn)了對蘋果的自動觀測,觀測的工作集中于對蘋果果實的檢測與產(chǎn)量估計,以及對蘋果物候期的檢測。但是,關(guān)于蘋果花期生長狀態(tài)識別方面的研究目前還存在很多不足,當前的已有成果只能單獨檢測全開的花朵而無法將各種生長狀態(tài)的花朵進行高精度的分類檢測。現(xiàn)階段對農(nóng)作物花期的自動觀測集中于圖像分割與目標檢測的手段。鄧穎等[1]使用基于Mask R-CNN 的神經(jīng)網(wǎng)絡(luò)模型完成了花朵的識別和分割任務(wù),所提出的柑橘花朵分割識別方法實現(xiàn)了對柑橘花朵目標的高效檢測。Sharma 等[2]通過對花朵的形狀分析,使用HSV 色彩空間的圖像分割和圓形擬合算法計算出的圓心提出了一種花朵自動分割與數(shù)量估算方法。劉雙喜等[3]通過分析花朵簇輪廓面積值特征,并將其作為聚類特征,建立花量的模糊聚類模型,實現(xiàn)蘋果的花朵數(shù)量估計。Dias 等[4]使用簡單線性迭代聚類(simple linear iterative clustering,SLIC)和卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks,CNN)結(jié)合的思想,提出一種對預(yù)訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)進行微調(diào)以使其對花朵敏感的花朵分割方法。鄭玉龍等[5]提出一種結(jié)合Adam及隨機梯度下降(stochastic gradient descent,SGD)的深度學(xué)習(xí)模型Resnet20,實現(xiàn)自然環(huán)境下的花朵識別。Wu等[6]在CSPDarknet53框架下構(gòu)建YOLOv4(you only look once version 4)模型,使用通道修剪算法對模型進行了修剪,從而快速、準確地檢測蘋果花。

        總結(jié)以上方法,基于通用深度學(xué)習(xí)的模型雖然在蘋果花朵檢測這一領(lǐng)域做了大量研究,且對比傳統(tǒng)方法有效提升了檢測性能,但對蘋果花朵生長狀態(tài)進行高精度檢測方面的研究尚未取得有效成果。在現(xiàn)階段模型訓(xùn)練與推理時也會占用大量的計算資源,致使無法做到低成本的學(xué)習(xí),也難以實現(xiàn)低成本、高精度的農(nóng)業(yè)自動化管理。

        在此現(xiàn)狀下,亟需一種針對蘋果花朵生長狀態(tài)的一階段檢測方法,從而實現(xiàn)對復(fù)雜場景下蘋果花朵生長狀態(tài)的檢測。因此,本文針對現(xiàn)存問題構(gòu)建了一個真實果園場景下的蘋果花期花朵圖像數(shù)據(jù)集,提出了一種改進YOLOv5的蘋果花朵生長狀態(tài)檢測方法,直接針對花朵區(qū)域,對花朵花蕾期、半開期、全開期、凋落期四種生長狀態(tài)進行識別,具有模型架構(gòu)簡單、容易訓(xùn)練、收斂快的優(yōu)勢。該方法基于YOLOv5架構(gòu),結(jié)合協(xié)同注意力機制(coordinate attention,CA)模塊[7]對主干網(wǎng)絡(luò)模塊進行改進和調(diào)整,減少模型參數(shù)并利用更多的淺層特征;設(shè)計多尺度檢測結(jié)構(gòu),提高對于小目標物體的檢測性能;融合基于分離的卷積運算[8]重新設(shè)計特征融合網(wǎng)絡(luò);使用CIoU(complete intersection over union)作為邊界框回歸的損失函數(shù)。實驗表明,本文方法對小目標檢測效果良好,可以應(yīng)對花朵半開與全開特征不明顯而導(dǎo)致的誤檢情況,并在精度上相比于基線方法都取得一定幅度提升。

        1 YOLO目標檢測模型

        目前,基于深度學(xué)習(xí)的目標檢測技術(shù)框架主要分為一階段與兩階段目標檢測器兩大類。兩階段的檢測器首先生成可能包含目標物體的候選區(qū)域,并從每個候選區(qū)域中提取特征,再對候選區(qū)域進行進一步的分類和校準,從而得到最終的結(jié)果,如Faster R-CNN[9]、Cascade R-CNN[10]等。單階段檢測器可以直接對特征圖上每個位置的目標進行分類預(yù)測,具有更高的檢測效率,如RetinaNet[11]、SSD[12]、CenterNet[13]等。兩階段檢測器通常在數(shù)據(jù)集上具有更好的檢測性能,單階段檢測器在保障檢測精度的前提下具有更高的時間效率,對硬件設(shè)備的要求更低,在農(nóng)業(yè)自動觀測領(lǐng)域具有更好的適用性。

        1.1 YOLOv5架構(gòu)

        YOLOv5 是由UitralyticsLLC 公司發(fā)布的一種單階段目標檢測算法,YOLOv5相比YOLOv4[14]而言,在檢測平均精度降低不多的基礎(chǔ)上,具有均值權(quán)重文件更小、訓(xùn)練時間和推理速度更短的特點。YOLOv5 的網(wǎng)絡(luò)結(jié)構(gòu)分為輸入端、Backbone、Neck、Head四部分。

        輸入端主要包括Mosaic 數(shù)據(jù)增強、圖片尺寸處理以及自適應(yīng)錨框計算三部分。Mosaic 數(shù)據(jù)增強將四張圖片進行組合,達到豐富圖片背景的效果;圖片尺寸處理對不同長寬的原始圖像自適應(yīng)地添加最少的黑邊,統(tǒng)一縮放為標準尺寸;自適應(yīng)錨框計算在初始錨框的基礎(chǔ)上,將輸出預(yù)測框與真實框進行比對,計算差距后再反向更新,不斷迭代參數(shù)來獲取最合適的錨框值。

        Backbone 主要包含了BottleneckCSP[15]和Focus 模塊。BottleneckCSP模塊在增強整個卷積神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)性能的同時大幅減少了計算量;Focus 模塊對圖片進行切片操作,將輸入通道擴充為原來的4 倍,并經(jīng)過一次卷積得到下采樣特征圖,在實現(xiàn)下采樣的同時減少了計算量并提升了速度,具體操作如圖1所示。

        圖1 Focus切片操作Fig.1 Focus slice operation

        Neck 中采用了特征金字塔網(wǎng)絡(luò)(feature pyramid networks,F(xiàn)PN)[16]與路徑聚合網(wǎng)絡(luò)(path aggregation network,PAN)結(jié)合的結(jié)構(gòu),將常規(guī)的FPN 層與自底向上的特征金字塔進行結(jié)合,將所提取的語義特征與位置特征進行融合,同時將主干層與檢測層進行特征融合,使模型獲取更加豐富的特征信息。

        Head 輸出一個向量,該向量具有目標對象的類別概率、對象得分和該對象邊界框的位置。檢測網(wǎng)絡(luò)由三層檢測層組成,不同尺寸的特征圖用于檢測不同尺寸的目標對象。每個檢測層輸出相應(yīng)的向量,最后生成原圖像中目標的預(yù)測邊界框和類別并進行標記。整個YOLOv5模型結(jié)構(gòu)如圖2所示。

        圖2 YOLOv5算法結(jié)構(gòu)Fig.2 YOLOv5 algorithm structure

        1.2 YOLOv5在花朵生長狀態(tài)檢測中的問題

        盡管YOLOv5 已經(jīng)具有了良好的檢測性能和推理速度,但針對本文所解決問題,仍然存在以下缺陷:

        (1)算法中主干網(wǎng)絡(luò)有較多的Bottleneck結(jié)構(gòu),卷積操作中的卷積核包含大量參數(shù),導(dǎo)致識別模型中含有大量參數(shù),增加了模型的部署成本。由于花蕾期目標較小,且小目標的物體更依賴于淺層特征,故特征提取中通過大量的卷積之后容易對小目標對象的特征提取造成一定的信息丟失。

        (2)原始模型中分別利用8倍下采樣、16倍下采樣、32倍下采樣的特征圖作為特征層去檢測目標,當輸入圖像尺寸為640×640時,大小為80×80、40×40、20×20的檢測層可以用來分別檢測大小在8×8、16×16、32×32 以上的目標,因此當某一目標在原輸入圖像中大小小于8×8時去檢測目標將會變得困難。

        (3)在路徑聚合網(wǎng)絡(luò)(path aggregation network,PANet)[17]中雖然將深層特征圖和淺層特征圖拼接來融合不同級別的特征信息,但其并未將更加底層的特征圖與高層特征圖進行融合,且未考慮特征內(nèi)部的模式冗余。

        (4)當預(yù)測框在目標框內(nèi)部且預(yù)測框大小一致時,邊界框回歸損失函數(shù)GIoU(generalized intersection over union)完全退化為IoU(intersection over union)損失函數(shù),無法實現(xiàn)高精度的定位。

        2 改進的YOLOv5算法

        針對YOLOv5 在花朵生長狀態(tài)檢測中所存在的問題,本文對模型做出如下改進來提升對花朵生長狀態(tài)的檢測效果:(1)在主干網(wǎng)絡(luò)中引入?yún)f(xié)同注意力機制,在捕獲跨通道信息的同時,還能捕獲方向感知和位置感知信息,幫助模型更加精準地定位和識別感興趣區(qū)域。對BottleneckCSP 結(jié)構(gòu)修改,并減少模塊數(shù)量來保留更多的淺層特征。(2)在原有網(wǎng)絡(luò)結(jié)構(gòu)三層檢測層的基礎(chǔ)上,添加小目標檢測層,從而提高對小目標物體的檢測性能。(3)將PANet 中更加底層的特征圖與高層特征圖進行融合,且在PANet中使用基于分離的卷積運算來消除同一層內(nèi)輸入特征圖中存在的冗余問題。(4)使用CIoU作為邊界框回歸的損失函數(shù),解決預(yù)測框在目標框內(nèi)部且預(yù)測框大小一致的情況,提高定位精度。

        2.1 主干網(wǎng)絡(luò)優(yōu)化

        2.1.1 優(yōu)化BottlenckCSP結(jié)構(gòu)

        在原始模型主干網(wǎng)絡(luò)中,小目標所具有的特征信息會隨著卷積操作而減少或者消失,從而增加了小目標物體的檢測難度。針對上述問題,本文簡化了主干網(wǎng)絡(luò)中的特征提取層,將原來主干網(wǎng)絡(luò)中BottleneckCSP 的模塊數(shù)量(×3,×9,×9,×3)變?yōu)椋ā?,×6,×6,×2)來提取更多的淺層特征信息;為了解決過多卷積核帶來參數(shù)量較大的問題,本文對BottleneckCSP的結(jié)構(gòu)進行了改進設(shè)計,刪除了原始模塊分支上的卷積層,并且將BottleneckCSP模塊的輸入特征映射與另一個分支的輸出特征圖直接連接,有效地減少了模塊中的參數(shù)數(shù)量。改進的BottleneckCSP模塊稱為BCSP_1,其結(jié)構(gòu)如圖3所示。

        圖3 BCSP_1結(jié)構(gòu)Fig.3 BCSP_1 structure

        2.1.2 引入CA協(xié)同注意力機制

        通常情況下通道注意力會給模型帶來比較顯著的性能提升,但它們通常會忽略位置信息。本文在SPP(spatial pyramid pooling)結(jié)構(gòu)[18]之后增加協(xié)同注意力機制(CA)將位置信息嵌入到通道注意力中,通過操作不僅能捕獲跨通道的信息,還能捕獲方向感知和位置感知信息,幫助模型更加精準地定位和識別感興趣的目標。CA注意力機制將通道注意力分解為兩個一維特征進行編碼,沿著不同的空間方向,分別捕獲長程依賴與精確的位置信息,編碼形成方向感知和位置敏感的注意力特征圖來互補地應(yīng)用到輸入特征圖,從而增強感興趣目標的表示,其結(jié)構(gòu)如圖4所示。

        圖4 協(xié)同注意力機制Fig.4 Coordinate attention mechanism

        協(xié)同注意力機制通過精確的位置信息對通道關(guān)系和長期依賴性進行編碼,為了實現(xiàn)坐標信息嵌入,首先通過全局平均池化分別對水平方向和垂直方向進行分解,得到兩個一維特征編碼向量。操作對應(yīng)圖4 的XAvg Pool 和YAvg Pool 部分,通過操作解決了全局池化方法難以保存位置信息的缺陷。為了利用上述操作產(chǎn)生的信息表征,首先使用Concat級聯(lián)之前模塊生成的兩個特征圖,然后使用1×1 卷積變換函數(shù)F1對其進行變換操作:

        式中[?,?]為沿空間維數(shù)的拼接操作,δ為非線性激活函數(shù),f為在水平方向和垂直方向的空間信息進行編碼的中間特征映射。沿著空間維度將f分解為兩個張量f h∈RC/r×H和f w∈RC/r×W,其中r表示下采樣比例。利用兩個1×1 卷積變換Fh和Fw分別對f h和f w進行變換,使之具有相同通道數(shù)的張量,結(jié)果如式(2)、式(3)所示:

        這里σ是sigmoid激活函數(shù)。為了降低模型的復(fù)雜性和計算開銷,通常使用適當?shù)目s減比r來減少f的通道數(shù)。然后對輸出gh和gw進行擴展,分別作為注意力權(quán)重。其最終輸出如式(4)所示:

        2.2 多尺度檢測結(jié)構(gòu)

        原有網(wǎng)絡(luò)結(jié)構(gòu)中采用三層尺度特征圖層檢測設(shè)計,對于640×640的輸入圖像尺度,分別利用8倍、16倍、32倍下采樣的特征圖作為特征層去檢測不同大小尺寸的目標。花蕾期所需檢測目標通常較小,原有多尺度檢測結(jié)構(gòu)對此類目標容易造成漏檢。因此,針對該問題改進多尺度檢測結(jié)構(gòu)以降低小目標誤檢率。

        本文在原有網(wǎng)絡(luò)結(jié)構(gòu)上增加一個特征尺度。Conv模塊由Conv2d與批量歸一化(batch normalization,BN)層以及LeakyRelu激活函數(shù)構(gòu)成。其中,Conv2d卷積核為1×1,步長為1;LeakyRelu 激活函數(shù)可以使網(wǎng)絡(luò)快速收斂,具有較高的計算效率,同時解決了傳統(tǒng)Relu激活函數(shù)在負區(qū)間導(dǎo)致神經(jīng)元不學(xué)習(xí)的問題;BN 層防止在訓(xùn)練過程中梯度消失或爆炸,加快訓(xùn)練速度。UpSample為上采樣模塊,經(jīng)過上采樣操作擴大特征圖。Concat代表張量拼接操作,通過操作擴充張量維度,完成特征融合。具體操作為:在第17層后,繼續(xù)對特征圖進行上采樣等處理,使得特征圖繼續(xù)擴大,同時在第21 層時,將獲取到的大小為160×160的特征圖與骨干網(wǎng)絡(luò)中第2層特征圖進行張量拼接融合,獲取更大的特征圖便于小目標物體的檢測。在第22層,即檢測層,增加小目標檢測層,整個模型在改進以后一共使用4層檢測層來進行檢測,設(shè)計的4個檢測尺度同時利用了底層特征高分辨率和深層特征的高語義信息,且沒有顯著增加網(wǎng)絡(luò)復(fù)雜度。

        2.3 融合基于拆分卷積的特征融合結(jié)構(gòu)

        2.3.1 基于拆分的卷積運算SPConv

        在原有PANet中,同一層內(nèi)的輸入特征圖具有相似但不完全相同的特征冗余問題,但并不存在相同的兩個通道特征,因此無法直接刪除冗余通道特征。如圖5所示,右上角為輸入圖像,其余為部分輸入特征圖,其中有許多相似特征圖。因此,選擇一些具有代表性的特征圖來補充代表性信息,而剩余的只需要補充微小的不同細節(jié)信息即可。

        圖5 部分特征圖可視化Fig.5 Partial feature map visualization

        為了確定具有類似模式的特征圖是否冗余,可以在層與層之間采取一種基于拆分的卷積操作,即SPConv(split based convolutional)。它可以消除相似特征圖中的冗余且需要較少的計算量。

        在SPConv中將輸入特征拆分為代表性部分與不確定部分,令X∈RL×h×w和Y∈RM×h×w分別表示輸入、輸出特征,其中L表示輸入通道個數(shù),M表示輸出通道個數(shù),W表示大小為k×k的卷積核,對應(yīng)的卷積計算可以描述為Y=WX+b。為簡化表示,在后續(xù)介紹中忽略了偏置項b。卷積計算的矩陣表示為式(5),其中x表示L個輸入矩陣,y代表M個輸出矩陣,Wij代表M個k×k大小卷積核的參數(shù)。

        基于拆分的卷積運算將輸入通道按比例α拆分為兩部分:代表性部分用k×k卷積來提供內(nèi)在信息;冗余性部分用1×1 卷積來補充微小的隱藏細節(jié)。矩陣表示如式(6)所示,其中前半部分是代表性部分,后半部分是冗余性部分:

        其中,y表示輸出矩陣,x表示αL個輸入矩陣,Wij表示代表性部分在αL個通道上3×3卷積核的參數(shù),wij代表冗余性部分在(1-α)L個通道上1×1 卷積核的參數(shù)(本文中α取0.5)。由于劃分卷積之后的代表性部分可以代表不同的特征類別,可以將代表性的通道進行劃分,每個部分代表一個主要的特征類別。其中在代表性通道上使用3×3的群組卷積來進一步減少冗余信息,但是這樣的操作有可能削減了必要的通道連接,故在代表性通道中添加1×1 的點卷積操作來解決此信息的丟失問題。然后將得到的兩個特征進行直接求和融合,得到一個額外的分數(shù),式(6)中代表性部分可以表示為式(7)。

        其中,是第l組的逐分組卷積的參數(shù),這里將αcl的代表性通道劃分為G組,每個組zl包括αcl/G個通道。通過前述操作得到了兩類特征,通過GAP 全局平均池化操作,生成通道級別的統(tǒng)計量S3、S1用于全局信息的嵌入,得到k個1×1 的特征圖;之后堆疊生成的S3與S1,并經(jīng)過一個全連接層,得到一個壓縮的特征向量z;然后將這個壓縮的單維度向量經(jīng)過Softmax層,重新分為兩個特征向量β、γ;之后分別與相應(yīng)的代表性部分和冗余性部分的特征向量進行通道的相乘操作,再通過張量的相加得到最后的輸出特征。具體操作如圖6所示。

        圖6 基于分離的卷積運算Fig.6 Convolution based on separation

        本文PANet中通過使用基于分離的卷積運算SPConv,在減少參數(shù)量的同時有效消除各層特征圖之間的冗余,在降低模型冗余的同時加速模型推理速度。

        2.3.2 特征融合結(jié)構(gòu)改進

        在卷積神經(jīng)網(wǎng)絡(luò)中,通過卷積核來提取圖像的特征圖,從而完成對圖像多角度的完備描述。低層特征具有更高的分辨率,目標位置較為準確,更能反映圖像的具體內(nèi)容,輪廓、邊緣、顏色、紋理和形狀特征等特征較為明顯;高層特征經(jīng)過多次卷積操作以后,具有更強的語義信息,能更好地表達人類所能夠理解的圖像信息,但其分辨率較低。通過對所構(gòu)建數(shù)據(jù)集中花朵圖像進行分析,發(fā)現(xiàn)在大多數(shù)圖像中,需要識別的蘋果樹花朵目標大部分都屬于中小尺寸情況。為了提高目標檢測網(wǎng)絡(luò)的識別性能,可以將低層特征與高層特征進行高效融合,使之在具有強語義信息的同時對細節(jié)仍有較強的感知力。

        由于本研究中改進的網(wǎng)絡(luò)架構(gòu)的第25層和第28層輸出特征圖為小型和中型對象目標檢測層的輸入特征圖,為了提高花朵的檢測準確率,彌補高層特征低分辨率造成的空間信息損失,通過融合多層來提升模型檢測性能。對原始體系結(jié)構(gòu)中輸入到小型和中型對象規(guī)模目標檢測層的特征融合進行了改進,將原始模型中14與18層的特征融合改為12與26層,配合增加檢測層之后16 與23 層的特征融合操作,將下層感受野較大的特征提取層的輸出與目標檢測層之前特征提取層的輸出融合。特征融合的操作使用Concat方法,Concat方法避免了Add 方法可能造成的信息丟失,而且不受特征圖的通道數(shù)量限制。通過在特征圖的通道進行合并,使描述圖像本身的通道數(shù)增加,達到信息增廣的效果,使模型在檢測中小尺寸目標物體時可以具有更好的檢測性能。具體網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計如圖7 所示。本文改進的YOLOv5網(wǎng)絡(luò)結(jié)構(gòu)可以更好地適應(yīng)在果園復(fù)雜場景下對花朵的檢測,同時對于花蕾期小目標的檢測準確率有一定的提升。

        圖7 改進的YOLOv5算法結(jié)構(gòu)Fig.7 Improved YOLOv5 algorithm structure

        2.4 改進損失函數(shù)

        YOLOv5 損失函數(shù)的定義如式(8)所示,其損失函數(shù)由三部分組成,分別為置信度損失lobj、分類損失lcls以及目標框和預(yù)測框的位置損失lbox。

        目標置信度誤差lobj定義如式(9)所示:

        目標分類誤差lcls定義如式(10)所示:

        目標框位置誤差lbox使用GIoU 損失函數(shù)定義如式(11)所示:

        在YOLOv5原始模型中使用GIoU_loss作為邊界框的回歸損失函數(shù),在GIoU_loss 中增加了相交尺度的衡量方式,從而解決了IoU_loss中當預(yù)測框和目標框不相交,即IoU=0的時候損失函數(shù)不可導(dǎo),從而導(dǎo)致IoU_loss無法優(yōu)化兩個框不相交的情況,同時也解決了當兩個預(yù)測框大小相同,兩個IoU 也相同時IoU_loss 無法區(qū)分兩者相交的情況。但是GIoU_loss無法解決預(yù)測框在目標框內(nèi)部且預(yù)測框大小一致的情況,因為這時預(yù)測框和目標框的差集都是相同的,所以這三種狀態(tài)的GIoU 值也都是相同的,具體情況如圖8所示。

        圖8 GIoU值相同的情況Fig.8 Same GIoU value

        因此本文采用CIoU_loss作為目標檢測任務(wù)的回歸損失函數(shù),計算公式見式(12)。CIoU_loss 中考慮了預(yù)測框與目標框之間的重疊面積和中心點距離,當目標框包裹預(yù)測框的時候,直接度量兩個框的距離,從而考慮了邊界框中心點距離的信息與邊界框?qū)捀弑鹊某叨刃畔?,與此同時也考慮了預(yù)測框和目標框的長寬比,使邊界回歸結(jié)果更好。

        其中,預(yù)測框中心點用b表示,目標框中心點用bgt表示,ρ表示歐氏距離,c代表相交的預(yù)測框與目標框之間所構(gòu)成外接最小矩形的對角線距離,α是一個權(quán)重系數(shù),v代表長寬比一致性的參數(shù),計算公式如式(13)、(14)所示:

        通過CIoU_loss解決了原始模型損失函數(shù)中預(yù)測框與目標框在不同位置完全重疊時損失值一樣的問題,使模型在回歸框定位時更加精準,提高模型的檢測性能。

        3 實驗

        3.1 數(shù)據(jù)集

        本文的數(shù)據(jù)來源于山西某農(nóng)田試驗站,參考農(nóng)業(yè)氣象觀測規(guī)范,制定適宜本地的蘋果花期觀測標準,于2019年4月(花蕾期)開始,采集至2019年5月(凋落期)結(jié)束,使用3 888×5 184 像素分辨率的田間實時監(jiān)測設(shè)備在不同花期進行圖像采集,采集時間段設(shè)定為每天8點—11 點、12 點—15 點、16 點—19 點,構(gòu)建了蘋果花期花朵不同生長狀態(tài)的圖像數(shù)據(jù)集。數(shù)據(jù)集的部分樣本如圖9所示。

        圖9 數(shù)據(jù)集部分樣本Fig.9 Data set sample

        將采集的數(shù)據(jù)進行篩選與整理,使用標記軟件labelimg對采集到的圖片中的不同生長狀態(tài)花朵圖像樣本進行標注,構(gòu)建蘋果花朵生長狀態(tài)數(shù)據(jù)集,包括標注花蕾3 301 個,半開狀態(tài)花朵1 227 個,全開狀態(tài)花朵4 193個,凋落狀態(tài)花朵1 241個。將標注好的圖像標注信息保存為.xml形式,內(nèi)容包括目標物體的類別和目標框的坐標信息,數(shù)據(jù)標注示例如圖10所示。

        圖10 花朵生長狀態(tài)標注Fig.10 Example of data set annotation

        圖11對數(shù)據(jù)集中目標框大小的分布和目標框的出現(xiàn)位置分布情況進行了可視化。圖11(a)表示將原圖圖片分辨率大小正則化以后,目標框的中心點在圖中的位置坐標分布;圖11(b)表示目標框的長寬占圖片長寬的比例。從兩圖可以看出,目標框大小不均,小目標數(shù)量大,目標出現(xiàn)位置集中于圖片的中間。

        圖11 數(shù)據(jù)集目標框分布情況Fig.11 Data set target frame distribution

        除此之外對圖像數(shù)據(jù)進行Mosaic 數(shù)據(jù)增強,其原理為把4張訓(xùn)練圖片縮放拼成一張圖,具體結(jié)果如圖12所示。通過這樣的操作,使得原本較大的目標在縮小大概50%之后變成較小的目標,從而減少對大物體的過度響應(yīng),增強模型檢測小目標的能力,在一定程度上解決了數(shù)據(jù)集中的小目標檢測問題。

        圖12 Mosaic數(shù)據(jù)增強Fig.12 Mosaic data enhancement

        3.2 實驗環(huán)境與方案設(shè)計

        本文實驗環(huán)境為Ubuntu16.0464位操作系統(tǒng),32 GB內(nèi)存,NVIDIA GeForce RTX2080Ti 顯卡,Intel?Xeon CPU E3-1231 v3@3.40 GHz 處理器,在Pytorch 1.7.1、CUDA10.2下實現(xiàn)模型的搭建及訓(xùn)練工作。

        在網(wǎng)絡(luò)訓(xùn)練前,使用K-Means 算法對先驗框尺寸進行計算,初始錨框的參數(shù)設(shè)定為[17,21,34,40,45,65]、[68,95,70,58,92,130]、[114,89,124,173,156,227]、[170,123,231,187,231,290],訓(xùn)練時,按照比例9∶1 使用腳本自動隨機劃分訓(xùn)練集和測試集。通過在大型數(shù)據(jù)集COCO上訓(xùn)練得到預(yù)訓(xùn)練模型進行權(quán)重初始化,使用SGD來優(yōu)化總體目標,訓(xùn)練批次為16,學(xué)習(xí)率設(shè)置為0.01,模型迭代300次。本文設(shè)計圖片標準尺寸為640×640×3。訓(xùn)練完成后,分別將本文方法與SSD、YOLOv3、YOLOv4、Faster R-CNN 主流檢測模型進行性能對比,分析本文方法性能。

        3.3 模型評估

        本文采用目標檢測模型常用的三項評估指標平均精度(average precision,AP)、平均精度均值(mean average precision,mAP)以及每秒傳輸幀數(shù)(frames per second,F(xiàn)PS)進行模型評估。AP指PR(Precision-Recall)曲線下面積,mAP指每個類別AP的均值,計算公式見式(15)~(18)。模型推理速度通過在使用服務(wù)器NVIDIA GeForce RTX2080Ti 顯卡環(huán)境下,對實驗圖片數(shù)據(jù)進行檢測,對100張圖像的檢測時長求均值得到。

        3.4 實驗設(shè)計與結(jié)果分析

        本文共設(shè)計兩組實驗,分別為不同改進部分對模型檢測性能的影響與主流實時檢測模型性能對比。通過兩組實驗,首先在YOLOv5架構(gòu)下分析本文不同改進部分對網(wǎng)絡(luò)性能的影響,再通過本文方法與主流檢測網(wǎng)絡(luò)SSD、YOLOv3、YOLOv4、Faster R-CNN進行性能對比,綜合分析本文方法性能。

        本文方法訓(xùn)練過程中損失變化情況如圖13 所示。由圖可以看出,前期損失值下降較快,隨著訓(xùn)練輪數(shù)的增加,Loss曲線逐漸降低,趨于平穩(wěn)。當Epoch達到250左右時算法損失降至穩(wěn)定,模型收斂,訓(xùn)練過程中未出現(xiàn)過擬合現(xiàn)象。

        圖13 Loss曲線Fig.13 Loss curve

        3.4.1 改進方法對模型性能的影響

        為了分析本文提出的改進方法對YOLOv5 算法性能的影響,設(shè)計5組實驗對不同的改進部分進行結(jié)果分析,每組實驗使用相同的訓(xùn)練參數(shù),不同方法對模型檢測性能所產(chǎn)生影響的結(jié)果如表1所示。其中,“√”代表在網(wǎng)絡(luò)模型中使用了對應(yīng)的改進策略,“×”代表在網(wǎng)絡(luò)模型中未使用對應(yīng)的改進策略。對表1進行分析可見,改進1在主干網(wǎng)絡(luò)中使用BCSP_1結(jié)構(gòu)替代原有BottleneckCSP且調(diào)整模塊數(shù)量以后,可以保證小目標可以更好地利用淺層特征,且減少了模型參數(shù)數(shù)量,使得模型在原有基礎(chǔ)上mAP有較小提升,F(xiàn)PS有較大提升。改進2在此基礎(chǔ)上引入CA機制,使模型將空間信息嵌入到通道注意力中,由于位置信息的加入,對于依賴位置信息的密集檢測任務(wù)具有更好的預(yù)測效果。改進3 加入新的檢測尺度對特征進行提取,從而產(chǎn)生更大的特征圖來預(yù)測更小的目標,使原有結(jié)構(gòu)難以檢測的較小尺寸目標可以檢出,有效提升mAP 達1.7 個百分點。改進4 針對數(shù)據(jù)集中中小目標較多的特點,使用新設(shè)計的特征融合結(jié)構(gòu),將更加底層的特征圖與高層特征圖進行融合,提高模型的特征提取能力,搭配基于分離的卷積運算來解決特征圖的冗余問題,使模型mAP 得到提高。最后改進5 引入CIoU 作為邊界框回歸的損失函數(shù),解決在原有損失函數(shù)中目標框與預(yù)測框重合情況下GIoU退化為IoU的問題,提高模型邊界框的定位精度。改進后模型的mAP 值為0.922,比改進前YOLOv5 的mAP 值高5.4個百分點,每秒傳輸幀數(shù)為93.21,與原始模型僅相差3.22,且在訓(xùn)練中需要更少的顯存。圖14為改進前后檢測結(jié)果對比。

        表1 不同改進方法的實驗結(jié)果Table 1 Experimental results of different improvement methods

        圖14 改進前后結(jié)果對比Fig.14 Comparison of results before and after improvement

        3.4.2 主流目標檢測模型性能對比

        為了驗證本文改進算法的檢測性能,將本文所改進的YOLOv5 算法與主流目標檢測模型SSD、Faster RCNN、YOLOv3、YOLOv4對比,采用mAP和FPS兩項指標對每種主流檢測算法進行評估與對比,對比實驗結(jié)果如表2 所示。由表2 分析可知,改進的YOLOv5 算法mAP達到了0.922,較原始YOLOv5算法提高5.4個百分點。結(jié)合表中對于花蕾、半開、全開、凋落四類花朵生長狀態(tài)的平均精度AP 進行分析可得,本文方法在檢測小目標物體,即花朵生長狀態(tài)處于花蕾時的AP 值比原始YOLOv5 算法提高了約5.2 個百分點,相比其他主流目標檢測網(wǎng)絡(luò)模型具有更好的檢測性能。通過特征融合結(jié)構(gòu)與多尺度檢測結(jié)構(gòu)的重新設(shè)計,使得檢測目標為花朵半開時相比原有網(wǎng)絡(luò)模型AP值提高了約10.5個百分點,全開與凋落狀態(tài)花朵檢測所得實驗AP 值也超越原有模型與主流目標檢測模型。在保證高精度檢測的同時,模型的FPS 并未出現(xiàn)大幅度下降,檢測速度與主流模型相比仍然具有一定優(yōu)勢。

        表2 主流目標檢測模型性能對比Table 2 Performance comparison of mainstream target detection models

        4 結(jié)束語

        本文針對通用深度學(xué)習(xí)目標檢測技術(shù)難以在復(fù)雜果園背景下對蘋果花朵不同生長狀態(tài)進行高精度檢測的問題,提出一種改進YOLOv5的蘋果花朵生長狀態(tài)檢測方法。該方法基于YOLOv5 網(wǎng)絡(luò)架構(gòu),結(jié)合CA 注意力模塊與改進的BSP_1模塊設(shè)計主干網(wǎng)絡(luò)提取特征;增加多尺度檢測結(jié)構(gòu)并融合基于分離的卷積運算設(shè)計了高效的目標提取網(wǎng)絡(luò);使用CIoU 作為邊框回歸的損失函數(shù),提高邊框回歸精度。實驗表明,本文所提出的檢測方法能夠準確、快速地檢測出不同生長狀態(tài)下的花朵圖像。本文方法在NVIDIA RTX 2080Ti 測試條件下mAP 達到0.922,速度為93.21 frame/s,實現(xiàn)了高精度、高速率的檢測,性能高于通用目標檢測模型,為蘋果花期管理提供了有益的幫助。下一步將在嵌入式設(shè)備上進行模型的性能改進,進一步改進網(wǎng)絡(luò)結(jié)構(gòu),以實現(xiàn)移動端實時花朵生長狀態(tài)檢測。

        猜你喜歡
        花朵卷積特征
        基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
        背上的花朵
        死亡花朵
        文苑(2020年6期)2020-06-22 08:41:46
        如何表達“特征”
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        不忠誠的四個特征
        當代陜西(2019年10期)2019-06-03 10:12:04
        基于傅里葉域卷積表示的目標跟蹤算法
        抓住特征巧觀察
        我們依賴花朵
        散文詩(2017年17期)2017-08-15 00:47:32
        一種基于卷積神經(jīng)網(wǎng)絡(luò)的性別識別方法
        最新国产精品亚洲二区| 久久久久亚洲av无码专区喷水| 国产成熟人妻换╳╳╳╳| A午夜精品福利在线| 99久久精品国产亚洲av天 | 被灌醉的日本人妻中文字幕| 日本一区二区在线播放| 日产精品久久久久久久蜜臀 | 免费视频无打码一区二区三区| 日韩精品一区二区三区中文| 国产AV无码专区亚洲AⅤ| 亚洲区精品久久一区二区三区女同| 亚洲精品第四页中文字幕| 国产亚洲成av人片在线观黄桃| 精品国产精品久久一区免费式| 国产极品喷水视频| av在线高清观看亚洲| 少妇被粗大的猛烈进出69影院一 | 亚洲欧美日韩精品高清| 成人免费视频自偷自拍| 国产在线观看自拍av| 天天躁日日躁狠狠很躁| 国产精品网站夜色| 99国语激情对白在线观看| 精品无码人妻夜人多侵犯18| 亚洲∧v久久久无码精品| 国产精品18久久久久久首页| av一区二区在线网站| 麻豆╳╳╳乱女另类| 欧美日韩国产一区二区三区地区| 国产视频一区二区三区在线看| 国产在线无码精品无码| 日日躁夜夜躁狠狠久久av| 欧美—iGAO视频网| 亚洲精品久久区二区三区蜜桃臀| 亚洲另类欧美综合久久图片区| 日本中文字幕不卡在线一区二区| 人妻少妇看a偷人无码精品| AⅤ无码精品视频| 亚洲av高清一区二区三区| 免费操逼视频|