亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于YOLO v8-Tea的茶葉病害檢測(cè)方法

        2024-09-27 00:00:00賈瀛睿龍陽(yáng)胡蓉華崔艷榮桂余鵬
        江蘇農(nóng)業(yè)科學(xué) 2024年15期

        摘要:針對(duì)真實(shí)場(chǎng)景下復(fù)雜的茶葉病害特征檢測(cè)準(zhǔn)確率低、誤檢率和漏檢率高,以及難以進(jìn)行移動(dòng)設(shè)備上部署等問(wèn)題,提出一種基于YOLO v8-Tea的茶葉病害檢測(cè)算法。該算法是在YOLO v8的基礎(chǔ)上做的改進(jìn),首先,替換了C2f中的Bottleneck,采用FasterBlock來(lái)減少參數(shù)量和計(jì)算量。同時(shí),引入了多尺度注意力EMA模塊,以增強(qiáng)全局上下文信息的獲取。最后,采用BiFPN模塊,以更好地融合多尺度特征,并改進(jìn)了頸部網(wǎng)絡(luò),以提高檢測(cè)精度。結(jié)果表明,YOLO v8-Tea算法在平均精度方面比傳統(tǒng)YOLO v8n提高了5.7百分點(diǎn),從而能更準(zhǔn)確地檢測(cè)復(fù)雜的茶葉病害特征。與此同時(shí),模型的參數(shù)量和計(jì)算量分別減少了47.9%和28.4%,模型的權(quán)重文件的大小減小了45.2%,僅為3.4 M。YOLO vs-Tea算法的平均精度比經(jīng)典的YOLO系列算法中的YOLO v4-tiny、YOLO v5n、YOLO v6n、YOLO v7-tiny分別提高24.6、6.8、5.5、2.5百分點(diǎn)。這些改進(jìn)使得本研究算法更適合茶葉病害檢測(cè)任務(wù)以及在移動(dòng)設(shè)備中的高效部署。該算法在茶葉病害檢測(cè)方面取得了顯著的性能提升。通過(guò)降低參數(shù)量和計(jì)算量以及優(yōu)化模型的部署,為實(shí)際農(nóng)業(yè)場(chǎng)景中的茶葉病害檢測(cè)提供了一個(gè)更可行的解決方案,為茶葉產(chǎn)業(yè)提供了有前景的技術(shù),可以提高茶葉病害檢測(cè)的效率和準(zhǔn)確性。

        關(guān)鍵詞:茶葉病害;檢測(cè);YOLO v8-Tea;FasterBlock;EMA;BiFPN

        中圖分類(lèi)號(hào):TP391.41;TP183;S435.711  文獻(xiàn)標(biāo)志碼:A

        文章編號(hào):1002-1302(2024)15-0213-09

        收稿日期:2023-09-22

        基金項(xiàng)目:國(guó)家自然科學(xué)基金面上項(xiàng)目(編號(hào):62077018);湖北省自然科學(xué)基金(編號(hào):2023AFB082)。

        作者簡(jiǎn)介:賈瀛睿(1999—),女,吉林吉林人,碩士研究生,主要研究方向?yàn)樯疃葘W(xué)習(xí)與目標(biāo)檢測(cè)。E-mail:2022710658@yangtzeu.edu.cn。

        通信作者:胡蓉華,博士,講師,研究方向?yàn)榫W(wǎng)絡(luò)與信息安全。E-mail:hrh2016@yangtzeu.edu.cn。

        茶葉作為世界范圍內(nèi)的農(nóng)產(chǎn)品,在多個(gè)國(guó)家的經(jīng)濟(jì)和社會(huì)領(lǐng)域中扮演著至關(guān)重要的角色。其地位不僅僅因?yàn)槠湄S富的歷史和文化傳承,更因?yàn)槠湓趪?guó)內(nèi)外市場(chǎng)中的廣泛應(yīng)用,以及對(duì)數(shù)百萬(wàn)家庭的生計(jì)支持。然而,盡管對(duì)茶葉產(chǎn)業(yè)的前景看好,茶葉病害的爆發(fā)和傳播依然是一個(gè)嚴(yán)重的挑戰(zhàn)。

        為解決這些問(wèn)題,近年來(lái),機(jī)器學(xué)習(xí)和深度學(xué)習(xí)技術(shù)在茶葉病害識(shí)別領(lǐng)域取得了顯著進(jìn)展,為茶葉產(chǎn)業(yè)的可持續(xù)發(fā)展提供了新的希望。Billah等提出一種識(shí)別茶葉病害的模型,使用自適應(yīng)神經(jīng)模糊推理系統(tǒng)和顏色小波特征進(jìn)行茶病害識(shí)別,能夠準(zhǔn)確識(shí)別茶葉圖像中的病害[1]。Hossain等使用支持向量機(jī)分類(lèi)器SVM來(lái)識(shí)別茶葉病害中的褐枯病和藻葉病,提高了檢測(cè)、鑒定和分類(lèi)茶葉病害的效率[2]。Sun等提出了一種將簡(jiǎn)單線性迭代聚類(lèi)與支持向量機(jī)相結(jié)合的新方法,能夠有效從復(fù)雜背景中提取茶葉病害中顯著的特征[3]。Yang等提出了基于快速紅外熱圖像處理技術(shù)的茶病害檢測(cè),通過(guò)病害的規(guī)律性和分布實(shí)現(xiàn)了快速檢測(cè)[4]。但是,經(jīng)典機(jī)器學(xué)習(xí)方法在植物病害檢測(cè)中依賴(lài)于手工特征工程,需要專(zhuān)家知識(shí)來(lái)選擇和設(shè)計(jì)特征,而這些特征可能不適用于不同類(lèi)型的病害和植物品種。而且,在處理復(fù)雜的圖像變化和細(xì)微特征時(shí)表現(xiàn)不佳,難以適應(yīng)植物病害的多樣性和復(fù)雜性,導(dǎo)致其泛化能力有限,可能在實(shí)際應(yīng)用中面臨性能挑戰(zhàn)。

        深度學(xué)習(xí)技術(shù)通過(guò)神經(jīng)網(wǎng)絡(luò)自動(dòng)學(xué)習(xí)圖像特征,無(wú)需手工工程,能夠更好地應(yīng)對(duì)復(fù)雜的植物病害檢測(cè)任務(wù)。Hu等提出了一種在自然場(chǎng)景圖像中茶葉枯病嚴(yán)重程度的估計(jì)方法,能夠有效地從茶葉中分割出疾病斑點(diǎn)的區(qū)域,并計(jì)算初始疾病嚴(yán)重程度指數(shù)[5]。Li等將Mask R-CNN、小波變換和F-RNet融合起來(lái)構(gòu)建了一個(gè)茶葉病蟲(chóng)害癥狀識(shí)別框架,結(jié)果表明,F(xiàn)-RNet模型的準(zhǔn)確率高于AlexNet、VGG16和ResNet18等模型[6]。Xue等提出了一種基于YOLO-Tea的茶葉病蟲(chóng)害檢測(cè)模型,在光線良好的情況下能夠更好地關(guān)注茶葉病蟲(chóng)害的特征[7]。Lin等提出了一種基于注意力機(jī)制和特征融合的茶葉病害檢測(cè)模型,提高了抗復(fù)雜背景干擾的能力和全局特征提取的能力,能夠完成實(shí)時(shí)監(jiān)測(cè)[8]。

        然而,現(xiàn)有的深度學(xué)習(xí)模型仍然存在一些挑戰(zhàn)。其中,模型的訓(xùn)練時(shí)間、檢測(cè)速度以及模型的大小對(duì)于實(shí)際農(nóng)業(yè)場(chǎng)景的應(yīng)用構(gòu)成了限制。在這個(gè)背景下,本研究提出了一種基于YOLO v8-Tea的茶葉病害檢測(cè)算法,該算法通過(guò)改進(jìn)YOLO v8,旨在提高模型的檢測(cè)精度,并將模型輕量化,以滿足在移動(dòng)設(shè)備終端進(jìn)行實(shí)時(shí)監(jiān)測(cè)的需求。本研究的主要貢獻(xiàn)包括以下方面:

        (1)替換C2f中的Bottleneck為FasterBlock,有效減少了模型的參數(shù)量和計(jì)算量。這一改進(jìn)不僅提高了模型的運(yùn)行效率,還保持了檢測(cè)性能的穩(wěn)定性[9]。

        (2)添加EMA模塊,以增強(qiáng)模型對(duì)全局上下文信息的獲取能力。這有助于模型更好地理解圖像中不同尺度特征之間的關(guān)聯(lián),從而提高了檢測(cè)的準(zhǔn)確性[10]。

        (3)引入BiFPN模塊,該模塊有助于將來(lái)自不同尺度的特征信息有效地整合在一起,提高了模型對(duì)目標(biāo)的檢測(cè)和定位能力[11]。

        (4)改進(jìn)頸部網(wǎng)絡(luò),以進(jìn)一步提高檢測(cè)的精度。通過(guò)優(yōu)化頸部網(wǎng)絡(luò)的結(jié)構(gòu),成功降低了誤檢率和漏檢率,并提高了模型在實(shí)際農(nóng)業(yè)場(chǎng)景中的表現(xiàn)。

        1 材料與方法

        1.1 數(shù)據(jù)集介紹

        試驗(yàn)數(shù)據(jù)集是來(lái)源于Roboflow中的Tea leaves diseases數(shù)據(jù)集,包含1 153張真實(shí)場(chǎng)景下拍攝的茶葉病害圖片,其中包括茶葉中常見(jiàn)的藻斑病、云紋葉枯病、灰疫病3種病害。因?yàn)?張圖片中可能會(huì)存在多種病害特征,所以數(shù)據(jù)集經(jīng)過(guò)人工預(yù)處理,通過(guò)labelimg標(biāo)注軟件在原始數(shù)據(jù)集上對(duì)遺漏、偏移、錯(cuò)誤等的標(biāo)簽數(shù)據(jù)集進(jìn)行人工標(biāo)注,得到xml格式的標(biāo)注文件,進(jìn)而將xml格式文件轉(zhuǎn)為YOLO訓(xùn)練的txt格式文件,然后將數(shù)據(jù)集按照8 ∶1 ∶1進(jìn)行劃分訓(xùn)練集、驗(yàn)證集、測(cè)試集。

        1.2 YOLO v8網(wǎng)絡(luò)結(jié)構(gòu)

        YOLO v8作為最新的YOLO系列[12-19] 的模型,根據(jù)網(wǎng)絡(luò)結(jié)構(gòu)的深度和寬度可分為n、s、m、l和x共5個(gè)網(wǎng)絡(luò)模型,其中YOLO v8n是體積最小網(wǎng)絡(luò)模型,其模型結(jié)構(gòu)由輸入端、主干網(wǎng)絡(luò)、頸部、輸出端4個(gè)部分組成,具體如圖1所示。輸入端包括數(shù)據(jù)增強(qiáng)、自適應(yīng)錨框和圖片縮放等數(shù)據(jù)預(yù)處理操作;主干網(wǎng)絡(luò)部分跟YOLO v5不同的是將C3模塊換成了C2f模塊,C2f模塊通過(guò)密集的殘差結(jié)構(gòu)增強(qiáng)了卷積神經(jīng)網(wǎng)絡(luò)的特征融合能力,通過(guò)拆分和拼接操作改變了通道數(shù),使主干網(wǎng)絡(luò)更輕量化,也提高了推理速度。尾部采用的SPPF空間金字塔池化層來(lái)增強(qiáng)主干網(wǎng)絡(luò)的感受野,并融合不同尺度下的特征;頸部采用了PANet結(jié)構(gòu)和C2f模塊來(lái)進(jìn)行特征聚合,將淺層信息向深層信息進(jìn)行聚合;輸出端采用了解耦頭結(jié)構(gòu),將檢測(cè)和分類(lèi)進(jìn)行分離,根據(jù)p3、p4和p5這3個(gè)解耦頭來(lái)檢測(cè)不同尺度下的物體。

        1.3 YOLO v8-Tea網(wǎng)絡(luò)結(jié)構(gòu)

        本研究算法YOLO v8-Tea是在YOLO v8的基礎(chǔ)上做出的改進(jìn),如圖2所示。將FasterBlock和EMA整合為Faster_EMA模塊,取代C2f中的Bottleneck模塊,形成C2f_Faster_EMA,以替代原網(wǎng)絡(luò)中所有C2f模塊。然后將頸部網(wǎng)絡(luò)替換為本研究改進(jìn)的頸部網(wǎng)絡(luò),并將Fusion參數(shù)設(shè)置為本研究所采用的BiFPN結(jié)構(gòu)。

        1.3.1 FasterBlock模塊

        在YOLO v8n原始的C2f模塊中,通過(guò)堆疊很多Bottleneck結(jié)構(gòu),雖然可以使得主干網(wǎng)絡(luò)能夠?qū)W習(xí)到不同尺度下的特征,但是同時(shí)也導(dǎo)致通道信息的過(guò)度冗余和較大的計(jì)算量。在本研究算法中,為減少主干網(wǎng)絡(luò)中計(jì)算復(fù)雜度,以便于更好地充分利用設(shè)備上的計(jì)算能力,同時(shí)提高主干網(wǎng)絡(luò)的空間特征提取能力,用FasterBlock模塊替換掉了C2f中的Bottleneck結(jié)構(gòu)。

        FasterBlock模塊如圖3所示 先通過(guò)一個(gè)PConv卷積層,與常規(guī)卷積不同的是PConv在保持其他通道不變的情況下,只會(huì)在輸入通道上的一部分做常規(guī)的卷積來(lái)進(jìn)行空間特征提取。因此,這樣就會(huì)減少后續(xù)卷積層的計(jì)算和內(nèi)存訪問(wèn),使得PConv的FLOPs是常規(guī)卷積的1/16,內(nèi)存訪問(wèn)量是常規(guī)卷積的1/4。后面接著進(jìn)行了2個(gè)1×1的卷積層,來(lái)完成前面PConv未卷積的部分。第1個(gè) 1× 1卷積層用于降低特征通道的數(shù)量,以減少計(jì)算成本和參數(shù)量。接著進(jìn)行歸一化和激活函數(shù)操作,引入非線性性質(zhì),使得模型能夠?qū)W習(xí)非線性特征變換,以更好地適應(yīng)特征的復(fù)雜性。第2個(gè)1×1卷積層用于調(diào)整特征通道的數(shù)量,來(lái)保證輸入和輸出的維度統(tǒng)一,以便于后面的殘差連接。因此,在改進(jìn)的模型上很大程度減少了參數(shù)量和計(jì)算量,并提高了模型的檢測(cè)精度,在試驗(yàn)結(jié)果中也得到了驗(yàn)證。

        1.3.2 EMA注意力機(jī)制

        為了在提取特征時(shí)就考慮到通道位置和空間位置之間的相互作用,又能充分利用上下文信息,同時(shí)又一定程度上降低模型的復(fù)雜度,本研究在YOLO v8n中引入了EMA注意力模塊,如圖4所示,主要可以分為特征分組、并行子網(wǎng)、跨空間學(xué)習(xí)3個(gè)部分。

        1.3.2.1 特征分組

        首先,EMA將輸入特征圖的通道維度劃分為g個(gè)子特征,其中每個(gè)子特征都用來(lái)獲得更多的語(yǔ)義信息。并且在不損失一般性的前提下,每個(gè)注意力權(quán)重描述符都可以用來(lái)表示每個(gè)子特征中的感興趣區(qū)域。

        1.3.2.2 并行子網(wǎng)

        然后將劃分好的子特征通過(guò)一個(gè)3條平行路線的并行子網(wǎng),其中通過(guò)2個(gè)1×1分支先分別沿2個(gè)空間方向?qū)νǖ肋M(jìn)行全局平均池化操作,再通過(guò)共享權(quán)值的1×1卷積,隨后通過(guò)Sigmoid激活函數(shù)來(lái)擬合線性卷積后的二維分布,繼而跟原子特征進(jìn)行殘差連接,這樣能夠聚合多尺度空間結(jié)構(gòu)信息。3×3分支路徑通過(guò)3×3卷積來(lái)捕獲局部跨通道交互以擴(kuò)大特征空間,同時(shí)采用并行放置以實(shí)現(xiàn)快速響應(yīng)。

        1.3.2.3 跨空間學(xué)習(xí)

        在這里是引入了2個(gè)1×1分支的輸出和3×3分支的輸出來(lái)進(jìn)行不同空間維度方向的跨空間信息聚合方法。先利用組歸一化來(lái)處理1×1分支的輸出,隨后利用二維全局平均池化來(lái)進(jìn)行全局空間信息編碼,并且將最小支路的輸出轉(zhuǎn)化為對(duì)應(yīng)的維度形狀。繼而通過(guò)二維高斯映射的自然非線性函數(shù)Softmax來(lái)擬合以上的線性變換,并將輸出結(jié)果與矩陣點(diǎn)積運(yùn)算相乘,就得到了第1個(gè)空間注意力特征圖,同時(shí)也收集了不同尺度的空間信息。在處理3×3分支的輸出結(jié)果時(shí)同樣采用二維全局平均池化進(jìn)行全局空間信息的編碼,隨后經(jīng)過(guò)Softmax函數(shù),并轉(zhuǎn)換為相應(yīng)的維度形狀,就得到了第2個(gè)空間注意力特征圖。

        最后將生成的2個(gè)特征圖的權(quán)重進(jìn)行聚合,然后使用Sigmoid函數(shù),這樣最后的輸出結(jié)果即捕獲像素級(jí)的成對(duì)關(guān)系,也突出顯示所有像素的全局上下文。通過(guò)試驗(yàn)結(jié)果可得,將EMA放入到本研究改進(jìn)的模型中是有效的。

        1.3.3 BiFPN結(jié)構(gòu)

        雖然PAnet的目標(biāo)是改進(jìn)特征金字塔網(wǎng)絡(luò),但它引入了大量的額外復(fù)雜性。PAnet的多路徑聚合結(jié)構(gòu)包括多個(gè)路徑選擇和路徑權(quán)重組件,這增加了模型的復(fù)雜性和計(jì)算成本。復(fù)雜性不僅體現(xiàn)在模型的設(shè)計(jì)中,還包括訓(xùn)練和部署的難度。需要大量的計(jì)算資源來(lái)訓(xùn)練PAnet,并且在實(shí)際應(yīng)用中,部署一個(gè)復(fù)雜的模型可能會(huì)受到硬件限制。這些問(wèn)題引出了BiFPN結(jié)構(gòu)作為一種更好的替代方案的可能性。由圖5可知,BiFPN被設(shè)計(jì)為解決PAnet的復(fù)雜性問(wèn)題,同時(shí)提供更高的效率和靈活性。相對(duì)于PAnet的多路徑聚合,BiFPN引入了自適應(yīng)的連接權(quán)重,從而降低了模型的復(fù)雜性。這種自適應(yīng)性使得BiFPN更容易訓(xùn)練和調(diào)整,并且在資源有限的情況下也能夠高效運(yùn)行。

        BiFPN通過(guò)引入自適應(yīng)連接權(quán)重來(lái)簡(jiǎn)化特征金字塔網(wǎng)絡(luò),提高了效率和靈活性,同時(shí)降低了訓(xùn)練和部署的難度。因此,將PAnet替換為BiFPN可能是一個(gè)明智的選擇,在后面改進(jìn)模型的試驗(yàn)結(jié)果中也證明了其有效性。

        1.3.4 改進(jìn)頸部網(wǎng)絡(luò)

        在原始YOLO v8網(wǎng)絡(luò)結(jié)構(gòu)中,頸部網(wǎng)絡(luò)可能不夠靈活,難以適應(yīng)各種不同的任務(wù)需求,它的設(shè)計(jì)可能過(guò)于通用,不能有效地滿足特定任務(wù)的要求。這可能導(dǎo)致性能下降,尤其是在復(fù)雜的計(jì)算機(jī)視覺(jué)任務(wù)中。在許多計(jì)算機(jī)視覺(jué)任務(wù)中,多尺度信息對(duì)于準(zhǔn)確的目標(biāo)檢測(cè)非常重要。然而,原始頸部網(wǎng)絡(luò)可能沒(méi)有足夠的機(jī)制來(lái)處理不同尺度上的特征,從而可能導(dǎo)致遺漏或錯(cuò)誤檢測(cè)目標(biāo)。由于本研究使用的茶葉病害數(shù)據(jù)集中,病害的特征復(fù)雜,特征大小不統(tǒng)一,因此為了更好地滿足茶葉病害特征的目標(biāo)檢測(cè),本研究通過(guò)修改頸部網(wǎng)絡(luò)結(jié)構(gòu),來(lái)增加模型的靈活性和多尺度感知能力,使其更加適用于實(shí)際應(yīng)用場(chǎng)景。

        首先,如圖6所示,因?yàn)锽iFPN結(jié)構(gòu)中涉及到一些add(數(shù)值相加)操作,所以本研究將頸部網(wǎng)絡(luò)的通道數(shù)都固定為256,然后在原始頸部網(wǎng)絡(luò)結(jié)構(gòu)上先添加了3個(gè)卷積層,將主干網(wǎng)絡(luò)中的p2、p3、p4、p5的輸出的通道數(shù)進(jìn)行統(tǒng)一,以便于后續(xù)的融合操作。并且把主干網(wǎng)絡(luò)中的p2也給充分利用起來(lái),通過(guò)1個(gè)卷積層就能多添加1個(gè)節(jié)點(diǎn),省去了前面的操作,也能夠?yàn)槟P瓦M(jìn)一步提升多尺度感知能力。最后在頸部網(wǎng)絡(luò)后再添加了3層,分別是Conv、Fusion、C2f,這樣能夠幫助網(wǎng)絡(luò)更好地學(xué)習(xí)圖像特征,提高模型的表示能力,并且通過(guò)Fusion層來(lái)融合不同層的信息,增加多尺度目標(biāo)的感知能力。本研究改進(jìn)的頸部網(wǎng)絡(luò)中,F(xiàn)usion的融合方式有Weight、Adaptive、Concat和BiFPN這4個(gè)方式,而本研究使用的是BiFPN的方式,其有效性也2146c8e2fe6e1b197f01e6d441e9ad830b50b987d6d17616fa9bca0572d39151在后面的試驗(yàn)部分得到了證明[20]。

        2 結(jié)果與分析

        2.1 評(píng)價(jià)指標(biāo)

        本研究采用的評(píng)價(jià)指標(biāo)有Precision、Recall、mAP、參數(shù)量、計(jì)算量、模型權(quán)重大小。其中,Precision是指模型所識(shí)別的目標(biāo)中真正正確的比例。它衡量了模型的準(zhǔn)確性,高精確率表示模型更少地將錯(cuò)誤的對(duì)象識(shí)別為目標(biāo)。定義如下:

        Precision=TPTP+FP×100%。(1)

        Recall是指模型成功識(shí)別的目標(biāo)占實(shí)際目標(biāo)總數(shù)的比例。它衡量了模型是否能夠捕獲到所有實(shí)際目標(biāo),高召回率表示模型漏掉的目標(biāo)較少。定義如下:

        Recall=TPTP+FN×100%。(2)

        式中:TP表示檢測(cè)結(jié)果中正確目標(biāo)的個(gè)數(shù),F(xiàn)P表示檢測(cè)結(jié)果中錯(cuò)誤目標(biāo)的個(gè)數(shù),F(xiàn)N表示正確目標(biāo)中缺失目標(biāo)的個(gè)數(shù)。

        mAP是一種綜合評(píng)價(jià)指標(biāo),它考慮了不同類(lèi)別的精確率和召回率,并計(jì)算它們的平均值。較高的mAP表示模型在多個(gè)類(lèi)別上表現(xiàn)良好。定義如下:

        mAP=1n∑ni=1∫10Precision(Recall)d(Recall)。(3)

        參數(shù)量表示模型的復(fù)雜度,較低的值通常表示模型更輕量化,有助于在資源有限的情況下部署。計(jì)算量是模型進(jìn)行推理所需的浮點(diǎn)運(yùn)算次數(shù)的度量。它可以幫助評(píng)估模型的計(jì)算資源需求,對(duì)于在嵌入式設(shè)備或云計(jì)算環(huán)境中部署模型非常有用。模型權(quán)重大小即存儲(chǔ)模型所需的內(nèi)存空間,較小的模型大小通常意味著更輕量化和更容易部署。

        2.2 試驗(yàn)環(huán)境配置

        本試驗(yàn)是使用PyTorch作為網(wǎng)絡(luò)框架,硬件環(huán)境配置為NVIDIA GeForce RTX 3080,顯存12 G,編譯環(huán)境為Python 3.8.16+torch 2.0.0+CUDA1 1.8。在訓(xùn)練時(shí),超參數(shù)設(shè)置批大小為32,訓(xùn)練周期為300,初始學(xué)習(xí)率為0.01。試驗(yàn)時(shí)間為2023年7—9月,試驗(yàn)地點(diǎn)為長(zhǎng)江大學(xué)農(nóng)學(xué)院與計(jì)算機(jī)科學(xué)學(xué)院。

        2.3 消融試驗(yàn)

        2.3.1 FasterBlock和新頸部消融試驗(yàn)

        為驗(yàn)證用FasterBlock模塊替換掉Bottleneck模塊和改進(jìn)的頸部網(wǎng)絡(luò)對(duì)網(wǎng)絡(luò)性能的影響,設(shè)計(jì)了如表1所示的消融試驗(yàn)??梢钥闯?,改進(jìn)1和改進(jìn)2分別將改進(jìn)后的新頸部和FasterBlock引入到原YOLO v8n模型后,根據(jù)它們的結(jié)構(gòu)特性,模型權(quán)重大小、參數(shù)量和計(jì)算量都有所下降,而且模型精度也有所提升。改進(jìn)3是將2個(gè)改進(jìn)點(diǎn)融合的試驗(yàn)結(jié)果,雖然模型的精度僅提升了0.5百分點(diǎn),但是模型的權(quán)重、參數(shù)量和計(jì)算量比改進(jìn)1和改進(jìn)2都要少。因此,根據(jù)試驗(yàn)結(jié)果可證明這2個(gè)改進(jìn)的有效性。

        2.3.2 EMA消融試驗(yàn)

        本研究引入EMA注意力機(jī)制后,為驗(yàn)證其在不同位置與網(wǎng)絡(luò)性能的關(guān)系,設(shè)計(jì)了表2所示的消融試驗(yàn)??梢钥闯?,改進(jìn)1和改進(jìn)2將EMA融入到原始頸部網(wǎng)絡(luò)和主干網(wǎng)絡(luò)后,雖然mAP有所提升,但是對(duì)模型的權(quán)重、參數(shù)量和計(jì)算量影響不大,并沒(méi)有下降。隨后改進(jìn)3和改進(jìn)4是在C2f替換了FasterBlock之后EMA融入到原始頸部網(wǎng)絡(luò)和主干網(wǎng)絡(luò)所得的結(jié)果,在改進(jìn)1和改進(jìn)2的基礎(chǔ)上,模型的權(quán)重大小、參數(shù)量和計(jì)算量都有所下降。最后改進(jìn)5是將EMA融入到FasterBlock模塊中,結(jié)果表明,在改進(jìn)3和改進(jìn)4的基礎(chǔ)上,模型的mAP又有所提升,可得出將EMA融入到FasterBlock模塊中是最有效的。

        2.3.3 最終消融試驗(yàn)

        為驗(yàn)證本研究所有改進(jìn)點(diǎn)的有效性,建立了改進(jìn)1、改進(jìn)2、改進(jìn)3、YOLO v8-Tea這4個(gè)模型進(jìn)行試驗(yàn)。改進(jìn)1是將所有的C2f中的Bottleneck模塊替換為FasterBlock模塊;改進(jìn)2是在FasterBlock中加入了EMA注意力機(jī)制;改進(jìn)3是在前面改進(jìn)基礎(chǔ)上將頸部網(wǎng)絡(luò)替換為新的頸部網(wǎng)絡(luò);最后,YOLO v8-Tea是本研究的改進(jìn)算法,將4個(gè)改進(jìn)點(diǎn)融合起來(lái)。由表3可看出,本研究的YOLO v8-Tea相較于原始YOLO v8n,mAP50提升了5.7百分點(diǎn),參數(shù)量減少47.9%,計(jì)算量降低了28.4%,模型的權(quán)重減少了45.2%。試驗(yàn)結(jié)果表明,本研究算法有效地降低了模型在移動(dòng)終端部署難度與成本,并且使得算法在檢測(cè)茶葉病害的精度上有了較大的提升。

        2.4 對(duì)比試驗(yàn)

        由表4可知,通過(guò)對(duì)比所有模型的性能指標(biāo),可以清晰地看出本研究提出的YOLO v8-Tea算法在目標(biāo)檢測(cè)任務(wù)中具有明顯優(yōu)越性。首先 YOLO v8-Tea 的mAP50達(dá)到了75.0%,明顯高于其他模型,表明其在物體定位方面具有出色的準(zhǔn)確性。與Faster RCNN相比,YOLO v8-Tea的性能提高了超過(guò)20百分點(diǎn),這意味著它在檢測(cè)較難的物體上表現(xiàn)出了更好的性能,具備更高的魯棒性[21]。此外,YOLO v8-Tea在模型參數(shù)量、計(jì)算復(fù)雜度和模型大小方面也表現(xiàn)出眾。它具有僅1.567 M的模型參數(shù)量,相對(duì)較小的模型體積,適合嵌入式設(shè)備和移動(dòng)端應(yīng)用。同時(shí),它的計(jì)算復(fù)雜度只有5.8 G,這意味著在保持高性能的同時(shí),能夠?qū)崿F(xiàn)快速的推理速度。

        綜上所述,本研究提出的YOLO v8-Tea算法在mAP、參數(shù)量、計(jì)算復(fù)雜度和模型大小等多個(gè)方面均表現(xiàn)出較大的優(yōu)勢(shì),具有高性能和輕量化特性,使其在茶葉病害檢測(cè)中具有廣泛的應(yīng)用潛力。

        2.5 可視化結(jié)果分析

        為直觀體現(xiàn)本研究算法的有效性,通過(guò)對(duì)比5組圖片,分別使用傳統(tǒng)的YOLO v8n算法和本研究算法YOLO v8-Tea對(duì)5張?jiān)紙D片進(jìn)行檢測(cè),詳見(jiàn)圖7。從對(duì)比圖中可以看出,YOLO v8-Tea較原始YOLO v8n的檢測(cè)精度有所提升。通過(guò)第2組和第3組對(duì)比圖可以看出,原始YOLO v8n在復(fù)雜環(huán)境中將經(jīng)陽(yáng)光暴曬的茶葉和枝干誤檢。通過(guò)第4組和第5組對(duì)比圖可以看出,原始YOLO v8n存在漏檢,而YOLO v8-Tea對(duì)茶葉病害特征的注意力更為集中,提高了病害特征的識(shí)別率??偟膩?lái)說(shuō),改進(jìn)后的算法在提高精度的同時(shí),還減少了誤檢率和漏檢率,更適合在真實(shí)的復(fù)雜場(chǎng)景中對(duì)茶葉病害進(jìn)行檢測(cè)。

        3 結(jié)論

        針對(duì)真實(shí)場(chǎng)景下茶葉病害檢測(cè)的識(shí)別任務(wù),本研究提出了一種基于YOLO v8-Tea的茶葉病害檢測(cè)方法。首先,通過(guò)用Faster block模塊替換Bottleneck模塊和引入新頸部網(wǎng)絡(luò),觀察到模型的性能在精度方面有所提高,同時(shí)參數(shù)量、計(jì)算復(fù)雜度和模型大小都有所減少。這表明這些改進(jìn)點(diǎn)在提高模型性能的同時(shí)也有助于輕量化。其次,本研究引入了EMA注意力機(jī)制,并進(jìn)行了一系列消融試驗(yàn),以探討其在不同位置融入網(wǎng)絡(luò)的影響。結(jié)果表明,在將EMA注意力機(jī)制融入到C2f_Faster模塊中時(shí),模型性能獲得了最大提升。最后,與其他相關(guān)模型相比,YOLO v8-Tea在mAP50和mAP50~95 方面都表現(xiàn)出色,分別達(dá)到了75.0%和51.6%,模型參數(shù)量?jī)H為1.567 M,計(jì)算復(fù)雜度為5.8 G,模型權(quán)重比原始YOLO v8n減少了45.2%。這使得YOLO v8-Tea成為一種出色的目標(biāo)檢測(cè)算法,適用于多種應(yīng)用場(chǎng)景,包括嵌入式系統(tǒng)和移動(dòng)端應(yīng)用。

        綜上所述,本研究提出的YOLO v8-Tea算法在目標(biāo)檢測(cè)任務(wù)中取得了較好的性能優(yōu)勢(shì),同時(shí)實(shí)現(xiàn)了模型的輕量化,為真實(shí)場(chǎng)景下茶葉病害檢測(cè)的應(yīng)用提供了更高效、更準(zhǔn)確的解決方案。未來(lái)的研究方向可以包括進(jìn)一步優(yōu)化算法、提高茶葉病害的檢測(cè)精度以及在實(shí)際中部署到移動(dòng)設(shè)備中進(jìn)行茶葉病害的檢測(cè)。

        參考文獻(xiàn):

        [1]Billah M,Badrul M,Hanifa A,et al. Adaptive neuro fuzzy inference system based tea leaf disease recognition using color wavelet features[J]. Communications on Applied Electronics,2015,3(5):1-4.

        [2]Hossain S,Mou R M,Hasan M M,et al. Recognition and detection of tea leafs diseases using support vector machine[C]//2018 IEEE 14th International Colloquium on Signal Processing & Its Applications (CSPA).Penang,Malaysia:IEEE,2018:150-154.

        [3]Sun Y Y,Jiang Z H,Zhang L P,et al. SLIC_SVM based leaf diseases saliency map extraction of tea plant[J]. Computers and Electronics in Agriculture,2019,157:102-109.

        [4]Yang N,Yuan M F,Wang P,et al. Tea diseases detection based on fast infrared thermal image processing technology[J]. Journal of the Science of Food and Agriculture,2019,99(7):3459-3466.

        [5]Hu G S,Wei K,Zhang Y,et al. Estimation of tea leaf blight severity in natural scene images[J]. Precision Agriculture,2021,22(4):1239-1262.

        [6]Li H,Shi H T,Du A H,et al. Symptom recognition of disease and insect damage based on Mask R-CNN,wavelet transform,and F-RNet[J]. Frontiers in Plant Science,2022,13:922797.

        [7]Xue Z Y,Xu R J,Bai D,et al. YOLO-tea:a tea disease detection model improved by YOLO v5[J]. Forests,2023,14(2):415.

        [8]Lin J,Bai D,Xu R J,et al. TSBA-YOLO:an improved tea diseases detection model based on attention mechanisms and feature fusion[J]. Forests,2023,14(3):619.

        [9]Chen J R,Kao S H,He H,et al. Run,dont walk:chasing higher FLOPS for faster neural networks[C]//2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).Vancouver,BC,Canada:IEEE,2023:12021-12031.

        [10]Ouyang D L,He S,Zhang G Z,et al. Efficient multi-scale attention module with cross-spatial learning[C]//2023-2023 IEEE International Conference on Acoustics,Speech and Signal Processing (ICASSP).Rhodes Island,Greece.IEEE,2023:1-5.

        [11]Tan M X,Pang R M,Le Q V.EfficientDet:scalable and efficient object detection[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Seattle,WA,USA:IEEE,2020:10781-10790.

        [12]Redmon J,Divvala S,Girshick R,et al. You only look once:unified,real-time object detection[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).Las Vegas,NV,USA:IEEE,2016:779-788.

        [13]Redmon J,F(xiàn)arhadi A. YOLO 9000:better,faster,stronger[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).Honolulu,HI,USA:IEEE,2017:6517-6525.

        [14]Redmon J,F(xiàn)arhadi A. YOLO v3:an incremental improvement[EB/OL]. (2018-04-08)[2023-09-01].http://arxiv.org/abs/1804.02767.

        [15]Bochkovskiy A,Wang C Y,Liao H Y M. YOLO v4:optimal speed and accuracy of object detection[EB/OL]. (2020-04-23)[2023-09-01]. http://arxiv.org/abs/2004.10934.

        [16]Ge Z,Liu S T,Wang F,et al. YOLOX:exceeding YOLO series in 2021[EB/OL]. (2021-07-18)[2023-09-01]. http://arxiv.org/abs/2107.08430.

        [17]Li C Y,Li L L,Jiang H L,et al. YOLO v6:a single-stage object detection framework for industrial applications[EB/OL]. (2022-09-07)[2023-09-01]. https://arxiv.org/abs/2209.02976.

        [18]Wang C Y,Bochkovskiy A,Liao H Y M. YOLO v7:trainable bag-of-freebies sets new state-of-the-art for real-time object detectors[C]//2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).Vancouver,BC,Canada:IEEE,2023:7464-7475.

        [19]Xu X Z,Jiang Y Q,Chen W H,et al. DAMO-YOLO:a report on real-time object detection design[EB/OL]. (2022-11-23)[2023-09-01]. http://arxiv.org/abs/2211.15444.

        [20]Xiao J,Zhao T,Yao Y,et al. Chen,Y. Context augmentation and feature refinement network for tiny object detection[C]//Proceedings of the ICLR 2022 Conference. Virtual,2022:25-29.

        [21]Ren S,He K,Girshick R,et al. Faster R-CNN:towards real-time object detection with region proposal networks[J]. IEEE Trans Pattern Anal Mach Intell,2017,39(6):1137-1149.

        成人免费无遮挡在线播放| 中文字幕亚洲乱亚洲乱妇| 亚洲av日韩av高潮潮喷无码| 久久亚洲av永久无码精品| 成美女黄网站18禁免费| 少妇性l交大片免费1一少| 亚洲国产一区二区三区| 日本av在线一区二区| 亚洲精品tv久久久久久久久久| 国产亚洲av综合人人澡精品| 欧美性猛交xxxx黑人猛交| 野外三级国产在线观看| 亚洲免费人成网站在线观看 | 中文字幕一区二区三区精华液| 日韩AV无码一区二区三不卡| 免费无遮挡毛片中文字幕| 国产九色AV刺激露脸对白| 伊人久久婷婷综合五月97色| av天堂在线免费播放| 久久免费精品日本久久中文字幕| 嗯啊好爽高潮了在线观看| 亚洲性久久久影院| 成人黄色网址| 在线观看视频亚洲| 久久成人永久免费播放| 久久精品亚洲国产成人av| 在线播放草猛免费视频| 久久精品www人人爽人人| 处破痛哭a√18成年片免费| 麻豆国产VA免费精品高清在线| 一区二区三区观看视频在线| 免费无遮挡无码永久在线观看视频| 99久久99久久精品免费看蜜桃| 丰满少妇大力进入av亚洲| 国产成人综合久久精品推荐免费| 青青草免费视频一区二区| 99国产精品久久久久久久成人热| 欧美人做人爱a全程免费| 极品美女扒开粉嫩小泬| 免费福利视频二区三区| 清纯唯美亚洲经典中文字幕|