亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)MaxViT的辣椒病害識(shí)別分類方法

        2024-01-01 00:00:00李西興陳佳豪吳銳楊睿
        關(guān)鍵詞:深度學(xué)習(xí)

        摘要 為實(shí)現(xiàn)復(fù)雜環(huán)境下辣椒病害的精準(zhǔn)識(shí)別和分類,設(shè)計(jì)了一種適用于辣椒病害識(shí)別分類的方法。以辣椒在生長(zhǎng)過(guò)程中常見(jiàn)的6 種病害為分類研究的對(duì)象,使用數(shù)據(jù)增強(qiáng)的方法擴(kuò)充數(shù)據(jù)集,提出一種基于MaxViT改進(jìn)的MaxViT-DF 模型,將MaxViT 模型中的普通卷積替換為可變形卷積,使模型在提取特征時(shí)能更貼近復(fù)雜環(huán)境下的識(shí)別目標(biāo);同時(shí)在MaxViT 模型施加注意力時(shí)引入特征融合模塊,提高模型的全局感知能力。結(jié)果顯示,改進(jìn)的MaxViT-DF 模型識(shí)別分類準(zhǔn)確率達(dá)到98.10%,對(duì)6 種辣椒病害的分類精度均高于95%。與ResNet-34、EfficientNetv2 和VGG-16 等模型相比,改進(jìn)模型在收斂速度和分類精度上具有明顯優(yōu)勢(shì)。以上結(jié)果表明,MaxViT-DF 模型能夠?qū)Σ煌N類的辣椒常見(jiàn)病害進(jìn)行有效的分類識(shí)別。

        關(guān)鍵詞 MaxViT-DF; 辣椒病害分類; 可變形卷積; 特征融合; 深度學(xué)習(xí)

        中圖分類號(hào) TP391.41 ; S436.418.1 文獻(xiàn)標(biāo)識(shí)碼 A 文章編號(hào) 1000-2421(2024)02-0123-11

        21 世紀(jì)以來(lái),全球辣椒種植面積與產(chǎn)量穩(wěn)步增長(zhǎng),中國(guó)辣椒產(chǎn)業(yè)也進(jìn)入了迅速發(fā)展階段。據(jù)聯(lián)合國(guó)糧食及農(nóng)業(yè)組織的統(tǒng)計(jì)數(shù)據(jù)顯示,2020 年中國(guó)辣椒產(chǎn)量約占全球產(chǎn)量的1/2,是全球最大的辣椒主產(chǎn)國(guó)[1]。在辣椒的實(shí)際種植生產(chǎn)過(guò)程中,各種病害阻礙了辣椒的正常生長(zhǎng),從而造成辣椒減產(chǎn)。因此,對(duì)辣椒常見(jiàn)病害的精準(zhǔn)識(shí)別分類可以起到及時(shí)發(fā)現(xiàn)病害、指導(dǎo)農(nóng)藥使用和減少經(jīng)濟(jì)損失等作用。傳統(tǒng)的辣椒病害識(shí)別主要是基于高光譜圖像和基于表面紋理特征的方法,上述方法依賴人工并且不利于后續(xù)農(nóng)業(yè)智能化的發(fā)展,因此亟需一種能精準(zhǔn)識(shí)別辣椒病害的方法。

        近些年來(lái)深度學(xué)習(xí)得到了快速發(fā)展,深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)[2](convolutional neural network,CNN)能充分利用計(jì)算機(jī)的計(jì)算能力,高效地提取圖像特征,在植物病害識(shí)別分類方面取得了良好的效果[3]。Sladojevic 等[4]首次利用CNN 將植物葉片與周圍環(huán)境區(qū)分開來(lái),并且在CaffeNet 模型上微調(diào)改進(jìn),改進(jìn)模型的平均識(shí)別精度達(dá)到了96.3%。張帥等[5]針對(duì)人工分析提取特征時(shí)造成的不同植物種屬差異性問(wèn)題,利用一個(gè)8 層卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)系統(tǒng)分別對(duì)簡(jiǎn)單背景和復(fù)雜背景葉片圖像進(jìn)行訓(xùn)練和識(shí)別,結(jié)果表明,使用CNN+SVM 和CNN+Softmax分類器識(shí)別方法對(duì)單一背景葉片圖像識(shí)別率分別高達(dá)91.11% 和90.90%,復(fù)雜背景葉片圖像的識(shí)別率也能達(dá)到34.38%。張善文等[6]針對(duì)在復(fù)雜的病害葉片圖像中很難選擇出對(duì)病害類型識(shí)別貢獻(xiàn)較大的有用特征這一問(wèn)題,構(gòu)建了一種深度CNN 模型,直接從歸一化后的彩色病害葉片圖像中提取高層次的抽象特征,并在輸出層進(jìn)行病害識(shí)別,結(jié)果表明,與基于特征提取的傳統(tǒng)病害識(shí)別方法相比,該方法的識(shí)別性能較高,識(shí)別分類準(zhǔn)確率達(dá)到90.32%。雖然基于CNN 識(shí)別植物病害具有識(shí)別準(zhǔn)確率高的優(yōu)勢(shì),但是受制于網(wǎng)絡(luò)架構(gòu)因素、模型參數(shù)量大、訓(xùn)練時(shí)間長(zhǎng)等特點(diǎn),模型不易使用。

        針對(duì)上述CNN 識(shí)別植物病害時(shí)模型訓(xùn)練收斂時(shí)間長(zhǎng)和參數(shù)龐大的問(wèn)題。Vishnoi 等[7]開發(fā)了一種CNN,該網(wǎng)絡(luò)由較少數(shù)量的層組成以降低計(jì)算負(fù)擔(dān),所提出的模型僅需要較少的存儲(chǔ)和計(jì)算資源便可以達(dá)到98% 的識(shí)別分類準(zhǔn)確率。Liu 等[8]使用Mobile‐NetV2 模型作為骨干網(wǎng)絡(luò)實(shí)現(xiàn)了對(duì)柑橘病害的識(shí)別,該方法在保持良好分類精度的同時(shí)減少了模型的預(yù)測(cè)時(shí)間和模型大小。為了使分類模型更容易部署到手機(jī)端,張鵬程等[9]對(duì)MobileNetV2 模型進(jìn)行了進(jìn)一步的改進(jìn),將ECA 注意力機(jī)制嵌入Mobile‐NetV2 網(wǎng)絡(luò)的反殘差結(jié)構(gòu)尾部,以增強(qiáng)原網(wǎng)絡(luò)的跨通道信息交互能力,提升原網(wǎng)絡(luò)的特征提取能力,并基于該改進(jìn)模型開發(fā)了一款邊緣計(jì)算APP,改進(jìn)模型對(duì)柑橘蟲害的分類準(zhǔn)確率達(dá)到93.63%。為了在提高檢測(cè)速度的同時(shí)提高識(shí)別分類準(zhǔn)確率,蘇俊楷等[10]在YOLOv5 模型的主干網(wǎng)絡(luò)中添加CA 注意力機(jī)制,改善目標(biāo)漏檢問(wèn)題;在頸部使用BiFPN 替代原有的PANet;并且引入Focal-EIOU Loss 損失函數(shù),在保持模型較低計(jì)算量的情況下,提升了模型的檢測(cè)速度和算法性能,改進(jìn)后的YOLOv5 模型和傳統(tǒng)的YOLOv5s 相比,平均精度上升了4.5%。為了提高模型識(shí)別病害的泛化性和精準(zhǔn)度,孫道宗等[11]在EfficientNetv2 網(wǎng)絡(luò)模型引入了遷移學(xué)習(xí)機(jī)制,并且選取MultiMarginLoss 作為模型的損失函數(shù),結(jié)果顯示,改進(jìn)模型在參數(shù)量和模型大小均下降的情況下,在存儲(chǔ)空間大小、準(zhǔn)確率和訓(xùn)練時(shí)間3 個(gè)指標(biāo)上具有明顯優(yōu)勢(shì)。

        值得注意的是,以上的植物病害識(shí)別結(jié)果都是建立在具有良好的環(huán)境和數(shù)據(jù)集的背景下得出的,其數(shù)據(jù)集背景簡(jiǎn)單并且檢測(cè)目標(biāo)較易被識(shí)別,而在日常農(nóng)業(yè)生產(chǎn)中很難有如此理想的環(huán)境。因此,為了應(yīng)對(duì)背景雜亂或有干擾物等的復(fù)雜環(huán)境下對(duì)辣椒病害進(jìn)行精準(zhǔn)識(shí)別分類的問(wèn)題,本研究選用Max‐ViT[12]作為骨干網(wǎng)絡(luò),建立了MaxViT-DF 模型,旨在保證病害特征提取能力的同時(shí)使網(wǎng)絡(luò)兼顧注意力機(jī)制以提高分類準(zhǔn)確率。

        1 材料與方法

        1.1 數(shù)據(jù)集

        本研究以炭疽病、病毒病等對(duì)辣椒生長(zhǎng)危害最嚴(yán)重的6 種病害作為研究對(duì)象,收集圖像組成基礎(chǔ)數(shù)據(jù)集,圖像背景為辣椒自然生長(zhǎng)環(huán)境,圖片背景復(fù)雜并且有干擾物,如圖1 所示。

        基礎(chǔ)數(shù)據(jù)集共收集病害2 107 張圖片(隨機(jī)劃分測(cè)試集421 張,訓(xùn)練集1 686 張)。為了避免模型沒(méi)有足夠樣例區(qū)分特征,導(dǎo)致模型在訓(xùn)練過(guò)程中出現(xiàn)過(guò)擬合現(xiàn)象,通過(guò)圖像翻轉(zhuǎn)、調(diào)整對(duì)比度、調(diào)整飽和度和調(diào)整銳度4 類數(shù)據(jù)增強(qiáng)方法對(duì)訓(xùn)練集進(jìn)行處理(圖2),獲得本識(shí)別分類方法的最終訓(xùn)練集(表1)。為了保證試驗(yàn)數(shù)據(jù)的均衡性,將6 種病害的訓(xùn)練集數(shù)量擴(kuò)大至同等規(guī)模,每種病害數(shù)據(jù)集包括560 張圖片,共3 360 張圖片。

        1.2 MaxViT模型

        MaxViT 是2022 年谷歌提出的分層Transformer模型[13],融合了注意力機(jī)制和卷積,并且提出了1 種新穎的獨(dú)立多軸注意力模塊,由阻塞的局部注意力和擴(kuò)張的全局注意力組成,具有線性復(fù)雜性的感知能力,MaxViT 在圖像分類和目標(biāo)檢測(cè)方面表現(xiàn)良好。

        MaxViT 模型如圖3 所示,輸入網(wǎng)絡(luò)的是1 張224像素× 224像素的三通道RGB 圖片,輸出為6,對(duì)應(yīng)辣椒的6 種病害。輸入的圖片首先通過(guò)2 個(gè)卷積層進(jìn)行特征提取,然后經(jīng)過(guò)4 個(gè)MaxViT block 添加注意力,在MaxViT block 中將MBConv 與注意力一起使用進(jìn)一步提高了網(wǎng)絡(luò)的泛化性和可訓(xùn)練性,再經(jīng)過(guò)池化層和全連接層輸出結(jié)果,最后將網(wǎng)絡(luò)處理后的結(jié)果輸入Softmax 分類器計(jì)算病害類別預(yù)測(cè)概率,將其中概率最大的病害作為網(wǎng)絡(luò)識(shí)別這張圖片的預(yù)測(cè)種類。

        1.3 可變形卷積模塊

        針對(duì)辣椒表面形狀復(fù)雜和病害缺陷范圍不規(guī)則的問(wèn)題,在MaxViT 模型的基礎(chǔ)上將提取特征的普通卷積層替換為可以偏移位置的可變形卷積[14]??勺冃尉矸e在采樣位置增加了1 個(gè)偏移量,相比于普通卷積,可變形卷積在采樣時(shí)可以更貼近物體的形狀和尺寸,具有更強(qiáng)的魯棒性(圖4)。

        可變形卷積結(jié)構(gòu)如圖5 所示,由普通卷積和偏移模塊組成。偏移模塊中的偏差通過(guò)1 個(gè)卷積層獲得,輸入特征圖,輸出偏差,生成通道維度是“2N”,其中“2”分別對(duì)應(yīng)平面上x 值方向和y 值方向這2 個(gè)2D 偏移,“N”是通道數(shù),一共有2 種卷積核,包括普通卷積中的卷積核以及卷積核學(xué)習(xí)offset 對(duì)應(yīng)的卷積層內(nèi)的卷積核,二者可通過(guò)雙線性插值反向傳播同時(shí)進(jìn)行參數(shù)更新。

        1.4 特征融合模塊

        MaxViT 模塊在添加注意力的同時(shí)也對(duì)特征圖進(jìn)行尺寸的縮減,為了緩解這種因?yàn)槌叽缈s減而帶來(lái)的特征損失問(wèn)題,本研究在MaxViT 模型的框架中引入了特征融合模塊。特征融合模塊結(jié)構(gòu)如圖6 所示,首先將輸入的特征圖分為2 部分,分別進(jìn)入Max‐ViT 模塊施加注意力和CBR 模塊提取特征,CBR 模塊由卷積、批量歸一化和ReLU 激活函數(shù)組成;其次將MaxViT 模塊的輸出作為下一個(gè)MaxViT 模塊的輸入繼續(xù)添加注意力,并且把MaxViT 模塊的輸出與CBR 模塊的輸出相加,將相加得到的結(jié)果作為下一個(gè)CBR 模塊的輸入繼續(xù)進(jìn)行下采樣過(guò)程;最后將MaxViT 模塊和CBR 模塊的最終輸出結(jié)果相加,作為整個(gè)特征融合模塊的輸出結(jié)果。

        1.5 MaxViT-DF模型

        為了提高辣椒病害的識(shí)別準(zhǔn)確率,將可變形卷積和特征融合模塊融合到原始MaxViT 模型中。MaxViT-DF 模型結(jié)構(gòu)如圖7 所示,用可變形卷積替代原始MaxViT 中的2 個(gè)卷積層進(jìn)行特征提取,和原始MaxViT 中的2 個(gè)卷積層一樣,可變形卷積將輸入大小為224像素× 224像素的圖片提取為112像素×112像素的特征圖,并且在提取特征的過(guò)程中更加貼近識(shí)別目標(biāo)的位置與形狀,有利于模型在后續(xù)對(duì)提取到的特征進(jìn)行準(zhǔn)確有效的學(xué)習(xí);將經(jīng)過(guò)特征提取后的特征圖放入MaxViT block 中施加注意力,同時(shí)也把特征圖放入特征融合模塊中融合全局信息,在每個(gè)特征融合的過(guò)程中,利用卷積層對(duì)數(shù)據(jù)進(jìn)行下采樣,以保證采樣后的數(shù)據(jù)大小與MaxViT block 處理后的數(shù)據(jù)大小相匹配;將4 個(gè)MaxViT block 處理后的結(jié)果和特征融合模塊處理結(jié)果相加,經(jīng)過(guò)池化層和全連接層處理輸出分類結(jié)果。

        猜你喜歡
        深度學(xué)習(xí)
        從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
        面向大數(shù)據(jù)遠(yuǎn)程開放實(shí)驗(yàn)平臺(tái)構(gòu)建研究
        基于自動(dòng)智能分類器的圖書館亂架圖書檢測(cè)
        搭建深度學(xué)習(xí)的三級(jí)階梯
        有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
        電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
        利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
        考試周刊(2016年94期)2016-12-12 12:15:04
        MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
        大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        久久久久国产精品| 国内精品久久人妻互换| 亚洲一区二区三区在线最新| 冲田杏梨av天堂一区二区三区| 日本一区二区在线免费看| 国产日韩精品欧美一区喷水| 欧美丰满大乳高跟鞋| 欧美性xxx久久| 男人的天堂av你懂得| 草色噜噜噜av在线观看香蕉| 成人网站免费大全日韩国产| 精品人伦一区二区三区蜜桃麻豆| 蜜桃码一区二区三区在线观看| 制服丝袜一区二区三区| 国产高颜值大学生情侣酒店| 欧美日韩国产成人综合在线影院| 国产视频一区二区三区免费| 亚洲色一区二区三区四区| 精品人妻少妇一区二区三区不卡 | 四川发廊丰满老熟妇| 日韩欧美一区二区三区中文精品| 一区二区三区中文字幕有码| 日本一区二区三区视频免费观看 | 吃奶摸下激烈床震视频试看| 亚洲国产成人va在线观看天堂| 免青青草免费观看视频在线| 久久综合五月天啪网亚洲精品 | 亚洲AV综合A∨一区二区| 最全精品自拍视频在线| 人妻少妇看a偷人无码| 亚洲av无码1区2区久久| 91久久综合精品国产丝袜长腿| 亚洲av成人久久精品| 婷婷亚洲岛国热超碰中文字幕| 品色永久免费| 国产精品国产自线拍免费| 内射爆草少妇精品视频| 无码成人一区二区| 无码电影在线观看一区二区三区| 少妇特殊按摩高潮对白| 国产麻豆剧果冻传媒一区|