亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深層連接注意力機(jī)制的田間雜草識(shí)別方法

        2022-03-22 03:37:28疏雅麗張國(guó)偉徐曉康
        關(guān)鍵詞:雜草機(jī)制特征

        疏雅麗,張國(guó)偉,王 博,徐曉康

        上海電力大學(xué) 自動(dòng)化工程學(xué)院,上海 200082

        我國(guó)雜草眾多、分類(lèi)廣泛,與作物爭(zhēng)奪光肥水的營(yíng)養(yǎng),造成作物產(chǎn)量的降低和品質(zhì)的下降。據(jù)統(tǒng)計(jì),我國(guó)因雜草危害造成的損失達(dá)到糧食總量的10%左右,因此如何高效地除草一直是人們的研究重點(diǎn)[1-3]。除草主要分為兩種:機(jī)械除草和化學(xué)除草。機(jī)械除草泛化性低,不具備處理各種作物伴生雜草的合適機(jī)具,容易在移動(dòng)過(guò)程中損害作物,化學(xué)除草是農(nóng)業(yè)除草的主要方式,采用傳統(tǒng)的全淋式噴灑,造成大量農(nóng)藥的浪費(fèi)以及土地和水源的污染。隨著國(guó)家對(duì)智慧農(nóng)業(yè)的推動(dòng),精確噴灑農(nóng)藥是農(nóng)業(yè)除草技術(shù)發(fā)展的必然趨勢(shì),對(duì)農(nóng)作物的產(chǎn)量和環(huán)境的保護(hù)有著十分重要的意義。

        近年來(lái),深度學(xué)習(xí)網(wǎng)絡(luò)在許多領(lǐng)域都有著較好的表現(xiàn),經(jīng)典的CNN網(wǎng)絡(luò)從LetNet(5層)和AlexNet(8層)發(fā)展到VGGNet(16~19層),再到后來(lái)GoogleNet(22層),廣大學(xué)者探索深度學(xué)習(xí)的深度與模型性能之間的關(guān)系,發(fā)現(xiàn)傳統(tǒng)的CNN網(wǎng)絡(luò)結(jié)構(gòu)通過(guò)層數(shù)的加深可以增加非線(xiàn)性的表達(dá)能力,但到達(dá)一定的深度后,添加層數(shù)反而會(huì)緩慢網(wǎng)絡(luò)收斂速度和降低分類(lèi)的準(zhǔn)確率[4-6]。針對(duì)此類(lèi)現(xiàn)象,He等[7]于2015年提出了一種殘差網(wǎng)絡(luò),通過(guò)shortcut(捷徑分支)避免網(wǎng)絡(luò)的退化,從而可以加深網(wǎng)絡(luò)的深度,提高模型的準(zhǔn)確率。由于其優(yōu)異的性能,研究者提出多種方式來(lái)提高殘差網(wǎng)絡(luò)的性能,左羽等[8]融合植物的宏觀(guān)上整體輪廓和微觀(guān)上局部紋理特征,采用密集型殘差網(wǎng)絡(luò)提取植物全面的植物特征,增加了模型提取特征的能力,但是訓(xùn)練過(guò)程需要花費(fèi)大量的時(shí)間;陳加敏等[9]利用金字塔卷積改進(jìn)殘差網(wǎng)絡(luò)提取圖片的全局特征信息,并融入空間注意力機(jī)制和通道注意力機(jī)制聚焦局部特征,取得較好的實(shí)驗(yàn)效果,但是增加了模型的參數(shù)量和復(fù)雜度;曾偉輝等[10]通過(guò)級(jí)聯(lián)殘差網(wǎng)絡(luò)的輸出豐富病害的特征表達(dá),并利用參數(shù)共享反饋機(jī)制優(yōu)化模型,具有很好的魯棒性,但計(jì)算資源消耗較大。目前,注意力機(jī)制成為現(xiàn)在的一大熱點(diǎn),如SE、SK、CBAM等注意力機(jī)制,廣泛應(yīng)用到各種深度模型中,聚焦于圖像中的局部信息從而提高模型的性能,但是這些注意力機(jī)制[11]僅從當(dāng)前的特征圖中提取信息,額外信息的缺乏反而影響其辨別能力。

        針對(duì)田間雜草識(shí)別問(wèn)題,本文提出了一種改進(jìn)殘差塊結(jié)構(gòu)和注意力機(jī)制的雜草識(shí)別模型,以殘差網(wǎng)絡(luò)為基礎(chǔ),改進(jìn)殘差塊結(jié)構(gòu),采用遷移學(xué)習(xí)[12-14]策略,載入部分ImageNet權(quán)重參數(shù),僅訓(xùn)練高層特征提取層,并引入輕量級(jí)的注意力機(jī)制(efficient channel attention,ECA)和連接注意力機(jī)制模塊(deep connected attention,DCA),在復(fù)雜環(huán)境下高效準(zhǔn)確的識(shí)別雜草種類(lèi),對(duì)于小樣本的田間雜草識(shí)別提供很好的理論支持。

        1 殘差網(wǎng)絡(luò)

        1.1 基本的網(wǎng)絡(luò)結(jié)構(gòu)

        雜草圖像的識(shí)別相比于一般物體更具有挑戰(zhàn)性,由于光照、角度等條件的影響,同一種植物呈現(xiàn)不同的姿態(tài),而且同科的植物形態(tài)特征存在著一定的相似性,給圖像識(shí)別帶來(lái)了更大的挑戰(zhàn)。此時(shí)低維淺層特征不能提供足夠的特征的信息識(shí)別雜草,深層的網(wǎng)絡(luò)可以提取圖片的高維抽象的特征,Resnet網(wǎng)絡(luò)的殘差結(jié)構(gòu)在加深網(wǎng)絡(luò)的同時(shí)有效解決梯度爆炸或者梯度消失問(wèn)題,在圖像分類(lèi)、目標(biāo)識(shí)別領(lǐng)域都有著突出的成就,很多研究都是建立在Resnet50或者Resnet101的基礎(chǔ)上完成的?;诂F(xiàn)有的數(shù)據(jù)集和設(shè)備,實(shí)驗(yàn)對(duì)比不同深度的殘差網(wǎng)絡(luò),選取了Resnet50的網(wǎng)絡(luò)模型進(jìn)行雜草的識(shí)別。

        Resnet50網(wǎng)絡(luò)共有50層,包括49個(gè)卷積層和1個(gè)全連接層。輸入尺寸為224×224×3的彩色圖像,首先經(jīng)過(guò)一個(gè)大小為7×7的卷積核和最大池化層,然后通過(guò)多層殘差塊的堆積,提取圖片的特征信息,最后緊跟平均池化層和全連接層,使用Softmax計(jì)算測(cè)試集圖片屬于各個(gè)類(lèi)別的概率,完成雜草的分類(lèi)。

        1.2 殘差塊原理

        淺層的傳統(tǒng)神經(jīng)網(wǎng)絡(luò)已經(jīng)具有比較理想的輸出結(jié)果后,額外增加層數(shù)后反而可能導(dǎo)致網(wǎng)絡(luò)退化。因?yàn)閷?duì)于傳統(tǒng)的神經(jīng)網(wǎng)絡(luò),直接去擬合一個(gè)潛在的恒等映射函數(shù)H(x)=x是很困難的,而殘差網(wǎng)絡(luò)提出殘差的概念,將擬合的目標(biāo)轉(zhuǎn)換成將殘差逼近為零,不再是學(xué)習(xí)一個(gè)完整的輸出,而是目標(biāo)值H(x)和x的差值,來(lái)達(dá)到恒等映射的訓(xùn)練目標(biāo)[15]。殘差結(jié)構(gòu)可用下式表示:

        圖1 Resnet50結(jié)構(gòu)圖Fig.1 Resnet50 structure diagram

        2 改進(jìn)的Resnet50網(wǎng)絡(luò)

        2.1 殘差塊的改進(jìn)

        當(dāng)殘差單元的輸入和輸出維度不一致時(shí),不能將捷徑分支直接與主干分支直接相加,一般采用步長(zhǎng)為2的1×1卷積核或者采用池化層降低特征的維度并保留有效信息[16]。

        標(biāo)準(zhǔn)Resnet50網(wǎng)絡(luò)殘差塊如圖2中(a)所示,在捷徑分支和主干分支上分別采用步長(zhǎng)為2的1×1卷積核進(jìn)行降維完成下采樣功能。如圖3(a)所示,由于卷積核寬度小于步長(zhǎng)(stride=2),無(wú)法遍歷特征圖中的所有特征信息,圖中只有框選部分的信息才能傳遞到下一層,非框選部分的信息均不參與卷積計(jì)算,造成了3/4信息的缺失,對(duì)于雜草中特征差異較小的雜草而言,信息的缺失使得模型無(wú)法提取更深層次的空間像素信息,從會(huì)導(dǎo)致識(shí)別精度的降低。

        為此本文重新布局殘差塊中下采樣的位置,如圖2(b)所示,將主干分支的下采樣過(guò)程移動(dòng)到3×3的卷積核處,在捷徑分支的1×1卷積核前另加入一層步長(zhǎng)stride=2的3×3的平均池化層。如圖3(b)所示,卷積核在移動(dòng)過(guò)程中能夠遍歷特征圖上的所有信息,并且有一部分的信息重疊。平均池化層在不同的通道上進(jìn)行的,且不需要參數(shù)控制,避免了冗余的信息,對(duì)輸入的圖像特征信息進(jìn)行壓縮,使輸出圖像的長(zhǎng)和寬變?yōu)樵瓉?lái)的一半,從而減少了模型計(jì)算量和內(nèi)存消耗,減低了過(guò)擬合的可能性。

        圖2 殘差塊結(jié)構(gòu)Fig.2 Residual block structure

        圖3 改進(jìn)前后特征信息遍歷情況Fig.3 Feature information traversal before and after improvement

        2.2 引入注意力機(jī)制

        雜草圖片在不同的光照、背景拍攝條件下存在著顏色、大小和形狀的差異,且有效特征信息分布在圖片中的局部區(qū)域,為提高模型的識(shí)別精度和提取速度,本文將注意力機(jī)制ECA(efficient channel attention)模塊[17]引入殘差模型中,通過(guò)網(wǎng)絡(luò)自主學(xué)習(xí)一組權(quán)重參數(shù),并以“動(dòng)態(tài)加權(quán)”的方式來(lái)強(qiáng)調(diào)雜草的區(qū)域同時(shí)抑制不相關(guān)背景區(qū)域。ECA模塊結(jié)構(gòu)如圖4所示,將ECA模塊嵌入到殘差塊主干分支之后,經(jīng)過(guò)不降低維度的通道級(jí)全局平均池化(GAP)后,利用一維稀疏卷積操作來(lái)捕獲當(dāng)前通道與它的k個(gè)領(lǐng)域通道信息的交互,大幅度降低了參數(shù)量的同時(shí)又保持了相當(dāng)?shù)男阅堋?/p>

        圖4 高效通道注意力(ECA)模塊結(jié)構(gòu)圖Fig.4 Efficient channel attention(ECA)module structure diagram

        假設(shè)網(wǎng)絡(luò)模塊輸入的特征圖為F∈RC×H×W,然后通過(guò)平均池化層,將每個(gè)二維的特征通道(H×W)變成一個(gè)實(shí)數(shù),得到一個(gè)1×1×C的全局描述特征。隨后,利用卷積核大小為k的一維卷積捕捉局部的跨通道交互信息,接著通過(guò)一個(gè)Sigmoid的門(mén)獲得一個(gè)0~1之間歸一化的權(quán)重,作用到之前的特征圖中。為了減少模型的復(fù)雜度,ECA模塊簡(jiǎn)化了SE模塊[18]密集型的連接方式,僅考慮相鄰?fù)ǖ佬畔⒌慕换?,?quán)重計(jì)算公式如下:

        其中,σ為Sigmoid激活函數(shù),yi代表通道,ωi為通道yi的權(quán)重,為yi的k個(gè)相鄰?fù)ǖ赖募?,k的值是隨著學(xué)習(xí)自適應(yīng)變化的。有效通道注意力模塊可以通過(guò)核大小為k的一維卷積實(shí)現(xiàn),如式(6)所示:

        其中,C1Dk表示核為k的一維卷積操作,y表示通道。

        2.3 深層連接注意力機(jī)制

        盡管注意力機(jī)制在很多視覺(jué)任務(wù)中都顯示出良好的效果,但是它一次只考慮當(dāng)前的特征,沒(méi)有充分利用到注意力機(jī)制。受到文獻(xiàn)的啟發(fā),通過(guò)DCA(deep connected attention)模塊[19],將相鄰的注意力塊相互連接,使信息在注意塊之間流動(dòng),提高注意力的學(xué)習(xí)能力,DCA模塊不限定特定的注意模塊或基本的網(wǎng)絡(luò)框架,在不改變CNN模型內(nèi)部結(jié)構(gòu)的情況下提升注意力模塊的性能。

        DCANET(deep connected attention network)研究目前先進(jìn)的注意力塊,通過(guò)分析總結(jié)它們的組成部分和處理過(guò)程,將其分成三部分,分別為extraction(特征提?。?、transformation(轉(zhuǎn)換)和fusion(融合),DCA網(wǎng)絡(luò)結(jié)構(gòu)圖如圖5所示。首先ECA模塊通過(guò)GAP(global average pooling)從給定的特征圖中進(jìn)行特征提取,再利用一維卷積核和激勵(lì)函數(shù)將提取的特征轉(zhuǎn)換到一個(gè)新的非線(xiàn)性注意空間,最后將注意與原始特征進(jìn)行融合,而DCA模塊在注意力塊之間引入一條連接鏈,將先前注意塊的轉(zhuǎn)換輸出和當(dāng)前注意塊的特征提取輸出合并在一起,以前饋的方式保證各注意塊之間的信息流,防止每一步的注意信息變化太多。

        圖5 深層連接注意力(DCA)網(wǎng)絡(luò)結(jié)構(gòu)圖Fig.5 Deep connected attention(DCA)network structure dia-gram DCANET(Deep connected attention network)

        3 實(shí)驗(yàn)及結(jié)果分析

        3.1 實(shí)驗(yàn)環(huán)境和實(shí)驗(yàn)數(shù)據(jù)

        實(shí)驗(yàn)平臺(tái)采用免費(fèi)提供GPU的Google colab開(kāi)發(fā)平臺(tái),colab的使用界面類(lèi)似jupyter notebook,運(yùn)行于虛擬機(jī)(VM)上。虛擬機(jī)配置NVIDIA Tesla K80 GPU,12 GB內(nèi)存,39 GB硬盤(pán)空間。軟件框架采用Tensorflow的Keras的深度學(xué)習(xí)框架,使用Python3.6在線(xiàn)編譯。

        模型訓(xùn)練參數(shù)設(shè)置如下:迭代次數(shù)均設(shè)置為80次,批處理BatchSize參數(shù)為32,預(yù)熱后的初始學(xué)習(xí)速率為0.001,動(dòng)量因子設(shè)置為0.9,選擇優(yōu)化器為SGD。

        實(shí)驗(yàn)圖像數(shù)據(jù)采集于江蘇省蘇州市巴城農(nóng)田處,分別在晴天、陰天不同光照條件下,使用分辨率為10 MP的照相機(jī)垂直向下拍攝作物和雜草,選取農(nóng)田中數(shù)量較多的雜草進(jìn)行拍攝,共采集到3 670幅圖像作為豌豆雜草小樣本數(shù)據(jù)庫(kù),包含豌豆和4種不同雜草,分別為銀葉菊742幅、小蓬草718幅、馬唐722幅和豬殃殃740幅,如圖6所示。為了評(píng)價(jià)模型性能,本文采用80%的圖像數(shù)據(jù)作為訓(xùn)練集,另外20%的圖像數(shù)據(jù)作為測(cè)試集。

        圖6 豌豆田間的雜草圖像Fig.6 Images of weeds in pea field

        由于采集的圖片分辨率較大,需要對(duì)圖片進(jìn)行預(yù)處理,本文采用大數(shù)據(jù)ImageNet中學(xué)習(xí)的知識(shí)遷移學(xué)習(xí)到雜草識(shí)別中,選用resnet50訓(xùn)練大數(shù)據(jù)集ImageNet時(shí)所用的預(yù)處理方式,發(fā)現(xiàn)可以得到較好的訓(xùn)練結(jié)果。將采集的圖片隨機(jī)縮放到224×224的尺寸,進(jìn)行隨機(jī)水平旋轉(zhuǎn)后,采用歸一化處理,將數(shù)據(jù)歸一化到[-1,1]。

        3.2 引入遷移學(xué)習(xí)的有效性分析

        為了驗(yàn)證遷移學(xué)習(xí)對(duì)小樣本數(shù)據(jù)的促進(jìn)作用,以DCECA-Resnet50-a模型為基礎(chǔ)模型,采用不同的遷移學(xué)習(xí)策略在相同的實(shí)驗(yàn)條件下進(jìn)行對(duì)比實(shí)驗(yàn)。實(shí)驗(yàn)分為以下四種類(lèi)型:(1)不加載ImageNet預(yù)訓(xùn)練權(quán)重,采用隨機(jī)生成的初始權(quán)重訓(xùn)練網(wǎng)絡(luò)模型;(2)載入部分ImageNet權(quán)重,凍結(jié)全部卷積層的全部參數(shù),僅訓(xùn)練最后全連接層以輸出雜草的種類(lèi);(3)載入部分ImageNet權(quán)重,凍結(jié)Conv5_x卷積層前面的全部參數(shù),僅訓(xùn)練Conv5_x卷積層和全連接層以輸出雜草的種類(lèi);(4)加載全部的ImageNet權(quán)重后訓(xùn)練所有參數(shù)。

        表1和圖7表明,采用遷移學(xué)習(xí)策略明顯提高了模型的性能,實(shí)驗(yàn)1不采用遷移學(xué)習(xí)策略,模型在小樣本數(shù)據(jù)集情況下無(wú)法提取足夠的特征信息,收斂速度慢,平均消耗時(shí)間最長(zhǎng),且準(zhǔn)確率也遠(yuǎn)低于其他3個(gè)實(shí)驗(yàn),實(shí)驗(yàn)2凍結(jié)了全部卷積層,僅訓(xùn)練最后的全連接層來(lái)輸出雜草種類(lèi),將其他領(lǐng)域的知識(shí)遷移到雜草領(lǐng)域,緩解了雜草數(shù)據(jù)不足的缺點(diǎn),準(zhǔn)確率達(dá)到92.21%,實(shí)驗(yàn)3凍結(jié)了部分的卷積層,由于淺層特征信息中存在著共性,例如角點(diǎn)信息、紋理信息等特征信息可以直接遷移到預(yù)訓(xùn)練模型中,避免從頭訓(xùn)練浪費(fèi)大量時(shí)間,直接學(xué)習(xí)新數(shù)據(jù)集中的高維特征,獲得比較理想的實(shí)驗(yàn)效果,相比實(shí)驗(yàn)2而言,能很好地提取雜草的特征信息,實(shí)驗(yàn)4準(zhǔn)確率最高,但是需要花費(fèi)大量的時(shí)間從頭開(kāi)始訓(xùn)練,時(shí)長(zhǎng)高出實(shí)驗(yàn)3約2.6倍。

        表1 不同訓(xùn)練方式對(duì)比Table 1 Comparison of different training methods

        圖7 不同訓(xùn)練方式模型準(zhǔn)確率的對(duì)比Fig.7 Comparison of taccuracy of models with different training

        3.3 不同注意力機(jī)制的模型對(duì)比實(shí)驗(yàn)

        注意力機(jī)制在許多視覺(jué)任務(wù)上都顯示出良好的效果,并廣泛用于圖像識(shí)別和圖像分割領(lǐng)域。為了協(xié)調(diào)模型的識(shí)別精度與模型參數(shù)量之間的平衡,本文引入輕量級(jí)的注意力機(jī)制ECA模塊和連接注意力機(jī)制DCA模塊,與其他先進(jìn)的注意力機(jī)制進(jìn)行對(duì)比實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果如表2所示。

        表2 不同注意力機(jī)制實(shí)驗(yàn)對(duì)比Table 2 Experimental comparison of different attention mechanisms

        表2表明,注意力機(jī)制的引入在一定程度上可以提高Resnet50模型的識(shí)別準(zhǔn)確度,相較與注意力機(jī)制SE、CBAM模塊而言,ECA模塊在提高模型精度的同時(shí),并不額外增加模型參數(shù)和復(fù)雜程度,另外DCA模塊融入到各個(gè)注意力機(jī)制后,使得加入注意力機(jī)制的模型的性能再一次得到提升,以最小的額外計(jì)算開(kāi)銷(xiāo)優(yōu)于其他先進(jìn)的注意力模塊,說(shuō)明注意力塊的連接增強(qiáng)了注意力在通道上和空間上獲取信息的能力,從而挖掘更深層次的特征。相比較而言,Resnet50+DCA+ECA模型以94.17%的識(shí)別準(zhǔn)確率優(yōu)于其他模型,并且引入的模型參數(shù)最少,其中CBAM模塊增長(zhǎng)的參數(shù)最多,由于CBAM模塊[20]融合通道注意力模塊和空間注意力模塊,在多重注意維度的背景下,DCA模塊沿著每個(gè)維度連接注意,致使模型參數(shù)大幅度增加,參數(shù)量相比于標(biāo)準(zhǔn)的Resnet50增加了5.24×106,計(jì)算資源消耗較大。

        便于直觀(guān)地探討注意力機(jī)制的引入和連接后的學(xué)習(xí)能力,本文采用類(lèi)激活映射(class activation mapping,CAM)進(jìn)行可視化對(duì)比,如圖8所示。

        圖8 特征激活圖可視化Fig.8 Feature activation map visualization

        根據(jù)熱力圖的顏色圖標(biāo)表示,紅色到紫藍(lán)色代表由高到低的激活值,越紅的區(qū)域表示模型學(xué)習(xí)特征的能力越強(qiáng)。圖(a)為原始輸入圖像,圖(b)為Resnet50模型可視化結(jié)果,該模型更多地關(guān)注背景信息從而忽略對(duì)雜草區(qū)域信息的提取,導(dǎo)致識(shí)別準(zhǔn)確率較低,圖(c)為在Resnet50基礎(chǔ)上加入注意力機(jī)制后的結(jié)果,發(fā)現(xiàn)模型的關(guān)注區(qū)域重心逐漸轉(zhuǎn)移到雜草目標(biāo)上,但仍然受到受到部分背景信息的干擾,圖(d)為在Resnet50基礎(chǔ)上引入并連接注意力機(jī)制后的結(jié)果,此時(shí)模型對(duì)提取到雜草信息的通道賦予更高的權(quán)重,使得模型更關(guān)注于雜草的關(guān)鍵特征,在重點(diǎn)區(qū)域不變的情況下增加雜草區(qū)域的關(guān)注范圍,并進(jìn)一步抑制了背景信息的干擾,提高了模型識(shí)別雜草的準(zhǔn)確率。

        3.4 網(wǎng)絡(luò)模型的測(cè)試結(jié)果

        隨機(jī)劃分豌豆雜草數(shù)據(jù)的20%作為測(cè)試集,分別于標(biāo)準(zhǔn)Resnet50模型和優(yōu)化后的DCECA-Resnet50-a模型上進(jìn)行測(cè)試,并通過(guò)爬蟲(chóng)網(wǎng)站查找新的圖片數(shù)據(jù)豐富測(cè)試集,得到雜草識(shí)別結(jié)果如表3所示。

        表3 豌豆苗雜草測(cè)試集識(shí)別結(jié)果Table 3 Identification results of weed test set for pea seedlings

        對(duì)比兩種網(wǎng)絡(luò)模型的測(cè)試結(jié)果,改進(jìn)后的網(wǎng)絡(luò)模型增加了模型復(fù)雜度,F(xiàn)lops增加了約6%,但是由于計(jì)算Flops是將Resnet50的不同分支的運(yùn)算量依次累加起來(lái),Resnet網(wǎng)絡(luò)模型由于捷徑分支可以并行運(yùn)算,因此,改進(jìn)前后的網(wǎng)絡(luò)模型實(shí)測(cè)速度沒(méi)有太大差別。

        相比于改進(jìn)前的網(wǎng)絡(luò)模型,改進(jìn)后的網(wǎng)絡(luò)模型在不同的測(cè)試集上都有一定的提高。改進(jìn)后的網(wǎng)絡(luò)模型相對(duì)于改進(jìn)前的網(wǎng)絡(luò)模型在原始數(shù)據(jù)集上正確識(shí)別率提高了6.19%,但是加入網(wǎng)站的數(shù)據(jù)集測(cè)試后,準(zhǔn)確率都有所下降。在測(cè)試結(jié)束后,通過(guò)查看被錯(cuò)誤分類(lèi)的圖片數(shù)據(jù),發(fā)現(xiàn)識(shí)別錯(cuò)誤的問(wèn)題主要發(fā)生在以下情形:一種是拍攝的兩種雜草相似度比較高;另一種是圖片中的雜草背景復(fù)雜,背景圖片在訓(xùn)練數(shù)據(jù)中出現(xiàn)頻率較少。由于采集的數(shù)據(jù)庫(kù)是在同一個(gè)豌豆田間進(jìn)行采集,背景環(huán)境多為類(lèi)似,所有的數(shù)據(jù)集都有一定的偏向,當(dāng)在測(cè)試集中加入網(wǎng)站中不同背景環(huán)境且背景較為復(fù)雜的雜草圖片來(lái)進(jìn)行測(cè)試,會(huì)降低一定的正確識(shí)別率,深度學(xué)習(xí)網(wǎng)絡(luò)受數(shù)據(jù)驅(qū)動(dòng),在樣本數(shù)據(jù)集較少的情況下,對(duì)于圖像中的變化也會(huì)相對(duì)敏感。

        3.5 不同數(shù)據(jù)集下的模型對(duì)比實(shí)驗(yàn)

        本文采用的數(shù)據(jù)集始終為雜草數(shù)據(jù)集,為進(jìn)一步探究改進(jìn)后的模型在其他數(shù)據(jù)集上的實(shí)驗(yàn)效果,使用kaggle平臺(tái)上公開(kāi)的花卉數(shù)據(jù)集進(jìn)行比較,花卉數(shù)據(jù)集共包含4 242張圖片,包括雛菊、蒲公英、玫瑰、向日葵、郁金香,分別在標(biāo)準(zhǔn)殘差網(wǎng)絡(luò)模型和改進(jìn)后的Resnet50-a和DCECA-Resnet50-a模型上進(jìn)行實(shí)驗(yàn),如表4所示。對(duì)比于標(biāo)準(zhǔn)的Resnet50模型,Resnet50-a代表改進(jìn)殘差塊后的網(wǎng)絡(luò)模型,DCECA-Resnet50-a代表在改進(jìn)殘差塊的基礎(chǔ)上引入注意力機(jī)制和連接注意力機(jī)制后的網(wǎng)絡(luò)模型。

        表4 不同數(shù)據(jù)集下的識(shí)別結(jié)果Table 4 Identification results under different data sets

        改進(jìn)前后的殘差模型在花卉數(shù)據(jù)集下的識(shí)別效果均優(yōu)于雜草數(shù)據(jù)集,一方面,由于花卉數(shù)據(jù)集特征更為豐富,與雜草數(shù)據(jù)集相比,顏色、邊緣等基本特征更易于區(qū)分,另一方面,田間下的雜草背景較為復(fù)雜,增加了模型的識(shí)別難度。此外,殘差塊的改進(jìn)、注意力機(jī)制的引入和深層連接使得模型的性能都得到了相應(yīng)的提升,可以提取更多的有效特征。改進(jìn)后的DCECA-Resnet50-a模型泛化性強(qiáng),在花卉圖像分類(lèi)上也具有一定的可行性和有效性。

        3.6 不同識(shí)別模型對(duì)比實(shí)驗(yàn)

        為了進(jìn)一步驗(yàn)證本文識(shí)別模型的可靠性,在相同的實(shí)驗(yàn)條件下選取不同的識(shí)別模型進(jìn)行對(duì)比實(shí)驗(yàn)。根據(jù)大量文獻(xiàn)可知,在圖像識(shí)別領(lǐng)域中多采用VGG16、Alexnet、Resnet50、Resnet101卷積神經(jīng)網(wǎng)絡(luò)模型。為加快模型的訓(xùn)練時(shí)間,實(shí)驗(yàn)中模型均采用遷移學(xué)習(xí)策略,凍結(jié)部分特征提取層,訓(xùn)練高層特征提取層,并改變分類(lèi)層的種類(lèi)數(shù)目以輸出雜草的種類(lèi)。

        表5表明,針對(duì)于采集的原始雜草數(shù)據(jù)集,這些識(shí)別模型都取得較好的實(shí)驗(yàn)結(jié)果。VGG16、Alexnet模型識(shí)別準(zhǔn)確率都低于90%,且模型參數(shù)較大,占用更多的空間內(nèi)存和浪費(fèi)更多計(jì)算資源,其中Resnet50網(wǎng)絡(luò)模型大小最小,約占VGG16模型大小的1/6,并且在性能上也更加優(yōu)越,Resnet101網(wǎng)絡(luò)通過(guò)增加網(wǎng)絡(luò)深度提取深層有用的特征信息,相比較Resnet50而言,在識(shí)別準(zhǔn)確度上有一定的提高,但是占用更多的空間內(nèi)存。

        表5 不同識(shí)別模型實(shí)驗(yàn)對(duì)比Table 5 Experimental comparison of different recognition models

        同時(shí)將Resnet50-a模型與Resnet50相比較,訓(xùn)練準(zhǔn)確率和測(cè)試準(zhǔn)確率都有明顯的提升,說(shuō)明下采樣位置的改變可以幫助模型更好地提取特征信息,ECAResnet50-a較Resnet50-a整體性能有所提升,表明注意力機(jī)制可以改善模型的表達(dá)能力,并且ECA模塊的引入可以在不增加模型參數(shù)量的同時(shí)提高模型識(shí)別雜草的準(zhǔn)確率,DCECA-Resnet50-a模型與其他模型相比綜合性能最好,訓(xùn)練準(zhǔn)確率和測(cè)試準(zhǔn)確率最高,表明注意塊之間信息的流通是有必要的,在一定程度上提高了模型的性能。

        4 結(jié)論

        對(duì)于采集到的復(fù)雜的田間雜草圖像,往往有很多因素干擾對(duì)雜草種類(lèi)的識(shí)別,為了增加模型對(duì)于圖片特征信息的把握,本文提出了深層連接注意力機(jī)制的殘差網(wǎng)絡(luò)模型。在傳統(tǒng)的殘差網(wǎng)絡(luò)基礎(chǔ)上,重新設(shè)計(jì)下采樣在殘差塊中主干分支和捷徑分支的位置,遍歷特征圖中的所有特征信息,同時(shí)引入輕量級(jí)注意力機(jī)制ECA模塊,聚焦圖片中雜草中的重要特征信息,在不增加模型參數(shù)的同時(shí)提高了模型識(shí)別雜草的準(zhǔn)確率,并采用DCA模塊連接注意塊,使得各個(gè)注意塊可以獲得更多的額外信息,對(duì)圖片中的重要特征信息有更好的辨別能力,對(duì)比于其他先進(jìn)注意力機(jī)制,實(shí)驗(yàn)證明注意力機(jī)制(DCA+ECA)的引入以最小的計(jì)算開(kāi)銷(xiāo)進(jìn)一步提高模型的綜合性能,識(shí)別精度對(duì)比于傳統(tǒng)的殘差網(wǎng)絡(luò)提升4.02%,并不額外增加模型的復(fù)雜程度。在訓(xùn)練過(guò)程中,本文將未使用遷移學(xué)習(xí)和其他三種遷移學(xué)習(xí)策略進(jìn)行對(duì)比,發(fā)現(xiàn)凍結(jié)底層特征提取層,僅訓(xùn)練高層特征提取層可以獲得理想的訓(xùn)練結(jié)果并大幅度地減少模型的訓(xùn)練時(shí)長(zhǎng),相較于從頭訓(xùn)練所有層,訓(xùn)練準(zhǔn)確率低了0.48%,但是平均訓(xùn)練時(shí)間上約占其1/3。為了驗(yàn)證模型的泛化性和有效性,本文采取了不同的數(shù)據(jù)集進(jìn)行實(shí)驗(yàn),發(fā)現(xiàn)改進(jìn)后的模型在雜草和花卉圖像數(shù)據(jù)集中均可獲得較好的識(shí)別效果,但是由于雜草數(shù)據(jù)圖片背景較為單一,額外增加雜草數(shù)據(jù)集進(jìn)行測(cè)試時(shí),識(shí)別準(zhǔn)確率會(huì)相應(yīng)降低。比較了不同的深度學(xué)習(xí)網(wǎng)絡(luò)模型,在相同的實(shí)驗(yàn)條件下,DCECA-Resnet50-a模型在雜草特征識(shí)別上優(yōu)于其他模型,識(shí)別準(zhǔn)確率最高,且模型參數(shù)較小,節(jié)省了大量的計(jì)算資源。

        猜你喜歡
        雜草機(jī)制特征
        拔雜草
        如何表達(dá)“特征”
        不忠誠(chéng)的四個(gè)特征
        自制力是一種很好的篩選機(jī)制
        文苑(2018年21期)2018-11-09 01:23:06
        抓住特征巧觀(guān)察
        破除舊機(jī)制要分步推進(jìn)
        水稻田幾種難防雜草的防治
        注重機(jī)制的相互配合
        打基礎(chǔ) 抓機(jī)制 顯成效
        線(xiàn)性代數(shù)的應(yīng)用特征
        河南科技(2014年23期)2014-02-27 14:19:15
        久久精品黄aa片一区二区三区| 亚洲香蕉久久一区二区| 日韩麻豆视频在线观看| 人妻 偷拍 无码 中文字幕 | 日本a在线播放| 日本一区二区偷拍视频| 麻豆国产一区二区三区四区| 亚洲精品午睡沙发系列| аⅴ天堂国产最新版在线中文| 国产无套粉嫩白浆内精| 中字乱码视频| 精品人妻伦九区久久aaa片69| 亚洲国产精品国语在线| 美利坚亚洲天堂日韩精品| 亚洲国产亚综合在线区| 真人直播 免费视频| 亚洲av无码一区二区三区人妖 | 亚洲无码中文字幕日韩无码| 99精品人妻少妇一区二区三区 | 区久久aaa片69亚洲| 亚洲第一区二区快射影院| 亚洲1区第2区第3区在线播放 | 国产亚洲精久久久久久无码77777| 国产精品一区高清在线观看| 国产黄色一区二区福利| 丁香婷婷激情视频在线播放| 一本一道av中文字幕无码| 久久国产欧美日韩高清专区| 精品国产日韩亚洲一区在线| 久久综合狠狠综合久久综合88| 国产免费一区二区三区在线观看| 亚洲无码美韩综合| 国产av天堂亚洲av刚刚碰| 久久人人爽人人爽人人片av东京热| 国产成人美女AV| 亚洲中文字幕综合网站| 一色桃子中文字幕人妻熟女作品 | 粗大猛烈进出白浆视频| 天天综合天天色| 日本精品少妇一区二区| 国产欧美日韩精品丝袜高跟鞋 |