亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于多尺度注意力卷積網絡的作物害蟲檢測

        2021-07-23 02:49:17張善文邵彧齊國紅許新華
        江蘇農業(yè)學報 2021年3期
        關鍵詞:注意力機制卷積神經網絡

        張善文 邵彧 齊國紅 許新華

        摘要: 田間作物害蟲檢測是精確防治蟲害和減少農藥使用量的前提。由于田間害蟲種類多,同種害蟲個體間差異大,田間同一只害蟲的大小、顏色、姿態(tài)、位置和背景變化多樣、無規(guī)律,而且田間背景復雜、對比度低,使得傳統(tǒng)的作物害蟲檢測方法的性能不高?,F有的基于深度學習的作物害蟲檢測方法需要大量高質量的標注訓練樣本,而且訓練時間長。在VGG16模型的基礎上,本研究提出一種基于多尺度注意力卷積網絡(Multi-scale convolutional network with attention, MSCNA)的作物害蟲檢測方法。在MSCNA中,多尺度結構和注意力模型用于提取多尺度害蟲檢測特征,增強對形態(tài)較小害蟲的檢測能力;在訓練過程中引入二階項殘差模塊,減少網絡損失和加速網絡訓練。試驗結果表明,該方法能較好地檢測到農田中各種各樣、大小不同的害蟲,檢測平均準確率為92.44%。說明該方法能夠實現自然場景下作物害蟲的精準檢測,可應用于田間作物害蟲自動檢測。

        關鍵詞: 作物害蟲檢測;注意力機制;卷積神經網絡;多尺度注意力卷積網絡

        中圖分類號: TP391.41;S432 文獻標識碼: A 文章編號: 1000-4440(2021)03-0579-10

        Crop pest detection based on multi-scale convolutional network with attention

        ZHANG Shan-wen, SHAO Yu, QI Guo-hong, XU Xin-hua

        (School of Electronics and Information Engineering, Zhengzhou SIAS University, Zhengzhou 451150, China)

        Abstract: Detection of crop pests in field is the prerequisite for accurate pest control and reduction of pesticide dosage. The performance of the traditional detection methods for crop pests is not high, due to the reasons such as various varieties of pests in the field, the difference between different pest individuals of the same variety is great. Besides, the size, color, posture, position and background of the same pest in the field are various and irregular, and the field background is complex and has low contrast. The existing crop pest detection methods based on deep learning require a large number of labeled training samples with high quality, and the training time is long. A multi-scale convolutional network with attention (MSCNA) method based on VGG16 model was proposed for crop pest detection. In MSCNA, the multi-scale structure and attention model were used to extract the detection features of pests on multi-scale and to enhance the ability in detecting smaller pests. Second-order term residual module was introduced in the training process to reduce network loss and accelerate network training. The experimental results showed that, the proposed method could detect various pests with different sizes in the farmland preferably, and the average detection accuracy was 92.44%. The results indicated that this method can detect crop pests accurately in natural scenes and can be applied in the automatic detection of crop pests in the field.

        Key words: crop pest detection;attention mechanism;convolutional neural network (CNN);multi-scale convolutional neural network with attention (MSCNA)

        作物害蟲檢測和識別是害蟲防治的一個重要步驟。目前已有很多作物害蟲檢測和識別方法。Martineau等[1]綜述了44種昆蟲分類方法,并介紹了害蟲圖像采集、特征提取和測試數據集構建等。Yaakob等[2]提取昆蟲圖像的形狀特征的6種不變矩,并驗證了該方法的有效性。Fedor等[3]介紹了基于數字圖像分析和人工神經網絡系統(tǒng)的半自動害蟲識別和監(jiān)測工具,并提取害蟲的頭部、鎖骨、翅膀、產卵器長度和寬度等形態(tài)特征,構成特征向量,最后由神經網絡進行害蟲識別。Wen等[4]提出了一種基于尺度不變特征描述子的昆蟲分類方法,并在果園常見昆蟲數據集上取得了較高的識別率。然后,提出了一種基于圖像的昆蟲自動分類方法[5],該方法利用仿射不變量局部特征建立昆蟲識別和分類的局部不變特征模型,建立了54個全局特征的昆蟲識別分類模型和基于局部特征與全局特征的層次組合模型,最后利用組合模型進行田間昆蟲圖像分類。Boissard 等[6]提出了一種基于視頻信息的害蟲檢測系統(tǒng),該系統(tǒng)能夠對成熟階段的白粉虱進行自動檢測和計數。Zhu等 [7]提出了一種基于局部平均顏色特征和支持向量機(SVM)的昆蟲自動識別和分類方法,首先對采集的昆蟲圖像進行分割,去掉圖像的背景,再進行分割,得到昆蟲的2個翅膀圖像,然后對它們的位置進行校準,最后從2個翅膀圖像中提取1個480維的紅綠藍顏色特征向量,由SVM對昆蟲進行分類。Fina等[8]將K-均值聚類算法與自適應濾波器相結合,通過提取害蟲與其棲息地(葉、莖)之間的不同特征屬性,獲得不同圖像的相關峰值,利用自適應濾波器對作物害蟲進行識別,結果表明該濾波器能夠識別任意拍攝角度的害蟲。Jayme[9]提出了一種基于傳統(tǒng)數字圖像處理的大豆葉片白粉虱害蟲識別方法,該方法易于實現和擴展應用到其他作物中。為了提高作物害蟲分類精度,Xie等[10]開發(fā)了一個基于多任務稀疏表示和多核學習方法的昆蟲識別系統(tǒng),該系統(tǒng)結合多種昆蟲種類特征來提高識別性能,采用稀疏編碼直方圖表示昆蟲圖像,而不是使用手工制作的描述符,由此能很好地量化顏色、形狀和紋理等原始特征,通過共同優(yōu)化核權值,有效地優(yōu)化該學習模型。Zhang等[11]設計了1種田間害蟲識別系統(tǒng),該系統(tǒng)需要從二值化圖像中提取害蟲的7個形態(tài)特征,并進行歸一化,根據9種害蟲的特征均值和特征標準差,建立了標準向量模型庫和隸屬度函數。薊馬蠅是為害草莓大棚的害蟲之一,Ebrahimi等[12]采用差分核函數SVM方法對薊馬蠅進行分類和檢測,以大直徑與小直徑之比作為區(qū)域指標,以色調、飽和度、強化度作為顏色指標設計SVM結構,利用均方誤差、均方根誤差、平均絕對誤差和平均百分比誤差評估分類效果。為了提高害蟲圖像分割的準確性和穩(wěn)定性,Wang等[13]提出了一種分割害蟲圖像的方法:首先對害蟲圖像進行分塊,然后采用自適應學習算法精確選擇初始聚類中心,再利用K-均值聚類得到初步的分割結果,最后利用3個數字形態(tài)特征分割害蟲圖像。

        上述傳統(tǒng)的害蟲檢測和識別算法研究取得了較好的結果,但這些算法都有一定的局限性,比如他們的檢測與識別性能特別依賴于預先設計的手工特征提取效果以及選擇的分類器的性能。由于同種或異種作物害蟲在不同時期甚至不同時刻具有不同的表型,如圖1所示,害蟲的大小、顏色和形狀各異,姿態(tài)和位置變化多樣,背景復雜,所以利用傳統(tǒng)的模式識別方法很難準確描述害蟲圖像。

        卷積神經網絡(Convolutional neural network, CNN)具有很強的圖像分類特征學習能力,能夠從輸入圖像中學習到深度高階特征,在復雜圖像的目標檢測、分割和分類等方面具有明顯優(yōu)勢[14-15],能夠自動學習復雜圖像的形狀、顏色、紋理等多層次特征。農作物害蟲圖像復雜無規(guī)律,因此CNN可能適合于作物害蟲圖像特征提取[16]。Bhatt等[17]將3種廣泛使用的CNN模型應用于昆蟲識別,并比較了3種模型的性能。Nanni等[18]提出了一種顯著性模型與CNN相結合的自動分類器,其中3種顯著性模型用于圖像預處理,突出顯示圖像中最相關的像素。Witenberg等[19]提出了一種基于改進殘差CNN模型的害蟲識別方法,并在原始害蟲圖像和增強圖像數據集上進行了試驗。Xia等[20]利用CNN模型解決農作物昆蟲的多分類問題,采用區(qū)域建議網絡代替?zhèn)鹘y(tǒng)的選擇性搜索技術,生成較少的建議窗,用于分類特征提取,提高了預測精度和加速了網絡訓練。Liu等[21]提出了一種基于CNN的大規(guī)模害蟲檢測分類方法,該方法利用害蟲圖像的位置敏感得分圖代替CNN的全連接層,極大提高了CNN的分類性能。為了檢測自然場景下的水稻害蟲,錢蓉等[22]提出了一種基于權重參數為16層的經典網絡(VGG16)的水稻害蟲智能識別方法,該方法根據水稻害蟲的個體特征和自然場景對VGG16的卷積層局部調整,優(yōu)化模型的主要參數,實現了水稻害蟲的智能識別。注意力機制推動了深度學習的發(fā)展,已成為深度學習的重要組成部分,在自然語言處理、統(tǒng)計學習、圖像識別及語音識別等領域得到了充分研究和成功應用[23-24]。梁斌等[25]提出了一種基于多注意力卷積神經網絡的特定目標情感分析方法,該網絡能夠接收平行化輸入的文本信息,大大降低網絡模型的訓練時間,有效彌補僅依賴內容層面注意力機制的不足。樂毅等[26]提出了一種分段CNN與多層注意力機制相結合的遠程監(jiān)督關系抽取方法,并應用于作物病蟲害檢測中,取得了較高的識別率。

        在多尺度CNN和注意力機制的啟發(fā)下[27],本研究提出一種多尺度注意力卷積網絡(Multi-scale convolutional network with attention, MSCNA)模型,應用于多尺度害蟲檢測,并驗證該模型的有效性。

        1 材料與方法

        1.1 圖像采集與擴充

        葉蟬、盲蝽、飛蛾和夜蛾幼蟲是農業(yè)生產中常見的4種害蟲,本研究選擇這4種害蟲的圖像為研究對象。所有圖像均在大田自然背景下采集,為后期實際推廣應用奠定基礎。圖像采集設備為iPhone7、華為P10、WIFI控制攝像頭和物聯網等。構建1個原始的害蟲圖像數據集,包含1 000幅不同大小的害蟲圖像,每一種害蟲250幅圖像,每幅圖像分辨率約為4 928×3 264像素。由于iPhone通常能夠捕捉更清晰的視頻,所以大部分害蟲視頻圖像由iPhone7拍攝。部分作物害蟲圖像如圖2所示,從圖2可以看出,同一種害蟲甚至同一只害蟲的形狀、顏色、大小、姿態(tài)和所處位置以及背景環(huán)境等多種多樣,而且在圖像中害蟲尺寸相對較小。

        訓練數據集規(guī)模對訓練網絡的性能影響很大。當樣本的特征空間維度大于訓練樣本數目時,模型容易出現過擬合現象。為了增強網絡的魯棒性和泛化能力,一般通過對有限的訓練樣本進行擴充,增加訓練樣本數目。常用的擴充方法包括:圖像平移,使得網絡學習到平移不變的特征;圖像旋轉,使得網絡學習到旋轉不變的特征。一般情況下,害蟲圖像有多種不同的姿態(tài),圖像旋轉可以彌補樣本中姿態(tài)較少的問題;圖像鏡像,與旋轉的功能類似;圖像加噪聲,可以用不同的模板卷積產生含噪圖像,使得網絡學習到含噪圖像的特征;圖像亮度變化,使得網絡學習到不同亮度條件下的圖像的特征;裁剪、縮放等操作,模擬多種實際情況下的樣本。

        采用以上擴充方法,可以將每幅圖像擴充到20幅。圖2E為1幅圖像的20幅擴充圖像。盡管這些害蟲圖像具有一定誤差且圖像質量較差,但能夠增強網絡的魯棒性和泛化能力。最后得到一個包含21 000幅害蟲圖像的數據集。

        1.2 試驗方法

        1.2.1 卷積神經網絡(CNN)

        與人工神經網絡相比,CNN具有局部(稀疏)連接和權值(參數)共享的特點,從而大大降低了網絡的參數數量。CNN直接以原始圖像作為輸入,無需進行復雜的圖像預處理。與前饋神經網絡的全連接不同,CNN中卷積層的神經元僅與其相鄰層的神經元連接,而不是與全部神經元連接。CNN的局部連接能夠提高網絡結構的穩(wěn)定性和泛化能力,避免過擬合問題,減少權重參數的總量,加速網絡訓練,且在計算時減少了內存開銷[20]。圖3為經典的VGG-16結構[22],包括13個卷積層、5個池化層、3個全連接層和1個分類層,具有局部連接、權值共享、池化等特點。其結構比較簡單,但它的權重數目很大,導致訓練時間過長,計算量很大,而且需要較大的儲存空間,不利于部署到算力受限的環(huán)境。

        1.2.2 注意力機制 在深度CNN中,高層次特征圖的判別能力強,但目標模糊;低層次特征圖的目標定位比較準確,但分類能力較差,虛擬目標信息和場景內容較多。為了整合高層次特征圖和低層次特征圖的優(yōu)點,在CNN中加入注意力機制,生成粗略的注意圖[23]。在CNN中,注意力一般可分為通道注意力和空間注意力模塊,如圖4所示,其中通道注意力能夠對通道進行選擇,表示圖像不同的特征信息,空間注意力用于選取圖像特征圖中所注意的區(qū)域。

        對于給定的F∈RH×W×C,其中H、W和C分別表示特征圖的長度、寬度和通道數,經過通道和空間卷積注意力模塊后分別得到通道注意力(MC)的特征圖和空間注意力(MS)的特征圖:

        F′=MC(F)F

        F″=MS(F′)F′(1)

        其中,F、F′和F″分別為輸入特征圖、通道注意力特征圖和空間注意力特征圖,表示注意力圖與輸入的特征圖相乘,用于特征的自適應學習。

        通過通道注意力和空間注意力模塊可以使CNN聚焦于最具有判別性的局部特征圖,同時結合殘差連接提高網絡模型的判別能力。注意力機制可以應用到CNN中的原始圖像、特征圖甚至特征圖的每個像素上。將注意力機制應用于圖像的空間尺度,可以對不同的空間區(qū)域賦予權重;將其應用于通道尺度,可以對不同的通道特征賦予權重。

        1.2.3 多尺度注意力卷積網絡 為了提高基于VGG16的作物害蟲檢測方法的識別率,在分層多尺度卷積特征提取方法[27]的啟發(fā)下,在VGG16中引入通道和空間注意力機制以及殘差模型,構建一種多尺度注意力卷積網絡(MSCNA)模型,其結構如圖5所示。

        多尺度注意力卷積網絡模型的訓練具體步驟如下:

        (1)分別使用3×3、5×5和7×7 大小的3個卷積核對原始害蟲圖像進行卷積,提取不同尺度下的特征圖,然后利用文獻[28]中的整合方法F1=max[0,concat(F11,F12,F13)](其中F11、F12、F13分別為3個不同卷積核得到的卷積圖,concat為連接運算)合并三通道特征圖,再進行卷積、池化、卷積。

        (2)在注意力機制模塊中,沿通道維度分別計算每幅特征圖的全局平均池化及全局最大池化操作,然后相加得到通道注意力參數和特征圖(F),再經過通道注意力(MC)和空間注意力(MS),由公式(1)得到特征圖F′和F″;

        (3)在注意力機制模塊前后的第3和第4個卷積層之間,引入殘差連接模塊,能夠融合多尺度特征和注意力機制模塊的輸入信息,從而在一定程度上對損失的信息進行補充,解決了特征信息傳輸過程中的信息丟失現象,進一步增強特征融合。

        (4)第4個卷積層后的結構與VGG16基本相同[22,29],不同之處是將VGG16的3個全連接層用1個全局池化層代替,以極大地減少網絡參數。

        在MSCNA的注意力模塊中,平均池化操作可以濾掉目標對象的全局背景信息,而最大池化可以突出目標對象的顯著性。設輸入的特征圖為X=[x1,x2,…,xc],其中xc為第c個灰度值,則平均池化和最大池化操作的輸出分別為Avgpool(F)∈R1×1×C和Maxpool(F)∈R1×1×C,計算如下:

        Avgpool(F)=1H×WHi=1Wj=1xc(i,j)(2)

        Maxpool(F)=maxHi=1Wj=1xc(i,j)(3)

        在公式(1)中使用1個共享的多層感知機(MLP)進行注意力推斷來保存參數,則通道注意力(MC)和空間注意力(MS)分別表示為:

        MC(F)=σ{MLP[Avgpool(F)]+MLP[Maxpool(F)]}(4)

        MS(F)=σ{f7×7[Avgpool(F);Maxpool(F)]}(5)

        其中,Avgpool(F)和Maxpool(F)為在空間維度上使用的平均池化和最大池化操作,f7×7為7×7大小的卷積操作,σ為Sigmoid函數,網絡模型中的參數都通過Sigmoid來進行歸一化。

        第3和第4個卷積層之間的殘差模塊中,將第3個卷積層的特征發(fā)送到第4個卷積層,能夠最大程度地保留淺層的全局特征,在訓練時有助于保持反向傳播的梯度穩(wěn)定性。傳統(tǒng)殘差網絡(Residual networks, ResNet)的連接方式是一種線性連接,限制了網絡對特征空間復雜分布的學習能力。MSCNA的特征提取操作可以看作一個深度全卷積網絡(Fully convolutional networks, FCN),FCN利用大量的殘差連接引導淺層特征的傳遞和梯度的流動,考慮到注意力模塊產生的特征信息更有意義,在殘差連接上增加二階項和偏置項,提高網絡的非線性程度,改進的二階項連接殘差網絡如圖6所示[30-31]。

        A:傳統(tǒng)的殘差連接;B:二階項殘差。

        假設第3個卷積層得到的特征圖為x,第4個卷積層得到的特征圖為x′,則輸出為:

        f=X+X′+G″(6)

        其中,G″=g(X⊙X′+ξ),⊙為矩陣間元素的乘法,ξ為調優(yōu)偏移參數,g為可微函數。

        采用平方根形式對g進行梯度推導,反向更新傳播參數。改進殘差連接計算如下:

        f=X+X′+ReLU(X)⊙ReLU(X′)+ξ(7)

        其中,g取偏移量ξ=0.000 1用以保持反向傳播過程中的梯度穩(wěn)定性。

        對經過2種注意力和殘差重組后的特征圖進行元素歸一化后再相加,其結果表示為:

        F=F″+f(8)

        由于在矩陣和特征矩陣中的元素可能為負,計算前需要進行非負處理。為了有效地融合多層卷積特征,利用雙線性插值將所有的特征映射調整為固定大小。本研究將特征圖的大小固定為224×224?;贛SCNA的田間害蟲檢測方法的檢測流程圖見圖7。

        具體步驟如下:(1)采用不同尺度的滑動窗口掃描并截取圖像,找到待檢測圖像中可能存在害蟲的候選窗口;(2)將候選窗口中的圖像歸一化為32×32像素大小;(3)將歸一化后的圖像作為訓練后MSCNA的輸入,計算網絡輸出;(4)刪除步驟(3)中判定為非害蟲的候選窗口,剩余的候選窗口為圖像中害蟲的位置信息。

        2 結果與分析

        在實際害蟲圖像數據庫上驗證基于MSCNA的作物害蟲圖像的檢測方法,并將基于局部特征和神經網絡(Local features and neural network, LFNN)[3]、基于局部不變特征和支持向量機(Local invariant features and supported vector machines, LFSVM)[4]、基于深度學習模型的玉米害蟲檢測識別(Deep learning, DL)[19]、基于改進CNN的作物害蟲檢測與分類方法(Improved CNN, ICNN)[20]和基于VGG16的害蟲檢測(VGG16)[22]5種害蟲圖像識別方法與其進行比較。其中,LFNN和LFSVM為2種傳統(tǒng)的害蟲圖像識別方法,DL、ICNN和VGG16為3種基于深度學習的害蟲檢測方法。所有試驗實現環(huán)境為操作系統(tǒng)Win10 64bit、處理器Intel Xeon E5-2643v3@3.40 GHz CPU、內存64 GB、NVidia Quadro M4000 GPU、顯存8 GB、CUDA Toolkit 9.0、CUDNN V7.0、Python版本3.6.4、Tensorflow-GPU 1.8.0框架。

        在Matlab平臺上完成自動裁切工作,得到裁切后的圖像。將所有圖像集按照6∶4隨機分成訓練子集和測試子集,其中12 600幅圖像用于訓練模型,8 400幅圖像用于測試模型。采用LabelImg工具標注訓練圖像,用于深度學習訓練。6∶4劃分試驗重復100次,得到穩(wěn)定可靠的檢測平均結果。在試驗中,分多批進行網絡訓練,每批使用35幅圖像,批處理設置為1,最大迭代次數為10 000,權重衰減指數設置為0.000 1,動量參數設置為0.9,初始學習率設置為0.01,在1 000次、2 000次、4 000次、6 000次、8 000次迭代時,權重指數衰減降低到0.000 1。引入權值衰減,使權值衰減到一個較小的值,從而緩解過擬合問題。在對比試驗中,將參數設置為合適的值。在測試時,采用5折交叉驗證方法將樣本集隨機分為5等份,輪流選取其中1份組成測試集,剩余的組成訓練集,重復5次交叉驗證,將5次交叉驗證結果的平均值作為MSCNA最終的識別率。

        為了分析訓練性能,采用相同的試驗參數對3個用于比較的網絡模型進行訓練,以保證比較結果的可靠性。圖8為MSCNA和VGG16的迭代誤差和識別率與迭代次數的關系。由圖8A可以看出,MSCNA的結果優(yōu)于VGG16,在1 500次迭代前,其訓練過程相對穩(wěn)定,并且在1 500次迭代后,VGG16的下降速度比MSCNA慢很多。由圖8B可以看出,在整體上MSCNA的識別率高于VGG16。結果表明,MSCNA的收斂性優(yōu)于VGG16,在2 500次迭代后,MSCNA的訓練性能有了很大提高。主要原因是MSCNA中利用了殘差的密集模塊和注意力機制。

        在訓練過程中,將害蟲訓練圖像輸入到MSCNA中,通過幾個卷積層和池化層逐步提取特征圖。為了測試MSCNA的檢測性能,從數據集中隨機選取1幅夜蛾幼蟲圖像,將檢測結果可視化(圖9)。通過圖9中的可視化特征圖可以發(fā)現,MSCNA能夠捕捉到害蟲圖像的精細細節(jié),較淺的卷積核可提取出害蟲的輪廓,較深的卷積核可提取出害蟲的紋理和細節(jié)特征。從圖9E中可以發(fā)現,卷積特征圖沒有明顯的銳化邊緣,并且逐漸褪色,這是因為模型中引入注意力機制,更多關注害蟲圖像區(qū)域,而不是害蟲圖像的邊緣。從圖9F可以看出,第一幅特征圖靠近輸出層,害蟲圖像區(qū)域更加集中。

        由圖9可以看出,害蟲圖像的低階卷積特征包含更多的細節(jié)信息,高層卷積特征包含害蟲的關鍵信息。第一層的卷積核比較大,包含稀疏的正負響應的平面,從而增加包含適當特征的機會;第二層的卷積核比較小,容易訓練,梯度較低,在容量方面也比較理想。進一步分析得出,在淺層卷積層中大量特征圖受到背景特征影響,只有少部分能得到害蟲特征圖。隨著層次的深入,卷積特征圖忽略不相關的背景,突出更抽象的高維分類特征。由圖9還可以觀察到,底層特征包含一些非害蟲信息,低層卷積特征的背景信息分布較為分散,這就導致了低層卷積層很難直接去除非害蟲信息。因此,為了有效地將低層卷積特征與高層卷積特征連接起來,獲得增強鑒別能力的卷積特征,我們采用注意力機制選擇害蟲的特征,去除低層卷積特征的非害蟲信息。表1為LFNN[3]、LFSVM[4]、DL[19]、ICNN[20]、VGG16[22]和本研究提出的MSCNA模型對4種害蟲圖像的檢測結果。圖10為6種方法對4種害蟲的檢測準確率。

        LFNN:基于局部特征和神經網絡的檢測方法;LFSVM:基于局部不變特征和支持向量機的檢測方法;DL:基于深度學習模型的玉米害蟲檢測識別方法;ICNN:基于改進CNN的作物害蟲檢測與分類方法;VGG16:基于權重參數為16的經典網絡的檢測方法;MSCNA:基于多尺度注意力卷積網絡檢測方法。

        從表1看出,基于DL、ICNN、VGG16和本研究模型(MSCNA)的4種深度學習方法的檢測精度遠大于LFNN和LFSVM 2種傳統(tǒng)方法,其原因是深度學習能夠從復雜圖像中自動學習圖像的分類特征,而傳統(tǒng)方法很難提取到害蟲的魯棒特征,因為在田間即使是同一只害蟲每時每刻也變化多樣。一般傳統(tǒng)方法都需要對害蟲圖像進行預處理,再進行害蟲圖像分割,表1的6種方法都采用原始圖像及其擴展圖像進行試驗,由于2種傳統(tǒng)方法不能提取有效的分類特征,所以他們的識別率很低。4種基于深度學習的方法的訓練時間遠長于2種傳統(tǒng)方法,其原因是,與LFNN和LFSVM相比,深度學習需要花大量時間訓練模型中的參數。對于訓練好的LFNN、LFSVM和4種深度學習模型,測試時間差異不大。本研究方法(基于MSCNA檢測方法)優(yōu)于其他方法,檢測率最高,檢測時間最少。

        綜合來看,基于MSCNA方法在少量數據的基礎上進行有監(jiān)督學習,避免了復雜的圖像處理過程,在準確率、訓練和測試時間方面相比其他方法較好,說明MSCNA具有很好的分類性能。主要原因是多尺度和注意力機制引入到MSCNA,在特征提取階段,將卷積后的加權特征向量替換原來的特征向量用于殘差融合,再利用二階項在訓練過程中減少信息損失和加快網絡訓練。

        3 討論

        及時、準確地檢測到作物害蟲,是作物害蟲精準防治的前提[32-33]。由于大田背景復雜,大田害蟲種類多,同一只害蟲的姿態(tài)和形態(tài)多種多樣,所以作物害蟲檢測是一項重要且具有挑戰(zhàn)性的研究[34-35]。本研究將注意力機制、殘差模型與VGG16相結合,提出了一種MSCNA模型,并應用于多尺度害蟲檢測中。該模型在特征提取過程中引入注意力機制,然后用濾波后的加權特征向量代替原始特征向量,再進行殘差融合,最后在訓練過程中引入二階殘差項,由此減少信息損失,加快網絡訓練速度。在害蟲圖像數據集上的試驗結果表明,MSCNA是一種有效的害蟲檢測模型,其檢測精度達到90%以上。試驗中的害蟲圖像均在大田條件下采集,而不是在理想條件下采集,這使得提出的模型具有較強的抗干擾能力?;贛SCNA的害蟲識別方法可以在圖像中定位害蟲,而其他方法主要實現害蟲圖像分類。所以,本研究方法能有效地緩解數據處理中人為因素的干擾和人為負擔。該方法可應用于作物害蟲自動檢測與識別。未來的工作重點主要有:害蟲數據庫不足以反映所提方法的可行性,需要擴充,后期利用物聯網自動采集害蟲圖像,擴大數據集。在害蟲防治過程中,害蟲分類要求更加細致,害蟲的生長周期需要劃分,需要根據害蟲生長的不同時期識別害蟲類別,由此采取不同的防治措施。

        參考文獻:

        [1] MARTINEAU M, CONTE D, RAVEAUX R, et al. A survey on image-based insect classification [J]. Pattern Recognition, 2017, 65:273-284.

        [2] YAAKOB S N, JAIN L. An insect classification analysis based on shape features using quality threshold ARTMAP and moment invariant [J]. Applied Intelligence, 2012, 37(1):12-30.

        [3] FEDOR P, JAROMíR V, HAVEL J, et al. Artificial intelligence in pest insect monitoring [J]. Systematic Entomology, 2009, 34(2):398-400.

        [4] WEN C, GUYER D E, LI W. Local feature-based identification and classification for orchard insects [J]. Biosystems Engineering, 2009, 104(3):299-307.

        [5] WEN C, GUYER D. Image-based orchard insect automated identification and classification method [J]. Computers & Electronics in Agriculture, 2012, 89:110-115.

        [6] BOISSARD P, MARTIN V, MOISAN S. A cognitive vision approach to early pest detection in greenhouse crops[J]. Computers & Electronics in Agriculture, 2008, 62(2):81-93.

        [7] ZHU L Q, ZHANG Z. Automatic insect classification based on local mean colour feature and supported vector machines [J]. Oriental Insects, 2012, 46(3/4):260-269.

        [8] FINA F, BIRCH P, YOUNG R, et al. Automatic plant pest detection and recognition using k-means clustering algorithm and correspondence filters [J]. International Journal of advanced Biotechnology & Research, 2013, 4:189-199.

        [9] JAYME G A. Using digital image processing for counting whiteflies on soybean leaves [J]. Journal of Asia Pacific Entomology, 2014,17 (4):685-694.

        [10]XIE C, ZHANG J, LI R, et al. Automatic classification for field crop insects via multiple-task sparse representation and multiple-kernel learning [J]. Computers & Electronics in Agriculture, 2015, 119:123-132.

        [11]ZHANG H T, HU Y X, ZHANG H Y. Extraction and classifier design for image recognition of insect pests on field crops [J]. Advanced Materials Research, 2013(756/759):4063-4067.

        [12]EBRAHIMI M A, KHOSHTAGHAZA M H, MINAEI S, et al. Vision-based pest detection based on SVM classification method [J]. Computers & Electronics in Agriculture, 2017, 137:52-58.

        [13]WANG Z B, WANG K Y, LIU Z Q, et al. A cognitive vision method for insect pest image segmentation [J]. IFAC-Papers On Line, 2018, 15(17): 85-89.

        [14]周飛燕,金林鵬,董 軍. 卷積神經網絡研究綜述[J]. 計算機學報, 2017,40(6): 1229-1251.

        [15]BERNAL J, KUSHIBAR K, ASFAW D S, et al. Deep convolutional neural networks for brain image analysis on magnetic resonance imaging: a review[J]. Artificial Intelligence in Medicine, 2019, 95:64-81.

        [16]TRKOLU M, HANBAY D. Plant disease and pest detection using deep learning-based features [J]. Turkish Journal of Electrical Engineering and Computer, 2019, 27(3):1636-1651.

        [17]BHATT N, PATEL D. Insect identification among deep learnings meta-architectures using tensorflow [J]. International Journal of Engineering and Advanced Technology, 2019,9(1):1910-1914

        [18]NANNI L, MAGUOLO G, PANCINO F. Insect pest image detection and recognition based on bio-inspired methods [J].Ecological Informatics, 2020, 57:101089.

        [19]WITENBERG S R, ADAO N A, D′IBIO L B. A deep learning model for recognition of pest insects in maize plantations [C]//FANTI M P,ZHOU M C. IEEE International Conference on Systems, Man and Cybernetics (SMC).Bari Italy:IEEE Press,2019.

        [20]XIA D, CHEN P, WANG B. Insect detection and classification based on an improved convolutional neural network[J]. Sensors, 2018, 18(12):4169.

        [21]LIU L, WANG R, XIE C, et al. Pestnet: an end-to-end deep learning approach for large-scale multi-class pest detection and classification [J]. IEEE Access, 2019, 7:45301-45312.

        [22]錢 蓉,孔娟娟,朱靜波,等. 基于VGG-16卷積神經網絡的水稻害蟲智能識別研究[J]. 安徽農業(yè)科學, 2020, 48(5):235-238.

        [23]徐誠極,王曉峰,楊亞東. Attention-YOLO:引入注意力機制的YOLO檢測算法[J]. 計算機工程與應用, 2019, 55(6):19-29,131.

        [24]BARROS P, PARISI G I, WEBER C, et al. Emotion-modulated attention improves expression recognition: a deep learning model[J]. Neurocomputing, 2017, 253(30):104-114.

        [25]梁 斌,劉 全,徐 進.基于多注意力卷積神經網絡的特定目標情感分析[J]. 計算機研究與發(fā)展,2017,54(8): 1724-1735.

        [26]樂 毅,王文宇,張 凱,等.基于多層注意力機制的農業(yè)病蟲害遠程監(jiān)督關系抽取研究[J]. 安徽農業(yè)大學學報,2020,47 (4):189-193.

        [27]孫皓澤,常天慶,王全東,等.一種基于分層多尺度卷積特征提取的坦克裝甲目標圖像檢測方法[J]. 兵工學報, 2017(9):1681-1691.

        [28]MUSTAFA H T, YANG J, ZAREAPOOR M. Multi-scale convolutional neural network for multi-focus image fusion [J]. Image and Vision Computing, 2019, 85(5):26-35.

        [29]LIU Z, WU J, FU L, et al. Improved kiwifruit detection using pre-trained VGG16 with RGB and NIR information fusion[J]. IEEE Access, 2020, 8(1):2327-2336.

        [30]WANG X, GU Y, GAO X, et al. Dual residual attention module network for single image super resolution[J]. Neurocomputing, 2019, 364:269-279.

        [31]LIU Z, HUANG J, ZHU C, et al. Residual attention network using multi-channel dense connections for image super-resolution[J]. Applied Intelligence, 2020(1): 1-15.

        [32]陶震宇,孫素芬,羅長壽. 基于Faster-RCNN的花生害蟲圖像識別研究[J]. 江蘇農業(yè)科學,2019,47(12):247-250.

        [33]邢 鯤,曹俊宇,王媛媛,等. 設施蔬菜昆蟲群落結構與時序動態(tài)[J].江蘇農業(yè)學報,2019,35(3):564-574.

        [34]梁 勇,趙 健,林營志,等. 基于紅外傳感器的實蠅類害蟲實時監(jiān)測裝置的設計[J].江蘇農業(yè)科學,2020,48(4):230-234.

        [35]馬 林,林金盛,陸 娜,等. 江浙地區(qū)秀珍菇雙翅目害蟲鑒定及防治[J].南方農業(yè)學報,2019,50(1):68-73.

        (責任編輯:陳海霞)

        猜你喜歡
        注意力機制卷積神經網絡
        面向短文本的網絡輿情話題
        基于自注意力與動態(tài)路由的文本建模方法
        軟件導刊(2019年1期)2019-06-07 15:08:13
        基于深度學習的問題回答技術研究
        基于LSTM?Attention神經網絡的文本特征提取方法
        基于注意力機制的雙向LSTM模型在中文商品評論情感分類中的研究
        軟件工程(2017年11期)2018-01-05 08:06:09
        InsunKBQA:一個基于知識庫的問答系統(tǒng)
        基于卷積神經網絡溫室智能大棚監(jiān)控系統(tǒng)的研究
        基于深度卷積神經網絡的物體識別算法
        深度學習算法應用于巖石圖像處理的可行性研究
        軟件導刊(2016年9期)2016-11-07 22:20:49
        基于深度卷積網絡的人臉年齡分析算法與實現
        軟件工程(2016年8期)2016-10-25 15:47:34
        久久综合另类激情人妖| 欧美性大战久久久久久久| 综合网五月| 亚洲无码毛片免费视频在线观看 | 久久一日本道色综合久久大香| 久草91这里只有精品| 女人18毛片aa毛片免费| 亚洲2022国产成人精品无码区| 久久超碰97人人做人人爱 | 成人在线观看av毛片| 性无码一区二区三区在线观看| 精品国产一区二区三区免费| 国产无码swag专区| 久久久婷婷综合亚洲av| av影片手机在线观看免费网址| 亚洲av无码一区二区三区鸳鸯影院| 丰满人妻被黑人猛烈进入| 亚洲线精品一区二区三区八戒| 女优av福利在线观看| 国产黄色三级一区二区三区四区| 热99re久久精品这里都是精品免费| 麻豆久久久9性大片| 思思99热| 中文字幕一区二区三区四区久久| 喷水白浆视频在线观看| 国产又大又硬又粗| 把插八插露脸对白内射| A亚洲VA欧美VA国产综合| 青青草免费观看视频免费| 亚洲国产不卡av一区二区三区| 精品亚洲在线一区二区| 午夜无码一区二区三区在线观看| 亚洲精品suv精品一区二区| 动漫在线无码一区| 丰满少妇又爽又紧又丰满动态视频| h视频在线播放观看视频| 人与动牲交av免费| 国产午夜福利精品| 乱人伦视频69| 一区二区三区夜夜久久| 国产一区二区三区av天堂|