亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于Faster R-CNN的美國(guó)白蛾圖像識(shí)別模型研究

        2021-01-18 10:24:40薛大暄張瑞瑞陳立平陳梅香
        環(huán)境昆蟲學(xué)報(bào) 2020年6期
        關(guān)鍵詞:白蛾錨點(diǎn)圖像

        薛大暄,張瑞瑞,陳立平*,陳梅香,徐 剛

        (1. 首都師范大學(xué)信息工程學(xué)院,北京 100048;2. 國(guó)家農(nóng)業(yè)智能裝備工程技術(shù)研究中心,北京 100097)

        美國(guó)白蛾Hyphantriacunea為鱗翅目燈蛾科的一種昆蟲,是為害農(nóng)作物、林木、果樹、花卉等植物的食葉害蟲。近年,受氣候變化環(huán)境污染等影響,美國(guó)白蛾危害快速蔓延。美國(guó)白蛾成蟲適應(yīng)性強(qiáng)、繁殖量大、傳播途徑廣(陳學(xué)新等,2017;孔雪華,2010),動(dòng)態(tài)監(jiān)測(cè)并有針對(duì)性防治是提升白蛾防控的重要手段。及時(shí)的蟲情監(jiān)測(cè)和有效的早期防治能夠避免重大的經(jīng)濟(jì)和生態(tài)損失。在美國(guó)白蛾防治過程中,通過懸掛誘捕裝置,并對(duì)誘捕白蛾進(jìn)行識(shí)別、分類、計(jì)數(shù)是當(dāng)前蟲情動(dòng)態(tài)監(jiān)測(cè)的主要方法。因白蛾發(fā)生范圍廣、預(yù)警區(qū)域大、誘捕數(shù)量多、混雜異類昆蟲多等特點(diǎn),導(dǎo)致人工識(shí)別、分類、計(jì)數(shù)速度慢、耗時(shí)長(zhǎng)、強(qiáng)度高、主觀性強(qiáng)。

        隨著計(jì)算機(jī)技術(shù)的不斷發(fā)展,基于圖像處理技術(shù)的害蟲自動(dòng)識(shí)別技術(shù)得到廣泛的研究。張紅濤等通過蟻群優(yōu)化算法從糧蟲17維形態(tài)學(xué)特征中自動(dòng)提取出最優(yōu)特征子空間,采用支持向量機(jī)對(duì)糧蟲進(jìn)行分類(張紅濤,2002)。毛文華等利用幀間差分法來提取蝗蟲的形態(tài)特征因子,通過分類和構(gòu)建數(shù)學(xué)模型來統(tǒng)計(jì)蝗蟲數(shù)量(毛文華等,2008)。陳月華等首次將K均值聚類算法用于害蟲圖像的分類,運(yùn)用合并和分裂相結(jié)合的區(qū)域生長(zhǎng)算法分割害蟲和葉片(陳月華,2007)。通常自然環(huán)境下獲取的害蟲圖像背景噪聲較大,光線強(qiáng)度,姿態(tài)特征各不均勻,導(dǎo)致傳統(tǒng)的識(shí)別算法具有一定的局限性?;谏疃葘W(xué)習(xí)的目標(biāo)識(shí)別方法利用端對(duì)端方法對(duì)圖像特征進(jìn)行自動(dòng)提取,研究顯示利用深度學(xué)習(xí)方法對(duì)害蟲進(jìn)行識(shí)別效率高、識(shí)別時(shí)間快。楊國(guó)國(guó)等通過對(duì)整個(gè)圖像進(jìn)行顏色衰減加速運(yùn)算,結(jié)合超像素區(qū)域之間的空間影響,利用Grab Cut算法進(jìn)行害蟲定位和分割(楊國(guó)國(guó)等,2017)。孫俊等提出一種結(jié)合批歸一化與全局池化相結(jié)合的卷積神經(jīng)網(wǎng)絡(luò)識(shí)別模型(孫俊等,2017)。譚文學(xué)等設(shè)計(jì)深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)對(duì)果蔬果體病理圖像識(shí)別方法,并提出彈性動(dòng)量的參數(shù)學(xué)習(xí)方法(譚文學(xué)等,2017)。孫鈺等利用K-means聚類算法優(yōu)化Faster R-CNN,對(duì)任意姿態(tài)的紅脂大小蠹進(jìn)行目標(biāo)識(shí)別(孫鈺等,2019)。

        本文以美國(guó)白蛾為研究對(duì)象,對(duì)自然環(huán)境下誘捕到的美國(guó)白蛾樣本進(jìn)行圖像識(shí)別技術(shù)研究,提出一種結(jié)合Inception_v2網(wǎng)絡(luò)的Faster R-CNN(Zengetal.,2018)美國(guó)白蛾識(shí)別改進(jìn)模型(ImprovedHyphantriacuneaRecognition Model,IHCDM)。該模型平衡處理速度和識(shí)別準(zhǔn)確率,能夠自動(dòng)定位、識(shí)別美國(guó)白蛾蟲體,為白蛾的機(jī)器自動(dòng)統(tǒng)計(jì)、篩選提供了參考方法。

        1 材料與方法

        1.1 實(shí)驗(yàn)材料

        美國(guó)白蛾樣本來源于北京市昌平區(qū)、海淀區(qū)。因美國(guó)白蛾自然環(huán)境下形態(tài)特殊,不同角度姿態(tài)差異大,使用Canon EOD 7 D相機(jī)采取正面、側(cè)面、斜側(cè)、背面4個(gè)角度樣本圖像。原始圖像像素大小2 736 px×3 648 px,將原始數(shù)據(jù)通過圖像預(yù)處理將像素縮減至600 px×1 024 px。

        表1所示為構(gòu)建容量為3 500張數(shù)據(jù)集,其中包含小部分背景圖像1 300張,將數(shù)據(jù)集按照PASCAL VOC競(jìng)賽的數(shù)據(jù)集劃分。其中2 600張用于構(gòu)建網(wǎng)絡(luò)訓(xùn)練集,450張用于構(gòu)建網(wǎng)絡(luò)驗(yàn)證集,450張用于構(gòu)建網(wǎng)絡(luò)測(cè)試集。為了保證模型評(píng)價(jià)指標(biāo)的準(zhǔn)確性,訓(xùn)練集、驗(yàn)證集、測(cè)試集樣本互斥。

        表1 美國(guó)白蛾數(shù)據(jù)集種類及數(shù)量

        通過LabelImg工具將訓(xùn)練集和驗(yàn)證集中的樣本分別進(jìn)行標(biāo)注。標(biāo)注類別分兩種:美國(guó)白蛾、其他兩個(gè)類別,生成的xml文件包含五個(gè)重要參數(shù)(Name,Xmin,Ymin,Xmax,Ymax)。其中Name代表標(biāo)注的類別,Xmin,Ymin,Xmax,Ymax代表矩形框的左上角,右下角的位置坐標(biāo),用于目標(biāo)識(shí)別算法中RPN網(wǎng)絡(luò)的回歸計(jì)算。

        1.2 IHCDM模型

        1.2.1經(jīng)典Faster R-CNN深度學(xué)習(xí)模型

        Faster R-CNN識(shí)別算法中采用區(qū)域候選網(wǎng)絡(luò)(Region Proposal Network,RPN)代替Selective Search算法(Renetal.,2015),極大程度減少了生成候選框的時(shí)間。RPN網(wǎng)絡(luò)流程圖如下圖2所示(Qinetal.,2017),RPN網(wǎng)絡(luò)提出一種錨點(diǎn),錨點(diǎn)是原始圖片經(jīng)過卷積操作之后在特征圖(feature map)中感受野的中心,錨點(diǎn)用于解決邊界框長(zhǎng)度不一致問題。在特征圖中采用一個(gè)3×3的滑動(dòng)窗口進(jìn)行卷積操作,每一個(gè)滑動(dòng)窗口會(huì)對(duì)錨點(diǎn)周圍產(chǎn)生多個(gè)候選框區(qū)域,每一個(gè)候選區(qū)域框包含前景背景得分和每一個(gè)候選區(qū)域框的位置信息(Fanetal.,2016)。假設(shè)每一次預(yù)測(cè)識(shí)別框的數(shù)量為k,分別進(jìn)行1×1卷積操作,在分類層得到2 k個(gè)的分?jǐn)?shù),在回歸層得到4 k個(gè)位置坐標(biāo)信息。在默認(rèn)狀況下,用(0.5,1.0,2.0)三種比例和(8,16,32)下采樣倍數(shù),得到k=9種不同的錨點(diǎn)。對(duì)于W×H大小的特征圖,總共有W×H×k個(gè)錨點(diǎn)。

        (a)第一示例 (b)第二示例

        圖2 RPN網(wǎng)絡(luò)流程圖Fig.2 Flow chart of RPN network

        RPN網(wǎng)絡(luò)訓(xùn)練中對(duì)每個(gè)錨點(diǎn)分配一個(gè)二分類標(biāo)簽(是否為object)。以下這兩種錨點(diǎn)設(shè)置為正標(biāo)簽:1)與真實(shí)框(intersection-over-inion,IoU)最高的候選框;2)與真實(shí)框IoU大于0.7的候選框。對(duì)于某個(gè)錨點(diǎn)與真實(shí)框IoU大于0.3,則判定為負(fù)標(biāo)簽,其余IoU大于0.3和IoU小于0.7的候選框不參與訓(xùn)練(Chenetal.,2017)。對(duì)于圖像的損失函數(shù)定義如式1所示:

        (1)

        其中i是小批量數(shù)據(jù)的索引,pi是第i個(gè)錨點(diǎn)的目標(biāo)識(shí)別概率值。如果錨點(diǎn)映射的是正標(biāo)簽,則pi*為1,反之為0。目標(biāo)分類的損失函數(shù)是對(duì)二分類問題的對(duì)數(shù)損失,公式如式2所示:

        Lcls(pi,pi*)=log[pipi*+(1-pi)(1-pi*)]

        (2)

        對(duì)于目標(biāo)回歸的損失函數(shù)定義如式3所示:

        Lreg(ti,ti*)=∑i∈{x,y,w,h}smoothl1(ti-ti*)

        (3)

        對(duì)于邊界框回歸,ti是預(yù)測(cè)框的4個(gè)坐標(biāo)向量,其中包含{tx,ty,tw,th},ti*是真實(shí)框的4個(gè)坐標(biāo)向量,公式計(jì)算如式4所示:

        (4)

        其中,(x,y)代表預(yù)測(cè)邊界框的中心點(diǎn)坐標(biāo),(xa,ya)代表錨點(diǎn)包圍盒的中心點(diǎn)坐標(biāo),(x*,y*)代表真實(shí)邊界框的中心點(diǎn)坐標(biāo),w,h分別代表框?qū)捄透?。邊界框回歸的目的是讓預(yù)測(cè)候選框不斷接近真實(shí)邊界框的回歸。

        1.2.2IHCDM模型

        從AlexNet的8層網(wǎng)絡(luò)結(jié)構(gòu)到經(jīng)典Faster R-CNN網(wǎng)絡(luò)模型的VGG 16的網(wǎng)絡(luò)結(jié)構(gòu),主流的網(wǎng)絡(luò)結(jié)構(gòu)突破大多數(shù)是增加網(wǎng)絡(luò)層數(shù)和神經(jīng)元數(shù)量。但是單純的增加深度和寬度會(huì)導(dǎo)致參數(shù)過多出現(xiàn)過擬合問題,網(wǎng)絡(luò)層數(shù)加深,參數(shù)計(jì)算量變多,導(dǎo)致計(jì)算機(jī)計(jì)算量過大,訓(xùn)練時(shí)間久,難以應(yīng)用。Inception_v2為解決以上問題,在神經(jīng)網(wǎng)絡(luò)中添加了多種不同的卷積層和池化層,將Inception_v1中5×5的卷積層分別用兩個(gè)3×3的卷積層代替,極大程度降低了參數(shù)數(shù)量,也加速了神經(jīng)網(wǎng)絡(luò)的計(jì)算,增加了神經(jīng)網(wǎng)絡(luò)對(duì)圖像尺寸的適用性。

        本文將對(duì)比傳統(tǒng)識(shí)別模型,Inception_v2,ResNet 50(Rezendeetal.,2017),ResNet 101等網(wǎng)絡(luò)模型,最終將VGG 16輸入模型替換為Inception_v2網(wǎng)絡(luò)結(jié)構(gòu),并對(duì)IHCDM中學(xué)習(xí)率,迭代次數(shù),訓(xùn)練集數(shù)量等超參數(shù)進(jìn)行調(diào)整,改進(jìn)后的識(shí)別框架如圖3所示。

        圖3 IHCDM流程圖Fig.3 Chart of IHCDM model

        1.2.3遷移學(xué)習(xí)

        遷移學(xué)習(xí)在深度學(xué)習(xí)領(lǐng)域應(yīng)用十分廣泛,將已經(jīng)訓(xùn)練好的模型遷移到另一個(gè)模型中,幫助新模型進(jìn)行輔助訓(xùn)練。自然環(huán)境下,美國(guó)白蛾圖像數(shù)據(jù)體態(tài)特征均有差異。若進(jìn)行初始零訓(xùn)練,網(wǎng)絡(luò)模型難以收斂,損失值下降過慢(袁功霖等,2018)。本文實(shí)驗(yàn)采用遷移學(xué)習(xí)提升IHCDM精度,遷移學(xué)習(xí)的優(yōu)點(diǎn)在于對(duì)美國(guó)白蛾圖像數(shù)據(jù)不需要初始學(xué)習(xí)特征,用訓(xùn)練好的預(yù)訓(xùn)練模型進(jìn)行共同的特性遷移,從而極大減少了模型訓(xùn)練過程并縮短了模型訓(xùn)練時(shí)間。

        1.2.4超參數(shù)法

        學(xué)習(xí)率是神經(jīng)網(wǎng)絡(luò)梯度下降算法中一個(gè)重要的參數(shù),學(xué)習(xí)率過小會(huì)導(dǎo)致學(xué)習(xí)速度慢,導(dǎo)致收斂速度慢,易過擬合;學(xué)習(xí)率大對(duì)應(yīng)學(xué)習(xí)速度快,容易損失值爆炸。迭代次數(shù)是訓(xùn)練集在神經(jīng)網(wǎng)絡(luò)中的學(xué)習(xí)次數(shù),不同的迭代次數(shù)會(huì)產(chǎn)生不同的模型精度。本文實(shí)驗(yàn)通過控制變量法對(duì)比學(xué)習(xí)率,迭代次數(shù)等超參數(shù)提升IHCDM精度。

        1.2.5數(shù)據(jù)增強(qiáng)

        對(duì)于成熟的神經(jīng)網(wǎng)絡(luò)而言,其中的參數(shù)都是數(shù)以百萬計(jì),要使網(wǎng)絡(luò)識(shí)別模型足夠好,必須使用大量數(shù)據(jù)進(jìn)行訓(xùn)練。數(shù)據(jù)增強(qiáng)技術(shù)可以提高模型的泛化能力和魯棒性,防止模型過擬合。本文利用Keras深度學(xué)習(xí)框架中的ImageDataGenerator類對(duì)美國(guó)白蛾圖像數(shù)據(jù)進(jìn)行旋轉(zhuǎn)角度、水平平移、垂直平移、填充模式等4種方法提高模型的泛化能力。

        1.3 美國(guó)白蛾識(shí)別模型實(shí)驗(yàn)設(shè)計(jì)

        對(duì)比深度學(xué)習(xí)識(shí)別算法與傳統(tǒng)SVM+HOG算法,實(shí)驗(yàn)對(duì)美國(guó)白蛾圖像數(shù)據(jù)進(jìn)行了SVM+HOG算法的傳統(tǒng)目標(biāo)識(shí)別,實(shí)驗(yàn)結(jié)果表示深度學(xué)習(xí)目標(biāo)識(shí)別效果優(yōu)于傳統(tǒng)目標(biāo)識(shí)別算法?;谏疃葘W(xué)習(xí)的目標(biāo)識(shí)別中,訓(xùn)練集中圖像數(shù)據(jù)為單一的美國(guó)白蛾居多,從而導(dǎo)致網(wǎng)絡(luò)模型泛化能力較弱。針對(duì)以上問題,實(shí)驗(yàn)通過以下幾種方法對(duì)網(wǎng)絡(luò)模型精度進(jìn)行改進(jìn):1)增加一種識(shí)別背景類other;2)將原始卷積神經(jīng)網(wǎng)絡(luò)VGG替換為Inception_v2,對(duì)比ResNet 50、ResNet 101、inception+ResNet等網(wǎng)絡(luò)模型;3)對(duì)IHCDM中學(xué)習(xí)率,迭代次數(shù)等超參數(shù)進(jìn)行控制變量法對(duì)比;4)通過數(shù)據(jù)增強(qiáng)技術(shù)對(duì)IHCDM進(jìn)行精度提升。

        1.4 美國(guó)白蛾識(shí)別模型評(píng)價(jià)方法

        本文引入召回率(Recall)和均值平均精度(Mean Average Precision,mAP)做為IHCDM的評(píng)價(jià)指標(biāo)。其中召回率是針對(duì)樣本,表示樣本中的正樣本的個(gè)數(shù)有多少被正確預(yù)測(cè),是樣本中的正例與所有樣本中正樣本的比例,計(jì)算如式5所示:

        (5)

        其中,TP(True Positives)代表把正樣本預(yù)測(cè)為正類,F(xiàn)N代表把正樣本預(yù)測(cè)為負(fù)類。

        針對(duì)美國(guó)白蛾圖像,查準(zhǔn)率(Precision)可以計(jì)算模型精度,即為模型預(yù)測(cè)的TP數(shù)量除以真實(shí)圖像這一類目標(biāo)數(shù)量。通過識(shí)別模型類別N和查準(zhǔn)率來計(jì)算mAP值,計(jì)算公式如式6所示:

        (6)

        1.5 美國(guó)白蛾識(shí)別模型實(shí)驗(yàn)平臺(tái)

        本文通過對(duì)比不同深度學(xué)習(xí)框架中的模型設(shè)計(jì)、接口、部署、性能、架構(gòu)、設(shè)計(jì)等方面,采用Tensorflow框架作為本文的基礎(chǔ)框架。實(shí)驗(yàn)環(huán)境配置如下:操作系統(tǒng)為Ubuntu 16.04,CPU為Intel Core i 5-8700,GPU為RTX 2070,Python版本為Python 3.6,內(nèi)存為16 G。

        2 結(jié)果與分析

        2.1 目標(biāo)識(shí)別方法性能對(duì)比

        傳統(tǒng)識(shí)別利用HOG算法將美國(guó)白蛾圖像局部區(qū)域的梯度方向直方圖構(gòu)成特征,并用SVM分類器進(jìn)行識(shí)別(任彧和顧成成,2011)。由于HOG特征不具備旋轉(zhuǎn)不變性以及滑動(dòng)窗口提取特征區(qū)域效率比RPN網(wǎng)絡(luò)差,最后訓(xùn)練出來的模型識(shí)別真實(shí)圖像mAP為0.90。在深度學(xué)習(xí)的網(wǎng)絡(luò)模型中,利用4種不同的目標(biāo)識(shí)別網(wǎng)絡(luò)進(jìn)行對(duì)比,圖像分辨率為600×1 024,迭代次數(shù)為10 000,圖像總數(shù)據(jù)為1 400張。經(jīng)過在實(shí)驗(yàn)平臺(tái)上8 h的訓(xùn)練,最終在測(cè)試集得到的mAP值如表2所示。從實(shí)驗(yàn)測(cè)試集圖4結(jié)果可以看到,SSD模型對(duì)于小物體識(shí)別效率較低。本文提出的IHCDM損失值(Loss)為0.140,mAP為99.5%。研究結(jié)果顯示,在閾值為0.85下,IHCDM召回率達(dá)到最高為99.7%,對(duì)比其他識(shí)別模型,IHCDM模型mAP分別增加了9.5%,0.5%,0.4%,6.4%。

        表2 目標(biāo)識(shí)別方法性能對(duì)比

        (a)SSD第一檢測(cè)示例

        (b)SSD第二檢測(cè)示例

        2.2 遷移學(xué)習(xí)方法性能對(duì)比

        實(shí)驗(yàn)采用COCO數(shù)據(jù)集迭代200 000次的模型作為實(shí)驗(yàn)的預(yù)訓(xùn)練模型。在圖像識(shí)別當(dāng)中,大部分?jǐn)?shù)據(jù)都存在著一定的相關(guān)性,實(shí)驗(yàn)將利用原始的Faster R-CNN+Inception網(wǎng)絡(luò)模型已經(jīng)學(xué)習(xí)到的參數(shù)遷移到IHCDM當(dāng)中。如圖5所示,當(dāng)不采用遷移學(xué)習(xí)方法時(shí),IHCDM在迭代次數(shù)為10 000時(shí)損失值趨近于0.4。采用遷移學(xué)習(xí)方法時(shí),IHCDM損失值趨近于零,并且收斂快,識(shí)別效率高,對(duì)識(shí)別精度,訓(xùn)練速度都有很大的提升。

        (a)模型未使用遷移學(xué)習(xí)

        (b)模型使用遷移學(xué)習(xí)

        2.3 超參數(shù)改進(jìn)方法性能對(duì)比

        在模型訓(xùn)練中,學(xué)習(xí)率的不同影響訓(xùn)練中梯度下降幅度,從而導(dǎo)致模型訓(xùn)練效果不同。利用控制變量法保持其他超參數(shù)一定,對(duì)不同的學(xué)習(xí)率下的網(wǎng)絡(luò)模型進(jìn)行識(shí)別對(duì)比,并對(duì)測(cè)試集中的美國(guó)白蛾數(shù)據(jù)進(jìn)行識(shí)別,設(shè)定其閾值為0.85。如表3所示,當(dāng)學(xué)習(xí)率為0.002時(shí),Loss最小值為0.016,召回率為99.8,mAP在損失函數(shù)最小的情況下達(dá)到99.5%。

        表3 不同學(xué)習(xí)率的效率對(duì)比

        在模型訓(xùn)練中,迭代次數(shù)直接影響模型訓(xùn)練的效果。在訓(xùn)練過程中,根據(jù)不同的迭代次數(shù)網(wǎng)絡(luò)進(jìn)行參數(shù)微調(diào)。迭代次數(shù)過小則模型收斂困難,迭代次數(shù)過大,容易導(dǎo)致過擬合,設(shè)定其閾值為0.85。如圖4所示,當(dāng)?shù)螖?shù)為50 000次,損失值收斂,識(shí)別效果達(dá)到最優(yōu),召回率為99.8%,mAP達(dá)到99.6%。

        2.4 數(shù)據(jù)增強(qiáng)方法性能對(duì)比

        本文通過用Keras中的ImageDataGenerator類對(duì)原始圖像數(shù)據(jù)進(jìn)行預(yù)處理操作,重新標(biāo)注后放入識(shí)別模型中訓(xùn)練。對(duì)于自然狀態(tài)下的美國(guó)白蛾,形態(tài)特征均不一樣,數(shù)據(jù)增強(qiáng)方法促使卷積神經(jīng)網(wǎng)絡(luò)更多學(xué)習(xí)圖像中不同的特征,對(duì)于模型識(shí)別

        表4 不同的迭代次數(shù)效率對(duì)比

        率有一定的提升。實(shí)驗(yàn)結(jié)果表明,圖6中左側(cè)未使用數(shù)據(jù)增強(qiáng)技術(shù),識(shí)別中部分美國(guó)白蛾未被正確識(shí)別,右側(cè)使用數(shù)據(jù)增強(qiáng)方法美國(guó)白蛾圖像全部被正確識(shí)別。數(shù)據(jù)增強(qiáng)技術(shù)提高了模型的泛化能力以及魯棒性,同時(shí)提高了目標(biāo)識(shí)別效率。

        (a)模型未使用數(shù)據(jù)增強(qiáng)

        3 結(jié)論與討論

        本文采用深度學(xué)習(xí)方法,將目標(biāo)檢測(cè)方法對(duì)林業(yè)有害生物美國(guó)白蛾進(jìn)行識(shí)別,得到如下結(jié)論:

        (1)構(gòu)建了端到端的美國(guó)白蛾檢測(cè)模型IHCDM,對(duì)比傳統(tǒng)檢測(cè)算法HOG+SVM,IHCDM模型比傳統(tǒng)目標(biāo)檢測(cè)算法檢測(cè)精度高9.6%,本研究驗(yàn)證了深度學(xué)習(xí)在美國(guó)白蛾檢測(cè)中的可行性和有效性,極大程度減少了人工成本和工作量,提高了美國(guó)白蛾的檢測(cè)效率與預(yù)警實(shí)時(shí)性。

        (2)IHCDM模型突破了小目標(biāo)昆蟲美國(guó)白蛾檢測(cè)的嚴(yán)格要求,避免了圖像預(yù)處理階段對(duì)于美國(guó)白蛾圖像特征提取的人工干預(yù)。對(duì)比ResNet 50、ResNet 101、SSD+Mobilenet_V1三種不同的卷積神經(jīng)網(wǎng)絡(luò),檢測(cè)精度分別提高了0.5,0.4,6.4個(gè)百分點(diǎn)。

        (3)采用遷移學(xué)習(xí)和數(shù)據(jù)增強(qiáng)技術(shù)改進(jìn)IHCDM模型,改進(jìn)后的IHCDM模型對(duì)美國(guó)白蛾檢測(cè)精度能夠達(dá)到99.5%,運(yùn)用控制變量法對(duì)IHCDM模型超參數(shù)進(jìn)行微調(diào)。當(dāng)學(xué)習(xí)率為0.002,迭代次數(shù)為50 000步時(shí),損失函數(shù)值最小,IHCDM精度達(dá)到99.6%。對(duì)于單個(gè)目標(biāo)和多個(gè)目標(biāo)檢測(cè)下,IHCDM模型表現(xiàn)良好。在檢測(cè)效率,檢測(cè)速度和魯棒性方面,改進(jìn)后的IHCDM模型都有明顯優(yōu)勢(shì)。

        (4)對(duì)比其他昆蟲研究,本文只針對(duì)單一物體進(jìn)行目標(biāo)檢測(cè),論文不足之處體現(xiàn)在檢測(cè)樣本分類少。改進(jìn)后的IHCDM模型對(duì)于其他有害生物有一定的參考價(jià)值,對(duì)于其他有害生物的多目標(biāo)檢測(cè)應(yīng)當(dāng)是今后的研究重點(diǎn)。下一步,本研究將IHCDM模型與實(shí)際相結(jié)合,設(shè)計(jì)并開發(fā)一款有害生物檢測(cè)APP應(yīng)用來提高有害生物災(zāi)害預(yù)警的及時(shí)性,對(duì)林業(yè)有害生物災(zāi)害防治有很高的實(shí)用價(jià)值。

        猜你喜歡
        白蛾錨點(diǎn)圖像
        改進(jìn)的LapSRN遙感圖像超分辨重建
        基于NR覆蓋的NSA錨點(diǎn)優(yōu)選策略研究
        5G手機(jī)無法在室分NSA站點(diǎn)駐留案例分析
        5G NSA錨點(diǎn)的選擇策略
        有趣的圖像詩
        5G NSA組網(wǎng)下錨點(diǎn)站的選擇策略優(yōu)化
        四平地區(qū)美國(guó)白蛾的發(fā)生與無公害防治
        美國(guó)白蛾的識(shí)別和危害特點(diǎn)及控制措施
        美國(guó)白蛾防治技術(shù)
        美國(guó)白蛾生活史及其性誘集監(jiān)測(cè)預(yù)報(bào)
        久久亚洲国产中v天仙www| 99无码熟妇丰满人妻啪啪| 性色av无码中文av有码vr| 欧美乱妇日本无乱码特黄大片| 97久久成人国产精品免费| 无人视频在线播放免费| 欧美又粗又长又爽做受| 人人妻人人爽人人做夜欢视频九色 | 日本一区二区三区视频网站| 亚洲日本va中文字幕| 伊人久久大香线蕉免费视频| 日本成人免费一区二区三区| 男人的天堂手机版av| 日韩精品内射视频免费观看| 福利一区视频| 中文字幕中文字幕人妻黑丝| 日韩精品中文一区二区三区在线| 99在线精品免费视频九九视| 国产AV无码一区精品天堂| 狠狠久久av一区二区三区| 日本孕妇潮喷高潮视频| 国产一女三男3p免费视频| 亚洲熟女av中文字幕网站| 婷婷开心五月亚洲综合| 久久亚洲精品成人av无码网站| 精品视频一区二区三三区四区| 日本草逼视频免费观看| 日本一区二区精品高清| 少妇性荡欲视频| 狠狠干视频网站| 亚洲人成精品久久熟女| 无码国内精品久久人妻| 亚洲综合网在线观看首页| 久久天堂精品一区专区av| www国产亚洲精品| 中国猛少妇色xxxxx| 日本国产在线一区二区| 中文字幕乱码熟女人妻在线 | 久久一区二区三区少妇人妻| 国产精品网站在线观看免费传媒 | 精品国产亚洲av高清日韩专区 |