肖德琴 張玉康 范梅紅 潘春華 葉耀文 蔡家豪
(1.華南農(nóng)業(yè)大學(xué)數(shù)學(xué)與信息學(xué)院, 廣州 510642; 2.廣東省農(nóng)業(yè)大數(shù)據(jù)工程技術(shù)研究中心, 廣州 510642;3.廣州東升農(nóng)場(chǎng)有限公司, 廣州 511470)
無(wú)線圖像傳感器網(wǎng)絡(luò)以其對(duì)視頻、圖像等大信息媒體的感知與處理優(yōu)勢(shì),催生了視覺(jué)感知技術(shù)在工業(yè)界和學(xué)術(shù)界的空前發(fā)展,導(dǎo)致視覺(jué)感知的圖像識(shí)別技術(shù)成為各界應(yīng)用的熱點(diǎn)[1-2]。近年來(lái),視覺(jué)感知技術(shù)在害蟲(chóng)識(shí)別[3-14]、作物長(zhǎng)勢(shì)分析[15]、作物病理診斷[16]等農(nóng)業(yè)領(lǐng)域得到了廣泛重視。農(nóng)業(yè)害蟲(chóng)圖像識(shí)別也成為近年來(lái)的研究熱點(diǎn)。
在害蟲(chóng)圖像識(shí)別領(lǐng)域,目前主要是通過(guò)對(duì)誘捕板害蟲(chóng)進(jìn)行計(jì)數(shù)和對(duì)綠色植物葉面的害蟲(chóng)進(jìn)行計(jì)數(shù)。張水發(fā)等[3]、胡雅輝等[4]和MURAKAMI等[10]研究了綠葉表面的蔬菜害蟲(chóng)圖像,對(duì)薊馬或煙粉虱的識(shí)別率相對(duì)較高,但是識(shí)別的害蟲(chóng)類(lèi)型相對(duì)單一,而且需要人工翻轉(zhuǎn)每個(gè)葉面,不利于自動(dòng)化識(shí)別應(yīng)用。ESPINOZA等[6]和SUN等[12]關(guān)于誘捕板害蟲(chóng)的識(shí)別均有較好的識(shí)別精度。
針對(duì)當(dāng)前大田環(huán)境下害蟲(chóng)圖像識(shí)別技術(shù)存在種類(lèi)單一和背景過(guò)于理想化的不足[13-16],以及對(duì)大田環(huán)境下薊馬、煙粉虱等蔬菜害蟲(chóng)進(jìn)行識(shí)別計(jì)數(shù)的空缺,本文在對(duì)比分析以往邊緣檢測(cè)和閾值分割的經(jīng)典算法基礎(chǔ)上,以南方蔬菜重大害蟲(chóng)為研究對(duì)象,探索一種在大田環(huán)境下使用黃色誘捕板對(duì)蔬菜害蟲(chóng)進(jìn)行監(jiān)測(cè)計(jì)數(shù)的新方法,提出一種基于結(jié)構(gòu)化隨機(jī)森林的害蟲(chóng)圖像分割算法和利用不規(guī)則結(jié)構(gòu)的特征提取算法。進(jìn)一步結(jié)合背景去除、干擾目標(biāo)去除和檢測(cè)模型計(jì)數(shù)子算法,集成設(shè)計(jì)基于視覺(jué)感知的蔬菜害蟲(chóng)計(jì)數(shù)算法(Vegetable pest counting algorithm based on visual perception,VPCA-VP),在現(xiàn)場(chǎng)復(fù)雜環(huán)境下使害蟲(chóng)識(shí)別達(dá)到3類(lèi)以上。
VPCA-VP算法主要包括害蟲(chóng)圖像預(yù)分割、背景去除、干擾害蟲(chóng)去除、不規(guī)則特征提取和檢測(cè)計(jì)數(shù)5大模塊,算法流程圖如圖1所示。
預(yù)分割模塊中,針對(duì)大田現(xiàn)場(chǎng)圖像的復(fù)雜環(huán)境,本文使用結(jié)構(gòu)化隨機(jī)森林子算法對(duì)害蟲(chóng)圖像進(jìn)行預(yù)分割,獲得圖像中所有對(duì)象的輪廓;然后采用背景去除子算法去掉黃板以外的干擾背景,獲得只有黃板區(qū)域內(nèi)的圖像;再應(yīng)用干擾害蟲(chóng)去除子算法去除大型害蟲(chóng)部分肢體的干擾;最后運(yùn)用不規(guī)則特征提取子算法形成3維特征向量,并使用閾值判定子算法對(duì)害蟲(chóng)進(jìn)行分類(lèi)計(jì)數(shù)。
本文提出了一種基于結(jié)構(gòu)化隨機(jī)森林的分割算法,該算法采用監(jiān)督學(xué)習(xí)方式對(duì)害蟲(chóng)圖像進(jìn)行分割。美國(guó)伯克利大學(xué)的BSDS500圖像數(shù)據(jù)庫(kù)[17]為圖像分割和邊緣檢測(cè)提供了一個(gè)共享的圖形庫(kù),該圖像數(shù)據(jù)庫(kù)包括12 000個(gè)人工分割圖像和1 000個(gè)Corel數(shù)據(jù)庫(kù)圖像,涵蓋了物體、動(dòng)物和害蟲(chóng)等多個(gè)領(lǐng)域的圖像信息,國(guó)內(nèi)外很多學(xué)者使用BSDS500數(shù)據(jù)庫(kù)做各個(gè)領(lǐng)域的分割,例如徐良玉等[18]用其進(jìn)行海天線檢測(cè),ZITNICK等[19]用其對(duì)動(dòng)物進(jìn)行跟蹤。本文以BSDS500圖像數(shù)據(jù)庫(kù)為訓(xùn)練集,使用CIE-LUV的3個(gè)色彩空間、2種梯度大小(原始分辨率和原始分辨率的一半)[20]和8個(gè)方向(每個(gè)梯度有4個(gè)方向)[21],結(jié)合樣本空間的自相似性描述子,將樣本圖像轉(zhuǎn)換成7 228維的特征向量,進(jìn)一步利用向量轉(zhuǎn)換和降維技術(shù)得到256維的輸出向量[22]。特征向量和輸出向量用于訓(xùn)練單棵決策樹(shù),最終完成隨機(jī)森林的訓(xùn)練。
圖1 VPCA-VP算法流程圖Fig.1 Flowchart of VPCA-VP algorithm
經(jīng)過(guò)多次測(cè)試發(fā)現(xiàn),本實(shí)驗(yàn)中隨機(jī)森林的子樹(shù)個(gè)數(shù)T為4時(shí)效果比較好,本文基于隨機(jī)森林的害蟲(chóng)圖像生成流程算法如下:
輸入:訓(xùn)練集D=(X,Y),X是樣本的屬性集,Y是對(duì)應(yīng)樣本的標(biāo)簽集
輸出:訓(xùn)練好的隨機(jī)森林模型
GrowRandomTree(D)
fortto |T| do
隨機(jī)選取固定數(shù)量的屬性集合Xsub,結(jié)合標(biāo)簽集Y形成訓(xùn)練集Dt
訓(xùn)練隨機(jī)森林的單棵決策樹(shù)
end for
return random forest
結(jié)合害蟲(chóng)圖像對(duì)訓(xùn)練完成的隨機(jī)森林進(jìn)行測(cè)試,分割效果如圖2所示,本算法不僅可以準(zhǔn)確分割黃板邊緣,而且害蟲(chóng)對(duì)象的邊緣也能準(zhǔn)確分割出來(lái)。
直接提取出來(lái)的黃板區(qū)域是不包括黃板邊緣的像素,實(shí)際實(shí)驗(yàn)中發(fā)現(xiàn)很多害蟲(chóng)集中在黃板邊緣上,所以需要對(duì)黃板區(qū)域進(jìn)行微量膨脹來(lái)補(bǔ)充損失的黃板邊緣信息。由于原圖在農(nóng)場(chǎng)大田環(huán)境下采集,包含的背景比較多,因此,本文算法先需要除去黃板以外的植物和建筑物等其他背景,以獲取只有黃板的二值圖像。具體算法如下:
輸入:預(yù)分割圖像
輸出:背景去除后的圖像
getDelBlackground(I)
把圖像I作取反操作,得到圖像I1
對(duì)I1進(jìn)行填充操作,凸顯黃板區(qū)域,獲得圖像I2
新建立一個(gè)空白圖像,選取圖像I2的黃板放在空白圖像上,形成圖像I3
對(duì)I3進(jìn)行膨脹操作,彌補(bǔ)邊界的損失,得到圖像I4
returnI4
首先以圖2為研究對(duì)象,把圖2進(jìn)行取反操作,得到圖3a;然后對(duì)圖3a進(jìn)行填充操作,得到圖3b;最后對(duì)圖3b中黃板區(qū)域的連通域進(jìn)行選擇,存放在另外一個(gè)新建的圖像,得到圖3c。為了后面能夠獲取到黃板邊界的分割圖,需要補(bǔ)充黃板掩碼圖的缺陷,可對(duì)圖3c進(jìn)行膨脹操作得到黃色誘捕板的掩碼圖,膨脹算法選取尺寸為20×20的正方形結(jié)構(gòu)元素作為計(jì)算算子,結(jié)果如圖3d所示。再把圖2初步分割的結(jié)果與圖3d的掩碼圖進(jìn)行與運(yùn)算,可去掉黃板區(qū)域以外的建筑物、天空等背景圖像,最后得到只有黃色誘捕板的分割圖像,如圖3e所示。
圖2 結(jié)構(gòu)化隨機(jī)森林分割圖Fig.2 Segmentation diagrams of structured random forests
圖3 去除背景過(guò)程Fig.3 Process of removing background
識(shí)別害蟲(chóng)時(shí)可能會(huì)把體積較大害蟲(chóng)的部分肢體當(dāng)成本文需要識(shí)別的害蟲(chóng),為了排除超大型害蟲(chóng)的干擾,再一次提高后面害蟲(chóng)識(shí)別的精度,本文設(shè)計(jì)了如下干擾害蟲(chóng)去除算法。
輸入:已經(jīng)去除背景的分割圖像
輸出:已經(jīng)去除干擾害蟲(chóng)的分割圖像
圖4 去掉大型害蟲(chóng)干擾過(guò)程Fig.4 Process of removing interference of large pest
getDelOtherPest(I)
對(duì)圖像I進(jìn)行凸包擬合,得到只有大型害蟲(chóng)的凸包擬合圖像I1
對(duì)圖像I1中除了凸包區(qū)域外其他區(qū)域漫水填充成灰色,獲得圖像I2
對(duì)圖像I2進(jìn)行二分操作,灰色區(qū)域變成黑色,非灰色區(qū)域變成白色,形成圖像I3
根據(jù)I3對(duì)I進(jìn)行操作,I3為黑色區(qū)域位置則對(duì)應(yīng)保留I中原來(lái)像素,否則變成黑色像素,最終得到圖像I4
returnI4
首先,對(duì)圖3e進(jìn)行凸包擬合,找到凸包面積較大的區(qū)域,得到如圖4a所示結(jié)果;其次,對(duì)凸包擬合的圖像使用漫水填充算法進(jìn)行標(biāo)記,圖像上分別有灰色背景,黑色的害蟲(chóng)內(nèi)部區(qū)域和白色的害蟲(chóng)邊界,而且大型害蟲(chóng)輪廓還包含有子輪廓,如圖4b所示;然后,對(duì)圖4b進(jìn)行二分操作,把灰色背景變成黑色,其他的顏色全部變成白色,得到了圖4c的大型害蟲(chóng)掩碼圖;最后,根據(jù)圖4c大型害蟲(chóng)的掩碼圖,對(duì)圖3e進(jìn)行操作,如果是圖4c的白色區(qū)域,則把圖3e對(duì)應(yīng)區(qū)域的像素變成黑色,這樣就能去掉黃色誘捕板內(nèi)大型害蟲(chóng)的干擾,得到只有小型害蟲(chóng)的分割圖像,如圖4d所示。由此,獲得了只有小型害蟲(chóng)的分割圖像,為后面的識(shí)別盡可能地排除了干擾。
害蟲(chóng)圖像具有全局特征,如果對(duì)整張圖像進(jìn)行特征提取,這個(gè)圖像特征將包括害蟲(chóng)、黃板甚至是遠(yuǎn)處的建筑物等很多對(duì)象信息。經(jīng)典的做法是只計(jì)算每個(gè)分割對(duì)象矩形區(qū)域的特征,使特征區(qū)域只包含單個(gè)對(duì)象,這不可避免地帶來(lái)了對(duì)象以外的像素干擾,降低了該對(duì)象特征的代表性,如圖5所示。
圖5 傳統(tǒng)的特征提取子輪廓Fig.5 Feature extraction of sub contour by traditional method
本文使用一種新的算法對(duì)不規(guī)則圖像進(jìn)行特征提取,使提取出來(lái)的特征只有害蟲(chóng)對(duì)象特征,并排除其他像素特征的干擾。先把彩色圖像轉(zhuǎn)換成灰度圖,然后使用掩碼圖運(yùn)算的形式對(duì)害蟲(chóng)對(duì)象進(jìn)行像素提取,最后使用特征值計(jì)算紋理能量、對(duì)比度、熵、均勻度、相關(guān)度、顏色平均值、方差、能量、熵、區(qū)域面積、離心率和周長(zhǎng)的特征值。特征提取算法如下:
輸入:只有單個(gè)輪廓的分割圖像和原圖像的灰度圖
輸出:12維的特征向量
GetFeatureVector(I,Iori)
對(duì)圖像I的輪廓使用漫水填充算法得到圖像I2
把I2與原圖的灰度圖做與運(yùn)算,取出只有單個(gè)對(duì)象的灰度圖I3
計(jì)算I3的灰度共生矩陣,并進(jìn)行二次統(tǒng)計(jì)計(jì)算紋理的能量、對(duì)比度、熵、均勻度和相關(guān)度
計(jì)算I3圖像的顏色直方圖,并進(jìn)行二次統(tǒng)計(jì)求得顏色平均值、方差、能量和熵
計(jì)算I3中唯一輪廓的區(qū)域面積、離心率和周長(zhǎng)
return featureVector
此算法首先提取圖像的灰度圖,然后根據(jù)掩碼圖計(jì)算灰度圖的特征值,效果如圖6所示。根據(jù)提取出來(lái)的12個(gè)特征,使用SPSS對(duì)特征進(jìn)行主成分分析[23],獲得了面積、離心率和周長(zhǎng)3個(gè)主要特征。
圖6 特征提取子輪廓Fig.6 Feature extraction of sub contour
由于本文計(jì)數(shù)的害蟲(chóng)是薊馬、煙粉虱和實(shí)蠅,根據(jù)上一節(jié)的主成分分析,本文識(shí)別算法所采用的特征向量用面積、周長(zhǎng)和離心率來(lái)表示,在實(shí)際算法執(zhí)行過(guò)程中,發(fā)現(xiàn)計(jì)算輪廓周長(zhǎng)效果并不明顯,所以進(jìn)一步去除了周長(zhǎng)特征,為提高精度,本算法加上了第4主成分——顏色平均值,最后選擇的特征是面積S、離心率e和顏色平均值avh。進(jìn)一步根據(jù)害蟲(chóng)的特征分別設(shè)置相應(yīng)的閾值,若滿(mǎn)足條件S0
輸入:面積、離心率、顏色平均值
輸出:各種害蟲(chóng)的數(shù)量
CalPestNumber(S,e,avh)
for 1 to AllContour
如果是煙粉虱,則煙粉虱計(jì)數(shù)加1,進(jìn)入end for
如果是薊馬,則薊馬計(jì)數(shù)加1,進(jìn)入end for
如果是實(shí)蠅,則實(shí)蠅計(jì)數(shù)加1,進(jìn)入end for
其他類(lèi)型害蟲(chóng)計(jì)數(shù)加1,進(jìn)入end for
end for
return pestNumber
本文實(shí)驗(yàn)環(huán)境是在自然光照環(huán)境下對(duì)田間誘捕害蟲(chóng)的黃色誘捕板進(jìn)行采樣識(shí)別,采用佳能EOS T2i單反相機(jī)進(jìn)行微距拍攝,拍攝時(shí)相機(jī)與黃板的平視距離為50 cm,像素為3 500萬(wàn),拍攝地點(diǎn)在廣州市天河區(qū)柯木塱南路28~30號(hào)(113.412 671°E,23.190 265°N),實(shí)驗(yàn)拍攝情況如圖7所示,拍攝時(shí)間是14:30—17:00。本文采用辣椒地作為實(shí)驗(yàn)環(huán)境,在辣椒苗期開(kāi)始使用黃板誘捕,根據(jù)作物的長(zhǎng)勢(shì)及時(shí)調(diào)整懸掛高度,保持色板高于作物15~30 cm,每公頃懸掛450~750張黃板,黃板尺寸為24.5 cm×19.5 cm,太陽(yáng)光照強(qiáng)烈和溫和條件下都有采集圖像,同時(shí)黃色粘板本身又有一些粘液的干擾,圖像環(huán)境相對(duì)復(fù)雜,提高了計(jì)算機(jī)算法識(shí)別的難度。
本算法在Matlab和C++環(huán)境下進(jìn)行分析測(cè)試,其中C++使用OpenCV 3.0的圖像處理庫(kù)。本實(shí)驗(yàn)使用53幅圖像對(duì)薊馬和實(shí)蠅進(jìn)行計(jì)數(shù),在黃板膠體和強(qiáng)光影響下,實(shí)驗(yàn)對(duì)煙粉虱計(jì)數(shù)的效果不佳,對(duì)30幅光照強(qiáng)度相對(duì)較弱的圖像進(jìn)行煙粉虱計(jì)數(shù)研究,總共83幅圖像,算法效果較好,應(yīng)用測(cè)試結(jié)果如圖8所示。
對(duì)VPCA-VP算法的計(jì)量精度進(jìn)行分析。本文選取了薊馬、煙粉虱和實(shí)蠅為識(shí)別對(duì)象,對(duì)這3種害蟲(chóng)的計(jì)數(shù)結(jié)果與人工計(jì)數(shù)進(jìn)行對(duì)比,其性能分析結(jié)果用混淆矩陣表示,結(jié)果如圖9所示。
圖7 實(shí)驗(yàn)部署Fig.7 Experimental implementation
圖8 單張圖像計(jì)數(shù)的界面Fig.8 Graphical interface for single picture count
由圖9可知,薊馬識(shí)別正確率為93.19%,煙粉虱識(shí)別正確率為91%,實(shí)蠅識(shí)別正確率為100%。煙粉虱的識(shí)別性能相對(duì)較低,識(shí)別正確率只有91%,經(jīng)過(guò)分析發(fā)現(xiàn),主要的影響因素是黃色誘捕板上面的膠體發(fā)生了一些光照的反射,因?yàn)楸疚牡臋z測(cè)模型是通過(guò)顏色特征、邊界特征和區(qū)域特征來(lái)確定的,光照的反射使得膠體呈現(xiàn)出類(lèi)似煙粉虱的圖像,進(jìn)而產(chǎn)生了誤差。
圖9 VPCA-VP算法的性能分析結(jié)果Fig.9 Performance analysis results of VPCA-VP algorithm
為分析VPCA-VP算法的相對(duì)誤差,本文對(duì)每張黃板的計(jì)數(shù)結(jié)果進(jìn)行分析,把人工計(jì)算害蟲(chóng)的數(shù)量作為橫坐標(biāo),對(duì)應(yīng)害蟲(chóng)的相對(duì)誤差作為縱坐標(biāo),采用散點(diǎn)圖方式描述分布結(jié)果,如圖10所示。
由圖10a可知,薊馬的誤差范圍在-12.23%~8.17%之間波動(dòng),平均誤差為-1.40%;由圖10b可知,煙粉虱的識(shí)別誤差為-25%~25%,平均誤差為0.89%;由圖10c可知,實(shí)蠅相對(duì)誤差波動(dòng)較大,誤差從0~100%波動(dòng)。由圖10可得,薊馬和煙粉虱識(shí)別誤差在可以接受范圍內(nèi),而實(shí)蠅因?yàn)轶w積較大本來(lái)很容易識(shí)別,但是由于樣本數(shù)量少,每個(gè)黃板實(shí)蠅數(shù)量平均不到1個(gè),一旦出現(xiàn)一個(gè)實(shí)蠅變形,誤差就急劇上升。盡管如此,當(dāng)前監(jiān)測(cè)實(shí)蠅的總平均誤差為8%,也在可接受范圍內(nèi)。
將VPCA-VP算法與人工計(jì)數(shù)的方法進(jìn)行比較。參考每塊黃板的結(jié)果數(shù)據(jù),把人工計(jì)算害蟲(chóng)的數(shù)量作為橫坐標(biāo),算法計(jì)算對(duì)應(yīng)害蟲(chóng)的數(shù)量作為縱坐標(biāo),繪制散點(diǎn)圖,并且對(duì)每個(gè)數(shù)據(jù)進(jìn)行線性回歸擬合[23],畫(huà)出每塊黃板結(jié)果數(shù)據(jù)的回歸直線,結(jié)合回歸直線和散點(diǎn)的分布對(duì)本文算法進(jìn)行分析,結(jié)果如圖11所示。
圖10 算法的相對(duì)誤差Fig.10 Relative error of algorithm
圖11 算法計(jì)數(shù)和人工計(jì)數(shù)的回歸模擬Fig.11 Regression simulation of algorithm counting and manual counting
由圖11可知,除了實(shí)蠅有個(gè)別離群點(diǎn)之外,3種害蟲(chóng)的算法計(jì)數(shù)和人工計(jì)數(shù)基本符合線性模型,也就是說(shuō)算法總體精度較為可靠。從圖11a可知,離散點(diǎn)基本貼近回歸直線,所以算法對(duì)薊馬計(jì)數(shù)的結(jié)果和人工計(jì)數(shù)結(jié)果基本一致,薊馬的決定系數(shù)R2為0.98,算法精度較高;相比于圖11a,圖11b中的離散點(diǎn)也基本貼近回歸直線,煙粉虱的決定系數(shù)R2為0.97。從圖11c可知,實(shí)蠅的決定系數(shù)R2為0.94,擬合程度相對(duì)較差,這是由于每塊黃板的實(shí)蠅數(shù)量較少,只要一個(gè)遺漏就會(huì)產(chǎn)生較大的偏離,但多數(shù)情況算法都能找到實(shí)蠅,而且找到的基本都是對(duì)的,所以總體性能相對(duì)也是可以接受的。
對(duì)隨機(jī)森林分割算法加以改進(jìn),結(jié)合不規(guī)則結(jié)構(gòu)的特征提取算法,實(shí)現(xiàn)了一個(gè)基于視覺(jué)的害蟲(chóng)圖像計(jì)數(shù)算法,該算法實(shí)現(xiàn)了對(duì)煙粉虱、薊馬和實(shí)蠅的計(jì)數(shù),算法的平均識(shí)別正確率為94.89%,VPCA-VP算法能夠在純大田環(huán)境下對(duì)害蟲(chóng)進(jìn)行快速計(jì)數(shù),可為農(nóng)業(yè)害蟲(chóng)快速識(shí)別計(jì)算提供技術(shù)支持。
1李道亮,楊昊.農(nóng)業(yè)物聯(lián)網(wǎng)技術(shù)研究進(jìn)展與發(fā)展趨勢(shì)分析[J/OL].農(nóng)業(yè)機(jī)械學(xué)報(bào),2018,49(1):1-22.http:∥www.j-csam.org/jcsam/ch/reader/view_abstract.aspx?file_no=20180101&flag=1.DOI:10.6041/j.issn.1000-1298.2018.01.001.
LI Daoliang, YANG Hao. A state-of-the-art review for Internet of things in agriculture[J/OL]. Transactions of the Chinese Society for Agricultural Machinery,2018,49(1):1-22. (in Chinese)
2殷建軍,潘春華,肖克輝,等.基于無(wú)線圖像傳感器網(wǎng)絡(luò)的農(nóng)田遠(yuǎn)程監(jiān)測(cè)系統(tǒng)[J/OL].農(nóng)業(yè)機(jī)械學(xué)報(bào),2017,48(7):286-293.http:∥www.j-csam.org/jcsam/ch/reader/view_abstract.aspx?flag=1&file_no=20170736&journal_id=jcsam.DOI:10.6041/j.issn.1000-1298.2017.07.036.
YIN Jianjun, PAN Chunhua, XIAO Kehui, et al. Remote monitoring system for farmland based on wireless image sensor network[J/OL]. Transactions of the Chinese Society for Agricultural Machinery, 2017,48(7):286-293. (in Chinese)
3張水發(fā),王開(kāi)義,劉忠強(qiáng),等. 基于離散余弦變換和區(qū)域生長(zhǎng)的白粉虱圖像分割算法[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2013, 29(17): 121-128.
ZHANG S F, WANG K Y, LIU Z Q, et al. Algorithm for segmentation of whitefly images based on DCT and region growing[J]. Transactions of the CSAE, 2013, 29(17): 121-128. (in Chinese)
4胡雅輝,高靈旺. 煙粉虱成蟲(chóng)密度自動(dòng)計(jì)數(shù)系統(tǒng)[J]. 應(yīng)用昆蟲(chóng)學(xué)報(bào), 2011, 48(1): 84-87.
HU Y H,GAO L W. An automatic counting system for surveying density ofBemisiatabaciadults[J]. Chinese Journal of Applied Entomology, 2011,48(1):84-87.(in Chinese)
5陳梅香,楊信廷,石寶才,等. 害蟲(chóng)自動(dòng)識(shí)別與計(jì)數(shù)技術(shù)研究進(jìn)展與展望[J]. 環(huán)境昆蟲(chóng)學(xué)報(bào), 2015, 37(1):176-183.
CHEN M X, YANG X T, SHI B C, et al.Research progress and prospect of technologies for automatic identifying and counting of pests[J].Journal of Environmental Entomology, 2015,37(1): 176-183. (in Chinese)
6ESPINOZA K, VALERA D L, TORRES J A, et al. Combination of image processing and artificial neural networks as a novel approach for the identification of Bemisia tabaci and Frankliniella occidentalis on sticky traps in greenhouse agriculture[J]. Computers & Electronics in Agriculture, 2016, 127: 495-505.
7FUKATSU T, WATANABE T, HU H, et al. Field monitoring support system for the occurrence ofLeptocorisachinensisDallas (Hemiptera: Alydidae) using synthetic attractants, field servers, and image analysis[J]. Computers & Electronics in Agriculture, 2012, 80(1): 8-16.
8GASSOUMI H, PRASAD N R, ELLINGTON J J. Neural network-based approach for insect classification in cotton ecosystems[C]∥Las Cruces, New Mexico:New Mexico State University,2000.
9LI Y, XIA C, LEE J. Detection of small-sized insect pest in greenhouses based on multifractal analysis[J]. Optik-International Journal for Light and Electron Optics, 2015, 126(19): 2138-2143.
10MURAKAMI S, HOMMAK, KOIKE T. Detection of small pests on vegetable leaves using GLCM[C]∥2005 ASAE Annual Meeting, ASAE Paper 053136,2005.
11SHARIFF A R M, AIK Y Y, HONG W T, et al. Automated identification and counting of pests in the paddy fields using image analysis[C]∥Computers in Agriculture and Natural Resources, 2006.
12SUN Y, CHENG H, CHENG Q, et al. A smart-vision algorithm for counting whiteflies and thrips on sticky traps using two-dimensional Fourier transform spectrum[J]. Computer & Digital Engineering, 2007, 153(2): 82-88.
13XIA C, CHONG T S, REN Z, et al. Automatic identification and counting of small size pests in greenhouse conditions with low computational cost[J]. Ecological Informatics, 2015, 29: 139-146.
14TIRELLI P, BORGHESE N A, PEDERSINI F, et al. Automatic monitoring of pest insects traps by Zigbee-based wireless networking of image sensors[C]∥2011 Instrumentation and Measurement Technology Conference,2011: 1-5.
15韓文霆,李敏,陳微. 作物數(shù)字圖像獲取與長(zhǎng)勢(shì)診斷的方法研究[J]. 農(nóng)機(jī)化研究, 2012,34(6): 1-6.
HAN W T, LI M, CHEN W. Methods of image acquisition and analysis for crop conditions diagnose[J]. Journal of Agricultural Mechanization Research, 2012,34(6): 1-6. (in Chinese)
16MACHADO B B, ORUE J P M, ARRUDA M S, et al. BioLeaf: a professional mobile application to measure foliar damage caused by insect herbivory[J]. Computers & Electronics in Agriculture, 2016, 129: 44-55.
17MARTIN D R, FOWLKES C, TAL D, et al. A database of human segmented natural images and its application to evaluating segmentation algorithms and measuring ecological statistics[C]∥Proceedings of 8th IEEE International Conference on Computer Vision,2002, 2: 416-423.
18徐良玉,馬錄坤,謝燮,等. 基于結(jié)構(gòu)森林邊緣檢測(cè)和Hough變換的海天線檢測(cè)[J]. 上海大學(xué)學(xué)報(bào):自然科學(xué)版,2017,23(1):47-55.
XU L Y, MA L K, XIE X, et al. Sea-sky line detection based on structured forests edge detection and Hough transform[J]. Journal of Shanghai University:Natural Science Edition, 2017,23(1):47-55.(in Chinese)
19ZITNICK C L, DOLLAR P. Edge boxes: locating object proposals from edges[C]∥European Conference on Computer Vision, 2014,8693:391-405.
20LOWE D G, LOWE D G. Distinctive image features from scale-invariant keypoints[J]. International Journal of Computer Vision, 2004, 60(2): 91-110.
21DALAL N, TRIGGS B. Histograms of oriented gradients for human detection[C]∥IEEE Computer Society Conference on Computer Vision and Pattern Recognition, CVPR 2005,2005: 886-893.
22LIM J J, ZITNICK C L, DOLLAR P. Sketch tokens: a learned mid-level representation for contour and object detection[C]∥Computer Vision and Pattern Recognition,2013: 3158-3165.
23李小勝,陳珍珍. 如何正確應(yīng)用SPSS軟件做主成分分析[J]. 統(tǒng)計(jì)研究,2010,27(8):105-108.
LI X S, CHEN Z Z. Correctly using SPSS software for principal components analysis[J]. Statistical Research, 2010,27(8):105-108.(in Chinese)