劉婷婷 王婷 胡林
?
基于卷積神經(jīng)網(wǎng)絡(luò)的水稻紋枯病圖像識(shí)別
劉婷婷 王婷 胡林*
(農(nóng)業(yè)部農(nóng)業(yè)大數(shù)據(jù)重點(diǎn)實(shí)驗(yàn)室/中國(guó)農(nóng)業(yè)科學(xué)院 農(nóng)業(yè)信息研究所,北京 100081;*通訊聯(lián)系人,E-mail: hulin@caas.cn)
【目的】水稻紋枯病是影響水稻生產(chǎn)的三大病害之一。研究卷積神經(jīng)網(wǎng)絡(luò)對(duì)水稻紋枯病的自動(dòng)識(shí)別,彌補(bǔ)人工識(shí)別的不足,對(duì)預(yù)防和準(zhǔn)確識(shí)別水稻蚊枯病類型有著重要意義。【方法】以卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行水稻紋枯病識(shí)別,并與基于支持向量機(jī)的識(shí)別方法進(jìn)行對(duì)比。【結(jié)果】卷積神經(jīng)網(wǎng)絡(luò)識(shí)別率達(dá)到97%,優(yōu)于支持向量機(jī)的95%。【結(jié)論】卷積神經(jīng)網(wǎng)絡(luò)運(yùn)用于水稻紋枯病識(shí)別是可行的,彌補(bǔ)了人工識(shí)別的不足。此算法訓(xùn)練的模型有著較好的識(shí)別性能。
水稻紋枯病;卷積神經(jīng)網(wǎng)絡(luò);分類識(shí)別
水稻紋枯病是影響北方水稻生產(chǎn)的三大主要病害之一[1],目前該病已在水稻種植國(guó)家普遍發(fā)生,一般導(dǎo)致減產(chǎn)10%~30%,嚴(yán)重時(shí)可達(dá)50%[2]。近20年來(lái),我國(guó)北方稻區(qū)紋枯病發(fā)生頻率所造損失已超稻瘟病,成為我國(guó)糧食安全的重大威脅。我國(guó)是農(nóng)業(yè)大國(guó),隨著生活水平的提高,人們對(duì)農(nóng)產(chǎn)品的品質(zhì)要求也越來(lái)越高。水稻病害是直接影響水稻產(chǎn)量的重要因素。在實(shí)際生產(chǎn)中,農(nóng)民主要依據(jù)自身經(jīng)驗(yàn),憑感覺(jué)地對(duì)水稻病害進(jìn)行診斷。雖然這也取得了一定的水稻病害防治效果,但由于農(nóng)民對(duì)水稻病害識(shí)別能力有限.通過(guò)肉眼識(shí)別病害,往往此時(shí)水稻的病害程度已比較嚴(yán)重。這樣就不能做到及時(shí)防治和“對(duì)癥下藥”,造成農(nóng)藥使用量大、藥效低、成本高的惡果,對(duì)環(huán)境和水稻質(zhì)量安全造成了嚴(yán)重影響。因此,傳統(tǒng)的水稻病害檢測(cè)方法不僅費(fèi)時(shí)費(fèi)力,還會(huì)嚴(yán)重影響病害預(yù)報(bào)的準(zhǔn)確率。計(jì)算機(jī)圖像處理和識(shí)別技術(shù)的發(fā)展給水稻的病害準(zhǔn)確識(shí)別帶來(lái)了可能。
利用模式識(shí)別技術(shù)對(duì)農(nóng)作物病害進(jìn)行識(shí)別,是目前植物病害識(shí)別的研究趨勢(shì)。20世紀(jì)70年代,國(guó)外對(duì)農(nóng)作物病害的圖像識(shí)別研究興起。1973年,印度用紅外航空遙感拍攝了孟買附近的稻田照片,當(dāng)時(shí)大部分稻谷已成熟,綠色稻谷呈深紅色,成熟的黃色稻谷呈黃綠色,而感染了白葉枯病的黃色稻谷則呈黑色,通過(guò)紅外遙感可以探測(cè)水稻白葉枯病[3]。1999年,Sasaki Y等[4]研究了黃瓜炭疽病的圖像自動(dòng)識(shí)別,采用遺傳算法研究不同的分光反射特性和光學(xué)濾波對(duì)病害識(shí)別的影響,從分光反射特性和形狀特性的角度建立了識(shí)別參數(shù),對(duì)病害進(jìn)行了識(shí)別;由于未充分利用病害的顏色及紋理信息,因此識(shí)別精度不高。2000年,Gassoumi H等[5]對(duì)棉花害蟲(chóng)分類,利用人工神經(jīng)網(wǎng)絡(luò),通過(guò)模糊控制方法創(chuàng)建自適應(yīng)神經(jīng)模糊控制系統(tǒng),建立一套自動(dòng)棉花害蟲(chóng)田間管理系統(tǒng)。國(guó)內(nèi)相關(guān)的研究于2000年興起。陳佳娟等[6]使用計(jì)算機(jī)視覺(jué)技術(shù),根據(jù)棉花葉片的孔洞及葉片邊緣的殘缺,來(lái)測(cè)定棉花蟲(chóng)害的受害程度,此算法應(yīng)用局部門限法完成圖像與背景的分離,使用高斯拉普拉斯算子進(jìn)行棉花圖像的邊緣檢測(cè);用邊緣跟蹤算法確定棉葉上的孔洞;利用膨脹算法確定葉片邊緣的殘缺,該方法可有效測(cè)定棉花蟲(chóng)害的受害程度。2003年,徐貴力等[7]在無(wú)土栽培番茄缺乏營(yíng)養(yǎng)元素識(shí)別研究中,針對(duì)如何提取缺素葉片紋理特征問(wèn)題,提出差分百分率直方圖法,原理是特征有效性不受葉片形狀差異、大小和葉片圖像中葉片周邊白色背景的影響,該方法能較好地提取出缺素葉片紋理特征。田有文等[8,9]應(yīng)用支持向量機(jī)分類方法研究了黃瓜、玉米病害的識(shí)別問(wèn)題,取得了良好的識(shí)別效果。2012年,張健華等[10]基于bp神經(jīng)網(wǎng)絡(luò)研究了棉花病害識(shí)別問(wèn)題。2014年王獻(xiàn)鋒等[11]提取葉片病斑顏色、形狀、紋理等特征,結(jié)合環(huán)境信息,利用判別分析法,識(shí)別黃瓜病斑類別。以上研究都是基于提取植物特征再基于傳統(tǒng)識(shí)別算法對(duì)病害進(jìn)行識(shí)別,但是病害葉片不一定出現(xiàn)病變,即使出現(xiàn)病變,病斑也可能出現(xiàn)粉狀物,這樣分割病害圖像時(shí)存在困難,降低識(shí)別的效果。因此,這些算法局限于對(duì)植物葉片病害的識(shí)別。Rumelhart等[12]提出了后向傳播(Back Propagation,BP)算法,使得神經(jīng)網(wǎng)絡(luò)的訓(xùn)練變得簡(jiǎn)單可行。卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)在20世紀(jì)80年代提出[13],Lecun等[14]最早將CNN用于手寫數(shù)字識(shí)別。近年來(lái)CNN已成功用于人臉識(shí)別、語(yǔ)音識(shí)別、自然語(yǔ)言處理、醫(yī)學(xué)圖像等領(lǐng)域[15-25],無(wú)論是精度方面還是速度方面都要優(yōu)于傳統(tǒng)算法。CNN常見(jiàn)模型有Lenet[26]、Alexnet[27, 28]、Googlelenet[29, 30]、Vggnet[31, 32]、Resnet[33, 34]、Network in Network[35, 36]。支持向量機(jī)是由Vapnik領(lǐng)導(dǎo)的AT&T Bell實(shí)驗(yàn)室研究小組在1995年提出的一種新的非常有潛力的分類技術(shù)[37]。SVM基于統(tǒng)計(jì)學(xué)習(xí)理論的模式,主要應(yīng)用于模式識(shí)別領(lǐng)域。SVM兼顧訓(xùn)練誤差和泛化能力,在解決小樣本、非線性、高維數(shù)、局部極小值等問(wèn)題的模式識(shí)別問(wèn)題中表現(xiàn)出許多特有的優(yōu)勢(shì)[38],并能夠推廣應(yīng)用到函數(shù)擬合等其他機(jī)器學(xué)習(xí)問(wèn)題中。在使用支持向量機(jī)(SVM)算法識(shí)別水稻病害前,先需要對(duì)病害圖像進(jìn)行分割,并提取病害特征。對(duì)病害圖像分割主要是將圖像劃分為各自不同的簇區(qū)域,使得每個(gè)區(qū)域的像素均具有相似的灰度值,然而聚類區(qū)域的劃分和每個(gè)聚類區(qū)域內(nèi)像素對(duì)聚類中心的隸屬度是研究的難點(diǎn)[39]。
本研究提出的識(shí)別算法基于卷積神經(jīng)網(wǎng)絡(luò),不依賴于植物病害的特定特征,以提高對(duì)水稻紋枯病識(shí)別的效率和準(zhǔn)確率。
本研究中,在自然光照下拍攝水稻紋枯病發(fā)病和健康圖片各100張,以.jpg格式保存。將圖像在不損害圖片完整性的前提下,裁減為227×227像素。
1.2.1 卷積神經(jīng)網(wǎng)絡(luò)
本研究使用AlexNet網(wǎng)絡(luò)模型,這是由Krizhevsky等在2012年建立的[30]。AlexNet模型共有5個(gè)卷積層,3個(gè)全連接層,前兩個(gè)卷積層和第5個(gè)卷積層有池化層,其他兩個(gè)卷積層沒(méi)有池化。
雖然AlexNet網(wǎng)絡(luò)都用圖1的結(jié)構(gòu)來(lái)表示,但是本研究輸入圖像的尺寸不是224×224×3,而應(yīng)該是227×227×3,原因是227可以整除后面的conv1計(jì)算,224不整除。
圖1 Alexnet網(wǎng)絡(luò)結(jié)構(gòu)流程[27]
Fig. 1. An illustration of the architecture of Alexnet[27].
與傳統(tǒng)的CNN相比,AlexNet模型采用ReLU代替飽和非線性函數(shù),降低模型的計(jì)算復(fù)雜度,提升訓(xùn)練速度;通過(guò)隨機(jī)失活正則化(dropout)技術(shù)在訓(xùn)練過(guò)程中將中間層的部分神經(jīng)元置0,模型減少了全連接層的過(guò)擬合。
1.2.2 支持向量機(jī)(SVW)
支持向量機(jī)(SVM)是由Vapnik領(lǐng)導(dǎo)的AT&T Bell實(shí)驗(yàn)室研究小組在1995年提出的一種新的非常有潛力的分類技術(shù)[37]。SVM兼顧訓(xùn)練誤差和泛化能力,在解決小樣本、非線性、高維數(shù)、局部極小值等問(wèn)題的模式識(shí)別問(wèn)題中表現(xiàn)出許多特有的優(yōu)勢(shì)[38],并能夠推廣應(yīng)用到函數(shù)擬合等其他機(jī)器學(xué)習(xí)問(wèn)題中。
本研究使用模糊C均值聚類算法[39]進(jìn)行病害特征分割,對(duì)分割得到的病害圖像進(jìn)行特征提取,分別提取顏色特征、紋理特征、形狀特征。顏色特征采用HSI和RGB兩種顏色空間,共提取RGB的值圖像直接獲取,HSI值由RGB轉(zhuǎn)化。
灰度共生矩陣的紋理特征分析方法是統(tǒng)計(jì)方法的典型代表。Gotlieb 和 Kreyszig 等[40]在研究共生矩陣中各種統(tǒng)計(jì)特征基礎(chǔ)上,通過(guò)實(shí)驗(yàn),得出灰度共生矩陣的四個(gè)關(guān)鍵特征:能量、慣量、相關(guān)性和熵。
形狀特征采用矩特征。矩特征主要表征了圖像區(qū)域的幾何特征,又稱為幾何矩。由于其具有旋轉(zhuǎn)、平移、尺度等特性的不變特征,所以又稱其為不變矩。利用歸一化中心矩,可以獲得對(duì)平移、縮放、鏡像和旋轉(zhuǎn)都不敏感的7個(gè)不變矩[41]。
本研究根據(jù)主成分分析算法將分類貢獻(xiàn)度超過(guò)90%的特征作為支持向量機(jī)的輸入向量;以病害圖片和健康圖片形成輸入癥狀集和輸出結(jié)果;利用SVM對(duì)樣本進(jìn)行訓(xùn)練,最后進(jìn)行測(cè)試。
CNN算法采用Alexnet模型,5個(gè)卷積層,3個(gè)全連接層,前兩個(gè)卷積層和第5個(gè)卷積層有pool池化層,其他兩個(gè)卷積層沒(méi)有池化。每層處理流程如下:
表1 識(shí)別算法結(jié)果對(duì)照
表2 識(shí)別算法結(jié)果方差分析
表3 識(shí)別算法結(jié)果無(wú)重復(fù)雙因素分析
根據(jù)表3中的行的>臨界值,并且>0.01,<0.05;識(shí)別算法結(jié)果CNN結(jié)果和SVM結(jié)果差異顯著。
Given>crit and>0.01,<0.05; the result of the recognition algorithm CNN and the result of the SVW are significantly different.
第一層(卷積層)流程為卷積→ReLU→池化→歸一化;第二層(卷積層)流程為卷積→ReLU→池化→歸一化;第三層(卷積層)流程為卷積→ReLU;第四層(卷積層)流程為卷積→ReLU;第五層(卷積層)流程為卷積→ReLU→池化;第六層(全連接層)流程為卷積(全連接)→ReLU→Dropout;第七層(全連接層)流程為:全連接→ReLU→Dropout;第八層(全連接層)流程為全連接。
SVM算法通過(guò)提取出的分類貢獻(xiàn)度超過(guò)90%的8個(gè)特征分別是紋理特征的熵,形狀特征的矩形度、形狀參數(shù)、不變矩3,不變矩4,不變矩5,不變矩6,不變矩7作為支持向量機(jī)的輸入向量。
本研究用水稻紋枯病圖片和健康水稻圖片各100幅進(jìn)行CNN算法和SVM算法的訓(xùn)練和識(shí)別。將圖片分為5組,每一次用一組20張水稻紋枯病圖片和20張健康水稻圖片作為測(cè)試圖片,其余160張圖片作為訓(xùn)練圖片;一共實(shí)驗(yàn)五次,全部圖片都作為測(cè)試及訓(xùn)練圖片一遍,計(jì)算平均正確識(shí)別率。由表1可知CNN算法優(yōu)于SVM算法;對(duì)識(shí)別算法的識(shí)別率進(jìn)行方差分析,如表2所示;再通過(guò)無(wú)重復(fù)雙因素分析可判斷出CNN算法和SVM算法識(shí)別率有顯著差異,即CNN算法顯著優(yōu)于SVM算法,識(shí)別結(jié)果如表3所示。
水稻病害的識(shí)別是農(nóng)業(yè)信息的重要研究領(lǐng)域,提升病害的自動(dòng)識(shí)別能力對(duì)病害防治、糧食增產(chǎn)有著重要作用。
運(yùn)用SVM等傳統(tǒng)識(shí)別算法水稻病害的識(shí)別,識(shí)別前的需要分割病害圖像、提取特征,因此對(duì)病害圖片要求苛刻。本研究實(shí)現(xiàn)了用卷積神經(jīng)網(wǎng)絡(luò)對(duì)水稻紋枯病的識(shí)別,算法比傳統(tǒng)識(shí)別算法準(zhǔn)確率、效率均有所提高。
為達(dá)到推廣應(yīng)用的效果,未來(lái)的研究方向:1)豐富樣本量,豐富不同病害及同一病害不同發(fā)病時(shí)期的圖像樣本;提升獲取圖像的能力,結(jié)合網(wǎng)絡(luò)、遙感、地理信息系統(tǒng)等技術(shù),建立豐富的圖像數(shù)據(jù)庫(kù)。2)在水稻整個(gè)生長(zhǎng)期,根、莖、葉、穗各部位都有可能發(fā)病,且病害表征有所不同,所以需要優(yōu)化算法,達(dá)到對(duì)多種病害高效率高準(zhǔn)確率的識(shí)別。
通過(guò)計(jì)算機(jī)圖像識(shí)別技術(shù)快速識(shí)別出病害,即可最大限度減少農(nóng)民損失,也同時(shí)為精準(zhǔn)施藥提供支持,減少環(huán)境污染。本研究針對(duì)水稻紋枯病,提出一種基于CNN識(shí)別算法,對(duì)病害圖像的識(shí)別率達(dá)到97%,優(yōu)于SVM對(duì)病害圖像的識(shí)別率95%。
[1] 桑海旭, 王井士, 劉郁, 李運(yùn)動(dòng), 馬曉慧, 劉志恒. 水稻紋枯病對(duì)水稻產(chǎn)量及米質(zhì)的影響. 北方水稻, 2013, 43(1): 10-13.
Sang H X, Wang J S, Liu Y,Li Y D, Ma X H, Liu Z H. The effect of rice sheath blight on yield and quality., 2013, 43(1): 10-13. (in Chinese)
[2] 李雪婷, 徐夢(mèng)亞, 鄭少兵, 孫正祥, 周燚. 水稻紋枯病研究進(jìn)展. 長(zhǎng)江大學(xué)學(xué)報(bào): 自然科學(xué)版, 2017, 14(14): 15-18.
Li X T, Xu M Y, Zheng S B, Sun Z X, Zhou Y. Research progress in rice sheath blight.:, 2017, 14(14): 15-18. (in Chinese with English abstract).
[3] 路桂珍, 楊秀軍. 應(yīng)用紅外遙感技術(shù)監(jiān)測(cè)植物病蟲(chóng)害.紅外技術(shù), 1990, 12(2): 18-21.
Lu G Z, Yang X J. Application of infrared remote sensing technology in monitoring plant diseases and insect pests., 1990, 12(2): 18-21. (in Chinese with English abstract).
[4] Sasaki Y, Kamoto T O. Automatic diagnosis of plant disease., 1999, 61(2): 119-126.
[5] Gassoumi H, Prasad N R, Ellington J J. Neural network-based approach for insect classification in cotton ecosystems. Bangkok, Thailand: International Conference on Intelligent Technologies (InTech 2000), 2000, 7.
[6] 陳佳娟, 趙學(xué)篤. 采用計(jì)算機(jī)視覺(jué)進(jìn)行棉花蟲(chóng)害程度的自動(dòng)測(cè)試. 農(nóng)業(yè)工程報(bào), 2001, 17(2): 157-160.
Chen J J, Zhao X D. Automatic measurement of danger degree of cotton insect pests using computer vision., 2001, 17(2): 157-160. (in Chinese with English abstract)
[7] 徐貴力, 毛罕平, 李萍萍. 差分百分率直方圖法提取缺素葉片紋理特征. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2003, 34(2): 76-79.
Xu G L, Mao H P, Li P P. Research on extraction leaf texture features as sample of nutrient shortage by percent histogram of differentiation., 2003, 34(2): 76-79.(in Chinese with English abstract)
[8] 田有文, 張長(zhǎng)水, 李成華. 基于支持向量機(jī)和色度矩的植物病害識(shí)別研究. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2004, 35(3): 95-98.
Tian Y W, Zhang C S, Li C H. Study on plant disease recognition using support vector machine and chromaticity moments., 2004, 35(3): 95-98. (in Chinese with English abstract)
[9] 田有文, 李成華. 基于圖像處理的日光溫室黃瓜病害識(shí)別的研究. 農(nóng)機(jī)化研究, 2006(2): 151-153.
Tian Y W, Li C H. Research on recognition of cucumber disease based on image processing in sunlight greenhouse, 2006(2): 151-153. (in Chinese with English abstract)
[10] 張建華, 祁力鈞, 冀榮華, 王虎, 黃士凱, 王沛. 基于粗糙集和BP神經(jīng)網(wǎng)絡(luò)的棉花病害識(shí)別. 農(nóng)業(yè)工程學(xué)報(bào), 2012, 28(7): 161-167.
Zhang J H, Qi L J, Ji R H, Wang H, Huang S K, Wang P. Cotton diseases identification based on rough sets and BP neural network., 2012, 28(7): 161-167. (in Chinese with English abstract)
[11] 王獻(xiàn)鋒, 張善文, 王震, 張強(qiáng). 基于葉片圖像和環(huán)境信息的黃瓜病害識(shí)別方法.農(nóng)業(yè)工程學(xué)報(bào), 2014, 30(14): 148-153.
Wang X F, Zhang S W, Wang Z, Zhang Q. Recognition of cucumber diseases based on leaf image and environmental information., 2014, 30(14): 148-153. (in Chinese with English abstract)
[12] Rumelhart D E, Hinton G E, Williams R J. Learning internal representations by error propagation. DTIC Document, 1985.
[13] Lecun Y, Boser B, Denker J S, Henderson D, Howard R E, Hubbard W, Jackel L D. Backprogation applied to handwritten zip code recognition., 1989, 1(4): 541-551.
[14] Lecun Y, Bottou L, Bengio Y, Haffner P.Gradient-based learning applied to document recognition., 1998, 86(11): 2278-2324.
[15] Abhishek S, Nasser K. A convolutional neural network smartphone app for real-time voice activity detection., 2018, 6: 9017-9026.
[16] Wang P, Xu B, Xu J M, Tian G H, Liu C L, Hao H W. Semantic expansion using word embedding clustering and convolutional neural network for improving short text classification., 2016, 174: 806-814.
[17] Zhao M, Li H, Shi X, Chan Y, Luo X, Li T. Automated recognition of zygote cytoplasmic area (ZCA) in time-lapse imaging (TLI) based on deep convolutional neural network (CNN)., 2017, 108(3): 239.
[18] Tung T S, Lee G. Language identification in handwritten words using a convolutional neural network., 2017, 13(3): 38-42.
[19] Shi B G, Bai X, Yao C. Script identification in the wild via discriminative convolutional neural network., 2016, 52: 448-458.
[20] Syafeeza A R, Mohamed K H, Rabia B. Finger-vein biometric identification using convolutional neural network., 2016, 24: 1863-1878.
[21] Peng M, Wang C Y, Chen T, Liu G Y. NIRFaceNet: A convolutional neural network for near-infrared face identification., 2016, 7(4): 61.
[22] Jorden H, Victoria L, Vit G K, Purang A, Robert R. SLIDE: automatic spine level identification system using a deep convolutional neural network., 2017, 12(7): 1189-1198.
[23] Zhang W, Du Y H, Taketoshi Y, Wang Q. DRI-RCNN: An approach to deceptive review identification using recurrent convolutional neural network., 2018, 54(4): 576-592.
[24] Lee S J, Yun J P, Koo G, Kim S W. End-to-end recognition of slab identification numbers using a deep convolutional neural network., 2017, 132: 1-10.
[25] Zhang Y Y, Zhao D, Sun J D, Zou G F, Li W T. Adaptive convolutional neural network and its application in face recognition., 2016, 43(2): 389-399.
[26] Lecun Y, Bottou L, Bengio Y, Haffner P. Gradient-based learning applied to document recognition., 1998, 86(11): 2278-2324.
[27] Krizhevsky A, Sutskever I, Hinton G E. Imagenet classification with deep convolutional neural networks. Proceedings of the Advances in Nerural Information Processing System., US: 2012: 1097-1105.
[28] Han X B, Zhong Y F, Cao L Q, Zhang L P. Pre-trained alexnet architecture with pyramid pooling and supervision for high spatial resolution remote sensing image scene classification., 2017, 9(8): 848.
[29] Szegedy C, Liu W, Jia Y Q, Sermanet P, Reed S, Anguelov D, Erhan D, Vanhoucke V, Rabinovich A. Going deeper with convolutions. Boston MA, USA: 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2015.
[30] Mostafa M G, Berrin Y, Erchan A. Plant identification using deep neural networks via optimization of transfer learning parameters., 2017, 235: 228-235.
[31] Simonyan Karen,Zisserman. Very Deep Convolutional Networks for Large-Scale Image Recognition., 2015.
[32] Wang H Y, He Z S, Huang Y W, Chen D D, Zhou Z X. Bodhisattva head images modeling style recognition of Dazu Rock Carvings based on deep convolutional network., 2017, 27: 60-71.
[33] He K M, Zhang X Y, Ren S Q, Sun J. Deep residual learning for image recognition. Las Vegas, NV, USA: 2016 IEEE Conference on Computer Vision and Pattern Recognition(CVPR), 2016: 770-778.
[34] Sun W F, Yao B, Chen B Q, He Y C, Cao X C, Zhou T X, Liu H G. Noncontact surface roughness estimation using 2D complex wavelet enhanced resnet for intelligent evaluation of milled metal surface quality., 2018, 8(3): 381.
[35] Pang Y W, Sun M L, Jiang X H, Li X L. Convolution in Convolution for Network in Network., 2018, 29(5): 1587-1597.
[36] Chen Y, Yang X N, Zhong B N, Zhang H Z, Lin C L. Network in network based weakly supervised learning for visual tracking., 2016, 37: 3-13.
[37] Vladimir N. Vapnik. Statistical learning theory. A Wiley- Interscience Publication John wiley &son INC, 1998.
[38] 顧亞祥, 丁世飛. 支持向量機(jī)研究進(jìn)展. 計(jì)算機(jī)科學(xué), 2011, 38(2): 14-17.
Gu Y X, Ding S F. Advances of support vector machines(SVM)., 2011, 38(2): 14-17. (in Chinese with English abstract)
[39] Gonzalez R C, Woods R E. Digital Image Processing. 4th edition. Pearson, 2017.
[40] Gotlieb C C, Kreyszig H E. Texture descriptors based on co-occurrence matrices., 1990, 51(1): 70-86.
[41] 毋媛媛, 刁智華, 王會(huì)丹, 趙明珍, 魏偉. 作物病害圖像形狀特征提取研究. 農(nóng)機(jī)化研究, 2015, 37(1): 64-67.
Wu Y Y, Diao Z H, Wang H D, Zhao M Z, Wei W. Research on shape feature extraction of crop disease image., 2015, 37(1): 64-67. (in Chinese)
Recognition Algorithm Based on Convolutional Neural Network
LIU Tingting, WANG Ting, HU Lin*
(,,;*,:)
【Objective】Rice sheath blight is one of the three major diseases in rice production.The convolutional neural network which stands out for automatic identification of rice shealth blight can compensate for the lack of human identification. To solve this problem and prevent diseases deterioration, accurate identification of diseases types is of great significance.【Method】The convolutional neural network method was used to recognize rice sheath blight and compared with the recognition method based on support vector machine.【Result】The convolutional neural network method showed the recognition rate of 97%, better than that of support vector machine(95%).【Conclusion】The application of convolutional neural network to the identification of rice sheath blight is feasible and makes up for the lack of artificial recognition. The model trained by this algorithm has great recognition performance.
;convolutional neural network;classification and recognition
10.16819/j.1001-7216.2019.8051
S435.111.4+2; TB115.2
A
1001-7216(2019)01-0090-05
2018-04-23;
2018-10-16。
中國(guó)農(nóng)業(yè)科學(xué)院基本科研業(yè)務(wù)費(fèi)項(xiàng)目(Y2017LM07);中國(guó)農(nóng)業(yè)科學(xué)院農(nóng)業(yè)信息研究所基本科研業(yè)務(wù)費(fèi)項(xiàng)目(JBYW-AII-2017-32)。