孫 俊,何小飛,譚文軍,武小紅,沈繼鋒,陸 虎
(1. 江蘇大學電氣信息工程學院,鎮(zhèn)江 212013;2. 江蘇大學計算機科學與通信工程學院,鎮(zhèn)江 212013)
田間雜草對作物幼苗的危害極大,雜草會和幼苗爭奪日光、水分和養(yǎng)料,同時嚴重影響幼苗的光合作用[1]。經(jīng)研究發(fā)現(xiàn),雜草可能會分泌出分泌液阻礙作物幼苗的生長,引發(fā)作物生長緩慢、蟲害等問題,最終導致農(nóng)作物產(chǎn)量減少[2-3]。盡管可以使用農(nóng)藥來控制雜草生長,但是鑒于雜草品種多樣,且和作物幼苗十分相似,如果僅依賴人眼來識別容易出錯,而且粗放式大面積噴灑化學農(nóng)藥,會造成資源浪費,危害環(huán)境,殘留農(nóng)藥還會以農(nóng)作物為媒介危害人體健康[4]。隨著精細農(nóng)業(yè)的提出,為了合理使用農(nóng)藥,精準識別作物幼苗和雜草變得尤為重要[5-6]。
現(xiàn)階段用來識別雜草的方法主要有人工識別、遙感識別和機器視覺識別[7]。人工識別主要依賴主觀經(jīng)驗,且需耗費大量勞動力,在發(fā)生嚴重雜草疫情時無能為力。遙感識別通過采集雜草的光譜信息來鑒別雜草,但是對生長密度小的雜草鑒別效果不理想。
近年來隨著計算機技術(shù)的發(fā)展,許多研究也使用機器視覺方法來識別雜草和幼苗。王宏艷等[8]采集雜草圖像的紋理特征,使用組合核函數(shù)優(yōu)化SVM(support vector machine)的方法來識別雜草。董亮等[9]設(shè)計采用一種改進型的人工神經(jīng)網(wǎng)絡(luò)算法應(yīng)對大棚作物苗期雜草識別,通過對遺傳算法的神經(jīng)元參數(shù)的優(yōu)化,以減少錯誤的發(fā)生次數(shù)。以上文獻均是通過提取目標特定圖像特征結(jié)合傳統(tǒng)分類方法對雜草進行分類識別。雖然識別精確度較高,但是由于特定特征是由人工進行選取標定的諸如梯度、顏色及紋理等淺層特征,這使得傳統(tǒng)的圖像識別算法存在易受人為因素影響的局限性,性能提升空間有限且并非能夠完全或者較好地表征雜草特定信息,從而對識別效果產(chǎn)生不利影響。
近年來隨著深度學習(deep learning)的興起,卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)[10]能夠不依賴特定特征,在廣義識別領(lǐng)域(如物體識別[11-13]、對象檢測[14]和目標分割[15-16]等)Le Net[17]、VGG[18]和 Google Net[19]等模型被廣泛應(yīng)用且取得較好效果。目前已有大量學者開始將這些模型應(yīng)用于狹義識別中[20]。劉彩玲[21]構(gòu)建一種采用主成分分析法來初始化網(wǎng)絡(luò)各層權(quán)值,通過減小圖像分片向量構(gòu)成矩陣的重構(gòu)誤差來訓練權(quán)值的PCA Net卷積神經(jīng)網(wǎng)絡(luò),減少了網(wǎng)絡(luò)中所需訓練的參數(shù),并通過將低層輸出組合作為高層輸入和對層之間的連接進行稀疏對 PCA Net進行改進來對雜草進行識別。傅隆生[22]提出一種通過批歸一化,以 ReLU為激活函數(shù),Max-pooling為下采樣的方法,并采用 Softmax 回歸分類器對傳統(tǒng)Le Net卷積神經(jīng)網(wǎng)絡(luò)進行優(yōu)化,以這種優(yōu)化后的深度學習模型對多簇獼猴桃果實圖像進行分類識別。Sa等[23]提出了一種用微型飛行器(micro air vehicle)收集密集雜草的多光譜圖像并使用編碼器-譯碼器級聯(lián)卷積神經(jīng)網(wǎng)絡(luò)(CNN)的方式對雜草進行檢測,取得了較好的識別效果。上述文獻說明CNN可用于作物與果實以及作物與雜草的識別,但這些模型網(wǎng)絡(luò)結(jié)構(gòu)較為復雜。
針對現(xiàn)有模型訓練困難,網(wǎng)絡(luò)結(jié)構(gòu)復雜等問題,該文在文獻[20]的基礎(chǔ)上提出一種空洞卷積與多尺度特征融合相結(jié)合的識別方法,用來鑒別6種雜草6種作物幼苗,并將其與傳統(tǒng)Alex Net和文獻[20]中的鑒別方法作比較,為幼苗與雜草的鑒別提供參考。
Plant Seedlings Classification是Kaggle的競賽項目,該項目提供包含多種農(nóng)作物幼苗與雜草的圖集(每張圖片僅包含單類作物或雜草)。本文使用Kaggle競賽項目中的8 915張圖像訓練并測試網(wǎng)絡(luò)模型,其中包含6種雜草6種作物共12類圖片,如圖1所示。
圖1 Plant Seedlings Classification圖片集示例圖Fig.1 Examples of Plant Seedlings Classification
為了避免樣本分布不均導致的模型性能不佳,該文使用Python命令對數(shù)量少的樣本圖進行數(shù)據(jù)增廣操作,包括隨機翻轉(zhuǎn)(水平、垂直)、變換角度(0°~180°)、隨機縮放原圖(縮放比例因子 1~1.5)等。最終將每一類的圖集擴充到 1 400~1 500張,擴充后的樣本總數(shù)為17 398張,按照訓練集(80%)與測試集(20%)4∶1的比例將原始圖集與擴充圖集隨機劃分,劃分后的樣本采用 open cv中的線性插值法將圖片尺寸統(tǒng)一修改為256×256 dpi并將12類圖片分別歸類后使用腳本語句按類制作文本標簽。
CNN包含卷積(convolution)和池化層(pooling),其將特征提取與分類整合到了一個單獨的網(wǎng)絡(luò)之中,并且隨著網(wǎng)絡(luò)結(jié)構(gòu)的加深,它可以提取到物體的深層高級別特征。Alex Net由于采用FC(fully connected layers)全連接層,導致模型內(nèi)存需求大,收斂速度慢,而且由于同一層卷積層僅使用一種卷積核,使得網(wǎng)絡(luò)結(jié)構(gòu)不夠?qū)挕?/p>
為解決模型參數(shù)大和特征尺度單一的問題,本文基于Alex Net做出3個改進:1)采用空洞卷積的方式增大Conv1層的感受野;2)采用全局池化層代替FC層縮減權(quán)重;3)采用多尺度特征融合方法增加特征多樣性。
空洞卷積誕生于圖像分割領(lǐng)域,圖像輸入到網(wǎng)絡(luò)中經(jīng)過CNN 提取特征,再經(jīng)過池化降低圖像尺度的同時增大感受野。由于圖像分割是像素級預(yù)測輸出,所以還需通過上采樣將變小的圖像恢復到原始大小。因此圖像分割FCN(fully convolutional network)有2個關(guān)鍵步驟:池化操作增大感受野,上采樣操作擴大圖像尺寸。經(jīng)過上采樣操作恢復了大小,但是很多細節(jié)還是被池化操作丟失了,所以空洞卷積就誕生了[24]。
空洞卷積在原始卷積的基礎(chǔ)上增加了一個r參數(shù),能將卷積核擴張到膨脹系數(shù)所約束的尺度中,并將原卷積核中未被占用的區(qū)域填充0。其中r就是rate,代表卷積核的膨脹系數(shù),這樣得到的有效卷積核高為fh+(fh?1)·( r?1),寬為 fw+(fw?1)·( r?1),其中 fh代表原始卷積的高,fw代表原始卷積核的寬。空洞卷積核在過去被稱為“擴張卷積核的卷積”,在algorithme a trous算法、小波分解算法中起著關(guān)鍵的作用,并且空洞卷積可以在同一個卷積核內(nèi)使用不同的膨脹系數(shù),如圖2所示[25]。
圖2 不同膨脹系數(shù)的空洞卷積示例圖Fig.2 Schematic diagram of dilated convolution with different expansion coefficient
傳統(tǒng)的CNN模型采用全連接層,由于網(wǎng)絡(luò)90%的參數(shù)都集中在該層,這將導致較大的計算機內(nèi)存需求。Hinton等[26]提出在全連接層設(shè)置Dropout,可有效減少參數(shù)量,避免過擬合,使模型魯棒性更好,但Dropout參數(shù)尋優(yōu)依賴于人工經(jīng)驗,本文采用全局池化方法[27]可有效避免該問題。
在Google Net問世之前,深度學習主流的效果突破是增大網(wǎng)絡(luò),但是純粹增大網(wǎng)絡(luò)有 2個缺點:過擬合和計算量的增加。為解決該問題,Inception結(jié)構(gòu)就是在這樣的情況下應(yīng)運而生,但如果僅僅引入多個尺寸的卷積核,會帶來大量額外的參數(shù),使得模型效率低下。受到Network In Network[28]的啟發(fā),一些1×1的卷積核被用于Inception結(jié)構(gòu)中。
傳統(tǒng)的層疊式神經(jīng)網(wǎng)絡(luò),基本上都是一個個卷積層的堆疊,每層只用一個尺寸的卷積核。事實上,同一層feature map可以分別使用多個不同尺寸的卷積核,以獲得不同尺度的特征,再把這些特征結(jié)合起來,得到的特征往往比使用單一卷積核要好。
圖 3為空洞卷積與全局池化相結(jié)合的多尺度特征融合CNN模型,該模型將原始Alex Net網(wǎng)絡(luò)的卷積層1的卷積核進行擴張,池化層4后增加一個Inception結(jié)構(gòu),且在網(wǎng)絡(luò)末端使用全局池化層代替FC層。改進模型一共13層,模型包含 7層卷積層(Conv 1~Conv 5,其中Inception層中包含了 Conv6和 Conv7層),1層融合層(Concat)和 4層池化層(pooling1~global pooling 5),分類器采用Softmax分類器(由于空間問題圖中未畫出)??紤]到不同參數(shù)設(shè)置會對模型性能產(chǎn)生相應(yīng)的影響,該文主要比較Conv1層卷積核膨脹系數(shù)、全局池化類型以及不同Batch Size對幼苗與雜草識別平均準確率(average accuracy,AA)的影響,采用混淆矩陣及其衍生指標來對模型性能進行評價,其中
式中ncl為樣本類別總數(shù);i為類別標簽(0~11);ni為類別i的樣本總數(shù);nii為類別i預(yù)測為第i類的樣本數(shù)。
圖3 空洞卷積與全局池化結(jié)合的多尺度特征融合幼苗雜草識別模型Fig.3 Multi-scale feature fusion model of seedling and weed identification combining dilated convolution and global pooling
試驗操作平臺為Ubuntu 16.04系統(tǒng),采用Caffe框架。計算機內(nèi)存為16 GB,搭載Intel? Core? i7-7 700 KCPU@ 4.00 GHz x8處理器,GPU使用英偉達GTX1080Ti,采用16 nm制作工藝,顯存類型GDDR5,容量11 GB,核心頻率1 480~1 582 MHz。
采用帶動量因子(momentum)的小批量(mini-batch)隨機梯度下降法[29](stochastic gradient descent, SGD)對網(wǎng)絡(luò)進行訓練。訓練時激活函數(shù)均采用Relu, 根據(jù)顯卡性能和mini-batch 特性,將Batch size分別設(shè)置為64、128和256,momentum設(shè)置為0.9,測試時Batch size設(shè)置為50,共迭代111次。該文采用均值為0、標準偏差為 0.01的高斯分布隨機初始化網(wǎng)絡(luò)權(quán)重[30],初始學習率設(shè)為0.01,并分階段逐次減小為原來的1/10,正則化系數(shù)設(shè)為0.000 5。
表 1為模型參數(shù)設(shè)置與測試準確率。卷積核采用不同膨脹系數(shù)會導致感受野不同,其初層特征提取能力也不同。根據(jù)資料顯示[24],空洞卷積的膨脹系數(shù)一般設(shè)置為1、2和4。由表1可知,使用膨脹系數(shù)為2的模型1比使用膨脹系數(shù)為4的模型3在原始圖集和擴充圖集上的準確率分別高出0.43和0.64個百分點,使用膨脹系數(shù)為2的模型2比使用膨脹系數(shù)為4的模型4在原始圖集和擴充圖集上的準確率分別高出0.43和0.43個百分點。為更好地了解網(wǎng)絡(luò),可視化Conv1層的卷積核(圖4)。由圖4可以看出膨脹系數(shù)為2的卷積核比膨脹系數(shù)為4的卷積核感受野小,其所包含的信息量較少,能較好地將原圖感興趣的信息提取出來,去除冗余特征信息。綜上考慮,Conv1層卷積核膨脹系數(shù)采用2比較合適。
表1 模型參數(shù)設(shè)置與測試準確率Table 1 Model parameter and test accuracy
全局池化分為平均池化和最大池化。由表 1可以看出使用全局平均池化模型3、5比采用全局最大池化的模型 2、4效果好,結(jié)合文獻[20]以及互聯(lián)網(wǎng)資料可說明平均池化能減小由于鄰域大小受限而造成的估計值方差增大的誤差,更多的保留圖像的背景信息,利于提取關(guān)鍵特征,而最大池化更多的保留淺層紋理特征,忽略更深層次的高級特征。
圖4 卷積核可視化Fig.4 Visualization of the convolution kernel
由表1可見,為了獲取較好的模型性能,將卷積核膨脹系數(shù)確定為2,并且采用全局平均池化。為進一步優(yōu)化模型,比較不同Batch Size大小,將批量大小確定為256較合適。
本文采用小批量學習法(Mini-batches Learning)。若試驗數(shù)據(jù)充分,那么采用小批量學習法訓練出的梯度和使用全數(shù)據(jù)集訓練得出的結(jié)果幾乎一致,因此在合理范圍內(nèi)增大Batch Size可以有效提高矩陣并行化運算效率,加快對數(shù)據(jù)的處理速度。
但是盲目增大 Batch Size 也有一些缺點:盡管提高了內(nèi)存利用率,但對計算機運算容量需求很大;增大批量會減少迭代次數(shù),要想達到同樣精度,必須耗費更多時間,導致對參數(shù)更新變得緩慢;Batch Size增加到一定程度后,損失函數(shù)的下降方向基本趨于穩(wěn)定。
綜合表1可知,選擇膨脹系數(shù)為2、全局平均池化和Batch Size為256的最優(yōu)模型7,識別準確率達到98.80%
為了測試改進模型收斂性及平均識別準確率,將模型7和原始Alex Net在2個圖片集的測試集上進行準確率和迭代次數(shù)的比較。由圖 5可以看出,原始模型迭代10次左右準確率達到90%,模型7迭代4次就能達到90%的準確率;原始模型在迭代30次左右趨于穩(wěn)定,而模型7在迭代10次左右趨于穩(wěn)定,說明改進模型收斂快,精度高。
圖5 模型測試準確率與迭代次數(shù)關(guān)系Fig.5 Relationship between test accuracy of model and iterations
傳統(tǒng)AlexNet在卷積層之后級聯(lián)2個全連接層,使得模型內(nèi)存需求達到 227.20 MB。而改進模型的參數(shù)內(nèi)存需求以及前向傳播和反向傳播速率(進行一次前向/反向傳播所需要的時間)如表2所示,由于文獻[20]和該文的模型7采用全局池化代替全連接層,大大減少了內(nèi)存需求,訓練后的模型內(nèi)存分別減少為 3.65和 4.20 MB,進行一次前向傳播的時間較傳統(tǒng)AlexNet的24.40 ms來說,分別減少為18.53和19.55 ms。由于該文模型7增加了Inception結(jié)構(gòu),使得模型內(nèi)存相較于文獻[20]模型來說增大了0.55 MB,傳播速率增大了1.02 ms,但是在原始圖集上的測試準確率提高了0.56個百分點。
傳統(tǒng)Alex Net由于采用2層全連接層和一層標簽層,網(wǎng)絡(luò)總參數(shù)為16 998 424,模型參數(shù)內(nèi)存需求為227.20 MB,而該文最優(yōu)模型采用全局池化層代替 2層全連接層,且使用空洞卷積增加感受野的同時不增加額外計算,使得網(wǎng)絡(luò)總參數(shù)減少為1 548,模型內(nèi)存需求為4.20 MB。
針對模型性能評價,本文采用如下評價指標[31]:
1)錯分率FR(對于第i類,false rate)
式中為分類所得到的第i類的總和;n為類別總數(shù)。錯分率表示從分類結(jié)果中任取一個隨機樣本,其所具有的類型與實際類型不相同的條件概率。
表2 模型內(nèi)存需求與傳播速率Table 2 Model memory requirements and propagation rates
2)漏分率MR(對于第j類,missing rate)
式中為參考數(shù)據(jù)的第j類的總和。漏分率表示相對于參考數(shù)據(jù)中的任意一個隨機樣本,分類圖上同一地點的分類結(jié)果與其不一致的條件概率。
3)分類成功指數(shù)(classification success index, CSI)
式中Cie為類別i的錯分率,%;Oie為類別i的漏分率,%。
由表3可以看出,不論是原始AlexNet還是最優(yōu)模型7,標簽0和標簽6的錯分率和漏分率較大,這是因為標簽0和標簽6的雜草太過于相似,以至于人眼都不能準確的分辨,給鑒別工作帶來一定的干擾。但總體來說,本文的模型 7在幼苗與雜草的識別中表現(xiàn)優(yōu)秀,分類成功指數(shù)在原始和擴充圖集上分別達到95.07%和96.84%。
為了驗證本文最優(yōu)模型的實際田間預(yù)測效果,從田間拍攝早晨9:00的野芥、雀麥和夜晚20:00的甜菜圖片各1張進行測試。該預(yù)測程序是caffe框架自帶的預(yù)測模塊,將采集的圖片輸入程序后,輸出 4個預(yù)測概率最高的選項并按從上到下的順序降序排列。圖 6中從上到下分別是采集的野芥、雀麥、野芥和甜菜圖片,可以看出,野芥的實際田間預(yù)測效果可以達到 80%以上的準確率,雀麥的實際田間預(yù)測效果也能夠達到 74%,但是甜菜的預(yù)測效果不佳,只有 60%的準確率,可能是由于圖片為夜晚拍攝,且背景太過復雜所導致的。
表3 模型錯分率和漏分率Table 3 Model false rate and missing rate
本文提出將卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network)用于多種農(nóng)作物幼苗與雜草鑒別,在傳統(tǒng)Alex Net模型上改進,采用空洞卷積與全局池化相結(jié)合的多尺度特征融合CNN模型。與原始Alex Net模型對比,改進的模型由于采用空洞卷積增加了Conv1層卷積核感受野卻并不增加模型計算量,且用全局池化層代替全連接層,網(wǎng)絡(luò)總參數(shù)減少為 1 548,模型參數(shù)內(nèi)存需求減小為4.20 MB,傳播速率達到19.55 ms,性能得到較大提升,最優(yōu)模型7的測試準確率達到98.80%,分類成功指數(shù)達到96.84%。
該文改進模型對多種農(nóng)作物幼苗與雜草的鑒別情況比較理想,避免了人為選取特征,且模型便于使用,雖然目前只是在簡單背景下的應(yīng)用,但在實際田間復雜背景下的預(yù)測野芥、雀麥和甜菜幼苗的效果能達到 60%以上的識別準確率,后續(xù)可為雜草與幼苗識別裝置的研制打下基礎(chǔ)。
[1]王璨,李志偉.利用融合高度與單目圖像特征的支持向量機模型識別雜草[J]. 農(nóng)業(yè)工程學報,2016,32(15):165-174.Wang Can, Li Zhiwei. Weed recognition using SVM model with fusion height and monocular image features[J].Transactions of the Chinese Society of Agricultural Engineering(Transactions of the CSAE), 2016, 32(15): 165-174. (in Chinese with English abstract)
[2]胡嶸.基于數(shù)字圖像處理玉米苗期田間雜草識別方法的研究[D]. 武漢:華中農(nóng)業(yè)大學,2007.Hu Rong. Research on Identification of Weeds in Maize Seedling Based on Digital Image Processing [D]. Wuhan:Huazhong Agricultural University, 2007. (in Chinese with English abstract)
[3]潘家志.基于光譜和多光譜數(shù)字圖像的作物與雜草識別方法研究[D]. 杭州:浙江大學,2007.Pan Jiazhi. Crop and Weed Recognition Based on Spectral and Multispectral Digital Images [D]. Hangzhou: Zhejiang University, 2007. (in Chinese with English abstract)
[4]李志臣.基于機器視覺的雜草對準噴藥控制系統(tǒng)研究[D].南京:南京農(nóng)業(yè)大學,2007.Li Zhichen. Machine Vision-based Weed Alignment Spray Control System[D]. Nanjing: Nanjing Agricultural University,2007. (in Chinese with English abstract)
[5]朱登勝,潘家志,何勇.基于光譜和神經(jīng)網(wǎng)絡(luò)模型的作物與雜草識別方法研究[J]. 光譜學與光譜分析,2008, 28(5):1102-1106.Zhu Dengsheng, Pan Jiazhi, He Yong. Research on crop and weed recognition based on spectral and neural network models [J] .Spectroscopy and Spectral Analysis, 2008, 28 (5):1102-1106. (in Chinese with English abstract)
[6]黃玉祥,楊青.精細農(nóng)業(yè)的環(huán)境效應(yīng)[J]. 農(nóng)業(yè)工程學報,2009,25(增刊 2):250-254.Huang Yuxiang, Yang Qing. Impact of precision agriculture on environment[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2009,25(Supp.2): 250-254.(in Chinese with English abstract)
[7] 鄧巍,張錄達,何雄奎,等. 基于支持向量機的玉米苗期田間雜草光譜識別[J]. 光譜學與光譜分析,2009,29(7):1906-1910.Deng Wei, Zhang Luda, He Xiongkui et al. Spectral recognition of weeds in maize seedling based on support vector machine[J]. Spectroscopy and Spectral Analysis, 2009,29(7): 1906-1910. (in Chinese with English abstract)
[8] 王宏艷,呂繼興. 基于紋理特征與改進 SVM 算法的玉米田間雜草識別[J]. 湖北農(nóng)業(yè)科學,2014,53(13):3163-3166.Wang Hongyan, Lv Jixing. Weed recognition in maize field based on texture features and improved SVM algorithm [J].Hubei Agricultural Sciences, 2014, 53(13): 3163-3166. (in Chinese with English abstract)
[9] 董亮,雷良育,李雪原. 基于改進型人工神經(jīng)網(wǎng)絡(luò)的溫室大棚蔬菜作物苗期雜草識別技術(shù)[J]. 北方園藝,2017(22):79-82.Dong Liang, Lei Liangyu, Li Xueyuan. Based on improved artificial neural network in greenhouse greenhouse vegetable seedling weed identification technology[J]. Northern Gardening,2017(22): 79-82. (in Chinese with English abstract)
[10] Lecun Y, Bengio Y.Convolutional networks for images,speech, and time series[M/OL]. The Handbook of Brain Theory and Neural Networks.MIT Press, 1998.
[11] Manassi M, Whitney D. Multi-level crowding and the paradox of object recognition in Clutter[J]. Current Biology,2018, 28(3): 127-133.
[12] Mahapatra D, Roy P K, Sedai S, et al. Retinal Image Quality Classification Using Saliency Maps and CNNs[J]. Interacting with Computers, 2016, 10(4): 385-399.
[13] Lim S, Kim S H, Kim Y H, et al. Training network design based on convolution neural Network for object classification in few class problem[J]. Journal of the Korea Institute of Information& Communication Engineering, 2017, 21(1): 144-150.
[14] Ren S, He K, Girshick R, et al. Object detection networks on convolutional feature maps[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2016, 39(7): 1476-1481.
[15] Jeong J, Yoon T S, Park J B. MOSnet: Moving object segmentation with convolutional networks[J]. Electronics Letters, 2018, 54(3): 136-138.
[16] Rajchl M, Lee M C H, Oktay O, et al. DeepCut: Object segmentation from bounding box annotations using convolutional neural networks[J]. IEEE Transactions on Medical Imaging, 2017, 36(2): 674-683.
[17] Lecun Y. LeNet-5, convolutional neural networks[J].
[18] Ke H, Chen D, Li X, et al. Towards brain big data classification: Epileptic EEG identification with a lightweight VGGNet on Global MIC[J]. IEEE Access, 2018, 2(99): 1.
[19] Ballester P, Araujo R M. On the performance of GoogLeNet and AlexNet applied to sketches[C]//Thirtieth AAAI Conference on Artificial Intelligence. AAAI Press, 2016: 1124-1128.
[20] 孫俊,譚文軍,毛罕平,等. 基于改進卷積神經(jīng)網(wǎng)絡(luò)的多種植物葉片病害識別[J]. 農(nóng)業(yè)工程學報,2017,33(19):209-215.Sun Jun, Tan Wenjun, Mao Hanping, et al. Recognition of multiple plant leaf diseases based on improved convolutional neural network[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2017,33(19): 209-215. (in Chinese with English abstract)
[21] 劉彩玲. 基于交織 PCANet的雜草種子識別方法研究[D].楊凌:西北農(nóng)林科技大學,2016.Liu Cailing.Weed Seed Recognition Based on Interwoven PCANet[D]. Yangling: Northwest A&F University, 2016.(in Chinese with English abstract)
[22] 傅隆生. 基于卷積神經(jīng)網(wǎng)絡(luò)的田間多簇獼猴桃圖像識別方法[J]. 農(nóng)業(yè)工程學報,2018,34(2):205-211.Fu Longsheng. Image recognition method of multi-cluster kiwifruit in field based on convolutional neural networks[J].Transactions of the Chinese Society of Agricultural Engineering(Transactions of the CSAE), 2018, 34(2): 205-211. (in Chinese with English abstract)
[23] Sa I, Chen Z, Popovic M, et al. weedNet: Dense semantic weed classification using multispectral images and MAV for smart farming[J]. IEEE Robotics & Automation Letters, 2017,3(99): 1-1.
[24] Kudo Y, Aoki Y. Dilated convolutions for image classification and object localization[C]//Fifteenth Iapr International Conference on Machine Vision Applications. IEEE, 2017: 452-455
[25] Shensa M J. The discrete wavelet transform: Wedding the a trous and mallat algorithms[J]. IEEE Transactions on Signal Processing, 1992, 40(10): 2464-2482.
[26] Hinton G E, Srivastava N, Krizhevsky A, et al. Improving neural networks by preventing co-adaptation of feature detectors[J]. Computer Science, 2012, 3(4): 212-223.
[27] Zhou B, Khosla A, Lapedriza A, et al. Learning deep features for discriminative localization[C]//Computer Vision and Pattern Recognition. IEEE, 2016: 2921-2929.
[28] Lin M, Chen Q, Yan S. Network in network[C]//Computer Vision and Pattern Recognition. ICLR, 2014.
[29] Ketkar N. Stochastic Gradient Descent[M]. Deep Learning with Python. Apress, 2017.
[30] 周云成,許童羽,鄭偉,等. 基于深度卷積神經(jīng)網(wǎng)絡(luò)的番茄主要器官分類識別方法[J]. 農(nóng)業(yè)工程學報,2017,33(15):219-226.Zhou Yuncheng, Xu Tongyu, Zheng Wei, et al. Classification and recognition approaches of tomato main organs based on DCNN[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2017, 33(15):219-226. (in Chinese with English abstract)
[31] Srinivasan S, Petkovic D. Phonetic confusion matrix based spoken document retrieval[C]//International ACM SIGIR Conference on Research and Development in Information Retrieval. ACM, 2000: 81-87.