李彧 余心杰 郭俊先
摘要:雜草是危害農(nóng)業(yè)和林業(yè)生產(chǎn)的三害之一,對農(nóng)業(yè)生產(chǎn)、生態(tài)環(huán)境、生物多樣性等均會造成一定的危害。要解決雜草問題首先需要對雜草實現(xiàn)高效準確的識別,通過拍攝新疆旱地玉米大苗田間圖像構(gòu)建數(shù)據(jù)集,提取玉米苗與雜草2類標簽,使用全卷積神經(jīng)網(wǎng)絡(luò)(FCN)準確地分割2類目標實現(xiàn)雜草識別。利用圖像翻轉(zhuǎn)、鏡像、對比度增強、亮度增強等4種增廣方法擴增數(shù)據(jù)集,利用遷移學習技巧,對模型采取非初始參數(shù)訓練,提升模型識別準確率。結(jié)果表明,選擇的U-Net模型識別效果最佳,能夠有效地克服陰天光照、地膜等因素干擾,實現(xiàn)雜草的快速準確識別,驗證集識別正確率96.13%,能夠滿足雜草識別的實際要求。
關(guān)鍵詞:雜草識別;全卷積神經(jīng)網(wǎng)絡(luò);深度學習;語義分割;U-Net模型;VGG
中圖分類號:S126;TP391.41 ??文獻標志碼: A
文章編號:1002-1302(2022)06-0093-08
收稿日期:2021-07-07
基金項目:國家自然科學基金面上項目(編號:61367001);新疆維吾爾自治區(qū)研究生教育創(chuàng)新計劃科研創(chuàng)新項目(編號:XJ2019G165);新疆維吾爾自治區(qū)教育廳自然科學重點項目(編號:XJEDU2020I009)。
作者簡介:李 彧(1995—),男,河北保定人,碩士研究生,研究方向為農(nóng)業(yè)無損檢測。E-mail:lxy13109995416@163.com。
通信作者:郭俊先,博士,教授,研究方向為農(nóng)業(yè)無損檢測。E-mail:junxianguo@163.com。
廣義上雜草是指各類生長在不該長的地方的草本植物。在農(nóng)業(yè)生產(chǎn)中定義的雜草是指生長在人工栽培的農(nóng)田上,除了目的栽培作物外的所有植物,即在錯誤的地方生長的植物。雜草不僅與作物競爭陽光、水分和肥料,同時也擠壓了作物的生存空間[1]。如果不及時處理,雜草會阻礙作物生長,導致農(nóng)作物減產(chǎn),損害產(chǎn)品的質(zhì)量,甚至造成農(nóng)作物絕收,給農(nóng)業(yè)經(jīng)濟帶來極大的危害[2-3]。目前,農(nóng)作物與雜草的識別方法主要包括人工識別、遙感識別、機器視覺識別[4]。人工識別是通過農(nóng)業(yè)從業(yè)人員的主觀認知區(qū)分,不僅耗時費力,而且由于人工易疲勞還存在效率不高的限制。遙感識別使用空間和光譜信息來區(qū)分雜草,克服了人工識別的許多缺點。然而,由于遙感圖像的分辨率低,不適合用于小塊農(nóng)田的密集雜草[5]。隨著計算機技術(shù)的發(fā)展,快速精確的機器視覺識別技術(shù)在雜草識別的應用已經(jīng)越來越廣泛,國內(nèi)外許多學者進行了相關(guān)研究[6-8]。Rojas等將主成分分析(PCA)降維與支持向量機(SVM)的識別算法相結(jié)合,以確定蔬菜作物和雜草之間顏色和質(zhì)地的差異,獲得了超過90%的準確率[9]。張新明等提出了用于識別玉米和雜草的改進的概率神經(jīng)網(wǎng)絡(luò)(PNN)方法,使用次優(yōu)搜索方法構(gòu)造特征向量,在13個特征中篩選最有效的特征,提高了識別性能和速度[10]。上述研究都是基于傳統(tǒng)的機器學習方法進行分類或識別雜草。雖然有一定的成果,但特定特征需要被手動選擇和校準,存在諸如難以提取和抗干擾能力差的問題,這使得傳統(tǒng)的機器視覺方法解決雜草問題時存在適用性較差的缺陷。
此外,除草的主要方法是大規(guī)模噴灑農(nóng)藥,這不僅破壞了生態(tài)環(huán)境,消耗資源,而且還影響到農(nóng)作物的食品安全[11-15]。隨著智能農(nóng)業(yè)的提出,農(nóng)藥精密噴撒技術(shù)可以有效地控制雜草的增長,實現(xiàn)農(nóng)藥利用率最大化,降低藥物殘留[16]。雜草的精確識別為農(nóng)藥精準噴灑技術(shù)奠定了理論基礎(chǔ),為實現(xiàn)精確噴撒提供了技術(shù)指導[17]。綜上,有必要研究在復雜的自然背景中快速、準確的雜草識別方法。
2014年,Longj等提出改造CNN中的全連接層為卷積層,誕生了全卷積神經(jīng)網(wǎng)絡(luò)(fully convolutional networks,簡稱FCN),是最常見的語義分割神經(jīng)網(wǎng)絡(luò)[18]。同時反卷積層[19]的使用,讓FCN可以維持圖片的分辨率,保證了輸入圖片與輸出圖片的大小相等。全卷積神經(jīng)網(wǎng)絡(luò)識別雜草相對于人工識別和傳統(tǒng)的機器視覺識別具有以下優(yōu)勢:(1)大田作物種植環(huán)境不適合人工作業(yè),由于大田作物種植面積廣,人工難以長時間準確地識別雜草,利用攝像頭來代替人眼進行測量和判斷,可有效應對需要長時間工作的雜草檢測條件。(2)系統(tǒng)利用FCN的卷積運算自動分析各個目標特征,提取圖像的目標像素分部特征、顏色特征等,擬合這些特征與雜草目標之間的相關(guān)性,建立預測模型,比較傳統(tǒng)圖像處理算法人工選取長度、顏色等特征進行分割具有更高的準確性,并且可以有效地克服地膜等遮蓋物的影響。(3)算法依靠Python程序編寫具有較好的移植性。代碼復雜程度低,無須后續(xù)圖像處理流程從而提高了識別的快速性、實時性。
基于FCN開展雜草識別系統(tǒng)研究,利用FCN構(gòu)建雜草識別模型進行單位面積雜草識別,結(jié)合數(shù)據(jù)集擴增技術(shù)與遷移學習方法,使模型具有精確檢測雜草的能力,并克服地膜、水霧等復雜背景干擾。
1 雜草識別系統(tǒng)地構(gòu)建
1.1 設(shè)計目標
基于深度學習技術(shù),結(jié)合新疆玉米種植的實際生產(chǎn)情況,在自然光下拍攝玉米大苗期田間作物圖像,組成數(shù)據(jù)集。以實現(xiàn)雜草快速識別為目標,選擇最合適的FCN模型要根據(jù)雜草識別效果,為后續(xù)雜草精準防治和清除奠定前期研究成果。
1.2 系統(tǒng)結(jié)構(gòu)功能設(shè)計
在設(shè)計系統(tǒng)模塊時,將系統(tǒng)劃分為雜草提取、數(shù)據(jù)集構(gòu)建、雜草識別3個模塊,圖1展示了每個模塊的主要功能。
首先,雜草提取模塊對原始雜草圖像完成前期標注,從圖像中分別標注2類標簽:雜草、玉米苗。獲得標注圖像后,在數(shù)據(jù)集構(gòu)建過程中對雜草標簽圖像進行數(shù)據(jù)擴充,包括旋轉(zhuǎn)、亮度增強等。數(shù)據(jù)集擴充后按照比例劃分訓練集與測試集,用于后續(xù)FCN模型訓練。模型構(gòu)建后,各參數(shù)出于初始狀態(tài),需要依靠算法自適應調(diào)整參數(shù)使模型的損失函數(shù)曲線(loss)達到收斂。雜草檢測模塊利用構(gòu)建的FCN模型實現(xiàn)雜草識別。
1.3 雜草識別計數(shù)方法設(shè)計
基于FCN方法的雜草系統(tǒng)將雜草檢測的流程分為雜草提取、數(shù)據(jù)集構(gòu)建、FCN模型構(gòu)建和雜草識別等4個部分。具體流程如圖2所示。
1.3.1 圖像獲取
玉米種植中棚內(nèi)種植與露天種植的光照條件、觀測條件等均存在差異,對雜草進行識別時需要克服這些干擾,采集不同光照條件下和不同時間的大田圖像。試驗采集圖像數(shù)據(jù)時,單反相機需垂直于地面(圖3),調(diào)焦至圖像清晰后進行拍攝或錄制(錄制需后期截圖)。將單反相機拍攝的每張原始圖像裁剪為320像素×320像素的小幅圖像,方便后期模型處理。針對采集大田圖像,采用人工方式手動分割雜草、玉米苗2類標簽。選取特征區(qū)域制備標簽圖。
1.3.2 遷移學習
在實際試驗中,在訓練深層神經(jīng)網(wǎng)絡(luò)時通常是不會以原始節(jié)點開始訓練的。原因有二:(1)深層網(wǎng)絡(luò)一般會配套一個數(shù)據(jù)量較大的不容易訓練的數(shù)據(jù)集;(2)從原始節(jié)點訓練網(wǎng)絡(luò)調(diào)參工作復雜,模型不容易收斂,拉長了模型訓練時間。通過研究相關(guān)文獻,先導入其他識別模型的權(quán)重然后開始訓練,模型更容易且更快收斂,即遷移學習[20]。在訓練雜草識別模型前,用已經(jīng)過CIFAR-10數(shù)據(jù)集訓練的模型參數(shù)作為初始參數(shù)訓練FCN模型,從而避免了隨機參數(shù)作為初始參數(shù)傳遞更新??梢源蟠罂s短培訓時間,也可以彌補數(shù)據(jù)不足帶來的影響。
1.3.3 數(shù)據(jù)集增強
數(shù)據(jù)集的建立包括數(shù)據(jù)集的擴展和劃分。樣本數(shù)據(jù)量是深度學習中的關(guān)鍵因素,在訓練數(shù)據(jù)只有少量樣本可用時,數(shù)據(jù)增強是FCN的常用方法[21]。參考相關(guān)文獻使用的增強方法后,利用Keras的內(nèi)置ImageDataGenerator實現(xiàn)圖像增廣:對原始圖像亮度增強、對比度增強、旋轉(zhuǎn)角度和翻轉(zhuǎn)圖像等4種處理。這種擴展不僅可以提高分類效果,而且提高了模型的泛化能力。
研究中使用的亮度調(diào)節(jié)和對比度調(diào)節(jié)方法的數(shù)學原理如公式(1)所示:
g(x)=αf(x)+β。(1)
通常將參數(shù)α>0和β稱為增益和偏置參數(shù),分別控制對比度和亮度。假定f(x)作為源圖像像素,g(x)輸出圖像像素,上述公式更改為式(2):
g(i,j)=αf(i,j)+β。(2)
式中:i、j分別表示像素位于第i行和第j列。
將原始圖像翻轉(zhuǎn)到一定角度以獲得新圖像。從數(shù)學原理上,這種轉(zhuǎn)換表示見公式(3)。
通常認為,圖像應該繞中心點旋轉(zhuǎn),但圖像的原點在左上角。計算時,首先將左上角的原點移動到圖像的中心。假設(shè)一個點(X0,Y0),圖像寬度為W,高度為H,原點變換后的點為(X1,Y1),變換如下:
[X1 Y1 1]=[X0 Y0 1]1000-10-0.5W0.5H1。(3)
圖像旋轉(zhuǎn)角度為θ,(X1,Y1)經(jīng)旋轉(zhuǎn)θ后換為(X2,Y2),公式(4)如下:
[X2 Y2 1]=[X1 Y1 1]cosθ-sinθ0sinθcosθ0001。(4)
旋轉(zhuǎn)后的圖像的寬度為W′,高度為H′,則從笛卡兒原點轉(zhuǎn)換回左上角的公式(5)如下:
[X3 Y3 1]=[X2 Y2 1]1000-100.5W′0.5H′1。(5)
于是,可以通過公式(6)將原始圖像的點轉(zhuǎn)換為旋轉(zhuǎn)后的點。
[X3 Y3 1]=[X0 Y0 1]1000-10-0.5W′0.5H′1
cosθ-sinθ0sinθcosθ0001
1000-100.5W′0.5H′1。(6)
公式(3)鏡像原始圖像以獲得新圖像。在數(shù)學原理上,此轉(zhuǎn)換表示為公式(7)。
與翻轉(zhuǎn)原理類似,假設(shè)原始圖像的高度為H,寬度為W,水平鏡像變換后,原始圖像中像素點 P(x0,y0) 變?yōu)樾碌膱D像坐標P′(W-x0,y0)。如果用 (x0,y0) 表示原始圖像的坐標,水平鏡像變換后圖像的坐標為(x1,y1),則兩者之間的關(guān)系可以表示為:
x1y11=-10W010001y0x01。(7)
擴展圖像的示例在圖4中顯示。原始圖像數(shù)據(jù)集共有3 600張可用圖像,通過該數(shù)據(jù)集擴展方法后共有14 400張圖像。數(shù)據(jù)集增廣后,按照4 ∶1比例組成訓練集與測試集。
1.3.4 FCN識別模型
當FCN模型開始訓練,輸入層經(jīng)過卷積的多次迭代和池化層降參,提取雜草特征,降噪并減小參數(shù)量,整個過程為向前傳播。與此同時,在驗證組的圖像將反向傳播調(diào)整FCN模型權(quán)重和偏置參數(shù),根據(jù)識別準確率不斷優(yōu)化現(xiàn)有網(wǎng)絡(luò)模型。自動修正FCN模型識別雜草正確率。反卷積層將數(shù)據(jù)恢復成與輸入圖像大小相同的識別圖像輸出。
FCN模型大多基于VGG-16結(jié)構(gòu)設(shè)計。VGG(visual geometry group)是由牛津大學科研團隊[22]提出并改進的一種CNN模型。該團隊提出了多種深度CNN網(wǎng)絡(luò)結(jié)構(gòu),其中之一被提交ImageNet大視覺識別挑戰(zhàn)(ILSVRC)—2013,因為該模型有13卷積層和3個全連接層。所以也稱為VGG-16。一經(jīng)問世它就立刻成為流行網(wǎng)絡(luò),其的TOP-5測試精度高達92.7%。圖5顯示了VGG-16的結(jié)構(gòu)。VGG-16和它的前輩結(jié)構(gòu)之間的主要區(qū)別在于,第1層使用一組具有小的感受域的卷積層,而不是具有大的感受域的卷積核。這樣設(shè)計可以使用更少的參數(shù)和多個非線性層,使得決策函數(shù)更有辨別力,同時使模型更容易收斂。
U-Net是經(jīng)典的全卷積神經(jīng)網(wǎng)絡(luò)的一種變型,其結(jié)構(gòu)類似于字母U,因此得名U-Net[23]。整個U形網(wǎng)神經(jīng)網(wǎng)絡(luò)主要由2個部分組成:搜索路徑和擴展路徑。搜索路徑主要用于捕獲在圖片中的上下文信息,相對稱延伸路徑是準確地定位圖片被分割的部分。隨著神經(jīng)網(wǎng)絡(luò)深度的不斷增加,訓練的結(jié)構(gòu)越發(fā)復雜,這需要大量的樣本和計算資源。U-Net 誕生的一個主要原因是可以對一些比較少的樣本數(shù)據(jù)進行訓練。U-Net基于傳統(tǒng)的FCN進行改進,并且利用數(shù)據(jù)增強,該模型在醫(yī)學圖像識別中有廣泛應用,圖6為U-Net模型結(jié)構(gòu)。
基于以上分析,研究嘗試多種FCN模型,基本結(jié)構(gòu)如圖7所示。經(jīng)過多次卷積操作,F(xiàn)CN會將圖像展開,充分獲取特征。卷積運算部分共設(shè)立4個池化層,由于卷積操作會使圖像數(shù)據(jù)量呈現(xiàn)指數(shù)級增長,給計算機運算過程造成極大負擔,池化又稱降采樣過程,通過一定規(guī)則(取平均值或最大值),縮小矩陣規(guī)模,實現(xiàn)解決計算成本。通過4次降采樣可以大大降低網(wǎng)絡(luò)結(jié)構(gòu)中的權(quán)重參數(shù)數(shù)量。設(shè)置丟棄層臨時凍結(jié)一半卷積核,從而抑制過擬合現(xiàn)象。設(shè)置分類函數(shù),通過Softmax函數(shù)實現(xiàn)雜草與玉米幼苗的語義分割。
2 結(jié)果與分析
2.1 硬件需求
由Python 3.6.5編程實現(xiàn)基于卷積神經(jīng)網(wǎng)絡(luò)的雜草識別模型構(gòu)建,計算機硬件配置為Inteli 5處理器,8 GB內(nèi)存,NVIDIA RTX 2060(6 GB顯存)。所有的FCN模型訓練參數(shù)設(shè)置如下:批處理Batch Size參數(shù)為64,權(quán)重參數(shù)初始學習速率為0.001,動量因子設(shè)置為0.9,使用L2正則化,正則化參數(shù)λ=0.000 5。
2.2 雜草提取
田間采集的原始圖像數(shù)據(jù)包含73幅原始大田圖像。圖像數(shù)據(jù)采集于新疆農(nóng)業(yè)科學院綜合試驗場種植基地。采集時間為2019年5月20日 09:30—13:00,天氣陰,光照度相對較低。原始圖像尺寸為4 496像素×3 000像素,雜草種類較單一,主要為旱作物田間常見的藜(灰灰菜),部分雜草圖像如圖8所示。
將原始圖像裁剪為多張小幅圖像后,剔除無目標的空圖與模糊圖像。標簽提取方法如圖9所示,圖像導入后,圖像標注軟件為labelme,軟件會用不同顏色填充雜草、玉米苗2類標簽圖像。預先設(shè)定images_prepped_test文件夾與annotations_prepped_test文件夾,分別保存所提取的2類標簽圖像,標注圖像與原圖編號一一對應[24]。
2.3 數(shù)據(jù)集構(gòu)建
提高FCN最后識別精度的通用方法就是增加輸入數(shù)據(jù),因此應盡力豐富數(shù)據(jù)集[25]。采用亮度增強、對比度增強、方向翻轉(zhuǎn)以及鏡像等方式對數(shù)據(jù)集進行擴充。
在剔除一些低質(zhì)量的無目標圖像后本試驗數(shù)據(jù)集共6 640張目標圖片,數(shù)據(jù)集分組編成訓練集、驗證集和測試集。原圖與對應的標注圖按照3 ∶1比例組成訓練集與測試集。訓練集圖像儲存于 data_images_prepped_train 文件夾,對應標簽圖儲存在data_annotations_prepped_train文件夾中。
2.4 FCN模型構(gòu)建
在Keras封裝函數(shù)中選擇covn_base=keras.applications.VGG16(weights,include_top),設(shè)置weight=imagenet,由于使用了遷移學習技巧,將include_top=False,不引入內(nèi)置分類器。模型損失函數(shù)選擇crossentropy,其計算公式為:
L[fω(X),Y]=-1N∑Ni=1yilogfω(xi)。
式中:yi表示期望輸出;Xi表示原始的實際輸出;N表示樣本總數(shù)。利用函數(shù)softmax對雜草與玉米苗目標分類,公式為
yi=exi∑Ck=1exk。
式中:C為通道數(shù);xi為模型輸出的某個像素的值;yi為該像素對應的預測概率。損失函數(shù)優(yōu)化器采用隨機梯度下降法。
mt+1=ρ·mr+Δω;
ωt+1=ωt-lr·mt+1。
式中:mt為當前動量;mt+1為更新后的動量;ωt為當前參數(shù);ωt+1為更新后的參數(shù);Δω為反向傳播得到的梯度;ρ為取值0到1之間的權(quán)重參數(shù);lr為更新的步長,一般取值在0到1之間。
訓練階段,預測后的圖像會在像素級別實現(xiàn)分類,上色功能由Opencv實現(xiàn),COLORS=np.random.randint(0,255,size=(len(CLASSES)-1,3)與dtype=“uint8”),COLORS=np.vs tack([[0,0,0],COLORS]).astype(“uint8”),將各類目標用隨機顏色填充(圖10)。
2.5 模型測試結(jié)果
系統(tǒng)采用梯度下降算法(SGD)作為模型優(yōu)化器對FCN進行訓練。模型訓練完成后,系統(tǒng)將驗證識別正確率顯示在線形圖中。玉米田大苗雜草數(shù)據(jù)測試集共900張圖片,包含玉米苗圖像、雜草圖像與二者混合圖像分別測試3種網(wǎng)絡(luò)模型,得到玉米大苗期雜草識別結(jié)果如表1所示。
經(jīng)過1 000個epoch訓練模型的訓練集的損失函數(shù)與準確率曲線已然收斂,從測試集的結(jié)果來看,U-Net模型在驗證集上的識別準確率達到了96.13%。在陰天場景與地膜等遮擋物的影響下達到了較高的雜草識別效果,模型相關(guān)的損失函數(shù)曲線與正確率、交并比圖像如圖11所示。
由圖12可知,本研究所構(gòu)建的雜草識別模型對于陰天和地膜影響下的雜草識別效果良好,與人眼主觀判斷一致。
由表1可知,測試的3種網(wǎng)絡(luò)模型中,U-Net表現(xiàn)性能較好,對測試的玉米大苗期雜草正確識別率達96.13%。由于U-Net網(wǎng)絡(luò)被廣泛應用于醫(yī)學領(lǐng)域,并且其結(jié)構(gòu)中的跳躍結(jié)構(gòu)可以使分割邊緣更平滑,故而有較好的識別準確率。FCN-8s模型識別邊緣模糊,不利于后續(xù)進一步研究,且正確率略低。有研究學者曾使用更深層的神經(jīng)網(wǎng)絡(luò)進行識別研究,如Deeplab等,但由于樣本豐富度與FCN模型的參數(shù)微調(diào)效果息息相關(guān),雜草數(shù)據(jù)集樣本數(shù)量短時間內(nèi)難以擴大,同時隨著數(shù)據(jù)的擴大,硬件條件又會有所限制,F(xiàn)CN模型訓練的關(guān)鍵是使模型參數(shù)量有足夠的數(shù)據(jù)來微調(diào)。盲目增加模型深度,本研究中有限的數(shù)據(jù)樣本可能導致模型過擬合。由于采集的玉米大苗期雜草樣本圖像有限,深度進一步加深的FCN模型,如Deeplab等,兩者之間反而不能很好匹配。
參考文獻:
[1]黃紅娟,張朝賢,姜翠蘭,等. 北疆棉田雜草多樣性及群落組成[J]. 雜草學報,2020,38(1):7-13.
[2]付瑞霞,王俊平,董立堯. 防除稻麥連作小麥田主要雜草的高活性除草劑室內(nèi)篩選[J]. 雜草學報,2020,38(1):68-73.
[3]郭云忠,胡 杰,李思娟,等. 陜西關(guān)中灌區(qū)麥田雜草發(fā)生規(guī)律及防治指標[J]. 雜草學報,2021,39(1):38-42.
[4]毛文華,王一鳴,張小超,等. 基于機器視覺的田間雜草識別技術(shù)研究進展[J]. 農(nóng)業(yè)工程學報,2004,20(5):43-46.
[5]顏秉忠. 機器視覺技術(shù)在玉米苗期雜草識別中的應用[J]. 農(nóng)機化研究,2018,40(3):212-216.
[6]Lottes P,Hrferlin M,Sander S,et al. Effective vision-based classification for separating sugar beets and weeds for precision farming[J]. Journal of Field Robotics,2017,34(6):1160-1178.
[7]Peteinatos G? G,Reichel P,Karouta J,et al. Weed identification in maize,sunflower,and potatoes with the aid of convolutional neural networks[J]. Remote Sensing.2020,12(24):4185-4185
[8]Wang Z B,Li H L,Zhu Y,et al. Review of plant identification based on image processing[J]. Archives of Computational Methods in Engineering,2017,24(3):637-654.
[9]Rojas C P,Guzmán L S,Toledo N F V. Weed recognition by SVM texture feature classification in outdoor vegetable crops images[J]. Ingeniería e Investigación,2017,37(1):68.
[10]張新明,涂 強,馮夢清. 基于改進概率神經(jīng)網(wǎng)絡(luò)的玉米與雜草識別[J]. 山西大學學報(自然科學版),2015,38(3):432-438.
[11]袁洪波,趙努東,程 曼. 基于圖像處理的田間雜草識別研究進展與展望[J]. 農(nóng)業(yè)機械學報,2020,51(增刊2):323-334.
[12]齊秀杰. 探討水稻病蟲害防治技術(shù)與對策[J]. 農(nóng)民致富之友,2019(5):66.
[13]鄭加強,徐幼林. 環(huán)境友好型農(nóng)藥噴施機械研究進展與展望[J]. 農(nóng)業(yè)機械學報,2021,52(3):1-16.
[14]寇思榮. 甘肅省玉米產(chǎn)業(yè)現(xiàn)狀及玉米育種方向探討[J]. 甘肅科技,2018,34(4):6-8.
[15]高立強,楊家榮,張彥龍,等. 幾種除草劑減量施用防除玉米田雜草的效果[J]. 雜草學報,2020,38(4):31-38.
[16]齊 飛,朱 明,周新群,等. 農(nóng)業(yè)工程與中國農(nóng)業(yè)現(xiàn)代化相互關(guān)系分析[J]. 農(nóng)業(yè)工程學報,2015,31(1):1-10.
[17]劉金浩,王春燕,王宇航,等. 帶農(nóng)作物識別功能的無人機農(nóng)藥噴灑系統(tǒng)的研究[J]. 農(nóng)業(yè)災害研究,2020,10(7):185-186.
[18]Shelhamer E,Long J,Darrell T.Fully convolutional networks for semantic segmentation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(4):640-651.
[19]Zeiler M D,Taylor G W,F(xiàn)ergus R.Adaptive deconvolutional networks for mid and high level feature learning[C]//2011 International Conference on Computer Vision,November 6-13,2011,Barcelona:IEEE,2011:2018-2025.
[20]Mane D T,Kulkarni U V. Visualizing and understanding customized convolutional neural network for recognition of handwritten marathi numerals[J]. Procedia Computer Science,2018,132:1123-1137.
[21]Chollet F. Deep learning with Python[M]. 張 亮,譯. 北京:人民郵電出版社,2018:110-111.
[22]Simonyan K,Zisserman A.Very deep convolutional networks for large-scale image recognition[J]. Computer Science,2014,36(v1):1409-1425.
[23]Dolz J,Ben Ayed I,Desrosiers C.Dense multi-path U-net for ischemic stroke lesion segmentation in multiple image modalities[M]//Brainlesion:glioma,multiple sclerosis,stroke and traumatic brain injuries. Cham:Springer International Publishing,2019:271-282.
[24]余心杰,王 昊,李 彧,等. 一種基于全卷積神經(jīng)網(wǎng)絡(luò)的對蝦養(yǎng)殖殘餌計數(shù)方法:CN110826592A[P]. 2020-02-21.
[25]王 琛,徐維超. 人臉識別準確率與圖像參數(shù)關(guān)系比較分析[J]. 電子世界,2019(5):89-91.