羅鑫 王艷艷 劉學淵 李加強 楊漢蛟 何超
摘要:為實現(xiàn)對林地澳洲堅果的準確檢測,以園林環(huán)境下的澳洲堅果為研究對象,提出一種基于深度學習的檢測模型。在Faster R-CNN基礎上搭建檢測模型,對比VGG16、Resnet-50、Resnet-101等多種主干網絡的特征提取性能,在Resnet-50網絡的基礎上構建特征金字塔網絡(Feature Pyramid Network, FPN)結構,并使用雙線性插值ROI Align替換原來的ROI Pooling池化,提高模型對小尺寸物體的檢測效果。結果表明,改進的Faster R-CNN模型能有效檢測出復雜場景中的林地澳洲堅果目標,其檢測精度達到98.89%,相比原始方法提高6.56 %,與SSD、YOLO v3等目標檢測算法相比有明顯的精度優(yōu)勢。該研究充分表明該模型對園林下的澳洲堅果有良好的檢測效果,且具有檢測精度高、魯棒性強的優(yōu)點。
關鍵詞:澳洲堅果;目標檢測;深度學習;Faster R-CNN;特征金字塔網絡
中圖分類號:S776.01文獻標識碼:A文章編號:1006-8023(2023)02-0113-08
Macadamia integrifolia Detection and Recognition in
Orchards Based on Deep Learning
LUO Xin1, WANG Yanyan1, LIU Xueyuan1, LI Jiaqiang1, YANG Hanjiao2, HE Chao1,2*
(1.School of Machinery and Transportation, Southwest Forestry University, Kunming 650224, China;
2.Dehong Vocational College, Dehong 678400, China)
Abstract:For accurate detection of Macadamia integrifolia in orchards, this paper proposed a deep learning-based detection model and took Macadamia integrifolia in the orchard as the research object. The detection model was built based on the Faster R-CNN algorithm, and the feature extraction performance of various backbone networks such as VGG16, Resnet-50 and Resnet-101 was compared. The Feature Pyramid Network (FPN) structure was constructed based on Resnet-50 and the original ROI Pooling was replaced by the ROI Align method, which effectively improved the detection performance of the model for small-sized objects. The results showed that the improved Faster R-CNN model could effectively detect the Macadamia integrifolia in complex scenes with a detection accuracy of 98.89%, an improvement of 6.56 % compared to the original method, and a significant accuracy advantage over other detection methods such as SSD and YOLO v3. It showed that the proposed model was good for detecting Macadamia integrifolia in orchards with high accuracy and strong robustness.
Keywords:Macadamia integrifolia; object detection; deep learning; Faster R-CNN; Feature Pyramid Network
收稿日期:2022-08-07
基金項目:國家自然科學基金項目(51968065);云南省教育廳科學研究基金項目(2022Y571);云南省高層次人才培養(yǎng)支持基金項目(YNWR-QNBJ-2018-066, YNQR-CYRC-2019-001)
第一作者簡介:羅鑫,碩士研究生。研究方向為林果目標檢測。E-mail:luox9707@163.com
*通信作者:何超,博士,教授。研究方向為機器視覺、新能源汽車。E-mail:hcsmile@163.com
引文格式:羅鑫,王艷艷,劉學淵,等.基于深度學習的林地澳洲堅果檢測識別[J].森林工程,2023,39(2):113-120.
LUO X, WANG Y Y, LIU X Y, et al. Macadamia integrifolia detection and recognition in orchards based on deep learning[J]. Forest Engineering, 2023,39(2):113-120.
0引言
澳洲堅果(Macadamia integrifolia)是經濟價值較高的食用干果之一,在我國云南、廣西等地廣泛種植[1];截至2020年,云南澳洲堅果種植面積超26.6萬hm2,種植面積位居世界第一[2]。及時、高效地采收是確保澳洲堅果產品質量的關鍵。澳洲堅果成熟后自然掉落,需要迅速收集并烘干保存,以防產生霉變[3-4]?,F(xiàn)階段的澳洲堅果采收仍然依賴于大量的人工,隨著種植面積不斷擴大,人工采收的成本將越來越高,果農也將面臨更高強度的采收勞動作業(yè)。
農林機械和自動化技術是提高生產力和產品質量的有效方法,可以有效緩解季節(jié)性的勞動力短缺,也是現(xiàn)代農林業(yè)的發(fā)展趨勢[5]。目標檢測技術作為實現(xiàn)自動化采收的關鍵技術,主要分為基于特征算子的傳統(tǒng)圖像處理方法和基于卷積神經網絡(CNN)的深度學習方法。園林環(huán)境中的光照條件、遮擋狀況和復雜背景等因素會嚴重影響檢測效果,這也是傳統(tǒng)圖像處理方法難以克服的問題[6]。近年來,隨著以卷積神經網絡為主的深度學習方法的應用,目標檢測性能得到顯著提高[7-9]。
目前已有許多國內外學者利用深度學習算法進行農林產物的目標檢測研究。在目標檢測領域常用的深度學習方法主要包括以YOLO算法為代表的一階段檢測算法和以Faster R-CNN算法為代表的兩階段檢測算法。Suo等 [10]利用YOLO v3、YOLO v4算法實現(xiàn)對獼猴桃的檢測識別,檢測精度分別為91.1%、91.9%,對單幅圖像的檢測耗時分別為21.7、25.5 ms,YOLOv4的檢測精度較高,但是對單幅圖像的檢測耗時明顯增加,二者的檢測性能較為接近。Zhang等 [11]采集了大量的大豆葉部病害圖像并建立大豆葉病害檢測數據集,使用Faster R-CNN算法實現(xiàn)了大豆葉部病害的檢測識別,對細菌性斑點病等常見葉部病害的平均檢測精度達到83.34%,但對于復雜場景下的葉部病害檢測效果不好。Parvathi等 [12]利用Faster R-CNN檢測椰果的成熟程度,對比多種深度學習檢測方法,F(xiàn)aster R-CNN達到89.4%的最高檢測精度,試驗表明Faster R-CNN適用于椰果的成熟度檢測,對復雜背景下的小尺度個體也有較強的檢測能力。樊湘鵬等[13]以VGG16作為Faster R-CNN的主干網絡,并在卷積層加入批歸一化處理對原算法進行改進,實現(xiàn)了園林環(huán)境下的青皮核桃的檢測識別,檢測精度達到91.25%,但是沒有與其他算法進行對比,缺乏客觀全面的性能分析。
基于深度學習的目標檢測技術在農林領域已有廣泛應用,但是針對澳洲堅果檢測識別的相關研究較少,也缺少用于澳洲堅果檢測的圖像數據集。因此,本研究以云南德宏地區(qū)為主要研究區(qū)域,采集大量的林地澳洲堅果圖像并制作目標檢測數據集,基于深度學習方法搭建目標檢測模型,實現(xiàn)了園林環(huán)境中的澳洲堅果檢測,為堅果自動化采收提供目標檢測技術支持。
1材料與方法
1.1研究區(qū)域
本研究為實現(xiàn)澳洲堅果的檢測識別,采集了云南部分地區(qū)的堅果圖像,建立了澳洲堅果目標檢測圖像數據集。研究區(qū)域主要為云南德宏芒市地區(qū)(97°31′~ 98°43′E, 23°50′~25°20′N),是云南省澳洲堅果主要種植區(qū)之一。澳洲堅果在溫度為20~25 ℃、年降水量不少于1 000 mm和海拔800~1 200 m的地方生長,產量最高[14];德宏州境內多數地區(qū)的海拔為800~1 300 m,年均氣溫18.4~20.3 ℃,年降水量1 436~1 709 mm,地形以山地為主,光照充足,是比較理想的澳洲堅果種植地[15]。先后選取了帕底(海拔800 m,山地陡坡為主)、遮放(海拔880 m,山地緩坡為主)、三臺山(海拔1 200 m,山地緩坡為主)等地區(qū)的澳洲堅果種植園進行數據采集,區(qū)域內的樹種主要包含O.C(Own Choice)、農試344(Kau)、A16(Hidden Valley A16)等,樹齡為8~12年,是比較有代表性的澳洲堅果種植區(qū)域。
1.2圖像數據集
圖像采集在2021年7—9月進行,在自然光照條件下,選擇晴天、陰天和雨天等不同天氣狀況,于9:00—12:00、14:00—18:00進行圖像采集。拍攝時,相機距離澳洲堅果0.5~1.0 m,離地距離在1.0~1.5 m,相機與水平方向的夾角為45°~90°,在多個方向進行拍攝采集,最終得到2 170幅圖像,圖像分辨率處理為768×576(保持寬高比4∶3不變),數據集樣本統(tǒng)計結果見表1,部分圖像如圖1所示。
1.3數據處理與數據增強
利用LabelImg圖像標注軟件對數據集進行標注,按照PASCAL VOC2007格式儲存標注信息,并按照8∶1∶1的比例將數據集劃分為訓練集、驗證集和測試集。
卷積神經網絡需要大量的圖像數據才能有效地提取出待檢測物的圖像特征[16]。使用數據增強方法能有效擴充圖像數據集,避免過擬合問題,提高檢測模型的泛化能力[17],因此,本研究使用了幾何變換、顏色調整等數據增強方法對圖像數據進行擴充,圖像增強效果如圖2所示,擴充后的數據集共包含17 360幅圖像。
1.4Faster R-CNN檢測算法及其改進
Faster R-CNN[18]是一種典型的端到端的二階段目標檢測方法,主要分為候選區(qū)域生成階段和目標檢測階段。Faster R-CNN檢測模型結構如圖3所示,輸入圖像經過主干網絡提取特征信息并生成特征圖,候選區(qū)域生成網絡以特征圖作為輸入,使用一系列固定尺寸的先驗框在特征圖上進行區(qū)域搜索,初步判斷先驗框內是否存在目標物并得到待檢測物的相對位置,對先驗框進行篩選得到若干候選框并將其映射回特征圖;候選框在特征圖上的對應區(qū)域為感興趣區(qū)域(Region of Interests, ROIs),通過特征圖池化將感興趣區(qū)域ROIs縮放到統(tǒng)一尺寸并作為分類器的輸入,使用softmax分類函數判定區(qū)域內物體的所屬類別,并使用邏輯回歸函數得出物體的準確位置,最終得出檢測結果。
澳洲堅果個體在圖像中的像素占比較小,這些小目標個體的特征模糊,易導致漏檢;此外,園林地面環(huán)境較為復雜,有許多顏色、形狀與澳洲堅果相近的干擾物,容易導致錯誤識別。為提高模型的檢測識別精度,本研究對原始Faster R-CNN模型進行改進。
1.4.1構建特征金字塔網絡結構
輸入圖像經過主干網絡生成一系列的特征圖。深層特征圖有豐富的語義信息,但缺乏空間信息;淺層特征圖的空間信息豐富,但語義信息較為缺乏[19]。在原始Faster R-CNN模型中只使用深層特征圖進行目標檢測,導致模型對澳洲堅果小目標個體的檢測效果不佳。本研究在主干網絡上構建特征金字塔網絡結構 [20],將底層特征圖和高層特征圖進行特征融合以提高模型對小目標個體的檢測能力。
FPN結構主要分為3個部分,如圖4所示,左側的主干網絡部分用于提取不同尺度的特征圖(C1、C2、C3、C4、C5),中間的橫向連接部分主要用于統(tǒng)一特征圖的尺度,便于進行特征圖拼接,右側的特征增強部分用于特征圖融合,生成新的特征圖(P2、P3、P4、P5、P6),作為后續(xù)的區(qū)域生成網絡和分類器的輸入;其中,conv1、conv2_x、…、conv5_x是主干網絡Resnet-50的子模塊,M2、M3、M4、M5是經過特征拼接得到的特征圖,P2、P3、…、P6是提取得到的新特征圖,RPN_P2、RPN_P3、…、RPN_P6指的是與P2、P3、…、P6對應的區(qū)域生成網絡。
1.4.2ROI Align池化
為了提高模型的檢測準確度,本研究使用ROIAlign替換原來的ROIpooling方法。原Faster R-CNN算法在池化過程使用的ROIpooling函數包含了2次量化取整操作,這導致候選框位置發(fā)生偏差,會影響目標物的定位精度,此外,量化取整導致浮點位置處的特征信息丟失,將影響檢測精度[21]。ROIAlign利用雙線性插值法進行池化運算,保留了浮點位置處的特征信息,避免了因量化取整而引起的候選框位置偏差,可以獲得更加準確的目標檢測效果。
2結果與分析
2.1試驗環(huán)境及訓練參數
本試驗在ubuntu 18.04 LTS操作系統(tǒng)(64位)中運行,處理器(CPU)為Intel Core i7-9700@3.40 GHz,運行內存為64 GB;顯卡(GPU)采用NVIDIA GeForce RTX 2080 SUPER,8 GB顯存;編程語言使用Python3.8,采用Pytorch1.10開源深度學習框架,使用Anaconda3進行環(huán)境配置并安裝了CUDA11.1.0運算構架和cuDNN8.0.5.39深度學習加速庫。
使用基于VOC數據集的預訓練權重進行模型訓練,利用預訓練權重對網絡參數進行初始化,再利用本研究構建的澳洲堅果數據集對檢測網絡進行微調。使用帶有動量參數的隨機梯度下降法(SGD)對檢測模型進行參數優(yōu)化,動量Momentum=0.9,初始學習率為lr=0.005,每3個epoch進行一次學習率衰減,衰減倍率因子gamma=0.33,batch_size=4。
2.2模型評價指標
為了評價模型對澳洲堅果目標的檢測識別效果,選取平均精度(Average Precision,AP,公式中用AP表示)作為模型檢測精度的評價指標,通常用于表示某一個檢測模型在特定數據集上的檢測精度;選取單幅圖像檢測耗時作為模型檢測速度的評價指標。模型的平均精度AP與精準度(Precision,公式中用Pre表示)、召回率(Recall,公式中用Re表示)有關,召回率反映了檢測器對正樣本的覆蓋能力,精準度反映檢測器預測正樣本的精準度,計算公式如下。
Pre=TPTP+FP。(1)
Re=TPTP+FN。(2)
式中:TP為被正確地檢測為堅果的正樣本的數量;FP為被錯誤地檢測為堅果的正樣本的數量;FN為被正確地檢測為其他物體的負樣本的數量。
每個交并比(Intersection Over Union,IOU,公式中用Iou表示)閾值有對應的精準度和召回率,通過選取不同的Iou閾值,可繪制出模型的精準度-召回率曲線(P-R曲線)。交并比Iou的計算公式為
IOU=A(Bpred∩Btruth)A(Bpred∪Btruth)。(3)
式中:A為面積函數;Bpred為預測邊界框;Btruth為真實邊界框。
平均精度AP等于P-R曲線與橫縱坐標軸之間圍成的面積大小,計算公式為
AP=∫10Pre·Red(Re)。(4)
2.3結果與分析
2.3.1主干網絡對模型性能的影響
不同的主干網絡對輸入圖像的處理方式不一致。本研究從數據集中選取1 200張圖片用于模型訓練,目的是探究VGG16[22]、Resnet-50、Resnet-101[23]等不同主干網絡對檢測模型性能的影響,并作為改進Faster R-CNN模型的試驗依據。
主干網絡對Faster R-CNN模型的影響見表2,由表2可以看出,使用VGG16作為檢測模型的主干網絡時,其檢測精度與Resnet網絡相比無明顯優(yōu)勢,而使用VGG16網絡的檢測耗時比Resnet網絡高出近60%,這是因為VGG16網絡中采用了大量的3×3卷積核并包含了3個全連接層,導致VGG網絡參數較多,圖像檢測的耗時較長。與Resnet-50相比,Resnet-101網絡的深度更深,模型參數較多,有更強的特征提取能力。然而,從表2的試驗結果來看,兩者的檢測模型精度基本相同,但是Resnet-101的檢測耗時明顯增加。綜合來看,使用Resnet-50作為模型的主干網絡有較好的檢測性能。
使用不同主干網絡對同一圖片進行檢測,檢測效果如圖5所示,VGG16網絡對環(huán)境中的干擾物體的區(qū)分辨別能力較弱,并存在明顯的錯誤識別現(xiàn)象。由圖5(a)可知,在第一行圖片中,VGG16網絡將地上的青色石塊錯誤檢測為堅果;在第二行圖片中,VGG16網絡將右上角的落葉錯誤檢測為堅果。而Resnet-50和Resnet-101的檢測效果較為接近,僅在檢測結果的置信度方面有細微差異。通過對比多種主干網絡對模型檢測精度和檢測時間的影響,并結合不同主干網絡對澳洲堅果的實際檢測效果,本研究最終選擇Resnet50網絡作為改進Faster R-CNN模型的主干網絡。
2.3.2不同改進方式對模型性能的影響
為提高檢測模型對林地澳洲堅果的檢測能力,本研究在原始Faster R-CNN基礎上進行了改進。在Resnet-50主干網絡基礎上構建特征金字塔網絡結構,并將原來的ROI Pooling池化方式替換為采用雙線性插值的ROI Align。由圖6可知,2種改進方式對檢測模型精度均有一定程度的提升。采用特征金字塔網絡結構的檢測模型有較高的檢測精度,P-R曲線與坐標軸圍成的面積最大;采用ROI Align池化的檢測模型P-R曲線在原始Faster R-CNN之上,表明換用ROI Align對模型的檢測精度也有一定提升。
不同改進方式對模型性能的影響見表3,原Faster R-CNN的檢測精度為92.04%,構建FPN結構使檢測精度提高了2.8 %;采用ROI Align替換原有的池化方式使檢測精度提高了近1個百分點。在檢測速度方面,2種改進方式均導致模型的檢測時間有所增加,但依然保持較快的檢測速度。通過實驗對比可以看出,構建FPN結構和采用ROI Align池化有助于進一步提高檢測模型的性能。
2.3.3改進Faster R-CNN模型的檢測性能
對比了不用主干網絡和不同改進方式對Faster R-CNN檢測性能的影響,確定了以Resnet-50為最佳主干網絡,在Resnet-50的基礎上構造特征金字塔網絡結構并用ROI Align替換原來的池化方式。在數據增強圖像數據集上進行改進Faster R-CNN模型的訓練,并與SSD[24]、YOLO v3[25]等檢測模型進行性能對比。
交并比(IOU)代表預測結果與真實結果的重合度,在模型評估時選取的IOU數值越大對模型預測的準確度要求越高。由表4分析得出,在不同IOU值條件下,改進模型的檢測精度均高于原始Faster R-CNN、SSD和YOLO v3等方法。當IOU=0.50時,改進模型的檢測精度相對原始方法提升了6.85%,相對于SSD、YOLO v3等方法提高了8個百分點,在檢測精度方面有明顯的優(yōu)勢。由表5可以看出,改進Faster R-CNN模型對不同尺度物體的檢測精度明顯高于原始Faster R-CNN、SSD和YOLO v3等方法。相對于原始Faster R-CNN方法,改進模型對小目標物體(區(qū)域面積小于 322)的檢測精度提高了15個百分點,對圖像中的中、小型物體有更強的檢測性能。
澳洲堅果體積小并且沒有明顯的外觀特征,離鏡頭遠的堅果目標的特征更加模糊,非常不利于檢測識別,通過改進原始Faster R-CNN算法,提高了檢測模型在復雜園林環(huán)境下的堅果檢測能力。園林環(huán)境中的澳洲堅果檢測效果如圖7所示,從檢測結果來看,改進后的Faster R-CNN模型對處在樹蔭、草地和落葉等復雜場景下的澳洲堅果均保持較好的檢測效果,有良好的魯棒性,有效地實現(xiàn)了復雜園林場景下的澳洲堅果物體檢測識別。
3結論
目標檢測技術是實現(xiàn)澳洲堅果自動化采收的關鍵技術,本研究以德宏芒市帕底、遮放和三臺山等地區(qū)的澳洲堅果園林為研究區(qū)域,對不同海拔地區(qū)的多個品種、樹齡的林地澳洲堅果進行圖像數據采集,構建一個澳洲堅果目標檢測數據集,并基于Faster R-CNN算法搭建目標檢測模型實現(xiàn)林地澳洲堅果的檢測識別。考慮到澳洲堅果個體尺寸較小、所處環(huán)境復雜等因素,對原始Faster R-CNN算法進行了改進。
1)為提高檢測模型對澳洲堅果特征的提取能力,對比分析了VGG16、Resnet-50和Resnet-101等主干網絡對模型檢測性能的影響,并對比了不同主干網絡的實際檢測效果,選取Resnet-50作為改進模型的主干網絡。
2)采用特征融合技術,在Resnet-50主干網絡的基礎上構建特征金字塔網絡結構,將不同層級的特征圖進行特征融合,提高了模型對小目標個體的檢測能力。改進模型的檢測精度達到98.89%,與原始FasterR-CNN、SSD和YOLO v3等方法相比分別提高了6.85%、8.39%、8.28%,有明顯的精度優(yōu)勢。
3)采用ROI Align替換原來的ROI Pooling池化操作,保留了浮點位置處的特征信息,能獲取更準確的目標檢測結果。
試驗結果表明,改進Faster R-CNN模型的檢測精度及定位精度均有效提高。本研究所提方法有助于開發(fā)澳洲堅果自動化采收裝備,為實現(xiàn)澳洲堅果自動化采收提供目標檢測技術。
【參考文獻】
[1]TU X H, WU B F, XIE Y, et al. A comprehensive study of raw and roasted macadamia nuts: Lipid profile, physicochemical, nutritional, and sensory properties[J]. Food Science & Nutrition, 2021, 9(3): 1688-1697.
[2]喬進超,盧娜,黎思琦,等.云南澳洲堅果產業(yè)可持續(xù)發(fā)展研究綜述[J].南方農機,2021,52(14):38-40,50.
QIAO J C, LU N, LI S Q, et al. Review on sustainable development of Macadamia nut industry in Yunnan[J]. China Southern Agricultural Machinery, 2021, 52(14): 38-40, 50.
[3]WALTON D A, WALLACE H M. The effect of mechanical dehuskers on the quality of macadamia kernels when dehusking macadamia fruit at differing harvest moisture contents[J]. Scientia Horticulturae, 2015, 182: 119-123.
[4]TRUEMAN S J. The reproductive biology of macadamia[J]. Scientia Horticulturae, 2013, 150: 354-359.
[5]MARINOUDI V, SORENSEN C G, PEARSON S, et al. Robotics and labour in agriculture: a context consideration[J]. Biosystems Engineering, 2019, 184: 111-121.
[6]SALEEM M H, POTGIETER J, ARIF K M. Automation in agriculture by machine and deep learning techniques: a review of recent developments[J]. Precision Agriculture, 2021, 22(6): 2053-2091.
[7]LECUN Y, BENGIO Y, HINTON G. Deep learning[J]. Nature, 2015, 521(7553): 436-444.
[8]XU Y Y, LI D W, XIE Q, et al. Automatic defect detection and segmentation of tunnel surface using modified Mask R-CNN[J]. Measurement, 2021, 178: 109316.
[9]陳欽柱,姚冬,黃松.基于卷積神經網絡和優(yōu)化GoogleNet架構的監(jiān)控視頻火災探測[J].自動化技術與應用,2021,40(9):124-129.
CHEN Q Z, YAO D, HUANG S. Fire detection of surveillance video based on convolutional neural network and optimized GoogleNet architecture[J]. Techniques of Automation and Applications, 2021, 40(9): 124-129.
[10]SUO R, GAO F F, ZHOU Z X, et al . Improved multi-classes kiwifruit detection in orchard to avoid collisions during robotic picking[J]. Computers and Electronics in Agriculture, 2021, 182: 106052.
[11] ZHANG K K, WU Q F, CHEN Y P. Detecting soybean leaf disease from synthetic image using multi-feature fusion faster R-CNN[J]. Computers and Electronics in Agriculture, 2021, 183: 106064.
[12]PARVATHI S, TAMIL SELVI S. Detection of maturity stages of coconuts in complex background using Faster R-CNN model[J]. Biosystems Engineering, 2021, 202: 119-132.
[13]樊湘鵬,許燕,周建平,等.基于改進卷積神經網絡的在體青皮核桃檢測方法[J].農業(yè)機械學報,2021,52(9):149-155,114.
FAN X P, XU Y, ZHOU J P, et al. Green walnut detection method based on improved convolutional neural network[J]. Transactions of the Chinese Society for Agricultural Machinery, 2021, 52(9): 149-155, 114.
[14]徐凡迪,白海東,樊紹光,等.澳洲堅果繁育系統(tǒng)研究進展[J].世界林業(yè)研究,2022,35(5):37-41.
XU F D, BAI H D, FAN S G, et al. Research advances in Macadamia breeding system[J]. World Forestry Research, 2022, 35(5): 37-41.
[15]蔡文良,馮巖晃,李富榮,等.德宏澳洲堅果幼樹栽培技術[J].熱帶農業(yè)科學,2022,42(3):1-6.
CAI W L, FENG Y H, LI F R, et al. Cultivation of immature Macadamia trees in Dehong[J]. Chinese Journal of Tropical Agriculture, 2022, 42(3): 1-6.
[16]閆建偉,趙源,張樂偉,等.改進Faster-RCNN自然環(huán)境下識別刺梨果實[J].農業(yè)工程學報,2019,35(18):143-150.
YAN J W, ZHAO Y, ZHANG L W, et al. Recognition of Rosa roxbunghii in natural environment based on improved Faster-RCNN[J]. Transactions of the Chinese Society of Agricultural Engineering, 2019, 35(18): 143-150.
[17]孫哲,張春龍,葛魯鎮(zhèn),等.基于Faster R-CNN的田間西蘭花幼苗圖像檢測方法[J].農業(yè)機械學報,2019,50(7):216-221.
SUN Z, ZHANG C L, GE L Z, et al. Image detection method for broccoli seedlings in field based on Faster R-CNN[J]. Transactions of the Chinese Society for Agricultural Machinery, 2019, 50(7): 216-221.
[18]REN S Q, HE K M, GIRSHICK R, et al. Faster R-CNN: towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137-1149.
[19]彭明霞,夏俊芳,彭輝.融合FPN的Faster R-CNN復雜背景下棉田雜草高效識別方法[J].農業(yè)工程學報,2019,35(20):202-209.
PENG M X, XIA J F, PENG H. Efficient recognition of cotton and weed in field based on Faster R-CNN by integrating FPN[J]. Transactions of the Chinese Society of Agricultural Engineering, 2019, 35(20): 202-209.
[20] LIN T Y, DOLLAR P, GIRSHICK R, et al. Feature pyramid networks for object detection[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). July 21-26, 2017, Honolulu, HI, USA. IEEE, 2017: 936-944.
[21]HE K M, GKIOXARI G, DOLLAR P, et al. Mask R-CNN[C]//2017 IEEE International Conference on Computer Vision (ICCV). October 22-29, 2017, Venice, Italy. IEEE, 2017: 2980-2988.
[22]SIMONYAN K, ZISSERMAN A. Very deep convolutional networks for large-scale image recognition[EB/OL]. 2014: arXiv: 1409.1556. https://arxiv.org/abs/1409.1556.
[23]HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). June 27-30, 2016, Las Vegas, NV, USA. IEEE, 2016: 770-778.
[24]LIU W, ANGUELOV D, ERHAN D, et al. SSD: single shot MultiBox detector[M]//Computer Vision-ECCV 2016. Cham: Springer International Publishing, 2016: 21-37.
[25]REDMON J, FARHADI A. YOLOv3: an incremental improvement[EB/OL]. 2018: arXiv: 1804.02767. https://arxiv.org/abs/1804.02767