收稿日期:2023-12-04
基金項目:云南省高層次人才項目(YNWR-QNBJ-2018-066、YNQR-CYRC-2019-001)
作者簡介:方國文(2001-),女,安徽合肥人,碩士研究生,主要研究方向為圖像識別。(E-mail)fgw09182023@163.com
通訊作者:何 超,(Tel)15887130986;(E-mail)hcsmile@163.com
摘要: 在果園環(huán)境下,快速精準識別巴旦木果實對提升巴旦木采摘機器人的作業(yè)精度和效率至關重要。為減少果園場景中因樹葉遮擋或果實重疊導致的巴旦木果實漏檢現象,降低計算量和參數量,提高果實識別模型的性能和準確度,本研究在YOLOv8n模型的基礎上,利用ContextGuide模塊替換原模型中主干網絡(Backbone)部分基本構成單元C2f中的Bottleneck模塊,利用BiFPN模塊替代原模型中頸部網絡(Neck)部分中的PANet模塊,同時引入MPDIoU損失函數替換原模型中的CIoU損失函數,提出了一種改進的輕量級巴旦木果實檢測模型(YOLOv8n-BCG)。并利用公開的巴旦木影像數據集對優(yōu)化后的模型性能進行比較分析。結果表明,改進后模型參數量僅為1.528 M,平均精度值(mAP0.50∶0.95)為69.7%,相比于原YOLOv8n模型提升0.5個百分點。與YOLOv5s、YOLOv5n、YOLOv7-tiny、Faster R-CNN等模型相比,YOLOv8n-BCG模型具有更低的浮點計算量和更高的檢測精度值。本研究結果可為高效的巴旦木果實采摘機器人自動化作業(yè)提供技術支持。
關鍵詞: 巴旦木;果實識別;BiFPN;ContextGuide;MPDIoU損失函數;YOLOv8n
中圖分類號: TP391.4"" 文獻標識碼: A"" 文章編號: 000-4440(2024)09-1662-09
Lightweight almond fruit recognition method based on YOLOv8n
FANG Guowen, HE Chao, WANG Xinze
(College of Mechanical and Transportation Engineering, Southwest Forestry University, Kunming 650000, China)
Abstract: In the orchard environment, rapid and accurate identification of almond fruits is very important to improve the operation accuracy and efficiency of almond picking robots. In order to reduce the missed detection of almond fruits caused by leaf occlusion or fruit overlap in the orchard scene, reduce the amount of calculation and parameters, and improve the performance and accuracy of the fruit recognition model, based on the YOLOv8n model, this study used the ContextGuide module to replace the Bottleneck module in the basic component unit C2f of the Backbone part of the original model, used the BiFPN module to replace the PANet module in the Neck part of the original model, and introduced the MPDIoU loss function to replace the CIoU loss function in the original model. An improved lightweight almond fruit detection model (YOLOv8n-BCG) was proposed. The performance of the optimized model was compared and analyzed by using the public almond image data set. The results showed that the number of parameters of the improved model was only .528 M, and the mean average precision (mAP0.50∶0.95) was 69.7%, which was 0.5 percentage points higher than that of the original YOLOv8n model. Compared with YOLOv5s, YOLOv5n, YOLOv7-tiny and Faster R-CNN models, YOLOv8n-BCG model had lower floating-point calculation and higher detection accuracy. The results of this study can provide technical support for efficient automatic operation of almond picking robots.
Key words: almond;fruit recognition;BiFPN;ContextGuide;MPDIoU loss function;YOLOv8n
巴旦木,又名扁桃,是薔薇科桃亞屬植物。巴旦木果仁富含植物油、蛋白質、淀粉、糖,并含有少量維生素A、維生素B1、維生素B2和消化酶、杏仁素酶以及鈣、鎂、鈉、鉀、鐵、鈷等營養(yǎng)元素,具有降低膽固醇、有益心臟和腸道、控制體重和血糖水平等功效,越來越受消費者喜愛[1]。目前巴旦木果實的采摘仍然依賴傳統的人工方式,這種方式成本高、效率低,無法滿足巴旦木產業(yè)的發(fā)展需求。因此,研發(fā)巴旦木果實自動化采摘機器人已經成為不可避免的趨勢[2]。果園環(huán)境條件下巴旦木果實的快速準確識別,對巴旦木果實的自動化智能采摘尤為重要[3]。
傳統的計算機目標識別主要依靠形狀、紋理和色澤等特征對圖像進行分割與目標識別。陳禮鵬等[4]采用圖像RGB分量[5],實現獼猴桃果實的識別。賈偉寬等[6]利用3種降噪方法進行蘋果果實的夜間識別。李斌等[7]基于RGB[8]和HSL[9]顏色模型提取枇杷果實的形態(tài)特征,從而進行枇杷果實碰傷等級的檢測。李昕等[10]采用Hough變換算法[11]實現有遮擋的油茶果實識別。近年來,隨著卷積神經網絡等深度學習方法[12-17]的提出,基于數據驅動的目標檢測模型在作物果實識別及分級[18]、病蟲害檢測[19]以及產量預估[20]等研究中得到初步應用[21]。在深度學習的方法中,李恒等[22]基于GhostNet模型[23]提取主干特征信息,并采用復雜雙向多尺度融合算法[24]對提取的主干特征信息進行融合,實現了綠色類圓果實的識別,模型占用內存11.8 M,且每幅照片檢測所需時間僅37 ms,識別精度達96.8%。儲鑫等[25]利用 MobileNetv1網絡[26]代替YOLOv4模型[27]中原有的主干網絡CSPDarknet53[28]進行特征提取,并在特征融合網絡PANet中引入深度可分離卷積[29]代替原有的3×3標準卷積,同時在主干網絡中嵌入卷積塊注意力模塊(CBAM),進而進行番茄葉部病害識別,結果發(fā)現改進后的模型比原模型參數減少80%,檢測時間減少59.1%,識別精度提升0.6個百分點。代云等[30]設計Mob-darknet-52特征提取網絡代替YOLOv3模型中的Darknet-52模塊,并結合多尺度檢測模型,對YOLOv3模型進行了改進,并利用改進后的模型進行密集環(huán)境下檳榔果實的快速識別,識別精度和效率均比原模型有所提升。
上述研究結果表明,深度學習技術是果園中果實精準識別較好的方法。但在果園小目標果實檢測中,上述模型常受到終端檢測設備計算能力的限制,如何對計算量龐大的目標檢測模型進行輕量化處理,是目前果園中果實小目標檢測的一個熱點問題。本研究擬在YOLOv8n[31]模型的基礎上,利用BiFPN[32]模塊代替通用的PANet模塊, ContextGuide[33]代替C2f中的Bottleneck模塊,構建輕量化模型YOLOv8n-BCG,為巴旦木果實的自動化采摘提供依據和支撐。
1 材料與方法
1.1 數據集的獲取
本研究選擇公開的巴旦木影像數據集ACFR-Orchard-Fruit-Dataset為材料進行巴旦木果實的識別和模型比較。該數據集來自澳大利亞悉尼大學和澳大利亞野外機器人技術中心,共包含620張巴旦木結果期果樹圖片,圖像分辨率為300像素×300像素,每張圖片中平均約有24顆巴旦木果實。為避免模型訓練過程中出現過擬合現象,提高數據樣本的多樣性,采用旋轉、裁剪、調節(jié)圖像亮度、加入噪聲以及上述4種增強方式兩兩結合,旋轉與裁剪結合、旋轉與調節(jié)圖像亮度結合、旋轉與加入噪聲結合、裁剪與調節(jié)圖像亮度結合、裁剪與加入噪聲結合、調節(jié)圖像亮度與加入噪聲相結合以及4種方法相結合的方法來進行原始數據集的增強,增強后共得到巴旦木果樹圖像7 440張。由于部分原始圖像本身較模糊,數據增強后除去模糊不清以及過度曝光的233張圖像,得到7 207張圖像作為數據集。對數據集圖像中的巴旦木果實位置進行標注,并按照8∶1∶1的比例將數據集隨機劃分為訓練集、驗證集和測試集進行試驗。增強后的部分圖像如圖1所示。
1.2 YOLOv8n模型及改進
YOLOv8系列模型[31]是Ultralytics公司于2023年發(fā)布的圖像分割、目標檢測模型,其精度和速度較以前版本均有顯著提升。該模型主要包括特征提取的主干網絡(Backbone)、特征融合的頸部網絡(Neck)以及檢測頭(Head)等。YOLOv8系列模型采用C2f模塊替換YOLOv5模型中的C3模塊,使得模型在保證輕量化的同時獲得更加豐富的梯度流信息,并重新融入無錨框思想,即通過多個關鍵點或者中心點與邊界的信息來表示物體,使得模型非常適合密集目標的檢測。YOLOv8模型的識別損失主要包括類別分類損失和邊界框回歸損失,其中類別分類損失(Cls.Loss)采用交叉熵損失表征,而邊界框回歸損失(Bbox.Loss)則采用交并比(CIOU)表征,同時還引入了DFL損失來處理數據不平衡的問題??傮w的損失函數(L)如式(1)所示:
L=LossCIOU+LossDFL+LossCLS(1)
YOLOv8n是YOLOv8系列模型中的一個輕量化版本,其推理速度最快,占用內存最小,其結構如圖2所示。
原始YOLOv8n模型計算量龐大,結構復雜,導致其在目標識別時對終端設備的計算能力有較高的要求。本研究在YOLOv8n原始模型的基礎上,通過模塊優(yōu)化提出了一種輕量化的目標識別檢測模型——YOLOv8n-BCG。模型的優(yōu)化主要體現在3個方面。一是在主干網絡(Backbone)部分基本構成單元C2f中利用ContextGuide模塊替代Bottleneck模塊,二是在頸部網絡(Neck)中利用BiFPN模塊替代原來的PANet模塊,三是利用MPDIoU損失函數替代原來的邊界框損失函數CIoU。
1.2.1 加權雙向特征金字塔網絡(BiFPN) 原始YOLOv8n模型中Neck網絡是利用PANet模塊進行不同特征層的數據融合(圖3a)。該模塊通過不同特征層的簡單相加實現數據融合,該方案在識別大小均勻的目標時是可靠的。但本研究中識別的巴旦木果實大小不一,特征層的簡單相加會導致融合后輸出特征數據不精確。為解決這一問題,本研究借鑒Tan等[32]提出的BiFPN模塊代替PANet模塊進行數據融合。BiFPN模塊能為不同特征層分配不同權重,從而提高模型的目標識別性能。BiFPN移除1個未進行特征融合的中間節(jié)點,同時為了加強特征融合,在同層輸入節(jié)點與輸出節(jié)點間增加特征分支(圖3b)。本研究為實現輕量化計算,對原始的BiFPN模塊在保留雙向跨尺度連接的基礎上,去掉多余支路,僅使用P3、P4、P5通道進行輸出,這樣能在不影響特征融合的情況下進一步精簡網絡結構,使模型更加輕量化(圖3c)。
特征融合過程中,不同特征層分辨率不同,因而其對輸出特征的貢獻亦不相同。本研究利用的巴旦木影像數據集大多包含較多的識別目標,BiFPN模塊可快速融合不同特征層的數據信息,挖掘果實深層信息,減少環(huán)境復雜而造成漏檢、誤檢。BiFPN的帶權特征融合公式為:
O=∑iwiε+W×Ii(2)
式中,O:輸出信息,Ii:第i層輸入信息,ε:用于約束數值振蕩的極小值學習率,取值為0.000 ,wi為第i特征層權重,W為所有特征層總權重。
以圖4中的P4特征融合為例,具體計算為:
P td4=Convw1*P in4+w2*Resize(P in5)w1+w2+ε(3)
P out4=Convw′1*P in4+w′2*P td4+w′3*Resize(P out3)w′1+w′2+w′3+ε(4)
式(3)、(4)中,P td4為自上而下(top-down)路徑中P4的中間特征,P out4為自下而上(bottle-up)路徑中P4的輸出特征,P in4為bottle-up路徑中的輸入特征,Conv為對應的卷積操作,Resize為上采樣或下采樣操作,w1、w2、w3分別為第1層、第2層和第3層權重,w′1、w′2、w′3分別為特征融合后的第1層、第2層和第3層權重 ,ε為極小非零常數,取值為0.000 。
1.2.2 ContextGuide(CG)模塊 ContextGuided Network(CGNet)是Wu等[33]提出的語義分割輕量級模型。CGNet模型包含51層, 3個階段,每個階段的通道數分別為32、64、128。假設輸入圖像大小為680×680×3,對圖像分別進行1/2、1/4、1/8的下采樣,輸出圖像大小為85×85,這樣能較好地保留邊緣信息。每個階段的第1層輸入是來自上1個階段的第1層和最后1層的輸出組合,有利于特征重用和傳播。CGNet主要是由CG模塊構建而成,其可以較好地獲取上下層圖像的紋理特征,并通過逐通道重新加權,引入全局上下層圖像的特征進一步改善聯合特征。CG模塊中的floc提取器用于提取局部特征,fsur提取器用于提取周圍上下層圖像的特征,fjoi提取器用于提取聯合特征,fglo提取器用于提取全局上下層圖像的特征(圖4)。CG模塊還采用兩種殘差連接,一是連接CG模塊輸入和fjoi輸出,稱為局部殘差學習(LRL),二是連接CG模塊輸入和fglo輸出,稱為全局殘差學習(GRL)。相比較而言,GRL能促進網絡中的信息傳遞,有助于模型學習復雜的特征并改善訓練期間的梯度反向傳播,具有更好的效果。
YOLOv8n 主干網絡(Backbone)部分基本構成單元C2f雖可以保證目標識別的準確性和對圖像細節(jié)的感知能力,但其浮點計算量和參數量均較高。所以本研究中將C2f中的Bottleneck模塊替換為CG模塊,通過在網絡的不同階段利用局部和全局上下文信息來提高識別準確率,同時保持模型的輕量級特性,確保邊緣信息不丟失,提高模型對特征信息的獲取能力,增加模型的魯棒性。改進后的C2f如圖5所示。
1.2.3 MPDIoU損失函數 利用YOLOv8n進行巴旦木果實目標檢測時,目標邊界框的位置對目標框寬度計算具有重要的作用。YOLOv8n中默認的損失函數為CIoU。CIoU函數能綜合考慮預測框與真實框重疊面積、中心點距離及寬高比3個因素,有利于模型充分學習目標框的特性,但在預測邊界框與真實邊界框寬高比一致、寬度與高度值不一致時,CIoU函數的有效性受到影響。為此,本研究中采用具有更高邊界框回歸效率和精度的MPDIoU函數為改進模型的損失函數。MPDIoU函數通過最小化預測邊界框與真實框之間左上和右下點距離,使模型能更好地實現訓練、目標檢測和圖像分割。MPDIoU損失函數計算公式如下:
LossMPDIoU=1-IoU+d 21w 2+h 2+d 22w 2+h 2(5)
d 21=(x prd1-x gt1) 2+(y prd1+y gt1) 2(6)
d 22=(x prd2-x gt2) 2+(y prd2+y gt2) 2(7)
式中,LossMPDIoU為MPDIoU損失函數,IoU為預測框和真實框的交并比,w、h為輸入圖像的寬和高,d1為預測框的左上點與真實框左上點的直線距離,d2為預測框的右下點與真實框右下點的直線距離,x prd1、y prd1為預測框左上點的坐標;x prd2、y prd2為預測框右下點的坐標;x gt1、y gt1為真實框左上點的坐標;x gt2、y gt2為真實框右下點的坐標。
MPDIoU函數不但能充分體現預測框和真實框的重疊程度、中心點距離、寬度和高度偏差等因素,簡化了計算過程,還能提高預測框的回歸精度和收斂速度,減少預測框的冗余性。
1.3 模型系統開發(fā)環(huán)境及訓練參數
本研究中改進YOLOv8n模型在Windows10操作系統下開發(fā),所用語言為Python3.8,CPU型號為Intel Core i9-13900kf,運行內存為64 GB,GPU型號為NVIDIA RTX 4090,顯存為24 GB,并使用統一計算設備架構(CUDA)和CUDA深度神經網絡庫(CUDNN)對圖形處理器(GPU)進行加速?;谏疃葘W習框架Pytorch .12.1進行模型訓練,具體參數設置如下:學習率0.01,動量0.937,權重衰減率為0.000 5,批量大小32,迭代次數600,圖片尺寸為300像素×300像素。
1.4 模型改進措施的消融試驗
為驗證各個改進模塊對于巴旦木果實識別效果的影響,本研究在原始YOLOv8n模型的基礎上設計5組改進措施的消融試驗。方案1是采用BiFPN替換Neck中的PANet模塊;方案2是將基本構成單元C2f中Bottleneck模塊替換為ContextGuide模塊;方案3是采用MPDIoU損失函數替代CIoU函數實現邊界框回歸;方案4是采用BiFPN、ContextGuide模塊分別替換PANet模塊和Bottleneck模塊;方案5在采用BiFPN、ContextGuide模塊分別替換PANet模塊和Bottleneck模塊的同時,采用MPDIoU損失函數實現邊界框回歸。
1.5 不同模型檢測精度比較及識別案例分析
為了進一步說明本研究提出的YOLOv8n改進模型的性能,利用其與當前主流卷積神經網絡模型(YOLOv8n、YOLOv5n、YOLOv5s、YOLOv7、Faster R-CNN)進行巴旦木果實識別和模型性能的比較。為直觀說明不同模型的識別準確率,本研究對不同光線環(huán)境背景和不同遮擋情況的2個場景巴旦木果實的識別情況進行個例分析。
1.6 評價指標
由于本研究中只有巴旦木果實1個識別目標,因此本研究的識別屬于二分類問題,故選擇平均精度值[34](交并比閾值0.50的mAP0.50和交并比閾值0.50至0.95的mAP0.50∶0.95)、模型參數量、浮點計算量(GFLOPs)4個指標來評價模型精度和計算效率。
2 結果與分析
2.1 消融試驗結果
消融試驗結果如表1所示。從表中可以看出,采用原始YOLOv8n模型分類的平均精度值mAP0.50和mAP0.50∶0.95分別為0.984和0.692,參數量和浮點計算量分別為3.011M和1 s 8.2×10 9次。與原始YOLOv8n模型相比,采用BiFPN替換Neck中的PANet模塊后(方案1),由于受到骨干網絡池化操作和卷積影響,參數量和浮點計算量分別減少33.7%和12.2%,導致模型的mAP0.50和mAP0.50∶0.95亦有所下降,分別下降了0.3和2.0個百分點。將C2f中Bottleneck模塊替換為ContextGuide模塊后(方案2),在模型參數和浮點計算量減少的同時,模型識別精度均有所提升,mAP0.50和mAP0.50∶0.95分別增加0.2個百分點和2.6個百分點。采用MPDIoU損失函數實現邊界框回歸的方案3,參數量和浮點計算量略有減少,平均精度值mAP0.50下降0.1個百分點,平均精度值mAP0.50∶0.95提高0.5個百分點。同時采用BiFPN與ContextGuide模塊分別替換PANet模塊和Bottleneck模塊的方案4,參數量和浮點計算量分別下降49.1%和28.0%,mAP0.50和mAP0.50∶0.95均下降1.0個百分點。在方案4的基礎上,進一步利用MPDIoU損失函數實現邊界框回歸后的方案5,參數量和浮點計算量分別下降49.3%和29.3%,平均精度值mAP0.50下降0.3個百分點,而平均精度值mAP0.50∶0.95增加0.5個百分點,即方案5在平均精度變化不大的同時,參數量和浮點計算量得到大幅下降,達到了模型輕量化的要求。
2.2 不同模型對巴旦木果實的識別性能
不同模型對巴旦木樣本集的識別性能如表2所示。從表中可以看出,與本研究提出的YOLOv8n改進模型相比,Faster R-CNN模型和YOLOv7-tiny模型參數量多、浮點計算量高,且模型精度低;YOLOv5s模型有更高的精度,但參數量和浮點計算量高,這將導致模型的識別效率低,難以滿足生產需求;YOLOv5n模型的參數量和浮點計算量分別增加63.8%和22.4%,且mAP0.50和mAP0.50∶0.95分別下降2.5個百分點和11.6個百分點;原始YOLOv8n模型雖然精度相差不大,但參數量和浮點計算量高,即識別效率低。因此,本研究提出的YOLOv8n改進模型既有較高的識別精度,又有更高的識別效率,更適合在嵌入式設備中應用。
2.3 不同模型的識別案例分析
不同模型對不同光線背景(迎光和背光)、不同遮擋情況(樹葉遮擋和果實重疊)下的巴旦木果實的識別情況如圖6所示。從圖中可以看出, YOLOv7-tiny的識別效果最差,漏檢數量不論在哪種情況下都最高。Faster R-CNN在迎光樹葉遮擋的情況下,果實識別率達到最佳,但其他情況下均有較嚴重的漏檢。YOLOv5n能夠較好識別巴旦木果實,但在光線不好的情況下易出現錯檢、漏檢,且重疊果實的識別性能較差。YOLOv5s能夠較好地識別果實,且背光條件下識別準確率高于YOLOv5n,但仍存在錯檢和漏檢情況。YOLOv8n在迎光樹葉遮擋的情況下未出現漏檢、錯檢現象,但光線較差時,對重疊果實的識別準確率較低,漏檢數量多,在果實重疊時存在誤檢現象。本研究建立的YOLOv8n改進模型對于枝葉遮擋、果實重疊、光線不佳的不良情況擁有很高的識別能力,無漏檢、錯檢的果實,在實際的果園環(huán)境下擁有更優(yōu)異的檢測效果。
綜上所述,經過算法優(yōu)化后得到的YOLOv8n-BCG模型在巴旦木實例檢測中能夠達到更好的檢測效果,在保證識別準確度的前提下,能有效地防止誤檢和漏檢情況發(fā)生。
3 結論
(1)本研究在YOLOv8n模型的基礎上,利用BiFPN模塊代替Neck中的PANet模塊、ContextGuide模塊代替骨干部分C2f結構單元中的Bottleneck模塊、MPDIoU損失函數代替CIoU損失函數,構建了YOLOv8n改進模型——YOLOv8n-BCG模型。結合公開的巴旦木影像數據集ACFR-Orchard-Fruit-Dataset對模型進行了比較,發(fā)現改進后的模型能有效解決識別目標的重疊問題,突出重要層次的信息,減少冗余信息、模型參數及浮點計算量,提高訓練速度和識別精度,能較好地實現果園環(huán)境下的巴旦木果實輕量化識別。
(2)消融試驗結果表明不同的改進模塊對模型的參數量、浮點計算量和精度有不同的影響,綜合使用3個模塊代替方案后模型參數和浮點計算量比原模型分別下降49.3%和29.3%,平均精度值(mAP0.50∶0.95)提高0.5個百分點,效果最好。不同模型比較結果亦顯示改進后的YOLOv8n-BCG模型不同光線背景、不同遮擋情況下漏檢率、誤檢率最低。上述結果說明本研究構建的YOLOv8n-BCG模型非常適合于巴旦木果實智能采摘裝備的研發(fā)。
參考文獻:
[1] 石 鑫,楊豫新,牛長河,等. 滾筒刷式巴旦木脫青皮機的設計與試驗[J]. 西北農林科技大學學報(自然科學版),2023,51(12):143-154.
[2] 金壽祥,周宏平,姜洪喆,等. 采摘機器人視覺系統研究進展[J]. 江蘇農業(yè)學報,2023,39(2):582-595.
[3] 劉 冬. 數字化與智能化在農業(yè)機械工程設計中的應用[J]. 中國農業(yè)資源與區(qū)劃,2023,44(7):48,65.
[4] 陳禮鵬,穆龍濤,劉浩洲,等. 基于獼猴桃果萼圖像的多目標果實識別方法[J]. 計算機工程與設計,2018,39(6):1738-1744.
[5] ABDULLAH M S, HASAN R M A, RAHMAN A N, et al. Versatile recognition of graphene layers from optical images under controlled illumination through green channel correlation method[J]. Nanotechnology,2023,34(44):1899-1904.
[6] 賈偉寬,趙德安,阮承治,等. 蘋果采摘機器人夜間圖像降噪算法[J]. 農業(yè)工程學報,2015,31(10):219-226.
[7] 李 斌,韓昭洋,王 秋,等. 基于高光譜成像技術的枇杷碰傷等級檢測研究[J]. 光譜學與光譜分析,2023,43(6):1792-1799.
[8] MAR A, HILMY B, SERGIO V, et al. Object detection and tracking on UAV RGB videos for early extraction of grape phenotypic traits[J]. Computers and Electronics in Agriculture,2023,211(20):347-353.
[9] CHEN B, SHI S, CHEN B, et al. True color 3D imaging optimization with missing spectral bands based on hyperspectral LiDAR[J]. Optics Express,2021,29(13):20406-20422.
[10]李 昕,李立君,高自成,等. 改進類圓隨機Hough變換及其在油茶果實遮擋識別中的應用[J]. 農業(yè)工程學報,2013,29(1):164-170.
[11]張彥斐,劉茗洋,宮金良,等. 基于兩級分割與區(qū)域標記梯度Hough圓變換的蘋果識別[J]. 農業(yè)工程學報,2022,38(19):110-121.
[12]劉安旭,黎向鋒,劉晉川,等. 改進卷積空間傳播網絡的單目圖像深度估計[J]. 電子測量技術,2021,44(23):78-85.
[13]呂 偉,宋 軒,楊 歡. 基于深度學習和多源遙感數據的玉米種植面積提取[J]. 江蘇農業(yè)科學,2023,51(23):171-178.
[14]鮑 彤,羅 瑞,郭 婷,等. 基于BERT字向量和TextCNN的農業(yè)問句分類模型分析[J]. 南方農業(yè)學報,2022,53(7):2068-2076.
[15]翟先一,魏鴻磊,韓美奇,等. 基于改進YOLO卷積神經網絡的水下海參檢測[J]. 江蘇農業(yè)學報,2023,39(7):1543-1553.
[16]向 俊,嚴恩萍,姜鎵偉,等. 基于全卷積神經網絡和低分辨率標簽的森林變化檢測研究[J]. 南京林業(yè)大學學報(自然科學版),2024,48(1):187-195.
[17]阮子行,黃 勇,王 夢,等. 基于改進卷積神經網絡的番茄品質分級方法[J]. 江蘇農業(yè)學報,2023,39(4):1005-1014.
[18]DEBANIRANJAN M, NIVA D, KUMAR K M. Deep neural network based fruit identification and grading system for precision agriculture[J]. Proceedings of the Indian National Science Academy,2022,88(2):228-239.
[19]TANG Z, LIU J J, CHEN Z Y, et al. Improved Pest-YOLO:real-time pest detection based on efficient channel attention mechanism and transformer encoder[J]. Ecological Informatics,2023,78(14):891-898.
[20]郭明月,劉雅晨,李偉夫,等. 基于視頻跟蹤算法的果園獼猴桃產量實時預估[J]. 農業(yè)機械學報,2023,54(6):178-185.
[21]王大方,劉 磊,曹 江,等. 基于空洞空間池化金字塔的自動駕駛圖像語義分割方法[J]. 汽車工程,2022,44(12):1818-1824.
[22]李 恒,南新元,高丙朋,等. 一種基于GhostNet的綠色類圓果實識別方法[J]. 江蘇農業(yè)學報,2023,39(3):724-731.
[23]SUE R. GhostNets:go global,and local[J]. Artlink,2013,33(2):70-71.
[24]趙 升,趙 黎. 基于雙向特征金字塔和深度學習的圖像識別方法[J]. 哈爾濱理工大學學報,2021,26(2):44-50.
[25]儲 鑫,李 祥,羅 斌,等. 基于改進YOLOv4算法的番茄葉部病害識別方法[J]. 江蘇農業(yè)學報,2023,39(5):1199-1208.
[26]李運寰,聞繼偉,彭 力. 高幀率的輕量級孿生網絡目標跟蹤[J]. 計算機科學與探索,2022,16(6):1405-1416.
[27]王 琛,林 威,胡良鵬,等. 分體式飛行汽車全自主對接導引系統設計與驗證[J]. 浙江大學學報(工學版),2023,57(12):2345-2355.
[28]孔維剛,李文婧,王秋艷,等. 基于改進YOLOv4算法的輕量化網絡設計與實現[J]. 計算機工程,2022,48(3):181-188.
[29]LIN C L, WANG T Y, DONG S Y, et al. Hybrid convolutional network combining 3D depthwise separable convolution and receptive field control for hyperspectral image classification[J]. Electronics,2022,11(23):3992-3997.
[30]代 云,盧 明,何 婷,等. 基于改進型YOLO的密集環(huán)境下檳榔果實的快速識別方法[J]. 食品與機械,2023,39(4):83-88.
[31]YANG S Z, WANG W, GAO S, et al. Strawberry ripeness detection based on YOLOv8 algorithm fused with LW-Swin Transformer[J]. Computers and Electronics in Agriculture,2023,215(5):1234-1240.
[32]TAN M, PANG R, LE Q. EfficientDet:scalable and efficient object detection[C]//IEEE. 2020 IEEE/CVF conference on computer vision and pattern recognition(CVPR). Washington:IEEE Computer Society,2020:10778-10787.
[33]WU T Y, TANG S, ZHANG R, et al. CGNet:a light-weight context guided network for semantic segmentation[J]. IEEE Transactions on Image Processing,2021,30:1169-1179.
[34]HENDERSON P, FERRARI V. End-to-end training of object class detectors for mean average precision[C]//LAI S H, LEPETIT V, NISHIMO K, et al. Computer Vision-ACCV2016. Cham,SW:Springer,2016:198-213.
(責任編輯:石春林)