亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于YOLO-L的自然環(huán)境中澳洲堅果果實的檢測和識別

        2024-12-05 00:00:00林祖香王英東馬榮韋云松李子李加強何超
        江蘇農(nóng)業(yè)學(xué)報 2024年11期
        關(guān)鍵詞:澳洲堅果圖像處理深度學(xué)習(xí)

        摘要: 針對自然環(huán)境下果實重疊、相互遮擋和目標(biāo)小的澳洲堅果果實檢測準(zhǔn)確率低的問題,提出一種改進YOLOv9模型的識別方法(YOLO-L)。首先,引入BiFormer注意力機制,該機制通過雙層路由注意力機制實現(xiàn)了動態(tài)、查詢感知的稀疏注意力分配,能夠很好地捕獲特征表征,增強網(wǎng)絡(luò)對全局特征的關(guān)注度;其次,采用VoVGSCSP模塊代替YOLOv9中的CBFuse模塊,提高了復(fù)雜場景下小目標(biāo)的檢測效果;最后,將YOLOv9模型默認的損失函數(shù)替換成排斥損失函數(shù),解決了果實排列密集和漏檢的問題,進一步提升了澳洲堅果果實檢測的平均精度。通過消融試驗和對比試驗來驗證模型的有效性,發(fā)現(xiàn)YOLO-L模型的平均精度均值、精確率、召回率和F1值分別達到96.2%、92.3%、88.2%和90.2%。與YOLOv9模型相比,YOLO-L模型的平均精度均值提升了4.9個百分點??傮w而言,YOLO-L模型能夠在自然環(huán)境下準(zhǔn)確識別被遮擋、重疊的澳洲堅果果實,且檢測精度高。研究結(jié)果可為澳洲堅果產(chǎn)業(yè)的智能采摘提供有效的技術(shù)支持。

        關(guān)鍵詞: 圖像處理;深度學(xué)習(xí);YOLOv9模型;澳洲堅果

        中圖分類號: TP301.6;S664 文獻標(biāo)識碼: A 文章編號: 1000-4440(2024)11-2102-09

        Macadamia (Macadamia integrifolia Maiden amp; Betche) detection and recognition in natural environments based on YOLO-L

        LIN Zuxiang1, WANG Yingdong1, MA Rong1, WEI Yunsong1, LI Ziwen1, LI Jiaqiang1, HE Chao2

        (1.College of Mechanical and Transportation Engineering, Southwest Forestry University, Kunming 650224, China;2.Dehong Vocational College, Dehong 678400, China)

        Abstract: Aiming at the issue of low detection accuracy for macadamia nuts in natural environments due to overlapping, mutual occlusion, and small targets, an improved YOLOv9 model recognition method (YOLO-L) was proposed. Firstly, the BiFormer attention mechanism was introduced, which achieved dynamic and query-aware sparse attention allocation through the Bi-level routing attention mechanism. This mechanism was capable of effectively capturing feature representations and enhanced the network’s focus on global features. Secondly, the VoVGSCSP module was used to replace the CBFuse module in YOLOv9, which improved the detection performance for small targets in complex scenes. Lastly, the default loss function of the YOLOv9 model was replaced with an exclusion loss function, which solved the problems of dense fruit arrangement and missed detections, and further enhanced the average accuracy of macadamia nut detection. The effectiveness of the model was validated through ablation and comparative experiments. It was found that the mean average precision, precision, recall, and F1 score of YOLO-L model reached 96.2%, 92.3%, 88.2%, and 90.2%, respectively. Compared with the YOLOv9 model, the mean average precision of the YOLO-L model was improved by 4.9 percentage points. Overall, the YOLO-L model can accurately identify occluded and overlapped macadamia nuts in natural environments with high detection accuracy. The research results can provide effective technical support for the intelligent harvesting in the macadamia industry.

        Key words: image processing;deep learning;YOLOv9 model;macadamia (Macadamia integrifolia Maiden amp; Betche)

        澳洲堅果(Macadamia integrifolia)被譽為“堅果之王”,其果仁含有17種氨基酸、多種礦物質(zhì)和大量蛋白質(zhì),是經(jīng)濟價值較高的食用干果之一[1]。然而,澳洲堅果采摘過程依賴人工,效率低、速度慢且勞動強度大,因此自動化和智能設(shè)備化采摘是解決該問題的重要途徑,但是復(fù)雜的生長環(huán)境和密集重疊的果實會影響視覺檢測的準(zhǔn)確性,造成智能采摘進展緩慢。因此,快速準(zhǔn)確識別澳洲堅果果實是智能采摘的關(guān)鍵。

        視覺識別在農(nóng)業(yè)中的應(yīng)用廣泛,特別是對果實的識別和檢測[2]。傳統(tǒng)機器視覺需要手動提取特征,魯棒性差,難以應(yīng)對復(fù)雜環(huán)境[3-4]。相比之下,深度學(xué)習(xí)的目標(biāo)檢測算法因其優(yōu)越的泛化能力而倍受關(guān)注[5-6],該算法分為兩階段算法和單階段算法[7-8]。兩階段算法的精度高,但速度慢,單階段算法具有更快的檢測速度和更高的可拓展性,因此更適合實際應(yīng)用[9]。目前,作為單階段深度學(xué)習(xí)算法的YOLO已成為農(nóng)產(chǎn)品檢測的主流方法[10-13]。

        自YOLOv1發(fā)布以來,YOLO系列算法經(jīng)歷了多次迭代與優(yōu)化。YOLOv1首次解決了兩階段檢測算法速度慢的問題[14];YOLOv2引入了新的30層架構(gòu)、錨盒及批量標(biāo)準(zhǔn)化技術(shù),顯著提升了模型性能和收斂速度[15];YOLOv3通過增加SPP層和采用Mish激活函數(shù),進一步提高了復(fù)雜環(huán)境下的識別精度[16];YOLOv4利用CSP Darknet53、DenseNet和Leaky ReLU等技術(shù),增強了模型的魯棒性和對小目標(biāo)的檢測能力[17];YOLOv5通過引入注意力機制(SE)和替換主干網(wǎng)絡(luò)為BottleneckCSP-2,提高了檢測識別的精確率[18];YOLOv6實現(xiàn)了無錨設(shè)計,并引入自我關(guān)注機制、自適應(yīng)訓(xùn)練技術(shù),優(yōu)化了訓(xùn)練過程[19];YOLOv7在YOLOv6基礎(chǔ)上引入了E-ELAN模塊,提高了推理效率;YOLOv8則通過C2f模塊將高級功能與上下文信息結(jié)合,提升了檢測準(zhǔn)確率[20]。近年來,許多研究者采用YOLO對農(nóng)產(chǎn)品果實進行檢測識別,并嘗試提升其檢測性能。例如,利用添加了BottleneckCSP-2、SE模塊的YOLOv5檢測被遮擋蘋果,召回率、精確率、平均精度均值和F1值分別為91.48%、83.83%、86.75%和87.49%[21];用結(jié)合Transformer注意力機制的YOLOv7檢測荔枝果實,平均精度均值達93.6%[22];通過深度可分離卷積、雙路徑注意力門模塊來提升YOLOv8對大棚中番茄果實的檢測精度,結(jié)果表明,平均精度均值達到93.4%,且具有更低的損失[23]。上述方法在農(nóng)業(yè)領(lǐng)域的目標(biāo)檢測中取得了一定的成功,為實現(xiàn)智能采摘提供了有力支撐。

        隨著人工智能技術(shù)的進步,YOLOv9模型在深度神經(jīng)處理中減少信息丟失方面取得了重大進展,通過引入可編程梯度信息(PGI)和通用高效層聚合網(wǎng)絡(luò)(GELAN)架構(gòu),確保了穩(wěn)健可靠的梯度流動,有效防止了數(shù)據(jù)退化,實現(xiàn)了精確檢測[24]。盡管YOLOv9模型在番茄果實成熟度檢測方面展現(xiàn)出了強大潛力[25],但是在澳洲堅果果實的檢測識別任務(wù)中,現(xiàn)有研究成果仍較為有限。因此,本研究選用YOLOv9模型用于檢測識別澳洲堅果果實,并針對澳洲堅果果實檢測識別中普遍存在的模型復(fù)雜度高、遮擋和密集小目標(biāo)識別精度低等問題,提出YOLO-L模型。該模型通過引入BiFormer注意力模塊,增強了模型對復(fù)雜場景中關(guān)鍵信息的捕捉能力;同時,采用VoVGSCSP模塊替代原有結(jié)構(gòu),結(jié)合排斥損失函數(shù)(而非傳統(tǒng)的CIoU損失函數(shù)),以進一步提高對密集重疊及被遮擋的小目標(biāo)的檢測精度。研究結(jié)果旨在為澳洲堅果產(chǎn)業(yè)的智能采摘提供更有效的技術(shù)支持。

        1 材料與方法

        1.1 澳洲堅果圖像數(shù)據(jù)集的構(gòu)建

        1.1.1 數(shù)據(jù)采集 研究對象為OC、H2、344等不同品種的澳洲堅果,樹齡均在10~13年。圖像數(shù)據(jù)采集于2023年8月,分別來源于云南省德宏景頗族自治州的西山鄉(xiāng)杏煥村、三臺山德昂族鄉(xiāng)和鳳平鎮(zhèn)南相章村(23°50′N~25°20′N,97°31′E~98°43′E)。在不同天氣和自然光照條件下,將相機與水平面的夾角設(shè)置為-45°~45°,將采集到的圖像統(tǒng)一保存為JPG格式,圖像分辨率為6 000×4 000像素,圖像數(shù)據(jù)統(tǒng)計的結(jié)果為無遮擋堅果圖像600張,相互遮擋堅果圖像740張,樹葉遮擋堅果圖像660張,共采集圖像2 000張。采集到的部分澳洲堅果的圖像見圖1。

        1.1.2 數(shù)據(jù)集的構(gòu)建 使用labelImg進行圖像標(biāo)注。數(shù)據(jù)分為健康果實、被薊馬和蝽象侵害的果實3個類別,3個類別分別表示為health、thrips和shieldbug,并將數(shù)據(jù)集按照8∶1∶1的比例劃分為訓(xùn)練集、驗證集和測試集。如圖2所示,通過增強對比度、錯切、仿射變換、翻轉(zhuǎn)和平移等方法對原始圖像進行了數(shù)據(jù)增強,將數(shù)據(jù)集擴展到12 000張圖像。

        1.2 YOLOv9算法的原理

        YOLOv9[24]在實時目標(biāo)檢測領(lǐng)域的表現(xiàn)出色,通過引入可編程梯度信息(PGI)、廣義高效聚合層(GELAN)兩大核心技術(shù),顯著提升了檢測精度與效率。PGI通過主分支、輔助可逆分支及多級輔助信息的集成,有效解決了深度網(wǎng)絡(luò)中信息丟失的問題,確保了梯度流的可靠性;GELAN結(jié)合CSPNet和ELAN的優(yōu)勢,構(gòu)建輕量、高效的網(wǎng)絡(luò)架構(gòu),實現(xiàn)了參數(shù)利用率與性能的提升。然而,在檢測密集、遮擋或重疊的小目標(biāo)時,特征融合的特征表征較弱,容易導(dǎo)致誤檢、漏檢,從而影響模型的檢測精度。為了進一步提升復(fù)雜林間背景下被遮擋的澳洲堅果果實的檢測性能,本研究重構(gòu)了YOLOv9網(wǎng)絡(luò)結(jié)構(gòu)。在Neck網(wǎng)絡(luò)的RepNCSPELAN模塊之后,特征融合和上采樣操作之前引入BiFormer注意力機制[26]。同時,將網(wǎng)絡(luò)結(jié)構(gòu)中的CBFuse模塊替換為VoVGSCSP模塊,并在Head網(wǎng)絡(luò)的檢測輸出層引入排斥損失函數(shù)[27],以提高模型在自然場景中對密集小目標(biāo)和相互遮擋果實的檢測魯棒性。YOLO-L模型的結(jié)構(gòu)如圖3所示。

        1.3 YOLO算法的改進

        1.3.1 BiFormer BiFormer[26]注意力機制通過結(jié)合區(qū)域級篩選和細粒度令牌級注意力計算,有效減少了計算資源消耗,同時保持了高效的特征捕捉能力。這種機制在粗粒度區(qū)域級別過濾掉不相關(guān)的鍵值對,減少了細粒度級別上的詳盡計算,從而實現(xiàn)了計算資源的優(yōu)化利用。BiFormer的結(jié)構(gòu)如圖4所示,其核心在于引入多個BiFormer Block,通過Patch Nearing步驟促進相鄰模塊之間的特征聚合,增強特征表示的一致性、魯棒性。在特征提取過程中,首先使用3×3深度卷積進行隱式編碼以捕捉相對位置信息。隨后,引入雙層路由注意(BRA)模塊用于捕捉不同位置之間的關(guān)系,并通過多層感知器(MLP)模塊實現(xiàn)全局位置的嵌入。

        1.3.2 VoVGSCSP GSConv是2022年提出的一種新的輕量級卷積方法[28]。如圖5所示,輸入特征圖經(jīng)過標(biāo)準(zhǔn)卷積層后,生成c/2個通道的特征圖。同時經(jīng)過深度卷積層,生成另外c/2個通道的特征圖。將2個c/2通道的特征圖在通道維度上進行連接,形成c個通道的特征圖,對連接后的特征圖進行通道混洗操作,重新排列通道順序,輸出2c個通道的特征圖。

        VoVGSCSP是在GSConv的基礎(chǔ)上引入GS瓶頸,并采用一次性聚合方法設(shè)計的跨階段網(wǎng)絡(luò)模塊(GSCSP),詳見圖6。該模塊在降低計算復(fù)雜度和網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜性的同時,能夠保持較高的精度和良好的特征重用率。

        1.3.3 損失函數(shù)的優(yōu)化 澳洲堅果果實排列密集,所處環(huán)境復(fù)雜且遮擋問題嚴重,傳統(tǒng)損失函數(shù)在處理質(zhì)量較差的實例或具有密集對象的數(shù)據(jù)集時表現(xiàn)出局限性。因此,采用Wang等[27]基于預(yù)測框與真實框排斥吸引的Repulsion Loss來解決這些限制[排斥損失函數(shù)可定義為公式(1)]。該排斥損失函數(shù)對自然場景中密集小目標(biāo)的檢測具有更好的魯棒性,克服了傳統(tǒng)損失函數(shù)帶來的挑戰(zhàn)。

        L=LAttr+αLRepGT+βLRepBox(1)

        式中,α和β表示平衡輔助損失項的權(quán)重;LAttr表示吸引項;LRepGT和LRepBox表示排斥項。

        具體而言,LAttr的定義見公式(2),用于指導(dǎo)模型預(yù)測的邊界框與真實目標(biāo)框之間的對齊,以提高檢測性能和準(zhǔn)確性。LRepGT、LRepBox是排斥項,其定義分別見公式(3)、公式(4)。Smoothln是一個平滑函數(shù)[定義見公式(5)],用于計算平滑的自然對數(shù),這種平滑處理的目的是保持損失函數(shù)在x接近σ時的連續(xù)性,避免出現(xiàn)梯度消失或梯度爆炸的情況,從而更穩(wěn)定地訓(xùn)練模型。

        式中,ΣP∈p+表示對正樣本候選框P進行求和;SmoothL1(BP,GPAttr)表示使用SmoothL1平滑函數(shù)計算候選框P與其指定目標(biāo)GPAttr之間的損失;|p+|表示正樣本候選框的數(shù)量;Smoothln[IoU(BP,GPRep)]表示使用Smoothln平滑函數(shù)計算候選框P與其目標(biāo)指定的排斥目標(biāo)GPRep之間的交并比(IoU);Σi≠j表示對所有不同的邊界框Pi、Pj進行求和;IoU(BPi,BPj)表示預(yù)測框Pi和Pj的交并比;ε、σ表示常數(shù)。

        1.4 模型訓(xùn)練

        1.4.1 訓(xùn)練平臺及策略 操作系統(tǒng)為Windows10,CPU為 Intel Core i7-9700@3.00 GHz,運行內(nèi)存為64 GB;顯卡(GPU)為NVIDIA GeForce RTX 2080 SUPER,顯存為8 GB;深度學(xué)習(xí)框架為PyTorch 1.12.1;Python版本號為3.8;CUDA的版本號為CUDA 10.2;cuDNN的版本號為cuDNN 8.6.0。

        采用權(quán)重文件yolov9.pt進行訓(xùn)練。以自創(chuàng)澳洲堅果圖像數(shù)據(jù)集作為訓(xùn)練數(shù)據(jù)集,輸入圖像大小為640×640像素,經(jīng)過多次調(diào)整和測試,設(shè)置訓(xùn)練批次為2,迭代次數(shù)為120,初始學(xué)習(xí)率為0.1,動量因子為0.9。通過消融試驗和對比試驗充分驗證YOLO-L模型的性能。

        1.4.2 評價指標(biāo) 評估指標(biāo)包括精確率(P)、召回率(R)、F1[29]、平均精度均值(mAP)[30]和每秒幀數(shù)(FPS)。

        Precision=TP/TP+FP(6)

        Recall=TP/TP+FN(7)

        mAP=∑Ni=1APi/N(8)

        F1值=P×R×2/P+R(9)

        FPS=TotalTime/FigureNumber(10)

        式中,TP、FN、FP分別是真陽性、假陰性、假陽性;mAP為所有類別的平均精度均值;N是類別的數(shù)量;APi是第i個類別的平均精度;F1值是模型檢測準(zhǔn)確率的綜合評估指標(biāo),是精確率、召回率的調(diào)和平均值,F(xiàn)1值越高,表示模型越穩(wěn)定;FPS表示每張圖片檢測所用的時間;TotalTime指檢測全部驗證圖像所用時間;FigureNumber表示驗證圖像總數(shù)。

        2 結(jié)果與分析

        2.1 使用不同注意力機制的模型的檢測性能的對比

        以YOLOv9為基礎(chǔ)模型,在Neck網(wǎng)絡(luò)的相同部位引入不同的注意力機制,有助于模型更有效地提取關(guān)鍵特征,從而提高目標(biāo)檢測框的準(zhǔn)確性、精確度。由表1可以看出,YOLOv9模型使用BiFormer注意力機制的效果要優(yōu)于使用SimAM、CBAM的效果。具體而言,YOLOv9-BiFormer模型的精確率、召回率、平均精度均值和F1值都較另外2個模型得到了大幅度提升,主要原因是BiFormer提高了算法捕獲長距離上下文依賴關(guān)系的能力,并且有效提升了澳洲堅果果實識別檢測的準(zhǔn)確率。同時,穩(wěn)定上升的數(shù)據(jù)進一步驗證了該試驗方法的可行性、有效性。

        YOLOv9-BiFormer模型和原始YOLOv9模型迭代訓(xùn)練120次得到的精確率、召回率曲線如圖7所示。可以看出,YOLOv9-BiFormer模型的精確率在訓(xùn)練初期即展現(xiàn)出優(yōu)勢,并且隨著迭代次數(shù)的增加持續(xù)上升,最終趨于平穩(wěn),表明該模型在目標(biāo)檢測時具有相對更高的預(yù)測準(zhǔn)確性、穩(wěn)定性。圖7b則揭示了召回率的變化趨勢,可以看出,YOLOv9-BiFormer模型的召回率曲線相較于原始模型更為平穩(wěn),且在訓(xùn)練后期振蕩減少,顯示其全面捕捉目標(biāo)對象的能力更強。綜上所述,YOLOv9模型通過引入BiFormer注意力機制,在精確率、召回率上均實現(xiàn)了顯著提升,為目標(biāo)檢測帶來了更加優(yōu)異的表現(xiàn)。

        2.2 YOLOv9模型消融試驗結(jié)果

        為了驗證本研究提出的YOLO-L模型的性能提升效果,將YOLO-L模型和YOLOv9模型進行對比,以驗證每步改進的有效性。由表2可以看出,與原始的YOLOv9模型相比,版本1通過引入BiFormer注意力機制,提升平均精度均值至96.4%,提升幅度達5.1個百分點,表明模型捕捉全局信息的能力得到了增強。版本2引入的VoVGSCSP模塊,成功將參數(shù)量壓縮至43.1 M。版本3引入的排斥損失函數(shù),對自然場景中的密集小目標(biāo)檢測具有更好的魯棒性,克服了傳統(tǒng)損失函數(shù)帶來的挑戰(zhàn)。版本4結(jié)合上述的3個模塊,相比于YOLOv9實現(xiàn)了平均精度均值、精確率、召回率和F1值的全面提升,分別達到96.2%、92.3%、88.2%和90.2%。試驗結(jié)果表明,在復(fù)雜背景和有遮擋的情況下,YOLO-L模型依然能夠保持較高的檢測精度和出色的泛化性能,同時有效降低了錯檢率、漏檢率。

        2.3 不同模型檢測結(jié)果及分析

        對Faster-RCNN、SSD、YOLOv5、YOLOv8、YOLOv9和YOLO-L進行了多組對比試驗。試驗時使用相同設(shè)備、數(shù)據(jù)集和數(shù)據(jù)增強方法,保持訓(xùn)練集、測試集的比例相等,從而保證對比結(jié)果的可靠性。由表3可以看出,在相同試驗條件下,本研究提出的YOLO-L模型具有96.2%的平均精度均值。具體而言,YOLO-L模型的平均精度均值分別較Faster-RCNN、SSD、YOLOv5、YOLOv8、YOLOv9模型提高了7.5個百分點、14.0個百分點、9.1個百分點、6.0個百分點、4.9個百分點。YOLO-L模型的檢測速度分別比Faster-RCNN、SSD、YOLOv5、YOLOv8、YOLOv9模型提高了190.58%、41.65%、61.20%、155.81%和23.04%。結(jié)果表明,YOLO-L模型在識別精度、檢測速度方面的表現(xiàn)比其他模型出色。

        圖8展示了不同模型的可視化結(jié)果,圖8a為隨機選擇的圖片。選擇檢測結(jié)果較好的模型(Faster-RCNN、YOLOv8、YOLOv9、YOLO-L)的可視化結(jié)果進行對比分析。由圖8b可以看出,F(xiàn)aster-RCNN模型在不同場景中的表現(xiàn)不佳,檢測結(jié)果存在不穩(wěn)定、易發(fā)生錯檢或漏檢的情況。由圖8c可以看出,在檢測過程中,由于YOLOv8模型的背景顏色與果實顏色相近,因此偶爾會出現(xiàn)漏檢的情況,但是其整體目標(biāo)檢測置信度明顯高于Faster-RCNN模型。由圖8d可以看出,YOLOv9模型的檢測效果較為理想,但仍存在目標(biāo)置信度不夠高、小目標(biāo)的檢測效果較差、偶爾將綠葉檢測為健康果的問題。由圖8e可以看出,YOLO-L模型的檢測效果表現(xiàn)突出。從上述檢測結(jié)果可以看出,在自然背景下,目標(biāo)檢測的置信度相對更高,預(yù)測模型的匹配能力也得到了提升,并且?guī)缀鯖]有出現(xiàn)漏檢實例。總體而言,YOLO-L模型在自然光照等背景條件下能夠精確識別密集、被遮擋以及與樹枝、樹葉顏色相似的澳洲堅果。

        3 結(jié)論

        在對澳洲堅果的實際檢測過程中,YOLO-L模型表現(xiàn)出了優(yōu)異的性能。具體而言,BiFormer注意力機制增強了網(wǎng)絡(luò)對全局特征的注意力,提高了模型性能;VoVGSCSP模塊提高了復(fù)雜場景下小目標(biāo)的檢測效果;排斥損失函數(shù)對提高被遮擋目標(biāo)的檢測精度、加速網(wǎng)絡(luò)收斂起著關(guān)鍵作用。

        通過消融試驗、對比試驗,得出以下結(jié)論:(1)對BiFormer與SimAM、CBAM注意力機制進行對比發(fā)現(xiàn),BiFormer表現(xiàn)出更優(yōu)越的性能。YOLOv9-BiFormer的平均精度均值、精確率、召回率和F1值分別達到96.4%、95.3%、93.0%和94.1%。(2)消融試驗結(jié)果表明,YOLO-L模型平均精度均值、精確率、召回率和F1值分別為96.2%、92.3%、88.2%和90.2%。值得一提的是,YOLO-L模型在減少模型訓(xùn)練參數(shù)的同時,顯著提高了對密集重疊果實的檢測效果。(3)對比試驗結(jié)果表明,相較于Faster-RCNN、SSD、YOLOv5、YOLOv8和YOLOv9模型,YOLO-L模型的平均精度均值(交并比=0.50)分別提升了7.5個百分點、14.0個百分點、9.1個百分點、6.0個百分點和4.9個百分點。本研究結(jié)果不僅為自然環(huán)境下澳洲堅果果實的智能檢測提供了高效準(zhǔn)確的解決方案,也為澳洲堅果產(chǎn)業(yè)的智能采摘提供了更有效的技術(shù)支持。

        參考文獻:

        [1] MERELES CEUPPENS L G, FERRO E A, ALVARENGA SOSA N L, et al. Chemical composition of Macadamia integrifolia (Maiden and Betche) nuts from Paraguay[J]. International Food Research Journal, 2017, 24(6):2599-2608.

        [2] 蘇繼龍,劉遠力,吳金東. 香蕉采摘機械的研究現(xiàn)狀與發(fā)展趨勢[J]. 中國農(nóng)業(yè)大學(xué)學(xué)報,2019,24(7):131-137.

        [3] MOREIRA G, MAGALHāES S A, PINHO T, et al. Benchmark of deep learning and a proposed HSV colour space models for the detection and classification of greenhouse tomato[J]. Agronomy,2022,12(2):356.

        [4] 柳 軍,孔 杰,皮 杰,等. 果蔬分揀設(shè)備研究現(xiàn)狀及發(fā)展趨勢[J]. 中國農(nóng)機化學(xué)報,2024,45(8):120-125.

        [5] 邢卓冉,丁松爽,張 凱,等.計算機視覺與深度學(xué)習(xí)技術(shù)在煙葉生產(chǎn)上的研究進展[J/OL].中國農(nóng)業(yè)科技導(dǎo)報,2024:1-11[2024-08-01]. https://doi.org/10.13304/j.nykjdb.2023.0379.

        [6] 廖 越,李智敏,劉 偲. 基于深度學(xué)習(xí)的人——物交互關(guān)系檢測綜述[J]. 中國圖象圖形學(xué)報,2022,27(9):2611-2628.

        [7] DONG C, ZHANG Z W, YUE J, et al. Automatic recognition of strawberry diseases and pests using convolutional neural network[J]. Smart Agricultural Technology,2021,1:100009.

        [8] ZHENG Z H, XIONG J T, LIN H, et al. A method of green Citrus detection in natural environments using a deep convolutional neural network[J]. Frontiers in Plant Science,2021,12:705737.

        [9] 金 梅,李義輝,張立國,等. 基于注意力機制改進的輕量級目標(biāo)檢測算法[J]. 激光與光電子學(xué)進展,2023,60(4):385-392.

        [10]劉 芳,劉玉坤,林 森,等. 基于改進型YOLO的復(fù)雜環(huán)境下番茄果實快速識別方法[J]. 農(nóng)業(yè)機械學(xué)報,2020,51(6):229-237.

        [11]侯依廷,饒 元,宋 賀,等. 復(fù)雜大田場景下基于改進YOLOv8的小麥幼苗期葉片數(shù)快速檢測方法[J]. 智慧農(nóng)業(yè)(中英文),2024,6(4):128-137.

        [12]吳小燕,郭 威,朱軼萍,等. 基于改進YOLOv8s的大田甘藍移栽狀態(tài)檢測算法[J]. 智慧農(nóng)業(yè)(中英文),2024,6(2):107-117.

        [13]趙鵬飛,錢孟波,周凱琪,等. 改進YOLOv7-Tiny農(nóng)田環(huán)境下甜椒果實檢測[J]. 計算機工程與應(yīng)用,2023,59(15):329-340.

        [14]AHMAD T, MA Y L, YAHYA M, et al. Object detection through modified YOLO neural network[J]. Scientific Programming,2020,2020:8403262.

        [15]SAPKOTA R, QURESHI R, CALERO M F, et al. YOLOv10 to its genesis: a decadal and comprehensive review of the you only look once (YOLO) series[EB/OL]. (2024-07-26)[2024-08-16]. https://arxiv.org/pdf/2406.19407.

        [16]LAWAL M O. Tomato detection based on modified YOLOv3 framework[J]. Scientific Reports,2021,11(1):1447.

        [17]CHEN W K, LU S L, LIU B H, et al. Detecting Citrus in orchard environment by using improved YOLOv4[J]. Scientific Programming,2020,2020:8859237.

        [18]YAO J,QI J M,ZHANG J,et al. A real-time detection algorithm for kiwifruit defects based on YOLOv5[J]. Electronics,2021,10(14):1711.

        [19]ZHANG Z X, LU X Q, CAO G J, et al. ViT-YOLO:transformer-based YOLO for object detection[C]//IEEE. 2021 IEEE/CVF International Conference on Computer Vision Workshops. Montreal,BC,Canada:IEEE,2021:2799-2808.

        [20]TERVEN J, CóRDOVA-ESPARZA D M, ROMERO-GONZáLEZ J A. A comprehensive review of YOLO architectures in computer vision:from YOLOv1 to YOLOv8 and YOLO-NAS[J]. Machine Learning and Knowledge Extraction,2023,5(4):1680-1716.

        [21]YAN B, FAN P, LEI X Y, et al. A real-time apple targets detection method for picking robot based on improved YOLOv5[J]. Remote Sensing,2021,13(9):1619.

        [22]LI C, LIN J Q, LI Z, et al. An efficient detection method for Litchi fruits in a natural environment based on improved YOLOv7-Litchi[J]. Computers and Electronics in Agriculture,2024,217:108605.

        [23]YANG G L, WANG J X, NIE Z L, et al. A lightweight YOLOv8 tomato detection algorithm combining feature enhancement and attention[J]. Agronomy,2023,13(7):1824.

        [24]WANG C Y, YEH I H, MARK LIAO H Y. YOLOv9:learning what you want to learn using programmable gradient information[M]. Cham:Springer Nature Switzerland,2024:1-21.

        [25]BAKIRCI M, BAYRAKTAR I. YOLOv9-enabled vehicle detection for urban security and forensics applications[C]//IEEE. 2024 12th International Symposium on Digital Forensics and Security,San Antonio,TX,USA:IEEE,2024:1-6.

        [26]LIU S H, YANG Y C, JING X J, et al. BiFormer:an end-to-end deep learning approach for enhanced image-based photoplethysmography and heart rate accuracy[M]. Amsterdam: IOS Press, 2024: 205-214.

        [27]WANG X L, XIAO T T, JIANG Y N, et al. Repulsion loss:detecting pedestrians in a crowd[C]//IEEE. 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City,UT,USA:IEEE,2018:7774-7783.

        [28]LI H L, LI J, WEI H B, et al. Slim-neck by GSConv:a lightweight-design for real-time detector architectures[J]. Journal of Real-Time Image Processing,2024,21(3):62.

        [29]GOUTTE C, GAUSSIER E. A probabilistic interpretation of precision,recall and F-score,with implication for evaluation[M]. Berlin,Heidelberg:Springer Berlin Heidelberg,2005:345-359.

        [30] FLACH P, KULL M. Precision-recall-gain curves: PR analysis done right[J]. Advances in Neural Information Processing Systems, 2015, 28:838-846.

        (責(zé)任編輯:徐 艷)

        猜你喜歡
        澳洲堅果圖像處理深度學(xué)習(xí)
        機器學(xué)習(xí)在圖像處理中的應(yīng)用
        電子制作(2018年18期)2018-11-14 01:48:20
        模糊圖像處理,刑事偵查利器
        圖像處理技術(shù)的實戰(zhàn)應(yīng)用
        淺談耿馬縣澳洲堅果病蟲害發(fā)生及其防治方法
        澳洲堅果種植管理技術(shù)要點分析
        綠色科技(2016年23期)2017-03-15 20:24:34
        MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
        大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實現(xiàn)
        軟件工程(2016年8期)2016-10-25 15:47:34
        澳洲堅果優(yōu)質(zhì)豐產(chǎn)的栽培措施
        国产精品久久久久久人妻精品| 三级黄色片免费久久久| 欧美成人www在线观看| 国产真人无码作爱视频免费| 色综合久久加勒比高清88| 精品日本免费观看一区二区三区| 一二三区无线乱码中文在线| 亚洲av日韩av无码污污网站| 99国产小视频| 日本精品熟妇一区二区三区| 国产av一区二区三区性入口 | 97se在线观看| 插入中文字幕在线一区二区三区| 国产成人精品日本亚洲i8| 久久久亚洲欧洲日产国码αv| 欧美三级不卡视频| 日本道免费一区日韩精品| 亚洲女人毛茸茸粉红大阴户传播| 人妻少妇边接电话边娇喘| 亚洲黄色尤物视频| 亚洲av成人波多野一区二区| 亚洲精品中文幕一区二区| 国产精品天天狠天天看| 久久久9色精品国产一区二区三区| 欧美综合区| 国产精品高清免费在线| 国产爆乳美女娇喘呻吟| 88国产精品视频一区二区三区| 久久国产A∨一二三| 久久伊人亚洲精品视频| 日本入室强伦姧bd在线观看| 无码一区二区三区AV免费换脸| 国产一区二区三区特黄| 国产av天堂亚洲国产av天堂| 国产剧情av麻豆香蕉精品| 国产免费的视频一区二区| 日韩精品免费一区二区三区观看| 女人扒开屁股爽桶30分钟| 国产精品丝袜美女在线观看| 亚洲国产精品自拍成人| 国产一区内射最近更新|