亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于SCG-YOLOv5n的收獲期澳洲堅果檢測算法

        2024-01-01 00:00:00張慧蒙何超徐嘉雯羅鑫榮劍劉學淵
        中國農機化學報 2024年4期
        關鍵詞:深度學習

        摘要:

        為實現自然環(huán)境下澳洲堅果的快速準確檢測,針對收獲期澳洲堅果果皮與枝葉顏色相似、體積小、病害果混雜難識別的問題,提出一種基于SCG-YOLOv5n的收獲期澳洲堅果檢測算法。該方法運用數據增強,提高模型魯棒性;在YOLOv5n的骨干網絡引入SimAM注意力機制,增強有效特征的提取能力;在FPN結構中引入CARAFE上采樣,強化目標感知能力;使用GSConv輕量級卷積替換部分卷積層,減輕模型的參數量并實現高效特征融合,提高檢測速度和檢測精度。結果表明,改進后的SCG-YOLOv5n澳洲堅果檢測算法對收獲期的青皮澳洲堅果和病害澳洲堅果的檢測平均精度AP分別為94.8%、97.9%,單張圖像平均時間為5.33 ms,比YOLOv5n模型高出2.1%、1.3%,檢測速度提升15.8%。該算法可以高效檢測澳洲堅果,為后續(xù)自動化采摘提供技術參考。

        關鍵詞:深度學習;澳洲堅果檢測;數據增強;注意力機制;卷積神經網絡設計

        中圖分類號:S776.01; S225.93

        文獻標識碼:A

        文章編號:2095-5553 (2024) 04-0214-08

        收稿日期:2023年5月8 日" 修回日期:2023年6月4日

        基金項目:云南省教育廳科學研究基金項目(2023Y0758);云南省科技廳科技計劃項目(202301BD070001-041)

        第一作者:張慧蒙,女,1998年生,河南濮陽人,碩士研究生;研究方向為林果目標檢測。E-mail: 2926535179@qq.com

        通訊作者:劉學淵,男,1979年生,云南鎮(zhèn)沅人,碩士,高級實驗師,碩導;研究方向為新能源汽車。E-mail: 690850094@qq.com

        Detection algorithm of macadamia nut at havesting stage based on SCG-YOLOv5n

        Zhang Huimeng, He Chao, Xu Jiawen, Luo Xin, Rong Jian, Liu Xueyuan

        (College of Mechanical Engineering and Transportation, Southwest Forestry University, Kunming, 650224, China)

        Abstract:

        In order to achieve fast and accurate detection of macadamia nuts in natural environment, a macadamia detection algorithm based on SCG-YOLOv5n during the harvesting period is proposed, aiming at the problems of the similar color of macadamia nut peel and branch leaves during harvesting period, small size and difficult identification of mixed diseased fruit. The method uses data augmentation to improve model robustness, introduces SimAM attention mechanism in the backbone network of YOLOv5n to enhance the extraction of effective features, introduces CARAFE up sampling in the FPN structure to strengthen target perception, uses GSConv lightweight convolution to replace some convolutional layers to reduce the number of model parameters and achieve efficient feature fusion to improve detection speed and detection accuracy. The results show that the improved SCG-YOLOv5n macadamia detection algorithm has an average accuracy AP of 94.8% and 97.9% for the detection of green macadamia nuts and diseased macadamia nuts during the harvest period, respectively, and the average time of a single image is 5.33ms, which is 2.1% and 1.3% higher than the YOLOv5n model, and the detection speed is improved by 15.8%. The algorithm can efficiently detect macadamia nuts and provide technical reference for subsequent automated harvesting.

        Keywords:

        deep learning;" macadamia nut detection; data augmentation; attention mechanism; convolutional neural network design

        0 引言

        澳洲堅果作為一種經濟效益高的農作物,在我國得到了廣泛種植,經統(tǒng)計,中國在2019年澳洲堅果的種植規(guī)模達2.45×105 hm2,澳洲堅果殼果年產量約4.94×104 t[1],是世界堅果產業(yè)的主要貢獻者。澳洲堅果收獲通常用人工對樹上的澳洲堅果進行收取,但近年來隨著澳洲堅果種植面積不斷增加,依靠人工收獲澳洲堅果的方式面臨著成本高、效率低、果園環(huán)境限制等問題,因此,為節(jié)約澳洲堅果人工成本和提高采收效率,自動化技術成為了現代農林業(yè)的發(fā)展趨勢。

        目標檢測是實現自動化采收的關鍵方法,主要分為傳統(tǒng)圖像處理和深度學習檢測。近年來,隨著對卷積神經網絡的不斷探索,基于卷積神經網絡的深度學習可以對復雜自然環(huán)境中的目標進行有效檢測,這是傳統(tǒng)圖像處理難以完成的。實現目標有效檢測可以避免漏采、誤采情況的發(fā)生,同時降低人工成本和提高采收效率,為澳洲堅果生產管理自動化提供技術參考。

        近年來,基于深度學習的目標檢測算法在農業(yè)領域的應用場景較多,如農作物檢測[2-6]、病害檢測[7-11]等,根據候選區(qū)域和回歸方式主要分為雙階段目標檢測算法,如R-CNN[12]、Faster R-CNN[13]、Mask R-CNN[14]等;以及單階段目標檢測算法,如SSD[15]、YOLO[16]、YOLO 9000[17]等。Gao等[18]采用VGG-16作為Faster R-CNN的主干網絡,對蘋果果實進行識別,mAP達到87.9%,但檢測精度和檢測速度較低,從而導致目標檢測效果較差。岳有軍[19]改進的Mask R-CNN算法,對蘋果的預測平均精度為92.62%,比原模型提高了3%,檢測單張圖片耗時0.35 s,單張圖片的檢測耗時較長,不適用于實際果園的實時性檢測任務。YOLOv5是YOLO系列中的一種單階段檢測算法,模型檢測的精度和速度較為理想,因此,當前大量研究基于YOLOv5模型進行目標檢測及算法改進。Hao等[20]在YOLOv5的骨干網絡引入CA注意力機制模塊,實現了復雜遮擋場景下對多個蘋果目標的識別精度增長了4.27%,檢測精度達94.64%,試驗表明YOLOv5在復雜背景下的多目標檢測也具備較強的識別能力。Xie等[21]通過對主干網絡C3模塊添加CBAM模塊,來提高模型的檢測精度,該改進后的模型對荔枝的檢測精度達到90.9%,可以有效識別荔枝。Sun等[22]將ShuffleNet和GhostNet輕量級結構引入YOLOv5s模型中,并使用CA和CBAM注意機制,構成了YOLOv5 PRE算法,該算法對果園環(huán)境中的蘋果檢測平均精度為94.03%,比YOLOv5s算法高了0.58%,但其檢測速度提高了17.93%,可實現蘋果目標的高效檢測。以上研究表明,為提升網絡模型檢測效果,以及模型能更好地部署在計算力較低的設備中,實現智能化果園管理,可以對YOLOv5算法增添注意力機制、引入輕量型結構等方式來進一步改進。

        基于卷積神經網絡的YOLOv5算法在農林檢測方面的應用較為廣泛,但林地澳洲堅果檢測的相關研究較少。因此,本文采集實際果園中收獲期的澳洲堅果圖像,構建收獲期澳洲堅果數據集,采用YOLOv5n為基準算法,兼顧識別精度和檢測速度,提出一種SCG-YOLOv5n澳洲堅果檢測算法,在不同光線方向的環(huán)境下進行澳洲堅果檢測試驗,驗證該算法的有效性,以便為收獲期的澳洲堅果采摘管理等提供技術支撐。

        1 YOLOv5n算法

        如圖1所示,YOLOv5n由輸入端(Input)、特征提取網絡(Backbone)、特征融合網絡(Neck)、檢測網絡(Head)四部分組成。

        當輸入一張堅果圖像時,先會自動縮放到640像素×640像素和3通道的尺寸,然后在輸入端采用Mosaic數據增強,將4張堅果圖像拼接來豐富數據集,再根據當前的堅果數據集來進行自適應計算先驗框和圖片縮放,最后輸入到特征提取網絡中;Backbone網絡首先用6×6的卷積層進行切片操作,變?yōu)槌叽?20像素×320像素以及12通道的特征圖,接著實行SC卷積,特征圖通道擴充變?yōu)?2,其他尺寸不變。經過帶殘差結構的CSP模塊和SC卷積操作之后,反向傳播的梯度值在層與層之間得到增加,最后經過SPPF層后,得到更全面的澳洲堅果特征信息,隨后這些信息步入Neck網絡;特征融合網絡的FPN(Feature Pyramid Network)與PAN(Path Aggregation Network)相結合,通過多尺度特征融合,生成80×80、40×40、20×20三種不同尺度的特征,作為檢測網絡的輸出。

        2 SCG-YOLOv5n算法設計

        為提高YOLOv5n模型在復雜環(huán)境中對澳洲堅果有效檢測,本文提出一種SCG-YOLOv5n算法,在特征提取網絡的第一個和第四個CBS卷積模塊中嵌入卷積注意力機制SimAM[23],構建SimAM_CSP結構來提升對目標的關注度以實現更優(yōu)的特征提取。同時結合特征融合網絡中帶CARAFE上采樣的FPN結構,將上采樣的權重區(qū)域可視化,抑制背景區(qū)域的影響,強調目標區(qū)域的重要性,提高模型的精度。為提高模型檢測效率,引入輕量型卷積GSConv[24]來替換特征融合網絡的第三和第四卷積層,減少冗余重復的特征信息,降低模型計算量,提升檢測速度。SCG-YOLOv5n算法結構如圖2所示。

        2.2 CARAFE輕量級上采樣

        在原始YOLOv5n網絡的FPN結構進行特征圖融合時,只有具備相同的形狀才能融合,且接受域范圍受限,因此,進行目標檢測對小目標的檢測效果不理想。本文在特征融合網絡的FPN結構上引入CARAFE上采樣,使得網絡可以在一個大的接受域中聚合上下文信息,進行特征信息感知,并根據輸入特征信息來完成特征重組,實現更高效的特征融合,以提高模型對小目標個體的檢測能力。CARAFE結構由上采樣核預測模塊和特征重組模塊組成,如圖3所示。

        圖3中,σ是上采樣倍率;K·K是卷積核的尺寸。用一個1×1卷積對輸入H×W×C形狀的特征圖,將該特征圖的通道數C壓縮成Cm,對于壓縮后的輸入特征圖,假設用為kup×kup的卷積層預測上采樣核,可得到形狀為σH×σW×kup2的上采樣核,隨后使用softmax歸一化處理,確保卷積核權重和為1。在經過上采樣核預測之后,以kup×kup為中心,預測該點區(qū)域的上采樣核作點積,得到σH×σW×C的輸出值,再根據不同位置中上采樣核的輸出特征圖映射到輸入特征圖,完成特征重組。含有CARAFE上采樣的FPN,其采樣位置在自上而下路徑中重組區(qū)域內顯示,完成信息重新組裝。

        2.3 GSConv輕量級卷積

        GSConv結構如圖4所示。

        為了提升模型的檢測速度,本文引入了一種新的GSConv輕量級卷積替換原網絡中的部分卷積層,以減輕模型的參數。傳輸特征圖的信息的過程中,因為空間壓縮和通道擴展會導致部分語義信息缺失,而GSConv卷積是混合了SC標準卷積、DSC深度可分離卷積和shuffle的卷積,具備SC和DSC的優(yōu)點,可以用高效連接的方式保留了較多的語義信息,同時將shuffle將SC生成的信息通過在不同信道上均勻地交換局部特征信息而完全混合到DSC的輸出中,增強非線性表達能力,使得冗余重復信息較少,提升了檢測器的速度,以更低的計算成本實現更高效益的特征融合。

        3 試驗結果與分析

        3.1 數據預處理

        本次研究所有圖像的采集地點為云南德宏傣族景頗族自治州芒市堅果基地,拍攝時間為2022年9月上旬,屬于澳洲堅果成熟時期。用數碼相機、智能手機拍攝在自然光照條件下果園中的澳洲堅果圖像,并多角度拍攝采集澳洲堅果圖像,相機共拍攝1 000張圖像,其分辨率為2 976像素×984像素,智能手機共拍攝300張圖像,其分辨率為3 000像素×4 000像素,共收集收獲期的澳洲堅果圖像1 300幅,其保存格式為JPG。對收集的圖像進行篩選,共保留1 056張圖像作為收獲期的澳洲堅果數據集樣本。部分圖像如圖5所示。

        由圖5可知,本次采集不同類型、不同果實數目、不同光照下的澳洲堅果圖像,其中包含青皮健康澳洲堅果和棕褐皮病害澳洲堅果,以薊馬病堅果圖像為病害堅果圖像樣本。澳洲堅果被薊馬害后會結疤硬化,外皮表面呈現棕褐色,嚴重影響內部果實的味道,因此,收獲期采摘時需要對堅果進行分類采摘,以確保澳洲堅果的品質,同時減輕后續(xù)澳洲堅果分級任務的工作量。

        深度學習需要用大量的數據才能有效檢測出目標的特征信息,因此,采用多種數據增強來擴充堅果圖像,豐富數據多樣性,減少過擬合情況的發(fā)生,提升模型的魯棒性。本文針對收集的1 056張澳洲堅果圖像運用隨機剪裁、添加噪聲、亮度變換、旋轉180°和翻轉等多種數據增強方式,共得到圖片3 537張,用于構建收獲期的澳洲堅果數據集。數據增強統(tǒng)計結果見表1,數據增強方法如圖6所示。

        用labelImg工具對數據增強后的澳洲堅果圖像采用YOLO格式進行逐一標注,并生成了兩種標簽和.txt文件,其中,健康堅果標簽為ma、病害堅果標簽為thrips。標注完成后,隨機從澳洲堅果數據集按照8∶2的比例劃分出訓練集和驗證集,為后續(xù)模型訓練的數據輸入作準備。

        經統(tǒng)計,數據增強后劃分的訓練集,不同標簽的澳洲堅果的數量均增多,其中,病害澳洲堅果的數量由原來的1 327增加至10 057個,健康澳洲堅果的由原來的7 661增加到25 818個,其澳洲堅果數量增強結果如圖7所示。

        3.2 試驗環(huán)境

        本文構建的基礎環(huán)境包括Windows10(64位)操作系統(tǒng)、GPU NVIDIA GeForce RTX 2080 SUPER顯卡設備(8 G顯存);編譯器采用Python3.8版本和PyTorch 1.8.0深度學習框架;使用Anaconda3安裝CUDA10.2和cuDNN8.6.0來實現GPU上實現高性能計算。

        3.3 評價指標

        本文采用以下指標評估檢測模型的性能。首要考慮召回率(R)和精準率(P),運算如式(1)和式(2)所示。

        3.4 數據增強試驗

        為驗證數據增強對YOLOv5n模型性能的影響,采用數據增強前后的數據集分別在YOLOv5n網絡進行試驗對比,設置訓練參數為表2數值,試驗結果如表3所示。

        由表3可知,采用數據增強后的數據集在YOLOv5n模型對健康澳洲堅果ma和病害澳洲堅果thrips的平均檢測精度AP分別為92.7%、96.6%,比數據增強前模型的AP值高出5.7%、9.6%。試驗結果表明,數據增強能提高YOLOv5n網絡的魯棒性,避免過擬合問題,實現了模型檢測澳洲堅果精度的提升。從圖8所展現的mAP曲線圖可以看出,經過數據增強的YOLOv5n的mAP由原來的87%增加到94.65%,提升了7.65%。

        3.5 消融試驗

        為了驗證改進的SCG-YOLOv5n澳洲堅果檢測模型的有效性,采用同樣的訓練參數和數據增強后的澳洲堅果數據集。其中,訓練參數指標為表2數值,以YOLOv5n基準算法,依次添加改進結構并進行試驗,不同改進模型的消融試驗結果如表4所示,其中,“√”代表在算法中使用該改進方法,“×”代表不使用該改進方法。

        模型1是YOLOv5n的特征提取網絡添加了SimAM注意力機制得到的網絡。模型2是在模型1的基礎上,替換原特征融合網絡的FPN結構中的上采樣為輕量型上采樣CARAFE得到的網絡。模型3是在模型2的基礎上,引入輕量型卷積GSConv得到的網絡,也是本文所用的改進網絡。由表4可知,原YOLOv5n模型對ma和thrips的平均檢測精度AP為92.7%、96.6%。添加SimAM注意力機制的模型1,其網絡參數量并沒有增加,該網絡對ma和thrips的平均檢測精度AP提升1%和0.4%,其中對青皮健康堅果ma的檢測效果提升更為明顯,表明添加SimAM注意力機制,使網絡通過強化特征表達能力,加強對復雜環(huán)境中近景色目標的關注。模型2在具備SimAM注意力機制的同時加入CARAFE上采樣結構,該網絡對ma和thrips的平均檢測精度達到94.6%和97.6%,比原模型高出1.9%和1%,相較于模型1,兩種類型的澳洲堅果檢測效果都得到提升,CARAFE上采樣方式的網絡在進行目標的特征重組時,能使澳洲堅果的有效特征高效融合,因此,可以改善網絡對小目標和密集目標的識別缺陷,提升檢測精度。添加GSConv輕量型卷積結構的模型3,參數量減少,也是表中4種模型參數量最少的,但該網絡對ma和thrips的平均檢測精度達到94.8%和97.9%,相較于模型2,盡管檢測精度沒有顯著提升,但網絡的參數量減少能提高檢測速度,因此,選取模型3為本文所用的SCG-YOLOv5n澳洲堅果檢測算法。

        從圖9中可以看出,隨著添加不同結構數的增加,其對應模型的mAP曲線呈現上升趨勢,并最終保持穩(wěn)定。其中,模型3的mAP曲線穩(wěn)定在96.35%,比其余改進模型的mAP值都高,比原模型高出1.7%,因此,SCG-YOLOv5n澳洲堅果檢測算法可以獲得更加準確的目標檢測效果。

        為驗證SCG-YOLOv5n算法的檢測速度是否提升,用YOLOv5n和SCG-YOLOv5n兩種模型進行速度測試,隨機從數據集中抽取6張分辨率為2 976像素×1 984像素的澳洲堅果圖像,因為選取的6張圖像中堅果數量和大小不盡相同,因此每張圖像檢測所需時間各有差異,其測試結果見表5。

        由表5可知,本文所用SCG-YOLOv5算法檢測6張圖像時,大部分圖像檢測耗時減少,此外,YOLOv5n模型檢測6張圖像總耗時38 ms,每張圖像檢測平均耗時6.33 ms,而SCG-YOLOv5算法檢測6張圖像總耗時32 ms,平均每種圖像檢測時長5.33 ms,速度比YOLOv5n提升15.8%。

        為了進一步驗證SCG-YOLOv5n算法的有效性,以不同角度的光線方向為控制變量,對比YOLOv5n、SCG-YOLOv5n兩種算法對澳洲堅果圖像的檢測效果,如圖10所示,其中,未檢測的目標用黃色框標出,黃色箭頭表示檢測失誤。在進行采摘作業(yè)的視覺檢測時,光線隨拍攝角度而不同,因此,設置側光、逆光和順光的檢測對比試驗,驗證兩種算法的優(yōu)劣性。試驗結果表明,在側光下,圖像中的澳洲堅果光線均勻、紋理清晰,兩種算法都能有效識別出圖像中的澳洲堅果,但SCG-YOLOv5n算法識別病害堅果目標的置信度更高;在逆光時,圖像的亮度降低,澳洲堅果與枝葉的分界線變得較為模糊,與YOLOv5n模型檢測相比,SCG-YOLOv5n算法減少了誤檢和漏檢情況的發(fā)生,改善了小目標、枝葉遮擋的負面影響,對復雜場景下的澳洲堅果有著較好的檢測效果。順光時,圖像亮度增強,目標特征變得不明顯,SCG-YOLOv5n算法仍可以準確識別出近景色目標,提升網絡的檢測精度。因此,SCG-YOLOv5n算法可以更好地應對復雜場景下的澳洲堅果檢測任務,且具備了良好的檢測精度和檢測速度。

        4 結論

        本文主要基于深度學習的方法,以德宏芒市澳洲堅果園構建收獲期澳洲堅果數據集展開研究,考慮到澳洲堅果體積較小、所處自然環(huán)境復雜等問題,提出一種基于SCG-YOLOv5n的收獲期澳洲堅果檢測算法,對YOLOv5n模型結構做出進一步改進。

        1)" 為解決數據樣本少影響算法檢測精度低的問題,本文采用隨機剪裁、噪聲增強、亮度變換、旋轉180°和翻轉等多種數據增強方式擴充數據,提高模型泛化能力,使得YOLOv5n模型的mAP提升了7.65%。

        2)" 為提高澳洲堅果有效識別能力,對YOLOv5n的骨干網絡添加SimAM注意力機制結構,加強對近景色澳洲堅果目標的關注,強化骨干網絡對澳洲堅果有效特征的提取能力;在FPN結構中采用CARAFE上采樣,實現特征的高效重組;采用GSConv輕量型卷積替換部分卷積層的方式,減輕了模型的參數量,提升算法的檢測速度。以澳洲堅果為研究對象,展開消融試驗,驗證本文算法的有效性。試驗結果表明,本文所用的SCG-YOLOv5n算法對收獲期的青皮澳洲堅果ma和棕褐色皮病害澳洲堅果thrips的AP是94.8%、97.9%,比原YOLOv5n模型高出2.1%、1.3%,提高了對復雜場景下小目標的檢測能力,具備更優(yōu)的識別效果。

        3)" SCG-YOLOv5n算法在檢測速度對比試驗中,對單幅圖像平均檢測時間為5.33 ms,檢測速度比YOLOv5n提升15.8%,具備較快的檢測速度,其網絡模型計算量少,可進一步能部署在計算力小的終端中,為后續(xù)實際果園中開展機器人自動化采摘設備提供目標檢測技術依據。

        參 考 文 獻

        [1] 聶艷麗, 李翠萍, 王麗, 等. 種植規(guī)模及管理水平對澳洲堅果產量的影響[J]. 西南林業(yè)大學學報(自然科學), 2023,43(3): 161-168.

        Nie Yanli, Li Cuiping, Wang Li, et al. Effects of planting scale and management level on Macadamia nut yield [J]. Journal of Southwest Forestry University (Natural Sciences), 2023, 43(3): 161-168.

        [2] 劉芳, 劉玉坤, 林森, 等. 基于改進型YOLO的復雜環(huán)境下番茄果實快速識別方法[J]. 農業(yè)機械學報, 2020, 51(6): 229-237.

        Liu Fang, Liu Yukun, Lin Sen, et al. Fast recognition method for tomatoes under complex environments based on improved YOLO [J]. Transactions of the Chinese Society for Agricultural Machinery, 2020, 51(6): 229-237.

        [3] Pan Y, Zhu N, Ding L, et al. Identification and Counting of Sugarcane Seedlings in the Field Using Improved Faster R-CNN [J]. Remote Sensing, 2022, 14(22): 5846.

        [4] Minagawa D, Kim J. Prediction of Harvest Time of Tomato Using Mask R-CNN [J]. AgriEngineering, 2022, 4(2): 356-366.

        [5] 李善軍, 胡定一, 高淑敏, 等. 基于改進SSD的柑橘實時分類檢測[J]. 農業(yè)工程學報, 2019, 35(24): 307-313.

        Li Shanjun, Hu Dingyi, Gao Shumin, et al. Real-time classification and detection of citrus based on improved single short multibox detecter [J]. Transactions of the Chinese Society of Agricultural Engineering, 2019, 35(24): 307-313.

        [6] Hong W, Ma Z, Ye B, et al. Detection of green asparagus in Complex environments based on the Improved YOLOv5 algorithm [J]. Sensors, 2023, 23(3): 1562.

        [7] 黃雙萍, 孫超, 齊龍, 等. 基于深度卷積神經網絡的水稻穗瘟病檢測方法[J]. 農業(yè)工程學報, 2017, 33(20): 169-176.

        Huang Shuangping, Sun Chao, Qi Long, et al. Rice panicle blast identification method based on deep convolution neural network [J]. Transactions of the Chinese Society of Agricultural Engineering, 2017, 33(20): 169-176.

        [8] Li K, Wang J, Jalil H, et al. A fast and lightweight detection algorithm for passion fruit pests based on improved YOLOv5 [J]. Computers and Electronics in Agriculture, 2023, 204: 107534.

        [9] Khan A, Quadri S, Banday S, et al. Deep diagnosis: A real-time apple leaf disease detection system based on deep learning [J]. Computers and Electronics in Agriculture, 2022, 198: 107093.

        [10] Deng F, Mao W, Zeng Z,et al. Multiple diseases and pests detection based on federated learning and improved faster R-CNN [J]. IEEE Transactions on Instrumentation and Measurement, 2022, 71: 1-11.

        [11] 龍滿生, 歐陽春娟, 劉歡, 等. 基于卷積神經網絡與遷移學習的油茶病害識圖像識別[J]. 農業(yè)工程學報, 2018, 34(18): 194-201.

        Long Mansheng, Ouyang Chunjuan, Liu Huan, et al. Image recognition of Camellia oleifera diseases based on convolutional neural network amp; transfer learning [J]. Transactions of the Chinese Society of Agricultural Engineering, 2018, 34(18): 194-201.

        [12] Girshick R, Donahue J, Darrell T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2014: 580-587.

        [13] Ren S, He K, Girshick R, et al. Faster R-CNN: Towards real-time object detection with region proposal networks [J]. Advances in Neural Information Processing Systems, 2015, 28.

        [14] He K, Gkioxari G, Dollár P, et al. Mask R-CNN [C]. Proceedings of the IEEE International Conference on Computer Vision, 2017: 2961-2969.

        [15] Liu W, Anguelov D, Erhan D, et al. SSD: Single shot multibox detector [C]. European Conference on Computer Vision, Springer, Cham, 2016: 21-37.

        [16] Redmon J, Divvala S, Girshick R, et al. You only look once: Unified, real-time object detection [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2016: 779-788.

        [17] Redmon J, Farhadi A. YOLO9000: Better, faster, stronger [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2017: 7263-7271.

        [18] Gao F, Fu L, Zhang X, et al. Multi-class fruit-on-plant detection for apple in SNAP system using Faster R-CNN [J]. Computers and Electronics in Agriculture, 2020, 176: 105634.

        [19] 岳有軍, 田博凱, 王紅君, 等. 基于改進Mask R-CNN的復雜環(huán)境下蘋果檢測研究[J]. 中國農機化學報, 2019, 40(10): 128-134.

        Yue Youjun, Tian Bokai, Wang Hongjun, et al. Research on apple detection in complex environment based on improved Mask R-CNN [J]. Journal of Chinese Agricultural Mechanization, 2019, 40(10): 128-134.

        [20] Hao Q, Guo X, Yang F. Fast recognition method for multiple apple targets in complex occlusion environment based on improved YOLOv5 [J]. Journal of Sensors, 2023.

        [21] Xie J, Peng J, Wang J, et al. Litchi Detection in a complex natural environment using the YOLOv5-litchi model [J]. Agronomy, 2022, 12(12): 3054.

        [22] Sun L, Hu G, Chen C, et al. Lightweight apple detection in complex orchards using YOLOV5-PRE [J].Horticulturae, 2022, 8(12): 1169.

        [23] Yang L, Zhang R Y, Li L, et al.SimAM: A simple, parameter-free attention module for convolutional neural networks [C]. International Conference on Machine Learning, PMLR, 2021: 11863-11874.

        [24] Li H, Li J, Wei H, et al. Slim-neck byGSConv: A better design paradigm of detector architectures for autonomous vehicles [J]. arXiv Preprint arXiv: 2206. 02424, 2022.

        猜你喜歡
        深度學習
        從合坐走向合學:淺議新學習模式的構建
        面向大數據遠程開放實驗平臺構建研究
        基于自動智能分類器的圖書館亂架圖書檢測
        搭建深度學習的三級階梯
        有體驗的學習才是有意義的學習
        電子商務中基于深度學習的虛假交易識別研究
        現代情報(2016年10期)2016-12-15 11:50:53
        利用網絡技術促進學生深度學習的幾大策略
        考試周刊(2016年94期)2016-12-12 12:15:04
        MOOC與翻轉課堂融合的深度學習場域建構
        大數據技術在反恐怖主義中的應用展望
        深度學習算法應用于巖石圖像處理的可行性研究
        軟件導刊(2016年9期)2016-11-07 22:20:49
        国产无套中出学生姝| 亚洲美女国产精品久久久久久久久| 日韩精品少妇专区人妻系列| 久久女人精品天堂av影院麻| 樱桃视频影院在线播放| 国产精品乱码在线观看| 亚洲男人在线无码视频| 国产精品亚洲综合久久系列| 日本动漫瀑乳h动漫啪啪免费| 日韩乱码人妻无码中文字幕视频| av狼人婷婷久久亚洲综合| 国产精品视频一区二区久久| 后入内射国产一区二区| 丰满少妇高潮惨叫正在播放| 免费国产黄片视频在线观看| 熟女少妇av一区二区三区| 国产免码va在线观看免费| 无码久久精品国产亚洲av影片| 亚洲中文一本无码AV在线无码| 亚洲一区二区自偷自拍另类| 含紧一点h边做边走动免费视频| 激情亚洲一区国产精品| 日本一区二区国产高清在线播放| 人妖一区二区三区视频| 精品人妻伦九区久久aaa片| 日韩欧美专区| av在线不卡一区二区三区| 亚洲av无码偷拍在线观看| 吃奶摸下的激烈视频| 被暴雨淋湿爆乳少妇正在播放 | 手机在线看片国产人妻| 一本久久伊人热热精品中文字幕| 一本大道东京热无码中字| 亚洲图文一区二区三区四区| 亚洲国产AⅤ精品一区二区不卡| 美女污污网站| 亚洲二区精品婷婷久久精品| 亚洲夜夜性无码| 国产精品久久久久久久久鸭| 精品国产成人一区二区不卡在线| 亚洲字幕中文综合久久|