亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進YOLOv8模型的黃花菜花蕾識別研究

        2025-08-29 00:00:00霍靜琦崔婷婷薛志璐
        湖北農(nóng)業(yè)科學(xué) 2025年7期

        靜琦,,.基于改進YOLOv8模型的黃花菜花蕾識別研究[J].湖北農(nóng)業(yè)科學(xué),2025,64(7):186-191.

        關(guān)鍵詞:改進YOLOv8模型;深度學(xué)習(xí);黃花菜(HemerocalliscitrinaBaroni);花蕾;識別

        中圖分類號:TP391 文獻標識碼:A

        文章編號:0439-8114(2025)07-0186-06

        DOI:10.14088/j.cnki.issn0439-8114.2025.07.032 開放科學(xué)(資源服務(wù))標識碼(OSID):I

        Research on daylily buds recognition based on an improved YOLOv8 model

        HUOJing-qi,CUI Ting-ting,XUE Zhi-lu (School of Mechatronic Engineering,Xi'an Vocational and Technical College,Xi'an 71Oooo,China)

        Abstract:A CSPDenseNetbackbone module wasconstructedbydeply integratingCSPNetand DenseNet.This module wasintegrated intotheYOLOv8model,replacingthelasttwostandardconvolutioalmodulesattheendoftebackbonenetwork,resultinginteimproved YOLOv8model(Dense-YOLOv8).Theresults demonstrated thattheDense-YOLOv8modelsuccesfullyidentifiedall maturebudsunderscenarioswithasimplebackgroundandsparsedaylily(Hemerocaliscitrina)Baronibuds.Underscenarioswith asimple backgroudanddensedaylilybuds,theDense-YOLOv8 modelexhibitedexcellentrecognitionperformanceinthebuddetectiontask,altoughsosedetectiosstilouednprocessingtightlyacenttargetsUnderscenariosiholebackground and dense daylily buds,the Dense-YOLOv8 model successfully identified all mature buds.The mAP , FI ,recognition speed, and model size of the Dense-YOLOv8 model were 90.75% ,89 % , 53f/s ,and 217.68 MB,respectively. Compared with the YOLO Δv8 2 model,F(xiàn)asterR-CNNmodelandYOLOv7model,theDense-YOLOv8 modelsignificantly improvedboththeaccuracyandspeedof object detection while streamlining the network structure and reducing parameters.

        Key Words: improved YOLOv8 model;deep learning;daylily(Hemerocalis citrina Baroni);bud;recognition

        黃花菜(HemerocalliscitrinaBaroni)作為經(jīng)濟作物,對種植環(huán)境要求較低,但對采摘條件要求嚴苛,成熟可食用的黃花菜通常呈淡黃色,花蕾端口處微微開裂時為最佳采摘時機。大田環(huán)境下生長的黃花菜形態(tài)特征區(qū)分度較低,其成熟花蕾在形態(tài)上與衰敗花蕾和未成熟花蕾差異不明顯。黃花菜采摘作業(yè)主要依靠人工經(jīng)驗進行成熟度判別,針對成熟黃花菜的目標識別技術(shù)研究相對匱乏。隨著農(nóng)業(yè)智能化技術(shù)的快速發(fā)展,基于計算機視覺和深度學(xué)習(xí)的果實識別檢測技術(shù)日趨成熟,自動化采摘已成為現(xiàn)代農(nóng)業(yè)研究的重點領(lǐng)域。在此背景下,實現(xiàn)黃花菜采摘的自動化與智能化將顯著降低人工成本,有效提升種植者的經(jīng)濟效益。

        深度學(xué)習(xí)技術(shù)在果蔬檢測與分類領(lǐng)域已取得顯著進展。現(xiàn)有研究廣泛采用多種卷積神經(jīng)網(wǎng)絡(luò)架構(gòu),成功實現(xiàn)了包括蘋果[1-3]、芒果[4]、草莓[5]和弼猴桃6等在內(nèi)的多種果蔬目標檢測。楊千通過將輕量級MobileNetv1網(wǎng)絡(luò)與SSD網(wǎng)絡(luò)相融合,構(gòu)建了SSD-MobileNet檢測模型,該模型在溫室平菇目標檢測任務(wù)中不僅顯著降低計算復(fù)雜度,同時有效提升了檢測效率。Ren等8提出基于YOLOv3的改進方法,結(jié)合小批量K-Means ++ 聚類與遷移學(xué)習(xí)策略,實現(xiàn)高效的實時目標檢測。該方法采用啟發(fā)式初始化和小批量聚類優(yōu)化錨框生成,在提升目標定位與識別精度的同時,顯著提升了模型的推理速度。熊俊濤等9提出多尺度特征融合算法Des-YOLOv3,通過跨層特征復(fù)用與融合機制,有效增強模型對小目標及被遮擋果實的檢測能力,提升了復(fù)雜場景下的果實識別精度。Liu等°對FasterR-CNN框架進行改進,通過將VGG16骨干網(wǎng)絡(luò)的輸入層擴展為6通道,實現(xiàn)多模態(tài)特征提取。研究創(chuàng)新性地結(jié)合了圖像融合與特征融合策略,采用反向傳播與隨機梯度下降技術(shù)進行端到端優(yōu)化,結(jié)果表明,該方法在弼猴桃檢測任務(wù)中表現(xiàn)出優(yōu)越的性能,展現(xiàn)了其在水果目標檢測領(lǐng)域的應(yīng)用潛力。Liu等\"通過訓(xùn)練YO-LOv3、ResNet50和ResNet152深度網(wǎng)絡(luò),驗證DNNs的水果識別能力。其中,性能最好的ResNet152網(wǎng)絡(luò)對自然環(huán)境中柑橘的識別準確率為 95.35% ,對重疊柑橘類水果的識別準確率為 97.86% ,對柑橘枝葉識別準確率為 85.12% ?,F(xiàn)有研究主要集中于顏色特征顯著或形態(tài)區(qū)分度高的典型果蔬目標,而針對黃花菜這類成熟期表型特征微弱、難以辨識的特殊作物,相關(guān)檢測技術(shù)研究較少。

        本研究提出一種利用深度學(xué)習(xí)對黃花菜成熟花蕾進行目標識別的算法。主流的目標檢測算法主要分為兩階段(Two-stage)和單階段(One-stage)2種類型,前者以FasterR-CNN[為代表,后者則以YOLO系列算法3為代表。兩階段檢測算法采用基于候選區(qū)域的方法,首先生成目標檢測的感興趣區(qū)域(ROI),然后將這些區(qū)域歸一化至固定尺寸,再利用卷積神經(jīng)網(wǎng)絡(luò)進行特征提取和分類。這類方法通常具有較高的檢測精度,其代表性算法包括R-CNN、FasterR-CNN及SPP-Net等。單階段檢測算法以YOLO系列為代表,采用端到端的檢測方式,將整幅圖像輸入網(wǎng)絡(luò),通過輸出層同步回歸目標的邊界框位置和類別概率。由于省去了候選框生成步驟,相比兩階段算法,單階段算法在檢測速度方面具有顯著優(yōu)勢。本研究的核心技術(shù)難點在黃花菜植株的特殊生長特性,首先,復(fù)雜的田間背景和花蕾間相互遮擋顯著增加了目標檢測的難度;其次,成熟花蕾與衰敗花蕾、未成熟花蕾在顏色特征上高度相似,導(dǎo)致基于顏色特征的識別方法存在漏檢率高、檢測精度低的問題。針對上述問題,本研究提出基于形態(tài)特征的識別方法,重點提取成熟黃花菜花蕾的兩個關(guān)鍵特征,包括細長的花蕾輪廓特征和花瓣輕微開裂的形態(tài)特征。基于黃花菜采摘機器人的實際需求,綜合考慮檢測精度和實時性要求,選取YOLOv8作為基礎(chǔ)算法進行改進。該算法在目標檢測速度和分類精度方面均表現(xiàn)出色,能夠有效滿足采摘機器人視覺系統(tǒng)對快速識別和實時響應(yīng)的技術(shù)要求。

        1 Dense-YOLOv8模型設(shè)計

        1.1 YOLOv8模型核心組件

        YOLOv8是Ultralytics公司提出的基于深度學(xué)習(xí)的端到端實時檢測模型。相較于該公司2020年發(fā)布的YOLOv5模型,其檢測精度獲得顯著提升;而與上一代YOLOv7模型[14]相比,在保持實時性的基礎(chǔ)上進一步提高了檢測準確率。YOLOv8模型主要包括主干網(wǎng)絡(luò)(backbone)、特征增強網(wǎng)絡(luò)(neck)、檢測頭(head)3個部分。YOLOv8模型的主干網(wǎng)絡(luò)采用C2f模塊結(jié)構(gòu),該模塊整合BottleneckBlock和SPPF模塊的優(yōu)勢,有效增強網(wǎng)絡(luò)的特征提取能力。YO-LOv8模型采用改進型CSPDarknet53作為骨干網(wǎng)絡(luò),該架構(gòu)在經(jīng)典Darknet53的基礎(chǔ)上創(chuàng)新性地引入CSP結(jié)構(gòu),以優(yōu)化梯度流并提升計算效率。通過特征圖的分割處理和交替優(yōu)化機制,該結(jié)構(gòu)不僅顯著提升網(wǎng)絡(luò)推理效率,而且增強了多尺度特征提取性能。YOLOv8模型的特征增強網(wǎng)絡(luò)采用多路徑特征融合架構(gòu),其核心由改進的PANet結(jié)構(gòu)構(gòu)成。該結(jié)構(gòu)通過自底向上和自頂向下的雙向路徑,實現(xiàn)不同尺度特征圖的有效融合,顯著提升模型的多尺度檢測性能。為進一步優(yōu)化特征融合效果,網(wǎng)絡(luò)在Neck部分創(chuàng)新性地集成PAN-FAN混合結(jié)構(gòu)。檢測頭模塊采用多任務(wù)學(xué)習(xí)機制,同步完成邊界框回歸、類別預(yù)測和置信度評估3項核心任務(wù),最終通過特征解碼器輸出檢測結(jié)果。這種精心設(shè)計的網(wǎng)絡(luò)架構(gòu)使YOLOv8模型成為性能優(yōu)異的端到端實時檢測系統(tǒng),在保持高速推理的同時實現(xiàn)卓越的檢測精度。

        1.2 Dense-YOLOv8模型結(jié)構(gòu)

        基于YOLOv8目標檢測框架,對其主干網(wǎng)絡(luò)CSPDarknet53進行架構(gòu)優(yōu)化。通過將CSPNet結(jié)構(gòu)與密集連接網(wǎng)絡(luò)(DenseNet)[15.16]深度融合,構(gòu)建CSPDenseNet骨干模塊。該模塊整合了CSPNet的高效特征復(fù)用特性和DenseNet的強特征傳遞能力,顯著提升網(wǎng)絡(luò)的特征提取效率。

        密集連接塊(Denseblock)由批量歸一化(BN)、ReLU激活函數(shù)與 3×3 卷積層構(gòu)成基礎(chǔ)結(jié)構(gòu)單元。在相鄰Dense block之間插入轉(zhuǎn)換層(Transition lay-er,該層通過 1×1 卷積實現(xiàn)特征壓縮,配合 2×2 平均池化進行下采樣,有效篩選冗余特征。在特征輸入第一個密集連接塊前,網(wǎng)絡(luò)通過16通道的 3×3 卷積層進行特征預(yù)處理,采用單像素零填充(zero-pad-ding=1 )保持空間分辨率。最終輸出階段,在第三個密集連接塊后接全局平均池化層和Softmax分類器。3個密集連接塊的特征尺寸分別是 32×32、16×16、8×8、 這種密集連接模式與傳統(tǒng)卷積網(wǎng)絡(luò)相比,需要的參數(shù)更少,因為它不需要重新學(xué)習(xí)冗余的特征圖。密集連接塊的設(shè)計使每一層既能學(xué)習(xí)新特征,又能保留并傳遞已有特征,從而提升特征復(fù)用效率。它不僅優(yōu)化了參數(shù)利用率,還增強了網(wǎng)絡(luò)中的信息流動和梯度傳播,使訓(xùn)練更加高效。這種密集連接結(jié)構(gòu)使得網(wǎng)絡(luò)中的每一層都能直接獲取來自損失函數(shù)和原始輸入的梯度信號,從而形成隱式的深度監(jiān)督機制,顯著提升深層網(wǎng)絡(luò)的訓(xùn)練效果。密集連接塊還通過特征的多路徑融合產(chǎn)生正則化作用,降低小規(guī)模數(shù)據(jù)集上的過擬合風(fēng)險。

        CSPDenseNet模塊(圖1)采用雙路徑特征處理機制,通過 1×1 卷積核將輸人特征圖均勻劃分為2個通道獨立的特征子集。第一部分直接進行常規(guī)卷積處理,第二部分則先經(jīng)過卷積運算后輸入3層密集連接塊進行深度特征提取,再通過轉(zhuǎn)換層實現(xiàn)特征篩選。最終將兩條路徑處理后的特征圖進行拼接并通過轉(zhuǎn)換層完成特征融合,至此完成模塊的特征傳遞過程。將CSPDenseNet模塊集成至YOLOv8模型架構(gòu),替換主干網(wǎng)絡(luò)末端的最后2個標準卷積模塊,得到Dense-YOLOv8模型(圖2)。

        圖1 CSPDenseNet網(wǎng)絡(luò)結(jié)構(gòu)

        圖2Dense-YOLOv8模型結(jié)構(gòu)

        2 圖像采集與前期準備

        2.1 圖像采集

        黃花菜成熟花蕾樣本采集工作于6:00—8:00在試驗田完成。

        圖像采集設(shè)備為IntelrealsenseD455雙目相機,在計算機上利用Python程序操控雙目相機對不同角度的黃花菜進行圖像采集。共采集到16420張圖像,像素尺寸為 640px×480px ,保存為jpg格式。對16420張成熟黃花菜圖像進行篩選,將重復(fù)或不符合要求的圖片剔除,包括花蕾凋謝或未完全成熟的無效樣本。經(jīng)過嚴格篩選后獲得14000張有效圖像,隨后按照 7:3 的比例隨機分為訓(xùn)練集和測試集,以保證模型訓(xùn)練與評估的數(shù)據(jù)可靠性。

        2.2 黃花菜圖像樣本分類

        黃花菜的實際生長情況較復(fù)雜且隨機性較大,在黃花菜生長較稀疏時,花蕾清晰明顯,算法識別難度較低;在植株生長稠密時,黃花菜花蕾會出現(xiàn)遮擋、重疊等情況,導(dǎo)致識別難度加大。本研究對黃花菜測試集圖像進行分類,依據(jù)花蕾分布密度和背景復(fù)雜度分為花蕾稀疏、花蕾密集、背景環(huán)境復(fù)雜及背景環(huán)境簡單4類。選取各類別中最具代表性的樣本圖像進行可視化分析。圖3a為在環(huán)境背景簡單、花蕾密集且相互遮擋的情況,圖3b為環(huán)境背景簡單、花蕾稀疏且相互獨立的情況,圖3c為背景環(huán)境復(fù)雜、花蕾稀疏的情況,圖3d為背景環(huán)境復(fù)雜、花蕾稠密且相互遮擋較為嚴重的情況

        圖3田間黃花菜圖像樣本分類

        2.3 網(wǎng)絡(luò)訓(xùn)練

        本試驗采用基于Windows10家庭版(64位)操作系統(tǒng)的TensorFlow-GPU深度學(xué)習(xí)框架進行模型訓(xùn)練。硬件配置采用IntelCorei7-6700HQ處理器(主頻 2.60GHz ),配備NVIDIAGeForceGTX1060顯卡(6GB顯存)進行模型訓(xùn)練加速,系統(tǒng)內(nèi)存條為16GBDDR4。深度學(xué)習(xí)開發(fā)環(huán)境包含以下關(guān)鍵組件,CUDA10.0提供GPU加速支持,配合cuDNN10.0優(yōu)化深度神經(jīng)網(wǎng)絡(luò),采用 OpenCV 3.4 處理圖像數(shù)據(jù),通過Anaconda3管理Python環(huán)境,選用PyCharm2020作為集成開發(fā)工具。

        為了保證網(wǎng)絡(luò)訓(xùn)練樣本的多樣性,對整理好的數(shù)據(jù)集進行數(shù)據(jù)擴增,數(shù)據(jù)擴增增加了噪聲數(shù)據(jù),提升了模型的魯棒性,也給模型帶來更強的泛化能力,采用的數(shù)據(jù)擴增方式包括調(diào)整飽和度、曝光量和對圖像進行翻轉(zhuǎn)等處理。

        在模型訓(xùn)練階段,首先對網(wǎng)絡(luò)參數(shù)進行如下配置。設(shè)置批量大小為32,初始學(xué)習(xí)率為0.001,最大訓(xùn)練輪次為50000。采用階段性學(xué)習(xí)率衰減策略,分別在總訓(xùn)練進度達 80% 和 90% 時將學(xué)習(xí)率降至原值的1/10,同時設(shè)置動量因子為0.9以優(yōu)化訓(xùn)練過程。模型訓(xùn)練完成后,使用測試集數(shù)據(jù)對訓(xùn)練所得模型性能進行全面評估。

        3 結(jié)果與分析

        3.1 評價指標

        為了更直觀地展示網(wǎng)絡(luò)檢測效果,采用平均精度 (AP) 、平均精度均值 (mAP) 、召回率 (R) 和 FI (查準率與查全率的調(diào)和平均數(shù))作為檢測模型性能的評價指標,計算式如下。

        式中, P 表示精確度; TP 表示真正例數(shù); FP 表示假正例數(shù); FN 表示假負例數(shù); Nimage 表示檢測圖像數(shù)量; Nclass 表示類別數(shù)。

        3.2 Dense-YOLOv8模型效果

        利用上述評價指標及劃分后的測試集圖像對Dense-YOLOv8模型、YOLOv8模型性能進行分析,結(jié)果如表1所示。Dense-YOLOv8模型的召回率、平均精度、平均精度均值均高于YOLOv8模型,其中平均精度均值提高了2.5個百分點。

        表12種模型對黃花菜花蕾的檢測結(jié)果(單位: % )

        由圖4可知,Dense-YOLOv8模型在整體性能上顯著優(yōu)于YOLOv8模型,不僅能夠有效檢測出YO-LOv8在復(fù)雜背景下漏檢的絕大多數(shù)目標,還對相互遮擋嚴重的成熟花蕾表現(xiàn)出較強的識別能力。盡管Dense-YOLOv8模型性能優(yōu)越,但仍存在部分檢測錯誤情況。當黃花菜花蕾間距過近時,模型容易將其誤檢為單一目標;黃花菜的生長背景較復(fù)雜,部分植株因距離攝像頭過遠而出現(xiàn)失焦模糊現(xiàn)象,導(dǎo)致模型難以準確識別;成熟黃花菜的特征區(qū)分度不足,容易與未成熟花蕾及凋謝花蕾發(fā)生混淆,這在一定程度上增加了識別難度。

        3.3 檢測效果與分析

        為直觀比較不同模型對成熟花蕾的檢測性能,分別采用FasterR-CNN模型、YOLOv8模型和Dense-YOLOv8模型進行測試。

        圖5為3種模型在簡單背景、稀疏黃花菜花蕾場景下的檢測結(jié)果,在包含3個成熟黃花菜花蕾的樣本中(圖5a),不同模型的檢測結(jié)果存在差異,F(xiàn)asterR-CNN模型(圖5b)和YOLOv8模型(圖5c)僅檢測出2個目標,而Dense-YOLOv8模型(圖5d)成功識別出全部成熟花蕾。

        圖42種模型對黃花菜花蕾檢測效果的對比

        圖53種模型在簡單背景、稀疏黃花菜花蕾場景下的檢測結(jié)果

        圖6為3種模型在簡單背景、密集黃花菜花蕾場景下的檢測結(jié)果,原始圖像包含6個成熟黃花菜花蕾(圖6a),F(xiàn)asterR-CNN模型存在誤檢和漏檢現(xiàn)象,包括將未成熟花蕾誤判為成熟目標以及將相鄰的2個花蕾合并檢測(圖6b);YOLOv8模型僅成功識別出2個目標(圖6c);Dense-YOLOv8模型在花蕾檢測任務(wù)中展現(xiàn)出優(yōu)異的識別性能,但在處理緊密相鄰目標時仍存在部分漏檢現(xiàn)象(圖6d)。

        圖63種模型在簡單背景、密集黃花菜花蕾場景下的檢測結(jié)果

        圖7為3種模型在復(fù)雜背景、密集黃花菜花蕾場景下的檢測結(jié)果,原始圖像中包含5個成熟黃花菜花蕾(圖7a),F(xiàn)asterR-CNN模型識別出2個目標(圖7b),YOLOv8模型識別出4個目標(圖7c),而Dense-YOLOv8模型成功識別出全部目標(圖7d)。

        圖73模型在復(fù)雜背景、密集黃花菜花蕾場景下的檢測結(jié)果

        由表2可知,相較于 YOLOv8 模型,Dense-YO-LOv8模型的 mAP,F(xiàn)1 、識別速度分別提高2.5個百分點、6個百分點 ?2f/s ,模型大小減少 13.88MB 。相較于FasterR-CNN模型,Dense-YOLOv8模型少了生成候選區(qū)域這一步,識別速度更快。結(jié)果表明,Dense-YOLOv8模型在精簡網(wǎng)絡(luò)結(jié)構(gòu)與參數(shù)的同時,顯著提升了目標檢測的精度與速度。

        表24種模型的檢測性能

        4小結(jié)

        通過將CSPNet結(jié)構(gòu)與密集連接網(wǎng)絡(luò)(DenseNet)深度融合,構(gòu)建CSPDenseNet骨干模塊,將其集成至YOLOv8模型,替換主干網(wǎng)絡(luò)末端的最后2個標準卷積模塊,得到Dense-YOLOv8模型。選取測試集中代表性圖像,分別采用FasterR-CNN模型、YOLOv8模型和Dense-YOLOv8模型進行測試。Dense-YOLOv8模型的 mAP,F(xiàn)1 、識別速度、模型大小分別為 90.75%.89%.53f/s.217.68MB ,在黃花菜目標識別方面取得了較好的效果。Dense-YOLOv8模型憑借更高的檢測精度與魯棒性,為黃花菜采摘機器人提供了可靠的視覺識別能力,推動了采摘機器人的技術(shù)普及與應(yīng)用落地。

        參考文獻:

        [1]LIUX,ZHAOD,JIAW,etal.Adetectionmethod for apple fruits based on color and shape features[J].IEEE access,2O19,7: 67923-67933.

        [2]TAN W,ZHAO C,WU H. Intelligent alerting for fruit-melon lesionimagebased on momentum deeplearning[J].Multimedia tools and applications,2016,75(24):16741-16761.

        [3]TIANY,YANGG,WANGZ,etal.Apple detection duringdifferent growth stages in orchards using the improved YOLOv3 model [J].Computers and electronics in agriculture,2019,157:417- 426.

        [4]STEUN M,BARGOTI S,UNDERWOOD J. Image based mango fruit detection,localisation and yield estimation using multiple view geometry[J].Sensors,2016,16(11):1915.

        [5]YUY,ZHANGK,YANGL,etal.Fruit detection for strawbery harvesting robot in non-structural environment based on MaskRCNN[J].Computers and electronics in agriculture,2019,163: 104846.

        [6]FUL,F(xiàn)ENGY,ELKAMILT,etal.Imagerecognitionmethod of multi-cluster kiwifruit in field based on convolutional neural networks[J]. Transactions of the Chinese society of agricultural engineering,2018,34(2):205-211.

        [7]楊千.平菇采摘機器人目標識別與定位控制關(guān)鍵技術(shù)研究 [D].江蘇蘇州:蘇州大學(xué),2020.

        [8]REN Z,LAMEY,ZHAO J. Real-Time target detection in visual sensing environments using deep transfer learning and improved anchor box generation[J].IEEE access,2020,8:193512-193522.

        [9]熊俊濤,鄭鎮(zhèn)輝,梁嘉恩,等.基于改進YOLOv3網(wǎng)絡(luò)的夜間環(huán)境 柑橘識別方法[J].農(nóng)業(yè)機械學(xué)報,2020,51(4):199-206.

        [10]LIU Z,WU J,F(xiàn)UL,et al. Improved kiwifruit detection using pretrainedVGG16 with RGB and NIR information fusion[J].IEEE access,2019,8:2327-2336.

        [11]LIUY P,YANG CH,LING H,et al.A visual system of citrus picking robot using convolutional neural networks[A].2O18 5th international conference on systems and informatics (ICSAI)[C]. Nanjing,China:IEEE,2018.344-349.

        [12]REN S,HE K,GIRSHICK R,et al.Faster R-CNN: Towards real-time object detection with region proposal networks[J].Advances in neural information processing systems,2015,28:91- 99.

        [13]REDMONJ,DIVVALAS,GIRSHICK R,et al. You only look once:Unified,real-time object detection[A].Proceedings of the IEEE conference on computer vision and pattern recognition[C]. Las Vegas,USA :IEEE,2016.779-788.

        [14] WANG C Y, BOCHKOVSKIY A,LIAO HY M. YOLOv7: Trainablebag-of-freebies sets new state-of-the-art for real-time object detectors[A].Proceedings of the IEEE/CVF conference on computer vision and pattern recognition[C].Vancouver,Canada: IEEE,2023.7464-7475.

        [15]HUANG G,LIU Z,VAN DER MAATEN L,et al. Densely connected convolutional networks[A].Proceedings of the IEEE conference on computer vision and pattern recognition[C].Hawaiian, USA:IEEE,2017.4700-4708.

        [16]WANGCY,LIAOHYM,WuYH,et al.CSPNet:A new backbone that can enhance learning capability of CNN[A].Proceedings of the IEEE/CVF conference on computer vision and pattern recognition workshops[C].Seattle,USA:IEEE,2020.390-391.

        (責(zé)任編輯雷霄飛)

        亚洲免费av电影一区二区三区| 久久亚洲色一区二区三区| 国产精品泄火熟女| 精品香蕉久久久爽爽| 日本理论片一区二区三区| 亚洲熟女少妇精品久久| 日本真人添下面视频免费| 男人激烈吮乳吃奶视频免费| 午夜国产在线| 一区二区三区在线蜜桃| 噜噜中文字幕一区二区| 中文字幕日韩三级片| 亚洲欧洲日产国码无码久久99| 2020久久精品亚洲热综合一本| 成年男女免费视频网站点播| 综合亚洲伊人午夜网| 亚洲精品久久久久久久久av无码 | 91麻豆精品激情在线观看最新| 国产麻豆精品久久一二三 | 中文亚洲av片不卡在线观看| 一区二区传媒有限公司| 不卡无毒免费毛片视频观看| 青青草在线免费观看视频| 无码色av一二区在线播放| 亚洲人成人77777网站| 亚洲人成网站www| 亚洲一区第二区三区四区| 一二三四日本中文在线| 国产精品精品| 国产视频在线播放亚洲| 在线麻豆精东9制片厂av影现网 | 久久精品免费中文字幕| 人妻av乱片av出轨| 日本视频一区二区三区免费观看 | 午夜爽爽爽男女污污污网站| 熟女俱乐部五十路二区av| 亚洲国产精品免费一区| 国产日本精品视频一区二区| 少妇无码太爽了不卡视频在线看| 国产视频最新| 加勒比久久综合久久伊人爱|