亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)YOLOv5s模型的田間食用玫瑰花檢測(cè)方法

        2024-09-24 00:00:00化春鍵黃宇峰蔣毅俞建峰陳瑩

        收稿日期:2023-10-09

        基金項(xiàng)目:國家自然科學(xué)基金項(xiàng)目(62173160)

        作者簡介:化春鍵(1975-),男,北京人,博士,副教授,主要從事機(jī)器視覺、圖像處理、深度學(xué)習(xí)等研究。(E-mail)277795559@qq.com

        摘要: 為了在田間環(huán)境下準(zhǔn)確檢測(cè)食用玫瑰花及其成熟度,實(shí)現(xiàn)花期玫瑰花的自動(dòng)化采摘,針對(duì)田間光照、遮擋等因素造成識(shí)別精度較差的問題,提出了一種基于YOLOv5s的改進(jìn)模型,對(duì)花蕾期、采摘期、敗花期食用玫瑰花的生長狀態(tài)進(jìn)行檢測(cè)。首先,為了增強(qiáng)多尺度特征融合能力,對(duì)特征融合結(jié)構(gòu)進(jìn)行改進(jìn)。其次,采用多分支結(jié)構(gòu)訓(xùn)練提高精度,在頸部網(wǎng)絡(luò)C3模塊進(jìn)行改進(jìn)。最后,為了提升特征信息的提取能力,在頸部網(wǎng)絡(luò)中添加融合注意力模塊,使模型關(guān)注檢測(cè)目標(biāo),減少玫瑰花的誤檢及漏檢現(xiàn)象。改進(jìn)后的模型檢測(cè)總體類別平均精度較原始模型提升了3.6個(gè)百分點(diǎn),達(dá)到90.4%,對(duì)3個(gè)花期玫瑰花的檢測(cè)精度均有提升。本研究結(jié)果為非結(jié)構(gòu)環(huán)境下的不同花期食用玫瑰花檢測(cè)提供了更加準(zhǔn)確的方法。

        關(guān)鍵詞: 目標(biāo)檢測(cè);YOLOv5s;特征融合;注意力機(jī)制;食用玫瑰花

        中圖分類號(hào): TP391.4 文獻(xiàn)標(biāo)識(shí)碼: A 文章編號(hào): 1000-4440(2024)08-1464-09

        Detection method of edible roses in field based on improved YOLOv5s model

        HUA Chunjian1,2, HUANG Yufeng1,2, JIANG Yi1,2, YU Jianfeng1,2, CHEN Ying3

        (1.School of Mechanical Engineering, Jiangnan University, Wuxi 214122, China;2.Jiangsu Key Laboratory of Advanced Food Manufacturing Equipment & Technology, Wuxi 214122, China;3.School of Internet of Things Engineering, Jiangnan University, Wuxi 214122, China)

        Abstract: In order to accurately detect edible roses and their maturity in the field and realize the automatic picking of flowering roses, an improved model based on YOLOv5s was proposed to solve the problem of poor recognition accuracy caused by factors such as light and occlusion in the field. The growth state of edible roses at bud, picking and abortive flowering stages was detected. Firstly, in order to enhance the ability of multi-scale feature fusion, the feature fusion structure was improved. Secondly, multi-branch structure training was used to improve the accuracy, and the neck network C3 module was improved. Finally, in order to improve the ability of feature information extraction, a fusion attention module was added to the neck network to make the model focus on the detection target and reduce the false detection and missed detection of roses. The mean average precision of the improved model was 3.6 percentage points higher than that of the original model, reaching 90.4%, and the detection accuracy of roses in three flowering periods was improved. The results of this study provide a more accurate method for detecting edible roses at different flowering stages in unstructured environment.

        Key words: object detection;YOLOv5s;feature fusion;attention mechanism;edible roses

        玫瑰是一種備受人們青睞的觀賞花植物,近年來玫瑰花的食用及藥用價(jià)值受到人們的關(guān)注。玫瑰花產(chǎn)業(yè)發(fā)展迅速,玫瑰鮮花餅、花茶、精油等玫瑰花產(chǎn)品深受消費(fèi)者歡迎[1]。墨紅玫瑰是常見的可食用玫瑰品種,墨紅玫瑰株高約56 cm,植株較矮,花期短,采摘時(shí)效性強(qiáng),需要短時(shí)間投入大量勞動(dòng)力進(jìn)行采摘。目前玫瑰花采摘仍然采用人工方式,相較于機(jī)械采摘費(fèi)時(shí)費(fèi)力[2],且采摘效率易受天氣影響。隨著中國食用玫瑰花產(chǎn)業(yè)的發(fā)展壯大,建立高準(zhǔn)確率的食用玫瑰花檢測(cè)方法對(duì)于確定不同花期玫瑰的分布區(qū)域、檢測(cè)玫瑰的花期具有重要意義。

        針對(duì)非結(jié)構(gòu)環(huán)境下作物識(shí)別問題,國內(nèi)外開展了廣泛的研究。傳統(tǒng)的圖像處理算法普遍采用顏色、紋理和邊緣等特征識(shí)別作物。陳禮鵬[3]以果萼作為識(shí)別特征點(diǎn),采用基于R-G的獼猴桃多目標(biāo)果實(shí)識(shí)別方法對(duì)果實(shí)進(jìn)行檢測(cè);吳超[4]對(duì)玫瑰鮮切花的俯拍及側(cè)拍圖像進(jìn)行邊緣提取,并結(jié)合支持向量機(jī)對(duì)玫瑰鮮切花品質(zhì)進(jìn)行分級(jí)預(yù)測(cè);Shao等[5]利用高光譜成像技術(shù)對(duì)3個(gè)不同生長階段的草莓進(jìn)行圖像采集,通過支持向量機(jī)結(jié)合自適應(yīng)加權(quán)采樣方法評(píng)估草莓成熟度。近年來,研究學(xué)者將深度學(xué)習(xí)應(yīng)用于作物的識(shí)別和定位中。Chao等[6]利用改進(jìn)的YOLOv4模型檢測(cè)非結(jié)構(gòu)化環(huán)境中茶菊的生長時(shí)期,在頸部網(wǎng)絡(luò)中融合CSPResNeXt等模塊改進(jìn)YOLOv4模型,對(duì)茶菊萌芽期、開花早期和盛開期檢測(cè)的平均精度達(dá)到89.53%。王小榮等[7]為識(shí)別復(fù)雜環(huán)境下的紅花,在YOLOv7檢測(cè)模型中引入Transformer注意力機(jī)制以提高模型的檢測(cè)精度,檢測(cè)精確度(mAP)達(dá)到88.5%。王彥鈞[8]為更好地識(shí)別玫瑰花,將人工神經(jīng)網(wǎng)絡(luò)結(jié)合紋理特征識(shí)別方方法對(duì)食用玫瑰進(jìn)行識(shí)別檢測(cè),準(zhǔn)確率達(dá)到85%,但該方法對(duì)光線不敏感。張振國等[9]為解決復(fù)雜環(huán)境下紅花絲的檢測(cè)精度較差問題,引入GhostNet結(jié)構(gòu),并將CBAM注意力模塊融入特征金字塔結(jié)構(gòu),關(guān)注重要特征的同時(shí)弱化背景、枝葉等干擾特征,提高模型的檢測(cè)性能。龔惟新等[10]為提高獼猴桃花朵的檢測(cè)精度,在YOLOv5檢測(cè)模型中引入C3HB和注意力模塊,使模型輕量化。顧滿局[11]在實(shí)驗(yàn)室黑色背景下拍攝獲得圖像數(shù)據(jù)集,對(duì)圖像進(jìn)行預(yù)處理后采用Resnet50模型對(duì)俯視角度的玫瑰鮮切花分級(jí),準(zhǔn)確率達(dá)到91%。

        針對(duì)食用玫瑰花采摘的檢測(cè)方法較少,目前相關(guān)研究主要在實(shí)驗(yàn)室中進(jìn)行,這些檢測(cè)方法在田間的檢測(cè)效果較差。墨紅玫瑰同一枝干上存在多朵玫瑰,彼此之間往往會(huì)互相遮擋。田間環(huán)境下,玫瑰花成熟度與圖像采集效果受光照等因素的影響較大,每朵玫瑰成熟度不一致,使得尺度變化較大。這些問題都會(huì)導(dǎo)致YOLOv5模型對(duì)被遮擋玫瑰的檢測(cè)能力較差,造成誤檢、漏檢等。基于以上問題,本研究建立非結(jié)構(gòu)環(huán)境下的食用玫瑰花數(shù)據(jù)集,以YOLOv5s為基礎(chǔ)網(wǎng)絡(luò)模型,根據(jù)食用玫瑰實(shí)際種植中存在的問題對(duì)模型進(jìn)行改進(jìn),為快速、精確識(shí)別可食用玫瑰花提供理論依據(jù)。

        1 材料與方法

        1.1 數(shù)據(jù)采集與數(shù)據(jù)集制作

        本試驗(yàn)以墨紅玫瑰花為研究對(duì)象,數(shù)據(jù)集拍攝于江蘇省宜興市美棲花田(北緯31°23′57″,東經(jīng)119°39′40″),花田面積約40 hm2。數(shù)據(jù)采集時(shí)間為2022年9月下旬至10月上旬每天的9:00-16:00,圖像采集設(shè)備為SONYDSC-W830。為識(shí)別田間非結(jié)構(gòu)環(huán)境下不同花期的食用玫瑰花,在不同時(shí)間和角度拍攝玫瑰花照片1 600張,部分食用玫瑰花照片如圖1所示。

        通過圖片標(biāo)注工具LabelImg對(duì)數(shù)據(jù)集中的食用玫瑰花圖像進(jìn)行標(biāo)注,用矩形選取框?qū)D像中的玫瑰花框出。根據(jù)采收決策,按照花蕾期(CF)、采摘期(PF)、敗花期(WF)對(duì)樣本進(jìn)行分類及標(biāo)注,保存標(biāo)注信息為txt格式,并將3個(gè)花期的玫瑰花圖像劃分為訓(xùn)練集、測(cè)試集和驗(yàn)證集,三者按8∶1∶1比例分配。

        1.2 YOLOv5網(wǎng)絡(luò)模型

        隨著目標(biāo)檢測(cè)模型的不斷發(fā)展,目前基于深度學(xué)習(xí)的目標(biāo)檢測(cè)方法已經(jīng)有RCNN[12]、SSD[13]、RetinaNet[14]和YOLO系列等。與YOLOv4相比,YOLOv5的檢測(cè)精度和推理速度較好,目前已大量應(yīng)用在農(nóng)業(yè)領(lǐng)域[15-16]。近年來,YOLO系列更新較快,現(xiàn)在已有YOLOv7[17]、YOLOv8等版本[18]。YOLOv5模型主要包括主干網(wǎng)絡(luò)、頸部網(wǎng)絡(luò)和預(yù)測(cè)層3個(gè)部分。主干網(wǎng)絡(luò)選用基于CSPDarkNet53結(jié)構(gòu)的骨干網(wǎng)絡(luò)對(duì)圖像特征進(jìn)行特征提取。頸部網(wǎng)絡(luò)通過特征金字塔網(wǎng)絡(luò)(Feature pyramid networks,F(xiàn)PN)[19]和路徑聚合網(wǎng)絡(luò)(Path aggregation network,PAN)[20]連接主干網(wǎng)絡(luò)與預(yù)測(cè)層,對(duì)特征信息進(jìn)行多層級(jí)的特征融合,提高網(wǎng)絡(luò)對(duì)不同特征層的識(shí)別能力。預(yù)測(cè)層對(duì)不同維度的特征進(jìn)行預(yù)測(cè),得到預(yù)測(cè)結(jié)果。

        2 改進(jìn)的食用玫瑰花檢測(cè)模型

        2.1 特征融合結(jié)構(gòu)改進(jìn)

        在卷積神經(jīng)網(wǎng)絡(luò)中,高層特征也指語義特征,經(jīng)過多次卷積后從而具有更強(qiáng)的語義信息,包含豐富的組合信息,但其分辨率較低[21]。低層特征主要指紋理、顏色和形狀等特征,往往具有更高的分辨率,因此目標(biāo)位置信息較為準(zhǔn)確,可以較好反映圖像的內(nèi)容。對(duì)食用玫瑰花數(shù)據(jù)集進(jìn)行分析,發(fā)現(xiàn)圖像中需要識(shí)別的玫瑰花尺寸不一,不少玫瑰花尺寸較小。為了提高食用玫瑰花檢測(cè)模型的性能,將部分低層特征與高層特征進(jìn)行融合,使其具有更強(qiáng)的語義信息和對(duì)細(xì)節(jié)的感知能力。

        傳統(tǒng)的特征金字塔網(wǎng)絡(luò)采用自上而下的路徑實(shí)現(xiàn)多尺度特征的融合,如圖2所示,路徑聚合網(wǎng)絡(luò)在FPN的基礎(chǔ)上額外增加了一個(gè)自下而上的路徑,而廣義特征金字塔網(wǎng)絡(luò)(Generalized feature pyramid network, GFPN)設(shè)計(jì)了一種新的路徑融合,利用Queen-Fusion[22]接收來自斜上方和斜下方節(jié)點(diǎn)的信息,通過跨層和跨尺度連接操作,充分發(fā)揮高層語義信息與低層空間信息之間的交換作用,雖然采用這種方式可以增強(qiáng)特征交互,但也增加了許多額外的上采樣和下采樣操作。使用Concat方法合并特征通道,可以有效避免特征信息的丟失,使模型在檢測(cè)不同尺寸的物體時(shí)具有更好的性能。

        考慮到實(shí)時(shí)檢測(cè)模型的要求,移除Queen-Fusion中部分上采樣操作,將頸部和骨干網(wǎng)絡(luò)不同尺度的特征信息相融合,實(shí)現(xiàn)多尺度特征融合,以提高檢測(cè)精度。

        2.2 頸部網(wǎng)絡(luò)改進(jìn)

        使用CSPStage結(jié)構(gòu)[23]進(jìn)行特征融合,代替基于3×3卷積的特征融合方式,提高模型的表征能力,融合更加豐富的梯度信息。

        CSPStage模塊主要由卷積模塊(Conv)和基礎(chǔ)模塊(BasicBolck)組成。BasicBolck模塊由重參數(shù)化卷積(RepConv 3×3)和3×3卷積(Conv3×3)組成,其中RepConv[24]在3×3卷積基礎(chǔ)上額外添加了并行的1個(gè)1×1卷積(Conv1×1)和一個(gè)BN(Batch normalization)層,在訓(xùn)練時(shí)采用多路徑拓?fù)洌谕评頃r(shí)將多分支融合在一起,從而減少了推理時(shí)間,并且具備了多分支的優(yōu)點(diǎn),增加模型的表征能力,融合更加豐富的梯度信息。

        如圖3所示,將前置層的信息作為輸入初始特征信息,首先將輸入特征分配到2條分支中,利用包含卷積和BasicBlock模塊的下分支和獨(dú)立卷積模塊的上分支進(jìn)行特征提取,最后使用特征融合方式Concat將兩個(gè)分支的特征信息合并,得到最終的輸出結(jié)果。

        2.3 注意力機(jī)制模塊

        為了在進(jìn)行特征學(xué)習(xí)時(shí)增加特征區(qū)域權(quán)重,減少背景特征權(quán)重,在網(wǎng)絡(luò)中引入融合注意力機(jī)制模塊。本研究將通道注意力模塊ECANet[25]和空間注意力模塊GAM[26]組合,形成融合注意力機(jī)制模塊。融合注意力機(jī)制模塊的結(jié)構(gòu)如圖4所示,采用通道-空間注意機(jī)制,分別關(guān)注特征的含義與位置。

        對(duì)于給定輸入F∈RC×H×W,C表示通道數(shù),W表示輸入特征圖寬度,H表示輸入特征圖高度。首先對(duì)輸入特征圖F進(jìn)行全局平均池化(Golbal average pooling,GAP),然后進(jìn)行卷積核大小為5的1維卷積操作,以實(shí)現(xiàn)跨通道交互,提取通道之間的依賴關(guān)系。并經(jīng)過Sigmoid激活函數(shù)得到各個(gè)通道的權(quán)重和通道權(quán)值矩陣(Mc),計(jì)算公式如下:

        Mc=σ[C1Dk(F)](1)

        式中,Mc為通道權(quán)值矩陣,F(xiàn)為輸入特征圖,C1D為一維卷積操作,k為卷積核大小,σ為Sigmoid激活函數(shù)。

        將Mc與輸入特征圖(F)按通道數(shù)相乘得到通道細(xì)化后的特征圖F′,計(jì)算公式如下:

        F′=Mc(F)F(2)

        式中,F(xiàn)′為通道細(xì)化特征圖,F(xiàn)為輸入特征圖,為逐元素相乘。

        通道細(xì)化特征圖F′被用作空間注意力模塊輸入,為了聚焦空間信息,使用2個(gè)7×7的卷積操作進(jìn)行空間信息融合,先將通道數(shù)量減少,然后再增加通道數(shù)量,保持通道數(shù)量一致。經(jīng)過激活函數(shù)輸出,得到空間權(quán)值矩陣(Ms)。將Ms與通道細(xì)化特征圖(F′)相乘得到空間細(xì)化特征圖(F″),計(jì)算公式如下:

        F″=Ms(F′)F′(3)

        式中,F(xiàn)″為空間細(xì)化特征圖,F(xiàn)′為通道細(xì)化特征圖,為逐元素相乘,Ms為空間權(quán)值矩陣。

        綜合以上3個(gè)方面的改進(jìn),本研究提出的食用玫瑰花檢測(cè)模型如圖5所示。該模型以YOLOv5s作為基礎(chǔ)網(wǎng)絡(luò)模型,對(duì)網(wǎng)絡(luò)中的特征融合結(jié)構(gòu)進(jìn)行優(yōu)化,并且結(jié)合RepConv卷積模塊對(duì)頸部網(wǎng)絡(luò)中的C3模塊進(jìn)行改進(jìn),加強(qiáng)網(wǎng)絡(luò)的表征能力,在頸部網(wǎng)絡(luò)末端引入融合注意力模塊,增加特征區(qū)域權(quán)重。本研究改進(jìn)的網(wǎng)絡(luò)可以實(shí)現(xiàn)對(duì)復(fù)雜場景中不同花期玫瑰的檢測(cè),同時(shí)對(duì)于中小型玫瑰具有較高的檢測(cè)精度。

        2.4 評(píng)價(jià)指標(biāo)

        本研究主要采用精確度(P),召回率(R),單個(gè)類別平均精度(AP)和所有類別平均精度(mAP)來反映模型的訓(xùn)練精度;采用參數(shù)量、運(yùn)算量(GFLOPs)及模型權(quán)重體現(xiàn)模型的復(fù)雜程度;采用幀率(FPS)體現(xiàn)模型實(shí)時(shí)檢測(cè)性能。其中P、R、AP、mAP的計(jì)算公式如下:

        P=TpTp+Fp×100%(4)

        R=TpTp+Fn×100%(5)

        AP=∫10P(r)dr×100%(6)

        mAP=1NNi=1APi×100%(7)

        式中,Tp表示被正確框選為正樣本的數(shù)量,F(xiàn)p表示被錯(cuò)誤框選為正樣本的數(shù)量,F(xiàn)n表示正樣本被錯(cuò)誤框選為負(fù)樣本的數(shù)量,N表示玫瑰樣本類別數(shù)。

        Backbone:主干網(wǎng)絡(luò);Neck:頸部網(wǎng)絡(luò);Head:預(yù)測(cè)網(wǎng)絡(luò);Input:輸入;Conv:卷積;SPPF:空間金字塔池化結(jié)構(gòu);Upsample:上采樣操作;Concat:特征融合方式;Attention Model:融合注意力機(jī)制模塊。CBS:激活函數(shù)為SiLU的卷積模塊;C3:CSP架構(gòu)的3卷積模塊;CSPStage:改進(jìn)后的C3模塊。

        2.5 試驗(yàn)環(huán)境與參數(shù)設(shè)置

        試驗(yàn)的運(yùn)行環(huán)境是64位Ubuntu 20.04 LTS操作系統(tǒng),CPU為AMD EPYC 7232P 8-Core Processor,GPU為NVIDIA GeForce RTX 3090,數(shù)量為2。采用基于Pytorch的深度學(xué)習(xí)框架進(jìn)行訓(xùn)練,網(wǎng)絡(luò)模型以Python3.8.10編程語言實(shí)現(xiàn),軟件平臺(tái)為Visual Studio Code,搭配環(huán)境CUDA11.0、Cudnn8005。

        初始化學(xué)習(xí)率設(shè)置為0.01,動(dòng)量參數(shù)設(shè)置為0.937,批量大小設(shè)置為32,總迭代次數(shù)設(shè)置為300次,權(quán)重衰退系數(shù)設(shè)置為0.1,設(shè)置圖片標(biāo)準(zhǔn)尺寸為640×640像素。

        3 結(jié)果與分析

        3.1 不同注意力機(jī)制對(duì)模型的影響

        為驗(yàn)證引入的注意力機(jī)制對(duì)模型的影響,將SE(Squeeze-and-excitation)、CBAM(Convolutional block attention module)、ECA(Efficient channel attention)和CA(Channel attention),GAM(Global attention mechanism)等不同注意力機(jī)制添加到模型中展開試驗(yàn),試驗(yàn)結(jié)果如表1所示。

        由表1可知,添加不同注意力機(jī)制使模型運(yùn)算量增加;添加SE[27]和CBAM[28]注意力機(jī)制都會(huì)使模型的總體檢測(cè)精度下降,因此不考慮使用;添加CA[29]和ECA注意力機(jī)制提高了模型對(duì)采摘期玫瑰花的檢測(cè)精度,檢測(cè)精度提升了0.7個(gè)百分點(diǎn),但是添加CA注意力機(jī)制的模型對(duì)敗花期玫瑰花和添加ECA注意力機(jī)制的模型對(duì)花蕾期玫瑰花的檢測(cè)精度降低;由于ECA注意力機(jī)制帶來的總體性能提升更顯著,將其作為融合注意力機(jī)制模塊的通道注意力組成部分,經(jīng)對(duì)比發(fā)現(xiàn),添加ECA+BAM注意力機(jī)制的模型對(duì)采摘期玫瑰花的識(shí)別精度與添加ECA+GAM注意力機(jī)制的模型一致,達(dá)到94.8%,相較于原模型提升了1.1個(gè)百分點(diǎn),對(duì)于花蕾期的花朵識(shí)別精度比添加ECA+GAM的模型提升了0.9個(gè)百分點(diǎn),但是對(duì)敗花期的花朵識(shí)別精度降低了6.1個(gè)百分點(diǎn)。

        僅考慮注意力機(jī)制的影響,添加融合注意力機(jī)制比添加CA等單一注意力機(jī)制在所有類別平均精度上更具優(yōu)勢(shì),添加至模型后并沒有帶來更多的運(yùn)行負(fù)擔(dān)。并且相較于部分單一注意力機(jī)制只關(guān)注通道或空間注意力,本研究的ECA+GAM融合注意力機(jī)制采用順序結(jié)構(gòu),兼顧通道和空間注意力。綜合衡量各項(xiàng)精度和參數(shù)量,添加ECA+GAM融合注意力機(jī)制提升效果更加明顯,可有效提高模型特征提取能力。

        3.2 不同改進(jìn)方法對(duì)模型性能的影響

        為驗(yàn)證上述改進(jìn)后的模型在復(fù)雜背景下對(duì)食用玫瑰花采摘識(shí)別的優(yōu)化效果,使用原始模型與改進(jìn)后的模型在數(shù)據(jù)集上進(jìn)行訓(xùn)練,進(jìn)行了一系列消融試驗(yàn),使用改進(jìn)方法用“√”表示,未使用改進(jìn)方法用“—”表示,試驗(yàn)結(jié)果見表2。

        根據(jù)表2可知,改進(jìn)方法2針對(duì)制作的玫瑰花數(shù)據(jù)中存在中小型目標(biāo)較多的特點(diǎn),采用多尺度特征融合,將更多低層特征與高層特征進(jìn)行融合,從而提高模型的特征提取能力,使得改進(jìn)后的模型相較于原模型mAP提升了0.9個(gè)百分點(diǎn),對(duì)3個(gè)花期玫瑰的識(shí)別都有提升效果,其中對(duì)花蕾期花朵單個(gè)類別平均精度提高了1.5個(gè)百分點(diǎn);改進(jìn)方法3使用CSPStage結(jié)構(gòu)替代原有C3模塊后,在訓(xùn)練時(shí)候采用多路徑拓?fù)?,具有多分支的?yōu)點(diǎn),使模型能夠更加關(guān)注玫瑰花的特征,mAP達(dá)到88.2%;改進(jìn)方法4為在原始模型中引入融合注意力機(jī)制模塊,具有空間注意力和通道注意力的優(yōu)勢(shì),增加特征區(qū)域權(quán)重,減少背景特征權(quán)重,提高了對(duì)敗花期玫瑰花的檢測(cè)精度,相較于原模型提升了5.6個(gè)百分點(diǎn),并且總體類別平均精度達(dá)到89.4%。改進(jìn)方法5為將YOLOv5s的特征融合結(jié)構(gòu)及頸部網(wǎng)絡(luò)C3模塊進(jìn)行改進(jìn),總體類別平均精度達(dá)到88.8%,改進(jìn)方法6為在改進(jìn)方法5的基礎(chǔ)上添加融合注意力機(jī)制模塊,在滿足實(shí)時(shí)檢測(cè)需求的情況下增加一定的參數(shù)量,使檢測(cè)精度較大提升,改進(jìn)后總體類別平均精度達(dá)到90.4%,較原始模型提升了3.6個(gè)百分點(diǎn),其中,對(duì)于花蕾期、采摘期、敗花期的玫瑰花單個(gè)類別平均精度分別提高了2.4個(gè)百分點(diǎn)、2.0個(gè)百分點(diǎn)、6.4個(gè)百分點(diǎn),有效提高了模型對(duì)食用玫瑰識(shí)別的精度。

        3.3 不同檢測(cè)模型的檢測(cè)效果

        為了對(duì)改進(jìn)后的網(wǎng)絡(luò)模型與現(xiàn)有不同模型進(jìn)行對(duì)比,分析不同模型的性能,探究本研究改進(jìn)模型的優(yōu)越性,采用mAP和幀率以及模型體積為指標(biāo),選擇目前主流的目標(biāo)檢測(cè)模型Faster R-CNN、YOLO系列等進(jìn)行對(duì)比分析。由表3可知,兩階段檢測(cè)模型的檢測(cè)速度較慢,不適用于實(shí)時(shí)檢測(cè)。而在與一階段檢測(cè)模型的對(duì)比中,本研究改進(jìn)后的模型在檢測(cè)目標(biāo)物體時(shí)相比于YOLOv4、YOLOv5s、YOLOv7所有類別平均精度分別提升了7.3個(gè)百分點(diǎn)、3.6個(gè)百分點(diǎn)、2.3個(gè)百分點(diǎn),具有更好的檢測(cè)性能。本研究改進(jìn)后的模型使得檢測(cè)精度得到較大提升,模型體積和檢測(cè)速率仍能夠滿足實(shí)時(shí)檢測(cè)需要,與其他模型相比,在檢測(cè)速度方面具有一定優(yōu)勢(shì),具有較好的綜合性能。

        為了進(jìn)一步比較改進(jìn)后的模型與其他模型的檢測(cè)效果差異,分別對(duì)測(cè)試集進(jìn)行檢測(cè),檢測(cè)效果如圖6所示。改進(jìn)后的模型識(shí)別效果更佳,能夠減少相似背景的影響,能夠更加有效地識(shí)別出不同花期玫瑰花的位置,并且對(duì)重疊目標(biāo)的識(shí)別能力更強(qiáng)。改進(jìn)后的模型漏檢、誤檢現(xiàn)象減少,對(duì)不同尺度的玫瑰花檢測(cè)效果更好,提升模型檢測(cè)置信度。

        4 結(jié)論

        針對(duì)非結(jié)構(gòu)化環(huán)境下現(xiàn)有檢測(cè)模型對(duì)不同花期玫瑰花識(shí)別準(zhǔn)確率低、魯棒性差等問題,本研究以YOLOv5s為基礎(chǔ)模型,將主干網(wǎng)絡(luò)與頸部網(wǎng)絡(luò)的特征圖進(jìn)行跨層連接,同時(shí)進(jìn)行多尺度特征融合,使特征提取能力提升,使用改進(jìn)的CSPStage模塊對(duì)頸部網(wǎng)絡(luò)進(jìn)行優(yōu)化,可以在提高精度的同時(shí)加快檢測(cè)速率,并將融合卷積注意力模塊添加到Neck網(wǎng)絡(luò)中,采用通道空間順序結(jié)構(gòu),提取更全面的有效特征,加強(qiáng)關(guān)鍵信息的提取,提高檢測(cè)精度。根據(jù)實(shí)際種植環(huán)境,本研究制作了不同自然場景下的不同花期食用玫瑰花數(shù)據(jù)集用于模型的訓(xùn)練、驗(yàn)證和測(cè)試,并分別與Faster R-CNN、YOLOv4、YOLOv5s和YOLOv7等模型進(jìn)行對(duì)比,結(jié)果表明,本研究提出的改進(jìn)后的模型較原模型對(duì)于花蕾期、采摘期、敗花期的玫瑰花單個(gè)類別平均精度分別提高了2.4個(gè)百分點(diǎn)、2.0個(gè)百分點(diǎn)、6.4個(gè)百分點(diǎn)。改進(jìn)后的模型復(fù)雜度提高,但檢測(cè)速率仍能達(dá)到每秒95.2幀,仍滿足實(shí)時(shí)識(shí)別的要求。

        本研究所提出的檢測(cè)模型能夠在復(fù)雜環(huán)境下識(shí)別出不同生長狀態(tài)下的玫瑰花,減少光照以及葉片或其他花朵遮擋等問題對(duì)檢測(cè)效果的影響,使采摘機(jī)器人能夠更好地完成精準(zhǔn)識(shí)別任務(wù),為智能化采摘和科學(xué)管理提供技術(shù)支撐。

        參考文獻(xiàn):

        [1] 謝麗美,晏慧君,唐開學(xué),等. 云南4個(gè)主栽食用玫瑰品種產(chǎn)量評(píng)價(jià)及營養(yǎng)成分分析[J]. 西南農(nóng)業(yè)學(xué)報(bào),2022,35(11):2627-2632.

        [2] 董萬鵬,吳 楠,吳洪娥,等. 不同食用玫瑰生長特性、花品質(zhì)及生理變化特征[J]. 熱帶農(nóng)業(yè)科學(xué),2020,40(8):6-11.

        [3] 陳禮鵬. 基于機(jī)器視覺的簇生獼猴桃果實(shí)多目標(biāo)識(shí)別方法研究[D]. 楊凌:西北農(nóng)林科技大學(xué),2018.

        [4] 吳 超. 基于計(jì)算機(jī)視覺的玫瑰鮮切花質(zhì)量分級(jí)評(píng)價(jià)[D]. 昆明:昆明理工大學(xué),2020.

        [5] SHAO Y, WANG Y, XUAN G, et al. Assessment of strawberry ripeness using hyperspectral imaging[J]. Analytical Letters,2020,54(10):1547-1560.

        [6] CHAO Q, NYALALA I, CHEN K J. Detecting the early flowering stage of tea chrysanthemum using the F-YOLO model[J]. Agronomy,2021,11(5):834.

        [7] 王小榮,許 燕,周建平,等. 基于改進(jìn)YOLOv7的復(fù)雜環(huán)境下紅花采摘識(shí)別[J]. 農(nóng)業(yè)工程學(xué)報(bào),2023,39(6):169-176.

        [8] 王彥鈞. 食用玫瑰花采摘機(jī)器人研究[D]. 昆明:昆明理工大學(xué),2015.

        [9] 張振國,邢振宇,趙敏義,等. 改進(jìn)YOLOv3的復(fù)雜環(huán)境下紅花絲檢測(cè)方法[J]. 農(nóng)業(yè)工程學(xué)報(bào),2023,39(3):162-170.

        [10]龔惟新,楊 珍,李 凱,等. 基于改進(jìn)YOLOv5s的自然環(huán)境下獼猴桃花朵檢測(cè)方法[J]. 農(nóng)業(yè)工程學(xué)報(bào),2023,39(6):177-185.

        [11]顧滿局. 基于機(jī)器視覺的玫瑰鮮切花花形分類研究[D]. 昆明:昆明理工大學(xué),2023.

        [12]REN S, HE K, GIRSHICK R, et al. Faster R-CNN:towards realtime object detection with region proposal networks[J]. Advances in Neural Information Processing Systems,2015,28:91-99.

        [13]LIU W, ANGUELOV D, ERHAN D, et al. SSD:single shot multibox detector[C]//EUROPEAN CONFERENCE ON COMPUTER VISION. Computer vision-ECCV 2016:14th european conference. Amsterdam,Netherlands:Springer International Publishing,2016.

        [14]LIN T Y, GOYAL P, GIRSHICK R, et al. Focal loss for dense object detection[C]// IEEE. 2017 IEEE international conference on computer vision. Venice,Italy:IEEE,2017.

        [15]魏天宇,柳天虹,張善文,等. 基于改進(jìn)YOLOv5s的辣椒采摘機(jī)器人識(shí)別定位方法[J]. 揚(yáng)州大學(xué)學(xué)報(bào)(自然科學(xué)版),2023,26(1):61-69.

        [16]邢潔潔,謝定進(jìn),楊然兵,等. 基于YOLOv5s的農(nóng)田垃圾輕量化檢測(cè)方法[J]. 農(nóng)業(yè)工程學(xué)報(bào),2022,38(19):153-161.

        [17]王金鵬,周佳良,張躍躍,等. 基于優(yōu)選 YOLOv7模型的采摘機(jī)器人多姿態(tài)火龍果檢測(cè)系統(tǒng)[J]. 農(nóng)業(yè)工程學(xué)報(bào),2023,39(8):276-283.

        [18]JIANG T, CHEN S. A lightweight forest pest image recognition model based on improved YOLOv8[J]. Applied Sciences,2024,14(5):1941.

        [19]LIN T, DOLLAR P, GIRSHICK R, et al. Feature pyramid networks for object detection[C]//IEEE. 2017 IEEE conference on computer vision and pattern recognition. Honolulu,HI,USA:IEEE,2017.

        [20]LIU S, QI L, QIN H, et al. Path aggregation network for instance segmentation[C]//IEEE/CVF. 2018 IEEE/CVF conference on computer vision and pattern recognition. Salt Lake City,UT,USA:IEEE,2018.

        [21]楊其晟,李文寬,楊曉峰,等. 改進(jìn)YOLOv5的蘋果花生長狀態(tài)檢測(cè)方法[J]. 計(jì)算機(jī)工程與應(yīng)用,2022,58(4):237-246.

        [22]JIANG Y Q, TAN Z Y, WANG J Y, et al. A heavy-neck paradigm for object detection[C]//INTERNATIONAL CONFERENCE ON LEARNING REPRESENTATIONS. The tenth international conference on learning representations. Vienna,Austria:ICLR,2021.

        [23]陳范凱,李士心. 改進(jìn)Yolov5的無人機(jī)目標(biāo)檢測(cè)算法[J]. 計(jì)算機(jī)工程與應(yīng)用,2023,59(18):218-225.

        [24]DING X, ZHANG X, MA N, et al. RepVGG:making vgg-style convnets great again[C]//IEEE/CVF. 2021 IEEE/CVF conference on computer vision and pattern recognition. Nashville,TN,USA:IEEE,2021.

        [25]WANG Q, WU B, ZHU P, et al. ECA-Net:efficient channel attention for deep convolutional neural networks[C]//IEEE/CVF. 2020 IEEE/CVF conference on computer vision and pattern recognition. Seattle,WA,USA:IEEE,2020.

        [26]肖粲俊,潘睿志,李 超,等. 基于改進(jìn)YOLOv5s絕緣子缺陷檢測(cè)技術(shù)研究[J]. 電子測(cè)量技術(shù),2022,45(24):137-144.

        [27]陳 超,齊 峰. 卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展及其在計(jì)算機(jī)視覺領(lǐng)域中的應(yīng)用綜述[J]. 計(jì)算機(jī)科學(xué),2019,46(3):63-73.

        [28]LU S, CHEN W, ZHANG X, et al. Canopy-attention-YOLOv4-based immature/mature apple fruit detection on dense-foliage tree architectures for early crop load estimation[J]. Computers and Electronics in Agriculture,2022,193:106696.

        [29]HOU Q, ZHOU D, FENG J. Coordinate attention for efficient mobile network design[C]// IEEE/CVF. 2021 IEEE/CVF conference on computer vision and pattern recognition. Nashville,TN,USA:IEEE,2020.

        (責(zé)任編輯:成紓寒)

        忘忧草社区www日本高清| 亚洲图片自拍偷图区| 精品国产亚洲亚洲国产 | 国产午夜片无码区在线播放 | 亚洲熟妇一区二区蜜桃在线观看 | 日本人妻伦理在线播放| 内射夜晚在线观看| 女人被弄到高潮的免费视频| 亚洲男人的天堂网站| 亚洲精品国偷拍自产在线观看蜜臀| 精品人妻无码视频中文字幕一区二区三区| 特黄做受又硬又粗又大视频小说 | 色综合无码av网站| 久久精品国产亚洲婷婷| 亚洲日产AV中文字幕无码偷拍| 亚洲素人日韩av中文字幕| 日本高清一区二区在线播放| 夜夜骚久久激情亚洲精品| 欧美老熟妇乱子| 人妻丝袜av中文系列先锋影音| 日韩人妻精品无码一区二区三区 | 麻豆久久久国内精品| 美腿丝袜网址亚洲av| 中文字幕人妻久久久中出| 边添小泬边狠狠躁视频| 最近2019年好看中文字幕视频| 久久无码av三级| 亚洲第一无码精品久久| 精品黑人一区二区三区| 亚洲第一女优在线观看| 国产精品亚洲av三区亚洲| 狠狠噜天天噜日日噜视频麻豆| 色爱区综合激情五月综合小说 | 青青草久热手机在线视频观看| 国家一级内射高清视频| av天堂精品久久综合网| 国产又色又爽又黄刺激在线视频 | 久久精品一区二区熟女| 97精品超碰一区二区三区| 国产成人精品午夜福利免费APP| 中文字幕亚洲区第一页|