亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種基于改進(jìn)YOLO的小目標(biāo)檢測模型

        2025-07-19 00:00:00葉端南李根田
        關(guān)鍵詞:卷積精度特征

        1 引言

        近年來,隨著深度學(xué)習(xí)技術(shù)1的飛躍性進(jìn)步,計(jì)算機(jī)視覺領(lǐng)域中的目標(biāo)檢測任務(wù)已躍升為研究的焦點(diǎn)。目前,目標(biāo)檢測任務(wù)應(yīng)用范圍廣泛覆蓋了視頻監(jiān)控、工業(yè)自動化檢測、醫(yī)療健康監(jiān)測等多個關(guān)鍵領(lǐng)域[2-3],顯著提升了這些領(lǐng)域的效率與智能化水平。在這一背景下,通過計(jì)算機(jī)視覺技術(shù)減少對人力與資源的依賴,展現(xiàn)出重要的實(shí)際應(yīng)用價值與深遠(yuǎn)的社會意義。然而,盡管當(dāng)前主流的目標(biāo)檢測框架在多個方面取得了顯著成就,在處理小目標(biāo)檢測任務(wù)時仍面臨挑戰(zhàn),這一局限在實(shí)際應(yīng)用場景中尤為突出[4。小目標(biāo)檢測,通常指的是尺寸在 32×32 像素或更小的目標(biāo),其在無人機(jī)搜救中對災(zāi)民的精準(zhǔn)識別、自動駕駛系統(tǒng)中對遠(yuǎn)處交通標(biāo)識及車輛的即時捕捉等場景中扮演著不可或缺的角色[5]。

        由于小目標(biāo)在圖像中的絕對尺寸較小且相對占比低,現(xiàn)有的目標(biāo)檢測算法在捕捉這些小目標(biāo)的特征時往往面臨困難,導(dǎo)致檢測性能出現(xiàn)下滑。這一現(xiàn)象促使研究界深入探索針對小目標(biāo)的優(yōu)化策略,以克服檢測精度與效率上的瓶頸,進(jìn)而推動計(jì)算機(jī)視覺技術(shù)在更多復(fù)雜、精細(xì)場景中的有效應(yīng)用。如劉一江等提出一種基于YOLOv5s的安全帽改進(jìn)算法。該算法在EfficientRepGFPN基礎(chǔ)上引入淺層分支及轉(zhuǎn)置卷積替換PAFPN,補(bǔ)充淺層小目標(biāo)特征,減少上采樣中小目標(biāo)丟失的邊緣信息。田春欣等提出一種基于密集連接任務(wù)對齊的小目標(biāo)檢測算法DATNet。該算法采用CSPDarkNet網(wǎng)絡(luò)提取輸入圖像特征,通過密集連接的方式融入空洞卷積,添加注意力模塊捕捉感興趣的目標(biāo)區(qū)域,引入DIoU回歸損失函數(shù)通過任務(wù)對齊的檢測頭來訓(xùn)練模型。田鵬等[8提出了一種基于YOLOv8改進(jìn)的道路交通標(biāo)志目標(biāo)檢測算法。該算法利用BRA(bi-levelroutingattention)注意力機(jī)制和可形變卷積模塊DCNv3(deformableconvolutionv3)提升小目標(biāo)檢測能力。吳錦達(dá)等提出了一種基于深度學(xué)習(xí)的目標(biāo)檢測方法。該方法的核心在于提出細(xì)粒度上下文模塊構(gòu)建主干網(wǎng)絡(luò),設(shè)計(jì)特征分化結(jié)構(gòu)以增強(qiáng)對應(yīng)尺寸目標(biāo)的特征表達(dá),定義自適應(yīng)雙重焦點(diǎn)損失函數(shù)替換交叉熵?fù)p失函數(shù)。郭越等[提出了一種引入小目標(biāo)檢測層和基于空洞卷積與注意力機(jī)制的特征增強(qiáng)模塊的方法,旨在提升無人機(jī)航拍圖像的目標(biāo)檢測性能。盡管上述研究取得了一定的成就,但由于背景復(fù)雜、空間分辨率差異大、密集、小而不規(guī)則排列、遮擋、模糊等問題普遍存在,現(xiàn)有實(shí)際情況下密集小自標(biāo)檢測挑戰(zhàn)依然存在。尤為關(guān)鍵的是,現(xiàn)有算法在追求檢測精度的同時,往往犧牲了模型的計(jì)算效率和輕量化,導(dǎo)致模型尺寸龐大、推理速度慢,極大地限制了其在資源受限的嵌入式設(shè)備上的部署與應(yīng)用。因此,如何在保證檢測精度的前提下,實(shí)現(xiàn)檢測速度的提升和模型的輕量化,成為當(dāng)前小目標(biāo)檢測領(lǐng)域亟待解決的重要問題。

        為解決復(fù)雜場景密集小目標(biāo)檢測存在的缺陷,本文以YOLOv8為基礎(chǔ),提出了一種改進(jìn)YOLO目標(biāo)檢測模型。通過使用幽靈瓶頸網(wǎng)絡(luò)(GhostBottleneckNetwork,GhostBNet)、多尺度自由注意力模塊(Multiscalefreeattentionmodule,MSFAM)、改進(jìn)特征金字塔網(wǎng)絡(luò)(Improved Feature Pyramid Network,IFPN)、動態(tài)Soft-NMS(Dynamic SoftNMS,DSNMS)等優(yōu)化策略,可以緩解復(fù)雜場景下密集小目標(biāo)的漏檢問題,實(shí)現(xiàn)檢測速度與精度的平衡。

        2 改進(jìn)YOLO檢測模型

        本研究以基礎(chǔ)YOLOv8模型結(jié)構(gòu)為基準(zhǔn),旨在優(yōu)化目標(biāo)檢測模型以適應(yīng)嵌入式設(shè)備的應(yīng)用需求,同時提升對小目標(biāo)的檢測能力。YOLOv8以其卓越的檢測精度著稱,但其高性能需求往往依賴于強(qiáng)大的GPU支持,這在資源受限的嵌入式環(huán)境中構(gòu)成挑戰(zhàn)。此外,基礎(chǔ)YOLOv8的核心在于采用跨階段部分Darknet(CrossStagePartialDarknet,CSPdarknet)作為特征提取框架,該框架通過深度網(wǎng)絡(luò)結(jié)構(gòu)擴(kuò)展了感受野,但伴隨而來的是特征圖維度的縮減,進(jìn)而增強(qiáng)了特征的語義抽象,卻犧牲了精確的位置信息,這對小目標(biāo)的精確定位尤為不利。

        為克服上述局限,本研究提出了一種改進(jìn)YOLO檢測模型,該模型集成了幽靈瓶頸網(wǎng)絡(luò)(GhostBottleneckNetwork,GhostBNet)、多尺度自由注意力模塊(Multiscale free attention module,MSFAM)、改進(jìn)特征金字塔網(wǎng)絡(luò)(ImprovedFeaturePyramidNetwork,IFPN)、動態(tài)Soft-NMS(Dynamic SoftNMS,DSNMS)等策略,以增強(qiáng)小目標(biāo)檢測能力。改進(jìn)YOLO檢測模型結(jié)構(gòu)圖如圖1所示。

        具體而言,改進(jìn)YOLO檢測模型中,跨階段部分模塊(Cross Stage Partial Module,CSPModule)、快速空間金字塔池化(SpatialPyramidPoolingFast,SPPF)、檢測頭等模塊與基礎(chǔ)YOLOv8網(wǎng)絡(luò)功能相同,均用于減少信道數(shù)和卷積操作,可有效提升了計(jì)算效率與速度。通過引入Ghost模塊構(gòu)建GhostBNet和DSNMS,從而進(jìn)一步提升模型的計(jì)算效率與檢測性能。此外,在FPN層的基礎(chǔ)上,改進(jìn)YOLO檢測模型還增加了一個反向的特征金字塔,并在上采樣過程中嵌入了MSFAM模塊,通過Concat操作將各層特征圖進(jìn)行有效融合,從而實(shí)現(xiàn)了特征信息的深度整合與高效傳遞。

        2.1 GhostBNet

        在基礎(chǔ)YOLOv8模型設(shè)計(jì)中,處理豐富且潛在冗余的特征映射以實(shí)現(xiàn)對輸入數(shù)據(jù)的全面表征是一個核心挑戰(zhàn)。為了提升模型的效率與性能,本研究引入Ghost模塊作為傳統(tǒng)卷積層的替代方案,構(gòu)建了GhostBNet。GhostBNet由兩大核心組件構(gòu)成:主部分與殘余邊緣部分。主部分集成了Ghost模塊,負(fù)責(zé)生成主要的特征表示;而殘余邊緣部分則通過額外的卷積層(如 2×2 深度可分離卷積(Depthwiseseparableconvolution,DSC)與 1×1 標(biāo)準(zhǔn)卷積)進(jìn)一步增強(qiáng)特征信息的提取與傳遞能力。

        GhostBNet架構(gòu)如圖2所示。對于輸入的圖像,首先通過一個16通道的 1×1 標(biāo)準(zhǔn)卷積層(批量歸一化(Batchnormalization,BN)與修正線性單元(RectifiedLinearUnit,ReLu)激活函數(shù))進(jìn)行初步處理。隨后,通過疊加(Add)多個Ghost模塊,逐步提取并融合多層次的特征信息。為了調(diào)整特征通道數(shù),進(jìn)一步采用卷積層將特征層擴(kuò)展。接著,利用全局平均池化操作整合空間信息,并通過卷積層調(diào)整特征向量,為后續(xù)的分類任務(wù)做準(zhǔn)備。最后,采用平鋪操作將特征向量完全串聯(lián),以優(yōu)化分類過程中的信息利用效率。

        Ghost模塊的核心在于通過較少的參數(shù)來生成更多的特征圖。在GhostBNet中,第一個Ghost模塊用作擴(kuò)展層,增加了通道數(shù)。這個擴(kuò)展層通過1x1卷積降低通道數(shù),然后通過3x3深度卷積對每個通道特征圖提取特征,最后將兩次卷積的輸出特征圖在通道維度上堆疊,從而增加特征圖的通道數(shù)。這樣的設(shè)計(jì)允許網(wǎng)絡(luò)在保持參數(shù)數(shù)量較低的同時,捕獲更豐富的特征信息,這對于小目標(biāo)檢測尤其重要,因?yàn)樾∧繕?biāo)可能在特征圖中占據(jù)的區(qū)域較小,需要更多的通道來捕捉細(xì)節(jié)信息。而第二個Ghost模塊用于進(jìn)一步提取和融合特征,增強(qiáng)網(wǎng)絡(luò)對小目標(biāo)的識別能力。

        圖1改進(jìn)YOL0檢測模型結(jié)構(gòu)圖
        Fig.1 Improved YOLO detection model structure diagram圖2GhostBNet架構(gòu) Fig.2 GhostBNet architecture

        2.2 MSFAM

        在深度學(xué)習(xí)領(lǐng)域,空間注意[1](spatial attention,SA)機(jī)制通過映射原始圖像的空間信息至一個替代空間,不僅保留了圖像的核心特征,還增強(qiáng)了網(wǎng)絡(luò)對顯著區(qū)域的敏感度,使得網(wǎng)絡(luò)能夠自適應(yīng)地整合判別性強(qiáng)的全局與局部特征。另一方面,通道注意[2-13](ChannelAttention,CA)機(jī)制則通過為不同通道的特征圖分配不同權(quán)重,實(shí)現(xiàn)了對特征重要性的量化評估。這一機(jī)制借助包含兩個全連接層的瓶頸架構(gòu)設(shè)計(jì),既增強(qiáng)了通道注意模塊的非線性學(xué)習(xí)能力,又有效減少了模型參數(shù),提升了計(jì)算效率與模型泛化能力?;诳臻g與通道注意機(jī)制的探索,本文提出了MSFAM,旨在融合并擴(kuò)展空間與通道注意的優(yōu)勢,并通過引入多尺度特征處理機(jī)制,使網(wǎng)絡(luò)能夠更靈活地捕捉圖像中跨尺度的復(fù)雜信息。MSFAM結(jié)構(gòu)如圖3所示。

        圖3MSFAM結(jié)構(gòu)Fig.3MSFAM Structure

        給定輸入特征映射向量 ,其中 ! h ,w 分別為特征映射向量的通道數(shù)、高、寬。MSFAM運(yùn)行時,首先通過SA模塊處理,得到增強(qiáng)空間信息的特征映射 S∈Rc×h×w 。隨后,采用 1×1 卷積核(核數(shù)為 c/4 )對空間信息特征映射 s 進(jìn)行卷積,生成降維后的特征映射 D∈Rw×h×c/4 ,從而減少后續(xù)處理的計(jì)算負(fù)擔(dān)。為了捕獲多尺度特征,對 D 應(yīng)用四個并行分支,每個分支執(zhí)行不同的操作(如不同尺度的池化或卷積),從而生成多尺度特征張量

        P1∈Rw×h×c/4 、 P2∈Rw×h×c/4 、 P3∈Rw×h×c/4 、 P4∈Rw×h×c/4 0接下來,通過級聯(lián)(Concat)操作,這些多尺度特征張量被融合成單一的特征張量 Q∈Rw×h×c ,從而實(shí)現(xiàn)了跨尺度的特征集成。

        隨后,將 輸入CA模塊,以評估并增強(qiáng)各通道特征的重要性,并輸出特征映射 C∈Rw×h×c 。最后,采用Add操作將原始空間增強(qiáng)特征 s 與通道增強(qiáng)特征 c 進(jìn)行融合,生成最終的特征映射 H∈Rw×h×c ,作為MSAM的輸出。

        2.3 IFPN

        基礎(chǔ)YOLOv8架構(gòu)采用PANet結(jié)構(gòu)進(jìn)行多尺度特征融合,但這種融合方法不能充分利用不同尺度之間的特征,存在一定的檢測精度限制。具體而言,淺層網(wǎng)絡(luò)以其高分辨率特性,在定位準(zhǔn)確性上展現(xiàn)出優(yōu)勢;而深層網(wǎng)絡(luò)則因具備更廣闊的感受野,富含更多高層次的語義信息。為了克服上述瓶頸,本文引入了雙向特征金字塔網(wǎng)絡(luò)[14](BidirectionalFeaturePyramidNetwork,Bi-FPN)作為特征融合的新范式,旨在深度優(yōu)化多尺度特征間的互補(bǔ)性與一致性。

        通過動態(tài)調(diào)整各特征的權(quán)重,確保所有權(quán)重的有效性在[0,1]區(qū)間內(nèi),從而在保持模型復(fù)雜度可控的同時,最大限度地提升融合效率與效果。動態(tài)調(diào)整各特征的權(quán)重過程計(jì)算如下:

        式中: IFi 為輸入特征向量; xFo 為輸出特征向量; ωi 和@j為可學(xué)習(xí)權(quán)值。需注意,該過程使用ReLU激活函數(shù)對[0,1]之間的可學(xué)習(xí)權(quán)值進(jìn)行縮放。此外, ε 為一個較小的正數(shù),以保證輸出穩(wěn)定。

        為了增強(qiáng)輸出層特征融合信息的能力,IFPN中還增加了跳躍連接形成融合模塊以進(jìn)一步作為一個整體參與融合。該過程各層之間的關(guān)系定義為:

        式中: fConv 為卷積運(yùn)算; fRes 為下采樣運(yùn)算; p 為輸入特征圖; U 為輸出的特征圖。通過構(gòu)建雙向特征金字塔網(wǎng)絡(luò),可以提高檢測精度,減少模型的計(jì)算量。

        2.4 改進(jìn)Soft-NMS

        在目標(biāo)檢測過程中,通常會有多個高置信度的邊界框圍繞在實(shí)際目標(biāo)周圍。為了解決這個問題,通常使用非極大抑制(Non-maxima Suppression,NMS)消除冗余的邊界框,確保每個對象只保留一個邊界框。NMS算法中抑制其他邊界框置信度而偏愛當(dāng)前置信度最高的邊界框的數(shù)學(xué)表達(dá)式為:

        式中: Si 為檢測邊界框 bi 的置信度; Nm 為預(yù)設(shè)的交并比(Intersection overUnion,IOU)閾值; M 為置信度最高的邊界框。

        在密集物體檢測場景中,物體間的高度重疊常導(dǎo)致邊界框IOU超過預(yù)設(shè)閾值,進(jìn)而引發(fā)以低置信度錯誤剔除邊界框的問題,增加了目標(biāo)漏檢的風(fēng)險(xiǎn),對整體檢測性能構(gòu)成挑戰(zhàn)。盡管提高IOU閾值能在一定程度上緩解漏檢問題,卻不可避免地加劇了冗余檢測現(xiàn)象,單獨(dú)調(diào)整此閾值難以在召回率與準(zhǔn)確性之間達(dá)成理想平衡。

        為解決上述問題,Soft-NMS[15]引入了一個衰減函數(shù)機(jī)制,有效保留了更多潛在的有效檢測,同時避免了傳統(tǒng)NMS方法中的硬閾值截?cái)鄮淼男畔p失。Soft-NMS包含兩種不同形式的衰減,第一種衰減由以下數(shù)學(xué)表達(dá)式描述:

        式中:如果邊界框 bi 和置信度最高的邊界框 M 的IOU小于給定閾值 Nm ,則其置信水平保持不變;否則,當(dāng)其大于 Nm 時,其置信度 Si 根據(jù)重疊程度線性衰減。

        Soft-NMS衰減的第二種形式是連續(xù)衰減函數(shù)。該值用數(shù)學(xué)表達(dá)式表示如下:

        式中: σ 為衰減因子。Soft-NMS將置信度 Si 乘以與IOU相關(guān)的高斯加權(quán)函數(shù),當(dāng)IOU值較低時衰減較緩,當(dāng)IOU接近1時衰減程度較大。

        然而,受限于固定的比例因子,Soft-NMS難以全面適應(yīng)不同檢測對象特征的多樣性。具體而言,Soft-NMS在處理復(fù)雜場景時,可能因無法動態(tài)調(diào)整閾值而錯失部分有效檢測或引入不必要的冗余,特別是在物體分布密集且重疊嚴(yán)重的挑戰(zhàn)性環(huán)境中。鑒于此,本文提出了一種DSNMS方法。該方法核心在于引入了一種動態(tài)閾值調(diào)整機(jī)制,允許根據(jù)檢測目標(biāo)的特征(如大小、形狀、紋理等)動態(tài)調(diào)整閾值。這一設(shè)計(jì)旨在更精準(zhǔn)地評估邊界框的有效性,從而在保持高召回率的同時,減少誤檢和冗余,提升目標(biāo)檢測的準(zhǔn)確性和可靠性。

        DSNMS中,動態(tài)閾值計(jì)算如下:

        式中: n 為提取的邊界框個數(shù)。通過動態(tài)閾值調(diào)整從而更靈活地調(diào)整不同的物體密度和分布來進(jìn)一步改善檢測性能。

        3 實(shí)驗(yàn)結(jié)果分析

        為了驗(yàn)證改進(jìn)YOLO的效果,基于自制數(shù)據(jù)集進(jìn)行了訓(xùn)練和測試。

        3.1 實(shí)驗(yàn)準(zhǔn)備

        自制數(shù)據(jù)集融合了開源數(shù)據(jù)、網(wǎng)絡(luò)攝像頭和旋翼無人機(jī)等現(xiàn)代成像設(shè)備采集的視頻數(shù)據(jù),涵蓋了街道、公園等多樣化的復(fù)雜環(huán)境,主要研究對象包括人、安全帽等多尺度類型目標(biāo)。部分原始圖像數(shù)據(jù)集由網(wǎng)絡(luò)爬蟲爬??;部分原始視頻數(shù)據(jù)集且包含50多個采集的視頻文件,總時長超過20小時。所有視頻文件經(jīng)過抽幀處理并剔除嚴(yán)重污染圖像后,共收集到約2萬幅圖像。此外,將所有圖像均通過開源的labelimg軟件進(jìn)行標(biāo)注,遵循PASCALVOC格式,確保了標(biāo)注的準(zhǔn)確性和一致性。部分?jǐn)?shù)據(jù)展示效果圖如圖4所示。

        圖4數(shù)據(jù)集中部分?jǐn)?shù)據(jù)展示Fig.4Partial data display rendering

        為評估模型性能,數(shù)據(jù)集被劃分為訓(xùn)練集、測試集和驗(yàn)證集,比例分別為8:1:1。值得注意的是,數(shù)據(jù)集中目標(biāo)尺寸分布多樣且不平衡,小型目標(biāo)占比高達(dá)45% ,中間尺寸目標(biāo)約占 40% ,而大型目標(biāo)僅占約15% 。

        實(shí)驗(yàn)時硬件環(huán)境設(shè)置如下:檢測網(wǎng)絡(luò)在Ubuntu20.04系統(tǒng)上使用PyTorch深度學(xué)習(xí)框架構(gòu)建。使用的處理器是第11代英特爾(R)酷睿(TM)i7-11700KF,運(yùn)行頻率為 3.60GHz 。使用的顯卡是NVIDIAGeForceGTX3060Ti ,64GARM。改進(jìn)YOLO的超參數(shù)設(shè)置如下:令初始學(xué)習(xí)率設(shè)置為0.01,動量為0.98,權(quán)重衰減因子為0.001,批大小為16,最大迭代周期為300,輸入圖像像素為 640×640 。

        實(shí)驗(yàn)時通過以下三個性能指標(biāo)評估網(wǎng)絡(luò)性能:精度、召回率、 mAP@0.5 、浮點(diǎn)計(jì)算(FLOPs)

        和參數(shù)量。需注意 mAP@0.5 為IoU閾值設(shè)置為0.5時的平均值。精度、召回率、mAP指標(biāo)計(jì)算公式如下:

        式中: Pre 為精度,表征預(yù)測標(biāo)簽為正類的樣本中,預(yù)測正確的比值; REC 為召回率,表征真值標(biāo)簽為正類的樣本中,預(yù)測正確的比例; TN 為預(yù)測值和實(shí)際值均為負(fù)樣本的數(shù)量; FP 為預(yù)測值為正樣本,但實(shí)際為負(fù)樣本的數(shù)量; FN 為預(yù)測為負(fù)樣本,實(shí)際為正樣本的數(shù)量; TP 預(yù)測和實(shí)際均為正樣本的數(shù)量;CN 為類別的數(shù)量;AP i 為第 i 個目標(biāo)類別的平均精度。

        3.2 實(shí)驗(yàn)與分析

        3.2.1 消融實(shí)驗(yàn)

        為了深入探究GhostBNet、MSFAM、IFPN、DSNMS等策略對YOLOv8_s模型性能的具體影響,本節(jié)設(shè)計(jì)并實(shí)施了一系列消融實(shí)驗(yàn)。這些實(shí)驗(yàn)旨在通過逐步添加不同策略至基礎(chǔ)YOLOv8_s模型。消融實(shí)驗(yàn)對比結(jié)果如表1所示,包括不同策略組合下的精度、召回率、 mAP@0.5 、浮點(diǎn)計(jì)算量及參數(shù)量等關(guān)鍵指標(biāo)。

        表1消融實(shí)驗(yàn)對比結(jié)果 Table 1 Comparison results of ablation experiments

        首先,單獨(dú)添加GhostBNet至YOLOv8s模型后,模型參數(shù)量與浮點(diǎn)計(jì)算量顯著降低,分別降低了77.66% 和 64.26% 。這一結(jié)果表明,GhostBNet作為一種輕量級網(wǎng)絡(luò)結(jié)構(gòu),能夠有效減少模型復(fù)雜度,實(shí)現(xiàn)模型的輕量化。然而,精度指標(biāo)略有下降(約 1.43% ),召回率和 mAP@0.5 也略有降低,但幅度不大。這表明,雖然GhostBNet在降低模型復(fù)雜度方面表現(xiàn)出色,但也可能在一定程度上犧牲了部分檢測精度。

        隨后,在GhostBNet的基礎(chǔ)上添加MSFAM策略,模型參數(shù)量與浮點(diǎn)計(jì)算量進(jìn)一步降低,同時精度、召回率和 mAP@0.5 指標(biāo)值均顯著提升。具體而言,精度提升了 6.25% ,召回率提升了 3.90% , mAP@0.5 提升了 3.46% 。這一結(jié)果驗(yàn)證了MSFAM策略在提升模型檢測能力方面的有效性,特別是在處理密集或小目標(biāo)等復(fù)雜場景時表現(xiàn)出色。

        接下來,嘗試在GhostBNet上添加IFPN策略。與單獨(dú)添加GhostBNet相比,模型參數(shù)量、浮點(diǎn)計(jì)算量、精度、召回率和 mAP@0.5 指標(biāo)值均有所提升,但提升幅度適中。這表明IFPN策略對于提升模型檢測能力具有積極作用,但可能不如MSFAM策略顯著。

        此外,還探索了在GhostBNet上添加DSNMS策略的效果。實(shí)驗(yàn)結(jié)果顯示,模型參數(shù)量與浮點(diǎn)計(jì)算量大幅度降低,同時精度、召回率和 mAP@0.5 指標(biāo)值均有所提升。這表明DSNMS策略在優(yōu)化模型結(jié)構(gòu)的同時,也提升了模型的檢測能力。

        最后,將GhostBNet、MSFAM、IFPN、DSNMS等策略全部添加至YOLOv8_s模型,構(gòu)建出改進(jìn)后的YOLO模型。與原始YOLOv8_s模型相比,改進(jìn)后的模型在參數(shù)量和浮點(diǎn)計(jì)算量上分別降低了 72.30% 和52.06% ,同時在精度、召回率和 mAP@0.5 指標(biāo)值上分別提升了 8.90% 、 4.04% 、 4.32% 。這一結(jié)果充分證明了所提策略的有效性和實(shí)用性,可實(shí)現(xiàn)高效輕量級部署。

        綜上所述,消融實(shí)驗(yàn)結(jié)果表明,GhostBNet、MSFAM、IFPN、DSNMS等策略在提升模型檢測能力、降低模型復(fù)雜度方面均表現(xiàn)出色。然而,不同策略對模型性能的影響存在差異,需根據(jù)具體應(yīng)用場景和需求進(jìn)行選擇和組合。

        3.2.2 與主流實(shí)驗(yàn)對比

        本節(jié)系統(tǒng)評估了所提出的改進(jìn)YOLO模型在復(fù)雜場景下的目標(biāo)檢測能力,特別是在處理嚴(yán)重遮擋與密集小目標(biāo)挑戰(zhàn)時的表現(xiàn)?;鶞?zhǔn)對比模型包括:Faster-RCNN、YOLOv8_1、YOLOv8_s、YOLOv9_1、YOLOv9_s。對比指標(biāo)為 mAP@0.5 、參數(shù)量和浮點(diǎn)計(jì)算量。不同主流目標(biāo)檢測模型比較結(jié)果如表2所示。

        表2不同主流目標(biāo)檢測模型比較結(jié)果Table2 Comparison results of different mainstream object detection models

        可以看出,所提改進(jìn)YOLO模型在具有嚴(yán)重遮擋和密集小自標(biāo)的場景中表現(xiàn)出增強(qiáng)的檢測性能,優(yōu)于其他模型。具體而言,改進(jìn)YOLO在 mAP@0.5 指標(biāo)上超越了其他主流模型,參數(shù)量和浮點(diǎn)計(jì)算量指標(biāo)處于中等水平,這一結(jié)果充分驗(yàn)證了模型在速度與準(zhǔn)確性之間實(shí)現(xiàn)了良好的平衡。分析原因:通過在YOLO框架中集成MSFAM與DSNMS,模型能夠更有效地聚焦于與小目標(biāo)檢測密切相關(guān)的特征信息,同時抑制不必要的細(xì)節(jié)干擾,從而顯著優(yōu)化了檢測精度。DSNMS策略特別針對密集場景中的重疊檢測盒問題,通過動態(tài)調(diào)整重疊檢測盒的置信度分?jǐn)?shù),避免了不必要的重復(fù)檢測,有效減少了漏檢情況。通過對比與分析,可以明確看出,所提出的方法在復(fù)雜場景中的檢測性能優(yōu)于現(xiàn)有主流方法,為實(shí)際應(yīng)用中的目標(biāo)檢測任務(wù)提供了更加高效且精準(zhǔn)的解決方案。

        3.2.3 展示效果對比

        本節(jié)評估了多種目標(biāo)檢測模型在復(fù)雜場景下的性能表現(xiàn),特別是聚焦于處理具有挑戰(zhàn)性特征的目標(biāo),如小尺寸、模糊邊緣、以及高密度且存在遮擋的聚類對象。展示效果對比實(shí)驗(yàn)中,選取YOLOv8s和YOLOv9s作為當(dāng)前流行的輕量級檢測模型代表。不同主流模型檢測效果對比圖如圖5所示。對比結(jié)果中

        圖5不同主流模型檢測效果對比圖Fig.5Comparison of detection effects of different mainstream models

        YOLOv8_s和YOLOv9_s中無法有效檢測區(qū)域采用黑色橢圓標(biāo)記。

        可以看出,在針對特定復(fù)雜場景(如含小而模糊目標(biāo)或密集遮擋對象的圖像)的測試中,YOLOv8_s和YOLOv9s兩種模型均表現(xiàn)出不同程度的性能下降,主要體現(xiàn)在漏檢率上升及誤檢率增加上。相比之下,所提改進(jìn)YOLO檢測模型在應(yīng)對上述挑戰(zhàn)時展現(xiàn)出了更為穩(wěn)健的性能。通過優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu)、引入更精細(xì)的特征融合機(jī)制以及采用增強(qiáng)的上下文信息建模策略,改進(jìn)YOLO模型在保持計(jì)算效率的同時,顯著提升了在復(fù)雜場景下的檢測準(zhǔn)確率。特別是在檢測小而模糊的目標(biāo)時,該模型能夠更有效地捕捉細(xì)微特征,減少漏檢;面對前景與背景嚴(yán)重遮擋的密集聚類對象,通過引入空間注意力機(jī)制與遮擋感知策略,有效提升了區(qū)分能力,降低了誤檢率。

        4結(jié)論

        在計(jì)算機(jī)視覺領(lǐng)域,目標(biāo)檢測技術(shù)因其在多種應(yīng)用場景中的重要作用而受到廣泛關(guān)注。盡管當(dāng)前的目標(biāo)檢測算法在處理常規(guī)尺寸目標(biāo)時表現(xiàn)出色,但在小目標(biāo)檢測方面仍存在挑戰(zhàn)。為了克服這一難題,本文提出了一種改進(jìn)的YOLO目標(biāo)檢測模型,有效地提升了小目標(biāo)的檢測性能,并在計(jì)算效率上實(shí)現(xiàn)了優(yōu)化。盡管本文提出的模型在小目標(biāo)檢測方面取得了顯著的成果,但仍存在一些不足之處。例如,模型在處理極端小目標(biāo)時的性能仍有提升空間,且在某些復(fù)雜背景下的魯棒性也需要進(jìn)一步增強(qiáng)。

        未來的工作將集中在以下幾個方面:首先,進(jìn)一步優(yōu)化模型結(jié)構(gòu),以提高對極端小目標(biāo)的檢測能力;其次,增強(qiáng)模型的泛化能力,使其在更多復(fù)雜場景下保持穩(wěn)定的性能;最后,探索更高效的特征融合和注意力機(jī)制,以實(shí)現(xiàn)更高的檢測精度和計(jì)算效率。

        參考文獻(xiàn)

        [1] CHENGY,LAIX,XIAY,etal.InfraredDimSmall TargetDetection Networks:A Review.Sensors (Basel,Switzerland),2024,24(12):

        3885.

        [2]BENGAMRA S,MZOUGHI O,BIGAND A, et al.A comprehensivesurvey onobject detectionin Visual Art: taxonomy and challenge.Multimedia Toolsand Applications,2023,83(5):14637-14670.

        [3]張春節(jié),羅瑞林,盧琳,等.基于 MobileNet 和遷移學(xué)習(xí)的微帶青煙葉圖像識別.云南師范大學(xué)學(xué)報(bào)(自然科學(xué)版),2023,43(4):46-48.

        [4]LING X, ZHANG C, YAN Z, et al. Infrared Dim and small targetdetection based on Local-Global Feature Fusion.Applied Sciences,2024,14(17):7878.

        [5]WEI W, CHEN Y, HE J, et al. A review of smallobject detectionbased on deep learning.Neural Computing and Applications,2024,36(12):6283-6303.

        [6]劉一江,樊福景,王通.基于改進(jìn)YOLOv5 的安全帽小目標(biāo)檢測算法.信息技術(shù)與信息化,2024(5):115-119.

        [7]田春欣,陳緒君,鄭有凱.基于密集連接任務(wù)對齊的小目標(biāo)檢測算法.計(jì)算機(jī)工程與設(shè)計(jì),2024,45(4):1032-1038.

        [8]田鵬,毛力.改進(jìn) YOLOv8 的道路交通標(biāo)志目標(biāo)檢測算法.計(jì)算機(jī)工程與應(yīng)用,2024,60(8):202-212.

        [9]吳錦達(dá),李強(qiáng).基于深度學(xué)習(xí)的遙感圖像目標(biāo)檢測.軟件工程,2024,27(10):7-11.

        [10] 郭越,楊江濤,劉志.復(fù)雜場景下的無人機(jī)小目標(biāo)檢測算法.工業(yè)控制計(jì)算機(jī),2024,37(9):33-34+37.

        [11] 敬輝,葛動元,姚錫凡.基于改進(jìn)注意力與多尺度特征的車輛識別.計(jì)算機(jī)工程與設(shè)計(jì),2024,45(10):3120-3127.

        [12]臧珂.結(jié)合非對稱卷積組與通道注意力的遙感影像建筑檢測方法測繪與空間地理信息,2024,47(10):87-90.

        [13]WANGG,LI Q,WANGN,et al.SAFPN:a full semantic featurepyramid network for object detection. Pattern AnalysisandApplications,2023,26(4):1729-1739.

        [14] 馮新偉,黃宇祥,王忠立.基于卷積塊注意力模塊和雙向特征金字塔網(wǎng)絡(luò)的接觸網(wǎng)支持裝置檢測方法研究.鐵道技術(shù)監(jiān)督,2023,51(4):16-24.

        [15] CHEN Y, WANG L, DING B, et al. Automated Alzheimer's diseaseclassification using deep learning modelswith Soft-NMSandimproved ResNet50 integration.Journal of Radiation Research andApplied Sciences,2024,17(1):100782.

        Abstract: With therapid developmentof dep learming technology,object detection has been widelyapplied inmultiple fields. However,smallobjectdetectionhas limiteddetectionperformaneduetoitssmallsizeandunclearfeatures.Toaddresthis isue, this paper proposesan improvedobject detection model basedon YOLOv8.This model integrates optimizationstrategies such as ghostbottleneck network,multi-sale freeatentionmodule,improvedfeature pyramid ntwork,and dynamic SoftNiing toimprove thedetection accuracyof dense smalltargets and the computational eficiencyofthe model.Through experimental validation ona self-made dataset,ithas been demonstrated that the improved YOLO model outperforms existing mainstream models in termsof precision,recall rate,and mAP @0.5 ,which arekeymetrics,effectively balancing themodel's parametercount andfloating-pointcomputationalload.Theexperimentalresultsshowthat theproposed methodachievesmodellightweighting while ensuring detectionaccuracyprovidingan efective solution forobject detection tasksonresource limited embedded devices.

        Keywords: deep learning; small target detection; convolutional neural network; attention mechanism; loss function

        猜你喜歡
        卷積精度特征
        基于時域全卷積網(wǎng)絡(luò)的語音增強(qiáng)
        基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
        如何表達(dá)“特征”
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        不忠誠的四個特征
        基于DSPIC33F微處理器的采集精度的提高
        電子制作(2018年11期)2018-08-04 03:25:38
        抓住特征巧觀察
        GPS/GLONASS/BDS組合PPP精度分析
        改進(jìn)的Goldschmidt雙精度浮點(diǎn)除法器
        一種基于卷積神經(jīng)網(wǎng)絡(luò)的性別識別方法
        好看的日韩精品视频在线| 极品一区二区在线视频| 中文字幕无码免费久久9一区9 | 久久99精品国产麻豆宅宅| 黄污在线观看一区二区三区三州| 国产熟女乱综合一区二区三区| 在线成人福利| 国产麻豆剧传媒精品国产av| 大尺度无遮挡激烈床震网站 | 亚洲日本欧美产综合在线| 少妇饥渴偷公乱a级无码| 人人超碰人人爱超碰国产| 亚洲乱码中文字幕三四区| 国产好片日本一区二区三区四区 | 国产人妖直男在线视频| 色综合999| 色综合一本| 亚洲欧洲偷自拍图片区| 久久人人爽爽爽人久久久| 久久99天堂av亚洲av| 日本特殊按摩在线观看| 国内精品久久久久影院蜜芽| 免费一级毛片在线播放不收费| 99精品国产在热久久| 92午夜少妇极品福利无码电影| 亚洲国产精品悠悠久久琪琪| 91麻豆精品一区二区三区| 亚洲国产精品中文字幕日韩| 国产精品一区二区 尿失禁| 久精品国产欧美亚洲色aⅴ大片| 国产在线无码不卡影视影院| 成人国产精品三上悠亚久久| 亚洲一区二区三区一区| 91极品尤物国产在线播放| 91久久久久无码精品露脸| 最新亚洲av日韩av二区| 搡老熟女中国老太| 日韩精品久久久久久久电影蜜臀| 国色天香社区视频在线| 免费人成视频网站在在线| 国产夫妻自偷自拍第一页|