亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于ATD-CNN模型的黃河鄭州段水面漂浮物檢測(cè)研究

        2025-02-14 00:00:00邵曉艷王軍趙雪專王勝馮軍
        人民黃河 2025年2期
        關(guān)鍵詞:目標(biāo)檢測(cè)卷積神經(jīng)網(wǎng)絡(luò)注意力

        摘 要:針對(duì)水面漂浮物感知目標(biāo)小、易受干擾、識(shí)別精度低的問(wèn)題,提出ATD-CNN目標(biāo)檢測(cè)模型。結(jié)合注意力機(jī)制,將注意力模塊嵌入FasterR-CNN改進(jìn)模型的基本主干網(wǎng)絡(luò),計(jì)算特征圖內(nèi)部特征點(diǎn)之間的長(zhǎng)距離相關(guān)系數(shù),對(duì)顯著性特征進(jìn)行有效增強(qiáng),以提升基本主干網(wǎng)絡(luò)對(duì)圖像特征的提取能力。基于河南省鄭州市惠濟(jì)區(qū)南裹頭黃河沿岸采集的圖像數(shù)據(jù),對(duì)ATD-CNN模型檢測(cè)效果進(jìn)行驗(yàn)證,并將該模型性能與FasterR-CNN改進(jìn)模型、YOLOv5單階段目標(biāo)檢測(cè)模型進(jìn)行對(duì)比。結(jié)果表明:與FasterR-CNN改進(jìn)模型相比,ATD-CNN模型對(duì)水面漂浮物的漏檢率下降,其mAP值提升了6.80%,F(xiàn)1Score平均值提升了2%。與YOLOv5X、Faster R-CNN改進(jìn)模型相比,ATD-CNN模型的mAP值分別提升了2.91%、6.80%,有效提高了水面漂浮物檢測(cè)精度。

        關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò);水面漂浮物;目標(biāo)檢測(cè);注意力;黃河鄭州段

        中圖分類號(hào):TP391.4;TV882.1 文獻(xiàn)標(biāo)志碼:A doi:10.3969/j.issn.1000-1379.2025.02.020

        引用格式:邵曉艷,王軍,趙雪專,等.基于ATD-CNN模型的黃河鄭州段水面漂浮物檢測(cè)研究[J].人民黃河,2025,47(2):131-136.

        基金項(xiàng)目:國(guó)家自然科學(xué)基金資助項(xiàng)目(U1904119);河南省科技攻關(guān)計(jì)劃項(xiàng)目(232102210033,232102210054);河南省重點(diǎn)研發(fā)專項(xiàng)(231111212000);河南省杰出外籍科學(xué)家工作室項(xiàng)目(GZS2022011);航空科學(xué)基金資助項(xiàng)目(20230001055002);重慶市自然科學(xué)基金資助項(xiàng)目(CSTB2023NSCQ-MSX0070)

        ResearchontheDetectionofFloatingObjectsontheWaterSurface oftheZhengzhouSectionoftheYellowRiverBasedontheATD?CNNModel

        SHAOXiaoyan1,WANGJun1,ZHAOXuezhuan1,WANGSheng1,F(xiàn)ENGJun2

        (1.SchoolofComputerScience,ZhengzhouUniversityofAeronautics,Zhengzhou450046,China;2.SchoolofComputerandInformationEngineering,HenanUniversity,Kaifeng475004,China)

        Abstract:Aimingattheissuesofsmalltargets,vulnerabletointerferenceandlowrecognitionaccuracyoffloatingobjectsonthewatersur? face,ATD?CNNobjectdetectionmodelwasproposed.Combinedwiththeattentionmechanism,theattentionmodulewasembeddedintothe basicbackbonenetworkoftheFasterR?CNNimprovedmodel,andthelong?distancecorrelationcoefficientbetweenthefeaturepointsinthe featuremapwascalculatedtoeffectivelyenhancethesaliencyfeatures,soastoimprovetheabilityofthebasicbackbonenetworktoextract imagefeatures.BasedontheimagedatacollectedalongtheYellowRiverinNanbaotou,HuijiDistrict,ZhengzhouCity,HenanProvince,the detectioneffectivenessoftheATD?CNNmodelwasverified,andtheperformanceofthemodelwascomparedwiththeFasterR?CNNimproved modelandYOLOv5single?stageobjectdetectionmodel.TheresultsshowthatcomparingwiththeFasterR?CNNimprovedmodel,theATD? CNNmodelreducesthemisseddetectionrateoffloatingdebrisonthewatersurface,increasesitsmAPvalueby6.80%,andincreasesthe averageF1Scoreby2%.ComparingwithYOLOv5XandFasterR?CNNimprovedmodels,themAPvaluesofATD?CNNmodelincreaseby 2.91%and6.80%respectively,effectivelyimprovingtheaccuracyoffloatingobjectdetectiononthewatersurface.

        Keywords:ConvolutionalNeuralNetwork;floatingobjectsonthewatersurface;objectdetection;attention;Zhengzhousectionofthe YellowRiver

        黃河是人類文明的重要發(fā)源地,是我國(guó)重要的生態(tài)屏障[1-2]。近年來(lái),黃河兩岸休閑娛樂(lè)項(xiàng)目增加,附近游客密度增大,導(dǎo)致水面漂浮物(垃圾)迅速增加。漂浮物無(wú)法自然溶解或稀釋,分布不均,直接影響了水體質(zhì)量。此外,漂浮物會(huì)影響水中安放的監(jiān)測(cè)設(shè)備以及行駛船只的正常運(yùn)行,如拖船的螺旋槳很容易被漂浮物纏住[3]。當(dāng)漂浮物在水庫(kù)壩前堆積時(shí),還會(huì)影響水電站的發(fā)電效率[4]。水面漂浮物破壞了水體的生態(tài)平衡,威脅人類飲用水安全[5-6]。對(duì)此,相關(guān)學(xué)者提出了處理水面漂浮物的多項(xiàng)舉措[7-8],但成效不是特別顯著。如何快速有效對(duì)水面漂浮物進(jìn)行檢測(cè)及處理,成為眾多學(xué)者關(guān)注的熱點(diǎn)[9]。

        近年來(lái),機(jī)器視覺(jué)在目標(biāo)檢測(cè)方面發(fā)揮著越來(lái)越重要的作用[10]。機(jī)器視覺(jué)主要利用光學(xué)設(shè)備或者非接觸式傳感器接收?qǐng)D像,再通過(guò)視覺(jué)算法進(jìn)行處理,進(jìn)而獲取信息以及控制機(jī)器人運(yùn)動(dòng)[11]。采用機(jī)器視覺(jué)技術(shù)對(duì)水面漂浮物進(jìn)行檢測(cè)并提取有用信息,不僅能評(píng)價(jià)水體生態(tài)環(huán)境,而且能通過(guò)某些設(shè)備對(duì)水面漂浮物進(jìn)行定期清理,從而為水體生態(tài)環(huán)境保護(hù)提供智能化方案[12],但是水面漂浮物感知目標(biāo)小、易受干擾、識(shí)別精度低。為此,筆者基于FasterR-CNN改進(jìn)模型,提出ATD-CNN目標(biāo)檢測(cè)模型,將注意力模塊嵌入FasterR-CNN改進(jìn)模型的基本主干網(wǎng)絡(luò),通過(guò)計(jì)算特征圖內(nèi)部特征點(diǎn)之間的長(zhǎng)距離相關(guān)系數(shù),對(duì)顯著性特征進(jìn)行有效增強(qiáng),以提升基本主干網(wǎng)絡(luò)對(duì)圖像特征的提取能力。

        1 ATD-CNN模型構(gòu)建

        采用機(jī)器視覺(jué)進(jìn)行目標(biāo)檢測(cè),主要包含兩個(gè)子任務(wù):一是對(duì)檢測(cè)對(duì)象的類別進(jìn)行判定,屬于分類任務(wù);二是確定檢測(cè)目標(biāo)具體位置,屬于定位任務(wù)。分類任務(wù)通過(guò)返回一個(gè)標(biāo)簽來(lái)實(shí)現(xiàn),定位任務(wù)通過(guò)返回一個(gè)矩形框來(lái)限定目標(biāo)位置[13]。

        卷積神經(jīng)網(wǎng)絡(luò)(CNN)是機(jī)器學(xué)習(xí)算法中的一種,包括卷積、池化、下采樣、全連接等多種操作,能夠?qū)斎雸D像的特征進(jìn)行有效提取,具備較強(qiáng)的圖像識(shí)別性能[14-15]。但存在缺點(diǎn)如下:當(dāng)采用較深層的網(wǎng)絡(luò)結(jié)構(gòu)提取特征時(shí),會(huì)產(chǎn)生梯度損失或者爆炸問(wèn)題;難以體現(xiàn)特征點(diǎn)之間的長(zhǎng)距離相關(guān)性,在處理遠(yuǎn)距離信息傳遞方面存在局限性。

        2015年Girshick提出FastR-CNN模型,用于訓(xùn)練分類網(wǎng)絡(luò)和回歸網(wǎng)絡(luò),使類別平均精確率(mAP)大大提高,但識(shí)別目標(biāo)速度慢。2017年Ren等[16]提出端到端的FasterR-CNN改進(jìn)模型,其最大特點(diǎn)是有區(qū)域候選網(wǎng)絡(luò)(RPN),能夠更加高效地選擇候選框?;贔asterR-CNN改進(jìn)模型,通過(guò)引入注意力(Attention)機(jī)制,建立ATD-CNN模型,可有效提取輸入圖像的特征信息,捕捉不同特征點(diǎn)之間的長(zhǎng)距離相關(guān)性,從而提高特征圖的表征能力。

        1.1 FasterR-CNN改進(jìn)模型

        FasterR-CNN改進(jìn)模型由基本主干網(wǎng)絡(luò)、RPN和ROIPooling層網(wǎng)絡(luò)構(gòu)成,其目標(biāo)檢測(cè)過(guò)程如下。

        1)采用深層卷積神經(jīng)網(wǎng)絡(luò)(如ResNet或VGG)對(duì)輸入圖像特征進(jìn)行提取。卷積層的輸出包含輸入圖像的空間信息和語(yǔ)義信息。

        2)RPN通過(guò)2個(gè)并行的全卷積層對(duì)每個(gè)錨框進(jìn)行二分類(是否包含目標(biāo))和邊界框回歸(調(diào)整錨框位置)。RPN輸出為前景、背景分類得分以及邊界框偏移量。根據(jù)分類得分,選出最有可能包含目標(biāo)的候選區(qū)域,去除冗余框。

        3)ROIPooling層網(wǎng)絡(luò)通過(guò)網(wǎng)格單元對(duì)候選區(qū)域進(jìn)行劃分,將不同區(qū)域統(tǒng)一為固定大小,以便輸入全連接層進(jìn)一步處理。然后在網(wǎng)格上進(jìn)行池化操作,構(gòu)成尺寸一致的特征映射。

        4)將特征映射輸入2個(gè)并行的全連接層,對(duì)候選區(qū)域進(jìn)行分類,輸出每個(gè)類別的概率。通過(guò)邊界框回歸層調(diào)整候選區(qū)域的位置,輸出精確的邊界框坐標(biāo)。

        1.2 注意力機(jī)制

        注意力機(jī)制應(yīng)用流程如下:1)輸入初始特征圖,其大小為H×W×1024,其中:H、W分別為高、寬,1024為特征圖的通道數(shù)。此處HW構(gòu)成二維矩陣,HW×1024構(gòu)成三維矩陣。2)嵌入高斯變換獲得2個(gè)分支的輸入特征圖,大小均為H×W×512,經(jīng)過(guò)變換,特征圖的通道數(shù)變小,同時(shí)計(jì)算參數(shù)減少。3)對(duì)其中一個(gè)三維矩陣HW×512進(jìn)行轉(zhuǎn)置運(yùn)算,再與另一個(gè)矩陣進(jìn)行乘法運(yùn)算,計(jì)算結(jié)果即為相似度矩陣,該矩陣反映特征圖中像素點(diǎn)間的關(guān)聯(lián)性。4)采用softmax函數(shù)計(jì)算不同位置像素點(diǎn)的相似度的加權(quán)平均值。5)運(yùn)用卷積核進(jìn)行上采樣,將特征圖恢復(fù)為原始通道個(gè)數(shù),保持輸出的一致性。

        1.3 注意力模塊嵌入基本主干網(wǎng)絡(luò)

        基本主干網(wǎng)絡(luò)選用ResNet50,包含以下組件:1個(gè) 7×7的卷積層、1個(gè)最大池化層、4個(gè)卷積層組(conv2_x,conv3_x,conv4_x,conv5_x)、1個(gè)全局平均池化層、1個(gè)全連接層和1個(gè)softmax層。每個(gè)卷積層組包含多個(gè)殘差塊,在每個(gè)殘差塊中輸入與輸出直接相加,這種殘差連接使得梯度可以直接傳遞到上一層,有效解決深層網(wǎng)絡(luò)中梯度消失問(wèn)題。這些組件使ResNet50能夠?qū)ι顚泳W(wǎng)絡(luò)特征有效學(xué)習(xí),顯著提高了圖像分類性能。引入注意力機(jī)制不會(huì)更改輸入和輸出特征圖之間的尺寸,因此在不改變?cè)冀Y(jié)構(gòu)的情況下,將注意力模塊與ResNet50進(jìn)行有效融合。注意力模塊融合在最后三層conv3_x,conv4_x、conv5_x的高級(jí)特征提取階段,為特征圖每個(gè)通道動(dòng)態(tài)分配權(quán)重,使模型能夠關(guān)注對(duì)實(shí)現(xiàn)當(dāng)前任務(wù)最重要的通道。此外,模型整合了三層特征圖的全局信息,對(duì)于某些相隔較遠(yuǎn)的通道,注意力機(jī)制通過(guò)計(jì)算特征點(diǎn)之間的長(zhǎng)距離相關(guān)系數(shù),能夠捕捉它們之間的潛在依賴關(guān)系,對(duì)顯著性特征進(jìn)行有效增強(qiáng)以及信息整合。

        注意力模塊嵌入基本主干網(wǎng)絡(luò)的具體實(shí)現(xiàn)流程為:首先,輸入層接收像素大小為64×56×56的圖像,先經(jīng)過(guò)第1個(gè)卷積層conv1,使用64個(gè)1×1的濾波器處理,步長(zhǎng)為1,輸出64×56×56的特征圖。其次,經(jīng)過(guò)第2個(gè)卷積層conv2,使用64個(gè)3×3的濾波器處理,步長(zhǎng)為1,輸出64×56×56的特征圖。再次,經(jīng)過(guò)第3個(gè)卷積層conv3,使用256個(gè)大小為1×1的濾波器處理,步長(zhǎng)為1,輸出256×56×56的特征圖。最后,引入注意力模塊,增強(qiáng)對(duì)重要特征的關(guān)注,輸出256×56×56的特征圖。

        1.4 ATD-CNN模型運(yùn)行流程

        ATD-CNN模型運(yùn)行流程見(jiàn)圖1。首先,將原始檢測(cè)圖像輸入基本主干網(wǎng)絡(luò)ResNet50,結(jié)合注意力機(jī)制,改變網(wǎng)絡(luò)內(nèi)部結(jié)構(gòu),計(jì)算圖像內(nèi)部特征點(diǎn)之間的長(zhǎng)距離相關(guān)系數(shù),獲得特征圖F′,有效解決卷積神經(jīng)網(wǎng)絡(luò)生成的特征圖之間相關(guān)性較弱的問(wèn)題。其次,RPN網(wǎng)絡(luò)接收特征圖,生成多個(gè)尺寸的錨框。再次,將這些錨框發(fā)送給ROIPooling層網(wǎng)絡(luò),通過(guò)統(tǒng)一尺寸、最大池化等生成特征映射。最后,將特征映射輸入全連接層,輸出邊界框坐標(biāo)。

        2 模型訓(xùn)練

        2.1 數(shù)據(jù)來(lái)源和預(yù)處理

        2.1.1 數(shù)據(jù)來(lái)源

        研究區(qū)域?yàn)楹幽鲜∴嵵菔谢轁?jì)區(qū)南裹頭黃河沿岸,地理位置為北緯34°40′至34°52′,東經(jīng)113°31′至113°43′。該區(qū)域氣候?yàn)榕瘻貛О霛駶?rùn)大陸性氣候,年降水比較充沛,主要集中在夏季,受季風(fēng)和地形的影響,降水分布不均,可能導(dǎo)致洪澇災(zāi)害,夏季防汛任務(wù)艱巨。

        在相同實(shí)驗(yàn)環(huán)境下驗(yàn)證ATD-CNN模型的有效性。由于缺少研究區(qū)域黃河水面目標(biāo)檢測(cè)開源數(shù)據(jù)集,因此采用輕小型大疆Phantom4RTK四旋翼可見(jiàn)光無(wú)人機(jī)自行采集數(shù)據(jù)。該無(wú)人機(jī)具有攜帶便捷、對(duì)場(chǎng)地要求低等特點(diǎn)。無(wú)人機(jī)內(nèi)置RTK模塊與軟件,可實(shí)現(xiàn)三維坐標(biāo)信息、飛行姿態(tài)等的快速獲取,能夠以厘米級(jí)的精確度確定位置,滿足高精度作業(yè)要求。將Phantom4Advanced相機(jī)搭載到無(wú)人機(jī)云臺(tái)上,同時(shí)安裝一臺(tái)大小為1英寸、像素為2000萬(wàn)的影像傳感器進(jìn)行航拍。拍攝影像包含紅綠藍(lán)波段,輸出圖像為RGB格式,共拍攝生成2000張漂浮物圖像,拍攝高度為50~100m,在同一個(gè)季節(jié)進(jìn)行數(shù)據(jù)采集。為提高數(shù)據(jù)的多樣性,又通過(guò)網(wǎng)絡(luò)收集、手機(jī)拍攝河道水面漂浮物進(jìn)一步獲取數(shù)據(jù)??紤]的典型應(yīng)用場(chǎng)景主要為生活垃圾污染場(chǎng)景,對(duì)不同視角、不同光線照射的多目標(biāo)進(jìn)行采集,共采集圖像2400張,每個(gè)圖像包含1~4個(gè)檢測(cè)目標(biāo)。檢測(cè)目標(biāo)類別包括ball(球)、grass(野草)、bottle(塑料瓶)、branch(樹枝)、milk-box(牛奶盒)、plastic-bag(塑料袋)、plastic-garbage(塑料垃圾)、leaf(落葉),考慮到類別均衡性對(duì)實(shí)驗(yàn)結(jié)果的影響,數(shù)據(jù)集中包含的8個(gè)檢測(cè)目標(biāo)的圖像占比基本保持一致。此外,受硬件設(shè)備限制,首先將無(wú)人機(jī)拍攝的圖像進(jìn)行裁剪處理,然后再輸入網(wǎng)絡(luò)結(jié)構(gòu),裁剪后圖像像素大小為256×256。

        2.1.2 數(shù)據(jù)預(yù)處理

        2)數(shù)據(jù)增強(qiáng)。訓(xùn)練深度學(xué)習(xí)模型需要大量數(shù)據(jù),但數(shù)據(jù)收集和標(biāo)注成本過(guò)高,能夠標(biāo)注訓(xùn)練的樣本數(shù)量通常很小,在此情況下,會(huì)造成模型過(guò)擬合、泛化能力差[18]。本實(shí)驗(yàn)僅收集到2400個(gè)樣本,雖然每個(gè)樣本的像素范圍很廣,但訓(xùn)練樣本集卻很少。數(shù)據(jù)增強(qiáng)可以在不增加成本的情況下擴(kuò)充數(shù)據(jù)集,不同的數(shù)據(jù)增強(qiáng)方法會(huì)影響模型最終性能。本文采用垂直翻轉(zhuǎn)、水平翻轉(zhuǎn)和90°旋轉(zhuǎn)進(jìn)行數(shù)據(jù)增強(qiáng),對(duì)每種增強(qiáng)方法以0.5的概率進(jìn)行選擇。以水平翻轉(zhuǎn)為例,其增強(qiáng)效果見(jiàn)圖2。

        3)樣本劃分。使用VOC作為數(shù)據(jù)集標(biāo)注格式。 VOC數(shù)據(jù)集包含Annotations、ImageSets和JPEGImages三部分。Annotations存放標(biāo)注生成的xml文件;JPEGImages存放原始2400張圖像;ImageSets存放train.txt、val.txt、test.txt文本文件,分別為訓(xùn)練集、驗(yàn)證集、測(cè)試集的圖像位置和名稱[19]。采用Labelme軟件標(biāo)注數(shù)據(jù)集。為了評(píng)估模型性能,選取樣本數(shù)據(jù)的80%作為訓(xùn)練集,10%作為驗(yàn)證集,其余10%作為測(cè)試集[20]。

        2.2 訓(xùn)練環(huán)境與參數(shù)設(shè)置

        實(shí)驗(yàn)硬件環(huán)境如下:采用Intel(R)Xeon(R)W-2245CPU,實(shí)際運(yùn)行頻率為3.91GHz,配備Nvidia4090高性能GPU,以滿足深度學(xué)習(xí)模型處理圖像的高要求。配置64G的大容量?jī)?nèi)存,以確保數(shù)據(jù)處理和模型訓(xùn)練流暢。實(shí)驗(yàn)軟件環(huán)境如下:操作系統(tǒng)為Windows10,深度學(xué)習(xí)框架為Pytorch,安裝CUDA10.1,以提高深度學(xué)習(xí)模型的訓(xùn)練速度。

        為提升模型訓(xùn)練精度,采用梯度下降法(SGD)優(yōu)化模型權(quán)重[21],設(shè)置權(quán)重衰減系數(shù)為0.0001,動(dòng)量為0.9,初始學(xué)習(xí)率為0.02。

        2.3 困難樣本挖掘

        考慮到可能存在訓(xùn)練樣本類別不均衡的問(wèn)題,采用隨機(jī)困難樣本挖掘方法(RHEM)[22]在訓(xùn)練過(guò)程中隨機(jī)選擇一部分樣本,從中挑選出最難識(shí)別的樣本進(jìn)行重點(diǎn)學(xué)習(xí)。該方法相較于其他方法的計(jì)算復(fù)雜度低。具體流程如下:使用初始訓(xùn)練數(shù)據(jù)集訓(xùn)練模型,得到初步參數(shù);在每個(gè)訓(xùn)練批次中,隨機(jī)選擇一部分樣本進(jìn)行訓(xùn)練;對(duì)于所選樣本,使用當(dāng)前模型計(jì)算每個(gè)樣本的損失值;根據(jù)損失值對(duì)樣本進(jìn)行排序,選擇損失值較大的前n(通常是預(yù)先設(shè)定的超參數(shù))個(gè)樣本作為困難樣本,基于困難樣本進(jìn)行反向傳播和模型參數(shù)更新;重復(fù)上述步驟,直至達(dá)到訓(xùn)練迭代次數(shù)或者滿足停止條件。

        3 實(shí)驗(yàn)結(jié)果分析

        3.1 模型準(zhǔn)確性

        使用多個(gè)指標(biāo)評(píng)估模型的準(zhǔn)確性,分別為平衡F分?jǐn)?shù)(F1Score)、查準(zhǔn)率、查全率、平均精度(AP)和mAP。F1Score用來(lái)衡量模型精確度,可以看作模型查準(zhǔn)率和查全率的加權(quán)平均,其最大值為1、最小值為0[23]。查準(zhǔn)率是模型預(yù)測(cè)為正例的樣本中實(shí)際樣本為正例的占比,用來(lái)衡量模型在正類預(yù)測(cè)中的準(zhǔn)確性。查全率是指實(shí)際為正例的樣本中被模型正確預(yù)測(cè)為正例樣本的比例,用來(lái)衡量模型對(duì)正例樣本的覆蓋能力。查全率提高時(shí),查準(zhǔn)率通常會(huì)降低;反之亦然。AP基于查準(zhǔn)率—查全率關(guān)系曲線計(jì)算得到,反映模型在所有可能閾值的平均性能。mAP是各類別AP的平均值,表示模型的綜合性能。

        ATD-CNN模型與FasterR-CNN改進(jìn)模型的F1Score對(duì)比見(jiàn)圖3。對(duì)于各種類別,ATD-CNN模型在不同置信度的F1Score值均稍大于FasterR-CNN改進(jìn)模型的,ATD-CNN模型的F1Score平均值比FasterR-CNN改進(jìn)模型的提升了2%。

        ATD-CNN模型與FasterR-CNN改進(jìn)模型的查準(zhǔn)率—查全率關(guān)系曲線見(jiàn)圖4。ATD-CNN模型的查準(zhǔn)率—查全率關(guān)系曲線與坐標(biāo)軸的包圍面積大于Faster R-CNN改進(jìn)模型的,表明ATD-CNN模型檢測(cè)水面漂浮物時(shí)準(zhǔn)確性更高。

        YOLOv5由Ultralytics公司于2020年推出,是一種單階段目標(biāo)檢測(cè)模型。根據(jù)網(wǎng)絡(luò)結(jié)構(gòu)的深度和寬度,將其分為YOLOv5S、YOLOv5M、YOLOv5L和YOLOv5X,其中YOLOv5X深度和寬度最大,擁有最強(qiáng)的學(xué)習(xí)能力和最高的檢測(cè)精度,適用于對(duì)精度要求極高的場(chǎng)景。本文對(duì)比了ATD-CNN模型、FasterR-CNN改進(jìn)模型、YOLOv5X模型的查全率、AP50(交并比為0.5時(shí)的平均精度),結(jié)果見(jiàn)表1。對(duì)于grass、branch、plastic-garbage、ball的檢測(cè),ATD-CNN模型的AP50值大于YOLOv5X模型的。除檢測(cè)grass、ball外,ATD-CNN模型的AP50值均大于FasterR-CNN改進(jìn)模型的。此外,計(jì)算可得ATD-CNN、YOLOv5X、FasterR-CNN改進(jìn)模型的mAP值分別為0.515、0.500、0.480,與YOLOv5X、FasterR-CNN改進(jìn)模型相比,ATD-CNN模型的mAP值分別提升了2.91%、6.80%,說(shuō)明ATD-CNN模型的檢測(cè)較為全面。

        3.2 模型在實(shí)際場(chǎng)景中的檢測(cè)效果

        在實(shí)際場(chǎng)景中ATD-CNN模型與FasterR-CNN改進(jìn)模型的目標(biāo)檢測(cè)效果對(duì)比見(jiàn)圖5(篇幅有限,僅展示部分結(jié)果,圖中方框上方英文為檢測(cè)目標(biāo)類別,數(shù)字為置信度),選取3張水面漂浮物局部原始圖像[見(jiàn)圖5(a)第1行],第2~4行分別為對(duì)照標(biāo)簽、ATD-CNN模型檢測(cè)圖、FasterR-CNN改進(jìn)模型檢測(cè)圖。第1行原始圖片中存在多個(gè)目標(biāo),而FasterR-CNN改進(jìn)模型存在漏檢現(xiàn)象,只檢測(cè)到塑料瓶,對(duì)于最下方的牛奶盒沒(méi)有檢測(cè)出來(lái)。第2行圖像,F(xiàn)asterR-CNN改進(jìn)模型未能正確檢測(cè)落葉。第3行圖像光照弱,拍攝對(duì)象比較模糊,兩種模型檢測(cè)效果相當(dāng),但ATD-CNN模型檢測(cè)置信度高于FasterR-CNN改進(jìn)模型的。綜上,ATD-CNN模型對(duì)水面漂浮物的漏檢率明顯下降,尤其對(duì)于水面漂浮特征不明顯的樹枝也能有效識(shí)別,充分展示了模型融合注意力機(jī)制的優(yōu)勢(shì)。

        4 結(jié)束語(yǔ)

        提出ATD-CNN模型對(duì)河南省鄭州市惠濟(jì)區(qū)南裹頭黃河沿岸水面漂浮物進(jìn)行檢測(cè),通過(guò)將注意力模塊嵌入基本主干網(wǎng)絡(luò),計(jì)算特征圖內(nèi)部特征點(diǎn)之間的長(zhǎng)距離相關(guān)系數(shù),對(duì)顯著性特征進(jìn)行了有效增強(qiáng)。采用水平翻轉(zhuǎn)、垂直翻轉(zhuǎn)和90°旋轉(zhuǎn)方法對(duì)數(shù)據(jù)進(jìn)行增強(qiáng)。應(yīng)用情況表明,與FasterR-CNN改進(jìn)模型相比,ATD-CNN模型的mAP值提升了6.80%,F(xiàn)1Score平均值提升了2%,即ATD-CNN模型檢測(cè)水面漂浮物的有效性和精度較高,可用于黃河水面漂浮物檢測(cè)。

        參考文獻(xiàn):

        [1] 王軍,王超梁,趙雪專.黃河流域生態(tài)環(huán)境監(jiān)測(cè)WSN路由優(yōu)化方法研究[J].人民黃河,2021,43(6):159-162.

        [2] 王軍.新一代信息技術(shù)促進(jìn)黃河流域生態(tài)保護(hù)和高質(zhì)量發(fā)展應(yīng)用研究[J].人民黃河,2021,43(3):6-10.

        [3] 李洪彬,許衛(wèi)光,顧磊,等.城鄉(xiāng)河網(wǎng)清漂設(shè)備發(fā)展[J].機(jī)電設(shè)備,2010,27(6):29-33.

        [4] 蔡瑩,唐祥甫,蔣文秀.河道漂浮物對(duì)工程影響及研究現(xiàn)狀[J].長(zhǎng)江科學(xué)院院報(bào),2013,30(8):84-89.

        [5] 蔡瑩,李章浩,李利,等.河道型水庫(kù)漂浮物綜合治理措施探究[J].長(zhǎng)江科學(xué)院院報(bào),2010,27(12):31-35.

        [6] 許立巍,郭德欽.漓江水面漂浮物情況調(diào)查及處理方式分析[J].輕工科技,2013,29(6):128-129.

        [7] MOORECJ.SyntheticPolymersintheMarineEnvironment:ARapidlyIncreasing,Long?TermThreat[J].EnvironRes,2008,108(2):131-139.

        [8] JUNGRT,SUNGHG,CHUNTB,etal.PracticalEngineer? ingApproachesandInfrastructuretoAddresstheProblemof MarineDebrisinKorea[J].MarPollutBull,2010,60(9):1523-1532.

        [9] CHENCL,LIUTK.FilltheGap:DevelopingManagement StrategiestoControlGarbagePollutionfromShingVessels[J].MarinePolicy,2013,40:34-40.

        [10] 劉世與.基于目標(biāo)跟蹤的全方位視覺(jué)自引導(dǎo)車動(dòng)態(tài)定位技術(shù)[D].天津:天津理工大學(xué),2008:1-11.

        [11] 劉偉.一種基于智能相機(jī)的機(jī)器視覺(jué)系統(tǒng)的設(shè)計(jì)[J].重慶工商大學(xué)學(xué)報(bào)(自然科學(xué)版),2013,30(11):66-69.

        [12] 周俊鋒.基于機(jī)器視覺(jué)的水面垃圾自動(dòng)監(jiān)測(cè)算法的研究[J].廣西輕工業(yè),2011,27(2):86,88.

        [13] 項(xiàng)新建,翁云龍,謝建立,等.基于改進(jìn)YOLOv5s的水面漂浮物檢測(cè)算法研究[J].人民黃河,2024,46(7):85-91.

        [14] 王軍,崔云燁,張宇航.世界模型研究綜述[J].鄭州大學(xué)學(xué)報(bào)(理學(xué)版),2024,56(5):1-12.

        [15] 王軍,高梓勛,朱永明.基于CNN-LSTM模型的黃河水質(zhì)預(yù)測(cè)研究[J].人民黃河,2021,43(5):96-99,109.

        [16] RENSQ,HEKM,ROSSG,etal.FasterR?Cnn:Towards Real?TimeObjectDetectionwithRegionProposalNetworks[J].IEEETransPatternAnalMachIntell,2017,39(6):1137-1149.

        [17] 王軍.黃河流域空天地一體化大數(shù)據(jù)平臺(tái)架構(gòu)及關(guān)鍵技術(shù)研究[J].人民黃河,2021,43(4):6-12.

        [18] 王軍,馬小越,張宇航,等.基于SSA-LSTM模型的黃河水位預(yù)測(cè)研究[J].人民黃河,2023,45(9):65-69.

        [19] 項(xiàng)偉康,周全,崔景程,等.基于深度學(xué)習(xí)的弱監(jiān)督語(yǔ)義分割方法綜述[J].中國(guó)圖象圖形學(xué)報(bào),2024,29(5):1146-1168.

        [20] 王軍,高梓勛,單春意.基于TCN-Attention模型的多變量黃河徑流量預(yù)測(cè)[J].人民黃河,2022,44(11):20-25.

        [21] 張欣蕊.基于隱式隨機(jī)梯度下降法的研究[D].長(zhǎng)春:吉林大學(xué),2019:9-12.

        [22] 郭璐,劉斌,李維剛,等.基于困難樣本對(duì)激勵(lì)的小樣本圖像分類方法[J].計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào),2024,36(6):895-903.

        [23] 馮軍.基于注意力機(jī)制與多尺度殘差網(wǎng)絡(luò)結(jié)構(gòu)的目標(biāo)檢測(cè)算法研究[D].開封:河南大學(xué),2020:23-35.

        【責(zé)任編輯 栗 銘】

        猜你喜歡
        目標(biāo)檢測(cè)卷積神經(jīng)網(wǎng)絡(luò)注意力
        讓注意力“飛”回來(lái)
        “揚(yáng)眼”APP:讓注意力“變現(xiàn)”
        視頻中目標(biāo)檢測(cè)算法研究
        軟件(2016年4期)2017-01-20 09:38:03
        基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識(shí)別算法
        行為識(shí)別中的人體運(yùn)動(dòng)目標(biāo)檢測(cè)方法
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
        軟件工程(2016年8期)2016-10-25 15:47:34
        A Beautiful Way Of Looking At Things
        移動(dòng)機(jī)器人圖像目標(biāo)識(shí)別
        基于卷積神經(jīng)網(wǎng)絡(luò)的樹葉識(shí)別的算法的研究
        97久久久久国产精品嫩草影院| 99久久人妻无码精品系列| 少妇高潮惨叫正在播放对白| 久久久国产精品樱花网站| 一本大道综合久久丝袜精品| 高清日韩av在线免费观看| 曰韩亚洲av人人夜夜澡人人爽| 无码欧亚熟妇人妻AV在线外遇 | 国产精品亚洲A∨天堂不卡| 中文字幕一区二区三区喷水| 国产激情视频免费在线观看| 好看的欧美熟妇www在线| 亚洲日韩精品欧美一区二区三区不卡| 蜜桃色av一区二区三区麻豆| 狠狠躁夜夜躁av网站中文字幕| 国产在视频线精品视频| 91短视频在线观看免费| 国产丝袜长腿在线看片网站| 亚洲av香蕉一区区二区三区| 国产午夜三级一区二区三| 91精品欧美综合在线观看| 人妻经典中文字幕av| 国产精品www夜色视频| 老男人久久青草AV高清| 日韩女同一区二区三区久久| 免费a级毛片高清在钱| 久久人人爽天天玩人人妻精品| 亚洲VR永久无码一区| 亚洲天堂亚洲天堂亚洲色图| 粗大猛烈进出白浆视频| 欧美亚洲国产日韩一区二区三区| 亚洲一区二区三区厕所偷拍 | 蜜桃国产精品视频网站| 亚洲av无码精品国产成人| 欧美一级三级在线观看| 日韩女同一区二区三区久久| 亚洲中字幕日产av片在线| 久久人人爽人人爽人人av东京热| av在线免费观看你懂的| 国产三级久久精品三级91| 全免费a级毛片免费看网站|