亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)YOLOv5的內(nèi)河道船舶檢測方法研究

        2024-01-16 00:00:00丁飛張祥林劉明君
        關(guān)鍵詞:注意力機(jī)制

        摘""要:為解決內(nèi)河航道通航時船舶相互遮擋導(dǎo)致的錯檢和漏檢問題,提出一種基于改進(jìn)YOLOv5模型的內(nèi)河道船舶檢測方法。該方法采用C2f模塊以捕捉和融合多尺度特征,增強(qiáng)低級特征的語義信息;引入Shuffle Attention模塊強(qiáng)化特征表示,使模型能夠聚焦于信息量更大的區(qū)域,并有效抑制無關(guān)特征;同時,采用Wise-IoU損失函數(shù),有效防止低質(zhì)量錨框產(chǎn)生有害梯度,加速模型的優(yōu)化過程。研究結(jié)果表明:改進(jìn)后模型的平均精度mAP@0.5達(dá)到98.9%,mAP@0.5:0.95達(dá)到79.1%,較原YOLOv5模型分別提高了1.2和2.8個百分點(diǎn)。此外,針對數(shù)據(jù)集中的6種船舶分別進(jìn)行實驗,實驗結(jié)果顯示各種船舶的檢測精度均有提升,其中內(nèi)河航道常見的礦砂船的mAP@0.5提升了1.5個百分點(diǎn),mAP@0.5:0.95提升5.9個百分點(diǎn)。研究結(jié)論為內(nèi)河道船舶檢測提供了可靠的技術(shù)支持。

        關(guān)鍵詞:內(nèi)河航道;船舶檢測;YOLOv5模型;注意力機(jī)制;Wise-IoU損失函數(shù)

        中圖分類號:TP391""""""""""""""""""""文獻(xiàn)標(biāo)志碼:A"""""""""""""文章編號:1008-0562(2024)06-0761-08

        Research on ship detection on inland waterways with improved YOLOv5

        DING FeiZHANG Xianglin, LIU Mingjun

        School of Computer and Information Engineering, Fuyang Normal University, Fuyang 236037, China)

        Abstract:"To address the issue of misdetection and missed detection caused by vessel occlusion in inland waterway navigation, this study proposes an inland waterway vessel detection method based on an improved YOLOv5 model."The method incorporates the C2f module to capture and integrate multi-scale features, enhancing the smantic information of low-level features. Additionally, the Shuffle Attention module is introduced to strengthen feature representation, enabling the model to focus on more informative regions while effectively suppressing irelevant features. The Wise-IoU loss function is also employed to prevent low-quality anchor boxes from geneating"harmful gradients, thereby accelerating the optimization process. Experimental results demonstrate that the improved model achieves a mean average precision (mAP@0.5) of 98.9% and an mAP@0.5:0.95"of 79.1%, representing an increase of 1.2 and 2.8 percentage points, respectively, compared to the original YOLOv5 model. Furthermore, experiments conducted on six types of vessels in the dataset reveal that detection accuracy has improved across all vessel types. Notably, for the commonly encountered sand carriers in inland waterways, the mAP@0.5"increased by 1.5 percentage points, and the mAP@0.5:0.95"improved by 5.9 percentage points. These findings provide reliable technical support for inland waterway vessel detection.

        Key words: inland waterway; ship inspection; YOLOv5 model; attention mechanism; Wise-IoU"loss function

        0 "引言

        隨著內(nèi)河航道通航船舶數(shù)量的增加,船舶間相互遮擋現(xiàn)象日益嚴(yán)重,這容易導(dǎo)致船舶的錯檢與漏檢。同時在橋梁施工領(lǐng)域,由于橋梁凈高有限、船舶駕駛員粗心大意或天氣水文等原因,經(jīng)常發(fā)生船舶碰撞橋梁事故[1]。內(nèi)河航道檢測設(shè)施是船舶安全運(yùn)行的關(guān)鍵環(huán)節(jié),可以發(fā)現(xiàn)潛在的碰撞風(fēng)險,及時提醒施工人員采取措施保障水上施工的安全。由于船舶之間存在較高的相似性,使得傳統(tǒng)檢測手段準(zhǔn)確率低,更加劇了船舶的安全通航的難度。因此相關(guān)部門必須利用各類數(shù)字化技術(shù),對內(nèi)河航道中出現(xiàn)的各種問題進(jìn)行及時的監(jiān)測和修復(fù)[2]。傳統(tǒng)內(nèi)河航運(yùn)監(jiān)測以人工為主,技術(shù)為輔,而推動內(nèi)河航運(yùn)高質(zhì)量發(fā)展必須以技術(shù)創(chuàng)新為引領(lǐng),加快新舊動能轉(zhuǎn)換[3]。而依托目標(biāo)檢測技術(shù)的船舶檢測可實現(xiàn)精準(zhǔn)、高效和強(qiáng)魯棒性的實時識別,從而提升船舶調(diào)度效率。

        目前,基于深度學(xué)習(xí)的目標(biāo)檢測算法的發(fā)展主要集中在兩個方向:一是兩階段算法,如R-CNN算法[4]、Faster R-CNN算法[5],檢測準(zhǔn)確度高,但計算復(fù)雜度較高,實時性較差;二是單階段算法,如YOLO系列算法[6-8]、SSD算法[9],優(yōu)勢在于檢測速度快,直接通過回歸方法實現(xiàn)目標(biāo)定位和分類。單階段算法計算效率高,占用資源較少,適合部署在計算能力有限的設(shè)備上,此在實時性要求較高的實際場景中,該算法具有廣泛的應(yīng)用前景。學(xué)者們在船舶檢測算法的研究中也取得了諸多進(jìn)展。文獻(xiàn)[10]在YOLOv3算法中引入空間金字塔池化模塊,豐富特征圖的表達(dá)能力,并使用頻域通道注意力機(jī)制來抑制圖像背景的噪聲。文獻(xiàn)[11]在YOLOv4模型的通道及空間維度上使用卷積注意力機(jī)制模塊(convolutional block attention module,CBAM)搜索特征以提高模型對船舶特征的感知能力。文獻(xiàn)[12]在YOLOv5模型的基礎(chǔ)上,設(shè)計特征補(bǔ)充模塊,獲取淺層細(xì)節(jié)信息并對相鄰的深層檢測層進(jìn)行特征補(bǔ)充,使用矩陣運(yùn)算避免相鄰層間的特征冗余,提升檢測精度,但遮擋目標(biāo)存在像素重疊問題仍未完全解決。文獻(xiàn)[13]驗證了在YOLOv5模型中使用CSP stage替換C3_F特征提取網(wǎng)絡(luò),獲得更多的語義和圖形信息,優(yōu)化邊界框剔除方法,篩選高質(zhì)量檢測特征圖,解決了小目標(biāo)和遮擋目標(biāo)檢測精度低、錯檢、漏檢的問題。

        針對傳統(tǒng)內(nèi)河道船舶檢測方法中常見的錯檢、漏檢以及檢測準(zhǔn)確率低等問題,提出基于改進(jìn)YOLOv5模型的內(nèi)河道船舶檢測方法。將C2f模塊嵌入YOLOv5模型以優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu)提升特征表達(dá)能力和推理效率;將Shuffle Attention模塊嵌入YOLOv5模型以提高模型對目標(biāo)區(qū)域的聚焦能力;通過Wise-IoU策略改進(jìn)IoU損失函數(shù),優(yōu)化邊界框回歸精度。改進(jìn)后的模型簡稱為CSW-YOLOv5模型,這些改進(jìn)為內(nèi)河道船舶檢測提供了更加可靠的技術(shù)參考。

        1""CSW-YOLOv5模型

        CSW-YOLOv5模型結(jié)構(gòu)見圖1。該模型由輸入、主干網(wǎng)絡(luò)、頸部網(wǎng)絡(luò)、預(yù)測網(wǎng)絡(luò)四個部分組成。其中,輸入模塊對圖像進(jìn)行預(yù)處理和數(shù)據(jù)增強(qiáng);主干網(wǎng)絡(luò)負(fù)責(zé)提取圖像特征,提供多尺度特征表示;頸部網(wǎng)絡(luò)通過特征融合增強(qiáng)多尺度目標(biāo)檢測能力;預(yù)測網(wǎng)絡(luò)最終輸出目標(biāo)的類別、邊界框及置信度。首先,在主干網(wǎng)絡(luò)部分引入C2f模塊提取和融合深、淺層次特征,抑制樣本中與船舶無關(guān)的特征,如水面、背景等。其次,在頸部網(wǎng)絡(luò)中采用Shuffle Attention模塊通過交換通道信息優(yōu)化特征表達(dá),使網(wǎng)絡(luò)能夠有效捕捉關(guān)鍵區(qū)域的細(xì)節(jié)。最后,利用Wise-IoU損失函數(shù)優(yōu)化訓(xùn)練過程,提升高質(zhì)量預(yù)測的權(quán)重。

        1.1 "C2f模塊

        C2f模塊參考C3模塊[14]和高效層聚合網(wǎng)絡(luò)(efficient layer aggregation network,ELAN)[15]的設(shè)計思路進(jìn)行設(shè)計。當(dāng)神經(jīng)網(wǎng)絡(luò)的深度堆疊到一定程度后,繼續(xù)堆疊計算塊將導(dǎo)致精度增益越來越小。一旦網(wǎng)絡(luò)深度達(dá)到臨界值,收斂性就會快速惡化,此時,即便神經(jīng)網(wǎng)絡(luò)足夠深,其精度也低于淺層網(wǎng)絡(luò)。ELAN模塊見圖2。ELAN為梯度路徑設(shè)計網(wǎng)絡(luò)的范疇,通過不同長度的分支路徑,對不同層次的特征進(jìn)行融合。

        C2f模塊見圖3。C2f模塊可以對不同尺度大小的特征圖進(jìn)行融合,并對輸入特征圖進(jìn)行卷積、歸一化、激活處理。再使用Split函數(shù)進(jìn)行通道分組,將特征信息進(jìn)行分割,幫助模型更好地捕捉圖像中的多個層次和角度的信息。

        經(jīng)過Split函數(shù)分組后的特征有一部分會進(jìn)入Bottleneck模塊,見圖4。在Bottleneck模塊中,輸入的特征圖經(jīng)過兩個Conv卷積操作后再與輸入的特征圖加權(quán)相加,實現(xiàn)跨層級信息傳遞和低級特征保留。在每個通道組內(nèi)部,Bottleneck模塊執(zhí)行特征交互計算。完成通道內(nèi)的特征交互后,Bottleneck模塊對特征圖進(jìn)行上采樣操作恢復(fù)原始特征圖的空間分辨率,經(jīng)過交互和上采樣操作后的特征圖,其維度與輸入特征圖相同。這樣使得模型能夠更好理解和捕捉檢測目標(biāo)的不同尺度特征,從而提高檢測的準(zhǔn)確性和模型的魯棒性。

        1.2 "Shuffle Attention模塊

        Shuffle Attention模塊使模型能夠準(zhǔn)確地關(guān)注更有意義的特征表示[16]。注意力機(jī)制可以通過學(xué)習(xí)權(quán)重分配方法,對重要性程度不同的特征進(jìn)行賦值,關(guān)聯(lián)不同的特征,使得模型可以有選擇性地聚焦最相關(guān)的部分。Shuffle Attention模塊可以對船舶遮擋區(qū)域的特征進(jìn)行賦值,抑制非船舶遮擋區(qū)域的特征噪聲,減少遮擋時的錯檢率[17]

        Shuffle Attention模塊可將輸入特征分為多個子特征組,引入洗牌操作,對子特征組內(nèi)的特征子集進(jìn)行隨機(jī)排列和重組,以增加模型的非線性能力和表達(dá)能力,幫助模型理解不同尺寸大小船舶特征之間的關(guān)系,減少欠擬合的風(fēng)險。洗牌操作結(jié)束后,Shuffle Attention模塊通過注意力機(jī)制計算特征子集之間的注意力權(quán)重,根據(jù)權(quán)重對每個像素進(jìn)行加權(quán),實現(xiàn)通道級別的信息交互和重組。重組后的像素重新排列和組合,以還原原始特征圖形狀和尺寸,確保特征圖的空間信息和通道信息得到保留。輸出特征圖中的每個像素包含了來自不同通道組內(nèi)的交互和重組信息,以增強(qiáng)特征圖之間的信息傳遞和表達(dá)能力。模型能夠更好地理解每個像素周圍的上下文,這有助于模型識別船舶與其周圍環(huán)境的關(guān)系,從而減少誤檢的可能性。

        1.3 "損失函數(shù)及錨框優(yōu)化

        目標(biāo)檢測算法通常使用交并比(intersection over union,IoU)度量預(yù)測框與真實框之間的重疊程度。IoU示意見圖5,通過兩個框交叉面積比上整體面積來計算IoU,計算見式(1)。

        圖5中,左上部分為真實框(ground truth box),中心坐標(biāo)為(xgt,ygt),右下部分為預(yù)測框(prediction box),中心坐標(biāo)為(x,y),兩部分的中心線段長度表示兩個中心坐標(biāo)的距離,最外側(cè)框為包圍盒(bounding box),Wg,Hg分別表示包圍盒的長和寬。

        ,""""""""""(1)

        式中:Su=wh+wgthgt-WiHi;wh分別為預(yù)測框的長和寬;wgt,hgt分別為真實框的長和寬;i表示第i個包圍盒;Wi,Hi分別表示真實框和預(yù)測框相交部分的長和寬。

        邊界框回歸(bounding-box regression,BBR)的損失函數(shù)對于目標(biāo)檢測至關(guān)重要,通過對預(yù)測的邊界框進(jìn)行微調(diào),使得預(yù)測框能夠更加準(zhǔn)確地對齊真實框。采用LIoU作為BBR損失函數(shù)時,模型能夠很好地平衡不同大小目標(biāo)的學(xué)習(xí),表示為

        。"""""""""(2)

        訓(xùn)練樣本中難以避免地包含低質(zhì)量樣本,當(dāng)錨框與真實框重合時,距離、縱橫比之類的幾何因子就會提高對低質(zhì)量樣本的懲罰,導(dǎo)致模型的泛化能力下降。所以,為減少訓(xùn)練過程中出現(xiàn)類似的干預(yù),使模型具有較好的泛化能力,Wise-IoU構(gòu)造了一個距離注意力,得到具有兩層注意力機(jī)制的損失函數(shù)LWIoUv1[18],見式(3)、式(4)。

        ,"(3)

        ,"""""""(4)

        式中:Wg、Hg為最小的包圍盒尺寸;(xy)、(xgt,ygt)分別為預(yù)測框和真實框的中心坐標(biāo);*表示將Wg,Hg從計算圖中分離出來,有效消除阻礙收斂因素。

        LWIoUv3[18]LWIoUv1的基礎(chǔ)之上通過構(gòu)造梯度增益的計算方法來附加聚焦機(jī)制,LWIoUv3使用離群

        β進(jìn)行錨框質(zhì)量評估。βLIoU之比,β

        越小,錨框質(zhì)量越高。在訓(xùn)練早期階段可能會存在低質(zhì)量錨框,設(shè)置動量m在訓(xùn)練早期使低質(zhì)量錨框

        能具有最高的梯度增益,為動量m的訓(xùn)練均值。

        利用β構(gòu)造梯度增益r,由超參數(shù)αδ控制βr之間的映射,表示為

        。"""""""""""(5)

        為了有效地防止低質(zhì)量錨框產(chǎn)生較大的有害梯度,采取離群度較大的錨框分配較小的梯度增

        益,以便BBR聚焦到普通質(zhì)量的錨框上。是動

        態(tài)的,所以錨箱的質(zhì)量劃分標(biāo)準(zhǔn)也是動態(tài)的,這就

        可以使LWIoUV3隨時做出最符合當(dāng)前情況的梯度增益分配,表示為

        。""""""""(6)

        此外,錨框用于表示圖像中可能存在的目標(biāo)位置和尺寸,在內(nèi)河道船舶檢測中,船舶的尺寸和形狀差異較大,因此,應(yīng)根據(jù)內(nèi)河道船舶的尺寸分布和形狀特征來定制錨框,以更好地覆蓋目標(biāo)區(qū)域,提高檢測的準(zhǔn)確性和召回率。

        2""實驗結(jié)果與分析

        2.1 "實驗環(huán)境

        實驗環(huán)境見表1,訓(xùn)練參數(shù)見表2。

        2.2 "數(shù)據(jù)集來源

        CSW-YOLOv5模型訓(xùn)練使用SHAO等[19]提出的SeaShips數(shù)據(jù)集,涵蓋6種常見船型,分別為礦砂船、散貨船、普通貨船、集裝箱船、漁船和客船,以6∶4劃分為訓(xùn)練集和測試集。

        2.3 "評價指標(biāo)

        采用目標(biāo)檢測中常用的精確率P(Precision)、召回率R(Recall)、平均精度mAP@0.5和mAP@0.5:0.95作為性能指標(biāo),對改進(jìn)模型性能進(jìn)行評估。各指標(biāo)計算見式(7)~式(9)。

        ,"""""""""""(7)

        ,"""""""""""(8)

        ,"""""""""(9)

        式中:TP為模型正確檢測到的正樣本數(shù)量;FP為模型錯誤地將負(fù)樣本預(yù)測為正樣本的數(shù)量;FN為模型未能檢測到的正樣本數(shù)量;N為目標(biāo)類別的總數(shù);APi為第i個類別的平均精度;mAP是對所有類別的AP的平均值;mAP@0.5為模型在IoU閾值為0.5時的平均精度;mAP@0.5:0.95是指在IoU閾值從0.5~0.95內(nèi)以0.05為間隔的平均精度,無標(biāo)注IoU閾值則默認(rèn)為0.5。

        2.4 "實驗結(jié)果與分析

        為探究在YOLOv5模型中引入C2f模塊、Shuffle Attention模塊以及Wise-IoU損失函數(shù)的模型性能,設(shè)置5組消融實驗,實驗結(jié)果見表3。

        第一組實驗為基準(zhǔn)模型YOLOv5在SeaShip數(shù)據(jù)集的實驗。第二組實驗基于YOLOv5模型引入C2f模塊(C-YOLOv5),其mAP@0.5提高1.1個百分點(diǎn),mAP@0.5:0.95提高2.5個百分點(diǎn),表明C2f模塊可通過對不同層級特征的融合,提升模型對多尺度目標(biāo)的感知能力。該模塊將低層次的細(xì)節(jié)特征與高層次的語義信息結(jié)合,能夠全面理解圖像中的目標(biāo)特征,增強(qiáng)不同尺度特征的表達(dá),提升多尺寸和復(fù)雜背景下目標(biāo)的檢測精度。

        第三組實驗基于YOLOv5模型引入Shuffle Attention模塊(S-YOLOv5),mAP@0.5提高1.0個百分點(diǎn),mAP@0.5:0.95提高2.0個百分點(diǎn),說明該模塊能夠有效關(guān)注圖像中信息量較大的區(qū)域,并抑制干擾。這種關(guān)注機(jī)制適合于背景高度復(fù)雜的船舶檢測任務(wù),減少漏檢和誤檢現(xiàn)象。第四組實驗基于YOLOv5模型同時引入C2f模塊以及Shuffle"Attention模塊(CS-YOLOv5),與第一組實驗相比,其mAP@0.5提高1.1個百分點(diǎn),mAP@0.5:0.95提高2.7個百分點(diǎn)。

        第五組實驗在第四組實驗的基礎(chǔ)上使用了Wise-IoU損失函數(shù),即本文所建模型,與第一組實驗相比,其mAP@0.5提高了1.2個百分點(diǎn),mAP@0.5:0.95提高了2.8個百分點(diǎn)。Wise-IoU損失函數(shù)進(jìn)一步提升了模型的定位精度,特別是在高重疊目標(biāo)的檢測上,通過優(yōu)化目標(biāo)的邊界回歸,減少定位誤差。三者結(jié)合使得模型在檢測精度、召回率、目標(biāo)定位等多個方面均得到了顯著提升,最終在船舶檢測任務(wù)中表現(xiàn)出最佳的綜合性能。

        圖6展示了YOLOv5、YOLOv5、C-YOLOv5、S-YOLOv5、CS-YOLOv5、CSW-YOLOv5在模型訓(xùn)練過程中損失量Loss值迭代結(jié)果。從圖6可以看出,YOLOv5模型的Loss值在訓(xùn)練過程中出現(xiàn)大幅度的振蕩,這表明YOLOv5模型可能出現(xiàn)過擬合現(xiàn)象,難以收斂。CS-YOLOv5模型的Loss值在訓(xùn)練過程中平穩(wěn)下降,這表明C2f模塊和Shuffle Attention模塊能有效融入YOLOv5模型中,并能提取不同尺度的特征進(jìn)行融合,提高處理不同大小目標(biāo)的能力,自適應(yīng)學(xué)習(xí)特征圖,將注意力限制船舶區(qū)域附近,抑制無關(guān)特征從而提升YOLOv5模型的性能。與CS-YOLOv5模型相比,CSW-YOLOv5模型的Loss值在訓(xùn)練初期下降速度更快、迭代次數(shù)更少,驗證了Wise-IoU在訓(xùn)練早期的梯度增益策略能夠有效防止低質(zhì)量錨框產(chǎn)生有害梯度,提升模型尋優(yōu)速度。

        為了驗證當(dāng)前模型的檢測效果,采用SSD、Faster R-CNN、YOLOv3、YOLOv5、YOLOv7與CSW-YOLOv5模型共同基于Seaship(7"000)數(shù)據(jù)集進(jìn)行測試對比分析,測試結(jié)果見表4。從評價指標(biāo)上可以看出,相較于SSD、Faster R-CNN、YOLOv3、YOLOv5、YOLOv7模型,CSW-YOLOv5模型在檢測精度上有所領(lǐng)先,具有更好的檢測性能。

        CSW-YOLOv5模型、YOLOv5模型以及文獻(xiàn)[19]中的模型對6種船舶的檢測精度對比,見表5。文獻(xiàn)[19]中僅列出AP@0.5數(shù)值??梢钥闯?,CSW-YOLOv5模型可以不同程度地提升6種船舶的檢測精度。

        為了驗證YOLOv5和CSW-YOLOv5模型在實際場景下的檢測效果,針對有霧、復(fù)雜背景、多尺寸、遮擋、漏檢、錯檢場景下的船舶圖像進(jìn)行比對測試,結(jié)果見圖7。圖7中,每個圖的上側(cè)為YOLOv5模型的檢測結(jié)果,下側(cè)為CSW-YOLOv5模型的檢測結(jié)果。

        由圖7(a)可見,與YOLOv5相比,在有霧天氣下,CSW-YOLOv5模型不僅能夠正確地檢測出船舶類型,而且檢測精度提升了近10個百分點(diǎn),表明了CSW-YOLOv5模型的抗干擾能力優(yōu)于YOLOv5。由圖7(b)可知,在復(fù)雜背景下CSW-YOLOv5模型在對特征的理解程度上優(yōu)于YOLOv5,能夠正確定位和分類目標(biāo)。由圖7(c)可見,多尺寸條件下YOLOv5模型檢測出現(xiàn)了多余的檢測框,CSW-YOLOv5模型能夠正確地檢測出船舶數(shù)量,表明CSW-YOLOv5模型能夠充分捕捉目標(biāo)特征,適應(yīng)多尺寸目標(biāo)檢測任務(wù)。由圖7(d)可知,在礦砂船被散貨船遮擋情況下,YOLOv5模型雖然能夠正確檢測出船舶的類型,但礦砂船的預(yù)測框顯然與真實框有所偏離。CSW-YOLOv5模型對礦砂船的預(yù)測框更加貼近真實框,而且也能提高對兩種船舶的檢測精度。由圖7(e)可知,YOLOv5模型在檢測時出現(xiàn)了漏檢,而CSW-YOLOv5模型能夠有效地檢測出散貨船。由圖7(f)可知,YOLOv5模型將散貨船檢測成漁船,造成錯檢,而CSW-YOLOv5模型能夠準(zhǔn)確地檢測出該船舶為散貨船。

        3 "結(jié)論

        (1)通過引入C2f模塊、Shuffle Attention模塊和Wise-IoU損失函數(shù),優(yōu)化了YOLOv5模型的多尺度特征融合和注意力機(jī)制,提高了內(nèi)河航道船舶檢測任務(wù)的精度和魯棒性。

        (2)在對內(nèi)河航道船舶檢測中遮擋、錯漏檢等問題進(jìn)行深入分析的基礎(chǔ)上,改進(jìn)后的模型在精確率、召回率和mAP等指標(biāo)上均有一定提升,證明了提出方法的有效性和應(yīng)用價值。

        (3)通過實驗驗證,CSW-YOLOv5模型與YOLOv5模型相比,在處理復(fù)雜背景和船舶遮擋的場景下表現(xiàn)出更強(qiáng)的檢測能力,提升了模型在實際應(yīng)用中的性能和穩(wěn)定性。

        (4)未來的工作將進(jìn)一步提高模型在復(fù)雜天氣背景下的檢測精度,并結(jié)合其他深度學(xué)習(xí)技術(shù),提升船舶檢測模型的整體性能。

        參考文獻(xiàn)(References):

        [1] 覃東明.通航橋梁防船撞智能監(jiān)測預(yù)警系統(tǒng)設(shè)計[J].西部交通科技,2023(8):130-132,205.

        QIN"Dongming.Design of intelligent"monitoring and warning system for ship collision prevention in navigation bridges[J].Western China Communications Science amp; Technology,2023(8):130-132,205.

        [2] 鄧遠(yuǎn)經(jīng).基于數(shù)字航道技術(shù)的內(nèi)河航道管理應(yīng)用探究[J].珠江水運(yùn),2023,(17):20-22.

        DENG Yuanjing.Research on the Application of Digital waterway technology in inland river waterway management[J].Pearl River"Water,2023,(17):20-22.

        [3] 王會超,李桂萍.推動內(nèi)河航運(yùn)高質(zhì)量發(fā)展的新動能研究[J].中國水運(yùn),2023,23(9):9-10.

        WANG Huichao,LI Guiping.Research on new driving forces for promoting high-quality development of inland waterway shipping[J].China Water Transport,2023,23(9):9-10.

        [4] GIRSHICK R,DONAHUE J,DARRELL T,et al.Rich feature hierarchies for accurate object detection and semantic segmentation[C]//2014 IEEE Conference on Computer Vision and Pattern Recognition.June 23-28,"2014,Columbus,OH,USA.IEEE,2014:580-587.

        [5] REN S"Q,HE K"M,GIRSHICK R,et al.Faster R-CNN:towards real-time object detection with region proposal networks[J].IEEE Transactions on Pattern Analysis and"Machine Intelligence,2017,39(6):1137-1149.

        [6] REDMON J,DIVVALA S,GIRSHICK R,et al.You only look once:unified,"real-time object detection[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition.June 27-30,2016,Las Vegas,NV,USA.IEEE,2016:"779-788.

        [7] REDMON J,F(xiàn)ARHADI A.YOLO9000:better,faster,stronger[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition.July 21-26,2017,Honolulu,HI,USA.IEEE,2017:6517-6525.

        [8] Farhadi A,Redmon J.Yolov3:an incremental improvement[EB/OL]."(2018-04-08)[2023-12-11].https://doi.org/10.48550/arXiv.1804.02767.

        [9] LIU W,ANGUELOV D,ERHAN D,et al.SSD:single shot multibox detector[C]//Proceedings of Computer Vision-ECCV 2016:14th European Conference,October 8-16,2016,Amsterdam,Netherlands.Berlin/Heidelberg,"Germany:Springer,2016:21-37.

        [10] 葉樂,李朝鋒.基于頻域通道注意力的YOLOv3網(wǎng)絡(luò)的霧天海洋圖像船舶檢測[J].上海海事大學(xué)學(xué)報,2023,44(2):18-24.

        YE Le,LI Chaofeng.Frequency channel attention-based YOLOv3"network for ship detection from foggy marine images[J].Journal of Shanghai Maritime University,2023,44(2):18-24.

        [11] YE Y"D,ZHEN R,SHAO Z"P,et al.A novel intelligent ship detection method based on attention mechanism feature enhancement[J].Journal of Marine Science and Engineering,2023,11(3):625.

        [12] 劉碩,葛愿,李媛媛,等.基于改進(jìn)SSD的無人船海上船舶識別算法[J].傳感器與微系統(tǒng),2021,40(2):120-123.

        LIU Shuo,GE Yuan,LI Yuanyuan,et al.Recognition algorithm of unmanned ship at sea based on improved SSD[J].Transducer and Microsystem Technologies,2021,40(2):120-123.

        [13] CHEN P,LI Y,ZHOU H,et al.Detection of small ship objects using anchor boxes cluster and feature pyramid network model for SAR"imagery[J].Journal of Marine Science and Engineering,2020,8(2):112.

        [14] ZHU X K,LYU S C,WANG X,et al.TPH-YOLOv5:improved YOLOv5 based on transformer prediction head for object detection on drone-captured scenarios[C]//2021 IEEE/CVF International Conference on Computer Vision Workshops.October 11-17,2021,Montreal,BC,Canada."IEEE,2021:2778-2788.

        [15] WANG C Y,LIAO H Y M,YEH I H.Designing network design strategies through gradient path analysis[EB/OL].(2022-11-09)[2023- 12-11].https://arxiv.org/abs/2211.04800.

        [16] SUN L,HE M,WANG N B,et al.Improving autoencoder by mutual"information maximization and shuffle attention for novelty"detection[J]."Applied Intelligence,2023,53(14):17747-17761.

        [17] ZHANG Q L,YANG Y B.SA-net:shuffle attention for deep convolutional neural networks[C]//ICASSP 2021-2021 IEEE International Conference on Acoustics,Speech and Signal Processing.June 6-11,2021,Toronto,ON,"Canada.IEEE,2021:2235-2239.

        [18] TONG Zanjia,CHEN Yuhuang,XU Zewei,et al.Wise-IoU:bounding box regression loss with dynamic focusing mechanism[EB/OL].(2023-"04-08)[2023-12-11].https://doi.org/10.48550/arXiv.2301.10051.

        [19] SHAO Z F,WU W J,WANG Z Y,et al.Seaships:a large-scale"precisely annotated"dataset for ship detection[J].IEEE Transactions on Multimedia,2018,20(10):2593-2604.

        猜你喜歡
        注意力機(jī)制
        基于注意力機(jī)制的行人軌跡預(yù)測生成模型
        基于注意力機(jī)制和BGRU網(wǎng)絡(luò)的文本情感分析方法研究
        多特征融合的中文實體關(guān)系抽取研究
        基于序列到序列模型的文本到信息框生成的研究
        基于深度學(xué)習(xí)的手分割算法研究
        從餐館評論中提取方面術(shù)語
        面向短文本的網(wǎng)絡(luò)輿情話題
        基于自注意力與動態(tài)路由的文本建模方法
        基于深度學(xué)習(xí)的問題回答技術(shù)研究
        基于LSTM?Attention神經(jīng)網(wǎng)絡(luò)的文本特征提取方法
        精品国产偷窥一区二区| 日韩精品中文字幕免费人妻| 中文字幕无码免费久久99| 国产内射视频免费观看| 精品久久亚洲中文字幕| 97人人超碰国产精品最新| 91视频香蕉| 国产精品女同一区二区久| 9久久婷婷国产综合精品性色| 无码va在线观看| 亚洲va在线va天堂va手机| 韩国免费一级a一片在线| 久久一二区女厕偷拍图| 久久性爱视频| 精品国产乱码久久久久久口爆网站| 亚洲AV成人片色在线观看高潮| 亚洲一区日本一区二区| 极品尤物人妻堕落沉沦| 亚洲性啪啪无码av天堂| 国产原创精品视频| 日产一区一区三区区别| 亚洲中文字幕久久精品蜜桃| 成熟丰满熟妇高潮xxxxx| 色窝窝手在线视频| 国产精品黄色在线观看| 一 级做人爱全视频在线看| 国产乱人伦在线播放| 青青草视频网站免费观看| 大香蕉青青草视频在线| 亚洲精品www久久久久久| 性动态图av无码专区| 91久久综合精品国产丝袜长腿 | 精品久久人妻av中文字幕| 337p人体粉嫩胞高清视频| 国产成人国产在线观看入口| 99久久免费精品色老| 久久久国产精品无码免费专区| 亚洲精品乱码8久久久久久日本| 欧美老妇与禽交| 国产一区二区三区观看视频| 国产女主播福利在线观看|