亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        水下復(fù)雜環(huán)境高效魯棒目標(biāo)檢測方法

        2024-01-03 16:03:12葛錫云張崇丙李曉偉
        艦船科學(xué)技術(shù) 2023年22期
        關(guān)鍵詞:高精度特征提取尺度

        葛錫云,張崇丙,李曉偉,李 錦

        (1. 中國船舶科學(xué)研究中心 江蘇 無錫 214082;2. 深海技術(shù)科學(xué)太湖實(shí)驗(yàn)室 江蘇 無錫 214082)

        0 引 言

        水下目標(biāo)檢測在海洋軍事應(yīng)用、水下救援、水產(chǎn)養(yǎng)殖等領(lǐng)域中發(fā)揮著愈加重要的作用[1]。但由于水下環(huán)境復(fù)雜、光線昏暗且模糊多噪聲,水下光學(xué)圖像色域偏移和圖像失真等問題較為嚴(yán)重,這非常不利于檢測網(wǎng)絡(luò)進(jìn)行推理,通用的目標(biāo)檢測方法很難保證在視覺退化的水下環(huán)境中高精度實(shí)時魯棒地檢測水下多尺度目標(biāo)。此外,水下目標(biāo)檢測算法常搭載水下機(jī)器人一起使用,在嵌入式移植的過程中對算法的實(shí)時性提出了更高要求。因此,研究一種檢測水下目標(biāo)的理論和方法,以實(shí)現(xiàn)高精度實(shí)時檢測,并增強(qiáng)其在復(fù)雜水下環(huán)境中的檢測魯棒性,對于在視覺退化的水下環(huán)境中,推動水下多尺度目標(biāo)的有效識別及探測具有非常深遠(yuǎn)的影響。

        目標(biāo)檢測算法中,對水下目標(biāo)的檢測研究方法一般可分為傳統(tǒng)的水下目標(biāo)檢測算法和基于深度學(xué)習(xí)的水下目標(biāo)檢測算法兩大類。傳統(tǒng)的水下目標(biāo)檢測算法通常采用人工設(shè)計的特征提取方法[2-3]提取圖像特征,然后使用支持向量機(jī)[4](Support Vector Machine,SVM)等分類器實(shí)現(xiàn)目標(biāo)的分類和檢測。Fabic 等[5]設(shè)計了基于形狀分類的算法,利用斑點(diǎn)計數(shù)法和形狀分析法對水下視頻序列中的魚類進(jìn)行分類,雖針對魚類的檢測精度較高,但其通用性差,無法遷移至其他水下場景。Olivern 等[6]利用黑森檢測器檢測水下目標(biāo),但當(dāng)水體光照不均勻時算法的性能會迅速衰減,難以保證對于水下目標(biāo)的檢測魯棒性。豐子灝等[7]設(shè)計了一種水下清晰度評估算子,并構(gòu)建相應(yīng)的參數(shù)估計算法以檢測水下圖像中感興趣的區(qū)域。姚潤璐等[8]制定水下圖像各區(qū)域的匹配規(guī)則從而提取關(guān)聯(lián)度更高的水下區(qū)域進(jìn)行目標(biāo)檢測,但其提取過程過于復(fù)雜,不利于大量數(shù)據(jù)的分析。上述傳統(tǒng)水下目標(biāo)算法存在如下問題:首先是特征提取無法進(jìn)行自適應(yīng)提取,且提取的效果高度取決于設(shè)計者的經(jīng)驗(yàn)水準(zhǔn);其次是計算特別復(fù)雜,而且泛化性差,更換其他場景后效果不好。對比之下,以深度學(xué)習(xí)為基礎(chǔ)的目標(biāo)檢測算法可解決上述問題,也可自適應(yīng)提取特征且檢測速度和精度都較高,在水下目標(biāo)檢測領(lǐng)域有著很大的應(yīng)用前景?;谏疃葘W(xué)習(xí)的軌道入侵異物檢測方法可分為兩階段算法[9-11]和單階段算法[12-16]。其中,兩階段檢測方法分為兩步,先生成候選區(qū)域,再進(jìn)行目標(biāo)定位和檢測。王璐等[17]加深了Faster-RCNN[11]主干特征提取網(wǎng)絡(luò)的深度,并結(jié)合數(shù)據(jù)增強(qiáng)算法旨在提升對于水下目標(biāo)的檢測精度。高岳等[18]將Faster-RCNN 候選區(qū)中的特征圖進(jìn)行同尺寸映射,并采用柔性非極大值抑制算法降低水下目標(biāo)的漏檢率。上述兩階段算法的檢測精度較高,但其過于復(fù)雜的計算量導(dǎo)致算法無法滿足在水下環(huán)境中實(shí)時目標(biāo)的實(shí)際檢測需求。單階段檢測方法將分類問題視為回歸問題,直接對圖像中的目標(biāo)進(jìn)行預(yù)測。劉騰等[19]對水下圖像進(jìn)行色彩恢復(fù)后,再使用YOLOv3(You Only Look Once, YOLO)[15]進(jìn)行水下目標(biāo)檢測,雖檢測精度有所提高但其檢測速度較慢,無法滿足實(shí)際應(yīng)用需求。強(qiáng)偉等[20]使用Resnet 和深度可分離卷積對SSD(Single-Shot MultiBox Detector, SSD)[12]進(jìn)行改進(jìn),旨在降低計算量,提升算法的檢測速度,但該算法的檢測精度提升空間較大且在視覺退化等復(fù)雜水下環(huán)境中的檢測魯棒性仍有待驗(yàn)證。劉萍等[21]基于GAN[22]提出一種改進(jìn)YOLOv3 網(wǎng)絡(luò)的海洋生物識別算法,提升了訓(xùn)練數(shù)據(jù)集所包含場景的豐富性,但過于復(fù)雜的圖像生成手段導(dǎo)致算法的檢測速度偏低,無法實(shí)時檢測水下目標(biāo)。綜上所述,水下目標(biāo)檢測算法中的重點(diǎn)問題是,實(shí)現(xiàn)高精度實(shí)時檢測水下目標(biāo)且在復(fù)雜環(huán)境中保持算法的檢測魯棒性。

        針對上述問題,本文對YOLOv5 進(jìn)行改進(jìn),得到一種應(yīng)用于水下目標(biāo)的端到端多尺度檢測網(wǎng)絡(luò)(UWNet),保證了在復(fù)雜的水下環(huán)境中可精準(zhǔn)高效的檢測水下目標(biāo),可以提高水下目標(biāo)檢測速度和檢測魯棒性,同時保證算法的實(shí)時性。該網(wǎng)絡(luò)通過構(gòu)建高精度輕量型特征提取結(jié)構(gòu)(High precision Lightweight Feature Extraction Module, HLM),在降低算法計算量的同時獲取更為豐富的特征信息,使用多尺度特征融合網(wǎng)絡(luò)ASFF[23]和注意力增強(qiáng)機(jī)制(Lightweight Channel Attention Mechanism, LSM)實(shí)現(xiàn)不同尺度水下目標(biāo)特征的自適應(yīng)融合及權(quán)值優(yōu)化,通過聚類算法生成更為精準(zhǔn)的錨框?qū)λ履繕?biāo)預(yù)測的精準(zhǔn)度。本文所提出的模型在棉繩、鋼管、浮筒組成的水下數(shù)據(jù)集上的平均檢測精度和檢測速度分別為95.06% 和139FPS,比YOLOv5s 提升了2.87%和14FPS,能夠滿足實(shí)際復(fù)雜水下環(huán)境中高精度實(shí)時魯棒地檢測水下目標(biāo)的實(shí)際應(yīng)用需求。

        1 模型設(shè)計

        1.1 網(wǎng)絡(luò)總體設(shè)計

        本文所提的多尺度目標(biāo)檢測網(wǎng)絡(luò)借鑒了YOLO 系列目標(biāo)檢測算法,僅需一次前向卷積運(yùn)算即可得到目標(biāo)類別和位置的思想,按端到端來訓(xùn)練模型。圖1 為高精度實(shí)時水下目標(biāo)檢測網(wǎng)絡(luò)模型(UW-Net)的總體結(jié)構(gòu)。首先,輸入圖像通過該網(wǎng)絡(luò)進(jìn)行縮放得到固定分辨率的圖像(如640×640),并使用穩(wěn)定底層特征提取模塊和CSP-Net 構(gòu)建高精度輕量型特征提取結(jié)構(gòu),采用多分支多感受野特征信息提取和整合等方式,在保證算法實(shí)時性的同時提取更為豐富的特征信息;其次,模型的多尺度檢測能力由多特征融合和自適應(yīng)學(xué)習(xí)不同尺度信息的特征權(quán)重來提高;然后,設(shè)計輕量型通道注意力機(jī)制在基本不增加計算負(fù)荷的前提下優(yōu)化不同通道的權(quán)值分配,進(jìn)一步提升多尺度目標(biāo)檢測精度。最后,使用K-means[24]聚類針對水下數(shù)據(jù)集數(shù)據(jù)分布生成最優(yōu)錨框,進(jìn)而提升模型水下目標(biāo)位置預(yù)測的精準(zhǔn)度。

        圖1 高精度實(shí)時水下目標(biāo)檢測網(wǎng)絡(luò)模型(UW-Net)Fig. 1 High precision real-time underwater target detection network model

        1.2 高精度輕量型特征提取結(jié)構(gòu)

        高精度輕量型特征提取結(jié)構(gòu)由穩(wěn)定底層特征提取模塊(Conv_1+Conv_2)和CSP-Net 特征提取網(wǎng)絡(luò)(Conv_3+Conv_5)構(gòu)成,圖2 為穩(wěn)定底層特征提取模塊的結(jié)構(gòu)示意圖。在視覺退化的水下環(huán)境中,水下目標(biāo)的底層紋理、輪廓等特征對后續(xù)識別尤為重要,而卷積核在計算的過程中,隨著特征圖分辨率的不斷減小,圖像底層特征易被破壞。為了在不丟失特征信息的情況下實(shí)現(xiàn)圖像降采樣,本文設(shè)計了一個穩(wěn)定采樣模塊來降低輸入圖像的分辨率并擴(kuò)大特征維度。在Conv_2 中,使用多分支網(wǎng)絡(luò)得到不同感受野的特征提取結(jié)果,通過縮減左分支通道數(shù)使得網(wǎng)絡(luò)更加輕量,使用融合操作對分支網(wǎng)絡(luò)提取出的特征進(jìn)行合并后到更為豐富的底層特征信息,最后特征整合由1×1 卷積實(shí)現(xiàn)。與傳統(tǒng)的低層特征提取方法相比,該模塊在不增加計算負(fù)荷的情況下,實(shí)現(xiàn)了穩(wěn)定的降采樣。將該模塊添加到特征提取網(wǎng)絡(luò)的前端,可在不增加額外計算量甚至降低計算負(fù)荷的情況下,有效提高模型的底層特征表達(dá)能力。

        圖2 穩(wěn)定底層特征提取模塊Fig. 2 Stable feature extraction module for bottom layer

        在穩(wěn)定底層特征提取模塊之后,本文設(shè)計了CSPNet 特征提取網(wǎng)絡(luò)進(jìn)行更為輕量的特征提取,如圖3 所示。以Conv_3 為例,使用2 個不同的通道對輸入特征圖進(jìn)行特征提取,上通道采用先對輸入特征圖降維再使用殘差連接進(jìn)行前向傳播后,使用1×1 卷積整合特征,旨在降低計算量的同時提升模型的特征提取能力;下通道直接使用3×3 卷積提取特征,目的是防止與上通道學(xué)習(xí)重復(fù)的梯度信息。最后,先拼接兩通道的特征,然后進(jìn)行下采樣,由步長為2 的3×3 卷積實(shí)現(xiàn),這樣可以提升模型的特征提取能力且減少計算量。

        圖3 CSP-Net 特征提取網(wǎng)絡(luò)Fig. 3 CSP-Net feature extraction network

        1.3 多尺度特征融合網(wǎng)絡(luò)

        一般來說,受拍攝距離及拍攝角度的影響,水下場景中的待識別目標(biāo)在實(shí)際成像中會不可避免地發(fā)生尺寸大小上的變化,這種變化一般可通過設(shè)計圖像特征金字塔來解決,進(jìn)而可突破特征融合的限制。據(jù)此,提出一種基于ASFF 融合策略的模型,在特征融合模塊預(yù)測層中加入可以自適應(yīng)感受視野的融合結(jié)構(gòu)。通過學(xué)習(xí)不同感受視野下的分支融合權(quán)重來降低目標(biāo)尺度變化造成的定位分類損失,進(jìn)而增強(qiáng)模型的特征表示能力,提高模型對于多尺度水下目標(biāo)的檢測精度和檢測魯棒性。圖4 為融合模型結(jié)構(gòu)圖,首先調(diào)整其他層次的特征尺度,然后進(jìn)行特征融合并對其進(jìn)行訓(xùn)練,獲得融合權(quán)重,進(jìn)而更好地學(xué)習(xí)不同特征尺度對于預(yù)測特征圖的貢獻(xiàn),以實(shí)現(xiàn)某一層特征的融合。

        圖4 多尺度特征融合網(wǎng)絡(luò)Fig. 4 Multi-scale feature fusion network

        在多分支檢測中,不同分支層級的特征具有不同的分辨率和通道數(shù)。在尺度調(diào)整中,為更好地保留圖像空間信息,采用1×1 卷積進(jìn)行通道數(shù)壓縮,同時節(jié)省了部分算力;采用插值方法調(diào)整的尺度分辨率,降低網(wǎng)絡(luò)學(xué)習(xí)難度。針對多倍下采樣,采用卷積和池化的方法。采用3×3 卷積(步長設(shè)置為2)調(diào)整通道數(shù)和分辨率,實(shí)現(xiàn)2 倍下采樣;采用在卷積前添加步長為2 的maxpooling,實(shí)現(xiàn)4 倍下采樣。

        對于模型預(yù)測, ASFF-3 由多個不同尺度的特征進(jìn)行融合得到,其包含的3 個尺度特征分別來自于Level 1、Level 2 和Level 3。

        假設(shè)來自Level 1 部分的為X1→3,模型學(xué)習(xí)到的權(quán)重為 α3;來自Level 2 部分的為X2→3,模型學(xué)習(xí)到的權(quán)重為 β3;來自Level 3 部分的為X3→3,模型學(xué)習(xí)到的權(quán)重為 γ3。ASFF-3 的特征即由最終的3 個尺度的特征進(jìn)行融合得到。令表示由第l層得到的第n層的特征圖上(x,y)處的特征向量,在第l層融合特征的方式:

        1.4 輕量型通道注意力機(jī)制及自適應(yīng)錨框設(shè)定

        受限于水下環(huán)境復(fù)雜多變,網(wǎng)絡(luò)模型極易在進(jìn)行水下光學(xué)圖像特征提取和目標(biāo)框的回歸任務(wù)時出現(xiàn)性能下降情況,并最終表現(xiàn)為漏檢和錯檢。為在保證算法實(shí)時性的同時,進(jìn)一步提升算法對于水下多尺度目標(biāo)的檢測精度,本文設(shè)計了一種輕量型注意力機(jī)制LAM,如圖5 所示。

        圖5 輕量型通道注意力機(jī)制Fig. 5 Lightweight channel attention mechanism

        該注意力機(jī)制采用2 個分支的思路將模型輸入通道進(jìn)行均分,上部分支一的特征提取采用3×3的卷積進(jìn)行,下部分支2 則采用大一些的5×5卷積,從而擴(kuò)大該分支的感受野。為更好地顯示建模通道之間的相互依賴關(guān)系,將不同感受野的特征圖進(jìn)行融合,然后采用自適應(yīng)的方式對通道的特征響應(yīng)重新標(biāo)定,并對通道進(jìn)行注意力篩選,達(dá)到提高檢測精度目的的同時僅增加很少計算量。LAM 輕量型通道注意力機(jī)制的計算過程如下:

        其中:F∈RC×H×W為輸入特征圖;函數(shù)g表示平均池化操作;s1∈RC×1×1為平均池化后的輸出;W1∈RC/16×C為全連接層FC1的參數(shù);s2∈RC/16×1×1為經(jīng)過FC1和ReLU函數(shù)處理后的輸出;W2∈RC×C/16為經(jīng)過全連接層FC2的參數(shù);s3∈RC×1×1表示FC2和H-Sigmoid函數(shù)處理后的輸出。使用H-Sigmoid 旨在避免指數(shù)運(yùn)算過程,加快了模型的檢測速度。

        在模型預(yù)測之前,根據(jù)自身數(shù)據(jù)集數(shù)據(jù)分布特點(diǎn),使用K-means 聚類方法重新生成錨框值。在候選框種類組合的更高吻合度問題上,基于式(7)采用不斷進(jìn)行質(zhì)心迭代的方式進(jìn)行,使候選框?qū)捀呔S度對于目標(biāo)輪廓形狀所擁有先驗(yàn)信息更有代表性,使回歸計算中水下目標(biāo)區(qū)域位置預(yù)測精度更高,從而增加模型檢測精度。改進(jìn)后的錨框具體尺寸和分布如表1 所示。

        表1 改進(jìn)后錨盒的尺寸Tab. 1 Improved dimensions of anchor box

        式中:box為水下目標(biāo)圖像數(shù)據(jù)集中的邊框尺寸樣本;centroid為K-means 聚類算法每一類簇的中心尺寸數(shù)值。

        2 實(shí)驗(yàn)結(jié)果和性能分析

        為了評估該目標(biāo)檢測模型的有效性,將平均精度mAP 與檢測幀率FPS 分別作為精度與速度的評價指標(biāo),采用含有棉繩,鋼管和浮筒3 類水下目標(biāo)數(shù)據(jù)集開展實(shí)驗(yàn),隨后在復(fù)雜水下環(huán)境下完成測試。訓(xùn)練用服務(wù)器使用Intel? CoreTM i7-6950X CPU 處理器,配備4 塊NVIDIA GeForce GTX 1080TI 顯卡,每個顯卡內(nèi)存為11G?;赨buntu18.04 操作系統(tǒng)的Pytorch1.8.0和Python3.7 深度學(xué)習(xí)框架,使用GPU(GTX1080Ti)對其進(jìn)行訓(xùn)練與測試。

        2.1 數(shù)據(jù)采集

        為測試UW-Net 在復(fù)雜水下環(huán)境中對目標(biāo)性能的檢測能力,構(gòu)建一個專用數(shù)據(jù)集。數(shù)據(jù)集由從真實(shí)場景中采集得到的視頻及圖像組成,含有不同的光照強(qiáng)度、對比度不一和視覺退化的畫面。為確保數(shù)據(jù)集數(shù)據(jù)量,利用視頻抽幀方法生成9 955 張水下目標(biāo)圖像,對棉繩、鋼管、浮筒3 類水下目標(biāo)進(jìn)行標(biāo)注。在實(shí)驗(yàn)階段,使用該數(shù)據(jù)集80% 的圖像用來進(jìn)行訓(xùn)練和驗(yàn)證,20%圖像用于測試。

        2.2 實(shí)驗(yàn)結(jié)果分析

        使用隨機(jī)梯度下降法,并將學(xué)習(xí)率逐漸減小以優(yōu)化模型,在該模型中,先將初始學(xué)習(xí)率定為0.01,并使學(xué)習(xí)率隨迭代次數(shù)增加而減少,最大迭代次數(shù)300 輪、動量參數(shù)0.937、權(quán)重衰減設(shè)置為0.000 5、批量大小32,輸入分辨率640×640 的圖片,非極大值抑制值域0.6,目標(biāo)檢測置信度值域0.45。

        為驗(yàn)證UW-Net 在復(fù)雜水下環(huán)境中的檢測效果,證明該模型優(yōu)良的高精度實(shí)時檢測能力及檢測魯棒性,本文使用所提出方法與SSD、YOLO 系列算法進(jìn)行比較,使用平均精度mAP 和檢測速度FPS 綜合評估模型的有效性,并突出顯示最優(yōu)結(jié)果,實(shí)驗(yàn)結(jié)果如表2所示。

        表2 模型試驗(yàn)結(jié)果對比Tab. 2 Comparison of model test results

        實(shí)驗(yàn)結(jié)果表明,MS-Net 在水下數(shù)據(jù)集上取得了95.06%的檢測精度和139FPS 的檢測速度,實(shí)時性較好,且對于水下目標(biāo)各個類別的檢測精度明顯優(yōu)于其他模型,能夠?qū)崿F(xiàn)在復(fù)雜的實(shí)際水下場景中高精度實(shí)時魯棒地檢測水下目標(biāo)。SSD 的檢測精度和檢測速度與MS-Net 存在很大差距。YOLOv3-tiny 與YOLOv4-tiny 以檢測精度為代價,在檢測速度上取得很大優(yōu)勢,但其檢測精度過低,無法保證在實(shí)際復(fù)雜的水下場景中高精度檢測水下目標(biāo)。相比之下,YOLOv3 和YOLOv4 則相反,其檢測精度有所提升,但復(fù)雜的計算過程導(dǎo)致算法實(shí)時性較差,無法滿足水下場景的實(shí)時檢測需求。YOLOv5s 對檢測速度和精度做出了較好折中,但MS-Net 展現(xiàn)出了更優(yōu)良的水下目標(biāo)檢測性能,其檢測速度和精度分別比YOLOv5s 高2.87% 和14FPS,能夠在復(fù)雜的水下環(huán)境中高精度實(shí)時魯棒地檢測水下目標(biāo),更符合實(shí)際水下場景的現(xiàn)場應(yīng)用。

        基于同一水下目標(biāo)數(shù)據(jù)集,將上述所有模型進(jìn)行訓(xùn)練與測試,并將本文所提出的方法與不同模型所檢測的對比結(jié)果如圖6 所示。圖6 中從左至右每一列依次為原始圖像、YOLOv4-tiny 檢測結(jié)果、YOLOv5s 檢測結(jié)果以及本文所提出UW-Net 的檢測結(jié)果。第1 行為單目標(biāo)出現(xiàn)的場景,目標(biāo)所呈現(xiàn)的視覺特征良好,3 類模型都能較為準(zhǔn)確預(yù)測除目標(biāo)的位置及類別,但UW-Net 展現(xiàn)出了更為優(yōu)越的檢測能力,其檢測置信度明顯高于YOLOv4-tiny 和YOLOv5s。第2 行為多目標(biāo)水下場景且存在部分遮擋,YOLOv4-tiny 和YOLOv5s無法檢測出浮筒類目標(biāo),而UW-Net 能夠識別所有水下目標(biāo),在多尺度目標(biāo)檢測和位置回歸方面具有更好優(yōu)勢。第3 行為視覺特征退化的水下光學(xué)圖像,該場景中的目標(biāo)特征紋理較為模糊,YOLOv4-tiny 對右上方的棉繩漏檢,雖然YOLOv5s 的檢測置信度較YOLOv4-tiny 有所提升,但仍無法有效避免漏檢現(xiàn)象,而UW-Net 可以在視覺退化的水下場景下魯棒地檢測多尺度目標(biāo),特別是紋理特征較為模糊的水下目標(biāo)??傊琔W-Net 對于水下目標(biāo)的位置與類別均能實(shí)現(xiàn)高精度檢測,即便是在視覺退化的復(fù)雜水下場景也有較好的檢測效果,能夠滿足高精度實(shí)時魯棒檢測水下目標(biāo)的實(shí)際應(yīng)用需求。

        圖6 不同模型檢測結(jié)果對比Fig. 6 Comparison of test results of different models

        2.3 消融實(shí)驗(yàn)結(jié)果對比

        證明本文提出的各個結(jié)構(gòu)具有有效性,設(shè)計幾組消融實(shí)驗(yàn),采用YOLOv5s 作為基準(zhǔn)測試模型,測量幾種結(jié)構(gòu)的檢測性能,表3 為測量結(jié)果,表中消融實(shí)驗(yàn)的所有模型均使用K-means 均值聚類得出的最優(yōu)錨框。其中, M-Net 分為注意力機(jī)制和多尺度特征融合兩模塊,證明高精度、輕量化特征提取模塊提高了檢測速度;L-Net 分為輕量級的特征提取和注意力機(jī)制兩模塊,證明多尺度特征融合模塊提高了檢測精度; HNet 分為高精度輕量級特征提取和多尺度特征融合兩模塊,證明注意力機(jī)制模塊提高了目標(biāo)檢測的精度。

        表3 消融實(shí)驗(yàn)Tab. 3 Ablation test

        使用本文設(shè)計的UW-Net 特征提取結(jié)構(gòu), UWNet 的檢測精度和檢測速度比M-Net 分別提升了1.04%和31FPS。結(jié)果表明,UW-Net 特征提取結(jié)構(gòu)不僅提高了水下環(huán)境多尺度目標(biāo)的檢測精度,而且大幅度提高了檢測速度。然后,將L-Net 中的特征融合模塊替換為本文所設(shè)計的多尺度融合網(wǎng)絡(luò),檢測精度對比L-Net 提升了2.71%。結(jié)果表明,該模塊采用分享權(quán)重的方式自適應(yīng)融合各個尺度的特征方式大幅度提高了模型的檢測精度,能夠魯棒精準(zhǔn)地檢測水下目標(biāo)。最后,將輕量型通道注意力機(jī)制加入至H-Net,在犧牲極少檢測速度的前提下,使得平均檢測精度0.85%。結(jié)果表明,在基本不增加計算機(jī)計算量的條件下,注意力機(jī)制模塊對于各個通道的權(quán)值進(jìn)行更合理地分配,使得最需要的特征信息更容易被檢測出來,進(jìn)而提高了檢測精度。

        針對不同的3 種水下目標(biāo),UW-Net 的檢測效果均優(yōu)于M-Net 與L-Net,不僅能夠?qū)崟r高精度地檢測不同尺度的水下目標(biāo),而且提高了模型在復(fù)雜水下環(huán)境下的檢測魯棒性。

        2.4 不同場景的魯棒性檢驗(yàn)

        為進(jìn)一步驗(yàn)證所提出模型UW-Net 對于復(fù)雜水下環(huán)境目標(biāo)的檢測魯棒性,選取不同復(fù)雜水下環(huán)境進(jìn)行了實(shí)驗(yàn),檢測結(jié)果如圖7 所示。圖7 (a)水下目標(biāo)紋理特征較弱且視覺退化較為嚴(yán)重,而UW-Net 仍可以很好的檢測出棉繩目標(biāo)且精度較高,在圖7 (b)中光線極差的昏暗水下環(huán)境中也保持著優(yōu)良的目標(biāo)檢測能力,即使在存在噪聲干擾的圖7 (c)中也能魯棒地識別目標(biāo)。實(shí)驗(yàn)結(jié)果表明,UW-Net 能夠在水下環(huán)境中識別出目標(biāo)的種類,檢測出目標(biāo)的位置,在有干擾噪聲的復(fù)雜水下環(huán)境中仍具有較高的魯棒性,滿足了實(shí)時、高精度的現(xiàn)場檢測要求。

        圖7 不同復(fù)雜水下場景魯棒性測試Fig. 7 Robustness testing for different complex underwater scenarios

        3 結(jié) 語

        水下環(huán)境具有復(fù)雜多變、噪聲種類多樣的特點(diǎn),導(dǎo)致視覺退化嚴(yán)重,針對水下環(huán)境中的目標(biāo),現(xiàn)有的水下目標(biāo)檢測算法檢測魯棒性較低,不能實(shí)現(xiàn)實(shí)時高精度檢測。本文提出一種端到端的輕量型高精度水下目標(biāo)檢測模型,為在復(fù)雜水下環(huán)境中精準(zhǔn)高效地檢測多尺度目標(biāo)提供理論與技術(shù)支撐。在特征提取部分設(shè)計高精度輕量型特征提取結(jié)構(gòu),降低模型計算量的同時提取更為豐富的特征信息。在特征融合部分和檢測部分,將多尺度特征融合網(wǎng)絡(luò)和輕量型注意力機(jī)制相結(jié)合,并使用K-means 重新生成更具代表性的錨框,實(shí)現(xiàn)了自適應(yīng)融合不同尺度的特征信息及不同通道特征圖的權(quán)值優(yōu)化。在基本不增加計算負(fù)荷的前提下提升了模型的檢測性能,尤其是在復(fù)雜水下環(huán)境中的多尺度目標(biāo)檢測能力。實(shí)驗(yàn)結(jié)果表明,該網(wǎng)絡(luò)在NVIDIA GTX 1080Ti 實(shí)驗(yàn)平臺上對于水下數(shù)據(jù)集實(shí)現(xiàn)了95.06% 的檢測精度和139FPS 的檢測速度,分別比YOLOv5s 高2.87%和14FPS,實(shí)現(xiàn)了對復(fù)雜水下環(huán)境中的目標(biāo)進(jìn)行實(shí)時、高精度的檢測,具有廣泛的應(yīng)用前景。

        猜你喜歡
        高精度特征提取尺度
        財產(chǎn)的五大尺度和五重應(yīng)對
        基于Daubechies(dbN)的飛行器音頻特征提取
        電子制作(2018年19期)2018-11-14 02:37:08
        高抗擾高精度無人機(jī)著艦縱向飛行控制
        Bagging RCSP腦電特征提取算法
        船載高精度星敏感器安裝角的標(biāo)定
        宇宙的尺度
        太空探索(2016年5期)2016-07-12 15:17:55
        基于高精度測角的多面陣航測相機(jī)幾何拼接
        高精度免熱處理45鋼的開發(fā)
        山東冶金(2015年5期)2015-12-10 03:27:41
        基于MED和循環(huán)域解調(diào)的多故障特征提取
        9
        国产成人自拍高清在线| av一区无码不卡毛片| 国产伦久视频免费观看视频| 伊人影院综合在线| 亚洲国产精品500在线观看| 一区二区三区国产大片| 一区二区三区观看视频在线| 99精品视频69v精品视频| 国产成人精品午夜视频| 粗一硬一长一进一爽一a级| 韩国无码精品人妻一区二| 成人男性视频在线观看| 久久精品国产自在天天线| 亚洲av色先锋资源电影网站 | 亚洲中文字幕精品一区二区 | 亚洲AV秘 无码一区二区三区1| 在线视频亚洲一区二区三区| 国产精品妇女一区二区三区| 熟女精品视频一区二区三区| 九九精品无码专区免费| 亚洲天堂av中文字幕| 免费av一区二区三区| 成人欧美一区二区三区在线 | 亚洲最新中文字幕一区| 精品日韩国产欧美在线观看| 骚片av蜜桃精品一区| 疯狂三人交性欧美| 日本一区二区三本视频在线观看| 乱人伦中文无码视频| 国产尤物精品视频| 丰满精品人妻一区二区| 中文字幕人妻互换激情| 伊人久久中文大香线蕉综合| 久久精品国产亚洲av高清热| 真实的国产乱xxxx在线| 亚洲国产欧美在线观看| 欧美人与物videos另类xxxxx | 国产精品女老熟女一区二区久久夜 | 成人影院视频在线播放| 丰满少妇人妻久久久久久| 国产亚洲av无码专区a∨麻豆|