亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于一維卷積和LSTM網(wǎng)絡(luò)的端到端水聲目標(biāo)識別

        2024-12-18 00:00:00楊康
        無線互聯(lián)科技 2024年23期
        關(guān)鍵詞:深度學(xué)習(xí)

        摘要:水聲目標(biāo)識別在國防和海洋環(huán)境監(jiān)測等領(lǐng)域具有重要應(yīng)用。然而,傳統(tǒng)的時頻域特征提取方法由于信息損失和環(huán)境適應(yīng)性不足,限制了識別性能的提升。為克服這些局限性,文章提出了一種基于一維卷積神經(jīng)網(wǎng)絡(luò)(One-dimensional Convolutional Neural Network,1D CNN)與長短時記憶網(wǎng)絡(luò)(Long Short-term Memory Network,LSTM)相結(jié)合的端到端水聲目標(biāo)識別模型(One-dimensional Long Short-term Memory,1DLSTM)。該模型直接以原始時域信號為輸入,利用1D CNN提取局部特征,通過LSTM捕捉長程依賴關(guān)系,有效保留了信號的全局信息。在ShipsEar數(shù)據(jù)集上的實驗結(jié)果表明,該模型的識別準(zhǔn)確率高達93.91%,為水聲目標(biāo)端到端識別領(lǐng)域提供了一種新思路。

        關(guān)鍵詞:深度學(xué)習(xí);水聲目標(biāo)識別;端到端

        中圖分類號:TB566;TP183""文獻標(biāo)志碼:A

        0"引言

        水聲目標(biāo)識別作為水下探測技術(shù)的核心,在國防、海洋環(huán)境監(jiān)測、水下資源勘探和導(dǎo)航等領(lǐng)域具有重要應(yīng)用價值。然而,水下環(huán)境的復(fù)雜性給水聲目標(biāo)識別帶來了巨大挑戰(zhàn)。多徑效應(yīng)、海洋環(huán)境噪聲、水溫變化引起的聲速剖面變化等因素都會嚴(yán)重影響聲波傳播,導(dǎo)致接收信號的失真和干擾。

        傳統(tǒng)的水聲目標(biāo)識別方法通過先提取可區(qū)分的特征,然后通過分類器或模板匹配來進行目標(biāo)識別。這些方法包括基于頻譜分析的方法(如短時傅里葉變換、小波變換)、基于統(tǒng)計特征的方法(如梅爾頻率倒譜系數(shù)MFCC)等[1-2]。然而,這些方法往往依賴于人工設(shè)計的特征,難以適應(yīng)復(fù)雜多變的水下環(huán)境,導(dǎo)致識別性能不穩(wěn)定。

        近年來,深度學(xué)習(xí)技術(shù)在水聲目標(biāo)識別領(lǐng)域取得了顯著進展?;诰矸e神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)的方法,如Cao等[3]提出的多尺度CNN模型,通過學(xué)習(xí)聲吶信號的頻譜特征提高了識別性能。張旺等[4]提出的結(jié)合注意力機制的殘差網(wǎng)絡(luò)(Residual Network,ResNet)進一步增強了模型對關(guān)鍵特征的感知能力。然而,這些方法大多依賴于時頻域表征,如頻譜圖或梅爾頻譜圖等[5-6],這些表征受限于固定的分辨率參數(shù),可能導(dǎo)致原始波形中細(xì)微信息的丟失,從而限制了識別率的進一步提升。

        相比之下,直接利用時域信號進行端到端識別能夠保留全面的信息,減少人為偏差,簡化處理流程。因此,該研究提出了一種新型的端到端水聲目標(biāo)識別模型(1DLSTM),該模型直接使用原始波形作為輸入,結(jié)合了一維卷積神經(jīng)網(wǎng)絡(luò)的局部特征提取能力與長短時記憶網(wǎng)絡(luò)的長程依賴建模能力,以全面捕捉水聲信號的特征和全局結(jié)構(gòu)。

        1"相關(guān)原理和所提方法

        1.1"一維卷積神經(jīng)網(wǎng)絡(luò)

        經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)通常使用二維卷積來處理圖像數(shù)據(jù),通過二維卷積能夠有效地捕捉圖像的空間特征。然而,當(dāng)處理時序數(shù)據(jù)時,一維卷積更為合適。一維卷積操作能夠有效地從時序數(shù)據(jù)中提取局部特征,這對于識別序列中的短期和長期依賴特征至關(guān)重要。此外,與二維卷積的矩陣卷積運算相比,一維卷積具有較低的計算復(fù)雜度和較少的模型參數(shù)。

        一維卷積本質(zhì)是通過一個或多個一維卷積核沿著時間軸滑動,對輸入信號進行局部特征提取。一維卷積操作可以表示為:

        X(l)j=f(∑Mi=1ω(l)ij*X(l-1)i+b(l)j)(1)

        其中,Xl-1i表示第l-1層輸入特征圖,*表示一維卷積運算,f(·)為激活函數(shù),ω(l)ij和b(l)j分別表示一維卷積核中的權(quán)值和參數(shù)偏置。

        1.2"長短時記憶網(wǎng)絡(luò)

        長短時記憶網(wǎng)絡(luò)是一種專門為解決傳統(tǒng)循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)在處理長序列數(shù)據(jù)時遇到的梯度消失和梯度爆炸問題而設(shè)計的特殊網(wǎng)絡(luò)結(jié)構(gòu)。LSTM的核心在于其獨特的記憶單元結(jié)構(gòu)。每個LSTM單元包含3個關(guān)鍵的門控機制:輸入門、遺忘門和輸出門。這些門控機制通過控制信息的流動,選擇性地保留或丟棄信息,從而解決了傳統(tǒng)RNN在處理長時間依賴時無法有效記憶的重要信息的問題。

        遺忘門通過一個sigmoid函數(shù)計算輸入值的權(quán)重,將其壓縮至0到1之間的范圍,從而通過權(quán)重控制哪些信息需要被遺忘。其計算公式如下:

        ft=σ(Wf·[ht-1,xt]+bf)(2)

        其中,ft是遺忘門的輸出,Wf是權(quán)重矩陣,ht-1是前一個時間步的隱狀態(tài),xt是當(dāng)前時間步的輸入,bf是偏置,σ是sigmoid激活函數(shù)。

        輸入門決定哪些新的信息將被加入記憶單元中。輸入門包含2個步驟:首先,使用一個sigmoid函數(shù)選擇哪些值將被更新。其次,使用tanh函數(shù)生成新的候選值,決定哪些信息將更新到記憶單元中。計算公式如下:

        it=σ(Wi·[ht-1,xt]+bi)(3)

        Ct=tanh(WC·[ht-1,xt]+bC)(4)

        其中,it是輸入門輸入,Ct是新的候選記憶單元狀態(tài)。

        輸出門決定記憶單元的哪些部分將輸出,影響下一個時間步的隱狀態(tài)。輸出門同樣通過sigmoid函數(shù)控制信息流動,通過tanh函數(shù)將記憶單元狀態(tài)轉(zhuǎn)化為輸出隱狀態(tài)。公式如下:

        ot=σ(Wo·[ht-1,xt]+bo)(5)

        ht=ot·tanh(Ct)(6)

        其中,ot是輸出門的輸出,ht是當(dāng)前時間步的隱狀態(tài)。

        LSTM單元的最終更新公式如下:

        Ct=ft·Ct-1+it·Ct(7)

        其中,Ct是當(dāng)前時間步的記憶單元狀態(tài),Ct-1是前一個時間步的記憶單元狀態(tài)。

        1.3"提出的1DLSTM模型

        1DLSTM模型的核心思想是在深度學(xué)習(xí)的架構(gòu)下,構(gòu)建一個端到端的模型,直接以原始波形作為輸入,通過多層次的特征提取和序列建模,最終實現(xiàn)高精度的水聲目標(biāo)識別。為了達到這一目標(biāo),網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示,具體參數(shù)如表1所列。首先,輸入層直接接收原始的時域信號,保留了所有的原始信息,避免了在傳統(tǒng)預(yù)處理過程中可能導(dǎo)致的信息損失。在一維卷積層部分,網(wǎng)絡(luò)采用了3層1D CNN結(jié)構(gòu),每層卷積層后都緊接著一個最大池化層。這種設(shè)計允許網(wǎng)絡(luò)逐層提取更高級的特征,其中第一層使用32個濾波器捕捉基本的時域特征,第二層使用64個濾波器以提取更復(fù)雜的模式,而第三層則使用128個濾波器進一步提取抽象特征。整個卷積過程中卷積核的大小設(shè)置為5。

        卷積層輸出的結(jié)果在進入LSTM層之前,首先經(jīng)過重塑層的處理,將其重塑為適合LSTM處理的序列形式,從而保持特征的時間順序。接著,模型采用雙層LSTM結(jié)構(gòu),每層包含128個隱藏單元。這種設(shè)計能夠有效建模信號中的長期時間依賴關(guān)系,捕捉水聲信號的全局結(jié)構(gòu)特征。此外,還通過引入dropout機制來防止過擬合的發(fā)生。最后,模型通過全連接層(Multilayer Perceptron,MLP)作為分類器,將LSTM的輸出映射到目標(biāo)類別的概率分布上,從而實現(xiàn)高精度的分類結(jié)果。

        2"實驗

        2.1"實驗數(shù)據(jù)和評估指標(biāo)

        實驗采用ShipsEar數(shù)據(jù)集作為水聲目標(biāo)信號源。根據(jù)原始數(shù)據(jù)集的標(biāo)注,目標(biāo)類別劃分為A、B、C、D和E 5個類別(4類船舶和1類背景噪聲)。為了擴充原始數(shù)據(jù),實驗將信號按1 s長度進行等間隔分割,最終獲得9600個獨立樣本。為確保模型的魯棒性和泛化能力,采用分層隨機抽樣方法,按8∶1∶1的比例將數(shù)據(jù)集劃分為訓(xùn)練集、驗證集和測試集。

        分類結(jié)果的評估中,采用識別準(zhǔn)確率、召回率、精確率和F1-score來全面衡量網(wǎng)絡(luò)的識別性能。每個指標(biāo)的計算公式如下:

        Accuracy=TP+TNTP+TN+FP+FN(8)

        Precision=TPTP+FP(9)

        Recall=TPTP+FN(10)

        F1-score=2×Precision×RecallPrecision+Recall(11)

        其中,TP、TN、FP、FN分別為真陽性、真陰性、假陽性和假陰性。

        2.2"實驗結(jié)果

        圖2展示了1DLSTM模型在訓(xùn)練過程中訓(xùn)練集和驗證集的損失曲線和準(zhǔn)確率變化曲線。從圖6中可以觀察到,模型的學(xué)習(xí)過程呈現(xiàn)出典型的收斂特征。在完成訓(xùn)練后,實驗中使用獨立的測試集對模型進行了最終評估。1DLSTM模型在測試集上達到了93.91%的總體準(zhǔn)確率,這一結(jié)果驗證了模型的優(yōu)秀泛化能力。

        為了更深入地分析模型的識別性能,實驗中進一步計算了測試集上模型的精確率、召回率和F1-score,其值分別為93.88%,93.93%和93.89%。結(jié)果表明,1DLSTM模型在評價指標(biāo)上均表現(xiàn)出較高的識別準(zhǔn)確率。

        此外,圖3所示的混淆矩陣進一步驗證了模型在不同類別上的識別效果?;煜仃囷@示,1DLSTM模型在各類別的識別中均具有較高的準(zhǔn)確性,只有極少數(shù)的混淆錯誤發(fā)生在船舶類之間。這表明,1DLSTM模型不僅能夠有效區(qū)分不同種類的船舶,還能夠較好地分辨背景噪聲,展現(xiàn)了其在多類別水聲目標(biāo)識別任務(wù)中的廣泛適用性。

        3"結(jié)語

        文章提出了一種新型的端到端水聲目標(biāo)識別模型(1DLSTM),成功融合了一維卷積神經(jīng)網(wǎng)絡(luò)與長短時記憶網(wǎng)絡(luò)的優(yōu)勢,實現(xiàn)了對原始時域信號的高效處理與識別。與傳統(tǒng)基于時頻域特征提取的方法相比,該模型具有明顯優(yōu)勢,能夠直接利用原始信號,避免了特征工程中的信息損失風(fēng)險。通過1D CNN與LSTM的協(xié)同作用,模型不僅能夠提取局部時間特征,還能有效捕捉信號的全局結(jié)構(gòu)特征。實驗結(jié)果表明,1DLSTM模型在ShipsEar數(shù)據(jù)集上達到了93.91%的識別準(zhǔn)確率,表現(xiàn)出優(yōu)異的泛化能力與魯棒性。在多個評估指標(biāo)(包括精確率、召回率和F1-score)上,該模型均表現(xiàn)出卓越的性能,尤其在復(fù)雜的水聲環(huán)境中,1DLSTM能夠有效區(qū)分目標(biāo)類別。

        未來的研究可以進一步優(yōu)化1DLSTM模型的結(jié)構(gòu)和參數(shù),以適應(yīng)更為復(fù)雜的水下環(huán)境,同時探索該模型在其他領(lǐng)域如水下通信和海洋資源探測中的應(yīng)""用潛力。

        參考文獻

        [1]李昊鑫,肖長詩,元海文,等.特征降維與融合的水聲目標(biāo)識別方法[J].哈爾濱工程大學(xué)學(xué)報,2025(1):1-9.

        [2]葛軼洲,姚澤,張歆,等.水聲目標(biāo)的MFCC特征提取與分類識別[J].計算機仿真,2024(2):13-16.

        [3]CAO X,ZHANG X M,YU Y,et al.Proceedings of the IEEE International Conference on Digital Signal Processing,October 16-18,2016[C].Beijing:Piscataway,2016.

        [4]張旺,楊乘,羅婭婭.融合注意力機制的ResNeXt語音欺騙檢測模型[J].計算機應(yīng)用與軟件,2024(8):298-302.

        [5]雷禹,冷祥光,周曉艷,等.基于改進ResNet網(wǎng)絡(luò)的復(fù)數(shù)SAR圖像艦船目標(biāo)識別方法[J].系統(tǒng)工程與電子技術(shù),2022(12):3652-3660.

        [6]任晨曦.基于聯(lián)合神經(jīng)網(wǎng)絡(luò)的水聲目標(biāo)識別技術(shù)研究[D].太原:中北大學(xué),2022.

        (編輯"王永超)

        End-to-end acoustic target recognition based on 1D convolutional and LSTM networks

        YANG "Kang1,2

        (1.Zhenjiang College of Technology, Zhenjiang 212003, China;

        2.Jiangsu University of Science and Technology, Zhenjiang 212003, China)

        Abstract: "Acoustic target recognition plays a crucial role in defense and marine environment monitoring. However, traditional time-frequency domain feature extraction methods often suffer from information loss and inadequate adaptability to varying environments, limiting their recognition performance. To address these limitations, this paper presents an end-to-end acoustic target recognition model (1DLSTM) that combines a one-dimensional convolutional neural network (1D CNN) with a long short-term memory network (LSTM).This model directly processes raw time-domain signals, using the 1D CNN to extract local features and the LSTM to capture long-term dependencies, thereby effectively preserving the global information of the signal. Experimental results on the ShipsEar dataset demonstrate that this model achieves a recognition accuracy of 93.91%, offering a novel approach to end-to-end acoustic target recognition.

        Key words: deep learning; acoustic target recognition; end-to-end

        猜你喜歡
        深度學(xué)習(xí)
        從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
        面向大數(shù)據(jù)遠程開放實驗平臺構(gòu)建研究
        基于自動智能分類器的圖書館亂架圖書檢測
        搭建深度學(xué)習(xí)的三級階梯
        有體驗的學(xué)習(xí)才是有意義的學(xué)習(xí)
        電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識別研究
        利用網(wǎng)絡(luò)技術(shù)促進學(xué)生深度學(xué)習(xí)的幾大策略
        考試周刊(2016年94期)2016-12-12 12:15:04
        MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
        大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        日本一区二区三区四区在线看| 欧美操逼视频| 五月天精品视频在线观看| 亚洲AV无码日韩综合欧亚| 精品婷婷国产综合久久| 日韩亚洲欧美久久久www综合| 国产人妻精品一区二区三区不卡 | 亚洲视频综合在线第一页| 国产白浆一区二区在线| 国产产区一二三产区区别在线| 亚洲av国产av综合av| 亚洲日本精品一区久久精品| 国产成人自拍视频播放| 精品伊人久久大香线蕉综合| 麻豆AⅤ无码不卡| 精品理论一区二区三区| 视频一区二区三区黄色| 中文字幕日韩人妻不卡一区| 有码精品一二区在线| 日韩有码中文字幕av| 久久久免费看少妇高潮| 国产精品一区二区无线| 国产主播在线 | 中文| 国产自拍精品在线视频| 图片小说视频一区二区| 7777奇米四色成人眼影| 国产91在线精品福利| 男女一级毛片免费视频看| 精品人妻久久av中文字幕| 国产自拍av在线观看视频| 久久99精品久久久久久秒播| Y111111国产精品久久久 | 色久悠悠婷婷综合在线| 亚洲熟妇av日韩熟妇在线| 国产香蕉尹人综合在线观| 91亚洲精品久久久中文字幕| 久久99精品久久久久久琪琪| 国产精品福利自产拍久久 | 久久久精品免费观看国产| av福利资源在线观看| 美女国产毛片a区内射|