亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        深度學(xué)習(xí)在水聲目標(biāo)識(shí)別中的應(yīng)用研究

        2020-04-20 14:02:24王培兵
        數(shù)字海洋與水下攻防 2020年1期
        關(guān)鍵詞:深度特征模型

        王培兵,彭 圓

        (水下測(cè)控技術(shù)重點(diǎn)實(shí)驗(yàn)室,遼寧 大連 116013)

        0 引言

        水聲目標(biāo)識(shí)別技術(shù)在反潛、魚雷防御、海底地形勘探等領(lǐng)域應(yīng)用廣泛。但隨著潛艇降噪技術(shù)的進(jìn)步、水下無人航行器的迅速發(fā)展、魚雷等水下武器的多樣化以及不斷惡劣的水下復(fù)雜環(huán)境都使人們對(duì)目標(biāo)識(shí)別精度有了更高的要求,所以研究更加自主、智能、高效的水聲目標(biāo)識(shí)別技術(shù)刻不容緩。深度學(xué)習(xí)是由Hinton等人[1]于2006年提出來的具有多層結(jié)構(gòu)的深度神經(jīng)網(wǎng)絡(luò)算法,因采用多個(gè)隱藏層相互疊加的結(jié)構(gòu)特點(diǎn),使其具有強(qiáng)大的數(shù)據(jù)特征自學(xué)能力,并可以從數(shù)據(jù)中挖出其內(nèi)在的變化規(guī)律[2]。

        本文就近年來深度學(xué)習(xí)在水聲目標(biāo)識(shí)別中的應(yīng)用進(jìn)行了較為系統(tǒng)的研究,總結(jié)了深度學(xué)習(xí)在處理水聲聲信號(hào)和圖像信號(hào)應(yīng)用中的優(yōu)越性。相比于傳統(tǒng)的識(shí)別算法,其更能提高目標(biāo)識(shí)別的效率。同時(shí),也指出了深度學(xué)習(xí)在水聲目標(biāo)識(shí)別應(yīng)用中的不足之處,為后續(xù)改進(jìn)提供參考。

        1 水聲目標(biāo)識(shí)別技術(shù)的研究現(xiàn)狀及面臨的挑戰(zhàn)

        1.1 水聲目標(biāo)識(shí)別技術(shù)研究現(xiàn)狀

        水聲目標(biāo)識(shí)別主要依據(jù)目標(biāo)的特征信息。目標(biāo)特征信息是目標(biāo)原始數(shù)據(jù)中包含或者可提取的一種能精確和簡(jiǎn)化表明目標(biāo)狀態(tài)和身份的信息[3]。水聲目標(biāo)主要包括噪聲、運(yùn)動(dòng)、尾流、幾何結(jié)構(gòu)等特征信息[4]。

        隨著水聲目標(biāo)識(shí)別越來越受到人們的重視,國內(nèi)外眾多學(xué)者也開展了很多的研究工作。例如Rajgopal等[5]在研制的水聲目標(biāo)識(shí)別專家系統(tǒng)中所使用的特征包括:螺旋槳槳葉數(shù)、螺旋槳轉(zhuǎn)速、推進(jìn)器類型、目標(biāo)殼體輻射低頻噪聲、活塞松動(dòng)產(chǎn)生的諧音基頻噴嘴噪聲、注水器噪聲、最大速度、槽極噪聲、傳動(dòng)裝置類型等。Lourens[6]在識(shí)別特征分析中重點(diǎn)強(qiáng)調(diào)了螺旋槳轉(zhuǎn)速、主機(jī)類型、齒輪噪聲線譜等特征。Arnab等[7]在分類識(shí)別特征分析中歸納了譜中心、譜形、譜起伏、窄帶與寬帶譜特征、倒譜特征、MeI倒譜參數(shù)、音調(diào)頻率參數(shù)等統(tǒng)計(jì)時(shí)頻域特征。AR模型系數(shù)、非線性融合特征等也常被作為水聲目標(biāo)輻射噪聲識(shí)別的特征量[8-12]。國內(nèi)學(xué)者對(duì)船舶輻射噪聲的調(diào)制譜、功率譜、低頻線譜以及高階譜、小波變換、混沌分形、聽覺感知等特征和特性的分析也開展了很多研究工作[13-20],例如勵(lì)榮峰等人研究了各類水聲目標(biāo)的功率譜分析,提取了目標(biāo)的視頻特征,并通過實(shí)際數(shù)據(jù)分析進(jìn)行了可分性驗(yàn)證。彭圓等人研究了基于雙譜的方法對(duì)水中目標(biāo)輻射噪聲進(jìn)行特征提取與分類,同樣也取得了很好的效果。

        1.2 新技術(shù)為水聲目標(biāo)識(shí)別技術(shù)帶來的挑戰(zhàn)

        隨著水聲探測(cè)技術(shù)的發(fā)展和降噪水平的提高,傳統(tǒng)識(shí)別技術(shù)的性能正在逐漸下降,這為水聲目標(biāo)識(shí)別技術(shù)帶來了新的挑戰(zhàn)[21]。

        1.2.1 聲吶信號(hào)帶寬對(duì)識(shí)別能力的影響

        目標(biāo)特征量的提取都是基于一定帶寬的聲吶傳感器得到的。根據(jù)香農(nóng)公式,對(duì)于1個(gè)帶寬為BHz的信道,信道的最大信息傳送速率為

        式中:S為信號(hào)功率,W;N為噪聲功率,W。

        也就是說,等功率強(qiáng)度的信號(hào)帶寬和信道的信息容量成正比,寬帶信號(hào)可以比窄帶信號(hào)攜帶更多的信息。

        1.2.2 低頻探測(cè)對(duì)線譜識(shí)別性能的影響

        為了達(dá)到提高探測(cè)距離的目標(biāo),低頻探測(cè)成為當(dāng)下主流的趨勢(shì),帶來的問題是波束寬度的增加。對(duì)于作用距離為100 km的聲吶來說,波束寬度內(nèi)目標(biāo)很可能不是單個(gè)目標(biāo)。因此,對(duì)于利用低頻探測(cè)來進(jìn)行線譜識(shí)別,檢測(cè)到的低頻線譜是否就是關(guān)注的水聲目標(biāo)的低頻線譜特征有著很大的不確定性。

        1.2.3 減震降噪對(duì)識(shí)別性能的影響

        對(duì)于水中目標(biāo)來說,減震降噪是永恒不變的主題和最終的目標(biāo)。減震降噪使得低頻線譜特征顯著降低,而線譜特征都可以通過結(jié)構(gòu)設(shè)計(jì)、工藝設(shè)計(jì)、使用減震裝置等不斷降低。最終這些線譜特征都有可能被消除或者減得很弱,那么基于線譜探測(cè)的識(shí)別技術(shù)將失去意義。

        2 水聲目標(biāo)識(shí)別中深度學(xué)習(xí)的研究及應(yīng)用

        2.1 深度學(xué)習(xí)常用的開發(fā)工具

        深度學(xué)習(xí)常用的開發(fā)工具主要有TensorFlow、Torch、Caffe、Theano,以下詳細(xì)探討這4種。除此之外,Deeplearing4j、MXNet等開發(fā)工具也都有著廣泛的應(yīng)用。

        1)TensorFlow開發(fā)工具。

        優(yōu)勢(shì):①機(jī)動(dòng)性:并不是一個(gè)規(guī)則的 neural network,定義新的操作只需要寫1個(gè)Python函數(shù);②可使用性強(qiáng):可以應(yīng)用在不同的設(shè)備上,如cpus、gpu移動(dòng)設(shè)備、平臺(tái)等;③自動(dòng)差分:TensorFlow的自動(dòng)差分能力對(duì)很多基于Graph的機(jī)器學(xué)習(xí)算法有益;④多種編程語言可選:有Python接口和C++接口,其他語言可以使用SWIG工具使用接口;⑤最優(yōu)化表現(xiàn):充分利用硬件資源,TensorFlow可以將Graph的不同計(jì)算單元分配到不同的設(shè)備執(zhí)行。

        特點(diǎn):TensorFlow靈活的架構(gòu)可以部署在1個(gè)或者多個(gè) CPU、GPU的臺(tái)式以及服務(wù)器中,或者使用單一的API應(yīng)用在移動(dòng)設(shè)備中,開源之后幾乎可以適用各個(gè)領(lǐng)域。

        2)Torch開發(fā)工具。

        優(yōu)勢(shì):構(gòu)建模型簡(jiǎn)單,高度模塊化,GPU快速高效。具有豐富的索引、切片和transposing的例程,支持LuaJIT接入C數(shù)值優(yōu)化程序等,可移植嵌入到iOS、Android和FPGA后端的接口。

        特點(diǎn):Torch擁有Facebook為其開源的大量深度學(xué)習(xí)模塊和擴(kuò)展,并采用了編程語言Lua。

        3)Caffe開發(fā)工具。

        優(yōu)勢(shì):①上手快:模型與相應(yīng)優(yōu)化都是以文本形式而非代碼形式給出;②速度快:能夠運(yùn)行最好的模型與海量的數(shù)據(jù);③模塊化:方便擴(kuò)展到新的任務(wù)和設(shè)置上;④開放性:公開的代碼和參考模型用于再現(xiàn);⑤社區(qū)好:可以通過 BSD-2參與開發(fā)與討論。

        特點(diǎn):Caffe是開源的,核心語言是C++,支持命令行、Python、MATLAB,既可以在 CPU上運(yùn)行也可以在GPU上運(yùn)行。

        4)Theano開發(fā)工具。

        優(yōu)勢(shì):①集成NumPy的基于Python實(shí)現(xiàn)的科學(xué)計(jì)算包,可以與稀疏矩陣運(yùn)算包SeiPy配合使用,全面兼容NumPy庫函數(shù);②易于使用GPU進(jìn)行加速,具有比CPU實(shí)現(xiàn)相對(duì)較大的加速比;③具有優(yōu)異的可靠性和速度優(yōu)勢(shì);④可支持動(dòng)態(tài) C程序生成;⑤擁有測(cè)試和自檢單元,可方便檢測(cè)和診斷多類型錯(cuò)誤。

        特點(diǎn):Theano派生出大量的深度學(xué)習(xí) Python軟件包,最著名的有Blocks和Keras,其核心是1個(gè)數(shù)學(xué)表達(dá)式的編譯器。

        2.2 深度學(xué)習(xí)幾種典型的網(wǎng)絡(luò)結(jié)構(gòu)原理及改進(jìn)

        2.2.1 深度置信網(wǎng)絡(luò)DBN原理及改進(jìn)

        DBN[22](Deep Belief Network)由多個(gè)受限玻爾茲曼機(jī)RBM和1層反向傳播網(wǎng)絡(luò)BP堆疊而成。其網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示,圖1中:h為隱藏層數(shù);v為可視層數(shù);W為連接權(quán)值矩陣。

        圖1 深度置信網(wǎng)絡(luò)結(jié)構(gòu)圖Fig.1 Block diagram of DBN

        DBN的訓(xùn)練過程為2部分:預(yù)訓(xùn)練和微調(diào)整訓(xùn)練。預(yù)訓(xùn)練就是對(duì)每層的每個(gè)RBM進(jìn)行訓(xùn)練,而在微調(diào)整階段則采用反向傳播算法將訓(xùn)練誤差逐層向后傳播。其改進(jìn)型網(wǎng)絡(luò)有CRBM-DBN[23],即首先使用有高斯分布的連續(xù)受限玻爾茲曼機(jī)(CRBM)的DBN模型對(duì)數(shù)據(jù)的輸入量進(jìn)行特征學(xué)習(xí),然后利用對(duì)比散度算法進(jìn)行抽樣以獲取高層次的特征。此外還有稀疏受限玻爾茲曼機(jī)(SRBM)[24]、稀疏組受限玻爾茲曼機(jī)(SGRBM)[25]等改進(jìn)型深度置信網(wǎng)絡(luò)。

        2.2.2 卷積神經(jīng)網(wǎng)絡(luò)CNN原理及改進(jìn)

        CNN[26](Convolutional Neural Network)通過結(jié)合局部感知區(qū)域、共享權(quán)重、空間或時(shí)間上的池化降采樣 3大特點(diǎn)來充分利用數(shù)據(jù)本身包含的局部性等特征,優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu),并且保證一定程度上的位移不變性[27]。其網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。

        圖2 卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖Fig.2 Block diagram of CNN

        隨著CNN網(wǎng)絡(luò)的不斷發(fā)展,也出現(xiàn)了一些新的深層卷積網(wǎng)絡(luò)。其改進(jìn)的過程實(shí)質(zhì)就是用深度學(xué)習(xí)模型來替代淺層機(jī)器學(xué)習(xí)模型的過程,實(shí)現(xiàn)端到端的訓(xùn)練,速度也越來越快。例如R-CNN[28]:物體檢測(cè)目標(biāo)是將圖片中所有物體用方框框出來。首先是生成方框?qū)⑽矬w框出來,然后對(duì)框出來的物體進(jìn)行分類判斷。Fast R-CNN[29]將R-CNN中CNN提取特征、SVM分類、回歸這3個(gè)過程放在一起,形成端到端整體的模型,速度和準(zhǔn)確率都得到提升。再如 Faster R-CNN[30]:Faster R-CNN首先用卷積層、池化層處理整張圖片得到特征圖,在此特征圖上用region proposal network來生成方框,其余的操作跟 Fast R-CNN如出一轍。即Faster R-CNN將生成方框的方法也換成了深度學(xué)習(xí)模型,并由原來在整張圖上生成改成在更小的特征圖上生成,使得模型訓(xùn)練速度進(jìn)一步加快。此外比較常用的還有 Mask R-CNN[31]等改進(jìn)型卷積神經(jīng)網(wǎng)絡(luò)。

        2.2.3 循環(huán)神經(jīng)網(wǎng)絡(luò)RNN原理及改進(jìn)

        RNN(Recursive Neural Network)亦稱遞歸神經(jīng)網(wǎng)絡(luò),其最大特點(diǎn)在于神經(jīng)網(wǎng)絡(luò)各隱層之間的節(jié)點(diǎn)是具有連接的。其網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示,圖中:X為輸入層;H為隱藏層;O為輸出層;Y為神經(jīng)網(wǎng)絡(luò)的主體結(jié)構(gòu)。

        圖3 循環(huán)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖Fig.3 Block diagram of RNN

        RNN的優(yōu)點(diǎn)是可以處理序列數(shù)據(jù),缺點(diǎn)則是容易隨迭代的進(jìn)行,歷史輸入對(duì)隱含層作用會(huì)逐漸減小乃至消失,即出現(xiàn)梯度消失問題。針對(duì)這個(gè)問題,研究者相繼提出了一些RNN的變種,其中最著名的包括 Hochreiter等人[32]提出的長短時(shí)記憶網(wǎng)絡(luò)(Long Short-Term Memory,LSTM)和Cho等人[33]提出的門限循環(huán)單元(Gated Recurrent Unit,GRU)。長短時(shí)記憶網(wǎng)絡(luò)用LSTM單元替代RNN中的神經(jīng)元,在輸入、輸出、忘記過去信息上分別加了輸入門、輸出門、遺忘門來控制允許多少信息過。LSTM有單元狀態(tài)(cell state)和隱藏狀態(tài)(hidden state)2個(gè)傳輸狀態(tài)。GRU是LSTM的輕量級(jí)變體,只有2個(gè)門——更新門和重置門。更新門決定保留過去多少信息,以及從輸入層輸入多少信息;重置門與LSTM里的遺忘門類似。GRU沒有輸出門,所以總是輸出完整狀態(tài)。除此之外,還有分層RNN、雙向RNN、多維RNN、神經(jīng)圖靈機(jī)等改進(jìn)型循環(huán)神經(jīng)網(wǎng)絡(luò),在處理實(shí)際任務(wù)時(shí)都表現(xiàn)出了很好的效果。

        實(shí)際的使用中,常采用多個(gè)模型相結(jié)合的方式,用于規(guī)避各模型缺點(diǎn),充分發(fā)揮模型優(yōu)勢(shì),以達(dá)到目標(biāo)識(shí)別、現(xiàn)象預(yù)測(cè)等研究目的。

        2.3 深度學(xué)習(xí)在水聲目標(biāo)識(shí)別中的應(yīng)用

        2.3.1 深度學(xué)習(xí)在水聲圖像識(shí)別中的應(yīng)用

        傳統(tǒng)的水聲圖像目標(biāo)識(shí)別方法大多數(shù)是基于局部特征的識(shí)別。但是,這種特征匹配在局部特征匹配中僅作為低級(jí)表示,對(duì)復(fù)雜背景進(jìn)行特征提取時(shí)魯棒性不足,沒有足夠的特征來防止假匹配,使得圖像識(shí)別率也較低。這主要是由于傳統(tǒng)目標(biāo)識(shí)別算法語義分割魯棒性較差。

        卷積神經(jīng)網(wǎng)絡(luò)是深度學(xué)習(xí)在處理圖像時(shí)的主要工具,可以幫助提取圖像的特征。主要方式是通過使用若干個(gè)卷積核對(duì)圖形進(jìn)行濾波,得到原圖像的多幅特征圖,從各個(gè)角度提取圖像的特征。利用權(quán)值共享使得只需要訓(xùn)練較少的卷積參數(shù),就可以提取圖像的多個(gè)特征。例如:Perez等人[34]提出了一種基于深度學(xué)習(xí)的水聲圖像增強(qiáng)方法,其基本原理就是利用卷積神經(jīng)網(wǎng)絡(luò)對(duì)采集到的水聲圖像進(jìn)行處理。Kim 等人[35]提出以水聲聲視覺圖像中的陰影作為識(shí)別特征,基于卷積神經(jīng)網(wǎng)絡(luò)的方法對(duì)水聲聲視覺圖像進(jìn)行目標(biāo)識(shí)別與分類。該方法成功地對(duì)4類水聲目標(biāo)的聲視覺圖像進(jìn)行了準(zhǔn)確分類。2015年,Orenstein等人[36]采用卷積神經(jīng)網(wǎng)絡(luò)對(duì)340萬個(gè)浮游生物圖像進(jìn)行了訓(xùn)練和分類,結(jié)果表明:該方法在時(shí)間和精度方面都優(yōu)于傳統(tǒng)人工分類篩選方法,對(duì)大量浮游生物圖像的分類效果較好。胡炎等[37]在Faster R-CNN框架下構(gòu)建了1個(gè)僅3層的卷積神經(jīng)網(wǎng)絡(luò),并對(duì)4種不同海洋雜波環(huán)境的寬幅SAR圖像進(jìn)行測(cè)試,取得了較好的檢測(cè)結(jié)果。林明旺[38]設(shè)計(jì)了一種基于卷積神經(jīng)網(wǎng)絡(luò)的魚類圖像分類系統(tǒng),對(duì)魚類圖像的識(shí)別準(zhǔn)確率達(dá)到96%,實(shí)現(xiàn)了預(yù)期效果。趙亮等[39]結(jié)合CNN提取的特征、HOG算法提取的邊緣特征和HSV算法得到的顏色特征,較好地實(shí)現(xiàn)了船舶目標(biāo)識(shí)別。張清博等人[40]提出利用基于卷積神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)方法對(duì)水下光電圖像進(jìn)行優(yōu)化圖像質(zhì)量的研究。王博[41]通過選通式水下激光成像系統(tǒng)在不同的光照、水質(zhì)、距離、成像參數(shù)條件下采集水下目標(biāo)的光學(xué)圖像,分別用在線Adaboost方法、BFSPM方法、DCNN方法對(duì)樣本圖像進(jìn)行水下目標(biāo)識(shí)別性能的比較和分析。王念濱等人[42]在卷積神經(jīng)網(wǎng)的基礎(chǔ)上引入特征圖多維加權(quán)層,構(gòu)造了一個(gè)集特征提取和分類器訓(xùn)練于一體的端到端網(wǎng)絡(luò),有效地提高了目標(biāo)的識(shí)別精度。

        2.3.2 深度學(xué)習(xí)在水聲聲信號(hào)識(shí)別中的應(yīng)用

        由于深度學(xué)習(xí)在語音識(shí)別上取得的突破性進(jìn)展和自主學(xué)習(xí)的能力,使得學(xué)者們?cè)谔幚硭暵曅盘?hào)的時(shí)候又有了新的思路:利用計(jì)算機(jī)自動(dòng)分析復(fù)雜的水聲聲音信息,通過合理的深層神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的訓(xùn)練得到信號(hào)的特征信息,再配合高效率的分類器,完成分類任務(wù),以提高識(shí)別的準(zhǔn)確度。例如:英國科學(xué)家Sheppard和Gent利用神經(jīng)網(wǎng)絡(luò)技術(shù)開發(fā)的被動(dòng)聲吶分類系統(tǒng),不僅采用窄帶分析,還采用寬帶分析、DEMON分析和瞬態(tài)分析方法。由于采用神經(jīng)網(wǎng)絡(luò)方法提高了系統(tǒng)的容錯(cuò)能力,使訓(xùn)練不平衡系統(tǒng)有較好的性能,從而能更好地完成對(duì)聲音的分類與識(shí)別。王強(qiáng)等人[43]從實(shí)測(cè)水聲數(shù)據(jù)庫中提取梅爾倒譜特征以及傅里葉變換特征,用 10個(gè)聲音片段作為訓(xùn)練樣本,5個(gè)聲音片段作為測(cè)試樣本,比較了DBN、CNN、SVM(支持向量機(jī)Support Vector Machines,SVM)的識(shí)別率,結(jié)果 DBN和 CNN的識(shí)別率均好于SVM。Xu CAO等人[44]使用21 850個(gè)水聲聲音片段作為訓(xùn)練樣本,用 8 550個(gè)聲音片段作為測(cè)試樣本,使用自動(dòng)編碼器與SVM和概率神經(jīng)網(wǎng)絡(luò)作比較,識(shí)別3種類別的結(jié)果均是自動(dòng)編碼器較好,而且都達(dá)到了92%以上。嚴(yán)韶光[45]等人對(duì)3類目標(biāo)在不同工況和水文氣象條件下采集的 5段長度為32 768 s的實(shí)錄輻射噪聲作為原始信號(hào),提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)的艦船噪聲分類器。通過數(shù)據(jù)仿真實(shí)驗(yàn)表明,CNN的分類效果要好于BP神經(jīng)網(wǎng)絡(luò)的分類效果。趙安邦等人[46]將高階累積量用于希爾伯特變換特征提取中,通過對(duì)艦船目標(biāo)輻射噪聲信號(hào)進(jìn)行采集,得到艦船目標(biāo)噪聲信號(hào),進(jìn)而提取目標(biāo)輻射信號(hào)各階模態(tài)的相鄰平均瞬時(shí)頻率比、相對(duì)標(biāo)準(zhǔn)差、中心頻率、平均強(qiáng)度、高階矩和高階累積量等作為特征,最終利用神經(jīng)網(wǎng)絡(luò)來實(shí)現(xiàn)對(duì) 2類艦船目標(biāo)的分類識(shí)別。程錦盛等人[47]從被動(dòng)聲吶目標(biāo)識(shí)別出發(fā),用4種監(jiān)督學(xué)習(xí)模型對(duì)A和B類水聲目標(biāo)、不同次海試、不同信噪比數(shù)據(jù)中提取的MFCC特征樣本進(jìn)行了識(shí)別研究,其中CNN和DBN模型的識(shí)別率最高。

        3 深度學(xué)習(xí)在水聲目標(biāo)識(shí)別應(yīng)用中的研究展望

        1)數(shù)據(jù)庫構(gòu)建。

        對(duì)于以數(shù)據(jù)為驅(qū)動(dòng)的深度學(xué)習(xí),獲取好的水聲數(shù)據(jù)信息顯得尤為重要。但就目前水聲目標(biāo)識(shí)別的研究現(xiàn)狀來看,由于水聲環(huán)境的復(fù)雜性,對(duì)于水聲聲信號(hào)的識(shí)別,研究人員仍會(huì)更多地參照深度學(xué)習(xí)對(duì)空氣中聲音的識(shí)別方法。而對(duì)水聲圖像的識(shí)別,則會(huì)采用以往的圖像處理算法和相關(guān)的深度學(xué)習(xí)理論。所以,應(yīng)建立完備的數(shù)據(jù)庫,從水聲聲信號(hào)與水聲圖像信號(hào)中提取預(yù)識(shí)別的水聲目標(biāo)的有效特征并發(fā)現(xiàn)其變化規(guī)律,訓(xùn)練水聲目標(biāo)識(shí)別模型或分類器,進(jìn)而提高水聲目標(biāo)識(shí)別模型的準(zhǔn)確性、信噪比魯棒性和泛化性。

        2)數(shù)據(jù)預(yù)處理方法。

        復(fù)雜的海洋環(huán)境,需要花費(fèi)大量的時(shí)間為深度學(xué)習(xí)模型提取理想的樣本,并按照模型要求的圖像大小構(gòu)造訓(xùn)練數(shù)據(jù)。由于處理大數(shù)據(jù)的規(guī)模所帶來的大樣本,使得數(shù)據(jù)呈現(xiàn)高維屬性和多樣性,故而數(shù)據(jù)預(yù)處理方法的優(yōu)劣對(duì)模型的構(gòu)建有重要的影響。深度學(xué)習(xí)在未來的數(shù)據(jù)處理方面應(yīng)面向多種數(shù)據(jù)格式,以期減少數(shù)據(jù)預(yù)處理所耗費(fèi)的大量時(shí)間,從而提高深度學(xué)習(xí)整體模型建立效率。

        3)模型構(gòu)建。

        深度學(xué)習(xí)模型算法眾多,但當(dāng)面對(duì)具體的水聲目標(biāo)識(shí)別問題時(shí),沒能及時(shí)給出最優(yōu)的模型算法。其大都是對(duì)現(xiàn)有的模型進(jìn)行改造或者多模型相結(jié)合,在模型的構(gòu)建過程中通過大量實(shí)驗(yàn)對(duì)比才能建立更加準(zhǔn)確的模型。同時(shí),面對(duì)這些問題還需要構(gòu)建新的學(xué)習(xí)模型,提高模型在面對(duì)不同種類的水聲目標(biāo)信號(hào)時(shí)的通用性,從而提升模型的適用范圍。

        4 結(jié)束語

        本文首先對(duì)水聲目標(biāo)識(shí)別技術(shù)的研究現(xiàn)狀及面臨的挑戰(zhàn)進(jìn)行了描述。同時(shí),介紹了深度學(xué)習(xí)的典型網(wǎng)絡(luò)結(jié)構(gòu)、改進(jìn)型網(wǎng)絡(luò)以及常用的幾種開發(fā)工具,并對(duì)深度學(xué)習(xí)在水聲目標(biāo)識(shí)別中的實(shí)際應(yīng)用情況進(jìn)行了闡述??隙松疃葘W(xué)習(xí)在水聲目標(biāo)識(shí)別應(yīng)用中的優(yōu)勢(shì),也指出了其中的不足之處,并給出了相應(yīng)的解決思路??梢灶A(yù)見,未來水聲目標(biāo)識(shí)別技術(shù)發(fā)展方向主要是非聲探測(cè)、多傳感器信息融合、智能目標(biāo)識(shí)別等。人工智能技術(shù)與水聲目標(biāo)識(shí)別技術(shù)有機(jī)結(jié)合將是今后水聲目標(biāo)識(shí)別研究的重要方向。

        猜你喜歡
        深度特征模型
        一半模型
        深度理解一元一次方程
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        如何表達(dá)“特征”
        不忠誠的四個(gè)特征
        深度觀察
        深度觀察
        深度觀察
        抓住特征巧觀察
        亚洲AV无码久久久一区二不卡| 华人在线视频精品在线| 亚洲一区二区三区重口另类| 亚洲av色香蕉一区二区三区潮| av中国av一区二区三区av| 内射白浆一区二区在线观看| 色综合av综合无码综合网站 | 国产精品国产高清国产专区| 麻豆md0077饥渴少妇| 中文字幕在线精品视频入口一区| 国产99久久久久久免费看| 国产AV无码专区亚洲AⅤ| 欧洲一区在线观看| 日韩产的人妻av在线网| 青青草在线免费播放视频| 国产av天堂亚洲国产av天堂| 亚洲人成网站色www| 久久人人爽人人爽人人片av麻烦| 国产一区a| 亚洲色图视频在线观看,| 亚洲成人激情深爱影院在线| 韩国av一区二区三区不卡| 亚洲一区二区三区香蕉| 国产精品无码不卡一区二区三区| 欧美成人www免费全部网站| 国产黄色精品高潮播放| 国产精品黄色在线观看| 国产亚洲精品品视频在线| 奇米影视7777久久精品| 国产农村乱辈无码| 不卡视频一区二区三区| 亚洲女同同性少妇熟女| 亚洲粉嫩视频在线观看| 偷拍视频网址一区二区| 少妇做爰免费视频了| 三级在线看中文字幕完整版| 女同啪啪免费网站www| 一区二区三区国产高潮| 伊人影院成人在线观看| 青青草国产在线视频自拍| 337p日本欧洲亚洲大胆精品|