趙乾坤 劉峰 梁秀兵 汪 濤 宋永強
(軍事科學(xué)院國防科技創(chuàng)新研究院 北京 100071)
水聲目標(biāo)識別技術(shù)對維護海洋權(quán)益、海洋資源開發(fā)具有十分重要的作用,在反潛、魚雷防御、海底地形勘探等領(lǐng)域應(yīng)用廣泛[1]。前期研究表明,水聲信道受海洋環(huán)境的影響會產(chǎn)生多徑、衰減、畸變等復(fù)雜變化,多種類別的水聲信號耦合在一起,使得艦船信號往往淹沒在背景噪聲之中。同時,艦船輻射噪聲具有較大的類內(nèi)差異性和類間相似性,使得同類型目標(biāo)在不同的航行狀態(tài)和環(huán)境下,具有不同的噪聲輻射特性。除此之外,水聲目標(biāo)類別十分廣泛,如漁船、貨輪、軍艦等水面目標(biāo);潛艇、海洋生物、鉆井平臺等水下目標(biāo),這些問題都增加了水聲信號的識別難度。因此,水聲信號目標(biāo)識別一直是國內(nèi)外水聲領(lǐng)域公認(rèn)的難題。
傳統(tǒng)的水聲信號特征提取方法經(jīng)過多年的發(fā)展,已經(jīng)從簡單的時域或頻域特征發(fā)展到時-頻結(jié)合、人耳聽覺感知、高階統(tǒng)計量等特征分析方法。其中,時頻分析方法提供了時間域與頻率域的聯(lián)合分布信息,可以清楚地描述信號頻率隨時間變化的關(guān)系,是目前最為常用的特征提取方法,如短時傅里葉變換(Short time Fourier transform,STFT)[2]、梅爾頻率倒譜系數(shù)(Mel-Frequency cepstral coefficients,MFCC)[3]、希爾伯特-黃變換(Hilbert-Huang transform,HHT)等。分類器設(shè)計方面,常用的方法包括隱馬爾科夫模型(Hidden Markov model,HMM)、高斯混合模型(Gaussian mixed model,GMM)、支持向量機(Support vector machine,SVM)以及級聯(lián)分類器等都在水聲信號識別中得到了應(yīng)用。然而,傳統(tǒng)方法的參數(shù)有限無法對大規(guī)模數(shù)據(jù)和海洋環(huán)境進行建模,系統(tǒng)部署后難以進行數(shù)據(jù)的迭代更新,這些問題都使得水聲信號依然長期依賴人工判讀。
近年來,深度學(xué)習(xí)技術(shù)的快速發(fā)展,以其對非線性系統(tǒng)的良好擬合能力,為水聲目標(biāo)識別領(lǐng)域提供了新思路?;谏疃葘W(xué)習(xí)的水聲目標(biāo)識別算法可以利用神經(jīng)網(wǎng)絡(luò)自動地學(xué)習(xí)特征并完成分類。越來越多的研究人員開始采用深度學(xué)習(xí)進行聲目標(biāo)識別研究,并借助深度神經(jīng)網(wǎng)絡(luò)實現(xiàn)特征優(yōu)化和目標(biāo)識別[4-5],可有效提高自動識別系統(tǒng)的泛化能力和環(huán)境適應(yīng)性。Kamal等[6]首先將深度置信網(wǎng)絡(luò)(Deep belief network,DBN)模型應(yīng)用于水聲信號被動目標(biāo)識別任務(wù)中,在40 個類別的目標(biāo)共1000 個測試樣本的測試集上取得了90.23%的分類正確率,結(jié)果表明利用深度學(xué)習(xí)模型進行水下目標(biāo)識是一種可行的途徑。王強等[7]從3 類目標(biāo)的實測水聲數(shù)據(jù)庫中提取梅爾倒譜特征及傅里葉變換特征,比較了DBN、卷積神經(jīng)網(wǎng)絡(luò)(Convolutional neural networks,CNN)、SVM的識別率,其中DBN的識別率最高。Yue等[8]使用CNN和DBN對16種不同類型的水聲目標(biāo)進行了分類,在有監(jiān)督和無監(jiān)督的情況下,其準(zhǔn)確率分別達到94.75%和96.96%,其結(jié)果優(yōu)于對比實驗中SVM 和Wndchrm(用于生物圖像分析的開源程序)的識別精度??紤]到水聲目標(biāo)信號的時序性質(zhì),也有學(xué)者應(yīng)用時序模型開展智能識別研究。張少康等[9]應(yīng)用長短時記憶(Long short-term memory,LSTM)網(wǎng)絡(luò)分別對水下目標(biāo)噪聲的時域時間序列數(shù)據(jù)、頻譜數(shù)據(jù)、梅爾倒譜數(shù)據(jù)進行深層次特征提取與識別,并使用實際水聲目標(biāo)噪聲信號對該方法進行了驗證。結(jié)果表明,在上述3 種輸入數(shù)據(jù)情況下,采用LSTM 模型均能有效實現(xiàn)水下目標(biāo)噪聲特征提取與智能識別。Li等[10]提出了一種基于時延神經(jīng)網(wǎng)絡(luò)(Time delay neural network,TDNN)的分類器,用濾波器組(Filter bank,Fbank)提取包含頻譜信息的特征作為網(wǎng)絡(luò)的輸入,實驗結(jié)果表明,該方法比SVM 等傳統(tǒng)方法具有更高的分類精度,且在真實環(huán)境下的三重分類實驗中準(zhǔn)確率達到90%以上,說明該分類器在建模時間序列和表示復(fù)雜非線性關(guān)系方面具有很大的優(yōu)勢。隨著注意力機制(Attention) 在自然語言處理領(lǐng)域的成功應(yīng)用,許多學(xué)者將注意力機制運用到水下目標(biāo)識別領(lǐng)域,也取得了不錯的識別效果。Li等[11]提出了一種基于注意機制和遷移學(xué)習(xí)的船舶輻射噪聲識別方法,在公共數(shù)據(jù)集上實現(xiàn)了99%的識別準(zhǔn)確率;徐承等[12]將多維自注意力機制引入多特征融合水下目標(biāo)識別框架,分別在特征維度和時間維度高效完成深層次目標(biāo)弱信息特征抽取,顯著提升了識別效果。
經(jīng)以上研究啟發(fā),本文嘗試基于注意力機制和TDNN 構(gòu)建深度網(wǎng)絡(luò)架構(gòu),進行有效地艦船輻射噪聲數(shù)據(jù)深層特征挖掘和分類識別。結(jié)果表明,本文驗證的網(wǎng)絡(luò)架構(gòu)方法有效。
人耳在不同頻率下的感知是多樣化和非線性的,基于人耳聽覺特征的MFCC和Fbank被廣泛應(yīng)用,它們都使用梅爾濾波器組,不同之處在于Fbank特征沒有進行離散余弦變換,離散余弦變換去除了各維信號之間的相關(guān)性,這也使得沒有進行此步驟的Fbank 特征更具有聲音的本質(zhì)信息,且比MFCC計算量更小[13]。Fbank 特征不僅可以改善聲信號的線性感知能力,能更好地表征聲頻的在低頻部分的頻域特征,提高聲紋識別的性能,而且在聲紋識別實驗中發(fā)現(xiàn)Fbank 特征比MFCC 特征表現(xiàn)更好。由于水聲目標(biāo)識別與聲紋識別的任務(wù)相似性,所以本文采用Fbank特征輸入后續(xù)網(wǎng)絡(luò),如圖1所示,它的一般步驟是:預(yù)加重、分幀、加窗、STFT、梅爾濾波等。
圖1 Fbank 特征提取流程Fig.1 Fbank feature extraction process
預(yù)加重:主要是對高頻部分進行補償,將艦船輻射噪聲信號輸入傳遞函數(shù)的高通濾波器進行處理,能夠提升高頻的能量,幫助提升識別的效果。對于n時刻信號的采樣值x[n],經(jīng)過預(yù)加重處理后得到的輸出:
其中,a為預(yù)加重系數(shù),取值一般在0.9~1之間。
分幀:艦船輻射噪聲信號具有短時平穩(wěn)性,為了能在短時“小段”上進行傅里葉變換,將信號按照給定長度切割成一個個小段,稱之為分幀。為了避免分幀后的相鄰幀變化過大,一般會保留一些兩幀間的重疊區(qū)域。
加窗:是在信號分幀后對每一幀乘上一個不斷移動的有限長窗函數(shù)的過程。窗外的值設(shè)定為0,其目的是消除各個幀兩端可能會造成的信號不連續(xù)性,避免出現(xiàn)吉布斯效應(yīng)。本文使用漢明窗:
其中,N為窗口長度。
快速傅里葉變換(FFT):為了將信號從時域轉(zhuǎn)換到頻域,得到頻譜上的能量分布,便于觀察不同的信號特性。在乘上漢明窗后,每幀要經(jīng)過FFT 以得到各幀的頻譜。假設(shè)采樣點是N,則計算如下:
梅爾濾波器組:將功率譜通過一組梅爾刻度的三角濾波器來提取頻帶,濾波器組中的每個濾波器都是三角形的,中心頻率為f(m),中心頻率處的響應(yīng)為1,并向0 線性減小,直到達到兩個相鄰濾波器的中心頻率,其中響應(yīng)為0,各f(m)之間的間隔隨著m值的增大而增寬。經(jīng)過FFT 的信號分別與每個濾波器進行頻率相乘累加,得到的值即為該幀數(shù)據(jù)在該濾波器對應(yīng)頻段的能量值。單獨濾波器的表達式為
最后,計算每個濾波器組輸出的對數(shù)能量為
得到梅爾頻譜圖如圖2所示。
圖2 梅爾頻譜圖Fig.2 Mel spectrum
水聲信號是一種典型的時序信號,存在著時間關(guān)聯(lián)特性。本實驗利用改進的TDNN 沿時間軸采用一維卷積結(jié)構(gòu)作為特征提取器[14],將水聲信號有區(qū)別地嵌入到一個向量空間中,利用水聲信號的短時平穩(wěn)特性提取幀級特征,然后將聲頻的幀級特征的均值和標(biāo)準(zhǔn)差連接起來作為長時特征,最后通過前饋網(wǎng)絡(luò)實現(xiàn)目標(biāo)類別的劃分。深度特征提取網(wǎng)絡(luò)依次由1 個TDNN 模塊(卷積核長度為5)、3個帶有壓縮激勵和分層類殘差連接的殘差塊(SERes2Block)、1 個TDNN 模塊(卷積核長度為1)和1個注意力統(tǒng)計池化模塊(Attentive statistics pooling,ASP)組成。其中TDNN 模塊均包含ReLU 激活層和一個批處理規(guī)范化層(Batch normalization,BN)。而且,由于神經(jīng)網(wǎng)絡(luò)可以學(xué)習(xí)分層特征,這些更深層次的特征是最復(fù)雜的,應(yīng)該與艦船類別密切相關(guān),更淺的特征圖也有助于提取更魯棒的艦船聲紋嵌入碼。因此,采用的網(wǎng)絡(luò)模型連接所有SERes2Block 的輸出特征,多層特征聚合(Multi-layer feature aggregation,MFA)之后,用一個全連接層(Fully connected layer,FC)處理連接的信息,輸入到ASP后,生成得到幀維度的均值向量和標(biāo)準(zhǔn)差向量[15],再經(jīng)過一個FC 生成192 維度的特征,然后用AAM-Softmax 方式進行分類識別。具體網(wǎng)絡(luò)結(jié)構(gòu)如表1 所示,其中T為時間幀數(shù),k表示卷積核長度,d表示空洞卷積維度。
表1 深層特征提取網(wǎng)絡(luò)結(jié)構(gòu)Table 1 Deep feature extraction network structure
其中,SE-Res2Block 模塊作為特征建模模塊,如圖3 所示,由兩個相同的帶有ReLU 激活層和BN 層的TDNN 模塊、1 個帶有ReLU 激活層和BN層的分層類殘差連接的殘差塊(Res2Block)、1 個壓縮激勵模塊(Squeeze-and-excitation block,SEBlock)和1 個從輸入到輸出的直接連接構(gòu)成。一維Res2Net 模塊將輸入通道平均分成8 個部分,如圖4所示,第一個特征圖保留,不進行變換,這是對前一層特征的復(fù)用,同時也降低了參數(shù)量和計算量。從第二個特征圖開始,都經(jīng)過一個3×512 的一維卷積,并且當(dāng)前特征圖的卷積結(jié)果,會與后一個特征圖進行殘差連接(逐元素相加)。然后,后一個特征圖再進行3×512的一維卷積。最后,將所有輸出通道部分合并為Res2Block 輸出。這樣使得層內(nèi)融合了不同尺度的特征,可獲得更強的表征。整體網(wǎng)絡(luò)模型1~3層Res2Block的空洞卷積膨脹率d分別為2、3、4。
圖3 SE-Res2Block 結(jié)構(gòu)示意圖Fig.3 SE-Res2Block structure diagram
圖4 Res2Conv1DReLUBN 結(jié)構(gòu)Fig.4 Res2Conv1DReLUBN structure
在SE-Res2Block 的最后使用了SE-Block,它是現(xiàn)代卷積神經(jīng)網(wǎng)絡(luò)所必備的結(jié)構(gòu),引入通道注意力機制,對通道間的依賴關(guān)系進行了建模,可增強有用的通道和抑制無用的通道,能夠有效地提升性能,而且計算量并不大。基本思路如圖5 所示,是將一個T ×1×512 的特征圖的每個特征通道都映射成一個值(常用全局平均池化,即:取該特征通道的均值,代表該通道),從而特征圖會映射為一個向量,長度與特征通道數(shù)一致。之后,向量通過FC (與用1 維卷積等價)進行降維,輸出長度為特征通道數(shù)的1/4(即128)。然后經(jīng)過激活函數(shù)ReLU。再通過一個FC,輸出長度與特征通道數(shù)一致(即512)。接著經(jīng)過激活函數(shù)Sigmoid,此時輸出向量的每一個值,范圍都是0~1 之間。最后用輸出向量的每一個值,對輸入特征圖的對應(yīng)通道進行加權(quán)相乘。
圖5 SE-Block 結(jié)構(gòu)Fig.5 SE-Block structure
ASP 是帶有注意力機制的統(tǒng)計池化層,因其在說話人嵌入方面的優(yōu)異性能而被安置在深度特征提取的最后[16]。具體結(jié)構(gòu)如圖6 所示,對輸入的1536×T的特征圖,按照T維度計算每個特征維度的均值和標(biāo)準(zhǔn)差,將均值和標(biāo)準(zhǔn)差分別在T維度重復(fù)堆疊T次,再將原輸入特征圖、均值和標(biāo)準(zhǔn)差在特征維度進行串聯(lián),得到的特征圖維度為4608×T。然后進行一維卷積將4608×T特征圖降維,經(jīng)過tanh激活函數(shù)得到維度為128×T的特征圖,再對其進行一維卷積將其升維到1536×T,進行Softmax 激活,在T維度上對幀權(quán)重進行了標(biāo)準(zhǔn)化處理,避免了不同批次之間的巨大差異,而且,此時特征圖每一行特征在T維度上求和都等于1,可以將其視為一種注意力分?jǐn)?shù),求出基于注意力的均值和標(biāo)準(zhǔn)差,再將它們按照特征維度進行串聯(lián),得到ASP最終的輸出。
圖6 ASP 結(jié)構(gòu)Fig.6 ASP structure
本文采用基于AAM-Softmax[17]的分類。原始的Softmax沒有考慮優(yōu)化去使得類內(nèi)具有高度相似性而類間具有顯著差異性。但是艦船輻射噪聲通常面臨海洋環(huán)境干擾、行駛狀態(tài)改變等引起的類內(nèi)差異大類間差異小的問題。而采用AAM-Softmax(如公式(6))進行分類時,在cosθ內(nèi)加入了角度余量損失(angular margin)m,增強類內(nèi)緊湊性和類間差異性,從而提高的判別能力,以及提升了訓(xùn)練的穩(wěn)定度。
這里使用Adam 來對網(wǎng)絡(luò)模型進行優(yōu)化,算法計算梯度平方的指數(shù)加權(quán)平均以及gt的指數(shù)加權(quán)平均:
其中,β1和β2分別為兩個移動平均的衰減率,通常取值為β1=0.9,β2=0.99。
Adam算法的參數(shù)更新差值:
本文采用兩組實驗數(shù)據(jù)作為驗證,分別為開源數(shù)據(jù)集ShipsEar和課題組自行采集的實驗數(shù)據(jù)。
其中,第一組數(shù)據(jù)為ShipsEar 數(shù)據(jù)集,該數(shù)據(jù)集共包含90 段聲頻記錄,分為5 個類別,數(shù)據(jù)是利用自容式水聽器對碼頭上往來的船只噪聲信號進行記錄,以采集不同船速下的噪聲以及與進塢或離塢時的空化噪聲。由于數(shù)據(jù)是在真實開放水域中采集的,部分信號中混雜了人說話聲、自然背景噪聲,偶爾也會記錄到海洋哺乳動物的聲音。經(jīng)初步處理后,消除了背景噪聲干擾強烈和模糊不清的信號。對數(shù)據(jù)進行預(yù)處理,去除空白信號,并將原始信號按照5 s 時長進行分幀和標(biāo)注,共生成1956 個標(biāo)注樣本。詳細信息如表2 所示,第一列是聲信號目標(biāo)類別,第二列是每類對應(yīng)的細分船只,第三列是每類目標(biāo)的幀數(shù)。
表2 第一組實驗數(shù)據(jù)Table 2 First set of experimental data
第二組數(shù)據(jù)為課題組自行采集的數(shù)據(jù)(如圖7所示),該數(shù)據(jù)采集利用4 組自容式水聽器對航道上過往的船只進行記錄,并利用船舶自動識別系統(tǒng)(Automatic identification system,AIS)對來往的船只進行標(biāo)注,包括目標(biāo)類別、距離、航向、航速等信息。采集過程中變換了多個采集地點,實驗共持續(xù)4天,每天平均采集時間7 h,采集區(qū)域水深10~18 m,經(jīng)過聽聲和記錄比對,濾除記錄缺失數(shù)據(jù)、空聲數(shù)據(jù)、干擾數(shù)據(jù)等,共計43種目標(biāo)(包括捕撈船、貨船、拖船、客船、集裝箱船、快艇等),144組wav文件。為了更加貼近真實場景下的應(yīng)用效果,將144 段目標(biāo)數(shù)據(jù)劃分為4個類別,分別為客輪(Passenger)、貨船(Cargo ship)、小漁船(Yacht)和其他(Others),并將采集的整段數(shù)據(jù)隨機選取放入訓(xùn)練集或者測試集,再按照5 s的固定時長對數(shù)據(jù)進行截取,這樣可以保證數(shù)據(jù)的獨立性。若采取先截取再隨機采樣的方式劃分?jǐn)?shù)據(jù),由于同一目標(biāo)或相鄰時間內(nèi)的信號數(shù)據(jù)變化不大,會使得訓(xùn)練集和測試集中的數(shù)據(jù)具有較強的相似性。經(jīng)劃分后共獲得8530 組數(shù)據(jù),其中訓(xùn)練集5971組,測試集2529組。
圖7 第二組實驗數(shù)據(jù)Fig.7 Second set of data
模型是由Pytorch和Librosa編制的。網(wǎng)絡(luò)模型在5 s 長的片段上訓(xùn)練了500 個歷時。初始學(xué)習(xí)率被設(shè)定為0.001。如果驗證集的準(zhǔn)確度在連續(xù)5個歷時中沒有提高,則學(xué)習(xí)率呈指數(shù)衰減,如公式(10)所示:
采用Adam 優(yōu)化器。隨著網(wǎng)絡(luò)中層數(shù)的增加,分布會逐漸發(fā)生變化。緩慢收斂意味著整體分布接近非線性函數(shù)取值區(qū)間的上界和下界,導(dǎo)致梯度在反向傳播過程中消失。所以引入歸一化、L2 正則化和激活函數(shù),使輸入值落入更敏感的區(qū)域。它可以使梯度變大,學(xué)習(xí)收斂變快,加快收斂速度。相關(guān)參數(shù)設(shè)置如表3所示。
表3 網(wǎng)絡(luò)訓(xùn)練相關(guān)參數(shù)設(shè)置Table 3 Network training related parameter settings
選擇循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent neural network,RNN)模型和深度神經(jīng)網(wǎng)絡(luò)(Deep neural networks,DNN)模型作為對照實驗,來驗證本文實驗?zāi)P偷挠行浴1? 中比較了基于ShipsEar 數(shù)據(jù)集各種模型的水下聲學(xué)信號識別的準(zhǔn)確率。根據(jù)實驗結(jié)果,本文采用的基于注意力機制改進的TDNN 模型(Fbank-attention-TDNN)的錯誤率最低,其準(zhǔn)確率表明有79.2%的機會正確識別水下聲學(xué)信號的類型。由于全連接神經(jīng)網(wǎng)絡(luò)(Fully connected neural network,FCNN)模型的FC 的參數(shù)最多,模型在訓(xùn)練過程中更容易過擬合,因此會提高了模型的錯誤率,使模型在測試過程中準(zhǔn)確率最低。雖然傳統(tǒng)的RNN模型和DNN模型利用連接的模型也同樣穩(wěn)定地收斂了,但效果不及本文實驗的模型。原因是TDNN 結(jié)合了信號的長時關(guān)聯(lián)性,更好地利用了梅爾譜圖前幀和后幀的時間相關(guān)性以及頻率的結(jié)構(gòu)信息,同時,本文實驗的模型也使用了殘差連接多尺度特征聚合,可以接受全局信息的特點使得模型在訓(xùn)練過程中學(xué)習(xí)每個網(wǎng)絡(luò)層的信息,會令模型的錯誤率逐漸下降,當(dāng)注意力機制被引入模型時,模型的效果更加穩(wěn)健。在不犧牲特征信息的情況下,本文采用的模型相較于傳統(tǒng)結(jié)果可能會大幅減少參數(shù),使其能夠產(chǎn)生最好的結(jié)果。
表4 實驗結(jié)果(基于ShipsEar 數(shù)據(jù)集)Table 4 Experimental results(Based on ShipsEar dataset)
采用上述相同的方法對本文構(gòu)建的數(shù)據(jù)集進行驗證。從圖8和圖9 中可以看出,訓(xùn)練集中的數(shù)據(jù)隨著迭代次數(shù)的增加識別率逐漸提高,但測試集中的數(shù)據(jù)在收斂到70%附近時振蕩較為明顯,且無法再提高識別率,模型訓(xùn)練存在一定的過擬合現(xiàn)象。分析其原因,一是在數(shù)據(jù)劃分的時候,訓(xùn)練集和測試集中的數(shù)據(jù)偏差較大,難以實現(xiàn)較好的擬合;二是每個類別中包含了多種不同型號的船只,這些目標(biāo)的類內(nèi)一致性和類間可分性問題還值得進一步研究,如其他類別中包含了海監(jiān)船、拖船等多種型號的船只;三是由于采集環(huán)境受限,本文的數(shù)據(jù)采集位于近岸,噪聲干擾較大,難以穩(wěn)定采集到觀測目標(biāo)的聲紋信號,這些都會對分類問題造成干擾。本次實驗所測數(shù)據(jù)更接近真實環(huán)境下的需求,可在一定程度上對本文所提方法進行驗證。
圖8 訓(xùn)練和測試準(zhǔn)確率對照曲線Fig.8 Comparison curve of training and test accuracy
圖9 訓(xùn)練和測試損失對照曲線Fig.9 Comparison curve of training and test loss
圖10 為本文方法在測試集識別結(jié)果的混淆矩陣,可用來呈現(xiàn)算法性能的可視化效果,每一列代表了預(yù)測類別,每一列的總數(shù)表示預(yù)測為該類別的數(shù)據(jù)的數(shù)目;每一行代表了數(shù)據(jù)的真實歸屬類別,每一行的數(shù)據(jù)總數(shù)表示該類別的數(shù)據(jù)實例的數(shù)目[18]。如第二行的Passenger,共有測試樣本514 個,正確分類結(jié)果為426個,誤分類為Others、Cargo boat和Little boat 的個數(shù)分別為60 個、9 個和19 個,通過混淆矩陣能夠很快地分析每個類別的誤分類情況。
圖10 分類混淆矩陣Fig.10 Confusion matrices for of targets
本文以典型的船舶類水下輻射噪聲信號為研究對象,以水聲信號的分類識別為目的,研究了采用一種基于注意力機制的TDNN 網(wǎng)絡(luò)模型在水聲信號分類識別的應(yīng)用能力。分別對ShipsEar開源數(shù)據(jù)集和課題組自行采集的實驗數(shù)據(jù)進行了實驗,提取信號梅爾頻譜作為輸入特征,識別準(zhǔn)確率分別達到79.2%和73.9%,驗證了實驗?zāi)P驮谒暷繕?biāo)識別問題上的有效性。下一步將驗證多特征融合輸入是否會提高模型得識別準(zhǔn)確率。