亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于LSTM網(wǎng)絡(luò)和注意力機(jī)制的汽車車內(nèi)聲品質(zhì)評價(jià)模型

        2025-03-16 00:00:00朱峰唐昭鄧云云張晴宇張學(xué)澤李雙

        摘要: 為了進(jìn)一步提高聲品質(zhì)評價(jià)模型的穩(wěn)定性和評價(jià)準(zhǔn)確率,提出一種基于長短期記憶(long short-term memory,LSTM)網(wǎng)絡(luò)和注意力機(jī)制的汽車車內(nèi)聲品質(zhì)評價(jià)模型(ALSTM).首先采集了不同品牌汽車在不同工況下駕駛員右耳處的穩(wěn)態(tài)噪聲樣本,并以煩惱度為評價(jià)指標(biāo)開展噪聲樣本的主觀評價(jià)試驗(yàn),建立了車內(nèi)聲品質(zhì)評價(jià)數(shù)據(jù)集.在此數(shù)據(jù)集的基礎(chǔ)上,將噪聲樣本的梅爾倒譜系數(shù)(Mel-scale frequency cepstral coefficient,MFCC)作為特征輸入,構(gòu)建了基于LSTM網(wǎng)絡(luò)的聲品質(zhì)評價(jià)模型,同時(shí)引入注意力機(jī)制對模型進(jìn)行優(yōu)化.結(jié)果表明:提出的聲品質(zhì)評價(jià)模型能夠有效地對車內(nèi)噪聲進(jìn)行評價(jià),在測試集上的準(zhǔn)確率高達(dá)97.07%;與其他方法相比,ALSTM模型的穩(wěn)定性、收斂速度和分類準(zhǔn)確率均有所提高.

        關(guān)鍵詞:" 聲品質(zhì)評價(jià)模型; 長短期記憶網(wǎng)絡(luò); 噪聲; 主觀評價(jià)試驗(yàn); 注意力機(jī)制

        中圖分類號: U491.9+1" 文獻(xiàn)標(biāo)志碼:" A" 文章編號:"" 1671-7775(2025)02-0125-07

        Evaluation model of car interior sound quality based on long

        short-term memory network and attention mechanism

        Abstract: To improve the stability and accuracy of the sound quality evaluation model, the vehicle interior sound quality evaluation model(ALSTM) based on long short-term memory (LSTM) network and attention mechanism was proposed. The steady noise samples of different brands of vehicles at the right ear of drivers under different working conditions were collected, and the subjective evaluation test of noise samples was carried out with annoyance as evaluation index to establish the evaluation data set of interior sound quality. On the basis of the data set, the sound quality evaluation model based on LSTM network was constructed with Mel-scale frequency cepstral coefficient (MFCC) of noise samples as feature input, and the attention mechanism was introduced to optimize the model. The experimental results show that the proposed evaluation model of sound quality can effectively evaluate the vehicle interior noise, and the accuracy in the test set is as high as 97.07%. Compared with other methods, the stability, convergence speed and classification accuracy of the ALSTM model are improved.

        Key words:" sound quality evaluation model; long short-term memory network; noise; subjective evaluation test; attention mechanism

        汽車車內(nèi)聲品質(zhì)評價(jià)研究已成為當(dāng)前汽車噪聲、振動(dòng)與聲振粗糙度(noise vibration amp; harshness)性能研究的熱點(diǎn),尤其是構(gòu)建一個(gè)準(zhǔn)確反映駕乘人員主觀感受的可靠聲品質(zhì)評價(jià)模型是其中的研究重點(diǎn).目前汽車車內(nèi)聲品質(zhì)評價(jià)研究的流程如下:首先是通過對采集到的噪聲樣本進(jìn)行主觀評價(jià)試驗(yàn);再通過心理聲學(xué)客觀參數(shù)解釋聲品質(zhì)主觀試驗(yàn)結(jié)果;最后建立聲品質(zhì)模型[1-2].文獻(xiàn)[3]基于噪聲的心理聲學(xué)客觀參數(shù)建立了多元線性回歸、BP 神經(jīng)網(wǎng)絡(luò)和徑向基函數(shù)(RBF)3 種評價(jià)模型,研究結(jié)果表明基于徑向基函數(shù)的評價(jià)模型準(zhǔn)確度比其他兩種模型準(zhǔn)確度更高.文獻(xiàn)[4]利用粒子群(PSO)算法和遺傳算法(GA),對基于BP 神經(jīng)網(wǎng)絡(luò)的混合動(dòng)力汽車聲品質(zhì)客觀評價(jià)模型進(jìn)行優(yōu)化,評價(jià)準(zhǔn)確度得到了進(jìn)一步提高.然而在提取心理聲學(xué)客觀參數(shù)的過程中,往往會(huì)丟失噪聲信號的原有信息,結(jié)果并不能完全表達(dá)噪聲的特性,而且過程復(fù)雜,費(fèi)時(shí)費(fèi)力.

        隨著近年來深度學(xué)習(xí)的快速發(fā)展,許多復(fù)雜的深度神經(jīng)網(wǎng)絡(luò)也被引入汽車聲品質(zhì)評估模型研究中.文獻(xiàn)[5]利用深度置信網(wǎng)絡(luò)來評價(jià)電動(dòng)車車內(nèi)聲品質(zhì),結(jié)果表明比傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)有更好的準(zhǔn)確性和穩(wěn)定性.文獻(xiàn)[6]利用卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks,CNN)對汽車的穩(wěn)態(tài)噪聲建立了聲品質(zhì)評估模型,將噪聲信號轉(zhuǎn)化為二維頻譜圖作為網(wǎng)絡(luò)的輸入,通過卷積神經(jīng)網(wǎng)絡(luò)強(qiáng)大的圖像識別功能,實(shí)現(xiàn)從噪聲信號到主觀感受的高度非線性映射,且預(yù)測精度高,節(jié)省人力.

        基于深度學(xué)習(xí)的方法大大提高了聲品質(zhì)評估模型的準(zhǔn)確率,但本質(zhì)上噪聲信號的時(shí)域特征和頻域特征都屬于序列數(shù)據(jù).如果能夠直接從序列數(shù)據(jù)中找出內(nèi)在聯(lián)系,才能更直觀徹底表現(xiàn)出信號的特征.因此,提出了一種基于注意力機(jī)制和長短期記憶(long short-term memory, LSTM)網(wǎng)絡(luò)的聲品質(zhì)評價(jià)模型(ALSTM).LSTM網(wǎng)絡(luò)作為循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural network,RNN)的變體網(wǎng)絡(luò),被廣泛應(yīng)用于與序列數(shù)據(jù)相關(guān)任務(wù)中,如語音建模和機(jī)器翻譯等.它能夠保留序列數(shù)據(jù)中的重要特征[7].對于車內(nèi)噪聲聲品質(zhì)評價(jià)這種需要依賴人耳聽覺系統(tǒng)反饋的任務(wù)來說,LSTM網(wǎng)絡(luò)能夠最大程度地提取噪聲信號中人耳感受到的時(shí)域和頻域中的重要特征.因此,相比其他神經(jīng)網(wǎng)絡(luò),選擇LSTM網(wǎng)絡(luò)作為評價(jià)模型,對于車內(nèi)聲品質(zhì)評價(jià)更為適合.同時(shí),引入注意力機(jī)制對LSTM網(wǎng)絡(luò)進(jìn)行優(yōu)化,它能夠在訓(xùn)練和測試中通過注意力權(quán)重的動(dòng)態(tài)分配,實(shí)現(xiàn)對輸入的重要性評估,從而進(jìn)一步提高LSTM網(wǎng)絡(luò)的分類性能.

        1 相關(guān)理論與模型

        1.1 長短期記憶網(wǎng)絡(luò)

        LSTM網(wǎng)絡(luò)模型相比于RNN網(wǎng)絡(luò),該模型通過特殊的“門”結(jié)構(gòu)控制每個(gè)時(shí)刻的信息狀態(tài),有效解決了RNN模型中存在的梯度爆炸和梯度消失問題[8].LSTM的單元結(jié)構(gòu)示意圖如圖1所示.圖中,xt為當(dāng)前時(shí)刻的輸入,ct-1和ct為前一個(gè)時(shí)刻和當(dāng)前時(shí)刻的長期記憶向量,ht-1和ht分別為前一個(gè)時(shí)刻和當(dāng)前時(shí)刻記憶單元的輸出,σ為sigmod函數(shù),tanh為雙曲正切函數(shù);虛線區(qū)域便是“門”結(jié)構(gòu),負(fù)責(zé)對前一時(shí)刻輸入、當(dāng)前時(shí)刻輸入和下一時(shí)刻輸出的“記憶”或“遺忘”.

        LSTM單元3個(gè)門工作原理如下所示.

        1) 遺忘門ft決定從單元中丟棄的信息.該門會(huì)讀取ht-1和xt,然后給向量ct-1中輸入0到1之間的數(shù)值,0表示完全舍棄,1表示完全保留.

        2) 輸入門it決定加入多少新信息到當(dāng)前的單元中.該門首先通過一個(gè)sigmod函數(shù)決定需要更新的信息,然后通過一個(gè)tanh函數(shù)生成一個(gè)用來備選更新的向量,最后將兩者結(jié)合,對當(dāng)前單元內(nèi)容進(jìn)行更新.

        3) 輸出門ot決定輸出多少信息到下一個(gè)單元中.該門首先通過一個(gè)sigmod函數(shù)來確定單元中的輸出信息,然后將輸出信息通過tanh函數(shù)進(jìn)行處理,最終得到當(dāng)前記憶單元的輸出.

        1.2 注意力機(jī)制

        注意力機(jī)制用于模擬人類大腦觀察環(huán)境的習(xí)慣[9].注意力機(jī)制可以通過計(jì)算注意力的概率分布,突出輸入信息中最豐富、最重要的部分對輸出的影響.該機(jī)制側(cè)重于重要信息,忽略不相關(guān)的信息,并重新校準(zhǔn)模型[10].注意力機(jī)制的架構(gòu)示意圖見圖2.

        圖2中,x=[x1x2…xi…xn](i為特征向量的計(jì)數(shù),n為特征向量的數(shù)量),其中每個(gè)xi為網(wǎng)絡(luò)的輸入或中間狀態(tài)的特征向量,ai為每個(gè)特征向量對應(yīng)的注意力權(quán)重.其計(jì)算公式為

        式中:s為注意力得分;u、w為線性變換矩陣參數(shù);b為網(wǎng)絡(luò)的偏置向量;softmax(·)為激活函數(shù);j為特征向量的計(jì)數(shù).

        1.3 ALSTM車內(nèi)聲品質(zhì)評價(jià)模型

        本文所提出的基于注意力機(jī)制和LSTM網(wǎng)絡(luò)的ALSTM模型結(jié)構(gòu)示意圖如圖3所示.首先,將采集的噪聲樣本進(jìn)行數(shù)據(jù)增強(qiáng),并提取每個(gè)樣本的梅爾倒譜系數(shù)(Mel-scale frequency cepstral coefficient,MFCC),每個(gè)輸入通過LSTM基礎(chǔ)記憶單元,與之前記憶單元的輸出相融合,使得輸出不僅僅包含當(dāng)前的信息,而且還保留了上一個(gè)記憶單元的信息,接著不斷往下傳遞和處理信息.經(jīng)過LSTM層后,得到結(jié)構(gòu)為m×n的矩陣H=[h1h2…h(huán)i…h(huán)n],其中m為噪聲樣本的幀數(shù).然后,通過公式(1)和(2)得到每一幀的注意力權(quán)重a,對每一個(gè)隱藏輸出的hi加權(quán)對應(yīng)的注意力權(quán)重ai,得到最終的輸出H′.最后,將H′輸入到全連接層中,實(shí)現(xiàn)空間轉(zhuǎn)換,目的在于提取特征間的相互聯(lián)系,映射到輸出空間上,最后通過softmax函數(shù)輸出分類結(jié)果.

        2 車內(nèi)噪聲數(shù)據(jù)采集與主觀評價(jià)試驗(yàn)

        2.1 車內(nèi)噪聲數(shù)據(jù)采集

        圖4為4種類型路面圖片.

        傳統(tǒng)燃油汽車車內(nèi)噪聲主要來源于動(dòng)力系統(tǒng)噪聲、胎噪和風(fēng)噪等.為了能夠收集到不同工況下的車內(nèi)噪聲數(shù)據(jù),本文設(shè)計(jì)了一個(gè)采集方案,即首先選用來自4家制造商不同型號的燃油車,都是市面上常見的家用A級車、B級車、豪華入門車以及SUV車型,里程數(shù)均在10 000 km以內(nèi).為了得到不同的道路激勵(lì),選擇市區(qū)里常見的光滑瀝青路面、粗糙瀝青路面、刻槽水泥路面和光滑水泥路面4種類型路面(見圖4).與此同時(shí),由于各種路面的限速不同,設(shè)計(jì)了不同路面類型與速度的組合,如表1所示.

        按照GB/T 18697—2002《聲學(xué)汽車車內(nèi)噪聲測量方法》的規(guī)定,使用DH5922D動(dòng)態(tài)信號測試分析系統(tǒng)進(jìn)行數(shù)據(jù)采集,選用BSWA TECH INA9202型聲壓傳感器記錄車內(nèi)駕駛員右耳處的噪聲信號.車內(nèi)聲壓傳感器布置如圖5所示.

        圖6為兩種工況下的原始車內(nèi)噪聲信號.

        為了能夠全面收集到車內(nèi)的噪聲,采樣頻率設(shè)為44.1 kHz,采樣時(shí)間為30 s.采集當(dāng)天的氣溫為7~15 ℃,風(fēng)速為2.8 m/s.車內(nèi)除了駕駛測量人員和采集設(shè)備外,沒有其他負(fù)載.采集期間,變速器的擋位處在最高擋位,確保道路上沒有其他過往車輛,周邊20 m范圍內(nèi)沒有能夠造成聲反射的物體,確保車輛在每條路面上按所選擇的車速直線平穩(wěn)地勻速行駛.同時(shí),車內(nèi)窗戶、空調(diào)保持關(guān)閉,駕駛員和測量人員保持沉默.每個(gè)工況下重復(fù)采集兩次,其中兩種工況下原始信號見圖6.

        2.2 車內(nèi)聲品質(zhì)主觀評價(jià)試驗(yàn)

        目前對于聲品質(zhì)的評價(jià)指標(biāo)有煩惱度、運(yùn)動(dòng)感和豪華感等[11],常用主觀評價(jià)方法包括成對比較法、等級評分法和語義細(xì)分法,具體描述參照文獻(xiàn)[12].本次試驗(yàn)采用煩惱度作為評價(jià)指標(biāo),采用語義輔助的等級評分法,并參考韓國現(xiàn)代公司提出的等級劃分方法[13],用0、1、2、3、4分表示煩惱度等級,分別對應(yīng)“不煩惱”、“基本不煩惱”、“有點(diǎn)煩惱”、“煩惱”和“非常煩惱”.

        由于采集到的噪聲樣本符合穩(wěn)態(tài)噪聲特征,因此每組數(shù)據(jù)截取5 s的時(shí)長進(jìn)行主觀評價(jià)試驗(yàn).本次試驗(yàn)招募了23名被試者(包括13名男性和10名女性),均具備汽車噪聲與振動(dòng)相關(guān)研究的經(jīng)驗(yàn),平均年齡為26歲,且聽力正常.試驗(yàn)地點(diǎn)選在蘇州大學(xué)軌道交通學(xué)院交通樓二樓會(huì)議室.試驗(yàn)中,向每個(gè)被試者提供高保真耳機(jī),被試者根據(jù)個(gè)人的真實(shí)感受,采用不同的等級評價(jià),對每一個(gè)噪聲樣本進(jìn)行主觀感知的量值判斷.試驗(yàn)前,對被試者講解試驗(yàn)?zāi)康?、流程和注意事?xiàng)等,并選取具有代表性的13個(gè)噪聲樣本放給被試者,進(jìn)行被試者訓(xùn)練.在正式試驗(yàn)時(shí),將52個(gè)噪聲樣本隨機(jī)播放.將每個(gè)噪聲樣本重復(fù)兩次,一共進(jìn)行104次評分,每次評價(jià)時(shí)間控制在10 min以內(nèi),超過10 min時(shí)休息5 min,然后繼續(xù)試驗(yàn).最后被試者按照個(gè)人感受在問卷上進(jìn)行打分.

        2.3 評價(jià)結(jié)果分析

        評價(jià)結(jié)果的分析方法主要包括聚類分析、誤判分析和相關(guān)分析等.本次試驗(yàn)采用Person相關(guān)系數(shù)[14]來確定被試者對同一個(gè)噪聲給出的兩次評分是否遵循同一標(biāo)準(zhǔn),計(jì)算公式為

        23名被試者的Person相關(guān)系數(shù)如圖7所示.

        一般認(rèn)為,當(dāng)相關(guān)系數(shù)大于0.6,可以視為兩次評分具有相關(guān)性,即兩次的評分遵循著同一個(gè)標(biāo)準(zhǔn).根據(jù)這個(gè)原則,剔除編號4和13,共獲得21名被試者的“有效煩惱度”評價(jià)結(jié)果.

        然后對每個(gè)噪聲樣本的所有評分進(jìn)行平均值計(jì)算.數(shù)據(jù)進(jìn)行處理后,按照四舍五入的原則轉(zhuǎn)化為不同的煩惱度等級[15].例如,21 名被試者對某個(gè)噪聲樣本的平均打分值為3.59分,通過四舍五入后該噪聲樣本得分為4分,對應(yīng)的煩惱度等級為“非常煩惱”.最終得到每個(gè)噪聲樣本煩惱度等級得分.

        3 基于注意力機(jī)制的LSTM車內(nèi)聲品質(zhì)評價(jià)模型

        車內(nèi)聲品質(zhì)評價(jià)可以被認(rèn)為特定環(huán)境下的聲學(xué)場景分類(acoustic scenes classification),因此將本研究歸類為監(jiān)督學(xué)習(xí)下的分類問題.深度學(xué)習(xí)網(wǎng)絡(luò)以數(shù)據(jù)為驅(qū)動(dòng),網(wǎng)絡(luò)需要大量的數(shù)據(jù)來找出其內(nèi)在聯(lián)系,通過不停地訓(xùn)練來調(diào)整參數(shù),從而達(dá)到最精確的結(jié)果.由于路測的成本太高,進(jìn)行數(shù)千次的試驗(yàn)代價(jià)過大,本研究屬于小樣本學(xué)習(xí)的范疇.參照其他聲學(xué)場景分類任務(wù),聲品質(zhì)評價(jià)任務(wù)流程示意圖如圖8所示.

        3.1 數(shù)據(jù)增強(qiáng)

        小樣本序列數(shù)據(jù)的數(shù)據(jù)增強(qiáng)方法包括基礎(chǔ)方法和基于深度學(xué)習(xí)的方法.該聲品質(zhì)評價(jià)模型采集的噪聲數(shù)據(jù)屬于包含多個(gè)周期的長時(shí)間序列數(shù)據(jù),可以將其視為標(biāo)準(zhǔn)測試道路上恒速的靜止信號[6].因此,本研究中采用窗口切片(window slicing)[16]的方法進(jìn)行數(shù)據(jù)增強(qiáng).該方法通過一個(gè)滑動(dòng)窗口將每個(gè)小樣本數(shù)據(jù)集中的噪聲信號處理成序列長度相等的新序列,這些新序列與原來的噪聲信號具有相同的聲品質(zhì)煩惱度得分.文獻(xiàn)[6]通過將30 s的噪聲數(shù)據(jù)裁剪為1 s的片段作為網(wǎng)絡(luò)輸入,也就是使用長度為44 100個(gè)采樣點(diǎn)的切片對原有噪聲數(shù)據(jù)進(jìn)行裁剪,以此達(dá)到擴(kuò)大數(shù)據(jù)集的要求,為網(wǎng)絡(luò)提供了足夠的數(shù)據(jù).然而,尚未有試驗(yàn)結(jié)果表明長度為44 100個(gè)采樣點(diǎn)的序列是否為最合適的網(wǎng)絡(luò)輸入.因此尋找最合適的網(wǎng)絡(luò)輸入變得極為重要.為尋找最合適的長度,該試驗(yàn)通過使用不同長度切片來分割聲音,形成了大小不同的數(shù)據(jù)集.對于這些數(shù)據(jù)集都采用相同特征輸入,然后在不同結(jié)構(gòu)的ALSTM模型中進(jìn)行訓(xùn)練和測試,最終得到不同輸入切片長度下的測試集正確率,結(jié)果如圖9所示.

        由圖9可知,雖然用更少的采樣點(diǎn)切片去裁剪噪聲信號能獲得更大數(shù)據(jù)集,但是并不意味著精度也隨之提高.很顯然4 410個(gè)采樣點(diǎn)是最合適的切片長度,它能夠更好地表示噪聲信號正確特征.因此將其作為最佳的選擇,在實(shí)現(xiàn)高精度的同時(shí),也滿足了擴(kuò)大數(shù)據(jù)集的要求.在實(shí)際應(yīng)用中,更少的采樣點(diǎn)切片輸入意味著更快的輸出,能夠快速地對車內(nèi)聲品質(zhì)煩惱度的變化做出響應(yīng).

        3.2 特征選取

        通過窗口切片,采集到噪聲數(shù)據(jù)都被分割為有4 410個(gè)采樣點(diǎn)的新序列,它們都具有相同的煩惱度評分,其中70%的數(shù)據(jù)作為訓(xùn)練集,30%的數(shù)據(jù)作為測試集.在聲學(xué)場景分類任務(wù)中,應(yīng)用最廣泛且效果最好的聲音特征便是梅爾倒譜系數(shù)(MFCC),它是基于人耳聽覺特征而提出的,是通過將離散余弦變換(DCT)應(yīng)用于對數(shù)壓縮梅爾尺度功率譜而提取的特征[17].MFCC的計(jì)算流程如圖10所示.

        將提取噪聲信號的MFCC特征作為網(wǎng)絡(luò)的輸入,考慮到不同快速傅里葉變換(FFT)長度和MFCC維度對于結(jié)果的影響,將不同的FFT長度(長度為256、512、1 024個(gè))和MFCC維度(維度為13、26、40維)進(jìn)行組合試驗(yàn).最后使用長度為1 024個(gè)樣本和重疊128個(gè)樣本的漢明窗實(shí)現(xiàn)快速傅里葉變換,每幀提取了40維的MFCC.最終的網(wǎng)絡(luò)輸入是大小為(35,40)的二維矩陣.

        3.3 試驗(yàn)結(jié)果

        根據(jù)所提出的架構(gòu)(見圖3),輸入特征通過兩個(gè)帶有64個(gè)LSTM單元的循環(huán)層進(jìn)入注意力機(jī)制層,得到隱藏層特征的注意力權(quán)重并輸入全連接層,最后通過softmax函數(shù)得到最終的分類預(yù)測值.由于本次任務(wù)是分類問題,通過計(jì)算真實(shí)值和預(yù)測值之間的交叉熵?fù)p失函數(shù)值來度量兩個(gè)概率分布間的差異性,其值越小,精度越高,從而提升模型的性能.損失函數(shù)計(jì)算式為

        試驗(yàn)所用計(jì)算機(jī)配置如下:CPU為Intel(R) Core(TM) i5-8500 CPU @ 3.00 GHz,內(nèi)存為16 GB,系統(tǒng)為Ubuntu18.04(64位操作系統(tǒng)),GPU為GTX1060Ti GPU.所有工作都是基于Pytorch 1.10完成.

        為探究注意力機(jī)制對LSTM模型的優(yōu)化效果,將本文方法(ALSTM)與普通的LSTM和RNN模型進(jìn)行對比分析,模型的參數(shù)設(shè)置與輸入均保持一致.圖11為3種模型在訓(xùn)練過程中,訓(xùn)練集數(shù)據(jù)與測試集數(shù)據(jù)的分類準(zhǔn)確率變化情況.

        由圖11可知:相對于RNN網(wǎng)絡(luò)來說,LSTM網(wǎng)絡(luò)因?yàn)槠涮厥獾摹伴T結(jié)構(gòu)”,解決了RNN模型中存在的梯度爆炸和梯度消失問題,因此網(wǎng)絡(luò)的穩(wěn)定性和準(zhǔn)確率有了進(jìn)一步的提高;注意力機(jī)制的引入對于LSTM網(wǎng)絡(luò)的優(yōu)化效果十分明顯,相較普通的LSTM網(wǎng)絡(luò),ALSTM方法收斂速度更快,分類準(zhǔn)確率更高,在測試集上分類準(zhǔn)確率達(dá)到97.07%,比普通LSTM網(wǎng)絡(luò)提高了4百分點(diǎn),驗(yàn)證了ALSTM方法的有效性和優(yōu)越性.

        為進(jìn)一步反映ALSTM方法的優(yōu)越性,選擇了BP神經(jīng)網(wǎng)絡(luò)和支持向量機(jī)分類(SVM)進(jìn)行比較.模型的輸入為原始噪聲樣本的心理聲學(xué)客觀參數(shù),包括響度、粗糙度、尖銳度和波動(dòng)強(qiáng)度,參數(shù)值見表3.

        通過遺傳算法對模型進(jìn)行優(yōu)化,使網(wǎng)絡(luò)的性能達(dá)到最優(yōu).其中BP神經(jīng)網(wǎng)絡(luò)的隱藏層神經(jīng)元數(shù)目為9個(gè),支持向量機(jī)分類的核函數(shù)為徑向基核函數(shù),懲罰系數(shù)為20,核函數(shù)參數(shù)為0.25.BP神經(jīng)網(wǎng)絡(luò)、SVC和ALSTM方法在測試集上的分類準(zhǔn)確率分別為87.50%、81.25%和97.07%.可見ALSTM方法分類準(zhǔn)確率最高.

        4 結(jié) 論

        1) 首先采集了不同品牌汽車在不同工況下駕駛員右耳的穩(wěn)態(tài)噪聲樣本,并以煩惱度為評價(jià)指標(biāo)完成了對噪聲樣本的主觀評價(jià)試驗(yàn),建立了從噪聲信號到主觀感受的車內(nèi)聲品質(zhì)評價(jià)數(shù)據(jù)集.

        2) 為了尋找最合適的網(wǎng)絡(luò)輸入,將噪聲片段分割為不同長度的新序列,在不同的模型上測試大小不同的數(shù)據(jù)集,最終確定了長度為4 410個(gè)采樣點(diǎn)的噪聲片段為最佳的網(wǎng)絡(luò)輸入.同時(shí),經(jīng)過多次組合試驗(yàn),確定了最適合的MFCC特征輸入.

        3) 建立了基于LSTM網(wǎng)絡(luò)的車內(nèi)聲品質(zhì)評價(jià)模型,并引入注意力機(jī)制對模型進(jìn)行優(yōu)化,得到了ALSTM模型.與基于其他方法的模型進(jìn)行比較可知,ALSTM聲品質(zhì)評價(jià)模型的穩(wěn)定性、收斂速度和分類準(zhǔn)確率均有所提高,驗(yàn)證了ALSTM模型的有效性和優(yōu)越性.

        參考文獻(xiàn)(References)

        [1] LI D, HUANG Y. The discomfort model of the micro commercial vehicles interior noise based on the sound quality analyses[J]. Applied Acoustics, 2018,132(9):223-231.

        [2] HUANG Y, JIANG W K. The effect of exposure duration on the subjective discomfort of aircraft cabin noise[J]. Ergonomics, 2017,60(1):18-25.

        [3] 左言言, 張海峰, 莊婷. 車內(nèi)聲品質(zhì)主客觀評價(jià)模型對比分析[J]. 江蘇大學(xué)學(xué)報(bào)(自然科學(xué)版) , 2017,38(4):403-409.

        ZUO Y Y, ZHANG H F, ZHUANG T. Comparative analysis of subjective and objective evaluation models of interior sound quality[J]. Journal of Jiangsu University(Natural Science Edition), 2017,38(4):403-409.(in Chinese)

        [4] 廖連瑩,潘繼郭,趙景波,等. 基于 PSOGA-BP的混合動(dòng)力汽車非穩(wěn)態(tài)工況聲品質(zhì)評價(jià)[J].重慶理工大學(xué)學(xué)報(bào)(自然科學(xué)), 2022,36(5):70-77.

        LIAO L Y, PAN J G, ZHAO J B, et al. Interior sound quality evaluation of hybrid electric vehicle under unsteady conditions based on PSOGA-BP neural network[J]. Journal of Chongqing University of Technology(Natural Science),2022,36(5):70-77.(in Chinese)

        [5] XING Y F, WANG Y S, SHI L, et al. Sound quality recognition using optimal wavelet-packet transform and artificial neural network methods[J]. Mechanical Systems and Signal Processing, 2016,66/67:875-892.

        [6] HUANG X R, HUANG H B, WU J H, et al. Sound quality prediction and improving of vehicle interior noise based on deep convolutional neural networks[J]. Expert Systems with Applications, 2020,160:113657.

        [7] MAHMOODZADEH A, NEJATI H R, MOHAMMADI M, et al. Forecasting tunnel boring machine penetration rate using LSTM deep neural network optimized by grey wolf optimization algorithm[J].Expert Systems with Applications: An International Journal, 2022,209:118303.

        [8] HOCHREITER S, SCHMIDHUBER J. Long short-term memory[J]. Neural Computation, 1997,9(8):1735-1780.

        [9] TREISMAN A M, GELADE G. A feature-integration theory of attention[J]. Cognitive Psychology, 1980,12:97-136.

        [10] HU Y T, LI J, HUANG Y F, et al. Channel-wise and spatial feature modulation network for single image super-resolution[C]∥IEEE Trans on Circuits and Systems for Video Technology. New York, USA:IEEE,2020:3911-3927.

        [11] 鄭大瑞,蔡秀蘭,陳通,等. 關(guān)于噪聲評價(jià)用語的研究[J]. 聲學(xué)學(xué)報(bào), 1993,18(6):444-454.

        ZHENG D R, CAI X L, CHEN T, et al. A study about noise terms[J]. Acta Acustica, 1993,18(6):444-454.(in Chinese)

        [12] 劉寧寧,李文靜,王巖松,等. 聲品質(zhì)主觀評價(jià)方法對比分析[J]. 現(xiàn)代制造工程, 2016(10):6-11.

        LIU N N, LI W J, WANG Y S, et al. Comparative ana-lysis for subjective evaluation method of sound quality[J]. Modern Manufacturing Engineering, 2016(10):6-11.(in Chinese)

        [13] LEE S K, KIM T G, LIM J T. Characterization of an axle-gear whine sound in a sports utility vehicle and its objective evaluation based on synthetic sound technology and an artificial neural network[J]. Proceedings of the Institution of Mechanical Engineers, Part D: Journal of Automobile Engineering, DOI:10.1243/09544070JAUTO563.

        [14] XUE X M, ZHOU J Z. A hybrid fault diagnosis approach based on mixed-domain state features for rotating machinery[J]. ISA Transactions, DOI:10.1016/j.isatra.2016.10.014.

        [15] 黨博,陳克安,張珺,等. 一種吸油煙機(jī)聲品質(zhì)滿意度分級限值評定方法[J].應(yīng)用聲學(xué), 2021,40(5):691-697.

        DANG B, CHEN K A, ZHANG J, et al. A satisfaction grading and evaluation limiting method for the sound quality of range hood[J]. Journal of Applied Acoustics, 2021,40(5):691-697.(in Chinese)

        [16] LE GUENNEC A, MALINOWSKI S, TAVENARD R. Data augmentation for time series classification using convolutional neural networks[C]∥ECML/PKDD workshop on advanced analytics and learning on temporal data. Switzerland: Springer, 2016:1-5.

        [17] REJAIBI E, KOMATY A, MERIAUDEAU F, et al. MFCC-based recurrent neural network for automatic cli-nical depression recognition and assessment from speech[J]. Biomedical Signal Processing and Control, 2022,71:103107.

        国家一级内射高清视频| 中文字幕高清在线一区二区三区| 久久精品一品道久久精品9| 日本二区三区视频免费观看| 亚洲精品国产成人久久av| 小辣椒福利视频导航| 亚洲av区无码字幕中文色| 亚洲国产日韩欧美高清片a| 射进去av一区二区三区| 亚洲中文字幕久久精品蜜桃| 日本又黄又爽gif动态图| 美女高潮流白浆视频在线观看| 国产亚洲日本精品二区| 日韩大片高清播放器大全| av无码久久久久不卡网站下载| 亚洲 无码 制服 丝袜 自拍| 国产成人高清视频在线观看免费| 无码爽视频| 秋霞午夜无码鲁丝片午夜精品| 一区二区三区日本大片| 日本一级三级在线观看| 欧美大屁股xxxx高潮喷水| 亚洲av无码之日韩精品| 久久丁香花综合狼人| 国产三级精品和三级男人| 公和我做好爽添厨房中文字幕| 国产剧情国产精品一区| 国产一区二区在线观看视频免费| 亚洲一区二区三区四区地址| 成人欧美一区二区三区1314| 亚洲毛片αv无线播放一区| 国产精品日本中文在线| 久久99精品久久久久久清纯| 亚洲av无码日韩精品影片| 国产精彩刺激对白视频| 三级日本理论在线观看| 亚洲娇小与黑人巨大交| 欧美在线资源| 偷拍一区二区三区黄片| 日本一道综合久久aⅴ免费| 久久亚洲国产精品成人av秋霞|