李 揚(yáng) 王鴻鵬
(哈爾濱工業(yè)大學(xué)深圳研究生院計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院 廣東 深圳 518055) (深圳物聯(lián)網(wǎng)關(guān)鍵技術(shù)及應(yīng)用系統(tǒng)集成工程實(shí)驗(yàn)室 廣東 深圳 518055)
?
基于麥克風(fēng)陣列的聲源定位算法研究
李揚(yáng)王鴻鵬
(哈爾濱工業(yè)大學(xué)深圳研究生院計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院廣東 深圳 518055) (深圳物聯(lián)網(wǎng)關(guān)鍵技術(shù)及應(yīng)用系統(tǒng)集成工程實(shí)驗(yàn)室廣東 深圳 518055)
在基于時(shí)延估計(jì)的聲源定位系統(tǒng)中,由于定位算法分為兩個(gè)階段:時(shí)延估計(jì)和定位,時(shí)延估計(jì)階段的誤差會(huì)在定位階段被放大,導(dǎo)致聲源定位的成功率和精度較低。從原始信號(hào)去噪,時(shí)延值插值和定位算法三方面入手,提高聲源定位的精度。結(jié)合自行設(shè)計(jì)的四元十字麥克風(fēng)陣列,給出一種新的時(shí)延值篩選算法,實(shí)現(xiàn)了一個(gè)室內(nèi)聲源定位系統(tǒng)。實(shí)驗(yàn)結(jié)果表明,在二維定位場景中,該系統(tǒng)對(duì)聲源方位角的估計(jì)成功率超過70%,平均誤差小于5°;該系統(tǒng)對(duì)聲源距離估計(jì)的成功率和精度與聲源方位角有關(guān),當(dāng)聲源方位與X、Y軸的夾角不超過15°且聲源距離不超過2.5m時(shí),聲源距離估計(jì)的成功率能達(dá)到50%以上。
聲源定位時(shí)延值篩選時(shí)延值冗余自適應(yīng)特征值分解小波去噪
基于麥克風(fēng)陣列的聲源定位系統(tǒng)通過多個(gè)麥克風(fēng)拾取聲源信號(hào),對(duì)接收到的多路信號(hào)進(jìn)行分析和處理,最終得到聲源的位置。聲源定位系統(tǒng)無論在民用[1,2]還是軍用[3,4]領(lǐng)域都扮演著重要的角色?;邴溈孙L(fēng)陣列的聲源定位技術(shù)大致可分為三種:基于最大輸出功率的可控波束形成技術(shù)[5]、基于高分辨率譜估計(jì)技術(shù)[6]和基于時(shí)延估計(jì)的技術(shù)[7]。
其中,基于時(shí)延估計(jì)的聲源定位技術(shù)由于原理簡單、運(yùn)算量小和易于實(shí)現(xiàn)而被廣泛應(yīng)用。在基于時(shí)延估計(jì)的聲源定位系統(tǒng)中,定位過程分為兩個(gè)階段[8]:時(shí)延估計(jì)階段和定位階段。由于雙曲面的幾何特性,時(shí)延值估計(jì)的誤差在定位階段被放大[9],造成定位階段的成功率不高,定位結(jié)果誤差較大。因此如何提高時(shí)延估計(jì)的成功率和精度便成了聲源定位系統(tǒng)的關(guān)鍵問題。本文通過對(duì)原始語音信號(hào)進(jìn)行小波去噪,采用抗混響能力強(qiáng)的自適應(yīng)特征值分解算法,同時(shí)對(duì)時(shí)延估計(jì)值進(jìn)行插值,提高時(shí)延估計(jì)的精度。在進(jìn)行時(shí)延估計(jì)之后,為了避免無謂的計(jì)算,需要剔除錯(cuò)誤的時(shí)延值。但是聲源位置未知的情況下,時(shí)延值的實(shí)際值無從得知,因此無法通過與實(shí)際值比較的方法對(duì)時(shí)延估計(jì)值進(jìn)行篩選。本文根據(jù)時(shí)延值之間的相關(guān)性,給出了一種時(shí)延值篩選算法。在定位階段,為了充分利用時(shí)延值的冗余信息,給出了一種基于時(shí)延值冗余的定位算法。最終實(shí)現(xiàn)了一個(gè)基于四元十字陣的室內(nèi)聲源定位系統(tǒng)。該系統(tǒng)在一般室內(nèi)環(huán)境中,方位角估計(jì)能達(dá)到70%以上的成功率,平均誤差小于4.5°;當(dāng)聲源方位與XY軸的夾角不超過15°且聲源距離不超過2.5m時(shí),聲源距離估計(jì)的成功率能達(dá)到50%以上。
1.1小波去噪
對(duì)原始語音信號(hào)進(jìn)行小波去噪的基本原理[10]為:語音信號(hào)和噪聲信號(hào)分別進(jìn)行小波變換之后,其小波系數(shù)具有不同的布特征。噪聲信號(hào)頻譜比較分散,小波系數(shù)較小,語音信號(hào)頻譜分布比較集中,小波系數(shù)較大。利用這一特性可先對(duì)帶噪語音信號(hào)進(jìn)行小波變換,然后在每一層尺度上對(duì)小波系數(shù)進(jìn)行處理。
本文小波變換的實(shí)現(xiàn)方法如下:首先對(duì)原始語音信號(hào)進(jìn)行三階小波變換,得到小波系數(shù),按照一定閾值抑制高頻系數(shù),再進(jìn)行小波逆變換,得到經(jīng)過去噪的語音信號(hào)。圖1為小波去噪前后的音頻信號(hào)對(duì)比。
圖1 小波去噪前后的音頻信號(hào)對(duì)比
1.2自適應(yīng)特征值分解算法
傳統(tǒng)的時(shí)延估計(jì)算法如廣義互相關(guān)法(GCC)基于一種理想的聲音傳播模型:單路徑模型。在這種模型中,不考慮障礙物對(duì)聲源信號(hào)的反射作用。然而在實(shí)際的室內(nèi)環(huán)境中不可避免的存在混響,這種理想的單路徑模型是不成立的。自適應(yīng)特征值分解算法(AED)在建立聲音傳播模型時(shí)考慮了混響這個(gè)干擾因素,因此能獲得更好的時(shí)延估計(jì)效果[11]。自適應(yīng)特征值分解算法的迭代公式[12]為:
e(n)=uT(n)x(n)
(1)
(2)
其中:
(3)
xi(n)=[xi(n)xi(n-1)…xi(n-M+1)]Ti=1,2
(4)
(5)
(6)
其中,u為收斂步長,e(n)為預(yù)估誤差,u(n)和u(n+1)分別為更新之前和之后的特征向量。在迭代開始之前,g2初始化為單位沖激函數(shù),g1初始化為0。迭代結(jié)束之后,分別對(duì)g1和g2進(jìn)行峰值檢測,其峰值位置之差即為麥克風(fēng)對(duì)的時(shí)延估計(jì)。
1.3時(shí)延值篩選
經(jīng)過時(shí)延估計(jì)后可得到時(shí)延值的整數(shù)部分,在進(jìn)行后續(xù)計(jì)算之前,需要剔除錯(cuò)誤的時(shí)延值。本文給出了一種時(shí)延值篩選算法,它利用時(shí)延值之間的相關(guān)性,判斷時(shí)延估計(jì)值是否正確。
以四元麥克風(fēng)陣列為例,每一次時(shí)延估計(jì)產(chǎn)生6個(gè)時(shí)延值,分別是:
(7)
其中τi,j=τi-τj,τi,j是麥克風(fēng)i相對(duì)于麥克風(fēng)j的時(shí)間延遲,τi,τj為聲源信號(hào)到達(dá)麥克風(fēng)i和j的時(shí)間。
理想情況下,時(shí)延值之間的關(guān)系可用式(8)和式(9)表示:
τi,k=ti-tk=(ti-tj)+(tj-tk)=τi,j+τj,k
(8)
τi,j=ti-tj=-(tj-ti)=-τj,i
(9)
其中ti表示聲源到達(dá)麥克風(fēng)i的時(shí)間。
由于存在時(shí)延估計(jì)誤差,式(8)左右兩邊只是近似相等,即二者存在一個(gè)小的差值。因此可以利用這一特性對(duì)時(shí)延值進(jìn)行篩選,剔除錯(cuò)誤的時(shí)延值。具體步驟如下所示:
1) 根據(jù)自適應(yīng)特征值分解算法得到時(shí)延值的整數(shù)部分;
2) 對(duì)于所有麥克風(fēng)組合Mi、Mj和Mk,其中i,j、k互不相等,計(jì)算:
(10)
3) 設(shè)定合理的時(shí)延值誤差閾值,如果對(duì)于所有麥克風(fēng)組合,式(10)都小于該閾值,那么式(7)通過時(shí)延值篩選;否則拋棄這組時(shí)延值。
1.4時(shí)延值插值
經(jīng)過時(shí)延值篩選后,只能獲得時(shí)延估計(jì)值的整數(shù)部分。為了提高時(shí)延估計(jì)的精度,需要對(duì)自適應(yīng)特征值分解法中的g2向量進(jìn)行插值,得到時(shí)延估計(jì)值的小數(shù)部分。
目前比較常用的插值算法有拋物線插值法[13],拋物線插值法計(jì)算量小,原理簡單。拋物線插值法得到的峰值點(diǎn)位置為:
(11)
其中(xpeak,ypeak)為插值之前的峰值點(diǎn)坐標(biāo),(xleft,yleft)和(xright,yright)分別是峰值點(diǎn)的左相鄰點(diǎn)和右相鄰點(diǎn),τ為經(jīng)過拋物線插值之后的峰值位置。
由于拋物線插值法只利用了峰值點(diǎn)的左右相鄰點(diǎn)的信息,因此插值得到的時(shí)延值誤差較大。本文對(duì)拋物線插值法進(jìn)行了改進(jìn),給出了基于四階多項(xiàng)式的插值法。該算法的步驟如下所示:
1) 分別取峰值點(diǎn)(xpeak,ypeak)的左邊和右邊兩個(gè)相鄰點(diǎn),如圖2所示。將這四個(gè)點(diǎn)和峰值點(diǎn)帶入式(12)中:
(12)
求得高階多項(xiàng)式的系數(shù),并得到極大值點(diǎn)。此極大值點(diǎn)的橫坐標(biāo)即為經(jīng)過插值的時(shí)延值。
2) 對(duì)經(jīng)過插值得到的時(shí)延值進(jìn)行二次篩選,如1.3節(jié)所示。
圖2中的實(shí)線為g2對(duì)應(yīng)的曲線,虛線為式(12)對(duì)應(yīng)的曲線,三角形標(biāo)注點(diǎn)為1)中選取的點(diǎn),圓形標(biāo)注點(diǎn)為插值之前的峰值點(diǎn),正方形標(biāo)注點(diǎn)為插值之后的峰值點(diǎn)。在插值之前,峰值點(diǎn)位于x=206;經(jīng)過四階多項(xiàng)式插值之后,峰值點(diǎn)的位置位于x=206.37。
圖2 基于四階多項(xiàng)式的插值法示意圖
實(shí)際上,對(duì)于四元麥克風(fēng)陣列來說,一組時(shí)延值是存在很多冗余信息的。為了利用這種冗余,得到更加精確的聲源位置,一般的做法[14]是:
1) 分別以每一個(gè)麥克風(fēng)為參考麥克風(fēng),得到其他麥克風(fēng)相對(duì)參考麥克風(fēng)的時(shí)延值。
2) 在1)中的時(shí)延值的基礎(chǔ)上,推導(dǎo)得到其他時(shí)延值。例如,已知τ1,4、τ2,4、τ3,4,利用麥克風(fēng)之間的幾何關(guān)系可得:
(13)
(14)
(15)
因此完整的一組時(shí)延值為:
(16)
3) 利用幾何位置定位算法,估計(jì)聲源位置。剔除其中不合理的值并求平均值,得到最終的聲源位置。
在上述方法的基礎(chǔ)上,為了更加有效地利用時(shí)延值的冗余信息,我們對(duì)其進(jìn)行了兩點(diǎn)改進(jìn):
1) 在上述方法中,聲源估計(jì)位置是基于最多四組樣本的平均值。由于樣本數(shù)太少,估計(jì)位置易受異常樣本的干擾。為了獲得更多的聲源位置樣本,每次從一組時(shí)延值中取出三個(gè)不相關(guān)的時(shí)延值。根據(jù)組合原理,共有16種符合條件的時(shí)延值組合。分別對(duì)每一種組合進(jìn)行聲源位置估計(jì),從中剔除錯(cuò)誤值并求平均值。
2) 幾何位置定位法是基于遠(yuǎn)場的一種定位算法,在計(jì)算聲源位置的過程中采取了某種近似,而這種近似條件在聲源距離較近時(shí)是不成立的[15]。因此在本文中不采用帶近似條件的幾何位置定位法,直接對(duì)式(17)-式(19)構(gòu)成的方程組求解。假設(shè)1)中某一組時(shí)延值組合為(τi1,j1,τi2,j2,τi3,j3)
(17)
(18)
(19)
其中Ts為對(duì)麥克風(fēng)信號(hào)的采樣周期,r是聲源位置,c是聲速,rmi是麥克風(fēng)mi的位置。
本實(shí)驗(yàn)在一個(gè)7m×8m×3.5m的空間內(nèi)進(jìn)行,存在一定的噪聲和混響。麥克風(fēng)陣列采用四元十字陣,四個(gè)麥克風(fēng)處在同一個(gè)平面上,每一個(gè)麥克風(fēng)距離十字陣中心點(diǎn)的距離為25cm,對(duì)麥克風(fēng)信號(hào)的采樣頻率為40kHz。
在預(yù)處理階段,使用矩形窗進(jìn)行加窗,每一幀長度為1024個(gè)采樣點(diǎn),幀與幀之間的重疊率為75%;端點(diǎn)檢測采用短時(shí)平均能量作為檢測標(biāo)準(zhǔn)。采用自適應(yīng)特征值分解法進(jìn)行時(shí)延估計(jì),使用基于時(shí)延值冗余的定位算法求得聲源位置。
3.1聲源位置對(duì)定位結(jié)果的影響
分別以四元十字陣的對(duì)角線為X軸和Y軸,十字陣中心為原點(diǎn),建立直角坐標(biāo)。本實(shí)驗(yàn)聲源位置位于第三象限內(nèi),方位角分別為180°, 195°, 210°, 225°, 240°, 255°, 270°。對(duì)于每一個(gè)方位角,聲源分別在距離麥克風(fēng)陣列中心0.5、1.0、1.5、2.0、2.5、3.0、3.5、4.0、4.5、5.0、5.5、6.0m的位置,如圖3所示,其中空心點(diǎn)教是麥克風(fēng)陣列的中心,實(shí)心點(diǎn)為聲源擺放的各個(gè)位置。
依次將聲源按照?qǐng)D3中的位置擺放,在每個(gè)位置進(jìn)行30~50次實(shí)驗(yàn),每次實(shí)驗(yàn)都對(duì)聲源的音頻信號(hào)進(jìn)行采集,并使用上述算法得到聲源位置的估計(jì),因此每一個(gè)聲源位置對(duì)應(yīng)一組聲源位置的估計(jì)。以10°和0.5m作為聲源方位角估計(jì)值和距離估計(jì)值的最大誤差閾值,剔除誤差超出閾值的數(shù)據(jù),然后分別計(jì)算這個(gè)位置的方位角估計(jì)和距離估計(jì)的成功率和平均誤差。圖4到圖7為是時(shí)延估計(jì)通過篩選的情況下,對(duì)聲源方位角估計(jì)和距離值估計(jì)的統(tǒng)計(jì),統(tǒng)計(jì)數(shù)據(jù)包括估計(jì)成功率和估計(jì)平均誤差。
圖3 麥克風(fēng)中心位置和聲源位置示意圖
從圖4和圖5可以看到,方位角估計(jì)成功率最低為70%, 最高為100%。方位角的平均誤差最低0°,最高為4.4°。在同一方位角下,隨著聲源距離的增加,方位角估計(jì)的平均誤差有逐漸減小的趨勢(shì)。
圖4 方位角估計(jì)成功率與聲源距離、方位角的關(guān)系
圖5 估計(jì)方位角平均誤差與聲源距離、方位角的關(guān)系
從圖6和圖7中可看到,聲源距離估計(jì)的成功率與聲源的方位角和距離有關(guān)。在同一方位角下,其成功率隨著距離增加呈現(xiàn)迅速衰減的趨勢(shì);在同一距離下,聲源方位角越偏離X或Y坐標(biāo)軸,即方位角越靠近X軸和Y軸的角平分線,距離估計(jì)的成功率越低。聲源距離估計(jì)的平均誤差最小為0.03m,最大為0.45m。從圖中可以看到,當(dāng)聲源方位角與坐標(biāo)軸(X軸或Y軸)的夾角不超過15°,且聲源距離不超過2.5m時(shí),聲源距離估計(jì)能獲得50%以上的成功率。
圖6 聲源距離估計(jì)的成功率與聲源距離、方位角的關(guān)系
圖7 距離估計(jì)平均誤差與聲源距離、方位角的關(guān)系
3.2對(duì)聲源距離估計(jì)結(jié)果的分析
在二維定位場景中,麥克風(fēng)i和j的理想時(shí)延與聲源位置的關(guān)系如下:
(20)
(21)
其中M=xjDi-xiDj,N=yjDi-yiDj。計(jì)算r關(guān)于τi,j(i≠j,i,j∈{1,2,3,4})的拉氏算子:
(22)
給定r值,▽2r與θ的關(guān)系如圖8所示。從中看到,當(dāng)聲源的方位角趨近于45°、135°、225°和315°時(shí),▽2r趨近于無窮大。簡而言之,當(dāng)聲源的方位角靠近上述角度時(shí),極小的時(shí)延估計(jì)誤差會(huì)造成極大的聲源距離估計(jì)偏差,導(dǎo)致聲源距離估計(jì)的成功率和精度下降。
圖8 ▽2r與θ的關(guān)系
3.3時(shí)延值插值算法的對(duì)比實(shí)驗(yàn)
根據(jù)1.3節(jié),時(shí)延估計(jì)值越精確,式(10)的值越??;同樣的,在麥克風(fēng)個(gè)數(shù)為4時(shí),時(shí)延估計(jì)值越精確,式(23)越小:
(23)
其中:
(24)
1) 采集聲源信號(hào),對(duì)多路信號(hào)進(jìn)行去噪,加窗分幀和時(shí)延估計(jì),得到時(shí)延估計(jì)的整數(shù)值;
2) 分別使用四階多項(xiàng)式插值法和拋物線插值法對(duì)時(shí)延估計(jì)值進(jìn)行插值,得到插值之后的時(shí)延估計(jì)值;
表1 兩種插值法的對(duì)比結(jié)果
從表1中可以看到,四階多項(xiàng)式插值法的時(shí)延估計(jì)平均誤差小于拋物線插值法,時(shí)延估計(jì)的平均誤差減小了8.7%,該實(shí)驗(yàn)說明四階多項(xiàng)式插值法的效果好于拋物線插值法。
3.4定位算法的對(duì)比實(shí)驗(yàn)
為了比較第2節(jié)中幾何位置定位法和本文給出的定位方法(以下分別簡稱為算法1和算法2)的效果,進(jìn)行以下實(shí)驗(yàn):將聲源放置在方位角為270°,距離為3m的位置,進(jìn)行38次實(shí)驗(yàn)。在每一次實(shí)驗(yàn)中,首先采集聲源信號(hào),再進(jìn)行小波去噪,加窗分幀,時(shí)延估計(jì)等操作,最后分別使用算法1和算法2得到各自的聲源位置估計(jì)。分別統(tǒng)計(jì)采用算法1和算法2的情況下,方位角估計(jì)和距離估計(jì)的成功率、平均值和平均誤差,實(shí)驗(yàn)結(jié)果如表2所示。
表2 算法1和算法2的對(duì)比結(jié)果
從表2中可看出,使用算法1進(jìn)行聲源定位的成功率和精度明顯優(yōu)于算法2,聲源距離估計(jì)的平均誤差減小了52.9%。
本文實(shí)現(xiàn)了一個(gè)基于四元十字陣的聲源定位系統(tǒng)。在實(shí)現(xiàn)過程中,首先使用小波去噪算法對(duì)語音信號(hào)進(jìn)行預(yù)處理,再使用抗干擾能力較強(qiáng)的自適應(yīng)特征值分解算法進(jìn)行時(shí)延估計(jì),并給出了時(shí)延值篩選算法,用于剔除錯(cuò)誤的時(shí)延值。在拋物線插值的基礎(chǔ)上,給出了四階多項(xiàng)式插值法,最后給出了基于時(shí)延值冗余的聲源定位算法,估計(jì)聲源的方位角和距離。
實(shí)驗(yàn)結(jié)果表明,本定位系統(tǒng)對(duì)聲源方位角的估計(jì)能達(dá)到超過70%的成功率,平均誤差小于5°;當(dāng)聲源在45°、135°、225°和315°方向時(shí),聲源距離估計(jì)存在奇點(diǎn),當(dāng)聲源方位角與X、Y軸的夾角不超過15°且聲源距離不超過2.5m時(shí),聲源距離估計(jì)的成功率達(dá)到50%以上。
在時(shí)延值插值的對(duì)比實(shí)驗(yàn)中,通過四階多項(xiàng)式插值法得到的時(shí)延估計(jì)平均誤差比拋物線插值法小8.9%;在定位算法的對(duì)比實(shí)驗(yàn)中,通過本文給出的定位算法得到的距離估計(jì)平均誤差比幾何位置定位法小52.9%。在后續(xù)的研究中將致力于提高聲源距離估計(jì)的精度,減小聲源實(shí)際距離和方位角對(duì)距離估計(jì)的影響。
[1]KotusJ,LopatkaK,CzyzewskiA.Detectionandlocalizationofselectedacousticeventsinacousticfieldforsmartsurveillanceapplications[J].MultimediaToolsandApplications,2014,68(1):5-21.
[2]ZhongX,WangS,DormanM,etal.Soundsourcelocalizationfromtactileaidsforunilateralcochlearimplantusers[J].TheJournaloftheAcousticalSocietyofAmerica,2013,134(5):4062.
[3] 裴少雄.基于DSP的聲響槍襲定位系統(tǒng)研究[D].南京理工大學(xué),2014.
[4] 張西爽.超音速子彈聲源定位算法的研究與設(shè)計(jì)[D].北京交通大學(xué),2013.
[5]HahnW,TretterS.Optimumprocessingfordelay-vectorestimationinpassivesignalarrays[J].IEEETransactionsonInformationTheory,1973,19(5):608-614.
[6]KnappC,CarterGC.Thegeneralizedcorrelationmethodforestimationoftimedelay[J].IEEETransactionsonAcoustics,SpeechandSignalProcessing,1976,24(4):320-327.
[7]WangH,KavehM.Coherentsignal-subspaceprocessingforthedetectionandestimationofanglesofarrivalofmultiplewide-bandsource[J].IEEETransactionsonAcoustics,SpeechandSignalProcessing,1985,33(4):823-831.
[8]PourmohammadA,AhadiSM.Realtimehighaccuracy3-DPHAT-basedsoundsourcelocalizationusingasimple4-microphonearrangement[J].SystemsJournal,IEEE,2012,6(3):455-468.
[9]Pertil?P.Acousticsourcelocalizationinaroomenvironmentandatmoderatedistances[D].TampereUniversityofTechnology,2009.
[10]YanH,ZhangY,YangQ.Time-DelayEstimationBasedonCross-CorrelationandWaveletDenoising[C]//Proceedingsof2013ChineseIntelligentAutomationConference.SpringerBerlinHeidelberg,2013:841-848.
[11]ChenJ,BenestyJ,HuangYA.Timedelayestimationinroomacousticenvironments:anoverview[J].EURASIPJournalonAdvancesinSignalProcessing,2006:1-19.
[12]BenestyJ.Adaptiveeigenvaluedecompositionalgorithmforpassiveacousticsourcelocalization[J].TheJournaloftheAcousticalSocietyofAmerica,2000,107(1):384-391.
[13] 趙圣,崔牧凡,尤磊,等.基于小型麥克風(fēng)陣列的聲源定位技術(shù)[J].華中科技大學(xué)學(xué)報(bào):自然科學(xué)版,2013,41(S1):188-191.
[14] 周峰.室內(nèi)麥克風(fēng)陣列聲源定位算法研究和實(shí)現(xiàn)[D].復(fù)旦大學(xué),2009.
[15]LinanZ,PengY,HaoS,etal.Soundsourcetargetlocalizationsystemofmobilerobot[C]//Singapore:11thIEEEInternationalConferenceonControlAutomationRobotics&Vision,2010:2289-2294.
RESEARCHONSOUNDSOURCELOCALISATIONALGORITHMBASEDONMICROPHONEARRAY
LiYangWangHongpeng
(School of Computer Science and Technology,Shenzhen Graduate School,Harbin Institute of Technology,Shenzhen 518055,Guangdong,China) (Shenzhen IOT Key Technology and Application Systems Integration engineering laboratory,Shenzhen 518055,Guangdong,China)
Insoundsourcelocalisation(SSL)systemsbasedontimedelayestimation(TDE),thelocalisationalgorithmisdividedintotwostages:thetimedelayestimationandthesoundsourcelocalisation.ThesuccessrateandprecisionofSSLcouldbeverylowbecausetheestimationerrorinTDEstagewouldbemagnifiedinSSLstage.Proceedingfrom3aspects:rawsignaldenoising,timedelayvalueinterpolationandSLLalgorithm,weimprovedtheprecisionofSSL.Combinedwithaself-designedfour-elementcrossmicrophonearraywepresentedanewtimedelayvaluescreeningalgorithm,andrealisedanindoorSSLsystem.Experimentalresultsshowedthatinscenarioof2-DSSL,thesuccessrateofsoundsourceazimuthestimationinthesystemwasatleast70%,itsmeanerrorwaslessthan5°.Thesuccessrateandprecisionofsoundsourcedistanceestimationwererelatedtorealsoundsourceazimuthanddistance.Whenrealsoundsourcedistancewaslessthan2.5m,andtheincludedanglebetweensoundsourceazimuthandX-Yaxiswasnomorethan15°,thesuccessrateofsoundsourcelocalisationcouldreach50%orhigher.
SoundsourcelocalisationTimedelayscreeningTimedelayredundancyAdaptiveeigenvaluedecompositionWaveletdenoising
2014-10-08。深圳市戰(zhàn)略性新興產(chǎn)業(yè)發(fā)展專項(xiàng)資金項(xiàng)目(深發(fā)改[2013]716號(hào))。李揚(yáng),碩士生,主研領(lǐng)域:聲源定位。王鴻鵬,教授。
TP391.4
ADOI:10.3969/j.issn.1000-386x.2016.03.038