亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于麥克風(fēng)陣列的聲源定位算法研究

        2016-09-26 07:20:13王鴻鵬

        李 揚(yáng) 王鴻鵬

        (哈爾濱工業(yè)大學(xué)深圳研究生院計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院 廣東 深圳 518055) (深圳物聯(lián)網(wǎng)關(guān)鍵技術(shù)及應(yīng)用系統(tǒng)集成工程實(shí)驗(yàn)室 廣東 深圳 518055)

        ?

        基于麥克風(fēng)陣列的聲源定位算法研究

        李揚(yáng)王鴻鵬

        (哈爾濱工業(yè)大學(xué)深圳研究生院計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院廣東 深圳 518055) (深圳物聯(lián)網(wǎng)關(guān)鍵技術(shù)及應(yīng)用系統(tǒng)集成工程實(shí)驗(yàn)室廣東 深圳 518055)

        在基于時(shí)延估計(jì)的聲源定位系統(tǒng)中,由于定位算法分為兩個(gè)階段:時(shí)延估計(jì)和定位,時(shí)延估計(jì)階段的誤差會(huì)在定位階段被放大,導(dǎo)致聲源定位的成功率和精度較低。從原始信號(hào)去噪,時(shí)延值插值和定位算法三方面入手,提高聲源定位的精度。結(jié)合自行設(shè)計(jì)的四元十字麥克風(fēng)陣列,給出一種新的時(shí)延值篩選算法,實(shí)現(xiàn)了一個(gè)室內(nèi)聲源定位系統(tǒng)。實(shí)驗(yàn)結(jié)果表明,在二維定位場景中,該系統(tǒng)對(duì)聲源方位角的估計(jì)成功率超過70%,平均誤差小于5°;該系統(tǒng)對(duì)聲源距離估計(jì)的成功率和精度與聲源方位角有關(guān),當(dāng)聲源方位與X、Y軸的夾角不超過15°且聲源距離不超過2.5m時(shí),聲源距離估計(jì)的成功率能達(dá)到50%以上。

        聲源定位時(shí)延值篩選時(shí)延值冗余自適應(yīng)特征值分解小波去噪

        0 引 言

        基于麥克風(fēng)陣列的聲源定位系統(tǒng)通過多個(gè)麥克風(fēng)拾取聲源信號(hào),對(duì)接收到的多路信號(hào)進(jìn)行分析和處理,最終得到聲源的位置。聲源定位系統(tǒng)無論在民用[1,2]還是軍用[3,4]領(lǐng)域都扮演著重要的角色?;邴溈孙L(fēng)陣列的聲源定位技術(shù)大致可分為三種:基于最大輸出功率的可控波束形成技術(shù)[5]、基于高分辨率譜估計(jì)技術(shù)[6]和基于時(shí)延估計(jì)的技術(shù)[7]。

        其中,基于時(shí)延估計(jì)的聲源定位技術(shù)由于原理簡單、運(yùn)算量小和易于實(shí)現(xiàn)而被廣泛應(yīng)用。在基于時(shí)延估計(jì)的聲源定位系統(tǒng)中,定位過程分為兩個(gè)階段[8]:時(shí)延估計(jì)階段和定位階段。由于雙曲面的幾何特性,時(shí)延值估計(jì)的誤差在定位階段被放大[9],造成定位階段的成功率不高,定位結(jié)果誤差較大。因此如何提高時(shí)延估計(jì)的成功率和精度便成了聲源定位系統(tǒng)的關(guān)鍵問題。本文通過對(duì)原始語音信號(hào)進(jìn)行小波去噪,采用抗混響能力強(qiáng)的自適應(yīng)特征值分解算法,同時(shí)對(duì)時(shí)延估計(jì)值進(jìn)行插值,提高時(shí)延估計(jì)的精度。在進(jìn)行時(shí)延估計(jì)之后,為了避免無謂的計(jì)算,需要剔除錯(cuò)誤的時(shí)延值。但是聲源位置未知的情況下,時(shí)延值的實(shí)際值無從得知,因此無法通過與實(shí)際值比較的方法對(duì)時(shí)延估計(jì)值進(jìn)行篩選。本文根據(jù)時(shí)延值之間的相關(guān)性,給出了一種時(shí)延值篩選算法。在定位階段,為了充分利用時(shí)延值的冗余信息,給出了一種基于時(shí)延值冗余的定位算法。最終實(shí)現(xiàn)了一個(gè)基于四元十字陣的室內(nèi)聲源定位系統(tǒng)。該系統(tǒng)在一般室內(nèi)環(huán)境中,方位角估計(jì)能達(dá)到70%以上的成功率,平均誤差小于4.5°;當(dāng)聲源方位與XY軸的夾角不超過15°且聲源距離不超過2.5m時(shí),聲源距離估計(jì)的成功率能達(dá)到50%以上。

        1 時(shí)延估計(jì)

        1.1小波去噪

        對(duì)原始語音信號(hào)進(jìn)行小波去噪的基本原理[10]為:語音信號(hào)和噪聲信號(hào)分別進(jìn)行小波變換之后,其小波系數(shù)具有不同的布特征。噪聲信號(hào)頻譜比較分散,小波系數(shù)較小,語音信號(hào)頻譜分布比較集中,小波系數(shù)較大。利用這一特性可先對(duì)帶噪語音信號(hào)進(jìn)行小波變換,然后在每一層尺度上對(duì)小波系數(shù)進(jìn)行處理。

        本文小波變換的實(shí)現(xiàn)方法如下:首先對(duì)原始語音信號(hào)進(jìn)行三階小波變換,得到小波系數(shù),按照一定閾值抑制高頻系數(shù),再進(jìn)行小波逆變換,得到經(jīng)過去噪的語音信號(hào)。圖1為小波去噪前后的音頻信號(hào)對(duì)比。

        圖1 小波去噪前后的音頻信號(hào)對(duì)比

        1.2自適應(yīng)特征值分解算法

        傳統(tǒng)的時(shí)延估計(jì)算法如廣義互相關(guān)法(GCC)基于一種理想的聲音傳播模型:單路徑模型。在這種模型中,不考慮障礙物對(duì)聲源信號(hào)的反射作用。然而在實(shí)際的室內(nèi)環(huán)境中不可避免的存在混響,這種理想的單路徑模型是不成立的。自適應(yīng)特征值分解算法(AED)在建立聲音傳播模型時(shí)考慮了混響這個(gè)干擾因素,因此能獲得更好的時(shí)延估計(jì)效果[11]。自適應(yīng)特征值分解算法的迭代公式[12]為:

        e(n)=uT(n)x(n)

        (1)

        (2)

        其中:

        (3)

        xi(n)=[xi(n)xi(n-1)…xi(n-M+1)]Ti=1,2

        (4)

        (5)

        (6)

        其中,u為收斂步長,e(n)為預(yù)估誤差,u(n)和u(n+1)分別為更新之前和之后的特征向量。在迭代開始之前,g2初始化為單位沖激函數(shù),g1初始化為0。迭代結(jié)束之后,分別對(duì)g1和g2進(jìn)行峰值檢測,其峰值位置之差即為麥克風(fēng)對(duì)的時(shí)延估計(jì)。

        1.3時(shí)延值篩選

        經(jīng)過時(shí)延估計(jì)后可得到時(shí)延值的整數(shù)部分,在進(jìn)行后續(xù)計(jì)算之前,需要剔除錯(cuò)誤的時(shí)延值。本文給出了一種時(shí)延值篩選算法,它利用時(shí)延值之間的相關(guān)性,判斷時(shí)延估計(jì)值是否正確。

        以四元麥克風(fēng)陣列為例,每一次時(shí)延估計(jì)產(chǎn)生6個(gè)時(shí)延值,分別是:

        (7)

        其中τi,j=τi-τj,τi,j是麥克風(fēng)i相對(duì)于麥克風(fēng)j的時(shí)間延遲,τi,τj為聲源信號(hào)到達(dá)麥克風(fēng)i和j的時(shí)間。

        理想情況下,時(shí)延值之間的關(guān)系可用式(8)和式(9)表示:

        τi,k=ti-tk=(ti-tj)+(tj-tk)=τi,j+τj,k

        (8)

        τi,j=ti-tj=-(tj-ti)=-τj,i

        (9)

        其中ti表示聲源到達(dá)麥克風(fēng)i的時(shí)間。

        由于存在時(shí)延估計(jì)誤差,式(8)左右兩邊只是近似相等,即二者存在一個(gè)小的差值。因此可以利用這一特性對(duì)時(shí)延值進(jìn)行篩選,剔除錯(cuò)誤的時(shí)延值。具體步驟如下所示:

        1) 根據(jù)自適應(yīng)特征值分解算法得到時(shí)延值的整數(shù)部分;

        2) 對(duì)于所有麥克風(fēng)組合Mi、Mj和Mk,其中i,j、k互不相等,計(jì)算:

        (10)

        3) 設(shè)定合理的時(shí)延值誤差閾值,如果對(duì)于所有麥克風(fēng)組合,式(10)都小于該閾值,那么式(7)通過時(shí)延值篩選;否則拋棄這組時(shí)延值。

        1.4時(shí)延值插值

        經(jīng)過時(shí)延值篩選后,只能獲得時(shí)延估計(jì)值的整數(shù)部分。為了提高時(shí)延估計(jì)的精度,需要對(duì)自適應(yīng)特征值分解法中的g2向量進(jìn)行插值,得到時(shí)延估計(jì)值的小數(shù)部分。

        目前比較常用的插值算法有拋物線插值法[13],拋物線插值法計(jì)算量小,原理簡單。拋物線插值法得到的峰值點(diǎn)位置為:

        (11)

        其中(xpeak,ypeak)為插值之前的峰值點(diǎn)坐標(biāo),(xleft,yleft)和(xright,yright)分別是峰值點(diǎn)的左相鄰點(diǎn)和右相鄰點(diǎn),τ為經(jīng)過拋物線插值之后的峰值位置。

        由于拋物線插值法只利用了峰值點(diǎn)的左右相鄰點(diǎn)的信息,因此插值得到的時(shí)延值誤差較大。本文對(duì)拋物線插值法進(jìn)行了改進(jìn),給出了基于四階多項(xiàng)式的插值法。該算法的步驟如下所示:

        1) 分別取峰值點(diǎn)(xpeak,ypeak)的左邊和右邊兩個(gè)相鄰點(diǎn),如圖2所示。將這四個(gè)點(diǎn)和峰值點(diǎn)帶入式(12)中:

        (12)

        求得高階多項(xiàng)式的系數(shù),并得到極大值點(diǎn)。此極大值點(diǎn)的橫坐標(biāo)即為經(jīng)過插值的時(shí)延值。

        2) 對(duì)經(jīng)過插值得到的時(shí)延值進(jìn)行二次篩選,如1.3節(jié)所示。

        圖2中的實(shí)線為g2對(duì)應(yīng)的曲線,虛線為式(12)對(duì)應(yīng)的曲線,三角形標(biāo)注點(diǎn)為1)中選取的點(diǎn),圓形標(biāo)注點(diǎn)為插值之前的峰值點(diǎn),正方形標(biāo)注點(diǎn)為插值之后的峰值點(diǎn)。在插值之前,峰值點(diǎn)位于x=206;經(jīng)過四階多項(xiàng)式插值之后,峰值點(diǎn)的位置位于x=206.37。

        圖2 基于四階多項(xiàng)式的插值法示意圖

        2 基于時(shí)延值冗余的定位算法

        實(shí)際上,對(duì)于四元麥克風(fēng)陣列來說,一組時(shí)延值是存在很多冗余信息的。為了利用這種冗余,得到更加精確的聲源位置,一般的做法[14]是:

        1) 分別以每一個(gè)麥克風(fēng)為參考麥克風(fēng),得到其他麥克風(fēng)相對(duì)參考麥克風(fēng)的時(shí)延值。

        2) 在1)中的時(shí)延值的基礎(chǔ)上,推導(dǎo)得到其他時(shí)延值。例如,已知τ1,4、τ2,4、τ3,4,利用麥克風(fēng)之間的幾何關(guān)系可得:

        (13)

        (14)

        (15)

        因此完整的一組時(shí)延值為:

        (16)

        3) 利用幾何位置定位算法,估計(jì)聲源位置。剔除其中不合理的值并求平均值,得到最終的聲源位置。

        在上述方法的基礎(chǔ)上,為了更加有效地利用時(shí)延值的冗余信息,我們對(duì)其進(jìn)行了兩點(diǎn)改進(jìn):

        1) 在上述方法中,聲源估計(jì)位置是基于最多四組樣本的平均值。由于樣本數(shù)太少,估計(jì)位置易受異常樣本的干擾。為了獲得更多的聲源位置樣本,每次從一組時(shí)延值中取出三個(gè)不相關(guān)的時(shí)延值。根據(jù)組合原理,共有16種符合條件的時(shí)延值組合。分別對(duì)每一種組合進(jìn)行聲源位置估計(jì),從中剔除錯(cuò)誤值并求平均值。

        2) 幾何位置定位法是基于遠(yuǎn)場的一種定位算法,在計(jì)算聲源位置的過程中采取了某種近似,而這種近似條件在聲源距離較近時(shí)是不成立的[15]。因此在本文中不采用帶近似條件的幾何位置定位法,直接對(duì)式(17)-式(19)構(gòu)成的方程組求解。假設(shè)1)中某一組時(shí)延值組合為(τi1,j1,τi2,j2,τi3,j3)

        (17)

        (18)

        (19)

        其中Ts為對(duì)麥克風(fēng)信號(hào)的采樣周期,r是聲源位置,c是聲速,rmi是麥克風(fēng)mi的位置。

        3 系統(tǒng)實(shí)現(xiàn)

        本實(shí)驗(yàn)在一個(gè)7m×8m×3.5m的空間內(nèi)進(jìn)行,存在一定的噪聲和混響。麥克風(fēng)陣列采用四元十字陣,四個(gè)麥克風(fēng)處在同一個(gè)平面上,每一個(gè)麥克風(fēng)距離十字陣中心點(diǎn)的距離為25cm,對(duì)麥克風(fēng)信號(hào)的采樣頻率為40kHz。

        在預(yù)處理階段,使用矩形窗進(jìn)行加窗,每一幀長度為1024個(gè)采樣點(diǎn),幀與幀之間的重疊率為75%;端點(diǎn)檢測采用短時(shí)平均能量作為檢測標(biāo)準(zhǔn)。采用自適應(yīng)特征值分解法進(jìn)行時(shí)延估計(jì),使用基于時(shí)延值冗余的定位算法求得聲源位置。

        3.1聲源位置對(duì)定位結(jié)果的影響

        分別以四元十字陣的對(duì)角線為X軸和Y軸,十字陣中心為原點(diǎn),建立直角坐標(biāo)。本實(shí)驗(yàn)聲源位置位于第三象限內(nèi),方位角分別為180°, 195°, 210°, 225°, 240°, 255°, 270°。對(duì)于每一個(gè)方位角,聲源分別在距離麥克風(fēng)陣列中心0.5、1.0、1.5、2.0、2.5、3.0、3.5、4.0、4.5、5.0、5.5、6.0m的位置,如圖3所示,其中空心點(diǎn)教是麥克風(fēng)陣列的中心,實(shí)心點(diǎn)為聲源擺放的各個(gè)位置。

        依次將聲源按照?qǐng)D3中的位置擺放,在每個(gè)位置進(jìn)行30~50次實(shí)驗(yàn),每次實(shí)驗(yàn)都對(duì)聲源的音頻信號(hào)進(jìn)行采集,并使用上述算法得到聲源位置的估計(jì),因此每一個(gè)聲源位置對(duì)應(yīng)一組聲源位置的估計(jì)。以10°和0.5m作為聲源方位角估計(jì)值和距離估計(jì)值的最大誤差閾值,剔除誤差超出閾值的數(shù)據(jù),然后分別計(jì)算這個(gè)位置的方位角估計(jì)和距離估計(jì)的成功率和平均誤差。圖4到圖7為是時(shí)延估計(jì)通過篩選的情況下,對(duì)聲源方位角估計(jì)和距離值估計(jì)的統(tǒng)計(jì),統(tǒng)計(jì)數(shù)據(jù)包括估計(jì)成功率和估計(jì)平均誤差。

        圖3 麥克風(fēng)中心位置和聲源位置示意圖

        從圖4和圖5可以看到,方位角估計(jì)成功率最低為70%, 最高為100%。方位角的平均誤差最低0°,最高為4.4°。在同一方位角下,隨著聲源距離的增加,方位角估計(jì)的平均誤差有逐漸減小的趨勢(shì)。

        圖4 方位角估計(jì)成功率與聲源距離、方位角的關(guān)系

        圖5 估計(jì)方位角平均誤差與聲源距離、方位角的關(guān)系

        從圖6和圖7中可看到,聲源距離估計(jì)的成功率與聲源的方位角和距離有關(guān)。在同一方位角下,其成功率隨著距離增加呈現(xiàn)迅速衰減的趨勢(shì);在同一距離下,聲源方位角越偏離X或Y坐標(biāo)軸,即方位角越靠近X軸和Y軸的角平分線,距離估計(jì)的成功率越低。聲源距離估計(jì)的平均誤差最小為0.03m,最大為0.45m。從圖中可以看到,當(dāng)聲源方位角與坐標(biāo)軸(X軸或Y軸)的夾角不超過15°,且聲源距離不超過2.5m時(shí),聲源距離估計(jì)能獲得50%以上的成功率。

        圖6 聲源距離估計(jì)的成功率與聲源距離、方位角的關(guān)系

        圖7 距離估計(jì)平均誤差與聲源距離、方位角的關(guān)系

        3.2對(duì)聲源距離估計(jì)結(jié)果的分析

        在二維定位場景中,麥克風(fēng)i和j的理想時(shí)延與聲源位置的關(guān)系如下:

        (20)

        (21)

        其中M=xjDi-xiDj,N=yjDi-yiDj。計(jì)算r關(guān)于τi,j(i≠j,i,j∈{1,2,3,4})的拉氏算子:

        (22)

        給定r值,▽2r與θ的關(guān)系如圖8所示。從中看到,當(dāng)聲源的方位角趨近于45°、135°、225°和315°時(shí),▽2r趨近于無窮大。簡而言之,當(dāng)聲源的方位角靠近上述角度時(shí),極小的時(shí)延估計(jì)誤差會(huì)造成極大的聲源距離估計(jì)偏差,導(dǎo)致聲源距離估計(jì)的成功率和精度下降。

        圖8 ▽2r與θ的關(guān)系

        3.3時(shí)延值插值算法的對(duì)比實(shí)驗(yàn)

        根據(jù)1.3節(jié),時(shí)延估計(jì)值越精確,式(10)的值越??;同樣的,在麥克風(fēng)個(gè)數(shù)為4時(shí),時(shí)延估計(jì)值越精確,式(23)越小:

        (23)

        其中:

        (24)

        1) 采集聲源信號(hào),對(duì)多路信號(hào)進(jìn)行去噪,加窗分幀和時(shí)延估計(jì),得到時(shí)延估計(jì)的整數(shù)值;

        2) 分別使用四階多項(xiàng)式插值法和拋物線插值法對(duì)時(shí)延估計(jì)值進(jìn)行插值,得到插值之后的時(shí)延估計(jì)值;

        表1 兩種插值法的對(duì)比結(jié)果

        從表1中可以看到,四階多項(xiàng)式插值法的時(shí)延估計(jì)平均誤差小于拋物線插值法,時(shí)延估計(jì)的平均誤差減小了8.7%,該實(shí)驗(yàn)說明四階多項(xiàng)式插值法的效果好于拋物線插值法。

        3.4定位算法的對(duì)比實(shí)驗(yàn)

        為了比較第2節(jié)中幾何位置定位法和本文給出的定位方法(以下分別簡稱為算法1和算法2)的效果,進(jìn)行以下實(shí)驗(yàn):將聲源放置在方位角為270°,距離為3m的位置,進(jìn)行38次實(shí)驗(yàn)。在每一次實(shí)驗(yàn)中,首先采集聲源信號(hào),再進(jìn)行小波去噪,加窗分幀,時(shí)延估計(jì)等操作,最后分別使用算法1和算法2得到各自的聲源位置估計(jì)。分別統(tǒng)計(jì)采用算法1和算法2的情況下,方位角估計(jì)和距離估計(jì)的成功率、平均值和平均誤差,實(shí)驗(yàn)結(jié)果如表2所示。

        表2 算法1和算法2的對(duì)比結(jié)果

        從表2中可看出,使用算法1進(jìn)行聲源定位的成功率和精度明顯優(yōu)于算法2,聲源距離估計(jì)的平均誤差減小了52.9%。

        4 結(jié) 語

        本文實(shí)現(xiàn)了一個(gè)基于四元十字陣的聲源定位系統(tǒng)。在實(shí)現(xiàn)過程中,首先使用小波去噪算法對(duì)語音信號(hào)進(jìn)行預(yù)處理,再使用抗干擾能力較強(qiáng)的自適應(yīng)特征值分解算法進(jìn)行時(shí)延估計(jì),并給出了時(shí)延值篩選算法,用于剔除錯(cuò)誤的時(shí)延值。在拋物線插值的基礎(chǔ)上,給出了四階多項(xiàng)式插值法,最后給出了基于時(shí)延值冗余的聲源定位算法,估計(jì)聲源的方位角和距離。

        實(shí)驗(yàn)結(jié)果表明,本定位系統(tǒng)對(duì)聲源方位角的估計(jì)能達(dá)到超過70%的成功率,平均誤差小于5°;當(dāng)聲源在45°、135°、225°和315°方向時(shí),聲源距離估計(jì)存在奇點(diǎn),當(dāng)聲源方位角與X、Y軸的夾角不超過15°且聲源距離不超過2.5m時(shí),聲源距離估計(jì)的成功率達(dá)到50%以上。

        在時(shí)延值插值的對(duì)比實(shí)驗(yàn)中,通過四階多項(xiàng)式插值法得到的時(shí)延估計(jì)平均誤差比拋物線插值法小8.9%;在定位算法的對(duì)比實(shí)驗(yàn)中,通過本文給出的定位算法得到的距離估計(jì)平均誤差比幾何位置定位法小52.9%。在后續(xù)的研究中將致力于提高聲源距離估計(jì)的精度,減小聲源實(shí)際距離和方位角對(duì)距離估計(jì)的影響。

        [1]KotusJ,LopatkaK,CzyzewskiA.Detectionandlocalizationofselectedacousticeventsinacousticfieldforsmartsurveillanceapplications[J].MultimediaToolsandApplications,2014,68(1):5-21.

        [2]ZhongX,WangS,DormanM,etal.Soundsourcelocalizationfromtactileaidsforunilateralcochlearimplantusers[J].TheJournaloftheAcousticalSocietyofAmerica,2013,134(5):4062.

        [3] 裴少雄.基于DSP的聲響槍襲定位系統(tǒng)研究[D].南京理工大學(xué),2014.

        [4] 張西爽.超音速子彈聲源定位算法的研究與設(shè)計(jì)[D].北京交通大學(xué),2013.

        [5]HahnW,TretterS.Optimumprocessingfordelay-vectorestimationinpassivesignalarrays[J].IEEETransactionsonInformationTheory,1973,19(5):608-614.

        [6]KnappC,CarterGC.Thegeneralizedcorrelationmethodforestimationoftimedelay[J].IEEETransactionsonAcoustics,SpeechandSignalProcessing,1976,24(4):320-327.

        [7]WangH,KavehM.Coherentsignal-subspaceprocessingforthedetectionandestimationofanglesofarrivalofmultiplewide-bandsource[J].IEEETransactionsonAcoustics,SpeechandSignalProcessing,1985,33(4):823-831.

        [8]PourmohammadA,AhadiSM.Realtimehighaccuracy3-DPHAT-basedsoundsourcelocalizationusingasimple4-microphonearrangement[J].SystemsJournal,IEEE,2012,6(3):455-468.

        [9]Pertil?P.Acousticsourcelocalizationinaroomenvironmentandatmoderatedistances[D].TampereUniversityofTechnology,2009.

        [10]YanH,ZhangY,YangQ.Time-DelayEstimationBasedonCross-CorrelationandWaveletDenoising[C]//Proceedingsof2013ChineseIntelligentAutomationConference.SpringerBerlinHeidelberg,2013:841-848.

        [11]ChenJ,BenestyJ,HuangYA.Timedelayestimationinroomacousticenvironments:anoverview[J].EURASIPJournalonAdvancesinSignalProcessing,2006:1-19.

        [12]BenestyJ.Adaptiveeigenvaluedecompositionalgorithmforpassiveacousticsourcelocalization[J].TheJournaloftheAcousticalSocietyofAmerica,2000,107(1):384-391.

        [13] 趙圣,崔牧凡,尤磊,等.基于小型麥克風(fēng)陣列的聲源定位技術(shù)[J].華中科技大學(xué)學(xué)報(bào):自然科學(xué)版,2013,41(S1):188-191.

        [14] 周峰.室內(nèi)麥克風(fēng)陣列聲源定位算法研究和實(shí)現(xiàn)[D].復(fù)旦大學(xué),2009.

        [15]LinanZ,PengY,HaoS,etal.Soundsourcetargetlocalizationsystemofmobilerobot[C]//Singapore:11thIEEEInternationalConferenceonControlAutomationRobotics&Vision,2010:2289-2294.

        RESEARCHONSOUNDSOURCELOCALISATIONALGORITHMBASEDONMICROPHONEARRAY

        LiYangWangHongpeng

        (School of Computer Science and Technology,Shenzhen Graduate School,Harbin Institute of Technology,Shenzhen 518055,Guangdong,China) (Shenzhen IOT Key Technology and Application Systems Integration engineering laboratory,Shenzhen 518055,Guangdong,China)

        Insoundsourcelocalisation(SSL)systemsbasedontimedelayestimation(TDE),thelocalisationalgorithmisdividedintotwostages:thetimedelayestimationandthesoundsourcelocalisation.ThesuccessrateandprecisionofSSLcouldbeverylowbecausetheestimationerrorinTDEstagewouldbemagnifiedinSSLstage.Proceedingfrom3aspects:rawsignaldenoising,timedelayvalueinterpolationandSLLalgorithm,weimprovedtheprecisionofSSL.Combinedwithaself-designedfour-elementcrossmicrophonearraywepresentedanewtimedelayvaluescreeningalgorithm,andrealisedanindoorSSLsystem.Experimentalresultsshowedthatinscenarioof2-DSSL,thesuccessrateofsoundsourceazimuthestimationinthesystemwasatleast70%,itsmeanerrorwaslessthan5°.Thesuccessrateandprecisionofsoundsourcedistanceestimationwererelatedtorealsoundsourceazimuthanddistance.Whenrealsoundsourcedistancewaslessthan2.5m,andtheincludedanglebetweensoundsourceazimuthandX-Yaxiswasnomorethan15°,thesuccessrateofsoundsourcelocalisationcouldreach50%orhigher.

        SoundsourcelocalisationTimedelayscreeningTimedelayredundancyAdaptiveeigenvaluedecompositionWaveletdenoising

        2014-10-08。深圳市戰(zhàn)略性新興產(chǎn)業(yè)發(fā)展專項(xiàng)資金項(xiàng)目(深發(fā)改[2013]716號(hào))。李揚(yáng),碩士生,主研領(lǐng)域:聲源定位。王鴻鵬,教授。

        TP391.4

        ADOI:10.3969/j.issn.1000-386x.2016.03.038

        高清亚洲精品一区二区三区| 亚洲永久无码7777kkk| 亚洲熟妇少妇任你躁在线观看 | 色一情一乱一伦一区二区三区日本| 欧美整片第一页| 国产三级自拍视频在线| 国产精品精品国产色婷婷| 国产精品理论片| 人人妻人人澡人人爽精品欧美| 胳膊肘上有白色的小疙瘩| 亚洲国产成人手机在线观看| 成人女同av免费观看| 日韩有码中文字幕在线观看| 国产高清av首播原创麻豆| 九九99久久精品在免费线18| 偷拍一区二区三区在线观看| 亚洲中文字幕人妻久久| 鲁鲁鲁爽爽爽在线视频观看| 妺妺窝人体色www在线直播| 少妇性l交大片免费1一少| 国产精品久久国产精品99 gif| 日本丰满人妻xxxxxhd| 国产成人久久精品77777综合| 亚洲第一页视频在线观看 | 亚洲av无码成人网站在线观看 | 成人国产精品一区二区网站公司| 岛国av无码免费无禁网站下载| 99熟妇人妻精品一区五一看片| 精品国产av一区二区三区| 亚洲成a人片在线观看无码专区| 在教室伦流澡到高潮h麻豆| 9999毛片免费看| 日韩国产有码精品一区二在线| av中文字幕一区不卡| 精品无码中文字幕在线| 国产在线欧美日韩精品一区二区 | 国产一区二区精品网站看黄| 青青草在线这里只有精品| 精品国产一区二区三区香蕉| 国产精品久久久久孕妇| 少妇被粗大猛进进出出男女片 |