亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        頭部相關(guān)傳遞函數(shù)獲取關(guān)鍵技術(shù)研究

        2019-06-07 15:08:13楊立東焦慧媛
        軟件導(dǎo)刊 2019年1期
        關(guān)鍵詞:虛擬現(xiàn)實(shí)技術(shù)

        楊立東 焦慧媛

        摘 要:虛擬現(xiàn)實(shí)技術(shù)(VR)的飛速發(fā)展使雙耳聽(tīng)覺(jué)研究越來(lái)越深入,如何快速準(zhǔn)確地獲取個(gè)性化頭部相關(guān)傳遞函數(shù)HRTF成為研究熱點(diǎn)。介紹了HRTF獲取關(guān)鍵技術(shù)研究現(xiàn)狀,總結(jié)出HRTF的4種獲取方式:實(shí)驗(yàn)測(cè)量法、數(shù)學(xué)建模法、數(shù)據(jù)庫(kù)匹配法和主觀選擇法,并闡述各方法的基本原理。將各方法進(jìn)行對(duì)比,指出HRTF獲取工作中需解決的問(wèn)題和未來(lái)研究方向。

        關(guān)鍵詞:虛擬現(xiàn)實(shí)技術(shù)(VR);HRTF;實(shí)驗(yàn)測(cè)量法;數(shù)學(xué)建模法;數(shù)據(jù)庫(kù)匹配法;主觀選擇法

        DOI:10. 11907/rjdk. 181758

        中圖分類號(hào):TP3-05文獻(xiàn)標(biāo)識(shí)碼:A文章編號(hào):1672-7800(2019)001-0034-06

        Abstract:The rapid development of virtual reality technology makes the study of binaural hearing deeper and deeper. How to quickly and accurately obtain a personalized head-related transfer function (HRTF) has become a hot spot for scholars in various countries. This article gives a detailed introduction to the research status of HRTF access to key technologies, and summarizes four main acquisition methods of HRTF based on the current development trends: experimental measurement method, mathematical modeling method, database matching method and subjective selection method. The basic principle of the method is described. The advantages and disadvantages of the current methods are compared. Finally, the issues that need to be resolved in the HRTF acquisition work and future research directions are pointed out.

        0 引言

        虛擬現(xiàn)實(shí)(Virtual Reality,VR)的不斷發(fā)展掀起了VR技術(shù)應(yīng)用浪潮,越來(lái)越多的人希望通過(guò)VR設(shè)備獲得更加逼真的現(xiàn)實(shí)感受。2018年1月的國(guó)際消費(fèi)類電子產(chǎn)品展覽會(huì)(International Consumer Electronics Show,簡(jiǎn)稱CES)上,HTC公司推出了一款新的VR(Virtual Reality)設(shè)備——VIVE Pro虛擬現(xiàn)實(shí)系統(tǒng)。在4月份的新品發(fā)布會(huì)上,HTC公司又推出與之對(duì)應(yīng)的操控手柄,配置了兩個(gè)支持Steam VR的追蹤器2.0,這一改進(jìn)的VIVE Pro設(shè)備已正式投入商業(yè)生產(chǎn)與線下銷售中。2018年5月,上海位視達(dá)信息科技有限公司率先啟動(dòng)了朗文WTE英語(yǔ)VR教室項(xiàng)目,通過(guò)VR眼鏡給孩子們營(yíng)造一個(gè)立體的虛擬動(dòng)畫(huà)世界,引導(dǎo)孩子進(jìn)行角色扮演,生動(dòng)活潑地完成課堂學(xué)習(xí),對(duì)教學(xué)方法改革進(jìn)行了探索和創(chuàng)新。VR技術(shù)是通過(guò)計(jì)算機(jī)仿真,給用戶提供虛擬視覺(jué)、聽(tīng)覺(jué)、觸覺(jué)等多種感知,用戶通過(guò)感官感知虛擬環(huán)境中的物體以獲得如同現(xiàn)實(shí)中真實(shí)感的一門熱門技術(shù)。其中,虛擬視覺(jué)和虛擬聽(tīng)覺(jué)可為用戶提供超過(guò)80%的空間感知,是目前虛擬技術(shù)研究的重點(diǎn)。虛擬聽(tīng)覺(jué)空間技術(shù)(Virtual Auditory Space, VAS)就是根據(jù)人類聽(tīng)覺(jué)特征,通過(guò)雙聲道播放系統(tǒng)再現(xiàn)聲源空間信息的技術(shù),它與決定人耳空間聽(tīng)覺(jué)能力的頭部相關(guān)傳遞函數(shù)(Head-Related Transfer Function, HRTF)密切相關(guān)。因此,研究HRTF獲取關(guān)鍵技術(shù)是合成虛擬空間聲音的重要組成內(nèi)容,也是推動(dòng)未來(lái)VR工作深入發(fā)展的關(guān)鍵。

        1 HRTF簡(jiǎn)介

        HRTF是自由聲場(chǎng)中從聲源到雙耳的頻域傳輸函數(shù),它的時(shí)域表示為頭相關(guān)脈沖響應(yīng)( Head Related Impulse Response,HRIR),兩者都表達(dá)了人體生理結(jié)構(gòu)對(duì)聲波的綜合濾波效果[1],HRTF和HRIR是進(jìn)行雙耳定位研究的重要內(nèi)容。HRTF的函數(shù)表達(dá)式為:

        其中,[PL]、[PR]分別表示人雙耳獲取的頻域復(fù)數(shù)聲壓,[P0]為在頭部不存在情況下,聲源到達(dá)近似頭部中心處的頻域復(fù)數(shù)聲壓,[P0]滿足空間點(diǎn)聲源的格林函數(shù):

        對(duì)不同被試者進(jìn)行HRTF獲取時(shí),[PL]和[PR]測(cè)量點(diǎn)的選取位置可以不同??啥x[PL]和[PR]是到達(dá)雙耳鼓膜處的聲壓,也可定義為到達(dá)耳道口與鼓膜間任意截面處的聲壓,甚至還可定義為將耳道入口封閉時(shí)封口處的聲壓。但由于耳道口和鼓膜之間的傳輸是一維的,因而對(duì)于不同測(cè)量點(diǎn),[PL]和[PR]計(jì)算得到的 HRTF 可以相互轉(zhuǎn)換。

        HRTF是聲源到頭部中心距離[r](當(dāng)[r]>1.2m 時(shí),一般認(rèn)為是遠(yuǎn)場(chǎng)測(cè)量,這時(shí)[r]對(duì)HRTF的影響可忽略不計(jì))、聲源位置與頭部中心之間的仰角[θ]、方位角[φ]和聲源頻率[f]的函數(shù),可以表示為[H(r,θ,φ,f)]。同時(shí),HRTF是一個(gè)個(gè)性化函數(shù),它與測(cè)試者的生理結(jié)構(gòu)和尺寸密切相關(guān),對(duì)不同的測(cè)試者進(jìn)行測(cè)量會(huì)得到不同的HRTF值。

        2 HRTF獲取方式

        國(guó)內(nèi)外學(xué)者對(duì)HRTF的獲取進(jìn)行了深入研究,主要獲取方式有實(shí)驗(yàn)測(cè)量法、數(shù)學(xué)建模法、數(shù)據(jù)庫(kù)匹配法和主觀選擇法4種。

        2.1 實(shí)驗(yàn)法測(cè)量HRTF

        2.1.1 實(shí)驗(yàn)法回顧

        HRTF的測(cè)量工作最早可追溯到1947年,Wiener[2]基于球頭模型測(cè)量了相應(yīng)的HRTF。1983年,Kuhn & Guernsey[3]根據(jù)KEMAR人工頭模型測(cè)量得出HRTF數(shù)據(jù)。那時(shí)測(cè)量的HRTF數(shù)據(jù)較少,并且是基于頭部模型測(cè)得,所測(cè)數(shù)據(jù)準(zhǔn)確意義上并未稱為“頭部相關(guān)傳遞函數(shù)”。直到1989年,Wightman和Kistler[4]測(cè)量得到10名真人(6女4男)的HRTF數(shù)據(jù),并構(gòu)建出HRTF估計(jì)模型,“頭部相關(guān)傳遞函數(shù)”概念被廣泛應(yīng)用,HRTF的測(cè)量工作開(kāi)始逐漸展開(kāi)。

        1994年,美國(guó)MIT實(shí)驗(yàn)室將KEMER人工頭作為實(shí)驗(yàn)對(duì)象,左耳使用DB-61小型耳廓,右耳使用DB-65大型耳廓,MLS序列作為測(cè)量信號(hào),測(cè)量得到空間710個(gè)方向的雙耳數(shù)據(jù)[5]。這是一個(gè)被公開(kāi)的HRTF數(shù)據(jù)庫(kù),此后被廣泛應(yīng)用于聲學(xué)研究中。密歇根大學(xué)在1999年測(cè)量23名男性、22名女性HRTF數(shù)據(jù),包括33項(xiàng)人體測(cè)量數(shù)據(jù),但此數(shù)據(jù)庫(kù)在當(dāng)時(shí)未公開(kāi)[6]。2000年以后,通過(guò)實(shí)驗(yàn)法獲取HRTF的工作更加深入,美國(guó)加利福尼亞大學(xué)在2001年率先公開(kāi)了基于真人受試者的CIPIC數(shù)據(jù)庫(kù),被試者由27個(gè)男性、16個(gè)女性以及2個(gè)平均人工頭組成,此數(shù)據(jù)庫(kù)除測(cè)量得到空間25個(gè)水平角、50個(gè)高度角共1 250個(gè)數(shù)據(jù)外,還記錄了真人被試頭部、耳部、軀干共27個(gè)人體測(cè)量參數(shù)[7]。此數(shù)據(jù)庫(kù)是目前為止應(yīng)用最廣泛的公開(kāi)數(shù)據(jù)庫(kù),各國(guó)HRTF的研究都是在此數(shù)據(jù)庫(kù)上展開(kāi)。日本東北大學(xué)在2002年利用封閉耳道法測(cè)量得到3名被試者頭部上半部分區(qū)域的共454個(gè)位置的HRTF[8]。2006年,法國(guó)IRCAM室內(nèi)聲學(xué)小組測(cè)量得到51名被試在水平角0°~360°,仰角-45°~90°范圍內(nèi)共187個(gè)位置的HRTF[9]。

        20世紀(jì)初,我國(guó)東南大學(xué)開(kāi)始HRTF的研究工作,但其主要是在美國(guó)Wisconsin大學(xué)測(cè)量的數(shù)據(jù)上進(jìn)行研究[10]。由于中國(guó)人與國(guó)外被試在身體外形、生理參數(shù)上存在一定差異,基于國(guó)外HRTF數(shù)據(jù)庫(kù)的研究結(jié)果在實(shí)際應(yīng)用中往往會(huì)出現(xiàn)一定誤差,因此基于我國(guó)被試的HRTF測(cè)量成為當(dāng)時(shí)研究的重點(diǎn)。2002年清華大學(xué)的趙自立[11]提出在普通室內(nèi)環(huán)境下測(cè)量HRTF的總體設(shè)計(jì)方案。真正開(kāi)展中國(guó)人頭HRTF測(cè)量工作的是華南理工大學(xué)謝菠蓀教授[12]負(fù)責(zé)的聲學(xué)研究小組,其在2006年對(duì)52名中國(guó)被試(26名男性、26名女性)進(jìn)行測(cè)量,以MLS序列為測(cè)試信號(hào),得到中國(guó)人樣本的空間493個(gè)方向的HRTF數(shù)據(jù),這是中國(guó)第一個(gè)統(tǒng)計(jì)意義上的HRTF數(shù)據(jù)庫(kù)。2007年,中科院聲學(xué)所與北京大學(xué)視覺(jué)與聽(tīng)覺(jué)信息處理國(guó)家重點(diǎn)實(shí)驗(yàn)室合作,設(shè)計(jì)出測(cè)量距離可調(diào)整的HRTF測(cè)量系統(tǒng),實(shí)驗(yàn)在中科院全消聲室中進(jìn)行,以BDMS1-040528便捷式脈沖發(fā)生器為發(fā)聲源,KEMER人工頭為被試對(duì)象,測(cè)量了聲源距離人工頭8個(gè)距離(20cm、30cm、40cm、50cm、75cm、100cm、130cm、160cm)下的HRTF數(shù)據(jù)[13]。2014年3月北京大學(xué)言語(yǔ)聽(tīng)覺(jué)研究中心對(duì)KEMER人工頭進(jìn)行頭部、耳廓、軀干的分離實(shí)驗(yàn),測(cè)量了6個(gè)距離(20、30、40、50、75、100cm),以每個(gè)距離為半徑的球面上的793個(gè)點(diǎn)的3種結(jié)構(gòu)化函數(shù),得出頭相關(guān)傳遞函數(shù)是頭、軀干、耳廓分別作用結(jié)果的疊加[14]。上述對(duì)HRTF的測(cè)量都是在一個(gè)測(cè)試信號(hào)和預(yù)先設(shè)定好的空間方位角上進(jìn)行的,測(cè)量過(guò)程十分耗時(shí),對(duì)于未測(cè)量空間角的HRTF值仍需要進(jìn)行插值計(jì)算。據(jù)此,東南大學(xué)楊飛然[15]在2014年提出了動(dòng)態(tài)測(cè)試HRTF的構(gòu)想:聲源不斷發(fā)送信號(hào),被試者以均勻角速度旋轉(zhuǎn),從而獲取整個(gè)水平面方位角的HRTF。2017年華南理工大學(xué)聲學(xué)研究所設(shè)計(jì)了近場(chǎng)頭相關(guān)傳遞函數(shù)多聲源快速測(cè)量系統(tǒng),將多個(gè)聲源利用支撐桿固定在半徑1.25m圓環(huán)的不同仰角處,通過(guò)上下移動(dòng)和轉(zhuǎn)動(dòng)座椅,改變被試者位置,通過(guò)伸縮支撐桿改變聲源空間距離,使測(cè)量單個(gè)距離下的HRTF數(shù)據(jù)時(shí)間縮短至20min左右,在一定誤差范圍內(nèi)保證其測(cè)量精度。這是目前為止HRTF測(cè)量效率最高的系統(tǒng),為今后HRTF的獲取提供了便利[16]。

        2.1.2 實(shí)驗(yàn)法測(cè)量HRTF原理

        HRTF測(cè)量過(guò)程是一個(gè)線性時(shí)不變系統(tǒng),如果把發(fā)聲端信號(hào)看作輸入信號(hào)[x(t)],無(wú)干擾下雙耳接收信號(hào)看作[y(t)],實(shí)際雙耳接收端信號(hào)看作[z(t)],傳輸過(guò)程中的干擾信號(hào)為[n(t)],那么求解HRTF即是求解[x(t)]與[y(t)]之間的傳遞函數(shù)[h(t)]。整個(gè)測(cè)量過(guò)程原理如圖1所示。

        2.2 數(shù)值計(jì)算法獲得HRTF

        2.2.1 數(shù)值計(jì)算法

        由于實(shí)驗(yàn)測(cè)量獲取HRTF的方法對(duì)實(shí)驗(yàn)環(huán)境和實(shí)驗(yàn)器材要求較高,近20年來(lái),逐漸出現(xiàn)了通過(guò)數(shù)值計(jì)算獲取HRTF的方法。數(shù)值計(jì)算法一般分為兩步:首先構(gòu)造合適的計(jì)算模型,然后根據(jù)一定的數(shù)學(xué)方法計(jì)算獲得需要的HRTF。1998年,Martens[18]構(gòu)造出鋼球模型用于計(jì)算HRTF,2002年加州大學(xué)戴維斯分校使用頭部和軀干的“雪人模型”獲得近似HRTF[19]。這兩種模型是前期對(duì)人體形態(tài)的簡(jiǎn)單模擬,均可通過(guò)求解波動(dòng)方程或亥姆霍茲方程的方法獲得HRTF。另外還可通過(guò)掃描人工頭計(jì)算獲取HRTF。2001年,Katz[20]掃描獲得B&K4128C人工頭模型,通過(guò)邊界元法計(jì)算獲取HRTF,其計(jì)算頻率達(dá)到6kHz。2003年,Otani在Katz[21]研究的基礎(chǔ)上,得出快速邊界元法計(jì)算HRTF的方法。Kahana[22]在2007年掃描得到KEMAR人工頭和6個(gè)耳廓的尺寸模型,同樣利用邊界元法計(jì)算得到HRTF,此時(shí)其計(jì)算頻率提升到14kHz。2003 年杜克大學(xué)的TIAN Xiao等[23]提出使用時(shí)域有限差分法結(jié)合完全匹配層方法計(jì)算球模型和KEMAR人工頭的HRTF,上述兩種方法主要是基于近似模型的計(jì)算,后來(lái)逐漸出現(xiàn)了對(duì)真人頭部進(jìn)行掃描獲取計(jì)算頭模型的方法。2004年,F(xiàn)els[24]等研究了兒童生長(zhǎng)變化與HRTF之間的關(guān)系,用相機(jī)拍下兒童(4~6歲)頭部模型,提取其頭部三維信息后用邊界元方法計(jì)算得出兒童的HRTF。2014年,Meshram等[25]研究出自適應(yīng)矩形分解方法模擬聲波的傳輸過(guò)程,使HRTF的計(jì)算在8核臺(tái)式機(jī)上的時(shí)間縮短至20多分鐘。

        我國(guó)在HRTF建模計(jì)算上的研究有:2010年,西北工業(yè)大學(xué)根據(jù)GB/2428-1998標(biāo)準(zhǔn)構(gòu)造出一個(gè)橢球模型用于計(jì)算HRTF[26]。2012年,華南理工大學(xué)芮元慶[27]設(shè)計(jì)出簡(jiǎn)化的橢球頭部-耳廓計(jì)算模型,分別得到KEMER人工頭和6名真人的計(jì)算模型,利用快速邊界元法計(jì)算其HRTF。2014年,陳嘉衍[28]提出用聲學(xué)互易原理加快邊界元法計(jì)算速度。同年,西北工業(yè)大學(xué)唐玲[29]通過(guò)光掃描獲取了中國(guó)人BHead210標(biāo)準(zhǔn)頭模三維模型,并計(jì)算得到其HRTF。數(shù)值計(jì)算法對(duì)于構(gòu)造模型的準(zhǔn)確性要求較高。2016年中國(guó)聲學(xué)會(huì)議上提出了一種更為準(zhǔn)確的耳廓測(cè)量方法,此方法利用計(jì)算機(jī)軟件處理,其中使用了法蘭福參考平面,使頭部建模更加準(zhǔn)確[30]。

        實(shí)際計(jì)算HRTF時(shí),根據(jù)式(16)先求出邊界上的聲壓值,然后將其帶入式(15)求出空間任意位置處的聲壓[P(r,r0,f)],最后將其帶入格林函數(shù)式(2)中,即可求得任意空間位置處的HRTF。其后,對(duì)于HRTF的計(jì)算方法大多是在傳統(tǒng)邊界元法的基礎(chǔ)上進(jìn)行改進(jìn),添加其它算法,如多級(jí)算法、球諧函數(shù)多級(jí)展開(kāi)法等,快速降低邊界元算法的計(jì)算復(fù)雜度。

        2.3 數(shù)據(jù)庫(kù)匹配與主觀選擇獲得HRTF

        2.3.1 數(shù)據(jù)庫(kù)匹配與主觀選擇方法回顧

        實(shí)驗(yàn)測(cè)量和數(shù)值計(jì)算獲得HRTF的方法在時(shí)間和成本上消耗很大,不同人HRTF的頻譜特征不同,要想實(shí)際利用HRTF生產(chǎn)聲學(xué)產(chǎn)品并保證其可行性,需要測(cè)量或計(jì)算不同人的HRTF,這顯然非常耗時(shí)且不切實(shí)際。因此,快速準(zhǔn)確地尋找和獲取個(gè)性化HRTF的方法是研究的重點(diǎn)和熱點(diǎn)。

        數(shù)據(jù)庫(kù)匹配法和主觀選擇法目前研究的結(jié)果主要是獲得近似化HRTF,這與實(shí)驗(yàn)法和數(shù)值計(jì)算法獲取準(zhǔn)確的HRTF不同。數(shù)據(jù)庫(kù)匹配法是快速獲取HRTF的主流方法,其原理是使用統(tǒng)計(jì)分析的方法建立人體生理參數(shù)與HRTF模型之間的匹配關(guān)系。1998年,Brown[31]提出HRTF結(jié)構(gòu)模型,將人體對(duì)聲源的濾波過(guò)程劃分為頭部、軀干、耳廓3部分綜合濾波,分別定制各部分濾波器,調(diào)整濾波器參數(shù)以獲得個(gè)性化HRTF。Jin[32]在2000年使用主成分分析法對(duì)HRTF數(shù)據(jù)進(jìn)行降維,將HRTF分解為7個(gè)基函數(shù)和權(quán)重系數(shù)的線性組合,此方法獲得的HRTF有較好的定位效果。Zotkin[33]在2003年通過(guò)比較被試者與已知數(shù)據(jù)庫(kù)對(duì)象的耳部7個(gè)生理參數(shù),選擇已知數(shù)據(jù)庫(kù)中合適的HRTF作為被試者中高頻段的HRTF。CS Fahn[34]同年提出了一種空間聚類方法,將HRTF幅度譜進(jìn)行分類,獲取每一類下的代表HRTF,則空間任意方向的HRTF值都可由這些代表HRTF值合成。印度尼西亞大學(xué)的Hugeng[35]、Wahab[36]分別在2010年和2015年使用主成分分析法對(duì)HRIR、HRTF進(jìn)行重構(gòu),得出時(shí)域和頻域下的重構(gòu)性能最佳模型與代表性人體形態(tài)參數(shù)。華南理工大學(xué)在2013年改進(jìn)了Zotkin的生理參數(shù)匹配法,利用譜失真評(píng)價(jià)和相關(guān)分析方法使7個(gè)匹配生理參數(shù)降為3個(gè)[37]。2016年大連理工大學(xué)的袁康[38]提出對(duì)水平角和垂直角進(jìn)行主成分分析,獲取不同測(cè)量者在不同角度下的主成分系數(shù)值,從而獲取個(gè)性化HRTF。

        主觀選擇法是獲取HRTF的又一類方法。2003年,Seeber[39]提出在水平面上進(jìn)行主觀聽(tīng)覺(jué)測(cè)試實(shí)驗(yàn),但只是對(duì)前半水平面的部分位置進(jìn)行測(cè)量,結(jié)果僅滿足少量的HRTF。Iwaya[40]在2006年使用DOMISO方法從大量非個(gè)性化HRTF中選出需要的HRTF,但其只使用了組內(nèi)循環(huán)比較準(zhǔn)則。大連理工大學(xué)汪林、殷福亮等[41]在DOMISO方法的基礎(chǔ)上,為快速選擇出被試者的個(gè)性化HRTF,提出了一種基于競(jìng)賽方式的主觀選擇方法。2016年袁康[38]提出對(duì)距離、水平角、高度角建模,通過(guò)調(diào)節(jié)模型參數(shù)進(jìn)行主觀試聽(tīng)實(shí)驗(yàn)獲得HRTF。主觀選擇法與數(shù)據(jù)庫(kù)匹配方法相比研究較少,主要原因是空間模擬聲播放受環(huán)境影響較大且其空間聽(tīng)覺(jué)判斷具有隨機(jī)性,如何較好地解決這一問(wèn)題是主觀方法能否真正得到應(yīng)用的關(guān)鍵。

        2.3.2 主成分分析法(PCA)原理

        在使用主成分分析法時(shí),主要對(duì)HRTF頻域和HRIR時(shí)域進(jìn)行分析,基本原理為:將HRTF的頻域或HRIR的時(shí)間域進(jìn)行劃分,將其看成一組隨機(jī)向量[X=[x(1),x(2),?,][x(N)]T],且[x(1)],[x(2)]…[x(N)]之間是相關(guān)的,通過(guò)K-L變換后形成的向量[Y]的各分量間互不相關(guān),此時(shí)向量[Y]對(duì)向量[X]的近似均方誤差值最小,表明生成頻譜或波形最重要的部分保留了下來(lái)。去掉次要部分,即僅需一部分基向量和對(duì)應(yīng)的主元系數(shù),即可恢復(fù)原始的HRTF或HRIR數(shù)據(jù)。

        基于主成分分析法獲得HRTF的過(guò)程分為標(biāo)準(zhǔn)化、主成分分析、重構(gòu)3個(gè)步驟。HRTF在空間位置[(θ,φ)]處的幅值表示為[Dij],[i]表示被試者序號(hào),[j]為頻率序號(hào),頻率為[fj]時(shí),HRTF的幅值可表示為:

        3 選擇方法比較

        本文對(duì)4種選擇方法進(jìn)行分析,并對(duì)其優(yōu)缺點(diǎn)進(jìn)行總結(jié)和比較,見(jiàn)表1。

        4 結(jié)語(yǔ)

        本文闡述了常用的4種個(gè)性化HRTF獲取方法及關(guān)鍵技術(shù),除此之外,還有頻率標(biāo)度法、物理模擬法等也可獲得近似的HRTF值。近幾年來(lái),關(guān)于HRTF的研究獲得了很大突破,但在一些方面仍然存在一些需要深入研究和探討的課題,主要表現(xiàn)在:

        (1)傳統(tǒng)測(cè)量法獲得HRTF費(fèi)時(shí)費(fèi)力,基于動(dòng)態(tài)測(cè)量的方法暫露頭角,但是基于多聲源播放時(shí)信號(hào)之間多重散射以及聲源角度與間隔分布應(yīng)予以研究。

        (2)數(shù)值計(jì)算法的前提是建立頭部-軀干模型,數(shù)據(jù)庫(kù)匹配法也與人體參數(shù)有關(guān)。因此,開(kāi)發(fā)更加簡(jiǎn)單準(zhǔn)確的人體參數(shù)測(cè)量方法,是未來(lái)提升這兩種方法下HRTF準(zhǔn)確性的重點(diǎn)研究方向。

        (3)現(xiàn)有對(duì)HRTF進(jìn)行線性分解的方法多是分解成二階獨(dú)立矢量,而高階矢量分解更能體現(xiàn)空間的離散性,是未來(lái)HRTF線性分解的發(fā)展方向之一。

        (4)目前數(shù)據(jù)庫(kù)匹配原理僅研究得出某些參數(shù)與HRTF之間存在密切關(guān)系,但是人體參數(shù)具體影響HRTF的哪些頻段、各參數(shù)之間相互作用是否對(duì)HRTF造成影響、不同頻率下參數(shù)的選擇種類和數(shù)量,都是解決數(shù)據(jù)庫(kù)匹配的熱點(diǎn)問(wèn)題。

        (5)主觀選擇方法應(yīng)在主觀評(píng)價(jià)指標(biāo)上進(jìn)行深入研究,比如評(píng)價(jià)指標(biāo)種類、數(shù)量、評(píng)價(jià)方法等。另外,由于被試對(duì)聲源方位的判斷存在隨機(jī)性和不確定性,還應(yīng)補(bǔ)充整個(gè)實(shí)驗(yàn)操作,比如著重研究人體心理因素和視覺(jué)因素對(duì)HRTF的影響,包括影響因子種類、數(shù)量等。

        綜上所述,HRTF可以通過(guò)不同的獲取方式得到,每種方式具有不同的優(yōu)缺點(diǎn),研究HRTF新的獲取方式以及解決HRTF獲取工作中存在的問(wèn)題,對(duì)未來(lái)HRTF在虛擬現(xiàn)實(shí)中的應(yīng)用具有重要意義。

        參考文獻(xiàn):

        [1] MASTERSON C, KEARNEY G, GORZEL M, et al. HRIR order reduction using approximate factorization[J]. IEEE Transactions on Audio Speech & Language Processing, 2012, 20(6):1808-1817.

        [2] WIENER F M. Sound diffraction by rigid spheres and circular cylinders[J]. Journal of the Acoustical Society of America, 1947, 19(3):444-451.

        [3] KUHN G F, GUERNSEY R M. Sound pressure distribution about the human head and torso[J]. Journal of the Acoustical Society of America, 1983, 73(1):95-96.

        [4] WIGHTMAN F L,KISTLER D J. Headphone simulation of free-field listening. II: psychophysical validation[J]. Journal of the Acoustical Society of America, 1989, 85(2):868-878.

        [5] GARDNER B. HRTF measurements of a KEMAR dummy-head microphone[J]. MIT Media Lab. Perceptual Computing-Technical Report, 1994(280):1-7.

        [6] MIDDLEBROOKS J C. Virtual localization improved by scaling nonindividualized external-ear transfer functions in frequency[J]. Journal of the Acoustical Society of America, 1999, 106(1):1493-1510.

        [7] ALGAZI V R, DUDA R O, THOMPSON D M, et al. The CIPIC HRTF database[C].Applications of Signal Processing to Audio and Acoustics, 2001 IEEE Workshop on the. IEEE, 2001:99-102.

        [8] TAKANE S, ARAI D, MIYAJIMA T, et al. A database of head-related transfer functions in whole directions on upper hemisphere[J]. Acoustical Science & Technology, 2002, 23(23):160-162.

        [9] ROOM ACOUSTICS TEAM OF IRCAM. HRTF database[EB/OL]. [2006-08-20]. http://www.ircam.fr/equipes/salles/listen/index.html

        [10] 吳鎮(zhèn)揚(yáng), 王衛(wèi)斌. 基于小波變換奇異性檢測(cè)的HRTF(與頭部關(guān)聯(lián)的傳遞函數(shù))消噪處理[J]. 生物物理學(xué)報(bào), 1997, 13(3):473-478.

        [11] 趙自力. 虛擬三維聲音合成的實(shí)驗(yàn)研究[D]. 北京:清華大學(xué), 2002.

        [12] 謝菠蓀, 鐘小麗, 饒丹,等. 頭相關(guān)傳輸函數(shù)數(shù)據(jù)庫(kù)及其特性分析[J]. 中國(guó)科學(xué):物理學(xué) 力學(xué) 天文學(xué), 2006, 36(5):464-479.

        [13] 龔玫, 肖崢, 曲天書(shū),等. 近場(chǎng)頭相關(guān)傳輸函數(shù)的測(cè)量與分析[J]. 應(yīng)用聲學(xué), 2007, 26(6):326-334.

        [14] 吳璽宏, 呂振洋, 高源,等. 近場(chǎng)結(jié)構(gòu)化頭相關(guān)傳輸函數(shù)的測(cè)量與分析[J]. 數(shù)據(jù)采集與處理, 2014, 29(2):180-185.

        [15] 楊飛然. 頭相關(guān)傳遞函數(shù)測(cè)試新方法[J]. 應(yīng)用聲學(xué), 2014(3):263-264.

        [16] 余光正, 劉昱, 謝菠蓀. 近場(chǎng)頭相關(guān)傳輸函數(shù)的多聲源快速測(cè)量系統(tǒng)設(shè)計(jì)與驗(yàn)證[J]. 聲學(xué)學(xué)報(bào), 2017(3):348-360.

        [17] 李平友. 用最長(zhǎng)序列測(cè)量揚(yáng)聲器的脈沖響應(yīng)[J]. 應(yīng)用聲學(xué), 1993(1):11-16.

        [18] DUDA R O, MARTENS W L. Range dependence of the response of a spherical head model[J]. Journal of Acoustical Society of America, 1998, 104(5):3048-3058.

        [19] ALGAZI V R, DUDA R O, DURALSWAMI R, et al. Approximating the head-related transfer function using simple geometric models of the head and torso[J]. Journal of the Acoustical Society of America, 2002, 112(1):2053-2064.

        [20] KATZ B F G. Boundary element method calculation of individual head-related transfer function, rigid model calculation[J]. Journal of the Acoustical Society of America, 2001, 110(5 Pt 1):2440-2441.

        [21] OTANI M, ISE S. A fast calculation method of the head-related transfer functions for multiple source points based on the boundary element method[J]. Acoustical Science & Technology, 2003, 24(5):259-266.

        [22] KAHANA Y, NELSON P. Boundary element simulations of the transfer function of human heads and baffled pinnae using accurate geometric models[J]. Journal of Sound & Vibration, 2007, 300(3):552-579.

        [23] XIAO T, LIU Q H. Finite difference computation of head-related transfer function for human hearing[J]. Journal of the Acoustical Society of America, 2003, 113(5):2434-2435.

        [24] FELS J, BUTHMANN P, VORL?NDER M. Head-related transfer functions of children[J]. Acta Acustica United with Acustica, 2004, 90(5):918-927.

        [25] MESHRAM A, MEHRA R, YANG H, et al. P-HRTF: efficient personalized HRTF computation for high-fidelity spatial sound[C].IEEE International Symposium on Mixed and Augmented Reality. IEEE, 2014:53-61.

        [26] 汪遠(yuǎn)東, 曾向陽(yáng), 陳幸幸. 近場(chǎng)頭相關(guān)傳遞函數(shù)的數(shù)值計(jì)算與特性分析[J]. 應(yīng)用聲學(xué), 2010, 29(3):189-195.

        [27] 芮元慶. 個(gè)性化近場(chǎng)頭相關(guān)傳輸函數(shù)的計(jì)算與分析[D]. 廣州:華南理工大學(xué), 2013.

        [28] 陳嘉衍, 謝菠蓀, 劉昱,等. 互易和邊界元法計(jì)算頭相關(guān)傳輸函數(shù)的穩(wěn)定性及其改進(jìn)[C]. 中國(guó)聲學(xué)學(xué)會(huì)全國(guó)聲學(xué)學(xué)術(shù)會(huì)議, 2014.

        [29] 唐玲, 付中華. 中國(guó)人標(biāo)準(zhǔn)頭模BHead210的頭相關(guān)傳遞函數(shù)數(shù)值計(jì)算[J]. 聲學(xué)技術(shù), 2014(3):237-242.

        [30] 吳銳興, 余光正. 基于3D掃描圖像的耳廓生理尺寸參數(shù)測(cè)量[C].全國(guó)聲學(xué)學(xué)術(shù)會(huì)議,2016.

        [31] BROWN C P, DUDA R O. A structural model for binaural sound synthesis[J]. Speech & Audio Processing IEEE Transactions on, 1998, 6(5):476-488.

        [32] JIN C, LEONG P, LEUNG J, et al. Enabling individualized virtual auditory space using morphological measurments[C]. IEEE Workshop on,2000:235-238.

        [33] ZOTKIN D N, HWANG J, DURAISWAINI R, et al. HRTF personalization using anthropometric measurements[C].Applications of Signal Processing To Audio and Acoustics, 2003 IEEE Workshop on. IEEE, 2003:157-160.

        [34] FAHN C S, LO Y C. On the clustering of head-related transfer functions used for 3-D sound localization[J]. Journal of Information Science & Engineering, 2003, 19(1):141-157.

        [35] HUGENG, GUNAWAN D, WAHAB W. Effective preprocessing in modeling head-related impulse responses based on principal components analysis[J]. Signal Processing An International Journal, 2010, 4(4):201-212.

        [36] HUGENG, WAHAB W, GUNAWAN D. A new selection method of anthropometric parameters in individualizing HRIR[J]. Telkomnika, 2015, 13(3):301-307.

        [37] 劉雪潔, 鐘小麗. 改進(jìn)的頭相關(guān)傳輸函數(shù)生理參數(shù)匹配法[C]. 中國(guó)聲學(xué)學(xué)會(huì)青年學(xué)術(shù)會(huì)議, 2013.

        [38] 袁康. 個(gè)性化頭相關(guān)傳遞函數(shù)研究[D]. 大連:大連理工大學(xué), 2016.

        [39] SEEBER B, FASTL H.Subjective selection of non-individual head-related transfer functions[C]. Proceedings of the 2003 International Conference on Auditory Display.Boston,MA,USA, 2003: 259-262.

        [40] IWAYA Y. Individualization of head-related transfer functions with tournament-style listening test: Listening with others ears[J]. Acoustical Science & Technology, 2006, 340(6):24-31.

        [41] 汪林, 殷福亮, 陳喆. 3D聲場(chǎng)合成中近似個(gè)性頭相關(guān)傳遞函數(shù)的主觀選擇方法[J]. 信號(hào)處理, 2009, 25(7):1097-1102.

        (責(zé)任編輯:杜能鋼)

        猜你喜歡
        虛擬現(xiàn)實(shí)技術(shù)
        虛擬現(xiàn)實(shí)技術(shù)應(yīng)用于展示空間設(shè)計(jì)教學(xué)領(lǐng)域的探索
        控制計(jì)算機(jī)系統(tǒng)的虛擬化方案
        基于Internet環(huán)境下的虛擬現(xiàn)實(shí)技術(shù)在室內(nèi)設(shè)計(jì)中的應(yīng)用
        虛擬現(xiàn)實(shí)技術(shù)在三維動(dòng)畫(huà)制作中的應(yīng)用
        數(shù)碼繪畫(huà)在虛擬現(xiàn)實(shí)技術(shù)下的多元表現(xiàn)
        虛擬現(xiàn)實(shí)技術(shù)在景觀設(shè)計(jì)課程教學(xué)中的應(yīng)用探究
        戲劇之家(2016年19期)2016-10-31 19:42:52
        又硬又粗又大一区二区三区视频 | 日韩在线观看入口一二三四 | 国产激情视频在线观看的| 日本成本人三级在线观看| 国产一区二区牛影视| 中文字幕高清一区二区| 人妻一区二区三区av| 欧美一区二区三区久久综| 东京热久久综合久久88| 黑人巨大亚洲一区二区久| 久久精品国产亚洲av麻豆床戏 | 国产情侣自拍偷拍精品| 丰满少妇人妻无码| av一区二区三区人妻少妇| 亚洲av无码片在线播放| 国产啪啪视频在线观看| 中文字幕一区二区三区久久网| 欧美俄罗斯40老熟妇| 一区二区无码中出| 在线亚洲国产一区二区三区| 99噜噜噜在线播放| 国产真实夫妇交换视频| 国产亚洲精品自在久久77| 亚洲av色香蕉一区二区三区av| 丰满大爆乳波霸奶| 熟妇人妻中文av无码| 亚洲夫妻性生活视频网站| 国产精品成人自拍在线观看| 亚洲精品无码久久久久av老牛| 国产nv精品你懂得| 青青草手机成人自拍视频| 丝袜美腿av在线观看| 野外少妇愉情中文字幕| 日本精品一区二区三本中文| 麻豆视频av在线观看| 欧美日韩一区二区三区在线观看视频| 亚洲熟妇色xxxxx欧美老妇y| 黄色网页在线观看一区二区三区| 免费黄片小视频在线播放| 另类老妇奶性生bbwbbw| 丝袜欧美视频首页在线|