亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于自適應(yīng)同源方差控制的法庭自動(dòng)說(shuō)話人識(shí)別

        2014-02-21 11:50:48王華朋
        關(guān)鍵詞:數(shù)據(jù)庫(kù)模型

        王華朋, 楊 軍, 吳 鳴, 許 勇

        1.中國(guó)科學(xué)院噪聲與振動(dòng)重點(diǎn)實(shí)驗(yàn)室,北京100190

        2.中國(guó)刑事警察學(xué)院刑事科學(xué)技術(shù)系,沈陽(yáng)110854

        法庭說(shuō)話人識(shí)別或確認(rèn),即法庭語(yǔ)音比對(duì),主要比對(duì)罪犯在犯罪過(guò)程中產(chǎn)生的語(yǔ)音樣本和嫌疑人的語(yǔ)音樣本,提取能反映說(shuō)話人個(gè)體特征的語(yǔ)言特征和語(yǔ)音特征并加以識(shí)別或確認(rèn).隨著法庭證據(jù)評(píng)估方法的發(fā)展,DNA率先采取了新的基于似然比的證據(jù)評(píng)估方法,以量化法庭證據(jù)對(duì)鑒定結(jié)論支持力度的大小.該方法逐漸在國(guó)際上獲得了廣泛的認(rèn)同,被認(rèn)為是在邏輯上和法律上都正確的法庭證據(jù)評(píng)估方法,也是符合法庭推理過(guò)程和證據(jù)解釋的科學(xué)方法[1].

        法庭說(shuō)話人識(shí)別分為半自動(dòng)識(shí)別和自動(dòng)識(shí)別兩種.在半自動(dòng)識(shí)別方法里,通過(guò)提取到的語(yǔ)音特征,直接計(jì)算語(yǔ)音證據(jù)的似然比.這種方法需要人工挑選有價(jià)值的發(fā)音單元,然后提取其語(yǔ)音特征,耗費(fèi)了大量的人力和時(shí)間[2-4].法庭自動(dòng)說(shuō)話人識(shí)別則是一種與文本無(wú)關(guān)的說(shuō)話人識(shí)別技術(shù),它通常是在普通說(shuō)話人識(shí)別系統(tǒng)的基礎(chǔ)上經(jīng)過(guò)得分到似然比的轉(zhuǎn)換,使識(shí)別得分具有明確的物理意義[5-6].它的優(yōu)點(diǎn)是不需要大量的人工干預(yù),并且可以處理鑒定人無(wú)法聽懂的方言、俚語(yǔ)和不同語(yǔ)種的語(yǔ)音.但在普通的自動(dòng)說(shuō)話人識(shí)別中過(guò)度強(qiáng)調(diào)了得分和門限的作用[7],忽視了說(shuō)話人得以識(shí)別的基礎(chǔ)條件.雖然說(shuō)話人語(yǔ)音受到情緒、生理狀態(tài)、年齡和健康等狀況的影響,同一人兩次說(shuō)相同語(yǔ)句的信號(hào)特征并不是完全一樣的,但這種說(shuō)話人自身的同源變化必須小于不同人之間的非同源變化,否則無(wú)法識(shí)別說(shuō)話人.而且,每個(gè)說(shuō)話人自身的同源變化都與其他人自身的同源變化不同,不能采用同一個(gè)標(biāo)準(zhǔn)進(jìn)行判定.為此,本文提出了一種新的魯棒似然比估計(jì)算法,即自適應(yīng)同源方差控制算法.該算法充分挖掘嫌疑人自身得分分布的信息,將估計(jì)的同源分布的方差控制在同一錄音說(shuō)話人自身方差和不同人目標(biāo)得分的方差之間,不但符合說(shuō)話人識(shí)別的基本原理,而且顯著提高了識(shí)別性能,更有利于證據(jù)力度的表達(dá)和量化.

        1 法庭自動(dòng)說(shuō)話人識(shí)別方法

        本文方法的流程圖如圖1所示.目標(biāo)語(yǔ)音庫(kù)包含來(lái)自多個(gè)相同說(shuō)話人的語(yǔ)音比較對(duì),非目標(biāo)語(yǔ)音庫(kù)包含來(lái)自不同人的語(yǔ)音比較對(duì),測(cè)試語(yǔ)音為來(lái)源未知的語(yǔ)音比較對(duì).背景模型-高斯混合模型(background model-Gaussian mixturemodel,BM-GMM)識(shí)別系統(tǒng)與通用背景模型-高斯混合模型(universal background model-Gaussian mixture model,UBM-GMM)系統(tǒng)類似,只是參考人群數(shù)據(jù)庫(kù)人數(shù)較少,往往針對(duì)具體案件選擇與罪犯年齡、生活環(huán)境相似的人群.在法庭調(diào)查中,嫌疑人自身的數(shù)據(jù)通常較少,其有限的數(shù)據(jù)通過(guò)BM-GMM識(shí)別系統(tǒng)后的得分也較少,其得分分布模型N(μS,σS)不能準(zhǔn)確反映嫌疑人自身的同源變化特性.因此,本文采用(adapted within-source variance control,AWVC)算法融合N(μS,σS)與目標(biāo)語(yǔ)音庫(kù)得分分布模型N(μG,σG),得到了能更準(zhǔn)確地反映當(dāng)前嫌疑人同源變化特性的估計(jì)分布N(μA,σA).最后,測(cè)試語(yǔ)音得分的均值分別在同源分布模型和異源分布模型上計(jì)算似然值,得到量化的能反映證據(jù)對(duì)

        圖1 法庭自動(dòng)說(shuō)話人識(shí)別方法流程圖Figur e 1 Flow chart of FASR method

        鑒定結(jié)論支持力度的似然比值.

        1.1 背景模型-高斯混合模型識(shí)別系統(tǒng)

        本文采用的自動(dòng)說(shuō)話人識(shí)別系統(tǒng)與UBM-GMM系統(tǒng)類似,不同之處在于UBM-GMM系統(tǒng)采用的背景數(shù)據(jù)庫(kù)人數(shù)非常多,一般包括多個(gè)信道和錄音設(shè)備的數(shù)據(jù)庫(kù).考慮到一個(gè)案件的成本問題,BM-GMM識(shí)別系統(tǒng)選擇與嫌疑人年齡、生活環(huán)境類似的50個(gè)說(shuō)話人構(gòu)成小型的背景數(shù)據(jù)庫(kù)人群.通過(guò)背景數(shù)據(jù)庫(kù)語(yǔ)音訓(xùn)練得到表示不同人特征分布的GMM,這個(gè)模型即為背景模型.罪犯的統(tǒng)計(jì)模型是通過(guò)自適應(yīng)GMM算法從背景模型中計(jì)算獲得的.自適應(yīng)GMM算法的基本的思路是利用新的信息自動(dòng)更新已訓(xùn)練完畢的背景模型的參數(shù),得到某一個(gè)說(shuō)話人的語(yǔ)音模型.該方法在個(gè)體說(shuō)話人模型和背景模型之間提供了緊密的耦合,不僅具有比非耦合模型更好的識(shí)別性能,而且在訓(xùn)練數(shù)據(jù)不充足的條件下具有更高的魯棒性,還具有快速計(jì)算識(shí)別得分的優(yōu)勢(shì)[8].在本文的BM-GMM系統(tǒng)中,采用單一的自適應(yīng)系數(shù)來(lái)對(duì)所有的參數(shù)進(jìn)行調(diào)整,即

        1.2 同源分布估計(jì)與異源分布模型

        假設(shè)目標(biāo)語(yǔ)音庫(kù)得分分布和非目標(biāo)語(yǔ)音庫(kù)得分分布為單混合的GMM,可通過(guò)期望最大化算法訓(xùn)練得到其分布模型.經(jīng)驗(yàn)表明,正態(tài)分布在識(shí)別中表現(xiàn)出良好的性能,于是本文的同源分布和異源分布均采用正態(tài)分布.LR的計(jì)算精確度受嫌疑人樣本數(shù)量過(guò)小的影響很大,如果嫌疑人數(shù)據(jù)長(zhǎng)度小,就不能從這些較少的得分中估計(jì)出該嫌疑人得分的準(zhǔn)確分布.目前已有幾種技術(shù)方法可以補(bǔ)償數(shù)據(jù)缺乏的影響.文獻(xiàn)[9]在計(jì)算框架中使用了近似假設(shè)的方法,即一個(gè)給定嫌疑人精確的同源分布模型可以由相同條件下不同人的目標(biāo)得分來(lái)近似逼近.因此,同源分布實(shí)際上是由不同說(shuō)話人的目標(biāo)得分建模的.然而,經(jīng)研究發(fā)現(xiàn),即使在相同的條件下,不同人的目標(biāo)得分也會(huì)出現(xiàn)不同的訓(xùn)練模型.因此,為了對(duì)同源分布模型進(jìn)行精確估計(jì),很多學(xué)者均采用與具體嫌疑人相關(guān)的得分信息.文獻(xiàn)[5]提出的自適應(yīng)算法如下:式中,μG和σG分別為目標(biāo)得分的均值和方差,μS和σS分別為嫌疑人自身得分正態(tài)分布的均值和方差,μA和σA分別為自適應(yīng)之后的同源分布的均值和方差,M為得分的數(shù)目,κ為相關(guān)因子.算法用嫌疑人的得分均值來(lái)調(diào)整不同人的目標(biāo)得分均值,但這種調(diào)整與實(shí)際情況不符.由于在嫌疑人未被識(shí)別之前,不能確定嫌疑人和比較對(duì)象是否為同一個(gè)人,若采用嫌疑人的均值調(diào)節(jié)不同人目標(biāo)得分的均值,必然會(huì)改變得分包含的說(shuō)話人的原始信息,這不符合信息的原始分布.因此,本文主張不同人的目標(biāo)得分的均值不必調(diào)整,同源得分分布的方差則使用本文提出的AWVC算法式中,α=σG/(σS+σG),μG和σG分別為目標(biāo)得分的均值和方差,μS和σS分別為嫌疑人自身得分正態(tài)分布的均值和方差,μA和σA分別為自適應(yīng)之后的同源分布的均值和方差.

        如果將N段同一個(gè)說(shuō)話人的語(yǔ)音樣本與比較對(duì)象的統(tǒng)計(jì)模型進(jìn)行比較,那么識(shí)別系統(tǒng)的輸出得分不會(huì)完全一致,這是因?yàn)檫@N段樣本語(yǔ)音內(nèi)容不同和語(yǔ)音自身的非平穩(wěn)特性,使系統(tǒng)輸出得分在某一均值處上下波動(dòng).這種波動(dòng)反映了說(shuō)話人自身的同源變化,具體大小反映在數(shù)據(jù)的方差上,但這個(gè)方差小于不同人的目標(biāo)得分的方差.如果大于不同人的目標(biāo)得分的方差,說(shuō)明當(dāng)前的測(cè)試語(yǔ)音得分不準(zhǔn)確,或者語(yǔ)音受到傳輸信道、噪聲或者其他干擾的影響,就應(yīng)該進(jìn)行相應(yīng)的調(diào)整.常見情況如下:因?yàn)橄右扇藬?shù)據(jù)缺乏,所以嫌疑人分段數(shù)據(jù)得分方差通常比較小,不能反映嫌疑人自身的同源變化情況.本文根據(jù)式(6)對(duì)同源得分方差進(jìn)行自適應(yīng)的調(diào)整,既考慮了當(dāng)前測(cè)試說(shuō)話人自身得分的方差σS,又考慮了不同人目標(biāo)得分的方差σG,進(jìn)而在這兩個(gè)方差之間進(jìn)行自適應(yīng)調(diào)整.嫌疑人自身的方差以權(quán)值α進(jìn)行調(diào)整,不同說(shuō)話人目標(biāo)得分的方差以1-α進(jìn)行調(diào)整.調(diào)整后的方差在嫌疑人自身的方差和不同人目標(biāo)得分方差之間產(chǎn)生一個(gè)動(dòng)態(tài)平衡,再對(duì)兩方面的方差信息進(jìn)行綜合運(yùn)用.

        同樣,同源得分分布的方差也不能太小,如果太小,則會(huì)在似然比的計(jì)算中出現(xiàn)奇異值,影響識(shí)別性能.因此,本文限制了同源得分分布的最小方差,即不能小于不同人目標(biāo)得分方差的1/5,以式(7)對(duì)部分超出正常范圍的方差進(jìn)行調(diào)整.

        文獻(xiàn)[5]提出的嫌疑人自適應(yīng)的得分到似然比的轉(zhuǎn)換算法示意圖見圖2,本文提出的自適應(yīng)同源方差控制算法示意圖見圖3.星號(hào)表示不同人說(shuō)話人之間非目標(biāo)得分的分布情況,虛線表示嫌疑人得分的分布情況,圓點(diǎn)表示不同人的目標(biāo)得分的分布情況,實(shí)線是經(jīng)過(guò)自適應(yīng)動(dòng)態(tài)方差控制后估計(jì)得到的同源得分分布,均用正態(tài)分布來(lái)表示.對(duì)比調(diào)整后實(shí)線發(fā)現(xiàn),文獻(xiàn)[5]算法自適應(yīng)后的得分均值發(fā)生了移動(dòng),而本文算法自適應(yīng)后的均值則保持在原目標(biāo)得分的均值點(diǎn)上.

        圖2 文獻(xiàn)[5]算法示意圖Figure 2 Schematic plot of algorithm in references[5]

        圖3 自適應(yīng)同源方差控制算法示意圖Figure 3 Schematic plot of AWVC algorithm

        1.3 得分到似然比的轉(zhuǎn)換

        在法庭說(shuō)話人識(shí)別的研究中,似然比是最重要的研究?jī)?nèi)容,因?yàn)樗梢粤炕C據(jù)對(duì)鑒定結(jié)論支持的力度,即提供證據(jù)強(qiáng)度.似然比可以表示成在一個(gè)給定的假設(shè)條件下(罪犯和嫌疑人為同一個(gè)人假設(shè))觀測(cè)到罪犯語(yǔ)音特征的概率與在完全相反的假設(shè)條件下(罪犯和嫌疑人為不同人假設(shè))觀測(cè)到罪犯語(yǔ)音特征概率的比值.似然比的分子,用來(lái)估計(jì)在罪犯樣本和嫌疑人樣本來(lái)自同一人的假設(shè)條件下,獲得待比較樣本間匹配程度的概率;似然比的分母,用來(lái)估計(jì)在罪犯樣本和嫌疑人樣本來(lái)自不同人的假設(shè)條件下,獲得待比較樣本間匹配程度的概率.因此,似然比反映了當(dāng)前語(yǔ)音證據(jù)支持同一人的假設(shè)和支持不是同一人假設(shè)的相對(duì)強(qiáng)度,強(qiáng)度的大小反映在似然比值的大小上.似然比的值和1之間的相對(duì)距離,反映了證據(jù)強(qiáng)度的大小[10].在普通說(shuō)話人識(shí)別系統(tǒng)中,識(shí)別門限可以根據(jù)需要進(jìn)行調(diào)整;在法庭說(shuō)話人識(shí)別中,門限1是固定的,具有實(shí)際的物理意義.似然比和1的大小關(guān)系表明,當(dāng)前的語(yǔ)音證據(jù)支持是同一人的假設(shè)還是非同一人的假設(shè),似然比并沒有給出“是”或“否”的回答,只是量化了當(dāng)前語(yǔ)音證據(jù)對(duì)鑒定結(jié)論支持的強(qiáng)度[11].如果用P表示概率,E表示證據(jù),H0表示待比較的語(yǔ)音對(duì)來(lái)自同一說(shuō)話人假設(shè),H1表示待比較的語(yǔ)音對(duì)來(lái)自不同人的假設(shè),那么似然比可寫成

        如果罪犯和嫌疑人的語(yǔ)音樣本相似度越高,它們來(lái)自同一人的可能性越大,似然比的值也就越大.但是,這個(gè)結(jié)果還需要樣本的典型性來(lái)平衡.貝葉斯理論明確指明,樣本間的相似性和典型性對(duì)證據(jù)評(píng)估來(lái)說(shuō)都是必不可少的.

        識(shí)別得分到似然比值的轉(zhuǎn)換方法可以分為兩類.一類是純校準(zhǔn)的方法,它通過(guò)一個(gè)可逆的變換完成,輸入得分的識(shí)別性能保持不變,既保留了原得分的鑒別性能,又保留了原識(shí)別系統(tǒng)得出的所有信息.純校準(zhǔn)類別的得分轉(zhuǎn)換方法包括邏輯遞歸的方法和改進(jìn)的s-cal邏輯遞歸方法(pool adjacent violators,PAV)算法[12]等.另一類是混合鑒別校正方法,它不僅提高了校正的結(jié)果,而且提高了系統(tǒng)的識(shí)別性能.因此,這種似然比計(jì)算方法并不局限于對(duì)得分的可逆轉(zhuǎn)換,其目標(biāo)是進(jìn)一步提高輸入得分的識(shí)別性能.混合鑒別校正類包括一般的似然模型方法、多層感知的神經(jīng)網(wǎng)絡(luò)方法、嫌疑人自適應(yīng)的似然比計(jì)算方法等.本文提出的AWVC算法屬于混合鑒別校正類,測(cè)試語(yǔ)音對(duì)得分均值分別在同源分布模型和異源分布模型上計(jì)算似然值,以表示測(cè)試語(yǔ)音特征相似特性的同源分布模型上的似然值為分子.以表示測(cè)試語(yǔ)音特征典型性的異源分布模型上的似然值為分母,即得到既考慮證據(jù)間相似性,又考慮到證據(jù)在人群中出現(xiàn)的典型性的似然比,進(jìn)一步提高了原得分的識(shí)別性能.

        1.4 法庭說(shuō)話人識(shí)別系統(tǒng)性能可靠性評(píng)估

        法庭自動(dòng)說(shuō)話人識(shí)別系統(tǒng)的識(shí)別性能一般使用與先驗(yàn)概率無(wú)關(guān)的對(duì)數(shù)似然比代價(jià)函數(shù)來(lái)評(píng)估,也是美國(guó)國(guó)家標(biāo)準(zhǔn)及技術(shù)署說(shuō)話人識(shí)別技術(shù)評(píng)測(cè)中心使用的識(shí)別系統(tǒng)性能評(píng)估函數(shù)

        式中,Nss和Nds分別為相同說(shuō)話人比較對(duì)和不同說(shuō)話人比較對(duì)的數(shù)目,Rss和Rds是由相同說(shuō)話人比較對(duì)和不同說(shuō)話人比較對(duì)計(jì)算產(chǎn)生的似然比值.識(shí)別系統(tǒng)越可靠,Cllr的值就越低;相反,越不可靠的系統(tǒng)產(chǎn)生的Cllr值越高.

        2 實(shí)驗(yàn)結(jié)果及討論

        2.1 實(shí)驗(yàn)設(shè)置

        數(shù)據(jù)庫(kù)是在實(shí)驗(yàn)室環(huán)境中錄制的語(yǔ)音.使用傳聲器進(jìn)行錄制,原始采樣頻率為44 100 Hz,后經(jīng)Cool Edit Pro 2.0降采樣為8 kHz、16-bit的PCM文件,共包含90人的自由對(duì)話.數(shù)據(jù)庫(kù)分2次錄制,第1次錄制的數(shù)據(jù)庫(kù)命名為S1,第2次錄制的數(shù)據(jù)庫(kù)命名為S2,兩次錄制的時(shí)間間隔大約一星期,即數(shù)據(jù)庫(kù)內(nèi)每人在一星期左右的時(shí)間錄音2次,談話內(nèi)容沒有限制.為了建立更準(zhǔn)確的說(shuō)話人模型并降低計(jì)算量,數(shù)據(jù)庫(kù)使用非語(yǔ)音段去除技術(shù)對(duì)語(yǔ)音文件中的靜默段.隨機(jī)選取50人的語(yǔ)料作為背景數(shù)據(jù)庫(kù),分別提取S1中的前30 s數(shù)據(jù)和S2中的前30 s數(shù)據(jù),提取16階的梅爾倒譜特征(Mel-frequency cepstral coefficient,MFCC)和16階的MFCC為特征向量,維數(shù)為32,幀長(zhǎng)為16 ms,加漢明窗,幀移位為8 ms,預(yù)加重系數(shù)為0.97.將這S1和S2的特征向量數(shù)據(jù)混合在一起作為訓(xùn)練背景模型,背景模型是64個(gè)混合的GMM.在特征向量與GMM的似然值計(jì)算中,選擇得分最高的5個(gè)混合的平均值計(jì)算最后的似然值.參考說(shuō)話人數(shù)據(jù)庫(kù)人數(shù)為20,測(cè)試說(shuō)話人數(shù)據(jù)庫(kù)人數(shù)為20,這兩個(gè)數(shù)據(jù)庫(kù)中每個(gè)說(shuō)話人均提取S1和S2中的前30 s數(shù)據(jù)混合,通過(guò)自適應(yīng)GMM算法得到每個(gè)人的統(tǒng)計(jì)模型(64階的GMM)作為罪犯的統(tǒng)計(jì)模型.測(cè)試語(yǔ)音的長(zhǎng)度為2 min,根據(jù)測(cè)試結(jié)果可知30 s秒時(shí)長(zhǎng)的語(yǔ)音具有最好的識(shí)別性能(在本文的實(shí)驗(yàn)條件下).因此,每30 s秒語(yǔ)音分成一段,共4段測(cè)試語(yǔ)音.這4段測(cè)試語(yǔ)音在BM-GMM中會(huì)得到4個(gè)嫌疑人自身的識(shí)別對(duì)數(shù)得分.

        2.2 實(shí)驗(yàn)結(jié)果比較

        在似然比結(jié)果的討論中,似然比經(jīng)常以10為底的對(duì)數(shù)值表示,因?yàn)樵趯?duì)數(shù)域,越大的正數(shù)對(duì)是同一人假設(shè)提供越大的支持力度,越大的負(fù)數(shù)對(duì)不同人假設(shè)提供越大的支持力度.圖4是似然比值的Tippett圖[13],左上的曲線表示不同說(shuō)話人的對(duì)數(shù)10似然比大于等于x軸刻度的樣本所占的比率;右上的曲線表示同一說(shuō)話人對(duì)數(shù)10似然比小于等于x軸刻度的樣本所占的比率.Tippett圖中的豎線為識(shí)別閾值,似然比體系的識(shí)別閾值為1,取對(duì)數(shù)后為0,最理想的情況就是左上的線和右上的線和閾值都沒有交點(diǎn).圖4和5中的實(shí)線是基本系統(tǒng)的參考識(shí)別結(jié)果(請(qǐng)注意兩圖橫坐標(biāo)范圍不同),在兩圖中是相同的.圖4中點(diǎn)劃線是經(jīng)本文提出的AWVC算法調(diào)整后的識(shí)別結(jié)果,圖5中的點(diǎn)劃線是文獻(xiàn)[5]中的算法使用本文漢語(yǔ)數(shù)據(jù)庫(kù)計(jì)算時(shí)的識(shí)別結(jié)果.

        圖4 AWVC算法識(shí)別結(jié)果的Tippett圖Figure 4 Recognition results in Tippett plot of AWVC algorithm

        圖5 文獻(xiàn)[5]算法識(shí)別結(jié)果的Tippett圖Figure 5 Recognition results in Tippett plot of algorithm in references[5]

        從圖4中可以看到,本文提出的自適應(yīng)動(dòng)態(tài)方差控制算法不僅明顯提升了識(shí)別的正確率,而且顯著加強(qiáng)了不同人比較對(duì)的支持力度,還使非同源假設(shè)的最大支持力度從約108倍提高到約1040倍,即自適應(yīng)同源方差控制算法提高了系統(tǒng)對(duì)正確結(jié)論的支持力度,使法官和統(tǒng)計(jì)專家更有信心使用該語(yǔ)音證據(jù).作為系統(tǒng)可靠性測(cè)量標(biāo)準(zhǔn)的Cllr值,未使用自適應(yīng)同源方差控制之前為0.118 9,使用之后為0.059 1,系統(tǒng)的可靠性得到50.3%的提升.更重要的是,在保持錯(cuò)誤否定率為0的基礎(chǔ)上,錯(cuò)誤認(rèn)定率從5.79%下降到1.58%.本文與文獻(xiàn)[5]使用不同的數(shù)據(jù)庫(kù),故無(wú)法進(jìn)行橫向比較,但是把文獻(xiàn)[5]中的算法應(yīng)用在本文的中文數(shù)據(jù)庫(kù)上,識(shí)別性能不如本文提出的算法,如圖5所示.

        3 結(jié)語(yǔ)

        本文提出了法庭自動(dòng)說(shuō)話人識(shí)別方法,成功地將普通自動(dòng)說(shuō)話人識(shí)別系統(tǒng)應(yīng)用于法庭語(yǔ)音比對(duì)任務(wù)之中,擴(kuò)展了普通基于得分的說(shuō)話人識(shí)別系統(tǒng)的應(yīng)用領(lǐng)域;同時(shí)提出了自適應(yīng)同源方差控制算法,根據(jù)說(shuō)話人識(shí)別的基本原理對(duì)說(shuō)話人自身的同源得分方差分布進(jìn)行了合理的自適應(yīng)控制.實(shí)驗(yàn)結(jié)果顯示,與未使用方差控制的系統(tǒng)和其他同類算法相比,不僅顯著提高了識(shí)別率,而且使證據(jù)對(duì)結(jié)論的支持力度進(jìn)一步加強(qiáng),錯(cuò)誤認(rèn)定率顯著降低.

        [1]MORRISON G S,ZHANG C L,ROSE P.An empirical estimate of the precision of likelihood ratios from a forensic-voice-comparison system[J].Forensic Science International,2011,208:59-65.

        [2]ZHANG C L,MORRISON G S,ENZINGER E,OCHOA F.Effects of telephone transmission on the performance of formant-trajectory-based forensic voice comparison-female voices[J].Speech Communication,2013,55(6):796-813.

        [3]MORRISON G S.A comparison of procedures for the calculation of forensic likelihood ratios from acoustic-phonetic data:multivariate kernel density(MVKD)versus Gaussian mixture model-universal background model(GMM-UBM)[J].Speech Communication,2011,53(2):242-256.

        [4]WANG Huapeng,YANG Jun,XU Yong.Forensic speaker recognition in likelihood ratio framework[J].Journal of Data Acquisition&Processing,2013,28(2):239-43.

        [5]CASTRO D R.Forensic evaluation of the evidence using automatic speaker recognition systems[D].Madrid:Universidad Autonoma de Madrid,November,2007.

        [6]MORRISON G S.Tutorial on logistic regression calibration and fusion:converting a score to a likelihood ratio[J].Australian Journal of Forensic Sciences,2013,45(2):173-197.

        [7]POH N,KITTLER J.On the use of log-likelihood ratio based model-speci?c score normalisation in biometric authentication[C]//LNCS 4542,IEEE.The ist IAPR International Conference on.Biometrics(ICB'07),2007:614-624.

        [8]REYNOLDSD A,QUATIERIT F,DUNNR B.Speaker verif ication using adapted Gaussian mixture models[J].Digital Signal Processing,2000:19-41.

        [9]BOTTI F,ALEXANDER A,DRYGAJLO A.An interpretation framwork for the evaluation of evidence in forensic automatic speaker recognition with limited suspect data[C]//Proceedings of Odyssey,2004:63-68.

        [10]KINOSHITA Y,OSANAI T.Within speaker variation in diphthongal dynamics:what can we compare?[C]//Proceedings of the 11th Australasian International Conference on Speech Science&Technology,Auckland,New Zealand,Canberra,Australia:Australasian Speech Science&Technology Association,2006:112-117.

        [11]ROSEP.Technical forensic speaker recognition:evaluation,types and testing of evidence[J].Computer Speech and Language,2006:159-191.

        [12]BRüMMER N,PREEZ D J.Application independent evaluation of speaker detection[J].Computer Speech and Language,2006:230-275.

        [13]ROSE P.Accounting for correlation in linguisticacoustic likelihood ratio-based forensic speaker discrimination[C]//Proceedings of the IEEE Odyssey Speaker and Language Recognition Workshop,2006:1-8.

        猜你喜歡
        數(shù)據(jù)庫(kù)模型
        一半模型
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        數(shù)據(jù)庫(kù)
        數(shù)據(jù)庫(kù)
        3D打印中的模型分割與打包
        數(shù)據(jù)庫(kù)
        數(shù)據(jù)庫(kù)
        數(shù)據(jù)庫(kù)
        FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
        亚洲精品在线一区二区| 国产欧美va欧美va香蕉在线观 | 乱人妻中文字幕| 美女扒开屁股让男人桶| 在线观看免费人成视频| 中文字幕第1页中文字幕在| 视频国产精品| 国产视频免费一区二区| 亚洲国产精品18久久久久久 | 偷拍激情视频一区二区| 久久亚洲中文字幕精品熟| 亚洲综合色婷婷七月丁香| 亚洲中文字幕无码中字| 国产人妖赵恩静在线视频| 国产福利一区二区三区在线观看| 亚洲色一区二区三区四区| 亚洲精品无码专区在线| 91福利国产在线观一区二区| 91久久精品国产性色tv| a黄片在线视频免费播放| 久久99精品久久水蜜桃| 91手机视频在线| 日本不卡一区二区三区在线| 国产内射一级一片内射视频| 日本爽快片18禁免费看| 亚洲精品成人av一区二区| 亚洲av综合日韩精品久久| 亚洲天堂成人av影院| 亚洲国产精品va在线播放| 最新精品国偷自产在线婷婷| 国产精品一级av一区二区| 91精品国产乱码久久中文| 日韩成人无码| аⅴ天堂国产最新版在线中文| 国成成人av一区二区三区| 成人精品一区二区三区电影 | 国内精品人妻无码久久久影院| 在线免费日韩| 精品日本免费观看一区二区三区| 久久婷婷五月综合色高清| www插插插无码视频网站|