亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        結(jié)合過(guò)完備字典與PCA的小樣本語(yǔ)音情感識(shí)別方法

        2013-08-22 06:23:44毛啟容趙小蕾白李娟王治鋒詹永照
        關(guān)鍵詞:特征信號(hào)情感

        毛啟容,趙小蕾,白李娟,王治鋒,詹永照

        (江蘇大學(xué)計(jì)算機(jī)科學(xué)與通信工程學(xué)院,江蘇 鎮(zhèn)江 212013)

        計(jì)算機(jī)技術(shù)與人機(jī)交互技術(shù)的日益發(fā)展,賦予計(jì)算機(jī)感知、理解、識(shí)別和生成人類情感的能力,使人機(jī)交互變得更加友好、智能、和諧,這已成為信息科學(xué)領(lǐng)域中的前沿?zé)狳c(diǎn)問(wèn)題.語(yǔ)音情感識(shí)別作為人機(jī)交互的研究熱點(diǎn)之一,其通過(guò)提取語(yǔ)音信號(hào)中的情感特征,判斷說(shuō)話者的喜怒哀樂(lè),而且國(guó)內(nèi)外在這一領(lǐng)域的研究已取得許多突破性的成果.近年來(lái),信號(hào)的稀疏表示引起越來(lái)越多研究者的興趣,由于其優(yōu)良特性,信號(hào)稀疏表示已經(jīng)被應(yīng)用到信號(hào)處理的許多方面,如壓縮[1]、反問(wèn)題的正則化[2]、信號(hào)去燥[3]、信號(hào)編碼[4]、識(shí)別[5]、融合技術(shù)[6]等.稀疏分解可以實(shí)現(xiàn)數(shù)據(jù)壓縮的高效性,更重要的是隨著冗余字典的提出可以利用字典的冗余特性捕捉信號(hào)內(nèi)在的本質(zhì)特征.

        過(guò)完備信號(hào)稀疏表示方法始于20世紀(jì)90年代,1993年 Stephane G.Mallat和 Zhang Zhifeng首次提出應(yīng)用過(guò)完備冗余字典對(duì)信號(hào)進(jìn)行稀疏分解的思想,過(guò)完備冗余字典的提出為后來(lái)學(xué)者的研究提供了理論基礎(chǔ),如文獻(xiàn)[7]提出的基于詞典學(xué)習(xí)和稀疏表示的超分辨率的方法,文獻(xiàn)[8]提出的一種基于超完備字典學(xué)習(xí)的圖像去噪方法等.而且通過(guò)信號(hào)在過(guò)完備冗余字典上的分解,來(lái)表示信號(hào)的基可以自適應(yīng)地根據(jù)信號(hào)本身的特點(diǎn)靈活選取.這將使得稀疏表示方法可以更好地應(yīng)用于模式識(shí)別領(lǐng)域.其中最有代表性的是A.Y.Yang等[9]結(jié)合壓縮感知理論提出了稀疏表示識(shí)別算法(sparse representation recognition,SRR),并應(yīng)用于人臉識(shí)別,得到很高的識(shí)別率.稀疏表示方法擁有優(yōu)良的特性,但近幾年的研究大多局限于大樣本數(shù)據(jù)庫(kù).且在模式識(shí)別領(lǐng)域中,隨著特征維數(shù)的增加,特征冗余度與系統(tǒng)復(fù)雜度會(huì)隨之增加,在運(yùn)用稀疏表示識(shí)別時(shí),識(shí)別率不高且需要大量訓(xùn)練樣本進(jìn)行訓(xùn)練,給試驗(yàn)研究帶來(lái)了不便.為了解決這個(gè)問(wèn)題,文中將PCA降維方法與過(guò)完備字典運(yùn)用到SRR識(shí)別方法中,提出了結(jié)合過(guò)完備字典與PCA的小樣本語(yǔ)音情感識(shí)別算法(recognition of speech emotion on small samples by over-complete dictionary learning and pca dimension reduction,RSESS-ODP),以達(dá)到提高識(shí)別率并使其更適用于小樣本數(shù)據(jù)庫(kù)的試驗(yàn)?zāi)康?文中使用小樣本語(yǔ)音情感數(shù)據(jù)庫(kù)進(jìn)行測(cè)試,并在其基礎(chǔ)上與較成熟的識(shí)別模型BP,SVM作比較,來(lái)驗(yàn)證文中方法的有效性.同時(shí),為了進(jìn)一步探索如何減少時(shí)空復(fù)雜度與提高識(shí)別率,在驗(yàn)證SRR有效性后,鑒于稀疏表示作為一種新的特征表示方法,文中隨后探索稀疏化后特征對(duì)系統(tǒng)性能的影響.以往語(yǔ)音情感識(shí)別技術(shù)大多基于傳統(tǒng)特征,雖然傳統(tǒng)特征經(jīng)過(guò)優(yōu)化(如遺傳算法、粒子群算法等)與降維方法(如PCA、LDA等)的處理,將高維特征空間映射到低維特征空間,所得的有效特征數(shù)據(jù)可提高識(shí)別率、降低系統(tǒng)復(fù)雜度,但隨著維數(shù)的逐漸增加不能有效權(quán)衡識(shí)別率與時(shí)空復(fù)雜度的關(guān)系.如果稀疏化特征表示形式更具優(yōu)勢(shì),那將對(duì)日后的試驗(yàn)研究提供更佳輸入數(shù)據(jù).

        文中擬通過(guò)使用K-SVD算法與OMP算法對(duì)語(yǔ)音情感信號(hào)傳統(tǒng)特征進(jìn)行稀疏分解,給出基于小樣本語(yǔ)音情感數(shù)據(jù)庫(kù)的語(yǔ)音情感特征的稀疏表示方法以及RSESS-ODP算法.為驗(yàn)證RSESS-ODP算法的有效性,將其與BP和SVM進(jìn)行比較,并分析稀疏化前后特征在使用各種分類器下對(duì)識(shí)別率、時(shí)間效率、空間效率等性能的影響.

        1 語(yǔ)音情感特征的稀疏表示方法

        過(guò)完備字典可以通過(guò)賦特定的函數(shù)集如wavelate,curvelet,contourle等函數(shù)得到,也可以設(shè)計(jì)算法通過(guò)不斷迭代自適應(yīng)給定的信號(hào)樣本集,得到更符合信號(hào)特性的過(guò)完備字典[10].文獻(xiàn)[2]首次提出了K-SVD算法,此算法通過(guò)自適應(yīng)信號(hào)樣本集合訓(xùn)練得到過(guò)完備字典,其是K-均值聚類算法的擴(kuò)展算法.該算法通過(guò)不斷迭代稀疏編碼,為更好地符合樣本固有特性而不斷地更新字典,最終得到有效的過(guò)完備字典.文中使用文獻(xiàn)[10]提出的有效K-SVD算法訓(xùn)練包含語(yǔ)音情感信號(hào)主要特征的冗余字典,此算法可減少稀疏分解的計(jì)算量,從而減少信號(hào)稀疏分解的系統(tǒng)運(yùn)行時(shí)間.

        1993 年,Y.C.Pati等[11]提出了正交匹配跟蹤(orthogonal matching pursuit,OMP)的概念,OMP 算法在MP算法的基礎(chǔ)上將所構(gòu)原子按Gram-Schmidt正交化方法進(jìn)行正交化處理.利用OMP算法可保證在有限次迭代次數(shù)后逼近誤差衰減到0.OMP算法是貪心算法,每次迭代選擇與當(dāng)前剩余信號(hào)最大相關(guān)的原子信號(hào),選擇的原子與已選中的原子集正交化,而當(dāng)前剩余信號(hào)被重新計(jì)算,進(jìn)入下一次迭代,直至達(dá)到所設(shè)定的終止條件為止.用OMP算法可得到信號(hào)的近似線性組合.

        本節(jié)將介紹如何求得語(yǔ)音情感信號(hào)特征的稀疏表示.利用文獻(xiàn)[10]中的有效K-SVD算法訓(xùn)練符合語(yǔ)音情感信號(hào)固有特性的自適應(yīng)冗余字典,字典的維數(shù)假設(shè)為M×N維,其中,M在這里是指語(yǔ)音情感特征維數(shù),N代表語(yǔ)音情感過(guò)完備字典原子個(gè)數(shù),并滿足N?M或N>M的條件;用文獻(xiàn)[10]中提到的OMP算法求得語(yǔ)音信號(hào)的稀疏編碼.

        定義各符號(hào)含義如下:D為過(guò)完備字典;D0為初始字典;Y為語(yǔ)音情感信號(hào)特征集,Y集合每一列代表一個(gè)語(yǔ)音情感樣本所有特征;y為Y中一個(gè)樣本特征集合;α為樣本信號(hào)特征y的稀疏表示;X為信號(hào)的稀疏表示集合,x為一個(gè)樣本特征的稀疏表示向量;d為D中原子,dk為D中第k個(gè)原子;Dj為過(guò)完備字典D中的第j個(gè)原子,重新賦值后的原子;gT為新的稀疏表示系數(shù);K為目標(biāo)稀疏度,此為算法終止條件,稀疏度達(dá)到K值則算法終止;R為樣本特征剩余值;I為使用第j個(gè)原子的語(yǔ)音情感樣本信號(hào)索引;U為選中的原子索引集合.應(yīng)用在語(yǔ)音情感特征稀疏表示方法中的具體步驟如下所示:

        1)首先在Matlab下提取所有語(yǔ)音情感樣本信號(hào)的特征,設(shè)特征維數(shù)為M維,樣本個(gè)數(shù)為S個(gè),則經(jīng)特征提取后所得特征集合Y,大小為M×S.在Y集合中隨機(jī)選取N個(gè)樣本,賦值給初始字典D0,此時(shí)D=D0,其維數(shù)為M×N,同時(shí)將U初始化為空.

        2)固定語(yǔ)音情感過(guò)完備字典D,求語(yǔ)音情感樣本特征的稀疏表示集合X.根據(jù)公式(1)得到與原語(yǔ)音情感特征最相關(guān)的原子索引j,將j添加到U中,如果U非空并將其與U中其他原子正交化.根據(jù)公式(2)重新計(jì)算當(dāng)前剩余語(yǔ)音情感特征的值記為R.

        反復(fù)迭代步驟2),當(dāng)R小于一定閾值時(shí),則終止步驟2).如果達(dá)到目標(biāo)稀疏度K值,則執(zhí)行步驟5),否則執(zhí)行步驟3).

        3)固定稀疏表示集合X,根據(jù)公式(3)-(5)逐次優(yōu)化D中的原子.

        式中:d代表新的原子;g代表新得到的稀疏表示;T符號(hào)代表轉(zhuǎn)置.反復(fù)迭代步驟3)直至遍歷所有原子.

        4)轉(zhuǎn)入步驟2).重新計(jì)算語(yǔ)音情感特征的稀疏表示集合X.

        5)算法結(jié)束.最終得到試驗(yàn)所需的語(yǔ)音情感過(guò)完備字典D與稀疏矩陣X.

        2 RSESS-ODP算法

        為了提高識(shí)別率和便于在小樣本語(yǔ)音情感數(shù)據(jù)庫(kù)中應(yīng)用稀疏表示識(shí)別方法,文中將訓(xùn)練樣本與測(cè)試樣本特征使用PCA降維方法降維,以滿足過(guò)完備字典N>M的條件.并將建立試驗(yàn)來(lái)確定識(shí)別率最高的特征維數(shù).在小樣本語(yǔ)音情感數(shù)據(jù)庫(kù)中,RSESS-ODP算法語(yǔ)音情感識(shí)別具體過(guò)程如下:

        1)用PCA降維方法對(duì)訓(xùn)練樣本和測(cè)試樣本的語(yǔ)音情感特征降維,降到目標(biāo)維數(shù)d維,其中d<N,N為所訓(xùn)練的過(guò)完備字典原子個(gè)數(shù).

        2)應(yīng)用第1節(jié)語(yǔ)音情感特征稀疏表示方法訓(xùn)練過(guò)完備字典,并基于此過(guò)完備字典求得經(jīng)PCA降維后的語(yǔ)音情感特征的稀疏表示形式.即,假設(shè)情感類別數(shù)為C,則分別為每類情感訓(xùn)練一個(gè)過(guò)完備字典,這 C 個(gè)過(guò)完備字典 Di(i=1,2,3,…,C),大小均為d×N,用此C類字典稀疏化各自情感類別的測(cè)試樣本語(yǔ)音情感特征.

        3)根據(jù)公式(6),將稀疏化后的每個(gè)測(cè)試樣本的語(yǔ)音情感特征經(jīng)過(guò)所屬類別的過(guò)完備字典進(jìn)行變換,隨后,將反變換后的Di×x向量與原信號(hào)之間的距離之差作為信號(hào)的冗余誤差,如公式(7)所示,使用哪類過(guò)完備字典變換后所得誤差最小,樣本就歸為哪一類.

        式中:y為測(cè)試樣本;xi為經(jīng)稀疏分解后的稀疏向量;ei為所求得的冗余誤差.

        4)求得C類情感識(shí)別率ri.假設(shè)ti為正確分類樣本個(gè)數(shù),si為測(cè)試樣本個(gè)數(shù),則 ri=ti/si(i=1,2,3,…,C).

        5)算法結(jié)束.

        3 試驗(yàn)結(jié)果與分析

        文中使用的語(yǔ)音情感數(shù)據(jù)庫(kù),由本課題組錄制,包含6類典型情感,分別為高興(happiness)、傷心(sadness)、驚訝(surprise)、生氣(anger)、害怕(fear)和厭惡(disgust).每類情感錄制了100個(gè)訓(xùn)練樣本和30個(gè)測(cè)試樣本,即訓(xùn)練集合共600句,測(cè)試集合共有180句.文中用Matlab提取共振峰、短時(shí)能量、基頻、短時(shí)過(guò)零率等101維語(yǔ)音情感特征.

        3.1 RSESS-ODP中誤差計(jì)算方法的確定

        在RSESS-ODP算法實(shí)現(xiàn)的過(guò)程中,求RSESSODP冗余誤差的方法有多種,為使得RSESS-ODP算法達(dá)到最佳性能,分別計(jì)算不同距離計(jì)算冗余誤差后所求得的情感識(shí)別率,從而找到計(jì)算冗余誤差的最佳距離計(jì)算公式.

        設(shè)有兩個(gè)樣本,xi=[xi1,xi2,xi3,…,xin]T和xj=[xj1,xj2,xj3,…,xjn]T,常用的求解向量距離的方法有如下幾種.

        1)歐式距離:

        2)絕對(duì)值距離:

        3)切比雪夫距離:

        2017年我國(guó)木質(zhì)家具出口數(shù)量25 603.69萬(wàn)件,其中出口美國(guó)9 860.3萬(wàn)件,占38.51%;木質(zhì)家具出口金額137.33億美元,其中美國(guó)42.83億美元,占31.19%。

        4)馬哈拉諾比斯距離:

        5)夾角:

        6)相關(guān)度:

        其中,c表示向量xi與xj的協(xié)方差矩陣,兩個(gè)向量情況下,a=1,b=2,R值越大,則向量相似度越大.

        為測(cè)試哪種距離更適合求解RSESS-ODP冗余誤差,文中在Matlab環(huán)境下,以步長(zhǎng)5取20到100維數(shù),計(jì)算每個(gè)維數(shù)下RSESS-ODP算法使用不同距離公式得到的識(shí)別率情況,每個(gè)維數(shù)每個(gè)距離計(jì)算10次,并取平均值,最終結(jié)果如圖1所示.

        圖1 使用不同距離時(shí)RSESS-ODP平均識(shí)別率對(duì)比

        由圖1可見(jiàn),應(yīng)用歐式距離求解冗余誤差得到的平均識(shí)別率最高.歐式距離是m維空間中兩個(gè)點(diǎn)的真實(shí)距離,其更能準(zhǔn)確表達(dá)兩點(diǎn)距離,更具有區(qū)分性.絕對(duì)值距離公式次之,但絕對(duì)值距離只是單純地求解向量之間差值的絕對(duì)值,不能準(zhǔn)確反映兩點(diǎn)之間的距離,其他距離區(qū)分度稍低些.因此,RSESSODP算法選用歐式距離求解冗余誤差.

        3.2 不同識(shí)別方法的性能比較與分析

        為驗(yàn)證文中所提算法RSESS-ODP的有效性,分別從識(shí)別率、時(shí)空效率的角度分析比較各識(shí)別方法的性能.

        在基于過(guò)完備字典與PCA的語(yǔ)音情感稀疏表示識(shí)別方法中,經(jīng)PCA方法降維后,不同的目標(biāo)維數(shù)會(huì)得到不同的識(shí)別率.文中以維數(shù)間距等于5的步長(zhǎng)求解不同維數(shù)下使用不同識(shí)別方法的平均識(shí)別率.為了驗(yàn)證RSESS-ODP在文中所用的小樣本語(yǔ)音情感數(shù)據(jù)庫(kù)上的識(shí)別有效性,在同一小樣本語(yǔ)音情感數(shù)據(jù)庫(kù)下,分別應(yīng)用基本分類器“一對(duì)一”SVM、自主學(xué)習(xí)BP模型求得與RSESS-ODP相同維數(shù)的6類情感平均識(shí)別率.其中,SVM分類器使用徑向基核函數(shù),Gamma,C的值分別取0.01和8.5,而B(niǎo)P隱層節(jié)點(diǎn)數(shù)選擇15.其識(shí)別結(jié)果對(duì)比情況如圖2所示.

        圖2 RSESS-ODP、SVM、BP在不同維數(shù)下的識(shí)別率對(duì)比

        由圖2可知,維數(shù)為65維RSESS-ODP測(cè)得的6類情感平均識(shí)別率最高,運(yùn)用RSESS-ODP識(shí)別算法識(shí)別率最高可達(dá)84.45%,平均識(shí)別率為81.47%;SVM最高識(shí)別率為82.22%,SVM的平均識(shí)別率為78.84%;而應(yīng)用 BP算法,測(cè)得的最高識(shí)別率為78.89%,平均識(shí)別率為 75.73%.

        根據(jù)上述分析可知,從最高識(shí)別率來(lái)看,SVM高出 BP 3.33%,RSESS-ODP 高于 SVM 2.23%;從平均識(shí)別率來(lái)看,SVM高出BP 3.11%,而RSESSODP高出 SVM 2.63%.換言之,RSESS-ODP略優(yōu)于SVM,SVM略優(yōu)于BP.綜上所述,RSESS-ODP在小樣本語(yǔ)音情感數(shù)據(jù)庫(kù)中可達(dá)到較高識(shí)別率,且在語(yǔ)音情感識(shí)別中,從識(shí)別率角度分析,其具有較好的優(yōu)勢(shì).

        3.2.2 時(shí)間、空間運(yùn)行效率分析

        下面分別從時(shí)間與空間效率的角度進(jìn)一步分析RSESS-ODP算法在小樣本語(yǔ)音情感識(shí)別中的有效性.試驗(yàn)測(cè)得的運(yùn)行時(shí)間與存儲(chǔ)空間,是在同一臺(tái)儀器上進(jìn)行,使用每類情感100個(gè)訓(xùn)練樣本以及每類情感30個(gè)測(cè)試樣本得到的10次試驗(yàn)的平均值.表1給出了不同識(shí)別方法訓(xùn)練與識(shí)別過(guò)程所用的時(shí)間.

        表1 不同識(shí)別方法所需的運(yùn)行時(shí)間 s

        從表1可見(jiàn)時(shí)間效率最高的是SVM方法,其次是文中所提出的RSESS-ODP方法.RSESS-ODP方法從訓(xùn)練過(guò)完備字典到稀疏分解語(yǔ)音情感特征平均所用的時(shí)間是BP訓(xùn)練時(shí)間的1/3,且識(shí)別時(shí)間比BP少1.05 s.從空間效率上分析,RSESS-ODP方法需要存儲(chǔ)過(guò)完備字典與稀疏系數(shù)矩陣,BP,SVM以及距離分類器均需要存儲(chǔ)樣本語(yǔ)音情感特征.RSESS-ODP算法訓(xùn)練6類過(guò)完備字典,每個(gè)過(guò)完備字典維數(shù)為65×80,則共需存儲(chǔ)過(guò)完備字典65×480維的矩陣,而稀疏系數(shù)矩陣只需存儲(chǔ)非0元素,文中所用稀疏度為15,則系數(shù)系數(shù)矩陣共需存儲(chǔ)15×780維的矩陣.而其他識(shí)別方法,需要存儲(chǔ)65×780維的矩陣,所以從存儲(chǔ)效率上來(lái)說(shuō),文中所提方法空間利用率略高.

        從上述的識(shí)別率、時(shí)空效率分析來(lái)看,與其他識(shí)別方法相比,RSESS-ODP算法平均識(shí)別率與空間利用率最高.鑒于RSESS-ODP算法的優(yōu)越性能,隨后文中嘗試使用稀疏化后的特征進(jìn)行識(shí)別,以嘗試提高各識(shí)別方法在小樣本語(yǔ)音情感識(shí)別上的性能.

        3.3 語(yǔ)音情感特征稀疏化前后算法性能分析

        在第3.1和3.2節(jié)中,為了應(yīng)用RSESS-ODP算法,分別用6類情感訓(xùn)練樣本特征訓(xùn)練了6個(gè)過(guò)完備字典,在6類過(guò)完備字典上分別對(duì)各自情感測(cè)試樣本特征進(jìn)行稀疏分解.如果使用在6個(gè)過(guò)完備字典基礎(chǔ)上稀疏化后的特征作為各分類器的輸入,理論上來(lái)說(shuō)這并不合理.這是由于稀疏化后的特征表示,是在過(guò)完備字典的基礎(chǔ)上的稀疏變換系數(shù)矩陣,字典不同變換系數(shù)將不同,導(dǎo)致重復(fù)性會(huì)很大,區(qū)分度會(huì)很低.為了驗(yàn)證這一點(diǎn),文中在RSESS-ODP中識(shí)別率最高的65維特征下,用BP做了相關(guān)試驗(yàn),識(shí)別結(jié)果如表2所示.

        表2 稀疏化特征識(shí)別率 %

        從表2可見(jiàn),若要將稀疏化后的特征作為各分類器的輸入,必須使用統(tǒng)一的過(guò)完備字典.以下試驗(yàn)均使用PCA方法降維到65維數(shù)下進(jìn)行,訓(xùn)練的統(tǒng)一過(guò)完備字典大小為65×120.用第1節(jié)方法對(duì)訓(xùn)練樣本與測(cè)試樣本特征進(jìn)行稀疏分解,得到稀疏化后訓(xùn)練樣本特征矩陣與測(cè)試樣本特征矩陣大小分別為120×600和120×180.下面分別從識(shí)別率、時(shí)間效率、空間效率的角度分析比較各種分類器使用稀疏化前后特征的性能,從而驗(yàn)證使用稀疏化后特征可提高識(shí)別方法性能的假設(shè).

        3.3.1 語(yǔ)音情感識(shí)別率分析

        文中使用的分類器有SVM模型、BP模型以及各種基于距離的分類器(如歐式距離、絕對(duì)值距離、切比雪夫距離、馬哈拉諾比斯距離等).將稀疏化前后特征分別用于各種分類器識(shí)別試驗(yàn)中,各識(shí)別方法所得識(shí)別率情況如圖3所示.

        圖3 各距離分類器使用稀疏化前后特征對(duì)比

        從圖3可見(jiàn),除SVM外的分類器使用稀疏化后的特征比使用稀疏化前的特征求得的識(shí)別率更高,平均提高15%,且得到的識(shí)別結(jié)果較稀疏化前的特征的識(shí)別結(jié)果穩(wěn)定.由于BP是自主學(xué)習(xí),給定學(xué)習(xí)目標(biāo)值后,經(jīng)過(guò)逼近訓(xùn)練,得到各個(gè)情感類別的模型,雖然信號(hào)經(jīng)過(guò)稀疏表示會(huì)存在一定的誤差,但其并不影響類別之間的區(qū)分性,試驗(yàn)表明經(jīng)過(guò)稀疏化的特征更具有區(qū)分性,故識(shí)別率更高.使用距離分類器時(shí),根據(jù)測(cè)試樣本與訓(xùn)練樣本的相似性大小進(jìn)行分類,與哪類測(cè)試樣本相似程度大就歸為哪一類別,使用稀疏化后的特征比使用稀疏化前的特征進(jìn)行識(shí)別,得到的識(shí)別率更高,說(shuō)明稀疏化后的數(shù)據(jù)具有明顯的分類布局.稀疏化后的特征經(jīng)過(guò)SVM模型訓(xùn)練識(shí)別得到的識(shí)別率較稀疏化前的特征經(jīng)SVM訓(xùn)練識(shí)別得到的識(shí)別率低,平均識(shí)別率低36%,這說(shuō)明稀疏化后的特征向量經(jīng)SVM映射到更高維的空間,樣本與樣本之間的分散度很大,且區(qū)分度很低,類內(nèi)距離與類間距離區(qū)分度不明顯.這可能是經(jīng)稀疏化后的向量,很多元素為0的緣故,再經(jīng)過(guò)SVM映射到更高維空間則樣本分類不明顯.從圖3亦可見(jiàn),稀疏化前SVM識(shí)別率最高,可達(dá)78.84%,而稀疏化后BP識(shí)別率最高,可達(dá)86.12%,較稀疏化前的SVM識(shí)別率高 7.28%,同時(shí)也高于 3.2節(jié)中RSESS-ODP算法4.65%.換言之,稀疏化后特征應(yīng)用于BP方法能得到更高的識(shí)別率.

        3.3.2 時(shí)間、空間運(yùn)行效率分析

        從時(shí)間運(yùn)行效率的角度分析,不同識(shí)別方法使用稀疏化前后特征平均運(yùn)行時(shí)間如表3所示.

        表3 稀疏化前后特征時(shí)訓(xùn)練與識(shí)別時(shí)間對(duì)比 s

        由表3可見(jiàn),使用稀疏化后特征各識(shí)別方法訓(xùn)練與識(shí)別時(shí)間均有所減少,變化幅度最大的為BP識(shí)別方法,其訓(xùn)練與識(shí)別時(shí)間極大縮短,是原來(lái)的1/2倍,其次是距離分類器,縮短近原來(lái)的1/2倍,而SVM沒(méi)有明顯變化,但也有所減少.總體來(lái)看,時(shí)間效率提升近原來(lái)的一半.空間效率分析同3.2.2的分析,經(jīng)過(guò)稀疏表示可極大地節(jié)省存儲(chǔ)空間,即使特征維數(shù)再大也便于存儲(chǔ)處理.由此看來(lái),稀疏化后的特征較稀疏化前的特征有更高的空間效率.

        綜上所述,可以得出如下結(jié)論:稀疏化的特征更有利于BP、基于距離的分類器的處理,而不適合SVM.總體上來(lái)說(shuō)稀疏化后的特征適用于大多數(shù)分類器,且可提高分類器的整體性能.

        4 結(jié)論

        1)將稀疏表示與PCA相結(jié)合運(yùn)用于小樣本語(yǔ)音情感數(shù)據(jù)庫(kù)進(jìn)行識(shí)別,進(jìn)一步驗(yàn)證了SRR算法的有效性,且經(jīng)過(guò)試驗(yàn)驗(yàn)證較SVM與BP優(yōu)越.

        2)稀疏表示作為特征的另一種表示形式,稀疏化后的特征作為一種新的數(shù)據(jù)輸入,可大幅度提高系統(tǒng)性能(如識(shí)別率,時(shí)間效率,空間效率等).其中,平均識(shí)別率提高約15%,在同等維數(shù)下時(shí)間效率提升近1/2,而空間效率提升近原來(lái)的1/3.

        3)若想RSESS-ODP得到更高識(shí)別率,若想稀疏化特征進(jìn)一步提高系統(tǒng)性能,則需繼續(xù)提高稀疏表示的精確性與穩(wěn)定性.

        References)

        [1]Bryt O,Elad M.Compression of facial images using the K-SVD algorithm[J].Journal of Visual Communication and Image Representation,2008,19(4):270 -282.

        [2]Aharon M,Elad M,Bruckstein A.K-SVD:an algorithm for designing overcomplete dictionaries for sparse representation[J].IEEE Transactions on Signal Processing,2006,54(11):4311-4322.

        [3]Protter M,Elad M.Image sequence denoising via sparse and redundant representations[J].IEEE Transactions on Image Processing,2009,18(1):27-35.

        [4]張新鵬,王朔中.基于稀疏表示的密寫(xiě)編碼[J].電子學(xué)報(bào),2007,35(10):1892 -1896.Zhang Xinpeng,Wang Shuozhong.Steganographic encoding based on sparse representation[J].Acta Electronica Sinica,2007,35(10):1892-1896.(in Chinese)

        [5]晏 哲.基于稀疏性的人臉檢測(cè)與識(shí)別方法研究[D].西安:西安電子科技大學(xué)電子工程學(xué)院,2010.

        [6]黃 影.基于正交匹配跟蹤以及K-SVD的圖像融合技術(shù)[D].北京:華北電力大學(xué)電氣與電子工程學(xué)院,2009.

        [7]浦 劍,張軍平.基于詞典學(xué)習(xí)和稀疏表示的超分辨率方法[J].模式識(shí)別與人工智能,2010,23(3):335-340.Pu Jian,Zhang Junping.Super-resolution through dictionary learning and sparse representation[J].Pattern Recognition and Artificial Intelligence,2010,23(3):335-340.(in Chinese)

        [8]蔡澤民,賴劍煌.一種基于超完備字典學(xué)習(xí)的圖像去噪方法[J].電子學(xué)報(bào),2009,37(2):347 -350.Cai Zemin,Lai Jianhuang.An over-complete learned dictionary-based image denoising method[J].Acta Electronica Sinica,2009,37(2):347-350.(in Chinese)

        [9]Yang A Y,Wright J,Ma Y,et al.Feature selection in face recognition:a sparse representation perspective[R].UC Berkeley Technical Report UCB/EECS-2007-99,2007.

        [10]Rubinstein R,Zibulevsky M,Elad M.Efficient implementation of the K-SVD algorithm using batch orthogonal matching pursuit[R].CS Technical Report,Technion,Israel Institute of Technology,2008.

        [11]Pati Y C,Rezaiifar R,Krishnaprasad P S.Orthogonal matching pursuit:recursive function approximation with applications to wavelet decomposition[C]∥Proceedings of the 27th Asilomar Conference on Signals,Systems &Computers.CA:IEEE,1993:40 -44.

        猜你喜歡
        特征信號(hào)情感
        信號(hào)
        鴨綠江(2021年35期)2021-04-19 12:24:18
        如何在情感中自我成長(zhǎng),保持獨(dú)立
        完形填空二則
        失落的情感
        北極光(2019年12期)2020-01-18 06:22:10
        如何表達(dá)“特征”
        情感
        不忠誠(chéng)的四個(gè)特征
        如何在情感中自我成長(zhǎng),保持獨(dú)立
        基于FPGA的多功能信號(hào)發(fā)生器的設(shè)計(jì)
        電子制作(2018年11期)2018-08-04 03:25:42
        抓住特征巧觀察
        亚洲性码不卡视频在线| 天堂影院一区二区三区四区| 黄色资源在线观看| 亚洲中文字幕无线乱码va | 国产欧美日韩图片一区二区| 亚洲av区一区二区三区| 亚洲乱码无人区卡1卡2卡3| 亚洲av永久无码精品一区二区| 久久精品—区二区三区无码伊人色 | 波多野结衣的av一区二区三区| 亚洲女人被黑人巨大进入| 亚洲精品美女久久久久99| 午夜免费观看日韩一级片| 国产动作大片中文字幕| 暖暖免费 高清 日本社区在线观看| 国产精品国产三级国产三不| 久久综合精品国产丝袜长腿| 99久久婷婷国产综合精品青草免费| 熟妇人妻AV中文字幕老熟妇| 亚洲福利av一区二区| 国产精品专区第一页天堂2019| 久久久精品国产sm调教网站| 国产又色又爽又刺激视频| 国产一区二区三区在线观看蜜桃| 一区二区和激情视频| 嗯啊哦快使劲呻吟高潮视频| 丰满熟妇人妻av无码区 | 亚洲综合中文一区二区| 免费观看mv大片高清| 牛鞭伸入女人下身的真视频| 亚洲第一免费播放区| 中文字幕av熟女中文av| 性无码免费一区二区三区在线| 大陆一级毛片免费播放| 女同另类一区二区三区| 99久久精品免费看国产| 国产一区二区三区av在线无码观看| 亚洲中文字幕精品一区二区| 国产色婷婷久久又粗又爽| 成人免费看片又大又黄| 国内精品一区二区2021在线|