亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于PCANet和SVM的謊言測(cè)試研究

        2016-11-17 06:01:56顧凌云呂文志高軍峰官金安
        電子學(xué)報(bào) 2016年8期
        關(guān)鍵詞:特征提取分類(lèi)特征

        顧凌云,呂文志,楊 勇,高軍峰,5,官金安,周 到

        (1.中南民族大學(xué)生物醫(yī)學(xué)工程學(xué)院認(rèn)知科學(xué)國(guó)家民委重點(diǎn)實(shí)驗(yàn)室,湖北武漢 430074;2.醫(yī)學(xué)信息分析及腫瘤診療湖北省重點(diǎn)實(shí)驗(yàn)室,湖北武漢 430074;3.華中科技大學(xué)武漢光電國(guó)家實(shí)驗(yàn)室,湖北武漢 430074;4.江西財(cái)經(jīng)大學(xué)信息管理學(xué)院,江西南昌 330000;5.電子科技大學(xué)生命科學(xué)與技術(shù)學(xué)院,四川成都 610054)

        ?

        基于PCANet和SVM的謊言測(cè)試研究

        顧凌云1,2,呂文志3,楊 勇4,高軍峰1,2,5,官金安1,2,周 到1,2

        (1.中南民族大學(xué)生物醫(yī)學(xué)工程學(xué)院認(rèn)知科學(xué)國(guó)家民委重點(diǎn)實(shí)驗(yàn)室,湖北武漢 430074;2.醫(yī)學(xué)信息分析及腫瘤診療湖北省重點(diǎn)實(shí)驗(yàn)室,湖北武漢 430074;3.華中科技大學(xué)武漢光電國(guó)家實(shí)驗(yàn)室,湖北武漢 430074;4.江西財(cái)經(jīng)大學(xué)信息管理學(xué)院,江西南昌 330000;5.電子科技大學(xué)生命科學(xué)與技術(shù)學(xué)院,四川成都 610054)

        主成分分析網(wǎng)絡(luò)(Principal Component Analysis Network,PCANet)是基于深度學(xué)習(xí)理論的一種非監(jiān)督式的特征提取方法,它克服了手工提取特征的缺點(diǎn),目前其有效性?xún)H僅在圖像處理領(lǐng)域中得到了驗(yàn)證.本文針對(duì)當(dāng)前謊言測(cè)試方法中腦電信號(hào)特征提取困難的缺點(diǎn),首次將PCANet方法應(yīng)用到一維信號(hào)的特征提取領(lǐng)域,并對(duì)測(cè)謊實(shí)驗(yàn)的原始腦電信號(hào)提取特征,然后使用支持向量機(jī)(Support Vector Machine,SVM)將說(shuō)謊者和誠(chéng)實(shí)者的兩類(lèi)信號(hào)進(jìn)行分類(lèi)識(shí)別,將實(shí)驗(yàn)結(jié)果和其它分類(lèi)器及未使用特征提取的分類(lèi)效果進(jìn)行了比較.實(shí)驗(yàn)結(jié)果顯示相對(duì)未抽取任何特征的方法,提出的方法PCANet-SVM可以獲得更高的訓(xùn)練和測(cè)試準(zhǔn)確率,表明了PCANet方法對(duì)于腦電信號(hào)特征提取的有效性,也為基于腦電信號(hào)的測(cè)謊提供了一種新的途徑.

        主成分分析網(wǎng)絡(luò);腦電;測(cè)謊;深度學(xué)習(xí);支持向量機(jī)

        電子學(xué)報(bào)URL:http://www.ejournal.org.cn DOI:10.3969/j.issn.0372-2112.2016.08.028

        1 引言

        近年來(lái),基于生理心理學(xué)的測(cè)謊技術(shù)日趨成熟.腦電信號(hào)事件相關(guān)電位P300成分是對(duì)小概率新異刺激的響應(yīng)[1].利用腦電信號(hào)進(jìn)行的謊言測(cè)試(簡(jiǎn)稱(chēng)測(cè)謊),相對(duì)其它生理指標(biāo)(如心電和皮膚電阻等)更能反映說(shuō)謊過(guò)程的心理加工過(guò)程.很多研究人員發(fā)現(xiàn),基于P300的測(cè)謊方法能有效地規(guī)避反測(cè)謊的影響,具有更高的準(zhǔn)確性[2,3].

        2006年Hinton等提出一種非監(jiān)督式特征提取的方法[4],其以非人工手段進(jìn)行特征提取而著稱(chēng).該方法通過(guò)非限制玻爾茲曼機(jī)對(duì)數(shù)據(jù)進(jìn)行降維,且其重構(gòu)誤差比主成分分析(Principal Components Analysis,PCA)小.相關(guān)領(lǐng)域的研究者也提出了一些其它典型的非監(jiān)督學(xué)習(xí)網(wǎng)絡(luò)[5],這類(lèi)方法已經(jīng)被應(yīng)用到圖像處理和語(yǔ)音分析領(lǐng)域.研究表明,可以通過(guò)非監(jiān)督特征學(xué)習(xí)的方法自動(dòng)提取樣本數(shù)據(jù)深層次的特征表達(dá)[6].

        2014年ChanTsung-Han等提出一種新的深度特征提取網(wǎng)絡(luò)—主成分分析網(wǎng)絡(luò)[7](Principal Components Analysis Network,PCANet).該網(wǎng)絡(luò)由主成分分析、哈希運(yùn)算及局部直方圖生成三個(gè)基本操作構(gòu)成.該方法已經(jīng)在許多圖像分類(lèi)任務(wù)中表現(xiàn)出優(yōu)異的性能[7~9],成為圖像識(shí)別領(lǐng)域的一個(gè)研究熱點(diǎn),并由此產(chǎn)生一些新的優(yōu)化算法,如Zeng Rui等根據(jù)PCANet演變出的多重主成分分析網(wǎng)絡(luò)[8](Multilinear Principal Component Analysis Network,MPCANet)、多重線(xiàn)性主成分分析網(wǎng)絡(luò)[9](Multilinear Discriminant Analysis Network,MLDANet)等.截止目前,上述這些方法的有效性?xún)H僅在圖像處理領(lǐng)域得到了驗(yàn)證.針對(duì)一維信號(hào),PCANet方法是否也能夠自動(dòng)提取樣本數(shù)據(jù)的深層次特征表達(dá)?其效果究竟如何?這些問(wèn)題的研究都還未見(jiàn)任何報(bào)道.

        腦電信號(hào)分析的一個(gè)重要方面就是對(duì)腦電信號(hào)進(jìn)行特征提取.在測(cè)謊研究方面,腦電信號(hào)的提取主要包括時(shí)域特征(比如P300信號(hào)的幅值及潛伏期等)、頻域特征、時(shí)頻域特征[10]及其它非線(xiàn)性信號(hào)特征提取.這些都是根據(jù)先驗(yàn)經(jīng)驗(yàn)構(gòu)造的“手工”特征(hand-crafted features),具有一定程度的主觀(guān)性和不確定性,如果能使用前述的深度學(xué)習(xí)理論對(duì)腦電信號(hào)進(jìn)行處理,自動(dòng)抽象提取信號(hào)的高層次特征,則為腦電信號(hào)的分析提供了一種新的途徑.

        Gao Wei等于2015年使用非監(jiān)督學(xué)習(xí)網(wǎng)絡(luò)對(duì)8導(dǎo)的腦電信號(hào)進(jìn)行特征提取分析[11],得出相對(duì)單通道時(shí)域特征提取法,深度學(xué)習(xí)的自主特征提取方式有更優(yōu)的特征表示,表明非監(jiān)督學(xué)習(xí)網(wǎng)絡(luò)可以應(yīng)用于腦電信號(hào)的分析.

        本文采集了30個(gè)說(shuō)謊者和誠(chéng)實(shí)者的8個(gè)導(dǎo)聯(lián)的EEG信號(hào),將兩類(lèi)受試者在這些電極上的探針刺激響應(yīng)信號(hào)作為P300和非P300信號(hào)的數(shù)據(jù)集,作為原始的待分析信號(hào),使用深度特征提取網(wǎng)絡(luò)——PCANet,自動(dòng)提取原始腦電信號(hào)的高層次特征表達(dá),最后利用三類(lèi)典型的分類(lèi)器:反向傳播神經(jīng)網(wǎng)絡(luò)(Back-propagation Network,BPNN)、支持向量機(jī)(Support Vector Machine,SVM)及線(xiàn)性分類(lèi)器(Fisher Discrimination Analysis,FDA),對(duì)提取的兩類(lèi)特征向量進(jìn)行分類(lèi),得到訓(xùn)練準(zhǔn)確率及測(cè)試準(zhǔn)確率結(jié)果,并與不使用PCANet時(shí)的分類(lèi)結(jié)果進(jìn)行比較.

        2 PCANet的理論基礎(chǔ)與算法

        PCANet的特征提取過(guò)程分為以下3個(gè)步驟:

        步驟1 輸入層處理

        對(duì)于第i個(gè)樣本Ti,以k1×k2大小的片段滑動(dòng)截取得到mn個(gè)片段,即xi,1,xi,2,…,xi,mn∈k1k2,其中xi,j表示第i個(gè)樣本Ti的第j個(gè)片段向量化后的向量.對(duì)xi,j進(jìn)行去均值處理,得到:

        (1)

        作為第i個(gè)原始樣本預(yù)處理后的結(jié)果.對(duì)所有樣本進(jìn)行相同處理后,得到:

        (2)

        步驟2 中間層處理

        設(shè)兩階段PCA的濾波參數(shù)分別為L(zhǎng)1、L2(PCA算法中對(duì)特征值排序,靠前特征向量的個(gè)數(shù)取值).

        第一階段PCA操作:使用PCA算法對(duì)樣本集X進(jìn)行計(jì)算,PCA最小化重構(gòu)誤差的過(guò)程表達(dá)為:

        (3)

        其中IL1為L(zhǎng)1×L1的單位矩陣.PCA算法表達(dá)如下:

        (4)

        其中matk1k2(v)表示將向量v∈k1k2投影為矩陣W∈k1×k2的函數(shù),ql(XXT)表示計(jì)算XXT的第l個(gè)主成分特征向量.通過(guò)訓(xùn)練,將樣本變換到新的空間:

        (5)

        第二階段PCA計(jì)算:類(lèi)似式(1)及式(2)的操作,對(duì)于第一階段提取的L1個(gè)特征,可得到:

        Z=[Z1,Z2,…,ZL1]∈k1k2×L1Nmn

        (6)

        步驟3 輸出層處理

        為了使樣本的特征表達(dá)性更強(qiáng),使用赫維賽德階躍函數(shù)o(x)對(duì)特征值進(jìn)行二值化,對(duì)原始樣本Ti,二值化并進(jìn)行加權(quán)處理后得到:

        (7)

        (8)

        其中,Bh表示分塊及直方圖統(tǒng)計(jì),fi表示采用PCANet提取第i個(gè)原始樣本Ti的最終特征向量.

        3 實(shí)驗(yàn)過(guò)程與數(shù)據(jù)處理

        3.1 測(cè)謊協(xié)議

        實(shí)驗(yàn)挑選了30個(gè)身體健康的本科生(平均年齡21.3歲)作為受試者,隨機(jī)分為無(wú)辜和說(shuō)謊兩組.采用標(biāo)準(zhǔn)的三刺激測(cè)謊協(xié)議[2].實(shí)驗(yàn)前準(zhǔn)備六個(gè)物品(人造仿真珠寶)及其相對(duì)應(yīng)的圖片.針對(duì)說(shuō)謊者,在事先準(zhǔn)備好的保險(xiǎn)箱中放入任意兩個(gè)物品,并要求受試者看清兩個(gè)物品后,拿走其中的一個(gè)物品.被受試者拿走的物品作為探針刺激(Probe,P),箱子中剩下的物品作為靶刺激(Target,T),其余的物品作為無(wú)關(guān)刺激(Irrelevant,I);針對(duì)無(wú)辜者,保險(xiǎn)箱中放入任意一個(gè)物品,要求受試者看清物品即可,該物品作為T(mén)刺激,任選其它一個(gè)物品作為P刺激,剩下4個(gè)全部作為I刺激.

        屏幕上隨機(jī)顯示6張物品的圖片,受試者需要對(duì)圖片做出鼠標(biāo)的回應(yīng)他/她是否見(jiàn)過(guò)該物品.受試者手中握有手柄,帶有Yes及No兩個(gè)按鍵.要求說(shuō)謊者看見(jiàn)P刺激的時(shí)候做出欺騙行為,即回答沒(méi)有看過(guò)(按No鍵),出現(xiàn)其余兩類(lèi)刺激的時(shí)候要求說(shuō)真話(huà)(T刺激按Yes鍵,I刺激按No鍵),無(wú)辜組全說(shuō)真話(huà).

        3.2 數(shù)據(jù)預(yù)處理

        受試者的腦部電極安放在如下的位置:Fz,C3,Cz,C4,P3,Pz,P4,Oz,垂直眼電電極放在左眼上下2cm處,水平眼電電極放在外眼角處,前額接地,以右耳電極為參考電極M1.采用Neuroscan公司的Synamps作為放大器,通帶頻帶為0.3~30Hz,采樣頻率500Hz,各導(dǎo)聯(lián)阻抗均小于3kΩ.E-Prime2.0作為刺激軟件.實(shí)驗(yàn)時(shí)每張圖片隨機(jī)出現(xiàn)50次,持續(xù)1秒,一次實(shí)驗(yàn)的時(shí)間為6分鐘.每次實(shí)驗(yàn)中,P刺激、I刺激和T刺激出現(xiàn)的頻率依次為16.7%、66.7%和16.7%.休息5分鐘后,再次重復(fù)上述實(shí)驗(yàn),每名受試者共做上述實(shí)驗(yàn)5次.最后,使用Scan4.0自帶的工具濾除腦電波形的垂直(±70μV作為去除標(biāo)準(zhǔn))和水平眼電偽差.

        使用EEGLab工具箱[12]對(duì)連續(xù)的EEG波形進(jìn)行分割,將受試者在P刺激后1000ms分割為一個(gè)P響應(yīng)數(shù)據(jù)集(epoched dataset),該數(shù)據(jù)集保存為8×500的矩陣.

        原始的腦電信號(hào)信噪比極低,為了去除相對(duì)于P300信號(hào)的自發(fā)腦電等噪聲,使用少次平均技術(shù)去除噪聲.圖1中顯示了任取的一名說(shuō)謊者和一名無(wú)辜者在Pz電極上的3次、6次及25次的腦電信號(hào)的平均波形.可以看出相對(duì)原始波形,平均次數(shù)越多,說(shuō)謊者的P300越明顯.因此,平均次數(shù)對(duì)分類(lèi)結(jié)果的影響在本文中也進(jìn)行了分析.

        當(dāng)平均3次時(shí),兩類(lèi)受試者分別得到約750(15*30*5/3)個(gè)數(shù)據(jù)集.將它們送入到PCANet特征提取模塊進(jìn)行計(jì)算.當(dāng)不進(jìn)行PCANet計(jì)算而直接進(jìn)行分類(lèi)時(shí),需要將8×500的樣本向量化為4000×1的樣本.

        在計(jì)算過(guò)程中,使用兩個(gè)階段的PCANet算法的計(jì)算結(jié)果作為原始樣本的提取特征,兩個(gè)階段的濾波參數(shù)分別定義為L(zhǎng)1和L2,對(duì)兩階段計(jì)算過(guò)程中的分片大小都定義為k1×k2.另外,平均次數(shù)不同也會(huì)導(dǎo)致輸入PCANet的樣本不同,由于以上參數(shù)有可能對(duì)最終的分類(lèi)準(zhǔn)確率有影響,采用網(wǎng)格搜索的方式進(jìn)行尋優(yōu)[8,13]:令L1=L2,k1=k2,并令L值從5到20依次變化,k1及k2依次從3到20變化,令C從3到8依次變化.

        4 數(shù)據(jù)分類(lèi)

        通過(guò)以上特征提取,每類(lèi)受試者的數(shù)據(jù)集變換為高層次的特征向量,類(lèi)別標(biāo)識(shí)分別為1和-1,將它們送到3個(gè)典型的分類(lèi)器FDA、BPNN及SVM中,進(jìn)行分類(lèi).為了驗(yàn)證PCANet對(duì)腦電信號(hào)進(jìn)行特征學(xué)習(xí)的效果,將原始的腦電信號(hào)直接送到3個(gè)分類(lèi)器中進(jìn)行訓(xùn)練和測(cè)試的效果也進(jìn)行了分析.提出的方法PCANet-SVM的特征提取及分類(lèi)器訓(xùn)練過(guò)程如圖2所示.

        表1 六種分類(lèi)模型的分類(lèi)表現(xiàn)

        分類(lèi)器的訓(xùn)練和測(cè)試步驟如下:在不同的參數(shù)組合下,形成不同的樣本數(shù)據(jù),對(duì)每個(gè)分類(lèi)器的訓(xùn)練過(guò)程使用10折交叉驗(yàn)證方法.計(jì)算在特定的參數(shù)組合下,分類(lèi)器的訓(xùn)練及測(cè)試敏感度(說(shuō)謊者的P300被正確劃分的準(zhǔn)確率)和特異度(無(wú)辜者的非P300被正確劃分的準(zhǔn)確率),然后分別計(jì)算10個(gè)準(zhǔn)確率的均值及對(duì)應(yīng)的標(biāo)準(zhǔn)差(Standard Deviation,SD),訓(xùn)練的敏感度及特異度準(zhǔn)確率分別記為T(mén)Rsen±SD和TRspe±SD.同理得到測(cè)試準(zhǔn)確率,按照敏感度和特異度記為:TEsen±SD和TEspe±SD,及平衡的測(cè)試準(zhǔn)確率BATest=(TEsen+TEspe)/2.

        訓(xùn)練過(guò)程中,BPNN使用sigmoid激活函數(shù)(g(x)=1/(1+e-x)),隱層節(jié)點(diǎn)數(shù)變化范圍設(shè)置為8到40,學(xué)習(xí)率變化范圍為0.01到0.05,控制精度變化范圍為0.001到0.005.在SVM分類(lèi)器中,使用線(xiàn)性核函數(shù),所有分類(lèi)器參數(shù)使用LibSVM工具包進(jìn)行優(yōu)化選擇.

        5 實(shí)驗(yàn)結(jié)果

        本文實(shí)驗(yàn)結(jié)果均在Matlab2010b環(huán)境下運(yùn)行得到.使用圖2中訓(xùn)練方法,將各個(gè)分類(lèi)器的最高的BATest取值時(shí)的最佳參數(shù)及對(duì)應(yīng)的分類(lèi)表現(xiàn)顯示在表1中.

        從表1中可以看出:(1)SVM分類(lèi)器的訓(xùn)練和測(cè)試準(zhǔn)確率均要顯著高于BPNN和線(xiàn)性分類(lèi)器FDA,這與目前大多數(shù)三類(lèi)分類(lèi)器的比較結(jié)果一致;(2)結(jié)合使用了PCANet的分類(lèi)模型相對(duì)沒(méi)有使用該方法的模型,準(zhǔn)確率均有所提高,比如PCANet-BPNN相對(duì)BPNN分類(lèi)模型,訓(xùn)練和測(cè)試準(zhǔn)確率均有所提高(平均訓(xùn)練準(zhǔn)確率和平均測(cè)試準(zhǔn)確率分別提高了2.42%和1.97%);(3)最重要的是,在所有六個(gè)分類(lèi)模型中,提出的方法PCANet-SVM的訓(xùn)練和測(cè)試準(zhǔn)確率的表現(xiàn)最好,平均訓(xùn)練準(zhǔn)確率為98.82%,平均測(cè)試準(zhǔn)確率為95.09%.

        計(jì)算結(jié)果表明提出的方法PCANet-SVM具有最好的分類(lèi)效果,相對(duì)未提取任何特征的分類(lèi)模型SVM,分類(lèi)準(zhǔn)確率得到了較大幅度的增加,表明了PCANet算法對(duì)原始腦電信號(hào)特征提取的有效性.

        6 結(jié)束語(yǔ)

        當(dāng)前的基于EEG信號(hào)的測(cè)謊研究中,對(duì)EEG信號(hào)進(jìn)行特征提取都是“手工”方式,基于時(shí)頻域的特征全部來(lái)自于對(duì)腦電信號(hào)的先驗(yàn)經(jīng)驗(yàn).深度學(xué)習(xí)理論對(duì)傳統(tǒng)的特征提取方式提出了挑戰(zhàn),它基于神經(jīng)網(wǎng)絡(luò)技術(shù),在無(wú)監(jiān)督的情況下,對(duì)輸入樣本進(jìn)行特征的自我學(xué)習(xí),得到樣本的高層次抽象.

        PCANet基于深度學(xué)習(xí)理論,可以對(duì)輸入樣本進(jìn)行特征的自我學(xué)習(xí).本文首次嘗試將這一方法用于一維信號(hào)的特征提取領(lǐng)域.截止目前,PCANet方法僅僅在圖像處理領(lǐng)域得到了應(yīng)用.通過(guò)對(duì)比測(cè)謊研究中的多導(dǎo)的EEG信號(hào),本文使用PCANet對(duì)原始的腦電信號(hào)進(jìn)行了特征提取,實(shí)驗(yàn)結(jié)果表明,除了在圖像處理領(lǐng)域,PCANet方法完全可以應(yīng)用到一維信號(hào)的特征提取中,該方法可以有效的將原始的腦電信號(hào)做高層次的特征表達(dá).雖然本文將PCANet應(yīng)用在基于ERP的腦電測(cè)謊中,但是提出的方法可以推廣應(yīng)用到其它基于腦電信號(hào)的模式識(shí)別相關(guān)領(lǐng)域.實(shí)際上,它也為其它一維信號(hào)的特征提取提供了一種新的途徑.

        值得指出的是,通過(guò)測(cè)試發(fā)現(xiàn),隨著平均次數(shù)的依次增大,表1中的各個(gè)分類(lèi)模型的表現(xiàn)并沒(méi)有顯著提升(當(dāng)平均次數(shù)C=3時(shí),幾乎達(dá)到了最高的表現(xiàn)).我們猜測(cè),這與PCANet的使用有關(guān).基于實(shí)驗(yàn)結(jié)果,在實(shí)際測(cè)試過(guò)程中,可以?xún)H僅對(duì)被試人員使用大約3次刺激,即可進(jìn)行測(cè)試,所以相對(duì)于當(dāng)前的BCD和BAD[14]等方法,提出的方法屬于少次刺激的測(cè)謊方法[15],因此使得測(cè)謊過(guò)程更加簡(jiǎn)便,也大大降低了被測(cè)人員的疲勞程度,也可以有效地降低反測(cè)謊行為的發(fā)生,也因此可以提高測(cè)謊的準(zhǔn)確率.

        在PCANet的計(jì)算過(guò)程中,對(duì)于各種參數(shù)的優(yōu)化取值,由于計(jì)算量等原因,本文處理相對(duì)簡(jiǎn)單.未來(lái),還需要研究其它不同的參數(shù)取值對(duì)特征提取效果及分類(lèi)表現(xiàn)的影響.

        [1]BARRY R J,DE BALSIO F M.EEG-ERP phase dynamics children in the auditory Go/NoGo task[J].International Journal of Psychophysiology,2012,86(3):251-261.

        [2]GAO J F,TIAN H J,YANG Y,et al.A novel algorithm to enhance P300 in single trials:application to lie detection using F-score and SVM[J].Plos One,2014,9(11):1-15.

        [3]LABKOVSKY E,PETER ROSENFELD J.A novel dual probe complex trial protocol for detection of concealed information[J].Psychophysiology,2014,1(11):1122-1130.

        [4]HINTON G E,SALAKHUTDINOVR R.Reducing the dimensionality of data with neural networks[J].Science,2006,313(5786):504-507.

        [5]VINCENT P,LAROCHELLE H,BENGIO Y.Extracting and composing robust features with denoising auto-encoders[J].ICML,2008,25(592):1096-1103.

        [6]YU D,HINTON G,MORGAN N,et al.Introduction to the special section on deep learning for speech and language processing[J].Audio Speech & Language Processing IEEE Transactions on,2012,20(1):4-6.

        [7]CHAN T H,JIA K,GAO S,et al.PCANet:A simple deep learning baseline for image classification?[J].IEEE Transactions on Image Processing,2015,24(12):5017-5032.

        [8]ZENG R,WU J,SHAO Z,et al.Multilinear principal component analysis network for tensor object classification[J].ArXiv Preprint ArXiv:1411.1171,2014.

        [9]ZENG R,WU J,et al.Tensor object classification via multilinear discriminant analysis network[A].ICASSP,2015[C].South Brisbane,QLD:IEEE,2015.1971-1975.

        [10]龐存鎖,劉磊,單濤.基于短時(shí)分?jǐn)?shù)階傅里葉變換的時(shí)頻分析方法[J].電子學(xué)報(bào),2014,(2):347-352.

        PANG Cun-suo,LIU Lei,DAN Tao.Time frequency analysis is method based on short-time fractional fourier transform[J].Acta Electronica Sinica,2014,(2):347-352.(in Chinese)

        [11]GAO W,GUAN J A,Gao J F.Multi-ganglion ANN based feature learning with application to P300-BCI signal classification[J].Biomedical Signal Processing and Control,2015,18:127-137.

        [12]DELORMEA,MAKEIG S.EEGLAB:an open source toolbox for analysis of single-trial EEG dynamics including independent component analysis[J].Journal of Neuroscience Methods,2004,134(1):9-21.

        [13]LIU C,WECHSLER H.Gabor feature based classification using the enhanced fisher linear discriminant model for face recognition[J].Image Processing,2002,11(4):467-476.

        [14]Rosenfeld J P,Hu X,Pederson K.Deception awareness improves P300-based deception detection in concealed information tests[J].International Journal of Psychophysiology,2012,86(1):114-121.

        [15]高軍峰,張文佳,楊勇,胡佳,陶春毅,官金安.基于P300和極限學(xué)習(xí)機(jī)的腦電測(cè)謊研究[J].電子科技大學(xué)學(xué)報(bào),2014,43(2):301-305.GAO Jun-Feng,ZHANG Wen-Jia,YANG Yong et al.Lie detection study based on P300 and extreme learning machine[J].Journal of University of Electronic Science & Technology of China,2014,43(2):301-305.(in Chinese)

        顧凌云 女,1991年3月出生,江蘇常州人.于2014年就讀中南民族大學(xué)生物醫(yī)學(xué)工程系碩士研究生,從事腦電信號(hào)處理與模式識(shí)別方面的研究.

        E-mail:gulingyun-lea@126.com

        呂文志 男,1994年2月出生,湖北監(jiān)利人.于2012年就讀于中南民族大學(xué)生物醫(yī)學(xué)工程學(xué)院.現(xiàn)為華中科技大學(xué)國(guó)家光電實(shí)驗(yàn)室研究生.從事生理信號(hào)分析及圖像處理方面的有關(guān)研究.

        E-mail:lvwenzhi@mail.scuec.edu.cn

        楊 勇 男,1976年10月出生,湖北鄂州人.2005年博士畢業(yè)于西安交通大學(xué)生物醫(yī)學(xué)工程專(zhuān)業(yè),現(xiàn)為江西財(cái)經(jīng)大學(xué)信息管理學(xué)院教授.主要研究方向?yàn)獒t(yī)學(xué)圖像/信號(hào)處理、模式識(shí)別.

        E-mail:greatyangy@126.com

        高軍峰(通訊作者) 男,1973年10月出生,湖北武漢人.副教授,碩士生導(dǎo)師,2005年和2011年分別在武漢理工大學(xué)和西安交通大學(xué)獲得工學(xué)碩士和工學(xué)博士學(xué)位.現(xiàn)為中南民族大學(xué)教師,主要從事生物醫(yī)學(xué)信號(hào)處理、神經(jīng)網(wǎng)絡(luò)和機(jī)器學(xué)習(xí)等方面的研究工作.

        E-mail:junfengmst@163.com

        Deception Detection Study Based on PCANet and Support Vector Machine

        GU Ling-yun1,2,Lü Wen-zhi3,YANG Yong4,GAO Jun-feng1,2,5,GUAN Jin-an1,2,ZHOU Dao1,2

        (1.SchoolofBiomedicalEngineering,South-CentralUniversityforNationalities,KeyLaboratoryofCognitiveScience,StateEthnicAffairsCommission,Wuhan,Hubei430074,China;2.HubeiKeyLaboratoryofMedicalInformationAnalysis&TumorDiagnosisandTreatment,Wuhan,Hubei430074,China;3.WuhanNationalLaboratoryforOptoelectronics,HuaZhongUniversityofScienceandTechnology,Wuhan,Hubei430074,China;4.SchoolofInformationTechnology,JiangxiUniversityofFinanceandEconomics,Nanchang,Jiangxi330000,China;5.SchoolofLifeScienceandTechnology,UniversityofElectronicScienceandTechnology,Chengdu,Sichuan610054,China)

        Principal Components Analysis Network (PCANet) is a feature extraction method based on deep learning theory and unsupervised learning modes,which overcomes the shortcoming of hand-crafted features and its efficiency has been only proved in several literatures for picture processing.In this paper,PCANet is applied to process the one dimensional signals for the first time in order to overcome the disadvantages of hand-crafted features from EEG signals in deception detection.PCANet is used to extract features from raw EEG signals in the deception detection experiment.The feature vectors were fed into three classifiers including Support Vector Machine (SVM) to classify the guilty and innocent subjects.The experimental result was compared with the results from other classifiers and the mode of using raw EEG signals as features.The experimental results show that the proposed method PCANet-SVM obtains the highest training and testing accuracy,which indicates the efficiency of extracting features from EEG signals and provides a new solution of detecting lying.

        principal components analysis network (PCANet);EEG;deception detection;deep learning;support vector machine

        2015-05-01;

        2015-07-17;責(zé)任編輯:梅志強(qiáng)

        國(guó)家自然科學(xué)基金(No.81271659,No.61262034,No.61462031,No.91120017);江西省自然科學(xué)基金(No.20151BAB207033);中國(guó)博士后科學(xué)基金(No.2014M552346)

        R318

        A

        0372-2112 (2016)08-1969-05

        猜你喜歡
        特征提取分類(lèi)特征
        分類(lèi)算一算
        如何表達(dá)“特征”
        基于Gazebo仿真環(huán)境的ORB特征提取與比對(duì)的研究
        電子制作(2019年15期)2019-08-27 01:12:00
        不忠誠(chéng)的四個(gè)特征
        分類(lèi)討論求坐標(biāo)
        數(shù)據(jù)分析中的分類(lèi)討論
        教你一招:數(shù)的分類(lèi)
        抓住特征巧觀(guān)察
        一種基于LBP 特征提取和稀疏表示的肝病識(shí)別算法
        基于MED和循環(huán)域解調(diào)的多故障特征提取
        成人国产高清av一区二区三区| 欧美黑人又粗又大久久久| 国产无遮挡又黄又爽在线视频| 天天躁日日躁狠狠躁人妻| 国产精品亚洲欧美天海翼| 亚洲精品中文字幕乱码二区| 国产精品午夜高潮呻吟久久av| 亚洲av乱码一区二区三区人人| 成人免费a级毛片无码片2022| 中出人妻中文字幕无码| 丰满少妇愉情中文字幕18禁片| 亚洲欧美日韩在线中文一| 在线视频一区二区三区中文字幕| 国产av久久在线观看| 97精品国产一区二区三区| 亚洲人成绝费网站色www| 国产成人精品免费久久久久| 青青草免费在线视频导航| 亚洲不卡免费观看av一区二区| 色欲av永久无码精品无码蜜桃| 欧美野外疯狂做受xxxx高潮| 国产欧美日韩综合在线一区二区| 精品少妇后入一区二区三区| 亚洲综合日韩一二三区| 亚洲精品午夜无码专区| 婷婷丁香91| 偷拍自拍一区二区三区| 国产精品国产三级国产av18| 蜜臀av色欲a片无码精品一区| 国产99视频精品免视看9| 免费看国产精品久久久久| 日本人妻高清免费v片| 亚洲av天堂在线视频| 人人妻人人爽人人澡欧美一区| 国产午夜精品电影久久| 日本人妻系列一区二区| 蜜臀久久99精品久久久久久| 亚洲综合精品成人| 亚州五十路伊人网| 中文字幕国产亚洲一区| 精品乱码一区内射人妻无码|