亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于共同空間模式的情感腦電信號(hào)的空域特征提取

        2020-08-27 06:13:00閆夢(mèng)夢(mèng)孫文慧
        圖學(xué)學(xué)報(bào) 2020年3期
        關(guān)鍵詞:分類情感實(shí)驗(yàn)

        閆夢(mèng)夢(mèng),呂 釗,2,孫文慧

        基于共同空間模式的情感腦電信號(hào)的空域特征提取

        閆夢(mèng)夢(mèng)1,呂 釗1,2,孫文慧1

        (1. 安徽大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,安徽 合肥 230601;2. 杭州電子科技大學(xué)腦機(jī)協(xié)同智能技術(shù)浙江省重點(diǎn)實(shí)驗(yàn)室,浙江 杭州 310018)

        為了改善基于腦電(EEG)的情感分類性能,提高多分類情況下的識(shí)別準(zhǔn)確率,提出了一種基于共同空間模式(CSP)的空域?yàn)V波算法。首先使用傳統(tǒng)的CSP方法設(shè)計(jì)空域?yàn)V波器,并通過(guò)該濾波器對(duì)3種情感類型(即積極、中性和消極)的EEG信號(hào)進(jìn)行線性投影,以提取空域特征。此外,考慮到傳統(tǒng)近似聯(lián)合對(duì)角化(JAD)算法是使用“得分最高的特征值”準(zhǔn)則進(jìn)行特征向量的選擇,該情況可能導(dǎo)致無(wú)法有效區(qū)分多分類的情感狀態(tài),因此針對(duì)最高分特征值位置存在的所有可能情況設(shè)計(jì)了不同的特征值選擇方法。對(duì)實(shí)驗(yàn)室自主采集數(shù)據(jù)集,使用支持向量模型(SVM)作為分類器進(jìn)行對(duì)比實(shí)驗(yàn)。結(jié)果表明基于CSP的空域特征提取方法在三分類情感識(shí)別中平均準(zhǔn)確率達(dá)到了87.54%,證明其在情感識(shí)別應(yīng)用中具有可行性。

        情感腦-機(jī)交互;共同空間模式;近似聯(lián)合對(duì)角化;空域?yàn)V波;情感識(shí)別

        腦-機(jī)接口(brain-computer interface,BCI)是一種由神經(jīng)活動(dòng)直接驅(qū)動(dòng)的特殊人機(jī)交互技術(shù)[1-2]。通過(guò)非侵入性BCI系統(tǒng)測(cè)量大腦活動(dòng),并將其直接轉(zhuǎn)換為操作外部設(shè)備的控制命令,以實(shí)現(xiàn)用戶與計(jì)算機(jī)之間的信息交互。然而,由于情緒感知能力較弱,很多系統(tǒng)都無(wú)法根據(jù)用戶的心理狀態(tài)來(lái)調(diào)整交互模式,這極大地限制了BCI系統(tǒng)的功能和應(yīng)用[3]。幸運(yùn)的是,情感識(shí)別技術(shù)在用戶和計(jì)算機(jī)之間建立了情緒感知的橋梁,可以提供一種類似于人們之間交流的自然互動(dòng)方式。此外,有研究[4]表明,在康復(fù)醫(yī)療護(hù)理領(lǐng)域,積極情感可以促進(jìn)患者身體功能的恢復(fù),而負(fù)面情感往往會(huì)導(dǎo)致情緒低落,長(zhǎng)期處于這種狀態(tài)將不利于患者身體功能的恢復(fù)。如果能夠根據(jù)患者的情感狀態(tài)采取不同的護(hù)理措施,護(hù)理質(zhì)量將得到明顯改善。因此,將情感識(shí)別引入到傳統(tǒng)的BCI系統(tǒng)中已成為人工智能和認(rèn)知科學(xué)等眾多跨學(xué)科領(lǐng)域的重要研究熱點(diǎn)[5-6]。

        為了實(shí)現(xiàn)基于腦電(electroencephalogram,EEG)的情感BCI系統(tǒng),人們情感信息的有效獲取和識(shí)別成為至關(guān)重要的一步[7]。近年來(lái),為了實(shí)現(xiàn)這一目標(biāo),一些比較成功的情感腦電特征提取方法相繼被提出。例如,文獻(xiàn)[8]從5個(gè)與情感相關(guān)的頻帶中提取出的微分熵(differential entropy,DE)和功率譜密度(power spectral density,PSD)特征,在三分類的情感識(shí)別中獲得了86.08%的平均識(shí)別率。文獻(xiàn)[9]提出一種基于時(shí)-頻域的分析方法,在二分類的情感識(shí)別任務(wù)中取得平均識(shí)別率為86.52%。盡管這些研究在支持情感計(jì)算的理論、方法、以及實(shí)驗(yàn)上都取得顯著成功,但其關(guān)注的是時(shí)域或時(shí)-頻域的特征分析,而忽略了腦電信號(hào)中與情感計(jì)算相關(guān)的空域特征。為了有效解決該問(wèn)題,本文進(jìn)行了一些分析實(shí)驗(yàn),以探索空域特征是否能夠?qū)贓EG的情感狀態(tài)識(shí)別提供更有價(jià)值的情感信息。

        1 實(shí)驗(yàn)設(shè)計(jì)和數(shù)據(jù)獲取

        本實(shí)驗(yàn)所用的全部數(shù)據(jù)均為實(shí)驗(yàn)室自己采集,受試者6位,分別為2男4女(所有受試者均為在校學(xué)生,雙眼視力正?;虺C正后正常,年齡在23~26歲)。在實(shí)驗(yàn)過(guò)程中,所記錄的數(shù)據(jù)是30通道的情感腦電信號(hào),其中采樣率為250 Hz,精度為16位。頭皮電極位置符合國(guó)際標(biāo)準(zhǔn)10-20系統(tǒng)[10]。

        關(guān)于情感誘發(fā)材料的選擇,考慮到視頻片段包含場(chǎng)景和聲音、具有視聽雙重的刺激,可以讓受試者接觸到更多的真實(shí)場(chǎng)景,從而引發(fā)出更強(qiáng)烈的主觀和生理變化。現(xiàn)有的研究已經(jīng)表明視頻作為情感刺激誘發(fā)材料的有效性[11]。此外,考慮到本土文化在情感識(shí)別實(shí)驗(yàn)中也會(huì)起到重要的作用,因此,最終選擇了具有母語(yǔ)和相關(guān)文化背景的帶有情感因素的電影片段作為刺激材料。在實(shí)驗(yàn)前,所有受試者均被告知參與的實(shí)驗(yàn)?zāi)康暮瓦^(guò)程。在實(shí)驗(yàn)進(jìn)行中,要求被試者靜坐在桌前,集中注意力觀看正前方的視頻片段,并且在影片播放中盡量保持不動(dòng),以免增加劇烈的肌電等干擾。具體實(shí)驗(yàn)場(chǎng)景如圖1所示。

        圖1 實(shí)驗(yàn)場(chǎng)景圖

        數(shù)據(jù)采集實(shí)驗(yàn)范式如圖2所示。每個(gè)大的單次實(shí)驗(yàn)(Trial)總時(shí)長(zhǎng)為75 s,共分3部分。實(shí)驗(yàn)開始時(shí),計(jì)算機(jī)發(fā)出“嘀”的提示音,同時(shí)屏幕上出現(xiàn)提示字“準(zhǔn)備”,表示此次實(shí)驗(yàn)正式開始。隨后,計(jì)算機(jī)會(huì)隨機(jī)播放時(shí)長(zhǎng)為60 s的3種不同類型的情感電影片段(積極、中性、消極)。最后電腦屏幕上出現(xiàn)“休息”字樣,受試者此時(shí)可以進(jìn)行10 s的適當(dāng)休息等待下一次實(shí)驗(yàn)。每個(gè)受試者有3種情感狀態(tài),每種情感狀態(tài)均有12個(gè)大的單次實(shí)驗(yàn)(持續(xù)時(shí)長(zhǎng)為60 s),因此,每個(gè)受試者所擁有大的單次實(shí)驗(yàn)總數(shù)是3′12=36。在后續(xù)的數(shù)據(jù)處理中,情感基本單元(利用滑動(dòng)窗實(shí)現(xiàn)數(shù)據(jù)段的劃分)被設(shè)置為=6 s,并且滑動(dòng)步長(zhǎng)為/3。最終,每個(gè)受試者共有3′324=972個(gè)小的單次實(shí)驗(yàn)(用于分類訓(xùn)練和測(cè)試的總樣本數(shù))。實(shí)驗(yàn)選用的分類模型是支持向量模型(support vector model,SVM),其中懲罰因子為1,核函數(shù)為多項(xiàng)式核函數(shù)。

        圖2 實(shí)驗(yàn)范式圖

        2 方 法

        該算法的目的是探索基于共同空間模式(common spatial pattern,CSP)的空域特征提取方法,提高腦電情感識(shí)別準(zhǔn)確率。算法的具體流程如圖3所示,主要包括4個(gè)部分:對(duì)采集到的30通道腦電信號(hào)進(jìn)行數(shù)據(jù)預(yù)處理、基于近似聯(lián)合對(duì)角化(joint approximation diagonalization,JAD)算法的空域?yàn)V波器設(shè)計(jì)、腦電信號(hào)的空域特征提取以及最終情感狀態(tài)的分類識(shí)別。

        圖3 基于CSP空域?yàn)V波方法的流程圖

        2.1 數(shù)據(jù)預(yù)處理

        為了去除眼電(electrooculogram,EOG)、肌電(electromyography,EMG)和工頻干擾等偽跡對(duì)情感識(shí)別效果的影響,同時(shí)為了保留更有效的情感腦電成分,首先通過(guò)人工檢查波形情況手動(dòng)去除了干擾較為明顯的數(shù)據(jù)片段。其次采用8~60 Hz (包含有效的情感響應(yīng)頻帶)的帶通濾波器對(duì)EEG數(shù)據(jù)進(jìn)行濾波。最后對(duì)實(shí)驗(yàn)數(shù)據(jù)進(jìn)行窗長(zhǎng)的劃分進(jìn)而實(shí)現(xiàn)數(shù)據(jù)的分段,選取不同時(shí)長(zhǎng)和不同頻段的腦電信號(hào)進(jìn)行更深一步的分析,具體細(xì)節(jié)部分在實(shí)驗(yàn)對(duì)比部分給出。

        2.2 基于CSP的情感識(shí)別

        在傳統(tǒng)的二分類CSP算法[12]中,訓(xùn)練集會(huì)根據(jù)情感類型的標(biāo)簽劃分為2個(gè)子集合,然后分別計(jì)算其平均協(xié)方差矩陣和廣義特征值分解,最終選擇最大特征值所對(duì)應(yīng)的特征向量構(gòu)成CSP空域?yàn)V波器{1,2}。由于當(dāng)前工作主要研究的是基于三分類的情感識(shí)別,在此基礎(chǔ)上本文選擇JAD方法[13]實(shí)現(xiàn)多分類的擴(kuò)展。

        JAD方法與傳統(tǒng)的兩分類CSP算法之間有很多的相似性,主要區(qū)別在于特征值的選擇準(zhǔn)則。為了解決在多分類問(wèn)題中,當(dāng)其中某一類特征值最大時(shí),另外兩類特征值差異也能達(dá)到最大化。JAD方法設(shè)置了如下的一個(gè)score()函數(shù)[14]用于特征值的選擇。

        2.3 改進(jìn)的多分類CSP算法

        在設(shè)計(jì)CSP空濾波器的過(guò)程中,經(jīng)過(guò)多次實(shí)驗(yàn)發(fā)現(xiàn)使用傳統(tǒng)的JAD方法在解決多分類問(wèn)題時(shí)存在一個(gè)嚴(yán)重缺陷。即,針對(duì)不同情感狀態(tài)得分最高的特征值在特征值對(duì)角矩陣中處于同一位置。在這種情況下,不同情感狀態(tài)的EEG數(shù)據(jù)會(huì)對(duì)應(yīng)于同一個(gè)特征向量,所設(shè)計(jì)的空域?yàn)V波器也是相同的。此時(shí)3種情感狀態(tài)對(duì)應(yīng)的空域特征沒(méi)有被準(zhǔn)確區(qū)分開,所設(shè)計(jì)的空域?yàn)V波器是無(wú)效的,影響最終的識(shí)別性能。

        為了有效的解決上述問(wèn)題,針對(duì)3種情感任務(wù)得到的特征值所在對(duì)角矩陣中的位置情況,提出一種改進(jìn)的算法,即“I_JAD”算法。主要實(shí)現(xiàn)原理是:將特征值按照由score()函數(shù)計(jì)算的得分由高到低降序排序,并將每種情感狀態(tài)下得分最高的特征值在原對(duì)角陣中的位置情況存儲(chǔ)在,(=1,2,3)中,通過(guò)比較其中存儲(chǔ)的數(shù)字實(shí)現(xiàn)了3種不同的特征值選擇方法U1,U2和U3的設(shè)計(jì)。其中,如果得分最高的特征值的位置情況全部不同(即,(=1,2,3)中存儲(chǔ)的數(shù)字相同的個(gè)數(shù)為0),此時(shí)選擇U1方法。算法流程如圖4所示。

        3 結(jié) 果

        3.1 單次實(shí)驗(yàn)的最優(yōu)長(zhǎng)度選擇

        對(duì)于基于CSP的空域?yàn)V波方法,為了獲得情感基本單元的最優(yōu)長(zhǎng)度,選取了持續(xù)時(shí)間從2~10 s (以2 s為時(shí)間間隔)這5個(gè)不同長(zhǎng)度的時(shí)間窗作對(duì)比。對(duì)不同長(zhǎng)度的時(shí)間窗對(duì)應(yīng)的EEG信號(hào)進(jìn)行空域?yàn)V波,利用所映射的空域特征對(duì)情感狀態(tài)進(jìn)行分類。實(shí)驗(yàn)結(jié)果如圖5所示。

        從圖5可以看出,與其他長(zhǎng)度的時(shí)間窗相比,該方法在時(shí)間窗為2 s時(shí)獲得最低的平均識(shí)別率(82.53%)。隨著持續(xù)時(shí)間長(zhǎng)度的增加,平均識(shí)別率也逐漸提高,當(dāng)持續(xù)時(shí)間達(dá)到6 s時(shí),所有受試者的平均識(shí)別率達(dá)到最高值(87.54%)。隨著持續(xù)時(shí)間的繼續(xù)增加識(shí)別率無(wú)明顯變化甚至有輕微下降的趨勢(shì)。分析產(chǎn)生這種現(xiàn)象的原因主要有2個(gè):①情感基本單元(單次樣本持續(xù)時(shí)間)過(guò)短,無(wú)法有效激發(fā)受試者的真實(shí)情感,但持續(xù)時(shí)間過(guò)長(zhǎng)可能會(huì)導(dǎo)致多種情緒狀態(tài)在同一個(gè)數(shù)據(jù)段內(nèi)同時(shí)存在。②單次Trial持續(xù)時(shí)間的長(zhǎng)短影響著實(shí)驗(yàn)樣本的數(shù)量,數(shù)量過(guò)少不能夠有效的反映情感EEG信號(hào)的真實(shí)統(tǒng)計(jì)特征,過(guò)多則可能會(huì)增加計(jì)算量。經(jīng)分析最終選擇了情感基本單元的最佳長(zhǎng)度為6 s。

        圖4 基于JAD實(shí)現(xiàn)不同的特征值選擇方法(帶有箭頭的直線表示特征值按降序排序)

        圖5 不同時(shí)長(zhǎng)的單次Trial對(duì)比結(jié)果(S1~S5表示受試者的編號(hào))

        3.2 關(guān)鍵頻帶分析

        為了提取有效的空域特征,對(duì)delta (1~3 Hz),theta (4~7 Hz),alpha (8~12 Hz),beta (13~30 Hz)和gamma (31~60 Hz)這5個(gè)常用生理頻段的EEG信號(hào)進(jìn)行了對(duì)比,實(shí)驗(yàn)結(jié)果如圖6所示。

        圖6 處于不同頻段EEG信號(hào)的識(shí)別結(jié)果

        圖6所顯示的結(jié)果表明alpha (8~12 Hz),beta (13~30 Hz)和gamma (31~60 Hz)這3個(gè)頻段的識(shí)別性能明顯優(yōu)于其他頻段,這表明高頻段的EEG信號(hào)相較于低頻段對(duì)情感認(rèn)知活動(dòng)的關(guān)聯(lián)性更強(qiáng)。同時(shí),在當(dāng)前階段也有相關(guān)的研究[15-16]在一定程度上證實(shí)了這3個(gè)頻段對(duì)于情感識(shí)別的重要性。綜上,在實(shí)驗(yàn)分析中,選擇8~60 Hz (包含alpha,beta和gamma)的頻段對(duì)于情感識(shí)別的研究更有價(jià)值,同時(shí)本文將此頻段命名為‘α-β-γ’。

        3.3 對(duì)比傳統(tǒng)方法

        為了驗(yàn)證所提I_JAD算法的有效性,將其與以下2種方法進(jìn)行比較。方法1:從delta,theta,alpha,beta和gamma這5個(gè)頻段中提取左右腦的PSD和譜不對(duì)稱性特征。方法2:利用傳統(tǒng)的基于“得分最高的特征值”準(zhǔn)則的JAD方法。實(shí)驗(yàn)比較結(jié)果如圖7所示。

        從圖7可以明顯的觀察到,空域?yàn)V波方法(方法2與I_JAD方法)相較于傳統(tǒng)的時(shí)-頻域方法(方法1),整體識(shí)別率都有所提升。方法1取得的平均識(shí)別率為74.24%,比方法2和I_JAD方法分別低了2.75%和13.3%。而所提出的I_JAD與方法2相比,平均識(shí)別率則增加了10.55%。

        圖7 不同方法下的識(shí)別結(jié)果比較

        分析造成這種結(jié)果差異的原因是由于傳統(tǒng)的時(shí)-頻域分析方法對(duì)實(shí)際實(shí)驗(yàn)中的環(huán)境非常敏感,如電極的輕微移動(dòng)、無(wú)意識(shí)產(chǎn)生的肌電、脈沖噪聲等,這些都可能造成噪聲與有用的EEG信號(hào)在頻譜上的重疊。方法2考慮了時(shí)-頻域特征的缺點(diǎn),能在一定程度上抑制干擾噪聲的影響,因此與方法1相比,識(shí)別性能有了一定的提升。但方法2可能會(huì)存在濾波器設(shè)計(jì)無(wú)效的問(wèn)題,降低空域特征分析在情感識(shí)別上的應(yīng)用性能。空域?yàn)V波方法的原理是通過(guò)使得各個(gè)情感任務(wù)能量差異的最大化,來(lái)實(shí)現(xiàn)有效情感空域特征的提取。這種差異即使在低信噪比(signal-to-noise ratio,SNR)情況下依然存在。因此,提出的I_JAD方法的識(shí)別性能要高于上述2種方法,具有一定的魯棒性。

        4 結(jié)束語(yǔ)

        本文提出了一種基于腦電情感識(shí)別的空域?yàn)V波方法,利用改進(jìn)的CSP空域?yàn)V波算法在三分類情感腦電信號(hào)的識(shí)別中達(dá)到了87.54%的平均識(shí)別率。并且通過(guò)一系列對(duì)比實(shí)驗(yàn)選取了最優(yōu)的情感基本單元和相關(guān)的頻帶分布。最后與傳統(tǒng)的時(shí)頻域方法進(jìn)行了比較,結(jié)果表明空域特征的獲取對(duì)于情感識(shí)別的應(yīng)用有顯著的性能提升。未來(lái)的工作重點(diǎn)將放在對(duì)提出的算法進(jìn)行改進(jìn),包括實(shí)現(xiàn)噪聲抑制與EEG信號(hào)質(zhì)量評(píng)估,對(duì)CSP算法中的參數(shù)進(jìn)行優(yōu)化等,并希望將其應(yīng)用到情感BCI系統(tǒng)的實(shí)現(xiàn)中。

        [1] RAMADAN R A, VASILAKOS A V. Brain computer interface: control signals review[J]. Neurocomputing, 2017, 223: 26-44.

        [2] 于淑月, 李想, 于功敬, 等. 腦機(jī)接口技術(shù)的發(fā)展與展望[J]. 計(jì)算機(jī)測(cè)量與控制, 2019, 27(10): 5-12. YU S Y, LI X, YU G J, et al. Development and prospect of brain computer interface technology[J]. Computer Measurement & Control, 2019, 27(10): 5-12 (in Chinese).

        [3] ODA T, KUDOH N S. Heuristic BCI system recognizing the cognitive situation from various EEG patterns induced by the same cognitive task[C]//2018 IEEE International Conference on Systems, Man, and Cybernetics (SMC). New York: IEEE Press, 2018: 3842-3846.

        [4] WIDGE A S, DOUGHERTY D D, MORITZ C T. Affective brain-computer interfaces as enabling technology for responsive psychiatric stimulation[J]. Brain-Computer Interfaces, 2014, 1(2): 126-136.

        [5] 宗立成. 產(chǎn)品情感配色的計(jì)算機(jī)輔助設(shè)計(jì)及其評(píng)價(jià)方法[J]. 圖學(xué)學(xué)報(bào), 2018, 39(4): 623-628. ZONG L C. On Computer Aided Design of Product Emotion Color Matching and Its Evaluation Method[J]. Journal of Graphics, 2018, 39(4): 623-628 (in Chinese).

        [6] DALY I. Affective brain–computer interfacing and methods for affective state detection[M]// Brain–Computer Interfaces Handbook. Boca Raton: Taylor & Francis, CRC Press, 018: 147-164.

        [7] 林麗, 陽(yáng)明慶, 張超, 等. 產(chǎn)品情感研究及情感測(cè)量的關(guān)鍵技術(shù)[J]. 圖學(xué)學(xué)報(bào), 2013, 34(1): 122-127. LIN L, YANG M Q, ZHANG C, et al. The product emotion and key technologies for emotional measurement[J]. Journal of Graphics, 2013, 34(1): 122-127 (in Chinese).

        [8] ZHENG W L, LU B L. Investigating critical frequency bands and channels for EEG-based emotion recognition with deep neural networks[J]. IEEE Transactions on Autonomous Mental Development, 2015, 7(3): 162-175.

        [9] HADJIDIMITRIOU S K, HADJILEONTIADIS L J. Toward an EEG-based recognition of music liking using time-frequency analysis[J]. IEEE Transactions on Biomedical Engineering, 2012, 59(12): 3498-3510.

        [10] HERWIG U, SATRAPI P, SCH?NFELDT-LECUONA C. Using the international 10-20 EEG system for positioning of transcranial magnetic stimulation[J]. Brain Topography, 2003, 16(2): 95-99.

        [11] SCHAEFER A, NILS F, SANCHEZ X, et al. Assessing the effectiveness of a large database of emotion-eliciting films: a new tool for emotion researchers[J]. Cognition & Emotion, 2010, 24(7): 1153-1172.

        [12] ARVANEH M, GUAN C T, ANG K K, et al. Optimizing spatial filters by minimizing within-class dissimilarities in electroencephalogram-based brain–computer interface[J]. IEEE Transactions on Neural Networks and Learning Systems, 2013, 24(4): 610-619.

        [13] 呂釗, 陸雨, 周蚌艷, 等. 基于共同空間模式的掃視信號(hào)特征提取算法[J]. 華中科技大學(xué)學(xué)報(bào):自然科學(xué)版, 2016, 44(10): 123-127. LV Z, LU Y, ZHOU B Y. Research on feature parameters extracting algorithm of saccade signals based on common spatial pattern[J]. Huazhong Univ. of Sci. & Tech: Natural Science Edition, 2016, 44(10): 123-127.)

        [14] NGUYEN T H, PARK S M, KO K E, et al. Multi-class stationary CSP for optimal feature separation of brain source in BCI system[C]//2012 12th International Conference on Control, Automation and Systems. New York: IEEE Press, 2012: 1035-1039.

        [15] 陳曾, 劉光遠(yuǎn). 腦電信號(hào)在情感識(shí)別中的應(yīng)用[J]. 計(jì)算機(jī)工程, 2010, 36(9): 168-170. CHEN C, LIU G Y. Application of EEG signal in emotion recognition[J]. Computer Engineering, 2010, 36(9): 168-170 (in Chinese).

        [16] WANG X W, NIE D, LU B L. Emotional state classification from EEG data using machine learning approach[J]. Neurocomputing, 2014, 129: 94-106.

        Extraction of spatial features of emotional EEG signals based on common spatial pattern

        YAN Meng-meng1, LV Zhao1,2, SUN Wen-hui1

        (1. School of Computer Science and Technology, Anhui University, Hefei Anhui 230601, China; 2. Zhejiang Key Laboratory for Brain-Machine Collaborative Intelligence, Hangzhou Dianzi University, Hangzhou Zhejiang 310018, China)

        In order to enhance the performance of electroencephalogram (EEG)-based emotion recognition and improve the accuracy of multi-classification, a spatial filtering algorithm using the common spatial pattern (CSP) was proposed. Firstly, the traditional CSP method was used to design the spatial domain filter. On this basis, three types of emotion recognition EEG signals (i.e., positive, neutral, and negative) were linearly projected by this filter, so as to extract spatial features. Furthermore, considering that the traditional joint approximation diagonalization (JAD) algorithm using the “highest score eigenvalue” criterion may result in the failure to distinguish the multi-classification emotional states, different eigenvalue selection methods were designed in terms of the position of the eigenvalues with the highest scores. Under our lab environment, the comparative experiments using the support vector model (SVM) as a classifier have been carried out. The results show that the CSP-based spatial feature extraction method has an impressive accuracy of 87.54% on average in three-class emotion state recognition, proving the feasibility of the method in the application of emotion recognition.

        affective-brain computer interaction; common spatial pattern; joint approximation diagonalization; spatial filtering; emotion recognition

        TP 391

        10.11996/JG.j.2095-302X.2020030424

        A

        2095-302X(2020)03-0424-06

        2019-11-17;

        2019-12-12

        國(guó)家自然科學(xué)基金項(xiàng)目(61972437);安徽省高等學(xué)校自然科學(xué)基金項(xiàng)目(KJ2018A0008);腦機(jī)協(xié)同智能技術(shù)浙江省重點(diǎn)實(shí)驗(yàn)開放基金(BMCI2018-001)

        閆夢(mèng)夢(mèng)(1995-),女,安徽宿州人,碩士研究生。主要研究方向?yàn)樯镝t(yī)學(xué)信號(hào)處理與人機(jī)交互。E-mail:ymm199566@163.com

        呂 釗(1979-),男,安徽宿州人,教授,博士,博士生導(dǎo)師。主要研究方向?yàn)橹悄苄畔⑻幚?、人機(jī)交互等。E-mail:kjlz@ahu.edu.cn

        猜你喜歡
        分類情感實(shí)驗(yàn)
        記一次有趣的實(shí)驗(yàn)
        分類算一算
        如何在情感中自我成長(zhǎng),保持獨(dú)立
        失落的情感
        北極光(2019年12期)2020-01-18 06:22:10
        情感
        做個(gè)怪怪長(zhǎng)實(shí)驗(yàn)
        分類討論求坐標(biāo)
        如何在情感中自我成長(zhǎng),保持獨(dú)立
        數(shù)據(jù)分析中的分類討論
        教你一招:數(shù)的分類
        国内偷拍第一视频第一视频区| 理论片87福利理论电影| 国产日韩亚洲欧洲一区二区三区| 无码中文字幕久久久久久| 国产精品女同av在线观看| 亚洲av永久无码天堂网| 丰满少妇被猛男猛烈进入久久 | 国产激情电影综合在线看| 国产手机在线αⅴ片无码| 日韩人妻系列在线视频| 亚洲国产丝袜久久久精品一区二区| 女女女女女裸体处开bbb| 99久久久无码国产精品9| 久久精品国产亚洲av热一区| 日韩一区二区av极品| 中文字幕肉感巨大的乳专区| 日韩专区欧美专区| 国产精品国产三级在线专区| 一区二区三区美女免费视频| 亚洲精品无码成人a片| 呦泬泬精品导航| 中文字幕有码久久高清| 东京热久久综合久久88| 国内精品久久久久久无码不卡| 激情文学人妻中文字幕| 国产日产在线视频一区| 亚洲 另类 日韩 制服 无码| 国产91吞精一区二区三区 | 性做久久久久久久| 久久黄色精品内射胖女人| 国产综合色在线视频区| 国产精品99久久精品爆乳| 青青草视频在线你懂的| 四虎永久在线精品免费一区二区 | 日本三级欧美三级人妇视频| 国产精品无码久久AⅤ人妖| 丰满的少妇av一区二区三区| 尤物网址在线观看| 国产午夜无码精品免费看动漫| 国产毛片视频一区二区三区在线| 宅男666在线永久免费观看 |