亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于雙通道注意力網(wǎng)絡(luò)的腦電圖意圖識別*

        2021-09-10 07:16:44孫亞東徐曉濤
        傳感器與微系統(tǒng) 2021年9期
        關(guān)鍵詞:意圖注意力深度

        孫亞東,徐曉濤,章 軍,陳 鵬

        (1.安徽大學(xué) 電氣工程與自動(dòng)化學(xué)院,安徽 合肥 230601;2.安徽大學(xué) 互聯(lián)網(wǎng)學(xué)院 農(nóng)業(yè)生態(tài)大數(shù)據(jù)分析與應(yīng)用技術(shù)國家地方聯(lián)合工程研究中心,安徽 合肥 230601)

        0 引 言

        近年來,腦機(jī)接口(brain-computer interface,BCI)在學(xué)術(shù)界和工業(yè)界引起了廣泛關(guān)注,它是一種使用腦電圖(electroencephalography,EEG)信號使人能夠與計(jì)算機(jī)或智能設(shè)備控制的人機(jī)交互技術(shù)[1]。EEG是一種獲取與步行或站立等各種運(yùn)動(dòng)相對應(yīng)的腦神經(jīng)元電信號有效的方法,當(dāng)受試者想象某些動(dòng)作(例如抬腿)時(shí),可以通過EEG信號分析這些動(dòng)作,表示其意圖[2]。

        近年來,深度學(xué)習(xí)已成功地應(yīng)用于圖像分類和目標(biāo)檢測等領(lǐng)域。與傳統(tǒng)算法相比,深度學(xué)習(xí)算法可以更加有效地學(xué)習(xí)EEG的潛在特征。為了提高分類性能,Schirrmeister R T等人使用卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)對EEG信號進(jìn)行識別[3]??紤]到EEG信號為一維時(shí)間序列數(shù)據(jù),也可以在基于EEG信號的意圖識別中采用了循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural network,RNN),所以,Zhang D等人提出了一個(gè)7層RNN模型進(jìn)行識別[4]。

        綜上所述,本文提出一種融合雙通道模型—深度注意力卷積長短時(shí)期記憶(deep attention convolutional long short term memory,DACLSTM)網(wǎng)絡(luò),融合了CNN和RNN的優(yōu)勢,可以對EEG信號有效地提取特征。特別地,由于EEG數(shù)據(jù)的不同特征在分類中起著不同的作用,受注意力(attention)網(wǎng)絡(luò)的啟發(fā)[5],可利用注意力機(jī)制關(guān)注重要的特征。使用正交矩陣進(jìn)行參數(shù)調(diào)節(jié),較傳統(tǒng)的超參數(shù)調(diào)整方法可節(jié)省98.4 %的時(shí)間;所提出的框架通過Eegmmidb的公共數(shù)據(jù)集進(jìn)行了廣泛評估,實(shí)驗(yàn)結(jié)果表明該框架明顯優(yōu)于現(xiàn)有技術(shù)。

        1 深度意圖識別網(wǎng)絡(luò)

        本文提出的融合方法包含以下部分:深度特征學(xué)習(xí),注意力機(jī)制和意圖識別。

        1.1 深度特征學(xué)習(xí)

        圖1說明DACLSTM網(wǎng)絡(luò)的所涉及的不同流程。

        圖1 DACLSTM網(wǎng)絡(luò)結(jié)構(gòu)

        首先需要學(xué)習(xí)用戶的意圖信號表示形式,該信號是一維向量(在一個(gè)時(shí)間點(diǎn)中收集)。將單個(gè)EEG信號表示為Ei∈K,其中K是EEG信號的維數(shù)(文中K= 64),yi∈R并表示樣本Ei的類別。然后將Ei分別加入到給定的RNN和CNN結(jié)構(gòu),用于并行的時(shí)間和空間特征學(xué)習(xí)。

        1)RNN特征學(xué)習(xí)

        采用RNN的功能可以提取時(shí)序數(shù)據(jù)中的時(shí)間特征。本文使用的是一種特定的RNN,即雙向長短時(shí)期記憶(bidirectional LSTM,BLSTM)。

        (1)

        (2)

        (3)

        式中W為權(quán)重矩陣,b為偏置向量,o為BLSTM的輸出。

        2)CNN特征學(xué)習(xí)

        CNN結(jié)構(gòu)由三部分組成:卷積層,池化層和全連接層。由圖1中CNN部分可知,按以下順序堆疊設(shè)計(jì)的CNN:輸入層,卷積層1(C1),池化層1(P1),卷積層2(C2),池化層2(P2),全連接(FC)層。

        1.2 注意力機(jī)制

        H=[h1,h2,…,hn]

        (4)

        在獲得樣本數(shù)據(jù)的BLSTM和CNN特征表達(dá)后,利用注意力機(jī)制獲得融合特征映射。注意力機(jī)制的結(jié)構(gòu)如圖2所示。注意力的計(jì)算方式描述如下

        圖2 注意力機(jī)制模型結(jié)構(gòu)

        (5)

        (6)

        (7)

        1.3 意圖識別

        在深度學(xué)習(xí)網(wǎng)絡(luò)中,SoftMax函數(shù)比其他激活函數(shù)更適合用于多分類問題。SoftMax函數(shù)的輸出概率計(jì)算如下

        p′=SoftMax(Ws·umap+bs)

        (8)

        損失函數(shù)使用交叉熵,并通過Adam Optimizer算法[7]進(jìn)行優(yōu)化。

        2 算例分析

        2.1 數(shù)據(jù)集介紹

        本文使用由Eegmmidb提供的公共EEG數(shù)據(jù)集,該數(shù)據(jù)集使用BCI 2000系統(tǒng)對不同運(yùn)動(dòng)或者圖像任務(wù)的對象進(jìn)行操作,并記錄64個(gè)通道EEG數(shù)據(jù)[8]。本文使用了28,000個(gè)EEG信號,每個(gè)樣本都是64個(gè)元素的一維向量。數(shù)據(jù)集被隨機(jī)分為兩部分:其中,70 %的樣本作為訓(xùn)練集,剩余30 %樣本用作測試集,將標(biāo)簽轉(zhuǎn)換為獨(dú)熱(one-hot)編碼進(jìn)行分類。選擇的EEG信號分為五類,每種意圖對應(yīng)的標(biāo)簽如圖1中意圖識別部分所示。

        2.2 正交矩陣實(shí)驗(yàn)設(shè)計(jì)

        盡管深度學(xué)習(xí)算法可以在許多領(lǐng)域取得良好的性能,但是調(diào)整超參數(shù)非常耗時(shí),并且依賴于個(gè)人的經(jīng)驗(yàn)。本文采用正交矩陣(orthogonal array,OA)實(shí)驗(yàn)設(shè)計(jì)[9]來選擇超參數(shù),該方法比傳統(tǒng)的超參數(shù)調(diào)節(jié)方法要快得多。

        OA是一種系統(tǒng)的統(tǒng)計(jì)方法,其原理是比較由自變量的不同組合產(chǎn)生的因變量。在此方法中,自變量稱為“因子”,因子的不同值稱為“水平”。例如,如果某方案具有3個(gè)因子,并且每個(gè)因子有3個(gè)水平,這些水平由27個(gè)結(jié)點(diǎn)的多維數(shù)據(jù)表示(每個(gè)結(jié)點(diǎn)代表一個(gè)超參數(shù)組合),則OA僅選擇9個(gè)代表性參數(shù)組合進(jìn)行優(yōu)化選擇。

        為了獲得最佳的識別精度,本文采用OA實(shí)驗(yàn)方法來優(yōu)化超參數(shù),并選擇適用于本文的5個(gè)常見的超參數(shù),包括λ(2—范數(shù)的系數(shù)),lr(學(xué)習(xí)率),Ki(BLSTM隱藏神經(jīng)元大小),An注意力大小(即向量v在式(6)中的大小)和N(表示批數(shù)量。訓(xùn)練集和測試集的大小取決于nbs,因?yàn)榭倲?shù)據(jù)集是固定的,例如,如果nbs等于1,則將有14 000個(gè)訓(xùn)練數(shù)據(jù)集和14 000個(gè)測試數(shù)據(jù)集。如果nbs等于3,則有21 000個(gè)訓(xùn)練數(shù)據(jù)集和7 000個(gè)測試數(shù)據(jù)集),如表1所示。由于本次OA實(shí)驗(yàn)包含了5個(gè)因子和4個(gè)水平,因此由標(biāo)準(zhǔn)正交實(shí)驗(yàn)表可知,應(yīng)進(jìn)行16個(gè)實(shí)驗(yàn)優(yōu)化超參數(shù)。

        表1 因子和水平

        超參數(shù)的組合以及實(shí)驗(yàn)結(jié)果的范圍分析,如表2所示。通過OA實(shí)驗(yàn)調(diào)節(jié)可得最佳λ,lr,Ki,An,N參數(shù)分別是0.004,0.001,75,10,3。用窮舉法選擇5個(gè)因子和4個(gè)水平的參數(shù)需要1 024=45個(gè)組合,而使用OA實(shí)驗(yàn)分析則只需要16種組合,說明節(jié)省了(1-16/1 024)=98.4 %的時(shí)間。本文選擇了OA實(shí)驗(yàn)調(diào)節(jié)后的最佳水平參數(shù)來訓(xùn)練模型,并獲得99.34%的準(zhǔn)確率。

        表2 OA實(shí)驗(yàn)因子分析

        2.3 實(shí)驗(yàn)分析

        為了驗(yàn)證所提出的融合模型實(shí)驗(yàn)的有效性,在基于TensorFlow的深度學(xué)習(xí)平臺上實(shí)現(xiàn)該模型,并與單一的CNN和BLSTM模型在同一數(shù)據(jù)集進(jìn)行對比實(shí)驗(yàn)。EEG數(shù)據(jù)的輸入形式是一個(gè)三維的張量(?, 1, 64),“?”表示訓(xùn)練時(shí)每批次輸入樣本的數(shù)量,即nbs。

        在DACLSTM模型中,CNN通道的數(shù)據(jù)經(jīng)過1.1節(jié)分析可知輸出結(jié)果為(?,64),BLSTM通道的數(shù)據(jù)經(jīng)過一個(gè)輸出維度為50的BLSTM單元,取其隱藏層的輸出,結(jié)果為一個(gè)(?,64,50)的張量。將2個(gè)通道張量通過Attention層進(jìn)行融合,形狀變?yōu)??,1,50),即為EEG數(shù)據(jù)的融合特征表達(dá),再通過Dropout層(防止過擬合),最后由FC層激活輸出,輸出的維度為1,激活函數(shù)為SoftMax。

        CNN模型和BLSTM模型分別與DACLSTM模型去掉Attention層的左、右通道類似。圖3表示各模型的ROC曲線,橫坐標(biāo)是假陽率(分到正例中真實(shí)的負(fù)例占所有負(fù)例的比率)的對數(shù),縱坐標(biāo)為真陽率(分到正例中真實(shí)的正例占所有正例的比率)??梢钥闯鰣D3(a)中DACLSTM模型比圖3(b)和圖3(c)更靠攏(0,1)點(diǎn),偏離45°對角線,靈敏度、特異性更大,效果更好。

        圖3 各模型的ROC曲線

        2.4 與其他方法的性能比較

        表3為所提出的模型與現(xiàn)有方法和基準(zhǔn)方法的性能比較?;鶞?zhǔn)方法中提及算法如下:KNN表示k最近鄰,SVM表示支持向量機(jī),RF表示隨機(jī)森林,LDA表示線性判別分析,各超參數(shù)為:KNN(k=3),SVM(c=1),RF(n=300),LDA(tol=10-4)和AdaBoost(n=500,lr=0.3)。綜上所述,所提出的模型優(yōu)于包括現(xiàn)有方法和基準(zhǔn)方法在內(nèi)的所有技術(shù),并將識別準(zhǔn)確率提高了1.06 %。

        表3 與現(xiàn)有方法與基準(zhǔn)方法的性能比較

        3 結(jié) 論

        本文提出了一種融合深度網(wǎng)絡(luò),即DACLSTM,建立了基于EEG信號的意圖識別系統(tǒng)。在實(shí)驗(yàn)結(jié)果方面,DACLSTM模型實(shí)現(xiàn)了99.34 %的高識別率,證明模型意圖識別有效。此外,本文研究了有注意力和無注意力的CNN和BLSTM模型,以發(fā)現(xiàn)注意力模型的意義。另外使用OA實(shí)驗(yàn)調(diào)節(jié)參數(shù),可節(jié)省98.4 %的參數(shù)調(diào)節(jié)時(shí)間。為了使比較更加直觀,本文將提出的方法與同一數(shù)據(jù)集上的現(xiàn)有方法和基準(zhǔn)方法進(jìn)行了比較,均優(yōu)于以上方法。

        猜你喜歡
        意圖注意力深度
        原始意圖、對抗主義和非解釋主義
        法律方法(2022年2期)2022-10-20 06:42:20
        陸游詩寫意圖(國畫)
        讓注意力“飛”回來
        制定法解釋與立法意圖的反事實(shí)檢驗(yàn)
        法律方法(2021年3期)2021-03-16 05:56:58
        深度理解一元一次方程
        深度觀察
        深度觀察
        深度觀察
        “揚(yáng)眼”APP:讓注意力“變現(xiàn)”
        傳媒評論(2017年3期)2017-06-13 09:18:10
        A Beautiful Way Of Looking At Things
        久久无码高潮喷水抽搐| 人妻无码中文专区久久AV| 亚洲国产精品成人一区| 日本一区二区三区人妻| 在线成人爽a毛片免费软件| 久久久噜噜噜久久中文字幕色伊伊| 国产在线观看免费一级| 国产视频激情视频在线观看| 99在线精品视频在线观看| 国产精品国产三级国av| 天堂Av无码Av一区二区三区| 丁香婷婷六月综合缴清| 亚洲香蕉成人av网站在线观看| 香蕉久久久久久久av网站| 久久er这里都是精品23| 无人视频在线播放免费| 色视频综合无码一区二区三区| 漂亮人妻被黑人久久精品| 国产颜射视频在线播放| 成人久久黑人中出内射青草| 一本色道无码道dvd在线观看| 国内精品一区视频在线播放| 国产一区二区精品久久呦| 色婷婷av一区二区三区久久| 国产熟女露脸大叫高潮| 无码人妻精品一区二区三区下载| 伊人久久大香线蕉av色婷婷| 国产免码va在线观看免费| 国产山东熟女48嗷嗷叫| 精品一区二区三区人妻久久| 夜夜骚久久激情亚洲精品| 国产av丝袜旗袍无码网站| 国产精品久久码一区二区| 大肉大捧一进一出好爽视频mba| 久久精品国产亚洲av蜜臀| 精品一区二区三区久久久| 婷婷久久亚洲中文字幕| 亚洲精品无码av人在线观看| 国产乱子伦露脸在线| 日本久久一级二级三级| 无码熟妇人妻av在线网站|