文 斗,楊 青,王亞群,李 晨,李 銘
(1.華中師范大學(xué) 計算機學(xué)院;2.華中師范大學(xué)人工智能與智慧學(xué)習(xí)湖北省重點實驗室;3.國家語言資源監(jiān)測與研究網(wǎng)絡(luò)媒體中心,湖北 武漢 430079)
腦電波(Electroencephalogram,EEG)是一種使用電生理指標記錄大腦活動的方法[1]。其記錄大腦活動時的電波變化,是腦神經(jīng)細胞的電生理活動在大腦皮層或頭皮表面的總體反映。腦電波信號對于神經(jīng)科學(xué)研究和臨床應(yīng)用非常重要,例如腦—機接口(BCI)[2]、神經(jīng)系統(tǒng)疾病診斷[3]等。但是采集到的信號通常包含生理噪聲和外部噪聲[4],其中生理噪聲包括眼部噪聲[5]、肌源性噪聲[6]以及少見的心源性噪聲[7]等。
眼電(EOG)和肌電(EMG)信號是EEG 中最常見的噪聲源。EOG 源于眼球運動,如眨眼和滾動,而EMG 源于大腦周圍肌肉的運動。因為幾乎不可能防止眼睛眨眼和腦周圍肌肉群運動,所以這些噪聲在腦電信號中時常出現(xiàn)。因此,需要準確地將這些噪聲信號去除,以獲得相對干凈的腦電波信號,從而快速、準確地進行診斷。
目前,大多數(shù)去除腦電信號偽影的方法可以分為兩種,第一種方法是對于具有不同頻譜分布的腦電信號和偽影,使用傅里葉變換或小波變換將信號從時域變換到頻譜域,然后過濾與偽影相關(guān)的頻譜分量。去噪后的信號可以通過傅里葉逆變換或小波逆變換進行重構(gòu),有多種濾波器可用于腦電信號去噪,如維納濾波器[8]和卡爾曼濾波器[9]等。然而,由于偽影與腦電信號頻譜[10]之間的重疊,偽影無法完全消除,進行濾波后神經(jīng)信息可能丟失。
另一種方法是將信號從原始空間轉(zhuǎn)換到新空間,從而使信號和噪聲在新空間中可分離,例如自適應(yīng)濾波器(Adaptive filter)[11]、希爾伯特—黃變換(HHT)[12]、經(jīng)驗?zāi)J椒纸猓‥MD)[13]等。以上方法主要使用線性變換,所以需要額外的信息或者嚴重依賴于先前的假設(shè)。例如Adaptive filter 需要記錄噪聲信號作為參考,如果未正確提供參考信號,則降噪性能可能很差?;贖HT 的偽影去除方法的假設(shè)是偽影分量具有與其他分量不同的時頻特征,腦電信號被自適應(yīng)地分解為固有模式函數(shù)(IMF)。HHT 輸出IMF 的瞬時頻率(IF),增強了時頻信息[12]。如果IMF 之間存在較大距離,則將其選作噪聲分量并移除。但由于距離閾值是手動選擇的,導(dǎo)致算法的穩(wěn)定性不強?;贓MD和基于ICA 的方法都將多通道EEG 信號分解為多個分量,然后根據(jù)特定標準去除噪聲相關(guān)分量,但仍然不能解決先前假設(shè)的局限性,例如EEMD-ICA 中兩個自相關(guān)閾值的選擇是在不同場景下根據(jù)經(jīng)驗確定的。
然而,用深度學(xué)習(xí)進行腦電波去噪的方法目前還是一個新興的方法。在EEG 去噪方面,目前只發(fā)現(xiàn)少量基于深度學(xué)習(xí)的研究,例如文獻[14-17]設(shè)計的模型提供了與傳統(tǒng)去噪技術(shù)相當?shù)哪X電去噪性能,但存在一個問題,文獻[15-17]研究針對的數(shù)據(jù)集不同,無法將模型作統(tǒng)一的比較。而文獻[14]提供了一個用于腦電去噪的基準數(shù)據(jù)集(EEGdenoiseNet),該基準數(shù)據(jù)集由大量用于訓(xùn)練與測試深度學(xué)習(xí)模型的干凈單通道EEG、EOG 和EMG 信號時段組成,同時文獻[14]也設(shè)計了一些基準網(wǎng)絡(luò),例如全連接網(wǎng)絡(luò)(FCNN)、簡單卷積網(wǎng)絡(luò)、復(fù)雜卷積網(wǎng)絡(luò)和遞歸神經(jīng)網(wǎng)絡(luò)(RNN)對該數(shù)據(jù)集進行評估比較。在文獻[14]的數(shù)據(jù)集基礎(chǔ)上,文獻[18]設(shè)計了一種消除腦電肌肉偽影的卷積神經(jīng)網(wǎng)絡(luò)模型Novel CNN,通過與4 個經(jīng)典網(wǎng)絡(luò)進行比較,肌源性去噪性能得到了提升;文獻[19]設(shè)計了一種2-D Transformer 模型對基準數(shù)據(jù)集(EEGdenoiseNet)去除腦電噪聲;文獻[20]設(shè)計了GAN-LSTM 模型對基準數(shù)據(jù)集(EEGdenoiseNet)去除腦電噪聲;文獻[21]設(shè)計了類似于encode 和decode 網(wǎng)絡(luò)的DeepSeparator 模型對基準數(shù)據(jù)集(EEGdenoiseNet)去除腦電噪聲。文獻[14-19]和文獻[21]所設(shè)計的深度學(xué)習(xí)去噪模型雖然取得了一定的去噪效果,但其仍具有局限性。其模型訓(xùn)練方法偏向于數(shù)據(jù)特征提取,特征提取往往對輸出維度小于輸入維度的模型可起到比較好的收斂效果。但對于去噪來說,模型的輸入與輸出有著相同的維度,所以上述模型的去噪性能并不能得到很大改善。
本文在前人的研究基礎(chǔ)上,設(shè)計了基于生成對抗網(wǎng)絡(luò)(Generative Adversarial Networks,GAN)的EEG 去噪模型(GAN-1D-CNN)。模型與文獻[20]設(shè)計的GAN-LSTM 網(wǎng)絡(luò)都是基于GAN 網(wǎng)絡(luò)的,但GAN-LSTM[20]的生成器采用的是可以學(xué)習(xí)長期依賴信息的長短期記憶網(wǎng)絡(luò)(LSTM),其屬于RNN 回歸型網(wǎng)絡(luò),經(jīng)常用于時序數(shù)據(jù)訓(xùn)練,并且有了一定的記憶效應(yīng)。但對于去噪而言,完全采用1D-CNN結(jié)構(gòu)的Novel CNN 已表現(xiàn)出比GAN-LSTM[20]更好的肌源性去噪性能。因此,在GAN 網(wǎng)絡(luò)中,本文選用1D-CNN 為生成器的基礎(chǔ)結(jié)構(gòu)進行實驗,同時設(shè)計了新的網(wǎng)絡(luò)生成器和判別器,并引用了新的損失函數(shù)計算方式[22]。改進的GAN 模型在EEGdenoiseNet 數(shù)據(jù)集上使用不同信噪比(SNR)和模型評價指標(時域相對均方根誤差、頻域相對均方根誤差和相關(guān)系數(shù))進行分析,同時對應(yīng)用該數(shù)據(jù)集的最新模型進行了比較。實驗結(jié)果顯示,改進的GAN 模型在EEG 去噪性能上得到了增強。
GAN 是深度學(xué)習(xí)領(lǐng)域一個無監(jiān)督狀態(tài)的生成模型,被用來生成一些不需要專業(yè)領(lǐng)域知識的數(shù)據(jù),其由Ian 等[23]于2014 年10 月 在Generative Adversarial Networks中提出。GAN 由判別器D 和生成器G 組成,兩者通常是兩個神經(jīng)網(wǎng)絡(luò)模型,被鎖定在由式(1)中目標函數(shù)定義的博弈中。
其中,x 是真實樣本集合pdata 中的一份樣本,z 是多組隨機噪聲下的一組分布,D(x)的輸出維度為1,值的范圍在0~1 之間。G(z))為生成器生成的樣本,D(G(z))是判別器對生成器生成數(shù)據(jù)的辨識度。如果生成器的生成能力越來越強,超越了判別器,判別器已經(jīng)辨認不出真假,則V(G,D)將是一個極大的負值。相反,如果生成器能力太弱,對判別器而言D(G(z))值總是接近1,則V(G,D)將無限逼近0。也即是說,V(G,D)的值不斷上下浮動,上述過程展現(xiàn)了生成器與判別器的對抗過程。
生成器嘗試最大化欺騙判別器,其目標是希望能夠?qū)W習(xí)到真實樣本的分布,從而可以隨機生成以假亂真的樣本,判別器旨在從生成器生成的樣本中識別真實樣本。整個系統(tǒng)可以用反向傳播進行訓(xùn)練,反向傳播過程如下:生成器生成的數(shù)據(jù)和真實樣本被同時輸入到判別器進行訓(xùn)練,計算損失函數(shù)后,進行梯度計算和判別器梯度更新;此時生成器只計算了梯度,并未更新,生成器生成的數(shù)據(jù)再次被輸入到判別器中,此時生成器只計算并更新梯度,但判別器只進行計算,沒有更新梯度;如此反復(fù),直到得到滿意的結(jié)果,取最終需要的生成器作為生成模型。在訓(xùn)練或生成樣本期間,不需要任何馬爾可夫鏈或展開的近似推理網(wǎng)絡(luò),所以GAN 常被用于超分辨率任務(wù)以及圖像生成、語義分割等領(lǐng)域。
GAN 最初被運用于圖像生成和圖像合成,近年來在序列數(shù)據(jù)生成、插補和數(shù)據(jù)擴充領(lǐng)域得到了快速發(fā)展。在文獻[24]中,GAN 被用于EEG 生成和增強。然而,很少有研究探索用于時間序列去噪的GAN,尤其在涉及EEG 數(shù)據(jù)的情況下。文獻[25]設(shè)計了非對稱GAN,用于去除EEG時間序列數(shù)據(jù)的噪聲,該時間序列去噪模型使用未配對的訓(xùn)練語料庫進行訓(xùn)練,不需要關(guān)于噪聲源的信息。文獻[26]使用GAN 對小鼠腦電圖進行去噪,該訓(xùn)練過程需要一組嘈雜的信號和一組清晰的信號。雖然這些方法降低了EEG 信號中的噪聲,但其既不能去除特定的偽影,又不能提供動態(tài)信噪比的可靠定量證據(jù)。
本文設(shè)計的GAN-1D-CNN 模型由生成器和判別器組成,相比文獻[20]設(shè)計的GAN-LSTM 網(wǎng)絡(luò)中的生成器,模型使用擅長提取一維空間特征的卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)替換掉可以學(xué)習(xí)長期依賴信息的長短期記憶網(wǎng)絡(luò)(LSTM),使網(wǎng)絡(luò)的一維空間特征提取能力得到增強。模型處理流程如圖1 所示。肌源性噪聲(EMG)和眼源性噪聲(EOG)與原始腦電波片段(Raw EEG)混合,生成含有噪聲的腦電波片段(Noise EEG);將含有噪聲的腦電波片段輸入到GAN-1D-CNN 模型的生成器(Generator),生成器輸出去噪后的腦電波(Denoised EEG),再將原始腦電波片段和去噪后的腦電波片段分別輸入到判別器(Discriminator)通過得分辨認真?zhèn)危煌ㄟ^判別器的不斷糾正,使生成器的去噪輸出與原始腦電波片段更接近。訓(xùn)練好的模型使用模型的生成器即可對樣本進行去噪。
Fig.1 Flow of model processing圖1 模型處理流程
GAN 的生成器網(wǎng)絡(luò)由一個核心的神經(jīng)網(wǎng)絡(luò)層堆疊而成,模型的神經(jīng)網(wǎng)絡(luò)層參考文獻[18]中Novel CNN 的相關(guān)參數(shù)。在網(wǎng)絡(luò)每一層的參數(shù)更新過程中,會改變下一層輸入的分布。神經(jīng)網(wǎng)絡(luò)層數(shù)越多,表現(xiàn)得越明顯,從而會導(dǎo)致內(nèi)部協(xié)變量偏移問題。為了使每一個神經(jīng)層的輸入分布在訓(xùn)練過程中保持一致,本文在Novel CNN[18]基礎(chǔ)上引入批量規(guī)范化層(Batch Normalization,BN)。同時考慮到每一層神經(jīng)網(wǎng)絡(luò)存在輸入負值的問題,引入Leaky Relu 激活函數(shù)替代Relu 激活函數(shù)。每個神經(jīng)網(wǎng)絡(luò)塊(Block)包含兩輪一維卷積、歸一化、LeakyRelu 線性激活層和池化處理過程。生成器網(wǎng)絡(luò)模型架構(gòu)如圖2 所示,卷積核參數(shù)如表1 所示。生成器的卷積核參數(shù)一共有7 個,卷積核個數(shù)分別是(32、64、128、256、512、1 024 和2 048)。卷積核大小為1*3,步長為1,填充程度設(shè)為1。同時通過一維平均池化層逐漸降低腦電信號的采樣率,使輸入為1 024 維度的單通道EEG 經(jīng)過卷積神經(jīng)網(wǎng)絡(luò)特征提取后依然保持輸出維度為1 024。
判別器網(wǎng)絡(luò)采用一個核心的神經(jīng)網(wǎng)絡(luò)層堆疊而成,判別器網(wǎng)絡(luò)參考了生成器網(wǎng)絡(luò)的設(shè)計,但每個神經(jīng)網(wǎng)絡(luò)塊(Block)包含一輪一維卷積、歸一化、LeakyRelu 線性激活層和池化處理過程。判別器網(wǎng)絡(luò)模型架構(gòu)如圖3 所示。本文在設(shè)計判別器時考慮到生成器和判別器之間的對抗過程,因此兩者訓(xùn)練時的學(xué)習(xí)速度應(yīng)該相當。如果判別器能力太強,會導(dǎo)致生成器無法繼續(xù)學(xué)習(xí);如果判別器能力太弱,會導(dǎo)致生成器最終的生成效果差。由于判別器的判別任務(wù)與生成器的生成任務(wù)相比更加簡單,所以在設(shè)計判別器模型時減少了模型卷積核的相關(guān)網(wǎng)絡(luò)參數(shù)。卷積核參數(shù)如表2 所示。卷積核大小為1*3,步長為1,填充為1,卷積核個數(shù)分別是(16、32、64、128 和64),再通過一維平均池化層,最后平展維度為2 048,連接一維的輸出層。輸出層使用Sigmoid 函數(shù),使分布符合0~1(3.3節(jié)將作解釋)。
Fig.2 Generator model圖2 生成器模型
Table 1 Kernel parameters of generator convolution表1 生成器卷積核參數(shù)
Fig.3 Discriminator model圖3 判別器模型
Table 2 Parameters of discriminator convolution kernel表2 判別器卷積核參數(shù)
模型損失函數(shù)計算流程如圖4所示。
模型有兩個損失函數(shù)。第一個損失函數(shù)是判別器的損失函數(shù),具體計算過程如下:含有噪聲的EEG 數(shù)據(jù)(S)被輸入到生成器,生成器的輸出G(S)可以是經(jīng)過去噪后的數(shù)據(jù),也可以是仍含有噪聲的數(shù)據(jù)。G(S)和與之對應(yīng)的干凈的EEG(Y)會被輸入到判別器中,其目的是使判別器具有對噪聲EEG 和干凈EEG 進行分類的能力。Y 和G(S)被輸入到判別器后,D(Y)和D(G(S))分別為判別器對應(yīng)的輸出,其可以反映生成器輸出的EEG 數(shù)據(jù)是否干凈。判別器可以看作是一個二元分類器,判別器的損失函數(shù)如式(2)所示。該式取決于D(Y)和D(G(S)),損失值越小,判別器辨別噪聲數(shù)據(jù)的能力越強。如果判別器的輸出值接近1,則數(shù)據(jù)是相對干凈的,否則判別器會認為數(shù)據(jù)相對含有噪聲。
另一個損失函數(shù)是生成器的損失函數(shù),具體計算過程如下:G(S)被輸入到判別器后,判別器輸出D(G(S)),在傳統(tǒng)的GAN 網(wǎng)絡(luò)中,生成器的損失函數(shù)由式(3)所決定,其大小取決于D(G(S))的輸出值。但為了使樣本S 在除噪聲后與干凈的Y 更擬合,同時盡可能保留原始信息,這里引入一個新的損失函數(shù),計算方式如式(4)所示。生成器的損失函數(shù)不僅由D(G(S))決定,而且由G(S)和Y 的均方誤差(MSE)決定。
在與判別器博弈的過程中,生成器的損失函數(shù)將逐漸趨近平衡。判別器損失函數(shù)的數(shù)值逐漸下降,則說明生成器的輸出與真實樣本更逼近。模型訓(xùn)練時,在式(4)中,設(shè)α為0.5,β為0.5。
實驗中使用的數(shù)據(jù)集是用于深度學(xué)習(xí)去噪研究的開源基準數(shù)據(jù)集EEGdenoiseNet,該數(shù)據(jù)集包含4 514 個干凈的單通道EEG 片段(EEG 片段長度為1 024)、3 400 個眼部偽影片段和5 598個肌肉偽影片段[14]。樣本片段的電位和功率譜密度情況如圖5所示。
對于EEG 片段,數(shù)據(jù)集包括52 名參與者執(zhí)行真實與假想的左手和右手運動任務(wù),在512 Hz 采樣頻率下同時記錄的64 通道EEG。為了獲得干凈的EEG,64 通道的EEG信號通過ICLabel 工具去除EEG 偽影,然后將純腦電信號分割成2 s 的一維段。為了確保該數(shù)據(jù)集的通用性,EEGdenoiseNet構(gòu)造了具有單通道腦電信號的數(shù)據(jù)集。
Fig.5 Fragments of experimental samples圖5 樣本片段
對于眼偽影段(EOG),EEGdenoiseNet 使用了具有額外EOG 通道的多個開放存取的EEG 數(shù)據(jù)集,EOG 信號被分割成2 s 的一維段。對于肌源性偽影段(EMG),使用的是面部肌電數(shù)據(jù)集。選擇面部肌電圖是因為其是肌源性偽影的主要來源,原始肌電信號經(jīng)過帶通濾波,將肌電信號以512 Hz的頻率重新采樣,得到了一段2s的肌電片段。
本文使用EEGdenoiseNet 的數(shù)據(jù)生成干凈的腦電信號和噪聲腦電信號,用于訓(xùn)練和測試本文所設(shè)計的神經(jīng)網(wǎng)絡(luò)模型。對EEGdenoiseNet 的具體處理方式如下:4 514 個EEG 和5 598 個EMG 記錄被用來模擬帶有肌源性偽影的噪聲EEG,由于EMG 片段多于EEG 片段,本文參考文獻[14]的基準網(wǎng)絡(luò)實驗隨機重復(fù)使用一些EEG 片段和剩余未使用的EMG 片段混合,產(chǎn)生新的含EMG 噪聲的EEG,從而擴充數(shù)據(jù)樣本,但又保持輸入到模型的樣本的差異性。將EEG 數(shù)量增加到5 598 個,獲得了5 598 對EEG 和肌源性偽影,同時將5 598對數(shù)據(jù)隨機打亂。
采用從-7~2dB 的10 個不同的信噪比(SNR),計算方式如式(5)所示。其中,x 為真實EEG 信號,n 為肌源性噪聲或眼緣性噪聲。在式(6)中,y表示EEG 和肌源性的混合信號,x 表示原始干凈的EEG 信號。通過式(6)的線性混合,將4 478 對EEG 和肌源性偽影(EMG)數(shù)據(jù)隨機組合10次,至此數(shù)據(jù)被擴充10 倍。均方根(RMS)值定義如式(7)所示,其中g(shù)i代表腦電信號每一時刻的電位。
在模型訓(xùn)練和驗證過程中,80%的數(shù)據(jù)用于訓(xùn)練,20%的數(shù)據(jù)用于驗證。包含肌源性噪聲的腦電信號和原始腦電信號對比數(shù)據(jù)樣本如圖6(a)所示。同理,將3 400個EEG 片段和3 400 個EOG 片段利用-7~2dB 信噪比使用式(6)的線性混合,將包含眼部偽影的EEG 數(shù)據(jù)擴充了10倍。其中,80%的數(shù)據(jù)用于訓(xùn)練,20%的數(shù)據(jù)用于驗證。包含眼源性噪聲的腦電信號和原始腦電信號對比數(shù)據(jù)樣本如圖6(b)所示。
Fig.6 Comparison between EEG and noise EEG圖6 原始EEG與包含噪聲的EEG對比
在輸入到模型之前,為了使神經(jīng)網(wǎng)絡(luò)在EEG 大范圍的電位振幅下仍具有很好的泛化性,通過式(8)將EEG 信號除以其標準偏差作歸一化操作。其中,x為真實EEG 信號,y 為噪聲EEG 信號,對x 和y 分別進行歸一化處理。將歸一化的污染腦電片段輸入到模型的生成器,然后輸出去噪后的腦電片段。將去噪后的腦電片段乘以干凈EEG 的標準偏差即可進行數(shù)據(jù)復(fù)原。
本實驗借助深度學(xué)習(xí)軟件PyTorch 框架實現(xiàn)GAN-1D-CNN 模型,使用NVIDIA Tesla V100 GPU 進行模型訓(xùn)練,并在Python3.7 軟件環(huán)境下進行實驗。數(shù)據(jù)輸入批次大小為64,迭代次數(shù)為25 次,模型優(yōu)化器采用 Adam 優(yōu)化器,優(yōu)化器梯度以及梯度平方的運行平均值系數(shù)分別設(shè)為0.5 和0.999。本文經(jīng)過多次測試,當生成器的初始學(xué)習(xí)率為 2×10-4、判別器的初始學(xué)習(xí)率為3×10-5時,模型經(jīng)過多次博弈訓(xùn)練,會實現(xiàn)一個相對平衡且比較好的去噪效果。為了供讀者復(fù)現(xiàn)參考,模型基礎(chǔ)代碼已經(jīng)開源:https://github.com/wendou-wd/Denoise-EEG/tree/master。
為了將GAN-1D-CNN 與在EEGdenoiseNet 上研究的其他模型性能進行比較,本文對去噪后的數(shù)據(jù)采用3 個相同的性能評估指標[27],分別是時域相對均方根誤差RRMSEtemporal(簡寫為RRMSET)、光譜域相對均方根誤差RRMSEspectral(簡寫為RRMSES)和平均相關(guān)系數(shù)CC。在式(9)-式(11)中,變量y 代表含有噪聲的EEG 信號,變量x 表示y未加入噪聲源之前的初始EEG 信號,f(y)表示經(jīng)過GAN 網(wǎng)絡(luò)去噪后的EEG 信號,PSD 是指對腦電信號進行功率譜密度計算,Cov 函數(shù)用于計算兩個變量f(y)與x 之間的協(xié)方差,Var函數(shù)用于計算樣本方差。
在以上3 項評估指標中,RRMSET 和RRMSES 值越小,代表去噪后的樣本與原始樣本更接近;CC 值越大,則代表去噪后的樣本與原始樣本相關(guān)系數(shù)高。
在去除肌源性噪聲的模型訓(xùn)練中,模型迭代訓(xùn)練25次。在訓(xùn)練集上,判別器的損失函數(shù)值如圖7(a)所示(彩圖掃OSID 碼可見,下同),生成器的損失函數(shù)值如圖7(b)所示,去噪后的EEG 和與之對應(yīng)的干凈EEG 均方誤差(MSE)如圖7(c)所示。在圖7(a)中,隨著模型訓(xùn)練輪次的增加,判別器的損失值不斷降低,顯示判別器的判別能力不斷增強;在圖7(b)中,生成器的損失函數(shù)值不斷趨近穩(wěn)定,這里損失值變大是因為生成器對判別器的欺騙能力越來越強;在圖7(c)中,EEG 和與之對應(yīng)的干凈EEG 的均方誤差代表去噪后的EEG 信號與原始信號的誤差不斷降低。在測試集上,每次模型迭代后的時域相對均方根誤差、光譜域均方根誤差、相關(guān)系數(shù)變化過程如圖7(d)所示。隨著模型迭代次數(shù)的增加,在測試集上的RRMSET 和RRMSES值逐漸降低,相關(guān)系數(shù)(CC)增大,模型的去噪效果逐漸變好。
Fig.7 Changes in loss values of the model on the training set and its denoising effect on the myogenic noise test set圖7 模型在訓(xùn)練集上的損失值變化和在肌源性噪聲測試集上的去噪效果
同理,在眼源性噪聲去噪過程中的模型損失函數(shù)值和性能結(jié)果如圖8 所示。由于眼源性噪聲頻率與EEG 信號頻率接近,眼源性去噪相比肌源性去噪更加困難。在圖8(c)和8(d)中可以看到,曲線變化并沒有圖7(c)和7(d)平穩(wěn)。
Fig.8 Changes in the loss values of the model on the training set and its denoising effect on the eye source noise test set圖8 模型在訓(xùn)練集上的損失值變化和在眼源性噪聲測試集上的去噪效果
訓(xùn)練好的模型對不同信噪比(SNR)的EEG 測試集數(shù)據(jù)有不同的去噪效果,實驗過程中設(shè)置EEG 信噪比(SNR)的范圍為-7~2。模型的去噪表現(xiàn)評估指標RRMSET、RRMSES、CC 分別如圖9-圖11所示,每個圖都有6條折線,分別展示了模型在不同信噪比和不同噪聲源下的平均去噪性能、最好情況下的去噪性能及最壞情況下的去噪性能。
Fig.9 RRMSET performance of the model under EEG with different signal-to-noise ratios圖9 模型在不同信噪比EEG下的時域相對均方根誤差表現(xiàn)
在圖9 中,左側(cè)的3 條折線分別代表模型肌源性去噪的RRMSET 值,右側(cè)的3 條折線則代表模型眼源性去噪的RRMSET 值。在SNR 增大的過程中,去噪效果呈現(xiàn)越來越好的趨勢。在圖10 中,左側(cè)的3 條折線分別代表模型肌源性去噪的RRMSES 值,右側(cè)的3 條折線則代表模型眼源性去噪的RRMSES 值。在SNR 增大的過程中,去噪效果呈現(xiàn)趨勢與圖9 類似。圖11 展現(xiàn)了模型去噪后的EEG 和原始未加入噪聲的EEG 在不同SNR 下的相關(guān)系數(shù)值,隨著SNR的增大,在SNR=1 附近時,所有曲線趨于平穩(wěn),模型的去噪效果達到最佳。而且左側(cè)肌源性去噪曲線相比眼源性去噪曲線在SNR=1 附近的收斂效果更好,說明模型在肌源性去噪上的表現(xiàn)優(yōu)于在眼源性去噪上的表現(xiàn)。
Fig.10 RRMSES performance of the model under EEG with different signal-to-noise ratios圖10 模型在不同信噪比EEG下光譜域相對均方根誤差表現(xiàn)
Fig.11 CC performance of the model under EEG with different signal-to-noise ratios圖11 模型在不同信噪比EEG下相關(guān)系數(shù)表現(xiàn)
已有的研究方法包含自適應(yīng)濾波(Adaptive Filter)[11]和希爾伯特—黃變換(HHT)[12]、經(jīng)驗?zāi)B(tài)分解(EMD)[13]、Deep Separator[21]、EEGD Net[19]、GAN-LSTM[20]、Novel CNN[18]等,并且以上提到的模型都是基于EEGdenoiseNet數(shù)據(jù)集的性能不錯且最新的EEG 去噪方法。本文將GAN-1D-CNN 模型與以上幾種方法的去噪性能進行了比較,評估指標包括時域相對均方根誤差(RRMSET)、光譜域相對均方根誤差(RRMSES)和相關(guān)系數(shù)(CC)。由于GAN-LSTM[20]未明確給出RRMSET 和RRMSES 的值,參考相關(guān)文獻模型數(shù)據(jù),最終肌源性去噪性能實驗結(jié)果比較如圖12、圖13所示。
圖12 以直方圖形式描述不同方法的RRMSES、RRMSET 差異,表明 GAN-1D-CNN 不管是在相對均方根誤差(RRMSET)還是在光譜域均方根誤差(RRMSET)上,模型在腦電信號上的去噪性能均有一定程度的提升,整體實驗在肌源性去噪上的平均相對均方根誤差達到0.292,平均光譜域均方根誤差則達到0.268。
如圖13 所示,GAN-1D-CNN 模型的平均相關(guān)系數(shù)達到0.945。本文選取GAN-LSTM[20]在SNR 為-2 時最好的平均相關(guān)系數(shù)為0.65,GAN-1D-CNN 模型的效果遠遠優(yōu)于GAN-LSTM[20],說明改進模型能有效提高去噪性能。
Fig.12 Comparison of RRMSES and RRMSET in myogenic artifact removal圖12 肌源性去噪RRMSES、RRMSET比較
Fig.13 Comparison of CC in myogenic artifact removal圖13 肌源性去噪相關(guān)系數(shù)(CC)比較
眼源性去噪效果比較如表3 所示,在眼源性去噪上,GAN-1D-CNN 模型去噪效果的時域平均相對均方根誤差達到0.416,平均光譜域均方根誤差則達到0.397,平均相關(guān)系數(shù)達到了0.894。與肌源性去噪相比,其眼源性去噪性能稍差,這與噪聲的頻率混合程度有很大關(guān)系。綜上,改進的GAN 模型與其他模型和方法相比,不僅在肌源性去噪性能上得到了提升,在眼源性去噪上的表現(xiàn)也相對優(yōu)異。
Table 3 Average performances comparison in ocular artifact removal表3 眼源性去噪平均性能比較
在腦電波去噪領(lǐng)域已經(jīng)有了許多相關(guān)研究,但在去除腦電波生理噪聲方面,自適應(yīng)濾波器、空間濾波和主成分分析等方法還不能解決先前假設(shè)的局限性和去噪后腦電信號可能存在丟失的問題。如今,深度學(xué)習(xí)技術(shù)在去噪領(lǐng)域已經(jīng)嶄露頭角,但目前在腦電波去噪領(lǐng)域還是一個新興的方法。準確去除腦電波中的眼部噪聲和肌肉噪聲是一項困難的任務(wù)。本文利用改進的GAN 網(wǎng)絡(luò)對腦電波進行去噪研究,模型以卷積神經(jīng)網(wǎng)絡(luò)為基礎(chǔ),優(yōu)化了GAN 網(wǎng)絡(luò)中的生成器和判別器,同時在生成器中引入新的損失函數(shù)。實驗結(jié)果表明,改進的GAN 模型對腦電波的去噪能力得到了增強,模型的相關(guān)性能指標都優(yōu)于目前現(xiàn)有的基準數(shù)據(jù)集[14]上的去噪方法。然而,模型也有一定的局限性,例如基準訓(xùn)練數(shù)據(jù)集的體量對于復(fù)雜多變的腦電波信號來說還相對較少。但值得注意的是,GAN-1D-CNN 的模型架構(gòu)是一種通用模型架構(gòu),該模型架構(gòu)也可應(yīng)用于其他一維信號的去噪處理,給其他領(lǐng)域的電信號去噪問題提供了解決方案。