亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度卷積神經(jīng)網(wǎng)絡(luò)的心音分類算法

        2021-08-23 09:02:22孟麗楠謝紅薇
        計算機測量與控制 2021年8期
        關(guān)鍵詞:心音梅爾卷積

        孟麗楠,謝紅薇,寧 晨,付 陽

        (太原理工大學 軟件學院,山西 晉中 030600)

        0 引言

        根據(jù)國家心血管疾病中心發(fā)布的《中國心血管疾病報告2018》,心血管疾病患病人數(shù)達2.9億,且仍處于持續(xù)上升階段[1]。心音作為反應(yīng)人體心臟活動及心血管功能的一種體征信號[2],可以通過心音聽診被專家評估,進而得到心血管疾病的病理信息。另外,心音信號所包含的一部分信息是心電圖所不能體現(xiàn)的[3]。因此,心音信號分類是心血管疾病計算機輔助診斷研究和應(yīng)用的關(guān)鍵技術(shù)。

        傳統(tǒng)的心音分類方法包含心音分割、特征提取和分類器設(shè)計3個步驟。在心音分割中,一般會將心音分割成基本心音[4],即第一心音、第二心音、收縮期和舒張期的聲音。在特征提取過程中,大多數(shù)研究者提取基于時間[5]、基于頻率[6]或基于時頻[7-8]的心音特征,作為后續(xù)分類器的輸入。在分類階段,選擇支持向量機[8-9]、K近鄰算法[10]或決策樹[11]等分類器對提取的特征進行分類。傳統(tǒng)心音分類方法過程簡單、可解釋性強,但其也存在一些不足:在心音分割階段大多需要參考同時期心電圖;手工提取特征不夠全面、耗時長;分類器的分類效果嚴重依賴于分割的準確性和特征選取的有效性。

        近年來,卷積神經(jīng)網(wǎng)絡(luò)(CNN,convolutional neural network)以其強大特征提取能力在圖像識別[12]、聲音識別[13]等領(lǐng)域被廣泛應(yīng)用。于是,近幾年很多學者提出了基于CNN的心音分類算法。對于CNN模型而言,多數(shù)采用淺層網(wǎng)絡(luò)模型[14~18]或者混合模型[19-20]。對于CNN模型的輸入而言,可選擇心音信號的梅爾頻譜系數(shù)[14-15]( MFSC,Mel frequency spectral coefficients)、梅爾頻率倒譜系數(shù)[16]( MFCC,Mel-frequency cepstral coefficients)、功率譜密度圖[17-18](PSD,power spectral density)或一維波形信號[21]等。Vykintas[14]和譚朝文[15]都將心音的MFSC以及一階差分和二階差分組織成心音的三通道特征圖分別作為6層和5層CNN的輸入,不同之處在于譚朝文[15]需參考心電信號。Rubin[16]等人首先將心音分割成基本心音,進而提取基本心音的MFCC,然后利用4層CNN進行分類。Nilanon[17]和許春冬[18]提取心音的PSD,分別輸入4層和5層的CNN進行訓練與分類。Potes[19]等人設(shè)計了AdaBoost和CNN結(jié)合的集成分類器,但其分類器的輸入特征依賴于對基本心音的精確分割;李偉等人[20]將6層CNN和3層循環(huán)神經(jīng)網(wǎng)絡(luò)相結(jié)合,分別提取心音的頻域和時域特征進行分類。Bin[21]等人僅僅利用了心音的一維時序特征,而其CNN深達19層,達到了目前最好的分類效果。

        盡管近幾年提出了一些基于CNN的心音分類方法,但是這些方法不同程度地存在以下三方面不足:1)大多心音分類算法往往依賴于對基本心音的精確分割,過程繁瑣,必然影響分類性能;2)由于分類模型結(jié)構(gòu)單一,未能充分挖掘和提取心音信號特征,導致分類性能仍有待提高。3)心音分類算法往往在小樣本中進行訓練分類,其普適性無法得到有效驗證。

        針對以上不足,提出的大量未經(jīng)過精確分割的心音二維特征圖訓練深度CNN模型的方法,消除了基本心音分割步驟產(chǎn)生的誤差,同時可以顯著提高分類模型的分類性能和普適性。該方法首先通過滑動窗口方法獲取大量心音樣本,再采用MFSC算法生成心音的二維特征圖,最后利用深度CNN模型進行訓練和測試。在深度CNN模型的設(shè)計中,根據(jù)卷積層間連接方式的不同,設(shè)計了3種深度CNN模型:基于單一連接的卷積神經(jīng)網(wǎng)絡(luò)(SingleCNN, convolutional neural network based on single connection)、基于跳躍連接的卷積神經(jīng)網(wǎng)絡(luò)(SkipCNN,convolutional neural network based on skip connection)、基于密集連接的卷積神經(jīng)網(wǎng)絡(luò)(DenseCNN,convolutional neural network based on dense connection)。實驗中,分別使用Challenge 2016的29 384個和CHSC數(shù)據(jù)集的6 628個心音樣本作為3種深度CNN模型訓練和測試數(shù)據(jù),實驗表明DenseCNN作為心音信號分類的深度CNN模型是最有潛力的。與目前已有的分類算法進行了分析比較,結(jié)果顯示本文提出的心音分類算法不依賴于心音精確分割,且在分類準確率、敏感性和特異性方面均有優(yōu)勢。

        1 數(shù)據(jù)預處理

        1.1 滑動窗口方法

        原始心音數(shù)據(jù)通常是一組不固定長度的時間序列,而深度CNN模型的輸入往往需要固定大小的樣本輸入,因此,將原始心音信號分割為固定的心音片段是非常有必要的。目前大多數(shù)心音分類算法選擇將心音分割成基本心音,再進行特征提取和分類,這樣做的弊端在于過程繁瑣且特征提取和分類嚴重依賴于對基本心音的精準分割。本文采用滑動窗口的方法對原始數(shù)據(jù)進行截取,避免了基本心音分割帶來的不確定性,同時也可以擴增樣本數(shù)據(jù)量,為大量樣本訓練深度CNN模型奠定了基礎(chǔ)。

        滑動窗口方法是指對一段長度為n-1的時間序列X={x[0],x[1],...,x[n-1]}借助窗口長度為c的滑動窗口被分割為多個長度為c的子時間序列Y={x[i],x[i+1],...,x[c+i-1]}?;瑒哟翱谧蠖藦钠鹗键cx[0]開始,在時間方向上以步長為s的步幅向后迭代,直到到達整個時間序列T的末尾,序列末尾不足滑動窗口長度的舍棄。最終可以得到((n-1-c)/s+1)個子序列。

        圖1展示了采用滑動窗口方法處理原始心音信號的過程。本文中一段原始心音信號即為時間序列X,采用滑動窗口方法處理后得到心音子序列Y作為后續(xù)步驟的樣本數(shù)據(jù)?;瑒哟翱诘拈L度c為數(shù)據(jù)集中最短的時間序列X的長度,步幅s小于c。

        1.2 MFSC

        MFSC可以將心音的一維時序信號轉(zhuǎn)換為二維特征圖,便于深度CNN模型的特征提取和分類。MFSC是去除了離散余弦變換步驟的MFCC。MFCC特征提取成功應(yīng)用于語音識別[22]、聲紋識別[23]以及各種語音模式識別[24]任務(wù)中。然而,譚朝文等人[25]指出:MFSC相比較MFCC光譜能量能保持局部特性,MFSC具有高度相關(guān),在頻譜上較為平滑,少量的MFSC特征即可代表絕大部分信號的信息,而且Maknickas等人[14]也表明MFSC比MFCC在心音表征特征方面更具有優(yōu)越性,故本文選用MFSC作為深度CNN模型的輸入樣本。

        MFSC包括以下步驟:預加重、分幀加窗、快速傅里葉變換、功率譜計算、梅爾濾波、對數(shù)能量計算。

        1.2.1 預加重

        語音信號處理中,預加重是將語音信號通過一個高通濾波器,以達到補償高頻分量,放大高頻共振峰的目的。預加重信號的計算方式如式(1):

        x'(n)=x(n)-?x(n-1)

        (1)

        其中:x(n)為原始信號,x'(n)為預加重后信號,n為離散時間點,?為預加重因子,一般取0.9~1.0。

        1.2.2 分幀、加窗

        心音信號是一種短時非平穩(wěn)信號,研究起來困難,分幀可以使信號近似為平穩(wěn)信號。加窗可以防止信號相鄰兩幀之間變化過大,使得相鄰兩幀有重疊部分,克服頻譜泄露現(xiàn)象[15]。分幀后,心音信號的幀數(shù)Z的計算公式為式(2):

        (2)

        其中:c為截取的心音子序列時間長度,F(xiàn)l為幀長,F(xiàn)m為幀移,fs為采樣頻率。Fl通常取10~30 ms信號所包含的點數(shù),F(xiàn)m通常為0.5倍的Fl。

        1.2.3 快速傅里葉變換與功率譜計算

        利用快速傅里葉變換將信號從時域轉(zhuǎn)換到頻域是信號處理的一般方法。對心音的時域信號x’(n)進行快速傅里葉變換,可獲得心音信號的頻譜特征X(k),計算公式為式(3):

        (3)

        其中:N為每幀心音信號所包含的點數(shù)。在此基礎(chǔ)上計算每幀信號的功率譜P(k),計算公式為式(4):

        (4)

        1.2.4 梅爾濾波與對數(shù)能量計算

        梅爾濾波與對數(shù)能量計算過程可以使得聲音信號更符合人類的聽覺系統(tǒng),有助于心音分類。每幀心音信號的功率譜經(jīng)過梅爾濾波器組,并計算每幀信號在每個通道上的對數(shù)能量E(m),計算方法如式(5)。梅爾濾波器的個數(shù)M通常取20~26。

        (5)

        其中:Hm(k)表示第m個濾波器第k條譜線對應(yīng)的強度。

        每幀信號通過一組梅爾濾波器即可得到該幀信號的一組梅爾系數(shù),每組梅爾系數(shù)以每幀信號所指向的時間為序進行排列,可得到梅爾系數(shù)矩陣,即心音信號經(jīng)過MFSC算法后,從一維變換到二維,每幀信號包含頻率信息,而每幀之間以時間為序,因而MFSC特征圖包含頻域和時域信息。

        如圖2,心音子序列Y經(jīng)過MFSC算法后轉(zhuǎn)換為M×Z特征圖,特征圖的橫軸方向表示心音信號時間域方向的幀數(shù),縱軸方向表示第一個到第M個梅爾濾波器對應(yīng)的頻率通道。

        2 深度CNN模型

        本文提出的用于心音分類的深度CNN模型的總體架構(gòu)如圖3所示。主要由普通卷積層(Conv_1, Conv_2, Conv_3)、復合卷積層(Com_1, Com_2, Com_3)、池化層(Pool_1, Pool_2)、全局池化層(GlobPool_1, GlobPool_2, GlobPool_3)和全連接層(FC)組成。

        第一個普通卷積層Conv_1用64個3×3卷積核和修正線性單元(Rectified Linear Unit, ReLU)提取了心音信號特征圖X0的64個特征組成X1_C,為后續(xù)網(wǎng)絡(luò)層提取心音特征奠定了基礎(chǔ)。池化層Pool_1和Pool_2之前的卷積層Conv_2和Conv_3包含1×1卷積核和ReLU函數(shù),增加了網(wǎng)絡(luò)的非線性,使得本文深度CNN模型可以表達更加復雜的心音信號特征。復合卷積層Com_1和Com_2的輸出特征圖X1_M和X2_M在網(wǎng)絡(luò)中有兩種流向,一種是流入下一個普通卷積層,另一種是與當前復合卷積層的輸入特征圖X1_C在通道方向進行連接,作為全局池化層GlobPool_1和GlobPool_2的輸入特征圖XCM_1和XCM_2。Com_3的輸出特征圖僅有第二種流向。池化層的作用在于對前一層的輸出特征圖進行簡化,達到縮減特征圖尺度的目的。全連接層FC將經(jīng)3個全局池化層壓縮后的心音特征進行融合,并用softmax分類。

        其中,復合卷積層是本文重點探索和研究的模塊。在CNN發(fā)展過程中,卷積層之間經(jīng)典的連接方式有單一連接[26]、跳躍連接[27]以及密集連接[28]。在此基礎(chǔ)上,設(shè)計了3種復合卷積層單元結(jié)構(gòu)分別構(gòu)建3種深度CNN分類模型,期望找到最優(yōu)的用于心音分類的深度CNN模型。

        2.1 基于單一連接的復合卷積層

        單一連接,即CNN的第l層的輸出特征圖作為第l+1層的輸入特征圖[26],可以用式(6)表示:

        Xl+1=Hl+1(Xl)

        (6)

        其中:Xl表示卷積神經(jīng)網(wǎng)絡(luò)第l層的輸出,Xl+1表示第l+1層的輸出,Hl+1表示第l+1層的非線性變換函數(shù)。以5個卷積層為例,其結(jié)構(gòu)如圖4所示。此結(jié)構(gòu)中,特征信息流從低層逐層流入高層。

        2.2 基于跳躍連接的復合卷積層

        跳躍連接最早出現(xiàn)在ResNet[27]中,表示當前卷積層的輸入特征圖來源于前兩層輸出特征圖的疊加和。卷積層之間的關(guān)系可用式(7)表示:

        Xl=Hl(Xl-1)+Xl-1

        (7)

        圖5展示了基于跳躍連接的復合卷積層。此結(jié)構(gòu)中,梯度信息可以直接通過恒等映射Xl-1從上層傳輸?shù)胶髮泳W(wǎng)絡(luò)[27],優(yōu)點是網(wǎng)絡(luò)層次很深時,減少了連續(xù)求導運算導致的梯度消失。

        2.3 基于密集連接的復合卷積層

        密集連接在DenseNet[28]中首次提出,其利用特征重用的方式加強卷積層間有效信息的流動。此結(jié)構(gòu)中,任意卷積層均和其后的所有層建立直接連接,即網(wǎng)絡(luò)中第l層的輸入特征圖來自其前面所有層的輸出特征圖。其卷積層間的關(guān)系可用式(8)表示:

        Xl=Hl([X0,X1,X2,···,Xl-1])

        (8)

        其中:[X0,X1, …,Xl-1]指第0、…、l-1層的輸出特征圖在通道方向直接連接。圖6展示了密集連接結(jié)構(gòu)。此結(jié)構(gòu)可以使輸出層獲得之前所有網(wǎng)絡(luò)層的信息,增大了特征圖信息的利用率。

        3種復合卷積層的每層網(wǎng)絡(luò)均包含批歸一化(BN,batch normalization)、ReLU、卷積(Convolution, Conv)和Dropout操作。用上述3種復合卷積層構(gòu)建本文心音分類的深度CNN模型的總體架構(gòu)中的復合卷積層Com_1、Com_2和Com_3,便得到了本文的3個候選的深度CNN模型:SingleCNN、SkipCNN和DenseCNN。

        3 實驗結(jié)果與分析

        3.1 數(shù)據(jù)準備及預處理

        3.1.1 Challenge 2016數(shù)據(jù)集

        實驗中使用的第一個心音數(shù)據(jù)集來自PhysioNet/CinC Challenge 2016數(shù)據(jù)庫[29]。該數(shù)據(jù)庫由來自不同研究小組的9個子數(shù)據(jù)庫組成,均來自健康的和患有各種心臟疾病的受試者,總共包含3 240段心音錄音。這些錄音是通過各種型號的電子聽診器所采集的,長度從4~120 s不等,采樣頻率為2 kHz。

        在Challenge2016的數(shù)據(jù)集上,采用滑動窗口方法處理處理數(shù)據(jù)時,窗長c為4 s,步幅s為1 s,最終得到61 624個心音子序列,包括14 692個負類子序列和46 932個正類子序列。其中,正類子序列表示正常心音信號,負類子序列表示異常心音信號。為得到正負類子序列平衡的數(shù)據(jù)樣本集,本文隨機舍棄了多于負類子序列的正類子序列,最終得到14 692個正類子序列和14 692個負類子序列。

        將心音子序列轉(zhuǎn)換為MFSC特征圖時,選擇Fl為40點,F(xiàn)m為20點,梅爾濾波器個數(shù)為26,故可得到尺寸為399×26×1的MFSC特征圖。

        3.1.2 CHSC數(shù)據(jù)集

        實驗中使用的第二個數(shù)據(jù)集來自心音分類挑戰(zhàn)賽(CHSC,classifying heart sounds challenge)。該數(shù)據(jù)集有兩大類:第一類是通過iStethoscope Pro iPhone應(yīng)用程序從大眾人群獲得,采樣頻率為44.1 kHz;第二類使用數(shù)字聽診器從醫(yī)院聽診試驗中收集,采樣頻率為4 kHz。整個數(shù)據(jù)集包含585條1~30 s不等的心音錄音。使用窗長c為1 s、步幅s為0.5 s的滑動窗口對原始心音信號進行截取,然后平衡正負類子序列數(shù)量,得到6 628個心音子序列。

        將心音子序列轉(zhuǎn)換為MFSC特征圖時,第一類數(shù)據(jù)樣本選擇Fl為882點,F(xiàn)m為441點;第二類數(shù)據(jù)樣本選擇Fl為80點,F(xiàn)m為40點,梅爾濾波器個數(shù)為均為26,故可得到尺寸為99×26×1的MFSC特征圖。

        對兩個數(shù)據(jù)集的MFSC特征圖均按照4∶1劃分訓練集和測試集,并作為本文深度CNN模型的輸入數(shù)據(jù)。

        3.2 實驗環(huán)境設(shè)置和網(wǎng)絡(luò)參數(shù)配置

        1)軟件環(huán)境。本文實驗在python2.7環(huán)境下完成。MFSC特征提取用到python_speech_features依賴包,卷積神經(jīng)網(wǎng)絡(luò)主要用到tensorflow-gpu 1.14.0。

        2)硬件環(huán)境。所有訓練和測試都是在服務(wù)器中完成,處理器Intel(R) Xeon(R) Silver 4210 CPU@2.2 Hz,內(nèi)存128 G,顯卡GeForce RTX 2080 Ti 10 GiB。

        3)網(wǎng)絡(luò)參數(shù)配置:本文CNN模型的初始學習率為0.1;總迭代次數(shù)為100次,隨著迭代次數(shù)增加,學習率會隨之動態(tài)變化(總迭代次數(shù)的三分之一和四分之三時降為原來的0.1倍);使用帶有動量的隨機梯度下降算法訓練和優(yōu)化模型,動量為0.9,權(quán)重衰減為10-4,Dropout率為0.5。

        3.3 實驗結(jié)果與分析

        本文性能評估中,主要使用準確率(Acc,accuracy)、敏感性(Sen,sensitivity)、特異性(Spe,specificity)和損失值(loss)4種評價指標對不同深度CNN模型的表現(xiàn)性能進行評價,計算方式如式(9)~(12):

        (9)

        (10)

        (11)

        其中:TP、TN、FP和FN為二分類問題中所有可能的預測結(jié)果,分別表示正樣本被預測為正類、負樣本被預測為負類、負樣本被預測為正類和正樣本被預測為負類。

        (12)

        3.3.1 本文3種深度CNN模型的比較

        表1是3種已優(yōu)化CNN模型的網(wǎng)絡(luò)架構(gòu)參數(shù)配置,表中nblock表示復合卷積層個數(shù)、nFilter表示每個復合卷積層內(nèi)每層卷積層過濾器個數(shù)、nLayer表示每個復合卷積層內(nèi)卷積層個數(shù)、totalLayer表示網(wǎng)絡(luò)總層數(shù)。

        表1 本文模型架構(gòu)參數(shù)配置

        圖7展示了3種CNN模型在訓練過程中Acc和Loss在Challenge2016訓練集和測試集上的變化趨勢。

        3種模型在整個訓練過程中均迭代100次,在第33次迭代之前,3種模型在訓練集上Acc迅速上升、Loss迅速下降,其原因在于初始學習率較大,可以讓模型快速趨于最優(yōu)狀態(tài),但是從測試集來看,Acc和Loss震蕩較嚴重,此時的模型并不是真的達到最優(yōu),而是陷入了局部最優(yōu)值。迭代33次以后,學習率自動調(diào)整為原來的0.1倍,模型在訓練集上進一步精細優(yōu)化,在測試集上表現(xiàn)出微小震蕩;到第75次迭代之后,模型在訓練集和測試集均達到穩(wěn)定收斂狀態(tài)。不同的是,DenseCNN從第一次迭代開始就表現(xiàn)出了自身挖掘和提取心音特征的優(yōu)勢,其分類效果在整個訓練過程中的Acc和Loss一直明顯優(yōu)于其余兩種CNN模型,SkipCNN的Acc和Loss僅次于DenseCNN。在DenseCNN和SkipCNN在測試集上趨于穩(wěn)定時,SingleCNN還存在微小震蕩,相比之下分類效果最差。

        表2展示了3種CNN模型在Challenge2016數(shù)據(jù)集上的Acc、Sen、Spe以及Loss。其中,DenseCNN的分類效果在3個模型中更為突出,擁有最高的Acc、Sen和Spe。DenseCNN比SingleCNN和SkipCNN在Acc方面分別高3.30%和2.49%,在Sen方面分別高1.44%和2.39%,在Spe方面分別高4.18%和1.77%;在Loss方面,DenseCNN的Loss僅為SingleCNN和SkipCNN的近0.5倍。SkipCNN的Acc和Spe均高于SingleCNN,Loss略低于SingleCNN的Loss,但是Sen不如SingleCNN。

        表2 各模型分類效果對比(Challenge2016數(shù)據(jù)集)

        表3展示了3種CNN模型在CHSC數(shù)據(jù)集上的分類結(jié)果。其中,DenseCNN模型的Acc、Sen和Spe均高于SingleCNN和SkipCNN模型,Loss也是3種模型中最小的。

        表3 各模型分類效果對比(CHSC數(shù)據(jù)集)

        結(jié)合3種CNN模型的架構(gòu)參數(shù)來分析,SingleCNN和SkipCNN達到最好的分類效果時網(wǎng)絡(luò)深度一樣,但是SkipCNN的表現(xiàn)略勝于SingleCNN,這是因為SkipCNN中的跳躍連接能夠在深層網(wǎng)絡(luò)中減少梯度消失,使得更多有效信息可以被網(wǎng)絡(luò)學習到。DenseCNN在達到最好的分類效果時,層數(shù)相較于SkipCNN和SingleCNN達到各自結(jié)構(gòu)下最好分類效果時的層數(shù)淺,但是其表現(xiàn)出了更好的分類效果。這是由于DenseCNN具有密集連接,采用此結(jié)構(gòu)可以實現(xiàn)心音特征的重用,使得網(wǎng)絡(luò)以更少的層數(shù)就能夠充分挖掘和提取更多的心音特征。故相比采用單一連接或跳躍連接結(jié)構(gòu)的CNN,采用密集連接結(jié)構(gòu)的CNN模型更有利于心音分類。

        3.3.2 本文方法與已有方法的比較

        本小節(jié)實驗分別在兩個數(shù)據(jù)集上與其他心音分類算法進行比較,以驗證本文算法的優(yōu)越性。

        表4比較了3種已有心音分類算法與本文的最優(yōu)算法,這3種心音分類算法所用數(shù)據(jù)集均為Challenge 2016。

        表4 本文算法與其他算法分類效果對比(Challenge2016數(shù)據(jù)集)

        從表中數(shù)據(jù)來看,本文心音分類算法在Acc、靈敏度和Spe方面都有優(yōu)勢。本文算法的Acc為98.22%,比MFSC-CNN[14]、AdaBoost-CNN[19]、1-D CNN[21]分別提高了8.12%、7.34%、4.12%;本文算法的Sen為98.45%,比MFSC-CNN[14]、AdaBoost-CNN[19]、1-D CNN[21]分別提高了9.12%、2.91%、10.4%;本文分類算法的Spe為97.18%,比MFSC-CNN[14]、AdaBoost-CNN[19]、1-D CNN[21]分別提高了5.42%、8.37%、1.96%。

        表5展示了3種心音分類算法與本文算法在CHSC數(shù)據(jù)集上的分類效果。本文的DenseCNN模型在Acc、Sen和Spe方面相比其他分類算法均有所提升。

        表5 本文算法與其他算法分類效果對比(CHSC數(shù)據(jù)集)

        在兩個數(shù)據(jù)集上均已驗證本文算法的有效性,分析其原因,文獻[14]所用算法同本文整體思路一致,都用了心音的MFSC特征圖和CNN模型,但在CNN方面,文獻[14]的CNN由兩個卷積層和3個全連接層堆疊而成,本文CNN模型層次更深、結(jié)構(gòu)更復雜,提取有鑒別性特征的能力更強。文獻[19]不僅需對基本心音信號的精準分割,還要提取基本心音的9個頻帶和MFCC特征,其分類效果嚴重依賴精確分割;而本文算法采用滑動窗口方法得到心音的固定片段,消除了基本心音分割不準確帶來的隱患,同時豐富了樣本多樣性,使得模型普適性和魯棒性更強。文獻[21]和本文提出的心音分類是從深度模型角度解決心音分類問題,但其模型輸入使用心音的一維時序信號,而本文使用的是兼具時域和頻域信息的二維MFSC特征圖,可以充分發(fā)揮深度CNN模型提取特征的能力。

        4 結(jié)束語

        針對現(xiàn)有的基于卷積神經(jīng)網(wǎng)絡(luò)的心音分類算法普適性差、依賴于對基本心音的精確分割、分類模型結(jié)構(gòu)單一的問題,本文提出采用大量未經(jīng)過精確分割的心音二維特征圖訓練深度卷積神經(jīng)網(wǎng)絡(luò)的方法用于心音分類。在數(shù)據(jù)預處理方面,通過滑動窗口方法獲取大量的心音樣本,又采用MFSC算法將心音的一維時序信號變換為兼具時域和頻域信息的二維特征圖,作為后續(xù)深度CNN模型的輸入。深度CNN模型方面,首先設(shè)計了分類模型總體架構(gòu)圖,然后利用3種不同的復合卷積層構(gòu)建模型細節(jié),得到3種深度CNN分類模型。實驗表明,基于密集連接的卷積網(wǎng)絡(luò)模型由于其特征重用的功能在心音分類任務(wù)中展示了明顯的優(yōu)勢;基于跳躍連接的卷積神經(jīng)網(wǎng)絡(luò)分類效果僅僅次于基于密集連接的卷積神經(jīng)網(wǎng)絡(luò),基于單一連接的卷積神經(jīng)網(wǎng)絡(luò)分類效果在三者中表現(xiàn)最差。相比其他已有心音分類算法,本文心音分類算法不依賴于基本心音分割,訓練樣本量更大,模型結(jié)構(gòu)表征能力更強,使得心音分類算法普適性和魯棒性更強,分類性能更佳。在后續(xù)的研究中,可以探索在MFSC中增加一階差分和二階差分作為MDenseCNN模型的輸入特征,進一步提高心音分類效果。

        猜你喜歡
        心音梅爾卷積
        基于梅爾頻譜分離和LSCNet的聲學場景分類方法
        基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        女詩人梅爾詩集《十二背后》三人談
        基于雙閾值的心音快速分段算法及其應(yīng)用研究
        基于傅里葉域卷積表示的目標跟蹤算法
        雙聲道心音能量熵比的提取與識別研究
        基于香農(nóng)熵的心音信號檢測方法研究
        盲人探險家觸摸世界之巔
        黨員文摘(2014年10期)2014-10-14 23:50:35
        一種基于卷積神經(jīng)網(wǎng)絡(luò)的性別識別方法
        永久亚洲成a人片777777| 国产精品办公室沙发| 97高清国语自产拍| 先锋影音最新色资源站| 亚洲免费观看网站| 国产美女胸大一区二区三区| 国产亚洲精品一区在线| 久热re这里精品视频在线6| 欧美精品免费观看二区| 国产永久免费高清在线观看视频| 中文字幕文字幕视频在线| 大陆国产乱人伦| 丰满熟女人妻中文字幕免费| 一本色综合亚洲精品蜜桃冫| 北条麻妃毛片在线视频| 四虎无码精品a∨在线观看| 日本精品一级二区三级| 久久亚洲精品成人无码| 肉体裸交丰满丰满少妇在线观看| 亚洲又黄又大又爽毛片| 成人av一区二区亚洲精| 一本久道高清视频在线观看| 亚洲熟妇无码一区二区三区导航| 国产成人影院一区二区| 日本高清中文一区二区三区| av天堂最新在线播放| 亚洲а∨精品天堂在线| 国产小屁孩cao大人| 国产精品人成在线观看不卡| 欧美国产亚洲日韩在线二区| 亚洲综合久久精品无码色欲| AV成人午夜无码一区二区| 国内精品少妇久久精品| 在线播放五十路熟妇| 韩国三级中文字幕hd久久精品| 精品黑人一区二区三区| 亚洲中文字幕精品乱码2021| 国产呦系列呦交| 欧美日韩亚洲国产无线码| 少妇太爽了在线观看免费| 久久久国产精品免费a片3d|