亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于CNN的心音特征融合分類方法*

        2019-11-27 01:16:52韓威李昌劉厶元劉偉鑫邱澤帆
        自動化與信息工程 2019年5期
        關(guān)鍵詞:分類特征信號

        韓威 李昌 劉厶元 劉偉鑫 邱澤帆

        基于CNN的心音特征融合分類方法*

        韓威1,2李昌2劉厶元1劉偉鑫1,2邱澤帆2

        (1.廣東工業(yè)大學 2.廣東省智能制造研究所 廣東省現(xiàn)代控制技術(shù)重點實驗室)

        針對TFF1dCNN方法利用一維CNN分別對各心音片段的4個頻帶信號提取特征,可能無法充分提取各頻帶信號間相關(guān)信息的問題,提出TFF2dCNN方法。先將4個頻帶信號融合成二維信號;再由二維CNN進行特征提取和分類。實驗結(jié)果表明,該方法提升了分類正確率。此外,還分析了心音樣本的分類正確率與其包含的心動周期數(shù)的關(guān)系。

        心音分類;心音特征融合;CNN

        0 引言

        據(jù)世界衛(wèi)生組織統(tǒng)計,心血管疾病是全球第一大死因[1]。心音是診斷心血管疾病的主要醫(yī)學信號,心音分類可為心血管疾病進一步檢查提供初步線索。當前常用的心音聽診受醫(yī)生經(jīng)驗、心理/生理等因素影響,無法保證診斷結(jié)果的準確性和可靠性。因此,心音自動分類近年來成為國內(nèi)外研究熱點[2-3]。與傳統(tǒng)心音分類方法[4-5]依靠人工經(jīng)驗選擇心音信號特征進行分類相比,深度學習方法從原始數(shù)據(jù)或高維特征數(shù)據(jù)中自動提取低維特征,可獲得更好的心音分類效果,已成為主流心音分類方法[6-7]。

        在2016年心音分類挑戰(zhàn)賽中[8],Potes等提出的TFF1dCNN方法[9]獲得第一名。本文對TFF1dCNN方法中的一維CNN(Convolutional Neural Network)分類流程進行改進,提出TFF2dCNN方法。

        1 TFF1dCNN方法

        TFF1dCNN方法提取124個時頻特征輸入Adaboost分類器;然后提取各心音片段的4個頻帶信號(25 Hz ~45 Hz,45 Hz~80 Hz,80 Hz~200 Hz及200 Hz ~400 Hz)輸入一維CNN分類器;最后將2個分類器的結(jié)果融合決策得到心音分類結(jié)果。Adaboost和一維CNN融合分類示意圖如圖1所示。

        圖1 TFF1dCNN方法中Adaboost和一維CNN融合分類示意圖

        一維CNN分類器分類流程:每個頻帶信號先分別經(jīng)一維CNN提取特征;再由全連接層進行特征融合運算;最終輸出分類結(jié)果。此分類流程利用一維CNN分別對每個頻帶信號提取特征,可能無法充分提取各頻帶信號之間的相關(guān)信息,造成需由多個頻帶信號才能準確表達的心血管疾病易被誤判,從而影響心音分類效果。為此,本文提出TFF2dCNN方法。

        2 TFF2dCNN方法

        2.1 心音特征提取

        本文提出的TFF2dCNN方法采用與TFF1dCNN方法相同的預處理和特征提取流程,如圖2所示。

        圖2 心音特征提取流程圖

        圖2中心音信號預處理流程:以1000 Hz采樣率對心音信號進行重采樣;并對采樣信號進行25 Hz ~400 Hz帶通濾波;采用Springer等[10]提出的方法將心音信號分割為若干心動周期。一次完整的心動周期由第一心音(S1)、收縮期(systole)、第二心音(S2)和舒張期(diastole)4個狀態(tài)組成。

        圖2中124個時頻特征包括36個時域特征、36個頻域特征和52個MFCC(Mel-Frequency Cepstrum Coefficient)特征。時頻特征提取流程:各心動周期、第一心音、收縮期、第二心音、舒張期等的時長均值和標準差,各收縮期與心動周期的時長之比、各舒張期與心動周期的時長之比、各收縮期與舒張期的時長之比等的均值和標準差,共計16個與心音時長相關(guān)的時域特征;各收縮期與第一心音的平均絕對振幅之比、各舒張期與第二心音的平均絕對振幅之比等的均值和標準差,各第一心音、收縮期、第二心音、舒張期幅值偏度的均值和標準差,各第一心音、收縮期、第二心音、舒張期幅值峰度的均值和標準差,共計20個與心音信號幅值相關(guān)的時域特征;先將各第一心音、收縮期、第二心音和舒張期的信號分解為9個頻段(25 Hz ~45 Hz,45 Hz ~65 Hz,65 Hz ~85 Hz,85 Hz ~105 Hz,105 Hz ~125 Hz,125 Hz ~150 Hz,150 Hz ~200 Hz,200 Hz及~300 Hz及300 Hz ~400 Hz),再計算每個頻段信號中值功率的均值,共計可得36個頻域特征;計算各第一心音、收縮期、第二心音、舒張期信號的MFCC,選擇前13個MFCC,則共計可得52個MFCC特征。

        圖2中各心音片段的4個頻帶信號提取流程為:先從每個第一心音開始選取時長為2.5 s的信號作為一個心音片段;再將心音片段分解至4個頻帶信號。根據(jù)預先統(tǒng)計,最長的心動周期不超過2.5 s,因此一個心音片段能覆蓋一次完整的心動周期信號。由于每個第一心音都會產(chǎn)生一個心音片段,因此一段心音信號的心音片段數(shù)與其心動周期數(shù)相等。

        2.2 心音分類模型

        在心音分類中,本文仍然采用TFF1dCNN方法中的Adaboost分類模型(如圖1所示),僅采用二維CNN分類器對其一維CNN分類模型進行改進。本文提出的TFF2dCNN方法的分類模型如圖3所示。其中二維CNN分類器的分類流程為:先將4個頻帶信號融合成二維信號;再由二維CNN運算進行特征提取;然后經(jīng)全連接層運算;最終輸出心音分類結(jié)果。

        圖3 TFF2dCNN方法的分類模型示意圖

        3 心音分類實驗

        3.1 實驗數(shù)據(jù)和評價指標

        本文實驗數(shù)據(jù)集來源于CinC2016[11],此數(shù)據(jù)集有3240個心音樣本,分為正常(2575個)和異常(665個)2大類。

        采用敏感性(Se)、特異性(Sp)和平均正確率(MAcc)來衡量心音分類效果。Se和Sp分別表示異常樣本和正常樣本被正確預測的概率;MAcc為Se和Sp的算術(shù)平均值,是最終的評價指標。

        3.2 分類結(jié)果

        每次實驗隨機選擇若干心音樣本進行訓練,其余樣本用于測試。本文以完整的心音樣本為單位劃分訓練集和測試集,這樣可確保來自同一心音樣本的所有心音片段只能被分為訓練集或測試集。

        3.2.1 分類性能

        為更好地評估分類效果,本文采用不同訓練樣本占比(訓練樣本數(shù)占總樣本數(shù)的比例)進行實驗。具體包括:從訓練樣本占比為2%(2%異常樣本和2%正常樣本)開始,每次增加2%的訓練樣本,直到訓練樣本占比達到10%;然后每次增加20%的訓練樣本,直到訓練樣本占比達到90%。為獲得穩(wěn)定的分類結(jié)果,每個訓練樣本占比實驗重復10次,最終的分類結(jié)果是這10次重復實驗的平均值和標準差。表1給出了TFF2dCNN和TFF1dCNN兩種方法的分類結(jié)果。

        表1 兩種方法的分類結(jié)果

        由表1可以看出,本文采用基于二維CNN的分類模型代替TFF1dCNN方法中基于一維CNN的分類模型后,分類結(jié)果MAcc增大。此外,隨著訓練樣本量增加,分類性能也隨之提升。

        3.2.2 心動周期數(shù)與分類性能的關(guān)系

        一個心音樣本被分割為若干心音片段,每個片段開始于每個心動周期的第一心音,這意味著每個心音樣本的片段數(shù)等于其心動周期數(shù)。數(shù)據(jù)集中所有心音樣本包含的心動周期數(shù)在2~109。訓練樣本占比為90%的情況下,統(tǒng)計心動周期數(shù)與分類正確率的關(guān)系,如圖4所示。

        圖4 心動周期數(shù)與分類正確率的關(guān)系

        由圖4可以看出,樣本的心動周期數(shù)越多,越有可能被正確分類。這是由于更多的心動周期能提供更多的分類信息。

        4 結(jié)語

        本文提出的TFF2dCNN方法先將4個頻帶信號融合;再通過二維CNN運算提取心音特征,有利于提取各頻帶信號之間的相關(guān)信息,提高了分類正確率。此外,心音樣本中心動周期數(shù)越多,其被正確分類的可能性就越大。

        [1] www.who.int/mediacentre/factsheets/fs317/en/

        [2] Clifford G D, Liu C, Moody B E, et al. Recent advances in heart sound analysis [J]. Physiological Measurement, 2017, 38(8): E10-E25.

        [3] 雷志彬,陳駿霖.基于全連接LSTM的心肺音分離方法[J].自動化與信息工程,2018,39(6):25-30.

        [4] Redlarski G, Gradolewski D, Palkowski A. A system for heart sounds classification [J]. PloS one, 2014, 9(11):e112673.

        [5] Whitaker B M, Suresha P B, Liu C. Combining sparse coding and time-domain features for heart sound classification [J]. Physiological Measurement, 2017, 38(8):1701-1729.

        [6] Dominguez-Morales J P, Jimenez-Fernandez A F, Dominguez-Morales M J, et al. Deep neural networks for the recognition and classification of heart murmurs using neuromorphic auditory sensors [J]. IEEE Transactions on Biomedical Circuits & Systems,2018,12(1):24-34.

        [7] Maknickas V, Maknickas A. Recognition of normal–abnormal phonocardiographic signals using deep convolutional neural networks and mel-frequency spectral coefficients [J]. Physiological Measurement, 2017, 38(8): 1671–1684

        [8] http://physionet.incor.usp.br/challenge/2016/

        [9] Potes C, Parvaneh S, Rahman A, et al. Ensemble of feature-based and deep learning-based classifiers for detection of abnormal heart sounds[C]. 2016 Computing in Cardiology Conference (CinC). IEEE, 2016: 621-624.

        [10] Springer D, Tarassenko L, Clifford G. Logistic regression- HSMM-based heart sound segmentation [J]. IEEE Transactions on Biomedical Engineering, 2016,63(4):822- 832.

        [11] Liu Chengyu, Springer David, Li Qiao, et al. An open access database for the evaluation of heart sound algorithms [J]. Physiological Measurement, 2016, 37(12):2181-2213.

        Classification Method of Heart Sound Feature Fusion Based on CNN

        Han Wei1,2Li Chang2Liu Siyuan1Liu Weixin1,2Qiu Zefan2

        (1.Guangdong University of Technology 2. Guangdong Institute of Intelligent Manufacturing, Guangdong Key Laboratory of Modern Control Technology)

        The TFF1dCNN method uses one-dimensional CNN to extract the features of four frequency bands signal of each heart sound segment, and there is a problem that the relevant information between each frequency band may not be fully extracted. This paper proposes the TFF2dCNN method. The four frequency bands signal are firstly combined into a two-dimensional signal, and then the features extraction and classification are carried out by two-dimensional CNN. Experimental results show that the proposed method improves the classification accuracy. In addition, this paper also analyzes the relationship between the classification accuracy of heart sound and the number of cardiac cycles it contains.

        Heart Sound Classification; Heart Sound Features Fusion; Convolutional Neural Network

        國家自然科學基金項目(61803107);廣州市科技計劃項目(201803020025,201906010036);廣東省科學院人才項目(2019GDASYL-0105069)。

        韓威,男,1987年生,博士研究生,助理研究員,主要研究方向:心音信號處理、聲學傳感與檢測。

        劉厶元(通信作者),男,1994年生,碩士研究生,主要研究方向:生物醫(yī)學信號處理。E-mail: lsy_gudt@sina.com

        猜你喜歡
        分類特征信號
        分類算一算
        信號
        鴨綠江(2021年35期)2021-04-19 12:24:18
        完形填空二則
        如何表達“特征”
        不忠誠的四個特征
        當代陜西(2019年10期)2019-06-03 10:12:04
        分類討論求坐標
        基于FPGA的多功能信號發(fā)生器的設(shè)計
        電子制作(2018年11期)2018-08-04 03:25:42
        數(shù)據(jù)分析中的分類討論
        教你一招:數(shù)的分類
        抓住特征巧觀察
        国产女同va一区二区三区| 永久免费看免费无码视频| 日韩精品极品免费观看| 国产精品成人av大片| 色婷婷亚洲一区二区三区| 亚洲欧美综合在线天堂| 人妻无码中文专区久久AV| 国产日产亚洲系列首页| a级国产乱理伦片| 免费又黄又爽又猛的毛片| 无码高潮久久一级一级喷水| 爱爱免费视频一区二区三区| 日本大肚子孕妇交xxx| 一道久在线无码加勒比| 无码高潮少妇毛多水多水免费| av在线高清观看亚洲| 免费a级毛片无码免费视频120软件| AV无码最在线播放| 一片内射视频在线观看| 国产亚洲精品品视频在线| 久久人人爽人人爽人人片av东京热| 欧美日韩精品乱国产| 日本黄色高清视频久久| 妺妺窝人体色777777| 日韩内射美女人妻一区二区三区| 亚洲欧美日韩中文综合在线不卡| 久久精品国产亚洲av麻豆床戏| 国产熟女内射oooo| 亚洲日韩专区在线视频| 成人短篇在线视频夫妻刺激自拍| 欧美又大粗又爽又黄大片视频 | 国产91精品高潮白浆喷水 | 久久久99精品免费视频| 免费毛片一区二区三区女同 | 久久无码高潮喷水抽搐 | 日本午夜精品理论片a级app发布| 93精91精品国产综合久久香蕉| 日本护士一区二区三区高清热线| 成人大片免费观看视频| 国产av综合影院| 久久久精品电影|