亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        特征降維的深度強化學習腦卒中分類預(yù)測研究

        2023-04-11 12:36:36袁甜甜李鳳蓮張雪英胡風云賈文輝
        關(guān)鍵詞:特征選擇降維分類

        袁甜甜,李鳳蓮,張雪英,胡風云,賈文輝

        (1.太原理工大學 信息與計算機學院, 太原 030024; 2.山西省人民醫(yī)院, 太原 030012)

        腦卒中是嚴重威脅全球居民公共健康的疾病之一,是全球范圍內(nèi)致死、致殘的重要原因[1]。腦卒中主要分為缺血性腦卒中和出血性腦卒中兩大類,其中缺血性腦卒中約占腦卒中發(fā)病總數(shù)的70%。腦卒中的主要發(fā)病特點是發(fā)病急和病情發(fā)展迅速,大多數(shù)的患者得不到及時治療。研究表明,約94%的腦卒中發(fā)病因素是可以提前干預(yù)的[2]。因此,預(yù)測個人腦卒中的發(fā)病風險尤為重要,且具有挑戰(zhàn)性。

        腦卒中發(fā)病風險預(yù)測涉及腦卒中發(fā)病風險影響因素的選擇以及腦卒中發(fā)病風險預(yù)測模型構(gòu)建兩方面內(nèi)容。其中影響因素的選擇是從眾多影響因素中篩選出最重要的發(fā)病危險因素或者挖掘出潛在未知的影響因素,以輔助指導臨床醫(yī)生進行發(fā)病前危險因素干預(yù),降低腦卒中發(fā)病率。同時,選擇合適的分類模型,進行模型構(gòu)建及性能測試也是極為重要的。目前機器學習領(lǐng)域已經(jīng)有多種成熟的分類模型,如決策樹、SVM(support vector machines)、貝葉斯分類器以及集成分類器等。近年來,隨著人工智能的發(fā)展,基于深度強化學習的分類模型也呈現(xiàn)較強優(yōu)勢,成為近年研究熱點。深度強化學習融合了深度神經(jīng)網(wǎng)絡(luò)及強化學習二者優(yōu)勢,既具備強化學習強大的自主學習能力,也展現(xiàn)了深度神經(jīng)網(wǎng)絡(luò)較強的分類性能。本文主要從特征降維及構(gòu)建預(yù)測模型2個角度,開展腦卒中發(fā)病風險預(yù)測研究。

        在分類問題中,數(shù)據(jù)的高維度是面臨的巨大挑戰(zhàn)之一。消除數(shù)據(jù)的大量冗余特征,以獲得較低的執(zhí)行時間,并產(chǎn)生較好的分類性能,是有效提高分類器性能的一項措施。特征降維是去除冗余特征的有效方法,主要分為特征選擇(feature selection,FS)、特征提取(feature extraction,FE)和混合式方法。特征提取是基于原始特征通過屬性轉(zhuǎn)換或者屬性映射得到新的特征組合,主要包括主成分分析法(principal component analysis,PCA)[3]、線性判別分析法(linear discriminant analysis,LDA)[4]和獨立成分分析法(independent component correlation algorithm,ICA)[5]等,缺陷是改變了原始特征的數(shù)據(jù)分布。特征選擇方法采用選定的評價標準從原始特征中選取小部分特征作為原始特征的特征子集,以去除不相關(guān)、冗余特征[6],主要分為過濾式(filter)、封裝式(wrapper)以及嵌入式(embedded)[7]3種,優(yōu)勢是不會改變原始特征的分布,但只是對原有特征的選擇,存在一定的局限性?;旌鲜椒椒梢跃酆喜煌椒ǖ奶卣髯蛹瘉斫鉀Q特征選擇中的高維問題,提高所選特征的可信度與穩(wěn)定性是近年的研究熱點。Thomas等[8]提出一種高效的混合特征子集選擇方法,采用基于相關(guān)性的過濾式方法選出特征子集,再使用封裝式方法選出最終特征子集。江澤濤等[9]利用Fisher方法對特征進行降維,再引入Helly屬性對得到的特征子集進行再次篩選,最后使用隨機森林和改進的K-means作為聯(lián)合分類器,選出最終特征子集。本文中提出一種混合式特征降維FS-FE方法,充分發(fā)揮了2種算法的優(yōu)勢,實現(xiàn)優(yōu)勢互補。

        在腦卒中發(fā)病風險預(yù)測模型構(gòu)建方面,近年來也有學者開展相關(guān)研究。隨著人工智能在智能醫(yī)療領(lǐng)域研究的深入,基于機器學習理論進行腦卒中發(fā)病風險預(yù)測成為了研究熱點。2013年,谷歌DeepMind團隊將強化學習的決策能力與深度學習的感知能力有效結(jié)合起來,創(chuàng)新性地提出了深度強化學習(deep reinforcement learning,DRL)[10]。自從深度強化學習問世以來,不少學者將其應(yīng)用于各種領(lǐng)域,且取得了不錯的效果。閆軍威等[11]采用具有雙神經(jīng)網(wǎng)絡(luò)的Q-Learning算法解決了中央空調(diào)建模困難以及參數(shù)辨識復(fù)雜的問題。在腦卒中發(fā)病風險預(yù)測模型構(gòu)建方面,田豆[12]開展了基于深度強化學習的腦卒中發(fā)病風險預(yù)測模型構(gòu)建研究,該文獻使用卡方檢驗去除數(shù)據(jù)集冗余特征,降低模型分類復(fù)雜度,選用了平方誤差損失函數(shù)構(gòu)造深度強化學習模型,結(jié)果表明其思路是可行的,但是具有運行時間較長,性能不夠理想的缺陷。

        為了取得更好的分類預(yù)測效果,本文采用雙神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的Q-Learning學習算法(double Q-Learning)[13]和基于競爭構(gòu)架Q-Learning(dueling DQN)[14]學習算法框架,建立深度強化學習分類預(yù)測模型。此外,提出了一種更具有魯棒性的損失函數(shù),以加快模型訓練速度,并提高分類預(yù)測性能。最后,對所提出的模型在UCI數(shù)據(jù)集以及腦卒中篩查數(shù)據(jù)集進行實驗驗證,并與已有模型進行預(yù)測性能對比,結(jié)果表明所提模型是有效的。

        1 混合式特征降維方法FS-FE

        特征降維能夠得到對分類預(yù)測模型更重要的特征子集或特征組合,取得更好的預(yù)測性能及更高的執(zhí)行速度,廣泛應(yīng)用于分類預(yù)測領(lǐng)域。本文中提出了一種基于特征選擇和特征提取的混合特征降維方法(feature selection and feature extraction,FS-FE),該方法可以降低數(shù)據(jù)維度,減少訓練時間,并取得更好的分類效果。特征提取和特征選擇方法都有各自的局限性,將兩者進行結(jié)合,有助于充分發(fā)揮二者優(yōu)勢,揚長避短。

        1.1 混合特征降維方法FS-FE實現(xiàn)機理

        FS-FE特征降維方法的設(shè)計:首先,選用基于相關(guān)性的特征選擇算法(correlation-based feature selection,CFS)[15],考慮到信息增益傾向于更多特征的特征子集,本文引入了最大信息系數(shù)對CFS算法進行改進。接著,選用了主成分分析法PCA,對過濾后的特征子集采用特征提取進行再次降維,從而得到最優(yōu)特征組合?;旌鲜教卣鹘稻S方法如圖1所示。

        圖1 混合特征降維方法

        所提方法的實現(xiàn)過程:① 將數(shù)據(jù)集F采用改進的CFS進行特征選擇,根據(jù)評價函數(shù)計算特征價值,利用最佳優(yōu)先搜索方法,選出精簡特征子集F1。② 將得到的特征子集F1選用PCA算法進行特征提取,得出最優(yōu)特征組合F2。

        1.2 改進的基于相關(guān)性的特征選擇算法MCFS

        CFS是一種基于特征搜索空間的過濾式特征選擇方法,其主要思想是選出的特征子集與類別屬性相關(guān)性高且與特征之間彼此相關(guān)性低。CFS采用信息增益求解屬性間的相關(guān)性,易傾向于選擇具有更多屬性取值的特征。為此,提出一種改進的特征選擇算法(MIC and correlation-based feature selection,MCFS),該算法采用最大信息系數(shù)(maximal information coefficient,MIC)[16]對特征與特征之間的關(guān)聯(lián)性進行校正。這種改進思路不僅可以考慮特征之間的冗余度,也考慮了特征與類別之間的關(guān)聯(lián)性。

        MCFS算法對特征子集的分類能力評估,使用最佳優(yōu)先搜索方法[17],其評價函數(shù)計算公式如式(1)所示:

        (1)

        (2)

        式中:S、R分別是特征與類別;H(S)、H(R)分別是S、R的信息熵,采用式(3)求解;gain(S,R)為信息增益,采用式(4)(5)求解。對稱不確定性SU越大,S、R之間相關(guān)性越高,表明該特征對類別影響越顯著。

        (3)

        (4)

        gain(S,R)=H(S)-H(S|R)

        (5)

        (6)

        式中:I(S1,S2)是互信息,采用聯(lián)合概率密度來計算。MIC指標將特征S1、S2之間的關(guān)系離散到二維散點圖空間中,其中x、y是該二維散點圖空間格子的劃分數(shù),N為樣本數(shù),B(N)是關(guān)于樣本的函數(shù),根據(jù)文獻[19],取B(N)=N0.6。2個特征的MIC越小,相關(guān)性越低。

        1.3 特征提取算法

        主成分分析法(PCA)是一種無監(jiān)督的特征提取算法,通過線性變換的方式將原始數(shù)據(jù)轉(zhuǎn)換為一組維度線性不相關(guān)的特征空間,提取出原始數(shù)據(jù)的主要特征分量。PCA算法在特征降維的同時盡可能保留原始數(shù)據(jù)的重要信息,通過確定特征之間的相關(guān)性,確定數(shù)據(jù)集的主成分[4]。主成分分析法實際上是一種轉(zhuǎn)換技術(shù),使用更少的特征來表征原始數(shù)據(jù)集。

        2 優(yōu)化的深度強化學習分類預(yù)測模型NL-DQN

        通過分析腦卒中分類預(yù)測問題的特點,建立分類預(yù)測問題對應(yīng)的馬爾可夫決策過程。結(jié)合雙神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)與決策網(wǎng)絡(luò)模型的深度強化學習算法,解決值函數(shù)過估計以及智能體在不同狀態(tài)下采用不同動作的問題?;诖私⒘四X卒中發(fā)病風險預(yù)測的深度強化學習分類預(yù)測模型NL-DQN(new loss function deep Q network),該模型基于Double Dueling DQN構(gòu)建,圖2為Double Dueling DQN的原理框圖。同時,對損失函數(shù)進行了改進,以提高模型性能。

        2.1 馬爾可夫決策過程

        強化學習主要思想是智能體與環(huán)境不斷交互學習,通過試錯來獲得知識,利用反饋信號來優(yōu)化決策序列。強化學習的目的就是尋找最優(yōu)的動作策略[11],以取得最大化的累計獎賞值。建立待分析問題對應(yīng)的馬爾可夫決策過程是應(yīng)用強化學習的前提。

        在本文中,把分類問題建模為順序馬爾可夫決策過程,智能體的動作空間是當前樣本可能選擇的預(yù)測類別。在分類正確時,智能體獲得0的獎賞;當分類錯誤時,智能體獲得-1的獎賞。獎賞函數(shù)如式(7)所示:

        (7)

        Q-Learning是一種基于價值的強化學習方法,通過尋求最優(yōu)函數(shù)Q*,表示智能體在當前狀態(tài)s下選擇最優(yōu)動作a,可獲得最高的累計獎賞值,其動作-值函數(shù)映射關(guān)系滿足貝爾曼方程,如式(8)所示:

        Q*(s,a)=Eπ(rt+γQ(st+1,at+1)|st=s,at=a)

        (8)

        式中:γ∈(0,1)為折扣因子,當γ=0時,智能體只受即時獎賞值的影響,當γ=1時,智能體受即時獎賞與長期獎賞的影響是等價的。折扣因子反映了當前動作對獎賞值的影響。

        最優(yōu)策略π*(s,a)是在狀態(tài)s下選擇Q最大的動作,即貪婪策略,如式(9)所示:

        π*(s,a)=arg maxaQ(s,a)

        (9)

        圖2 Double Dueling DQN原理框圖

        2.2 NL-DQN分類預(yù)測模型的構(gòu)建

        在實際的分類預(yù)測問題中,往往存在大規(guī)模的狀態(tài)空間與動作空間,內(nèi)存往往是不能滿足建立這樣的Q表,因此傳統(tǒng)的Q-Learning算法可能會引起維度災(zāi)難問題。利用深度神經(jīng)網(wǎng)絡(luò)對Q-Learning網(wǎng)絡(luò)進行參數(shù)化逼近,也是深度強化學習模型的構(gòu)建機理。

        2.2.1雙神經(jīng)網(wǎng)絡(luò)Double-DQN算法

        由于深度Q網(wǎng)絡(luò)在選擇動作與動作評估時都選取了貪婪策略,且使用同一個神經(jīng)網(wǎng)絡(luò)參數(shù),在學習過程中容易造成值函數(shù)過估計,即估計的值函數(shù)比實際值要大,因此會影響最終的最優(yōu)策略。針對此問題,Hasselt等[13]提出Double Q-learning算法,對選擇動作和動作評估進行解耦,以解決傳統(tǒng)的Deep Q Network(DQN)過估計問題。本文以DQN為基礎(chǔ),融合了Double Q-Learning算法思想,構(gòu)建了具有雙神經(jīng)網(wǎng)絡(luò)的Double-DQN算法[12],2個神經(jīng)網(wǎng)絡(luò)中的一個用于選擇動作,另一個用于對當前狀態(tài)的價值進行評估。

        Double-DQN算法首先在當前Qθ網(wǎng)絡(luò)中找到最大Q值對應(yīng)的動作,再由選擇出來的動作a在目標網(wǎng)絡(luò)Qφ中計算目標Q值,如式(10)所示:

        (10)

        式中:q是目標Q值,Qθ是當前網(wǎng)絡(luò),Qφ是目標網(wǎng)絡(luò)。

        為保證模型Q值預(yù)測的準確性,采用ε貪婪策略[16]選擇動作,即以概率1-ε按照Q值選擇動作,以概率ε隨機選擇動作。利用式(10)目標函數(shù)和經(jīng)驗回放機制,最小化損失函數(shù)來訓練Q網(wǎng)絡(luò)。

        2.2.2Dueling DQN 模型

        傳統(tǒng)的強化學習,考慮的是當前狀態(tài)下的智能體采用哪個動作能獲得最大的累計獎賞值,沒有考慮到智能體在不同狀態(tài)下采用不同的動作的方法。因此,本文采用了Dueling DQN[14]模型,該模型是采用2個相同的網(wǎng)絡(luò)擬合不同的函數(shù),一個是狀態(tài)值函數(shù)V(s),另一個是智能體在當前狀態(tài)下采取不同動作的優(yōu)勢函數(shù)A(s,a)[14],將得到的狀態(tài)值函數(shù)V(s)及優(yōu)勢函數(shù)A(s,a)再進行線性組合,得到最終的輸出Q值。如式(11)所示:

        Q(s,a)=A(s,a)+V(s)

        (11)

        這與傳統(tǒng)DQN僅利用卷積神經(jīng)網(wǎng)絡(luò)擬合Q-learning中的Q值函數(shù)是顯著不同的。這種構(gòu)造上的不同,有助于縮小Q值范圍,提高模型的穩(wěn)定性。

        2.2.3損失函數(shù)的改進

        損失函數(shù)是深度強化學習中一個重要組成部分,損失函數(shù)通過最小化模型的估計值與實際值的差值,從而提高神經(jīng)網(wǎng)絡(luò)的穩(wěn)定性與加快收斂過程。傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)通常采用了均方誤差損失函數(shù)(mean square error,MSE)擬合Q網(wǎng)絡(luò),但是該損失函數(shù)的缺點在于,當模型的時間差分誤差較大時,輸出的值過大,導致學習不穩(wěn)定。平均絕對誤差損失函數(shù)(mean absolute error,MAE)是線性的,在誤差很小時,梯度也很大,對模型的收斂與學習有抑制作用,且在0處不可導。文獻[20]中提出了Huber損失函數(shù),該函數(shù)結(jié)合了MSE與MAE二者的優(yōu)點,其定義如式(12)所示:

        (12)

        式中:δ是非負參數(shù),劃分二次函數(shù)與線性函數(shù)的范圍。當誤差大于δ時,采用MAE損失函數(shù),當誤差小于δ時,采用MSE損失函數(shù)。

        由于Huber損失函數(shù)存在對離群點的懲罰程度過大的缺陷,為此,提出了一種新的分段損失函數(shù)nloss,用來提高模型的分類預(yù)測性能,其定義如式(13):

        (13)

        式中:n為非負變量,控制了損失函數(shù)的非凸程度。當n趨于無窮大時,該式等價于Huber損失函數(shù)。第一個式子保證了損失函數(shù)在中心點處可導;第二個式子具有非凸性,可降低對離群點的懲罰程度,且此損失函數(shù)處處可導。其中,f(x)是當前Q網(wǎng)絡(luò),q為目標值。下面給出對nloss損失函數(shù)的理論證明。

        證明1:該損失函數(shù)處處可導且連續(xù)。

        令q-f(x)=t,則

        1) 在t=0處采用的均方誤差損失函數(shù),顯然該式在0點可導。

        2) 在t=1處

        由于g′+(1)=g′-(1),因此該式在1點可導。

        3) 在t=-1處

        由于g′+(-1)=g′-(-1),因此該式在-1點可導。

        綜上,nloss損失函數(shù)處處連續(xù)且可導。

        證明2:非凸魯棒性。

        當式(13)預(yù)測值與真實值誤差小于1時,采用在零點可導的均方誤差函數(shù),當誤差大于1時,采用更具魯棒性的函數(shù)。在誤差大于1時,采用的是非凸的函數(shù),為了降低對離群點的懲罰程度,當前值與目標值突變時,該式可以起到在差值較大時對損失函數(shù)的弱化效果。如圖3所示為n取0.5時的情況。

        圖3 n=0.5時nloss損失函數(shù)曲線

        由圖3可以看出,預(yù)測值與真實值誤差大于1時,圖像是非凸的,誤差值越大,損失函數(shù)的斜率越小,可以對離群值起到弱化效果。

        3 實驗與結(jié)果

        3.1 數(shù)據(jù)集

        選用UCI數(shù)據(jù)集中4組數(shù)據(jù)集wine、glass、WDBC、ionosphere進行分類預(yù)測實驗,以驗證模型的性能。數(shù)據(jù)集的相關(guān)信息如表1所示。

        本文采用的腦卒中發(fā)病風險預(yù)測數(shù)據(jù)集從國內(nèi)某醫(yī)院神經(jīng)內(nèi)科腦卒中篩查病例數(shù)據(jù)庫獲取,經(jīng)過數(shù)據(jù)清洗等預(yù)處理后整理得到數(shù)據(jù)集stroke。該數(shù)據(jù)集包含41個屬性,共1 538例樣本。診斷類別包括腦梗死(1 064例)、腦出血(251例)、TIA(12例)、未破裂顱內(nèi)動脈瘤(103例)、自發(fā)性蛛網(wǎng)膜下腔出血(76例)、動靜脈畸形AVM(12例)、頸動脈狹窄或閉塞(33例)以及煙霧病(5例)8種。預(yù)處理后的部分腦卒中數(shù)據(jù)示例如表2所示。

        表1 UCI數(shù)據(jù)集

        表2 預(yù)處理后的部分腦卒中篩查數(shù)據(jù)集示例

        3.2 混合特征降維實驗

        3.2.1UCI數(shù)據(jù)集實驗

        實驗選取的數(shù)據(jù)集是ionosphere數(shù)據(jù)集,該數(shù)據(jù)集有34種特征屬性,2種類別。為了防止過擬合,本實驗采用了十折交叉驗證方法。分別使用CFS算法、信息增益算法(Information Gain,InforGain)算法、Relief算法以及FS-FE混合式特征降維方法獲取最優(yōu)特征子集,接著分別選用樸素貝葉斯算法(Na?ve Bayes)、J48決策樹算法、支持向量機算法(support vector machine,SVM)、最近鄰算法(K-nearest neighbor,KNN)進行分類預(yù)測。準確率如圖4所示。

        圖4 FS-FE與其他特征降維算法的準確率

        由圖4可以看出,本文的FS-FE混合特征降維方法在所有的分類模型上均有良好表現(xiàn),準確率都高于其他特征選擇算法。其中,在SVM分類器模型下的準確率提升最為明顯,對比原始數(shù)據(jù)集(下文均指代不使用特征降維算法)、CFS算法、InforGain算法、Relief算法,FS-FE方法的準確率分別提高了4.82%、5.84%、4.82%、11.26%。在Na?ve Bayes、KNN分類器上,4種特征降維算法的性能均優(yōu)于原始數(shù)據(jù)集,FS-FE方法準確率分別達到了91.17%與89.45%,取得了更優(yōu)于其他特征選擇算法的性能。此外,J48決策樹分類模型的準確率在4種分類器中整體表現(xiàn)最好。

        圖5與圖6分別顯示了通過特征降維與分類模型后的精確率(precision)與召回率(recall)結(jié)果,可以看出,FS-FE方法比其他特征選擇方法的精確率與召回率性能更好。

        根據(jù)圖5可以看出,FS-FE方法的精確率明顯高于其他特征選擇方法。在Na?ve Bayes、J48、SVM和KNN 4種分類模型上的精確率分別是91.20%、93.90%、92.90%和90.80%,都在90%以上,體現(xiàn)了FS-FE特征降維方法與不同分類器的適配性,在泛化能力方面也有良好表現(xiàn)。在上述4種分類器上,FS-FE方法對比CFS算法精確率分別提高了0.66%、3.64%、4.97%、1.23%,說明了FS-FE特征降維方法的優(yōu)越性。

        圖5 FS-FE與其他特征降維算法的精確率

        圖6 FS-FE與其他特征降維算法的召回率

        觀察圖6召回率性能實驗結(jié)果,FS-FE特征降維方法在所有的分類模型上都取得了最好的效果。以Na?ve Bayes與J48分類器舉例說明,在Na?ve Bayes分類器上,FS-FE算法的召回率為91.20%,與原始數(shù)據(jù)集、CFS算法、InforGain算法和Relief算法對比,召回率分別提高了10.41%、0.66%、2.93%、3.28%;在J48分類器上,FS-FE與原始數(shù)據(jù)集、CFS算法、InforGain算法和Relief算法對比,召回率分別提高了2.40%、3.42%、3.08%和0.54%。

        綜上所述,混合式特征降維方法FS-FE可以有效提升分類效果,在各個評價指標上都有良好的性能表現(xiàn)。

        3.2.2腦卒中篩查數(shù)據(jù)集實驗

        為了對比本文中提出的MCFS算法進行特征選擇的優(yōu)勢,將其用于腦卒中篩查數(shù)據(jù),分別與CFS算法、信息增益算法、Relief算法對比,結(jié)果如表3所示。

        MCFS算法選出的對腦卒中的診斷類別的重要影響因素有7個:是否抗血(33)、出院科別(3)、是否調(diào)脂(36)、同型半胱氨酸(31)、評分數(shù)(40)、是否降壓(40)、發(fā)病48 h內(nèi)是否給藥(34)。與CFS區(qū)別僅在于發(fā)病時間距住院時間是否小于14 d(6)以及同型半胱氨酸(31)。其他2種方法得到的影響因素也包括33、36、40、35、34五個特征,這與臨床重要影響因素結(jié)論一致,但本文特征選擇算法MCFS得到的同型半胱氨酸(31)因素與已有CFS和Relief算法得到的因素發(fā)病時間距住院時間是否小于14 d(6),以及InforGain算法得到的來院方式(2)、高密度脂蛋白膽固醇(30)等其他因素相比,對腦卒中診斷更重要,說明本文方法的有效性。

        表3 4種特征選擇算法選擇的特征子集

        接著分別選用Na?ve Bayes、J48、SVM、KNN算法對特征選擇前后的數(shù)據(jù)集進行分類預(yù)測,為了防止過擬合,采用十折交叉驗證方法。

        表4為FS-FE方法與其他方法在腦卒中篩查數(shù)據(jù)的準確率,可以看出FS-FE方法在不同的分類模型上都取得了最好的結(jié)果。在Na?ve Bayes分類模型上,FS-FE方法對比原始數(shù)據(jù)集、CFS算法、InforGain算法和Relief算法,準確率分別提高了7.18%、3.72%、9.62%和2.79%。在所有分類器上,采用FS-FE算法時,腦卒中篩查數(shù)據(jù)集的分類準確率均在80%以上,驗證了改進的算法具有良好的預(yù)測性能。

        由上述實驗結(jié)果與分析可知,混合式特征降維方法FS-FE可以在不同的分類模型上獲得更好的準確率、精確率與召回率,其分類預(yù)測性能優(yōu)于其他特征選擇算法,可以為腦卒中疾病輔助診斷提供建議。

        表4 FS-FE方法與其他方法在腦卒中篩查數(shù)據(jù)的準確率 %

        3.3 NL-DQN分類預(yù)測模型

        本文使用Pytorch 0.4 搭載預(yù)測模型,本文的神經(jīng)網(wǎng)絡(luò)包括輸入層、隱含層以及輸出層。各層的神經(jīng)元設(shè)為128,輸出層加上softmax用于進行分類預(yù)測。神經(jīng)網(wǎng)絡(luò)的初始學習率設(shè)置為0.000 5,并隨著訓練次數(shù)退火直至0.000 000 1,折扣因子設(shè)為0.95,線性衰減的ε值設(shè)為1,每10步衰減直至0.1。本文實驗采用交叉驗證方法,并劃分數(shù)據(jù)集為訓練集60%,驗證集20%,測試集20%。其中,訓練集用來訓練分類預(yù)測模型,驗證集用來優(yōu)化模型,測試集用來檢驗?zāi)P托阅堋?/p>

        為證明本文所提模型的有效性,采用Na?ve Bayes、SVM、KNN以及使用MSE的DQN算法[12]、使用MAE的DQN算法的分類預(yù)測模型作為對比實驗,進行模型的性能測試。本節(jié)選用準確率對預(yù)測模型的性能進行評估。

        將所選數(shù)據(jù)集采用特征降維方法FS-FE去除冗余特征,接著將最優(yōu)特征組合使用NL-DQN模型進行腦卒中風險預(yù)測。

        3.3.1UCI數(shù)據(jù)集實驗

        為驗證所提模型的有效性,采用前述4組UCI數(shù)據(jù)集wine、glass、WDBC、ionosphere進行分類預(yù)測實驗,驗證模型的性能。表5為本文方法與已有模型準確率。

        由表5可知,除了WDBC數(shù)據(jù)集外,NL-DQN模型在3個數(shù)據(jù)集上與其他模型相比,都可以取得最好的分類性能。其中在wine數(shù)據(jù)集上,NL-DQN模型相比較Na?ve Bayes、J48、SVM、KNN、DQN(MSE)以及DQN(MAE)分類模型,準確率分別提高了4.49%、5.22%、5.28%、6.20%、1.31%、2.67%。在WDBC數(shù)據(jù)集上,NL-DQN模型準確率比DQN(MSE)及DQN(MAE)稍有降低,不過降低幅度較弱。此外,NL-DQN模型的分類效果較之其他經(jīng)典分類算法性能都更好。說明NL-DQN分類預(yù)測模型總體而言具有較優(yōu)的分類預(yù)測效果。

        表5 NL-DQN模型與已有模型在UCI數(shù)據(jù)集的分類準確率 %

        3.3.2腦卒中篩查數(shù)據(jù)集實驗

        將所提模型用于腦卒中篩查數(shù)據(jù)集。NL-DQN模型與已有模型在腦卒中篩查數(shù)據(jù)集的分類準確率如圖7所示。

        圖7 NL-DQN模型與已有模型在腦卒中篩查數(shù)據(jù)的分類準確率

        由圖7可知,與Na?ve Bayes、J48、SVM、KNN以及損失函數(shù)為MSE、MAE的DQN模型相比,NL-DQN模型在腦卒中數(shù)據(jù)集的準確率分別提高了12.65%、3.20%、4.77%、8.17%、3.96%和2.21%,驗證了本模型用于腦卒中篩查數(shù)據(jù)集性能的優(yōu)越性。

        以上實驗可以說明,NL-DQN模型的分類預(yù)測性能在不同數(shù)據(jù)集上,總體優(yōu)于Na?ve Bayes、J48、SVM、KNN、DQN(MSE)以及DQN(MAE)分類模型,充分驗證了NL-DQN模型的有效性。

        4 結(jié)論

        提出了一種FS-FE混合式特征降維方法,為使特征選擇不受屬性取值個數(shù)的影響,該方法采用MIC對CFS算法進行改進,結(jié)合改進的特征選擇算法與特征提取算法對特征進行混合降維,對分類性能有良好的作用。設(shè)計了基于Double DQN和Dueling DQN算法的腦卒中發(fā)病風險分類預(yù)測模型NL-DQN,提出了一種更具魯棒性的損失函數(shù)。結(jié)果表明,NL-DQN模型與已有算法相比,在UCI數(shù)據(jù)集、腦卒中篩查數(shù)據(jù)集中的準確率均有提高。但本文模型未考慮腦卒中篩查數(shù)據(jù)呈現(xiàn)的數(shù)據(jù)不平衡現(xiàn)象,下一步研究將針對數(shù)據(jù)集不平衡特點對模型進一步優(yōu)化。

        猜你喜歡
        特征選擇降維分類
        混動成為降維打擊的實力 東風風神皓極
        車主之友(2022年4期)2022-08-27 00:57:12
        分類算一算
        降維打擊
        海峽姐妹(2019年12期)2020-01-14 03:24:40
        分類討論求坐標
        數(shù)據(jù)分析中的分類討論
        教你一招:數(shù)的分類
        Kmeans 應(yīng)用與特征選擇
        電子制作(2017年23期)2017-02-02 07:17:06
        聯(lián)合互信息水下目標特征選擇算法
        拋物化Navier-Stokes方程的降維仿真模型
        計算物理(2014年1期)2014-03-11 17:00:18
        基于特征聯(lián)合和偏最小二乘降維的手勢識別
        一个色综合中文字幕人妻激情视频| 不卡国产视频| 国产精品一区二区日韩精品| 三级日本理论在线观看| 国产69精品久久久久app下载| 99偷拍视频精品一区二区| 依依成人影视国产精品| 色综合久久人妻精品日韩| av在线观看一区二区三区| 日本精品αv中文字幕| 亚洲一区综合精品狠狠爱| 亚洲一本之道高清在线观看| 蜜桃tv在线免费观看| 中文字幕乱码一区av久久不卡| 在线观看免费午夜大片| 各种少妇正面着bbw撒尿视频| 3344永久在线观看视频| 国产精品原创永久在线观看| 亚洲精品中文字幕乱码| av色综合久久天堂av色综合在| 亚洲暴爽av人人爽日日碰| 精品人妻av区乱码| 成人av毛片免费大全| 亚洲字幕av一区二区三区四区| 国产A√无码专区| 性感人妻中文字幕在线| 亚洲av免费不卡在线观看| 人妻少妇精品无码专区二区| 动漫在线无码一区| 热综合一本伊人久久精品| 国产人妖乱国产精品人妖| 亚洲18色成人网站www| 久久精品中文字幕久久| 日日高潮夜夜爽高清视频| 女的扒开尿口让男人桶30分钟| 欧美aⅴ在线| 久久亚洲精精品中文字幕早川悠里| 国产亚洲av无码av男人的天堂| 337人体做爰大胆视频| 欧美洲精品亚洲精品中文字幕| 中文字幕亚洲在线第一页|