羅 明
(廣東省梅州市人民醫(yī)院,廣東 梅州 514000)
隨著信息技術(shù)的不斷發(fā)展,智能化的疾病輔助診斷在解決專業(yè)醫(yī)師人力缺乏的同時(shí),有效提升了診療效率,這樣能夠促進(jìn)整體醫(yī)療水平的快速提高。醫(yī)療輔助設(shè)備的廣泛應(yīng)用,使得醫(yī)療輔助數(shù)據(jù)呈獻(xiàn)出快速的增長趨勢。同時(shí),這些數(shù)據(jù)中也蘊(yùn)含了大量有價(jià)值的信息,不僅有利于患者康復(fù),更能促進(jìn)醫(yī)療水平的整體提升。針對相關(guān)全流程病歷質(zhì)量出現(xiàn)的臨床診療效率低,醫(yī)生無法及時(shí)準(zhǔn)確的進(jìn)行診斷的問題,以及相關(guān)設(shè)備在藥液質(zhì)量方面出現(xiàn)的設(shè)備溫度和壓力不可調(diào)或者精度不夠準(zhǔn)的問題,設(shè)計(jì)了一種基于深度學(xué)習(xí)的全流程病歷質(zhì)量控制模型,其在醫(yī)療領(lǐng)域中應(yīng)用前景廣闊[1-2]。
文獻(xiàn)[3]提出了一種深度學(xué)習(xí)方法和一種醫(yī)學(xué)主題挖掘方法來從無文本病歷中自動預(yù)測疾病代碼,結(jié)果顯示,在重癥監(jiān)護(hù)醫(yī)療信息數(shù)據(jù)集上的F1分?jǐn)?shù)比最先進(jìn)水平提高了5%[3]。文獻(xiàn)[4]提出了一種新的電子健康記錄生成器,應(yīng)用了一種過濾策略來增強(qiáng)低患病率臨床概念的訓(xùn)練,結(jié)果顯示,所提出的模型優(yōu)于最先進(jìn)的方法,在保留真實(shí)記錄的性質(zhì)方面有顯著的改進(jìn)[4]。文獻(xiàn)[5]提出一種基于異構(gòu)圖圖卷積的文本分類技術(shù)以開展中醫(yī)電子病歷構(gòu)建,結(jié)果顯示,該模型在召回率以及準(zhǔn)確率上比改進(jìn)前算法提升超過了2%[5]。文獻(xiàn)[6]從區(qū)塊鏈技術(shù)出發(fā),提出了基于區(qū)塊鏈變革性干預(yù)類型的病歷信息共享模型,為病歷信息管理手段提供了參考[6]。文獻(xiàn)[7]通過對當(dāng)前最先進(jìn)的深度神經(jīng)網(wǎng)絡(luò)模型的改進(jìn)和調(diào)整,實(shí)現(xiàn)了對抑郁患者的輔助診斷,并將其用于臨床,并將其用于臨床,獲得了良好的結(jié)果。通過對比研究,本項(xiàng)目所提方法在抑郁-正常人腦MRI識別中的應(yīng)用效果,證明本項(xiàng)目所提方法在抑郁-正常人腦MRI識別中的應(yīng)用效果[7]。
因此,研究將輔助診斷設(shè)備作為研究對象,并對病歷模型展開分析。首先對雙向循環(huán)神經(jīng)網(wǎng)絡(luò)(BiGRU-SA,bidirectional recurrent neural network)模型和文本分類式前饋神經(jīng)網(wǎng)絡(luò)(TextCNN,transformation-extraction-convolutional CNN)模型的結(jié)構(gòu)進(jìn)行分析,其后對模型制定公式,對優(yōu)化后的混合深度學(xué)習(xí)模型進(jìn)行分析,以提升全流程病歷質(zhì)量控制系統(tǒng)的穩(wěn)定性并提高其臨床診療效率。深度學(xué)習(xí)輔助決策醫(yī)療器械臨床試驗(yàn)有效性指標(biāo)一般考慮驗(yàn)證確認(rèn)診斷準(zhǔn)確度評價(jià)指標(biāo),即在診斷試驗(yàn)中區(qū)分不同疾病狀態(tài)的能力。
全流程病歷質(zhì)量控制模型可以幫助醫(yī)生更準(zhǔn)確地診斷疾病,提高治療效果,并且比人類醫(yī)生更快地發(fā)現(xiàn)潛在的問題,從而減少誤診、漏診的情況。以下是一些全流程病歷質(zhì)量控制模型的好處,分別是幫助醫(yī)生提高診斷準(zhǔn)確性,通過全流程病歷質(zhì)量控制模型可以通過分析大量數(shù)據(jù)來預(yù)測一個(gè)患者可能患有某種疾病的可能性[8]。這樣,醫(yī)生就可以提前發(fā)現(xiàn)潛在的問題,從而采取相應(yīng)的治療措施。并提高治療效率,全流程病歷質(zhì)量控制模型可以根據(jù)患者的歷史癥狀和檢查結(jié)果來預(yù)測患者可能患有某種疾病。這樣,醫(yī)生就可以提前采取措施來緩解癥狀或預(yù)防并發(fā)癥的發(fā)生[9]。其后,提高醫(yī)療質(zhì)量,全流程病歷質(zhì)量控制模型可以通過分析大量數(shù)據(jù),來預(yù)測一種疾病或癥狀可能出現(xiàn)的概率。這樣,醫(yī)生就可以提前采取措施來緩解患者的痛苦和提高治療效果。就可以更多地專注于治療患者,在有限的時(shí)間內(nèi)提高治療效果。
中文分詞(CWS,chinese word segmentation),它是對一個(gè)語句進(jìn)行切割,從而獲得單個(gè)單詞,能起到關(guān)鍵作用的方式為,以自然語言及數(shù)據(jù)挖掘進(jìn)行差異化處理[10]。中英文在語序語義方面差異明顯,英文語言的句子里,所有的字都會被空出來,一個(gè)字就是一個(gè)字,而中文語言的句子里,沒有自然的分割線,也沒有清晰的識別標(biāo)志,只能人工進(jìn)行分割。這一部分主要包括三個(gè)方面:基于規(guī)則的切分法,基于概率和統(tǒng)計(jì)的切分法,以及基于語義的切分法。當(dāng)前,常用的基于Jieba的自動分割方法主要采用基于前綴詞典的語句分割方法,已有的算法對已有的數(shù)據(jù)進(jìn)行處理,并利用該算法對已有的數(shù)據(jù)進(jìn)行處理[11]。它支持簡單繁體的切詞,還支持定制詞典,并且還支持精確模式、全模式和搜索引擎模式三種切詞模式,在業(yè)內(nèi)受到了廣泛的歡迎。去停用詞,是數(shù)據(jù)預(yù)處理過程中不可或缺的一環(huán),由于并不是所有的詞語都可以表達(dá)出原本的文字意思,如助詞(所以、的、了等)、語氣詞(啊、哪等)等都是沒有作用和意義的詞,在研究中,這些詞被稱作停用詞,不僅會降低文本關(guān)鍵詞的密度,還會在某種程度上對后續(xù)文本分析的效果產(chǎn)生影響,因此,就可以將它們從文本中刪除。要實(shí)施解禁詞匯,首先要建立解禁詞匯列表,當(dāng)前,網(wǎng)絡(luò)上有許多高品質(zhì)的中文解禁詞匯列表,研究可以從網(wǎng)絡(luò)上下載一套解禁詞匯列表,以供解禁詞匯檢索。通過將中文分詞任務(wù)轉(zhuǎn)化為一個(gè)字符序列標(biāo)注任務(wù),可以進(jìn)一步將該任務(wù)看作一個(gè)分類問題,即為字符序列中的每個(gè)字符確定標(biāo)簽分類的問題,最后實(shí)現(xiàn)用神經(jīng)網(wǎng)絡(luò)解決該多分類問題。谷歌研究小組于2013年推出Word2Vec框架,該框架使用深度神經(jīng)網(wǎng)絡(luò)將文字信息轉(zhuǎn)換成詞匯,并將文字信息轉(zhuǎn)換成一個(gè)低維的維度,從而實(shí)現(xiàn)對文字信息的有效表達(dá)[12]。Word2Vec的學(xué)習(xí)過程中,有兩個(gè)學(xué)習(xí)過程:一個(gè)是 CBOW,一個(gè)是Skip-gram。
門循環(huán)單元(GRU,gate recurrent unit)是LSTM模型一個(gè)較成功的變種,由Cho,Gulcehre等人于2014年提出GRU只有兩個(gè)門即更新門和重置門,更新門就相當(dāng)于LSTM模型中輸入門和遺忘門的合并,并且新增了重置門,取消了輸出門。更新門的作用是控制前面記憶單元中的狀態(tài)信息被帶入到后面單元的程度,更新門的值越大說明被帶入的狀態(tài)信息越多[13]。重置門的作用是控制前面狀態(tài)信息的忽略程度,重置門的值越大說明忽略的越少,換句話說也就是對當(dāng)前的輸出影響越大。GRU模型結(jié)構(gòu),如圖1所示。
圖1中,xt與ht分別表示即時(shí)的輸入與輸出,而上一時(shí)刻的隱藏層的信息輸出為ht-1,st與rt在GRU模組中為更新門和重置門,活化函數(shù)用σ和tanh表示,st和rt的公式,如式(1)所示。
(1)
式(1)中,Ws和Wr為門控對ht-1和xt的系數(shù),即需學(xué)習(xí)的權(quán)重矩陣。BiGRU是一個(gè)雙程神經(jīng)網(wǎng)絡(luò)模式,可以更好地捕捉病人的抱怨情境中的意義依存關(guān)系。在此基礎(chǔ)上,提出了一種基于自我注意的新方法,即通過自我注意來降低對外界信息的過度依賴性,提高了語義特征和語句的內(nèi)在關(guān)聯(lián)性。在BiGRU的基礎(chǔ)上,提出了一種新的醫(yī)學(xué)診斷方法——BiGRU-SA,并將其應(yīng)用于醫(yī)學(xué)診斷中。在BiGRU-SA模式中,利用自我注意的作用,捕捉病人抱怨情境中的語義相關(guān)性。通過對文本中各個(gè)詞進(jìn)行加權(quán)處理,提高了文本的語義表達(dá)能力和語義表達(dá)能力[14-15]。在此基礎(chǔ)上,提出了一種基于二維GRU的病案情境關(guān)聯(lián)分析方法。在此基礎(chǔ)上,利用BiGRU-SA方法,實(shí)現(xiàn)了對醫(yī)學(xué)信息的快速識別。利用自我關(guān)注的思想,能夠更好地把握病人在不同背景下的陳述內(nèi)容,進(jìn)而提高對病人陳述內(nèi)容的識別精度。BiGRU-SA模型架構(gòu),如圖2所示。
圖2 BiGRU-SA模型架構(gòu)圖
圖2中,第一個(gè)層次是輸入層次,將病人的訴求輸入到該模型中;第二個(gè)層次是詞向量構(gòu)建層次,將病人訴求降維后,將訴求轉(zhuǎn)化為低維向量;第三個(gè)層次是 BiGRU的網(wǎng)絡(luò)結(jié)構(gòu),利用 BiGRU提取病人訴求表征;最后一個(gè)層次是自我關(guān)注層次,利用 Attention加權(quán)函數(shù),將訴求的詞匯和表達(dá)的表征融合在一起;最后一個(gè)層次是輸出層次,將病人主訴的描述結(jié)合起來,最后一個(gè)層次是輸出層次,給出對病人主訴的描述。
TextCNN是一種流行的深度學(xué)習(xí)模型,它的結(jié)構(gòu)比較簡單,包括嵌入層、卷積層、池化層和全連接層。它通過將文本數(shù)據(jù)輸入到嵌入層,在此基礎(chǔ)上,利用卷積方法抽取語句中的字符,再利用極大浸漬方法抽取一維矢量,再利用完全連通層獲得其結(jié)果。TextCNN模型的主要特點(diǎn)是利用了卷積層和池化層來提取文本的特征,并使用了全連接層來生成最終的輸出[16-17]。這種模型結(jié)構(gòu)簡單,適用于處理簡單的文本任務(wù),如文本分類、命名實(shí)體識別等。
當(dāng)前廣泛使用的TextCNN具有良好的文字識別性能,但由于其對病癥的表征缺失,因此,研究通過構(gòu)建F-TextCNN來解決這個(gè)問題。F-TextCNN旨在構(gòu)建一個(gè)能夠更好地表征病癥的模型,使其具有更高的識別精度。在F-TextCNN中,研究使用一種新的特征提取方法,這種方法能夠有效地提取病癥特征,從而提高文字識別的性能。同時(shí),研究還使用了一種新的池化方法,使得模型能夠更好地提取病癥特征,從而提高文字識別的準(zhǔn)確性。F-TextCNN能夠有效地解決文本識別中由于缺乏病癥表征而導(dǎo)致的問題,使其具有更高的性能和更好的準(zhǔn)確率[18-19]。文本CNN的模式架構(gòu),可分為嵌入層、卷積層、池化層及完全連通層。TextCNN中的卷積神經(jīng)網(wǎng)絡(luò),其主要功能在于抽取文本中的語義信息,而無須像其他的機(jī)器學(xué)習(xí)算法那樣,對文本中的語義信息進(jìn)行獨(dú)立的處理。TextCNN的集合層可采用最大集合法、平均集合法等多種方式,其中最常見的是最大集合法,即通過抽取特征圖中的極大值來捕捉最關(guān)鍵的特性。通過對多個(gè)從卷積圖像中提取出的多個(gè)特征圖進(jìn)行融合,可獲得多個(gè)一維矢量。最大融合方法具有不受時(shí)間限制、不受時(shí)間限制等優(yōu)勢,能夠有效地降低建模中的參數(shù)個(gè)數(shù)和過擬合,但也有一定的局限性[20]。故而,TextCNN模型結(jié)構(gòu),如圖3所示。
圖3 TextCNN模型原理及其架構(gòu)圖
如圖3,在該算法中,嵌入層采用了事先學(xué)習(xí)好的詞矢量,并將其構(gòu)造成一個(gè)矩陣,并將其用作一個(gè)單詞的代表。把數(shù)據(jù)集上的每一個(gè)單詞都用一個(gè)向量來表達(dá),這樣就可以獲得一個(gè)NxK的嵌入矩陣M,在該矩陣中,每一行都是詞向量。在這些情況下,因?yàn)?TextCNN使用最大池化進(jìn)行處理,避免了池化過程中對病征特性的影響。為了解決這個(gè)問題,從卷積層中抽取出來的所有的特征被聯(lián)系起來,保證了癥狀特征的完整,并用準(zhǔn)確率、召回率以及F1指標(biāo)來評價(jià)該模型的優(yōu)劣。在F-TextCNN框架下,先將疾病相關(guān)的數(shù)據(jù)輸入到嵌入層,然后輸出一個(gè)非線性激勵(lì)函數(shù),然后將整個(gè)內(nèi)嵌層連接到嵌入層,然后在Dropout層正則化學(xué)習(xí),從而有效地避免了神經(jīng)網(wǎng)絡(luò)的過擬合問題。在經(jīng)過任何一批學(xué)習(xí)后,將其中的隱藏結(jié)點(diǎn)舍棄掉,從而降低了隱藏結(jié)點(diǎn)間的相互依賴程度。最終,在整個(gè)聯(lián)結(jié)層次上,利用激發(fā)函數(shù)Sigmoid對兩個(gè)不同的特征進(jìn)行二次分類,得到的結(jié)果在兩個(gè)不同的特征量之間更優(yōu)。該方法對病人的疾病信息進(jìn)行了詞匯矢量建模,然后將病人的疾病信息轉(zhuǎn)化為一個(gè)2D的矩陣,并在該模型的輸入層利用“補(bǔ)零”原理,使該矩陣保持固定長度,也就是一個(gè)最大值N=824,其他句子小于824時(shí),再用0進(jìn)行填充。在該方法中,選擇3個(gè)大小不一的卷積核,通過卷積運(yùn)算得到詞向量的特征。改進(jìn)的最終輸出類別概率,如式(2)所示。
(2)
式(2)中,Ci為卷積后的特征圖,n-k+1為池化層高度,故而,池化的結(jié)果就是將特征圖進(jìn)行全連接。
將F-TextCNN與BiGRU-SA相結(jié)合,以兩種新的檢測技術(shù)為核心,在此基礎(chǔ)上,將F-TextCNN與BiGRU-SA相結(jié)合,以達(dá)到對疾病進(jìn)行早期診斷的目的。F-TextCNN是一種基于深度神經(jīng)網(wǎng)絡(luò)的醫(yī)療影像數(shù)據(jù)分析方法,能夠?qū)︶t(yī)療影像數(shù)據(jù)進(jìn)行有效地分析和處理。BiGRU-SA是一個(gè)利用機(jī)器學(xué)習(xí)技術(shù),從病人身上提取出的信息,幫助醫(yī)師做出正確的判斷。這兩種技術(shù)各有其優(yōu)點(diǎn),可為醫(yī)療輔助診斷工作提供有力支撐。此次研究考慮綜合運(yùn)用F-TextCNN與BiGRU-SA模型,實(shí)現(xiàn)對疾病的診療,為臨床診療提供新的思路。在進(jìn)行訓(xùn)練的時(shí)候,將兩個(gè)模型分別進(jìn)行,兩個(gè)模型之間互相獨(dú)立,不會受到任何的影響。在訓(xùn)練完畢之后,將兩個(gè)模型的分類結(jié)果進(jìn)行融合,因?yàn)樯窠?jīng)網(wǎng)絡(luò)模型最終的輸出是一個(gè)概率值,所以將兩個(gè)分類結(jié)果進(jìn)行加權(quán)平均,就可以得到最終的輸出?;旌夏P土鞒?,如圖4所示。
圖4 混合模型流程框架結(jié)構(gòu)
圖4中,針對混合模型流程,首先由嵌入層到卷積層再到池化層,對特征信息進(jìn)行池化,而后加入到全連接層,再由F-TextCNN模型進(jìn)行輸出。同理,BIGGRU-SA模型輸出后,一起進(jìn)入到加權(quán)平均輸出層,加權(quán)后,結(jié)束模型工作。將兩個(gè)模型的輸出結(jié)果進(jìn)行融合做加權(quán)平均操作,可減少誤差,活化函數(shù)是在神經(jīng)細(xì)胞中,將輸入的權(quán)重相加后,被用于一個(gè)功能的運(yùn)算后,該功能就是活化函數(shù)。在激勵(lì)函數(shù)為非線性的情況下,神經(jīng)網(wǎng)絡(luò)能夠任意近似大部分的復(fù)合功能。但是,若使用一維線性激勵(lì)函數(shù),則其結(jié)果是一維非線性激勵(lì)函數(shù),因而不能近似復(fù)函數(shù)。因此,在神經(jīng)元網(wǎng)絡(luò)中加入一個(gè)激勵(lì)函數(shù),就是要將一個(gè)非線性因子加入到神經(jīng)網(wǎng)絡(luò)中,這樣才能更好地處理一些更復(fù)雜的問題。在不引入激勵(lì)函數(shù)的情況下,神經(jīng)網(wǎng)絡(luò)與原感知器之間沒有什么區(qū)別。由BiGRU-SA模型和F-TextCNN模型的輸出公式,如式(3)所示。
(3)
式(3)中,Wy是權(quán)重系數(shù)矩陣,by是代表相應(yīng)的偏置,進(jìn)而達(dá)到預(yù)測類別的效果。則F-TextCNN和BiGRU-SA相結(jié)合的醫(yī)療輔助診斷混合模型的輸出公式,如式(4)所示。
(4)
在此基礎(chǔ)上,利用國家“知識地圖”和“語義學(xué)”會議上的正式醫(yī)學(xué)文字庫,構(gòu)建基于“醫(yī)學(xué)文字”的全過程醫(yī)學(xué)文件內(nèi)容質(zhì)控系統(tǒng)。數(shù)據(jù)為患者病情描述文本分類數(shù)據(jù)集,共有40 000條數(shù)據(jù),將數(shù)據(jù)進(jìn)行劃分后,可以獲得訓(xùn)練集34 000條數(shù)據(jù),測試集4 300條數(shù)據(jù),其中包含了艾滋病、白癱風(fēng)、不孕不育、產(chǎn)科、癲癰、耳鼻喉科、肺癌、婦科炎癥等45個(gè)疾病或科室的分類數(shù)據(jù)?;贐iGRU-SA的全流程病歷質(zhì)量控制模型的參數(shù)優(yōu)化實(shí)驗(yàn),如圖5所示。
圖5 參數(shù)優(yōu)化實(shí)驗(yàn)圖
圖5(a)中,橫軸表示的是詞向量維度的選擇,它們分別為25、50、100、150、200、250、300的向量維度,而縱軸表示的是正確率??梢钥闯觯?dāng)詞向量設(shè)定為160時(shí),BiGRU-SA模型的效果最優(yōu),其正確率為84.9%。圖5(b)中,水平坐標(biāo)為迭代次數(shù),垂直坐標(biāo)為精度。隨著迭代次數(shù)的增加,模型精度出現(xiàn)了先增大后減小的趨勢,在第六次迭代時(shí),模型效果最優(yōu),精度為84.9%。各對比模型之間隨著迭代次數(shù)的變化而變化的準(zhǔn)確率折線圖,如圖6所示。
圖6 各對比模型之間隨著迭代次數(shù)的變化而變化的準(zhǔn)確率折線圖
圖6中,橫軸代表迭代次數(shù),縱軸代表準(zhǔn)確率,展現(xiàn)了所有模型隨著迭代次數(shù)的變化而變化的模型性能。通過對比五組模型實(shí)驗(yàn)結(jié)果的準(zhǔn)確率、召回率和F1值,BiGRU-Sa在6~7次迭代中,可達(dá)到最高精度,為85.4%。而Selt-Attention Model在第一次迭代時(shí)的精度最高,為82.7%。且Selt-Attention Model和LSTM Model都隨著迭代的增加,精度都呈現(xiàn)下降的趨勢?;贚STM的全流程病歷質(zhì)量控制模型的準(zhǔn)確率較低,而基于GRU模型、Self-Attention模型和BiGRU模型的準(zhǔn)確率依次遞增?;谧宰⒁饬C(jī)制BiGRU模型具有更高的精度。BiGRU-SA模型是基于BiGRU模型加入了自我注意機(jī)制,能夠利用自我注意機(jī)制層次賦予的權(quán)值來凸顯疾病癥狀的特征性信息,使其能夠更好地聚焦于疾病癥狀詞匯而忽視與疾病癥狀無關(guān)的特征性信息。通過將GRU和LSTM模型進(jìn)行比較,可以看出,GRU模型在降低LSTM模型結(jié)構(gòu)的同時(shí),仍然保留了其原有的計(jì)算效果,降低了計(jì)算量,從而使得 GRU模型的運(yùn)行時(shí)間更短,而且效率更高。在圖中,根據(jù)BiGRU和GRU模型的比較可以看出,因?yàn)锽iGRU對輸入語句中雙向進(jìn)行計(jì)算,能夠提取到更精確的文本特征,因此,雙向門限循環(huán)神經(jīng)網(wǎng)絡(luò)模型具有更高的精度,因?yàn)樗哂懈玫慕Y(jié)構(gòu),能夠捕獲更深層次的信息,并且可以有效地處理序列數(shù)據(jù)。此外,加入自關(guān)注策略后,該模型的識別精度也得到了顯著的提高,表明它對于醫(yī)學(xué)文字的識別效果也非常優(yōu)秀。通過對不同的自關(guān)注策略進(jìn)行實(shí)驗(yàn),可以發(fā)現(xiàn)在不同的策略下,模型的識別效果也會有所不同。因此,選擇最合適的自關(guān)注策略可以顯著提高模型的識別精度。
為了對該模式的效能進(jìn)行檢驗(yàn),研究利用了36 000個(gè)訓(xùn)練集合和4 500個(gè)健康醫(yī)學(xué)文字資料進(jìn)行了分析。研究首先使用了TextCNN算法對這些數(shù)據(jù)進(jìn)行了預(yù)處理,包括清洗和特征選擇,然后將數(shù)據(jù)集分為訓(xùn)練集和測試集。接著,研究采用了多種算法(如交叉驗(yàn)證、單調(diào)性測試、準(zhǔn)確率測試等)來評估這些模型的性能。最后,研究使用了多種分析方法(如相關(guān)性分析、線性回歸等)來探究模型之間的關(guān)聯(lián)和差異。通過這些分析,研究得出了一些結(jié)論,該模式在預(yù)測準(zhǔn)確性、穩(wěn)定性和可解釋性方面表現(xiàn)都很出色。
在此基礎(chǔ)上,將F-TextCNN,LSTM,Bi-LSTM等神經(jīng)網(wǎng)絡(luò)方法進(jìn)行識別,并將F-TextCNN方法應(yīng)用于醫(yī)學(xué)文本的識別,以檢驗(yàn)F-TextCNN方法的識別效果。為了驗(yàn)證F-TextCNN模型對醫(yī)療文本的有效作用,一共設(shè)計(jì)了四組實(shí)驗(yàn),使用TextCNN,LSTM和Bi-LSTM神經(jīng)網(wǎng)絡(luò)模型與該模型進(jìn)行對比分析,實(shí)驗(yàn)對比結(jié)果如表1所示。
表1 模型對比實(shí)驗(yàn)結(jié)果
表1中,第一欄是做試驗(yàn)時(shí)使用的比較模型,第二欄是準(zhǔn)確率,第三欄是召回率,第四欄是F1值,所有模型的度量數(shù)據(jù)都顯示在表格中。其中,F(xiàn)-TextCNN的準(zhǔn)確率為88.1%,回收率為87.1%,F(xiàn)1值為87.1%,F(xiàn)1值為87.7%。通過對5個(gè)試驗(yàn)的比較,可以看出LSTM模型的精度很低,而TextCNN和Bi-LSTM模型的精度是依次提高的。而F-TextCNN則通過改變傳統(tǒng) CNN的池化模式,實(shí)現(xiàn)特征信息的完全鏈接,確保特征信息不會丟失,并有效地避免了模型的過擬合。
為了對基于F-TextCNN和BiGRU-SA的醫(yī)學(xué)文本分類方法進(jìn)行對比分析,研究進(jìn)行了三個(gè)實(shí)驗(yàn)。這三個(gè)實(shí)驗(yàn)分別是基于TextCNN和BiGRU-SA的醫(yī)學(xué)文本分類任務(wù)的對比實(shí)驗(yàn)、基于F-TextCNN和BiGRU-SA的醫(yī)學(xué)文本分類任務(wù)的對比實(shí)驗(yàn)。各模型之間,隨著迭代次數(shù)的變化而變化的準(zhǔn)確率折線圖,如圖7所示。
圖7 三種模型下準(zhǔn)確率與迭代次數(shù)的關(guān)系
圖7中,橫坐標(biāo)是重復(fù)試驗(yàn)的次數(shù),縱坐標(biāo)是精準(zhǔn)度??梢钥闯?,BiGRU-SA MODEL,精準(zhǔn)度受向量維度的影響并不大。改進(jìn)的TextCNN模型,精準(zhǔn)度在其進(jìn)行第3次和第四次迭代更新時(shí),發(fā)生指數(shù)級增長,并在第3次迭代時(shí),精度達(dá)到理想值,為83%。組合模型,其迭代經(jīng)歷與改進(jìn)的TextCNN模型相似,并在第3次迭代后,精準(zhǔn)度達(dá)到理想值,為82.7%。通過對三組實(shí)驗(yàn)的實(shí)驗(yàn)結(jié)果進(jìn)行比較,可以看出,基于BiGRU-SA模型的準(zhǔn)確率低于其他兩個(gè)模型,而F-TextCNN神經(jīng)網(wǎng)絡(luò)模型和混合模型的準(zhǔn)確率更高。F-TextCNN和BiGRU-SA相結(jié)合的全流程病歷質(zhì)量控制模型在準(zhǔn)確性上表現(xiàn)更優(yōu),因?yàn)樵撍惴軌驅(qū)-TextCNN和BiGRU-SA模型的結(jié)果進(jìn)行融合,從而取長補(bǔ)短,平衡兩者帶來的負(fù)面影響,得到的結(jié)果更具有可解釋性。在實(shí)際應(yīng)用中,該算法可以有效地利用F-TextCNN和BiGRU-SA模型的優(yōu)勢,實(shí)現(xiàn)更加準(zhǔn)確的醫(yī)療輔助診斷。
通過這些實(shí)驗(yàn),研究可以得出結(jié)論,基于F-TextCNN和BiGRU-SA的醫(yī)學(xué)文本分類方法都具有較好的性能。盡管F-TextCNN比BiGRU-SA更加靈活,但BiGRU-SA在處理復(fù)雜的醫(yī)學(xué)文本分類任務(wù)時(shí)表現(xiàn)更好。因此,研究可以根據(jù)實(shí)際需求選擇適合自己的模型來進(jìn)行醫(yī)學(xué)文本分類任務(wù)。
為了驗(yàn)證研究所提基于深度學(xué)習(xí)的病歷質(zhì)量控制模型的在病史數(shù)據(jù)、體格檢查等多項(xiàng)文本上的應(yīng)用效果,研究選擇CCKS2020數(shù)據(jù)集作為實(shí)驗(yàn)樣本,該數(shù)據(jù)集包好一般項(xiàng)目、病史特點(diǎn)、診療過程以及出院情況等四大類,下設(shè)癥狀與體征、檢查與檢驗(yàn)等小類。研究采用的分類評價(jià)指標(biāo)為F1值,以便綜合納入準(zhǔn)確率和召回率。表2為不同模型在該數(shù)據(jù)集上分類結(jié)果。
表2 不同模型在CCKS2020數(shù)據(jù)集上分類結(jié)果
從表2可知,研究所提模型在既往病史、體格檢查等諸多項(xiàng)目的分類精度上均優(yōu)于其他分類模型。平均精度高于90%,比CRF(conditional random field)模型、BiGRU-CRF以及BiLSTM提高了6.69%、2.35%和2.12%。這表明研究所提模型能更有效地學(xué)習(xí)文本的句子結(jié)構(gòu)信息與句子的表示,以便學(xué)習(xí)文本的語義特征用于分類。表3為電子病歷中不同實(shí)體識別結(jié)果。
從表3可知,在疾病與診斷、藥物、手術(shù)以及解剖部位的實(shí)體識別結(jié)果中,研究所提模型在三種分類性能指標(biāo)上均獲得了最高數(shù)值。比如在對藥物的分類識別中,該模型在準(zhǔn)確率、召回率以及F1值上,分別比BiGRU-CRF模型提高了3.73%、1.96%和2.91%。這表明研究所提模型有助于從分類管理中提升病歷質(zhì)量控制。
研究將全流程病歷質(zhì)量控制模型作為實(shí)驗(yàn)對象,首先對F-TextCNN和BiGRU-SA分別進(jìn)行輔助診療的測驗(yàn),并通過獲取輔助診療效果的控制模型和參數(shù)尋優(yōu),最終利用基于BiGRU-SA和F-TextCNN的全流程病歷質(zhì)量混合控制進(jìn)行仿真評估,以得到平滑的曲線,在解決過擬合和特征信息丟失的情況下實(shí)現(xiàn)對全病歷流程的質(zhì)量控制。模擬結(jié)果顯示,經(jīng)過6~7次的迭代,BiGRU-Sa的計(jì)算精度可以達(dá)到85.4%。其中Selt-Attention模型的精確度是最好的,其精確度達(dá)到82.7%。Selt-Attention模型和 LSTM模型均隨迭代數(shù)的增大而減小。其中,F(xiàn)-TextCNN的準(zhǔn)確率為88.1%,召回率為87.1%,F(xiàn)1值為87.1%,其中F1值為87.7%。通過對三組實(shí)驗(yàn)的實(shí)驗(yàn)結(jié)果進(jìn)行比較,可以看出,基于BiGRU-SA模型的準(zhǔn)確率低于其他兩個(gè)模型,而F-TextCNN神經(jīng)網(wǎng)絡(luò)模型和混合模型的準(zhǔn)確率更高。組合模型,其迭代經(jīng)歷與改進(jìn)的TextCNN模型相似,并在第3次迭代后,精準(zhǔn)度達(dá)到理想值,為82.7%。綜上所述,本研究提出的方法能夠有效地幫助醫(yī)患之間在溝通交流中克服表達(dá)障礙,從而提高病歷質(zhì)量。這一方法通過BiGRU-SA模型提取病歷信息特征,基于F-TextCNN提高模型計(jì)算效率和收斂速度以分析醫(yī)療數(shù)據(jù)和病歷,從而識別出其中的關(guān)鍵信息,幫助醫(yī)生更好地理解患者的病情和治療需求。此外,該方法還能夠指導(dǎo)醫(yī)生更好地進(jìn)行病歷書寫和管理,提高病歷質(zhì)量和效率,從而為患者提供更優(yōu)質(zhì)的醫(yī)療服務(wù)。