亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度學習的高分辨率食管測壓圖譜中食管收縮活力分類

        2022-02-24 08:59:10賀福利戴渝卓李釗穎王姣菊戴燎元侯木舟
        電子與信息學報 2022年1期
        關(guān)鍵詞:集上活力食管

        賀福利 戴渝卓 李釗穎 粟 日 曹 聰 王姣菊戴燎元 侯木舟* 汪 政②

        ①(中南大學數(shù)學與統(tǒng)計學院 長沙 410083)

        ②(湖南第一師范大學科學與工程學院 長沙 410205)

        ③(湖南省計算機用戶協(xié)會 長沙 410205)

        1 引言

        食管動力障礙性疾病(Esophageal Motility Disorder, EMD)主要是指由食管胃動力障礙引起的以各種消化道癥狀為臨床表現(xiàn)的食管疾病[1,2]。食道動力障礙可產(chǎn)生一系列不良癥狀,如胸痛、燒心、吞咽困難、胃酸反流惡心等,從而嚴重影響人們的生活質(zhì)量。近幾年,EMD的研究引起了社會各界的廣泛關(guān)注。

        高分辨率食管測壓技術(shù)(High-Resolution Manometry, HRM)是在傳統(tǒng)食管壓力測量的基礎(chǔ)上于20世紀90年代發(fā)展起來的一項新型固態(tài)壓力測量技術(shù)[3]。它被認為是動力障礙的主要診斷方法,也是一些食管動力障礙診斷的“金標準”。HRM的原理是通過檢測患者吞咽過程中食管上括約肌(Upper Esophageal Sphincter, UES)、食管、食管下括約肌( Lower Esophageal Sphincter,LES)、膈肌的壓力變化,同時生成食管壓力圖(Esophageal Pressure Topography, EPT),以供醫(yī)生診斷癥狀[4—6]。目前,HRM結(jié)合芝加哥分類(Chicago Classification, CC) v3.0診斷標準[7],為EMD的研究提供了病理生理學基礎(chǔ),成為輔助醫(yī)生臨床預(yù)防、診斷和治療EMD的重要手段,廣泛應(yīng)用于臨床試驗中[8]。然而,現(xiàn)階段的HRM圖像分析工作都是由醫(yī)生用肉眼完成的,存在以下問題:(1)由于醫(yī)生專業(yè)水平的局限性和HRM圖像分析與診斷的復(fù)雜性,臨床上HRM圖像診斷結(jié)果存在異議和誤診的問題時有發(fā)生;(2)隨著醫(yī)學圖像數(shù)據(jù)呈井噴式增長,醫(yī)務(wù)人員的工作量急劇增加,在醫(yī)生精力有限的情況下,繁瑣的診斷工作極可能導(dǎo)致醫(yī)生工作效率低下并伴隨誤診、漏診風險。因此,如何借助計算機智能分析HRM圖像以提高臨床上EMD的診斷準確性,已逐漸成為智慧醫(yī)療的研究重點和熱點。

        深度學習(Deep learning, DL)技術(shù)作為人工智能的熱門研究領(lǐng)域,在挑戰(zhàn)圖像的目標分類、分割和檢測任務(wù)上取得的巨大成功為以上問題的解決帶來了希望。DL網(wǎng)絡(luò)可理解為傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的延伸,是通過深層非線性網(wǎng)絡(luò)結(jié)構(gòu)無限逼近復(fù)雜函數(shù)獲取數(shù)據(jù)的原始特征,進而取代傳統(tǒng)的由人工提取數(shù)據(jù)特征的方法,實現(xiàn)了讓機器自主學習數(shù)據(jù)特征的智能化[9]。同時,由于網(wǎng)絡(luò)模型具有層次深、運算量大、表達能力強等特點,DL適用于處理大數(shù)據(jù),尤其是圖像這類直觀但高級語義信息不顯著的數(shù)據(jù)[10]。所以DL幾乎可以應(yīng)用于各類醫(yī)學影像的診斷工作。

        為了減少從HRM圖像中提取的特征偏差并進行特征分類,Kou等人[11]提出了變分自動編碼器(Variational Auto-Encoder, VAE),以協(xié)助醫(yī)生診斷食管動力障礙[11]。他們基于降維的方法從HRM圖像中尋找有用的特征(收縮模式)。作者發(fā)現(xiàn),在訓(xùn)練和測試集上僅對收縮強度、收縮模式和括約肌松弛[7]的潛在變量進行編碼時,分類誤差較小。此外,他們在考慮損失函數(shù)時,模型只有加入正則化參數(shù)的混合L2才能選擇收縮和松弛過渡期間的重要特征。同樣,為了識別賁門失弛緩癥亞型的痙攣(III型)和非痙攣(I型和II型),Carlson等人[12]使用了有監(jiān)督的機器學習(Machine Learning, ML)方法,如決策樹和隨機森林算法。其實驗結(jié)果表明:使用訓(xùn)練數(shù)據(jù)對痙攣(III型)和非痙攣(I型和II型)進行分類的準確率為90%,而測試數(shù)據(jù)的準確率僅為78%;使用訓(xùn)練和測試數(shù)據(jù)的賁門失弛緩癥亞型I, II和III的準確率分別為71%和55%。上述方法的局限性在于3類賁門失弛緩癥的HRM圖像數(shù)量往往是不平衡的,這可能導(dǎo)致數(shù)據(jù)量較少的病癥在分類準確性上存在偏差。而且他們沒有考慮這些特征之間存在的相關(guān)性。

        HRM圖像的成像特殊性[13]、診斷復(fù)雜性和疾病多樣性使得DL在HRM圖像診斷任務(wù)中的應(yīng)用較少。因此,基于DL技術(shù)的 EMD分類研究無論是對智慧醫(yī)療技術(shù)的未來發(fā)展還是對EMD臨床診斷工作都具有重大價值。然而HRM圖像診斷的復(fù)雜性和部分典型數(shù)據(jù)的稀缺性給本研究工作帶來了一定局限,以至于本研究目前無法一次性完成EMD的全部分類工作。由于食管收縮活力是衡量食管動態(tài)特征的重要指標之一[7],收縮活力異常將直接影響食管功能的健康,本文將基于DL技術(shù)研究計算機對食管收縮活力的全自動分割、分類方法,為EMD計算機輔助診斷(Computer Aided Diagnosis,CAD)系統(tǒng)的搭建工作奠定基礎(chǔ)。CC v3.0將收縮活力分為5類:失收縮、弱收縮、無效收縮(失收縮或弱收縮)、正常收縮和高幅收縮。在臨床實踐中高幅收縮病例難以收集,其數(shù)據(jù)量遠小于其他病例而導(dǎo)致了類別失衡問題,并且極小樣本量是不足以支撐DL在診斷任務(wù)中獲得高精度結(jié)果的。因此,本文只針對食管收縮活力的失收縮、弱收縮和正常收縮進行智能診斷。

        本文將利用深度學習的卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)作為主要研究方法,創(chuàng)造性地提出了一個多任務(wù)模型Proposal of Swallowing frame-Classification Network (PoS-ClasNet)用于食管收縮活力的鑒別診斷工作。PoS-ClasNet是由Proposal of Swallowing frame network (PoSNet)和Swallowing frame Classification Network (SClasNet)相結(jié)合的感興趣區(qū)域(Region of Interest,ROI)分類器,承擔了分割和分類兩階段任務(wù)。在本工作中,HRM圖像的吞咽框為研究的感興趣區(qū)域,由PoSNet提取得到;S-ClasNet負責對吞咽框的收縮活力進行分類。研究結(jié)果表明,食管收縮活力分類器PoS-ClasNet在訓(xùn)練集、驗證集和測試集上都表現(xiàn)出了優(yōu)異的分類性能,在測試集上最終診斷階段的準確率為93.25%,對3類收縮活力分類的平均精度為93.18%,平均召回率為93.24%,平均F1得分為0.9321。

        2 實驗數(shù)據(jù)

        2.1 數(shù)據(jù)來源

        本文使用了中南大學湘雅醫(yī)院于2019年采集的實驗數(shù)據(jù)集。該數(shù)據(jù)集包含4000幅HRM圖像,由固態(tài)高分辨率測壓系統(tǒng)—ManoScan 360TM(Sierra Scientific Instruments)檢測,并由采集和分析軟件—Mano View ESO3.0生成[14]。其中失收縮圖像1450幅,弱收縮圖像1050幅,正常收縮圖像1050幅。所有圖像的真實標簽由中南大學湘雅醫(yī)院消化科專家基于CC v3.0標準和Mano View ESO3.0的分析報告對每幅HRM圖像的食管收縮活力類型進行深入探討得出。這些實驗數(shù)據(jù)的患者來自中國各地,具有很強的代表性。

        2.2 數(shù)據(jù)展示

        數(shù)據(jù)集如圖1所示,圖像顏色代表食管內(nèi)壓力,每幅HRM圖像代表一位患者的一次性吞咽過程。HRM圖像是一個“3維彩色壓力地形圖”,縱軸反映高分辨率食管測壓導(dǎo)管的深度,水平軸反映壓力測量時間,顏色代表導(dǎo)管上每個壓力傳感器的平均壓力水平[15]。偏藍的色度代表較低的壓力,偏紅的色度代表較高的壓力。HRM圖像可以簡單、直觀、詳細、有效地檢測食管的動態(tài)狀態(tài)。

        圖2顯示了4種類型的食管收縮活力。食管收縮活力類型可由DCI指標確定[7]:DCI<100 mmHg·s·cm時失收縮(Failed)(圖2(a));100<DCI<450 mmHg·s·cm時弱收縮(Weak)(圖2(b));450<DCI< 8000mmHg·s·cm)時正常收縮(Normal)(圖2(c));DCI>8000 mmHg·s·cm時高幅收縮(Hypercontractile) (圖2(d))。我們用白色虛線框突出的局部圖像顯示了食管平滑肌傳導(dǎo)波和食管下括約肌蠕動壓力波的收縮強度,用于評價食管收縮活力。從圖中可以看出,隨著收縮活力的增強,圖像色度也由藍色向紅色過渡。4類收縮活力在白色虛線框內(nèi)的圖像特征有顯著性差異。雖然現(xiàn)階段我們沒有足夠的高幅收縮數(shù)據(jù)來進行分類訓(xùn)練,但是高幅收縮的圖像特征與圖2的其他收縮活力類型特征明顯不同。一旦收集了足量的數(shù)據(jù), CAD系統(tǒng)就能完成食管收縮活力的全分類任務(wù)。

        圖2 食管收縮活力類型

        2.3 數(shù)據(jù)預(yù)處理

        從圖1可看到HRM圖像中有多條垂直的白色虛線和1條紅色的實線。這些是由Mano View ESO3.0軟件生成的輔助工具,可幫助醫(yī)生更準確地分析圖像。但計算機對HRM圖像進行分類時無需這些輔助工具,甚至于它們的存在將影響模型的分類精度。此外,由于壓力測量設(shè)備的磨損和壓力測量時設(shè)備操作不當, HRM圖像特征會受到一定的噪聲污染,如圖3所示。為了去除噪聲干擾得到有用的像素信息,以便準確地分析食管收縮活特征,需要對數(shù)據(jù)進行預(yù)處理。噪聲是像素強度相對于真值的突然變化。在時域上,高斯濾波可以對像素強度突變的點進行平滑處理,使其與周圍相關(guān)點的強度保持相對一致,減少突變的影響,去除圖像中的高頻噪聲。同時,HRM圖像的形成與時間有關(guān),其橫坐標代表壓力測量時間。因此,本文采用基于高斯核的卷積去噪方法對HRM圖像進行預(yù)處理,可以得到更清晰的實驗圖像。圖4展示了使用高斯核卷積去噪濾波平滑處理前后的兩幅H R M 圖像。

        圖1 高分辨率食管測壓圖譜數(shù)據(jù)集

        圖3 受噪聲污染的HRM圖像

        圖4 預(yù)處理前后的HRM圖像

        3 基于深度學習的食管收縮活力分類模型

        3.1 研究方法

        卷積神經(jīng)網(wǎng)絡(luò)(CNN)在有足夠多標記數(shù)據(jù)的情況下顯示出巨大的成功,它是一種有監(jiān)督的深度學習方法[16,17]。在過去幾年中,它在計算機視覺和醫(yī)學成像的不同模式中顯示了最先進的性能[18]。CNN學習輸入對象和類標簽之間的關(guān)系,由兩個部分組成:提取特征的隱藏層和預(yù)測類別的全連接層(Fully Connected, FC)。對于CNN來說,醫(yī)學圖像可以作為網(wǎng)絡(luò)最低層的原始輸入,然后依次傳輸?shù)较乱粚?。每一層通過帶有池化層的一對卷積核(或過濾器)提取圖像的最顯著特征,如邊緣或形狀和紋理。最后分類器輸出類別概率或類別標簽的分類結(jié)果[19]。

        CNN在醫(yī)學圖像識別方面有許多顯著的優(yōu)勢[20]。一方面,很多醫(yī)學圖像看起來非常相似,很難用專家的肉眼分辨出差異。CNN解決了這一問題,其網(wǎng)絡(luò)結(jié)構(gòu)能夠?qū)W習非顯著信息。這是因為CNN從原始數(shù)據(jù)中學習特征,并利用損失函數(shù)得到的誤差信號進行反饋,以不斷優(yōu)化其特征提取能力。這種多層學習模型有助于發(fā)現(xiàn)數(shù)據(jù)的復(fù)雜結(jié)構(gòu),提高醫(yī)學圖像的識別精度[21]。另一方面,早期的醫(yī)學圖像識別技術(shù)通過圖像分割得到疑似病變組織,人工提取其特征,并與分類器結(jié)合實現(xiàn)對病變圖像的識別。這不僅步驟繁瑣,而且識別率低,訓(xùn)練時間長。通過將特征提取和分類集成到一個結(jié)構(gòu)中,CNN避免了傳統(tǒng)算法中人工提取特征的復(fù)雜過程,節(jié)省了時間和精力,提高了準確性[22]。

        3.2 PoS-ClasNet在食管收縮活力分類任務(wù)中的應(yīng)用

        本文提出了一個食管收縮活力分類器PoS-ClasNet。這是一個卷積神經(jīng)網(wǎng)絡(luò)模型,如圖5所示,由PoSNet和S-ClasNet組成。前者用于提取HRM圖像中的吞咽框,后者識別吞咽框的食管收縮活力類型。將PoSNet分割出的吞咽框映射到S-ClasNet通過卷積得到的HRM特征圖上,以此得到吞咽框的特征圖,并實現(xiàn)了PoSNet和S-ClasNet的融合。PoSClasNet是基于U-Net[23], VGGNet[24], Fast-RCNN[25]和Faster-RCNN[26]改進的多任務(wù)模型。該模型的2階段結(jié)構(gòu)適應(yīng)于需要先分割后分類的醫(yī)學圖像識別任務(wù)。

        3.2.1 PoSNet結(jié)構(gòu)

        PoSNet是一個穩(wěn)定的編解碼網(wǎng)絡(luò),專門用于對有限的數(shù)據(jù)進行特征學習,特別是醫(yī)學圖像[27]。本文改進了Ronneberger等人[23]提出的標準U-Net結(jié)構(gòu),使其更好地完成吞咽框分割任務(wù)。由于我們需要提取的ROI位于圖像的中心,這意味著模型無需精確地分割圖像邊緣的像素。與標準的U-Net結(jié)構(gòu)不同,本文沒有使用overlap-tile策略[8],而是使用零填充來保持下采樣和上采樣路徑的所有卷積層的輸出維數(shù)相同,從而使輸出圖像的分辨率與輸入圖像的分辨率相同。

        如圖5所示,PoSNet最重要的結(jié)構(gòu)是由編碼路徑、中心塊和解碼路徑組成的編碼-解碼模型。編碼路徑有4個下采樣塊。每個塊有兩個卷積層(含有步長為1的、3×3大小的濾波器和修正的線性單元ReLU激活函數(shù)),它使得特征通道的數(shù)量增加1倍,并通過一個步長為2的2×2最大池化層進行下采樣。通過對編碼路徑的深度卷積,我們不僅得到了圖像的顏色、紋理、形狀等淺層特征,而且得到了抽象高層語義等深層特征[28]。接下來,為了避免過度擬合,PoSNet在編碼器和解碼器塊之間設(shè)計了一個中心塊。該中心塊由與編碼路徑中相同的兩個卷積層組成。

        圖5 PoS-ClasNet的模型結(jié)構(gòu)圖

        對于上采樣操作,解碼路徑中的每個模塊包括一個2×2的反卷積層(將特征圖譜的尺寸大小減半)、特征融合(與編碼路徑中對應(yīng)的特征圖譜相互融合)以及兩個3×3的卷積核(將特征通道的數(shù)量減少一半),每個卷積后面都伴隨ReLU激活函數(shù)來增加網(wǎng)絡(luò)的非線性表達能力。其中,特征融合的關(guān)鍵是跳躍連接,它將解碼子網(wǎng)的深層、語義、粗粒度特征映射與編碼器子網(wǎng)的淺層、低層、細粒度特征映射相結(jié)合。跳躍連接有助于恢復(fù)網(wǎng)絡(luò)輸出時的全空間分辨率,使全卷積方法適合語義分割[29]。

        最后用1×1的卷積層將特征圖減少至兩個,分別反映前景和背景的分割。PoSNet中沒有調(diào)用FC層。

        3.2.2 S-ClasNet結(jié)構(gòu)

        S-ClasNet用于吞咽框的分類任務(wù),其模塊結(jié)構(gòu)與VGGNet相似,但尺寸較小,本文稱為Smaller VGGNet。VGGNet在醫(yī)學疾病識別方面表現(xiàn)很好,是醫(yī)學圖像分類中最常用的網(wǎng)絡(luò)之一。一般來說,醫(yī)學圖像數(shù)據(jù)量較小,為了確保模型的泛化能力,淺層網(wǎng)絡(luò)在醫(yī)學圖像應(yīng)用中是首選的。同時基于奧卡姆剃刀原則,本文選擇了參數(shù)較少、性能相當?shù)腟maller VGGNet,并對其進行了改進,使SClasNet和PoSNet能夠更好地連接起來,完成收縮活力分類任務(wù)。

        如圖5所示,S-ClasNet的結(jié)構(gòu)框架有以下幾層:

        卷積層:包括一個CONV=>RELU=>POOL的模塊和兩個CONV=>RELU=>CONV=>RELU=>POOL的模塊。卷積核具有非常小的感受野:3×3(這是捕捉圖像所有方向特征的最小尺寸),它將通道數(shù)從32個增加到64個到128個。卷積步長固定為1像素,空間填充不變,保持了卷積后的空間分辨率。最大池化層是一個2×2的像素窗口沿著空間維度向下采樣。本文用上述CNN作為特征提取器。

        映射:經(jīng)過密集卷積操作后,得到圖像的特征圖譜。根據(jù)原始圖像與其特征圖譜的映射關(guān)系,將PoSNet分割出的ROI映射到特征圖譜上,得到吞咽框的特征框PoS。

        PoS池化:PoS池化的目的是對輸入進行最大池化,以獲得固定大小的特征圖譜(例如7×7)。PoS最大池化層的工作原理是將PoS分成大小相等的幾個部分(其數(shù)量與輸出的維度相同),然后在每個部分中找到最大特性值并將這些最大值復(fù)制到輸出緩沖區(qū)[25]作為修正后的吞咽框特征圖PoS。通過PoS池化層,修正后的吞咽框特征圖譜與網(wǎng)絡(luò)模型的第1個FC層維度兼容。

        分類:網(wǎng)絡(luò)通過兩個FC層和1個Softmax分類器來實現(xiàn)圖像的分類。第1個FC層有1024個神經(jīng)元,后面接1個ReLU激活函數(shù),它將修正后的PoS的所有局部特征映射合并到特征向量中。在最后一個FC層中,我們將神經(jīng)元減少到3個,這與本文研究的圖像類別數(shù)相同。最后應(yīng)用Softmax分類器給出每個類別預(yù)測標簽的概率。

        4 實驗結(jié)果

        4.1 實驗環(huán)境設(shè)置

        實驗使用了戴爾XPS8930服務(wù)器(16GB RAM,HEXACORE3.20 GHz處理器和1個NVIDIA GeForce GTX 1070顯卡),在Python環(huán)境的Keras框架和Tensorflow后端中實現(xiàn)。本文將原始圖像(224×299)的大小調(diào)整為輸入圖像(128×128),這兩個比例的圖像只在分辨率上不同,而在內(nèi)容/布局上沒有差別,這使得網(wǎng)絡(luò)模型更容易處理圖像。為了減少偶然性,本文隨機分配70%的標記數(shù)據(jù)集作為訓(xùn)練集來訓(xùn)練模型,20%作為驗證集來調(diào)試超參數(shù)并選擇最佳模型,10%作為測試集來測試模型的分類準確性和可靠性。

        訓(xùn)練神經(jīng)網(wǎng)絡(luò)最重要的是對超參數(shù)進行調(diào)試和優(yōu)化。為了更好地調(diào)試和優(yōu)化超參數(shù),本文在驗證集上進行了超參數(shù)敏感性測試,并選擇了一組最優(yōu)的超參數(shù)。所有網(wǎng)絡(luò)都是從0開始訓(xùn)練的。在每次卷積運算后加入批正態(tài)化(Batch Nomalization,BN)[30],同時在訓(xùn)練過程中對網(wǎng)絡(luò)中所有神經(jīng)元設(shè)置了以0.3的概率隨機失活即dropout正則化操作,以達到加快訓(xùn)練速度,防止模型過度擬合的目的。由于本文的網(wǎng)絡(luò)使用了ReLU激活函數(shù),所以采用了kaiming初始化[31]對網(wǎng)絡(luò)權(quán)值進行初始化,這樣不僅可以加快網(wǎng)絡(luò)的收斂速度,而且可以防止反向傳播中的梯度消失和爆炸。所有偏差(bias)都初始化為0。每次取batchsize為16的樣本量來訓(xùn)練一次網(wǎng)絡(luò),訓(xùn)練輪數(shù)epoch設(shè)置為50,并采用自適應(yīng)矩估計器(Adam)[32]作為參數(shù)優(yōu)化器。Adam中的初始學習率設(shè)置為0.0001。然而,使用恒定學習速率來估計參數(shù)可能會導(dǎo)致模型性能不佳或網(wǎng)絡(luò)收斂速度過慢等問題。在訓(xùn)練過程中,使用Keras中的回調(diào)函數(shù)ReduceLROnPlateau不斷調(diào)整學習速率,并且利用Earlystoping函數(shù)停止訓(xùn)練,防止模型過度擬合。其中,在回調(diào)函數(shù)中設(shè)置了一些參數(shù):學習率縮放因子為0.8,最小學習率為0.0001。

        4.2 代價函數(shù)

        在本研究工作中,除了PoSNet使用Dice相似性系數(shù)指導(dǎo)網(wǎng)絡(luò)進行參數(shù)更新,所有分類網(wǎng)絡(luò)都使用交叉熵(Cross-Entropy)作為代價函數(shù)來確定模型的最佳性能。

        Dice相似性系數(shù)不僅能較好地度量ROI與真實標簽的差異程度,最重要的是它作為分割網(wǎng)絡(luò)的代價函數(shù)在迭代優(yōu)化模型的過程中能有效抑制由于大面積背景區(qū)域引起的分割偏差問題。鑒于Dice相似性系數(shù)十分適用于HRM圖像分割背景區(qū)域較大的情形,本文選擇了Dice相似性系數(shù)作為代價函數(shù)。其二分類任務(wù)的數(shù)學表達式為

        4.3 評價指標

        對于醫(yī)學影像分類模型,可以通過準確率(Accurcy,Acc)、精度(Precision, Pre)、召回率(Recall,Rec)、F1得分(F1-Score, F1)、靈敏度(Sensitivily,Sen)和特異度(Specificity, Spe)等典型性能指標來評價其性能。準確率是衡量分類器性能最常用的評估量,其定義為被正確分類的對象所占的百分比;F1得分是一個全面的評估指標,是數(shù)據(jù)集中不同類數(shù)據(jù)不平衡時的合理度量。F1得分越大,模型性能越好。這些度量的計算公式如下

        其中,TP, TN, FP, FN分別表示真陽性、真陰性、假陽性、假陰性的預(yù)測值。

        此外,本文還繪制了受試者操作特征(Receiver Operating Characteristic, ROC)曲線來評價我們的分類模型。通過繪制Sen相對于1 - Spe的ROC曲線。ROC曲線越靠近左上角,模型的性能越好。ROC曲線下面積(Area Under the ROC curve,AUC)也是一個適合模型的總體測量方法。

        4.4 實驗結(jié)果

        4.4.1 多模型比較分析

        選擇合適的網(wǎng)絡(luò)結(jié)構(gòu)對醫(yī)學影像的準確分類非常重要。不同的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),由于隱藏層的深度和/或單元數(shù)不同,具有不同的優(yōu)勢和劣勢。本文訓(xùn)練和比較了幾種常用于醫(yī)學圖像分類任務(wù)的網(wǎng)絡(luò):Inceptionresnetv2, Inceptionv3, Resnet50,Xception,同時提出了一種分類網(wǎng)絡(luò)(S-ClasNet)。在這里,我們只比較了用于分類食管收縮活力類型的吞咽框網(wǎng)絡(luò)(S-ClasNet),所有吞咽框都使用PoSNet進行分割提取。因為PoSNet的準確率高達94.86%,已經(jīng)滿足了提取吞咽框的需要。網(wǎng)絡(luò)訓(xùn)練基于相同的訓(xùn)練集和驗證集,按照4.1節(jié)(實現(xiàn)環(huán)境設(shè)置)中的實現(xiàn)細節(jié)進行實現(xiàn)。

        表1給出了幾種網(wǎng)絡(luò)的定量分析結(jié)果。值得一提的是,根據(jù)表1實驗結(jié)果發(fā)現(xiàn)除Inceptionresnetv2外,其他網(wǎng)絡(luò)在驗證集上的準確率略高于在訓(xùn)練集上的準確率。出現(xiàn)該現(xiàn)象的原因有以下兩點:(1)該實驗的HRM數(shù)據(jù)樣本總量較小,劃分后的驗證集樣本遠小于訓(xùn)練集的樣本,當樣本量較少時會出現(xiàn)較高的準確率。加之HRM圖像成像依賴醫(yī)生臨床操作,它很容易帶有噪聲污染。即使隨機劃分了訓(xùn)練集和驗證集,但也會存在帶噪圖像分布不均勻的問題。這就造成了訓(xùn)練集的內(nèi)部方差大于驗證集,換言之訓(xùn)練集出現(xiàn)較大分類誤差。該問題是可以通過增大樣本數(shù)據(jù)量來解決的。但因為收集專家標記好的HRM圖像數(shù)據(jù)所需的人力和時間成本較高,本文的實驗工作存在樣本量較小的局限性。(2)利用L2和dropout正則化的方法增強了模型的泛化能力。尤其在訓(xùn)練過程中,本文利用dropout操作讓部分神經(jīng)元隨機失活以精簡網(wǎng)絡(luò)結(jié)構(gòu)防止過擬合,這會使得訓(xùn)練精度受損。相反,驗證過程中所有神經(jīng)元都正常工作,因此預(yù)測精度有所提高。盡管本文工作存在一定樣本量不足的局限性,但上述實驗結(jié)果仍然具有較大參考價值。所有網(wǎng)絡(luò)模型的評估指標在驗證集上的數(shù)據(jù)值十分接近訓(xùn)練集。該結(jié)果表明,所有模型沒有出現(xiàn)過擬合現(xiàn)象,并且在驗證集上的模型精度可以從一定程度反映模型的泛化能力。因此下文根據(jù)各模型在訓(xùn)練集和驗證集上的表現(xiàn)進行性能對比分析是可行的。

        表1 不同分類模型對食管收縮活力分類的結(jié)果比較(均值±標準差)

        將各模型的精度可視化為圖6進行對比分析,其中橫坐標代表模型的網(wǎng)絡(luò)結(jié)構(gòu)深度,從左到右依次增加。Inceptionresnetv2, Xception和本文的網(wǎng)絡(luò)在訓(xùn)練集和驗證集上的準確率高達90%。這3種網(wǎng)絡(luò)模型的分類表現(xiàn)能力相當。但就網(wǎng)絡(luò)深度而言,Inceptionresnetv2和Xception是深度網(wǎng)絡(luò),需要經(jīng)過大量訓(xùn)練才能收斂。但是,本文提出的網(wǎng)絡(luò)結(jié)構(gòu)小,訓(xùn)練速度快,對內(nèi)存要求少。雖然網(wǎng)絡(luò)深度的增加可以提高分類精度,但當3種模型的性能相當時,深度網(wǎng)絡(luò)會導(dǎo)致在數(shù)據(jù)集較小時(過擬合)的非最優(yōu)學習,空間和時間復(fù)雜度更高,增加了分類模型的優(yōu)化難度,更重要的是會導(dǎo)致模型泛化能力較差。

        圖6 所有分類模型的分類準確率柱狀圖

        此外,本文所提出的食管收縮活力分類模型具有很好的魯棒性。該算法在訓(xùn)練集和驗證集上均取得了顯著的分類效果,其取值分別為90.15%±2.49%和91.22%±1.62%。結(jié)合圖7可知,在驗證集上,SClasNet的AUC值最大,其ROC曲線更接近圖形左上角,這進一步證實了本文的網(wǎng)絡(luò)具有良好的分類性能。根據(jù)實驗結(jié)果,我們發(fā)現(xiàn)所提模型在吞咽框的食管收縮活力分類任務(wù)中有最優(yōu)的綜合性能:準確率、魯棒性和泛化能力都表現(xiàn)突出。

        圖7 各網(wǎng)絡(luò)模型的ROC曲線

        4.4.2 食管收縮活力分類模型的評價

        為了進一步驗證本文的網(wǎng)絡(luò)在吞咽框分類任務(wù)上的優(yōu)異性能,本文繪制了折線圖來反映網(wǎng)絡(luò)在訓(xùn)練期間平均損失值和準確率隨著訓(xùn)練輪數(shù)增加的變化情況。在圖8中,隨著epoch的增加,S-ClasNet的精度增加,損失減小。在經(jīng)過大約39次迭代后,它們都收斂到一個較為固定的狹小區(qū)間范圍。這說明該網(wǎng)絡(luò)經(jīng)過了充分的訓(xùn)練后能夠快速收斂。

        圖8 S-ClasNet的學習曲線

        接著,我們在測試集上進一步驗證了模型的泛化能力。如圖9所示,S-ClasNet對于3個收縮活力類別的分類具有較高的準確率。其中,失收縮分類和弱收縮分類的AUC值達到了0.99和0.98,而正常收縮分類的AUC值更是高達1。與此同時,我們可視化了在測試集上的混淆矩陣(圖10)來考察S-Clas-Net對于每個類別樣本分類預(yù)測的標簽和真實情況的差異。從混淆矩陣中可以看出:失收縮和弱收縮分類的AUC值之所以未達到1,主要是因為S-Clas-Net將弱收縮樣本與正常收縮、失收縮樣本的特征弄混淆了。這種誤分類現(xiàn)象出現(xiàn)的原因在于:一些弱收縮特征與正常收縮、失收縮特征較為相似,加之訓(xùn)練和測試樣本數(shù)量不足,畢竟樣本量的缺少或者類別樣本量的不均衡都可能會影響卷積層學習圖像特征的能力。但失收縮和正常收縮的分類錯誤率較低。由表2各類別的預(yù)測結(jié)果也能得到與上述ROC曲線一致的結(jié)論。并且本文的模型的準確率高達93.25%,在平均精度、平均召回率和平均F1得分上的分類表現(xiàn)也較為優(yōu)異,分別達到了93.18%,93.24%和0.9321。

        圖9 測試集上的3類收縮活力分類的ROC曲線

        表2 S-ClasNet在測試集上對食管收縮活力分類的結(jié)果比較

        圖10 測試集上的混淆矩陣

        綜上所述,本文提出的分類模型不僅對訓(xùn)練集有很好的擬合效果,而且在測試集上也有較強的泛化能力。因此,本文提出的PoS-ClasNet在智能識別HRM圖像中食管收縮活力類型的任務(wù)中是切實可行的。

        5 結(jié)束語

        食管收縮活力異??梢鸲喾N食管運動障礙(EMD)。本文基于DL方法分析了高分辨率食管測壓(HRM)圖像,并提出了一種全自動多任務(wù)分類模型(PoS-ClasNet)來診斷食管收縮活力類型。為了測試PoS-ClasNet性能,本文將其與先進的醫(yī)學影像分類網(wǎng)絡(luò)在去噪后的HRM圖像數(shù)據(jù)集上進行了一系列對比實驗分析。結(jié)果表明,PoS-ClasNet在食管收縮活力分類任務(wù)中的綜合表現(xiàn)是最優(yōu)的。它在測試集上最終診斷階段的準確率為93.25%,對3類收縮活力分類的平均精度為93.18%,平均召回率為93.24%,平均F1得分為0.9321。

        本文闡述了DL應(yīng)用于HRM圖像食管收縮活力診斷分析的研究工作,為今后實現(xiàn)EMD的自動診斷奠定了研究基礎(chǔ)。PoS-ClasNet是第1個嘗試結(jié)合2階段任務(wù)(分割和分類)的食管收縮活力分類器,其中基于U-Net的PoSNet用于提取HRM圖像的吞咽框,而基于Smaller VGGNet的S-ClasNet用于食管收縮活力的分類。該方法不僅可以在不受人工干擾的情況下對食管收縮活力進行準確的分類,為CAD在臨床醫(yī)學中的推廣應(yīng)用提供了參考,而且PoS-ClasNet作為輕量級模型,其結(jié)構(gòu)簡潔、占用內(nèi)存小的優(yōu)勢為智慧醫(yī)療系統(tǒng)在用戶終端裝置上的成功部署和穩(wěn)定運行提供了切實可行的方案。

        同時,這項研究也存在一些局限性。本文的工作局限于小數(shù)據(jù)集。首先,本文的模型只對食管收縮活力的失收縮、弱收縮和正常收縮3個類型進行了自動分類。本文沒有足夠的樣本讓模型學習高幅收縮的圖像特征,未達到可以預(yù)測所有食管收縮活力類型的預(yù)期。但高幅收縮的圖像特征與其他收縮類型存在較大差異,如果本文有足夠多的數(shù)據(jù),PoS-ClasNet很容易實現(xiàn)收縮活力的完整分類。另外,由于有限的計算資源,本文的實驗工作沒有系統(tǒng)地搜索最優(yōu)超參數(shù),這導(dǎo)致模型是不飽和的。并且樣本量的局限也導(dǎo)致了模型在驗證集和測試集上的實驗結(jié)果不足以強有力地支撐其性能表現(xiàn)優(yōu)異的結(jié)論??偟膩碚f,本文使用的模型是強大的,它的性能可以通過使用更多的計算資源來提高,而不需要顯著改變網(wǎng)絡(luò)結(jié)構(gòu)。在未來的研究中,我們會嘗試實現(xiàn)EDM的自動化診斷,并逐步將該模型應(yīng)用到臨床實踐中,真正做到惠及人類社會。

        猜你喜歡
        集上活力食管
        食管異物不可掉以輕心
        中老年保健(2021年9期)2021-08-24 03:49:56
        活力
        當代陜西(2020年9期)2020-08-04 06:25:33
        Cookie-Cutter集上的Gibbs測度
        鏈完備偏序集上廣義向量均衡問題解映射的保序性
        復(fù)扇形指標集上的分布混沌
        改制增添活力
        了解胃食管反流病(GERD)
        健康管理(2015年3期)2015-11-20 18:22:36
        收回編制 激發(fā)活力
        胃結(jié)石伴食管嵌頓1例報道
        全公開激發(fā)新活力
        浙江人大(2014年1期)2014-03-20 16:20:00
        国语对白三级在线观看| 国产精品免费久久久久影院仙踪林 | 极品 在线 视频 大陆 国产| 日韩精品高清不卡一区二区三区| 亚洲精品视频中文字幕| 韩日午夜在线资源一区二区 | 日韩人妻免费一区二区三区| 三级黄色片免费久久久| 亚洲成av人片天堂网| 国产亚洲欧美日韩综合一区在线观看| 在线观看免费人成视频国产| 蜜臀av一区二区三区免费观看 | 久久99精品久久久久久hb无码| 亚洲精品日本| 精品国产一区二区三区a | 精品国产一区二区三区av性色| 中文在线а√天堂官网| 激情亚洲综合熟女婷婷| 亚洲国产丝袜久久久精品一区二区| 少妇高潮流白浆在线观看 | 国产综合精品久久久久成人| 中文字幕亚洲入口久久 | 国产美女高潮流白浆视频| 亚洲人成影院在线无码按摩店| 俺来也俺去啦久久综合网| 久久国产av在线观看| 国产免费在线观看不卡| 亚洲人午夜射精精品日韩| 日韩亚洲制服丝袜中文字幕| 午夜视频一区二区在线观看| 人人做人人爽人人爱| 97精品伊人久久大香线蕉app| 精品理论一区二区三区| 久久精品人搡人妻人少妇| 亚洲色欲久久久综合网| 久久99精品中文字幕在| 亚州av高清不卡一区二区| 大地资源中文第3页| 欧美a在线播放| 久久综合伊人有码一区中文字幕 | 亚洲最新精品一区二区|