余文林,陳振洲,范冰冰,黃 穗
(華南師范大學(xué) 計算機(jī)學(xué)院,廣州 510631)
肝纖維化(Hepatic Fibrosis,HF)是許多慢性肝臟疾病的常見表現(xiàn),是指由各種病因?qū)е碌母闻K損傷而進(jìn)行的組織修復(fù),最終導(dǎo)致合成大量的膠原和蛋白多糖等細(xì)胞外基質(zhì)(Extra Cellular Matrix,ECM)過度沉積的病理過程.
有研究表明,早期輕度肝纖維化是可以治愈,并且肝纖維化S2 期及以上具有明確的治療指征,這也是肝纖維化進(jìn)展的標(biāo)志[1].肝纖維化持續(xù)發(fā)展將會引發(fā)肝硬化,甚至是引發(fā)肝細(xì)胞癌[2,3].因此早期診斷肝纖維化并且區(qū)分肝纖維化分期及炎癥活動度將會對臨床治療方案的選擇提供重要依據(jù)及幫助[4].
醫(yī)學(xué)成像技術(shù)因其具有無創(chuàng)性和能直觀檢測體內(nèi)器官的特性,現(xiàn)已廣泛的被用于臨床醫(yī)學(xué)當(dāng)中.用于評估肝纖維化的醫(yī)學(xué)影像主要包括核磁共振成像(Magnetic Resonance Imaging,MRI)、超聲彈性成像、計算機(jī)斷層成像(Computed Tomography CT).相對于其他醫(yī)學(xué)成像技術(shù)來說,磁共振成像可以生成多種多參數(shù)的高清軟組織圖像,包括彌散加權(quán)成像(Diffusion Weighted Imaging,DWI)、T1-weighted MRI、T2-weighted MRI 等.在本實驗中根據(jù)醫(yī)生的建議采用了T1-weighted(T1)、T2-weighted TSE(T2)、T1RHOFA(FA)、T1RHO-HS(HS)這4 種MRI 圖像.
目前國內(nèi)外對肝纖維化的診斷方法主要分為有創(chuàng)性診斷和無創(chuàng)性診斷.其中有創(chuàng)性診斷主要是對肝臟進(jìn)行肝活組織病理學(xué)檢查,并將其檢測結(jié)果作為肝纖維化分期階段的“金標(biāo)準(zhǔn)”.然而這種診斷方法具有成本太高、有創(chuàng)性、有幾率導(dǎo)致并發(fā)癥等的弊端[5];而非創(chuàng)性診斷技術(shù)有臨床評估、診斷預(yù)測模型、血清標(biāo)志物、醫(yī)學(xué)成像等.醫(yī)學(xué)成像技術(shù)憑借其相對無創(chuàng)性和可以對肝纖維化直觀評估的特點,在臨床應(yīng)用中發(fā)揮了關(guān)鍵的作用.
傳統(tǒng)基于醫(yī)學(xué)圖像對肝纖維化程度診斷的方法主要是先對圖像進(jìn)行人工特征提取和特征篩選,然后再通過傳統(tǒng)機(jī)器學(xué)習(xí)的方法訓(xùn)練分類器進(jìn)行肝纖維化分期分類[6,7].雖然傳統(tǒng)方法依舊取得了一定的效果但是由于得到的特征是基于人工提取的,效率不高而且覆蓋的圖像信息不全面.針對這些局限性,深度學(xué)習(xí)憑借其可以自動獲取原始圖像的一系列特征的特性,為醫(yī)學(xué)圖像研究提供了新方向[8,9].Sarraf 等人[10]通過對正常大腦和阿爾茨海默患者大腦的磁共振圖像的訓(xùn)練獲得了準(zhǔn)確率高達(dá)96.85%的LeNet模型.Marios 等人[11]基于肺部的高清CT 圖像訓(xùn)練,實驗?zāi)P妥罡叻诸悳?zhǔn)確率達(dá)到了85.61%.在肝纖維化方面,孟丹等人[12]先利用在ImageNet 上預(yù)訓(xùn)練的VGGNet網(wǎng)絡(luò)提取感興趣區(qū)域肝臟區(qū)域超聲波特征,然后再將特征輸入到他們提出的FCNet中,進(jìn)行對肝纖維化正常、早期肝纖維化(S1-S3)和晚期肝纖維化(S4)三種階段的判斷,取得了超過80%的實驗準(zhǔn)確率.Wang 等人[13]通過肝纖維化患者的超聲彈性成像圖訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)取得了與肝臟穿刺活檢診斷相當(dāng)?shù)男Ч?以上基于醫(yī)學(xué)成像的肝纖維化診斷研究都是基于超聲成像的且沒有對肝纖維化分期做出具體的判斷.相對于MRI 來說超聲成像具有圖像分辨率較低的先天劣勢,且采集可以診斷出肝纖維化分期的超聲圖像對采集人員有較高的醫(yī)學(xué)專業(yè)要求且圖像質(zhì)量容易受操作者的經(jīng)驗影響.因此采集到的超聲圖像已經(jīng)具有高度診斷辨識度.然而本實驗采用分辨率較高和采集穩(wěn)定的MRI 圖像作為肝纖維化診斷依據(jù),同時也針對MRI 圖像特點和目標(biāo)需求,優(yōu)化設(shè)計了集成自動提取特征和對肝纖維化各分期診斷的綜合模型.
深度學(xué)習(xí)是由Geoffrey Hinton 研究組在2006年提出的一個機(jī)器學(xué)習(xí)領(lǐng)域的新分支[14].它通過構(gòu)建具有多層的非線性模型來進(jìn)行數(shù)據(jù)處理.深度學(xué)習(xí)能利用多層的特性自底層向高層逐步的學(xué)習(xí)自動提取特征,摒棄了人工特征提取所帶來的先驗性和不全面性的缺陷.近年來,深度學(xué)習(xí)在圖像識別、自然語言處理、計算機(jī)視覺方面都舉得了優(yōu)秀成績.其基本的網(wǎng)絡(luò)層次圖如圖1所示.
圖1 深度網(wǎng)絡(luò)的層次結(jié)構(gòu)
除了基本的全連接層之外,常見的深度神經(jīng)網(wǎng)絡(luò)層還有:卷積層,池化層,批標(biāo)準(zhǔn)化層,隨機(jī)失活層,激活層等.
自1962年Hubel 和Wiesel 在研究貓腦皮層中用于局部敏感和方向選擇的神經(jīng)元提出感受野(receptive field)概念后[15],繼而有人提出含有卷積層的卷積神經(jīng)網(wǎng)絡(luò)(CNN).而LeCun 最早將CNN 應(yīng)用于手寫數(shù)字識別并取得了突破性成績[16].
卷積神經(jīng)網(wǎng)絡(luò)利用了圖像主體的平移不變性和像素與近距離的像素之間的聯(lián)系大于遠(yuǎn)距離像素的特性,采用不同的卷積核對圖像進(jìn)行卷積運算得到不同的特征圖,在計算特征圖時通過權(quán)值共享大大減少了深度神經(jīng)網(wǎng)絡(luò)的參數(shù)數(shù)量(圖2).
圖2 卷積的工作方式
池化層是根據(jù)特征選擇的區(qū)域按照池化方式提取出特征,同時能縮小特征圖,減少模型的計算量,常用的池化方法有最大池化,最小池化,和平均池化.在本文實驗中采用的均為最大池化.
深度模型在訓(xùn)練時,由于模型層次太深或采用了不適當(dāng)?shù)募せ詈瘮?shù)會導(dǎo)致模型梯度消失的問題.針對這一問題,2015年Google 提出了批標(biāo)準(zhǔn)化(Batch Normalization)[17].批標(biāo)準(zhǔn)化將輸入的批次中的每一個feature map 進(jìn)行標(biāo)準(zhǔn)化操作,使數(shù)據(jù)滿足標(biāo)準(zhǔn)正太分布.這樣降低了數(shù)據(jù)的冗余性和特征的相關(guān)性,使得模型的梯度傳導(dǎo)的更深緩解了梯度消失的問題.
隨機(jī)失活(Dropout)層[18]是一種針對模型訓(xùn)練過程中出現(xiàn)的過擬合問題所提出的.它是在模型的訓(xùn)練中按照一定的概率,隨機(jī)地選擇上層的輸出神經(jīng)元而使其在本次的訓(xùn)練過程中處于失活的狀態(tài).當(dāng)有多個隨機(jī)失活層作用時,每次訓(xùn)練的過程中實際訓(xùn)練的模型都不同.這樣大大的提高了模型的多樣性,也讓模型過度擬合訓(xùn)練數(shù)據(jù)變得困難.
如果不添加激活層,每一層的輸出都是上層輸入的線性函數(shù),這樣無論網(wǎng)絡(luò)有多少層,輸出都是輸入的線性組合,無法擬合非線性函數(shù).激活層將非線性特征引入到了網(wǎng)絡(luò)中,使網(wǎng)絡(luò)可以逼近任意非線性函數(shù),讓神經(jīng)網(wǎng)絡(luò)可以處理眾多非線性問題.激活層中常用的激活函數(shù)有Sigmoid、Tanh、ReLU 等.
遷移學(xué)習(xí)(transfer learning)是將在源域(source domain)中學(xué)習(xí)到的知識應(yīng)用于在目標(biāo)域(target domain)知識學(xué)習(xí)中的一種學(xué)習(xí)方法[19].通常源域和目標(biāo)域的數(shù)據(jù)和任務(wù)都不相同,且目標(biāo)域的數(shù)據(jù)獲取成本較大導(dǎo)致已有數(shù)據(jù)不足以訓(xùn)練出可靠模型.遷移學(xué)習(xí)通過遷移在源域?qū)W習(xí)的知識去提升針對目標(biāo)域任務(wù)建立的模型的效果(圖3).
圖3 遷移學(xué)習(xí)
遷移學(xué)習(xí)按照學(xué)習(xí)方式可以分為基于樣本的遷移、基于特征的遷移、基于模型的遷移和基于關(guān)系的遷移.由于醫(yī)學(xué)影像數(shù)據(jù)的難獲取或者獲取的成本較高的特性,遷移學(xué)習(xí)提供了一個恰當(dāng)?shù)耐緩?同時有研究表明在訓(xùn)練好的深度模型中,各層次學(xué)習(xí)到的知識不同,低層學(xué)習(xí)到的是偏向通用性的知識,如圖的邊緣、拐角等.而高層學(xué)到的是與學(xué)習(xí)任務(wù)相關(guān)的特征,如在人臉識別任務(wù)中,模型的高層學(xué)習(xí)到的就有如何識別眼睛和嘴巴等知識.在實現(xiàn)模型遷移時,可以通過固定不同數(shù)量的低層參數(shù)來實現(xiàn)不同程度的模型遷移.
本文中實踐驗證了,通過遷移在ImageNet 數(shù)據(jù)集上訓(xùn)練的VGGNet-11模型可以提升肝纖維化期數(shù)診斷模型的特征抽取能力和穩(wěn)定性.
本文采用深度模型遷移學(xué)習(xí)方法,將ResNet-18 和VGGNet-11 作為基本參照模型.基于參照模型針對MRI 圖像的特點進(jìn)行優(yōu)化,然后對所有模型訓(xùn)練大鼠肝纖維化MRI 圖像,使模型自動提取圖像特征和對肝肝纖維化期數(shù)診斷.對數(shù)據(jù)集,本文采用了基于隨機(jī)的鏡像和旋轉(zhuǎn)的數(shù)據(jù)增強(qiáng)策略來提升模型的泛化性能和魯棒性.同時在實驗中,對兩種對比模型都采用了遷移學(xué)習(xí)方法和不使用遷移學(xué)習(xí)方法分別訓(xùn)練.在使用遷移學(xué)習(xí)方法訓(xùn)練時,對模型都進(jìn)行了不同程度的模型遷移對比實驗.
3.1.1 數(shù)據(jù)集
本實驗數(shù)據(jù)由南方醫(yī)科大學(xué)提供.采用實驗大白鼠共計95 只,其中每只白鼠分別采用T1、T2、T1RHO FA 和T1RHO HS 磁共振參數(shù)對其肝臟的不同部位進(jìn)行核磁共振影像采集.然后將采集到的原始影像通過RadiAntDICOMViewer 軟件轉(zhuǎn)換成PNG 格式作為我們的數(shù)據(jù)集.數(shù)據(jù)集的中4 種不同參數(shù)的核磁共振影像圖數(shù)量如表1所示.
表1 數(shù)據(jù)集的采集情況
在實驗過程中,由于對同一只大鼠的不同肝臟切片采用了相同的采集參數(shù),因此它們有一定的相似性.為防止相似性對模型的結(jié)果評定有影響,在實驗中都先以白鼠為單位隨機(jī)分為7:3的比例.然后將所有由同只白鼠獲取到的影像全部作為訓(xùn)練集數(shù)據(jù)或者測試集數(shù)據(jù).具體影像圖見圖4.
圖4 從S0 到S4 期大鼠肝纖維化T2 核磁共振影像圖
3.1.2 數(shù)據(jù)增強(qiáng)
由于深度神經(jīng)網(wǎng)絡(luò)模型需要海量的數(shù)據(jù)來進(jìn)行學(xué)習(xí),而我們數(shù)據(jù)集中的數(shù)據(jù)量遠(yuǎn)不及海量的要求.所以在實驗時需要對數(shù)據(jù)集進(jìn)行適當(dāng)?shù)臄?shù)據(jù)增強(qiáng)方法來擴(kuò)充數(shù)據(jù)量,這樣訓(xùn)練出的模型具有更高的魯棒性也不容易過擬合.本實驗采用的數(shù)據(jù)增強(qiáng)方法有以下兩種:
1)圖像翻轉(zhuǎn):圖像翻轉(zhuǎn)分為水平翻轉(zhuǎn)和垂直翻轉(zhuǎn).這是一種常規(guī)的數(shù)據(jù)增強(qiáng)方法.在圖像進(jìn)行翻轉(zhuǎn)后仍然不影響圖像表達(dá)的語義時,我們應(yīng)盡量采用這種圖像增強(qiáng)方法.在本實驗中對圖像進(jìn)行水平翻轉(zhuǎn)不會影響肝纖維化的診斷.所以圖像在訓(xùn)練前都會隨機(jī)的進(jìn)行水平翻轉(zhuǎn).
2)圖像旋轉(zhuǎn):圖像旋轉(zhuǎn)也是一種常規(guī)的數(shù)據(jù)增強(qiáng)方法.這是將圖像按照中心點進(jìn)行旋轉(zhuǎn)的方法.但是過量的旋轉(zhuǎn)會改變圖像的語義表達(dá),如在文字識別中,過量的旋轉(zhuǎn)會讓圖像產(chǎn)生歧義或者不能識別.考慮到本數(shù)據(jù)集在獲取數(shù)據(jù)的時候就存在一定的角度差別,在實驗中,數(shù)據(jù)在訓(xùn)練前都會隨機(jī)的在-12 度到12 度之間進(jìn)行旋轉(zhuǎn).
同時采用隨機(jī)水平翻轉(zhuǎn)和隨機(jī)旋轉(zhuǎn)圖像可以讓同一張圖像在輸入到網(wǎng)絡(luò)時都會有不同的差異,這讓模型不容易陷入過擬合而記住單一圖像的特點.同時在網(wǎng)絡(luò)遇到新的圖像時,能提升圖像的準(zhǔn)確性.為了防止數(shù)據(jù)增強(qiáng)所帶來的影響,在測試的過程中,所有的數(shù)據(jù)增強(qiáng)策略都未使用.這樣保證的模型對目標(biāo)數(shù)據(jù)預(yù)測結(jié)果的準(zhǔn)確性.圖像對比結(jié)果如圖5所示.
圖5 原始圖像和數(shù)據(jù)增強(qiáng)后的圖像
ResNet的全名是Residual Network,又稱為殘差網(wǎng)絡(luò)[20].通過在添加低層與高層之間的直通的殘差塊的設(shè)計,在使用梯度優(yōu)化類方法訓(xùn)練網(wǎng)絡(luò)的時候這種殘差塊設(shè)計能讓梯度傳導(dǎo)到更深的層次,因此能訓(xùn)練出層次更深的模型.在2015年的各大圖像算法比賽中,ResNet在保證網(wǎng)絡(luò)精度的前提下,將網(wǎng)絡(luò)深度達(dá)到了152 層,并以絕對優(yōu)勢取得了多個冠軍.ResNet 根據(jù)不同的數(shù)據(jù)規(guī)模有ResNet-18、ResNet-34、ResNet-50、ResNet-101 和ResNet-152 等版本,后面的數(shù)字代表著該模型的最大深度.本文的實驗在數(shù)據(jù)規(guī)模和分類類別數(shù)目上遠(yuǎn)不及比ImagNet 比賽中的規(guī)模,采用的模型是ResNet-18網(wǎng)絡(luò)結(jié)構(gòu).為了方便實現(xiàn)對模型的不同程度的遷移,本文將每兩個殘差合并為一個邏輯層.其網(wǎng)絡(luò)結(jié)構(gòu)圖如圖6所示.
圖6 ResNet-18網(wǎng)絡(luò)結(jié)構(gòu)
VGG 是參加ILSVRC 2014 比賽時,提交該網(wǎng)絡(luò)的小組Visual Geometry Group,Department of Engineering Science,University of Oxford的縮寫,故該網(wǎng)絡(luò)結(jié)構(gòu)叫做VGG 或者VGGNet[21].該網(wǎng)絡(luò)在當(dāng)年的圖像分類任務(wù)中獲得第二名,而第一名由Google 提出的GoogleNet 獲得.VGGNet 也具有不同的層次版本.主要有VGG-11、VGG-13、VGG-16 和VGG-19,隨著Batch Normalization的提出相繼有了對應(yīng)的添加Batch Normalization的版本.在本文中所采用的對比網(wǎng)絡(luò)模型為VGG-11的帶Batch Normalization 版本,同樣為了方便進(jìn)行模型的部分遷移,也進(jìn)行了層次的合并,其網(wǎng)絡(luò)結(jié)構(gòu)如圖7所示.
圖7 VGGNet-11網(wǎng)絡(luò)結(jié)構(gòu)
本實驗將原模型的最后線性層都由原輸出類目數(shù)的1000 調(diào)整為輸出類目為5的線性層.這樣模型的5個輸出就可以更好的表示模型對輸入圖像中肝纖維化程度的判斷.在實驗過程中,本文采用了批量訓(xùn)練的訓(xùn)練方法,每次訓(xùn)練時都隨機(jī)選擇小批量數(shù)據(jù)進(jìn)行訓(xùn)練.把每張圖像的原始所屬于的分期和模型對圖像判斷所給的輸出,根據(jù)交叉熵(Cross Entropy)函數(shù)計算出模型對本張圖像的輸出和真實類別之間的差距損失,然后根據(jù)批量數(shù)據(jù)的累加損失,按照梯度反向傳播法則依次調(diào)整模型中的所有未固定且可訓(xùn)練的參數(shù).
如圖6 和圖7所示,本文將ResNet-18 和VGG-11 都分成6個邏輯層.分別在T1,F(xiàn)A,HS 和T2 每個數(shù)據(jù)集上進(jìn)行了6 次實驗.由未采用遷移學(xué)習(xí)訓(xùn)練和依次遷移模型低層參數(shù)并固定,作為模型特征提取的一部分.具體實驗配置如表2所示.
實驗均在,CPU Intel(R)Core(TM)i7-4790、GPU NVIDIA GeForce GTX 1080,內(nèi)存DDR3 16 GB,Windows 10 專業(yè)版環(huán)境下,使用PyTorch 0.40 實現(xiàn)模型的構(gòu)建和訓(xùn)練.各組模型訓(xùn)練依次進(jìn)行,每次模型訓(xùn)練的80個周期共需30 分鐘左右,訓(xùn)練結(jié)果如圖8 至圖11所示.
表2 實驗中模型的遷移設(shè)置
圖8 采用RetNet-18 在各數(shù)據(jù)集上的模型準(zhǔn)確
圖9 ResNet-18 在4 種數(shù)據(jù)集下的訓(xùn)練過程
圖10 VGG-lock0 在4 種數(shù)據(jù)集上訓(xùn)練過程
4.1.1 ResNet-18的實驗結(jié)果
采用Res-lock0 配置時,ResNet-18 在4 種不同數(shù)據(jù)集上訓(xùn)練不同的模型,平均在15個周期模型都能達(dá)到自己穩(wěn)定后的平均準(zhǔn)確率.其中的采用FA 數(shù)據(jù)訓(xùn)練的模型的平均準(zhǔn)確率最高為86.06%,最高準(zhǔn)確率為89.79%;其次是通過HS 訓(xùn)練的模型,平均準(zhǔn)確率為81.84%最高準(zhǔn)確率為85.51%;最低準(zhǔn)確率的模型是采用T2 數(shù)據(jù)訓(xùn)練,其最高模型準(zhǔn)確率為79.04%,平均準(zhǔn)確率為73.60%.通過FA 訓(xùn)練出模型的準(zhǔn)確率具有最高的穩(wěn)定性,其準(zhǔn)確率的方差為5.09.而通過T1 和HS 訓(xùn)練模型穩(wěn)定后的準(zhǔn)確率的方差為10.04 和10.69,通過T1 訓(xùn)練的模型最不穩(wěn)定,準(zhǔn)確率方差為32.47.其訓(xùn)練結(jié)果如表3所示.
表3 ResNet-18 在Res-lock0網(wǎng)絡(luò)設(shè)置下模型的結(jié)果
圖11 VGG-11 在4 種數(shù)據(jù)集下的訓(xùn)練過程
采用FA 數(shù)據(jù)集訓(xùn)練時,當(dāng)使用Res-lock1 至Reslock4 配置訓(xùn)練,模型的最高準(zhǔn)確率依次為79.58%、77.93%、76.69%和77.24%.采用模型遷移后,模型平均在第7個周期就能達(dá)到模型的平均準(zhǔn)確率,訓(xùn)練速度提升了一倍.然而模型的準(zhǔn)確率卻是不采用模型遷移時最優(yōu).而當(dāng)采用其他3 種數(shù)據(jù)集訓(xùn)練時,適量采用模型遷移均能提升模型的訓(xùn)練速度和提升模型的準(zhǔn)確率.在采用Res-lock4 配置的模型,在3 種數(shù)據(jù)集下模型效果都最優(yōu).在4 種數(shù)據(jù)集中,采用Res-lock5 配置訓(xùn)練的模型效果都明顯低于其他配置的模型,因為采用這種配置時,模型的大部分參數(shù)都已固定,模型的擬合能力大大下降不能擬合出能良好分類的模型,因此其效果與其他模型差距較大.訓(xùn)練結(jié)果如表4所示.
表4 ResNet-18 在4 種數(shù)據(jù)集下的訓(xùn)練結(jié)果
4.1.2 VGG-11的實驗結(jié)果
采用VGG-lock0 配置訓(xùn)練時,在4 種數(shù)據(jù)集上訓(xùn)練的模型平均在15 周期達(dá)到模型穩(wěn)定后的模型準(zhǔn)確率.在FA 數(shù)據(jù)集上訓(xùn)練的模型準(zhǔn)確率最高,最高準(zhǔn)確率為95.31%平均準(zhǔn)確率為90.11%,.其次是在HS 上訓(xùn)練的模型最高模型準(zhǔn)確率為85.97%,平均準(zhǔn)確率為79.63%.在T1 上訓(xùn)練的模型的準(zhǔn)確率最低,其最高模型準(zhǔn)確率為76.65%,平均準(zhǔn)確率為71.87%.在FA 上訓(xùn)練的模型具有最高的模型穩(wěn)定性,其準(zhǔn)確率方差為4.94,其次是T1 數(shù)據(jù)集,模型準(zhǔn)確率方差為8.34.通過HS 訓(xùn)練的模型準(zhǔn)確率最差,其模型準(zhǔn)確率方差為16.66,是在FA 上訓(xùn)練模型的3.37 倍.其訓(xùn)練結(jié)果見表5.
表5 VGG-lock0 在4 種數(shù)據(jù)集上訓(xùn)練結(jié)果
在T1 數(shù)據(jù)集下,采用VGG-lock1 至VGGlock5 訓(xùn)練的模型的準(zhǔn)確率均比未使用VGG-lock0 配置訓(xùn)練的模型的準(zhǔn)確率都高.其中在使用VGGlock1 配置時,模型具有最高的平均準(zhǔn)確率81.52%,較使用VGG-lock0時的平均準(zhǔn)確率提升了13.42%,但其模型的穩(wěn)定性不及使用VGG-lock0的模型.在使用VGG-lock4時模型具有最高的穩(wěn)定性,其準(zhǔn)確率的方差為4.88 只為使用VGG-lock0 配置的58.51%.同時除了使用VGG-lock5 配置時,所有配置下的模型訓(xùn)練速度都不低于使用VGG-lock0的配置.在T2 數(shù)據(jù)集下,VGG-lock1 致VGG-lock5 配置的模型準(zhǔn)確率和模型穩(wěn)定性都優(yōu)于VGG-lock0 配置下的模型,但是各種配置下的模型結(jié)果之間的差別不大.其中使用VGGlock5 配置下的模型具有最高的模型準(zhǔn)確率84.88%,比不使用模型遷移時的最高準(zhǔn)確率提升了 3.23%,平均準(zhǔn)確率也提升了6.09%,但是其模型需要30個周期才能達(dá)到平均準(zhǔn)確率.使用FA 數(shù)據(jù)集訓(xùn)練時,在使用VGG-lock0 配置訓(xùn)練時能獲得準(zhǔn)確率高達(dá)95.31%的模型.但是使用VGG-lock3 配置能訓(xùn)練出準(zhǔn)確率超過原來1.3%的模型.在使用HS 數(shù)據(jù)集訓(xùn)練時,使用VGG-lock3 配置訓(xùn)練的模型取得高的模型準(zhǔn)確率和平均準(zhǔn)確率.同時訓(xùn)練速度最快比不使用模型遷移時提提升了40%.其訓(xùn)練結(jié)果如表6所示.
表6 VGG-11 在4 種數(shù)據(jù)集下的訓(xùn)練過程
在沒有使用模型遷移訓(xùn)練模型情況下.具有最多數(shù)據(jù)的FA 數(shù)據(jù)集在兩種模型下都獲得了最高的模型準(zhǔn)確率,但是VGG-11的效果優(yōu)于ResNet-18.在使用模型遷移訓(xùn)練時,遷移訓(xùn)練對ResNet-18 結(jié)果的影響不穩(wěn)定.在FA 數(shù)據(jù)集上,遷移訓(xùn)練的模型結(jié)果都不及未使用遷移的模型結(jié)果,在T2 和HS模型下有模型的準(zhǔn)確率提升.特別在使用Res-lock4時,模型的訓(xùn)練速度和模型的準(zhǔn)確率在T1,T2 和HS 數(shù)據(jù)集下都優(yōu)于其他配置.對于VGG-11,在4 種數(shù)據(jù)集上使用遷移訓(xùn)練都能穩(wěn)定地為模型帶來準(zhǔn)確率和訓(xùn)練速度的提升并且訓(xùn)練結(jié)果都優(yōu)于ResNet-18.在ResNet-18 和VGG-11 使用Res-lock5 和VGG-lock5 配置時,模型的準(zhǔn)確率和訓(xùn)練速度都遠(yuǎn)不及其他配置.因為過度的遷移,使模型剩下的可變參數(shù)大量減少,大大消減了模型的表達(dá)能力不能學(xué)到良好的模型.比較分析實驗結(jié)果我們,可以得出結(jié)論使用T1RHO-FA 核磁共振影像具有較其他3 種影像就肝纖維化期數(shù)診斷具有更優(yōu)的區(qū)分特征.同時在訓(xùn)練核磁共振影像時,VGG-11網(wǎng)絡(luò)結(jié)構(gòu)比ResNet-18 具有高的模型準(zhǔn)確率,并且在使用在ImageNet 數(shù)據(jù)上訓(xùn)練的模型進(jìn)行遷移時,能對結(jié)果有穩(wěn)定的準(zhǔn)確率和訓(xùn)練速度的提升.
本實驗優(yōu)化了ResNet-18 和VGG-11網(wǎng)絡(luò)結(jié)構(gòu),使用了遷移和未遷移的訓(xùn)練方法對模型進(jìn)行分組對比實驗.對實驗結(jié)果分析得出,T1RHO-FA 參數(shù)的核磁共振影像相對于T1-weighted、T2-weighted TSE、和T1RHO-HS 更適合用于深度模型的訓(xùn)練.同時相對于ResNet-18網(wǎng)絡(luò)結(jié)構(gòu),VGG-11 更適用于核磁共振成像數(shù)據(jù)集的訓(xùn)練,并且可以實用深度模型遷移提升模型的準(zhǔn)確率和訓(xùn)練速度.對于今后醫(yī)學(xué)圖像分類模型的訓(xùn)練的網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計和影像數(shù)據(jù)的選擇提供了參考因素.對肝纖維化分期的診斷提供了無創(chuàng)和全自動的參考方案也為肝纖維化分期的診斷提供了研究意義.