馬 圓,王 風,韓 勇,張 鳳,梁志剛,黃 健,楊 志*,郭秀花*
(1.首都醫(yī)科大學公共衛(wèi)生學院流行病與衛(wèi)生統(tǒng)計學系 北京市臨床流行病學重點實驗室,北京 100069;2.北京大學腫瘤醫(yī)院暨北京市腫瘤防治研究所核醫(yī)學科 惡性腫瘤發(fā)病機制及轉化研究教育部重點實驗室,北京 100036;3.首都醫(yī)科大學宣武醫(yī)院核醫(yī)學科,北京 100053;4.愛爾蘭科克大學數學學院,愛爾蘭 科克 T12 K8AF)
隨著大數據時代到來,為解決數字化醫(yī)學影像數量增長而增加的影像科醫(yī)師閱片負擔的問題,多種醫(yī)學圖像分析工具[1]被開發(fā)出來,其中影像組學備受關注[2]。影像組學通過提取圖像中的大量特征量化腫瘤等疾病,定量腫瘤異質性[3],其中圖像特征往往需要進行人工設計,對研究者要求較高[4];且線性方法難以提取高維數據信息,而各種淺層非線性學習算法對復雜函數的表示能力有限,對于數據特征提取的要求更高[5]。本研究探討能自動提取圖像特征的深度信念網絡(deep belief network, DBN)方法的檢測準確性,并與淺層非線性學習算法中分類效果較好的支持向量機(support vector machine, SVM)方法進行比較。
1.1 一般資料 收集216例肺結節(jié)患者的PET/CT圖像,男127例,女89例,年齡37~86歲,平均(64.8±10.1)歲;其中105例為2015年5月—2018年4月于首都醫(yī)科大學宣武醫(yī)院接受治療的患者,63例為2018年1月于北京市腫瘤防治研究所接受治療的患者,48例為2012年10月—2013年3月于愛爾蘭科克大學醫(yī)院接受治療的患者。本研究部分患者有2個及以上肺結節(jié),共納入339個肺結節(jié),其中190個良性結節(jié),149個惡性結節(jié)。納入標準:惡性結節(jié)經病理診斷或出院診斷肺癌并經隨訪證實;良性結節(jié)為病理診斷或經影像學隨訪確診為良性病變。排除標準:①資料不完整;受化學治療及放射治療后;②融合圖像上病變位置不清楚。
1.2 勾畫ROI 采用UNITED IMAGING uMI S-96R及GE Discovery VCT PET/CT機。在影像科醫(yī)師指導下,采用Image J醫(yī)學圖像處理軟件,逐層手動勾畫PET/CT融合圖像上每個肺結節(jié)病變區(qū)域,盡可能不包含病變以外肺組織。根據病變區(qū)域大小截取2~10張ROI圖像,采用Photoshop等圖像工具截取并保存為jpg格式(圖1)。最終獲得2 055張ROI圖像,其中良性1 069張,惡性986張。參照文獻[6-7]方法對不同來源圖像進行標準化處理,灰度化、歸一化后,將圖像大小統(tǒng)一為32×32像素。
圖1 截取肺部PET/CT軸位圖像ROI
1.3 確定DBN結構及訓練參數 將預處理后的肺結節(jié)ROI圖像作為DBN輸入圖像(圖2),對網絡進行構建、訓練和評價。采用實驗方法確定較優(yōu)的網絡結構,網絡輸入層有32×32=1 024個節(jié)點,中間隱藏層由若干受限玻爾茲曼機(restricted Boltzmann machine, RBM)構成。采用分類模型進行分類,標簽為良性、惡性2類,因此最后網絡輸出層有2個節(jié)點。假設各隱含層的節(jié)點數目相同,且各隱含層均采用小數據集訓練(mini batch)方法,各隱藏層具有相同學習率(learning rate)、隱含層訓練次數(RBM epoch)及小數據集大小(minibatch size)。實驗參數:DBN隱藏層層數取值集合為{1,2,3,4,5,6},隱藏層節(jié)點數取值集合為{16,32,64,128,256,512},learning rate取值集合為{0.8,0.1},RBM epoch取值集合為{20,50},minibatch size取值集合為{32,64}。將樣本迭代次數統(tǒng)一為1 000次。
1.4 構建SVM模型 采用基于非下采樣雙樹復輪廓波變換(non-subsampled dual-tree complex contourlet transform, NSDTCT)的小波紋理特征[8-9]構建SVM分類模型,對圖像進行檢測。首先對每幅ROI圖像進行NSDTCT變換,得到96個子圖像,再對每幅子圖像提取紋理參數,包括6個灰度直方圖特征(均值、標準差、平滑度、三階矩、一致性、熵),14個灰度共生矩陣特征(能量、灰度均值、逆差矩、熵、相關性、聚類趨勢、對比度、同質度、方差、最大概率、和的均值、差的均值、和的熵、差的熵)和3個灰度鄰域差分矩特征(粗糙度、對比度、頻度),并據此構建SVM模型。
圖2 DBN輸入圖像示例
1.5 圖像及統(tǒng)計學分析 采用MATLAB R2018a軟件和R軟件(https://www.r-project.org/),以MATLAB軟件DeepLearnToolbox(https://github.com/rasmusbergpalm/DeepLearnToolbox)分析DBN的構建、訓練和評價,以80%數據作為訓練集,20%作為測試集。采用混淆矩陣、總體精度和Kappa系數評價分類結果。0 2.1 DBN網絡結構、訓練參數實驗結果 隱層網絡層從1到6,準確率、Kappa系數取得最大值時的分類結果。隱層數為4時,DBN分類效果最好,見表1。從{16,32,64,128,256,512}中選取隱層網絡節(jié)點數,準確率、Kappa系數取得最大值時的分類結果,當隱層節(jié)點數為512時DBN分類效果最好,見表2。 2.2 DBN建模及分類結果分析 根據實驗結果,采用的DBN網絡模型結構為:隱層網絡層數為4,每個隱層的網絡節(jié)點數為512,訓練次數為1 000次。RBM訓練參數為:learning rate為0.1,迭代次數為20,minibatch size為32。測試集分類結果與患者資料幾乎一致(Kappa=0.87),見表3。 2.3 SVM分類結果分析 每張ROI圖像共提取2 208個紋理特征建立SVM模型。采用5折交叉驗證方法評估模型準確率的平均值為0.69,測試集分類結果與標簽數據一致性中等(Kappa=0.42,表3)。 表1 各DBN隱層網絡層的分類結果 表2 各DBN隱層節(jié)點數的分類結果 表3 DBN與SVM對測試集的檢測結果 深度學習方法可模擬大腦學習過程,基于海量訓練數據構建深層次模型學習數據中的隱含特征[10]。深度學習由人工神經網絡模型發(fā)展而來,通過多個非線性處理層對數據進行逐層抽象,即將當前網絡層的輸出作為下一網絡層的輸入,經過逐層堆疊和歸納,得到更高級的表示,從而獲得不同層面的抽象特征。DBN具有多層非線性結構,對復雜數據有極強的非線性映射能力,通過有監(jiān)督和無監(jiān)督學習過程的交替,能較好地完成特征學習與分類任務[11]。而傳統(tǒng)影像組學方法往往涉及到分割圖像、提取與選擇特征和選擇分類器各步驟,其相比深度學習需要更多的先驗知識,且耗費時間與精力較多。本研究采用深度學習方法對肺結節(jié)圖像進行分類,并與傳統(tǒng)影像組學方法進行比較。 本研究將圖像直接作為DBN的輸入,通過實驗方法確定最佳的網絡結構和訓練參數,采用混淆矩陣、總體精度、Kappa系數作為分類評價指標。其中混淆矩陣反映分類結果與真實標簽信息,是總體精度和Kappa系數指標計算的基礎。混淆矩陣對角線的元素值越大,分類精度越高??傮w精度是總體評價分類的準確率(accuracy)。傳統(tǒng)影像組學方法采用的是在多尺度分析工具中表現較為優(yōu)越的NSDTCT小波紋理特征及在高維、非線性數據分類中表現突出的SVM模型[12]。DBN由若干層RBM堆疊而成,通過無監(jiān)督學習的方法訓練各層RBM為神經網絡的權值提供一個合適的初始值,再通過監(jiān)督學習的方式自動發(fā)掘圖像中更深層次特征,從而提高分類精度[13]。比較本研究中2種方法圖片分類結果, 發(fā)現DBN分類效果優(yōu)于SVM,正確率提高20%,提示DBN無論方法方便程度還是檢測準確程度均優(yōu)于紋理特征結合SVM的傳統(tǒng)分析方法。 本研究DBN分類結果測試集的準確率達0.94,靈敏度和特異度分別為0.96和0.92,其分類效果優(yōu)于SVM方法。一項Meta分析研究[14]顯示,通過合并分析18F-FDG PET/CT診斷肺癌的靈敏度、特異度、診斷優(yōu)勢比并進行異質性檢驗,18F-FDG PET/CT診斷肺癌的合并靈敏度為0.88、特異度為0.56、診斷優(yōu)勢比為9.10,繪制并計算SROC曲線下面積為0.81、統(tǒng)計量Q*為0.75,提示基于DBN的計算機輔助診斷技術識別肺結節(jié)的效果優(yōu)于醫(yī)生基于PET/CT圖像診斷。 綜上所述,深度學習方法對圖像的分類結果較佳,但尚無法給出明確的臨床解釋[15]。將深度學習方法與臨床指標或影像學指標相結合,具有重要臨床意義。2 結果
3 討論