艾和平 李 紅
(三峽大學 附屬仁和醫(yī)院 放射影像科, 湖北 宜昌 443001)
肺腺癌是所有肺癌中最常見的組織學類型[1],新WHO肺腺癌分類將肺腺癌分為不典型腺瘤樣增生(atypical adenomatous hyperplasia,AAH)、原位癌(adenocarcinoma in situ,AIS)、微浸潤腺癌(minimally invasive adenocarcinoma,MIA)與浸潤性腺癌(invasive adenocarcinoma,IAC),其中AAH與AIS歸為侵襲前病變(preinvasive lesions,PILs)[2]。隨著肺癌篩查的普及,磨玻璃結(jié)節(jié)(ground-glass nodule, GGN)檢出率顯著增加,作為常見的肺部征象,GGN可見于多種病理異常,包括炎癥、出血、局灶性纖維化、肺腺癌等。肺腺癌的臨床處理措施及預后根據(jù)腫瘤的侵襲程度也不盡相同。PILs與MIA五年無瘤生存率均可達到100%,累積復發(fā)率為0,而IAC需要進行解剖型肺葉切除術(shù)及淋巴結(jié)清掃,根據(jù)具體組織學分型預后有所不同,但均較PILs及MIA差[3]。術(shù)前準確評估GGN樣肺腺癌的侵襲性對于臨床選擇治療方案、判斷預后等均具有重要的意義。由于GGN的密度僅輕度增加,在肺組織窗上不足以遮擋結(jié)節(jié)內(nèi)的支氣管及血管結(jié)構(gòu),傳統(tǒng)影像學診斷依靠醫(yī)師對肺部CT圖像逐層閱片,工作量巨大,容易漏診。此外,醫(yī)師還需要根據(jù)結(jié)節(jié)大小、密度、切緣是否規(guī)則及結(jié)節(jié)與周圍組織的關(guān)系等影像特征對GGN的性質(zhì)進行判斷,不僅重復性欠佳,也無法全面、準確的評估腫瘤異質(zhì)性[4]。隨著醫(yī)學影像逐漸進入大數(shù)據(jù)時代,以深度學習(deep learning,DL)為代表的人工智能(artificial intelligence,AI)技術(shù)飛速發(fā)展,計算機智能輔助診斷在肺結(jié)節(jié)檢測與診斷方面的應用越來越廣泛,其中針對GGN樣肺腺癌的研究也逐漸增多。本文針對近年來AI在GGN樣肺腺癌侵襲性的研究進展進行綜述。
AI通過大樣本肺結(jié)節(jié)病例的回顧性機器學習訓練,實現(xiàn)對海量的圖像信息快速、自動的定量分析,達到高效、準確檢出病變并進行診斷和預測的目的[5]。其處理醫(yī)學影像圖像的關(guān)鍵步驟包括:圖像分類、病灶檢測、器官和亞結(jié)構(gòu)分割、圖像生成[6]。深度學習又被稱為深度神經(jīng)網(wǎng)絡(luò)學習,其中的卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks,CNN)是目前肺結(jié)節(jié)檢出及診斷中應用最為廣泛的機器學習模型[7]。已有較多肺結(jié)節(jié)輔助診斷軟件應用于臨床,其中包括飛利浦IntelliSpace Portal星云3D影像數(shù)據(jù)中心、深睿Dr.Wise lung analyzer系統(tǒng)、依圖胸部CT智能4D影像系統(tǒng)、推想InferRead CT lung research系統(tǒng)等。這些應用軟件速度快,穩(wěn)定性高,可以在幾分鐘甚至幾秒鐘內(nèi)完成一組CT圖像的分析,對病灶進行定位、定量測量等。AI輔助影像醫(yī)師閱片的模式顯著提高了閱片效率,縮短閱片時間,并顯著降低肺結(jié)節(jié)漏診、誤診率[8]。
荷蘭學者Lambin于2012年正式提出影像組學(radiomics)的概念,即基于定量成像技術(shù)和機器學習,從標準醫(yī)學成像中高通量地提取并篩選出定量的影像組學特征參數(shù)[9]。提取出數(shù)百種可視或不可視特征,包括形態(tài)特征、強度特征、紋理特征等,通過對這些特征參數(shù)進行量化分析來描述腫瘤生物學特征和異質(zhì)性,在多種疾病的無創(chuàng)性影像診斷中具有極大的應用前景。其處理流程主要包括標準的影像圖像采集、精準的圖像分割、高通量特征提取與篩選、構(gòu)建模型與分類器、建立數(shù)據(jù)庫五個部分[9-10]。目前,應用影像組學特征模型對GGN樣肺腺癌進行研究大致分為兩類:一是利用免費軟件進行研究,包括MaZda、Analysis Kit等,其特征的種類和數(shù)量較為固定,因此應用更為廣泛;二是自主研發(fā)特征提取軟件,自主性更強,但需要與工科結(jié)合。影像組學在GGN的研究中尚處于起步階段,還未在臨床廣泛應用。
傳統(tǒng)影像學研究證實了GGN的大小、密度、實性成分比例等與肺腺癌的侵襲性呈正相關(guān),逐漸增大、密度逐漸演變?yōu)閷嵭缘腉GN與早期肺腺癌關(guān)系密切[11-13]。純磨玻璃結(jié)節(jié)(pure ground-glass nodule, pGGN)多對應為AAH、AIS或MIA,混合性磨玻璃結(jié)節(jié)(mixed ground-glass nodule, mGGN)則多為MIA、IAC或其他類型肺癌,且mGGN中實性成分>5 mm多提示IAC。美國國立綜合癌癥網(wǎng)絡(luò)(National Comprehensive Cancer Network,NCCN)肺癌篩查指南中指出,<20 mm的pGGN結(jié)節(jié)進行年度低劑量CT(low-dose computed tomography,LDCT)技術(shù)隨訪,若結(jié)節(jié)增長>1.5 mm,需要6個月內(nèi)復查LDCT;>20 mm的pGGN若結(jié)節(jié)增長>1.5 mm就需要考慮活檢或手術(shù)切除[14]。對于mGGN,年度LDCT隨訪的臨界值縮小到6 mm,且根據(jù)結(jié)節(jié)內(nèi)實性成分大小,管理策略也有所區(qū)別[15]。由此可見,精確、可重復的定量測量對于GGN樣肺腺癌的侵襲性判斷及制定標準的管理策略具有重要意義。但是GGN的體積多較實性結(jié)節(jié)小,生長緩慢,因此大小變化非常細微,且GGN密度較淡,人工定量測量重復性較差,不同醫(yī)師、不同時間測量的大小誤差可能會導致對病變進展的判斷錯誤,影響精準、標準化的臨床管理。吳林玉等[16]通過分析比較同一觀察者不同時間、不同觀察者間及觀察者與AI間測量肺結(jié)節(jié)直徑的差異性,最終發(fā)現(xiàn)AI的自動化測量與同一觀察者在不同時間對肺結(jié)節(jié)的直徑測量無顯著差異,且一致性優(yōu)于不同觀察者間的測量,證實了AI在肺結(jié)節(jié)定量測量方面的優(yōu)勢。其主要原因在于AI對于肺結(jié)節(jié)類病灶較容易與周圍正常組織分辨,全自動分割效率更高,且排除了主觀因素影響。因此,AI對肺結(jié)節(jié)自動識別和定量測量有望使GGN的檢測實現(xiàn)標準化[17]。
商業(yè)化的AI軟件除了輔助影像醫(yī)師進行定量測量,還提供一些AI量化參數(shù),例如惡性概率預測值、CT值直方圖參數(shù)等。陳疆紅等[18]利用推想公司基于深度學習的AI肺結(jié)節(jié)輔助診斷系統(tǒng),分析86例肺亞實性結(jié)節(jié)的侵襲程度,結(jié)果顯示AI自動測量出的結(jié)節(jié)CT值及體積在PILs組與MIA組、PILs組與IAC組間具有統(tǒng)計學差異,PILs組、MIA組及IAC組的惡性概率預測值分別為85.18%、93.10%和97.05%,總體及組間差異均具有統(tǒng)計學意義(均P<0.01)。代平等[19]使用聯(lián)影的肺結(jié)節(jié)分析軟件,提取97例GGN樣肺腺癌的CT值直方圖參數(shù),結(jié)果顯示最大CT值及平均CT值在PILs組、MIA組及IAC組的組間差異具有統(tǒng)計學意義(P<0.05),平均CT值鑒別PILs組與浸潤性腺癌(MIA及IAC)、MIA與IAC的最佳臨界值分別為-557 HU、-484 HU,曲線下面積(area under the curve,AUC)達0.945、0.955。惡性概率預測值與CT值直方圖參數(shù)均具有較高的診斷效能。這些參數(shù)基于深度學習算法,提供的是肉眼難以觀察的AI量化參數(shù),能夠為影像醫(yī)師的診斷提供更多參考,從而更準確地判斷GGN樣肺腺癌的侵襲性。相信將會有更多AI定量參數(shù)應用于臨床,輔助影像醫(yī)師精確診斷。
除了商業(yè)化的AI軟件,還有很多深度學習模型也在研究中。陶雪敏等[17]采用3D DenseNet模型算法對表現(xiàn)為pGGN的肺腺癌進行病理分型,該模型結(jié)果顯示,深度學習模型能夠準確地將IAC與MIA/PILs區(qū)分,準確率和特異度(0.833、0.929)均較專家組(0.542、0.286)更有優(yōu)勢,深度學習與專家組的AUC值分別為0.814、0.590,差異具有統(tǒng)計學意義。Gong等[20]使用殘差學習架構(gòu)和批處理規(guī)范化技術(shù),構(gòu)建了一種基于深度學習的人工智能方案,以預測在CT圖像上表現(xiàn)為GGN的肺腺癌侵襲性。該方案被證實能夠準確區(qū)分IAC與AIS/MIA,曲線下面積達0.92±0.03,優(yōu)于沒有殘差架構(gòu)的模型(0.82±0.05),可見基于殘差學習的CNN模型可以提高IAC與AIS/MIA結(jié)節(jié)分類的性能。
AI能夠高效地檢出GGN、進行定量測量并提供AI定量參數(shù),在GGN樣肺腺癌侵襲性的預測中具有廣闊的應用前景,但是仍普遍面臨著很多挑戰(zhàn),比如在GGN準確分割、模型的通用性等技術(shù)層面。由于GGN與周圍結(jié)構(gòu)對比度差,勾畫結(jié)節(jié)輪廓時分割效果較差,因此仍需要影像醫(yī)師進行復核[17]。此外人工智能模型依賴大樣本數(shù)據(jù)進行自動更新和學習。目前的人工智能模型多使用來自公共數(shù)據(jù)庫的肺結(jié)節(jié)數(shù)據(jù)集,建立一個經(jīng)病理證實的大型GGN數(shù)據(jù)集仍是挑戰(zhàn)。這些均反映AI尚不能完全取代影像醫(yī)師地位。因此,進一步增加訓練集樣本量以及建立高質(zhì)量、標準化的GGN數(shù)據(jù)庫,提高AI的性能及準確性,是AI在GGN樣肺腺癌研究及應用中的關(guān)鍵。
影像組學提取的是人為定義的特征,從最初的幾十個特征逐漸發(fā)展到可提取幾百甚至更高數(shù)量級的組學特征,再對這些特征進行降維、篩選后建立相應組學模型,可有效解決腫瘤異質(zhì)性、基因表達等更復雜的問題。崔效楠等[21]分析156例pGGN腺癌病理類型與54個CT特征建立了二元Logistic回歸分析模型,共選取出面積、周長、眾數(shù)、最大灰度值、直方圖峰度和灰度共生矩陣熵值等8個具有診斷意義的影像組學特征,并通過ROC曲線分析,這些影像組學特征預測pGGN肺腺癌病理侵襲性的曲線下面積高達0.951,敏感度和特異度分別為94.8%和86.7%。范麗等[22]收集了76例孤立性GGN作為獨立驗證集,通過LASSO回歸分析方法進行特征篩選并建立影像組學標簽,從提取的485個三維特征中降維篩選出2個最重要的特征,并與年齡、毛刺征、胸膜凹陷征共同組成了個體化預測模型,該模型能夠有效鑒別浸潤性腺癌和非浸潤性腺癌,曲線下面積為0.934。此外,由于GGN本身密度較低,結(jié)節(jié)內(nèi)氣體含量較多,受到呼吸及容積效應的影響,增強CT掃描是否能夠改善GGN組學特征的診斷效能也引起了部分學者的關(guān)注。Gao等[23]從34例GGN的平掃和增強CT圖像中分別提取了5個和3個紋理特征建立相應的模型,發(fā)現(xiàn)兩種模型在鑒別IAC和AIS/MIA中均具有較高的診斷效能,AUC分別為0.890和0.868,然而兩種模型之間的AUC值卻無顯著性差異(P=0.190)。但在該研究中納入的病例數(shù)較少,在GGN的增強CT圖像中提取的組學特征是否能比平掃圖像提供更多組學信息,仍需要更多研究進一步驗證。
影像組學預測GGN樣肺腺癌的侵襲性具有優(yōu)勢,但目前相關(guān)研究多為回顧性研究,影像組學特征的可解釋性、圖像標準化、精確及可重復的圖像分割方案都是其應用到臨床將要面臨的挑戰(zhàn),相信隨著影像組學研究進一步發(fā)展,會一一得到解決。
人工智能提供GGN樣肺腺癌的精確定量測量及肉眼無法識別的定量特征,能夠高效輔助影像醫(yī)師對GGN樣肺腺癌的侵襲性進行準確診斷,為未來影像診斷提供了全新的工作模式和思路。目前已有很多商用或科研軟件應用于臨床及科研,并且具有較高的參考價值。但是在具體分析時,人工智能也面臨許多問題。第一,AI檢測GGN時雖然能夠提供較為準確的定量參數(shù)及影像特征,但仍需要影像醫(yī)師綜合臨床、影像、生化等信息對其進行二次分析,說明單獨應用AI進行準確的影像診斷仍面臨挑戰(zhàn)。第二,深度學習的中間過程不可知,影像科醫(yī)師缺乏評估AI安全性和有效性的技術(shù)知識,無法理解或獲知深度學習算法的內(nèi)在邏輯,即“黑匣子”問題[24]。隨著成像設(shè)備的不斷升級、深度學習核心算法的更新,相信人工智能輔助診斷技術(shù)將逐步升級、優(yōu)化,不僅能夠在術(shù)前對GGN樣肺腺癌的侵襲性做出準確判斷,還能夠提供更多、更準確的腫瘤異質(zhì)性信息,輔助影像醫(yī)師準確診斷。同時,基于大樣本的數(shù)據(jù)庫建立,相信普適性更高的人工智能模型能夠大范圍的應用于臨床,真正的提高影像診斷工作效率。