亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        卷積神經(jīng)網(wǎng)絡(luò)在輕度認(rèn)知障礙中的影像學(xué)研究進(jìn)展

        2021-11-29 04:38:08李曉陵王敬賢李昂李孟曹丹娜王豐崔璇姚春麗蔡麗娜
        磁共振成像 2021年9期
        關(guān)鍵詞:分類深度模型

        李曉陵,王敬賢,李昂,李孟,曹丹娜,王豐*,崔璇,姚春麗,蔡麗娜

        作者單位:1.黑龍江中醫(yī)藥大學(xué)附屬第一醫(yī)院,哈爾濱 150040;2.黑龍江中醫(yī)藥大學(xué)研究生院,哈爾濱 150040;3.哈爾濱醫(yī)科大學(xué)公共衛(wèi)生學(xué)院,哈爾濱 150081

        輕度認(rèn)知障礙(mild cognitive impairment,MCI)是阿爾茨海默病(Alzheimer's disease,AD)的早期表現(xiàn),MCI常被誤判為正常衰老,而其中三分之一的MCI患者在5年內(nèi)可轉(zhuǎn)變?yōu)锳D[1-2]。AD是一種不可逆的進(jìn)行性腦病,目前尚無有效治療方法,造成了沉重的社會經(jīng)濟(jì)壓力[3]。因此,對MCI患者進(jìn)行早期篩查、及時(shí)干預(yù)、對癥治療,防止其轉(zhuǎn)化為AD,具有重要的臨床應(yīng)用價(jià)值。

        神經(jīng)影像成像技術(shù)是臨床診斷MCI的重要檢查手段,磁共振成像(magnetic resonance imaging,MRI)和正電子發(fā)射斷層掃描(positron emission tomography,PET)常用于鑒定與MCI相關(guān)的結(jié)構(gòu)和分子生物標(biāo)記物[4]。其中,MRI因非侵入、無電離、無輻射、價(jià)格適中等優(yōu)點(diǎn),具有較高的臨床普及率,被認(rèn)為是MCI研究中的首要影像診斷方法[5]。有研究顯示海馬、顳葉等腦區(qū)在認(rèn)知功能下降前,就已經(jīng)出現(xiàn)了結(jié)構(gòu)或功能變化,這些改變是MCI診斷的特異性標(biāo)志[6]。

        隨著人工智能(artificial intelligence,AI)在肺結(jié)節(jié)檢出、膠質(zhì)瘤分級和骨折診斷等影像判讀領(lǐng)域的飛速發(fā)展,與影像技術(shù)相結(jié)合的大規(guī)模、高維度、多模態(tài)神經(jīng)影像技術(shù)在認(rèn)知研究方面日益成熟[7-9]。卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks,CNN)是AI領(lǐng)域中一個迅速發(fā)展的深度學(xué)習(xí)(deep learning,DL)模型,也是影像學(xué)領(lǐng)域的最新技術(shù)之一,在圖像識別與分類中大放異彩[10-11]。迄今為止,CNN及其眾多衍生模型在神經(jīng)影像識別領(lǐng)域均取得多項(xiàng)重大進(jìn)展。基于以上情況,筆者以此為線索,探討其在MCI領(lǐng)域的研究現(xiàn)狀與未來發(fā)展方向。

        1 CNN

        1.1 CNN發(fā)展簡述及基本結(jié)構(gòu)

        CNN概念起源于1962年Hubel等[12]提出的感受野,在此基礎(chǔ)上Fukushima[13]于1980年提出的神經(jīng)認(rèn)知機(jī)可以看作CNN的雛形。此后,LeCun等[14]于1989年首次使用“卷積”一詞對算法結(jié)構(gòu)進(jìn)行解釋,直到1998年構(gòu)建出LeNet-5模型,被公認(rèn)為定義了CNN的基本結(jié)構(gòu)。2012年AlexNet的成功奠定了CNN在深度學(xué)習(xí)領(lǐng)域的重要地位,同時(shí)也成為重點(diǎn)研究對象并逐漸演化出眾多經(jīng)典模型,如GoogLeNet、ResNet以及DenseNet等,廣泛應(yīng)用于圖像處理和計(jì)算機(jī)視覺等領(lǐng)域。

        傳統(tǒng)機(jī)器學(xué)習(xí)算法對于圖像處理需人工手動進(jìn)行特征選擇,深度學(xué)習(xí)的最大優(yōu)勢在于計(jì)算機(jī)算法本身即可確定最佳圖像特征,進(jìn)而回答針對圖像的各種問題[15]。CNN是圖像DL最常用的算法模型,其基本結(jié)構(gòu)一般由輸入層、卷積層、池化層、全連接層以及輸出層5層組成[16]。在圖像處理時(shí),首先由輸入層輸入數(shù)據(jù),其次經(jīng)過卷積層與池化層交替操作提取圖像特征,之后經(jīng)全連接層把提取的特征組合歸類,最后由輸出層輸出結(jié)果。

        1.2 CNN在醫(yī)學(xué)影像分析中的應(yīng)用

        自AlexNet問世來,應(yīng)用深度學(xué)習(xí)進(jìn)行數(shù)據(jù)分析成為腦科學(xué)關(guān)注的熱點(diǎn),CNN在目標(biāo)識別與定位方面的優(yōu)異表現(xiàn)使其成為計(jì)算機(jī)視覺領(lǐng)域最優(yōu)秀的深度學(xué)習(xí)技術(shù)[17]。CNN結(jié)合其他深度學(xué)習(xí)方法用于醫(yī)學(xué)圖像分析,可以簡化處理流程,提升影像診斷效率,在病變檢測、圖像分割及融合等方面成果顯著。它對醫(yī)學(xué)影像處理基本流程是圖像預(yù)處理、圖像分割、特征提取、特征選擇、訓(xùn)練分類器及對測試集進(jìn)行測試[18]。

        在MCI腦影像診斷應(yīng)用中,CNN的大部分醫(yī)學(xué)影像數(shù)據(jù)來自阿爾茨海默病神經(jīng)影像學(xué)倡議(Alzheimer's disease neuroimaging initiative,ADNI)數(shù)據(jù)庫和影像研究開放獲取系列[19]。SPM和ANT是分析處理腦影像的主要軟件,獲取影像數(shù)據(jù)后,對其進(jìn)行預(yù)處理,如頭動校正、配準(zhǔn)、分割以及平滑處理等,然后送入輸入層開始訓(xùn)練,最后進(jìn)行試驗(yàn)并測評效果[20]。

        2 CNN在MCI中的應(yīng)用

        目前CNN在MCI中的應(yīng)用主要包括病變的檢出、分類和預(yù)測三個方面。

        2.1 病變檢出

        2017年我國學(xué)者呂鴻蒙等[21]對于模型對MRI圖像針對性不強(qiáng)的問題做出改進(jìn),應(yīng)用增強(qiáng)的AlexNet模型診斷MCI,結(jié)果證明該模型識別MCI的能力較初始模型更優(yōu)。Noguchi等[22]對AlexNet持同樣意見,其研究表明GoogLeNet可以用更少的訓(xùn)練數(shù)據(jù)來判斷頭部MRI序列類型。Qiu等[23]以MR圖像為基礎(chǔ),聯(lián)合簡易精神量表和邏輯測試訓(xùn)練的深度學(xué)習(xí)模型在判斷MCI患者組時(shí)實(shí)現(xiàn)了90.9%的總體準(zhǔn)確性。

        通過功能連接構(gòu)建出的腦功能網(wǎng)絡(luò)(brain functional network,BFN)被認(rèn)為是有效診斷MCI的生物標(biāo)志物,Kam等[24]提出了一種新穎的基于多BFN的CNN框架,使不同BFN的嵌入式功能可以在統(tǒng)一模型中全面支持彼此,以實(shí)現(xiàn)更準(zhǔn)確的MCI診斷。在此基礎(chǔ)上研制的CNN框架,可以同時(shí)學(xué)習(xí)靜態(tài)BFN和動態(tài)BFN特征,驗(yàn)證了基于大腦功能連接的DL模型在MCI診斷中的有效性[25]。

        曾安等[26]提出基于CNN和集成學(xué)習(xí)的多切片集成分類模型能更充分地利用MRI包含的有效信息,從而提高M(jìn)CI診斷準(zhǔn)確率。同年Liu等[27]結(jié)合DenseNet提出了一種多模型的CNN分類框架,對MCI診斷的準(zhǔn)確率達(dá)到76.2%。Jiang等[28]和Kang等[29]使用結(jié)構(gòu)MRI圖像進(jìn)行基于CNN的MCI診斷,準(zhǔn)確率高達(dá)89.4%,在其后續(xù)研究中聯(lián)合應(yīng)用彌散張量成像(Diffusion Tensor Imaging,DTI)技術(shù),多模態(tài)獲取腦白質(zhì)特征信息,進(jìn)一步提高了疾病診斷精度。

        Jie等[30]應(yīng)用174名受試者功能MRI數(shù)據(jù),建立新的加權(quán)相關(guān)核測量各腦區(qū)之間的相關(guān)性,研究證明該方法對MCI的診斷準(zhǔn)確度達(dá)到84.6%。還有學(xué)者研究近紅外腦功能成像數(shù)據(jù)訓(xùn)練CNN模型診斷MCI的可行性,也取得了良好進(jìn)展[31]。

        2.2 病變分類

        MCI早期狀態(tài)雖與正常衰老表現(xiàn)類似,但若進(jìn)展為AD則會給個人和家庭造成沉重負(fù)擔(dān),磁共振技術(shù)為區(qū)分該疾病的不同階段提供了有效手段。有學(xué)者通過構(gòu)建新的CNN模型進(jìn)行圖像分類,使MCI和健康組分類取得了較高準(zhǔn)確度[32-34]。Feng等[35]基于MRI的自動化深度學(xué)習(xí)模型使MCI/AD分類的準(zhǔn)確率和敏感度分別達(dá)到89.4%和86.7%。

        為使試驗(yàn)更有針對性,研究者們將MCI分為早期和晚期MCI(eMCI和lMCI),或漸進(jìn)MCI(pMCI)和穩(wěn)定MCI(sMCI)等不同亞型[36-37]。結(jié)構(gòu)MRI能夠詳盡獲取海馬的形狀和體積變化信息,有學(xué)者[38]從此入手,使用CNN對AD、MCI和健康組進(jìn)行分類。使三組的準(zhǔn)確度分別達(dá)到92.3%、85.6%、78.1%。Wee等[39]則結(jié)合皮層厚度數(shù)據(jù),顯示CN/AD與eMCI/AD的分類準(zhǔn)確度分別為85.8%、79.2%,除CN/eMCI準(zhǔn)確度較低外,其他各組間的分類準(zhǔn)確度也都達(dá)到60.0%以上。Cui等[40-41]的研究不僅驗(yàn)證了上述方法的可行性,其提出的方法在sMCI,pMCI分類中也展示出不俗的分類能力。

        Gorji等[36]通過提取腦脊液、灰質(zhì)與白質(zhì)的MRI特征,使對照組、eMCI組、lMCI組的組間分類準(zhǔn)確率均達(dá)到93.0%以上,并且即使數(shù)據(jù)集較小,該結(jié)構(gòu)也能表現(xiàn)出良好性能?;诩壜?lián)CNN的多模式分類算法,可以在簡化步驟的同時(shí)自動從通用多模態(tài)特征進(jìn)行疾病分類,不僅揭示了AD和MCI等多種模式的腦MRI變化,還可檢測其他腦部疾病,如精神分裂癥、自閉癥等[42-43]。

        2.3 轉(zhuǎn)換預(yù)測

        自AlexNet問世并展現(xiàn)出巨大潛力后,許多經(jīng)典的CNN模型得以創(chuàng)新發(fā)展,如ResNet、LeNet、DenseNet等。除了最初的LeNet因設(shè)計(jì)簡單,應(yīng)用較少外,其他模型均有用于MCI研究,并取得了良好效果[19]。

        Lin等[44]研究設(shè)計(jì)了一種基于CNN的深度學(xué)習(xí)方法,可以利用海馬MRI數(shù)據(jù)準(zhǔn)確預(yù)測MCI-AD的轉(zhuǎn)換,該方法在ADNI數(shù)據(jù)集中得到驗(yàn)證,達(dá)到了79.9%的精度。受AlexNet啟發(fā),將深度學(xué)習(xí)和機(jī)器學(xué)習(xí)相結(jié)合,設(shè)計(jì)出的決策支持模型可成功預(yù)測一年內(nèi)從MCI到AD的轉(zhuǎn)化概率[45]。CaffeNet是Alexnet的改進(jìn)型,Wu等[46]聯(lián)合應(yīng)用CaffeNet與GoogleNet架構(gòu),不僅對MCI亞型分類表現(xiàn)出眾,在預(yù)測轉(zhuǎn)化風(fēng)險(xiǎn)方面,也取得良好成果,能夠預(yù)測三年內(nèi)不同亞型MCI/AD轉(zhuǎn)化率。而Choi等[47]開發(fā)的基于MatConvNet的自動圖像解釋系統(tǒng),可以使用PET數(shù)據(jù)準(zhǔn)確預(yù)測MCI患者轉(zhuǎn)化為AD的可能性,預(yù)測準(zhǔn)確性優(yōu)于傳統(tǒng)的量化方法。對于eMCI轉(zhuǎn)變?yōu)锳D,lMCI轉(zhuǎn)換為AD,Cui等[40]提出的方法也實(shí)現(xiàn)了較高的預(yù)測精度。近來,Lian等[48]提出的以注意力為導(dǎo)向處理全腦結(jié)構(gòu)MRI信息方法,即使與幾種最先進(jìn)的MCI轉(zhuǎn)換預(yù)測技術(shù)相比,也顯示出優(yōu)越的性能。

        3 小結(jié)與展望

        全球AD數(shù)量迅速增加,使得MCI階段的辨別和干預(yù)非常關(guān)鍵。深度學(xué)習(xí)在圖像識別領(lǐng)域表現(xiàn)優(yōu)異。其中,CNN在醫(yī)學(xué)影像的識別、分類等方面,具有無接觸、高精度的特點(diǎn)。本文以CNN為軸,闡述了它在MCI診斷、分類、預(yù)測等多個領(lǐng)域中的應(yīng)用現(xiàn)狀。

        但是由于參閱文獻(xiàn)所用數(shù)據(jù)的來源、類型以及預(yù)處理方法等并不一致,所以對于各模型最終成果僅能大致參考,并未對各研究成果進(jìn)行詳細(xì)比較。而且CNN本身也存在著一定缺陷:首先它很難將不同格式的數(shù)據(jù)如影像和化驗(yàn)數(shù)據(jù)整合輸入,還有參數(shù)標(biāo)準(zhǔn)化、成果可解釋性等問題有待優(yōu)化。

        目前CNN在MCI方面的研究仍在不斷深入,研究者們正在嘗試探索最佳的生物標(biāo)志物、多模態(tài)數(shù)據(jù)融合方式以及算法結(jié)構(gòu)優(yōu)化方向。隨著越來越多的數(shù)據(jù)類型被獲取,使用CNN進(jìn)行研究將變得更有影響力。因此,將2D CNN擴(kuò)展為3D CNN非常重要,尤其是當(dāng)研究涉及認(rèn)知功能的多模態(tài)神經(jīng)圖像時(shí);此外,強(qiáng)化學(xué)習(xí)為腦科學(xué)提供了一套新的研究工具和一系列新穎假設(shè),可以通過加強(qiáng)臨床工作者與理論技術(shù)人員的交流,改進(jìn)現(xiàn)行工作方式。如此,必將促使醫(yī)學(xué)影像研究實(shí)現(xiàn)進(jìn)一步飛躍。

        作者利益沖突聲明:全體作者均聲明無利益沖突。

        猜你喜歡
        分類深度模型
        一半模型
        分類算一算
        深度理解一元一次方程
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        分類討論求坐標(biāo)
        深度觀察
        深度觀察
        深度觀察
        數(shù)據(jù)分析中的分類討論
        水蜜桃视频在线观看入口| 欧美性久久| 欧洲国产精品无码专区影院| 国产在线视频一区二区三| 人人妻人人澡人人爽精品日本| 骚片av蜜桃精品一区| 欧美日韩国产综合aⅴ| 国产熟女乱综合一区二区三区| 自由成熟女性性毛茸茸应用特色| 绝顶潮喷绝叫在线观看| а中文在线天堂| 亚洲国产高清在线视频| 蜜臀av一区二区三区久久| 日本艳妓bbw高潮一19| 国产亚洲日韩欧美一区二区三区| 国产高清一区在线观看| 国产精品亚洲精品一区二区| 无码字幕av一区二区三区| 亚洲一区爱区精品无码| 网红极品女神精品视频在线| 亚洲乱码中文字幕综合久久| 丁香六月久久婷婷开心| 美日韩毛片| 国产精品美女自在线观看| 亚洲国产精品成人天堂| 少妇人妻200篇白洁| 无码高潮久久一级一级喷水| 成人高清在线播放视频| 国产免费艾彩sm调教视频| 亚洲h视频| 中文字幕a区一区三区| 最新露脸自拍视频在线观看| 东京热加勒比无码少妇| 高清偷自拍亚洲精品三区 | 日韩欧美亚洲综合久久影院d3 | 色婷婷七月| 蜜桃在线观看视频在线观看| 狠狠综合亚洲综合亚洲色| 久久久久久人妻一区二区三区| 色综合999| 中文字幕av熟女中文av|