亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于Transformer增強(qiáng)卷積的膝關(guān)節(jié)磁共振影像年齡預(yù)測

        2023-04-29 13:14:05朱昊哲鄧小冬廖培希杜文超陳懷歆劉洪陳虎鄧振華楊紅雨
        關(guān)鍵詞:深度學(xué)習(xí)

        朱昊哲 鄧小冬 廖培希 杜文超 陳懷歆 劉洪 陳虎 鄧振華 楊紅雨

        摘要:年齡預(yù)測是臨床醫(yī)學(xué)中的一個(gè)重要課題和非常活躍的研究領(lǐng)域.最近,由于傳統(tǒng)影像學(xué)檢查中電離輻射的缺點(diǎn),越來越多的研究使用磁共振影像進(jìn)行年齡預(yù)測.本文基于膝關(guān)節(jié)MRI數(shù)據(jù)集,提出了一種新的端到端網(wǎng)絡(luò),結(jié)合卷積神經(jīng)網(wǎng)絡(luò)和Masked-Transformer網(wǎng)絡(luò)互補(bǔ)地來提取局部特征和全局依賴,并使用一個(gè)特征聚合模塊來聚合不同局部膝關(guān)節(jié)MRI切片的特征.通過整合卷積神經(jīng)網(wǎng)絡(luò)的特征圖和視覺Transformer分支的特征編碼,特征提取模塊可以互補(bǔ)地提取局部和全局信息,更好地提取與年齡相關(guān)的特征.同時(shí),該網(wǎng)絡(luò)使用由圖注意力網(wǎng)絡(luò)組成的特征聚合模塊,用于在特征級別集成不同MRI切片的局部特征,實(shí)現(xiàn)多切片局部特征之間的交互.大量實(shí)驗(yàn)表明,該方法可以在膝關(guān)節(jié)MRI年齡估計(jì)任務(wù)中達(dá)到最先進(jìn)的性能.具體而言,本文方法在MRI數(shù)據(jù)集上進(jìn)行了測試,該測試集包括44個(gè)年齡在12.0~25.9歲之間的膝關(guān)節(jié)MRI樣本,其中五折交叉驗(yàn)證的最佳結(jié)果是年齡平均絕對誤差為1.57±1.34歲.

        關(guān)鍵詞:深度學(xué)習(xí); 膝關(guān)節(jié)年齡預(yù)測; 核磁共振影像; 計(jì)算機(jī)輔助診斷

        中圖分類號:??TP389.1? ?文獻(xiàn)標(biāo)識碼:A? DOI:10.19907/j.0490-6756.2023.052001

        收稿日期: ?2022-11-30

        基金項(xiàng)目: ??四川省衛(wèi)生健康委員會(huì)科研課題(19PJ007); 成都市衛(wèi)生健康委員會(huì)科研課題(2022053);四川省自然科學(xué)基金(2022NSFSC1286); 成都市重點(diǎn)研發(fā)支撐計(jì)劃項(xiàng)目(2021YF0501788SN)

        作者簡介: ??朱昊哲(2000-), 男, 湖北武漢人, 碩士研究生, 主要研究方向?yàn)獒t(yī)學(xué)圖像處理. E-mail: zzzhz@stu.scu.edu.cn

        通訊作者: ?陳虎. E-mail: huchen@scu.edu.cn

        Transformer enhanced convolution based knee age estimation on MRIs

        ZHU Hao-Zhe ?1 , DENG Xiao-Dong ?2 , LIAO Pei-Xi ?3 , DU Wen-Chao ?1 , CHEN Huai-Xin ?4 ,

        LIU Hong ?1,4 , CHEN Hu ?1 , DENG Zhen-Hua ?2 , YANG Hong-Yu ?1,4

        (1. College of Computer Science, Sichuan University, Chengdu 610065, China; ??2. West China School of Basic Medical Sciences and Forensic Medicine, Sichuan University, Chengdu 610041, China;

        3. The Sixth Peoples Hospital of Chengdu, Chengdu 610051, China;

        4. Department of National Key Laboratory of Fundamental Science on ?Synthetic Vision, Sichuan University, Chengdu 610065, China)

        Age estimation is regarded as a crucial topic and a very active research field in clinical medicine. Recently, due to the drawback of ionizing radiation from the traditional imageological examination, growing more and more studies have focused on using magnetic resonance imaging (MRI) for bone age prediction. This paper proposes a novel end-to-end network based on the knee MRI dataset, which combines the convolution neural network (CNN) and Masked-Transformer network to extract complementary features, and uses a feature aggregation module to aggregate features of different local knee MRI slices. By integrating the feature maps of CNN and the patch embeddings of visual transformer branches, the feature extraction module can complementarily acquire local and global information to better extract age-related features. A feature aggregation module composed of the graph attention network is proposed in our work to integrate the local features of different MRI slices at the feature level to achieve the interaction between multiple slice features. Extensive experiments demonstrate that our method can achieve state-of-the-art performance in the knee MRI age estimation task. Specifically, our method is tested on a dataset including 44 knee MRI samples aging from 12.0 to 25.9 years, and the best result of five-fold cross-validation is a mean absolute error of 1.57 ± 1.34 years in age regression.

        Deep learning; Knee age estimation; Magnetic resonance imaging; Computeraided diagnosis

        1 引 言

        年齡預(yù)測在臨床醫(yī)學(xué)和放射學(xué)中是一個(gè)重要的研究領(lǐng)域 ?[1-2] ,可用于診斷內(nèi)分泌疾病、判斷青少年發(fā)育時(shí)間點(diǎn)以及規(guī)劃骨科手術(shù)干預(yù)時(shí)間點(diǎn) ?[3-4] .現(xiàn)有的人工年齡預(yù)測的方法,諸如Greulich and Pyle(GP) ?[5] 和Tanner Whitehouse 2(TW2) ?[6] 等方法對于手腕部醫(yī)學(xué)圖像中骨骼生長板骨化狀況進(jìn)行分級對照,從而預(yù)測出樣本的年齡.參考GP和TW2方法,許多研究 ?[7-14] 總結(jié)了人工對于膝關(guān)節(jié)X光圖像或MRI圖像進(jìn)行年齡預(yù)測的方法,從股骨遠(yuǎn)端、脛骨近端和腓骨近端三個(gè)部位 ?[15] 獲取年齡相關(guān)信息.然而,傳統(tǒng)的膝關(guān)節(jié)年齡預(yù)測方法需要專業(yè)放射科醫(yī)生手動(dòng)完成,這可能導(dǎo)致主觀誤差和低準(zhǔn)確性.因此,需要開發(fā)基于深度學(xué)習(xí)技術(shù)的自動(dòng)化算法來提高年齡預(yù)測的效率和準(zhǔn)確性.

        最近的研究 ?[16-18] 利用卷積神經(jīng)網(wǎng)絡(luò)對膝關(guān)節(jié)MRI進(jìn)行年齡預(yù)測.這些方法將每個(gè)MRI樣本看作多層面的二維圖像,并使用共享參數(shù)的卷積神經(jīng)網(wǎng)絡(luò)和全連接層提取具有年齡相關(guān)性的特征信息,以預(yù)測每個(gè)切片的年齡并加權(quán)得到最終的年齡預(yù)測結(jié)果.盡管卷積神經(jīng)網(wǎng)絡(luò)在該任務(wù)中表現(xiàn)良好,但仍難以獲取所有MRI切片的全局相關(guān)信息,在該項(xiàng)年齡預(yù)測任務(wù)中存在局限性.

        自注意力模型近年來在計(jì)算機(jī)視覺領(lǐng)域得到廣泛應(yīng)用,尤其在圖像識別、圖像分割和目標(biāo)檢測等任務(wù)中表現(xiàn)突出.視覺Transformer模塊通過捕獲圖像的全局依賴,在處理全局信息方面具有優(yōu)勢,這與卷積神經(jīng)網(wǎng)絡(luò)在處理局部細(xì)節(jié)方面的優(yōu)勢相互補(bǔ)充.

        基于卷積網(wǎng)絡(luò)和Transformer結(jié)構(gòu)的優(yōu)勢和特點(diǎn),本文提出了ResMAE網(wǎng)絡(luò)結(jié)構(gòu).該網(wǎng)絡(luò)由Masked-Transformer模塊增強(qiáng)的卷積神經(jīng)網(wǎng)絡(luò)基本塊組成,用于從每個(gè)膝關(guān)節(jié)MRI樣本的圖像切片中提取與年齡相關(guān)的特征.在提取到圖像特征之后,應(yīng)用一個(gè)由圖注意力網(wǎng)絡(luò)結(jié)構(gòu)組成的特征聚合模塊實(shí)現(xiàn)各MRI切片特征的聚合,以輸入到全連接層和Softmax層中得到預(yù)測的年齡結(jié)果.本文的貢獻(xiàn)主要包括:(1) 本文提出了一種新的端到端網(wǎng)絡(luò),用于處理膝關(guān)節(jié)MRI年齡預(yù)測任務(wù),該網(wǎng)絡(luò)顯著提高了其在膝關(guān)節(jié)MRI的年齡預(yù)測任務(wù)的性能效果,并實(shí)現(xiàn)了臨床應(yīng)用的可行性;(2) 本文提出了一種Masked-Transformer增強(qiáng)的卷積特征提取網(wǎng)絡(luò)結(jié)構(gòu).實(shí)驗(yàn)證明該網(wǎng)絡(luò)在膝關(guān)節(jié)MRI年齡預(yù)測任務(wù)中比全卷積結(jié)構(gòu)和全視覺Transformer結(jié)構(gòu)具有更好的結(jié)果;(3) 本文在局部MRI切片特征級別上使用了圖注意力網(wǎng)絡(luò) ?[19] 作為特征聚合模塊.實(shí)驗(yàn)表明,相比原始的基于每個(gè)切片預(yù)測結(jié)果的機(jī)器學(xué)習(xí)聚合方法,該方法表現(xiàn)更佳;(4) 通過詳細(xì)的實(shí)驗(yàn)結(jié)果證明,本文方法在可解釋性、時(shí)間效率和性能方面均優(yōu)于人工膝關(guān)節(jié)MRI年齡預(yù)測方法和現(xiàn)有深度學(xué)習(xí)方法.

        2 膝關(guān)節(jié)核磁共振相關(guān)研究

        2.1 膝關(guān)節(jié)年齡預(yù)測

        近期的研究 ?[16-18] 采用深度學(xué)習(xí)技術(shù)對膝關(guān)節(jié)MRI圖像進(jìn)行年齡估計(jì).這些方法將每個(gè)MRI切片看作一張二維圖像,使用二維卷積神經(jīng)網(wǎng)絡(luò)和全連接層提取與年齡相關(guān)的特征信息,并使用機(jī)器學(xué)習(xí)方法預(yù)測每個(gè)切片的年齡并加權(quán)平均得到最終的年齡結(jié)果.然而,卷積神經(jīng)網(wǎng)絡(luò)雖然能夠有效地提取局部特征,但在捕獲所有MRI切片的全局依賴信息方面存在困難.同時(shí),由于未考慮到不同切片之間的關(guān)系,直接將不同切片的年齡結(jié)果反饋到另一個(gè)機(jī)器學(xué)習(xí)回歸函數(shù)中進(jìn)行最終的年齡估計(jì)也不可靠.

        具體而言,Dallora等人 ?[16] 使用GoogLeNet ?[20] 和全連接層進(jìn)行膝關(guān)節(jié)MRI切片圖像的特征提取和年齡回歸預(yù)測.Prove等人 ?[17] 引入U(xiǎn)-Net結(jié)構(gòu) ?[21] 從膝關(guān)節(jié)MRI切片圖像中分割出骨骼部分,用U-Net編碼器提取骨骼掩膜圖像中的特征,并將每個(gè)切片的年齡預(yù)測結(jié)果輸入到隨機(jī)森林回歸函數(shù)中得到最終年齡結(jié)果.Mauer等人 ?[18] 使用AgeNet2D從局部膝關(guān)節(jié)MRI切片提取特征,并應(yīng)用極端隨機(jī)樹回歸器對每個(gè)切片的預(yù)測結(jié)果進(jìn)行加權(quán),以在其私人數(shù)據(jù)集中獲得最佳預(yù)測結(jié)果.然而, 這些方法都采用兩階段方法,即使用二維卷積神經(jīng)結(jié)構(gòu)提取每個(gè)MRI圖像切片的特征,并將每個(gè)切片的預(yù)測結(jié)果直接加權(quán)以獲得最終年齡.

        相比之下,本文提出了一種新的方法,使用視覺Transformer結(jié)構(gòu)對膝關(guān)節(jié)MRI數(shù)據(jù)進(jìn)行特征提取,以提高年齡預(yù)測的準(zhǔn)確性.與現(xiàn)有解決方案相比,本文方法從全局角度提取更多與年齡相關(guān)的特征,并使用由圖注意力網(wǎng)絡(luò)結(jié)構(gòu)組成的特征聚合模塊在特征層面實(shí)現(xiàn)各切片特征的聚合,從而更好地考慮了不同局部切片之間的相關(guān)性.此外,本文的方法以端到端的方式實(shí)現(xiàn),實(shí)現(xiàn)起來更加方便,并在后續(xù)實(shí)驗(yàn)中證明了其在預(yù)測性能上的優(yōu)越性.

        2.2 卷積神經(jīng)網(wǎng)絡(luò)

        卷積神經(jīng)網(wǎng)絡(luò)在計(jì)算機(jī)視覺任務(wù)中表現(xiàn)驚人,其在膝關(guān)節(jié)MRI年齡預(yù)測任務(wù)中也不例外.ResNet ?[22] 作為一個(gè)具有里程碑意義的深度卷積神經(jīng)網(wǎng)絡(luò)模型.過去,研究人員一直認(rèn)為神經(jīng)網(wǎng)絡(luò)的深度對卷積神經(jīng)網(wǎng)絡(luò)的性能和擬合能力至關(guān)重要,因此一直通過增加層數(shù)來改進(jìn)神經(jīng)網(wǎng)絡(luò)模型.但是He等人 ?[22] 證明,當(dāng)網(wǎng)絡(luò)深度增加到一定程度時(shí),網(wǎng)絡(luò)的擬合能力可能會(huì)下降.因此,ResNet使用跳躍連接來解決過擬合問題并加速訓(xùn)練.由于ResNet在特征提取方面的出色能力,本文選擇ResNet作為該任務(wù)的主干網(wǎng)絡(luò).考慮到本文的訓(xùn)練數(shù)據(jù)集相對較小且圖像分辨率相對較低,因此選擇參數(shù)較少的ResNet34網(wǎng)絡(luò)結(jié)構(gòu)作為主干網(wǎng)絡(luò),以緩解過度擬合現(xiàn)象.

        2.3 Transformer模塊

        Transformer ?[23] 模塊一直被廣泛應(yīng)用于NLP任務(wù)中.最近ViT ?[24] 的出現(xiàn)證明了在視覺任務(wù)中使用Transformer結(jié)構(gòu)的可行性,并展示了其在全局特征提取方面的優(yōu)勢.視覺Transformer網(wǎng)絡(luò)通過將每個(gè)圖像分割成帶有位置編碼信息的特征來構(gòu)建一系列特征編碼,并使用串聯(lián)的Transformer模塊提取參數(shù)化向量作為全局視覺表示.然而,全Transformer網(wǎng)絡(luò)結(jié)構(gòu)可能會(huì)忽略圖像的局部特征細(xì)節(jié),并且在數(shù)據(jù)量不足的情況下訓(xùn)練時(shí)的泛化性能較差.為了應(yīng)對這些問題,近期許多工作著力于使用Transformer結(jié)構(gòu)來增強(qiáng)卷積主干網(wǎng)絡(luò),提高網(wǎng)絡(luò)的整體性能.

        具體而言,Dai等人 ?[25] 提出了CoAtNet網(wǎng)絡(luò)結(jié)構(gòu),以結(jié)合卷積神經(jīng)網(wǎng)絡(luò)和Transformer模塊的優(yōu)點(diǎn).他們發(fā)現(xiàn),深度卷積結(jié)構(gòu)和自注意力機(jī)制可以自然地統(tǒng)一結(jié)合,并在淺層中更有效地垂直堆疊卷積和自注意力層.Conformer ?[26] 使用并行混合的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)和Transformer塊,以利用卷積運(yùn)算和自注意力機(jī)制來增強(qiáng)網(wǎng)絡(luò)的泛化能力.

        與現(xiàn)有工作不同,本文考慮到更好地提取所有MRI切片的全局特征和局部切片特征,在ResMAE的ResNet基本塊的基礎(chǔ)上,加入了類似于MAE ?[27] 的編碼器結(jié)構(gòu)的Masked-Transformer結(jié)構(gòu),以將具有年齡相關(guān)性的全局信息融入切片圖像特征提取中.同時(shí),Masked-Transformer結(jié)構(gòu)隨機(jī)地對一些圖像區(qū)域進(jìn)行遮蔽操作,以此減輕Transformer結(jié)構(gòu)產(chǎn)生的過擬合現(xiàn)象.后續(xù)部分將詳細(xì)介紹本文所提出的ResMAE模塊,并通過綜合實(shí)驗(yàn)證明,ResMAE中的特征提取模塊顯著提高了膝關(guān)節(jié)MRI年齡預(yù)測任務(wù)的精度,在預(yù)測時(shí)間和精度方面都能滿足臨床應(yīng)用需要.

        3 方 法

        本節(jié)將介紹用于膝關(guān)節(jié)MRI年齡估計(jì)任務(wù)的特征提取網(wǎng)絡(luò)和特征聚合模塊.整體網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示,網(wǎng)絡(luò)的輸入為12張二維切片圖像,經(jīng)過初始的3個(gè)卷積網(wǎng)絡(luò)塊得到淺層特征,接著輸入到4個(gè)級聯(lián)的基本塊進(jìn)行特征提取并得到每張圖像的高級語義特征向量.最后,本文通過特征聚合模塊(Feature Aggregation Module,F(xiàn)AM)將各切片的特征向量進(jìn)行聚合,得到年齡相關(guān)性最強(qiáng)的切片特征,并使用全連接層和Softmax層輸出預(yù)測年齡.

        基于圖1中的網(wǎng)絡(luò)結(jié)構(gòu),我們來解釋本文如何結(jié)合卷積神經(jīng)網(wǎng)絡(luò)和Transformer模塊的優(yōu)點(diǎn)來進(jìn)行特征提取.同時(shí),本文還介紹了如何使用Masked-Transformer模塊以減輕過擬合現(xiàn)象,并展示了如何應(yīng)用特征聚合模塊對提取到的切片特征在特征層面進(jìn)行聚合.

        3.1 基于Transformer模塊的特征提取網(wǎng)絡(luò)

        本節(jié)詳細(xì)介紹了用于膝關(guān)節(jié)MRI切片特征提取的網(wǎng)絡(luò)結(jié)構(gòu),如圖2所示.與ResNet ?[22] 結(jié)構(gòu)相似,本文的特征提取網(wǎng)絡(luò)針對膝關(guān)節(jié)年齡預(yù)測任務(wù)進(jìn)行了修改.首先,為了避免圖像細(xì)節(jié)的丟失,本文在網(wǎng)絡(luò)的初始部分應(yīng)用3個(gè)3×3的卷積塊進(jìn)行初始特征提取過程,將初始輸入圖像轉(zhuǎn)換為具有初級語義特征的特征圖.基本塊的整體卷積結(jié)構(gòu)與ResNet34結(jié)構(gòu)類似,每個(gè)卷積塊的卷積核大小為3×3,padding為1,并在其后跟隨有一個(gè)BatchNorm層和ReLU激活層.

        此外,如圖2右上部分所示,本文在ResNet基本塊的第二個(gè)卷積塊后添加了一個(gè)Masked-Transformer模塊,以更好地融合Transformer模塊的全局依賴,實(shí)現(xiàn)更好的特征提取過程.Masked-Transformer 模塊的結(jié)構(gòu)如圖2的下半部分所示,為了更好地表示網(wǎng)絡(luò)的計(jì)算過程,這里假設(shè)上一個(gè)基本塊或者卷積塊的輸出特征圖為 ?f ??c ∈ Euclid Math TwoRA@

        B×N×C×h×w ?(其中 B、N、C、h、w 分別代表訓(xùn)練的批次大小、MRI樣本的切片數(shù)量、特征圖的通道數(shù)量、特征圖高和特征圖寬).本文先使用平均池化操作減小特征圖的尺寸大小將特征圖壓縮為 ?f ???c ′ ∈ Euclid Math TwoRA@

        B×E× h ′× w ′ ?(其中 E=N×C , ?h ′、 w ′ 分別為壓縮后的特征圖大?。?然后使用一個(gè)類似于MAE ?[27] 編碼器的結(jié)構(gòu)來對特征圖的部分區(qū)域進(jìn)行采樣,同時(shí)對未采樣區(qū)域進(jìn)行遮蔽操作,此時(shí)可以得到隨機(jī)采樣后的特征圖 ?f ??m ∈ Euclid Math TwoRA@

        B×E× h ′× w ′ ?(其中本文設(shè)置的遮蔽率為 ?M ??r ?, ?M ??r ?的大小在0~1之間,即對特征圖僅保留 1- M ??r ?比例的部分信息,其余 ?M ??r ?比例部分進(jìn)行零填充操作).同時(shí),由于經(jīng)過Transformer模塊計(jì)算之后的特征編碼需要還原到原始的特征圖尺度大小,本文也使用了掩碼標(biāo)記的結(jié)構(gòu)以通過一種可學(xué)習(xí)向量的形式來替代上一步中的被遮蔽部分.與文獻(xiàn)[27]中類似,ResMAE給所有特征編碼加上了位置編碼信息以便還原為原特征圖的維度大小.同時(shí),為了將二維的特征圖轉(zhuǎn)化為Transformer模塊輸入的一維序列格式,本文按照ViT ?[24] 的步驟,將特征圖 ?f ??m ∈ Euclid Math TwoRA@

        B×E× h ′× w ′ ?轉(zhuǎn)化為 ?f ??e ∈ Euclid Math TwoRA@

        B×P×E ?(其中P表示Transformer模塊的特征通道數(shù), P= h ′× w ′× M ??r ?).隨后使用兩個(gè)級聯(lián)的Transformer模塊來提取輸入的特征序列 ?f ??e ?,Transformer模塊的格式按照標(biāo)準(zhǔn)的ViT ?[24] 結(jié)構(gòu)進(jìn)行設(shè)置.如圖2所示,ResMAE在基本塊之后要實(shí)現(xiàn)原始卷積特征圖和Transformer模塊輸出特征編碼的拼接,為此本文使用前面提到的位置編碼信息和掩碼標(biāo)記將Transformer模塊的輸出還原到輸入的特征圖大小,還原后的特征圖為 ?f ???t ′ ∈ Euclid Math TwoRA@

        B×E× h ′× w ′ ?,并且使用最近鄰插值算法使特征圖的維度大小調(diào)整為 ?f ??t ∈ Euclid Math TwoRA@

        B×N×C×h×w ?.最后將卷積輸出與Transformer模塊的輸出進(jìn)行拼接即可得到基本塊的輸出結(jié)果.

        可以通過后續(xù)實(shí)驗(yàn)部分證明,通過將帶有隨機(jī)遮蔽采樣的Transformer模塊嵌入到原始卷積塊之中,不僅可以為卷積結(jié)構(gòu)提取的局部特征添加全局表示能力,而且通過一種隨機(jī)掩蔽的方式減輕Transformer模塊帶來的過擬合現(xiàn)象,增強(qiáng)特征提取網(wǎng)絡(luò)的魯棒性.

        3.2 基于圖注意力網(wǎng)絡(luò)的特征聚合模塊

        考慮到不同MRI切片之間的原始順序,本文從特征層面考慮不同切片特征之間的特征聚合,以消除不同切片之間年齡相關(guān)信息的差異性,獲得年齡相關(guān)性更強(qiáng)的高級語義特征.對于特征聚合模塊,本文使用圖注意力網(wǎng)絡(luò) ?[19] 作為聚合局部切片特征向量的基本塊.具體而言,假設(shè)特征提取網(wǎng)絡(luò)得到的切片特征向量為 ?F ??l ∈ Euclid Math TwoRA@

        B×N×D ?(其中 D 為特征向量的維度大?。?在特征提取網(wǎng)絡(luò)中,每個(gè)切片特征被視為圖中的一個(gè)結(jié)點(diǎn),每個(gè)切片結(jié)點(diǎn) ?V ??i ∈ ?V ??1 , V ??2 ,…, V ??N ??的特征維度為 1×D .考慮到磁共振影像中的每個(gè)相鄰二維圖像切片可能包含更多相似的年齡相關(guān)信息,本文讓相鄰的各圖像節(jié)點(diǎn)之間相互連接,來實(shí)現(xiàn)信息的交互.

        圖注意力網(wǎng)絡(luò)的輸入為相鄰結(jié)點(diǎn)之間的結(jié)點(diǎn)特征和邊的集合.在一系列的圖注意力加權(quán)操作之后,可以將切片特征向量進(jìn)行聚合并進(jìn)行加權(quán)平均為最終的輸出特征 ?F ??o ∈ Euclid Math TwoRA@

        B×D ?.最后,經(jīng)過聚合的局部切片特征輸入到全連接層和Softmax層中加權(quán)得到預(yù)測年齡 A∈ Euclid Math TwoRA@

        B ?.通過使用圖注意力網(wǎng)絡(luò)作為局部切片特征的特征聚合模塊,本文的ResMAE網(wǎng)絡(luò)結(jié)構(gòu)可以更好地在不同切片圖像上集成切片特征,并在局部圖像域和全局圖像域提取年齡相關(guān)性更強(qiáng)的特征.

        3.3 損失函數(shù)設(shè)計(jì)

        對于年齡估計(jì)任務(wù)而言,主要有兩種方法來計(jì)算損失函數(shù):基于分類的方法和基于回歸的方法.為了增強(qiáng)網(wǎng)絡(luò)的預(yù)測能力,Rothe等人 ?[28] 提出了一種將年齡回歸作為一個(gè)深度分類問題,然后使用Softmax層細(xì)化期望值的方法,這樣可以顯著提高年齡預(yù)測網(wǎng)絡(luò)的性能.同時(shí),Pan等人 ?[29] 提出了對于年齡分布進(jìn)行估計(jì)的平均損失函數(shù),主要擬合減小預(yù)測的年齡分布均值與真實(shí)年齡分布均值的差異,在此基礎(chǔ)上提高年齡分布的預(yù)測精度.基于上述兩種方法,本文中使用Softmax損失函數(shù)和基于年齡分布估計(jì)均值的損失函數(shù)來預(yù)測年齡,讓預(yù)測標(biāo)簽更接近于真實(shí)標(biāo)簽值.本文的損失函數(shù)使用細(xì)節(jié)如下.

        首先,這里假設(shè) X 為圖1中最后的全連接層輸出的特征向量, ?S ??i ∈{1,2,…,T} 表示整個(gè)數(shù)據(jù)集的標(biāo)簽?zāi)挲g組.其中特征向量 X 的維度為 B×T (其中 B 為訓(xùn)練批次大小、 T 為特征向量的向量維度).將特征向量 X 輸入到Softmax層中即可得到每個(gè)年齡標(biāo)簽 ?S ??i ?的概率分布 P (其中 P 具有與特征向量 X 相同的維度大小).因此,這里可以使用如下式得到概率分布的表示:

        P ???b,i = ?e ????X ???b,i ??∑ ??T ??t=1 ?e ????X ???b,t ????(1)

        其中, ?P ??b,i ?表示樣本 b 在所有年齡組 ?S ??i ?上的預(yù)測概率.因此,每個(gè)樣本在網(wǎng)絡(luò)輸出的最終預(yù)測年齡可以用以上 ?P ??b,i ?和 ?S ??i ?的加權(quán)平均和來表示.最終的預(yù)測年齡 ?A ??b ?可以由如下公式計(jì)算得到:

        A ???b =∑ ?T ??i=1 ??P ???b,i * S ???i ??(2)

        均值損失致力于減少網(wǎng)絡(luò)估計(jì)的年齡分布均值與真實(shí)的年齡分布標(biāo)簽之間的誤差.同時(shí),均值損失和Softmax損失函數(shù)被嵌入到神經(jīng)網(wǎng)絡(luò)的預(yù)測部分,以平衡年齡預(yù)測的最終損失函數(shù).因此,本文所用的整體損失函數(shù)如下式.

        L=λ L ???mean ?+ L ???softmax ???(3)

        其中, λ 是用來平衡均值損失以及Softmax損失的超參數(shù).均值損失按照前文的敘述可以由式(4)計(jì)算得到:

        L ??mean = 1 2B ∑ ?B ??b=1 ????A ???b - Y ???b ????2 =

        1 2B ∑ ?B ??b=1 ???∑ ?T ??i=1 ??P ???b,i * S ???i - Y ???b ????2 ??(4)

        其中, ?Y ??b ?為每個(gè)樣本的真實(shí)年齡.同時(shí)Softmax損失可以由式(5)計(jì)算得到:

        L ??softmax = 1 B ∑ ?B ??b=1 ?- log ?P ???b, Y ???b ???(5)

        所以,綜合上述的公式~式(5)可以得到最終的損失計(jì)算函數(shù):

        L=λ L ??mean + L ??softmax =

        λ 1 2B ∑ ?B ??b=1 ???∑ ?T ??i=1 ??P ???b,i * S ???i - Y ???b ????2 +

        1 B ∑ ?B ??b=1 ?- log ?P ???b, Y ???b ???(6)

        4 實(shí)驗(yàn)與分析

        4.1 膝關(guān)節(jié)MRI標(biāo)注數(shù)據(jù)集

        由于膝關(guān)節(jié)MRI年齡預(yù)測任務(wù)沒有公開數(shù)據(jù)集,本文實(shí)驗(yàn)采用的數(shù)據(jù)為四川大學(xué)華西基礎(chǔ)醫(yī)學(xué)與法學(xué)院提供的膝關(guān)節(jié)MRI年齡預(yù)測數(shù)據(jù)集.數(shù)據(jù)集由259例年齡位于12.0~25.9歲之間的中國漢族男性受試者膝關(guān)節(jié)MRI數(shù)據(jù)組成,其中每個(gè)3D MRI樣本可以映射為15~22張二維圖像切片.每個(gè)MRI樣本與該樣本的真實(shí)年齡標(biāo)簽一一對應(yīng),作為本論文網(wǎng)絡(luò)的主要數(shù)據(jù)集和標(biāo)簽.膝關(guān)節(jié)磁共振圖像如圖3所示. 本文在實(shí)驗(yàn)中將數(shù)據(jù)集的259例膝關(guān)節(jié)圖像樣本按照4∶1的比例進(jìn)行劃分,其中訓(xùn)練集樣本數(shù)量為205例,測試集樣本數(shù)量為44例,每個(gè)樣本經(jīng)處理后包含12張二維圖像切片.

        由于磁共振掃描設(shè)備中的磁場強(qiáng)度變化,磁共振圖像通常顯示出不均勻的結(jié)果,即在磁共振圖像中,由于磁場強(qiáng)度的差異,圖像的一部分在視覺上可能顯得更亮或者更暗,這可能會(huì)降低后續(xù)圖像處理算法的性能.因此,本文按照先前工作的思路 ?[17,18] ,首先對MRI數(shù)據(jù)進(jìn)行N4ITK偏置場矯正 ?[30] 處理,以消除磁共振設(shè)備本身對于實(shí)驗(yàn)結(jié)果的影響.其次,由于原始的3D MRI數(shù)據(jù)分辨率為512×512×15~512×512×22,不同樣本的二維切片數(shù)量不盡相同,為了方便后期的處理以及用作神經(jīng)網(wǎng)絡(luò)的輸入,本文在華西醫(yī)院專家的幫助下對于不同切片數(shù)量的膝關(guān)節(jié)圖像進(jìn)行選取并且統(tǒng)一插值縮放到128×128×12的尺度大小.并且,由于前人的工作 ?[17,18] 已經(jīng)證明了在膝關(guān)節(jié)磁共振影像中首先通過分割任務(wù)提取出骨骼部分區(qū)域來進(jìn)行年齡預(yù)測的有效性,所以本文按照U-Net ?[21] 的實(shí)驗(yàn)設(shè)置,同樣地對原始數(shù)據(jù)中的骨骼部分進(jìn)行分割提取.本實(shí)驗(yàn)中的數(shù)據(jù)采集和處理步驟如圖4所示.

        4.2 實(shí)驗(yàn)設(shè)置

        本文在Windows 10系統(tǒng)中使用Pytorch框架進(jìn)行實(shí)驗(yàn),其中GPU為Nvidia GeForce RTX 2080 8 GB GPU,內(nèi)存為32 GB.由于顯存容量的限制,數(shù)據(jù)輸入的批次大小設(shè)置為2.同時(shí),本文對于所有的Dropout層的概率設(shè)置為0.2,默認(rèn)情況下本文使用Adam優(yōu)化器來訓(xùn)練網(wǎng)絡(luò),Adam優(yōu)化器的權(quán)重衰減設(shè)置為0.0005,初始學(xué)習(xí)率為 0.000 05 ,總訓(xùn)練周期為80次,并且每30個(gè)訓(xùn)練周期將學(xué)習(xí)率下降0.3倍.在后續(xù)實(shí)驗(yàn)中,平均絕對誤差(Mean Absolute Error,MAE)、標(biāo)準(zhǔn)差(Standard Deviation,SD)和95%置信區(qū)間(Confidence Interval,CI)用于評估本文提出的方法和經(jīng)典模型.另外,本文在數(shù)據(jù)集上使用五折交叉驗(yàn)證來報(bào)告不同模型在數(shù)據(jù)集上的預(yù)測性能.

        4.3 實(shí)驗(yàn)結(jié)果分析

        本文提出的模型利用Transformer模塊在提取全局依賴性特征和卷積神經(jīng)網(wǎng)絡(luò)在提取局部細(xì)節(jié)特征的優(yōu)勢,結(jié)合Masked-Transformer結(jié)構(gòu)來緩解Transformer模塊提取全局特征時(shí)的過擬合現(xiàn)象.為了驗(yàn)證本文使用的網(wǎng)絡(luò)模型的有效性,本文將ResMAE模型與最近在膝關(guān)節(jié)年齡預(yù)測相關(guān)論文的方法、計(jì)算機(jī)視覺領(lǐng)域中廣泛使用的先進(jìn)深度卷積網(wǎng)絡(luò)和基于Transformer模塊的網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行對比.

        表1列舉了在本文數(shù)據(jù)集上使用不同模型的預(yù)測性能,以及按年齡區(qū)間段進(jìn)行劃分的預(yù)測結(jié)果的平均絕對誤差(除了AgeNet2D ?[18] 按照原論文設(shè)置為兩階段的實(shí)現(xiàn)方式以外,其余模型在提取到每個(gè)局部切片的特征之后都使用了本文提出的特征聚合模塊進(jìn)行特征層面的聚合).從表1結(jié)果可以看出,在融合了本文所提出的特征聚合模塊之后,具有相對較少訓(xùn)練參數(shù)的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)可以取得較好的性能.即對于卷積神經(jīng)網(wǎng)絡(luò)SKNet ?[31] 、ResNeXt ?[32] 和基于卷積和Transformer結(jié)合的方法CoAtNet ?[25] 和Conformer ?[26] ,這些網(wǎng)絡(luò)的性能低于GoogLeNet ?[20] 、ResNet34 ?[22] 和ResNet50 ?[22] 等.同時(shí),本文提出的端到端網(wǎng)絡(luò)結(jié)構(gòu)比具有兩級結(jié)構(gòu)的AgeNet2D ?[18] 具有更好的預(yù)測結(jié)果,這在很大程度上取決于ResMAE中的Masked-Transformer結(jié)構(gòu)以及提取局部切片特征之后所采用的特征聚合模塊.由于本數(shù)據(jù)集樣本數(shù)量相對較少,全Transformer結(jié)構(gòu)訓(xùn)練難以獲得足夠的訓(xùn)練樣本,所以對于類似ViT ?[24] 的全Transformer結(jié)構(gòu)并沒有比全卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)獲得更好的結(jié)果.此外,由于ResNet ??[22] 的跳躍連接結(jié)構(gòu)在特征通道加權(quán)中發(fā)揮了出色的作用,其在該任務(wù)中取得了較好的實(shí)驗(yàn)結(jié)果.本文提出的ResMAE結(jié)構(gòu)使用ResNet34和Masked-Transformer模塊作為特征提取的基本塊,以一種全局和局部相結(jié)合的方式進(jìn)一步提高特征的全面性,并且在表1的所有網(wǎng)絡(luò)結(jié)構(gòu)中取得了最好的性能.

        如前文所述,與全卷積網(wǎng)絡(luò)結(jié)構(gòu)和全視覺Transformer結(jié)構(gòu)相比,本文為了提升整體網(wǎng)絡(luò)結(jié)構(gòu)的特征提取能力,融合視覺Transformer在提取全局特征方面的優(yōu)勢以及卷積網(wǎng)絡(luò)結(jié)構(gòu)適用于局部特征細(xì)節(jié)的特點(diǎn),在ResNet基本塊中插入了Masked-Transformer模塊.通過實(shí)驗(yàn)結(jié)果可以看出,卷積和Transformer結(jié)構(gòu)結(jié)合的混合式結(jié)構(gòu)明顯優(yōu)于單體網(wǎng)絡(luò)結(jié)構(gòu),能夠?qū)崿F(xiàn)更好的年齡預(yù)測結(jié)果.并且本文中通過使用Masked-Transformer結(jié)構(gòu),能夠進(jìn)一步平衡Transformer和卷積網(wǎng)絡(luò)在特征提取過程中的作用,有效避免過擬合現(xiàn)象,實(shí)現(xiàn)在膝關(guān)節(jié)年齡預(yù)測任務(wù)中的最佳實(shí)驗(yàn)結(jié)果.

        此外,本文使用圖5顯示了表1中最佳網(wǎng)絡(luò)模型ResMAE在五折交叉實(shí)驗(yàn)中的預(yù)測膝蓋年齡與實(shí)際年齡的散點(diǎn)圖.可以看出,在12~16歲之間,由于樣本的膝關(guān)節(jié)骨骼生長板即骨骺區(qū)域并未完全融合,年齡特征相對來說比較明顯,因此網(wǎng)絡(luò)能夠較為準(zhǔn)確地預(yù)測出測試樣本的年齡.以往的醫(yī)學(xué)研究表明,男性的膝關(guān)節(jié)骨骺生長板區(qū)域完全愈合發(fā)生在16~19歲之間,并隨個(gè)體的不同存在差異,因此在16歲以上的樣本中通過膝關(guān)節(jié)MRI來判斷個(gè)體年齡具有較大誤差.同時(shí)由于膝關(guān)節(jié)MRI數(shù)據(jù)集中的部分受試樣本中可能存在發(fā)育異?,F(xiàn)象,即存在較大的個(gè)體差異可能性,在預(yù)測結(jié)果中16~22歲年齡區(qū)間內(nèi)的少部分樣本可能存在預(yù)測值偏大,22歲以上年齡區(qū)間內(nèi)的少部分樣本存在預(yù)測值偏小的現(xiàn)象.

        同時(shí),本文為了驗(yàn)證ResMAE網(wǎng)絡(luò)模型在使用Masked-Transformer模塊和特征聚合模塊上的效果,以及在Masked-Transformer模塊中使用不同大小的遮蔽率 ?M ??r ?對于模型預(yù)測效果的影響,進(jìn)行了以下消融實(shí)驗(yàn).

        首先,如前文所述,本文采用Transformer模塊來增強(qiáng)卷積神經(jīng)網(wǎng)絡(luò)的特征提取,以此來獲得互補(bǔ)性的年齡相關(guān)性特征,并且應(yīng)用Masked-Transformer結(jié)構(gòu)的隨機(jī)遮蔽策略減輕Transformer模塊的過擬合現(xiàn)象.由于Masked-Transformer模塊中不同遮蔽率 ?M ??r ?大小會(huì)對模型的性能以及預(yù)測效果產(chǎn)生影響,本文在不同遮蔽率大小設(shè)置下進(jìn)行實(shí)驗(yàn).如表2所示,在ResMAE中采用不同大小的遮蔽率會(huì)對結(jié)果產(chǎn)生不同的影響,在遮蔽率過小的時(shí)候由于Transformer模塊對于全局圖像的過擬合可能會(huì)導(dǎo)致網(wǎng)絡(luò)的整體性能下降,同時(shí)當(dāng)遮蔽率過大的時(shí)候會(huì)減弱Transformer模塊對全局依賴的感知能力.當(dāng)遮蔽率 ?M ??r ?設(shè)置為0.2時(shí),ResMAE取得最佳的實(shí)驗(yàn)結(jié)果,因此在本文所提及的剩余實(shí)驗(yàn)中也將 ?M ??r ?設(shè)置為0.2.

        其次,在前一章中提到,特征提取模塊生成所有MRI切片的12個(gè)局部特征向量,為了更好地聚合局部切片特征向量,本文使用兩層圖注意力模塊在特征層面上對于局部特征向量進(jìn)行聚合.為了進(jìn)一步說明特征聚合模塊的作用以及Transformer模塊對于特征提取的影響,本文對于網(wǎng)絡(luò)是否使用特征聚合模塊以及是否用到Masked-Transformer模塊進(jìn)行了實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表3所示.無論網(wǎng)絡(luò)是否使用到了Masked-Transformer模塊,與原始的網(wǎng)絡(luò)相比,使用了特征聚合模塊的網(wǎng)絡(luò)結(jié)構(gòu)可以顯著提升預(yù)測效果,預(yù)測精度提升大約為0.5年左右.在使用Masked-Transformer增強(qiáng)卷積結(jié)構(gòu)時(shí),由于Transformer模塊在提取全局特征的優(yōu)勢以及隨機(jī)遮蔽策略能夠緩解過擬合現(xiàn)象的特點(diǎn),使用Masked-Transformer策略對于整體網(wǎng)絡(luò)性能提升也能起到較大作用.同時(shí),本文還評估了特征聚合模塊對于網(wǎng)絡(luò)收斂速度的貢獻(xiàn),網(wǎng)絡(luò)模型運(yùn)行的訓(xùn)練曲線如圖6所示,可以觀察到,在網(wǎng)絡(luò)中使用特征聚合模塊可以顯著減少網(wǎng)絡(luò)訓(xùn)練過程中的過擬合現(xiàn)象來加速網(wǎng)絡(luò)的擬合速度,并在年齡預(yù)測任務(wù)中產(chǎn)生更好的性能.通過以上實(shí)驗(yàn)證明,本文通過使用Masked-Transformer模塊實(shí)現(xiàn)更全面的特征提取過程,并應(yīng)用特征聚合模塊將不同切片特征在特征層面實(shí)現(xiàn)融合,極大程度上提高了網(wǎng)絡(luò)的年齡預(yù)測表征能力并減輕過擬合現(xiàn)象.

        最后,為了比較臨床醫(yī)生和已訓(xùn)練網(wǎng)絡(luò)在本文數(shù)據(jù)集上的預(yù)測表現(xiàn),本文在表4中展示了專家放射科醫(yī)師、醫(yī)師助理以及本文的ResMAE網(wǎng)絡(luò)的預(yù)測結(jié)果.從表4中可以看出,膝關(guān)節(jié)年齡估計(jì)需要經(jīng)過長時(shí)間的觀察統(tǒng)計(jì)才能手動(dòng)做出準(zhǔn)確的決定,并且由于缺乏專業(yè)培訓(xùn)和相關(guān)經(jīng)驗(yàn),醫(yī)師助理很難取得良好的預(yù)測結(jié)果.甚至即使對于該領(lǐng)域的專家而言,在時(shí)間和準(zhǔn)確性方面也無法超過本文的ResMAE網(wǎng)絡(luò).可以看出,本文的工作可以大大減少膝關(guān)節(jié)MRI年齡預(yù)測任務(wù)中的時(shí)間消耗和平均絕對誤差,這可以在很大程度上幫助臨床醫(yī)生和放射科醫(yī)生精確預(yù)測年齡.因此,ResMAE可用于幫助專業(yè)臨床醫(yī)生進(jìn)行膝關(guān)節(jié)年齡預(yù)測的任務(wù),同時(shí)即使是非專業(yè)人員,在本文已訓(xùn)練模型的幫助下,其預(yù)測個(gè)體年齡的能力也能得到顯著提高.

        5 結(jié) 論

        年齡估計(jì)被認(rèn)為是臨床醫(yī)學(xué)中的一個(gè)重要課題.本文提出了一種新的端到端網(wǎng)絡(luò)結(jié)構(gòu)ResMAE,該網(wǎng)絡(luò)使用Masked-Transformer模塊來增強(qiáng)卷積特征提取過程,并使用了一個(gè)由圖注意力網(wǎng)絡(luò)組成的特征聚合模塊來集成不同局部MRI切片圖像的特征以用于膝關(guān)節(jié)MRI年齡預(yù)測任務(wù).具體而言,本文在每個(gè)基本塊的卷積塊之后插入Masked-Transformer模塊,以提取所有局部切片特征圖的全局特征,這在實(shí)驗(yàn)中可以證明有助于更準(zhǔn)確的年齡預(yù)測結(jié)果.此外,本文引入了一種基于圖注意力網(wǎng)絡(luò)的特征聚合模塊,以將不同MRI切片的特征向量聚合為年齡相關(guān)性最強(qiáng)的特征,該結(jié)構(gòu)在特征提取階段發(fā)揮了巨大的作用.盡管本文中的總數(shù)據(jù)集較小,但ResMAE網(wǎng)絡(luò)結(jié)構(gòu)在此基礎(chǔ)上也取得了很好的結(jié)果,這也展現(xiàn)了其應(yīng)用在更大的數(shù)據(jù)集上能產(chǎn)生更好效果的前景.此外,本文方法在很大程度上提高了膝關(guān)節(jié)MRI年齡估計(jì)任務(wù)中的預(yù)測精度,并縮短了推理時(shí)間,這對臨床醫(yī)生或放射科醫(yī)生的工作有很大幫助.最后,希望本文提出的在卷積神經(jīng)網(wǎng)絡(luò)中插入Masked-Transformer模塊以增強(qiáng)特征提取的想法和在特征層面使用特征聚合模塊的策略能夠?qū)ο嗨漆t(yī)學(xué)圖像回歸或分類任務(wù)起到幫助作用.

        參考文獻(xiàn):

        [1] ??Creo ?A L, Schwenk W F. Bone age: a handy tool for pediatric providers [J]. Pediatrics, 2017, 140.

        [2] ?Schmeling A, Dettmeyer R, Rudolf E, ?et al . Forensic age estimation: methods, certainty, and the law [J]. ?Dtsch Arztebl Int, 2016, 113: 44.

        [3] ?Martin D D, Wit J M, Hochberg Z, ?et al . The use of bone age in clinical practice-part1 [J]. Horm Res Paediatr, 2011, 76: 1.

        [4] ?Martin D D, Wit J M, Hochberg Z, ?et al . The use of bone age in clinical practice-part2 [J]. Horm Res Paediatr, 2011, 76: 10.

        [5] ?Garn S M. Radiographic atlas of skeletal development of the hand and wrist [J]. Am J Hum Genet, 1959, 11: 282.

        [6] ?Poznanski ?A K. Assessment of skeletal maturity and prediction of adult height (TW2 method)[J]. Am J Hum Genet, 1977, 131: 1041.

        [7] ?Craig J G, Cody D D, Van Holsbeeck M. The distal femoral and proximal tibial growth plates: MR imaging, three-dimensional modeling and estimation of area and volume[J]. Skeletal radiology, 2004, 33: 337.

        [8] ?Dedouit F, Auriol J, Rousseau H, ?et al . Age assessment by magnetic resonance imaging of the knee: a preliminary study[J]. Forensic Sci Int, 2012, 217: 232.

        [9] ?Cameriere R, Cingolani M, Giuliodori A, ?et al . Radiographic analysis of epiphyseal fusion at knee joint to assess likelihood of having attained 18 years of age [J]. Int J Legal Med, 2012, 126: 889.

        [10] ?Faisant M, Rerolle C, Faber C, ?et al . Is the persistence of an epiphyseal scar of the knee a reliable marker of biological age?[J]. Int J Legal Med, 2015, 129: 603.

        [11] OConnor J E, Coyle J, Bogue C, ?et al . Age prediction formulae from radiographic assessment of skeletal maturation at the knee in an Irish population [J]. Forensic Sci Int, 2014, 234: 188.

        [12] Saint-Martin P, Rérolle C, Pucheux J, ?et al . Contribution of distal femur MRI to the determination of the 18-year limit in forensic age estimation [J]. Int J Legal Med, 2015, 129: 619.

        [13] Krmer J A, Schmidt S, Jürgens K U, ?et al . Forensic age estimation in living individuals using 3.0 T MRI of the distal femur[J]. Int J Legal Med, 2014, 128: 509.

        [14] Fan F, Zhang K, Peng Z, ?et al . Forensic age estimation of living persons from the knee: comparison of MRI with radiographs [J]. Forensic Sci Int, 2016, 268: 145.

        [15] O'Connor J E, Bogue C, Spence L D, ?et al . A method to establish the relationship between chronological age and stage of union from radiographic assessment of epiphyseal fusion at the knee: an Irish population study [J]. J ANAT, 2008, 212: 198.

        [16] Dallora A L, Berglund J S, Brogren M, ?et al . Age assessment of youth and young adults using magnetic resonance imaging of the knee: a deep learning approach [J]. JMI, 2019, 7: 16291.

        [17] Prve P L, Jopp-van Well E, Stanczus B, ?et al . Automated segmentation of the knee for age assessment in 3D MR images using convolutional neural networks [J]. Int J Legal Med, 2019, 133: 1191.

        [18] Mauer M A, Well E J, Herrmann J, ?et al . Automated age estimation of young individuals based on 3D knee MRI using deep learning [J]. Int J Legal Med, 2021, 135: 649.

        [19] Veli kovi ?P, Cucurull G, Casanova A, ?et al . Graph attention networks [EB/OL]. (2018-02-04) [2022-12-15]. https://arxiv.org/pdf/1710.10903.pdf.

        [20] Szegedy C, Liu W, Jia Y, ?et al . Going deeper with convolutions [C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Boston: IEEE, 2015: 1.

        [21] Ronneberger O, Fischer P, Brox T. U-net: Convolutional networks for biomedical image segmentation[C]//International Conference on Medical Image Computing and Computer-assisted Intervention. Munich: Springer, 2015: 234.

        [22] He K, Zhang X, Ren S, ?et al . Deep residual learning for image recognition[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas: IEEE, 2016: 770.

        [23] Vaswani A, Shazeer N, Parmar N, ?et al . Attention is all you need [C]//Advances in Neural Information Processing Systems. Long Beach: MIT Press, 2017: 5998.

        [24] Dosovitskiy A, Beyer L, Kolesnikov A, ?et al . An image is worth 16×16 words: Transformers for image recognition at scale [EB/OL].[2022-12-15]. https://arxiv.org/pdf/2010.11929.pdf.

        [25] Dai Z, Liu H, Le Q V, ?et al . Coatnet: Marrying convolution and attention for all data sizes [C]//Advances in Neural Information Processing Systems. Virtual: MIT Press, 2021: 3965.

        [26] Peng Z, Huang W, Gu S, ?et al . Conformer: Local features coupling global representations for visual recognition [C]//Proceedings of the IEEE/CVF International Conference on Computer Vision. Montreal: IEEE, 2021: 357.

        [27] He K, Chen X, Xie S, ?et al . Masked autoencoders are scalable vision learners [C]//Proceedings of the IEEE/CVF ?Conference on Computer Vision and Pattern Recognition. New Orleans: IEEE, 2022.

        [28] Rothe R, Timofte R, Van Gool L. Dex: deep expectation of apparent age from a single image [C]//Proceedings of the IEEE International Conference on Computer Vision Workshops. Santiago: IEEE, 2015: 252.

        [29] Pan H, Han H, Shan S, ?et al . Mean-variance loss for deep age estimation from a face [C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Salt Lake City: IEEE, 2018: 5285.

        [30] Tustison ?N J, Avants B B, Cook P A, ?et al . N4ITK: improved N3 bias correction [J]. IEEE T Med Imaging, 2010, 29: 1310.

        [31] Li X, Wang W, Hu X, ?et al . Selective kernel networks [C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Long Beach: IEEE, 2019: 510.

        [32] Xie S, Girshick R, Dollár P, ?et al . Aggregated residual transformations for deep neural networks[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Honolulu: IEEE, 2017: 5987.

        猜你喜歡
        深度學(xué)習(xí)
        從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
        面向大數(shù)據(jù)遠(yuǎn)程開放實(shí)驗(yàn)平臺(tái)構(gòu)建研究
        基于自動(dòng)智能分類器的圖書館亂架圖書檢測
        搭建深度學(xué)習(xí)的三級階梯
        有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
        電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識別研究
        利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
        考試周刊(2016年94期)2016-12-12 12:15:04
        MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
        大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        av中文字幕性女高清在线| 97人妻熟女成人免费视频| 美女在线国产| 国产区高清在线一区二区三区| av影片手机在线观看免费网址 | 久久狠狠爱亚洲综合影院| 九月婷婷人人澡人人添人人爽| 国产午夜毛片v一区二区三区| 男女视频网站在线观看| 99国产精品久久久久久久成人热 | 一区二区三区日韩亚洲中文视频| 在线观看国产精品自拍| 日本黑人乱偷人妻在线播放| 国产福利一区二区三区在线视频| 丰满人妻被黑人猛烈进入| 精品乱子伦一区二区三区| 亚洲无码性爱视频在线观看| 精品国产又大又黄又粗av | 国产亚洲av手机在线观看| 国产一区二区三区免费精品视频| 免费a级毛片无码免费视频120软件| 午夜无码大尺度福利视频| 秀人网嫩模李梓熙大尺度| 亚洲不卡高清av网站| 亚洲中字幕日产av片在线| 国产产区一二三产区区别在线| 亚洲人成无码网www| 亚洲精品无人区一区二区三区| 国产国拍精品亚洲av在线观看| 欧美私人情侣网站| 亚洲av无码一区二区三区系列| 久久久久综合一本久道| 国产性色av一区二区| 公和我做好爽添厨房中文字幕| 亚洲成a人片在线| 日本不卡在线一区二区三区视频| 亚洲永久免费中文字幕| 麻豆资源在线观看视频| 国产人妻人伦精品1国产盗摄| 国产亚洲美女精品久久| 亚洲素人av在线观看|