朱勇,謝勤嵐
(中南民族大學(xué) 生物醫(yī)學(xué)工程學(xué)院,武漢 430074)
2019年12月,一種新型冠狀病毒被世界衛(wèi)生組織(WHO)認(rèn)定為新冠病毒(COVID-19),被認(rèn)定為急性呼吸道疾病爆發(fā)的原因[1].截止2020年11月30 日,疫情爆發(fā)約一年時(shí)間內(nèi),全球已有186 個(gè)國(guó)家和地區(qū)報(bào)告了62973267 例新冠肺炎病例,造成1463105人死亡.目前,COVID-19 具有與嚴(yán)重急性呼吸綜合征(SARS)和中東呼吸綜合征(MERS)類(lèi)似的病理特征.因此,電子計(jì)算機(jī)斷層掃描(Computed Tomography,CT)被認(rèn)為是COVID-19 早期篩查和診斷的一種低成本、準(zhǔn)確、高效的方法診斷工具.它可以評(píng)估肺部感染的嚴(yán)重程度,以及患者疾病的病變情況,這有助于做出治療決定[1].因此,開(kāi)發(fā)了一種基于深度學(xué)習(xí)的COVID-19 感染區(qū)域檢測(cè)與分割網(wǎng)絡(luò),是可行的和有意義的.
針對(duì)COVID-19 圖像分割問(wèn)題,研究人員提出了很多分割方法.王生生[2]等人提出一種基于聯(lián)邦學(xué)習(xí)和區(qū)塊鏈的COVID-19 胸部CT 圖像分割方法,該方法利用聯(lián)邦學(xué)習(xí)和區(qū)塊鏈結(jié)合的分步式訓(xùn)練方式來(lái)解決患者樣本少和感染分布廣等問(wèn)題,采用輕量級(jí)的2D U-Net 降低運(yùn)算量,得到Dice指標(biāo)為0.632.GOZE[3]等人提出了一種利用二維切片分析和三維體積分析實(shí)現(xiàn)COVID-19 分割檢測(cè)的系統(tǒng).JIN[4]等人提出了一種COVID-19 快速診斷的AI 系統(tǒng),首先利用分割模型獲取肺部病變區(qū)域,然后利用分類(lèi)模型確定每個(gè)病變區(qū)域是否具有COVID-19 感染特征.ZHOU[5]等人提出了一種基于注意機(jī)制的U-Net 分割網(wǎng)絡(luò).將注意力機(jī)制納入U(xiǎn)Net 架構(gòu),以捕獲豐富的上下文關(guān)系,并引入了tversky 損失來(lái)處理較小的分割.在只有100 張CT切片的小數(shù)據(jù)集上進(jìn)行的實(shí)驗(yàn),得到的Dice 指標(biāo)為0.691.MULLER[6]等人偏向于利用廣泛的數(shù)據(jù)增強(qiáng)和多種預(yù)處理方式對(duì)數(shù)據(jù)處理,并采用標(biāo)準(zhǔn)的3D U-Net 模型對(duì)COVID-19 進(jìn)行分割.從而避免了小數(shù)據(jù)集在復(fù)雜模型訓(xùn)練時(shí)產(chǎn)生的過(guò)擬合風(fēng)險(xiǎn),最終Dice 指標(biāo)達(dá)到0.761.基于此,提出了一種擠壓與激勵(lì)模塊和注意力機(jī)制結(jié)合的殘差3D U-Net 網(wǎng)絡(luò)模型,并在U-Net 過(guò)渡層引入ASPP 模塊,以實(shí)現(xiàn)對(duì)圖像多尺度特征提取.減少上采樣和下采樣層數(shù),降低模型計(jì)算量.實(shí)驗(yàn)證明,提出的方法較優(yōu)于目前的分割方法.
提出的用于COVID-19 CT 圖像分割的3D SE-ResNet 網(wǎng)絡(luò)及工作流程如圖1 所示,包括四個(gè)主要階段:訓(xùn)練數(shù)據(jù)準(zhǔn)備、預(yù)處理和數(shù)據(jù)增強(qiáng)、網(wǎng)絡(luò)訓(xùn)練、網(wǎng)絡(luò)測(cè)試.具體的,首先將200 張圖像經(jīng)過(guò)數(shù)據(jù)預(yù)處理和大量的數(shù)據(jù)增強(qiáng)(如彈性形變,高斯噪聲等)獲得一個(gè)可供訓(xùn)練的變異數(shù)據(jù)庫(kù).基于實(shí)驗(yàn)的硬件環(huán)境,設(shè)置批處理大小為2,圖片大小為160 ×160 × 80.接著傳入3D SE-ResNet(如圖2 所示)網(wǎng)絡(luò)模型中,獲得分割處理后的圖像.最后,為了提高預(yù)測(cè)性能,將真實(shí)值圖像裁剪成為8個(gè)小體塊,每個(gè)小塊大小為80 × 80 × 40.同樣,分割得到的圖像也經(jīng)過(guò)相同的處理,計(jì)算對(duì)應(yīng)體塊的重疊率.通過(guò)組合再將圖像還原至原先尺寸,計(jì)算8 個(gè)體塊重疊率平均值,得到最終的DSC指標(biāo)結(jié)果.
圖1 所提出的深度學(xué)習(xí)算法整體網(wǎng)絡(luò)框架,從圖像傳入到最后的數(shù)值分析Fig.1 The whole network framework of the proposed deep learning algorithm is introduced from the image to the final numerical
圖2 融合模塊的3D SE-ResNetFig.2 3D SE-ResNet of the fusion module
實(shí)驗(yàn)數(shù)據(jù)集采用了MA 等人的公共數(shù)據(jù)集,其中包括20 個(gè)COVID-19 胸部CT 體積掃描圖和1800多個(gè)帶注釋的切片[7-8].這20 張公開(kāi)的COVID-19 CT掃描圖可以通過(guò)CC BY-NC-SA 許可證免費(fèi)下載.左肺、右肺、感染區(qū)域由初級(jí)審批員勾畫(huà),再由兩名5年經(jīng)驗(yàn)的放射科醫(yī)師提煉,最后由一位10年以上胸片經(jīng)驗(yàn)的資深放射科醫(yī)師測(cè)試.一次CT 掃描250 個(gè)切片,需要400±45 min 才能勾畫(huà)出輪廓[7].這些CT 掃描圖分別為10 張來(lái)自Coronacases Initiative(CI)數(shù)據(jù)集分辨率為512 × 512 和10 張來(lái)自Radiopaedia(Ra)數(shù)據(jù)集分辨率為630 × 630 組成,切片數(shù)的平均值約為176(中位數(shù)為200).CT 圖像分為四類(lèi):背景、左肺、右肺和COVID-19 感染區(qū)域.考慮到數(shù)據(jù)集的大小,為了提高神經(jīng)網(wǎng)絡(luò)的測(cè)試精度和通用性,在訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí)需要進(jìn)行數(shù)據(jù)擴(kuò)充.
基于設(shè)計(jì)的網(wǎng)絡(luò)模型,放棄了在傳入神經(jīng)網(wǎng)絡(luò)之前使用參數(shù)變換來(lái)實(shí)現(xiàn)數(shù)據(jù)擴(kuò)充.為了不改變?cè)瓟?shù)據(jù)集的標(biāo)注和勾畫(huà)標(biāo)準(zhǔn),通過(guò)將原本數(shù)據(jù)集復(fù)制9次,產(chǎn)生一個(gè)包含100張CI和100張Ra共200幅的CT體積掃描圖的數(shù)據(jù)集.復(fù)制擴(kuò)充是一個(gè)增加數(shù)據(jù)量最直觀的方式.隨著復(fù)制規(guī)模的增加,數(shù)據(jù)集中相同的圖片也隨之增加.為了解決這個(gè)問(wèn)題,在數(shù)據(jù)傳入模型訓(xùn)練之前,通過(guò)大量的概率性增強(qiáng)方式來(lái)增加相同圖片之間的差異.例如,在數(shù)據(jù)不復(fù)制擴(kuò)充時(shí),采用15%的增強(qiáng)比重就可以產(chǎn)生一個(gè)變體數(shù)據(jù)庫(kù).隨著復(fù)制規(guī)模的增加,當(dāng)單張圖片復(fù)制4次產(chǎn)生100張圖像的數(shù)據(jù)集時(shí),采用20%的增強(qiáng)比重;復(fù)制9次時(shí),采用25%的增強(qiáng)比重.在不斷增加圖片的復(fù)制規(guī)模時(shí),相應(yīng)的增強(qiáng)比重也要增加,以加大相同圖片的差異.在實(shí)驗(yàn)中,不通過(guò)復(fù)制擴(kuò)充時(shí),測(cè)試曲線上下波動(dòng)幅度較大.隨著復(fù)制規(guī)模的增加,波動(dòng)幅度隨之減小.當(dāng)復(fù)制程度達(dá)到9次時(shí),測(cè)試曲線趨于穩(wěn)定.從而證明,擴(kuò)充數(shù)據(jù)集方式有效地避免了過(guò)擬合風(fēng)險(xiǎn).
基于COVID-19 分割的難度,常規(guī)的3D U-Net已經(jīng)不滿足檢測(cè)所需,需要添加新的模塊以增強(qiáng)網(wǎng)絡(luò)模型數(shù)據(jù)擬合.根據(jù)U-Net 網(wǎng)絡(luò)在分割領(lǐng)域的天然優(yōu)勢(shì),在3D U-Net 的基礎(chǔ)上搭建網(wǎng)絡(luò)模型3D SE-ResNet,如圖2 所示.在大量實(shí)驗(yàn)中,由于對(duì)圖像特征提取不充足導(dǎo)致模型欠擬合的現(xiàn)象時(shí)有發(fā)生.因此,通過(guò)添加擠壓與激勵(lì)模塊(SE)增強(qiáng)模型對(duì)圖像信息特征提取的敏感程度非常有效[9].將SE 模塊嵌入殘差模塊中,以優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu)(如圖4).在U-Net 的中間層和上采樣的瓶頸處,添加ASPP 模塊.采用ASPP 模塊的主要目的是希望模型能夠更好地獲得圖像的多尺度信息,使得COVID-19 3D CT圖像的空間特征信息能夠被有效提取.網(wǎng)絡(luò)模型還引用最近幾年比較流行的注意力機(jī)制模塊(如圖6).由于模塊的添加,網(wǎng)絡(luò)變深,不僅犧牲了大量的訓(xùn)練時(shí)間,同時(shí)隨著特征數(shù)的增加,使得計(jì)算機(jī)內(nèi)存單元溢出.通過(guò)對(duì)3D SE-ResNet 的參數(shù)進(jìn)行了調(diào)整,相對(duì)于標(biāo)準(zhǔn)的3D U-Net 網(wǎng)絡(luò),減少了下采樣和上采樣層數(shù),并將初始通道數(shù)設(shè)為16,以降低模型參數(shù)量和計(jì)算量.通過(guò)實(shí)驗(yàn)證明,所提出的網(wǎng)絡(luò)模型對(duì)圖像分割展現(xiàn)出良好的性能.
殘差塊與普通卷積塊連接,構(gòu)成U-Net 網(wǎng)絡(luò)的基本單元[10].普通卷積塊由卷積層,ReLU 激活函數(shù)和批處理歸一化層(BN)組成.殘差塊(如圖3)分成兩部分:短連接部分和殘差部分.式(1)所示,h(xl)為短連接部分,將初始值輸入保存;f(xl,Wl)為殘差部分,其由兩個(gè)卷積塊組成.將兩個(gè)部分輸出結(jié)果進(jìn)行加計(jì)算作為整個(gè)殘差模塊的輸出.
圖3 Y由兩個(gè)卷積模塊、SE模塊和短連接組成的殘差單元Fig.3 Y is a residual unit composed of two convolution modules,SE module and short connection
將SE模塊(如圖4)嵌入在殘差模塊中,以優(yōu)化網(wǎng)絡(luò)模型.SE模塊主要包含Squeeze(壓縮)和Excitation(激勵(lì))兩部分.
圖4 來(lái)自SENet網(wǎng)絡(luò)的主要模塊,擠壓與激勵(lì)模塊(SE)Fig.4 Main modules from SENet network,Extrusion and Excitation Module(SE)
具體操作:W×H×C的特征圖經(jīng)過(guò)全局池化壓縮為1 × 1 ×C的向量,后經(jīng)過(guò)第一個(gè)全連接層,通過(guò)縮放參數(shù)SERatio減少通道個(gè)數(shù)降低計(jì)算量.在這里設(shè)置縮放參數(shù)為1/16,輸出為1 × 1 ×C×SERatio.經(jīng)激活函數(shù)和第二個(gè)全連接層后,再經(jīng)過(guò)激活函數(shù)輸出為1 × 1 ×C,最后進(jìn)行Scale 操作得出結(jié)果并輸出.
DeepLab 網(wǎng)絡(luò)中提出了空洞卷積空間金字塔(Atrous Spatial Pyramid Pooling,ASPP)結(jié)構(gòu)[11].空洞卷積是ASPP 模塊的核心[11].U-Net 通過(guò)下采樣提高感受野,會(huì)導(dǎo)致圖像分辨率的降低,從而喪失了圖像邊緣或局部信息.空洞卷積可以在不降低圖像分辨率的情況下擴(kuò)大感受野,捕捉多尺度上下文信息.ASPP 模塊使用具有不同采樣率的多個(gè)并行空洞卷積計(jì)算,并將每個(gè)采樣率采樣的特征放入單個(gè)分支進(jìn)行處理,最后融合生成最終的結(jié)果(如圖5 所示).在模型的上采樣瓶頸處添加ASPP,設(shè)置采樣率為[1,6,12,18],達(dá)到對(duì)COVID-19 3D CT 圖像的空間信息提取.具體地,將輸入特征圖X作為多尺度表征的第一個(gè)尺度.輸入特征圖X 經(jīng)過(guò)4 個(gè)卷積核大小為3 × 3 × 3,空洞率分別為1、6、12 和18 的卷積層進(jìn)行特征提取.最后,將5個(gè)尺度的特征圖進(jìn)行通道拼接和融合后得到最終的多尺度表征.
圖5 ASPP結(jié)構(gòu)Fig.5 The structure of ASPP
在上采樣X(jué)處,添加注意力模塊,其模型架構(gòu)如圖6 所示[12].相對(duì)于作者Oktay O,通過(guò)對(duì)注意力模塊稍做修改以簡(jiǎn)化網(wǎng)絡(luò).標(biāo)準(zhǔn)3D U-Net,由編碼器和解碼器兩個(gè)部分組成[13],跳躍連接允許解碼器直接使用由編碼器提取的特征.重建圖像的掩模時(shí),網(wǎng)絡(luò)就學(xué)會(huì)了使用這些特征,因?yàn)榫幋a器提取的特征與解碼器的特征是連接在一起的.并且注意力模塊可以逐步抑制不相關(guān)背景區(qū)域的特征響應(yīng),而不需要在網(wǎng)絡(luò)之間裁剪感興趣區(qū)域[14].基于此,在上采樣的瓶頸處嵌入注意力模塊(如圖6 所示),可以使網(wǎng)絡(luò)對(duì)跳躍連接相關(guān)的特征施加更多的權(quán)重,可以專(zhuān)注于輸入的部分特征,而不是每個(gè)特征.
圖6 在上采樣和短連接處嵌入注意力模塊如圖2的球體SFig.6 The attention module is embedded at the upper sampling and short connection as shown in the sphere S in Fig. 2
將所有的COVID-19 3D 圖像隨機(jī)分為80%和20%比例的訓(xùn)練集和測(cè)試集.通過(guò)對(duì)樣本進(jìn)行形狀,色彩和噪聲等大量數(shù)據(jù)增強(qiáng)處理,產(chǎn)生變體數(shù)據(jù)庫(kù)供訓(xùn)練和測(cè)試所用.實(shí)驗(yàn)中,執(zhí)行了一個(gè)k-fold交叉驗(yàn)證策略(KD5)來(lái)進(jìn)行網(wǎng)絡(luò)優(yōu)化和整體評(píng)估[14].在數(shù)據(jù)集樣本中,單個(gè)樣本背景類(lèi)的分布為89%,肺為9%,感染類(lèi)為1%[6].平均絕對(duì)誤差(MAE)損失和廣義交叉熵(GCE)損失已被證明對(duì)圖像分類(lèi)具有噪聲魯棒性[15-16].但是,單純地將其應(yīng)用于分割任務(wù)中,由于前景和背景的像素個(gè)數(shù)不平衡,可能導(dǎo)致性能有限[17].為了解決這種不平衡,引入Tversky相似指數(shù)和交叉熵?fù)p失函數(shù)之和作為模型擬合的損失函數(shù)[6,17].并采用動(dòng)態(tài)學(xué)習(xí)率,更好地進(jìn)行模型擬合.設(shè)置初始學(xué)習(xí)率為1e-3,在訓(xùn)練15個(gè)輪次損失沒(méi)有發(fā)生變換時(shí),學(xué)習(xí)率除以10.為了防止陷入極小值點(diǎn),設(shè)置最小的學(xué)習(xí)率為1e-5.大量實(shí)驗(yàn)表明,模型在訓(xùn)練平均250 輪次時(shí),訓(xùn)練達(dá)到包含飽和狀態(tài),如圖7左所示.本工作是在NVIDIA GeForce GTX 1080 TI GPU windows 7操作系統(tǒng)上使用TensorFlow后臺(tái)、CUDA10.0和CUDNN7.6.0的Keras框架實(shí)現(xiàn)的.
圖7 通過(guò)監(jiān)控訓(xùn)練數(shù)據(jù)和損失值,檢測(cè)模型擬合狀態(tài). 在單次訓(xùn)練185輪次,訓(xùn)練精度達(dá)到0.9324.Fig.7 By monitoring the training data and loss values,the fitting state of the model was detected. In 185 rounds of single training,the training reached 0.9324.
實(shí)驗(yàn)評(píng)估采用社區(qū)中廣泛使用的三個(gè)醫(yī)學(xué)圖像分析評(píng)價(jià)指標(biāo)進(jìn)行推理模型性能,以衡量分割的預(yù)測(cè)和ground truth之間的重疊.(5)式中定義的骰子相似系數(shù)是計(jì)算機(jī)視覺(jué)中最普遍的度量.相比之下,敏感性(6)式和特異性(7)式是醫(yī)學(xué)領(lǐng)域的指標(biāo)之一.所有指標(biāo)都基于混淆矩陣,其中TP(true positive)、FP(false positive)、TN(true negative)和FN(false negative)分別表示真陽(yáng)性率、假陽(yáng)性率、真陰性率和假陰性率.
從3D肺部體積圖像第116切片處提取CT Scan,Ground Truth,Prediction 三幅圖片對(duì)比了標(biāo)準(zhǔn)3D U-Net[6]網(wǎng) 絡(luò)(2),3D ResNet[7]網(wǎng) 絡(luò)(3)與3D SEResNet(1),如圖8所示.
圖8 不同網(wǎng)絡(luò)對(duì)3D CT圖像分割效果圖Fig.8 3D CT image segmentation effect of different networks
ResNet 相對(duì)于U-Net 網(wǎng)絡(luò)來(lái)說(shuō),隨著網(wǎng)絡(luò)的加深,由于短連接的存在,實(shí)現(xiàn)了對(duì)圖像深層次特征和高頻信息的提取.由3D SE-ResNet 網(wǎng)絡(luò)分割得出的效果圖來(lái)看,網(wǎng)絡(luò)不僅能夠整合其他網(wǎng)絡(luò)的優(yōu)點(diǎn),而且能夠獲取圖像整體信息.這得益于采用的ASPP 模塊,加強(qiáng)對(duì)圖像多尺度信息特征的提取.嵌入的擠壓與激勵(lì)模塊,也為增強(qiáng)了全局信息來(lái)選擇性地強(qiáng)調(diào)信息性特征.但由于,COVID-19 感染區(qū)域分布廣泛且形狀不一,邊緣區(qū)域像素少等因素也增加了分割的難度.這也是目前3D 分割的難題.相對(duì)比來(lái)說(shuō),所提出的網(wǎng)絡(luò)模型能實(shí)現(xiàn)圖像整體和細(xì)節(jié)部分的分割且較優(yōu)于其它的網(wǎng)絡(luò).
使用K-fold 交叉驗(yàn)證策略將數(shù)據(jù)集給與每個(gè)小組(K=5),并對(duì)每組獨(dú)立進(jìn)行統(tǒng)計(jì)分析.受制于數(shù)據(jù)集的大小,沒(méi)有將數(shù)據(jù)集劃分給每個(gè)小組,而是將每個(gè)小組的訓(xùn)練和測(cè)試數(shù)據(jù)都引用原始數(shù)據(jù)集.每個(gè)小組將獲得200 個(gè)數(shù)據(jù)樣本,并將其獨(dú)立隨機(jī)的劃分為訓(xùn)練和測(cè)試數(shù)據(jù),比例為4∶1.為了使交叉驗(yàn)證獲得更好地效果,在訓(xùn)練每一個(gè)fold時(shí),大量的數(shù)據(jù)增強(qiáng)會(huì)產(chǎn)生一個(gè)變體數(shù)據(jù)庫(kù),包含200 幅相同尺寸但不同的3D CT 圖像.而且,在訓(xùn)練每個(gè)fold 時(shí),會(huì)實(shí)時(shí)產(chǎn)生不同的變體數(shù)據(jù)庫(kù).基于5 折交叉驗(yàn)證的檢驗(yàn)結(jié)果在敏感度、特異性、DSC 方面如表1 所示.在第四次訓(xùn)練中,監(jiān)控肺部感染區(qū)域的三個(gè)指標(biāo)都得到最好的結(jié)果,DSC 達(dá)到了89.40%.而在第五次訓(xùn)練中,監(jiān)控肺感染區(qū)域的三個(gè)指標(biāo)均得到最低的結(jié)果,主要原因可能在于每次訓(xùn)練測(cè)試中,使用一個(gè)25%概率數(shù)據(jù)增強(qiáng)的變體數(shù)據(jù)庫(kù),其中包含200 張不同的3D CT 圖片,從而導(dǎo)致指標(biāo)不一或低于均值的結(jié)果.由此可見(jiàn),交叉測(cè)試策略的有效性.在五次交叉測(cè)試之后,肺,背景和COVID-19 感染區(qū)域分割的平均DSC 分別為0.974,0.998 和0.870.顯示了實(shí)驗(yàn)提出的3D SE-ResNet 在分割方面的高效性.為了進(jìn)一步評(píng)估網(wǎng)絡(luò)的性能,在相同環(huán)境和硬件配置下,進(jìn)行3D ResNet,3D U-Net,3D SE-ResNet網(wǎng)絡(luò)的對(duì)比實(shí)驗(yàn)結(jié)果如表2所示.可以看出,所提出的3D SE-ResNet 網(wǎng)絡(luò)相對(duì)于3D ResNet,3D U-Net,在DSC 方面分別提升了1.03%,2.85%.從醫(yī)學(xué)角度來(lái)看,CT 圖像有三個(gè)維度,二維卷積神經(jīng)網(wǎng)絡(luò)不能充分利用圖像數(shù)據(jù)的三維特征和空間信息[18].而由于GGO的多樣性和肺實(shí)變形態(tài)[6],造成了目前3D網(wǎng)絡(luò)模型分割精度較低的情況.隨著近幾年,深度學(xué)習(xí)的快速發(fā)展,網(wǎng)絡(luò)分割精度會(huì)有更多的提升.
表1 基于5折交叉測(cè)試不同類(lèi)別的評(píng)價(jià)指標(biāo)數(shù)值Tab.1 The evaluation index values of different categories were verifiedbased on 5 fold cross validation
表2 不同網(wǎng)絡(luò)對(duì)感染區(qū)的分割均值統(tǒng)計(jì)Tab.2 The mean segmentation of infected areas by different networks was counted
通過(guò)大量實(shí)驗(yàn)結(jié)果顯示了3D SE-ResNet在檢測(cè)與分割感染區(qū)域具有高精度和有效性.同時(shí)還證明了在訓(xùn)練數(shù)據(jù)不充分的條件下,利用擴(kuò)充數(shù)據(jù)的方式,在每一個(gè)Fold運(yùn)行之前,通過(guò)大量的數(shù)據(jù)增強(qiáng)形成一個(gè)獨(dú)立的變體數(shù)據(jù)庫(kù)供訓(xùn)練測(cè)試使用,對(duì)模型擬合和避免U-Net 在小數(shù)據(jù)集上表現(xiàn)的過(guò)擬合傾向具有高效性.作者M(jìn)ULLER D[6]使用相同的數(shù)據(jù)集,利用標(biāo)準(zhǔn)的3D U-Net,達(dá)到COVID-19感染區(qū)域分割的DSC為0.761.通過(guò)擴(kuò)充數(shù)據(jù)集以及數(shù)據(jù)增強(qiáng)產(chǎn)生變體數(shù)據(jù)集的方式,利用標(biāo)準(zhǔn)3D U-Net作對(duì)比實(shí)驗(yàn),COVID-19 感染區(qū)域分割的DSC 達(dá)到0.841,證明了擴(kuò)充方式對(duì)精度提升有很好的作用.在大量的實(shí)驗(yàn)中,每個(gè)Fold并不需要300輪次進(jìn)行訓(xùn)練,而在平均250 輪次達(dá)到飽和狀態(tài),并且在訓(xùn)練中通過(guò)監(jiān)控Training和Loss(如圖7所示),并未發(fā)現(xiàn)過(guò)擬合現(xiàn)象.模型訓(xùn)練時(shí),每張160 × 160 × 80 的3D 圖片處理時(shí)間大約為3秒,這也為該網(wǎng)絡(luò)模型進(jìn)入醫(yī)療影像作為輔助診斷提供了可能.從醫(yī)學(xué)角度來(lái)看,三維圖像相對(duì)于二維圖像,更能表現(xiàn)出空間信息.為此,實(shí)驗(yàn)致力于三維圖像分析.所提出的3D SE-ResNet網(wǎng)絡(luò),通過(guò)引入擠壓與激勵(lì)模塊,根據(jù)網(wǎng)絡(luò)的通道數(shù)調(diào)整縮放因子為1/16,使得網(wǎng)絡(luò)能夠自適應(yīng)地重新校準(zhǔn)通道特征響應(yīng),并通過(guò)卷積層重新校準(zhǔn)信道上的信息來(lái)消除不太有用的表示.引入ASPP 模塊,以增強(qiáng)網(wǎng)絡(luò)模型對(duì)COVID-19 3D 圖像多尺度空間信息的提取.在相同數(shù)據(jù)集,相同實(shí)驗(yàn)環(huán)境下做了三組對(duì)比實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如圖9所示,箱型圖能夠使實(shí)驗(yàn)數(shù)據(jù)更加透明和直觀.受紙張頁(yè)寬限制,箱型圖只展示了ResNet 和SE-ResNet 數(shù)據(jù)對(duì)比圖.由此可以看出:所提出的3D SE-ResNet 在COVID-19 分割上優(yōu)于最突出的深度學(xué)習(xí)方法(如3D ResNet和3D U-Net).
圖9 箱形圖顯示不同類(lèi)別基于5折交叉測(cè)試的實(shí)驗(yàn)結(jié)果Fig.9 Box plot shows the experimental results of different categories based on 5-fold cross validation