亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于DC-DenseNet的乳腺癌病理圖像分類

        2023-05-08 03:01:42張廟林帥仁俊
        計算機應用與軟件 2023年4期
        關鍵詞:乳腺癌分類優(yōu)化

        張廟林 帥仁俊

        (南京工業(yè)大學計算機科學與技術學院 江蘇 南京 211816)

        0 引 言

        乳腺癌是女性最常見的惡性腫瘤之一。在女性群體中,乳腺癌導致的死亡數一般高于其他類型的癌癥,而且在世界范圍內每年都有數千人死在這種癌癥下。據報道,東非的乳腺癌發(fā)病率為1.93×10-4,西歐的發(fā)病率為8.97×10-4[1]。近年來乳腺癌新病例在持續(xù)增加,預計到2030年乳腺癌新病例將會增至2 700萬[2]。乳腺癌疾病的檢測和診斷可以通過成像系統(tǒng)程序,如乳腺X線、磁共振圖像、超聲圖像和熱圖。癌癥篩查的影像學研究已有40多年歷史。然而,臨床上,基于病理圖像的活檢無疑是檢測乳腺疾病的金標準,也是對病理圖像進行準確分類時醫(yī)生制定最佳治療方案的重要依據。

        目前針對乳腺癌病理圖像的分類研究主要分為兩類:基于人工特征的傳統(tǒng)的乳腺病理圖像分類方法;基于深度學習的乳腺癌病理圖像分類方法?;谌斯ぬ卣鞯膫鹘y(tǒng)的乳腺癌病理圖像分類方法采用人工提取特征,基于這些特征使用支持向量機、隨機森林等分類器完成分類。該方法存在高要求的專業(yè)知識、提取特征耗費時間和提取高質量特征難等缺點。相對于傳統(tǒng)分類方法,基于深度學習的乳腺癌病理圖像分類方法,利用網絡自主學習相應的特征,克服了需要專業(yè)人士手工提取特征的缺點,同時節(jié)省了人工提取特征的時間。目前,基于卷積神經網絡的乳腺癌病理圖像的自動分類仍然是一個非常具有挑戰(zhàn)性的問題。主要有兩個原因:

        (1) 隨著神經網絡模型的不斷深化,CNN的參數數量也隨之迅速增加,這就很容易導致模型對訓練數據的過擬合。為了降低過擬合的風險,通常需要大量的乳腺癌病理圖像作為訓練CNN的數據。然而要獲得大量的標記好的乳腺癌病理圖像數據需要非常大的成本。

        (2) 各種超參數對神經網絡模型的性能也有很大的影響,尤其是學習率。在模型訓練中,經常需要手動調整學習率參數來獲得更好的性能,這就使得非專家人員很難在實際應用中應用該算法。

        1 相關工作

        深度學習是機器學習領域的一項新興技術并且已經受到了許多研究者的關注。卷積神經網絡在大規(guī)模圖像和視頻識別中取得了巨大的成功。目前的研究已經表明,采用深度學習的方法對乳腺癌組織病理學圖像進行分類可以極大地提高分類的準確性,從而幫助醫(yī)生進行診斷,使病人更好地進行治療。然而,深度學習網絡并不是越深越好,有時候僅僅增加網絡的深度并不能提高分類的準確性,反而會出現分類性能退化的現象。為了解決該問題,基于DenseNet和基于遷移學習的深度學習算法應運而生。

        Spanhol等[3]使用遷移學習的方法,運用預先訓練的BVLC CaffeNet結構的權重來提取一組乳腺癌組織病理學圖像的深度特征并將它們輸入到分類器中,使準確率達到了83.6%~84.8%。Ahmad等[4]為了解決訓練時間過長的問題,采用基于ImageNet預先訓練的AlexNet、GoogleNet和ResNet網絡進行乳腺癌組織病理學圖像的分類,有效解決了訓練時間過長和訓練集數據不足的問題。Huang等[5]設計的DenseNet提出了一個更緊密的連接機制,即所有的層都互相連接,前面所有的激活映射被視為單獨的輸入傳遞給后續(xù)所有的層。該機制可以使用較少的參數實現特征的復用,以達到更好的分類效果。Gupta等[6]設計的基于DenseNet的卷積神經網絡作為乳腺癌組織病理學圖像的特征提取器。圖像樣本在特定階段具有很高的分類置信度標簽時,該樣本將在這一階段確定其標簽。否則,樣本將會傳遞到下一階段,這一過程主要考慮了底層、中層和高層特征對分類性能的共同影響。Nahid等[7]提出了一個結構化的深度學習模型來解決乳腺癌病理圖像的下采樣問題,最終分類結果達到92.19%。Kohl等[8]研究了稠密連通卷積的適用性,并用實驗對比VGG19、Inception-v3和DenseNet161三種模型,先分別將三種模型利用ImageNet進行預訓練,最后對比分類精度,DenseNet161平均精度高于VGG19和Inception-v3兩個模型4%。

        本文對乳腺癌病理圖像的自動分類應用主要有以下貢獻:

        1) 本文在最先進的模型DenseNet基礎上提出了DC-DenseNet模型來解決乳腺癌病理圖像分類的問題。該模型不僅可以提高特征表示的能力,還能一定程度上降低計算復雜度。

        2) 本文提出一種新的學習速率優(yōu)化器,它不需要復雜的微調學習速率就可以表現出優(yōu)異的性能。

        3) 本文用新的學習率優(yōu)化器在cifar10數據集上測試,最后將整個模型在BACH數據集和BreakHis公開數據集上實驗。

        2 DC-DenseNet

        2.1 擴張卷積

        擴張卷積在最近的許多研究中被用于基于深學習的語義分割方法中[8]。相比于普通的卷積層,擴張卷積是在標準的卷積核中注入空洞,這不僅可以增加模型的感受野,還能保留可訓練參數的數量。注入的空洞的大小取決于擴張率γ。如圖1所示,圖1(a)是標準的卷積核,此時的擴張率γ=1;圖1(b)對應的是擴張率γ=2的卷積,可以理解為卷積核尺寸為7×7,但是只有9個點有參數,其余的位置參數都為0,和輸入特征圖對應位置的像素進行卷積計算時其余的位置都略過;圖1(c)和圖1(b)類似,擴張率γ=3相當于變成了15×15的卷積核。當卷積核尺寸變大時,感受野也就自然變大,此時可以從上一層的特征圖中提取更多的信息。

        圖1 擴張卷積示例

        2.2 網絡體系結構

        與標準的卷積核相比,采用擴張卷積不需要額外的計算成本就可以提取多尺度特征??紤]到這個優(yōu)點,本文提出一種新的用于乳腺癌病理圖像分類的模型結構,即DC-DenseDent。DC-DenseDent的網絡結構如圖2所示。DDC、MP、AP和FC分別代表卷積層、最大池化層、平均池化層和全連接層。為了更好地提取特征,所提出的深度學習網絡對于淺層和深層具有不同的體系結構,即擴張密集塊(DDC)和層中層模塊(NIN)[9]。使用ReLU作為非線性激活函數。用Softmax損失函數L來優(yōu)化網絡,其表達式為:

        圖2 DC-DenseNet網絡結構

        (1)

        式中:Li表示Softmax損失函數,i∈[1,N];fj表示第j個元素(j∈[1,K],K為類的個數)的類輸出向量;yi為第i個輸入的標簽;N為訓練數據的數量。

        2.3 擴張密集塊(DDC)

        2.3.1 Dense Block

        DC-DenseNet主要是在先進的DenseNet模型基礎上改進了兩個方面:1)用DDC模塊代替了DenseNet原先的標準卷積層;2)建立了一個更寬而不深的網絡。

        Dense Block是由多個卷積層組成的模塊,DenseNet網絡在第l層的輸出為:

        xl=Hl([x0,x1,…,xl-1])

        (2)

        式中:Hl(·)是由一個組合操作而成的非線性函數,這個組合操作可能包括一系列的BN(Batch Normalization)、ReLU、池化即卷積操作。如果每個Hl(·)均輸出k個特征圖,即得到的特征圖的通道數為k,假定輸入層的通道數為k0,那么第l層的輸入的通道數為k0+k×(l-1),其中k為DenseNet的增長率。

        2.3.2 擴張卷積層

        原始的Dense Block中通過疊加3×3的卷積層來實現多尺度特征提取。因為擴張卷積比標準的卷積層有更加寬闊的感受野,因此本文提出的擴張密集塊(DDC)采用了擴張卷積來代替標準的卷積層實現多尺度的特征提取。如圖3所示,DDC模塊中有兩個擴張率為2和3的擴張卷積層,每個擴張卷積層之后都放置一個標準的3×3的卷積來融合提取的特征病細化語義信息。

        圖3 DDC模塊

        由于病理圖像數據集的規(guī)模通常很小,很難用它們來訓練像原始DenseNet那樣的超深網絡。文獻[10]證明了在小數據集上較寬的網絡可能比較深的網絡提供更好的性能。因此,所述的DDC模塊將增長率k增加到8、16和32,并將層數從121層減少到28層。因此密集塊網絡就實現了寬而不深的初衷。為了降低計算復雜度和提高特征提取能力,將增長率k設置為隨DDC網絡的深入而增加。

        3 學習率優(yōu)化器

        3.1 優(yōu)化器介紹

        隨機梯度下降法是最常用的優(yōu)化器。隨機梯度下降法(SGD)[11]的核心思想是隨機選擇一個樣本來計算梯度,并在每個訓練過程中更新參數。損失函數的梯度決定了SGD的更新方向。參數θt在t時刻更新為θt=θt-1-lrt▽θL,其中:L為損失函數;▽θL是損失函數的梯度;lrt是在t時刻的學習率。隨機梯度法是一種簡單有效的方法,但是在用于優(yōu)化學習率時需要仔細調整模型的超參數。較大的學習率會導致CNN訓練結果發(fā)散,而較小的學習率則會使訓練收斂緩慢。通常研究人員需要對不同大小的學習率進行實驗以使網絡更快地收斂,獲得更好的性能。AlexNet[12]在ImageNet數據集上遵循的啟發(fā)式算法是將學習率初始化為0.01,當驗證集的錯誤率不再隨當前學習率降低時就將學習率除以10并重復三次。ResNet網絡在ImageNet數據集上是將學習率初始化為0.1,在epoches達到30和60次后將學習率除以10。但是ResNet在Cifar數據集上是lterations達到3.2×104和4.8×104次后將學習率除以10??梢钥吹酵粩祿诓煌腃NN體系結構中所用的學習率優(yōu)化器是不同的,不同數據集在同一CNN結構中使用的優(yōu)化器也是不同的。因此如何選擇優(yōu)化器對模型有很大的影響。

        3.2 高斯優(yōu)化器

        高斯誤差函數[13]是一種非基本函數,廣泛應用于概率論、統(tǒng)計學和偏微分方程中。它的定義如下:

        (3)

        根據高斯誤差函數的性質,本文設計一個高斯優(yōu)化器(GEF),它對學習率的定義如下:

        (4)

        式中:lrmax表示最大學習率;lrmin表示最小學習率;E表示epochs的總數量,e∈(0,E)表示當前的epoch;M表示負整數;N表示正整數。初始學習率下CNN訓練所需的時間由M決定,當|M|越大時,用最大學習率訓練CNN所需的時間越長。較小學習率下的CNN訓練時間由N決定,N越大,用最小學習率訓練CNN的時間就越長。|M|/|N|表示學習衰減率。

        當學習率接近于零時,噪聲將主導CNN權值的更新。在CNN訓練后期不宜將學習率設置為零,這會導致測試精度在最后階段出現波動和下降。因此,我們通過確保學習率不接近于零來設置lrmin參數,并且lrmin不再需要非常仔細的微調。在本文的實驗中,將lrmin設為最小學習率,lrmax設為初始學習率。

        本文提出的高斯優(yōu)化器可以很容易地與SGD算法相結合。下面的算法表示了兩者結合過程。其中:lrmax設為初始學習率;lrmin設為最小學習率;v0為初始速率;θ0為初始參數;E為初始epoch;m為動量參數;n為訓練集每次訓練的一個batch;g為梯度;ε為學習率。

        算法1基于高斯誤差優(yōu)化器的SGD算法

        輸入:最大學習率lmax,最小學習率lmin,高斯優(yōu)化器參數N和M,動量參數m,初始參數θ,初始速度v,初始的epochsE。

        fore=1 toEdo

        在訓練集中抽取一批m個樣本{x(1),x(2),…,x(m)}以及對應的標簽y(i)。

        更新參數:θ~=θ+mv

        計算速度更新:v=Mv-εg

        應用更新:θ=θ+v

        end for

        4 實 驗

        4.1 實驗工具

        本文模型是在Intel i7 9800KF CPU,NVIDAIA GTX1080Ti上訓練。訓練工具使用的是PyCharm開發(fā)軟件,深度學習框架采用了TensorFlow2.0。TensorFlow 2.0較之以往版本最明顯的區(qū)別是更簡單、更易用、更強大??梢愿臃奖愕厥褂胻f.data加載數據,用tf.keras來構建、訓練和驗證模型。同時還取消了1.x版本的繁瑣的會話模式。

        4.2 高斯優(yōu)化器性能分析

        為了評估高斯優(yōu)化器的性能,本文用其他兩個不同的學習率優(yōu)化器在Cifar-10數據集上進行對比實驗。將高斯優(yōu)化器的lrmax設置為0.1,lrmin設置為0.000 1,并選擇使用GEF(-2,2)和GEF(-3,3)。在文獻[14]的方法中,余弦優(yōu)化器的定義為:

        (5)

        式中:lrmax表示最大學習率;lrmin表示最小學習率;E表示epochs的總數量,e∈[0,E]表示當前的epoch。在對比實驗中將余弦優(yōu)化器的lrmin設置為0。在文獻[15]中定義的優(yōu)化器為:

        Exp=lr0×λe

        (6)

        式中:lr0為初始學習率;e∈[0,E]表示當前的epoch;λ∈[0,1]為貼現因子。在本次對比實驗中將lr0設置為0.1,λ設置為0.98。最終的對比結果圖如表1所示。對比Cos和Exp優(yōu)化器,當GEF取到(-3,3)時性能表現得更加優(yōu)異。

        表1 Cifar-10下不同優(yōu)化器的差錯率

        4.3 數據集介紹

        4.3.1 BACH數據集

        BACH數據集由大小為2 048×1 536的400幅蘇木精和伊紅染色的乳房組織顯微鏡圖像組成且被分為正常、良性、原位癌和浸潤性癌四類,每個類別都有100幅圖像。數據集被隨機按照8∶2的比例打散成訓練集和驗證集。不同類別的切片圖像如圖4所示。我們用額外的20幅生物成像數據集[16]當作測試集來判斷提出的框架性能。

        圖4 BACH數據集樣例

        我們對BACH數據集使用了數據增強來實現增加數據。將整幅圖像平移50%并裁剪為大小為512×512的綴塊,從而每個類別都增加了2 800個綴塊。同時,我們還對數據集進行了旋轉和鏡像操作,每個綴塊旋轉90°、180°和270°,然后進行垂直反射得到一個包含89 600幅圖像的增強數據集。每幅圖像均采用700×460像素、3通道RGB的PNG格式。

        4.3.2 BreaKHis數據集

        BreaKHis數據集包含7 909幅顯微圖片,其中:良性乳腺腫瘤2 480幅,惡性乳腺腫瘤5 429幅,每個類別都包含了放大40倍、100倍、200倍和400倍的圖像。良性腫瘤有4種亞型:腺病(A)、纖維腫瘤(F)、管狀腫瘤(TA)和葉狀腫瘤(PT)。惡性腫瘤分為導管癌(DC)、小葉癌(LC)、黏液癌(MC)和乳頭狀癌(PC)4種亞型。這個數據集的詳細信息如表2所示。本實驗對每個BreaKHis數據集圖片進行了二元分類。我們采用與BACH數據相同的數據增強方式來增強數據集。

        表2 BreaKHis數據集結構

        4.4 實驗結果

        4.4.1 BACH數據集實驗

        本文對BACH數據集采用所有測試圖像的總正確分類率(ACC)來作為模型性能評價的標準。同時將AlexNet[3]、VGG-19[8]已知模型和目前最優(yōu)的方法DenseNet161[8]一起參與性能評估。表3列出了每個模型對BACH驗證集上的測試結果,所有模型的學習率優(yōu)化器都統(tǒng)一使用本文提出的高斯優(yōu)化器。

        表3 不同模型在BACH驗證集上的分類正確率(%)

        可以看出,所提出的DC-DenseNet模型對正常(96.3%)和浸潤性癌(94.23%)的分類性能最好。DC-DenseNet在良性腫瘤和原味的分類正確率分別為92.36%和93.50%,與最好的兩個相比依然具有一定的競爭力。最后平均分類準確率為94.10%優(yōu)于目前先進的DenseNet161模型。

        表4列出了不同框架在BACH測試集上的性能,這里測試集采用的是額外的20幅公共可用數據集[17]。

        表4 不同模型在BACH測試集上的分類正確率(%)

        可以看出,所提出的DC-DenseNet取得了最佳的分類性能,即82.50%,比目前最優(yōu)的DenseNet161[8]高出了6.25百分點。

        4.4.2 BreaKHis數據集實驗

        本文將DC-DenseNet模型與Nahid等[7]的方法對BreaKHis數據集的不同放大系數二分類性能進行了比較,兩種方法數據集都采用相同的數據增強方式,并結合了本文提出的高斯優(yōu)化器進行訓練。評價指標包括AUC、精確度和召回率。實驗結果對比如表5所示。

        表5 每個放大系數下的兩種方法結果比較

        可以看出,在數據集增強方式相同并都結合高斯優(yōu)化器的情況下,本文模型DC-DenseNet略優(yōu)于Nahid等[7]的方法。

        5 結 語

        越來越多的研究采用基于深度學習的醫(yī)學圖像分析框架。然而,將深度學習網絡用于病理圖像分析面臨著一些挑戰(zhàn),比如:獲得大量附帶標簽的數據集需要非常大的成本;現有的卷積神經網絡模型對病理圖像分類性能不夠卓越;模型訓練中需要手動調整學習率參數來獲得更好的性能的操作使得非專家人員很難在實際應用中應用該算法?;诖?本文使用改進的DenseNet網絡模型實現對乳腺癌病理圖的分類任務。將原先Dense Block的卷積層換成擴張卷積來實現多層特征的提取并減少了模型的計算復雜度。提出一種新的學習速率優(yōu)化器,它不需要復雜的微調學習速率就可以表現出優(yōu)異的性能。實驗結果表明,所提出的模型框架取得了較好的結果。

        猜你喜歡
        乳腺癌分類優(yōu)化
        絕經了,是否就離乳腺癌越來越遠呢?
        中老年保健(2022年6期)2022-08-19 01:41:48
        超限高層建筑結構設計與優(yōu)化思考
        房地產導刊(2022年5期)2022-06-01 06:20:14
        民用建筑防煙排煙設計優(yōu)化探討
        關于優(yōu)化消防安全告知承諾的一些思考
        分類算一算
        一道優(yōu)化題的幾何解法
        乳腺癌是吃出來的嗎
        分類討論求坐標
        胸大更容易得乳腺癌嗎
        數據分析中的分類討論
        国产一区二区三区国产精品| 台湾佬中文娱乐网22| 亚洲第一se情网站| 亚洲精品456| 国产美女黄性色av网站| 久久久熟女一区二区三区| 精品乱人伦一区二区三区| 亚洲精品综合欧美一区二区三区| 成黄色片视频日本秘书丝袜| 一本大道综合久久丝袜精品| 国产自拍成人免费视频| 午夜无遮挡男女啪啪免费软件| 国产精品久久无码一区二区三区网| 韩国女主播一区二区在线观看| 国产一区二区三区在线观看蜜桃 | 无码av一区在线观看| 日韩国产一区二区三区在线观看 | 国产久久久自拍视频在线观看| 国产精品18久久久白浆| 日本免费一区二区三区影院 | 亚洲欧美日韩综合一区二区| 成人一区二区三区蜜桃| 欧美高大丰满freesex| 综合亚洲伊人午夜网| 国产精品av网站在线| 国产精品原创巨作AV女教师| 狠狠综合亚洲综合亚洲色 | 日本边添边摸边做边爱喷水| 好爽要高潮了在线观看| 亚洲区日韩精品中文字幕| 久久久久成人片免费观看蜜芽| 亚洲中文字幕成人无码| 特黄 做受又硬又粗又大视频| 日本中文字幕有码网站| 久久精品国产免费观看| 亚洲综合无码一区二区| 亚洲精品国产一区av| 亚洲乱妇熟女爽到高潮视频高清| 人妻仑乱a级毛片免费看| 久久香蕉国产线看观看网| 大屁股流白浆一区二区|