王文濤,王嘉鑫,張 根,陳大江
(1.中南民族大學(xué)計(jì)算機(jī)科學(xué)學(xué)院,武漢 430074;2.湖北省制造企業(yè)智能管理工程技術(shù)研究中心,武漢 430074)
宮頸癌是女性最常見的惡性腫瘤之一,據(jù)世界衛(wèi)生組織估計(jì),目前全世界約有100萬婦女患有宮頸癌。幸運(yùn)的是,宮頸癌是目前唯一明確病因、可預(yù)防、早發(fā)現(xiàn)可治療的癌癥[1]。宮頸細(xì)胞涂片篩查是早期檢測(cè)宮頸癌的重要細(xì)胞學(xué)篩查方法之一,但傳統(tǒng)的細(xì)胞涂片需要專業(yè)病理學(xué)家進(jìn)行手動(dòng)篩查,分析過程繁瑣、耗時(shí),長(zhǎng)時(shí)間工作下容易出錯(cuò),因此,計(jì)算機(jī)輔助篩查在該領(lǐng)域有著重大意義。
細(xì)胞學(xué)篩查需要觀察細(xì)胞形態(tài)特征,如形狀、顏色、尺寸等,分辨是否為異常細(xì)胞[1],計(jì)算機(jī)輔助篩查系統(tǒng)通過自動(dòng)分割核質(zhì)邊界、特征提取和自動(dòng)分類等方式來自動(dòng)篩查異常細(xì)胞。而細(xì)胞分割作為首要任務(wù),其精確度決定了后續(xù)分類篩查的準(zhǔn)確率,但細(xì)胞涂片中的細(xì)胞形態(tài)極其不規(guī)則,染色質(zhì)不均勻?qū)е录?xì)胞邊界不清晰,想要在涂片中準(zhǔn)確分割出核質(zhì)是非常困難的。目前對(duì)細(xì)胞進(jìn)行語義分割的方法主要有以下兩類:
(1)基于形態(tài)學(xué)的傳統(tǒng)細(xì)胞語義分割方法。2011年,Plissiti等[2]使用分水嶺與基于形態(tài)學(xué)先驗(yàn)的方法,先對(duì)圖像核質(zhì)區(qū)域進(jìn)行粗分割,再使用距離相關(guān)規(guī)則以及支持向量機(jī)(support vec?tor machine,SVM)的像素分類方法進(jìn)行分割的細(xì)化。2015年,Chalfoun 等[3]通過計(jì)算局部對(duì)比度來檢測(cè)像素強(qiáng)度變化較大的區(qū)域,即可能是細(xì)胞主體的區(qū)域,再使用局部對(duì)比度閾值來分割出細(xì)胞邊界,并且使用了一種迭代算法將細(xì)胞邊緣的光暈去除。但傳統(tǒng)的分割方法只分析了底層特征,無法提取高級(jí)的結(jié)構(gòu)特征,存在精確率低、泛化能力差、效率低等問題。
(2)基于深度學(xué)習(xí)的細(xì)胞語義分割方法。隨著深度學(xué)習(xí)的快速發(fā)展,其在細(xì)胞分割領(lǐng)域中的運(yùn)用越來越廣泛,深度學(xué)習(xí)避免了人工提取特征的局限,并提供更高的精確度和更快的速度,其中卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural net?works,CNN)是最常用的模型之一。2018 年,Liu 等[4]使用了一種利用像素先驗(yàn)信息的神經(jīng)網(wǎng)絡(luò)Mask R?CNN(mask regional convolutional neural network),先通過基于殘差網(wǎng)絡(luò)(residual net?work)和特征金字塔(feature pyramid network)的特征提取網(wǎng)絡(luò)確定細(xì)胞的感興趣區(qū)域,再進(jìn)行區(qū)域卷積獲得粗分割的掩膜圖,最后通過一個(gè)局部全連通條件隨機(jī)場(chǎng)對(duì)分割圖進(jìn)行細(xì)化,得到了更高的準(zhǔn)確度。2021年,Roy等[5]利用一個(gè)基于編碼器-解碼器的語義分割模型DeepLabv3進(jìn)行細(xì)胞分割,編碼器包含了空洞卷積與多尺度并行的空間金字塔池化模塊,可以提取豐富的語義信息,通過簡(jiǎn)單有效的雙線性上采樣解碼器模塊進(jìn)行空間信息的恢復(fù),有效地提高了精度與運(yùn)行效率。此外,DenseNet[6]、D?MEM[7]、ICPN[8]等模型也被用來提高分割性能。雖然這些算法在一定程度上提高了準(zhǔn)確率,但通常具有適應(yīng)特定任務(wù)或是數(shù)據(jù)的網(wǎng)絡(luò)結(jié)構(gòu)特點(diǎn),且數(shù)據(jù)不平衡時(shí)模型性能較差。
在眾多卷積神經(jīng)網(wǎng)絡(luò)模型中,全卷積網(wǎng)絡(luò)(fully convolutional networks)[9]是醫(yī)學(xué)圖像分割領(lǐng)域中的研究熱點(diǎn)之一,在各種全卷積網(wǎng)絡(luò)體系中,U?Net[10]模型是其中應(yīng)用最為泛用的模型之一。U?Net模型是一個(gè)像素到像素、端到端的網(wǎng)絡(luò),編碼器與解碼器之間有跳躍連接層,只需要較少的訓(xùn)練數(shù)據(jù)就保留很多特征信息,然而,向標(biāo)準(zhǔn)的U?Net結(jié)構(gòu)中直接添加更多層,會(huì)使網(wǎng)絡(luò)太深,導(dǎo)致梯度消失,難以收斂。
本文受U?Net 模型的啟發(fā),結(jié)合Inception?Res[11]結(jié)構(gòu)的優(yōu)點(diǎn),采用了一個(gè)改進(jìn)的端到端模型IR U?Net(Inception?Res U?Net),主要貢獻(xiàn)如下:①通過Inception?Res 結(jié)構(gòu)增加網(wǎng)絡(luò)寬度的同時(shí)減少了冗余計(jì)算,并能提取多尺度特征,提高網(wǎng)絡(luò)精確度;②通過使用Leaky?ReLU 減少“神經(jīng)元死亡”導(dǎo)致的網(wǎng)絡(luò)稀疏特征多、難以收斂的問題;③采用改進(jìn)的損失函數(shù)Focal?Dice Loss 來解決細(xì)胞圖像部分邊界模糊、目標(biāo)區(qū)域大小差異大、學(xué)習(xí)困難的問題。
本節(jié)將介紹模型的整體結(jié)構(gòu)以及內(nèi)部模塊的具體結(jié)構(gòu),整個(gè)網(wǎng)絡(luò)以U?Net作為主干網(wǎng)絡(luò)模型,內(nèi)部多尺度特征提取與特征融合模塊為In?ceptioni?Res 結(jié)構(gòu),模型為不包含全連接層的端到端模型,輸入輸出為分辨率相同的圖像。
圖1展示了模型的整體結(jié)構(gòu),模型上半部分為編碼器,用于特征提??;下半部分為解碼器,用于像素還原。解碼器中上采樣的輸出將與相應(yīng)編碼器同層特征圖進(jìn)行拼接,作為解碼器下一層輸入,將原始模型中編解碼器部分的3 × 3卷積模塊替換為Inception?Res模塊。
圖1 模型結(jié)構(gòu)圖
模型的輸入圖像分辨率為224 × 224,通道數(shù)為3,編碼器中最大池化層(MaxPooling)對(duì)特征圖進(jìn)行下采樣,使特征圖分辨率縮小一半,經(jīng)過四個(gè)Inception 模塊和池化層后,特征圖縮小至14 × 14 的大小。解碼器部分的上采樣層(UpSampling)將特征圖分辨率還原至原來的一倍,經(jīng)過四個(gè)Inception 模塊和上采樣層后,圖像將恢復(fù)到與輸入分辨率相同,其中四次跳躍連接加強(qiáng)了淺層與深層特征的融合,使得分割結(jié)果更為精細(xì)。最后經(jīng)過一個(gè)包含1 × 1 卷積層與sigmod 激活層的分類器,對(duì)像素進(jìn)行分類,輸出一個(gè)三通道的語義分割結(jié)果。
本文采用了一種改進(jìn)的Inceptioni?Res 結(jié)構(gòu),如圖2所示,該結(jié)構(gòu)與原始卷積結(jié)構(gòu)不同,使用了三個(gè)不同分支結(jié)合的卷積核,主要目的是使用不同分支不同大小的卷積核輸出一個(gè)聚合特征圖,多分支的優(yōu)點(diǎn)主要在于網(wǎng)絡(luò)能夠靈活調(diào)整出對(duì)訓(xùn)練有益的卷積核大小,并形成密集的聚合特征圖,配合殘差結(jié)構(gòu),使學(xué)習(xí)效率增加。結(jié)構(gòu)中多個(gè)1 × 1 卷積核能夠改變輸入維度以減少訓(xùn)練參數(shù),使得學(xué)習(xí)更加容易。
圖2 改進(jìn)的Inceptioni?Res結(jié)構(gòu)
在本文模型中,每個(gè)卷積層后加入了批標(biāo)準(zhǔn)化模塊(batch?normalization)[12],當(dāng)數(shù)據(jù)通過卷積層后,其特征分布可能會(huì)發(fā)生偏移,當(dāng)卷積層增加時(shí),偏移會(huì)加重,這會(huì)產(chǎn)生梯度消失等現(xiàn)象,批標(biāo)準(zhǔn)化可以在保留卷積層的同時(shí),使得數(shù)據(jù)始終保持標(biāo)準(zhǔn)正態(tài)分布,加快訓(xùn)練速度。批標(biāo)準(zhǔn)化的計(jì)算首先是對(duì)輸入數(shù)據(jù)B={x1,x2,…,xi}進(jìn)行標(biāo)準(zhǔn)化:
式(2)將標(biāo)準(zhǔn)化后的數(shù)據(jù)再進(jìn)行一個(gè)線性變換,雖然這里重新對(duì)數(shù)據(jù)進(jìn)行偏移,但神經(jīng)網(wǎng)絡(luò)可以學(xué)習(xí)變換參數(shù)γ與β來自動(dòng)衡量標(biāo)準(zhǔn)化操作是否對(duì)優(yōu)化產(chǎn)生效果。
批標(biāo)準(zhǔn)化后,使用了ReLU(rectified linear unit)激活函數(shù)的變體Leaky?ReLU[13]進(jìn)行一個(gè)輸入端到輸出端的非線性映射。原始ReLU 激活函數(shù)在訓(xùn)練時(shí),值小于0的神經(jīng)元的梯度會(huì)一直為0,容易產(chǎn)生“神經(jīng)元死亡”的問題,這樣會(huì)導(dǎo)致網(wǎng)絡(luò)稀疏特征多,難以收斂。而Leaky?ReLU函數(shù)會(huì)給負(fù)軸微小的斜率,使得神經(jīng)元的梯度不會(huì)完全消失,如圖3所示。
圖3 ReLU函數(shù)與Leaky?ReLu函數(shù)
Leaky?ReLU函數(shù)的表達(dá)式如下:
其中:k為一個(gè)固定參數(shù)且k∈(0,1),一般取0.01[13]。
語義分割常用的損失函數(shù)為交叉熵?fù)p失函數(shù)(cross entropy loss)與Dice 系數(shù)損失函數(shù)[14],公式如下:
其中:M為類別數(shù)量,當(dāng)樣本i的真實(shí)類別為c,則yic取1,否則取0,pic為樣本i屬于類別c的預(yù)測(cè)概率。
其中:y為真實(shí)標(biāo)簽;p為預(yù)測(cè)概率;c為類別;ε為平滑系數(shù)。
何凱明等[15]提出了改進(jìn)的交叉熵?fù)p失函數(shù)焦點(diǎn)損失(Focal Loss),公式如下:
其中:
α、γ均為調(diào)節(jié)因子,且α∈[0,1],γ>0,α用來調(diào)節(jié)正樣本損失的重要程度,γ用來調(diào)節(jié)難樣本損失的重要程度。
交叉熵?fù)p失會(huì)對(duì)圖像中所有的像素點(diǎn)進(jìn)行平等地計(jì)算,若圖像中存在區(qū)域非常小的像素類別,則容易被大范圍的背景區(qū)域干擾,導(dǎo)致分割不準(zhǔn)確。Dice 損失函數(shù)是一個(gè)區(qū)域相關(guān)的損失函數(shù),損失值不受背景區(qū)域大小的影響,所以Dice 損失函數(shù)善于挖掘前景區(qū)域,相比于交叉熵?fù)p失函數(shù),更適用于類別不平衡的情況。本文通過焦點(diǎn)損失與Dice 損失函數(shù)結(jié)合解決數(shù)據(jù)不平衡的問題。改良的損失函數(shù)公式如下:
其中:wc為c類別的權(quán)重;β為調(diào)節(jié)因子,且β∈(0,1),使得模型更加關(guān)注Dice 損失較小的樣本,本文中β一般取0.5。
本節(jié)將介紹實(shí)驗(yàn)數(shù)據(jù)、預(yù)處理過程、評(píng)價(jià)指標(biāo)、與其他分割算法的性能對(duì)比實(shí)驗(yàn)分析以及展示模型各模塊影響的消融實(shí)驗(yàn)分析。
本文的實(shí)驗(yàn)均在公開的Herlev 宮頸細(xì)胞數(shù)據(jù)集[16]上進(jìn)行,該數(shù)據(jù)集是由丹麥赫列夫大學(xué)醫(yī)院(Herlev university hospital)采集的樣本制作而成,其具體組成如表1所示。
表1 Herlev宮頸細(xì)胞數(shù)據(jù)集組成
該數(shù)據(jù)集由917 張單個(gè)宮頸細(xì)胞圖像組成,共有七類細(xì)胞,每一張圖像都對(duì)應(yīng)著一張語義標(biāo)注GT(groud truth)圖像,如圖4 所示,所有的類別以及GT 圖都是由權(quán)威專家人工標(biāo)注得來,GT 圖像中淺藍(lán)色區(qū)域代表細(xì)胞核,深藍(lán)色區(qū)域代表細(xì)胞質(zhì),灰色區(qū)域代表細(xì)胞ROI(region of interest),紅色區(qū)域?yàn)楸尘皡^(qū)域。圖像的分辨率為0.201微米/像素,平均大小為156 × 140像素。其中最長(zhǎng)邊達(dá)到768 像素,而最短邊僅有32 像素,尺寸差異范圍較大。
圖4 Herlev數(shù)據(jù)集部分圖像
由于數(shù)據(jù)集每張圖像大小形狀不一,為了在統(tǒng)一輸入尺寸的同時(shí)不改變分割區(qū)域的相對(duì)位置,在輸入模型前對(duì)圖像進(jìn)行零填充,并將分辨率大小統(tǒng)一調(diào)整為224 × 224 像素。同時(shí),本文采用基于像素的語義分割,GT 圖中的細(xì)胞主體都在其ROI內(nèi),無需先確定細(xì)胞的ROI,所以將ROI 并入背景中,最終的語義圖像共有三類像素,分別為細(xì)胞核、細(xì)胞質(zhì)與背景區(qū)域,圖5為數(shù)據(jù)處理前后對(duì)比。
圖5 圖像處理前后對(duì)比
為了便于訓(xùn)練,將像素進(jìn)行編碼,表2為本文訓(xùn)練所使用的像素類別索引。
表2 像素類別索引
深層網(wǎng)絡(luò)的訓(xùn)練通常需要大量數(shù)據(jù)進(jìn)行學(xué)習(xí),否則容易產(chǎn)生過擬合,但醫(yī)學(xué)圖像數(shù)據(jù)難以獲取,本文使用的公開數(shù)據(jù)集僅有917 張圖像,因此本文對(duì)現(xiàn)有數(shù)據(jù)集進(jìn)行旋轉(zhuǎn)、水平或垂直翻轉(zhuǎn)等仿射變換,將數(shù)據(jù)量擴(kuò)充至原來的六倍,使得模型具有更好的泛化能力。
為了對(duì)語義分割結(jié)果進(jìn)行評(píng)估,本文采用平均像素精度(mean pixel accuracy,MPA)與平均交并比(mean intersection over union,MIoU)作為評(píng)價(jià)指標(biāo),公式如下:
其中,假設(shè)共有k+1 個(gè)類別(0,1,…,k),pii表示類別為i的像素預(yù)測(cè)正確的數(shù)目,pij表示類別為i的像素被預(yù)測(cè)為j的數(shù)目,pji代表類別為j的像素被預(yù)測(cè)為i的數(shù)目。平均像素精度為每個(gè)類別中分類正確的像素總數(shù)與每個(gè)類別的像素總數(shù)之比的均值,平均交并比為每個(gè)類別真實(shí)標(biāo)簽與預(yù)測(cè)結(jié)果之間交集與并集像素?cái)?shù)量比值的均值,上述指標(biāo)在用于評(píng)價(jià)分割模型性能時(shí),值越大代表性能越好。
本文仿真實(shí)驗(yàn)平臺(tái)為Windows 10,處理器為Intel i3?8100 CPU,12 GB 內(nèi) 存,顯 卡 為NVIDIA GeForce RTX 2070,8 GB 顯存,在機(jī)器學(xué)習(xí)平臺(tái)Tensorflow 1.13.1 上進(jìn)行網(wǎng)絡(luò)訓(xùn)練,優(yōu)化方法采用的是Adam 優(yōu)化器(adaptive moment estimate optimizer),迭代次數(shù)為100 次,批量大小為4,初始學(xué)習(xí)率為0.001,數(shù)據(jù)集按照3∶1劃分為訓(xùn)練集和測(cè)試集,使用擴(kuò)充后的數(shù)據(jù)集進(jìn)行訓(xùn)練,輸入訓(xùn)練圖像為4126張。
圖6 對(duì)比了FCN、U?Net 以及本文模型的損失值情況,其中FCN 模型穩(wěn)定性差,U?Net模型收斂后的Loss 值比本文模型更大,本文模型收斂速度更快、更穩(wěn)定,其精確度有一定的提升。
圖6 三種模型訓(xùn)練過程中的Loss值對(duì)比
本文選擇了FCN[9]、U?Net[10]、Attention U?Net[17]、U?Net++[18]這幾種分割網(wǎng)絡(luò)與本文的改進(jìn)模型進(jìn)行對(duì)比,探究改進(jìn)模型的優(yōu)越性。表3展示了各個(gè)模型使用不同激活函數(shù)時(shí),在測(cè)試集中的精度指標(biāo)與完成整個(gè)測(cè)試集所用的時(shí)間。本組實(shí)驗(yàn)使用的是改進(jìn)的Focal?Dice 損失函數(shù)。從表3 結(jié)果可以看出,本文改進(jìn)的模型相比于FCN 和U?Net,精確度分別提高了34.2%和13.7%,這是因?yàn)镕CN 與U?Net 的特征提取與特征融合能力不足,無法有效利用編碼器提取到的特征。相比于另外兩種流行的U?Net改進(jìn)網(wǎng)絡(luò)也提升了3.1%和0.6%。本文模型在測(cè)試時(shí)間上,雖相較FCN 與U?Net 模型多出了21.2%和12.7%,但其精確度卻提高了34.1%和13.6%,具有更好的性能。
表3 多種模型分割指標(biāo)對(duì)比
另外,細(xì)胞核的特征中往往包含著更多可用信息[1],能將細(xì)胞核準(zhǔn)確地分割出來具有一定的意義。本文在細(xì)胞核的分割上與近年來一些相關(guān)研究進(jìn)行橫向比較(見表4),發(fā)現(xiàn)本文在細(xì)胞核這一類像素的分割上也提升了0.1%~1.5%。
表4 多種模型的細(xì)胞核分割指標(biāo)對(duì)比
本文改進(jìn)的損失函數(shù)中,權(quán)重因子的變化也會(huì)導(dǎo)致分割結(jié)果的變化,通過設(shè)置不同的權(quán)重因子來探究其對(duì)分割結(jié)果的影響。首先是類別權(quán)重,圖7展示了數(shù)據(jù)集中各個(gè)類別像素個(gè)數(shù)的均值,細(xì)胞核、細(xì)胞質(zhì)、背景的比值接近于1∶2∶3,所以本文將類別權(quán)重設(shè)置為w0∶w1∶w2=1∶2∶3。
圖7 數(shù)據(jù)集每個(gè)類別像素的平均數(shù)量
表5 展示了不同w與β值下本文模型的指標(biāo)。從結(jié)果來看,將w比值設(shè)置為1∶2∶3 時(shí),相比于均衡的權(quán)值,僅在β取0.25時(shí)精確度有所下降,β取0.5 與0.75 時(shí),精確度分別提升了0.1%和0.6%。當(dāng)β取0.5 時(shí)模型效果稍好,相比于另外兩個(gè)取值所對(duì)應(yīng)的精確度提升了0.1%和0.4%,所以本文將默認(rèn)設(shè)置β為0.5。
表5 不同w和β值對(duì)模型的影響
為探究不同損失函數(shù)對(duì)模型性能的影響,本文在不同模型分別使用交叉熵?fù)p失、Dice 損失、Focal 損失以及本文改進(jìn)的損失函數(shù)之間進(jìn)行對(duì)比試驗(yàn)。表6 展示了各個(gè)模型在不同損失函數(shù)下的分割效果,結(jié)果表明改進(jìn)的Focal?Dice 損失函數(shù)相比交叉熵?fù)p失精確率提升了0.5%~3.5%,相比Dice 損失精確率提升了0.2%~5.6%,相比Focal 損失精確率提升了0.4%~1.4%。由于本文數(shù)據(jù)集的類別不平衡,單一損失函數(shù)很難衡量訓(xùn)練時(shí)類別的重要性,當(dāng)訓(xùn)練細(xì)胞核這類數(shù)量較少的類別時(shí),很容易被其他類別所影響,改進(jìn)的損失函數(shù)針對(duì)這一點(diǎn)進(jìn)行優(yōu)化,使模型能夠更好地關(guān)注于類別少且難分類的像素點(diǎn)。
表6 不同損失函數(shù)對(duì)多種模型的影響
為了驗(yàn)證本文改進(jìn)方法的可行性,將三個(gè)改進(jìn)模塊進(jìn)行單獨(dú)實(shí)驗(yàn),探究每個(gè)模塊各自對(duì)模型性能的影響,在相同數(shù)據(jù)集上進(jìn)行相應(yīng)的消融實(shí)驗(yàn)。
表7 中第一行實(shí)驗(yàn)數(shù)據(jù)為原U?Net 模型下的分割精度,其效果達(dá)不到期望。第二行實(shí)驗(yàn)數(shù)據(jù)表明,在加入Inception?Res 模塊后,各項(xiàng)指標(biāo)分別提升了3.8%、11.6%和1.0%,結(jié)果優(yōu)于原模型,這表明該模塊對(duì)模型性能提升有所幫助。第三、四行實(shí)驗(yàn)數(shù)據(jù)中,分別再加上Leaky?ReLU 與Focal?Dice模塊,兩者使得模型的MPA分別提升了1.8%和2.3%,MIoU分別提升了1.3%和3.2%,由此證明了這兩個(gè)模塊對(duì)模型性能提升的有效性。
表7 不同模塊對(duì)網(wǎng)絡(luò)性能的影響
本文使用的所有網(wǎng)絡(luò)分割結(jié)果的可視化如圖8所示,結(jié)果表明,F(xiàn)CN模型由于特征提取與像素還原能力低,細(xì)胞邊緣細(xì)節(jié)刻畫效果不佳,細(xì)胞核尚未完全分割出來,整體效果非常粗糙,U?Net 模型存在同樣問題,雖然在細(xì)胞核分割上優(yōu)于FCN,但其邊緣細(xì)節(jié)仍然未劃分出來,受背景影響嚴(yán)重。Attention U?Net 與U?Net++模型在細(xì)胞核刻畫上效果與本文模型相差不大,但細(xì)胞質(zhì)邊緣區(qū)域分割效果仍然不佳。相比之下,本文的改進(jìn)模型能夠有效地分割出細(xì)胞核質(zhì)區(qū)域,對(duì)細(xì)胞主體的刻畫優(yōu)于其他幾種模型,具有較好的效果,分割能力明顯提升,且在樣本不均衡,即細(xì)胞區(qū)域較小時(shí)也能達(dá)到較好的分割效果。
圖8 各模型分割可視化結(jié)果
目前宮頸細(xì)胞分割領(lǐng)域存在一定的問題,本文在U?Net結(jié)構(gòu)的基礎(chǔ)上,結(jié)合了多尺度卷積與殘差連接的Inception 結(jié)構(gòu),加寬網(wǎng)絡(luò)的同時(shí)避免了梯度消失,并使用改進(jìn)的損失函數(shù)獲得了較好的分割效果。結(jié)果表明改進(jìn)的模型相比于目前常用模型均有精度提升,改進(jìn)的損失函數(shù)相比原始損失函數(shù)在對(duì)模型精度提升方面更為優(yōu)越,模型整體的分割結(jié)果與專業(yè)人員標(biāo)記接近,具有一定的現(xiàn)實(shí)意義。