亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于U-Net++的舌圖像分割與優(yōu)化方法研究

        2025-04-20 00:00:00廖哲皓劉憶寧
        無線互聯(lián)科技 2025年6期
        關(guān)鍵詞:模型

        摘要:文章研究了一種基于U-Net++模型的舌圖像分割方法,采用一種加權(quán)交叉熵?fù)p失函數(shù)來提升圖像分割效果。在實(shí)驗(yàn)階段,使用開源的舌圖像數(shù)據(jù)集對方法進(jìn)行測試。為了評估模型的綜合性能,采用交并比和Dice系數(shù)作為評價指標(biāo)。結(jié)果表明,采用加權(quán)交叉熵?fù)p失函數(shù)的模型在分割精度上有顯著提升,尤其是在交并比和Dice系數(shù)2個指標(biāo)上優(yōu)于傳統(tǒng)方法。該結(jié)果驗(yàn)證了加權(quán)交叉熵?fù)p失函數(shù)在舌圖像分割任務(wù)中的有效性。

        關(guān)鍵詞:U-Net++模型;舌圖像;圖像分割;損失函數(shù);加權(quán)優(yōu)化

        中圖分類號:TP181 文獻(xiàn)標(biāo)志碼:A

        0 引言

        在醫(yī)學(xué)影像處理領(lǐng)域,舌圖像的自動化分割與分析已成為一個重要研究方向[1-2]。舌頭的形態(tài)特征能夠反映許多潛在疾?。?-4]。因此,舌圖像的精準(zhǔn)分割對臨床診斷具有重要意義。然而,舌圖像通常具有背景復(fù)雜、舌頭形狀不規(guī)則和表面紋理變化大等特點(diǎn),使得傳統(tǒng)的圖像分割方法難以取得較好的效果。因此,如何提高舌圖像分割的精度和魯棒性成為當(dāng)前研究的一個重要課題。

        近年來,深度學(xué)習(xí)技術(shù)中的卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)在醫(yī)學(xué)影像分析中的研究取得了顯著進(jìn)展[5]。U-Net作為一種典型的卷積神經(jīng)網(wǎng)絡(luò)架構(gòu),也已被廣泛應(yīng)用于醫(yī)學(xué)圖像的分割任務(wù)中[6]。U-Net++是U-Net的一個改進(jìn)版本,通過引入密集跳躍連接和深度監(jiān)督機(jī)制來進(jìn)一步提高圖像分割的準(zhǔn)確性與穩(wěn)定性[7-8]。然而,盡管U-Net++在眾多醫(yī)學(xué)圖像分割任務(wù)中取得了良好進(jìn)展,但該模型在舌圖像分割中的表現(xiàn)仍有待進(jìn)一步提高,特別是在復(fù)雜背景下和細(xì)節(jié)捕捉方面。

        為了進(jìn)一步提升U-Net++在舌圖像分割中的性能,本文提出了一種基于加權(quán)交叉熵?fù)p失函數(shù)的優(yōu)化方法。首先對U-Net++的基本結(jié)構(gòu)與原理進(jìn)行了深入研究,接著探討了基于加權(quán)交叉熵?fù)p失函數(shù)的優(yōu)化策略,通過在開源舌圖像數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),驗(yàn)證該方法的有效性。實(shí)驗(yàn)結(jié)果表明,所提出的優(yōu)化方法相比傳統(tǒng)的交叉熵?fù)p失函數(shù)在舌圖像分割任務(wù)表現(xiàn)出更加優(yōu)越的性能。本研究不僅為舌圖像的自動分割提供了一種新思路,也為其他醫(yī)學(xué)圖像分割任務(wù)的優(yōu)化提供了理論參考。

        1 基于U-Net++的圖像分割方法

        U-Net++是一種可以用于圖像分割的深度學(xué)習(xí)模型,該模型通過跳躍連接與深度監(jiān)督機(jī)制來提升分割效果。模型的基本結(jié)構(gòu)如圖 1 所示,包含了多層次的卷積操作、上采樣和下采樣過程,通過多級跳躍連接將不同層次的特征圖進(jìn)行融合,從而提高圖像分割任務(wù)的精度和魯棒性。

        2 基于加權(quán)交叉熵?fù)p失函數(shù)的優(yōu)化方法

        在該U-Net++模型中,常用損失函數(shù)為標(biāo)準(zhǔn)的交叉熵?fù)p失函數(shù)[9-10],用來衡量模型輸出的分割結(jié)果與真實(shí)標(biāo)簽之間的差異。然而,傳統(tǒng)的交叉熵?fù)p失函數(shù)未能充分考慮類別不平衡問題,導(dǎo)致模型在訓(xùn)練過程中可能忽視少數(shù)類別的樣本從而影響分割效果。為了克服這一局限性,本文提出了基于加權(quán)交叉熵(Weighted Cross-Entropy,WCE)損失函數(shù)的優(yōu)化方法。該方法通過為每個類別分配不同的權(quán)重來使模型更加關(guān)注那些在訓(xùn)練過程中較難識別的類別,尤其是當(dāng)某一類別樣本數(shù)量較少時,通過賦予其更高的權(quán)重來提升分割精度。

        這種方法假設(shè)類別出現(xiàn)頻率越低,權(quán)重應(yīng)越大,從而增加低頻類別的損失貢獻(xiàn),以促使模型在訓(xùn)練時更加關(guān)注這些類別。通常,可以對所有類別的權(quán)重進(jìn)行歸一化處理,使得總權(quán)重不受數(shù)據(jù)規(guī)模的影響。

        通過引入加權(quán)交叉熵?fù)p失函數(shù),U-Net++能有效地提高模型對少數(shù)類別的分割精度,特別是在數(shù)據(jù)集存在較大類別不平衡的情況下。該方法不僅能提高分割精度,還能減少模型在訓(xùn)練過程中對大類別的偏好,從而提升模型的整體性能。

        3 實(shí)驗(yàn)與分析

        3.1 數(shù)據(jù)集與實(shí)驗(yàn)環(huán)境

        實(shí)驗(yàn)中,采用舌圖像數(shù)據(jù)集對本文所提出的方法進(jìn)行測試,該數(shù)據(jù)集包含300張576×768像素的舌圖像。為了確保實(shí)驗(yàn)結(jié)果的準(zhǔn)確性,數(shù)據(jù)集中的每張圖像均配有人工標(biāo)注的分割結(jié)果,用來作為真實(shí)標(biāo)簽用于模型訓(xùn)練與評估。該數(shù)據(jù)集的廣泛使用以及高質(zhì)量的標(biāo)注,使其成為圖像分割領(lǐng)域的一個重要參考,特別是在舌圖像分割任務(wù)中。

        在實(shí)驗(yàn)過程中,本文使用該數(shù)據(jù)集的舌圖像進(jìn)行訓(xùn)練和測試,以進(jìn)一步評估加權(quán)交叉熵?fù)p失函數(shù)和U-Net++模型的分割性能。本實(shí)驗(yàn)環(huán)境以Python為基礎(chǔ),實(shí)驗(yàn)開發(fā)環(huán)境如表1所示。

        3.2 實(shí)驗(yàn)方法與結(jié)果

        在上述數(shù)據(jù)集和開發(fā)環(huán)境下,基于U-Net++模型進(jìn)行舌圖像的分割測試,實(shí)驗(yàn)方案如下。

        (1)數(shù)據(jù)集準(zhǔn)備與預(yù)處理:對原始圖像進(jìn)行標(biāo)準(zhǔn)化,將像素值縮放到[0, 1]范圍內(nèi)以提高模型訓(xùn)練的穩(wěn)定性。同時,將標(biāo)簽圖像標(biāo)準(zhǔn)化為[0, 1],其中0表示背景,1表示舌頭區(qū)域。為了增強(qiáng)模型的泛化能力,對圖像進(jìn)行數(shù)據(jù)增強(qiáng),包括旋轉(zhuǎn)(-10°~10°)、水平翻轉(zhuǎn)、垂直翻轉(zhuǎn)、平移等操作。數(shù)據(jù)增強(qiáng)能夠幫助模型更好地應(yīng)對現(xiàn)實(shí)中的變化,如舌圖像的不同角度、大小等。

        (2)模型構(gòu)建:實(shí)驗(yàn)采用U-Net++架構(gòu)進(jìn)行舌圖像分割,圖像輸入尺寸為576×768,U-Net++編碼器部分采用4個卷積層逐漸提取特征,解碼器部分則通過反卷積逐步恢復(fù)圖像。

        (3)模型訓(xùn)練:訓(xùn)練輪次為100次,批量大小設(shè)定為16批,這一設(shè)置在保證計(jì)算效率的同時,可以有效避免過擬合。

        在測試階段,圖像的分割效果如圖2所示,其中,圖2(a)和圖2(c)為2個原始圖像,圖2(b)和圖2(d)分別為對應(yīng)的圖像分割效果??梢钥闯?,本文方法可以很好地分割出舌頭的區(qū)域(圖2(b)和圖2(d)中的白色區(qū)域)。

        為了對比加權(quán)交叉熵?fù)p失函數(shù)(本文方法)和傳統(tǒng)的交叉熵?fù)p失函數(shù)(傳統(tǒng)方法)的效果,本文將測試集隨機(jī)分為4組,采用交并比(Intersection Over Union,IoU)和Dice系數(shù)對U-Net++模型的分割效果進(jìn)行評估[11],實(shí)驗(yàn)結(jié)果對比如表2所示。

        從表1可知,使用加權(quán)交叉熵?fù)p失函數(shù)的U-Net++模型,在4組實(shí)驗(yàn)中的IoU值,普遍高于使用傳統(tǒng)交叉熵?fù)p失函數(shù)的模型。例如,在組1中,IoU值從0.799提升到0.842,表明加權(quán)交叉熵?fù)p失函數(shù)顯著提高了模型分割的重疊區(qū)域比例。在其他組別中,加權(quán)交叉熵?fù)p失函數(shù)同樣表現(xiàn)出較為穩(wěn)定的優(yōu)勢,尤其在組3中,IoU值達(dá)到0.853,相較于傳統(tǒng)方法的0.791,有了顯著提升。其次,Dice系數(shù)的結(jié)果與IoU指標(biāo)類似,進(jìn)一步驗(yàn)證了加權(quán)交叉熵?fù)p失函數(shù)的有效性。在組1中,Dice系數(shù)從0.886提升至0.912,組2從0.873提升至0.908,組3從0.880提升至0.920,組4從0.869提升至0.910??梢钥吹剑捎眉訖?quán)交叉熵?fù)p失函數(shù)的模型在Dice系數(shù)上,表現(xiàn)出更高的相似度和更好的分割效果。

        總體來看,加權(quán)交叉熵?fù)p失函數(shù)相較于傳統(tǒng)交叉熵?fù)p失函數(shù),在舌圖像分割任務(wù)中表現(xiàn)出更加優(yōu)越的性能。這進(jìn)一步表明,本方法在解決舌圖像分割中的挑戰(zhàn)方面具有實(shí)際應(yīng)用價值。

        4 結(jié)語

        本文結(jié)合加權(quán)交叉熵?fù)p失函數(shù),研究了基于U-Net++的舌圖像分割方法,有效解決了傳統(tǒng)分割方法在舌圖像處理中遇到的類別不平衡問題。通過改進(jìn)損失函數(shù),本模型不僅提升了對舌頭區(qū)域的識別精度,還增強(qiáng)了分割結(jié)果的細(xì)節(jié)保留能力。實(shí)驗(yàn)結(jié)果表明,在不同的隨機(jī)分組中,采用加權(quán)交叉熵?fù)p失函數(shù)的模型,在IoU和Dice系數(shù)2項(xiàng)評價指標(biāo)上,均優(yōu)于傳統(tǒng)交叉熵?fù)p失函數(shù),充分驗(yàn)證了該方法在舌圖像分割任務(wù)中的有效性。本文的理論和實(shí)驗(yàn)均體現(xiàn)了加權(quán)交叉熵?fù)p失函數(shù)在實(shí)際應(yīng)用中的優(yōu)勢,尤其適用于處理具有顯著類別不平衡的圖像分割任務(wù)。未來的研究,可進(jìn)一步探索改進(jìn)模型架構(gòu)或結(jié)合其他優(yōu)化方法,以進(jìn)一步提升舌圖像分割的精度和效率。

        參考文獻(xiàn)

        [1]文武,楊清鈞,李杰.面向舌圖像分割的高分辨率網(wǎng)絡(luò)設(shè)計(jì)[J].微電子學(xué)與計(jì)算機(jī),2023(7):65-72.

        [2]彭開來.基于深度學(xué)習(xí)的齒痕舌圖像分割方法[D].杭州:杭州電子科技大學(xué),2022.

        [3]蔣依吾,陳建仲,張恒鴻,等.電腦化中醫(yī)舌診系統(tǒng)[J].中國中西醫(yī)結(jié)合雜志,2000(2):66-68,80.

        [4]朱梟龍.基于中醫(yī)舌象的胃癌深度學(xué)習(xí)預(yù)測方法研究[D].太原:中北大學(xué),2023.

        [5]吳玉超,林嵐,王婧璇,等.基于卷積神經(jīng)網(wǎng)絡(luò)的語義分割在醫(yī)學(xué)圖像中的應(yīng)用[J].生物醫(yī)學(xué)工程學(xué)雜志,2020(3):533-540.

        [6]張歡,仇大偉,馮毅博,等.U-Net模型改進(jìn)及其在醫(yī)學(xué)圖像分割上的研究綜述[J].激光與光電子學(xué)進(jìn)展,2022(2):1-17.

        [7]MORTAZAVI-ZADEH S A,AMINI A,SOLTANIAN-ZADEH H. Brain tumor segmentation using U-net and U-net++ networks[C]//2022 30th International Conference on Electrical Engineering(ICEE), May 17-19,2022,Sangmyung University. New York: IEEE,2022:841-845.

        [8]黃鴻,呂容飛,陶俊利,等.基于改進(jìn)U-Net++的CT影像肺結(jié)節(jié)分割算法[J].光子學(xué)報(bào),2021(2):73-83.

        [9]任進(jìn)軍,王寧.人工神經(jīng)網(wǎng)絡(luò)中損失函數(shù)的研究[J].甘肅高師學(xué)報(bào),2018(2):61-63.

        [10]楊蓮,石寶峰.基于Focal Loss修正交叉熵?fù)p失函數(shù)的信用風(fēng)險(xiǎn)評價模型及實(shí)證[J].中國管理科學(xué),2022(5):65-75.

        [11]于營,王春平,付強(qiáng),等.語義分割評價指標(biāo)和評價方法綜述[J].計(jì)算機(jī)工程與應(yīng)用,2023(6):57-69.

        (編輯 沈 強(qiáng)編輯)

        Research on tongue image segmentation and optimization method based on U-Net++

        LIAO "Zhehao LIU "Yining

        (1.Guilin University of Electronic Technology, Guilin 541004,China;

        2.Wenzhou University of Technology, Wenzhou 325027, China)

        Abstract: "The article investigates a tongue image segmentation method based on the U-Net++ model and utilizes a weighted cross-entropy loss function to improve segmentation performance. During the experimental phase, the method is tested using an open-source tongue image dataset. To evaluate the overall performance of the model, the Intersection Over Union (IoU) and Dice coefficient are used as evaluation metrics. The results indicate that the model using the weighted cross-entropy loss function shows significant improvement in segmentation accuracy, especially outperforming traditional methods in both IoU and Dice coefficient. This result confirms the effectiveness of the weighted cross-entropy loss function in the tongue image segmentation task.

        Key words: U-Net++ model; tongue images; image segmentation; loss function; weighted optimization

        猜你喜歡
        模型
        一半模型
        一種去中心化的域名服務(wù)本地化模型
        適用于BDS-3 PPP的隨機(jī)模型
        提煉模型 突破難點(diǎn)
        函數(shù)模型及應(yīng)用
        p150Glued在帕金森病模型中的表達(dá)及分布
        函數(shù)模型及應(yīng)用
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        3D打印中的模型分割與打包
        亚洲女同精品久久女同| 日本人妻高清免费v片| 亚洲国产精品国自产拍性色| 婷婷色香五月综合缴缴情| 欧美两根一起进3p做受视频| 97精品依人久久久大香线蕉97| 在线视频一区二区日韩国产| 国产精品三级国产精品高| 久久精品亚洲熟女av蜜謦| 人妻 色综合网站| 成人国产午夜在线视频| 无码精品一区二区免费AV| 国产亚洲欧美日韩国产片| 国产精品人人爱一区二区白浆| 国产自拍精品在线免费观看| 国产超碰人人做人人爽av大片 | 在线看不卡的国产视频| 久久久精品人妻一区二区三区妖精 | 久久久久无码中文字幕| 中文字幕女同人妖熟女| 99精品国产丝袜在线拍国语| 粉嫩少妇内射浓精videos| 蜜桃成人永久免费av大| 五月婷婷六月丁香久久综合| 精品国产拍国产天天人| 狠狠色噜噜狠狠狠97影音先锋| 亚洲国产AⅤ精品一区二区不卡| 男人天堂亚洲一区二区| 后入到高潮免费观看| 欧美精品中文字幕亚洲专区| 日韩精品网| 蜜桃网站入口可看18禁| 国产无夜激无码av毛片| 粉嫩少妇内射浓精videos| 精品视频一区二区杨幂| 精品人妻少妇av中文字幕| 欧美 变态 另类 人妖| 妺妺窝人体色www聚色窝| 亚洲中文字幕第15页| 国产精品久久久久9999小说| 亚洲一区二区观看播放|