【關(guān)鍵詞】自編碼卷積神經(jīng)網(wǎng)絡(luò);前列腺TRUS圖像;圖像分割;特征提??;醫(yī)學(xué)圖像處理
隨著醫(yī)療技術(shù)的不斷進(jìn)步,前列腺TRUS圖像已成為前列腺疾病診斷與治療的重要工具。經(jīng)直腸前列腺TRUS圖像因無創(chuàng)性、實時性和低成本等優(yōu)勢,在前列腺疾病檢查中廣泛應(yīng)用。然而,其解讀與分析常依賴醫(yī)生經(jīng)驗,主觀性強(qiáng)且存在誤差。因此,開發(fā)自動、準(zhǔn)確的前列腺TRUS圖像分割方法,對提升診斷精度、減輕醫(yī)生負(fù)擔(dān)至關(guān)重要。
但前列腺TRUS圖像分割面臨諸多挑戰(zhàn)。前列腺形態(tài)和大小個體差異大,且受周圍組織影響,使得分割任務(wù)復(fù)雜。此外,TRUS圖像存在噪聲.偽影和對比度低等問題,進(jìn)一步增加分割難度。前列腺疾病多樣,單一分割方法難以適應(yīng)所有情況,需開發(fā)泛化能力更強(qiáng)的算法。
目前,多種圖像分割方法已應(yīng)用于前列腺TRUS圖像。文獻(xiàn)[1]通過多期相CT數(shù)據(jù)融合增強(qiáng)器官表現(xiàn),精確分割多個器官,但高度依賴高質(zhì)量CT數(shù)據(jù)。文獻(xiàn)[2]研究基于U-net改進(jìn)的前列腺TRUS圖像分割方法,優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu),提高分割精度,但結(jié)構(gòu)復(fù)雜,可能導(dǎo)致訓(xùn)練時間長且需大數(shù)據(jù)集避免過擬合。
針對上述問題,本文提出基于自編碼卷積神經(jīng)網(wǎng)絡(luò)的前列腺TRUS圖像分割方法,旨在提高分割精度。
(一)前列腺TRUS圖像灰度均衡化處理
前列腺TRUS圖像的初始形態(tài)一般呈現(xiàn)為圓形,同時伴有一個較大且較為昏暗的背景區(qū)域。為了增強(qiáng)后續(xù)網(wǎng)絡(luò)訓(xùn)練的效果,同時提升最終圖像分割的精確度,本文對這些圖像進(jìn)行了灰度均衡化的預(yù)處理工作。
針對前列腺TRUS圖像,進(jìn)行了灰度均衡化處理。首先,對于每個灰度級別,計算圖像有效區(qū)域(ROI)內(nèi)的像素數(shù)量。根據(jù)ROI中的像素總數(shù)n,計算每個灰度級別在ROI中出現(xiàn)的概率?;谶@些概率值,計算好h(a)的累積分布函數(shù),其中f(a)=∑f,取值范圍從0到i。依據(jù)直方圖均衡化的公式(如方程(1)所示),對原圖像進(jìn)行了預(yù)處理,從而得到了灰度分布更加均衡的圖像。
針對前列腺TRUS圖像的灰度均衡化處理,使用上述公式進(jìn)行計算。其中,是原始圖像灰度值的上限,為固定的值,用于界定圖像中灰度級別的最大范圍。則為經(jīng)過灰度均衡化處理后,圖像所達(dá)到的新的灰度上限值。這一值的變化,直接反映了灰度均衡化對圖像對比度改善的效果。m為圖像中像素的總數(shù)。對于計算灰度級別的概率分布至關(guān)重要。f為累積分布函數(shù)的最小值,確?;叶燃墑e的重新分配不會使得圖像的某些細(xì)節(jié)丟失,從而保證了處理后圖像的完整性和準(zhǔn)確性。
(二)基于自編碼卷積神經(jīng)網(wǎng)絡(luò)的圖像特征展平
基于自編碼卷積神經(jīng)網(wǎng)絡(luò)的圖像特征提取,采用UNet模型的結(jié)構(gòu)。這一模型精心設(shè)計6個特征提取模塊和6個特征解碼模塊,確保圖像信息在提取和重構(gòu)的過程中得到充分地利用。在這些模塊之間,存在著巧妙的連接結(jié)構(gòu),使得圖像信息在傳遞過程中能夠保持連續(xù)性和完整性。
在特征提取過程中,每個模塊都會對輸入矩陣的大小和通道數(shù)進(jìn)行調(diào)整。每個特征提取模塊內(nèi)部都進(jìn)行卷積操作。添加一個新的卷積層,并在其上應(yīng)用3個卷積核進(jìn)行進(jìn)一步的特征提取。利用卷積操作捕捉圖像中的局部模式和結(jié)構(gòu)信息。
完成卷積操作后,通過另一個卷積層將兩個卷積層的輸出進(jìn)行整合,從而得到更加豐富和全面的特征表示。隨著特征提取模塊的逐層深入,獲得從低級到高級的不同層次的特征信息。表示從原始圖像中提取出了64種不同的特征,并輸出了768個通道的特征圖,特征圖包含了圖像中最為關(guān)鍵和抽象的信息。通過三個全連接層進(jìn)行進(jìn)一步的處理,并將矩陣變換器模塊中的矩陣V、Q與K做矩陣乘法:
在上述公式中,d為多頭自注意力中頭的數(shù)目,最終解碼模塊的輸出圖像特征由分割結(jié)果產(chǎn)生的類別確定。
(三)實現(xiàn)前列腺TRUS圖像分割
前列腺TRUS圖像分割流程如圖1所示。
數(shù)據(jù)輸入:開始時,將前列腺TRUS圖像作為輸入數(shù)據(jù)。
圖像預(yù)處理:對輸入的TRUS圖像進(jìn)行灰度化,將其轉(zhuǎn)換為灰度圖像。應(yīng)用灰度均衡化處理,以改善圖像的對比度,使圖像中的不同組織或結(jié)構(gòu)更加清晰可辨。
自編碼卷積神經(jīng)網(wǎng)絡(luò)模型:將預(yù)處理后的圖像輸入基于自編碼的卷積神經(jīng)網(wǎng)絡(luò)模型中。該模型由編碼器和解碼器兩部分組成。編碼器用于提取圖像的特征,解碼器用于根據(jù)這些特征重構(gòu)圖像。
特征提?。涸诰幋a器中,逐層提取圖像的特征。包括前列腺的形狀、邊界、紋理信息。
特征展平:在編碼器的最后階段,通常會有一個展平層(Flatten layer),將提取到的多維特征圖轉(zhuǎn)換為一維的特征向量。包含圖像中關(guān)鍵信息的壓縮表示,便于后續(xù)的分類或分割任務(wù)。
解碼與重構(gòu):解碼器根據(jù)展平后的特征向量,通過反卷積等操作,嘗試重構(gòu)出原始的圖像。有助于模型更好地理解和學(xué)習(xí)圖像中的結(jié)構(gòu)和特征。
圖像分割:在解碼器的輸出端,可以添加一個分割層(如全卷積層),用于對圖像進(jìn)行像素級別的分類或分割。
通過這個分割層,可以區(qū)分出前列腺區(qū)域和其他組織區(qū)域。
結(jié)果輸出:輸出分割后的前列腺TRUS圖像,其中前列腺區(qū)域被清晰地標(biāo)記出來。前列腺TRUS圖像分割結(jié)果如圖2所示。
為了驗證基于自編碼卷積神經(jīng)網(wǎng)絡(luò)的前列腺TRUS圖像分割方法的有效性,進(jìn)行了對比實驗,設(shè)置文獻(xiàn)[1]和文獻(xiàn)[2]方法為對照組,對三種方法實驗結(jié)果進(jìn)行對比。
(一)實驗準(zhǔn)備
在基于自編碼卷積神經(jīng)網(wǎng)絡(luò)的前列腺TRUS圖像分割方法對比實驗中,采用一組TRUS圖像數(shù)據(jù)集來驗證不同網(wǎng)絡(luò)結(jié)構(gòu)的性能。此次實驗共收集了6820張前列腺TRUS圖像,按照8:2的比例進(jìn)行劃分,其中5456張圖像作為訓(xùn)練集,剩余的1364張圖像作為測試集。為每張圖像準(zhǔn)備相應(yīng)的專家標(biāo)注圖像,以用于后續(xù)的分割性能評估。
考慮到前列腺TRUS圖像的特點,即前列腺的形態(tài)、大小以及位置在圖像中可能存在一定的變化,采用數(shù)據(jù)增強(qiáng)技術(shù)來豐富訓(xùn)練樣本的多樣性。除了水平、垂直翻轉(zhuǎn)外,增加旋轉(zhuǎn)、裁剪以及亮度、對比度調(diào)整。提升模型對圖像變化的魯棒性。
本次實驗環(huán)境配置編程語言為Python 3.8,所有程序均在Python環(huán)境中運行。為了確保實驗結(jié)果的公正性和可比性,所有對比實驗的配置均保持一致。
在網(wǎng)絡(luò)參數(shù)設(shè)置方面,調(diào)整輸入圖像的大小為512×512像素,以提供更豐富的細(xì)節(jié)信息給網(wǎng)絡(luò)。迭代次數(shù)(即訓(xùn)練輪數(shù))設(shè)定為150次,以增加模型對數(shù)據(jù)的擬合程度。同時,Batch_size(即每批次處理的樣本數(shù))設(shè)置為16,以加速訓(xùn)練過程并減少訓(xùn)練時間。初始學(xué)習(xí)率(即模型訓(xùn)練初期的步長)設(shè)置為0.001,以在訓(xùn)練初期給予模型較大的更新幅度。
實驗過程中,分別對文獻(xiàn)方法[1](傳統(tǒng)方法1)文獻(xiàn)方法[2](傳統(tǒng)方法2)和本文方法進(jìn)行訓(xùn)練,并在相同的測試集上進(jìn)行性能評估。通過對比不同模型在前列腺TRUS圖像分割任務(wù)上的召回率指標(biāo),分析不同方法的分割效果。
本實驗使用召回率作為前列腺TRUS圖像分割方法的評估指標(biāo),評價指標(biāo)的具體定義如下:
其中,TP為被正確分割的像素個數(shù),稱為真陽性,F(xiàn)N為被錯誤分割為背景區(qū)域的像素個數(shù),稱為假陰性。
表1顯示了三種分割方法召回率結(jié)果。
(二)對比實驗
從實驗結(jié)果可以看出,本文設(shè)計方法在召回率上表現(xiàn)最好,平均達(dá)到了92.4%。實驗結(jié)果表明本文能夠更準(zhǔn)確地識別并分割出前列腺區(qū)域,減少了將前列腺像素錯誤分割為背景區(qū)域的情況。
本文詳細(xì)介紹了基于自編碼卷積神經(jīng)網(wǎng)絡(luò)的前列腺TRUS圖像分割方法,旨在提高前列腺疾病的診斷精度和效率。通過引入自編碼器的結(jié)構(gòu),實現(xiàn)對前列腺TRUS圖像特征的自動提取和編碼,從而提升了分割算法的泛化能力。優(yōu)化后的網(wǎng)絡(luò)結(jié)構(gòu)和損失函數(shù)使得算法在處理圖像的細(xì)節(jié)和邊緣信息時更為出色,進(jìn)一步提高了分割的精度。