岳根霞
(山西醫(yī)科大學(xué)汾陽(yáng)學(xué)院,山西 汾陽(yáng) 032200)
通過(guò)單一成像設(shè)備對(duì)病變信息進(jìn)行獲取往往無(wú)法為醫(yī)生提供充足的病理信息,此時(shí)需要用多種成像設(shè)備對(duì)病人的同一病變部位進(jìn)行多次成像,并對(duì)通過(guò)多種成像設(shè)備得到的圖像進(jìn)行融合以及比較分析,才能獲取更加全面的病變部位相關(guān)信息,從而幫助醫(yī)生對(duì)疾病進(jìn)行更加準(zhǔn)確的判斷并提出更具針對(duì)性的治療方案。而圖像采集技術(shù)在醫(yī)學(xué)界的應(yīng)用與普及,使醫(yī)學(xué)治療領(lǐng)域與臨床診斷領(lǐng)域出現(xiàn)了多種醫(yī)學(xué)成像設(shè)備,為醫(yī)生對(duì)疾病的診斷提供了不同特性的多種醫(yī)學(xué)圖像,這些圖像通常來(lái)源于各種成像設(shè)備,因此具備多模態(tài)的特征,能夠?yàn)獒t(yī)生對(duì)疾病的診斷提供決定性的關(guān)鍵信息,這些圖像被統(tǒng)一稱為多模態(tài)病變圖像[1]。
當(dāng)前多模態(tài)病變圖像的獲取方式有基于剛體模型的多模態(tài)病變圖像、基于圖像灰度的多模態(tài)病變圖像、基于圖像特征點(diǎn)的多模態(tài)病變圖像[2]。其中基于剛體模型的多模態(tài)病變圖像主要是結(jié)合最近鄰點(diǎn)迭代法、斜面匹配法與頭帽法對(duì)病變圖像進(jìn)行獲取,并利用初步獲取的病變圖像建立頭表面模型,利用搜索算法對(duì)頭表面模型的空間變換參數(shù)進(jìn)行獲取,從而得到病變圖像的多模態(tài)特征;基于圖像灰度的多模態(tài)病變圖像主要是結(jié)合多項(xiàng)式函數(shù)、基函數(shù)等變換函數(shù)對(duì)圖像進(jìn)行空間變換,并通過(guò)空間變換對(duì)其它圖像中的同一部位或器官進(jìn)行擬合,從而實(shí)現(xiàn)病變圖像多模態(tài)特征的獲取;基于圖像特征點(diǎn)的多模態(tài)病變圖像主要是通過(guò)圖像的外部特征點(diǎn)與內(nèi)部特征點(diǎn)對(duì)多幅圖像的重要拐角、曲面、曲線等對(duì)應(yīng)特征進(jìn)行匹配,并通過(guò)對(duì)應(yīng)特征的匹配度對(duì)圖像的幾何變換方式進(jìn)行決定,從而獲取病變圖像的多模態(tài)特征[3]。這幾種傳統(tǒng)多模態(tài)病變圖像的獲取方法都有一個(gè)共同的問(wèn)題,即圖像挖掘誤差較大,因此提出一種基于遺傳算法的多模態(tài)病變圖像,通過(guò)實(shí)驗(yàn)驗(yàn)證了該多模態(tài)病變圖像的圖像挖掘誤差小于傳統(tǒng)多模態(tài)病變圖像的獲取方法。
首先獲取病變圖像Shannon 信息熵中條件熵與聯(lián)合熵的關(guān)系,接著根據(jù)病變圖像Shannon 信息熵關(guān)系對(duì)病變圖像的互信息進(jìn)行歸一化處理[4]。根據(jù)Shannon 信息熵的定義,對(duì)病變圖像中隨機(jī)特征變量的熵進(jìn)行定義,如式(1)所示,其中隨機(jī)特征變量中包含的事件集合為{x1,x2,…,xn}。
(1)
其中,H(X)代表隨機(jī)特征變量的熵;X代表隨機(jī)特征變量;p(xi)代表事件xi發(fā)生的概率[5]。假設(shè)病變圖像中兩個(gè)隨機(jī)特征變量分別為Y與Z,并且Y與Z的取值范圍分別是{y1,y2,…,yn}與{z1,z2,…,zn},則Y與Z的概率條件分布密度分別為{p(yi|zj)|i=1,2,…,n,j=1,2,…,n}與{p(zj|yi)|j=1,2,…,n,i=1,2,…,n},這兩個(gè)隨機(jī)特征變量的序偶隨機(jī)量可以用(Y,Z)來(lái)表示,取值范圍是{(yi|zj)|i=1,2,…,n,j=1,2,…,n},這兩個(gè)隨機(jī)特征變量序偶隨機(jī)量的概率聯(lián)合分布密度是{p(yi,zj)|i=1,2,…,n,j=1,2,…,n},則這兩個(gè)隨機(jī)特征變量的聯(lián)合熵可以用式(2)來(lái)表示
(2)
其中,H(Y,Z)指的是兩個(gè)隨機(jī)特征變量的聯(lián)合熵,代表的是序偶隨機(jī)量(Y,Z)的不確定性或隨機(jī)性。
接著對(duì)兩個(gè)隨機(jī)特征變量Y與Z的條件熵進(jìn)行定義,如式(3)和式(4)
(3)
(4)
其中,H(Y|Z)與H(Z|Y)分別代表兩個(gè)隨機(jī)特征變量Y與Z的條件熵,通過(guò)條件熵可以在確定一個(gè)已知隨機(jī)特征變量時(shí),對(duì)另一個(gè)隨機(jī)特征變量的不確定性進(jìn)行度量。經(jīng)過(guò)計(jì)算得到兩個(gè)隨機(jī)特征變量條件熵與聯(lián)合熵的關(guān)系
H(Y,Z)=H(Y)+H(Z|Y)=H(Z)+H(Y|Z)
(5)
當(dāng)兩個(gè)隨機(jī)特征變量Y與Z處于獨(dú)立狀態(tài)時(shí),則它們的條件熵與聯(lián)合熵的關(guān)系如下
H(Y,Z)=H(Y)+H(Y)
(6)
H(Z|Y)=H(Z)
(7)
H(Y|Z)=H(Y)
(8)
根據(jù)隨機(jī)特征變量中條件熵與聯(lián)合熵的關(guān)系對(duì)病變圖像的互信息進(jìn)行歸一化處理,利用H(Y)與H(Z)表示兩個(gè)隨機(jī)特征變量Y與Z的熵,則其互信息的定義如下
(9)
利用熵的形式對(duì)互信息進(jìn)行描述
I(Y,Z)=H(Y)+H(Z)-H(Y,Z)
(10)
進(jìn)一步用條件熵與聯(lián)合熵對(duì)互信息進(jìn)行描述
I(Y,Z)=I(Y,Z)-H(Y|Z)=H(Z)-H(Z|Y)
(11)
由于隨機(jī)特征變量具備以上性質(zhì),因此必須對(duì)其進(jìn)行歸一化處理,處理方式如下
(12)
在完成病變圖像互信息的歸一化處理后,基于遺傳算法對(duì)病變圖像互信息的最優(yōu)解即病變圖像的最優(yōu)模態(tài)進(jìn)行搜索[6]。首先確定病變圖像互信息的編碼方式:對(duì)圖像x軸方向的平移距離tx、y軸方向的平移距離ty、旋轉(zhuǎn)角α這3個(gè)參數(shù)進(jìn)行實(shí)數(shù)編碼,對(duì)剩余參數(shù)采取二進(jìn)制編碼方式,編碼中的各個(gè)數(shù)字都代表病變圖像的一個(gè)模態(tài)[7]。
接著對(duì)適應(yīng)度函數(shù)進(jìn)行確定,首先獲取每個(gè)病變圖像模態(tài)的適應(yīng)值:對(duì)實(shí)際待優(yōu)化模態(tài)的目標(biāo)函數(shù)進(jìn)行轉(zhuǎn)換以獲取模態(tài)適應(yīng)值。利用病變圖像互信息對(duì)適應(yīng)度函數(shù)進(jìn)行描述:在T這一變換下,最優(yōu)模態(tài)搜索函數(shù)為:
(13)
并通過(guò)模態(tài)適應(yīng)值對(duì)遺傳算法的參數(shù)進(jìn)行確定:包括算法最大執(zhí)行代數(shù)N、種群數(shù)目P,準(zhǔn)確選擇算法參數(shù)可以提高最優(yōu)模態(tài)搜索效率,并減少程序運(yùn)行時(shí)間,通常最大執(zhí)行代數(shù)N與算法收斂速度直接相關(guān),而種群數(shù)目P在10到160之間取值[8]。利用實(shí)驗(yàn)法對(duì)最大執(zhí)行代數(shù)N、種群數(shù)目P的取值進(jìn)行確定:測(cè)試不同的取值組合,所獲得的參數(shù)列表如表1所示。
表1 不同取值組合下的參數(shù)列表
根據(jù)表2的實(shí)驗(yàn)結(jié)果并考慮遺傳算法自身的穩(wěn)定性,P與N的取值分別為41,40。最后需要對(duì)遺傳算法的運(yùn)行停止條件進(jìn)行確定,即當(dāng)遺傳算法到達(dá)最大執(zhí)行代數(shù)后停止搜索,則算法達(dá)到最大執(zhí)行代數(shù)后,病變圖像的最優(yōu)模態(tài)就是種群中的最優(yōu)個(gè)體[9]。完成遺傳算法的準(zhǔn)備工作后,對(duì)算法進(jìn)行執(zhí)行,其具體執(zhí)行步驟如圖1所示。
圖1 算法具體執(zhí)行步驟
完成最優(yōu)模態(tài)搜索后,建立最優(yōu)模態(tài)獲取模型以獲取多種成像設(shè)備病變圖像的最優(yōu)模態(tài),從而進(jìn)行多模態(tài)病變圖像的合成,實(shí)現(xiàn)多模態(tài)病變圖像的獲取。最優(yōu)模態(tài)獲取模型主要以SegNet和DeconvNet 為基礎(chǔ),通過(guò)病變圖像模態(tài)數(shù)據(jù),以特定多路網(wǎng)絡(luò)分割復(fù)合訓(xùn)練的方式,在最優(yōu)模態(tài)搜索訓(xùn)練中引入反卷積網(wǎng)絡(luò)模型,通過(guò)最優(yōu)模態(tài)搜索訓(xùn)練實(shí)現(xiàn)對(duì)多種成像設(shè)備所獲取病變圖像的最優(yōu)模態(tài)獲取。最優(yōu)模態(tài)獲取模型的結(jié)構(gòu)如圖2所示。
圖2 最優(yōu)模態(tài)獲取模型結(jié)構(gòu)
如圖2所示,最優(yōu)模態(tài)搜索訓(xùn)練中包括兩個(gè)訓(xùn)練部分:卷積訓(xùn)練部分與反卷積訓(xùn)練部分,其中卷積訓(xùn)練部分是對(duì)模態(tài)進(jìn)行編碼,反卷積訓(xùn)練部分是對(duì)最優(yōu)模態(tài)進(jìn)行解碼,編碼與解碼均通過(guò)反卷積網(wǎng)絡(luò)模型來(lái)進(jìn)行。在最優(yōu)模態(tài)搜索訓(xùn)練中,可以將卷積網(wǎng)絡(luò)視為一種特征提取器,其主要作用是在成像設(shè)備病變圖像中對(duì)模態(tài)的特征描述進(jìn)行提取,而反卷積網(wǎng)絡(luò)可以視為一種形狀生成器,其主要作用是通過(guò)模態(tài)的特征描述對(duì)最優(yōu)模態(tài)進(jìn)行提取,最后利用 softmax 網(wǎng)絡(luò)進(jìn)行最優(yōu)模態(tài)提取結(jié)果的生成。卷積網(wǎng)絡(luò)中包含的卷積層數(shù)量共13個(gè),通過(guò)池化層與激活層能夠連接這些卷積層,除此之外,卷積網(wǎng)絡(luò)還包括兩個(gè)全連接層,這兩個(gè)全連接層能夠?qū)μ囟愑成淦鸬郊訌?qiáng)作用,卷積網(wǎng)絡(luò)主要通過(guò)池化操作實(shí)現(xiàn)模態(tài)特征描述的提取。而反卷積網(wǎng)絡(luò)是一種卷積網(wǎng)絡(luò)的鏡像結(jié)構(gòu),通過(guò)反池化操作來(lái)實(shí)現(xiàn)最優(yōu)模態(tài)的提取。
獲取多種成像設(shè)備病變圖像的最優(yōu)模態(tài)后,對(duì)多模態(tài)病變圖像進(jìn)行合成:對(duì)多種成像設(shè)備病變圖像中的多個(gè)最優(yōu)模態(tài)進(jìn)行整合,引入深度神經(jīng)網(wǎng)絡(luò)對(duì)模態(tài)整合結(jié)果進(jìn)行訓(xùn)練,從而獲得最優(yōu)模態(tài)整合結(jié)果,實(shí)現(xiàn)多模態(tài)病變圖像的合成。綜上所述,通過(guò)病變圖像互信息歸一化、最優(yōu)模態(tài)搜索建立最優(yōu)模態(tài)獲取模型從而實(shí)現(xiàn)了基于遺傳算法的多模態(tài)病變圖像合成。
為了檢測(cè)本文提出的基于遺傳算法的多模態(tài)病變圖像,基于Matlab Web平臺(tái)進(jìn)行仿真。
以Matlab Web為實(shí)驗(yàn)平臺(tái)編寫vc模型仿真程序?qū)ψ顑?yōu)模態(tài)獲取模型進(jìn)行仿真,通過(guò)MIDMES 系統(tǒng),系統(tǒng)主界面由萊單、工具欄、狀態(tài)欄和多窗口容器組成。由系統(tǒng)的萊單欄進(jìn)入系統(tǒng)的各個(gè)功能模塊:圖像瀏覽與格式轉(zhuǎn)換、聚類分析、關(guān)聯(lián)規(guī)則挖掘等。當(dāng)進(jìn)行圖像檢索時(shí)狀態(tài)欄顯示數(shù)據(jù)庫(kù)中圖像數(shù),以及檢索到的相似圖像數(shù)。完成最優(yōu)模態(tài)獲取模型的仿真后,通過(guò)最優(yōu)模態(tài)獲取模型獲取多模態(tài)病變圖像。
圖3 實(shí)驗(yàn)數(shù)據(jù)來(lái)源界面
為了保證實(shí)驗(yàn)的有效性,使用基于剛體模型的多模態(tài)病變圖像、基于圖像灰度的多模態(tài)病變圖像、基于圖像特征點(diǎn)的多模態(tài)病變圖像與本文提出的基于遺傳算法的多模態(tài)病變圖像進(jìn)行對(duì)比,觀察仿真的結(jié)果,比較多模態(tài)病變圖像挖掘誤差的大小。其中多模態(tài)病變圖像挖掘誤差的定義如下
(14)
為了減少多模態(tài)病變圖像的圖像挖掘誤差,實(shí)驗(yàn)中的病變圖像都進(jìn)行了同樣程度的灰度調(diào)整。每種多模態(tài)病變圖像各自進(jìn)行三次實(shí)驗(yàn)。本次實(shí)驗(yàn)以病變細(xì)胞為病變圖像部位。
通過(guò)細(xì)胞病變圖像獲取互信息可以得到其性質(zhì),如表2所示。
表2 病變圖像互信息性質(zhì)
基于剛體模型的多模態(tài)病變圖像、基于圖像灰度的多模態(tài)病變圖像、基于圖像特征點(diǎn)的多模態(tài)病變圖像、基于遺傳算法的多模態(tài)病變圖像的獲取結(jié)果如圖4所示。
圖4 不同方法的多模態(tài)病變圖像對(duì)比圖
如圖4所示,基于遺傳算法的多模態(tài)病變圖像更清晰,效果更為理想。在此基礎(chǔ)上,對(duì)實(shí)驗(yàn)具體數(shù)據(jù)進(jìn)行對(duì)比,實(shí)驗(yàn)獲取的具體數(shù)據(jù)如表3所示。
表3 實(shí)驗(yàn)獲取具體數(shù)據(jù)
通過(guò)表3可知,基于剛體模型的多模態(tài)病變圖像的平均圖像挖掘誤差為0.41;基于圖像灰度的多模態(tài)病變圖像的平均圖像挖掘誤差為0.2;基于圖像特征點(diǎn)的多模態(tài)病變圖像的平均圖像挖掘誤差為0.19;基于遺傳算法的多模態(tài)病變圖像的平均圖像挖掘誤差為0.063,通過(guò)比較可知,基于遺傳算法的多模態(tài)病變圖像的圖像挖掘誤差最小,證明本文提出的多模態(tài)病變圖像更加精準(zhǔn),將其應(yīng)用在醫(yī)學(xué)領(lǐng)域能夠提升醫(yī)生診斷疾病的效率。
基于遺傳算法的多模態(tài)病變圖像通過(guò)病變圖像互信息歸一化、最優(yōu)模態(tài)搜索建立最優(yōu)模態(tài)獲取模型,并通過(guò)該模型獲取多種成像設(shè)備病變圖像的最優(yōu)模態(tài),進(jìn)行多模態(tài)病變圖像的合成,實(shí)現(xiàn)多模態(tài)病變圖像的獲取。該多模態(tài)病變圖像的圖像挖掘誤差較小,相較于傳統(tǒng)多模態(tài)病變圖像來(lái)說(shuō)更加精準(zhǔn),對(duì)醫(yī)療界的意義重大,有助于醫(yī)生對(duì)病變部位的疾病診斷,是醫(yī)學(xué)影像技術(shù)的一種發(fā)展,能夠獲取全面、有效、互補(bǔ)的病變部位醫(yī)療信息,在提升治療效果與追蹤病理變化方面有著卓越的效果。