亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于自適應(yīng)聯(lián)合字典學(xué)習(xí)的腦部多模態(tài)圖像融合方法

        2018-06-20 09:33:00王麗芳秦品樂
        計(jì)算機(jī)應(yīng)用 2018年4期
        關(guān)鍵詞:范數(shù)腦部字典

        王麗芳,董 俠,秦品樂,高 媛

        0 引言

        多模態(tài)醫(yī)學(xué)影像在臨床醫(yī)療診斷中發(fā)揮越來越重要的作用。醫(yī)學(xué)圖像可分為解剖圖像和功能圖像,計(jì)算機(jī)斷層成像(Computed Tomography, CT)和磁共振成像(Magnetic Resonance Imaging,MRI)均為解剖圖像;單光子發(fā)射計(jì)算機(jī)斷層成像(Single Photon Emission Computed Tomography,SPECT)和正電子發(fā)射斷層成像(Positron Emission Tomography,PET)均為功能圖像。解剖圖像能夠反映器官的解剖結(jié)構(gòu),分辨率較高;功能圖像能夠顯示人體新陳代謝的功能變化,分辨率較低。單一類型的圖像往往無法為病情診斷提供全面充足的信息[1]。多模態(tài)醫(yī)學(xué)圖像融合技術(shù)能夠?qū)⒒パa(bǔ)的多源信息融合到一幅圖像中以改善圖像質(zhì)量并減少隨機(jī)性和冗余性,有助于提高臨床醫(yī)療診斷和分析的準(zhǔn)確性[2]。

        近年來,隨著壓縮感知理論[3]的提出,基于稀疏表示的方法[4-5]被廣泛用于圖像融合領(lǐng)域。Mitianoudis等[6]首次使用滑窗技術(shù)將源圖像劃分成圖像塊并用于圖像融合,實(shí)驗(yàn)結(jié)果表明該方法能夠很好地提取源圖像的局部顯著特征和保持平移不變性。由于在稀疏域中使用活躍度測量具有可靠性和空間滑窗技術(shù)的平移不變性,基于稀疏表示的圖像融合方法一般優(yōu)于傳統(tǒng)多尺度變換的方法。Yang等[7]首次將稀疏表示的方法用于多聚焦圖像融合,該方法使用冗余的離散余弦變換(Discrete Cosine Transform,DCT)字典表示源圖像,并使用“L1范數(shù)最大”的規(guī)則融合稀疏表示系數(shù)。DCT字典屬于解析字典,具有快速實(shí)現(xiàn)的優(yōu)點(diǎn),但這種字典僅限于特定類型的信號表示,并且在選擇解析基時(shí)需要先驗(yàn)知識。Aharon等[8]提出K奇異值分解(K-means-based Singular Value Decomposition,K-SVD)算法用于從訓(xùn)練圖像中學(xué)習(xí)字典。相對于解析字典,學(xué)習(xí)的字典包含更豐富的圖像特征信息,表示能力更強(qiáng),但是時(shí)間效率較低。Liu等[9]從40幅自然圖像中隨機(jī)采樣10萬個(gè)圖像塊作為字典訓(xùn)練數(shù)據(jù),低頻子帶對應(yīng)的稀疏表示系數(shù)使用“L1范數(shù)最大”的規(guī)則進(jìn)行融合。Yin等[10]使用K-SVD算法在USC-SIPI數(shù)據(jù)集[11]上學(xué)習(xí)字典。上述方法學(xué)習(xí)的字典均屬于全局訓(xùn)練字典,全局訓(xùn)練字典使用的訓(xùn)練數(shù)據(jù)來自一些公開的圖像數(shù)據(jù)庫,是由外部預(yù)先收集的圖像組成。在實(shí)際應(yīng)用中,收集合適的圖像數(shù)據(jù)集并不總是可行的。此外,不同類型圖像的圖像內(nèi)容千差萬別,全局訓(xùn)練字典對于不同類型的圖像表現(xiàn)出來的性能差異較大。

        醫(yī)學(xué)圖像具有對比度低、灰度分布不均勻等特點(diǎn),全局訓(xùn)練字典對于醫(yī)學(xué)圖像的自適應(yīng)性不強(qiáng),難以適應(yīng)多模態(tài)醫(yī)學(xué)圖像融合的需要。因此,在基于稀疏表示的多模態(tài)醫(yī)學(xué)圖像融合方法中,如何構(gòu)建一個(gè)自適應(yīng)于源圖像的過完備字典是關(guān)鍵。宗靜靜等[12]將兩幅已配準(zhǔn)的源圖像組成一個(gè)整體進(jìn)行聯(lián)合稀疏表示,獲得一個(gè)共同稀疏部分和不同稀疏部分,其中對不同稀疏部分同樣使用“L1范數(shù)最大”的規(guī)則進(jìn)行融合。該方法直接從已配準(zhǔn)的源圖像本身學(xué)習(xí)字典可以提高字典對于源圖像的自適應(yīng)性。但是,從圖像融合規(guī)則來看,傳統(tǒng)的使用稀疏表示系數(shù)的L1范數(shù)取極大的方式在融合多模態(tài)醫(yī)學(xué)圖像時(shí),易造成融合結(jié)果的灰度不連續(xù)效應(yīng)。

        針對上述問題,本文提出一種基于自適應(yīng)聯(lián)合字典學(xué)習(xí)的腦部多模態(tài)圖像融合方法。首先,為實(shí)現(xiàn)功能圖像和解剖圖像的融合,該方法使用亮度-色調(diào)-飽和度(Intensity-Hue-Saturation,IHS)變換將已與解剖圖像配準(zhǔn)的功能圖像變換到IHS空間,再將其對應(yīng)的I分量(代表灰度圖像)和解剖圖像作為待融合的源圖像;其次,不同于解析字典和全局訓(xùn)練字典,提出的自適應(yīng)聯(lián)合字典的學(xué)習(xí)不需要任何先驗(yàn)知識,也不需要外部預(yù)先收集的圖像數(shù)據(jù),而是將直接從待融合的源圖像中學(xué)習(xí)得到的子字典組合成自適應(yīng)聯(lián)合字典來提高字典對于每一對輸入圖像的自適應(yīng)性。同時(shí),在融合階段,提出稀疏表示系數(shù)的“多范數(shù)”綜合地衡量源圖像塊的活躍度,并使用一種結(jié)合“自適應(yīng)加權(quán)平均”與“選擇最大”的無偏規(guī)則融合稀疏表示系數(shù)。對腦部多模態(tài)圖像進(jìn)行的大量實(shí)驗(yàn)結(jié)果表明,本文方法比對比方法可以保留更多的圖像細(xì)節(jié)信息,取得較好的圖像融合效果。

        1 稀疏表示和字典學(xué)習(xí)

        稀疏表示的基本假設(shè)是一個(gè)信號x∈Rn可以近似地表示為一個(gè)超完備字典D∈Rn×m(n

        (1)

        其中:ε≥0表示允許偏差的精度,問題(1)的求解過程稱為“稀疏編碼”。

        (2)

        s.t. ?i‖αi‖0≤τ

        2 自適應(yīng)聯(lián)合字典

        為提高字典對于每一對輸入醫(yī)學(xué)圖像的自適應(yīng)性,本文提出使用改進(jìn)的K-SVD算法[14]分別對兩幅已配準(zhǔn)的源圖像進(jìn)行字典學(xué)習(xí)得到兩個(gè)子字典再組合成自適應(yīng)聯(lián)合字典,使每一幅源圖像均可以用字典中相同的原子表示。自適應(yīng)聯(lián)合字典的學(xué)習(xí)過程如圖1所示。

        在字典學(xué)習(xí)代價(jià)函數(shù)(2)中加入支撐完整的先驗(yàn)信息[17],以源圖像I1為例,將X1訓(xùn)練的優(yōu)化問題表示如下:

        s.t. ‖A‖0≤τ,A⊙M=0

        (3)

        其中:字典D1∈Rw×S,稀疏表示系數(shù)A∈RS×L?!汛睃c(diǎn)乘,掩膜矩陣M由元素0和1組成,定義為M={|A|=0},等價(jià)于若A(i,j)=0則M(i,j)=1,否則為0,因此A⊙M=0能使A中所有零項(xiàng)保持完備。式(3)的求解過程分為稀疏編碼和字典更新兩個(gè)階段:

        圖1 自適應(yīng)聯(lián)合字典的學(xué)習(xí)過程

        s.t.A⊙M=0

        (4)

        分別對系數(shù)矩陣A中每一列的非零元素進(jìn)行處理,而保持零元素完備,則式(4)可以轉(zhuǎn)換為式(5):

        (5)

        其中:D1i是D1對應(yīng)A的非零支集的子矩陣;αi是A第i列的非零部分。問題(5)由系數(shù)重用正交匹配追蹤(Coefficient Reuse Orthogonal Matching Pursuit,CoefROMP)算法[14]求解,由此可得到更新的稀疏系數(shù)矩陣A。

        其次,在字典更新階段,式(3)的優(yōu)化問題可以轉(zhuǎn)化為:

        s.t.A⊙M=0

        (6)

        則式(6)的補(bǔ)償項(xiàng)可以寫為:

        (7)

        最后,循環(huán)執(zhí)行上述兩個(gè)步驟,直至達(dá)到預(yù)設(shè)的迭代次數(shù)為止,輸出字典D1,字典D2的訓(xùn)練過程同字典D1,然后將得到的子字典D1和D2組合成自適應(yīng)聯(lián)合字典D=[D1,D2],D∈Rw×2S。由于字典更新階段同時(shí)更新字典和稀疏表示系數(shù)的非零元素,使得字典的表示誤差更小且字典的收斂速度更快。在稀疏編碼階段,考慮到每次迭代時(shí)都忽略前一次迭代的表示,本文使用CoefROMP算法根據(jù)上次迭代的稀疏表示殘差信息進(jìn)行系數(shù)更新,從而更快地得到所要求問題的解[17]。

        3 多模態(tài)醫(yī)學(xué)圖像融合過程

        圖像融合方式在很大程度上決定了融合圖像的質(zhì)量。傳統(tǒng)基于稀疏表示的醫(yī)學(xué)圖像融合方法采用稀疏表示系數(shù)的L1范數(shù)取極大的融合方式易造成融合圖像的灰度不連續(xù)效應(yīng)。這是因?yàn)閷τ诙嗄B(tài)醫(yī)學(xué)圖像的同一區(qū)域,有可能在一幅源圖像中灰度較高,而在另一幅源圖像中灰度較低,但在兩幅源圖像中都是很“平坦”的,即區(qū)域內(nèi)部灰度變化很小,但這兩幅源圖像在此區(qū)域仍會存在細(xì)節(jié)豐富程度的差異。由于差異很小,稀疏表示系數(shù)L1范數(shù)取極大的融合方式很難準(zhǔn)確地判斷具有較多細(xì)節(jié)的源圖像塊,得到錯(cuò)誤判定結(jié)果的可能性增大,同時(shí)對有噪聲的情況非常敏感,從而導(dǎo)致對此種類型區(qū)域的不同圖像塊的判定結(jié)果不一致而最終造成融合圖像的灰度不連續(xù)效應(yīng)。

        為解決此問題,考慮以下兩個(gè)方面:一是如何衡量源圖像塊的活躍度,另一個(gè)是建立什么樣的規(guī)則融合稀疏表示系數(shù)。對于第一個(gè)問題,僅僅使用L1范數(shù)難以全面地計(jì)算源圖像塊的活躍度,本文提出將稀疏表示系數(shù)的“多范數(shù)”作為源圖像塊的活躍度測量以保留更多的圖像細(xì)節(jié)信息;對于第二個(gè)問題,尋求能夠使融合圖像保留源圖像所有視覺信息的理想的融合規(guī)則是困難的[18]??紤]到“加權(quán)平均”的融合規(guī)則可以有效抑制噪聲,“選擇最大”的融合規(guī)則可以保留源圖像最重要的信息,本文提出“自適應(yīng)加權(quán)平均”與“選擇最大”兩者相結(jié)合的無偏規(guī)則。根據(jù)稀疏表示系數(shù)的“多范數(shù)”的相似度來選擇融合規(guī)則,對于相似度大于閾值,即圖像塊細(xì)節(jié)豐富程度差異較小的情況,使用“自適應(yīng)加權(quán)平均”的規(guī)則;反之則使用“選擇最大”的規(guī)則融合稀疏表示系數(shù)。

        3.1 稀疏編碼

        (8)

        (9)

        其中:D是第2章提出的自適應(yīng)聯(lián)合字典。

        圖2 多模態(tài)醫(yī)學(xué)圖像融合過程

        3.2 多范數(shù)無偏融合規(guī)則

        稀疏系數(shù)向量α的L1范數(shù)表示向量中各個(gè)元素的絕對值之和,可以反映細(xì)節(jié)信息的重要性,對應(yīng)的值越大,圖像塊的顯著性越好;稀疏系數(shù)向量α的L0范數(shù)表示向量中非零項(xiàng)的個(gè)數(shù),可以反映細(xì)節(jié)信息的集中度,對應(yīng)的值越大,圖像塊包含的細(xì)節(jié)信息越多。為全面地計(jì)算源圖像塊的活躍度以保留更多的圖像細(xì)節(jié)信息,對于每一個(gè)源圖像塊,使用加權(quán)指數(shù)分別對L1范數(shù)和L0范數(shù)進(jìn)行約束,再將兩者的乘積作為兩種范數(shù)對源圖像塊的綜合度量結(jié)果,公式表示如下:

        (10)

        (11)

        (12)

        當(dāng)稀疏表示系數(shù)的“多范數(shù)”的相似度大于等于閾值(Si≥T)時(shí),使用“自適應(yīng)加權(quán)平均”的融合規(guī)則:

        (13)

        (14)

        ω2=1-ω1

        (15)

        當(dāng)稀疏表示系數(shù)的“多范數(shù)”的相似度小于閾值(Si

        (16)

        (17)

        4 實(shí)驗(yàn)結(jié)果與分析

        為驗(yàn)證本文方法的性能,本文進(jìn)行了大量的仿真實(shí)驗(yàn),現(xiàn)選取三組已配準(zhǔn)的腦部多模態(tài)醫(yī)學(xué)圖像(大小均為256×256像素)作為待融合的源圖像,腦部圖像數(shù)據(jù)均來源于哈佛大學(xué)醫(yī)學(xué)院[19]。圖3為腦部腫瘤轉(zhuǎn)移、腦部Ⅱ級星形細(xì)胞腫瘤以及腦部阿爾茨海默病的圖像。實(shí)驗(yàn)的硬件環(huán)境為Intel Core i3-2350M @ 2.30 GHz處理器、4 GB運(yùn)行內(nèi)存,軟件環(huán)境為32位Windows 7操作系統(tǒng)、Matlab R2013a。

        實(shí)驗(yàn)從主客觀兩個(gè)方面將本文方法與其他八種方法進(jìn)行比較。選取的對比方法有:1)基于多尺度變換的方法,包括:離散小波變換(Discrete Wavelet Transform, DWT)[20]、拉普拉斯金字塔(Laplacian Pyramid, LP)[21]、非下采樣輪廓波變換(Non-Subsampled Contourlet Transform, NSCT)[22];2)基于稀疏表示的方法,包括:基于DCT字典與多范數(shù)無偏規(guī)則的方法(method based on DCT dictionary and Multi-Norm-unbiased rule,DCT-MN)、基于K-SVD算法的全局訓(xùn)練字典與多范數(shù)無偏規(guī)則的方法(method based on the global trained dictionary usingK-SVD algorithm and Multi-Norm-unbiased rule, KSVD-MN)、基于多尺度變換和稀疏表示的方法(method based on Multi-Scale Transform and Sparse Representation,MST-SR)[9]、基于聯(lián)合稀疏表示的方法(method based on Joint Sparse Representation, JSR)[12]、基于自適應(yīng)聯(lián)合字典與L1范數(shù)最大規(guī)則的方法(method based on Adaptive Joint Dictionary and max-L1-norm rule, AJD-L1)。本文提出的基于自適應(yīng)聯(lián)合字典與多范數(shù)無偏規(guī)則的方法記為AJD-MN(method based on Adaptive Joint Dictionary and Multi-Norm-unbiased rule)。

        圖3 三對腦部多模態(tài)醫(yī)學(xué)圖像

        圖4 圖像融合結(jié)果

        對于DWT和LP方法,分解水平均設(shè)為3,DWT方法的小波基設(shè)為“db6”。NSCT方法使用“9-7”金字塔濾波器和“c-d”方向?yàn)V波器,分解水平設(shè)為{22,22,23,24}。基于稀疏表示的方法中滑動步長均為1,圖像塊大小均為8×8,字典大小均為64×512,誤差ε=0.01,稀疏度τ=8。KSVD-MN和MST-SR方法的字典訓(xùn)練樣本是從40幅自然圖像[23]中隨機(jī)采樣10萬個(gè)圖像塊,MST-SR方法的多尺度變換選擇LP,分解水平設(shè)為3。AJD-MN方法使用改進(jìn)的K-SVD算法,執(zhí)行6個(gè)字典更新周期(Dictionary Update Cycles, DUC)和30次迭代;提出的多范數(shù)使用相等的加權(quán)指數(shù)β=γ=1;經(jīng)多次實(shí)驗(yàn)驗(yàn)證,無偏融合規(guī)則的閾值T=0.9時(shí)融合效果較好。

        圖4為不同的融合方法在三組實(shí)驗(yàn)條件下的運(yùn)行結(jié)果,從主觀視覺效果分析,DWT方法的融合圖像的顏色、亮度和對比度明顯失真,存在塊效應(yīng)和偽影;LP和NSCT方法的融合質(zhì)量相對較好,但是融合圖像的對比度較低;DCT-MN、KSVD-MN、MST-SR、JSR和AJD-L1方法與上述三種基于多尺度變換的方法(DWT、LP和NSCT)相比,融合圖像的對比度有很大的提升,但在組織和病灶區(qū)域存在一些偽影;AJD-MN方法的融合圖像的偽影較少,并且能夠保留更多的圖像細(xì)節(jié)信息。綜上所述,本文提出的AJD-MN方法的融合圖像在顏色、亮度、對比度、清晰度以及細(xì)節(jié)的保留度上均優(yōu)于其他八種方法,病灶清晰,有助于臨床診斷。

        為定量地對融合圖像的質(zhì)量進(jìn)行客觀評價(jià),本文使用六種指標(biāo):標(biāo)準(zhǔn)差(Standard Deviation,SD)[24]、空間頻率(Spatial Frequency,SF)[25]、互信息(Mutual Information,MI)[26]、基于梯度的指標(biāo)QAB/F[27]、基于通用圖像質(zhì)量指標(biāo)Qw[28]和平均結(jié)構(gòu)相似指標(biāo)(Mean Structural SIMilarity,MSSIM)[29]。其中:SD衡量圖像信息的豐富程度,反映融合圖像的對比度;SF反映圖像的清晰度;MI反映融合圖像從源圖像提取的信息量的多少;QAB/F反映融合圖像對源圖像邊緣特性的保留情況;Qw反映融合圖像在系數(shù)相關(guān)性、光照和對比度方面與源圖像的關(guān)聯(lián);MSSIM指標(biāo)是融合圖像分別與兩幅源圖像的結(jié)構(gòu)相似指標(biāo)SSIM的均值,SSIM反映融合圖像與源圖像在亮度、對比度和結(jié)構(gòu)方面的相似度。上述六種指標(biāo)均是對應(yīng)的值越大融合圖像質(zhì)量越高。

        表1為圖4~6的三組實(shí)驗(yàn)中不同融合方法的客觀評價(jià)指標(biāo)。從表1可看出,DWT方法在SD、SF、MI、QAB/F、Qw和MSSIM六項(xiàng)指標(biāo)上均不理想,主要是因?yàn)殡x散小波變換具有平移變化性、走樣和缺乏方向性等缺陷;由于LP方法具有較好的多尺度和多分辨率特性,NSCT具有多尺度、多方向和平移不變性,因此,LP和NSCT方法在上述六項(xiàng)指標(biāo)上均明顯優(yōu)于DWT方法;上述三種多尺度變換的方法在SD和SF指標(biāo)上均低于其他方法,表明融合圖像的對比度可能受到了損失;DCT-MN、KSVD-MN、MST-SR方法在MI指標(biāo)上優(yōu)于多尺度變換的方法,而在QAB/F、Qw和MSSIM指標(biāo)上存在一些低于多尺度變換方法的情況,可能是由于字典對于醫(yī)學(xué)圖像的自適應(yīng)性不強(qiáng),其表示能力不足以提取足夠多的細(xì)節(jié)信息或者不能精確地表示醫(yī)學(xué)圖像的特征;JSR和AJD-L1方法在QAB/F和MSSIM指標(biāo)上存在一些低于多尺度變換方法的情況,可能是由于L1范數(shù)取極大的融合規(guī)則導(dǎo)致圖像的灰度不連續(xù)效應(yīng);本文提出的AJD-MN方法存在一些次優(yōu)值,但是均接近于最優(yōu)值。經(jīng)計(jì)算, AJD-MN方法的SD、SF、MI、QAB/F、Qw和MSSIM六項(xiàng)指標(biāo)在上述三組實(shí)驗(yàn)條件下的均值分別為71.078 3、21.970 8、3.679 0、0.660 3、0.735 2和0.733 9。與其他八種方法相比,本文提出的AJD-MN方法在客觀評價(jià)方面也具有優(yōu)勢。

        表1 九種融合方法的客觀指標(biāo)

        注:加粗?jǐn)?shù)據(jù)為最優(yōu)值。

        5 結(jié)語

        針對目前全局訓(xùn)練字典對于腦部醫(yī)學(xué)圖像的自適應(yīng)性不強(qiáng)的問題,本文提出使用改進(jìn)的K-SVD算法自適應(yīng)地從輸入源圖像中學(xué)習(xí)子字典并組合成自適應(yīng)聯(lián)合字典的方法;同時(shí),針對稀疏表示系數(shù)的L1范數(shù)取極大的融合方式易造成圖像的灰度不連續(xù)效應(yīng)的問題,提出用稀疏表示系數(shù)的“多范數(shù)”全面地衡量源圖像塊的活躍度,并使用“自適應(yīng)加權(quán)平均”與“選擇最大”相結(jié)合的無偏規(guī)則融合稀疏表示系數(shù)。在實(shí)驗(yàn)階段,分別對腦部CT/MRI圖像和腦部MRI/PET圖像進(jìn)行多次實(shí)驗(yàn),結(jié)果表明,與其他八種方法相比,本文方法能夠取得最佳的圖像融合效果,可以有效輔助臨床醫(yī)療診斷。

        但仍存在需要進(jìn)一步研究的問題:本文提出的字典學(xué)習(xí)方法是將源圖像中所有圖像塊用于字典學(xué)習(xí)過程,這樣往往會帶來很多冗余信息。如何構(gòu)造一個(gè)非冗余但信息豐富的字典來更好地提高圖像融合質(zhì)量和時(shí)間效率,將是下一步的研究重點(diǎn)。

        參考文獻(xiàn)(References)

        [1] LI S T, KANG X D, FANG L Y, et al. Pixel-level image fusion: a survey of the state of the art[J]. Information Fusion, 2017, 33: 100-112.

        [2] JAMES A P, DASARATHY B V. Medical image fusion: a survey of the state of the art[J]. Information Fusion, 2014, 19(3): 4-19.

        [3] DONOHO D L. Compressed sensing[J]. IEEE Transactions on Information Theory, 2006, 52(4): 1289-1306.

        [4] LIU Y, WANG Z F. Simultaneous image fusion and denoising with adaptive sparse representation[J]. IET Image Processing, 2015, 9(5): 347-357.

        [5] YIN H T. Sparse representation with learned multiscale dictionary for image fusion[J]. Neurocomputing, 2015, 148(148): 600-610.

        [6] MITIANOUDIS N, STATHAKI T. Pixel-based and region-based image fusion schemes using ICA bases[J]. Information Fusion, 2007, 8(2): 131-142.

        [7] YANG B, LI S T. Multifocus image fusion and restoration with sparse representation[J]. IEEE Transactions on Instrumentation & Measurement, 2010, 59(4): 884-892.

        [8] AHARON M, ELAD M, BRUCKSTEIN A.K-SVD: an algorithm for designing overcomplete dictionaries for sparse representation[J]. IEEE Transactions on Signal Processing, 2006, 54(11): 4311-4322.

        [9] LIU Y, LIU S P, WANG Z F. A general framework for image fusion based on multi-scale transform and sparse representation[J]. Information Fusion, 2015, 24: 147-164.

        [10] YIN H T, LI S T. Multimodal image fusion with joint sparsity model[J]. Optical Engineering, 2011, 50(6): 7007.

        [11] WEBER A. The USC-SIPI image database[EB/OL]. [2017-09-20]. http: //sipi.usc.edu/database/.

        [12] 宗靜靜, 邱天爽, 郭冬梅. 聯(lián)合稀疏表示的醫(yī)學(xué)圖像融合及同步去噪[J]. 中國生物醫(yī)學(xué)工程學(xué)報(bào), 2016, 35(2): 133-140.(ZONG J J, QIU T S, GUO D M. Simultaneous medical image fusion and de-noising with joint sparse representation[J]. Chinese Journal of Biomedical Engineering, 2016, 35(2): 133-140.)

        [13] 董俠, 王麗芳, 秦品樂, 等. 改進(jìn)耦合字典學(xué)習(xí)的腦部CT/MR圖像融合方法[J]. 計(jì)算機(jī)應(yīng)用, 2017, 37(6): 1722-1727.(DONG X, WANG L F, QIN P L, et al. CT/MR brain image fusion method via improved coupled dictionary learning[J]. Journal of Computer Applications, 2017, 37(6): 1722-1727.)

        [14] SMITH L N, ELAD M. Improving dictionary learning: multiple dictionary updates and coefficient reuse[J]. IEEE Signal Processing Letters, 2013, 20(1): 79-82.

        [15] TU T M, SU S C, SHYU H C, et al. A new look at IHS-like image fusion methods[J]. Information Fusion, 2001, 2(3): 177-186.

        [16] DANESHVAR S, GHASSEMIAN H. MRI and PET image fusion by combining IHS and retina-inspired models[J]. Information Fusion, 2010, 11(2): 114-123.

        [17] 練秋生, 石保順, 陳書貞. 字典學(xué)習(xí)模型、算法及其應(yīng)用研究進(jìn)展[J]. 自動化學(xué)報(bào), 2015, 41(2): 240-260.(LIAN Q S, SHI B S, CHEN S Z. Research advances on dictionary learning models, algorithms and applications[J]. Acta Automatica Sinica, 2015, 41(2): 240-260.)

        [18] ZHANG Q, LIU Y, BLUM R S, et al. Sparse representation based multi-sensor image fusion for multi-focus and multi-modality images: a review[J]. Information Fusion, 2017,40:57-75.

        [19] JOHNSON K A, BECKER J A. The whole brain Atlas[DB/OL]. [2017-09-20]. http: //www.med.harvard.edu/aanlib/home.html.

        [20] PAJARES G, CRUZ J M D L. A wavelet-based image fusion tutorial[J]. Pattern Recognition, 2004, 37(9): 1855-1872.

        [21] BURT P J, ADELSON E H. The Laplacian pyramid as a compact image code[J]. IEEE Transactions on Communications, 1983, 31(4): 532-540.

        [22] ZHANG Q, GUO B L. Multifocus image fusion using the nonsubsampled contourlet transform[J]. Signal Processing, 2009, 89(7): 1334-1346.

        [23] The imagefusion image database [EB/OL]. [2017-09-20]. http: //www.imagefusion.org.

        [24] SHI W Z, ZHU C Q, TIAN Y, et al. Wavelet-based image fusion and quality assessment[J]. International Journal of Applied Earth Observation & Geoinformation, 2005, 6(3/4): 241-251.

        [25] ESKICIOGLU A M, FISHER P S. Image quality measures and their performance[J]. IEEE Transactions on Communications, 1996, 43(12): 2959-2965.

        [26] QU G H, ZHANG D L, YAN P F. Information measure for performance of image fusion[J]. Electronics Letters, 2002, 38(7): 313-315.

        [27] XYDEAS C S, PETROVIC V. Objective image fusion performance measure[J]. Military Technical Courier, 2000, 36(4): 308-309.

        [28] PIELLA G, HEIJMANS H. A new quality metric for image fusion[C]// ICIP 2003: Proceedings of the 2003 International Conference on Image Processing. Washington, DC: IEEE Computer Society, 2003: 173-176.

        [29] WANG Z, BOVIK A C, SHEIKH H R, et al. Image quality assessment: from error visibility to structural similarity[J]. IEEE Transactions on Image Processing, 2004, 13(4): 600-612.

        This work is partially supported by the Natural Science Foundation of Shanxi Province (2015011045).

        猜你喜歡
        范數(shù)腦部字典
        開心字典
        家教世界(2023年28期)2023-11-14 10:13:50
        開心字典
        家教世界(2023年25期)2023-10-09 02:11:56
        兒童做腦部CT會影響智力嗎
        基于加權(quán)核范數(shù)與范數(shù)的魯棒主成分分析
        12400年前“木乃伊狗”
        矩陣酉不變范數(shù)H?lder不等式及其應(yīng)用
        我是小字典
        俄國現(xiàn)12400年前“木乃伊狗” 大腦保存完好
        奧秘(2016年6期)2016-07-30 17:34:30
        正版字典
        讀者(2016年14期)2016-06-29 17:25:50
        壓抑食欲使人笨
        分憂(2016年3期)2016-05-05 01:58:43
        久久久国产乱子伦精品作者| 91精品国产综合久久国产| 风骚人妻一区二区三区| 亚洲国产精品无码专区| 精品国产制服丝袜高跟| 国产福利小视频91| 国产精品一区二区韩国av| 欧美黑寡妇特a级做爰| 激情内射亚洲一区二区三区爱妻| 日韩在线视频不卡一区二区三区 | 免费无码国产v片在线观看| 人妻少妇看A偷人无码电影| 午夜蜜桃视频在线观看| 欧美精品videosse精子| 久久综合给合久久狠狠狠97色69| 国产在线AⅤ精品性色| 精品国产一区二区三区香| 亚洲国产成人av在线观看| 国产精品一区二区久久精品| 福利一区二区三区视频在线| 国产一区av男人天堂| 闺蜜张开腿让我爽了一夜| 亚洲AV秘 片一区二区三| 国产成人亚洲精品一区二区三区| 极品少妇xxxx精品少妇偷拍| 无套内谢的新婚少妇国语播放| 亚洲国产剧情在线精品视| 99青青草视频在线观看| 亚洲精品无码久久久久去q| 九九99久久精品在免费线18| 加勒比特在线视频播放| 久久婷婷五月综合色高清| 日韩精品无码一区二区三区视频| 无码天堂在线视频| 精品人妻久久一区二区三区| 亚洲狠狠婷婷综合久久久久图片| 免费国产一级特黄aa大片在线| 国产亚洲精品在线播放| 少妇人妻综合久久中文字幕| 黄视频国产| 久久99免费精品国产 |