楊春德 成燕菲
摘 要:針對(duì)圖像拼接存在色差過(guò)渡不均勻、圖像傾斜扭曲及拼接效率低的現(xiàn)象,提出一種基于拼接縫自適應(yīng)消除和全景圖矯直的快速圖像拼接算法。首先,用尺度不變特征變換(SIFT)提取圖像指定區(qū)域特征點(diǎn)并用雙向K近鄰(KNN)算法進(jìn)行圖像配準(zhǔn),有效提高算法效率;其次,利用動(dòng)態(tài)規(guī)劃思想提出自適應(yīng)公式找到最優(yōu)拼接縫并用圖像融合算法對(duì)其自適應(yīng)消除,解決拼接縫色差過(guò)渡不均勻問(wèn)題;最后,針對(duì)累積拼接誤差形成全景圖傾斜的現(xiàn)象,利用邊緣檢測(cè)算法提出自適應(yīng)擬合四邊形矯直模型,把原始全景圖矯直為一個(gè)全新的全景圖。所提算法與分塊圖像拼接和二叉樹(shù)圖像拼接算法相比,圖像質(zhì)量提升了5.84%~7.83%,拼接時(shí)間僅為原來(lái)的50%~70%。
實(shí)驗(yàn)結(jié)果表明,該算法不僅通過(guò)自適應(yīng)更新機(jī)制減少不同圖像背景下拼接縫色差過(guò)渡不均勻的現(xiàn)象,從而提高了圖像質(zhì)量;而且提高了拼接效率,降低了全景圖傾斜扭曲程度。
關(guān)鍵詞: 尺度不變特征變換;最優(yōu)拼接縫;圖像融合;自適應(yīng)消除;圖像矯直
中圖分類號(hào):TP391.41
文獻(xiàn)標(biāo)志碼:A
Abstract:Aiming at the phenomenon that image mosaic, to a certain extent, has uneven chromatic aberration, distortion and low efficiency, an adaptive elimination of image stitching seam and panorama alignment based fast image mosaic algorithm was proposed. Firstly, the Scale-Invariant Feature Transform (SIFT) was used to extract feature points of the specified area of the image and image registration was performed by using bidirectional K-Nearest Neighbor (KNN) algorithm, effectively improving the algorithm efficiency. Secondly, focusing on the uneven chromatic aberration transition of stitching seam, an adaptive formula for finding the optimal stitching seam was proposed based on dynamic programming, and then the seam was adaptively eliminated by image fusion. Finally, for the phenomenon of panoramic tilt caused by accumlated stitching error, an adaptive fitting quadrilateral alignment model based on edge detection algorithm was proposed to make the original panorama into a completely new panorama. Compared with the image mosaic algorithm based on block and the image mosaic algorithm based on binary tree, the proposed algorithm has the image quality improved by 5.84%-7.83% and the stitching time shortened to only 50%-70% of the original. Experimental? results show that the proposed algorithm not only reduces the unevenness of chromatic aberration transition of stitching seam in different image backgrounds through adaptive update mechanism, so as to improve the image quality, but also increases the stitching efficiency and reduces the distortion degree of panorama.
Key words:? Scale-Invariant Feature Transform (SIFT); optimal stitching seam; image fusion; adaptive elimination; image alignment
0 引言
圖像拼接技術(shù)[1]是將同一場(chǎng)景下數(shù)幅有序且有重復(fù)區(qū)域的圖像拼接成一幅全景圖,在無(wú)人機(jī)航拍、遙感圖像等領(lǐng)域應(yīng)用廣泛。圖像拼接一般分為特征提取、圖像配準(zhǔn)和圖像融合三個(gè)部分。
目前,在圖像處理領(lǐng)域,國(guó)內(nèi)外專家都做了大量的研究。其中,鄭悅等[2]提出鄰域最短距離法尋找最佳拼接縫算法,仍沒(méi)能解決拼接縫兩側(cè)過(guò)渡不均的問(wèn)題;Wei等[3]提出快速多波段融合算法,實(shí)現(xiàn)對(duì)高空間低光譜分辨率圖像和低空間高光譜分辨率圖像的融合,仍存在拼接縫明顯問(wèn)題;Tong等[4]提出基于剪切和小波變換的異構(gòu)傳感器網(wǎng)絡(luò)壓縮感知圖像融合算法,可以在低采樣率下獲得理想融合結(jié)果;Laraqui等[5]提出應(yīng)用于圖像拼接的多尺度圖像預(yù)處理算法,可以校正圖像之間的尺度差異,以減少異常值和對(duì)齊誤差;鄒佳彬等[6]提出的基于提升靜態(tài)小波變換與聯(lián)合結(jié)構(gòu)組稀疏表示的多聚焦圖像融合算法,可以較好保留圖像的紋理與邊緣等細(xì)節(jié)信息,融合圖像效果比較好。
本文為提高圖像質(zhì)量和拼接效率,同時(shí)降低圖像扭曲誤差,提出一種基于最優(yōu)拼接縫自適應(yīng)消除和全景圖矯直的快速圖像拼接算法。
該算法改進(jìn)了SIFT(Scale Invariant Feature Transform, SIFT)算法[7],只提取圖像指定區(qū)域的特征,并使用雙向K近鄰(K-Nearest Neighbor, KNN)算法剔除誤匹配特征點(diǎn),完成圖像配準(zhǔn);然后,在圖像重疊區(qū)域運(yùn)用動(dòng)態(tài)規(guī)劃思想尋找最優(yōu)拼接縫,再對(duì)最優(yōu)拼接縫限定區(qū)域進(jìn)行多分辨率拉普拉斯融合;最后,建立自適應(yīng)擬合四邊形矯直模型,可以自適應(yīng)地對(duì)全景圖進(jìn)行誤差矯直,有效消除扭曲現(xiàn)象,完成圖像拼接。
1 圖像配準(zhǔn)
特征配準(zhǔn)是兩幅含有重疊區(qū)域圖像的特征點(diǎn)進(jìn)行配準(zhǔn),首先要提取特征點(diǎn)。傳統(tǒng)SIFT算法提取特征點(diǎn)由四個(gè)關(guān)鍵步驟組成:尺度空間極值檢測(cè)[8];定位關(guān)鍵點(diǎn);確定關(guān)鍵點(diǎn)方向;生成特征描述子。基于傳統(tǒng)SIFT算法因提取整幅圖像特征導(dǎo)致算法計(jì)算量大,并易造成后續(xù)匹配錯(cuò)誤和計(jì)算冗余。本文改進(jìn)SIFT算法,在尺度空間進(jìn)行極值檢測(cè)時(shí),以數(shù)像素點(diǎn)的方式只檢測(cè)圖像指定區(qū)域特征點(diǎn),縮短圖像檢測(cè)范圍,在保證特征提取準(zhǔn)確度的同時(shí),有效提高時(shí)間效率。
SIFT特征提取后,分別對(duì)參考圖像和目標(biāo)圖像建立K-D樹(shù)(K-Dimensional Tree),并分別取其中一個(gè)為參考進(jìn)行KNN匹配,提取兩次匹配操作的公共匹配對(duì)作為初始匹配。獲得初始匹配結(jié)果后,采用隨機(jī)采樣一致性(RANdom SAmple Consensus, RANSAC)算法[9-10]剔除外點(diǎn),保留內(nèi)點(diǎn),降低誤匹配率,并估算圖像之間的仿射變換矩陣。初始匹配得到的匹配對(duì)中隨機(jī)選取a對(duì)點(diǎn)對(duì)集合,θ′為圖像旋轉(zhuǎn)角度,u、v為圖像沿x軸與y軸方向的水平位移。經(jīng)過(guò)多次迭代,估算出矩陣模型H的參數(shù),如式(3):
2 最優(yōu)拼接縫的自適應(yīng)消除圖像融合
傳統(tǒng)的圖像融合算法對(duì)配準(zhǔn)后的多幅有序圖像直接融合,會(huì)產(chǎn)生十分明顯的拼接縫并且出現(xiàn)色差過(guò)渡不連續(xù)和偽影的現(xiàn)象[11-12]。因此,本文提出一種最優(yōu)拼接縫自適應(yīng)消除的圖像融合算法。
尋找最優(yōu)拼接縫[13]的常用算法有狄克斯特拉算法、貪婪算法等。這些算法不能自適應(yīng)地應(yīng)用于各種場(chǎng)景,并且時(shí)間復(fù)雜度較高無(wú)法滿足實(shí)時(shí)拼接的需求。本文提出一種基于動(dòng)態(tài)規(guī)劃思想尋找最優(yōu)拼接縫的算法,可以有效解決這個(gè)問(wèn)題。本文算法核心是掃描圖像重疊區(qū)域的像素信息,找到每行像素點(diǎn)在重疊部分圖像色差最小且結(jié)構(gòu)與周圍像素點(diǎn)最相似的位置,即計(jì)算當(dāng)前像素點(diǎn)的能量值是否為每行像素點(diǎn)的最小值。能量值的取值與重疊部分圖像的色差和紋理差有關(guān)。這些位置的像素點(diǎn)集合,就是要找的最優(yōu)拼接縫。
找到最優(yōu)拼接縫后對(duì)待拼接圖像直接拼接,會(huì)出現(xiàn)拼接縫的痕跡。為了消除拼接縫,需要對(duì)拼接圖像進(jìn)行圖像融合。本文使用改進(jìn)的最優(yōu)拼接縫拉普拉斯圖像融合算法,對(duì)融合區(qū)域ξ進(jìn)行限制,消除偽影和拼接縫,提高融合效率和圖像質(zhì)量。
圖像融合前首先建立拼接縫圖像的權(quán)值圖像IL,拼接縫左側(cè)用像素值255填充,右側(cè)用像素值0填充,如圖5所示。然后求出最優(yōu)拼接縫最小外接矩形左邊界xmin和右邊界xmax。取一個(gè)最優(yōu)拼接縫的外接矩形L,使其左邊界為xmin-ξ,右邊界為xmin+ξ。圖像融合的具體步驟如下:首先,對(duì)目標(biāo)圖像和配準(zhǔn)后的參考圖像擴(kuò)充至權(quán)值圖像IL大小并限定融合區(qū)域;其次,對(duì)融合圖像限定區(qū)域進(jìn)行拉普拉斯分解,獲得拉普拉斯金字塔;接著,對(duì)權(quán)值圖像IL采用高斯擴(kuò)展處理,使最優(yōu)拼接縫處像素值從255到0緩慢過(guò)渡,進(jìn)行平滑處理;最后,根據(jù)融合準(zhǔn)則對(duì)分解的拉普拉斯金字塔對(duì)應(yīng)的層進(jìn)行融合,再進(jìn)行重構(gòu),得到最終的融合圖像。
3 圖像矯直
圖像的采集和配準(zhǔn)過(guò)程存在不可避免的扭曲誤差現(xiàn)象[16]。因此,本文提出一個(gè)自適應(yīng)擬合四邊形矯直模型,對(duì)拼接后全景圖進(jìn)行自適應(yīng)矯直,降低全景圖的扭曲程度。
本文使用Canny邊緣檢測(cè)算法[17]檢測(cè)全景圖二值圖像輪廓。該算法基于梯度,可以精確定位邊沿位置。通過(guò)沿幅角方向檢測(cè)模值的極大值點(diǎn),即邊緣點(diǎn),置像素灰度值為0,使邊沿非常細(xì)。Canny算法使用雙閾值檢測(cè),一個(gè)較小閾值會(huì)保留很多邊沿,其中一部分是沒(méi)有用的,而一個(gè)較大閾值則會(huì)保留主要的邊沿,同時(shí)也可能會(huì)丟失一些邊沿信息,Canny邊緣檢測(cè)算法一定程度上可以克服這類困難。
將提取的邊緣擬合成四條直線,形成一個(gè)近似四邊形,如圖8(a)是基于圖7(b)全景圖擬合的四邊形。設(shè)θ是圖像矯直角度,θi(i=1,2)是擬合四邊形中兩條水平向邊的傾斜角度,li.x、li.y是兩條水平向邊上的任意一點(diǎn)坐標(biāo)值。θ的取值為:
本文具體算法步驟如下:
輸入 有重疊區(qū)域的有序圖像序列S(S1,S2,…,SN)。
輸出 一幅拼接并矯直的全景圖。
步驟1 針對(duì)拼接圖像Si和Si+1(i∈[1,N-1]),圖像配準(zhǔn)。
1)判斷相鄰圖像是目標(biāo)圖像還是參考圖像,并確定m的取值0.4j,得到限定區(qū)域[i,m]。
2)對(duì)限定區(qū)域提取特征點(diǎn),使用雙向KNN算法,計(jì)算歐氏距離,將初始匹配特征點(diǎn)集合和數(shù)目保存在數(shù)組FeatureSet和NumF中。
3)使用RANSAC算法剔除誤匹配后,計(jì)算Si和Si+1之間的仿變換模型,保存在數(shù)組HF中。
4)返回步驟1)繼續(xù)下一組相鄰圖像的圖像配準(zhǔn),直到完成所有圖像序列間的配準(zhǔn)為止。
步驟2 根據(jù)數(shù)組HF通過(guò)式(3)計(jì)算仿射變換矩陣H,使目標(biāo)圖像與參考圖像在相同坐標(biāo)系下。
步驟3 利用式(4)找到最優(yōu)拼接縫并使用多分辨率拉普拉斯融合算法進(jìn)行圖像融合。
步驟4 轉(zhuǎn)到步驟2執(zhí)行下一幅圖像拼接直到圖像序列S只有一幅圖像為止。
步驟5 對(duì)拼接后全景圖使用邊緣檢測(cè)算法,并利用式(11)和(12)對(duì)全景圖進(jìn)行矯直,得到矯直后的全景圖。
算法流程如圖9所示。
4 實(shí)驗(yàn)與結(jié)果分析
4.1 主觀評(píng)價(jià)
本文算法對(duì)多個(gè)場(chǎng)景圖像進(jìn)行圖像拼接和矯直實(shí)驗(yàn),實(shí)驗(yàn)在CPU為Intel i5處理器、內(nèi)存為4GB的Windows 7系統(tǒng)下完成,實(shí)驗(yàn)環(huán)境是Visual Studio (OpenCV 2.4.9)。實(shí)驗(yàn)中的參數(shù)a=3。
圖11(a)、圖13(a)和15(a)是基于分塊圖像拼接算法的結(jié)果[18],圖11(b)、13(b)和15(b)是基于二叉樹(shù)圖像拼接算法的結(jié)果[19],圖11(c)、13(c)和15(c)是本文改進(jìn)算法的拼接結(jié)果。從圖11的實(shí)線方框以及放大細(xì)節(jié)圖中的實(shí)線圓框可以明顯看出,其他兩種算法得到的拼接圖像仍存在明顯的拼接痕跡,甚至出現(xiàn)圖像扭曲、失真的現(xiàn)象,而本文算法對(duì)拼接縫周圍的色差過(guò)渡有顯著效果。因此,從視覺(jué)上明顯看出,本文算法得到的全景圖更能夠滿足人們對(duì)圖像的視覺(jué)要求。
4.2 實(shí)驗(yàn)參數(shù)及客觀評(píng)價(jià)
為了更客觀地反映本文算法的優(yōu)越性,通過(guò)計(jì)算圖像的統(tǒng)計(jì)參數(shù)獲得相對(duì)客觀的量化指標(biāo),對(duì)圖像拼接算法進(jìn)行客觀評(píng)價(jià)[20-21]。
全景圖扭曲程度越大,全景圖中無(wú)用黑色像素隨之增多,信息比參數(shù)越小。
要使式(8)中的函數(shù)在[0,2]以α*ij(β*ij)=1為對(duì)稱軸,就要使式(8)中的參數(shù)p1=4, p2=4,如圖4所示。同時(shí),經(jīng)過(guò)多次實(shí)驗(yàn),參數(shù)k1=1.8、k2=1.7時(shí)圖像清晰度最好,結(jié)果對(duì)比如表1所示
從表2可明顯看出,本文算法在全景圖的清晰度、傾斜角度和信息比方面都有較為明顯的進(jìn)步,
而且隨著圖像數(shù)據(jù)集的增加,
這些優(yōu)勢(shì)會(huì)越明顯。在本文圖像數(shù)據(jù)集中,與基于分塊的圖像拼接算法和基于二叉樹(shù)的圖像拼接算法對(duì)比,清晰度比前者平均提高7.83%,比后者平均提高5.84%;傾斜度比前者平均降低1.57°,比后者平均提稿1.14°;信息比比前者平均提升2.54%,比后者平均提高2.87%。因此,本文的拼接算法改善了圖像拼接中的扭曲現(xiàn)象,同時(shí)提高了拼接后全景圖的質(zhì)量。
本文算法的運(yùn)行時(shí)間由三個(gè)階段組成:
圖像配準(zhǔn)、圖像融合和圖像矯直。由式(2)可知,圖像配準(zhǔn)的時(shí)間效率λ與圖像分辨率和限定提取特征的區(qū)域參數(shù)m有關(guān);由式(10)以及融合范圍可知,圖像融合的時(shí)間效率與圖像分辨率和限定融合范圍參數(shù)ξ有關(guān);由式(11)和(12)可知,圖像矯直的時(shí)間效率與全景圖分辨率有關(guān)。因此,本文算法的時(shí)間效率是由圖像
分辨率以及參數(shù)m和ξ決定的,ξ的經(jīng)驗(yàn)閾值為30。而本文算
法是與其他兩種算法的時(shí)間進(jìn)行比對(duì),因此,針對(duì)同樣的圖像數(shù)據(jù)集,圖像分辨率的因素不考慮在內(nèi),m的取值在參考了黃金分割比0.618以及對(duì)本文圖像數(shù)據(jù)集的分析,考慮m的取值范圍在0.35j~0.55j,經(jīng)過(guò)多次實(shí)驗(yàn),取得最優(yōu)經(jīng)驗(yàn)閾值0.4j,實(shí)驗(yàn)效果最好,見(jiàn)表3。同時(shí),通過(guò)式(2)計(jì)算得到的λ可知,配準(zhǔn)算法的時(shí)間可以縮短近60%。圖16是本文算法與其他兩種對(duì)比算法的時(shí)間對(duì)比。
從表3可以看到,雖然提取整幅圖像的SIFT特征點(diǎn)個(gè)數(shù)比較多,但對(duì)比提取指定區(qū)域圖像的SIFT特征點(diǎn),它們的匹配對(duì)數(shù)是相似的,但時(shí)間花銷明顯少很多,甚至經(jīng)過(guò)RANSAC剔除誤匹配后本文算法的匹配率更高,平均在87%左右。結(jié)合圖16的全景圖拼接時(shí)間的對(duì)比,可以明顯看出,雖然本文算法的圖像融合時(shí)間對(duì)比其他算法會(huì)有小幅度增加,但圖像配準(zhǔn)的時(shí)間在拼接算法中的時(shí)間占比是最重的。因此,本文算法比傳統(tǒng)的SIFT特征匹配方法具有更強(qiáng)的魯棒性。拼接算法消耗的時(shí)間是分塊圖像拼接算法的70%,是二叉樹(shù)圖像拼接算法的50%。
5 結(jié)語(yǔ)
在傳統(tǒng)的圖像拼接算法基礎(chǔ)上,本文算法首先限定了SIFT特征的提取區(qū)域,在保證特征匹配準(zhǔn)確率的同時(shí),大幅縮短了算法的時(shí)間。同時(shí),在此基礎(chǔ)上提出了基于最優(yōu)拼接縫的自適應(yīng)消除圖像融合算法,通過(guò)提出的自適應(yīng)能量公式找到最優(yōu)拼接縫并進(jìn)行消除,有效地解決了偽影以及模糊像素點(diǎn)導(dǎo)致的色差問(wèn)題。最后,對(duì)拼接后的全景圖進(jìn)行擬合四邊形矯直,進(jìn)一步改善圖像失真問(wèn)題。實(shí)驗(yàn)結(jié)果表明,本文算法有效提高了圖像拼接質(zhì)量和圖像清晰度,有效保留了全景圖信息;同時(shí),提高了算法效率,實(shí)現(xiàn)了序列圖像快速拼接。
參考文獻(xiàn)(References)
[1] ALCANTARILLA P F, NUEVO J, BARTOLI A. Fast explicit diffusion for accelerated features in nonlinear scale spaces[C]// Proceedings of the 24th British Machine Vision Conference. Durham: BMVA Press, 2013: 1-11.
[2] 鄭悅, 程紅, 孫文邦. 鄰域最短距離法尋找最佳拼接縫[J]. 中國(guó)圖象圖形學(xué)報(bào), 2014, 19(2): 227-233. (ZHENG Y, CHENG H, SUN W B. Finding an optimal seam-line through the shorted distance in the neighborhood[J]. Journal of Image and Graphics, 2014, 19(2): 227-233.)
[3] WEI Q, DOBIGEON N, TOURNERET J. Fast fusion of multi-band images based on solving a Sylvester equation[J]. IEEE Transactions on Image Processing, 2015, 24(11): 4109-4119.
[4] TONG Y, CHEN J. Compressive sensing image fusion in heterogeneous sensor networks based on shearlet and wavelet transform[J]. EURASIP Journal on Wireless Communications and Networking, 2017, 2017: 52.
[5] LARAQUI A, SAAIDI A, SATORI K. MSIP: multi-scale image pre-processing method applied in image mosaic[J]. Multimedia Tools and Applications, 2018, 77(6): 7517-7537.
[6] 鄒佳彬, 孫偉. 基于提升靜態(tài)小波變換與聯(lián)合結(jié)構(gòu)組稀疏表示的多聚焦圖像融合[J]. 計(jì)算機(jī)應(yīng)用, 2018, 38(3): 859-865. (ZOU J B, SUN W. Multi-focus image fusion based on lifting stationary wavelet transform and joint structural group sparse representation[J]. Journal of Computer Applications, 2018, 38(3): 859-865.)
[7] BROWN M, LOWE D G. Automatic panoramic image stitching using invariant features[J]. International Journal of Computer Vision 2007, 74(1): 59-73.
[8] MIKOLAJCZYK K, SCHMID C. An affine invariant interest point detector[C]// Proceedings of the 2002 European Conference on Computer Vision, LNCS 2350. Berlin: Springer, 2002: 128-142.
[9] FISCHLER M A, BOLLES R C. Random sample consensus: a paradigm for model fitting with applications to image analysis and automated cartography[J]. Communications of the ACM 1981, 24(6): 381-395.
[10] WAINE M, ROSSA C, SLOBODA R, et al. 3D shape visualization of curved needles in tissue from 2D ultrasound images using RANSAC[C]// Proceedings of the 2015 IEEE International Conference on Robotics and Automation. Piscataway: IEEE, 2015: 4723-4728.
[11] TANG Y, SHIN J, LIAO H C. De-ghosting method for image stitching[J]. International Journal of Digital Content Technology & Its Applications, 2012, 6: 17-24.
[12] ZHANG B, LIU Q, IKENAGA T. Ghost-free high dynamic range imaging via moving objects detection and extension[C]// Proceedings of the 2015 Asia-Pacific Signal and Information Processing Association Summit and Conference. Piscataway: IEEE, 2015: 459-462.
[13] HUANG C, LIN S, CHEN J. Efficient image stitching of continuous image sequence with image and seam selections[J]. IEEE Sensors Journal, 2015, 15(10): 5910-5918.
[14] 方賢勇, 潘志庚, 徐丹. 圖像拼接的改進(jìn)算法[J]. 計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào), 2003, 15(11): 1362-1365. (FANG X Y, PAN Z G, XU D. An improved algorithm for image mosaics[J]. Journal of Computer-Aided Design & Computer Graphics, 2003, 15(1): 1362-1365.)
[15] AHONEN T, HADID A, PIETIKINEN M. Face recognition with local binary patterns[C]// Proceedings of the 2004 European Conference on Computer Vision, LNCS 3021. Berlin: Springer, 2004: 469-481.
[16] CHOI H C, AHN B H. Image alignment by parameter hypersurface learning[J]. Electronics Letters, 2016, 52(18): 1526-1527.
[17] CANNY J. A computational approach to edge detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1986, 8(6): 679-698.
[18] QU Z, WANG T, AN S Q, et al. Image seamless stitching and straightening based on image block[J]. IET Image Processing, 2018, 12(8): 1361-1369.
[19] QU Z, WEI X, CHEN S. An algorithm of image mosaic based on binary tree and eliminating distortion error[J].? PLoS One, 2019, 14(1): e0210354.
[20] 張小利, 李雄飛, 李軍. 融合圖像質(zhì)量評(píng)價(jià)指標(biāo)的相關(guān)性分析及性能評(píng)估[J]. 自動(dòng)化學(xué)報(bào), 2014, 40(2): 306-315. (ZHANG X L, LI X F, LI J. Validation and correlation analysis of metrics for evaluating performance of image fusion[J]. Acta Automatica Sinica, 2014, 40(2): 306-315.)
[21] 黃學(xué)優(yōu), 張長(zhǎng)江. 雙樹(shù)復(fù)小波域的MRI圖像去噪[J]. 中國(guó)圖象圖形學(xué)報(bào), 2016, 21(1): 104-113. (HUANG X Y, ZHANG C J. MRI denoising based on dual-tree complex wavelet transform[J]. Journal of Image and Graphics, 2016, 21(1): 104-113.)