摘 要:針對(duì)彩色圖像中顯著目標(biāo)檢測(cè),提出聯(lián)合多尺度小波變換和超復(fù)數(shù)分?jǐn)?shù)階相位(Multi-scale Wavelet and Phase of Quaternion Fractional Fourier Transform,MWPQFrT)的顯著目標(biāo)檢測(cè)算法。結(jié)合人眼的視覺(jué)特性、多尺度小波變換的高分辨率特性、分頻特性和超復(fù)數(shù)分?jǐn)?shù)階傅里葉變換的相位譜信息,在沒(méi)有任何先驗(yàn)知識(shí)的條件下,能準(zhǔn)確檢測(cè)出彩色圖像中的顯著目標(biāo),具有很好的視覺(jué)檢測(cè)效果。
關(guān)鍵詞:顯著性目標(biāo);彩色圖像;多尺度小波變換;超復(fù)數(shù)分?jǐn)?shù)階傅里葉變換
中圖分類號(hào):TP391
視覺(jué)顯著性來(lái)源于人眼對(duì)周?chē)h(huán)境中凸顯目標(biāo)的強(qiáng)感知,人眼的這種感知具有選擇性。但在計(jì)算機(jī)視覺(jué)處理中,需要構(gòu)造視覺(jué)模型來(lái)模擬人眼的視覺(jué)感知機(jī)制?,F(xiàn)有的視覺(jué)模型分為兩類:自底向上和自頂向下[1]。目前,視覺(jué)模型的大部分都是采用自底向上的構(gòu)造方式,即利用顏色、亮度、邊緣等特征來(lái)模擬刺激視覺(jué)皮層的感知域,進(jìn)而突出目標(biāo)區(qū)域和它周?chē)牟町悺?/p>
具有代表性的是Itti模型[2]及GBVS[3]模型,它們利用顏色、亮度、方向特征,進(jìn)行中心周邊差分濾波和歸一化處理,最后獲得顯著目標(biāo),具有較好的抗噪能力,但會(huì)丟失局部信息且精度不高。Hou等[4]人提出在頻域利用譜殘差(Spectral Residual,SR)的方法檢測(cè)顯著目標(biāo),但該方法抗噪能力差且理論依據(jù)不足。Chenlei Guo等人提出利用譜相位計(jì)算顯著目標(biāo)。Stas Goferman等人提出利用上下文感知來(lái)構(gòu)造視覺(jué)模型。還有學(xué)者考慮在不同顏色空間下建立視覺(jué)注意模型。
總結(jié)現(xiàn)有的顯著目標(biāo)檢測(cè)算法發(fā)現(xiàn),它們均存在普遍的缺點(diǎn):顯著目標(biāo)區(qū)域分辨率低,檢測(cè)目標(biāo)區(qū)域亮度小,邊界模糊,難以較完整的描述顯著目標(biāo),計(jì)算量大。本文提出的MWPQFrT算法,引入分?jǐn)?shù)階p值,增加了算法的靈活性,同時(shí)提高了顯著目標(biāo)檢測(cè)效果。
1 MWPQFrT算法原
1.1 MWPQFrT算法流程
MWPQFrT主要是檢測(cè)彩色圖像中存在的顯著目標(biāo),算法的主要步驟描述如下:(1)將原彩色圖像進(jìn)行多尺度小波分解。(2)提取每一尺度子圖下的HL,HH,LH高頻子圖。(3)對(duì)(2)中同一尺度下的各個(gè)高頻子圖分別進(jìn)行超復(fù)數(shù)分?jǐn)?shù)階傅里葉變換相位提取,再進(jìn)行反變換,并歸一化提取出顯著目標(biāo)。(4)將不同尺度下提取出的顯著目標(biāo)再進(jìn)行歸一化融合,得到最終的顯著目標(biāo)。
算法流程如圖1所示。
1.2 離散小波變換
在MWPQFrT算法中,小波變換就是要得到不同尺度下的多分辨率圖像。圖像經(jīng)過(guò)小波變換后得到4個(gè)子帶分量:低頻,水平高頻,垂直高頻和對(duì)角高頻,如圖2所示。低頻部分反映的是背景信息,高頻部分反映細(xì)節(jié)、邊緣、紋理等,如圖3所示。因此,在MWPQFrT算法中,我們只需要保留高頻信息。
1.3 超復(fù)數(shù)分?jǐn)?shù)階傅里葉變換
彩色圖像由R、G、B三個(gè)通道組成,它們之間具有很強(qiáng)的內(nèi)在關(guān)聯(lián)。對(duì)彩色圖像的整體處理,需要借助圖像處理四元數(shù)理論。四元數(shù)可視為復(fù)數(shù)對(duì)虛部的擴(kuò)展,四元數(shù)q可以表示為:
Q=a+bi+cj+dk (1)
其中a,b,c,d表示實(shí)部,i,j,k表示正交的三個(gè)虛數(shù)單位。將彩色圖像的R,G,B分量分別作為三個(gè)虛部分量構(gòu)造四元數(shù),然后進(jìn)行超復(fù)數(shù)分?jǐn)?shù)階傅里葉變換,就可以實(shí)現(xiàn)彩色圖像的整體處理。超復(fù)數(shù)分?jǐn)?shù)階傅里葉變換公式描述如下:
其中:
其中,p1,p2為分?jǐn)?shù)階因子。
1.4 顯著性圖計(jì)算
當(dāng)?shù)玫讲噬珗D像的超復(fù)數(shù)分?jǐn)?shù)階傅里葉變換頻譜F時(shí),寫(xiě)成極坐標(biāo)的形式:
F=‖F(xiàn)‖eηφ (6)
其中φ為相位,η為單位純虛四元數(shù)。令‖F(xiàn)‖=1,計(jì)算F的重構(gòu)圖 :
(7)
最后利用下式計(jì)算得到顯著圖。
(8)
其中G為二維高斯濾波器,高斯分布參數(shù)δ=3。將不同尺度下的顯著圖進(jìn)行歸一化融合后得到最終的顯著圖,如公式(9)(10),其中N為小波分解級(jí)數(shù)。
2 實(shí)驗(yàn)仿真及評(píng)價(jià)
通過(guò)實(shí)驗(yàn)比較本文MWPQFrT算法的有效性,圖像尺寸256x256。本文算法中的參數(shù):小波分解的級(jí)數(shù)N=3,最佳分?jǐn)?shù)階因子p1=p2=1.3,高斯濾波器參數(shù)σ=3。其他待比較的算法使用的參數(shù)均取自相應(yīng)文獻(xiàn)中給定的最佳值。實(shí)驗(yàn)結(jié)果通過(guò)準(zhǔn)確率P、召回率R和F值三個(gè)客觀指標(biāo)進(jìn)行衡量。
(13)
其中G={gi,j|gi,j=0or1}為人工標(biāo)定圖,M={αi,j|αi,j=0or1}是顯著圖的二值化結(jié)果,本文中α取0.3。
由圖4可知,本文算法檢測(cè)提取的顯著目標(biāo)區(qū)域亮度大且均勻,顯著目標(biāo)能量更集中且有效的剔除了背景干擾信息。由二值化處理結(jié)果圖可知,本文算法檢測(cè)提取的目標(biāo)區(qū)域完整性保持的很好。同時(shí),本文算法的時(shí)間復(fù)雜度低,具有一定的實(shí)時(shí)性。最后,綜合衡量,本文算法更優(yōu)。
圖4 各種顯著性算法效果圖(按列從左到右:原圖,Itti,CA,F(xiàn)_tuned,
PQFT,本文算法,本文算法二值化結(jié)果)
表1 各種算法客觀性能比較
由表1可知,本文算法在準(zhǔn)確率P,召回率R,F(xiàn)值三個(gè)客觀指標(biāo)上明顯優(yōu)于其他算法,這說(shuō)明本文算法在彩色圖像顯著目標(biāo)檢測(cè)提取中具有更好的效果。
3 結(jié)束語(yǔ)
在彩色圖像顯著目標(biāo)檢測(cè)提取中,本文引入超復(fù)數(shù)分?jǐn)?shù)階傅里葉變換,不需要進(jìn)行灰度轉(zhuǎn)換,同時(shí)通過(guò)調(diào)節(jié)分?jǐn)?shù)階因子p,使得提取的譜相位信息更能反映圖像中顯著目標(biāo)的輪廓等細(xì)節(jié)。實(shí)驗(yàn)表明,本文算法具有更加明顯的優(yōu)勢(shì)和效果。
參考文獻(xiàn):
[1]Nevrez Imamoglu,LIN Wei-si,F(xiàn)ANG Yu-ming.A Saliency Detection Model Using Low-Level Features Based on Wavelet Transform[J].IEEE Trans.on Multimedia,2013.
[2]Itti L,Koch C,Niebur E. A Model of Saliency-based Visual Attention for Rap-id Scene Analysis[J].IEEE Trans. on Pa-ttern Analysis and Machine Intelligence,1998(11):1254-1259.
[3]Scholkopf B,Platt J,Hofmann T Graph--Based Visual Saliency[J].Anvances in Neural Information Processing Systems 19:Proceedings of the 2006 Conference,2006.
[4]HOU Xiao-di,ZHANG Li-qing.Saliency Detection:A Spectral Residual Approach[C].Proc,of IEEE Conference on Comp-uterVision and Pattern Recognition.Min-neapolis,USA:IEEE Press,2007.
[5]邢燕.四元數(shù)及其在圖形圖像處理中的應(yīng)用研究[D].合肥:合肥工業(yè)大學(xué),2009(11).
作者簡(jiǎn)介:華見(jiàn)(1986-),男,碩士,主要研究方向:圖像處理、計(jì)算機(jī)視覺(jué)特征識(shí)別;張家樹(shù)(1965-),男,博士,教授,主要研究方向:圖像視頻處理、生物特征識(shí)別、模式識(shí)別、非線性信號(hào)處理、抗干擾通信。
作者單位:西南交通大學(xué),成都 610031