亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于小波超復(fù)數(shù)分?jǐn)?shù)階相位的顯著目標(biāo)檢測(cè)

        2014-04-29 00:00:00華見(jiàn)?張家樹(shù)

        摘 要:針對(duì)彩色圖像中顯著目標(biāo)檢測(cè),提出聯(lián)合多尺度小波變換和超復(fù)數(shù)分?jǐn)?shù)階相位(Multi-scale Wavelet and Phase of Quaternion Fractional Fourier Transform,MWPQFrT)的顯著目標(biāo)檢測(cè)算法。結(jié)合人眼的視覺(jué)特性、多尺度小波變換的高分辨率特性、分頻特性和超復(fù)數(shù)分?jǐn)?shù)階傅里葉變換的相位譜信息,在沒(méi)有任何先驗(yàn)知識(shí)的條件下,能準(zhǔn)確檢測(cè)出彩色圖像中的顯著目標(biāo),具有很好的視覺(jué)檢測(cè)效果。

        關(guān)鍵詞:顯著性目標(biāo);彩色圖像;多尺度小波變換;超復(fù)數(shù)分?jǐn)?shù)階傅里葉變換

        中圖分類號(hào):TP391

        視覺(jué)顯著性來(lái)源于人眼對(duì)周?chē)h(huán)境中凸顯目標(biāo)的強(qiáng)感知,人眼的這種感知具有選擇性。但在計(jì)算機(jī)視覺(jué)處理中,需要構(gòu)造視覺(jué)模型來(lái)模擬人眼的視覺(jué)感知機(jī)制?,F(xiàn)有的視覺(jué)模型分為兩類:自底向上和自頂向下[1]。目前,視覺(jué)模型的大部分都是采用自底向上的構(gòu)造方式,即利用顏色、亮度、邊緣等特征來(lái)模擬刺激視覺(jué)皮層的感知域,進(jìn)而突出目標(biāo)區(qū)域和它周?chē)牟町悺?/p>

        具有代表性的是Itti模型[2]及GBVS[3]模型,它們利用顏色、亮度、方向特征,進(jìn)行中心周邊差分濾波和歸一化處理,最后獲得顯著目標(biāo),具有較好的抗噪能力,但會(huì)丟失局部信息且精度不高。Hou等[4]人提出在頻域利用譜殘差(Spectral Residual,SR)的方法檢測(cè)顯著目標(biāo),但該方法抗噪能力差且理論依據(jù)不足。Chenlei Guo等人提出利用譜相位計(jì)算顯著目標(biāo)。Stas Goferman等人提出利用上下文感知來(lái)構(gòu)造視覺(jué)模型。還有學(xué)者考慮在不同顏色空間下建立視覺(jué)注意模型。

        總結(jié)現(xiàn)有的顯著目標(biāo)檢測(cè)算法發(fā)現(xiàn),它們均存在普遍的缺點(diǎn):顯著目標(biāo)區(qū)域分辨率低,檢測(cè)目標(biāo)區(qū)域亮度小,邊界模糊,難以較完整的描述顯著目標(biāo),計(jì)算量大。本文提出的MWPQFrT算法,引入分?jǐn)?shù)階p值,增加了算法的靈活性,同時(shí)提高了顯著目標(biāo)檢測(cè)效果。

        1 MWPQFrT算法原

        1.1 MWPQFrT算法流程

        MWPQFrT主要是檢測(cè)彩色圖像中存在的顯著目標(biāo),算法的主要步驟描述如下:(1)將原彩色圖像進(jìn)行多尺度小波分解。(2)提取每一尺度子圖下的HL,HH,LH高頻子圖。(3)對(duì)(2)中同一尺度下的各個(gè)高頻子圖分別進(jìn)行超復(fù)數(shù)分?jǐn)?shù)階傅里葉變換相位提取,再進(jìn)行反變換,并歸一化提取出顯著目標(biāo)。(4)將不同尺度下提取出的顯著目標(biāo)再進(jìn)行歸一化融合,得到最終的顯著目標(biāo)。

        算法流程如圖1所示。

        1.2 離散小波變換

        在MWPQFrT算法中,小波變換就是要得到不同尺度下的多分辨率圖像。圖像經(jīng)過(guò)小波變換后得到4個(gè)子帶分量:低頻,水平高頻,垂直高頻和對(duì)角高頻,如圖2所示。低頻部分反映的是背景信息,高頻部分反映細(xì)節(jié)、邊緣、紋理等,如圖3所示。因此,在MWPQFrT算法中,我們只需要保留高頻信息。

        1.3 超復(fù)數(shù)分?jǐn)?shù)階傅里葉變換

        彩色圖像由R、G、B三個(gè)通道組成,它們之間具有很強(qiáng)的內(nèi)在關(guān)聯(lián)。對(duì)彩色圖像的整體處理,需要借助圖像處理四元數(shù)理論。四元數(shù)可視為復(fù)數(shù)對(duì)虛部的擴(kuò)展,四元數(shù)q可以表示為:

        Q=a+bi+cj+dk (1)

        其中a,b,c,d表示實(shí)部,i,j,k表示正交的三個(gè)虛數(shù)單位。將彩色圖像的R,G,B分量分別作為三個(gè)虛部分量構(gòu)造四元數(shù),然后進(jìn)行超復(fù)數(shù)分?jǐn)?shù)階傅里葉變換,就可以實(shí)現(xiàn)彩色圖像的整體處理。超復(fù)數(shù)分?jǐn)?shù)階傅里葉變換公式描述如下:

        其中:

        其中,p1,p2為分?jǐn)?shù)階因子。

        1.4 顯著性圖計(jì)算

        當(dāng)?shù)玫讲噬珗D像的超復(fù)數(shù)分?jǐn)?shù)階傅里葉變換頻譜F時(shí),寫(xiě)成極坐標(biāo)的形式:

        F=‖F(xiàn)‖eηφ (6)

        其中φ為相位,η為單位純虛四元數(shù)。令‖F(xiàn)‖=1,計(jì)算F的重構(gòu)圖 :

        (7)

        最后利用下式計(jì)算得到顯著圖。

        (8)

        其中G為二維高斯濾波器,高斯分布參數(shù)δ=3。將不同尺度下的顯著圖進(jìn)行歸一化融合后得到最終的顯著圖,如公式(9)(10),其中N為小波分解級(jí)數(shù)。

        2 實(shí)驗(yàn)仿真及評(píng)價(jià)

        通過(guò)實(shí)驗(yàn)比較本文MWPQFrT算法的有效性,圖像尺寸256x256。本文算法中的參數(shù):小波分解的級(jí)數(shù)N=3,最佳分?jǐn)?shù)階因子p1=p2=1.3,高斯濾波器參數(shù)σ=3。其他待比較的算法使用的參數(shù)均取自相應(yīng)文獻(xiàn)中給定的最佳值。實(shí)驗(yàn)結(jié)果通過(guò)準(zhǔn)確率P、召回率R和F值三個(gè)客觀指標(biāo)進(jìn)行衡量。

        (13)

        其中G={gi,j|gi,j=0or1}為人工標(biāo)定圖,M={αi,j|αi,j=0or1}是顯著圖的二值化結(jié)果,本文中α取0.3。

        由圖4可知,本文算法檢測(cè)提取的顯著目標(biāo)區(qū)域亮度大且均勻,顯著目標(biāo)能量更集中且有效的剔除了背景干擾信息。由二值化處理結(jié)果圖可知,本文算法檢測(cè)提取的目標(biāo)區(qū)域完整性保持的很好。同時(shí),本文算法的時(shí)間復(fù)雜度低,具有一定的實(shí)時(shí)性。最后,綜合衡量,本文算法更優(yōu)。

        圖4 各種顯著性算法效果圖(按列從左到右:原圖,Itti,CA,F(xiàn)_tuned,

        PQFT,本文算法,本文算法二值化結(jié)果)

        表1 各種算法客觀性能比較

        由表1可知,本文算法在準(zhǔn)確率P,召回率R,F(xiàn)值三個(gè)客觀指標(biāo)上明顯優(yōu)于其他算法,這說(shuō)明本文算法在彩色圖像顯著目標(biāo)檢測(cè)提取中具有更好的效果。

        3 結(jié)束語(yǔ)

        在彩色圖像顯著目標(biāo)檢測(cè)提取中,本文引入超復(fù)數(shù)分?jǐn)?shù)階傅里葉變換,不需要進(jìn)行灰度轉(zhuǎn)換,同時(shí)通過(guò)調(diào)節(jié)分?jǐn)?shù)階因子p,使得提取的譜相位信息更能反映圖像中顯著目標(biāo)的輪廓等細(xì)節(jié)。實(shí)驗(yàn)表明,本文算法具有更加明顯的優(yōu)勢(shì)和效果。

        參考文獻(xiàn):

        [1]Nevrez Imamoglu,LIN Wei-si,F(xiàn)ANG Yu-ming.A Saliency Detection Model Using Low-Level Features Based on Wavelet Transform[J].IEEE Trans.on Multimedia,2013.

        [2]Itti L,Koch C,Niebur E. A Model of Saliency-based Visual Attention for Rap-id Scene Analysis[J].IEEE Trans. on Pa-ttern Analysis and Machine Intelligence,1998(11):1254-1259.

        [3]Scholkopf B,Platt J,Hofmann T Graph--Based Visual Saliency[J].Anvances in Neural Information Processing Systems 19:Proceedings of the 2006 Conference,2006.

        [4]HOU Xiao-di,ZHANG Li-qing.Saliency Detection:A Spectral Residual Approach[C].Proc,of IEEE Conference on Comp-uterVision and Pattern Recognition.Min-neapolis,USA:IEEE Press,2007.

        [5]邢燕.四元數(shù)及其在圖形圖像處理中的應(yīng)用研究[D].合肥:合肥工業(yè)大學(xué),2009(11).

        作者簡(jiǎn)介:華見(jiàn)(1986-),男,碩士,主要研究方向:圖像處理、計(jì)算機(jī)視覺(jué)特征識(shí)別;張家樹(shù)(1965-),男,博士,教授,主要研究方向:圖像視頻處理、生物特征識(shí)別、模式識(shí)別、非線性信號(hào)處理、抗干擾通信。

        作者單位:西南交通大學(xué),成都 610031

        亚洲av高清一区二区| 欧美一区波多野结衣第一页| 久久亚洲国产欧洲精品一| 国产在线视频一区二区三| 99噜噜噜在线播放| 欧美裸体xxxx极品少妇| 国产美熟女乱又伦av果冻传媒| av网站影片在线观看| 在线播放国产自拍av| 国产成人喷潮在线观看| 亚洲另类激情综合偷自拍图| 国产主播一区二区在线观看| 国产黄久色一区2区三区| 国产做爰又粗又大又爽动漫| 色一情一乱一伦一区二区三欧美| 好爽~又到高潮了毛片视频| 亚洲免费在线视频播放| 亚洲av综合色区| 18分钟处破好疼哭视频在线观看| 中年人妻丰满AV无码久久不卡| 人妻少妇无乱码中文字幕| 国产视频激情视频在线观看| 国产乱人无码伦av在线a| 日本熟妇色xxxxx欧美老妇| 天天草夜夜草| 五十路一区二区中文字幕| 午夜性刺激免费看视频| 性色av一区二区三区| 国产艳妇av在线出轨| 亚洲中文字幕乱码免费看| 国产av无码专区亚洲av男同| 男男受被攻做哭娇喘声视频| 国产福利小视频在线观看| 一本久道在线视频播放| 国产美女主播视频一二三区| 日本高清视频www| 亚洲男女免费视频| 激情视频在线播放一区二区三区| 97人妻人人揉人人躁九色| 国产av无码专区亚洲av极速版| 午夜短无码|