亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于稀疏和低秩表示的顯著性目標(biāo)檢測

        2015-12-20 01:09:24劉甜甜
        電子科技 2015年2期
        關(guān)鍵詞:先驗字典背景

        劉甜甜

        (西安電子科技大學(xué)數(shù)學(xué)與統(tǒng)計學(xué)院,陜西西安 710126)

        視覺顯著性在計算機視覺和圖像理解中有著重要作用并且涉及范圍廣,包括認(rèn)知心理學(xué)[1]、神經(jīng)生物學(xué)[2]等。由于計算機視覺和圖像處理的應(yīng)用不斷地廣泛,顯著性目標(biāo)檢測也引起了越來越多致力于信號處理、計算機視覺和機器學(xué)習(xí)研究工作的學(xué)者的研究,并很好地被運用到與其相關(guān)的應(yīng)用中,例如:圖像自動裁剪[3]、圖像/視頻壓縮[4],圖像分割[5]、目標(biāo)識別[6]和圖像自適應(yīng)等。目前的顯著性檢測主要分為有監(jiān)督的自上而下的顯著性目標(biāo)檢測(包括人臉識別等)和無監(jiān)督的自下而上的檢測方法,二者的主要區(qū)別在于所要檢測的顯著性目標(biāo)是否為人為指定的。本文研究的是無監(jiān)督的自下而上的顯著性目標(biāo)檢測方法。

        顯著性目標(biāo)檢測方法旨在自動地找出一幅圖像中包含有用信息的人們感興趣的部分,人類視覺系統(tǒng)很容易找出一幅圖像中所關(guān)注的部分,但對于機器而言則并不簡單。所有自下而上的顯著性檢測方法對圖像中顯著性目標(biāo)物和背景都有一定的先驗假設(shè),例如:對比度、緊性等,基于這些假設(shè)研究者們提出了各種顯著性檢測方法。

        在自然圖像中人類視覺系統(tǒng)所感興趣的往往是一些特殊的內(nèi)容,這些內(nèi)容是圖像中較小的一部分且是稀疏分布的,可稱這些引起人類視覺系統(tǒng)感興趣的部分為顯著性部分,因此從這方面講,顯著性檢測就有這樣的一個先驗假設(shè),即顯著性目標(biāo)在整幅圖像上是稀疏的,這樣一幅圖像就可以被看做是背景加上在背景上稀疏分布的一些顯著性目標(biāo)。顯著性前景往往具有某些特殊的特征比如:顏色、亮度、方向性、紋理結(jié)構(gòu)等,相比于前景,背景區(qū)域的特征就不是很明顯,因而不會引起人們太多注意。C.Lang[7],X.Shen[8]等人提出圖像背景具有低秩特性進而自然圖像可以被分解為一個低秩矩陣和一個稀疏矩陣,本文基于文獻[7~8]的方法將背景看做為在某個字典下的低秩表示矩陣,不同于文獻[7]將原始圖像作為字典,文中根據(jù)背景的一些先驗假設(shè)選出一部分背景作為字典來低秩表示整個背景,即背景是可被自己低秩表示的。首先提取出原始圖像每個像素的特征,根據(jù)這些特征將圖像進行超像素分割,不同于文獻[7]中的矩形圖像塊以分割后的超像素為單元,根據(jù)文獻[9]所表明的圖像邊界可較好地作為背景模型,并選取落在邊界上的超像素作為背景字典來低秩表示圖像的背景部分,最后根據(jù)每個像素所屬的超像素在背景上的稀疏程度來衡量其的顯著性。

        1 相關(guān)的研究工作

        近年來已經(jīng)有大量的研究者致力于顯著性檢測方面的研究,所有基于自下而上的無監(jiān)督的顯著性檢測方法對原始圖像都有某種先驗假設(shè),例如前景和背景的對比度和緊性差異等,不同的方法均只是對這些先驗假設(shè)從不同方面的理解而提出的,主要有以下幾類:

        (1)基于局部和全局對比的顯著性檢測方法。Itti[10]等人提出了多尺度中心 -環(huán)繞對比的方法,S.Goferman[11]等人根據(jù)心理學(xué)提出的4條人類視覺顯著性原則同時結(jié)合局部和全局的對比提出了他們的方法,該方法能夠較好地檢測出顯著性目標(biāo),但只能檢測出邊緣部分不能很好地檢測出整個顯著性目標(biāo)。Bruce.[12]提出了用自信息量來衡量顯著性。

        (2)基于數(shù)學(xué)意義下的變換域顯著性目標(biāo)的檢測。Hou.[13-15]于2007 年在 cvpr上首次提出的基于頻域殘差的顯著性檢測方法,文中指明頻域殘差(Spectral Residual)和顯著性相關(guān)。

        (3)基于圖的顯著性檢測:J.Harel等人提出了基于圖的視覺顯著性檢測[16],將一幅圖像看做圖,并在圖上定義了馬爾科夫鏈,文獻[17~18]從文獻[16]中得到啟發(fā)在圖上運用隨機行走和流形排序算法來檢測顯著性。

        (4)基于稀疏和低秩表示的顯著性檢測方法:在對圖像顯著性的先驗假設(shè)中,稀疏和低秩先驗逐漸被研究者討論并應(yīng)用[7-8]。文獻[8]中將原始圖像看做是一個低秩矩陣加上一個稀疏矩陣,即X=L+S,通過解這一模型

        不同于文獻[8],文獻[7]則是將背景看作是XZ要求Z 低秩,即

        文獻[7]能較好的檢測出小目標(biāo)物,但對于大的目標(biāo)則只能檢測出輪廓而無法更好地檢測出整個區(qū)域。不同于文獻[7~8],本文用先驗背景來低秩表示整個背景,即約束X=AX+E,這里選取邊界部分作為背景字典A,用AZ提取整幅圖像的背景,AZ中不含顯著性目標(biāo)的部分,E被認(rèn)為是前景也即顯著性目標(biāo)。選取的背景字典中不含有顯著性目標(biāo),所以恢復(fù)出的低秩部分就是純背景,不含有顯著性目標(biāo)的任何部分。

        2 本文方法

        2.1 圖像分割和背景字典提取

        為了能更準(zhǔn)確地檢測出顯著性目標(biāo)且不會有過多干擾,將原始圖像進行超像素分割,分割成一些小的塊,這些塊的形狀與圖像內(nèi)容有關(guān),如圖1所示,這是便于生成有清楚輪廓的顯著性目標(biāo)圖。文中以一個超像素作為一個單元,首先從RGB顏色空間和Lab空間提取出每個像素點的D(D=6)維特征,然后將超像素的所有像素點特征的均值作為該超像素的特征x=[r,g,b1,l,a,b2]T,則可將一幅圖看做 X=[x1,x2,…,xN]∈RD×N,N為超像素個數(shù),D為特征維數(shù),X的每一列為一個超像素的特征,顯著性度量方法是在超像素上定義一個函數(shù)S(xi),S(xi)就是最終得到的顯著性圖。

        文獻[19]表明,圖像的邊界部分可較好的作為背景模型來進行顯著性檢測,據(jù)此,選取落在4個邊界上的所有超像素以其特征作為背景字典A={∈?Ω},?Ω為圖像的4個邊界部分,有了整個圖像特征X和背景字典A,接下來就可以求解背景的一個低秩表示。

        圖1 超像素分割結(jié)果

        2.2 低秩背景下的顯著性估計模型

        顯著性檢測的稀疏性先驗假設(shè)認(rèn)為顯著性目標(biāo)是稀疏分布在圖像上的,但一幅圖像的背景不易估計,文獻[7]的方法對于較大的顯著性目標(biāo)會將顯著性物內(nèi)部作為背景處理,只能檢測出顯著性邊界部分。本文選取邊界超像素作為字典來恢復(fù)出一個不包含顯著性目標(biāo)的背景,同時檢測出顯著性目標(biāo)物,模型如下

        假定E*為(3)對應(yīng)于E的最優(yōu)解,為得到每一個超像素的顯著性指標(biāo)S(xi),需做如下的后處理

        2.3 模型的解法

        算法1 基于稀疏和低秩表示的顯著性目標(biāo)檢測

        輸入 需要檢測的圖像I和相應(yīng)參數(shù)。

        步驟1 用超像素分割將圖像I分割成N個圖像塊,每一個圖像塊為一個超像素;

        步驟2 提取每一個超像素的D維特征xi,生成一個D×N大小的圖像特征矩陣X;

        步驟3 優(yōu)化式(3)解得稀疏矩陣E*;

        步驟4 通過式(4)得到顯著性圖;

        輸出 顯著性圖。

        式(3)的優(yōu)化過程可簡單地采用文獻[20]提出的方法。通過增廣拉格朗日(ALM)將約束問題轉(zhuǎn)化為無約束問題。式(3)等價于

        用增廣拉格朗日方法解式(5)

        其中,Y,W是拉格朗日乘子;μ是罰參數(shù)。式(6)可由交替方向(ADM)求解,交替方向方法如算法2。

        算法2 交替方向法解式(6)。

        輸入 矩陣X和參數(shù)λ

        循環(huán)迭代:

        步驟2 固定其他變量更新Z:Z=(I+ATA)-1

        步驟4 更新拉格朗日乘子Y=Y+μ(X-XZE);W=W+μ(Z -J)。

        步驟5 更新罰因子 μ=min(ρμ,1010),ρ用于控制收斂速度,試驗選取ρ=1.1。

        步驟6 檢查收斂條件:X-XZ-E→0,Z-J→0。

        結(jié)束,并輸出最優(yōu)解E*。

        3 實驗結(jié)果

        為便于處理同時降低計算量,將所有測試圖像大小縮放為256×256。進行超像素分割時,當(dāng)分割數(shù)目過多不僅增加了計算復(fù)雜度,同時使得特征對噪聲敏感。分割過少影響模型解的可用性,實驗結(jié)果顯示,當(dāng)超像素個數(shù)為300時能得到最佳的顯著性。文中取平衡因子λ=0.05。實驗中隨機從MSRA[21]圖庫中選取測試圖像,生成相應(yīng)的顯著性圖,如圖2所示。同時將本文方法和一些主流的顯著性檢測方法所得到的結(jié)果進行了對比,例如文獻[8,10,11,16,22]。從圖2 可看出,本方法能更精準(zhǔn)地檢測出顯著性目標(biāo)。

        4 結(jié)束語

        本文提出了一種改進了的基于低秩和稀疏表示的顯著性目標(biāo)檢測方法,利用圖像背景的先驗性假定,選擇了一個更合適的圖像背景字典,通過稀疏和低秩表示的方法估計出圖像的低秩背景與稀疏前景,并給出一種顯著性度量方法。該方法得益于圖像背景的先驗性假設(shè),即中心偏好。大量實驗結(jié)果表明,本方法能更準(zhǔn)確地檢測到顯著性目標(biāo)。

        圖2 顯著性圖比較

        如圖2所示,從左到右依次為:原始圖像;文獻[11]的顯著性圖;文獻[22]的顯著性圖;文獻[8]的顯著性圖;文獻[16]的顯著性圖;以及本方法得到的顯著性圖。

        [1]Wolfe J.Guided search 2.0.A revised model of visual search[J].Psychonomic Bulletin & Review,1994,1(2):202 -238.

        [2]Steven Yantis.Sensation and perception[M].New York:Worth Publishers,2013.

        [3]Santella A,Agrawala M,Decarlo D,et al.Gaze - based interaction for semi- automatic photo cropping[C].In Proceeding SIGCHI Conference Human Factors Computer,2006:771-780.

        [4]Bradley A,Stentiford F.Visual attention for region of interest coding[J].J.Vis.Commun.Image Represent.,2003,14(3):232-250.

        [5]Wang L,Xue J,Zheng N,et al.Automatic salient object extraction with contextual cue[C].In ICCV,2011.

        [6]Navalpakkam V,Itti L.An integrated model of top - down and bottom-up attention for optimizing detection speed[C].In CVPR,2006.

        [7]Lang Congyan,Liu Guangcan,Yu Jian,et al.Saliency detection by multitask sparsity pursuit[J].IEEE Transactions on Image Processing,2012,21(3):1327 -1338.

        [8]Shen Xiaohui,Wu Ying.A unified approach to salient object detection via low rank matrix recovery[C].2012 IEEE Conference on Computer Vision and Pattern Recognition(CVPR),2012:853,860.

        [9]Wei Y,Wen F,Zhu W,et al.Geodesic saliency using background priors[C].In ECCV,2012:29 -42.

        [10]Itti L,Koch C,Niebur E.A model of saliency- based visual attention for rapid scene analysis[J].IEEE Transactions on PAMI,1998,20(11):1254 -1259.

        [11]Goferman S,Zelnik Manor L,Tal A.Context- aware saliency detection[J].IEEE Transactions on Pattern Anal Mach Intell.,2012,34(10):1915 -26.

        [12]Bruce N,Tsotsos J.Saliency based on information maximization[M].NZ USA:NIPS,2006.

        [13]Hou X,Zhang L.Saliency detection:A spectral residual approach[C].In IEEE Conference of Computer Vision and Pattern Recognition,2007.

        [14]Guo C,Ma Q,Zhang L.Spatio-temporal saliency detection using phase specrum of quaternion fourier transform[C].In IEEE Conference of Computer Vision and Pattern Recognition,2008.

        [15]Hou Xiaodi,Harel J,Koch C.Image signature:highlighting sparse salient regions[J].IEEE Transactions on Pattern A-nalysis and Machine Intelligence,2012,34(1):194 -201.

        [16]Sch?lkopf B,Platt J.,Hofmann T.Advances in neural information processing systems[C].Proceedings of the 2006 Conference,2006:545 -552.

        [17]Gopalakrishnan V,Yiqun Hu,Rajan D.Random walks on graphs for salient object detection in images[J].IEEE Transactions on Image Processing,2010,19(12):3232 -3242.

        [18]Yang Chuan,Hang Lihe,Lu Huchuan,et al.Saliency detection viagraph -based manifold ranking[C].2013 IEEE Conference on Computer Vision and Pattern Recognition(CVPR),2013:3166 -3173.

        [19]Wei Y,Wen F,Zhu W,et al.Geodesic saliency using background priors[C].In ECCV,2012.

        [20]Liu G,Lin Z,Yan S,et al.Robust recovery of subspace structures by low -rank representation[J].IEEE Transactions on Pattern Anal.Mach.Intell.,2010(8):993 -1001.

        [21]Liu T,Sun J,Zheng N,et al.Learning to detect a salient object[C].In Proceeding of IEEE Conference Computation Vision Pattern Recognition,2007:1 -8.

        [22]Radhakrishna Achanta,Sabine Susstrunk.Saliency detection using maximum symmetric surround[C].Hong Kong:International Conference on Image Processing(ICIP),2010.

        猜你喜歡
        先驗字典背景
        開心字典
        家教世界(2023年28期)2023-11-14 10:13:50
        開心字典
        家教世界(2023年25期)2023-10-09 02:11:56
        “新四化”背景下汽車NVH的發(fā)展趨勢
        《論持久戰(zhàn)》的寫作背景
        基于無噪圖像塊先驗的MRI低秩分解去噪算法研究
        基于自適應(yīng)塊組割先驗的噪聲圖像超分辨率重建
        晚清外語翻譯人才培養(yǎng)的背景
        我是小字典
        正版字典
        讀者(2016年14期)2016-06-29 17:25:50
        基于平滑先驗法的被動聲信號趨勢項消除
        欧美激情乱人伦| 无码专区一ⅴa亚洲v天堂| 亚洲av粉色一区二区三区| 亚洲的天堂av无码| 日日天干夜夜狠狠爱| 日韩精品中文字幕一区二区| 狠狠色丁香婷婷久久综合2021| 国产微拍精品一区二区| 少妇性俱乐部纵欲狂欢电影| 国产激情一区二区三区不卡av| 无码av永久免费大全| 国产精品女同一区二区| 国产午夜福利在线观看红一片| 国产熟女露脸91麻豆| 国语对白三级在线观看| 国产在线欧美日韩一区二区| 男男车车的车车网站w98免费| 欧美激情综合色综合啪啪五月| 国产三级精品av在线| 色婷婷精品国产一区二区三区| 无码午夜剧场| 欧美巨大xxxx做受l| 美丽人妻在夫前被黑人| 午夜视频在线观看视频在线播放 | 国产精品一区二区暴白浆| 国产一卡2卡3卡四卡国色天香| 永久免费a∨片在线观看| 高潮内射主播自拍一区| 熟女乱乱熟女乱乱亚洲| 制服无码在线第一页| 亚洲欧美日韩精品高清| 亚洲精品92内射| 又色又爽又黄高潮的免费视频| 亚洲最大中文字幕熟女| 九一精品少妇一区二区三区| 亚洲日本视频一区二区三区| 午夜视频网址| 久久中文字幕乱码免费| 性欧美暴力猛交69hd| 久久精品99久久香蕉国产| 中文亚洲av片不卡在线观看|