亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于區(qū)域?qū)Ρ鹊膱D像顯著性檢測方法

        2018-05-21 06:20:48孫赫赫尚曉清
        計算機(jī)工程與應(yīng)用 2018年10期
        關(guān)鍵詞:像素聚類顯著性

        孫赫赫,尚曉清,王 沖

        西安電子科技大學(xué) 數(shù)學(xué)與統(tǒng)計學(xué)院,西安 710126

        1 引言

        圖像顯著區(qū)域檢測是把人類視覺系統(tǒng)感興趣的地方快速準(zhǔn)確地定位并提取出來。近年來,隨著計算機(jī)視覺的發(fā)展,圖像顯著區(qū)域檢測廣泛應(yīng)用在圖像分割[1]、圖像檢索[2]、圖像壓縮[3]以及基于內(nèi)容感知的圖像縮放[4]等領(lǐng)域。圖像顯著區(qū)域檢測一般分為兩種:基于局部對比的顯著性檢測方法和基于全局對比的顯著性檢測方法。

        基于局部對比的顯著區(qū)域檢測是把圖像單元與其鄰域之間的不同特征的對比度作為顯著性值。Itti等[5]通過利用中心周邊差算法計算不同尺度不同特征的圖像顯著性;Ma等[2]提出了一種基于局部對比分析的顯著性模型,利用模糊增長的方法計算像素和其鄰域的特征距離得到顯著性圖。局部對比可以很好檢測出圖像邊緣,但是對整個圖像的顯著物體檢測效果不是很好。全局對比分析方法通過計算整個圖像的對比度得到圖像的顯著性值。Achanta等[6]提出了一種調(diào)頻的顯著性檢測方法,用某個像素的顏色跟圖像平均顏色的差異定義像素的顯著性;Zhai和Shah等[7]提出了一種像素級全局對比方法檢測顯著性區(qū)域,但是他們只提取了亮度特征,忽略了其他重要特征;Cheng等[8]采取顏色直方圖全局對比進(jìn)行圖像顯著性檢測,首先把圖像分割成不同的區(qū)域,然后計算不同區(qū)域的顯著性值,最后得到顯著性圖。

        本文提出了一種基于區(qū)域?qū)Ρ鹊姆椒▽ψ匀粓D像進(jìn)行顯著性檢測。首先利用SLIC[9](Simple Linear Iterative Clustering)超像素分割算法把圖像分割為顏色和紋理一致的超像素;通過計算不同區(qū)域的顏色對比度和空間對比度生成最初的顯著性圖,把顯著性區(qū)域和背景粗略地分割開;然后把圖像子區(qū)域與其鄰域像素平均特征向量之間的距離作為對比度,結(jié)合最初的顯著圖將圖像區(qū)域塊對比上升為像素級別的對比,使提取出來的顯著性圖更加精細(xì);最后結(jié)合中心優(yōu)先原則得到最終的顯著圖。與最近的五種顯著性檢測算法對比,實驗結(jié)果表明,本文可以得到更高的精度值和查全率,在高亮顯著區(qū)域和抑制背景方面優(yōu)于其他算法。

        2 基本原理

        2.1 SLIC超像素分割處理

        當(dāng)研究基于區(qū)域的圖像顯著性檢測時,首先要把圖像分割為不同的區(qū)域塊,本文采用SLIC[9]超像素分割算法對圖像進(jìn)行分割預(yù)處理。SLIC超像素分割算法首先把圖像中的每一個像素表示為CIELab顏色空間和XY坐標(biāo)下的5維向量,然后構(gòu)造分割度量標(biāo)準(zhǔn),在CIELab顏色空間采取k-means聚類方法生成若干個緊湊均勻且保留目標(biāo)邊界的超像素。SLIC超像素分割算法比較簡單,能夠快速生成超像素,具體步驟如下:

        (1)初始化聚類中心:假設(shè)一幅圖像有N個像素,k為分割的超像素個數(shù),那么每個超像素大小為N/k個像素,每個聚類中心用5維向量表示為:Ci=[li,ai,bi,xi,yi]T,其中包括CIELab顏色空間的顏色特征[li,ai,bi]T和空間坐標(biāo)[xi,yi]T,相鄰兩個聚類中心之間的距離是為了減少把噪聲點作為超像素聚類中心的幾率,在以聚類中心為中心的3×3窗口中,將該聚類中心移動到梯度值最小的位置,同時給每個聚類中心分配一個唯一的標(biāo)簽。

        (2)距離度量:計算在聚類中心2S×2S范圍內(nèi)的像素與該聚類中心的距離,把與該像素距離最近的聚類中心的標(biāo)簽賦給該像素,這種方法不僅保證了精確度,而且大大減少了計算量。像素和聚類中心之間的距離度量計算公式如下:

        其中i表示第i個聚類中心,j表示該聚類中心2S×2S范圍內(nèi)的第 j個像素,dc為顏色距離,ds為空間距離,D為上述像素和聚類中心之間的顏色距離與空間距離的加權(quán)距離是相鄰兩個聚類中心之間的空間距離,m是顏色距離與空間距離的權(quán)值,m值越大說明空間距離占的比重越大,所得到的超像素更加緊湊;反之,m值越小說明顏色距離占的比重越大,所得到的超像素邊緣吻合度更高,m在CIELab顏色空間中的取值范圍是[1,40],為了得到緊湊的超像素,本文m的取值為40。

        (3)迭代過程:在步驟(2)執(zhí)行完之后,每個像素都被分配了一個聚類中心的標(biāo)簽,更新聚類中心,調(diào)整新的聚類中心為與其具有相同標(biāo)簽的所有像素的平均值位置,重復(fù)迭代直到聚類中心不再變化為止。

        2.2 基于區(qū)域?qū)Ρ鹊膱D像顯著性值計算

        圖像的顯著性是由圖像不同區(qū)域與其鄰域的局部對比度決定的,其中顏色對比度很重要,顏色特征是最能將圖像的顯著目標(biāo)與背景相區(qū)別的特征。定義圖像中任意兩個像素 pi和 pj的顏色對比度D( )i,j為像素pi和 pj在CIELab顏色空間上的距離度量,即

        其中i≠j,D(pi,pj)為兩個不同的像素pi和pj在CIELab顏色空間上的歐氏距離。則任意兩個不同區(qū)域Ri和Rj中像素的顏色對比度[10]Dc(Ri,Rj)就可以用像素顏色平均值的歐氏距離來表示,定義Dc(Ri,Rj)計算公式為:

        其中ui和uj分別表示區(qū)域Ri和Rj中的像素在CIELab顏色空間中顏色的均值,‖‖2為歐幾里德距離。則圖像中的某一個區(qū)域Ri的顏色對比度[10]Dc( )Ri可以表示為:其中Rj為圖像中不同于區(qū)域Ri的任意一個區(qū)域,k表示圖像通過SLIC超像素分割算法分割后的超像素數(shù)量。

        圖像的顯著性檢測,除了顏色特征之外,區(qū)域之間的空間特征也很重要。定義Ds( )Ri,Rj為任意兩個不同區(qū)域Ri和Rj的區(qū)域中心點在圖像中的空間歐幾里德距離,則圖像中的某一個區(qū)域Ri的空間對比度[10]Ds( )

        Ri表示為:

        其中Rj為圖像中不同于區(qū)域Ri的任意一個區(qū)域,k表示圖像通過SLIC超像素分割算法分割后的超像素數(shù)量。所以可以得到某個區(qū)域Ri對比度[11]d( )Ri計算公式為:

        其中ω是控制空間距離的權(quán)值參數(shù),本文取值為5。對任意的區(qū)域Ri,當(dāng)d( )Ri的值很大時,說明區(qū)域Ri是顯著的,因此Ri的顯著性值[11]在大小上可以定義為:

        從而可以得到最初的顯著圖S1,每個像素最初的顯著性值為S1(i)。

        2.3 提取顯著性區(qū)域

        由于圖像區(qū)域?qū)Ρ榷仁腔趨^(qū)域塊級別的,為了使提取出來的顯著性圖更加精細(xì),本文把圖像子區(qū)域與其鄰域像素平均特征向量之間的距離作為對比度[12],然后結(jié)合最初的顯著圖將圖像區(qū)域塊對比上升為像素級別的對比。計算區(qū)域Ri和Rj的像素平均特征向量之間的距離如下:

        其中分別是區(qū)域Ri和Rj的平均特征向量,‖‖2為歐幾里德距離。區(qū)域Ri和Rj的平均特征向量利用積分圖像[13]的方法計算,通常把Ri選為一個像素。因此圖像的顯著性值S2(i)定義為:

        根據(jù)人類視覺系統(tǒng),人們在看一幅圖像時一般會注意圖像中心位置,即圖像的中心區(qū)域容易成為顯著性目標(biāo)[11]。因此根據(jù)圖像中心優(yōu)先原則,定義圖像中像素 pi位置對圖像顯著性區(qū)域的影響程度

        其中di(pi,c)表示像素 pi到顯著圖中心c的歐幾里德距離,ω為常數(shù),在本文中取值為0.01。因此本文算法圖像最終的顯著性值為:

        3 算法實現(xiàn)步驟

        本文利用SLIC超像素分割算法對圖像進(jìn)行預(yù)分割,將圖像分割為不同的超像素,然后根據(jù)區(qū)域?qū)Ρ榷扔嬎銏D像顯著性值并把區(qū)域塊對比上升為像素級別。最后,由中心優(yōu)先原則得到圖像最終的顯著圖。具體算法步驟如下所示:

        (1)利用SLIC超像素分割算法將輸入圖像分割為200個超像素。

        (2)把每個超像素作為一個區(qū)域,根據(jù)公式(6)和(7)分別計算出每個區(qū)域的顏色對比度和空間對比度。

        (3)由公式(9)得到最初的顯著圖,可以粗略地分辨圖像的背景和顯著區(qū)域。

        (4)通過計算圖像子區(qū)域與其鄰域像素平均特征向量之間的距離,結(jié)合最初的顯著圖,根據(jù)公式(11)把圖像區(qū)域塊對比上升為像素級別對比,使提取的顯著圖更加精細(xì)。

        (5)計算顯著圖的中心位置并對中心位置附近的超像素賦予更高的權(quán)值,由公式(13)得到最終的顯著性區(qū)域。

        算法實現(xiàn)過程如圖1所示。

        4 實驗結(jié)果分析

        本實驗運(yùn)行的系統(tǒng)環(huán)境是Windows 7,內(nèi)存為2 GB,軟件環(huán)境是MATLAB R2012b。采用的圖像來源于圖像顯著性檢測的公開數(shù)據(jù)庫MSRA[6]。MSRA數(shù)據(jù)庫中提供了1 000幅自然圖像以及這1 000幅圖像的ground truth。為了驗證本文提出的顯著性檢測方法的有效性,將本文結(jié)果與近年來流行的五種顯著性檢測算法:IT[5]算法、SR[14]算法,GB[15]算法、FT[6]算法和RC[8]算法結(jié)果進(jìn)行比較,并與MSRA數(shù)據(jù)庫中g(shù)round truth(GT)進(jìn)行對比,比較結(jié)果如圖2所示。

        由實驗結(jié)果可以看出,IT算法只檢測出了圖像顯著區(qū)域的大概位置,不能檢測出全部的顯著區(qū)域,效果圖比較模糊;SR算法和GB算法只突出了顯著區(qū)域?qū)Ρ榷容^大的邊緣,效果也不是很好;FT算法和RC算法可以清楚地看到顯著目標(biāo),但是對于背景的抑制性并不是很好,如第二幅圖和第三幅圖。由上面的顯著圖可以看出,本文算法將顯著性目標(biāo)和背景很好地區(qū)分開,并且有效地抑制了背景區(qū)域。

        為了對本文的顯著性算法性能進(jìn)行比較,將各種算法得到的顯著圖的二值圖與MSRA數(shù)據(jù)庫中g(shù)round truth二值圖進(jìn)行對比,得到了精度查全率曲線[6](Precisionrecall curves)(如圖3(a))。由于顯著圖的顯著性值范圍在[0,255],因此設(shè)定二值化分割的閾值Tf從0增加到255,計算每一個閾值所對應(yīng)的二值圖像的精度和查全率。精度(Precision)和查全率(Recall)定義為:

        圖1 算法實現(xiàn)過程

        圖2 顯著圖效果比較

        其中,SG是MSRA數(shù)據(jù)庫中g(shù)round truth二值圖,SA是算法得到的顯著圖的二值圖。除此之外,還計算了精度和查全率的加權(quán)調(diào)和平均值(如圖3(b)),即FMeasure[6]值:

        其中,β是常數(shù),本文中取β2的值為0.3。比較的結(jié)果如圖3所示。

        圖3 精度、查全率和F值指標(biāo)比較

        從圖3(a)精度查全率曲線可以看出當(dāng)查全率為1的時候,所有算法的精度都近似為0.2,說明在閾值Tf為0時,圖像中所有像素值都為1,0.2是ground truth占圖像面積的比例。當(dāng)查全率為0時,本文算法優(yōu)于IT、SR、GB以及FT算法,但是稍微次于RC算法。由圖3(b)精度、查全率和F值直方圖可知本文算法和RC算法的三個評價指標(biāo)均高于其他算法。雖然本文的結(jié)果在評價指標(biāo)上略次于RC算法,但是從視覺效果上來看,本文算法可以很好地抑制背景,這點比RC算法要好。

        5 結(jié)論

        本文提出了一種基于區(qū)域?qū)Ρ鹊膱D像顯著性檢測方法。首先采用SLIC超像素分割算法將圖像分割為若干個超像素,然后根據(jù)每個區(qū)域的顏色對比度和空間對比度計算出每個區(qū)域的顯著性值,生成最初的顯著圖;再結(jié)合圖像子區(qū)域與其鄰域像素平均特征向量之間的距離,將圖像區(qū)域塊對比上升為像素級別的對比,提高顯著圖的精細(xì)程度;最后根據(jù)中心優(yōu)先原則得到最終的顯著性圖。仿真實驗結(jié)果表明,本文與其他顯著性檢測算法相比,可以有效地檢測出顯著性區(qū)域并且很好地抑制背景。

        [1]Vese L A,Chan T F.A multiphase level set framework for image segmentation using the Mumford and Shah model[J].International Journal of Computer Vision,2004,50(3):271-293.

        [2]Ma Y F,Zhang H J.Contrast-based image attention analysis by using fuzzy growing[C]//Eleventh ACM International Conference on Multimedia,2003:374-381.

        [3]Christopoulos C,Skodras A,Ebrahimi T.The JPEG2000 still image coding system:an overview[J].IEEE Transactions on Consumer Electronics,2000,16(4):1103-1127.

        [4]Wang Y S,Tai C L,Sorkine O,et al.Optimized scaleand-stretch for image resizing[J].ACM Transactions on Graphics,2008,27(5):32-39.

        [5]Itti L,Koch C,Niebur E.A model of saliency-based visual attention for rapid scene analysis[J].IEEE Transactions on Pattern Analysis&Machine Intelligence,1998,20(11):1254-1259.

        [6]Achanta R,Hemami S,Estrada F,et al.Frequency-tuned salient region detection[C]//IEEE International Conference on Computer Vision and Pattern Recognition(CVPR 2009),2009:1597-1604.

        [7]Zhai Y,Shah M.Visual attention detection in video sequences using spatiotemporal cues[C]//ACM International Conference on Multimedia,Santa Barbara,CA,USA,October.2006:478-482.

        [8]Cheng M M,Zhang G X,Mitra N J,et al.Global contrast based salient region detection[C]//Computer Vision and Pattern Recognition,2015:409-416.

        [9]Achanta R,Shaji A,Smith K,et al.SLIC superpixels compared to state-of-the-art superpixel methods[J].IEEE Transactions on Pattern Analysis&Machine Intelligence,2012,34(11):2274-2282.

        [10]Fu K,Gong C,Yang J,et al.Salient object detection via color contrast and color distribution[C]//Asian Conference on Computer Vision,2012:111-122.

        [11]Goferman S,Zelnikmanor L,Tal A.Context-aware saliency detection[J].IEEE Transactions on Pattern Analysis&Machine Intelligence,2012,34(10).

        [12]Achanta R,Estrada F,Wils P,et al.Salient region detection and segmentation[M]//Computer Vision Systems.Berlin Heidelberg:Springer,2008:66-75.

        [13]Viola P,Jones M.Rapid object detection using a boosted cascade of simple features[J].Proc Cvpr,2001,1.

        [14]Hou X,Zhang L.Saliency detection:a spectral residual approach[C]//2013 IEEE Conference on Computer Vision and Pattern Recognition,2007:1-8.

        [15]Harel J,Koch C,Perona P.Graph-based visual saliency[J].Advances in Neural Information Processing Systems,2006,19.

        猜你喜歡
        像素聚類顯著性
        趙運(yùn)哲作品
        藝術(shù)家(2023年8期)2023-11-02 02:05:28
        像素前線之“幻影”2000
        “像素”仙人掌
        基于顯著性權(quán)重融合的圖像拼接算法
        電子制作(2019年24期)2019-02-23 13:22:26
        基于視覺顯著性的視頻差錯掩蓋算法
        基于DBSACN聚類算法的XML文檔聚類
        電子測試(2017年15期)2017-12-18 07:19:27
        一種基于顯著性邊緣的運(yùn)動模糊圖像復(fù)原方法
        論商標(biāo)固有顯著性的認(rèn)定
        高像素不是全部
        CHIP新電腦(2016年3期)2016-03-10 14:22:03
        基于改進(jìn)的遺傳算法的模糊聚類算法
        国内精品视频在线播放不卡 | 亚洲youwu永久无码精品| 99久久综合国产精品免费 | 最新国产成人自拍视频| 亚洲日韩乱码中文无码蜜桃臀| 国产在线无码精品无码| 人妻av不卡一区二区三区| 在线观看国产高清免费不卡黄| 久久久久亚洲av无码专区喷水| 91精品国产综合久久国产 | 国产亚洲精品bt天堂精选| 国产精品亚洲一级av第二区| 国产亚洲第一精品| 大香伊蕉国产av| 免费看又色又爽又黄的国产软件| 国产av黄色一区二区| 91久久青青草原线免费| 国产成人小视频| 中文字幕影片免费人妻少妇| 无码区a∨视频体验区30秒| 欧美最猛性xxxxx免费| 日韩精品一区二区在线天天狠天| 国产精品自在在线午夜出白浆| 欧美成a人片在线观看久| 一区二区三区高清在线观看视频| 国产精品深夜福利免费观看| 午夜无码片在线观看影视| 97精品一区二区三区| 日本熟妇精品一区二区三区| 国产成熟人妻换╳╳╳╳| 漂亮人妻被强了完整版| 亚洲男人在线天堂av| 精品无吗国产一区二区三区av| 日日碰狠狠添天天爽超碰97| 亚洲av永久无码精品古装片 | 国产精品无码a∨精品影院| 青青草国产在线视频自拍 | 久久精品免费一区二区喷潮| 未满十八勿入av网免费| 亚洲国产精品情侣视频| 亚洲日韩精品AⅤ片无码富二代|