李鋒林,李 亮
(西安艾索信息技術有限公司,陜西 西安 710065)
基于顯著性檢測的目標圖像分割算法
李鋒林,李 亮
(西安艾索信息技術有限公司,陜西 西安 710065)
針對由于顯著性檢測算法準確率低下導致的圖像分割錯誤的現象,設計了一種基于改善顯著性檢測算法效果的圖像分割算法。該算法通過輸入的顯著性映射圖獲得目標的一部分,利用這部分區(qū)域作為學習的線索點,然后提出一種基于雙生圖的學習方法獲得其余目標。文中通過仿真的方式對結果進行了驗證,實驗結果表明,該方法可獲得準確度更高,更適合用于圖像分割的顯著性檢測結果。
顯著性檢測;目標分割;圖像處理
顯著性檢測可以用來獲得一個圖像中與周圍最不同的目標或者區(qū)域,且這一目標或區(qū)域可以代表這個圖像,而獲得的這個區(qū)域可以用來處理復雜的視覺任務,在本文中,主要用來分割目標。
顯著性檢測算法通??梢陨梢环叶葓D,來表達一幅圖像中每個像素點作為目標的可能性,這種灰度圖被稱為顯著性映射圖。早期顯著性算法生成的映射圖用來預測視覺注意力點,無法包含準確的目標邊界,而后期的顯著性算法針對這一缺陷,生成了擁有全分辨率的顯著性映射圖卻犧牲了計算效率。針對顯著行映射圖的特性,提出了一種通過改善顯著性映射圖準確率來進行圖像分割的算法[1-4]。
該算法通過大津法對灰度圖像設閾值來獲取一部分點,作為目標區(qū)域的一部分來作為后續(xù)學習的線索點。由于不同顯著性算法的準確率并不穩(wěn)定,本文選用超像素[5]來削弱個別錯誤像素點對后續(xù)算法準確率造成的影響。
本文采用由由D.Zhou等[6-7]首先提出應用于檢索,并被C.Yang[8]等應用顯著性學習中的流形的概念來構造圖。C.Yang[8]等提出的圖算法基于良好的線索點時,可以給出準確率很高的結果,然而在對該算法的效果圖的統(tǒng)計中,發(fā)現當目標包含有兩種及以上的顏色時,使用C.Yang[8]等提出的方法生成的映射圖將會抑制其中一部分的顏色所在的區(qū)域,這一區(qū)域的特征是占有像素較為多,即面積較大的部分,這是這種算法的分類方程在建立的過程中,使用的關系矩陣頂點的值由色彩所決定,當同時有兩種顏色所在的超像素被選定為線索點時,由于它們之間的色彩距離很遠,導致這兩種顏色互相的標記值都會很低。C.Yang[8]等提出的方法所建立的分類方程在迭代多次后,經過證明是收斂的,這就意味著這個方法最終會給出一個穩(wěn)定的狀態(tài),而對于分類而言,比較大的面積或者區(qū)域往往會對應為一個不緊密的狀態(tài),也即不穩(wěn)定,故而顏色所占面積較大區(qū)域的標注值會被抑制,導致最終得到的顯著性映射值比另一個顏色所在區(qū)域的值低,這就會使一個色彩復雜的目標雖然被完整的檢測到,但無法給出含有均勻顯著性值,從而影響后續(xù)的圖像分割。
針對此問題,本文提出了一種被稱為雙生圖的方法來改進算法效果。
圖1 基于顯著性檢測的目標分割算法流程圖
在用大津法對顯著性映射圖進行二值化后,會獲得一幅由值為“1”和“0”的亮點和暗點組成的黑白像素點圖,使用白色像素點來標記超像素獲得線索點。二值化后,個別錯誤峰刺亮點和由于模糊造成的冗余亮點會對后續(xù)方法造成不良影響。在二值化后,選擇形態(tài)學閉操作來減少一些錯誤亮點對于結果的影響。同時一些亮點存在于邊界上,所以不應該把只有少量亮點存在的位于邊界外部的超像素標記為線索點。僅當一個超像素中同時存在亮點和黑點時,需要按照一個合適的比例判定它是否為一個線索點,只有當亮點所占比例超過一個閾值時,才會判定這個超像素點為線索點。
給定的超像素集li。 令f:X→Rn代表排序方程,它會將fi賦值給相應的xi,而f可以被當做向量集f=[f1,…,fn]T。仍然需要定義一個向量y=[y1,…,yn]T,其中當xi是線索點時,yi=1,否則yi=0。用X代表矩陣,這個矩陣將記錄每一對超像素xi和xj之間的距離w(xi,yj),它定義為
(1)
其中,ei和ej代表xi和xj的平均特征,而σ來控制權值的影響,這里取σ2=1。
這個算法過程如下:
(1)構造由wij構成的關系矩陣W;
(2)構造矩陣S=D-1/2WD-1/2,其中D是一個對角陣,它對角線上的元素第(i,i)的值等于矩陣W第i行值的和;
(3)迭代方程f(t+1) =αSf(t)+(1-α)y直到收斂,其中α是值在(0,1)之間的系數;
這個迭代算法可直觀地被理解,首先第一步在數據集X上建立一個關系矩陣W,它對角線上的元素為0;在第二步中,使用歸一化對稱的系數給W加權,后續(xù)將證明這個步驟對于算法的收斂是重要的。前兩步和譜聚類相似。在第三步的迭代過程中,每個頂點在傳播自己信息的同時都接收到了來自它相鄰頂點中的信息。系數α可以確定最終值的信息中,初始值和排序值哪個所占比重較大。由于在第一步中,使得W中所有對角線元素為0,故而這個算法將不受自身信息的影響。除此之外由于S是一個對稱矩陣,所以所有頂點中的信息都會對稱傳播。最終,每個未賦值的頂點將會被賦給迭代收斂時的值。
可以證明序列{f(t)}收斂于[6]
f*=β(I-αS)-1y[6]
(2)
在C.Yang[8]的算法中,每個頂點的特征值取值為這個頂點的色彩平均,邊界存在與否取決于兩個頂點之間是否邊界相鄰,將用這種方法建立的圖稱為C2P圖。由于C2P圖的這些缺陷,本文提出一種相對于C2P對稱存在的P2C圖,這個圖中將作為C2P的輔助圖,稱其為雙生圖,在這個圖中ei和ej代表了相應位置的位置平均值,對兩個點是否相鄰進行重新定義,本文定義兩個顏色平均值較為接近的頂點為相鄰。
將雙生圖的結果相加得到強化的顯著性映射圖,采用大津法再次進行二值化,用得到的二值圖對輸入圖像進行分割即可得到結果。
此次實驗中,采用了SWD[9],AIM[10],IT[11]算法生成的顯著性映射圖作為輸入,分別在MSRA-1K[12]、juddDB[13]和ECSSD[14]圖庫中進行分割。
在圖2~圖4中,從左到右,分別為待檢測的圖片、輸入的顯著性映射圖、雙生圖生成的顯著性映射圖以及經過二值化后對輸入圖片的分割結果。從圖中可以看出,盡管輸入的顯著性映射圖的效果差異很大,但是都可以獲得全分辨率的顯著性映射圖,然后對得到的映射圖進行二值化,即可將待檢測圖中的目標檢測出來。
圖2 圖庫MSRA-1K中,以IT算法的顯著性映射圖為輸入的圖像分割效果圖
圖3 圖庫juddDB中,以SWD算法的顯著性映射圖為輸入的圖像分割效果圖
圖4 圖庫ECSSD中,以AIM算法的顯著性映射圖為輸入的圖像分割效果圖
如圖5所示,盡管輸入的顯著性映射圖表現不佳,但經過本文算法改進后都能在大津法二值化得到的分割圖中取得較高的準確率,從而說明本文中所提出的方法對于分割圖像而言具有較為重要的意義。
圖5 3種不同輸入算法在3種圖庫中的準確率、召回率和F-measure值
本文對已有流形學習中使用的圖進行了改善,提出了一種基于雙生圖的顯著性檢測方法,從而大幅改善了顯著性映射圖的準確性,提高了圖像分割的準確性。從結果可以看出,某些目標中仍然包含了一些背景像素,造成這種錯誤的,一部分原因是由于輸入映射圖的不準確性,另一部分原因則是學習算法仍不夠優(yōu)秀。后續(xù)工作需要研究如何更大限度的抑制背景像素點對目標的干擾。
[1] 張丹.基于視覺注意力點的顯著性目標檢測 [D].西安:西安電子科技大學,2015.
[2] Li Y, Hou X, Koch C, et al. The secrets of salient object segmentation[C].Columbus, OH,OR:CVPR Computer Vision and Pattern Recognition,IEEE, 2014.
[3] Borji A, Sihite D N, Itti L. What stands out in a scene? A study of human explicit saliency judgment[J]. Vision Research, 2013, 91(15):62-77.
[4] Juan X, Ming J, Shuo W, et al. Predicting human gaze beyond pixels [J]. Journal of Vision, 2014, 14(1):97-97.
[5] Radhakrishna A, Appu S, Kevin S, et al. SLIC superpixels compared to state-of-the-art superpixel methods[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2012, 34(11):2274-2282.
[6] Zhou D, Weston J, Gretton A,et al.Ranking on data manifolds[J]. Advances in Neural Information Processing Systems, 2003(7):169-176.
[7] Zhou D, Bousquet O, Lal T N, et al. Learning with local and global consistency[J]. Advances in Neural Information Processing Systems, 2004, 17(4):321-328.
[8] Yang C, Zhang L, Lu H, et al. Saliency detection via graph-based manifold ranking[C]. Portland, OR:IEEE Conference on Computer Vision & Pattern Recognition,2013.
[9] Duan L, Wu C, Miao J, et al. Visual saliency detection by spatially weighted dissimilarity[C]. Providence, RI:Computer Vision and Pattern Recognition , 2011.
[10] Bruce N D B, Tsotsos J K. Saliency, attention, and visual search: an information theoretic approach [J]. Journal of Vision, 2009, 9(3):5-24.
[11] Itti L, Koch C, Niebur E. A model of saliency-based visual attention for rapid scene analysis[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 1998, 20(11):1254-1259.
[12] Achanta R, Hemami S, Estrada F, et al. Frequency-tuned salient region detection[C].Miami, FL:IEEE International Conference on Computer Vision and Pattern Recognition, 2009.
[13] Yan Q, Xu L, Shi J,et al. Hierarchical saliency detection[C].Portland, OR: IEEE Conference on Computer Vision and PatPattern Recognition, 2013.
[14] Ali B. What is a salient object? A dataset and a baseline model for salient object detection[J]. IEEE Transactions on Image Processing A Publication,2015, 24(2):742-756.
AnObject Segmentation Method Using Saliency Detection
LI Fenglin,LI Liang
( R&D, Xi’an iTHOR Information Technology CO.,LTD, Xi’an 710065, China)
The low accuracy of saliency detection algorithm will lead to some errors in image segmentation, and an image segmentation method based on improved saliency detection algorithm is proposed in this paper. This method can obtain some regions belong to the object, then put forward a learning method based on a twin-graph which can use these queries to find out the rest of the object.. The experimental results validate our proposed method can obtain a better saliency map for image segmentation.
saliency detectiong;object detection;image processing
2016- 03- 16
李亮(1982-),男,碩士,高級工程師。研究方向:雷達電子對抗。
10.16180/j.cnki.issn1007-7820.2017.01.019
TP391.41
A
1007-7820(2017)01-069-04