張志華,劉政怡
(安徽大學(xué)計算機科學(xué)與技術(shù)學(xué)院,安徽 合肥 230601)
視覺注意機制是人類視覺系統(tǒng)的重要組成部分。通過視覺注意力,人眼能夠過濾掉多余的信息,并從復(fù)雜的場景中快速找到區(qū)別于周圍環(huán)境的顯著目標。準確提取顯著目標能夠有效提高圖像處理的效率和質(zhì)量,因此,顯著目標的檢測已經(jīng)廣泛應(yīng)用到圖像分割[1]、圖像識別[2]和目標重定位[3]等計算視覺領(lǐng)域。
雖然顯著目標檢測已被廣泛研究了數(shù)年,但先前的大部分工作都著重于2D圖像分析。近來,研究者開始整合多模態(tài)成像數(shù)據(jù)以提高圖像處理的性能,而其中RGB-D圖像的顯著目標檢測受到越來越多的關(guān)注。
(1)2D顯著檢測?,F(xiàn)有的2D顯著檢測方法可以大致分為兩類,即全局方法和局部方法[4]?;谌值姆椒ㄖ饕罁?jù)一個區(qū)域與整幅圖像中全部區(qū)域的比較,比如Achanta等人[5]提出的頻率調(diào)諧方法,將顯著值定義為像素點顏色與圖像平均顏色的差異。而基于局部的方法則只關(guān)注一個區(qū)域與周圍相鄰較小區(qū)域的對比關(guān)系,比如Liu等人[6]通過線性組合多尺度的對比和中心環(huán)繞直方圖的分析定義了局部區(qū)域的對比。另一方面,基于緊密度的顯著計算方法在各種顯著檢測模型中得到應(yīng)用。其中,Gopalakrishnan等人[7]認為圖像的低層次特征在背景上的分布相對于顯著目標更為廣泛。在此基礎(chǔ)上,Cheng等人[8]將緊密度作為顯著性的重要度量,利用特征相似和空間相近來衡量顯著程度。同樣地,基于圖模型的傳播方法在顯著檢測領(lǐng)域也取得了卓越的效果。Jiang等人[9]將邊界上的超像素作為吸收節(jié)點,利用隨機游走的方式計算顯著值。Yang等人[10]利用背景先驗將邊界上的四條邊定義為背景,并以流形排序計算與邊界區(qū)域的相似性得到顯著圖。
(2)3D顯著檢測。早期的RGB-D顯著檢測方法將深度信息作為先驗知識去引導(dǎo)2D顯著圖的權(quán)重分配[11]。這種方式?jīng)]有考慮相對深度且只有當(dāng)顯著目標與背景在深度特征上的差異較大時才有效果。而后,由對比方法在2D顯著檢測方法的有效性得到啟發(fā),許多基于深度對比的方法被提了出來。Peng等人[12]提出了一種多級上下文對比模型,利用局部對比、全局對比以及背景對比檢測顯著目標。Cheng等人[13]分別利用顏色空間和深度空間的視覺線索進行對比,并將二維的中心偏移擴展到三維空間,提出空間偏移,將三種特征進行融合得到最終顯著值。近來,以深度對比為基礎(chǔ),融合先驗知識和優(yōu)化的顯著檢測方法取得了卓越的效果。Ren等人[14]利用曲面方向先驗和背景先驗檢測顯著目標,并以PageRank算法和馬爾科夫隨機場MRF(Markov Rondom Field)算法優(yōu)化顯著圖。Guo等人[15]在融合顏色對比和深度對比的基礎(chǔ)上,利用迭代傳播的方法得到最終的顯著圖。
本文依據(jù)RGB-D圖像的特點,將深度圖中的深度特征和RGB圖中的顏色特征進行融合,使其相互補充,并以圖模型為基礎(chǔ)將顏色深度融合的特征貫穿整個顯著檢測過程。另外,將2D顯著檢測中全局和局部、前景和背景的互補關(guān)系應(yīng)用到在顯著計算和顯著優(yōu)化的過程中,進一步提高顯著檢測的準確率。
多角度融合是指顏色和深度融合、全局和局部融合、前景和背景融合。相對于2D顯著檢測,RGB-D顯著檢測多了一項非常重要的信息,即深度特征。現(xiàn)有的RGB-D顯著檢測方通常是將顏色和深度特征分開使用,將深度信息引入對比框架,計算前景與背景的深度對比差異,來得到深度顯著圖,然后結(jié)合顏色特征得到的顯著圖,形成最終顯著圖。這種方法雖然能取得一定的效果,但當(dāng)前景的深度對比不明顯時,深度顯著圖易產(chǎn)生誤檢,從而影響最終的檢測結(jié)果,如圖1所示。
Figure 1 Effect on detection results due to non-obvious depth constrast圖1 因深度對比不明顯而影響檢測結(jié)果的情況
為了使深度特征得到充分利用,同時減小誤檢率,本文將顏色和深度特征融合,并以圖模型的方式將顏色深度融合的特征應(yīng)用到顯著檢測的每一步。另一方面,2D顯著檢測的方法提出了許多互補的顯著關(guān)系。其中,局部和全局以及背景和前景的關(guān)系被廣泛使用?;诰植康姆椒▋A向于突出目標的邊緣,而基于全局的方法卻能得到更為一致的檢測結(jié)果;背景角度的顯著檢測能夠有效抑制背景區(qū)域,而前景角度卻能夠完整地突出顯著目標。受互補關(guān)系在2D顯著檢測中取得的效果的啟發(fā),本文將這兩對互補關(guān)系引入RGB-D的顯著檢測方法中,利用局部和全局方法在目標突出方面的互補提高初步顯著值的精確度,以背景和前景方法在視覺關(guān)注方面的不同來得到高亮均勻的最終顯著圖。
圖2展示了具體算法的主要流程。首先,本文分別在像素級別和超像素級別進行顏色和深度的融合。以像素間的相似度作為聚類距離,對SLIC(Simple Linear Iterative Cluster)分割算法[16]進行拓展,以超像素間的相似度計算連接的權(quán)重,構(gòu)造圖模型。其次,在圖模型的基礎(chǔ)上分別計算全局緊密度和局部緊密度,并將全局與局部進行融合得到初步的顯著圖。最后是背景和前景的雙向優(yōu)化。以背景先驗為基礎(chǔ),利用包含深度信息的邊界連接權(quán)重[17]計算背景概率,并以背景概率對初步顯著值加權(quán)得到背景優(yōu)化顯著圖。利用閾值分割提取背景優(yōu)化顯著圖中最為顯著的部分作為前景查詢節(jié)點,以流形排序[10]進行前景優(yōu)化得到最終顯著圖。
Figure 2 An overview of the proposed method圖2 具體算法流程圖
Perazzi等人[18]認為將圖像抽象成圖模型能夠有效提高顯著檢測的效率和性能,本文采用Harel等人[19]的方法構(gòu)建無向圖G(V,E)。下面分別從顏色深度特征融合和圖模型的構(gòu)造兩個方面進行說明。
3.1.1 顏色深度特征融合
(1)像素級別顏色和深度融合。
像素級別顏色和深度的融合體現(xiàn)在引入深度信息,更為精確地表示像素之間的相似程度。
像素i與像素j之間的相似度定義為:
(1)
(2)
其中,li、ai以及bi分別對應(yīng)像素點i在L、a和b通道上的數(shù)值。
(3)
其中,xi和yi表示平面坐標系中的坐標,di表示像素i的深度值。
(2)超像素級別顏色和深度融合。
超像素級別顏色和深度的融合體現(xiàn)在引入深度信息,更為精確地表示超像素之間的相似程度。超像素vi與超像素vj之間的相似度定義為:
(4)
其中,σ為控制參數(shù),li,j和di,j分別表示超像素i和j間的顏色距離和深度距離,定義如下:
li,j=‖ci-cj‖
(5)
di,j=‖di-dj‖
(6)
其中,ci和cj分別表示超像素vi和vj內(nèi)所有像素點在CIELab顏色空間的均值,而di和dj則表示對應(yīng)超像素內(nèi)所有像素點在深度空間的均值。
3.1.2 圖模型的構(gòu)造
Figure 3 Comparison of SLIC segmentation algorithm before and after depth Information Fusion圖3 SLIC分割算法融入深度信息前后的分割對比
構(gòu)造的圖模型規(guī)定有著共同邊界的超像素互為鄰居,鄰居間是連接的。另外,認為圖像邊緣上的每對區(qū)域都是連接的,以減少相似超像素間的測地線距離[9]。超像素之間的權(quán)重由顏色深度特征融合的關(guān)聯(lián)矩陣Wcd=[wi,j]N×N表示。
(7)
其中,Nei表示與超像素vi相連接的鄰居集合。
為了更精確地描述超像素之間的相似性,本文利用顏色深度特征融合的關(guān)聯(lián)矩陣Wcd,將相似性信息擴散到整個圖模型中,即:
ΜT=(D-αWcd)-1SSuperPixel
(8)
顯著目標通常被背景區(qū)域所包圍,因此背景區(qū)域上的顏色和深度特征的分布一般會比顯著區(qū)域上的更為廣泛。所以,對于每個超像素來說,特征差異越大,緊密度就越小,越不可能成為顯著性目標。首先從全局的角度出發(fā),計算超像素vi與全部超像素的特征差異,即超像素vi的全局緊密度如下所示:
(9)
相對應(yīng)地,從局部角度出發(fā),計算超像素vi與相鄰超像素的特征差異,即超像素vi的局部緊密度如下所示:
(10)
(11)
融合全局和局部兩種不同的方式得到的緊密度,形成顯著值:
Scom(i)=norm(sg(i)·sl(i))
(12)
在顯著計算的步驟中,本文以超像素間的緊密度作為初步的顯著值。為了得到更完善的顯著圖,本文首先從背景角度優(yōu)化抑制背景區(qū)域,然后通過前景角度的優(yōu)化提高顯著檢測的完整度。
3.3.1 背景優(yōu)化
自然圖像中的顯著區(qū)域與背景區(qū)域的空間分布是不同的。相對于背景區(qū)域,顯著區(qū)域很少接觸圖像邊緣,所以假設(shè)圖像的邊緣區(qū)域為背景是顯著檢測方法中常用的先驗知識[22]。本文在Zhu等人[17]的方法基礎(chǔ)上,將深度信息引入邊界連接權(quán)重并計算背景概率,對初步顯著圖進行背景優(yōu)化。首先,以超像素之間顏色深度特征融合的距離(li,j+di,j)為基礎(chǔ)計算測地線距離。然后,定義邊緣測地線權(quán)重與全圖測地線權(quán)重的比值為邊界連接權(quán)重。最后,利用邊界連接權(quán)重計算背景概率對初步的顯著值加權(quán),完成背景角度的優(yōu)化。
本文將超像素之間的測地線距離定義為兩個超像素之間最短路徑上的距離之和。超像素vi和vj之間的測地線距離dgeo(i,j)計算如下:
(13)
超像素vi的全圖測地線權(quán)重G(i)和邊緣測地線權(quán)重B(i)分別定義如下:
(14)
(15)
即,超像素vi的邊界連接權(quán)重表示為:
(16)
超像素vi的背景概率表示如下:
(17)
其中,σBCon為控制參數(shù)。最后,利用背景概率對初步顯著值進行加權(quán)得到背景優(yōu)化顯著值:
SB(i)=Scom(i)·pbg(i)
(18)
3.3.2 前景優(yōu)化
在流形排序中,給定數(shù)據(jù)集X={xl,…,xl,xl+1,…,xn}∈Rn×n,將其中一些數(shù)據(jù)節(jié)點標記為詢問節(jié)點,其余節(jié)點需要根據(jù)它們和詢問節(jié)點間的相關(guān)性進行排序。令f:X→Rn表示排序函數(shù),給每個節(jié)點xi分配一個排序值fi。f被視為一個向量f=[f1,…,fn]T,令y=[y1,y2,…,yn]T為指示向量,如果xi是詢問節(jié)點則yi=1,否則yi=0。接著對數(shù)據(jù)集構(gòu)建一個圖G=(V,E),節(jié)點集合V代表數(shù)據(jù)集X,E由一個關(guān)聯(lián)矩陣W=[wi,j]n×n加權(quán),n表示圖模型的頂點數(shù)量。給定G,對應(yīng)的度矩陣即為D=diag{d11,…,dnn},dii=∑jwij。查詢節(jié)點的最優(yōu)排序通過最優(yōu)化下面的公式解決:
(19)
μ控制平滑限制和擬合約束的平衡,也就是說,一個好的排序算法要使鄰近的點之間相關(guān)性變化不大,且不能與初始的排序值有太大的差距。
通過求導(dǎo)置為零求解以上最小化問題,可以使用以下排序函數(shù)表示:
f*=(1-α)(I-αS)-1y
(20)
出于效率的考慮,本文采用非歸一化的拉普拉斯矩陣形式來計算顯著性,非歸一化拉普拉斯形式的排序方程可表示為:
f*=(D-αW)-1y
(21)
(22)
所以,本文的前景優(yōu)化顯著圖可以用以下公式表示:
(23)
為驗證本文方法,實驗在RGBD1000[12]基準數(shù)據(jù)集上,同時與四種先進的RGB顯著檢測方法以及三種先進的RGB-D顯著檢測算法,在Precision、Recall、F-measure和運行時間這四個評價指標上作對比。本實驗所有程序都是在Intel(R) Core(TM) i5-4970CPU 3.2 GHz、內(nèi)存8 GB的PC上實現(xiàn)。本文實驗所用軟件為Matlab(R2013a),對比方法來自各作者提供的公開代碼或檢測結(jié)果。
RGBD-1000數(shù)據(jù)集是由Microsoft Kinect分別在室內(nèi)室外所拍攝的自然圖片組成,包含1 000張RGB圖片和1 000張對應(yīng)的手工標注顯著模板。
本文采用PR(Precision-Recall)曲線和F-measure值兩個不同的指標來評估不同方法的性能,通過繪制PR曲線圖和指標評價直方圖直觀展現(xiàn)對比差異。
PR曲線的Precision表示正確分配到提取區(qū)域中顯著像素的比例,Recall表示定義為顯著像素關(guān)于模板數(shù)量的比例。具體地,用0~255不同的固定閾值把顯著圖分割成256個二值圖,并計算得到256個Precision-Recall對,以Recall為橫軸,Precision為縱軸,繪制Precision隨Recall變化的曲線。在顯著性的評估過程中,Precision和Recall之間會互相影響。一般情況下,當(dāng)檢測的Precision提高時,Recall可能會有所下降,所以另外采用F-measure值來評價方法的性能。F-measure作為Precision和Recall的加權(quán)調(diào)和平均數(shù),計算方法如下:
(24)
其中,β2為控制精確性和完整性的權(quán)值,其值設(shè)為0.3,強調(diào)準確率的重要性。
本文方法中需要設(shè)置k、m、σ、σbg、σBCon以及α六個參數(shù)。
(1)k:本文將人為設(shè)定的超像素個數(shù)k設(shè)置為300,另一方面,因為SLIC分割算法在分割的過程中會有誤差,故將實際分割得到的超像素個數(shù)表示為N。
(2)m:SLIC分割算法在計算聚類距離時需要參數(shù)m平衡空間距離和顏色距離的相對重要性。當(dāng)m大時,空間鄰近性更重要,并且所得到的超像素更緊湊。當(dāng)m小時,所得到的超像素更緊密地粘附到圖像邊界,但是具有較小的規(guī)則尺寸和形狀。當(dāng)使用CIELAB色彩空間時,m可以在[1,40],數(shù)值參考文獻[15]設(shè)置為20。
(3)σ、σbg和σBCon:在本文方法中σ控制兩個超像素之間的權(quán)重強度,σbg、σBCon控制指數(shù)函數(shù)下降率的參數(shù),本文將其分別設(shè)置為σ=0.1,σbg=10,σBCon=1。
(4)α:流形排序算法是數(shù)據(jù)點通過圖模型來將其顯著值擴散給鄰居節(jié)點的過程,擴散過程會一直重復(fù),直到收斂到穩(wěn)定狀態(tài)為止。參數(shù)α是為了控制擴散過程中平滑限制和擬合約束的平衡。為了保證擴散能達到收斂,α的取值是[0,1),參考文獻[10]將α設(shè)置為0.99。
4.4.1 本文算法評估
本文算法評估對比如圖4所示。本文在計算緊密度時使用了顏色深度融合的特征,為體現(xiàn)顏色深度融合相對于單獨顏色的優(yōu)勢,本文首先評估單獨顏色特征的緊密度計算和顏色深度特征融合的緊密度計算,在對比圖中分別以S-C和S-CD表示。在PR曲線的對比中,相對于單獨顏色特征的緊密度計算,顏色深度特征融合的緊密度計算有著明顯提高。其次,本次實驗對背景優(yōu)化前后的結(jié)果做出了評估。其中,用S-CD-B表示背景優(yōu)化后的結(jié)果。通過對比發(fā)現(xiàn),利用背景概率為初步顯著值加權(quán)能夠有效優(yōu)化檢測結(jié)果。最后,用 S-CD-F表示前景優(yōu)化后的結(jié)果,即最終結(jié)果。從PR曲線中可以看出,相對于背景優(yōu)化的PR曲線,前景優(yōu)化后的曲線在召回率增大的情況下,精確度下降的速率變小,即前景優(yōu)化進一步完整地突出了顯著目標。
Figure 4 Evaluation of the method in this paper圖4 本文算法評估
4.4.2 其他顯著檢測方法對比
為進一步說明本文方法的性能,與多種先進的顯著檢測方法在RGBD1000數(shù)據(jù)集上作對比實驗。首先與四種沒有考慮深度信息的RGB顯著檢測方法進行對比,這四種方法分別來自文獻[9,10,17,23]。如圖5a和圖5b所示,本文方法在PR曲線和評價指標直方圖上均有明顯優(yōu)勢。
Figure 5 Comparison with other methods圖5 與其他算法對比
Figure 6 Quality comparison.圖6 質(zhì)量對比
本文方法所對比的三種RGB-D顯著檢測方法分別來自文獻[12,13,24],對比結(jié)果如圖5c和圖5d所示。從PR曲線上看,本文方法明顯優(yōu)于文獻[12,13,24]的方法。從評價指標直方圖上看,本文方法有一定的優(yōu)勢,精確度達到了76%,F(xiàn)-measure值也達到了0.7,都處于較高水平。
本文方法與其他方法的質(zhì)量對比結(jié)果如圖6所示。從RGB圖和深度上看,第一行和第二行圖片的顏色對比比較明顯,所以,沒有考慮深度信息時RGB顯著檢測方法也能取得較好的檢測結(jié)果;而第三行、第四行以及第五行的RGB圖片中顏色對比不明顯,引入了深度信息的RGB-D顯著檢測方法相對于沒有考慮深度信息RGB顯著檢測方法有著明顯的優(yōu)勢,其中本文方法得到的顯著圖能夠更加完整地突出顯著目標;最后三行圖片中的背景更加復(fù)雜,前景和背景中的顏色特征、深度特征都比較接近,對于現(xiàn)有的RGB-D顯著檢測方法也有一定的難度,但本文依靠多角度互補關(guān)系的融合依然能夠取得較好的效果。
在實驗中,同樣發(fā)現(xiàn)本文算法的局限性。例如圖7中的第一行和第二行,通過觀察發(fā)現(xiàn),當(dāng)圖像中的顯著目標與背景在顏色、位置以及深度信息都較為接近時,緊密度計算得到的顯著值與模板會有明顯的差距,從而影響最終的檢測結(jié)果。此外,觀察圖7中的第三行發(fā)現(xiàn),當(dāng)圖像的邊界有多處與顯著目標具有相似的特征時,背景優(yōu)化的效果往往會有所降低,導(dǎo)致最終的檢測效果變差。
Figure 7 Failure examples of saliency detection results of the proposed method圖7 本文算法顯著檢測失敗例子
本文方法與上述七種顯著檢測方法同樣在RGBD-1000數(shù)據(jù)集做運行效率對比實驗。由表1能夠看出,相對于RGB顯著檢測方法,RGB-D顯著檢測方法在運行效率上偏低,但本文方法運行時間僅為2.126 s,運行效率較高。
本文融合顏色和深度特征構(gòu)建圖模型,并將圖模型中顏色深度融合的特征應(yīng)用到顯著檢測的每一步。然后融合全局緊密度和局部緊密度作為初步顯著值。最后,依次從背景角度和前景角度進行優(yōu)化,得到最終的顯著圖。以RGB-D圖像為依據(jù),結(jié)合多個角度的互補關(guān)系提高了RGB-D圖像中顯
著檢測的準確率。
在未來的研究中可以進一步考慮RGB圖像中的其他特征和深度特征的結(jié)合,引入更適合深度特征的先驗知識,進一步提高檢測正確率,或者利用自頂向下的檢測模型,融入深度信息進行訓(xùn)練來獲得更好的預(yù)測效果。
參考文獻:
[1] Rother C,Kolmogorov V,Blake A.Grabcut:Interactive foreground extraction using iterated graph cuts[J]. ACM Transactions on Graphics (TOG), 2004,23(3):309-314.
[2] Ding Y,Xiao J,Yu J.Importance filtering for image retargeting[C]∥Proc of 2011 IEEE Conference on Computer Vision and Pattern Recognition (CVPR),2011:89-96.
[3] Lin W Y,Wu P C,Chen B R.Image retargeting using depth enhanced saliency[C]∥Proc of 3D Systems and Applications (3DSA),2013:1-4.
[4] Cheng M M,Mitra N J,Huang X,et al.Global contrast based salient region detection[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2015,37(3):569-582.
[5] Achanta R,Shaji A,Smith K,et al.SLIC superpixels compared to state-of-the-art superpixel methods[J].IEEE Transactions on Pattern Analysis & Machine Intelligence,2012,34(11):2274-2282.
[6] Liu T,Yuan Z,Sun J,et al.Learning to detect a salient object[J].IEEE Transactions on Pattern Analysis & Machine Intelligence,2007,33(2):353-367.
[7] Gopalakrishnan V,Hu Y,Rajan D.Salient region detection by modeling distributions of color and orientation[J].IEEE Transactions on Multimedia,2009,11(5):892-905.
[8] Cheng M M,Warrell J,Lin W Y,et al.Efficient salient region detection with soft image abstraction[C]∥Proc of the IEEE International Conference on Computer Vision,2013:1529-1536.
[9] Jiang B,Zhang L,Lu H,et al.Saliency detection via absorbing Markov chain[C]∥Proc of the IEEE International Conference on Computer Vision,2013:1665-1672.
[10] Yang C,Zhang L,Lu H,et al.Saliency detection via graph-based manifold ranking[C]∥Proc of 2013 IEEE Conference on Computer Vision and Pattern Recognition(CVPR),2013:3166-3173.
[11] Zhang Y,Jiang G,Yu M,et al.Stereoscopic visual attention model for 3d video[C]∥Proc of International Conference on Multimedia Modeling,2010:314-324.
[12] Peng H,Li B,Xiong W,et al.Rgbd salient object detection:A benchmark and algorithms[C]∥Proc of European Conference on Computer Vision,2014:92-109.
[13] Cheng Y,Fu H,Wei X,et al.Depth enhanced saliency detection method[J].European Journal of Histochemistry Ejh,2014,55(1):301-308.
[14] Ren J, Gong X, Yu L,et al.Exploiting global priors for RGB-D saliency detection[C]∥Proc of 2015 IEEE Conference on Computer Vision and Pattern Recognition Workshops (CVPRW),2015:25-32.
[15] Guo J,Ren T,Bei J.Salient object detection for RGB-D image via saliency evolution[C]∥Proc of 2016 IEEE International Conference on Multimedia and Expo (ICME),2016:1-6.
[16] Hsu C Y, Ding J J. Efficient image segmentation algorithm using superpixels and boundary-focused region merging[C]∥Proc of 2013 9th International Conference on Information, Communications and Signal Processing(ICICS), 2013:1-5.
[17] Zhu W,Liang S,Wei Y,et al.Saliency optimization from robust background detection[C]∥Proc of 2014 IEEE Conference on Computer Vision and Pattern Recognition(CVPR),2014:2814-2821.
[18] Perazzi F, Kr?henbühl P,Pritch Y,et al.Saliency filters:Contrast based filtering for salient region detection[C]∥Proc of 2012 IEEE Conference on Computer Vision and Pattern Recognition (CVPR),2012:733-740.
[19] Harel J,Koch C,Perona P.Graph-based visual saliency[C]∥Proc of Advances in Neural Information Processing Systems,2006:545-552.
[20] Zhou L,Yang Z,Yuan Q,et al.Salient region detection via integrating diffusion-based compactness and local contrast[J].IEEE Transactions on Image Processing,2015,24(11):3308-3320.
[21] Xue H,Gu Y,Li Y,et al.RGB-D saliency detection via mutual guided manifold ranking[C]∥Proc of 2015 IEEE International Conference on Image Processing (ICIP),2015:666-670.
[22] M Wei Y, Wen F,Zhu W,et al.Geodesic saliency using background priors[C]∥Proc of European Conference on Computer Vision,2012:29-42.
[23] Qin Y,Lu H,Xu Y,et al.Saliency detection via cellular automata[C]∥Proc of 2015 IEEE Conference on Computer Vision and Pattern Recognition(CVPR), 2015:110-119.
[24] Ju R,Ge L,Geng W,et al.Depth saliency based on anisotropic center-surround difference[C]∥Proc of 2014 IEEE International Conference on Image Processing,2014:1115-1119.