李繼德 李曉強 沙彩霞
(上海大學計算機工程與科學學院 上海 200444)
基于超像素分類的顯著目標檢測
李繼德 李曉強 沙彩霞
(上海大學計算機工程與科學學院 上海 200444)
結合邊界-中心先驗信息與超像素分割技術提出一種新的顯著性目標檢測方法。首先對種子點進行分類,使得分割后的超像素具有背景或前景屬性。然后,從空間和顏色兩個方面對每個超像素區(qū)域計算其背景顯著性和前景顯著性。最后,對不同的顯著性值進行融合得到最終顯著性值。一方面通過實驗說明空間、顏色、前景和背景等因素在顯著性計算中具有重要作用;另一方面,通過與其他顯著性檢測算法進行比較,證明該方法優(yōu)于現(xiàn)存的8種方法。
顯著性檢測 超像素分割 邊界-中心知識 前景-背景
人類對外界信息的感知,80%是通過視覺獲取的。如何讓計算機擁有和人類一般高效、靈活的視覺,是人類一直不懈追求的目標。依據(jù)早期科學家對于人類視覺的研究成果可知,人類對于所見的事物不是一概全部吸收,而是有選擇的接納,學術上稱這種人類所關注的部分為顯著目標。相對應地,人類大腦能自動地將所見場景轉化為顯著圖,提取出顯著目標,摒棄非顯著目標以進行后續(xù)的信息處理。
早期關于視覺顯著性的研究是建立在生物驅動模型[1-3]的基礎上,研究的問題是人眼的關注點在什么位置,其致力于尋找圖像中的若干個人眼關注的點。近幾年來,關于顯著性的研究致力于目標級顯著性檢測[4-5],不同于生物驅動顯著性僅致力于研究某些點在什么位置,這里研究的是顯著目標在什么位置。關于目標級顯著性檢測的研究已經越來越受到人們的關注,因為這種方法有更好的實用性,例如顯著目標檢測已經廣泛應用于圖像分割[6-7]、自適應壓縮[8]、圖像檢索[9]等計算機視覺技術中。
一般來說,顯著性計算的復雜度較高。為簡化計算量,本文用SLIC超像素[10]方法對圖像進行分割,以分割后的超像素為處理單元進行顯著性計算。另外,在選取種子點時用使用文獻[11]中的邊界-中心知識,并對種子點進行分類,使得分割后的超像素具有背景或前景屬性。然后,本文從空間和顏色兩個角度對每個區(qū)域計算背景顯著性和前景顯著性。最后,將所有因素融合得到最終顯著性。
本文的顯著性檢測方法有以下三個方面的優(yōu)勢。首先,由于本文的處理單元為超像素而非像素,因此計算量得以大大縮小。其次,本文從背景、前景、顏色和空間四個方面計算顯著性,并分析各個要素的重要性。最后,通過在公共數(shù)據(jù)集上的大量實驗,證明本文方法優(yōu)于現(xiàn)存的8種方法。
隨著顯著性研究的不斷發(fā)展,很多學者將顯著性的研究投向于確定顯著目標這一新型意義上的顯著性。這種顯著性在圖像分割,圖像自適應等圖像應用領域更具有實用性。對比度是最為常用的目標級顯著性模型的表示手段,依據(jù)對比的范圍可分為局部對比度算法和全局對比度算法。局部對比度是指處理單元將與其附近某個鄰域內的所有處理單元關于某種特征的對比度,而全局對比度是指處理單元與整個圖像處理單元的對比度。
早期關于對比度的研究,著重于局部對比度[12-14]。1998年,Itti等[12]提出“中心-周邊差”的概念,即典型的視覺神經對于對抗性的差異更為敏感?;诖耍ㄟ^計算中心區(qū)域和周邊區(qū)域關于亮度、顏色、方向三種特征的差異,得到中心區(qū)域的顯著性。2008年Achanta等提出Itti方法的簡化方法[14]。該文認為Itti方法之所以計算量大是因為采用了多級金字塔來計算“中心-周邊差”,為減少計算量,本文采用滑動模板的方法,以同一像素為中心的大小不同的兩個均值模板對圖像卷積然后求差,從而簡化“中心-周邊差”的計算復雜度。
局部對比度應用廣泛,然而大多數(shù)局部對比度方法普遍存在的缺陷是只能檢測出邊緣,顯著目標內部則不能比較均勻地表現(xiàn)出來。對于這個問題,全局對比度[15-16]給出更好的解決方案。
2010年Goferman等人提出上下文內容相關的顯著性檢測方法[15]。為體現(xiàn)出上下文內容相關的特點,他們把每個像素點及其周邊某個尺度范圍作為處理單元。另外,通過計算每個像素與其距離最大的k個像素的平均距離,作為對全局對比度的簡化。最后,將不同尺度下所得的值整合成為一個顯著值。2011年Cheng等人提出基于顏色直方圖對比度的顯著目標檢測方法和基于區(qū)域對比度的顯著目標檢測方法[16]?;陬伾狈綀D對比度的顯著目標檢測方法把像素對比度轉化為顏色對比度,并通過對顏色的篩選和過濾,大大減少傳統(tǒng)全局對比度方法的計算量;基于區(qū)域對比度的顯著目標檢測方法一方面引入了空間因素,另一方面,把對像素的處理拓展為對區(qū)域的處理,以此減少計算量。
除對比度方法外,顯著性還有很多其他的表現(xiàn)形式。2007年Hou等人[17]提出譜殘差的顯著性檢測方法。該方法認為顯著目標就是圖像中的新穎信息,將圖像由空間域轉化為頻率域,得到的頻譜圖中的非平坦部分就是圖像的顯著信息。2012年,Wei等人[18]提出基于地形圖的顯著目標檢測方法。該方法在圖像邊界是背景的假設之上,定義某個處理單元的顯著性是該單元到圖像邊界的最短路徑距離,該方法打破了常規(guī)的以對比度為核心的處理策略。2013年,Sha等[11]提出了基于邊界-中心知識的顯著性檢測方法。該方法從背景和前景兩個角度對顯著性進行分析,并利用邊界-中心知識對計算進行簡化,從而進一步對顯著性計算方法進行優(yōu)化。
文獻[11]把顯著性計算都孤注在中心區(qū)域(作為前景區(qū)域)的選擇上,若選擇失誤,則會影響整個算法的正確率。為克服這個缺點,本文以文獻[11]的邊界-中心知識為基礎,結合SLIC超像素,提出基于前景-背景超像素分類的顯著目標檢測方法。首先,為簡化計算量,本文用SLIC超像素方法對圖像進行分割,以分割后的超像素為處理單元進行顯著性計算。另外,為使超像素具有背景或前景屬性,本文在選取種子點時結合邊界-中心知識,對種子點進行了分類。然后,本文從空間和顏色兩個方面對每個區(qū)域計算背景顯著性和前景顯著性。最后,將所有因素融合得到最終顯著性。通過實驗證明,本文方法在性能上優(yōu)于現(xiàn)存的8種方法,同時,本文方法具有相對較少的計算量。
2.1 背景顯著性和前景顯著性
文獻[11]將全局對比度分解為與前景、背景相關的兩個要素。通過研究發(fā)現(xiàn),前景要素總是遏制前景像素的顯著性,促進背景像素的顯著性,對全局對比度方法產生了負面影響,使得該方法對于目標較大的情況下效果不理想。因此,文獻[11]對前景要素進行了修改,使其能夠與全局對比度方法所描述的顯著性一致。將重新定義的前景要素和背景要素分別稱為前景顯著性和背景顯著性。本文沿用其前景顯著性與背景顯著性的概念,即圖像I中的任意一個像素點Ik的顯著性定義為:
S(Ik)=fBSB(Ik)+fFSF(Ik)
(1)
其中,SB(Ik)、SF(Ik)分別表示像素Ik的背景顯著性和前景顯著性,fB和fF表示背景像素和前景像素所占圖像像素的比率。
進一步地,依據(jù)紋理特征對背景區(qū)域分塊,可以將背景顯著性的計算轉化為:
(2)
其中B={B1,B2,…,BnB},fBi表示區(qū)域Bi占整個背景B的概率,SBi(Ik)表示區(qū)域Bi對像素Ik造成的顯著性影響,i=1,2,…,nB,nB表示前景區(qū)域的個數(shù)。
類似地,依據(jù)紋理特征對前景區(qū)域分塊,可以將前景區(qū)域轉化為:
(3)
其中,F(xiàn)={F1,F2,…,FnF},fFj表示區(qū)域Fj占整個背景F的概率。D(Ik,Fij)表示像素Ik與區(qū)域Fj內的像素Fij的距離,CFj(Ik)表示前景區(qū)域Fj對像素Ik產生的影響。
由于每個區(qū)域是按照像素的顏色、亮度等進行劃分的,因此,可以將區(qū)域作為處理單元,這樣可以減少計算量。若將所有區(qū)域合起來記作{R1,R2,…,RnB+nF},則上述處理單元就轉化為Rk,k=1,2,…,nB+nF。
2.2 算法流程
上文分析了圖像分塊計算顯著性的優(yōu)勢,本文用SLIC超像素方法實現(xiàn)對圖像的分塊。SLIC超像素分割方法是K均值方法的改進,需要選擇初始種子點,然后在此基礎上迭代收斂,把圖像分割若干個超像素區(qū)域。
另外,上文說明了對圖像進行前景、背景區(qū)域分類對于前景顯著性和背景顯著性計算的必要性。因此,本文需要把這些超像素分類為前景或者背景。然而,我們發(fā)現(xiàn),超像素分割不會更改每個區(qū)域前景與背景的本質,只會對其邊界進行細化。因此,如果在確定種子點的時候就已經對其分好類,比分割完畢后再進行分類方便得多。本文借鑒文獻[11]中的邊界-中心知識,在邊界區(qū)域中選擇背景種子點,然后對中心區(qū)域中的種子點進行分類。綜上所述,可得到本文顯著性算法的流程如圖1所示。
圖1 本文顯著性算法流程圖
2.3 選擇種子點
SLIC超像素方法是對K均值方法的改進,需要選擇初始種子點。初始種子點必須均勻分布在圖像上面,這樣才能對圖像進行有效的分割。不同于文獻[10]中的SLIC方法,本文采用對圖像進行均勻分塊的方式選取種子點。
本文借鑒文獻[11]中的邊界-中心知識選取種子點區(qū)域,以便于下一步的分類操作。邊界區(qū)域的邊界位置和邊界寬度、中心區(qū)域的選擇方式都與文獻[11]中相同。
圖2給出一個選擇圖片種子區(qū)域情況??紤]到背景的多樣性,這里將邊界區(qū)域共分為16個區(qū)域,上下左右各4個。另外,為了與邊界區(qū)域相對應,中心區(qū)域也有16個。
圖2 種子區(qū)域的選擇
2.4 種子點分類
假設已經選擇了若干個邊界區(qū)域和中心區(qū)域。關于邊界區(qū)域,依據(jù)邊界準則[18],本文將其全部默認標記為背景區(qū)域。關于中心區(qū)域,由于顯著目標的位置、大小具有極大的不確定性,可能位于圖片中心區(qū)域的任意位置,可能占據(jù)任意多個中心區(qū)域。這種不確定性使得我們不能隨意選擇哪些中心區(qū)域作為背景區(qū)域或者前景區(qū)域。因此,本文對中心區(qū)域進行分類,將其分為前景區(qū)域和背景區(qū)域。本文選擇的特征空間為HSV顏色空間。圖3給出了選擇的初始種子點在HSV空間上的分布,其中符號 “o”為邊界種子, 符號“*”為中心種子??梢姟?”點比較集中,“o”點比較分散,基于此,可對這些點作出分類。
算法1:劃分前景區(qū)域和背景區(qū)域1:標記所有邊界區(qū)域為背景區(qū)域2:對每個中心區(qū)域記為Cj,j=1,2,…,nC,計算該區(qū)域與所有邊界區(qū)域的平均距離dj=1nB′∑nB′i=1DC(Cj,B′i),j=1,2,…,nC3:計算所有中心區(qū)域到邊界區(qū)域的平均值d-=1nC∑nCj=1dj4:對于每個中心區(qū)域Cj,j=1,2,…,nC若dj 圖3 初始種子點在HSV空間的分布 2.5 超像素分割 所謂超像素,是指具有相似紋理、顏色、亮度等特征的相鄰像素構成的圖像塊。它利用像素之間特征的相似程度將像素分組,可以獲取圖像的冗余信息,在很大程度上降低了后續(xù)圖像處理任務的復雜度。 上文我們對前景以及背景區(qū)域進行初步的分類,然而,我們的目標是對整個圖像計算顯著性。本文引入SLIC超像素技術,一方面能夠利用上文提供的均勻分塊的區(qū)域作為種子點進行超像素分割,另一方面,超像素分割的結果能夠提供較好的邊緣分割效果,用分割得到超像素計算區(qū)域顯著性相較于計算像素級顯著性,其計算量可以大大減小。圖4為SLIC超像素分割方法對兩個圖像處理的效果,可以看出該方法能夠將顯著目標的輪廓很好地分開,從而得到一個完整的目標。 SLIC超像素方法同時在顏色相似度和空間相近性兩個方面進行考慮,通過對像素聚類生成超像素。本文的顏色相似度在HSV顏色空間上完成,而空間相近性指的是每個像素點的位置(x,y),它們共同構成一個五維的特征空間(h,s,v,x,y),在此特征空間上對像素進行聚類。 算法初始時,依據(jù)2.3節(jié)中的方法選擇種子區(qū)域,計算每個區(qū)域的中心Ck=[hk,sk,vk,xk,yk]T作為種子點,即初始聚類中心。定義聚類中心Ck和某個像素點(hi,si,vi,xi,yi)的距離測度D為: (4) 其中,參數(shù)m∈[0,1]用來調整超像素間的緊密程度,m越大,越強調空間相近性,超像素間越緊密。 對于圖像中的每個像素點,依據(jù)距離測度D,在其某個鄰域內尋找與其最匹配的聚類中心。然后對屬于每一類的像素求平均值,得到新的聚類中心。不斷迭代上述過程,直至收斂。在算法最后,進行連接性操作使得聚類時一些屬于同一類卻不相連的類相連。至此,我們得到原圖像的超像素分割結果。 2.6 顯著性定義 本文所求顯著性為每個區(qū)域的顯著性。我們認為每個超像素區(qū)域的所有像素,在各種特征上都具有一致性,理應具有相同的顯著值,因此,本文用區(qū)域的顯著性代替區(qū)域中每個像素的顯著性。在特征方面,本文采用的是五維特征(h,s,v,x,y)。 本文將顯著性STotal分為前景顯著性和背景顯著性,記為SF和SB。前景顯著性是指前景像素點對每個像素顯著性所做的貢獻,背景顯著性指背景像素點對每個像素點顯著性所做的貢獻。由于特征的變化,這里顯著性又分為顏色顯著性和空間顯著性。顏色顯著性是指由于HSV顏色特征對顯著性造成的影響,空間顯著性指由于每個區(qū)域的空間位置而對顯著性造成的影響。更具體地,顏色顯著性又分為背景顏色顯著性和前景顏色顯著性,分別記為SFC和SBC??臻g顯著性又分為背景空間顯著性和前景空間顯著性,分別記為SFS和SBS。 假設一幅大小為m×n的圖像,進行超像素分割后得到nB+nF個區(qū)域,表示為Rk,k=1,2,…,nB+nF,其中背景區(qū)域為Bi,i=1,2,…,nB,前景區(qū)域為Fj,j=1,2,…,nF。用DC表示顏色距離,用DS表示空間距離。 首先考慮顏色特征的影響,與文獻[11]一樣,超像素Rk的各個顏色顯著性的定義如下: (5) (6) 關于空間特征,前人[13-14]也曾有過將其納入顯著性范疇的情況,他們大多考慮的是任意兩個顯著性處理單元,相距越遠,顯著性影響越小。然而,由于本文的超像素有類別之分,因此,本文的空間顯著性也要分類考慮。 首先,對于背景超像素,若按照距離越遠,顯著性影響越小的角度考慮,距離其最遠的超像素應該是其對面的某個超像素,然而那個超像素應該也是背景,所以并不適用。本文關于背景空間顯著性的定義為: SBS(Rk)=min{d,m-d,n-d} (7) 對于前景超像素,由于前景目標比較聚集,不會出現(xiàn)背景超像素在圖像周邊環(huán)繞分布的情況,但是與顏色一樣,它產生的效果應該是與整體顯著性相反的。因此,距離前景超像素越近的超像素,其顯著性越大,反之,顯著性越小。定義如下: (8) 將背景顏色顯著性與背景空間顯著性結合構成背景顯著性,前景顏色顯著性與前景空間顯著性結合構成前景顯著性。顏色信息強調細節(jié),空間信息強調位置,二者缺一不可,互相補充。因此,這里將兩種特征的顯著性相乘,取長補短,能夠保留下來的,必是在空間和顏色都有優(yōu)勢的超像素。超像素Rk的背景顯著性與前景顯著性定義為: SB(Rk)=SBC(Rk)×SBS(Rk) (9) SF(Rk)=SFC(Rk)×SFS(Rk) (10) 同樣地,為保留前景顯著性與背景顯著性中共同的顯著目標,這里定義超像素Rk的最終顯著性為: STotal(Rk)=fB·SB(Rk)+fF·SF(Rk) (11) 其中,k=1,2,…,nB+nF,fB=nB/(nB+nF),fB=nB/(nB+nF)。 圖5顯示對于同一幅圖像,本文中提及的各種顯著性算法的結果圖??梢钥闯?,通過空間和顏色、前景和背景的互補,才能達到最終的最佳狀態(tài)。另外,需要注意的是,每一步顯著性操作都需要對結果進行歸一化,然后繼續(xù)進行,才能得到最終的顯著圖。 圖5 從左到右,從上到下依次為Original:原圖像;STotal:最終顯著圖;SB:背景顯著圖;SBC:背景顏色顯著圖;SBS:背景空間顯著圖;SF:前景顯著圖;SFC:前景顏色顯著圖;SFS:前景空間顯著圖 3.1 數(shù)據(jù)集和評估標準 實驗中的數(shù)據(jù)集是由微軟亞洲研究院提供的MSRA-1000數(shù)據(jù)集[4],這是一個經典數(shù)據(jù)集,為大部分顯著性檢測算法所采用。這個數(shù)據(jù)集包括1000張圖片,這1000張圖片涉及不同的類型,包括自然圖像、動物、人、室內圖像,室外圖像等。更重要的是,該數(shù)據(jù)集提供了手工分割顯著區(qū)域的掩模圖,為我們評判顯著性檢測算法的優(yōu)劣提供了標準。本文實驗環(huán)境如下:操作系統(tǒng)為Windows 7、CPU為Core 2.5 GHz、內存為2 GB、開發(fā)環(huán)境為Matlab2013。 本文采用大部分顯著性檢測算法所使用的固定閾值目標分割方法進行性能評估。首先,對得到的顯著圖進行二值分割,然后,將二值圖與MSRA數(shù)據(jù)庫中手工分割的掩模圖相比較,得到不同方法的precision-recall曲線圖。分析曲線圖,就能比較不同方法的優(yōu)劣。 獲取顯著目標二值分割最簡單的方法是,用固定的閾值T對顯著圖進行分割。由于顯著值是表示顯著性程度的一個值,其范圍為[0,255],若閾值只確定為某個固定值,對于不同的圖片不具有普適性。這里動態(tài)地改變T的值,給它從0到255賦值。針對每一個閾值T,每個顯著圖都可以得到一個二值圖,將這個二值圖與手工分割掩模圖進行逐像素比較,記錄分類正確與錯誤的像素個數(shù),計算這個閾值下,該顯著性檢測算法對于該圖片的precision和recall,precision和recall的定義如下: (12) (13) 其中,tp表示正確分類的顯著像素個數(shù),fp表示非顯著像素錯誤分類成顯著像素的個數(shù),fn表示顯著像素錯誤分類成非顯著像素的個數(shù)。 針對某種顯著性檢測算法求得的顯著圖,設定每一個閾值T,都能得到相對應的precision和recall,將這些(precision,recall)在圖像中描繪出來,可以得到precision-recall曲線。理想的情況是一種方法既有較高的precision,又有令人滿意的recall,以此我們可以對不同方法進行優(yōu)劣評判。 3.2 背景、前景、空間和顏色因素的比較 首先,對本文提及的幾個顯著性因素進行一下比較,它們分別記為背景顯著性B,前景背景顯著性BC,背景空間顯著性BS,前景顯著性F,前景顏色顯著性FC,前景空間顯著性FS,最終顯著性Total。另外,這里還對顏色和空間兩個方面進行了比較,因此,定義了區(qū)域Rk的顏色顯著性和空間顯著性: SC(Rk)=SBC(Rk)×SFC(Rk) (14) SS(Rk)=SBS(Rk)×SFS(Rk) (15) 分別記這兩種方法為C和S。 圖6給出了B、BC、BS、F、FC、FS、Total以及C、BC、FC、S、BS、FS、Total的precision-recall曲線圖。從圖6(a)可以看出,背景顯著性的效果好于前景顯著性,因為在選取前景的過程中可能會出現(xiàn)誤差,但是邊界部分無疑大多數(shù)為背景,因此背景比前景能更好地體現(xiàn)顯著性。在背景因素中,顏色比空間能獲得更高的效果;在前景因素中,空間比顏色效果更好。從圖6(b)可以看出,顏色顯著性和空間顯著性勢均力敵,能獲得差不多的效果。在顏色因素中,背景比前景效果好;在空間因素中,前景比背景效果好。 (a) B、BC、BS、F、FC、FS和Total的precision-recall曲線 (b) C,BC,FC,S,BS,FS和Total的precision-recall曲線 圖7給出各種因素的顯著圖比較。從中可以看出,背景在尋找顯著目標的能力方面強于前景,但是,背景給出的顯著圖沒有前景的明顯,即顯著目標顯著值不夠大。通過二者結合的方式,可以把彼此的弊端去除掉,而得到相對更好的顯著圖。此外,顏色顯著性側重于細節(jié),空間顯著性側重于整體的位置,二者結合才能夠進行精確定位。 圖7 9種不同的顯著性檢測算法的顯著圖比較。從左到右分別為原圖像,B、BC、BS、C、F、FC、FS、S、Total方法的顯著圖和手工分割圖 3.3 本文方法和各種方法的比較 我們將本文方法Total顯著性與8種顯著性檢測算法進行比較,這8種方法分別是由Itti[10](記為IT),Harel[19](記為GB),Hou[17](記為SR),Achanta[14](記為AC),Achanta[20](記為FT),Goferman[15](記為CA)和Cheng[16](HC和RC)提出的。 圖8 AC、SR、CA、FT、GB、HC、IT、RC和本文Total方法的precision-recall曲線圖 圖10 8種不同方法在MSRA數(shù)據(jù)集上得到的顯著圖。從左到右分別為原圖像,AC、CA、FT、GB、HC、IT、RC、SR、本文Total方法結果和手工分割圖像 圖8給出IT、GB、SR、AC、FT、CA、HC、RC和本文方法Total的precision-recall曲線??梢钥闯觯疚牡腡otal方法比其他各種方法能夠得到更高的precision和recall。 在其他幾種方法中,HC和RC這兩種基于全局對比度的顯著性檢測算法,有更大的優(yōu)勢。在此進一步對Total、RC和HC方法進行比較,如圖9所示,給出了三種方法顯著圖的像素分布圖,橫軸表示像素值,范圍為0到255,縱軸表示屬于該像素值的像素在顯著圖中出現(xiàn)的概率。本文Total方法得到的顯著圖顯著值主要集中在0和255兩個值上面,且值為255的像素占多數(shù)。這樣得到的顯著圖,效果更為明顯,顯著目標亮度更大,非顯著目標亮度更小,很容易進行區(qū)分。也由于這個原因,Total方法的precision-recall曲線不能達到recall為0的地方。而RC方法,主要是顯著值為50左右的像素占據(jù)多數(shù),這樣就導致整個顯著圖效果偏暗。類似地,對于HC方法,由于是逐像素處理,因此,其像素分布變化較為平滑,然而大多數(shù)的像素分布于靠近0的位置,從而整個顯著圖呈現(xiàn)較暗的效果。 圖10給出AC、CA、FT、GB、IT、RC和Total方法的顯著圖比較。IT、SR方法是依據(jù)生物啟發(fā)模型建立的,因此其顯著圖呈現(xiàn)出的特點是只能給出若干關鍵點,與我們的顯著目標檢測不符。AC、FT和GB方法屬于局部對比度顯著性檢測算法,所得顯著圖僅能找出顯著目標的輪廓,不能整體地突出目標,效果不甚理想。CA、HC和RC方法是基于全局對比度的顯著目標檢測,與Total方法相比,其顯著目標亮度偏暗,且對于目標較大的情況,如手表等,往往不能正確定位。對于這些情況,Total方法由于調整了前景顯著性,能很好地予以解決。 本文提出基于超像素分割的區(qū)域顯著性檢測算法。從邊界和中心分別選擇一系列區(qū)域作為種子區(qū)域,然后依據(jù)背景先驗知識對種子點進行分類。將這些種子點進一步使用SLIC超像素方法迭代進行區(qū)域分割。然后,從前景、背景、顏色和空間四個角度出發(fā)求顯著性,最后,將這些歸一化整合得到最終顯著圖。該方法除超像素分割部分外,計算量特別小。另外通過實驗,一方面分析了空間、顏色、前景和背景因素在顯著性計算中的重要性,另一方面,與其他顯著性檢測算法進行了比較,證明了本文方法優(yōu)于現(xiàn)存的8種方法。 本文成果可以用于高精度分割算法的預處理中,先用顯著性算法檢測出目標區(qū)域并獲得其粗略邊界,再使用摳圖算法實現(xiàn)高精度分割;也可以用于圖像檢索,在檢測到顯著目標后,提取顯著目標區(qū)域的特征以便進一步提高檢索的準確率。 在未來的研究中,可以考慮加入紋理特征進行顯著性研究。此外,需要使用更多的實驗數(shù)據(jù)集對各種方法進行全面地評估。另外,可以考慮加入一些自頂向下的先驗信息,這樣能大大提高顯著目標提取的正確率。 [1] Judd T,Ehinger K,Durand F,et al.Learning to predict where humans look[C]//Proceedings of the IEEE 12th International Conference on Computer Vision,2009:2106-2113. [2] Kootstra G,Nederveen A,Boer B D.Paying attention to symmetry[C]//Proceedings of the British Machine Vision Conference,2008:1115-1125. [3] Ramanathan S,Katti H,Sebe N,et al.An eye fixation database for saliency detection in images[C]//Proceedings of the 11th European Conference on Computer Vision,2010:30-43. [4] Martin D R,Fowlkes C,Tal D,et al.A database of human segmented natural images and its application to evaluating segmentation algorithms and measuring ecological statistics[C]//Proceedings of Eighth IEEE International Conference on Computer Vision,2001:416-423. [5] 朱斐文,肖菁, 戴晨,等.一種高效的基于局部特征的顯著區(qū)域檢測算法[J].計算機應用與軟件,2012,29(8):5-9. [6] Han J,Ngan K N,Li M,et al.Unsupervised extraction of visual attention objects in color images[J].IEEE Transactions on Circuits and Systems for Video Technology,2006,16(1):141-145. [7] Ko B C,Nam J Y.Object-of-interest image segmentation based on human attention and semantic region clustering[J].Journal of the Optical Society of America A,2006,23(10):2462-2470. [8] Christopoulos C,Skodras A,Ebrahimi T.The JPEG2000 still image coding system:an overview[J].IEEE Transactions on Consumer Electronics,2000,46(4):1103-1127. [9] Chen T,Cheng M M,Tan P,et al.Sketch2Photo:internet image montage[J].ACM Transactions on Graphics (TOG),2009,28(5):89-97. [10] Achanta R,Shaji A,Smith K,et al.SLIC superpixels compared to state-of-the-art superpixel methods[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2012,34(11):2274-2282. [11] Sha C,Li X,Shao Q,et al.Saliency detection via boundary and center priors[C]//Proceedings of the 6th International Congress on Image and Signal Processing,2013:1066-1071. [12] Itti L,Koch C,Niebur E.A model of saliency-based visual attention for rapid scene analysis[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1998,20(11):1254-1259. [13] Ma Y F,Zhang H J.Contrast-based image attention analysis by using fuzzy growing[C]//Proceedings of the Eleventh ACM International Conference on Multimedia,2003:374-381. [14] Achanta R,Estrada F,Wils P,et al.Salient region detection and segmentation[C]//Proceedings of the 6th International Conference on Computer Vision Systems,2008:66-75. [15] Goferman S,Zelnik-Manor L,Tal A.Context-aware saliency detection[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2010:2376-2383. [16] Cheng M M,Zhang G X,Mitra N J,et al.Global contrast based salient region detection[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2011:409-416. [17] Hou X,Zhang L.Saliency detection:A spectral residual approach[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2007:1-8. [18] Wei Y,Wen F,Zhu W,et al.Geodesic saliency using background priors[C]//Proceedings of the 12th European Conference on Computer Vision,2012:29-42. [19] Harel J,Koch C,Perona P.Graph-based visual saliency[C]//Proceedings of the Annual Conference on Neural Information Processing Systems,2006:545-552. [20] Achanta R,Hemami S,Estrada F,et al.Frequency-tuned salient region detection[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2009:1597-1604. SALIENT OBJECT DETECTION BASED ON SUPER-PIXEL CLASSIFICATION Li Jide Li Xiaoqiang Sha Caixia (SchoolofComputerEngineeringandScience,ShanghaiUniversity,Shanghai200444,China) A new salient detection method combining super-pixel segmentation with boundary-center priors is proposed.Firstly,the image is segmented by SLIC method to get super-pixel region classified as background or foreground.Then,we calculate the saliency of the regions in the respect of color and space.Finally,the fusion of different aforementioned salient value is computed as the total saliency.In the experiments,the importance of foreground,background,color,space in salient calculation are analyzed;on the other side,extensive experimental results show that the performance of this method is higher than the other 8 state-of-the-art saliency detection methods. Salient detection Super-pixel Boundary-center priors Foreground-background 2015-10-20。國家自然科學基金項目(61402279)。李繼德,碩士生,主研領域:圖像分析和理解。李曉強,副教授。沙彩霞,碩士。 TP3 A 10.3969/j.issn.1000-386x.2017.01.0333 實驗和討論
4 結 語