陳志華, 朱楠楠, 肖小龍, 張 靜,, 袁玉波
(1. 華東理工大學(xué)計(jì)算機(jī)科學(xué)與工程系,上海 200237;2. 南京大學(xué)計(jì)算機(jī)軟件新技術(shù)國(guó)家重點(diǎn)實(shí)驗(yàn)室,江蘇 南京 210093)
基于顯著目標(biāo)移動(dòng)的自動(dòng)摳圖方法
陳志華1, 朱楠楠1, 肖小龍1, 張 靜1,2, 袁玉波1
(1. 華東理工大學(xué)計(jì)算機(jī)科學(xué)與工程系,上海 200237;2. 南京大學(xué)計(jì)算機(jī)軟件新技術(shù)國(guó)家重點(diǎn)實(shí)驗(yàn)室,江蘇 南京 210093)
摳圖技術(shù)是一種常用的提取圖像中精確目標(biāo)區(qū)域的方法,在圖像編輯中有著重要的應(yīng)用,現(xiàn)有的大多數(shù)摳圖技術(shù)依賴于人工交互,本文提出一種基于顯著目標(biāo)移動(dòng)的自動(dòng)摳圖方法。首先對(duì)輸入圖像進(jìn)行區(qū)域分割;然后計(jì)算各個(gè)區(qū)域的顯著性值,并建立區(qū)域之間的顯著性引力模型;在此基礎(chǔ)上進(jìn)行基于顯著目標(biāo)移動(dòng)的迭代,從而獲取圖像的顯著區(qū)域;之后對(duì)顯著圖進(jìn)行分割并且進(jìn)行目標(biāo)區(qū)域形態(tài)學(xué)運(yùn)算,生成三分圖;最后利用基于學(xué)習(xí)的摳圖算法,提取圖像目標(biāo)。實(shí)驗(yàn)結(jié)果表明,本文方法不需要人工交互和其他的輔助信息,目標(biāo)摳取效果良好。
圖像顯著性;顯著目標(biāo)移動(dòng);自動(dòng)摳圖
摳圖技術(shù)是數(shù)字圖像處理和圖像克隆中的關(guān)鍵技術(shù),是將圖像中感興趣的部分提取出來(lái)的一種技術(shù)[1]。該技術(shù)廣泛應(yīng)用于照片編輯和影視特效處理等[2]。近年來(lái)?yè)笀D問題得到計(jì)算機(jī)視覺領(lǐng)域研究人員的廣泛關(guān)注和深入研究,先后提出了基于統(tǒng)計(jì)學(xué)習(xí)[3]、基于圖表示[3]和基于泊松偏微分方程[4]的摳圖算法。這些算法能夠摳取較高質(zhì)量的圖像/視頻摳圖,但仍然存在一些需要深入研究的問題和亟待改進(jìn)的地方。例如,基于統(tǒng)計(jì)學(xué)習(xí)的摳圖算法會(huì)得到帶有少許顏色粘貼的摳圖結(jié)果,對(duì)細(xì)微的細(xì)節(jié)摳取不太理想;基于圖表示的摳圖算法過(guò)多地依賴于用戶交互;基于泊松偏微分方程的摳圖算法對(duì)前景和背景的要求比較苛刻。
本文提到的顯著目標(biāo)是指圖像中顯著性值最高的區(qū)域。文中的創(chuàng)新點(diǎn)在于提出基于顯著目標(biāo)的移動(dòng)算法,實(shí)現(xiàn)摳圖技術(shù)上的自動(dòng)化操作,省略三分圖獲得時(shí)的大量人工交互工作和其他輔助信息的輸入。算法如圖1所示,具體步驟如下:
(1) 在三分圖之前,對(duì)待輸入的圖像進(jìn)行了預(yù)分割,在分割之后的區(qū)域內(nèi),根據(jù)顏色信息對(duì)圖像進(jìn)行量化;對(duì)圖像進(jìn)行顯著性計(jì)算,加入位置權(quán)重信息進(jìn)行多次迭代,以求得更加準(zhǔn)確的顯著圖;
(2) 對(duì)顯著圖進(jìn)行Mean Shift分割,得到二值分割圖;對(duì)二值分割圖做形態(tài)學(xué)的閉運(yùn)算,得到三分圖[5];
(3) 最后對(duì)圖像做摳圖運(yùn)算。
圖1 基于顯著目標(biāo)移動(dòng)的自動(dòng)摳圖算法流程
前景摳圖的含義就是把原圖像中感興趣的部分合成到目標(biāo)圖像中去。從用戶的交互角度來(lái)看,圖像摳取方法可以分為帶有交互方法和非交互方法?;诜指钏惴ǖ膿笀D方法[6],不論是Graph Cut分割法[7]還是Mean Shift分割法[8],都是二值的硬分割方法,僅將圖像的前景和背景進(jìn)行二值分割,摳圖效果不是很明顯。一般的數(shù)字摳圖在分割邊緣區(qū)域除了前景分量還會(huì)包括部分背景分量,公式如下:
對(duì)于每一個(gè)像素 I,都有對(duì)應(yīng)的前景分量 F,背景分量B和相關(guān)的透明度值α,前景摳取根據(jù)當(dāng)前像素的灰度值去求3個(gè)未知分量的值,這是一個(gè)嚴(yán)重的病態(tài)問題。最早的摳圖技術(shù),要求背景是藍(lán)色的,這就使得未知分量減少一個(gè),此方法被稱之為“藍(lán)屏摳圖”。早期的藍(lán)屏技術(shù)被廣泛應(yīng)用于電影后期制作,但是場(chǎng)景中如果出現(xiàn)藍(lán)色或與人體皮膚相近的顏色時(shí),效果不佳。
現(xiàn)有的摳圖方法大致可以分為以下幾類:
(1) 基于采樣的摳圖技術(shù)。文獻(xiàn)[7]和[9]提到的貝葉斯摳圖和魯棒式摳圖都可劃歸這類方法。這類方法需要用戶給定三分圖:確定的前景區(qū)域ΩF,背景區(qū)域ΩB以及未知區(qū)域ΩU。假設(shè)圖像是局部連續(xù)的,即圖像的前景和背景在局部變化很小,用周圍樣本點(diǎn)的前景和背景對(duì)當(dāng)前未知像素點(diǎn)的前景和背景進(jìn)行近似估計(jì),然后通過(guò)得到的前景和背景計(jì)算得到透明度值。但是,只有在用戶提供較精確的三分圖時(shí),才會(huì)得到較好的摳圖效果。而三分圖的獲得需要大量的人工交互[9]。
(2) 基于傳播的摳圖技術(shù)。文獻(xiàn)[3]和[10]提到這類技術(shù)的具體思想。這類方法大多不需要用戶輸入三分圖,只需要輸入少量的線條標(biāo)記,用以標(biāo)注確定的前景和背景區(qū)域。準(zhǔn)確地獲得相鄰像素與采樣像素點(diǎn)的相關(guān)性是傳播算法能夠高效實(shí)現(xiàn)的關(guān)鍵。
(3) 采樣與傳播相結(jié)合的方法。文獻(xiàn)[11]和[12]發(fā)展到這類方法后,用戶的交互越來(lái)越靈活,除了之前三分圖的方法,還有Grab Cut方法[3]中提出的用戶交互方法,它只需要用戶畫一個(gè)矩形框包圍前景物體就可以了。現(xiàn)有的基于采樣的摳圖方法缺點(diǎn)在于,過(guò)多的關(guān)注于采樣點(diǎn)之間的距離約束。
上述的摳圖算法摳取效果常常受到三分圖的精度影響。而三分圖的獲得需要較多的人工交互。因此,研究者相繼提出了一些自動(dòng)摳圖方法。McGuire等[13]提出一種針對(duì)動(dòng)態(tài)場(chǎng)景的自動(dòng)摳圖方法,稱為散焦摳圖。其利用分光鏡搭建一個(gè)由3個(gè)攝像頭傳感器組成的系統(tǒng),對(duì)同一場(chǎng)景攝取聚焦前景、聚焦背景以及全景深聚焦等3張圖片,然后通過(guò)聚焦面分析場(chǎng)景物體的相對(duì)深度,從而自動(dòng)計(jì)算出粗略的 Trimap圖。Sun等[14]也提出了一種閃光摳圖。該方法指出,如果場(chǎng)景內(nèi)的背景物離得足夠遠(yuǎn),那加閃光的圖片和不加閃光的圖片,差異主要集中在前景物體區(qū)域。所以閃光摳圖先攝取同一場(chǎng)景的加閃光和不加閃光的兩幅圖片,之后通過(guò)計(jì)算兩幅圖的差估計(jì)每個(gè)像素點(diǎn)屬于前景的似然概率,最后經(jīng)過(guò)迭代法求得最大似然值。此外,利用照相機(jī)陣列和深度傳感器的摳圖方法。這些自動(dòng)摳圖方法都需要額外的設(shè)備,對(duì)獲得的單張彩色圖片進(jìn)行處理,難以運(yùn)用到實(shí)際自然背景的圖像摳取。
本文則是重點(diǎn)研究利用基于顯著目標(biāo)移動(dòng)的方法,獲取顯著圖,在此基礎(chǔ)上獲取三分圖,不需要過(guò)多的人工輸入和其他輔助,從而實(shí)現(xiàn)摳圖技術(shù)的自動(dòng)化。
在沒有任何場(chǎng)景內(nèi)容和先驗(yàn)知識(shí)的情況下,圖像的視覺顯著性檢測(cè)使得圖像的自適應(yīng)處理成為了可能。因此,有效的圖像顯著性檢測(cè)是很多重要的圖像視頻處理算法的基礎(chǔ)。本文在獲得三分圖的方法上,引入了顯著性圖像,其目的在顯著圖的基礎(chǔ)上獲得一個(gè)精確度較高的三分圖[15],減少以往實(shí)驗(yàn)過(guò)程中人工交互。
現(xiàn)有的圖像視覺顯著性檢測(cè)算法大多是從像素點(diǎn)的角度去考慮計(jì)算機(jī)視覺的顯著性。這些算法的結(jié)果往往使得顯著圖過(guò)分強(qiáng)調(diào)了顯著物體的邊緣特性,卻沒有均勻的突出顯著物體。但是,顯著圖的實(shí)際應(yīng)用,不僅僅需要的是顯著物體的簡(jiǎn)單輪廓或者邊緣信息?;趨^(qū)域?qū)Ρ鹊娘@著性算法,則側(cè)重于從區(qū)域或類物體的角度去考慮如何計(jì)算圖像的視覺顯著性?;趨^(qū)域?qū)Ρ鹊娘@著性檢測(cè)合理性在于:
(1) 同質(zhì)區(qū)域內(nèi)的顏色差異性小,極有可能屬于同一物體,因此受到關(guān)注的程度是一樣的,也就是應(yīng)當(dāng)獲得相同的顯著值。而區(qū)域之間的顏色差異性可能會(huì)比較大,極有可能不是同一物體,受到的關(guān)注度也就不一樣,從而獲得的顯著值也就不同。
(2) 通過(guò)分割區(qū)域計(jì)算顯著性區(qū)域,能夠更好地保持顯著物體的輪廓及邊緣特性,還能夠更好地應(yīng)用到基于顯著圖的應(yīng)用。
區(qū)域?qū)Ρ雀臃先祟愐曈X系統(tǒng)的認(rèn)知情況,它能更加準(zhǔn)確、均勻的突出顯著物體。受到萬(wàn)有引力模型的啟發(fā),本文提出了利用顯著性引力模型計(jì)算獲得新的顯著區(qū)域。所謂引力模型,假設(shè)圖像中心為初始視覺關(guān)注點(diǎn),也為初始像素點(diǎn)。賦予每一像素點(diǎn)一個(gè)位置權(quán)重,而權(quán)重的大小由像素點(diǎn)與初始像素點(diǎn)之間的距離決定。距離相近的像素點(diǎn),被認(rèn)為它們?cè)谝粋€(gè)區(qū)域內(nèi),且顯著效果相似,那么就給它一個(gè)較大的權(quán)重值;距離較遠(yuǎn)時(shí),被認(rèn)為其可能不在一個(gè)顯著區(qū)域內(nèi),那么就給予一個(gè)較小的權(quán)重。這種初始像素點(diǎn)對(duì)其他像素點(diǎn)的權(quán)重大小影響作用,可看成一種引力作用。在這種引力計(jì)算作用下,顯著區(qū)域總是被周圍顯著值較大的顯著區(qū)域取代,視覺關(guān)注點(diǎn)也會(huì)因此轉(zhuǎn)移,以此迭代下去,最終,獲得顯著區(qū)域較為準(zhǔn)確的顯著目標(biāo),如圖2所示。判斷引力大小的因素有兩點(diǎn):像素點(diǎn)的顯著性值和它到視覺關(guān)注點(diǎn)的距離。所以定義顯著性引力計(jì)算公式如下:
其中,F(xiàn)i表示像素點(diǎn),pi與初始像素點(diǎn)OF之間的顯著性引力,Spi表示像素點(diǎn)pi的顯著值,SOF表示初始像素點(diǎn)的顯著值,Gs表示顯著引力常量R=1/r2,r=D(pi,OF)表示像素點(diǎn)pi到視覺關(guān)注點(diǎn)OF之間的歐式距離。
圖2 引力建模
運(yùn)用本文的顯著目標(biāo)移動(dòng)算法獲得的顯著圖,如圖3所示。
圖3 顯著目標(biāo)移動(dòng)算法獲得的顯著圖
本文運(yùn)用顯著目標(biāo)移動(dòng)算法獲得了顯著圖。為了計(jì)算出所需的三分圖,針對(duì)獲得的顯著圖進(jìn)行Mean Shift分割,分割結(jié)果能明顯地表現(xiàn)為前景區(qū)域ΩF、背景區(qū)域ΩB。前述中提到分割邊緣部分除了前景分量外,還有少量的背景分量。所以,本文方法是對(duì)分割圖像進(jìn)行形態(tài)學(xué)的閉運(yùn)算[16]。先對(duì)二值分割圖像進(jìn)行一次寬度為b1的前景膨脹dilate運(yùn)算,使邊緣處某些連通的區(qū)域連通;再對(duì)二值分割圖像進(jìn)行一次寬度為b的腐蝕erode運(yùn)算;兩次操作的差即為求得的未知區(qū)域 ΩU。形態(tài)學(xué)運(yùn)算公式如式(3):
圖4為包含前景、背景和未知區(qū)域的三分圖。
圖4 形態(tài)學(xué)運(yùn)算結(jié)果
基于學(xué)習(xí)的摳取技術(shù)(leaning based digital matting)[12]是本文選取的主要軟摳取技術(shù)。該技術(shù)假設(shè)在一個(gè)很小的窗口內(nèi),未知像素和已知像素存在一個(gè)線性關(guān)系,通過(guò)半監(jiān)督學(xué)習(xí)確定未知像素屬于前景或背景。在軟摳取時(shí),把α值的估計(jì)問題看成是一個(gè)學(xué)習(xí)問題,用已知像素點(diǎn)的α值去估計(jì)未知像素的α值。
對(duì)于一幅圖像,看成有無(wú)數(shù)個(gè)像素點(diǎn)組成,Ω={1,…,n},n是像素點(diǎn)的總數(shù)。給定一個(gè)標(biāo)注的像素集Ωl?Ω,Ωl中像素的α值是已知的。那未知像素集Ωu=Ω-Ωl,α值的估計(jì)計(jì)算就是確定未知的像素集Ωu的像素是屬于前景還是背景。
在上節(jié)中,計(jì)算求得一幅三分圖。三分圖的特點(diǎn)是,有標(biāo)注的絕對(duì)前景ΩF和絕對(duì)背景ΩB,以及未知區(qū)域 ΩU。在基于學(xué)習(xí)的摳圖方法中,假設(shè)未知區(qū)域的像素點(diǎn)和標(biāo)注的前景或者背景像素點(diǎn)存在某種函數(shù)關(guān)系,可以用已知的前景或者背景像素點(diǎn)去計(jì)算未知的像素點(diǎn)。
在用局部學(xué)習(xí)的方法估計(jì)α值時(shí),對(duì)于任意像素i∈Ω,定義其α值為αi,且能被區(qū)域Ω內(nèi)的其他像素點(diǎn)的值αj以線性組合的方式預(yù)測(cè),其中{αj}j∈Ni,鄰近像素Ni?Ω。以像素i為中心的7×7的局部窗口內(nèi),選擇像素i的鄰近像素。通過(guò)計(jì)算最小成本函數(shù),得到最優(yōu)的α值。
根據(jù)式(4)[11]可知,所有的像素點(diǎn)符合線性組合→,定義所有的像素點(diǎn)的α值,則=[α1,α2,…,αn]T,各個(gè)像素點(diǎn)與i的系數(shù)為ξi=[fi1,…,fin]T, ξi的值相當(dāng)于 Ni內(nèi)相鄰像素與i的關(guān)系系數(shù)值fi,其余的值為0。如式(5)[12]:
重寫式(5),以一個(gè)新矩陣F代替{ξi}i∈Ω:F=[ξ1,…,ξn],得到式(6)[11]:
如果知道了F,一個(gè)經(jīng)典的求解估算α值的方法,就可通過(guò)求解最小化問題得到式(7)[11]:
αl定義的是在 Ωl的被標(biāo)記的像素點(diǎn)的變量α值,αl*定義是已經(jīng)知道的,被標(biāo)記的像素點(diǎn)的α值,如圖5所示。
圖5 目標(biāo)摳取結(jié)果
圖6是本文的目標(biāo)摳取對(duì)比圖,其中,圖6(a)因?yàn)榧尤肓孙@著圖,減去人工交互工作,在時(shí)間上比圖 6(b)要高效;在摳圖效果上,本文方法也比圖6(c)好。
圖6 目標(biāo)摳取對(duì)比圖
本文算法在計(jì)算顯著圖的過(guò)程中,通過(guò)引入顯著性引力模型,逐步迭代求得顯著圖。通過(guò)實(shí)驗(yàn)與CA[5],F(xiàn)T[17],HC[18]和 RC[18]算法結(jié)果進(jìn)行比較,發(fā)現(xiàn)該方法在提取顯著目標(biāo)方面更加準(zhǔn)確有效。由圖7所示,CA算法得到的顯著圖過(guò)分強(qiáng)調(diào)了圖像的邊緣信息,不能準(zhǔn)確地突出圖像的顯著物體。FT算法和HC算法采用了全局對(duì)比方法計(jì)算圖像的顯著圖,盡管比較準(zhǔn)確地突出了顯著物體,但同時(shí)也將部分非顯著區(qū)域錯(cuò)劃成顯著區(qū)域。RC算法利用區(qū)域?qū)Ρ鹊姆椒ㄓ?jì)算顯著圖,有效地改善了FT算法和HC算法的缺陷。僅僅考慮區(qū)域?qū)Ρ?,而不考慮視覺關(guān)注點(diǎn)的作用,還是會(huì)使得部分非顯著區(qū)域被計(jì)算成顯著區(qū)域。本文提出的顯著目標(biāo)移動(dòng)算法,利用顯著引力模型獲得真正的視覺關(guān)注點(diǎn),因此最后計(jì)算得到顯著圖效果較好。
圖7 本文與各種典型顯著性檢測(cè)算法的效果比較
根據(jù)所得到的顯著圖,可通過(guò)計(jì)算獲得正確的三分圖,提高了目標(biāo)提取的精度,并且不需要人工干預(yù)。部分實(shí)驗(yàn)結(jié)果如圖8所示。
本文實(shí)驗(yàn)通過(guò)顯著目標(biāo)移動(dòng)的顯著性計(jì)算,獲得均勻的突出物體的顯著圖,使得在三分圖計(jì)算時(shí),求得更加準(zhǔn)確的三分圖,在目標(biāo)摳圖實(shí)驗(yàn)中,摳圖效果更加明顯。因?yàn)槲闹刑岢龅氖腔陲@著引力模型的摳圖方法,所以顯著性的檢測(cè)在本文中極為重要。獲得較準(zhǔn)確的顯著性檢測(cè)圖,是本文的重要工作。在多次實(shí)驗(yàn)對(duì)比中,本實(shí)驗(yàn)方法更適用于顯著物體比較突出的圖像。對(duì)于部分帶有細(xì)微毛發(fā)的圖像,其摳圖效果也相應(yīng)會(huì)有影響,這也是需要進(jìn)一步完善的地方。下一步的工作方向是將本文的方法進(jìn)行改進(jìn)與拓展,運(yùn)用到視頻目標(biāo)自動(dòng)摳取。
圖8 實(shí)驗(yàn)結(jié)果圖
(致謝:衷心感謝應(yīng)方立博士在實(shí)驗(yàn)過(guò)程和改進(jìn)方法上提供了寶貴的意見。)
[1] Grady L, Schiwietz T, Aharon S, et al. Random walks for interactive alpha-matting [C]//Proceedings of VIIP 2005, Benidorm, Spain, 2005: 423-429.
[2] Porter T, Duff T. Compositing digital images [C]. Proceedings of ACM SIGGRAPH, Minneapolis, USA,1984, 18(3): 253-259.
[3] 沈 洋, 林 曉, 謝志峰, 等. 交互式前景摳圖技術(shù)綜述[J]. 計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào), 2014, 26(4): 511-519.
[4] Pérez P, Gangnet M, Blake A. Poisson image editing [C]// Proceedings of ACM SIGGRAPH, San Diego, CA, USA, 2003: 313-318.
[5] Goferman S, Zelnik-Manor L, Tal A. Context-aware saliency detection [C]//Proceedings of IEEE International Conference Computer Vision and Pattern Recognition, San Francisco, CA, USA, 2010: 2376-2383.
[6] 郭 洪, 張清志. 增強(qiáng)圖像細(xì)節(jié)和去噪能力的改進(jìn)形態(tài)學(xué)分水嶺算法[J]. 圖學(xué)學(xué)報(bào), 2013, 34(3): 7-11.
[7] Rother C, Kolmogorov V, Blake A. Grab cut interactive foreground extraction using iterated graph cuts [J]. ACM Transactions on Graphics, 2004, 23(3): 309-314.
[8] Comaniciu D, Meer P. Mean shift: a robust approach toward feature spaceanalysis [J]. IEEE Trans on Pattern Analysis and Machine Intelligence, 2002, 24(5): 603-619.
[9] Chuang Yungyu, Curless B, Salesin D H, et al. A bayesian approach to digital matting [C]//Proceedings of IEEE CVPR, Kauai, Hawaii, USA, 2001: 264-271.
[10] Levin A, Lischinski D, Weiss Y. A closed form solution to natural image matting [C]//Computer Vision and Pattern Recognition, 2006 IEEE Computer Society Conference on, New York, USA, 2006: 61-68.
[11] Wang Jue, Maneesh A, Cohen M F. Soft scissors: an interactive tool for realtime high quality matting [C]// Proceedings of ACM SIGGRAPH, San Diego, CA, USA, 2007: 9:1-9:6.
[12] Zheng Yuanjie, Kambhamettu C. Learning based digital matting [C]//IEEE 12th International Conference on Computer Vision, Kyoto, Japan, 2009: 889-896.
[13] McGuire M, Matusik W, Pfister H, et al. Defocus video matting [C]//Proceedings of ACM SIGGRAPH, Los Angeles, CA, USA, 2005: 567-576.
[14] Sun Jian, Li Yin, Kang Singbing, et al. Flash matting [C]// Proceedings of ACM SIGGRAPH, Boston, MA, USA, 2006: 772-778.
[15] Rhemann C, Rother C, Rav-Acha A, et al. High resolution matting via interactive trimap segmentation [C]// Proceedings of IEEE CVPR, Anchorage, Alaska, USA, 2008: 1-8.
[16] 李海洋, 文永革, 何紅洲, 等. 基于隨機(jī)權(quán)重粒子群和K-均值聚類的圖像分割[J]. 圖學(xué)學(xué)報(bào), 2014, 35(5): 755-761.
[17] Achanta R, Hemami S, Estrada F, et al. Frequency-tuned salient region detection [C]//Proceedings of IEEE International Conference Computer Vision and Pattern Recognition, Miami, FL, USA, 2009: 1597-1604.
[18] Cheng Mingming, Zhang Guoxin, Mitra N J, et al. Global contrast based salient region detection [C]// Proceedings of IEEE International Conference Computer Vision and Pattern Recognition, Colorado Springs, CO, USA, 2011: 409-416.
An Automatic Matting Method Based on Moving Saliency Objects
Chen Zhihua1, Zhu Nannan1, Xiao Xiaolong1, Zhang Jing1,2, Yuan Yubo1
(1. Department of Computer Science and Engineering, East China University of Science and Technology, Shanghai 200237, China; 2. State Key Laboratory of Novel Software Technology, Nanjing University, Nanjing Jiangsu 210093, China)
Matting technique is a popular method to extract objects from an image precisely. It takes important advantages in image editing. Most of the existing matting techniques rely on human interaction. In this paper, a novel automatic matting method is proposed and it is based on moving saliency objects. Firstly, the input image is segmented into several regions, its saliency values are calculated, a saliency gravitation model between regions is established, and the moving rules of saliency regions are constructed to obtain an accurate saliency map. Secondly, the saliency map is obtained and morphological operators are employed to correct the object regions. The corresponding trimap is generated automatically. Finally, the object regions are extracted by using learning-based matting algorithm. The experimental results show that the proposed method is more accurate and effective without human interaction or other auxiliary information.
image saliency; moving saliency regions; automatic matting
TP 391
A
2095-302X(2015)03-0425-07
2014-10-08;定稿日期:2014-10-24
國(guó)家自然科學(xué)基金資助項(xiàng)目(61370174,61402174)
陳志華(1969-),男,江西萬(wàn)年人,副教授,博士。主要研究方向?yàn)閳D像/視頻處理、計(jì)算機(jī)圖形學(xué)、計(jì)算機(jī)視覺。E-mail:czh@ecust.edu.cn
張 靜(1978-),女,河南三門峽人,副教授,博士。主要研究方向?yàn)橛?jì)算機(jī)視覺、圖像處理,多媒體信息檢索。E-mail:jingzhang@ecust.edu.cn