李 璐,溫 靜,王文劍
山西大學(xué)計(jì)算機(jī)與信息技術(shù)學(xué)院,太原030006
ISSN 1673-9418 CODEN JKYTA8
Journal of Frontiers of Computer Science and Technology 1673-9418/2016/10(03)-0398-09
?
基于視覺(jué)顯著性的目標(biāo)分割算法*
李璐,溫靜+,王文劍
山西大學(xué)計(jì)算機(jī)與信息技術(shù)學(xué)院,太原030006
ISSN 1673-9418 CODEN JKYTA8
Journal of Frontiers of Computer Science and Technology 1673-9418/2016/10(03)-0398-09
E-mail: fcst@vip.163.com
http://www.ceaj.org
Tel: +86-10-89056056
* The National Natural Science Foundation of China under Grant Nos. 61201453, 61303091, 61273291,61401265 (國(guó)家自然科學(xué)基金); the Specialized Research Fund for the Doctoral Program of Higher Education of China under Grant No. 20121401120015 (高等學(xué)校博士學(xué)科點(diǎn)專(zhuān)項(xiàng)科研基金); the Basic Research Program of Shanxi Province under Grant No. 2014021022-2 (山西省基礎(chǔ)研究計(jì)劃項(xiàng)目); the Scientific and Technological Innovation Program of Higher Education Institutions in Shanxi Province under Grant No. 2015108 (山西省高等學(xué)校科技創(chuàng)新項(xiàng)目); the Research Project Supported by Shanxi Scholarship Council of China under Grant No. 2012-008 (山西省回國(guó)留學(xué)人員科研資助項(xiàng)目).
Received 2015-04,Accepted 2015-06.
CNKI網(wǎng)絡(luò)優(yōu)先出版: 2015-06-05, http://www.cnki.net/kcms/detail/11.5602.TP.20150605.1708.003.html
摘要:傳統(tǒng)的圖像分割算法在分割前需要輸入目標(biāo)的先驗(yàn)信息,因此不適應(yīng)盲圖像的分割。為此,提出了一種基于顯著性的圖像分割算法,主要借鑒人的注意力機(jī)制將圖像中具有視覺(jué)顯著性的區(qū)域分割出來(lái)。首先,book=399,ebook=103利用Gist全局特征獲取目標(biāo)圖像的相似圖像集;然后,結(jié)合尺度不變特征SURF(speeded up robust features)和Lab顏色模型空間特征對(duì)目標(biāo)圖像內(nèi)以及相似圖像集提取顯著性特征,并根據(jù)顯著性塊頻率低的原理進(jìn)行顯著性分割;最后,結(jié)合圖分割獲得最終的顯著性區(qū)域分割結(jié)果。實(shí)驗(yàn)結(jié)果表明該方法適用于具有顯著性視覺(jué)語(yǔ)義的盲圖像。
關(guān)鍵詞:顯著性;SURF;Gist;圖論
隨著圖像數(shù)量的迅猛增長(zhǎng),圖像處理的應(yīng)用越來(lái)越廣泛,而圖像處理中的許多問(wèn)題都是以圖像分割為基礎(chǔ)的,圖像分割的好壞將直接影響后續(xù)的圖像處理。
圖像分割是將圖像中有意義的特征或區(qū)域提取出來(lái)的過(guò)程,傳統(tǒng)的圖像分割方法中有基于閾值的[1]、基于邊緣的[2]或者兩者結(jié)合的圖像分割方法;結(jié)合特定理論的圖像分割方法中有基于數(shù)學(xué)形態(tài)學(xué)的[3-4]、基于模糊理論的[5-6]、基于圖論的[7-8]以及基于支持向量機(jī)的[9-10]圖像分割方法,這些方法都會(huì)用到目標(biāo)的先驗(yàn)性信息,有些是圖像的原始特征,如像素的灰度值、物體輪廓、顏色、反射特征和紋理等,也有些是空間頻譜等,如直方圖特征。自從1985年,Koch和Ullman提出了顯著性區(qū)域本質(zhì)上與它周?chē)膮^(qū)域是明顯不同的這一特征,許多研究者都開(kāi)始研究這一特征,進(jìn)而產(chǎn)生了許多此類(lèi)型的模型[11-14]。視覺(jué)系統(tǒng)可以快速而有效地獲取有用的視覺(jué)信息進(jìn)行研究,而這項(xiàng)研究主要源于目標(biāo)文本或圖像異常值會(huì)吸引人注意這一特點(diǎn),可以在沒(méi)有先驗(yàn)性信息的情況下進(jìn)行圖像分割。為此本文提出了一種基于圖像顯著性的圖像分割算法,主要借鑒人的注意力機(jī)制對(duì)圖像中具有顯著性視覺(jué)語(yǔ)義的盲圖像進(jìn)行分割。首先,利用Gist全局特征[15]獲取目標(biāo)圖像的相似圖像集,它是一種紋理特征,可以根據(jù)圖像的輪廓找到與目標(biāo)圖像場(chǎng)景最相似的圖像,有效地提高在圖像采樣后計(jì)算顯著度的準(zhǔn)確率和效率。隨之,結(jié)合尺度不變特征SURF (speeded up robust features)[16-18]和Lab顏色模型空間特征對(duì)目標(biāo)圖像內(nèi)以及相似圖像集提取顯著性特征。由于SURF特征是一種圖像局部特征向量,并且這種特征具有尺度不變,圖像旋轉(zhuǎn)不變和視角不變性,以及良好的特征提取速度,本文采用該方法進(jìn)行特征提取,之后與Lab色彩模型空間特征在紋理和色彩上,實(shí)現(xiàn)目標(biāo)圖像內(nèi)以及相似圖像集的特征提取。然后,根據(jù)顯著性塊頻率低的原理進(jìn)行顯著性分割。最后,與圖分割[19]獲得的區(qū)域標(biāo)注結(jié)果相結(jié)合,輸出最終的顯著性區(qū)域分割結(jié)果。
本文首先介紹了圖像分割的意義和研究現(xiàn)狀,闡述了本文的主要內(nèi)容和框架;其次介紹了顯著性特征提取使用的方法;再次介紹了基于顯著性的圖像分割算法;最后給出了實(shí)驗(yàn)結(jié)果與分析。
2.1 Gist相似圖像集
人類(lèi)能夠在短時(shí)間內(nèi)完成圖像場(chǎng)景分類(lèi)的關(guān)鍵在于其快速獲取場(chǎng)景要點(diǎn)語(yǔ)義的能力。Gist[15]體現(xiàn)了場(chǎng)景分類(lèi)建模過(guò)程中圖像的全局意義,避開(kāi)了對(duì)單個(gè)目標(biāo)或區(qū)域的分割和處理,模擬人的視覺(jué)提取圖像中粗略但簡(jiǎn)明扼要的上下文信息。
2.1.1圖像的全局Gist特征提取
對(duì)于一幅大小為r′c的灰度圖像f(x,y),用m尺度n方向的Gabor濾波器組gmn(x,y)[20]進(jìn)行濾波,即分別同nc個(gè)通道的濾波器進(jìn)行卷積,其中nc=m′n,再級(jí)聯(lián)卷積的結(jié)果,稱(chēng)為圖像Gis(tIG)特征,即:
其中,cat為級(jí)聯(lián)運(yùn)算符;*為卷積運(yùn)算符;GI的維數(shù)為nc′r′c。
本文采用Oliva和Torralba[15]的規(guī)則網(wǎng)格方法,將r′c的圖像f(x,y)劃分成np′np的規(guī)則網(wǎng)格,各網(wǎng)格塊按行依次記作Pi,其中i=1,2,...,ng;網(wǎng)格塊大小為r′′c′,其中r′=r/np,c′=c/np;并用nc個(gè)通道的Gabor濾波器對(duì)圖像進(jìn)行濾波獲得圖像的全局Gist特征,則每個(gè)網(wǎng)格塊各通道濾波后級(jí)聯(lián)獲得塊Gist(PG)特征,即:其中,Gp的維數(shù)為nc′r′′c′,且Gp是GI的子集。通過(guò)Gabor濾波器組提取特征的過(guò)程圖和效果圖分別如圖1和圖2所示。
Fig.1 Extraction process of global Gist features圖1 全局Gist特征的提取過(guò)程
Fig.2 Division of 16 blocks and global Gist features extracted by Gabor filters圖2 將圖片劃分為16塊并經(jīng)過(guò)Gabor濾波器得到的全局Gist特征
各通道濾波結(jié)果取均值后按行組合的結(jié)果稱(chēng)為全局Gist(GG)特征,即:
GG的維數(shù)為nc′ng。
2.1.2 Gist相似圖像集搜索
通過(guò)計(jì)算圖像的Gist特征,并結(jié)合圖像的Lab顏色信息,對(duì)目標(biāo)圖像進(jìn)行相似圖集搜索的過(guò)程如圖3所示。
Fig.3 Gist similar sets searching process圖3 獲得圖像相似圖像集DI的過(guò)程
步驟1對(duì)目標(biāo)圖像I提取Gist特征和Lab顏色特征,結(jié)合后得到目標(biāo)圖像的特征IGG+Lab。
步驟2對(duì)圖像集D中的每一張圖片分別提取Gist特征和Lab特征,得到每張圖像的特征DGG+Lab。
步驟3對(duì)目標(biāo)圖像的特征和圖像集中每張圖片的特征計(jì)算歐式距離,取其中距離最近的N張圖片作為目標(biāo)圖像的相似圖像DI。
2.2計(jì)算圖像顯著值
根據(jù)顯著性塊頻率低的原理分析可知,若目標(biāo)圖像塊在相似圖像集中匹配頻率高,則該塊的顯著性低,反之,則顯著性高。因而,需要對(duì)圖像塊提取特征,計(jì)算目標(biāo)圖像塊和相似圖像集中塊的匹配度,以獲得目標(biāo)圖像塊的顯著性。
本文選用了具有尺度、旋轉(zhuǎn)不變性的SURF特征[16]與Lab色彩模型空間特征相結(jié)合的特征作為圖像塊特征,并使用了Kd-樹(shù)算法[21]進(jìn)行特征點(diǎn)匹配。
給定一幅目標(biāo)圖像I和一個(gè)圖像集D,希望找到目標(biāo)圖像I的顯著圖SI,為此給出以下定義。
定義1(顯著性塊)圖像I中的顯著性塊在相似圖像集DI中存在的頻率px非常低。
這里的相似圖片集DI是包含目標(biāo)圖像I和其他根據(jù)Gist全局特征和Lab特征得到的一類(lèi)圖片。
為了有效計(jì)算px,它的計(jì)算公式為:
其中,d(x,y)為兩個(gè)塊之間的歐式距離;Nm(x,DI{I})是除了目標(biāo)圖像本身外的m個(gè)最相似圖片中的塊;dI(x,y)是根據(jù)目標(biāo)圖像本身得到的空間距離上的偏移:
其中,c是常數(shù);l(×)為歸一化后圖片中塊的坐標(biāo)。
px若為一個(gè)高的值,則表明該塊x在圖片中是不顯著的,塊x的顯著性值為:
Sx=1-px(6)
考慮到顯著性目標(biāo)尺度上的變化,在幾種不同尺寸(本文采用4種尺寸:1.0,0.8,0.5,0.3)下,用n′n(本文采用7×7和16×16)大小,步長(zhǎng)為4的塊進(jìn)行遍歷,最后計(jì)算目標(biāo)塊的顯著性值Sx,并平均這幾個(gè)值作為該塊的顯著性-Sx。
基于顯著性的圖像分割算法的主要思想是將圖像顯著性問(wèn)題轉(zhuǎn)化為采樣問(wèn)題,在不同的尺寸下對(duì)待分割圖像和相似圖像集中的圖像進(jìn)行采樣,然后提取圖像塊的SURF特征,并進(jìn)行匹配獲得顯著性值,隨后將得到的顯著性值和得到的圖像區(qū)域標(biāo)記進(jìn)行加權(quán)平均,得到最終的顯著性圖。其中,為了指引顯著性區(qū)域的分割,借鑒圖分割的方法[19]來(lái)實(shí)現(xiàn)對(duì)圖像區(qū)域的標(biāo)記。分割算法的步驟如圖4所示。
基于顯著性的圖像分割算法的步驟如下:
步驟1尋找相似圖像集DI。對(duì)圖像集D中的圖片進(jìn)行預(yù)處理,使用Gist方法提取全局特征和色彩空間Lab特征,得到DGG+Lab,方便調(diào)用并加速程序運(yùn)行。采用同樣的方法獲得待分割圖像I的Gist全局特征和Lab特征IGG+Lab,計(jì)算目標(biāo)圖像I與圖片集D中每個(gè)圖像上述特征之間的歐氏距離,獲取前20張圖像作為目標(biāo)圖像的相似圖像集DI。
步驟2標(biāo)記超像素區(qū)域L。對(duì)目標(biāo)圖像I進(jìn)行基于圖的圖像分割,得到超像素塊L。
步驟3求待分割圖像的顯著性值SalAI。將待分割圖像I在4種不同尺寸(1.0,0.8,0.5,0.3)下,重復(fù)步驟4,完成后,將4個(gè)S進(jìn)行平均,得到待分割圖像的顯著性值SalAI。
步驟4按尺寸為7′7的塊,步長(zhǎng)為4進(jìn)行遍歷,得到SURF特征和Lab特征相結(jié)合的塊特征集ISURF+Lab(每個(gè)塊的特征值表示為3×42+64)。對(duì)相似圖像集DI在3種不同的尺寸下,分別按尺寸為16×16的塊,步長(zhǎng)為4進(jìn)行遍歷,得到SURF特征和Lab特征相結(jié)合的塊特征集DI_SURF+Lab。最后,根據(jù)ISURF+Lab和DI_SURF+Lab對(duì)待分割圖像的每一個(gè)塊與DI中的每個(gè)塊計(jì)算相似度值px,獲得每塊的顯著性值Sx(式(6)),從而得到整幅圖像的顯著性值S。
步驟5求待分割圖像的顯著性值的偏移值SalWI。因?yàn)楂@取顯著性值是在不同尺寸下進(jìn)行的,會(huì)造成一定的偏移,所以需要求取偏移值。將待分割圖像I 在4種不同尺寸(1.0,0.8,0.5,0.3)下,重復(fù)步驟6,完成后,將4個(gè)S′進(jìn)行平均,得到待分割圖像的顯著性值SalWI。
步驟6按尺寸為7×7的塊,步長(zhǎng)為4進(jìn)行遍歷,得到SURF特征和Lab特征相結(jié)合的塊特征集ISURF+Lab(每個(gè)塊的特征值表示為3×42+64)。對(duì)待分割圖像在3種不同的尺寸下,分別按尺寸為16×16的塊,步長(zhǎng)為4進(jìn)行遍歷,得到SURF特征和Lab特征相結(jié)合的塊特征集DI_SURF+Lab′。最后,根據(jù)ISURF+Lab和DI_SURF+Lab′對(duì)待分割圖像的每一個(gè)塊與不同尺寸下圖片中的每個(gè)塊計(jì)算相似度值px',獲得每塊的顯著性值Sx'(式(6)),從而得到整幅圖像的顯著性值S′。
步驟7將SalAI和SalWI分別與L加權(quán)平均,得到初始顯著性圖SAI和顯著性偏差圖SWI。
步驟8將SWI和SAI以相加的方式結(jié)合,得到最終的顯著性圖SI。
Fig.4 Object segmentation圖4 目標(biāo)分割過(guò)程
為了驗(yàn)證本文算法的有效性,實(shí)驗(yàn)采用PASCAL VOC 2012數(shù)據(jù)集[22]。該數(shù)據(jù)集主要用來(lái)實(shí)現(xiàn)圖像分類(lèi),因此數(shù)據(jù)集中的目標(biāo)存在多視角、光照變化劇烈以及背景復(fù)雜等多種因素的干擾。
實(shí)驗(yàn)1按照數(shù)據(jù)集中的類(lèi)別,在20類(lèi)圖像中選取部分實(shí)驗(yàn)結(jié)果,如圖5所示。圖5展示了實(shí)驗(yàn)結(jié)果中的45張圖片,分別為原圖、顯著性圖、分割結(jié)果圖。實(shí)驗(yàn)結(jié)果顯示本文方法對(duì)具有顯著視覺(jué)語(yǔ)義的圖像具有很好的分割效果,然而對(duì)于視覺(jué)語(yǔ)義不明確的圖片無(wú)法獲得顯著性較強(qiáng)的結(jié)果。實(shí)驗(yàn)結(jié)果證明本文方法可以成功地實(shí)現(xiàn)圖像分割。
實(shí)驗(yàn)2為了驗(yàn)證本文方法的有效性,對(duì)比了Zhang等人提出的SUNDAy方法[23]。分別將數(shù)據(jù)集中的圖片分為室內(nèi)和室外場(chǎng)景,其中室外和室內(nèi)實(shí)驗(yàn)的部分分割結(jié)果分別如圖6和圖7所示。由圖中可以看出,本文方法得到的顯著性圖的輪廓更為清晰精確,沒(méi)有太多的噪音,而且得到的顯著性是區(qū)域性的,更有利于進(jìn)行圖像分割。
由圖6可知,在室外場(chǎng)景中,以天空、大海等比較空曠的場(chǎng)景作為背景的,可以非常清楚準(zhǔn)確地將圖中顯著性區(qū)域檢測(cè)出來(lái);一些背景顯著性稍強(qiáng)的圖片,也可以檢測(cè)出易于區(qū)分的顯著性區(qū)域;一些前后景顯著性對(duì)比不是特別強(qiáng)的圖片會(huì)檢測(cè)出較多的背景區(qū)域;而在室外少見(jiàn)的復(fù)雜場(chǎng)景中,前后景顯著性區(qū)分不大,不能分割出想要的區(qū)域;在室外最少見(jiàn)的復(fù)雜場(chǎng)景中,背景對(duì)于目標(biāo)顯著性很低,可以成功將目標(biāo)分割出來(lái)。
Fig.5 Part results of image segmentation圖5 圖像分割部分實(shí)驗(yàn)結(jié)果
由圖7可知,在室內(nèi)場(chǎng)景中,對(duì)于一些背景簡(jiǎn)單的圖像,易于檢測(cè)圖像的顯著性區(qū)域,但是由于人影相對(duì)背景來(lái)說(shuō)也表現(xiàn)為顯著性,導(dǎo)致人影部分也被分割出來(lái);對(duì)于室內(nèi)場(chǎng)景中經(jīng)常出現(xiàn)的復(fù)雜場(chǎng)景,分割出來(lái)的部分并沒(méi)有清楚的邊界;但是在一些即使場(chǎng)景復(fù)雜但是前后景顯著性差別很大的圖像,可以清楚地分割出目標(biāo);由于環(huán)境比較復(fù)雜,一些在人眼看來(lái)并不是顯著的區(qū)域會(huì)被檢測(cè)出來(lái),出現(xiàn)誤檢;或者由于光線(xiàn)等原因,人們想要得到的區(qū)域并沒(méi)有被檢測(cè)出來(lái)。
Fig.6 Comparison result for indoor images圖6 提取室外場(chǎng)景顯著圖結(jié)果比較
Fig.7 Comparison result for outdoor images圖7 提取室外場(chǎng)景顯著圖結(jié)果比較
本文將視覺(jué)顯著性特征運(yùn)用到圖像分割中,首先,利用Gist全局特征獲取目標(biāo)圖像的相似圖像集;然后,結(jié)合尺度不變特征SURF和Lab顏色模型空間特征對(duì)目標(biāo)圖像內(nèi)以及相似圖像集提取顯著性特征,并根據(jù)顯著性塊頻率低的原理進(jìn)行顯著性分割;最后,結(jié)合圖分割獲得最終的顯著性區(qū)域分割結(jié)果。實(shí)驗(yàn)結(jié)果表明,本文算法根據(jù)人的視覺(jué)顯著性,在對(duì)圖像沒(méi)有任何先驗(yàn)信息時(shí),能獲得符合人視覺(jué)感知特性的顯著性區(qū)域分割,并且由于使用了SURF的特征提取方法,速度比較快。本文算法基本適應(yīng)于具有顯著性視覺(jué)語(yǔ)義的盲圖像。
References:
[1] Sonka M, Hlavac V, Boyle R. Image processing, analysis, and machine vision[M]. [S.l.]: Cengage Learning, 2014.
[2] Xue Wenge, Kuang Tianfu. Research on image edge detec-tion[J]. Computer Knowledge and Technology, 2007, 16: 133.
[3] Serra J. Mathematical morphology[M]. London, UK:Academic Press, 1982.
[4] Serra J. Image analysis and mathematical morphology[M]. London, UK:Academic Press, 1982.
[5] Masooleh M G, Moosavi SAS.An improved fuzzy algorithm for image segmentation[J]. Proceedings of World Academy of Science, Engineering and Technology, 2008, 28(4): 400-404.
[6] Wang Yanchun, Liang Dequn, Wang Yan. The transition region extraction and segmentation based on image entropy neighborhood of fuzzy entropy[J]. Chinese Journal of Electronics, 2008, 36(12): 2245-2249.
[7] Hu Xuegang, Sun Huifen, Wang Shun.Anew image segmentation algorithm based on graph theory[J]. Journal of Sichuan University: Engineering Science Edition, 2010, 42 (1): 138-142.
[8] Liu Songtao, Yin Fuliang. Image segmentation based on graph cut and its new progress[J]. Journal of Automation, 2012, 38(6): 911-922.
[9] Yang Najuan, Wang Huiqin, Ma Zongfang. Fire detection in image type algorithm based on support vector machine[J]. Computer Application, 2010, 30(4): 1129-1131.
[10] Liu Ting, Wen Xianbin, Quan Jinjuan, et al. Multiscale SAR image segmentation using support vector mchines[C]//Congress on Image and Signal Processing, Sanya, China, May 27-30, 2008. Piscataway, USA:IEEE,2008: 706-709.
[11] Itti L, Koch C, Niebur E. A model of saliency-based visual attention for rapid scene analysis[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1998, 20(11): 1254-1259.
[12] Gao Dashan, Mahadevan V, Vasconcelos N. On the plausibility of the discriminant center-surround hypothesis for visual saliency[J]. Journal of Vision, 2008, 8(7): 13.
[13] Bruce N D B, Tsotsos J K. Saliency, attention, and visual search: an information theoretic approach[J]. Journal of Vision, 2009, 9(3): 5.
[14] Torralba A, Oliva A, Castelhano M S, et al. Contextual guidance of eye movements and attention in real-world scenes: the role of global features in object search[J]. Psychological Review, 2006, 113(4): 766-786.
[15] Oliva A, Torralba A. Modeling the shape of the scene: a holistic representation of the spatial envelope[J]. International Journal of Computer Vision, 2001, 42(3): 145-175.
[16] Bay H, Tuytelaars T, van Gool L. SURF: speeded up robust features[C]//LNCS 3951: Proceedings of the 9th European Conference on Computer Vision, Graz, Austria, May 7-13, 2006. Berlin, Heidelberg: Springer, 2006: 404-417.
[17] Lowe D G. Object recognition from local scale-invariant features[C]//Proceedings of the 7th IEEE International Conference on Computer Vision, Kerkyra, Greece, Sep 20-27, 1999. Piscataway, USA: IEEE, 1999: 1150-1157.
[18] Wang Yongming, Wang Guijin. Image local invariance features and description[M]. Beijing: National Defense Industry Press, 2010.
[19] Felzenszwalb P F, Huttenlocher D P. Efficient graph-based image segmentation[J]. International Journal of Computer Vision, 2004, 59(2): 167-181.
[20] Jain A K, Ratha N K, Lakshmanan S. Object detection using Gabor filters[J]. Pattern Recognition, 1997, 30(2): 295-309.
[21] Zhou Kun, Hou Qiming, Wang Rui, et al. Real-time KD-tree construction on graphics hardware[J]. ACM Transactions on Graphics, 2008, 27(5): 126-136.
[22] Everingham M, van Gool L, Williams C, et al. Pascal visual object classes challenge results[EB/OL]. (2005)[2015-02-05]. http://www.pascal-network.org/challenges/VOC/.
[23] Zhang Lingyun, Tong M H, Cottrell G W. SUNDAy: saliency using natural statistics for dynamic analysis of scenes[C]// Proceedings of the 31st Annual Cognitive Science Conference. Cambridge, USA:AAAI Press, 2009: 2944-2949.
附中文參考文獻(xiàn):
[2]薛文格,鄺天福.圖像邊緣檢測(cè)方法研究[J].電腦知識(shí)與技術(shù), 2007, 16: 133.
[6]王彥春,梁德群,王演.基于圖像模糊熵鄰域非一致性的過(guò)渡區(qū)提取與分割[J].電子學(xué)報(bào), 2008, 36(12): 2245-2249.
[7]胡學(xué)剛,孫慧芬,王順.一種新的基于圖論的圖像分割算法[J].四川大學(xué)學(xué)報(bào):工程科學(xué)版, 2010, 42(1): 138-142.
[8]劉松濤,殷福亮.基于圖割的圖像分割方法及其新進(jìn)展[J].自動(dòng)化學(xué)報(bào), 2012, 38(6): 911-922.
[9]楊娜娟,王慧琴,馬宗方.基于支持向量機(jī)的圖像型火災(zāi)探測(cè)算法[J].計(jì)算機(jī)應(yīng)用, 2010, 30(4): 1129-1131.
[18]王永明,王貴錦.圖像局部不變性特征與描述[M].北京:國(guó)防工業(yè)出版社, 2010.
LI Lu was born in 1989. She is an M.S. candidate at School of Computer and Information Technology, Shanxi University. Her research interest is computer vision.李璐(1989—),女,山西晉中人,山西大學(xué)計(jì)算機(jī)與信息技術(shù)學(xué)院碩士研究生,主要研究領(lǐng)域?yàn)橛?jì)算機(jī)視覺(jué)。
WEN Jing was born in 1982. She received the Ph.D. degree from School of Electronic Engineering, Xidian University in 2010. Now she is an assistant professor and M.S. supervisor at Shanxi University, and the member of CCF. Her research interests include computer vision, image processing and pattern recognition, etc.溫靜(1982—),女,山西晉中人,2010年于西安電子科技大學(xué)電子工程學(xué)院獲得博士學(xué)位,現(xiàn)為山西大學(xué)計(jì)算機(jī)與信息技術(shù)學(xué)院副教授、碩士生導(dǎo)師,CCF會(huì)員,主要研究領(lǐng)域?yàn)橛?jì)算機(jī)視覺(jué),圖像處理,模式識(shí)別等。主持和參與多項(xiàng)國(guó)家自然科學(xué)基金、教育部博士點(diǎn)基金、山西省自然科學(xué)基金等項(xiàng)目。
WANG Wenjian was born in 1968. She received the Ph.D. degree from Institute for Information and System Science, Xi’an Jiaotong University in 2004. Now she is a professor and Ph.D. supervisor at School of Computer and Information Technology, Shanxi University, and the senior member of CCF. Her research interests include neural networks, support vector machine, machine learning theory and environmental computations, etc.王文劍(1968—),女,山西太原人,2004年于西安交通大學(xué)信息與系統(tǒng)科學(xué)研究所獲得博士學(xué)位,現(xiàn)為山西大學(xué)計(jì)算機(jī)與信息技術(shù)學(xué)院教授、博士生導(dǎo)師,CCF高級(jí)會(huì)員,主要研究領(lǐng)域?yàn)樯窠?jīng)網(wǎng)絡(luò),支持向量機(jī),機(jī)器學(xué)習(xí)理論,環(huán)境計(jì)算等。在國(guó)內(nèi)外重要學(xué)術(shù)刊物和國(guó)際會(huì)議上發(fā)表論文70余篇,主持和參與多項(xiàng)國(guó)家自然科學(xué)基金、國(guó)家863計(jì)劃、教育部博士點(diǎn)基金、山西省自然科學(xué)基金等項(xiàng)目。
Image Segmentation Algorithm Based on Visual Saliency?
LI Lu, WEN Jing+, WANG Wenjian
School of Computer and Information Technology, Shanxi University, Taiyuan 030006, China
+ Corresponding author: E-mail: wjing@sxu.edu.cn
LI Lu, WEN Jing, WANG Wenjian. Image segmentation algorithm based on visual saliency. Journal of Frontiers of Computer Science and Technology, 2016, 10(3):398-406.
Abstract:Because the traditional image segmentation algorithms need the prior information of the object of interest, they usually fail to segment satisfactorily in blind images. In order to obtain the salient regions without prior, this paper proposes a salient image segmentation algorithm based on the human visual attention mechanism. Firstly, the global Gist feature is extracted to collect the correlative image set of the target image. Secondly, the salient region of the target image is computed and extracted in both target image and correlative image set by combining scale invariant feature SURF (speeded up robust features) and Lab color model space feature. Finally, the salient object can be segmented with the assistance of the efficient graph-based image segmentation. The experimental results show that the proposed method is applicable to the blind image which is visual salient semantic.
Key words:saliency; speeded up robust features (SURF); Gist; graph theory
doi:10.3778/j.issn.1673-9418.1505016
文獻(xiàn)標(biāo)志碼:A
中圖分類(lèi)號(hào):TP391