張 旭,郭寶龍,孟繁杰,孫 偉
(西安電子科技大學(xué) 智能控制與圖像工程研究所,西安 710071)
利用局部特征的圖像檢索主要分為基于圖像分割的方法和基于興趣點(diǎn)的方法。由于目前尚未找到一個(gè)通用的算法來(lái)有效分割圖像中的目標(biāo)區(qū)域和背景,且易受到來(lái)自于光照、背景、仿射變換等許多因素的干擾,導(dǎo)致檢索準(zhǔn)確度下降。而興趣點(diǎn)作為認(rèn)知心理學(xué)中的注視焦點(diǎn),可以對(duì)物體形狀粗略表征。另外它具有計(jì)算量小、信息含量高的特點(diǎn),可以靈活地描述圖像的細(xì)節(jié)。將其應(yīng)用于圖像檢索技術(shù)中,利用局部特征描述方法對(duì)其局部區(qū)域進(jìn)行特征提取,最后再進(jìn)行相似度匹配,可以有效提高檢索精度,且具有很好的通用性和穩(wěn)定性[1-4]。符祥等[5]在興趣點(diǎn)局部計(jì)算Zernike矩,通過(guò)比較興趣點(diǎn)局部Zernike矩的歐氏距離來(lái)提取最優(yōu)匹配點(diǎn)對(duì),在去除不匹配的興趣點(diǎn)后利用興趣點(diǎn)的空間離散度來(lái)估計(jì)圖像內(nèi)容的相似度;陳綿書(shū)等[6]將MPDD算法應(yīng)用于圖像檢索,先將圖像均勻細(xì)分成小塊,然后用圖像的顏色特征和紋理特征表示圖像塊內(nèi)容,采用K均值法對(duì)圖像塊進(jìn)行聚類,產(chǎn)生包示例,最后應(yīng)用MPDD算法對(duì)圖像進(jìn)行檢索;Zheng等[7]在對(duì)圖像的每個(gè)區(qū)域檢測(cè)出興趣點(diǎn)后,結(jié)合興趣點(diǎn)的邊緣類型直方圖和不變量進(jìn)行檢索;陳慧婷等人[8]將紋理概率統(tǒng)計(jì)模型和全局主顏色方法有機(jī)地結(jié)合起來(lái),在對(duì)紋理和顏色特征線性加權(quán)的基礎(chǔ)上對(duì)組合后的紋理和顏色特征進(jìn)行二次檢索;曾智勇等[9]以顯著興趣點(diǎn)為線索,設(shè)計(jì)了一種基于顯著興趣點(diǎn)的環(huán)形顏色直方圖,在利用興趣點(diǎn)局部特征的同時(shí),又考慮了興趣點(diǎn)的空間分布結(jié)構(gòu)。
以上研究成果更多地考慮到興趣點(diǎn)的空間分布信息,大大提高了圖像檢索的準(zhǔn)確度,但是終究不能達(dá)到理想狀況,因?yàn)槊鎸?duì)各式各樣的圖片種類時(shí),某種單一的算法往往失去了通用性,因此距其實(shí)際應(yīng)用還有很大差距。為了進(jìn)一步提高圖像檢索準(zhǔn)確度,本文提出了一種新的基于IPDSH和區(qū)域劃分的圖像檢索方法,該方法降低了傳統(tǒng)算法提取出的不穩(wěn)定興趣點(diǎn)對(duì)圖像檢索結(jié)果產(chǎn)生的干擾,考慮了圖像中感興趣區(qū)域的內(nèi)部顏色特征和該區(qū)域在圖像中所處的空間位置,將其劃分為凸包和環(huán)形區(qū)域,提高了區(qū)域劃分方法的可靠性。
首先對(duì)圖像在尺度空間中采用IPDSH算法檢測(cè)興趣點(diǎn),然后按照興趣點(diǎn)的分布將圖像劃分成一系列同心圓環(huán)和凸包,最后統(tǒng)計(jì)每個(gè)圓環(huán)內(nèi)部興趣點(diǎn)鄰域內(nèi)的偽澤尼克矩(Pseudo-Zernike moments)和凸包內(nèi)像素的顏色直方圖(Color histogram),并經(jīng)過(guò)加權(quán)處理生成特征向量。
圖像數(shù)據(jù)庫(kù)中每幅圖像的特征向量只需要計(jì)算一次,方法與查詢圖像相同,得到的集合就組成了特征數(shù)據(jù)庫(kù)。查詢圖像只需要與特征數(shù)據(jù)庫(kù)進(jìn)行特征相似度匹配即可。經(jīng)過(guò)計(jì)算查詢圖像特征向量與圖像數(shù)據(jù)庫(kù)中每幅圖像的特征向量的相似度,并按照歐氏距離的大小進(jìn)行排序,最后將相似度高的圖像顯示出來(lái),就得到了相應(yīng)的檢索結(jié)果。檢索流程如圖1所示。由于IPDSH興趣點(diǎn)和偽澤尼克矩的幅度都具有旋轉(zhuǎn)不變的性質(zhì),且環(huán)形區(qū)域劃分的方法也具有幾何對(duì)稱性,因此這種方法也具有旋轉(zhuǎn)、平移不變性。
圖1 圖像檢索流程圖Fig.1 Image retrieval structure system title
興趣點(diǎn)主要的一類是角點(diǎn),其中,Harris角點(diǎn)檢測(cè)[10]是一種比較有效的方法,但是它對(duì)尺度變化非常敏感,這樣在對(duì)角點(diǎn)響應(yīng)函數(shù)執(zhí)行非極大值抑制確定局部極大值時(shí),角點(diǎn)提取的效果就完全依賴于閾值的設(shè)定。閾值大會(huì)丟失角點(diǎn)信息,閾值小又會(huì)提取出偽角點(diǎn)。針對(duì)這些問(wèn)題,本文利用IPDSH興趣點(diǎn)檢測(cè)算法可以提高興趣點(diǎn)檢測(cè)的快速性和準(zhǔn)確性。
對(duì)于輸入圖像f(x,y),利用二維高斯核對(duì)其進(jìn)行卷積,得到多尺度空間序列:
其中,二維高斯核為
再使用DoG(Difference of Gaussian)函數(shù)對(duì)圖像卷積求取尺度空間極值,函數(shù)表達(dá)式為
定義尺度空間的自相關(guān)矩陣A為
式中:δi為積分尺度;δd為微分尺度;fx和fy分別為x和y方向上的導(dǎo)數(shù);為對(duì)f做高斯濾波。記A的兩個(gè)特征值λ1和λ2為自相關(guān)函數(shù)的主曲率,則不同尺度空間的興趣點(diǎn)檢測(cè)公式為
圖2 IPDSH和SIFT興趣點(diǎn)檢測(cè)結(jié)果比較Fig.2 Comparison of detecting results of IPDSH and SIFT
若C的局部極大值坐標(biāo)落在多尺度空間極值點(diǎn)鄰域內(nèi),則保留該極值點(diǎn),否則剔除。然后檢測(cè)興趣點(diǎn)鄰域是否存在Harris角點(diǎn),若存在,則保留該點(diǎn)且將其看作穩(wěn)定興趣點(diǎn)。其中,α為常數(shù)(一般取0.04~0.06),C的局部極大值計(jì)算方法是根據(jù)λ1和λ2的大小來(lái)確定的。圖2是一副Lena圖像的IPDSH和SIFT算法結(jié)果比較。從圖中可以看出,IPDSH算法有效地剔除了不穩(wěn)定的興趣點(diǎn)。使用IPDSH方法可以有效減少不穩(wěn)定興趣點(diǎn)對(duì)檢索結(jié)果的影響,提高了興趣點(diǎn)區(qū)域劃分和特征檢測(cè)的速度及準(zhǔn)確度。
凸包是包圍一個(gè)平面興趣點(diǎn)集所有點(diǎn)的最小凸多邊形,應(yīng)用于圖像處理、模式識(shí)別等諸多領(lǐng)域。凸包計(jì)算方法很多,考慮到運(yùn)行速度,本文采用格雷厄姆掃描法來(lái)獲取興趣點(diǎn)凸包[11]。凸包內(nèi)部區(qū)域即注視焦點(diǎn)的集中所在。由于興趣點(diǎn)本身具有形狀特征屬性,因此興趣點(diǎn)凸包可以實(shí)現(xiàn)感興趣物體和圖像背景的分割。圖3(a)是區(qū)域劃分的示意圖,圖3(b)是一副鮮花圖像區(qū)域劃分的結(jié)果。圖3(a)中的黑點(diǎn)代表興趣點(diǎn),多邊形代表興趣點(diǎn)凸包。從圖3(b)中可以看出,圖像的興趣點(diǎn)凸包接近物體的輪廓,具有理想的提取感興趣區(qū)域能力。
圖3 空間區(qū)域劃分示意圖Fig.3 Schematic diagram to annular division
考慮到圖像中被關(guān)注物的整體顏色特征一般會(huì)有別于背景,而凸包可以有效描述出事物的大致外形,故本文采用顏色直方圖對(duì)凸包內(nèi)像素進(jìn)行處理。顏色直方圖具有旋轉(zhuǎn),平移和縮放不變性。具體方法為:首先使用非等間隔量化方法對(duì)圖像HSV空間顏色進(jìn)行量化,再將色調(diào)H空間分成8份,飽和度空間S和亮度空間V分成3份,然后將3個(gè)分量合成一個(gè)一維特征矢量I,且I=9 H+3S+V。取值范圍是[0,71],每個(gè)值都代表一種主要顏色。按照公式Hk=numk/num(k=0,1,…,L-1)對(duì)凸包內(nèi)的顏色做直方圖統(tǒng)計(jì),可以得到凸包顏色直方圖特征向量。其中numk為感興趣區(qū)域顏色為k的像素?cái)?shù)量,num為區(qū)域內(nèi)全部像素的數(shù)量,L為量化后顏色柄數(shù)。
將圖像空間按照興趣點(diǎn)的空間分布劃分成n個(gè)同心圓環(huán),然后以每個(gè)興趣點(diǎn)為中心展開(kāi)其周?chē)?×3鄰域統(tǒng)計(jì)每個(gè)圓環(huán)內(nèi)部興趣點(diǎn)領(lǐng)域的偽澤尼克矩。圖3(b)中同心圓環(huán)表示環(huán)形區(qū)域劃分示意圖,圖中藍(lán)色“+”號(hào)表示興趣點(diǎn),綠色“+”號(hào)表示同心圓的圓心,即興趣點(diǎn)的質(zhì)心。具體劃分方法參考文獻(xiàn)[12]。由于這n個(gè)同心圓環(huán)具有對(duì)稱性,因此這種方法在提取顏色空間信息的同時(shí)也具有旋轉(zhuǎn)、平移不變性。偽澤尼克矩是不變矩的一種,具有比澤尼克矩更強(qiáng)的抗噪性。
圖像的偽澤尼克矩是將圖像映射到一組基函數(shù)上得到的,稱為偽澤尼克矩的基,記為{Vnm(x,y)},這組基構(gòu)成了單位圓(x2+y2≤1)內(nèi)的一組完備正交集,其定義為
這些多項(xiàng)式相互正交,滿足關(guān)系:
圖像f(x,y)的 (n,m)階偽澤尼克矩定義為
對(duì)于數(shù)字圖像,在極坐標(biāo)下式(9)變?yōu)?/p>
計(jì)算圖像的偽澤尼克矩時(shí),選圖像的興趣點(diǎn)為極坐標(biāo)的原點(diǎn),將單位圓內(nèi)的像素映射為極坐標(biāo),單位圓外的像素在計(jì)算時(shí)不予考慮。
設(shè)Q為待查詢圖像,I為圖像庫(kù)中的一副圖像,使用加權(quán)特征距離來(lái)度量它們內(nèi)容的相似度。用S1(Q,I)和S2(Q,I)分別表示Q 和I 的顏色特征和偽澤尼克矩的特征向量相似度,kc和kp表示權(quán)值(kc+kp=1),則相似度度量公式可以寫(xiě)為
式中:N為興趣點(diǎn)總數(shù)目;ωk為第k個(gè)圓環(huán)興趣點(diǎn)的數(shù)目;H為顏色直方圖表達(dá)式;P為偽澤尼克矩。
S的值越大,則視為越相似。一般來(lái)說(shuō),圖像的形狀信息對(duì)于圖像檢索更為關(guān)鍵,所以通常取kp>kc,本文通過(guò)大量實(shí)驗(yàn)發(fā)現(xiàn),當(dāng)kp=0.7、kc=0.3時(shí),檢索效果較好。
本文使用的圖像庫(kù)是SIMPLIcity測(cè)試集,它是從Corel圖像庫(kù)中抽取的1000幅圖像,這些圖像分屬10個(gè)類,編號(hào)為:1-土著居民和村莊;2-海灘;3-建筑和雕塑;4-公共汽車(chē);5-恐龍;6-大象;7-花卉;8-馬;9-山地和冰川;10-食物。每類100幅,共1000幅圖(后續(xù)實(shí)驗(yàn)中將以此編號(hào)作為種類編號(hào))。圖4是從每類圖像中隨機(jī)抽取的一張圖片作為示意圖。
圖4 圖像數(shù)據(jù)庫(kù)示例Fig.4 Examples Images in the Database
為了驗(yàn)證本文算法的檢索性能,在相同的軟硬件平臺(tái)下(軟件環(huán)境:Matlab7.1;硬件環(huán)境:Core 2Q8200CPU為2.33GHz,4.0GB內(nèi)存),分別用本文算法與基于凸包和基于環(huán)形區(qū)域劃分的算法做了比較。實(shí)驗(yàn)時(shí)提取的興趣點(diǎn)數(shù)為150個(gè),顏色特征量化為HSV空間中的72維。興趣點(diǎn)環(huán)形劃分?jǐn)?shù)為6。在1000幅圖像的測(cè)試集中對(duì)每一類圖像隨機(jī)抽取20幅,計(jì)算出返回圖像總數(shù)為20幅時(shí)的檢索準(zhǔn)確度為
式中:T為輸出圖像總數(shù);n為查準(zhǔn)圖像數(shù)目。
圖5為三種算法的準(zhǔn)確度比較曲線圖。從圖中可以看出,相對(duì)于單獨(dú)地使用凸包算法或環(huán)形區(qū)域劃分算法,將二者結(jié)合處理得到的檢索準(zhǔn)確度更高。
圖5 不同算法檢索準(zhǔn)確度比較Fig.5 Comparison of different algorithms’precision
圖6 不同方法對(duì)鮮花的檢索結(jié)果Fig.6 Retrieval result of flower using different methods
圖6(a)是使用凸包顏色直方圖進(jìn)行檢索的結(jié)果,圖6(b)是使用環(huán)形區(qū)域中穩(wěn)定興趣點(diǎn)鄰域內(nèi)的偽澤尼克矩進(jìn)行檢索的結(jié)果,圖6(c)是本文算法檢索的結(jié)果。每幅圖中左上角的圖像為查詢圖像,其余圖像是查詢結(jié)果。從左到右,從上到下,相似度依次減小。分析發(fā)現(xiàn),當(dāng)返回的圖像數(shù)為20時(shí),采用本文方法的20幅圖像都是花卉圖像,準(zhǔn)確度為100%,如圖6(c)所示;凸包顏色直方圖的檢索結(jié)果有3幅圖像不正確,檢索準(zhǔn)確度為85%,如圖6(a)所示;環(huán)形區(qū)域中穩(wěn)定興趣點(diǎn)鄰域內(nèi)的偽澤尼克矩的檢索結(jié)果中有4幅圖像不正確,檢索準(zhǔn)確度為80%,如圖6(b)所示。證明本文算法將凸包內(nèi)的顏色直方圖與穩(wěn)定興趣點(diǎn)環(huán)形區(qū)域中興趣點(diǎn)鄰域內(nèi)偽澤尼克矩有效結(jié)合,并將加權(quán)特征作為特征向量進(jìn)行檢索,能獲得更高的準(zhǔn)確度。
為了進(jìn)一步說(shuō)明本文方法的檢索性能,還將本文算法與文獻(xiàn)[13]和文獻(xiàn)[14]中算法做了實(shí)驗(yàn)對(duì)比,其具體步驟為:隨機(jī)抽取20幅圖像作為查詢圖像,在圖像庫(kù)中進(jìn)行相似度檢索,統(tǒng)計(jì)返回圖像數(shù)分別為10、20、30幅時(shí)的檢索準(zhǔn)確度P10、P20、P30,然后對(duì)每一類圖像分別計(jì)算平均檢索準(zhǔn)確度、,得到的結(jié)果見(jiàn)表1。
從表1中可以看出,利用本文算法進(jìn)行圖像檢索的平均檢索準(zhǔn)確度較文獻(xiàn)[13]的方法提高了7.0%,較文獻(xiàn)[14]的方法提高了15.1%,本文方法明顯較優(yōu)。
為了檢驗(yàn)算法的復(fù)雜度,本文從特征提取時(shí)間復(fù)雜度和圖像檢索時(shí)間復(fù)雜度兩個(gè)方面將本文算法與文獻(xiàn)[13-14]中算法進(jìn)行比較。
(1)特征提取時(shí)間復(fù)雜度。實(shí)驗(yàn)中在Corel圖像庫(kù)中任意取100幅圖像,利用本文方法提取特征所需的平均時(shí)間為24.43s,采用文獻(xiàn)[13]提取特征所需的平均時(shí)間為42.58s,采用文獻(xiàn)[14]提取特征所需的平均時(shí)間為44.68s。
(2)圖像檢索時(shí)間復(fù)雜度。實(shí)驗(yàn)中在Corel圖像庫(kù)中檢索出與查詢圖像相似度最大的20幅圖像并顯示,本文算法的平均檢索時(shí)間為1.72s;文獻(xiàn)[13]算法的平均檢索時(shí)間為2.35s;文獻(xiàn)[14]算法的平均檢索時(shí)間為3.59s。從實(shí)驗(yàn)結(jié)果可以看出,本文算法的特征提取時(shí)間復(fù)雜度和檢索時(shí)間復(fù)雜度都小于其他兩種算法。
表1 本文算法與其他算法的檢索性能比較Table 1 Precision of different methods
使用IPDSH方法可以有效提取尺度空間穩(wěn)定的興趣點(diǎn)。通過(guò)這些興趣點(diǎn)集合來(lái)求取凸包和劃分環(huán)形區(qū)域,并在此基礎(chǔ)上提取凸包顏色直方圖和圖像的環(huán)形區(qū)域中穩(wěn)定興趣點(diǎn)鄰域內(nèi)的偽澤尼克矩,加權(quán)處理后得到圖像的特征向量,最后利用相似度檢索方法來(lái)檢索圖片。該檢索方法計(jì)算簡(jiǎn)單,并且具有旋轉(zhuǎn)、平移和縮放不變性。實(shí)驗(yàn)結(jié)果表明,該方法與傳統(tǒng)的基于興趣點(diǎn)的檢索方法相比,算法的復(fù)雜度小,檢索速度快,并能大幅度提高圖像檢索的準(zhǔn)確度。在今后的工作中,將把相關(guān)反饋的技術(shù)結(jié)合到本算法中,從而更有效地提高檢索精度。另外,使用數(shù)量更大、種類更全的數(shù)據(jù)庫(kù)來(lái)進(jìn)行檢索,也將是下一步工作的重點(diǎn)。
[1]Schmid C,Mohr R.Local gray value invariants for image retrieval[J].IEEE Transaction on PAMI,1997,19(5):530-535.
[2]Mikoljczyk K,Schmid C.Indexing based on scale-Invariant feature[C]∥Proc of International Conference on Computer Vision,Vancouver,2001.
[3]Shao H,F(xiàn)errari V,Svoboda T,et al.Fast indexing for image retrieval based on local appearance with re-ranking[C]∥Proceedings of IEEE International Conference on Image Processing,Barcelona,Spain,2003.
[4]汪華章,何小海,宰文姣.基于局部和全局特征融合的圖像檢索[J].光學(xué)精密工程,2008,16(6):1098-1104.Wang Hua-zhang,He Xiao-h(huán)ai,Zai Wen-jiao.Image retrieval based on combining local and global features[J].Optics and Precision Engineering,2008,16(6):1098-1104.
[5]符祥,曾接賢.基于興趣點(diǎn)匹配和空間分布的圖像檢索方法[J].中國(guó)激光,2010,37(3):774-778.Fu Xiang,Zeng Jie-xian.A novel image retrieval method based on interest points matching and distribution[J].Chinese Journal of Lasers,2010,37(3):774-778.
[6]陳綿書(shū),楊樹(shù)媛,趙志杰,等.多點(diǎn)多樣性密度算法及其在圖像檢索中的應(yīng)用[J].吉林大學(xué)學(xué)報(bào):工學(xué)版,2011,41(5):1456-1460.Chen Mian-shu,Yang Shu-yuan,Zhao Zhi-jie,et al.Multi-points diverse density learning algorithm and its application in image retrieval[J].Journal of Jilin University(Engineering and Technology Edition),2011,41(5):1456-1460.
[7]Zheng X,Zhou M,Wang X C.Interest point based medical image retrieval[C]∥Lecture Notes in Computer Science.Beijing:Springer Verlag,2008.
[8]陳慧婷,覃團(tuán)發(fā),唐振華,等.綜合紋理統(tǒng)計(jì)模型與全局主顏色的圖像檢索方法[J].北京郵電大學(xué)學(xué)報(bào),2011,34:100-103,118.Chen Hui-ting,Qin Tuan-fa,Tang Zhen-h(huán)ua,et al.A method of image retrievals based on texture probability statistics and global dominant color[J].Journal of Beijing University of Posts and Telecommunications,2011,34:100-103,118.
[9]曾智勇,張學(xué)軍,崔江濤,等.基于顯著興趣點(diǎn)顏色及空間分布的圖像檢索新方法[J].光子學(xué)報(bào),2006,35(2):308-311.Zeng Zhi-yong,Zhang Xue-jun,Cui Jinag-tao,et al.A novel image retrieval algorithm based on color and distribution of prominent interest points[J].Acta Photonica Sinca,2006,35(2):308-311.
[10]全燕鳴,黎淑梅.大型工件測(cè)量系統(tǒng)中的快速圖像拼接方法[J].華南理工大學(xué)學(xué)報(bào):自然科學(xué)版,2011,39(8):60-65.Quan Yan-ming,Li Shu-mei.Fast image mosaic method for large-scale workpiece measurement system[J].Journal of South China University of Technology(Natural Science),2011,39(8):60-65.
[11]Preparata F P,Shamos M I.Computational Geometry:an Introduction[M].New York:Springer-Verlag,1985.
[12]孟繁杰,郭寶龍.一種基于興趣點(diǎn)顏色及空間分布的圖像檢索方法[J].西安電子科技大學(xué)學(xué)報(bào):自然科學(xué)版,2005,32(2):256-259.Meng Fan-jie,Guo Bao-long.A novel image retrieval algorithm based on the color and distribution of interest points[J].Journal of Xidian University(Natural Science),2005,32(2):256-259.
[13]王向陽(yáng),陳景偉,于永健.一種基于彩色邊緣綜合特征的圖像檢索方法[J].華南理工大學(xué)學(xué)報(bào),2010,23(2):216-221.Wang Xiang-yang,Chen Jing-wei,Yu Yong-jian.Edge-based color image retrieval by using multiple features[J].Pattern Recognition and Artificial Intelligence,2010,23(2):216-221.
[14]Wu J H,Wei Z R,Li C Y.Color and texture feature for content based image retrieval[J].International Journal of Digital Content Technology and Its Applications,2010,4(3):43-49.