余道麗,趙海峰,李其超,羅 斌(1.計(jì)算智能與信號(hào)處理教育部重點(diǎn)實(shí)驗(yàn)室,安徽 合肥230039;2.安徽省工業(yè)圖像處理與分析重點(diǎn)實(shí)驗(yàn)室,安徽 合肥230039)
圖像的局部特征具有在多種圖像變換下的不變性、無(wú)需預(yù)先對(duì)圖像分割和獨(dú)特性等特點(diǎn),被廣泛應(yīng)用于物體識(shí)別、圖像匹配及圖像檢索等領(lǐng)域。在基于局部特征的匹配方法中,特征描述子的構(gòu)建是非常重要的環(huán)節(jié),一個(gè)完備而緊湊的描述子不僅可以較真實(shí)地表達(dá)特征點(diǎn)所包含的獨(dú)特信息,而且能降低特征匹配的計(jì)算復(fù)雜度。
近年來(lái),許多特征描述算法被提出。LOWE D G[1]提出了著名的SIFT描述子,它對(duì)圖像的各種變換具有較好的魯棒性,是目前應(yīng)用最廣泛的特征描述算法。KE Y等[2]在SIFT算法的基礎(chǔ)上利用主成分分析(PCA)將 SIFT描述子的維數(shù)由128降到了20,大幅度提高了匹配速度,但其描述子的獨(dú)特性不及SIFT算子。OJALA T[3]等人提出的LBP(Local Binary Pattern)算子能夠有效地描述紋理特征,它通過(guò)計(jì)算中心點(diǎn)及周?chē)徲虿蓸狱c(diǎn)的灰度差的正負(fù)構(gòu)成一個(gè)二進(jìn)制描述串。與LBP思想類(lèi)似,Huang Chunrong[4]等提出了對(duì)比上下文直方圖CCH(Contrast Context Histogram)描述子,利用鄰域區(qū)域的像素強(qiáng)度之間的線(xiàn)性關(guān)系進(jìn)行特征描述,在對(duì)數(shù)-極坐標(biāo)中計(jì)算周?chē)總€(gè)分塊中像素點(diǎn)與中心點(diǎn)之間的灰度差。LBP和CCH算法采用特征點(diǎn)鄰域的灰度差異直方圖建立特征描述子,降低了算法的復(fù)雜度,使得匹配速度有所提高,但是對(duì)存在旋轉(zhuǎn)、尺度和視角等變換的圖像,魯棒性有較大的降低。BELONGIE S[5]提出了形狀上下文(Shape Context)描述子用于刻畫(huà)目標(biāo)的形狀,該描述子對(duì)于局部區(qū)域形變具有不變性,但是在一定程度上對(duì)噪聲比較敏感。不管是SIFT描述子,還是LBP、CCH或Shape Context描述子,從實(shí)現(xiàn)方式上來(lái)說(shuō),都是基于分布的描述子,利用直方圖表征灰度、形狀或邊緣等特征。基于鄰域的灰度分布信息的方法能夠很好地描述像素之間的空間位置關(guān)系,但是當(dāng)圖像灰度變化或幾何畸變較大時(shí)就不足以表示圖像特征;基于形狀或邊緣的方法關(guān)心鄰域的結(jié)構(gòu)信息,但是對(duì)噪聲比較敏感。Shen Dinggang[6]利用局部空間灰度直方圖和邊緣信息來(lái)共同完成圖像配準(zhǔn),通過(guò)統(tǒng)計(jì)特征點(diǎn)鄰域內(nèi)每個(gè)像素的出現(xiàn)頻率獲得灰度直方圖,然后利用Candy算子檢測(cè)邊緣,利用邊緣強(qiáng)度表示邊緣屬性。
本文提出一種同時(shí)使用灰度和邊緣信息的特征描述子 CSCH(Contrast-Shape Context Histogram)。首先使用對(duì)數(shù)-極坐標(biāo)方式劃分局部鄰域;然后使用CCH方法統(tǒng)計(jì)鄰域像素強(qiáng)度之間的關(guān)系;再使用Canny邊緣檢測(cè)算法和輪廓提取算法獲得邊界信息,并利用Shape Context算法刻畫(huà)鄰域的邊緣信息;最后對(duì)灰度信息和邊緣信息進(jìn)行整合,定義信息更為準(zhǔn)確、豐富的描述子,增強(qiáng)描述能力。實(shí)驗(yàn)表明,結(jié)合灰度和邊緣信息的描述子,其準(zhǔn)確率比單獨(dú)使用CCH描述子或Shape Context描述子更高,在一定程度上降低了誤匹配的概率,同時(shí)滿(mǎn)足了旋轉(zhuǎn)和光照不變性,對(duì)圖像灰度變化和噪聲不敏感,具有良好的匹配性能。
CCH利用鄰域區(qū)域的像素強(qiáng)度之間的線(xiàn)性關(guān)系進(jìn)行特征描述。首先以特征點(diǎn)pc為中心,采用極坐標(biāo)劃分方式將特征點(diǎn)鄰域劃分成若干個(gè)不相交的區(qū)域:R0,R1,…,Rs,然后用直方圖方法統(tǒng)計(jì)每個(gè)區(qū)域中的灰度值相異情況。為了增強(qiáng)描述符的獨(dú)特性,對(duì)于每個(gè)子區(qū)域分別統(tǒng)計(jì)正向和負(fù)向強(qiáng)度對(duì)比值HRi+和HRi-:
其中,c(p)=I(p)-I(pc),#Ri+和 #Ri-分別代表子區(qū)域 Ri中像素強(qiáng)度大于和小于中心點(diǎn)的點(diǎn)數(shù)和。
最后,生成特征向量CCH(pc),即:
形狀上下文描述子的基本思想如下:首先,對(duì)于給定的一個(gè)形狀,通過(guò)邊緣檢測(cè)子獲取輪廓邊緣,對(duì)輪廓邊緣采樣得到一組離散的邊界點(diǎn)點(diǎn)集P={pi|i=1,2,…,n},如圖1(a)所示;其次,將特征點(diǎn)鄰域劃分成若干個(gè)不相交的區(qū)域,形成圖1(b)所示的靶狀模板;最后,計(jì)算模板內(nèi)各子區(qū)域的點(diǎn)的分布數(shù),稱(chēng)為點(diǎn)的統(tǒng)計(jì)分布直方圖,這些點(diǎn)的統(tǒng)計(jì)分布直方圖Hp稱(chēng)為點(diǎn)p的形狀上下文,如圖1(c)所示,其計(jì)算公式為:
其中,#表示計(jì)數(shù),bin(k)表示第k個(gè)扇區(qū)。
對(duì)于每一個(gè)被檢測(cè)到的特征點(diǎn),建立一個(gè)由兩部分組成的特征向量:一部分是代表空間灰度分布特性的灰度直方圖描述子,另一部分是用來(lái)描述鄰域邊緣特征的Shape Context描述子。因此,每個(gè)特征點(diǎn)的特征描述子定義如下:
其中,C是描述灰度分布信息的向量,S是描述區(qū)域輪廓信息的向量,ω是相對(duì)權(quán)重因子。
建立局部不變描述符的前提是有效地劃分特征點(diǎn)周?chē)木植繀^(qū)域,因此,首先對(duì)特征點(diǎn)pi采用Shape Context的劃分方式,將以pi為中心、R為半徑的鄰域劃分成24個(gè)區(qū)域,如圖2所示。此外,為了保證描述符具有旋轉(zhuǎn)不變性,在極坐標(biāo)劃分中將方向θ=0設(shè)定為與pi的主方向[1]一致。
其次,按照CCH思想,統(tǒng)計(jì)每個(gè)區(qū)域中的正向和負(fù)向強(qiáng)度對(duì)比直方圖HRi+和 HRi-,生成特征向量 C,則
然后,使用Canny邊緣檢測(cè)算法獲取特征點(diǎn)鄰域的輪廓信息,并用Shape Context算法獲得特征點(diǎn)的形狀上下文直方圖S:
最后,為了消除光照變化的影響,分別把C和S進(jìn)行歸一化處理,即:
則特征點(diǎn)pi的特征向量H為:
當(dāng)兩幅圖像的特征向量生成以后,采用歐氏距離作為兩幅圖像中特征點(diǎn)的相似判定度量。由于特征向量包括兩部分,這里分別計(jì)算各自的歐氏距離,公式如下:
最終距離為:
為了減少因圖片中存在大量相似區(qū)域而產(chǎn)生的誤匹配關(guān)系,算法采用最近鄰與次近鄰之比來(lái)進(jìn)行匹配。對(duì)一幅圖像中的某個(gè)特征點(diǎn)A,在另一幅圖像中搜索與它距離最近和次近的兩個(gè)特征點(diǎn)B(Dnearest)和C(Dhypo-nearest),并求出最近距離個(gè)次近距離之比K:
如果K小于某個(gè)閾值,則認(rèn)為特征點(diǎn)A與距離最近的特征點(diǎn)B匹配。根據(jù)參考文獻(xiàn)[1]的經(jīng)驗(yàn)值,本文實(shí)驗(yàn)中K的閾值取0.8。
為了驗(yàn)證 CSCH描述子的性能,將 CSCH與CCH、Shape Contxt描述子進(jìn)行了對(duì)比實(shí)驗(yàn)。實(shí)驗(yàn)中采用的測(cè)試圖像來(lái)自標(biāo)準(zhǔn)數(shù)據(jù)集和CMU數(shù)據(jù)庫(kù)。其中,標(biāo)準(zhǔn)圖像數(shù)據(jù)庫(kù)中包含了模糊變換、光照變化和JPEG壓縮變換條件下的場(chǎng)景圖像,CMU數(shù)據(jù)庫(kù)中的圖像是通過(guò)視角變換得到的同一物體的不同圖像,部分圖像樣本如圖3所示。為了驗(yàn)證描述子的性能,3種算法都采用Harris檢測(cè)子[7]分別在每幅圖像中提取500個(gè)角點(diǎn)。本文主要從正確匹配特征點(diǎn)數(shù)、誤匹配特征點(diǎn)數(shù)和匹配正確率等方面比較算法的性能。
圖3(a)所示的測(cè)試圖像間存在明顯的亮度變化,CCH、Shape Contxt和CSCH的匹配性能如表1所示。從表1可以看出,在提取相同數(shù)目的特征點(diǎn)的情況下,CSCH算法所找到的正確匹配數(shù)目約為CCH算法的1.2倍,為Shape Contxt算法的1.5倍,且匹配正確率高于CCH和Shape Contxt算法。
表1 光照變換圖像匹配性能比較表
圖3(b)是一組改變相機(jī)的焦點(diǎn)獲得的存在模糊變換的測(cè)試圖像,CCH、Shape Contxt和 CSCH的匹配性能如表2所示。由于模糊變換影響了像素強(qiáng)度和圖像邊緣信息,因此,CCH和Shape Contxt算法的匹配性能都較差,而CSCH算法的匹配性能優(yōu)于二者。
表2 模糊變換圖像匹配性能比較表
圖3(c)所示的測(cè)試圖像間存在JPEG壓縮變換,CCH、Shape Contxt和CSCH算法的匹配性能如表3所示。從表3可以看出,CSCH算法所獲得的正確匹配點(diǎn)數(shù)和匹配準(zhǔn)確率優(yōu)于CCH和Shape Contxt算法。
表3 JPEG壓縮變換匹配性能比較表
圖3(d)所示的測(cè)試圖像分別是從CMU圖像庫(kù)中抽取的第1幀和第40幀的圖像,測(cè)試圖像間存在著視點(diǎn)變換,3種算法的匹配性能比較結(jié)果如表4所示。
表4 視點(diǎn)變換圖像匹配性能比較表
本文針對(duì)單一特征引導(dǎo)圖像匹配的準(zhǔn)確度有限的問(wèn)題,提出了一種結(jié)合灰度和邊緣信息的特征描述方法CSCH來(lái)描述特征點(diǎn)鄰域。利用直方圖方法同時(shí)表征圖像的灰度和邊緣信息,所得描述子既能很好地描述鄰域像素之間的空間位置關(guān)系,又兼顧了鄰域的結(jié)構(gòu)信息,并且通過(guò)將特征點(diǎn)鄰域旋轉(zhuǎn)至主方向獲得了旋轉(zhuǎn)不變性,利用特征向量的歸一化獲得了對(duì)亮度變換的魯棒性。實(shí)驗(yàn)表明,利用本文算法提取的特征描述子滿(mǎn)足旋轉(zhuǎn)、光照、壓縮、模糊和部分視點(diǎn)變換不變性。
[1]LOWE D G.Distinctive image features from scale-invariant keypoints[J].International Journal of Computer Vision,2004,60(2):91-110.
[2]KE Y,SUKTHANKAR R.PCA-SIFT:a more distinctive representation for local image descriptors[C].Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition,Washington D.C.,USA,2004:506-513.
[3]OJALA T,PIETIKAINEN M,HARWOOD D.A comparative study of texture measures with classification based on feature distributions[J].Pattern Recognition,1996,29(1):51-59.
[4]Huang Chunrong,Chen Chusong,CHUNG P C.Contrast context histogram—an effcient discriminating local descriptor for object recognition and image matching[J].Pattern Recognition,2008,41(10):3071-3077.
[5]BELONGIE S,MALIK J,PUZICHA J.Shape matching and object recognition using shape contexts[C].IEEE Transactions on Pattern Analysis and Machine Intelligence,2002,24(4):509-522.
[6]Shen Dinggong.Image registration by local histogram matching[J].Pattern Recognition,2007,40:1161-1172
[7]HARRIS C,STEPHENS M.A combined corner and edge detect or[C].Proceedings of the 4th Alvey Vision Conference,Manchester,UK,1988:147-151.