亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種結(jié)合灰度和邊緣信息的局部特征描述算法

        2012-08-20 05:19:00余道麗趙海峰李其超計(jì)算智能與信號(hào)處理教育部重點(diǎn)實(shí)驗(yàn)室安徽合肥230039安徽省工業(yè)圖像處理與分析重點(diǎn)實(shí)驗(yàn)室安徽合肥230039
        關(guān)鍵詞:特征描述鄰域特征向量

        余道麗,趙海峰,李其超,羅 斌(1.計(jì)算智能與信號(hào)處理教育部重點(diǎn)實(shí)驗(yàn)室,安徽 合肥230039;2.安徽省工業(yè)圖像處理與分析重點(diǎn)實(shí)驗(yàn)室,安徽 合肥230039)

        圖像的局部特征具有在多種圖像變換下的不變性、無(wú)需預(yù)先對(duì)圖像分割和獨(dú)特性等特點(diǎn),被廣泛應(yīng)用于物體識(shí)別、圖像匹配及圖像檢索等領(lǐng)域。在基于局部特征的匹配方法中,特征描述子的構(gòu)建是非常重要的環(huán)節(jié),一個(gè)完備而緊湊的描述子不僅可以較真實(shí)地表達(dá)特征點(diǎn)所包含的獨(dú)特信息,而且能降低特征匹配的計(jì)算復(fù)雜度。

        近年來(lái),許多特征描述算法被提出。LOWE D G[1]提出了著名的SIFT描述子,它對(duì)圖像的各種變換具有較好的魯棒性,是目前應(yīng)用最廣泛的特征描述算法。KE Y等[2]在SIFT算法的基礎(chǔ)上利用主成分分析(PCA)將 SIFT描述子的維數(shù)由128降到了20,大幅度提高了匹配速度,但其描述子的獨(dú)特性不及SIFT算子。OJALA T[3]等人提出的LBP(Local Binary Pattern)算子能夠有效地描述紋理特征,它通過(guò)計(jì)算中心點(diǎn)及周?chē)徲虿蓸狱c(diǎn)的灰度差的正負(fù)構(gòu)成一個(gè)二進(jìn)制描述串。與LBP思想類(lèi)似,Huang Chunrong[4]等提出了對(duì)比上下文直方圖CCH(Contrast Context Histogram)描述子,利用鄰域區(qū)域的像素強(qiáng)度之間的線(xiàn)性關(guān)系進(jìn)行特征描述,在對(duì)數(shù)-極坐標(biāo)中計(jì)算周?chē)總€(gè)分塊中像素點(diǎn)與中心點(diǎn)之間的灰度差。LBP和CCH算法采用特征點(diǎn)鄰域的灰度差異直方圖建立特征描述子,降低了算法的復(fù)雜度,使得匹配速度有所提高,但是對(duì)存在旋轉(zhuǎn)、尺度和視角等變換的圖像,魯棒性有較大的降低。BELONGIE S[5]提出了形狀上下文(Shape Context)描述子用于刻畫(huà)目標(biāo)的形狀,該描述子對(duì)于局部區(qū)域形變具有不變性,但是在一定程度上對(duì)噪聲比較敏感。不管是SIFT描述子,還是LBP、CCH或Shape Context描述子,從實(shí)現(xiàn)方式上來(lái)說(shuō),都是基于分布的描述子,利用直方圖表征灰度、形狀或邊緣等特征。基于鄰域的灰度分布信息的方法能夠很好地描述像素之間的空間位置關(guān)系,但是當(dāng)圖像灰度變化或幾何畸變較大時(shí)就不足以表示圖像特征;基于形狀或邊緣的方法關(guān)心鄰域的結(jié)構(gòu)信息,但是對(duì)噪聲比較敏感。Shen Dinggang[6]利用局部空間灰度直方圖和邊緣信息來(lái)共同完成圖像配準(zhǔn),通過(guò)統(tǒng)計(jì)特征點(diǎn)鄰域內(nèi)每個(gè)像素的出現(xiàn)頻率獲得灰度直方圖,然后利用Candy算子檢測(cè)邊緣,利用邊緣強(qiáng)度表示邊緣屬性。

        本文提出一種同時(shí)使用灰度和邊緣信息的特征描述子 CSCH(Contrast-Shape Context Histogram)。首先使用對(duì)數(shù)-極坐標(biāo)方式劃分局部鄰域;然后使用CCH方法統(tǒng)計(jì)鄰域像素強(qiáng)度之間的關(guān)系;再使用Canny邊緣檢測(cè)算法和輪廓提取算法獲得邊界信息,并利用Shape Context算法刻畫(huà)鄰域的邊緣信息;最后對(duì)灰度信息和邊緣信息進(jìn)行整合,定義信息更為準(zhǔn)確、豐富的描述子,增強(qiáng)描述能力。實(shí)驗(yàn)表明,結(jié)合灰度和邊緣信息的描述子,其準(zhǔn)確率比單獨(dú)使用CCH描述子或Shape Context描述子更高,在一定程度上降低了誤匹配的概率,同時(shí)滿(mǎn)足了旋轉(zhuǎn)和光照不變性,對(duì)圖像灰度變化和噪聲不敏感,具有良好的匹配性能。

        1 基于直方圖的描述子的構(gòu)建

        1.1 CCH描述子

        CCH利用鄰域區(qū)域的像素強(qiáng)度之間的線(xiàn)性關(guān)系進(jìn)行特征描述。首先以特征點(diǎn)pc為中心,采用極坐標(biāo)劃分方式將特征點(diǎn)鄰域劃分成若干個(gè)不相交的區(qū)域:R0,R1,…,Rs,然后用直方圖方法統(tǒng)計(jì)每個(gè)區(qū)域中的灰度值相異情況。為了增強(qiáng)描述符的獨(dú)特性,對(duì)于每個(gè)子區(qū)域分別統(tǒng)計(jì)正向和負(fù)向強(qiáng)度對(duì)比值HRi+和HRi-:

        其中,c(p)=I(p)-I(pc),#Ri+和 #Ri-分別代表子區(qū)域 Ri中像素強(qiáng)度大于和小于中心點(diǎn)的點(diǎn)數(shù)和。

        最后,生成特征向量CCH(pc),即:

        1.2 Shape Context描述子

        形狀上下文描述子的基本思想如下:首先,對(duì)于給定的一個(gè)形狀,通過(guò)邊緣檢測(cè)子獲取輪廓邊緣,對(duì)輪廓邊緣采樣得到一組離散的邊界點(diǎn)點(diǎn)集P={pi|i=1,2,…,n},如圖1(a)所示;其次,將特征點(diǎn)鄰域劃分成若干個(gè)不相交的區(qū)域,形成圖1(b)所示的靶狀模板;最后,計(jì)算模板內(nèi)各子區(qū)域的點(diǎn)的分布數(shù),稱(chēng)為點(diǎn)的統(tǒng)計(jì)分布直方圖,這些點(diǎn)的統(tǒng)計(jì)分布直方圖Hp稱(chēng)為點(diǎn)p的形狀上下文,如圖1(c)所示,其計(jì)算公式為:

        其中,#表示計(jì)數(shù),bin(k)表示第k個(gè)扇區(qū)。

        1.3 描述子的設(shè)計(jì)

        對(duì)于每一個(gè)被檢測(cè)到的特征點(diǎn),建立一個(gè)由兩部分組成的特征向量:一部分是代表空間灰度分布特性的灰度直方圖描述子,另一部分是用來(lái)描述鄰域邊緣特征的Shape Context描述子。因此,每個(gè)特征點(diǎn)的特征描述子定義如下:

        其中,C是描述灰度分布信息的向量,S是描述區(qū)域輪廓信息的向量,ω是相對(duì)權(quán)重因子。

        建立局部不變描述符的前提是有效地劃分特征點(diǎn)周?chē)木植繀^(qū)域,因此,首先對(duì)特征點(diǎn)pi采用Shape Context的劃分方式,將以pi為中心、R為半徑的鄰域劃分成24個(gè)區(qū)域,如圖2所示。此外,為了保證描述符具有旋轉(zhuǎn)不變性,在極坐標(biāo)劃分中將方向θ=0設(shè)定為與pi的主方向[1]一致。

        其次,按照CCH思想,統(tǒng)計(jì)每個(gè)區(qū)域中的正向和負(fù)向強(qiáng)度對(duì)比直方圖HRi+和 HRi-,生成特征向量 C,則

        然后,使用Canny邊緣檢測(cè)算法獲取特征點(diǎn)鄰域的輪廓信息,并用Shape Context算法獲得特征點(diǎn)的形狀上下文直方圖S:

        最后,為了消除光照變化的影響,分別把C和S進(jìn)行歸一化處理,即:

        則特征點(diǎn)pi的特征向量H為:

        2 特征向量匹配

        當(dāng)兩幅圖像的特征向量生成以后,采用歐氏距離作為兩幅圖像中特征點(diǎn)的相似判定度量。由于特征向量包括兩部分,這里分別計(jì)算各自的歐氏距離,公式如下:

        最終距離為:

        為了減少因圖片中存在大量相似區(qū)域而產(chǎn)生的誤匹配關(guān)系,算法采用最近鄰與次近鄰之比來(lái)進(jìn)行匹配。對(duì)一幅圖像中的某個(gè)特征點(diǎn)A,在另一幅圖像中搜索與它距離最近和次近的兩個(gè)特征點(diǎn)B(Dnearest)和C(Dhypo-nearest),并求出最近距離個(gè)次近距離之比K:

        如果K小于某個(gè)閾值,則認(rèn)為特征點(diǎn)A與距離最近的特征點(diǎn)B匹配。根據(jù)參考文獻(xiàn)[1]的經(jīng)驗(yàn)值,本文實(shí)驗(yàn)中K的閾值取0.8。

        3 實(shí)驗(yàn)與結(jié)果分析

        為了驗(yàn)證 CSCH描述子的性能,將 CSCH與CCH、Shape Contxt描述子進(jìn)行了對(duì)比實(shí)驗(yàn)。實(shí)驗(yàn)中采用的測(cè)試圖像來(lái)自標(biāo)準(zhǔn)數(shù)據(jù)集和CMU數(shù)據(jù)庫(kù)。其中,標(biāo)準(zhǔn)圖像數(shù)據(jù)庫(kù)中包含了模糊變換、光照變化和JPEG壓縮變換條件下的場(chǎng)景圖像,CMU數(shù)據(jù)庫(kù)中的圖像是通過(guò)視角變換得到的同一物體的不同圖像,部分圖像樣本如圖3所示。為了驗(yàn)證描述子的性能,3種算法都采用Harris檢測(cè)子[7]分別在每幅圖像中提取500個(gè)角點(diǎn)。本文主要從正確匹配特征點(diǎn)數(shù)、誤匹配特征點(diǎn)數(shù)和匹配正確率等方面比較算法的性能。

        圖3(a)所示的測(cè)試圖像間存在明顯的亮度變化,CCH、Shape Contxt和CSCH的匹配性能如表1所示。從表1可以看出,在提取相同數(shù)目的特征點(diǎn)的情況下,CSCH算法所找到的正確匹配數(shù)目約為CCH算法的1.2倍,為Shape Contxt算法的1.5倍,且匹配正確率高于CCH和Shape Contxt算法。

        表1 光照變換圖像匹配性能比較表

        圖3(b)是一組改變相機(jī)的焦點(diǎn)獲得的存在模糊變換的測(cè)試圖像,CCH、Shape Contxt和 CSCH的匹配性能如表2所示。由于模糊變換影響了像素強(qiáng)度和圖像邊緣信息,因此,CCH和Shape Contxt算法的匹配性能都較差,而CSCH算法的匹配性能優(yōu)于二者。

        表2 模糊變換圖像匹配性能比較表

        圖3(c)所示的測(cè)試圖像間存在JPEG壓縮變換,CCH、Shape Contxt和CSCH算法的匹配性能如表3所示。從表3可以看出,CSCH算法所獲得的正確匹配點(diǎn)數(shù)和匹配準(zhǔn)確率優(yōu)于CCH和Shape Contxt算法。

        表3 JPEG壓縮變換匹配性能比較表

        圖3(d)所示的測(cè)試圖像分別是從CMU圖像庫(kù)中抽取的第1幀和第40幀的圖像,測(cè)試圖像間存在著視點(diǎn)變換,3種算法的匹配性能比較結(jié)果如表4所示。

        表4 視點(diǎn)變換圖像匹配性能比較表

        本文針對(duì)單一特征引導(dǎo)圖像匹配的準(zhǔn)確度有限的問(wèn)題,提出了一種結(jié)合灰度和邊緣信息的特征描述方法CSCH來(lái)描述特征點(diǎn)鄰域。利用直方圖方法同時(shí)表征圖像的灰度和邊緣信息,所得描述子既能很好地描述鄰域像素之間的空間位置關(guān)系,又兼顧了鄰域的結(jié)構(gòu)信息,并且通過(guò)將特征點(diǎn)鄰域旋轉(zhuǎn)至主方向獲得了旋轉(zhuǎn)不變性,利用特征向量的歸一化獲得了對(duì)亮度變換的魯棒性。實(shí)驗(yàn)表明,利用本文算法提取的特征描述子滿(mǎn)足旋轉(zhuǎn)、光照、壓縮、模糊和部分視點(diǎn)變換不變性。

        [1]LOWE D G.Distinctive image features from scale-invariant keypoints[J].International Journal of Computer Vision,2004,60(2):91-110.

        [2]KE Y,SUKTHANKAR R.PCA-SIFT:a more distinctive representation for local image descriptors[C].Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition,Washington D.C.,USA,2004:506-513.

        [3]OJALA T,PIETIKAINEN M,HARWOOD D.A comparative study of texture measures with classification based on feature distributions[J].Pattern Recognition,1996,29(1):51-59.

        [4]Huang Chunrong,Chen Chusong,CHUNG P C.Contrast context histogram—an effcient discriminating local descriptor for object recognition and image matching[J].Pattern Recognition,2008,41(10):3071-3077.

        [5]BELONGIE S,MALIK J,PUZICHA J.Shape matching and object recognition using shape contexts[C].IEEE Transactions on Pattern Analysis and Machine Intelligence,2002,24(4):509-522.

        [6]Shen Dinggong.Image registration by local histogram matching[J].Pattern Recognition,2007,40:1161-1172

        [7]HARRIS C,STEPHENS M.A combined corner and edge detect or[C].Proceedings of the 4th Alvey Vision Conference,Manchester,UK,1988:147-151.

        猜你喜歡
        特征描述鄰域特征向量
        In the Zoo
        二年制職教本科線(xiàn)性代數(shù)課程的幾何化教學(xué)設(shè)計(jì)——以特征值和特征向量為例
        船舶尾流圖像的數(shù)字化處理和特征描述技術(shù)
        克羅內(nèi)克積的特征向量
        稀疏圖平方圖的染色數(shù)上界
        基于鄰域競(jìng)賽的多目標(biāo)優(yōu)化算法
        一類(lèi)特殊矩陣特征向量的求法
        目標(biāo)魯棒識(shí)別的抗旋轉(zhuǎn)HDO 局部特征描述
        EXCEL表格計(jì)算判斷矩陣近似特征向量在AHP法檢驗(yàn)上的應(yīng)用
        關(guān)于-型鄰域空間
        高清日韩av在线免费观看| 久久精品性无码一区二区爱爱| 日产精品一区二区免费| 国产精品久久婷婷免费观看| 国产成人精品日本亚洲专区61| 人人添人人澡人人澡人人人人| 成人无码区免费AⅤ片WWW| 精品女人一区二区三区| 国产精品久久国产精麻豆99网站| 国产一女三男3p免费视频| 欧美日韩亚洲一区二区精品| 国产一区二三区中文字幕| 国产精品成人无码久久久久久| 久久综合精品国产一区二区三区无码 | 日本19禁啪啪吃奶大尺度| 无码国产精品一区二区免费16| 91久久精品国产性色tv | 最新国产av无码专区亚洲| 久99久精品免费视频热77| 日本视频在线播放一区二区| 婷婷射精av这里只有精品| 精精国产xxxx视频在线| 女女同性av一区二区三区免费看| 中文字幕乱码熟女人妻在线| av人摸人人人澡人人超碰妓女| 无码熟妇人妻AV影音先锋| 中文字幕视频一区二区| 亚洲国产av无码精品| 日日摸夜夜添无码无码av| 日本国产在线一区二区| 亚洲精品久久区二区三区蜜桃臀| 人妻少妇精品无码专区动漫| 久久久久亚洲AV无码专| 精品一区2区3区4区| 成人一区二区免费中文字幕视频 | 97无码免费人妻超级碰碰夜夜| 五月天国产精品| 白白在线免费观看视频| 日日摸天天碰中文字幕你懂的| 亚洲国产av一区二区三区四区| 在线观看黄片在线播放视频|