亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于顏色和SURF特征的圖像匹配算法

        2017-12-20 01:56:11王招娣王賢立楊數(shù)強
        電子科技 2017年12期
        關(guān)鍵詞:特征提取特征

        王招娣,王賢立,楊數(shù)強

        (洛陽師范學院 物理與電子信息學院,河南 洛陽 471934)

        基于顏色和SURF特征的圖像匹配算法

        王招娣,王賢立,楊數(shù)強

        (洛陽師范學院 物理與電子信息學院,河南 洛陽 471934)

        針對SURF算法在提取圖像特征時,只采用圖像灰度信息,不能很好地區(qū)分形狀相似但顏色不同的物體這一問題,文中提出了一種基于顏色直方圖和SURF相結(jié)合的CH-SURF匹配算法。該算法選用目標顏色直方圖進行特征匹配,對目標進行粗略定位;并在標定的小區(qū)域內(nèi)采用SURF算法進行區(qū)域特征匹配;最后采用VS2008平臺進行了仿真實驗,結(jié)果表明CH-SURF算法與SURF算法相比減少了特征點匹配的時間,并在一定程度上保證了特征匹配的準確性。

        顏色直方圖; SURF;特征匹配; Opencv;VS2008

        特征提取算法[1](Speeded Up Robust Features,SURF)是一種局部特征提取算法,該算法主要采用了積分圖像、箱式濾波器、Harr小波變換和Hessian矩陣檢測特征值等方法,該算法運行效率較高,且對旋轉(zhuǎn)、尺度縮放、亮度變化保持不變性,對視角變化、仿射變換及噪聲也保持一定程度的穩(wěn)定性,因此成為圖像特征提取方面的研究熱點。目前SURF算法主要用于人臉識別[2-4]、掌紋識別[5-7]、醫(yī)學遙感影像配準[8]和全景拼接[9]等領(lǐng)域。但是SURF算法依賴圖像的局部紋理特性,對全局特征明顯的圖片描述能力不夠,且SURF算法在提取圖像特征時忽略了圖像的色彩信息。

        1 系統(tǒng)總體方案設(shè)計

        顏色特征作為一種圖像全局特征[5],與圖像局部SURF特征具有一定的互補性關(guān)系,且對于圖像旋轉(zhuǎn)、平移、尺度變換不敏感,因此本文選用將顏色特征與SURF特征相結(jié)合的CH-SURF(Color Histogram-SURF)特征匹配算法來實現(xiàn)目標圖像的定位。其基本思路是首先選用目標圖像顏色直方圖進行特征匹配,通過提取目標圖像在HSV空間的顏色直方圖特征,按照顏色匹配原理在源圖像中模糊定位出目標的位置;然后再利用SURF算法在已標定的區(qū)域內(nèi)提取SURF特征點,將這些特征點與目標圖像的特征點進行相似度匹配;最后采用Hessian矩陣的跡與歐式距離相結(jié)合的相似性度量法進行相似度匹配,找到目標圖像與源圖像的匹配點,最終實現(xiàn)目標圖像區(qū)域定位的過程。

        2 CH-SURF的特征匹配方法

        CH-SUFR定位算法可分為兩個過程:(1)顏色直方圖匹配過程;(2)SURF特征匹配過程。

        2.1 顏色直方圖匹配

        顏色直方圖特征[5]的提取是一個被廣泛采用的特征提取方法。該過程主要包括兩部分:(1)顏色直方圖特征提??;(2)顏色特征相似度匹配。

        2.1.1 顏色直方圖特征提取

        首先,把圖像從RGB顏色空間轉(zhuǎn)換為HSV空間;其次,對HSV空間的H、S、V3個分量進行非等間隔量化,根據(jù)3分量對光照敏感程度的不同分別將它們設(shè)置不同量化等級,如色調(diào)H的量化等級設(shè)為8,將飽和度S和亮度V的量化等級都設(shè)為3,量化公式為

        (1)

        按照上述量化式(1),將3個分量合成為一維特征矢量Q

        Q=9H+3S+V

        最后,計算經(jīng)量化后的一維矢量Q上各種顏色分量所占的比例,即獲取8×3×3=72 bin的一維顏色直方圖,為接下來目標圖像與源圖像的匹配做準備。

        2.1.2 顏色特征的相似性度量

        相關(guān)匹配法是一種衡量兩種特征相似程度的度量方法,計算公式如式(2)所示

        (2)

        其中,H1表示目標圖像顏色直方圖特征;H2表示源圖像顏色直方圖特征;d(H1,H2)表示兩者的相似性度量值,該數(shù)值越大表明匹配程度越好。通過計算找到d(H1,H2)取得最大值時對應(yīng)的像素點即為最佳匹配點,并以該點為中心,標定出目標圖像在源圖像中出現(xiàn)的大概位置。

        2.2 SURF特征匹配

        在上一步粗略定位的基礎(chǔ)上,采用SURF算法計算出目標圖像的SURF特征點和已標定的區(qū)域內(nèi)源圖像的SURF特征點,并將這些特征點賦予一定的主方向,以特征描述子的形式表示出了,最后采用Hessian矩陣的跡與歐式距離相結(jié)合的相似性度量法來完成目標圖像的定位。SURF算法的實現(xiàn)步驟包括:(1)特征點的檢測;(2)特征描述子生成;(3)特征匹配。

        2.2.1 SURF特征點的檢測

        為了檢測目標圖像的SURF特征點,需要建立圖像不同的尺度空間[10]。將一幅二維圖像I(x,y)與高斯核函數(shù)G(x,y,σ)做卷積運算,如式(3)所示,即得到圖像不同的尺度空間

        L(x,y,σ)=I(x,y)×G(x,y,σ)

        (3)

        在尺度空間的每一層上采用Hessian矩陣來采集圖像的極值點,對二維圖像I(x,y)上的任意一點X(x,y),在不同空間尺度σ上,Hessian矩陣的定義如下

        (4)

        其中,LXX(X,σ)表示圖像上的點X(x,y)分別與二階偏導(dǎo)的卷積結(jié)果,同理LXy(X,σ)和Lyy(X,σ)亦是。為了降低計算的復(fù)雜度,SURF算法采用箱式濾波器模型中矩形波來代替二階高斯濾波[11],同時引入積分圖像的概念加速了卷積的運算速度。因此圖像I(x,y)上的任一點X(x,y)分別與箱式濾波模版的二階偏導(dǎo)做卷積的結(jié)果記為DXX、DXY和DYY來代替LXX(X,σ)、LXy(X,σ)和Lyy(X,σ),故Hessian的行列式為

        det(Hessian)=Dxx×Dyy-(ωDxy)

        (5)

        其中,ω表示權(quán)重系數(shù),一般記做0.9。在利用Hessian矩陣求出極值后,對這些點進行非極值抑制處理,即將該極值點與3×3×3的立體鄰域內(nèi)26個值做比較選出極大或極小值點,才能作為候選區(qū)的SURF特征點。

        2.2.2 SURF特征描述子生成

        SURF特征描述子[12-13]的生成分為兩個步驟:主方向的確定和描述子向量的生成。首先,以特征點為中心半徑為6σ(σ為特征點所在的尺度值)的圓形域鄰域內(nèi),計算像素點在x,y方向上的Haar小波響應(yīng)值并對它們進行加權(quán)統(tǒng)計,再從x軸開始將圓形區(qū)域60°范圍內(nèi)的Haar小波響應(yīng)值疊加,得到一個新的矢量記做矢量L1如圖1所示。以同樣的方式每隔5°遍歷整個圓域,計算360/5=72個不同矢量L1,L2,…,L72,再從這72個矢量中選擇最長的矢量方向作為該特征點的主方向。

        圖1 特征點主方向確定

        其次,描述子向量的生成,以特征點為中心將坐標軸旋轉(zhuǎn)到主方向,取邊長為20σ的正方形區(qū)域,將該區(qū)域劃分為4×4的子區(qū)域,如圖2所示。

        圖2 特征點描述子的生成

        統(tǒng)計每個子區(qū)域內(nèi)像素點在X軸方向和Y軸方向的Haar小波響應(yīng)值,并分別記做dx和dy,再對這些值進行加權(quán)、求和操作,即得到∑dx、∑|dx|、∑dy和∑|dy|,于是在子區(qū)域中就生成特征點描述符的特征向量V如式(6)所示,若將16個區(qū)域的向量都加入特征向量中,就變成16×4=64維特征向量

        V=(∑ds,∑d|x|,∑dy,∑d|y|)

        (6)

        2.2.3 SURF特征匹配

        在特征描述子生成之后,就要對目標圖像和源圖像的SURF特征描述子進行相似度匹配操作,該過程分為兩步:首先選用Hessian矩陣跡進行特征點的初步匹配,因為對比度相同的特征點對應(yīng)的Hessian矩陣跡(即矩陣對角元素之和)互為同號;而對比度不同的特征點對應(yīng)的Hessian矩陣跡互為異號,所以根據(jù)這一特性將目標圖像與源圖像特征點比較,選擇出Hessian矩陣跡互為同號的特征對,放棄互為異號的特征對;然后,對上一步選擇下來的特征對,再采用歐氏距離匹配法進行相似度判斷,最終找到兩幅圖像中特征點的一一對應(yīng)關(guān)系,歐氏距離如式(7)所示

        (7)

        上式中,Xim表示目標圖中第i個特征描述子的第m個元素;Xjk表示源圖像中第j個特征描述子的第k個元素,n表示特征向量的維數(shù)64。首先計算目標圖像上的特征點到源圖像中的所有特征點的歐氏距離,通過比較得出最小歐氏距離Da1和次最小歐氏距離Da2。然后,取最小歐氏距離和次最小歐氏距離的比值Da1/Da2與設(shè)定閾值0.7作比較,若小于閾值則證明目標圖像上的該特征點與源圖像上最小歐氏距離對應(yīng)點是匹配的;否則不匹配。

        因此,CH-SURF算法結(jié)合了顏色直方圖特征和SURF特征的互補性關(guān)系,在模糊定位的基礎(chǔ)上采用SURF匹配算法,最終實現(xiàn)了對目標圖像定位。

        3 實驗結(jié)果及分析

        為驗證CH-SURF算法的有效性,本文選用VS2008作為實驗平臺結(jié)合Opencv2.3視覺函數(shù)庫[14-15]進行仿真實驗。實驗源圖像為JPEG格式的汽車圖片,待匹配的目標圖像是源圖像中的3個不同顏色的汽車Car01,Car02和Car03如圖3所示。

        圖3 待匹配的目標圖像

        3.1 仿真結(jié)果

        3.1.1 CH-SURF算法特征匹配結(jié)果

        采用CH-SURF算法完成對目標圖像的定位操作,其實現(xiàn)過程是先通過顏色直方圖匹配的方法粗略定位出目標的大致位置,然后在此基礎(chǔ)上選用SURF 算法來實現(xiàn)目標精確定位,實驗結(jié)果如圖4所示,其中,方框表示粗定位過程中大致確定的目標圖像位置,圓圈表示在目標圖像和矩形框內(nèi)的源圖像中提取的SURF特征點,最后通過直線將滿足匹配條件的特征點連在一起。

        圖4 CH-SURF算法匹配結(jié)果

        3.1.2 SURF特征匹配結(jié)果

        SURF算法是在整個源圖像的區(qū)域內(nèi)提取所有的特征點,并將這些特征點與目標圖像特征點進行相似度匹配的過程,該算法的特征匹配結(jié)果如圖5所示。

        圖5 SURF算法匹配結(jié)果

        其中小圓圈表示目標圖像和源圖像中提取到的所有SURF特征點,直線將能夠滿足相似度匹配要求的特征點連在一起,完成目標定位操作,但由于SURF算法特征點提取數(shù)目比較多、匹配計算量大,且由于SURF算法丟失了顏色信息,因此不能很好的識別形狀相似但顏色不同的物體特征,易出現(xiàn)誤匹配的現(xiàn)象,如圖5中的car02情況。

        3.2 CH-SURF與SURF算法性能比較

        CH-SURF算法和SURF算法的主要不同在于前者是建立在顏色匹配法粗略定位的基礎(chǔ)之上,再在標定的區(qū)域內(nèi)完成SURF特征匹配的;而后者則是直接采用SURF算法在整幅圖像上完成目標定位的。因此兩種算法對于目標圖像提取的特征點數(shù)目是一樣的,故只需比較CH-SURF算法與SURF算法對于源圖像特征提取的性能指標即可,通過實驗對兩種算法的特征點提取數(shù)目及時間進行統(tǒng)計測試結(jié)果如表1和表2所示。

        表1 兩種算法對源圖像提取特征點數(shù)目對比

        如表1所示,CH-SURF算法提取特征點數(shù)目明顯比SURF算法要少,以Car01,Car02和Car03為例,該算法提取源圖像特征點數(shù)目分別從SURF所需要的406個減少到54個、38個和41個,數(shù)目減少比率分別為86.69%、90.64%和89.90%。

        表2 兩種算法對源圖像特征提取時間的對比

        從表2亦可得出,CH-SURF算法與SURF算法相比特征點提取時間分別從148.017 ms、147.13 2ms和146.997 ms減少到22.819 6 ms、21.774 1 ms和22.332 4 ms,減少比率分別為82.56%、85.20% 和84.81%。經(jīng)分析可知,采用CH-SURF算法實現(xiàn)目標圖像定位的過程中,特征點提取所耗時間在20~25 ms之間波動;而采用SURF算法特征點提取所耗時間則在141~151 ms之間波動。

        4 結(jié)束語

        本文采用一種基于顏色直方圖特征與SURF特征相結(jié)合的CH-SURF算法來實現(xiàn)目標圖像的定位操作,并通過實驗對該算法進行仿真實驗。結(jié)果表明,該算法結(jié)合了顏色特征和SURF特征的互補性關(guān)系,改善了SURF特征匹配法對顏色不敏感的問題,同時由于CH-SURF算法在模糊定位的基礎(chǔ)上實現(xiàn)特征點匹配的過程,使得源圖像特征點提取的數(shù)目降低89%,特征點匹配的時間減少了84%,證明了該算法是有效的。

        [1] 劉橋,楊正坤,李晗.基于SURF算法的醫(yī)學圖像特征點匹配[J].電子科技,2014,27(5):145-149.

        [2] 時培弘,董淑福,單勇.一種基于改進SURF特征描述子的快速算法[J].電子科技,2015,28(10):8-10.

        [3] 朱奇光,張朋珍,李昊立,等.基于全局和局部特征融合的圖像匹配算法研究[J].儀器儀表學報,2016,37(1):170-176.

        [4] 李娟.基于特征描述子的匹配方法[J].電子科技,2012, 25(6):79-82.

        [5] 王招娣.基于SURF和顏色特征的圖像匹配算法研究[D].鄭州:鄭州大學,2014.

        [6] 顧大龍.基于SURF的圖像配準技術(shù)可行性研究[J].現(xiàn)代電子技術(shù),2015(6):94-96.

        [7] 趙啟.圖像匹配算法研究[D].西安:西安電子科技大學,2013.

        [8] 趙璐璐,耿國華,李康,何阿靜.基于SURF和快速近似最近鄰搜索的圖像匹配算法[J].計算機應(yīng)用研究,2013,30(3):921-923.

        [9] 侯曉麗.基于局部特征的圖像匹配算法研究[D].西安:西安電子科技大學,2014.

        [10] 曾朝陽,程相正,陳杭,宋一鑠.基于改進SURF算子的高低分辨率圖像配準方法[J].激光與紅外,2014 (2):207-212.

        [11] Zhang J W,Wang G G.Image matching using a bat algorithm with mutation[J].Applied Mechanics & Materials,2012,203(1):88-93.

        [12] 林怡,應(yīng)旻,楊業(yè),等.改進的SURF算法在彩色車載影像匹配中的應(yīng)用[J].同濟大學學報:自然科學版,2014,42(4):624-629

        [13] 李煬,翟社平.改進的SIFT圖像匹配算法[J].計算機技術(shù)與發(fā)展,2016,26(11):58-62.

        [14] 葛林.基于ARM9和OpenCV的視頻監(jiān)控系統(tǒng)的研究[D].武漢:湖北工業(yè)大學,2013.

        [15] 楊俊,彭馨儀,馬少天.基于OpenCV識別庫的面部圖像識別系統(tǒng)的設(shè)計[J].科技創(chuàng)新與應(yīng)用,2014 (19):41-43.

        Image Matching Algorithm based on Color and SURF Feature

        WANG Zhaodi,WANG Xianli,YANG Shuqiang

        (School of Physics and Electronic Information,Luoyang Normal University,Luoyang 471934,China)

        Since SURF (Speeded-Up Robust Features) algorithm is designed for gray images in feature extraction and recognition tasks, it can’t recognize some objects of similar shape but different color. CH-SURF algorithm is proposed,which combines color histogram feature and SURF feature together.CH-SURF algorithm firstly chooses color histogram feature of target image to reach rough localization, then in the defined small pixel region, uses SURF algorithm to achieve feature matching. Finally simulation experiments are carried out under vs2008 platform, and results show that the proposed algorithm has lower computation time than the original SURF. At the same time,it can improve the accuracy of feature matching to some extent.

        color histogram; SURF; feature matching; Opencv;VS2008

        2017- 02- 16

        河南省科技廳基礎(chǔ)與前沿技術(shù)研究項目(112102310530);河南省高等學校重點科研項目(14A510012)

        王招娣(1988-),女,碩士,助教。研究方向:嵌入式系統(tǒng)應(yīng)用等。王賢立(1985-),男,碩士,助教。研究方向:風電、光伏發(fā)電等新能源發(fā)電與微電網(wǎng)。楊數(shù)強(1976-),男,碩士,副教授。研究方向:信號獲取與處理技術(shù),數(shù)字圖像處理。

        10.16180/j.cnki.issn1007-7820.2017.12.018

        TP391.41

        A

        1007-7820(2017)12-067-04

        猜你喜歡
        特征提取特征
        抓住特征巧觀察
        特征提取和最小二乘支持向量機的水下目標識別
        新型冠狀病毒及其流行病學特征認識
        如何表達“特征”
        基于Gazebo仿真環(huán)境的ORB特征提取與比對的研究
        電子制作(2019年15期)2019-08-27 01:12:00
        不忠誠的四個特征
        當代陜西(2019年10期)2019-06-03 10:12:04
        基于Daubechies(dbN)的飛行器音頻特征提取
        電子制作(2018年19期)2018-11-14 02:37:08
        抓住特征巧觀察
        Bagging RCSP腦電特征提取算法
        基于MED和循環(huán)域解調(diào)的多故障特征提取
        亚洲手机国产精品| 国产呦系列呦交| 香蕉久久夜色精品国产2020| 精品丝袜国产在线播放| 国产内射一级一片高清内射视频| 亚洲av中文无码乱人伦在线咪咕| 99精品国产99久久久久久97| 丁香婷婷色| 亚洲一区二区av免费观看| 亚洲国产精品18久久久久久| 精品国产sm捆绑最大网免费站| 久久国产亚洲AV无码麻豆| 一级二级三一片内射视频| 人妻少妇偷人精品免费看| 人妻无码αv中文字幕久久琪琪布 美女视频黄的全免费视频网站 | 日本一区二区免费看片| 国产对白国语对白| 亚洲另类精品无码专区| 国产午夜精品久久久久九九| 国产91精品一区二区麻豆亚洲| 日本高清视频wwww色| 久久久久久av无码免费看大片| 少妇高潮惨叫久久久久电影| 护士人妻hd中文字幕| 亚洲国产成人片在线观看| 在线视频制服丝袜中文字幕| 亚洲一区二区丝袜美腿| 国产亚洲av无码av男人的天堂| 牲欲强的熟妇农村老妇女| 精品人妻少妇一区二区中文字幕| 中文字幕乱码人妻在线| 亚洲av综合av一区| 国内精品久久久久久久久齐齐| 亚洲一区二区三在线播放| 中文字幕女优av在线| 国产高清一区二区三区视频 | 亚洲乱码av乱码国产精品| 和外国人做人爱视频| 91产精品无码无套在线| 亚洲国产91精品一区二区| 国内精品久久久久伊人av|