亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)SIFT和RANSAC的物體特征提取和匹配的研究

        2018-01-03 10:37:18張春林陳勁杰
        軟件工程 2018年11期
        關(guān)鍵詞:三維重建

        張春林 陳勁杰

        摘 要:使用基于RANSAC提純的改進(jìn)SIFT算子和SIFT算子分別在兩張不同視角的圖像中提取并匹配特征點(diǎn)對(duì),通過(guò)實(shí)驗(yàn)結(jié)果驗(yàn)證了基于改進(jìn)的SIFT算提取特征點(diǎn)的準(zhǔn)確率和匹配的精度都要比SIFT算子和Harris算子高,改進(jìn)SIFT算子提取匹配出的特征點(diǎn)對(duì)更加的有利于目標(biāo)物體的三維重建工作。

        關(guān)鍵詞:物體特征提取和識(shí)別;SIFT;RANSAC;三維重建

        中圖分類(lèi)號(hào):TP391 文獻(xiàn)標(biāo)識(shí)碼:A

        文章編號(hào):2096-1472(2018)-11-07-03

        1 引言(Introduction)

        目前現(xiàn)有的幾種常用的圖像特征提取算子,例如:SUSAN算子、Harris特征提取算子、SIFT(Scale Invariant Feature Transform)特征提取匹配算子等。Harris特征提取算法則是C.Harris和J.Stephens于1998年提出的一種特征提取算子[1]。具體提取步驟:運(yùn)算所有的像素點(diǎn)梯度,然后選取兩個(gè)方向上的梯度都是最大值的點(diǎn)作為Harris角點(diǎn)。這種算子能夠提前去除信息較強(qiáng)的角點(diǎn),是一種很經(jīng)典的算子。SUSAN算子和Harris算子都是基于像素級(jí)別的特征提取算子,提取出來(lái)的特征的精度并不是很高,對(duì)后面的三維重建勢(shì)必會(huì)造成一定的影響。而David Lowe在總結(jié)優(yōu)化了這幾種算子的研究過(guò)程中,提出了一種不受圖像尺度和旋轉(zhuǎn)變化,甚至不受光線(xiàn)強(qiáng)度和拍攝角度變化的特征提取算子—SIFT算子[2]。所以說(shuō)SIFT算子是一種比較優(yōu)秀的特征提取算法。但仍然存在容易誤匹配等缺點(diǎn)。

        為此,本文提出將RANSAC算法與改進(jìn)的SIFT算子結(jié)合[3],通過(guò)實(shí)驗(yàn)對(duì)比其與SIFT算子及Harris的在特征提取和匹配效果。

        2 基于Harris算法的角點(diǎn)檢測(cè)(Corner detection based on Harris algorithm)

        2.1 Harris特征提取

        Harris角點(diǎn)檢測(cè)算法首先計(jì)算所有像素的梯度,隨后選取兩個(gè)方向都是最大梯度的點(diǎn),并以此作為Harris的角點(diǎn)[4]。圖像內(nèi)的角點(diǎn)就是指目標(biāo)物體的輪廓上曲率的局部極大值,它是通過(guò)目標(biāo)物體曲率較大的區(qū)域或者兩條、多條邊緣的角點(diǎn)所構(gòu)成的,位于不同圖像亮區(qū)域的交界線(xiàn)上。Harris的角點(diǎn)檢測(cè)器公式如下:

        如果大于某個(gè)閾值,而且成為相鄰區(qū)域最大值的時(shí)候,我們就能判斷這個(gè)點(diǎn)為角點(diǎn)。其中閾值的選取依靠場(chǎng)景實(shí)際圖像的尺寸、紋理和對(duì)比度等。選取閾值的步驟是:通過(guò)確定圖像中最大數(shù)量的特征點(diǎn)來(lái)選取灰度值最大的一些像素點(diǎn)作為特征點(diǎn)。再依據(jù)所有灰度值的排列序號(hào),選取前個(gè)特征點(diǎn),然后對(duì)特征點(diǎn)進(jìn)行加權(quán)重心化。并且為了降低噪聲對(duì)角點(diǎn)選取的影響,我們可以先用高斯平滑對(duì)圖像進(jìn)行處理。

        其中,和分別是在灰度圖像中的點(diǎn)處u和v兩個(gè)方向上的偏微分。則是二階的混合偏導(dǎo)。X和Y為一階偏導(dǎo),可以分別的運(yùn)用微分算法在u和v方向與灰度圖像進(jìn)行卷積處理得到。

        2.2 Harris角點(diǎn)匹配

        歸一化互相關(guān)是一種非常經(jīng)典的匹配算法,并且它具有一定的抗噪聲性能,而且比較容易實(shí)現(xiàn)。但是它的計(jì)算量比較大,對(duì)于試驗(yàn)計(jì)算和分析來(lái)看,這種匹配算法的運(yùn)行速度太慢,需要進(jìn)一步的優(yōu)化。兩張圖像之間的匹配就是比較兩者之間的相似度,同理,我們應(yīng)用在圖像的特征點(diǎn)匹配也是這樣的,具體就是把特征點(diǎn)作為中心,進(jìn)而比較模板之間的相似程度。

        3 基于SIFT的物體特征提取與匹配(Object feature extraction and matching based on SIFT)

        SIFT(Scale Invariant Feature Transform)特征匹配算法是一種魯棒性很高的局部特征描述子,運(yùn)用SIFT生產(chǎn)的圖像特征向量的性能穩(wěn)定,對(duì)旋轉(zhuǎn)、縮放、目標(biāo)遮擋、噪聲等都有良好的不變性。特征提取主要包括四個(gè)步驟:

        (1) 尺度空間極值檢測(cè)。

        首先對(duì)圖像進(jìn)行高斯差分塔金字塔得到高斯差分圖像,然后對(duì)高斯差分圖像在多尺度范圍內(nèi)進(jìn)行關(guān)鍵點(diǎn)檢測(cè)。

        通過(guò)高斯函數(shù)與原始圖像的卷積可以得到圖像的尺度空間。

        在DoG空間進(jìn)行極值檢測(cè)時(shí),需要將關(guān)鍵點(diǎn)與同一尺度的八個(gè)相鄰和上下相鄰尺度的9×2個(gè)點(diǎn),共26個(gè)點(diǎn)進(jìn)行比較。如果該關(guān)鍵點(diǎn)在DoG尺度空間中,本層和相鄰兩層的26個(gè)領(lǐng)域中都是最大或者最小,那么該點(diǎn)就可以作為圖像的一個(gè)特征點(diǎn)。

        (2) 特征點(diǎn)精確定位。

        在得到大量圖像的候選特征點(diǎn)之后,通過(guò)擬合三維二次函數(shù)以精確確定關(guān)鍵點(diǎn)的位置和尺度,同時(shí)去除低對(duì)比度的關(guān)鍵點(diǎn)和不穩(wěn)定的邊緣響應(yīng)點(diǎn),以增強(qiáng)匹配穩(wěn)定性、提高抗噪聲能力。

        (3) 特征點(diǎn)方向標(biāo)定。

        利用圖像的局部性質(zhì),運(yùn)用關(guān)鍵點(diǎn)領(lǐng)域像素的梯度分布特性為每個(gè)關(guān)鍵點(diǎn)指定方向參數(shù),從而保證算子具有旋轉(zhuǎn)不變性。圖像中某一像素(x,y)處梯度幅值可以用式(9)來(lái)表示:

        通過(guò)這些大小和方向的數(shù)據(jù),可以創(chuàng)建方向直方圖,從而可以計(jì)算每一個(gè)關(guān)鍵點(diǎn)的主導(dǎo)方向。

        (4) 特征描述子的生成。

        特征描述子可以通過(guò)高斯窗口區(qū)域內(nèi)所有點(diǎn)的梯度和方向唯一表征。將每一個(gè)關(guān)鍵點(diǎn)周?chē)?6×16鄰域,分割成16個(gè)4×4的子區(qū)域,然后在每一個(gè)4×4的子區(qū)域中計(jì)算生成一個(gè)8方向直方圖。通過(guò)對(duì)該關(guān)鍵點(diǎn)的所有子區(qū)域都進(jìn)行上述計(jì)算,可以產(chǎn)生一個(gè)4×4×8=128維的特征向量(SIFT描述子)。每一個(gè)關(guān)鍵點(diǎn)都可以由它的特征向量唯一確定[5]。

        4 基于RANSAC和改進(jìn)SIFT的特征提取匹配算法

        即使運(yùn)用抗干擾能力比較強(qiáng)的SIFT特征提取算子,在匹配時(shí)也會(huì)不可避免的出現(xiàn)少量錯(cuò)配特征點(diǎn)對(duì),為了滿(mǎn)足實(shí)驗(yàn)的需要,結(jié)合RANSAC算法對(duì)提出出的特征點(diǎn)進(jìn)行提純[6]。RANSAC算法選取大量的樣本,依次評(píng)估它們的參數(shù),并且每次也隨機(jī)的選取大量的數(shù)據(jù)運(yùn)算參數(shù)模型,隨后對(duì)依次得出的參數(shù)進(jìn)行分類(lèi),把在誤差范圍內(nèi)的點(diǎn)稱(chēng)為內(nèi)點(diǎn),誤差范圍外的點(diǎn)稱(chēng)為外點(diǎn)。并且RANSAC對(duì)錯(cuò)誤匹配率超過(guò)50%的點(diǎn)仍然進(jìn)行分析。RANSAC算法具體步驟如下:

        首先假設(shè)初始的最佳內(nèi)點(diǎn)數(shù)有0個(gè),隨機(jī)從I對(duì)待分配的特征點(diǎn)對(duì)中選取四對(duì)原始的特征匹配點(diǎn)對(duì),兩個(gè)平面之間的投影變換矩陣參數(shù)能夠依據(jù)四組點(diǎn)進(jìn)行線(xiàn)性運(yùn)算。

        隨后運(yùn)算剩余下的I-4個(gè)特征點(diǎn)對(duì),將它們依次通過(guò)變換矩陣獲得坐標(biāo)值,以及它們與對(duì)應(yīng)的待匹配點(diǎn)間的距離。

        如果它們的距離比閥值T小,那么就判斷這個(gè)特征匹配點(diǎn)對(duì)是內(nèi)點(diǎn),反之就是外點(diǎn)。

        將當(dāng)前的內(nèi)點(diǎn)數(shù)量進(jìn)行比較,如果數(shù)量大于,那么當(dāng)前的變換矩陣參數(shù)H是最佳的矩陣估計(jì),并且將進(jìn)行更新。

        通過(guò)運(yùn)算大量的隨機(jī)特征點(diǎn)對(duì)后,選取內(nèi)點(diǎn)數(shù)量最多,并且誤差函數(shù)最小的變換矩陣參數(shù),并用這個(gè)參數(shù)作為匹配圖像之間的投影變換矩陣,通過(guò)這種變換矩陣能夠提高匹配的精度。

        采用RANSAC算法對(duì)匹配之后的錯(cuò)誤匹配點(diǎn)對(duì)進(jìn)行提純[7],并且還估算出了圖像間的變換矩陣參數(shù),進(jìn)而明確了待匹配圖像的精確特征點(diǎn)對(duì)。

        5 實(shí)驗(yàn)結(jié)果與分析(Experimental results and analysis)

        實(shí)驗(yàn)平臺(tái)為VS2015+Opencv2.4.13,操作系統(tǒng)為Windows 10,GPU為GTX1050ti,顯存為4GB。采用GPU并行計(jì)算,運(yùn)用了NVIDIA提供的CUDA通用并行計(jì)算架構(gòu)和cuDNN計(jì)算加速方案。

        5.1 特征提取實(shí)驗(yàn)結(jié)果與分析

        5.1.1 特征提取的實(shí)驗(yàn)結(jié)果

        為了證明本文的物體特征提取的效果,通過(guò)兩組圖片進(jìn)行對(duì)比分析,圖片大小都是640×480,如圖1(a)所示。

        (1)Harris特征提取。在OpenCV中,Harris角點(diǎn)提取是通過(guò)cornerHarris()函數(shù)提取角點(diǎn)的,將cornerHarris()函數(shù)進(jìn)行封裝,獲得一個(gè)檢測(cè)角點(diǎn)類(lèi)。調(diào)整閾值為70時(shí),特征提取效果如圖1(b)所示。

        (2)SIFT特征提取。實(shí)驗(yàn)中運(yùn)用OpenCV函數(shù)庫(kù)中的SiftFeatureDetector類(lèi)對(duì)圖像進(jìn)行特征檢測(cè),特征提取效果如圖1(c)所示。

        (3)改進(jìn)SIFT特征提取。使用基于尺度、方向和距離約束來(lái)去除錯(cuò)誤匹配點(diǎn)對(duì),從特征點(diǎn)的匹配精度和特征匹配的數(shù)目上進(jìn)行優(yōu)化改良,提高了提取特征點(diǎn)的精度,特征提取效果的如圖1(d)所示。

        5.1.2 特征提取結(jié)果分析

        通過(guò)圖1和表1可以發(fā)現(xiàn),Harris算子提取的特征點(diǎn)最少,改進(jìn)SIFT算子提取的特征點(diǎn)最多,同時(shí)改進(jìn)SIFT算法的特征點(diǎn)提取的效果分布比Harris、SIFT都均勻。

        5.2 特征匹配實(shí)驗(yàn)結(jié)果與分析

        5.2.1 特征匹配實(shí)驗(yàn)結(jié)果

        為了驗(yàn)證基于改進(jìn)SIFT算子的特征匹配的效果,采用兩組圖像來(lái)進(jìn)行特征的提取與匹配實(shí)驗(yàn),如圖2所示。

        通過(guò)實(shí)驗(yàn)知道,OpenCV函數(shù)庫(kù)的GoodFeatureToTrack函數(shù)的qualityLevel取值0.04時(shí),提取匹配的效果更好,本文以下的實(shí)驗(yàn)都把qualityLevel取值0.04。

        5.2.2 特征匹配實(shí)驗(yàn)分析

        從圖2和表2可以看出,經(jīng)RANSAC算法剔除錯(cuò)誤匹配(提純)后[8],已經(jīng)去除大量的錯(cuò)誤匹配點(diǎn),SIFT算子還存在少量的錯(cuò)誤匹配,而基于改進(jìn)的SIFT算法的特征點(diǎn)提取匹配基本沒(méi)有了錯(cuò)誤匹配。

        6 結(jié)論(Conclusion)

        通過(guò)物體特征提取和匹配實(shí)驗(yàn)將Harris、SIFT、改進(jìn)SIFT算法進(jìn)行對(duì)比,改進(jìn)的SIFT算法通過(guò)RANSAC剔除錯(cuò)誤匹配后,克服了其他兩種算法的缺點(diǎn),在特征提取和匹配上效果更好。

        參考文獻(xiàn)(References)

        [1] 李鵬程,曾毓敏,張夢(mèng).一種改進(jìn)的Harris角點(diǎn)檢測(cè)算法[J].南京師大學(xué)報(bào)(自然科學(xué)版),2014,37(02):49-54.

        [2] 周穎.基于SIFT算法的圖像特征匹配[J].現(xiàn)代計(jì)算機(jī),2015(5):63-68.

        [3] 曾巒,王元?dú)J,譚久彬.改進(jìn)的SIFT特征提取和匹配算法[J].光學(xué)精密儀器,2011,19(06):1392-1396.

        [4] S.Bell,C.L.Zitnick,K.Bala,et al.Inside-outside net:Detecting objects in context with skip pooling and recurrent neural net works[C].Proceedings of the IEEE Conference on Computer Vision and Pattern Reco}nition_2016:2874-2883.

        [5] Fang Xianyong,Zhang Mingmin,Pan Zhigeng,et al.A new method of manifold mosaic for large displacement images[J].Journal of Computer Science and Technology,2006,21(2):214-223.

        [6] 錐偉群,高屹.基于改進(jìn)RANSAC算法的圖像拼接方法[J].科技創(chuàng)新與應(yīng)用,2015,26(5):21-22.

        [7] Kasar T,Ramakrishnaa A G.Block-based feature detection and matching for mosaicing of camera-captured document images [C].Pros of IEEE region 10 conference.Taipei:IEEE.

        [8] 周建平,楊金坤,鄭宇.基于改進(jìn)SIFT特征匹配的視頻拼接—在倒車(chē)系統(tǒng)中的應(yīng)用[J].企業(yè)技術(shù)開(kāi)發(fā),2011,30(22):70-71.

        作者簡(jiǎn)介:

        張春林(1987-),男,碩士生.研究領(lǐng)域:智能制造.

        陳勁杰(1969-),男,碩士,副教授.研究領(lǐng)域:智能制造.

        猜你喜歡
        三維重建
        基于TE-NeuS的人體頭部三維重建
        軟件工程(2024年7期)2024-12-31 00:00:00
        頸椎三維重建對(duì)頸椎側(cè)塊螺釘固定的影響
        基于Mimics的CT三維重建應(yīng)用分析
        軟件(2020年3期)2020-04-20 00:56:34
        急性主動(dòng)脈綜合征136例MDCT三維重建影像特征及病變分布
        基于關(guān)系圖的無(wú)人機(jī)影像三維重建
        三維重建結(jié)合3D打印技術(shù)在腔鏡甲狀腺手術(shù)中的臨床應(yīng)用
        多層螺旋 CT 三維重建在肋骨及軟骨損傷中的診斷價(jià)值
        多排螺旋CT三維重建在頜面部美容中的應(yīng)用
        三維重建技術(shù)在肝癌診療中的研究進(jìn)展
        基于逆向工程的模具磨破損區(qū)域三維重建研究
        加勒比特在线视频播放| 亚洲一区二区三区国产精华液| 夜夜被公侵犯的美人妻| 国产黑色丝袜在线观看网站91| av色一区二区三区精品| 性高朝大尺度少妇大屁股| 国产一品道av在线一二三区| 亚洲一区不卡在线导航| 亚洲av成人一区二区| 绝顶潮喷绝叫在线观看| 国产午夜成人久久无码一区二区| 亚洲一区二区成人在线视频| 成人av综合资源在线| 亚洲欧美日韩成人高清在线一区| 欧美另类视频在线| 日韩精品夜色二区91久久久| 偷拍一区二区三区四区| 日本在线看片免费人成视频1000| 综合色久七七综合尤物| 亚洲一区二区三区资源| 亚洲色一区二区三区四区| 中国凸偷窥xxxx自由视频| 久久久久久久尹人综合网亚洲| 看一区二区日本视频免费 | 国产黄大片在线观看| 四虎成人精品无码永久在线| 中文字幕在线观看乱码一区| 虎白m粉嫩小在线播放| 国产成人亚洲精品| 国产精品成人午夜久久| 女同另类专区精品女同| 小说区激情另类春色| 欧美国产日韩a在线视频| 国产精品国产三级国产在线观| 中文字幕免费人成在线网站| 亚洲中文久久精品无码| 亚洲欧美在线观看一区二区| 亚洲一区二区三区免费的视频| 亚洲国产成人一区二区精品区| 99精品视频69V精品视频| 亚洲高清国产拍精品熟女|