亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        改進(jìn)ORB特征點(diǎn)檢測(cè)的圖像拼接方法

        2022-01-21 03:17:26秦緒佳陳國富王洋洋張美玉
        關(guān)鍵詞:特征融合

        秦緒佳,陳國富,王洋洋,張美玉

        (浙江工業(yè)大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,杭州 310032)

        1 引 言

        圖像拼接是通過配準(zhǔn)、變換和融合等方式把多張有重疊部分的圖像處理后成一張廣角清晰的圖像[1].遙感圖像拼接技術(shù)有多的應(yīng)用,在自然保護(hù)、災(zāi)害勘察、軍事勘察等方面遙感圖像都有應(yīng)用.圖像配準(zhǔn)方法一般分為兩種類型,基于頻域方法和基于時(shí)域方法.基于頻域的方法是1975年Hines和Kuglin提出的相位相關(guān)法,此方法大多應(yīng)用于遙感圖像拼接方面.在圖像拼接過程中,先進(jìn)行快速傅立葉變換,將兩張圖像變換至頻域,然后根據(jù)兩張圖像間的互功率譜獲得平移矢量,最后根據(jù)平移矢量實(shí)現(xiàn)圖像配準(zhǔn)[2].基于時(shí)域的方法又可以進(jìn)一步分成兩種類型,基于特征的方法和基于區(qū)域的方法.基于區(qū)域的方法由于計(jì)算量非常大,所以算法較少.當(dāng)前圖像拼接算法大部分都是基于特征的方法,該類方法先提取圖像中特征點(diǎn).分析圖像特征點(diǎn),計(jì)算兩張圖像特征點(diǎn)的匹配關(guān)系,通過特征點(diǎn)的位置關(guān)系來計(jì)算兩張圖像的變換關(guān)系[3],最后根據(jù)變換關(guān)系實(shí)現(xiàn)圖像的拼接.基于特征的方法在計(jì)算中不需要用到圖像的顏色信息,因此對(duì)于圖像光線的變換有較好的魯棒性,并且還有計(jì)算量小,拼接速度快的優(yōu)點(diǎn).

        常見的提取圖像特征點(diǎn)方法有:Harris、FAST,SIFT,SURF和ORB等.Ethan[4]等人在2011年提出的ORB算法,ORB算法的運(yùn)算速度是SIFT算法的100倍,是SURF算法的10倍[5].ORB(Oriented FAST and Rotated BRIEF)是一種特征點(diǎn)提取和描述的算法.由Edward等人在2006年提出FAST角點(diǎn)檢測(cè)方法,算法計(jì)算速度快,精確度也高.Michael等人[6]在2010提出一種特征描述子BRIEF.BRIEF特征描述子是一種二進(jìn)制編碼描述子,可以更快建立特征描述子,減少特征匹配時(shí)間.Yi等人[7]提出了一種量子特征點(diǎn)提取方法.Wang等人[8]提出了一種基于基于SIFT的匹配算法GeoMatch,能夠進(jìn)行快速的特征匹配.FAN等人[9]提出了一種改進(jìn)ORB算法,在特征點(diǎn)檢測(cè)過程中設(shè)置了自適應(yīng)閾值,提高了匹配質(zhì)量,降低了計(jì)算成本.

        本文提出了一種改進(jìn)FAST特征點(diǎn)檢測(cè)的方法,優(yōu)化檢測(cè)過程,減少周圍像素點(diǎn)比較次數(shù),更快速的選擇特征點(diǎn),還可以減少選擇噪點(diǎn)的數(shù)量.本文還改進(jìn)了RANSAC算法,在計(jì)算變換矩陣的過程中,添加了合適的樣本,提高了內(nèi)點(diǎn)占比.提高了計(jì)算效率,降低了迭代次數(shù).最后通過泊松融合可以實(shí)現(xiàn)高效,實(shí)時(shí),準(zhǔn)確的圖像拼接.

        2 改進(jìn)的ORB特征點(diǎn)檢測(cè)方法

        ORB(Oriented FAST and Rotated BRIEF)是一種特征點(diǎn)提取和描述的算法.ORB算法是通過對(duì)每個(gè)像素點(diǎn)附近的16個(gè)像素進(jìn)行比較判斷,效率較差.而且提取的點(diǎn)中常常會(huì)包含很多邊緣點(diǎn)與噪點(diǎn),為了除去這些無效的噪點(diǎn),本文提出了通過提取周邊點(diǎn)的方法來減少無效噪點(diǎn)的干擾.

        2.1 ORB特征點(diǎn)檢測(cè)與描述

        ORB算法由兩部分Oriented FAST 和 Rotated BRIEF構(gòu)成.Oriented FAST即特征提取是由FAST算法發(fā)展而來,Rotated BRIEF即特征點(diǎn)描述是由BRIEF特征描述算法改進(jìn)得到.FAST角點(diǎn)檢測(cè)方法[10]是比較像素點(diǎn)與周圍像素點(diǎn)的像素差,當(dāng)像素差大于閾值就判定該像素點(diǎn)為角點(diǎn)(特征點(diǎn)).FAST檢測(cè)角點(diǎn)僅僅只是對(duì)比像素值,因此角點(diǎn)并不具備方向性和旋轉(zhuǎn)不變性.ORB算法提出了一種利用灰度質(zhì)心法來確定角點(diǎn)方向,解決了角點(diǎn)不具備方向性的問題.角點(diǎn)的灰度值與質(zhì)心的灰度值不一致時(shí),角點(diǎn)坐標(biāo)到質(zhì)心構(gòu)成一個(gè)向量作為該角點(diǎn)的主方向.矩的元素表達(dá)為:

        (1)

        其中的p,q確定灰度的階數(shù),I(x,y)是像素點(diǎn)(x,y)的像素值.

        圖像塊的質(zhì)心C為:

        (2)

        圖像塊角點(diǎn)中心到質(zhì)心的方向就是特征點(diǎn)的方向,計(jì)算公式為:

        θ=arctan(m01,m10)

        (3)

        BRIEF算法是利用二進(jìn)制串的特征描述符描述特征點(diǎn).二值判斷方法為:

        (4)

        p(x)是指圖像塊p在點(diǎn)x處的像素值.

        BRIEF算法對(duì)噪聲較為敏感,ORB算法通過像素平均值來替代某點(diǎn)的像素值來增強(qiáng)抗噪性.二進(jìn)制串的計(jì)算公式如下:

        (5)

        BRIEF算法得到的描述子是不具有旋轉(zhuǎn)不變性,ORB算法把公式(3)FAST中求出的特征點(diǎn)方向當(dāng)作BRIEF的主方向.對(duì)每個(gè)特征點(diǎn)處,產(chǎn)生的n對(duì)隨機(jī),即2*n的矩陣M:

        (6)

        并用旋轉(zhuǎn)矩陣R(特征點(diǎn)方向θ)進(jìn)行旋轉(zhuǎn)變換,使其變?yōu)橛邢蛐问剑?/p>

        (7)

        旋轉(zhuǎn)變換公式為:Sθ=RθM.BRIEF特征描述子的最終結(jié)果為:

        gn(P,θ)=fn(P)|(xi,yi)∈Sθ

        (8)

        2.2 提取周邊像素點(diǎn)的方式

        針對(duì)ORB算法判斷特征點(diǎn)的方式會(huì)產(chǎn)生較多的邊緣點(diǎn)與噪點(diǎn)[11]的問題提出一種改進(jìn),在比較某點(diǎn)的周邊像素時(shí),重新選邊緣點(diǎn)進(jìn)行二次比較,用多次比較的方法大大減少噪點(diǎn)的干擾.

        對(duì)圖像進(jìn)行預(yù)處理得到二進(jìn)制信息.特征點(diǎn)中心灰度值設(shè)作1,低于中心灰度值設(shè)作0.點(diǎn)p的灰度值與附近點(diǎn)x灰度值的比較關(guān)系有3種情況,如公式(9)所示.

        (9)

        ORB提取特征點(diǎn)的方法如圖1所示,以點(diǎn)P的3個(gè)像素半徑做圓,選擇圓邊緣上的16個(gè)像素點(diǎn).

        圖1 選擇周圍像素點(diǎn)Fig.1 Select surrounding pixels

        ORB算法判斷特征點(diǎn)的方法:對(duì)圓上的灰度值進(jìn)行分類.如設(shè)點(diǎn)P的灰度值為1,圖1中圈右側(cè)像素點(diǎn)6的灰度值比點(diǎn)P低,則點(diǎn)6灰度值為0.圖1中圈左側(cè)像素點(diǎn)14灰度值比P相近.則點(diǎn)14灰度值為1.在對(duì)灰度值進(jìn)行分類后,如果圈上有9個(gè)以上連續(xù)像素暗于或亮于P,則判斷P為特征點(diǎn).

        2.3 快速判斷特征點(diǎn)的方式

        ORB算法提取特征點(diǎn),每次都要將中心點(diǎn)對(duì)比周邊16個(gè)像素點(diǎn)的灰度值,才能確定該點(diǎn)是否是特征點(diǎn),效率十分低下.針對(duì)該問題,本文提出了一種快速判斷圖像特征點(diǎn)的改進(jìn)方法.

        圖2 選取4個(gè)固定周邊點(diǎn)Fig.2 Select 4 fixed perimeter points

        根據(jù)ORB算法判斷特征點(diǎn)的特點(diǎn),有9個(gè)以上連續(xù)像素暗于或亮于P,則判斷P為特征點(diǎn).即測(cè)試了候選點(diǎn)周圍每隔90度角的4個(gè)點(diǎn),應(yīng)該至少有3個(gè)和候選點(diǎn)的灰度值差足夠大.為了計(jì)算方便,選取為P點(diǎn)中心十字線上的4個(gè)點(diǎn)ABCD.比如AC高于P點(diǎn),而BD又低于P點(diǎn),那么P點(diǎn)一定是噪點(diǎn).

        從比較16個(gè)點(diǎn)到比較4個(gè)點(diǎn)效率是大大提高了,但是得到噪點(diǎn)的幾率就大了很多.提出了新的一種采樣法減少噪聲.以點(diǎn)P的5個(gè)像素半徑做圓,PA,PB,PC,PD做延長線落在外圓上,得到相應(yīng)的WXYZ 4個(gè)點(diǎn).

        圖3 選取8個(gè)周邊點(diǎn)Fig.3 Select 8 fixed perimeter points

        假設(shè)點(diǎn)P是特征點(diǎn),那么點(diǎn)P與周邊像素點(diǎn)的灰度值就一定會(huì)存在差值,并且周邊像素點(diǎn)在灰度值上會(huì)保持對(duì)應(yīng)的延展性.即當(dāng)內(nèi)圈像素點(diǎn)A的灰度值比中心點(diǎn)P低時(shí),則外圈對(duì)應(yīng)像素點(diǎn)W的灰度值也要比P低,這樣保持了連貫性.若W的灰度值也要比P高,則P點(diǎn)便是噪點(diǎn).

        本文提出了一種新的判斷特征點(diǎn)方法,不需要每次對(duì)16個(gè)像素點(diǎn)進(jìn)行比較,僅需要比較8次,大大減少了比較次數(shù),提高了特征點(diǎn)提取效率.還利用特征點(diǎn)延展性,更準(zhǔn)確地分類噪點(diǎn)或是特征點(diǎn).

        3 改進(jìn)的RANSAC算法

        采用基于K最近鄰近算法[12]快速對(duì)特征點(diǎn)進(jìn)行匹配,結(jié)果會(huì)有大量的錯(cuò)誤.基于歐式距離對(duì)特征點(diǎn)進(jìn)行粗匹配,也會(huì)存在許多誤匹配.就需要通過RANSAC算法進(jìn)行提純,并求得變換矩陣.RANSAC算法的迭代總次數(shù)是根據(jù)內(nèi)點(diǎn)比例動(dòng)態(tài)變化的.內(nèi)點(diǎn)占比例越高,就能越快計(jì)算出參數(shù)模型估計(jì),迭代次數(shù)也就越少.

        3.1 RANSAC算法

        RANSAC算法的主要過程如下:

        1)P表示算法產(chǎn)生有用結(jié)果的概率即在一些迭代過程中從數(shù)據(jù)集中隨機(jī)選中的點(diǎn)均為內(nèi)點(diǎn)的概率.用w來表示每次從數(shù)據(jù)集中選取一個(gè)局內(nèi)點(diǎn)的概率.最小數(shù)據(jù)量為n.迭代次數(shù)為k.((1-w)n)k表示不會(huì)選擇到n個(gè)點(diǎn)都是內(nèi)點(diǎn)的概率,結(jié)果與1-P相同.因此:

        ((1-w)n)k=1-P

        (10)

        2)在初始樣本中隨機(jī)選取4對(duì)匹配點(diǎn)(要求四點(diǎn)不得共線),并計(jì)算得到變換矩陣T.

        3)通過變換矩陣T來計(jì)算剩余特征點(diǎn)對(duì)間的歐式距離d.

        4)判斷歐式距離d是否小于設(shè)定閾值,若小于即為內(nèi)點(diǎn),大于為外點(diǎn).記錄內(nèi)點(diǎn)的數(shù)目count.

        5)重復(fù)步驟2-步驟4,當(dāng)重復(fù)到設(shè)定迭代次數(shù)或內(nèi)點(diǎn)數(shù)目count達(dá)到最大值且數(shù)值穩(wěn)定不變時(shí),即得到最佳的變換矩陣T.

        RANSAC算法根據(jù)置信概率P、匹配總數(shù)、當(dāng)前內(nèi)點(diǎn)個(gè)數(shù)及當(dāng)前迭代次數(shù)動(dòng)態(tài)的改變迭代總次數(shù)[13].當(dāng)內(nèi)點(diǎn)占比w高時(shí),便可迅速找到正確估計(jì),迭代次數(shù)可以大幅減少,還是以指數(shù)級(jí)減少的時(shí),最終的迭代次數(shù)幾十次即可.

        3.2 改進(jìn)RANSAC算法

        本文對(duì)RANSAC算法提出一種改進(jìn),在迭代結(jié)束前,在樣本中重新添加新的特征點(diǎn).添加新的特征點(diǎn)步驟如下:

        Step 1.得到一個(gè)相對(duì)準(zhǔn)確的變換矩陣T.在計(jì)算變換矩陣過程中,迭代次數(shù)達(dá)到10次后或者內(nèi)點(diǎn)數(shù)目趨于穩(wěn)定,就認(rèn)為該變換矩陣T相對(duì)準(zhǔn)確.

        Step 2.添加新特征點(diǎn).在一次迭代過程中從內(nèi)點(diǎn)集合中隨機(jī)選擇兩對(duì)匹配點(diǎn),從基準(zhǔn)圖像中這兩點(diǎn)的延長線上隨機(jī)選取一點(diǎn)a.通過變換矩陣T計(jì)算出點(diǎn)a在待匹配圖像中的位置b.

        Step 3.驗(yàn)證新特征點(diǎn).若位置b在待匹配圖像中兩點(diǎn)的延長線,或者偏移非常小,就把點(diǎn)a點(diǎn)b作為新特征點(diǎn)對(duì)并放在內(nèi)點(diǎn)集合中,否則就重新選擇特征點(diǎn).

        Step 4.在每次迭代過程中,只添加3對(duì)特征點(diǎn),添加太多會(huì)反而會(huì)導(dǎo)致總迭代次數(shù)過大.重復(fù)第2步、第3步,直到內(nèi)點(diǎn)數(shù)目穩(wěn)定或達(dá)到迭代次數(shù),就停止添加特征點(diǎn).

        增加的新特征點(diǎn),是用內(nèi)點(diǎn)做延長線得到,保證每次都在重疊區(qū)域選擇點(diǎn),而且通過驗(yàn)證保證了新特征點(diǎn)是準(zhǔn)確性.通過這種方式提高內(nèi)點(diǎn)占比,提高RANSAC效率,減少迭代次數(shù).

        本文提出了一種改進(jìn)RANSAC算法,通過不斷增加內(nèi)點(diǎn)的方式,不僅提升了效率,還可以計(jì)算得到更合適的變換矩陣.

        3.3 泊松融合

        由于圖像拍攝的角度、特征點(diǎn)匹配的精度、仿射變換誤差等問題,都會(huì)造成拼接出現(xiàn)痕跡.這就需要圖像融合技術(shù)去除拼接過程中產(chǎn)生的重影和間隙.圖像融合常用的方法:加權(quán)求和、小波融合、平均圖像融合等.本文則采用泊松融合[14],泊松融合的核心是通過插值重構(gòu)融合區(qū)域的像素,同時(shí)能保證梯度域上的連續(xù).融合步驟如下:

        Step 1.通過變換矩陣找到兩張圖像的交界處,若有拼接痕跡,一定發(fā)生于交界處.依據(jù)交界處坐標(biāo)從待匹配圖像中選擇一塊圖像c,將圖像c融合到有拼接痕跡的地方.利用差分運(yùn)算計(jì)算出圖像c的梯度場(chǎng).

        Step 2.計(jì)算拼接圖像的梯度場(chǎng),拼接痕跡的區(qū)域可以不用計(jì)算梯度場(chǎng).因?yàn)槿诤系臅r(shí)候,拼接痕跡區(qū)域的梯度場(chǎng)就是圖像c的梯度場(chǎng),這樣可以減少一部分計(jì)算量.

        Step 3.計(jì)算融合圖像的梯度場(chǎng).步驟2得到的是拼接圖像的梯度場(chǎng),把待融合圖像c的梯度場(chǎng)賦值于拼接圖像對(duì)應(yīng)區(qū)域梯度場(chǎng).得到一個(gè)待重建的完整梯度場(chǎng).

        Step 4.計(jì)算融合圖像的散度.對(duì)步驟3得到的待重建梯度場(chǎng),對(duì)梯度求偏導(dǎo),計(jì)算得到融合圖像的散度.

        Step 5.計(jì)算系數(shù)矩陣.泊松重建方程Ax=b,b為圖像散度,x是融合圖像的像素值.只要構(gòu)建系數(shù)矩陣A就能進(jìn)行融合圖像.

        圖4 圖像泊松融合結(jié)果對(duì)比Fig.4 Comparison of image Poisson blend results

        泊松融合的關(guān)鍵就在于重建方程Ax=b.利用方程計(jì)算得到圖像的每一個(gè)像素值,進(jìn)而融合圖像.圖4中左圖是有拼接痕跡的圖像(矩形標(biāo)出拼接痕跡),右圖是泊松融合后的結(jié)果.對(duì)比左右兩圖矩形區(qū)域,可以明顯發(fā)現(xiàn)右圖更加自然.

        4 實(shí)驗(yàn)與結(jié)果分析

        實(shí)驗(yàn)硬件環(huán)境為:Windows10操作系統(tǒng),Intel Corei5-7600 CPU @ 3.5GHz處理器.實(shí)驗(yàn)數(shù)據(jù)為遙感圖像.本文實(shí)驗(yàn)對(duì)比本文算法與其他角點(diǎn)檢測(cè)算法,再通過比較特征點(diǎn)提取時(shí)間及準(zhǔn)確度,驗(yàn)證本文算法的優(yōu)越性.用改進(jìn)的RANSAC算法對(duì)比原RANSAC算法,驗(yàn)證本文改進(jìn)的算法計(jì)算效率是否提高.最后展示本文算法的圖像拼接結(jié)果.

        4.1 特征點(diǎn)匹配實(shí)驗(yàn)對(duì)比

        用4種圖像特征點(diǎn)提取算法,各提取1000對(duì)、5000對(duì)特征點(diǎn),實(shí)驗(yàn)結(jié)果求平均值后如表1所示.把圖像邊緣5像素之內(nèi)的點(diǎn)定義為邊緣點(diǎn),邊緣點(diǎn)大概率是噪點(diǎn).提取特征點(diǎn)所消耗的時(shí)間與提取特征點(diǎn)的數(shù)量呈正相關(guān).從表1中可以發(fā)現(xiàn),ORB算法提取特征點(diǎn)的速度最快,但提取的邊緣點(diǎn)最多.使用本文改進(jìn)的ORB算法在5000對(duì)特征點(diǎn)時(shí)速度反超原ORB算法,速度最快而且還大大減少了邊緣點(diǎn)的數(shù)量.

        表1 不同算法提取特征點(diǎn)
        Table 1 Extracting feature points with different algorithms

        算法名稱1000對(duì)特征點(diǎn)耗時(shí)邊緣點(diǎn)5000對(duì)特征點(diǎn)耗時(shí)邊緣點(diǎn)SIFT算法3562ms4.11%16895ms4.21%SURF算法1549ms6.14%8323ms5.67%ORB算法169ms7.68%924ms6.92%本文算法183ms2.41%870ms2.38%

        用ORB算法與本文改進(jìn)的ORB算法進(jìn)行實(shí)驗(yàn)對(duì)比.對(duì)3組遙感圖像進(jìn)行特征點(diǎn)的匹配,繪制后結(jié)果如圖5所示.其中圖5(a)、圖5(c)、圖5(e)為ORB算法得到的匹配結(jié)果,圖5(b)、圖5(d)、圖5(f)為本文改進(jìn)的ORB算法得到的匹配結(jié)果.

        圖5 ORB算法與改進(jìn)后的ORB算法特征點(diǎn)匹配結(jié)果對(duì)比Fig.5 ORB algorithm is compared with the improved ORB algorithm feature point matching results

        從圖5中我們可以明顯發(fā)現(xiàn),圖5(a)、圖5(c)、圖5(e)畫框標(biāo)注部分的線段交叉,多于對(duì)應(yīng)的圖5(b)、圖5(d)、圖5(f).通過實(shí)驗(yàn)我們可以得出改進(jìn)后的ORB不僅提升了算法效率,也提高了匹配的正確率.

        4.2 拼接結(jié)果對(duì)比

        對(duì)比RANSAC算法與改進(jìn)的RANSAC算法,在不同特征點(diǎn)對(duì)數(shù)和特征點(diǎn)匹配對(duì)數(shù)下的效率情況.從表2中可以發(fā)現(xiàn),本文提出的改進(jìn)RANSAC算法中內(nèi)點(diǎn)占比高于原RANSAC算法,所以耗時(shí)也更少.可以說明本文改進(jìn)RANSAC算法提高了效率,能更快得計(jì)算出變換矩陣.

        表2 與RANSAC的對(duì)比實(shí)驗(yàn)結(jié)果
        Table 2 Comparison of experimental results with RANSAC

        特征點(diǎn)對(duì)數(shù)特征點(diǎn)匹配RANSAC算法內(nèi)點(diǎn)占比耗時(shí)本文算法內(nèi)點(diǎn)占比耗時(shí)500對(duì)100對(duì)85.6%21.6ms92.1%19ms1000對(duì)200對(duì)87.8%23.5ms91.6%22ms5000對(duì)1000對(duì)86.7%30.7ms91.2%24ms10000對(duì)1500對(duì)87.3%35.8ms89.8%23.4ms

        為驗(yàn)證改進(jìn)算法計(jì)算變換矩陣的準(zhǔn)確性,用RANSAC算法與本文算法進(jìn)行對(duì)比,對(duì)比結(jié)果如圖6所示.左側(cè)是原RANSAC算法拼接得到的效果圖,右側(cè)是本文改進(jìn)算法得到的效果圖.

        圖6 拼接結(jié)果的對(duì)比Fig.6 Comparison of splicing results

        對(duì)比圖6畫框部分,可以發(fā)現(xiàn)圖6(a)中右側(cè)變換后拼接效果好于左側(cè).可能圖6(a)的感官?zèng)]有那么明顯,對(duì)比圖6(b)中畫框停車位拼接部分,就能明顯看出右側(cè)明顯好于左側(cè).由此說明改進(jìn)的RANSAC算法可以得到更好的變換矩陣,能實(shí)現(xiàn)更好的拼接效果.

        圖7 圖像融合效果對(duì)比Fig.7 Image fusion effect comparison

        從圖6中可以發(fā)現(xiàn),由于拍攝角度不同及亮度也不同,即便變換矩陣多精確,都會(huì)有拼接痕跡存在.通過泊松融合對(duì)圖像進(jìn)行融合,主要是對(duì)圖像重疊的邊界進(jìn)行融合,消除圖像拼接的痕跡,效果如圖7所示.可以明顯發(fā)現(xiàn)左圖畫框部分還有拼接痕跡,而右圖經(jīng)過泊松融合后,基本看不出拼接痕跡,圖片拼接更加自然.

        圖8 序列圖像拼接效果Fig.8 Sequence image mosaic effect

        通過本文提出的改進(jìn)算法對(duì)多張序列遙感圖像進(jìn)行拼接,拼接后效果如圖8所示.總共是8張序列圖像,從圖8中可以發(fā)現(xiàn)還是存在累計(jì)誤差的,但誤差較小,不影響觀感.通過泊松融合消除了拼接痕跡,讓最后結(jié)果更加自然.

        5 總 結(jié)

        本文提出了一種改進(jìn)的ORB角點(diǎn)檢測(cè)方法,在提取周邊點(diǎn)的方式和判斷特征點(diǎn)條件上進(jìn)行改進(jìn).改進(jìn)后的算法能更快更準(zhǔn)地提取圖像特征點(diǎn),減少噪點(diǎn)的數(shù)目,提升了特征點(diǎn)檢測(cè)效率.還提出了一種改進(jìn)的RANSAC算法,在迭代過程中添加合適的特征點(diǎn),提高內(nèi)點(diǎn)占比,減少迭代次數(shù).不僅提升了效率,還得到了更合適的變換矩陣,實(shí)現(xiàn)更好的拼接效果.最后采用泊松融合消除圖像拼接產(chǎn)生的拼接痕跡,使圖像拼接更加自然.通過實(shí)驗(yàn)可以證明,本文提出方法能夠?qū)崿F(xiàn)實(shí)時(shí)、高效、準(zhǔn)確的圖像拼接.

        猜你喜歡
        特征融合
        抓住特征巧觀察
        一次函數(shù)“四融合”
        村企黨建聯(lián)建融合共贏
        融合菜
        從創(chuàng)新出發(fā),與高考數(shù)列相遇、融合
        寬窄融合便攜箱IPFS500
        新型冠狀病毒及其流行病學(xué)特征認(rèn)識(shí)
        《融合》
        如何表達(dá)“特征”
        不忠誠的四個(gè)特征
        一本色道久久综合亚洲精品蜜臀| 99久久久国产精品免费蜜臀| 国产精品久久一区二区三区| 亚洲成人观看| 亚洲精品无播放器在线播放| 国产成人无码A区在线观| 青青草手机成人自拍视频| 美女丝袜美腿玉足视频| 奇米影视第四色首页| 激情另类小说区图片区视频区 | 中文字幕在线看精品乱码| 中文无码一区二区不卡av| 国产综合激情在线亚洲第一页| 人妻少妇精品系列一区二区| 亚洲色图专区在线视频| 四虎影视成人永久免费观看视频| 欧美日本日韩aⅴ在线视频| 一区二区无码精油按摩| 亚洲免费一区二区三区四区| 国产精品久线在线观看| 熟女性饥渴一区二区三区| 日韩精品成人一区二区三区久久久| 亚洲成人av在线播放不卡| 久久99精品久久久久久清纯| 老子影院午夜精品无码| 91青草久久久久久清纯| 亚洲天堂av一区二区三区不卡 | 亚洲一二三四五中文字幕| 国产精品办公室沙发| 国产精品 高清 尿 小便 嘘嘘 | 精品人妻大屁股白浆无码| 色一情一区二| 国产三级黄色的在线观看| 亚洲精品av一区二区| 国语精品一区二区三区| 亚洲精品成AV无在线观看| 视频国产一区二区在线| 看全色黄大色黄大片 视频| 成年视频国产免费观看| 久久色悠悠亚洲综合网| 久久综合久久美利坚合众国|