亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)ORB的抗視角變換快速圖像匹配算法*

        2018-12-10 12:12:50龐春江
        傳感技術(shù)學(xué)報(bào) 2018年11期
        關(guān)鍵詞:描述符二進(jìn)制鄰域

        左 川,龐春江

        (華北電力大學(xué)控制與計(jì)算機(jī)工程學(xué)院,河北 保定 071003)

        圖像匹配是計(jì)算機(jī)視覺和數(shù)字圖像處理等學(xué)科領(lǐng)域中十分重要且基礎(chǔ)性的技術(shù),已經(jīng)在機(jī)器人視覺[1~2]、目標(biāo)跟蹤[3]和圖像拼接[4]等領(lǐng)域得到了廣泛應(yīng)用。基于局部特征的圖像匹配算法具有魯棒性強(qiáng)、靈活性高等特點(diǎn),是當(dāng)前研究的熱點(diǎn),備受關(guān)注。其中尺度不變特征變換(SIFT)、快速魯棒性特征(SURF)和快速定向二進(jìn)制描述(ORB)等算法具有典型性。

        ORB[5]相比SIFT與SURF算法具有計(jì)算量低,運(yùn)行速度快等優(yōu)點(diǎn),但誤點(diǎn)率高、像素對比結(jié)果易受噪聲影響和抗視角變換能力弱等缺點(diǎn)仍影響該算法在實(shí)際工程上的應(yīng)用。在抗視角變換方面,侯毅[6]等人提出仿射不變的快速定向二進(jìn)制描述(AORB)算法,利用仿射變換模型模擬視角變化,使算法具備完全仿射不變性。曾慶華[7]等人將透視模型與ORB結(jié)合得到抗視角變換的快速定向二進(jìn)制描述(PORB)算法,并利用隨機(jī)采樣一致性(RANSAC)算法進(jìn)行誤點(diǎn)剔除,使算法保持較高匹配精度的同時(shí)具有較好的抗視角變換能力。雖然兩種算法提高了ORB的抗視角變換能力,但并未考慮算法本身誤點(diǎn)率高和描述符易受噪聲影響。在特征描述方面,王強(qiáng)[8]等人對二進(jìn)制魯棒獨(dú)立基本特征(BRIEF)算法進(jìn)行了改進(jìn),利用差分大小與差分幅值生成描述符,降低了噪聲的影響。李卓[9]等人利用基于學(xué)習(xí)的三元組(LATCH[10])二進(jìn)制描述子進(jìn)行ORB特征描述,提高了描述符的魯棒性。以上兩種方法提高了描述子能力,但其提取的特征點(diǎn)不穩(wěn)定,誤點(diǎn)率高的問題依然存在。在提高精度方面,秦曉飛[11]等人利用RANSAC和8點(diǎn)改進(jìn)算法計(jì)算基礎(chǔ)矩陣,應(yīng)用極限約束進(jìn)行精匹配,提高了匹配精度。賀黎[12]等人提出順序采樣評估方法,對初匹配得到的匹配點(diǎn)按漢明距離進(jìn)行排序采樣,利用最小二乘法進(jìn)行誤點(diǎn)的去除,最終連續(xù)迭代得到最優(yōu)匹配點(diǎn)集。以上兩種算法提高了匹配精度,但導(dǎo)致算法復(fù)雜度提高,實(shí)時(shí)性降低。

        針對以上問題,本文提出基于改進(jìn)ORB的抗視角變換快速圖像匹配算法。對ORB算法進(jìn)行改進(jìn),利用加速分割檢測算法(AGAST)進(jìn)行特征點(diǎn)提取,并提出特征點(diǎn)加速檢測策略,提高了特征點(diǎn)穩(wěn)定性和檢測速度,其次利用改進(jìn)的BRIEF算法提取旋轉(zhuǎn)不變的二進(jìn)制描述子,同時(shí)提高了對噪聲的魯棒性,最后得到改進(jìn)ORB算法。結(jié)合透視變換模型對實(shí)時(shí)圖像進(jìn)行采樣得到模擬圖像集,利用改進(jìn)ORB算法對獲取的模擬圖像集和模板圖片分別提取特征點(diǎn),根據(jù)變換關(guān)系分別將模擬圖像集特征點(diǎn)映射到實(shí)時(shí)圖像上,并對實(shí)時(shí)圖片和模板圖片上的特征點(diǎn)進(jìn)行特征描述,將漢明距離作為相似度量準(zhǔn)則進(jìn)行初匹配,利用網(wǎng)格運(yùn)動(dòng)統(tǒng)計(jì)(GMS)算法在初匹配結(jié)果的基礎(chǔ)上進(jìn)行提純,達(dá)到誤點(diǎn)剔除。

        1 傳統(tǒng)ORB算法

        ORB利用加速分割測試特征(FAST)算法進(jìn)行特征提取,采用BRIEF算法形成特征點(diǎn)的二進(jìn)制描述符,利用漢明距離作為相似性度量準(zhǔn)則進(jìn)行描述符比較。算法主要步驟:

        ①特征提取:利用FAST算法進(jìn)行特征點(diǎn)提取,灰度質(zhì)心法為特征點(diǎn)提供方向。特征提取速度快實(shí)時(shí)性高,但FAST算法利用ID3進(jìn)行決策樹構(gòu)建,提取的特征點(diǎn)絕大程度上屬于局部最優(yōu)解,導(dǎo)致特征點(diǎn)的誤點(diǎn)率較高。

        ②特征點(diǎn)描述:利用BRIEF算法進(jìn)行特征點(diǎn)描述。在以特征點(diǎn)為中心的鄰域內(nèi)取n個(gè)點(diǎn)對,并進(jìn)行灰度值的比較,形成0/1二進(jìn)制描述符。同時(shí)描述子不具有旋轉(zhuǎn)不變性,因此將特征點(diǎn)主方向應(yīng)用到點(diǎn)對矩陣上得到旋轉(zhuǎn)不變矩陣,最終得到旋轉(zhuǎn)不變的二進(jìn)制描述子。該算法灰度值的比較易受噪聲影響,ORB算法通過高斯平滑可以緩解噪聲問題,但會(huì)造成較多特征所在的高頻區(qū)域信息缺失,在得到旋轉(zhuǎn)不變描述子的過程中計(jì)算復(fù)雜度較高。

        ③特征匹配:利用漢明距離作為相似性度量,同時(shí)根據(jù)最近/次近原則對二進(jìn)制描述符進(jìn)行比較判斷。漢明距離是相同位數(shù)的二進(jìn)制串中對應(yīng)位不同的數(shù)量,該數(shù)量代表二進(jìn)制描述符的相似性程度。計(jì)算機(jī)通常使用異或操作得到漢明距離。在匹配時(shí),如果兩個(gè)關(guān)鍵點(diǎn)的最短與次最短的距離比小于0.5,認(rèn)為這兩個(gè)點(diǎn)匹配成功。這種匹配方法,簡單易行,計(jì)算速度快。

        2 改進(jìn)ORB算法

        針對ORB算法的不足,本文在兩方面提出了改進(jìn),①特征提取:采用AGAST算法提取特征點(diǎn),并提出特征點(diǎn)加速檢測策略,提高了特征點(diǎn)穩(wěn)定性和檢測速度;②特征描述:采用改進(jìn)BRIEF算法進(jìn)行特征描述,使其具有旋轉(zhuǎn)不變性和更好的噪聲魯棒性。

        2.1 AGAST算法

        AGAST是在FAST算法基礎(chǔ)上改進(jìn)得到的算法,與FAST 算法使用ID3構(gòu)建決策樹不同,AGAST算法構(gòu)建最優(yōu)二叉決策樹,中心像素與周圍8個(gè)像素灰度值比較結(jié)果如式(1):

        (1)

        構(gòu)建尺度空間。設(shè)原始圖像尺度為t1(0)=1,下一尺度為為t1(i)=2i,兩個(gè)尺度空間中有一個(gè)分?jǐn)?shù)尺度空間t2(i)=2i×1.5。因此,整數(shù)層尺度空間t1(i)=2i,i=0,1,2,3,…和分?jǐn)?shù)層尺度空間t2(i)=2i×1.5,i=0,1,2,3,…構(gòu)成了本文的圖像金字塔。利用尺度空間生成不同尺度的圖像后,AGAST算法分別對不同尺度圖像進(jìn)行特征點(diǎn)檢測,同時(shí)在圖像以及各個(gè)尺度層應(yīng)用NMS(非極大值抑制)求取局部極值。

        針對圖像金字塔層與層比例為2的特性,本文提出了特征點(diǎn)加速檢測策略:利用AGAST5-8算法在較大尺度空間上進(jìn)行檢測,若檢測一點(diǎn)為特征點(diǎn),則使用AGAST9-16算法檢測較小尺度空間中該點(diǎn)對應(yīng)點(diǎn)3×3鄰域的特征點(diǎn)。如下圖為檢測模板。注:P為中心點(diǎn),AGAST5-8與FAST5-8原理一樣,中心點(diǎn)P與其周圍8個(gè)點(diǎn)比較,連續(xù)5個(gè)點(diǎn)灰度值均大于或者小于P點(diǎn)灰度值,則中心點(diǎn)P為特征點(diǎn),AGAST8-16同理。

        圖1 AGAST5-8模板(深色)與AGAST8-16模板(淺色)

        如t1(i)尺度下,利用AGAST5-8檢測到特征點(diǎn)位置(x,y),則在t1(i-1)尺度下使用AGAST9-16對x′∈{2x-1,2x,2x+1}和y′∈{2y-1,2y,2y+1}的鄰域進(jìn)行特征檢測。特征點(diǎn)加速檢測策略速度的提高由于:第一,較大尺度圖像的尺寸是較小尺度的四分之一,利用AGAST5-8檢測模板直接排除較大尺度上的平坦區(qū)域,這使得較小尺度上利用AGAST9-16模板檢測的像素?cái)?shù)量減少;第二,AGAST5-8決策樹的深度遠(yuǎn)小于AGAST9-16決策樹深度,使得AGAST5-8模板進(jìn)行預(yù)先檢測計(jì)算量較小,達(dá)到整體檢測耗時(shí)較短。

        本文采用灰度質(zhì)心法為特征點(diǎn)提供方向。特征點(diǎn)作為鄰域中心,其灰度矩:

        (2)

        式中:I(x,y)表示特征點(diǎn)(x,y)處的灰度值,q,p代表灰度矩的階數(shù)。因此灰度矩心:

        (3)

        θ=arctan[2(m01,m10)]

        (4)

        2.2 改進(jìn)BRIEF描述算法

        BRIEF描述算法不具有旋轉(zhuǎn)不變性并易受噪聲影響。ORB算法雖然根據(jù)高斯分布,在特征點(diǎn)鄰域隨機(jī)選擇5×5的窗口,并進(jìn)行平滑處理得到灰度積分,使用窗口的比較來代替像素點(diǎn)對的比較,同時(shí)將特征點(diǎn)的主方向應(yīng)用于描述子上。但高斯造成了特征區(qū)域信息的缺失,借助特征點(diǎn)主方向?qū)γ恳粋€(gè)特征點(diǎn)對矩陣進(jìn)行旋轉(zhuǎn),造成計(jì)算量增加。

        針對以上不足,本文提出改進(jìn)BRIEF算法,以特征點(diǎn)為中心的15×15鄰域?yàn)樘卣髅枋鰠^(qū)域,在鄰域內(nèi)利用3×3的模板進(jìn)行取點(diǎn),共取25個(gè)點(diǎn),點(diǎn)集P={p,p1,p2,…,p24},其中p為中心特征點(diǎn),pi,i=1,2,…,24為鄰域內(nèi)描述子點(diǎn)。如圖2所示。借鑒LOOP[13]思想,本文分別以中心特征點(diǎn)和各個(gè)描述子點(diǎn)為中心,對各個(gè)點(diǎn)3×3的鄰域內(nèi)進(jìn)行式(5)計(jì)算,得到每個(gè)小區(qū)域的二進(jìn)制描述符。這種取點(diǎn)方式在計(jì)算復(fù)雜程度上要低于傳統(tǒng)BRIEF隨機(jī)取點(diǎn)方式,25個(gè)點(diǎn)的數(shù)目相比256組點(diǎn)對更是快速,同時(shí)每個(gè)點(diǎn)的3×3鄰域組成的特征描述符涵蓋了特征區(qū)域15×15的全部像素點(diǎn),降低了信息冗余。

        圖2 描述子點(diǎn)分布圖

        (5)

        如圖3(a)所示,對pi利用式(5)計(jì)算,旋轉(zhuǎn)前后的二進(jìn)制描述符存在差異,這對于圖像出現(xiàn)旋轉(zhuǎn)時(shí)導(dǎo)致匹配精度大幅下降。圖3(b)所展示為改進(jìn)后的算法,如式(6),旋轉(zhuǎn)前后的二進(jìn)制描述符不變。

        (6)

        式中:KIn為在pi鄰域中In在中心點(diǎn)pi周圍8個(gè)像素中的灰度值排序。在進(jìn)行灰度值比較前,先對8個(gè)像素灰度值進(jìn)行由小到大排序得到集合K,每個(gè)灰度值與平均灰度比較時(shí),其位置權(quán)重為該像素在集合K中的位置,而不是簡單的順時(shí)針排序分配權(quán)重。這樣保證了當(dāng)區(qū)域發(fā)生旋轉(zhuǎn)變化時(shí)其像素灰度值的排序不受旋轉(zhuǎn)變換的影響,從而使得pi區(qū)域的二進(jìn)制描述子不變,具有旋轉(zhuǎn)不變性。

        中心特征點(diǎn)p的15×15鄰域取點(diǎn)集合為P={p,p1,p2,…,p24},分別中心特征點(diǎn)p和各個(gè)描述子點(diǎn)pi進(jìn)行式(6)運(yùn)算得到每個(gè)區(qū)域的二進(jìn)制描述,并按點(diǎn)集順序?qū)⒚枋龇唇有纬商卣鼽c(diǎn)p的特征描述符。每個(gè)小區(qū)域的描述符具有不變性,所以得到的特征點(diǎn)描述符具有旋轉(zhuǎn)不變性。每個(gè)特征區(qū)域取點(diǎn)25個(gè),形成25 byte的特征描述符。相比傳統(tǒng)BRIEF算法得到的32 byte,在形式上更簡潔,計(jì)算復(fù)雜度更低。

        3 基于透視變換模型和GMS的改進(jìn)ORB算法

        為了具有抗視角變換能力和匹配精度更高,本文構(gòu)建透視變換模型模擬相機(jī)視角變換,同時(shí)初匹配之后利用GMS算法進(jìn)行精匹配,達(dá)到誤匹配點(diǎn)的剔除。

        3.1 建立透視變換模型

        本文搭建透視變換模型,使ORB算法具有抗視角變換能力。

        根據(jù)針孔相機(jī)成像原理可知,輸入圖像中a點(diǎn)和模擬圖像a′點(diǎn)存在如下關(guān)系。

        (7)

        式中:K、R和t分別代表固有矩陣(根據(jù)相機(jī)參數(shù)獲取)、旋轉(zhuǎn)矩陣和平移矩陣(根據(jù)模擬相機(jī)在世界坐標(biāo)系位置得知)。旋轉(zhuǎn)矩陣是根據(jù)模擬相機(jī)的坐標(biāo)系相對于世界坐標(biāo)系計(jì)算得到的,并且式(7)中取旋轉(zhuǎn)矩陣的前兩列。H為單應(yīng)性矩陣,反映了輸入圖像與模擬圖像的映射關(guān)系。

        建立坐標(biāo)系,如圖4,透視相機(jī)模型的具體幾何說明。

        圖4 相機(jī)模型幾何說明

        相機(jī)光軸Z′繞Z軸逆時(shí)針轉(zhuǎn)動(dòng),角度取γ,其在平面XOZ投影與Z軸夾角為θ,同時(shí)與平面XOZ的夾角為φ,相機(jī)到世界坐標(biāo)系原點(diǎn)距離為r。因此,式(7)中的平移矩陣可由相機(jī)在世界坐標(biāo)系的位置表示T=[rcosφsinθrsinφrcosφcosθ]T。旋轉(zhuǎn)矩陣由于相機(jī)光軸總是對準(zhǔn)世界坐標(biāo)系的原點(diǎn)并且是由3個(gè)方向的旋轉(zhuǎn)矩陣構(gòu)成,可表示為:

        (8)

        3.2 GMS算法的誤點(diǎn)剔除

        基于網(wǎng)格的運(yùn)動(dòng)統(tǒng)計(jì)[14](GMS算法)是一種將運(yùn)動(dòng)平滑度封裝為區(qū)域內(nèi)匹配點(diǎn)數(shù)目,通過閾值比較區(qū)分匹配正確與否的算法,從而獲取正確匹配,消除錯(cuò)誤匹配。

        初匹配后得到模板圖像I1到實(shí)時(shí)圖像I2的匹配點(diǎn)集X,Si為匹配點(diǎn)xi∈X周圍鄰域中匹配得分以及分布情況。

        (9)

        式中:|Xakbk|為匹配點(diǎn)對對應(yīng)領(lǐng)域區(qū)域中匹配點(diǎn)個(gè)數(shù)。K為不相交區(qū)域的個(gè)數(shù),使得算法具有多鄰域泛化能力。Si分布屬于二項(xiàng)分布,n為匹配點(diǎn)鄰域特征點(diǎn)個(gè)數(shù),pt和pf分別為正確匹配概率與錯(cuò)誤概率。mt、mf、st和sf分別為xi為正確/錯(cuò)誤匹配點(diǎn)下Si的均值和標(biāo)準(zhǔn)差。如此得出其分布圖,并基于閾值τ劃分。

        圖5 Si分布圖

        為了實(shí)現(xiàn)具體計(jì)算和降低復(fù)雜度,GMS算法將輸入的兩圖像各自分為不重疊的20×20網(wǎng)絡(luò)。原來計(jì)算每個(gè)特征匹配點(diǎn)鄰域Si得分的復(fù)雜度O(N),N點(diǎn)集X的數(shù)目,通過計(jì)算網(wǎng)格對的匹配分?jǐn)?shù)Sij,如式(10),只計(jì)算一次,使復(fù)雜度為O(1),大大提高了算法的執(zhí)行效率。

        (10)

        式中:|Xikjk|為兩圖像網(wǎng)格對的匹配點(diǎn)數(shù)目,K為9,Sij為將網(wǎng)格i和j及各自周圍的8個(gè)區(qū)域分別計(jì)算并求和得到。

        (11)

        a=6,ni為K=9個(gè)區(qū)域的特征點(diǎn)平均值。因此通過Sij與τi比較得出正確匹配網(wǎng)格對。

        3.3 算法實(shí)現(xiàn)步驟

        Step 1 輸入模板圖像I1和實(shí)時(shí)圖像I2;

        Step 2 利用搭建的透視變換模型對實(shí)時(shí)圖像進(jìn)行變換,得到模擬圖像集合;

        Step 3 利用改進(jìn)的ORB算法對I1和模擬圖像集中的圖像分別進(jìn)行特征點(diǎn)檢測,并根據(jù)映射關(guān)系,將檢測到模擬圖像集的特征點(diǎn)映射到I2上;

        Step 4 利用改進(jìn)的ORB算法對兩圖像上特征點(diǎn)進(jìn)行特征描述;

        Step 5 利用漢明距離作為相似度量準(zhǔn)則進(jìn)行初匹配;

        Step 6 將初匹配后的兩個(gè)圖像分別劃分20×20的網(wǎng)絡(luò);

        Step 7 對I1上的i網(wǎng)格在I2上匹配到使Xij數(shù)最大的j,i,,j∈[1,20×20];

        Step 8 計(jì)算Sij和τi;

        Step 9 比較Sij與τi,如果Sij大于τi,則XT=XT∪Xij,i+=1,返回step 7;否則,j+=1,返回step 7;

        Step 10 得到正確匹配點(diǎn)集XT,輸出匹配圖像。

        4 實(shí)驗(yàn)分析

        為了驗(yàn)證所提出的算法的有效性,本文將對AORB[6]、PORB[7]和本文所提算法分別從尺度和旋轉(zhuǎn)不變性、抗視角變換性和運(yùn)行耗時(shí)三方面進(jìn)行實(shí)驗(yàn)。硬件環(huán)境:Intel(R)Core(TM)i7,CPU 2.80 GHz,RAM:8GB;軟件環(huán)境:Window7操作系統(tǒng),VS2010和OpenCV2.4.9。實(shí)驗(yàn)數(shù)據(jù)采用Mikolajczyk標(biāo)準(zhǔn)數(shù)據(jù)集和MorelYu數(shù)據(jù)集中存在尺度、旋轉(zhuǎn)和視角變換的圖像集。評價(jià)標(biāo)準(zhǔn)為匹配精度,即(匹配正確點(diǎn)數(shù)/匹配點(diǎn)總數(shù))*100%。匹配正確點(diǎn)數(shù)和總點(diǎn)數(shù)由隨機(jī)抽取一致性算法(RANSAC)獲取,該算法從OpenCV函數(shù)庫中直接調(diào)取,閾值2,置信度0.99。

        4.1 尺度和旋轉(zhuǎn)不變性對比實(shí)驗(yàn)

        對于尺度和旋轉(zhuǎn)對比實(shí)驗(yàn)圖像集采用Boat圖像集,共6幅圖像,如圖6所示。采用匹配精度曲線圖作為尺度和旋轉(zhuǎn)不變性實(shí)驗(yàn)的評價(jià)標(biāo)準(zhǔn)。

        圖6 尺度旋轉(zhuǎn)實(shí)驗(yàn)

        由圖6可知,在相同尺度旋轉(zhuǎn)變化情況下,本文算法的匹配精度高于AORB和PORB算法,這是因?yàn)楸疚乃惴ㄊ褂肁GAST算法提取的特征點(diǎn)相比于AORB和PORB中FAST算法提取的特征點(diǎn)具有更強(qiáng)的穩(wěn)定性兼具尺度不變性,同時(shí)改進(jìn)的BRIEF算法對特征點(diǎn)鄰域取點(diǎn)分別得到旋轉(zhuǎn)不變的二進(jìn)制描述子并且降低了局部區(qū)域?qū)υ肼暤拿舾行?使得整個(gè)特征點(diǎn)描述子具有更強(qiáng)的旋轉(zhuǎn)不變性和對噪聲的魯棒性。同時(shí)本文構(gòu)建了尺度空間,加強(qiáng)了本文算法在尺度變換的匹配能力。因此,本文算法提高了尺度和旋轉(zhuǎn)不變性能力。

        4.2 抗視角變換對比試驗(yàn)

        對于抗視角變換對比實(shí)驗(yàn)圖像集分別采用:緯度是唯一變量,視角逐漸增大的Graffiti圖像組,共6幅;只改變緯度,圖像尺度不變的Magazine-zoomx4、painting-zoomx1和painting-zoomx10圖像集,分別為9幅、5幅和5幅;緯度不變,只改變經(jīng)度的Magazine-t2圖像集,共10幅。采用匹配精度作為抗視角變換對比試驗(yàn)的評價(jià)標(biāo)準(zhǔn)。圖7為本實(shí)驗(yàn)結(jié)果,其中的柱狀圖縱坐標(biāo)為正確匹配點(diǎn)的數(shù)量,折線圖分別為各組實(shí)驗(yàn)中圖像匹配精度的變換曲線。

        圖7 抗視角變換實(shí)驗(yàn)

        從不同組別的柱狀圖和曲線圖可知,本文算法得到的正確匹配點(diǎn)數(shù)目高于AORB和PORB。由精度曲線數(shù)據(jù)計(jì)算5組數(shù)據(jù)的平均匹配精度,本文算法89.11%均高于AORB的73.77%和PORB的84.53%。

        本文算法利用透視變換模型進(jìn)行圖像模擬,在視角模擬上要優(yōu)于AORB使用的仿射變換模型,從而使得本文算法在抗視角變換能力上高于AORB算法。相比同樣使用透視變換的PORB算法,本文算法提出改進(jìn)的ORB利用AGAST進(jìn)行特征點(diǎn)檢測,比傳統(tǒng)ORB檢測到的特征點(diǎn)具有更多的數(shù)量和更強(qiáng)的穩(wěn)定性,同時(shí)改進(jìn)的BRIEF算法充分利用了特征點(diǎn)區(qū)域的信息,增強(qiáng)了描述子的穩(wěn)定性和對噪聲的魯棒性,使得的匹配點(diǎn)數(shù)目更多,經(jīng)過GMS精確匹配保留了更多的正確匹配點(diǎn)。PORB算法使用傳統(tǒng)的ORB算法得到匹配點(diǎn)對,但誤點(diǎn)率高和點(diǎn)對中存在過多的誤匹配點(diǎn),雖然利用RANSAC計(jì)算圖像間的單應(yīng)矩陣彌補(bǔ)了圖像模擬帶來的誤差和去除誤匹配點(diǎn),但使得最終得到的正確匹配點(diǎn)對和匹配精度均要低于本文算法。因此,本文算法相比于AORB和PORB,具有更好的抗視角變換能力和更高的匹配精度。

        為了驗(yàn)證本文算法的有效性,取手機(jī)拍攝的兩張現(xiàn)實(shí)生活中圖片進(jìn)行驗(yàn)證,如圖8展示。匹配正確點(diǎn)數(shù)目分別為284和376,匹配精度為91.63%和95.48%。

        圖8 數(shù)據(jù)及本文算法匹配結(jié)果

        4.3 運(yùn)行耗時(shí)對比試驗(yàn)

        運(yùn)行耗時(shí)對比實(shí)驗(yàn)數(shù)據(jù)是前兩節(jié)實(shí)驗(yàn)中每組實(shí)驗(yàn)耗時(shí)計(jì)算的平均時(shí)間。

        由表2可知,本文算法的運(yùn)行耗時(shí)均小于AORB和PORB算法,平均耗時(shí)較兩種算法分別提高了9.70 s和4.73 s。與PORB相比,兩算法雖然都采用透視變換模型和使用傳統(tǒng)的圖像匹配流程,但本文對ORB提出了改進(jìn),AGAST算法本身在提取特征點(diǎn)速度上快于FAST算法,并且本文提出了特征點(diǎn)加速檢測策略,進(jìn)一步提升了檢測效率。改進(jìn)的BRIEF算法,降低了描述子的信息冗余,并且描述子為25 byte,較32 byte的PORB描述符更簡潔,特征匹配更快。使用GMS算法進(jìn)行誤點(diǎn)的剔除,該算法,通過計(jì)算特征點(diǎn)鄰域的得分,來判斷是否為正確點(diǎn),并且通過采用網(wǎng)格劃分模式進(jìn)行算法的加速,使算法復(fù)雜度為O(1)。相比PORB使用復(fù)雜度較高的RANSAC進(jìn)行誤點(diǎn)剔除,效率上得到了大大的提升。AORB采用仿射變換模型,使用傳統(tǒng)ORB進(jìn)行特征匹配,利用極限約束進(jìn)行精確匹配,但是該算法對輸入的兩張圖像分別進(jìn)行采樣并匹配,大大增加了圖像數(shù)量,致使運(yùn)行耗時(shí)嚴(yán)重高于本文算法。因此相比于AORB和PORB,本文算法運(yùn)行耗時(shí)短,實(shí)時(shí)性高的特點(diǎn)。

        表2 運(yùn)行時(shí)間對比

        5 結(jié)論

        針對ORB圖像匹配算法誤點(diǎn)率高、像素點(diǎn)對對比易受噪聲影響同時(shí)抗視角變換能力較弱。本文提出一種基于改進(jìn)ORB抗視角變換的快速圖像匹配算法。該算法在ORB算法的架構(gòu)下利用AGAST算法進(jìn)行特征提取,并提出特征點(diǎn)加速檢測策略,利用改進(jìn)的BRIEF算法進(jìn)行特征點(diǎn)的描述,同時(shí)結(jié)合透視變換模型對圖像進(jìn)行透視采樣和漢明距離作為相似度量準(zhǔn)則進(jìn)行圖像匹配,最后利用GMS算法去除誤匹配點(diǎn)。通過與AORB和PORB算法實(shí)驗(yàn)對比,本文算法在擁有較強(qiáng)尺度旋轉(zhuǎn)不變性和抗視角變換能力的同時(shí),具有更高的匹配精度和更好的實(shí)時(shí)性。下一步主要將算法融入機(jī)器人視覺系統(tǒng)和深入研究探討工程應(yīng)用價(jià)值。

        猜你喜歡
        描述符二進(jìn)制鄰域
        基于結(jié)構(gòu)信息的異源遙感圖像局部特征描述符研究
        用二進(jìn)制解一道高中數(shù)學(xué)聯(lián)賽數(shù)論題
        稀疏圖平方圖的染色數(shù)上界
        有趣的進(jìn)度
        二進(jìn)制在競賽題中的應(yīng)用
        基于鄰域競賽的多目標(biāo)優(yōu)化算法
        Linux單線程并發(fā)服務(wù)器探索
        利用CNN的無人機(jī)遙感影像特征描述符學(xué)習(xí)
        關(guān)于-型鄰域空間
        基于時(shí)序擴(kuò)展的鄰域保持嵌入算法及其在故障檢測中的應(yīng)用
        亚洲永久精品日韩成人av| 国产精品久久一区二区三区| 国产无遮挡a片又黄又爽| 中文AV怡红院| 亚洲av有码精品天堂| 日本成人中文字幕亚洲一区| 国产一区二区三区激情视频| 中国午夜伦理片| 免费无码黄动漫在线观看| 国产AV无码专区亚洲AV桃花庵| 亚洲精品国产熟女久久| 国产欧美日韩视频一区二区三区| 亚洲欧美成人中文在线网站| 日韩乱码精品中文字幕不卡| 亚洲一区第二区三区四区| 亚洲av无码一区东京热久久| 国产成人精品一区二区不卡| 亚洲国产成人AV人片久久网站| 欧美国产亚洲精品成人a v| 国产黄片一区视频在线观看| 精品中文字幕日本久久久| 99精品人妻少妇一区二区三区 | 日本成人中文字幕亚洲一区 | 日本高清中文字幕二区在线| 漂亮人妻出轨中文字幕| 国产免码va在线观看免费| 香蕉视频在线精品视频| 色噜噜狠狠色综合中文字幕| 免费看男女啪啪的视频网站 | 成人免费777777被爆出| 国产免费一级高清淫日本片| 好爽要高潮了在线观看| 蜜桃视频第一区免费观看| 免费一区二区高清不卡av| 99爱在线精品免费观看| 中文字幕一区二区三区久久网站| 在线精品日韩一区二区三区| 国内精品熟女一区二区| 日韩不卡的av二三四区| 国产乱子伦农村xxxx| 欧美人与物videos另类xxxxx|