亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于SURF-OKG特征匹配的三維重建技術(shù)

        2024-04-07 01:29:58張蕾石巖盧文雍徐睿靳展羅偉節(jié)陳義趙春柳占春連
        光學(xué)精密工程 2024年6期
        關(guān)鍵詞:三維重建像素點(diǎn)標(biāo)定

        張蕾, 石巖*, 盧文雍, 徐睿, 靳展, 羅偉節(jié),陳義, 趙春柳, 占春連

        (1.中國(guó)計(jì)量大學(xué) 光學(xué)與電子科技學(xué)院,浙江 杭州 310018;2.浙江視覺(jué)智能創(chuàng)新中心有限公司,浙江 杭州 311215;3.浙江省北大信息技術(shù)高等研究院,浙江 杭州 311215)

        1 引 言

        雙目結(jié)構(gòu)光三維重建是計(jì)算機(jī)視覺(jué)技術(shù)領(lǐng)域中的熱門發(fā)展方向,通過(guò)將特定編碼圖案投射到被測(cè)物體表面上,捕捉物體表面的幾何形狀信息,對(duì)左右圖像進(jìn)行特征點(diǎn)匹配,計(jì)算物體的深度信息,最終獲得物體的三維模型。在雙目結(jié)構(gòu)光三維重建過(guò)程中,特征點(diǎn)匹配對(duì)三維重建的結(jié)果至關(guān)重要[1]。

        近年來(lái),很多研究針對(duì)匹配精度對(duì)特征點(diǎn)匹配算法進(jìn)行改進(jìn)。2004年,D.G.Lowe提出了尺度不變特征變換[2](Scale Invariant Feature Transform,SIFT),該算法建立了高斯差分空間并在不同尺度空間檢測(cè)極值點(diǎn)以獲取高精度特征點(diǎn),具有魯棒性、尺度不變性、旋轉(zhuǎn)不變性和光照不變性,匹配正確率一般為60%~90%之間。2006年,H.Bay和A.Ess[3]提出了加速穩(wěn)健特征(Speeded-Up Robust Feature,SURF)算法,有效保持了SIFT算法的特征點(diǎn)匹配性能,但匹配精度相比SIFT算法有所下降。2011年,E.Rublee和V.Rabaud[4]提出了一種ORB(Oriented FAST and Rotated BRIEF)特征點(diǎn)提取算法,該算法具有計(jì)算量小、速度快等特點(diǎn),但匹配精度有所下降,匹配準(zhǔn)確率為80%。2012年,Alcantarilla[5]提出了加速非線性擴(kuò)散(AKAZE)算法,是一種基于非線性的特征提取與匹配算法,該算法在光照不變性、尺度不變性等方面具有較好的性能。2017年,BianJ.[6]提出了基于網(wǎng)格的運(yùn)動(dòng)統(tǒng)計(jì)(Grid-based Motion Statistics,GMS)算法,該算法通過(guò)使用網(wǎng)格進(jìn)行快速計(jì)算,提高了特征點(diǎn)匹配的精度。2022年,劉明珠[7]實(shí)現(xiàn)了基于圖像金子塔的ORB算法,基于3階的B-spline圖像金字塔的ORB算法匹配準(zhǔn)確率為69.363%,相比傳統(tǒng)ORB算法提升了40%。張龍[8]設(shè)計(jì)了基于FLANN結(jié)合SURF算法,用KD樹(shù)快速查找特征點(diǎn),通過(guò)勞氏算法獲取最優(yōu)匹配點(diǎn)。2022年,劉慧中[9]提出了一種基于改進(jìn)GMS特征匹配算法的浮特征提取方法,采用ORB算法提取特征點(diǎn),通過(guò)GMS特征匹配算法完成特征點(diǎn)對(duì)的快速匹配,利用隨機(jī)抽樣一致算法(RANSAC)對(duì)特征匹配結(jié)果中存在的誤匹配點(diǎn)進(jìn)行剔除,該算法的匹配準(zhǔn)確率在90%以上。2023年,朱世宇[10]針對(duì)運(yùn)動(dòng)網(wǎng)格統(tǒng)計(jì)等特征匹配算法誤匹配集中出現(xiàn)等問(wèn)題,提出了一種使用改進(jìn)GMS算法結(jié)合隨機(jī)樣本一致性算法計(jì)算單應(yīng)矩陣的特征匹配算法,匹配準(zhǔn)確率為84.9%。李華[11]實(shí)現(xiàn)了一種多尺度特征匹配加強(qiáng)算法(I-AKAZE),改進(jìn)了非線性各向異性濾波過(guò)程中傳導(dǎo)函數(shù),保留了匹配圖像的邊緣特征,匹配正確率相比AKAZE算法提升了8.4%。

        傳統(tǒng)特征匹配算法在進(jìn)行特征匹配時(shí),由于圖像中的特征點(diǎn)分布不均勻,有些區(qū)域可能缺乏特征點(diǎn),導(dǎo)致無(wú)法進(jìn)行有效匹配,出現(xiàn)匹配缺失;在復(fù)雜場(chǎng)景下,存在相似的特征點(diǎn)或噪聲干擾的情況,容易導(dǎo)致匹配錯(cuò)誤;在復(fù)雜場(chǎng)景下,同一個(gè)物體上的某些特征點(diǎn)可能由于旋轉(zhuǎn)、尺度變化或視角變化而導(dǎo)致重復(fù)檢測(cè),從而產(chǎn)生匹配重復(fù)[12]。

        本文為解決傳統(tǒng)特征匹配算法存在特征點(diǎn)匹配錯(cuò)誤、匹配缺失和匹配重復(fù)等問(wèn)題,在特征點(diǎn)匹配中使用SURF算法進(jìn)行初步特征匹配,通過(guò)OKG算法進(jìn)行二次匹配,提高特征匹配的精度,最終提高三維重建點(diǎn)云精度。

        2 改進(jìn)的特征匹配算法

        本文首先基于SURF算法進(jìn)行初步特征提取,使用自適應(yīng)中值濾波結(jié)合小波變換算法對(duì)圖像進(jìn)行平滑和降噪處理,然后將構(gòu)建的尺度空間劃分成多個(gè)網(wǎng)格,在每個(gè)網(wǎng)格內(nèi)使用FAST算法提取尺度空間特征點(diǎn),使用ORB算子提取左右圖像的特征點(diǎn),用BRIEF描述子對(duì)其進(jìn)行描述,采用K-D樹(shù)最近鄰搜索法限制特征點(diǎn)選取,最后通過(guò)GMS算法剔除誤匹配點(diǎn),實(shí)現(xiàn)基于SURFOKG算法的二次特征匹配。

        2.1 改進(jìn)的SURF算法特征匹配

        加速穩(wěn)健特征算法(Speeded-Up Robust Feature,SURF)通過(guò)構(gòu)建Hessian矩陣生成感興趣的點(diǎn)進(jìn)行特征提取。傳統(tǒng)SURF算法中的Hessian矩陣采用高斯濾波對(duì)圖像進(jìn)行平滑處理以實(shí)現(xiàn)尺度空間的構(gòu)建,但高斯濾波是基于正態(tài)分布的平滑核函數(shù),其平滑操作會(huì)導(dǎo)致圖像中的像素值相互影響,對(duì)細(xì)節(jié)信息的保留程度有限,模糊了邊緣和細(xì)節(jié)特征,最終導(dǎo)致特征匹配結(jié)果的誤差。因此本文對(duì)SURF算法進(jìn)行改進(jìn),利用自適應(yīng)中值濾波結(jié)合小波變換來(lái)代替高斯濾波進(jìn)行圖像的平滑處理,自適應(yīng)中值濾波能夠有效地去除圖像中的噪聲,而小波變換可以更好地保留圖像的邊緣信息和細(xì)節(jié)信息,兩者結(jié)合可以在構(gòu)建尺度空間的同時(shí),更好地保留圖像的邊緣和細(xì)節(jié)信息,從而實(shí)現(xiàn)更好的匹配效果。改進(jìn)的SURF算法的流程圖如圖1所示。

        圖1 SURF算法特征匹配流程圖Fig.1 Flowchart of SURF algorithm for feature matching

        2.1.1 計(jì)算積分圖像

        構(gòu)建積分圖像可以降低卷積運(yùn)算的復(fù)雜度,加快特征點(diǎn)檢測(cè)的速度。積分圖像與原始圖像大小一致,積分圖像中的一個(gè)像素點(diǎn)(x,y)的灰度值的計(jì)算過(guò)程如式(1)所示:

        其中:I(i,j)為原始圖像中像素點(diǎn)的灰度值,I∑(x,y)為積分圖像中像素點(diǎn)(x,y)的灰度值。

        2.1.2 Hessian矩陣檢測(cè)特征點(diǎn)

        SURF算法利用Hessian矩陣實(shí)現(xiàn)圖像特征點(diǎn)的檢測(cè)。Hessian矩陣由高斯函數(shù)的二階微分組成,二元高斯函數(shù)G(x,y,σ)如式(2)所示:

        Hessian矩陣的計(jì)算類似于SIFT算法中的高斯卷積過(guò)程,通常被用來(lái)求極值問(wèn)題。關(guān)鍵點(diǎn)位置由Hessian矩陣來(lái)確定,圖像中像素點(diǎn)f(x,y)的Hessian矩陣[13]為:

        其中:σ為尺度空間因子,Lxx(x,y,σ),Lxy(x,y,σ),Lyy(x,y,σ)為高斯函數(shù)在點(diǎn)(x,y)處的二階導(dǎo)數(shù)。計(jì)算得到近似的Hessian矩陣行列式,如式(4)所示:

        式中,h是為了平衡因近似帶來(lái)的誤差而設(shè)置的權(quán)重系數(shù)。

        2.1.3 構(gòu)建尺度空間

        本文使用自適應(yīng)中值濾波結(jié)合小波變換對(duì)同一幅圖像進(jìn)行卷積來(lái)構(gòu)造尺度空間。首先對(duì)輸入圖像進(jìn)行小波變換,得到小波系數(shù)W(x,y)如式(5)所示:

        其中:W(x,y)表示小波系數(shù),S(j,k)表示小波變換后圖像在不同尺度和位置上的分量,ψx,y(j,k)表示在不同尺度和位置上的小波基函數(shù)。

        對(duì)小波系數(shù)圖像進(jìn)行自適應(yīng)中值濾波。中值濾波通過(guò)計(jì)算鄰近像素內(nèi)的中值,實(shí)現(xiàn)圖像的平滑降噪,而自適應(yīng)中值濾波通過(guò)比較像素點(diǎn)周圍鄰域內(nèi)的灰度值,選擇性地對(duì)該像素點(diǎn)進(jìn)行濾波處理。將濾波窗口移動(dòng)到每個(gè)像素的位置上,在每個(gè)濾波窗口范圍內(nèi),計(jì)算當(dāng)前窗口內(nèi)所有像素值灰度值的最大值和最小值,并計(jì)算它們之間的差值(脈沖響應(yīng)值)。如果計(jì)算得到的差值小于閾值T,則該像素點(diǎn)的灰度值跳過(guò)濾波處理;否則,該窗口的尺寸將增加1,并且該像素點(diǎn)的灰度值將重新計(jì)算為新窗口內(nèi)像素的中值,自適應(yīng)中值濾波器如圖2所示。

        圖2 自適應(yīng)中值濾波器Fig.2 Adaptive median filter

        脈沖響應(yīng)會(huì)引起圖像中的局部突變,破壞圖像的平滑性和連續(xù)性。通過(guò)消除脈沖響應(yīng),可以使圖像的灰度分布更加均勻和連續(xù),減少噪聲的影響,增強(qiáng)圖像的細(xì)節(jié)和邊緣特征。如果擴(kuò)展后的窗口大小達(dá)到了預(yù)設(shè)的最大窗口大小,但仍然無(wú)法消除脈沖響應(yīng),則該像素點(diǎn)的灰度值將被替換為該窗口內(nèi)所有像素的中值。對(duì)原始圖像I(x,y)中的每個(gè)像素點(diǎn)采用中值濾波進(jìn)行平滑處理,得到平滑后的圖像S(x,y),如式(6)所示:

        其中:Med表示中值函數(shù),計(jì)算窗口W內(nèi)像素值的中值,(x,y)表示圖像中的像素坐標(biāo),其中x和y分別代表水平和垂直方向上的位置。(k,l)表示相對(duì)于中心像素(x,y)的偏移坐標(biāo),用于遍歷窗口W內(nèi)的像素,表示(k,l)的取值范圍,即窗口W內(nèi)的像素。

        2.1.4 定位特征點(diǎn)

        通過(guò)比較像素點(diǎn)與其三維領(lǐng)域內(nèi)的26個(gè)像素點(diǎn)的圖像響應(yīng)值的大小,來(lái)確定中心像素是否為局部極值點(diǎn),進(jìn)而識(shí)別特征點(diǎn)。這些像素點(diǎn)的響應(yīng)值包括像素灰度值和梯度響應(yīng)像素灰度值是通過(guò)比較中心像素與其周圍像素的灰度值來(lái)確定圖像的局部特征,梯度響應(yīng)是指灰度值的梯度或?qū)?shù),通過(guò)比較梯度響應(yīng)值來(lái)檢測(cè)圖像的角點(diǎn)或邊緣等局部特征,如圖3所示。

        圖3 尺度空間極值點(diǎn)檢測(cè)Fig.3 Scale space extremum detection

        2.1.5 確定特征點(diǎn)主方向

        對(duì)特征點(diǎn)領(lǐng)域內(nèi)的Harr小波的特征進(jìn)行統(tǒng)計(jì),特征點(diǎn)的唯一主方向?yàn)閳A形領(lǐng)域內(nèi)模值最大的扇形指向。

        2.1.6 構(gòu)造特征描述子

        在特征點(diǎn)周圍取一個(gè)正方形框,生成特征描述子時(shí)將其分割成16個(gè)子區(qū)域,每個(gè)子區(qū)域?yàn)?5個(gè)采樣點(diǎn)。

        SURF算法進(jìn)行初步特征匹配的結(jié)果如圖4所示。

        圖4 SURF算法特征點(diǎn)匹配結(jié)果Fig.4 Result of feature point matching using the SURF algorithm

        SURF算法進(jìn)行初步特征匹配的數(shù)據(jù)結(jié)果如表1所示。首先,使用改進(jìn)后的SURF算法對(duì)圖像進(jìn)行特征點(diǎn)提取和匹配,生成特征點(diǎn)和它們的匹配對(duì),得到匹配總數(shù)為75,相比傳統(tǒng)SURF算法匹配到的總數(shù)更多。在特征匹配過(guò)程中由于圖像噪聲等影響會(huì)產(chǎn)生誤差匹配點(diǎn),我們通過(guò)設(shè)定距離閾值來(lái)區(qū)分誤差匹配點(diǎn)和正確匹配點(diǎn),只有在閾值范圍內(nèi)的匹配點(diǎn)被認(rèn)為是正確匹配點(diǎn),如式(7)所示:

        表1 SURF算法初步特征匹配結(jié)果Tab.1 Preliminary feature matching results of the SURF algorithm

        其中:ρ是歐式距離,Ai是表示特征點(diǎn)A的描述子向量的第i個(gè)分量,Bi是表示特征點(diǎn)B的描述子向量的第i個(gè)分量。

        本文設(shè)定的閾值為0.85,最終得到正確匹配數(shù)為57,計(jì)算得到的正確匹配率為75.65%,正確匹配率相比傳統(tǒng)SURF算法提升了7.64%。本文通過(guò)自適應(yīng)中值濾波結(jié)合小波變換方法,有效地去除了圖像中的噪聲,提高特征點(diǎn)的準(zhǔn)確性,減少誤匹配點(diǎn)的存在,最終提高正確匹配數(shù)。

        2.2 基于OKG算法的二次匹配

        在雙目立體匹配過(guò)程中,拍攝的圖像具有紋路相似和周期性結(jié)構(gòu)等特點(diǎn),只使用SURF算法會(huì)提取到大量密集且相似的特征點(diǎn),最終導(dǎo)致特征點(diǎn)匹配的正確匹配率較低。圖像中的特征點(diǎn)相似度較高,而ORB(Oriented FAST and Rotated BRIEF)算子具有高速度和低計(jì)算成本等特點(diǎn),并且具有旋轉(zhuǎn)不變性,可以提高特征點(diǎn)匹配的準(zhǔn)確性,因此可以使用具有非線性性質(zhì)的ORB算子進(jìn)行特征提取[12]。針對(duì)上述問(wèn)題,本文提出一種OKG算法進(jìn)行二次特征點(diǎn)匹配,能夠有效剔除錯(cuò)誤匹配點(diǎn),提高特征點(diǎn)匹配精度。SURFOKG算法流程如圖5所示。

        圖5 SURF-OKG匹配算法流程圖Fig.5 SURF-OKG matching algorithm flow chart

        ORB算子進(jìn)行特征提取過(guò)程中,首先使用FAST算法檢測(cè)出圖像中的角點(diǎn),計(jì)算角點(diǎn)的主方向,以保證特征點(diǎn)具有旋轉(zhuǎn)不變性,在特征點(diǎn)周圍的區(qū)域內(nèi),計(jì)算BRIEF描述子,對(duì)所有特征點(diǎn)進(jìn)行BRIEF描述子計(jì)算,生成ORB特征向量,用于后續(xù)的特征匹配,F(xiàn)AST角點(diǎn)檢測(cè)效果如圖6所示。

        圖6 FAST角點(diǎn)檢測(cè)效果Fig.6 FAST corner detection effect

        網(wǎng)格運(yùn)動(dòng)統(tǒng)計(jì)算法(Grid-based Motion Statistics,GMS)[14]可以表達(dá)一個(gè)圖像區(qū)域內(nèi)擁有一定數(shù)量匹配特征。在堆垛圖像正確的匹配點(diǎn)對(duì)周圍還會(huì)存在更多的正確匹配點(diǎn),錯(cuò)誤的匹配點(diǎn)對(duì)周圍幾乎不存在正確的匹配點(diǎn)對(duì),根據(jù)該思想通過(guò)統(tǒng)計(jì)鄰域的匹配點(diǎn)數(shù)量,從而能夠判斷一個(gè)匹配正確與否,這樣就可用來(lái)剔除圖像內(nèi)的誤匹配點(diǎn)對(duì)。

        領(lǐng)域特征點(diǎn)支持量的表達(dá)式為:

        每個(gè)特征點(diǎn)的匹配是獨(dú)立的,則近似認(rèn)為Si是服從二項(xiàng)分布的:

        其中:Si為領(lǐng)域特征點(diǎn)支持量,xi為特征點(diǎn),Kn為左、右圖像區(qū)域內(nèi)特征點(diǎn)的個(gè)數(shù),Pt為左圖像區(qū)域中匹配正確的特征點(diǎn)匹配到右圖像區(qū)域的概率,Pf為左圖像區(qū)域中匹配錯(cuò)誤的特征點(diǎn)匹配到右圖像區(qū)域的概率,T為正確匹配點(diǎn)的集合,F(xiàn)為錯(cuò)誤匹配點(diǎn)的集合。

        正確匹配和錯(cuò)誤匹配的均值和標(biāo)準(zhǔn)差分別為:

        其中:mt為正確匹配的均值,mf為錯(cuò)誤匹配的均值,st為正確匹配的標(biāo)準(zhǔn)差,sf為錯(cuò)誤匹配的標(biāo)準(zhǔn)差。

        設(shè)置一個(gè)判斷系數(shù)ρ=(mt-mf)/(st+sf),ρ越大代表可以越好的區(qū)分正確匹配的點(diǎn)和錯(cuò)誤的點(diǎn)。在每個(gè)網(wǎng)格中,區(qū)別正確和錯(cuò)誤匹配的鄰域特征點(diǎn)的支持?jǐn)?shù)量閾值為:

        其中:τi表示閾值,α表示為一個(gè)可調(diào)值的參數(shù),用于控制閾值的大小,nL表示與問(wèn)題相關(guān)的特征點(diǎn)總數(shù)量。

        將待匹配的圖像網(wǎng)格中鄰域特征點(diǎn)支持量大于τi的匹配點(diǎn)對(duì)保留,小于τi的匹配點(diǎn)對(duì)剔除,利用GMS算法實(shí)現(xiàn)了對(duì)正確匹配點(diǎn)對(duì)的提取。

        針對(duì)不同圖像的紋理信息不同,容易造成特征點(diǎn)疏密不均勻的情況,影響最終的匹配結(jié)果。為此本文使用低時(shí)間復(fù)雜度的K-D樹(shù)最近鄰搜索法限制特征點(diǎn)的選取,作為待匹配數(shù)據(jù)集。

        K-D樹(shù)[15]本質(zhì)是一種二叉樹(shù),能夠在樹(shù)中存儲(chǔ)n維數(shù)據(jù)。通過(guò)在數(shù)據(jù)集合上構(gòu)建一個(gè)K-D樹(shù),實(shí)現(xiàn)對(duì)圖像空間的劃分,即將K-D樹(shù)中的任意非葉節(jié)點(diǎn)對(duì)應(yīng)到一個(gè)超矩形區(qū)域上,最終對(duì)圖像空間的點(diǎn)進(jìn)行劃分,使得子空間所包含的數(shù)據(jù)量大致相等,如圖7所示。

        圖7 K-D樹(shù)示意圖Fig.7 Illustration of a K-D tree

        假設(shè)待匹配的兩幅圖像為k1和k2,兩者對(duì)應(yīng)的特征點(diǎn)集合用O1和O2表示。首先將特征點(diǎn)集合O1中的特征點(diǎn)K-D樹(shù)的結(jié)構(gòu)進(jìn)行劃分,將該結(jié)構(gòu)定義為X1,根節(jié)點(diǎn)為Xn。將k2中的特征點(diǎn)集合O2的所有特征點(diǎn)的第K維與X1中的根節(jié)點(diǎn)Xn進(jìn)行比較分析,若結(jié)果為不小于Xn,則將其繼續(xù)與X1的右子樹(shù)進(jìn)行比較,搜索繼續(xù)到葉節(jié)點(diǎn)為止。將特征點(diǎn)與待匹配特征點(diǎn)進(jìn)行比較,確定其與待匹配特征點(diǎn)的歐氏距離最近節(jié)點(diǎn)以及次近距節(jié)點(diǎn)。最后通過(guò)GMS算法剔除圖像中的誤匹配點(diǎn),使匹配結(jié)果更加精準(zhǔn)。SURF-OKG算法匹配結(jié)果如圖8所示。

        圖8 SURF-OKG算法匹配結(jié)果Fig.8 Matching results of the SURF-OKG algorithm

        SURF-OKG算法進(jìn)行二次特征匹配后的數(shù)據(jù)結(jié)果如表2所示,匹配總數(shù)為202,正確匹配數(shù)為185,正確匹配率相比SURF算法有明顯提高,為91.58%。

        表2 SURF-OKG算法二次特征匹配結(jié)果Tab.2 Secondary feature matching results of the SURFOKG algorithm

        2.3 特征匹配實(shí)驗(yàn)

        在特征點(diǎn)匹配過(guò)程中,計(jì)算每個(gè)參考圖像的特征點(diǎn)與目標(biāo)圖像的特征點(diǎn)之間的最近鄰距離和次近鄰距離,并將它們的比值與設(shè)定的“最近距臨距離比”閾值進(jìn)行比較,如果最近鄰距離和次近鄰距離的比值不超過(guò)閾值,則可認(rèn)為這兩個(gè)特征點(diǎn)是匹配的。通過(guò)調(diào)整閾值,來(lái)分析對(duì)應(yīng)的特征點(diǎn)匹配結(jié)果。將閾值做歸一化處理,分析不同閾值情況下的特征匹配結(jié)果,如圖9所示。

        圖9 不同閾值對(duì)應(yīng)的匹配情況Fig.9 Matching situation corresponding to different thresholds

        通過(guò)分析圖9可知,較小的閾值對(duì)特征點(diǎn)匹配要求更為嚴(yán)格,導(dǎo)致匹配點(diǎn)數(shù)較少;較大的閾值會(huì)放寬匹配條件,但同時(shí)也增加了大量的誤匹配點(diǎn)數(shù)量。經(jīng)過(guò)試驗(yàn)發(fā)現(xiàn),但閾值為0.85時(shí),總匹配數(shù)與內(nèi)點(diǎn)匹配數(shù)最為接近,正確匹配率最高,因此本文將閾值為0.85的情況設(shè)定為閾值的最佳值。

        為驗(yàn)證本文算法的有效性,選擇合理的目標(biāo)圖像。由于教學(xué)樓的復(fù)雜結(jié)構(gòu),拍攝出的圖像具有尺度變換特征和大量重復(fù)結(jié)構(gòu)特征,這兩種特征使得圖像易出現(xiàn)誤匹配現(xiàn)象,因此本文選擇特征點(diǎn)較多且特征情況多樣的教學(xué)樓進(jìn)行試驗(yàn)。本文通過(guò)教學(xué)樓圖像來(lái)驗(yàn)證SURF-OKG算法在圖像具有尺度變換特征和大量重復(fù)結(jié)構(gòu)特征下的匹配性能。分別采用SIFT算法、ORB算法、SURF算法與本文SURF-OKG四種算法對(duì)兩張不同視角的圖像進(jìn)行特征點(diǎn)匹配,并進(jìn)行匹配效果對(duì)比,四種算法的圖像匹配效果如圖10所示。

        圖10 算法對(duì)比圖Fig.10 Algorithm comparison chart

        計(jì)算四種算法的特征點(diǎn)匹配數(shù)、正確匹配數(shù)以及正確匹配率。其中特征點(diǎn)匹配數(shù)表示在兩幅圖像中找到的特征點(diǎn)之間成功建立匹配關(guān)系的數(shù)量;正確匹配數(shù)表示在剔除誤匹配點(diǎn)后剩余的可靠匹配對(duì)的數(shù)量;正確匹配率表示正確匹配數(shù)占特征點(diǎn)匹配數(shù)的百分比。算法結(jié)果如表3所示。

        表3 不同算法的特征點(diǎn)匹配結(jié)果Tab.3 Feature point matching results of different algorithms

        由圖11的特征點(diǎn)匹配結(jié)果分析可知,當(dāng)被測(cè)圖像中具有大量尺度變換及重復(fù)結(jié)構(gòu)時(shí),由于同一目標(biāo)特征點(diǎn)分布不均勻?qū)е聜鹘y(tǒng)圖像匹配算法容易出現(xiàn)錯(cuò)誤匹配,在處理過(guò)程中容易產(chǎn)生大量的錯(cuò)誤匹配點(diǎn),而本文算法在對(duì)特征點(diǎn)進(jìn)行提取時(shí)將尺度空間進(jìn)行網(wǎng)格化處理,使得最終產(chǎn)生的錯(cuò)誤匹配點(diǎn)遠(yuǎn)少于傳統(tǒng)方法,從而有效降低錯(cuò)誤匹配;傳統(tǒng)的特征匹配算法還存在不能有效剔除大量的重復(fù)匹配點(diǎn),容易造成計(jì)算過(guò)程更為復(fù)雜,本文算法在網(wǎng)格化特征點(diǎn)篩選時(shí)應(yīng)用GMS算法可以剔除更多的錯(cuò)誤匹配點(diǎn),從而有效提高匹配精度,更有利于進(jìn)一步完成三維重建。SIFT算法在進(jìn)行關(guān)鍵點(diǎn)檢測(cè)和描述時(shí)的算法較為復(fù)雜,本文算法中的ORB采用了FAST與BRIFE算法進(jìn)行特征點(diǎn)檢測(cè)與描述,在錯(cuò)誤特征點(diǎn)篩除階段,傳統(tǒng)算法采用RANSAC算法,本文提出的SURF-OKG二次匹配算法采用K-D樹(shù)和GMS算法進(jìn)行誤匹配點(diǎn)的篩選,可以有效提高特征點(diǎn)匹配的準(zhǔn)確性。

        圖11 不同算法的正確匹配率Fig.11 Correct matching rate of different algorithms

        2.4 特征匹配對(duì)比實(shí)驗(yàn)

        基于SURF-OKG特征匹配算法進(jìn)行對(duì)比實(shí)驗(yàn)。Cui[16]等人為提高特征匹配算法的性能對(duì)SURF算法進(jìn)行改進(jìn),提出SUBE算法,本文選取文獻(xiàn)論文中所測(cè)試的Mikolajcyzk數(shù)據(jù)集下3組圖像進(jìn)行實(shí)驗(yàn),通過(guò)計(jì)算正確匹配率對(duì)4種算法的性能進(jìn)行對(duì)比實(shí)驗(yàn)分析。該數(shù)據(jù)集中每組圖片集有6幅圖片,第1幅圖為標(biāo)準(zhǔn)圖片,其余5幅圖片為待匹配圖片進(jìn)行匹配測(cè)試,本文以Bikes,Bark和Leuven圖片集中第一幅圖和第二幅圖的匹配結(jié)果為例,匹配效果如圖12~圖14所示。

        圖12 Bikes圖像的匹配結(jié)果Fig.12 Matching results for the image labeled Bikes

        圖13 Bark圖像的匹配結(jié)果Fig.13 Matching results for the image labeled Bark

        圖14 Leuven圖像的匹配結(jié)果Fig.14 Matching results for the image labeled Leuven

        通過(guò)對(duì)比匹配結(jié)果可知,ORB算法雖然提取到的匹配總數(shù)最多,但存在大量的誤匹配點(diǎn);SURF算法在Bikes圖片集中提取到的特征點(diǎn)分布較為密集,文獻(xiàn)中的SUBE算法[16]雖然可以較好的將特征點(diǎn)均勻化并剔除多余的誤差匹配點(diǎn),但同時(shí)也很明顯地減少了匹配點(diǎn)對(duì)數(shù),特征匹配結(jié)果較為稀疏;SURF-OKG算法在剔除重復(fù)點(diǎn)和誤匹配點(diǎn)的時(shí)候,能夠更好地保留正確匹配點(diǎn)對(duì)數(shù),匹配到的點(diǎn)對(duì)數(shù)相對(duì)密集和均勻。計(jì)算ORB,SIFT,SURF,SUBE和SURF-OKG這五種算法的正確匹配率,結(jié)果如圖15所示。

        圖15 Mikolajcyzk數(shù)據(jù)集圖像的匹配結(jié)果分析Fig.15 Analysis of matching results for Mikolajcyzk dataset images

        通過(guò)對(duì)數(shù)據(jù)集圖像的匹配結(jié)果進(jìn)行分析,可以發(fā)現(xiàn)本文所提的SURF-OKG算法在Bikes和Bark圖片集中的正確匹配率在總體上相比其他算法的正確匹配率更高;在Leuven圖片集中,SURF-OKG算法的正確匹配率相比ORB算法低0.6%;相比文獻(xiàn)中的SUBE算法,SURFOKG算法所得到的平均正確匹配率高0.7%。總體上來(lái)說(shuō),本文SURF-OKG算法的特征匹配性能相比文獻(xiàn)算法和傳統(tǒng)算法有明顯提升。

        3 三維重建結(jié)果與分析

        3.1 系統(tǒng)搭建

        在雙目結(jié)構(gòu)光三維重建過(guò)程中,本文采用張正友標(biāo)定法對(duì)雙目相機(jī)的參數(shù)進(jìn)行標(biāo)定。通過(guò)建立棋盤格標(biāo)定板與圖像的單應(yīng)性關(guān)系來(lái)求解相機(jī)的內(nèi)部和外部參數(shù),從而簡(jiǎn)化了標(biāo)定流程并提高了標(biāo)定精度[17]。相機(jī)標(biāo)定可獲得內(nèi)參矩陣、外參矩陣和畸變參數(shù),用于建立三維空間坐標(biāo)點(diǎn)與二維圖像像素點(diǎn)之間的映射關(guān)系。選擇3 cm棋盤格標(biāo)定板進(jìn)行標(biāo)定,標(biāo)定板陣列為8×11。通常情況下,標(biāo)定板的尺寸需要足夠大,以確保其至少覆蓋相機(jī)視場(chǎng)的1/4,但其大小不能超過(guò)相機(jī)的全部視場(chǎng),本文標(biāo)定板適用125~250 mm大小范圍的被測(cè)物體。在選擇標(biāo)定板樣式時(shí),圓環(huán)等類型的標(biāo)定板可以提供更高的精度,但它們需要更復(fù)雜的標(biāo)定算法,同時(shí)在實(shí)際應(yīng)用中可能受到環(huán)境因素的影響。因此,我們最終選擇了經(jīng)典的棋盤格標(biāo)定板進(jìn)行標(biāo)定實(shí)驗(yàn)。

        經(jīng)過(guò)標(biāo)定最終可以得到雙目相機(jī)的內(nèi)、外參數(shù),分別包括單目標(biāo)定后的內(nèi)參矩陣、外參矩陣和畸變參數(shù)。雙目相機(jī)標(biāo)定參數(shù)結(jié)果如表4所示,極線校正結(jié)果如圖16所示。

        表4 雙目相機(jī)標(biāo)定結(jié)果Tab.4 Binocular camera calibration results

        圖16 極線校正結(jié)果Fig. 16 Epipolar correction result

        為了驗(yàn)證本文算法的有效性,進(jìn)行三維重建實(shí)驗(yàn)。本文所用實(shí)驗(yàn)設(shè)備由空間光調(diào)制器以及兩個(gè)工業(yè)相機(jī)組成。實(shí)驗(yàn)中鏡頭光心到成像面的距離為545 mm,左右相機(jī)基線長(zhǎng)度為290 mm。實(shí)驗(yàn)使用的雙目相機(jī)是海康MV-CA050-10GM,相機(jī)分辨率為2 448×2 048,像元尺寸為3.45×3.45 μm,感光芯片尺寸為0.47 inch,所使用的鏡頭焦距為12 mm,鏡頭光圈大小為1/2.8。投影光機(jī)芯片選擇的是DLP4710,投影光機(jī)的分辨率為1 920×1 080,傳感器尺寸為0.47 inch,光源使用的是藍(lán)光LED(460 nm),透射比為0.75∶1,系統(tǒng)實(shí)物圖如圖17所示。

        圖17 系統(tǒng)實(shí)物圖Fig.17 System physical map

        3.2 三維重建結(jié)果分析

        根據(jù)上述SURF-OKG特征點(diǎn)匹配算法的原理,結(jié)合計(jì)算得到的雙目相機(jī)標(biāo)定參數(shù),對(duì)字母組合進(jìn)行三維重建測(cè)試,三維重建結(jié)果如圖18所示。

        圖18 三維重建結(jié)果Fig. 18 3D reconstruction results

        為進(jìn)一步測(cè)試本文算法重建效果,分別采用SIFT算法、SURF算法、ORB算法以及SURFOKG算法對(duì)待測(cè)字母進(jìn)行三維重建,得到待測(cè)字母的三維點(diǎn)云圖進(jìn)行效果對(duì)比。由圖19可知:SURF算法得到的點(diǎn)云較為稀疏,特征匹配點(diǎn)數(shù)較少且存在大量的噪聲;SIFT算法和ORB算法存在大量的誤匹配點(diǎn),同時(shí)也存在大量的噪聲;SURF-OKG算法得到的點(diǎn)云結(jié)構(gòu)較為完整,有效減少了噪聲干擾和誤匹配點(diǎn)。

        圖19 字母三維重建結(jié)果Fig. 19 3D reconstruction results of letters

        為驗(yàn)證本文特征點(diǎn)匹配算法的精確性,分別采用SIFT算法、SURF算法、ORB算法以及SURF-OKG算法對(duì)階梯塊進(jìn)行三維重建,將其重建結(jié)果記錄下來(lái)并進(jìn)行誤差分析。用精度為0.02 mm的游標(biāo)卡尺測(cè)量三次階梯塊的寬度值,分別為40.03 mm,39.98 mm和39.99 mm,將三次測(cè)得的寬度值取平均值為40.00 mm,將該值視為階梯塊寬度的實(shí)際值,該階梯塊的實(shí)際值為40.00 mm,精度為0.02 mm。對(duì)階梯塊進(jìn)行三維重建并測(cè)量,在不同的視場(chǎng)位置測(cè)量6次階梯塊的寬度,三維重建結(jié)果如圖20所示。

        圖20 階梯塊三維重建結(jié)果Fig.20 3D reconstruction results of step blocks

        經(jīng)實(shí)驗(yàn)驗(yàn)證,SURF算法的誤差均值為2.343 mm,匹配到的點(diǎn)云數(shù)為16 355,耗時(shí)為21.656 s,點(diǎn)云結(jié)構(gòu)較為稀疏,特征匹配的誤差較大;ORB算法的誤差均值為2.648 mm,匹配到的點(diǎn)云數(shù)為242 972,耗時(shí)為48.473 s,點(diǎn)云結(jié)構(gòu)存在大量的誤匹配點(diǎn)且存在大量的噪聲;SIFT算法的誤差均值為1.646 mm,匹配到的點(diǎn)云數(shù)為215 046,耗時(shí)為89.193 s,點(diǎn)云結(jié)構(gòu)較為完整,但存在明顯的誤匹配點(diǎn)和噪聲。本文SURF-OKG算法的誤差均值為1.312 mm,匹配到的點(diǎn)云數(shù)為223 840,耗時(shí)為62.755 s,點(diǎn)云結(jié)構(gòu)較為完整,誤匹配點(diǎn)和噪聲干擾被有效改善,實(shí)驗(yàn)測(cè)得階梯塊的最大寬度誤差不超過(guò)1.72 mm,滿足三維重建系統(tǒng)的實(shí)驗(yàn)要求。實(shí)驗(yàn)數(shù)據(jù)結(jié)果如圖21所示。

        圖21 測(cè)量結(jié)果分析Fig.21 Analysis of measurement results

        不同特征匹配算法在三維重建過(guò)程中呈現(xiàn)出明顯的耗時(shí)差異。在本研究中,觀察到SIFT算法的平均耗時(shí)最長(zhǎng),達(dá)到了89.193 s。相比之下,SURF算法表現(xiàn)出相對(duì)高效,僅需21.656 s。此外,本文引入的SURF-OKG算法,平均耗時(shí)為62.755 s,與傳統(tǒng)SIFT算法相比,不僅能夠生成更完整的點(diǎn)云結(jié)構(gòu),而且表現(xiàn)出更高的計(jì)算效率。鑒于上述耗時(shí)差異,在未來(lái)的算法優(yōu)化工作中考慮引入并行計(jì)算技術(shù),通過(guò)最大化多核處理器或GPU資源的利用,從而降低算法的整體運(yùn)行時(shí)間。

        4 結(jié) 論

        本文針對(duì)傳統(tǒng)雙目立體匹配中存在特征點(diǎn)匹配錯(cuò)誤、匹配缺失和匹配重復(fù)等問(wèn)題,對(duì)特征點(diǎn)匹配算法進(jìn)行改進(jìn),提出了一種基于SURFOKG算法的特征點(diǎn)匹配方法。該算法首先改進(jìn)了SURF算法,針對(duì)SURF中的高斯濾波對(duì)于圖像的邊緣和細(xì)節(jié)信息處理不夠理想等問(wèn)題,可能會(huì)導(dǎo)致檢測(cè)結(jié)果的誤差,本文提出自適應(yīng)中值濾波結(jié)合小波變換的方法對(duì)圖像進(jìn)行平滑、降噪和保留圖像邊緣細(xì)節(jié),隨后完成初步匹配;將尺度空間劃分為多個(gè)網(wǎng)格,在每個(gè)網(wǎng)格內(nèi)使用FAST算法提取尺度空間特征點(diǎn),使用ORB算子提取左右圖像的特征點(diǎn),通過(guò)ORB算子的BRIEF描述子對(duì)其進(jìn)行描述,并通過(guò)K-D樹(shù)最近鄰搜索法限制特征點(diǎn)選取,最后結(jié)合GMS算法剔除誤匹配點(diǎn),完成二次特征匹配。通過(guò)仿真和實(shí)驗(yàn)對(duì)本文算法進(jìn)行分析和驗(yàn)證。實(shí)驗(yàn)結(jié)果證明:本文特征匹配算法的正確匹配率達(dá)到92.47%;測(cè)得三維重建系統(tǒng)的平均誤差為1.312 mm,最大誤差值不超過(guò)1.72 mm,滿足了面結(jié)構(gòu)光三維重建技術(shù)的要求。

        猜你喜歡
        三維重建像素點(diǎn)標(biāo)定
        使用朗仁H6 Pro標(biāo)定北汽紳寶轉(zhuǎn)向角傳感器
        基于Mimics的CT三維重建應(yīng)用分析
        軟件(2020年3期)2020-04-20 00:56:34
        基于canvas的前端數(shù)據(jù)加密
        基于勻速率26位置法的iIMU-FSAS光纖陀螺儀標(biāo)定
        基于逐像素點(diǎn)深度卷積網(wǎng)絡(luò)分割模型的上皮和間質(zhì)組織分割
        基于關(guān)系圖的無(wú)人機(jī)影像三維重建
        船載高精度星敏感器安裝角的標(biāo)定
        三維重建結(jié)合3D打印技術(shù)在腔鏡甲狀腺手術(shù)中的臨床應(yīng)用
        多排螺旋CT三維重建在頜面部美容中的應(yīng)用
        基于Node-Cell結(jié)構(gòu)的HEVC幀內(nèi)編碼
        中出高潮了中文字幕| 亚洲欧美色一区二区三区| 亚洲av无码一区二区三区观看| 欧美视频二区欧美影视| 完整在线视频免费黄片| 亚洲一区二区自偷自拍另类| 国产老熟妇精品观看| 射死你天天日| 欧美日本道免费二区三区| 人妻系列少妇极品熟妇| 日本h片中文字幕在线| 中国丰满熟妇xxxx性| 98在线视频噜噜噜国产| 久久精品国产亚洲av成人无人区| 精品国产精品久久一区免费式| 中文字幕人妻无码一夲道| 91av手机在线观看| 日韩狼人精品在线观看| 24小时在线免费av| 亚洲av日韩精品久久久久久久| 特级黄色毛片视频| 亚洲麻豆av一区二区| 天堂网站一区二区三区| 18禁裸男晨勃露j毛免费观看| 亚洲国产一区二区三区最新| 亚洲永久精品日韩成人av| 国产综合色在线精品| 亚洲综合一区无码精品| 日产乱码一区二区国产内射| 97中文字幕精品一区二区三区 | 福利视频一二区| 亚洲一区中文字幕一区| 日本一区二区三区免费播放| 黄 色 人 成 网 站 免 费| 免费人成黄页网站在线观看国内| 美女用丝袜脚玩我下面| 久久精品免视看国产成人| 日韩人妻无码精品久久伊人| 精品高清一区二区三区人妖| 色欲aⅴ亚洲情无码av| 国产久热精品无码激情 |