亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種快速的誤匹配篩選算法

        2021-03-19 09:07:46宋孟良張國偉盧秋紅張?zhí)K蘇
        機械工程師 2021年3期
        關鍵詞:歐氏魯棒性正確率

        宋孟良,張國偉,盧秋紅,張?zhí)K蘇

        (1.上海電力大學 自動化工程學院,上海200082;2.上海合時智能科技有限公司,上海201100;3.上海太陽能工程技術研究中心有限公司,上海201100)

        0 引言

        目前,機器視覺發(fā)展迅速并廣泛應用于各個領域。圖像的特征點提取與匹配屬于機器視覺的基礎組成部分,在圖像配準、視覺SLAM、三維重建等多個領域都起著重要的作用[1-3]。特征匹配的結果是下一個環(huán)節(jié)的輸入數(shù)據(jù),是其他圖像處理的前提和關鍵[4]。因此,在特征匹配中減少誤匹配的數(shù)量并提高特征匹配的正確率與效率會對實際應用產(chǎn)生較大的影響。

        在SIFT[5]中,作者提出一種基于KNN的比例誤匹配篩選方法,但這種方法魯棒性較差。Fischler等[6]提出基于統(tǒng)計模型的經(jīng)典方法RANSAC(Random Sample Consensus),該方法可以在包含“局外點”的數(shù)據(jù)中,通過迭代有效地得到高精度的數(shù)學模型,該方法具有一定的魯棒性,但是迭代次數(shù)沒有上限計算時間較長,當數(shù)據(jù)整體錯誤率較高時,其計算結果也會有較高的錯誤率。文獻[7]中,將前兩種算法相融合,減少了RANSAC的迭代次數(shù)并且提高了正確匹配率。文獻[8]中,提出了一種改進RANSAC的方法,通過改進損失函數(shù)使模型考慮到了不同匹配的誤差,相比于傳統(tǒng)方法提高了模型的估算精度。文獻[9]在文獻[8]的基礎上使用具有更大概率的“內(nèi)點”的數(shù)據(jù)點來指導數(shù)據(jù)采樣,并且在估算單應矩陣時使用這些點作為先驗知識,進一步提高了模型估算的精度。文獻[10]中,將所有匹配點以先驗知識為依據(jù)進行排序,將“內(nèi)點”概率大的點排在前面,有序地進行采樣而不是隨機進行,進一步提高了算法的運行速度和魯棒性。文獻[11]中,為了解決大比例的誤匹配會影響模型精度問題,以一個更好的模型為基礎進行局部優(yōu)化,以克服大比例誤匹配對模型精度的影響。

        為了兼顧魯棒性和計算速度,本文在前人的基礎上提出了一種快速的誤匹配篩選算法,融合使用Otsu算法和RANSAC算法,在保證正確率與充足匹配對的情況下提高了算法的計算速度。最后在TMU數(shù)據(jù)集上驗證了該方法的有效性。

        1 誤匹配篩選算法

        1.1 歐式距離(Euclidean Distance)

        在特征匹配中,假設待匹配圖像矩陣的個數(shù)為n元素值,用個數(shù)為n的元素值(x1,x2,…,xn)組成該圖像的特征組,特征組構成了n維空間,特征組中的元素值構成了每一維的數(shù)值。在n維空間下,待匹配的兩張圖像的特征點的集合分別記為A與B:

        1.2 基于歐氏距離的最大間類方差法(Otsu)

        最大類間方差法是由日本學者大津展之[12]于1979年提出的,是一種自適應的閾值確定方法,簡稱Otsu,該方法的本質上是一種分類算法。

        本文將該算法應用于特征點的誤匹配篩選,具體算法如下。

        假設2張圖片特征匹配完成后得到的所有匹配對的數(shù)量為N,將匹配對歐式距離映射為d∈[0,255],歐氏距離等級為d的匹配對的個數(shù)為nd,則每個等級的歐氏距離出現(xiàn)的概率為pd=nd/N;假設最佳閾值為t,則根據(jù)閾值t將所有匹配對劃分為正確匹配與錯誤匹配2類:

        歐氏距離越小則說明匹配對是正確匹配的概率越高,則正確匹配對對應的范圍為Right∈(0,T)。

        1.3 基于Otsu的初次篩選

        圖像特征點匹配初次匹配完成后得到的特征點包含大量的錯誤匹配,本文利用所有特征匹配對的平均歐氏距離進行初次篩選,提高算法的運行效率[13]。在1.2節(jié)中基于歐式距離的Otsu算法中,根據(jù)式(1)~式(3)可知:

        由此可得|μ-μR(t)|-|μ-μW(t)|>0,即表明,特征匹配對的歐氏距離均值μ更接近于錯誤匹配所對應的歐式距離均值μR(t),即更接近于錯誤匹配對應的峰值,則說明Otsu算法的最佳閾值在本算法中處于2個峰值之間的峰谷處,即T∈(0,μ),μ大于T,表明所有的匹配對中歐氏距離大于μ的匹配對應該剔除。

        1.4 隨機取樣一致(RANSAC)

        在特征匹配完成后,待匹配的2張圖像之間特征帶點的對應關系確定。此時圖片A與圖片B之間存在對應關系A=H·B,矩陣H是一個3×3的最佳單應性矩陣,通常令h33歸一化矩陣。

        式中:S為圖像尺度參數(shù);(x′,y′)為圖像A角點位置;(x,y)為圖像B角點位置。

        假設樣本數(shù)(即特征匹配對的總數(shù))為M,從數(shù)據(jù)集中隨機抽取m個樣本,因為單應性矩陣H中共有8個未知數(shù),至少需要8個線性方程組求解,所以m≥4,根據(jù)樣本計算得到的模型后將滿足該模型的特征匹配對的個數(shù)與重投影誤差,通過多次迭代使得重投影誤差最小的模型即為所求。

        雖然RANSAC具有較強的魯棒性,但是該算法的迭代次數(shù)沒有上限算法,運行時間較長,限制迭代次數(shù)可能會導致無法得到最優(yōu)模型。為了進一步提高RANSAC的算法運行速度與模型精度,我們采用文獻[10]中的算法思想,將2次篩選后的特征匹配對根據(jù)歐式距離從大到小依次排序后,對RANSAC進行優(yōu)化。

        1.5 基于歐氏距離的誤匹配篩選算法

        為了解決圖像特征帶點誤匹配篩選算法魯棒性較差、耗時較長等問題,本文提出了基于歐氏距離的特征匹配對誤匹配篩選算法。首先,使用歐氏距離作為圖像特征匹配對的置信度,特征匹配對的歐氏距離越小則說明特征匹配對的置信度越高,然后在歐氏距離的基礎上構建Otsu算法,通過平均歐式距離進行初次篩選,然后通過迭代計算得到最佳閾值T,在二次篩選完成后將剩余匹配對根據(jù)歐氏距離排序,最后通過RANSAC算法迭代計算出最優(yōu)模型。

        2 實驗與分析

        為了驗證本文提出的誤匹配算法的有效性,在德國慕尼黑大學TUM數(shù)據(jù)集中進行實驗,實驗平臺采用Windows10操作系統(tǒng)、AMD Ryzen 2600 Six-Core Processor(3400 MHz)、16GB DDR4 RAM,不使用GPU加速,編程環(huán)境為Visual Studio2017。

        為了驗證算法的有效性,我們分別對Otsu算法及基于Otsu的閾值篩選算法進行實驗。選取圖像為ORBSLAM中使用的TMU數(shù)據(jù)集。該數(shù)據(jù)集是汽車行駛中的實際路況,圖像分辨率為800×900,采樣頻率為10 fps,兩張圖像之間的時間間隔為18 ms以上,提取的特征匹配對的數(shù)量為500。

        圖2 平均歐氏距離的篩選結果

        由實驗結果可以觀察到,在Otsu算法篩選后仍然存在一些誤匹配,并不能直接使用得到的結果,因此需要與RANSAC算法融合進一步篩選。

        圖3 傳統(tǒng)RANSAC篩選結果

        圖4 本文算法篩選結果

        表1 算法性能對比

        由圖1、圖2中實驗結果可知,本文提出的基于歐氏距離的Otsu篩選算法及平均歐氏距離篩選算法的有效性,可以篩選掉大量的錯誤匹配。

        由圖3、圖4及表1中的結果可知,本文提出的融合算法可以有效地進行誤匹配篩選,并且能夠保留較多的特征匹配對,算法得到的篩選結果正確率較高,與傳統(tǒng)RANSAC算法相對比,本文算法的運行速度大幅度上升,篩選結果正確率也有所提高。與傳統(tǒng)RANSAC算法相比,本文算法篩選后的匹配對數(shù)量有所下降,但是比其他種類的算法保留的匹配對數(shù)量要多,并且斜率較為固定,具有良好的自適應性。與傳統(tǒng)RANSAC算法相比,本文算法運行時間大幅度減小,對篩選數(shù)據(jù)進行排序,提升了算法的運行速度。由表1中實驗結果可知,本文算法在處理500個匹配對時運行時間基本在5 ms左右,能夠滿足實時性要求,與其他算法相比,本文算法的正確率較高。

        3 結論

        針對傳統(tǒng)的特征匹配對誤匹配篩選算法魯棒性差、效率低等問題,本文提出了一種快速的特征點誤匹配篩選算法。在特征匹配對的歐氏距離基礎上,引入Otsu算法對數(shù)據(jù)進行初次篩選和二次篩選,大大提升了算法的篩選效率,不僅快速得到了篩選結果,而且保證了充足的匹配對數(shù)量,提升了算法的魯棒性;另外,進一步提升了RANSAC的運行速度和算法精度,對篩選后數(shù)據(jù)進行排序。在TUM數(shù)據(jù)集上進行實驗,實驗表明本文算法比傳統(tǒng)算法具有更好的魯棒性和實時性。

        猜你喜歡
        歐氏魯棒性正確率
        門診分診服務態(tài)度與正確率對護患關系的影響
        荒漠綠洲區(qū)潛在生態(tài)網(wǎng)絡增邊優(yōu)化魯棒性分析
        基于確定性指標的弦支結構魯棒性評價
        中華建設(2019年7期)2019-08-27 00:50:18
        生意
        品管圈活動在提高介入手術安全核查正確率中的應用
        天津護理(2016年3期)2016-12-01 05:40:01
        生意
        故事會(2016年15期)2016-08-23 13:48:41
        基于非支配解集的多模式裝備項目群調度魯棒性優(yōu)化
        非接觸移動供電系統(tǒng)不同補償拓撲下的魯棒性分析
        基于多維歐氏空間相似度的激光點云分割方法
        麗江“思奔記”(上)
        探索地理(2013年5期)2014-01-09 06:40:44
        国产黄页网站在线观看免费视频| 偷拍一区二区三区高清视频| 欧美性受xxxx黑人猛交| 久久久久女人精品毛片| 精品国产18禁久久久久久久| 有码中文字幕一区二区| 一区二区三区国产在线视频| 亚洲日韩一区二区一无码 | 国产精品自产拍在线18禁| 丰满人妻一区二区三区免费| 在线观看亚洲第一黄片| 国产精品v欧美精品v日韩精品| 精品国产免费Av无码久久久| 日韩精品一级在线视频| 中文字幕无码乱人伦| 国产福利一区二区三区在线观看| 国产亚洲第一精品| 久久中文字幕av一区二区不卡 | 欧美在线专区| 中文字幕丰满人妻有码专区| 色中文字幕在线观看视频| 熟女人妇交换俱乐部| 中文岛国精品亚洲一区| 日本午夜理论一区二区在线观看| 精品人妻av区乱码| 激情内射亚洲一区二区三区爱妻| 日韩精品有码在线视频| 爆操丝袜美女在线观看| 中文日韩亚洲欧美制服| 精品视频专区| 一区二区三区日韩蜜桃| 又色又爽又高潮免费视频国产| 亚洲av无码成人yellow| 久久伊人中文字幕有码久久国产| 久久日日躁夜夜躁狠狠躁| 女人扒开屁股爽桶30分钟| 亚洲免费一区二区三区视频| 亚洲一区二区在线观看av| 特级精品毛片免费观看| 国产日韩亚洲欧洲一区二区三区| 日韩伦理av一区二区三区|