亢宇欣,諶貴輝,鄧 宇,張軍豪
多測度融合的立體匹配算法研究
亢宇欣,諶貴輝,鄧 宇,張軍豪
(西南石油大學(xué)電氣信息學(xué)院,四川 成都 610500)
針對多測度融合的立體匹配算法的測度選擇問題,提出一種基于測度互補系數(shù)的測度選擇方法。通過該方法選擇多種測度進行融合作為匹配代價,并使用改進的半全局算法進行代價聚合,實現(xiàn)多測度融合的立體匹配算法。首先定義互補系數(shù),通過互補系數(shù)選擇多種相似性測度進行融合作為匹配代價;然后,針對半全局代價聚合使用隨機初始化視差圖導(dǎo)致立體匹配效果較差的問題,使用基于SURF特征得到的視差作為初始視差進行半全局代價聚合;最后計算視差并優(yōu)化視差得到最終視差圖。實驗表明,使用該測度選擇方法可以選擇互補特征,結(jié)合改進的半全局代價聚合方法可以提高立體匹配效果。
多測度融合;測度互補系數(shù);半全局代價聚合;立體匹配
雙目視覺模擬人類視覺原理,實現(xiàn)從二維圖像獲取三維信息。立體匹配是指雙目視覺系統(tǒng)針對同一場景在不同角度拍攝到的2幅圖像,在搜索圖像中找到參考圖像對應(yīng)點的過程。立體匹配的效果決定雙目視覺所獲取三維信息的精確度,是雙目視覺的重要環(huán)節(jié)。
SCHARSTEIN等[1]將立體匹配算法進行分類與評估,將其劃分為匹配代價計算、匹配代價聚合、初始視差計算與視差優(yōu)化4個相對獨立的模塊,此后關(guān)于立體匹配算法的研究大多沿用此框架。針對匹配代價計算,為解決單一相似性測度對圖像特征描述不完全,影響匹配精度的問題,文獻[2]提出融合圖像灰度信息,將灰度差絕對值之和(sum of absolute differences, SAD)、灰度差平方和(sum of squared differences, SSD)以及水平梯度分量作為匹配代價,在彩色圖像上取得更好的效果;陸軍等[3]設(shè)計了一種SAD與Census變換相融合的相似性測度算法,結(jié)合線性平滑項和動態(tài)變搜索半徑,有效改善條紋誤匹配現(xiàn)象。靳太明等[4]提出一種融合顏色特征、Census特征、局部二值模型(local binary pattern, LBP)特征并考慮圖像多尺度信息的匹配算法,在多種復(fù)雜場景中提高了匹配精度。相比單一測度,多測度融合作為匹配代價具有更好的立體匹配效果,但多種測度的選擇還沒有較好的方法,多根據(jù)經(jīng)驗和測度特性進行選擇融合。針對此問題,本文通過定義測度互補系數(shù)并使用該系數(shù)進行測度選擇,實驗證明該方法可以選擇效果互補的多種測度。
有關(guān)匹配代價聚合,門宇博等[5]提出一種自適應(yīng)多窗口方案,解決存在遮擋時的魯棒視差估計。常用的代價聚合算法還有雙邊濾波[6]和引導(dǎo)濾波[7]。此外,還有一種半全局代價聚合算法[8],該算法的主要思想是通過求多方向一維最優(yōu)解來模擬全局最優(yōu),相比于雙邊濾波和引導(dǎo)濾波,可以取得更好的代價聚合效果。但是半全局代價聚合使用隨機視差作為初始視差,影響算法的精度和效率。針對此問題,本文使用基于加速魯棒特征(speeded up robust features, SURF)[9]生成的視差作為初始視差進行代價聚合,并通過WTA (winner take all)算法[10]獲取視差圖并經(jīng)過視差優(yōu)化獲得最終視差圖。實驗表明,該立體匹配算法可以取得較好的匹配效果。
針對單一相似性測度不能全面描述圖像局部特征的問題,使用多種相似性測度融合作為匹配代價;針對半全局算法使用隨機初始化視差在多尺度空間計算導(dǎo)致算法效率低的問題,由于SURF特征描述符具有高效、高匹配率的優(yōu)點,使用基于SURF特征提取的視差圖作為初始視差圖進行半全局代價聚合,經(jīng)過視差計算、左右一致性檢驗、可信度檢驗等步驟得到最終視差圖。算法總體框架如圖1所示。其中,I,I為經(jīng)過校正的左右圖像;[,]為多測度融合的匹配代價;D為基于SURF特征匹配得到的視差圖;[,]為半全局代價聚合后的匹配代價;D為使用WTA算法計算得到的初始視差;為經(jīng)過視差優(yōu)化后輸出的最終視差圖。
圖1 算法流程圖
相似性測度描述的是圖像的相似程度,常見相似性測度有SAD、SSD、歸一化交叉相關(guān)(normalization cross correlation, NCC)[11]、梯度度量(gradient based measure, GBM)、Census[12]變換度量、LBP[13]度量和韋伯局部描述符(Weber’s local descriptor, WLD)[14]度量等。
不同相似性測度使用不同的圖像信息和圖像特征對圖像相似性進行描述,各測度有各自的優(yōu)勢區(qū)域。例如SAD測度關(guān)注圖像灰度信息,以圖像灰度差別進行相似度評價;GBM關(guān)注圖像梯度信息,以梯度差別進行相似度評價。融合多種相似性測度可以更全面地描述圖像,進而提高匹配精度,如圖2所示。圖2(a)中綠色標記為SAD測度正確匹配點,紅色標記為GBM,藍色標記為2種測度均正確匹配的像素點;圖2(b)中綠色為SAD測度正確匹配點,紅色為SSD測度,藍色為2種測度均正確匹配的像素點。
可以看出,SAD與GBM重合程度較低,SAD與SSD重合程度非常高。SAD單獨作用時正確匹配率為44.38%,SAD分別與SSD和GBM測度融合后匹配正確率為44.51%和52.1%??梢娭睾铣潭雀叩腟SD與SAD融合后對于匹配正確率的提升非常小,重合程度低的GBM與SAD測度融合后對于匹配正確率的提升較為明顯。本文提出一種基于優(yōu)勢作用區(qū)域互補程度的相似性測度選擇方法。
圖2 測度作用效果
每種相似性測度有各自的特點和優(yōu)勢作用區(qū)域,設(shè)與S為使用和2種相似性測度單獨作用所得正確匹配點點集,定義測度互補系數(shù)為
其中,為調(diào)節(jié)系數(shù);ρ為2種相似性測度作用下正確匹配點的相異點數(shù)與相同點數(shù)之比。顯然,該系數(shù)越大,表示2種相似性測度正確匹配的相異點越多,互補程度越高;反之互補程度越低,按照此系數(shù)進行特征選擇,可以選出效果互補的測度。
為驗證測度互補系數(shù)對測度選擇效果的影響,使用Middlebury數(shù)據(jù)集,根據(jù)上述7種測度進行實驗驗證。首先計算各測度單獨作用所得匹配結(jié)果,如圖3所示。
選擇正確率最高的SAD測度作為第一個測度,依次計算其余測度與SAD測度的互補系數(shù),并分別計算其余測度與SAD融合后的匹配效果與正確率,如圖4所示。
圖4中SAD+GBM測度融合后匹配效果最佳且互補系數(shù)最大,選擇其作為下一步初始測度。分別計算其余測度與SAD與GBM融合后的匹配效果及互補系數(shù),循環(huán)上述步驟,直至融合所有測度,結(jié)果見表1。
測度SADSSDLBPNCCWLDCensusGBM 匹配效果 正確率(%)44.3843.8237.8035.5436.7231.7039.18
測度SAD+SSDSAD+LBPSAD+NCCSAD+WLDSAD+CensusSAD+GBM 匹配效果 互補系數(shù)0.0510.21460.1470.1950.2770.385 正確率(%)44.5146.4945.8346.3348.9652.10
表1 測度相關(guān)系數(shù)表
可以看出,每次進行測度融合時,正確率最高的測度其互補系數(shù)也最大。基于測度互補系數(shù)進行測度選擇融合可以選出互補測度并取得更好的匹配效果。
半全局算法是使用多方向一維動態(tài)規(guī)劃近似二維動態(tài)規(guī)劃求解能量函數(shù)最小值,以提高弱紋理、視差不連續(xù)和遮擋區(qū)域的匹配精度。
SGM使用動態(tài)規(guī)劃優(yōu)化能量函數(shù),求得能量函數(shù)最小時的視差,能量函數(shù)定義為
其中,()為視差圖的能量函數(shù);(,D)為原始匹配代價;后2項為懲罰項,指當(dāng)前像素和其鄰域內(nèi)所有像素之間的約束。如果和的視差為1,那么懲罰1項;如果大于1,那么懲罰2項。
使用動態(tài)規(guī)劃進行能量函數(shù)最小化的求解是NP完全問題。在二維圖像上利用動態(tài)規(guī)劃求解及其復(fù)雜,但如果只考慮某一行或某一列存在約束不足的問題,使用多方向一維動態(tài)規(guī)劃可以兼顧求解準確度和效率。首先構(gòu)建單一方向的狀態(tài)轉(zhuǎn)移方程
對多個方向使用掃描線優(yōu)化并對每個掃描線上的L(,)求和,得到圖像上點的代價聚合,即
由于SGM算法需要一個初始化視差圖,原算法隨機初始化視差圖,并經(jīng)過多尺度的多次迭代求取最終視差圖。算法效果和速度受初始視差圖的影響,而基于SURF特征初始化視差圖,可提高算法精度和效率。
3.2.1 SURF特征描述符
SURF是對尺度不變特征變換(scale invariant feature transform, SIFT)的優(yōu)化,是一種魯棒的局部特征點描述算法,具有尺度縮放、旋轉(zhuǎn)和仿射不變性。SURF特征提取與匹配[9]主要包括以下步驟:
(1) 構(gòu)建Hessian矩陣,生成所有的興趣點;
(2) 構(gòu)建尺度空間;
(3) 特征點定位;
(4) 特征點主方向分配;
(5) 生成特征點描述符;
(6) 基于歐式距離最小化的特征匹配。
3.2.2 基于SURF特征的視差
對左、右2圖提取的特征點,以SURF特征描述符歐式距離最小為標準進行特征點匹配,進而求取稀疏視差。使用區(qū)域生產(chǎn)算法獲得稠密視差,并以此為初始視差圖進行SGM代價聚合。
為測試算法效果,設(shè)計如下實驗。首先按照3.2.1節(jié)步驟對左、右2圖進行SURF特征提取與匹配,如圖5所示。生成關(guān)鍵點如圖6所示。
對每個關(guān)鍵點計算Harr小波特征的主方向,并以其為基準方向計算每個特征點的SURF描述符,根據(jù)歐式距離最小進行特征點匹配,得到圖7匹配結(jié)果。
使用對應(yīng)點橫坐標差計算視差,得到稀疏視差圖,使用區(qū)域生長算法獲得稠密視差,如圖8所示。
以該視差圖作為初始視差圖的半全局立體匹配,并與原立體匹配算法進行對比。原算法進行多次下采樣,通過多輪迭代,對每輪迭代的結(jié)果進行上采樣作為下一輪迭代的初始視差。基于SURF特征的半全局算法只在原尺度進行計算,統(tǒng)計2種算法在所有數(shù)據(jù)集上每輪迭代的平均誤匹配率和平均運行時間。實驗用計算機CPU主頻3.4 GHz,內(nèi)存8 GB,使用Python語言編程,使用Middlebury數(shù)據(jù)集中Cones、Teddy、Tsukuba和Venus數(shù)據(jù)進行實驗,實驗結(jié)果見表2和表3。
圖5 關(guān)鍵點求取過程
圖6 關(guān)鍵點標記
圖7 SURF特征匹配
圖8 區(qū)域生長稠密視差圖
由表2和表3可以看出,原算法經(jīng)過5輪迭代后的誤匹配率為6.87%,而改進后的算法只需2輪迭代誤匹配率穩(wěn)定在6.79%;原算法總運行時間為137 ms,改進算法所用時間為125 ms。綜上,基于SURF特征的SGM算法在算法誤匹配率和算法效率方面有一定改善。
表2 SGM算法效果
表3 SURF-SGM算法效果
選擇SAD、GBM、Census和WLD4種測度融合作為匹配代價,匹配代價如式(7)所示。使用改進的半全局算法進行代價聚合,利用WTA算法計算初始視差,經(jīng)過左右一致性檢驗、可信度檢驗得到最終視差,按照圖1的算法流程進行實驗。使用Middlebury數(shù)據(jù)集作為算法測試數(shù)據(jù)集,計算機CPU主頻3.4 GHz、8 G內(nèi)存,使用Python編程。
通過實驗確定參數(shù),首先使用上述4種測度單獨進行匹配,并不斷變換測度對應(yīng)參數(shù),以誤匹配率最小時的參數(shù)對應(yīng)測度的參數(shù),求得各測度參數(shù)為:λ=32,T=17,T=0.013,T=0.010,T=0.024。然后進行融合測度權(quán)重實驗,設(shè)所有測度權(quán)重之和為1,在此約束條件下不斷調(diào)整各測度權(quán)重,以誤匹配率最小時的權(quán)重作為最終權(quán)重,求得各測度權(quán)重為:1=0.110,2=0.730,3=0.126,4=0.034。
為驗證算法性能,與當(dāng)前效果較好的SGM、Segment Support算法進行比較,實驗結(jié)果如圖9所示。
原圖Segment SupportSGM本文算法真實視差圖 Cones Teddy Tsukusa Venus
由圖9可以看出,與SGM[15]、Segment Support算法[16]相比,本文算法在紋理區(qū)域、視差不連續(xù)區(qū)域和遮擋區(qū)域表現(xiàn)出更好的效果。如Cones數(shù)據(jù)中方框標記位置為視差不連續(xù)區(qū)域,本文算法在該區(qū)域得到更加平滑的視差;Teddy數(shù)據(jù)中方框標記位置為紋理區(qū)域和遮擋區(qū)域,本文算法紋理區(qū)域視差平滑、遮擋區(qū)域視差輪廓更為清晰。同樣地,本文算法在Tsukusa與Venus數(shù)據(jù)中紋理區(qū)域、視差不連續(xù)區(qū)域也有更好的效果。各算法在Middlebury數(shù)據(jù)集上不同區(qū)域測試結(jié)果見表4~7。
由表4~7可以看出,與另2種算法相比,本文算法在多種圖像區(qū)域匹配效果更佳。另SGM、Segment Support及本文算法的平均誤匹配率分別為6.87%,6.58%,4.56%,本文的立體匹配效果較好。
表4 Cones數(shù)據(jù)上算法效果
表5 Teddy數(shù)據(jù)上算法效果
表6 Tsukuba數(shù)據(jù)上算法效果
表7 Venus數(shù)據(jù)上算法效果
針對立體匹配算法匹配代價計算與代價聚合步驟,本文提出一種相似性測度選擇方法,使用該方法選擇相似性測度融合作為匹配代價,實現(xiàn)對圖像區(qū)域更全面地描述。使用基于SURF特征生成的視差圖作為初始視差進行半全局代價聚合。經(jīng)過實驗驗證,與當(dāng)前較為經(jīng)典的SGM與Segment Support算法相比,本文算法在紋理區(qū)域、遮擋區(qū)域與視差不連續(xù)區(qū)域有更好的匹配效果。
[1] SCHARSTEIN D, SZELISKI R, ZABIH R. A taxonomy and evaluation of dense two-frame stereo correspondence algorithms [J]. International Journal of Computer Vision, 2002, 47(1-3): 7-42.
[2] TOLT G, KALAYKOV I. Measures based on fuzzy similarity for stereo matching of color images [J]. Soft Computing, 2006, 10(12): 1117-1126.
[3] 陸軍, 方瑩, 張鑫. 融合AD與Census變換的動態(tài)規(guī)劃立體匹配與遮擋處理[J]. 北京理工大學(xué)學(xué)報, 2015, 35(12): 1274-1279.
[4] 靳太明, 曾婧, 張翔. 基于多特征融合的多尺度立體匹配算法[J]. 計算機應(yīng)用, 2016, 36(A2): 139-142.
[5] 門宇博, 張國印, 門朝光, 等. 像素擴展自適應(yīng)窗口立體匹配算法[J]. 哈爾濱工程大學(xué)學(xué)報, 2018, 39(3): 547-553.
[6] 宋時德, 李淼, 張健, 等. 面向以多視角立體匹配獲取的植株三維點云的去噪方法[J]. 計算機應(yīng)用, 2017, 37(S2): 141-145.
[7] 閆利, 王芮, 劉華, 等. 基于改進代價計算和自適應(yīng)引導(dǎo)濾波的立體匹配[J]. 光學(xué)學(xué)報, 2018,38(11): 257-267.
[8] 呂倪祺, 宋廣華, 楊波威. 特征融合的雙目半全局匹配算法及其并行加速實現(xiàn)[J]. 中國圖象圖形學(xué)報, 2018, 23(6): 874-886.
[9] 馮亦東, 孫躍. 基于SURF特征提取和FLANN搜索的圖像匹配算法[J]. 圖學(xué)學(xué)報, 2015, 36(4): 650-654.
[10] 王玉鋒, 王宏偉, 吳晨, 等. 基于共同視域的自監(jiān)督立體匹配算法[J]. 光學(xué)學(xué)報, 2019, 39(2): 287-296.
[11] 宋毅, 崔平遠, 居鶴華. 一種圖像匹配中SSD和NCC算法的改進[J]. 計算機工程與應(yīng)用, 2006, 42(2): 42-44.
[12] HUMENBERGER M, ENGELKE T, KUBINGER W. A census-based stereo vision algorithm using modified semi-global matching and plane fitting to improve matching quality [C]//2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition - Workshops. Washington, DC: IEEE Computer Society, 2010: 77-84.
[13] 胡敏, 余子璽, 王曉華, 等. G-LBP和方差投影交叉熵的人臉識別[J]. 圖學(xué)學(xué)報, 2017, 38(1): 82-89.
[14] CHEN J, SHAN S G, HE C, et al. WLD: A robust local image descriptor [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2010, 32(9): 1705-1720.
[15] HIRSCHMULLER H. Accurate and efficient stereo processing by semi-global matching and mutual information [C]//2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR'05). Washington, DC: IEEE Computer Society, 2015: 807-814.
[16] TOMBARI F, MATTOCCIA S, DI STEFANO L. Segmentation-based adaptive support for accurate stereo correspondence [M]//Advances in Image and Video Technology. Heidelberg: Springer, 2007: 427-438.
Research on Stereo Matching Algorithms Based on Multi-Measure Fusion
KANG Yu-xin, CHEN Gui-hui, DENG Yu, ZHANG Jun-hao
(School of Electrical Engineering and Information, Southwest Petroleum University, Chengdu Sichuan 610500, China)
Aiming at the measure selection problem of stereo matching algorithm based on multi-measure fusion, a measure selection method based on measure complementarity coefficient is proposed. Using this method, the present study fuses multiple measures as the matching cost, and adopts the improved semi-global algorithm for cost aggregation to realize the stereo matching algorithm of multi-measures fusion. Firstly, the complementary coefficients are defined, and a variety of similarity measures are fused by the complementary coefficients as matching costs. Then, in attempt to solve the problem of poor stereo matching effect caused by semi-global cost aggregation using randomly initialized disparity map, we carried out the semi-global cost aggregation taking disparity based on SURF features as initial disparity. Finally, the disparities are calculated and optimized to obtain the final disparity map. The experimental results show that the complementary features can be selected by using the measure selection method, and the stereo matching effect can be improved by combining the improved semi-global cost aggregation method.
multi-measure fusion; measure complementarity coefficient; semi-global cost aggregation; stereo matching
TP 391
10.11996/JG.j.2095-302X.2019040711
A
2095-302X(2019)04-0711-07
2019-02-01;
定稿日期:2019-03-21
四川省科技計劃項目(2016GZ0107);四川省教育廳重點項目(16ZA0065);南充市市??萍紤?zhàn)略合作項目(NC17SY4001)
亢宇欣(1993-),男,河北廊坊人,碩士研究生。主要研究方向為計算機視覺、人工智能。E-mail:284260916@qq.com