李艷煥,徐振亮,邵良杉
(1. 遼寧工程技術(shù)大學(xué)系統(tǒng)工程研究所,遼寧 阜新 123009; 2. 中國資源衛(wèi)星應(yīng)用中心,北京 100094)
?
一種新的影像位姿直接估計(jì)方法
李艷煥1,徐振亮2,邵良杉1
(1. 遼寧工程技術(shù)大學(xué)系統(tǒng)工程研究所,遼寧 阜新 123009; 2. 中國資源衛(wèi)星應(yīng)用中心,北京 100094)
針對影像位姿耦合不易直接求解的問題,建立了一種高精度分層位姿參數(shù)估計(jì)的方法。首先,通過選擇3點(diǎn)構(gòu)成面積最大的像點(diǎn)對應(yīng)的物點(diǎn)作為基點(diǎn),經(jīng)投影方程的改化形式方程,得到估計(jì)深度及平移信息;然后利用旋轉(zhuǎn)矩陣保范性獲得相機(jī)外參線元素尺度參數(shù);最后,將問題轉(zhuǎn)化為由向量估計(jì)旋轉(zhuǎn)關(guān)系問題,利用Procrustes理論得到外參角元素的最佳估值。該方法可有效解決該深度與耦合位姿參數(shù)難以處理的問題。試驗(yàn)證明,此方法確定的位姿參數(shù)估計(jì)模型形式簡潔,容易收斂,參數(shù)估計(jì)精度較直接對投影矩陣分解方法質(zhì)量要高。
齊次坐標(biāo);直接線性變換;基點(diǎn);Procrustes;位姿估計(jì)
圖像位姿估計(jì)是計(jì)算機(jī)視覺及攝影測量學(xué)研究領(lǐng)域中的重要課題[1-2],貫穿航空航天測繪整個(gè)學(xué)科,研究精度高、速度快的影像位姿算法具有十分重要的理論與現(xiàn)實(shí)意義。姿態(tài)估計(jì)常常采用迭代解法和直接解法兩種方法。迭代解法在攝影測量領(lǐng)域有廣泛應(yīng)用,其解算精度高,具有很好的幾何意義,解算的結(jié)果準(zhǔn)確度比較均勻,是一種嚴(yán)密的方法,但其缺點(diǎn)是運(yùn)算量大[3],并且需要位姿初值。在沒有初值的情況下,直接解法可以直接求解位姿參數(shù),主要指直接線性變換(DLT)法,它是建立像點(diǎn)坐標(biāo)和同名物方點(diǎn)坐標(biāo)之間的直接線性關(guān)系,并采用最小二乘法獲得最小代數(shù)誤差解,由于不需要外參數(shù)(外方位元素)的初始近似值,如近景非量測數(shù)碼影像或無人機(jī)影像處理[4-5],因此具有解算速度快等優(yōu)點(diǎn),但同時(shí)具有解算精度不高且參數(shù)沒有明確幾何意義的缺點(diǎn),該方法作為迭代方法姿態(tài)初始值,在計(jì)算機(jī)視覺領(lǐng)域有較多的應(yīng)用。因此,學(xué)者開始研究對傳統(tǒng)方法進(jìn)行改進(jìn),文獻(xiàn)[6]將二維DLT初值經(jīng)解析后得到標(biāo)定參數(shù)初值,再利用光束法平差予以精化,取得了很好的效果。計(jì)算機(jī)視覺領(lǐng)域?qū)τ谙鄼C(jī)姿態(tài)估計(jì)的文獻(xiàn)也比較多,文獻(xiàn)[7—8]提出了兩種有效的線性解算姿態(tài)方法,其中文獻(xiàn)[8]提出的EPnP算法得到了較高的評價(jià),并在后期全景圖像姿態(tài)估計(jì)上獲得不斷改進(jìn)[9]。另外,還有學(xué)者將影像位姿參數(shù)求解轉(zhuǎn)化為立體幾何邊角關(guān)系[10]。
本文從攝影測量學(xué)基本方程出發(fā),提出一種基于Procrustes理論和基點(diǎn)組結(jié)合的影像姿態(tài)估計(jì)新方法,試驗(yàn)結(jié)果表明,通過該方法得到的姿態(tài)參數(shù)精度較改進(jìn)的投影矩陣分解方法要高。
在攝影測量學(xué)研究中,采用歐幾里得坐標(biāo)表達(dá)物點(diǎn)和像點(diǎn)之間的關(guān)系,并且相關(guān)參數(shù)具有具體的物理意義,在相機(jī)經(jīng)過檢校并忽略影像畸變的情況下共線條件方程為
(1)
式中,x、y為像點(diǎn)量測坐標(biāo);X、Y、Z為物點(diǎn)坐標(biāo);Xs、Ys、Zs為相機(jī)位置;a1—c3為姿態(tài)角(φ-ω-κ)構(gòu)成的旋轉(zhuǎn)矩陣元素;若將式(1)轉(zhuǎn)換為矩陣[11-13],則可表示為
(2)
(3)
在位姿估計(jì)研究中,關(guān)鍵是利用物方及像方同名點(diǎn)通過共線方程式(2)估計(jì)式中的λi、R及Xs。由于這些參數(shù)耦合在一起,待求參數(shù)向量的顯式表達(dá)式很難得到,因此所有參數(shù)解很難一次性解得,有必要對各個(gè)參數(shù)分別進(jìn)行求解。
2.1 基點(diǎn)組選擇
為求得各個(gè)待定參數(shù),首先選擇基點(diǎn)組,即選擇分布合理、質(zhì)量可靠的3個(gè)物點(diǎn)作為基點(diǎn),所有物點(diǎn)坐標(biāo)向量均可由基點(diǎn)坐標(biāo)向量進(jìn)行表達(dá)。由于參數(shù)估計(jì)的質(zhì)量受到基點(diǎn)選擇的直接影響,因此,在所有參與姿態(tài)估計(jì)的像點(diǎn)所構(gòu)成的凸包中,選擇3點(diǎn)構(gòu)成面積最大的一組像點(diǎn)對應(yīng)的物點(diǎn)作為基點(diǎn)。如圖1所示,×為所有的像點(diǎn),黑線為像點(diǎn)的凸包絡(luò)線,由其節(jié)點(diǎn)參與姿態(tài)估計(jì),而灰色三角形頂點(diǎn)為選取的3個(gè)基點(diǎn)。
圖1 圖像基點(diǎn)組選擇
2.2 深度及平移向量的計(jì)算
(j=4,5,…,N),則式(3)可轉(zhuǎn)化為
(4)
(j=4,5,…,N)
(5)
記式(5)的最小二乘解為
(6)
式中,α>0為標(biāo)量,將式(6)代入式(3)中,得
(7)
由旋轉(zhuǎn)矩陣的保范數(shù)特性知
(8)
2.3 旋轉(zhuǎn)矩陣計(jì)算
由式(6)和式(8)可知,式(3)轉(zhuǎn)化為
(9)
或
V1=RTV0
由此,問題轉(zhuǎn)化為由V0和V1估計(jì)旋轉(zhuǎn)矩陣R。這里直接采用Procrustes理論[14]計(jì)算三維相似變換模型,步驟如下:
2.3.1 計(jì)算冪等矩陣C
(10)
式中,I為單位陣;L為元素為1的列向量。
2.3.2 奇異值分解M
(11)
式中,D為單位陣;U和V為正交向量。
2.3.3 構(gòu)建旋轉(zhuǎn)矩陣R
R*=UVT
(12)
2.3.4 外參數(shù)分解
由旋轉(zhuǎn)矩陣?yán)^而可得到圖像外參數(shù)(角元素為φωκ轉(zhuǎn)角系統(tǒng))
(13)
需要特別指出,在估計(jì)過程中,位姿參數(shù)間的相關(guān)性及控制點(diǎn)的不合理分布(如共線共面或原點(diǎn)設(shè)置等)直接影響解的精度和穩(wěn)定性,針對該情況本文采用物方坐標(biāo)歸一化預(yù)處理[15],即Xi=WXi,W為相似變換矩陣。
試驗(yàn)中,選用稀疏光束法平差[16](SBA)中7幅近景圖像數(shù)據(jù),由于原數(shù)據(jù)尺度未知,為定量分析方法的有效性,首先對其進(jìn)行尺度放大(1000倍)及原點(diǎn)平移(500 m),使數(shù)據(jù)為米制,如圖2所示。選擇所有數(shù)據(jù)中最大凸包點(diǎn)參與估計(jì),每張像片參與估計(jì)的同名點(diǎn)數(shù)點(diǎn)見表1,已知像點(diǎn)坐標(biāo)、物方點(diǎn)坐標(biāo),外方位元素?cái)?shù)據(jù)列于表2。試驗(yàn)結(jié)果與已知位姿數(shù)據(jù)比較后,絕對誤差分別見表3、表4。
圖2 7幅圖像位姿及物方控制點(diǎn)分布情況
圖像號1234567點(diǎn)數(shù)目12141313111611
表2 已知圖像外參數(shù)
表3 本文方法估計(jì)后的圖像外參數(shù)
表4 本文方法估計(jì)后的圖像外參數(shù)絕對誤差
從表4對比來看,本文方法最后得到的位置絕對誤差最大值為0.983 m,基本在0.5 m內(nèi);姿態(tài)絕對誤差最大值為2.868°,其余均在較小范圍內(nèi),質(zhì)量較好;相比改進(jìn)的投影矩陣分解方法[9-10],本文方法在姿態(tài)估計(jì)的精度上有了明顯提高,結(jié)果見表5。如果以此結(jié)果作為初值,進(jìn)一步通過迭代精化,位姿參數(shù)精度會進(jìn)一步提高。
針對圖像位姿估計(jì)問題,建立了一種分層估計(jì)位姿參數(shù)的方法,該方法通過選擇分布質(zhì)量較高的一組點(diǎn)作為基點(diǎn),能有效提高圖像姿態(tài)參數(shù)估計(jì)的質(zhì)量。
表5 奇異值分解方法得到的圖像外參數(shù)絕對誤差
(1) 建立了一種基于最大面積凸包的基點(diǎn)選擇方法,該方法對于提高位姿參數(shù)估計(jì)質(zhì)量具有重要意義。
(2) 由于DLT方法估計(jì)到的位姿參數(shù)精度較低,并且待估參數(shù)間具有很強(qiáng)的耦合性。為此,建立了分層最小二乘估計(jì)圖像位姿方法,相比于直接對投影矩陣分解的方法,參數(shù)估計(jì)精度有很大提高,如果以此結(jié)果作為初值通過整體求解,位姿參數(shù)精度會進(jìn)一步提高。
[1] 張祖勛,蘇國中,張劍清,等.基于序列影像的飛機(jī)姿態(tài)跟蹤測量方法研究[J].武漢大學(xué)學(xué)報(bào)(信息科學(xué)版),2004,29(4): 287-291.
[2] 袁修孝,余翔.高分辨率衛(wèi)星遙感影像姿態(tài)角系統(tǒng)誤差檢校[J].測繪學(xué)報(bào),2012,41(3):385-392.
[3] 王之卓.攝影測量原理[M].北京:測繪出版社,1980.
[4] 馮文灝.近景攝影測量——物體外形與運(yùn)動狀態(tài)的攝影法測定[M].武漢:武漢大學(xué)出版社,2002.
[5] 李德仁,鄭肇葆. 解析攝影測量學(xué)[M].北京:測繪出版社,1992.
[6] 張永軍,張祖勛,張劍清.利用二維DLT及光束法平差進(jìn)行數(shù)字?jǐn)z像機(jī)標(biāo)定[J].武漢大學(xué)學(xué)報(bào)(信息科學(xué)版),2002,27(6):566-571.
[7] FIORE P D. Efficient Linear Solution of Exterior Orientation[J]. IEEE Trans. Pattern Analysis and Machine Intelligence, 2001,23(2): 140-148.
[8] LEPETIT V, MORENO-NOGUER F, FUA P. EPnP:An Accurate O(n) Solution to the PnP Problem[J]. International Journal of Computer Vision,2009,81:155-166.
[9] 鄧非, 吳幼絲, 胡玉雷, 等.球形全景影像位姿估計(jì)的改進(jìn)EPnP算法[J].測繪學(xué)報(bào),2016,45(6): 677-684.
[10] 馮其強(qiáng),李廣云,黃桂平. 數(shù)字工業(yè)攝影測量中的單像空間后方交會[J]. 測繪通報(bào),2008(6): 4-6.
[11] 徐振亮,閆利,段偉,等.車載序列影像直接相對定向質(zhì)量[J].遼寧工程技術(shù)大學(xué)學(xué)報(bào)(自然科學(xué)版),2013,32(3):321-325.
[12] 徐振亮,李艷煥,閆利.單張大角度影像后方交會初值確定方法[J].遼寧工程技術(shù)大學(xué)學(xué)報(bào)(自然科學(xué)版),2014,33(7):951-954.
[13] 徐振亮,閆利.軸角描述的光束法平差新方法[J].武漢大學(xué)學(xué)報(bào)(信息科學(xué)版),2015,40(7):865-869.
[14] MAHBOUB V, SHARIFI M A. On Weighted Total Least-Squares with Linear and Quadratic Constraints [J].Journal of Geodesy,2013,87(3): 279-286.
[15] HARTLEY R, ZISSERMAN A. Multiple View Geometry in Computervision[M]. 2nd edition. Cambridge: Cambridge University Press, 2000.
[16] LOURAKIS M, ARGYROS A. The Design and Implementation of Ageneric Sparse Bundle Adjustment Software Package Based on the Levenberg-marquardt Algorithm[C]∥Technical Report 340. [S.l.]:Institute of Computer Science-FORTH, 2004.
A Novel Direct Estimation Method for Image Pose
LI Yanhuan1,XU Zhenliang2,SHAO Liangshan1
(1. System Engineering Institute, Liaoning Technical University, Fuxin 123009, China; 2. China Centre for Resources Satellite Data and Applications, Beijing 100094, China)
In order to solve the problem of image pose coupling calculating, this paper has established a high-precision hierarchical estimated pose parameters of image. Firstly, we select corresponding three image points of 3D points which constitute the largest area in image as a base to estimate the depth and translate information. Then based on the above method, we obtain the scale parameter of camera exterior information. Finally, the topic is transformed to a problem of estimating rotation relationship by vector, using Procrustes theory to obtain the best estimation of the angle elements of external parameters. The method can effectively solve problems which depth and coupling pose parameters can not deal with. Experimental results show that this method of determining position and orientation parameter estimation model is of briefness, easy convergence and it can also achieve higher parameter estimation accuracy than the direct projection matrix factorization.
homogeneous coordinates; direct linear transformation (DLT); base point; Procrustes method; pose estimation
李艷煥,徐振亮,邵良杉.一種新的影像位姿直接估計(jì)方法[J].測繪通報(bào),2017(6):17-20.
10.13474/j.cnki.11-2246.2017.0181.
2016-10-23;
2017-01-13
國家自然科學(xué)基金(71371091)
李艷煥(1979—),女,博士,工程師,主要研究方向?yàn)橛?jì)算機(jī)視覺、數(shù)據(jù)分析及處理。E-mail: lyh09523162@163.com 通信作者: 徐振亮。E-mail: xuzhenliang@pku.edu.cn
P23
A
0494-0911(2017)06-0017-04