亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        多鏡頭組合型全景相機(jī)兩種成像模型的定位精度比較

        2014-06-27 05:47:53季順平
        測繪學(xué)報 2014年12期
        關(guān)鍵詞:系統(tǒng)誤差球面全景

        季順平,史 云

        1.武漢大學(xué)遙感信息工程學(xué)院,湖北武漢 430079;2.中國農(nóng)業(yè)科學(xué)院農(nóng)業(yè)資源與農(nóng)業(yè)區(qū)劃研究所農(nóng)業(yè)信息技術(shù)重點實驗室,北京 100081;3.東京大學(xué)空間信息科學(xué)研究中心,東京

        多鏡頭組合型全景相機(jī)兩種成像模型的定位精度比較

        季順平1,3,史 云2,3

        1.武漢大學(xué)遙感信息工程學(xué)院,湖北武漢 430079;2.中國農(nóng)業(yè)科學(xué)院農(nóng)業(yè)資源與農(nóng)業(yè)區(qū)劃研究所農(nóng)業(yè)信息技術(shù)重點實驗室,北京 100081;3.東京大學(xué)空間信息科學(xué)研究中心,東京

        根據(jù)多鏡頭組合型全景相機(jī)的嚴(yán)格成像機(jī)理,分析了廣泛采用的全景理想成像模型系統(tǒng)誤差的來源,推導(dǎo)出誤差分布規(guī)律,并深入比較了嚴(yán)格成像模型和理想成像模型之間的差異。首先,分析了理想模型的單片物方定位誤差和像方后方交會誤差,理論公式表明其誤差分布和物像間距及視角大小相關(guān);其次,分析了全景立體像對的理想核線誤差,并證明誤差受像對間的旋轉(zhuǎn)角和Z坐標(biāo)影響。最后,分別采用室內(nèi)、外數(shù)據(jù)對兩種模型的空間后方交會、核線模型、光束法平差進(jìn)行比較分析。試驗結(jié)果表明,室外條件下由于物距接近于全景投影面、立體影像間旋轉(zhuǎn)角較小等因素,兩種模型的差異很小,且都達(dá)到了相當(dāng)于1像素左右的測量精度;在狹窄的室內(nèi)條件下,由于物距小、旋轉(zhuǎn)角大等因素,嚴(yán)格模型在測量精度上明顯優(yōu)于理想模型。

        全景成像模型;多鏡頭組合;測量精度;全景核線

        1 引 言

        借助360°無縫成像的優(yōu)勢,全景相機(jī)正逐漸受到計算機(jī)視覺、機(jī)器人、測繪等研究領(lǐng)域的青睞和廣泛應(yīng)用[1-3]。主流數(shù)碼全景相機(jī)的成像方式分為3大類:折射式(dioptric)多鏡頭組合、折反射(catadioptric)系統(tǒng)和旋轉(zhuǎn)式掃描系統(tǒng)。多鏡頭組合型全景相機(jī)由一系列獨立、固定的鏡頭組成,多個鏡頭獨立成像,再拼接為全景影像,該類型相機(jī)如LADYBUG[4-5]。折反射系統(tǒng)由魚眼鏡頭和拋物鏡面組成。拋物鏡反射實體的光,并通過透鏡折射形成球面影像[6-7]。旋轉(zhuǎn)式線陣掃描成像借助高速旋轉(zhuǎn)的機(jī)械轉(zhuǎn)軸和單鏡頭或單根CCD,直接形成無縫全景影像而無需拼接[8-9]。3種全景相機(jī)都有自身的缺點。多鏡頭組合相機(jī)由于存在拼接步驟,物體景深的不可知性導(dǎo)致拼接誤差必然存在,即無法實現(xiàn)真無縫拼接;折反射系統(tǒng)由于拋物鏡面只能反射部分現(xiàn)實的光線,難以實現(xiàn)全視角;掃描式相機(jī)受載于高速運動平臺時會產(chǎn)生較大的幾何形變,一般只用于靜態(tài)或低速攝影;而多鏡頭組合相機(jī)和折反射相機(jī)可用于車載或機(jī)載。本文著重討論多鏡頭組合式全景相機(jī)。

        與傳統(tǒng)平面相機(jī)類似,多鏡頭組合型全景相機(jī)的基本成像幾何也基于針孔成像模型,表達(dá)像、物及投影中心三點之間的共線關(guān)系。在很多有關(guān)全景相機(jī)的文獻(xiàn)中,成像幾何往往被簡化成圖1(a)所示的理想的模型:一個投影中心和一個理想投影球面。文獻(xiàn)[10]使用針孔球面成像模型進(jìn)行實時SLAM(simultaneous localization and mapping);文獻(xiàn)[11]研究了全景影像的全局幾何特征描述;文獻(xiàn)[12]基于球面成像模型研究球面影像塊的旋轉(zhuǎn)縮放不變特性;文獻(xiàn)[13]利用球面成像基礎(chǔ)矩陣作為立體像對間的幾何約束;文獻(xiàn)[14]研究了基于全景單相機(jī)的視覺SLAM;文獻(xiàn)[15]研究了車載全景相機(jī)的影像匹配和光束法平差。這些文獻(xiàn)都采用了圖1(a)所描述的理想全景球面成像模型。事實上,多鏡頭組合型全景照相機(jī)是由數(shù)個獨立透鏡組成,可能具有不同的投影中心和焦距(圖1(b))。如果使用理想的全景成像模型來描述其成像特性,必然會引入一定的系統(tǒng)誤差。

        針對全景理想模型的缺陷,文獻(xiàn)[16]根據(jù)多鏡頭球面成像特性提出了一種嚴(yán)格成像模型;然而,并未對理想模型的系統(tǒng)誤差及該誤差對精確定位的影響進(jìn)行詳細(xì)分析,且未對兩種模型進(jìn)行實際數(shù)據(jù)的比較。本文的主要工作將解析地推導(dǎo)理想模型所引起的物方、像方定位誤差和立體像對核線誤差,通過室內(nèi)外實際數(shù)據(jù)的比較試驗,包括空間后方交會、核線約束、光束法平差,驗證理想模型系統(tǒng)誤差的變化規(guī)律,總結(jié)理想模型和嚴(yán)格模型的適用范圍。

        2 全景相機(jī)的成像模型

        2.1 全景相機(jī)的理想成像模型

        圖1(a)示意了全景相機(jī)的理想成像模型,表達(dá)了球心S、球面像點u及對應(yīng)物方點P三點共線的幾何關(guān)系。而事實上,多鏡頭組合式全景相機(jī)由多個獨立魚眼相機(jī)組成,每個相機(jī)具有各自的投影中心C,其與球心S難以實現(xiàn)完全重合,如圖1(b)所示。為將獨立相機(jī)影像轉(zhuǎn)換為全景影像,首先需要將獨立相機(jī)的影像坐標(biāo)轉(zhuǎn)換為統(tǒng)一的全景球面坐標(biāo)。式(1)描述了如何根據(jù)單相機(jī)像點uc(其三維坐標(biāo)用X表示)來計算全景球面像點u(其三維坐標(biāo)用X′表示)。式中,Kr表示各個魚眼相機(jī)的內(nèi)部標(biāo)定參數(shù)矩陣,主要包含鏡頭畸變差、CCD畸變差、焦距、主點位置等[17]; Rr和Tr分別表示獨立相機(jī)投影中心在全景坐標(biāo)系統(tǒng)中的外方位元素角元素矩陣和偏移矢量; Kr、Rr、Tr通過嚴(yán)格的全景相機(jī)標(biāo)定之后即為固定值;m為待求之比例系數(shù)。式(2)描述任一球面像點u的三維坐標(biāo)X′=[x y z]T必須位于半徑為r的球面上,如何最優(yōu)地選擇該半徑值可參考文獻(xiàn)[18—19]。聯(lián)立式(1)、式(2),可解得m和X′

        圖1 全景相機(jī)成像模型Fig.1 The panoramic ideal sensor model and the rigorous sensor model

        獲得球面坐標(biāo)X′后,根據(jù)圖1(a)的理想模型可列出3點共線的幾何關(guān)系。在式(3)中,R、T來分別表示角元素矩陣和線元素矢量,XA表達(dá)對應(yīng)物方點P的三維坐標(biāo),λ為比例系數(shù)

        式(3)所表達(dá)的全景相機(jī)理想成像模型為大部分文獻(xiàn)廣泛采用,然而,從圖1(b)可看出,用于表述理想共線條件方程的光束投影Su P與獨立相機(jī)實際光束投影Cu P′是有偏差的。原因即S和C無法嚴(yán)格重合。

        2.2 全景相機(jī)的嚴(yán)格成像模型

        文獻(xiàn)[16]提出了一種針對多鏡頭組合全景相機(jī)的嚴(yán)格成像模型,以描述實際光束Cu P′,如下式

        式中,Tr表示單個相機(jī)投影中心在全景坐標(biāo)系下的偏移矢量,即圖1(b)中C點相對于S的矢量。相較于該嚴(yán)格模型,式(3)表達(dá)的理想成像模型無論被用于計算像方坐標(biāo)(后方交會)還是計算物方坐標(biāo)(前方交會),都會由于忽略了真實存在的Tr而引入系統(tǒng)誤差。不過,Tr可能是一個微小量,如本文使用的商業(yè)全景相機(jī)Ladybug3的Tr,在平面方向約為4 cm,在高程方向優(yōu)于0.02 cm(僅考慮5個水平攝影鏡頭)。而對于一些自制全景相機(jī),Tr在平面方向可達(dá)到分米級甚至更大,此時理想模型將導(dǎo)致較大的系統(tǒng)誤差。

        2.3 全景相機(jī)的共面條件方程

        傳統(tǒng)框幅式相機(jī)立體像對之間的共面條件描述了兩個投影中心和同名像點之間的共面關(guān)系[20-21]。同樣共面條件也存在于全景立體像對中。圖2中虛線描述了基于理想成像模型的共面關(guān)系,即理想球面中心點S和S′、全景像點u和u′及物點P滿足共面條件。將基線SS′表示為B=[BXBYBZ]T、光線Su表示為V1=[X1Y1Z1]T=[x1y1z1]T、光線S′u′表示為V2=[X2Y2Z2]T=R[x2y2z2]T,R為攝站間的相對旋轉(zhuǎn)矩陣,則理想的共面條件方程

        圖2 全景立體共面條件示意圖(虛線:理想模型;實線:嚴(yán)格模型)Fig.2 Co-planity of the two models(dotline:the ideal model;solid line:the rigorous model)

        相應(yīng)的,設(shè)t1、t2分別是立體像對全景球心S、S′與獨立相機(jī)C、C′的偏移量,t′2=Rt2為旋轉(zhuǎn)至左片坐標(biāo)系下的獨立鏡頭偏移量,則嚴(yán)格的共面條件方程

        在相對定向元素已知時,可根據(jù)共面方程導(dǎo)出核線方程。式(7)是理想模型的核線方程,系數(shù)a、b、c完全由相對定向元素確定。傳統(tǒng)平面影像的核線是一條直線,而三個維度確定的理想全景影像核線是一個過球心的大圓

        式(8)是嚴(yán)格模型的核線方程,同樣的,系數(shù)a、b、c、d由相對定向元素確定,而常數(shù)項不為0說明核線不再是經(jīng)過球心,而是有一個微小的偏移量

        3 理想成像模型的系統(tǒng)誤差分析

        雖然理想全景模型被廣泛采用,但是嚴(yán)格全景模型理論上顯然更加嚴(yán)密,以下將分別從單光線定位與后方交會,立體像對核線約束等方面分析理想模型的系統(tǒng)誤差。

        3.1 單光線物方投影誤差

        假設(shè)方位元素和物方投影面高程已知,可獲得投影點的物方平面坐標(biāo)。不失一般性,僅考慮x方向的系統(tǒng)偏差。如圖3(a)所示,真實物體P′過實際投影中心C,成像于u,物像距離為d,全景理想模型認(rèn)為投影中心為S,使得P′被移動至P。設(shè)z方向為獨立相機(jī)主光軸方向,側(cè)視角為k,獨立相機(jī)到球心距離為t,且由于t非常小, Cu≈Su=r,則根據(jù)相似三角可得

        式中,t、r可視作常量,則投影誤差是物像間距d、側(cè)視角k的函數(shù)。一般而言,物像距離根據(jù)鏡頭的參數(shù)而定,對于本文采用的Ladybug3系統(tǒng),最佳全景球面半徑r為20 m,最遠(yuǎn)成像距離不宜超過40 m,則物像間距最大為20 m;另一方面,近距離物體會引起較大的拼接誤差,最近一般不超過4 m,則物像距離d∈(-20 m,16 m)(指向球心為正)。最大側(cè)視角k由獨立相機(jī)個數(shù)計算, 5個側(cè)視相機(jī)平均分?jǐn)?2°視角,可得k∈(0°, 36°)。此時可得兩極最大誤差-0.025 m和0.02 m,分別在k=36°,d=-20 m和k=36°, d=16 m時取得。然而,在影像配準(zhǔn)、匹配、平差等處理流程中,只有少量的影像邊緣點會被采用,絕大部分點的投影誤差不會超過0.01 m,根據(jù)式(10)換算為像素,即0.5像素,可認(rèn)為是一個小量(Ladybug3焦距f為3.3 mm,像素大小p0為4.4 um)

        圖3 理想全景模型單光線投影誤差示意圖Fig.3 The single ray localization errors of the ideal panoramic models

        3.2 像方投影誤差

        類似可分析單光線像方投影誤差。如圖3(b),真實像點u被移動至u′。過C作SP垂線并交之于C′,則根據(jù)三角相似可得

        與物方投影誤差相仿,其誤差也與側(cè)視角k,物像間距d相關(guān)。最大誤差近-0.1 m,于k=36°,d=16 m處取得。

        3.3 核線誤差

        相較于式(6),式(5)忽視了獨立相機(jī)到全景球心的偏移量而導(dǎo)致理想模型的核線誤差。推導(dǎo)簡便起見,相較于B,t1、t2是可略的微小量,可將式(6)寫為

        式中,等式左邊代表了理想核線模型,而等式右邊不為0,恰反映了理想核線模型的系統(tǒng)誤差。將微小項t1×t′2忽略,并只考慮水平攝影,即BZ=0、Z1=Z2,則繼續(xù)簡化可得

        式中,理想核線誤差與攝影基線B、旋轉(zhuǎn)矩陣R和左片的Z1坐標(biāo)相關(guān)。如果無旋轉(zhuǎn),則核線誤差為0;相反的,核線誤差隨旋轉(zhuǎn)角增大而增加。BX反映立體像對間的尺度,設(shè)置為1,BY一般小于BX。若只考慮車載全景相機(jī)水平旋轉(zhuǎn),R可僅由水平旋轉(zhuǎn)角k表達(dá)??紤]通常的情況:設(shè)k∈(0°,30°),球半徑20 m,Z1∈(-16 m,16 m),再令BY=0.2 m,代入式(14)可得最大誤差為0.25 m,在Z1=±16 m,k=30°時產(chǎn)生。根據(jù)式(10)可知此誤差相當(dāng)于10像素。

        4 試 驗

        4.1 試驗設(shè)計

        為驗證本文所推導(dǎo)的全景理想模型誤差分布的正確性,采用兩組典型實際數(shù)據(jù)進(jìn)行試驗。試驗所用的全景相機(jī)統(tǒng)一采用LadyBug3系統(tǒng),其獨立魚眼鏡頭成像大小為1616像素×1232像素,全景影像球面半徑為20 m。第1組試驗數(shù)據(jù)在室外環(huán)境中采集,采用車載全景相機(jī)拍攝了3張影像,間隔1 m,并布設(shè)8個控制點,控制點由Trimble 5800 GPS接收機(jī)搭配全站儀測量獲取, 3D定位精度約2 cm,如圖4(a)所示。第2組試驗數(shù)據(jù)取自室內(nèi)走廊,5張影像由安置于手推車上的全景相機(jī)獲取。圖4(b)是采用高精度Rigel VZ1000 LIDAR獲取的全景偽影像,其定位精度約3 mm。白色三角代表實際控制點,黑色圓圈代表檢查點。這兩組數(shù)據(jù)具有明顯的差異。室內(nèi)影像的物距約3~8 m,旋轉(zhuǎn)角相對較大,約15°;而室外數(shù)據(jù)的物距約10~25 m,旋角近于0。從式(11)、式(14)可知,投影球面(像距)固定時,物距和旋轉(zhuǎn)角正是理想模型系統(tǒng)誤差的關(guān)鍵參數(shù)。

        采用以上兩組數(shù)據(jù),共設(shè)計了3組對比試驗。第1組比較兩種模型的空間后方交會誤差;第2組比較核線誤差;第3組進(jìn)行光束法平差以分析3D定位誤差。

        4.2 空間后方交會誤差分析

        表1顯示了空間后方交會的結(jié)果。在室外試驗中,兩個模型的中誤差(σ0),外方位元素(EO)精度幾乎完全一致。從式(11)可知,像方的定位精度受視角大小和物像間距的綜合影響;由于室外數(shù)據(jù)的物距在10~25 m之間,即物像間距為-10~5 m,使得部分控制點即使位于較大的視角上,也能保證很小的像方定位誤差。

        圖4 室內(nèi)外全景數(shù)據(jù)及控制點Fig.4 The indoor and outdoor panoramic images and GCPs

        表1 空間后方交會結(jié)果Tab.1 Space re-section results of the two models

        與此相反,室內(nèi)試驗顯示了兩種模型的明顯區(qū)別。理想模型的σ0比嚴(yán)格模型精度低2 cm, EO的精度也相對較低。由于物距是3~8 m,與室外相比,大視角的控制點產(chǎn)生更大的定位誤差。括號內(nèi)是新增了一個位于5號魚眼相機(jī)的控制點的結(jié)果,可見理想模型的中誤差大大增加,原因是5號相機(jī)指向天空,與其他的4個水平指向相機(jī)不在同一平面。對嚴(yán)格模型而言,是否引入5號相機(jī)控制點,其精度幾乎不變。

        4.3 核線誤差分析

        為驗證核線誤差,首先從一組立體像對中通過影像匹配精確提取了足夠的同名像點,并根據(jù)兩種模型分別計算了相對定向元素,其中,水平旋轉(zhuǎn)角k為6.88°,其他兩個角度為0。然后根據(jù)式(7)、式(8)計算右影像核線。取右片同名像點到核線的最小距離代表核線誤差。圖5顯示了79個同名點的核線誤差,嚴(yán)格模型的核線誤差(菱形)平均為0.48像素,與匹配精度相當(dāng);隨著Z坐標(biāo)的增加,核線誤差有微小的增加趨勢,可能由相機(jī)檢校的微小誤差引起。而對于理想模型,核線誤差(方形)明顯更大,平均約1.88像素,并且隨著Z坐標(biāo)的增加而增加。對稱實線表示根據(jù)式(14)繪制的理想模型核線的理論誤差分布,可見理論分布與實際誤差的一致性。

        圖5 全景相機(jī)的核線誤差示意圖Fig.5 The epipolar errors of the two panoramic models

        4.4 光束法平差分析

        表2顯示了兩種模型的光束法平差結(jié)果。在室外試驗中,平差中誤差(σ0)與EO的精度幾乎一致,嚴(yán)格模型略優(yōu)。全景影像的σ0約0.02 m,看似與傳統(tǒng)平面相機(jī)RMSE的微米級相差甚遠(yuǎn),然而,20 m處的等效像元大小約0.026 m,這表示σ0優(yōu)于1像素,因此同樣符合傳統(tǒng)意義上的像點量測精度。全景相機(jī)平差的另外一個特點是,σ0約等于3D前交的精度。這同樣可由物距接近20 m來解釋,即物距約等于全景球面半徑,即像距。圖6(a)顯示了控制點殘差。其中,點K 7、K 5和H 2作為控制點,其余作為檢查點;在理想模型中,檢查點的平均3D定位誤差是0.056 8 m,在嚴(yán)格模型中是0.052 6 m,兩者基本一致。因此,根據(jù)表3,可知室外試驗中兩個模型的差異可被忽略;該結(jié)論與式(7)的理論分析相符合:絕大多數(shù)特征點物像距離在-10~5 m之間,使得最大誤差不超過0.01 m。因此所有連接點誤差平差分配后,嚴(yán)格模型只有幾個毫米的優(yōu)勢。

        表2也顯示了室內(nèi)數(shù)據(jù)兩種模型的平差比較,σ0、EO精度和3D交會誤差都有明顯的差異。理想模型的σ0和3D交會誤差約0.04 m,是嚴(yán)格模型的兩倍。圖6(b)顯示了檢查點殘差,P 6、P 7和P 9作為控制點,其余作為檢查點。嚴(yán)格模型7個檢查點的平均誤差是0.026 8 m,而理想模型是0.052 6 m,表明室內(nèi)試驗中兩種模型的定位結(jié)果非常明顯。這主要是由于物距約3~8 m,即物像距-17~12 m,根據(jù)式(7)可知,當(dāng)平均旋角為15°時,將產(chǎn)生約2 cm的系統(tǒng)誤差。這解釋了理想模型的定位誤差比嚴(yán)格模型低2 cm。

        與理想模型相比,嚴(yán)格模型在室內(nèi)外的表現(xiàn)近乎一致,不受物距、旋角影響,反映了模型的精確性,唯一的區(qū)別是檢查點的精度。室內(nèi)檢查點精度是0.026 8 m,與3D交會誤差相符;而室外數(shù)據(jù)的檢查點精度是0.05 m,大于理論交會誤差,這是由于室外GPS控制點的精度僅2 cm,若采用高精度控制點,室外檢查點精度將會得到提高。

        表2 兩種模型平差結(jié)果比較Tab.2 BA results of the two models

        圖6 光束法平差3D定位誤差示意圖Fig.6 3D localization check errors of the two panoramic models

        5 結(jié) 論

        本文分析了一種廣泛采用的全景理想成像模型的系統(tǒng)誤差,并與嚴(yán)格成像模型作了室內(nèi)外試驗對比。室外試驗說明,兩種模型的差異微小,都適用于室外的車輛精確定位和3D測量。而室內(nèi)試驗說明,嚴(yán)格模型能夠取得更高的定位精度和核線精度。兩組試驗的差異同時也支持了本文對理想模型誤差規(guī)律的理論分析:定位誤差隨著物像間距與視角的增加而增大;核線誤差隨Z坐標(biāo)和旋轉(zhuǎn)角的增加而增大。

        筆者推薦采用嚴(yán)格模型,盡管其稍復(fù)雜于理想模型。因為除了文中的分析,理想模型還有兩個較大的缺點:首先,如果立體像對間的旋角過大,例如同名像點出現(xiàn)在0號和5號相機(jī),則可能出現(xiàn)比本文理論分析更大的系統(tǒng)誤差;其次,許多組合式全景相機(jī)的獨立鏡頭投影中心與全景中心的距離Tr遠(yuǎn)大于4 cm,根據(jù)式(4),這將導(dǎo)致比本文采用的Ladybug3相機(jī)更大的系統(tǒng)誤差。

        然而,全景理想模型在很多應(yīng)用中也行之有效。首先,室外3D測量的結(jié)果與嚴(yán)格模型近乎相當(dāng)。筆者也測試了長軌跡數(shù)千張車載全景影像的平差,兩個模型的收斂性近乎一致。更重要的是,很多定位應(yīng)用并不需要毫米、厘米級的攝影測量精度。如長距離車輛、機(jī)器人實時定位,其累計誤差將達(dá)到數(shù)米甚至更高,幾個厘米的系統(tǒng)誤差完全可被忽略。這也是自動機(jī)器人、視覺SLAM等研究領(lǐng)域廣泛采用理想模型的原因。

        [1] ANGUELOV D,DULONG C,FILIP D,et al.Google Street View:Capturing the World at Street Level[J].Computer, 2010,43(6):32-38.

        [2] XIAO Xiao.High Resolution Panoramic Imaging System and Visual Application[D].Hangzhou:Zhejiang University, 2009.(肖瀟.高分辨率全景成像系統(tǒng)及其視覺應(yīng)用研究[D].杭州:浙江大學(xué),2009.)

        [3] YANG Shaoping,CHEN Xiong,KONG Qingsheng.Imagebased Visual Serving for Mobile Robots with Central Panoramic Camera[J].Computers Engineering and Design,2010,31(19):4261-4264.(楊少平,陳雄,孔慶生.采用全景相機(jī)的移動機(jī)器人視覺伺服[J].計算機(jī)工程與設(shè)計,2010,31(19):4261-4264.)

        [4] IKEDA S,SATO T,YOKOYA N.High-resolution Panoramic Movie Generation from Video Streams Acquired by An Omnidirectional Multi-camera System[C]∥Proceedings of IEEE 19 International Conference on Multisensor Fusion and Integration for Intelligent Systems(MFI2003).[S.l.]:IEEE,2003:155-160.

        [5] MEI C,BENHIM ANE S,M ALIS E,et al.Efficient Homography-based Tracking and 3-D Reconstruction for Single-viewpoint Sensors[J].IEEE Transactions on Robotics,2008,24(6):1352-1364.

        [6] GEYER C,DANIILIDIS K.Catadioptric Projective Geometry[J].International Journal of Computer Vision,2001,45(3): 223-243.

        [7] BARRETO P,ARAUJO H.Geometric Properties of Central Catadioptric Line Images and Their Application in Calibration[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2005,27(1):1327-1333.

        [8] PARIAN A,GRUEN A.Sensor Modeling,Self-calibration and Accuracy Testing of Panoramic Cameras and Laser Scanners[J].ISPRS Journal of Photogrammetry and Remote Sensing,2010,65:60-76.

        [9] SCHNEIDER D,MAAS H.A Geometric Model for Lineararray-based Terrestrial Panoramic Cameras[J].Photogrammetric Record,2006,21(115):198-210.

        [10] KAESS M,DELLAERT F.Probabilistic Structure Matching for Visual SLAM with A Multi-camera Rig[J].Computer Vision and Image Understanding,2010,114(2):286-296.

        [11] PAYA L,FERNANDEZ L,GIL A,et al.Map Building and Monte Carlo Localization Using Global Appearance of Omnidirectional Images[J].Sensors,2010,10(12): 11468-11497.

        [12] GUTIERREZ D,RITUERTO A,MONTIEL J,et al.Adapting A Real-time Monocular Visual SLAM from Conventional to Omnidirectional Cameras[C]∥Proceedings of the 11th OMNIVIS in IEEE International Conference on Computer Vision(ICCV).Barcelona:IEEE,2011:343-350.

        [13] SILPA ANAN C,HARTLEY R.Visual Localization and Loop-back Detection with A High Resolution Omni-directional Camera[C]∥Workshop on Omnidirectional Vision and Camera Networks.[S.l.]:Omnivis,2005.

        [14] TARDIF J,PAVLIDIS Y,DANIILIDIS K.Monocular Visual Odometry in Urban Environments Using An Omnidirectional Camera[C]∥Proceedings of IEEE/RSJ Conference on Intelligent Robots and Systems(IROS).[S.l.]:IEEE, 2008:2531-2538.

        [15] JI Shunping,SHI Yun.Image Matching and Bundle Adjustment Using Vehicle-based Panoramic Camera[J].Acta Geodaetica et Cartographica Sinica,2013,42(1): 94-100.(季順平,史云.車載全景相機(jī)的影像匹配和光束法平差[J].測繪學(xué)報,2013,42(1):94-100.)

        [16] SHI Yun,JIShunping,SHIZhongchao,et al.GPS-supported Visual SLAM with A Rigorous Sensor Model for A Panoramic Camera in Outdoor Environments[J].Sensors,2013,13(1):119-136.

        [17] KANNALA J,BRANDT S.A Generic Camera Model and Calibration Method for Conventional,Wide-angle,and Fisheye Lenses[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2006,28(8):1335-1340.

        [18] SATO T,IKEDA S,YOKOY A N.Extrinsic Camera Parameter Recovery from Multiple Image Sequences Captured by An Omni-directional Multi-camera System [J].Camera,2004,2:326-340.

        [19] SATO T,YOKOYA N.Efficient Hundreds-baseline Stereo by Counting Interest Points for Moving Omni-directional Multi-camera System[J].Journal of Visual Communication and Image Representation,2010,21(5-6):416-426.

        [20] LI Deren,ZHENG Zhaobao.Analytical Photogrammetry [M].Beijing:Suveying and Mapping Publications,1992.(李德仁,鄭肇葆.解析攝影測量學(xué)[M].北京:測繪出版社,1992.)

        [21] KANG Zhizhong,ZHANG Zuxun,YANG Fanlin.Relative Orientation and Epipolar Arrangement Based on Forward Moving Image Pairs along the Optical Axis[J].Acta Geodaetica et Cartographica Sinica,2007,36(1):56-61.(康志忠,張祖勛,陽凡林.基于沿主光軸方向攝影立體像對的相對定向與核線排列[J].測繪學(xué)報,2007,36(1): 56-61.)

        (責(zé)任編輯:宋啟凡)

        Comparison of Two Sensor Models for Multi-camera Rig System in Measurements

        Jl Shunping1,3,SHl Yun2,3
        1.School of Remote Sensing and lnformation Engineering,Wuhan University,Wuhan 430049,China;2.Key Laboratory of Agri-informatics lnstitute of Agricultural Resources and Regional Planning,Chinese Academy of Agricultural Sciences,Beijing 100081,China;3.CSlS,the University of Tokyo,Tokyo,Japan

        According to a rigorous sensor model for multi-camera rig system,the error sources of the most widely used ideal panoramic sensor model are indicated,error distribution laws are deduced,and comprehensive comparison between the two models are given.First,the resection and 3D localization errors of the ideal model are analyzed respectively in a single panoramic image that shows the correlations both with the object-image distance and the viewing angle.Second,the epipolar errors of the stereo-pairs are analyzed,which are both affected by the rotation angles and z-coordinates of the image points.Finally, the comparative experiments are carried out in space resection,epipolar constraints and bundle adjustment with the two sensor models.The outdoor test shows the difference between the two models is slight,and both models achieve 1 pixel accuracy.ln contrast,the indoor test shows that the rigorous model is stricter and produces obviously better measurement accuracy than the ideal model.All the test results are consistent with the deduced analytical error laws of the ideal panoramic sensor model.

        panoramic sensor model;multi-camera rig;measurement accuracy;panoramic epipolar

        Jl Shunping(1979—),male,associate professor,majors in matching and location of highresolution aerial and satellite remote sensing images and ground mobile mapping systems.

        SHl Yun

        P237

        A

        1001-1595(2014)12-1252-07

        國家973計劃(2012CB719902);農(nóng)業(yè)部農(nóng)業(yè)信息技術(shù)重點實驗室開放課題(2012004)

        2013-05-20

        季順平(1979—),男,博士,副教授,主要研究方向為航空、航天遙感影像幾何處理及地面車載測圖系統(tǒng)。

        E-mail:jishunping@whu.edu.cn

        史云

        E-mail:shiyun@caas.cn

        JI Shunping,SHI Yun.Comparison of Two Sensor Models for Multi-camera Rig System in Measurements[J].Acta Geodaetica et Cartographica Sinica,2014,43(12):1252-1258.(季順平,史云.多鏡頭組合型全景相機(jī)兩種成像模型的定位精度比較[J].測繪學(xué)報, 2014,43(12):1252-1258.)

        10.13485/j.cnki.11-2089.2014.0169

        修回日期:2014-04-18

        猜你喜歡
        系統(tǒng)誤差球面全景
        戴上耳機(jī),享受全景聲 JVC EXOFIELD XP-EXT1
        球面檢測量具的開發(fā)
        全景敞視主義與偵探小說中的“看”
        基于ADS-B的航空器測高系統(tǒng)誤差評估方法
        基于Bagging模型的慣導(dǎo)系統(tǒng)誤差抑制方法
        Heisenberg群上移動球面法的應(yīng)用——一類半線性方程的Liouville型定理
        從5.1到全景聲就這么簡單 FOCAL SIB EVO DOLBY ATMOS
        全景搜索
        特別文摘(2016年21期)2016-12-05 17:53:36
        存在系統(tǒng)誤差下交叉定位系統(tǒng)最優(yōu)交會角研究
        基于奇異譜的精密離心機(jī)空氣軸承主軸回轉(zhuǎn)系統(tǒng)誤差分析
        欧美喷潮久久久xxxxx| 国产亚洲精品久久情侣| 欧美激情综合色综合啪啪五月| 大肉大捧一进一出好爽视频mba| 伊人久久亚洲综合影院首页| 91成人自拍视频网站| 一区二区三区视频在线观看免费| 国产精品18久久久| 在线免费毛片| 国产激情视频在线观看你懂的| av免费不卡一区二区| 欧美性受xxxx狂喷水| 国产a级午夜毛片| 国产成人精品中文字幕| 亚洲国产成人av二区| 99久久婷婷国产精品综合| 狠狠色丁香婷婷久久综合| 一本大道色婷婷在线| 亚洲色婷婷综合开心网| 国产精品亚洲一区二区三区在线| 成人免费无遮挡在线播放| 亚洲自偷自偷偷色无码中文| 亚洲一区二区成人在线视频| 国产视频一区二区在线免费观看| 国产av无码专区亚洲av中文| 国产亚洲日韩在线三区| 加勒比日本东京热1区| 亚洲精品一区二区三区在线观| 蜜臀av色欲a片无码精品一区| 亚洲人成网站免费播放| 日本二区视频在线观看| 人妻av有码中文字幕| 少妇无码一区二区三区免费| 国产亚洲精品综合一区| 精品成人av人一区二区三区 | 91久久青青草原线免费| 亚洲第一页综合av免费在线观看| 日韩乱码中文字幕在线| 无码av免费一区二区三区| 精品欧洲AV无码一区二区免费| 国产一区二区三区日韩在线观看|