李晨曦
(北京空間機電研究所,北京 100076)
高分辨率遙感衛(wèi)星的出現(xiàn),使得利用衛(wèi)星遙感立體影像實現(xiàn)地面目標的高精度定位與大比例尺測圖成為可能。傳感器成像幾何模型的建立是進行地面目標定位和大比例尺測圖的基礎,它反映了地面點的三維空間坐標與相應像點在像平面坐標系中二維坐標之間的數(shù)學關(guān)系。
遙感衛(wèi)星立體影像傳感器模型主要可以分為以下兩大類:
1)物理傳感器模型,又稱嚴密傳感器模型??紤]成像時造成影像變形的物理參數(shù)如地表起伏、大氣折射、相機攝影參數(shù)以及衛(wèi)星的位置、姿態(tài)變化等,然后利用這些物理條件構(gòu)建成像幾何模型。通常這類模型的數(shù)學形式較為復雜且需要完整的傳感器信息,但由于其在理論上是嚴密的,因而模型的定位精度較高。
2)通用傳感器模型。不考慮傳感器成像的物理因素,直接采用數(shù)學函數(shù)如多項式、直接線性變化方程式以及有理函數(shù)多項式等形式來描述地面點和相應像點之間的幾何關(guān)系。這類方法與具體傳感器無關(guān),數(shù)學模型形式簡單、計算速度快,但屬于不甚嚴密的表達方式。
以下將選擇幾種具有代表性的主流傳感器模型進行詳細分析。
嚴密傳感器模型是在已知相機或傳感器位置和方位的條件下,采用嚴密的幾何變換,建立像點坐標與相應的地面點三維空間坐標關(guān)系的模型[1]。在這類傳感器模型中,最具有代表性的是以攝影測量學中的共線方程為基礎的傳感器模型。
目前絕大部分遙感衛(wèi)星均采用線陣CCD作為成像器件,通過推掃成像的方式獲取立體影像,如圖1所示。相機在每一個成像時刻是中心投影,得到一行線影像,一幅影像由若干行線影像構(gòu)成,形成一個多中心投影方式。
圖1 線陣CCD傳感器成像方式
根據(jù)共線方程,該影像第i掃描行上任一像點坐標與其對應地面點三維空間坐標滿足以下關(guān)系式:
式中 (xi,0)為第i掃描行上像點的像平面坐標;(X,Y,Z)為其對應地面點三維空間坐標;f為相機主距;(Xsi,Ysi,Zsi)為第 i掃描行的攝站坐標;(ai,bi,ci)為旋轉(zhuǎn)矩陣中的元素,由第i掃描行的外方位角元素(φi,ωi,κi)確定,具體關(guān)系參閱文獻[2]。
在已知相機具體參數(shù)和攝影時刻星歷軌道、姿態(tài)信息的情況下,將像點坐標代入式(1)中即可求出相應地面點三維空間坐標。由于共線方程是按照嚴格幾何投影關(guān)系得到的物象關(guān)系式,因此基于共線方程的嚴密傳感器模型在理論上是嚴密的,對衛(wèi)星影像的處理精度很高。
線陣CCD推掃式影像是行中心投影影像,即同一掃描行上的像點具有相同的外方位元素,不同掃描行之間的像點具有不同的外方位元素,由于這一動態(tài)特性導致影像的嚴密傳感器模型十分復雜。以IKONOS衛(wèi)星影像為例,其嚴密傳感器數(shù)學模型文件長度達183頁,相應的接口控制文件達到225頁[3],用商業(yè)后處理軟件實現(xiàn)這一嚴密模型是不現(xiàn)實的;同時,相機的具體參數(shù)和攝影時刻星歷軌道、姿態(tài)等信息對于普通用戶都是保密的。因此基于共線方程的嚴密傳感器模型雖然對衛(wèi)星影像的處理精度高,但并不是普通用戶可以建立的,一般由傳感器研制方或遙感影像處理單位以嚴密傳感器模型為基礎,開發(fā)專業(yè)的影像處理軟件,用于對衛(wèi)星影像進行幾何校正。如Gruen A等人開發(fā)的針對日本ALOS衛(wèi)星影像處理的SAT-PP軟件,對ALOS衛(wèi)星全色影像處理精度高程中誤差小于2.49m,平面中誤差在5.5m至6.6m之間[4],明顯優(yōu)于標稱15m的CE90的平面精度和6m的LE90的高程精度。Konecny G等人于1987年開發(fā)了以嚴密傳感器模型為內(nèi)核的遙感影像處理軟件—BLASPO[5],利用該軟件對MOMS-2衛(wèi)星影像[6]、SPOT和IRS-1C衛(wèi)星影像[7]、IKONOS和Quickbird衛(wèi)星影像[8]、SPOT5/HRS衛(wèi)星影像[9]均取得了很高的處理精度。
基于共線方程的遙感衛(wèi)星立體影像嚴密傳感器模型理論嚴密,校正精度高,但前提是必須已知攝影時刻的軌道星歷、姿態(tài)信息和傳感器詳細參數(shù),在實際應用中往往無法得到這些參數(shù);而且這種模型形式復雜,解算時運算量大,這也是選擇該模型處理遙感影像時需要注意的問題。
基于仿射變換的傳感器模型是通用傳感器模型的一種。某些遙感影像的攝影高度大、視場角較小,以1999年美國發(fā)射的IKONOS衛(wèi)星為例,其搭載的1m分辨率全色相機,焦距10m,視場角僅為0.93°。因此影像的外方位各元素之間往往存在著很強的相關(guān)性,這會影響解算外方位元素的穩(wěn)定性,導致對遙感影像處理精度不高。在這種情況下,Okamoto于1981年提出了一種基于仿射變換的傳感器模型[10],Snsumu Hattori與Tetsu Ono進一步研究與應用了該模型[11-12]。這種模型是建立在“小視場角內(nèi)的中心投影近似于平行光投影”的假設基礎上,即認為線陣CCD推掃式影像每一行影像的投影中心具有相同高度,投影中心平行,同時認為推掃是勻速的。我國張劍清教授對該模型進行了進一步的探討[13],在這種假設前提下,通過一系列幾何投影及仿射變換,得到像點坐標與相應地面點三維空間坐標數(shù)學關(guān)系如下:
式中 (x,y)為像點坐標;(X,Y,Z)為相應地面點三維空間坐標;f為相機焦距為攝影區(qū)域地面平均高度;ω為對非星下點區(qū)域成像時相機光軸與星下點方向夾角;Ai(i=1,2,3,…,8)為待求系數(shù)。
Fraser等人于2001年成功地將基于仿射變換的傳感器模型應用于IKONOS衛(wèi)星影像,在補償了由地球曲率引入的高度誤差之后,定位精度可達1m[14]。該模型應用于法國SPOT衛(wèi)星level1、level2立體影像[15],以及德國MOMS/2P衛(wèi)星立體影像[16]處理,均取得了較好的定位精度。
基于仿射變換的遙感衛(wèi)星立體影像傳感器模型考慮了側(cè)偏角、近似平行投影、地形起伏等因素,在不知道傳感器詳細參數(shù)的情況下,只需要少量地面控制點即可進行較高精度的衛(wèi)星影像的空間定位,這是它的優(yōu)勢。然而這種模型也存在著一定的局限性,由于其假設“小視場角內(nèi)的中心投影近似于平行光投影”,因此不適用于處理大視場角傳感器影像,通用性較差。
直接線性變換(Direct Linear Transformation)是一種直接建立像點坐標與地面點三維空間坐標關(guān)系的一種數(shù)學變換式?;谥苯泳€性變換的傳感器模型屬于通用傳感器模型的一種。其像點坐標與地面點三維空間坐標數(shù)學關(guān)系如下:
式中 (x,y)為像點坐標;(X,Y,Z)為相應地面點三維空間坐標;Li(i=1,2,3,…,11)為DLT系數(shù)。
只要已知6個地面控制點,將相應的像點坐標、地面點三維空間坐標代入式(3),即可得到12個方程,從而求解L1~L11的11個系數(shù),得到基于直接線性變換的遙感衛(wèi)星立體影像傳感器模型。
由式(3)可以看出,基于直接線性變換的傳感器模型完全不需要已知傳感器的任何參數(shù),同樣也不需要確定衛(wèi)星星歷、姿態(tài)等信息。其對衛(wèi)星影像的處理精度完全依賴于所選擇地面控制點的精度。
El-Manadili.Y等人于1996年使用基于直接線性變換的傳感器模型對法國SPOT衛(wèi)星影像進行了幾何精度校正[17],Savopol等人于1998年將該模型應用于印度IRS-1C衛(wèi)星影像的三維重建[18]。
實際上,由于基于直接線性變換的遙感器模型與嚴密傳感器模型間存在直接關(guān)系,因此基于直接線性變換的遙感器模型經(jīng)常應用于近景攝影測量中對攝影相機內(nèi)方位元素的標定[19]。在已知DLT系數(shù)的情況下,攝影相機內(nèi)方位元素的計算公式如下:
式中 (x0,y0)為相機的主點位置坐標;fx、fy分別為使用x方向和y方向像點坐標計算得到的相機主距;f為相機主距平均值。
基于直接線性變換的遙感衛(wèi)星立體影像傳感器模型對衛(wèi)星影像進行處理時無需傳感器參數(shù)以及衛(wèi)星星歷軌道、姿態(tài)等信息,具有表達式簡單、解算簡便、需要控制點數(shù)目少、無需初始值等優(yōu)點,廣泛應用于近景攝影測量和衛(wèi)星影像的解析定位。這種模型的缺點是沒有考慮影像外方位元素隨時間變化的特點,將動態(tài)推掃式影像等同于靜態(tài)畫幅式影像進行處理,且沒有考慮地表起伏等因素,導致處理精度的下降。
高分辨率衛(wèi)星成像過程中繁瑣的姿態(tài)控制導致影像的嚴格幾何模型形式極其復雜,要利用其提取地球空間三維信息,需要在向用戶提供影像的同時把衛(wèi)星詳細的軌道星歷、傳感器成像參數(shù)和成像方式等信息一并交付,并且,最終用戶需要具有攝影測量的專門知識和相當專業(yè)、復雜的應用處理軟件。為了降低對用戶專業(yè)水平的要求,同時保護衛(wèi)星的核心技術(shù)參數(shù)不被泄露,某些廠家開始向用戶提供一種與傳感器無關(guān)的通用模型——基于有理函數(shù)的傳感器模型。基于有理函數(shù)的衛(wèi)星立體影像傳感器模型是目前應用最為廣泛且定位精度最高的通用傳感器模型。
有理函數(shù)模型(Rational FunctionModel,RFM)是將像點坐標表示為以相應地面點三維空間坐標為自變量的多項式的比值,利用有理函數(shù)逼近二維像平面與三維物空間的對應關(guān)系。有理函數(shù)的一般形式如下:
其中 (u,v)為像點坐標;(X,Y,Z)為相應地面點三維空間坐標;aijk,bijk,cijk,dijk被稱為有理函數(shù)系數(shù)(Rational Function Coefficient,RFC)。
有理函數(shù)可取不同的次數(shù),式(5)中每一項的各個坐標分量(X,Y,Z)的次數(shù)最大不超過3,每一項各個坐標分量的次數(shù)的總和也不超過3(通常有1,2,3三種取值)。另外,分母項p3和p4的取值可以有兩種情況:p3=p4(可以是一個多項式也可以是一個常量1);p3≠p4。在模型中由光學投影引起的誤差表示為一階多項式,而地球曲率、大氣折射及鏡頭畸變等引起的誤差,可由二階多項式趨近。高階部分其他未知誤差可由三階多項式模擬。
有理函數(shù)次數(shù)越高,待求的有理函數(shù)系數(shù)越多,需要的地面控制點數(shù)目也就越多。以p3(X,Y,Z)=p4(X,Y,Z)且為3次多項式為例,共有60個待求有理函數(shù)系數(shù),則至少需要30個地面控制點才能求解這些未知參數(shù),并且要求控制點在物空間平面和高程范圍內(nèi)均勻分布。
基于有理函數(shù)的傳感器模型最初應用于IKONOS衛(wèi)星影像處理。Space Imaging公司在出售衛(wèi)星影像的同時,向客戶提供用于構(gòu)建有理函數(shù)模型的參數(shù)文件,文件中共包含90個衛(wèi)星影像參數(shù),其中80個為有理函數(shù)系數(shù),10個為規(guī)格化參數(shù)。由這90個參數(shù)就可以構(gòu)建IKONOS衛(wèi)星影像的有理函數(shù)模型,從而對衛(wèi)星影像進行處理。張永生等人的實驗證明,使用Space Imaging公司提供的有理函數(shù)傳感器模型對IKONOS衛(wèi)星影像進行處理,X、Y方向最大定位誤差分別為9.656m和-5.981m,高程最大定位誤差為11.373m;X、Y方向中誤差分別為6.702m和3.684m,高程中誤差為8.531m,明顯優(yōu)于標稱的25m CE90的平面精度和12m LE90的高程精度[20]。
隨著基于有理函數(shù)的傳感器模型成功應用于IKONOS衛(wèi)星影像處理,為實現(xiàn)商業(yè)利益最大化并保證傳感器核心信息不外泄,越來越多的衛(wèi)星廠家開始采取不公布傳感器詳細信息,只提供衛(wèi)星影像有理函數(shù)模型的銷售策略,如印度IRS-P5衛(wèi)星、韓國KOMPSAT-2衛(wèi)星、美國World View-1/2衛(wèi)星等。目前國際上遙感影像商業(yè)處理軟件主要有ENVI、PCI、ERDAS等,這幾種軟件以兼容多種衛(wèi)星影像且處理精度高而著稱。它們對遙感影像處理的核心思路就是通過建立相應衛(wèi)星影像的有理函數(shù)傳感器模型,從而實現(xiàn)高的影像處理精度。這也從一個側(cè)面說明與其他通用傳感器模型相比,基于有理函數(shù)的遙感衛(wèi)星立體影像傳感器模型在通用性、處理精度等方面都有著無可比擬的優(yōu)勢。
朱述龍等人利用不同的傳感器模型分別對同一地區(qū)的SPOT衛(wèi)星全色影像進行處理,得到如表1的結(jié)果[21]:
表1 SPOT衛(wèi)星影像處理精度
由比較結(jié)果也可以看出,基于共線方程的嚴密傳感器模型對衛(wèi)星影像的處理精度最高,控制點的定位精度達到子像元級;基于有理函數(shù)的傳感器模型的處理精度接近基于共線方程的嚴密傳感器模型的精度;基于直接線性變換的傳感器模型處理精度最低。
通過以上的研究分析可以得到如下結(jié)論:
1)基于共線方程的嚴密傳感器模型理論嚴密,對衛(wèi)星影像的處理精度最高,是對衛(wèi)星影像進行幾何校正極好的工具。但建立模型需要傳感器具體參數(shù)以及衛(wèi)星星歷軌道、姿態(tài)信息,對普通用戶來說有一定難度,且數(shù)學形式復雜,解算運算量大,一般商業(yè)衛(wèi)星影像處理軟件無法實現(xiàn),需開發(fā)專用軟件。
2)與嚴密傳感器模型相比,通用傳感器模型具有不需要傳感器詳細參數(shù)及衛(wèi)星星歷軌道、姿態(tài)信息、數(shù)學形式相對簡單、模型與具體傳感器無關(guān)等優(yōu)點,但由于模型在理論上不甚嚴密,導致其對影像的處理精度低于嚴密傳感器模型的處理精度。
3)通用傳感器模型中,基于有理函數(shù)的傳感器模型對衛(wèi)星影像的處理精度最高,在選擇合理分布的地面控制點情況下,其處理精度接近基于共線方程的嚴密傳感器模型處理精度。這種模型是目前國際上應用最廣泛的一種遙感衛(wèi)星立體影像處理模型。但與其他通用傳感器模型相比,其數(shù)學形式較為復雜,需要較多的地面控制點進行解算?;谥苯泳€性變換的遙感器模型對影像處理精度低,其優(yōu)勢是完全獨立于具體的傳感器及衛(wèi)星星歷軌道、姿態(tài)信息,只需要少量地面控制點即可以進行解算。在未知任何傳感器及衛(wèi)星星歷軌道、姿態(tài)信息僅有衛(wèi)星影像的前提下,基于直接線性變換的傳感器模型不失為一種選擇。
4)基于仿射變換的傳感器模型在處理長焦距小視場角的傳感器獲得的影像時能得到較好的處理精度,但其通用性差,對于大視場角衛(wèi)星影像不適用。
在對遙感衛(wèi)星立體影像進行處理時,可綜合考慮處理精度、模型復雜程度、對已知數(shù)據(jù)要求等多方面因素,選擇適當?shù)奶幚砟P汀?/p>
[1]張永生,鞏丹超,劉軍,等.高分辨率遙感衛(wèi)星應用(成像模型、處理算法及應用技術(shù))[M].北京:科學出版社,2004.
[2]李德仁,王樹根,周月琴.攝影測量與遙感概論[M].北京:測繪出版社,2008.
[3]陳聞暢.IKONOS成像機理及立體測圖精度研究[D].武漢大學,2005.
[4]Gruen A,Kocaman S,Wolff K.Calibration andValidation of Early ALOS/PRISM Images[J].Journalof the JapanSociety of Photogrammetry and Remote Sensing,2007,46(1):24-38.
[5]Konecny G,Kurck E,Lohmann P,et al.Evaluation of SPOT Imagery on Analytical Photogrammetric Instrument[J].PE&RS,1987,53(9):1223-1230.
[6]Büyüksalih G,JacobsenK.Geometric Aspects of MOMS-2P Three-line-imagery for Mapping Applications[C].Annual Meeting of the Remote Sensor Society,Lancaster,UK,2000.
[7]Jacobsen K.Geometric Calibration of Space Remote Sensing Cameras for Efficient Processing[J].IAPRS,1998,32(Part 1):33-43.
[8]Jacobsen K,Konecny G,Wegmann H,et al.High Resolution Sensor Test Comparison with SPOT,KFA1000,KVR1000,IRS-1C and DPA in Lower Saxony.IAPRS,2003,32(Part 4):260-269.
[9]Jacobsen K.DEM Generation by SPOT HRS[J].IAPRS,2004,XXXV(Part B1):439-444.
[10]Okamoto A.Orientation Theory of CCD Line-scanner Images[J].InternationalArchives of Photogrammetry and Remote Sensing,1988,27(part B3):609-617.
[11]Hattori S,Ono T,Fraser C,et al.Orientation of High Resolution Satellite Images Based on Affine Projection[J].International Archives of Photogrammetry and Remote Sensing,2000,XXXIII(part B3):359-366.
[12]Ono T,Hattoris,Hasegawa H,et al.Digital Mapping Using High Resolution Satellite Imagery Based on 2D Affine Projection Model[J].International Archives of Photogrammetry and Remote Sensing,2000,XXXIII(part B3):672-677.
[13]張劍清,張祖勛.高分辨率遙感影像基于仿射變換的嚴格幾何模型[J].武漢大學學報信息科學版,2002,27(6):554-559.
[14]Fraser C S,Hanley H B,et al.Sub-meter Geopositioning with IKONOS GEO Imagery[C].Proceeding of ISPRS Workshop“High resolution mapping from space 2001”.18-21 September,Hanover,Germany.
[15]Okamoto A,Clive F,Hattori S,et al.An Alternative Approach to the Triangulation of SPOT Imagery[J].IAPR S,1998,32(Part B4):457-462.
[16]Hattori S,Ono T,et al.OrientationofHigh-resolutionSatellite Imagesbased inAffine Projection[J].IAPRS,2000,33(Part B1):359-366.
[17]El-Manadili Y,Novak K.Precision Rectification of SPOT Imagery Using the Direct Linear Transformation Model[J].PE&R S,1996,62(1):67-72.
[18]Savopol F,Armenakis C.Modelling of the IRS-1C Satellite PAN Imagery Using the DLT Approach[J].IAPRS,1998,32(Part4):511-514.
[19]馮文灝.近景攝影測量[M].武漢:武漢測繪科技大學,2000.
[20]張永生,劉軍.高分辨率遙感衛(wèi)星立體影像RPC模型定位的算法及其優(yōu)化[J].測繪工程,2004,13(1):1-4.
[21]朱述龍,史文中,張艷,等.線陣推掃式影像近似幾何校正算法的精度比較[J].遙感學報,2004,8(3):220-226.