亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種光學衛(wèi)星無控定位誤差智能建模方法

        2022-03-30 14:20:50劉偉玲
        計算機測量與控制 2022年2期
        關(guān)鍵詞:定位精度姿態(tài)衛(wèi)星

        陳 昊,喬 凱,劉偉玲

        (1.北京跟蹤與通信技術(shù)研究所,北京 100094; 2.武漢大學 測繪遙感信息工程國家重點實驗室,武漢 430000)

        0 引言

        長期以來,世界各國競相發(fā)展航天遙感技術(shù),陸續(xù)發(fā)射了系列對地觀測光學衛(wèi)星,如美國的GeoEye、WorldView系列衛(wèi)星,法國的SPOT、Pleiades系列衛(wèi)星等。國外依靠硬件優(yōu)勢,結(jié)合地面定標、誤差建模等高精度處理技術(shù),實現(xiàn)了光學衛(wèi)星全球最高3~5 m的無控定位精度[1-5]。“十二五”以來,我國在高分辨率對地觀測衛(wèi)星領(lǐng)域均取得重大成果,至“十三五”結(jié)束,我國高分專項衛(wèi)星完成部署,民用領(lǐng)域光學衛(wèi)星最高分辨率已可達0.5 m左右。雖然國內(nèi)光學衛(wèi)星影像分辨率日益趨近國外先進水平,但國內(nèi)光學影像無控精度普遍在10米開外,與國外仍有較大差距。

        已有研究表明,影響光學衛(wèi)星無控定位精度的因素包括姿態(tài)測量精度、結(jié)構(gòu)變形等引起的低頻姿態(tài)誤差。國內(nèi)相關(guān)單位針對上述兩方面開展了大量研究。針對姿態(tài)測量精度,2012年發(fā)射的資源三號01星,姿態(tài)測量精度/頻率可達到3″/4 Hz[6-8],2014年發(fā)射的高分二號衛(wèi)星姿態(tài)確定精度可達3.6″,2019年發(fā)射的高分七號衛(wèi)星姿態(tài)確定精度可達到1″,姿態(tài)測量誤差得到很好的控制[9];而針對低頻姿態(tài)誤差,熊凱等采用擴維卡爾曼濾波方法,將衛(wèi)星成像姿態(tài)、低頻誤差參數(shù)作為變量進行同時估計,并在真實衛(wèi)星遙測數(shù)據(jù)的基礎(chǔ)上構(gòu)建了仿真模型,利用仿真數(shù)據(jù)對所提方法開展驗證,結(jié)果表明該方法在低頻誤差較大情況下的效果明顯優(yōu)于低頻誤差較小情況,其中當?shù)皖l誤差較小情況的姿態(tài)確定精度甚至不如傳統(tǒng)的擴展卡爾曼濾波方法[10];Lai Yuwang等學者首先對STECE(空間技術(shù)試驗和氣候探測)衛(wèi)星兩顆星敏間的夾角變化進行頻譜分析,該研究認為星敏夾角變化可以側(cè)面反映因外熱流引起的結(jié)構(gòu)變形,最終造成姿態(tài)低頻誤差。通過采用Vondrak濾波算法可以抑制該誤差對姿態(tài)確定的影響,使濾波后的姿態(tài)低頻誤差峰值相交補償前更小[11-12]。

        國內(nèi)部分學者試圖從地面處理的角度出發(fā),直接建立無控定位精度隨成像參數(shù)的變化規(guī)律,以求對定位誤差進行預測補償。王艷麗等學者認為姿態(tài)低頻誤差主要由外熱流引起的結(jié)構(gòu)變化造成,且該變化與太陽高度角相關(guān),進而提出一種顧及太陽高度角變化的光學影像姿態(tài)低頻誤差標校與補償方法,建立了姿態(tài)低頻誤差的傅里葉級數(shù)展開模型,并利用地面控制求解模型參數(shù),將海洋1C衛(wèi)星無控定位精度從3.8像元提升到1個像元[13];管志超等學者同樣認為姿態(tài)低頻誤差與外熱流引起的結(jié)構(gòu)變形緊密相關(guān),該變形可能與成像星下點經(jīng)緯度存在關(guān)系,建立了無控定位誤差與成像星下點經(jīng)緯度的關(guān)系模型,并利用資源三號衛(wèi)星正視相機開展了驗證,建模精度可在10米以內(nèi)[14]。

        但是,姿態(tài)低頻誤差的產(chǎn)生原因是多方面的,包括星敏/星相機內(nèi)部隨溫度變化、外熱流引起的結(jié)構(gòu)變化等,因素多,難建模,傳統(tǒng)通過地面控制點結(jié)合經(jīng)驗模型的建模補償方法難以客觀、全面的揭示姿態(tài)低頻誤差的特征規(guī)律。本文提出了一種光學衛(wèi)星無控定位誤差智能建模方法。首先,基于卷積神經(jīng)網(wǎng)絡對無控定位精度建模;其次,以衛(wèi)星成像參數(shù)和業(yè)務系統(tǒng)全自動幾何質(zhì)檢結(jié)果作為學習樣本,利用網(wǎng)絡訓練無控定位精度與成像參數(shù)的關(guān)系,挖掘無控定位誤差規(guī)律;最后,通過預測定位誤差來提升無控定位精度。

        1 算法原理

        衛(wèi)星在軌運行中,通常采用GPS設備測量其相位中心在WGS84坐標系下的位置及速度矢量;星敏及陀螺等定姿設備測量衛(wèi)星成像姿態(tài):當星敏參與定姿時,利用觀測數(shù)據(jù)最終確定衛(wèi)星本體相對于J2000坐標系的姿態(tài);而當星敏不參與定姿時,則通常測量衛(wèi)星本體相對于軌道坐標系的姿態(tài)。當前國內(nèi)在軌的線陣推掃衛(wèi)星均采用了星敏定姿,因此本文研究幾何定位模型中僅考慮J2000坐標系下的姿態(tài)測量數(shù)據(jù)。

        相機隨著衛(wèi)星的運動而推掃成像,各行影像符合中心投影原理。依據(jù)相關(guān)坐標系定義及轉(zhuǎn)換,可構(gòu)建線陣推掃光學衛(wèi)星幾何定位模型如下[15-16]:

        根據(jù)幾何定位模型,成像誤差源梳理如表1所示。

        表1 誤差源梳理

        表1中,“”標示誤差通??梢酝ㄟ^常態(tài)化在軌幾何定標進行消除,“”代表難以通過定標消除的在軌誤差??梢姡绊憻o控定位精度的主要誤差源來自于姿態(tài)低漂、姿態(tài)隨機誤差、時間隨機誤差。目前已有研究種,部分學者認為姿態(tài)低漂主要由外熱流引起的結(jié)構(gòu)變形造成,其可能與成像星下點經(jīng)緯度或太陽高度角有關(guān);而姿態(tài)隨機誤差則認為主要由星點識別誤差造成,與星敏/星相機狀態(tài)、成像空間等相關(guān)。由于誤差產(chǎn)生機理復雜、誤差源多且難以解耦,傳統(tǒng)方法難以建立無控幾何定位精度的變化規(guī)律模型。因此,為更為全面、客觀地建立無控定位誤差隨姿態(tài)低頻誤差、測姿隨機誤差等的變化規(guī)律,本文搭建深度學習框架,以成像參數(shù)、無控定位誤差作為訓練對,通過模型訓練,實現(xiàn)對給定成像參數(shù)的無控定位誤差預測,進而提升無控定位精度。本文技術(shù)流程如圖1所示。

        圖1 光學衛(wèi)星無控定位誤差智能建模處理流程

        1.1 構(gòu)建光學無控定位誤差模型數(shù)據(jù)集

        無控定位誤差本質(zhì)上是由測姿隨機誤差、低頻誤差等引起。而測姿隨機誤差主要與星敏/星相機狀態(tài)(如因溫度變化造成的焦面變化)、成像空間(即觀測恒星的星等、數(shù)量等情況)相關(guān),而低頻誤差與外熱流等相關(guān),而無論溫度變化、成像空間變化或者外熱流等,均可包含在衛(wèi)星成像的相關(guān)參數(shù)種,例如星下點經(jīng)緯度、成像姿態(tài)。因此,可以利用無控定位誤差與成像參數(shù)作為訓練對來搭建樣本集。

        當前衛(wèi)星業(yè)務處理系統(tǒng)均包含自動幾何質(zhì)檢模塊,可以利用國內(nèi)外公開的較高精度幾何基準數(shù)據(jù)開展幾何質(zhì)檢,評估得到每景影像的無控定位誤差。為了進行無控定位誤差智能建模,文中對影響衛(wèi)星定位精度的核心要素進行篩選,例如可選取影響衛(wèi)星定位精度的星下點位置、成像姿態(tài)等作為模型回歸擬合的自變量,相應的定位誤差作為回歸擬合的因變量[18-19]:

        Y=f⊙(Xroll,Xpitch,Xyaw,Xlat,Xlon)

        (1)

        式中,xroll,xpitch,xyaw分別為影像拍攝時的成像角度,xlat和xlon分別為星下點經(jīng)緯度,⊙為神經(jīng)網(wǎng)絡運算。

        1.2 數(shù)據(jù)預處理

        衛(wèi)星成像數(shù)據(jù)傳輸過程,可能存在誤碼等現(xiàn)象,造成少量影像數(shù)據(jù)無控定位異常,該部分數(shù)據(jù)不應加入樣本集進行訓練。因此,在構(gòu)建數(shù)據(jù)集中,我們首先需要對樣本進行預處理,以提高模型預測精度。

        1)我們利用Pandas庫提供的drop函數(shù)接口和isna函數(shù)接口,對初始樣本集種的所有樣本進行數(shù)值探測,剔除數(shù)值過大或者過小的異常值,避免影響模型擬合精度。

        2)采用Pandas庫提供的corrwith函數(shù),對選擇的自變量和因變量進行相關(guān)性分析,若因變量與自變量相關(guān)性強,則說明該自變量因素是引起無控定位誤差變化的主要因素,若相關(guān)性弱,則該自變量因素可能與無控定位誤差變化無關(guān)。設定corrwith函數(shù)閾值為0.000 1,剔除相關(guān)性小于0.000 1的自變量因素。

        3)由于數(shù)據(jù)在數(shù)量級上存在較大差距,易造成模型陷入局部最優(yōu)狀態(tài),我們采用標準化方法對樣本集進行處理。在文中總共采用了3個函數(shù)進行標準化處理,分別是MinMaxScaler、Normalizer、StandardScaler。經(jīng)過反復驗證和調(diào)整參數(shù),最終采用的標準話函數(shù)是MinMaxScaler。最終獲取文中數(shù)據(jù)集。

        1.3 DenseNet模型構(gòu)建

        深度學習可以通過構(gòu)建具有多隱藏層的神經(jīng)元節(jié)點來構(gòu)建機器學習模型,并從海量的數(shù)據(jù)中學習隱藏的特征,以實現(xiàn)對數(shù)據(jù)的高準確性預測。深度學習之所以稱之為深度學習是因為它相較于淺層神經(jīng)網(wǎng)絡模型具有更多的層,并且它的優(yōu)勢是可以實現(xiàn)特征的自動學習,與傳統(tǒng)方法相比,它能挖掘更深層次的數(shù)據(jù)特征。

        卷積神經(jīng)網(wǎng)絡(CNN,convolutional neural networks)模型是深度學習中最具代表性的模型之一,在計算機視覺領(lǐng)域有著廣泛的應用,但隨著應用領(lǐng)域的不斷擴展,CNN模型在隨著網(wǎng)絡層數(shù)不斷加深時,神經(jīng)網(wǎng)絡層的梯度消失問題逐漸顯現(xiàn),這一問題也導致了CNN個學者對該問題的改進。DenseNet通過將所有層直接相互連接,在實驗過程中也驗證了該操作可以有效減輕梯度消失的問題。文中也借鑒了DenseNet網(wǎng)絡的優(yōu)勢[15],構(gòu)建適用于珞珈數(shù)據(jù)的神經(jīng)網(wǎng)絡模型。DenseNet網(wǎng)絡通過將每一層中的神經(jīng)元以前饋的方式與其他層均進連接,每一層的輸出都是前面所有層的輸入經(jīng)過激活函數(shù)計算得到的,此外,網(wǎng)絡中每一層都與輸入層連接,經(jīng)過實驗驗證發(fā)現(xiàn),該連接方式有效減輕了梯度消失的問題,并加強了數(shù)據(jù)特征的傳輸,有效了緩解了數(shù)據(jù)集上過擬合的問題,使得數(shù)據(jù)隱藏特征被充分挖掘,有效的提高了網(wǎng)絡預測精度。與殘差網(wǎng)絡(ResNet),由于DenseNet網(wǎng)絡的每一層都有自己的權(quán)重,整個模型參數(shù)數(shù)量巨大。但DenseNe的不同之處在于,它沒有一味的通過加深網(wǎng)絡層數(shù)來構(gòu)建網(wǎng)絡架構(gòu),這種機制有效了提高了參數(shù)的利用率,故在反向傳播過程中網(wǎng)絡需要更新的參數(shù)數(shù)量較少,模型也更加易于收斂,我們將DenseNet網(wǎng)絡結(jié)構(gòu)引入了回歸擬合中,激活函數(shù)采用了RELU函數(shù)[21]。

        1.4 模型優(yōu)化

        MBGD是深度學習中應用較為廣泛的優(yōu)化模型,它可以在梯度下降的方向上以很小的步幅來實現(xiàn)更新深度神經(jīng)網(wǎng)絡中每一層的權(quán)重和偏置等參數(shù)[16-17]。

        MBGD算法流程:

        輸入:樣本集的訓練集X_train和測試集X_test,迭代次數(shù)T,學習率α

        初始參數(shù)θ

        forttoT

        從X_train中選取k個樣本{xig},i=1,…k,g=1,2,3

        g=0

        fori=1 tokdo

        end for

        θt←θt-1-ηgt

        end for

        輸出θ。

        2 智能建模試驗

        2.1 實驗數(shù)據(jù)

        珞珈一號01星是首顆兼具遙感和導航功能的一星多用低軌微納科學試驗衛(wèi)星,2015年由武漢大學立項研制,2018年6月2日發(fā)射入軌,其主載荷為夜光成像相機和星基導航增強載荷,主要用于社會經(jīng)濟參數(shù)估算、重大事件評估、國家安全等領(lǐng)域,以及開展低軌星基導航信號增強試驗。珞珈一號01星的夜光遙感分辨率130 m,可清晰識別道路和街區(qū),優(yōu)于美國的DMSP/ OLS 2.7 km和NPP/VIIRS 740 m,目前該星已向22個國家和地區(qū)(包括美德法英等)3千多用戶分發(fā)了18萬多景夜光影像,為全球不同行業(yè)各類用戶提供免費數(shù)據(jù)服務,在社會經(jīng)濟參數(shù)估算、國家安全等領(lǐng)域發(fā)揮了重要作用[20]。

        試驗中共選取10 019景珞珈一號01星數(shù)據(jù)開展實驗。為了獲取試驗數(shù)據(jù)的無控定位誤差,考慮珞珈一號影像分辨率僅為130 m,我們采用google的15 m高分辨率影像作為幾何基準,采用全自動匹配的方法將珞珈一號01星影像與google底圖進行匹配獲取檢查點并計算影像的無控定位誤差。

        2.2 影響無控定位精度的自變量篩選及數(shù)據(jù)集確定

        試驗中搭建的神經(jīng)網(wǎng)絡的輸入層是:成像姿態(tài)參數(shù)(三軸向:Xroll是翻滾角,Xpitch是俯仰角、Xyaw是偏航角)、星下點經(jīng)緯度(Xlat為星下點精度、Xlon為星下點緯度)。珞珈一號01星采用雙星敏定姿,因此其成像姿態(tài)采用四元數(shù)表示,但四元數(shù)不利用模型建立。因此,實驗前,我們采用四元數(shù)與歐拉角的轉(zhuǎn)換公式,將四元數(shù)轉(zhuǎn)換成成像三軸歐拉角。數(shù)據(jù)集的構(gòu)建具體如下。

        表2 數(shù)據(jù)集構(gòu)建

        在數(shù)據(jù)集預處理過程中,我們對變量Xn(n=roll,pitch,……,lon)和Y進行了相關(guān)性分析,其中Xyaw與Y的相關(guān)性為0.000 1,按照統(tǒng)計學的觀點,該參數(shù)對定位精度的影響可忽略不計。實際上,由于偏航角誤差引起的像點偏移表現(xiàn)為像面旋轉(zhuǎn),其與衛(wèi)星飛行高度無關(guān),對無控定位精度的影響最小,故在實驗進程中,我們將該數(shù)據(jù)做了刪除處理。

        在模型構(gòu)建階段,數(shù)據(jù)集劃分比例對模型精度產(chǎn)生了一定的影響,在比例為0.6:0.4,0.65:0.35,0.7:0.3,0.75:0.25,0.8:0.2,0.85:0.15下,模型的精度在0.08~0.3中波動,其中在0.75:0.25的比例下,模型得到的預測精度最高,故將所有數(shù)據(jù)集按照此比例進行劃分。劃分采用Tensorflow框架提供的train_test_split函數(shù)實現(xiàn)。

        2.3 智能建模精度驗證

        文中基于DenseNet結(jié)構(gòu)設計了網(wǎng)絡模型,具體各層參數(shù)圖2所示。

        圖2 光學衛(wèi)星無控定位誤差智能模型

        通過對網(wǎng)絡模型的不斷調(diào)試,最終選擇采用包含6層的網(wǎng)絡模型,其中1~5層的神經(jīng)元個數(shù)為128個,最終輸出層神經(jīng)元個數(shù)為1。實驗中,各隱藏層的損失函數(shù)如表3所示。

        表3 模型各層損失函數(shù)

        由表3可知,最終模型整體評分為0.846 5,通過對數(shù)據(jù)集的進一步清理篩選,可以逐步提高模型的穩(wěn)定性和預測精度。

        選取了珞珈一號01星10 019景數(shù)據(jù)進行實驗,數(shù)據(jù)數(shù)量達到3 T,訓練集包含參數(shù)7 514景數(shù)據(jù)。模型訓練結(jié)果如表4所示。

        如表4所示,由于珞珈一號01星作為微納衛(wèi)星,平臺小、搭載的星敏等硬件測量精度較低,其無控定位誤差變化較大,試驗數(shù)據(jù)定位誤差范圍處于41~1 432 m之間,該部分誤差主要由于姿態(tài)低頻誤差、姿態(tài)測量隨機誤差等造成。但是,由于引起姿態(tài)低頻誤差、測量隨機誤差的因素眾多,難以建立較為準確的規(guī)律模型并通過傳統(tǒng)方法求解模型參數(shù),因此較難進行補償。而文中利用深度學習框架,通過搭建深度學習網(wǎng)絡對無控定位誤差與星下點經(jīng)緯度、成像姿態(tài)的關(guān)系進行訓練。利用試驗數(shù)據(jù)中的7 514景影像進行無控定位誤差的智能建模,訓練得到的模型可以非常準確地預測其余2 505景影像地無控定位誤差。表中結(jié)果表明,訓練網(wǎng)絡預測的無控定位誤差與真實評估得到的無控定位誤差僅僅相差10 m以內(nèi),即訓練網(wǎng)絡可以根據(jù)影像成像地星下點經(jīng)緯度和姿態(tài)來準確預測無控定位誤差,從而實現(xiàn)定位誤差補償,提升定位精度,如圖3所示。

        表4 基于珞珈一號真實數(shù)據(jù)影像定位精度預測結(jié)果,Ypred為預測結(jié)果

        圖3 訓練網(wǎng)絡預測值與真實值偏差

        3 結(jié)束語

        無控定位精度是影響光學衛(wèi)星影像應用的重要因素。文中從地面處理的角度出發(fā),將卷積神經(jīng)網(wǎng)絡引入定位誤差建模,選取衛(wèi)星成像星下點位置、成像姿態(tài)等作為可選變量,利用系統(tǒng)全自動質(zhì)檢獲取的無控定位誤差與可選變量組成學習樣本對,基于深度學習框架,通過DenseNet網(wǎng)絡和MDGB優(yōu)化模型構(gòu)建了無控定位誤差模型。利用珞珈一號真實在軌數(shù)據(jù)開展試驗,試驗結(jié)果表明,通過對模型進行訓練以及驗證,模型得到了較高的預測精度,并可根據(jù)該模型進行影像定位精度預測,模型預測精度小于1個像素。

        猜你喜歡
        定位精度姿態(tài)衛(wèi)星
        北斗定位精度可達兩三米
        軍事文摘(2023年4期)2023-04-05 13:57:35
        miniSAR遙感衛(wèi)星
        攀爬的姿態(tài)
        學生天地(2020年3期)2020-08-25 09:04:16
        靜止衛(wèi)星派
        科學家(2019年3期)2019-08-18 09:47:43
        GPS定位精度研究
        智富時代(2019年4期)2019-06-01 07:35:00
        組合導航的AGV定位精度的改善
        全新一代宋的新姿態(tài)
        汽車觀察(2018年9期)2018-10-23 05:46:40
        跑與走的姿態(tài)
        中國自行車(2018年8期)2018-09-26 06:53:44
        Puma" suede shoes with a focus on the Product variables
        What Would Happen If All Satellites Stopped Working? 假如衛(wèi)星罷工一天
        新東方英語(2014年1期)2014-01-07 19:56:11
        日韩欧群交p片内射中文| 精品婷婷国产综合久久| 国产一区二区三区三区四区精品| 日产学生妹在线观看| 国产精品成人va| 国产麻豆剧传媒精品国产av蜜桃| 亚洲女人的天堂网av| 人妻少妇乱子伦精品无码专区电影| 精品乱码一区二区三区四区| 国产精品,在线点播影院| 五月激情在线视频观看| 亚洲一区二区三区av无码| 男人天堂网在线视频| 五月婷婷激情六月开心| 婷婷色国产精品视频二区| 国产亚洲午夜高清国产拍精品| 精品久久久久久无码不卡| 国产精品区二区东京在线| 夜夜高潮夜夜爽夜夜爱爱一区 | 一区二区三区在线 | 欧| 91久久精品无码人妻系列| 亚洲av高清一区三区三区| 亚洲a∨无码精品色午夜| 亚洲欧洲中文日韩久久av乱码| 国产午夜精品美女裸身视频69| 亚洲精品国产一区二区免费视频| 亚洲精品v欧洲精品v日韩精品| 国产成人影院一区二区| 成人全视频在线观看免费播放| 国产高清乱码又大又圆| 丰满人妻被中出中文字幕| 国产强伦姧在线观看| 亚洲一区二区三区偷拍女| 亚洲h在线播放在线观看h| 国产精品亚洲午夜不卡| 久久少妇高潮免费观看| 99精品久久精品一区二区| 国产精品18禁久久久久久久久| 日本高清在线一区二区三区| 国产午夜免费高清久久影院| 亚洲综合无码一区二区|