亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于遙感圖像的無固定標志點衛(wèi)星自主定軌

        2021-07-18 08:53:06高有濤劉靖雨王兆龍李木子
        上海航天 2021年2期
        關(guān)鍵詞:圖像匹配控制點觀測

        高有濤,劉靖雨,王兆龍,李木子,孫 俊

        (1.南京航空航天大學(xué) 航天學(xué)院,江蘇 南京 210016;2.上海航天控制技術(shù)研究所,上海 201109;3.上海市空間智能控制技術(shù)重點實驗室,上海 201109)

        0 引言

        1975 年,KAU[1]在其論文中提出了通過人工選取地面線型地標進行導(dǎo)航的方法。但是由于數(shù)據(jù)過于龐大,人工選取容易使得地面地標精確度不高從而導(dǎo)致衛(wèi)星導(dǎo)航存在嚴重誤差。LEVINE 等[2]基于擴展卡爾曼濾波(EKF)方法建立了針對已知地標和未知地標的軌道確定算法。文獻[3]在此基礎(chǔ)上提出了在衛(wèi)星拍攝的多幅連續(xù)圖像中捕捉相同的點作為地標景物。國內(nèi),朱寧龍[4]提出了一種基于海岸線輪廓的遙感影像定位,通過改進的曲線形狀簽名和優(yōu)化匹配算法實現(xiàn)海岸線曲線匹配,完成近海域衛(wèi)星遙感影像定位。楊博等[5]提出了一種地標自主導(dǎo)航的高精度地標庫建立方法,該方法采用全球地標點選取的原則,并且通過計算機仿真驗證了該方法的有效性。李木子[6]通過中心投影幾何原理建立觀測模型,并且借助濾波算法構(gòu)建完整的自主定軌算法,同時分析了晝夜變化和云層遮擋等光照因素對自主定軌的精度影響。

        本文提出了一種不預(yù)先標定地標點的自主定軌方法,該方法將獲得的遙感圖像先通過深度學(xué)習(xí)獲得目標區(qū)域,縮小圖像范圍,之后將縮小圖像范圍進行圖像匹配,通過匹配獲得像平面特征點,記錄該特征點在實拍圖像和標稱圖像中各自的像平面坐標。通過該點在標稱圖像中的像平面坐標,結(jié)合標稱軌道衛(wèi)星的位姿信息,獲得該特征點的地理坐標。將該地理坐標與其在實拍圖像的像平面坐標作為觀測信息用于之后的濾波算法,最后利用擴展卡爾曼濾波算法實現(xiàn)衛(wèi)星自主導(dǎo)航。

        1 無固定標志點的自主定軌

        1.1 自主定軌方法

        本文提出的一種不預(yù)先標定地標點的遙感圖像自主導(dǎo)航方法,流程如圖1 所示,其自主定軌流程步驟如下:

        圖1 無控制點自主定軌流程Fig.1 Autonomous orbit determination process without landmark points

        步驟1獲得位于標稱軌道運行的遙感衛(wèi)星拍攝的遙感圖像,記錄拍攝圖像時衛(wèi)星的位置和姿態(tài)信息,該圖像作為圖像匹配的標稱圖像。

        步驟2基于衛(wèi)星實拍的遙感圖像,利用深度學(xué)習(xí)識別出待匹配區(qū)域,縮小圖像匹配計算量,加快運行時間。

        步驟3利用圖像匹配,將其與標稱圖像進行匹配,得到匹配點在各自圖像中的像平面坐標。

        步驟4結(jié)合標稱軌道衛(wèi)星拍攝時的位姿信息以及相機參數(shù),計算出匹配特征點在J2000 坐標下的坐標。

        步驟5將步驟4 中計算出的坐標與實拍圖像中的像平面坐標結(jié)合作為觀測資料,用于最優(yōu)濾波估計,獲得衛(wèi)星的軌道信息。

        由于遙感數(shù)據(jù)巨大,因此,首先需要進行目標識別將圖像匹配減少在一定區(qū)域內(nèi)進行,可以減少計算量并且加快運行速度。對于該方法而言,用于觀測資料的地理坐標并不是事先存入的,而是通過事先存入的拍攝標稱圖像衛(wèi)星的位姿信息,通過幾何模型計算得到的。相較于有控制點來說,該方法會有更多的觀測資料。因為通過圖像匹配出的特征點即可作為觀測資料使用,而非在圖像上尋找事先規(guī)定的控制點。由于地理坐標為通過幾何模型計算獲得,因此,地理坐標不可避免地存在一定誤差,圖2 展示了這兩種方法的區(qū)別。

        圖2 兩種定軌方式比較Fig.2 Comparison of two autonomous orbit determination schemes

        遙感圖像數(shù)據(jù)巨大,僅單幅遙感圖像分辨率就達到104×104甚至更高,考慮到衛(wèi)星在軌運行的實際情況,利用遙感圖像進行自主定軌,這就要求在盡可能短的時間內(nèi)處理圖像,且從圖像中獲得所需信息。

        因此,本文嘗試引用機器學(xué)習(xí)進行目標檢測,一方面可以縮小圖像尺寸,將其規(guī)定在較小尺寸內(nèi)完成匹配,實現(xiàn)加速效果;另一方面由于基準圖像和實拍圖像會存在海岸線或者季節(jié)更替帶來的地面景物差異這一問題。為了避免這種差異帶來的定軌誤差,引入特征點匹配而非海岸線輪廓匹配的方法。由于最后的特征匹配在識別出的地標景物圖像中完成,且地標景物一般在較長時間內(nèi)不發(fā)生顯著變化,因此,可以滿足衛(wèi)星長時間自主定軌任務(wù)需求。

        1.2 目標檢測

        目標檢測的任務(wù)是在圖像或視頻中尋找出興趣物體,并且檢測出它們的位置和大小,這是機器視覺領(lǐng)域中主要需要解決的兩個問題。

        圖像或視頻在檢測過程中,由興趣物體數(shù)量、外觀、形狀以及成像時的各種干擾帶來的問題,會導(dǎo)致檢測算法在構(gòu)造時有一定的難度,與此同時這也給最后檢測的準確率帶來了不小的挑戰(zhàn)。

        深度學(xué)習(xí)方法被提出以來,目標檢測的發(fā)展方向主要集中在one stage 算法和two stage 算法這兩個方向上。前者主要是以YOLO[7]、SSD 等算法為代表,該方法主要是基于深度學(xué)習(xí)回歸,即放棄提取候選區(qū)域和區(qū)域網(wǎng)絡(luò)候選,而是直接在一個網(wǎng)絡(luò)中進行回歸和分類,由于減少一個網(wǎng)絡(luò)帶來的部分重復(fù)計算,因此,在速度上得到了提升;而two stage則是通過提取候選區(qū)域并且在相應(yīng)的區(qū)域上進行物體檢測,典型的算法為R-CNN 系列。

        YOLOv3[8]使用darknet-53 網(wǎng)絡(luò)結(jié)構(gòu),該結(jié)構(gòu)由53 個卷積層構(gòu)成。YOLOv3 利用殘差結(jié)構(gòu),該結(jié)構(gòu)能夠在增加網(wǎng)絡(luò)深度的情況下,有效減少模型訓(xùn)練的計算量。YOLOv3 在進行目標檢測時,主要有調(diào)整圖片大小、卷積網(wǎng)絡(luò)運算和非極大值抑制3 個過程構(gòu)成。該算法采用一個CNN 網(wǎng)絡(luò)實現(xiàn)檢測,在3 層采用多尺度預(yù)測,每層S×S個網(wǎng)格上,分別采用13×13、26×26 和52×52 三個不同尺度進行預(yù)測,每個單元負責(zé)檢測中心落在該單元格內(nèi)的目標。最后通過非極大值抑制,在多個預(yù)測框和多個類別得分中返回最終的預(yù)測框和類別信息[9]。

        硬件使用Intel?i7-8750h處理器,1070顯卡,16 GB 內(nèi)存,軟件為Windows 10 64 位操作系統(tǒng)?;贒arknet 深度學(xué)習(xí)框架在下對YOLOv3 網(wǎng)絡(luò)進行訓(xùn)練。由于數(shù)據(jù)集限制,本文中的實驗僅對單一類別進行檢測從而證明該方法的可行性,選取的目標為鳥巢,檢測效果如圖3 所示,紅色框內(nèi)成功識別出“鳥巢”這一興趣物體。

        圖3 識別結(jié)果Fig.3 Detection results

        對應(yīng)的損失函數(shù)Loss 曲線如圖4 所示。圖中可見,訓(xùn)練次數(shù)在4 500之后,平均損失函數(shù)曲線穩(wěn)定在0.05附近不再繼續(xù)優(yōu)化,因此,可以停止學(xué)習(xí)過程。

        圖4 由YOLOv3 得到的平均損失函數(shù)曲線Fig.4 Average loss curve obtained by YOLOv3

        1.3 圖像匹配

        在本文的仿真實驗中,圖像匹配是基于SURF[10]算法實現(xiàn)的。SURF算法是在SIFT 算法[11]基礎(chǔ)上的一種改進特征匹配算法,相比于SIFT 具有更快的匹配速度。SURF 中主要用到積分圖像的概念。積分圖像的定義是將任意像素點與坐標原點之間圍成的矩形區(qū)域內(nèi)所有像素值相加得到一個新的值。

        SURF 特征匹配主要由特征提取和特征匹配兩部分構(gòu)成,其中,特征提取先構(gòu)造Hessian 矩陣來生成尺度金字塔,生成所有興趣點。Hessian矩陣表示為

        再對特征點進行定位,定位完成后以特征點為中心,根據(jù)特征點鄰域內(nèi)的點在x、y兩個方向上的Haar 小波響應(yīng)確定主方向。之后再生成特征描述向量,特征點所在的尺度圖像上,將特征點描述子方向調(diào)整為上一步檢測出的主方向;再以特征點為中心,將圖像劃分為4×4 個子塊,每個子塊再用2S(S為檢測出的特征點所在的尺度)的Harr 模板進行響應(yīng)值計算,因此有4×4×4=64 維的特征數(shù)據(jù)。相比于SIFT 而言,減少了一半,因此,在特征匹配時,匹配速度被大大加快了。

        特征匹配則是通過兩個特征點的SURF 特征向量的歐氏距離作為特征匹配相似性測度。設(shè)特征點PA和PB特征描述向量分別為Dva和Dvb,則兩點之間距離定義為

        其過程可以概括為:利用匹配點搜索算法(如K-D樹算法、BBF 算法),找到與待匹配點距離最小和次最小的特征點,當最小距離與次小距離的比率小于預(yù)設(shè)閾值ratio 時(為保證匹配精度通常取0.4~0.6),則認為匹配成功。通過更改之前提到的Hessian 的閾值以及這里的比率閾值,留下特征最強的剩余點,因此,選取合適的Hessian 矩陣閾值可以改善匹配的精度。但是精度的提升隨之而來的是較為少的匹配特征點,閾值過小則特征點過多,會使得計算量增多影響匹配速度,同時閾值過小則可能檢測不出有效特征點造成漏匹配,使得沒有有效觀測資料,從而影響導(dǎo)航精度。

        本文使用優(yōu)化過后的SURF 匹配[12],從特征點中選取較好的匹配點,進一步滿足精度需求。本文的優(yōu)化算法程序在遙感圖像中的應(yīng)用以及在不同參數(shù)取值情況下的匹配結(jié)果如圖5~圖7所示。

        圖5 Hessian=2 000,比率=0.8Fig.5 Hessian=2 000,ratio=0.8

        圖6 Hessian=2 000,比率=0.4Fig.6 Hessian=2 000,ratio=0.4

        圖7 Hessian=6 000,比率=0.4Fig.7 Hessian=6 000,ratio=0.4

        1.4 獲取觀測資料

        像平面坐標系和世界坐標系如圖8 所示[13]。

        圖8 像平面坐標和世界坐標對應(yīng)示意圖Fig.8 Image plane coordinates and world coordinates

        為了建立像點坐標與對應(yīng)的地面控制點之間的聯(lián)系,首先對像點坐標在像空間坐標系與像空間輔助坐標系間的轉(zhuǎn)換關(guān)系進行如下描述:

        式中:TI為相機的安裝矩陣;TA為從衛(wèi)星體坐標系向物方坐標系的旋轉(zhuǎn)矩陣。因為像空間輔助坐標系與物方坐標系坐標軸平行,所以根據(jù)相似三角形對應(yīng)邊長度比相同的原理可以得到

        式中:(xg,yg,zg)為地面控制點坐標;(x,y,z)為投影中心坐標,在該問題中等價于衛(wèi)星位置坐標。因此可以得到描述投影中心位置坐標、地面控制點坐標和對應(yīng)的像點坐標的關(guān)系式:

        (a11,…,a33)為(TAT1)?1矩陣中對應(yīng)的元素。

        將需要進行自主定軌的衛(wèi)星在運行過程中拍攝得到的圖片稱為實拍圖像,若要將式(5)中的信息用于濾波進行自主定軌,則需要得到實拍圖像中的某特征點(u,v)以 及其對應(yīng)的控制 點(xg,yg,zg)在J2000 坐標系下的坐標。

        考慮在軌衛(wèi)星的實際應(yīng)用情況,圖像匹配速度應(yīng)該足夠快,將整張實拍圖像用于特征匹配不符合實際,因此,引入之前測試過的YOLOv3 先對實拍圖像進行目標識別,獲取目標區(qū)域。之前驗證通過的鳥巢驗證了YOLOv3 在遙感圖像上對區(qū)域的識別。事實上,對標準圖像(如圖9(a)所示)同樣進行目標識別可以有效加快匹配速度和減少誤匹配率,其中,標準圖像是由確定相機參數(shù)、位置和姿態(tài)的遙感衛(wèi)星拍攝獲得。

        若有目標區(qū)域生成(如圖9(b)所示),利用SURF 算法,再將該區(qū)域去和標準圖像進行特征匹配。該標準圖像上的任意一點(u1,v1)以及對應(yīng)的地面特征點坐標(xg,yg,zg)可由式(5)算得,通過進行的SURF 特征匹配,將該地面特征點坐標賦給在目標區(qū)域中的匹配點(u2,v2),這樣就獲得了一組觀測數(shù)據(jù)(u2,v2) ?(xg,yg,zg)。

        圖9 觀測資料獲取結(jié)果Fig.9 Results of observation data

        圖9 可見,匹配點并不在鳥巢本身上,而是在周邊的對應(yīng)景物上,這主要是由于數(shù)據(jù)集的分辨率不高導(dǎo)致的,無法針對建筑物本身的特點完成匹配。事實上,現(xiàn)在的遙感衛(wèi)星相機(如world-view3)已經(jīng)可以做到0.5 m 的分辨率成像,因此,在特征匹配上會更加準確并且有更多相匹配的點。考慮到誤差等因素,將該地面特征點在三軸上各加上20 m 的誤差用作觀測資料在接下來的導(dǎo)航仿真中使用。

        由于實際應(yīng)用應(yīng)使得圖像處理速度盡可能快[14],將兩種方法所需的時間進行了對比。對于目標識別+匹配這一方法來說,進行匹配的圖像尺寸得到了大幅縮小,匹配結(jié)果見表1,可以看出匹配速度明顯加快。

        表1 圖像處理時間對比Tab.1 Comparison of image processing time ms

        事實上,這里的圖像匹配用的圖像還是實際拍攝圖像的處理圖,將原來104×104的圖像處理成2 000×2 000 左右,即使這樣仍需要4 438 ms。但是,本文所述的方法使用時間為731.067 ms,相比僅采用圖像匹配的單一方法,圖像處理的速度得到了極大的提升。

        2 自主定軌仿真

        2.1 動力學(xué)模型

        坐標系選取J2000 地心赤道慣性坐標系。攝動量僅考慮地球非球形引力攝動J2 項、三體問題的日月引力攝動以及大氣阻力攝動,系統(tǒng)的狀態(tài)方程為

        式中:x、y、z分別為衛(wèi)星三軸的位置;xsun、ysun、zsun為太陽的三軸位置;xmoon、ymoon、zmoon為月亮的三 軸位置;rxsun、rxmoon分別為衛(wèi)星與太陽和月球之前的距離;rsun、rmoon分別為地日距離和地月距離;vx、vy、vz分別為衛(wèi)星的三軸速度;μearth、μsun、μmoon分別為地球、太陽和月亮的引力常數(shù);J2為攝動系數(shù);vrel為航天器相對于大氣的速度;vrel|x、vrel|y、vrel|z為速度矢量vrel在地心慣性坐標系上的3 個分量;S/m為面質(zhì)比;ρ為大氣密度;Rv為地球平均半徑。

        2.2 觀測模型

        根據(jù)之前的像點與世界坐標的幾何關(guān)系可以建立定軌觀測模型,該觀測模型的具體表達式如下:

        式中:η為二維測量誤差,根據(jù)之前的式(5)可以進一步推得該觀測模型下的測量矩陣為

        2.3 導(dǎo)航仿真

        關(guān)于衛(wèi)星初始時刻狀態(tài)見表2。

        表2 仿真初始條件Tab.2 Initial conditions of simulation

        關(guān)于地面圖像定軌仿真誤差參數(shù)見表3。

        表3 仿真誤差參數(shù)Tab.3 Error parameters of simulation

        如果我們不考慮光照條件約束,默認任意時刻的遙感圖像中均包含濾波所需要的觀測信息,在整個仿真周期內(nèi)(1 d)的自主導(dǎo)航的誤差如圖10和圖11所示。

        圖10 不考慮光照條件約束的位置狀態(tài)量誤差圖Fig.10 Position state errors without illumination constraints

        圖11 不考慮光照條件約束的速度狀態(tài)量誤差圖Fig.11 Velocity state errors without illumination constraints

        具體的位置速度誤差見表4。從表中不難看出,相比于事先標定地表點這一有控制點的方法,無控點由于根據(jù)成像模型解算的地面點存在一定的位置誤差,因此自主導(dǎo)航的精度稍顯不足。

        表4 無光照約束位置速度平均誤差Tab.4 Average position and velocity state errors without illumination constraints

        然而考慮到光照約束,即衛(wèi)星處在背陽面運行時,衛(wèi)星拍攝獲得的遙感圖像無法獲得任何有效觀測信息;以及當衛(wèi)星在海洋、森林上空運行時,拍攝獲得的該類景物遙感圖像由于不存在明顯的差異,因此無法通過圖像匹配獲得有效特征點。所以整個仿真過程采用擴展卡爾曼濾波[15]和動力學(xué)積分相結(jié)合,在有觀測資料讀入的情況下通過卡爾曼濾波解算當前位置最優(yōu)解,如果沒有觀測資料讀入則采用動力學(xué)積分,直到有觀測資料讀入。

        該次仿真中的衛(wèi)星默認對地定向,保持三軸穩(wěn)定。假設(shè)衛(wèi)星每30 s 對地成像一次,判斷成像時的衛(wèi)星是否處于地球陰影之中,如果處在地球陰影之中則認為無導(dǎo)航信息,否則認為成像成功,對于成像成功的時刻來說,引入比例系數(shù)20%,即考慮天氣或者云層遮擋等因素,仍有20%的情況下無法獲得有效導(dǎo)航信息。對于無導(dǎo)航信息的衛(wèi)星來說,動力學(xué)積分至下一成像時刻判斷是否有觀測資料讀入。

        所有的仿真均在J2000 坐標系下完成,仿真時長為1 d。其中,位置量和速度量與標稱軌道的誤差如圖12 和圖13 所示。

        圖12 考慮光照約束的位置狀態(tài)量誤差圖Fig.12 Position state errors with illumination constraints

        圖13 考慮光照約束的速度狀態(tài)量誤差圖Fig.13 Velocity state errors with illumination constraints

        為了探究在利用事先無標地面控制點進行自主定軌下的精度水平,設(shè)置1 組仿真進行對照,該對照仿真在事先標定地面控制點的情況下進行自主定軌。相比于無控點,該方法有更為精確的地面控制點坐標,但是觀測資料的數(shù)量會大大減少,上面的仿真結(jié)果圖已經(jīng)展示了兩者的區(qū)別。

        可以看出,位置誤差在100 m 的范圍之內(nèi)震蕩,而速度誤差則在0.1 m/s 的范圍之內(nèi)震蕩,這是因為觀測資料不連續(xù)造成的。本文中的衛(wèi)星繞地1 圈需2 h 左右,而有觀測資料的時間僅為15 min左右,剩下的時間衛(wèi)星軌道均在動力學(xué)積分下完成,在濾波與積分之間的切換導(dǎo)致在每段濾波初始時刻存在一定誤差,從而造成了位置和速度誤差的震蕩。

        用平均誤差比較兩種導(dǎo)航方式的精度,具體結(jié)果見表5。從表5 中可以看出,對于無控制點的圖像導(dǎo)航來說,1 d 內(nèi)的平均位置誤差為31.943 8 m,平均速度誤差為0.038 4 m/s。事實上由于所建動力學(xué)模型積分下的軌道與其對應(yīng)參數(shù)在STK 軟件中生成的標稱軌道有著不小的誤差,因此,如果積分模型能夠更接近衛(wèi)星的動力學(xué)模型,這個誤差可以得到進一步的縮小。

        表5 考慮光照約束的位置速度誤差Tab.5 Position and velocity state errors with illumination constraints

        相比于基于有控制點的地標導(dǎo)航來說,無控點通過模型計算出來的控制點與事先標定的控制點存在一定的誤差,且在圖像匹配的像素精度上也有一定差距,但是基于無控點的自主定軌有更多的觀測資料讀入,彌補了地面控制點在精度上的不足。

        兩者相比具有較為接近的自主定軌精度,無控點在位置速度精度上都略有優(yōu)勢,這是由于更多的觀測資料帶來的。更多的觀測資料使得衛(wèi)星在動力學(xué)積分下的累計誤差得到很好的減弱,因此,精度得到了更一步的提升,導(dǎo)航位置精度和速度精度分別提升了21.64%和19.33%,且該方法省去了事先標定高精度地標點的過程,更易于實際的使用。

        接下來比較兩種方法在第1 段濾波下而非整個定軌時長下的誤差,觀察地面點的精度在濾波過程中的誤差,見表6。值得注意的是,無控點的濾波時間是長于有控制點的,與兩者結(jié)合的方法濾波時間則相同。

        表6 僅濾波弧段下位置速度誤差Tab.6 Position and velocity state errors in filtering arc

        從表中數(shù)據(jù)可以看出,無控點由于地面標志點精度的誤差,與有控點相比,平均位置誤差在10 m左右,平均速度誤差為0.016 m/s 左右,證明了該方法在濾波階段的精度可行性,并且更多的觀測資料可以使得在僅動力學(xué)積分的情況下累計誤差得到縮小。考慮到無控點的觀測資料和觀測時間均多于有控制點這一情況下,不妨將這兩者進行結(jié)合,即如果在圖像中檢測到事先標定的地標點則采用該地標點作為濾波的觀測資料,而不存在地標點時則采用本文所講的無控點方法作為觀測資料。具體的第1 濾波段下的平均誤差結(jié)果在表5 中已經(jīng)給出,而其在整個仿真周期內(nèi)的位置速度誤差則為29.359 4 m 和0.035 3 m/s。不難看出,該方法的自主導(dǎo)航結(jié)果最優(yōu),因此,在實際應(yīng)用中可以考慮使用該兩者結(jié)合的方法。

        事實上,在僅采用圖像信息進行自主導(dǎo)航的情況下,由于動力學(xué)方程的不準確,不可避免地會造成一定程度的定軌精度發(fā)散;又或者在圖像設(shè)備出現(xiàn)故障時,仍應(yīng)保障其自主導(dǎo)航的正常運行。因此,嘗試引入星敏感器帶來的測角信息,與圖像信息結(jié)合幫助衛(wèi)星完成自主導(dǎo)航,具體數(shù)值上的誤差見表7。

        表7 引入測角位置速度誤差Tab.7 Position and velocity state errors with angle measurement

        仿真結(jié)果如圖14 和圖15 所示。在引入測角信息共同構(gòu)成觀測量后,相比于單測角信息,測角與圖像這一方法的結(jié)合能夠提高自主導(dǎo)航精度,這里采用的是上述無地標與有地標相結(jié)合的方法。

        圖14 仿真位置狀態(tài)量誤差圖Fig.14 Position state errors obtained by simulation

        圖15 速度狀態(tài)量誤差圖Fig.15 Velocity state errors obtained by simulation

        3 結(jié)束語

        本文針對基于遙感圖像的衛(wèi)星自主定軌,提出了一種無地面標志點的自主定軌方法。該方法在利用深度學(xué)習(xí)的基礎(chǔ)上實現(xiàn)圖像識別,從而進行特征匹配完成自主導(dǎo)航。這一方法既能充分利用基于遙感圖像的自主定軌的優(yōu)勢,在引入測角信息后又能實現(xiàn)長期的自主定軌,為航天器自主定軌提供了一種解決思路,且該方法的自主定軌精度相比有地面標志點的自主定軌精度有較大提高。該方法的定軌精度與特征點的在軌解算精度有關(guān)系,如果地面特征點通過幾何模型能夠解算得更為精確,則自主導(dǎo)航精度會得到進一步的提高。

        猜你喜歡
        圖像匹配控制點觀測
        觀測到恒星死亡瞬間
        軍事文摘(2023年18期)2023-11-03 09:45:42
        NFFD控制點分布對氣動外形優(yōu)化的影響
        一種用于光照變化圖像匹配的改進KAZE算法
        天測與測地VLBI 測地站周圍地形觀測遮掩的討論
        基于風(fēng)險管理下的項目建設(shè)內(nèi)部控制點思考
        可觀測宇宙
        太空探索(2016年7期)2016-07-10 12:10:15
        相似材料模型中控制點像點坐標定位研究
        高分辨率對地觀測系統(tǒng)
        太空探索(2015年8期)2015-07-18 11:04:44
        SDCORS在基礎(chǔ)地理信息控制點補測中的應(yīng)用
        挖掘機器人圖像匹配算法研究
        日本高清一区二区三区在线观看| 国产亚洲精品国产福利在线观看| 国产粉嫩高清| 丰满少妇av一区二区三区| 亚洲精品国产精品乱码视色| 亚洲成a v人片在线观看| 香蕉成人啪国产精品视频综合网 | 成人性生交片无码免费看| 国产成人精品三上悠亚久久| 97久久综合精品国产丝袜长腿| 日本欧美大码a在线观看| 成全高清在线播放电视剧| 麻豆AⅤ精品无码一区二区| 日韩日本国产一区二区| 男女肉粗暴进来动态图| 亚洲乱码日产精品bd| 国产成人永久在线播放| 午夜少妇高潮在线观看视频| 亚洲精品~无码抽插| 亚洲综合一区无码精品| 色婷婷一区二区三区四区| 一区二区在线视频免费蜜桃| 风流老熟女一区二区三区| 99热这里只有精品3| 免费av网址一区二区| 手机在线亚洲精品网站| 无码中文字幕日韩专区视频| 日韩啪啪精品一区二区亚洲av| 国产三级不卡在线观看视频| 亚洲国产精品无码久久久| 精品无码国产污污污免费网站 | 亚洲va中文字幕无码久久不卡 | 亚洲色欲在线播放一区| 国产三级av在线播放| 丰满人妻一区二区三区蜜桃| 日本japanese少妇高清| 亚洲国产精品综合久久20| 在教室轮流澡到高潮h免费视| 欧美a级毛欧美1级a大片免费播放| 亚洲色大成网站www在线观看| 日本一区二区三区激视频|