徐云飛,張篤周,王 立,華寶成,石永強(qiáng),賀盈波
(北京控制工程研究所空間光電測(cè)量與感知實(shí)驗(yàn)室,北京 100190)
隨著航天技術(shù)的進(jìn)步和空間任務(wù)的多樣化發(fā)展,對(duì)于空間非合作目標(biāo)位姿測(cè)量的需求日益迫切。目前用于非合作目標(biāo)位姿測(cè)量的敏感器主要包括相機(jī)和激光雷達(dá)兩大類。激光雷達(dá)的分辨率較低、硬件相對(duì)復(fù)雜,且功耗較高;相比之下單目相機(jī)硬件更為簡單成熟。然而傳統(tǒng)模式下單目相機(jī)無法獲得深度信息、點(diǎn)線特征提取不穩(wěn)定、適應(yīng)性較差,這些因素使得當(dāng)前非合作目標(biāo)的相對(duì)姿態(tài)求解主要集中于立體視覺和激光雷達(dá)[1-2]。隨著深度學(xué)習(xí)和高性能處理器的發(fā)展,為“單目相機(jī)+卷積神經(jīng)網(wǎng)絡(luò)”在軌實(shí)現(xiàn)姿態(tài)測(cè)量提供了可能。
德國宇航局開展的“實(shí)驗(yàn)服務(wù)衛(wèi)星(Experi-mental servicing satellite, ESS)”項(xiàng)目[3],通過衛(wèi)星機(jī)械臂上搭載的立體攝像機(jī)對(duì)目標(biāo)衛(wèi)星上的發(fā)動(dòng)機(jī)噴嘴進(jìn)行運(yùn)動(dòng)參數(shù)識(shí)別。美國的FREND機(jī)械臂上的立體視覺系統(tǒng)能夠?qū)Ψ蛛x螺栓孔和星箭對(duì)接環(huán)進(jìn)行識(shí)別和抓捕[4]。王詩強(qiáng)等[5]提出一種通過紋理邊界檢測(cè)的橢圓特征提取方法,擬合出對(duì)接環(huán)的橢圓參數(shù)并進(jìn)行相對(duì)姿態(tài)測(cè)量。徐文福等[6]利用Canny邊沿檢測(cè)算子提取目標(biāo)濾波圖像中的直線特征,再利用雙目系統(tǒng)對(duì)直線特征形成的交叉點(diǎn)進(jìn)行匹配,從而得到目標(biāo)位姿。王志超等[7]利用雙目相機(jī)識(shí)別目標(biāo)航天器上矩形和橢圓形特征并進(jìn)行特征匹配和位姿測(cè)量,利用PLK光流法對(duì)其動(dòng)態(tài)軌跡進(jìn)行跟蹤。然而無論是關(guān)鍵點(diǎn)特征、直線特征還是矩形橢圓等,都是人工設(shè)計(jì)出的幾何特征,難以適用于各類空間條件下,且目標(biāo)衛(wèi)星上的天線、帆板、對(duì)接環(huán)、噴嘴以及衛(wèi)星本體會(huì)隨著其位姿和所受光照條件的變化發(fā)生成像模糊,局部遮擋,以及出現(xiàn)陰影等情況。傳統(tǒng)的特征點(diǎn)提取和匹配測(cè)量非合作目標(biāo)姿態(tài)的方法難以應(yīng)對(duì)各類工況。
深度學(xué)習(xí)方法的興起,給目標(biāo)位姿測(cè)量提供了新的思路。如基于稀疏特征[8]、基于稠密圖像塊[9-10]和基于模板匹配[11]等方法,以及基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)姿態(tài)測(cè)量方法[12-14]。而針對(duì)非合作目標(biāo)姿態(tài)測(cè)量問題,張浩鵬等[15]提出在核函數(shù)的基礎(chǔ)上通過學(xué)習(xí)的方法,提取出衛(wèi)星數(shù)據(jù)集圖像特征,進(jìn)而得到衛(wèi)星姿態(tài)角。李想[16]提出利用深度學(xué)習(xí)方法對(duì)空間非合作目標(biāo)進(jìn)行三軸姿態(tài)估計(jì),利用卷積神經(jīng)網(wǎng)絡(luò)InceptionV3模塊對(duì)整幅圖像進(jìn)行特征提取,建立與三軸姿態(tài)角之間的關(guān)系,最終實(shí)現(xiàn)姿態(tài)估計(jì)。斯坦福大學(xué)Sharma等[17]提出基于卷積神經(jīng)網(wǎng)絡(luò)的非合作目標(biāo)姿態(tài)估計(jì)方法,預(yù)先定義多種姿態(tài)作為圖像標(biāo)注信息,用AlexNet作為基干網(wǎng)絡(luò),將姿態(tài)估計(jì)問題作為分類問題處理。北京控制工程研究所王立等[18]提出基于特征建模的非合作目標(biāo)點(diǎn)云智能化配準(zhǔn)方法,利用神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)點(diǎn)云協(xié)方差矩陣中6個(gè)參數(shù)與非合作目標(biāo)三軸姿態(tài)的關(guān)系。
本文通過遷移學(xué)習(xí)方法減少了網(wǎng)絡(luò)對(duì)數(shù)據(jù)集數(shù)量的過度依賴,并將姿態(tài)測(cè)量問題從分類問題轉(zhuǎn)化成回歸問題,對(duì)比了基于ResNet、MobileNet的姿態(tài)測(cè)量網(wǎng)絡(luò)學(xué)習(xí)效果,能夠保證檢測(cè)精度、檢測(cè)速度以及網(wǎng)絡(luò)尺寸要求。
圖1為空間非合作目標(biāo)單目姿態(tài)測(cè)量總體技術(shù)路線圖。首先在實(shí)驗(yàn)室采集空間非合作目標(biāo)圖像,并標(biāo)注每一幅圖像的俯仰、偏航和翻滾姿態(tài)角;對(duì)原始圖像進(jìn)行Sobel邊沿提取,確定衛(wèi)星在原始圖像中的位置并截出,修改尺寸和通道數(shù)后送入特征提取網(wǎng)絡(luò)進(jìn)行特征學(xué)習(xí);本文采用遷移學(xué)習(xí)的方法提取衛(wèi)星圖像特征,所用的特征提取網(wǎng)絡(luò)來源于ImageNet大規(guī)模視覺挑戰(zhàn)賽(ILSVRC)上表現(xiàn)優(yōu)異的網(wǎng)絡(luò)(ResNet, MobileNet等)。由于ImageNet上用大數(shù)據(jù)訓(xùn)練出的卷積神經(jīng)網(wǎng)絡(luò),能對(duì)任意圖像的底層特征至高維特征進(jìn)行充分表征,因此可以將這些網(wǎng)絡(luò)的卷積層提取出來作為姿態(tài)測(cè)量任務(wù)的圖像特征提取網(wǎng)絡(luò),且只需少量圖片訓(xùn)練便可對(duì)卷積核權(quán)重、偏置值完成微調(diào)。這一過程相當(dāng)于對(duì)圖像進(jìn)行特征建模,最終輸出得到了特征向量;之后本文設(shè)計(jì)了姿態(tài)估計(jì)網(wǎng)絡(luò)并對(duì)其進(jìn)行訓(xùn)練,構(gòu)建輸入特征向量到俯仰、偏航和翻滾三軸姿態(tài)角之間的非線性映射關(guān)系,且輸出類型為連續(xù)輸出,即將姿態(tài)測(cè)量問題設(shè)計(jì)為回歸問題,相對(duì)于分類問題,可以獲得更高的姿態(tài)分辨率。

圖1 非合作目標(biāo)姿態(tài)測(cè)量網(wǎng)絡(luò)架構(gòu)設(shè)計(jì)Fig.1 Architecture design of non-cooperative target attitude measurement network
圖2展示了不同特征提取網(wǎng)絡(luò)在圖像分類任務(wù)中準(zhǔn)確率與相對(duì)檢測(cè)時(shí)間差異,在空間非合作目標(biāo)姿態(tài)測(cè)量任務(wù)中,期望網(wǎng)絡(luò)在保證高準(zhǔn)確率的同時(shí)具有相對(duì)小的計(jì)算量與存儲(chǔ)空間開銷(如表1所示)。以圖中虛線為界,之上的網(wǎng)絡(luò)兼顧圖像特征提取能力和檢測(cè)速度。因此本文對(duì)比兩類網(wǎng)絡(luò),分別以殘差網(wǎng)絡(luò)ResNet和輕量化網(wǎng)絡(luò)MobileNet作為特征提取網(wǎng)絡(luò)。

圖2 不同特征提取網(wǎng)絡(luò)性能對(duì)比Fig.2 Performance comparison of different feature extraction networks

表1 不同特征提取網(wǎng)絡(luò)存儲(chǔ)開銷與參數(shù)量Table 1 Storage overhead and parameter amount of different feature extraction network
殘差網(wǎng)絡(luò)ResNet最大的意義在于解決了隨著網(wǎng)絡(luò)深度增加,訓(xùn)練集上準(zhǔn)確率下降的問題。相比于以往的卷積網(wǎng)絡(luò)結(jié)構(gòu)(AlexNet、Vgg等),殘差網(wǎng)絡(luò)引入了殘差模塊(如圖3所示)。

圖3 殘差網(wǎng)絡(luò)結(jié)構(gòu)Fig.3 Structure of residual network
對(duì)于兩層的殘差網(wǎng)絡(luò)有如下表達(dá)式:
G=W2σ(W1x)
(1)
式中:σ為激活函數(shù)ReLu,Wi(i=1,2)為卷積層Li權(quán)重。
之后x通過一個(gè)捷徑(Shortcut),與第二個(gè)ReLu相加得到整個(gè)殘差模塊的輸出:
y=G(x,{Wi})+x
(2)
殘差模塊的引入能夠解決網(wǎng)絡(luò)退化的問題,即隨著網(wǎng)絡(luò)層數(shù)的增加,輸出誤差逐漸增大,從而保證空間非合作目標(biāo)姿態(tài)測(cè)量精度。
輕量化網(wǎng)絡(luò)MobileNet_V1在模型結(jié)構(gòu)上采用了逐通道(Depth wise, DW)卷積搭配逐點(diǎn)(Point wise, PW)卷積的方式來提取特征,這兩個(gè)操作合起來被稱為深度可分離卷積結(jié)構(gòu)(Depth-wise separable convolution)。這種結(jié)構(gòu)在理論上可以成倍地減少卷積層的時(shí)間復(fù)雜度和空間復(fù)雜度。由式(3)可知,因?yàn)榫矸e核的尺寸通常遠(yuǎn)小于輸出通道數(shù)Cout,因此標(biāo)準(zhǔn)卷積的計(jì)算復(fù)雜度近似為DW+PW組合卷積的K2倍。

(3)
輕量化網(wǎng)絡(luò)MobileNet_V2在延用MobileNet_V1深度可分離卷積結(jié)構(gòu)的基礎(chǔ)上融入了殘差網(wǎng)絡(luò)的思想,使用Shortcut將輸入與輸出相連接。與殘差網(wǎng)絡(luò)不同的是MobileNet_V2采用先升維再降維的方式,將圖像特征提取放在高維進(jìn)行,以適應(yīng)DW結(jié)構(gòu)。MobileNet_V2的使用可以在保證姿態(tài)測(cè)量精度要求的前提下減小模型尺寸,從而能在嵌入式系統(tǒng)中實(shí)時(shí)輸出測(cè)量結(jié)果。
將姿態(tài)測(cè)量問題作為回歸問題來處理,設(shè)計(jì)了基于回歸模型的姿態(tài)映射網(wǎng)絡(luò)。特征提取網(wǎng)絡(luò)輸出n維特征向量(n取決與特征提取網(wǎng)絡(luò)的輸出維度),對(duì)原始圖像進(jìn)行深層次高維表征,并作為姿態(tài)映射網(wǎng)絡(luò)的輸入。姿態(tài)映射網(wǎng)絡(luò)是由三個(gè)神經(jīng)元組成的全連接層,分別對(duì)應(yīng)輸出的俯仰、偏航和翻滾三軸姿態(tài)角A=[θψφ],并采用均方根誤差(Root mean square error, RMSE)作為損失函數(shù),如式(4)所示:
(4)

姿態(tài)映射網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示。

圖4 姿態(tài)映射網(wǎng)絡(luò)結(jié)構(gòu)Fig.4 Structure of attitude mapping network
學(xué)習(xí)過程中三個(gè)神經(jīng)元根據(jù)反向傳播鏈?zhǔn)角髮?dǎo)法,采用優(yōu)化器對(duì)全連接層3n個(gè)參數(shù)進(jìn)行自學(xué)習(xí),經(jīng)過訓(xùn)練能夠?qū)W習(xí)到特征向量到姿態(tài)角之間的非線性映射關(guān)系,但由于姿態(tài)映射網(wǎng)絡(luò)的“黑箱”問題,映射關(guān)系F(x)只能通過所學(xué)習(xí)的權(quán)重體現(xiàn),而無法給出明確公式或直觀的物理意義。
神經(jīng)網(wǎng)絡(luò)訓(xùn)練的本質(zhì)為最小化損失函數(shù),因此在定義好損失函數(shù)后,需選擇合適的優(yōu)化器對(duì)損失函數(shù)進(jìn)行優(yōu)化。經(jīng)典的優(yōu)化器包括批量梯度下降(Batch gradient descent, BGD)、隨機(jī)梯度下降(Stochastic gradient descent with momentum, SGDM)、小批量梯度下降(Mini-batch gradient descent)等。然而這些優(yōu)化器存在收斂速度慢、學(xué)習(xí)率不可調(diào)節(jié)、對(duì)噪聲魯棒性差等缺點(diǎn),因此本文選取性能較優(yōu)的自適應(yīng)動(dòng)量估計(jì)(Adaptive momentum estimation,ADAM)[19]優(yōu)化器。
ADAM優(yōu)化器相比于經(jīng)典的優(yōu)化器在更新參數(shù)時(shí),學(xué)習(xí)率能夠具有自適應(yīng)性。除了存儲(chǔ)歷史梯度平方的指數(shù)衰減平均值vl(如Adadelta和RMSprop),ADAM還保持歷史梯度的指數(shù)衰減平均值,類似于動(dòng)量(Momentum)條件:
(5)
式中:m為梯度一階矩(均值),v為梯度二階矩(方差),β為衰減系數(shù),取值范圍[0,1]。
然而對(duì)于ml,vl初始化為零向量的時(shí)刻,會(huì)產(chǎn)生一個(gè)趨近于0的偏差,經(jīng)偏差修正后的ml,vl如式(6)所示:
(6)
使用ADAM優(yōu)化器得到的網(wǎng)絡(luò)參數(shù)更新公式為:
(7)
ADAM優(yōu)化器相對(duì)于傳統(tǒng)優(yōu)化器而言,能夠根據(jù)訓(xùn)練參數(shù)修改訓(xùn)練時(shí)的學(xué)習(xí)率,并且對(duì)優(yōu)化中的損失函數(shù)具有一定的自適應(yīng)性。相對(duì)于其他自適應(yīng)學(xué)習(xí)優(yōu)化方法效果更優(yōu)。
針對(duì)某型號(hào)非合作目標(biāo)模型建立數(shù)據(jù)集。三軸旋轉(zhuǎn)角度區(qū)間為[-30°, +30°],用太陽模擬光源從不同位置進(jìn)行照射。[-30°,+30°]區(qū)間每個(gè)軸間隔6°取樣,總共得到113張圖片并作為訓(xùn)練集;[-27°,+23°]區(qū)間每個(gè)軸間隔10°取樣,總共得到63張圖片并作為驗(yàn)證集。本文在原始圖像預(yù)處理過程中利用Sobel算子提取原始圖像中的邊緣信息,并兩次求取型心獲得衛(wèi)星在原始圖像中的大致位置并以矩形框截取,從而能夠?yàn)V除黑暗的空間背景以及其他物體的干擾,將有用的像素信息送入特征提取網(wǎng)絡(luò)用以訓(xùn)練,如圖5所示。

圖5 圖像預(yù)處理Fig.5 Image preprocessing
之后根據(jù)圖片編號(hào)批量生成標(biāo)注信息,完成數(shù)據(jù)集的構(gòu)建(如圖6所示)。

圖6 部分圖像與對(duì)應(yīng)姿態(tài)角標(biāo)注Fig.6 A part of images and corresponding attitude angle annotations
采用遷移學(xué)習(xí)的方法,利用預(yù)訓(xùn)練過的卷積網(wǎng)絡(luò)提取非合作目標(biāo)圖像特征,得到高維特征向量。之后姿態(tài)映射網(wǎng)絡(luò),通過學(xué)習(xí)得到特征向量和俯仰、偏航、翻滾三軸姿態(tài)角之間的非線性映射關(guān)系。以ResNet101為基干設(shè)計(jì)的姿態(tài)測(cè)量網(wǎng)絡(luò)結(jié)構(gòu)如表2所示。
在使用遷移學(xué)習(xí)對(duì)特征提取網(wǎng)絡(luò)進(jìn)行參數(shù)微調(diào)時(shí),應(yīng)根據(jù)實(shí)際任務(wù)情況考慮兩點(diǎn):訓(xùn)練數(shù)據(jù)量大小、與原數(shù)據(jù)集(ImageNet)相似程度。并參考不同的訓(xùn)練方式(見表3)。

表2 基于ResNet101的姿態(tài)測(cè)量網(wǎng)絡(luò)Table 2 Attitude measurement network based on ResNet101

表3 不同任務(wù)遷移學(xué)習(xí)方式參考Table 3 Reference of transfer learning methods for different task
由于非合作目標(biāo)數(shù)據(jù)集與原數(shù)據(jù)(ImageNet)相似度低,綜合比較適用于“淺層固定(Conv1、Conv2)+高層微調(diào)”的遷移學(xué)習(xí)方式,淺層參數(shù)對(duì)邊沿、紋理表征,具有通用性,因此可利用淺層參數(shù)并加以固定避免訓(xùn)練過程中微調(diào)帶來的過擬合,高層參數(shù)微調(diào)可將原用于圖像分類的高層特征調(diào)整為適用于姿態(tài)測(cè)量任務(wù)的高層特征;相對(duì)于“各層參數(shù)微調(diào)”方法,在一定程度上避免數(shù)據(jù)量不充足帶來的過擬合問題。而“各層固定”、“各層/高層重新訓(xùn)練”方法可能由于高層特征不適用、數(shù)據(jù)量不充足導(dǎo)致模型訓(xùn)練無法收斂。
設(shè)置網(wǎng)絡(luò)訓(xùn)練超參數(shù),訓(xùn)練選用ADAM優(yōu)化器,設(shè)置小批量尺寸大小為32,訓(xùn)練50代且每代訓(xùn)練結(jié)束后打亂訓(xùn)練集順序重新訓(xùn)練,初始學(xué)習(xí)率為0.0001并每20代后調(diào)節(jié)學(xué)習(xí)率下降0.1倍。實(shí)驗(yàn)環(huán)境:CPU: Intel(R) Xeon(R) Silver 4114 CPU @2.20 GHz 20核; GPU: NVIDIA Quadro P4000(顯存6 G);MATLAB R2019b, Deep Learning Toolbox, CUDA 10.1。訓(xùn)練結(jié)果如圖7所示,從圖中可以看出損失函數(shù)RMSE曲線通過訓(xùn)練可以收斂,驗(yàn)證集RMSE可收斂至0.711°,后驗(yàn)結(jié)果表明了姿態(tài)測(cè)量網(wǎng)絡(luò)設(shè)計(jì)和訓(xùn)練的可行性。

圖7 姿態(tài)測(cè)量網(wǎng)絡(luò)訓(xùn)練曲線Fig.7 Training curves of attitude measurement network
卷積網(wǎng)絡(luò)在訓(xùn)練中學(xué)習(xí)到圖像的底層至深層特征,并保留在卷積核權(quán)重中,將其中某些層可視化得到圖8。

圖8 姿態(tài)測(cè)量網(wǎng)絡(luò)(左)與ResNet101(右)權(quán)重可視化對(duì)比Fig.8 Comparison of weights visualization between attitude measurement network (left) and ResNet 101 (right)
圖8左側(cè)為姿態(tài)測(cè)量網(wǎng)絡(luò)卷積權(quán)重,右側(cè)為預(yù)訓(xùn)練過的分類網(wǎng)絡(luò)ResNet101卷積權(quán)重,分別對(duì)兩個(gè)網(wǎng)絡(luò)Conv1~Conv5中的部分卷積層進(jìn)行了可視化??v向比較發(fā)現(xiàn)Conv1中64個(gè)卷積核提取圖像中點(diǎn)、線特征,Conv2、Conv3提取圖像邊沿輪廓特征,而Conv4、Conv5通過深層整合(Conv2~Conv5只顯示了前30個(gè)卷積核),能夠充分捕捉到圖像豐富復(fù)雜的紋理特征;橫向比較二者發(fā)現(xiàn)姿態(tài)測(cè)量網(wǎng)絡(luò)的卷積層參數(shù)在預(yù)訓(xùn)練過的ResNet101卷積層上進(jìn)行了微調(diào),Conv1~Conv5層特征大體相似,只是由于空間非合作目標(biāo)圖像為灰度圖像,整體顏色特征偏暗,可視化的結(jié)果證明遷移學(xué)習(xí)的可行性,預(yù)訓(xùn)練過的卷積網(wǎng)絡(luò)適用于姿態(tài)測(cè)量任務(wù)。
輸入一張空間非合作目標(biāo)圖像,可以查看圖像在特定特征提取層的輸出激活,如圖9所示。

圖9 各層輸出結(jié)果可視化Fig.9 Visualization of output results of each layer
圖9展示了輸入圖像在Conv2、Conv3層的激活輸出,將Conv層內(nèi)某個(gè)通道的特定輸出激活提取并放大對(duì)比可以發(fā)現(xiàn),網(wǎng)絡(luò)能夠提取出非合作目標(biāo)局部特征。每層的1/2/3通道激活中,灰度高的區(qū)域?yàn)榫矸e核提取出的區(qū)域,灰度低的區(qū)域?yàn)榫矸e核不關(guān)注的區(qū)域,對(duì)比4通道原圖發(fā)現(xiàn)1/2/3通道分別能夠?qū)Ψ呛献髂繕?biāo)星體與支架上的橫向邊沿、柱狀噴嘴及形體上零部件和星體中間區(qū)域的矩形等特征進(jìn)行有效提取,且網(wǎng)絡(luò)越深,提取出的特征更簡明抽象,并最終化為特征向量送入后面的姿態(tài)映射網(wǎng)絡(luò)中學(xué)習(xí)非線性映射關(guān)系F(x)。姿態(tài)映射網(wǎng)絡(luò)的參數(shù)可視化分別對(duì)應(yīng)了特征向量到俯仰、翻滾、偏航三軸姿態(tài)角之間的映射關(guān)系。

圖10 特征向量與三軸姿態(tài)角的對(duì)應(yīng)映射關(guān)系Fig.10 Mapping relationship between eigenvector and attitude angle of three-axis
按照表征學(xué)習(xí)觀點(diǎn),特征提取網(wǎng)絡(luò)中的卷積層和池化層能夠?qū)斎霐?shù)據(jù)進(jìn)行特征提取,姿態(tài)映射網(wǎng)絡(luò)中的全連接層作用則是對(duì)提取的特征進(jìn)行非線性組合得到輸出,即全連接層本身不具有特征提取能力,而是試圖利用現(xiàn)有的高階特征完成端到端的擬合。
實(shí)驗(yàn)對(duì)比了不同遷移學(xué)習(xí)方法以及不同特征提取網(wǎng)絡(luò)在姿態(tài)測(cè)量任務(wù)中的性能差異。

表4 不同遷移學(xué)習(xí)方法訓(xùn)練結(jié)果對(duì)比Table 4 Comparison of training results of different transfer learning methods
訓(xùn)練結(jié)果證明采用各層微調(diào)和“淺層固定+高層微調(diào)”的方法模型能夠收斂,且后者精度更高,證明遷移學(xué)習(xí)方法可行性,以及固定淺層參數(shù)避免過擬合方法的有效性。以標(biāo)準(zhǔn)差σ作為網(wǎng)絡(luò)性能的評(píng)價(jià)標(biāo)準(zhǔn)。圖7中RMSE曲線中的虛線表示網(wǎng)絡(luò)在驗(yàn)證集上的標(biāo)準(zhǔn)差。圖11分別展現(xiàn)了兩種遷移學(xué)習(xí)方法標(biāo)準(zhǔn)差結(jié)果:兩種方法1σ誤差都在1°內(nèi),3σ誤差在2°內(nèi)。但其中紅色離群點(diǎn)分布明顯采用“淺層固定+高層微調(diào)”方法更優(yōu)。具體誤差分析如表5、表6所示。

圖11 三軸誤差分布Fig.11 Error distribution of three-axis

表5 各層微調(diào)驗(yàn)證集結(jié)果(基于ResNet101)Table 5 Validation results of fine-tuning on each layer (based on ResNet101)

表6 淺層固定+高層微調(diào)驗(yàn)證集結(jié)果(基于ResNet101)Table 6 Validation results of shallow layers freezed+fine-tuning on deep layers(based on ResNet101)


圖12 部分測(cè)量結(jié)果Fig.12 Parts of the measurement results
由于空間非合作目標(biāo)姿態(tài)估計(jì)工作最終需要在軌進(jìn)行,因此卷積神經(jīng)網(wǎng)絡(luò)尺寸大小以及檢測(cè)時(shí)間決定了網(wǎng)絡(luò)能否部署在嵌入式系統(tǒng)以及進(jìn)行在軌實(shí)時(shí)檢測(cè)。本文對(duì)比了ResNet101、ResNet50、ResNet18、MobileNet_V2的網(wǎng)絡(luò)大小、檢測(cè)精度和檢測(cè)時(shí)間,如表7所示。
本文利用測(cè)量精度相對(duì)較高的ResNet101網(wǎng)絡(luò)測(cè)量姿態(tài)角精度為0.711°,優(yōu)于文獻(xiàn)[16]中的平均誤差2.68°、文獻(xiàn)[20]中的平均誤差7.3°以及文獻(xiàn)[6, 18]中的精度2°;與文獻(xiàn)[16-18]相比,將姿態(tài)測(cè)量問題轉(zhuǎn)化為回歸問題而非分類問題,可得到連續(xù)準(zhǔn)確的姿態(tài)角輸出。橫向比較不同的卷積神經(jīng)網(wǎng)絡(luò)可以看出,通過刪減卷積層或提出新型網(wǎng)絡(luò)結(jié)構(gòu)后的輕量化網(wǎng)絡(luò)尺寸更小、平均檢測(cè)時(shí)間更短,但會(huì)損失一定的檢測(cè)精度。本文算法不需要依賴于非合作目標(biāo)人工特征的提取和匹配,而是對(duì)整幅圖像底層邊沿特征至高層抽象特征自動(dòng)提取,相對(duì)而言此方法可用于各類型的非合作目標(biāo),且能夠通過完善訓(xùn)練集來提高姿態(tài)測(cè)量精度和魯棒性。

表7 不同預(yù)訓(xùn)練網(wǎng)絡(luò)測(cè)量結(jié)果對(duì)比Table 7 Comparison of measurement results of different pre-training networks
本文給出了一種空間非合作目標(biāo)姿態(tài)測(cè)量的方法。針對(duì)單目相機(jī)獲取的圖像,利用卷積神經(jīng)網(wǎng)絡(luò)對(duì)衛(wèi)星姿態(tài)進(jìn)行估計(jì),標(biāo)準(zhǔn)差為0.711°,單幅圖片的檢測(cè)時(shí)間可達(dá)0.02 s。輕量化網(wǎng)絡(luò)的檢測(cè)精度雖有一定損失,但在模型存儲(chǔ)大小和檢測(cè)時(shí)間上存在明顯優(yōu)化,根據(jù)任務(wù)需求不同選取不同的卷積神經(jīng)網(wǎng)絡(luò)。本文方法在精度和檢測(cè)時(shí)間上也優(yōu)于一些既有的傳統(tǒng)算法,且無需人工設(shè)計(jì)特征提取和特征匹配步驟。驗(yàn)證了利用“單目相機(jī)+卷積神經(jīng)網(wǎng)絡(luò)”方法進(jìn)行空間非合作目標(biāo)姿態(tài)測(cè)量的可行性。