亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種卷積神經(jīng)網(wǎng)絡(luò)非合作目標(biāo)姿態(tài)測(cè)量方法

        2020-06-05 01:14:34徐云飛張篤周華寶成石永強(qiáng)賀盈波
        宇航學(xué)報(bào) 2020年5期
        關(guān)鍵詞:特征提取特征測(cè)量

        徐云飛,張篤周,王 立,華寶成,石永強(qiáng),賀盈波

        (北京控制工程研究所空間光電測(cè)量與感知實(shí)驗(yàn)室,北京 100190)

        0 引 言

        隨著航天技術(shù)的進(jìn)步和空間任務(wù)的多樣化發(fā)展,對(duì)于空間非合作目標(biāo)位姿測(cè)量的需求日益迫切。目前用于非合作目標(biāo)位姿測(cè)量的敏感器主要包括相機(jī)和激光雷達(dá)兩大類。激光雷達(dá)的分辨率較低、硬件相對(duì)復(fù)雜,且功耗較高;相比之下單目相機(jī)硬件更為簡單成熟。然而傳統(tǒng)模式下單目相機(jī)無法獲得深度信息、點(diǎn)線特征提取不穩(wěn)定、適應(yīng)性較差,這些因素使得當(dāng)前非合作目標(biāo)的相對(duì)姿態(tài)求解主要集中于立體視覺和激光雷達(dá)[1-2]。隨著深度學(xué)習(xí)和高性能處理器的發(fā)展,為“單目相機(jī)+卷積神經(jīng)網(wǎng)絡(luò)”在軌實(shí)現(xiàn)姿態(tài)測(cè)量提供了可能。

        德國宇航局開展的“實(shí)驗(yàn)服務(wù)衛(wèi)星(Experi-mental servicing satellite, ESS)”項(xiàng)目[3],通過衛(wèi)星機(jī)械臂上搭載的立體攝像機(jī)對(duì)目標(biāo)衛(wèi)星上的發(fā)動(dòng)機(jī)噴嘴進(jìn)行運(yùn)動(dòng)參數(shù)識(shí)別。美國的FREND機(jī)械臂上的立體視覺系統(tǒng)能夠?qū)Ψ蛛x螺栓孔和星箭對(duì)接環(huán)進(jìn)行識(shí)別和抓捕[4]。王詩強(qiáng)等[5]提出一種通過紋理邊界檢測(cè)的橢圓特征提取方法,擬合出對(duì)接環(huán)的橢圓參數(shù)并進(jìn)行相對(duì)姿態(tài)測(cè)量。徐文福等[6]利用Canny邊沿檢測(cè)算子提取目標(biāo)濾波圖像中的直線特征,再利用雙目系統(tǒng)對(duì)直線特征形成的交叉點(diǎn)進(jìn)行匹配,從而得到目標(biāo)位姿。王志超等[7]利用雙目相機(jī)識(shí)別目標(biāo)航天器上矩形和橢圓形特征并進(jìn)行特征匹配和位姿測(cè)量,利用PLK光流法對(duì)其動(dòng)態(tài)軌跡進(jìn)行跟蹤。然而無論是關(guān)鍵點(diǎn)特征、直線特征還是矩形橢圓等,都是人工設(shè)計(jì)出的幾何特征,難以適用于各類空間條件下,且目標(biāo)衛(wèi)星上的天線、帆板、對(duì)接環(huán)、噴嘴以及衛(wèi)星本體會(huì)隨著其位姿和所受光照條件的變化發(fā)生成像模糊,局部遮擋,以及出現(xiàn)陰影等情況。傳統(tǒng)的特征點(diǎn)提取和匹配測(cè)量非合作目標(biāo)姿態(tài)的方法難以應(yīng)對(duì)各類工況。

        深度學(xué)習(xí)方法的興起,給目標(biāo)位姿測(cè)量提供了新的思路。如基于稀疏特征[8]、基于稠密圖像塊[9-10]和基于模板匹配[11]等方法,以及基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)姿態(tài)測(cè)量方法[12-14]。而針對(duì)非合作目標(biāo)姿態(tài)測(cè)量問題,張浩鵬等[15]提出在核函數(shù)的基礎(chǔ)上通過學(xué)習(xí)的方法,提取出衛(wèi)星數(shù)據(jù)集圖像特征,進(jìn)而得到衛(wèi)星姿態(tài)角。李想[16]提出利用深度學(xué)習(xí)方法對(duì)空間非合作目標(biāo)進(jìn)行三軸姿態(tài)估計(jì),利用卷積神經(jīng)網(wǎng)絡(luò)InceptionV3模塊對(duì)整幅圖像進(jìn)行特征提取,建立與三軸姿態(tài)角之間的關(guān)系,最終實(shí)現(xiàn)姿態(tài)估計(jì)。斯坦福大學(xué)Sharma等[17]提出基于卷積神經(jīng)網(wǎng)絡(luò)的非合作目標(biāo)姿態(tài)估計(jì)方法,預(yù)先定義多種姿態(tài)作為圖像標(biāo)注信息,用AlexNet作為基干網(wǎng)絡(luò),將姿態(tài)估計(jì)問題作為分類問題處理。北京控制工程研究所王立等[18]提出基于特征建模的非合作目標(biāo)點(diǎn)云智能化配準(zhǔn)方法,利用神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)點(diǎn)云協(xié)方差矩陣中6個(gè)參數(shù)與非合作目標(biāo)三軸姿態(tài)的關(guān)系。

        本文通過遷移學(xué)習(xí)方法減少了網(wǎng)絡(luò)對(duì)數(shù)據(jù)集數(shù)量的過度依賴,并將姿態(tài)測(cè)量問題從分類問題轉(zhuǎn)化成回歸問題,對(duì)比了基于ResNet、MobileNet的姿態(tài)測(cè)量網(wǎng)絡(luò)學(xué)習(xí)效果,能夠保證檢測(cè)精度、檢測(cè)速度以及網(wǎng)絡(luò)尺寸要求。

        1 姿態(tài)測(cè)量網(wǎng)絡(luò)架構(gòu)

        圖1為空間非合作目標(biāo)單目姿態(tài)測(cè)量總體技術(shù)路線圖。首先在實(shí)驗(yàn)室采集空間非合作目標(biāo)圖像,并標(biāo)注每一幅圖像的俯仰、偏航和翻滾姿態(tài)角;對(duì)原始圖像進(jìn)行Sobel邊沿提取,確定衛(wèi)星在原始圖像中的位置并截出,修改尺寸和通道數(shù)后送入特征提取網(wǎng)絡(luò)進(jìn)行特征學(xué)習(xí);本文采用遷移學(xué)習(xí)的方法提取衛(wèi)星圖像特征,所用的特征提取網(wǎng)絡(luò)來源于ImageNet大規(guī)模視覺挑戰(zhàn)賽(ILSVRC)上表現(xiàn)優(yōu)異的網(wǎng)絡(luò)(ResNet, MobileNet等)。由于ImageNet上用大數(shù)據(jù)訓(xùn)練出的卷積神經(jīng)網(wǎng)絡(luò),能對(duì)任意圖像的底層特征至高維特征進(jìn)行充分表征,因此可以將這些網(wǎng)絡(luò)的卷積層提取出來作為姿態(tài)測(cè)量任務(wù)的圖像特征提取網(wǎng)絡(luò),且只需少量圖片訓(xùn)練便可對(duì)卷積核權(quán)重、偏置值完成微調(diào)。這一過程相當(dāng)于對(duì)圖像進(jìn)行特征建模,最終輸出得到了特征向量;之后本文設(shè)計(jì)了姿態(tài)估計(jì)網(wǎng)絡(luò)并對(duì)其進(jìn)行訓(xùn)練,構(gòu)建輸入特征向量到俯仰、偏航和翻滾三軸姿態(tài)角之間的非線性映射關(guān)系,且輸出類型為連續(xù)輸出,即將姿態(tài)測(cè)量問題設(shè)計(jì)為回歸問題,相對(duì)于分類問題,可以獲得更高的姿態(tài)分辨率。

        圖1 非合作目標(biāo)姿態(tài)測(cè)量網(wǎng)絡(luò)架構(gòu)設(shè)計(jì)Fig.1 Architecture design of non-cooperative target attitude measurement network

        1.1 特征提取網(wǎng)絡(luò)選取

        圖2展示了不同特征提取網(wǎng)絡(luò)在圖像分類任務(wù)中準(zhǔn)確率與相對(duì)檢測(cè)時(shí)間差異,在空間非合作目標(biāo)姿態(tài)測(cè)量任務(wù)中,期望網(wǎng)絡(luò)在保證高準(zhǔn)確率的同時(shí)具有相對(duì)小的計(jì)算量與存儲(chǔ)空間開銷(如表1所示)。以圖中虛線為界,之上的網(wǎng)絡(luò)兼顧圖像特征提取能力和檢測(cè)速度。因此本文對(duì)比兩類網(wǎng)絡(luò),分別以殘差網(wǎng)絡(luò)ResNet和輕量化網(wǎng)絡(luò)MobileNet作為特征提取網(wǎng)絡(luò)。

        圖2 不同特征提取網(wǎng)絡(luò)性能對(duì)比Fig.2 Performance comparison of different feature extraction networks

        表1 不同特征提取網(wǎng)絡(luò)存儲(chǔ)開銷與參數(shù)量Table 1 Storage overhead and parameter amount of different feature extraction network

        殘差網(wǎng)絡(luò)ResNet最大的意義在于解決了隨著網(wǎng)絡(luò)深度增加,訓(xùn)練集上準(zhǔn)確率下降的問題。相比于以往的卷積網(wǎng)絡(luò)結(jié)構(gòu)(AlexNet、Vgg等),殘差網(wǎng)絡(luò)引入了殘差模塊(如圖3所示)。

        圖3 殘差網(wǎng)絡(luò)結(jié)構(gòu)Fig.3 Structure of residual network

        對(duì)于兩層的殘差網(wǎng)絡(luò)有如下表達(dá)式:

        G=W2σ(W1x)

        (1)

        式中:σ為激活函數(shù)ReLu,Wi(i=1,2)為卷積層Li權(quán)重。

        之后x通過一個(gè)捷徑(Shortcut),與第二個(gè)ReLu相加得到整個(gè)殘差模塊的輸出:

        y=G(x,{Wi})+x

        (2)

        殘差模塊的引入能夠解決網(wǎng)絡(luò)退化的問題,即隨著網(wǎng)絡(luò)層數(shù)的增加,輸出誤差逐漸增大,從而保證空間非合作目標(biāo)姿態(tài)測(cè)量精度。

        輕量化網(wǎng)絡(luò)MobileNet_V1在模型結(jié)構(gòu)上采用了逐通道(Depth wise, DW)卷積搭配逐點(diǎn)(Point wise, PW)卷積的方式來提取特征,這兩個(gè)操作合起來被稱為深度可分離卷積結(jié)構(gòu)(Depth-wise separable convolution)。這種結(jié)構(gòu)在理論上可以成倍地減少卷積層的時(shí)間復(fù)雜度和空間復(fù)雜度。由式(3)可知,因?yàn)榫矸e核的尺寸通常遠(yuǎn)小于輸出通道數(shù)Cout,因此標(biāo)準(zhǔn)卷積的計(jì)算復(fù)雜度近似為DW+PW組合卷積的K2倍。

        (3)

        輕量化網(wǎng)絡(luò)MobileNet_V2在延用MobileNet_V1深度可分離卷積結(jié)構(gòu)的基礎(chǔ)上融入了殘差網(wǎng)絡(luò)的思想,使用Shortcut將輸入與輸出相連接。與殘差網(wǎng)絡(luò)不同的是MobileNet_V2采用先升維再降維的方式,將圖像特征提取放在高維進(jìn)行,以適應(yīng)DW結(jié)構(gòu)。MobileNet_V2的使用可以在保證姿態(tài)測(cè)量精度要求的前提下減小模型尺寸,從而能在嵌入式系統(tǒng)中實(shí)時(shí)輸出測(cè)量結(jié)果。

        1.2 姿態(tài)映射網(wǎng)絡(luò)設(shè)計(jì)

        將姿態(tài)測(cè)量問題作為回歸問題來處理,設(shè)計(jì)了基于回歸模型的姿態(tài)映射網(wǎng)絡(luò)。特征提取網(wǎng)絡(luò)輸出n維特征向量(n取決與特征提取網(wǎng)絡(luò)的輸出維度),對(duì)原始圖像進(jìn)行深層次高維表征,并作為姿態(tài)映射網(wǎng)絡(luò)的輸入。姿態(tài)映射網(wǎng)絡(luò)是由三個(gè)神經(jīng)元組成的全連接層,分別對(duì)應(yīng)輸出的俯仰、偏航和翻滾三軸姿態(tài)角A=[θψφ],并采用均方根誤差(Root mean square error, RMSE)作為損失函數(shù),如式(4)所示:

        (4)

        姿態(tài)映射網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示。

        圖4 姿態(tài)映射網(wǎng)絡(luò)結(jié)構(gòu)Fig.4 Structure of attitude mapping network

        學(xué)習(xí)過程中三個(gè)神經(jīng)元根據(jù)反向傳播鏈?zhǔn)角髮?dǎo)法,采用優(yōu)化器對(duì)全連接層3n個(gè)參數(shù)進(jìn)行自學(xué)習(xí),經(jīng)過訓(xùn)練能夠?qū)W習(xí)到特征向量到姿態(tài)角之間的非線性映射關(guān)系,但由于姿態(tài)映射網(wǎng)絡(luò)的“黑箱”問題,映射關(guān)系F(x)只能通過所學(xué)習(xí)的權(quán)重體現(xiàn),而無法給出明確公式或直觀的物理意義。

        1.3 優(yōu)化器設(shè)計(jì)

        神經(jīng)網(wǎng)絡(luò)訓(xùn)練的本質(zhì)為最小化損失函數(shù),因此在定義好損失函數(shù)后,需選擇合適的優(yōu)化器對(duì)損失函數(shù)進(jìn)行優(yōu)化。經(jīng)典的優(yōu)化器包括批量梯度下降(Batch gradient descent, BGD)、隨機(jī)梯度下降(Stochastic gradient descent with momentum, SGDM)、小批量梯度下降(Mini-batch gradient descent)等。然而這些優(yōu)化器存在收斂速度慢、學(xué)習(xí)率不可調(diào)節(jié)、對(duì)噪聲魯棒性差等缺點(diǎn),因此本文選取性能較優(yōu)的自適應(yīng)動(dòng)量估計(jì)(Adaptive momentum estimation,ADAM)[19]優(yōu)化器。

        ADAM優(yōu)化器相比于經(jīng)典的優(yōu)化器在更新參數(shù)時(shí),學(xué)習(xí)率能夠具有自適應(yīng)性。除了存儲(chǔ)歷史梯度平方的指數(shù)衰減平均值vl(如Adadelta和RMSprop),ADAM還保持歷史梯度的指數(shù)衰減平均值,類似于動(dòng)量(Momentum)條件:

        (5)

        式中:m為梯度一階矩(均值),v為梯度二階矩(方差),β為衰減系數(shù),取值范圍[0,1]。

        然而對(duì)于ml,vl初始化為零向量的時(shí)刻,會(huì)產(chǎn)生一個(gè)趨近于0的偏差,經(jīng)偏差修正后的ml,vl如式(6)所示:

        (6)

        使用ADAM優(yōu)化器得到的網(wǎng)絡(luò)參數(shù)更新公式為:

        (7)

        ADAM優(yōu)化器相對(duì)于傳統(tǒng)優(yōu)化器而言,能夠根據(jù)訓(xùn)練參數(shù)修改訓(xùn)練時(shí)的學(xué)習(xí)率,并且對(duì)優(yōu)化中的損失函數(shù)具有一定的自適應(yīng)性。相對(duì)于其他自適應(yīng)學(xué)習(xí)優(yōu)化方法效果更優(yōu)。

        2 模型訓(xùn)練

        2.1 數(shù)據(jù)集獲取

        針對(duì)某型號(hào)非合作目標(biāo)模型建立數(shù)據(jù)集。三軸旋轉(zhuǎn)角度區(qū)間為[-30°, +30°],用太陽模擬光源從不同位置進(jìn)行照射。[-30°,+30°]區(qū)間每個(gè)軸間隔6°取樣,總共得到113張圖片并作為訓(xùn)練集;[-27°,+23°]區(qū)間每個(gè)軸間隔10°取樣,總共得到63張圖片并作為驗(yàn)證集。本文在原始圖像預(yù)處理過程中利用Sobel算子提取原始圖像中的邊緣信息,并兩次求取型心獲得衛(wèi)星在原始圖像中的大致位置并以矩形框截取,從而能夠?yàn)V除黑暗的空間背景以及其他物體的干擾,將有用的像素信息送入特征提取網(wǎng)絡(luò)用以訓(xùn)練,如圖5所示。

        圖5 圖像預(yù)處理Fig.5 Image preprocessing

        之后根據(jù)圖片編號(hào)批量生成標(biāo)注信息,完成數(shù)據(jù)集的構(gòu)建(如圖6所示)。

        圖6 部分圖像與對(duì)應(yīng)姿態(tài)角標(biāo)注Fig.6 A part of images and corresponding attitude angle annotations

        2.2 姿態(tài)測(cè)量網(wǎng)絡(luò)訓(xùn)練

        采用遷移學(xué)習(xí)的方法,利用預(yù)訓(xùn)練過的卷積網(wǎng)絡(luò)提取非合作目標(biāo)圖像特征,得到高維特征向量。之后姿態(tài)映射網(wǎng)絡(luò),通過學(xué)習(xí)得到特征向量和俯仰、偏航、翻滾三軸姿態(tài)角之間的非線性映射關(guān)系。以ResNet101為基干設(shè)計(jì)的姿態(tài)測(cè)量網(wǎng)絡(luò)結(jié)構(gòu)如表2所示。

        在使用遷移學(xué)習(xí)對(duì)特征提取網(wǎng)絡(luò)進(jìn)行參數(shù)微調(diào)時(shí),應(yīng)根據(jù)實(shí)際任務(wù)情況考慮兩點(diǎn):訓(xùn)練數(shù)據(jù)量大小、與原數(shù)據(jù)集(ImageNet)相似程度。并參考不同的訓(xùn)練方式(見表3)。

        表2 基于ResNet101的姿態(tài)測(cè)量網(wǎng)絡(luò)Table 2 Attitude measurement network based on ResNet101

        表3 不同任務(wù)遷移學(xué)習(xí)方式參考Table 3 Reference of transfer learning methods for different task

        由于非合作目標(biāo)數(shù)據(jù)集與原數(shù)據(jù)(ImageNet)相似度低,綜合比較適用于“淺層固定(Conv1、Conv2)+高層微調(diào)”的遷移學(xué)習(xí)方式,淺層參數(shù)對(duì)邊沿、紋理表征,具有通用性,因此可利用淺層參數(shù)并加以固定避免訓(xùn)練過程中微調(diào)帶來的過擬合,高層參數(shù)微調(diào)可將原用于圖像分類的高層特征調(diào)整為適用于姿態(tài)測(cè)量任務(wù)的高層特征;相對(duì)于“各層參數(shù)微調(diào)”方法,在一定程度上避免數(shù)據(jù)量不充足帶來的過擬合問題。而“各層固定”、“各層/高層重新訓(xùn)練”方法可能由于高層特征不適用、數(shù)據(jù)量不充足導(dǎo)致模型訓(xùn)練無法收斂。

        設(shè)置網(wǎng)絡(luò)訓(xùn)練超參數(shù),訓(xùn)練選用ADAM優(yōu)化器,設(shè)置小批量尺寸大小為32,訓(xùn)練50代且每代訓(xùn)練結(jié)束后打亂訓(xùn)練集順序重新訓(xùn)練,初始學(xué)習(xí)率為0.0001并每20代后調(diào)節(jié)學(xué)習(xí)率下降0.1倍。實(shí)驗(yàn)環(huán)境:CPU: Intel(R) Xeon(R) Silver 4114 CPU @2.20 GHz 20核; GPU: NVIDIA Quadro P4000(顯存6 G);MATLAB R2019b, Deep Learning Toolbox, CUDA 10.1。訓(xùn)練結(jié)果如圖7所示,從圖中可以看出損失函數(shù)RMSE曲線通過訓(xùn)練可以收斂,驗(yàn)證集RMSE可收斂至0.711°,后驗(yàn)結(jié)果表明了姿態(tài)測(cè)量網(wǎng)絡(luò)設(shè)計(jì)和訓(xùn)練的可行性。

        圖7 姿態(tài)測(cè)量網(wǎng)絡(luò)訓(xùn)練曲線Fig.7 Training curves of attitude measurement network

        2.3 權(quán)重可視化與特征分析

        卷積網(wǎng)絡(luò)在訓(xùn)練中學(xué)習(xí)到圖像的底層至深層特征,并保留在卷積核權(quán)重中,將其中某些層可視化得到圖8。

        圖8 姿態(tài)測(cè)量網(wǎng)絡(luò)(左)與ResNet101(右)權(quán)重可視化對(duì)比Fig.8 Comparison of weights visualization between attitude measurement network (left) and ResNet 101 (right)

        圖8左側(cè)為姿態(tài)測(cè)量網(wǎng)絡(luò)卷積權(quán)重,右側(cè)為預(yù)訓(xùn)練過的分類網(wǎng)絡(luò)ResNet101卷積權(quán)重,分別對(duì)兩個(gè)網(wǎng)絡(luò)Conv1~Conv5中的部分卷積層進(jìn)行了可視化??v向比較發(fā)現(xiàn)Conv1中64個(gè)卷積核提取圖像中點(diǎn)、線特征,Conv2、Conv3提取圖像邊沿輪廓特征,而Conv4、Conv5通過深層整合(Conv2~Conv5只顯示了前30個(gè)卷積核),能夠充分捕捉到圖像豐富復(fù)雜的紋理特征;橫向比較二者發(fā)現(xiàn)姿態(tài)測(cè)量網(wǎng)絡(luò)的卷積層參數(shù)在預(yù)訓(xùn)練過的ResNet101卷積層上進(jìn)行了微調(diào),Conv1~Conv5層特征大體相似,只是由于空間非合作目標(biāo)圖像為灰度圖像,整體顏色特征偏暗,可視化的結(jié)果證明遷移學(xué)習(xí)的可行性,預(yù)訓(xùn)練過的卷積網(wǎng)絡(luò)適用于姿態(tài)測(cè)量任務(wù)。

        輸入一張空間非合作目標(biāo)圖像,可以查看圖像在特定特征提取層的輸出激活,如圖9所示。

        圖9 各層輸出結(jié)果可視化Fig.9 Visualization of output results of each layer

        圖9展示了輸入圖像在Conv2、Conv3層的激活輸出,將Conv層內(nèi)某個(gè)通道的特定輸出激活提取并放大對(duì)比可以發(fā)現(xiàn),網(wǎng)絡(luò)能夠提取出非合作目標(biāo)局部特征。每層的1/2/3通道激活中,灰度高的區(qū)域?yàn)榫矸e核提取出的區(qū)域,灰度低的區(qū)域?yàn)榫矸e核不關(guān)注的區(qū)域,對(duì)比4通道原圖發(fā)現(xiàn)1/2/3通道分別能夠?qū)Ψ呛献髂繕?biāo)星體與支架上的橫向邊沿、柱狀噴嘴及形體上零部件和星體中間區(qū)域的矩形等特征進(jìn)行有效提取,且網(wǎng)絡(luò)越深,提取出的特征更簡明抽象,并最終化為特征向量送入后面的姿態(tài)映射網(wǎng)絡(luò)中學(xué)習(xí)非線性映射關(guān)系F(x)。姿態(tài)映射網(wǎng)絡(luò)的參數(shù)可視化分別對(duì)應(yīng)了特征向量到俯仰、翻滾、偏航三軸姿態(tài)角之間的映射關(guān)系。

        圖10 特征向量與三軸姿態(tài)角的對(duì)應(yīng)映射關(guān)系Fig.10 Mapping relationship between eigenvector and attitude angle of three-axis

        按照表征學(xué)習(xí)觀點(diǎn),特征提取網(wǎng)絡(luò)中的卷積層和池化層能夠?qū)斎霐?shù)據(jù)進(jìn)行特征提取,姿態(tài)映射網(wǎng)絡(luò)中的全連接層作用則是對(duì)提取的特征進(jìn)行非線性組合得到輸出,即全連接層本身不具有特征提取能力,而是試圖利用現(xiàn)有的高階特征完成端到端的擬合。

        3 實(shí)驗(yàn)結(jié)果與誤差分析

        實(shí)驗(yàn)對(duì)比了不同遷移學(xué)習(xí)方法以及不同特征提取網(wǎng)絡(luò)在姿態(tài)測(cè)量任務(wù)中的性能差異。

        表4 不同遷移學(xué)習(xí)方法訓(xùn)練結(jié)果對(duì)比Table 4 Comparison of training results of different transfer learning methods

        訓(xùn)練結(jié)果證明采用各層微調(diào)和“淺層固定+高層微調(diào)”的方法模型能夠收斂,且后者精度更高,證明遷移學(xué)習(xí)方法可行性,以及固定淺層參數(shù)避免過擬合方法的有效性。以標(biāo)準(zhǔn)差σ作為網(wǎng)絡(luò)性能的評(píng)價(jià)標(biāo)準(zhǔn)。圖7中RMSE曲線中的虛線表示網(wǎng)絡(luò)在驗(yàn)證集上的標(biāo)準(zhǔn)差。圖11分別展現(xiàn)了兩種遷移學(xué)習(xí)方法標(biāo)準(zhǔn)差結(jié)果:兩種方法1σ誤差都在1°內(nèi),3σ誤差在2°內(nèi)。但其中紅色離群點(diǎn)分布明顯采用“淺層固定+高層微調(diào)”方法更優(yōu)。具體誤差分析如表5、表6所示。

        圖11 三軸誤差分布Fig.11 Error distribution of three-axis

        表5 各層微調(diào)驗(yàn)證集結(jié)果(基于ResNet101)Table 5 Validation results of fine-tuning on each layer (based on ResNet101)

        表6 淺層固定+高層微調(diào)驗(yàn)證集結(jié)果(基于ResNet101)Table 6 Validation results of shallow layers freezed+fine-tuning on deep layers(based on ResNet101)

        圖12 部分測(cè)量結(jié)果Fig.12 Parts of the measurement results

        由于空間非合作目標(biāo)姿態(tài)估計(jì)工作最終需要在軌進(jìn)行,因此卷積神經(jīng)網(wǎng)絡(luò)尺寸大小以及檢測(cè)時(shí)間決定了網(wǎng)絡(luò)能否部署在嵌入式系統(tǒng)以及進(jìn)行在軌實(shí)時(shí)檢測(cè)。本文對(duì)比了ResNet101、ResNet50、ResNet18、MobileNet_V2的網(wǎng)絡(luò)大小、檢測(cè)精度和檢測(cè)時(shí)間,如表7所示。

        本文利用測(cè)量精度相對(duì)較高的ResNet101網(wǎng)絡(luò)測(cè)量姿態(tài)角精度為0.711°,優(yōu)于文獻(xiàn)[16]中的平均誤差2.68°、文獻(xiàn)[20]中的平均誤差7.3°以及文獻(xiàn)[6, 18]中的精度2°;與文獻(xiàn)[16-18]相比,將姿態(tài)測(cè)量問題轉(zhuǎn)化為回歸問題而非分類問題,可得到連續(xù)準(zhǔn)確的姿態(tài)角輸出。橫向比較不同的卷積神經(jīng)網(wǎng)絡(luò)可以看出,通過刪減卷積層或提出新型網(wǎng)絡(luò)結(jié)構(gòu)后的輕量化網(wǎng)絡(luò)尺寸更小、平均檢測(cè)時(shí)間更短,但會(huì)損失一定的檢測(cè)精度。本文算法不需要依賴于非合作目標(biāo)人工特征的提取和匹配,而是對(duì)整幅圖像底層邊沿特征至高層抽象特征自動(dòng)提取,相對(duì)而言此方法可用于各類型的非合作目標(biāo),且能夠通過完善訓(xùn)練集來提高姿態(tài)測(cè)量精度和魯棒性。

        表7 不同預(yù)訓(xùn)練網(wǎng)絡(luò)測(cè)量結(jié)果對(duì)比Table 7 Comparison of measurement results of different pre-training networks

        4 結(jié) 論

        本文給出了一種空間非合作目標(biāo)姿態(tài)測(cè)量的方法。針對(duì)單目相機(jī)獲取的圖像,利用卷積神經(jīng)網(wǎng)絡(luò)對(duì)衛(wèi)星姿態(tài)進(jìn)行估計(jì),標(biāo)準(zhǔn)差為0.711°,單幅圖片的檢測(cè)時(shí)間可達(dá)0.02 s。輕量化網(wǎng)絡(luò)的檢測(cè)精度雖有一定損失,但在模型存儲(chǔ)大小和檢測(cè)時(shí)間上存在明顯優(yōu)化,根據(jù)任務(wù)需求不同選取不同的卷積神經(jīng)網(wǎng)絡(luò)。本文方法在精度和檢測(cè)時(shí)間上也優(yōu)于一些既有的傳統(tǒng)算法,且無需人工設(shè)計(jì)特征提取和特征匹配步驟。驗(yàn)證了利用“單目相機(jī)+卷積神經(jīng)網(wǎng)絡(luò)”方法進(jìn)行空間非合作目標(biāo)姿態(tài)測(cè)量的可行性。

        猜你喜歡
        特征提取特征測(cè)量
        如何表達(dá)“特征”
        把握四個(gè)“三” 測(cè)量變簡單
        基于Gazebo仿真環(huán)境的ORB特征提取與比對(duì)的研究
        電子制作(2019年15期)2019-08-27 01:12:00
        不忠誠的四個(gè)特征
        滑動(dòng)摩擦力的測(cè)量和計(jì)算
        滑動(dòng)摩擦力的測(cè)量與計(jì)算
        抓住特征巧觀察
        一種基于LBP 特征提取和稀疏表示的肝病識(shí)別算法
        測(cè)量
        基于MED和循環(huán)域解調(diào)的多故障特征提取
        熟妇人妻久久中文字幕| 国产三级视频在线观看国产| 亚洲精品98中文字幕| 最近中文字幕国语免费| 欧美 日韩 国产 成人 在线观看| 中字亚洲国产精品一区二区| 国产一区二区三区再现| 一区二区三区无码高清视频| 国产精品无码av一区二区三区| 婷婷亚洲国产成人精品性色| 亚洲一区有码在线观看| 日韩亚洲中文有码视频| 久久亚洲精品11p| 国产亚洲AV无码一区二区二三区| 久久国产精品懂色av| 亚洲精品国产一二三区| 亚洲精品第一国产综合亚av| 妺妺窝人体色www在线直播| 麻豆三级视频网站在线观看| 久久久精品中文字幕麻豆发布| 亚洲熟少妇在线播放999| 国产高清国内精品福利99久久| 亚洲一区久久蜜臀av| 天堂中文а√在线| 97免费人妻在线视频| 国产内射视频在线播放| 99国产精品久久一区二区三区 | 中文字幕人妻被公上司喝醉| 久久久国产精品樱花网站| 三级日本午夜在线观看| 国产成人精品优优av| 日本免费人成视频播放| 欧美精品videossex少妇| 人妻久久999精品1024| 日本特殊按摩在线观看| 色多多性虎精品无码av| 少妇厨房愉情理伦片bd在线观看 | 国产成年无码久久久久下载| 色佬易精品视频免费在线观看| 国产精品亚洲一区二区三区| 欧美熟妇色ⅹxxx欧美妇|