亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于卷積神經(jīng)網(wǎng)絡的視覺里程計

        2019-08-13 09:06:30吳凡
        山東工業(yè)技術 2019年21期
        關鍵詞:卷積神經(jīng)網(wǎng)絡深度學習

        摘 要:經(jīng)典的視覺里程計系統(tǒng)提取稀疏或密集的特征并匹配以執(zhí)行幀到幀的運動估計,但是都需要針對它們所處的特定環(huán)境進行仔細的參數(shù)調(diào)整。受深度網(wǎng)絡的最新進展和以前關于應用于 VO 的學習方法的啟發(fā),探索了使用卷積神經(jīng)網(wǎng)絡來學習視覺位姿估計任務。通過對公開數(shù)據(jù)集進行實驗,驗證方法性能。最后,對算法進行總結分析并對展望其發(fā)展趨勢。

        關鍵詞:視覺里程計;位姿估計;深度學習; 卷積神經(jīng)網(wǎng)絡

        DOI:10.16640/j.cnki.37-1222/t.2019.21.083

        0 引言

        視覺里程計[1],也稱為幀間估計,是視覺SLAM[2](simultaneous localization and mapping)中的核心內(nèi)容。經(jīng)典的基于幾何的視覺里程計方法分為特征點法與直接法。但是其依據(jù)于大量的計算,并且估計結果對相機參數(shù)極為敏感。近年來,人工智能、深度學習再次掀起了熱潮,基于深度學習的視覺任務豐富多樣,在分類、跟蹤等問題上都取得了很好的效果。但是多學習外觀特征,而視覺里程計需要學習圖片的幾何特征。

        本文提出了一種基于卷積神經(jīng)網(wǎng)絡的視覺里程計方法,將數(shù)據(jù)集進行預處理,將圖片序列中相鄰的兩張RGB圖片進行串聯(lián),每張圖片的通道數(shù)為3,得到一個通道數(shù)為6的張量,輸入到神經(jīng)網(wǎng)絡中。參考Vgg網(wǎng)絡結構進行特征提取工作。將提取的特征輸入到全鏈接層將張量壓縮為位姿特征向量。通過KITTI數(shù)據(jù)集進行實驗,輸出圖片之間的相對位姿,并轉(zhuǎn)化為絕對位姿和地面真實軌跡進行對比。

        1 相關內(nèi)容

        1.1 經(jīng)典的幾何方法

        經(jīng)典的幾何幀間估計方法有著悠久的解決方案設計的歷史。最開始是基于稀疏的特征跟蹤,研究者們設計了很多具有魯棒性的角點、邊緣點、區(qū)塊等比較有代表性的點的特征提取與匹配的算法,在這些特征的基礎上估計相機的運動,如SIFT,SURF,ORB等。Eigel[3]等人開發(fā)了最經(jīng)典的直接方法之一LSD-SLAM。直接方法在過去幾年中得到了最多的關注,Mur-Artal等人的ORB-SLAM[4]算法進行稀疏特征的跟蹤也達到了令人印象深刻的魯棒性和準確性。

        1.2 深度學習法

        深度學習采用端到端的方式進行大量的自動學習,并嘗試從數(shù)據(jù)中推斷它們。從學習方式分為有著明確標簽的有監(jiān)督學習(supervised learning)與沒有明確標簽采用聚類的思想的無監(jiān)督學習(unsupervised learning)。Posenet[5]利用卷積神經(jīng)網(wǎng)絡(CNN)實現(xiàn)相機姿態(tài)估計,訓練卷積神經(jīng)網(wǎng)絡從一個單一的RGB圖像回歸相機的姿態(tài),并在大型室外場景與室內(nèi)場景進行實驗。Walch[6]在其去掉全連接層2048維的輸出向量基礎上加入循環(huán)神經(jīng)網(wǎng)絡架構實現(xiàn)相機姿態(tài)回歸,捕捉像素關系。DeepVO[7]由兩個并行AlexNet的級聯(lián)卷積層組成并在末端串聯(lián),提取圖片的低級特征到高級特征。

        2 算法結構

        2.1 基于CNN的特征提取部分

        將連續(xù)的兩張圖片串聯(lián)為6個通道進行特征提取,卷積層卷積核全部使用3×3的卷積核和2×2的池化核,其中兩個3×3卷積層的串聯(lián)相當于1個5×5的卷積層,3個3×3的卷積層串聯(lián)相當于1個7×7的卷積層。其中3個3×3的卷積層參數(shù)量只有7×7的一半左右,有效的減少了參數(shù)量。由捕捉大的特征逐漸到捕捉小的特征進行過渡。

        通過多個小的卷積核堆疊來替代大的卷積核,增加了非線性激活函數(shù),這有效的增加了特征學習的能力。

        2.2 全連接層

        在卷積層后面加入全連接層,將特征張量的維度降下來。以輸出6維度的相機位姿。隱藏單元數(shù)為4096,1024,512,128,最后壓縮為6維的表示圖片之間相對位姿的特征向量。全連接層后面也連接著非線性激活函數(shù)。整體的網(wǎng)絡結構如圖1所示。

        2.3 損失函數(shù)

        3 實驗

        3.1 實驗平臺與特征提取過程

        實驗平臺為顯卡RTX2080ti一塊,ubuntu16.04操作系統(tǒng)。在開源框架pytorch上實現(xiàn)。

        選擇KITTI數(shù)據(jù)集進行實驗,采用有監(jiān)督的學習方法。將數(shù)據(jù)集中gps等采集的變換矩陣表示的位姿轉(zhuǎn)化為3維的平移與3維的歐拉角表示,更利于反向梯度傳輸。首先將數(shù)據(jù)集計算圖片的均值與標準差,對其進行歸一化處理。

        3.2 訓練過程

        網(wǎng)絡在00,01,02,08上進行訓練,驗證數(shù)據(jù)集按照0.2的比例分割來源于訓練集的。采用Adam優(yōu)化算法,設置初始學習率為0.0005。batch梯度下降方法,Batchsize為16。網(wǎng)絡訓練一個epoch大概需要5分鐘,模型的驗證誤差與訓練誤差整體收斂到一個較小的范圍大概需要130epoch,約26小時。訓練與驗證的損失曲線如圖2所示,其中紅色代表隨著迭代次數(shù)增加的訓練損失,藍色代表隨著迭代次數(shù)增加的驗證損失,可以從損失函數(shù)曲線看出,兩個損失都可以收斂到較好的范圍并且相差不多。

        3.3 測試過程

        按照場景由訓練得到的模型進行測試,在每個文件夾所處的序列圖像中,將圖片堆疊輸入到網(wǎng)絡中,得到預測的相對姿態(tài),有姿態(tài)解算將得出的相對姿態(tài)轉(zhuǎn)化為絕對姿態(tài),并計算平移損失、旋轉(zhuǎn)損失以及總損失。

        如圖3所示。綠色的為KITTI上GPS等得出的位姿作為真實地面軌跡。紅色的為KITTI數(shù)據(jù)集通過深度神經(jīng)網(wǎng)絡測試得到相對姿態(tài)并進行姿態(tài)解算得到的相對于第一幀的絕對姿態(tài)。

        隨著訓練epoch的增加,測試模型的誤差一直在減少,畫出的軌跡收斂性也有明顯的提升,圖3中的軌跡是訓練到130epoch時,得到的均勻較好的軌跡曲線。從幾個測試的序列看出,基于卷積神經(jīng)網(wǎng)絡的位姿估計方法都獲得了準確的軌跡形狀,但都存在軌跡漂移的現(xiàn)象,和經(jīng)典的位姿估計方法如ORB得到的軌跡準確度還有差距。基于深度神經(jīng)網(wǎng)絡的視覺位姿估計精度仍需提升。

        4 結論與發(fā)展趨勢

        本文提出了一種基于卷積神經(jīng)網(wǎng)絡的視覺位姿估計方法。將兩張原始的RGB圖片以串聯(lián)的方式輸入到神經(jīng)網(wǎng)絡中。經(jīng)過實驗發(fā)現(xiàn)在訓練過程的參數(shù)設置很重要,合適的參數(shù)會使得網(wǎng)絡得到好的收斂,并測試出好的結果。在訓練保存出較好的模型及優(yōu)化器下性能較優(yōu),位姿估計較為準確。但是其和經(jīng)典的幾何方法算法性能還有待提高,但是可以作為其有效的補充。

        實驗可以將數(shù)據(jù)集進行擴充,使得在相機面臨豐富運動時更加準確??梢圆捎眯碌囊曈X傳感器,如對光線或天氣變化十分敏感,探索新的傳感器融合。將后端優(yōu)化,閉環(huán)檢測或整體過程基于深度學習實現(xiàn)的研究還相對更少,但是其是提高基于深度學習的相機位姿估計性能的有效途徑。

        參考文獻:

        [1]NISTER D,NARODITSKY O,BERGEN J R.Visual odometry[C].Computer Vision and Pattern Recognition,2004.CVPR 2004.Proceedings of the 2004 IEEE Computer Society Conference on.IEEE,2004.

        [2]BIRK A,PFINGSTHORN M.Simultaneous Localization and Mapping (SLAM)[M].Wiley Encyclopedia of Electrical and Electronics Engineering.John Wiley & Sons,Inc.2016.

        [3]ENGEL J,THOMAS Sch?ps,CREMERS D.LSD-SLAM:Large-Scale Direct Monocular SLAM[C].European Conference on Computer Vision.Springer,Cham,2014:834-849.

        [4]MUR-ARTAL R,MONTIEL J M M,Tardos J D.ORB-SLAM: a versatile and accurate monocular SLAM system[J].IEEE Transactions on Robotics,2015,31(05):1147-1163.

        [5]KENDALL A,GRIMES M,CIPOLLA R.PoseNet:A Convolutional Network for Real-Time 6-DOF Camera Relocalization[C].IEEE International Conference on Computer Vision.2015.

        [6]WALCH F,HAZIRBAS C,Leal-Taixé,Laura,et al.Image-based Localization with Spatial LSTMs[C].2016.

        [7]MOHANTY V,AGRAWAL S,DATTA S,et al.DeepVO: A Deep Learning approach for Monocular Visual Odometry[C].2016.

        基金項目:武器裝備軍內(nèi)重點科研項目資助

        作者簡介:吳凡(1995-),女,河北保定人,碩士研究生,主要從事機器視覺與深度學習方面的研究。

        猜你喜歡
        卷積神經(jīng)網(wǎng)絡深度學習
        基于卷積神經(jīng)網(wǎng)絡溫室智能大棚監(jiān)控系統(tǒng)的研究
        基于深度卷積神經(jīng)網(wǎng)絡的物體識別算法
        有體驗的學習才是有意義的學習
        電子商務中基于深度學習的虛假交易識別研究
        MOOC與翻轉(zhuǎn)課堂融合的深度學習場域建構
        大數(shù)據(jù)技術在反恐怖主義中的應用展望
        深度學習算法應用于巖石圖像處理的可行性研究
        軟件導刊(2016年9期)2016-11-07 22:20:49
        基于深度卷積網(wǎng)絡的人臉年齡分析算法與實現(xiàn)
        軟件工程(2016年8期)2016-10-25 15:47:34
        基于卷積神經(jīng)網(wǎng)絡的樹葉識別的算法的研究
        高清偷自拍亚洲精品三区| 日本一区中文字幕在线播放| 国产中文字幕免费视频一区| 色综合久久无码五十路人妻| 国内a∨免费播放| 韩国一级成a人片在线观看| 蜜桃视频一区二区三区| 少妇人妻综合久久中文字幕| 久久国产劲暴∨内射| 一本一道波多野结衣av中文| 国产在线看不卡一区二区| 国产自拍视频免费在线| 色一情一乱一乱一区99av| 无码中文av有码中文av| 青青草视频网站免费看| 国产亚洲欧洲aⅴ综合一区| 在线亚洲欧美日韩精品专区| 国产亚洲高清不卡在线观看| 久久99免费精品国产| 欧洲熟妇色xxxx欧美老妇软件| 亚洲国产精品久久久久秋霞影院| 欧美精品v欧洲高清| 永久免费观看的黄网站在线| 国产精品多人p群无码| 婷婷五月综合激情| 伊人亚洲综合影院首页 | 国产成人自产拍免费视频| 亚洲天堂av一区二区三区不卡| 国产va免费精品观看精品| 窝窝影院午夜看片| 国产三级黄色片子看曰逼大片| 最新国产女主播在线观看| 精品999日本久久久影院| 在线观看视频亚洲| 久久久噜噜噜噜久久熟女m| 色偷偷888欧美精品久久久 | 欧美成人看片黄a免费看| 九月色婷婷免费| 国产老熟女精品一区二区| 午夜性无码专区| 91国在线啪精品一区|