亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于視覺和距離傳感器的SLAM和導(dǎo)航方法的探新

        2015-02-05 07:53:18花罡辰
        關(guān)鍵詞:里程計閉環(huán)階段

        花罡辰

        (東京工業(yè)大學(xué)綜合理工學(xué)研究科,日本 橫濱 226-8503)

        基于視覺和距離傳感器的SLAM和導(dǎo)航方法的探新

        花罡辰

        (東京工業(yè)大學(xué)綜合理工學(xué)研究科,日本 橫濱 226-8503)

        SLAM(Simultaneous Localization and Mapping)被廣泛應(yīng)用于生成地圖和機(jī)器人導(dǎo)航領(lǐng)域。基于視覺特征的SLAM是一種低成本的解決方案,且能夠提取環(huán)境的豐富的特征點用于機(jī)器人導(dǎo)航,但是,現(xiàn)實世界的可視特征往往是動態(tài)的,很多基于視覺特征的SLAM方法都不能排除環(huán)境中移動物體的影響,比如:在餐廳或購物中心的行人等等。ICGM(Incremental Center of Gravity Matching)是一個通過圖像隊列之間特征點的幾何結(jié)構(gòu)互相匹配而得到穩(wěn)定特征點的方法,基于ICGM的SLAM能有效地排除環(huán)境中移動物體的影響。本研究在前人研究的基礎(chǔ)上提出了一種新的算法,利用ICGM的方法提取環(huán)境穩(wěn)定的視覺特征,結(jié)合Kinect距離傳感器,在高度動態(tài)環(huán)境中實現(xiàn)了較高精度的機(jī)器人自動導(dǎo)航。并通過實驗檢驗了這種算法,實驗結(jié)果顯示,本方法的速度能夠達(dá)到實時處理的要求,與此前研究的其它方法相比,這種方法能夠達(dá)到更高的精度,所提出的SLAM和導(dǎo)航系統(tǒng)更加接近實用要求。

        SLAM;計算機(jī)視覺;機(jī)器人技術(shù)

        1 關(guān)聯(lián)研究

        SLAM對多種機(jī)器人系統(tǒng)都是必不可少的,自動導(dǎo)航對于機(jī)器人系統(tǒng)來說也非常重要。

        在SLAM和機(jī)器人導(dǎo)航領(lǐng)域,近年來有非常多的先進(jìn)研究,其核心目標(biāo)是提高機(jī)器人導(dǎo)航系統(tǒng)的速度、精度和可靠性。然而,在現(xiàn)實使用中,機(jī)器人周圍的工作環(huán)境往往是動態(tài)的,因此,“如何在動態(tài)的環(huán)境中提高位置識別精度”,成為當(dāng)前研究的熱點。

        大多數(shù)基于圖像特征的SLAM或?qū)Ш椒椒?,是提取SIFT(Scale-Invariant Feature Transform)或SURF(Speeded Up Robust Feature)特征作為定位時的視覺識別標(biāo)志,但是,如果使用SIFT或SURF,SLAM或?qū)Ш较到y(tǒng)就會把移動中的物體,比如行人、汽車等,作為定位時的視覺識別標(biāo)志,顯然會對定位的效率產(chǎn)生不好的影響。

        KawewongA.et al[2,3]提出了位置不變穩(wěn)定特征值PIRF (Position Invariant Robust Feature)。PIRF 是一個通過圖像隊列之間特征點的幾何結(jié)構(gòu)互相匹配而得到穩(wěn)定特征點的方法。作為定位時的視覺識別標(biāo)志,它能一定程度排除掉動態(tài)物體對導(dǎo)航精度的影響?;赑IRF,Morioka H.et al.[4]提出了一種基于PIRF的SLAM和機(jī)器人導(dǎo)航方法,即3D-PIRF。3D-PIRF從單眼全方位相機(jī)的連續(xù)圖像中中提取PIRF特征,并結(jié)合機(jī)器人里程計的信息推算出所有PIRF特征的空間3D坐標(biāo)。把這些PIRF特征和空間3D坐標(biāo)學(xué)習(xí)后,構(gòu)建一個混合地圖(Hybrid Map)。便能進(jìn)行導(dǎo)航。導(dǎo)航時,利用8點方法可以計算出機(jī)器人的全局位置。

        雖然PIRF是一種較為有效的安定特征點提取方法。但是HUAGangchen et al[1].提出了一種比PIRF更有效的安定特征點提取方法,被稱作ICGM。對比PIRF,ICGM在利用圖像隊列之間特征點互相匹配的基礎(chǔ)上還利用了特征點的幾何結(jié)構(gòu)。把ICGM應(yīng)用在只基于圖像的在高度動態(tài)環(huán)境下的SLAM中可以達(dá)到比PIRF更高的精度。

        本研究基于ICGM加上新穎的Kinect傳感器,以期實現(xiàn)比3D-PIRF更好的SLAM和機(jī)器人導(dǎo)航系統(tǒng)。

        本方法實現(xiàn)機(jī)器人自動導(dǎo)航分為兩個步驟,學(xué)習(xí)階段和導(dǎo)航階段。SLAM即為學(xué)習(xí)階段。導(dǎo)航階段機(jī)器人利用SLAM的數(shù)據(jù)進(jìn)行自動導(dǎo)航。

        圖1是本研究的基本結(jié)構(gòu):

        圖1 研究的基本結(jié)構(gòu)Fig.1 Basic structure of the proposed method

        圖1右邊所示為SLAM和導(dǎo)航機(jī)器人的硬件,機(jī)器人上端安裝有一臺Kinect傳感器。左上為Kinect傳感器得到的環(huán)境的距離信息(暖色代表離傳感器距離近,冷色代表遠(yuǎn))和圖像信息。Kinect傳感器能夠同時獲取環(huán)境中的距離信息和圖像信息。左下為SLAM系統(tǒng)計算出的機(jī)器人的移動路徑。

        2 ICGM簡介

        ICGM(Incremental Center of Gravity Matching) 是一個通過圖像隊列之間特征點的幾何結(jié)構(gòu)互相匹配而得到穩(wěn)定特征點的方法。

        其基本思路如圖2所示。假設(shè)Ia和Ib是在相同地點不同時刻拍攝的兩張照片。

        圖2:Incremental Center of Gravity Matching的基本思路Fig.2 Basic idea of Incremental Center of Gravity Matching

        圖中的(a,a'),(b,b'),(c,c'),(d,d'),(e,e')為已經(jīng)被匹配上的特征點(SURF或SIFT)對。(a,a'),(b,b'),(c,c'),(e,e')之間的匹配是穩(wěn)定的匹配,(d,d')是不穩(wěn)定的匹配。換句話說(a,a'),(b,b'),(c,c'),(e,e')在到拍攝的時間段內(nèi),位置沒有大的變化,所以(a,a'),(b,b'),(c,c'),(e,e')是穩(wěn)定的。而(d,d')的位置變化了,所以(d,d')之間的匹配是不穩(wěn)定的。

        以上所提到的穩(wěn)定和不穩(wěn)定的概念皆是時間尺度上的概念。假設(shè)Ia拍攝到Ib拍攝經(jīng)過時間t,那么(d,d')在t內(nèi)是不穩(wěn)定的。

        本研究利用ICGM方法用來排除不穩(wěn)定的匹配。

        首先假設(shè)系統(tǒng)已知(a,a'),(b,b'),(c,c')的匹配是穩(wěn)定的。然后分別在Ia和Ib中計算a,b,c和a',b',c'的重心,得到o,o'?;趏,o'我們能夠計算出重心向量(從已知重心到其他特征點的向量):。顯然地,但是。我們能夠利用兩張圖的重心向量的關(guān)系來判斷一個特征點的匹配對是否穩(wěn)定。

        因此,通過合理地設(shè)置一個閾值可以區(qū)分一個匹配對是否穩(wěn)定。

        實際使用時,ICGM方法使用了差值比例RoG(ratio of difference)來計算匹配對的穩(wěn)定度。

        RoG為重心向量的差的模和重心向量的模的和的比例。當(dāng)式(2)成立時,一個特征點匹配對即被認(rèn)為不穩(wěn)定,反之則穩(wěn)定。

        實際的ICGM方法會首先隨機(jī)地提取初始N個匹配對,分別計算他們的重心。再用(1)計算初始N個點的RoG,用式(2)判斷它們穩(wěn)定與否。當(dāng)且僅當(dāng)初始的N點都穩(wěn)定時,才進(jìn)入下一步計算。

        得到N個初始的穩(wěn)定的特征點后,通過它們的重心來測試剩下特征點匹配對的穩(wěn)定度。

        假設(shè)如圖2,(a,b,c)和(a',b',c')是初始的3個穩(wěn)定的匹配對。然后,(e,e')是被識別為穩(wěn)定,ICGM會重新計算重心,用(a,b,c,e)和(a',b',c',e')的重心來計算剩下的匹配對的穩(wěn)定度。因為(d,d')不穩(wěn)定,所以(d,d')會被直接排除,重心也不會被重新計算。

        ICGM最后能夠排除所有不穩(wěn)定的特征點,而留下穩(wěn)定的特征點。

        以上描述了ICGM排除不穩(wěn)定匹配對的方法。如圖3所示,假設(shè)為機(jī)器人在時間軸上連續(xù)的圖片,在SLAM和導(dǎo)航中,我們分別在和,之間計算ICGM。假設(shè)A為計算ICGM后,的穩(wěn)定特征點。假設(shè)B為計算ICGM后,的穩(wěn)定特征點。我們?nèi)和B的并集作為的穩(wěn)定的特征點。

        圖3 基于ICGM從連續(xù)的圖像隊列中提取穩(wěn)定特征值Fig.3 Robust feature extraction method based on ICGM

        3 基于ICGM的SLAM和機(jī)器人導(dǎo)航

        本研究在學(xué)習(xí)SLAM階段會構(gòu)建一個混合地圖。導(dǎo)航階段使用混合地圖進(jìn)行自動導(dǎo)航。

        3.1 混合SLAM和混合地圖的構(gòu)建(學(xué)習(xí)階段)

        目前有很多SLAM都是只基于視覺信息的(vision-only),但只基于視覺信息的SLAM只能夠獲取系統(tǒng)當(dāng)前的大概位置。而對于機(jī)器人導(dǎo)航,精確的6自由度的全局姿態(tài)是必要。6自由度的全局姿態(tài)即機(jī)器人在地圖中的3維位置(x,y,z)和3維的機(jī)器人的·全局的的角度姿態(tài)(roll,pitch,yaw)。

        為了獲取機(jī)器人6自由度的全局姿態(tài),我們開發(fā)了一種基于vision-only SLAM的混合SLAM。利用混合SLAM我們能夠構(gòu)建混合地圖。

        本方法的混合地圖是基于可視里程器構(gòu)建的。可視里程器通過計算3D點云間的6D剛性變換[6]實現(xiàn)。

        一幀kinect數(shù)據(jù)先通過ICGM提取穩(wěn)定特征點,然后通過kinect的距離數(shù)據(jù)算出穩(wěn)定特征點的空間3D坐標(biāo),這些帶有空間3D坐標(biāo)的穩(wěn)定特征點生成一個3D點云。我們把這樣的一個點云叫做一個數(shù)據(jù)模型。我們能夠連續(xù)得到一個的集合M。

        如圖5所示,隨著學(xué)習(xí)路徑的變長,里程計的誤差會漸漸累計,導(dǎo)致很大的誤差。學(xué)習(xí)過程中我們必須控制誤差的累計。

        本方法利用ICGM的vision-only SLAM[1]檢測閉環(huán)。檢測閉環(huán)是指通過可視特征檢測當(dāng)前的位置是不是一個之前已經(jīng)來過的位置。

        檢測出閉環(huán)后,利用vision-only SLAM取得3個最好的數(shù)據(jù)模型,Mbest,Msecond_best,Mthird_ best。

        然后我們嘗試分別計算當(dāng)前的數(shù)據(jù)模型Mcurrent和Mbest,Msecond_best,Mthird_best之間的剛性變換。假如都成功了,我們能得到3個相對姿態(tài)。假如都失敗了,我們會認(rèn)為此次閉環(huán)檢測失敗了。

        然后根據(jù)RANSAC建模的結(jié)果好壞,我們從上面3個相對姿態(tài)選取一個最好的相對姿態(tài)和最好的閉環(huán)位置。進(jìn)一步可以得到當(dāng)前模型的通過閉環(huán)檢測得到的準(zhǔn)確的全局位置:。此為消除了累計誤差之后的當(dāng)前位置。

        我們通過最小化(5)式來最優(yōu)化current時刻之前的路徑。式(5)中表示current時刻之前學(xué)習(xí)的6自由度的全局姿態(tài)。

        3.2 基于混合地圖的自動導(dǎo)航(導(dǎo)航階段)

        自動導(dǎo)航仍舊基于閉環(huán)檢測。步驟和學(xué)習(xí)階段類似,但是是基于學(xué)習(xí)階段的混合地圖實現(xiàn)定位。通常會把設(shè)置為1以達(dá)到快速的位置識別的響應(yīng)。

        機(jī)器人導(dǎo)航時同樣利用ICGM的vision-only SLAM檢測閉環(huán),然后獲取最佳的和。

        4 實驗

        本實驗包括兩個階段,學(xué)習(xí)階段和導(dǎo)航階段。

        如圖4,這個實驗是在東京工業(yè)大學(xué)食堂進(jìn)行的。食堂大小為20*20m。我們在晚上8點的時候檢測自己所提出的方法。這時,食堂大概有70人。他們在這個環(huán)境中自由地進(jìn)餐或走動。這是一個高度動態(tài)的環(huán)境。

        圖4 經(jīng)過ICGM處理的結(jié)果:行人被ICGM作為動態(tài)物體排除了Fig.4 ICGM's processing result:pedestrians are ignored

        在學(xué)習(xí)階段,我們使用了游戲手柄控制機(jī)器人。機(jī)器人在移動過程中實時記錄里程計和kinect的圖像及距離信息。我們控制機(jī)器人繞了兩圈。在學(xué)習(xí)的終點,我們讓機(jī)器人回到學(xué)習(xí)的原點??偟囊苿拥木嚯x大概為80米。在整個過程中,機(jī)器人記錄了6739幀數(shù)據(jù)。

        雖然環(huán)境是高度動態(tài)的,但由于ICGM特征點的穩(wěn)定性,學(xué)習(xí)結(jié)果:kinect的可視里程計的成功率為97.6%,所以機(jī)器人路徑有97.6%由kinect的數(shù)據(jù)算出。閉環(huán)檢出率為63.8%。

        圖5為機(jī)器人里程計計算出的路徑,顯然地,機(jī)器人里程計計算出的路徑誤差會漸漸累計,導(dǎo)致極大的誤差。圖5為通過本方法學(xué)習(xí)的路徑。

        由于環(huán)境較大,取得真實數(shù)據(jù)很難,所以較難做出精確的誤差評價。但因為本方法通過檢出閉環(huán)修正了路徑,誤差累計的問題顯然被較好地解決了。

        圖5 單純的里程計計算出的機(jī)器人路徑Fig.5 Route calculated only by robot's odometry

        圖6 通過檢出閉環(huán)修正了的路徑。紅色代表閉環(huán)被檢出的位置Fig.6 Corrected route based on loop-closure detection.Red points represent loop-closure detected locations

        表1為閉環(huán)檢出率的對比。相比3D-PIRF[3],本方法的閉環(huán)檢出率大大提高了。

        表1 閉環(huán)檢出率的對比Tab.1 Comparisons of loop-closure detected ratio

        在導(dǎo)航階段,我們選取了一段長度為12米的路徑作為規(guī)劃路徑。此路徑包含在學(xué)習(xí)路徑中。我們基于上一學(xué)習(xí)階段構(gòu)建的混合地圖進(jìn)行導(dǎo)航。

        導(dǎo)航階段每幀平均計算時間為321ms。機(jī)器人移動速度為125mm/s,用地板磚的分界線作為誤差評判基準(zhǔn),移動階段對于規(guī)劃路徑的平均偏移為60mm,最大偏移為92mm。

        表2為本方法和3D-PIRF[3]的導(dǎo)航結(jié)果的對比。請注意,本方法運(yùn)用了GPU加速,而3D-PIRF沒有,所以計算速度的數(shù)據(jù)僅供參考。

        表2 導(dǎo)航結(jié)果對比Tab.2 Comparisons of navigation's results

        5 總結(jié)

        本研究提出了一個基于混合使用視覺特征和距離傳感器的SLAM和機(jī)器人導(dǎo)航方法,它能在高度動態(tài)的環(huán)境中穩(wěn)定工作。實驗結(jié)果顯示,本方法的速度能夠達(dá)到實時處理的要求,相比前人研究的方法,這種方法能夠達(dá)到更高的精度,所提出的SLAM和導(dǎo)航系統(tǒng)更加接近實用要求。

        在高度動態(tài)環(huán)境中工作是多種機(jī)器人必備的能力。如果機(jī)器人能利用一般的家用傳感器,就能大大降低機(jī)器人制造成本。微軟公司的Kinect是一種高速高精度且低成本的傳感器,它非常適合未來的商用機(jī)器人。另外,除了機(jī)器人,一些車輛也能使用Kinect實現(xiàn)自動導(dǎo)航,巨大的應(yīng)用需求給本方法提供了廣闊的前景。

        [1]HUAGangchen,HasegawaO.,A Robust Visual-Feature-Extraction Method for Simultaneous Localization and Mapping in Public Outdoor Environment[J].Vol.19 No.1,2015,11-22.

        [2]Kawewong A.,Tangruamsub S.,and HasegawaO..Positioninvariant robustfeatures for long-term recognition of dynamic outdoor scenes[J].IEICE Transactionson Information and Systems,2010,E93-D(9):2587-2601.

        [3]Kawewong A.,Tongprasit N.,Tangruamsub S.,and HasegawaO..Online incremental appearance-based slam in highly dynamic environments[J].Int.J.of Robotics Research,2011,30(1):33-55.

        [4]MoriokaH.,Sangkyu Y.,and HasegawaO..Visionbased mobile robot's slam and navigation in crowded environments[R].IEEE/RSJ International Conferenceon Intelligent Robots and Systems(IROS),2011.

        [5]FischlerM.A.and Bolles R.C..Random sample consensus:aparadigm for model fitting with applications to image analysis and automated cartography[J].Commun.ACM,1981,24(6):381-395.

        [6]Berthold K.P.Horn.Closed-form solution of absolute orientation using unit quaternions[J].JOSA A,1987,4:629-642.

        Anexploration on visionbased SLAM and navigation method combining range finder

        HUA Gangchen
        (Tokyo institute of technology,Interdisciplinary Graduate School of Science and Engineering,Yokohama 226-8503,Japan)

        Simultaneous Localization and Mapping(SLAM) is widely used for generation of maps for autonomous robotic navigation etc.SLAM based on visual features is a kind of low cost solution.Besides,SLAM based on visual features have plenty information for matching and recognition.But appearance of actual world is always dynamic.Many kinds of vision- based SLAM method are not robust to influence of unstable objects such as walking humans in cafeterias or shopping malls.ICGM(Incremental Center of Gravity Matching) is method which extracts static visual features from images sequence based on feature points geometric structure.SLAMs based on ICGM can exclude bad influences of dynamic objects.This proposed method is using ICGM to extract static features and combines range finderinformation.Thus,the proposed method can achieve high accuracy robotic navigation in highly dynamic environment.We run our approach in a crowed cafeteria.The result shows that by using proposed method SLAM and navigation can be achievedfast enough for real-time processing.Comparing to previous,the proposed method's precision is higher.Proposed method is more suitable for actual needs.

        Simultaneous Localization and Mapping(SLAM);computer vision;robotics

        TP242

        A

        1672-6332(2015)01-0083-06

        【責(zé)任編輯:楊立衡】

        2015-03-10

        花罡辰(1988-),男(漢),江西撫州人,博士,主要研究方向:智能科學(xué)系統(tǒng)。E-mail:huagangchen1988@gmail.com

        猜你喜歡
        里程計閉環(huán)階段
        室內(nèi)退化場景下UWB雙基站輔助LiDAR里程計的定位方法
        關(guān)于基礎(chǔ)教育階段實驗教學(xué)的幾點看法
        在學(xué)前教育階段,提前搶跑,只能跑得快一時,卻跑不快一生。
        莫愁(2019年36期)2019-11-13 20:26:16
        一種單目相機(jī)/三軸陀螺儀/里程計緊組合導(dǎo)航算法
        基于模板特征點提取的立體視覺里程計實現(xiàn)方法
        單周期控制下雙輸入Buck變換器閉環(huán)系統(tǒng)設(shè)計
        黑龍江電力(2017年1期)2017-05-17 04:25:05
        雙閉環(huán)模糊控制在石化廢水處理中的研究
        大角度斜置激光慣組與里程計組合導(dǎo)航方法
        大熱的O2O三個階段,你在哪?
        營銷界(2015年22期)2015-02-28 22:05:18
        最優(yōu)價格與回收努力激勵的閉環(huán)供應(yīng)鏈協(xié)調(diào)
        国产小视频在线看不卡| 欧洲精品免费一区二区三区| 幻女bbwxxxx在线视频| 日韩黑人欧美在线视频观看| 久久久久无码中文字幕| 亚洲天堂一二三四区在线| 国产亚洲av看码精品永久| 国产精品日本一区二区在线播放 | 亚洲视频免费一区二区| 国产中文三级全黄| 琪琪的色原网站| 国产啪精品视频网给免丝袜| 久久91精品国产91久| 精品久久一区二区av| 日本av在线一区二区| 无码国产精品一区二区免费模式| 激情五月天伊人久久| 色妞一区二区三区免费视频| 日本精品视频一区二区三区四区| 国产真实偷乱视频| 乱码一二区在线亚洲| 999久久久免费精品国产牛牛 | 西西大胆午夜人体视频| 囯产精品无码va一区二区| 亚洲国产人成自精在线尤物| 无码少妇丰满熟妇一区二区| 亚洲精品无码久久久影院相关影片 | 香港aa三级久久三级| 精品人体无码一区二区三区| 亚洲精品2区在线观看| 91偷拍与自偷拍亚洲精品86| 久久久噜噜噜久久中文福利| 欧美国产精品久久久乱码| 国产曰批免费视频播放免费s| 青青草国内视频在线观看| 亚洲高清在线免费视频| 国产精品免费精品自在线观看| 亚洲综合性色一区| 成人一区二区三区蜜桃| 男女啪啪视频高清视频| 亚洲国产精品综合久久网各|