亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        視覺SLAM技術的進展與應用

        2018-06-25 03:13:56邸凱昌萬文輝趙紅穎劉召芹王潤之張飛舟
        測繪學報 2018年6期
        關鍵詞:閉環(huán)定位特征

        邸凱昌,萬文輝,趙紅穎,劉召芹,王潤之,張飛舟

        1. 中國科學院遙感與數字地球研究所遙感科學國家重點實驗室,北京 100101; 2. 北京大學遙感與地理信息系統研究所,北京 100871

        同時定位與制圖(simultaneous localization and mapping,SLAM)是機器人在未知環(huán)境下自主作業(yè)的核心關鍵技術,是機器人自動化領域的研究重點[1]。未知環(huán)境下,基于機器人外部傳感器獲取的環(huán)境感知數據,SLAM為機器人構建周圍環(huán)境圖,同時提供機器人在環(huán)境圖中的位置,并隨著機器人的移動而進行環(huán)境圖的增量式構建與機器人的連續(xù)定位,是實現機器人環(huán)境感知與自動化作業(yè)的基礎。SLAM中一般采用距離傳感器作為環(huán)境感知的數據源[2]。相比雷達、聲吶等測距儀器,視覺傳感器具有體積小、功耗低、信息獲取豐富等特點,可為各型機器人提供豐富的外部環(huán)境紋理信息,因而基于視覺的SLAM成為當前研究的熱點[3]。由于相機獲取的視覺信息容易受到環(huán)境干擾,存在較大噪聲,視覺SLAM處理難度大、復雜度高。當前,獲取隨著計算機視覺技術的不斷發(fā)展,視覺SLAM的技術水平也隨之提高,并在室內自主導航、VR/AR等領域得到初步的應用[4-7]。

        1 視覺SLAM關鍵技術

        視覺SLAM以相機獲取的序列圖像數據為基礎,依據圖像信息結合成像模型恢復環(huán)境與相機間的關系,隨著相機運動遞增式地確定周圍環(huán)境圖,并輸出相機在環(huán)境圖中的位置。依照視覺SLAM的一般處理流程,可分為前端處理、后端處理及閉環(huán)檢測[8-9],如圖1。前端處理負責序列圖像數據同環(huán)境地標物的數據關聯與參數的初始化,目前主流的方式是通過序列圖像的特征提取與匹配,實現序列圖像上的同名特征點追蹤,進而將序列圖像上的同名觀測與環(huán)境地標點進行關聯,并初始化系統的狀態(tài)參數,是地圖遞增式構建與自主連續(xù)定位的必要前提。前端處理算法的適應性直接決定了視覺SLAM方法的穩(wěn)健性[10]。后端處理負責對觀測數據進行環(huán)境圖結果與定位參數的最優(yōu)估計,以獲取高精度的定位與制圖結果[11-12]。閉環(huán)檢測是SLAM系統中判別當前觀測到的環(huán)境地標是否已被觀測過的處理,是為消除長距離運動后的誤差累計而構建閉環(huán)約束的基礎[13-14]。以上三部分處理依次完成了視覺SLAM中的數據關聯、環(huán)境圖與定位參數估計及閉環(huán)優(yōu)化。下面就此展開論述。

        圖1 視覺SLAM方法基本流程Fig.1 The flowchart of general visual SLAM

        1.1 特征點提取與追蹤

        視覺SLAM中需要將圖像觀測信息同環(huán)境進行關聯,即確定序列圖像內容與真實環(huán)境的對應關系。當前視覺SLAM中,角點特征經常被用于序列圖像間的關聯。通過圖像間特征點的提取與追蹤,在多幀圖像間形成空間物方點與同名像方點的對應關系。由于序列圖像獲取時相機的位置和視角不同,加之環(huán)境光照的變化,同名點在序列圖像上的外觀必然改變,這就要求特征點表達能夠不受圖像幾何變化如旋轉、縮放、傾斜及光照亮度等變化的影響。早期,圖像特征點的提取基本以Harris[15]、F?rstner[16]等局部角點特征提取算子為主,特征追蹤則采用模板匹配[17-20]或是光流追蹤方法[21-22]。以上方法在相鄰圖像視角變化不大時頗為有效,若相機不規(guī)則運動導致視角變化劇烈,則難以獲得穩(wěn)健的追蹤結果,甚至導致追蹤失敗。隨著以SIFT為代表的圖像局部不變特征描述方法的興起,圖像特征點的提取與匹配也能適應一定程度的圖像形變及光照變化,提高了視覺SLAM在復雜環(huán)境中的適用性[23-25]。然而,SIFT算法較大的計算量限制了定位與制圖的效率,難以滿足實時性要求。為了提高處理效率,研究人員們陸續(xù)開發(fā)了SURF[26-27]、CensurE[28]、BRISK[29]、ORB[30-31]等算子。這些算子盡管性能有不同程度降低,但其效率卻得到了數倍至數十倍的提升[32-35],使得實時視覺SLAM成為現實[31]。

        1.2 環(huán)境圖與定位參數估計

        環(huán)境感知數據中存在一定的噪聲與誤差。為獲得高精度的結果,需要從帶有噪聲的數據中估計整個系統狀態(tài)及其不確定性。研究者們將概率論原理引入研究中,分析機器人所處環(huán)境與自身位置信息中的不確定性分布,以貝葉斯規(guī)則為基礎,構建系統狀態(tài)概率模型,結合機器人運動信息與環(huán)境觀測數據,實現環(huán)境信息與位姿參數的最優(yōu)估計[36-39]??柭鼮V波(KF)作為一種以最小均方根誤差為準則實現線性系統最優(yōu)估計的方法[40],被最早引入SLAM當中用于系統狀態(tài)的最優(yōu)估計[41-42]。由于SLAM系統的非線性特點,需要基于Extend KF(EKF)方法用泰勒級數展開方式實現系統的線性化近似[43]。早期的SLAM研究中,基于EKF的參數估計方法占據了主流[43-44]。然而,如果系統的非線性較強,可能造成線性化近似的誤差較大,導致EKF濾波性能的急劇降低。隨后,提出了一些改進的濾波方法如Unscented KF[46]、Cubature KF[47]、Central Difference KF[48]等,這些濾波方法可以獲得比EKF更好的逼近精度,但仍需進行線性化計算。粒子濾波基于蒙特卡洛方法,通過狀態(tài)空間傳播的隨機樣本用以近似表示概率密度函數[49],突破了高斯分布假設限制,在視覺SLAM中得到了成功的應用[50-51]。然而這類基于濾波的參數估計方法都是基于系統的馬爾可夫性假設,未能更好地利用全體觀測數據。近年來,圖優(yōu)化方法在SLAM研究中得到了廣泛的關注。圖優(yōu)化方法針對全體觀測數據進行估計,并在系統估計改變時重新進行線性化近似,減小了線性化誤差,可適應更多的非線性系統,因而成為當前主流的環(huán)境圖與定位參數估計方法[92-93]。由于圖優(yōu)化方法每次優(yōu)化均對所有狀態(tài)量重新進行估計,在大場景環(huán)境下過多的待估參數導致計算量過大?,F有研究中主要通過盡量減少優(yōu)化迭代的次數[54-56]以及分析狀態(tài)矩陣的稀疏性[57-59]來降低相應的計算量。

        1.3 閉環(huán)檢測

        視覺SLAM系統在缺少外部控制信息的約束時,系統不確定性逐漸增大,長時間運動后定位誤差累計較大。實際應用中,相機可能運動至之前經過的地方從而形成閉環(huán)約束,將該約束引入圖優(yōu)化中可獲得全局一致的定位結果,有效降低定位誤差[60]。因而,閉環(huán)檢測對于長時間遠距離運動的視覺SLAM有著重要意義。閉環(huán)檢測的實質是判斷當前圖像內容同較早的歷史圖像內容的對應關系。早期的閉環(huán)檢測主要是通過隨機抽取歷史圖像數據同當前圖像進行特征匹配,依據特征的正確匹配數量確定是否存在關聯。這類方法認為所有歷史數據均可能同當前圖像存在關聯,因而隨著歷史數據的增多,計算量顯著增大,檢測效率較低[61]。后續(xù)的研究通過對歷史數據存在關聯的可能性做初步的判斷進而提高檢測效率。其中,一類方法是依靠定位結果來判斷相機是否回到之前的位置,據此確定可能存在的閉環(huán)情況[62]。由于長時間下的定位結果誤差累計較大,該類方法實際效果不佳。另一類方法是基于圖像內容構建圖像描述詞袋模型(Bag of Words),通過圖像上出現的“單詞”組合形成描述整幅圖像的單詞向量,進而通過判斷圖像相似程度而確定可能的關聯關系[62-63]。由于此類方法判別準則是圖像中是否出現了的相應的特征,并不考慮特征的位置與順序,具備更強的環(huán)境適應性。

        2 視覺SLAM研究新趨勢

        目前視覺SLAM方法研究已取得較大的進步,在定位制圖精度與效率上可滿足部分簡單場景的應用需求。但視覺信息的獲取始終受環(huán)境紋理豐富度的影響,環(huán)境光照及不穩(wěn)定的運動模式更是加大了視覺信息的處理難度,視覺SLAM在復雜環(huán)境下的運行穩(wěn)健性仍待提高。當前,研究人員通過進一步挖掘圖像信息可用性,并融合其他類型傳感器數據,試圖實現更為穩(wěn)健的SLAM方法,提高復雜環(huán)境下的定位與制圖適應性。

        2.1 視覺多類別特征提取與追蹤

        在室內等復雜環(huán)境中,人工目標較多,圖像中具有更多的直線特征,僅依靠點特征提取方法不能完全利用圖像視覺信息。因而,研究人員嘗試進一步提煉圖像中的信息,提取圖像中多類別特征,通過多類特征集合的追蹤實現更為穩(wěn)健的定位與制圖。除點特征外,直線特征被較多地引入視覺SLAM中[66-69]。由于直線特征的方向約束性強,可有效改善相機在轉彎等劇烈運動導致相鄰圖像重疊區(qū)減少而帶來的誤差快速累計[70]。若考慮多直線形成的空間平面特征,將空間平面約束加入系統最優(yōu)估計,則可帶來更高的定位制圖精度[71]。由于新類別特征的加入,需要構建新的多特征追蹤及優(yōu)化模型,進而準確估計這些特征結果的不確定性。

        2.2 直接法SLAM

        視覺SLAM中的特征提取與追蹤算法復雜,計算耗時,且只能利用部分圖像信息,更多的紋理信息被丟棄。直接法SLAM是直接利用圖像本身的明暗變化信息,跳過特征提取與匹配步驟,以圖像間最小光度誤差為準則實現狀態(tài)參數的最優(yōu)估計,可充分利用圖像信息實現定位與制圖,在部分缺少明顯紋理的區(qū)域也能獲得較好的定位制圖結果[72]。不同于基于特征的視覺SLAM方法,直接法SLAM不僅可獲得稀疏地圖[73],也可獲得半稠密[74]和稠密地圖[75]。由于減少了特征提取與追蹤的過程,直接法具備較高的運行效率,可用于實時性較高且計算資源有限的場景。然而,直接法SLAM是基于圖像同名區(qū)域灰度不變的假設,受環(huán)境光照、相機曝光等因素影響,在圖像光度變化劇烈的場景中容易導致處理失敗,一定程度上限制了其應用范圍。

        2.3 多傳感器融合的SLAM

        視覺SLAM方法依靠相機獲取的環(huán)境紋理信息作為數據源,其處理效果直接受環(huán)境紋理條件影響,難以在紋理貧乏區(qū)域中可靠地工作。為了完成復雜環(huán)境下的穩(wěn)健定位與制圖,提升算法在實際應用中的性能,研究人員通過多類型的傳感器的集成,融合各類別傳感器數據,進而彌補各自數據缺陷以提高視覺SLAM的穩(wěn)健性與精度。IMU具備完全自主的測量特性,可穩(wěn)定獲得定位定姿數據,能有效彌補視覺SLAM在貧紋理區(qū)域的環(huán)境信息缺失,同時高精度的視覺定位定姿結果可有效改正IMU快速漂移,提升系統定位與制圖的精度[76],因而成為常見的用于同相機進行融合的傳感器[77-80]。激光測距儀同樣具備體積小、功耗低等優(yōu)點[81],同單相機集成進行SLAM能有效確定環(huán)境圖模型尺度,并修正連續(xù)定位中的尺度漂移,可形成便攜穿戴式的定位導航系統,滿足救護員、宇航員等人員的自主定位需要[82-84]。近年來,以Kinect為代表的深度相機以其具備直接獲取豐富的空間三維信息的能力而受到廣泛關注,該類傳感器基于結構光、光編碼或飛行時等測量原理,以主動方式測量空間三維信息,可直接獲得局部三維地圖,成像受環(huán)境條件影響小[85]。通過深度相機同可見光相機的集成形成RGB-D相機用于SLAM中,可同時獲得環(huán)境紋理與空間稠密幾何信息,進而處理得到稠密環(huán)境圖數據,且空間三維信息的引入提高了SLAM觀測數據質量,有效提升了SLAM的穩(wěn)健性與精度[86-89]。多類別傳感器的引入加強了環(huán)境感知數據的豐富度,但同時也意味著加入了新的誤差源,若要獲得最優(yōu)估計結果需要在分析各自數據源誤差特性基礎上構建多傳感器最優(yōu)估計模型,以實現多傳感器融合的SLAM。

        2.4 基于深度學習的視覺SLAM

        當前人工智能領域,深度學習以超越傳統機器學習方法的識別性能而在圖像目標識別分類、語音識別等方面得到了飛速的應用[90-92]。目前已有將深度學習引入視覺SLAM的相關研究,這些研究利用深度學習在深度神經網絡中學習到的高層次特征用于圖像幀間的位姿估計[93-95]與閉環(huán)檢測[96-98]。在位姿估計方面,通過引入端對端的深度學習方法,使得視覺圖像幀間的位姿參數解算無須特征匹配與復雜的幾何運算,可直接輸入相鄰幀圖像快速得到幀間相對位姿參數。閉環(huán)檢測方面,利用深度學習的強大識別能力,提取圖像更高層次的穩(wěn)健特征,使得系統能對視角、光照等圖像變化具備更強的適應能力,提高閉環(huán)圖像識別能力。當前,深度學習在提升視覺SLAM算法的穩(wěn)健性方面展現了巨大的潛力,一定程度可改善傳統方法中人工特征設計帶來的應用局限性。但是,深度學習需要數量巨大的訓練樣本庫,且工作場景需同樣本庫接近,否則性能下降明顯。這些問題使得基于深度學習的視覺SLAM的總體表現還未能超越傳統方法。未來隨著深度學習理論與方法的不斷發(fā)展,深度學習必將在視覺SLAM中發(fā)揮更為重要的作用。

        3 視覺SLAM典型應用

        當前,隨著衛(wèi)星定位導航技術的普及與應用,相應的定位導航服務可通過導航衛(wèi)星接收機而獲得。然而,在太空、地下、室內等無導航衛(wèi)星信號的環(huán)境中,機器人的定位導航與環(huán)境感知面臨更大挑戰(zhàn)。視覺SLAM作為一種自主定位與環(huán)境感知的重要手段,可為機器人的自主作業(yè)提供基礎數據。本節(jié)針對視覺SLAM在深空探測、室內定位導航及大場景下的自主導航現狀進行總結和討論。

        3.1 深空探測

        20世紀50年代末,隨著以美國和前蘇聯為代表的航天大國開啟了與深空探測的征程,先后發(fā)射了大量的探測器用于對各類天體的探測。到目前為止,人類已向月球與火星發(fā)射了月球車與火星車用于著陸巡視探測。由于行星表明環(huán)境復雜,與地球迥然不同,這些探測車需要一定程度的自動化與智能化,以面對惡劣作業(yè)環(huán)境的挑戰(zhàn)。早期的探測車技術尚不成熟,只能小范圍內執(zhí)行簡單的觀測任務。隨著探測范圍的擴大與任務復雜度的提升,要求探測車具備較強的自主定位與環(huán)境感知能力,以滿足安全避障、任務規(guī)劃的需要。2003年發(fā)射的美國 “機遇號”與“勇氣號”火星探測車,以及2011年發(fā)射的“好奇號”火星車均配備了雙目立體導航相機,通過序列圖像視覺測程方法修正了航跡推算方法的定位誤差,并為探測車提供了安全避障與路徑規(guī)劃所需的基礎地圖結果,在探測車穿越崎嶇困難區(qū)域時提供了高精度定位與制圖結果,為火星車探測任務的執(zhí)行提供了不可替代的重要作用[99-102]。我國于2013年發(fā)射的“嫦娥三號”著陸器攜帶 “月兔號”月球車實現了在月面的著陸巡視探測。著陸過程中著陸器上降落相機獲取的序列圖像被用于著陸點位置評估[103]及著陸軌跡的恢復[104],所生成著陸區(qū)的高精度地圖[105],成為嫦娥三號任務規(guī)劃的重要基礎數據?!霸峦锰枴蓖瑯优渲昧艘粚τ糜诃h(huán)境感知的立體導航相機,通過站點間立體圖像的匹配實現了月球車在探測站點上的高精度視覺定位(如圖2),修正了GNC系統航跡推算定位結果誤差,將定位精度由7%提升至4%[105-106],如圖3。由于深空探測任務壽命有限,探測車幾乎不會回到已行駛的路線上,因而難以構成閉環(huán)約束修正累計誤差,未來隨著探測任務要求的不斷提高,須融入其他觀測信息,提升定位制圖處理的穩(wěn)健性與精度,以滿足新一代自動化與智能化探測的需要。

        圖2 玉兔號導航相機站間圖像匹配Fig.2 Matching results in cross-site navcam images of Yutu Rover

        3.2 室內定位導航

        目前的室內定位主要是通過在室內中布設WiFi或藍牙基站,依據接收機接收的多基站無線信號的強度分布來估計當前的室內位置[107-108]。由于室內環(huán)境十分復雜,存在較多干擾無線信號的因素,使得基于無線信號的室內定位結果精度不夠準確,容易出現樓層定位錯誤等問題,難以滿足高精度的室內定位需要。相比無線信號,室內視覺圖像信息豐富、直觀,在無線信號無法覆蓋區(qū)域視覺SLAM能夠進行自主定位導航,不受外部基站布設的限制,具備更強的環(huán)境適用性。盡管已有不少室內視覺定位的相關研究,但目前實際應用于室內定位的視覺SLAM系統還比較少。2014年Google發(fā)布的Tango是首款面向普通用戶的、用于未知室內環(huán)境感知的產品。Tango通過集成RGB-D相機與IMU,在實現定位的同時完成對未知環(huán)境的稠密三維重建[109],可用于室內的導航定位及VR、AR等應用[110-112]。隨后微軟發(fā)布的HoloLens混合顯示頭盔采用類似的技術路線,同時加入手勢識別與語音識別,實現人與周圍環(huán)境的全方位交互[113-114]。盡管視覺定位具備滿足室內高精度定位需求的潛力,但當前的視覺定位技術還難以完全應對室內環(huán)境的高動態(tài)性與復雜性,同時要實現高精度的長距離室內定位還需借助高精度室內地圖進行定位校正,以至目前還沒有相應成熟的應用。未來,隨著視覺圖像處理水平的提高,視覺SLAM技術必將在室內定位領域發(fā)揮越來越重要的作用。

        圖3 玉兔號月球車視覺定位軌跡 Fig.3 Traverse of Yutu Rover based on visual localization

        3.3 大場景下的自主導航

        近來十分熱門的無人機以其機動性好、生存能力強、可遠距離操作等特點而在電力巡查、地質勘探、森林防火等領域迅速得到應用。這些無人機在GPS、北斗等衛(wèi)星導航信號支持下以預設任務航線進行作業(yè),實現了遠距離大場景下的高效作業(yè)。然而,面對復雜的未知場景,這些無人機大部分尚不具備成熟的自主避障與路徑規(guī)劃能力,只能依靠操作員的人工控制完成飛行任務,自動化與智能化程度還不高。大疆創(chuàng)新將雙目視覺傳感器引入“精靈”系列無人機,利用視覺SLAM的環(huán)境圖結果,實現了無人機的空中避障與路徑自主規(guī)劃,提升了無人機在復雜環(huán)境下的生存與自主作業(yè)能力[115]。當前,隨著衛(wèi)星導航信號干擾與誘騙技術的出現,軍事飛行器如軍用無人機、導彈等要求具備完全自主定位導航能力,以擺脫對衛(wèi)星導航信號的依賴[116-117]。視覺SLAM技術的迅速發(fā)展為飛行器在大場景下的自主導航提供了新的技術支撐,然而,飛行器的快速運動給視覺圖像帶來了不同程度的質量退化,也對定位算法的實時性與穩(wěn)健性提出了更高的要求。

        4 結 論

        當前,隨著計算機視覺、數字圖像處理、人工智能等技術的進步,視覺SLAM的研究和應用得到迅速發(fā)展。然而,視覺SLAM始終受環(huán)境紋理與光照條件的影響,復雜環(huán)境下的定位與制圖的穩(wěn)健性仍是挑戰(zhàn)。目前的研究中,一方面充分利用圖像信息,盡可能多的提取圖像特征;另一方面通過融合深度相機、IMU等其他類別傳感器,滿足視覺SLAM在困難條件下的穩(wěn)健定位制圖需要。盡管目前的視覺SLAM算法在復雜場景下處理的穩(wěn)健性還有待提高,但已經展露了巨大的潛力,未來隨著技術水平的提升,必將在機器人自動化、智能化領域發(fā)揮重要的作用。

        參考文獻:

        [1] 盧韶芳,劉大維.自主式移動機器人導航研究現狀及其相關技術[J].農業(yè)機械學報,2002,33(2):112-116.

        LU Shaofang,LIU Dawei.A Survey of Research Situation on Navigation by Autonomous Mobile Robot and Its Related Techniques[J].Transactions of the Chinese Society for Agricultural Machinery,2002,33(2):112-116.

        [2] ALBRECHT S.An Analysis of Visual Mono-SLAM[D].Canada:Universit?t Osnabrück,2009:1-4.

        [3] FUENTES-PACHECO J,RUIZ-ASCENCIO J,RENDN-MANCHA J M.Visual Simultaneous Localization and Mapping:A Survey[J].Artificial Intelligence Review,2015,43(1):55-81.

        [4] IDO J,SHIMIZU Y,MATSUMOTO Y,et al.Indoor Navigation for a Humanoid Robot Using a View Sequence[J].The International Journal of Robotics Research,2009,28(2):315-325.

        [5] ?ELIK K,SOMANI A K.Monocular Vision SLAM for Indoor Aerial Vehicles[J].Journal of Electrical and Computer Engineering,2013,2013:374165.

        [6] COMPORT A I,MARCHAND E,PRESSIGOUT M.Real-time Markerless Tracking for Augmented Reality:The Virtual Visual Servoing Framework[J].IEEE Transactions on Visualization and Computer Graphics,2006,12(4):615-628.

        [7] CHEKHLOV D,GEE A P,CALWAY a,et al.Ninja on a Plane:Automatic Discovery of Physical Planes for Augmented Reality Using Visual SLAM[C]∥Proceedings of the 6th IEEE and ACM International Symposium on Mixed and Augmented Reality.Nara,Japan:IEEE,2007:13-16.

        [8] CADENA C,CARLONE L,CARRILLO H,et al.Past,Present,and Future of Simultaneous Localization and Mapping:Toward the Robust-perception Age[J].IEEE Transactions on Robotics,2016,32(6):1309-1332.

        [9] 高翔,張濤,劉毅,等.視覺SLAM十四講——從理論到實踐[M].北京:電子工業(yè)出版社,2017:17-22.

        GAO Xiang,ZHANG Tao,LIU Yi,et al.Visual SLAM Fourteen Lectures—From Theory to Practice[M].Bejing:China Machine Press,2017:17-22.

        [10] KARLSSON N,DI BERNARDO E,OSTROWSKI J,et al.The vSLAM Algorithm for Robust Localization and Mapping[C]∥Proceedings of 2005 IEEE International Conference on Robotics and Automation.Barcelona,Spain:IEEE,2005.

        [11] SüNDERHAUF N,PROTZEL P.Towards A Robust Back-end for Pose Graph SLAM[C]∥Proceedings of 2012 IEEE International Conference on Robotics and Automation.Saint Paul,MN:IEEE,2012.

        [12] HU G,KHOSOUSSI K,HUANG Shoudong.Towards a Reliable SLAM Back-end[C]∥Proceedings of 2013 IEEE/RSJ International Conference on Intelligent Robots and Systems.Tokyo,Japan:IEEE,2013.

        [13] NEWMAN P,HO K.SLAM-loop Closing with Visually Salient Features[C]∥Proceedings of 2005 IEEE International Conference on Robotics and Automation.Barcelona,Spain:IEEE,2005.

        [14] HO K L,NEWMAN P.Loop Closure Detection in SLAM by Combining Visual and Spatial Appearance[J].Robotics and Autonomous Systems,2006,54(9):740-749.

        [15] HARRIS C,STEPHENS M.A Combined Corner and Edge Detector[C]∥Proceedings of the 4th Alvey Vision Conference.Manchester,UK:Alvety Vision Club,1988.

        [16] F?RSTNER W,GüLCH E.A Fast Operator for Detection and Precise Location of Distinct Points,Corners and Centers of Circular Features[C]∥Proceedings of the ISPRS Intercommission Conference on Fast Processing of Photogrammetric Data.Interlaken,Switzerland:ISPRS,1987.

        [17] OLSON C F,MATTHIES L H,SCHOPPERS M,et al.Rover Navigation using Stereo Ego-motion[J].Robotics and Autonomous Systems,2003,43(4):215-229.

        [18] NISTéR D,NARODITSKY O,BERGEN J.Visual Odometry for Ground Vehicle Applications[J].Journal of Field Robotics,2006,23(1):3-20.

        [19] KIM J,KWEON I S.Robust Feature Matching for Loop Closing and Localization[C]∥Proceedings of IEEE/RSJ International Conference on Intelligent Robots and Systems.San Diego,CA:IEEE,2007.

        [20] AGRAWAL M,KONOLIGE K.Real-time Localization in Outdoor Environments using Stereo Vision and Inexpensive GPS[C]∥Proceedings of the 18th International Conference on Pattern Recognition.Hong Kong,China:IEEE,2006.

        [21] SHI Jianbo,TOMASI C.Good Features to Track[C]∥Proceedings of IEEE Conference on Computer Vision and Pattern Recognition.Seattle,WA:IEEE,1994.

        [22] HERATH D C,KODAGODA S,DISSANAYAKE G.Simultaneous Localisation and Mapping:A Stereo Vision Based Approach[C]∥Proceedings of IEEE/RSJ International Conference on Intelligent Robots and Systems.Beijing,China:IEEE,2006.

        [23] LOWE D G.Object Recognition from Local Scale-Invariant Features[C]∥Proceedings of the 7th IEEE International Conference on Computer Vision.Kerkyra,Greece:IEEE,1999.1150-1157.

        [24] LOWE D G.Distinctive Image Features from Scale-invariant Keypoints[J].International Journal of Computer Vision,2004,60(2):91-110.

        [25] MOREL J M,YU Guoshen.Is SIFT Scale Invariant?[J].Inverse Problems and Imaging,2011,5(1):1-22.

        [26] BAY H,TUYTELAARS T,GOOL V L.SURF:Speeded Up Robust Features[C]∥Proceedings of the 9th European Conference on Compute Vision.Graz,Austria:Springer,2006:404-417.

        [27] BAY H,ESS A,TUYTELAARS T,et al.Speeded-Up Robust Features (SURF)[J].Computer Vision and Image Understanding,2008,110(3):346-359.

        [28] AGRAWAL M,KONOLIGE K,BLAS M R.CenSurE:Center Surround Extremas for Realtime Feature Detection and Matching[C]∥Proceedings of European Conference on Computer Vision.Marseille,France:INRIA Grenoble,2008:102-115.

        [29] LEUTENEGGER S,CHLI M,SIEGWART R Y.BRISK:Binary Robust Invariant Scalable Keypoints[C]∥Proceedings of IEEE International Conference on Computer Vision.Barcelona,Spain:IEEE,2011.

        [30] RUBLEE E,RABAUD V,KONOLIGE K,et al.ORB:An Efficient Alternative to SIFT or SURF[C]∥Proceedings of IEEE International Conference on Computer Vision.Barcelona,Spain:IEEE,2011.

        [31] MUR-ARTAL R,MONTIEL J M M,TARDS J D.ORB-SLAM:A Versatile and Accurate Monocular SLAM System[J].IEEE Transactions on Robotics,2015,31(5):1147-1163.

        [32] GIL A,MOZOS O M,BALLESTA M,et al.A Comparative Evaluation of Interest Point Detectors and Local Descriptors for Visual SLAM[J].Machine Vision and Applications,2010,21(6):905-920.

        [33] HARTMANN J,KLUSSENDORFF J H,MAEHLE E.A Comparison of Feature Descriptors for Visual SLAM[C]∥Proceedings of 2013 European Conference on Mobile Robots.Barcelona,Spain:IEEE,2013.

        [34] GAUGLITZ S,H?LLERER T,TURK M.Evaluation of Interest Point Detectors and Feature Descriptors for Visual Tracking[J].International Journal of Computer Vision,2011,94(3):335-360.

        [35] MIKSIK O,MIKOLAJCZYK K.Evaluation of Local Detectors and Descriptors for Fast Feature Matching[C]∥Proceedings of the 21st International Conference on Pattern Recognition.Tsukuba,Japan:IEEE,2012.

        [36] SMITH R C,CHEESEMAN P.On the Representation of Spatial Uncertainty[J].International Journal of Robotics Research,1986,5(4):56-68.

        [37] SMITH R,SELF M,CHEESEMAN P.Estimating Uncertain Spatial Relationships in Robotics[M]∥COX I J,WILFONG G T.Autonomous Robot Vehicles.New York:Springer,1990: 167-198.

        [38] THRUN S,BURGARD W,FOX D.Probabilistic Robotics[M].Massachusetts:MIT Press,2005:1-5.

        [39] AULINAS J,PETILLOT Y R,SALVI J,et al.The SLAM Problem:A Survey[C]∥ Proceedings of the 2008 conference on Artificial Intelligence Research and Development:Proceedings of the 11th International Conference of the Catalan Association for Artificial Intelligence.Amsterdam,The Netherlands:IOS Press,2008.

        [40] KALMAN R E.A New Approach to Linear Filtering and Prediction Problems[J].Journal of Basic Engineering,1960,82(1):35-45.DOI:10.1115/1.3662552.

        [41] CHATILA R,LAUMOND J.Position Referencing and Consistent World Modeling for Mobile Robots[C]∥Proceedings of IEEE International Conference on Robotics and Automation.St.Louis,MO:IEEE,1985.

        [42] CROWLEY J L.World Modeling and Position Estimation for A Mobile Robot using Ultrasonic Ranging[C]∥Proceedings of IEEE International Conference on Robotics and Automation.Scottsdale,AZ:IEEE,1989.

        [43] KALMAN R E,BUCY R S.New Results in Linear Filtering and Prediction Theory[J].Journal of Basic Engineering,1961,83(1):95-108.

        [44] DURRANT-WHYTE H,BAILEY T.Simultaneous Localization and Mapping:Part I[J].IEEE Robotics & Automation Magazine,2006,13(2):99-110.

        [45] THRUN S,BURGARD W,FOX D.A Probabilistic Approach to Concurrent Mapping and Localization for Mobile Robots[J].Machine Learning,1998,31(1-3):29-53.

        [46] WAN E A,VAN DER MERWE R.The Unscented Kalman Filter for Nonlinear Estimation[C]∥Proceedings of IEEE Adaptive Systems for Signal Processing,Communications,and Control Symposium 2000,Lake Louise,Alberta,Canada:IEEE,2000.

        [47] ARASARATNAM I,HAYKIN S.Cubature Kalman Filters[J].IEEE Transactions on Automatic Control,2009,54(6):1254-1269.

        [48] ITO K,XIONG K.Gaussian Filters for Nonlinear Filtering Problems[J].IEEE Transactions on Automatic Control,2000,45(5):910-927.

        [49] DOUCET A,GODSILL S,ANDRIEU C.On Sequential Monte Carlo Sampling Methods for Bayesian Filtering[J].Statistics and Computing,2000,10(3):197-208.

        [50] MONTEMERLO M,THRUN S,KOLLER D,et al.FastSLAM:A Factored Solution to the Simultaneous Localization and Mapping Problem[C]∥Proceedings of AAAI National Conference on Artificial Intelligence.Edmonton,Canada:AAAI,2002:593-598.

        [51] MONTEMERLO M,THRUN S,ROLLER D,et al.FastSLAM 2.0:An improved Particle Filtering Algorithm for Simultaneous Localization and Mapping that Provably Converges[C]∥Proceedings of the 18th International Joint Conference on Artificial Intelligence.Acapulco,Mexico:Morgan Kaufmann Publishers Inc.,2003:1151-1156.

        [52] LU F,MILIOS E.Globally Consistent Range Scan Alignment for Environment Mapping[J].Autonomous Robots,1997,4(4):333-349.

        [53] GUTMANN J S,KONOLIGE K.Incremental Mapping of Large Cyclic Environments[C] ∥Proceedings of IEEE International Symposium on Computational Intelligence in Robotics and Automation.Monterey,CA:IEEE,1999.

        [54] FRESE U,LARSSON P,DUCKETT T.A Multilevel Relaxation Algorithm for Simultaneous Localization and Mapping[J].IEEE Transactions on Robotics,2005,21(2):196-207.

        [55] OLSON E,LEONARD J,TELLER S.Fast Iterative Alignment of Pose Graphs with Poor Initial Estimates[C]∥Proceedings of IEEE International Conference on Robotics and Automation.Orlando,FL:IEEE,2006.

        [56] 趙亮.MonoSLAM:參數化、光束法平差與子圖融合模型理論[D].北京:北京大學,2012.

        ZHAO Liang.MonoSLAM:Theories of Parameterization,Bundle Adjustment and Subgraph Fusion[D].Beijing:Peking University,2012.

        [57] DELLAERT F,KAESS M.Square Root SAM:Simultaneous Localization and Mapping via Square Root Information Smoothing[J].International Journal of Robotics Research,2006,25(12):1181-1203.

        [58] KAESS M,RANGANATHAN A,DELLAERT F.iSAM:Fast Incremental Smoothing and Mapping with Efficient Data Association[C]∥Proceedings of IEEE International Conference on Robotics and Automation.Roma,Italy:IEEE,2007.

        [59] KAESS M,JOHANNSSON H,ROBERTS R,et al.iSAM2:Incremental Smoothing and Mapping Using the Bayes Tree[J].International Journal of Robotics Research,2012,31(2):216-235.

        [60] BAILEY T,DURRANT-WHYTE H.Simultaneous Localization and Mapping:Part II[J].IEEE Robotics & Automation Magazine,2006,13(3):108-117.

        [61] RUBNER Y,TOMASI C,GUIBAS L J.A Metric for Distributions with Applications to Image Databases[C]∥Proceedings of IEEE International Conference on Computer Vision.Bombay,India:IEEE,1998.

        [62] BOSSE M,NEWMAN P,LEONARD S J J,et al.SLAM in Large-scale Cyclic Environments Using the Atlas Framework[J].International Journal of Robotics Research,2004,23:1113-1139.

        [63] EADE E,DRUMMOND T.Unified Loop Closing and Recovery for Real Time Monocular SLAM[C]∥Proceedings of the British Conference on Machine Vision.Leeds:BMVA Press,2008.

        [64] ANGELI A,DONCIEUX S,MEYER J A,et al.Real-time Visual Loop-closure Detection[C]∥Proceedings of IEEE International Conference on Robotics and Automation.Pasadena,CA:IEEE,2008.4300-4305.

        [65] SMITH P,REID I D,DAVISON A J.Real-time Monocular SLAM with Straight Lines[C]∥Proceedings of British Conference on Machine Vision.Edinburgh,UK:BMVA Press,2006:17-26.

        [66] LEMAIRE T,LACROIX S.Monocular-vision based SLAM Using Line Segments[C]∥Proceedings of IEEE Robotics and Automation.Roma,Italy:IEEE,2007.

        [68] PERDICES E,LPEZ L M,CAAS J M.LineSLAM:Visual Real Time Localization Using Lines and UKF[M]∥ARMADA A,SANFELIU A,FERRE M.ROBOT2013:First Iberian Robotics Conference.Cham:Springer,2014.

        [69] ZHOU Huazhong,ZOU Danping,PEI Ling,et al.Struct SLAM:Visual SLAM With Building Structure Lines[J].IEEE Transactions on Vehicular Technology,2015,64(4):1364-1375.

        [70] PUMAROLA A,VAKHITOV A,AGUDO A,et al.PL-SLAM:Real-time Monocular Visual SLAM with Points and Lines[C]∥Proceedings of IEEE International Conference on Robotics and Automation.Singapore:IEEE,2017.

        [71] 李海豐,胡遵河,陳新偉.PLP-SLAM:基于點、線、面特征融合的視覺SLAM方法[J].機器人,2017,39(2):214-220,229.

        LI Haifeng,HU Zunhe,CHEN Xinwei.PLP-SLAM:A Visual SLAM Method Based on Point-line-plane Feature Fusion[J].Robot,2017,39(2):214-220,229.

        [72] SILVERIA G,MALIS E,RIVES P.An Efficient Direct Approach to Visual SLAM[J].IEEE Transactions on Robotics,2008,24(5):969-979.

        [73] ENGEL J,KOLTUN V,CREMERS D.Direct Sparse Odometry[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2018,40(3):611-625.

        [74] FORSTER C,PIZZOLI M,SCARAMUZZA D.SVO:Fast Semi-direct Monocular Visual Odometry[C]∥Proceedings of IEEE International Conference on Robotics and Automation.Hong Kong,China:IEEE,2014.

        [75] ENGEL J,SCH?PS T,CREMERS D.LSD-SLAM:Large-scale Direct Monocular SLAM[C]∥Proceedings of the 13th European Conference on Computer Vision.Zurich,Switzerland:Springer,2014:834-849.

        [76] CORKE P,LOBO J,DIAS J.An Introduction to Inertial and Visual Sensing[J].International Journal of Robotics Research,2007,26(6):519-535.

        [77] LI Mingyang,MOURIKIS A I.High-precision,Consistent EKF-based Visual-inertial Odometry[J].International Journal of Robotics Research,2013,33(6):690-711.

        [78] LEUTENEGGER S,LYNEN S,BOSSE M,et al.Keyframe-based Visual-inertial Odometry Using Nonlinear Optimization[J].International Journal of Robotics Research,2014,34(3):314-334.

        [79] MU Xufu,CHEN Jing,ZHOU Zixiang,et al.Accurate Initial State Estimation in a Monocular Visual-inertial SLAM System[J].Sensor,2018,18(2):506.

        [80] 萬文輝.基于立體視覺的深空探測車自主定位理論與方法研究[D].北京:中國科學院研究生院,2012.

        WAN Wenhui.Theory and Methods of Stereo Vision Based Autonomous Rover Localization in Deep Space Exploration[D].Beijng:Graduate School of Chinese Academy of Sciences,2012.

        [81] 吳凱.集成激光測距儀的月面宇航員視覺導航[D].北京:中國科學院大學,2013.

        WU Kai.Monocular Vision Integrated with Laser Distance Meter for Astronaut Navigation on Lunar Surface[D].Beijng:University of Chinese Academy of Sciences,2013.

        [82] WU Kai,DI Kaichang,SUN Xun,et al.Enhanced Monocular Visual Odometry Integrated with Laser Distance Meter for Astronaut Navigation[J].Sensors,14(3):4981-5003.

        [83] ZHANG Xinzheng,RAD A B,WONG Y K.Sensor Fusion of Monocular Cameras and Laser Rangefinders for Line-based Simultaneous Localization and Mapping (SLAM) Tasks in Autonomous Mobile Robots[J].Sensors,2012,12(1):429-452.

        [84] 邸凱昌.登月宇航員導航定位需求分析及技術方案探討[C]∥中國工程院工程科技論壇(第107場):載人登月與深空探測論文集.北京,2010:213-218.

        DI Kaichang.Remand Analysis and Technical Proposal Discussion about Navigation for Lunar Astronauts[C]∥Proceedings of Engineering Science and Technology Forum (107th) of Chinese Academy of Engineering:Manned Lunar Landing and Deep Space Exploration.Beijing:Chinese Accdemy of Engineering 2010:213-218.

        [85] KHOSHELHAM K,ELBERINK S O.Accuracy and Resolution of Kinect Depth Data for Indoor Mapping Applications[J].Sensors,2012,12(2):1437-1454.

        [86] STURM J,ENGELHARD N,ENDRES F,et al.A Benchmark for the Evaluation of RGB-D SLAM Systems[C]∥Proceedings of IEEE/RSJ International Conference on Intelligent Robots and Systems.Vilamoura,Portugal:IEEE,2012.

        [87] KERL C,STURM J,CREMERS D.Dense Visual SLAM for RGB-D Cameras[C]∥Proceedings of IEEE/RSJ International Conference on Intelligent Robots and Systems.Tokyo,Japan:IEEE,2013.

        [88] WHELAN T,KAESS M,JOHANNSSON H,et al.Real-time Large-scale Dense RGB-D SLAM with Volumetric Fusion[J].International Journal of Robotics Research,2015,34(4-5):598-626.

        [89] DI Kaichang,ZHAO Qiang,WAN Wenhui,et al.RGB-D SLAM based on Extended Bundle Adjustment with 2D and 3D Information[J].Sensors,2016,16(8):1285.

        [90] ZHU X X,TUIA D,MOU L C,et al.Deep Learning in Remote Sensing:A Comprehensive Review and List of Resources[J].IEEE Transactions on Geoscience and Remote Sensing,2017,5(4):8-36.

        [91] ZHANG Zixing,GEIGER J,POHJALAINEN J,et al.Deep Learning for Environmentally Robust Speech Recognition:An Overview of Recent Developments[J].ACM Transactions on Intelligent Systems and Technology,2018,9(5):Article No.49.

        [92] GARCIA-GARCIA A,ORTS-ESCOLANO S,OPERA S,et al.A Review on Deep Learning Techniques Applied to Semantic Segmentation[J].arXiv preprint arXiv:1704.06857,2017.

        [93] KONDA K,MEMISEVIC R.Learning Visual Odometry with a Convolutional Network[C]∥Proceedings of the 10th International Conference on Computer Vision Theory and Applications.Berlin,Germany:SCITCC Press,2015:486-490.

        [94] DOSOVITSKIY A,FISCHER P,ILG E,et al.FlowNet:Learning Optical Flow with Convolutional Networks[C]∥Proceedings of 2015 IEEE International Conference on Computer Vision.Santiago,Chile:IEEE,2015:2758-2766.

        [95] COSTANTE G,MANCINI M,VALIGI P,et al.Exploring Representation Learning with CNNs for Frame-to-frame Ego-motion Estimation[J].IEEE Robotics and Automation Letters,2016,1(1):18-25.

        [96] BAI Dongdong,WANG Chaoqun,ZHANG Bo,et al.Matching-range-constrained Real-time Loop Closure Detection with CNNs Features[J].Robotics and Biomimetics,2016,3:15.

        [97] ZHANG X W,SU Y,ZHU X H.Loop Closure Detection for Visual SLAM Systems Using Convolutional Neural Network[C]∥Proceedings of IEEE International Conference on Automation and Computing.Huddersfield,UK:IEEE,2017.

        [98] GAO Xiang,ZHANG Tao.Unsupervised Learning to Detect Loops Using Deep Neural Networks for Visual SLAM System[J].Autonomous Robots,2017,41(1):1-18.

        [99] LI Rongxing,SQUYRES S W,ARVIDON R E,et al.Initial Results of Rover Localization and Topographic Mapping for the 2003 Mars Exploration Rover Mission[J].Photogrammetric Engineering & Remote Sensing,2005,71(10):1129-1142.

        [100] DI Kaichang,XU Fengliang,WANG Jue,et al.Photogrammetric Processing of Rover Imagery of the 2003 Mars Exploration Rover Mission[J].ISPRS Journal of Photogrammetry and Remote Sensing,2008,63(2):181-201

        [101] MARTIN-MUR T J,KRUIZINGA G L,BUKHART P D,et al.Mars Science Laboratory Navigation Results[C]∥Proceedings of International Symposium on Space Flight Dynamics.Washington D.C.:NASA,2012.

        [102] CHENG Yang,MAIMONE M W,MATTHIES L.Visual Odometry on the Mars Exploration Rovers—A Tool to Ensure Accurate Driving and Science Imaging[J].IEEE Robotics & Automation Magazine,2006,13(2):54-62.

        [103] 萬文輝,劉召芹,劉一良,等.基于降落圖像匹配的嫦娥三號著陸點位置評估[J].航天器工程,2014,23(4):5-12.

        WAN Wenhui,LIU Zhaoqin,LIU Yiliang,et al.Descent Image Matching based Position Evaluation for Chang’e-3 Landing Point[J].Spacecraft Engineering,2014,23(4):5-12.

        [104] 劉斌,徐斌,劉召芹,等.基于降落相機圖像的嫦娥三號著陸軌跡恢復[J].遙感學報,2014,18(5):988-994.

        LIU Bin,XU Bin,LIU Zhaoqin,et al.Descending and Landing Trajectory Recovery of Chang’e-3 Lander using Descent Images[J].Journal of Remote Sensing,2014,18(5):988-994.

        [105] LIU Zhaoqin,DI Kaichang,PENG Man,et al.High Precision Landing Site Mapping and Rover Localization for Chang’e-3 Mission[J].Science China-Physics Mechanics & Astronomy,2015,58(1):1-11.

        [106] WAN W H,LIU Z Q,DI K C,et al.A Cross-Site Visual Localization Method for Yutu Rover[C]∥Proceedings of ISPRS Technical Commission IV Symposium.Suzhou,China:ISPRS,2014.

        [107] HUANG Haosheng,GARTNER G.A Survey of Mobile Indoor Navigation Systems[M]∥GARTNER G,ORTAG F.Cartography for Central and Eastern European.Berlin,Heidelberg:Springer,2009.

        [108] FALLAH N,APOSTOLOPOULOS I,BEKRIS K,et al.Indoor Human Navigation Systems:A Survey[J].Interacting with Computers,2013,25(1):21-33.

        [109] FROEHLICH M,AZHAR S,VANTURE M.An Investigation of Google Tango? Tablet for Low Cost 3D scanning[C]∥Proceedings of 34th International Symposium on Automation and Robotics in Construction.Hawaii:ICACR,2017.

        [110] NGUYEN K A,LUO Zhiyuan.On Assessing the Positioning Accuracy of Google Tango in Challenging Indoor Environments[C]∥Proceedings of International Conference on Indoor Positioning and Indoor Navigation.Sapporo,Japan:IEEE,2017.

        [111] WINTERHALTER W,FLECKENSTEIN F,STEDER B,et al.Accurate Indoor Localization for RGB-D Smartphones and Tablets Given 2D Floor Plans[C]∥Proceedings of IEEE/RSJ International Conference on Intelligent Robots and Systems.Hambury,Germany:IEEE,2015.

        [112] LEE J.Mobile AR in Your Pocket with Google Tango[J].Society for Information Display International Symposium Digest of Technical Papers,2017,48(1):17-18.

        [113] GARON M,BOULET P O,DOIRONZ J P,et al.Real-Time High Resolution 3D Data on the HoloLens[C]∥Proceedings of IEEE International Symposium on Mixed and Augmented Reality.Merida,Mexico:IEEE,2016.

        [114] EVANS G,MILLER J,PENA M I,et al.Evaluating the Microsoft HoloLens through an Augmented Reality Assembly Application[C]∥Proceedings of SPIE,Volume 10197,Degraded Environments:Sensing,Processing,and Display 2017.Anaheim,CA:SPIE,2017.

        [115] ZHOU Guyue,FANG Lu,TANG Ketan,et al.Guidance:A Visual Sensing Platform for Robotic Applications[C]∥Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.Boston,MA:IEEE,2015:9-14.

        [116] MEJIAS L,CORREA J F,MONDRAGON I,et al.COLIBRI:A Vision-Guided UAV for Surveillance and Visual Inspection[C]∥Proceedings of IEEE International Conference on Robotics and Automation.Roma,Italy:IEEE,2015.

        猜你喜歡
        閉環(huán)定位特征
        《導航定位與授時》征稿簡則
        Smartrail4.0定位和控制
        如何表達“特征”
        不忠誠的四個特征
        當代陜西(2019年10期)2019-06-03 10:12:04
        找準定位 砥礪前行
        抓住特征巧觀察
        單周期控制下雙輸入Buck變換器閉環(huán)系統設計
        黑龍江電力(2017年1期)2017-05-17 04:25:05
        雙閉環(huán)模糊控制在石化廢水處理中的研究
        青年擇業(yè)要有準確定位
        學習月刊(2015年1期)2015-07-11 01:51:12
        最優(yōu)價格與回收努力激勵的閉環(huán)供應鏈協調
        老妇肥熟凸凹丰满刺激| 中文字幕亚洲乱码熟女1区| 无码人妻一区二区三区在线| 国产精品久久久久久影视| 91久久久久无码精品露脸| 日韩精品国产一区二区| 男女主共患难日久生情的古言| 免费va国产高清大片在线| 老太脱裤让老头玩ⅹxxxx| AV中文字幕在线视| 久久久精品人妻一区二区三区游戏| 国产xxx69麻豆国语对白| 亚洲首页一区任你躁xxxxx| 国产免费午夜福利蜜芽无码| 午夜福利视频一区二区二区| aⅴ精品无码无卡在线观看| 亚洲妇女水蜜桃av网网站| 福利一区二区三区视频在线| 国产熟人精品一区二区| 国产精品亚洲欧美大片在线看| 亚洲三级黄色| 亚洲在线一区二区三区| 国产美女高潮流白浆免费视频| 无码av免费精品一区二区三区| 日韩精品成人无码AV片| 亚洲无人区乱码中文字幕动画| 国产99视频精品免视看7| 男女性高爱潮免费观看| 欧美亚洲另类国产18p| 国产饥渴的富婆一凶二区| 天堂√在线中文官网在线| www插插插无码视频网站| 日本一区二区高清视频| 色与欲影视天天看综合网| 最近中文字幕视频高清| 福利片免费 亚洲| 国产免费在线观看不卡| ā片在线观看免费观看| 精品少妇人妻成人一区二区| 在线观看一区二区蜜桃| 亚洲乱亚洲乱妇50p|