張開(kāi)平,黃宜慶,吳 桐
(1.安徽工程大學(xué)電氣工程學(xué)院,安徽,蕪湖 241000;2.安徽省電氣傳動(dòng)與控制重點(diǎn)實(shí)驗(yàn)室,安徽 蕪湖 241000;3.高端裝備先進(jìn)感知與智能控制教育部重點(diǎn)實(shí)驗(yàn)室,安徽 蕪湖 241000)
實(shí)時(shí)定位與建圖(Simultaneous Localization and Mapping, SLAM),是指機(jī)器人在沒(méi)有先驗(yàn)信息的情況下,搭載特定的傳感器,通過(guò)一系列運(yùn)動(dòng)來(lái)獲取自身的位姿和構(gòu)建周圍環(huán)境地圖的過(guò)程.視覺(jué)SLAM就是指將攝像頭作為自身的主要傳感器來(lái)采集數(shù)據(jù),從而實(shí)現(xiàn)定位與建圖功能的方法.目前較為成熟的開(kāi)源視覺(jué)SLAM方案主要有MonoSLAM(Real-Time Single Camera)[1],SVO[2],ORB-SLAM2[3],ORB-SLAM3[4]等.
傳統(tǒng)的SLAM系統(tǒng)在面對(duì)例如動(dòng)態(tài)場(chǎng)景和欠紋理的極端環(huán)境時(shí),系統(tǒng)的精確性和魯棒性會(huì)受到極大的挑戰(zhàn).此類SLAM系統(tǒng)在工作時(shí),只允許場(chǎng)景中出現(xiàn)少量的動(dòng)態(tài)物體,當(dāng)動(dòng)態(tài)物體占據(jù)場(chǎng)景的大部分面積時(shí),就會(huì)影響跟蹤過(guò)程的數(shù)據(jù)關(guān)聯(lián),從而導(dǎo)致相機(jī)運(yùn)動(dòng)估計(jì)軌跡漂移等問(wèn)題.為了提高SLAM在動(dòng)態(tài)場(chǎng)景下的定位精度和魯棒性,研究者們開(kāi)始嘗試在SLAM系統(tǒng)中去除這些由動(dòng)態(tài)物體導(dǎo)致的影響.此類工作主要分為三類:1)基于多視圖幾何來(lái)實(shí)現(xiàn)動(dòng)態(tài)點(diǎn)的剔除.Cheng等人提出了一種稀疏運(yùn)動(dòng)去除(SMR)模型[5],利用貝葉斯框架檢測(cè)每一幀的動(dòng)態(tài)和靜態(tài)區(qū)域并去除動(dòng)態(tài)區(qū)域,在檢測(cè)中考慮了相鄰幀的相似性和差異性來(lái)減少檢測(cè)的不穩(wěn)定性.Derome等人[6]通過(guò)當(dāng)前圖像和預(yù)測(cè)圖像之間的殘差獲得光流并計(jì)算變換矩陣,將當(dāng)前幀變換為前一幀圖像來(lái)檢測(cè)運(yùn)動(dòng)物體.但是僅僅依靠幾何和光流方法會(huì)導(dǎo)致算法的魯棒性不足.2)通過(guò)深度學(xué)習(xí)對(duì)輸入幀進(jìn)行處理,以獲得圖像的語(yǔ)義信息以剔除動(dòng)態(tài)信息.Jing等人[7]基于ORB-SLAM3,提出使用SparseInst網(wǎng)絡(luò)[8]對(duì)圖像幀進(jìn)行語(yǔ)義分割來(lái)獲取語(yǔ)義標(biāo)簽和動(dòng)態(tài)對(duì)象掩膜,隨后使用光流和極線約束結(jié)合動(dòng)態(tài)掩膜進(jìn)一步確定動(dòng)態(tài)特征信息,最后設(shè)計(jì)獨(dú)立的點(diǎn)云線程來(lái)構(gòu)建語(yǔ)義全局3D稠密點(diǎn)云地圖.此類方法相比于僅使用幾何方法具有更好的精確性,但是依賴于深度學(xué)習(xí)網(wǎng)絡(luò)的質(zhì)量,結(jié)構(gòu)簡(jiǎn)單的網(wǎng)絡(luò)不能夠準(zhǔn)確識(shí)別圖像中的物體,復(fù)雜的網(wǎng)絡(luò)會(huì)大大降低SLAM系統(tǒng)的運(yùn)行速度并增加系統(tǒng)的運(yùn)算量.3)結(jié)合多視圖幾何信息與深度學(xué)習(xí)來(lái)檢測(cè)動(dòng)態(tài)物體.WEI等人[9]設(shè)計(jì)了一種自適應(yīng)語(yǔ)義分割算法對(duì)ORB-SLAM2的跟蹤線程進(jìn)行了改進(jìn),并使用全局BA算法優(yōu)化相機(jī)位姿. DRSO-SLAM[10]計(jì)算特征點(diǎn)的光流場(chǎng)來(lái)跟蹤動(dòng)態(tài)物體光流,并將語(yǔ)義分割網(wǎng)絡(luò)得到語(yǔ)義先驗(yàn)信息作為掩膜信息來(lái)計(jì)算基礎(chǔ)矩陣,最后通過(guò)極線幾何方法去除動(dòng)態(tài)點(diǎn).DP-SLAM[11]提出了一種實(shí)時(shí)運(yùn)動(dòng)概率傳播方法,結(jié)合極線幾何和語(yǔ)義分割去除動(dòng)態(tài)特征信息.Ayman等人提出了一種深度注意力模塊SLAM(DMA-SLAM)算法[12],通過(guò)與深度相關(guān)的自適應(yīng)閾值和影響因子來(lái)考慮幾何和語(yǔ)義模塊中使用的深度影響.Zhang等人[13]提出了一種不受噪聲影響的運(yùn)動(dòng)邊界框算法,該算法可以檢測(cè)不同姿態(tài)下的人和物體的運(yùn)動(dòng)狀態(tài),避免了在篩選動(dòng)態(tài)特征信息時(shí)的誤剔除.目前大多數(shù)動(dòng)態(tài)環(huán)境SLAM算法都是采用此類方法,但是當(dāng)動(dòng)態(tài)物體占據(jù)場(chǎng)景中的很大比例時(shí),直接去除動(dòng)態(tài)物體上的全部信息,會(huì)導(dǎo)致用于跟蹤的特征信息過(guò)少,造成軌跡丟失,對(duì)地圖構(gòu)建造成影響.
為了解決在動(dòng)態(tài)場(chǎng)景下的定位與建圖問(wèn)題,本文構(gòu)造了一種基于圖像深度信息與語(yǔ)義先驗(yàn)信息相關(guān)聯(lián)的RGB-D SLAM算法,對(duì)于語(yǔ)義分割網(wǎng)絡(luò)的實(shí)時(shí)性問(wèn)題,利用YOLOv5[13]目標(biāo)檢測(cè)輕量級(jí)網(wǎng)絡(luò)對(duì)輸入圖像進(jìn)行目標(biāo)檢測(cè)得到動(dòng)態(tài)物體框.對(duì)于防止誤剔除動(dòng)態(tài)特征信息的問(wèn)題,給出一種深度信息隨機(jī)采樣一致性(Depth-RANSAC)算法來(lái)剔除動(dòng)態(tài)物體框內(nèi)的動(dòng)態(tài)特征點(diǎn),保留框內(nèi)的靜態(tài)特征點(diǎn),提高對(duì)于動(dòng)態(tài)特征信息檢測(cè)的精確性.
本文算法在ORB-SLAM2的RGB-D模式基礎(chǔ)上進(jìn)行改進(jìn),總框架如圖1所示,該框架是在ORB_SLAM2的基礎(chǔ)上加入了目標(biāo)檢測(cè)線程和D-RANSAC特征點(diǎn)剔除算法.嵌入此線程和算法的目的是過(guò)濾被ORB-SLAM2提取的特征點(diǎn)集,這些點(diǎn)集中包括了動(dòng)態(tài)特征點(diǎn)和靜態(tài)特征點(diǎn).如果所有特征信息都被用來(lái)估計(jì)相機(jī)運(yùn)動(dòng)軌跡的話,則會(huì)造成估計(jì)軌跡的誤差,所以只需要靜態(tài)特征點(diǎn)來(lái)計(jì)算相機(jī)位姿.本文算法的目標(biāo)檢測(cè)線程是基于YOLOv5網(wǎng)絡(luò)實(shí)現(xiàn)的,以獲取場(chǎng)景中的動(dòng)態(tài)語(yǔ)義信息,D-RANSAC算法進(jìn)一步篩選動(dòng)態(tài)特征點(diǎn),防止過(guò)多特征點(diǎn)被剔除而導(dǎo)致跟蹤失敗.
圖1 本文算法框架圖Figure 1 The framework diagram of this algorithm
當(dāng)系統(tǒng)工作時(shí),由RGB-D相機(jī)采集到的圖像會(huì)同時(shí)傳入跟蹤線程和目標(biāo)檢測(cè)線程,首先在跟蹤線程中對(duì)輸入圖像提取FAST關(guān)鍵點(diǎn)[15]并計(jì)算BRIEF描述子[16],同時(shí)目標(biāo)檢測(cè)線程處理傳入的圖像,生成場(chǎng)景中動(dòng)態(tài)或潛在動(dòng)態(tài)的物體框信息,并將結(jié)果傳入跟蹤線程.在跟蹤線程中,對(duì)提取的特征信息與目標(biāo)檢測(cè)線程傳入的語(yǔ)義先驗(yàn)信息進(jìn)行擬合,并與場(chǎng)景深度信息相關(guān)聯(lián),通過(guò)D-RANSAC算法剔除屬于動(dòng)態(tài)物體上的特征點(diǎn).過(guò)濾后的特征信息被用來(lái)進(jìn)行位姿初始化和重定位,此后的流程類似于ORB-SLAM2.
目標(biāo)檢測(cè)算法的目標(biāo)是識(shí)別出場(chǎng)景中的各類物體以及獲得這些物體的位置信息.目前目標(biāo)檢測(cè)算法可以分為two-stage和one-stage兩類.YOLO(You Only Look Once)[17]是Joseph Redmon和Ali Farhadi等人于2015年提出的基于單個(gè)神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測(cè)系統(tǒng).YOLOv5是Glenn Jocher在2021年發(fā)布的一階段目標(biāo)檢測(cè)算法,該算法在YOLOv4的基礎(chǔ)上做出了一系列改進(jìn),其速度和精度都取得了一定進(jìn)步.
ORB-SLAM2是基于ORB特征點(diǎn)來(lái)實(shí)現(xiàn)定位與建圖的SLAM系統(tǒng),其提取的特征點(diǎn)質(zhì)量關(guān)系到整個(gè)SLAM系統(tǒng)的魯棒性與精確性.動(dòng)態(tài)特征信息會(huì)使系統(tǒng)在計(jì)算相機(jī)運(yùn)動(dòng)軌跡時(shí)產(chǎn)生誤差漂移.在DMS-SLAM[18]中,將YOLO目標(biāo)檢測(cè)網(wǎng)絡(luò)獲得的動(dòng)態(tài)框內(nèi)的所有特征點(diǎn)全部去除,來(lái)實(shí)現(xiàn)動(dòng)態(tài)信息的篩除,但是當(dāng)人占場(chǎng)景的三分之二以上的時(shí)候,這種方法會(huì)剔除場(chǎng)景中的大多數(shù)特征點(diǎn),從而導(dǎo)致SLAM系統(tǒng)跟蹤所需要的特征點(diǎn)數(shù)量不足,出現(xiàn)跟蹤失敗、系統(tǒng)的魯棒性下降、相機(jī)估計(jì)軌跡漂移等問(wèn)題.
本文給出一種結(jié)合語(yǔ)義先驗(yàn)信息和深度信息的動(dòng)態(tài)點(diǎn)剔除方法,這種方法可以準(zhǔn)確剔除動(dòng)態(tài)框內(nèi)屬于人身上的特征點(diǎn),保留框內(nèi)的靜態(tài)特征點(diǎn).在目標(biāo)檢測(cè)線程中會(huì)獲得當(dāng)前場(chǎng)景中物體的bounding box.根據(jù)深度圖像可以區(qū)分處于不同深度場(chǎng)景的不同物體的輪廓,如圖2所示.借助這些信息,可以利用D-RANSAC算法來(lái)篩選落在人身上的特征點(diǎn),從而保留那些屬于動(dòng)態(tài)框內(nèi)的靜態(tài)特征點(diǎn).此算法是基于RANSAC(Random Sample Consensus)算法[19]改進(jìn)而來(lái),RANSAC是可以從一個(gè)包含有“外點(diǎn)”的點(diǎn)集中,通過(guò)迭代的方式來(lái)估計(jì)唯一數(shù)學(xué)模型的算法.本文D-RANSAC算法的使用有一些前提,首先是人需要占據(jù)bounding box的三分之二以上,其次落在人身上的特征點(diǎn)的深度值差異小于閾值,最后是人與周圍背景要有明顯深度差異.
圖2 深度圖像Figure 2 Depth image
深度隨機(jī)采樣一致性算法流程如下:首先將動(dòng)態(tài)框內(nèi)的特征點(diǎn)push一個(gè)集合Pdynamic,然后進(jìn)入循環(huán),當(dāng)前迭代次數(shù)n小于我們初始化的迭代次數(shù)N時(shí),在Pdynamic中隨機(jī)選取兩個(gè)特征點(diǎn),獲得這兩個(gè)點(diǎn)在其深度圖像上的深度信息d1,d2,計(jì)算Dmod,如式(1)所示.
(1)
隨后遍歷Pdynamic中剩余的點(diǎn),計(jì)算每個(gè)點(diǎn)與Dmod的差值,當(dāng)差值小于閾值Th時(shí),將此點(diǎn)加入內(nèi)點(diǎn)集,更新內(nèi)點(diǎn)集的數(shù)量s和迭代次數(shù)N,迭代完成時(shí),輸出最終的內(nèi)點(diǎn)集合.傳統(tǒng)RANSAC算法需要提前規(guī)定好算法所需的迭代次數(shù),如果迭代次數(shù)過(guò)大,則會(huì)導(dǎo)致計(jì)算資源的浪費(fèi),若設(shè)計(jì)的迭代次數(shù)過(guò)小,則不能獲得比較精確的內(nèi)點(diǎn)集.本文在D-RANSAC算法中加入了動(dòng)態(tài)更新迭代次數(shù)算法,具體如下:
在Pdynamic中隨機(jī)選擇k個(gè)點(diǎn)來(lái)計(jì)算數(shù)學(xué)模型,則內(nèi)點(diǎn)在全部點(diǎn)中的百分比P:
(2)
則k個(gè)點(diǎn)中至少有一個(gè)點(diǎn)為外點(diǎn)的概率為1-Pk.在N次迭代的條件下,每一次選擇的點(diǎn)集中都存在離散點(diǎn)的概率為(1-Pk)n,用Ptrue來(lái)表示從點(diǎn)集中隨機(jī)選擇的點(diǎn)在N次迭代中都是內(nèi)點(diǎn)的概率,則:
Ptrue=1-(1-Pk)N
(3)
那么迭代次數(shù)N為
(4)
每個(gè)點(diǎn)為內(nèi)點(diǎn)的概率P是先驗(yàn)值,Ptrue是通過(guò)RANSAC計(jì)算得出正確數(shù)學(xué)模型的概率.RANSAC算法開(kāi)始時(shí)P的準(zhǔn)確值是未知的,在初始化時(shí)把P設(shè)為一個(gè)足夠大的值,在每次更新深度模型和內(nèi)點(diǎn)集的時(shí)候,利用當(dāng)前內(nèi)點(diǎn)集合計(jì)算出P,由P更新迭代次數(shù)N,由此可以根據(jù)由當(dāng)前計(jì)算出的深度模型所獲得的內(nèi)點(diǎn)集合,動(dòng)態(tài)更新RANSAC迭代次數(shù),達(dá)到更精確的輸出結(jié)果和更快的計(jì)算速度.
為了進(jìn)行對(duì)比,本節(jié)在特征信息提取、SLAM定位評(píng)估兩個(gè)方面對(duì)算法進(jìn)行評(píng)估,并與ORB-SLAM2、YOLO-SLAM等兩種算法在TUM數(shù)據(jù)集上進(jìn)行對(duì)比試驗(yàn).ORB-SLAM2使用RANSAC算法來(lái)實(shí)現(xiàn)對(duì)于動(dòng)態(tài)點(diǎn)的剔除,以獲得相對(duì)準(zhǔn)確的相機(jī)姿態(tài).YOLO-SLAM是本文在ORB-SLAM2的基礎(chǔ)上,僅加入YOLOv5目標(biāo)檢測(cè)網(wǎng)絡(luò)并將動(dòng)態(tài)框內(nèi)的所有特征信息去除來(lái)實(shí)現(xiàn)動(dòng)態(tài)信息的篩選的SLAM系統(tǒng).
本小節(jié)對(duì)本文中提出的深度信息隨機(jī)采樣一致性算法進(jìn)行實(shí)驗(yàn).實(shí)驗(yàn)平臺(tái)是CPU為Intel i7-8700 ,GPU為GeForce GTX2080Super,內(nèi)存為64GB的計(jì)算機(jī).
實(shí)驗(yàn)在TUM數(shù)據(jù)集進(jìn)行,實(shí)驗(yàn)結(jié)果如圖3所示.
圖3 特征信息提取實(shí)驗(yàn)結(jié)果Figure 3 Experimental results of feature information extraction
如實(shí)驗(yàn)結(jié)果所示,圖3(A)表示ORB-SLAM2工作時(shí),會(huì)從動(dòng)態(tài)物體上提取特征點(diǎn)信息,這些信息會(huì)導(dǎo)致相機(jī)的估計(jì)軌跡出現(xiàn)誤差.圖3(B)表示只使用YOLOv5目標(biāo)檢測(cè)網(wǎng)絡(luò)來(lái)獲取動(dòng)態(tài)物體并將動(dòng)態(tài)框內(nèi)的信息全部剔除.當(dāng)動(dòng)態(tài)物體占據(jù)場(chǎng)景的大部分時(shí),會(huì)造成SLAM系統(tǒng)跟蹤所需的信息過(guò)少,從而導(dǎo)致跟蹤丟失.圖3(C)表示在圖3(B)的基礎(chǔ)上加入了深度信息隨機(jī)采樣一致性算法后,將動(dòng)態(tài)框內(nèi)屬于人身上的特征點(diǎn)篩除,保留了框內(nèi)的靜態(tài)特征點(diǎn)信息,從而不會(huì)因?yàn)樘卣餍畔⑦^(guò)少導(dǎo)致跟蹤丟失.
本節(jié)在TUM數(shù)據(jù)集上對(duì)本文算法進(jìn)行了檢驗(yàn),并與ORB-SLAM2、YOLO-SLAM在定位評(píng)估方面做了定量分析.TUM數(shù)據(jù)集由在不同場(chǎng)景使用RGB-D相機(jī)記錄的39個(gè)序列組成,包含了測(cè)試、手持SLAM、三維物體重建、動(dòng)態(tài)物體等多種針對(duì)不同任務(wù)的數(shù)據(jù)集.本節(jié)主要測(cè)試TUM數(shù)據(jù)集中的動(dòng)態(tài)場(chǎng)景序列.
本文算法與ORB-SLAM2、YOLO-SLAM算法在高動(dòng)態(tài)序列上的軌跡誤差如圖4所示.從圖4(A)可以看出沒(méi)有深度信息隨機(jī)采樣一致性算法的YOLO-SLAM2表現(xiàn)得比原始的ORB-SLAM2差,這說(shuō)明只通過(guò)目標(biāo)檢測(cè)網(wǎng)絡(luò)篩除全部的動(dòng)態(tài)信息,會(huì)使SLAM系統(tǒng)跟蹤所需的特征信息過(guò)少,導(dǎo)致跟蹤丟失,造成了估計(jì)軌跡的誤差.在圖4的實(shí)驗(yàn)結(jié)果中,本文算法表現(xiàn)最好,這表明深度隨機(jī)采樣一致性算法有效解決了YOLO-SLAM導(dǎo)致的跟蹤信息過(guò)少的問(wèn)題,并在高動(dòng)態(tài)場(chǎng)景中相較于ORB-SLAM2算法具有更好的性能.
本文算法與ORB-SLAM2、YOLO-SLAM的對(duì)比結(jié)果如表1~3所示.表1是各算法絕對(duì)軌跡誤差,可以看出本文算法在前四個(gè)高動(dòng)態(tài)序列表現(xiàn)最好.其中,在動(dòng)態(tài)場(chǎng)景較為復(fù)雜的“fr3/w/rpy”序列上,本文算法相較于ORB-SLAM2,相機(jī)估計(jì)軌跡在RMSE和STD精度提高了25%和15%,而與YOLO-SLAM相比較提高了15%.在前四個(gè)高動(dòng)態(tài)序列中,本文算法相較于ORB-SLAM2在RMSE上平均提升55.5%,在STD上平均提升63.25%,相較于YOLO-SLAM,平均精度分別提高47.25%和38.75%.由此可見(jiàn),本文算法在高動(dòng)態(tài)環(huán)境下的精度均優(yōu)于對(duì)比算法.
表1 絕對(duì)軌跡誤差對(duì)比結(jié)果
從表2看出,YOLO-SLAM在“fr3/w/rpy”、“fr3/w/static”和“fr3/w/half”三個(gè)動(dòng)態(tài)序列上的精度相較于原始的ORB-SLAM2,取得了較差的結(jié)果.原因是YOLO-SLAM將目標(biāo)檢測(cè)網(wǎng)絡(luò)中獲得的動(dòng)態(tài)物體框內(nèi)的特征信息全部去除,造成了跟蹤所需的信息過(guò)少,導(dǎo)致了跟蹤丟失.而本文給出的深度信息隨機(jī)采樣一致性算法去除了動(dòng)態(tài)物體框內(nèi)真正屬于動(dòng)態(tài)物體(在本文中是人這一類別)上的特征信息,保留了靜態(tài)特征,所在高動(dòng)態(tài)序列RPE平移和旋轉(zhuǎn)部分的對(duì)比中,本文算法表現(xiàn)最好.
表2 相對(duì)軌跡誤差對(duì)比結(jié)果
從表3可以看出,在低動(dòng)態(tài)序列“fr3/s/xyz”和“fr3/s/static”中,本文算法相較于對(duì)比算法,提升并不明顯.這是因?yàn)镺RB-SLAM2在低動(dòng)態(tài)和靜態(tài)場(chǎng)景下工作的精度足夠好,所以在此場(chǎng)景下的本文算法的改進(jìn)并不明顯.
表3 相對(duì)軌跡誤差旋轉(zhuǎn)部分對(duì)比結(jié)果
從圖5(A)可以看出,ORB-SLAM2在fr3/w/xyz序列中的估計(jì)軌跡在y方向的誤差達(dá)到了1.25m,YOLO-SLAM的估計(jì)軌跡與真實(shí)軌跡在y方向的誤差達(dá)到了0.6 m,而本文算法相較于對(duì)比算法具有更小的誤差,在y方向上只有0.3 m,在x方向只有0.2 m.因此在動(dòng)態(tài)序列中,本文算法比對(duì)比算法具有更優(yōu)的魯棒性.
圖5 估計(jì)軌跡與真實(shí)軌跡誤差圖Figure 5 Error diagram of estimated trajectory and real trajectory
本文構(gòu)造了一種基于ORB-SLAM2的動(dòng)態(tài)環(huán)境RGB-D SLAM系統(tǒng),使用YOLOv5目標(biāo)檢測(cè)網(wǎng)絡(luò)來(lái)對(duì)輸入圖像進(jìn)行動(dòng)態(tài)物體檢測(cè),再將語(yǔ)義先驗(yàn)信息與場(chǎng)景深度信息相關(guān)聯(lián),使用D-RANSAC算法來(lái)剔除動(dòng)態(tài)物體框內(nèi)的動(dòng)態(tài)特征點(diǎn),保留框內(nèi)的靜態(tài)特征點(diǎn),利用保留下來(lái)的穩(wěn)定靜態(tài)特征點(diǎn)來(lái)進(jìn)行動(dòng)態(tài)序列下的運(yùn)動(dòng)軌跡估計(jì)和地圖構(gòu)建.通過(guò)實(shí)驗(yàn)平臺(tái)對(duì)TUM數(shù)據(jù)集的檢測(cè),結(jié)果表明本文算法在高動(dòng)態(tài)環(huán)境下的相機(jī)姿態(tài)和定位精度上有明顯提高.本文算法在面對(duì)低動(dòng)態(tài)場(chǎng)景以及靜態(tài)場(chǎng)景時(shí),前者由于目標(biāo)檢測(cè)網(wǎng)絡(luò)將人定義為高動(dòng)態(tài)物體,當(dāng)人是靜止或者是緩慢移動(dòng)的時(shí)候,會(huì)將人身上的一些靜態(tài)特征點(diǎn)剔除,導(dǎo)致跟蹤效果下降.如何正確篩除當(dāng)前正在運(yùn)動(dòng)的動(dòng)態(tài)特征點(diǎn)時(shí)下一步工作的重點(diǎn),未來(lái)考慮改進(jìn)本文的D-RANSAC算法,使其適應(yīng)更復(fù)雜的環(huán)境,使其在工作時(shí)具有更好的魯棒性.