蔡志兆,呂建勛
北京航空航天大學(xué)自動(dòng)化科學(xué)與電氣工程學(xué)院,北京100191
運(yùn)動(dòng)檢測(cè)技術(shù)是計(jì)算機(jī)視覺領(lǐng)域重要的技術(shù)之一,在自動(dòng)導(dǎo)航、智能車輛等方面都有很好的應(yīng)用[1]。隨著軟硬件技術(shù),特別是各類圖像傳感器技術(shù)的發(fā)展,進(jìn)一步促進(jìn)了物體的運(yùn)動(dòng)檢測(cè)技術(shù)的研究。Liu等[2]利用Kinect獲取人體深度信息,利用深度信息計(jì)算人體的位置信息,實(shí)現(xiàn)ATM機(jī)前的人體異常檢測(cè),包括臉部遮擋、偷窺他人信息、長時(shí)間逗留等。Parra-Dominguez等[3]利用Kinect獲取人的行為信息,使用監(jiān)督學(xué)習(xí)進(jìn)行訓(xùn)練,能夠檢測(cè)人體上樓跌倒的異常行為。與傳統(tǒng)的僅使用彩色信息的方法相比,運(yùn)動(dòng)檢測(cè)加上深度信息很大程度上提升了檢測(cè)的準(zhǔn)確率。
本文建立了基于Kinect的運(yùn)動(dòng)檢測(cè)平臺(tái),檢測(cè)物體的運(yùn)動(dòng)信息。為了提高運(yùn)動(dòng)檢測(cè)的準(zhǔn)確性,加入深度信息進(jìn)行邊界判斷?;谖矬w邊界信息計(jì)算單應(yīng)性矩陣,從而進(jìn)行物體的運(yùn)動(dòng)檢測(cè)。本文首先介紹了基于Kinect的運(yùn)動(dòng)檢測(cè)平臺(tái)的搭建,對(duì)各個(gè)功能模塊進(jìn)行了敘述;然后提出了基于單應(yīng)性矩陣的物體運(yùn)動(dòng)檢測(cè)算法;最后基于Kinect采集的圖像數(shù)據(jù)進(jìn)行檢測(cè)算法的驗(yàn)證。
本實(shí)驗(yàn)平臺(tái)采用Kinect2進(jìn)行圖像數(shù)據(jù)的采集,Kinect2通過紅外線脈沖反射回來的時(shí)間來獲得深度信息(物體到傳感器的距離)。Kinect2性能較Kinect1有很大提升,且圖像分辨率有所提高,有更好的視覺效果,檢測(cè)范圍也更廣。Kinect2外觀圖如圖1所示。
圖1 Kinect2外觀
1.1.1 圖像數(shù)據(jù)獲取
獲取Kinect2數(shù)據(jù)源的流程如下:Sensor->Reader->Frame->Data。
Kinect數(shù)據(jù)模式有以下幾種:
1)Source。Kinect上的各個(gè)傳感器,給了每個(gè)傳感器源的入口。
2)Reader。有了Reader就可以訪問各個(gè)傳感器上的數(shù)據(jù)幀,一個(gè)傳感器源上可有多個(gè)Reader。
3)Frame References。幀引用,通過它訪問幀本身,可以用AcquireFrame獲取此引用所持有的幀。
4)Frame。幀本身,有了Frame就可以訪問實(shí)際數(shù)據(jù)并進(jìn)行處理,即可以得到數(shù)據(jù)。
1.1.2 圖像數(shù)據(jù)
對(duì)Kinect2采集的各種圖像格式進(jìn)行分析。
1)彩色圖像:Kinect2采集的彩色圖像分辨率是1920×1080,采樣率為30f/s[4],采集到的圖像有多種格式,如Rgba、Yuv等,本文采用RGB格式;
2)深度圖像:Kinect2采集到的深度圖是單通道的,每個(gè)通道存儲(chǔ)16bit的深度值,以mm為單位,在程序編寫時(shí)需要注意單位轉(zhuǎn)換。測(cè)量的深度值范圍在0.5~4.5m。
由于本文需要對(duì)大量的圖像數(shù)據(jù)進(jìn)行實(shí)時(shí)采集和處理,如果只是調(diào)用相應(yīng)的函數(shù)對(duì)數(shù)據(jù)進(jìn)行保存和記錄,會(huì)增加圖像讀取線程的負(fù)擔(dān);同時(shí)如果想要記錄時(shí)間、傳感器的數(shù)據(jù)等,需要調(diào)用多個(gè)函數(shù)來實(shí)現(xiàn),既繁瑣又耗時(shí)。ROS提供了一系列的庫和工具,可以有效幫助開發(fā)人員實(shí)現(xiàn)這些功能。
1.2.1 ROS系統(tǒng)介紹
ROS安裝是在Ubuntu操作系統(tǒng)上進(jìn)行的,Ubuntu是Linux系統(tǒng)的一個(gè)變形,通過終端命令進(jìn)行操作,同時(shí)具有圖形化的操作工具。
ROS提供了消息的傳輸和軟件包管理等許多功能,它遵循BSD開源許可協(xié)議。ROS被稱為一個(gè)進(jìn)程管理的操作系統(tǒng),每個(gè)進(jìn)程在ROS上都是一個(gè)節(jié)點(diǎn),它通過發(fā)布節(jié)點(diǎn)進(jìn)行通信。我們可以根據(jù)節(jié)點(diǎn)看到進(jìn)程之間的通信[5]。
1.2.2 ROS驅(qū)動(dòng)流程
本檢測(cè)平臺(tái)使用ROS驅(qū)動(dòng)Kinect進(jìn)行圖像數(shù)據(jù)的采集和保存。流程如下:
1)roscore運(yùn)行一個(gè)節(jié)點(diǎn)管理器master;
2)roslaunch將多個(gè)rosnode結(jié)合起來,一起運(yùn)行,其文件是使用XML語言來描述節(jié)點(diǎn)以及相關(guān)參數(shù)的設(shè)置和軟件的啟動(dòng)的,通過roslaunch運(yùn)行Kinect2_bridge.launch,運(yùn)行多個(gè)節(jié)點(diǎn);
3)rosrun運(yùn)行節(jié)點(diǎn)執(zhí)行viewer.cpp程序,驅(qū)動(dòng)相機(jī)進(jìn)行圖像數(shù)據(jù)采集,通過修改viewer.cpp程序,添加控制命令,以一定的采樣率控制圖像采集的開始和停止。
ROS驅(qū)動(dòng)Kinect采集的示意圖如圖2所示。
圖2 彩色?深度圖像
本文的研究?jī)?nèi)容涉及到對(duì)圖像數(shù)據(jù)進(jìn)行預(yù)處理和可視化等。這部分內(nèi)容主要是基于OpenCV開源庫進(jìn)行的。下面對(duì)OpenCV的環(huán)境搭建做介紹。
1)OpenCV介紹
OpenCV是一個(gè)基于BSD許可(開源)發(fā)行的跨平臺(tái)計(jì)算機(jī)視覺庫,可以運(yùn)行在Linux、Windows、Mac OS等操作系統(tǒng)上,實(shí)現(xiàn)了圖像處理和計(jì)算機(jī)視覺方面的很多通用算法[6]。目前很多新的開發(fā)和算法都是用C++接口,本平臺(tái)采用C++編程語言來實(shí)驗(yàn)運(yùn)動(dòng)檢測(cè)算法。
2)OpenCV安裝
1.2節(jié)介紹了ROS驅(qū)動(dòng)相機(jī)進(jìn)行圖像數(shù)據(jù)采集的相關(guān)內(nèi)容。在Ubuntu基礎(chǔ)上安裝了ROS,OpenCV也是基于Ubuntu進(jìn)行安裝。在使用cmake編譯程序形成可執(zhí)行文件時(shí),首先需要編寫CMakeLists文件定義相關(guān)的包和頭文件路徑等。由于ROS的安裝帶有OpenCV3的相關(guān)模塊,若需要使用OpenCV2相關(guān)功能的模塊,且CMakeLists文件不指定尋找的OpenCV的包的版本,則默認(rèn)尋找OpenCV3。由于OpenCV2和OpenCV3的版本差異,有些模塊做了修改,所以需要根據(jù)實(shí)際要求在CMakeLists里用FIND_PACKAGE()指定OpenCV版本。
對(duì)于物體的運(yùn)動(dòng)檢測(cè),主要分為邊界檢測(cè)、特征點(diǎn)檢測(cè)、單應(yīng)性矩陣計(jì)算、運(yùn)動(dòng)檢測(cè)4個(gè)部分。本章旨在討論運(yùn)動(dòng)檢測(cè)的關(guān)鍵技術(shù),基于已有的算法進(jìn)行改進(jìn),討論算法的有效性和可靠性。
邊界是圖像的一個(gè)重要的特征,對(duì)圖像的處理經(jīng)常需要用到邊界信息。在光流場(chǎng)的計(jì)算中,對(duì)邊界檢測(cè)的準(zhǔn)確性直接決定了運(yùn)動(dòng)信息檢測(cè)的精度。
2.1.1 Canny邊界檢測(cè)
Canny是目前使用最多的邊界檢測(cè)算子,相比較其他邊界檢測(cè)算子,適用于更多的場(chǎng)景,是目前最優(yōu)的邊界檢測(cè)算法,Canny邊界檢測(cè)可以分為以下幾個(gè)部分[7]:
1)高斯去噪:一般的原始圖像都會(huì)含有很大的噪聲,所以在圖像處理之前需要進(jìn)行去噪處理,特別是邊界檢測(cè),在含有噪聲的原圖上進(jìn)行邊界檢測(cè)效果都不會(huì)很好。Canny算子加入了高斯核對(duì)原圖進(jìn)行卷積,去除單個(gè)像素點(diǎn)噪聲的影響。
2)非極大值抑制:Canny算子的非極大值抑制原理是搜索像素點(diǎn)P(i,j)梯度方向上8領(lǐng)域內(nèi)最大梯度幅值點(diǎn),保留最大幅值像素點(diǎn),抑制掉非極大值點(diǎn)。
3)滯后閾值:滯后閾值需要2個(gè)閾值,一個(gè)高閾值,一個(gè)低閾值。Canny算子使用2個(gè)閾值分別來控制邊界的選擇和連通性。
2.1.2 基于深度信息的邊界檢測(cè)
Canny邊界檢測(cè)算法能夠很好地檢測(cè)到物體的邊界,如圖3所示。檢測(cè)結(jié)果表明,其不僅能夠檢測(cè)到目標(biāo)物體的邊界信息,對(duì)于背景的邊界信息也能檢測(cè)出來。
圖3 Canny邊界檢測(cè)效果
在實(shí)際的運(yùn)動(dòng)檢測(cè)中,我們所需要關(guān)注的對(duì)象是目標(biāo)物體,對(duì)于背景的邊界并不關(guān)心?;诖?,在Canny邊界檢測(cè)算法的基礎(chǔ)上,加上深度信息進(jìn)行邊界判斷。如果該邊界與目標(biāo)物體不在同一深度位置則表明此邊界不是目標(biāo)物體上的邊界。檢測(cè)結(jié)果如圖4所示,加上深度信息進(jìn)行判斷,去除了多余的邊界信息,簡(jiǎn)化了邊界,提取目標(biāo)物體整體輪廓。
圖4 基于深度信息的邊界檢測(cè)效果
運(yùn)動(dòng)檢測(cè)的第二步即為特征點(diǎn)檢測(cè),圖像特征點(diǎn)能夠反映圖像本質(zhì)特征,能夠標(biāo)識(shí)圖像中目標(biāo)物體。圖像特征點(diǎn)在基于特征點(diǎn)的圖像匹配算法中有著十分重要的作用。同時(shí)特征點(diǎn)檢測(cè)的結(jié)果決定了單應(yīng)性矩陣的計(jì)算優(yōu)劣。
2.2.1 Harris特征點(diǎn)檢測(cè)
角點(diǎn)是圖像的一大特征點(diǎn),其表現(xiàn)為輪廓之間的交點(diǎn),該點(diǎn)附近的像素點(diǎn)無論在梯度幅值還是梯度方向上都有著較大變化。角點(diǎn)對(duì)于小孔徑的視野,具有很穩(wěn)定的特性。
Harris角點(diǎn)檢測(cè)[8]的原理是使用一個(gè)滑動(dòng)窗口,沿著不同方向?qū)ο袼刂颠M(jìn)行卷積,比較窗口滑動(dòng)前與滑動(dòng)后窗口內(nèi)像素值的變化,若不論哪個(gè)方向都有著很大的灰度值變化,則此點(diǎn)定義為角點(diǎn)。
檢測(cè)效果如圖5、6所示,由圖5和圖6可知,Harris角點(diǎn)檢測(cè)具有比較好的特征點(diǎn)檢測(cè)的效果,但此算法針對(duì)的是整個(gè)場(chǎng)景,檢測(cè)出來的目標(biāo)物體以外的特征點(diǎn)需要去除。
圖5 物體1特征點(diǎn)檢測(cè)效果
圖6 物體2特征點(diǎn)檢測(cè)效果
2.2.2 基于邊界信息的特征點(diǎn)檢測(cè)
基于之前的內(nèi)容,已經(jīng)研究了目標(biāo)物體的邊界檢測(cè)。本文研究的目的是檢測(cè)物體的運(yùn)動(dòng)信息,對(duì)于目標(biāo)物體以外的特征點(diǎn)我們并不關(guān)心。為了去除邊界外的特征點(diǎn),利用目標(biāo)物體的邊界信息進(jìn)行特征點(diǎn)提取,判斷各特征點(diǎn)與邊界的關(guān)系:在邊界內(nèi)、在邊界上、在邊界外。提取邊界內(nèi)和邊界上的特征點(diǎn)進(jìn)行下面的特征點(diǎn)匹配和單應(yīng)性矩陣的計(jì)算。
去除目標(biāo)物體邊界外的特征點(diǎn)的檢測(cè)結(jié)果如圖7、8所示,由圖7、8可以知道,加上目標(biāo)物體的邊界信息能夠很好地去除邊界外的特征點(diǎn),留下目標(biāo)物體內(nèi)的有效特征點(diǎn),特征點(diǎn)具有一定分散性,能夠一定程度上代表目標(biāo)物體。
圖7 物體1基于邊界的特征點(diǎn)檢測(cè)效果
圖8 物體2基于邊界的特征點(diǎn)檢測(cè)效果
在計(jì)算機(jī)視覺中,平面的單應(yīng)性被定義為一個(gè)平面到另外一個(gè)平面的投影映射。對(duì)于特征點(diǎn)匹配和計(jì)算單應(yīng)性矩陣算法的設(shè)計(jì),采用LK[9]光流法進(jìn)行運(yùn)動(dòng)物體匹配點(diǎn)計(jì)算,基于匹配點(diǎn)進(jìn)行單應(yīng)性矩陣的計(jì)算,有2種方法可進(jìn)行單應(yīng)性矩陣的計(jì)算。
2.3.1 基于圖像的單應(yīng)性矩陣計(jì)算
針對(duì)全部場(chǎng)景(整幅圖像)進(jìn)行單應(yīng)性矩陣的計(jì)算,設(shè)定閾值,去除誤差值超過閾值的特征點(diǎn)。如圖9所示,淺色和深色圓點(diǎn)代表被檢測(cè)到的特征點(diǎn),其中淺色的特征點(diǎn)為第一幀圖片的特征點(diǎn),深色的特征點(diǎn)為第二幀圖像的特征點(diǎn)。通過融合前后2幀圖像,將前后2幀圖像的特征點(diǎn)融合在一起,圖片中的箭頭顯示第1幀和第2幀對(duì)應(yīng)匹配特征點(diǎn)的運(yùn)動(dòng)方向。
圖9 基于圖像的特征點(diǎn)集匹配
基于圖像的單應(yīng)性矩陣計(jì)算流程如下:
1)Harris算法檢測(cè)第一幀圖片特征點(diǎn)集points1;
2)LK算法計(jì)算第1幀圖片到第2幀圖片的匹配點(diǎn)集points2;
3)LK算法計(jì)算points2在第1幀圖片的匹配點(diǎn)集points3;
4)計(jì)算每對(duì)匹配點(diǎn)的距離值d[i]=|point3[i]?points1[i]|,設(shè)定閾值Tth,如果d[i]>Tth,則舍棄第i個(gè)特征點(diǎn)points1[i];如果d[i] 5)計(jì)算最優(yōu)特征點(diǎn)集points4在第2幀圖片的匹配點(diǎn)集points5; 6)利用最優(yōu)匹配點(diǎn)集points4和points5計(jì)算第1幀圖像和第2幀圖像之間的單應(yīng)性矩陣。 2.3.2 基于目標(biāo)物體的單應(yīng)性矩陣計(jì)算 為了提高精確度,需要剔除目標(biāo)物體以外的特征點(diǎn),進(jìn)行單應(yīng)性矩陣的計(jì)算。如圖10所示,與圖9相似,淺色與深色的特征點(diǎn)分別代表第1幀和第2幀的特征點(diǎn),箭頭代表運(yùn)動(dòng)方向,去除了目標(biāo)物體以外的匹配點(diǎn)。 圖10 基于目標(biāo)物體的特征點(diǎn)集匹配 基于目標(biāo)物體的單應(yīng)性矩陣計(jì)算流程如下: 1)Harris算法檢測(cè)第一幀圖片特征點(diǎn)集points1; 2)基于邊界檢測(cè)去除目標(biāo)物體以外的特征點(diǎn),保留目標(biāo)物體上的特征點(diǎn)集point2; 3)與基于圖像的單應(yīng)性矩陣計(jì)算流程步驟2)~6)類似。 由于圖像除目標(biāo)物體外會(huì)有其他的背景,對(duì)于其他材質(zhì)和形狀的物體單應(yīng)性矩陣的計(jì)算可能會(huì)不同。相比較基于整幅圖像的單應(yīng)性矩陣的計(jì)算,基于目標(biāo)物體的單應(yīng)性矩陣計(jì)算加入了邊界信息,去除了邊界外的特征點(diǎn),對(duì)滿足閾值內(nèi)的特征點(diǎn)進(jìn)行保留,計(jì)算第1幀和第2幀圖像之間的單應(yīng)性矩陣。此方法準(zhǔn)確性更高。 二維圖像的運(yùn)動(dòng)可以表現(xiàn)為像素點(diǎn)的運(yùn)動(dòng),像素點(diǎn)的運(yùn)動(dòng)形成光流場(chǎng),通過估計(jì)光流場(chǎng)即可得到物體的運(yùn)動(dòng)信息,進(jìn)而對(duì)物體進(jìn)行運(yùn)動(dòng)檢測(cè)。本課題的研究對(duì)象是剛體,而剛體沒有形變,對(duì)小運(yùn)動(dòng)的相鄰幀圖片,可以用光流場(chǎng)代表其運(yùn)動(dòng)場(chǎng)。 前文已經(jīng)討論了物體的邊界檢測(cè)和特征點(diǎn)檢測(cè),計(jì)算了相鄰幀圖像之間的單應(yīng)性矩陣,為了對(duì)物體進(jìn)行運(yùn)動(dòng)檢測(cè),還需要進(jìn)行光流估計(jì)。 設(shè)計(jì)算的單應(yīng)性矩陣為H,檢測(cè)的第1幀特征點(diǎn)集為C1,估計(jì)的第2幀圖像對(duì)應(yīng)的匹配點(diǎn)集為C2,則有: 設(shè)p1(x1,y1)為第1幀圖像上檢測(cè)到的特征點(diǎn),p2(x2,y2)為由式(1)計(jì)算出來的匹配點(diǎn),設(shè)2點(diǎn)運(yùn)動(dòng)為(?u, ?v),有 ?u=x2?x1, ?v=y2?y1,要計(jì)算光流場(chǎng)即計(jì)算第1幀圖像每一幀檢測(cè)出的特征點(diǎn)與對(duì)應(yīng)第2幀匹配點(diǎn)的差值[10]。整體光流計(jì)算公式為: 3.1.1 稀疏光流結(jié)果可視化 稀疏光流計(jì)算即提取目標(biāo)物體的特征點(diǎn)進(jìn)行光流場(chǎng)計(jì)算,可視化結(jié)果如圖11、12所示。目標(biāo)物體均往圖像左邊運(yùn)動(dòng),運(yùn)動(dòng)檢測(cè)結(jié)果顯示箭頭指向左邊,箭頭越長代表運(yùn)動(dòng)速度越快,能夠通過稀疏光流可視化結(jié)果大概推斷出物體的運(yùn)動(dòng)信息,與實(shí)際運(yùn)動(dòng)狀態(tài)相符。 圖11 物體1稀疏光流可視化結(jié)果 圖12 物體2稀疏光流可視化結(jié)果圖2 3.1.2 稀疏光流結(jié)果驗(yàn)證 由于檢測(cè)數(shù)據(jù)太多,選取前8個(gè)特征點(diǎn)進(jìn)行驗(yàn)證,表1的數(shù)據(jù)由原始數(shù)據(jù)精確到小數(shù)點(diǎn)后4位得到。像素點(diǎn)平均誤差用歐氏距離進(jìn)行計(jì)算,如上所示:LK檢測(cè)的像素點(diǎn)平均誤差 εx,y=0.3805,大于基于單應(yīng)性矩陣計(jì)算的匹配點(diǎn)平均誤差 εx,y=0.0589。由于基于單應(yīng)性矩陣方法匹配效果好,所以本實(shí)驗(yàn)的運(yùn)動(dòng)檢測(cè)基于單應(yīng)性矩陣方法進(jìn)行,具有較好的準(zhǔn)確性。 表1 匹配點(diǎn)檢測(cè)結(jié)果 如表2所示,運(yùn)動(dòng)檢測(cè)平臺(tái)每2幀運(yùn)動(dòng)檢測(cè)的運(yùn)行時(shí)間都在0.1s左右。本檢測(cè)平臺(tái)針對(duì)室內(nèi)運(yùn)動(dòng)物體,運(yùn)動(dòng)速度較低,選取圖像幀間隔為0.5s,運(yùn)動(dòng)檢測(cè)算法可以滿足平臺(tái)需要。 表2 檢測(cè)平臺(tái)運(yùn)行時(shí)間 s 相比較于稀疏光流,密集光流需要把目標(biāo)物體每個(gè)像素點(diǎn)的光流計(jì)算出來[11],以更好地表示物體的運(yùn)動(dòng)狀態(tài)。為了更好地把運(yùn)動(dòng)檢測(cè)結(jié)果顯示出來,基于色環(huán)進(jìn)行密集光流的可視化[12]。在編程過程中設(shè)定共有55個(gè)顏色表示不同的方向,每個(gè)色系顏色的深淺又代表物體在該方向上運(yùn)動(dòng)速度的大小。通過計(jì)算物體運(yùn)動(dòng)的最大速度,進(jìn)行速度歸一化。色環(huán)圖如圖13所示。 圖13 色環(huán) Farneback是一種常用的經(jīng)典密集光流檢測(cè)算法,利用Farneback算法獲得的密集光流檢測(cè)結(jié)果如圖14、15所示。由圖14可以看出,可視化結(jié)果為藍(lán)色但顏色深淺不一,對(duì)比圖13可知,藍(lán)色代表物體往左邊運(yùn)動(dòng),該可視化結(jié)果可以大致代表物體的真實(shí)運(yùn)動(dòng)。而對(duì)于圖15,可視化結(jié)果主要為黃色且顏色不單一,相比較實(shí)際物體向左的運(yùn)動(dòng),對(duì)比圖13可知,該結(jié)果并不能代表物體的真實(shí)運(yùn)動(dòng)。 圖14 物體1Farneback方法可視化結(jié)果 圖15 物體2Farneback方法可視化結(jié)果 運(yùn)用基于改進(jìn)的單應(yīng)性矩陣方法進(jìn)行物體運(yùn)動(dòng)信息檢測(cè),檢測(cè)結(jié)果如圖16、17所示。實(shí)際運(yùn)動(dòng)過程中物體均往左運(yùn)動(dòng),可視化結(jié)果顯示為藍(lán)色,所代表的物體運(yùn)動(dòng)方向與實(shí)際一致。實(shí)驗(yàn)結(jié)果驗(yàn)證了運(yùn)動(dòng)檢測(cè)平臺(tái)的有效性。 圖16 物體1改進(jìn)的單應(yīng)性矩陣計(jì)算方法可視化結(jié)果 圖17 物體2改進(jìn)的單應(yīng)性矩陣計(jì)算方法可視化結(jié)果 本文設(shè)計(jì)了基于Kinect的運(yùn)動(dòng)檢測(cè)平臺(tái),經(jīng)運(yùn)動(dòng)結(jié)果可視化顯示和數(shù)據(jù)驗(yàn)證,本檢測(cè)平臺(tái)提高了運(yùn)動(dòng)檢測(cè)的精度,符合實(shí)際物體運(yùn)動(dòng)情況。 1)本文在彩色圖像的基礎(chǔ)上,加上深度信息進(jìn)行邊界判斷,基于感興趣區(qū)域進(jìn)行單應(yīng)性矩陣的計(jì)算,提高了算法的精度。 2)在Ubuntu系統(tǒng)下開發(fā)基于Kinect的運(yùn)動(dòng)檢測(cè)平臺(tái),搭建ROS和OpenCV庫,實(shí)現(xiàn)了物體的圖像數(shù)據(jù)采集。 3)基于Kinect的運(yùn)動(dòng)檢測(cè)平臺(tái)可視化結(jié)果對(duì)比情況表明,該檢測(cè)平臺(tái)有較好的準(zhǔn)確性,可提升運(yùn)動(dòng)檢測(cè)的精度,能夠很好地表示物體的運(yùn)動(dòng)信息。2.4 光流估計(jì)
3 運(yùn)動(dòng)檢測(cè)平臺(tái)實(shí)驗(yàn)驗(yàn)證
3.1 稀疏光流法結(jié)果驗(yàn)證
3.2 密集光流法結(jié)果驗(yàn)證
4 結(jié)論