亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        Kinect下深度信息獲取技術(shù)及其在三維目標(biāo)識(shí)別中的應(yīng)用綜述

        2013-11-23 06:39:42尹潘龍徐光柱雷幫軍曹維華
        集成技術(shù) 2013年6期
        關(guān)鍵詞:特征描述測(cè)試數(shù)據(jù)物體

        尹潘龍 徐光柱 雷幫軍 曹維華

        1(三峽大學(xué)計(jì)算機(jī)與信息學(xué)院 宜昌 443002)

        2(三峽大學(xué)智能視覺(jué)與圖像信息研究所 宜昌 443002)

        1 引 言

        近年來(lái),由于深度傳感技術(shù)取得了較大的進(jìn)步,三維深度傳感器再次引發(fā)了人們的興趣。這些深度傳感技術(shù)包括:基于激光雷達(dá)的方法[1]、飛行時(shí)間法[2](Time-of-Flight)、基于投影紋理立體視覺(jué)的方法[3](Projected Texture Stereo)等。微軟的 Kinect 傳感器由于其價(jià)格適中,且提供 Kinect 軟件開(kāi)發(fā)工具包供開(kāi)發(fā)者使用,從而得到了廣泛的應(yīng)用。Kinect 是目前世界上銷售最快的消費(fèi)電子設(shè)備,具有廣泛的應(yīng)用前景。如何有效利用 Kinect 傳感器得到的深度信息來(lái)解決計(jì)算機(jī)視覺(jué)中的關(guān)鍵問(wèn)題已成為目前的研究熱點(diǎn),參考文獻(xiàn)[4-6]中借助 Kinect 傳感器,通過(guò)獲取的深度信息對(duì)場(chǎng)景進(jìn)行三維重建;狄海進(jìn)[6]利用 Kinect 同時(shí)獲取的 RGB 和深度信息對(duì)手勢(shì)進(jìn)行檢測(cè)和跟蹤;參考文獻(xiàn)[7]中將 Kinect 傳感器裝在一個(gè)機(jī)器人上,獲取 RGB-D 數(shù)據(jù),對(duì)這些數(shù)據(jù)進(jìn)行特征提取和機(jī)器學(xué)習(xí),然后對(duì)機(jī)器人輸入一個(gè)目標(biāo)名字,讓機(jī)器人從周圍的環(huán)境中檢測(cè)識(shí)別出輸入目標(biāo)物體。目前已有許多利用 Kinect 傳感器獲取深度信息進(jìn)行 3D 目標(biāo)識(shí)別的應(yīng)用,實(shí)驗(yàn)表明利用深度信息的 3D 目標(biāo)識(shí)別系統(tǒng)都具有較好的魯棒性,并且都取得了較好的效果。

        目前,用于測(cè)試 3D 目標(biāo)識(shí)別算法的大多數(shù) 3D 數(shù)據(jù)集都是在特定的場(chǎng)景下、單一視角、目標(biāo)類別少、實(shí)例單一的情況下獲取的。這些 3D 數(shù)據(jù)測(cè)試集僅使用于特定的場(chǎng)景,缺乏廣泛的實(shí)際應(yīng)用。而利用 Kinect 傳感器獲取的 RGB-D 數(shù)據(jù)集[8,9]則可包含大量日常生活中常見(jiàn)的目標(biāo)物體,它是在室內(nèi)或者辦公環(huán)境下從多個(gè)視角拍攝獲取的數(shù)據(jù),能夠用于大規(guī)模的 3D 目標(biāo)識(shí)別實(shí)際應(yīng)用,較以往的數(shù)據(jù)集具有更好的實(shí)用性。

        本文首先將對(duì)目前流行的 Kinect 工作原理進(jìn)行詳細(xì)說(shuō)明,其次對(duì)目前已有的 3D 目標(biāo)識(shí)別方法進(jìn)行綜述,接著對(duì)現(xiàn)有的 3D 測(cè)試數(shù)據(jù)集進(jìn)行比較,最后給出小結(jié)以及對(duì)未來(lái)的 3D 目標(biāo)識(shí)別數(shù)據(jù)測(cè)試集和識(shí)別方法的發(fā)展趨勢(shì)進(jìn)行展望。

        2 Kinect 技術(shù)原理

        2.1 Kinect

        隨著科技的不斷進(jìn)步,在人機(jī)交互領(lǐng)域,一些低成本的深度傳感器陸續(xù)出現(xiàn)。在 2010 年 11 月,微軟在北美正式發(fā)布了一種新型的體感設(shè)備 Kinect[10,11]。Kinect 是微軟為了增加 Xbox 上游戲的可玩性,實(shí)現(xiàn)自然用戶交互方式而開(kāi)發(fā)的一款設(shè)備。Kinect 充分利用了以色列 PrimeSense 公司的 PrimeSense 設(shè)備和感應(yīng)芯片 PS1080,以低廉的成本實(shí)現(xiàn)了深度攝像頭功能。通過(guò)深度攝像頭和 RGB 攝像頭以及多陣列麥克風(fēng)提供的信息,使得 Xbox 可以感知和識(shí)別玩家及其運(yùn)動(dòng),進(jìn)而操控游戲中的人物,提高游戲的可玩性。Kinect 不僅可以玩游戲,而且由于其提供了性價(jià)比很高的深度攝像頭功能而得到了世界各地研究和開(kāi)發(fā)人員的關(guān)注,因此 Kinect 被廣泛地應(yīng)用于各種研究領(lǐng)域中,特別在計(jì)算機(jī)視覺(jué)和機(jī)器人學(xué)領(lǐng)域尤為活躍。

        Kinect 的結(jié)構(gòu)如圖 1 所示,它由一個(gè)多陣列麥克風(fēng)、一個(gè) RGB 攝像頭、一個(gè)紅外攝像頭和一個(gè)紅外發(fā)射器組成。它工作時(shí)首先通過(guò) RGB 攝像頭獲取彩色信息,利用紅外攝像頭感知紅外線,然后由 Kinect內(nèi)部硬件分析處理得到深度信息。Kinect 每秒可以處理 30 幀的深度信息,每幀 640×480 個(gè)像素,深度探測(cè)范圍 1.2~3.5 m。

        圖1 Kinect 結(jié)構(gòu)圖

        2.2 Kinect 獲取深度信息的原理

        Kinect 傳感器利用 PrimeSense 公司的 Lighting Coding(光編碼)技術(shù)來(lái)獲取深度信息。Lighting Coding[11]用紅外線給測(cè)量的空間進(jìn)行編碼,經(jīng) CMOS傳感器讀取編碼的光線,再通過(guò)芯片分析這些編碼,進(jìn)行解碼計(jì)算,最后生成一幅表示深度信息的圖像。圖 2 示意了 Kinect 獲取深度信息的原理。Light Coding 不同于傳統(tǒng)的 TOF[2]和結(jié)構(gòu)光測(cè)量技術(shù),它使用的是連續(xù)照明而非脈沖,也不需要特制的感光芯片,只需要普通的 CMOS 感光芯片,這讓方案的成本大量降低。Light Coding 就是用光源照明給需要測(cè)量的空間編上碼,本質(zhì)上還是結(jié)構(gòu)光技術(shù)。但與傳統(tǒng)的結(jié)構(gòu)光方法不同,它發(fā)射出去的光線并不是一幅周期性變化的圖像編碼,而是一個(gè)具有三維縱深的“體編碼”。

        圖2 Kinect 獲取深度信息的原理[12]圖

        Lighting Coding 技術(shù)的關(guān)鍵是鐳射光散斑(Laser Speckle),當(dāng)激光照射到粗糙的物體或者穿透毛玻璃后,會(huì)形成隨機(jī)的衍射斑點(diǎn),即散斑。圖 3 顯示的是空間中放一本書(shū)的散斑圖。散斑具有高度的隨機(jī)性,而且當(dāng)距離變化時(shí)會(huì)呈現(xiàn)不同的圖案,也就是說(shuō)空間中任意兩點(diǎn)的散斑圖案都是不同的。這樣整個(gè)空間都加上了標(biāo)記,所以當(dāng)物體放進(jìn)空間時(shí),只要分析物體上面的散斑圖案,就可以準(zhǔn)確記錄物體在什么位置。Lighting Coding 發(fā)出激光對(duì)測(cè)量空間進(jìn)行編碼指的就是產(chǎn)生散斑。Kinect 利用紅外線發(fā)出人們看不見(jiàn)的鐳射光,然后透過(guò)鏡頭前的光柵將鐳射光均勻的分布投射在測(cè)量空間中,再透過(guò)紅外線接收器記錄空間中的每個(gè)散斑,獲取原始信息后,再通過(guò)芯片計(jì)算成具有3D 深度的圖像。

        圖3 空間中一本書(shū)的散斑圖像[11]

        3 3D 目標(biāo)識(shí)別方法概述

        3D 目標(biāo)識(shí)別的核心問(wèn)題就是如何利用 Kinect 傳感器獲取的深度信息進(jìn)行目標(biāo)識(shí)別,其關(guān)鍵就是從深度信息中提取目標(biāo)的特征描述子,通過(guò)目標(biāo)的特征描述子來(lái)識(shí)別物體,識(shí)別準(zhǔn)確度依賴于所提取特征描述子的好與壞。根據(jù)特征描述子的不同,總體上可以將3D 目標(biāo)識(shí)別的方法分為兩類,即基于 2D 圖像的識(shí)別算法來(lái)實(shí)現(xiàn) 3D 目標(biāo)識(shí)別的方法和基于 3D 特征的識(shí)別方法。如表 1 所示。這兩類算法的共同之處,基本上都是從獲取的深度信息中提取目標(biāo)的特征,然后通過(guò)特征描述子來(lái)進(jìn)行目標(biāo)識(shí)別。

        表1 3D 目標(biāo)識(shí)別方法分析與比較

        基于 2D 圖像的識(shí)別算法來(lái)實(shí)現(xiàn) 3D 目標(biāo)識(shí)別的方法包括基于深度圖的 HOG 特征的方法、機(jī)器學(xué)習(xí)的方法和深度核描述子的方法等。這些方法都是在原有的 2D 圖像識(shí)別算法的基礎(chǔ)上,基于深度圖來(lái)提取特征進(jìn)行識(shí)別。這類方法具有算法簡(jiǎn)單、速度快的特點(diǎn)。參考文獻(xiàn)[13]中,用標(biāo)準(zhǔn)的基于滑動(dòng)窗口的檢測(cè),但實(shí)驗(yàn)表明基于深度圖的 HOG 特征的檢測(cè)結(jié)果較基于彩色圖的 HOG 特征的差,這是由于用 Kinect獲取的部分目標(biāo)深度信息丟失了,導(dǎo)致梯度特征不相稱造成的。圖 4 展示了分別基于彩色圖和深度圖的HOG 特征檢測(cè)器性能。為了提高檢測(cè)性能,利用深度信息得到物體近似大小,在檢測(cè)器中裁剪掉那些不可能是物體大小的候選目標(biāo);同時(shí),用物體大小信息學(xué)習(xí)出一個(gè)用于檢測(cè)的計(jì)分函數(shù),實(shí)驗(yàn)表明該方法取得了良好的效果,提高了檢測(cè)的性能。參考文獻(xiàn)[7]中用機(jī)器學(xué)習(xí)的方法來(lái)進(jìn)行檢測(cè)與識(shí)別。首先分割出目標(biāo),從中提取其特征向量,將特征向量作為機(jī)器學(xué)習(xí)模塊的輸入,進(jìn)行學(xué)習(xí)訓(xùn)練,最后利用訓(xùn)練的結(jié)果進(jìn)行檢測(cè)和識(shí)別。該識(shí)別方法簡(jiǎn)單高效,但識(shí)別率比較低。參考文獻(xiàn)[14]中,受到基于核的特征學(xué)習(xí)[15]的啟示,該文獻(xiàn)提出了 5 種深度核描述子(Depth Kernel Descriptors),分別提供不同的識(shí)別線索(目標(biāo)的大小、形狀、邊緣等),將這些深度核描述子結(jié)合起來(lái),為目標(biāo)識(shí)別提供了強(qiáng)有力的線索。表 2 顯示了5 種深度核描述子分別在類別識(shí)別(判別一個(gè)目標(biāo)屬于哪個(gè)類)和實(shí)例識(shí)別(識(shí)別不同的目標(biāo)實(shí)例)下的識(shí)別率。實(shí)驗(yàn)表明,基于深度核描述子的目標(biāo)識(shí)別,大大地提高了系統(tǒng)的識(shí)別精度,提高了系統(tǒng)的魯棒性。

        圖4 分別基于彩色圖和深度圖的 HOG 特征的檢測(cè)器的性能分析[13]

        表2 各種深度核描述子在 RGB-D 測(cè)試數(shù)據(jù)集下識(shí)別率[14]

        相比于基于 2D 圖像的識(shí)別算法來(lái)實(shí)現(xiàn) 3D 目標(biāo)識(shí)別的方法來(lái)說(shuō),基于 3D 特征的識(shí)別方法主要思路是:首先利用 Kinect 傳感器得到深度信息,再由深度信息得到 3D 點(diǎn)云模型,接著從 3D 點(diǎn)云模型中提取3D 特征描述子,最后利用這些 3D 特征進(jìn)行目標(biāo)識(shí)別。這類方法不僅適用于復(fù)雜場(chǎng)景下的目標(biāo)識(shí)別,而且在存在遮擋和噪聲的場(chǎng)景下也適用,這類方法具有較高的識(shí)別精度和魯棒性,能實(shí)現(xiàn)多個(gè)目標(biāo)的同時(shí)識(shí)別。參考文獻(xiàn)[16]中,提出了一種基于目標(biāo)表面 3D形狀的識(shí)別方法。該方法是用 Spin Image(旋轉(zhuǎn)圖像)特征來(lái)進(jìn)行物體表面點(diǎn)的匹配,其中 Spin Image 是從3D 點(diǎn)云模型中提取的特征描述子,實(shí)驗(yàn)表明該算法能在比較復(fù)雜和存在遮擋的場(chǎng)景下實(shí)現(xiàn)多目標(biāo)的同時(shí)識(shí)別。另外,在 3D 計(jì)算機(jī)視覺(jué)領(lǐng)域中,在有噪聲和雜亂的場(chǎng)景下,識(shí)別 3D 目標(biāo)是一個(gè)具有挑戰(zhàn)性的問(wèn)題。參考文獻(xiàn)[17]中,提出了一種基于 3D 形狀上下文(3D Shape Context)特征的描述子,該方法和其他方法相比,在存在噪聲和比較雜亂的場(chǎng)景下具有比較高的識(shí)別率。參考文獻(xiàn)[18]中,提出了一種新的 3D特征描述子 VFH(Viewpoint Feature Histogram),VFH用于編碼目標(biāo)的幾何和視點(diǎn)信息。VFH 特征描述子對(duì)在目標(biāo)表面存在有大量噪聲和缺少深度信息的情況下,具有很好的魯棒性。該方法有較高的識(shí)別性能和快速的計(jì)算能力,和其他方法相比,識(shí)別系統(tǒng)可以達(dá)到實(shí)時(shí)的效果,同時(shí)該方法可以用于存在微小幾何變化的目標(biāo)識(shí)別。參考文獻(xiàn)[19]中,也提出了一種新的感興趣點(diǎn)的特征提取方法 NARF(Normal Aligned Radial Features)。NARF 特征描述子包含那些目標(biāo)表面穩(wěn)定且有邊界信息的點(diǎn),即 NARF 能較準(zhǔn)確地描述目標(biāo)的外部形狀輪廓,為目標(biāo)識(shí)別提供了強(qiáng)有力的線索。由此可見(jiàn),基于 3D 特征的方法能比較好地解決在復(fù)雜、存在噪聲和遮擋場(chǎng)景下的目標(biāo)識(shí)別問(wèn)題。

        4 3D 測(cè)試數(shù)據(jù)集

        目前,有很多用于目標(biāo)識(shí)別的 3D 測(cè)試數(shù)據(jù)集。3D 測(cè)試數(shù)據(jù)集包含目標(biāo)的 RGB-D 信息,即彩色-深度信息。圖 5 為一個(gè)碗的彩色圖和深度圖。

        圖5 碗的彩色圖(a),碗的深度圖(b)[8]

        為了方便進(jìn)行 3D 目標(biāo)識(shí)別的研究,不少科研機(jī)構(gòu)提供了用于測(cè)試的數(shù)據(jù)集,目前主要使用的數(shù)據(jù)集包括 Solutions in Perception Challenge Dataset[20]、RGB-D Object Dataset[21]、Berkeley 3D Object Dataset[9]和其他用于特殊應(yīng)用的 3D 數(shù)據(jù)集。下面對(duì)這些 3D 測(cè)試數(shù)據(jù)集作一個(gè)介紹,圖 6 展示了以下各個(gè) 3D 測(cè)試數(shù)據(jù)集的部分?jǐn)?shù)據(jù)。

        (1)Solutions in Perception Challenge Dataset:這個(gè)數(shù)據(jù)集來(lái)源于 Willow Garage,僅包含目標(biāo)實(shí)例。該數(shù)據(jù)集是由在 27 個(gè)不同場(chǎng)景下獲取的 35 個(gè)不同物體組成,如:品牌盒、家用清潔劑瓶等。

        (2)RGB-D Object Dataset:這些數(shù)據(jù)來(lái)源于國(guó)際研究機(jī)構(gòu)和威斯康辛大學(xué),包含 300 個(gè)常用的家用物體,這些物體分為 51 個(gè)類別,每個(gè)類別有 4 到 6 個(gè)實(shí)例物體。數(shù)據(jù)集是將物體放置于受控的轉(zhuǎn)臺(tái)上,用Kinect 3D 攝像頭以每秒 30 幀的速度同步拍攝彩色圖像和深度圖像,在此數(shù)據(jù)集中不存在明顯的視角變化。

        (3)Berkeley 3D Object Dataset:這個(gè)數(shù)據(jù)集包含大量不同類別的物體,且每個(gè)類別都有許多不同的實(shí)例物體。這個(gè)數(shù)據(jù)集的大小不是固定不變的,而是在不斷地增加,該數(shù)據(jù)集第一次發(fā)布就包含了從 75 個(gè)不同場(chǎng)景中獲取的 849 張圖片,超過(guò) 50 個(gè)具有代表性的不同類別的物體。拍攝時(shí)不是將物體放置于受控制的轉(zhuǎn)臺(tái),而是在自然環(huán)境下隨便拍攝,且在該數(shù)據(jù)集中,拍攝的視角和光照都有很明顯的變化。這些數(shù)據(jù)均為在室內(nèi)或者辦公環(huán)境下獲取的,在日常生活中都很常見(jiàn),因此這些數(shù)據(jù)具有很好的代表性和實(shí)用性。

        (4)其他用于特殊應(yīng)用的 3D 數(shù)據(jù)集:除了上面介紹的這些數(shù)據(jù)集以外,還有一些數(shù)據(jù)集用于特殊的應(yīng)用,如:自動(dòng)駕駛[22],行人檢測(cè)[23],輔助駕駛[24]等,它們的特殊性使得這些數(shù)據(jù)集不能用于大規(guī)模的目標(biāo)識(shí)別應(yīng)用。

        圖6 各個(gè) 3D 測(cè)試數(shù)據(jù)集的部分?jǐn)?shù)據(jù)展示圖

        如表 3 所示,將各個(gè) 3D 測(cè)試數(shù)據(jù)集從拍攝場(chǎng)景、視角變化、物體類別等多個(gè)方面作了比較和分析。隨著目標(biāo)識(shí)別技術(shù)的不斷發(fā)展和進(jìn)步,在室內(nèi)或者辦公環(huán)境下,從多個(gè)場(chǎng)景、多個(gè)視角下獲取的大量類別且每個(gè)類別物體實(shí)例多樣化的實(shí)驗(yàn) 3D 測(cè)試數(shù)據(jù)集將是我們所需要的數(shù)據(jù)集。

        目前,在已有的這些 3D 測(cè)試數(shù)據(jù)集的基礎(chǔ)上測(cè)試不同 3D 目標(biāo)識(shí)別算法的性能,其評(píng)價(jià)標(biāo)準(zhǔn)主要包括 4 個(gè)方面的內(nèi)容,即在復(fù)雜場(chǎng)景下算法識(shí)別率、在存在遮擋場(chǎng)景下算法的識(shí)別率、在有噪聲的場(chǎng)景下算法的識(shí)別率、同時(shí)還包括算法的計(jì)算速度。通過(guò)這些評(píng)價(jià)標(biāo)準(zhǔn)可以很直觀的看出不同算法之間的優(yōu)缺點(diǎn)。

        表3 5 種 3D 測(cè)試數(shù)據(jù)集的對(duì)比

        5 結(jié)束語(yǔ)

        本文詳細(xì)介紹了 Kinect 的技術(shù)原理,并對(duì)現(xiàn)有的 3D 目標(biāo)識(shí)別方法進(jìn)行簡(jiǎn)單綜述,同時(shí)對(duì)已有的3D 測(cè)試數(shù)據(jù)集特點(diǎn)進(jìn)行了分析對(duì)比,為讀者提供了一個(gè)較為完整的基于 Kinect 技術(shù)的 3D 物體識(shí)別的現(xiàn)狀分析。目前,已經(jīng)有越來(lái)越多的科研工作者意識(shí)到了 Kinect 的重要作用,在學(xué)術(shù)界,基于 Kinect 的研究在模式識(shí)別、計(jì)算機(jī)視覺(jué)、虛擬現(xiàn)實(shí)和人機(jī)交互等領(lǐng)域成為了近期熱點(diǎn)的研究方向。2012 年中國(guó)計(jì)算機(jī)學(xué)會(huì)在天津舉辦了《學(xué)科前沿講習(xí)班》基于 Kinect研究與應(yīng)用(本文作者亦應(yīng)邀參加),這說(shuō)明國(guó)內(nèi)基于Kinect 的科學(xué)研究也正在不斷發(fā)展和被認(rèn)可。

        在未來(lái),通過(guò) Kinect 獲取的 3D 測(cè)試數(shù)據(jù)集將包含從更廣泛的場(chǎng)景下獲取的、多個(gè)視角的、更多類別的、實(shí)例豐富多樣化的、日常生活常見(jiàn)的目標(biāo)實(shí)例,可以適用于各種應(yīng)用的測(cè)試。另外,3D 目標(biāo)識(shí)別的核心就是從獲取的深度數(shù)據(jù)中提取特征描述子,通過(guò)對(duì) 3D 目標(biāo)識(shí)別方法的綜述可以看出,3D 數(shù)據(jù)能夠提供許多強(qiáng)有力的目標(biāo)線索,如:目標(biāo)大小、形狀、邊界等,從 3D 數(shù)據(jù)中提取各種新的 3D 特征描述子將是未來(lái)的發(fā)展趨勢(shì);同時(shí)充分結(jié)合深度信息和 RGB 信息,將各種特征描述子結(jié)合來(lái)以進(jìn)一步提高目標(biāo)識(shí)別系統(tǒng)的魯棒性和精確度也是進(jìn)一步研究的熱點(diǎn)問(wèn)題。

        [1]卿慧玲, 蔡自興. 移動(dòng)機(jī)器人激光雷達(dá)數(shù)據(jù)的三維可視化方法[J]. 吉林大學(xué)學(xué)報(bào)(信息科學(xué)版), 2004, 22(4): 411-414.

        [2]沐光雨. 基于時(shí)間飛行深度傳感器對(duì)三維物體的建模應(yīng)用研究[D]. 吉林: 吉林大學(xué), 2011.

        [3]Konolige K, Garage W, Park M. Projected texture stereo [C]//Proceedings of IEEE International Robotics and Automation, 2010,3: 148-155.

        [4]Lai K, Bo L, Ren X, et al. A large-scale hierarchical multi-view rgb-d object dataset [C]// IEEE International Conference on Robotics and Automation, 2011: 1817-1824.

        [5]劉鑫, 許華榮, 胡占義. 基于 GPU 和 Kinect 的快速物體重建 [J].自動(dòng)化學(xué)報(bào), 2012, 38(8): 1288-1297.

        [6]狄海進(jìn). 基于三維視覺(jué)的手勢(shì)跟蹤及人機(jī)交互中的應(yīng)用 [D].南京: 南京大學(xué), 2011.

        [7]Tian L, Putchakayala P, Wilson M. 3D Object Detection with Kinect [OL]. http://www.cs.cornell.edu/courses/CS4758/2011sp/final_projects/spring_2011/Li_Putchakayala_Wilson.pdf.

        [8]RGB-D Object Dataset [OL]. http://www.cs.washin gton.edu/rgbd-dataset/index.html.

        [9]B3DO: Berkeley 3-D Object Dataset [OL]. http://ki nectdata.com/.

        [10]Kinect Introduction [OL]. http://en.wikipedia.org /wiki/Kinect.

        [11]Kinect 深度信息的獲取原理 [OL]. http://www.futurepict ure.org/?p=116.

        [12]Kinect 高清拆機(jī)圖文解析 [OL]. http://tv.078.com/20101108/13625_3.shtml.

        [13]Janoch A, Karayev S, Jia YQ, et al. A category-level 3D object dataset: putting the kinect to work [C]// Proceedings of IEEE International Conference on Computer Vision Workshops, 2011:1168-1174.

        [14]Bo L, Ren X, Fox D. Depth kernel descriptors for object recognition[C]// Proceedings of IEEE/RSJ International Conference on Intelligent Robots and Systems, 2011: 821-826.

        [15]Bo L, Ren X, Fox D. Kernel descriptors for visual recognition [C]// Advances in Neural Information Processing Systems, 2010.

        [16]Johnson AE, Hebert M. Using spin images for efficient object recognition in cluttered 3D scenes [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1999, 21(5): 433-449.

        [17]Frome A, Huber D, Malik J, et al. Recognizing objects in range data using regional point descriptors [C]// Proceedings of the European Conference on Computer Vision, 2004: 224-237.

        [18]Rusu RB, Bradski G, Hsu J, et al. Fast 3D recognition and pose using viewpoint feature histogram [C]// Proceedings of the IEEE/RSJ International Conference on Intelligent Robots and System,2010: 2155-2162.

        [19]Steder B, Rusu RB, Konolige K, et al. Point feature extraction on 3D range scans taking into account object boundaries [C]//Proceedings of IEEE International Conference on Robotics and Automation, 2011: 2601-2608.

        [20]Solution in perception challenge [OL]. http:// opencv.willowgarage.com/wiki/http%3A/opencv.willowgarage.com/wiki/Solutions In Perception Challenge.

        [21]Lai K, Bo L, Ren X, et al. A large-scale hierarchical multi-view rgb-d object dataset [C]// Proceedings of IEEE International Conference on Robotics and Automation, 2011: 1817-1824.

        [22]Ford campus vision and lidar dataset [OL]. http://robots.engin.umich.edu/Downloads.

        [23]Walk S, Schindler K, Schiele B. Disparity statistics for pedestrian detection: combining appearance, motion and stereo [C]//Proceedings of European Conference on Computer Vision, 2010:182-195.

        [24]Ess A, Leibe B, Gool LV, et al. Object detection and tracking for autonomous navigation in dynamic environments [J]. The International Journal on Robotics Research, 2010: 1707-1725.

        [25]Microsoft Kinect [OL]. http://www.xbox.com/en-u s/kinect.

        [26]李國(guó)鎮(zhèn). 基于 Kinect 的三維重建方法的研究與實(shí)現(xiàn) [D]. 北京:北京交通大學(xué), 2012.

        [27]UBC Robot Vision Survey [OL]. http://www.cs.ubc. ca/labs/lci/vrs/index.html.

        [28]Helmer S, Little JJ, Lowe DG, et al. Multiple viewpoint recognition and localization [C]// Proceedings of Asian Conference on Computer Vision, 2010: 464-477.

        [29]Sun M, Xu BX, Bradski G, et al. Depth encoded hough voting for joint object detection and shape recovery [C]// Proceedings of European Conference on Computer Vision, 2010: 658-671.

        [30]Rusu RB, Blodow N, Beetz M. Fast point feature histograms(fpfh)for 3D registration [C]// Proceedings of IEEE International Conference on Robotics and Automation, 2009: 3212-3217.

        [31]Lai K, Bo L, Ren X, et al. A large-scale hierarchical multi-view RGB-D object dataset [C]// Proceedings of IEEE International Conference on Robotics and Automation, 2011: 1817-1824.

        猜你喜歡
        特征描述測(cè)試數(shù)據(jù)物體
        In the Zoo
        船舶尾流圖像的數(shù)字化處理和特征描述技術(shù)
        深刻理解物體的平衡
        測(cè)試數(shù)據(jù)管理系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)
        我們是怎樣看到物體的
        目標(biāo)魯棒識(shí)別的抗旋轉(zhuǎn)HDO 局部特征描述
        基于自適應(yīng)粒子群優(yōu)化算法的測(cè)試數(shù)據(jù)擴(kuò)增方法
        空間co-location挖掘模式在學(xué)生體能測(cè)試數(shù)據(jù)中的應(yīng)用
        體育科技(2016年2期)2016-02-28 17:06:21
        為什么同一物體在世界各地重量不一樣?
        基于差異的圖像特征描述及其在絕緣子識(shí)別中的應(yīng)用
        高清中文字幕一区二区三区| 国产偷v国产偷v亚洲偷v| av手机天堂| 91精品国产免费青青碰在线观看 | 久久精品国产91久久性色tv| 91亚洲最新国语中文字幕| av在线免费观看大全| 亚洲精品一品区二品区三品区| 国产成人精品一区二区不卡| 亚洲精品无码人妻无码| 日本精品视频一视频高清| 日本人妻伦理片在线观看| 24小时免费在线观看av| 精品国产一二三产品区别在哪 | 亚洲一区二区三区在线更新| 丝袜美腿福利一区二区| 亚洲第一页综合图片自拍| 亚洲国产成人无码影院| 国内国外日产一区二区| 邻居少妇张开腿让我爽了一夜| 全球av集中精品导航福利| 国产国拍亚洲精品福利| 久久亚洲网站中文字幕| 色欲综合一区二区三区| 中文字幕喷水一区二区| 国产品精品久久久久中文| 高清国产亚洲精品自在久久| 亚洲性无码av中文字幕 | 午夜大片又黄又爽大片app| 中文字幕亚洲精品第一页| 亚洲精品中文字幕乱码影院| 人人爽人人爽人人爽人人片av| 亚洲国产精品国语在线| 一本色道久久88加勒比—综合| 亚洲熟妇丰满多毛xxxx| 无码人妻一区二区三区在线视频| 西西少妇一区二区三区精品| 日本妇人成熟免费2020| 国产性一交一乱一伦一色一情| a√无码在线观看| 亚洲av网一区二区三区成人|