亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于 Kinect的特定人員魯棒識別與定位

        2014-07-20 03:08:05邢關(guān)生劉衛(wèi)朋孫鶴旭
        關(guān)鍵詞:深度特征

        邢關(guān)生,張 慧,劉衛(wèi)朋,孫鶴旭

        (1. 河北工業(yè)大學(xué) 控制科學(xué)與工程學(xué)院,天津 300130;2. 河北省控制工程技術(shù)研究中心,天津 300130)

        基于 Kinect的特定人員魯棒識別與定位

        邢關(guān)生1,2,張 慧1,劉衛(wèi)朋1,孫鶴旭2

        (1. 河北工業(yè)大學(xué) 控制科學(xué)與工程學(xué)院,天津 300130;2. 河北省控制工程技術(shù)研究中心,天津 300130)

        為避免人機(jī)共處時相撞,提出了一種基于 Kinect 視覺的特定人員識別與定位方法.利用 Kinect 傳感器深度圖像中的用戶索引位信息、同步的彩色圖像與深度圖像的對應(yīng)關(guān)系,濾除彩色圖像中的復(fù)雜背景,確定感興趣目標(biāo)區(qū)域.進(jìn)而在彩色圖像內(nèi),基于加速魯棒特征算法(SURF)在連續(xù)幀間完成特征匹配,快速識別特定目標(biāo)人員;在深度圖像內(nèi),采用無跡卡爾曼濾波(UKF)實現(xiàn)了在攝像機(jī)坐標(biāo)系內(nèi)的人員定位.實驗結(jié)果驗證了算法的魯棒性,表明算法能夠適應(yīng)光線變化、目標(biāo)再入和部分遮擋等情況.

        人員識別;Kinect相機(jī);加速魯棒特征;無跡卡爾曼濾波;定位

        0 引言

        為了保證機(jī)器人與人能夠在同一作業(yè)環(huán)境安全、有效協(xié)作完成作業(yè),除了要分析清楚機(jī)器人和人的自身特點、工作內(nèi)容以及各自工作的耦合關(guān)系以外,最基本的是要確保人與機(jī)器人之間的信息交流以保障人的安全[1],這就需要機(jī)器人快速有效的發(fā)現(xiàn)并定位其 “合作伙伴”. 其中的關(guān)鍵問題是如何利用視覺傳感在復(fù)雜的工作環(huán)境中實時的、穩(wěn)健的識別特定人員,并確定其在三維空間中的位置.

        傳統(tǒng)的機(jī)器人視覺傳感器大多采用采用普通的可見光相機(jī),只能獲取周圍環(huán)境的二維圖像,總會受到光照、陰影、物體遮擋的影響.若機(jī)器人想獲知周圍環(huán)境的三維信息,或采用多目相機(jī)、TOF(Time-of-Flight)相機(jī),或借助激光測距儀,容易增加軟件成本和硬件成本,而且在復(fù)雜環(huán)境下進(jìn)行人體識別具有較大難度.近年來,微軟公司推出的 Kinect相機(jī)受到廣泛關(guān)注[2],Kinect相機(jī)價格低廉,深度圖像的分辨率更高,而且在人體識別方面有巨大的優(yōu)勢.已有工作開展了Kinect的人員識別與定位工作.例如,文獻(xiàn) [3] 采用Kinect相機(jī)檢測環(huán)境中的人員,并未研究特定人員的識別與跟蹤;文獻(xiàn) [4] 利用Kinect信息,結(jié)合 Camshift算法對人體實時跟蹤,有效避免光照影響并能區(qū)分不同深度不同位置的目標(biāo);文獻(xiàn) [5] 利用Kinect感知能力和關(guān)節(jié)點數(shù)據(jù)提取能力提出了基于人體結(jié)構(gòu)的向量角和向量模比值的行為表示特征;文獻(xiàn) [6] 則利用Kinect可以提取人體骨架的特點設(shè)計了一個移動機(jī)器人跟蹤人體的系統(tǒng).大多數(shù)基于Kinect的人員識別工作并未針對特定人員,且主要利用深度圖像,放棄了大量可用的彩色圖像.深度圖像的數(shù)據(jù)中僅包含了當(dāng)前視野內(nèi)的人員身份信息,目標(biāo)人員離開后再次返回,身份信息變更,難以基于深度圖像識別目標(biāo).

        目前已有很多的目標(biāo)識別算法:基于模型或幾何,外觀和視圖,局部特征匹配以及基于深度圖像的三維物體時別等.文獻(xiàn) [6] 是基于物體模型的方法,用 CAD 對物體建模,在圖像中對物體描述進(jìn)行匹配,對復(fù)雜物體建模難度較大,此方法普遍應(yīng)用性較差.文獻(xiàn) [7-9] 用基于外觀和視圖的方法,該方法直觀且利于理解,但是穩(wěn)定性差,容易收光照等的影響.基于局部特征的匹配算法主要包括構(gòu)建特征描述符及特征匹配兩部分,其典型代表是 David Lowe提出的尺度不變特征變換 SIFT(Scale Invariant Feature Tranform)[10-11]以及Bay 提出的基于積分圖像的特征描述方法 SURF(Speeded Up Robust Features)[12].在當(dāng)前工藝標(biāo)準(zhǔn)下,構(gòu)建檢測器和描述符的方法相比其他識別算法速度更快、精度更高、魯棒性更強(qiáng).SURF算法是尺度不變特征變換算法(SIFT)的延伸,可重復(fù)性、辨別性、魯棒性更佳,運算速度更快.

        為了在光照條件變化、目標(biāo)暫時離開視野或被遮擋等復(fù)雜條件下識別特定人員,提出綜合彩色圖像和深度圖像的方案.彩色圖像包含豐富的目標(biāo)外觀特征信息,而從深度圖像中能夠快速區(qū)分前景人員與復(fù)雜背景,所提出的方案同時利用兩方面的特點來快速識別期望的特定目標(biāo).首先基于深度圖像分離出目標(biāo)人員所在的感興趣區(qū)域.進(jìn)一步,在對應(yīng)的彩色圖像中,目標(biāo)外觀特征的描述與檢測采用加速魯棒特征算法(Speeded-Up RobustFeatures,簡寫為SURF),穩(wěn)健的在連續(xù)視頻圖像中匹配特定人員特征點,從而實現(xiàn)識別功能;最終基于無跡卡爾曼濾波完成目標(biāo)定位.

        1 Kinect傳感器

        1.1 Kinect簡介

        Kinect是美國微軟公司推出的一款 3D 體感攝影機(jī).2012 年 2 月,繼 Kinect for Xbox 360 之后,微軟又發(fā)布了Kinect forWindows硬件以及Kinect forWindows SDK 1.0 軟件開發(fā)包,用于廣大開發(fā)者進(jìn)行學(xué)術(shù)研究和軟件開發(fā).Kinect forWindows SDK更適合于開發(fā)基于Windows操作系統(tǒng)的應(yīng)用.

        1.2 Kinect相機(jī)模型

        Kinect主要由 3 部分構(gòu)成:RGB相機(jī)(彩色相機(jī)),IR 發(fā)射器(紅外發(fā)射器)、IR 相機(jī)(紅外相機(jī)),其結(jié)構(gòu)如圖1所示.

        Kinect的深度相機(jī)由IR發(fā)射器和IR相機(jī)組成,能獲取視野范圍內(nèi)物體到Kinect的三維空間距離,這也是Kinect技術(shù)的核心.設(shè)三維空間的點 P在深度相機(jī)坐標(biāo)系中的坐標(biāo)為點 P 在深度圖像平面內(nèi)對應(yīng)的像素點坐標(biāo)用 ud,vdT表示,則兩者間的關(guān)系為

        圖1 Kinect結(jié)構(gòu)Fig.1 The structureof kinect

        2 人員識別與定位方法

        2.1 算法框架設(shè)計

        算法框架主要包括 4 部分:圖像采集、預(yù)處理、特定人員識別和目標(biāo)人員定位.圖像采集負(fù)責(zé)獲取Kinect的彩色圖像和深度圖像;而預(yù)處理階段負(fù)責(zé)綜合這兩種圖像,完成感興趣目標(biāo)區(qū)域扣取的任務(wù);目標(biāo)識別模塊中,實現(xiàn)當(dāng)前幀SURF特征點檢測,將預(yù)存儲的模板信息與當(dāng)前場景提取的信息進(jìn)行匹配,識別出目標(biāo)人員;最終應(yīng)用無跡卡爾曼濾波實現(xiàn)特定人員定位任務(wù).需要解釋的是,特征匹配所需的參考特征的獲取分為離線和在線兩方面.一方面是在離線時,即在實時采集圖像進(jìn)行識別之前,專門獲取目標(biāo)人員圖像信息,進(jìn)行特征點提取和描述符創(chuàng)建,形成初始的特征參考模板;另一方面是在線時,若成功完成特征匹配,則將當(dāng)前幀中的特征描述符等信息轉(zhuǎn)存,作為下一幀的參考特征.見圖2.

        圖2 算法框架Fig.2 Thealgorithm framework

        2.2 基于深度圖的感興趣區(qū)域自動提取

        Kinect獲取的彩色圖像就是普通的RGB彩色圖像,分辨率為 640 × 480,傳輸速率為 30 FPS;深度圖像傳輸速率也是 30 FPS,分辨率為 320 × 240.由于深度圖像是以灰度圖的形式顯示的,所以在獲取到深度數(shù)據(jù)信息后,要對其進(jìn)行歸一化處理(像素值 =255 (256 × DepthData/4 095)),使其取值范圍變?yōu)?0 ~ 255,255 表示白色,0 表示黑色,顏色由黑到白表示實際距離由近至遠(yuǎn),純白色區(qū)域也可能表示實際距離超出Kinect探測范圍.

        Kinect的深度數(shù)據(jù)占 16bit,其中高 13 位代表深度信息,低三位被稱為用戶索引位(Play ID位).Play ID共有 8 種狀態(tài):000 ~ 111,其中 000 表示非人體區(qū)域,實際上Kinect一次最多只能檢測出 6 人.

        利用深度數(shù)據(jù)的 Play ID 屬性,可直接獲知深度圖像中的人體區(qū)域,進(jìn)而由第 2 節(jié)中的 Kinect相機(jī)模型,可以快速尋找彩色圖像中人員所在區(qū)域,將背景濾除.預(yù)處理后的圖像只保留感興趣區(qū)域,從而減少后續(xù)SURF算法的特征檢測運算量,極大的縮短了計算時間.

        2.3 基于 SURF 算法的人員特征匹配

        SURF[12]算法以積分圖像為輸入,計算主要包含 3 步:第 1 步,選取關(guān)鍵特征點,即在積分圖像上建立快速 Hessian 矩陣檢測特征點;第 2 步,構(gòu)建特征點的描述符,即利用箱式濾波器建立尺度空間,結(jié)合 Harr小波響應(yīng)圖,創(chuàng)建特征向量作為描述符;第3步,根據(jù)兩幀圖像的描述符進(jìn)行特征點匹配,即利用歐氏距離匹配合適的特征點,從而識別特定目標(biāo).

        2.3.1 積分圖像

        積分圖像 I是SURF算法的輸入.I在像素點 X=x,y 的值用積分值 I X 表示,即從原始圖像 G 左上角到點 x,y 所形成矩形區(qū)域的內(nèi)部所有像素點的灰度值之和,如式(4).

        基于積分圖像 I 定義式 (4),給定原圖像 G 中任意矩形區(qū)域的 4 個頂點像素坐標(biāo),即可快速計算出該區(qū)域的積分值,計算時間與矩形區(qū)域大小無關(guān).SURF算法充分利用了積分圖像的這個性質(zhì),在計算過程中選擇箱式濾波器進(jìn)行快速計算,減少計算時間以提高計算速度.

        2.3.2 基于Hessian矩陣的特征點檢測

        圖像特征點的檢測需基于尺度空間.在尺度空間L中,像素點為X、空間尺度為時的Hessian矩陣為

        為了提升算法性能,SURF算法利用箱式濾波器代替形狀不規(guī)則的 Laplacian 高斯濾波器核,利用積分圖像加快卷積計算,得到全新的Hessian矩陣

        快速Hessian矩陣的行列式為

        使用快速 Hessian 矩陣的行列式來表示圖像中 X 處的特征點響應(yīng)值,對所有像素點進(jìn)行行列式運算,并將所有響應(yīng)值存儲在不同尺度下的響應(yīng)映射中,最后在不同空間尺度下形成特征點響應(yīng)圖像.

        2.3.3 構(gòu)建特征點描述符

        特征描述符實際是一組向量,描述的是由特征點及周圍相鄰像素點一起構(gòu)成的斑點結(jié)構(gòu)的分布情況.創(chuàng)建特征描述符主要分兩步:確定特征點主方向和計算Harr小波響應(yīng).

        為了確保描述符對圖像具有旋轉(zhuǎn)不變性,需要為每個特征點分配一個主方向.創(chuàng)建一個以x方向響應(yīng)為橫坐標(biāo)、y方向響應(yīng)為縱坐標(biāo)的空間,所有小波響應(yīng)在該空間里對應(yīng)為一個響應(yīng)點,然后以張角的扇形窗

        口在該空間里滑動,計算扇形區(qū)域內(nèi)所有響應(yīng)點的累加和,最大的Haar響應(yīng)累加值即為特征點主方向.

        建立一個矩形區(qū)域,以特征點為中心,方向為之前確定的主方向,邊長為 20 s.該矩形區(qū)域被分成4×4矩形子區(qū)域.計算每個子區(qū)域的 Harr 小波響應(yīng),然后對響應(yīng)值進(jìn)行統(tǒng)計形成的特征向量.SURF算法的特征點最終由一個 64 維的特征向量描述.

        由于積分圖像的應(yīng)用,不僅減少了計算特征及匹配的運算時間,而且增加了算法的魯棒性.另外,利用Hessian 矩陣的跡,即拉普拉斯值,建立快速查詢方法,不僅提高了描述符的穩(wěn)定性,而且提高了斑點的匹配速度.

        2.3.4 特征匹配

        在匹配階段,為了加速索引速度,需要借助關(guān)鍵特征點的拉普拉斯值,也就是 Hessian 矩陣的跡.特征點及其周圍小鄰域的像素點一起組成斑點結(jié)構(gòu),按照亮度的不同,可以將特征點分為兩種:黑暗背景中的亮斑點和明亮背景中的暗斑點.這個特征已經(jīng)在檢測階段計算出來了,所以不會增加額外的計算量.根據(jù)拉普拉斯值的符號就可以區(qū)別出這兩種斑點結(jié)構(gòu):若符號為正,則為亮斑點;若符號為負(fù),則為暗斑點.在快速索引階段,可以直接判斷拉普拉斯值進(jìn)行特征點相似性度量的篩選工作:如果兩個斑點的拉普拉斯值同號,說明斑點與背景之間的對比度相同;否則,兩個斑點的對比度不同,直接放棄進(jìn)一步的比較.兩個斑點結(jié)構(gòu)的對比度不同,說明兩個點之間沒有匹配成功.

        因此,在匹配階段只需要匹配具有相同對比度的特征點,所以在不降低描述符性能的前提下,允許利用最低限度的信息進(jìn)行快速匹配.這種利用少量信息進(jìn)行快速查找的索引方法,優(yōu)越于眾多的索引方法當(dāng)中是一種優(yōu)勢.

        最后,在篩選出來的特征點中采用歐氏距離法進(jìn)一步運算,匹配出具有相同特征的特征點.

        2.4 基于 UKF 的目標(biāo)人員定位

        利用特征檢測識別出了目標(biāo)人員區(qū)域,采用無跡卡爾曼濾波(UKF)[14]方法實現(xiàn)對目標(biāo)人員的定位.首先計算出目標(biāo)人員的質(zhì)心在彩色圖像空間中的坐標(biāo),根據(jù)坐標(biāo)變換確定其在深度圖像空間以及攝像機(jī)坐標(biāo)系中的位置.進(jìn)而,利用UKF濾波器,根據(jù)當(dāng)前測量值和上一時刻對當(dāng)前時刻的預(yù)測值實現(xiàn)當(dāng)前時刻目標(biāo)人員位置的估計.

        UKF方法在解決非線性濾波問題時在精度和穩(wěn)定性方面都優(yōu)于EKF.UKF不必進(jìn)行線性化而直接用UT方法,用一組確定的采樣點來近似后驗概率.當(dāng)高斯型狀態(tài)向量由非線性系統(tǒng)進(jìn)行傳遞時,對任何系統(tǒng),都能精確到三階的后驗均值和協(xié)方差.

        2.4.1 UT變換

        UT變換是UKF算法的核心和基礎(chǔ),其思想是:在確保采樣均值和協(xié)方差分別為x 和 Pxx的前提下,選擇一組點集(Sigma點集),將非線性變換應(yīng)用與采用的每個Sigma點集,得到非線性轉(zhuǎn)換后點集y 和 Pyy.

        UT變換如下:

        1) 根據(jù)輸入變量 x的x 和 Pxx,選擇 Sigma 點集, 以及對應(yīng)的權(quán)值和

        2)計算 2n+1 個取樣點 xi及響應(yīng)的權(quán)值 wi

        3)對每個Sigma點進(jìn)行 f 非線性變換,得到變換后的Sigma點集 yi

        4)對點集 yi進(jìn)行加權(quán)處理,得到輸出變量 y 的統(tǒng)計量y 和 Pyy

        2.4.2 UKF算法

        在UKF算法中,由于有噪聲項,需要對狀態(tài)方程進(jìn)行擴(kuò)維,初始條件為

        初始擴(kuò)維條件,即

        簡化 UKF 算法為:1)Sigma 點采樣;2)利用狀態(tài)方程傳遞采樣點;3) 利用預(yù)測采樣點,權(quán)值計算預(yù)測均值和協(xié)方差;4) 利用 2) 預(yù)測測量采樣點;5) 預(yù)測測量值和協(xié)方差;6) 計算 UKF 增益,更新狀態(tài)向量和方差.

        3 實驗及結(jié)果分析

        為測試人員目標(biāo)識別與定位方法的有效性,基于VisualStudio 2010 開發(fā)了算法測試軟件,Kinect彩色相機(jī)和深度相機(jī)的圖像采集速率均為每秒 30 幀.軟件主界面如圖3 所示,在識別目標(biāo)之前,通過點擊“Target Acquisition”,獲取特定人員目標(biāo)圖像 (在界面右側(cè)的Sample Image部分顯示的是預(yù)處理后的目標(biāo)圖像).再點擊“Shoot”按鈕,完成特定目標(biāo)圖像的特征點提取、描述符創(chuàng)建,形成特定目標(biāo)的模板.先后點擊“Work Scene”和“Track”按鈕,開始執(zhí)行目標(biāo)識別和定位任務(wù),現(xiàn)場場景的實時彩色圖像和深度圖像分別顯示在界面左側(cè)的Color和 Depth部分,被識別的特定目標(biāo)人員可由紅色矩形框圈定.圖3 展示的是場景中近距離僅有特定目標(biāo)一人的情況,驗證了算法的基本識別能力.

        圖3 人員識別主界面Fig.3 Themain interfaceof person identification

        進(jìn)一步,為測試方法在多種不同條件下的有效性,分別完成以下幾組實驗.

        實驗1:目標(biāo)人員姿態(tài)發(fā)生改變時,也能有效識別目標(biāo),如圖4所示.

        圖4 不同姿態(tài)人員識別圖Fig.4 Personal identification of differentattitude

        實驗 2:特定目標(biāo)暫時離開 Kinect視野,由不同非目標(biāo)人員干擾一段時間,之后再次進(jìn)入視野范圍也能正確識別特定目標(biāo)人員,結(jié)果如圖5 顯示.表明算法不完全依賴深度圖像中的PlayID數(shù)據(jù),能夠避免人員誤判,正確區(qū)分不同目標(biāo)的外觀特征.

        實驗 3:多人共存,特定目標(biāo)被部分遮擋,結(jié)果如圖6.通過實驗測試發(fā)現(xiàn),當(dāng)被跟蹤目標(biāo)被遮擋部分低于 50%時,具有較高的識別成功率.另外,識別成功率也與特定人員未被遮擋部分的著裝有關(guān).

        圖5 目標(biāo)再入Fig.5 TargetReentry

        通過 3 組實驗可以證明:基于Kinect視覺的SURF算法能夠成功識別特定目標(biāo)人員,計算速度較快,能夠適應(yīng)Kinect彩色和深度相機(jī)的幀速率,對于光照變化、遮擋等具有較強(qiáng)的魯棒性和穩(wěn)定性.

        算法在識別出特定人員的同時,利用UKF實時更新人體中心在Kinect深度相機(jī)坐標(biāo)系下的坐標(biāo),繼而計算出人體相對光軸方向的偏角和到相機(jī)的距離,8次實驗得到結(jié)果如表1所示.

        4 結(jié)論

        在室內(nèi)復(fù)雜背景下,基于SURF和UKF的目標(biāo)人員實時識別和定位方法,能夠應(yīng)對光照變化、遮擋等問題.方法利用Kinect深度傳感器和彩色傳感器間的映射關(guān)系對深度圖像扣取的人體區(qū)域預(yù)處理,得到濾除復(fù)雜背景干擾的彩色圖像;然后用SURF算法識別目標(biāo)人員,節(jié)約了運算時間,減少了計算量,提高了運算速度;最后應(yīng)用無跡卡爾曼濾波算法實現(xiàn)了實時目標(biāo)人員定位功能.通過實驗已經(jīng)驗證了所設(shè)計方法在特定人員的識別與定位方面的優(yōu)勢,未來的工作在于設(shè)計外部的輔助定位系統(tǒng),測試并優(yōu)化算法定位性能.

        圖6 遮擋實驗Fig.6 Experimentof Occlusion

        表1 人員定位實驗Tab.1 Experimentof Personalpositioning

        [1]GoodrichM A,Schultz AC.Human-robotinteraction:asurvey[J].Foundationsand trendsinhuman-computerinteraction,2007,1(3):203-275.

        [2]Han JG,Shao L,Xu D,et al.Enhanced Computer Vision w ith M icrosoft Kinect Sensor:A Review [J].IEEE Transactions on Cybernetics,2013,43(5):1318-1334.

        [3]Xia L,Chen CC,Aggarwal JK.Human detectionusingdepth informationby Kinect[C]//Proceedingsof2011 IEEEComputerSociety Conference on Computer Vision and Pattern RecognitionWorkshops.IEEEComputer Society,2011:15-22.

        [4] 韓旭.應(yīng)用Kinect的人體行為識別方法研究與系統(tǒng)設(shè)計 [D].濟(jì)南:山東大學(xué),2013.

        [5]Machida E,Cao M,Murao T,etal.Humanmotion tracking ofmobile robotw ith Kinect3D sensor[C]//Proceedingsof IEEE 2012SICEAnnual Conference.SICE,2012:2207-2211.

        [6]Chen Y,JiZC,Hua C J.3-Dmodelmatching based on distributed estimation algorithm[C]//Proceedingsof 2009Chinese Controland Decision Conference.IEEEComputer Society,2009:5063-5067.

        [7]SchieleB,Crow ley JL.Recognitionw ithoutcorrespondenceusingmultidimensional receptive field histograms[J].International JournalofComputer Vision,2000,36(1):31-50.

        [8]PontilM,VerriA.Supportvectormachines for3D objectrecognition[J].IEEETransactionson Pattern AnalysisandMachine Intelligence,1998,20(6):637-646.

        [9]Roth D,Yang M H,Ahuja N.Learning to recognize three-dimensionalobjects[J].NeuralComputation,2002,14(5):1071-1103.

        [10]Lowe DG.Object recognition from localscale-invariant features[C]//Proceedingsof the7th IEEE InternationalConferenceon Computer Vision.IEEE,1999,2:1150-1157.

        [11]LoweDG.Distinctive image features from scale-invariantkeypoints[J].International Journalof Computer Vision,2004,60(2):91-110.

        [12]Bay H,Tuytelaars T,Van Gool L.Surf:Speeded up robust features[C]//Proceedings of the 9th European Conference on Computer Vision.Springer,2006:404-417.

        [13]Smisek J,Jancosek M,and Pajdla T.3Dw ith Kinect[C]//Proceedingsof the IEEE InternationalConferenceon ComputerVision.IEEE,2011:1154-1160.

        [14]Wan EA,VanDerMerweR.Theunscented Kalman filter fornonlinearestimation[C]//Proceedingsof the IEEE 2000Adaptive Systems forSignal Processing,Communicationsand Control Symposium.IEEE,2000:153-158.

        [責(zé)任編輯 代俊秋]

        Robust recognition and localization of specific persons using kinect

        XING Guan-sheng1,2,ZHANG Hui1,LIU Wei-peng1,SUN He-xu2
        (1.School of Control Science and Engineering,Hebei University of Technology,Tianjin 300130,China;2.Control Engineering Technology Research Center of Hebei Province,Tianjin 300130,China)

        A Kinect-based person recognition and localizationmethod is proposed to avoid collisions during the co-existenceofhumanand robots.Firstly,by using theplayerindex datain Kinectdepth imagesand the correspondencebetween synchronized depth and RGB images,thebackground in RGB image is rejected toattain the interesttargetarea.Secondly, Speeded-Up Robust Features(SURF)algorithm is used to detect features rapidly in sequential RGB images and then recognize the specific person.Finally,the person's position is estimated using Unscented Kalman Filter(UKF).Experientialresultsverify thealgorithm robustnessand show thatthemethod can adaptto those casesof lightchanging,target re-entering and partialocclusion.

        person recognition;kinectcamera;speeded-up robust features;unscented kalman filter;localization

        1007-2373(2014)05-0001-07

        TP18

        A

        10.14081/j.cnki.hgdxb.2014.05.001

        2014-09-12

        國家自然科學(xué)基金(61203275);河北省自然科學(xué)基金(F2013202101,F(xiàn)2012202100);河北省科技支撐計劃指導(dǎo)項目(13211827)

        邢關(guān)生(1980-),男(漢族),講師,博士.

        猜你喜歡
        深度特征
        抓住特征巧觀察
        深度理解一元一次方程
        新型冠狀病毒及其流行病學(xué)特征認(rèn)識
        如何表達(dá)“特征”
        不忠誠的四個特征
        深度觀察
        深度觀察
        深度觀察
        深度觀察
        抓住特征巧觀察
        天堂草原电视剧在线观看图片高清| 国产免费成人自拍视频| 麻豆精品国产专区在线观看| 色婷婷亚洲精品综合影院| 久久精品国产精品亚洲毛片| 如何看色黄视频中文字幕| 人妻少妇被粗大爽视频| 一本加勒比hezyo无码专区 | 99在线精品免费视频九九视| h国产视频| 国产免费人成网站在线播放| 中文字幕乱码在线人妻| 日日婷婷夜日日天干| 精品国产18禁久久久久久久| 91亚洲国产成人久久精品网站| 精品国产精品久久一区免费式| 久久99精品九九九久久婷婷| 人妻丰满多毛熟妇免费区| 在线观看日韩精品视频网站| 蜜桃av噜噜一区二区三区策驰| 99久久久无码国产精品6| 欧美国产亚洲精品成人a v| 蜜桃一区二区三区在线视频| 亚洲人成在线播放网站| 亚洲精品无码久久久久av麻豆| 国产高清国内精品福利99久久 | 风韵丰满熟妇啪啪区99杏| 闺蜜张开腿让我爽了一夜| 加勒比无码专区中文字幕| 亚洲av中文字字幕乱码软件| 小雪好紧好滑好湿好爽视频| 熟妇人妻无码中文字幕| 亚洲日本无码一区二区在线观看| 一本色道久久亚洲av红楼| 巨人精品福利官方导航| 国产2021精品视频免费播放| 一级午夜理论片日本中文在线| 老熟妇乱子交视频一区| 亚洲av无码国产剧情| 杨幂Av一区二区三区| 青青草国产手机观看视频|