亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于人臉識別與光流追蹤的移動機器人視覺導(dǎo)航方法

        2020-02-18 06:40:14李佺振
        自動化與儀表 2020年1期
        關(guān)鍵詞:光流角點移動機器人

        李佺振,王 強,曾 勇,于 蒙

        (武漢理工大學(xué) 物流工程學(xué)院,武漢430063)

        移動機器人通過跟隨人體目標實現(xiàn)視覺導(dǎo)航是一種較為便捷的方式。近年來,視覺導(dǎo)航機器人被廣泛應(yīng)用于工業(yè)和服務(wù)領(lǐng)域,如載貨機器人[1]、老人看護機器人[2]、智能輪椅[3]等。實時定位目標是移動機器人順利實現(xiàn)跟蹤導(dǎo)航的核心。超聲波傳感器、 單線激光雷達、RGB-D 相機等多種傳感器的應(yīng)用[4],在一定程度上提高了移動機器人跟蹤目標的精度。

        當目標處于多人干擾環(huán)境時,利用RGB-D 相機或雙目立體相機獲取深度信息并結(jié)合骨架跟蹤定位跟蹤目標時,易受深度圖像精度和周圍環(huán)境變化的影響, 導(dǎo)致目標跟蹤的準確性和實時性下降[5]。

        為了提高目標跟蹤的準確性和實時性,在此提出結(jié)合基于OpenCV-Haar 特征提取的人臉檢測與識別算法和KLT 稀疏光流追蹤法的移動機器人視覺導(dǎo)航方法。依據(jù)每個跟蹤目標相貌不同的特點,通過人臉識別算法確定跟蹤目標[6];使用稀疏光流算法提取目標特征點進行跟蹤。在真實環(huán)境中通過Pioneer-LX 機器人, 驗證了基于人臉識別與光流追蹤的視覺導(dǎo)航算法在多人環(huán)境下準確識別并跟蹤目標的實時性和有效性。

        1 FR-KLT 視覺導(dǎo)航方法

        通過人臉識別算法檢測人臉并進行識別確定跟蹤目標,通過Harris 角點檢測算法提取目標特征點[7],使用KLT(Kanade-Lucas-Tomasi)稀疏光流追蹤算法確定目標特征點的運動信息,實現(xiàn)移動機器人跟隨目標移動。KLT 算法效率高、速度快,結(jié)合人臉識別提高了移動機器人視覺導(dǎo)航中目標定位的精度和實時性。

        1.1 目標人臉檢測識別

        實現(xiàn)移動機器人的行人引航需要準確檢測到目標人體,通過人臉檢測與識別進行目標定位。在此,運用OpenCV,在滑動窗口與Haar 特征級聯(lián)分類器檢測[8]的雙機制作用下,進行人臉檢測識別。Haar 特征檢測進行人臉檢測訓(xùn)練后生成一個xml特征池,之后使用固定大小的滑動窗口將待檢測的圖像與特征池進行遍歷比對。進行Haar 特征訓(xùn)練時, 對于輸入的訓(xùn)練圖像制作圖像金字塔模型,如圖1所示,以適應(yīng)不同大小的圖像。由于圖像的任何位置出現(xiàn)人臉的可能性相同,在檢測的過程中使用大小固定的窗口對圖像進行遍歷,將遍歷窗口像素的RGB 通道值與xml 特征池進行比對,從而判斷該圖像是否為人臉,并準確定位目標人臉。

        通過移動機器人攝像機拍攝的視頻流進行目標人臉檢測識別之后,忽視除目標人體外的圖像區(qū)域,突出目標所在的區(qū)域。只對目標所在區(qū)域進行Harris 角點提取,從而減少計算量,提高跟蹤的實時性。

        圖1 圖像金字塔模型Fig.1 Image pyramid model

        1.2 KLT 光流法目標特征點提取

        目前光流追蹤法廣泛應(yīng)用于平面圖像和視頻流圖像的物體追蹤[9]。其中,稠密光流法需要對空間所有像素點進行微分計算,計算量大,實時性不高;稀疏光流法只需要提取目標的特征點并進行跟蹤,計算量大幅下降,能夠有效提高目標跟蹤的實時性。

        KLT 光流法是一種兩幀差分的光流估計算法,利用幀間特征點信息并采用最小二乘方法(最優(yōu)估計方法)實現(xiàn)幀間特征點的匹配。KLT 光流法認為平面圖像所有像素點的速度矢量構(gòu)成光流場,當物體連續(xù)運動時,對應(yīng)圖像上的像素點位置坐標發(fā)生變化,光流場也發(fā)生相應(yīng)改變。假設(shè),圖像上某一點坐標(x,y)在t 時刻的亮度為I(x,y,t),經(jīng)過時間Δt亮度變化到I(x+Δx,y+Δy,t+Δt),當Δt 趨于無窮小時,認為該點的亮度不變,即

        將式(1)泰勒展開,取極值,得到的光流計算基本公式為

        其中

        式中:u,v 為光流場中像素點在x,y 方向的速度分量。通過u,v 求得該點運動速度,測算出該點的運動方向與下一時刻的位置。

        將移動機器人拍攝的目標人體圖像進行灰度處理后,通過人臉檢測識別算法劃分出部分區(qū)域進行Harris 角點(即目標人體的特征點)提取,并進行特征點位移方向預(yù)測。Harris 角點檢測算法通過一個固定窗口對人臉識別劃分的圖像區(qū)域進行檢測,比較檢測前后窗口中像素灰度值變化程度,如果該點的灰度值與周圍圖像灰度值存在較大差距,則認為該點為Harris 角點。窗口中像素點通過高斯濾波公式

        卷積運算后的灰度值為

        式中:a 為窗口沿x 方向的運動;b 為沿y 方向的運動;(a,b)為窗口的移動量;(x,y)為窗口內(nèi)對應(yīng)像素點坐標;I(x,y)表示窗口移動前的灰度值,I(x+a,y+b)表示窗口移動后的灰度值。選取E(a,b)中合適的點作為Harris 角點。對I(x+a,y+b)進行泰勒展開并略去高階無窮小,有

        矩陣M 的2 個特征值λ1,λ2在函數(shù)E(a,b)中反映曲率大小。Harris 角點檢測算法的基本原理[10]如圖2所示,如果這2 個特征值都偏小,則窗口區(qū)域內(nèi)的灰度值趨于常量,灰度變化不明顯,不適合作為特征點;如果2 個特征值一個偏大,一個偏小,則表示該點處于圖像的邊緣區(qū)域,即沿著某一方向的灰度值變化明顯,而沿著另一方向的灰度變化不明顯,也不適合作為特征點;如果2 個特征值都偏大,窗口沿著任意方向的灰度變化都很明顯,則適合作為特征點。

        圖2 Harris 角點檢測算法原理Fig.2 Schematic of Harris corner detection algorithm

        引入響應(yīng)函數(shù)[11]求解角點,即

        其中

        式中:detM 為矩陣行列式;trM 為矩陣的跡;k 為修正系數(shù),取k=0.04~0.06。通過式(7)求出R 值,并設(shè)置相應(yīng)的閾值T, 當R>T 時表明2 個特征值λ1,λ2足夠大,并將該點作為特征點候選點。使用大小為3×3 的窗口檢測特征點候選點, 選出極大值作為該窗口的角點,即特征點。

        但是當局限域Ω 中某些點違反了光流條件或局限域運動不連續(xù),如出現(xiàn)陰影、燈光突然變暗等,所求得的解誤差增大。引入Hessian 矩陣[12]對解進行優(yōu)化。使用Hessian 矩陣條件數(shù)判斷局限域內(nèi)滿足基本約束的程度,篩選出滿足約束條件的特征點進行求解穩(wěn)定的光流矢量?;诠饬鞣匠淌剑?)對x,y求偏導(dǎo)并寫成矩陣形式:

        將Hessian 矩陣定義為

        Hessian 矩陣的條件個數(shù)為

        式中:λmax和λmin分別為矩陣H 的最大特征值和最小特征值。計算每點對應(yīng)Hessian 矩陣的秩和條件數(shù),根據(jù)條件數(shù)設(shè)置秩的許用值σ,大于該許用值的點認為是可靠的特征點,并將其條件數(shù)進行歸一化處理,倒數(shù)作為該特征點的權(quán)重,即

        最后根據(jù)加權(quán)最小二乘法求解特征點的u,v 值。

        2 算法流程

        在此主要針對移動機器人實時拍攝的經(jīng)過人臉識別算法確定識別區(qū)域的視頻影像, 通過KLT稀疏光流法進行特征點追蹤。追蹤算法流程如圖3所示。

        圖3 光流追蹤流程Fig.3 Optical flow tracking flow chart

        當攝像機輸入第1 張圖像, 并進行灰度處理后, 通過人臉檢測識別算法確定追蹤區(qū)域, 然后Harris 角點算法開始檢測待追蹤區(qū)域圖像中的特征點,并繪制與保存這些特征點。當輸入第2 幀灰度圖像后,KLT 光流算法利用加權(quán)最小二乘法求出u,v 值,并計算出下一幀特征點會出現(xiàn)的位置。此時Harris 角點算法計算出來的特征點追蹤到這一位置,之后通過攝像機更新輸入的灰度圖像,Harris 角點算法基于新圖像計算出新的特征點,取代原有特征點數(shù)據(jù),通過KLT 光流算法基于這些特征點測算出它們下一幀出現(xiàn)的位置,并讓這些特征點追蹤到這一位置。如此循環(huán)迭代,實時測算并追蹤特征點以加快移動機器人的追蹤速度。

        3 試驗驗證

        在真實環(huán)境中通過Pioneer-LX 機器人,對所提出的視覺導(dǎo)航算法在多人環(huán)境下準確識別并跟蹤目標的實時性和有效性進行驗證。

        在武漢理工大學(xué)化學(xué)樓310 實驗室的真實環(huán)境內(nèi), 使用Pioneer-LX 移動機器人研究平臺,在Windows 7 系統(tǒng)下, 實現(xiàn)對目標的檢測、 識別與跟蹤。Pioneer-LX 移動機器人通過??低晹z像頭進行圖像捕捉,使用OpenCV 庫2.4.8 版對攝像頭獲取的圖像進行處理。Pioneer-LX 移動機器人實驗平臺如圖4所示。

        圖4 Pioneer-LX 移動機器人實驗平臺Fig.4 Experimental platform of mobile robot Pioneer-LX

        先通過人臉識別算法檢測識別出目標人臉,并劃分出提取特征點的圖像范圍,如圖5所示。由圖可見,右上角對話框?qū)z像頭所傳入的圖像進行提取識別,該對話框中的圓圈標記即為人臉。

        圖5 驗證試驗中人臉識別Fig.5 Face recognition in verification test

        攝像機輸入的圖像經(jīng)過人臉檢測識別劃分特征點檢測區(qū)域后進行灰度處理,然后通過Harris 角點檢測算法提取被劃分的圖像區(qū)域內(nèi)的目標特征點,并將提取出來的特征點繪制顯示在圖像中,如圖6所示。

        圖6 驗證試驗中特征點提取Fig.6 Feature point extraction in verification test

        當目標人體移動時,通過KLT 光流算法對比前后2 幀圖片測算出下一幀圖像的特征點,并更新上一幀圖像的特征點,然后保存特征點數(shù)據(jù)并繪制出跟蹤軌跡, 如圖7所示右下角camera input 圖像框及其放大圖。

        圖7 移動目標特征點跟蹤情況Fig.7 Tracking of moving target feature points

        KLT 光流追蹤算法根據(jù)人體的移動趨勢,追蹤特征點到下一位置,camera input 圖像框中的線條表示目標人體從前一幀到后一幀的移動趨勢,通過追蹤這些特征點實現(xiàn)移動機器人實時追蹤目標人體移動。移動機器人通過判斷特征點的移動趨勢調(diào)節(jié)旋轉(zhuǎn)角度,保證目標人體始終位于移動機器人視野范圍中央;通過激光雷達探測當前位置與目標位置的距離,如果大于設(shè)定的閾值,則朝目標方向運動;如果小于設(shè)定的閾值,便停止運動。如果目標人體移動速度過快,超出了移動機器人攝像頭的視野范圍,移動機器人停止移動并根據(jù)前一幀圖像基于KLT 光流算法測算出人體運動趨勢,進而朝目標運動方向旋轉(zhuǎn)一定角度找尋目標。圖像更新的同時,特征點數(shù)據(jù)也會隨著更新,從而實現(xiàn)KLT 光流追蹤算法的循環(huán)迭代。

        移動機器人在進行目標跟蹤時,偏轉(zhuǎn)角度會隨目標特征點的移動而變化。當目標人體移動時,移動機器人位置變化數(shù)據(jù)見表1。以表中第1 行為例,移動機器人的位置數(shù)據(jù)為:camera input 圖像框?qū)挾葹?00 像素格; 移動機器人初始偏轉(zhuǎn)角度為-101°;當目標中心移動到296 像素格位置時,移動機器人向左偏轉(zhuǎn)3°進行跟蹤。

        表1 追蹤數(shù)據(jù)變化值Tab.1 Tracking data change values

        移動機器人的目標跟蹤效果如圖8所示。當目標人體從圖8a 中的點A1 位置移動到圖8b 中的點A2時,移動機器人追蹤目標人體從圖8a 中的點B1 位置移動到圖8b 中的點B2,偏轉(zhuǎn)角度也發(fā)生相應(yīng)改變。

        圖8 移動機器人目標跟蹤效果Fig.8 Target tracking effect image of mobile robot

        FR-KLT 視覺導(dǎo)航算法與光流追蹤算法[11]跟蹤目標的性能對比如圖9所示。

        圖9 跟蹤性能的對比Fig.9 Comparison of tracking performance

        通過以上結(jié)果,可以驗證基于人臉識別與光流追蹤的視覺導(dǎo)航算法,在真實環(huán)境下準確識別并跟蹤目標的實時性和有效性。

        4 結(jié)語

        所提出的基于人臉識別算法與KLT 稀疏光流追蹤算法的移動機器人視覺導(dǎo)航方法,將人臉檢測與識別應(yīng)用于目標定位, 提高了目標定位的精度。同時, 將通過人臉識別劃分出目標區(qū)域的圖像,使用KLT 光流追蹤算法對目標區(qū)域進行目標特征點提取與測算,減少了計算量,從而提高了目標跟蹤的實時性。通過Pioneer-LX 移動機器人在真實環(huán)境下的試驗,驗證了該視覺導(dǎo)航方法的有效性。該試驗由于Pioneer-LX 的攝像頭數(shù)據(jù)通過服務(wù)器傳到計算機,導(dǎo)致其反應(yīng)速度延遲1~2 s,實際試驗過程中Pioneer-LX 的反應(yīng)速度稍微下降,但相對提高了實時性。

        猜你喜歡
        光流角點移動機器人
        利用掩膜和單應(yīng)矩陣提高LK光流追蹤效果
        移動機器人自主動態(tài)避障方法
        基于物理學(xué)的改善粒子圖像測速穩(wěn)健光流方法研究
        基于FAST角點檢測算法上對Y型與X型角點的檢測
        基于Twincat的移動機器人制孔系統(tǒng)
        基于邊緣的角點分類和描述算法
        電子科技(2016年12期)2016-12-26 02:25:49
        基于圓環(huán)模板的改進Harris角點檢測算法
        融合光流速度場與背景差分的自適應(yīng)背景更新方法
        極坐標系下移動機器人的點鎮(zhèn)定
        基于引導(dǎo)角的非完整移動機器人軌跡跟蹤控制
        欧美人与禽z0zo牲伦交| av免费在线手机观看| h视频在线免费观看视频| 美女网站免费观看视频| 欧美操逼视频| 91精品国产免费久久久久久青草 | 少妇被粗大进猛进出处故事| 国产乱码一区二区三区爽爽爽| 国产一区二区三区美女| 胳膊肘上有白色的小疙瘩| 久久亚洲春色中文字幕久久| 在线看片免费人成视频电影| 国产成人精品日本亚洲18| 国产一区二区三区av免费观看| 国产一区二区三区在线男友| 东京热无码av一区二区| 国产欧美日韩在线观看| 亚洲精彩视频一区二区| 国产毛女同一区二区三区| 亚洲国产午夜精品理论片在线播放| 欧洲中文字幕| 亚洲av乱码国产精品观看麻豆| 蜜芽亚洲av无码精品色午夜| 精品一区二区三区无码免费视频| 人妻人妻少妇在线系列| 自拍偷拍韩国三级视频| 国产丝袜美女一区二区三区| 久久国产36精品色熟妇| 午夜香蕉av一区二区三区| 亚洲最大水蜜桃在线观看| 人妻av无码系列一区二区三区| 精品福利一区| av免费一区二区久久| 国产精品久久久久久一区二区三区| 亚洲妇女水蜜桃av网网站| 日本中文字幕一区二区在线观看| 亚洲人成综合第一网站| 大肉大捧一进一出好爽视频mba| 天天中文字幕av天天爽| 日本一级二级三级不卡| 中国女人做爰视频|