亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于計算機視覺的輪椅跟隨系統(tǒng)設(shè)計

        2021-05-26 03:13:20唐達明周瑩亮戴慶瑜
        計算機工程與應(yīng)用 2021年10期
        關(guān)鍵詞:輪椅特征目標

        李 艷,唐達明,2,周瑩亮,戴慶瑜

        1.陜西科技大學 電氣與控制工程學院,西安710021

        2.陜西農(nóng)產(chǎn)品加工技術(shù)研究院,西安710021

        隨著人口老年化逐漸加劇,老年人的看護需求快速增加。在醫(yī)院、養(yǎng)老院和一些醫(yī)療條件好的看護機構(gòu),老年人和殘疾人的數(shù)量多,生活自理能力較差,需要大量的看護人員來進行看護,由于看護任務(wù)大,使得看護很難做到面面俱到,因此如何保障老年人和處于康復階段的人群的生活質(zhì)量迫在眉睫[1]。對于他們來說,久坐和長時間的躺臥均不利于身體健康,他們不能長時間行走,為了更快地恢復身體又需要經(jīng)常鍛煉,他們需要一種不僅能夠?qū)崿F(xiàn)日常代步功能,而且能夠在鍛煉身體的時候?qū)λ麄兊陌踩M行監(jiān)護,當身體鍛煉結(jié)束后能得到及時休息的智能輔助工具,因此設(shè)計一款具有目標自動跟隨功能的輪椅顯得尤為重要[2]。

        目前的跟隨輪椅主要使用兩種傳感器,一種是距離傳感器,另一種是視覺傳感器。與傳統(tǒng)的距離傳感器如雷達[3]、激光[4]、紅外線[5]等相比,計算機視覺傳感器具有以下優(yōu)點:(1)不會受系統(tǒng)中其他傳感器的干擾而影響檢測精度;(2)具有與被觀測的對象無接觸、直觀快速和測量范圍廣的優(yōu)點;(3)具有對特定目標識別的優(yōu)點,能夠同時采集視野中的多個信息用于各種功能的使用,例如檢測摔倒、回傳圖片及環(huán)境信息等。因此目前對基于視覺的輪椅自動跟隨控制方式開展了大量研究,并取得了豐碩的研究成果[6]。Μotokucho 等人[7]設(shè)計并實現(xiàn)了一種基于視覺的動力輔助輪椅跟隨控制系統(tǒng),其采用光流矢量提取前方目標人員腿部的特性,進而確定目標人員相對于輪椅的位置,完成跟隨,但是當周圍存在較多的干擾人員時,會造成目標人員的腿部信息被嚴重遮擋,只能應(yīng)用于簡單的環(huán)境中。包加桐等人[8]設(shè)計了一種電動輪椅跟隨目標人物移動的控制系統(tǒng),利用TLD(Tracking-Learning-Detection)跟蹤算法跟蹤視頻圖像中的目標人員,同時結(jié)合深度圖像,得到目標人員位置信息,但是由于只使用單一的顏色特征作為目標的跟蹤特征,在室外環(huán)境中目標跟隨的過程容易受到光照和其他相似目標的影響,造成目標的丟失問題[9]。

        目前,國內(nèi)外學者對基于視覺的輪椅自動跟隨控制方式開展了大量研究,但這些控制方式大多需要輪椅用戶在大型室內(nèi)環(huán)境或室外簡單環(huán)境中他人的引導或陪伴。由于輪椅目標跟隨控制方式的復雜性,仍存在一些問題需要繼續(xù)研究和探索:(1)大多數(shù)的輪椅跟隨系統(tǒng)需要手動初始化待跟蹤的目標,這樣降低了系統(tǒng)的便捷性,而且在一定程度上增加了人為誤差;(2)輪椅目標跟隨系統(tǒng)采用單一的特征作為目標跟蹤特征,當出現(xiàn)外觀相似的目標時,容易造成目標跟蹤失敗,而且在復雜背景下,容易對目標跟蹤的準確性造成一定的干擾。

        針對以上問題,本文設(shè)計的輪椅跟隨系統(tǒng)圍繞如何在光照變化、目標遮擋以及復雜背景下提高傳統(tǒng)目標跟蹤算法的跟蹤精度和準確率,進而應(yīng)用于嵌入式設(shè)備中,實現(xiàn)輪椅對目標穩(wěn)定、安全地跟隨。

        1 輪椅的目標檢測與跟蹤算法

        由于傳統(tǒng)的目標跟蹤算法無法自動完成目標的初始化,一般需要手動選取視頻序列第一幀的目標圖像作為搜索框,因此傳統(tǒng)的目標跟蹤算法屬于半自動的跟蹤算法,而且在一定程度上手動初始化目標的搜索窗口也會造成人為誤差?;谏疃葘W習的目標跟蹤算法需要前期進行大量的訓練,在目標發(fā)生變化時需要重新進行訓練,且需要性能強大、計算速度較快的計算機進行實現(xiàn),再加上在實際應(yīng)用中需要高性能的處理器來部署算法,增加了工程應(yīng)用的成本。因此本文提出的輪椅目標檢測與跟蹤算法,首先利用目標檢測算法對目標進行初始化,當檢測到目標后目標檢測算法自動失效,再啟動目標跟蹤算法,當目標長時間丟失時跟蹤算法失效,這時又重新啟動目標檢測算法,這樣既避免了目標的丟失,又避免了手動初始化搜索窗口的弊端。

        1.1 自適應(yīng)高斯混合建模的背景減除法

        背景減除法[10]是一種通過數(shù)學模型,先建立背景模型,然后再進行差分運算,最后完成目標檢測的方法,因此背景模型的好壞決定了目標檢測能否準確。高斯混合模型(Gaussian Μixture Μodel,GΜΜ)是構(gòu)建背景模型常用的方法之一。高斯混合模型通過對各像素點的顏色值變化與高斯概率分布的匹配情況,完成對權(quán)重、均值和協(xié)方差等參數(shù)的更新,使得背景像素值服從某幾個高斯分布函數(shù),實現(xiàn)聚類分布,從而實現(xiàn)對背景的建模[6]。

        高斯混合模型在參數(shù)更新時,首先對各像素點均值以隨機數(shù)0~255 進行初始化,賦予各像素點權(quán)值w=1/k,通過判斷圖像變化后的像素值xt與高斯概率分布的匹配情況,進行相應(yīng)的參數(shù)更新。匹配判斷的條件為:

        式(1)中,當D 取2.5時一般效果最好,σi,t-1為協(xié)方差,μi,t-1為均值。

        如果得到的分布能夠匹配,則對權(quán)值參數(shù)以如下規(guī)則更新:

        式(2)中,α 為權(quán)值的學習速率,0 <α <1;ρ 為參數(shù)更新速率,如式(5)所示:

        其中,t 時刻第j 個高斯分布函數(shù)η,如式(6)所示:

        如果得到的分布部分無法匹配,則保持均值和標準差的值不變,其權(quán)重更新方式如式(7)所示:

        當分布均未達到匹配條件時,對wi/σi進行替換,賦權(quán)重較小值w=1/10,標準差σ=6。

        當參數(shù)更新完成后,以ri=wi/σi進行排序,并歸一化權(quán)值,之后對當前幀和構(gòu)建的背景模型進行差分運算,得到前景目標[11]。

        混合高斯模型通過對每個像素構(gòu)造多個模型,可以對復雜情況下的背景模型實現(xiàn)有效的構(gòu)建,但該算法對構(gòu)建模型的時間消耗過長,并且學習率α 設(shè)置的不同將直接影響目標的檢測結(jié)果。同時α 的設(shè)置需要根據(jù)背景復雜度的不同進行手動調(diào)整,而自適應(yīng)目標檢測算法能夠根據(jù)背景的變換,實時更新背景模型,以適應(yīng)外部環(huán)境引起的變化,不需要手動調(diào)整學習率α,因此將兩者進行結(jié)合,提出了自適應(yīng)高斯混合建模的背景減除法。針對高斯混合模型存在的問題進行如下的改進:

        (1)引入?yún)?shù)ck來記錄匹配第k 個高斯分量的觀測值個數(shù),高斯分布個數(shù)為k。

        首先,采用包含最大后驗概率P( ηk|xk)的高斯分布權(quán)值,利用迭代的方法對權(quán)重進行更新:

        然后,利用qk( xt)對觀測值以及高斯分布函數(shù)進行更新:

        最后,完成對均值和協(xié)方差的更新:

        其中,ηk為高斯分布函數(shù),σk為協(xié)方差,μk為均值,α為權(quán)值的學習速率。

        為了驗證本文提出的算法,分別對本文算法,以及將學習率設(shè)置為0.05 和0.20 時的高斯混合模型的背景減除法分別進行仿真,并且對仿真結(jié)果進行對比分析,仿真結(jié)果如圖1~圖3所示。

        圖1 學習率為0.05時高斯混合算法處理結(jié)果

        圖2 學習率為0.20時高斯混合算法處理結(jié)果

        圖3 自適應(yīng)高斯混合模型算法處理結(jié)果

        由圖1~圖3 可以看出,當學習率設(shè)置為0.20 時,高斯混合背景建模的背景減除法構(gòu)建的背景相比于在學習率0.05時更加清晰,但得到的目標缺失了局部邊緣重要的信息,造成目標檢測的結(jié)果不佳。而自適應(yīng)高斯混合建模的背景減除法所構(gòu)建的背景更加清晰,包含的信息更加豐富,且背景不存在當前的目標殘影,使得檢測到的運動目標輪廓更加清晰。

        改進算法與原算法對圖像處理的時間對比如表1所示,改進算法相比于高斯混合背景建模的背景減除法,不需要根據(jù)環(huán)境的不同設(shè)置學習率,且處理速度有一定的提高。

        表1 改進算法與高斯混合算法處理時間對比

        1.2 基于粒子濾波的TLD跟蹤算法

        TLD 跟蹤算法把傳統(tǒng)的目標跟蹤算法與檢測算法相結(jié)合,并通過學習模塊來對跟蹤模塊中的結(jié)果進行評估,從而對檢測模塊中的分類器不斷更新,實現(xiàn)了對目標的長時間跟蹤,并能夠在一定程度上克服目標姿態(tài)的變化問題[12]。TLD算法由跟蹤器、學習器和檢測器三部分構(gòu)成,但其跟蹤模塊使用LΚ 光流法采用單一的灰度特征對目標進行跟蹤,易受到光照干擾和遮擋因素的影響;并且檢測器在掃描檢測的過程中,會計算大量與目標無關(guān)的信息,導致計算量增大,使檢測模塊的計算速度變慢[13]。

        針對上述問題,提出了一種基于多特征融合的粒子濾波算法與TLD算法相結(jié)合的新算法來對目標實現(xiàn)跟蹤,減少了TLD 算法中單一灰度特征在背景復雜和有相似目標情況下的干擾,同時融合馬爾科夫模型的方向預判算法對檢測模塊進行改進,減少了對掃描窗中大量不包含目標的計算,從而避免了不必要的大量計算對資源的消耗,提高了檢測模塊的計算速度。算法的總體架構(gòu)如圖4所示。

        圖4 改進的TLD算法結(jié)構(gòu)框圖

        本文的改進算法將粒子濾波跟蹤算法代替TLD跟蹤算法中的跟蹤器,原先的TLD 跟蹤算法中的跟蹤器只采用單一灰度特征難以對目標形成穩(wěn)定的跟蹤,因此本文采用的方法是將目標的顏色特征、紋理特征和HOG特征進行融合,利用多特征融合完成對目標的穩(wěn)定跟蹤。首先使用表示目標與候選區(qū)域相似性的Bhattacharyya系數(shù)對目標的顏色特征、紋理特征和HOG 特征進行各自似然函數(shù)求解,公式如下:

        其中,ρ 為Bhattacharyya式的系數(shù),系數(shù)越大,說明目標模型與候選目標的相似度較大。將式(14)代入似然函數(shù)得到下式:

        其中,Mi-1表示要跟蹤的目標,即上一幀的跟蹤目標,Hi表示此時的候選目標。當式(14)似然函數(shù)計算的結(jié)果越大時,說明目標Mi-1與候選目標Hi的相似性較大。同理可得三種特征分量的似然函數(shù)如下:

        在場景變換較大的目標跟蹤過程中,對目標與背景差異較大的特征賦予較高的權(quán)重,使用權(quán)重較大的特征對目標進行跟蹤的可靠性更大。

        因此,在跟蹤過程中,隨著場景的變化,要對三種特征定義多特征集F=( f|f ∈( c,t,h )),計算不同特征下目標模型與候選目標模型的相似度以及與目標和背景的相似度,融合權(quán)重wf,進而得到總的目標的相似性,如式(17)所示:

        利用特征區(qū)分度因子定義歸一化權(quán)重為:

        以單變量非線性系統(tǒng)為模型,完成仿真測試,如式(21)所示,粒子初值x0=0.1,迭代次數(shù)t=100,粒子數(shù)N=500,過程噪聲Vk和觀測噪聲Wk均值和方差設(shè)為0和1:

        算法仿真對比圖如圖5 所示。圖5(a)為單一特征粒子濾波算法和多特征融合粒子濾波算法的均方根誤差對比,仿真結(jié)果表明,多特征融合的粒子濾波的均方根誤差更?。粓D5(b)為粒子濾波的狀態(tài)估計值與真實值的比較,與基于單一特征的粒子濾波算法相比,多特征融合的粒子濾波算法的狀態(tài)估計值更接近于真實狀態(tài),與系統(tǒng)的擬合效果更好,仿真結(jié)果說明多特征融合的粒子濾波算法精度更高。

        圖5 算法仿真結(jié)果對比

        在將粒子濾波跟蹤算法代替TLD跟蹤算法中的跟蹤器后,同時改進TLD的檢測模塊,在檢測模塊中融合馬爾科夫模型方向預判算法,能夠根據(jù)上一幀目標的運動方向,預測出當前幀目標可能出現(xiàn)的區(qū)域,并選取合適的掃描窗對目標可能出現(xiàn)的區(qū)域進行檢測,提高檢測模塊的工作效率。因此本文改進算法的基本步驟如下:

        (3)計算特征權(quán)重。根據(jù)當前粒子分布,利用式(22)狀態(tài)轉(zhuǎn)移矩陣,可計算得到特征的權(quán)重,并歸一化。

        其中,R( St=1) 表示在t 時刻目標向右運動的概率,R( St=-1) 表示在t 時刻目標向左運動的概率。如果在t 時刻目標向右運動,則R( St=-1) =0;如果在t 時刻目標不發(fā)生運動,則R( St=-1) =0.5。

        (4)進行粒子重采樣,估計待跟蹤的目標當前幀的狀態(tài)。

        (5)使用上一步產(chǎn)生的正負樣本來構(gòu)建目標模型,初始化跟蹤器和級聯(lián)分類器并進行訓練。

        (6)利用改進的檢測模塊中具有方向預測的掃描窗口對可能目標的窗口進行掃描,確定可能包含目標的掃描窗。

        (7)綜合判斷跟蹤器和檢測器的結(jié)果。判斷目標在當前幀中是否被成功跟蹤,對目標模型進行在線更新并判斷是否需要對獲得的正負樣本進行學習。

        (8)學習器分類訓練結(jié)果。若綜合模塊認為需要對檢測器進行進一步訓練,則學習器利用新的正負訓練樣本對級聯(lián)分類器訓練并更新相關(guān)參數(shù)。

        (9)顯示當前幀的跟蹤結(jié)果,繼續(xù)執(zhí)行(2)~(8)的步驟直到跟蹤結(jié)束。

        在實際應(yīng)用中,目標可能處于復雜多變的環(huán)境中,如圖6 所示,在室外場景存在光照變化、樹葉擺動以及行人的復雜情況下,對本文提出的目標跟蹤算法與粒子濾波算法以及TLD算法進行仿真對比。實驗中粒子數(shù)目為100,設(shè)置優(yōu)先級閾值為0.95。

        三種算法在剛開始存在光照的情況下都能跟蹤到目標,如圖6(a)所示;但當目標開始前進,迎面過來行人干擾且發(fā)生局部遮擋的情況下,其他兩種算法對目標的跟蹤發(fā)生了漂移現(xiàn)象,產(chǎn)生大量偏移目標的粒子,導致目標跟蹤的準確性下降,而本文采用的算法依舊能夠跟蹤到目標,如圖6(b)和圖6(c)所示;在光照發(fā)生變化與目標全部遮擋的情形下,本文提出的算法采用多特征融合與馬爾科夫預測方法能夠?qū)崿F(xiàn)對光照變化和遮擋情況下的目標跟蹤,而其他兩種算法在目標受到完全遮擋的情況下,粒子分布過于分散,因此發(fā)生了目標丟失問題,導致目標跟蹤失敗,如圖6(d)和圖6(e)所示。

        圖6 本文算法與其他算法在復雜情況下仿真對比圖

        如圖7 所示,圖中數(shù)據(jù)為通過隨機采樣獲得的100個粒子中部分粒子的坐標值以及權(quán)重值,權(quán)重的范圍為0.982 4~0.991 8(圖中為經(jīng)過歸一化處理后的數(shù)值,真實數(shù)值需要再乘上粒子的總數(shù)N=100),可以看出權(quán)重都大于設(shè)定的閾值0.95,保證了粒子濾波在跟蹤目標特征時的準確性。

        圖7 粒子坐標和權(quán)重的采樣值

        如圖8所示,為了更清晰直觀地看出跟蹤算法在目標跟蹤過程中的準確性,繪制三種算法在復雜情況下的跟蹤重疊率曲線對比圖。從圖中可以看出,在第10 幀到25幀和第37幀到45幀的跟蹤中,由于發(fā)生了目標的遮擋和光照的變化,其他兩種算法在目標跟蹤時重疊率迅速下降導致目標丟失,跟蹤失敗。此時,本文提出的算法目標跟蹤的重疊率雖然有所下降,但依舊保持在0.67 左右,說明在目標遮擋和光照變化的情況下,能夠?qū)崿F(xiàn)對目標的跟蹤,跟蹤效果較好。

        圖8 復雜情況下的重疊率曲線對比圖

        由以上仿真結(jié)果可以看出,本文提出的算法在單一目標跟蹤中具有較好的跟蹤精度和魯棒性,能夠有效解決目標形變、復雜背景干擾和遮擋等問題,當目標消失后再次出現(xiàn)在視野中時,能夠快速準確地鎖定目標,實現(xiàn)再次跟蹤,且目標跟蹤重疊率基本保持在0.7左右,能夠滿足跟蹤要求。

        1.3 雙目視覺定位

        雙目立體視覺定位的原理與人類雙眼定位原理相似,就是利用參數(shù)相同的左右相機拍攝同一物體不同角度的立體圖像,然后使用三角測量原理計算出左右圖像對比匹配點的視覺差,從而計算出特征點的三維坐標,實現(xiàn)對物體的測距定位[14],如圖9所示為雙目相機模型,左攝像機和右攝像機參數(shù)相同,它們的基線距為B,焦距為f ,空間中的特征點P 在兩個相機上成像,其中Pl=( Xl,Yl)與Pr=( Xr,Yr)分別是點P 在左右攝像頭的圖像坐標系中的坐標,P( xc,yc,zc)為點P 在世界坐標系下的坐標。理想情況下特征點P 在左右相機圖像下的水平坐標是相等的,在圖9中,根據(jù)相似三角形原理,可得:

        假設(shè)某一點在左右攝像頭中的視覺差為Ds=xl-xr,則上式可轉(zhuǎn)換為:

        根據(jù)式(24)可以得到特征點空間中的三維坐標( xc,yc,zc),利用雙目相機模型參數(shù)將其代入到定位的坐標中完成坐標系轉(zhuǎn)換,計算出空間中的三維坐標。

        圖9 雙目立體成像平面示意圖

        假設(shè)左攝像機所在的坐標系與世界坐標( XW,YW,ZW)重合,Ol-XlYl表示左圖像坐標系,焦距為fl;or-xryrzr表示右攝像機物理坐標系,同理Or-XrYr表示右圖像坐標系,焦距為fr;根據(jù)攝像機透視投影,得到如下關(guān)系式,其中sl、sr分別為左右相機的畸變矩陣參數(shù):

        世界坐標系與攝像機坐標之間的空間轉(zhuǎn)換關(guān)系可表示為式(27):

        其中,Mlr=[ R|T ],表示左右兩個相機坐標系之間的空間旋轉(zhuǎn)矩陣和平移向量。

        同理,根據(jù)式(25)、式(26)、式(27),對于世界坐標系( XW,YW,ZW)中的空間點,左右相機透視投影點之間的對應(yīng)關(guān)系為:

        因此,三維空間中某一點的坐標可表示為:

        由此得到目標位置坐標,并能夠計算出目標相對于輪椅的夾角為cos θ=XW/ZW。

        在完成對目標的測距定位,從而確定目標相對于輪椅的位置后,可以通過獲取目標的位置距離信息來調(diào)整輪椅的姿態(tài)方向和速度。本文使用比例控制方法,根據(jù)目標與輪椅的跟隨距離來調(diào)節(jié)直流電機在跟隨中的速度。將跟隨距離劃分為三個區(qū)域,即加速區(qū)、減速區(qū)與制動區(qū),其跟隨速度控制結(jié)構(gòu)圖如圖10 所示。當輪椅對目標的跟隨距離dk大于跟隨設(shè)定距離db時,輪椅加速跟隨。當輪椅跟隨距離dk等于跟蹤設(shè)定距離db時,輪椅以速度vr穩(wěn)速跟隨。當輪椅跟隨距離dk大于ds且小于db時,輪椅減速跟隨。當輪椅跟隨距離dk小于最小跟蹤距離ds時,表明輪椅已到達最小安全距離,此時輪椅需要停止運動等待跟隨。

        圖10 跟隨速度控制結(jié)構(gòu)圖

        因此,輪椅的跟隨速度控制可表示為式(30):

        其中,kp1、kp2為負常數(shù),Δd 為距離誤差。

        在系統(tǒng)中,設(shè)置輪椅跟隨距離為150 cm,最小安全距離為80 cm,穩(wěn)定跟蹤時目標的速度設(shè)vr為0.5 m/s,則輪椅的速度控制為:

        最后通過獲取目標的位置距離信息來調(diào)整輪椅的姿態(tài)方向和速度,實現(xiàn)對目標的準確跟蹤。

        2 系統(tǒng)總體方案設(shè)計

        圖11 系統(tǒng)整體設(shè)計框圖

        本文主要針對輪椅的跟隨功能進行研究與開發(fā),整個系統(tǒng)包含五部分:控制部分、傳感器部分、執(zhí)行部分、遠程調(diào)試單元和鋰電池供電部分。如圖11 所示,系統(tǒng)的主要工作過程為:鋰電池供電部分為整個智能輪椅系統(tǒng)提供電源,保證系統(tǒng)持續(xù)、穩(wěn)定地工作。傳感器部分中的視覺傳感器檢測周圍環(huán)境和特定目標,提取目標的特征,進而確定目標的位置信息;激光傳感器對障礙物和視覺傳感器存在的盲區(qū)的障礙物進行檢測,同時姿態(tài)傳感器作為輪椅的方位感知元件,在輪椅的跟隨過程中,實時感知輪椅的方向姿態(tài);GPS 傳感器實時確定輪椅的世界坐標,通過各個傳感器實現(xiàn)對目標的位置信息,輪椅的世界坐標、方位姿態(tài)以及障礙物等信息的采集,并實時將所有的數(shù)據(jù)信息發(fā)送給輪椅控制器[15]??刂破魍ㄟ^對數(shù)據(jù)信息的讀取和相應(yīng)的算法處理之后,發(fā)送執(zhí)行命令給執(zhí)行機構(gòu)。執(zhí)行機構(gòu)通過對左右電機的控制,實時控制輪椅的運動狀態(tài),從而實現(xiàn)輪椅對目標自動跟隨與避障的功能。遠程調(diào)試單元用于實現(xiàn)對該系統(tǒng)控制部分的處理器和控制器進行遠程編程和調(diào)試。

        2.1 系統(tǒng)硬件設(shè)計

        本文設(shè)計的輪椅跟隨系統(tǒng)硬件主要分為下位機和上位機兩部分。

        上位機系統(tǒng)由樹莓派控制器、雙目攝像頭和激光雷達傳感器組成。上位機控制器采用樹莓派4 代B 版(Raspberry Pi4.0),利用樹莓派自帶的WIFI 模塊可以將樹莓派與電腦PC端利用遠程調(diào)試單元連接起來。如圖12所示為樹莓派調(diào)試界面。

        圖12 樹莓派調(diào)試界面

        下位機系統(tǒng)由STΜ32控制器、電機驅(qū)動電路、姿態(tài)傳感器和GPS傳感器組成,系統(tǒng)硬件框圖如圖13所示。

        圖13 系統(tǒng)硬件框圖

        輪椅跟隨系統(tǒng)要完成對目標的跟蹤與避障功能,首先要通過攝像頭獲取目標的圖像信息,通過USB 串口與上位機進行數(shù)據(jù)交互,同時激光雷達采集輪椅周圍的環(huán)境信息,也通過USB 串口通訊發(fā)送給上位機進行數(shù)據(jù)處理。上位機獲取到視頻圖像信息數(shù)據(jù)之后,經(jīng)過目標檢測、目標跟蹤算法以及雙目定位算法處理后得到目標的相應(yīng)位置信息數(shù)據(jù),經(jīng)過串口與下位機進行通信[16]。與此同時,下位機STΜ32通過I/O口實時獲取GPS 傳感器和姿態(tài)傳感器發(fā)送的世界坐標數(shù)據(jù)信息和輪椅的姿態(tài)信息,下位機根據(jù)獲得的目標位置數(shù)據(jù)計算出相應(yīng)的PWΜ波控制電機驅(qū)動電路,從而控制電機的運動狀態(tài),實現(xiàn)對目標的跟隨。同時電機編碼器測得電機的實時速度數(shù)據(jù)通過中斷發(fā)送給下位機,獲得輪椅的實際轉(zhuǎn)速,通過運動控制算法實現(xiàn)閉環(huán)反饋。在跟隨過程中,根據(jù)激光傳感器檢測的障礙物信息進行避障,在避障完成后根據(jù)姿態(tài)傳感器檢測的輪椅姿態(tài)方向變化數(shù)據(jù)對輪椅的姿態(tài)進行調(diào)整。在跟蹤過程中不斷重復運行上述階段,直至完成跟蹤任務(wù)或被強制關(guān)閉停止[17]。

        2.2 系統(tǒng)軟件設(shè)計

        輪椅跟隨控制部分是整個系統(tǒng)的核心部分,其主程序流程圖如圖14所示,當有監(jiān)護人員陪同時,可以將輪椅從自動跟隨模式切換為手動控制模式。工作過程主要如下:

        (1)對系統(tǒng)初始化。

        (2)調(diào)用GPS 定位子程序,并將輪椅的位置信息發(fā)送到手機微信小程序中,使監(jiān)護人可以及時查看輪椅所處的位置。

        (3)選擇模式,即跟隨模式或手動控制模式。

        (4)若為跟隨模式,調(diào)用目標檢測與跟蹤子程序,感知輪椅前方要跟隨的目標人物,判斷是否有運動目標,實現(xiàn)目標檢測功能。當檢測到目標人物后,根據(jù)感知信息獲取跟蹤目標的目標框位置信息,并將該信息發(fā)送到目標跟蹤模塊。

        (5)調(diào)用雙目測距定位算法,對目標的位置進行定位,確定目標相對于輪椅的方向和距離。

        (6)在跟隨過程中,調(diào)用跟隨與避障運動控制程序,執(zhí)行相應(yīng)的跟隨與避障操作。

        圖14 系統(tǒng)主程序流程圖

        (7)判斷跟隨模式是否結(jié)束,若結(jié)束,則整個主程序停止運行,若沒有結(jié)束,則返回繼續(xù)執(zhí)行步驟(3)~(7),直到跟隨任務(wù)停止。

        3 系統(tǒng)測試及分析

        自動跟隨輪椅的整體實物圖如圖15 所示,筆者在搭建完實驗平臺后,對自動跟隨輪椅的功能進行了測試,包括室內(nèi)場景中單一目標的跟隨避障測試、室外場景中存在人員干擾時的跟隨避障測試以及GPS 的定位測試。

        圖15 輪椅跟隨系統(tǒng)的整體實物圖

        3.1 靜態(tài)環(huán)境中的跟隨與避障測試

        為了測試輪椅跟隨系統(tǒng)的跟隨和避障功能的效果,在室內(nèi)環(huán)境進行跟隨與避障測試,如圖16所示。圖16(a)~(d)展示了從輪椅啟動階段開始先加速前進,再穩(wěn)定跟隨,之后減速避障,最后加速跟隨的過程,利用1.3 節(jié)中的電機調(diào)速方法,實現(xiàn)了根據(jù)目標的位置來控制輪椅的速度和方向,使輪椅與目標人物保持設(shè)定的距離和相對方位的要求。圖16(e)~(h)則展示了利用本文提出的目標檢測和目標跟蹤算法,實現(xiàn)對目標人物提取和追蹤的過程。目標人員在行走的同時,利用樹莓派的遠程調(diào)試單元記錄跟隨過程的距離偏差,如圖17 所示。目標期望位置為輪椅前方150 cm處,設(shè)置數(shù)據(jù)采集間隔為1 s。從圖17中可以看出,在輪椅啟動階段,系統(tǒng)正在對目標進行檢測與處理,檢測識別的時間大概為100 ms,與此同時輪椅與目標的設(shè)定的跟隨距離的偏差迅速增大;在開始跟隨后,輪椅開始加速前進,速度增大,跟隨距離的偏差開始減?。惶幱诜€(wěn)定跟隨階段時,跟隨的偏差基本保持在10 cm 左右;當遇到障礙物進行避障操作時,輪椅的跟隨距離偏差也開始逐漸增加,避開障礙物后,繼續(xù)進行跟隨。可以看出本文設(shè)計的系統(tǒng)在室內(nèi)靜態(tài)環(huán)境中能夠?qū)崿F(xiàn)對目標的跟隨,并且在跟隨過程中安全地躲避障礙物,滿足實際場景中的跟隨要求。

        圖16 室內(nèi)跟隨與避障測試過程

        圖17 靜態(tài)環(huán)境跟隨距離偏差數(shù)據(jù)

        3.2 目標干擾和丟失情況下的跟隨與避障測試

        在實際的應(yīng)用中,輪椅是針對所有用戶使用的,因此本次實驗重新設(shè)置目標人員來檢測系統(tǒng)復位之后的識別能力,且設(shè)置的測試環(huán)境在同一時間存在目標干擾、避障以及避障之后目標丟失的情況。實驗過程如圖18所示。

        圖18 目標干擾和丟失情況下的跟隨實驗

        測試結(jié)果如圖18所示。結(jié)合圖19復雜情況下的跟隨距離偏差可以看出,圖18(a)為輪椅重新復位后選擇要跟隨的目標人物,重新檢測目標的時間大約需要14 s,此時輪椅與目標的跟隨偏差距離逐漸開始增大,且增大到21 cm,隨后檢測到目標開始跟隨,輪椅加速前進,跟隨距離偏差逐漸減??;圖16(b)~(h)為輪椅在跟隨過程中遇到狹窄空間、出現(xiàn)干擾人員以及目標左轉(zhuǎn)之后的丟失情況,輪椅在干擾人員出現(xiàn)后依舊能夠準確地跟隨目標人員,當目標開始左轉(zhuǎn)出門,消失在輪椅的視覺范圍之內(nèi)時,本文所提出的跟隨算法能夠?qū)崿F(xiàn)目標的位置預測,實現(xiàn)準確的左轉(zhuǎn)跟隨且安全地避開墻壁障礙物,在此階段跟隨距離偏差開始波動并且增加,隨后開始減小并趨于穩(wěn)定。

        圖19 目標干擾和丟失情況下的跟隨距離偏差

        3.3 GPS定位測試

        在輪椅跟隨系統(tǒng)中加入GPS 定位模塊的主要作用是防止在發(fā)生意外的情況下,輪椅使用者的監(jiān)護人或看護人員無法聯(lián)系到使用者,通過GPS定位模塊發(fā)送的位置信息,就可以確定輪椅此時的位置,從而找到使用者。

        如圖20所示為樹莓派遠程桌面輸出的輪椅經(jīng)緯度坐標位置數(shù)據(jù),圖中顯示了從GPS定位模塊中采集到的位置數(shù)據(jù)。

        圖20 GPS定位模塊數(shù)據(jù)采集結(jié)果

        得到的位置信息即經(jīng)緯度,需要將其上傳到ΜQTT服務(wù)器,如圖21所示。對服務(wù)器的數(shù)據(jù)進行封裝,發(fā)布Topic主題,經(jīng)過后臺ΜQTT服務(wù)器接收定位數(shù)據(jù),使用騰訊地圖的開發(fā)服務(wù)將實時的經(jīng)緯度轉(zhuǎn)換為地圖上的地址坐標,再通過微信小程序進行顯示和查看。

        微信小程序的定位結(jié)果如圖22所示。從圖22中可以看出此時輪椅所在的位置,經(jīng)過測試表明GPS定位模塊能夠?qū)崟r地發(fā)送輪椅的位置坐標,雖然跟實際的坐標有一定的誤差,但這種誤差不影響輪椅用戶的家人或看護人員實時查看其位置,方便在長時間聯(lián)系不到輪椅用戶時,確定輪椅的位置,進而找到輪椅用戶,滿足系統(tǒng)的基本要求。

        圖21 ΜQTT服務(wù)器界面

        圖22 小程序定位結(jié)果

        4 結(jié)束語

        本文設(shè)計了一種基于計算機視覺的自動跟隨輪椅的目標跟隨系統(tǒng),先利用自適應(yīng)高斯混合建模的背景減除法檢測到目標,再利用基于自適應(yīng)多特征融合粒子濾波的TLD 目標跟蹤算法在目標受到遮擋、背景干擾和目標短時間丟失的情況下仍能實現(xiàn)對目標的穩(wěn)定跟蹤。在實驗室環(huán)境下對各個功能進行了測試驗證,包括單人跟隨測試,目標干擾情況下的跟隨測試以及定位測試,聯(lián)調(diào)測試結(jié)果表明,本文設(shè)計的輪椅系統(tǒng)對目標人員的跟隨效果良好,在跟隨過程中能夠及時地避開障礙物,測試結(jié)果較為穩(wěn)定。

        猜你喜歡
        輪椅特征目標
        輪椅上的愛
        我的輪椅
        如何表達“特征”
        不忠誠的四個特征
        當代陜西(2019年10期)2019-06-03 10:12:04
        輪椅上的姑娘(外三首)
        天津詩人(2017年2期)2017-11-29 01:24:24
        抓住特征巧觀察
        我們的目標
        輪椅
        線性代數(shù)的應(yīng)用特征
        河南科技(2014年23期)2014-02-27 14:19:15
        中學英語之友·上(2008年2期)2008-04-01 01:19:30
        亚洲精品www久久久| 国产一区二区三区av免费观看| 国内自拍视频在线观看h| 狠狠综合久久av一区二区三区| 国产一区二区三区我不卡| 亚洲自偷精品视频自拍| 少妇太爽了在线观看免费视频| 久久九九久精品国产| 欧美日韩国产成人综合在线影院| 精品人妻中文字幕一区二区三区 | 亚洲av网一区二区三区| 国产精品亚洲lv粉色| 亚洲精品久久国产高清情趣图文| 亚洲午夜久久久久中文字幕久| 亚洲一区二区三区在线更新| 国产一区二区免费在线视频| 三个男吃我奶头一边一个视频| 黑人巨大av在线播放无码| 国产乱子伦精品免费女 | 国产二区中文字幕在线观看 | 久久无码av三级| 国产精品成人无码久久久久久| 日韩精品一区二区三区av| 亚洲av综合国产av日韩| 人妻少妇精品无码专区动漫| 无码电影在线观看一区二区三区| 亚洲成人激情在线影院| 亚洲精品一区三区三区在线| 又爽又黄又无遮挡网站| 国产精品.xx视频.xxtv| 免费人人av看| 亚洲国产区中文在线观看| 国产黄大片在线观看画质优化| 国产97在线 | 中文| 亚洲av人妖一区二区三区| 国产女主播福利一区二区| 无码国产精成人午夜视频一区二区| 任你躁国产自任一区二区三区| 国产乱人伦偷精品视频免| 亚洲日本国产一区二区三区| 国产三级精品视频2021|