方 武, 王典洪, 王 勇
(1.中國地質(zhì)大學(xué)(武漢) 機(jī)電學(xué)院,湖北 武漢 430074;2.蘇州經(jīng)貿(mào)學(xué)院 信息系,江蘇 蘇州 215009)
在無線視頻傳感器網(wǎng)絡(luò)的許多應(yīng)用中[1],首先需要對圖像序列的目標(biāo)進(jìn)行檢測和跟蹤。為提高跟蹤精度和范圍,視頻節(jié)點需要相互通信來對目標(biāo)進(jìn)行分布式跟蹤。所謂分布式跟蹤是指依賴節(jié)點間多視角的目標(biāo)信息的交換與融合,通過本地運算獲得目標(biāo)位置軌跡信息的方式。然而,受傳感器節(jié)點資源和能耗的限制,傳統(tǒng)的目標(biāo)跟蹤方法并不適合視頻傳感器網(wǎng)絡(luò)。適用于視頻傳感器網(wǎng)絡(luò)的高效分布式跟蹤算法需要盡量減少節(jié)點之間的通信量以減少能量消耗,從而延長網(wǎng)絡(luò)壽命。
近幾年,一些文獻(xiàn)對分布式跟蹤算法[2,3]在無線傳感器網(wǎng)絡(luò)當(dāng)中的應(yīng)用進(jìn)行了研究。最常用的分布式跟蹤算法包括粒子濾波[4]和卡爾曼一致性濾波(Kalman consensus filtering,KCF)。然而,粒子濾波采用蒙特—卡羅方法,計算量大,不適用能量有限的無線傳感器網(wǎng)絡(luò)。因此,很多視頻傳感器網(wǎng)絡(luò)的研究采用卡爾曼濾波方法來進(jìn)行目標(biāo)跟蹤。Medeiros H,Park J,和Kak A[5]提出了一種分簇的卡爾曼濾波跟蹤方法,該方法由于需要進(jìn)行簇頭選舉,對于節(jié)點位置分布有一定的要求,靈活性較差。Soto C,Song B等人[6]提出了一種分布式估計算法即卡爾曼一致性濾波方法,該方法通過相鄰節(jié)點的跟蹤數(shù)據(jù)交換融合來到達(dá)對目標(biāo)狀態(tài)的一致性估計。另外,為了優(yōu)化估計Kamal A T和Farrell J A[7,8]提出了針對測量信息權(quán)重分布式最大后驗參數(shù)的一致性濾波(information weighted consensus filtering,ICF),該方法采用信息矩陣進(jìn)行節(jié)點間的數(shù)據(jù)融合來達(dá)到一致性狀態(tài)估計,通信數(shù)據(jù)量雖然比傳遞圖像小,但依然比較耗能。上述方法均沒有考慮到節(jié)點的通信能耗,因此,通信數(shù)據(jù)沒有進(jìn)行壓縮。Ribeiro A,Giannakis G和 Roumeliotis S[9]在節(jié)點間通過傳遞新息符號進(jìn)行目標(biāo)狀態(tài)的估計來減少通信量,然而,該方法沒有考慮目標(biāo)狀態(tài)的一致性數(shù)據(jù)融合。
為減少節(jié)點間的通信能耗同時保證跟蹤精度,本文提出一種基于殘差編碼(RC)的一致性濾波跟蹤方法,對信息矩陣采用符號編碼策略,從而大量減少視頻傳感器節(jié)點之間數(shù)據(jù)交換量,延長網(wǎng)絡(luò)的使用時間。
如圖1所示,對于每個視頻節(jié)點采集到的圖像序列Xt,在跟蹤的過程中,檢測到目標(biāo)的節(jié)點采用卡爾曼一致性濾波器來預(yù)測目標(biāo)下一幀的狀態(tài)。目標(biāo)的狀態(tài)和測量方程為
Xt=AXt-1+BVt-1,
(1)
Zt=HXt+Wt.
(2)
節(jié)點間傳遞的信息向量和矩陣為
(3)
(4)
由卡爾曼濾波式(5)~式(7)可預(yù)測目標(biāo)下一幀狀態(tài)的估計
(5)
i(n|n-1)=Aii(n-1|n-1),
(6)
i(n|n-1)=Hi(n)i(n-1|n-1).
(7)
一致性濾波是通過在網(wǎng)絡(luò)里傳遞信息矩陣ui和Ui來進(jìn)行數(shù)據(jù)融合達(dá)到對目標(biāo)狀態(tài)的全局估計。相對于圖像數(shù)據(jù)來說,數(shù)據(jù)雖然減少了,但對于多維的目標(biāo)狀態(tài)信息,通信量依然很大。采用殘差符號編碼可以有效減少通信能耗。節(jié)點間只傳遞新信息符號編碼,這樣可以大大減少通信開銷。本文將文獻(xiàn)[9]提到的新息符號算法擴(kuò)展到一致性濾波跟蹤場合,提出一種基于殘差編碼的一致性濾波算法,具體步驟如下:
首先,將狀態(tài)向量映射到二進(jìn)制量化
(8)
定義節(jié)點i的編碼策略為
bi(n,m)=sgn[Z0(n,m)-0(n,m|n-1,m-1)],
(9)
Ki(n,m)=
(10)
i(n|n-1,m)=i(n|n-1,m-1)+
Ki(n,m)bi(n,m),
(11)
Pi(n|n-1,m)=Pi(n|n-1,m-1)-
(12)
然后,通過迭代從1~M,可以得到殘差編碼消息bi(n)
bi(n)=[b(n,1),…,b(n,M)].
(13)
每一步,相鄰節(jié)點接收到編碼消息bi(n), 通過等式(11)~式(13)從1~M迭代可以得到
(14)
Pi(n|n)=Pi(n|n-1,M).
(15)
最后,可從等式(16)得到一致性狀態(tài)融合目標(biāo)狀態(tài)的估計
(16)
本方法中,檢測到目標(biāo)的各個節(jié)點采用高效的基于卡爾曼濾波的目標(biāo)跟蹤算法,并將跟蹤的目標(biāo)信息發(fā)送到相鄰節(jié)點進(jìn)行數(shù)據(jù)融合。對多視角跟蹤的結(jié)果采均值算法進(jìn)行圖像融合,可獲得更好的跟蹤精度和更長網(wǎng)絡(luò)使用時間。融合時,必須將目標(biāo)的像平面坐標(biāo)[Xt,Yt]映射到地平面坐標(biāo)[Ut,Vt],其關(guān)系由Hj決定
(17)
其中,λ為尺度參數(shù),對于每個視頻節(jié)點,可計算出目標(biāo)在地平面的位置
(18)
(19)
通過計算等式(16)等到多個視角跟蹤平均融合后的結(jié)果。
為了驗證該方法的效果,構(gòu)建基于8個視頻節(jié)點(CN)的室內(nèi)測試系統(tǒng)。視頻節(jié)點分辨率為640像素×480像素,幀速率為25 fps,15 m視野,60°視角;房間面積為6 m×9 m,跟蹤持續(xù)時間13 s,測試環(huán)境和目標(biāo)運動軌跡如圖2所示,初始化參數(shù)M=16。
圖2 測試環(huán)境
在圖像序列1~450幀中,視頻節(jié)點1,2,4,5同時檢測到目標(biāo),節(jié)點1和4的跟蹤過程分別如圖3(a),(b)所示。
圖3 分布式跟蹤圖示
目標(biāo)的真實軌跡采用手工標(biāo)定,目標(biāo)的跟蹤軌跡與單節(jié)點1和節(jié)點4的觀察值之間的比較如圖4所示。其中圖4(a),(b)為軌跡的比較,圖4(c)為一致性濾波器跟蹤結(jié)果與單節(jié)點4濾波跟蹤結(jié)果的均方根誤差(RMSE)比較。從圖中可以看出,采用一致性殘差編碼的方法跟蹤精度高于單節(jié)點跟蹤方法。
圖4 跟蹤結(jié)果
為了評估本文方法的性能,與另外2種分布式跟蹤方法進(jìn)行比較:1)分布式粒子濾波[4](DPF)方法 ;2)卡爾曼一致性濾波[9];該方法通過節(jié)點間傳遞信息向量和方差矩陣來進(jìn)行一致性狀態(tài)估計;3)本文提出的方法殘差編碼一致性濾波(RC—CF)。能耗的結(jié)果通過不同目標(biāo)通過監(jiān)測區(qū)域取10次平均結(jié)果。每個算法的數(shù)據(jù)包大小和計算復(fù)雜度如表1所示。
通信的能耗主要由包尺寸即節(jié)點間收發(fā)的消息量決定。假設(shè)目標(biāo)的位置和速度分別為32位浮點型和16位整型。傳統(tǒng)的卡爾曼一致性濾波通過傳遞4維的狀態(tài)向量和4×4的方差矩陣來進(jìn)行節(jié)點數(shù)據(jù)融合。假設(shè)每個狀態(tài)信息通過一個數(shù)據(jù)包傳遞。卡爾曼一致性濾波的數(shù)據(jù)包大小為32×(4+4×4)=640位,而本文方法只需傳遞(32×4+16)=144位數(shù)據(jù)。
表1 算法能耗相關(guān)因素分析
3種方法的能耗情況如圖5所示。可以看出分布式粒子濾波的能耗巨大,這是由于每個節(jié)點采用蒙特—卡洛方法進(jìn)行目標(biāo)跟蹤和數(shù)據(jù)融合。卡爾曼一致性濾波能耗大約為方法1的30 %,這是由于卡爾曼一致性濾波計算量小。本文的方法為卡爾曼一致性濾波的33 %,主要因為節(jié)點間的通信能耗通過殘差編碼減少的70 %左右。
圖5 能耗比較
本文在研究高效分布式跟蹤算法的基礎(chǔ)上,提出了一種RC—CF跟蹤方法,對信息矩陣采用符號編碼策略,從而大量減少視頻傳感器節(jié)點之間數(shù)據(jù)交換量,實驗證明:該方法在保證跟蹤效果的同時可減少70%左右的能量消耗,從而延長視頻傳感器網(wǎng)絡(luò)的壽命。
參考文獻(xiàn):
[1] Karaki Al,Morillo-Pozo Julian.Wireless multimedia sensor networks:Current trends and future directions[J].Sensors,2010,10:6662-6717.
[2] Taj K M,Cavallaro A.Distributed and decentralized multi-camera tracking[J].IEEE Signal Processing Magazine,2011,28(3):46-58.
[3] Tron R,Vidal R.Distributed computer vision algorithms[J].IEEE Signal Processing Magazine,2011,28(3):32-45.
[4] Coates M.Distributed particle filters for sensor networks[C]∥Information Processing in Sensor Networks,2004:99-107.
[5] Medeiros H,Park J,Kak A.Distributed object tracking using a cluster-based Kalman filter in wireless camera networks[J].IEEE Journal of Selected Topics in Signal Processing,2008,2(4):448-463.
[6] Soto C,Song B.Distributed multi-target tracking in a self-configuring camera network[C]∥Computer Vision and Pattern Recogniton,Miami,FL,2009:1486-1493.
[7] Song B,Kamal A T,Soto C,et al.Tracking and activity recognition through consensus in distributed camera networks [J].IEEE Trans on Image Processing,2010,19(10):2564-2579.
[8] Kamal A T,Farrell J A,Roy-Chowdhury A K.Information weighted consensus[C]∥IEEE Conf on Decision and Control,2012:102-115.
[9] Ribeiro A,Giannakis G,Roumeliotis S.SOI-KF:Distributed Kalman filtering with low-cost communications using the sign of innovations[J].IEEE Trans on Signal Processing,2006,54(12):4782-4795.