亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于事件分析的多攝像機(jī)魯棒跟蹤算法

        2015-10-12 08:05:36蔡曉東梁奔香朱利偉
        電視技術(shù) 2015年13期
        關(guān)鍵詞:標(biāo)號(hào)攝像機(jī)特征

        蔡曉東,吳 迪,華 娜,梁奔香,朱利偉

        (桂林電子科技大學(xué) 信息與通信學(xué)院,廣西 桂林 541004)

        基于事件分析的多攝像機(jī)魯棒跟蹤算法

        蔡曉東,吳 迪,華 娜,梁奔香,朱利偉

        (桂林電子科技大學(xué) 信息與通信學(xué)院,廣西 桂林 541004)

        提出了一種新的基于事件分析的目標(biāo)跟蹤算法來(lái)解決多個(gè)目標(biāo)分離或遮擋時(shí)的可靠跟蹤問(wèn)題。首先提出使用仿射變換來(lái)獲得多個(gè)攝像機(jī)之間重疊畫(huà)面的映射關(guān)系,實(shí)現(xiàn)目標(biāo)交接,為后面的目標(biāo)識(shí)別奠定基礎(chǔ)。然后當(dāng)單攝像機(jī)目標(biāo)跟蹤過(guò)程中發(fā)生候選目標(biāo)多于一個(gè)或者多個(gè)目標(biāo)對(duì)應(yīng)一個(gè)候選目標(biāo)的情況時(shí),提出一種判別目標(biāo)出現(xiàn)遮擋事件或分離事件的新方法,并且通過(guò)多攝像機(jī)的目標(biāo)交接準(zhǔn)確識(shí)別出發(fā)生遮擋或分離事件的目標(biāo)標(biāo)號(hào),解決目標(biāo)發(fā)生遮擋或分離后跟蹤失敗的問(wèn)題。實(shí)驗(yàn)結(jié)果證明:所提出的方法突破了一般跟蹤算法受目標(biāo)底層特征約束的難點(diǎn),具有更高的魯棒性。

        目標(biāo)交接;多攝像機(jī)跟蹤;分離事件;遮擋事件

        1 目標(biāo)跟蹤

        多攝像機(jī)目標(biāo)跟蹤在智能監(jiān)控[1]、視頻內(nèi)容理解[2]等方面有著廣泛的應(yīng)用。目標(biāo)在一個(gè)攝像機(jī)中發(fā)生遮擋時(shí),在另一攝像機(jī)視角觀察可能不發(fā)生遮擋,因此,使用多攝像機(jī)可以很好地解決單攝像機(jī)因目標(biāo)遮擋產(chǎn)生跟蹤丟失的問(wèn)題。但是從不同的攝像機(jī)中觀察到的目標(biāo)信息很容易受環(huán)境因素(如視角、光線等)的影響,導(dǎo)致觀察到的目標(biāo)信息存在著較大差異,因此多攝像機(jī)魯棒性目標(biāo)跟蹤具有巨大的挑戰(zhàn)性。

        常見(jiàn)的多攝像機(jī)目標(biāo)跟蹤的方法有3類(lèi):1)基于特征匹配[3]。如文獻(xiàn)[4]采用Mean-shit跟蹤法,其通常采用顏色特征對(duì)目標(biāo)進(jìn)行匹配,計(jì)算簡(jiǎn)單;但是目標(biāo)顏色受光線影響很大,從不同的角度觀察目標(biāo)時(shí),顏色特征會(huì)發(fā)生變化,此時(shí)容易產(chǎn)生跟蹤錯(cuò)誤。由于不同攝像機(jī)中觀察到的目標(biāo)特征受環(huán)境因子影響較大,因此使用特征匹配的魯棒性較差。 2)使用3D幾何約束的方法[5-6]。這些算法將目標(biāo)的特征點(diǎn)映射到同一三維空間中,通過(guò)比較這些特征點(diǎn)在世界坐標(biāo)系中的位置來(lái)建立目標(biāo)的匹配關(guān)系。但是這種方法要先對(duì)攝像機(jī)進(jìn)行標(biāo)定,獲取攝像機(jī)的內(nèi)外參數(shù),操作較繁瑣,并且在實(shí)際應(yīng)用的復(fù)雜環(huán)境中,難以通過(guò)標(biāo)定獲取精確的攝像機(jī)內(nèi)外參數(shù),導(dǎo)致目標(biāo)匹配的正確率下降。 3)SIFT特征點(diǎn)匹配法[7-9]。SIFT具有旋轉(zhuǎn)、尺度縮放、亮度變化保持不變性的特征,但是使用SIFT變換時(shí),計(jì)算量較大,難以實(shí)現(xiàn)實(shí)時(shí)的目標(biāo)跟蹤。當(dāng)兩個(gè)攝像機(jī)的觀察角度的差異性較大時(shí),各個(gè)攝像機(jī)觀察到的同一目標(biāo)的特征會(huì)存在較大差異,SITF匹配法的準(zhǔn)確度也會(huì)降低。

        綜上所述,多攝像機(jī)中使用目標(biāo)底層特征(顏色、特征點(diǎn)等)很容易受到環(huán)境的約束,從而引起目標(biāo)跟蹤丟失。因此本文提出了一種新的多攝像機(jī)目標(biāo)跟蹤算法,算法模塊的框架如圖1所示,設(shè)攝像機(jī)A1,A2,…,An為相鄰的攝像機(jī)群。

        圖1 算法框架圖

        如圖1所示,首先獲取多個(gè)攝像機(jī)的視頻流,然后使用目標(biāo)交接獲取多攝像機(jī)之間目標(biāo)的對(duì)應(yīng)關(guān)系,使得不同攝像機(jī)中的同一個(gè)目標(biāo)具有相同的標(biāo)號(hào)。然后提出使用新的多攝像機(jī)跟蹤算法,當(dāng)一個(gè)攝像機(jī)畫(huà)面的目標(biāo)發(fā)生遮擋事件或分離事件時(shí),與相鄰不發(fā)生遮擋事件或分離事件的攝像機(jī)畫(huà)面進(jìn)行目標(biāo)交接,從而解決目標(biāo)被遮擋或分離時(shí)產(chǎn)生的誤匹配問(wèn)題,實(shí)現(xiàn)穩(wěn)定的目標(biāo)跟蹤。

        2 目標(biāo)交接

        首先獲取多攝像機(jī)畫(huà)面之間的仿射變換關(guān)系,從而計(jì)算出多攝像機(jī)畫(huà)面的對(duì)應(yīng)坐標(biāo);接著本文提出提取圖像中的運(yùn)動(dòng)目標(biāo)坐標(biāo),根據(jù)目標(biāo)坐標(biāo)和仿射變換矩陣計(jì)算出與相鄰攝像機(jī)畫(huà)面的對(duì)應(yīng)目標(biāo),識(shí)別出目標(biāo)標(biāo)號(hào),從而實(shí)現(xiàn)目標(biāo)交接。

        2.1 仿射變換

        仿射變換[10]可以實(shí)現(xiàn)二維平面到二維平面的線性變換,因此使用仿射變換矩陣可以獲取圖像平面坐標(biāo)之間的映射關(guān)系。設(shè)I1,I2分別為不同視覺(jué)觀察同一場(chǎng)景ζ的攝像機(jī),目標(biāo)a和目標(biāo)b在I1,I2畫(huà)面中的投影位置如圖2所示。

        圖2 目標(biāo)在不同視覺(jué)的攝像機(jī)中的成像圖

        設(shè)I1畫(huà)面到I2畫(huà)面的仿射變換矩陣記為H[10]

        (1)

        其中,h11~h32是仿射變換矩陣的系數(shù),代表水平、垂直方向上的位移量、旋轉(zhuǎn)因子、縮放因子。

        設(shè)χ是場(chǎng)景ζ中的任意一點(diǎn),在I1,I2畫(huà)面中的投影坐標(biāo)分別設(shè)為(x1,y1)和(x2,y2),則其坐標(biāo)之間的映射關(guān)系滿足式(2)。從而根據(jù)式(2)可以計(jì)算出一個(gè)平面中的任一坐標(biāo)點(diǎn)對(duì)應(yīng)到另一平面的坐標(biāo)位置。

        (2)

        式(2)展開(kāi)可得到

        (3)

        通過(guò)式(3)可以實(shí)現(xiàn)兩個(gè)平面之間的坐標(biāo)對(duì)應(yīng),為目標(biāo)標(biāo)號(hào)識(shí)別打下基礎(chǔ)。

        2.2 目標(biāo)標(biāo)號(hào)識(shí)別

        如圖3所示,設(shè)水平地面為參考平面,不同視角的攝像機(jī)觀察到目標(biāo)c在地面的投影分別設(shè)為c1、c2。當(dāng)目標(biāo)的世界坐標(biāo)與參考平面的深度信息不一致時(shí),其投影在參考平面的位置是不一樣的,如圖3中c1、c2除了腳部部位,其他部位都不重合。因此,本文首先采用高斯背景重建算法[11]對(duì)運(yùn)動(dòng)目標(biāo)進(jìn)行檢測(cè),然后使用文獻(xiàn)[12-13]的blob算法提取運(yùn)動(dòng)目標(biāo)。由于目標(biāo)最低點(diǎn)與地面接觸,其深度信息相同(都為0),因此本文提出使用運(yùn)動(dòng)物體的最低點(diǎn)代表目標(biāo)坐標(biāo)的方法,有效地減少了由于特征點(diǎn)的深度信息不一致而引起的變換誤差。

        圖3 不同視角的攝像機(jī)中目標(biāo)在地面的投影圖

        設(shè)目標(biāo)ρ在攝像機(jī)I1畫(huà)面中的最低點(diǎn)坐標(biāo)為(x1ρ,y1ρ),代入式(2)和式(3),計(jì)算出其在攝像機(jī)I2畫(huà)面中坐標(biāo)為(x2ρ,y2ρ);設(shè)I2中目標(biāo)x的像素點(diǎn)坐標(biāo)集為Area(x),其中,目標(biāo)x的任一坐標(biāo)點(diǎn)設(shè)為(x2k,y2k),其中k=0,1,…,n,則Area(x)的定義如式(4)所示;如果(x2ρ,y2ρ)滿足式(5),則表示目標(biāo)ρ與目標(biāo)x為同一目標(biāo),從而識(shí)別出目標(biāo)x的標(biāo)號(hào),實(shí)現(xiàn)目標(biāo)標(biāo)號(hào)交接。

        Area(x)={(x20,y20),(x21,y21),…,(x2n,y2n)},n∈R

        (4)

        (x2ρ,y2ρ)∈Area(x)

        (5)

        3 多攝像機(jī)跟蹤

        目標(biāo)不發(fā)生遮擋時(shí),一般使用卡爾曼濾波[14]的方法可得到良好的跟蹤效果。當(dāng)目標(biāo)之間發(fā)生遮擋事件時(shí),多個(gè)目標(biāo)重疊在一起,部分目標(biāo)的特征信息被遮擋丟失;多目標(biāo)發(fā)生分離事件時(shí),由于目標(biāo)被遮擋期間目標(biāo)的特征信息丟失,根據(jù)目標(biāo)的先驗(yàn)知識(shí)難以將遮擋后重新出現(xiàn)的目標(biāo)進(jìn)行準(zhǔn)確地識(shí)別,此時(shí)穩(wěn)定的目標(biāo)跟蹤存在著巨大挑戰(zhàn)。

        因此,當(dāng)目標(biāo)之間在某一個(gè)攝像機(jī)中發(fā)生遮擋、分離事件,而在另一攝像機(jī)視角觀察不發(fā)生遮擋、分離事件時(shí),本文提出一種新的目標(biāo)遮擋事件和分離事件的判別算法,準(zhǔn)確地判斷事件的發(fā)生,并提出使用多攝像機(jī)之間的目標(biāo)交接,獲得遮擋或分離目標(biāo)的標(biāo)號(hào),實(shí)現(xiàn)持續(xù)的目標(biāo)跟蹤。

        設(shè)camA和camB是相鄰的攝像機(jī),當(dāng)多個(gè)目標(biāo)發(fā)生遮擋或分離事件時(shí),可使用相同的方法進(jìn)行分析。目標(biāo)A和B是camA在t-t0時(shí)刻到t+t0時(shí)刻觀察到的運(yùn)動(dòng)物體,如圖4a~圖4c所示;在camB中觀察到的狀態(tài)如圖5a~圖5c所示。

        圖4 camA在t-t0時(shí)刻到t+t0時(shí)刻觀察到的運(yùn)動(dòng)物體狀態(tài)圖

        圖5 camB在t-t0時(shí)刻到t+t0時(shí)刻觀察到的運(yùn)動(dòng)物體狀態(tài)圖

        圖4a~圖4c中,目標(biāo)在t時(shí)刻發(fā)生遮擋事件,目標(biāo)在t+t0時(shí)刻發(fā)生分離事件;圖5a~圖5c中,目標(biāo)A和B沒(méi)有發(fā)生遮擋和分離事件。

        設(shè)在任一時(shí)刻,當(dāng)一個(gè)攝像機(jī)中發(fā)生遮擋或分離事件(如圖4的camA),相鄰的一個(gè)攝像機(jī)不發(fā)生該事件時(shí)(如圖5的camB),本文提出使用目標(biāo)交接從相鄰攝像機(jī)畫(huà)面中獲取目標(biāo)的信息,實(shí)現(xiàn)目標(biāo)識(shí)別。圖6展示了兩個(gè)攝像機(jī)進(jìn)行目標(biāo)跟蹤算法的流程圖,該方法適用于多攝像機(jī)中兩兩攝像機(jī)進(jìn)行多目標(biāo)跟蹤的情況。

        圖6 兩攝像機(jī)進(jìn)行目標(biāo)跟蹤算法流程圖

        圖6中,設(shè)X={x1,x2,…,xn},n∈N為camA中發(fā)生遮擋或分離事件的目標(biāo)集合,當(dāng)camA中的目標(biāo)發(fā)生遮擋或分離事件時(shí),將其目標(biāo)信息發(fā)送給camB,然后通過(guò)式(3)~式(5)識(shí)別出目標(biāo)的標(biāo)號(hào),并發(fā)送給camA,從而實(shí)現(xiàn)目標(biāo)X在camA的目標(biāo)跟蹤。

        3.1 OE判斷及目標(biāo)識(shí)別算法

        當(dāng)多目標(biāo)發(fā)生遮擋事件時(shí),如圖4a~圖4c所示,觀察到的目標(biāo)個(gè)數(shù)由多個(gè)變?yōu)橐粋€(gè)。由于camB中目標(biāo)無(wú)遮擋事件發(fā)生,使用卡爾曼濾波的方法可實(shí)現(xiàn)準(zhǔn)確的跟蹤結(jié)果。

        (6)

        設(shè)Area(x)為目標(biāo)所占地區(qū)域范圍,式(7)的定義為

        (7)

        3.2 SE判斷及目標(biāo)識(shí)別算法

        當(dāng)目標(biāo)發(fā)生分離事件時(shí),如圖4b~圖4c所示,重疊目標(biāo)體在圖4c中分離成多個(gè)目標(biāo)。此時(shí)使用單攝像機(jī)跟蹤的方法將會(huì)把分離出來(lái)的目標(biāo)認(rèn)為是新出現(xiàn)的目標(biāo),造成目標(biāo)跟蹤失敗。

        (8)

        設(shè)εH為允許的投影誤差,式(9)的定義為

        (9)

        若目標(biāo)B′的坐標(biāo)符合式(9),則表示目標(biāo)與B′的標(biāo)號(hào)與camB中目標(biāo)B的標(biāo)號(hào)相同,其為同一目標(biāo)。通過(guò)上述方法即可識(shí)別出重疊后產(chǎn)生分離的目標(biāo)標(biāo)號(hào),解決了重疊目標(biāo)分離后產(chǎn)生跟蹤丟失的問(wèn)題。

        4 實(shí)驗(yàn)結(jié)果分析

        使用本文算法對(duì)兩組實(shí)驗(yàn)的結(jié)果分析如下:

        1)與SIFT特征跟蹤算法的比較實(shí)驗(yàn)

        使用本文提出的多攝像跟蹤機(jī)制和文獻(xiàn)[9]的方法使用sift特征點(diǎn)進(jìn)行目標(biāo)跟蹤的實(shí)驗(yàn)效果進(jìn)行對(duì)比。實(shí)驗(yàn)一場(chǎng)景選擇一個(gè)小區(qū)的門(mén)口,門(mén)口的行人較多,很容易引起目標(biāo)遮擋。本文方法可適用到多個(gè)攝像機(jī),但是多攝像機(jī)中兩兩攝像機(jī)通信的方法是相同的,因此本次實(shí)驗(yàn)展示了使用兩個(gè)攝像機(jī)對(duì)目標(biāo)進(jìn)行跟蹤的效果。兩相鄰攝像機(jī)分別設(shè)為camA和camB,camA的焦距大小為camB的1/4,因此camB比camA具有更寬廣的視角,并且camA與camB對(duì)場(chǎng)景觀察角度的夾角為75°,此時(shí),camA與camB的觀察到的目標(biāo)特征信息具有較大的差異。

        camB的場(chǎng)景如圖7所示,camA的場(chǎng)景如圖8~圖9所示。camA與camB同時(shí)對(duì)場(chǎng)景進(jìn)行監(jiān)控,監(jiān)控視頻中第201幀到568幀有兩個(gè)行人經(jīng)過(guò)監(jiān)控區(qū)域。其跟蹤效果如圖7所示。

        圖7 camB的第205幀、256幀、351幀、415幀,用單攝像機(jī)跟蹤算法對(duì)目標(biāo)進(jìn)行跟蹤的效果圖

        圖8 camA的第205幀、256幀、351幀、415幀,使用本文提出多攝像機(jī)通信機(jī)制對(duì)目標(biāo)進(jìn)行跟蹤的效果圖

        目標(biāo)跟蹤的效果用矩形框和標(biāo)號(hào)標(biāo)識(shí),被認(rèn)為是相同的目標(biāo)用同一顏色的矩形框框出,并且標(biāo)號(hào)相同。由圖7可以看出,在camB的視野中兩個(gè)目標(biāo)的運(yùn)動(dòng)過(guò)程沒(méi)有發(fā)生遮擋,使用卡爾曼濾波的方法在單攝像機(jī)中成功進(jìn)行跟蹤。因此,在目標(biāo)不發(fā)生遮擋的情況下,使用單攝像機(jī)跟蹤算法可獲得良好的效果。

        在camA中,第250幀到402幀兩個(gè)運(yùn)動(dòng)目標(biāo)發(fā)生遮擋,用本文提出的根據(jù)事件判斷機(jī)制對(duì)camA的目標(biāo)進(jìn)行跟蹤的效果圖如圖8所示??梢钥吹剑荒繕?biāo)的標(biāo)號(hào)、外接矩形框的顏色都相同。由圖8c可看到本文算法可以準(zhǔn)確地對(duì)遮擋目標(biāo)進(jìn)行識(shí)別,由圖8d可看到當(dāng)目標(biāo)發(fā)生分離事件后可以繼續(xù)對(duì)目標(biāo)進(jìn)行跟蹤。

        文獻(xiàn)[9]的方法使用sift特征點(diǎn)進(jìn)行目標(biāo)匹配得到的效果圖如圖9所示。從圖9b和圖9c中看到,當(dāng)目標(biāo)之間發(fā)生遮擋時(shí),2號(hào)目標(biāo)特征點(diǎn)跟蹤丟失,導(dǎo)致2號(hào)目標(biāo)被認(rèn)為消失了,跟蹤失敗。由圖9d看到重疊目標(biāo)分離時(shí),由于歷史信息的丟失,2號(hào)目標(biāo)被認(rèn)為是一個(gè)新的目標(biāo),外接矩形框的顏色改變并且其標(biāo)號(hào)變成3,不能對(duì)目標(biāo)進(jìn)行持續(xù)跟蹤。

        圖9 camA的第205幀、256幀、351幀、415幀,使用sift特征點(diǎn)方法對(duì)目標(biāo)進(jìn)行跟蹤的效果圖

        因此,由圖8和圖9可以看出,使用本文的方法能成功地對(duì)發(fā)生遮擋事件和分離事件的目標(biāo)進(jìn)行持續(xù)跟蹤。

        2)遮擋情況下多目標(biāo)持續(xù)跟蹤實(shí)驗(yàn)

        設(shè)圖10~圖11分別為攝像機(jī)camC、camD在同一時(shí)間段拍攝的畫(huà)面,其場(chǎng)景比較復(fù)雜,存在著較多的運(yùn)動(dòng)目標(biāo),且運(yùn)動(dòng)目標(biāo)多次發(fā)生遮擋、分離事件。使用本文算法的跟蹤效果圖如圖10~圖11所示。

        圖10 攝像機(jī)camC在連續(xù)的時(shí)間內(nèi)拍攝的畫(huà)面

        圖11 攝像機(jī)camD在連續(xù)的時(shí)間內(nèi)拍攝的畫(huà)面,分別對(duì)應(yīng)圖10a~圖10d

        圖11b~圖11d的時(shí)間段內(nèi),4號(hào)目標(biāo)發(fā)生了兩次遮擋事件,1次分離事件后,仍能準(zhǔn)確進(jìn)行跟蹤;5號(hào)目標(biāo)多次和不同的目標(biāo)發(fā)生遮擋、分離事件后,跟蹤標(biāo)號(hào)不發(fā)生改變,具有較好的穩(wěn)定性。因此本文在場(chǎng)景中具有較多運(yùn)動(dòng)目標(biāo),且發(fā)生多次遮擋、分離事件后,仍能準(zhǔn)確地實(shí)現(xiàn)目標(biāo)跟蹤。

        5 結(jié)論

        本文算法實(shí)現(xiàn)對(duì)多攝像機(jī)觀察到的目標(biāo)信息進(jìn)行交接,從而識(shí)別出對(duì)應(yīng)目標(biāo),解決了目標(biāo)之間發(fā)生遮擋、分離事件后跟蹤丟失的難題。本文設(shè)計(jì)的實(shí)驗(yàn)無(wú)需考慮外觀的特征,對(duì)光照變化有較強(qiáng)的適應(yīng)性,且在多攝像機(jī)景深不一致的情況下,也能實(shí)現(xiàn)良好的跟蹤。并且當(dāng)攝像機(jī)畫(huà)面中目標(biāo)發(fā)生遮擋分離事件時(shí),可以從任何沒(méi)有發(fā)生遮擋、分離事件的相鄰攝像機(jī)畫(huà)面中獲取當(dāng)前攝像機(jī)發(fā)生遮擋、分離事件的目標(biāo)標(biāo)號(hào),因此本文方法能從多個(gè)攝像機(jī)中獲取正確的跟蹤結(jié)果,具有較高的魯棒性。在場(chǎng)景較復(fù)雜時(shí),在多個(gè)攝像機(jī)可能同時(shí)發(fā)生遮擋、分離事件的情況,從相鄰攝像機(jī)中獲得所有目標(biāo)的標(biāo)號(hào)具有一定的挑戰(zhàn)性,解決該問(wèn)題可以通過(guò)實(shí)際應(yīng)用場(chǎng)景的分析,對(duì)算法加以?xún)?yōu)化改進(jìn)來(lái)解決。

        [1] BRUCKNER D, PICUS C, VELIK R, et al. Hierarchical semantic processing architecture for smart sensors in surveillance networks[J]. IEEE Trans. Industrial Informatics,2012,8(2): 291-301.

        [2] TAHAYNA B. Combining content and context information fusion for video classification and retrieval[C]//Proc. the 2010 2nd International Conference on Signal Processing Systems (ICSPS 2010).Seoul:IEEE Press,2010: 81-86.

        [3] KIM C I. Fast stereo matching of feature links[C]// Proc. 3D Imaging, Modeling, Processing, Visualization and Transmission (3DIMPVT).Hangzhou:[s.n.],2011: 268- 274.

        [4] YONEMOTO S. Multitarget tracking using mean-shift with particle filter based Initialization[C]//Proc. the 12th International Information Visualisation. London: IEEE Press,2008:521-526.

        [5] MIR-NASIRI N. Camera-based 3D object tracking and following mobile robot[C]// Proc. Robotics, Automation and Mechatronics. Bangkok, Thailand: IEEE Press,2006:1-6.

        [6] CHOI C. Real-time 3D model-based tracking using edge and keypoint features for robotic manipulation[C]//Proc. Robotics and Automation (ICRA). Anchorage,AK:IEEE Press,2010: 4048-4055.

        [7] LI H P,F(xiàn)LIERL M. Sift-based improvement of depth imagery[C]//Proc. Multimedia and Expo (ICME). SPAIN:IEEE Press,2011: 1-6.

        [8] ZHAO S. Sttk-based video object recognition[C]// Proc. IEEE International Conference on Image Processing ICIP. HongKong: IEEE Press,2010: 3873-3876.

        [9] LIU Y H,ZHOU C S.Target matching based on multi-view tracking[C]// Proc. SPIE. San Francisco:SPIE-INT SOC Optical Engineering, 2011:24-25.

        [10] HE K,YUAN Z W,MU C C. A new affine transformation parameters estimation method[C]//Proc. 2011 Seventh International Conference on Natural Computation (ICNC). Tianjin:[s.n.],2011:28-32.

        [11] YAN R. Moving object detection based on an improved gaussian mixture background model[C]//Proc. ISECS International Colloquium on Computing, Communication, Control, and Management. Sanya:[s.n.], 2009:12-15.

        [12] WEI B Z. Automatic color blob segmen tation and fast arbitrary shape tracking[C]//Proc. Visual Information Engineering. Xi’an:[s.n.],2008:408-413.

        [13] NGUYEN T B. An Improved real-time blob detection for visual surveillance[C]// Proc. the 2009 2nd International Congress on Image and Signal Processing. Tianjin:[s.n.],2009:1-5.

        [14] GUTMAN P O. Tracking targets using adaptive Kalman filtering[J]. Aerospace and Electronic Systems,1990,26(5):691-699.

        蔡曉東(1971— ),碩士生導(dǎo)師,主研智能視頻處理、云計(jì)算、無(wú)線傳感網(wǎng)絡(luò);

        吳 迪(1989— ),女,碩士生,主研智能視頻處理、云計(jì)算;

        華 娜(1988— ),女,碩士生,主研云計(jì)算、智能視頻處理;

        梁奔香(1987— ),碩士生,主研視頻圖像處理、模式識(shí)別;

        朱利偉(1989— ),碩士生,主研視頻圖像處理、人工智能、機(jī)器學(xué)習(xí)。

        責(zé)任編輯:閆雯雯

        Robust Video Tracking Based on Event Analysis

        CAI Xiaodong,WU Di, HUA Na, LIANG Benxiang, ZHU Liwei

        (SchoolofInformationandCommunicationEngineering,GuilinUniversityofElectronicTechnology,GuangxiGuilin541004,China)

        Reliable video tracking under occlusion is a challenging task. A novel tracking method based on event analysis and multi-camera communication is proposed. Firstly, the relationship between the overlay parts of two cameras is computed for object handoff using affine transform. Then, a new algorithm for indentifying Occlusion Event (OE) and Separation Event (SE) is designed. When multiple targets are tracked, or there are more than one tracked candidates in the case of single camera tracking, the proposed algorithm recognizes the IDs of tracked candidates by target handoff among multiple cameras, resulting successful tracking. The experimental results show the robustness of the proposed method without using any low-level features of the tracked objects during the tracking process.

        target handoff; multi-camera tracking; occlusion event; separation even

        【本文獻(xiàn)信息】蔡曉東,吳 迪,華娜,等.基于事件分析的多攝像機(jī)魯棒跟蹤算法[J].電視技術(shù),2015,39(13).

        國(guó)家科技支撐計(jì)劃課題(2014BAK11B02);廣西自然科學(xué)基金項(xiàng)目(面上項(xiàng)目)(2013GXNSFAA019326);桂林電子科技大學(xué)研究生科研創(chuàng)新項(xiàng)目(GDYCSZ201410)

        TP392.4

        A

        10.16280/j.videoe.2015.13.012

        2014-10-22

        猜你喜歡
        標(biāo)號(hào)攝像機(jī)特征
        如何表達(dá)“特征”
        不忠誠(chéng)的四個(gè)特征
        看監(jiān)控?cái)z像機(jī)的4K之道
        抓住特征巧觀察
        非連通圖2D3,4∪G的優(yōu)美標(biāo)號(hào)
        攝像機(jī)低照成像的前世今生
        新安訊士Q6155-E PTZ攝像機(jī)
        如何消除和緩解“攝像機(jī)恐懼癥”
        新聞前哨(2015年2期)2015-03-11 19:29:25
        非連通圖D3,4∪G的優(yōu)美標(biāo)號(hào)
        非連通圖(P1∨Pm)∪C4n∪P2的優(yōu)美性
        亚洲中文字幕精品久久吃奶| 精品久久久久久国产| 久久久久国产综合av天堂| 国产成人精品日本亚洲| 国产亚洲午夜精品| 玩弄极品少妇被弄到高潮| 成人影院在线观看视频免费| 国内最真实的xxxx人伦| 人妻被黑人粗大的猛烈进出 | 亚洲男人av香蕉爽爽爽爽| 亚洲中文字幕精品久久久久久直播| 久久国产精品亚洲我射av大全| 午夜无码一区二区三区在线观看| 亚洲精品92内射| 国产资源精品一区二区免费| 蜜桃视频一区二区三区| 无码少妇丰满熟妇一区二区| 午夜成人无码福利免费视频| 妞干网中文字幕| 久久精品一区一区二区乱码| 十八禁视频网站在线观看| 国产极品美女高潮抽搐免费网站| 另类免费视频在线视频二区| 在线观看av片永久免费| 免费在线视频亚洲色图| 国产成人91久久麻豆视频| 欧美粗大猛烈老熟妇| 亚洲午夜精品久久久久久抢 | 亚洲乱码中文字幕综合久久| 亚洲a∨国产av综合av下载| 伊人久久中文大香线蕉综合| 中文字幕人妻少妇久久| 少妇精品亚洲一区二区成人| 日日噜狠狠噜天天噜av| 日韩中文字幕精品免费一区| 国产黄色一区二区福利| 亚洲国产成人久久综合碰碰| 好屌草这里只有精品| 一本大道在线一久道一区二区 | 国产麻豆精品一区| 久久精品免视看国产盗摄|