亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于多邊形頂點單應映射的多攝像機前景融合實時運動目標檢測*

        2016-06-05 15:19:34趙慧民
        關鍵詞:多邊形前景攝像機

        任 劼 ,許 銘 ,趙慧民

        (1. 西安工程大學電子信息學院,陜西 西安 710048;2. 西交利物浦大學電氣與電子工程系,江蘇 蘇州 215123;3. 廣東技術師范學院電子與信息學院,廣東 廣州 510665)

        基于多邊形頂點單應映射的多攝像機前景融合實時運動目標檢測*

        任 劼1,許 銘2,趙慧民3

        (1. 西安工程大學電子信息學院,陜西 西安 710048;2. 西交利物浦大學電氣與電子工程系,江蘇 蘇州 215123;3. 廣東技術師范學院電子與信息學院,廣東 廣州 510665)

        采用多攝像機多平面單應前景映射融合的方法可以減小目標遮擋所造成的影響并提高目標檢測的準確性和可靠性。采用傳統的前景圖單應變換是一個圖像級的運算,需要將前景圖中的全部像素逐一投影到參考視角中。為了消除透視效應產生空洞區(qū)域,還需根據分辨率較高的參考視角反映射的方法確定前景投影圖。由于計算量較大,處理無法應用到實時目標檢測中。該文提出了一種前景輪廓多邊形頂點映射的方法,首先對在單攝像機中檢測出的前景進行多邊形逼近,只對前景多邊形的頂點進行單應映射,最后在參考視角中根據映射頂點進行前景重構,提高前景映射的運算速度以滿足多攝像機前景融合實時目標檢測。實驗中,多邊形頂點法與傳統法、輪廓法、矩形框法進行了比較。實驗表明,重構的前景映射圖不僅可以有效地逼近圖像級單應變換的前景映射圖,而且在運動目標大小不同的情況下,多攝像機前景融合目標檢測的運算速度可以分別提高約12和69倍。

        運動目標檢測;單應;多攝像機

        近年來,加速轉型的中國社會所面臨的越來越多的不穩(wěn)定因素,以及社會治安防范的日益復雜,視頻監(jiān)控需求呈快速而穩(wěn)定的增長。傳統的實時監(jiān)控方式需要工作人員在布滿監(jiān)視器的監(jiān)控室中工作并對特殊事件做出預警,效果很大程度上依賴于當前監(jiān)測者的主觀意識、反應速度和疲勞程度。智能視頻監(jiān)控作為人工智能和機器視覺的一個研究方向,引起了廣泛的關注。智能視頻監(jiān)控系統的目標就是可以自動并實時完成對目標的檢測、跟蹤、分類和識別,對可能發(fā)生的異常情況發(fā)出預警信號,以幫助監(jiān)控人員快速做出應對,對存儲的各種視頻進行快速恢復、尋找查詢和分析[1-2]。

        根據所采用的攝像機的數目,智能監(jiān)控系統可分為單攝像機和多攝像機兩類。如果采用單攝像機,典型的視頻監(jiān)控系統需要承擔的工作分為運動物體檢測、目標跟蹤、目標分類和特殊事件檢測。視頻序列中的運動物體可通過前景檢測的辦法逐幀進行檢測并利用時空關系進行跟蹤。被跟蹤目標的特征信息在被提取后,利用設定的特殊事件觸發(fā)條件進行判斷,當特殊事件發(fā)生時將會產生預警信號。

        當運動物體在屏幕中是單一無遮擋時,單一攝像機可以輕松完成上述各種工作。在現實應用中,來自其他運動物體的動態(tài)遮擋和來自樹木、建筑物等障礙物的的靜態(tài)遮擋會嚴重影響智能監(jiān)控的結果??紤]到當一個運動目標在一個攝像機中被其它物體遮擋時,在其它不同位置的攝像機中觀測時可能不會產生遮擋現象,利用多攝像機協同監(jiān)測可以有效地緩解遮擋帶來的影響。由于多攝像機可被安置在不同的地點以檢測不同的區(qū)域,采用多攝像機還可以擴大監(jiān)測區(qū)域?;诙鄶z像機視頻監(jiān)控的優(yōu)越性,對多攝像的智能視頻監(jiān)控系統的研究有著重要的現實和理論意義。

        1 文獻綜述

        根據多攝像機信息融合的程度,國內外研究多攝像機目標檢測和跟蹤的文章可被劃分為低度融合、中度融合和高度融合三類。

        1.1 低度融合

        采用低度信息融合方法的視頻監(jiān)控系統主要是采用多攝像機切換的辦法來解決單一攝像機監(jiān)測時視野受限的缺陷[3]。具體辦法是首先利用某一攝像機進行目標檢測與跟蹤,當監(jiān)測到當前視角在目標的運動過程中不再具有良好的檢測效果或目標離開當前攝像機的視角范圍時,需要切換到另一臺攝像機進行檢測與跟蹤。在這一類方法中,目標的檢測和跟蹤是由不同的攝像機完成的,在同一時間只有一個攝像機負責監(jiān)控,攝像機之間幾乎沒有信息融合。所以多攝像機切換的方法僅僅是增加了視角覆蓋范圍而無法緩解由于遮擋所帶來的影響。

        1.2 中度融合

        當同一運動物體在不同攝像機中的對應關系被確定后,在不同攝像機中檢測到的運動軌跡或運動物體的觀測信息就可以被融合到參考視角以提高檢測和跟蹤的可靠性。研究者們常采用中心投影[4-5]、極線法和單應變換法等幾何約束的方法來建立不同攝像機之間的對應關系[6-10]。

        采用運動軌跡融合的方法中,Khan和Shah[11]在建立了不同攝像機之間的對應關系后,將各個攝像機視角中所檢測到的目標的運動軌跡映射到一個虛擬的頂視圖平面進行融合,以提高目標檢測和跟蹤的準確性。這類方法的缺陷是在一個視角的跟蹤結果不會被用來提高其他視角中跟蹤的可靠性。

        改進的算法中目標跟蹤不再由單一攝像機執(zhí)行,而是先將各個攝像機中所檢測到的特征信息投射至參考視角并融合,然后在參考視角內利用融合后的信息進行全局的目標檢測與跟蹤。各攝像機視角中所獲取的檢測特征大致可以分為:點[6]、線[8,12]、區(qū)域[13-14]。Mittal and Davis[5]利用前景區(qū)域和對極線相交的線段的顏色信息尋找匹配區(qū)域。Hu等[8]用主軸的方法可以緩解前景檢測誤差所帶來的影響。

        1.3 高度融合

        Fleuret等[15]將地平面劃分成了小的柵格,每個小柵格的大小由該攝像機中行人所對應的矩形區(qū)域的平均大小決定;隨后根據每個柵格中運動目標像素所占的比例計算出了地平面占有率圖。Khan和Shah[16]將各單視圖的前景似然率圖通過基于地平面的單應變換投射至一個參考視角,然后在參考視角中對其進行疊加,并利用設定的閾值在參考視角中確定行人在地面的位置。隨后,基于地平面的單應變換被拓展至一系列在一定高度且平行于地平面的虛擬平面的單應變換,以提高目標檢測的可靠性。文獻[17]同樣采用了包括地平面在內的3層單應平面通過多攝像機的前景似然率圖融合對行人進行定位,實現穩(wěn)定跟蹤。Eshel和Moses[18]將不同攝像機的各像素根據頭頂平面的單應變換映射至虛擬的頭頂平面,然后根據投射至同一點的來自不同攝像機的各像素的灰度信息建立超級像素,利用超級像素的匹配結果來確定運動目標的位置。Peng等[19]將不同攝像機視角中檢測出來的前景區(qū)域根據地平面映射至虛擬頂視圖中進行融合后,將相交區(qū)域根據行人高度所決定的虛擬平面反映射回各攝像機視角,利用貝葉斯網絡進行檢測和跟蹤。

        傳統的單應映射方法是一種圖像級的變換,攝像機視圖中的每個像素需通過單應變換被逐一投射至參考視角中。為了避免在參考視角圖像中由于透視效應產生空洞區(qū)域,一般采用將參考視角中的每一個像素反映射回攝像機視圖,如果反映射的像素點在攝像機視圖中,則用攝像機視圖中的像素值填充參考視角中對應像素點的值。這樣,所需要進行映射變換的像素的數量需由參考視角圖像的分辨率來確定。在實際應用中,常作為參考視角的頂視圖由于要覆蓋較大的區(qū)域通常具有更高的分辨率,使這種逐像素的映射在計算和傳輸過程中所需的時間較長,造成其難以適用于實時檢測中。如果采用多攝像機以及多個高度平面單應變換融合的算法,所需要的時間將會成倍增加。

        為了改進上述缺陷,本文提出了一種基于多邊形近似逼近算法的多層單應變換融合算法用于多攝像機目標實時檢測,并采用了兩組不同的序列對所提出的算法進行了有效性和可靠性的評估。在與傳統的圖像級變換法、矩形框法和輪廓法進行比較后,實驗結果表明所提出的方法在保證了可靠性的同時,除了可以有效地降低所需要的時間外,還具有時間及精度可控的優(yōu)點。

        2 單應估計

        單應關系是基于同一平面(單應平面)的兩個視角圖像之間的映射關系。通過選取其中的一幅圖像作為參考視角圖像,可以將另一幅圖像投射至參考圖像進行圖像融合。除了可以選取攝像機捕獲的圖像作為參考圖像外,還可以選取合成俯視圖像或空中俯視圖像作為參考圖像以獲取更大的視野范圍。設(uc,vc)是在攝像機視角c下圖像中單應平面上的一點,其在頂視圖中的對應點為(ut,vt),pc=[uc,vc,1]T和pt=[ut,vt,1]T是這兩點的其次坐標表示,則它們之間的單應變換可表示為:

        (1)

        (2)

        其中,符號?在單應變換中存在一個縮放因子。Pc和Hc,t中的上標c為攝像機的標號,c=a,b。由于在本文中采用了虛擬的頂視圖作為參考視角圖像,pt和Hc,t中的上標t指頂視圖。兩幅圖之間的單應關系矩陣可根據兩幅圖像中相關的點、線或橢圓等特征的對應關系計算。本文采用了一系列手工選取的對應點進行攝像機校準,從而求出單應矩陣。

        2.1 地平面單應矩陣估計

        由于單應變換是投影變換在一定約束條件下的簡化形式,所以在對攝像機進行標定后,攝像機的投影矩陣可被用來直接計算基于地平面的單應矩陣。設pw=[Xw,Yw,Zw,1]T是三維空間中的一個點,pw映射到圖像中的對應點Pc的關系可通過一個投影矩陣M表示:

        (3)

        其中m1,m2,m3,m4各是一個3×1的向量,M是由攝像機標定所得的內外參數構成的3×4矩陣。

        (4)

        (5)

        (6)

        2.2 多平面單應矩陣估計

        在單應變換中不僅可以采用地平面作為單應平面,選取平行并高于地平面的一組虛擬平面作為單應平面時,圖像之間的單應變換依舊存在。當攝像機標定后,多平面單應關系矩陣依舊可以從攝像機投影矩陣直接產生。當不采用攝像機標定時,多平面單應關系矩陣可根據地平面單應矩陣和垂直方向的消影點[16]、四個共線的點的交比關系或4個桿子上具有不同高度標示點求得[17-18]。除此之外,多平面單應矩陣還可以通過一系列在頭頂和腳底點之間根據高度比例線性內插的點求得。

        (7)

        對比公式(4)和(7)可知,基于h高度平面的單應矩陣可由基于地平面的單應矩陣與投影矩陣M中的第三列元素乘以給定的高度h求得:

        (8)

        其中,[o]是一個3×2的全零矩陣[20]。

        3 單攝像機前景檢測與表示

        3.1 前景檢測

        前景提取的目的是根據背景圖像將運動的物體從每幀圖像中提取出來,其提取效果主要由背景模型決定?;旌细咚鼓P涂梢杂行У匾种迫鐦淙~擺動等背景元素的輕微變化,被廣泛地應用在前景提取中[21]。本文采用K個高斯分布對每一個像素的彩色值進行建模,設一個像素在時刻t的顏色取值為pt=[Rt,Gt,Bt]T,該像素取該值的概率為:

        (9)

        (10)

        在t時刻,圖像幀It中的每個像素It(r,c)與背景模型進行比較,如果其值與B個分布的中心的差值都大于該分布標準差的ThB倍,則該像素被判斷為一個前景像素。ThB可根據經驗選取,通常為2.5,且j∈[1,B]。

        (11)

        如果一個像素被判斷為背景像素,即它能與已有的K個分布中的一個匹配上,則需要對與其匹配的分布進行更新。如果背景像素與已有的K個分布中都匹配不上,則需建立新的分布,并在對權重更新后重新對各分布進行排序。檢測出的前景像素在經過連通成分分析、形態(tài)學運算、尺寸濾波后形成前景區(qū)域。

        3.2 前景多邊形逼近表示

        4 基于地平面的多攝像機前景融合

        4.1 多邊形映射

        (12)

        (13)

        如果將攝像機用一個光源替代,每一個目標在頂視圖的前景映射區(qū)域就可看作是在光源作用下物體在地面上的影子,即由地平面與物體輪廓投影的相交區(qū)域。圖1為基于地平面的單攝像機單應投影示意圖。類似的方法可以在文獻[24-26]中找到。

        圖1 基于地平面的單攝像機單應投影示意圖Fig.1 Schematic diagram of the homography projection according to the ground plane

        4.2 多攝像機融合

        當采用多個攝像機時,多個攝像機分別檢測出來的前景圖在投射至頂視圖后進行疊加就可得到多攝像機的融合圖。由不同攝像機視角產生的前景投影區(qū)域可能會在頂視圖中相交,相交區(qū)域在融合圖中得到增強:

        (14)

        式中,c是攝像機的標號,c=a,b。

        當頂視圖中的前景投影區(qū)域來是來源于不同視角的同一運動物體時,它們的相交區(qū)域顯示了該運動物體在頂視圖中接觸地面的位置。圖2是一個行人的雙攝像機融合和相交的示意圖,其中兩個前景投影區(qū)域相交于的黑色區(qū)域是目標站立在地面上的位置,但其形狀、尺寸和目標的橫截面并不完全相同。

        圖2 基于地平面的雙攝像機單應投影融合和相交的示意圖Fig.2 Schematic diagram of the overlaid foreground projections and the intersection region

        4.3 多平面融合

        為了提高多視角融合目標檢測的可靠性,可采用與地面平行的一系列不同高度的虛擬平面作為單應平面。如采用h作為平面下標,基于多平面的多視角前景融合頂視圖可以表示為

        (15)

        在獲取各目標在頂視圖中的位置時,可采用一系列根據經驗設定的閾值進行判斷。如果融合頂視圖Ft中的某一個像素值大于給定的閾值Thi,該像素即為前景像素。最后經過連通區(qū)域分析、形態(tài)學處理和尺寸濾波,就可將檢測出來的前景像素轉換成代表目標位置的前景區(qū)域,完成頂視圖中的目標檢測。

        (16)

        5 實驗結果及分析

        本文采用了兩組視頻序列對所提出的多視角實時運動目標檢測算法進行測試,并將基于多邊形頂點的前景映射法與基于圖像、輪廓、矩形框的前景映射法進行比較,對算法的有效性和可靠性進行評估。實驗中同樣對算法的運行時間進行了測試,以評估其實時性。序列一是在校園中采集的,兩個攝像機離運動目標較近,所以檢測出的前景區(qū)域的尺寸較大。序列二是標準序列,攝像機被架設在路邊的建筑物上,所以檢測出的前景區(qū)域較小。

        5.1 校園序列

        校園序列中,每個視角視頻采用的分辨率為像素,幀率為15幀/s。視頻中共有2 790幀,由于前660幀不存在目標或只存在單目標,實驗只對后2 155幀每隔15幀處理一次。頂視圖的分辨率為840×1 000像素。

        圖3所示為前景區(qū)域提取和前景區(qū)域的多邊形近似結果,圖3(a)和3(b)為原圖及所提取的前景圖。實驗測試了不同的近似距離ε來控制頂點的個數,圖3(c)和3(d)中采用的ε分別為0和2個像素。其中綠色的線條為前景區(qū)域的輪廓,紅色的點為多邊形近似后的頂點。

        圖3 前景區(qū)域檢測及多邊形近似結果Fig.3 The foreground polygon approximation results

        設第k幀的原始前景圖像為Ftemp,k,經過近似后重構的前景圖像為Fpoly,k,

        (17)

        (18)

        式中,#()表示計算非0像素的個數,c表示補集。

        表1所示為采用不同的ε進行前景多邊形近似,與前景輪廓(高度近似)和矩形框(非常粗略近似)的時間和準確度比較的結果。如不采用多邊形近似,平均每個前景區(qū)域的輪廓需要用217.84個像素表示,而矩形框只需要4個像素。采用多邊形近似用頂點表示前景區(qū)域,隨著ε的取值由1增加到10,所需的頂點像素個數由62.73減小到8.87個,但所需的處理時間并沒有明顯的降低。多邊形近似可準確地重建檢測出的前景區(qū)域,準確度隨著ε值的減小而提高。采用矩形框法會造成非常多的錯誤映射像素。

        表1 前景多邊形近似、輪廓、矩形框近似性能比較

        經過多邊形近似后,多邊形的頂點被投射至頂視圖,并根據投射的頂點重構前景投影區(qū)域。圖4(a)和4(b)分為圖3(b)和3(d)在頂視圖中的映射結果。采用三種方法獲取的像素映射后重構出的前景映射區(qū)域的準確率比較結果如表2所示。多邊形近似法可以可靠地重建前景映射區(qū)域,當ε小于2個像素時,重建結果與輪廓法的準確性相似,更能調節(jié)ε取值以靈活選取所需計算和傳輸的頂點個數。

        圖4 前景區(qū)域圖像級映射和多邊形近似映射結果比較Fig.4 Foreground projection results

        表2 前景多邊形近似、輪廓、矩形框映射準確率比較

        Table2Thecomparisonresultoftheaccuracyforthepolygonprojectionwithdifferentwithdifferentdistance,

        thecontourmethodandtheboundingboxmethod

        項目輪廓多邊形近似距離ε(像素)1 02 05 010 0矩形框RFN/%3 093 023 264 966 160 01RFP/%2 983 073 264 519 6978 72

        當采用多個攝像機時,頂視圖中的前景映射區(qū)域疊加后即可得到頂視融合圖,所采用的單應平面可以是地面或與地面平行的一系列虛擬平面。圖5為兩個視角下,對第1 275幀根據不同高度平面進行前景映射至頂視圖疊加的結果。所采用平面的高度分別為:0m(地平面),0.75m和1.5m。

        圖5 根據不同高度平面映射疊加的結果Fig.5 Fusion of the foreground projections according to the homographies for a set of parallel planes at different heights

        圖像法和多邊形近似法的時間評估主要分三部分:① 兩個攝像機的前景檢測;② 兩個攝像機的前景投影;③ 頂視圖中前景映射融合。本文主要是對第二部分進行了改進,兩種算法的時間比較結果如表3所示。相比于圖像級映射所需的71.56s處理142幀,采用多邊形近似法后映射只需要1.03s,其計算速度是圖像級的69.47倍。

        表3 圖像法與多邊形近似法投影時間比較

        根據公式(16),可計算疊加區(qū)域中的相交區(qū)域。圖6 所示是根據多高度平面映射疊加的結果(圖6(a)),及取不同閾值時的相交區(qū)域結果。選取不同大小的閾值會對影響相交區(qū)域的結果,圖6(b)和6(c)的閾值分別取255和210。閾值Thi可根據經驗選取,或根據所采用單應平面的層數D自動選取:

        Thi=255D-1(D-1)

        (19)

        圖6 根據多高度平面映射疊加及使用不同閾值時的相交區(qū)域結果Fig.6 Overlaid foreground projections from two camera views and intersection regions identified with differnet thresholds Thi

        圖7 采用序列2的多平面前景單應映射融合運動目標檢測結果Fig.7 Object detection by foreground fusion for multi-plane homographies using PETS’ 2001 datasets

        5.2 PETS’2001序列

        PETS’2001序列是由英國金斯頓大學公布的視頻監(jiān)控的一組標準序列,實驗中攝像機視角和頂視圖分別選用了384×288像素和500×500像素的分辨率。圖7為采用標準序列的兩個視角前景多層單應的運動物體檢測過程,其中,(a)(b)是前景輪廓, (c)(d)是前景區(qū)域,(e)是前景映射融合,(f)是頂視圖中的運動目標檢測結果。由于攝像機架設得較遠,圖像中運動物體的尺寸較小,實驗中ε的取值變化為0.5~2像素。實驗結果顯示漏報率由2.9%增加至4.4%,虛警率則由4.8%增加至5.4%,同樣可以精準地重構映射的前景區(qū)域。處理一幀算法所需運行時間為8.5ms,相比基于圖像級映射所需的108.5ms,提高12.8倍。

        綜合以上兩個測試數據集的實驗結果,本文提出的算法在運動目標尺寸較大或較小的情況下,均能可靠地重構出映射的前景區(qū)域,完成基于多攝像機多平面單應前景映射融合的目標實時檢測。隨著參考視角分辨率的增高,相對于傳統的圖像級單應變化,其運算速度的提高會更加顯著。

        6 總 結

        本文提出了一種實時的多攝像機目標檢測算法。為了解決攝像機信息高度融合時,傳統的圖像級單應變換對像素逐一映射所帶來的速度慢的缺點,本文采用了基于前景輪廓多邊形逼近,只對多邊形的頂點進行單應映射,并在參考視角中根據映射頂點進行前景重構。實驗表明,重構的前景映射圖不僅可以有效地逼近圖像級單應變換的前景映射圖,而且可以有效地降低運算時間,使基于多攝像機多平面單應前景映射融合的目標檢測具有實時性。與基于輪廓和矩形框的重構方法相比,本方法具有更強的可控性或較低的錯誤映射像素。

        [1]WANGX.Intelligentmulti-cameravideosurveillance:Areview[J].PatternRecognitionLetters, 2013, 34(1): 3-19.

        [2] 黃凱奇, 陳曉棠, 康運鋒, 等. 智能視頻監(jiān)控技術綜述[J]. 計算機學報, 2015, 38(6): 1093-1118.

        [3] 李熙瑩,羅長政,王鎮(zhèn)波,等. 高飽和交叉口背景提取與更新算法[J]. 中山大學學報(自然科學版), 2012, 51(3): 23-28.

        [4]DOCKSTADERSL,TEKALPAM.Multiplecameratrackingofinteractingandoccludedhumanmotion[J].ProceedingsoftheIEEE, 2001, 89(10): 1441-1455.

        [5]MITTALA,DAVISLS.M2tracker:Amulti-viewapproachtosegmentingandtrackingpeopleinaclutteredscene[J].InternationalJournalofComputerVision, 2003, 51(3): 189-203.

        [6] 夏候凱順, 嚴娟,葉小朋,等. 基于Kalman濾波的無線傳感器網絡多目標跟蹤[J]. 中山大學學報(自然科學版), 2014, 53(2): 18-22.

        [7]BLACKJ,ELLIST,ROSINP.Multiviewimagesurveillanceandtracking[C]∥ProceedingsoftheIEEEWorkshoponMotionandVideoComputing, 2002: 169-174.

        [8]HUW,HUM,ZHOUX,etal.Principalaxis-basedcorrespondencebetweenmultiplecamerasforpeopletracking[J].IEEETransactionsonPatternAnalysisandMachineIntelligence, 2006, 28(4): 663-671.

        [9] 林青, 范晶晶, 胡波. 多攝像頭目標跟蹤動態(tài)單應投影方法研究[J]. 復旦大學學報, 2015, 50(4): 501-510.

        [10] 高翔, 朱婷婷, 劉洋. 多攝像頭系統的目標檢測與跟蹤方法研究[J]. 計算機技術與發(fā)展, 2015, 25(7): 221-225.

        [11]KHANS,SHAHM.Consistentlabelingoftrackedobjectsinmultiplecameraswithoverlappingfieldsofview[J].IEEETransactionsonPatternAnalysisandMachineIntelligence, 2003, 25(10): 1355-1360.

        [12]KIMK,DAVISLS.Multi-cameratrackingandsegmentationofoccludedpeopleongroundplaneusingsearch-guidedparticlefiltering[M]∥ProceedingsoftheECCV.BerlinHeidelberg:Springer, 2006: 98-109.

        [13]ARSID,HRISTOVE,LEHMENTN,etal.Applyingmultilayerhomographyformulticamerapersontracking[C]∥ProceedingsoftheSecondACM/IEEEInternationalConferenceonDistributedSmartCameras, 2008: 1-9.

        [14]ALAHIA,JACQUESL,BOURSIERY,etal.Sparsitydrivenpeoplelocalizationwithaheterogeneousnetworkofcameras[J].JournalofMathematicalImagingandVision, 2011, 41(1/2): 39-58.

        [15]FLEURETF,BERCLAZJ,LENGAGNER,etal.Multicamerapeopletrackingwithaprobabilisticoccupancymap[J].IEEETransactionsonPatternAnalysisandMachineIntelligence, 2008, 30(2): 267-282.

        [16]KHANSM,SHAHM.Trackingmultipleoccludingpeoplebylocalizingonmultiplesceneplanes[J].IEEETransactionsonPatternAnalysisandMachineIntelligence, 2009, 31(3): 505-519.

        [17] 姜明新, 王洪玉, 劉曉凱. 基于多相機的多目標跟蹤算法 [J]. 自動化學報, 2012, 38(4): 531-539.

        [18]ESHELR,MOSESY.Trackinginadensecrowdusingmultiplecameras[J].InternationalJournalofComputerVision, 2010, 88(1): 129-143.

        [19]PENGP,TIANY,WANGY,etal.Robustmultiplecameraspedestriandetectionwithmulti-viewBayesiannetwork[J].PatternRecognition, 2015, 48(5): 1760-1772.

        [20]CRIMINISIA.Single-viewmetrology[M]//AccurateVisualMetrologyfromSingleandMultipleUncalibratedImages.London:Springer, 2001: 69-105.

        [21]STAUFFERC,GRIMSONWEL.Adaptivebackgroundmixturemodelsforreal-timetracking[C]∥ProceedingsoftheIEEEComputerSocietyConferenceonComputerVisionandPatternRecognition, 1999.

        [22]SUZUKIS.Topologicalstructuralanalysisofdigitizedbinaryimagesbyborderfollowing[J].ComputerVision,Graphics,andImageProcessing, 1985, 30(1): 32-46

        [23]DOUGLASDH,PEUCKERTK.Algorithmsforthereductionofthenumberofpointsrequiredtorepresentadigitizedlineoritscaricature[J].Cartographica:TheInternationalJournalforGeographicInformationandGeovisualization, 1973, 10(2): 112-122.

        [24]RENJ,ORWELLJ,JONESG,etal.Trackingthesoccerballusingmultiplefixedcameras[J].ComputerVisionandImajeUnderstanding, 2009, 113(5):633-642.

        [25]RENJ,ORWELLJ,JONESG,etal.Real-timemodelineof3-dsoccerballtrajectoriesfrommultiplefixedcameras[J].IEEE, 2008,18(3):350-362.

        [26]RENJ,XUM,ORWELLJ,etal.Multi-cameravideosurveillanceforreal-timeanalysisandreconstructionofsoccergames[J].MachineVisionandApplications, 2010,21(6):855-863.

        Real-time object detection with foreground fusion from multiple cameras using homography mapping of polygon vertices

        RENJie1,XUMing2,ZHAOHuimin3

        (1.College of Electronics and Information, Xi’an Polytechnic University, Xi’an 710048,China;2.Department of Electrical and Electronic Engineering, Xi’an Jiaotong Liverpool University,Suzhou 215123,China;3.School of Electronic and Information, Guangdong Polytechnic Normal University,Guangzhou 510665, China)

        Multi-camera and multi-plane foreground fusion approach can relieve the effects of occlusion and improve the accuracy and robustness of moving object detection. The traditional homography mapping is an image-level transformation which projects each pixel in the binary foreground image into a reference view. To avoid perspective openings or holes which are generated during the mapping from the camera view to the top view, the number of the pixels in the homography mapping is decided by the resolution of the top view, which is usually higher than that of the camera view. The slow speed has dissuaded the foreground homography mapping from real-time applications. A foreground polygon approximation method is proposed. After the foreground regions are identified in a camera view, each foreground region is approximated by a polygon and only the vertices of the polygon are projected to the reference view through homography mapping. Then the projected foreground region, which is rebuilt in the reference view, is utilized in real-time moving object detection with multiple cameras. To evaluate the performance, the proposed polygon approximation method has been compared with the contour based method and the bounding-box based method. The experimental results have shown that the proposed algorithm can produce competitive results in comparison with those using foreground bitmap mapping. Considering the differences of moving objects’ size, the processing speed is about 12 and 69 times faster than the bitmap mapping method.

        object detection ; homography ; multi-camera

        10.13471/j.cnki.acta.snus.2016.04.006

        2016-02-19

        國家自然科學基金資助項目(60975082);陜西省教育廳科研計劃項目(15JK1310);廣東省自然科學基金資助項目(2015A030313672,2016A030311013); 廣東省教育廳省級重大資助項目(2014KZDXM060); 廣東省普通高校國際合作重大項目(2015KGJHZ021)

        任劼(1984年生),女;研究方向:機器視覺視頻監(jiān)控;E-mail:renjie_xpu@126.com

        TP

        A

        0529-6579(2016)04-0030-09

        猜你喜歡
        多邊形前景攝像機
        多邊形中的“一個角”問題
        我國旅游房地產開發(fā)前景的探討
        四種作物 北方種植有前景
        多邊形的藝術
        解多邊形題的轉化思想
        離岸央票:需求與前景
        中國外匯(2019年11期)2019-08-27 02:06:32
        多邊形的鑲嵌
        趣味(數學)(2019年11期)2019-04-13 00:26:32
        看監(jiān)控攝像機的4K之道
        攝像機低照成像的前世今生
        新安訊士Q6155-E PTZ攝像機
        欧美成人a在线网站| 亚洲成在人线av品善网好看| 玩弄放荡人妻少妇系列| 亚洲AV永久青草无码性色av| 久久精品一区二区三区不卡牛牛 | 综合无码一区二区三区四区五区| 国产一区二区三区经典| 久久红精品一区二区三区| 天堂а√在线最新版中文在线| 欧美精品一区视频| 国产成人色污在线观看| 亚洲久悠悠色悠在线播放| 蜜桃无码一区二区三区| 狠狠躁夜夜躁AV网站中文字幕| 开心激情网,开心五月天| 久久久久高潮综合影院| 久久亚洲精品成人av| 国产成年无码久久久免费| 一卡二卡国产av熟女| 日本另类αv欧美另类aⅴ| 国内少妇人妻丰满av| 加勒比熟女精品一区二区av| 最新国产不卡在线视频| 天堂aⅴ无码一区二区三区 | 色爱无码av综合区| 欧美日韩性视频| 日本一本二本三本道久久久| 婷婷精品国产亚洲av麻豆不片| 无码人妻黑人中文字幕| www.五月激情| 可以直接在线看国产在线片网址| 亚洲精品成人片在线观看精品字幕| 国产亚洲日韩欧美久久一区二区| 国产一区二区av男人| 成人免费自拍视频在线观看| 真人直播 免费视频| 成年人免费黄色h网| 亚洲国产精品成人av在线不卡| 97精品一区二区视频在线观看| 一本一本久久久久a久久综合激情| 日本久久视频在线观看 |