王飛 甘肅政法學(xué)院
公安視頻圖像中視頻序列的圖像運(yùn)動(dòng)目標(biāo)所研究的主要目標(biāo)為:把運(yùn)動(dòng)目標(biāo)連續(xù)從視頻序列圖像中提取出來,之后對(duì)該運(yùn)動(dòng)目標(biāo)進(jìn)行跟蹤和識(shí)別,最后完成對(duì)該行為的描述和理解[1]。目標(biāo)跟蹤和識(shí)別及運(yùn)動(dòng)檢測層次比較低,歸屬于圖像處理;而圖像分析和理解處理的層次較高,歸屬于人工智能[2]。公安視頻圖像中視頻圖像的運(yùn)動(dòng)研究基礎(chǔ)是數(shù)字圖像處理,涉及內(nèi)容比較廣泛,包括數(shù)字模式識(shí)別、圖像處理、人工智能、計(jì)算機(jī)視覺等多個(gè)學(xué)科和領(lǐng)域。而且,當(dāng)前所研發(fā)的公安視頻圖像中視頻序列圖像運(yùn)動(dòng)目標(biāo)研究方面,系統(tǒng)在高要求魯棒性、實(shí)時(shí)性的同時(shí),漸漸重視它們的可移植性與通用性[3]。本論文以現(xiàn)有理論、算法和工具為前期基礎(chǔ),以開放的計(jì)算機(jī)視覺程序庫OpenCV為工具,重點(diǎn)研發(fā)公安視頻圖像中怎樣從序列圖像中跟蹤和檢測運(yùn)動(dòng)目標(biāo)。
處理圖像的時(shí)候,計(jì)算相鄰兩幀圖像間的差來得到運(yùn)動(dòng)區(qū)域的幀間差分,使用差值圖像可以很快檢查到鄰接圖像里所有活動(dòng)目標(biāo)運(yùn)動(dòng)區(qū)域,一般來講,使用該方法得到的活動(dòng)目標(biāo)要大于實(shí)際目標(biāo),我們稱該現(xiàn)象為“鬼影”[4]。而且,該方法不能檢測到重疊部分,只能檢測到前后兩幀中物體相對(duì)變化的內(nèi)容,致使檢測的目標(biāo)出現(xiàn)稱之為“空洞”的情況。三幀差分法的核心思想是再差分相互連接的三幀圖像,改進(jìn)了兩幀差分,可以有效檢測到處于中間這一幀的運(yùn)動(dòng)目標(biāo)的形狀輪廓[5]。
在設(shè)定的圖像序列里,選擇連續(xù)的三幀圖像Ii-1(x,y),,Ii(x,y), Ii+1(x,y),依次求出相鄰兩幀圖像的差值。
把求出的差值圖像選擇適合的閾值T進(jìn)行二值化。
把像素點(diǎn)(x,y)計(jì)算得出的二值圖像進(jìn)行邏輯“與”操作,計(jì)算出在這三幀圖像中,中間幀的二值圖像。
算法流程如圖1所示。
混合高斯模型的定義為:
其中K為模型的個(gè)數(shù);πk為第k個(gè)高斯的權(quán)重;p(x/k)是第k個(gè)模型的高斯概率密度,它的平均值表示成μk,其方差表示為σk。估計(jì)概率密度的目的是為了求得πk、μk與σ k這三個(gè)變量的值。在表達(dá)式p(x)被求出以后,樣本x屬于各個(gè)類的概率就由求和式的各項(xiàng)結(jié)果依次代表[6]。
最大似然方法是在做參數(shù)估計(jì)的時(shí)候經(jīng)常使用的方法。使樣本點(diǎn)在估計(jì)的概率密度函數(shù)上的概率值最大就是最大似然法的核心思想。因?yàn)楦怕手狄话闱闆r下是很小的,在N值很大的情況下連乘的結(jié)果也會(huì)非常小,浮點(diǎn)數(shù)下溢很容易出現(xiàn)[7]。因此我們一般情況下取log,把目標(biāo)改為:
也就是最大化對(duì)數(shù)似然函數(shù),完整的表示形式是:
通常情況下,做參數(shù)估計(jì)的方法是經(jīng)過對(duì)求變量來求導(dǎo)進(jìn)而求極值,在前面的式里,如果用求導(dǎo)的辦法進(jìn)行計(jì)算,方程組會(huì)極復(fù)雜,因?yàn)閘og函數(shù)中有求和而沒有閉合解。因此論文用EM算法求解:首先,可以通過基于上一步迭代結(jié)果或初始化而假設(shè)出每個(gè)高斯模型的參數(shù),這樣每個(gè)高斯模型權(quán)可以被估計(jì)出來;然后,根據(jù)前面估計(jì)出的權(quán)值,反過來再去確定高斯模型的參數(shù)[8]。反復(fù)執(zhí)行前面兩步,當(dāng)波動(dòng)很小的時(shí)候近似達(dá)到極值。下面進(jìn)行詳細(xì)表述:
1. E step
對(duì)于第i個(gè)樣本xi來說,它由第k個(gè)model生成的概率為:
在這里,用上一步迭代而來或由初始值決定的方法,假定高斯模型的參數(shù)和已知。
2. M step
得到每個(gè)點(diǎn)的ωi(k)后,我們可以這樣考慮:對(duì)樣本Xi來說,它的ωi(k)Xi的值是由第K個(gè)高斯模型產(chǎn)生的[9]。換句話說,第K個(gè)高斯模型產(chǎn)生了ωi(k)Xi(i=1……N)這些數(shù)據(jù)。這樣在估計(jì)第K個(gè)高斯模型的參數(shù)時(shí),我們就用ωi(k)Xi(i=1……N)這些數(shù)據(jù)去做參數(shù)估計(jì)。和前面提到的一樣采用最大似然的方法去估計(jì):
重復(fù)上兩步,直到算法收斂。
我們的目標(biāo)檢測代碼的三個(gè)算法全都是利用運(yùn)動(dòng)目標(biāo)在連續(xù)幾幀的視頻中的像素點(diǎn)不會(huì)一致,從而確定出背景模型,然后再利用每幀跟背景模型相匹配,得出不一樣的像素點(diǎn)則為運(yùn)動(dòng)目標(biāo)[14]。但是每個(gè)算法對(duì)于背景模型的更新頻率以及如何進(jìn)行更新則不一樣。
1. 三幀差分法
使用三幀差法,能夠?qū)⑦\(yùn)動(dòng)物體的輪廓描出,發(fā)現(xiàn)物體內(nèi)并沒有使用白色填充。我們選擇合適閾值區(qū)分背景和前景,可以盡量減少誤差,但是這個(gè)算法并不精細(xì),因?yàn)閷?duì)于前景區(qū)分的時(shí)候,并不像之后的幾種算法勾勒出運(yùn)動(dòng)物體的影子。
2. 高斯混合模型
高斯混合模型是一種比較細(xì)致的識(shí)別模型,能夠使得運(yùn)動(dòng)物體并不明顯的影子也被檢測出現(xiàn)。在該模型中,圖像各個(gè)像素點(diǎn)的特征用三至五個(gè)高斯模型來表達(dá),當(dāng)獲得新一幀圖像后,混合高斯模型會(huì)被更新,用混合高斯模型和當(dāng)前圖像中的每個(gè)像素點(diǎn)進(jìn)行匹配,成功匹配斷定這個(gè)點(diǎn)是背景點(diǎn),反之是前景點(diǎn)。該模型主要由兩個(gè)參數(shù)決定,為均值與方差。學(xué)習(xí)均值與方差的時(shí)候,學(xué)習(xí)機(jī)制不同,會(huì)對(duì)模型的精確性、收斂性與穩(wěn)定性產(chǎn)生直接影響。論文提取建模的對(duì)象是運(yùn)動(dòng)目標(biāo)背景,所以需要實(shí)時(shí)更新模型中的均值與方差。改進(jìn)方法,更新均值和方差的時(shí)候,使用不同的學(xué)習(xí)率可以提高模型的學(xué)習(xí)能力,提高在比較繁忙的背景下,慢且大的運(yùn)動(dòng)目標(biāo)的檢測效果。
三幀差分法和高斯混合模型在公安視頻圖像中運(yùn)動(dòng)目標(biāo)識(shí)別技術(shù)中的應(yīng)用,為用戶與視頻內(nèi)容的交互帶來了新的方式,為發(fā)展警務(wù)情報(bào)、信息系統(tǒng)提供了一種解決方案。過去的視頻操作技術(shù)依靠非常耗時(shí)的手工實(shí)現(xiàn),而且能夠進(jìn)行手工操縱的視頻資源非常有限。自動(dòng)或者交互式的視頻對(duì)象提取可以減少人工交互,降低制作代價(jià)。這個(gè)框架下,三幀差分法和高斯混合模型技術(shù)提取出的視頻對(duì)象,可以通過編輯、超鏈接、特技或者與計(jì)算機(jī)生成的對(duì)象聯(lián)合,重新生成新的更豐富的內(nèi)容。
在基于視頻對(duì)象的視覺信息描述框架下,采用三幀差分法和高斯混合模型技術(shù),視頻編輯的內(nèi)容會(huì)更為豐富。此時(shí)視頻編輯工作不僅是裝配鏡頭和場景,還包括利用三幀差分法和高斯混合模型產(chǎn)生新的內(nèi)容;可以再次利用舊的視頻內(nèi)容,生成新的視頻;可以通過添加或者刪除場景中的視頻對(duì)象,或者與其它對(duì)象聯(lián)合,生成新的內(nèi)容。前景和背景是兩個(gè)非常重要的元素,背景是最底層,其它層都疊加在背景層上,前景則是放置在背景上的基本元素,用戶可以使用鼠標(biāo)在背景視頻中操縱視頻對(duì)象。參考MPEG-4,定義視頻、音頻、文字、數(shù)據(jù)分別是具有時(shí)域和空域?qū)傩缘膯蝹€(gè)模塊,可以控制它們?cè)趫鼍爸械男袨楹臀恢谩?/p>
利用上述研究成果,對(duì)采集的道路車輛信息實(shí)現(xiàn)實(shí)時(shí)分析與傳送,建立了一個(gè)有關(guān)道路交通視頻描述的數(shù)據(jù)庫,交警部門可以根據(jù)需要對(duì)描述數(shù)據(jù)庫進(jìn)行查詢和檢索,極大提高了道路交通視頻使用的效率,該系統(tǒng)已經(jīng)取得了初步的成果。
本文硬件平臺(tái)為普通筆記本電腦,CPU是主頻1.7GHz的64位四核酷睿i5,內(nèi)存容量4G,軟件開發(fā)平臺(tái)為Windows 10、OpenCV以及Visual Studio 2015。安裝下載得到的OpenCV應(yīng)用程序,需要版本為3.1.0和2.4.9。
論文的研究內(nèi)容是“公安視頻圖像中運(yùn)動(dòng)目標(biāo)識(shí)別研究”,研究設(shè)計(jì)包括數(shù)字圖像處理、公安視頻圖像中運(yùn)動(dòng)目標(biāo)的檢測與跟蹤、基于OpenCV的框架式運(yùn)動(dòng)目標(biāo)分析系統(tǒng)的設(shè)計(jì)。論文對(duì)圖像序列選取并設(shè)計(jì)合適的算法,通過OpenCV和C++編制程序?qū)崿F(xiàn)正確的識(shí)別序列圖像中的運(yùn)動(dòng)目標(biāo)。采用Intel公司開發(fā)的開源圖像處理和計(jì)算機(jī)視覺函數(shù)庫OpenCV作為實(shí)驗(yàn)開發(fā)平臺(tái),實(shí)現(xiàn)了圖像處理和計(jì)算機(jī)視覺方面的很多通用算法[15]。由于選擇該工具,論文中公安視頻圖像中的運(yùn)動(dòng)目標(biāo)識(shí)別和跟蹤流程因復(fù)雜算法所消耗的時(shí)間被大大縮短,在此基礎(chǔ)上建立的公安視頻圖像中運(yùn)動(dòng)目標(biāo)識(shí)別和跟蹤系統(tǒng)具有較高的實(shí)用性。
[1] 盧章平,孔德飛,李小蕾,王軍偉. 背景差分與三幀差分結(jié)合的運(yùn)動(dòng)目標(biāo)檢測算法[A]. 算法、設(shè)計(jì)與應(yīng)用,2013,21(12): 1671-4598.
[2] 吳曉陽. 基于OpenCV的運(yùn)動(dòng)目標(biāo)檢測與跟蹤[J]. 浙江大學(xué)出版社, 2012,05(01):557-585.
[3] 韓軍,熊璋,孫文彥,龔聲蓉. 自動(dòng)分割及跟蹤視頻運(yùn)動(dòng)對(duì)象的一種實(shí)現(xiàn)方法[J]. 中國圖像圖形學(xué)報(bào), 2014, 91(13):377-401.
[4] 賈云得. 機(jī)器視覺[M]. 北京:科學(xué)出版社, 2015:97-100.
[5] 吳炯,張秀彬. 數(shù)字圖像處理中邊緣檢測算法的實(shí)現(xiàn)研究[J].微計(jì)算機(jī)信息,2014,20(5):159-197.
[6] 孫慧,周紅霞,李朝暉. 圖像處理中邊緣檢測技術(shù)的研究[J].電腦開發(fā)與應(yīng)用,2012,15(10):7-9.
[7] 段瑞玲,李慶祥,李玉和. 圖像邊緣檢測方法研究綜述[J]. 光學(xué)技術(shù),2015,31(3):415-419.
[8] 陳宇云. 灰度圖像的邊緣檢測研究[M]. 西安:電子科技大學(xué),2013,44-62.
[9] 姚敏. 數(shù)字圖像處理[M]. 北京:機(jī)械工業(yè)出版社,2016:78-98.
[10] 徐建華. 圖像處理與分析[M]. 北京:科學(xué)出版社,2014:112-132.
[11] 張艷群,孟凡榮. MATLAB在圖像邊緣檢測中的應(yīng)用[J]. 計(jì)算機(jī)應(yīng)用研究,2014,16(3):144-146.
[12] 阮秋琦. 數(shù)字圖像處理學(xué)[M]. 北京:電子工業(yè)出版社,2012:198-204.
[13] 崔屹. 數(shù)字圖像處理與技術(shù)[M]. 北京:電子工業(yè)出版社,2012:35-42.
[14] 俞洪山,王耀南. 一種改進(jìn)型Canny邊緣檢測算法[J]. 計(jì)算機(jī)工程與應(yīng)用,2014,20(2):27-29.
[15] 王娜,李霞. 一種新的改進(jìn)Canny邊緣檢測算法[J]. 深圳大學(xué)學(xué)報(bào)理工版,2015,22(2):149-153.