王東京,張寶輝,陳弘原,王潤(rùn)宇,吳 杰,吳旭東
?
自適應(yīng)復(fù)雜背景干擾的運(yùn)動(dòng)目標(biāo)檢測(cè)算法
王東京1,張寶輝2,陳弘原1,王潤(rùn)宇2,吳 杰2,吳旭東2
(1. 南京理工大學(xué) 電子工程與光電技術(shù)學(xué)院,江蘇 南京 210094;2. 北方夜視科技集團(tuán)有限公司南京研發(fā)中心,江蘇 南京 211106)
基于視頻圖像的運(yùn)動(dòng)目標(biāo)檢測(cè),是根據(jù)目標(biāo)的像素特征來(lái)判別出相對(duì)于背景運(yùn)動(dòng)的目標(biāo),當(dāng)圖像背景動(dòng)態(tài)變化時(shí),將難以區(qū)分背景和運(yùn)動(dòng)目標(biāo)的像素特征,易造成檢測(cè)錯(cuò)誤。復(fù)雜背景下的運(yùn)動(dòng)目標(biāo)檢測(cè)是一大難點(diǎn),目前主流的運(yùn)動(dòng)目標(biāo)檢測(cè)算法在背景灰暗、水面波動(dòng)、氣流顫動(dòng)等復(fù)雜背景干擾下,難以準(zhǔn)確地檢測(cè)出運(yùn)動(dòng)目標(biāo)。針對(duì)上述問(wèn)題,提出一種自適應(yīng)復(fù)雜背景干擾的運(yùn)動(dòng)目標(biāo)檢測(cè)算法,采用新的前景判斷和背景模型更新方法,同時(shí)設(shè)計(jì)了一種創(chuàng)新型自適應(yīng)閾值更新方法,當(dāng)視頻背景變化時(shí),自動(dòng)更新閾值。該算法增強(qiáng)了對(duì)復(fù)雜背景、鏡頭抖動(dòng)的抗干擾能力,通過(guò)各種視頻測(cè)試,背景點(diǎn)檢測(cè)正確率達(dá)到0.9958,前景點(diǎn)檢測(cè)正確率達(dá)到0.8012,極大提高了前景檢測(cè)率,而且該算法滿足高實(shí)時(shí)性要求,對(duì)復(fù)雜背景下的運(yùn)動(dòng)目標(biāo)檢測(cè)有顯著效果。
運(yùn)動(dòng)目標(biāo)檢測(cè);復(fù)雜背景;模型更新;自適應(yīng)閾值
在數(shù)字圖像處理和計(jì)算機(jī)視覺(jué)領(lǐng)域中,運(yùn)動(dòng)目標(biāo)檢測(cè)是目標(biāo)分類、識(shí)別、跟蹤[1]等后期視頻圖像處理的基礎(chǔ)和關(guān)鍵。運(yùn)動(dòng)目標(biāo)檢測(cè)主要分為光流法[2]、幀差法和背景差分法。相對(duì)于光流法和幀差法,背景差分法具有檢測(cè)連續(xù)性強(qiáng)、準(zhǔn)確度高、對(duì)背景變化魯棒性[3]強(qiáng)等優(yōu)點(diǎn),因此,基于背景差分法下的各種運(yùn)動(dòng)目標(biāo)檢測(cè)算法成為研究的焦點(diǎn)。
傳統(tǒng)算法中,基于混合高斯模型(Gaussian Mixture Model,GMM)[4-5]的運(yùn)動(dòng)目標(biāo)檢測(cè)算法是應(yīng)用最為廣泛的算法,GMM對(duì)每個(gè)像素點(diǎn)建立多個(gè)高斯模型作為背景模型,適用于復(fù)雜背景的建模。由Martin Hofmann等人在2012年提出一種引入控制論思想的檢測(cè)算法(Pixel-Based Adaptive Segmenter,PBAS)[6],采用與SACON[7]算法相似的背景建模方法,收集前幀像素以及梯度幅值作為背景模型,該算法檢測(cè)準(zhǔn)確度高,對(duì)緩慢的光照變化具有較好的魯棒性。但是,這兩種算法的計(jì)算復(fù)雜度高,實(shí)時(shí)性不好,背景建模速度慢。
Olivier Barnich等人提出的一種快速運(yùn)動(dòng)目標(biāo)檢測(cè)算法(Visual Background Extraction,ViBe)[8],具有算法復(fù)雜度低、實(shí)時(shí)性高、建模速度快等優(yōu)點(diǎn),但是會(huì)產(chǎn)生鬼影問(wèn)題(鬼影是指靜止的物體離開(kāi)后,原來(lái)它靜止的位置被誤檢為前景點(diǎn)),并且易受到復(fù)雜背景變化的干擾。
本文在ViBe算法的基礎(chǔ)上提出一種新的運(yùn)動(dòng)目標(biāo)檢測(cè)算法(Adaptive Complex Background Segmentation,ACBS),能更好地克服背景灰暗、水面波動(dòng)、氣流顫動(dòng)等復(fù)雜背景的干擾,同時(shí)能夠更好地消除視頻鏡頭抖動(dòng)的影響。ACBS算法完整的檢測(cè)流程如圖1所示,主要分為3個(gè)步驟:背景點(diǎn)建模、前景點(diǎn)分割、背景模型更新。ACBS采用了ViBe的背景建模方式,在前景點(diǎn)分割、背景模型更新和閾值更新方面提出了新的方法。
圖1 ACBS算法框圖
基于背景差分法[9]的運(yùn)動(dòng)目標(biāo)檢測(cè)算法是將視頻序列中每一幀圖像像素點(diǎn)的顏色信息與建立好的背景模型相比較,檢測(cè)出與背景模型顏色信息不匹配的像素點(diǎn),即為前景點(diǎn)。背景模型的建立是實(shí)現(xiàn)算法的第一步,ACBS采用像素級(jí)建模方式,對(duì)任一像素點(diǎn)X,建立它的背景模型為:
(X)集合中的個(gè)樣值在|(X)±10|范圍內(nèi)隨機(jī)抽取,其中(X)為第一幀圖像像素點(diǎn)X的像素值,通過(guò)隨機(jī)抽取的樣值來(lái)模擬檢測(cè)過(guò)程中隨機(jī)噪聲對(duì)像素點(diǎn)的影響。相比其它算法需要多幀圖像初始化背景模型,ACBS僅用一幀圖像初始化背景模型更加簡(jiǎn)單高效。
視頻圖像經(jīng)過(guò)檢測(cè)后輸出結(jié)果為二值化圖像,黑色為背景點(diǎn),白色為前景點(diǎn)。在前景檢測(cè)方面,通用的方法如下:首先將像素點(diǎn)X所有的通道像素值相加求和為,再將背景模型中單個(gè)樣值M(X)所有的通道像素值相加求和為b,最后根據(jù)兩值之差的絕對(duì)值|-b|是否在設(shè)定的閾值范圍之內(nèi)來(lái)判斷像素點(diǎn)X是否和樣值M(X)匹配,如果像素點(diǎn)X與背景模型中樣值匹配的數(shù)目超過(guò)設(shè)定的值,則判斷該點(diǎn)為背景點(diǎn),否則為前景點(diǎn)。這種檢測(cè)方法雖然計(jì)算簡(jiǎn)單,但是檢測(cè)不精確,因?yàn)楫?dāng)像素點(diǎn)X和樣值M(X)的顏色信息不同時(shí),它們所有的通道像素值之和仍然可能相近,所以該像素點(diǎn)可能被誤判為與樣值M(X)匹配,從而被判斷為背景點(diǎn)。
如果某像素點(diǎn)X的顏色信息與背景模型樣值M(X)不同時(shí),它們的所有通道值像素必然會(huì)有部分不相等,本文提出的前景點(diǎn)檢測(cè)方法正是基于這個(gè)特征,將每個(gè)像素點(diǎn)所有的通道像素值分解為獨(dú)立的單通道值,然后分別和背景模型樣值M(X)的單通道值相比較,以此來(lái)判斷該點(diǎn)顏色信息是否和M(X)匹配。設(shè)像素點(diǎn)X有個(gè)通道值(如RGB顏色空間中,每個(gè)像素點(diǎn)有R、G、B三個(gè)通道值),表示為:
則像素點(diǎn)X背景模型中每一個(gè)樣值M(X)也有個(gè)通道值,表示為:
將像素點(diǎn)X的單個(gè)通道值分別與背景模型樣值的單個(gè)通道值相比較:
式中:d為設(shè)定的匹配閾值,通道值之差在閾值范圍內(nèi)時(shí),認(rèn)為該點(diǎn)的通道值與M(X)的通道值匹配,相反,則判斷為不匹配。像素點(diǎn)X通道值匹配的數(shù)目決定了該像素點(diǎn)是否匹配背景模型樣值M(X):
式中:D(X)為1時(shí),表示像素點(diǎn)X與該點(diǎn)背景模型樣值M(X)匹配,將像素點(diǎn)X的像素值(X)按照式(4)、(5)和背景模型(X)中的樣值逐一比較,當(dāng)與背景樣值匹配數(shù)目達(dá)到設(shè)定的閾值r時(shí),像素點(diǎn)X則為背景點(diǎn),否則判斷為前景點(diǎn):
式中:(X)為輸出的二值化像素值,背景點(diǎn)像素值為0,前景點(diǎn)像素值為255。此方法檢測(cè)更加精確,特別是當(dāng)運(yùn)動(dòng)目標(biāo)和背景顏色相接近時(shí),能更加完整地檢測(cè)出運(yùn)動(dòng)目標(biāo)。
在整個(gè)視頻序列檢測(cè)過(guò)程中,視頻背景會(huì)受外界影響發(fā)生變化,所以背景模型需要不斷更新,背景模型更新是將(X)中的樣值按照某種規(guī)律更新為新值,從而適應(yīng)新的背景。傳統(tǒng)的背景模型更新方法分為保守更新和自由更新,保守更新只更新背景點(diǎn)的背景模型,不更新前景點(diǎn)的背景模型,這樣會(huì)使被誤檢為前景點(diǎn)的像素點(diǎn)一直保持為前景點(diǎn),造成死鎖現(xiàn)象;自由更新對(duì)背景點(diǎn)和前景點(diǎn)的背景模型同時(shí)更新,如果前景點(diǎn)背景模型更新速率太快,會(huì)使移動(dòng)緩慢的前景目標(biāo)融入背景,而且短暫停留的前景目標(biāo)也會(huì)被立即融入背景,造成目標(biāo)檢測(cè)的不連續(xù)性。
為了避免死鎖現(xiàn)象,同時(shí)保證目標(biāo)檢測(cè)的連續(xù)性,本文算法采用保守更新和前景點(diǎn)梯度概率更新相結(jié)合的方式來(lái)更新背景模型。視頻序列剛開(kāi)始檢測(cè)時(shí),前景點(diǎn)模型更新概率較大,更新速率快,有利于快速消除初始鬼影,隨著檢測(cè)幀數(shù)的增加,前景點(diǎn)模型更新概率呈梯度式減小,更新速率變慢,所以被檢測(cè)為前景的目標(biāo)在短時(shí)間內(nèi)不會(huì)被融入背景,保證了目標(biāo)檢測(cè)的連續(xù)性。
在目標(biāo)檢測(cè)過(guò)程中,將背景模型(X)中匹配頻率較高的樣值排列在模型的前半部分,匹配頻率低的樣值排列在后半部分,匹配頻率低的樣值將被優(yōu)先更新。某像素點(diǎn)X被判斷為背景點(diǎn)時(shí),從該點(diǎn)背景模型(X)后半部分樣值中隨機(jī)抽取一個(gè)樣值M(X),該樣值被當(dāng)前像素值(X)替換的概率為b,背景點(diǎn)模型更新概率b取值越大,模型更新速率越快;當(dāng)像素點(diǎn)X被判斷為前景點(diǎn)時(shí),采用梯度概率更新的方式更新前景點(diǎn)模型,從該點(diǎn)背景模型(X)中隨機(jī)抽取一個(gè)樣值M(Xi),該樣值被前景點(diǎn)像素值(X)更替的概率為f,更新概率f隨視頻序列的幀數(shù)呈梯度式減小。設(shè)g為設(shè)定的梯度因子,為當(dāng)前檢測(cè)的幀數(shù),g的值更新為:
f的值隨g更新為:
式中:max用來(lái)設(shè)定前景點(diǎn)模型最小更新概率。
在視頻檢測(cè)過(guò)程中,當(dāng)視頻背景發(fā)生突變時(shí),背景模型更新機(jī)制來(lái)不及反應(yīng),無(wú)法及時(shí)更新背景模型,導(dǎo)致變化后的背景點(diǎn)像素值(X)與背景模型樣值M(X)之差超出固定閾值d的范圍,從而判定該背景點(diǎn)不再匹配背景模型,被誤檢為前景點(diǎn)。
為了提高算法對(duì)復(fù)雜背景的抗干擾能力,本文設(shè)計(jì)了一種新型自適應(yīng)閾值更新方法,閾值d隨視頻背景變化自適應(yīng)更新,使變化的背景點(diǎn)像素值與背景模型樣值之差在新的閾值范圍之內(nèi),從而變化的背景點(diǎn)仍然匹配背景模型,被檢測(cè)為背景點(diǎn),消除了背景變化的干擾。
當(dāng)視頻背景變化時(shí),檢測(cè)到的前景點(diǎn)數(shù)目必然會(huì)改變,本文提出的閾值自適應(yīng)更新正是基于前景點(diǎn)數(shù)目變化來(lái)自動(dòng)調(diào)整匹配閾值d,d隨前景點(diǎn)數(shù)量增加線性遞增,使背景點(diǎn)的變化在更大閾值范圍內(nèi),反之,d隨前景點(diǎn)數(shù)量減少線性遞減,使被融入背景的前景點(diǎn)與背景模型樣值之差超出閾值范圍,從而被重新檢測(cè)為前景點(diǎn)。在檢測(cè)過(guò)程中,相隔幀統(tǒng)計(jì)一次檢測(cè)到的前景點(diǎn)數(shù)目r,當(dāng)檢測(cè)到的前景點(diǎn)數(shù)目與上次統(tǒng)計(jì)值之差超過(guò)設(shè)置的門(mén)限h時(shí),對(duì)匹配閾值d進(jìn)行更新:
式中:(X)表示前景點(diǎn)像素值;M(Xi)是該前景點(diǎn)背景模型中隨機(jī)抽取的一個(gè)樣值;min是d的最小值,a為閾值系數(shù)。的取值與背景點(diǎn)更新概率b和閾值r相關(guān):
=(r+1)/b(10)
在前景點(diǎn)變化數(shù)目超過(guò)門(mén)限h的情況下,相隔幀,對(duì)匹配閾值d更新一次,d的更新使誤檢的前景點(diǎn)被重新檢測(cè)為背景點(diǎn),之后每一幀,該背景點(diǎn)模型中的某個(gè)樣值M(X)被變化后的像素值(X)更新的概率為b,幀過(guò)后,理論上該背景點(diǎn)模型中有b×個(gè)樣值被(X)替代,被替代的樣值個(gè)數(shù)大于閾值r,所以只要該背景點(diǎn)像素值(X)不變化,下一次匹配閾值d的更新不再影響該點(diǎn)被檢測(cè)為背景點(diǎn)。
本部分展示了ACBS算法在各種復(fù)雜背景下的檢測(cè)效果,體現(xiàn)本文算法對(duì)復(fù)雜背景的抗干擾能力,并與其它算法檢測(cè)結(jié)果進(jìn)行比較分析,實(shí)驗(yàn)中選取了幾類典型的視頻進(jìn)行測(cè)試。
第一類視頻背景中存在動(dòng)態(tài)背景的干擾,實(shí)驗(yàn)結(jié)果如圖2和圖3所示。圖2(a)為視頻中的原始圖像,噴泉作為動(dòng)態(tài)背景對(duì)運(yùn)動(dòng)目標(biāo)的檢測(cè)帶來(lái)干擾,圖2(b)、(c)、(d)分別為GMM-Zivkovic[10]、ViBe和ACBS三種算法的檢測(cè)結(jié)果,其中GMM-Zivkovic采用高斯混合模型建立背景模型,而ViBe和ACBS利用第一幀原始圖像來(lái)建立背景模型,所以動(dòng)態(tài)噴泉在建模的時(shí)候,已經(jīng)被當(dāng)作背景??梢钥闯鰣D2(b)中除了運(yùn)動(dòng)的汽車(chē)之外,還存在很多誤檢的前景點(diǎn),圖2(c)、(d)中除了運(yùn)動(dòng)的汽車(chē)之外,幾乎沒(méi)有其它誤檢的前景點(diǎn),表明ViBe和ACBS的背景建模方式對(duì)噴泉干擾的壓制效果非常好,同時(shí)ACBS對(duì)汽車(chē)輪廓的檢測(cè)相比ViBe更加完整;圖3(a)為帶有波動(dòng)湖面為背景的原始圖像,相比圖2的噴泉干擾更加復(fù)雜,干擾面積更大,(b)、(c)、(d)分別為GMM-Zivkovic、ViBe和ACBS對(duì)湖面運(yùn)動(dòng)目標(biāo)檢測(cè)的結(jié)果,明顯可以看出,ACBS的檢測(cè)結(jié)果中誤檢前景點(diǎn)最少,相比另外兩種算法,ACBS隨湖面背景的變化,能夠自適應(yīng)調(diào)整匹配閾值,提高了對(duì)湖面變化的抗干擾能力。
第二類視頻選取兩組雨雪天氣下的監(jiān)控視頻,實(shí)驗(yàn)結(jié)果如圖4和圖5所示。圖4(a)為原始視頻圖像,雨雪天氣的原因使視頻背景整體偏暗,由于檢測(cè)是基于目標(biāo)和背景模型的顏色信息進(jìn)行的,灰暗背景嚴(yán)重影響運(yùn)動(dòng)目標(biāo)的檢測(cè)。ACBS將像素點(diǎn)所有單通道像素值分別和背景模型樣值的單通道像素值進(jìn)行單一比較,這種前景檢測(cè)方法能夠很好地克服灰暗背景下對(duì)目標(biāo)檢測(cè)不完整的問(wèn)題。圖4(b)、(c)、(d)分別為GMM-Zivkovic、ViBe和ACBS在灰暗背景下對(duì)移動(dòng)汽車(chē)的檢測(cè)結(jié)果,ACBS對(duì)汽車(chē)檢測(cè)的完整性遠(yuǎn)高于另外兩種算法;圖5實(shí)驗(yàn)對(duì)原始圖像(a)中的兩個(gè)運(yùn)動(dòng)目標(biāo)進(jìn)行檢測(cè),兩個(gè)目標(biāo)分別標(biāo)注為1、2,其中1號(hào)目標(biāo)距離鏡頭較近,體積相對(duì)較大,2號(hào)目標(biāo)距離鏡頭較遠(yuǎn),體積相對(duì)較小。從圖5(b)、(c)可以看出,GMM-Zivkovic、ViBe對(duì)1號(hào)目標(biāo)的檢測(cè)結(jié)果非常不完整,而且?guī)缀鯔z測(cè)不到2號(hào)目標(biāo),圖(d)為ACBS的檢測(cè)結(jié)果,對(duì)兩個(gè)目標(biāo)的檢測(cè)都非常完整清晰。
圖2 噴泉視頻檢測(cè)結(jié)果
圖3 湖面視頻檢測(cè)結(jié)果
第三類視頻選取帶有氣流顫動(dòng)干擾的遠(yuǎn)景視頻,實(shí)驗(yàn)結(jié)果如圖6所示。原始圖像(a)中有三個(gè)運(yùn)動(dòng)的目標(biāo),同時(shí)整個(gè)視頻背景受到氣流顫動(dòng)干擾造成圖像畫(huà)面模糊。圖(b)、(c)、(d)分別為GMM-Zivkovic、ViBe和ACBS的檢測(cè)結(jié)果,三種算法都精確檢測(cè)出了遠(yuǎn)處的運(yùn)動(dòng)目標(biāo),但是很明顯(b)、(c)的檢測(cè)結(jié)果出現(xiàn)很多誤檢的前景點(diǎn),由于ACBS采用前景點(diǎn)梯度概率更新方法,對(duì)前景點(diǎn)的背景模型進(jìn)行更新,所以被誤檢的前景點(diǎn)會(huì)被融入背景,從圖(d)可以看出ACBS檢測(cè)結(jié)果中沒(méi)有誤檢的前景點(diǎn)。
第四類視頻選取鏡頭移動(dòng)情況下實(shí)時(shí)采集的紅外視頻[11],視頻背景隨鏡頭移動(dòng)而變化,導(dǎo)致變化的背景點(diǎn)不再匹配原來(lái)的背景模型,從而被檢測(cè)為前景點(diǎn)。當(dāng)背景變化時(shí),ACBS通過(guò)自適應(yīng)調(diào)整匹配閾值,使背景點(diǎn)變化在新的閾值范圍內(nèi),仍然匹配原來(lái)的背景模型,并且被誤檢的前景點(diǎn)可以通過(guò)前景點(diǎn)背景模型更新,再次融背景,這提高了ACBS抑制鏡頭移動(dòng)干擾的能力。實(shí)驗(yàn)中,通過(guò)選取背景變化幅度不同的兩幀圖像來(lái)測(cè)試算法抵抗鏡頭移動(dòng)干擾的能力,實(shí)驗(yàn)結(jié)果如圖7所示。圖(a)和(e)為紅外視頻序列中的原始圖像,分別取自鏡頭移動(dòng)幅度較小和移動(dòng)幅度較大的時(shí)候,(b)、(c)、(d)分別為GMM-Zivkovic、ViBe和ACBS對(duì)圖(a)的檢測(cè)結(jié)果,(f)、(g)、(h)分別為GMM-Zivkovic、ViBe和ACBS對(duì)圖(e)的檢測(cè)結(jié)果。當(dāng)鏡頭移動(dòng)幅度較小時(shí),(b)中出現(xiàn)的誤檢前景點(diǎn)相比(c)、(d)是最多的,而(d)中沒(méi)有誤檢的前景點(diǎn);當(dāng)鏡頭移動(dòng)幅度較大時(shí),(f)、(g)中出現(xiàn)大量誤檢的前景點(diǎn),而(h)中只出現(xiàn)少量誤檢的前景點(diǎn),幾乎可以忽略。檢測(cè)結(jié)果表明,ACBS算法抵抗鏡頭移動(dòng)干擾的能力遠(yuǎn)優(yōu)于GMM-Zivkovic和ViBe。
圖4 雨雪天氣視頻1檢測(cè)結(jié)果
圖5 雨雪天氣視頻2檢測(cè)結(jié)果
圖6 氣流顫動(dòng)視頻檢測(cè)結(jié)果
圖7 紅外視頻檢測(cè)結(jié)果
為了進(jìn)一步驗(yàn)證本文算法的有效性,給出本文算法對(duì)Change Detection.net[12]視頻庫(kù)中六類視頻的測(cè)試結(jié)果,并和同類算法相比較,這六類視頻分別為Baseline、Dynamic background、Camera jitter、Intermittent object motion、Shadows、Thermal,這些視頻包含了生活中常見(jiàn)的復(fù)雜場(chǎng)景。
ACBS涉及多個(gè)參數(shù)設(shè)置,合理的參數(shù)設(shè)置才能發(fā)揮算法的最優(yōu)性能。在測(cè)試算法參數(shù)的實(shí)驗(yàn)中,選取ChangeDetection.net視頻庫(kù)中的視頻為測(cè)試對(duì)象,統(tǒng)計(jì)每次改變參數(shù)后的前景檢測(cè)準(zhǔn)確率Precision,該值由下式計(jì)算:
Precision=P/(P+P) (11)
式中:P為檢測(cè)正確的前景點(diǎn)數(shù);P為檢測(cè)錯(cuò)誤的前景點(diǎn)數(shù)。參數(shù)測(cè)試結(jié)果如圖8所示,圖中(a)~(h)分別描述了8個(gè)參數(shù)對(duì)ACBS前景檢測(cè)準(zhǔn)確率的影響。
根據(jù)圖8測(cè)試結(jié)果,ACBS參數(shù)設(shè)置如下:=20,背景模型樣值個(gè)數(shù)取決于視頻背景的復(fù)雜度,背景變化越復(fù)雜,背景模型需要記憶的背景樣值越多,的值相應(yīng)增大,反之,背景簡(jiǎn)單,的值相應(yīng)減小,當(dāng)取20時(shí),能滿足各種復(fù)雜背景的建模;d=20,初始化匹配閾值d的設(shè)置要保證運(yùn)動(dòng)目標(biāo)不在背景模型的匹配范圍內(nèi),通過(guò)統(tǒng)計(jì)不同顏色特征運(yùn)動(dòng)目標(biāo)像素值與背景點(diǎn)像素值的絕對(duì)差,取其最小值賦給d;min=10,d隨背景變化自適應(yīng)更新,為了防止d無(wú)限制減小,min用來(lái)限定d的最小值;b=0.1,b決定了背景點(diǎn)模型更新速率,b越大,算法適應(yīng)新背景越快,但是背景模型的記憶能力下降,降低了算法對(duì)復(fù)雜背景的抗干擾能力;r=2或4時(shí),如圖8(e)所示,算法檢測(cè)準(zhǔn)確率較高,但是r=2時(shí),所需匹配背景模型的樣值更少,算法運(yùn)行速度更快;g=32,梯度因子g決定了f值遞減速度,g越大,初始鬼影消除速度越快,但是前景目標(biāo)也更容易融入背景;max=200,前景點(diǎn)模型更新概率f最小值取決于max,該值越大,前景點(diǎn)融入背景越慢,反之該值越小,前景點(diǎn)融入背景越快;a=0.125,a為匹配閾值自適應(yīng)更新系數(shù),由圖8(h)可知,a取0.125時(shí),檢測(cè)效果最佳;=30,b和r已知,參數(shù)由公式(10)計(jì)算得到;ACBS參數(shù)設(shè)置在小范圍內(nèi)浮動(dòng)時(shí),對(duì)算法的綜合性能影響較小。
圖8 ACBS參數(shù)設(shè)置
ChangeDetection.net提供了多項(xiàng)參數(shù)標(biāo)準(zhǔn)來(lái)評(píng)估運(yùn)動(dòng)目標(biāo)檢測(cè)算法,其中包含參數(shù)Specificity(SP,指定區(qū)域背景點(diǎn)檢測(cè)正確率)、False Negative Rate(FNR,背景點(diǎn)檢測(cè)錯(cuò)誤率)、Precision(前景點(diǎn)檢測(cè)正確率)、False Positive Rate(FPR,前景點(diǎn)檢測(cè)錯(cuò)誤率)、Percentage of Wrong Classification(PWC,錯(cuò)誤檢測(cè)比例),這5項(xiàng)參數(shù)從不同方面評(píng)估了算法的檢測(cè)效果。
ACBS對(duì)6類視頻的測(cè)試結(jié)果如表1所示,表中列出了各類視頻檢測(cè)結(jié)果的評(píng)估參數(shù),并且計(jì)算了每項(xiàng)參數(shù)的平均值,根據(jù)表1中數(shù)據(jù)顯示,紅外視頻的前景檢測(cè)正確率Precision為0.9299,在6類視頻中最高,而最低的是動(dòng)態(tài)背景視頻,檢測(cè)正確率為0.6574。
ACBS與其它算法性能參數(shù)對(duì)比如表2所示,其中每種算法的各項(xiàng)參數(shù)取自該算法對(duì)6類視頻檢測(cè)評(píng)估參數(shù)的平均值。從表2中數(shù)據(jù)可以看出ACBS前兩項(xiàng)參數(shù)SP、FPR優(yōu)于列出的所有算法,分別為0.9958、0.0048,前景點(diǎn)檢測(cè)正確率Precision為0.8012,僅比PBAS低0.0148。ACBS的FNR參數(shù)表示的背景點(diǎn)檢測(cè)錯(cuò)誤率比較高,原因在于ChangeDetection.net提供的評(píng)估標(biāo)準(zhǔn)中將已經(jīng)停止的運(yùn)動(dòng)目標(biāo)一直分類為前景點(diǎn),這不符合運(yùn)動(dòng)目標(biāo)檢測(cè)的含義,完全停止運(yùn)動(dòng)的目標(biāo)最后應(yīng)該融入背景,不再被檢測(cè)為前景點(diǎn)。綜合分析表2中的數(shù)據(jù),ACBS算法的綜合性能明顯優(yōu)于其它算法,其它八種算法背景點(diǎn)檢測(cè)正確率SP的平均值為0.9819,ACBS相比平均值提高了1.39%,前景點(diǎn)檢測(cè)正確率Precision的平均值為0.7267,ACBS相比平均值提高了7.45%。
表1 ACBS對(duì)六類視頻測(cè)試結(jié)果
表2 ACBS與其它算法評(píng)估參數(shù)對(duì)比
ACBS不僅提高了對(duì)復(fù)雜背景的抗干擾能力,而且能夠高速運(yùn)行,滿足高實(shí)時(shí)性要求。為了對(duì)比各種算法的實(shí)時(shí)性,在相同的運(yùn)行環(huán)境下,統(tǒng)計(jì)不同算法處理相同視頻圖像所耗費(fèi)的時(shí)間和計(jì)算機(jī)資源,從時(shí)間和空間上分析算法的復(fù)雜度。所有算法均在CPU型號(hào)為i5-2450M,2.5GHz的計(jì)算機(jī)上單線程運(yùn)行,視頻圖像大小為768×576,每種算法的統(tǒng)計(jì)結(jié)果如表3所示。
表3中列出的3個(gè)參數(shù)反應(yīng)了算法的時(shí)間和空間復(fù)雜度,分析表中數(shù)據(jù)可知,ACBS和ViBe對(duì)CPU的占用率較小,檢測(cè)速率快,內(nèi)存占用小,無(wú)論在時(shí)間和空間復(fù)雜度上都遠(yuǎn)小于其它兩種算法,其中ACBS內(nèi)存占用最小,在運(yùn)行速率上比ViBe慢一點(diǎn)。由于ACBS較高的運(yùn)行速度和較小的內(nèi)存占用,使ACBS更加容易移植到嵌入式平臺(tái)上工作,滿足各種特殊場(chǎng)合下的實(shí)時(shí)性要求。
表3 算法實(shí)時(shí)性對(duì)比
本文提出一種自適應(yīng)復(fù)雜背景干擾的運(yùn)動(dòng)目標(biāo)檢測(cè)算法,前景檢測(cè)采取多通道像素分離比較的方法,能更精確檢測(cè)出與背景顏色信息相近的運(yùn)動(dòng)目標(biāo);背景模型更新方面,更新背景點(diǎn)模型的同時(shí),結(jié)合前景點(diǎn)梯度概率更新方法,提高了算法對(duì)背景變化的魯棒性;最后設(shè)計(jì)了一種新型的閾值自適應(yīng)更新方法,通過(guò)統(tǒng)計(jì)前景點(diǎn)數(shù)目變化,自動(dòng)更新閾值,提高了算法對(duì)復(fù)雜背景的抗干擾能力。通過(guò)實(shí)驗(yàn)測(cè)試,ACBS算法對(duì)運(yùn)動(dòng)目標(biāo)的檢測(cè)正確率相比同類算法平均值提高7.45%,背景檢測(cè)正確率提高1.39%,是一種實(shí)時(shí)性好、檢測(cè)準(zhǔn)確率高的運(yùn)動(dòng)目標(biāo)檢測(cè)算法。
[1] 楊智雄,余春超,嚴(yán)敏, 等.基于特征融合的粒子濾波紅外目標(biāo)跟蹤算法[J].紅外技術(shù),2016,38(3):211-217.
YANG Zhixiong, YU Chunchao, YAN Min, et al. Particle Filter Infrared Target Tracking Algorithm Based on Feature Fusion[J]., 2016, 38(3): 211-217.
[2] 李倩倩, 劉彥隆. 先驗(yàn)信息光流法在運(yùn)動(dòng)目標(biāo)檢測(cè)中的應(yīng)用[J].火力與指揮控制, 2015(10):156-160.
LI Qianqian, LIU Yanlong. Based on Optical Flow Method with Priori Information in the Application of Detecting Moving Target Tracking[J]., 2015(10):156-160.
[3] Shen Y, Hu W, Yang M, et al. Real-time and Robust Compressive Background Subtraction for Embedded Camera Networks[J]., 2016, 15(2): 406-418.
[4] Hu X, Zheng J. An Improved Moving Object Detection Algorithm Based on Gaussian Mixture Models[J]., 2016, 6(7): 449-456.
[5] Zeng Z. Moving Object Extraction Using the Improved Adaptive Gaussian Mixture Model and Shadow Detection Model[J]., 2015, 12(14): 5515-5522.
[6] Hofmann M, Tiefenbacher P, Rigoll G. Background segmentation with feedback: The Pixel-Based Adaptive Segmenter[C]//, 2012: 38-43.
[7] Wang H, Suter D. Background Subtraction Based on a Robust Consensus Method[C]//, 2006: 223-226.
[8] Barnich O, Van D M. ViBe: a universal background subtraction algorithm for video sequences[J]., 2011, 20(6): 1709-1724.
[9] 孫豐, 秦開(kāi)懷, 孫偉, 等. 一種針對(duì)移動(dòng)相機(jī)的實(shí)時(shí)視頻背景減除算法[J].計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào), 2016,28(4):572-578.
Sun Feng, Qin Kaihuai, Sun Wei, et al. A Real-Time Background Subtraction Algorithm for Freely Moving Cameras[J]., 2016, 28(4): 572-578.
[10] Zivkovic Z, Heijden F V D. Efficient adaptive density estimation per image pixel for the task of background subtraction[J]., 2006, 27(7): 773-780.
[11] 解婷,陳忠,馬榮毅. 一種基于PGF、BEMD和局部逆熵的新型紅外小目標(biāo)檢測(cè)方法[J].紅外與毫米波學(xué)報(bào),2017,36(1):92-101.
Xie Ting, Chen Zhong, Ma Rongyi. A novel method for infrared small target detection based on PGF, BEMD and LIE[J]., 2017, 36(1): 92-101.
[12] N. Goyette, P.-M. Jodoin, F. Porikli, et al. Change detection.net: A new change detection benchmark dataset[C]//(-2012)-2012, 2012: 16-21.
Moving-target Detection Algorithm Adapting Complex Background Interference
WANG Dongjing1,ZHANG Baohui2,CHEN Hongyuan1,WANG Runyu2,WU Jie2,WU Xudong2
(1.,,210094,; 2.,,,211106,)
Video-based moving-object detection is according to the pixel characteristics of the target to determine the target that is moving relative to the background. When the background of the image changes dynamically, it will be difficult to distinguish the pixel characteristics between the background and the moving target, which is prone to detection error. Moving target detection in a complex background has been a challenging problem until now. The mainstream algorithm of moving target detection still cannot accurately detect moving targets under complex backgrounds such as dark background, water surface fluctuation, and airflow quiver. Aiming at the above problems, a novel moving-target detection algorithm was proposed for adapting to complex background interference. The algorithm adopted a new standard of classifying the foreground and a new method of updating the background model. At the same time, a creative method was put forward to update the threshold, which would automatically adjust the size of the threshold according to the change of background. The algorithm enhanced the ability to resist the interference of the complex background and camera shake. According to various video tests, the accuracy rate of background detection reached 0.9958.On the other hand, the accuracy rate of foreground detection reached 0.8012. Obviously, it is a great progress on foreground detection. Besides, the novel algorithm has high work-efficiency and has a significant effect on the extraction of moving objects in a complex background.
moving target detection,complex background,updating model,adaptive threshold
TP391
A
1001-8891(2017)11-1024-08
2017-06-28;
2017-11-02.
王東京(1992-),男,碩士,主要從事紅外圖像處理方面的研究。
云南省科技廳院士自由探索項(xiàng)目專項(xiàng)科研資助(2016HA009)。