摘 要:本文提出一種新的針對(duì)移動(dòng)鏡頭下的運(yùn)動(dòng)目標(biāo)檢測(cè)仿生算法,通過(guò)模擬人眼的視覺(jué)感知實(shí)現(xiàn)移動(dòng)鏡頭下的目標(biāo)檢測(cè),首先用3DGabor濾波器組提取目標(biāo)的運(yùn)動(dòng)能量,接著用大尺度的環(huán)繞消除大量的背景信息,然后提取目標(biāo)的運(yùn)動(dòng)和空間顯著圖,通過(guò)目標(biāo)的運(yùn)動(dòng)顯著圖與運(yùn)動(dòng)能量得到目標(biāo)運(yùn)動(dòng)區(qū)域,最后將運(yùn)動(dòng)區(qū)域與目標(biāo)的空間顯著圖相結(jié)合提高目標(biāo)輪廓的完整性。人工模擬實(shí)驗(yàn)和真實(shí)視頻實(shí)驗(yàn)表明本文仿生算法的有效性。
關(guān)鍵詞:運(yùn)動(dòng)目標(biāo)檢測(cè);3DGabor濾波器;環(huán)繞抑制;空間顯著圖;運(yùn)動(dòng)顯著圖
中圖分類(lèi)號(hào):TP391.41
計(jì)算機(jī)視覺(jué)技術(shù)已經(jīng)廣泛應(yīng)用到各行各業(yè),而運(yùn)動(dòng)目標(biāo)檢測(cè)在其中有著重要的意義,現(xiàn)有運(yùn)動(dòng)目標(biāo)檢測(cè)算法依據(jù)使用的模型可以分為兩大類(lèi):一是計(jì)算機(jī)視覺(jué);二是仿生物模型。人類(lèi)視覺(jué)感知的高效性促使一些研究人員設(shè)計(jì)仿生物的運(yùn)動(dòng)目標(biāo)檢測(cè)模型。F.Raudies和H.Neumann[1]通過(guò)模擬各個(gè)視皮層神經(jīng)元的工作機(jī)制設(shè)計(jì)雙通路結(jié)構(gòu)模型,實(shí)現(xiàn)背側(cè)通路和腹側(cè)通路的相互作用,類(lèi)似的還有其它學(xué)者提出的視覺(jué)模型[2-3]。也有些研究人員計(jì)算視頻序列的顯著性時(shí)融入運(yùn)動(dòng)特征。例如Mancas等人提出的異常檢測(cè)模型。人眼在識(shí)別物體是否運(yùn)動(dòng),是通過(guò)判斷目標(biāo)物體相對(duì)參照物產(chǎn)生的位移即相對(duì)速度。與之前方法的出發(fā)點(diǎn)不同,本文提出一種新的解決思路,通過(guò)模擬人眼的視覺(jué)特性感知物體的相對(duì)速度實(shí)現(xiàn)移動(dòng)鏡頭下運(yùn)動(dòng)目標(biāo)的檢測(cè)。
1 方法
本文算法具體的實(shí)現(xiàn)步驟:采用3DGabor濾波器組提取場(chǎng)景中物體的運(yùn)動(dòng)能量;用大尺度的環(huán)繞抑制去除大量的同質(zhì)區(qū)域;基于運(yùn)動(dòng)能量分別提取目標(biāo)的運(yùn)動(dòng)和空間顯著圖,通過(guò)運(yùn)動(dòng)顯著圖與運(yùn)動(dòng)能量的交集得到目標(biāo)的運(yùn)動(dòng)區(qū)域;將運(yùn)動(dòng)區(qū)域與空間顯著性進(jìn)行求和以增加目標(biāo)輪廓的完整性。
1.1 運(yùn)動(dòng)信息的提取
1.1.1 模擬簡(jiǎn)單與復(fù)雜細(xì)胞。視覺(jué)感知系統(tǒng)中V1皮層包含的簡(jiǎn)單和復(fù)雜細(xì)胞對(duì)光柵刺激具有方向選擇性,視網(wǎng)膜上光刺激能夠使神經(jīng)元興奮的區(qū)域稱(chēng)為神經(jīng)元的感受野或者是經(jīng)典感受野(CRF)。本文采用Nicolat Petkov提出采用時(shí)空相結(jié)合的3DGabor濾波器模擬V1皮層的簡(jiǎn)單細(xì)胞響應(yīng)
與圖像序列I(x,y,t)進(jìn)行卷積得到V1簡(jiǎn)單細(xì)胞的響應(yīng)。將兩個(gè)相位正交的簡(jiǎn)單細(xì)胞作為復(fù)雜細(xì)胞的輸入,得到視頻序列中物體的運(yùn)動(dòng)能量Ev,θ(x,y,t)。
1.1.2 環(huán)繞抑制。本文利用大范圍的環(huán)繞去除圖像序列中因鏡頭移動(dòng)造成大部分的同質(zhì)背景區(qū)域。同時(shí)本文還采用無(wú)方向的環(huán)繞提取目標(biāo)的空間信息。
運(yùn)動(dòng)能量Ev,θ(x,y,t)與環(huán)繞抑制核函數(shù)wv,(θ),k1,k2卷積得到抑制項(xiàng)Sv,θ(x,y,t),環(huán)繞抑制運(yùn)動(dòng)能量 是由運(yùn)動(dòng)能量Ev,θ(x,y,t)與抑制項(xiàng)的差值經(jīng)半波整流得到。為了能抑制分布范圍較廣的背景信息,本文在構(gòu)建wv,(θ),k1,k2時(shí)乘以一個(gè)縮放因子η調(diào)節(jié)環(huán)繞在空間范圍的尺寸。本文選用不同方向、速度的3DGabor濾波器進(jìn)行多尺度的操作。將各個(gè)尺度下的 進(jìn)行疊加得到最終的運(yùn)動(dòng)能量 。
1.2 提取目標(biāo)顯著性
本文基于多尺度運(yùn)動(dòng)能量提取4類(lèi)特征信息,這些信息根據(jù)3DGabor速度大小分為:空間特性和運(yùn)動(dòng)特性。同時(shí)在提取環(huán)繞抑制能量時(shí)本文采用有方向與無(wú)方向兩種時(shí)空濾波器,分別得到運(yùn)動(dòng)目標(biāo)的方向特性和強(qiáng)度特性,綜合上述兩種特性分別得到四種特征信息。
本文采用動(dòng)態(tài)權(quán)重相加的方式融合上述特征,將空間上的強(qiáng)度和方向信息疊加得到SI,運(yùn)動(dòng)方向和運(yùn)動(dòng)強(qiáng)度相加得到MI。權(quán)重WS,WM計(jì)算公式如下:
文本認(rèn)為顯著圖Smap主要描述了目標(biāo)的動(dòng)態(tài)顯著圖,同時(shí)為了不丟失大量的空間特性,將空間強(qiáng)度TSI生成的顯著圖作為目標(biāo)的空間信息。
1.3 目標(biāo)檢測(cè)
為了檢測(cè)到移動(dòng)鏡頭下的運(yùn)動(dòng)目標(biāo),本文將運(yùn)動(dòng)能量 和Smap分別進(jìn)行二值化,由兩個(gè)掩膜相與得到目標(biāo)所處的運(yùn)動(dòng)區(qū)域MA,為了進(jìn)一步得到目標(biāo)完整的輪廓信息,將二值化后的空間顯著圖TSI與MA求并集作為最終的檢測(cè)結(jié)果。
2 實(shí)驗(yàn)結(jié)果與分析
2.1 模擬實(shí)驗(yàn)
本文先采用人工光柵實(shí)驗(yàn)驗(yàn)證大尺度的環(huán)繞可以去掉大量的背景運(yùn)動(dòng)。本文將獨(dú)立運(yùn)動(dòng)的小棒視為運(yùn)動(dòng)目標(biāo),分散的光柵模擬大量的背景運(yùn)動(dòng)(此時(shí)假設(shè)場(chǎng)景中任意位置的速度都是相同的),實(shí)驗(yàn)結(jié)果如圖1所示實(shí)驗(yàn)中光柵的速度Gv=2,獨(dú)立小棒的速度Bv=1,兩者的速度方向均為0度。從實(shí)驗(yàn)結(jié)果中我們看出大范圍的環(huán)繞可以去除分散的光柵,由于受到環(huán)繞抑制的影響,檢測(cè)后的目標(biāo)形狀與原始的目標(biāo)有所差別,但依然保留了目標(biāo)大部分的信息,圖1中最后一行是實(shí)驗(yàn)中采用的環(huán)繞。
圖1 人工光柵實(shí)驗(yàn)
2.2 真實(shí)視頻
本文除了采用人工光柵的模擬實(shí)驗(yàn),同時(shí)利用自然環(huán)境下拍攝的車(chē)載視頻進(jìn)行實(shí)驗(yàn)。檢測(cè)結(jié)果中發(fā)現(xiàn)本文的方法可以檢測(cè)到與背景速度不相同的運(yùn)動(dòng)目標(biāo),然而目標(biāo)輪廓依然存在“空洞”。本文通過(guò)3DGabor與環(huán)繞抑制相結(jié)合的方法提取目標(biāo)的運(yùn)動(dòng)能量,由于環(huán)繞可以去除大量的同質(zhì)區(qū)域,導(dǎo)致得到的運(yùn)動(dòng)能量只保留目標(biāo)的邊緣信息,同時(shí)文中通過(guò)無(wú)方向的環(huán)繞得到空間顯著圖,該顯著圖中最突出的是目標(biāo)的邊緣信息,因此根據(jù)上述兩個(gè)因素依然無(wú)法保證目標(biāo)輪廓信息的完整性。
3 結(jié)束語(yǔ)
本文通過(guò)模擬人的視覺(jué)感知系統(tǒng)實(shí)現(xiàn)移動(dòng)鏡頭下的運(yùn)動(dòng)目標(biāo)檢測(cè),人工光柵和真實(shí)視頻實(shí)驗(yàn)表明本文方法的有效性,然而文本的方法不能保證目標(biāo)輪廓的完整性,同時(shí)鏡頭中由于景深造成某些運(yùn)動(dòng)目標(biāo)無(wú)法檢測(cè)到,這些問(wèn)題在以后的工作中將繼續(xù)解決。
參考文獻(xiàn):
[1]Raudies,F(xiàn)lorian,and Heiko Neumann.\"A neural model of the temporal dynamics of figure–ground segregation in motion perception.\"Neural Networks,(2010):160-176.
[2]Andrew Browning,N,Stephen Grossberg,and Ennio Mingolla.\"Cortical dynamics of navigation and steering in natural scenes:Motion-based object segmentation,heading,and obstacle avoidance.\"Neural Networks,2009:1383-1398.
[3]Culibrk,Dubravko,et al.\"Salient motion features for video quality assessment.\"Image Processing,IEEE Transactions on,2011:948-958.
作者單位:中南民族大學(xué)生物醫(yī)學(xué)工程學(xué)院 圖像處理實(shí)驗(yàn)室,武漢 430070