王 超,紀(jì) 明,王嬌穎,姜文濤,解 靜,李 濤,高 雅
(西安應(yīng)用光學(xué)研究所,陜西 西安710065)
目前光電武器系統(tǒng)精確打擊制導(dǎo)模式一次只能照射、制導(dǎo)攻擊一個(gè)目標(biāo),制約了武器系統(tǒng)的打擊效率。為使武器系統(tǒng)具備同時(shí)對(duì)多個(gè)目標(biāo)進(jìn)行精確打擊的能力,多目標(biāo)光電系統(tǒng)可采用多目標(biāo)視頻跟蹤器(以下簡(jiǎn)稱(chēng)AVT)輔助激光照射器、伺服穩(wěn)定平臺(tái)實(shí)現(xiàn)多個(gè)潛在目標(biāo)同時(shí)捕獲跟蹤并打擊。其原理如圖1所示。
圖1 系統(tǒng)工作原理示意圖Fig.1 Schematic diagram of system operation
AVT是多目標(biāo)光電系統(tǒng)中的重要組成部分,也是多目標(biāo)檢測(cè)與跟蹤算法的運(yùn)行載體。多目標(biāo)檢測(cè)與跟蹤的正確性和精度直接決定了伺服穩(wěn)定機(jī)構(gòu)能否實(shí)現(xiàn)穩(wěn)定閉環(huán)。在復(fù)雜背景環(huán)境下,AVT能夠?qū)崟r(shí)解算目標(biāo)的方位、俯仰角偏差,依據(jù)AVT輸出的主、副目標(biāo)角偏差,由伺服系統(tǒng)控制多路激光指示,實(shí)現(xiàn)主、副瞄準(zhǔn)線對(duì)多個(gè)目標(biāo)的精確照射。
在復(fù)雜背景下,多目標(biāo)的可靠檢測(cè)提取穩(wěn)定跟蹤是實(shí)現(xiàn)多目標(biāo)光電指示的前提。目標(biāo)檢測(cè)的高檢測(cè)率和低虛警率是實(shí)現(xiàn)復(fù)雜環(huán)境下多目標(biāo)實(shí)時(shí)視頻跟蹤的技術(shù)難題,現(xiàn)有算法多為靜止背景下多目標(biāo)檢測(cè),最為常用的背景差分法,分為非參數(shù)核密度估計(jì)背景建模方法[1]和參數(shù)核密度估計(jì)背景建模方法[2],無(wú)法適用于軍用光電導(dǎo)引運(yùn)動(dòng)背景下的多目標(biāo)跟蹤[3-5];基于運(yùn)動(dòng)背景下的多目標(biāo)跟蹤可分為兩步:首先對(duì)圖像實(shí)施圖像配準(zhǔn)背景穩(wěn)定[6-7];補(bǔ)償背景運(yùn)動(dòng)后再采用幀 差分法[8]實(shí)現(xiàn)運(yùn)動(dòng)目標(biāo)檢測(cè)。背景運(yùn)動(dòng)補(bǔ)償即采用圖像處理算法手段計(jì)算攝像機(jī)掃描運(yùn)動(dòng)量,排除圖像中目標(biāo)相對(duì)運(yùn)動(dòng),估計(jì)背景的主動(dòng)運(yùn)動(dòng)。現(xiàn)有算法主要包括傳統(tǒng)的基于塊匹配[9]、灰度投影匹配等方法,該類(lèi)方法計(jì)算相對(duì)簡(jiǎn)單實(shí)時(shí)性好,但只能針對(duì)圖像平移補(bǔ)償,無(wú)法獲取攝像機(jī)的小幅旋轉(zhuǎn)運(yùn)動(dòng)矢量;目前在圖像處理各領(lǐng)域廣泛應(yīng)用的基于特征點(diǎn)提取的背景配準(zhǔn)方法,通過(guò)提取圖像中SIFT特征點(diǎn)[9-10]和 Harris角點(diǎn)[11]等特征并匹配估計(jì)背景運(yùn)動(dòng)矢量,適用性廣、匹配精度高,但算法復(fù)雜,無(wú)法滿足嵌入式系統(tǒng)實(shí)時(shí)處理的要求;基于高斯金字塔的Lucas-Kanade光流(簡(jiǎn)稱(chēng)LK光流)[12]估計(jì)背景運(yùn)動(dòng)矢量,通過(guò)金字塔策略可顯著降低算法運(yùn)算量。
本文中提出基于小波金字塔的LK光流估計(jì)算法,利用小波變換具有變焦性、信息保持性和小波基選擇的靈活性等優(yōu)點(diǎn),相比高斯金字塔,小波金字塔能夠?yàn)V除圖像高頻邊緣部分對(duì)圖像差分引起的虛警干擾,利用DSP基于小波分解的高性能優(yōu)化具有更好的嵌入式運(yùn)行實(shí)時(shí)性。在保證穩(wěn)定精度的前提下,實(shí)現(xiàn)基于DSP的實(shí)時(shí)處理。選取輸入圖像第0幀為參考幀,后續(xù)第K幀為檢測(cè)幀,將檢測(cè)幀與參考幀配準(zhǔn)并補(bǔ)償,補(bǔ)償后的檢測(cè)幀與參考幀圖像求取差分圖以備下一步運(yùn)動(dòng)檢測(cè)。
采用離散小波變換進(jìn)行圖像分解,一般采用Mallat二進(jìn)小波變換,二維Mallat算法圖像分解快速算法由Mallta塔式分解實(shí)現(xiàn)。假設(shè)s0為待分解圖像,h和g分別為小波函數(shù)高通和低通濾波器系數(shù),并且對(duì)不同尺度下均恒定,于是小波變換快速分解表示如下:
對(duì)圖像L層小波分解后的低頻分量尺寸是原圖的1/2L,多級(jí)低頻圖像形成小波金字塔,基于小波金字塔采用基于LK光流算法迭代計(jì)算背景運(yùn)動(dòng)矢量。在圖像金字塔的最高層計(jì)算光流,用得到的運(yùn)動(dòng)估計(jì)結(jié)果作為下一層金字塔的起始點(diǎn),重復(fù)這個(gè)過(guò)程直到到達(dá)金字塔的最底層。對(duì)每層圖像LK光流計(jì)算如下:
設(shè)f(x,y,t)是圖像點(diǎn)(x,y)在時(shí)刻t的灰度,u(x,y)和v(x,y)是該點(diǎn)光流的x和y 分量。根據(jù)灰度恒定的假設(shè),取特征像素3×3鄰域利用光流技術(shù)計(jì)算,速度[u v]計(jì)算如下:
其中,
根據(jù)運(yùn)動(dòng)矢量變換金字塔最底層即檢測(cè)幀圖像得到配準(zhǔn)幀圖像。為在DSP中實(shí)時(shí)優(yōu)化處理,建立小波變換金字塔通過(guò)圖像庫(kù)函數(shù)IMG_wave_h(yuǎn)orz和IMG_wave_vert實(shí)現(xiàn)。
對(duì)于所獲取的參考圖像f(x,y,ti)和配準(zhǔn)圖像f(x,y,tj),選擇合適閾值Tg獲取二值化灰度差分圖像,閾值可以選取某個(gè)固定值,更優(yōu)方案可采用AcadiaTM提出的公式[13]自適應(yīng)計(jì)算,不同于一般的閾值采用幀間平均絕對(duì)差,而用梯度作為控制因子,當(dāng)圖像對(duì)比度較高時(shí)避免閾值過(guò)大遺漏較弱目標(biāo),而圖像對(duì)比度較低時(shí)避免閾值過(guò)小引入過(guò)多干擾信息,從而取得最優(yōu)閾值。
其中:Δf(x,y,ti)為當(dāng)前圖像的梯度;G 為梯度附加項(xiàng),用以避免分母無(wú)意義。
由于噪聲、光照變化等因素,必須進(jìn)一步濾波排除雜散點(diǎn)提取出目標(biāo)的精確位置。采用區(qū)域生長(zhǎng)算法在差分圖像中提取運(yùn)動(dòng)目標(biāo)片。區(qū)域生長(zhǎng)是一種經(jīng)典的串行圖像分割算法,為提高其計(jì)算實(shí)時(shí)性,在DSP實(shí)現(xiàn)中,可在二值化圖像中亞采樣尋找種子點(diǎn),再采用與運(yùn)算將值為“1”的種子點(diǎn)連通,從而尋找出整幅圖像中最大的連通區(qū)域即為潛在的目標(biāo)。最后,采用管道濾波[14],將潛在目標(biāo)位置作為管道輸入,濾波得到檢測(cè)目標(biāo)的最終位置。
總的算法流程圖如下:
圖2 算法流程圖Fig.2 Flow chart of algorithm
依本文多目標(biāo)檢測(cè)方法,基于TMS320C6455 DSP的AVT平臺(tái)中運(yùn)行,前端攝像機(jī)為分辨率1 920像素×1 080像素幀率30Hz高清CCD數(shù)字?jǐn)z像機(jī),數(shù)字圖像經(jīng)FPGA解碼后輸入DSP中實(shí)施多目標(biāo)跟蹤算法,并在圖像中以跟蹤波門(mén)標(biāo)記檢測(cè)結(jié)果目標(biāo),最終輸出至高清監(jiān)視器中實(shí)時(shí)顯示。
噪聲低、干擾小的二值化差分圖像的準(zhǔn)確提取是實(shí)現(xiàn)最終目標(biāo)檢測(cè)的前提和重要保證,采用Daubechies D4作為小波基生成圖像金字塔,對(duì)各級(jí)金字塔計(jì)算LK光流估計(jì)迭代得到的差分圖像比傳統(tǒng)基于塊匹配、基于灰度投影法配準(zhǔn)精度顯著提高;與基于SIFT特征提取的配準(zhǔn)算法精度相近,而運(yùn)算速度提高數(shù)十倍,保證了嵌入式系統(tǒng)運(yùn)行的實(shí)時(shí)性;與基于高斯金子塔分解的LK光流算法相比,一般高斯濾波采用5×5窗口在全圖內(nèi)滑窗濾波,而小波變換采用小波基分別在水平和垂直方向小波分解,利用DSP小波分解加速庫(kù)函數(shù)IMG_wave_h(yuǎn)orz和IMG_wave_vert,可以顯著提高算法計(jì)算效率,從而在檢測(cè)性能和計(jì)算時(shí)間方面有一定優(yōu)勢(shì)。
圖3分別采用圖(a)塊匹配、圖(b)灰度投影、圖(c)SIFT、圖(d)高斯、圖(e)本文方法是對(duì)路拍車(chē)輛行人圖像連續(xù)2幀計(jì)算差分圖像。
圖3 二值化差分圖像比較Fig.3 Comparison among binary difference images
從圖中可以看出,塊匹配法和灰度投影法配準(zhǔn)只能針對(duì)配準(zhǔn)XY方向平移量,因此對(duì)于手持拍攝圖像難免存在的小幅旋轉(zhuǎn)無(wú)法補(bǔ)償,導(dǎo)致差分圖像噪聲虛警較大,而SIFT、高斯和本文算法均具有良好的差分效果,易于后續(xù)目標(biāo)提取算法處理。
在差分圖像中采用區(qū)域生長(zhǎng)及管道濾波算法,可得到最終多目標(biāo)提取圖像。對(duì)路拍車(chē)輛及行人檢測(cè)效果如圖4、圖5所示。
圖4 地面目標(biāo)車(chē)輛跟蹤效果圖Fig.4 Tracking effect of ground car
圖5 地面目標(biāo)行人跟蹤效果圖Fig.5 Tracking effect of ground passenger
從圖中可以定性地看出,本文算法在復(fù)雜地面場(chǎng)景對(duì)汽車(chē)、自行車(chē)及行人均具有良好的檢測(cè)跟蹤效果。對(duì)地面目標(biāo)行人連續(xù)幀視頻逐幀檢測(cè)不同算法正確目標(biāo)數(shù)曲線如圖6所示,對(duì)于連續(xù)1 000幀視頻,每隔20幀標(biāo)記一次目標(biāo)數(shù)在matlab中繪制并比較檢測(cè)效果。
圖6 不同算法目標(biāo)數(shù)量檢測(cè)對(duì)比圖Fig.6 Target number comparison among different algorithms
基于SIFT算法、本文算法與真實(shí)目標(biāo)數(shù)均非常接近,多數(shù)場(chǎng)景下能夠準(zhǔn)確檢測(cè)到目標(biāo)數(shù)量,而塊匹配和灰度投影法均存在目標(biāo)遺漏??梢圆捎脵z出率和虛警率衡量目標(biāo)檢測(cè)性能:
不同算法檢出率、虛警率與計(jì)算時(shí)間比較如表1所示。
表1 算法性能比較表Table 1 Algorithm comparison
從上述綜合比較結(jié)果可以看出,在地面行人檢測(cè)保證較高的檢出率下,本文算法具有較低虛警率,算法復(fù)雜度適中,能夠在基于C6455DSP的嵌入式平臺(tái)中實(shí)時(shí)顯示處理,為光電制導(dǎo)激光導(dǎo)引提供精確的目標(biāo)方位信息,輔助導(dǎo)彈實(shí)施攻擊。
[1] Elgammal A,Duraiswami R,Harwood K,et al.Background and foreground modeling using nonparametric kernel density estimation for visual surveillance[J].Proceedings of the IEEE,2002,90(7):1151-1163.
[2] Ning J,Zhang L,Zhang D,et al.Scale and orientation adaptive mean shift tracking[J].IET Computer Vision,2012,6(1):52-61.
[3] Mei X,Ling H.Robust visual tracking and vehicle classification via sparse representation[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2011,33(11):2259-2272.
[4] Tang M,Peng X.Robust tracking with discriminative ranking lists[J].IEEE Transactions on Image Processing,2012,21(7):3273-3281.
[5] Michaels Elad,Mariol A T,F(xiàn)igueiredo,et al.On the role of sparse and redundant representations in image processing[J].Proceedings of the IEEE,2010,98(6):972-982.
[6] Kalal Z,Mikolajczyk K,Matas J.Tracking-learningdetection[J].IEEE Transaction on Pattern Analysis and Machine Intelligence,2012,34(7):1409-1422.
[7] Kristan M,Stanislav K,Leonardis A.A two-stage dynamic model for visual tracking[J].IEEE Transactions on Systems,Man,and Cybernetics-Part B:Cybernetics,2010,40(9):1505-1519.
[8] Mustafa O,Michael C,Vincent L,et al.Fast keypoint recognition using random ferns[J].IEEE Transaction on Pattern Analysis and Machine Intelligence,2010,32(3):448-461.
[9] Goshtasby A,Gage S H,Bartholic J F.A two-stage cross-correlation approach to template matching[J].IEEE Trans Pattern Analysis and Machine Intelligence,1984,6(3):374-378.
[10]David G L.Distinctive image features from scale-invariant key points[J].International Journal of Computer Vision,2004,60(2):91-110.
[11]Juan L,Gwun O.A comparison of SIFT,PCASIFT and SURF[J].International Journal of Image Processing,2009,3(4):143-152.
[12]Mehrotra R,Nichani S,Ranganathan N.Corner detection[J].Pattern Recognition,1990,23(11):1223-1233.
[13]Felzenszwalb P,Girshick R,McAllester D,et al.Object detection with discriminatively trained partbased models[J].IEEE Trans.PAMI,2010,32(9):1627-1645.
[14]Wang Chao,Ji Ming,Li Huajie,et al.IR image air defense missile searching and tracking algorithm based on DSP[J].Journal of Applied Optics,2013,34(5):723-727.王超,紀(jì)明,李華杰,等.一種基于DSP的紅外圖像防空導(dǎo)彈檢測(cè)與跟蹤方法[J].應(yīng)用光學(xué),2013,34(5):723-727.