葛鶴銀, 孫建紅, 林 楠, 吳 凡
(南京理工大學(xué) 電子工程與光電技術(shù)學(xué)院, 江蘇 南京 210094)
?
融合小波變換及SIFT算法的去抖動(dòng)運(yùn)動(dòng)目標(biāo)檢測(cè)
葛鶴銀, 孫建紅, 林 楠, 吳 凡
(南京理工大學(xué) 電子工程與光電技術(shù)學(xué)院, 江蘇 南京 210094)
采集視頻信息時(shí)因攝像機(jī)抖動(dòng)造成圖像不穩(wěn)定,將給后期運(yùn)動(dòng)目標(biāo)檢測(cè)帶來(lái)嚴(yán)重的誤檢測(cè)問(wèn)題。針對(duì)此問(wèn)題提出一種融合小波變換及自適應(yīng)SIFT算法的運(yùn)動(dòng)補(bǔ)償方案。首先引入基于閾值的小波變換對(duì)圖像進(jìn)行去噪,然后設(shè)計(jì)變步長(zhǎng)迭代準(zhǔn)則自適應(yīng)地搜索匹配的SIFT特征點(diǎn),保證了高配準(zhǔn)精度的特征點(diǎn)對(duì)的獲取,通過(guò)對(duì)比當(dāng)前幀與參考幀匹配特征點(diǎn)的偏移量估計(jì)抖動(dòng)參數(shù),再利用改進(jìn)的高斯混合模型對(duì)運(yùn)動(dòng)補(bǔ)償后的視頻幀進(jìn)行運(yùn)動(dòng)目標(biāo)檢測(cè)。實(shí)驗(yàn)結(jié)果表明,與同類方法相比,能夠獲取具有更高配準(zhǔn)度和穩(wěn)定性的匹配特征點(diǎn)對(duì)以有效地估計(jì)抖動(dòng)參數(shù),具有良好的去抖動(dòng)效果和較高的運(yùn)動(dòng)目標(biāo)檢測(cè)精度。
尺度不變特征變換; 小波變換; 去抖動(dòng); 運(yùn)動(dòng)目標(biāo)檢測(cè)
在視頻監(jiān)控領(lǐng)域,運(yùn)動(dòng)目標(biāo)檢測(cè)作為后續(xù)對(duì)運(yùn)動(dòng)物體歸類、跟蹤和識(shí)別的基礎(chǔ),具有重要的意義,其基本要求是準(zhǔn)確、快速地將已知視頻序列中的運(yùn)動(dòng)目標(biāo)從場(chǎng)景中提取出來(lái)。然而受外界因素,尤其是自然因素的影響,安裝于戶外的監(jiān)控?cái)z像機(jī)無(wú)法保證絕對(duì)靜止,風(fēng)吹、震動(dòng)等都將導(dǎo)致其抖動(dòng)或移動(dòng),由此產(chǎn)生的視頻序列圖像幀背景的跳躍性變化將對(duì)運(yùn)動(dòng)目標(biāo)檢測(cè)的準(zhǔn)確性造成諸多不利影響[1-2]。為此,研究一套檢測(cè)精度高、魯棒性好的去抖動(dòng)的運(yùn)動(dòng)目標(biāo)檢測(cè)算法是本文的重點(diǎn)。
目前視頻去抖動(dòng)方法主要分為3類:光流法、塊運(yùn)動(dòng)估計(jì)法和特征法。光流法主要根據(jù)光流信息,運(yùn)動(dòng)分析獲得圖像全局運(yùn)動(dòng)參數(shù)來(lái)補(bǔ)償原始序列。文獻(xiàn)[3]整合相鄰幀的光流來(lái)估計(jì)每個(gè)像素往同一方向運(yùn)動(dòng)的距離,但需要計(jì)算每一像素的瞬時(shí)光流場(chǎng),實(shí)時(shí)性差,光流法固有的孔徑問(wèn)題也會(huì)影響檢測(cè)效果。塊運(yùn)動(dòng)估計(jì)法是根據(jù)視頻序列中時(shí)間上相關(guān)信息估計(jì)場(chǎng)景或目標(biāo)的運(yùn)動(dòng)向量場(chǎng)。文獻(xiàn)[4]提出一種基于運(yùn)動(dòng)矢量的抖動(dòng)估計(jì)和校正方案,利用塊估計(jì)方法計(jì)算運(yùn)動(dòng)矢量,有良好的去抖動(dòng)效果,但進(jìn)行全局變換時(shí)會(huì)引入前面累積的誤差,限制了去抖動(dòng)的效果。特征法在提取每幀圖像的特征點(diǎn)的基礎(chǔ)上,對(duì)相鄰幀進(jìn)行特征匹配,根據(jù)匹配結(jié)果計(jì)算全局運(yùn)動(dòng)參數(shù),該方法很大程度上取決于特征匹配的精度。
尺度不變特征變換(Scale Invariant Feature Transform,SIFT)[5]是由Lowe提出和完善總結(jié)的一種經(jīng)典的圖像特征提取與描述的算法,廣泛應(yīng)用于圖像匹配領(lǐng)域。該算法檢測(cè)到的關(guān)鍵點(diǎn)對(duì)旋轉(zhuǎn)、尺度縮放、亮度變化具有不變性,對(duì)視角變化、仿射變換、噪聲也具有一定程度的穩(wěn)定性。近年來(lái),不少學(xué)者提出了諸多基于SIFT的改進(jìn)算法如SURF、PCA-SIFT、F-SIFT等[6-8]。傳統(tǒng)的SIFT匹配算法存在耗時(shí)較長(zhǎng),易引入誤匹配的問(wèn)題。本文首先引入二維Mallat快速小波變換算法對(duì)視頻圖像幀進(jìn)行分解,將低于閾值的高頻系數(shù)置零,再重建圖像,以提高圖像匹配的精度和速率。由于在相機(jī)抖動(dòng)或自然環(huán)境變化的情況下圖像位置的微小偏移不會(huì)改變其局部特征,故接著在SIFT算法的基礎(chǔ)上設(shè)計(jì)變步長(zhǎng)迭代算法搜索當(dāng)前幀與參考幀之間的最佳匹配特征點(diǎn),通過(guò)對(duì)比匹配點(diǎn)對(duì)的位置偏移估計(jì)視頻幀的抖動(dòng)參數(shù),再進(jìn)行運(yùn)動(dòng)補(bǔ)償校正抖動(dòng)的圖像幀。最后采用小波變換與高斯混合模型相結(jié)合的運(yùn)動(dòng)目標(biāo)檢測(cè)算法[9]。該方案可有效抑制抖動(dòng)造成的檢測(cè)誤差,分割出精度較高的運(yùn)動(dòng)目標(biāo)。
1.1 改進(jìn)的快速小波算法
Mallat快速小波算法根據(jù)相鄰尺度離散小波變換(DWT)系數(shù)間的規(guī)律性,利用雙通道、子帶編碼迭代地自底向上建立小波變換,實(shí)現(xiàn)DWT的高效分析與計(jì)算[10]。采用小波濾波器對(duì)圖像數(shù)據(jù)進(jìn)行反復(fù)低通和高通濾波迭代,更大尺度上實(shí)現(xiàn)高通和低通分量的分離。二維情況下,DWT需要1個(gè)二維尺度函數(shù)φ(x,y)和3個(gè)二維基本小波ψH(x,y) ,ψV(x,y)和ψD(x,y)。利用尺度函數(shù)和小波函數(shù)的正交性得到尺度系數(shù):
(1)
(2)
(3)
對(duì)圖像進(jìn)行二維小波變換,分解后的每一層按分辨率從高到低自底向上疊放,對(duì)應(yīng)了圖像金字塔結(jié)構(gòu)。小波變換中分解、重構(gòu)的級(jí)數(shù)越多,劃分的頻帶越細(xì),越有利于編碼。然而,級(jí)數(shù)的增加會(huì)導(dǎo)致級(jí)聯(lián)的濾波器增多,信號(hào)的移位變大,而伴隨著每一次分解、重構(gòu)的延拓,邊界失真亦愈加嚴(yán)重。文獻(xiàn)[11]指出,小波變換進(jìn)行多層分解時(shí),二層以上低頻部分的能量會(huì)急劇減少,匹配點(diǎn)的數(shù)量也非常少。本文選用二尺度分解在確保精度的前提下有利于保證小波變換的實(shí)時(shí)性。同時(shí)針對(duì)圖像在小波變換域的能量主要集中在低頻部分、大部分噪聲主要集中于高頻部分中幅值較小的系數(shù)的特點(diǎn),采用基于閾值的小波變換,將高頻子圖中低于閾值的高頻系數(shù)置零,高于閾值的系數(shù)保留,再與低頻子圖一起進(jìn)行重構(gòu)[12]。該方法能夠既保留圖像的細(xì)節(jié),又達(dá)到了抑制噪聲的目的,有利于減少弱匹配點(diǎn),提高特征匹配的準(zhǔn)確性和魯棒性。
1.2 自適應(yīng)SIFT算法
尺度不變特征變換(STFT)是圖像匹配領(lǐng)域的經(jīng)典算法,流程主要包括尺度空間極值點(diǎn)檢測(cè)、關(guān)鍵點(diǎn)定位、方向確定、關(guān)鍵點(diǎn)描述符生成和特征匹配。本文意在原始STFT算法的基礎(chǔ)上提出改進(jìn),以獲取精度高,實(shí)時(shí)性強(qiáng)的匹配特征點(diǎn)。
SIFT匹配算法采用歐氏距離度量?jī)煞鶊D像的相似度,利用優(yōu)先K-D樹近似BBF搜索算法處理128維的特征向量,獲取每個(gè)特征點(diǎn)的兩最近鄰特征點(diǎn)。為了排除因圖像遮擋和背景混亂而產(chǎn)生的無(wú)匹配關(guān)系的關(guān)鍵點(diǎn),采用比較最近鄰距離與次近鄰距離的方法:在模板圖像中取一特征點(diǎn),利用歐式距離區(qū)別最近鄰特征點(diǎn)和次近鄰特征點(diǎn),若最近鄰特征點(diǎn)歐式距離除以次近鄰特征點(diǎn)歐式距離小于某一比例閾值,則接受為一對(duì)正確匹配點(diǎn)。
本文提出一種變步長(zhǎng)迭代準(zhǔn)則自適應(yīng)地設(shè)定閾值,以取得具有高匹配率的特征點(diǎn)。取t1時(shí)刻當(dāng)前幀圖像I1某一關(guān)鍵點(diǎn)A,利用優(yōu)先K-D樹近似BBF搜索算法處理t2時(shí)刻當(dāng)前幀圖像I2的128維的特征向量,獲取每個(gè)特征點(diǎn)的兩最近鄰特征點(diǎn)B和C,則A與B、A與C之間的歐氏距離分別為dAB和dAC,設(shè)dAB R=dAB/dAC (4) 對(duì)比例閾值R進(jìn)行迭代求取匹配對(duì)集V,R取值較高時(shí),相似的距離可能使V中包含大量的誤匹配,故起初設(shè)定的閾值要較小。文獻(xiàn)[3]中比例閾值為0.8時(shí),可以去除約90%的誤匹配對(duì),但以丟失約5%的正確匹配對(duì)為代價(jià);若設(shè)定比例閾值大于0.8,誤匹配對(duì)數(shù)會(huì)急劇上升,包含大量匹配信息的兩幅圖像不僅降低了算法的實(shí)時(shí)性,還使得攜帶的誤匹配影響了抖動(dòng)參數(shù)的估計(jì);若比例閾值小于0.8,正確匹配對(duì)數(shù)量加速流失,誤匹配對(duì)數(shù)量緩慢減少,但最近鄰特征點(diǎn)B相對(duì)于次近鄰特征點(diǎn)C離特征點(diǎn)A更近,最近鄰特征點(diǎn)更加穩(wěn)定。 由于提取的匹配特征點(diǎn)對(duì)將用于估計(jì)視頻圖像的抖動(dòng)參數(shù),故應(yīng)盡可能保證匹配點(diǎn)對(duì)不包含誤匹配。本文通過(guò)自適應(yīng)方法迭代搜索最佳閾值,在設(shè)計(jì)迭代搜索匹配點(diǎn)對(duì)過(guò)程中要合理設(shè)置閾值,應(yīng)確保匹配對(duì)的個(gè)數(shù)適中,若少于100個(gè)將使得后期對(duì)抖動(dòng)做運(yùn)動(dòng)補(bǔ)償時(shí)輸入?yún)?shù)不足,太多則會(huì)引入部分誤匹配,給抖動(dòng)參數(shù)估計(jì)引入誤差。為了保證提取到的匹配特征點(diǎn)對(duì)達(dá)到要求,搜索過(guò)程細(xì)分為粗搜索和精確搜索。 設(shè)初始比例閾值為R0,為保證初始時(shí)刻匹配對(duì)的精確性,R0取值應(yīng)較小,以減少誤匹配對(duì)。當(dāng)初始匹配對(duì)個(gè)數(shù)為n0,視頻幀圖像大小為M×N時(shí),匹配對(duì)個(gè)數(shù)n范圍在100~MN/200。因此若迭代過(guò)程中匹配對(duì)個(gè)數(shù)小于100,則需適當(dāng)增加比例閾值R;當(dāng)n大于MN/200時(shí),則需適當(dāng)減小R。本文采用變步長(zhǎng)迭代,以Th為界,當(dāng)比例閾值R>Th時(shí),為精確搜索,采用小步長(zhǎng)迭代;否則為粗搜索,采用大步長(zhǎng)迭代。迭代步長(zhǎng)分別為β=0.01,5β=0.05,迭代次數(shù)k不超過(guò)50次。自適應(yīng)閾值迭代過(guò)程如圖1所示。 圖1 自適應(yīng)閾值迭代過(guò)程 對(duì)比例閾值R進(jìn)行縮放迭代,得到匹配對(duì)數(shù)為n的匹配對(duì)集V。然后利用匹配對(duì)集V計(jì)算兩幅視頻幀之間的對(duì)應(yīng)關(guān)系。本算法利用自適應(yīng)迭代實(shí)現(xiàn)最優(yōu)搜索,得到的匹配點(diǎn)抑制了誤匹配,穩(wěn)定性高。 1.3 穩(wěn)定匹配點(diǎn)的獲取 獲取穩(wěn)定的匹配特征點(diǎn)對(duì)抖動(dòng)參數(shù)的估計(jì)意義重大。由變步長(zhǎng)迭代準(zhǔn)則獲取的閾值不同,對(duì)匹配點(diǎn)搜索的影響也較大。不同的閾值對(duì)匹配點(diǎn)的影響如表1所示。視頻1為戶外太陽(yáng)光照射有陰影的視頻;視頻2是室內(nèi)有光照變化的視頻。 表1 視頻1、2的特征點(diǎn)數(shù)與匹配點(diǎn)數(shù) 分別采用SURF算法、SIFT與RANSAC結(jié)合的算法和本文小波變換與自適應(yīng)SIFT結(jié)合的算法對(duì)視頻1、2進(jìn)行特征點(diǎn)匹配運(yùn)算,結(jié)果如圖2和圖3所示。 圖2 視頻1的第15和127幀的匹配結(jié)果 圖3 視頻2的第20和172幀的匹配結(jié)果 視頻拍攝未采用固定腳架,圖像幀之間因抖動(dòng)會(huì)存在位置上的偏移。從圖2、3可以看出,SURF算法存在較多的誤匹配。視頻1實(shí)驗(yàn)中,由于拍攝抖動(dòng),第127幀右下角拍攝到了第15幀中沒(méi)有的場(chǎng)景,而SIFT+RANSAC算法卻將其與第15幀的右下角進(jìn)行了特征匹配,顯然存在較大誤差。本文算法去除了大部分的誤匹配,且數(shù)量明顯少于其他兩種算法。由表2可以看出,本文算法的誤匹配率明顯低于其他兩類算法,在去除大部分誤匹配的同時(shí)保留了穩(wěn)定的匹配對(duì)。 表2 3種算法的誤匹配率比較 (5) 本文采用文獻(xiàn)[9]將小波變換和高斯混合模型相結(jié)合的目標(biāo)檢測(cè)算法。高斯混合背景模型針對(duì)每一個(gè)像素建立分布模型,并實(shí)時(shí)更新模型參數(shù),但相鄰像素間的顏色信息是無(wú)相關(guān)性的,且各像素的高斯模型相互獨(dú)立,單一判斷方法容易造成運(yùn)動(dòng)目標(biāo)的誤檢測(cè)[13-14]。結(jié)合Mallat小波提取圖像的紋理信息[15],將亮度與紋理信息賦予不同的權(quán)值組成新的特征向量來(lái)更新高斯背景參數(shù),經(jīng)小波分解后的紋理信息得到增強(qiáng),而且高斯混合模型能夠很好地?cái)M合背景顏色信息的變化,兩者相結(jié)合可以提高背景和目標(biāo)顏色相近以及復(fù)雜背景環(huán)境下的目標(biāo)分割精度。該目標(biāo)檢測(cè)算法可以改善傳統(tǒng)高斯混合模型存在較多誤分割的現(xiàn)象,并且當(dāng)目標(biāo)與背景相接近時(shí),仍能較好地分割運(yùn)動(dòng)目標(biāo)。結(jié)合前期的去抖動(dòng)處理算法,本算法針對(duì)穩(wěn)定性欠佳的視頻圖像有較好的運(yùn)動(dòng)目標(biāo)檢測(cè)效果。 本文的運(yùn)動(dòng)目標(biāo)檢測(cè)方案主要針對(duì)視頻抖動(dòng)問(wèn)題,亦可用于自然環(huán)境下的運(yùn)動(dòng)目標(biāo)分割。為驗(yàn)證本文的算法,采用Matlab R2014a編寫實(shí)現(xiàn)相關(guān)算法。分別采用3段視頻對(duì)算法進(jìn)行驗(yàn)證。視頻1的拍攝環(huán)境為室內(nèi)光照微變的場(chǎng)景,視頻2為室外太陽(yáng)光照射有陰影的場(chǎng)景,視頻3則為有風(fēng)吹樹葉擺動(dòng)的復(fù)雜場(chǎng)景,3類視頻均在拍攝過(guò)程引入了人為抖動(dòng),視頻分辨率為480×640。圖4為分別采用改進(jìn)的高斯混合模型和本文算法對(duì)3段視頻進(jìn)行運(yùn)動(dòng)目標(biāo)檢測(cè)實(shí)驗(yàn)結(jié)果。 圖4 實(shí)驗(yàn)結(jié)果 由圖4可以看出,改進(jìn)的高斯混合模型算法雖結(jié)合了圖像的紋理信息作為顏色信息的補(bǔ)償,取得了較好的檢測(cè)效果,但由于拍攝過(guò)程中的抖動(dòng),造成的背景偏移,使得部分背景尤其是運(yùn)動(dòng)目標(biāo)周圍的背景會(huì)被誤檢測(cè)為前景。同時(shí),圖像的偏移也會(huì)造成原本的目標(biāo)檢測(cè)結(jié)果存在虛影現(xiàn)象。又如圖 4(c1)中,自然環(huán)境下風(fēng)樹葉產(chǎn)生的抖動(dòng)易造成背景誤判為前景,故在檢測(cè)結(jié)果中這些誤差的對(duì)應(yīng)位置都可見(jiàn)較密集的噪點(diǎn)。應(yīng)用本文算法,可以利用運(yùn)動(dòng)補(bǔ)償來(lái)校正視頻圖像因抖動(dòng)而引入的偏移,抑制目標(biāo)檢測(cè)的誤差,從而較好地分割出目標(biāo)對(duì)象。 最后,采用IEEE Change Detection Workshop (CDW)評(píng)價(jià)檢測(cè)標(biāo)準(zhǔn)來(lái)定量地進(jìn)行客觀評(píng)價(jià)分析。定義TP為檢測(cè)到的正確的目標(biāo)點(diǎn)數(shù),F(xiàn)P為錯(cuò)誤目標(biāo)點(diǎn)數(shù),F(xiàn)N為錯(cuò)誤背景點(diǎn)數(shù),TN為正確背景點(diǎn)數(shù)。評(píng)價(jià)內(nèi)容包括: Re(Recall)=TP/(TP+FN); Sp (Specificity) : TN/(TN + FP); FPR (False Positive Rate) : FP/(FP + TN); FNR (False Negative Rate) : FN/(TP + FN); PWC (Percentage of Wrong Classifications) : 100 * (FN + FP)/(TP + FN + FP + TN); Precision : TP/(TP + FP); F-Measure: (2 * Precision * Recall)/(Precision + Recall)。 對(duì)實(shí)驗(yàn)采用的三段視頻分別統(tǒng)計(jì)上述參數(shù)值并取平均值,結(jié)果如表3所示。 在錯(cuò)判率和誤判率方面,本算法的相關(guān)參數(shù)指標(biāo)均較小,正確檢測(cè)率和精度也較高。可以看出本算法與改進(jìn)的高斯混合模型對(duì)比具有明顯的先進(jìn)性,故采用本文提出的方案對(duì)抖動(dòng)視頻序列進(jìn)行運(yùn)動(dòng)目標(biāo)檢測(cè)具有理想的效果。 表3 評(píng)價(jià)參數(shù)比較 針對(duì)視頻序列抖動(dòng)引起的運(yùn)動(dòng)目標(biāo)誤檢測(cè)的問(wèn)題,提出了一種融合小波變換及自適應(yīng)SIFT算法的檢測(cè)方案。采用本算法,在拍攝過(guò)程存在抖動(dòng)的視頻中亦可檢測(cè)到匹配精度高,穩(wěn)定性強(qiáng)的特征點(diǎn)對(duì)。同時(shí),通過(guò)對(duì)比匹配特征點(diǎn)之間的位置偏移來(lái)估計(jì)視頻序列的抖動(dòng)參數(shù),以及通過(guò)運(yùn)動(dòng)補(bǔ)償來(lái)校正發(fā)生偏移的圖像。最后,利用改進(jìn)的高斯混合模型算法來(lái)分割運(yùn)動(dòng)目標(biāo)。實(shí)驗(yàn)結(jié)果表明,通過(guò)引入小波變換,同時(shí)設(shè)計(jì)變步長(zhǎng)迭代準(zhǔn)則自適應(yīng)獲取匹配特征點(diǎn)對(duì),使得本文設(shè)計(jì)的去抖動(dòng)方案能夠有效的抑制抖動(dòng)誤差,提高了運(yùn)動(dòng)目標(biāo)的檢測(cè)精度。 [1] Brahme Y B, Kulkarni P S. An implementation of moving object detection, tracking and counting objects for traffic surveillance system[C]∥International Conference on Computational Intelligence and Communication Systems, Gwalior, India, 2011: 143-148. [2] Robert Fergus, Barun Singh, Aaron Hertzmann, Sam T. Roweis, William T. Freeman. Removing camera shake from a single photograph[J]. ACM Transactions on Graphics,2006,25(3): 787-794. [3] Tian Ying-li, Hampapur A. Robust salient motion detection with complex background for real-time video surveillance[C]∥Proceedings of IEEE Workshop on Motion and Video Computing, Breckenridge, CO, United states, 2005, (2): 30-35. [4] 宋 利,周源華,周 軍. 基于運(yùn)動(dòng)矢量的視頻去抖動(dòng)算法[J]. 上海交通大學(xué)學(xué)報(bào), 2004,38(S1):63-66,72. [5] Lowe D G. Distinctive image features from scale-invariant keypoints[J]. International Journal Computer Vision, 2004, 60(2):91-110. [6] Bay H, Ess A. Speeded-up robust features (SURF)[J]. International Journal on Computer Vision and Image Understanding, 2008, 110(3):346-359. [7] Ke Y, Sukthankar R. PCA-SIFT: a more distinctive representation for local image descriptors[J]. Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 2004,2(2): 506-513. [8] Wan-Lei Zhao, Chong-Wah Ngo, Flip-Invariant SIFT for Copy and Object Detection[J]. IEEE Transactions Image Processing, 2013, 22(3), 980-991. [9] 蔡 念,陳世文,郭文婷. 融合高斯混合模型和小波變換的運(yùn)動(dòng)目標(biāo)檢測(cè)[J]. 中國(guó)圖象圖形學(xué)報(bào), 2011, 16(9): 1716-1721. [10] Mallat S. A theory for multiresolution signal decomposition: the wavelet representation [J], IEEE Transactions on Pattern Analysis and Machine Intelligence, 1989, 11(7): 674-693. [11] VIOLA P, JONES M. Rapid object detection using boosted cascade of simple features[C]. IEEE Computer Society Conference, Computer Vision and Pattern Recognition, 2001(1):511-518. [12] 馬 寧,周則明,羅立民. 基于方向小波變換的自適應(yīng)圖像去噪方法[J].計(jì)算機(jī)工程, 2012, 38(14): 184-186. [13] 崔文頻,沈繼忠. 基于改進(jìn)高斯混合模型的運(yùn)動(dòng)物體的圖像檢測(cè)[J]. 光電工程, 2010, 37(4): 118-124. [14] PENG Suo, WANG Yan-jiang. An improved adaptive background modeling algorithm based on Gaussian mixture model [C] //Proceedings of ICSP2008. Beijing: IEEE Press, 2008:1426-1439. [15] Liyuan Li, Leung M K H. Integrating intensity and texture differences for robust change detection[J]. IEEE Transactions Image Processing,2002,11(2): 105-112. A Moving Target Detection Approach to Remove Jitter by Fusing Wavelet Transform and SIFT Algorithm GEHe-yin,SUNJian-hong,LINNan,WUFan (School of Electronic and Optical Engineering, Nanjing University of Science and Technology, Nanjing 210094, China) Unstable video images caused by camera jittering will lead to inaccurate or error detection results. Aiming at this problem, a motion compensation scheme is proposed by combining wavelet transform and adaptive SIFT algorithm. First, the wavelet transform based on threshold is applied to remove noise of the image, the iterative criterion of variable step is established to adaptively search the matched SIFT key points, the match of features obtained is much more precisely. Then the jitter parameter is estimated by analyzing offset of these matched points. Finally, the Gaussian mixture models combined with wavelet transform are employed to detect moving target. Compared with the similar algorithm, the proposed method can obtain more precise and stable matched feature points such that the effective estimation of jitter parameters is assured. It can solve the jitter effectively and detect the moving target precisely and efficiently. scale invariant feature transform (SIFT); wavelet transform; remove jitter; moving target detection 2015-07-05 江蘇省產(chǎn)學(xué)研聯(lián)合創(chuàng)新基金(BY2014004) 葛鶴銀(1990- ),女,江蘇鹽城人,碩士在讀,主要研究方向?yàn)橛?jì)算機(jī)視覺(jué)與模式識(shí)別。 Tel.:15720612865; E-mail: lycheery@126.com 孫建紅(1966- ),女,江蘇張家港人,副教授,主要從事電路與系統(tǒng)的研究與教學(xué)。 Tel.:025-84303086; E-mail: sunjh@njust.edu.cn TP 391.4 A 1006-7167(2016)02-0119-052 抖動(dòng)校正與運(yùn)動(dòng)目標(biāo)檢測(cè)
3 實(shí)驗(yàn)結(jié)果及分析
4 結(jié) 語(yǔ)