李翔
(北京農(nóng)業(yè)職業(yè)學(xué)院,北京 102208)
基于幀亮度補償和融合的校園夜間視頻增強算法
李翔
(北京農(nóng)業(yè)職業(yè)學(xué)院,北京 102208)
本文研究了夜間校園視頻的增強算法,采用幀亮度的補償和融合算法。具體作法如下:(1)利用不同時間段白天幀與當(dāng)前夜間幀背景亮度的比例,采取亮度參數(shù)調(diào)整的補償方式對當(dāng)前夜間視頻背景進行補償;(2)提出一種基于運動物體移動區(qū)域融合和差分的算法,對視頻中的運動物體進行增強。本文基于亮度融合補償?shù)乃惴?較原始校園夜間視頻,亮度、對比度和熵都得到了增強。
視頻增強 亮度融合補償 校園夜間視頻
校園夜間視頻監(jiān)控可以預(yù)防、控制和減少校園意外事故發(fā)生,校園夜間視頻的增強技術(shù)變得越來越重要。目前校園夜間視頻增強的問題還需要解決[1]:視頻幀融合過程中的夜間背景和亮度估計問題、增強后夜間視頻圖像的顏色漂移問題等。傳統(tǒng)的算法是融合白天的亮度信息增強視頻幀,Yamasaki等[2]提出“Denighting”對夜間視頻幀采用白天的亮度信息融合到夜間視頻幀里,存在的問題是增強后的結(jié)果中靜態(tài)亮度信息丟失。文獻[3]的算法把運動物體區(qū)域和背景區(qū)域進行分開處理,增強的結(jié)果能很好解決文獻[2]的問題,但是不能對運動物體本身增強,因此不能突出運動物體本身。
本文對校園的夜間視頻的增強從提高對比度和亮度信息,同時不損失運動物體的細節(jié)信息著手??紤]到校園攝像頭是固定的,對每一個攝像頭,夜間所采集的視頻和白天所采集的視頻的背景是完全一樣的,因此本文用白天的視頻實現(xiàn)亮度補償。對于校園夜間視頻的運動物體,當(dāng)背景進行亮度增強后,容易產(chǎn)生顏色失調(diào)和不合理的情況,為了增強運動物體的清晰度和協(xié)調(diào)性,本文提出一種基于運動物體區(qū)域內(nèi)亮度比例平均的算法,對于運動物體的邊界協(xié)調(diào)使用了高斯低通濾波器來平滑處理。
2.1 夜間視頻背景增強
提取夜間視頻的亮度是困難的,特別是當(dāng)夜間視頻具有低對比度和噪聲時。在算法里使用Lab顏色空間提取亮度。 首先將輸入夜間視頻幀的RGB顏色空間轉(zhuǎn)換到Lab顏色空間,得到Lab空間的灰度圖和顏色。然后夜間視頻每幀的灰度圖像使用Retinex理論分解為亮度圖像和反射圖像。同樣將同一攝像頭的白天視頻也轉(zhuǎn)換到Lab顏色空間,將白天的每幀同樣使用Retinex理論分解為亮度圖像和反射圖像。然后,通過白天背景的亮度圖像補償?shù)揭归g亮度圖像,最后增強的視頻圖像通過增強夜間亮度,夜間的反色度及夜間的顏色重構(gòu)。
為了更好增強視頻的視覺質(zhì)量,本文中得亮度補償?shù)乃惴M足下面的條件:(1)對于白天亮度大于夜間亮度的區(qū)域,使用白天的亮度信息補償?shù)揭归g的亮度;(2)對于夜間視頻幀的亮度大于相應(yīng)的白天亮度的區(qū)域(主要是燈光區(qū)域),這個區(qū)域采取較少的增強亮度。
2.2 夜間視頻中得運動物體增強
對于校園的夜間視頻,人體和車輛往往在黑暗中運動,黑暗中運動物體提取不容易。本文先對夜間視頻進行傳統(tǒng)視頻增強處理,以便提取運動物體,然后使用高斯混合模型提取運動物體區(qū)域。運動物體的提取有很多算法,本文使用的運動物體提取算法主要分為三個基本步驟:(1)提取運動物體區(qū)域;(2)將提取的運動物體區(qū)域轉(zhuǎn)化為二進制圖像;(3)最后使用數(shù)學(xué)形態(tài)學(xué)方法對二值圖像進行腐蝕、膨脹、種子填充等后續(xù)處理,最終獲得運動物體區(qū)域的二值圖像。
運動物體區(qū)域的白天背景亮度與夜間背景亮度的比率應(yīng)該是一致,同時運動物體的區(qū)域也應(yīng)該得到相應(yīng)的增強,為了阻止運動物體區(qū)域的不一致的比率問題導(dǎo)致的混淆模式,我們對運動物體區(qū)域采用比率平均的算法。Ra(x,y)表示運動物體區(qū)域的比率平均,最后亮度補償?shù)膱D像FL(x,y)通過如下方式進行:
這里使用了差分圖像法,方法分為三個部分即背景評估、背景更新、幀差。常用的背景估計模型有圖像平均模型、選擇性背景更新模型、高斯分布模型等。
本文提出利用白天背景亮度來補償夜間視頻幀的算法,通過不
表1 視頻幀均值、標準差及熵的評估結(jié)果
同的夜間監(jiān)控視頻對本文算法進行驗證。本文算法增強結(jié)果具有很好的亮度及視覺效果,為了更好的表明本算法的效果,也比較其它算法,圖1顯示比較的實驗結(jié)果,比較的算法包括文獻[4]算法以及本文算法。使用文獻[4]的基于轉(zhuǎn)換系數(shù)的融合方法,增強的結(jié)果通過Contourlet逆置變換得到,明顯增強的亮度信息不夠亮。
為了更好評估本文算法,在本節(jié)使用了幾個客觀的視頻幀評價方式,主要包括:均值,標準差及熵進行評估等。表1給出不同視頻幀增強算法及本文算法的視頻幀亮度,對比度及信息量的結(jié)果。根據(jù)表1的對比數(shù)據(jù),可以觀察到:①本文算法的像素均值是最大,表示增強后的亮度得到較大提升;②在對比度方面,由于本文算法嵌入了亮度信息,增加了灰度的動態(tài)范圍,與傳統(tǒng)的增強算法相比較,彌補了傳統(tǒng)增強過程中易過度增強亮度的缺陷。③在信息熵評估方面,原始視頻幀的值最小,細節(jié)信息含量也最少,本文基于亮度補償?shù)乃惴ㄇ度肓肆炼刃畔?增強的視頻幀信息熵值較大,優(yōu)于傳統(tǒng)的增強算法。
本文研究了校園夜間視頻的增強算法,采用幀亮度的補償和融合算法。具體作法如下: (1)針對某夜間視頻幀的背景,利用不同時間段的白天幀與當(dāng)前夜間幀的背景亮度的比例,采取亮度參數(shù)調(diào)整的補償方式對當(dāng)前夜間視頻進行補償;(2)針對該夜間視頻幀里的運動物體,提出一種基于運動物體移動區(qū)域融合和差分的算法,在運動物體的邊界部分采用融合和平滑的方式進行,非邊界的部分采用和背景差分的方式,使得增強后運動物體邊界更協(xié)調(diào),非邊界的部分更加清晰。本文基于亮度融合補償?shù)乃惴?較原始校園夜間視頻,在對比度和熵方面都有所提高,很好的提高了清晰度并保證了視頻的信息量。
[1]Y.B Rao,L.T Chen.A survey of video enhancement techniques, International Journal on Electrical Engineering and Informatics (IJEEI),2012,3(1):71-99.
[2]A.Yamasaki,H.Takauji,S.Kaneko,et al.Denighting:enhancement of nighttime image for a surveillance camera,In Proceedings of the SPIE,the International Society for Optical Engineering,San Diego,CA,USA,2008,pp.1-4.
[3]Y.B Rao,W.Lin,L.T Chen.Image-based fusion for video enhancement of nighttime surveillance,Optical Engineering,2010, 49(12)10th International Conference on Electronic Measurement & Instruments (ICEMI),2011,3:337-340.
[4]T.Stathaki.Image fusion:algorithms and applications, Academic Press,2008.
[5]A.Ilie,R.Raskar,J.Yu.Gradient domain context enhancement for fixed cameras,International Journal of Pattern Recognition and Artificial Intelligence,2005,19(4):533-549.
北京農(nóng)業(yè)職業(yè)學(xué)院科研項目《基于視頻監(jiān)控和智能分析的校園進出管理系統(tǒng)的研究與開發(fā)》,項目編號:XY-YF-13-44。
李翔(1980—),女,講師,碩士學(xué)位,研究方向:計算機應(yīng)用。