亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        視頻拼接中最優(yōu)自適應(yīng)單應(yīng)性矩陣求解算法

        2013-08-16 13:50:10張春雨邱亞特郭克友
        關(guān)鍵詞:矩陣特征圖像

        張春雨,王 文,邱亞特,郭克友

        (1.交通運(yùn)輸部公路科學(xué)研究所 北京誠達(dá)交通科技有限公司,北京 100088;2.北京工商大學(xué) 機(jī)械工程學(xué)院 北京 100037)

        視頻拼接是近幾年來圖像處理領(lǐng)域的研究熱點之一[1-5],但受處理算法復(fù)雜度及硬件條件所限,目前大多數(shù)的研究方向主要集中在對實時性要求不高的靜態(tài)圖像拼接處理上[6-11]。而相比于靜態(tài)圖像而言,視頻拼接的難度較大,要實現(xiàn)真正的實時性拼接,需要在幾十毫秒的時間之內(nèi)完成對單幀圖像的拼接處理,這就對拼接的算法提出了很高的要求。針對交通場景中對視頻拼接速度要求較高的需求特點,本文從靜態(tài)圖像拼接處理入手,結(jié)合視頻幀間的相關(guān)性特點,提出了利用視頻幀的最優(yōu)單應(yīng)性矩陣進(jìn)行實時拼接的快速算法,并在交通監(jiān)控視頻序列中進(jìn)行了實現(xiàn)和應(yīng)用,達(dá)到了實時的處理效果。

        1 整體框架

        本文的主要工作是將兩段已經(jīng)拍攝好的交通場景視頻進(jìn)行拼接,針對實時性要求,提出了利用視頻幀的最優(yōu)單應(yīng)性矩陣進(jìn)行實時拼接的快速算法,搭建了實時視頻拼接系統(tǒng)。算法的主要步驟如下:

        (1)獲取兩組同質(zhì)視頻圖像。

        (2)對同一時刻對應(yīng)的幀圖像進(jìn)行預(yù)處理。

        (3)采用SURF算法提取對應(yīng)幀特征點。

        (4)采用最近鄰匹配法(Nearest neighbour,NN)匹配顯著特征點對。

        (5)隨機(jī)抽樣一致性匹配算法(Random sample consensus,RANSAC)剔除誤匹配特征點對。

        (6)求解視頻初始k幀的最優(yōu)單應(yīng)性矩陣。

        (7)根據(jù)最優(yōu)單應(yīng)性矩陣進(jìn)行后繼視頻幀場景的拼接。

        (8)同時對第k幀圖像的特征點進(jìn)行跟蹤,把其在后繼幀中的位置作為相應(yīng)特征點位置。

        (9)若匹配點對的數(shù)目超過了給定的閾值,則認(rèn)為圖像前景發(fā)生了較大的變化,最優(yōu)單應(yīng)性矩陣應(yīng)該更新。

        (10)程序跳轉(zhuǎn)到步驟(2),重新計算特征點、匹配點對以及最優(yōu)的單應(yīng)性矩陣。

        2 關(guān)鍵算法與實現(xiàn)

        2.1 圖像預(yù)處理算法

        由于同一對象在不同攝像機(jī)視角下會產(chǎn)生幾何變形,而且圖像在采集過程中不可避免地會受到光線等外界因素的影響,因此在預(yù)處理階段需要對兩個視頻對應(yīng)幀圖像進(jìn)行預(yù)處理,本文采用的是圖像灰度化、直方圖均衡以及中值濾波處理,以擴(kuò)大圖像的灰度范圍,增強(qiáng)對比度,便于后續(xù)特征點的提取。圖1是經(jīng)過預(yù)處理后的圖像。

        圖1 視頻幀圖像預(yù)處理效果圖Fig.1 Proceesing of video images

        2.2 SURF特征點提取算法

        SURF算子由Bay等[12]在2006年提出,它本質(zhì)上是對SIFT算子的改進(jìn)。該方法在SIFT算法基礎(chǔ)上,利用方框濾波近似代替二階高斯濾波,使用圖像積分替代圖像卷積操作以提高計算速度,利用Hessian矩陣的數(shù)學(xué)性質(zhì)檢測特征值。盡管特征點的提取質(zhì)量受到一定的影響,但計算效率高。SURF算子的實現(xiàn)主要包括以下步驟:尺度空間特征點檢測,特征點的穩(wěn)定性判定,以及描述符的形成。圖2是用SURF算法處理的圖像,白色圓圈標(biāo)注的是提取的特征點位置。

        圖2 SURF算法處理后特征點提取效果圖Fig.2 Feature points abstracted by SURF algorithm

        2.3 特征點匹配算法

        利用SURF方法對兩幅圖像分別提取特征點后,用NN[8]方法對圖像間的特征點進(jìn)行初始匹配,從而找出兩幅圖像中匹配的顯著特征點對。由于初始匹配中包含有大量的出格點,直接采用線性算法得不到正確的投影變換參數(shù),為此,本文采用了魯棒的隨機(jī)采樣算法,有效地剔除了初始匹配中的出格點,獲得精確匹配的點集,然后利用這些精確匹配的點集來計算投影變換參數(shù)。

        (1)初始匹配算法

        NN方法是在SURF提取出的特征點描述符具有很高獨特性的前提下使用的,用特征點的最近鄰距離與次近鄰距離的比值作為特征點間是否匹配的依據(jù)。在搜索最近鄰與次近鄰時使用一種在k-d樹快速搜索方法基礎(chǔ)上改進(jìn)的BBF(Best bin first)方法來提高運(yùn)算速度。

        (2)隨機(jī)采樣一致性

        RANSAC是一種魯棒的參數(shù)估計方法。對初始匹配點集中包含有較高比率出格點的情況,該算法仍能有效地獲得精確的參數(shù)估計值,去除出格點,保證后繼圖像拼接的正確性。

        其具體步驟如下:①在輸入數(shù)據(jù)中隨機(jī)重復(fù)采樣n次,利用每次采樣所得到的最小點集(4組)估計出所要確定的單應(yīng)性矩陣,計算每組假設(shè)對應(yīng)的距離;②通過與門限值比較,將低于門限值的點對作為“內(nèi)點”,其他的點作為“出格點”;③如此迭代一定的次數(shù)之后,將對應(yīng)輸入數(shù)據(jù)中“內(nèi)點”比例最高的點集作為優(yōu)化的點集;④將對應(yīng)輸入數(shù)據(jù)中“內(nèi)點”比例最高的點集所估計出的參數(shù)值以及選出來的內(nèi)點一起進(jìn)行優(yōu)化,用所選取點集中的匹配對重新計算單應(yīng)性矩陣,從而得到最終的參數(shù)估計值。圖3為RANSAC處理后的效果圖。

        圖3 RANSAC處理后效果圖Fig.3 RANSAC post-processing

        2.4 最優(yōu)單應(yīng)性矩陣的求取

        從攝影幾何中可知,如果空間點位于同一平面上且該平面不通過兩攝像機(jī)的任一光心,兩幅圖像對應(yīng)點之間存在一一對應(yīng)關(guān)系,且這種對應(yīng)關(guān)系可以用單應(yīng)矩陣的變換矩陣來表示[13],即單應(yīng)性矩陣把源圖像平面上的點集與目標(biāo)圖像平面上的點集位置聯(lián)系起來。

        從單應(yīng)性矩陣的性質(zhì)可以得出:一個性能好的單應(yīng)性矩陣可以使兩幅待拼接圖像很好地拼接在一起。但由于在特征點匹配過程中可能存在特征點誤匹配的情況,實際在單幀圖像中通過特征點對匹配求解所得單應(yīng)性矩陣不一定是最優(yōu)單應(yīng)性矩陣。而且,對視頻圖像采用單幀圖像拼接的方式進(jìn)行處理,沒有利用視頻圖像幀間的相關(guān)性,也沒有考慮到幀間單應(yīng)性矩陣的關(guān)聯(lián),這都會降低視頻拼接的效率。

        由于兩幅待拼接圖像重疊區(qū)域內(nèi)圖像的相關(guān)性非常高,因此可利用相關(guān)性作為重疊區(qū)域拼接效果評價的依據(jù)。具體步驟如下:

        (1)確定拼接圖像的重疊區(qū)域

        根據(jù)單應(yīng)性矩陣,按照圖像的映射關(guān)系,得到保留特征點在另一對應(yīng)幀圖像的匹配點;如果計算出的匹配點沒有落在圖像內(nèi),說明這一點并不在兩幅圖像的重疊區(qū)內(nèi),反之,如果特征點映射前后都落在圖像內(nèi),說明它處在重疊區(qū)內(nèi);用這種方法遍歷一遍,即對一幅圖像中所有保留特征點進(jìn)行透視變換,以另一幅圖像的邊緣為邊界,取重疊區(qū)的最小內(nèi)接矩形作為重疊區(qū)域。

        (2)求前k幀對應(yīng)拼接圖像重疊區(qū)域相似度

        將匹配點對按照最小距離由小到大進(jìn)行排序,并按照加權(quán)距離的歸一化設(shè)定權(quán)值,再按照歸一化協(xié)方差相關(guān)函數(shù)來計算相似度。如下式所述:

        式中:w、h分別為重疊區(qū)的寬和高。

        顯然,相似度C取值范圍是(-1,1),取值越大說明重疊區(qū)相關(guān)程度越高。

        (3)確定前k幀的最優(yōu)單應(yīng)性矩陣

        對連續(xù)前k幀相似度值求極大值,相關(guān)性最高的圖像幀對應(yīng)的單應(yīng)性矩陣即為最優(yōu)的單應(yīng)性矩陣,可作為后繼幀的單應(yīng)性矩陣。

        2.5 最優(yōu)單應(yīng)性矩陣的優(yōu)化和變換

        由于多幅圖像進(jìn)行拼接會產(chǎn)生全局的累計誤差,因此需要對初始的最優(yōu)單應(yīng)性矩陣進(jìn)行優(yōu)化和變換。

        本文采用對圖像中的動態(tài)特征點進(jìn)行動態(tài)跟蹤的KLT方法來確定是否要對最優(yōu)的單應(yīng)性矩陣進(jìn)行優(yōu)化和變換。通過跟蹤一幀圖像的匹配點對,得到這些匹配點對在當(dāng)前圖像幀中的新位置,作為當(dāng)前圖像幀的特征點。若匹配點對的數(shù)量變化超過了給定的閾值,則認(rèn)為視頻幀的前景有顯著變化,當(dāng)前的最優(yōu)單應(yīng)性矩陣需要進(jìn)行優(yōu)化和變換。同時需要重新提取圖像幀中特征點對進(jìn)行匹配,尋求k幀圖像的單應(yīng)性矩陣。

        3 實驗結(jié)果分析

        本實驗采用固定攝像機(jī)的方式進(jìn)行交通場景的視頻拼接,其中兩個攝像頭完全相同,設(shè)置相同的亮度、焦距、色度等參數(shù)。視頻幀大小為320×240像素,幀頻為28幀/s。

        在臺式機(jī)上進(jìn)行模擬實驗,采用Core22.8G CPU,3G內(nèi)存的硬件平臺,VC2008軟件編程。實驗結(jié)果表明:單幀拼接所需時間約400ms左右,在得到最優(yōu)單應(yīng)性矩陣之后,視頻的平均拼接時間遠(yuǎn)小于100ms。如果采用DSP、FPGA等硬件進(jìn)行算法加速,單幀的處理速度會更快。

        圖4是重疊區(qū)域為50%的視頻中兩對應(yīng)幀圖像。圖5是經(jīng)過拼接處理后得到的寬視野范圍的拼接圖像。

        圖4 視頻中兩對應(yīng)幀圖像Fig.4 Two corresponding images of video

        圖5 拼接后圖像Fig.5 Mosaic image of video frames

        從視頻拼接幀上看,拼接效果較好,拼接后的視頻錄像畫面流暢清晰,能夠滿足交通場景中視頻監(jiān)控對寬視野的需求。由于本拼接系統(tǒng)的算法本身也有一定的局限性,不可避免地存在一定的誤差,例如拼接處的部分圖像存在微弱的接痕和變形等,同時兩視頻幀的亮度還需要用算法進(jìn)行調(diào)整。

        4 結(jié)束語

        提出了基于最優(yōu)單應(yīng)性矩陣的實時視頻拼接求解算法,并將其應(yīng)用于交通場景的視頻拼接中,可以實現(xiàn)交通監(jiān)控過程中對全景交通狀態(tài)的監(jiān)控以及回放,減少了數(shù)據(jù)存儲的空間。本算法在SURF算法提取特征點的基礎(chǔ)上,分別利用最近鄰匹配法、隨機(jī)抽樣一致性匹配算法求出視頻初始幾幀的單應(yīng)性矩陣作為最優(yōu)單應(yīng)性矩陣,然后利用最優(yōu)單應(yīng)性矩陣進(jìn)行視頻后繼k幀的拼接;同時利用K-L算法對特征點對進(jìn)行跟蹤,若當(dāng)前幀中匹配的特征點對的數(shù)量變化超過了給定的閾值,則認(rèn)為需要對最優(yōu)單應(yīng)性矩陣進(jìn)行優(yōu)化和變換,重新計算視頻幀特征點對以及單應(yīng)性矩陣。該快速算法具有參數(shù)估算準(zhǔn)確,計算量小、速度快的優(yōu)點,實現(xiàn)了實時的視頻拼接,對視野背景相對固定的視頻拼接效果尤其理想。下一步工作有兩個主要內(nèi)容,一是研究基于形態(tài)學(xué)的圖像融合算法,避免由于過度拼接或由于物體運(yùn)動造成的高頻信息丟失引起的鬼影現(xiàn)象;二是在提高視頻拼接質(zhì)量的前提下,采用DSP高速處理器,進(jìn)一步提高視頻幀拼接速度。

        [1]Smith S,Susan Brady M.A new approach to low level image processing[J].International Journal of Computer Vision,1997,23(1):45-78.

        [2]Lemeshewsky G P.Multispectral multi-sensor image fusion using wavelet transforms[J].Pro SPIE,1999,3716:214-222.

        [3]Luo Zhong-xuan,Liu Cheng-ming.Fast algorithm of image matching[J].Journal of Computer-Aided Design & Computer Graphics,2005,17(5):966-969.

        [4]Lowe D G.Object recognition from local scale-invariant features[C]∥International Conference on Computer Vision,Corfu,Greece,1999:1150-1157.

        [5]Brown M,Lowe D G.Automatic panoramic image stitching using invariant features[J].International Journal of Computer Vision,2007,74(1):59-73.

        [6]Lowe D G.Distinctive image features from scale-invariant key points[J].International Journal of Computer Vision,2004,60(2):91-110.

        [7]陳昱,莊天戈 .基于灰度值相應(yīng)概率的非剛性圖像配準(zhǔn)[J].上海交通大學(xué)學(xué)報,1999:33(9):1128-1130.Chen Yu,Zhuang Tian-ge.Non-rigid registration for multi-modal medical images based on gray value correspondence probability[J].Journal of Shanghai Jiaotong University,1999,33(9):1128-1130.

        [8]董瑞,梁棟.基于顏色梯度的圖像特征點匹配算法[J].計算機(jī)工程,2007,33(16):178-180.Dong Rui,Liang Dong.Image feature points match algorithm based on color gradient,computer engineering[J].Computer Engeering,2007,33(16):178-180.

        [9]李廣儒,張闖.基于Harris特征點檢測法的雷達(dá)圖像與電子海圖的數(shù)據(jù)融合[J].大連海事大學(xué)學(xué)報,2009,35(2):55-58.Li Guang-ru,Zhang Chuang.Data mining of radar image and electronic chart based on Harris feature point detection[J].Journal of Dalian Maritime University,2009,35(2):55-58.

        [10]許俊澤,胡波.對數(shù)極坐標(biāo)變換域下互信息圖像配準(zhǔn)方法[J].信息與電子工程,2009,7(4):289-293.Xu Jun-ze,Hu Bo.Mutual information image registration based on log-polar transform[J].Information and Electronic Engineering,2009,7(4):289-293.

        [11]李根,李文輝.基于尺度不變特征變換的平面旋轉(zhuǎn)人臉檢測[J].吉林大學(xué)學(xué)報:工學(xué)版,2013,43(1):186-191.Li Gen,Li Wen-h(huán)ui.Face detection under rotation in image plane based on scale invariant feature transform[J].Journal of Jilin University(Engineering and Technology Edition),2013,43(1):186-191.

        [12]Bay H,Tuvtellars T,Van Gool L.SURF:speeded up robust features[C]∥Proceedings of the European Conference on Computer Vision,2006:404-417.

        [13]Jain P K,Jawahar C V.Homography estimation from planar contours[J].Third International Symposium,2006,77(15):877-884.

        猜你喜歡
        矩陣特征圖像
        改進(jìn)的LapSRN遙感圖像超分辨重建
        有趣的圖像詩
        如何表達(dá)“特征”
        不忠誠的四個特征
        抓住特征巧觀察
        初等行變換與初等列變換并用求逆矩陣
        矩陣
        南都周刊(2015年4期)2015-09-10 07:22:44
        矩陣
        南都周刊(2015年3期)2015-09-10 07:22:44
        矩陣
        南都周刊(2015年1期)2015-09-10 07:22:44
        線性代數(shù)的應(yīng)用特征
        河南科技(2014年23期)2014-02-27 14:19:15
        国内精品毛片av在线播放| 国产日韩精品中文字无码| 日本乱子人伦在线视频| 中文乱码字幕高清在线观看| 亚洲美女主播一区二区| 成人免费av高清在线| 久久不见久久见www日本网| 久久国产亚洲高清观看| 国产精品.xx视频.xxtv| 久久久久久无码AV成人影院| 白色白色白色在线观看视频| 国产av精品一区二区三区久久| 18禁裸男晨勃露j毛网站| 国产成人无码一区二区在线观看| 国产最新一区二区三区天堂| 一区二区三区精品偷拍| 少妇被按摩出高潮了一区二区| 国产成人av在线免播放观看新| 日本成本人三级在线观看| 国产精品亚洲一区二区杨幂| 日本中文字幕一区二区视频| 91盗摄偷拍一区二区三区| 无码专区亚洲综合另类| a级毛片无码免费真人| 精品视频专区| 久久久人妻丰满熟妇av蜜臀| 干日本少妇一区二区三区| 中文天堂国产最新| 免费无码av片在线观看| 亚洲国产综合专区在线电影| 国产精品国产三级国产专播| 午夜人妻久久久久久久久| 小荡货奶真大水真多紧视频| 精品无码久久久九九九AV| 国产av一区二区三区在线| 国产精品国产三级野外国产| 亚洲妇女自偷自偷图片 | 日韩女优av一区二区| 亚洲人精品亚洲人成在线| 亚洲中文字幕无码二区在线| 亚洲国产精品色一区二区|