亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于視頻圖像的高速公路車輛識(shí)別算法研究

        2019-09-10 04:03:13曾宇凡
        西部交通科技 2019年9期

        曾宇凡

        摘要:針對(duì)高速公路監(jiān)控視頻圖像實(shí)現(xiàn)路上車輛的自動(dòng)識(shí)別,文章分析了當(dāng)前主要的路況車輛識(shí)別算法,并提出采用基于高斯混合模型的矩陣區(qū)分背景圖像和前景道路,使用彩色矩陣變化獲得車輛前景信息,通過(guò)提取圖像紋理信息結(jié)合幀間差分算法識(shí)別道路車輛的改進(jìn)算法。經(jīng)實(shí)驗(yàn)表明,該算法能快速實(shí)現(xiàn)背景分割,獲得前景圖像并能準(zhǔn)確識(shí)別出車輛信息。

        關(guān)鍵詞:視頻圖像;車輛識(shí)別;高斯模型;幀間差分算法

        中圖分類號(hào):U491 文獻(xiàn)標(biāo)識(shí)碼:A DOI:10.13282/j.cnki.wccst.2019.09.046

        文章編號(hào):1673-4874(2019)09-0165-03

        0引言

        近年我國(guó)高速公路通車?yán)锍淘诟咚僭鲩L(zhǎng),同時(shí)隨著信息技術(shù)的飛速發(fā)展,為建設(shè)智慧高速立體化管理系統(tǒng)提供有力支撐。其中路面監(jiān)控視頻數(shù)據(jù)具有對(duì)路面路況信息的獲取最為豐富、數(shù)據(jù)可重復(fù)使用的概率最高、數(shù)據(jù)獲取方式最為直接等優(yōu)點(diǎn),因此采用路面監(jiān)控設(shè)備結(jié)合視頻檢測(cè)系統(tǒng),利用數(shù)字圖像處理技術(shù)與模式識(shí)別技術(shù)實(shí)現(xiàn)人工智能判別交通異常的方法,能夠?qū)崿F(xiàn)高速公路上運(yùn)動(dòng)車輛自動(dòng)檢測(cè)、根據(jù)車輛特征自動(dòng)跟蹤、交通事故檢測(cè)、道路異常判斷等目標(biāo),對(duì)提高交通事故救援和排障的效率,提高高速公路運(yùn)營(yíng)管理效率具有重要意義。

        1視頻圖像路況識(shí)別主流算法分析

        對(duì)于采用圖像識(shí)別技術(shù)識(shí)別車流路況等動(dòng)態(tài)信息,有很多人采用圖像幀間差分算法進(jìn)行識(shí)別。幀間差分動(dòng)態(tài)檢測(cè)算法的基本思路是將兩個(gè)相鄰的圖像數(shù)據(jù)進(jìn)行差分運(yùn)算獲得差值矩陣圖像,再對(duì)該差值矩陣圖像進(jìn)行閾值化處理,設(shè)定預(yù)設(shè)的閾值進(jìn)而檢測(cè)出圖像中運(yùn)動(dòng)的物體,公式如下:

        式中:D(x,y)——檢測(cè)出的運(yùn)動(dòng)目標(biāo)在圖像坐標(biāo)(x,y)位置的像素值;

        I(x,y)——t時(shí)刻視頻圖像中(x,y)坐標(biāo)點(diǎn)的像素值;

        T——計(jì)算的比較閾值,閾值的設(shè)置直接決定著公式判斷的準(zhǔn)確性。

        背景差分法是另一種識(shí)別圖像動(dòng)態(tài)物體的常用算法,其主要思想為將采集到的視頻圖像與預(yù)先采集好的當(dāng)前背景圖像進(jìn)行矩陣差分計(jì)算,獲取當(dāng)前差值圖像的矩陣,并同樣采取適當(dāng)?shù)拈撝蹬袛啵M(jìn)而檢測(cè)出圖像中的運(yùn)動(dòng)物體。具體公式如下:

        其中:D(x,y)——檢測(cè)出的運(yùn)動(dòng)物體在視頻圖

        像中(x,y)坐標(biāo)的位置;

        F(x,y)——當(dāng)前需要檢測(cè)的視頻圖像

        (x,y)坐標(biāo)的像素值;

        B(x,y)——預(yù)先設(shè)置好的背景圖像中

        (x,y)坐標(biāo)點(diǎn)的像素值;

        T——設(shè)置的閾值。

        同樣為了提高識(shí)別算法的準(zhǔn)確性設(shè)置合理的閾值非常重要。

        流光檢測(cè)法的基本思想是可以將這些連續(xù)變化的圖像信息比作是“光流”,因?yàn)檫\(yùn)動(dòng)目標(biāo)的灰度大小在短時(shí)間內(nèi)變化較小且目標(biāo)速度不會(huì)瞬間突變,因此,根據(jù)光流描述的圖像內(nèi)像素點(diǎn)間的關(guān)系,可以獲得背景與目標(biāo)的三維信息。具體計(jì)算過(guò)程為:圖像上點(diǎn)(x,y)在t時(shí)刻灰度值為I(x,y,t),那么經(jīng)過(guò)dt時(shí)間后,原像素點(diǎn)(x,y)將會(huì)移動(dòng)到位置(x+d,y+d),假設(shè)有μ(x,y)、v(x,y)分別表示(x,y)點(diǎn)處像素在x、y方向上的運(yùn)動(dòng)速度,根據(jù)圖像灰度值不變?cè)瓌t,可以得到如下公式:

        I(x+dx,y+dy,t+dt)=I(x,y,t) (3)

        上述公式可以表示為:

        Idx+Idy=-Idt (4)

        根據(jù)設(shè)定的u=dx/dt,v=dy/dt,可以得到公式(5):

        根據(jù)公式(5)即可獲得流光點(diǎn)的在x、y兩個(gè)方向上的速度,即可完成圖像中運(yùn)動(dòng)物體的識(shí)別。

        另外還有一種是物體特征檢測(cè)法,該方法的主要思想是將圖像中的顏色、紋理和形狀等特征數(shù)據(jù)提取出來(lái),檢測(cè)出視頻圖像中運(yùn)動(dòng)的物體。圖像顏色特征數(shù)據(jù)的提取一般采用將RGB變換到HSV空間表示,能獲得準(zhǔn)確的顏色判別數(shù)據(jù)。而描述灰度變化規(guī)律的紋理特征提取則一般采用反映出灰度分布的均勻程度的二階距ASM為:

        上述幾種算法都是當(dāng)前比較主流的通過(guò)視頻圖像處理技術(shù)對(duì)運(yùn)動(dòng)物體進(jìn)行識(shí)別的算法,它們都有各自的優(yōu)點(diǎn)和缺點(diǎn)。幀間差分法的優(yōu)點(diǎn)是算法實(shí)現(xiàn)簡(jiǎn)單,運(yùn)算速度快,受到圖像光照變化影響較小;但是處理效果與圖像采樣率以及運(yùn)動(dòng)物體的運(yùn)動(dòng)速度有關(guān),識(shí)別率不穩(wěn)定。背景差分法實(shí)現(xiàn)算法簡(jiǎn)單,識(shí)別準(zhǔn)確率較高,但是需要預(yù)先設(shè)置背景數(shù)據(jù),對(duì)于背景復(fù)雜的圖像識(shí)別率不高,而且對(duì)于存在光線變化的背景圖像需要精確匹配預(yù)設(shè)的背景圖像進(jìn)行差分運(yùn)算。流光法的主要優(yōu)點(diǎn)是無(wú)需預(yù)先設(shè)置背景數(shù)據(jù),而且能夠使用攝像頭設(shè)備動(dòng)態(tài)采集數(shù)據(jù),但是流光法受圖像光線的影響比較大,如果需要提高識(shí)別準(zhǔn)確率就要對(duì)圖像的顏色、灰度進(jìn)行變換運(yùn)算,運(yùn)算量比較大。顏色、紋理特征提取識(shí)別法的優(yōu)點(diǎn)是識(shí)別的準(zhǔn)確率比較高,但是運(yùn)算的復(fù)雜度比較高,對(duì)于復(fù)雜背景的圖像識(shí)別準(zhǔn)確率不穩(wěn)定。

        2 在高速公路監(jiān)控視頻圖像場(chǎng)景T的改進(jìn)算法

        基于上述主流圖像識(shí)別算法的分析可以發(fā)現(xiàn),在高速公路路面監(jiān)控視頻圖像場(chǎng)景下,對(duì)圖像進(jìn)行分析處理進(jìn)而實(shí)現(xiàn)視頻圖像中的車輛識(shí)別、異常檢測(cè)等智能識(shí)別功能需要??紤]到高速公路上整體背景復(fù)雜,環(huán)境變化大,光線變化較大,但是道路局部背景環(huán)境變化小,車輛運(yùn)行速度快,出現(xiàn)的異常情況復(fù)雜,對(duì)圖像識(shí)別速度要求高.因此,本文探討一種在高斯混合背景模型下,結(jié)合基于HSV色彩轉(zhuǎn)換的鄰域均值快速背景消除法,提取視頻圖像前景車輛局部信息,再采用圖像紋理特征量數(shù)據(jù)對(duì)車輛運(yùn)動(dòng)信息進(jìn)行檢測(cè)的算法思路。算法步驟如下:

        (1)通過(guò)結(jié)合高斯混合模型的矩陣將當(dāng)前幀圖像的復(fù)雜背景過(guò)濾掉,獲得前景道路即車輛數(shù)據(jù)信息。

        高斯混合模型矩陣包含了分別表示前景圖像概率密度和背景圖像概率密度的高斯分布函數(shù)。為了能夠區(qū)分出前景圖像和背景圖像,將監(jiān)控圖像的高斯混合模型中的X個(gè)高斯分布按照權(quán)重和標(biāo)準(zhǔn)差之間作對(duì)比排序,排序在B前的高斯分布函數(shù)作為背景的高斯分布,而排在K-B后面的高斯分布作為前景分布描述。

        公式中T表示設(shè)置的權(quán)重閾值,度量高斯混合模型中背景的分布權(quán)重和獲得的最小值。相關(guān)文獻(xiàn)中已經(jīng)證明,T取0.5-0.8之間時(shí)獲得的背景和前景分割效果最好。

        (2)HSV色彩轉(zhuǎn)換后的灰度矩陣采用最大類間分割法來(lái)確定前景車輛和背景道路間的閾值,使得分割后圖像的前景與背景之間方差達(dá)到最大.因?yàn)镠SV顏色模型更加符合人的視覺感受,而且能夠保留精確的灰度信息和色彩信息,能夠突出陰影與運(yùn)動(dòng)物體和背景的差距,使背景和前景獲得最大差距。具體計(jì)算公式如下:

        (3)通過(guò)提取上文敘述的4個(gè)紋理特征量,對(duì)獲得的前景車輛圖片進(jìn)行分析識(shí)別,將兩幀之間的圖片獲得的相同車輛特征數(shù)據(jù)做幀間差分運(yùn)算,獲得車輛運(yùn)動(dòng)狀態(tài)數(shù)據(jù),或者道路異常信息數(shù)據(jù),或者對(duì)將上一步獲得的非車輛前景圖片數(shù)據(jù)進(jìn)行判別獲得道路異常信息。決策算法如下:

        Δ是相鄰的圖像幀獲得的紋理信息價(jià)值之間的差值,即:

        ΔP=P-P(16)

        δ為判斷閾值,紋理判斷結(jié)果超出閾值則相對(duì)應(yīng)的圖像區(qū)域?yàn)樽罱K識(shí)別的運(yùn)動(dòng)目標(biāo)區(qū)域。

        3 實(shí)驗(yàn)結(jié)果

        本文主要是針對(duì)泉南高速(柳州至南寧段)建設(shè)的全程監(jiān)控錄像圖像作為實(shí)驗(yàn)對(duì)象,獲得的實(shí)驗(yàn)結(jié)果如圖1-4所示。

        根據(jù)實(shí)驗(yàn)結(jié)果可見,改進(jìn)后的識(shí)別算法能夠提取路面前景連通域的道路圖,并通過(guò)色彩矩陣獲得車輛數(shù)據(jù),再通過(guò)紋理特征識(shí)別出車輛信息.

        4 結(jié)語(yǔ)

        本文提出的改進(jìn)算法在一定程度上能夠提高視頻圖像識(shí)別道路車輛的算法速度和準(zhǔn)確性,下一步應(yīng)該針對(duì)監(jiān)控圖像中出現(xiàn)的行車異常、突發(fā)事故、異常物體運(yùn)動(dòng)等視頻圖像進(jìn)行提取和識(shí)別,需要深入研究自動(dòng)識(shí)別異常圖像的算法。

        天天躁日日躁狠狠躁欧美老妇小说| 国产精品亚洲精品日产久久久| 人妖与人妖免费黄色片| 91久久精品国产综合另类专区| 日本免费一区二区在线看片| 高h小月被几个老头调教| 亚洲精品综合欧美一区二区三区| 一本大道东京热无码| 亚洲精品日本| 国产91在线播放九色快色| 亚洲综合网站久久久| 丰满少妇愉情中文字幕18禁片| 黄色毛片在线看| 精品丝袜一区二区三区性色| 日韩精品视频免费网站| 欧美成人片在线观看| 国产人妻无码一区二区三区免费| 亚洲国产成人精品激情资源9| 久久精品国产精品亚洲艾| 欧美老熟妇乱xxxxx| 中文字幕无码家庭乱欲| 国产精品久久久久久久久久影院| 黄色国产精品福利刺激午夜片| 国产成人无码18禁午夜福利p| 97se在线| 久久精品亚洲国产成人av| 在线观看亚洲第一黄片| 国产亚洲精品资源在线26u| 精品人伦一区二区三区蜜桃麻豆 | 久久精品国产亚洲av麻豆长发 | 久久综合九色综合欧美狠狠| 久久精品国产亚洲5555| 偷偷夜夜精品一区二区三区蜜桃| 国产98色在线 | 国产| 粗一硬一长一进一爽一a级| 五月天综合社区| 一区二区三区极品少妇| 国产成年女人毛片80s网站| 中文字幕免费观看视频| 精品蜜桃在线观看一区二区三区 | 日本免费大片一区二区三区|