亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于紋理特征和神經(jīng)網(wǎng)絡(luò)牌照定位方法

        2010-04-12 00:00:00王曉芳方宗德
        現(xiàn)代電子技術(shù) 2010年4期

        摘 要:汽車牌照的定位是一個較難解決的圖像分割問題,神經(jīng)網(wǎng)絡(luò)為此問題的解決提供了一個有力的解決工具。這里提出一種基于紋理特征和神經(jīng)網(wǎng)絡(luò)的牌照定位方法,首先采用基于紋理特征的方法對車牌圖像進行行定位和列定位,確定車牌候選區(qū)域,然后采用基于神經(jīng)網(wǎng)絡(luò)的方法對候選區(qū)域的特征進行分析判斷,確定車牌區(qū)域。實驗結(jié)果表明,該方法可以實現(xiàn)汽車牌照的快速定位,并且定位準確率較高,魯棒性較好。

        關(guān)鍵詞:牌照定位;紋理特征;神經(jīng)網(wǎng)絡(luò);圖像分割

        中圖分類號:TP391.4文獻標識碼:A

        文章編號:1004-373X(2010)04-049-03

        License Plate Locating Method Based on Texture Features and Neural Network

        WANG Xiaofang1,ZHAO Yong2,F(xiàn)ANG Zongde2

        (1.Shaanxi Vocational and Technical College,Xi′an,710100,China;

        2.College of Mechanical and Electronic Engineering,Nothwestern Polytechnical University,Xi′an,710068,China)

        Abstract:A fast license plate locating method is problem to be solved in the field of license plate recognition in the background.A license plate locating method based on texture features and neural network is proposed.Firstly a method based on texture features can be used to determine row location and column location,the candidate regions can be found.Then the features of candidate regions is analyzed by determining the license plate region using method based on neural network.The experimental results show that this method is excellent in the accuracy and the robustness.

        Keywords:license plate location;texture features;neural network;image segmentation

        0 引 言

        汽車牌照識別技術(shù)屬計算機視覺與模式識別技術(shù),是智能交通系統(tǒng)(Intelligent Transportation System,ITS)中重要研究課題之一。車牌識別技術(shù)包括牌照定位、字符分割和字符識別三個步驟[1],其中牌照定位技術(shù)是整個車牌識別技術(shù)的基礎(chǔ)和前提,牌照定位準確與否,直接影響字符識別的準確率,因此汽車牌照的正確定位是車牌識別技術(shù)中的關(guān)鍵技術(shù)和難點。目前,已有的提取牌照方法主要是基于數(shù)學形態(tài)學[2]、Hough變換[3]、基于神經(jīng)網(wǎng)絡(luò)[4]、基于小波[5]等,這些方法的一個主要缺點就是對復(fù)雜背景及光照條件比較敏感, 容錯性差,定位速度較慢,從而影響車牌識別的實時性能。針對現(xiàn)有方法的不足,提出一種基于紋理特征和神經(jīng)網(wǎng)絡(luò)相結(jié)合的車牌實時定位算法。

        1 車牌定位方法

        本文提出的車牌定位算法主要包括基于紋理的候選區(qū)定位、特征提取及改進BP網(wǎng)絡(luò)分類三個步驟。

        1.1 候選區(qū)定位

        根據(jù)車牌區(qū)域紋理特征,對車牌進行行定位和列定位,確定候選區(qū)域。

        1.1.1 行定位

        (1) 對預(yù)處理后的圖像進行水平方向一階差分運算,即:

        g(i,j)=|f(i,j)-f(i,j+1)|(1)

        通過選定一個閾值,得到水平梯度圖像。

        (2) 對水平差分圖像黑色像素點進行水平投影累加運算,得到水平投影圖像。

        (3) 為消除水平投影圖中的毛刺,對水平投影圖像采用式(2)進行平滑。

        H(i)=0,H(i)

        [∑7m=0H(i+m)]/8,H(i)≥avg(2)

        式中:

        avg=sum x/[(height-1)c](3)

        sum x=∑Height-1i=0H(i)(4)

        式中:H(i)為圖像第i行投影值;H(i+m)為圖像第i+m行投影;avg為圖像水平投影值的平均值;c為修正系數(shù),由實驗確定; Height為圖像高度;sum x為水平投影值總和。

        (4) 根據(jù)平滑水平投影圖的波谷位置行坐標,按高到低的原則提取至多前5個波谷,確定每一個候選區(qū)域的水平區(qū)域[5]。

        令k1=H(i-1)-H(i),k2=H(i)-H(i+1),k3=H(i+1)-H(i),則波谷判斷條件如下:

        k1k3≤0

        k1≥0

        k2>0或k2<0(5)

        1.1.2 列定位

        對行定位確定的候選區(qū)域所對應(yīng)的行區(qū)域進行垂直投影分析,將候選區(qū)域所對應(yīng)的行區(qū)域分成許多小區(qū)間,區(qū)間大小為圖像寬度的1/10,統(tǒng)計相鄰兩個區(qū)間內(nèi)列的投影值,列投影值總和最大的兩個區(qū)間為候選區(qū)域所對應(yīng)的列區(qū)間。

        1.2 特征提取

        提取候選區(qū)域內(nèi)反映車牌特性的特征,并對所有特征歸一化[6]。提取的主要特征有:

        (1) 行投影平均密度rowavg。設(shè)候選區(qū)域內(nèi)行投影的總和為sum x;候選區(qū)域的高為h,則有:

        rowavg=sum x/h(6)

        (2) 列投影平均密度colavg。設(shè)侯選區(qū)域內(nèi)列投影的總和為sum y;侯選區(qū)域的寬為w,則有:

        colavg=sum y/w(7)

        (3) 區(qū)域密度regden。區(qū)域內(nèi)所有黑色點的總和。

        (4) 行灰度標準偏差rowdiv。設(shè)sum x為區(qū)域內(nèi)每行黑色像素數(shù)目的總和;avg為區(qū)域內(nèi)黑色像素總和的平均值;h為區(qū)域的高,則有:

        avg=(∑hn=0sum x)/h(8)

        rowdiv=[∑hn=0(sum x-avg)2]/h(9)

        (5) 列灰度標準偏差coldiv。設(shè)sum y為區(qū)域內(nèi)每列黑色像素數(shù)目的總和;avg為區(qū)域內(nèi)黑色像素總和的平均值;w為區(qū)域的寬,則有:

        avg=(∑wn=0sum y)/w(10)

        coldiv=[∑wn=0(sum y-avg)2]/w(11)

        (6) 行灰度絕對誤差rowerror。設(shè)sum x為區(qū)域內(nèi)每行黑色像素數(shù)目的總和;avg為區(qū)域內(nèi)黑色像素總和的平均值;h為區(qū)域的高,則有:

        avg=(∑hn=0sum x)/h(12)

        rowerror=(∑hn=0|avg-sum x|)/h(13)

        (7) 列灰度絕對誤差colerror。設(shè)sum y為區(qū)域內(nèi)每列黑色像素數(shù)目的總和;avg為區(qū)域內(nèi)黑色像素總和的平均值;w為區(qū)域的寬,則有:

        avg=(∑wn=0sum y)/w(14)

        colerror=(∑wn=0|avg-sum y|)/w(15)

        (8) 面積比areabl。設(shè)區(qū)域內(nèi)黑色像素數(shù)目的總和為sum b;區(qū)域的面積為A,則有:

        areabl=sum b/A(16)

        (9) 行波峰數(shù)bfnum。

        第10~19行波峰平均值。取候選區(qū)域內(nèi)前10個波峰,波峰平均值為bfavg(i);相鄰波峰之間的黑色像素數(shù)目和為area(i);pos2為相鄰波峰中的第2個波峰位置;pos1為相鄰波峰中的第一個波峰位置[7],則有:

        bfavg(i)=area(i)(pos2-pos1)h,0≤i≤9(17)

        第20~29行波峰位置。取侯選區(qū)域內(nèi)前10個波峰的位置為rbpos(i);h為區(qū)域高,則有:

        rbpos(i)=pos1+0.5(pos2-pos1)h,0≤i≤9(18)

        第30~34列波峰平均值[8]。取候選區(qū)域前5個列波峰,波峰平均值為cbfavg(i);相鄰波峰之間的黑色像素數(shù)目和為area(i);pos2為相鄰波峰中的第2個波峰位置;pos1為相鄰波峰中的第1個波峰位置[9],則有:

        cbfavg(i)=area(i)(pos2-pos1)w,0≤i≤4(19)

        第35~39列波峰位置。取候選區(qū)域前5個列波峰,前5個波峰的位置為cbpos(i);h為區(qū)域?qū)挾?pos2為相鄰波峰中的第二個波峰位置;pos1為相鄰波峰中的第一個波峰位置,則有:

        cbpos(i)=pos1+0.5(pos2-pos1)w,0≤i≤4(20)

        1.3 改進的BP網(wǎng)絡(luò)分類

        標準的BP 網(wǎng)絡(luò)有學習收斂速度慢,存在局部極小點等缺陷。本文采用附加沖量、自適應(yīng)學習速率等方法對其進行了改進[10],使網(wǎng)絡(luò)性能得到了較大的改善,實現(xiàn)了對候選區(qū)域的篩選,網(wǎng)絡(luò)的參數(shù)設(shè)置如下:

        (1) 輸入層節(jié)點個數(shù)。設(shè)計為39個節(jié)點,節(jié)點數(shù)據(jù)對應(yīng)候選區(qū)域的39個歸一化特征值。

        (2) 隱含層節(jié)點個數(shù)。根據(jù)實驗,并結(jié)合經(jīng)驗公式確定。

        (3) 輸出層節(jié)點個數(shù)。設(shè)定為1,輸出值分為兩類,是或者不是車牌區(qū)域。

        (4) 學習速率。初始學習速率設(shè)定為0.01,學習速率調(diào)整準則為:

        α(N+1)=1.15α(N),E(N+1)

        0.5α(N),E(N+1)>1.25E(N)

        α(N),E(N)≤E(N+1)≤1.25E(N)

        式中:α為網(wǎng)絡(luò)學習速率;E為網(wǎng)絡(luò)誤差函數(shù);N為網(wǎng)絡(luò)學習次數(shù)。

        (5) 沖量系數(shù)為0.95。

        (6) 允許誤差為0.01。

        (7) 允許學習次數(shù)為150 000。

        (8) 訓練樣本的選擇。為了增強網(wǎng)絡(luò)的泛化性,訓練樣本為在各種不同背景車牌圖像上截取的車牌字符區(qū)域和車牌非字符區(qū)域?qū)?yīng)的圖像[11]。

        (9) 初始權(quán)值和閾值是[0,1]區(qū)間的隨機數(shù)。

        (10) 輸入和希望輸出的激勵函數(shù)選S函數(shù)。

        2 實驗結(jié)果

        通過攝像機采集600個樣本,隨機抽取300個作為訓練樣本,訓練后得到神經(jīng)網(wǎng)絡(luò)的各層權(quán)值,構(gòu)造出三層BP網(wǎng)絡(luò),用其余300個樣本進行測試。實驗結(jié)果表明:定位準確率位95%,定位時間在50 ms左右。圖1是其中一幅圖片車牌定位過程示意圖。

        圖1 車牌定位過程示意圖

        3 結(jié) 語

        這里基于紋理特征和神經(jīng)網(wǎng)絡(luò)提出了一種車牌定位方法。經(jīng)實驗證明,該方法定位精度高,計算時間短,魯棒性好,具有重要的應(yīng)用價值。與小波變換、遺傳算法、形態(tài)學等優(yōu)勢相結(jié)合,進一步提高定位準確度,是今后的努力方向。

        參考文獻

        [1]王曉芳.基于圖像處理和模式識別技術(shù)的汽車牌照快速定位方法[J].陜西職業(yè)技術(shù)學院學報,2007(1):6-9.

        [2]Junwei Hsieh,Shihao Yu,Yungsheng Chen.Morphology-based License Plate Detection from Complex Scenes[A].16th International Conference on Pattern Recognition[C].2002:176-179.

        [3]Kamat,Varsga,Ganesan.Subramaniam.Efficient Implementation of the Hough Transform for Detecting Vehicle Li-cense Plates Using DSP′s[A].Proceeding of Real-time Technology and Application[C].1995:58-59.

        [4]陳建坤,范春年.一種基于神經(jīng)網(wǎng)絡(luò)的車牌定位方法[J].遼寧工程技術(shù)大學學報,2005:24(1):97-100.

        [5]鄭曉東.基于小波分解的車牌圖像分割[J].華中科技大學學報:自然科學版,2005:33(3):30-32.

        [6]周建國.汽車牌照定位系統(tǒng)研究[D].南京:南京航空航天大學,2002.

        [7]劉關(guān)松,呂嘉雯.一種新的二值圖像標記的快速算法[J].計算機工程與應(yīng)用,2002(3):57-59.

        [8]戴青云,余英林.一種基于小波與形態(tài)學的車牌圖像分割方法[J].中國圖像圖形學報,2000,15(5):411-415.

        [9]郭捷,施鵬飛.基于顏色和紋理分析的車牌定位方法[J].中國圖像圖形學報,2002,7(5):472-476.

        [10]焦李成.神經(jīng)網(wǎng)絡(luò)系統(tǒng)理論[M].西安:西安電子科技大學出版社,1996.

        [11]夏良正.數(shù)字圖像處理(修訂版)[M].南京:東南大學出版社,1999.

        131美女爱做视频| 侵犯了美丽丰满人妻中文字幕| 精品亚洲一区二区三区四区五| 把女的下面扒开添视频| 亚洲av无码久久寂寞少妇| 日日爽日日操| 91精品啪在线观看国产色| 日本精品女优一区二区三区| 中文字幕+乱码+中文字幕一区| 日韩毛片基地一区二区三区| 日本熟妇精品一区二区三区| 久久亚洲中文字幕精品熟| 亚洲av无码成人网站在线观看 | 成人无码激情视频在线观看| 黄片国产一区二区三区| 玩弄人妻少妇精品视频| 老熟妇高潮喷了╳╳╳| 91在线无码精品秘 入口九色十| 97青草超碰久久国内精品91| 无遮挡呻吟娇喘视频免费播放| 欧韩视频一区二区无码| 青青草视频原手机在线观看| 在线观看日本一区二区三区四区| 国产莉萝无码av在线播放| 亚洲日韩图片专区小说专区| 亚洲中文字幕在线精品2021| 本道天堂成在人线av无码免费| 内谢少妇xxxxx8老少交| 在线丝袜欧美日韩制服| 无色码中文字幕一本久道久| 久久久久久九九99精品| 久久亚洲精品成人| 国产青春草在线观看视频| 亚洲最新无码中文字幕久久 | 免费一级毛片麻豆精品| 国产一区二区在三区在线观看| 中文字幕一区二区三区四区五区 | 女同久久精品国产99国产精品| 中文字幕日本熟妇少妇| 中文字幕一区二区中出后入| 精品国产人妻一区二区三区|