亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于FasterR-CNN與BRNN的車牌識(shí)別

        2020-09-02 06:31:23潘安琪門玉英
        軟件導(dǎo)刊 2020年8期
        關(guān)鍵詞:車牌識(shí)別卷積神經(jīng)網(wǎng)絡(luò)圖像識(shí)別

        潘安琪 門玉英

        摘 要:針對(duì)傳統(tǒng)車牌檢測(cè)方法在復(fù)雜環(huán)境下識(shí)別準(zhǔn)確率不高且過程繁復(fù)問題,提出一種基于Faster R-CNN和BRNN統(tǒng)一深度神經(jīng)網(wǎng)絡(luò)的車牌識(shí)別方法。首先,使用Faster R-CNN網(wǎng)絡(luò)進(jìn)行車牌定位:先通過RPN(區(qū)域提案網(wǎng)絡(luò))進(jìn)行候選區(qū)域提取與輸出,提供粗略搜索范圍,再通過分類層結(jié)合提議目標(biāo)層生成的邊界框坐標(biāo)和其回歸系數(shù),生成所需的最終邊界框;然后,將車牌識(shí)別看作序列標(biāo)記問題,使用具有CTC損耗的BRNN(雙向循環(huán)神經(jīng)網(wǎng)絡(luò))用于標(biāo)記其順序特征,實(shí)現(xiàn)車牌字符識(shí)別。試驗(yàn)結(jié)果表明,該技術(shù)識(shí)別準(zhǔn)確率高達(dá)94.5%。

        關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò);深度學(xué)習(xí);車牌識(shí)別;圖像識(shí)別;R-CNN

        DOI:10. 11907/rjdk. 201323 開放科學(xué)(資源服務(wù))標(biāo)識(shí)碼(OSID):

        中圖分類號(hào):TP301文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1672-7800(2020)008-0049-05

        Abstract:Aiming at the problem of low recognition accuracy and complicated process in traditional license plate detection methods in complex environments, we propose a license plate recognition method based on Faster R-CNN and BRNN unified deep neural network. First, we use the Faster R-CNN network for license plate location. Candidate regions is extracted and output through RPN (regional proposal network) to provide a rough search range; then the classification layer is combined with the bounding box coordinates generated by the proposed target layer and its regression coefficient to generate the final bounding box required. Secondly, the license plate recognition is regarded as a sequence marking problem. A BRNN (Bidirectional Recurrent Neural Network) with CTC loss is used to label its sequential features to realize the character recognition of the license plates. According to the experimental results, the recognition accuracy rate is as high as 94.5%.

        Key Words:convolutional neural network; deep learning; license plate recognition; image identification; R-CNN

        0 引言

        隨著人們生活水平的提高,我國汽車需求量快速增長。機(jī)動(dòng)車無疑便利了人們生活,但隨之而來的是愈來愈嚴(yán)重的交通問題。車牌檢測(cè)和識(shí)別對(duì)智能運(yùn)輸系統(tǒng)非常重要,從安全性到交通控制有眾多應(yīng)用。然而,很多算法只有在受控條件下或使用復(fù)雜的圖像捕獲系統(tǒng)才能很好地工作[1],在不受控制的環(huán)境中準(zhǔn)確讀取牌照仍存在很多問題[2]。

        以前車牌檢測(cè)和識(shí)別工作通常將定位和識(shí)別視為兩個(gè)獨(dú)立任務(wù),分別采用不同方法,步驟通常為圖片預(yù)處理、字符分割、文本識(shí)別。

        基于顏色特征的邊緣檢測(cè)方法[3],通過分析局部區(qū)域內(nèi)指定顏色的分布特征,將車牌顏色和紋理特征同時(shí)提取。該算法具有速度快、準(zhǔn)確性高和適應(yīng)性強(qiáng)的優(yōu)點(diǎn)。但是,當(dāng)牌照區(qū)域顏色與附近區(qū)域非常接近時(shí)會(huì)產(chǎn)生錯(cuò)誤的定位結(jié)果,嚴(yán)重變色的車牌甚至無法檢測(cè)到字符筆劃的邊。

        基于紋理的檢測(cè)方法[4]將小波系數(shù)的標(biāo)準(zhǔn)差作為紋理測(cè)度以生成特征向量,利用模糊c-均值聚類算法進(jìn)行紋理分割。該方法在光線較弱、過強(qiáng)或不均勻、圖像傾斜或變形的情況下具有較好的定位效果。但在復(fù)雜的背景圖像應(yīng)用時(shí),很容易找到一些具有豐富紋理分布的非牌照區(qū)域。由于目標(biāo)檢測(cè)過程繁瑣、準(zhǔn)確性不好,傳統(tǒng)方法往往效果不佳。

        本文采用深度學(xué)習(xí)方法中的Faster R-CNN,通過引用具有多個(gè)尺度和縱橫比的錨框處理尺度問題[5],利用雙向循環(huán)神經(jīng)網(wǎng)絡(luò)(BRNN)和CTC函數(shù)結(jié)合進(jìn)行字符識(shí)別。通過神經(jīng)網(wǎng)絡(luò)的自主學(xué)習(xí)功能,從圖像中檢測(cè)出車牌,同時(shí)對(duì)車牌進(jìn)行識(shí)別[6-8]。該網(wǎng)絡(luò)結(jié)構(gòu)是一個(gè)統(tǒng)一的深度神經(jīng)網(wǎng)絡(luò),可定位車牌并在一次正向通行中識(shí)別字母。整個(gè)框架不涉及啟發(fā)式過程,如使用版面顏色或字符空間,避免了字符分組或分離等中間過程,在車牌檢測(cè)和字母恢復(fù)方面具有較高精度[9]。

        1 Faster R-CNN

        Region-CNN(R-CNN)是一種基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)將深度學(xué)習(xí)用于目標(biāo)檢測(cè)和識(shí)別的方法。Fast R-CNN在R-CNN基礎(chǔ)上改善重復(fù)提取候選框的缺點(diǎn),但尋找有效候選框會(huì)浪費(fèi)大量時(shí)間[10]。本文使用Faster R-CNN結(jié)構(gòu),將目標(biāo)檢測(cè)基本步驟(候選區(qū)域生成、特征提取、分類、位置精修)統(tǒng)一到一個(gè)深度網(wǎng)絡(luò)框架內(nèi)[11]。本文采用此方法實(shí)現(xiàn)車牌定位功能,所有計(jì)算無重復(fù),完全在GPU中完成,大大提高運(yùn)行速度。Faster R-CNN在Fast R-CNN基礎(chǔ)上提出 [12-13],可看作是Fast R-CNN和RPN通過共享卷積特征的組合 [14]。RPN提供粗略搜索范圍,F(xiàn)ast R-CNN使用區(qū)域提議檢測(cè)目標(biāo),即先對(duì)此網(wǎng)絡(luò)使用帶有同一特征的圖像進(jìn)行訓(xùn)練,使其具有識(shí)別待檢測(cè)目標(biāo)特征的能力。

        1.1 車牌定位流程

        Fast R-CNN檢測(cè)精度較高,但速度很慢。在Faster R-CNN中,將區(qū)域網(wǎng)絡(luò)(RPN)與Fast R-CNN網(wǎng)絡(luò)相結(jié)合以提高速度,用RPN取代Fast R-CNN算法。Faster R-CNN網(wǎng)絡(luò)如圖1所示。

        使用RPN輸出候選區(qū)域作為輸入訓(xùn)練。RPN和Faster R-CNN網(wǎng)絡(luò)獨(dú)立訓(xùn)練,其卷積層以不同方式修改。因此,交替訓(xùn)練用于在卷積層中共享特征。在特征提取過程中,使用VGG-16網(wǎng)絡(luò)作為Faster R-CNN的前端網(wǎng)絡(luò)。VGG-16有13個(gè)共享卷積層。本文通過多個(gè)卷積層輸入圖像,得到一個(gè)特征圖。在最后一個(gè)卷積層,完全卷積網(wǎng)絡(luò)RPN替代分類網(wǎng)絡(luò)的完整連接層用于端到端訓(xùn)練。

        1.2 區(qū)域提案網(wǎng)絡(luò)(RPN)

        區(qū)域提案網(wǎng)絡(luò)可提供多個(gè)提案區(qū)域,每個(gè)區(qū)域都有一個(gè)客觀評(píng)分。本文使用大小為n×n的滑動(dòng)窗口。卷積特征映射生成長度為256維的完整連接特征,然后在完整連接特征之后生成連接層的兩個(gè)分支。REG層用于預(yù)測(cè)錨點(diǎn)和目標(biāo)區(qū)域大小,CLS層用于確定是前景還是背景?;瑒?dòng)窗口處理方法確保REG層和CLS層與卷積層的所有特征空間相關(guān)聯(lián)。

        候選區(qū)域選擇規(guī)則:如果錨參考框與真實(shí)值的交點(diǎn)大于0.7,則標(biāo)記為正樣本;如果錨參考框與真實(shí)值交點(diǎn)小于0.3,則標(biāo)記為負(fù)樣本;其余的既不是積極的也不是消極的,不會(huì)用于最后的訓(xùn)練。

        RPN訓(xùn)練損失分為分類損失和邊界框回歸損失。

        x,y,w,h為框的中心坐標(biāo)、寬與高。其中,x為預(yù)測(cè)框,即proposal;xa為錨框;x*為標(biāo)定框。

        除區(qū)域提案網(wǎng)絡(luò)外,F(xiàn)aster R-CNN網(wǎng)絡(luò)還由提議目標(biāo)層、Crop Pooling層以及分類層組成,可實(shí)現(xiàn)感興趣區(qū)域、特征區(qū)域提取,以及識(shí)別出最終所需的邊界框。

        1.3 Faster R-CNN其它網(wǎng)絡(luò)層次

        1.3.1 提議目標(biāo)層

        提議目標(biāo)層指從提議層輸出區(qū)域(ROI)列表中選擇有希望的ROI,用于讓前面產(chǎn)生的特征圖執(zhí)行Crop Pooling結(jié)構(gòu)且傳遞到網(wǎng)絡(luò)其它部分,計(jì)算產(chǎn)生邊框的回歸系數(shù)及預(yù)測(cè)分類得分。提議目標(biāo)層從推選層計(jì)算的ROI開始,將每個(gè)ROI與所有目標(biāo)最大重疊,并且將ROI分類為前景ROI和背景ROI,前景感興趣區(qū)域即為最多重疊區(qū)域多于閾值的部分。

        1.3.2 Crop Pooling層

        提議目標(biāo)層產(chǎn)生有希望的ROI,可在訓(xùn)練過程中使用相關(guān)回歸系數(shù)以及類標(biāo)簽對(duì)其分類,之后通過卷積特征圖提取相應(yīng)感興趣區(qū)域。所提取的卷積特征圖使用此結(jié)構(gòu)運(yùn)行,產(chǎn)生所有感興趣區(qū)域的對(duì)象類概率分布和回歸系數(shù),在卷積特征對(duì)應(yīng)的執(zhí)行區(qū)域中提取本層。

        1.3.3 分類層

        本層通過對(duì)Crop Pooling輸出的特征圖沿空間維度平均匯集,傳遞特征圖至第4層ResNet層,接著特征向量通過bbox_pred_net和cls_score_net相連,后者代表每個(gè)邊界框生成的類別成績,前者可產(chǎn)生特定類的邊界框回歸系數(shù)。結(jié)合提議目標(biāo)層生成的邊界框坐標(biāo)和其回歸系數(shù)即為生成所需的最終邊界框。

        2 雙向循環(huán)網(wǎng)絡(luò)與CTC函數(shù)

        2.1 車牌識(shí)別結(jié)構(gòu)

        車牌識(shí)別網(wǎng)絡(luò)是基于車牌定位產(chǎn)生的最終邊框,進(jìn)行一系列操作識(shí)別出字符。本文基于提取的區(qū)域特征識(shí)別ROI中每個(gè)字符,將車牌識(shí)別看作序列標(biāo)記問題。使用具有CTC損耗的雙向循環(huán)神經(jīng)網(wǎng)絡(luò)用于標(biāo)記其順序特征。雙向循環(huán)神經(jīng)(BCNN)網(wǎng)絡(luò)加CTC損失函數(shù)結(jié)構(gòu)如圖3所示,雙向循環(huán)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示,其中xi代表輸入層,yi代表輸出層,Ai表示向前層,Ai'表示向后層,Si表示隱藏層向量。

        雙向循環(huán)神經(jīng)網(wǎng)絡(luò)能彌補(bǔ)單項(xiàng)循環(huán)神經(jīng)網(wǎng)絡(luò)在很多情況下的不足。單項(xiàng)循環(huán)神經(jīng)網(wǎng)絡(luò)僅僅結(jié)合歷史數(shù)據(jù),反向循環(huán)神經(jīng)網(wǎng)絡(luò)則可與未來數(shù)據(jù)相聯(lián),兩種神經(jīng)網(wǎng)絡(luò)組合便可將歷史數(shù)據(jù)和將來數(shù)據(jù)相聯(lián)系。

        2.2 算法介紹

        CNN或DNN的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)輸入和輸出是分開的[17],這類網(wǎng)絡(luò)結(jié)構(gòu)適用于輸入輸出關(guān)聯(lián)性不大的情況,而RNN結(jié)構(gòu)的引入則適用于輸入與輸出關(guān)聯(lián)性強(qiáng)的情況。RNN結(jié)構(gòu)按照一定的時(shí)間序列展開,而RNN的單項(xiàng)循環(huán)神經(jīng)網(wǎng)絡(luò)僅僅結(jié)合歷史數(shù)據(jù),相反,反向循環(huán)神經(jīng)網(wǎng)絡(luò)則可與未來數(shù)據(jù)相聯(lián)。兩種神經(jīng)網(wǎng)絡(luò)組合便可將歷史數(shù)據(jù)和未來數(shù)據(jù)相聯(lián)系,形成雙向循環(huán)神經(jīng)網(wǎng)絡(luò),即BRNN[18]。

        ROI池化后的區(qū)域特征表示為Q,將區(qū)域特征重構(gòu),得到的特征表示為[V=(v1,v2, ,vL)]。BRNN應(yīng)用于順序特征之上,使用具有512個(gè)單元的兩個(gè)分離RNN層。一個(gè)向前處理特征序列,隱藏狀態(tài)通過[h(f)t=g(vt,h(f)t-1)]更新。另一個(gè)向后處理,隱藏狀態(tài)通過[h(b)t=g(vt,h(b)t+1)]更新。將兩個(gè)隱藏狀態(tài)連接并輸出后進(jìn)行線性變換,最后轉(zhuǎn)化為車牌上的字符概率分布。記錄每個(gè)時(shí)間點(diǎn)概率,在BRNN編碼之后,特征序列V變換為具有與V相同長度的概率估計(jì)序列[q=(q1,q2, ,qL)]。BRNN從兩個(gè)方向捕獲歷史數(shù)據(jù)和未來數(shù)據(jù),極大提高了準(zhǔn)確性。

        3 實(shí)驗(yàn)與分析

        3.1 數(shù)據(jù)集預(yù)處理

        本文實(shí)驗(yàn)選取3 000張不同場(chǎng)景下的車牌照片作為數(shù)據(jù)集[19],包括不同角度和分辨率圖片,以及復(fù)雜環(huán)境如陰暗天氣、暴雨暴雪天、光照陰影不均勻等拍攝的車牌照片[20]。將圖片中的車牌按PASCAL VOC2007格式進(jìn)行處理,再通過lableimg進(jìn)行車牌標(biāo)注,將結(jié)果輸出為xml文件。

        數(shù)據(jù)集分別為訓(xùn)練集和測(cè)試集[21-22],其中1 800個(gè)作為訓(xùn)練和驗(yàn)證數(shù)據(jù)集,1 200個(gè)作為測(cè)試數(shù)據(jù)集。測(cè)試數(shù)據(jù)分3種類型:①400個(gè)清晰、明亮,位置較為端正的車牌圖像;②400個(gè)模糊、光線暗或位置傾斜的圖像;③400張普通車牌圖像。圖5為3種車牌檢測(cè)結(jié)果。

        3.2 圖像訓(xùn)練與測(cè)試

        首先下載并使用MATLAB進(jìn)行網(wǎng)絡(luò)模型迭代訓(xùn)練[23]。結(jié)束之后,將模型路徑修改為訓(xùn)練所得路徑,將測(cè)試圖片修改為本文需要測(cè)試的圖片,得出訓(xùn)練結(jié)果,并將出現(xiàn)的很多沒有目標(biāo)的圖片提高閾值設(shè)置,再次輸出結(jié)果。

        使用Faster R-CNN與VGG網(wǎng)絡(luò)進(jìn)行實(shí)驗(yàn),得出召回率、精確率及平均速度等數(shù)據(jù)。評(píng)估標(biāo)準(zhǔn)包括召回率和精確度。召回率指正確檢測(cè)到的車牌數(shù)除以實(shí)際區(qū)域總數(shù),精確度指正確檢測(cè)到的牌照數(shù)除以檢測(cè)到的區(qū)域總數(shù)[24]。本文通過設(shè)置不同參數(shù)(如迭代、學(xué)習(xí)速率等)不斷訓(xùn)練數(shù)據(jù)集,以獲得最佳結(jié)果。圖6為該方法的精確率—召回率曲線圖。當(dāng)使用800張圖像進(jìn)行訓(xùn)練時(shí),mAP為0.963 7,使用1 000張圖像進(jìn)行訓(xùn)練時(shí),mAP為0.974 4。圖6為分別用300、500、700、800和1 000張訓(xùn)練集圖像的仿真結(jié)果。

        3.3 車牌字符識(shí)別

        本文采用Faster R-CNN結(jié)構(gòu)和CTC加BRNN結(jié)構(gòu)進(jìn)行實(shí)驗(yàn),并且使用SGD方法訓(xùn)練整個(gè)網(wǎng)絡(luò)[25-26],從預(yù)訓(xùn)練的VGG-16模型開始初始化[27]。從第5層的CNN層在前50K迭代中進(jìn)行微調(diào)。根據(jù)高斯分布初始化其余權(quán)重。使用ADAM優(yōu)化器[28](初步學(xué)習(xí)率為10-5)用于預(yù)訓(xùn)練VGG-16模型中的參數(shù),10-4用于其余參數(shù)。后者學(xué)習(xí)率每10K迭代減半,直至10-5。該網(wǎng)絡(luò)經(jīng)過200K次迭代訓(xùn)練,每次迭代使用從訓(xùn)練數(shù)據(jù)集中隨機(jī)采樣的單個(gè)圖像。對(duì)于每個(gè)訓(xùn)練圖像,將其調(diào)整為700像素的較短邊,較長邊不超過1 500像素。

        本文對(duì)字符識(shí)別結(jié)構(gòu)精度變化進(jìn)行MATLAB模擬仿真,結(jié)果如圖7所示。

        一種方法是首先去掉不需要的背景邊緣,然后通過基于密度的方法將邊界分類,最后通過線性支持向量機(jī)模型對(duì)梯度特征的直方圖訓(xùn)練分類;另一種方法是發(fā)現(xiàn)局部特征匹配自動(dòng)定位車牌。兩種方法都有較高的識(shí)別率。

        4 結(jié)語

        本文基于Faster R-CNN和CTC加BRNN的網(wǎng)絡(luò)模型,對(duì)不同環(huán)境下的車牌進(jìn)行訓(xùn)練和識(shí)別操作,并與其它識(shí)別方法進(jìn)行識(shí)別率對(duì)比。實(shí)驗(yàn)結(jié)果表明,本文網(wǎng)絡(luò)結(jié)構(gòu)車牌識(shí)別率高達(dá)94.5%,不僅在一定程度解決了復(fù)雜條件下識(shí)別準(zhǔn)確率低的問題,還可一次性識(shí)別一張圖片上的多個(gè)車牌,減少了誤差和識(shí)別時(shí)間。此外,不同場(chǎng)景下,本文網(wǎng)絡(luò)模型訓(xùn)練圖像越多識(shí)別準(zhǔn)確率越高。但由于實(shí)驗(yàn)數(shù)據(jù)的局限性,本文網(wǎng)絡(luò)在不良圖像條件下仍存在一些誤差。若添加更多數(shù)據(jù)訓(xùn)練網(wǎng)絡(luò),識(shí)別率及精準(zhǔn)度會(huì)相應(yīng)提升。本文方法簡單,在車牌檢測(cè)應(yīng)用中具有良好前景。

        參考文獻(xiàn):

        [1] KIM J, WOODS J W. Image identification and restoration in the subband domain[J]. Image Processing IEEE Transactions on,1994, 3(3):312-314.

        [2] SALTZER J H. End-to-end arguments in system design[J]. Acm Transactions on Computer Systems, 1984, 2(4):277-288.

        [3] 沈勇武,章專. ?基于特征顏色邊緣檢測(cè)的車牌定位方法[J]. ?儀器儀表學(xué)報(bào), 2008,7(12):211-215.

        [4] 應(yīng)宏微,姚明海, 張永華. ?基于紋理分析和垂直投影的車牌定位算法[J]. 控制工程, 2004, 11(5):432-435.

        [5] LECUN Y,BENGIO Y,HINTON G. Deep learning.[J]. ?Nature, 2015, 521(7553):436-448.

        [6] SCHMIDHUBER,JüRGEN. Deep learning in neural networks: an overview[J]. Neural Networks, 2015, 521(61):85-117.

        [7] LITJENS G,KOOI T,BEJNORDI B E, et al. A survey on deep learning in medical image analysis[J]. ?Medical Image Analysis, 2017,96(42):60-88.

        [8] PAPERNOT N,MCDANIEL P,JHA S, et al. The limitations of deep learning in adversarial settings[J]. MTandHJ,2015,8(59):381-412.

        [9] ZHANG C,BENGIO S,HARDT M,et al. Understanding deep learning requires rethinking generalization[J]. Springer Link,2016,51(634):1102-1115.

        [10] REN S,HE K,GIRSHICK R,et al. Faster R-CNN: towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2015, 39(6):89-102.

        [11] GIRSHICK R. Fast R-CNN[C]. IEEE International Conference on Computer Vision (ICCV), IEEE,2016.

        [12] JIANG H,LEARNED MILLER E. IEEE international conference on automatic face & gesture recognition ?face detection with the faster R-CNN[J]. Computer science, 2017,102(5):650-657.

        [13] JIANG H,LEARNED-MILLER E. Face detection with the faster R-CNN[J]. Computer science, 2016,90(2):394-410.

        [14] SALVADOR A,GIRó-I-NIETO X,MARQUéS F,et al. Faster R-CNN features for instance search[C]. Computer Vision & Pattern Recognition Workshops,2016.

        [15] SHRIVASTAVA A,GUPTA A. Contextual priming and feedback for faster R-CNN[C]. European Conference on Computer Vision. Springer, Cham, 2016.

        [16] YUN R,CHANGREN Z,SHUNPING X. ?Small object detection in optical remote sensing images via modified faster R-CNN[J]. Applied Sciences, 2018, 8(5):813-822.

        [17] RODRIGUEZ P P,GIANOLA D. ?Brnn: bayesian regularization for feed-forward neural networks[J]. Int.Conf.Neural Network, 2013,86(6):824-833.

        [18] CAI Y,ZHENG W,ZHANG T,et al. Video based emotion recognition using CNN and BRNN[M]. Pattern Recognition, Springer Singapore, 2016.

        [19] WOODS J W,KIM J. Image identification and restoration in the subband domain[J]. Image Processing IEEE Transactions on,1994, 3(3):312-314.

        [20] BRUGGE M H T,NIJHUIS J A G,SPAANENBURG L,et al. License plate recognition[C]. Knowledge-based intelligent techniques in character recognition. CRC Press, Inc. ?1999.

        [21] NIJHUIS J A G. ?Car license plate recognition with neural networks and fuzzy logic[J]. ?Int.Conf.Neural Network,1995,5(5):875-883.

        [22] SHI X,ZHAO W,SHEN Y. Automatic license plate recognition system based on color image processing[C]. International Conference on Computational Science and Its Applications. Springer, Berlin, Heidelberg, 2005.

        [23] GüNTER S, BUNKE H. HMM-based handwritten word recognition: on the optimization of the number of states, training iterations and Gaussian components[J]. Pattern Recognition,2004,37(10):2069-2079.

        [24] MA Z,LI J L,TAN X F. ?Research on license plate recognition technology[J]. Applied Mechanics and Materials,2010(44-47):3667-3671.

        [25] ANAGNOSTOPOULOS C N E,ANAGNOSTOPOULOS I E,LOUMOS V,et al. A license plate-recognition algorithm for intelligent transportation system applications[J]. ?IEEE Transactions on Intelligent Transportation Systems, 2006, 7(3):377-392.

        [26] BORDES A,BOTTOU L,GALLINARI P. SGD-qn:careful quasi-newton stochastic gradient descent[J]. ?Journal of Machine Learning Research, 2009, 10(3):1737-1754.

        [27] XIAO Z, WANG M, GENG L, et al. Optic cup segmentation method by a modified VGG-16 network[J]. ?Journal of Medical Imaging and Health Informatics, 2019,85(4):157-168.

        [28] KINGMA D P,BA J. Adam: a method for stochastic optimization[J]. Computer Science, 2014,86(9):1204-1221.

        [29] ZHOU W, LI H, LU Y, et al. Principal visual word discovery for automatic license plate detection[J]. IEEE Trans, Image Process,2012,21(9):4269-4279.

        [30] TIAN J,WANG G, LIU J, et al. License plate detection in an open environment by density-based boundary clustering[J]. Electron,Imag,2017,26(3):1-11.

        (責(zé)任編輯:杜能鋼)

        猜你喜歡
        車牌識(shí)別卷積神經(jīng)網(wǎng)絡(luò)圖像識(shí)別
        基于Resnet-50的貓狗圖像識(shí)別
        電子制作(2019年16期)2019-09-27 09:34:50
        高速公路圖像識(shí)別技術(shù)應(yīng)用探討
        圖像識(shí)別在物聯(lián)網(wǎng)上的應(yīng)用
        電子制作(2018年19期)2018-11-14 02:37:04
        圖像識(shí)別在水質(zhì)檢測(cè)中的應(yīng)用
        電子制作(2018年14期)2018-08-21 01:38:16
        基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識(shí)別算法
        基于支持向量機(jī)的車牌字符識(shí)別方法
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        車牌識(shí)別系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)
        基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
        軟件工程(2016年8期)2016-10-25 15:47:34
        基于車牌識(shí)別的機(jī)器視覺課程研究
        科技視界(2016年16期)2016-06-29 18:33:07
        国产精品日本一区二区在线播放 | 激情人妻另类人妻伦| 国产乱人对白| 少妇愉情理伦片丰满丰满午夜| 精品欧美一区二区在线观看| 中文国产成人精品久久一区| 国产在线播放免费人成视频播放| 在线观看国产激情视频| 久久久久成人精品免费播放动漫| 亚洲熟女乱综合一区二区| 欧洲-级毛片内射| 久久午夜无码鲁丝片直播午夜精品| 青青草在线成人免费视频| 99久久国产精品免费热| 大地资源在线影视播放| 亚洲精品字幕| 欧美伊人亚洲伊人色综| 亚洲视频在线观看青青草| 国产精品一区二区熟女不卡| 成人国产一区二区三区| 黑人巨大无码中文字幕无码| 国产午夜精品一区二区三区不| 国内色精品视频在线网址| 日本一区二区不卡二区| 欧美性高清另类videosex| 丰满熟妇乱子伦| 欧美中文字幕在线看| 亚洲一区二区三区国产精品视频| 亚洲av人片在线观看| 亚洲sm另类一区二区三区| 妓院一钑片免看黄大片| 久久久亚洲精品午夜福利| 女同另类专区精品女同| 丰满人妻一区二区三区蜜桃 | 无码人妻av一二区二区三区 | 九一成人AV无码一区二区三区| 青青草好吊色在线视频| 国产丝袜美腿精品91在线看| 国产精品第一国产精品| 亚洲成AⅤ人在线观看无码| 精品人妻一区二区三区av|