亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于CNN深度學(xué)習(xí)模型的交通圖像擁堵識別

        2018-01-31 08:45:52崔華劉云飛宋鑫鑫李盼儂
        科技創(chuàng)新與應(yīng)用 2018年4期
        關(guān)鍵詞:正則卷積分類

        崔華 劉云飛 宋鑫鑫 李盼儂

        摘 要:卷積神經(jīng)網(wǎng)絡(luò)(CNN)在諸多圖像分類(如數(shù)字識別,人臉識別)方面都被證明有著非常出色的表現(xiàn),復(fù)雜圖像的分類識別需要經(jīng)過多個層次的信息特征認(rèn)識整合以及加工。另一方面對交通狀態(tài)進(jìn)行準(zhǔn)確識別,是科學(xué)制定主動交通管理決策的基礎(chǔ),有利于及時疏導(dǎo)擁堵,提高道路運行效率。文章在TensorFlow上使用了基于CNN的分類模型對圖片進(jìn)行交通擁堵識別,其是在國際大賽上較為出名的Cifar-10模型,并對網(wǎng)絡(luò)結(jié)構(gòu)和參數(shù)進(jìn)行了調(diào)整優(yōu)化,有較高的準(zhǔn)確率和效率。

        關(guān)鍵詞:CNN;交通圖像分類;TensorFlow;Cifar-10;二分類

        中圖分類號:TP391.4 文獻(xiàn)標(biāo)志碼:A 文章編號:2095-2945(2018)04-0019-03

        Abstract: Convolutional Neural Network (CNN) has proved to be very good in many kinds of image classification (such as digital recognition, face recognition). The classification and recognition of complex images need to go through multiple levels of integration and processing of information feature recognition. On the other hand, the accurate identification of traffic state is the basis of scientifically making active traffic management decisions, which is conducive to the timely relief of congestion and improve the efficiency of road operation. In this paper, a classification model based on CNN is used to identify traffic congestion in TensorFlow. One is the famous Cifar-10 model in international competitions. The network structure and parameters are adjusted and optimized, so it has high accuracy and efficiency.

        Keywords: CNN; traffic image classification: TensorFlow; Cifar-10; binary classification

        1 概述

        近年來,私家車數(shù)量劇增,道路交通負(fù)荷日益增加,道路擁擠、行車?yán)щy現(xiàn)象非常嚴(yán)重,是國內(nèi)外各大中城市所面臨并亟待解決的問題。目前國內(nèi)外對道路交通運行狀態(tài)的研究主要依據(jù)移動型檢測器獲得的數(shù)據(jù)以及多源數(shù)據(jù)。移動檢測器主要是GPS技術(shù)[4]和車載自組織網(wǎng)絡(luò)技術(shù)[5]。GPS技術(shù)可以獲取全面的車輛信息,但該技術(shù)需要的成本較大,并且有可能暴露個人隱私;車載自組織網(wǎng)絡(luò)技術(shù)可以獲得自身和所在區(qū)域的位置信息,但密集的車流環(huán)境下,控制信道不能保證安全信息的傳送;為了數(shù)據(jù)的互補性和全面性,交通部門采用多源數(shù)據(jù)融合技術(shù)[6],但多源數(shù)據(jù)的冗余性較嚴(yán)重。

        圖像監(jiān)控的普及以及圖片具有可視化、監(jiān)控相機(jī)安裝維修不影響交通運行等優(yōu)勢,基于靜態(tài)和動態(tài)圖像的交通狀態(tài)識別成為研究主流。本文提出了用圖像處理技術(shù)來確定道路擁堵的方法。

        2 Cifar模型的介紹

        2.1 模型內(nèi)容

        Cifar-10數(shù)據(jù)集總體由60000張32*32的RGB彩色圖片構(gòu)成,共10個分類。50000張訓(xùn)練,10000張測試(交叉驗證)。這個數(shù)據(jù)集最大的特點在于將識別遷移到了普適物體,而且應(yīng)用于多分類(姊妹數(shù)據(jù)集Cifar-100達(dá)到100類,ILSVRC比賽則是1000類)。同已經(jīng)成熟的人臉識別相比,普適物體識別挑戰(zhàn)巨大,數(shù)據(jù)中含有大量特征、噪聲,識別物體比例不一。因而,Cifar-10相對于傳統(tǒng)圖像識別數(shù)據(jù)集,是相當(dāng)有挑戰(zhàn)的。Alex在2012年的AlexNet中,把所有Tanh/Logistic全換成了ReLu(卷積+隱層,Softmax要取概率)ReLu為網(wǎng)絡(luò)引入了大量的稀疏性,加速了復(fù)雜特征解離。非飽和的寬廣映射空間,加速了特征學(xué)習(xí)。

        2.2 模型結(jié)構(gòu)

        tensorboard顯示如下:

        輸入層→卷積層→池化層→規(guī)范化層→卷積層→規(guī)范化層→池化層→全連接層→全連接層→softmax輸出層(如圖1)。

        3 模型訓(xùn)練

        3.1 模型訓(xùn)練的實質(zhì)

        訓(xùn)練就是一個“特征學(xué)習(xí)”“參數(shù)尋優(yōu)”的過程,最常見的優(yōu)化算法是mini-batch的隨機(jī)梯度下降法(mini-batch是相對于online learning而言的),尋找使得損失函數(shù)值最小的模型參數(shù)。為了防止過擬合,這里的損失函數(shù)包含了正則化項。我們將Cifar-10最后輸出由10變?yōu)?。

        利用各高速路,城市道路的視頻中采集樣本,在訓(xùn)練前將數(shù)據(jù)庫的交通圖片加上了0(暢通)與1(擁堵)的標(biāo)簽。分別各25000張,如圖2與圖3所示。

        3.2 圖片的預(yù)處理

        (1)統(tǒng)一裁剪到32*32像素大小,裁剪中央?yún)^(qū)域用于評估或隨機(jī)裁剪用于訓(xùn)練;(2)對圖像進(jìn)行翻轉(zhuǎn);(3)變換圖像的亮度;(4)變換圖像的對比度;(5)圖片會進(jìn)行近似的白化處理。endprint

        其中,白化(whitening)處理或者叫標(biāo)準(zhǔn)化(standardization)處理,是對圖片數(shù)據(jù)減去均值,除以方差,保證數(shù)據(jù)零均值,方差為1,如此降低輸入圖像的冗余性,盡量去除輸入特征間的相關(guān)性。

        3.3 簡述CNN特征提取原理

        對圖像(不同的數(shù)據(jù)窗口數(shù)據(jù))和濾波矩陣(一組固定的權(quán)重:因為每個神經(jīng)元的權(quán)重固定,所以又可以看做一個恒定的濾波器filter)做內(nèi)積(逐個元素相乘再求和)的操作就是所謂的“卷積”操作,也是卷積神經(jīng)網(wǎng)絡(luò)的名字來源。

        比如圖4中,圖中左邊部分是原始輸入數(shù)據(jù),圖中中間部分是濾波器filter,圖中右邊是輸出的新的二維數(shù)據(jù)。

        中間濾波器filter與數(shù)據(jù)窗口做內(nèi)積,其具體計算過程則是:4*0+0*0+0*0+0*0+0*1+0*1+0*0+0*1+-4*2=-8

        訓(xùn)練完成的模型會以model和enents的類型保存在logs的指定文件夾。

        除了卷積部分該模型還用到了tf函數(shù)庫中的sess,ratio,training,resize,labels等函數(shù)。

        3.4 模型性能評估部分

        機(jī)器學(xué)習(xí)模型訓(xùn)練好之后,要在測試數(shù)據(jù)集上進(jìn)行測試,從而判斷模型的性能,常見的性能指標(biāo)有準(zhǔn)確率、損失率等。順便提及一下,有的機(jī)器學(xué)習(xí)模型在訓(xùn)練時,會把數(shù)據(jù)集分成三部分,訓(xùn)練集(training dataset),正則集(validation dataset)和測試集(test dataset),正則集的作用也是為了防止過擬合,但我們這里通過對模型參數(shù)正則化來防止過擬合,因此就不用像這樣劃分?jǐn)?shù)據(jù)集了。用5000張測試樣本約為96%。

        4 結(jié)束語

        卷積神經(jīng)網(wǎng)絡(luò)(CNN)是當(dāng)前圖像識別領(lǐng)域的研究熱點,利用預(yù)訓(xùn)練的CNN網(wǎng)絡(luò)提取的圖像特征展示出了較強(qiáng)的圖像識別能力。該模型使用級聯(lián)2*2的卷積核降低參數(shù)數(shù)量防止過擬合。采用跨連卷積層和使用1*1卷積核的方法,融合不同尺度圖像特征。在下一步工作中,將進(jìn)一步選取其他模型和改變現(xiàn)有模型的參數(shù),以進(jìn)一步提高交通擁堵圖像目標(biāo)識別的準(zhǔn)確率。

        參考文獻(xiàn):

        [1]Yi Sun, Xiaogang Wang, Xiaoou Tang. Deep Learning Face Representation from Predicting 10,000 Classes. The IEEE Conference on Computer Vision and PatternRecognition(CVPR),2014,pp.1891-1898.

        [2]He K, Zhang X, Ren S, et al. Deep residual learning for image recognition[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2016:770-778.

        [3]曲景影,孫顯,高鑫.基于cnn模型的高分辨率遙感圖像目標(biāo)識別[J].國外電子測量技術(shù),2016,8.endprint

        猜你喜歡
        正則卷積分類
        基于時域全卷積網(wǎng)絡(luò)的語音增強(qiáng)
        基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
        分類算一算
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        分類討論求坐標(biāo)
        剩余有限Minimax可解群的4階正則自同構(gòu)
        類似于VNL環(huán)的環(huán)
        數(shù)據(jù)分析中的分類討論
        教你一招:數(shù)的分類
        有限秩的可解群的正則自同構(gòu)
        精品少妇人妻成人一区二区| 男人进去女人爽免费视频| 亚洲精品中文字幕乱码人妻 | 无码小电影在线观看网站免费| 99久久国产精品免费热| 韩国一区二区三区黄色录像| 熟女免费视频一区二区| 色翁荡息又大又硬又粗视频| 欧美人与善在线com| 少妇伦子伦情品无吗| 24小时日本在线视频资源| 人妻夜夜爽天天爽三区麻豆av网站| 一本加勒比hezyo无码专区| 国产午夜福利久久精品| 狠狠色综合7777久夜色撩人| 精品亚洲成在人线av无码| 国产福利一区二区三区在线观看 | 国产高清吃奶成免费视频网站| 曰本女人牲交全视频免费播放| 又长又大又粗又硬3p免费视频| 亚洲精品一品区二品区三品区| 精品久久久bbbb人妻| 男男性恋免费视频网站| 无码国产精品一区二区vr老人| 国产又色又爽又刺激视频| 亚洲an日韩专区在线| 国产精品福利久久香蕉中文| 色婷婷丁香综合激情| 妇女自拍偷自拍亚洲精品| 91国内偷拍一区二区三区| 国产人妖av在线观看| 人妖一区二区三区在线| 疯狂做受xxxx国产| 丰满人妻被中出中文字幕| 国产98在线 | 免费| 天天草夜夜草| 人妻精品一区二区免费| 一本久道视频无线视频试看| 日韩少妇人妻中文视频| 大又大又粗又硬又爽少妇毛片| 在线观看特色大片免费视频|