亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度學(xué)習(xí)的復(fù)雜場(chǎng)景下車輛識(shí)別方法探討

        2020-10-20 06:20:48沈子龍
        科學(xué)與財(cái)富 2020年21期
        關(guān)鍵詞:深度學(xué)習(xí)應(yīng)用

        沈子龍

        摘 要:通常在相對(duì)復(fù)雜的場(chǎng)景下,會(huì)對(duì)入場(chǎng)車輛產(chǎn)生嚴(yán)重遮擋的情況,再加之部分車輛尺寸較小,所以車輛識(shí)別系統(tǒng)在識(shí)別車輛的過(guò)程中會(huì)存在別率低、虛警率高等難題。為了有效解決該問(wèn)題,本次研究中提出一種基于深度學(xué)習(xí)的復(fù)雜場(chǎng)景下有效識(shí)別車輛的方法??梢愿鶕?jù)場(chǎng)景當(dāng)中車輛存在的特點(diǎn),以可視化解析的方式分析公開(kāi)數(shù)據(jù)集當(dāng)中的標(biāo)注性文件,運(yùn)用深度學(xué)習(xí)對(duì)復(fù)雜場(chǎng)景下車輛進(jìn)行有效識(shí)別。

        關(guān)鍵詞:深度學(xué)習(xí);車輛識(shí)別;應(yīng)用

        0.? 引言

        我國(guó)城市化的不斷深入以及交通道路的快速發(fā)展使我國(guó)公路車輛的數(shù)量不斷攀升,進(jìn)而造成城市交通擁堵、難停車等一系列負(fù)面問(wèn)題。為了減輕這類問(wèn)題的嚴(yán)重性,有學(xué)者提出使用深度學(xué)習(xí)法分析與調(diào)整城市交通和停車狀況,從而引發(fā)一定程度上的關(guān)注。

        對(duì)于復(fù)雜場(chǎng)景下的目標(biāo)識(shí)別方法,國(guó)內(nèi)外學(xué)者提出了許多的內(nèi)容和觀點(diǎn)。盡管如此,但是在車輛識(shí)別的過(guò)程中都會(huì)面臨著目標(biāo)圖像背景復(fù)雜、尺寸相差大、遮擋嚴(yán)重等因素引起的目標(biāo)識(shí)別率較低、虛警率高、實(shí)時(shí)性差等一系列問(wèn)題。

        在研究過(guò)程中,發(fā)現(xiàn) YOLO v2利用回歸法可以實(shí)現(xiàn)車輛的分類與檢測(cè)同步進(jìn)行,進(jìn)而使車輛的訓(xùn)練與識(shí)別實(shí)踐縮短。

        為了滿足復(fù)雜的場(chǎng)景下有效識(shí)別車輛的需要,本次研究在 YOLO v2網(wǎng)絡(luò)模型基礎(chǔ)上提出深度學(xué)習(xí)的車輛識(shí)別方法,配合標(biāo)注文件解析等方法規(guī)范數(shù)據(jù)集標(biāo)注文件,確保學(xué)習(xí)樣本的準(zhǔn)確性。在運(yùn)用回歸的基礎(chǔ)上使計(jì)算速度得到提升。經(jīng)過(guò)實(shí)踐應(yīng)用最終得出結(jié)論,基于深度學(xué)習(xí)的車輛識(shí)別算法可以有效的提升車輛識(shí)別率,實(shí)用性較強(qiáng)。

        1.? 深度學(xué)習(xí)基礎(chǔ)上的車輛快速識(shí)別方法

        1.1???? 數(shù)據(jù)預(yù)處理

        數(shù)據(jù)預(yù)處理的終于要內(nèi)容包括對(duì)數(shù)據(jù)的裁剪、標(biāo)注、批量規(guī)范、化、數(shù)據(jù)增強(qiáng)。

        (1) 對(duì)標(biāo)注文件進(jìn)行可視化解析與調(diào)整

        通過(guò)對(duì)攝像頭和網(wǎng)絡(luò)采集的數(shù)據(jù)進(jìn)行人為標(biāo)注,在深度網(wǎng)絡(luò)模型訓(xùn)練當(dāng)中可能會(huì)用到這些數(shù)據(jù)。

        在本次研究中使用 LabelImg 法對(duì)每張圖片當(dāng)中存在的車輛進(jìn)行標(biāo)注并整理訓(xùn)練數(shù)據(jù)集,每張圖片現(xiàn)實(shí)汽車標(biāo)注的工作完成以后,使用 Labe- lImg 法會(huì)在原圖目錄的基礎(chǔ)上,會(huì)生成與原圖相匹配的 xml 格式文件,在這個(gè)文件的內(nèi)容中,對(duì)該圖片的路徑、標(biāo)記框的相對(duì)位置、標(biāo)記框內(nèi)物體的類別等內(nèi)容進(jìn)行了明確的標(biāo)注[1]。

        如果發(fā)現(xiàn)需要標(biāo)注的圖像當(dāng)中車輛太小,就可以選擇放棄將次圖片加入到訓(xùn)練集當(dāng)中。

        微軟公司的 COCO 公共數(shù)據(jù)集圖像無(wú)法實(shí)現(xiàn)對(duì)觀察標(biāo)注框內(nèi)部包圍車輛的實(shí)際情況進(jìn)行清晰觀察。為了避免這種情況帶來(lái)的一系列負(fù)面問(wèn)題,所以在本次研究編寫腳本的過(guò)程中可以用可視化分析方法處理公共數(shù)據(jù)集標(biāo)注文件,重新標(biāo)注漏標(biāo)、誤標(biāo)等一系列情況,進(jìn)而使訓(xùn)練數(shù)據(jù)集的質(zhì)量得到提升。

        (2) 增強(qiáng)數(shù)據(jù)

        所謂的數(shù)據(jù)增強(qiáng)是在每一次訓(xùn)練正式開(kāi)始之前在特定范圍內(nèi)旋轉(zhuǎn)、對(duì)隨即曝光度進(jìn)行設(shè)計(jì)、對(duì)隨機(jī)飽和度進(jìn)行設(shè)計(jì)。

        通過(guò)增強(qiáng)數(shù)據(jù)等方式可以有效預(yù)處理訓(xùn)練集,進(jìn)而在最大程度上降低由于計(jì)算機(jī)視覺(jué)模型泛化產(chǎn)生的誤差。在實(shí)際的測(cè)試過(guò)程中,可以把同一輸入通過(guò)不同的版本傳遞到模型,模型比例的不同決定了模型輸出的不同,即通過(guò)集成法有效解決問(wèn)題,泛化誤差程度被降低。結(jié)合傳感器的采集特點(diǎn)可以實(shí)現(xiàn)在將訓(xùn)練集和驗(yàn)證集融入到特定場(chǎng)景的圖像當(dāng)中,由此場(chǎng)景目標(biāo)識(shí)別的效果就會(huì)得到增強(qiáng)。

        1.2???? YOLO 模型的物體識(shí)別方法

        使用 YOLO 模型的物體識(shí)別方法可以實(shí)現(xiàn)對(duì)回歸問(wèn)題進(jìn)行求解,進(jìn)而使原始圖像從輸入到輸出物體的位置與類別[2]。

        使用 YOLO 模型的物體識(shí)別方法,無(wú)論是檢測(cè)還是訓(xùn)練都是在一個(gè)獨(dú)立的網(wǎng)絡(luò)中進(jìn)行的。 YOLO v2使用全新的網(wǎng)絡(luò),常用的卷積核為3*3, 一次池化操作結(jié)束后,通道的數(shù)量就會(huì)出現(xiàn)翻倍增長(zhǎng)。YOLO 模型的物體識(shí)別方法在使用的過(guò)程中可以引用 network in network 思想,將卷積核1*1穿插在卷積核3*3中間,使目標(biāo)特征被壓縮。

        YOLO v2技術(shù)的內(nèi)部含有卷積層、最大值池化層,分別是19個(gè)、5個(gè)。最后一層網(wǎng)絡(luò)數(shù)量為13*13,相比曾經(jīng)的7*7網(wǎng)絡(luò),處理細(xì)粒度目標(biāo)數(shù)量就會(huì)出現(xiàn)成倍增加,相比26*26的特征,與13*13實(shí)現(xiàn)同時(shí)決策,包括貢獻(xiàn)為雙層、SSD 網(wǎng)絡(luò)大于4層都是相等的,因而計(jì)算量增加程度并不顯著。

        為了使 YOLO v2可以在任何尺度下進(jìn)行任務(wù)檢測(cè),有學(xué)者曾試驗(yàn)使用分辨率不同的圖片使網(wǎng)絡(luò)的適應(yīng)性得到提升,不過(guò)該方法只運(yùn)用到了卷積層與池化層,如此一來(lái)在進(jìn)行動(dòng)態(tài)調(diào)整時(shí)將會(huì)更加有效[3]。

        2.? 實(shí)踐與分析

        為了證明上述分析的有效性,接下來(lái)通過(guò) COCO 數(shù)據(jù)集和 PCAR 數(shù)據(jù)集分析與對(duì)比不同深度學(xué)習(xí)網(wǎng)絡(luò)模型識(shí)別性能[3]。

        COCO 數(shù)據(jù)集是一種以微軟維護(hù)為前提的圖像數(shù)據(jù)集,可以進(jìn)行一系列的機(jī)器視覺(jué)任務(wù)的數(shù)據(jù)集工作,包括識(shí)別對(duì)象、分割圖像、識(shí)別圖片中字幕等工作。

        COCO 數(shù)據(jù)集具有較為強(qiáng)大的工作能力,可以處理圖像數(shù)量大于30萬(wàn)、實(shí)例大于200萬(wàn)、對(duì)象80大于類實(shí)現(xiàn)同時(shí)處理。本次研究中僅選擇數(shù)據(jù)集當(dāng)中的一部分進(jìn)行使用,數(shù)據(jù)集主要由兩部分組成,含其中車輛訓(xùn)練圖8290張、車輛測(cè)試圖4051張,圖片分辨率全部都在640*640以下。

        本次研究進(jìn)行了三組實(shí)驗(yàn)進(jìn)行相互對(duì)比,在實(shí)驗(yàn)中除了運(yùn)用到 YOLO 以外,還運(yùn)用到了 SSD 以及改良版的 COCO 算法,數(shù)據(jù)上行訓(xùn)練集結(jié)束后,可以使用 COCO 測(cè)試集進(jìn)行測(cè)試。

        本次研究中運(yùn)用到 YOLO、SSD、改良版 COCO 數(shù)據(jù)三種技術(shù),通過(guò)三種算法對(duì) COCO 數(shù)據(jù)集進(jìn)行訓(xùn)練,分別對(duì)同一張圖片進(jìn)行測(cè)試,測(cè)試效果相對(duì)直觀,首先在 YOLO 、SSD、改良版 COCO 測(cè)試結(jié)果技術(shù)的基礎(chǔ)上觀察車輛識(shí)別效果,可以清晰的看出無(wú)論使用 YOLO 還是 SSD 模型進(jìn)行圖片測(cè)試,均存在虛警現(xiàn)象,YOLO 技術(shù)會(huì)出現(xiàn)將多輛車與背景識(shí)別為一輛車的情況,SSD 技術(shù)車輛識(shí)別圖像當(dāng)中會(huì)將公路、花壇、摩托車錯(cuò)誤的識(shí)別為車輛。改良版 COCO 可以在一定程度上規(guī)避將其它目標(biāo)或背景錯(cuò)誤識(shí)別為車輛[4]。

        經(jīng)過(guò)實(shí)踐證明,改良版 COCO 增強(qiáng)了車輛識(shí)別精確強(qiáng)度,將虛警現(xiàn)象有效消除。

        結(jié)論:

        復(fù)雜場(chǎng)景下的車輛識(shí)別是長(zhǎng)期以來(lái)對(duì)工作人員造成困擾的一項(xiàng)難題,本次研究從深度學(xué)習(xí)的角度出發(fā)對(duì)復(fù)雜場(chǎng)景下車輛識(shí)別方法進(jìn)行研究。具體做法是針對(duì)傳統(tǒng)的 COCO 法文件進(jìn)行重新標(biāo)注,隨后使用 YOLO、SSD 以及改良版的 COCO 法對(duì)復(fù)雜場(chǎng)景下的車輛識(shí)別進(jìn)行實(shí)踐分析,發(fā)現(xiàn)無(wú)論是 YOLO 還是 SSD 都存在將周圍的非車輛目標(biāo)識(shí)別為車輛,進(jìn)而增大了實(shí)驗(yàn)誤差,最終結(jié)果顯示改良版的 COCO 法在復(fù)雜場(chǎng)景下的車輛識(shí)別工作中展現(xiàn)出更出眾的效果。

        參考文獻(xiàn):

        [1] 石鑫,趙池航,林盛梅,李彥偉,薛善光,錢子晨.基于深度學(xué)習(xí)網(wǎng)絡(luò)模型的車輛類型識(shí)別方法研究 [J]. 筑路機(jī)械與施工機(jī)械化,2020,37(04):67-73+78.

        [2] 程遠(yuǎn)航,吳銳.基于圖像實(shí)例分割的行人車輛檢測(cè)識(shí)別方法[J].信息與電腦(理論版),2020,32(06):130-132.

        [3] 石鑫,趙池航,張小琴,李彥偉,薛善光,毛迎兵.基于融合特征稀疏編碼模型的車輛品牌識(shí)別方法[J].筑路機(jī)械與施工機(jī)械化,2020,37(03):59-63.[4]朱文佳,付源梓,金強(qiáng),余燁.視角相關(guān)的車輛型號(hào)精細(xì)識(shí)別方法[J].合肥工業(yè)大學(xué)學(xué)報(bào)(自然科學(xué)版),2020,43(02):205-210+279.

        [5] 蘇婕,張磊,申欣,徐海豐.基于號(hào)牌識(shí)別數(shù)據(jù)的車輛出行鏈分離方法研究[J].汽車與安全,2020(02):88-91.

        [6] 王也. 基于深度學(xué)習(xí)與虛擬數(shù)據(jù)的車輛識(shí)別與狀態(tài)估計(jì)研究[D].吉林大學(xué),2019.

        猜你喜歡
        深度學(xué)習(xí)應(yīng)用
        有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
        電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
        MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
        大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
        軟件工程(2016年8期)2016-10-25 15:47:34
        多媒體技術(shù)在小學(xué)語(yǔ)文教學(xué)中的應(yīng)用研究
        考試周刊(2016年76期)2016-10-09 08:45:44
        分析膜技術(shù)及其在電廠水處理中的應(yīng)用
        科技視界(2016年20期)2016-09-29 14:22:00
        GM(1,1)白化微分優(yōu)化方程預(yù)測(cè)模型建模過(guò)程應(yīng)用分析
        科技視界(2016年20期)2016-09-29 12:03:12
        煤礦井下坑道鉆機(jī)人機(jī)工程學(xué)應(yīng)用分析
        科技視界(2016年20期)2016-09-29 11:47:01
        亚洲日韩精品国产一区二区三区| 熟女中文字幕一区二区三区| 亚洲日韩精品无码专区网址| 亚洲av日韩av高潮潮喷无码| 免费国产黄线在线播放| 1717国产精品久久| 久热爱精品视频在线观看久爱| 蜜桃人妻午夜精品一区二区三区| 成人日韩精品人妻久久一区| 老司机亚洲精品影院| 久久人人爽人人爽人人片亞洲| 91亚洲精品福利在线播放| 神马不卡影院在线播放| 一区二区三区午夜视频在线| 亚洲日韩欧美一区、二区| 亚洲精品午夜无码电影网| 国产一起色一起爱| 午夜国产精品视频免费看电影| 成人免费av高清在线| 蜜臀av无码人妻精品| 亚洲国产成人精品女人久久久| 国产成人自拍小视频在线| 日本高清一区二区三区在线观看| 国产亚洲2021成人乱码| 伊人网在线视频观看| 久久AⅤ无码精品色午麻豆| 深夜一区二区三区视频在线观看| 香港三日本三级少妇三级视频| 国产在线白丝DVD精品| 国产亚洲精品成人av在线| 亚洲精品中文字幕一二三区| 亚洲人成未满十八禁网站| 国产WW久久久久久久久久| 日本午夜理伦三级好看| 日韩精品一区二区三区在线视频| 真多人做人爱视频高清免费 | 成人亚洲一区二区三区在线| 亚洲 都市 校园 激情 另类| 久久激情人妻中文字幕| 黄污在线观看一区二区三区三州| 国产精品久久久久影院|