亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于公路監(jiān)控視頻的車輛檢測和分類①

        2020-11-13 07:12:38曹富奎許曉瓏
        計算機系統(tǒng)應用 2020年10期
        關鍵詞:背景分類檢測

        曹富奎,白 天,許曉瓏

        1(中國科學技術大學 軟件學院,合肥 230027)

        2(福建省 廈門市公路局 信息處,廈門 361008)

        中國經濟高速發(fā)展帶來機動車數目的急劇增加,造成道路交通中堵車和交通事故現象呈上漲形勢,改善交通治理策略逐漸提上日程.隨著科技的進步,誕生了智能交通理念,即通過分析道路交通信息得出科學的治理策略,車輛檢測作為智能交通工作的基礎成為了研究的熱點.最早有幀差法[1]和光流法[2]進行車輛檢測,這兩種方法原理簡潔,運算快速,但是在應對復雜的道路狀況時會出現檢測偏差.后來出現了基于統(tǒng)計的模型方法,運用最多的是基于多態(tài)高斯分布的背景模型法[3],該方法能夠很好的應對各種變化,能在復雜的道路場景里提取出運動車輛的圖片.隨著現代深度學習理論的產生和成熟,圍繞著目標檢測問題誕生了很多檢測算法,主要有:RCNN 算法[4]、Mask-RCNN算法[5]、Fast-RCNN 算法[6]、SPP-Net 算法[7]、Faster-RCNN 算法[8]、R-FCN 算法[9],Singh[10]改進了R-FCN算法,實現了多類別的檢測,Hu 等[11]創(chuàng)建的的關系網絡刷新了檢測的精確度,Cai 等[12]創(chuàng)建了級聯RCNN將其擴展到多段.深度學習技術在目標檢測中獲得了不俗的成績,但是卻太依賴于高性能硬件,訓練模型也需要花費大量時間,因此本文在車輛檢測階段不采用深度學習的方法,選擇高斯混合模型法來進行車輛檢測,傳統(tǒng)的高斯混合模型法由于初始化模型速度慢、計算量大在實時性上表現不佳,本文對高斯混合模型法做了改進,降低了模型計算量,提高了檢測實時性.

        車輛分類屬于目標識別問題.目標識別問題解決方案主要有兩種,一種是采用手動設計圖像特征,如HOG特征[13],然后使用分類器做分類.另外一種是使用深度學習技術做分類,主要是運用卷積神經網絡(CNN)做目標識別.2012年AlexNet 網絡[14]模型在圖像識別的應用中取得了巨大成功,使得CNN 成為了目標識別的主流方法,因此本文采用深度學習技術,使用GoogLeNet[15]分類網絡對車輛進行分類.

        1 基于高斯混合背景模型的目標檢測

        1.1 建立和維護背景模型

        在實際的道路場景里有很多不可控的變量會導致場景背景發(fā)生改變,給背景模型的建立和維護增加了難度.目前主要有以下3 個方面引起背景發(fā)生變化:

        (1)光照突然變化.例如突然轉換光源,場景背景像素發(fā)生劇烈變化,導致檢測結果出現差錯.

        (2)物體陰影.運動物體由于光線投影產生陰影,陰影屬于背景但是卻始終伴隨著運動目標,導致背景和目標的界限變得模糊,增加了檢測的難度.

        (3)動態(tài)的背景.現實場景中的背景區(qū)域存在運動變化的現象,可能是周期性的運動,也可能是不規(guī)則的運動,比如樹葉的不規(guī)則晃動,信號燈的規(guī)律閃爍.

        為解決上述3 方面帶來的背景變化問題,Stauffer等[16]首次利用高斯混合模型進行視頻監(jiān)控的前景檢測,取得了較好的效果.此后,高斯混合模型經過不斷發(fā)展和完善,成為目標檢測領域的經典模型.

        1.2 高斯混合模型

        在真實的監(jiān)控環(huán)境下,道路兩側攝像頭拍攝到的視頻影像中會夾雜很多的噪聲,一般我們認為從監(jiān)控設備引入的噪聲服從正態(tài)分布,對于輸入的每一視頻幀,按照式(1)進行預處理.

        用k個高斯分布組合表示每個背景像素,假設t時刻的背景像素為xt,由k個高斯分布如式(2)表示:

        其中,ui,t是第i個高斯分布在t時刻的均值向量.將像素值xt與組合分布中的k個高斯分布做比較,當xt和ui,t滿足式(3)時,認為xt屬于其中一個高斯分布.

        δ通常取3.若xt屬于其中的一個高斯分布,則將該高斯分布的參數按式(4)更改,剩下k–1 個高斯分布的參數則按式(5)衰減,其中 α表示模型的學習率.與xt相符的高斯分布的ui,t和σi,t2按照式(6)和式(7)更新,其他k–1 個高斯分布則保持不變,ρ=α/wi,t表示參數的學習率.

        p=wi,t/σi,t,我們將k個高斯分布按P值排序,選擇前B個分布作為背景模型,如式(8)所示:

        式中,V通常取0.75.

        建立好了背景模型,當新的視頻幀輸入系統(tǒng),將像素值xt與背景模型中的B個高斯分布進行比較,如果xt屬于其中的一個分布則認為其是背景,反之則認為是運動目標.

        1.3 改進模型初始化算法

        高斯混合模型法初始化背景模型時最常用的方法是用視頻開始的幀圖像作為背景來初始化模型的參數值,當視頻的開始部分只有背景時,該方法能很好的進行下去,但如果視頻一開始就出現了運動目標,該方法會把運動目標設置為背景,故本文提出新的初始化方法,使用視頻前4,9,16,···,(K+1)2幀圖像,K是高斯混合模型中包含的高斯分布的個數,將(K+1)2幀圖像的像素值作為第K個高斯分布的平均值,再初始化方差和相同的權值.具體步驟如下:

        (1)將視頻輸入系統(tǒng),并提取前4,9,16,···,(K+1)2幀圖像,做預處理降低圖像中的噪聲,記作:f1,f2,f3,···,fk;

        (2)將fi的像素值作為第i個高斯分布的均值,初始化一個方差,并賦權值為1/N;

        (3)輸入下一幀圖像,用建好的背景模型檢測車輛.

        試驗分析:圖1是用傳統(tǒng)高斯混合模型初始化的背景模型圖像,可以看出使用傳統(tǒng)方法得到的背景模型圖像模糊難辨,與真實的場景背景有著十分大的差別,基于這樣的背景模型檢測車輛,檢測結果往往會不準確.圖2是改進方法的初始化的背景模型圖像,相比于圖1,這幅背景模型圖像顯的十分清晰,能夠正確的表現場景的背景,由于初始化的背景模型的圖像是由多個高斯分布的權重和均值之積組合得到的,造成了圖像中出現車輛重影的現象,不影響車輛的檢測.

        圖1 傳統(tǒng)高斯混合模型背景圖像

        圖2 改進的高斯混合模型背景圖像

        1.4 改進建模區(qū)域

        通過實際觀察可以看出,在視頻幀中運動車輛只占了圖像的小部分區(qū)域,圖像的大部分區(qū)域都是沒有發(fā)生變化的背景區(qū)域,為這些背景區(qū)域的像素建立模型是不必要的,由此帶來的計算過程也是浪費計算資源,故本文提出新的建模方法,通過對視頻幀的初提取,先把包含汽車的區(qū)域提取出來,然后使用高斯混合模型法在提取到的圖像上進行建模,縮小了建模區(qū)域,減少了建立背景模型過程耗費的時間,提高了車輛檢測的實時性.

        對視頻幀進行初提取得到包含車輛的區(qū)域,初提取的精度影響著后續(xù)檢測結果的精度,當初提取出現漏檢時,后續(xù)的檢測也一定會漏檢,因此初提取要能正確提取出包含車輛的區(qū)域,同時初提取的速度要快,不能耗費過多時間,因此選擇幀差法做車輛的初提取.常用的幀差法有兩種,分別是兩幀差法和三幀差法,但兩幀差法會出現“重影”和“空洞”現象,在實際應用中面對復雜場景無法正確檢測出目標,三幀差法可以消除“重影”,但是依然存在“空洞”現象和部分物體輪廓不連續(xù).

        通過對本文采集的視頻的研究,發(fā)現在大部分情況下,車輛從在視頻里出現到占據視頻的中心,大多是經過5 幀,因此本文在發(fā)現這種現象后,提出用相鄰5 幀圖像進行運動車輛的初提取.工作流程如下:

        第1 步.假設當前幀為ft,將ft與ft+2按像素點逐一相減,得到二值圖像B1.

        第2 步.將ft+2與ft+4按像素點逐一相減,得到二值圖像B2.

        第3 步.對B1 和B2 取并集,在經過形態(tài)學處理和填充,得到車輛區(qū)域B3.

        分別使用兩幀差法、三幀差法和本文提的五幀差法對拍攝的視頻進行前景提取,如圖3所示.

        通過實驗結果可以直觀的看出,本文的方法相較于傳統(tǒng)的兩幀差法和三幀差法,在前景提取精度上有了很大的提升,并且檢測速度快,非常適合應用于對前景的初提取.

        使用五幀差法得到提取好的車輛區(qū)域圖像,在初提取的車輛圖像上運用高斯混合模型法獲得最終的車輛圖像.改進后的結合五幀差法的高斯混合模型的車輛檢測算法的工作流程如圖4.

        圖3 差分法仿真圖

        圖4 改進的高斯混合模型算法

        改進后的基于高斯混合模型的檢測方法步驟如下:

        (1)使用五幀差法對輸入的視頻進行前景區(qū)域初提取,得到前景的二值圖像,通過形態(tài)學操作得到前景區(qū)域.

        (2)使用改進的背景模型初始化方法,對前景區(qū)域的像素建立背景模型.

        (3)建立完背景模型,用當前幀減去背景圖片得到目標的二值圖像,并更新模型相關參數.

        (4)對得到目標二值圖像進行形態(tài)學操作,得出最終的目標區(qū)域.

        (5)對下一幀重復上述步驟,直至算法完結.

        2 GoogLeNet 分類網絡

        谷歌公司2014年提出來GoogLeNet 分類網絡,并在當年的圖像分類競賽中取得了第一名,刷新了圖像識別的最好成績.GoogLeNet 網絡運用了模塊化設計,提出了新的網絡單元結構Inception,網絡整體是由多個網絡單元結構按照一定次序組合而成,圖5是Inception模塊的設計圖.

        圖5 Inception 模塊

        不同的卷積神經網絡會選擇不同大小的卷積核構建卷積層,每一卷積層會使用同一大小卷積核來對特征圖進行卷積計算,Inception 模塊最大的創(chuàng)新是在一個卷積層中采用了多個卷積核,不同卷積核會提取不同的圖像特征,在模塊最后將這些特征有機融合形成下一層的特征圖,這樣融合多特征的設計延深了網絡寬度,提高了對圖像識別的精度,但計算復雜度也隨之增加,降低了識別速度.為了解決計算成本高的問題,在模塊的設計上做了創(chuàng)新,圖6是改進后的模塊.新模塊最大的特點是對1×1 卷積核的巧妙運用,在進行卷積計算和池化操作之前先用1×1 卷積核來降低特征圖維度,這樣在下一層的卷積計算中運算次數會降低一個量級,從而有效的降低了計算成本.經過模塊有序組合而成的GoogLeNet 網絡層數達到22 層,相比于之前的網絡模型有大幅度的提升.

        3 實 驗

        本文所提的車輛檢測和車型分類方法基于OpenCV和TensorFlow 實現,試驗所用的視頻包含了不同天氣和光照的復雜場景,實驗環(huán)境的信息如表1.

        3.1 實驗系統(tǒng)架構

        根據交通視頻把車輛型號分成4 類分別為:car、bus、motor 和truck,系統(tǒng)要實現的就是檢測到交通視頻里的車輛然后識別出車輛是上述4 種類型中的哪一種,為了實現這一功能,我們設計的系統(tǒng)工作流程為:先通過系統(tǒng)的運動車輛檢測模塊將視頻里的運動車輛檢測出來,然后人工標注好圖片的類別,訓練目標分類模塊,使用該模塊執(zhí)行分類任務,系統(tǒng)架構如圖7.

        圖6 改進的Inception 模塊

        表1 實驗環(huán)境信息

        圖7 系統(tǒng)架構圖

        3.2 試驗數據集

        本文以廈門市各路段攝像頭拍攝的監(jiān)控視頻為系統(tǒng)實驗數據,所有的視頻均為現實場景下的真實監(jiān)控視頻,通過車輛檢測模塊總共截取了50 000 張不同類型的車輛圖片.其中各種車型對應的數量見表2.

        表2 車輛檢測模塊檢測結果

        將得到的全部圖片按照1:1 劃分為測試集和訓練試集,訓練集中car 10 000 張,bus 8000 張,motor 2000 張,truck 5000 張.由表2可知,由于motor 數量比其他車型的數量少了很多,如果直接用原始的數據集訓練分類模型得到的模型分類準確性會有很大的偏差,所以要進行數據集擴充,將2000 張motor 圖片使用圖像處理技術增加到10 000 張,對其他3 種車的圖片執(zhí)行相同的操作.擴充后的數據集如表3所示.4 類車型樣本圖片如圖8所示.

        表3 運動目標分類模塊數據集

        圖8 4 種車型樣本

        3.3 實驗結果及分析

        針對基于監(jiān)控視頻的車輛檢測和分類的問題,本文改進了高斯混合模型算法,并用GoogLeNet 網絡做車輛分類,在實驗中設計實現了算法.由于實驗效果需要對比,在車輛檢測階段,本文使用Faster R-CNN 和YOLO 對相同的視頻做了實驗[17],實驗結果對比如表4所示.

        表4 車輛檢測結果對比

        表4給出了檢測階段的數據,結果表明相比于深度學習的方法,本文所提方法在檢測準確率和檢測速度上都更加優(yōu)秀.

        在車型分類階段,本文訓練了GoogLeNet 模型進行分類,同時也訓練了經典的AlexNet 模型用作對比[18].在實驗中我們對原始數據集進行了擴充,但得到的訓練集也只有40000 張圖片,數據集過小會導致模型過擬合現象,因此在實驗中采用了遷移學習[19]技術,將經典模型卷積層的參數直接遷移到試驗模型上作為模型初始化參數.使用ImageNet 數據集訓練好的GoogLeNet模型和AlexNet 模型能夠很好的提取圖像的特征,因此在實驗中用訓練好的模型的參數作為試驗模型的初始化參數,然后使用自采集的訓練集finetune[16]試驗模型.圖9為4 種車型的分類結果,從置信度上可以看出分類的準確性非常高.

        圖9 車型分類結果

        表5展示了GoogLeNet 模型和AlexNet 模型在分類準確率上的對比,可以看出GoogLeNet 不僅在分類準確率上比AlexNet 稍高一些,而且在運算時間上比AlexNet 降低了22%.試驗證明,GoogLeNet 分類網絡在基于監(jiān)控視頻的車型分類上具有很好的實用性.

        表5 車型分類結果對比

        4 結 語

        本文針對公路交通監(jiān)控視頻中車輛檢測和車型分類的具體應用場景,改進了高斯混合模型建立背景模型的方法,提升了系統(tǒng)的實時性,并和GoogLeNet 分類網絡結合起來.通過建立背景模型和背景相減法得到運動車輛,然后使用訓練好的分類模型對車輛進行分類.在具體場景的實驗中,該算法取得了較快的檢測速度和分類準確率,比現有方法更加適合公路監(jiān)控視頻這一應用場景,具有很高的實用價值.

        猜你喜歡
        背景分類檢測
        “新四化”背景下汽車NVH的發(fā)展趨勢
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        分類算一算
        《論持久戰(zhàn)》的寫作背景
        當代陜西(2020年14期)2021-01-08 09:30:42
        分類討論求坐標
        數據分析中的分類討論
        教你一招:數的分類
        晚清外語翻譯人才培養(yǎng)的背景
        人体内射精一区二区三区| 无码专区一ⅴa亚洲v天堂| 女人和拘做受全程看视频| 久久久久无码国产精品不卡| 日本一道dvd在线中文字幕| 国产精品三级在线观看| 激情人妻在线视频| 超短裙老师在线观看一区| 美女午夜福利视频网址| 精品人妻无码视频中文字幕一区二区三区| 精品丝袜人妻久久久久久| 亚洲va中文字幕欧美不卡 | 中文字幕av永久免费在线| 轻点好疼好大好爽视频| 国产在线精品成人一区二区三区| 日韩成人无码一区二区三区| 四虎成人精品无码永久在线| 免费无码黄网站在线观看| 人妻少妇被粗大爽视频| 中文字幕一区日韩精品| 精品乱码一区二区三区四区| 亚洲国产日韩精品综合| 日本人视频国产一区二区三区| 人妻少妇精品无码专区动漫| 久久精品免费无码区| 少妇一区二区三区精选| 老太婆性杂交视频| 国产成a人亚洲精v品无码性色| 国产成人精品日本亚洲直播| 精品国产乱子伦一区二区三 | 亚洲国产精品日韩av专区| 国产一区二区丰满熟女人妻| 天堂久久一区二区三区| 亚洲一区av在线观看| 精品无码久久久久久久动漫| 一级做a爱视频在线播放| 日本视频一区二区三区| 欧美黑人又大又粗xxxxx| 亚洲级αv无码毛片久久精品| 国产精品一卡二卡三卡| 亚洲精品国产综合久久|