亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進實例分割網絡的步行道違停車輛檢測算法①

        2020-07-16 08:58:52鄭雅羽王濟浩
        高技術通訊 2020年6期
        關鍵詞:掩碼實例車輛

        鄭雅羽 王濟浩 馮 杰

        (*浙江工業(yè)大學信息工程學院 杭州 310023)(**浙江理工大學信息學院 杭州 310018)

        0 引 言

        在步行道上占道停車的行為增加了行人因繞行而被迫進入非機動車道乃至機動車道進而引起交通事故的可能性。城市管理部門常通過固定監(jiān)控設備攝像[1]和執(zhí)法人員巡檢來整治違?,F(xiàn)象。但由于監(jiān)控攝像設備的視角固定,容易存在監(jiān)控盲區(qū)、易被人為干擾與躲避,而執(zhí)法人員巡檢存在效率低的問題。隨著類似谷歌眼鏡等智能可穿戴移動設備的快速發(fā)展,可提高巡檢時采集相應場景圖片的效率。開發(fā)和推廣應用移動設備采集的圖像并自動進行違停識別的技術可加強對違停行為的監(jiān)管。

        移動設備采集到的圖像往往由于步行道的寬窄不一、拍攝時因為行進方向的變化導致拍攝視角差異較大,使得不同圖像中車輛尺度差別大、包含的背景信息復雜,只采集到車頭或車尾等局部信息的特點。使用傳統(tǒng)的圖像檢測方法[2]進行違停車輛的自動識別主要有以下2個難點:一是傳統(tǒng)方法提取的特征是基于車輛完整出現(xiàn)的前提,因此對圖像中只含局部信息的車輛難以有效檢出;二是不同于固定監(jiān)控設備可預先設置步行道的可停區(qū)域,由于圖片是移動采集的,步行道的可停區(qū)域會隨時變化,因此需要對圖片中的可停區(qū)域也能實現(xiàn)自動識別,但由于拍攝視角、車位線磨損、光照影響、可停區(qū)域被車輛大面積遮擋形變等原因造成檢測困難。

        針對以上2個難點,可以利用近年來興起的深度學習領域中的目標檢測網絡來提高檢出率[3]。目標檢測網絡主要分為一步法(YOLO[4]系列為代表)和兩步法(R-CNN[5]系列),本文出于精度和后期多分類的需求選取兩步法進行研究。Girshick等人[5]提出的R-CNN方法,實現(xiàn)了以CNN進行目標檢測。R-CNN在VOC數(shù)據(jù)集上達到了53.7%的準確率,相較于傳統(tǒng)方法平均35%的準確率有了較大的提升,但R-CNN的模型復雜度較高。SPP-net[6]通過空間金字塔池化加速了提取特征的速度,而后的Fast R-CNN[7]、Faster R-CNN[8]在精度和檢測速度有效提升且實現(xiàn)了端對端的CNN目標檢測模型。

        但在遭遇檢測效果不佳的情況下,僅依靠檢測網絡輸出的包圍框坐標與類別難以分析出原因,其給出的矩形包圍框在面對形狀不規(guī)則物體時也難以直觀體現(xiàn)出對目標物體的檢出效果。Mask R-CNN[9]是在Faster R-CNN基礎上結合FCN[10]支路提出的實例分割模型,可以實現(xiàn)在輸出物體包圍框與類別置信度的同時增加框內目標物體的輪廓掩碼信息,使得對物體檢測的精準度有了額外的評價指標。此外,可停區(qū)域的特征不如車輛特征明顯,其一般由車位線框定,但由于車位線內的區(qū)域與車位線外的區(qū)域存在高度相似的原因,當可停區(qū)域存在車位線磨損、光照影響、遮擋變形等情況時,會使包圍框和輪廓掩碼與真值相差過大,進而影響檢出車輛的進一步違停判定。因此需要改進實例分割網絡在保證定位準確度的前提下加強可停區(qū)域的特征信息。

        本文以識別步行道上違停車輛為目標,通過改進實例分割網絡結合連通區(qū)域融合的方法提升車輛與可停區(qū)域的檢測效果。在模型檢測的基礎上,本文設計違停判定算法以檢測違停車輛。

        1 算法概述

        根據(jù)檢測任務的需求,本文提出的檢測步行道上違停車輛的算法框架如圖1所示。首先將圖片輸入到對Mask R-CNN改進后的網絡,通過遷移學習得到輸入圖片中車輛與可停區(qū)域的精準的實例分割結果。步行道上的可停區(qū)域往往是由多個緊密相連車位組成的整體區(qū)域,而由于實例分割網絡具有分割相同類別不同個體的特性使得完整的可停區(qū)域被分割成重疊的單個車位的包圍框與輪廓掩碼,破壞了可停區(qū)域的完整性,因此本文設計了連通區(qū)域的融合方法改善實例分割網絡對可停區(qū)域的分割。最后根據(jù)處理后的結果設計了一種違停判定方法來有效識別違停車輛。

        圖1 整體框架圖

        2 改進的實例分割網絡

        實例分割網絡Mask R-CNN在實例檢測與分割等任務中獲得了較好的性能,網絡結構如圖2所示。對于輸入圖片,首先進入基礎網絡提取特征,為了更好地提取特征Mask R-CNN引入了特征金字塔結構(feature pyramid network, FPN)[11]。將FPN處理后產生的多層特征圖送入?yún)^(qū)域提議網絡(region proposal network,RPN)得到可能包含物體的前景提議框,ROI(region of interest) Align層根據(jù)FPN產生的特征圖將前景提議框映射成固定尺寸的特征向量。

        圖2 Mask R-CNN結構

        產生的提議框特征向量最后復用于經過FCN支路得到分割圖與經過卷積全連接支路得到相應類別與包圍框的坐標。

        由于本文的連通區(qū)域融合與違停判定依賴實例分割網絡結果的準確性,而網絡對于車輛等物體的強特征性較為敏感,在遇到可停區(qū)域中車位線內外存在高度相似的特征時,可能出現(xiàn)檢測失準的情況。用原始的Mask R-CNN網絡訓練后的檢測效果如圖3所示 ,通過包圍框輔助以輪廓掩碼的主觀結果可以發(fā)現(xiàn)網絡對于車輛的檢測效果較為精準,但可停區(qū)域的包圍框與掩碼存在偏大的現(xiàn)象,這將直接導致在后續(xù)進行違停判定時易產生誤判現(xiàn)象。由于Mask R-CNN網絡會大量復用基礎網絡中的特征信息輸出最終的檢測與分割結果,因此特征信息的完整尤為重要,本文為了加強基礎網絡的特征信息提出了一種低代價的改進方法。

        圖3 可停區(qū)域檢測失準

        2.1 網絡架構改進

        有別于Faster R-CNN中基礎網絡得到單一尺寸的特征圖,Mask R-CNN算法在基礎網絡中引入FPN得到不同尺寸的特征圖,解決了多尺度檢測的問題?;A網絡具體結構如圖4所示,輸入圖片經過左側的ResNet[12]中不同殘差塊得到C2~C5特征層,右側特征金字塔FPN結構中主要包含2個結構:(1)橫向連接,使用1×1卷積提取ResNet中的特征層信息并將通道數(shù)統(tǒng)一成256。(2)自上而下,將含有整體抽象信息的上層特征圖做2倍上采樣,然后與下一層經過橫向連接的特征相加得到M2~M5,使得含有定位信息的下層特征圖能額外擁有整體抽象信息,并將相加過后的特征層經過3×3卷積得到P2~P5,使得在不改變特征圖尺寸的情況下提高感受野(receptive field)。

        圖4 基礎網絡結構

        Mask R-CNN的基礎網絡中的FPN結構將上層信息通過上采樣的方式傳遞給下層,雖然使得下層信息更加豐富,但上層含有的定位信息并沒有得到加強,特別是輸入圖片經過ResNet中C2~C5共計101層后會損失過多殘差網絡提取到的下層的定位信息?;谝陨喜蛔悖疚奶岢隽艘环N改進的基礎網絡結構以改善特征信息的傳遞,具體的連接方式如圖5所示,在保持原有的橫向連接與自上而下的結構的基礎上,額外增加了一種自下而上的連接。

        圖5 改進的基礎網絡結構

        圖片輸入到改進后的網絡中,首先經過ResNet,其卷積核與步長的選取遵循ResNet網絡的設計,C2~C5的特征層的選取也與基礎網絡結構中的ResNet相同。在得到C2~C5特征層后,使用基礎網絡中相同的FPN網絡中的橫向連接與自下而上的連接得到M2~M5層,對于M5層首先將位于該層之下的M4~M2層做相應2、4、8倍的下采樣,將各層與M5層進行尺寸對齊,之后通過稠密連接[13]與M5層相加后通過3×3卷積得到P5層,M4與M3的修改機制同上。通過稠密連接的方式使得上層快速獲得下層的定位信息,這一過程中只包含不到10層,但能有效加強上層的定位信息,使得網絡對大物體的定位更加精準。

        2.2 損失函數(shù)

        本文所使用的模型為多任務模型,其整體損失函數(shù)為

        L=Lcls+Lbox+Lp+Lmask

        (1)

        其中,Lcls為檢測類別的損失,Lbox為檢測包圍框坐標的回歸損失,Lmask為包圍框內分割損失,Lp為RPN網絡的損失。其中Lcls、Lbox、Lp三者均與Faster R-CNN的損失函數(shù)相同,這里不做詳細介紹。對于Lmask損失,由于在訓練時,網絡會得到固定數(shù)目為n的提議框,在經過FCN分割后會得到n個28×28特征向量,其中每一個元素均為0~1的概率值,對于單個元素,分類的交叉熵表示如式(2)所示:

        (2)

        (3)

        Lmask的損失函數(shù)為各類別交叉熵和的平均,考慮到本文模型的類別數(shù)較小,將n從原有的200減少為100以減少模型過多的參數(shù)。

        2.3 遷移學習

        深度學習模型與傳統(tǒng)分類器的顯著區(qū)別之一是前者需要海量含有真值標簽的樣本,而獲得這些樣本以及標注工作往往成本巨大。遷移學習(transfer learning)借助通用數(shù)據(jù)集上訓練完成的模型得到圖像特征的先驗知識,例如,模型具有幫助識別邊緣、紋理、形狀和物體組成的能力,因此遷移學習不受傳統(tǒng)的數(shù)據(jù)同分布假設的限制,在開始新任務時只需在該模型上進一步訓練而無需從零開始訓練參數(shù)。

        本文借助于遷移學習中的微調(fine tuning)方法修改模型。(1)獲得源數(shù)據(jù)集上訓練完成的源模型。(2)根據(jù)目標數(shù)據(jù)集得到目標模型,在訓練開始前復制源模型上除輸出層外的所有模型設計及參數(shù)。(3)為目標模型添加輸出大小為目標任務所需分類個數(shù)的輸出層,并隨機初始化該輸出層參數(shù)。(4)在目標數(shù)據(jù)集上訓練目標模型,其中輸出層從頭開始訓練,其余層的參數(shù)都是基于源模型的參數(shù)微調得到的。

        3 連通區(qū)域的融合

        圖像的二維性、拍攝視角、車位線緊密相連等原因使得步行道上的停車區(qū)域在采集圖像中存在形變、被遮擋的可能,造成可停區(qū)域的面積大小、區(qū)域輪廓不存在統(tǒng)一的實例特征,因此模型輸出的可停區(qū)域包圍框存在分割相連通區(qū)域的問題,這易造成同一塊連通的可停區(qū)域具有多個包圍框的現(xiàn)象。實例分割輸出包圍框前使用非極大值抑制(non-maximum suppression,NMS)[14]來移除同一實例重疊的包圍框,框與框之間的重疊率使用IOU(intersection over union)來計算。由于NMS 方法是基于重疊包圍框之間的面積、長寬比近似的假設,因此當2個包圍框之間面積與長寬比差異較大時,NMS并不能有效抑制重疊的包圍框,例如大包圍框中包含小包圍框,這在對可停區(qū)域的檢測中大概率出現(xiàn)。

        基于以上的不足,本文在第2節(jié)得到的模型基礎上提出了一種連通區(qū)域的融合方法來加強后處理。假設實例分割得到的可停區(qū)域包圍框為a和b,且存在相交的矩形區(qū)域記為Iab,該區(qū)域中屬于框a和b的可停區(qū)域掩碼分別記為ma和mb,根據(jù)Iab中存在的掩碼來判定包圍框之間是否存在相連通的區(qū)域,其判定如式(4)所示:

        (4)

        其中,area(ma)和area(mb)代表Iab中屬于包圍框a和b的掩碼面積,其掩碼交集如圖6所示,計算區(qū)域內相應掩碼的交并比M,當M大于閾值θ時,則判定包圍框a和b存在相連通的區(qū)域,將實例分割結果中的分割掩碼做相并操作進行融合,其融合后的包圍框為掩碼區(qū)域的外接矩形框,其相應的置信度選取融合前掩碼面積最大的包圍框置信度。當存在2個以上的可停區(qū)域包圍框時,按照上述連通檢測方法構造圖,使用深度優(yōu)先搜索策略得到相連通的包圍框,重復上述的融合方法。由于計算交并比限制在包圍框的相交區(qū)域,且基于掩碼的疊加程度來衡量是否相連通,相比傳統(tǒng)的NMS檢測方法,上述方法一方面縮小了搜尋區(qū)域,另一方面基于輪廓掩碼的交并比對于物體重疊的判定相較于包圍框會更加精確。

        圖6 可停區(qū)域掩碼交集

        4 違停判定

        為了將合規(guī)停放車輛與違停車輛區(qū)分開來,需要進一步將違停與非違停的車輛標記,具體流程如圖7所示,首先借助改進后的網絡與融合方法得到的車輛與可停區(qū)域的檢測結果判定是否檢測到車輛,若車輛不存在,則無需進行違停判定;若車輛存在,則進一步判定是否存在可停區(qū)域。若不存在可停區(qū)域,則將檢測到的車輛標記為違停車輛;若存在可停區(qū)域,需要進一步計算車輛包圍框Bc與可停區(qū)域包圍框Bp的重疊率a與相對位置關系,對于重疊率a的計算如式(5)和(6)所示。

        a=max(ap,ac)

        (5)

        (6)

        對于檢測結果包含2種情況:(1)當可停區(qū)域大面積被遮擋時其包圍框面積較小,計算Bc與Bp的相交矩形區(qū)域面積與Bp面積的比率ap;(2)當可停區(qū)域包圍框面積較大時,車輛包圍框面積相對較小,計算Bc與Bp的相交矩形區(qū)域面積與Bc面積的比率ac。重疊率a為ap與ac中的較大值。當a大于閾值t時認為車輛與可停區(qū)域可能存在空間上的重疊關系,同時根據(jù)先驗知識,若為合規(guī)停車則該車必定在可停區(qū)域的上方,空間位置關系可以用包圍框中心點的縱坐標y來表示,當滿足以上2種情況時,則判定該車為合規(guī)停放車輛,若不滿足則判定為違停車輛。

        圖7 違停判定步驟

        5 實 驗

        5.1 數(shù)據(jù)集擴充

        由于步行道上的違停車輛數(shù)據(jù)集較為特殊,網上沒有相應公開的數(shù)據(jù)集,因此需要自建數(shù)據(jù)集與其標注信息。本文的實驗數(shù)據(jù)集采集于杭州市城區(qū)某步行道,數(shù)據(jù)集包括607張車輛停放于步行道的圖片,尺寸統(tǒng)一為3 264×2 448像素。每張圖片均含有待分類的目標,并且通過標注軟件描繪關鍵點構建多邊形對相應車輛與可停區(qū)域進行人工標注獲得所需的標注信息。同時,為了驗證改進模型的效果,本文使用COCO2017數(shù)據(jù)集[15]進行對比實驗。

        由于原始城區(qū)步行道數(shù)據(jù)集的數(shù)量并不能完全擬合模型,數(shù)據(jù)量不足時易發(fā)生過擬合現(xiàn)象。因此,本文在原數(shù)據(jù)集的基礎上對圖片進行隨機改變,產生相似但又不同的圖片以達到擴充數(shù)據(jù)集的目的。擴充后的數(shù)據(jù)集能有效防止過擬合現(xiàn)象,同時隨機改變樣本能減少模型對某些屬性的依賴,從而提高模型的泛化能力。

        考慮到變換后的圖像應當盡可能與真實采集到的圖像相類似,本文使用了隨機水平翻轉、小比例縮放與旋轉、顏色空間抖動以減少模型對于顏色空間、目標物體所處位置的依賴。隨機疊加以上幾種變換后得到的數(shù)據(jù)集圖片能使原始數(shù)據(jù)集規(guī)模提高2~4倍。在對圖片做各種變換的同時,每張圖片的標注信息也做相同的變換,從而避免大量的標注操作。

        5.2 評價指標

        在評價指標方面,相較于VOC數(shù)據(jù)集的評價指標[16],COCO官方提供的標準評價指標更為嚴格與全面。因此,后文基于COCO評價指標進行實例分割結果的分析。

        COCO評價指標是基于不同IOU閾值下的計算每個類別在不同查全率(recall)下查準率(precision)的平均值,稱為平均準確率(average precision,AP)。對于綜合所有類別的AP結果,使用mAP(mean average precision)進行定量分析。AP與 mAP的計算如式(7)和(8)所示:

        (7)

        (8)

        其中,P為查準率,R為查全率,N為模型需要分類的類別總數(shù),P(R)為查全率為R時的查準率,AP(n)為類n對應的AP值。P和R的計算如式(9)和(10)所示:

        (9)

        (10)

        其中,TP表示預測正例正確,F(xiàn)P表示預測正例錯誤,F(xiàn)N表示預測負例錯誤。COCO評價指標中的默認AP為mAP,為避免歧義,后續(xù)統(tǒng)一使用mAP來表示模型的性能。

        5.3 實驗結果與分析

        實驗所用服務器搭載Ubuntu16.04操作系統(tǒng),16 G內存,Intel(R) Core(TM) i7-7800X處理器,主頻為3.5 GHz,Nvidia GeForce GTX 1080 Ti顯卡。

        首先,為驗證針對基礎網絡進行修改具有一定的通用性,本文以未修改的Mask R-CNN作為比較對象,在COCO2017數(shù)據(jù)集上進行實驗,比較最后評價指標的差異。數(shù)據(jù)集所帶標注含有80類不同物體的信息。2個網絡所含有的特征提取網絡均為ResNet101,加載相同的預訓練參數(shù),動量參數(shù)設置為0.9,權值衰減設置為1e-4,學習率設置為1e-3,batch-size設置為1。通過遷移學習微調ResNet、RPN、掩碼與分類的輸出層,訓練周期個數(shù)為25個,保存最優(yōu)模型。從驗證集中隨機抽取500張作為測試集,在COCO數(shù)據(jù)集上訓練2個模型,最終得到的結果如表1所示。

        表1 基礎網絡修改在COCO數(shù)據(jù)集上的影響

        表1中mAP50指的是在IOU=0.5時,計算掩碼的mAP值,其中mAP是mAP50,mAP55,mAP60,…,mAP95的平均值。表1中mAPbb指的是在IOU=0.5時,計算包圍框的mAP值,計算均值方法同上。由表1可知,相較于Mask R-CNN,COCO數(shù)據(jù)集上基礎網絡修改后的模型在掩碼以及包圍框的mAP評價指標精度上分別提升了0.3與0.5。由于COCO數(shù)據(jù)集中的物體類別大多具有強特征性,不存在像可停區(qū)域類別的物體,因此提升效果不顯著。

        為驗證模型對數(shù)據(jù)集中車輛與可停區(qū)域的檢測分割效果,本文從607張原始圖片中隨機挑選70張作為測試集,剩下的圖片進行數(shù)據(jù)增強最終得到1 396張圖片作為訓練集。由于類別數(shù)為2,因此將原始Mask R-CNN中掩碼與分類的輸出層中的類別數(shù)由80改為2,考慮到類別數(shù)量少,將特征提取網絡ResNet101改為ResNet50來降低模型復雜度防止過擬合,其中判定連通域融合的閾值θ設為0.2,違停判定的閾值t設為0.2。訓練機制同上,在此基礎上使用本文提出的方法進行實驗,并將經過遷移學習后的Mask R-CNN模型參數(shù)作為比較對象,最終得到的結果如表2所示。

        表2 遷移學習后的Mask R-CNN與本文方法的對比

        由表2可知,單獨使用基礎網絡的修改對于步行道數(shù)據(jù)集在掩碼以及包圍框的mAP評價指標上分別提升了2.1與1.8;單獨使用連通區(qū)域融合的后處理方法在指標上提升了0.8與1.5;疊加使用2種方法最終提升了3.5與4.2。以上的實驗結果表明,本文提出的修改基礎網絡與連通區(qū)域融合方法使得Mask R-CNN的輸出結果更為精準,且疊加使用能使精度進一步提升。

        分析實例分割網絡得到的車輛與可停區(qū)域的檢測分割結果可以驗證本文所提出的違停判定方法的有效性。經統(tǒng)計,在70張測試圖片中步行道上停放的車輛數(shù)目為123輛,其中42輛車疑似違停。本文統(tǒng)計包圍框在IOU=0.5時,車輛與違停車輛的2項檢測指標即查全率與查準率,使用遷移學習得到的Mask-R-CNN模型參數(shù)作為基準進行對比實驗,最終結果如表3、4所示。

        表3 車輛的查全率與查準率

        表4 違停車輛的查全率與查準率

        根據(jù)表3的數(shù)據(jù)可知,遷移學習后的Mask R-CNN模型對于車輛的識別性能較強,在該模型的基礎上使用本文方法使得車輛的查準率與查全率相較于原有模型有略微的提升。由表4可得,僅依靠遷移學習后訓練得到的Mask R-CNN模型結合違停判定方法對于違停車輛的檢測結果較差,而使用本文算法后違停車輛的查全率與查準率均有顯著提升,分別達到了90.5%與80.8%,其中違停車輛的查準率提高6.4%,查全率提高21.4%,提升效果明顯。以上結果表明,對于基礎網絡的修改與連通區(qū)域融合方法有助于改進違停檢測精度,改進后的精度基本滿足違停檢測任務。

        圖8為測試集中的部分圖片的主觀視覺效果,第1行為原始圖片,第2行為僅使用遷移學習的Mask R-CNN模型的輸出結果,car代表車輛,parking代表可停區(qū)域,每個包圍框都包含有相應的置信度與框內的分割掩碼。第3行為使用本文方法的輸出結果,V_car代表合規(guī)停放的車輛,F(xiàn)_car代表違停車輛,parking代表可停區(qū)域。觀察對比圖可以發(fā)現(xiàn),使用本文算法有效地減少了實例分割網絡的誤識別概率。以從左往右第2列圖片為例,未改進的Mask R-CNN網絡出現(xiàn)了可停區(qū)域誤識別,進而會影響最后的違停判定結果,而本文提出的檢測方法對可停區(qū)域的識別與分割更為精準。第1、3、4列圖片對重疊連通的可停區(qū)域進行了有效的融合,且正確區(qū)分了合規(guī)車輛與違停車輛。如第5列圖所示為誤識別情況,本文的模型假定原始圖片均采集于步行道,針對停放于步行道上的車輛進行違停與否的自動化檢測。但第5組圖中的背景并不全為步行道,存在另外2輛疑似違停車輛,違反了本文的假定。因而,雖然模型檢出了近處的合規(guī)車輛,但由于模型統(tǒng)一檢測具有車輛特征的對象導致遠處背景的違停車輛同樣被識別,由此干擾了識別結果并產生了誤判。

        表5是基于服務器上的圖形處理單元(GPU)對本文提出的方法進行實驗對比,統(tǒng)計了測試集中單張圖片的平均運行耗時。根據(jù)表5的數(shù)據(jù)可得,Mask R-CNN處理單張圖片平均耗時1 050 ms,僅修改基礎網絡增加運行耗時53 ms,僅使用連通區(qū)域融合方法增加運行耗時69 ms,使用違停判定增加運行耗時31 ms。當修改基礎網絡疊加連通區(qū)域融合方法后增加運行耗時110 ms。結合表2數(shù)據(jù)可以發(fā)現(xiàn),在原有模型運行耗時增加10.5%的低代價下,可使掩碼與包圍框的mAP最高提升3.5與4.2。結合表4,在原有模型的基礎上使用違停判定方法可進一步檢測出違停車輛,最后通過疊加基礎網絡的修改與連通區(qū)域融合的方法,使得違停車輛的查全率與查準率分別提升21.4%與6.4%,總耗時為1 185 ms,相比最初的Mask R-CNN檢測僅增加了12.8%。

        圖8 主觀檢測結果

        表5 單張圖片的運行耗時

        6 結 論

        本文針對步行道上違法占道停車現(xiàn)象提出了基于改進實例分割網絡的步行道違停車輛檢測算法。本文通過對原有的Mask R-CNN網絡進行基礎網絡改進顯著強化了特征信息的提取過程,通過針對檢測任務進行遷移學習有效加速了模型訓練,通過設計連通區(qū)域融合的方法明顯改善了停車區(qū)域識別不佳的情況,減少了識別不全與重疊現(xiàn)象。為了合理區(qū)分合規(guī)車輛與違停車輛,本文利用前述步驟得到的結果,設計了一種區(qū)分算法,其最終對于違停車輛的查全率與查準率高達90.5%與80.8%,且檢測的圖片中包含包圍框、置信度、類別信息與分割掩碼等更為豐富的輸出信息。

        進一步分析實驗結果可以發(fā)現(xiàn),由于最終檢測效果較依賴于實例分割模型的輸出,因而當實例分割模型輸出出現(xiàn)錯誤時,將會影響違停車輛的準確識別。因此,如何進一步改進實例分割網絡、設計更多相關類別以幫助減少違停車輛的誤識別、進一步減小算法的復雜度是今后的研究重點。

        猜你喜歡
        掩碼實例車輛
        低面積復雜度AES低熵掩碼方案的研究
        通信學報(2019年5期)2019-06-11 03:05:56
        車輛
        小太陽畫報(2018年3期)2018-05-14 17:19:26
        基于布爾異或掩碼轉算術加法掩碼的安全設計*
        通信技術(2018年3期)2018-03-21 00:56:37
        冬天路滑 遠離車輛
        車輛出沒,請注意
        提高車輛響應的轉向輔助控制系統(tǒng)
        汽車文摘(2015年11期)2015-12-02 03:02:53
        基于掩碼的區(qū)域增長相位解纏方法
        基于掩碼的AES算法抗二階DPA攻擊方法研究
        完形填空Ⅱ
        完形填空Ⅰ
        亚洲一区二区三区偷拍女厕| 亚洲一区二区在线观看网址| 久久精品女人天堂av免费观看| 亚洲学生妹高清av| 久久久一本精品99久久| 亚洲精品综合久久国产二区 | 四虎永久在线精品免费网址| 日韩人妻无码精品-专区| 国产精品九九九无码喷水| 在线观看人成网站深夜免费| 国产在线一区二区三区四区不卡| 亚洲熟妇无码一区二区三区导航 | 亚洲女同成av人片在线观看| 亚洲精品熟女av影院| 老太婆性杂交视频| 国产欧美日韩久久久久| 久久中文字幕久久久久| 亚洲精品一区二区三区四区| 乱子轮熟睡1区| 亚洲精品久久无码av片软件| 自慰高潮网站在线观看| 国产一区二区av在线免费观看| 精品久久久久久久无码人妻热| 十八岁以下禁止观看黄下载链接| 麻豆国产VA免费精品高清在线 | 亚洲av成人无码网站大全| 一本无码av一区二区三区| 国产亚洲av一线观看| 亚洲av无码日韩av无码网站冲| 吸咬奶头狂揉60分钟视频| 亚洲精品乱码久久久久99| 东风日产车是不是国产的| 毛片免费视频在线观看| 国产精品欧美日韩在线一区| 日本在线播放不卡免费一区二区| 99精品久久99久久久久| 国产精品久久毛片av大全日韩| 色噜噜狠狠色综合欧洲| 国产成人一区二区三区影院| 人妻哺乳奶头奶水| 日本欧美在线播放|