亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于卷積神經網絡及改進支持向量機的行人檢測

        2020-01-14 06:03:38肖艷秋焦建強楊先超夏瓊佩
        計算機應用與軟件 2020年1期
        關鍵詞:行人卷積向量

        肖艷秋 周 坤 焦建強 楊先超 夏瓊佩

        (鄭州輕工業(yè)大學機電工程學院 河南 鄭州 450002)

        0 引 言

        復雜道路場景下,自動駕駛車輛通過車身裝載的視覺傳感器檢測路況信息,結合其他傳感器獲取的信息對駕駛行為進行分析決策,完成自主駕駛過程。我國實際道路場景中,行人作為主要交通參與者,數量較為龐大,在實際道路下因行人發(fā)生交通事故的事例時有發(fā)生。因此,為提高駕駛安全性以及保障人的生命安全,自動駕駛車輛在行駛過程中必需準確及時地檢測出行人的位置及運動狀態(tài),提前進行防撞預警。由于行人隨機分布以及動態(tài)的特性,為檢測過程帶來許多困難。行人因其衣著、形狀不一使得在實際檢測過程中往往存在誤檢率高的問題,再加上道路場景復雜、光照變化、遮擋以及圖像質量差等因素的影響,嚴重制約了行人檢測的準確性和實時性[1]。因此,在自動駕駛復雜道路環(huán)境下,提高行人檢測的準確性且保證檢測實時性尤為重要。

        早期的行人檢測器大多基于人工設計行人特征結合機器學習分類器,代表性的有梯度方向直方圖(Histograms of oriented gradient, HOG)[2]方法、可變形部件模型(Deformable part models, DPM)[3]方法、聚合通道特征(Aggregation channel feature, ACF)[4]方法等,都有著較好的檢測性能,但因人工干預因素過多導致檢測速度與精度得不到較好的平衡且誤檢窗口較多。隨著深度學習的不斷發(fā)展,許多研究學者將深度學習方法應用于計算機視覺并取得了非常好的效果。文獻[5]首先將基于區(qū)域的卷積神經網絡(Regions with convolutional neural network, R-CNN)引入到目標檢測中,相比早期的人工設計方法性能更加穩(wěn)定。為降低R-CNN候選區(qū)域提取過程中的計算消耗,文獻[6]在R-CNN的基礎上提出的Faster R-CNN,通過在網絡結構中增加區(qū)域建議網絡完成候選區(qū)域的提取,檢測速度大幅提升。為提升檢測器端到端學習性能,單階段網絡方法SSD、YOLO等[7-8]相繼被提出且在行人檢測展現出優(yōu)秀的性能。雖然卷積特征在目標檢測領域取得了較為豐碩的成果,但并不代表人工設計特征將被淘汰,許多研究學者致力于將人工特征與卷積神經網絡相結合,進一步提高檢測器的性能。文獻[9]提出一種多卷積特征融合的行人檢測方法,將人工提取的HOG特征與深度卷積特征進行融合,在復雜場景下取得了較好的檢測效果。文獻[10]將聚合通道特征與主成分分析網絡(PCANet)結合,通過構建粗、精兩種檢測器對行人進行級聯(lián)檢測,解決了原始的ACF算法誤檢率高的問題。

        基于R-CNN的行人檢測方法主要包括候選區(qū)域提取、卷積特征提取、支持向量機分類器三個部分。本文在上述方法的基礎上,為降低復雜背景下的行人誤檢率,將人工設計特征與卷積神經網絡相結合,提出一種基于卷積神經網絡及改進支持向量機的行人檢測方法。首先使用ACF方法代替R-CNN中的選擇性搜索,利用ACF方法檢測速度快的特點提取圖像候選區(qū)域以減少多余計算,并將該候選輸入至卷積神經網絡中進行深度特征提取;然后對卷積神經網絡模型進行設計,加深卷積網絡結構以獲取精確特征,并利用主成分分析法對卷積神經網絡輸出的特征向量進行降維,減少冗余特征及計算成本;為進一步增加支持向量機的分類精度,針對高斯徑向基核函數支持向量機參數選取困難問題,通過對蟻群算法的節(jié)點選擇方法及適應度函數進行改進,利用改進的蟻群算法對其核函數參數進行擇優(yōu),最終將精確特征向量送至優(yōu)化后的支持向量機進行分類識別并定位行人位置。

        1 方法設計

        為了提高行人的檢測速度和檢測準確度,本文提出的行人檢測方法主要包括三個方面:基于聚合通道特征的目標候選區(qū)域快速生成方法、基于深度卷積神經網絡的精確特征提取方法以及基于改進支持向量機的分類方法:(1) 利用改進的ACF算法快速計算圖像聚合通道特征金字塔;(2) 訓練級聯(lián)Adaboost分類器對每幅圖像提取出的候選區(qū)域進行分類,并使用非極大值抑制算法(NMS)[11]過濾掉多余的候選區(qū)域;(3) 將候選區(qū)域集合輸入至卷積神經網絡提取其深度特征;(4) 利用主成分分析法對深度特征進行降維,得到精確的行人特征向量;(5) 利用蟻群算法優(yōu)化支持向量機,并對行人特征進行分類,輸出行人檢測結果。檢測流程如圖1所示。

        圖1 本文行人檢測流程

        1.1 基于改進聚合通道特征候選區(qū)域選擇

        候選區(qū)域提取相當于對圖像進行粗檢測,獲得目標可能存在的區(qū)域,候選區(qū)域生成的速度及準確度對檢測器的性能有著非常大的影響。常用的候選區(qū)域提取方法有邊緣框、選擇性搜索等[12-13],原始R-CNN檢測過程中使用選擇性搜索獲取圖像候選區(qū)域,但該方法速度過慢使得實時性得不到保證。因此,在復雜道路場景下,為了快速、有效地檢測到行人,本文使用基于聚合通道特征的目標檢測方法作為候選區(qū)域提取方法,盡可能多地提取圖像中行人的候選區(qū)域。首先計算出圖像的聚合通道特征,為降低計算時間開銷,本文針對文獻[4]中的1個梯度幅值、6個方向的梯度直方圖和3個LUV顏色通道,利用平均池化構建行人圖像的新的聚合通道特征。對大小為X×Y像素的圖像提取其10個特征通道,通過設置3×3的池化窗口遍歷整幅特征圖對其進行滑窗操作,最后將池化得到的新聚合通道特征圖中的特征值進行重新排列得到(X/3)×(Y/3)×10維的聚合通道特征向量W。

        為獲得圖像中不同尺度的行人候選區(qū)域,需要對行人圖像進行縮放處理。本文利用文獻[4]提出的一種快速計算行人特征金字塔的方法,該方法通過在一定誤差范圍內利用某一尺度大小的聚合通道特征近似估計相鄰尺度的特征。首先分別計算圖像在尺度層s∈{1,1/2,1/4,…}下的特征通道Cs=Ω(R(Is)),利用其近似估計其他中間層的特征通道,其近似估計公式如下:

        (1)

        本文首先對所有尺度的圖像進行滑窗操作,獲得該圖像在不同尺度下的所有檢測子窗口,利用軟級聯(lián)Adaboost分類器對所有檢測子窗口進行權重判斷,從而得到所有包含行人的候選區(qū)域集合,最后利用非極大值抑制算法過濾掉重疊的候選區(qū)域并對所有剩余行人候選區(qū)域進行歸一化操作,使行人的檢測候選區(qū)域尺寸統(tǒng)一,便于后續(xù)輸入到卷積神經網絡中進行特征提取。

        1.2 基于卷積神經網絡特征提取

        由于行人本身形狀以及顏色多變性使得人工特征無法精確描述行人,因此本文采用卷積神經網絡對行人候選區(qū)域進行特征提取,以獲得更好的檢測精度。卷積神經網絡較傳統(tǒng)人工提取特征能夠在訓練過程中自適應地獲取圖像特征的細粒度描述,深度挖掘圖像精確特征,進而達到較好的分類效果,且對于高維度、數據量大的圖像處理情況有著較好的準確度和實時性。

        1.2.1卷積特征提取

        卷積神經網絡的網絡結構主要包括卷積層、池化層、全連接層。卷積層主要用來提取圖像信息,通過輸入的圖像進行多個核卷積操作,卷積后的圖像經過激活函數后輸出且作為下一層的輸入。卷積層的計算公式為:

        (2)

        池化層的處理方式主要有兩種,分別通過平均值池化和最大值池化操作進行下采樣。池化層能夠在保證卷積后的圖像特征不變情況下減少計算量且加快網絡的訓練速度。本文中采用最大池化對卷積層輸出進行下采樣,池化的計算公式為:

        (3)

        全連接層是將從卷積層或池化層得到的圖像特征轉化為向量送至分類器進行分類。通常的卷積神經網絡結構多為開始幾層為卷積層和池化層交替,在靠近輸出層的最后幾層為全連接層。由于網絡的深度在很大程度上影響最終的分類精度,采用了文獻[14]提出的VGG-16卷積網絡模型。VGG-16模型包含了5層卷積網絡,以池化層為界可劃分為5次卷積過程,輸入的行人圖像經過5層卷積過程,最終在全連接層組合后可以得到區(qū)分度較好的深度特征,從而較好地保證分類的準確性。

        針對目前行人數據庫標定量有限的情況,本文采用卷積神經網絡進行特征提取,通過在自己構建的數據庫中訓練好網絡模型,將卷積神經網絡部分層的參數固定,初始化行人圖像分類的卷積神經網絡,修改網絡模型的后兩層參數設置符合行人圖像分類。本文卷積網絡輸入圖像大小為224×224的RGB彩色圖像,所有的卷積操作都采用3×3大小的卷積核,步長固定為1,卷積操作后用激活函數得到卷積層的輸出。池化層設置為2×2的最大池化且步長設為1,最終由兩層全連接層輸出4 096維的行人特征向量,經后續(xù)PCA降維后作為支持向量機的輸入訓練得到支持向量機分類器。其網絡參數如表1所示。

        表1 本文卷積神經網絡參數

        1.2.2主成分分析法降維

        本文中行人圖像在卷積神經網絡提取特征的過程中,由于卷積網絡層次較多,最終得到的特征維數較大,包含有大量的冗余信息,造成計算成本增加。本文使用主成分分析法(Principal Component Analysis,PCA)對卷積神經網絡全連接層所得到的特征向量進行降維處理[15]。主成分分析法是一種統(tǒng)計分析方法,它從分析變量間關系入手,能將多個變量綜合為少數幾個主成分,從而達到降維的效果。

        設向量X為得到行人特征向量,則可根據式(4)對其進行主成分分析變換,得到降維后的特征向量Y=[y1,y2,…,yn],Y中的向量都互不相關,C為主成分Y對應的單位化特征向量。且yi的方差λi依次遞減,y1,y2,…,yn為n個主分量。

        Y=CX

        (4)

        則第i個主分量的貢獻率定義為:

        (5)

        前m個主分量的累積貢獻率定義為:

        (6)

        選取前m(m

        1.3 基于蟻群算法優(yōu)化支持向量機行人檢測

        1.3.1支持向量機

        通過對于降維處理所得到的行人特征向量樣本集(x1,y1),(x2,y2),…,(xn,yn),x∈Rn,y∈{0,1},利用非線性函數Φ(x)將行人圖像數據映射到高維線性特征空間,從而得到其最優(yōu)分類超平面為:

        ω·φ(x)+b=0

        (7)

        式中:ω為權值向量且ω∈Rn,x為支持向量,b為常數。根據最優(yōu)分類超平面得到其對應的決策函數為:

        f(x)=sign[ω·φ(x)+b]

        (8)

        將分類決策函數中的內積用核函數K(xi,xj)代替后為:

        (9)

        目前SVM常用的核函數以多項式核函數、高斯徑向基核函數和Sigmoid核函數三種類型為主[16]。面向的問題不同。支持向量機核函數的選用也有所不同。本文中的行人檢測可歸為分類問題,通過對比集中核函數的特點,高斯徑向基核函數在處理非線性高維空間中的分類時有著較好的能力,因此本文在訓練行人檢測模型時采用高斯徑向基核函數,其具體函數的表達式如下:

        (10)

        式中:γ為徑向基函數的核寬度,決定訓練樣本在高維特征空間中分布的復雜程度以及支持向量機的分類精度。除此之外,根據文獻[16]中,為調節(jié)訓練過程中的的置信范圍和經驗風險的比例,引入懲罰參數C,在一定范圍內,C越大表示對支持向量機錯誤分類的懲罰越大。因此,為達到較好的檢測效果,選擇合適的懲罰參數C和核函數參數γ尤為重要。

        1.3.2改進蟻群算法優(yōu)化支持向量機

        蟻群算法是由意大利學者Dorigo等人在1991年受到螞蟻搜索食物過程中依據同伴遺留下的信息激素進行最短路徑選擇的啟發(fā)而提出的一種新的仿生優(yōu)化計算方法,具有并行計算、擴展能力好和全局搜索能力的特點[17]。本文利用蟻群算法對高斯徑向基核函數及懲罰參數進行優(yōu)化選擇,考慮原始蟻群算法收斂速度慢以及容易陷入局部最優(yōu)的的缺點,從節(jié)點選擇方法和適應度函數對其進行改進,并利用改進的蟻群算法優(yōu)化支持向量機核函數。

        根據蟻群算法原理,將其節(jié)點值表示為懲罰參數C和核函數參數γ,以行人檢測的準確率作為目標函數,信息素位于螞蟻所走過的每個節(jié)點上,最終經過蟻群算法搜索出的最優(yōu)路徑輸出即為最優(yōu)行人檢測模型參數。在尋優(yōu)過程中,蟻群通過不斷迭代對信息素的濃度進行更新,直至完成對目標函數的最優(yōu)化。終止迭代時,輸出得到最優(yōu)參數C和γ,具體流程如圖2所示。

        圖2 本文蟻群算法優(yōu)化SVM流程

        步驟1輸入分類數據。讀取行人特征向量數據集。

        步驟2種群初始化。初始化信息素為τ0;設置蟻群規(guī)模為m,初始其位置規(guī)劃起點S;設置懲罰參數C取值范圍(Cmin,Cmax)以及核函數參數γ取值范圍(γmin,γmax);設置迭代計數器為0;設置最大迭代次數N。

        步驟3蟻群行走。根據下式計算螞蟻的轉移概率,根據概率運用輪盤賭方法選擇種群中每只螞蟻下一個爬行節(jié)點,并將螞蟻轉移到該節(jié)點上。

        (11)

        步驟4局部信息素更新。每當螞蟻走過一小段路徑后,根據下式進行局部信息素更新。

        (12)

        (13)

        式中:Q1為局部信息素強度;ρ1為局部信息素揮發(fā)系數且ρ1∈(0,1)。

        步驟5判斷螞蟻是否到達終點。根據下式計算適應度函數值,計算路徑對應的參數C和γ,代入SVM進行驗證,將檢測率作為評價值,檢測率最高的即為最優(yōu)路徑,同時保存最佳評價值。將本次迭代的結果與歷次結果進行比較,若檢測準確率提高,則替換為當前最優(yōu)路徑,并保存經過的節(jié)點。

        (14)

        步驟6全局信息素更新。對最佳路徑經過的邊按照下式進行更新。

        (15)

        (16)

        步驟7完成優(yōu)化。令迭代次數計數器加1,若未達到最大次數,則重復步驟1至步驟6,直至N=Nmax,輸出最優(yōu)路徑對應的支持向量機參數C和γ。

        步驟8支持向量機根據得到的最優(yōu)參數值對行人訓練集重新訓練,得到最優(yōu)行人檢測模型。

        2 實 驗

        實驗采用的硬件設備是Intel Core 4.2 GHz i7-7700K CPU和NVIDIA Geforce GTX 1060Ti GPU,軟件環(huán)境采用MATLAB 2018b。為驗證本文方法的有效性,通過采集某市不同路段中的行人圖像及交通環(huán)境圖像進行人工標記制作行人數據集。該數據集圖像共5 000幅,正、負樣本比例為1∶2,分辨率為640×480。驗證本文方法時,將行人數據集分為訓練集和測試集,其中訓練集占總數70%,測試集占30%。為更好地驗證本文方法的有效性,分別在本文數據集及公開的Caltech行人數據集[18]中進行測試,Caltech行人數據集為Pitor Dollar的團隊所制作,采用車載攝像頭拍攝,分辨率為640×480,是目前規(guī)模較大也是應用較多的行人數據集。相關實驗共包括兩個部分,分別為本文所用方法與目前幾種流行方法檢測結果對比實驗、不同方法選擇支持向量機參數后檢測結果對比實驗。

        2.1 不同檢測方法對比分析

        本文利用改進后的卷積神經網絡完成對行人特征的提取,為驗證本文方法的可行性,分別利用目標檢測上應用較好的ACF、R-CNN、Faster R-CNN方法的檢測結果與本文中的檢測結果進行對比。圖3為本文方法分別在本文數據集及Caltech行人數據集中的部分檢測效果。由圖3(a)可以看出,在本文數據集上,多種交通場景下都取得較好的檢測效果,行人目標基本能夠被檢測到且誤檢窗口較少,但對于遠距離小尺度行人的檢測效果不理想;由圖3(b)可以看出,在Caltech行人數據集上,明顯的行人目標能夠正常被檢測到,同樣保證誤檢窗口較少,但在過于陰暗場景下會漏檢掉與背景顏色近似的行人目標,除此之外,當行人之間相互遮擋嚴重時存在漏檢情況。

        (a) 本文算法在本文數據集上部分檢測結果

        (b) 本文算法在Caltech行人數據集上部分檢測結果圖3 本文算法檢測結果圖

        表2、表3分別為ACF、R-CNN、Faster R-CNN及本文方法在本文數據集及Caltech行人數據集中檢測率、誤檢率及檢測時間對比。由表2可以看出,在本文數據集上,本文方法的檢測率為92.55%,相比原始ACF、R-CNN方法有著較高的提升,但三種指標均略遜于Faster R-CNN方法。由表3可以看出,在Caltech行人數據集上,相比于本文數據集中的檢測結果,檢測率有所下降,但仍優(yōu)于ACF及R-CNN方法,綜合各項數據結果本文方法在性能方面接近Faster R-CNN方法。

        表2 不同算法在本文數據集上檢測結果對比

        表3 不同算法在Caltech行人數據集上檢測結果對比

        為了更好地對比各檢測方法的性能,采用文獻[18]中提出的漏檢率(Miss Rate,MR)對每幅圖片平均誤檢個數(False Positives Per Image,FPPI)曲線作為評價指標,并以FPPI為0.1作為參考點,通過在測試集上進行驗證得出MR-FPPI曲線,曲線越低則性能越好。分別在本文數據集及Caltech行人數據集進行測試,各檢測方法的FPPI曲線如圖4、圖5所示。通過對比四種方法的MR-FPPI曲線,在本文數據集測試結果顯示當FPPI為0.1時,本文方法的漏檢率為16%,低于ACF及R-CNN方法,且較原始R-CNN算法提升了8%的檢測精度,但較Faster R-CNN方法低3%的檢測精度;在Caltech行人數據集測試結果顯示當FPPI為0.1時,本文方法的漏檢率為38%,較ACF及R-CNN方法分別提升了18%和11%的檢測精度,但較Faster R-CNN方法低3%的檢測精度。通過在不同數據集中進行測試,與幾種主流方法結果進行比較,綜合幾種性能指標,證明本文具有可行性,能夠保證較好的檢測精度。

        圖4 不同檢測算法在本文數據庫精度對比圖

        圖5 不同檢測算法在Caltech數據庫精度對比圖

        2.2 支持向量機優(yōu)化結果分析

        本文中的行人檢測為分類問題,支持向量機對于部分樣本數據具有較好的分類性能。因此,本文將卷積神經網絡得到的特征向量結合支持向量機完成分類器的訓練,并利用訓練好的支持向量機模型完成行人檢測過程。實驗中,為驗證本文蟻群算法優(yōu)化支持向量機所得最優(yōu)參數的有效性,分別利用網格搜索法以及交叉驗證法得到兩組支持向量機參數,將三組參數的測試結果進行對比,如表4所示。通過結果對比,利用蟻群算法擇優(yōu)后的支持向量機分類準確率高于網格搜索法和交叉驗證法,表明本文基于蟻群算法進行支持向量機擇優(yōu)能夠有效提高行人檢測精度。

        表4 不同SVM參數選擇方法檢測結果對比

        3 結 語

        本文針對行人檢測在復雜背景下誤檢率高的問題,結合人工特征提取及卷積神經網絡特征提取方法的優(yōu)點,提出了一種基于卷積神經網絡及改進支持向量機的檢測方法。首先采用聚合通道特征算法快速獲得行人候選區(qū)域,然后將候選區(qū)域送至卷積神經網絡進行深度特征提取并利用主成分分析法降低提取的特征維度,最后,針對徑向基核函數支持向量機選擇參數困難問題,利用蟻群算法進行優(yōu)化處理,根據擇優(yōu)后的參數完成對行人圖像的分類。仿真實驗表明,本文方法相對于ACF及R-CNN方法檢測精度有所提升且誤檢率大幅下降,實現了行人的準確檢測且具有較好的實時性。但小尺度行人檢測效果不太理想,其次在一些特殊場景如陰暗、遮擋下的檢測率仍有待提升,故針對小尺度行人及遮擋行人的檢測方面仍需進一步進行研究。

        猜你喜歡
        行人卷積向量
        向量的分解
        基于3D-Winograd的快速卷積算法設計及FPGA實現
        毒舌出沒,行人避讓
        意林(2021年5期)2021-04-18 12:21:17
        聚焦“向量與三角”創(chuàng)新題
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        路不為尋找者而設
        揚子江(2019年1期)2019-03-08 02:52:34
        基于傅里葉域卷積表示的目標跟蹤算法
        我是行人
        向量垂直在解析幾何中的應用
        向量五種“變身” 玩轉圓錐曲線
        男人的天堂一区二av| 波多野结衣国产一区二区三区| 日韩啪啪精品一区二区亚洲av| 国产av午夜精品一区二区入口| 偷拍综合在线视频二区| 99久久精品日本一区二区免费| 中国大陆一级毛片| 一级一片内射在线播放| 一本色道久久88加勒比一| 手机在线观看日韩不卡av| 午夜蜜桃视频在线观看| 亚洲精品视频在线一区二区| 亚洲avav天堂av在线网爱情| 欧美精品一级| 日本伦理美乳中文字幕| 国产香蕉一区二区三区| 99精品国产综合久久麻豆| 少妇人妻综合久久中文字幕| 免费人成再在线观看视频 | 综合网五月| 日韩免费小视频| 国产欧美另类精品久久久| 国产精品中文字幕日韩精品| 亚洲国产精品成人久久久| 久久精品国产亚洲av蜜臀| 蜜桃一区二区三区在线看| 国产女主播在线免费观看| 亚洲一区二区三区,日本| 无码国产精品一区二区免费模式| 国产成人综合亚洲看片| yw尤物av无码国产在线观看| 小12萝8禁在线喷水观看| 亚洲中文字幕在线爆乳| 亚洲情精品中文字幕99在线| 日本一本免费一二区| 97精品依人久久久大香线蕉97| 久久久久久久久中文字幕| 亚洲视频专区一区二区三区| 亚洲va久久久噜噜噜久久男同| 中文字幕在线码一区| 91精品亚洲一区二区三区|