亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)YOLO v3的相似外部特征人員檢測算法

        2020-04-29 03:58:16梁思源羅凡波徐桂菲
        關(guān)鍵詞:灰度分量顏色

        梁思源,王 平,羅凡波,徐桂菲,王 偉

        (西華大學(xué) 電氣與電子信息學(xué)院,四川 成都 610039)

        0 引言

        計(jì)算機(jī)視覺是指用計(jì)算機(jī)實(shí)現(xiàn)人的視覺功能,希望能根據(jù)感知到的圖像(視頻) 對(duì)實(shí)際的目標(biāo)和場景內(nèi)容做出有意義的判斷[1].隨著計(jì)算機(jī)視覺技術(shù)的發(fā)展,智能視屏監(jiān)控已經(jīng)成為一個(gè)熱門的研究領(lǐng)域.近年來計(jì)算機(jī)硬件技術(shù)尤其是GPU技術(shù)的飛速發(fā)展,使得深度學(xué)習(xí)已經(jīng)在視屏監(jiān)控領(lǐng)域占據(jù)了不可替代的位置.但是現(xiàn)在針對(duì)相似外部特征人員的檢測算法還相對(duì)較少,而公共場所多個(gè)相似特征人員的聚集往往預(yù)示著異常情況的發(fā)生.就此現(xiàn)狀筆者針對(duì)大霧和強(qiáng)曝光天氣下的外部特征相似人員提出一種基于深度學(xué)習(xí)的檢測算法.

        深度學(xué)習(xí)不需要人工對(duì)目標(biāo)的特征進(jìn)行設(shè)計(jì)和提取,而是由機(jī)器自動(dòng)地學(xué)習(xí)獲得.這種自動(dòng)學(xué)得的特征具有很好的泛化能力與魯棒性[2].但是深度學(xué)習(xí)的分類結(jié)果受訓(xùn)練樣本的影響較大,尤其是在大霧和強(qiáng)曝光之下,圖像的特征丟失嚴(yán)重,會(huì)導(dǎo)致最后的分類效果并不理想.因此筆者對(duì)自建數(shù)據(jù)庫中質(zhì)量不佳的訓(xùn)練樣本進(jìn)行了暗通道去霧算法處理,得到更優(yōu)質(zhì)的樣本模型進(jìn)行訓(xùn)練[3].該算法是一種實(shí)用性很強(qiáng)的算法,該算法作者還在2015年提出了Fast Guided Filter,筆者采用結(jié)合了Fast Guided Filter的暗通道去霧算法,實(shí)驗(yàn)表明該算法在去霧的同時(shí)保留了更多的目標(biāo)人物的邊緣細(xì)節(jié),為后期的圖像特征提取也保留了很多有價(jià)值的特征信息.

        行人檢測作為目標(biāo)檢測的一個(gè)重要分支,經(jīng)過幾十年的發(fā)展已經(jīng)在檢測的速度和精度上取得了很大的進(jìn)步,很多方法已經(jīng)完全能夠達(dá)到視屏級(jí)的實(shí)時(shí)性.傳統(tǒng)方法采用人工設(shè)計(jì)的特征提取器來提取特征并對(duì)分類器進(jìn)行訓(xùn)練.例如通過提取Haar特征、HOG(Histogram of Oriented Gradient)特征 、LBP(Local Binary Pattern)特征等進(jìn)行訓(xùn)練.其中文獻(xiàn)[4]采用HOG+LBP特征處理行人的遮擋問題,提高了檢測的準(zhǔn)確率.但由于人體的柔性特征和人群中的遮擋問題,人工設(shè)計(jì)的行人特征很難適應(yīng)行人的大幅度變化[5].筆者采用經(jīng)過去霧處理的自建數(shù)據(jù)集對(duì)改進(jìn)的YOLO v3網(wǎng)絡(luò)進(jìn)行訓(xùn)練,并將得到的結(jié)果與HOG+SVM方法進(jìn)行對(duì)比,結(jié)果證明在實(shí)時(shí)性和準(zhǔn)確性方面該方法均優(yōu)于傳統(tǒng)的HOG+SVM方法.

        提取出目標(biāo)人員之后再對(duì)其進(jìn)行特征的提取.很多相關(guān)研究已經(jīng)在顏色、形狀和紋理特征這幾方面展開,其中效果相對(duì)較好的特征主要為顏色與紋理的特征.常見的顏色空間有RGB顏色空間、HSV空間和YUV空間.目前已有方法對(duì)RGB空間分量和YUV空間分量的特點(diǎn)和優(yōu)勢進(jìn)行綜合并進(jìn)行特征提取[6].紋理特征經(jīng)過多年的發(fā)展,已經(jīng)發(fā)展出灰度共生矩陣(CLCM)、灰度行程長度法(gray level run length)、自相關(guān)函數(shù)法等,同時(shí)隨著應(yīng)用領(lǐng)域的不斷擴(kuò)大和新理論如分形理論、馬爾科夫隨機(jī)場(MRF)理論、小波理論等的引入,又不斷壯大了紋理特征提取的研究[7].但是由于提取出的特征往往具有較高的維度,因此處理這些數(shù)據(jù)所消耗的時(shí)間可能會(huì)較長,對(duì)于視屏監(jiān)控的實(shí)時(shí)性不能滿足.但如果為了提高處理速度而降低特征維度又會(huì)導(dǎo)致錯(cuò)誤率的增加,不能適應(yīng)復(fù)雜的場景,抗噪能力不足.

        筆者基于人類視覺特征對(duì)圖像感知的3個(gè)特性提出自適應(yīng)顏色特征提取方法,顏色特征上使用RGB和HSV分別描述,因此在降低特征維度的情況下依然能獲得較好的效果,并在此基礎(chǔ)上使用灰度直方圖、灰度共生矩陣、小波變換來獲取多個(gè)新的紋理特征,用于更好地檢測外部相似特征.最后將獲取的特征放入極限學(xué)習(xí)機(jī)(ELM)中進(jìn)行分類.實(shí)驗(yàn)結(jié)果表明本文算法能在個(gè)體目標(biāo)相似度上取得較好效果,優(yōu)于傳統(tǒng)的相似度匹配算法.

        1 暗通道去霧處理

        為了提高圖像的質(zhì)量,減小大霧天氣和強(qiáng)曝光天氣對(duì)訓(xùn)練所造成的影響,提高檢測的準(zhǔn)確度和魯棒性,首先對(duì)得到的數(shù)據(jù)集進(jìn)行暗通道去霧處理.

        1.1 暗通道定義

        暗通道是指在圖片中,除去天空、海洋等大面積單色區(qū)域,一些像素會(huì)出現(xiàn)一個(gè)或多個(gè)顏色通道的值很低的現(xiàn)象.對(duì)于一幅輸入圖像J,它的暗通道可以用式(1)表達(dá):

        (1)

        其中Jc表示彩色圖像的每個(gè)通道,Ω(x)表示以像素x為中心的一個(gè)窗口.r、g、b表示圖像的3個(gè)通道[8].暗通道先驗(yàn)的理論指出:

        Jdark→0 .

        (2)

        1.2 暗通道去霧原理

        在計(jì)算機(jī)視覺中常用公式(3)來表示霧圖形成模型.

        I(x)=J(x)t(x)+[A(1-t(x))].

        (3)

        式中,I(x)表示現(xiàn)有未去霧圖像,J(x)表示要得到的去霧后圖像,A表示全球大氣光成分,t(x)表示透射率.為得到方程的解,將(3)式變化為(4)式.

        (4)

        這里的c表示RGB三個(gè)通道,為了得到我們定義的暗通道,求c的最小值得到式(5):

        (5)

        由前述暗原色先驗(yàn)理論可得

        (6)

        由此可得

        (7)

        將(7)代入(5)中可得

        (8)

        空氣中的顆粒和霧感能給人帶來一定的景深效果,這里筆者在(8)中引入一個(gè)[0,1]之間的數(shù)來保留一定的霧,本文仿真取值為0.95.

        (9)

        而全球大氣光A的求取,筆者借助于暗通道圖來從有霧圖像中獲取該值.目前A值的求取主要分為以下兩種方法:1、從暗通道圖中按照亮度的大小取前0.1%的像素[8];2、在這些位置中,在原始有霧圖像I中尋找對(duì)應(yīng)的具有最高亮度的點(diǎn)的值,作為A值.當(dāng)投射圖的t值很小時(shí),會(huì)導(dǎo)致J值偏大,從而使得圖像整體向白場過渡,因此一般可設(shè)置一閾值t0,當(dāng)t值小于t0時(shí),令t=t0,本文中所有效果圖均以t0=0.1為標(biāo)準(zhǔn)計(jì)算.因此,最終去霧公式如下:

        (10)

        1.3 導(dǎo)向?yàn)V波算法

        導(dǎo)向?yàn)V波算法是通過一個(gè)引導(dǎo)圖像I來對(duì)p進(jìn)行濾波而得到q,其數(shù)學(xué)公式為

        (11)

        Wij(I)表示由引導(dǎo)圖像I來確定加權(quán)平均運(yùn)算中所采用的權(quán)值.

        噪聲的特點(diǎn)通常是以其為中心的各個(gè)方向上梯度都較大而且相差不多.邊緣則不同,邊緣相比于區(qū)域也會(huì)出現(xiàn)梯度的躍變,但是邊緣只有在其法向方向上才會(huì)出現(xiàn)較大的梯度,而在切向方向上梯度較小.相比普通平滑和高斯平滑,導(dǎo)向?yàn)V波的加入能保護(hù)更多的邊緣信息,使后期算法能學(xué)習(xí)到更好的模型,同時(shí)也保留了更多的紋理特征.

        Fast Guided Filter[9]是何凱明博士于2015年提出的一種很實(shí)用的更快速的導(dǎo)向?yàn)V波流程.其本質(zhì)是通過下采樣減少像素點(diǎn),計(jì)算meana和meanb后進(jìn)行上采樣恢復(fù)到原有的尺寸大小.導(dǎo)向?yàn)V波的時(shí)間復(fù)雜度為O(N),其中N為像素點(diǎn)的個(gè)數(shù).假設(shè)縮放比例為s,那么縮小后像素點(diǎn)的個(gè)數(shù)為N/s2,那么時(shí)間復(fù)雜度變?yōu)镺(N/s2).去霧效果如圖1~3所示.

        圖1 原圖圖2 未加入Fast Guided Filter的暗通道去霧效果圖圖3 加入Fast Guided Filter后的暗通道去霧效果圖

        2 目標(biāo)檢測

        2.1 YOLO算法

        YOLO v3[10]作為目前最優(yōu)秀的目標(biāo)檢測框架之一,其實(shí)時(shí)性相比之前的RCNN[11]、SPP-Net[12]、Fast-RCNN[13]、Faster-RCNN[14]都有很大的進(jìn)步.YOLO的核心思想是利用整張圖片作為輸出,直接在輸出層回歸bounding box(邊界框)的位置及其所屬的類別.首先將一幅圖片分割成7×7個(gè)網(wǎng)格(grid cell),再對(duì)目標(biāo)進(jìn)行檢測,如果目標(biāo)中心落在某個(gè)網(wǎng)格中,網(wǎng)格就負(fù)責(zé)對(duì)該目標(biāo)進(jìn)行預(yù)測.預(yù)測的候選框還需要預(yù)測一個(gè)confidence值來判別目標(biāo)是否存在[5].

        confidence=Pr(Object)×IOUTruthPred.

        (12)

        如果有目標(biāo)落在一個(gè)網(wǎng)格里,那么Pr(Object)值取1,否則取0.IOUTruthPred是預(yù)測的bounding box和實(shí)際的groundtruth之間的交并比.

        (13)

        在預(yù)測時(shí),每個(gè)候選框的分類置信分?jǐn)?shù)為預(yù)測目標(biāo)的類別概率和bounding box預(yù)測的confidence信息相乘.

        Conf=Pr(Classi|Object)× Pr(Object)×IOUTruthPred.

        (14)

        得到每個(gè)分類置信分?jǐn)?shù)之后,設(shè)置閾值將得分低的boxes篩除掉,就得到最終的檢測結(jié)果.

        但是由于YOLO的全連接層輸入輸出的特征向量必須固定長度,所以YOLO只能接收固定尺寸的圖片.當(dāng)物體占畫面比例較小的時(shí)候,有可能會(huì)出現(xiàn)一個(gè)格子包含多個(gè)目標(biāo)物體,但是YOLO這時(shí)只能檢測出其中一個(gè).

        2.2 YOLO算法的改進(jìn)

        目前大多數(shù)神經(jīng)網(wǎng)絡(luò)的改進(jìn)趨勢都是往更大更深的網(wǎng)絡(luò)發(fā)展.通常情況下層級(jí)更多的神經(jīng)網(wǎng)絡(luò)往往能在實(shí)際情況中學(xué)習(xí)到更多的細(xì)節(jié)從而達(dá)到更好的效果.YOLO v2[15]并沒有致力于加深神經(jīng)網(wǎng)絡(luò)的層數(shù),而是通過Batch Normalization、High resolution classifier、Multi-Scale Training等方法使其在保持原有速度的同時(shí)提高了精度.整個(gè)網(wǎng)絡(luò)應(yīng)用了Darknet-19的網(wǎng)絡(luò)架構(gòu),包含19個(gè)卷積層和5個(gè)max pooling層,卷積的計(jì)算量相較于YOLO大大減少.YOLO v3[10]采用了Darknet-53的基礎(chǔ)網(wǎng)絡(luò)結(jié)構(gòu),在保證速度的同時(shí)又再一次大大提高了精確度.

        Darknet-53網(wǎng)絡(luò)結(jié)構(gòu)借鑒了殘差網(wǎng)絡(luò)residual network的做法,在一些層之間設(shè)置了快捷鏈路(shortcut connections).圖4左側(cè)的1、2、8等數(shù)字表示殘差組件的個(gè)數(shù),每個(gè)殘差組件有兩個(gè)卷積層和一個(gè)快捷鏈路.同時(shí)還采用多尺度預(yù)測方案,針對(duì)COCO數(shù)據(jù)集,YOLO v3設(shè)計(jì)了9個(gè)不同大小的預(yù)測框,將其按照大小均分給3個(gè)尺度.

        但是YOLO算法的預(yù)測框均是建立在COCO數(shù)據(jù)集的基礎(chǔ)之上的.種類較多,尺寸比例差異較大,筆者僅在INRIA數(shù)據(jù)集上對(duì)行人進(jìn)行檢測和識(shí)別.因此筆者在設(shè)計(jì)預(yù)測框時(shí)對(duì)INRIA數(shù)據(jù)集進(jìn)行了K-means方法聚類.最后對(duì)INRIA數(shù)據(jù)集的聚類結(jié)果,取消了YOLO v3原來在三個(gè)維度上的輸出檢測,而直接將anchor boxes的個(gè)數(shù)和寬高維度設(shè)定為聚類所得到的結(jié)果.

        圖4 Darknet-53網(wǎng)絡(luò)結(jié)構(gòu)

        從圖5中可以看出簇K值在等于4之后逐漸趨于平穩(wěn).所以筆者將變化的拐點(diǎn)定為最佳a(bǔ)nchor boxes的數(shù)量.實(shí)驗(yàn)證明聚類后的預(yù)測框大大縮短了訓(xùn)練的收斂時(shí)間,同時(shí)還可以消除候選框帶來的誤差.

        圖5 K-means聚類分析結(jié)果

        2.3 目標(biāo)檢測結(jié)果分析

        筆者采用深度學(xué)習(xí)架構(gòu)YOLO-Darknet53 搭建仿真的運(yùn)行環(huán)境,并配置NVIDIA的CUDA 環(huán)境進(jìn)行GPU 并行加速計(jì)算.圖6是訓(xùn)練過程平均損失變化的對(duì)比.

        圖6 平均損失值變化比較

        仿真實(shí)驗(yàn)中每輪迭代從處理后的訓(xùn)練集里隨機(jī)抽batch=64個(gè)樣本進(jìn)行訓(xùn)練,由于本次實(shí)驗(yàn)采用的顯卡為2G顯存,為了減輕內(nèi)存占用壓力,每輪的64個(gè)樣本又被均分為 subdivision = 16 次送入網(wǎng)絡(luò)參與訓(xùn)練.同時(shí)采用分步學(xué)習(xí)策略,為了提高學(xué)習(xí)效率,又避免過擬合現(xiàn)象,筆者將最初的學(xué)習(xí)率定為10×0.001,在15 000次迭代后,學(xué)習(xí)率更改為0.1×0.001,30 000次后再更改為上次更改后的0.1倍,最終,經(jīng)過40 000次迭代,YOLO v3平均損失值最后保持在0.042 2.而經(jīng)改進(jìn)后的YOLO v3平均損失值可以達(dá)到0.36.并且從圖中可以明顯地看出經(jīng)K-means方法聚類出預(yù)測框的YOLO v3算法收斂速度更快.算法對(duì)比效果見圖7~9.

        圖7 HOG+SVM目標(biāo)識(shí)別效果

        圖8 YOLO v3目標(biāo)識(shí)別效果

        圖9 本文算法目標(biāo)識(shí)別效果

        3 圖像特征提取

        3.1 顏色特征的提取

        顏色通常是用3個(gè)獨(dú)立的屬性來描述,常見的顏色空間有RGB、HSV和YUV.3種顏色空間各有自己的特點(diǎn)和優(yōu)勢,RGB顏色空間是通過3種不同顏色的分量疊加形成任何顏色的光,RGB表示的物理意義很清晰,但是不能很好地適應(yīng)人的視覺特點(diǎn).而HSV空間則能夠描述人看到物體時(shí)所使用的色調(diào)、飽和度和明度.YUV主要用于優(yōu)化彩色視頻信號(hào)的傳輸.筆者使用RGB與HSV分別描述前景個(gè)體顏色特征.

        在RGB顏色空間提取R分量平均值μR、G分量平均值μG、B分量平均值μB、RGB平均值μRGB、RGB標(biāo)準(zhǔn)差σRGB5個(gè)顏色特征值.

        分別提取目標(biāo)對(duì)象的R、G、B 3個(gè)分量各自的平均值μλ:

        (15)

        式中分別取R、G、B,Nobj為提取目標(biāo)對(duì)象后圖像的像素?cái)?shù),Iλ(i,j)為像素點(diǎn)(i,j)的λ分量,得μR、μG、μB三值.

        RGB平均值:

        (16)

        式中IRGB(i,j)為像素點(diǎn)(i,j)的RGB平均值,得到μRGB.

        RGB標(biāo)準(zhǔn)差:

        (17)

        得到σRGB.

        在HSV空間用同樣方法提取H分量平均值μH、S分量平均值μS、V分量平均值μV、HSV平均值μHSV、HSV標(biāo)準(zhǔn)差σHSV5個(gè)顏色特征值.

        由RGB顏色特征組成的五維向量標(biāo)記為:

        Vrgb=(μR,μG,μB,μRGB,σRGB) .

        由HSV顏色特征組成的五維向量標(biāo)記為:

        Vhsv=(μH,μS,μV,μHSV,σHSV) .

        3.2 紋理特征的提取

        筆者采用統(tǒng)計(jì)理論與小波變換2種方法對(duì)紋理特征進(jìn)行描述.一副圖像的灰度圖像由無數(shù)灰度值的像素點(diǎn)組成,灰度直方圖能夠直觀地表現(xiàn)圖像中灰度分布情況,包含了大量的圖像特征.筆者基于灰度直方圖提取了均值m、標(biāo)準(zhǔn)方差σ、平滑度R、三階矩μ3、一致性U、熵e.

        (18)

        (19)

        (20)

        (21)

        (22)

        式中L是灰度級(jí)數(shù),zi表示第i個(gè)灰度級(jí),p(zi)是歸一化直方圖灰度級(jí)分布中灰度為zi的概率.將6個(gè)特征組合成六維特征向量Vgh:

        Vgh(m,σ,R,μ3,U,e) .

        (23)

        灰度共生矩陣是相距一定距離的兩個(gè)特定灰度值的像素同時(shí)出現(xiàn)的矩陣表達(dá)形式.它描述了空間位置上特定兩個(gè)像素點(diǎn)之間的聯(lián)合分布,包含了大量的圖片紋理特征信息.但是由于數(shù)據(jù)量較大,一般會(huì)基于其構(gòu)建一些統(tǒng)計(jì)量作為分類特征.筆者基于灰度共生矩陣的特征,提取了能量ASM、對(duì)比度CON、相關(guān)COR和熵ENT,并求取四個(gè)特征的均值和標(biāo)準(zhǔn)差組成八維向量Vcm.

        (24)

        (25)

        (26)

        (27)

        式中:

        P(i,j,d,θ)={P[(x,y),(x+Dx,y+Dy)]|f(x,y)=i;f((x+Dx,y+Dy)=j} ,

        (28)

        Dx、Dy是位置偏移量,d為共生矩陣的生成步長,θ為共生矩陣的生成方向.由以上4個(gè)特征:能量、對(duì)比度、相關(guān)和熵的均值、標(biāo)準(zhǔn)差組成八維向量,記為Vcm.

        Vcm=(ASMm,ASMσ,CONm,CONσ,CORm,CORσ,ENTm,ENTσ) .

        (29)

        本文在小波變換的描述上基于小波系數(shù)能量WE對(duì)目標(biāo)灰度通道進(jìn)行兩層小波分解,得到6個(gè)子細(xì)節(jié)圖的平均能量向量WEgrey.其中:

        (30)

        WEgrey=(WEgreyhl2,WEgreylh2,WEgreyhh2,WEgreyhl1,WEgreylh1,WEgreyhh1) .

        (31)

        式中:m×n為圖像像素大小;w(i,j)為對(duì)應(yīng)點(diǎn)的小波系數(shù);WEgreyhl1,WEgreylh1,WEgreyhh1分別為灰度通道小波分解的第1層垂直分量、水平分量和對(duì)角系數(shù)能量;WEgreyhl2,WEgreylh2,WEgreyhh2分別為灰度通道小波分解的第2層垂直分量、水平分量和對(duì)角系數(shù)能量.

        3.3 特征向量組合

        為了對(duì)比不同特征向量組合對(duì)具有相似外部特征人員檢測的效果,筆者對(duì)提取到的特征進(jìn)行不同的編組,得到不同的特征組如下:

        F1=(Vrgb,Vhsv) ,

        (32)

        F2=(Vrgb,Vhsv,Vgh) ,

        (33)

        F3=(Vrgb,Vhsv,Vcm) ,

        (34)

        F4=(Vrgb,Vhsv,WEgrey) ,

        (35)

        F5=(Vrgb,Vhsv,Vgh,Vcm,WEgrey) .

        (36)

        4 基于極限學(xué)習(xí)機(jī)的特征分類

        極限學(xué)習(xí)機(jī)(Extreme Learning Machine)[16]是由黃廣斌教授提出的求解單隱層前饋神經(jīng)網(wǎng)絡(luò)的算法.其核心內(nèi)容是輸入層與隱藏層之間的權(quán)值參數(shù)求解,以及隱藏層的偏置參數(shù)的求解,其求解過程也較簡單,可劃歸為求解一個(gè)矩陣的廣義逆的問題.在保證相同學(xué)習(xí)精度的情況下,與傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)相比也能擁有較快的速度.針對(duì)隱含層與連接層初始值的選取,本文通過rand生成.筆者針對(duì)兩組測試數(shù)據(jù),選取的隱含層神經(jīng)元個(gè)數(shù)為45和50個(gè).

        4.1 極限學(xué)習(xí)機(jī)分類

        1)訓(xùn)練集:給定Q個(gè)不同樣本(xi,ti).其中xi=[xi1,xi2,…,xin]T;ti=[ti1].xi為上述幾種特征組合;ti為一個(gè)標(biāo)簽,表示對(duì)應(yīng)目標(biāo)屬于哪一類人群.

        3)對(duì)經(jīng)過訓(xùn)練的ELM輸入測試視頻,即可對(duì)當(dāng)前視頻中人群類別進(jìn)行分類,將具有共同顏色和紋理特征的人分離出來.

        4.2 算法步驟

        1)針對(duì)兩組不同的測試集,筆者選取的隱含層神經(jīng)元個(gè)數(shù)分別為45和50個(gè),對(duì)ELM在(0,1)區(qū)間采用均勻分布隨機(jī)設(shè)定輸入層與隱含層的鏈接權(quán)值ω與隱含層神經(jīng)元的閾值b.

        2)選擇S函數(shù)作為隱含層神經(jīng)元的激活函數(shù),進(jìn)而計(jì)算隱含層輸出矩陣H;

        使用ELM算法對(duì)提取的顏色特征、紋理特征參數(shù)進(jìn)行分析,對(duì)人群進(jìn)行相似度分類,把人群分為一般人群和具有相似外部特征人群.

        相關(guān)實(shí)驗(yàn)表明,在ELM中許多非線性函數(shù)都可以使用,甚至還可用線性激活函數(shù)分類非線性樣本.針對(duì)本文數(shù)據(jù)集,根據(jù)相關(guān)研究[17],選取Sigmoid函數(shù)作為激活函數(shù)的分類效果優(yōu)于其他函數(shù),隱含層神經(jīng)元個(gè)數(shù)根據(jù)樣本數(shù)的變化而做出改變能獲得較好的分類精度.

        5 實(shí)驗(yàn)分析

        本次仿真基于普通PC機(jī)平臺(tái)(CPU為6500K,3.2 GHz,6.00 GB內(nèi)存,顯存為2 G)完成.YOLO采用深度學(xué)習(xí)架構(gòu)YOLO-Darknet53 搭建仿真的運(yùn)行環(huán)境,并配置NVIDIA的CUDA 環(huán)境進(jìn)行GPU 并行加速計(jì)算.特征提取和分類部分通過MATLAB 2014a編程仿真環(huán)境編寫代碼并進(jìn)行仿真[18].筆者在拍攝的視頻數(shù)據(jù)集里提取了248個(gè)目標(biāo)個(gè)體與紋理特征數(shù)據(jù)作為訓(xùn)練集并做了大量仿真實(shí)驗(yàn),最后選取其中兩幀的仿真結(jié)果對(duì)比圖,并對(duì)仿真整體做了平均準(zhǔn)確率的計(jì)算.

        本文特征分類部分訓(xùn)練集為248個(gè)目標(biāo)個(gè)體,具有相似外部特征的樣本有4組,其中每個(gè)類別含有6個(gè)目標(biāo)個(gè)體.測試集數(shù)據(jù)為77個(gè)目標(biāo)個(gè)體,具有相似外部特征的個(gè)體有2類,每類中有4個(gè)目標(biāo)個(gè)體,其余均為普通個(gè)體.表1為不同的特征組合的人群類別分類準(zhǔn)確率;圖10~14為測試集預(yù)測分類的結(jié)果與真實(shí)值的對(duì)比.在表1中可以看到F1特征組合的識(shí)別率為84.415%,相比于其他組合識(shí)別是最低的,說明在復(fù)雜條件下僅僅依靠顏色特征無法可靠識(shí)別出目標(biāo)個(gè)體,而在一定程度上增加特征數(shù)量可以提高識(shí)別的準(zhǔn)確率.最后一組F5特征組合在實(shí)驗(yàn)條件下達(dá)到了96.104%,該組融合了文中提到的全部特征向量,各種特征之間相互彌補(bǔ)了各自的不足,呈現(xiàn)出較好的仿真效果.ELM作為一種機(jī)器學(xué)習(xí)分類算法,學(xué)習(xí)效率高、泛化能力強(qiáng),相比于傳統(tǒng)單隱層前饋神經(jīng)網(wǎng)絡(luò),在保證精度的前提下速度更快.

        表1 5種特征組合在ELM下的準(zhǔn)確率

        圖10 F1特征組合

        6 結(jié)論

        筆者提出的基于深度學(xué)習(xí)的相似外部特征人員檢測算法利用了加入Fast Guided Filter的改進(jìn)暗通道去霧算法對(duì)拍攝的視頻數(shù)據(jù)集進(jìn)行優(yōu)化,再將經(jīng)過優(yōu)化增強(qiáng)后的樣本圖片投入到經(jīng)K-means方法聚類出預(yù)測框的YOLO v3網(wǎng)絡(luò)框架下進(jìn)行訓(xùn)練.然后用訓(xùn)練出的深度模型提取出需要檢測相似性特征的目標(biāo)人物.最后將目標(biāo)任務(wù)提取多種顏色及紋理特征并結(jié)合ELM對(duì)其進(jìn)行分類.深度學(xué)習(xí)的加入大大降低了由于遮擋和彎曲所造成的目標(biāo)漏檢問題,多特征的應(yīng)用也讓分類準(zhǔn)確率有了極大的保障.目前由于采集到的目標(biāo)人物有限,實(shí)際的目標(biāo)類別和特征都會(huì)遠(yuǎn)大于本文數(shù)量,故本研究成果對(duì)于實(shí)際的精準(zhǔn)分類來講還需要繼續(xù)完善.另外YOLO網(wǎng)絡(luò)對(duì)于圖像中過小的目標(biāo)依然存在漏檢的現(xiàn)象,下一步的工作將考慮根據(jù)特定的環(huán)境改進(jìn)現(xiàn)有神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu),使之更能適應(yīng)當(dāng)前環(huán)境的應(yīng)用.

        圖11 F2特征組合

        圖12 F3特征組合

        圖13 F4特征組合

        圖14 F5特征組合

        猜你喜歡
        灰度分量顏色
        采用改進(jìn)導(dǎo)重法的拓?fù)浣Y(jié)構(gòu)灰度單元過濾技術(shù)
        基于灰度拉伸的圖像水位識(shí)別方法研究
        帽子的分量
        一物千斤
        智族GQ(2019年9期)2019-10-28 08:16:21
        論《哈姆雷特》中良心的分量
        分量
        基于最大加權(quán)投影求解的彩色圖像灰度化對(duì)比度保留算法
        認(rèn)識(shí)顏色
        基于灰度線性建模的亞像素圖像抖動(dòng)量計(jì)算
        特殊顏色的水
        久久久午夜精品福利内容| 东京热加勒比视频一区| 亚洲性无码av中文字幕| 亚洲av色精品国产一区二区三区| 日本人视频国产一区二区三区| 中文字幕av一区二区三区人妻少妇 | 亚洲一区二区三区在线看| 成 人 免 费 黄 色| 在线播放亚洲第一字幕| 国产在线观看免费一级| 日韩女同在线免费观看| 国产精品免费av片在线观看| 日韩无码视频淫乱| 亚洲国产日韩av一区二区 | 大尺度免费观看av网站| 色噜噜狠狠一区二区三区果冻| 国产一毛片| 精品蜜臀国产av一区二区| 色窝窝亚洲av网在线观看| 亚洲熟女乱色一区二区三区| 亚洲中出视频| 青青草手机在线观看视频在线观看 | 无码国产精品一区二区免费网曝| 丝袜人妻中文字幕首页| 乱老年女人伦免费视频| 国农村精品国产自线拍| 日本一区二区国产高清在线播放| av中国av一区二区三区av| 亚洲日韩国产精品乱-久| 视频一区精品自拍| 亚洲精彩av大片在线观看| 免费女人高潮流视频在线观看| 亚洲人成网站77777在线观看| 精品国产一品二品三品| 久久综合伊人77777麻豆| 欧美亚洲日韩国产人成在线播放| 最新福利姬在线视频国产观看| 就爱射视频在线视频在线| 国产 字幕 制服 中文 在线| 亚洲一区二区三区在线观看播放 | 麻豆亚洲一区|