亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于 HOG和Haar-like特征融合的人體動作識別方法

        2020-04-21 11:43:16秦秋雨
        福建質(zhì)量管理 2020年7期
        關(guān)鍵詞:特征向量直方圖分類器

        秦秋雨

        (南京郵電大學(xué)通信與信息工程學(xué)院 江蘇 南京 210003)

        引言

        面對大量視頻數(shù)據(jù),如何利用自動分析視頻中內(nèi)容已儼然成為當(dāng)下一個熱門的研究課題,并引起計算機視覺領(lǐng)域?qū)W者們的廣泛關(guān)注。隨著各種智能設(shè)備的生產(chǎn)和發(fā)展,人類除了對智能機器設(shè)備更加關(guān)注外,對人體動作的識別也越來越重視。目前,人體動作識別的研究,逐漸成為了機器視覺領(lǐng)域中非常重要的研究課題。隨著科學(xué)技術(shù)的發(fā)展,人臉、手勢和指紋識別等視覺技術(shù)已經(jīng)廣泛應(yīng)用于我們生活的方方面面中,這些技術(shù)為人體動作識別帶來了巨大的動力。近年來,一些較快的動作特征提取方法被提出來并由一些計算機視覺領(lǐng)域的學(xué)者不斷地優(yōu)化改進,比如方向梯度直方圖(HOG)[9],局部二值模式(LBP)[10],Haar-like特征[3],卷積神經(jīng)網(wǎng)絡(luò)(CNN)[1]等等。

        現(xiàn)為解決單一特征下進行人體動作識別的準(zhǔn)確率較低且容易受到外部環(huán)境影響的問題,提出一種基于HOG和Haar-like特征融合的人體動作識別方法。為了驗證本文設(shè)計方法的有效性,進行了對比測試。將本文中所涉及的方法與一些傳統(tǒng)特征提取方法進行對比,結(jié)果表明,本文中的方法具有更高的識別準(zhǔn)確率。

        一、動作識別算法

        多特征融合的方式既能保留各種特征有效的識別信息,又可以在一定的程度上去除各種特征冗余無效的部分。之前融合特征的方法大多是直接將兩組特征向量通過串行方式合并成新的特征向量。但是這種方式存在很多弊端,直接合并后的特征向量為數(shù)是未合并之前多種特征向量的維數(shù)之和,由此會導(dǎo)致特征向量的維數(shù)變多。為了解決這種問題,本文利用離散 K-L 變換的方式,對開始所提取出來的兩種特征進行信息的壓縮,從而實現(xiàn)特征向量的有效融合,同時減少特征向量維數(shù)。

        (一)方向梯度直方圖

        方向梯度直方圖特征用于在機器視覺和圖像識別及處理中用來進行物體檢測。在視頻中截取出圖像后,它計算并統(tǒng)計圖像各個區(qū)域的方向梯度直方圖以此來形成特征。為了減少光照因素的影響,首先需要將圖像進行灰度化?;叶然蟮膱D像,將其進行Gamma校正,并做顏色空間歸一化處理。

        I(x,y)=I(x,y)gamma

        (1)

        其中,gamma值取0.5。進行公式中的計算之后,圖像中像素點(x,y)的梯度為:

        Gx(x,y)=H(x+1,y)-H(x-1,y)

        (2)

        Gy(x,y)=H(x,y+1)-H(x,y-1)

        (3)

        其中,在圖像的像素點(x,y)處,Gx(x,y)為水平方向梯度函數(shù),Gy(x,y)為垂直方向梯度函數(shù),H(x,y)為像素值函數(shù)。然后,將上述圖像劃分為各個部分區(qū)域,每一個區(qū)域的尺寸現(xiàn)定為8×8像素。將各個區(qū)域中的梯度方向按照360度劃分成9個方向,接著計算出每一個方向的九維特征向量值以此得到每個方向的梯度直方圖。接著我們將各個區(qū)域組合稱為最終的區(qū)間。最后,我們將每個區(qū)間中劃分的各個區(qū)域中的特征向量采用串聯(lián)的方式連接起來就得到了該區(qū)間的HOG特征。

        (二)Haar-like特征

        首先,提取圖像中的所有聚合通道的特征。聚合通道特征是指聚合圖像中10個通道的特征,其中這10個通道為:LUV顏色的3個顏色通道、1個梯度幅度的通道以及6 個方向梯度直方圖的通道。在計算得出這10個通道特征之后,我們分別提取出這10個特征的Haar-Like 特征[10]。Haar-Like 特征的提取方式如下所示:

        1.將各個通道中的特征圖分割為若干60×60像素的局部圖像區(qū)域塊。

        2.使用滑窗方法在Haar-Like 特征的模板基礎(chǔ)上提取上述步驟中每個區(qū)域塊中各個位置的Haar-Like 特征。Haar-Like特征圖上位置(x,y)權(quán)重矩陣生成方法如下

        W(x,y,w)=Fmodel(m)*C(x,y,m)

        (4)

        上式中m為Haar-Like特征的尺寸,F(xiàn)model(m) 是尺寸為 m 的特征模板,特征模板Fmodel(m)中,權(quán)重是1的計算單元為增性算子,權(quán)重是-1的計算單元為減性算子,權(quán)重是0的計算單元為中性算子。C(x,y,m) 為聚合通道特征.

        圖上起始位置為(x,y) 尺寸為 m 的矩形區(qū)域。?表示的 是兩個相同尺寸矩陣逐個元素相乘運算,W(x,y,m) 為Fmodel(m) 與C(x,y,m)兩個矩陣內(nèi)元素逐個相乘的結(jié)果,即 為特征圖坐標(biāo)為(x,y) 處的權(quán)重矩陣。

        3.根據(jù)每一個位置的權(quán)重矩陣,計算出整個 Haar-Like 特征圖,特征圖上每一個位置的特征值的大小與該位置上權(quán)重矩陣的關(guān)系

        (5)

        式中F(x,y,m) 為 Haar-Like 特征圖上位置為(x,y) 上,尺寸大小為 m 的某一個 Haar-Like 特征值。sum(Wadd(x,y,m))為該 Haar-Like 特征內(nèi)增性算子在W(x,y,m)對應(yīng)位置 權(quán)重的和。sum(Wdec(x,y,m)) 為該 Haar-Like 特征內(nèi)減性算子在W(x,y,m)對應(yīng)位置權(quán)重的和。中性算子對應(yīng)的一階特征值則不做處理。Numadd和Numdec則分別為該Haar-Like 特征內(nèi)增性算子以及減性算子的個數(shù)。

        (三)分類器

        支持向量機(SVM)[11-13]是解決小樣本模式識別問題的有效方法,其基本原理是通過用核函數(shù)將輸入樣本空間非線性變換到一個高維空間,然后在這個高維空間求廣義最優(yōu)分類超平面SVM 是針對兩類問題提出來的,為實現(xiàn)對多個類別的識別,需要對 SVM 進行相應(yīng)的改進。目前,已經(jīng)提出多種方法將SVM 推廣到多類分類問題,如用多個兩類分類器來實現(xiàn)多類分類,或者用層次型兩類分類器實現(xiàn)多類分類等。在行為識別中 SVM 常用核函數(shù)用線性核、直方圖交叉核和χ2核,本文中綜合考慮 SVM 分類的精度和計算復(fù)雜這兩個因素,并且通過實驗比較,采用直方圖交叉核作為分類器的 核函數(shù),具體表達式如下:

        (6)

        其中:Xi、Xj為兩個任意的特征向量,an、bn分別為Xi、Xj第 n維的特征值;m 為特征向量的維度。與其他兩個核函數(shù)相比,直方圖交叉核具有計算復(fù)雜度低、分類效果好的特點。將最終量化得到的特征向量輸入基于直方圖交叉核的SVM 進行訓(xùn)練,得到分類器,采用同樣的方法獲取測試集特征后用該訓(xùn)練好的分類器進行預(yù)測,最終實現(xiàn)行為識別。

        (四)算法步驟

        (1)在人體動作數(shù)據(jù)庫集KTH和YouTube中分別選取一段視頻,然后提取出視頻幀圖像,并對圖像進行灰度化及規(guī)范化處理。

        (2)將處理過后的圖像分別進行HOG特征及Haar-like特征的提取,得到HOG特征及Haar-like特征集,并使用離散K-L變換的方式進行特征融合,得到最終的特征集。

        (3)使用SVM分類器對上面得到的特征集進行人體動作分類識別。

        二、實驗分析

        本文利用 YouTube數(shù)據(jù)庫和KTH數(shù)據(jù)庫進行實驗評估,實驗在Matlab 2019b的環(huán)境中進行。Weizmann數(shù)據(jù)庫一共包括90段視頻,這些視頻分別由 9個人執(zhí)行10個不同的動作,視頻的背景,視角以及攝像頭都是靜止的。實驗采取留一法交叉驗證,即依次把每個人的10種動作作為測試樣本,剩下的所有動作作為訓(xùn)練樣本,整個實驗過程重復(fù)10次。手、拳擊、慢跑、快跑和走。每種動作由25個人在4 個不同場景中完成,合計將近600段視頻,是一個數(shù)據(jù)量相對較大的數(shù)據(jù)庫,數(shù)據(jù)庫的視頻樣本中包含了尺度變化、光照變化、著裝變化等。本實驗從數(shù)據(jù)庫中隨機抽取15個人的視頻作為測試樣本,剩余的10 個人作為訓(xùn)練樣本。分別隨機在上述兩種數(shù)據(jù)庫的每種人體動作中選取了50張圖像數(shù)據(jù),隨機選初40張作為本次實驗的訓(xùn)練集,剩下的 10 張圖像則作為測試集。

        表1 各種人體動作識別方法準(zhǔn)確率對比

        三、結(jié)束語

        提出了一種基于HOG和Haar-like特征融合的人體動作識別方法。HOG特征是用來計算局部圖像梯度的方向信息的統(tǒng)計值,Haar特征是一種反映圖像的灰度變化的,像素分模塊求差值的一種特征。單獨特征來看,Haar特征識別準(zhǔn)確度較高。實驗結(jié)果證明,兩種特征融合的動作識別效果比單一特征識別效果都要好。

        猜你喜歡
        特征向量直方圖分類器
        統(tǒng)計頻率分布直方圖的備考全攻略
        二年制職教本科線性代數(shù)課程的幾何化教學(xué)設(shè)計——以特征值和特征向量為例
        符合差分隱私的流數(shù)據(jù)統(tǒng)計直方圖發(fā)布
        克羅內(nèi)克積的特征向量
        用直方圖控制畫面影調(diào)
        一類特殊矩陣特征向量的求法
        BP-GA光照分類器在車道線識別中的應(yīng)用
        電子測試(2018年1期)2018-04-18 11:52:35
        EXCEL表格計算判斷矩陣近似特征向量在AHP法檢驗上的應(yīng)用
        加權(quán)空-譜與最近鄰分類器相結(jié)合的高光譜圖像分類
        結(jié)合模糊(C+P)均值聚類和SP-V-支持向量機的TSK分類器
        性高朝久久久久久久| 亚洲男人综合久久综合天堂| 999精品无码a片在线1级| 99国内精品久久久久久久| 亚洲国产成人AV人片久久网站 | 亚洲色欲色欲www成人网| 亚洲人成精品久久熟女| 国产对白国语对白| 成人亚洲性情网站www在线观看| 99久久久国产精品丝袜| 国产乱人伦偷精品视频还看的| 亚洲日韩中文字幕在线播放| 久久不见久久见免费视频7| 韩日无码不卡| 伊人久久大香线蕉av不变影院| 欧美人与禽2o2o性论交| 亚洲国产一区二区三区亚瑟| 中文字幕在线一区乱码| 亚洲国产精品中文字幕久久| 国产真实乱对白精彩久久老熟妇女| 久久精品免费一区二区喷潮| 精品亚洲视频免费观看网站| 亚洲国产精品高清一区| 国精品无码一区二区三区在线 | 亚洲高清国产拍精品熟女| 日韩亚洲精品国产第二页| 久久和欧洲码一码二码三码| 欧美人与禽交zozo| 少妇太爽高潮在线播放| 国产亚洲美女精品久久久2020| 亚洲综合无码一区二区三区 | 亚洲一区二区av天堂| 大ji巴好深好爽又大又粗视频| 毛茸茸性xxxx毛茸茸毛茸茸| 色人阁第四色视频合集网| 丰满人妻猛进入中文字幕| 天堂国精产品2023年| 亚洲av日韩片在线观看| 亚洲国产精品自拍成人| 乱人妻中文字幕| 日韩秘 无码一区二区三区|