亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)的加權(quán)累積差分法的人體行為識(shí)別

        2015-05-05 13:01:20張治學(xué)
        電視技術(shù) 2015年17期
        關(guān)鍵詞:差分法關(guān)鍵幀分塊

        張治學(xué),陳 曦

        (河南科技大學(xué) 網(wǎng)絡(luò)信息中心,河南 洛陽(yáng) 471023)

        基于改進(jìn)的加權(quán)累積差分法的人體行為識(shí)別

        張治學(xué),陳 曦

        (河南科技大學(xué) 網(wǎng)絡(luò)信息中心,河南 洛陽(yáng) 471023)

        針對(duì)兩幀差分法和三幀差分法難以提取到完整的運(yùn)動(dòng)剪影的問(wèn)題,提出了一種基于改進(jìn)的加權(quán)累計(jì)差分法的人體行為識(shí)別方法。通過(guò)使用改進(jìn)的加權(quán)累計(jì)差分法能通過(guò)計(jì)算幀的相似度,用于對(duì)權(quán)值進(jìn)行自適應(yīng)變化,從而提取到較為完整的人體運(yùn)動(dòng)剪影,然后采用提出的關(guān)鍵幀的模板選取方法和分塊特征提取來(lái)進(jìn)行行為的特征提取,最后利用支持向量機(jī)構(gòu)造分類器進(jìn)行識(shí)別。實(shí)驗(yàn)結(jié)果表明采用改進(jìn)的加權(quán)累積差分法能有效提高人體行為識(shí)別率。

        人體行為識(shí)別;加權(quán)累積差分法;支持向量機(jī)

        當(dāng)今世界處在一個(gè)高度信息化和智能化發(fā)展的階段,隨著視覺(jué)傳感器、人工智能技術(shù)的發(fā)展,以及計(jì)算機(jī)圖形芯片處理速度的提高,使得近些年來(lái)人體行為識(shí)別技術(shù)成為在安保、醫(yī)療、動(dòng)畫(huà)游戲等眾多領(lǐng)域有著廣泛應(yīng)用前景的一個(gè)研究熱點(diǎn),主要應(yīng)用于智能監(jiān)控系統(tǒng),人機(jī)交互界面和運(yùn)動(dòng)分析等。

        有資料表明人類約有80%以上的信息來(lái)源于其視覺(jué)系統(tǒng)[1],視覺(jué)圖像具有直觀、具體的特點(diǎn),是人類獲取外界信息的主要途徑和來(lái)源。由于計(jì)算機(jī)是計(jì)算和存儲(chǔ)設(shè)備,無(wú)法像人類一樣具有直接觀察理解圖像內(nèi)容與含義的能力,所以需要將圖像中所包含的信息提取表示為計(jì)算機(jī)能夠去處理的數(shù)據(jù)結(jié)構(gòu),再通過(guò)模式識(shí)別過(guò)程建立其特征與語(yǔ)義標(biāo)簽之間的映射關(guān)系,從而使得計(jì)算機(jī)能理解圖像的內(nèi)容和含義。因此人體行為識(shí)別一般分為運(yùn)動(dòng)檢測(cè)、特征提取和行為識(shí)別3個(gè)組成部分。

        運(yùn)動(dòng)檢測(cè)是指從視頻圖像中將目標(biāo)的運(yùn)動(dòng)檢測(cè)出來(lái),其目的是為了分割靜態(tài)的背景圖像與發(fā)生了運(yùn)動(dòng)的前景圖像,從而實(shí)現(xiàn)對(duì)運(yùn)動(dòng)目標(biāo)的跟蹤。目前運(yùn)動(dòng)檢測(cè)方法主要有:幀間差分法、背景減除法和光流法[2]。其中背景減除法需要背景建模,能提供較為完整的前景,但算法受環(huán)境影響較大;光流法算法較為復(fù)雜,需要較高的硬件計(jì)算成本。幀間差分法又稱為時(shí)間差分法,其原理是將圖像序列中時(shí)間相鄰的圖像幀所對(duì)應(yīng)的像素進(jìn)行作差,將像素發(fā)生變化較大的提取出來(lái)作為發(fā)生運(yùn)動(dòng)的前景。常用的幀間差分法有兩幀差分法[3]、三幀差分法[4]和加權(quán)累積差分法[5]。幀間差分法通過(guò)對(duì)全局運(yùn)動(dòng)補(bǔ)償并能較好適用于背景發(fā)生變化的情況,但在檢測(cè)過(guò)程中會(huì)發(fā)生孔洞和重疊現(xiàn)象[6],造成無(wú)法提取較為完整的前景圖像。針對(duì)這一問(wèn)題,本文提出一種改進(jìn)的加權(quán)累積差分法,能較為完整地提取人體運(yùn)動(dòng)前景來(lái)用于行為表示,同時(shí)避免背景圖像的噪聲積累。本文還采用關(guān)鍵幀模板選取方法和分塊特征提取方法相結(jié)合,來(lái)提取人體行為圖像統(tǒng)計(jì)特征,最后結(jié)合支持向量機(jī)對(duì)提取人體的行為特征進(jìn)行分類識(shí)別。

        1 加權(quán)累積差分法的改進(jìn)

        在使用兩幀差分法或三幀差分法來(lái)進(jìn)行運(yùn)動(dòng)檢測(cè)時(shí),其獲得前景的完整性往往依賴于圖像幀的選取,如果所選取的鄰近圖像幀之間沒(méi)有發(fā)生明顯的變化,就難以檢測(cè)到相對(duì)完整的運(yùn)動(dòng)前景。因此可以用當(dāng)前圖像幀分別與不同時(shí)刻的圖像幀進(jìn)行兩幀差分,然后將得到幀間差分圖像進(jìn)行加權(quán)累積,從而得到運(yùn)動(dòng)前景。文獻(xiàn)[5,7]采用加權(quán)累積差分法來(lái)進(jìn)行運(yùn)動(dòng)檢測(cè)和分割,取得了良好效果。其中文獻(xiàn)[7]提出了一種基于雙邊加權(quán)的累積差分運(yùn)動(dòng)檢測(cè)方法,該方法充分考慮了不同時(shí)刻圖像幀對(duì)當(dāng)前圖像幀的影響,給不同幀間差分圖像賦予不同的權(quán)值,使得經(jīng)過(guò)加權(quán)累積得到的圖像能較好地表示人體行為的運(yùn)動(dòng)前景。

        若It(x,y)表示為在t時(shí)刻的當(dāng)前圖像,It-n(x,y)表示為在t-n時(shí)刻的圖像,n為自定義參數(shù),本文取4。則通過(guò)式(1)計(jì)算出2n+1幀圖像的加權(quán)累積差分圖像diff(t)

        (1)

        由于當(dāng)前時(shí)刻的圖像幀與其他不同時(shí)刻圖像幀之間的差異一般是不同的,所以可以根據(jù)當(dāng)前時(shí)刻圖像幀與其他不同時(shí)刻圖像幀之間的時(shí)序關(guān)系建立與之相對(duì)應(yīng)的權(quán)值,其中文獻(xiàn)[7]通過(guò)建立時(shí)間相關(guān)的變量,給出了3種基于時(shí)間的權(quán)值選取經(jīng)驗(yàn)公式

        (2)

        (3)

        (4)

        式中:權(quán)值wi大小只與所選取用于差分的圖像幀對(duì)應(yīng)的時(shí)間有關(guān),權(quán)值不能反映出當(dāng)前圖像幀與其他不同時(shí)刻的圖像幀之間在圖像差異上的聯(lián)系,因此提出一種改進(jìn)的權(quán)值選擇方法,通過(guò)尋求當(dāng)前圖像幀與其他不同時(shí)刻圖像幀之間的圖像相似性來(lái)計(jì)算其幀間差分圖像所對(duì)應(yīng)的權(quán)值,從而使檢測(cè)出的前景區(qū)域更為完整。

        首先,定義A為M×N分辨率的灰度圖像幀,B為M×N分辨率的灰度圖像幀,Ax,y和Bx,y為對(duì)應(yīng)圖像在點(diǎn)(x,y)處的像素值,則2幀圖像的相似度ri為

        (5)

        由于當(dāng)前幀與其相似度較高的其他時(shí)刻圖像幀進(jìn)行差分時(shí),幀間差分圖像變化的區(qū)域較小,因此應(yīng)賦予較低的權(quán)值,而與相似度較低的歷史幀作差時(shí),幀間差分圖像變化的區(qū)域較大,因此應(yīng)賦予較高的權(quán)值。最后根據(jù)這一原則,利用式(7)計(jì)算出的幀間差分圖像所對(duì)應(yīng)的權(quán)值矩陣W中的元素為

        (7)式中:i=t-n,t-n+1,…,t+n,W=[wt-n,wt-n+1,…,wt+n-1,wt+n]。

        加權(quán)累積差分算法流程如圖1所示,為了更好地提取運(yùn)動(dòng)前景,減少不必要的背景噪聲,在對(duì)圖像進(jìn)行累積加權(quán)之前要將幀間差分圖像轉(zhuǎn)化為二值圖像,做膨脹運(yùn)算并填充空洞后,通過(guò)形態(tài)學(xué)濾波的方法去除背景噪聲,從而避免了噪聲的累積,提高背景分割的效果。如圖2所示,從左到右依次為:原始灰度圖像,加權(quán)累積差分法得到的人體剪影和改進(jìn)的加權(quán)累積差分法得到的人體剪影。對(duì)比可以看出經(jīng)過(guò)改進(jìn)后的加權(quán)累積差分法得到的剪影圖像增加了人體前景區(qū)域,如圖中對(duì)人體的腳部提取得更加完整,從而能夠提供更加精確的運(yùn)動(dòng)特征描述。由于本方法在每幀圖像做差分的過(guò)程中都使用了形態(tài)學(xué)去噪,從而避免了噪聲的積累,提高了人體感興趣區(qū)域提取的效果。本文將通過(guò)對(duì)比改進(jìn)前和改進(jìn)后的加權(quán)累積差分法的行為識(shí)別結(jié)果來(lái)證明改進(jìn)后的方法能提高行為識(shí)別率。

        KARCHER秉承全球化的戰(zhàn)略思維、精益求精的嚴(yán)謹(jǐn)作風(fēng)、豐富的制造工藝及以市場(chǎng)為中心和客戶至上的運(yùn)作理念,使公司發(fā)展成當(dāng)今擁有一百個(gè)子公司、一萬(wàn)多名員工且年銷售額超過(guò)20億歐元的全球清潔業(yè)巨型跨國(guó)集團(tuán)。2003年,KARCHER上海分公司正式成立,公司將通過(guò)堅(jiān)持創(chuàng)新和不斷研發(fā),源源不絕地為中國(guó)家庭用戶和企業(yè)用戶提供最尖端的清潔設(shè)備和清潔解決方案。

        圖1 改進(jìn)的加權(quán)累積差分法流程圖

        圖2 改進(jìn)后的加權(quán)累積差分法對(duì)比圖

        2 關(guān)鍵幀模板提取

        由于人體行為可以表示為一個(gè)連續(xù)的動(dòng)作圖像序列,因此如何選取動(dòng)作圖像的關(guān)鍵幀作為人體行為運(yùn)動(dòng)的模板,決定著基于模板匹配行為識(shí)別方法的性能。常用的關(guān)鍵幀選取方法有兩種:一種是根據(jù)人的主觀經(jīng)驗(yàn)判斷來(lái)選取,該方法需要做大量的人工分類和標(biāo)記工作[8];另一種是用聚類的方法來(lái)選取[9],根據(jù)不同的圖像特征選取合適的關(guān)鍵幀,能充分表示人體的運(yùn)動(dòng)特征,但是聚類算法增加了模板設(shè)計(jì)算法的復(fù)雜度。本文提出3種關(guān)鍵幀模板選擇方法,通過(guò)結(jié)合支持向量機(jī)對(duì)其進(jìn)行模板匹配識(shí)別,并對(duì)結(jié)果進(jìn)行對(duì)比分析。

        通過(guò)采用加權(quán)累積差分法對(duì)魏茲曼科學(xué)院行為數(shù)據(jù)庫(kù)中的10類行為共90個(gè)視頻樣本進(jìn)行運(yùn)動(dòng)檢測(cè),將每個(gè)視頻樣本得到的人體運(yùn)動(dòng)剪影序列用于該樣本的關(guān)鍵幀的模板選擇,下面提供了3種關(guān)鍵幀模板選擇方法:

        1)模板選擇方法1

        如圖3所示,截取每類行為的每個(gè)樣本中人體運(yùn)動(dòng)剪影的最小外接矩形,然后計(jì)算出每個(gè)最小外接矩形中前景像素的個(gè)數(shù),選取該樣本運(yùn)動(dòng)前景的二值圖像序列中具有前景像素個(gè)數(shù)最多的圖像幀作為該樣本的模板。

        圖3 模板選擇方法1得到的關(guān)鍵幀模板

        2)模板選擇方法2

        如圖4所示,截取每類行為的每個(gè)樣本中人體運(yùn)動(dòng)剪影的最小外接矩形,計(jì)算出最小外接矩形面積,選取該樣本運(yùn)動(dòng)剪影的二值圖像序列中最小外接矩形面積最大的圖像幀作為該樣本的模板。

        圖4 模板選擇方法2得到的關(guān)鍵幀模板

        3)模板選擇方法3

        如圖5所示,將方法1和方法2結(jié)合,計(jì)算出前景像素個(gè)數(shù)和最小外接矩形面積,將二者求和,選取該樣本運(yùn)動(dòng)剪影的二值圖像序列中和值最大的圖像幀作為該樣本的模板。

        圖5 模板選擇方法3得到的關(guān)鍵幀模板

        3 分塊特征提取

        在數(shù)字圖像處理中,常常利用其統(tǒng)計(jì)特性作為特征向量,可以對(duì)接近其統(tǒng)計(jì)特性的圖像進(jìn)行匹配識(shí)別。因此本文通過(guò)對(duì)提取的關(guān)鍵幀模板進(jìn)行分塊處理,利用每一個(gè)分塊中像素的統(tǒng)計(jì)特征來(lái)構(gòu)建模板的特征向量,用于基于模板匹配的行為識(shí)別。提取了時(shí)域的圖像關(guān)鍵幀之后,接下來(lái)要對(duì)關(guān)鍵幀的二值圖像進(jìn)行特征提取。分塊法是一種常見(jiàn)的二值圖像劃分方法,文獻(xiàn)[10]通過(guò)將人體的感興趣區(qū)域按照不同的比例尺度均勻劃分為若干個(gè)大小相等的分塊圖層,然后計(jì)算每一個(gè)塊中前景像素占?jí)K中總像素的比例作為特征向量用于人體行為識(shí)別,取得了良好的識(shí)別效果。本文主要采用2種不同的分塊方法,然后提取塊中像素的統(tǒng)計(jì)特征,通過(guò)結(jié)合支持向量機(jī)對(duì)分塊特征提取的效果進(jìn)行對(duì)比分析。

        圖6 分塊方法流程圖

        1)分塊方法1:如圖6所示,對(duì)采用上述模板選擇方法得到的關(guān)鍵幀模板,求出其最小外接矩形,然后將最小外接矩形均勻劃分為10×10的分塊,用式(8)計(jì)算每一個(gè)分塊矩形中前景像素所占該塊像素?cái)?shù)的比例v

        (8)

        將得到的100個(gè)比例值作為該模板的特征向量。這樣每個(gè)樣本的二值圖像模板就被量化編碼為一個(gè)特征向量V=[v1,v2,…,v100]。

        2)分塊方法2:將最小外接矩形按照5個(gè)不同的比例尺寸分別劃分為2×2,3×3,4×4,5×5,6×6的均勻大小的分塊,然后分別計(jì)算這5個(gè)不同比例尺寸分塊下每個(gè)分塊的前景像素所占該塊像素?cái)?shù)的比例,然后將其組成為一個(gè)特征向量V=[v1,v2,…,v90]。最后將分塊方法1和分塊方法2得到的特征向量用支持向量機(jī)進(jìn)行識(shí)別。

        4 行為識(shí)別實(shí)驗(yàn)結(jié)果

        支持向量機(jī)(Support Vector Machine,SVM)是由Cortes和Vapnik[11]提出的一種建立在統(tǒng)計(jì)學(xué)習(xí)理論上的一種監(jiān)督式學(xué)習(xí)方法,常應(yīng)用統(tǒng)計(jì)分類和回歸分析。通過(guò)給定一個(gè)分別標(biāo)記為兩個(gè)不同類別的訓(xùn)練數(shù)據(jù)集,支持向量機(jī)的訓(xùn)練算法可以建立模型用于分配新樣本到兩個(gè)不同的類別,使其成為一個(gè)非概率二值線性分類器。

        由于本文要處理的人體行為是一個(gè)多分類問(wèn)題,而由于MATLAB自帶的支持向量機(jī)工具包無(wú)法直接處理多分類問(wèn)題,需要通過(guò)構(gòu)造子分類器來(lái)處理多分類,因此本文采用Libsvm類庫(kù)結(jié)合MATLAB作為實(shí)驗(yàn)平臺(tái)來(lái)對(duì)行為特征進(jìn)行分類識(shí)別。Libsvm類庫(kù)能對(duì)支持向量機(jī)參數(shù)進(jìn)行調(diào)節(jié),可以采用默認(rèn)參數(shù)來(lái)解決分類問(wèn)題,也可以通過(guò)類庫(kù)提供的函數(shù)尋找最優(yōu)參數(shù)。

        實(shí)驗(yàn)采用3.4 GHz CPU主頻,4 Gbyte內(nèi)存的計(jì)算機(jī)作為硬件平臺(tái),選擇C-SVM類型的支持向量機(jī),使用徑向基函數(shù)核作為核函數(shù),對(duì)于支持向量機(jī)與核函數(shù)的參數(shù)根據(jù)Libsvm自帶的函數(shù)進(jìn)行尋優(yōu),多分類采用默認(rèn)的一對(duì)一法。對(duì)分塊方法1、分塊方法2分別與3種模板選擇方法相組合所提取的特征進(jìn)行分類識(shí)別,采用網(wǎng)格搜索方法[12]來(lái)選取參數(shù)c和g。測(cè)試方式采用K-折交叉測(cè)試,即將初始采樣分為K個(gè)子樣本,一個(gè)子樣本被用來(lái)作為驗(yàn)證集,其余K-1個(gè)子樣本作為訓(xùn)練集,然后交叉檢驗(yàn)K次,直到每個(gè)子樣本都作為一次驗(yàn)證集,最后平均K次的識(shí)別結(jié)果,該交叉檢測(cè)方法能有效避免分類器的欠學(xué)習(xí)和過(guò)學(xué)習(xí)。圖7和圖8分別為模板選擇方法1與分塊方法1和分塊方法2組合的識(shí)別率。

        圖7 模板選擇方法1與分塊方法1組合的識(shí)別率

        圖8 模板選擇方法1與分塊方法2組合的識(shí)別率

        識(shí)別結(jié)果如表1所示,通過(guò)使用參數(shù)優(yōu)化的徑向基函數(shù)核的支持向量機(jī)能夠取得最高為84.44%的識(shí)別率,因此進(jìn)一步證明支持向量機(jī)在處理小樣本、非線性、高特征維數(shù)分類問(wèn)題時(shí)具有明顯的性能優(yōu)勢(shì)。

        表1 不同模板選擇方法和分塊方法對(duì)應(yīng)的識(shí)別率 %

        不同分塊方法模板選擇方法1模板選擇方法2模板選擇方法3分塊方法1833381117000分塊方法2844480007111

        另外為了驗(yàn)證改進(jìn)的加權(quán)累積差分法對(duì)識(shí)別結(jié)果的影響,分別選擇使用權(quán)值經(jīng)驗(yàn)公式1的加權(quán)累積差分法和本文改進(jìn)的加權(quán)累積差分法進(jìn)行檢測(cè),結(jié)合關(guān)鍵幀模板選取方法1與分塊方法1和分塊方法2進(jìn)行行為識(shí)別,實(shí)驗(yàn)結(jié)果分別如圖9和圖10所示。

        圖9 使用權(quán)值經(jīng)驗(yàn)公式1與分塊方法1的識(shí)別率

        圖10 使用權(quán)值經(jīng)驗(yàn)公式1與分塊方法2的識(shí)別率

        相對(duì)于使用經(jīng)驗(yàn)公式1進(jìn)行加權(quán)累積檢測(cè),使用本文改進(jìn)的加權(quán)累積差分法能夠檢測(cè)到更為完整的人體運(yùn)動(dòng)剪影,從表2可以看出使用本文改進(jìn)的加權(quán)累積差分法進(jìn)行運(yùn)動(dòng)檢測(cè)能提高行為識(shí)別率,證明了本方法的有效性。

        表2 不同加權(quán)累積差分法的識(shí)別率 %

        不同加權(quán)累積差分法模板選擇方法1與分塊方法1模板選擇方法1與分塊方法2用權(quán)值經(jīng)驗(yàn)公式1的加權(quán)累積差分法82228111用本文改進(jìn)的加權(quán)累積差分法83338444

        5 總結(jié)

        本文提出了一種改進(jìn)的加權(quán)累積差分法,通過(guò)計(jì)算當(dāng)前圖像幀與其他不同時(shí)刻圖像幀的相似性,用于權(quán)值計(jì)算,使得改進(jìn)后的算法能提取更加完整的運(yùn)動(dòng)前景,并且由于本方法對(duì)每幀差分圖像都進(jìn)行了形態(tài)學(xué)去噪,從而減少了噪聲的累積。本文還采用基于圖像區(qū)域的行為表示與特征提取方法,并對(duì)比3種關(guān)鍵幀選擇方法與2種分塊方法相結(jié)合的效果,提取圖像每一分塊中像素的比例特征來(lái)構(gòu)建行為模板的特征向量,用于人體行為的識(shí)別。最后采用徑向基函數(shù)核的支持向量機(jī)用于處理多分類的行為識(shí)別問(wèn)題,并且能取得84.44%的識(shí)別率,證明了支持向量機(jī)在處理小樣本、非線性、高特征維數(shù)的人體行為識(shí)別任務(wù)時(shí)具有良好的效果,也表明采用本文改進(jìn)的加權(quán)累積差分法能提高行為識(shí)別率。

        [1] 伍彩紅. 基于視覺(jué)的人體行為識(shí)別研究[D].武漢:華中師范大學(xué),2011.

        [2] HORN B K,SCHUNCK B G. Determining optical flow[EB/OL].[2015-02-28].http://dspace.mit.edu/handle/1721.1/6337.

        [3] LIPTON A,F(xiàn)UJIYOSHI H,PATIL R. Moving target classification and tracking from real-time video[C]//Proc. IEEE Workshop on Applications of Computer Vision. Princeton,NJ:IEEE Press,1998:8-14.

        [4] COLLNS R,LIPTON A. A system for video surveillance and monitoring: VSAM final report[EB/OL].[2015-02-28].http://www.researchgate.net/publication/245100343_A_system_for_video_surveillance_and_monitoring_VSAM_final_report.

        [5] 左風(fēng)艷,高勝法,韓建宇,等. 基于加權(quán)累積差分的運(yùn)動(dòng)目標(biāo)檢測(cè)與跟蹤[J].計(jì)算機(jī)工程,2009,35(22):159-161.

        [6] 黎洪松,李達(dá). 人體運(yùn)動(dòng)分析研究的若干新進(jìn)展[J].模式識(shí)別與人工智能,2009,22(1):70-78.

        [7] 魯梅,盧忱,范九倫,等. 一種有效的基于時(shí)空信息的視頻運(yùn)動(dòng)對(duì)象分割算法[J].計(jì)算機(jī)應(yīng)用研究,2013,30(1):303-306.

        [8] 王科俊,呂卓紋,孫國(guó)振,等. 基于分層分?jǐn)?shù)條件隨機(jī)場(chǎng)的行為識(shí)別[J].計(jì)算機(jī)應(yīng)用,2013,33(4):957-959.

        [9] 趙海勇, 劉志鏡, 張浩,等. 基于模板匹配的人體日常行為識(shí)別[J]. 湖南大學(xué)學(xué)報(bào):自然科學(xué)版, 2011, 38(2): 88-92.

        [10] YAMATO J,OHYA J,ISHII K. Recognizing human action in time-sequential images using hidden Markov model[C]//Proc. IEEE Computer Society Conference on Computer Vision and Pattern Recognition,1992. [S.l.]:IEEE Press,1992:379-385.

        [11] CORTES C,VAPNIK V. Support-vector networks[J]. Machine Learning,1995,20(3):273-297.

        [12] 李琳, 張曉龍. 基于RBF核的SVM學(xué)習(xí)算法的優(yōu)化計(jì)算[J].計(jì)算機(jī)工程與應(yīng)用,2006,42(29):190-192.

        Human Behavior Recognition Based on Improved Weighted Accumulative Frame Difference Method

        ZHANG Zhixue, CHEN Xi

        (NetworkInformationCenter,HenanUniversityofScienceandTechnology,HenanLuoyang471023,China)

        For two frame difference method and three frame difference method is difficult to extract the complete motion silhouettes, a method is presented based on improved weighted accumulative frame difference method for human behavior recognition. By using the improved weighted accumulated frame difference method to compute the similarity of frames for adaptive weights change, a relatively complete human movement silhouette can be extracted, and then proposed key frame template selected method and block features extraction method are used to extract behavior features. At last, support vector machine is used to construct classifiers for recognition. Experimental results indicate that this improved weighted accumulative frame difference method can be used to improve human behavior recognition rate.

        human behavior recognition; weighted accumulative frame difference method; support vector machine

        河南省教育廳自然科學(xué)研究項(xiàng)目(12B520019)

        TP391.4

        A

        10.16280/j.videoe.2015.17.029

        2015-04-28

        【本文獻(xiàn)信息】張治學(xué),陳曦.基于改進(jìn)的加權(quán)累積差分法的人體行為識(shí)別[J].電視技術(shù),2015,39(17).

        張治學(xué)(1963— ),實(shí)驗(yàn)師,主要研究方向?yàn)榫W(wǎng)絡(luò)信息通信、圖像處理;

        陳 曦(1987— ),碩士生,主要研究方向?yàn)榉律悄芘c仿生機(jī)器人、數(shù)據(jù)中心網(wǎng)絡(luò)、圖像處理等。

        責(zé)任編輯:任健男

        猜你喜歡
        差分法關(guān)鍵幀分塊
        二維粘彈性棒和板問(wèn)題ADI有限差分法
        分塊矩陣在線性代數(shù)中的應(yīng)用
        基于改進(jìn)關(guān)鍵幀選擇的RGB-D SLAM算法
        反三角分塊矩陣Drazin逆新的表示
        基于相關(guān)系數(shù)的道路監(jiān)控視頻關(guān)鍵幀提取算法
        基于自適應(yīng)中值濾波的分塊壓縮感知人臉識(shí)別
        基于聚散熵及運(yùn)動(dòng)目標(biāo)檢測(cè)的監(jiān)控視頻關(guān)鍵幀提取
        基于多分辨率半邊的分塊LOD模型無(wú)縫表達(dá)
        基于SQMR方法的三維CSAMT有限差分法數(shù)值模擬
        論“關(guān)鍵幀”在動(dòng)畫(huà)制作中的作用
        欧美疯狂性受xxxxx喷水| 国产九九在线观看播放| 国产成人自拍视频在线免费| 国产免费精品一品二区三| 精品国产三级a在线观看不卡| 国产对白国语对白| 黄色a级国产免费大片| 极品 在线 视频 大陆 国产| 玩弄放荡人妻一区二区三区| 最新天堂一区二区三区| 色综合久久久久综合体桃花网 | 国产青榴视频在线观看| 免费a级毛片无码a| 成年视频网站在线观看777| 亚洲日本中文字幕乱码| 美腿丝袜诱惑一区二区| 色欲av蜜桃一区二区三| 成全视频高清免费| 日韩偷拍视频一区二区三区 | 久久免费视亚洲无码视频 | 亚洲欧美综合在线天堂| 精品国产迪丽热巴在线| 男女搞基视频免费网站| 狠狠色狠狠色综合网| 亚洲色无码国产精品网站可下载| 中文字幕无码人妻丝袜| 手机av在线观看视频| 日韩不卡的av二三四区| 国产精品久久久久乳精品爆| 人人狠狠综合久久亚洲婷婷| 淫欲一区二区中文字幕| 精品人妻69一区二区三区蜜桃| 国产精品无码一区二区三区电影 | 久久精品伊人久久精品| 国产无套内射又大又猛又粗又爽| 中出人妻中文字幕无码| 国产偷国产偷亚洲欧美高清| 日韩人妖一区二区三区| 男女真人后进式猛烈视频网站| 国产成人精品一区二区三区视频| 国产高潮精品久久AV无码|