賀 炎, 王 科, 王忠民
(西安郵電大學 計算機學院, 陜西 西安 710121)
?
用戶無關(guān)的多分類器融合行為識別模型
賀炎, 王科, 王忠民
(西安郵電大學 計算機學院, 陜西 西安 710121)
為了提高行為識別模型的準確率,給出一種與用戶無關(guān)的多分類器融合行為識別模型。采用決策樹C4.5自頂向下構(gòu)建基分類器,將基分類器對各行為的識別準確率作為權(quán)值,利用融合算法對行為識別結(jié)果進行融合處理,生成與用戶無關(guān)的行為識別通用模型。采用未參與基分類器訓練用戶的加速度數(shù)據(jù)對該模型進行測試,對比結(jié)果表明,多分類器融合模型對步行、跑步、上樓、下樓等日常行為識別準確率均有所提高。
基分類器;多分類器融合;行為識別;決策樹
人體行為識別主要分為基于視覺的人體行為識別和基于加速度傳感器的人體行為識別兩個方向,在行為監(jiān)測、健康監(jiān)控等方面均有應(yīng)用,已成為人工智能與模式識別領(lǐng)域內(nèi)熱點研究之一[1]。
基于視覺的人體行為識別從圖像和視頻中提取相關(guān)特征,利用支持向量機(Support Vector Machine,SVM)等分類算法訓練的行為識別模型[2-5],雖然可以提高視頻序列中人體行為識別準確率或檢測人體動作,但是需要對圖像和視頻序列進行處理,計算數(shù)據(jù)量相當龐大。通過加速度傳感器采集原始加速度信號,從中提取特征,建立行為識別模型,可實現(xiàn)人體日常行為識別[6-11],但其準確率與模型的訓練集和測試集緊密相關(guān),新用戶的行為識別準確率明顯降低。為了提高新用戶行為識別的準確率,采用遷移學習方法,將訓練出通用模型遷移至新用戶,生成適用于新用戶的行為識別模型[1,12-13],但該方法需要先對新用戶的無標簽樣本打標簽,然后結(jié)合新用戶的少量帶標簽樣本重新訓練行為識別模型,算法較為復(fù)雜。
為了提高新用戶的行為識別準確率,本文提出一種與用戶無關(guān)的多分類器融合行為識別通用模型,通過對多個基分類器的識別結(jié)果進行融合處理來提高行為識別準確率。
與用戶無關(guān)的多分類器融合行為識別模型的處理過程包括原始數(shù)據(jù)采集、特征提取、基分類器訓練與測試、融合處理4個步驟,如圖1所示。
圖1 行為識別過程
通過訓練基分類器,利用融合算法建立與用戶無關(guān)的行為識別通用模型。
2.1基分類器訓練
采用決策樹C4.5自頂向下構(gòu)建基分類器[6]。訓練集的特征包含均值、中位數(shù)、方差、小波能量、小波峰等14個常見特征[1],基分類器層數(shù)較多,圖2僅為決策樹基分類器的局部內(nèi)容。
圖2 決策樹基分類器(局部)
圖2中,C4.5使用信息增益率作為節(jié)點分裂的依據(jù),在根節(jié)點分裂時,計算所有特征的信息增益率。將信息增益率最大的方差的兩個取值,分為兩個子集,即根節(jié)點的兩棵子樹。在左子樹所包含的樣本子集中,所有樣本均被識別為上樓,該子樹無需繼續(xù)分裂。將右子樹按照同樣的規(guī)則繼續(xù)分裂,直到每顆子樹中所有樣本的都被識別為同類行為。
2.2模型建立
采用融合算法對訓練好的基分類器進行融合處理,構(gòu)建與用戶無關(guān)的行為識別通用模型。
融合處理步驟如下。
步驟1利用基分類器對測試集樣本進行識別得到結(jié)果矩陣Mi。
Mi為m×5的矩陣,其中i是基分類器編號;5列依次代表靜止、步行、跑步、上樓、下樓5種行為;行數(shù)m代表一共有m個樣本數(shù)據(jù)。每個樣本數(shù)據(jù)的識別結(jié)果均為1×5的向量。若基分類器將某樣本識別為某一行為時,其識別結(jié)果向量的對應(yīng)值設(shè)定為1,否則為0。
步驟2計算各基分類器識別結(jié)果Mi的權(quán)值矩陣
(1)
其中,k=1,2,…,5是樣本行為標簽;Nk表示第k種行為的樣本總數(shù);B表示行為,NB1表示Nk個樣本中被識別為第一種行為的樣本數(shù);NB2~ NB5的取值規(guī)則和NB1相同?;诸惼鬏敵鼋Y(jié)果的加權(quán)矩陣為
Oi=MiRi。
(2)
步驟3計算各基分類器輸出結(jié)果加權(quán)矩陣之和
(3)
其中n為基分類器個數(shù)。
步驟4對矩陣O中的每行(對應(yīng)1個樣本)求其最大值,該最大值的下標就是其行為標簽,即該樣本行為識別的最終結(jié)果。
融合后的行為識別模型如圖3所示。
圖3 多分類器融合的行為識別模型
為了驗證多分類器融合行為識別模型的有效性,將基分類器的識別結(jié)果與融合模型的識別結(jié)果進行對比分析。
3.1測試數(shù)據(jù)
測試數(shù)據(jù)來自人體日常行為數(shù)據(jù)庫XUPT-AAD[6]。根據(jù)用戶年齡分布,將20~30歲用戶的部分數(shù)據(jù)訓練基分類器C1,30~40歲用戶的部分數(shù)據(jù)訓練基分類器C2,將20~30歲用戶的部分數(shù)據(jù)和30~40歲用戶的部分數(shù)據(jù)組合成訓練集,用于訓練基分類器C3。抽取11人的加速度數(shù)據(jù)并分組,其中20~30歲之間5人(U1~U5),分為A1和A2兩組;30~40歲之間6人(U6~U11),分為B1和B2兩組,具體分組情況如表1所示。
A1組數(shù)據(jù)用于訓練基分類器C1,B1組數(shù)據(jù)用于訓練基分類器C2,(A1+B1)組數(shù)據(jù)用于訓練基分類器C3。將(A2+B2)組數(shù)據(jù)作為3個基分類器共用測試集。
表1 用戶分組情況
數(shù)據(jù)采集時所用手機品牌包括中興、三星、華為、小米、酷派、蘋果等。每位用戶依次將手機放置在褲子口袋、包中、手中,均采集靜止、步行、跑步、上樓、下樓等5種日常行為的加速度數(shù)據(jù),具體樣本數(shù)據(jù)如表2所示。
表2 樣本數(shù)據(jù)
5種行為分別經(jīng)過基分類器C1、 C2和C3進行訓練的樣本數(shù)和融合模型的測試樣本數(shù)如表3所示。
表3 基分類器訓練集與測試集各行為樣本數(shù)
基分類器C1、C2和C3訓練的時間復(fù)雜度如表4所示。
表4 基分類器訓練的時間復(fù)雜度
由表4可以看出,基分類器訓練的時間復(fù)雜度隨著特征數(shù)和樣本數(shù)的增加而相應(yīng)增加。
3.2測試結(jié)果分析
基分類器C1、C2和C3分別對測試集進行識別后,采用融合算法對其識別結(jié)果進行處理,得到融合模型行為識別的最終結(jié)果,如表5所示。
表5 基分類器及融合模型對各行為的識別準確率
從表5中可以看出,各基分類器靜止行為的識別準確率都能達到100%,符合“靜止”行為的特點;但基分類器C1、C2和C3對步行、上樓、下樓這3種易混淆行為的識別準確率較低。
基分類器C1在5種日常行為的識別中,對步行、跑步、上樓的識別準確率均比C2和C3高,跑步的識別準確率高達90%?;诸惼鰿2步行的識別準確率僅為12.44%,與其他4種行為的識別情況差異過大?;诸惼鰿3的訓練集包含不同年齡段用戶的特征數(shù)據(jù),5種行為的平均識別準確率并沒有明顯提高。除靜止外,其他4種行為的識別準確率均介于C1和C2之間。
融合模型結(jié)合了3個基分類器的優(yōu)勢,對步行、跑步、上樓、下樓4種行為的識別結(jié)果均有所提高。上樓的識別準確率最多提高29.65%,平均識別準確率最多提高22.42%。相對基分類器C1、C2和C3,融合模型與用戶的相關(guān)度更低,通用性更好。
本次實驗的測試集共有201個步行樣本,基分類器C1、C2和C3及融合模型對樣本的識別情況如表6所示。
表6 步行樣本的識別情況
從表6中可以看出,C2將104個步行樣本錯分為上樓,將70個步行樣本錯分為下樓,這與B1組用戶樣本數(shù)較少及該組用戶的步行、上樓、下樓3種行為相似度較大有關(guān)。由于融合模型在對基分類器的識別結(jié)果進行融合處理時,由基分類器各行為的識別準確率來決定其對各行為最終識別結(jié)果的影響程度,C2對步行這一行為的識別準確率很低,融合模型確定步行樣本的最終識別結(jié)果時,C2的識別結(jié)果不會降低融合模型對步行的識別準確率。
將多個基分類器對各行為的識別準確率作為權(quán)值,根據(jù)融合算法對基分類器的識別結(jié)果進行融合處理,生成與用戶無關(guān)的行為識別通用模型。采用測試集對該模型進行測試,得到行為識別的最終結(jié)果。融合模型測試結(jié)果表明,與基分類器的識別結(jié)果相比,融合模型對靜止、步行、跑步、上樓、下樓五種行為的平均識別準確率最多提高22.42%,上樓的識別準確率最多提高29.65%。
[1]王忠民, 屈肅. 一種極速學習機人體行為識別模型遷移方法[J/OL].西安郵電大學學報, 2015,20(1):49-54[2016-03-20].http://dx.chinadoi.cn/10.13682/j.issn.2095-6533.2015.01.010.
[2]邵延華, 郭永彩, 高潮. 基于特征融合的人體行為識別[J/OL].光電子·激光,2014(9):1818-1823[2016-03-10].http://www.cnki.com.cn/Article/CJFDTotal-GDZJ201409029.htm.DOI:10.16136/j.joel.2014.09.027.
[3]吳冬梅, 謝金壯, 王靜. 基于多特征融合的人體行為識別[J/OL].計算機應(yīng)用于軟件,2015(11):171-175[2016-03-10].http://dx.chinadoi.cn/10.3969/j.issn.1000-386x.2015.11.040.
[4]LIHP,ZHANGF,ZHANGSW.Multi-featurehierarchicaltopicmodelsforhumanbehaviorrecognition[J/OL].ScienceChinaInformationSciences,2014, 57(9): 1-15[2016-03-10].http://dx.doi.org/10.1007/s11432-013-4794-9.
[5]SONGW,LIUN,YANGG.ANovelHumanActionRecognitionAlgorithmBasedonDecisionLevelMulti-FeatureFusion[J/OL].ChinaCommunications, 2015(S2):93-102[2016-03-10].http://en.cnki.com.cn/Article_en/CJFDTotal-ZGTO2015S2012.htm.
[6]范琳, 王忠民. 穿戴位置無關(guān)的手機用戶行為識別模型[J/OL]. 計算機應(yīng)用研究, 2015,32(1): 63-66.http://dx.chinadoi.cn/10.3969/j.issn.1001-3695.2015.01.015.
[7]蘇竑宇, 陳啟安, 吳海濤.基于SVM和HMM二級模型的行為識別方案[J/OL].計算機與現(xiàn)代化,2015(5):1-8[2016-03-10].http://dx.chinadoi.cn/10.3969/j.issn.1006-2475.2015.05.001.
[8]王忠民, 王斌. 多頻段時域分解的行為識別特征優(yōu)選方法[J/OL].計算機應(yīng)用研究,2015,32(7):1956-1958[2016-03-20].http://dx.chinadoi.cn/10.3969/j.issn.1001-3695.2015.07.009.
[9]CHENYQ,ZHAOZT,WANGSQ,etal.ExtremeLearningMachinebaseddevicedisplacementfreeactivityrecognitionmodel[J/OL].SoftComputing,2012,16(9):1617-1625[2016-03-20].http://dx.doi.org/10.1007/s00500-012-0822-8 .
[10] 何衛(wèi)華. 人體行為識別關(guān)鍵技術(shù)研究[D/OL]. 重慶: 重慶大學, 2012:3-134[2016-03-20].http://cdmd.cnki.com.cn/Article/CDMD-10611-1012047169.htm.
[11]YANGJ,WANGS,CHENN,etal.Wearableaccelerometerbasedextendableactivityrecognitionsystem[C/OL]// 2010IEEEInternationalConferenceonRoboticsandAutomation(ICRA) ,Anchorage,AK:IEEE, 2010: 3641-3647[2016-03-20].http://dx.doi.org/10.1109/ROBOT.2010.5509783.
[12] 支周,屈肅.一種基于遷移極速學習機的人體行為識別模型[J/OL].物聯(lián)網(wǎng)技術(shù).2015,5(9):18-20[2016-03-20].http://dx.chinadoi.cn/10.3969/j.issn.2095-1302.2015.09.007.
[13] 王忠民, 王晶, 張榮. 一種基于人工標簽數(shù)據(jù)的行為識別模型遷移方法[J]. 西安郵電大學學報, 2016,21(2): 92-97.DOI:10.13682/j.issn.2095-6533.2016.02.018.
[責任編輯:祝劍]
A user-independent behavior recognition model based on multi-classifier fusion
HE Yan,WANG Ke,WANG Zhongmin
(School of Computer Science and Technology, Xi’an University of Posts and Telecommunications, Xi’an 710121, China)
To improve the accuracy of the behavior recognition model, a user-independent behavior recognition model based on multi-classifier fusion is proposed. Decision tree C4.5 is used as the classification algorithm to generate the base classifiers from top-down. Then the accuracy of the base classifiers is used as the weight value, and the fusion algorithm is used to deal with the recognition result of the base classifiers to build the user-independent behavior recognition model. The model is tested by the dataset collected by several users whose acceleration data are not used to train the base classifiers; the final behavior recognition results are then produced. Experimental results show that the recognition accuracy of the proposed fusion model is increased to recognize the behaviors such as staying, walking, running, going upstairs, going downstairs.
base-classifier, multi-classifier fusion, behavior recognition, decision tree
10.13682/j.issn.2095-6533.2016.05.010
2016-05-13
國家自然科學基金資助項目(61373116);陜西省科技統(tǒng)籌創(chuàng)新工程計劃項目(2016KTZDGY04-01)
賀炎(1980-),女,碩士,講師,從事機器學習和智能信息處理研究。E-mail: heyan0220@xupt.edu.cn
王科(1988-),女,碩士研究生,研究方向為嵌入式系統(tǒng)與設(shè)計。E-mail: 344512721@qq.com
TP391
A
2095-6533(2016)05-0050-05