亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        用戶無關(guān)的多分類器融合行為識別模型

        2016-10-31 08:52:54王忠民
        西安郵電大學學報 2016年5期
        關(guān)鍵詞:融合用戶模型

        賀 炎, 王 科, 王忠民

        (西安郵電大學 計算機學院, 陜西 西安 710121)

        ?

        用戶無關(guān)的多分類器融合行為識別模型

        賀炎, 王科, 王忠民

        (西安郵電大學 計算機學院, 陜西 西安 710121)

        為了提高行為識別模型的準確率,給出一種與用戶無關(guān)的多分類器融合行為識別模型。采用決策樹C4.5自頂向下構(gòu)建基分類器,將基分類器對各行為的識別準確率作為權(quán)值,利用融合算法對行為識別結(jié)果進行融合處理,生成與用戶無關(guān)的行為識別通用模型。采用未參與基分類器訓練用戶的加速度數(shù)據(jù)對該模型進行測試,對比結(jié)果表明,多分類器融合模型對步行、跑步、上樓、下樓等日常行為識別準確率均有所提高。

        基分類器;多分類器融合;行為識別;決策樹

        人體行為識別主要分為基于視覺的人體行為識別和基于加速度傳感器的人體行為識別兩個方向,在行為監(jiān)測、健康監(jiān)控等方面均有應(yīng)用,已成為人工智能與模式識別領(lǐng)域內(nèi)熱點研究之一[1]。

        基于視覺的人體行為識別從圖像和視頻中提取相關(guān)特征,利用支持向量機(Support Vector Machine,SVM)等分類算法訓練的行為識別模型[2-5],雖然可以提高視頻序列中人體行為識別準確率或檢測人體動作,但是需要對圖像和視頻序列進行處理,計算數(shù)據(jù)量相當龐大。通過加速度傳感器采集原始加速度信號,從中提取特征,建立行為識別模型,可實現(xiàn)人體日常行為識別[6-11],但其準確率與模型的訓練集和測試集緊密相關(guān),新用戶的行為識別準確率明顯降低。為了提高新用戶行為識別的準確率,采用遷移學習方法,將訓練出通用模型遷移至新用戶,生成適用于新用戶的行為識別模型[1,12-13],但該方法需要先對新用戶的無標簽樣本打標簽,然后結(jié)合新用戶的少量帶標簽樣本重新訓練行為識別模型,算法較為復(fù)雜。

        為了提高新用戶的行為識別準確率,本文提出一種與用戶無關(guān)的多分類器融合行為識別通用模型,通過對多個基分類器的識別結(jié)果進行融合處理來提高行為識別準確率。

        1 行為識別過程

        與用戶無關(guān)的多分類器融合行為識別模型的處理過程包括原始數(shù)據(jù)采集、特征提取、基分類器訓練與測試、融合處理4個步驟,如圖1所示。

        圖1 行為識別過程

        2 多分類器融合的行為識別

        通過訓練基分類器,利用融合算法建立與用戶無關(guān)的行為識別通用模型。

        2.1基分類器訓練

        采用決策樹C4.5自頂向下構(gòu)建基分類器[6]。訓練集的特征包含均值、中位數(shù)、方差、小波能量、小波峰等14個常見特征[1],基分類器層數(shù)較多,圖2僅為決策樹基分類器的局部內(nèi)容。

        圖2 決策樹基分類器(局部)

        圖2中,C4.5使用信息增益率作為節(jié)點分裂的依據(jù),在根節(jié)點分裂時,計算所有特征的信息增益率。將信息增益率最大的方差的兩個取值,分為兩個子集,即根節(jié)點的兩棵子樹。在左子樹所包含的樣本子集中,所有樣本均被識別為上樓,該子樹無需繼續(xù)分裂。將右子樹按照同樣的規(guī)則繼續(xù)分裂,直到每顆子樹中所有樣本的都被識別為同類行為。

        2.2模型建立

        采用融合算法對訓練好的基分類器進行融合處理,構(gòu)建與用戶無關(guān)的行為識別通用模型。

        融合處理步驟如下。

        步驟1利用基分類器對測試集樣本進行識別得到結(jié)果矩陣Mi。

        Mi為m×5的矩陣,其中i是基分類器編號;5列依次代表靜止、步行、跑步、上樓、下樓5種行為;行數(shù)m代表一共有m個樣本數(shù)據(jù)。每個樣本數(shù)據(jù)的識別結(jié)果均為1×5的向量。若基分類器將某樣本識別為某一行為時,其識別結(jié)果向量的對應(yīng)值設(shè)定為1,否則為0。

        步驟2計算各基分類器識別結(jié)果Mi的權(quán)值矩陣

        (1)

        其中,k=1,2,…,5是樣本行為標簽;Nk表示第k種行為的樣本總數(shù);B表示行為,NB1表示Nk個樣本中被識別為第一種行為的樣本數(shù);NB2~ NB5的取值規(guī)則和NB1相同?;诸惼鬏敵鼋Y(jié)果的加權(quán)矩陣為

        Oi=MiRi。

        (2)

        步驟3計算各基分類器輸出結(jié)果加權(quán)矩陣之和

        (3)

        其中n為基分類器個數(shù)。

        步驟4對矩陣O中的每行(對應(yīng)1個樣本)求其最大值,該最大值的下標就是其行為標簽,即該樣本行為識別的最終結(jié)果。

        融合后的行為識別模型如圖3所示。

        圖3 多分類器融合的行為識別模型

        3 測試及結(jié)果分析

        為了驗證多分類器融合行為識別模型的有效性,將基分類器的識別結(jié)果與融合模型的識別結(jié)果進行對比分析。

        3.1測試數(shù)據(jù)

        測試數(shù)據(jù)來自人體日常行為數(shù)據(jù)庫XUPT-AAD[6]。根據(jù)用戶年齡分布,將20~30歲用戶的部分數(shù)據(jù)訓練基分類器C1,30~40歲用戶的部分數(shù)據(jù)訓練基分類器C2,將20~30歲用戶的部分數(shù)據(jù)和30~40歲用戶的部分數(shù)據(jù)組合成訓練集,用于訓練基分類器C3。抽取11人的加速度數(shù)據(jù)并分組,其中20~30歲之間5人(U1~U5),分為A1和A2兩組;30~40歲之間6人(U6~U11),分為B1和B2兩組,具體分組情況如表1所示。

        A1組數(shù)據(jù)用于訓練基分類器C1,B1組數(shù)據(jù)用于訓練基分類器C2,(A1+B1)組數(shù)據(jù)用于訓練基分類器C3。將(A2+B2)組數(shù)據(jù)作為3個基分類器共用測試集。

        表1 用戶分組情況

        數(shù)據(jù)采集時所用手機品牌包括中興、三星、華為、小米、酷派、蘋果等。每位用戶依次將手機放置在褲子口袋、包中、手中,均采集靜止、步行、跑步、上樓、下樓等5種日常行為的加速度數(shù)據(jù),具體樣本數(shù)據(jù)如表2所示。

        表2 樣本數(shù)據(jù)

        5種行為分別經(jīng)過基分類器C1、 C2和C3進行訓練的樣本數(shù)和融合模型的測試樣本數(shù)如表3所示。

        表3 基分類器訓練集與測試集各行為樣本數(shù)

        基分類器C1、C2和C3訓練的時間復(fù)雜度如表4所示。

        表4 基分類器訓練的時間復(fù)雜度

        由表4可以看出,基分類器訓練的時間復(fù)雜度隨著特征數(shù)和樣本數(shù)的增加而相應(yīng)增加。

        3.2測試結(jié)果分析

        基分類器C1、C2和C3分別對測試集進行識別后,采用融合算法對其識別結(jié)果進行處理,得到融合模型行為識別的最終結(jié)果,如表5所示。

        表5 基分類器及融合模型對各行為的識別準確率

        從表5中可以看出,各基分類器靜止行為的識別準確率都能達到100%,符合“靜止”行為的特點;但基分類器C1、C2和C3對步行、上樓、下樓這3種易混淆行為的識別準確率較低。

        基分類器C1在5種日常行為的識別中,對步行、跑步、上樓的識別準確率均比C2和C3高,跑步的識別準確率高達90%?;诸惼鰿2步行的識別準確率僅為12.44%,與其他4種行為的識別情況差異過大?;诸惼鰿3的訓練集包含不同年齡段用戶的特征數(shù)據(jù),5種行為的平均識別準確率并沒有明顯提高。除靜止外,其他4種行為的識別準確率均介于C1和C2之間。

        融合模型結(jié)合了3個基分類器的優(yōu)勢,對步行、跑步、上樓、下樓4種行為的識別結(jié)果均有所提高。上樓的識別準確率最多提高29.65%,平均識別準確率最多提高22.42%。相對基分類器C1、C2和C3,融合模型與用戶的相關(guān)度更低,通用性更好。

        本次實驗的測試集共有201個步行樣本,基分類器C1、C2和C3及融合模型對樣本的識別情況如表6所示。

        表6 步行樣本的識別情況

        從表6中可以看出,C2將104個步行樣本錯分為上樓,將70個步行樣本錯分為下樓,這與B1組用戶樣本數(shù)較少及該組用戶的步行、上樓、下樓3種行為相似度較大有關(guān)。由于融合模型在對基分類器的識別結(jié)果進行融合處理時,由基分類器各行為的識別準確率來決定其對各行為最終識別結(jié)果的影響程度,C2對步行這一行為的識別準確率很低,融合模型確定步行樣本的最終識別結(jié)果時,C2的識別結(jié)果不會降低融合模型對步行的識別準確率。

        4 結(jié)語

        將多個基分類器對各行為的識別準確率作為權(quán)值,根據(jù)融合算法對基分類器的識別結(jié)果進行融合處理,生成與用戶無關(guān)的行為識別通用模型。采用測試集對該模型進行測試,得到行為識別的最終結(jié)果。融合模型測試結(jié)果表明,與基分類器的識別結(jié)果相比,融合模型對靜止、步行、跑步、上樓、下樓五種行為的平均識別準確率最多提高22.42%,上樓的識別準確率最多提高29.65%。

        [1]王忠民, 屈肅. 一種極速學習機人體行為識別模型遷移方法[J/OL].西安郵電大學學報, 2015,20(1):49-54[2016-03-20].http://dx.chinadoi.cn/10.13682/j.issn.2095-6533.2015.01.010.

        [2]邵延華, 郭永彩, 高潮. 基于特征融合的人體行為識別[J/OL].光電子·激光,2014(9):1818-1823[2016-03-10].http://www.cnki.com.cn/Article/CJFDTotal-GDZJ201409029.htm.DOI:10.16136/j.joel.2014.09.027.

        [3]吳冬梅, 謝金壯, 王靜. 基于多特征融合的人體行為識別[J/OL].計算機應(yīng)用于軟件,2015(11):171-175[2016-03-10].http://dx.chinadoi.cn/10.3969/j.issn.1000-386x.2015.11.040.

        [4]LIHP,ZHANGF,ZHANGSW.Multi-featurehierarchicaltopicmodelsforhumanbehaviorrecognition[J/OL].ScienceChinaInformationSciences,2014, 57(9): 1-15[2016-03-10].http://dx.doi.org/10.1007/s11432-013-4794-9.

        [5]SONGW,LIUN,YANGG.ANovelHumanActionRecognitionAlgorithmBasedonDecisionLevelMulti-FeatureFusion[J/OL].ChinaCommunications, 2015(S2):93-102[2016-03-10].http://en.cnki.com.cn/Article_en/CJFDTotal-ZGTO2015S2012.htm.

        [6]范琳, 王忠民. 穿戴位置無關(guān)的手機用戶行為識別模型[J/OL]. 計算機應(yīng)用研究, 2015,32(1): 63-66.http://dx.chinadoi.cn/10.3969/j.issn.1001-3695.2015.01.015.

        [7]蘇竑宇, 陳啟安, 吳海濤.基于SVM和HMM二級模型的行為識別方案[J/OL].計算機與現(xiàn)代化,2015(5):1-8[2016-03-10].http://dx.chinadoi.cn/10.3969/j.issn.1006-2475.2015.05.001.

        [8]王忠民, 王斌. 多頻段時域分解的行為識別特征優(yōu)選方法[J/OL].計算機應(yīng)用研究,2015,32(7):1956-1958[2016-03-20].http://dx.chinadoi.cn/10.3969/j.issn.1001-3695.2015.07.009.

        [9]CHENYQ,ZHAOZT,WANGSQ,etal.ExtremeLearningMachinebaseddevicedisplacementfreeactivityrecognitionmodel[J/OL].SoftComputing,2012,16(9):1617-1625[2016-03-20].http://dx.doi.org/10.1007/s00500-012-0822-8 .

        [10] 何衛(wèi)華. 人體行為識別關(guān)鍵技術(shù)研究[D/OL]. 重慶: 重慶大學, 2012:3-134[2016-03-20].http://cdmd.cnki.com.cn/Article/CDMD-10611-1012047169.htm.

        [11]YANGJ,WANGS,CHENN,etal.Wearableaccelerometerbasedextendableactivityrecognitionsystem[C/OL]// 2010IEEEInternationalConferenceonRoboticsandAutomation(ICRA) ,Anchorage,AK:IEEE, 2010: 3641-3647[2016-03-20].http://dx.doi.org/10.1109/ROBOT.2010.5509783.

        [12] 支周,屈肅.一種基于遷移極速學習機的人體行為識別模型[J/OL].物聯(lián)網(wǎng)技術(shù).2015,5(9):18-20[2016-03-20].http://dx.chinadoi.cn/10.3969/j.issn.2095-1302.2015.09.007.

        [13] 王忠民, 王晶, 張榮. 一種基于人工標簽數(shù)據(jù)的行為識別模型遷移方法[J]. 西安郵電大學學報, 2016,21(2): 92-97.DOI:10.13682/j.issn.2095-6533.2016.02.018.

        [責任編輯:祝劍]

        A user-independent behavior recognition model based on multi-classifier fusion

        HE Yan,WANG Ke,WANG Zhongmin

        (School of Computer Science and Technology, Xi’an University of Posts and Telecommunications, Xi’an 710121, China)

        To improve the accuracy of the behavior recognition model, a user-independent behavior recognition model based on multi-classifier fusion is proposed. Decision tree C4.5 is used as the classification algorithm to generate the base classifiers from top-down. Then the accuracy of the base classifiers is used as the weight value, and the fusion algorithm is used to deal with the recognition result of the base classifiers to build the user-independent behavior recognition model. The model is tested by the dataset collected by several users whose acceleration data are not used to train the base classifiers; the final behavior recognition results are then produced. Experimental results show that the recognition accuracy of the proposed fusion model is increased to recognize the behaviors such as staying, walking, running, going upstairs, going downstairs.

        base-classifier, multi-classifier fusion, behavior recognition, decision tree

        10.13682/j.issn.2095-6533.2016.05.010

        2016-05-13

        國家自然科學基金資助項目(61373116);陜西省科技統(tǒng)籌創(chuàng)新工程計劃項目(2016KTZDGY04-01)

        賀炎(1980-),女,碩士,講師,從事機器學習和智能信息處理研究。E-mail: heyan0220@xupt.edu.cn

        王科(1988-),女,碩士研究生,研究方向為嵌入式系統(tǒng)與設(shè)計。E-mail: 344512721@qq.com

        TP391

        A

        2095-6533(2016)05-0050-05

        猜你喜歡
        融合用戶模型
        一半模型
        村企黨建聯(lián)建融合共贏
        融合菜
        從創(chuàng)新出發(fā),與高考數(shù)列相遇、融合
        重要模型『一線三等角』
        《融合》
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        關(guān)注用戶
        商用汽車(2016年11期)2016-12-19 01:20:16
        3D打印中的模型分割與打包
        關(guān)注用戶
        商用汽車(2016年6期)2016-06-29 09:18:54
        五月婷婷激情综合| 日本熟妇色xxxxx日本妇| 小宝极品内射国产在线| 成人a在线观看| 亚洲va精品va国产va| 欧美国产日韩a在线视频| 久久久国产精品| 一区二区三区在线观看视频免费| 欧美成人久久久| 99久久国产综合精品五月天| 人妻诱惑中文字幕在线视频| 国产情侣自拍偷拍精品| 青春草在线视频精品| 欧美黑人巨大xxxxx| 欧美一性一乱一交一视频| 国产av无码专区亚洲a∨毛片| 国产噜噜亚洲av一二三区| 欧洲色综合| 久久精品人人做人人综合| 91精品国产91久久久无码95| 黄片午夜免费观看视频国产| 青青草精品视频在线播放| 亚洲人成影院在线观看| 国产亚洲精品成人无码精品网站| 久久精品国产白丝爆白浆| 99视频在线精品免费观看6| 国产午夜福利在线播放| 国产成人免费一区二区三区| 日韩人妻大奶子生活片| 无码熟妇人妻av在线影片最多 | 99在线精品国产不卡在线观看 | 中文字幕综合一区二区| 人妻少妇无码精品视频区| 日韩A∨精品久久久久| 色青青女同性恋视频日本熟女 | 免费黄色影片| 国产三级精品三级国产| 国产一级自拍av播放| 亚洲av综合色区无码专区桃色| 人与嘼交av免费| 一区二区三区国产97|