亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于目標(biāo)均衡度量的核增量學(xué)習(xí)跌倒檢測(cè)方法

        2018-06-20 09:30:10忽麗莎王素貞陳益強(qiáng)胡春雨蔣鑫龍陳振宇高興宇
        計(jì)算機(jī)應(yīng)用 2018年4期
        關(guān)鍵詞:訓(xùn)練樣本增量矩陣

        忽麗莎,王素貞,陳益強(qiáng),胡春雨,蔣鑫龍,陳振宇,高興宇

        (1.河北經(jīng)貿(mào)大學(xué) 信息技術(shù)學(xué)院,石家莊 050061; 2.中國科學(xué)院計(jì)算技術(shù)研究所,北京 100190;3.中國電力科學(xué)研究院,北京 100192; 4.中國科學(xué)院微電子研究所,北京 100029)(*通信作者電子郵箱yqchen@ict.ac.cn)

        0 引言

        隨著醫(yī)療技術(shù)的發(fā)展與人民生活水平的提高,人類社會(huì)日益步入老齡化階段。如何實(shí)現(xiàn)健康老齡化,提高老年人的生活質(zhì)量是全社會(huì)亟待解決的難題。老年人在日常生活中由于平衡能力差、身體素質(zhì)弱等因素,極其容易發(fā)生跌倒[1],跌倒后如不能得到及時(shí)救治,將會(huì)給老人帶來嚴(yán)重的傷害,甚至危及生命,因此跌倒檢測(cè)是面向老年人監(jiān)護(hù)的一項(xiàng)重要研究?jī)?nèi)容[2-3]。

        已有的跌倒檢測(cè)方法主要分為三大類[4]:1)基于視頻分析的方法。利用一個(gè)[5]或多個(gè)[6]相機(jī)和專用服務(wù)器實(shí)時(shí)跟蹤目標(biāo),視頻資源上傳至服務(wù)器并進(jìn)行個(gè)體圖像分割,通過判定目標(biāo)姿勢(shì)的變化來檢測(cè)是否發(fā)生了跌倒。該方法可在不影響用戶的正常生活的同時(shí)實(shí)現(xiàn)對(duì)多位用戶的跌倒檢測(cè)監(jiān)控;但因相機(jī)運(yùn)行范圍受限、設(shè)備布置代價(jià)昂貴、隱私問題、相機(jī)盲點(diǎn)和對(duì)動(dòng)態(tài)環(huán)境的閉塞等問題,該方法仍存在許多不足。2)基于聲音與環(huán)境傳感器的方法。利用紅外線[7]和麥克風(fēng)[8]等獲取環(huán)境中的數(shù)據(jù),基于跌倒時(shí)產(chǎn)生的振動(dòng)波頻率等檢測(cè)跌倒。與基于視頻分析的方法相比,該方法所需的硬件較為簡(jiǎn)單、低廉,也可實(shí)現(xiàn)多人檢測(cè),一定程度地緩和了隱私問題;但是由于使用場(chǎng)景的限制,以及真實(shí)環(huán)境中的噪聲干擾等問題,嚴(yán)重影響了跌倒檢測(cè)的精度。3)基于可穿戴設(shè)備的方法。基于嵌入在用戶衣物[9]、手表[10]、眼鏡[11]中的運(yùn)動(dòng)傳感器采集數(shù)據(jù),經(jīng)過分析處理后檢測(cè)是否發(fā)生了跌倒。與前面兩種方法相比,基于可穿戴設(shè)備的跌倒檢測(cè)方法具有價(jià)格低廉、配置簡(jiǎn)單、易攜帶等優(yōu)點(diǎn)。本文重點(diǎn)研究基于可穿戴設(shè)備的跌倒檢測(cè)方法。

        常規(guī)的跌倒檢測(cè)模型一般是基于大量用戶的跌倒與非跌倒數(shù)據(jù)經(jīng)過離線訓(xùn)練生成的[12-13]。訓(xùn)練過程一結(jié)束,模型將被直接嵌入可穿戴設(shè)備中,從而為用戶提供跌倒檢測(cè)服務(wù)。一般情況下,這種靜態(tài)式的通用模型不能很好地?cái)M合用戶的穿戴方式、行為等個(gè)性化特點(diǎn)。用戶佩戴上設(shè)備以后,設(shè)備中的跌倒檢測(cè)模型需要針對(duì)用戶大量的個(gè)性化數(shù)據(jù)相應(yīng)地進(jìn)行自我調(diào)整,使之逐漸擬合該目標(biāo)用戶的個(gè)性化特點(diǎn)。為了達(dá)到這一目的,一些研究工作構(gòu)建了基于可穿戴設(shè)備的增量學(xué)習(xí)跌倒檢測(cè)模型[14];此外,可穿戴設(shè)備的資源受限性使得模型的訓(xùn)練與測(cè)試過程均不能涉及大量的計(jì)算工作[15]。

        在眾多的機(jī)器學(xué)習(xí)方法中,超限學(xué)習(xí)機(jī)(Extreme Learning Machine, ELM)模型因其訓(xùn)練速度快和泛化能力高等優(yōu)點(diǎn)得到了廣泛應(yīng)用[16-17]。以ELM為基礎(chǔ)提出的正則化超限學(xué)習(xí)機(jī)(Regularized ELM, RELM)模型則成為解決兩類分類、多類分類和回歸問題的統(tǒng)一模型框架[18]。當(dāng)隱含層的映射函數(shù)未知或難以選擇最優(yōu)的映射函數(shù)時(shí),可將RELM與核函數(shù)進(jìn)行有效結(jié)合,從而構(gòu)建一種核正則化超限學(xué)習(xí)機(jī)(Kernelized RELM)模型[19]。以ELM、RELM或Kernelized RELM模型為基礎(chǔ)的多種增量學(xué)習(xí)模型詳見文獻(xiàn)[20-33]。

        本文重點(diǎn)研究以批量模型Kernelized RELM為基礎(chǔ)構(gòu)建的增量學(xué)習(xí)模型KB-IELM (Kernel Based Incremental ELM)[22]和OKRELM(Online Kernelized RELM)[34]。本文的主要工作如下:

        1)提出了一種核化的經(jīng)驗(yàn)風(fēng)險(xiǎn)均值最小化超限學(xué)習(xí)機(jī)模型ALELM(Average-Lossed ELM),用于解決RELM模型推廣至增量學(xué)習(xí)時(shí)出現(xiàn)的性能退化問題。

        2)以ALELM模型為基礎(chǔ),提出了一種性能魯棒的增量學(xué)習(xí)模型Passive OALELM(Passive Online ALELM)和計(jì)算輕量的增量學(xué)習(xí)模型Active OALELM,后者可大幅減少模型更新和預(yù)測(cè)的時(shí)間消耗。

        3)在跌倒檢測(cè)專用的公開數(shù)據(jù)集上的實(shí)驗(yàn)驗(yàn)證了本文的兩種增量學(xué)習(xí)模型的識(shí)別精度和計(jì)算速度。

        1 基礎(chǔ)知識(shí)

        1.1 Kernelized RELM

        RELM[16-17]是一個(gè)單隱含層前饋式神經(jīng)網(wǎng)絡(luò),可用于解決兩類分類、多類分類以及回歸問題[18]。結(jié)合使用核函數(shù)的Kernelized RELM模型則可以有效應(yīng)用于那些隱含層的映射函數(shù)未知或難以選擇的場(chǎng)景。本文重點(diǎn)關(guān)注利用Kernelized RELM模型解決分類問題。

        Kernelized RELM只能用于離線訓(xùn)練的場(chǎng)景,是一種批量的學(xué)習(xí)模型。一個(gè)通用的行為識(shí)別模型可以基于大量用戶的日常行為數(shù)據(jù)以離線的方式進(jìn)行訓(xùn)練。通用模型到個(gè)性化模型的轉(zhuǎn)變,則需要根據(jù)持續(xù)采集的目標(biāo)用戶的個(gè)性化樣本進(jìn)行不斷的更新操作,且更新過程是在線進(jìn)行的。

        1.2 KB-IELM

        KB-IELM[22]是一種將批量模型Kernelized RELM推廣至增量式訓(xùn)練場(chǎng)景的增量學(xué)習(xí)模型,用于解決訓(xùn)練樣本依次到達(dá)時(shí)的模型構(gòu)建問題。KB-IELM模型的訓(xùn)練過程包含兩個(gè)階段:1)初始構(gòu)建階段,基于初始數(shù)據(jù)集完成輸出函數(shù)的初始化操作;2)模型更新階段,針對(duì)源源不斷的新到數(shù)據(jù)完成輸出函數(shù)的更新,最終實(shí)現(xiàn)分類模型的增量更新訓(xùn)練場(chǎng)景。

        1.3 OKRELM

        在KB-IELM模型的更新階段,持續(xù)到達(dá)的新數(shù)據(jù)逐漸擴(kuò)大了訓(xùn)練集的規(guī)模,同時(shí)也帶來了模型更新階段計(jì)算與存儲(chǔ)需求的不斷增長(zhǎng)。此外,新數(shù)據(jù)中的一些冗余數(shù)據(jù)對(duì)模型的更新效果并不十分明顯,然而這些數(shù)據(jù)在參與模型更新過程時(shí)帶來了大量不必要的計(jì)算與存儲(chǔ)消耗。針對(duì)KB-IELM模型的這一問題,增量學(xué)習(xí)模型OKRELM[34]的核心思想是每次從新的數(shù)據(jù)塊中挑選一些十分有價(jià)值的數(shù)據(jù),僅基于挑選出的數(shù)據(jù)執(zhí)行模型更新過程的計(jì)算。

        2 基于目標(biāo)均衡度量的核增量學(xué)習(xí)模型

        2.1 ALELM

        給定由N個(gè)訓(xùn)練樣本組成的訓(xùn)練集合{(xi,ti)|xi∈Rd,ti∈Rm,i=1,2,…,N},其中:樣本xi表示d維的特征向量;向量ti表示樣本xi的類標(biāo),且向量ti=(ti1,ti2,…,tim)T中存在唯一的一個(gè)分量tik取值為1,表示樣本屬于第k類;ti其余的分量tij(j≠k)取值均為-1;N和m分別表示訓(xùn)練樣本個(gè)數(shù)和樣本所屬的類別個(gè)數(shù)。

        為使更新后模型的性能不隨訓(xùn)練樣例個(gè)數(shù)的增加而出現(xiàn)不穩(wěn)定的情況,本文首先提出一種新的批量學(xué)習(xí)模型ALELM。ALELM模型的優(yōu)化問題如下:

        (1)

        s.t.βTh(xi)=ti-ξ:,i;i=1,2,…,N

        其中:β表示需要求解的L×m維輸出變量;ξ表示m×N維的松弛變量,矩陣ξ的第i列ξ:,i表示樣本xi的訓(xùn)練誤差;h(x)表示將d維樣本x映射到某個(gè)未知的高維Hibert空間的核函數(shù)k(·,·)的映射函數(shù),兩者之間的關(guān)系為k(x,y)=h(x)Th(y);C是懲罰參數(shù)。

        根據(jù)KKT(Karush-Kuhn-Tucker)定理,求解優(yōu)化問題(1)等價(jià)于求解對(duì)應(yīng)的對(duì)偶問題。其對(duì)偶問題的目標(biāo)函數(shù)為:

        (2)

        令D關(guān)于各自變量的偏導(dǎo)數(shù)為0,可以獲得式(3)~(5):

        (3)

        (4)

        ?i,j?Hβ-T+ξT=0

        (5)

        將式(3)和(4)代入式(5),α可按式(6)進(jìn)行求解:

        α=A-1T

        (6)

        將式(6)代入式(3),β的求解方式如下:

        β=HTα

        (7)

        最后,ALELM模型輸出函數(shù)的計(jì)算方式為:

        f(x)=βTh(x)=

        TTA-1[k(x1,x),k(x2,x),…,k(xN,x)]T

        (8)

        ALELM模型的訓(xùn)練過程見算法1,其中步驟3需要計(jì)算N×N維矩陣A的逆矩陣A-1,復(fù)雜度為O(N3),是算法1中最為耗時(shí)的一個(gè)步驟。

        在測(cè)試階段,針對(duì)任意測(cè)試樣例x,f(x)表示m×1維的向量。ALELM模型關(guān)于測(cè)試樣例x的預(yù)測(cè)結(jié)果見式(9):

        (9)

        其中:fk(x)表示向量f(x)的第k個(gè)分量。

        算法1 ALELM模型的訓(xùn)練過程。

        輸入 包含N個(gè)訓(xùn)練樣本的數(shù)據(jù)(X,T),核函數(shù)k(·,·),懲罰參數(shù)C。

        輸出 輸出函數(shù)f(x)。

        1)計(jì)算Gram矩陣Ω。

        3)計(jì)算矩陣A的逆矩陣A-1。

        4)計(jì)算輸出f(x)=TTA-1[k(x1,x),k(x2,x),…,k(xN,x)]T。

        2.2 Passive OALELM

        以批量模型ALELM為基礎(chǔ),本文提出了經(jīng)驗(yàn)風(fēng)險(xiǎn)均值最小化增量學(xué)習(xí)模型(Passive OALELM),用于解決當(dāng)訓(xùn)練數(shù)據(jù)先后到達(dá)時(shí)模型的訓(xùn)練問題。與其他的增量學(xué)習(xí)模型類似,Passive OALELM模型的訓(xùn)練過程也包含初始構(gòu)建和模型更新兩個(gè)階段。下面對(duì)Passive OALELM的這兩個(gè)階段分別進(jìn)行介紹:

        1)初始構(gòu)建階段。給定包含N0個(gè)訓(xùn)練樣本的初始數(shù)據(jù)塊(X0,T0),則Lagrange矩陣α0和輸出函數(shù)f0(x)的求解方式如下:

        (10)

        f0(x)=(α0)T[k(x1,x),k(x2,x),…,k(xN0,x)]T

        (11)

        2)模型更新階段。假定新到達(dá)的數(shù)據(jù)塊(X1,T1)包含N1個(gè)樣本,此時(shí)Lagrange矩陣α1表示為:

        (12)

        (13)

        (14)

        根據(jù)分塊矩陣的求逆公式[35],Lagrange矩陣α1可按如下方式進(jìn)行求解:

        (15)

        此時(shí),輸出函數(shù)f1(x)表示為:

        f1(x)=(α1)T[k(x1,x),k(x2,x),…,k(xN0+N1,x)]T

        (16)

        當(dāng)?shù)趎個(gè)數(shù)據(jù)塊(Xn,Tn)到達(dá)時(shí),依照算法2中模型更新階段的計(jì)算步驟將輸出函數(shù)更新為fn(x)。

        算法2 Passive OALELM模型的訓(xùn)練過程。

        初始構(gòu)建階段:s=0,包含Ns個(gè)訓(xùn)練樣本的初始數(shù)據(jù)塊(Xs,Ts),核函數(shù)k(·,·),懲罰參數(shù)C。

        1)計(jì)算Gram矩陣Ωs。

        模型更新階段:新到達(dá)包含Ns+1-Ns個(gè)訓(xùn)練樣本的數(shù)據(jù)塊(Xs+1,Ts+1)。

        1)計(jì)算Gram矩陣Ωs+1與混合Gram矩陣Us+1。

        3)計(jì)算矩陣

        5)計(jì)算矩陣As+1的逆矩陣

        6)更新輸出函數(shù)

        fs+1(x)=

        7)s=s+1

        2.3 Active OALELM

        為了盡可能地降低模型更新階段的計(jì)算復(fù)雜度,借鑒OKRELM模型的核心思想,本文提出在Passive OALELM模型的更新階段僅利用錯(cuò)分的數(shù)據(jù)參與更新,并將此模型稱之為Active OALELM,訓(xùn)練過程見算法3。對(duì)應(yīng)地,將2.2節(jié)中所有數(shù)據(jù)參與更新的模型稱之為Passive OALELM。

        算法3 Active OALELM模型的訓(xùn)練過程。

        初始構(gòu)建階段:s=0,包含Ns個(gè)訓(xùn)練樣本的初始數(shù)據(jù)塊(Xs,Ts),核函數(shù)k(·,·),懲罰參數(shù)C。

        模型更新階段:新到達(dá)包含Ns+1-Ns個(gè)訓(xùn)練樣本的數(shù)據(jù)塊(Xs+1,Ts+1)。

        1)計(jì)算Gram矩陣Ωs+1與混合Gram矩陣Us+1。

        3)計(jì)算類別預(yù)測(cè)結(jié)果:

        4)生成由所有被錯(cuò)分的數(shù)據(jù)組成的指標(biāo)集

        5)更新矩陣Ωs+1與Us+1只與指標(biāo)集中的數(shù)據(jù)有關(guān),即(Ωs+1)ij=k(xi,xj),i,j∈Δ;(Us+1)ij=k(xi,xj),i∈{1,2,…,Ns},j∈Δ。

        6)執(zhí)行算法2中模型更新階段的步驟2)~6)。

        3 實(shí)驗(yàn)及結(jié)果分析

        3.1 數(shù)據(jù)集

        為驗(yàn)證本文方法的性能,在跌倒檢測(cè)專用的公開數(shù)據(jù)集[37]上開展了實(shí)驗(yàn)。該數(shù)據(jù)集包含32位用戶(28男,4女)4種朝向(前、后、左、右)的跌倒行為、1種疑似跌倒行為(失衡)和7種非跌倒日常行為(站立、平躺、走路、蹲伏、爬樓梯、坐床、坐椅子)。數(shù)據(jù)采集設(shè)備穿戴于用戶的胸部和腿部,每個(gè)部位分別包含一個(gè)3軸加速度計(jì)和一個(gè)3軸陀螺儀,采樣率均為100 Hz。數(shù)據(jù)集的規(guī)模介紹見表1中“特征提取前”這一階段的內(nèi)容。

        表1 特征提取前后跌倒檢測(cè)數(shù)據(jù)集的規(guī)模

        3.2 數(shù)據(jù)預(yù)處理與特征提取

        圖1展示了跌倒行為通常包含的三個(gè)階段,其中縱軸表示三軸加速度計(jì)的合成加速度(用均方根(Root Mean Square, RMS)表示),g為重力加速度(1 g=9.8 m/s2)。針對(duì)上述跌倒檢測(cè)原始數(shù)據(jù)集的預(yù)處理操作包含三個(gè)步驟:1)將加速度計(jì)和陀螺儀的三軸數(shù)據(jù)通過計(jì)算均方根(RMS)的方式分別合并為一個(gè)軸,構(gòu)成合成加速度和合成角速度,消除設(shè)備穿戴朝向?qū)鞲衅髯x數(shù)的影響;2)針對(duì)跌倒這種特殊的異常行為本身的特點(diǎn)(見圖1),根據(jù)合成加速度數(shù)據(jù)識(shí)別跌倒過程中的撞擊前、撞擊和撞擊后三個(gè)階段[38];3)基于每個(gè)階段的加速度計(jì)和陀螺儀數(shù)據(jù)分別提取最小值、最大值、均值、方差和平方根五種簡(jiǎn)單的時(shí)域特征,共計(jì)60維(5種特征×3個(gè)階段×2種傳感器×2個(gè)穿戴位置)特征,特征提取后生成的樣例集合見表1中“特征提取后”這一階段的內(nèi)容。

        圖1 一次跌倒行為的三個(gè)階段

        3.3 參數(shù)選擇

        為了驗(yàn)證本文方法的有效性,核函數(shù)統(tǒng)一選取Gaussian核k(xi,xj)=exp(-σ‖xi-xj‖2)。這樣,四種增量學(xué)習(xí)模型KB-IELM、OKRELM、Passive OALELM和Active OALELM均包含懲罰參數(shù)C、核參數(shù)σ、初始數(shù)據(jù)塊大小N0和新增塊大小Block四個(gè)參數(shù)。參數(shù)C和σ的取值范圍均設(shè)置為{2-24, 2-23, …, 224, 225};N0的取值范圍為{100, 200, …, 900, 1 000};Block的取值范圍為{50, 100, …,N0}。利用RRSS(Repeated Random Sub-Sampling)[39]方式對(duì)數(shù)據(jù)集進(jìn)行劃分,選出的最優(yōu)取值情況見表2。

        表2 四種增量學(xué)習(xí)模型的最優(yōu)參數(shù)取值

        3.4 跌倒檢測(cè)精度對(duì)比

        為了對(duì)比KB-IELM、OKRELM、Passive OALELM和Active OALELM四種增量學(xué)習(xí)模型跌倒檢測(cè)的精度,本文在每次模型更新之后記錄上述四種模型關(guān)于跌倒行為的查準(zhǔn)率(Precision)和查全率(Recall)。訓(xùn)練集和測(cè)試集的劃分方式見3.3節(jié),每種模型的參數(shù)取值見表2。圖2顯示了四種增量學(xué)習(xí)模型10次實(shí)驗(yàn)結(jié)果后Precision和Recall的平均值。需要強(qiáng)調(diào)的是,這里的Precision和Recall指標(biāo)僅用于衡量跌倒這一類行為的識(shí)別精度。

        從圖2可以看出:隨著后續(xù)新增數(shù)據(jù)塊的陸續(xù)到達(dá),KB-IELM模型Precision和Recall的取值均下滑至60%以下,并出現(xiàn)上下波動(dòng)的情況;OKRELM模型的Precision和Recall分別下滑至30.8%和50.23%,也出現(xiàn)了性能退化和不穩(wěn)定的現(xiàn)象。

        與KB-IELM和OKRELM模型不同,Passive OALELM和Active OALELM模型在整個(gè)模型更新階段的Precision和Recall始終保持在95%以上,均展示了精準(zhǔn)魯棒的識(shí)別結(jié)果,從而顯示了ALELM模型優(yōu)化問題中經(jīng)驗(yàn)風(fēng)險(xiǎn)均值最小化策略的優(yōu)越性。

        進(jìn)一步,Passive OALELM模型在Precision和Recall上均優(yōu)于Active OALELM模型,但在時(shí)間消耗方面Passive OALELM模型遠(yuǎn)比Active OALELM模型的代價(jià)高(見圖4),因此可以根據(jù)需求的不同分別選擇合適的模型。

        圖2 四種增量學(xué)習(xí)模型關(guān)于跌倒行為的Precision與Recall結(jié)果對(duì)比

        3.5 行為識(shí)別精度對(duì)比

        為了評(píng)估模型關(guān)于跌倒與非跌倒二類分類問題的分類精度,本文統(tǒng)計(jì)了KB-IELM、OKRELM、Passive OALELM和Active OALELM四種增量學(xué)習(xí)模型在每次更新計(jì)算后的F1-Score和Accuracy。實(shí)驗(yàn)設(shè)置與3.3節(jié)一致,實(shí)驗(yàn)結(jié)果見圖3。

        圖3 四種增量學(xué)習(xí)模型關(guān)于跌倒行為的F1-Score與Accuracy結(jié)果對(duì)比

        根據(jù)圖3的實(shí)驗(yàn)結(jié)果可以看出,在第7個(gè)新增數(shù)據(jù)塊更新結(jié)束后OKRELM模型的Accuracy為61.47%,但F1-Score僅為2.98%。結(jié)合圖2中的結(jié)果,這就意味著OKRELM模型在第7次更新結(jié)束后幾乎將所有的跌倒樣例分錯(cuò),從另外一個(gè)角度驗(yàn)證了OKRELM模型會(huì)出現(xiàn)性能不穩(wěn)定的情況。

        另一方面,Passive OALELM模型的性能在整個(gè)模型更新階段均超越了KB-IELM模型,從而顯示了Passive OALELM模型在解決二類分類問題時(shí)的魯棒性和有效性,而這正是得益于以之為基礎(chǔ)的批量學(xué)習(xí)模型ALELM的優(yōu)化問題中引入了經(jīng)驗(yàn)風(fēng)險(xiǎn)均值最小化這一原則??傮w而言,Passive OALELM模型在F1-Score和Accuracy兩方面的性能均優(yōu)于Active OALELM模型,因此Passive OALELM模型更適合于那些對(duì)魯棒性和識(shí)別能力要求非常高的應(yīng)用場(chǎng)景。

        Passive OALELM和Active OALELM兩個(gè)模型的識(shí)別能力對(duì)比情況在圖3中并不十分明顯。3.6節(jié)將詳細(xì)介紹Passive OALELM和Active OALELM模型在時(shí)間有效性方面的對(duì)比。

        3.6 時(shí)間有效性對(duì)比

        在訓(xùn)練時(shí)間消耗方面,KB-IELM和OKRELM模型的初始構(gòu)建階段都是以RELM模型為基礎(chǔ),兩者的初始訓(xùn)練時(shí)間相同,均為0.04 s(見圖4(a))。隨著模型更新階段新增數(shù)據(jù)塊的不斷到達(dá),KB-IELM模型的更新時(shí)間消耗不斷增加,并最終上升至2.47 s;而OKRELM模型的更新時(shí)間消耗最終只增加至0.11 s。與KB-IELM模型相比,Passive OALELM模型由于在模型更新階段需要額外計(jì)算一個(gè)逆矩陣(見2.2節(jié)),因此在時(shí)間有效性方面不如KB-IELM模型。而Active OALELM模型由于只利用少量被錯(cuò)分的樣例參與模型的更新過程,因此繼承了OKRELM模型更新速度快這一優(yōu)勢(shì)。事實(shí)上,Active OALELM關(guān)于模型更新階段的最長(zhǎng)時(shí)間消耗僅為0.09 s,更新速度甚至超過了OKRELM模型。

        圖4 四種增量學(xué)習(xí)模型的時(shí)間消耗情況對(duì)比

        在測(cè)試時(shí)間消耗方面,經(jīng)過最后一次更新后的OKRELM與Active OALELM模型的測(cè)試時(shí)長(zhǎng)約為0.003 s,而KB-IELM和Passive OALELM模型約為0.08 s (見圖4(b)),因此Active OALELM模型在測(cè)試階段的時(shí)間優(yōu)勢(shì)也非常明顯。

        4 結(jié)語

        跌倒作為一種特殊的異常行為,嚴(yán)重傷害老年人的身心健康,并給日益嚴(yán)重的老齡化社會(huì)帶來異常沉重的經(jīng)濟(jì)負(fù)擔(dān),因此,跌倒檢測(cè)技術(shù)的研究工作意義重大且十分關(guān)鍵。本文提出了一種基于目標(biāo)均衡度量的核增量學(xué)習(xí)模型OALELM,用于面向可穿戴設(shè)備的跌倒檢測(cè);并在跌倒檢測(cè)公開數(shù)據(jù)集上驗(yàn)證了本文方法的有效性。實(shí)驗(yàn)結(jié)果顯示了OALELM模型關(guān)于模型更新的魯棒性。更進(jìn)一步,Passive OALELM模型在更新訓(xùn)練階段顯示了魯棒精準(zhǔn)的識(shí)別能力;Active OALELM模型在一定程度地保證識(shí)別能力的同時(shí)有效提高了模型更新訓(xùn)練階段和測(cè)試階段的計(jì)算速度。

        參考文獻(xiàn)(References)

        [1] ROBIE K. Falls in older people: risk factors and strategies for prevention[J]. The Journal of the American Medical Association, 2010, 304(17): 1958-1959.

        [2] 沈秉乾,武志勇, 賀前華, 等. 人體姿勢(shì)狀態(tài)判決的跌倒檢測(cè)方法[J]. 計(jì)算機(jī)應(yīng)用, 2014, 34(增刊1): 223-227, 264.(SHEN B Q, WU Z Y, HE Q H, et al. Falling detection method based on human body posture judgment[J]. Journal of Computer Applications, 2014, 34(S1): 223-227, 264.)

        [3] 羅丹, 羅海勇. 基于隨機(jī)森林的跌倒檢測(cè)算法[J]. 計(jì)算機(jī)應(yīng)用, 2015, 35(11): 3157-3160, 3165.(LUO D, LUO H Y. Fall detection algorithm based on random forest[J]. Journal of Computer Applications, 2015, 35(11): 3157-3160, 3165.)

        [4] YU X. Approaches and principles of fall detection for elderly and patient[C]// HealthCom 2008: Proceedings of the 10th International Conference on E-health Networking, Applications and Services. Piscataway, NJ: IEEE, 2008: 42-47.

        [5] HU F, HAO Q, SUN Q, et al. Cyber physical system with virtual reality for intelligent motion recognition and training[J]. IEEE Transactions on Systems, Man, and Cybernetics: Systems, 2017, 47(2): 347-363.

        [6] AUVINET E, MULTON F, SAINT-ARNAUD A, et al. Fall detection with multiple cameras: an occlusion-resistant method based on 3-D silhouette vertical distribution[J]. IEEE Transactions on Information Technology in Biomedicine, 2011, 15(2): 290-300.

        [7] TOREYIN B U, SOYER E B, ONARAN I, et al. Falling person detection using multi-sensor signal processing[J]. EURASIP Journal on Advances in Signal Processing, 2008, 2008: Article No. 29.

        [8] ZHUANG X, HUANG J, POTAMIANOS G, et al. Acoustic fall detection using Gaussian mixture models and GMM supervectors[C]// ICASSP 2009: Proceedings of the 2009 IEEE International Conference on Acoustics, Speech and Signal Processing. Piscataway, NJ: IEEE, 2009: 69-72.

        [9] GJORESKI H, KOZINA S, GAMS M, et al. RAReFall — real-time activity recognition and fall detection system[C]// Proceedings of the 2014 IEEE International Conference on Pervasive Computing and Communications Workshops. Piscataway, NJ: IEEE, 2014: 145-147.

        [10] RAKHECHA S, HSU K. Reliable and secure body fall detection algorithm in a wireless mesh network[C]// BodyNets 2013: Proceedings of the 8th International Conference on Body Area Networks. Brussels, Belgium: ICST, 2013: 420-426.

        [11] CHEN Z, CHEN Y, HU L, et al. Leveraging two-stage weighted ELM for multimodal wearables based fall detection[C]// Proceedings of ELM-2014. Berlin: Springer, 2015, 2: 161-168.

        [12] QU W, LIN F, WANG A, et al. Evaluation of a low-complexity fall detection algorithm on wearable sensor towards falls and fall-alike activities[C]// Proceedings of the 2015 IEEE Signal Processing in Medicine and Biology Symposium. Piscataway, NJ: IEEE, 2015: 1-6.

        [13] WANNENBURG J, MALEKIAN R. Physical activity recognition from smartphone accelerometer data for user context awareness sensing[J]. IEEE Transactions on Systems, Man, and Cybernetics: Systems, 2016, 47(12): 3142-3149.

        [14] HU L, CHEN Y, WANG S, et al. Less annotation on personalized activity recognition using context data[C]// Proceedings of the 2016 International IEEE Conferences on Ubiquitous Intelligence & Computing, Advanced and Trusted Computing, Scalable Computing and Communications, Cloud and Big Data Computing, Internet of People, and Smart World Congress. Piscataway, NJ: IEEE, 2016: 327-332.

        [15] HU L, CHEN Y, WANG S, et al. b-COELM: a fast, lightweight and accurate activity recognition model for mini-wearable devices[J]. Pervasive and Mobile Computing, 2014, 15: 200-214.

        [16] HUANG G B, ZHU Q Y, SIEW C K. Extreme learning machine: theory and applications[J]. Neurocomputing, 2006, 70(1): 489-501.

        [17] HUANG G B, ZHU Q Y, SIEW C K. Universal approximation using incremental constructive feedforward networks with random hidden nodes[J]. IEEE Transactions on Neural Networks, 2006, 17(4): 879-892.

        [18] HUANG G B, ZHOU H, DING X, et al. Extreme learning machine for regression and multiclass classification[J]. IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics), 2012, 42(2): 513-529.

        [19] SCARDAPANE S, COMMINIELLO D, SCARPINITI M, et al. Online sequential extreme learning machine with kernels[J]. IEEE Transactions on Neural Networks and Learning Systems, 2015, 26(9): 2214-2220.

        [20] LIANG N Y, HUANG G B, SARATCHANDRAN P, et al. A fast and accurate online sequential learning algorithm for feedforward networks[J]. IEEE Transactions on Neural networks, 2006, 17(6): 1411-1423.

        [21] GU Y, LIU J, CHEN Y, et al. Constraint online sequential extreme learning machine for lifelong indoor localization system[C]// Proceedings of the 2014 International Joint Conference on Neural Networks. Piscataway, NJ: IEEE, 2014: 732-738.

        [22] GUO L, HAO J H, LIU M. An incremental extreme learning machine for online sequential learning problems[J]. Neurocomputing, 2014, 128: 50-58.

        [23] GAO X, HOI S, ZHANG Y, et al. Sparse online learning of image similarity[J]. ACM Transactions on Intelligent Systems and Technology, 2017, 8(5): Article No. 64.

        [24] GAO X, CHEN Z, TANG S, et al. Adaptive weighted imbalance learning with application to abnormal activity recognition[J]. Neurocomputing, 2016, 173: 1927-1935.

        [25] JIANG X, LIU J, CHEN Y, et al. Feature adaptive online sequential extreme learning machine for lifelong indoor localization[J]. Neural Computing and Applications, 2016, 27(1): 215-225.

        [26] CHEN Z, CHEN Y, GAO X, et al. Unobtrusive sensing incremental social contexts using fuzzy class incremental learning[C]// Proceedings of the 2015 IEEE International Conference on Data Mining. Piscataway, NJ: IEEE, 2015: 71-80.

        [27] XIANG Z, CHEN Z, GAO X, et al. Solving large-scale TSP using a fast wedging insertion partitioning approach[J]. Mathematical Problems in Engineering, 2015, 2015: Article ID 854218.

        [28] JIANG X, CHEN Y, LIU J, et al. Real-time and accurate indoor localization with fusion model of Wi-Fi fingerprint and motion particle filter[J]. Mathematical Problems in Engineering, 2015, 2015: Article ID 545792.

        [29] CHEN Z, CHEN Y, HU L, et al. ContextSense: unobtrusive discovery of incremental social context using dynamic bluetooth data[C]// UbiComp 2014: Proceedings of the 2014 Adjunct Proceedings of the 2014 ACM International Joint Conference on Pervasive and Ubiquitous Computing: Adjunct Publication. New York: ACM, 2014: 23-26.

        [30] ZHANG H, YUAN J, GAO X, et al. Boosting cross-media retrieval via visual-auditory feature analysis and relevance feedback[C]// MM 2014: Proceedings of the 22nd ACM International Conference on Multimedia. New York: ACM, 2014: 953-956.

        [31] GAO X, HOI S, ZHANG Y, et al. SOML: sparse online metric learning with application to image retrieval[C]// AAAI 2014: Proceedings of the Twenty-Eighth AAAI Conference on Artificial Intelligence. Menlo Park: AAAI Press, 2014: 1206-1212.

        [32] CHEN Z, CHEN Y, WANG S, et al. Inferring social contextual behavior from bluetooth traces[C]// UbiComp 2013: Proceedings of the 2013 ACM Conference on Pervasive and Ubiquitous Computing Adjunct Publication. New York: ACM, 2013: 267-270.

        [33] CHEN Z, WANG S, SHEN Z, et al. Online sequential ELM based transfer learning for transportation mode recognition[C]// Proceedings of the 2013 IEEE Conference on Cybernetics and Intelligent Systems. Piscataway, NJ: IEEE, 2013: 78-83.

        [34] HU L, CHEN Y, WANG S, et al. OKRELM: online kernelized and regularized extreme learning machine for wearable-based activity recognition[J]. International Journal of Machine Learning and Cybernetics, 2016: 1-14.

        [35] HAGER W W. Updating the inverse of a matrix[J]. SIAM Review, 1989, 31(2): 221-239.

        [36] WANG W, HOU Z G, CHENG L, et al. Toward patients’ motion intention recognition: dynamics modeling and identification of iLeg — an LLRR under motion constraints[J]. IEEE Transactions on Systems, Man, and Cybernetics: Systems, 2016, 46(7): 980-992.

        [37] OJETOLA O, GAURA E, BRUSEY J. Data set for fall events and daily activities from inertial sensors[C]// MMSys 2015: Proceedings of the 6th ACM Multimedia Systems Conference. New York: ACM, 2015: 243-248.

        [38] OJETOLA O. Detection of human falls using wearable sensors[D]. Coventry, UK: Coventry University, 2014: 49-66.

        [39] ALTUN K, BARSHAN B. Human activity recognition using inertial/magnetic sensor units[C]// HBU 2010: Proceedings of the First International Workshop on Human Behavior Understanding, LNCS 6219. Berlin: Springer, 2010: 38-51.

        This work is partially supported by the National Natural Science Foundation of China (61702491), the Research Foundation of Hebei University of Economics and Business (2016KYZ05), the Science and Technology Program of State Grid Corporation of China (5442DZ170019), the Science and Technology Innovation Program of China Electric Power Research Institute (5242001600H5).

        猜你喜歡
        訓(xùn)練樣本增量矩陣
        提質(zhì)和增量之間的“辯證”
        人工智能
        “價(jià)增量減”型應(yīng)用題點(diǎn)撥
        寬帶光譜成像系統(tǒng)最優(yōu)訓(xùn)練樣本選擇方法研究
        融合原始樣本和虛擬樣本的人臉識(shí)別算法
        基于稀疏重構(gòu)的機(jī)載雷達(dá)訓(xùn)練樣本挑選方法
        初等行變換與初等列變換并用求逆矩陣
        基于均衡增量近鄰查詢的位置隱私保護(hù)方法
        矩陣
        南都周刊(2015年4期)2015-09-10 07:22:44
        矩陣
        南都周刊(2015年3期)2015-09-10 07:22:44
        曰韩少妇内射免费播放| 日本一区二区三本视频在线观看| 国产精品天堂在线观看| 中文字幕一区二区中出后入| 肉体裸交137日本大胆摄影| 成年男女免费视频网站| 国产精品一区成人亚洲| 日韩人妻免费视频一专区| 亚洲av日韩综合一区二区三区| 中文字幕+乱码+中文字幕无忧| 无码人妻丰满熟妇区免费| 99精品久久精品一区| 丰满少妇人妻无码专区| 免费特级黄毛片| 水蜜桃在线视频在线观看| 国产一区二区三区在线视频观看| 久久久久久无码av成人影院| 福利一区视频| 亚洲处破女av一区二区| 人妻久久久一区二区三区蜜臀 | 精品福利一区| 色婷婷一区二区三区久久亚洲| 中文字幕亚洲欧美在线不卡| 亚洲av日韩av不卡在线观看| 性无码国产一区在线观看| 一级黄色一区二区三区| 99热爱久久99热爱九九热爱| 99久久久久国产| 中文字幕人妻少妇精品| 日产乱码一二三区别免费l| 丰满人妻被黑人中出849| 亚州毛色毛片免费观看| 亚洲乱妇熟女爽到高潮视频高清| 欧美人与禽zozzo性伦交| 一级片久久| 国产亚洲精品综合在线网站| 亚洲欧洲成人a∨在线观看| 亚洲人成人影院在线观看| 日韩少妇人妻一区二区| 日韩亚洲精品中文字幕在线观看 | 黑人巨大无码中文字幕无码|