亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于數(shù)據(jù)增強(qiáng)的實(shí)時(shí)人體動(dòng)作識(shí)別

        2025-07-19 00:00:00俞秀張文哲劉鈍何飛
        科技創(chuàng)新與應(yīng)用 2025年18期
        關(guān)鍵詞:動(dòng)作特征模型

        中圖分類號(hào):TP391.4 文獻(xiàn)標(biāo)志碼:A 文章編號(hào):2095-2945(2025)18-0009-08

        Abstract:Humanactionrecognition(HAR)basedonChannel State Information(CSI)hassignificantappicationprospectsin feldssuchashuman-computerinteraction,healthcare,andintrusiondetection.Althoughcurentresearchhasmadesubstantial progressinrecognizingvarioustypesofactivitesandimprovingrecognitionaccracy,challengesremainintheneedforalarge numberofactivitysamplestotrainmodels,andinimprovingthereal-timeperformaneoftherecognitionprocessToaddress theseissues,areal-time humanactionrecognition(HAR)system,CSI-FHAR,isdesignedbasedondataaugmentation.By augmentingasmallnumberofreal samples to generatesyntheticsamples,thesystemreduces thedemandforreal samples during modeltraning.Aditioallbysegmentingcompleteactivitysamples,therecogitionspeedisincreased,ehancingal-ie performance.Toincreasetheinter-classfeaturediferences,CSI-FHARaddstemporalencodingtotheactivitysamples,tereby improvingthemodelsrecognitionacuracy.Theconvolutionalblockatentionmodule(CBAM)isembeddedintheconvolutional neuralnetwork(CNN)tofurtherenhancethenetwork'sabilitytoextractefectivefeaturesfromactivitysamples.Experimental resultsemonstratetheefectivenessofCSI-FHAR:withonlyfivesamplesperactivityclassfor1typesofactites,the proposed model achieved recognition accuracies of 95.1% for gestures and 92.5% for full-body activities.

        Keywords:humanactionrecognition(HAR);channelstateinformation;dataenhancement;temporalcoding;aention mechanism

        人體動(dòng)作識(shí)別(Human Activity Recognition,HAR)技術(shù)在人機(jī)交互、醫(yī)療健康、智能家居和日常行為檢測(cè)等領(lǐng)域獲得了廣闊的應(yīng)用。與基于計(jì)算機(jī)視覺(jué)、專用傳感器以及紅外感知的人體動(dòng)作識(shí)別技術(shù)等相比,基于Wi-Fi信號(hào)的人體動(dòng)作識(shí)別技術(shù)具有不侵犯隱私、不受光線影響、部署廣泛等優(yōu)勢(shì)。此技術(shù)所使用的信號(hào)主要包括接收信號(hào)強(qiáng)度指示(ReceivedSignalStrengthInformation,RSSI)和信道狀態(tài)信息(Channel

        StateInformation,CSI)3-4。RSSI信號(hào)屬于無(wú)線連接層,它是來(lái)自不同信道子載波的總和。將所有子載波簡(jiǎn)單疊加在一起的操作破壞了不同子載波各自攜帶的信息,導(dǎo)致RSSI信號(hào)無(wú)法提供細(xì)粒度的表示。相比于RSSI信號(hào),CSI信號(hào)具有更細(xì)的粒度和敏感度,能夠感知到信道更微小的變化,因此它在呼吸-手勢(shì)[8-幅度較小的動(dòng)作識(shí)別領(lǐng)域有更好的識(shí)別準(zhǔn)確率,使用CSI信號(hào)進(jìn)行人體動(dòng)作識(shí)別逐漸成為學(xué)者們的研究熱點(diǎn)。

        在早期的研究工作中,研究人員依靠機(jī)器學(xué)習(xí)方法人工提取信號(hào)中的特征,可使用的特征包括時(shí)域特征、頻域特征、統(tǒng)計(jì)特征和多普勒頻移特征等,以此訓(xùn)練識(shí)別模型。隨著深度學(xué)習(xí)技術(shù)的快速發(fā)展,越來(lái)越多的神經(jīng)網(wǎng)絡(luò)被用于自動(dòng)提取動(dòng)作樣本蘊(yùn)含的顯式與隱式特征,大大解放了繁雜的人工提取特征過(guò)程。CLAR[應(yīng)用奇異譜分析(SSA)提取動(dòng)作樣本的趨勢(shì)成分,并結(jié)合雙向長(zhǎng)短期記憶網(wǎng)絡(luò)建立基于集成學(xué)習(xí)的模型,實(shí)現(xiàn)了房間尺度下無(wú)設(shè)備跨位置的活動(dòng)識(shí)別。Sheng等使用2個(gè)卷積神經(jīng)網(wǎng)絡(luò)分別提取CSI信號(hào)振幅的時(shí)間和空間特征,實(shí)現(xiàn)了彎腰、拍手等6種動(dòng)作的分類。雖然這些基于機(jī)器學(xué)習(xí)的方法在人體動(dòng)作識(shí)別上取得了良好的效果,但是由于多徑效應(yīng)的影響,場(chǎng)景的變化可能會(huì)導(dǎo)致同一動(dòng)作的CSI信號(hào)呈現(xiàn)較大的差異,在發(fā)生變化的場(chǎng)景或新場(chǎng)景中進(jìn)行動(dòng)作識(shí)別,已有模型的識(shí)別精度可能會(huì)明顯下降甚至導(dǎo)致模型不能正常使用,需要重新采集CSI動(dòng)作樣本來(lái)訓(xùn)練新模型。新場(chǎng)景下可提供的動(dòng)作樣本數(shù)量無(wú)法得到保證,如何降低訓(xùn)練新模型所需的樣本數(shù)量是目前急需解決的問(wèn)題,一些研究者使用遷移學(xué)習(xí)和少樣本學(xué)習(xí)方法在一定程度上提高了對(duì)已有動(dòng)作樣本或模型的利用率。

        遷移學(xué)習(xí)方法通常將已識(shí)別的場(chǎng)景稱為源域,未識(shí)別的場(chǎng)景稱為目標(biāo)域。Fang等12使用全卷積神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)了可以跨場(chǎng)景的HAR系統(tǒng)WiTransfer,通過(guò)來(lái)自目標(biāo)域的CSI動(dòng)作樣本微調(diào)源域訓(xùn)練的模型參數(shù),新模型對(duì)目標(biāo)域中動(dòng)作的識(shí)別準(zhǔn)確率可以達(dá)到 90% 以上。TransferSense[13通過(guò)將CSI的幅度和相位信息相結(jié)合來(lái)增加特征數(shù)量,并融合從預(yù)訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)中提取的低級(jí)和高級(jí)語(yǔ)義特征,在目標(biāo)域中應(yīng)用少量標(biāo)記樣本的遷移學(xué)習(xí)方法進(jìn)行跨域感知,可以降低目標(biāo)域的數(shù)據(jù)收集成本。Khan等4提出的一種基于遷移學(xué)習(xí)的活動(dòng)識(shí)別模型,使用源域中的標(biāo)注樣本訓(xùn)練深度自動(dòng)編碼器,通過(guò)使用未標(biāo)注的樣本進(jìn)行微調(diào)來(lái)減少域間差異,并采用結(jié)構(gòu)模式映射技術(shù)通過(guò)最大均值差異最小化過(guò)程優(yōu)化類內(nèi)-類間距離。該方法在目標(biāo)域中僅依賴有限的標(biāo)注樣本,并在3個(gè)真實(shí)數(shù)據(jù)集上驗(yàn)證了該方法的有效性和適用性。

        小樣本學(xué)習(xí)方法也可以緩解訓(xùn)練模型對(duì)新動(dòng)作樣本數(shù)量的需求。Shi等15提出了增強(qiáng)信道狀態(tài)信息匹配網(wǎng)絡(luò)(MatNet-eCSI)來(lái)促進(jìn)HAR的few-shot學(xué)習(xí),他們的訓(xùn)練數(shù)據(jù)包括已有環(huán)境下一個(gè)動(dòng)作數(shù)據(jù)集和新環(huán)境下7類動(dòng)作、每類動(dòng)作5個(gè)樣本,在辦公室和實(shí)驗(yàn)室環(huán)境中的識(shí)別準(zhǔn)確率分別達(dá)到 88.1% 和92.3% 。ML-DFGR是一種基于度量元學(xué)習(xí)的手勢(shì)識(shí)別系統(tǒng),它使用少量的樣本就能夠識(shí)別新場(chǎng)景中的新手勢(shì)。ML-DFGR使用已有的手勢(shì)數(shù)據(jù)集來(lái)預(yù)訓(xùn)練模型。當(dāng)每個(gè)新手勢(shì)只提供1個(gè)樣本時(shí),對(duì)于10類和50類新手勢(shì)的識(shí)別準(zhǔn)確率分別達(dá)到 97.6% 和 89.5% 。上述研究顯示了采用小樣本學(xué)習(xí)方法的HAR模型對(duì)于識(shí)別新動(dòng)作的有效性,同時(shí)對(duì)新類別動(dòng)作樣本需求量較少。但是新動(dòng)作的種類數(shù)量增多導(dǎo)致識(shí)別率明顯降低,例如在ML-DFGR中,當(dāng)測(cè)試集的新動(dòng)作種類從10類增加到50類,模型的識(shí)別準(zhǔn)確率從 97.6% 降低到 89.5% 。當(dāng)學(xué)習(xí)的動(dòng)作種類從11類增加到20類,Zhang等的模型識(shí)別準(zhǔn)確率從 86.5% 下降到 72.2% 。

        在人體動(dòng)作識(shí)別技術(shù)的實(shí)際應(yīng)用中,除了需要應(yīng)對(duì)新場(chǎng)景中可提供的動(dòng)作樣本數(shù)量不足的難題之外,還需要提高識(shí)別動(dòng)作的實(shí)時(shí)性。在AR游戲,遠(yuǎn)程醫(yī)療等領(lǐng)域中,實(shí)時(shí)性能是評(píng)價(jià)動(dòng)作識(shí)別系統(tǒng)的重要指標(biāo)之一。

        為了解決上述問(wèn)題,本文提出了一個(gè)基于數(shù)據(jù)增強(qiáng)且實(shí)時(shí)性較高的人體動(dòng)作識(shí)別系統(tǒng)。通過(guò)設(shè)計(jì)的樣本增強(qiáng)方法,利用已有的真實(shí)樣本合成偽樣本以擴(kuò)大訓(xùn)練集的規(guī)模、減少對(duì)新樣本數(shù)量的需求。將完整的動(dòng)作樣本劃分為幾個(gè)等長(zhǎng)的片樣本,使用片樣本訓(xùn)練模型,在測(cè)試階段不需要識(shí)別整個(gè)動(dòng)作樣本,每識(shí)別一個(gè)片樣本即可輸出結(jié)果,以此提高動(dòng)作識(shí)別的實(shí)時(shí)性。通過(guò)人為給動(dòng)作樣本添加時(shí)間編碼可以增加各動(dòng)作之間的特征差異,從而提高模型的識(shí)別精度。不同動(dòng)作存在相似的特征,對(duì)動(dòng)作樣本進(jìn)行分片可能會(huì)導(dǎo)致系統(tǒng)誤分類的情況,添加時(shí)間編碼有助于減少這種情況的發(fā)生。此外,本文還給神經(jīng)網(wǎng)絡(luò)添加卷積注意力模塊CBAM,進(jìn)一步提升網(wǎng)絡(luò)的特征提取能力。為了驗(yàn)證所提模型的有效性,在手勢(shì)數(shù)據(jù)集SignFi和自制的身體動(dòng)作數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn)。在學(xué)習(xí)10類動(dòng)作,每類動(dòng)作只提供5個(gè)樣本的條件下,所提模型對(duì)手勢(shì)和身體動(dòng)作的識(shí)別精度分別達(dá)到了 95.1% 和 92.5% 。

        1預(yù)備知識(shí)

        1.1 CSI概述

        IEEE 802.11ln 標(biāo)準(zhǔn)定義了在接收端和發(fā)送端之間傳遞信號(hào)的機(jī)制。CSI代表了信號(hào)在傳輸過(guò)程中所

        產(chǎn)生的時(shí)延、幅度衰減以及相位偏移等變化。假設(shè)發(fā)送端信號(hào)為 x ,接收端信號(hào)為 y ,那么有

        y=H.x+n

        式中: n 為噪聲向量, ??H 為信道矩陣。信道狀態(tài)信息CSI就是對(duì) H 的估計(jì)。對(duì)于單個(gè)子載波,CSI的形式如下

        h=|h|ejsinβ

        式中: |h| 和 β 分別代表了CSI信號(hào)的幅度和相位。

        CSI的幅度和相位都包含了豐富的人體動(dòng)作特征信息,它們各自都可以被用于人體動(dòng)作識(shí)別。本文使用的是CSI的振幅信息。本文部署了1個(gè)發(fā)射天線和3個(gè)接收天線,因此可以采集3個(gè)信道上的CSI信號(hào)。此外,每個(gè)信道有30個(gè)子載波,所以CSI矩陣如下所示

        式中: hi,j 表示第 i 個(gè)接收天線的第 j 個(gè)子載波。

        1.2 卷積神經(jīng)網(wǎng)絡(luò)

        第一個(gè)卷積神經(jīng)網(wǎng)絡(luò)(CNN)誕生于1987年,由AlexanderWaibel等提出。隨著深度學(xué)習(xí)理論的不斷深入和硬件設(shè)備的迭代更新,CNN獲得了快速發(fā)展,并廣泛應(yīng)用在圖像處理和自然語(yǔ)言處理等領(lǐng)域。它和循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)常用于深度學(xué)習(xí)領(lǐng)域中,二者擁有各自的優(yōu)點(diǎn),所以適用的領(lǐng)域也不相同。

        CNN適合處理具有類似網(wǎng)格結(jié)構(gòu)的數(shù)據(jù),它通常至少在網(wǎng)絡(luò)的一層中使用卷積運(yùn)算來(lái)替代一般的矩陣乘法運(yùn)算。CNN的基本結(jié)構(gòu)一般包括以下幾個(gè)部分:卷積層、池化層、激活函數(shù)層和全連接層等。RNN適合處理時(shí)間序列數(shù)據(jù),它的輸出需要參考以前的信息。RNN網(wǎng)絡(luò)的輸出不僅取決于當(dāng)前時(shí)刻輸入的特征信息,而且還受到前一時(shí)刻隱藏層輸出的影響1,這種輸出模式雖然帶來(lái)了處理時(shí)序數(shù)據(jù)的優(yōu)勢(shì),但是也導(dǎo)致當(dāng)前時(shí)刻的輸出必須在前一時(shí)刻運(yùn)算完畢后才能進(jìn)行。比如處理翻譯任務(wù),RNN嚴(yán)格按照順序進(jìn)行翻譯工作,每次只處理一個(gè)單詞,這種嚴(yán)格按照時(shí)序的工作模式無(wú)法充分發(fā)揮GPU的并行處理能力,導(dǎo)致運(yùn)行速度比CNN慢很多。雖然CSI是時(shí)間序列數(shù)據(jù),但是處理時(shí)間是人體動(dòng)作識(shí)別任務(wù)中的一個(gè)重要評(píng)價(jià)指標(biāo),而且CNN通過(guò)權(quán)值共享運(yùn)行時(shí)不需要大量的存儲(chǔ)資源,所以本文使用能充分利用計(jì)算資源進(jìn)行高速運(yùn)算的CNN。

        2 系統(tǒng)設(shè)計(jì)

        2.1 系統(tǒng)結(jié)構(gòu)

        圖1展示了本文設(shè)計(jì)的人體動(dòng)作識(shí)別模型CSI-FHAR的系統(tǒng)結(jié)構(gòu)圖,其中包括采集樣本、數(shù)據(jù)增強(qiáng)和訓(xùn)練模型。首先,無(wú)線路由器和電腦分別作為發(fā)送(AP)和接收設(shè)備(RP)實(shí)現(xiàn)CSI動(dòng)作樣本的采集任務(wù)。接著經(jīng)過(guò)濾波和采樣等預(yù)處理后樣本被送人數(shù)據(jù)增強(qiáng)模塊,通過(guò)設(shè)計(jì)的樣本增強(qiáng)方法合成偽樣本。為已有動(dòng)作樣本添加時(shí)間編碼,以此提高不同動(dòng)作之間的特征差異,同時(shí)也有利于降低樣本分片造成的相似片段的干擾。然后對(duì)當(dāng)前樣本進(jìn)行分片處理,每個(gè)完整的動(dòng)作樣本被等分成若干個(gè)動(dòng)作片段,這樣做不僅擴(kuò)大了訓(xùn)練集的樣本規(guī)模而且可以提高模型識(shí)別動(dòng)作的實(shí)時(shí)性。最后將卷積注意力模塊CBAM嵌人CNN中,進(jìn)一步提升神經(jīng)網(wǎng)絡(luò)的特征提取能力。通過(guò)訓(xùn)練集中的動(dòng)作片段和CNN進(jìn)行模型訓(xùn)練,實(shí)現(xiàn)對(duì)測(cè)試集中動(dòng)作片段的分類。

        圖1CSI-FHAR系統(tǒng)結(jié)構(gòu)圖

        2.2 數(shù)據(jù)增強(qiáng)

        2.2.1 樣本增強(qiáng)

        為了模型降低對(duì)真實(shí)樣本數(shù)量的需求,我們需要通過(guò)采集的真實(shí)樣本生成偽樣本來(lái)擴(kuò)充訓(xùn)練所需的樣本集。常規(guī)的樣本增強(qiáng)方法會(huì)對(duì)動(dòng)作樣本進(jìn)行翻轉(zhuǎn)或者縮放等操作,但是翻轉(zhuǎn)或縮放CSI樣本在一定程度上會(huì)破壞樣本內(nèi)在的時(shí)空特征,進(jìn)而導(dǎo)致站立坐下和前進(jìn)后退這些在時(shí)序上相反的動(dòng)作更難區(qū)分,因此這類樣本增強(qiáng)方法不適用于基于CSI的人體動(dòng)作識(shí)別領(lǐng)域。也有研究使用圖像處理領(lǐng)域中常用的生成對(duì)抗網(wǎng)絡(luò)來(lái)合成偽樣本,但是這種網(wǎng)絡(luò)合成的偽樣本質(zhì)量非常依賴輸入的真實(shí)樣本數(shù)量,相比于圖像領(lǐng)域中每個(gè)類別可以提供成百上千張圖片,在基于CSI的人體動(dòng)作識(shí)別領(lǐng)域中每類動(dòng)作的樣本數(shù)量通常不超過(guò)20個(gè),因此無(wú)法保證生成對(duì)抗網(wǎng)絡(luò)可以生成高質(zhì)量的偽樣本來(lái)訓(xùn)練模型?;谏鲜鲈?,本文設(shè)計(jì)了一種適用于CSI樣本的增強(qiáng)方法。假設(shè)某一類新動(dòng)作可以提供 k 個(gè)真實(shí)樣本,任意選取其中2個(gè)樣本 A 和 B 并為它們各自附加隨機(jī)權(quán)重,最后添加高斯噪聲得到一個(gè)偽樣本 c 。如式(4)所示

        C=αA+(1-α)B+nG,

        式中:權(quán)重 α 和權(quán)重 n 的取值范圍分別為0到1和0到0.1,它們分別用于調(diào)整真實(shí)樣本和高斯噪聲的權(quán)重。添加高斯噪聲 G 可以提高模型的魯棒性。通過(guò)樣本增強(qiáng)方法,可以為每類動(dòng)作生成 Ck2 個(gè)偽樣本。由于同類動(dòng)作的真實(shí)樣本之間特征相似度較高,通過(guò)此方法獲得的偽樣本可以較好保留真實(shí)樣本的特征,生成過(guò)程如圖2所示。

        圖2樣本增強(qiáng)過(guò)程圖

        2.2.2 時(shí)間編碼

        為了充分利用CSI動(dòng)作樣本中包含的時(shí)序特征,增加相似動(dòng)作的類間特征差異,提高模型對(duì)動(dòng)作識(shí)別準(zhǔn)確率,CSI-FHAR為CSI動(dòng)作樣本設(shè)計(jì)了時(shí)間編碼。考慮到時(shí)間編碼需要隨時(shí)間在一定范圍內(nèi)上下波動(dòng),而不是隨時(shí)間線性增長(zhǎng)。因此,CSI-FHAR設(shè)計(jì)的時(shí)間編碼采用了周期性的正弦函數(shù)和余弦函數(shù),具體方法如式(5)所示

        式中: Ψt,w,c 分別為時(shí)間序數(shù)、子載波和信道序數(shù)。式(5)中正弦和余弦函數(shù)相加也是一種周期函數(shù),取值范圍從 ,這樣可以避免時(shí)間編碼的數(shù)值過(guò)大。此外, c*w 變化會(huì)影響時(shí)間編碼的取值,以此提高網(wǎng)絡(luò)對(duì)于不同信道上子載波的區(qū)分度。

        將動(dòng)作樣本和相應(yīng)的時(shí)間編碼直接相加,作為新的動(dòng)作樣本用于訓(xùn)練和測(cè)試識(shí)別模型。在被添加了時(shí)間編碼 P 后,CSI動(dòng)作樣本的時(shí)域波形會(huì)發(fā)生一些細(xì)微的變化,然后引起局部時(shí)間特征的變化,進(jìn)而導(dǎo)致不同動(dòng)作的類間特征差異增大,便于區(qū)分站立和坐下、前進(jìn)和后退這些在時(shí)間順序上相反的動(dòng)作。此外,將時(shí)間編碼作為網(wǎng)絡(luò)的輸人可以使得神經(jīng)網(wǎng)絡(luò)在經(jīng)歷多次卷積后仍然能夠?qū)W習(xí)到初始的時(shí)間特征。

        2.2.3 樣本切片

        圖3展示了樣本切片的過(guò)程,使用滑動(dòng)窗口將1

        個(gè)完整的動(dòng)作樣本分割成 k 個(gè)等長(zhǎng)的樣本片段,然后這些樣本片段都被標(biāo)注同一個(gè)類別標(biāo)簽用于訓(xùn)練或測(cè)試。

        式中: l1 為滑動(dòng)步長(zhǎng), l2 為窗口長(zhǎng)度。將 l1 設(shè)置的比 l2 小一些,相比于 l1=l2 ,這樣可以使得每個(gè)動(dòng)作片段多出一段長(zhǎng)為 l2-l1 的樣本部分,它和相鄰片段共有這部分。在不改變片段長(zhǎng)度的條件下,這么做有利于增加每個(gè)動(dòng)作片段所包含的特征信息,進(jìn)而優(yōu)化模型的識(shí)別性能。

        圖3樣本切片示意圖

        2.2.4 注意力模塊

        注意力模塊CBAM由Woo等8提出,它包括一個(gè)通道注意模塊和一個(gè)空間注意模塊。將CBAM嵌入CNN中,它可以根據(jù)通道和空間維度推斷注意力權(quán)重,并將注意力權(quán)重與輸入特征矩陣相乘進(jìn)行自適應(yīng)特征優(yōu)化,從而提高CNN的特征表達(dá)能力。圖4展示了注意力模塊CBAM的具體結(jié)構(gòu)。

        圖4CBAM的結(jié)構(gòu)圖

        動(dòng)作樣本的CSI數(shù)據(jù) F 經(jīng)過(guò)多個(gè)卷積塊的處理后,生成通道注意力塊的輸入 F? 。分別通過(guò)平均池化和最大池化操作得到2個(gè)通道的特征向量,它們都被輸人到多層感知器(MLP)中。給對(duì)應(yīng)位置的特征向量添加MLP的輸出特征,并通過(guò)sigmoid函數(shù)激活它們以生成最終的通道注意力特征。對(duì)通道注意特征進(jìn)行以下處理以得到空間注意模塊所需的輸入特征,如式(7)如示

        F=MC(F)?F,

        式中: MC(F) 表示在通道注意力模塊中的處理過(guò)程,式(8)展示了它的詳細(xì)過(guò)程。

        式中 :σ.AvgPool.MaxPool 分別表示激活函數(shù)、平均池化和最大值池化。

        空間注意力模塊通過(guò)平均池化和最大池化對(duì)輸人特征 F 沿著通道維度進(jìn)行壓縮,得到2個(gè)特征向量并進(jìn)行合并。對(duì)合并后的特征進(jìn)行卷積運(yùn)算生成空間注意力特征,該模塊的輸出 F′′ 可以表示為

        F′′=Ms(F)?F

        式中: Ms(F) 為空間注意力層的操作,它可以被表示為式(10)

        式中: conν 代表卷積層。經(jīng)過(guò)CBAM處理后的樣本特征矩陣 F 將會(huì)通過(guò)平均池化層與全連接層。

        2.2.5 卷積神經(jīng)網(wǎng)絡(luò)

        本文在卷積神經(jīng)網(wǎng)絡(luò)CNN中嵌人了注意力模塊CBAM,圖5展示了CNN的具體結(jié)構(gòu)。其中,我們將卷積層、激活層、批處理歸一化層和平均池化層作為一個(gè)卷積塊。本文的CNN由4個(gè)這樣的卷積塊和1個(gè)全連接層構(gòu)成。

        式中: 為ReLu函數(shù)的輸出,經(jīng)過(guò)公式(12)的變換,它服從標(biāo)準(zhǔn)正態(tài)分布。

        圖5卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

        為了保證批處理歸一化過(guò)程的非線性,通過(guò)公式(13)中的2個(gè)參數(shù) γ 和 β 對(duì) 進(jìn)行平移和縮放得到y(tǒng) 在平均池化層,CNN選用 k×k 區(qū)域內(nèi)的均值作為輸出,池化處理可以壓縮特征,減少模型的參數(shù)規(guī)模,在一定程度上可以減少發(fā)生過(guò)擬合的概率。

        CSI-FHAR的4個(gè)卷積塊的卷積層中分別包含4、8、16、32個(gè)大小為 3×3 的卷積核,這樣可以提高模型的特征提取能力。激活函數(shù)通過(guò)將網(wǎng)絡(luò)的輸出特征映射到一個(gè)新的特征空間,增加非線性因素,提高模型的表達(dá)能力。本文使用ReLu函數(shù)作為激活函數(shù),因?yàn)樗啾扔赟igmoid函數(shù)具有運(yùn)算量更小且解釋性良好的優(yōu)勢(shì)。

        CSI數(shù)據(jù)經(jīng)過(guò)4個(gè)卷積塊后映射到特征空間。在網(wǎng)絡(luò)的最后,添加1個(gè)全連接層,用來(lái)輸出分類結(jié)果

        ReLu(x)=Max(0,x),

        式中: x 是激活層的輸入。由式(11)可知ReLu函數(shù)會(huì)將某些神經(jīng)元的輸出為0,這有利于緩解過(guò)擬合問(wèn)題。批處理歸一化層的作用在于它可以提高網(wǎng)絡(luò)的泛化能力,起到正則化的作用,同時(shí)可以打亂訓(xùn)練集中的數(shù)據(jù)。其計(jì)算過(guò)程如下

        3 實(shí)驗(yàn)評(píng)估

        3.1 實(shí)驗(yàn)設(shè)置

        為了評(píng)估CSI-FHAR的性能,我們?cè)赟ignFi手勢(shì)數(shù)據(jù)集和自制身體動(dòng)作數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn),實(shí)驗(yàn)使用型號(hào)為T(mén)L-WDR6500的路由器作為發(fā)送端(AP),一臺(tái)裝有Intel5300網(wǎng)卡的計(jì)算機(jī)作為接收端(RP),計(jì)算機(jī)配置是Inteli7-10800型號(hào)CPU和NVIDIAGeForce RTX 2060 型號(hào)GPU。

        圖6和圖7展示了自制數(shù)據(jù)集的實(shí)驗(yàn)場(chǎng)景圖和平面圖,包括實(shí)驗(yàn)室和大廳,面積分別為( 9×16 ) m2 和中 (10×10)m2 。在這2個(gè)場(chǎng)景中采集來(lái)自2個(gè)志愿者的前進(jìn)、坐下、擁抱等16類常見(jiàn)的動(dòng)作(圖8),每類動(dòng)作包含20個(gè)樣本。自制數(shù)據(jù)集中的動(dòng)作樣本尺寸和SignFi手勢(shì)數(shù)據(jù)集一樣,都是 3×30×200 。

        圖6實(shí)驗(yàn)場(chǎng)景圖
        圖7實(shí)驗(yàn)場(chǎng)景平面圖

        3.2 和其他識(shí)別模型的對(duì)比

        為了驗(yàn)證所提的人體動(dòng)作識(shí)別模型CSI-FHAR的有效性,本文設(shè)計(jì)了以下對(duì)比實(shí)驗(yàn):使用SignFi手勢(shì)數(shù)據(jù)集和自制數(shù)據(jù)集中各10類動(dòng)作,每類樣本分別提供5個(gè)和10個(gè)樣本以進(jìn)行對(duì)照實(shí)驗(yàn)。選擇Mat-Net-eCSI[15]、AFSL-HAR和WiTransfer[]作為CSI-FHAR的對(duì)照組。4個(gè)人體動(dòng)作識(shí)別模型所使用的預(yù)訓(xùn)練模型、訓(xùn)練和測(cè)試樣本等實(shí)驗(yàn)條件保持一致,圖9展示了對(duì)比實(shí)驗(yàn)的結(jié)果。

        圖8身體動(dòng)作圖圖9不同模型的識(shí)別精度

        由圖9可知,在SignFi手勢(shì)數(shù)據(jù)集和自制數(shù)據(jù)集中所有模型都獲得了較好的識(shí)別表現(xiàn),CSI-FHAR獲得了最高的精度,這樣的結(jié)果證明了所采用方法的有效性。時(shí)間編碼增大了不同動(dòng)作之間的特征差異,樣本增強(qiáng)方法提供了更多高質(zhì)量的偽動(dòng)作樣本用于訓(xùn)練模型,CBAM模塊提高了網(wǎng)絡(luò)的特征提取能力,這些都有助于CSI-FHAR獲得更好的識(shí)別精度。此外,從實(shí)驗(yàn)結(jié)果中還可以發(fā)現(xiàn)以下現(xiàn)象:以SignFi手勢(shì)數(shù)據(jù)集為例,當(dāng)每類動(dòng)作使用5個(gè)樣本時(shí)CSI-FHAR的識(shí)別精度比第二名高 2.7% ,當(dāng)每類動(dòng)作使用10個(gè)樣本時(shí)CSI-FHAR的識(shí)別精度比第二名高 1.2% 。這種現(xiàn)象表明當(dāng)每類動(dòng)作可提供的樣本數(shù)量較少時(shí),CSI-FHAR的優(yōu)勢(shì)更加明顯,本文使用的樣本增強(qiáng)方法可以一定程度降低對(duì)真實(shí)樣本的需求。

        此外,為了進(jìn)一步驗(yàn)證CSI-FHAR的有效性,我們?cè)谑褂肧ignFi手勢(shì)數(shù)據(jù)集每類動(dòng)作提供5個(gè)樣本的實(shí)驗(yàn)條件下,計(jì)算了以下參考標(biāo)準(zhǔn):精度、召回率和F1分?jǐn)?shù)。具體的參數(shù)見(jiàn)表1。

        通過(guò)表1中各項(xiàng)指標(biāo)可知,CSI-FHAR可以較好地識(shí)別不同的動(dòng)作。

        表1人體動(dòng)作識(shí)別精度、召回率和F1分?jǐn)?shù)

        3.3選擇預(yù)訓(xùn)練模型

        使用相似分布的數(shù)據(jù)預(yù)訓(xùn)練模型可以提前初始化參數(shù),并加速網(wǎng)絡(luò)的收斂,同時(shí)還可以降低訓(xùn)練階段需要的樣本數(shù)量。預(yù)訓(xùn)練模型所使用的動(dòng)作種類數(shù)會(huì)影響其性能,為了得到合適的預(yù)訓(xùn)練模型來(lái)提高CSI-FHAR的識(shí)別表現(xiàn),我們?cè)O(shè)計(jì)了以下實(shí)驗(yàn)。使用SignFi手勢(shì)數(shù)據(jù)集中的10、30、50和70類動(dòng)作分別訓(xùn)練得到4個(gè)預(yù)訓(xùn)練模型,在這些模型基礎(chǔ)上訓(xùn)練4個(gè)新識(shí)別模型,測(cè)試結(jié)果取模型對(duì)測(cè)試集中所有動(dòng)作的平均識(shí)別準(zhǔn)確率,見(jiàn)表2。

        表2不同模型的平均識(shí)別精度

        觀察表2中的數(shù)據(jù)可以發(fā)現(xiàn),相比于沒(méi)有動(dòng)作樣本預(yù)訓(xùn)練的模型,使用了預(yù)訓(xùn)練模型的識(shí)別模型準(zhǔn)確率都最少提高了 4% 。以上結(jié)果表明預(yù)訓(xùn)練模型有利于提升模型性能,其中使用30類動(dòng)作預(yù)訓(xùn)練模型的識(shí)別性能最好,對(duì)所有動(dòng)作的平均識(shí)別準(zhǔn)確率達(dá)到 95.3% 。可解釋的原因:用于預(yù)訓(xùn)練的數(shù)據(jù)量應(yīng)該和模型參數(shù)規(guī)模相適配,僅僅增大數(shù)據(jù)量或者采用更大規(guī)模的模型對(duì)識(shí)別模型的性能并沒(méi)有顯著提升,甚至起到負(fù)面作用[]。隨著預(yù)訓(xùn)練數(shù)據(jù)量的增大,規(guī)模較大的模型精度將會(huì)提升,然而較小的模型精度會(huì)下降。綜上所述,CSI-FHAR使用30類動(dòng)作來(lái)預(yù)訓(xùn)練識(shí)別模型。

        3.4 時(shí)間編碼的影響

        為了驗(yàn)證時(shí)間編碼的作用以及頻率對(duì)時(shí)間編碼的影響,本文在SignFi手勢(shì)數(shù)據(jù)集和自制數(shù)據(jù)集上設(shè)計(jì)了以下實(shí)驗(yàn)。CSI-FHAR學(xué)習(xí)8類動(dòng)作(每類包含7個(gè)樣本),實(shí)驗(yàn)一共分為6組,其中5個(gè)實(shí)驗(yàn)組頻率分別為 1000.2000.3000.5000 和 10000Hz ,第6組是不添加時(shí)間編碼的對(duì)照組。實(shí)驗(yàn)結(jié)果取對(duì)8類動(dòng)作的平均準(zhǔn)確率,如圖10所示。

        圖10不同頻率時(shí)間編碼下模型的識(shí)別精度

        由圖10可知,當(dāng)時(shí)間編碼的頻率為 3000Hz 時(shí)模型的識(shí)別性能最佳。相比不添加時(shí)間編碼,模型在手勢(shì)數(shù)據(jù)集和身體動(dòng)作數(shù)據(jù)集上的識(shí)別精度分別增加 6% 和 5% 左右。綜上所述,CSI-FHAR為動(dòng)作樣本添加頻率為 3000Hz 的時(shí)間編碼。

        3.5樣本切片數(shù)量的影響

        樣本切片過(guò)程會(huì)將一個(gè)完整的動(dòng)作樣本切分成等長(zhǎng)的幾個(gè)片段,為了探究每個(gè)樣本切片數(shù)量對(duì)模型識(shí)別性能的影響,設(shè)計(jì)了以下實(shí)驗(yàn)。一共設(shè)置了4個(gè)實(shí)驗(yàn)組,各組分別將一個(gè)動(dòng)作樣本切分成3、4、5和7個(gè)片段。還有一個(gè)對(duì)照組,采用沒(méi)有進(jìn)行樣本切片的完整樣本。用于訓(xùn)練和測(cè)試的動(dòng)作樣本來(lái)自SignFi手勢(shì)數(shù)據(jù)集和自制數(shù)據(jù)集,在所有實(shí)驗(yàn)組中所使用的滑動(dòng)窗口長(zhǎng)度 l2 比分片步長(zhǎng) l1 多20個(gè)數(shù)據(jù)包。實(shí)驗(yàn)結(jié)果取對(duì)所有動(dòng)作的平均識(shí)別精度,具體的精度和識(shí)別時(shí)間展示在表3中。

        表3樣本切片數(shù)量的影響

        由表3中數(shù)據(jù)可知,隨著樣本切片數(shù)量的增加,模型的識(shí)別精度下降得越來(lái)越明顯,模型的識(shí)別速度在持續(xù)提升。因此對(duì)一個(gè)完整樣本設(shè)置切片的數(shù)量不宜過(guò)多。其中,當(dāng)把樣本分割成4個(gè)樣本片段時(shí),雖然模型的識(shí)別精度下降了 1.5% 左右,但是模型的識(shí)別速度提升了接近 69% 。綜上所述,樣本切片方法在降低少量模型識(shí)別精度的條件下可以極大地優(yōu)化模型的識(shí)別實(shí)時(shí)性,本文將樣本的切片數(shù)量設(shè)置為4個(gè)。

        4結(jié)束語(yǔ)

        本文設(shè)計(jì)了一種基于數(shù)據(jù)增強(qiáng)和CSI的的實(shí)時(shí)人體動(dòng)作識(shí)別系統(tǒng)CSI-FHAR。采用樣本切片方法提高了HAR的實(shí)時(shí)性,樣本增強(qiáng)方法減少了對(duì)真實(shí)動(dòng)作樣本的需求。我們?cè)赟ignFi手勢(shì)數(shù)據(jù)集和自制身體動(dòng)作數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果表明,在真實(shí)樣本較少的情況下,該方法具有較高的準(zhǔn)確率和實(shí)時(shí)性。本文下一步的研究工作是進(jìn)一步優(yōu)化樣本增強(qiáng)方法,以減少對(duì)真實(shí)樣本的需求。此外還需要加強(qiáng)模型的抗干擾能力。

        參考文獻(xiàn):

        [1]SINGH R,KUSHWAHA A K S,SRIVASTAVA R.Recent trends in human activity recognition-A comparative study[J]. Cognitive Systems Research,2023(77):30-44.

        [2] ZHANG Y,WANG X,WANG Y,et al. Human activity recognitionacross scenes and categories based on csi[C]// IEEE Transactions on Mobile Computing,2020.

        [3] ZHANG Y,HE F,WANG Y,et al.CSI-based crossscene human activity recognition with incremental learning [J].Neural Computing and Applications,2023,35(17): 12415-12432.

        [4] BUQ,YANG G,MING X,et al.Deep transfer learning forgesture recognition with WiFi signals [J]. Personal and Ubiquitous Computing,2020:1-12.

        [5] FEI H,XIAO F,HAN J,et al.Multi-Variations Activity Based Gaits Recognition Using Com modity WiFi[J].IEEE Transactionson Vehicular Tech nology,2020,69(2):2263- 2273.

        [6]ARMENTA-GARCIA J A,GONZALEZ-NAVARRO FF, CARO-GUTIERREZ J,et al. Mining Wi-Fi Channel State Information for breathing and heart rate classification[J]. Pervasive and Mobile Computing,2023,91:101768.

        [7]代婉婉.基于WiFi-CSI的非接觸式人體呼吸檢測(cè)方法研究 [D].徐州:中國(guó)礦業(yè)大學(xué),2023.

        [8]熊小樵,馮秀芳,丁一.基于CSI的手勢(shì)識(shí)別方法研究[J].計(jì)算 機(jī)應(yīng)用與軟件,2022,39(1):181-187.

        [9]WANG Y,YAO L,WANG Y,et al. Robust CSI-Based Human Activity Recognition With Augment Few Shot Learming[J].IEEE Sensors Journal,2021,21(21):24297-24308.

        [10] ZHOU R,GONG Z,TANG K,et al. Device-free cross locationactivityrecognitionvia semi -superviseddeep learning [J].Neural Computing and Applications,2022,34 (12):10189-10203.

        [11] SHENG B,F(xiàn)ANG Y,XIAO F,et al. An accurate device-free action recognition system using two-stream network[J].IEEE TransVeh Technol,2020,69(7):7930-7939.

        [12] FANG Y,SHENG B,WANG H,et al. Witransfer:A cross-scene transfer activity recognition system using wifi [C]//Proceedings of the ACM Turing Celebration Conference-China,2020:59-63.

        猜你喜歡
        動(dòng)作特征模型
        一半模型
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        如何表達(dá)“特征”
        不忠誠(chéng)的四個(gè)特征
        動(dòng)作描寫(xiě)要具體
        抓住特征巧觀察
        畫(huà)動(dòng)作
        動(dòng)作描寫(xiě)不可少
        3D打印中的模型分割與打包
        成人免费看www网址入口| 久久精品成人一区二区三区| 最新国产福利在线观看精品| 人妻去按摩店被黑人按中出| 精品无码人妻久久久一区二区三区| 国产精品国产三级国产an不卡| 神马影院午夜dy888| 又爽又黄又无遮挡的激情视频| av无码天堂一区二区三区| 日韩一区二区三区人妻中文字幕| 无码av专区丝袜专区| 国产精品久久一区二区三区| 亚洲不卡电影| 亚洲一区中文字幕视频| 国产精品久久久久久久久绿色| 亚洲欧洲巨乳清纯| 欧亚精品无码永久免费视频| 免费人妖一区二区三区| 又爽又黄又无遮挡网站| 暖暖免费 高清 日本社区在线观看 | 少妇厨房愉情理伦bd在线观看 | 亚洲人成网站色www| 99热在线精品播放| 免费毛片一区二区三区女同 | 亚洲av综合色区无码另类小说 | 欧美日韩国产免费一区二区三区欧美日韩| 国产一级一片内射在线| 手机在线观看日韩不卡av| 女邻居的大乳中文字幕| 亚洲VA中文字幕无码毛片春药| 精品亚洲av一区二区| 国产欧美精品一区二区三区四区| 国产成人www免费人成看片 | 国产裸体美女永久免费无遮挡| 久久欧美与黑人双交男男| 素人激情福利视频| 在线观看国产成人自拍视频| 中文字幕久久精品一二三区 | 国产成人亚洲日韩欧美| 国产精品涩涩涩一区二区三区免费| 国产片在线一区二区三区|