亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于Wi-Fi CSI的無監(jiān)督域自適應(yīng)偽裝步態(tài)識別

        2024-11-05 00:00:00梁穎吳文杰許鵬飛
        科技創(chuàng)新與應(yīng)用 2024年30期

        摘 要:步態(tài)識別作為一種非侵入性的人體生物識別技術(shù),因其無須用戶主動配合的特點(diǎn),被廣泛應(yīng)用于安防和智能家居等領(lǐng)域。然而,現(xiàn)實中步態(tài)識別系統(tǒng)面臨的一個重大挑戰(zhàn)是偽裝效應(yīng)。當(dāng)受試者改變著裝或攜帶物品時,步態(tài)數(shù)據(jù)的可靠性往往受到影響,從而使步態(tài)識別變得困難。為解決這一問題,該文提出一種基于Wi-Fi CSI的無監(jiān)督偽裝步態(tài)識別方法。該方法引入一種新的數(shù)據(jù)度量策略,通過預(yù)訓(xùn)練來獲取偽裝步態(tài)數(shù)據(jù)的偽標(biāo)簽,并利用匹配濾波技術(shù)生成高質(zhì)量的標(biāo)記訓(xùn)練數(shù)據(jù)對。最終,通過無監(jiān)督學(xué)習(xí)實現(xiàn)數(shù)據(jù)分布對齊,克服偽裝步態(tài)數(shù)據(jù)的分布偏移問題。實驗結(jié)果表明,該文的方法在偽裝步態(tài)識別方面顯著優(yōu)于現(xiàn)有最先進(jìn)的步態(tài)識別技術(shù)。

        關(guān)鍵詞:步態(tài)識別;Wi-Fi CSI;偽裝;無監(jiān)督;數(shù)據(jù)分布偏移

        中圖分類號:TP391.4 文獻(xiàn)標(biāo)志碼:A 文章編號:2095-2945(2024)30-0016-04

        Abstract: Gait recognition, as a non-intrusive biometric technology, is widely used in security and smart home applications due to its ability to function without active user cooperation. However, a significant challenge faced by gait recognition systems in practice is the effect of disguise. When subjects alter their clothing or carry objects, the reliability of gait data is often compromised, making gait recognition difficult. To address this issue, this dOnaTsiqizpe36IiTaUJyA==paper proposes a disguise gait recognition method based on Wi-Fi CSI (Channel State Information). The method introduces a novel data metric strategy, using pre-training to obtain pseudo-labels for disguised gait data, and employs matched filtering techniques to generate high-quality labeled training data pairs. Ultimately, it achieves data distribution alignment through unsupervised learning, overcoming the problem of distribution shift in disguised gait data. Experimental results show that the method significantly outperforms existing state-of-the-art gait recognition techniques in disguise scenarios.

        Keywords: gait recognition; Wi-Fi CSI; disguise; unsupervised; data distribution shift

        近年來隨著普適計算的廣泛應(yīng)用,不引人注目用戶識別[1]逐漸成為研究熱點(diǎn)。與基于人臉[2]、指紋[3]和虹膜[4]等生物識別技術(shù)相比,基于步態(tài)的識別技術(shù)由于其不需要用戶的主動配合且具有唯一性和獨(dú)特性,更適合于此類用戶識別的任務(wù)。

        目前,最廣泛使用的步態(tài)識別技術(shù)包括圖像、可穿戴傳感器和射頻信號。然而,基于圖像的步態(tài)識別受到環(huán)境因素(如光照和遮擋)的限制較大,并且容易引發(fā)隱私泄露的風(fēng)險??纱┐鱾鞲衅鞔嬖诟叱杀?、舒適性差和不能用于非合作目標(biāo)等缺陷?;谏漕l的方法因為射頻信號可以穿過障礙物,不受光線明暗的影響且設(shè)備更具通用性等特點(diǎn)成為研究熱點(diǎn)。近年來,許多研究探索了基于Wi-Fi CSI的身份識別方法。Zhang等[5]提出了Gate-ID,其是一種利用注意力加權(quán)融合先驗特征的深度學(xué)習(xí)模型,實現(xiàn)了在6~20人的群體中分別以最高90.7%和平均75.7%的準(zhǔn)確度識別特定用戶。Pokkunuru等[6]提出的NeuralWave系統(tǒng),采用深度學(xué)習(xí)的方法在24人的數(shù)據(jù)集上實現(xiàn)了89.9%的身份識別準(zhǔn)確率。Wang等[7]提出的CSI-Net系統(tǒng),利用用戶靜止時的CSI數(shù)據(jù)進(jìn)行身份識別,最終在30人的數(shù)據(jù)集上實現(xiàn)了93%的身份識別準(zhǔn)確率。

        然而,將Wi-Fi信號應(yīng)用于現(xiàn)實環(huán)境的識別面臨幾個挑戰(zhàn)。首先,對偽裝步態(tài)的準(zhǔn)確識別。在用戶偽裝(變換著裝或攜帶物體)時,同一用戶對信號傳播的干擾會明顯不同,從而導(dǎo)致數(shù)據(jù)分布的偏移。其次,注釋數(shù)據(jù)集的限制。現(xiàn)有的基于Wi-Fi CSI的步態(tài)識別方法通常依賴于大量的有監(jiān)督注釋數(shù)據(jù),這不僅費(fèi)時費(fèi)力,而且注釋過程復(fù)雜。雖然Fan等[8]通過結(jié)合視頻進(jìn)行少樣本標(biāo)注,提供了一種解決方案,但這需要更高的部署成本,且存在泄露隱私的風(fēng)險,從而限制了系統(tǒng)的實際應(yīng)用。

        為解決上述問題,本文提出了一種新的數(shù)據(jù)分布度量方法。通過域自適應(yīng)技術(shù),模型同時學(xué)習(xí)偽裝前后的不變特征,從而實現(xiàn)偽裝步態(tài)的有效識別。針對新狀態(tài)數(shù)據(jù)集注釋困難的問題,本文利用偽裝前的數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練,生成新狀態(tài)數(shù)據(jù)集的偽標(biāo)簽,并結(jié)合匹配過濾技術(shù),獲得高質(zhì)量的帶標(biāo)簽訓(xùn)練數(shù)據(jù)對,實現(xiàn)無監(jiān)督訓(xùn)練。

        1 系統(tǒng)模型

        本文提出的無監(jiān)督域自適應(yīng)偽裝步態(tài)識別框架如圖1所示,主要包括3個部分:數(shù)據(jù)采集、數(shù)據(jù)預(yù)處理和深度學(xué)習(xí)模型。

        數(shù)據(jù)采集:本文使用了一對Wi-Fi收發(fā)設(shè)備進(jìn)行數(shù)據(jù)采集。發(fā)送端為普通的Wi-Fi路由器,接收端為安裝了Wi-Fi CSI TOOL的筆記本電腦。信號工作頻段為2.4 GHz,接收器的采樣率為1 kHz。

        數(shù)據(jù)預(yù)處理:收集到Wi-Fi數(shù)據(jù)之后,通過以下步驟進(jìn)行預(yù)處理。

        第一步:降噪濾波。首先,使用絕對中值差法去除噪聲,以獲得清晰的人體反射信號。其次,使用巴特沃茲低通濾波器去除高頻噪聲,僅保留與運(yùn)動相關(guān)的數(shù)據(jù)。

        第二步:選取步態(tài)數(shù)據(jù)。采用非重疊滑動窗口法選取步態(tài)數(shù)據(jù)。通過計算窗口的方差并設(shè)定相應(yīng)的閾值來確定運(yùn)動階段的起點(diǎn)和終點(diǎn),最終選擇信號幅值較大的部分。圖2展示了經(jīng)過上述處理步驟后的CSI數(shù)據(jù)。

        深度學(xué)習(xí)模型:本文提出網(wǎng)絡(luò)模型如圖3所示。該模型通過偽標(biāo)簽匹配機(jī)制和交叉注意力度量,實現(xiàn)了源域和目標(biāo)域數(shù)據(jù)的對齊,從而提升了偽裝狀態(tài)下步態(tài)識別的精度。

        模型輸入數(shù)據(jù)分為2個部分:源域和目標(biāo)域。源域數(shù)據(jù)是帶有類別標(biāo)簽的步態(tài)數(shù)據(jù),目標(biāo)域數(shù)據(jù)是偽裝狀態(tài)下沒有類別標(biāo)簽的步態(tài)數(shù)據(jù)。雖然源域和目標(biāo)域具有相同的特征空間和標(biāo)簽空間,但它們的數(shù)據(jù)概率分布不同。源域數(shù)據(jù)的樣本包括有輸入數(shù)據(jù)x和輸出標(biāo)簽y,數(shù)據(jù)概率分布為Ps,可以表示為Ds={Xs,Ys,Ps}。目標(biāo)域數(shù)據(jù)的樣本只包括輸入數(shù)據(jù)x,數(shù)據(jù)概率分布為Pt,可以表示為Dt={Xt,Pt}。無監(jiān)督域自適應(yīng)的目標(biāo)是利用源域數(shù)據(jù)學(xué)習(xí)一個在目標(biāo)域上預(yù)測誤差最小的函數(shù)f(x),目標(biāo)函數(shù)表示為

        通過這種方式,模型在源域和目標(biāo)域間實現(xiàn)了有效的對齊和適應(yīng)。

        1.1 目標(biāo)域偽標(biāo)簽和匹配過濾

        偽標(biāo)簽:為了提升領(lǐng)域自適應(yīng)性能,采用預(yù)訓(xùn)練的特征提取器將目標(biāo)域數(shù)據(jù)映射為概率分布。這些分布用于加權(quán)k均值聚類,計算每個類別的初始質(zhì)心

        式中:δ表示K類中第t個樣本的概率分布。偽標(biāo)簽通過最近鄰分類器產(chǎn)生

        式中:d(ck,ft)是特征ck和ft的距離。偽標(biāo)簽的更新通過重復(fù)上述過程完成。

        匹配過濾:偽標(biāo)簽生成過程中可能會引入噪聲,且由于目標(biāo)域偽標(biāo)簽的無監(jiān)督生成方式,可能會導(dǎo)致目標(biāo)域中的樣本數(shù)量與源域中的樣本數(shù)量不均衡。為了解決這個問題,提出了基于特征匹配的方法來過濾偽標(biāo)簽。方法是將源域中的每個樣本與目標(biāo)域中相同類別的樣本進(jìn)行配對,使用余弦相似度作為度量標(biāo)準(zhǔn)

        式中: 分別表示源域和目標(biāo)域K類的樣本;d(fS_K,fT_K)表示樣本fS_K,fT_K之間的余弦距離。由于不限制目標(biāo)域樣本的匹配次數(shù),這可能會產(chǎn)生多對一的匹配,從而最大化高置信度偽標(biāo)簽的利用。

        為擴(kuò)充訓(xùn)練的數(shù)據(jù),對目標(biāo)域樣本進(jìn)行同樣的操作。不同之處在于,匹配后使用源域的真實標(biāo)簽作為目標(biāo)域樣本的類別標(biāo)簽,而不是目標(biāo)域的偽標(biāo)簽。這樣可以確保標(biāo)簽的可靠性,因為源域的真實標(biāo)簽比目標(biāo)域的偽標(biāo)簽更加準(zhǔn)確,從而提高訓(xùn)練數(shù)據(jù)的質(zhì)量。目標(biāo)域得到的數(shù)據(jù)對表示為

        最終得到的訓(xùn)練數(shù)據(jù)對為 。

        1.2 交叉注意力度量

        注意力機(jī)制因其能夠有效整合序列中的時序信息而備受關(guān)注[9],尤其適用于從CSI序列中提取步態(tài)信息。本文采用交叉注意力機(jī)制來度量源域和目標(biāo)域之間的分布差異。交叉注意力機(jī)制可以表示為

        式中: 為源域數(shù)據(jù)的查詢(query);KT,VT為來自于目標(biāo)域的鍵(key)和值(value)。通過匹配源域的 與目標(biāo)域的KT,計算樣本相似性的權(quán)重。最終,通過最小化  和 之間的距離,實現(xiàn)源域和目標(biāo)域的對齊。分布差異的量化公式為

        。

        最終損失函數(shù)定義為

        式中: 為源域和目標(biāo)域的分類損失; 為交叉注意力度量損失。最終,通過目標(biāo)域分支即可完成偽裝步態(tài)識別。

        2 實驗結(jié)果與討論

        收集30名測試者的Wi-Fi步態(tài)數(shù)據(jù),數(shù)據(jù)涵蓋了一個場景下的3種狀態(tài):正常著裝(H_n)、背包負(fù)重(H_p)、穿著長風(fēng)衣覆蓋下半身(H_c),共計6 120條數(shù)據(jù)。

        為了更客觀地評估所提方法的性能,將其與多種先進(jìn)的無監(jiān)督域自適應(yīng)算法進(jìn)行對比,包括BNM[10]、DAAN[11]、DAN[12]、DANN[13]、DSAN[14]和DTA[15]。為確保公平性,在所有對比實驗中使用了相同的特征提取器和分類器。

        2.1 整體性能

        在驗證偽裝步態(tài)識別性能時,隨機(jī)選擇一種狀態(tài)作為源域,另一種狀態(tài)作為目標(biāo)域。實驗結(jié)果見表1,本文提出的方法比不使用域自適應(yīng)的情況下準(zhǔn)確率至少提高了13.05%,偽裝步態(tài)識別的最高準(zhǔn)確率達(dá)到了94.61%。這表明本文的方法在偽裝步態(tài)識別中具備出色的魯棒性和競爭力

        2.2 消融實驗

        本節(jié)通過消融實驗評估模型各組件的貢獻(xiàn),實驗結(jié)果見表2。

        為驗證目標(biāo)域預(yù)訓(xùn)練和偽標(biāo)簽匹配的有效性,將源域和目標(biāo)域數(shù)據(jù)隨機(jī)組合生成訓(xùn)練對,并取消了域自適應(yīng)和目標(biāo)域偽標(biāo)簽的監(jiān)督訓(xùn)練。實驗結(jié)果顯示,性能顯著下降,證明了目標(biāo)域預(yù)訓(xùn)練和偽標(biāo)簽匹配在偽裝步態(tài)識別中的重要性。

        評估交叉注意力度量的有效性時,刪除模型中的交叉注意力模塊導(dǎo)致識別精度平均下降約10%。偽裝步態(tài)中,偽裝狀態(tài)會影響信號傳播并隱藏身份特征。實驗結(jié)果表明,交叉注意力度量能有效應(yīng)對數(shù)據(jù)分布偏移,提取出與偽裝無關(guān)的身份特征,提升了識別效果。

        3 結(jié)論

        本文提出了一種基于Wi-Fi CSI的無監(jiān)督偽裝步態(tài)識別方法。通過創(chuàng)新性的數(shù)據(jù)分布度量方法,實現(xiàn)了數(shù)據(jù)分布差異度量和類感知對齊。通過預(yù)訓(xùn)練模型生成目標(biāo)域偽標(biāo)簽,并結(jié)合匹配過濾機(jī)制,構(gòu)建高質(zhì)量的帶標(biāo)簽訓(xùn)練數(shù)據(jù)對,解決了新偽裝狀態(tài)步態(tài)數(shù)據(jù)難以標(biāo)注的問題。實驗結(jié)果表明,該方法在偽裝步態(tài)識別任務(wù)中表現(xiàn)優(yōu)異,顯著優(yōu)于現(xiàn)有方法,展現(xiàn)了良好的識別能力和魯棒性。

        參考文獻(xiàn):

        [1] ZHANG J, WEI B, HU W, et al. Wifi-id: Human identification using wifi signal[C]//2016 International Conference on Distributed Computing in Sensor Systems (DCOSS). IEEE, 2016: 75-82.

        [2] 王東.基于神經(jīng)網(wǎng)絡(luò)的人臉識別模型研究[J].科技創(chuàng)新與應(yīng)用,2024,14(22):5-8,13.

        [3] 李碩,趙朝陽,屈音璇,等.深度學(xué)習(xí)技術(shù)在指紋識別中的應(yīng)用[J/OL].計算機(jī)工程,1-25[2024-09-23].https://doi.org/10.19678/j.issn.1000-3428.0068276.

        [4] 周奧.基于深度學(xué)習(xí)的人臉虹膜雙特征融合識別算法研究與應(yīng)用[D].成都:西南交通大學(xué),2022.

        [5] ZHANG J, WEI B, WU F, et al. Gate-ID: WiFi-based human identification irrespective of walking directions in smart home[J]. IEEE Internet of Things Journal, 2020, 8(9): 7610-7624.

        [6] POKKUNURU A, JAKKALA K, BHUYAN A,et al. NeuralWave: gait-based user identification through commodity WiFi and deep learning[C]//IECON 2018-44th Annual Conference of the IEEE Industrial Electronics Society, 2018:758-765.

        [7] WANG F , HAN J , ZHANG S , et al. CSI-Net: Unified Human Body Characterization and Pose Recognition[C]// arXiv e-prints, 2018.

        [8] FAN J, ZHOU H, ZHOU F, et al. WiVi: WiFi-Video Cross-Modal Fusion based Multi-Path Gait Recognition System[C]//2022 IEEE/ACM 30th International Symposium on Quality of Service (IWQoS). IEEE, 2022: 1-10.

        [9] VASWANI A, SHAZEER N, PARMAR N, et al. Attention is all you need[C]// Advances in neural information processing systems, 2017:30.

        [10] CUI S, WANG S, ZHUO J, et al. Towards discriminability and diversity: Batch nuclear-norm maximization under label insufficient situations[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2020: 3941-3950.

        [11] YU C, WANG J, CHEN Y, et al. Transfer learning with dynamic adversarial adaptation network[C]//2019 IEEE International Conference on Data Mining (ICDM). IEEE, 2019: 778-786.

        [12] LONG M, CAO Y, WANG J, et al. Learning transferable features with deep adaptation networks[C]//International conference on machine learning. PMLR, 2015: 97-105.

        [13] GANIN Y, LEMPITSKY V. Unsupervised domain adaptation by backpropagation[C]//International conference on machine learning. PMLR, 2015: 1180-1189.

        [14] ZHU Y, ZHUANG F, WANG J, et al. Deep subdomain adaptation network for image classification[J]. IEEE transactions on neural networks and learning systems, 2020, 32(4):1713-1722.

        [15] LEE S, KIM D, KIM N, et al. Drop to adapt: Learning discriminative features for unsupervised domain adaptation[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision,2019:91-100.

        基金項目:國家自然科學(xué)基金(62373300)

        第一作者簡介:梁穎(1980-),女,碩士,講師。研究方向為深度學(xué)習(xí)、普適計算。

        国产成人亚洲精品青草天美| 精品婷婷国产综合久久| 蜜桃av噜噜一区二区三区策驰| 人妻少妇乱子伦精品| 欧美丰满大爆乳波霸奶水多| 丰满少妇人妻无码超清 | 91国在线啪精品一区| 美女把内衣内裤脱了给男人舔| 日韩 亚洲 制服 欧美 综合| 强行无套内谢大学生初次| 亚洲色欲Aⅴ无码一区二区| 日本熟女视频一区二区三区| 风韵丰满熟妇啪啪区老老熟妇| 天天躁日日躁狠狠躁av| 亚洲av不卡电影在线网址最新| 水蜜桃在线观看一区二区国产| 国产裸体美女永久免费无遮挡 | 国产精品黄页免费高清在线观看| 水野优香中文字幕av网站| 中文字幕一区二区三区日韩精品| 免费观看一区二区| av在线播放一区二区免费| 国产av天堂亚洲国产av天堂| 亚洲av无码之日韩精品| 国产精品无码mv在线观看| 国产精品白浆一区二区免费看| 天堂√在线中文官网在线| 精品伊人久久香线蕉| 加勒比久草免费在线观看| 成人午夜高潮a∨猛片| 亚洲学生妹高清av| 热re99久久精品国产66热6| 粉嫩极品国产在线观看免费一区| 欧美中日韩免费观看网站| 午夜亚洲国产理论片亚洲2020| 麻豆av毛片在线观看| 国产婷婷色一区二区三区| 美女扒开内裤让男生桶| 一本大道久久精品一本大道久久| 日韩一区在线精品视频| 亚洲av无码不卡久久|