亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于卷積神經(jīng)網(wǎng)絡(luò)和微動特征的人體步態(tài)識別技術(shù)

        2018-08-20 06:15:42袁延鑫
        信號處理 2018年5期
        關(guān)鍵詞:微動卷積人體

        袁延鑫 孫 莉 張 群

        (空軍工程大學(xué)信息與導(dǎo)航學(xué)院, 陜西西安 710077)

        1 引言

        在銀行、機場和保密機構(gòu)等敏感場所內(nèi)對人體目標(biāo)進(jìn)行身份驗證和識別具有非常重要的意義。近些年來,基于光學(xué)和紅外視頻數(shù)據(jù)的身份認(rèn)證研究發(fā)展迅速,利用光學(xué)和紅外傳感器獲得的信息進(jìn)行人體步態(tài)識別、跟蹤已經(jīng)得到很多的應(yīng)用,尤其是近年來,深度學(xué)習(xí)理論應(yīng)用于目標(biāo)識別和跟蹤取得了巨大進(jìn)展。文獻(xiàn)[1]利用9層卷積神經(jīng)網(wǎng)絡(luò)對在野外采集的4000幅人臉樣本識別,準(zhǔn)確率達(dá)到了97.35%。文獻(xiàn)[2]基于SVM分類器識別夜晚及復(fù)雜噪聲環(huán)境下人體紅外圖像特征,識別正確率達(dá)到了71%~90%。但是這種被動成像的方式受環(huán)境影響大,在偽裝條件下識別率波動較大。由于雷達(dá)身份認(rèn)證技術(shù)具有不直接接觸人體、不涉及人身侵犯、被監(jiān)測者不容隱藏和偽裝,并且能夠?qū)崿F(xiàn)遠(yuǎn)距離識別的優(yōu)勢,近幾年來開始受到重視。其中,基于雷達(dá)目標(biāo)微多普勒效應(yīng)的身份認(rèn)證是一個重要的研究方向。

        所謂“微多普勒效應(yīng)”,指的是雷達(dá)目標(biāo)或目標(biāo)結(jié)構(gòu)中的旋轉(zhuǎn)、振動、擺動等微小運動對雷達(dá)回波信號產(chǎn)生多普勒頻率調(diào)制的物理現(xiàn)象[3-7]。微多普勒效應(yīng)是目標(biāo)精細(xì)運動特征在雷達(dá)回波中的反映,被認(rèn)為是目標(biāo)的獨特特征,人體微動特征包含了人體運動狀態(tài)和身體姿態(tài)的有效信息。通過分析人體回波微多普勒效應(yīng)并提取相應(yīng)的微動特征,可為人體目標(biāo)的認(rèn)證與識別提供重要依據(jù)[8]。

        自從V.C Chen博士首次利用雷達(dá)信號提取人體微動特征并應(yīng)用于救援、監(jiān)測、安保等領(lǐng)域,國內(nèi)外許多學(xué)者使用雷達(dá)傳感器分析人體微動特征,并開展了許多人體步態(tài)識別的研究[9-12]。而這些方法大部分集中在基于信號處理和譜圖分析的方法,直接從信號中提取可參數(shù)化表征的物理特征。隨著深度學(xué)習(xí)理論在各個領(lǐng)域取得顯著的成果。2016年,加州大學(xué)的Youngwook教授利用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行人體目標(biāo)檢測和人體行走/跑步態(tài)分類[13]。荷蘭代爾夫特大學(xué)的Trommel利用14層卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行多人與單人區(qū)分,用以驗證深度學(xué)習(xí)進(jìn)行人體微動步態(tài)識別的有效性[14]。這些研究大都是針對可分性較好的人體運動類型辨別(行走/跑步等)來開展研究的,而身份認(rèn)證需要提取差異較小的微動特征,提取微動信號特征的本質(zhì)就是對其分布函數(shù)的無限逼近。高精度的擬合數(shù)據(jù)分布需要深層次的網(wǎng)絡(luò)結(jié)構(gòu)和大規(guī)模的訓(xùn)練樣本,隨著層數(shù)的堆疊,再加上大量訓(xùn)練樣本難以獲取,容易使網(wǎng)絡(luò)發(fā)生“過擬合”。

        本文針對不同人的同一步態(tài)的微動信號難以區(qū)分的問題,構(gòu)建深度網(wǎng)絡(luò)對不同人的走路步態(tài)進(jìn)行學(xué)習(xí),提取出不同人的微動特征,進(jìn)而實現(xiàn)身份認(rèn)證。該方法首先分析人體運動姿態(tài)在雷達(dá)信號中的微動表征,通過構(gòu)建人體微動深度卷積神經(jīng)網(wǎng)絡(luò),用完備的MNIST數(shù)據(jù)集預(yù)訓(xùn)練模型,提高了識別精度。

        2 人體微多普勒效應(yīng)分析

        人體運動是典型的非剛體鉸接式運動[15],由身體各部位的關(guān)聯(lián)運動組合而成,其運動形式極其復(fù)雜,身體的運動基本上是一個輕微的身體搖擺和頭部運動的反映,來回擺動的胳膊和腿是主要的微動來源。人體微動特征的強耦合性使得目前很難使用參數(shù)化方法表示?!吧疃葘W(xué)習(xí)”是通過多層神經(jīng)網(wǎng)絡(luò)模擬人的大腦的學(xué)習(xí)過程。一方面,微動特征無法用解析模型進(jìn)行描述,但是深度網(wǎng)絡(luò)的非線性結(jié)構(gòu)可以無限逼近分布,實現(xiàn)模型構(gòu)建,另一方面,深度學(xué)習(xí)的多層卷積層和池化層的結(jié)構(gòu),可以從學(xué)習(xí)低級特征逐漸學(xué)習(xí)出高級特征,實現(xiàn)從大量樣本數(shù)據(jù)中學(xué)習(xí)數(shù)據(jù)本質(zhì)特征。因此可以設(shè)計合理的深度神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)微動信號,從而得到人體微動特征。

        微動本質(zhì)上是一種非勻速運動或非剛體運動,目標(biāo)微動特征信號具有非線性和非平穩(wěn)的特點,因此對目標(biāo)微動特征分析和處理核心問題是對時變信號的處理[3]。人體雷達(dá)回波信號本是一維的時域信號,直觀上很難看出頻率變化規(guī)律。如果通過傅里葉變換把它變到頻域上,雖然可以看出信號的頻率分布,但會丟失時域信息,無法看出頻率分布隨時間的變化規(guī)律。為解決此問題,很多時頻分析手段應(yīng)運而生,短時傅里葉變換,小波變換,Wigner分布等都是常用的時頻域分析方法。

        短時傅里葉變換(STFT)是最早提出的一種時頻二維表示方法,它采用加窗的復(fù)正弦作為基函數(shù),也稱為加窗傅里葉變換。實際應(yīng)用中常采用它的能譜基于短時傅里葉變換的譜圖表示。譜圖定義為STFT的模平方,它是二次型時間-頻率分布,是信號能量在時間頻率平面上的分布。譜圖已經(jīng)在信號檢測,語音處理等方面得到了廣泛應(yīng)用。

        本文使用的測量雷達(dá)數(shù)據(jù)由微波暗室的簡易雷達(dá)采集。雷達(dá)發(fā)射信號載頻10 GHz,對雷達(dá)回波數(shù)據(jù)做STFT變換得到時間-頻率圖像如圖1所示。圖中可以看到人身體微多普勒頻移具有微小的鋸齒形狀,但手臂的微多普勒頻移是時變周期曲線。

        圖1 雷達(dá)回波時間-頻率圖像Fig.1 Radar echo time-frequency image

        不同人的同一姿態(tài)下的時頻譜圖直觀上差異較小,但最大峰值和擺動周期等仍存在著細(xì)微的差異。卷積神經(jīng)網(wǎng)絡(luò)的卷積層有多個卷積核,用這些卷積核對輸入圖像的局部區(qū)域依次做卷積運算,可以得到大量的卷積特征映射圖,把這些映射圖作為原始圖像輸入下一層卷積層,再進(jìn)一步提取更高級的特征,直到學(xué)習(xí)到可用于進(jìn)行微動圖像分類的特征?;诰矸e神經(jīng)網(wǎng)絡(luò)抽象的高級特征可以識別不同人的微動特征,進(jìn)而實現(xiàn)身份認(rèn)證。

        3 卷積神經(jīng)網(wǎng)絡(luò)

        3.1 網(wǎng)絡(luò)結(jié)構(gòu)

        卷積神經(jīng)網(wǎng)絡(luò)是一種深度學(xué)習(xí)網(wǎng)絡(luò),一個卷積神經(jīng)網(wǎng)絡(luò)主要包括卷積層、池化層、全連接層和soft-max層。

        卷積層(convolutions)是網(wǎng)絡(luò)的核心,每個卷積層都有多個卷積核。卷積核對圖像的局部區(qū)域進(jìn)行卷積變化后再傳到后面的網(wǎng)絡(luò)。每一層卷積都會提取數(shù)據(jù)中最有效的特征。多層卷積將組合和抽象更高階的特征。具體運算如公式所示:

        xm,i=f(cm*ai+bm,i)

        (1)

        其中,cm是第m個卷積核,ai是原始圖像的第i塊局部區(qū)域,bm,i代表對應(yīng)的偏置項參數(shù)。f是非線性激活函數(shù),這里采用Relu函數(shù)。其函數(shù)表達(dá)式為:

        f(x)=max(x,0)

        (2)

        池化層(subsampling)的主要作用是對輸出做篩選降維,同時不破壞數(shù)據(jù)的內(nèi)在聯(lián)系。池化策略包括中值池化、平均池化和最大池化等。文獻(xiàn)[16]證明了最大池化效果好于其他策略,故本文使用最大池化方法。具體的運算過程如式(3)所示:

        (3)

        其中,xm是對n×n的特征矩陣求得的最大值。

        作為分類器的全連接層(full connection)和softmax層將前面學(xué)到的特征映射到樣本標(biāo)記空間,然后計算每一類的概率值。

        softmax的計算公式如下:

        (4)

        其中xi是第i類目標(biāo)的置信度,y(xi)是第i類目標(biāo)的概率。

        3.2 遷移學(xué)習(xí)和網(wǎng)絡(luò)預(yù)訓(xùn)練

        遷移學(xué)習(xí)主要包含“域”和“任務(wù)”的概念。每個域D由特征空間χ以及邊際概率分布P(X)組成,且X=x1,...,x2∈χ。給定一個域D={χ,P(X)},一個任務(wù)T則可以通過由一個標(biāo)簽空間Y以及一個目標(biāo)函數(shù)f組成。此目標(biāo)函數(shù)可以通過訓(xùn)練集中的帶標(biāo)簽數(shù)據(jù)訓(xùn)練得到,然后用來預(yù)測新數(shù)據(jù)的標(biāo)簽。從概率的角度來看,此目標(biāo)函數(shù)可以被表示為條件概率分布的形式P(y|x)。給定一個源域Ds,一個原任務(wù)Ts,一個目標(biāo)域Dt,一個目標(biāo)任務(wù)Tt,遷移學(xué)習(xí)的目的是借助源域和原任務(wù)提高目標(biāo)函數(shù)f在目標(biāo)域的分類結(jié)果。

        遷移學(xué)習(xí)的思想就是將一個問題上訓(xùn)練好的模型通過簡單的調(diào)整使其適用于一個新的問題。卷積神經(jīng)網(wǎng)絡(luò)分類器之前的層被稱之為瓶頸層[13],瓶頸層的作用是提取圖像特征,用完備數(shù)據(jù)集預(yù)訓(xùn)練得到CNN分類模型,可以認(rèn)為瓶頸層已經(jīng)具備了抽象高級特征的能力,因此,在新的數(shù)據(jù)集上,可以直接利用這個瓶頸層對圖像進(jìn)行特征提取,然后把提取到的高級特征作為數(shù)據(jù)來訓(xùn)練一個分類器,從而實現(xiàn)原始圖像的分類問題。用MNIST數(shù)據(jù)作為原任務(wù)中的樣本集,預(yù)訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò),在用人體微動數(shù)據(jù)集作目標(biāo)任務(wù)中的樣本集,在預(yù)訓(xùn)練網(wǎng)絡(luò)基礎(chǔ)上再訓(xùn)練一個softmax分類器,最后用人體微動數(shù)據(jù)集測試網(wǎng)絡(luò)性能。

        4 數(shù)據(jù)采集與處理

        4.1 MNIST數(shù)據(jù)集使用方法

        MNIST數(shù)據(jù)集是一個手寫體數(shù)字識別數(shù)據(jù)集。包含了60000張圖片作為訓(xùn)練數(shù)據(jù),10000張圖片作為測試數(shù)據(jù)。每張圖片都代表了0~9中的一個數(shù)字。圖片大小為28×28,且數(shù)字都會出現(xiàn)在圖片的正中間。如圖2所示。

        圖2 MNIST數(shù)據(jù)集樣本圖Fig.2 MNIST dataset sample diagram

        每幅圖都有一個輸入值x和一個標(biāo)簽值y,x即圖片的像素值,是一個28×28的二維矩陣,矩陣中每個元素取值范圍是0~255。y表示圖片中數(shù)字的大小,取值范圍是0~10,實驗常用one-hot編碼值表示。例如:數(shù)字1被編碼為(0,1,0,0,0,0,0,0,0,0,0)。

        4.2 采集人體微動數(shù)據(jù)

        實驗所用的原始數(shù)據(jù)是在微波暗室中采集的人體雷達(dá)回波。采集設(shè)備包括矢量射頻信號源、射頻電路、實時信號分析儀、收發(fā)天線等。矢量射頻信號源發(fā)射載頻為10 GHz的單頻連續(xù)波信號,通過射頻電路到發(fā)射天線照射被采集者,接收天線收到回波信號顯示在示波器是并對原始數(shù)據(jù)存儲。

        圖3 信號采集系統(tǒng)實驗原理圖Fig.3 Microwave darkroom data acquisition scene

        實驗采集了6個不同人的數(shù)據(jù),其性別、體型、走路習(xí)慣都存在不同的差異。本次實驗只需分辨同一步態(tài)下的不同的人,因此,標(biāo)簽信息只需要標(biāo)記不同人的類別。其他先驗特征信息可在以后人體特征刻畫、目標(biāo)還原等研究中使用。

        圖4 人體微動數(shù)據(jù)采集實驗平臺Fig.4 Human micro-motion data acquisition radar

        學(xué)生編號身高/cm體重/kg 腿長/cm臂長/cm11787410669.5217062102653170759868418475112735175651046861726010068

        4.3 數(shù)據(jù)預(yù)處理

        對采集的雷達(dá)回波進(jìn)行短時傅里葉變換,得到人體目標(biāo)的微動譜圖如圖5所示。

        譜圖中回波包含人體各部分肢體雷達(dá)回波的疊加,其中中間顏色較深的是軀干回波,它的反射強度最大,頻率較小,外圍淺色的是人體四肢的雷達(dá)回波,具有一定的周期性。識別不同人需要卷積神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)一些表征四肢的協(xié)調(diào)性、走路習(xí)慣等細(xì)節(jié)特征,這些無法直接在譜圖中體現(xiàn)。

        圖5 原始雷達(dá)回波時間-頻率圖Fig.5 Original radar echo time-frequency chart

        人行走具有周期性,加之譜圖中頻率較高部分可用信息較少。人體微動譜圖數(shù)據(jù)集中圖像的原始尺寸為126×136,圖像中包含多個周期的信息。實驗中,從每幅圖像中截取圖像子塊作為訓(xùn)練圖像,圖像子塊的像素尺寸為35×35,并包含了人體絕大部分回波信息以及相關(guān)位置信息,對圖片進(jìn)行標(biāo)記后制作數(shù)據(jù)集,每個樣本包括一個像素矩陣x和一個標(biāo)簽值y。首先把同一個人的樣本圖片放到文件夾中,文件夾用標(biāo)簽值y命名,然后用python讀入數(shù)據(jù)轉(zhuǎn)化成Tfrecord格式的文件。

        實驗兩次訓(xùn)練分別用到了MNIST數(shù)據(jù)集和人體微動譜圖數(shù)據(jù)集。MNIST數(shù)據(jù)集中每幅圖像的尺寸為28×28,由于兩個數(shù)據(jù)集中的尺寸不同。因此,我們首先在MNIST圖像周圍填充像素,改變圖像的尺寸,使得與微動譜圖圖像目標(biāo)尺寸一致。圖7是填充后兩個數(shù)據(jù)集圖像的示例。

        5 實驗結(jié)果及分析

        本實驗操作是在ubuntu操作平臺上,在Tensorflow框架下運行,主頻2.8 Ghz,運行內(nèi)存8 G,沒有使用GPU參與運算。

        5.1 超參數(shù)優(yōu)化

        對于網(wǎng)絡(luò)結(jié)構(gòu)和參數(shù)的優(yōu)化,采用循環(huán)驗證方法。把訓(xùn)練數(shù)據(jù)集D分成兩個不相交的子集D1,D2,其中子集D1用于訓(xùn)練模型參數(shù)(m,n),m是卷積層數(shù),n是卷積核數(shù)目。子集D2用于估計訓(xùn)練后的泛化誤差。不斷更新超參數(shù)并驗證準(zhǔn)確率。最終找到一組較好分辨效果的參數(shù)設(shè)置。

        圖6 人體微動樣本圖Fig.6 Human micro-sample map

        圖7 填充后數(shù)據(jù)集Fig.7 Dataset after filling

        表2 超參數(shù)設(shè)置

        隨著隱層層數(shù)的增加,網(wǎng)絡(luò)訓(xùn)練效果更好,分類識別結(jié)果更高。當(dāng)然并不是網(wǎng)絡(luò)深度越深越好,網(wǎng)絡(luò)的深度取決于網(wǎng)絡(luò)模型及輸入數(shù)據(jù)的規(guī)模,若數(shù)據(jù)規(guī)模并不大,盲目地增加網(wǎng)絡(luò)深度,效果提升并不會太大,反而增大了計算量。目前參數(shù)調(diào)整依靠手動優(yōu)化,對不同的樣本需要重新調(diào)試,尋找最優(yōu)方案困難且費時費力,設(shè)計自適應(yīng)超參數(shù)優(yōu)化研究將是下一步的工作重點。

        5.2 不同方法實驗對比

        為了驗證方法的有效性,實驗分別做了直接用人體微動數(shù)據(jù)集訓(xùn)練CNN和用MNIST數(shù)據(jù)集預(yù)訓(xùn)練CNN以及提取譜圖結(jié)構(gòu)特征三種方法。

        圖8 譜圖特征示意圖Fig.8 Spectrum features

        提取譜圖結(jié)構(gòu)特征的方法通過譜圖計算軀干多普勒頻率、多普勒信號的總帶寬(BW)、總多普勒偏移、沒有微多普勒的帶寬、多普勒信號強度和肢體運動的周期[17]這6項特征值,用一個1×6向量輸入softmax分類器。

        表3 實驗結(jié)果對比

        利用譜圖結(jié)構(gòu)特征進(jìn)行分類,對于目標(biāo)差別明顯(比如人、車)的分類問題效果較好[17],但是對于不同人體目標(biāo),這些特征信息差異小,導(dǎo)致識別準(zhǔn)確率較低。使用卷積神經(jīng)網(wǎng)絡(luò)不需要人工提取特征,網(wǎng)絡(luò)均能自動學(xué)習(xí),使用數(shù)據(jù)集預(yù)訓(xùn)練得到的CNN網(wǎng)絡(luò),對人體目標(biāo)身份認(rèn)證準(zhǔn)確率更高,尤其在分類人數(shù)增多時,直接訓(xùn)練準(zhǔn)確率降低,而預(yù)訓(xùn)練的網(wǎng)絡(luò)4人識別率仍然可以達(dá)到72%。直接訓(xùn)練準(zhǔn)確率較低是因為:人體微動數(shù)據(jù)樣本較小,直接訓(xùn)練的網(wǎng)絡(luò)容易“過擬合”,模型的泛化能力差,測試集準(zhǔn)確率低于訓(xùn)練結(jié)果。

        圖9 測試集準(zhǔn)確率變化對比Fig.9 Test accuracy comparison

        5.3 加噪分析

        為了進(jìn)一步驗證方法的魯棒性,進(jìn)行不同信噪比條件下實驗對比。用添加高斯噪聲的方法對數(shù)據(jù)進(jìn)行加噪處理,其信噪比分別為30 dB,25 dB,20 dB,15 dB,10 dB,5 dB。

        圖10 測試集準(zhǔn)確率隨信噪比變化曲線Fig.10 Accuracy curve with SNR

        經(jīng)過添加高斯噪聲后,依然能取得不錯的識別效果,雖然隨著信噪比的降低,識別準(zhǔn)確率有所下降。注入噪聲是數(shù)據(jù)增強一種方法,通過對原始樣本加入噪聲擾動,可以看作一個人不同的樣本數(shù)據(jù),把加噪樣本加入數(shù)據(jù)集可以增加標(biāo)記樣本數(shù)量。

        圖11 準(zhǔn)確率對比Fig.11 Accuracy comparison

        由圖11可以看到使用添加噪聲的樣本之后,分類準(zhǔn)確率提高了,因為添加加噪樣本,數(shù)據(jù)集變大,訓(xùn)練的模型泛化能力更強。在添加信噪比20 dB的噪聲,6人分辨率達(dá)到了最高的68%。

        6 結(jié)論

        人體微動特征是人體獨有的特征,本文對人體走路時微動特征進(jìn)行分析,通過用MNIST數(shù)據(jù)集預(yù)訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò),并對數(shù)據(jù)加噪擴充了數(shù)據(jù)集容量,提高了網(wǎng)絡(luò)泛化能力,解決了小樣本集數(shù)據(jù)過擬合問題,使用卷積神經(jīng)網(wǎng)絡(luò)的人體微動特征的時間-頻率圖像進(jìn)行分類,實現(xiàn)了較高的準(zhǔn)確率。實驗證明了方法的有效性。在自適應(yīng)超參數(shù)設(shè)置、添加噪聲隱層的選擇、添加噪聲樣式和幅度等加噪技巧還需進(jìn)一步研究。

        [1] Taigman Y, Yang M, Ranzato M, et al. Deep Face: Closing the Gap to Human-Level Performance in Face Verification[C]∥Computer Vision and Pattern Recognition. IEEE, 2014:1701-1708.

        [2] Lu Z, Xu Y C, Dai Z X, et al. A Gait Recognition Based on Link Model of Infrared Thermal Imaging[C]∥International Conference on Control Science and Systems Engineering. IEEE, 2016.

        [3] Zhang Q, Luo Y, Chen Y A. Micro-Doppler Characteristics of Radar Targets[M]. Elsevier Press, 2016.

        [4] 陳小龍, 關(guān)鍵, 董云龍,等. 稀疏域海雜波抑制與微動目標(biāo)檢測方法[J]. 電子學(xué)報, 2016, 44(4):860- 867.

        Chen Xiaolong, Guan Jian, Dong Yunlong, et al. Sea Clutter Suppression and Micromotion Target Detection in Sparse Domain[J]. Acta Electronica Sinica, 2016, 44 (4): 860- 867. (in Chinese)

        [5] 陳小龍, 關(guān)鍵, 于曉涵,等. 基于短時稀疏時頻分布的雷達(dá)目標(biāo)微動特征提取及檢測方法[J]. 電子與信息學(xué)報, 2017, 39(5):1017-1023.

        Chen Xiaolong, Guan Jian, Yu Xiaohan, et al. Radar Micro-Doppler Signature Extraction and Detection via Short-time Sparse Time-frequency Distribution[J].Journal of Electronics & Information Technology, 2017, 39 (5): 1017-1023.(in Chinese)

        [6] Chen Y J, Zhang Q, Ma C Z, et al. Micromotion Feature Extraction of Radar Target Using Tracking Pulses with Adaptive Pulse Repetition Frequency Adjustment[J]. Journal of Applied Remote Sensing, 2014, 8(1): 083569(1)- 083569(14).

        [7] 郝文濤,張群,羅迎,等.基于特征投影預(yù)處理零陷加深的抗主瓣干擾算法[J].空軍工程大學(xué)學(xué)報:自然科學(xué)版,2018,19(1),40- 45.

        Hao W T, Zhang Q, Luo Y, et al. Mainlobe Jamming Suppression Algorithm Based on Eigen-projection Preprocessing and Augment of Null Depth[J].Journal of Air Force Engineering University: Nature Science Edition,2018,19(1),40- 45.(in Chinese)

        [8] Chen V C. Radar Micro-Doppler Signatures-Principle and Applications[J]. Radar N & Hnology, 2012: 1- 4.

        [9] 王忠民, 曹洪江, 范琳. 一種基于卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)的人體行為識別方法[J]. 計算機科學(xué), 2016, 43(s2): 56-58.

        Wang Zhongmin, Cao Hongjiang, Fan Lin. A Method of Human Behavior Recognition Based on Convolution Neural Network Depth Learning[J]. Computer Science, 2016, 43 (s2): 56-58.(in Chinese)

        [10] Kim Y, Hao L. Human Activity Classification Based on Micro-Doppler Signatures Using a Support Vector Machine[J]. IEEE Transactions on Geoscience & Remote Sensing, 2009, 47(5): 1328-1337.

        [11] Tahmoush D. Review of micro-Doppler signatures[J]. Radar Sonar &Navigation let, 2015, 9(9): 1140-1146.

        [12] Javier R, Kim Y. Application of Linear Predictive Coding for Human Activity Classification Based on Micro-Doppler Signatures[J]. IEEE Geoscience & Remote Sensing Letters, 2014,11(10): 1831-1834.

        [13] Kim Y, Moon T. Detection and Activity Classification Based on Micro-Doppler Signatures Using Deep Convolutional Neural Networks[J]. IEEE Geoscience & Remote Sensing Letters, 2016, 13(1): 8-12.

        [14] Trommel R P, Harmanny R I A, Cifola L, et al. Multi-target Human Gait Classification Using Deep Convolutional Neural Networks on Micro-Doppler Spectrograms[C]∥Radar Conference. IEEE, 2017.

        [15] Chen V C, Li F, Ho S S, et al. Micro-Doppler Effect in Radar: Phenomenon, Model and Simulation Study[J]. IEEE Transaction on Aerospace & Electronic Systems, 2006, 42(1): 2-21.

        [16] Donahue J, Jia Y, Vinyals O, et al. DeCAF: A Deep Convolutional Activation Feature for Generic Visual Recognition[J]. Computer Science, 2013, 50(1): 1- 647.

        [17] Kim Y, Ling H. Human Activity Classification Based on Micro-Doppler Signatures Using a Support Vector Machine[J]. IEEE Transactions on Geoscience & Remote Sensing, 2009, 47(5):1328-1337.

        猜你喜歡
        微動卷積人體
        人體“修補匠”
        人體冷知識(一)
        基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
        排便順暢,人體無毒一身輕
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        基于RID序列的微動目標(biāo)高分辨三維成像方法
        基于稀疏時頻分解的空中目標(biāo)微動特征分析
        奇妙的人體止咳點
        特別健康(2018年3期)2018-07-04 00:40:10
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        微動橋橋足距離對微動裂紋萌生特性的影響
        中文字幕无码成人片| 国语精品视频在线观看不卡| 在线亚洲国产一区二区三区 | 亚洲乱码中文字幕综合| 婷婷九月丁香| 日本女优中文字幕四季视频网站| 9久久婷婷国产综合精品性色| 亚洲av美国av产亚洲av图片| 婷婷综合久久中文字幕蜜桃三电影| 日本一本草久国产欧美日韩| 国产在线一区二区三区四区乱码 | 亚洲成a人一区二区三区久久| 在线观看的网站| 国产精品久久久久久妇女6080| 永久免费的拍拍拍网站| 亚洲乱妇熟女爽到高潮视频高清| 山外人精品影院| 丰满多毛少妇做爰视频| 国产男女猛烈无遮挡免费视频网址| 国产精品一区av在线| 少妇被粗大的猛烈进出免费视频 | 69天堂国产在线精品观看| 看一区二区日本视频免费| 少妇愉情理伦片丰满丰满| 国产精品麻豆aⅴ人妻| 中国精品久久久久国产| 成人影院在线观看视频免费| 偷偷色噜狠狠狠狠的777米奇| 日韩精品国产自在久久现线拍| 亚洲一区二区女优视频| 亚洲a无码综合a国产av中文| 国产人妻精品一区二区三区不卡| 日韩美无码一区二区三区| 中文字幕亚洲高清视频| 夜夜揉揉日日人人青青| 日本国产视频| 国产午夜在线观看视频| 一区二区三区内射美女毛片 | 图片小说视频一区二区| 国产大学生粉嫩无套流白浆| 亚洲欧美香港在线观看三级片|