亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于人工智能與機(jī)器學(xué)習(xí)技術(shù)在智慧城市的應(yīng)用

        2019-01-11 06:00:12鄭永亮李曉坤王琳琳陳虹旭
        智能計算機(jī)與應(yīng)用 2019年1期
        關(guān)鍵詞:步態(tài)人臉識別人臉

        鄭永亮, 李曉坤, 王琳琳, 陳虹旭, 楊 磊

        (黑龍江恒訊科技有限公司, 哈爾濱 150090)

        0 引 言

        智慧城市是基于物聯(lián)網(wǎng)、云計算、人工智能等技術(shù)而形成的一種新型智能化、信息化的城市形態(tài)。在智慧城市建設(shè)中利用人工智能與機(jī)器學(xué)習(xí)建設(shè)智慧化、智能化、信息化的現(xiàn)代城市,不僅是一種技術(shù)手段,更是一種顛覆性思維。要想將中國建設(shè)成為網(wǎng)絡(luò)強(qiáng)國、數(shù)字中國和智慧社會,智慧城市便是重要抓手和綜合載體,而人工智能與機(jī)器學(xué)習(xí)技術(shù)在智能城市中的應(yīng)用則起著重要的支撐作用。

        1 人工智能與機(jī)器學(xué)習(xí)概述

        1.1 人工智能

        隨著互聯(lián)網(wǎng)的普及,傳感器的普遍存在,大數(shù)據(jù)的出現(xiàn),電子商務(wù)的發(fā)展,信息社區(qū)的興起,數(shù)據(jù)與知識在社會、物理空間和網(wǎng)絡(luò)空間的互聯(lián)與融合,圍繞人工智能發(fā)展的信息環(huán)境發(fā)生了深刻的變化,導(dǎo)致了一個新的進(jìn)化階段——人工智能2.0[1-2]?,F(xiàn)階段的人工智能更加側(cè)重于與人類生活緊密結(jié)合,并成為人類生活中的一部分。

        新技術(shù)的出現(xiàn)將人工智能提升到了一個新的階段。人工智能的目標(biāo)也發(fā)生了巨大的變化,從追求使用計算機(jī)模擬人類智能轉(zhuǎn)變?yōu)椋?/p>

        (1)結(jié)合機(jī)器和人類增強(qiáng)的混合智能系統(tǒng);

        (2)由機(jī)器、人類和網(wǎng)絡(luò)組織的新的人群智能系統(tǒng);

        (3)更復(fù)雜的智能系統(tǒng),如融合人類、社會、物理和網(wǎng)絡(luò)系統(tǒng)的智能城市。

        本文中所提及的人工智能是指人工智能中的圖像識別技術(shù)。

        1.2 機(jī)器學(xué)習(xí)

        通常,機(jī)器學(xué)習(xí)定義為計算機(jī)利用經(jīng)驗自動改善系統(tǒng)自身性能的行為。[3]機(jī)器學(xué)習(xí)其主要的工作就是提取出主要的特征后根據(jù)已有的經(jīng)驗、數(shù)據(jù)或?qū)嵗龢?gòu)造從特征到標(biāo)簽的映射。機(jī)器學(xué)習(xí)是人工智能領(lǐng)域最能體現(xiàn)智能的一個分支,也許不是人工智能中最為高端的技術(shù),但卻是人工智能領(lǐng)域最不可或缺的技術(shù)。機(jī)器學(xué)習(xí)擁有高度發(fā)達(dá)的感知能力和強(qiáng)大的并行信息處理能力,在智慧城市建設(shè)的應(yīng)用中取得了很大的進(jìn)展,運(yùn)用于圖像識別、語音識別等領(lǐng)域并取得了令人矚目的成就。

        1.3 深度學(xué)習(xí)

        深度學(xué)習(xí),也就是英文中常說的Deep Learning,直觀地說,深度學(xué)習(xí)就是不需要人參與特征的選取過程。深度學(xué)習(xí)作為近年來研究的熱門領(lǐng)域,在圖像識別、目標(biāo)檢測、自然語言處理等領(lǐng)域取得了較大的成功[5]。深度學(xué)習(xí)較機(jī)器學(xué)習(xí)來說具有更寬廣的應(yīng)用領(lǐng)域,極大地拓展了人工智能的應(yīng)用范圍[6]。

        深度學(xué)習(xí)的框架主要有3種:深度卷積神經(jīng)網(wǎng)絡(luò)(CNN)、深度置信網(wǎng)絡(luò)(DBN)、堆棧自編碼器(SAE)[7]。深度學(xué)習(xí)的實質(zhì),是通過構(gòu)建包含多個隱層的機(jī)器學(xué)習(xí)模型[8]與大量的數(shù)據(jù)[9]進(jìn)行訓(xùn)練,從而來獲取更加有用的特征,使得預(yù)測和分類的準(zhǔn)確性得以提高。

        2 人工智能與機(jī)器學(xué)習(xí)技術(shù)在智慧城市中的應(yīng)用

        在建設(shè)智慧城市的進(jìn)程中,伴隨著人工智能領(lǐng)域中圖像識別技術(shù)運(yùn)用領(lǐng)域的不斷擴(kuò)展,圖像識別發(fā)揮著越來越重要的作用,人臉識別[11]、步態(tài)識別[12]、車牌識別[13]、指紋識別[14]等都屬于這一范圍。本文以圖像識別中較具代表性的人臉識別與步態(tài)識別為例,來闡述人工智能與機(jī)器學(xué)習(xí)技術(shù)在智慧城市中的應(yīng)用。

        2.1 步態(tài)識別

        2.1.1 步態(tài)識別概述

        步態(tài)識別是通過對人走路的姿勢和形態(tài)可在遠(yuǎn)距離非受控狀態(tài)實現(xiàn)對個人身份的識別和認(rèn)證。早期的醫(yī)學(xué)研究表明:人的步態(tài)中有24種不同的成分,如果把這24種不同成分都考慮到,則步態(tài)是為個體所獨(dú)有的[15],相互比于虹膜識別、指紋識別等傳統(tǒng)的識別方式來說,步態(tài)識別具有相對唯一、不易偽裝、不需客體配合、真實自然等優(yōu)點(diǎn)[16]。由于以上優(yōu)點(diǎn),步態(tài)識別在智慧城市的諸多領(lǐng)域具有更加廣泛的應(yīng)用前景。

        步態(tài)識別通常通過步態(tài)檢測、步態(tài)特征提取等過程來進(jìn)行個體識別,可以認(rèn)為步態(tài)識別就是通過對包含人體運(yùn)動的圖像序列進(jìn)行分析與處理,從而來提取步態(tài)特征[17-18]。 步態(tài)識別流程如圖1所示。

        2.1.2 步態(tài)識別的應(yīng)用

        首先,步態(tài)識別應(yīng)用于安防領(lǐng)域。作為新興的生物特征識別技術(shù),應(yīng)用于視頻監(jiān)控領(lǐng)域,將會在社會治安、案件偵查、反恐等領(lǐng)域發(fā)揮重大作用,可以更加快速地對嫌疑人進(jìn)行判斷。其次,步態(tài)識別應(yīng)用于財產(chǎn)安全領(lǐng)域。對于貴重物品的保管,在加入步態(tài)識別技術(shù)后,物品內(nèi)的傳感器將根據(jù)來者的步態(tài)判斷此人是否會對物品構(gòu)成威脅從而是否發(fā)出警報。最后,步態(tài)識別應(yīng)用于醫(yī)學(xué)領(lǐng)域。由于健康的人走路的姿態(tài)和不健康的人走路會有差別,通過步態(tài)識別,可以判斷出人的身體是否健康,若不健康,可以判斷出是身體哪個部位出現(xiàn)了問題。

        圖1 步態(tài)識別流程

        2.2 人臉識別

        2.2.1 人臉識別的應(yīng)用

        人臉識別作為一種重要的身份鑒別方法,在許多領(lǐng)域都有著廣泛的應(yīng)用。首先,人臉識別應(yīng)用于安防領(lǐng)域。目前,社會中大量監(jiān)控的高清普及,為人臉識別應(yīng)用提供基礎(chǔ)。在案發(fā)之后利用視頻錄像對嫌疑人面部特征進(jìn)行提取,通過酒店、網(wǎng)吧、出租屋、汽車站、火車站、廣場、交通要道等場所進(jìn)行在逃犯實時布控需求,利用人臉卡口軌跡線索分析能有效定位嫌疑人員。其次,人臉識別應(yīng)用于金融領(lǐng)域[19]。隨著支付方式日新月異,二維碼等收付款方式有可能存在不安全,或者不能滿足人們需求等的缺點(diǎn)。相比之下,刷臉支付[20]的支付方式具有的安全性、唯一性的優(yōu)點(diǎn)被人們逐漸重視起來,在將來,刷臉支付可能會成為新的支付方式。再次,人臉識別應(yīng)用于門禁管理[21]。門禁系統(tǒng)對于安全的居住環(huán)境至關(guān)重要,由于人臉識別具備的唯一性和不易被復(fù)制的特性為身份鑒別提供了良好的前提,通過對人臉的識別作為開門的前提,小區(qū)住戶可通過門禁系統(tǒng)對人臉的識別作為開門的鑰匙,保證了住戶的安全,同時也免去了忘記帶鑰匙的不便。最后,人臉識別應(yīng)用于考勤管理。人臉識別可以提高考勤管理的效率,通過事先的信息采集,在員工上下班的過程中,考勤機(jī)會自動對其進(jìn)行記錄,節(jié)省了員工排隊打卡的時間,同時也可以避免弄虛作假情況的發(fā)生。

        2.2.2 人臉識別的應(yīng)用模式

        當(dāng)前人臉識別有3種應(yīng)用模式:1∶1人臉識別、1∶N人臉識別、M∶N動態(tài)布控。1∶1識別就是對目前所出現(xiàn)的人臉與數(shù)據(jù)庫中的人像進(jìn)行快速對比,進(jìn)而得出匹配的過程, “刷臉”登機(jī)、驗票、支付都屬此類;1∶N是在海量的人像數(shù)據(jù)庫中找出當(dāng)前用戶的人臉數(shù)據(jù)并進(jìn)行匹配,即從N個人臉中找出1個目標(biāo);M∶N是通過計算機(jī)對目標(biāo)區(qū)域內(nèi)的所有個體進(jìn)行人臉對比,并與人像數(shù)據(jù)庫中的樣本進(jìn)行動態(tài)人臉對比,可以應(yīng)用于黑名單監(jiān)控、VIP客戶管理系統(tǒng)、校園人臉識別系統(tǒng)等多種場景。

        3 人臉識別與步態(tài)識別融合相關(guān)技術(shù)介紹

        3.1 DBN深度置信網(wǎng)

        DBN是由多個限制波爾茲曼機(jī)(RBM)堆疊而成[22]。RBM作為深度信念網(wǎng)絡(luò)的組成元素,由2層結(jié)構(gòu)組合而成,分別稱之為顯層和隱層,層與層之間網(wǎng)絡(luò)單元是互相連接的,但是層內(nèi)單元并無連接,其結(jié)構(gòu)如圖2所示。通常假設(shè)其所有節(jié)點(diǎn)的取值都是0或1,同時假設(shè)全概率分布滿足Boltzmann分布,則該模型為限制波爾茲曼機(jī)模型[23-25]。

        圖2 RBM結(jié)構(gòu)示意圖

        RBM模型顯層和隱層都服從伯努利分布,因此,其能量表達(dá)式為:

        其中,θ={W,a,b}為該模型的參數(shù)。

        RBM的聯(lián)合分布可以表示為:

        RBM的顯層和隱層對應(yīng)的條件概率可表示為:

        深度置信網(wǎng)是由多個RBM和一個BP網(wǎng)絡(luò)堆疊而成,輸入數(shù)據(jù)在DBN模型中逐層進(jìn)行數(shù)據(jù)轉(zhuǎn)換的同時,不斷地對數(shù)據(jù)的特征進(jìn)行提取和抽象,并且剔除冗余的信息,最后將經(jīng)過多層數(shù)據(jù)轉(zhuǎn)換后的特征信息輸入頂層BP層,通過BP網(wǎng)絡(luò)利用反向傳播算法進(jìn)行有監(jiān)督的訓(xùn)練學(xué)習(xí),對整個DBN模型進(jìn)行微調(diào),從而優(yōu)化整個模型,提高DBN模型數(shù)據(jù)抽象的能力,學(xué)習(xí)到更精確的特征。深度信念網(wǎng)絡(luò)示意如圖3所示。

        圖3 深度信念網(wǎng)絡(luò)示意圖

        3.2 基于深度卷積神經(jīng)網(wǎng)絡(luò)的圖像識別

        神經(jīng)網(wǎng)絡(luò)是將多個神經(jīng)元連接起來后,將某個神經(jīng)元的輸出作為下一層神經(jīng)元的輸入,圖4是一個具有一層隱藏層的神經(jīng)網(wǎng)絡(luò)。其中x,L,xj,L,xd表示輸入向量X的每一維,Wi,j(1)表示輸入層的第j個元素與第一隱層的第i個神經(jīng)元連接的權(quán)值,o(g)表示輸出層的激發(fā)函數(shù),對于隱層的每個神經(jīng)元有:

        a(x)i=bi(1)+∑jWi,j(1)xj

        圖4 深度卷積神經(jīng)網(wǎng)絡(luò)框架圖

        寫成矩陣式即:

        a(x)=b(1)+W(1)X

        隱層的激發(fā)函數(shù):

        h(X)=g(a(X))

        因此,可以計算出輸出層的結(jié)果:

        f(X)=o(b(2)+W(2)rh(1)(X))

        由此可以推廣到具有多層隱層的神經(jīng)網(wǎng)絡(luò)。

        卷積神經(jīng)網(wǎng)絡(luò)包括卷積層、池化層和全連接層,并具有稀疏連接和權(quán)值共享的特征。

        在圖像采集的過程中,步態(tài)圖像或人臉圖像的某些部分的特征也許會出現(xiàn)于其它位置,為了得到新的特征映圖,通常使用一個卷積核對輸入的一張圖片進(jìn)行卷積操作。相對應(yīng)的利用圖像局部相關(guān)性原理,實現(xiàn)下采樣操作。

        卷積的計算公式為:

        yi=f(∑ieMxi*ki+bp)

        f(x)=max(x,0)

        池化的計算公式為:

        Yi=downieM(Xi)

        其中,down是下采樣操作。

        全連接的計算公式為:

        Y=f(P*x+b)

        其中,P是一個矩陣,x是輸入二維特征圖的一維向量形式。而且通過全連接能夠?qū)⑻卣鲌D映射到任意維度的向量中。

        在網(wǎng)絡(luò)訓(xùn)練過程中,SoftmaxLoss函數(shù)通過損失值的反饋不斷對網(wǎng)絡(luò)參數(shù)進(jìn)行優(yōu)化,迭代次數(shù)不斷增加的同時,其損失值也在不斷的降低,而訓(xùn)練數(shù)據(jù)中的類別在實驗中也會被慢慢地分離開來。由于人臉具有復(fù)雜多變的特性,對人臉識別來說,SoftmaxLoss存在的一個明顯的缺點(diǎn)就是對于人臉識別性能來說,雖然能夠提高人臉識別的精度,但卻不能減少同類別中人臉間的距離,這就易使在某些非限定條件下的人臉識別產(chǎn)生誤差。對于此問題,中心損失函數(shù)(CenterLoss)[26]可以實現(xiàn)減少類內(nèi)距離,使類內(nèi)距離小于肋間距離。計算公式如下:

        其中,N代表訓(xùn)練批次;xi表示第j類中第i個樣本的特征向量;cj是第j類的中心特征向量。每次迭代,cj都會進(jìn)行更新,通過不斷進(jìn)行訓(xùn)練,可以有效減少類間距離,從而實現(xiàn)減少類內(nèi)距離的目標(biāo)。

        在進(jìn)行網(wǎng)絡(luò)訓(xùn)練時,CenterLoss對類別無法區(qū)分,只能縮小類內(nèi)距離。由于這點(diǎn)原因本文將SoftmaxLoss和CenterLoss共同使用,從而聯(lián)合監(jiān)督網(wǎng)絡(luò)訓(xùn)練,以期實現(xiàn)減小類內(nèi)距離的目標(biāo)。本文中的實驗方法是將SoftmaxLoss和CenterLoss進(jìn)行加權(quán),運(yùn)算公式如下:

        The normalized specific acoustic impedance of a perforated liner of single degree of freedom can be formulated as below:

        L=Softmax+λCenterLoss=

        其中,前半部分為SoftmaxLoss函數(shù);F代表訓(xùn)練數(shù)據(jù)的類別總數(shù);w是最后一個全連接層的權(quán)重集合;a為偏置值;λ為用來平衡這2個損失的CenterLoss的權(quán)重值。在本文所提出的網(wǎng)絡(luò)中,SoftmaxLoss層和CenterLoss層的具體使用方式如圖5所示[27]。

        圖5 Center Loss與Softmax Loss在網(wǎng)絡(luò)中的具體使用方法示意圖

        Fig.5SketchdiagramofspecificusemethodofCenterLossandSoftmaxLossinthenetwork

        基于卷積神經(jīng)網(wǎng)絡(luò),通過使用CenterLoss與SoftmaxLoss,來平衡人臉識別與步態(tài)識別中的偏差,提取出更具區(qū)分能力的人臉特征與步態(tài)特征,使得人臉識別與步態(tài)識別能夠更為精準(zhǔn)。

        4 實驗結(jié)果與分析

        本文的實驗平臺配置為Intel2.67 GHz CPU、8 GB內(nèi)存、操作系統(tǒng)為Ubuntu 14.04。

        4.1 步態(tài)識別實驗結(jié)果及分析

        4.1.1 實驗樣本

        實驗選取中科院的步態(tài)數(shù)據(jù)庫 CASIA-B 和CASIA-C[28]等公開數(shù)據(jù)集對本文中所提出的方法進(jìn)行驗證。CASIA-B 數(shù)據(jù)集中包含124個個體的行走數(shù)據(jù),包括正常的行走、背包行走和穿外套行走。CASIA-C 數(shù)據(jù)集是夜間拍攝的紅外步態(tài)圖像,包含153個個體正常行走、快走、慢走和背包的行走狀態(tài)。本文從中隨機(jī)選取了16個人正常情況下的水平向左步行數(shù)據(jù)和 10 個人的背包情況下水平向左步行的行走數(shù)據(jù),前者用“Gait-nm”表示,后者用“Gait-bg”表示。

        4.1.2 實驗細(xì)節(jié)

        在實驗中,首先對320×240像素的原始圖像生成歸一化的步態(tài)輪廓圖像,并且將尺寸放縮至64×64像素來計算步態(tài)周期。

        本文中所提及的實驗訓(xùn)練過程包括全連階層網(wǎng)絡(luò)與受限玻爾茲曼機(jī)。每一DBN網(wǎng)絡(luò)含有輸入層、頂層輸出與3個隱藏層,時序模型包含3層網(wǎng)絡(luò)。在實驗中,輸入層的數(shù)據(jù)維度為15 000,頂層的數(shù)據(jù)維度為100,3個隱藏層結(jié)點(diǎn)數(shù)分別是5 000、1 000與500,輸入層、隱層、輸出層均是100個節(jié)點(diǎn)。所有深網(wǎng)中,RBM在預(yù)測階段的迭代次數(shù)是300次,BP神經(jīng)網(wǎng)絡(luò)微調(diào)次數(shù)為200,訓(xùn)練時序模型時,對其中GRBM和CRBM的訓(xùn)練迭代次數(shù)均為2 000次。

        4.1.3 實驗結(jié)論

        本文中的實驗數(shù)據(jù)與其它幾種方法對比結(jié)果見表1。可以看到,SVM和DBN+RBF的步態(tài)序列識別情況較為紊亂,識別率偏低;DBN+SVM的步態(tài)識別率則相對較高;而集成深網(wǎng)相比于其它效果則具有更加明顯的優(yōu)勢。

        表1幾種方法的步態(tài)序列類識別對比

        Tab.1Gaitsequenceclassidentificationcomparisonofseveralmethods

        方法Gnit-nm(16類)識別類/個識別率/%Gnit-bg(10類)識別類/個識別率/%SVM1167.75770DBN+RBF532.25330DBN+SVM1592.7510100集成深網(wǎng)1610010100

        4.2 人臉識別實驗結(jié)果及分析

        4.2.1 實驗樣本

        選取 CASIA-WebFace[29]作為訓(xùn)練樣本,其中包含10 575人的約500 000張圖片。使用此訓(xùn)練庫來訓(xùn)練網(wǎng)絡(luò),本文在實驗中使用公開人臉庫LFW數(shù)據(jù)庫進(jìn)行測試,實驗測試結(jié)果是基于LFW數(shù)據(jù)庫中人臉驗證任務(wù)的1 000對正樣本和1 000對負(fù)樣本。

        4.2.2 實驗細(xì)節(jié)

        在實驗中,對訓(xùn)練樣本和測試樣本作同樣的預(yù)處理。首先,采用MTCNN算法進(jìn)行人臉檢測和關(guān)鍵點(diǎn)定位;其次,根據(jù)關(guān)鍵點(diǎn)的位置進(jìn)行相似性變換。在進(jìn)行完以上操作后,對實驗中所有的人臉圖像裁剪為112×96的RGB圖片。

        實驗的訓(xùn)練參數(shù)設(shè)定為:初始學(xué)習(xí)率設(shè)置為0.02,訓(xùn)練批次為50,權(quán)重衰減設(shè)置為0.005,總的迭代次數(shù)為10萬次,最大迭代次數(shù)為5萬次。在實驗過程中,對測試原圖進(jìn)行提取,與水平翻轉(zhuǎn)圖的特征進(jìn)行比對,并提取出最終的比對特征,同時,采用Cosine距離計算出相似度。在此過程中與其它方法進(jìn)行對比和實驗。結(jié)果數(shù)據(jù)見表2。

        表2 其它方法在LFW庫上的結(jié)果對比

        4.2.3 實驗結(jié)論

        與傳統(tǒng)的人臉識別算法相比,本文中所提及的人臉識別算法具有更高、更精準(zhǔn)的識別度;同時,將度量學(xué)習(xí)算法融合其中,提取到了更為精準(zhǔn)的人臉特征。本文方法使用了更少的人臉關(guān)鍵點(diǎn),且有更高的驗證識別準(zhǔn)確率。

        5 步態(tài)識別與人臉識別共同運(yùn)用的優(yōu)勢

        人臉識別只有當(dāng)個體與攝像機(jī)距離足夠近時才能提取到有效的面部特征。而由于人的步態(tài)具有唯一性的特征,即使攝像機(jī)只能捕捉到分辨率較低的圖像,也可以獲取足夠的步態(tài)信息。將人臉識別與步態(tài)識別共同運(yùn)用,可以有效地應(yīng)對個體與攝像機(jī)距離的問題。而且,由于步態(tài)與人臉通過攝像機(jī)來收集身份信息對傳感設(shè)備的要求相對較低,同時,步態(tài)識別受穿著、負(fù)荷的影響較大,但這些因素對人臉識別的影響較??;而人臉識別受化妝、表情、發(fā)型的影響較大,但這些因素對步態(tài)識別卻無甚影響??梢哉f,步態(tài)識別與人臉識別是可以互補(bǔ)的。所以,將步態(tài)識別與人臉識別共同運(yùn)用,可以提高識別的精準(zhǔn)度,對建設(shè)智慧城市是一項極其有利的舉措[30]。

        6 結(jié)束語

        智慧城市是未來城市發(fā)展的主要方向,人工智能和機(jī)器學(xué)習(xí)技術(shù)必將在智慧城市中發(fā)揮越來越重要的作用,人工智能與機(jī)器學(xué)習(xí)技術(shù)在智慧城市各領(lǐng)域的應(yīng)用必將隨著技術(shù)的進(jìn)步和人們對智慧城市間認(rèn)識的深入而更加廣泛地應(yīng)用,智慧城市、人工智能技術(shù)各自蓬勃發(fā)展,必將催生新的經(jīng)濟(jì)增長點(diǎn),促進(jìn)物質(zhì)文明和精神文明的進(jìn)步,使中國新型城鎮(zhèn)化向著健康、有序的方向發(fā)展[31]。

        猜你喜歡
        步態(tài)人臉識別人臉
        小螞蟻與“三角步態(tài)”
        人臉識別 等
        有特點(diǎn)的人臉
        揭開人臉識別的神秘面紗
        基于面部和步態(tài)識別的兒童走失尋回系統(tǒng)
        電子制作(2018年18期)2018-11-14 01:48:04
        三國漫——人臉解鎖
        動漫星空(2018年9期)2018-10-26 01:17:14
        基于Kinect的學(xué)步期幼兒自然步態(tài)提取
        基于類獨(dú)立核稀疏表示的魯棒人臉識別
        馬面部與人臉相似度驚人
        便宜假肢能模仿正常步態(tài)
        亚洲精品无播放器在线播放| 国产成人av三级三级三级在线| 国产成人自拍视频播放| 粗大的内捧猛烈进出少妇 | 欧美性猛交xxxx乱大交蜜桃| 亚洲色婷婷综合开心网| 精品人妻一区二区三区不卡毛片| 精品国产品香蕉在线| 大肉大捧一进一出好爽视色大师| 国产精品九九九无码喷水| 国产精品亚洲精品日韩动图| 一区二区三区高清在线观看视频| 日韩人妻无码精品久久| 99久久综合精品五月天| 国产毛片三区二区一区| 激情精品一区二区三区| 桃花影院理论片在线| 亚洲毛片αv无线播放一区| 国产在线精彩自拍视频| 亚洲中文字幕人妻av在线| 国产精品igao视频网 | 91成人自拍在线观看| 成人午夜福利视频镇东影视| 亚洲国产夜色在线观看| 亚洲精品国产第一区三区| 亚洲av综合色区无码一区| 亚洲av无码一区二区三区四区 | 日韩精品在线观看在线| 亚洲av永久无码精品放毛片| 亚洲免费视频播放| 亚洲男女视频一区二区| 26uuu在线亚洲欧美| 中国xxx农村性视频| 超碰观看| 亚洲最新精品一区二区| 激情综合色综合久久综合| 97人妻碰免费视频| 日本在线一区二区三区视频| 中文字字幕人妻中文| 亚洲男同志gay 片可播放| 亚洲一区二区不卡日韩|