亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度圖像和骨骼信息的人體動(dòng)作識(shí)別方法

        2021-06-24 01:08:16錢毅敏
        關(guān)鍵詞:識(shí)別率骨骼向量

        張 良,錢毅敏

        (中國(guó)民航大學(xué)電子信息與自動(dòng)化學(xué)院,天津 300300)

        隨著計(jì)算機(jī)視覺(jué)技術(shù)的飛速發(fā)展,研究熱點(diǎn)逐漸轉(zhuǎn)向人體行為識(shí)別領(lǐng)域。目前,相關(guān)行為識(shí)別技術(shù)已經(jīng)廣泛應(yīng)用于監(jiān)控、視頻游戲、人機(jī)交互等領(lǐng)域。早期研究主要利用傳統(tǒng)光學(xué)信息、人體關(guān)鍵姿態(tài)[1]、剪影[2]、時(shí)空特征[3]等方法,而準(zhǔn)確識(shí)別所有動(dòng)作仍充滿挑戰(zhàn)。新一代的深度相機(jī)(如微軟公司的Kinect 產(chǎn)品)不僅能實(shí)時(shí)提取彩色圖像,還可提取深度圖像和骨骼信息。如何更好地融合RGB-D 相機(jī)獲取的多模信息,成為行為識(shí)別領(lǐng)域新的突破點(diǎn)。

        在深度圖像研究方法中:Yang 等[4]將深度圖像序列投影得到深度運(yùn)動(dòng)圖(DMM,depth motion map),對(duì)其提取梯度直方圖;Rahmani 等[5]采用方向主成分直方圖(HOPC,histogram of oriented principal components)對(duì)動(dòng)作點(diǎn)云數(shù)據(jù)進(jìn)行描述,從局部幾何形狀來(lái)刻畫(huà)動(dòng)作,忽略各點(diǎn)間的全局約束,對(duì)局部自遮擋也具有較好的魯棒性;Liu 等[6]將深度圖像生成運(yùn)動(dòng)歷史點(diǎn)云(MHPC,motion history point cloud),保留動(dòng)作空間與時(shí)序信息,以此實(shí)現(xiàn)動(dòng)作的全局表示,但對(duì)動(dòng)作類內(nèi)差異容忍性不足?;诠趋佬畔⒆R(shí)別的方法:Xia 等[7]提出通過(guò)關(guān)節(jié)點(diǎn)位置直方圖(HOJ3D,histogram of 3D joint location)對(duì)人體動(dòng)作進(jìn)行表示,采用離散隱馬爾科夫模型進(jìn)行分類;Carbonera 等[8]提出基于分組的骨骼點(diǎn)幀間相對(duì)位移特征、幀內(nèi)相對(duì)距離特征的方法,并獲得較高的識(shí)別率。在融合多種數(shù)據(jù)進(jìn)行識(shí)別方面,毛峽等[9]提出一種基于RGB 和骨骼信息的多模態(tài)人體行為識(shí)別框架。

        目前,基于深度圖像和骨骼信息進(jìn)行人體動(dòng)作識(shí)別的研究較少。針對(duì)已有方法的不足,提出使用運(yùn)動(dòng)歷史點(diǎn)云的全局特征融合人體動(dòng)作的骨骼特征,構(gòu)建一種基于深度圖像和骨骼信息的人體動(dòng)作識(shí)別方法。首先,使用深度圖像序列生成運(yùn)動(dòng)歷史點(diǎn)云,用全局特征替代局部特征,同時(shí)從深度相機(jī)得到的骨骼序列幀分組提取特征并聚類,然后使用局部特征聚合描述符(VLAD,vector of locally aggregated descriptors)算法[10]生成骨骼點(diǎn)特征。針對(duì)人體動(dòng)作的兩組特征,使用支持向量機(jī)(SVM)進(jìn)行特征融合,在相似動(dòng)作上的識(shí)別準(zhǔn)確性得到有效提高,且減小了噪聲數(shù)據(jù)對(duì)分類結(jié)果的影響,其動(dòng)作識(shí)別框架如圖1所示。

        圖1 基于深度圖像和骨骼信息的動(dòng)作識(shí)別框架Fig.1 Action recognition framework based on depth image and skeleton information

        1 深度圖像特征提取

        傳統(tǒng)方法對(duì)深度圖像提取特征一般是將深度圖像序列投影到不同平面,并在不同平面對(duì)圖像提取特征。而文中對(duì)深度圖像的處理是先將深度圖像序列生成運(yùn)動(dòng)歷史點(diǎn)云數(shù)據(jù)并提取全局特征。圖2 為UTKinect-Action3D 數(shù)據(jù)集[11]中“揮手”動(dòng)作的示意圖。

        圖2 RGB 圖像、深度圖像和骨骼信息示意圖Fig.2 RGB image,depth image and skeleton diagram

        1.1 運(yùn)動(dòng)歷史點(diǎn)云生成

        將預(yù)處理后的每幀二維深度圖像坐標(biāo)系轉(zhuǎn)換到三維相機(jī)坐標(biāo)系下(即運(yùn)動(dòng)歷史點(diǎn)云),其坐標(biāo)轉(zhuǎn)換公式如下

        式中:fx,fy為相機(jī)在x,y兩軸上的焦距;cx,cy為相機(jī)的光圈中心;s為深度圖縮放因子;(u,v)為深度圖像的像素坐標(biāo);d為深度圖像的距離信息。

        深度圖像序列生成運(yùn)動(dòng)歷史點(diǎn)云實(shí)現(xiàn)1 個(gè)動(dòng)作樣本的深度圖序列,壓縮為1 個(gè)包含空間與時(shí)間信息的點(diǎn)的集合。運(yùn)動(dòng)歷史點(diǎn)云可表示為M={P1,P2,…,Pn},點(diǎn)云中任一點(diǎn)的坐標(biāo)定義為Pj(x,y,z,h),j =1,2,…,n,其中:x、y、z為三維相機(jī)坐標(biāo)系下點(diǎn)的坐標(biāo),用來(lái)記錄動(dòng)作發(fā)生的位置,h為深度圖像的幀號(hào),用來(lái)記錄該點(diǎn)發(fā)生的時(shí)間。揮手運(yùn)動(dòng)歷史點(diǎn)云的生成流程如圖3所示。

        圖3 MHPC 生成流程Fig.3 MHPC generation flow

        1.2 運(yùn)動(dòng)歷史點(diǎn)云預(yù)處理

        運(yùn)動(dòng)歷史點(diǎn)云是將每幀深度圖像生成的點(diǎn)云合并起來(lái),數(shù)據(jù)量十分龐大,直接提取特征會(huì)消耗大量計(jì)算資源,因此,采用濾波器[12]對(duì)運(yùn)動(dòng)歷史點(diǎn)云進(jìn)行下采樣,降低運(yùn)動(dòng)歷史點(diǎn)云的密度,加快運(yùn)算速度,既保持原有運(yùn)動(dòng)歷史點(diǎn)云的形狀特征和周圍點(diǎn)的信息特征而不影響其動(dòng)作特征。

        1.3 運(yùn)動(dòng)歷史點(diǎn)云的VFH 特征

        視點(diǎn)特征直方圖(VFH,view feature histogram)[13]特征是對(duì)原有Liu 等[6]提出的局部特征方法的改進(jìn),通過(guò)直接提取運(yùn)動(dòng)歷史點(diǎn)云的全局特征,使特征對(duì)行為識(shí)別具有更好的動(dòng)作類內(nèi)差異容忍度。設(shè)置不同的采樣半徑r進(jìn)行提取,以此得到最佳的全局特征。圖4 顯示了得到的VFH 動(dòng)作特征,VFH 具體實(shí)現(xiàn)步驟如下。

        圖4 VFH 動(dòng)作特征Fig.4 Histogram of VFH action feature

        1)在其中一點(diǎn)上定義一個(gè)固定的局部坐標(biāo)系,如圖5所示,其中:u、v、w 為定義的3 個(gè)坐標(biāo)軸方向向量,Pi和Pj為運(yùn)動(dòng)歷史點(diǎn)云上的兩點(diǎn);ni和nj為Pi和Pj對(duì)應(yīng)的法向量。

        圖5 一個(gè)固定的局部坐標(biāo)系Fig.5 One fixed local coordinate system

        2)計(jì)算運(yùn)動(dòng)歷史點(diǎn)云中兩點(diǎn)之間的3 個(gè)幾何屬性不變量如下

        式中:α 為向量v 和向量nj的點(diǎn)積,用來(lái)表示統(tǒng)計(jì)視點(diǎn)方向與每個(gè)法線之間的幾何屬性;φ 為向量u 與由Pi指向Pj的向量的點(diǎn)積,用來(lái)表示中心點(diǎn)的視點(diǎn)方向和每個(gè)點(diǎn)對(duì)應(yīng)法線間的幾何屬性;θ 為向量w·nj與u·nj之間的角度。

        3)通過(guò)這3 個(gè)幾何屬性不變量描述整個(gè)運(yùn)動(dòng)歷史點(diǎn)云的VFH 動(dòng)作特征。

        2 骨骼特征提取

        深度相機(jī)可實(shí)時(shí)提取20 個(gè)人體骨骼點(diǎn)坐標(biāo),分別為頭、肩中心、脊柱、髖中心、右肩、右肘、右腕、右手、右髖、右膝、右踝、右腳、左肩、左肘、左腕、左手、左髖、左膝、左踝、左腳,具體骨骼點(diǎn)分布[14]如圖6所示。

        圖6 人體骨骼點(diǎn)分布圖Fig.6 Distribution of human skeleton point

        2.1 坐標(biāo)轉(zhuǎn)換

        為使骨骼序列對(duì)視點(diǎn)不變,需要將Camera 坐標(biāo)轉(zhuǎn)換成真實(shí)世界場(chǎng)景坐標(biāo)。用表示骨骼點(diǎn)i第t動(dòng)作幀在Camera 坐標(biāo)系下的三維坐標(biāo)系,表示骨骼點(diǎn)i第t動(dòng)作幀在真實(shí)世界場(chǎng)景坐標(biāo)系。Camera 坐標(biāo)系到真實(shí)世界場(chǎng)景坐標(biāo)系的轉(zhuǎn)換方式如下

        式中

        θx,θy,θz表示攝像頭在x、y、z軸的偏轉(zhuǎn)角度;Δx,Δy,Δz表示真實(shí)世界場(chǎng)景坐標(biāo)系與Camera 坐標(biāo)系原點(diǎn)的偏移量。

        2.2 骨骼分組及特征提取

        將骨骼點(diǎn)按表1 和表2 進(jìn)行分組[15]。

        表1 幀間相對(duì)位移特征分組Tab.1 Feature grouping of inter-frame relative displacement

        表2 幀內(nèi)相對(duì)距離特征分組Tab.2 Feature grouping of inner-frame relative distance

        表1 中,特征f1、f2、f3分別由5 個(gè)骨骼點(diǎn)的坐標(biāo)位移差值作為相對(duì)位移特征,代表特定身體部位的運(yùn)動(dòng)。根據(jù)式(4)提取幀間骨骼點(diǎn)相對(duì)位移特征,即

        式中:s為動(dòng)作幀序號(hào);τ 為整個(gè)動(dòng)作最后的動(dòng)作幀數(shù);表示骨骼點(diǎn)i第s動(dòng)作幀的坐標(biāo);ΔT為第s+1動(dòng)作幀和第s-1 動(dòng)作幀之間的時(shí)間間隔。

        表2 中,特征f4、f5、f6、f7分別由連接兩骨骼點(diǎn)間的坐標(biāo)位置差值構(gòu)成,描述了人的身體位置距離的相關(guān)信息。根據(jù)式(5)提取幀內(nèi)兩骨骼點(diǎn)的相對(duì)距離特征,即

        2.3 骨骼特征向量生成

        對(duì)于每個(gè)骨骼動(dòng)作序列幀,通過(guò)局部特征提取方法來(lái)提取每組的局部特征,局部特征集合由fn,s表示,n={1,2,…,7},s代表第s動(dòng)作幀。該階段的目標(biāo)是構(gòu)建固定大小的特征,骨骼特征構(gòu)建步驟如下。

        1)將得到的每組骨骼點(diǎn)特征集合進(jìn)行C組k均值(k-means)運(yùn)算,將每組特征劃分為k類,用{μn,c,m}表示得到的C組k個(gè)中心,其中:m= 1,2,…,k;c=1,2,…,C。

        2)將每個(gè)局部特征量化到最近鄰的字典,即

        3)計(jì)算每個(gè)局部特征fn,s與最近鄰字典的殘差,用vn,c,m表示動(dòng)作中屬于最近鄰字典中的所有局部特征與μn,c,m殘差的累計(jì)和,其計(jì)算式表示如下

        4)將所有字典上的殘差向量進(jìn)行串聯(lián),將串聯(lián)得到VLAD 特征描述符向量作為骨骼特征向量表示如下

        3 深度圖像特征與骨骼特征的融合

        將兩個(gè)通道得到點(diǎn)云特征和骨骼特征分別送入兩個(gè)SVM 分類器中訓(xùn)練,通過(guò)參數(shù)尋優(yōu)方式得到各自最優(yōu)的分類器模型。采用SVM 進(jìn)行訓(xùn)練和分類,易受噪聲影響[16],因此,使用SVM 輸出每個(gè)動(dòng)作類別的概率,通過(guò)兩組通道的概率融合解決噪聲對(duì)分類結(jié)果的影響,提高人體動(dòng)作識(shí)別的準(zhǔn)確率。

        圖7 為SVM 試圖在兩類中找出1 個(gè)平面分隔,即

        圖7 SVM 二分類示意圖Fig.7 SVM bi-classification diagram

        為了SVM 能夠輸出概率,使用擠壓函數(shù)將f(x)映射到[0,1],得到每種標(biāo)簽的輸出概率如下

        測(cè)試時(shí)SVM 分類器輸出的是每個(gè)動(dòng)作類別標(biāo)簽的準(zhǔn)確率并將其歸一化,其概率向量yq=[y1…yk…yC],其中:C為人體動(dòng)作樣本的動(dòng)作類別總數(shù);q為通道序號(hào),q∈{1,2},yk∈[0,1]。對(duì)兩通道得到的各自概率向量進(jìn)行加權(quán)相加,得到最后總的概率向量,然后取概率向量中最大值所在的類別作為動(dòng)作分類識(shí)別的類別,從而實(shí)現(xiàn)動(dòng)作識(shí)別,其識(shí)別式表示為

        式中:μq為權(quán)值;yq為SVM 輸出的概率向量;Q代表通道數(shù);y*為加權(quán)相加后準(zhǔn)確率最大值所在的類別。

        該特征融合方法具有以下優(yōu)勢(shì)。

        1)從運(yùn)動(dòng)歷史點(diǎn)云所提取的點(diǎn)云特征為形狀特征,從骨骼信息所提取出的特征為骨骼距離特征和位移特征。兩通道的特征相互補(bǔ)充,使得特征信息更為豐富。

        2)使用深度圖像序列生成一個(gè)整體,以此實(shí)現(xiàn)動(dòng)作的全局表示,解決了遮擋和視角變化帶來(lái)的影響,而骨骼信息通道使用骨骼坐標(biāo)轉(zhuǎn)換來(lái)解決視角與遮擋影響。兩算法相互補(bǔ)充,使對(duì)于視角變化和遮擋帶來(lái)的影響大大減小。

        3)動(dòng)作識(shí)別采用SVM 分類器的概率融合算法實(shí)現(xiàn),與其他分類器相比,減小了噪聲因素對(duì)分類結(jié)果的影響,進(jìn)一步優(yōu)化分類效果。

        4 實(shí)驗(yàn)分析

        實(shí)驗(yàn)環(huán)境:聯(lián)想M4390,CPU 3.2 GHz,內(nèi)存6 G。Visual Studio 2012,Matlab R2016b。在MSR-Action3D和UTKinect-Action3D 數(shù)據(jù)集[17]上進(jìn)行實(shí)驗(yàn)。MSR Action3D 數(shù)據(jù)集一共有567 個(gè)動(dòng)作樣本,20 個(gè)動(dòng)作類別,每個(gè)動(dòng)作類別由10 個(gè)演員執(zhí)行2~3 次。UTKinect-Action3D 數(shù)據(jù)集是得克薩斯州大學(xué)奧斯汀分校建立的數(shù)據(jù)集,由10 個(gè)人執(zhí)行10 個(gè)動(dòng)作:步行、坐下、站立、拿起、攜帶、投擲、推動(dòng)、拉、揮手、拍手。

        4.1 實(shí)驗(yàn)參數(shù)

        本研究?jī)H使用MSR-Action3D 數(shù)據(jù)集進(jìn)行參數(shù)優(yōu)化,在UTKinect-Action3D 數(shù)據(jù)集上使用相同的參數(shù)設(shè)置。使用不同的參數(shù)設(shè)置進(jìn)行多次實(shí)驗(yàn),選取實(shí)驗(yàn)動(dòng)作識(shí)別率最高的參數(shù)組合作為最終實(shí)驗(yàn)參數(shù)。設(shè)計(jì)的實(shí)驗(yàn)參數(shù)有采樣半徑r和加權(quán)系數(shù)μq。

        對(duì)采樣后的運(yùn)動(dòng)歷史點(diǎn)云提取特征時(shí)需要設(shè)置不同的采樣半徑,不同的采樣半徑r對(duì)識(shí)別率結(jié)果有直接影響,如圖8所示。隨著r的增加,識(shí)別率整體呈現(xiàn)上升趨勢(shì),當(dāng)采樣半徑達(dá)到0.03 時(shí),識(shí)別率達(dá)到最高值,之后隨半徑增加而減小,由此可知,r=0.03 時(shí)算法識(shí)別率最高。

        圖8 不同采樣半徑下的識(shí)別率Fig.8 Recognition rate under different sampling radii

        將得到的點(diǎn)云特征和骨骼特征進(jìn)行訓(xùn)練,得到兩個(gè)分類器,對(duì)分類器分配不同權(quán)值,步長(zhǎng)設(shè)為0.1,依次進(jìn)行動(dòng)作識(shí)別驗(yàn)證。通過(guò)表3 可知,對(duì)5 組不同權(quán)重的數(shù)據(jù)進(jìn)行分析,當(dāng)μ1=0.2,μ2=0.8 時(shí),動(dòng)作識(shí)別率達(dá)到最高,比μ1=0.5,μ2=0.5 下的識(shí)別率高4.29%。

        表3 不同權(quán)重下的識(shí)別率Tab.3 Recognition rate under different weights

        4.2 MSR-Action3D 數(shù)據(jù)集

        MSR-Action3D 數(shù)據(jù)集有兩種實(shí)驗(yàn)設(shè)置。實(shí)驗(yàn)設(shè)置1 分為3 個(gè)子集(AS1、AS2、AS3),每個(gè)子集中包含8 個(gè)類別,如表4所示,每個(gè)動(dòng)作子集有3 種測(cè)試方式:測(cè)試方法1 將每個(gè)子集的1/3 樣本用來(lái)訓(xùn)練,其他的2/3 樣本用來(lái)測(cè)試;測(cè)試方法2 將每個(gè)子集2/3 樣本用來(lái)訓(xùn)練,其他的1/3 樣本用來(lái)測(cè)試;測(cè)試方法3 是選用不同人之間的動(dòng)作進(jìn)行訓(xùn)練測(cè)試。實(shí)驗(yàn)設(shè)置2 則是將測(cè)試方法3 適用于整個(gè)動(dòng)作集。

        表4 MSR-Action3D 數(shù)據(jù)集的動(dòng)作子集分類表Tab.4 Action subset classification table of MSR-Action3D data set

        實(shí)驗(yàn)設(shè)置1 下的各項(xiàng)子集的識(shí)別率如表5所示。通過(guò)與當(dāng)前主流方法[4,7,18-19]進(jìn)行比較,按3 種不同測(cè)試方法在3 個(gè)動(dòng)作子集上進(jìn)行測(cè)試,特征融合方法的識(shí)別率在多數(shù)情況下優(yōu)于表5 中所提及的方法,每種測(cè)試方法識(shí)別率均值高于其他方法,總的平均識(shí)別率達(dá)96.8%。

        表5 不同方法在實(shí)驗(yàn)設(shè)置1 時(shí)的識(shí)別率Tab.5 Recognition rate of different methods under experiment setting 1 %

        對(duì)單一采用點(diǎn)云特征、骨骼特征與融合后的3 種情況下的平均識(shí)別率進(jìn)行比較,如圖9所示。特征融合方法比單一特征在AS1、AS2、AS3 這3 組下的識(shí)別率分別至少提高了2.9%、2.1%和0.5%,表明通過(guò)加權(quán)概率分類器進(jìn)行特征融合方法的有效性。

        圖9 單一特征及融合后的識(shí)別率Fig.9 Recognition rate of different features before and after fusion

        表6 為實(shí)驗(yàn)設(shè)置2 下的實(shí)驗(yàn)結(jié)果。實(shí)驗(yàn)設(shè)置2 包含更多的樣本及更多動(dòng)作,且有不同人之間進(jìn)行訓(xùn)練測(cè)試,由于特征融合方法使用深度圖像和骨骼信息,識(shí)別率達(dá)到了95.60%,優(yōu)于其他方法[4-5,20-21]。

        表6 不同方法在實(shí)驗(yàn)設(shè)置2 時(shí)的識(shí)別率Tab.6 Comparison of different methods under experiment setting 2

        圖10 給出了MSR-Action3D 數(shù)據(jù)集在實(shí)驗(yàn)設(shè)置2 下的混淆矩陣,矩陣中的數(shù)字代表動(dòng)作概率。從圖10 可以看出,提出的特征融合方法對(duì)大多數(shù)動(dòng)作達(dá)到了100%的識(shí)別率,只有在少數(shù)動(dòng)作識(shí)別中發(fā)生錯(cuò)誤,如手抓、沖拳、高拋等。與Liu[6]提出方法相比,此種方法對(duì)類內(nèi)差異的容忍度更高。

        圖10 MSR-Action3D 的混淆矩陣Fig.10 Confusion matrix of MSR-Action3D

        4.3 UTKinect-Action3D 數(shù)據(jù)集

        UTKinect-Action3D 數(shù)據(jù)集的實(shí)驗(yàn)設(shè)置:訓(xùn)練數(shù)據(jù)為其他9 個(gè)人的動(dòng)作樣本,測(cè)試數(shù)據(jù)為某1 個(gè)錄制人的動(dòng)作樣本,測(cè)試錄制人體動(dòng)作樣本的準(zhǔn)確性。將所有人的動(dòng)作樣本既充當(dāng)訓(xùn)練數(shù)據(jù)又充當(dāng)測(cè)試數(shù)據(jù),最后得到平均的動(dòng)作識(shí)別率。從表7 可看出,特征融合方法的識(shí)別率最高,達(dá)到98.00%,明顯高于其他方法[7,22-23]。

        表7 不同方法在UTKinect-Action3D 數(shù)據(jù)集下的識(shí)別率Tab.7 Recognition results of various different methods with UTKinect-Action3D data set %

        5 結(jié)語(yǔ)

        利用深度圖像序列生成運(yùn)動(dòng)歷史點(diǎn)云并提取全局特征,簡(jiǎn)化了特征提取流程,同時(shí)融合骨骼特征,減少了噪聲對(duì)單個(gè)模型的影響,獲得更好的類內(nèi)差異容忍度。特征融合方法在MSR-Action3D 和UTKinect-Action3D 兩個(gè)數(shù)據(jù)集上的識(shí)別率均比文中涉及的其他方法有較為明顯的提高,證明了該方法的有效性。下一步的研究方向是提取更多更加有效的點(diǎn)云特征,嘗試識(shí)別多種復(fù)雜環(huán)境下的動(dòng)作。

        猜你喜歡
        識(shí)別率骨骼向量
        向量的分解
        做家務(wù)的女性骨骼更強(qiáng)壯
        中老年保健(2021年5期)2021-12-02 15:48:21
        三減三健全民行動(dòng)——健康骨骼
        中老年保健(2021年5期)2021-08-24 07:06:28
        聚焦“向量與三角”創(chuàng)新題
        基于類圖像處理與向量化的大數(shù)據(jù)腳本攻擊智能檢測(cè)
        基于真耳分析的助聽(tīng)器配戴者言語(yǔ)可懂度指數(shù)與言語(yǔ)識(shí)別率的關(guān)系
        提升高速公路MTC二次抓拍車牌識(shí)別率方案研究
        骨骼和肌肉
        小布老虎(2017年1期)2017-07-18 10:57:27
        高速公路機(jī)電日常維護(hù)中車牌識(shí)別率分析系統(tǒng)的應(yīng)用
        向量垂直在解析幾何中的應(yīng)用
        日韩AV无码乱伦丝袜一区| 日本又色又爽又黄又免费网站| 日韩有码中文字幕在线视频| 蜜桃av在线播放视频| 国产精品高湖呻呤久久av| 亚洲中文字幕一二区精品自拍 | 亚洲人妻av在线播放| 亚洲精品偷拍自综合网| 日韩在线精品视频一区| 免费人成在线观看网站| 无码av免费一区二区三区| 欧洲熟妇色xxxx欧美老妇多毛网站| 国产va免费精品观看| 亚洲国产精品国自产电影| 久久精品有码中文字幕1| 久久本道久久综合一人| 美女视频一区二区三区在线| 蜜桃视频在线看一区二区三区 | 国产综合精品久久99之一| 亚洲人成色7777在线观看不卡| 人妻夜夜爽天天爽一区| 久久人人做人人妻人人玩精 | a级特黄的片子| 无码一区二区波多野结衣播放搜索| 香港三级欧美国产精品| 亚洲美女av一区二区| 日本不卡一区二区三区久久精品| 熟妇人妻无乱码中文字幕真矢织江| 色欲综合一区二区三区| 欧美裸体xxxx极品少妇| 中文字幕Aⅴ人妻一区二区苍井空| 亚洲一级av大片在线观看| 国产熟女露脸大叫高潮| 亚洲中文字幕人妻av在线| 精品欧洲av无码一区二区| 236宅宅理论片免费| 亚洲a∨好看av高清在线观看| 国产一区二区精品久久呦| 日韩精品免费av一区二区三区| 18禁免费无码无遮挡不卡网站| 色哟哟精品视频在线观看 |