亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        結(jié)合CNN和WiFi指紋庫的室內(nèi)定位算法①

        2020-07-25 01:47:04曹建榮武欣瑩呂俊杰楊紅娟
        關(guān)鍵詞:模型

        曹建榮,張 旭,武欣瑩,呂俊杰,楊紅娟

        1(山東建筑大學(xué) 信息與電氣工程學(xué)院,濟(jì)南 250101)

        2(山東省智能建筑技術(shù)重點(diǎn)實驗室,濟(jì)南 250101)

        1 引言

        基于WiFi的指紋庫室內(nèi)定位技術(shù)是室內(nèi)定位領(lǐng)域中的重點(diǎn)研究內(nèi)容之一.指紋庫室內(nèi)定位技術(shù)主要包含確定性算法、概率型算法、人工神經(jīng)網(wǎng)絡(luò)3個主要研究方向.傳統(tǒng)的基于指紋庫的室內(nèi)定位方法主要是指:離線階段先使用濾波方法(高斯濾波等)再使用均值求出指紋庫;在線階段使用確定性算法(K近鄰等)或概率型算法(貝葉斯概率等)進(jìn)行指紋匹配.隨著科技的不斷發(fā)展,各行各業(yè)對室內(nèi)定位精度的要求越來越高[1].傳統(tǒng)的室內(nèi)定位技術(shù)難以突破定位精度的瓶頸,而深度學(xué)習(xí)在圖像和語音處理等方面的成熟應(yīng)用使一些學(xué)者把深度學(xué)習(xí)引入基于WiFi的室內(nèi)定位領(lǐng)域中,并做了較多的研究[2,3].Nowicki M等人利用深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Network,DNN)有效降低本地化系統(tǒng)成本,證明了堆疊自動編碼器可以有效地減少特征空間及實現(xiàn)穩(wěn)定和精確的分類[4].Yu 等人利用深度卷積神經(jīng)網(wǎng)絡(luò)(Deep Convolutional Neural Network,DCNN)和頻譜圖自動學(xué)習(xí)無線信道指紋特征,從圖像層次表明譜圖DCNN模型能夠用于指紋識別,其無線信道分類準(zhǔn)確率為96.46%[5].Zhang等人首先采用4層深度神經(jīng)網(wǎng)絡(luò),使用堆疊去噪自動編碼器(Stacked Denoising Autoencoder,SDA)學(xué)習(xí)可靠特征,然后用隱馬爾可夫模型(Hidden Markov Model,HMM)的精細(xì)定位器來平滑基于DNN的粗定位器的初始定位估計[6].眾多研究成果表明,基于深度學(xué)習(xí)的室內(nèi)定位算法在定位精度上有顯著提高.

        許多研究者都是通過使用復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu)和長時間調(diào)節(jié)網(wǎng)絡(luò)參數(shù)尋求最優(yōu)匹配結(jié)果.這無疑增加了前期離線階段數(shù)據(jù)采集、訓(xùn)練調(diào)整的難度、在線階段匹配的時間,同時對硬件也提出了更高要求[7].本文提出了一種基于較少數(shù)據(jù),簡單計算的匹配算法,即用CNN算法完成初步定位后,再結(jié)合傳統(tǒng)指紋庫進(jìn)一步確定精度的算法.該方法整體使用的數(shù)據(jù)量和計算復(fù)雜度相對較小,時效性較好,且定位精度進(jìn)一步提高.

        2 算法的基本原理

        2.1 算法基本流程

        本文提出的算法包括離線指紋庫建立和在線定位計算兩個階段.離線階段時,首先從服務(wù)器的數(shù)據(jù)庫中獲取AP 接收到的全部信息,并預(yù)處理數(shù)據(jù);然后基于預(yù)處理的RSSI數(shù)據(jù)訓(xùn)練CNN網(wǎng)絡(luò)模型,得到符合定位精度的CNN定位模型;最后計算已處理的RSSI數(shù)據(jù),完成指紋庫的建立.在線階段時,首先通過CNN定位模型初步預(yù)測待測點(diǎn)位置,得到最接近某個參考點(diǎn)的位置信息.然后結(jié)合傳統(tǒng)指紋路徑庫中的數(shù)據(jù),經(jīng)過距離比例計算進(jìn)一步縮小預(yù)測范圍,最終得到較高精度的待測點(diǎn)坐標(biāo).

        2.2 原始數(shù)據(jù)預(yù)處理

        2.2.1 數(shù)據(jù)獲取

        為保證獲取的數(shù)據(jù)更接近實際情況,本文的數(shù)據(jù)直接從定位系統(tǒng)中實時存儲定位信息的數(shù)據(jù)庫中獲取.離線階段,首先獲取未處理的UDP報文,完成UDP報文的校驗、長度驗證和舍棄不完整數(shù)據(jù);其次拆分標(biāo)準(zhǔn)UDP報文的關(guān)鍵字.關(guān)鍵字包含4個,分別為上傳此UDP報文的AP 物理地址、時間戳、發(fā)送UDP報文內(nèi)容的終端MAC地址及當(dāng)前時刻的RSSI值;最后存入數(shù)據(jù)庫中以備后用.

        2.2.2 CNN模型數(shù)據(jù)處理

        假設(shè)在被測區(qū)域中存在U個參考點(diǎn)和V個AP,則V個AP在第j個參考點(diǎn)處構(gòu)成的一個RSSI值向量rj可表示為:

        利用已處理的訓(xùn)練樣本數(shù)據(jù),把在每一個參考點(diǎn)處采集的M個RSSI值向量值整理為如下形式:

        其中,j取值為[1,U],且j為整數(shù).r(M,V)表示第V個AP在第j個參考點(diǎn)采集得到的第M個RSSI值.M值的選擇取決于獲取的數(shù)據(jù)量,且M值為正整數(shù)的平方.V的取值根據(jù)被測區(qū)域中實際使用AP的數(shù)量.

        為簡化后期計算,此處對上述Rj矩陣做形式和內(nèi)容兩方面變換.首先對Rj矩陣中每一個AP 獲取得到的M個數(shù)據(jù)(即Rj矩陣中的每一列)均變形,變成的矩陣形式.如本文選擇V值為3,即變換后會形成3個矩陣,分別為Aj,1、Bj,2、Cj,3√;然后添√加一個新的子矩陣Dj,4,使Rj矩陣大小變?yōu)榫仃嘍j,4統(tǒng)一填寫相同值,這樣既可以保證數(shù)據(jù)形式一致,也不會對數(shù)據(jù)√內(nèi)容造√成影響.新的Rj矩陣大小由原來的3×M變?yōu)榧碦j矩陣的形式為:

        其中,矩陣Aj,1、Bj,2、Cj,3、Dj,4分別為以下形式:

        經(jīng)過上述變換,在某個參考點(diǎn)處來自3個AP的不同RSSI值就可以通過Rj矩陣表示在一張灰度圖片上.在權(quán)衡數(shù)據(jù)量能夠充分體現(xiàn)RSSI值動態(tài)變化和計算耗時兩個問題的基礎(chǔ)上,本文在訓(xùn)練CNN模型時,選擇輸入圖片像素大小有16×16、28×28、36×36三種.

        2.3 卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練

        CNN模型一般由卷積層、池化層、全連接層3部分組成.不同的CNN模型通過對上述3部分的結(jié)構(gòu)組合,參數(shù)修改等途徑解決不同的問題.

        從2.2節(jié)中可知,所用訓(xùn)練和測試的數(shù)據(jù)均為一張張二維的、代表著一個個具體待測點(diǎn)的指紋灰度圖片,這與使用CNN算法進(jìn)行字符識別類似,即本文待測點(diǎn)處的位置編號與字符識別中的數(shù)字類別類似.因此以字符識別的兩層卷積(Convolution)、兩層池化(Pooling)、隨機(jī)失活、兩層全連接層(Fully Connected)的CNN模型為基礎(chǔ),通過改變卷積層數(shù)量、卷積核大小、激活函數(shù)以選擇性能最佳CNN模型參數(shù),進(jìn)一步保證在后續(xù)參與定位時,定位精度的提高.圖1為所使用的CNN模型的基本結(jié)構(gòu).

        以28×28的圖像為例,在第一層卷積層中,首先使用32個5×5的卷積核,2×2的最大池化(步長=1)對圖像操作,形成32個14×14的特征圖;然后再使用64個5×5卷積核,2×2的最大池化(步長=1)操作,形成7×7×64的特征圖;接著變換數(shù)據(jù)格式,生成1×(7×7×64)的數(shù)據(jù)用于分類.使用的ReLU、Elu[8]兩種激活函數(shù)如下所示.

        ReLU激活函數(shù):

        Elu激活函數(shù):

        ReLU激活函數(shù)是分段線性函數(shù),屬于單側(cè)抑制函數(shù).它使神經(jīng)元具有了稀疏激活性;Elu激活函數(shù)存在負(fù)值,可以將激活單元的輸出均值向0 推近,具有批量歸一化的效果,而且減少了計算量.

        為了防止訓(xùn)練過擬合和訓(xùn)練出的模型相對簡潔,在全連接層后添加Dropout層,并取值為0.5.訓(xùn)練模型使用反向傳播算法訓(xùn)練整個網(wǎng)絡(luò).訓(xùn)練CNN模型能夠找到代表參考的類與位置信息的非線性映射關(guān)系[9],即當(dāng)相鄰迭代之間的損失函數(shù)下降到閾值以下或者滿足迭代次數(shù)時,網(wǎng)絡(luò)達(dá)到穩(wěn)定則保存網(wǎng)絡(luò)參數(shù),停止訓(xùn)練;否則,從新的訓(xùn)練樣本集中選擇輸入繼續(xù)訓(xùn)練.通過多次訓(xùn)練后得出效果最好的CNN模型,形成基于卷積神經(jīng)網(wǎng)絡(luò)的指紋庫模型.

        2.4 指紋庫數(shù)據(jù)處理

        指紋庫形成的基礎(chǔ)是能夠測出在定位點(diǎn)處具有代表性的RSSI值.現(xiàn)實中同一參考點(diǎn)處的RSSI值不同的原因主要有兩個,分別為隨時間、空間小范圍內(nèi)動態(tài)變化和信道傳輸錯誤出現(xiàn)偶然異常值.針對這兩個問題,本文提出了基于限幅加權(quán)的濾波方法用于確定傳統(tǒng)指紋庫的指紋.對所有獲取得到的數(shù)據(jù),做以下3步處理:首先使用 2δ準(zhǔn)則對處理的數(shù)據(jù)做限幅處理,去除因偶然因素引起的極端值;然后使用自然斷點(diǎn)分類(Jenks Natural Breaks)[10],得到若干代表性分類和有界終端點(diǎn)集合;最后對這些數(shù)據(jù)加權(quán),得到某AP在此點(diǎn)最具代表性的RSSI值.

        具體步驟如下:

        Step 1.計算高斯分布的標(biāo)準(zhǔn)差,篩選出符合 2δ原則的集合?n;

        其中,i∈[1,n],且i為整數(shù),xi為原始數(shù)據(jù),n、u0、σ分別為原始數(shù)據(jù)的總量、平均值、標(biāo)準(zhǔn)差.

        Step 2.自然斷點(diǎn)分類法與K 均值聚類在一維數(shù)據(jù)聚類分析中意義是一樣的.從數(shù)據(jù)集本身出發(fā),按照類內(nèi)方差最小,類間方差最大的原則,對數(shù)據(jù)迭代和移動聚類.其中最主要的是確定聚類數(shù)量k值和使用方差擬合優(yōu)度(Goodness of Variance Fit,GVF)算法判斷分類效果好壞.

        其中,i∈[1,N],j∈[1,k],i、j∈Z;yi、N、ue、α分別表示集合 ?n中的第i個數(shù)據(jù)、數(shù)據(jù)數(shù)量、平均值、方差;yij、Nj、uj、β表示把集合 ?n分成K類后,第j類中的第i個數(shù)據(jù)、第j類中數(shù)據(jù)的數(shù)量、第j類中數(shù)據(jù)的平均值、k類方差的和.

        GVF 用于判定不同分類的分類效果好壞.在一定范圍內(nèi),GVF值越大,其分類效果越好,分類結(jié)果越具有代表性.一般經(jīng)驗值指出,GVF>0.7 就可以接受分類結(jié)果.

        通過Step 2,把集合 ?n劃分成了k類小集合{Θ1,Θ2,···,Θn},以及(k+1)個各類的邊界點(diǎn)組成的集合{t1,t2,···,tk+1}.

        Step 3.對計算出的{Θ1,Θ2,···,Θn}中的各類數(shù)據(jù)做加權(quán)處理,得到此參考點(diǎn)處某一個AP的最終RSSI值.

        其中,j∈[1,k],j∈Z.R(u,v)為第U考點(diǎn)的第V個AP最終值,wj為第j據(jù)的權(quán)值,函數(shù)F()為概率分布函數(shù),用于計算各類出現(xiàn)的概率.

        通過以上3個步驟計算每一個參考點(diǎn)所有AP值序列,最終得到指紋庫 Ψ.

        為防止因信道重疊導(dǎo)致RSSI值在傳輸過程中出現(xiàn)誤差和保證RSSI值動態(tài)變化的完整性[11],V值一般取為3.

        限幅加權(quán)的濾波方法最終目的是在保留了指紋自身的特征后,最大限度地去除異常數(shù)據(jù).根據(jù)實際處理大量數(shù)據(jù)后,無效數(shù)據(jù)約占中數(shù)據(jù)的5%,使用 2δ準(zhǔn)則,能夠直接去除來自異常情況、小概率出現(xiàn)的無效數(shù)據(jù).通過使用GVF算法和類內(nèi)數(shù)據(jù)加權(quán)計算出最具代表性的指紋點(diǎn)的RSSI值.以上3個步驟,能夠從參與定位的開始就保證了數(shù)據(jù)的有效性.通過使用限幅加權(quán)的濾波方法能夠保證參與整體定位的數(shù)據(jù)的有效性和提高最終的定位精度,能夠有效減少或避免在線定位時結(jié)果畸變.

        2.5 在線定位

        在線階段定位共有4個步驟,主要完成CNN模型的結(jié)果與傳統(tǒng)指紋庫指紋的結(jié)合計算.4個步驟如下:

        Step 1.預(yù)處理獲取的實時數(shù)據(jù),然后使用CNN模型預(yù)測得到位置序號對應(yīng)坐標(biāo)點(diǎn)C(Xc,Yc).3個AP在某一時刻獲取的數(shù)據(jù)經(jīng)過2.4節(jié)中的Step1 初步去除異常數(shù)據(jù)后,得到包含實時數(shù)據(jù)矩陣H.

        Step 2.實時矩陣H中的每一組數(shù)據(jù)均與指紋庫Ψ中的所有指紋做歐式距離計算,以最小歐式距離值對應(yīng)的指紋為此組數(shù)據(jù)的接近指紋,最終形成接近指紋庫 Ψ′.

        Step 3.統(tǒng)計出接近指紋庫 Ψ′同接近指紋數(shù)量排三位的接近指紋,找到對應(yīng)的坐標(biāo)點(diǎn)集合 Γ((Xa,Ya)、(Xb,Yb)、(Xd,Yd)).計算出其各坐標(biāo)點(diǎn)到C(Xc,Yc)的距離la、lb、ld及距離之和ls.

        Step 4.計算出待測點(diǎn)的最終預(yù)測位置(Xf,Yf),計算公式如下:

        3 實驗結(jié)果分析

        3.1 實驗設(shè)置

        根據(jù)被測面積大小和AP的個數(shù)合理劃分參考點(diǎn)的位置.本實驗選取面積為14.4 m×8.6 m的實驗教室,以28個2 m×2 m的網(wǎng)格頂點(diǎn),作為訓(xùn)練CNN模型的指紋庫參考點(diǎn);以112個1 m×1 m的網(wǎng)格頂點(diǎn)作為傳統(tǒng)指紋庫參考點(diǎn).被測區(qū)域示意圖如圖2(小圓點(diǎn)、大圓點(diǎn)分別為1 m×1 m和2 m×2 m的網(wǎng)格參考點(diǎn))所示.在選取參考點(diǎn)時,CNN模型指紋庫的參考點(diǎn)位置和傳統(tǒng)指紋庫的參考點(diǎn)位置應(yīng)完全不重合.

        圖2 被測區(qū)域示意圖

        移動終端信號的接收能力、所在高度、移動終端和AP 朝向[12]等因素均會引起RSSI值得變化.因此在3個AP 收集數(shù)據(jù)時,使用5種不同型號的移動終端,分別距地面垂直距離為1 m、1.5 m、2 m的高度以及4個朝向發(fā)射數(shù)據(jù),盡可能保證每一個參考點(diǎn)數(shù)據(jù)的完整性.

        本文設(shè)定CNN模型指紋庫參考點(diǎn)的個數(shù)為28,所以用于訓(xùn)練得數(shù)據(jù)集也應(yīng)當(dāng)包括28類.每一個參考點(diǎn)訓(xùn)練集和測試集圖片數(shù)量分別為28×300、28×100 張,且訓(xùn)練集和測試集的數(shù)據(jù)均來源于對28個參考點(diǎn)的均勻采樣.每張圖片中包含3個AP在此參考點(diǎn)處采集的共3×14×14 (以28×28的圖片輸入為例)個RSSI值,使用Python 等軟件搭建仿真實驗平臺.

        3.2 實驗結(jié)果及分析

        通過1.2.2節(jié)的數(shù)據(jù)預(yù)處理過程,可以獲得CNN模型訓(xùn)練使用16×16、28×28、36×36三種格式的圖片.這3種輸入圖片的本質(zhì)區(qū)別在于包含RSSI值的多少.圖片越大,其相應(yīng)的訓(xùn)練時間就會越長.圖3左側(cè)為用于CNN模型訓(xùn)練的,格式大小28×28的某參考點(diǎn)預(yù)處理的圖片,右側(cè)是其局部放大圖的截圖.圖3左側(cè)圖像數(shù)據(jù)的4部分內(nèi)容分別對應(yīng)3個AP采集的此參考點(diǎn)的RSSI值矩陣和填補(bǔ)的空白值矩陣;圖3右側(cè)圖像為左側(cè)圖中某一個AP采集的數(shù)據(jù)放大圖,可以看出,此AP采集的某參考點(diǎn)的RSSI值是動態(tài)變化的.圖4為指紋庫中的某點(diǎn)數(shù)據(jù)預(yù)處理的過程結(jié)果圖.圖4中五角形點(diǎn)、三角形點(diǎn)、小圓點(diǎn)分別代表3個AP在被第一步限幅之后的數(shù)據(jù),大圓點(diǎn)代表第二步分類后的各類邊界點(diǎn),各AP在此參考點(diǎn)處的最終RSSI值如圖4中各類線所示.

        圖3 某參考點(diǎn)采集數(shù)據(jù)成像圖及局部圖

        圖4 某參考點(diǎn)指紋庫數(shù)據(jù)處理過程圖

        根據(jù)CNN模型設(shè)置,采用不同卷積核大小、激活函數(shù)等得到訓(xùn)練的時間、準(zhǔn)確率如表1所示,網(wǎng)絡(luò)損失收斂圖如圖5所示.

        表1 不同參數(shù)性能比較

        通過表1的數(shù)據(jù)可以看出,當(dāng)輸入數(shù)據(jù)包含信息增加,其訓(xùn)練準(zhǔn)確率越高.但是測試集并未隨之增加而顯著提高;對于同一批數(shù)據(jù),準(zhǔn)確率會隨著卷積核模板的規(guī)格增加也呈現(xiàn)上升的趨勢.

        圖5是以28×28的圖像、5×5卷積模板為例,分別在ReLU、Elu 兩個激活函數(shù)下的網(wǎng)絡(luò)損失收斂圖.結(jié)合表1的數(shù)據(jù)可以看出,在相同的數(shù)據(jù)基礎(chǔ)上,Elu 比ReLU少約200輪訓(xùn)練達(dá)到最佳收斂值,而且訓(xùn)練效果相當(dāng).

        圖5 ReLU、Elu激活函數(shù)下網(wǎng)絡(luò)收斂圖

        考慮到在實際應(yīng)用中采集的數(shù)據(jù)數(shù)量和匹配時間周期兩個主要因素,本文最終選取Elu激活函數(shù)、28×28的輸入數(shù)據(jù)、5×5的卷積模板的CNN模型,并在此模型下保存最佳訓(xùn)練參數(shù).

        本文通過實驗得到的定位誤差累計分布圖如圖6所示,其中橫坐標(biāo)表示定位誤差值,縱坐標(biāo)表示定位誤差的累積比例.圖6中CNN1-JK曲線為本文算法結(jié)果;CNN1 曲線為只使用本文算法中的CNN模型得到的結(jié)果;CNN2模曲線是以本文CNN模型為基礎(chǔ),提高了分類精度(112類)的算法結(jié)果;G-K曲線為使用高斯濾波結(jié)合K近鄰算法得到的結(jié)果.

        從圖6中可以看出,從CNN1和CNN2模型的結(jié)果中可以看出,增加3倍分類精度后,定位誤差并沒有成比例顯著降低,但是CNN2模型前期訓(xùn)練的訓(xùn)練耗時卻是CNN1模型的兩倍到三倍;在單純考慮累積誤差時,本文算法結(jié)果與CNN2模型結(jié)果相比,累積誤差約在0.75 m 之后本文算法體現(xiàn)出定位精度優(yōu)勢;本文算法結(jié)果與傳統(tǒng)的G-K算法結(jié)果相比,明顯的提高了定位精度.通過實驗結(jié)果對比發(fā)現(xiàn),本文的算法誤差有近50%在0.5-1 m 內(nèi),約90%均小于1.5 m,相比于同類型單純的卷積神經(jīng)網(wǎng)絡(luò)和傳統(tǒng)算法,準(zhǔn)確度比較高,誤差穩(wěn)定性較好.

        圖6 定位誤差累計分布函數(shù)圖

        圖7為測試點(diǎn)測試的實際結(jié)果.區(qū)域I-IV分別是待測點(diǎn)在大圓點(diǎn)連線中心點(diǎn)、與大小圓點(diǎn)重合、小圓點(diǎn)連線中心點(diǎn)、一般位置的預(yù)測結(jié)果(三角形點(diǎn)為實際位置、五角形點(diǎn)為預(yù)測位置).實驗結(jié)果大部分均在0.5-1.5 m之間,實際結(jié)果與圖6的誤差累積結(jié)果基本相同,精度在可控范圍內(nèi).

        圖7 典型實際定位數(shù)據(jù)結(jié)果示意圖

        本文算法利用CNN模型能夠較好地學(xué)習(xí)RSSI的波動特性的特點(diǎn),首先使用CNN模型預(yù)測粗略位置,再配合傳統(tǒng)指紋庫指紋簡單計算確定最終定位.選擇以字符識別的CNN模型為基礎(chǔ),更符合指紋定位的數(shù)據(jù)特點(diǎn);使用限幅加權(quán)的濾波方法,從數(shù)據(jù)參與定位的源頭上減少了因異常值引起的定位即便問題的出現(xiàn).整體上一方面可以提高定位范圍準(zhǔn)確性,防止發(fā)生RSSI值局部畸變而導(dǎo)致整體定位錯誤;另一方面整體使用數(shù)據(jù)量較少,定位速度較快.

        4 結(jié)論

        將深度學(xué)習(xí)應(yīng)用在室內(nèi)定位領(lǐng)域中提高定位精度有著重要的意義.本文提出一種卷積神經(jīng)網(wǎng)絡(luò)結(jié)合傳統(tǒng)指紋庫的室內(nèi)定位算法.首先利用卷積神經(jīng)網(wǎng)絡(luò)模型,根據(jù)實時輸入信號強(qiáng)度指示RSSI數(shù)據(jù)預(yù)判出待測點(diǎn)的初步位置,再結(jié)合傳統(tǒng)指紋庫中的指紋點(diǎn),確定出精確度更高的最終預(yù)測位置.實驗結(jié)果表明,在時效性達(dá)到要求的前提下,誤差在1 m 以內(nèi)的定位精度約為65%,誤差在1.5 m 以內(nèi)的定位精度約為85%,定位精度高于傳統(tǒng)的基于指紋庫的定位方法,且誤差較為穩(wěn)定.

        猜你喜歡
        模型
        一半模型
        一種去中心化的域名服務(wù)本地化模型
        適用于BDS-3 PPP的隨機(jī)模型
        提煉模型 突破難點(diǎn)
        函數(shù)模型及應(yīng)用
        p150Glued在帕金森病模型中的表達(dá)及分布
        函數(shù)模型及應(yīng)用
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        3D打印中的模型分割與打包
        富婆如狼似虎找黑人老外| 国产在线观看免费视频软件| 女人脱了内裤趴开腿让男躁| 伊人色综合九久久天天蜜桃| 国产av色| 亚洲人成精品久久熟女| 麻豆md0077饥渴少妇| 黄色视频在线免费观看| 午夜国产精品久久久久| 日本三区在线观看视频| 国产av国片精品有毛| 久久久久亚洲精品无码网址| 亚洲精品综合色区二区| 亚洲熟妇一区二区蜜桃在线观看| 免费欧洲毛片a级视频老妇女| 久久久久亚洲av无码观看| 亚洲欧美成人久久综合中文网| 亚洲国产综合精品中久| 在线观看成人无码中文av天堂| 色爱区综合激情五月综合小说| 亚洲女同精品久久女同| 亚洲一区二区三区精品网| 精品人妻午夜中文字幕av四季| 特黄 做受又硬又粗又大视频| 成人综合网亚洲伊人| 精品国产1区2区3区AV| 国产av丝袜熟女丰满一区二区| 樱桃视频影院在线播放| 91精品国产综合成人| 男女男在线精品免费观看| 国产亚洲精品一区二区无| 色播久久人人爽人人爽人人片av| 欧美成人高清手机在线视频| 蜜桃视频羞羞在线观看| 久久香蕉国产线看观看精品yw| 日韩AV无码免费二三区| 亚洲一区二区三区精品久久| 77777_亚洲午夜久久多人| 综合久久给合久久狠狠狠97色| 少妇爽到爆视频网站免费| 蜜桃成熟时在线观看免费视频|