亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        差分隱私保護(hù)下的Adam優(yōu)化算法研究

        2020-06-16 11:13:48李紅嬌
        關(guān)鍵詞:差分梯度噪聲

        李 敏 李紅嬌 陳 杰

        (上海電力學(xué)院計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院 上海 200090)

        0 引 言

        神經(jīng)網(wǎng)絡(luò)在圖像分類、語音分析和生物醫(yī)學(xué)等領(lǐng)域應(yīng)用廣泛并且取得了顯著的成果。但是用于訓(xùn)練神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)集通常可能包含各種各樣的敏感信息,特別是目前云存儲(chǔ)和云計(jì)算的發(fā)展使得大量數(shù)據(jù)存在隱私安全隱患。

        目前,神經(jīng)網(wǎng)絡(luò)的優(yōu)化算法隱私泄露原因與保護(hù)方法主要有:(1) 實(shí)際訓(xùn)練中由于數(shù)據(jù)量不夠大導(dǎo)致模型易受到對(duì)抗攻擊而造成的隱私泄露。Reza等[1]在2015年提出了一種采用協(xié)作式方法來訓(xùn)練模型的數(shù)據(jù)隱私保護(hù)方法,即讓各個(gè)用戶分別在各自的數(shù)據(jù)集上訓(xùn)練深度學(xué)習(xí)模型,并且有的放矢地將各自的模型參數(shù)互相共享。(2) 利用算法的過擬合缺陷,通過梯度下降技術(shù)和置信度來重現(xiàn)模型訓(xùn)練的數(shù)據(jù)導(dǎo)致隱私泄露的模型反演攻擊[2]。Xie等[3]提出了使用同態(tài)加密數(shù)據(jù),即將數(shù)據(jù)加密后再進(jìn)行處理。Phan等[5]提出差分隱私自編碼(ε-differential private autoencoder),利用差分隱私理論來擾亂深度自編碼器的目標(biāo)函數(shù),在數(shù)據(jù)重建過程中添加噪聲從而保護(hù)數(shù)據(jù)。Shokri等[6]提出了基于分布式隨機(jī)梯度下降的隱私保護(hù)方法,該方法假設(shè)各方分別訓(xùn)練各自的模型,不共享數(shù)據(jù),僅在訓(xùn)練期間交換中間參數(shù)并且提供差分隱私保護(hù)。Abadi等[7]結(jié)合差分隱私理論提出了DP-SGD,優(yōu)點(diǎn)是在適當(dāng)?shù)碾[私預(yù)算內(nèi)提供了較好的隱私保護(hù)程度,缺點(diǎn)是噪聲對(duì)模型精度的影響較大。(3) 基于GAN的數(shù)據(jù)重現(xiàn)導(dǎo)致的隱私泄露。Papernot等[8]在2017年對(duì)保護(hù)訓(xùn)練數(shù)據(jù)隱私的機(jī)器學(xué)習(xí)模型進(jìn)行改進(jìn),提出了Teacher-student模型。通過學(xué)習(xí)不同敏感數(shù)據(jù)集來訓(xùn)練不公開的teacher模型,teacher模型再對(duì)公開的未標(biāo)記的非敏感數(shù)據(jù)進(jìn)行預(yù)測,用于訓(xùn)練student模型,student模型不依賴敏感數(shù)據(jù)集,即使攻擊者得到了student模型的參數(shù)也無法獲取敏感數(shù)據(jù)的信息。

        為了在神經(jīng)網(wǎng)絡(luò)優(yōu)化算法的優(yōu)化過程中實(shí)現(xiàn)差分隱私保護(hù),本文提出差分隱私保護(hù)下的Adam優(yōu)化算法(DP-Adam)。結(jié)合差分隱私理論,在神經(jīng)網(wǎng)絡(luò)訓(xùn)練的反向傳播過程使用Adam優(yōu)化算法并且利用指數(shù)加權(quán)平均思想來實(shí)現(xiàn)對(duì)深度學(xué)習(xí)優(yōu)化算法的隱私保護(hù),不但提高了模型精度,而且其隱私保護(hù)效果更好。實(shí)驗(yàn)表明,對(duì)于相同的隱私預(yù)算,隨著訓(xùn)練時(shí)間的增加,DP-Adam訓(xùn)練模型的精度優(yōu)于DP-SGD。除此之外,在達(dá)到同樣模型精度的條件下,DP-Adam所需要的隱私預(yù)算更小,即DP-Adam的隱私保護(hù)程度比DP-SGD更高。

        1 背 景

        1.1 差分隱私

        Dwork[10]于2006年首次提出了差分隱私這一概念。其主要思想是如果某個(gè)數(shù)據(jù)記錄是否存在于數(shù)據(jù)集對(duì)于該數(shù)據(jù)集的查詢或計(jì)算結(jié)果幾乎沒有影響,那么該記錄就得到了差分隱私保護(hù)。因此,當(dāng)該記錄被加到數(shù)據(jù)集中時(shí)所造成的隱私泄露風(fēng)險(xiǎn)在某個(gè)可接受的范圍內(nèi)時(shí),攻擊者就無法獲取該記錄的準(zhǔn)確信息,從而該記錄得到保護(hù)。

        定義1鄰近數(shù)據(jù)集[10]若存在兩個(gè)結(jié)構(gòu)和屬性相同的數(shù)據(jù)集D和D′,有且僅有一條記錄不同,則這兩個(gè)數(shù)據(jù)集稱為鄰近數(shù)據(jù)集。如表1所示,數(shù)據(jù)集d和d′是鄰近數(shù)據(jù)集。

        表1 鄰近數(shù)據(jù)集d和d′

        定義2ε-差分隱私[11]對(duì)于一個(gè)隨機(jī)算法M:D→R,兩個(gè)鄰近數(shù)據(jù)集d,d′∈D,且M的任意輸出S?R,若滿足以下條件:

        Pr[M(d)∈S]≤eε·Pr·[M(d′)∈S]

        (1)

        則算法M滿足ε-差分隱私。式中:Pr表示概率;ε表示隱私保護(hù)預(yù)算,ε的值越小,隱私保護(hù)程度越高[12]。

        從式(1)來看,隱私保護(hù)預(yù)算ε[13]表達(dá)的是算法M在鄰近數(shù)據(jù)集d和d′上得到相同結(jié)果的概率之比的對(duì)數(shù)值,作用是衡量算法M所提供的隱私保護(hù)水平。理論上,ε的取值越小,則提供的隱私保護(hù)水平越高。但是數(shù)據(jù)的可用性也會(huì)隨之降低。因此,ε的取值要平衡數(shù)據(jù)的隱私性和可用性。

        定義3拉普拉斯噪聲機(jī)制[14]拉普拉斯噪聲機(jī)制的定義如下:

        M(d)=f(d)+Lap(μ,b)

        (2)

        式中:位置參數(shù)μ,尺度參數(shù)為b的拉普拉斯分布Lap(μ,b)的概率密度函數(shù)如下:

        (3)

        當(dāng)添加位置參數(shù)μ=0,尺度參數(shù)b=Δf/ε的拉普拉斯噪聲時(shí),式(2)則變?yōu)?

        M(d)=f(d)+Lap(Δf/ε)

        (4)

        式中:敏感度Δf=|f(d)-f(d′)|;M是深度學(xué)習(xí)算法;f:D→R是分布函數(shù);Lap(Δf/ε)是服從尺度參數(shù)為Δf/ε的拉普拉斯分布。由圖1可知,ε越小,則b就越大,引入的噪聲就越大。

        圖1 μ=0的拉普拉斯分布圖

        性質(zhì)2并行組合性[15]設(shè)算法M1,M2,…,Mn,其隱私保護(hù)預(yù)算分別是ε1,ε2,…,εn,則對(duì)于不相交的數(shù)據(jù)集D1,D2,…,Dn,由這些算法組合成的算法M1(D1),M2(D2),…,Mn(Dn)提供(max εi)-差分隱私保護(hù)。

        1.2 神經(jīng)網(wǎng)絡(luò)與Adam算法

        神經(jīng)網(wǎng)絡(luò)是一種模仿動(dòng)物神經(jīng)網(wǎng)絡(luò)行為特征進(jìn)行信息處理的數(shù)學(xué)算法模型,基本組成單元是神經(jīng)元。深度神經(jīng)網(wǎng)絡(luò)是由多層神經(jīng)元組成,其結(jié)構(gòu)如圖2所示,“○”代表神經(jīng)元,每一層神經(jīng)網(wǎng)絡(luò)都由若干個(gè)神經(jīng)元組成,xi代表輸入數(shù)據(jù)的特征向量,y代表輸出結(jié)果的預(yù)測值。隱藏層越多,神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)越復(fù)雜,訓(xùn)練得到的模型性能越好。因此,在訓(xùn)練超大的數(shù)據(jù)集和復(fù)雜度高的模型時(shí),一般都需要構(gòu)建隱藏層數(shù)較多的神經(jīng)網(wǎng)絡(luò),但也要根據(jù)自身的研究目的設(shè)計(jì)合理的隱藏層數(shù)的神經(jīng)網(wǎng)絡(luò),否則會(huì)導(dǎo)致過擬合。

        圖2 深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

        定義4指數(shù)加權(quán)平均 指數(shù)加權(quán)平均是一種近似求平均的方法,應(yīng)用在很多深度學(xué)習(xí)[16]的優(yōu)化算法中,其核心表達(dá)式如下:

        vt=β·vt-1+(1-β)θt

        (5)

        式中:t為迭代次數(shù);vt代表到第t次的平均值;θt表示第t次的值;β表示可調(diào)節(jié)的超參數(shù)。通過指數(shù)加權(quán)平均,各個(gè)數(shù)值的加權(quán)隨著t而指數(shù)遞減,越近的θt的加權(quán)越重,第t-1、t-2、…、1次的加權(quán)分別為β(1-β)、β2(1-β)、…、βt-1(1-β)。

        Adam算法是目前神經(jīng)網(wǎng)絡(luò)優(yōu)化算法中優(yōu)秀的算法之一,是傳統(tǒng)隨機(jī)梯度下降的優(yōu)化算法。隨機(jī)梯度下降在訓(xùn)練時(shí)保持單一學(xué)習(xí)率更新網(wǎng)絡(luò)參數(shù),學(xué)習(xí)率在訓(xùn)練過程中不改變,Adam通過計(jì)算梯度的一階和二階矩估計(jì)使得不同參數(shù)有獨(dú)自的自適應(yīng)學(xué)習(xí)率。Adam算法在實(shí)踐中性能優(yōu)異、相較于其他隨機(jī)優(yōu)化算法有很大優(yōu)勢。其偽代碼如下:

        輸入:學(xué)習(xí)率α(默認(rèn)為0.001);矩估計(jì)的指數(shù)衰減速率β1和β2∈[0,1],建議分別默認(rèn)為0.9和0.999;用于數(shù)值穩(wěn)定的小常數(shù)δ,默認(rèn)為10-8;初始參數(shù)θ。

        輸出:θ

        初始化一階和二階矩變量s=0,r=0

        初始化時(shí)間步t=0

        While沒有達(dá)到停止準(zhǔn)則do

        從訓(xùn)練集中采包含m個(gè)樣本{x(1),x(2),…,x(m)}的小批量,對(duì)應(yīng)目標(biāo)為y(i)。

        t←t+1

        更新有偏一階矩估計(jì):s←β1s+(1-β1)g

        更新有偏二階矩估計(jì):r←β2r+(1-β2)g·g

        應(yīng)用更新:θ←θ+Δθ

        End while

        2 差分隱私下的Adam優(yōu)化算法

        2.1 DP-SGD算法

        為了實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)優(yōu)化算法的隱私保護(hù),Abadi等[7]提出了一種在優(yōu)化過程中實(shí)現(xiàn)差分隱私保護(hù)的方法——基于隨機(jī)梯度下降的差分隱私保護(hù)下的優(yōu)化算法(DP-SGD)。由于從數(shù)據(jù)的訓(xùn)練到模型的生成完全可以依賴計(jì)算梯度的過程實(shí)現(xiàn),因此,該方法通過在隨機(jī)梯度下降的過程中結(jié)合差分隱私理論給梯度添加噪聲來實(shí)現(xiàn)差分隱私保護(hù)。在每一個(gè)訓(xùn)練步驟t中,計(jì)算具有采樣概率L/n的隨機(jī)樣本Lt的梯度并通過l2范數(shù)來約束梯度,再給約束后的梯度添加噪聲,最后更新參數(shù)θt+1。其偽代碼如下:

        參數(shù):學(xué)習(xí)率αt,樣本容量L,預(yù)設(shè)的梯度閾值C

        隨機(jī)初始化θ0

        fort∈[T] do

        選取采樣概率L/n的隨機(jī)樣本Lt

        /*計(jì)算梯度*/

        fori∈Lt,計(jì)算gt(xi)=▽?duì)萾Fxi(θt)

        /*約束梯度*/

        /*加噪聲*/

        /*更新參數(shù)*/

        Output:θT

        DP-SGD方法通過在隨機(jī)梯度下降的過程中添加噪聲解決了算法在優(yōu)化過程中的隱私泄漏問題。實(shí)驗(yàn)表明:(1) 在適當(dāng)?shù)碾[私預(yù)算內(nèi),DP-SGD提供了較好的隱私保護(hù)水平。(2) Δf/ε越小,模型預(yù)測的精度越高,即加入的噪聲越小,模型的精度越高。

        但是,DP-SGD方法存在一個(gè)缺陷,即所添加的噪聲對(duì)模型精度的影響較大。以圖3中的A區(qū)域?yàn)槔捎诿看翁砑拥脑肼暥际欠夏骋环植嫉碾S機(jī)數(shù)字,這就導(dǎo)致每一次隨機(jī)添加的噪聲極有可能分布在A區(qū)域的兩側(cè)。根據(jù)DP-SGD的實(shí)驗(yàn)結(jié)論分析可知,隨機(jī)噪聲盡量地分布在A區(qū)域會(huì)提高模型的精度。

        圖3 Laplace分布

        2.2 DP-Adam算法

        為了實(shí)現(xiàn)對(duì)神經(jīng)網(wǎng)絡(luò)優(yōu)化算法的隱私保護(hù)而提出了差分隱私下的Adam優(yōu)化算法研究(DP-Adam)。Adam是一種性能優(yōu)秀的梯度下降算法,將其與差分隱私結(jié)合,在神經(jīng)網(wǎng)絡(luò)反向傳播的Adam梯度下降更新參數(shù)過程中加入滿足差分隱私的拉普拉斯噪聲,從而達(dá)到在神經(jīng)網(wǎng)絡(luò)優(yōu)化算法的優(yōu)化過程中進(jìn)行隱私保護(hù)的目的。相比于DP-SGD方法,該方法在滿足同等隱私預(yù)算的情況下模型的精度更高,而且在模型達(dá)到同樣精度要求下所需要的隱私預(yù)算更小,即隱私保護(hù)程度更高。DP-Adam算法的主要步驟如下:

        Step1計(jì)算每一次梯度下降時(shí)權(quán)重和偏置的梯度:

        (6)

        Step2加入拉普拉斯噪聲:

        (7)

        Step3使用Adam優(yōu)化方法迭代更新參數(shù):

        (8)

        (9)

        (10)

        (11)

        (12)

        如圖3所示,當(dāng)b=Δf/ε越小時(shí),拉普拉斯噪聲分布越集中于A區(qū)域(μ=0附近)。DP-SGD[7]的實(shí)驗(yàn)結(jié)果表明,Δf/ε越小,模型的精度越高,即加入的噪聲分布離μ=0越近,模型的精度越高。

        對(duì)于同一數(shù)據(jù)集,敏感度Δf是相同的,隱私預(yù)算ε決定了訓(xùn)練模型的隱私保護(hù)程度和預(yù)測結(jié)果的準(zhǔn)確性,當(dāng)ε設(shè)置相同時(shí),DP-SGD方法在梯度下降第t次更新參數(shù)時(shí)加入的噪聲為:

        N=(1-β)Lap(Δf/ε)[t]

        (13)

        可知,第t次梯度下降參數(shù)加入的噪聲僅與第t次加入的隨機(jī)噪聲相關(guān),與前t-1次加入的隨機(jī)噪聲無關(guān)。根據(jù)拉普拉斯概率分布可知,所添加的噪聲是滿足該拉普拉斯分布的隨機(jī)數(shù),無法保證添加噪聲盡量分布在A區(qū)域(μ=0附近)。

        DP-Adam算法在梯度下降第t次更新參數(shù)時(shí)加入的噪聲為:

        (14)

        第t次梯度下降時(shí)參數(shù)加入的噪聲為本次添加的隨機(jī)噪聲和前t-1次加入噪聲的指數(shù)加權(quán)平均。因此,DP-Adam方法加入的噪聲由于指數(shù)加權(quán)平均的限制,很明確地使噪聲分布有更大概率分布在A區(qū)域(μ=0附近),也就是在敏感度Δf和隱私預(yù)算ε一定的情況下,DP-Adam方法加入的隨機(jī)噪聲參數(shù)b=Δf/ε更小。因此,在隱私保護(hù)程度相同時(shí),DP-Adam的模型精度更高。DP-Adam算法如下:

        參數(shù):步長α(默認(rèn)為0.001)。隨機(jī)選取的樣本規(guī)模L,用于數(shù)值穩(wěn)定的小常數(shù)δ,默認(rèn)為10-8。矩估計(jì)的指數(shù)衰減速率β1和β2∈[0,1],建議分別默認(rèn)為0.9和0.999。

        輸出:θ

        隨機(jī)初始化w、b

        初始化一階和二階矩變量s=0、r=0

        初始化時(shí)間步t=0

        Whilet∈[T] do

        隨機(jī)選取樣本Lt,采樣概率為q=L/t

        /*計(jì)算梯度*/

        對(duì)于i∈Lt,計(jì)算gt(xi)←▽?duì)萾L(wt,bt,xi)

        /*加噪*/

        /*計(jì)算加噪后的平均梯度*/

        t←t+1

        應(yīng)用更新:w←w+Δw,b←b+Δb

        End while

        由式(2)和式(4)可知,算法中加入的拉普拉斯噪聲的尺度參數(shù)b=Δf/ε,在同一個(gè)實(shí)驗(yàn)中加入的是一個(gè)參數(shù)確定的拉普拉斯噪聲分布,即μ和b是確定的某兩個(gè)值,同一實(shí)驗(yàn)的敏感度Δf也是確定的。因此,在同一實(shí)驗(yàn)中ε的值也是確定的,根據(jù)b=Δf/ε,我們可以得到ε=Δf/b。

        3 實(shí) 驗(yàn)

        本文選取了機(jī)器學(xué)習(xí)常用的兩種用于圖片識(shí)別的數(shù)據(jù)集MINIST和CIFAR-10。MNIST數(shù)據(jù)集包括60 000個(gè)樣本的手寫數(shù)字圖片訓(xùn)練集和10 000個(gè)樣本的手寫數(shù)字圖片測試集,其中手寫數(shù)字圖片為28×28像素的灰度圖像。CRFAR-10數(shù)據(jù)集包含10種不同物品分類的彩色圖片,訓(xùn)練集有50 000個(gè)樣本,測試集有10 000個(gè)樣本。實(shí)驗(yàn)對(duì)比了DP-Adam方法與文獻(xiàn)[7]提出的DP-SGD方法在兩種數(shù)據(jù)集上的結(jié)果。

        實(shí)驗(yàn)環(huán)境:CPU為Inter Core I7-7500 3.70 GHz,內(nèi)存16 GB,GPU為Nvidia GeForce GTX1060(6 GB)。

        3.1 MINIST

        圖4為MNIST數(shù)據(jù)集在不同隱私預(yù)算下的訓(xùn)練模型的精度,ε表示隱私預(yù)算的大小、epoch為訓(xùn)練的輪數(shù)。如圖4(a)所示,ε較小時(shí)(即噪聲規(guī)模較大)兩種方法的模型精度均受到噪聲影響較大,但DP-Adam方法的模型精度明顯更高。隨著ε的增大,精度逐漸增加。在訓(xùn)練的穩(wěn)定時(shí)期,DP-Adam的模型精度達(dá)到99%,而DP-SGD僅有89%。相同ε下,DP-Adam方法的準(zhǔn)確率受到噪聲的影響始終小于DP-SGD方法。此外,當(dāng)兩種方法的模型精度相同時(shí),DP-Adam使用的隱私預(yù)算明顯小于DP-SGD,即DP-Adam的隱私保護(hù)性能更好。圖4(b)-(d)為三種不同隱私預(yù)算下,訓(xùn)練輪數(shù)epoch與模型精度的變化關(guān)系曲線,可以看出兩種方法訓(xùn)練時(shí)間接近,但DP-Adam方法精度更高。當(dāng)訓(xùn)練達(dá)到穩(wěn)定的狀態(tài)時(shí),DP-Adam算法分別在添加大噪聲(ε=0.5)、中等噪聲(ε=1)以及小噪聲(ε=2)時(shí)的模型精度是90%、95%和99%,而DP-SGD算法達(dá)到的精度分別是80%、82%和87%。

        (a) accuracy vs.ε

        (b) ε=0.5(large noise)

        (c) ε=1(middle noise)

        (d) ε=2(small noise)

        3.2 CIFAR-10

        圖5為CIFAR-10數(shù)據(jù)集在不同隱私預(yù)算下的訓(xùn)練模型的精度。圖5(a)中,隨著ε增大(噪聲規(guī)模減小),兩種方法的模型精度均逐漸上升。在訓(xùn)練的穩(wěn)定時(shí)期,DP-Adam的模型精度達(dá)到87%,而DP-SGD僅有75%。在同等噪聲規(guī)模下,DP-Adam方法的模型精度均高于DP-SGD。此外,當(dāng)兩種方法的模型精度相同時(shí),DP-Adam使用的隱私預(yù)算明顯小于DP-SGD,即DP-Adam的隱私保護(hù)性能更好。圖5(b)-(d)為三種不同隱私預(yù)算下,訓(xùn)練輪數(shù)epoch與模型精度的變化關(guān)系曲線,可以看出兩種方法訓(xùn)練時(shí)間接近,但Adam方法的模型精度更高。當(dāng)訓(xùn)練達(dá)到穩(wěn)定的狀態(tài)時(shí),DP-Adam算法分別在添加大噪聲(ε=1)、中等噪聲(ε=2.5)以及小噪聲(ε=6)時(shí)的模型精度為73%、78%和88%,而DP-SGD算法達(dá)到的精度分別是67%、73%和77%。

        (a) accuracy vs.ε

        (b) ε=1(large noise)

        (c) ε=2.5(middle noise)

        (d) ε=6(small noise)

        4 結(jié) 語

        本文提出了差分隱私保護(hù)下的Adam深度學(xué)習(xí)算法研究。該方法結(jié)合差分隱私理論在深度學(xué)習(xí)訓(xùn)練過程的反向傳播時(shí)使用Adam優(yōu)化算法,并且利用Adam算法的指數(shù)加權(quán)平均思想降低了添加噪聲對(duì)模型精度的影響。采用Adam優(yōu)化算法,第t次梯度下降時(shí)參數(shù)加入的噪聲為本次添加的隨機(jī)噪聲和前t-1次加入噪聲的指數(shù)加權(quán)平均,這使得在相同敏感度Δf和隱私預(yù)算ε下,DP-Adam方法加入的隨機(jī)噪聲比起DP-SGD方法加入的隨機(jī)噪聲更集中分布在μ=0的區(qū)域,進(jìn)而使得隨機(jī)噪聲的參數(shù)b=Δf/ε變小。通過理論與實(shí)驗(yàn)得出結(jié)論:1) 在同等的隱私保護(hù)程度下,DP-Adam方法的模型精度明顯高于DP-SGD;2) DP-Adam的隱私保護(hù)性能更好。

        猜你喜歡
        差分梯度噪聲
        一個(gè)改進(jìn)的WYL型三項(xiàng)共軛梯度法
        數(shù)列與差分
        噪聲可退化且依賴于狀態(tài)和分布的平均場博弈
        一種自適應(yīng)Dai-Liao共軛梯度法
        一類扭積形式的梯度近Ricci孤立子
        控制噪聲有妙法
        基于差分隱私的大數(shù)據(jù)隱私保護(hù)
        一種基于白噪聲響應(yīng)的隨機(jī)載荷譜識(shí)別方法
        相對(duì)差分單項(xiàng)測距△DOR
        太空探索(2014年1期)2014-07-10 13:41:50
        車內(nèi)噪聲傳遞率建模及計(jì)算
        在线亚洲AV不卡一区二区| 国产精品女同久久久久电影院| 日本成本人片免费网站| 亚洲成色www久久网站夜月| 精品亚洲午夜久久久久| 国产一区二区免费在线观看视频| 亚洲国产精品成人av网| 48久久国产精品性色aⅴ人妻 | 日本a级特级黄色免费| 一本色道久久88综合日韩精品| 婷婷成人亚洲| 亚洲精品国产主播一区二区| 人妖国产视频一区二区| aⅴ精品无码无卡在线观看| 狠狠久久亚洲欧美专区| 国产优质女主播在线观看| 男奸女永久免费视频网站 | 91九色成人蝌蚪首页| 久久久久波多野结衣高潮| 亚洲熟妇色xxxxx欧美老妇| 蜜桃av噜噜一区二区三区免费| 日韩精品中文一区二区三区在线 | 伊人影院成人在线观看| 亚洲色大成网站www永久| av蓝导航精品导航| 手机AV片在线| 国产影片一区二区三区| 高潮又爽又无遮挡又免费| 麻豆国产巨作AV剧情老师| 久久亚洲宅男天堂网址| 噜噜综合亚洲av中文无码| 韩日美无码精品无码| 久久婷婷免费综合色啪| 久久黄色国产精品一区视频| 免费拍拍拍网站| 麻豆AⅤ精品无码一区二区| 丝袜美腿在线播放一区二区| 成人免费看aa片| 亚洲成av人最新无码| 国产成人亚洲合色婷婷| 漂亮人妻洗澡被公强 日日躁|