亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于GAN的視頻隱寫算法

        2022-09-30 04:25:24林洋平張明書陳培劉佳楊曉元
        科學(xué)技術(shù)與工程 2022年23期
        關(guān)鍵詞:信息

        林洋平 , 張明書,2* , 陳培 , 劉佳 , 楊曉元,2

        (1.武警工程大學(xué)密碼工程學(xué)院, 西安 710086; 2.網(wǎng)絡(luò)與信息安全武警部隊重點實驗室, 西安 710086)

        隱寫術(shù)是一種將秘密消息隱藏在載體信息中,使得攻擊方無法知曉載體中是否含有秘密消息,從而達到隱蔽傳輸目的的秘密通信技術(shù)。它在公共服務(wù)、網(wǎng)絡(luò)傳輸、軍事通信等方面的應(yīng)用非常廣泛,相較于加密技術(shù)而言,因其具有的不可感知性,不易受到惡意攻擊方的分析檢測,是目前研究秘密通信領(lǐng)域的熱門課題,在信息化條件下的軍事通信擁有很高的應(yīng)用價值[1]。

        視頻隱寫術(shù)是應(yīng)用于視頻媒介的信息隱藏技術(shù),視頻中擁有比圖像更多的冗余信息,它的嵌入容量和安全性有著更好的表現(xiàn),隨著5G高速網(wǎng)絡(luò)的發(fā)展,大量視頻媒介信息在互聯(lián)網(wǎng)中迅速傳播,載密視頻很容易隱藏其中,因此視頻隱寫術(shù)在載體數(shù)量與傳播安全性方面的優(yōu)點日益突顯。

        原始載體在嵌入秘密消息后,會對載體原有的統(tǒng)計信息進行一定程度上的修改。因此在設(shè)計隱寫算法時,通過某種修改策略使得嵌入后造成的失真減小,失真越小受到攻擊者的惡意攻擊概率越低[2]。

        許多學(xué)者提出諸如預(yù)測模式[3]、DCT(discrete cosine transformation)系數(shù)[4]、運動矢量[5]等一系列基于壓縮域的視頻隱寫算法。而人工構(gòu)建最優(yōu)修改策略在設(shè)計上是困難的,這需要對視頻格式特點與統(tǒng)計信息進行詳盡地分析,這也會加大隱寫算法的設(shè)計難度。深度學(xué)習技術(shù)為隱寫術(shù)的發(fā)展提供了一個新的思路,它無需人工對視頻數(shù)據(jù)進行預(yù)先的特殊處理,只要合理地設(shè)計出網(wǎng)絡(luò)的基本結(jié)構(gòu)和相應(yīng)損失函數(shù),通過優(yōu)化算法就可達到修改策略的最優(yōu)化,理論上只要利用大量數(shù)據(jù)進行合理的訓(xùn)練便可達成此目標?;诰矸e神經(jīng)網(wǎng)絡(luò)與生成式對抗網(wǎng)絡(luò)的深度學(xué)習技術(shù)[6-7]的出現(xiàn),為人們提供了一種新的方法。它在計算機視覺的傳統(tǒng)領(lǐng)域諸如分類、超分、去模糊等的應(yīng)用十分廣泛,正是由于其優(yōu)異表現(xiàn),吸引許多研究學(xué)者的注意,通過結(jié)合目前已有隱寫算法構(gòu)架,將其作為隱寫特征提取模塊,減少隱寫算法的人工設(shè)計難度。神經(jīng)網(wǎng)絡(luò)在圖像與文本隱寫領(lǐng)域中的應(yīng)用十分廣泛,已擁有許多重要的研究成果,但在視頻隱寫術(shù)中的應(yīng)用目前還處于探索階段,因而如何將神經(jīng)網(wǎng)絡(luò)與視頻隱寫術(shù)進行結(jié)合成為研究該領(lǐng)域的重要內(nèi)容。

        采用生成修改概率矩陣進行消息嵌入的方法,提出一種基于生成對抗網(wǎng)絡(luò)的視頻隱寫算法。在視頻生成對抗網(wǎng)絡(luò)的基礎(chǔ)上,設(shè)計一個隱寫生成對抗網(wǎng)絡(luò),其包含一組隱寫生成器與判別器,以生成最優(yōu)修改概率矩陣。同時為了提高隱寫生成器的性能,將視頻生成網(wǎng)絡(luò)生成的前景信息作為隱寫生成器的輸入,以便生成修改概率矩陣,而后將其傳遞給嵌入函數(shù)得到最優(yōu)修改映射,進行秘密信息的嵌入。隱寫判別器以載密與原始樣本作為輸入,將樣本三個通道分別通過高通濾波器進行預(yù)處理,再利用三維卷積網(wǎng)絡(luò)對載密和原始樣本進行區(qū)分。經(jīng)過隱寫生成器與判別器之間的博弈對抗,以期于載密樣本能誤導(dǎo)判別器的正確判斷。

        1 隱寫架構(gòu)

        1.1 隱寫算法設(shè)計

        在載體修改式隱寫術(shù)的思想下,提出視頻隱寫算法(steganographic generative adversarial network, SGAN),其架構(gòu)由兩部分組成:視頻生成對抗網(wǎng)絡(luò)(SGAN-videonet, SGAN-VN)、隱寫對抗網(wǎng)絡(luò)(SGAN-stegonet, SGAN-SN),算法架構(gòu)細節(jié)如圖1所示。

        隱藏算法的主要步驟如下:發(fā)送方在嵌入消息之前,將噪聲Z作為視頻生成對抗網(wǎng)絡(luò)的輸入,以生成載體視頻G(z),載體視頻由前景f(z)、后景b(z)

        圖1 隱寫算法架構(gòu)Fig.1 Steganographic structure of the proposed algorithm

        與掩模m(z)組成。隱寫對抗網(wǎng)絡(luò)將前景作為輸入,利用隱寫生成器生成修改概率矩陣,通過最優(yōu)二元嵌入函數(shù)自適應(yīng)生成最優(yōu)嵌入修改位置圖,將秘密消息m嵌入到載體視頻像素最低位中,得到含密視頻。

        接收方收到含密視頻后,將視頻發(fā)送方經(jīng)過秘密信道傳輸?shù)男薷奈恢脠D作為提取參考,提取出載密視頻中的秘密信息。

        1.2 基于失真代價的隱寫

        基于修改載體的隱寫算法中,設(shè)計架構(gòu)的目標是使得隱寫代價函數(shù)最小,以抵抗基于特征學(xué)習的隱寫分析算法的攻擊[8]。代價函數(shù)通常定義為

        (1)

        式(1)中:X=(xi,j)H×W與Y=(yL,j)H×W分別為原始載體樣本與嵌入修改樣本;ρi,j為修改i與j的所需代價。在這種思想的指導(dǎo)下,許多學(xué)者提出了相應(yīng)的圖像隱寫算法,如S-UNIWARD(spatial universal wavelet relative distortion)[9]、HILL(high-pass, low-pass, low-pass)[10]等。針對將信息嵌入載體后會導(dǎo)致不同的樣本屬性改變,隱寫算法通過設(shè)計的相應(yīng)隱寫代價函數(shù),優(yōu)化嵌入方式減少修改原始樣本帶來的隱性失真。然而,鑒于嵌入消息后帶來的不同失真而設(shè)計相應(yīng)代價函數(shù)難以實現(xiàn),目前許多算法如ADSL-GAN(automatic steganographic distortion learning framework with GAN)[11]、UT-SCA-GAN(U-net, tanh-simulator, selection channel awareness, GAN)[12]等,利用CNN(convolutional neural networks)作為擬合代價函數(shù)的工具,引入基于神經(jīng)網(wǎng)絡(luò)的隱寫分析算法,利用對抗模型中的博弈對抗策略,構(gòu)成生成式對抗網(wǎng)絡(luò),通過二者之間博弈訓(xùn)練,使得嵌入消息帶來的失真最小化。

        1.3 雙流視頻生成模型

        視頻隱寫術(shù)相對于圖像隱寫術(shù)來講,直接將原始載體輸入網(wǎng)絡(luò)中,將會使得參數(shù)繁多并且數(shù)據(jù)復(fù)雜難以訓(xùn)練。因此在設(shè)計架構(gòu)時,利用了雙流生成視頻模型能夠生成視頻運動信息的特點,本文提出通過將視頻中的時空特征信息,作為隱寫生成器的輸入,以減輕生成器的訓(xùn)練成本。該視頻生成模型不會直接生成偽樣本,首先會利用噪聲Z作為輸入,生成代表視頻信息中動態(tài)與靜態(tài)的不同部分:前景f(z)、后景b(z),這兩個部分分別對應(yīng)現(xiàn)實世界中外界環(huán)境中的靜止信息與動作信息,通過與掩模m(z)的組合控制來得到生成的偽視頻,表達式為

        G(z)=m(z)⊙f(z)+[1-m(z)]⊙b(z)

        (2)

        式(2)中:生成視頻G(z)為利用噪聲Z驅(qū)動合成的;m(z)為視頻中的時空掩模,為不同的像素位置以及時間選擇前景模型與后景模型進行匹配控制,⊙為Hadamard乘積。

        而對于生成的視頻任務(wù),采用了基于DCGAN(deep convolutional generative adversarial net)的視頻生成架構(gòu)[13]。為了提高生成視頻的清晰度與嵌入容量,將生成視頻的分辨率從原始模型的64×64提高到128×128。

        2 隱寫對抗網(wǎng)絡(luò)

        2.1 生成器結(jié)構(gòu)

        本文設(shè)計的雙生成對抗網(wǎng)絡(luò)隱寫架構(gòu)中包含兩個生成器:一個負責視頻生成任務(wù),基于DCGAN的視頻生成網(wǎng)絡(luò);另一個負責嵌入修改概率矩陣的生成,稱為隱寫生成器。與圖像隱寫網(wǎng)絡(luò)不同,視頻信息流中主要包含兩種類型的信息,除了空域信息以外,還包括時域信息。在圖像空域隱寫術(shù)中,較多采用分析單張載體圖像的空域信息,進而生成修改概率進行隱寫。視頻信息往往是連續(xù)不斷的序列信息,在靜止空間與運動空間中都含有大量的冗余信息,可供進行信息的嵌入,但視頻數(shù)據(jù)較圖像而言,數(shù)據(jù)量更大且其特征提取網(wǎng)絡(luò)更不易訓(xùn)練。

        因此本文提出的架構(gòu)中,直接將DCGAN所生成前景作為生成器的輸入,利用卷積網(wǎng)絡(luò)來提取前景的特征信息。在文獻[12]中生成器的基礎(chǔ)上,將二維卷積改為三維卷積網(wǎng)絡(luò),實現(xiàn)在時間維度中的采樣,通過更深層的網(wǎng)絡(luò)結(jié)構(gòu)與大量對抗訓(xùn)練,得到一個針對視頻時空冗余的概率修改矩陣。在這種架構(gòu)中一共包含16層三維卷積層,前8層每一層包含一個1×5×5卷積核的三維卷積層,后接一個BN層,前8組采用的是LeakyReLU激活函數(shù),后8組是ReLU激活函數(shù)與轉(zhuǎn)置三維卷積層,最后一組的輸出用sigmoid激活函數(shù),使用sigmoid函數(shù)將卷積網(wǎng)絡(luò)提取的特征映射,將其轉(zhuǎn)換成數(shù)值在0~1的概率,為了防止修改概率過大而造成嵌入消息的安全性降低,對每個概率減去0.5,將區(qū)間控制在0~0.5。隱寫生成器的具體結(jié)構(gòu),如表1所示。

        表1 隱寫生成器結(jié)構(gòu)Table 1 The structure of steganography generator

        2.2 判別器結(jié)構(gòu)

        生成對抗網(wǎng)絡(luò)中判別器主要用于判別生成樣本的真假性,判別器的性能會直接影響到生成器所生成樣本的質(zhì)量,第一個GAN使用一個5層三維卷積網(wǎng)絡(luò),卷積核為3×3×3,步長為2,除了第五層卷積層后使用sidmiod函數(shù)以外,每一層卷積操作后都使用LeakyReLU作為激活函數(shù)。這樣卷積層既可以學(xué)習視頻背景中的統(tǒng)計信息,也可以學(xué)習物體運動的時空關(guān)系。第二個GAN中判別器是作為一個隱寫分析器,經(jīng)過博弈對抗訓(xùn)練過后,生成器生成的修改概率矩陣所對應(yīng)的載密樣本,強化抵抗隱寫分析檢測的能力。在Xu-Net的基礎(chǔ)上,設(shè)計一個基于三維卷積的視頻隱寫分析器,將其作為視頻隱寫對抗網(wǎng)絡(luò)的判別器。Xu-Net是文獻[14]中提出的灰度圖像隱寫分析模型,考慮到視頻信號的時空維度與通道數(shù)目,為了將其用于彩色三通道載密視頻幀的分析檢測,將高通濾波器在時間維度與通道維度中進行拓展,分別對每一幀的圖像三個通道進行處理,最后合并為一個通道數(shù)目為18、時間維度為32的特征圖,以便于處理連續(xù)的視頻信號,而后將其所得殘差特征輸入一個6層三維卷積網(wǎng)絡(luò)中分析其時空特征,根據(jù)激活函數(shù)把時空特征映射為識別概率值,通道間的處理過程如圖2所示。

        2.3 損失函數(shù)

        在訓(xùn)練過程的兩個階段中分別訓(xùn)練兩個對抗網(wǎng)絡(luò),二者的判別器在結(jié)構(gòu)設(shè)計上存在著差異,但共同將網(wǎng)絡(luò)輸出的標簽信息作為衡量判別器性能的

        圖2 通道的分離與合并Fig.2 Channels separation and merge

        關(guān)鍵參考信息,對此將兩個判別器的損失定義為

        (3)

        式(3)中:y′為判別器中激活函數(shù)輸出;y′i則為判別器對載體樣本與嵌密樣本的分類標簽。對于生成器的損失函數(shù),將其定義為

        lG=-αlD+β(C-3NHWQ)2

        (4)

        C=C1+C2+C3

        (5)

        式中:NHWQ為訓(xùn)練之前設(shè)定的期望載荷。在兩個階段的訓(xùn)練中,第一階段將參數(shù)β設(shè)定為0,參數(shù)α設(shè)定為常數(shù)1;而在下一階段中,會對實際訓(xùn)練需求進行參β的合理設(shè)定,以保證目標函數(shù)的最優(yōu)化,本文中參數(shù)β設(shè)置為10-71。Ck為嵌密樣本三個通道中的秘密消息載荷,將其定義為

        (6)

        (7)

        (8)

        2.4 最優(yōu)嵌入函數(shù)

        視頻隱寫算法在得到修改概率矩陣之后,需要得到相應(yīng)的嵌入修改位置圖來進行秘密消息的嵌入,而這里的嵌入修改位置圖是通過式(9)所示最優(yōu)嵌入模擬器生成的[15]:

        (9)

        式(9)中:pi,j為嵌入變化概率;ni,j為0~1均勻分布產(chǎn)生的隨機數(shù);mi,jmi,j為嵌入值。但該函數(shù)不能在實際訓(xùn)練中生成網(wǎng)絡(luò)的梯度反向傳播傳遞梯度,導(dǎo)致訓(xùn)練時間過長。為了解決上述嵌入函數(shù)不連續(xù)的問題,引入了一個基于tanh函數(shù)的最優(yōu)嵌入激活函數(shù)[12],即

        m′i,j=-0.5tanh[λ(pi,j-2ni,j)]+

        0.5tanh{λ[pi,j-2(1-ni,j)]}

        (10)

        (11)

        式中:λ為縮放因子,控制函數(shù)在階梯狀態(tài)中變化的坡度,不同縮放因子對應(yīng)函數(shù)的變化,如圖3所示。

        圖3 不同縮放因子下的嵌入函數(shù)Fig.3 Embedding functions with different scaling factors

        3 實驗結(jié)果與分析

        3.1 數(shù)據(jù)集與實驗設(shè)置

        實驗環(huán)境為window10操作系統(tǒng)下的tensorflow1.15深度學(xué)習構(gòu)架,所用實驗儀器的顯卡型號為英偉達GTX TITAN XP,CPU型號為INTEL Xeon E5-1603,內(nèi)存為16 GB。所有的實驗都是在UCF101數(shù)據(jù)集上進行的,UCF101是一個現(xiàn)實動作視頻的動作識別數(shù)據(jù)集,收集自YouTube,提供了來自101個動作類別的13 320個視頻,其大小為320×240,在深度學(xué)習領(lǐng)域用于視頻的動作識別數(shù)據(jù)集。從UCF101數(shù)據(jù)集中隨機抽取500段視頻,作為視頻生成網(wǎng)絡(luò)的訓(xùn)練視頻。為了匹配實驗所需的視頻大小,利用基于python的skimage工具包將其轉(zhuǎn)化為大小為128×128的視頻。

        實驗中生成對抗網(wǎng)絡(luò)的訓(xùn)練分為兩個階段,首先訓(xùn)練第一個生成網(wǎng)絡(luò)使其可以生成符合自然語義的偽視頻,經(jīng)過3 000輪的迭代訓(xùn)練后,再訓(xùn)練第二個生成網(wǎng)絡(luò)負責嵌入修改矩陣的生成,對其訓(xùn)練共800次。對于第一個網(wǎng)絡(luò)中的訓(xùn)練采用的是,訓(xùn)練一次生成器后,進行一次判別器的訓(xùn)練。訓(xùn)練中使用學(xué)習率為0.000 2的Adam優(yōu)化器來訓(xùn)練模型,對每個批次視頻樣本訓(xùn)練3 800次,共500次迭代。

        3.2 實驗結(jié)果

        3.2.1 視頻生成對抗網(wǎng)絡(luò)性能

        當經(jīng)過3 000輪的訓(xùn)練后,視頻生成網(wǎng)絡(luò)的訓(xùn)練結(jié)束,參數(shù)在此時及以后不發(fā)生改變,進而進行下一部分的第二個生成網(wǎng)絡(luò)的訓(xùn)練,使其生成最優(yōu)嵌入修改矩陣。對第二個網(wǎng)絡(luò)的訓(xùn)練采用的是,每訓(xùn)練兩次生成器,訓(xùn)練一次隱寫判別器的方式,兩種模塊的對抗性訓(xùn)練交替進行。

        如圖4所示,經(jīng)過前一輪次的訓(xùn)練后,第一個生成網(wǎng)絡(luò)已然可以生成擁有逼真效果的偽視頻,相較于原始視頻來說,其噪點較多,并且在紋理復(fù)雜的區(qū)域較為模糊。但是這些缺點正好為本文消息的嵌入,提供合理的冗余空間。因為在實際網(wǎng)絡(luò)環(huán)境中充斥著大量因壓縮算法或者傳輸帶寬不足導(dǎo)致的視頻缺失與模糊,因此在真實環(huán)境中這樣的視頻是存在的。

        圖4 生成視頻幀F(xiàn)ig.4 Generate videos

        雙流視頻生成網(wǎng)絡(luò)的特點是能夠同時生成視頻的靜止與運動信息:動態(tài)前景與靜態(tài)后景,如圖5所示。考慮到視頻隱寫術(shù)的關(guān)鍵是利用其中的時空冗余信息,因此在設(shè)計第二個網(wǎng)絡(luò)中本文使用基于三維卷積的特征提取網(wǎng)絡(luò),并利用動態(tài)前景作為載體視頻的時空特征信息,提高隱寫生成器生成修改概率矩陣的能力,構(gòu)成雙生成對抗網(wǎng)絡(luò)視頻隱寫算法。

        圖5 前景、后景與掩模Fig.5 Foreground, background and mask

        3.2.2 抵抗彩色隱寫分析器

        通過對比實驗來驗證本文提出的隱寫算法架構(gòu)的抗隱寫分析算法攻擊的能力,實驗選取了基于空域的S-UNIWARD算法進行對比,由于S-UNIWARD是灰度圖像隱寫算法,對其進行訓(xùn)練時,將一張數(shù)據(jù)集中的圖像拆分為三張灰度圖像,作為該算法的輸入,訓(xùn)練后的隱寫模型分別對三個彩色通道進行嵌密,為了進一步驗證雙生成對抗網(wǎng)絡(luò)隱寫算法的有效性,增加一組消融性實驗作為對比,將載體視頻作為隱寫生成器的輸入,基于時空信息與原始載體樣本的兩種隱寫對抗網(wǎng)絡(luò)在三個模塊的結(jié)構(gòu)、參數(shù)上相一致,不同點在于如何設(shè)置隱寫網(wǎng)絡(luò)的輸入,分別用GAN與SGAN表示。為了檢驗二者的差異性,從以下隱寫安全性方面進行評估。

        目前針對序列視頻信息的空域隱寫分析算法較少,且無法應(yīng)用于基于圖像的S-UNIWARD算法,本文通過將算法所生成的視頻隨機抽取幀圖像作為數(shù)據(jù),引入彩色圖像隱寫分析算法SCRM[16]作為隱寫分析工具,結(jié)合集成分類器[17]對其進行檢測。

        分別對通道嵌入率為0.05、0.1、0.2、0.3、0.4 bpc (bit per channel, bpc)的載密樣本進行分析,共使用了10 500組樣本作為數(shù)據(jù)集,其中9 000組樣本為訓(xùn)練集,1 500組樣本用于測試分類準確度,實驗中得到的平均嵌入率分別為0.050、0.099、0.198、0.300、0.401 bpc。

        從表2可以看出,本文提出的SGAN架構(gòu)與S-UNIWARD算法相比,在嵌入率為0.05、0.1、0.3 bpc在SCRM檢測中都取得了較好的表現(xiàn),在檢測錯誤率上分別有0.65%、1.33%、3.26%的提升,在0.1、0.2、0.3 bpc的嵌入率下GAN也要優(yōu)于S-UNIWARD算法,檢測錯誤率的變化曲線如圖6所示。總體上SGAN架構(gòu)與GAN架構(gòu)之間,前者要綜合上優(yōu)于單純地只對視頻進行特征提取的后者,從實驗中證明了前者的抗隱寫分析能力要更強。在與S-UNIWARD算法比較時,其只在部分嵌入率下優(yōu)于該算法,整體上并沒有顯著的提高,但本文算法的嵌入對象是時空冗余信息,因此基于空域的圖像隱寫分析算法的結(jié)果作為參考,抗隱寫分析的能力在部分嵌入率下有所下降是正常的。

        表2 SCRM檢測錯誤率Table 2 Error rates of SCRM detection

        圖6 SCRM檢測錯誤率Fig.6 Error rates of SCRM detection

        3.2.3 時空內(nèi)容自適應(yīng)性

        圖7為本文方案SGAN架構(gòu)在五種通道嵌入率下在紅色通道中修改位置圖,可以看出嵌入位置的選擇多在像素變化較為頻繁的運動部分,這里時空冗余較多對于視頻信息更為適合隱藏秘密消息,并且隨著嵌入率的提高這部分選擇的機率越來越高,這表明所提出的方案具有時空內(nèi)容自適應(yīng)性。

        圖7 各嵌入率下的修改位置圖Fig.7 Modification maps under different embedding rates

        4 總結(jié)與展望

        為了提高視頻隱寫術(shù)在公共信道中的安全性,使得其能夠抵抗來自隱寫分析算法的攻擊,提出了基于生成式對抗網(wǎng)絡(luò)的視頻隱寫算法。該算法生成的視頻在質(zhì)量上滿足真實視頻中的語義信息,利用隱寫生成器與判別器之間的博弈學(xué)習,優(yōu)化生成器的性能,減小嵌入帶來的失真,自適應(yīng)嵌入秘密消息比特。從實驗結(jié)果上來看,算法生成的載密視頻在空域隱寫分析算法SCRM的檢測下,能在低嵌入率時較同類算法S-UNIWARD的抗檢測率有一定提升。

        猜你喜歡
        信息
        訂閱信息
        中華手工(2017年2期)2017-06-06 23:00:31
        展會信息
        中外會展(2014年4期)2014-11-27 07:46:46
        信息超市
        展會信息
        展會信息
        展會信息
        展會信息
        展會信息
        信息
        健康信息
        祝您健康(1987年3期)1987-12-30 09:52:32
        亚洲va无码手机在线电影| 久久久精品国产av麻豆樱花| 国产日产在线视频一区| 中国老熟女重囗味hdxx| 欧美多毛肥胖老妇做爰| caoporon国产超碰公开| 免费人妖一区二区三区| 国产精品无码一区二区三区电影 | 高清国产国产精品三级国产av| 厨房人妻hd中文字幕| 亚洲av无码一区二区三区四区 | 抖射在线免费观看视频网站| 久久丝袜熟女av一区二区| 97精品久久久久中文字幕| 人人狠狠综合久久亚洲婷婷| 一区二区三区不卡免费av| 久久精品久99精品免费| 日韩一区国产二区欧美三区 | 精品久久久久久午夜| 亚洲最大不卡av网站| 丰满大爆乳波霸奶| 亚洲av久久无码精品九九| 国产精品美女一级在线观看| 国产成人av三级在线观看韩国| 国产精品无码av无码| 欧美高大丰满freesex| 亚洲精品国产熟女久久| 亚洲第一幕一区二区三区在线观看 | 精品手机在线视频| 亚洲综合精品一区二区三区| 国产免费三级av在线| 人妻丰满熟妇av无码片| 九九在线精品视频xxx| 天涯成人国产亚洲精品一区av| 女人色熟女乱| 99久久久国产精品免费蜜臀| 久久婷婷夜色精品国产| 亚洲人成网站在线播放2019 | 免费观看18禁无遮挡真人网站| 亚洲成aⅴ人在线观看| 久久精品中文字幕免费|