亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于判別性降維的字典學(xué)習(xí)在人臉識(shí)別的應(yīng)用

        2014-09-18 07:10:58
        電視技術(shù) 2014年3期
        關(guān)鍵詞:訓(xùn)練樣本識(shí)別率字典

        李 行

        (廣西教育學(xué)院數(shù)計(jì)系,廣西南寧 530023)

        人臉圖像通常是高維度的,這會(huì)導(dǎo)致存儲(chǔ)空間大并且增加了計(jì)算量[1],同時(shí)降低了人臉識(shí)別的判別性[2]。因此,學(xué)者們提出了許多降維(Dimensionality Reduction,DR)技術(shù)來降低人臉圖像的維度和加強(qiáng)判別特征,這些方法很容易使用,但是,用于解決表情和姿勢改變問題時(shí)并不是很高效,當(dāng)訓(xùn)練樣本不充足時(shí),這些方法學(xué)習(xí)到的子空間將會(huì)有偏差[3]。

        人臉識(shí)別(Face Recognition,F(xiàn)R)的子空間方法中,通常使用最近鄰(Nearest Neighbor,NN)分類器[3]和 SVM 進(jìn)行分類[4]。最近提出了一種新的人臉分類方案,基于分類的稀疏表示(Sparse Representation Coding,SRC)[5]。SRC分類器顯示出非常有競爭性的性能,但是當(dāng)每類的訓(xùn)練樣本不充足時(shí),它的性能會(huì)下降。前人已經(jīng)開展了許多工作來調(diào)查SRC中的降維問題,例如文獻(xiàn)[6]為SRC中的降維問題提出了一種無監(jiān)督的學(xué)習(xí)方法,相對(duì)于PCA和隨機(jī)投影實(shí)現(xiàn)了更高的識(shí)別率,也因此驗(yàn)證了一個(gè)設(shè)計(jì)良好的降維方法可能有益于稀疏分類方案。文獻(xiàn)[7]中提出了一種元臉學(xué)習(xí)(MFL)算法來表示訓(xùn)練樣本,它通過學(xué)習(xí)每個(gè)類獲得一系列“元臉”?;诮?jīng)典KSVD算法[8],文獻(xiàn)[9]介紹了一種DKSV算法對(duì)查詢圖像編碼,它利用編碼系數(shù)進(jìn)行分類工作。文獻(xiàn)[10]提出了一種監(jiān)督式算法對(duì)圖像分類任務(wù)來學(xué)習(xí)一個(gè)字典和一個(gè)分類器。文獻(xiàn)[11]提出了一種類獨(dú)立監(jiān)督式同步正交匹配追捕方案,它解決了當(dāng)類內(nèi)維度增加時(shí)的字典學(xué)習(xí)問題。最近,文獻(xiàn)[12]提出了一種Fisher判別字典學(xué)習(xí)(Dictionary Learning,DL)算法來解決基于模式分類的稀疏表示,它相對(duì)于其他基于模式分類方案的字典學(xué)習(xí)顯示出了具有競爭力的性能。

        上述文獻(xiàn)表明,聯(lián)合DR和DL過程可以實(shí)現(xiàn)更高效的識(shí)別。因此,本文提出了基于判別降維的字典學(xué)習(xí)(DDR-DL)方法來利用訓(xùn)練樣本中高效、魯棒的判別信息,使來自不同類的人臉圖像的特征可以通過一個(gè)子空間中的字典高效地分開。實(shí)驗(yàn)結(jié)果表明了所提算法的有效性及高效性。

        1 算法設(shè)計(jì)

        1.1 模型

        為了更高效地利用訓(xùn)練集A中的判別信息,本文提出了學(xué)習(xí)DR矩陣P和字典D,這樣可以實(shí)現(xiàn)一個(gè)更精確的分類。對(duì)于投影矩陣P,本文期望它可以保存A的能量同時(shí)使不同的類Ai在由P定義的子空間中可分割。為此,本文提出了一種正交投影矩陣,它可以同時(shí)最大化A的總散射和A的類間散射。對(duì)于字典D,期望它能夠如實(shí)地表示降維數(shù)據(jù)集PA,同時(shí)使來自相同類的樣本更靠近由跨越D空間中的其他樣本?;谝陨峡紤],本文提出了聯(lián)合判別式降維和字典學(xué)習(xí)(DDR-DL)模型來最優(yōu)化P和D,即

        式中:Dk是類k的子字典,D=[D1,D2,…,DK]產(chǎn)生了全部字典;Λk表示Dk上PAk的編碼系數(shù)矩陣;At表示集中訓(xùn)練集,如At=A-M,M的每一列表示A中所有樣本的平均向量m;Ab是A的特定類的集中數(shù)據(jù)集,如Ab=[M1-M,…,MK-M],MK的每列是Ak中樣本的平均向量mk;Γk是一個(gè)矩陣,它的每列表示Λk中每列的平均值;λ1,λ2,γ1和 γ2是正標(biāo)量。字典 Dk的每個(gè)原子dk,j要求有單位規(guī)范。

        式(1)中的DDR-DL模型,目標(biāo)投影P和字典D會(huì)使得訓(xùn)練樣本大于類間的距離,小于類間的變化。理想地,如果P和D可以得到較好的優(yōu)化,可以獲得查詢樣本y更準(zhǔn)確的分類。接下來討論如何做到式(1)的最小化。

        1.2 最優(yōu)化

        式(1)中的DDR-DL目標(biāo)函數(shù)是非凸的。本文使用一個(gè)兩級(jí)選擇性方向方法來解決,將全部最優(yōu)化分割為兩個(gè)子問題;固定投影矩陣P,解決字典D和系數(shù)Λ;固定D和Λ來更新P。選擇性和迭代地解決這兩個(gè)子問題,然后在一個(gè)較優(yōu)點(diǎn)停止以得到P和D的局部最優(yōu)方案。因?yàn)樗惴▋H可以得到一個(gè)局部最優(yōu)解,不同的P和D的初始化會(huì)導(dǎo)致不同的最終解。本文的算法使用PCA來初始化P,利用原始訓(xùn)練集來初始化D。如果隨機(jī)地初始化D,可以實(shí)現(xiàn)相同的分類率,盡管已解決的D對(duì)于不同的初始化是不同的。后面將展示全局最優(yōu)化算法。具體步驟為:

        1)初始化P。利用PCA來初始化P,也就是說,初始P訓(xùn)練數(shù)據(jù)A的PCA轉(zhuǎn)換矩陣。

        2)固定P,解決D和Λ。這種情況下,式(1)中的目標(biāo)函數(shù)變?yōu)?/p>

        顯然,上面的目標(biāo)函數(shù)可以分割為K個(gè)子問題,可以單獨(dú)最優(yōu)化每組{Dk,Λk}為

        Dk和Λk同樣是選擇性和迭代地得到解決。為了使最優(yōu)化更簡單,本文初始化Dk為0,在接下來的迭代中Γk可以計(jì)算為更新系數(shù)矩陣Λk的列平均矩陣。因此,Γk可以看作是每次迭代中的一個(gè)最優(yōu)化Dk和Λk的已知常數(shù)矩陣。

        從Dk的一些初始化中(例如隨機(jī)初始化)可以計(jì)算編碼系數(shù)Λk。在每次迭代中,一旦給定Dk,便可容易地得到Λk的易于分析的解

        當(dāng)獲得Λk時(shí),字典Dk接著可以得到更新[6]。

        經(jīng)過若干次迭代后,可以獲得所有的Dk和Λk,因此可以獲得全部字典D和關(guān)聯(lián)系數(shù)矩陣Λ。

        3)固定D和Λ,更新P。定義X=DΛ,式(1)中的目標(biāo)函數(shù)可以表示為

        上面的子目標(biāo)函數(shù)JP是自身非凸的,它將有一個(gè)局部最小值,首先,因?yàn)镻PT=I,將有

        為了解決上面在目前迭代h的最小化問題,本文使用φ(P(h-1))接近式(7)中的φ(P),其中P(h-1)是迭代h-1次獲得的投影矩陣。通過使用特征值分解(EVD)技術(shù),得到

        式中:Σ 是(φ(P(h-1))-γ1St-γ2Sb)的特征值形成的對(duì)角矩陣。然后可以將更新的P作為U中最重要的l個(gè)特征向量,例如,定義P(h)=U(1:l,:)。但是,這樣P的更新將會(huì)很大,使得式(1)中的整個(gè)系統(tǒng)的優(yōu)化不穩(wěn)定。因此,本文選擇在每次更新中逐步更新P,定義

        式中:c是一個(gè)小的正數(shù)來控制迭代中P的變化。

        4)停止迭代。如果到達(dá)最大迭代數(shù),或者鄰近迭代目標(biāo)函數(shù)JP,{Dk,Λk}之間的差別小于一個(gè)預(yù)設(shè)值ε,然后停止并輸出P和D。否則回到步驟2)。

        1.3 DDR-DL模型的收斂

        式(1)中提出的DDR-DL模型對(duì)于未知變量是聯(lián)合非凸的,因此1.2節(jié)中提出的最優(yōu)化算法可以至多到達(dá)一個(gè)局部最小值。在步驟2)中,當(dāng)另一個(gè)是固定時(shí),子問題對(duì)于每個(gè){Dk,Λk}是凸的,該算法將會(huì)使該問題產(chǎn)生一個(gè)局部最小值。但是,在步驟3)中,式(6)對(duì)于式(4)中的原始子問題是一個(gè)近似化描述,因此獲得的解僅是子問題中的局部最小值的一個(gè)近似??傊?,本文算法的收斂不能得到保證,但是根據(jù)經(jīng)驗(yàn)可以得到一個(gè)穩(wěn)定解。

        使用AR數(shù)據(jù)庫和MPIE數(shù)據(jù)庫作為例子來說明DDR-DL的最優(yōu)化過程。人臉圖像的維度降至300,在兩個(gè)數(shù)據(jù)庫中,目標(biāo)函數(shù)JP,{Dk,Λk}對(duì)迭代次數(shù)的曲線分別在在圖1a和圖1b中描述,其中,參數(shù)值為λ1=λ2=0.005,γ1=10,γ2=1 。

        圖1 DDR-DL算法在AR和MPIE數(shù)據(jù)庫中的收斂曲線

        從圖1可以看出,經(jīng)過若干次迭代(如6次迭代),目標(biāo)函數(shù)的值會(huì)變得穩(wěn)定,它僅在小范圍內(nèi)變動(dòng)。通常,迭代會(huì)在15次之內(nèi)停止。實(shí)驗(yàn)結(jié)果同樣表明停止多或少的迭代的最小化,得到的投影P和字典D將會(huì)產(chǎn)生幾乎相同的FR率。這說明盡管提出的DDR-DL算法不能產(chǎn)生理想的收斂,它對(duì)迭代次數(shù)并不敏感,實(shí)驗(yàn)設(shè)置最大迭代次數(shù)為15,表現(xiàn)效果良好。

        1.4DDR-DL分類方案

        得到投影矩陣P后,查詢樣本y可以通過Py投影到一個(gè)更低維度空間中,然后更低維度特征Py可以在字典D上編碼。這里采用帶有編碼用的l2—基準(zhǔn)規(guī)則化的聯(lián)合表示模型

        當(dāng)計(jì)算得到編碼向量,可以基于每類的重構(gòu)剩余來實(shí)施分類,像 SRC[6]或 CRC[10]中那樣。但是,在提出的DDR-DL算法中,每個(gè)類的編碼向量Λk的平均值同樣可以通過學(xué)習(xí)得到,可以表示為uk,和uk之間的距離對(duì)于分類同樣有幫助,因此,本文采用文獻(xiàn)[3]中的分類器來進(jìn)行最后的分類工作

        式中:ω是平衡2個(gè)項(xiàng)的常數(shù)。最終的分類是利用identity(y)=arg mink{ek}實(shí)施的。

        2 實(shí)驗(yàn)分析

        所有的實(shí)驗(yàn)均在4 Gbyte內(nèi)存Intel(R)Core(TM)2.93 GHz Windows XP機(jī)器上完成,編程環(huán)境為MATLAB 7.0。

        實(shí)驗(yàn)利用AR和MPIE兩大通用人臉識(shí)別數(shù)據(jù)庫來驗(yàn)證提出的DDR-DL算法的性能,并與SRC框架下的字典學(xué)習(xí)和/或降維方法的表示算法進(jìn)行比較,包括DRSRC[6],MFL - SRC[6],PCA+SRC[7],PCA+CRC[8],F(xiàn)DDL[9],LDA+SRC[10],LDA+CRC[11]方法,每個(gè)數(shù)據(jù)庫中,首先測試這些比較方法對(duì)于訓(xùn)練樣本數(shù)量的魯棒性,然后顯示特征取不同維度時(shí)的結(jié)果。

        2.1 參數(shù)選擇

        式(1)中的 DDR -DL 模型中有 4 個(gè)參數(shù) λ1,λ2,γ1,γ2。這4個(gè)參數(shù)都有非常清楚的物理含義,它們可以只帶這些參數(shù)的設(shè)置。(λ1,λ2)是用來更新投影矩陣P和編碼系數(shù)Λk,(γ1,γ2)是用來更新降維中的投影矩陣。因此在參數(shù)選擇中,可以決定 (λ1,λ2),然后確定 (γ1,γ2)。從式(3)可以看出λ1和λ2的設(shè)置可以同時(shí)規(guī)則化編碼系數(shù)Λk并通過最小化Λk的類間散射介紹判別性。因?yàn)镈k的每個(gè)原子(如列向量)有一個(gè)單元l2—基準(zhǔn),可以基于實(shí)驗(yàn)經(jīng)驗(yàn)設(shè)置λ1=λ2=0.005。

        參數(shù)γ1,γ2的設(shè)置和降維投影矩陣P的學(xué)習(xí)有關(guān)。它們相對(duì)于λ1,λ2應(yīng)該設(shè)置得更大一些,因?yàn)槿绻麅H有式(1)中的3項(xiàng)工作時(shí)會(huì)得到不重要的解(如P≈Null(A),也就是PA≈0),設(shè)置γ1=10,γ2=1 ,主要用來最大化訓(xùn)練樣本的總散射,同時(shí)介紹一些類間的判別。在測試階段,通過經(jīng)驗(yàn)設(shè)置所有實(shí)驗(yàn)中的標(biāo)量λ(參考式(10))為0.001 和 ω (參照式(11))為0.01。

        2.2 AR人臉數(shù)據(jù)庫

        AR數(shù)據(jù)庫由來自126人的超過4 000張正面圖像,對(duì)于每個(gè)人,提取26張來自2個(gè)單獨(dú)部分的圖像,圖2所示為AR人臉庫的樣本示例。

        圖2 AR數(shù)據(jù)庫的樣本示例

        實(shí)驗(yàn)使用包含50位男性和50位女性的6種光照和8種表情變化的數(shù)據(jù)集,從每個(gè)對(duì)象中隨機(jī)選取2~7個(gè)樣本進(jìn)行訓(xùn)練,其他樣本用來作為查詢樣本,將所有的樣本投影到一個(gè)550維子空間中(將LDA+SRC和LDA+CRC方案中的樣本投影到一個(gè)99維子空間中)。重復(fù)實(shí)驗(yàn)50次來計(jì)算平均識(shí)別率和相應(yīng)的標(biāo)準(zhǔn)偏差。對(duì)比方法的FR率在表1中顯示。

        表1 在AR數(shù)據(jù)庫上不同數(shù)量訓(xùn)練樣本的識(shí)別率

        從表1可以看出,當(dāng)每類的訓(xùn)練樣本不是很小時(shí),如每個(gè)類7個(gè)樣本,所有方法的識(shí)別率下降,特別是LDA+SRC和LDA+CRC。這主要是由于LDA對(duì)訓(xùn)練樣本數(shù)敏感。提出的DDR-DL在所有方法中實(shí)現(xiàn)了最高的FR率。特別地,它對(duì)于小的樣本問題不敏感。當(dāng)每類的訓(xùn)練樣本數(shù)相對(duì)較高例如每類6或7個(gè)樣本,DDR-DL的識(shí)別率和FDDL十分相近,但是,當(dāng)訓(xùn)練樣本數(shù)相對(duì)較低時(shí)例如每類2~5個(gè)樣本,DDR-DL和其他方法的差距將會(huì)變大。總之,DDR-DL的性能是很穩(wěn)定的。

        接著評(píng)估不同維度下的DDR-DL的性能。從每個(gè)對(duì)象中隨機(jī)選擇4個(gè)樣本進(jìn)行訓(xùn)練,所有剩下的圖像作為查詢圖像,各種方法的不同特征維度的識(shí)別率如表2所示。

        表2 在AR數(shù)據(jù)庫中不同特征維度的識(shí)別率

        從表2可以看出,DDR-DL在平均值上優(yōu)于其他方法,當(dāng)維度相對(duì)較低時(shí),例如350,所有的方法(除了LDA+SRC和LDA+CRC)有相似的結(jié)果。隨著特征維度的升高,例如超過450,本文的DDR-DL相對(duì)于其他方法表現(xiàn)出了明顯的提高。

        2.3 MPIE人臉數(shù)據(jù)庫

        卡內(nèi)基梅隆大學(xué)(Carnegie Mellon University,CMU)的多重PIE數(shù)據(jù)庫(MPIE)包含4個(gè)部分的337個(gè)不同對(duì)象的人臉圖像,同時(shí)涵蓋了表情、光照的變化,實(shí)驗(yàn)選用第一部分的所有249個(gè)對(duì)象的人臉圖像,圖3所示為MPIE人臉庫的樣本示例。

        圖3 MPIE數(shù)據(jù)庫的樣本示例

        實(shí)驗(yàn)從MPIE人臉庫的每個(gè)對(duì)象中隨機(jī)選擇2~7個(gè)樣本作為訓(xùn)練集,其他的圖像作為查詢集,并投影到一個(gè)550維的子空間中(方案LDA+SRC和LDA+CRC投影到248維的子空間中)。同樣,所有的實(shí)驗(yàn)重復(fù)50次來計(jì)算FR率的平均值和標(biāo)準(zhǔn)偏差。表3顯示了不同方法的結(jié)果。

        從表3可以總結(jié)出與AR數(shù)據(jù)庫相似的結(jié)論,即提出的DDR-DL方法實(shí)現(xiàn)了最高的識(shí)別率,當(dāng)訓(xùn)練樣本數(shù)不是很充足的時(shí)候,相對(duì)于其他方法,所提方法的識(shí)別效果更佳。

        表3 在MPIE數(shù)據(jù)庫上不同數(shù)量訓(xùn)練樣本的識(shí)別率

        表4列出了對(duì)比方法在不同維度特征上的識(shí)別率。隨機(jī)取4張人臉圖像用于訓(xùn)練,剩下的所有圖像用于測試,同樣重復(fù)執(zhí)行50次。

        表4 在MPIE數(shù)據(jù)庫中不同特征維度的識(shí)別率

        從表4可以得出,與在AR數(shù)據(jù)庫中觀察的結(jié)果相似,隨著維度的增加,相比于其他方法,本文提出的DDRDL方法有明顯改善,同時(shí),LDA+SRC和LDA+CRC在MPIE上有較好的性能,因?yàn)樗褂玫腗PIE是含有249個(gè)不同類別的大型數(shù)據(jù)庫,它允許LDA利用足夠多的投影來對(duì)查詢樣本進(jìn)行分類。

        2.4 性能分析

        為了更好地體現(xiàn)所提方法的優(yōu)越性,這里分析了所提方法的計(jì)算復(fù)雜度,包括訓(xùn)練時(shí)間復(fù)雜度、測試時(shí)間復(fù)雜度及空間復(fù)雜度,并與其他線性方法進(jìn)行了比較,比較結(jié)果如表5所示,其中,m,n分別表示圖像矩陣的行數(shù)和列數(shù),L,M,N分別表示投影向量數(shù)、測試樣本數(shù)、訓(xùn)練樣本數(shù)。

        表5 各個(gè)方法的時(shí)間復(fù)雜度比較

        從表5可以看出,所提方法在訓(xùn)練階段的時(shí)間復(fù)雜度稍高,但是與LDA+CRC、LDA+SRC方法相比還是有明顯的優(yōu)勢,測試階段的時(shí)間復(fù)雜度、空間復(fù)雜度都不比其他方法遜色,甚至比LDA+CRC方法低得多。

        綜上可知,所提方法與 DR-SRC[6],MFL-SRC[6],PCA+SRC[7],PCA+CRC[8],F(xiàn)DDL[9],LDA+SRC[10],LDA+CRC[11]方法相比,雖然在復(fù)雜度方面沒有很大的改善,但是在識(shí)別率方面有了很大的提高。

        3 總結(jié)

        本文提出了人臉識(shí)別中一種基于判別性降維的字典學(xué)習(xí)(DDR-DL)方法,與很多注意力集中在字典學(xué)習(xí)(DL)或使用PCA和LDA進(jìn)行降維(DR)的方法不同,DDR-DL通過將它們耦合進(jìn)行統(tǒng)一的框架來最小化功率,兼顧了DR和DL處理的相互作用。實(shí)驗(yàn)結(jié)果表明,提出的DDR-DL方法優(yōu)于其他幾種先進(jìn)的人臉識(shí)別方法。

        未來會(huì)改變不同的初始參數(shù)設(shè)置,探索更多的參數(shù)變化對(duì)方法性能的影響,并結(jié)合其他的基礎(chǔ)方法,在提高人臉識(shí)別率的同時(shí),注重改善識(shí)別的效率,以適應(yīng)現(xiàn)實(shí)生活中的實(shí)時(shí)交互。

        :

        [1]孫吉貴,劉杰,趙連宇.聚類算法研究[J].軟件學(xué)報(bào),2008,19(1):48-61.

        [2]WRIGHT J,YANG A Y,GANESH A,et al.Robust face recognition via sparse representation[J].IEEE Trans.Pattern Analysis and Machine Intelligence,2009,31(2):210-227.

        [3]楊關(guān),馮國燦,陳偉福,等.紋理分析中的圖模型[J].中國圖象圖形學(xué)報(bào),2011,16(10):1818-1825.

        [4]HAFIZ F,SHAFIE A A,MUSTAFAH Y M.Face recognition from single sample per person by learning of generic discriminant vectors[J].Procedia Engineering,2012,45(2):465-472.

        [5]喬立山,陳松燦,王敏.基于相關(guān)向量機(jī)的圖像閾值技術(shù)[J].計(jì)算機(jī)研究與發(fā)展,2010,47(8):1329-1337.

        [6]GUANG N,TAO D,LUO Z,et al.Online nonnegative matrix factorization with robust stochastic approximation[J].IEEE Trans.Neural Networks and Learning Systems,2012,23(7):1087-1099.

        [7]王佳奕,葛玉榮.基于Contourlet及支持向量機(jī)的紋理識(shí)別方法[J].計(jì)算機(jī)應(yīng)用,2013,33(3):677-679.

        [8]WRIGHT J,YANG A Y,GANESH A,et al.Robust face recognition via sparse representation[J].IEEE Trans.Pattern Analysis and Machine Intelligence,2009,31(2):210-227.

        [9]ZHANG Z,WANG J,ZHA H.Adaptive manifold learning[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2012,34(1):131-137.

        [10]HE R,HU B G,YUAN X T.Robust discriminant analysis based on nonparametric maximum entropy[J].Advances in Machine Learning,2009,54(3):120-134.

        [11]文喬龍,萬遂人,徐雙.Fisher準(zhǔn)則和正則化水平集方法分割噪聲圖像[J].計(jì)算機(jī)研究與發(fā)展,2012,49(6):1339-1347.

        [12]ZHONG L W,KWOK J T.Efficient sparse modeling with automatic feature grouping[J].IEEE Transactions on Neural Networks and Learning Systems,2012,23(9):1436-1447.

        猜你喜歡
        訓(xùn)練樣本識(shí)別率字典
        開心字典
        家教世界(2023年28期)2023-11-14 10:13:50
        開心字典
        家教世界(2023年25期)2023-10-09 02:11:56
        基于類圖像處理與向量化的大數(shù)據(jù)腳本攻擊智能檢測
        人工智能
        基于真耳分析的助聽器配戴者言語可懂度指數(shù)與言語識(shí)別率的關(guān)系
        提升高速公路MTC二次抓拍車牌識(shí)別率方案研究
        寬帶光譜成像系統(tǒng)最優(yōu)訓(xùn)練樣本選擇方法研究
        融合原始樣本和虛擬樣本的人臉識(shí)別算法
        我是小字典
        基于稀疏重構(gòu)的機(jī)載雷達(dá)訓(xùn)練樣本挑選方法
        亚洲国产精品无码专区在线观看| 亚洲人成网站www| 亚洲国产一区二区三区,| 亚洲av毛片在线播放| 免费人成视频网站在线不卡 | 中文字幕人成乱码熟女| 亚洲av无码专区在线播放中文| 色欲麻豆国产福利精品| 中文字幕亚洲综合久久| 日本精品人妻一区二区| 久久免费看黄a级毛片| 最新国产福利在线观看精品| 欧美性xxxx狂欢老少配| 亚洲av午夜成人片精品| 日本免费三级一区二区| 亚洲精品乱码久久久久久 | 潮喷失禁大喷水aⅴ无码| 亚洲精品综合欧美一区二区三区| 91热久久免费精品99| 亚洲综合天堂一二三区| 日本免费一区二区三区在线播放| 日日摸天天摸97狠狠婷婷| 天天看片视频免费观看| 一区二区三区免费视频网站| 亚洲精品国产熟女久久久| 亚洲a无码综合a国产av中文| 国产精品无码久久久久成人影院| 中文字幕经典一区| 国产av区亚洲av毛片| 91精品国产色综合久久| 亚洲精品无码永久在线观看你懂的| 亚洲丁香五月激情综合| 国产一区二区三区视频免费在线| 亚洲不卡av一区二区三区四区| 五十六十日本老熟妇乱| 日本阿v网站在线观看中文| 国语憿情少妇无码av| 白嫩少妇高潮喷水av| a级国产乱理伦片| 国产精品成人免费视频网站京东| AV无码专区亚洲AVL在线观看|