亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種隨機平均分布的集成學習方法

        2022-02-19 10:23:52艾旭升盛勝利李春華
        計算機應用與軟件 2022年2期
        關鍵詞:樣例分類器語音

        艾旭升 盛勝利 李春華

        1(蘇州工業(yè)職業(yè)技術學院軟件與服務外包學院 江蘇 蘇州 215104) 2(蘇州科技大學電子與信息工程學院 江蘇 蘇州 215009)

        0 引 言

        情感引導非語言的社會信號(例如肢體語言和面部表情)表達需求,需求和欲望是人類交流中重要的副語言信息。目前,語音情感識別在醫(yī)療和心理咨詢、客戶服務和電信等領域已經(jīng)有著廣泛的應用。在醫(yī)療領域,語音情感識別可以幫助臨床醫(yī)生在線評估患者因情緒困難而產(chǎn)生的心理障礙。在客戶呼叫中心行業(yè)中,語音情感識別自動檢測客戶的滿意度,提高服務質量。在電信領域,語音情感識別幫助調度中心優(yōu)先接入高優(yōu)先級的緊急呼叫。

        近年來,注意力模型引起了學術界的廣泛關注。特別是在圖像處理、語音識別和自然語言處理領域,注意力模型與卷積循環(huán)神經(jīng)網(wǎng)絡的結合可以更好地聚焦輸入目標,成為學術界關注的熱點。在語音情感識別中,各個幀對情感的影響并不相同,注意力模型估計每個幀的重要性,而不是簡單取平均值或最大值,有利于卷積循環(huán)神經(jīng)網(wǎng)絡更準確地識別目標情感。在訓練過程中,學習算法往往采用交叉熵損失函數(shù)評價模型的好壞,通過減少損失函數(shù)值逐漸逼近最佳模型。然而大多數(shù)語音情感樣本的樣例分布并不平衡,存在多數(shù)類樣例數(shù)大于少數(shù)類樣例數(shù)的現(xiàn)象,訓練得到的模型識別少數(shù)類的能力偏低,影響模型的整體性能。因此,在不平衡樣本上訓練模型時,需要考慮不平衡問題,防止模型向多數(shù)類偏置。

        為解決傳統(tǒng)機器學習中的不平衡問題,學術界已經(jīng)提出了很多方法或算法,一些方法在深度學習領域仍然適用。比如Bagging并不與具體算法相關,方便遷移到深度學習領域。然而,當基于放回抽樣的Bagging應用到深度學習時,經(jīng)過有限輪學習后,基分類器的訓練誤差盡管接近0,重復的訓練樣例還是帶來了過學習風險,降低綜合分類器的情感識別能力。為解決傳統(tǒng)Bagging方法的過學習問題,本文基于機會均等原則,提出一種隨機平均分布的集成方法(Redagging)。Redagging等概率地把訓練樣例放入子訓練樣本,避免子訓練樣本中的重復樣例,提高綜合分類器的預測能力。圖1展示了在10個IEMOCAP樣本上兩種集成方法的實驗結果,深色柱體代表Bagging基分類器的平均UAR(Unweighted Average Recall),淺色柱體代表Redagging基分類器的平均UAR。可以看出,在大多數(shù)樣本上,Redagging基分類器的平均UAR明顯高于Bagging基分類器的平均UAR,因而只要保證Redagging基分類器的異構性,理論上Redagging綜合分類器的性能將超越Bagging綜合分類器的性能。

        圖1 兩種集成學習方法的基分類器比較

        1 相關工作

        語音情感識別研究初期,大多采用傳統(tǒng)機器學習方法,語音信號轉化為統(tǒng)計特征后,語音情感識別轉化為多分類問題[1-2]。隨著深度學習在圖像識別方面的成功應用,深度學習也開始解決語音情感識別問題,其中卷積循環(huán)神經(jīng)網(wǎng)絡和注意力模型受到廣泛關注[3-4]。Lee等[5]開始采用雙向長短期記憶網(wǎng)絡(BiLSTM)抽取高層屬性,情感識別準確率明顯提高。Trigeorgis等[6]結合卷積神經(jīng)網(wǎng)絡(CNN)和雙向長短期記憶網(wǎng)絡(BiLSTM),抽取語音信號代表的高層特征,進一步提高了識別精度。Chen等[7]在前面工作的基礎上,提出融入關注度模型的卷積循環(huán)神經(jīng)網(wǎng)絡,處理3通道的底層特征,顯著提高了卷積循環(huán)神經(jīng)網(wǎng)絡的情感識別能力。Latif等[8]采用多種濾波器寬度的并行卷積層,直接從原始語音中捕獲各種上下文信息,取得了良好的實驗效果。Kwon[9]提出深度跨步卷積神經(jīng)網(wǎng)絡(DSCNN),聚焦語音信號的顯著性和描述性特征,從而提高預測準確率。

        同時,深度學習的不平衡問題也引起研究者的重視,學者開始重新評估以往不平衡問題的解決方法,試圖遷移到深度學習領域。Hensman等[10]研究不平衡數(shù)據(jù)集對CNN神經(jīng)網(wǎng)絡的影響,指出過采樣是抵消樣本分布不平衡的可行方法。Lin等[11]在交叉熵損失函數(shù)的基礎上,提出焦點損失函數(shù)(Focal Loss),在存在大量背景樣本的情況下,顯著提高前景物體的識別精度。Etienne等[12]通過聲道長度擾動合成少數(shù)類樣例,合成的少數(shù)類樣例和原樣本一起訓練模型,改善模型預測少數(shù)類的能力。Buda等[13]比較多種不平衡問題解決方法,分析不平衡數(shù)據(jù)集對CNN神經(jīng)網(wǎng)絡分類的影響,認為不平衡問題確實存在,需要采用過采樣方法和選取合適的閾值來提高模型的預測能力。Zheng等[14]從不同角度抽取情感特征來構建異構基分類器,然后使用集成學習方法執(zhí)行情感識別任務。目前,在深度學習領域,集成學習解決不平衡問題的研究還很少,缺乏集成學習方法和其他不平衡學習方法的比較研究,而易于移植的集成學習方法是快速提高學習算法性能的常用途徑之一,遷移集成學習方法到深度學習領域具有重要的研究價值。

        一般來說,集合學習方法分為三種:Bagging[15]、Boosting[16]和Stacking[17]。Bagging采用有放回抽樣構建子訓練樣本,每個子訓練樣本構建一個模型,最終的分類結果由全部模型的投票結果決定。Boosting通過增加錯誤分類樣例的權重和降低正確分類樣例的權重逐步提高模型的分類能力,是一種串行集成方法。Stacking先訓練多種類型的基分類器,然后把多個基分類器的輸出作為輸入傳輸?shù)皆诸惼?,最后由元分類器判定分類結果。Boosting是通過降低訓練誤差而提高泛化誤差,而深度學習算法經(jīng)過有限輪后訓練誤差逼近0,因而Boosting并不適用深度學習任務。Stacking構造多種類型的基分類器,不適用提升單種模型的預測能力。Bagging通過抽樣樣本構建異構的基分類器,與具體學習算法分離,并且基分類器構建過程并行進行,具有良好的移植性和擴展性。本文提出的Redagging方法仍然具備Bagging的優(yōu)點,與Bagging相比,Redagging有2個不同點:(1) 訓練樣例在一個子訓練樣本中很少重復出現(xiàn);(2) 訓練樣例平均分布到子訓練樣本。

        2 卷積循環(huán)神經(jīng)網(wǎng)絡和注意力模型

        2.1 輸入向量

        mi=log(qi)

        (1)

        (2)

        (3)

        2.2 卷積循環(huán)神經(jīng)網(wǎng)絡

        輸入x后,首先卷積層(CNN)捕捉低層特征,接下來的BiLSTM層包含2個LSTM單元,分別順序和逆序提取高層特征,接著進入全連接層后,輸出向量p=(p1,p2,…,pT)。任意t∈{1,2,…,T},pt代表情感et的概率,最后標簽y判定為T個情感中pt取得最大值的情感。卷積循環(huán)神經(jīng)網(wǎng)絡(CRNN)結構如圖2所示,其中通道數(shù)c為1或3。

        圖2 卷積循環(huán)神經(jīng)網(wǎng)絡

        CRNN的BiLSTM層簡單地認為每個幀對目標情感的貢獻度相同,但研究證明各個幀對目標情感的貢獻度并不一致[4],而圖2的網(wǎng)絡結構并沒有考慮由此帶來的影響,下面給出一種融入注意力模型的卷積循環(huán)神經(jīng)網(wǎng)絡模型ARCNN以解決這一問題。

        2.3 融入注意力模型的卷積循環(huán)神經(jīng)網(wǎng)絡

        (4)

        式中:W表示可訓練的網(wǎng)絡參數(shù)。

        (5)

        ARCNN整體設計如圖3所示。

        圖3 注意力卷積循環(huán)神經(jīng)網(wǎng)絡

        基于圖3定義的網(wǎng)絡結構,ARCNN各層的參數(shù)設置如表1所示。每個全卷積層都跟著一個Max池化層,最后一個池化層輸出大小為300×5×512,經(jīng)過全連接層后,轉化為768維的序列,再經(jīng)過BiLSTM層后,向量大小變成300×256。接下來的全連接層轉換到300×1向量,然后采用式(4)和式(5)計算語句情感特征,再經(jīng)過全連接層和Softmax激活函數(shù)后,輸出概率最大的分量下標y。

        表1 ARCNN架構

        需要說明的是,每個池化層、第1個全連接層和第3個全連接層都跟著BatchNormalization層[18]和LeakyLeRU[19]激活層。因為BatchNormalization層和LeakyLeRU激活層不改變向量維度,為節(jié)省空間沒有在表1中列出。后面的實驗把ARCNN作為基準方法或基分類器。

        3 基于隨機平均分布的集成學習方法

        給定一個訓練集D={(x1,y1),(x2,y2),…,(xm,ym)},xi∈X,yi∈Y,X代表樣例空間,Y={0,1,…,T-1}。按照yi值進行劃分,得到T個訓練子集{D1,D2,…,DT},任意t∈{1,2,…,T},Dt中的元素yi值相同。為討論方便,假設|D1|<|D2|<…<|DT|,|Dt|代表Dt的大小。

        3.1 Bagging

        算法1Bagging

        輸出:H(x)=argmax(p)

        %argmax取p最大分量的下標

        fork=1,2,…,K

        fort=1,2,…,T

        end for

        end for

        p=(h1(x)+h2(x)+…+hK(x))/K

        %取平均值

        證明:事件A0:x不出現(xiàn),那么:

        事件A1:x出現(xiàn)1次,那么:

        因為P(A)=1-P(A0)-P(A1)=

        已知d→+∞,dt≈d,因此:

        為了避免自舉樣本重復樣例帶來的過學習問題,需要減少重復樣例。另外,基分類器的異構性同樣重要,同構的基分類器也不能提高模型的識別能力。

        3.2 Redagging

        Redagging基于標簽t的訓練子集Dt,隨機生成不少于K|D1|個樣例的樣本池Dt*,然后把Dt*按照順序分配到每個自舉樣本Dk。因為新方法把每個樣例隨機平均分布到自舉樣本,所以命名為隨機平均分布集成方法(Redagging)。其中:K代表自舉樣本數(shù),|D1|代表訓練集中少數(shù)類樣例數(shù);|DT|代表多數(shù)類樣例數(shù)。Redagging的偽代碼實現(xiàn)如算法2所示,其中偽隨機數(shù)采用NumPy[20]提供的梅森旋轉算法[21]接口生成。

        算法2Redagging

        輸出:H(x)=argmax(p)

        %argmax取p最大分量的下標

        fort=1,2,…,T

        fori=1,2,…,I

        r=產(chǎn)生一個偽隨機數(shù);

        Dt,i=基于r生成Dt的隨機排列;

        end for

        Dt*=Dt,1∪Dt,2∪…∪Dt,I;

        %Dt*為標簽t生成至少K|D1|個樣例

        end for

        fork=1,2,…,K

        fort=1,2,…,T

        %[]取Dt*中第k段t標簽樣本

        end for

        end for

        p=(h1(x)+h2(x)+…+hK(x))/K

        %取平均值

        與Bagging相比,Redagging在所有自舉樣本上平均分布樣例,重復樣例很低,自舉樣本由于隨機數(shù)種子不同,仍然保持樣本間的差異性。在10個IEMOCAP[22]數(shù)據(jù)集上比較Bagging和Redagging,實驗結果如圖4所示。可以看出,Redagging基分類器的平均UAR高于Bagging基分類器的平均UAR,表明自舉樣本的重復樣例造成性能下降;并且,Redagging的UAR也高于基分類器的平均UAR,反映了基分類器的異構性。

        圖4 兩種方法在10個IEMOCAP數(shù)據(jù)集上的UAR比較

        4 實驗與結果分析

        實驗運行在H3C G4900服務器上,服務器配置Tesla V100獨立32 GB GPU顯卡,安裝Python 3.7.0、CUDA 10.01加速平臺和cuDNN 7.4.2.24深度學習加速平臺。

        語音信號通過python_speech_features庫[23]轉換語音信號到輸入向量,窗口大小等于25 ms,位移等于10 ms,采用NumPy[20]數(shù)組存儲向量和執(zhí)行矩陣運算。為區(qū)別通道數(shù)c=1或c=3兩種情況,命名ARCNN有兩個別名:通道數(shù)c=1時,ARCNN命名為ARCNN-2D;輸入通道數(shù)c=3時,ARCNN命名為ARCNN-3D。ARCNN各層調用Keras[24]函數(shù)實現(xiàn),采用categorical_crossentropy損失函數(shù)[25]評價模型,選擇Adam優(yōu)化器[26],學習率設為10-3。

        在IEMOCAP和EMODB[27]數(shù)據(jù)集上,ARCNN-2D和ARCNN-3D作為基準方法,與過采樣、Bagging、欠采樣、Redagging作比較。過采樣隨機復制訓練集中的少數(shù)類樣例,直到所有標簽的樣例數(shù)相同。欠采樣隨機去除訓練集中的多數(shù)類樣例,直到所有標簽的樣例數(shù)相同。Bagging參照算法1,ARCNN-2D和ARCNN-3D作為基分類器。Redagging參照算法2,ARCNN-2D和ARCNN-3D作為基分類器??紤]到初始化權重的隨機性,每個實驗任務運行5次,取5次運行結果的平均值作為實驗結果。

        4.1 基于IEMOCAP數(shù)據(jù)庫的性能比較

        IEMOCAP由五個會話組成,每個會話由一對發(fā)言者(女性和男性)在背誦臺詞和即興表演情景中完成。樣例平均時長為4.5 s,采樣率為16 kHz,實驗在高興、憤怒、悲傷和中性四種情感樣本上運行。每個任務使用10-fold交叉驗證技術,每個樣本中的1個說話人構成測試集,另外1個說話人構成驗證集,其余8個說話人構成訓練集,10個樣本的訓練集描述如表2所示,驗證集和測試集的不平衡比與訓練集的不平衡比接近。實驗中Bagging和Redagging的K值設為5,當K>5,兩種方法的性能沒有顯著提升。

        表2 IEMOCAP訓練集描述

        在10個IEMOCAP樣本上測試ARCNN和4種不平衡方法,每個訓練集上循環(huán)10代取得最高UAR的模型,保存在驗證集上,五種方法在測試集上的平均UAR如表3所示??梢钥闯觯谖宸N方法中,Redagging表現(xiàn)最好,欠采樣和過采樣次之,采用ARCNN-3D作為基分類器的Bagging方法優(yōu)于未采樣的ARCNN-3D,但采用ARCNN-2D作為基分類器的Bagging方法和未采樣的ARCNN-2D保持在一個水平。為了進一步比較五種方法的整體表現(xiàn),進一步統(tǒng)計每個方法在10個樣本上的平均排名,統(tǒng)計結果如圖5所示??梢钥闯觯擜RCNN-2D作為基準方法時,采用ARCNN-2D作為基分類器的Redagging平均排名最靠前,欠采樣次之,緊跟著是過采樣和采用ARCNN-2D基分類器的Bagging方法,平均排名最低的是未采樣的ARCNN-2D;當ARCNN-3D作為基準方法時,采用ARCNN-3D作為基分類器的Redagging平均排名仍然最靠前,欠采樣次之,過采樣和采用ARCNN-3D基分類器的Bagging方法并不比未采樣的ARCNN-3D排名靠前。

        表3 五種方法在10個IEMOCAP樣本上的平均UAR

        圖5 五種方法在10個IEMOCAP樣本上的召回率平均排名

        F1值是召回率和精度的加權平均,當評價不平衡學習方法時,F(xiàn)1值是一個重要指標。當算法在10代內(nèi)取得最大召回率時,對應的平均F1值如表4所示??梢钥闯?,在五種方法中,Redagging表現(xiàn)最好,欠采樣次之,過采樣和Bagging并沒有顯著提高未采樣的ARCNN性能。為了進一步比較方法在不同樣本的表現(xiàn),統(tǒng)計每個方法在10個樣本上的F1值平均排名,統(tǒng)計結果如圖6所示??梢钥闯?,在五種方法中,Redagging平均排名最靠前,欠采樣緊隨其后,過采樣和Bagging平均排名墊底。需要指出的是,盡管采用ARCNN-2D基分類器的欠采樣方法提升了ARCNN-2D性能,但由于欠采樣是隨機去除訓練樣例訓練單個分類器,性能容易波動。在表4中,基于ARCNN-2D的欠采樣方法比基準方法的平均F1值高,而在圖6中,它的F1值平均排名比基準方法靠后,正反映了欠采樣方法的不穩(wěn)定性。

        表4 五種方法在10個IEMOCAP樣本上的平均F1值

        圖6 五種方法在10個IEMOCAP樣本的F1值平均排名

        在表3和表4中,ARCNN-3D性能并沒有超越ARCNN-2D,原因可能是ARCNN-3D輸入有更多的通道,需要采用更多的卷積層。這種超出了本文的討論范圍,并且性能更好的分類器也會帶來不平衡方法的性能提升,不會影響上面的分析結果

        4.2 基于Emo-DB數(shù)據(jù)庫的性能比較

        Emo-DB由10位專業(yè)演員的535句話組成,涵蓋7種情緒(中立、恐懼、喜悅、憤怒、悲傷、厭惡和無聊),原始音頻在44.1 kHz采樣,后來下采樣到16 kHz。盡管大多數(shù)論文采用了全部7種情感,但事實上焦慮和厭惡兩種情感在某些驗證集上樣例數(shù)小于3個,而每次實驗是在25代中找到UAR最高的模型,采用這兩種情感樣本易于造成實驗數(shù)據(jù)波動,因此在本實驗中只采用了憤怒、無聊、高興、悲傷和中性五種情感樣本。實驗使用10-fold交叉驗證技術。每個樣本中的1個說話人構成測試集,另外1個說話人構成驗證集,剩下的8個說話人構成訓練集,10個樣本的訓練集描述如表5所示,驗證集和測試集的不平衡比與訓練集的不平衡比接近。實驗中Bagging和Redagging的K值設為4,當K>4,兩種方法的性能沒有顯著提升。

        表5 EMODB訓練集描述

        在10個EMODB樣本上測試ARCNN和4種不平衡方法,每個訓練集上循環(huán)25代,取得最高UAR的模型保存在驗證集上,五種方法在測試集上平均UAR如表6所示??梢钥闯觯谖宸N方法中,Redagging表現(xiàn)最好,過采樣次之,然后是Bagging,欠采樣并沒有提升ARCNN性能。為了進一步比較5種方法的整體表現(xiàn),進一步統(tǒng)計每個方法在10個樣本上的UAR平均排名,統(tǒng)計結果如圖7所示。

        表6 五種方法在10個EMODB樣本上的平均UAR

        圖7 五種方法在10個EMODB樣本上的UAR平均排名

        可以看出,當ARCNN-2D作為基準方法時,采用ARCNN-2D作為基分類器的Redagging平均排名最靠前,過采樣次之,緊跟著是采用ARCNN-2D基分類器的Bagging方法,欠采樣平均排名跟在ARCNN-2D之后;當ARCNN-3D作為基準方法時,采用ARCNN-3D作為基分類器的Redagging平均排名仍然最靠前,過采樣次之,采用ARCNN-3D作為基分類器的Bagging方法緊隨其后,然后是欠采樣,未采樣的ARCNN-3D平均排名最低。

        當算法在25代內(nèi)取得最大UAR時,對應的平均F1值如表7所示。可以看出,與未采樣的ARCNN相比,不平衡學習方法都提高了平均F1值,其中Redagging提高最顯著。為了進一步比較方法在不同樣本的表現(xiàn),進一步統(tǒng)計每個方法在10個樣本上的平均排名,統(tǒng)計結果如圖8所示??梢钥闯觯谖宸N方法中,Redagging平均排名最靠前,其他不平衡學習方法的平均排名也高于未采樣的ARCNN。

        表7 五種方法在10個EMODB樣本上的平均F1值

        圖8 五種方法在10個EMODB樣本的F1值平均排名

        如果采用更多的卷積層,ARCNN-3D可能優(yōu)于ARCNN-2D,但這個差異不影響Redagging的優(yōu)越性,因為性能更好的基分類器也會進一步提升Redagging性能。整體而言,在IEMOCAP和EMODB兩個數(shù)據(jù)庫上的實驗表明,從UAR和F1值兩個指標來看,Redagging不僅優(yōu)于Bagging,也優(yōu)于重采樣和欠采樣方法,有效提高了ARCNN的情感識別能力。

        5 結 語

        本文基于卷積循環(huán)網(wǎng)絡和注意力模型,提出基于隨機平均分布的集成學習方法(Redagging),解決了Bagging方法的過學習問題,提升了ARCNN的分類性能。在IEMOCAP和EMODB數(shù)據(jù)庫的實驗結果表明,與包括Bagging在內(nèi)的其他不平衡學習方法相比,不管單通道輸入向量還是3通道輸入向量,Redagging都能提升卷積循環(huán)神經(jīng)網(wǎng)絡和注意力模型的情感識別能力,驗證了本文方法的有效性。

        Redagging是Bagging方法的改進版本,獨立于具體學習算法,適用于在不平衡數(shù)據(jù)集上提升基分類器(比如深度神經(jīng)網(wǎng)絡模型)的泛化能力。事實上,在機器學習技術的應用場景下,只要存在不平衡數(shù)據(jù)集帶來的模型偏置問題,Redagging都可能有所幫助。本文以語音情感識別任務為例,證實了Redagging方法的合理性和有效性,未來將推廣到圖像識別領域,研究解決背景檢測、異常行為檢測和人臉屬性識別等任務的不平衡問題。

        猜你喜歡
        樣例分類器語音
        樣例復雜度與學習形式對不同數(shù)量樣例學習的影響
        樣例呈現(xiàn)方式對概念訓練類別表征的影響
        心理學探新(2022年1期)2022-06-07 09:15:40
        “樣例教學”在小學高年級數(shù)學中的應用
        魔力語音
        基于MATLAB的語音信號處理
        電子制作(2019年14期)2019-08-20 05:43:38
        基于MQ3與MP3的價廉物美的酒駕語音提醒器
        電子制作(2019年9期)2019-05-30 09:42:10
        對方正在輸入……
        小說界(2018年5期)2018-11-26 12:43:42
        BP-GA光照分類器在車道線識別中的應用
        電子測試(2018年1期)2018-04-18 11:52:35
        加權空-譜與最近鄰分類器相結合的高光譜圖像分類
        結合模糊(C+P)均值聚類和SP-V-支持向量機的TSK分類器
        亚洲av乱码二区三区涩涩屋| 国产va免费精品高清在线观看| 亚洲gv白嫩小受在线观看| 狼友AV在线| 亚洲影院在线观看av| 日韩精品在线视频一二三| 亚洲精品无码国产| 99精品久久这里只有精品| av日本一区不卡亚洲午夜| 亚洲黄色一级在线观看| 国产白嫩护士被弄高潮| 亚洲福利视频一区| 人妻少妇喷水意淫诱惑| 国产桃色一区二区三区| gv天堂gv无码男同在线观看| 久久亚洲精品成人| 国产一区二区三区经典| av网站在线观看入口| 国产精品_国产精品_k频道| 精品欧美久久99久久久另类专区| 日本一区二区三区看片| av免费不卡一区二区| 亚洲av午夜福利精品一区二区 | 亚洲aⅴ天堂av天堂无码麻豆| 九九精品视频在线观看| 国产丝袜高跟美腿一区在线| 亚洲最大在线视频一区二区| 米奇7777狠狠狠狠视频影院| 亚洲综合色一区二区三区另类| 91精品亚洲一区二区三区| 91亚洲国产成人精品一区.| 人人妻人人澡人人爽欧美一区九九| 国产成人av 综合 亚洲| 久久久久久免费播放一级毛片| 中文乱码字幕人妻熟女人妻| 国产亚州精品女人久久久久久| 亚洲а∨精品天堂在线| 国产91吞精一区二区三区| 日本人妻三级在线观看| 欧美日韩精品乱国产| 国产精品乱码在线观看|