亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于堆疊式注意力機制的隱式篇章關(guān)系識別

        2020-09-14 06:51:28阮慧彬徐揚孫雨洪宇周國棟
        山西大學學報(自然科學版) 2020年3期
        關(guān)鍵詞:論元語料注意力

        阮慧彬,徐揚,孫雨,洪宇,周國棟

        (蘇州大學 計算機科學與技術(shù)學院,江蘇 蘇州 215006)

        0 引言

        篇章關(guān)系識別是自然語言處理(Natural Language Processing,NLP)中的一項基礎任務,對其他自然語言處理任務具有廣泛應用價值,如情感分析[1]、事件抽取[2-3]、問答[4]、自動文摘[5]及機器翻譯[6-8]等。篇章關(guān)系識別旨在判定兩個連續(xù)的文本片段(即“論元”)Arg1和Arg2之間的語義關(guān)系。具體地,給定兩個論元Arg1和Arg2,通過分類器判斷兩者間的篇章關(guān)系,其任務框架如圖1所示。

        圖1 篇章關(guān)系識別任務框架Fig.1 Task framework of discourse relation recognition

        作為篇章關(guān)系識別研究任務的重要語料資源,賓州篇章樹庫[9](Penn Discourse Treebank,PDTB)將篇章關(guān)系分為四大類:對比關(guān)系(Compa-rison)、偶然性關(guān)系(Contingency)、擴展關(guān)系(Expansion)、時序關(guān)系(Temporal)。此外,依據(jù)論元對之間是否存在顯式連接詞,PDTB將篇章關(guān)系分為兩類:顯式篇章關(guān)系(Explicit Discourse Relation)和隱式篇章關(guān)系(Implicit Discourse Relation)。

        例1 [Arg1] The computer system was operating

        (譯文:電腦系統(tǒng)正在運行)

        [Arg2] [Explicit=so] orders could be taken.

        (譯文:[所以]可以接受訂單)

        [篇章關(guān)系] Contingency.Cause.Result。

        例2 [Arg1] I’m not so young anymore.

        (譯文:我已經(jīng)不再年輕)

        [Arg2] [Implicit=So] I won’t be throwing 90 mph.

        (譯文:我的拋出速度不會超過90英里/小時)

        [篇章關(guān)系] Contingency.Cause.Result。

        顯式篇章關(guān)系指直接由連接詞觸發(fā)的篇章關(guān)系類型,其論元間的篇章關(guān)系可根據(jù)連接詞來判定。如例1中的Arg2是Arg1的結(jié)果,其因果關(guān)系可通過連接詞“so”推斷得到。而如例2所示,隱式篇章關(guān)系缺乏連接詞等直觀推理線索,導致其難以被直接識別。因此,隱式篇章關(guān)系識別更依賴于深層的語義、句法以及上下文特征。本文主要研究隱式篇章關(guān)系識別。

        傳統(tǒng)的隱式篇章關(guān)系識別方法主要依賴于特征工程,如Pitler[10]等抽取論元對的詞對、動詞類型、動詞短語長度及情感詞的極性等作為分類特征,在PDTB的四大類關(guān)系上取得優(yōu)于隨機分類的性能。Lin[11]等在Pitler[10]等的基礎上提出使用句法結(jié)構(gòu)特征和依存特征構(gòu)建分類器。Rutherford和Xue[12]使用布朗聚類特征替代傳統(tǒng)的詞對特征,一定程度上緩解了特征表示稀疏問題,同時,他們還使用指代消解獲取實體級特征,以更好地對論元進行表示。Li[13]等進一步優(yōu)化句法特征的表示方法,以解決特征表示稀疏問題。

        近年來,由于分布式詞表示[14]一定程度上緩解了表示稀疏問題,且神經(jīng)網(wǎng)絡模型在自然語言處理領域獲得一定成果。越來越多的研究者們構(gòu)建精巧的神經(jīng)網(wǎng)絡模型來進行隱式篇章關(guān)系識別。如 Zhang等[15]使用淺層卷積神經(jīng)網(wǎng)絡(Convolutional Neural Network,CNN)對隱式篇章關(guān)系進行分類,其在四種關(guān)系上的分類性能均有所提升。Qin等[16]通過同一個CNN提取兩個論元的特征,在高速公路模型(Highway Network)的基礎上引入新的門控機制,來約束論元特征的交互。Chen等[17]采用門控機制來表征論元詞對之間的相關(guān)性。Guo等[18]對論元表示進行交互式注意力計算,以得到加權(quán)后的論元表示,作為張量神經(jīng)網(wǎng)絡(Neural Tensor Network,簡稱為NTN)的輸入,并設計了包含L1和L2正則項的目標函數(shù)。Bai和Zhao[19]使用不同粒度的詞向量對論元進行表示,并使用卷積和遞歸編碼塊捕獲單個論元向量的信息,通過殘差及注意力機制獲得最終表示。Nguyen等[20]在Bai和Zhao[19]的基礎上,將關(guān)系表示和連接詞表示映射到同一空間中來實現(xiàn)知識遷移,從而提升隱式篇章關(guān)系識別性能。此外,為了緩解隱式篇章關(guān)系語料不足的問題,前人引入外部知識來輔助隱式篇章關(guān)系識別,如Liu等[21]融合了CNN和多任務學習(Multi-Task)的思想,以隱式篇章關(guān)系分類為主任務,顯式篇章關(guān)系分類、連接詞分類等任務為輔助任務,并引入了RST-DT、New York Times Corpus等外部語料擴充訓練語料,從而提升分類器性能。Lan等[22]提出基于注意力機制的多任務學習方法進行隱式篇章關(guān)系識別,并引入外部語料BLLIP訓練詞向量。Wu等[23]利用中英文平行語料中顯隱式不匹配的特性(即中文顯式語料對應的英文語料中不存在連接詞),從中挖掘隱式英文篇章關(guān)系語料用于擴充PDTB訓練集。

        在隱式篇章關(guān)系識別任務上,前人將基于注意力機制(Attention Mechanism)的神經(jīng)網(wǎng)絡模型作為捕捉論元關(guān)鍵信息的核心方法之一[17-22]。注意力機制能夠捕捉詞義信息間的關(guān)聯(lián)性,借以對詞義特征的重要性進行判定,如篇章領域最具代表性的上下文信息等特征。然而,相關(guān)研究僅僅關(guān)注論元之間交互特性對論元表示的約束,而忽略了論元自身的關(guān)鍵語義特征。針對以上問題,本文提出了一種基于堆疊式注意力機制(Stacked Attention)的神經(jīng)網(wǎng)絡模型,并將其用于隱式篇章關(guān)系識別。這一方法融合了自注意力機制(Self-Attention)和交互式注意力機制(Interactive Attention),不僅能夠挖掘論元本身的有效特征,還融合了論元之間的交互信息。

        本文在PDTB 標準數(shù)據(jù)集上對上述方法進行測試,實驗結(jié)果表明融合兩種注意力機制的方法在隱式篇章關(guān)系分類上表現(xiàn)優(yōu)于基準模型,且其在擴展關(guān)系(Expansion)和時序關(guān)系(Temporal)上優(yōu)于目前的隱式篇章關(guān)系識別模型。

        1 基于堆疊式注意力的隱式篇章關(guān)系分類

        1.1 總體結(jié)構(gòu)

        本文提出的堆疊式注意力機制模型主要分為四個部分:首先,通過雙向長短時記憶[24](Bi-direc-tional Long Short-Term Memory,Bi-LSTM)分別編碼Arg1和Arg2得到論元表示;其次,在論元表示上進行自注意力權(quán)重計算,借以得到自注意力分布式特征;然后,將其用于交互式注意力權(quán)重的計算,以得到堆疊式注意力表示;最后,拼接兩個論元的堆疊式注意力表示,并將其輸入全連接層進行非線性變換,然后送入softmax層得到關(guān)系分類結(jié)果。

        圖2展示了模型整體框架,其中,對于論元中的每個單詞,我們先通過預訓練好的詞向量表將其映射為向量xw∈de,以初始化每個單詞的分布式表示,并對其進行拼接得到論元Arg1和Arg2的向量表示:

        (1)

        (2)

        其中,L1和L2分別為Arg1和Arg2的長度。

        在此基礎上,本文通過執(zhí)行以下學習過程實現(xiàn)論元關(guān)系的分類。

        圖2 基于堆疊式注意力機制的模型框架圖Fig.2 Framework of the stack-attention based model

        藏狀態(tài)表示H1和H2;

        2) 自注意力層將論元的隱藏狀態(tài)表示H1和H2作為輸入,分別通過矩陣運算得到每個單詞的自注意力權(quán)重分布,并以此獲得論元的自注意力表示R-SelfArg1和R-SelfArg2。

        4) 我們拼接R-StackArg1和R-StackArg2,作為全連接層(Fully Connected Layer)的輸入,并將最終的向量表示輸入softmax層進行篇章關(guān)系分類。

        1.2 Bi-LSTM層

        在輸入序列長度較大時,傳統(tǒng)的循環(huán)神經(jīng)網(wǎng)絡Recurrent Neural Network,RNN)存在遠距離信息丟失和梯度爆炸等問題。針對RNN的不足,Hochreiter和Schmidhuber[24]提出長短時記憶神經(jīng)網(wǎng)絡,其采用輸入門、遺忘門和輸出門來控制網(wǎng)絡結(jié)構(gòu)中細胞狀態(tài)的記憶程度,計算公式如下:

        (3)

        (4)

        ht=ot⊙tanh(ct),

        (5)

        其中,it,ot及ft分別為輸入門、輸出門及遺忘門,ct為細胞狀態(tài),ht為當前時刻的隱藏狀態(tài),w∈4dh×(dh+de)為權(quán)重矩陣,b∈4dh為偏置,σ為sigmoid激活函數(shù)。

        (6)

        (7)

        (8)

        (9)

        (10)

        1.3 自注意力機制

        (11)

        α1=softmax(μ1),

        (12)

        R-SelfArg1=α1H1。

        (13)

        同理,根據(jù)式(11)(12)和(13),我們可計算得到Arg2的自注意力表示R-SelfArg2。

        1.4 交互式注意力機制

        在Ma等[26]工作的基礎上,本文對其2.2節(jié)中每個單詞的隱藏狀態(tài)ht進行累加,以作為Arg1和Arg2的論元表示:

        (14)

        (15)

        (16)

        (17)

        其中,γ(·)的計算公式如下(以Arg1為例):

        (18)

        其中,W∈2dh×2dh為權(quán)重矩陣,b∈2dh為偏置?;谡撛慕换ナ阶⒁饬?quán)重ρt,我們對論元中每個單詞的隱藏狀態(tài)ht進行更新,并對其內(nèi)積結(jié)果進行累加,以得到論元的交互式注意力表示R-Inter。具體計算公式如下:

        (19)

        (20)

        1.5 堆疊式注意力機制

        為了對論元進行更好的表示,本文將1.3節(jié)提到的自注意力機制,堆疊于1.4節(jié)介紹的交互式注意力機制之上,以構(gòu)建表示能力更強的堆疊式注意力機制。具體地,針對1.4節(jié)的式(16)和(17),本文用1.3節(jié)所獲得的自注意力表示R-SelfArg1和R-SelfArg2,替換簡單的論元表示RArg1和RArg2,以得到堆疊式注意力權(quán)重向量βt。具體計算公式如下:

        (21)

        (22)

        基于論元的堆疊式注意力權(quán)重βt,我們對論元中每個單詞的隱藏狀態(tài)ht進行更新,并累加其內(nèi)積結(jié)果得到論元的堆疊式注意力表示R-Stack。具體計算公式如下:

        (23)

        (24)

        我們拼接論元的堆疊式注意力表示R-StackArg1和R-StackArg2,并使用全連接層對其進行降維,將降維后的特征向量送入softmax層進行分類,從而獲得論元對的類別標簽。

        1.6 模型訓練

        在各個關(guān)系上,我們使用隨機抽樣的方法,來構(gòu)造正負例平衡的訓練集。對于每個類別的分類器,我們采用Momentum[27]優(yōu)化器對參數(shù)進行更新,并通過交叉熵(Cross-Entropy)損失函數(shù)[28]度量每個樣本的預測代價。在實際操作中,給定一個論元對(R1,R2)及其類別標簽y,其損失函數(shù)定義如下:

        訪談中得知,除部分對英語非常感興趣的學生外,大部分學生以四、六級通過來“終結(jié)”英語學習,在通過四、六級考試后大大減少了花費在英語學習上的時間,加之大三之后學校沒有開設公共英語課程,學生接觸英語的機會越來越少,導致其英語水平隨年級升高而退步。

        (25)

        2 實驗

        2.1 實驗數(shù)據(jù)

        本文在PDTB數(shù)據(jù)集上對模型的隱式篇章關(guān)系識別性能進行評估,并以F1值(F1-score)和準確率(Accuracy)作為性能評價標準。依據(jù)前人工作[16],本文采用Sec 02-20作為訓練集,Sec 00-01作為開發(fā)集(又稱為“驗證集”),Sec 21-22作為測試集。其中,具體四大類篇章關(guān)系Comparison(Comp.)、Contingency(Cont.)、Expansion(Expa.)和Temporal(Temp.)的語料分布情況如表1所示。

        表1 PDTB隱式篇章關(guān)系數(shù)據(jù)分布

        由表1可知,各個關(guān)系類別上的數(shù)據(jù)分布不均衡,其中,擴展關(guān)系(Expansion)的樣本數(shù)量遠多于時序關(guān)系(Temporal)。因此,直接用所有數(shù)據(jù)訓練模型并進行測試的方法傾向于判定實例為樣本數(shù)量多的類別。同時,在每個關(guān)系類別上,其訓練集正負例分布不均衡(負例個數(shù)遠多于正例)。所以針對每個關(guān)系類別,我們對負例隨機抽樣來構(gòu)造平衡數(shù)據(jù),并用其訓練一個二分類器。這也是目前隱式篇章關(guān)系識別研究中通用的評測方法[18-22]。

        2.2 實驗設置

        本節(jié)針對所提模型Stacked-Attention設計了消融實驗,來展示所提模型不同部分對分類性能的影響。在實驗過程中,所有對比模型的參數(shù)設置與本文所提模型保持一致。

        1) Bi-LSTM(基準系統(tǒng)):將Arg1和Arg2的詞向量表示分別作為Bi-LSTM的輸入,以得到每個單詞的隱藏狀態(tài),將其分別拼接作為論元的隱藏狀態(tài)表示H1和H2。最后,拼接H1和H2并輸入全連接層進行關(guān)系分類。

        2) Self-Attention(自注意力機制):通過Bi-LSTM得到論元的隱藏狀態(tài)表示后,使用式(12)計算得到論元的自注意力權(quán)重,并通過式(13)更新論元表示向量,以得到的自注意力表示。最后,拼接Arg1和Arg2的自注意力表示向量,作為全連接層的輸入并進行分類。

        4) Stacked-Attention(堆疊式注意力機制):通過Bi-LSTM編碼得到論元的隱藏狀態(tài)表示后,使用Self-Attention獲得Arg1和Arg2的自注意力表示,并將其用于交互式注意力權(quán)重的計算(見式(21)和式(22)),以得到堆疊式注意力權(quán)重。在此基礎上,使用權(quán)重向量更新論元表示,以得到Arg1和Arg2的堆疊式注意力表示,將其拼接作為全連接層的輸入并進行關(guān)系分類。

        2.3 參數(shù)設置

        本文采用預訓練好的Glove[14]向量來初始化論元詞向量,并設定詞向量維度de為50。在訓練過程中,批(Batch size)大小為32, LSTM隱藏層的單元數(shù)dh為50,自注意力層的權(quán)重矩陣維度da為80。本文使用包含一個隱藏層的全連接層,其隱藏層神經(jīng)元個數(shù)為80。為了避免過擬合,我們在全連接層之后使用了dropout,其比率設置為0.1。本文采用交叉熵損失[28]作為模型的損失函數(shù),并使用Momentum[27]優(yōu)化器對參數(shù)進行更新,其學習率設置為0.001。

        2.4 實驗結(jié)果和討論

        本文針對所提模型進行了消融實驗。在PDTB四大類關(guān)系上,基準模型Bi-LSTM、基于自注意力機制、交互式注意力機制和堆疊式注意力機制的模型分類性能如表2所示。

        實驗結(jié)果表明,相較于基準模型Bi-LSTM,Self-Attention在F1值和準確率上都有所提升,其原因在于自注意力機制能夠捕獲論元表示中對自身較為重要的特征。同時,Interactive-Attention相較于Bi-LSTM在四大類關(guān)系上的分類性能也有所提升,其原因在于交互式注意力機制能夠捕獲論元之間的交互信息,并使用這一信息對論元表示進行更新,來得到含有交互信息的論元特征。而使用堆疊式注意力機制的模型分類性能優(yōu)于單獨使用自注意力機制或交互式注意力機制,其原因在于基于堆疊式注意力的方法有效地結(jié)合了兩種注意力機制的信息,不僅關(guān)注了論元本身的特征,還融入了另一論元的特征信息。此外,堆疊式注意力機制在四大類關(guān)系上的分類性能均優(yōu)于基準系統(tǒng),尤其在Temporal關(guān)系上,其F1值和準確率相對于基準系統(tǒng)分別提高了6.57和3.82個百分點。

        我們與前人工作進行了對比,具體性能如表3所示(表3中前人工作的性能來自原文獻)。其中,Bai等[19]使用基于字符、單詞、論元及論元對等不同粒度的特征表示方法,且在卷積神經(jīng)網(wǎng)絡和循環(huán)神經(jīng)網(wǎng)絡的基礎上,使用了殘差機制和注意力機制。相較之下,本文所提的Stacked-Attention在模型與論元的表示上較為簡單,只使用了預訓練好的詞向量。盡管如此,本文所提方法仍能在Expansion和Temporal關(guān)系上超越該方法。Liu[21]等引入了RST-DT、New York Times Corpus等外部語料庫訓練多任務模型,以隱式篇章關(guān)系識別為主任務,顯式篇章關(guān)系識別等為輔助任務。對于不同任務,Liu[21]等引入了詞、詞性、共現(xiàn)等人工特征以增加論元信息量。而本文只使用了標準PDTB隱式語料,并未引入外部特征,但在多個關(guān)系上的分類性能仍可超越其方法。

        表2 消融實驗結(jié)果

        表3 與現(xiàn)有模型對比(%)

        由表3可知,Guo等[18]的工作在所有關(guān)系上超越了本文所提模型,他們采用Bi-LSTM分別對兩個論元進行編碼,使用交互式注意力機制更新得到新的論元表示,將新的論元表示輸入張量神經(jīng)網(wǎng)絡中得到論元交互特征矩陣。Guo等[18]采用了L1正則化對張量項進行約束,采用L2正則化對其他參數(shù)進行約束。為了更好地對比本文所提堆疊式注意力機制和Guo等[18]的工作,我們對其工作進行了復現(xiàn),并使用堆疊式注意力機制代替他們原文中的交互式注意力機制來進行對比。由于Guo等[18]暫時沒有公布其源碼,且其原文中有些細節(jié)并未詳細說明(如L1正則化項的系數(shù)等)。因此,本文的復現(xiàn)結(jié)果并未達到其原文中的結(jié)果。在復現(xiàn)Guo等[18]工作的過程中,本文采用的L1正則化項系數(shù)為0.01,L2正則化項系數(shù)為0.01,且在張量神經(jīng)網(wǎng)絡中采用的激活函數(shù)為tanh。

        表4展示了本文復現(xiàn)的Guo等[18]工作的結(jié)果(即Guo*)和使用本文所提堆疊式注意力機制代替他們的交互式注意力機制的結(jié)果(即Stacked-Attention*)。由表4可知,堆疊式注意力機制在各個關(guān)系上的F1值超過了Guo等[18]使用的交互式注意力機制。

        本文使用自注意力機制、交互式注意力機制以及堆疊式注意力機制分別編碼例3中的論元對,以展示不同注意力機制對論元中各個成分的關(guān)注程度(見圖3)。其中,每個單詞對應的色塊顏色越深,表示該單詞獲得的注意力權(quán)重越大。在通常情況下,權(quán)重越大的單詞會直接影響最后的分類結(jié)果。

        例3 [Arg1]Lastspring,thecomptroller'sofficecalledahalttoMr.Paul'sfling,givinghimsixmonthstosellthepaintings.

        (譯文:去年春天,檢察官辦公室制止了保羅先生的胡鬧,給了他六個月的時間來賣這些畫。)

        [Arg2] [Implicit=Because]Theacquisitionswere"unsafe,unsoundandunauthorized".

        (譯文:這些對畫的收購是“不安全、不健全、未經(jīng)授權(quán)”。)

        [篇章關(guān)系] Contingency.Cause.Reason。

        由圖3可知,自注意力機制的特征學習能力較差,對“a”和“the”這種無意義的單詞也賦予較高的權(quán)重。同樣地,交互式注意力機制為Arg1中的“l(fā)astspring”和“sixmonth”及Arg2中的“were”賦予了較高的權(quán)重,因此其很容易導致此句被誤分類為時序關(guān)系(Temporal)。而堆疊式注意力機制對Arg1中“paintings” 及Arg2中的“unsafe”、“unsound”和“unauthorized”給予了較高的權(quán)重,其中,Arg2中的這三個詞解釋了Arg1中“sellthepainting”發(fā)生的原因,因而基于堆疊式注意力機制的方法能將這個樣例正確地分類為偶然性關(guān)系(Contingency),但基于另外兩種注意力機制的方法則無法對其正確分類。

        3 結(jié)論

        本文旨在研究隱式篇章關(guān)系分類任務,并為其提出了基于堆疊式注意力機制的篇章關(guān)系分類模型。實驗結(jié)果表明,本文所提模型獲得了比基準系統(tǒng)更好的性能,且其與目前最優(yōu)的隱式篇章關(guān)系分類模型性能可比。但同時,隱式篇章關(guān)系分類任務仍然具有很大的挑戰(zhàn)性。其主要原因在于訓練數(shù)據(jù)的缺乏,所以目前的分類方法在Temporal等類別上的分類性能仍然不高。因此,在下一步的工作中我們將從兩個方面展開研究,首先針對數(shù)據(jù)缺乏問題,將對PDTB語料進行擴充,從外部數(shù)據(jù)中篩選出優(yōu)質(zhì)的正負樣例樣本以擴充PDTB語料訓練集;其次,將繼續(xù)優(yōu)化分類模型,借鑒目前先進的多任務、對抗學習等方法提高模型的判別能力。

        表4 與Guo等工作進行對比(%)

        圖3 例3在不同注意力機制下的注意力分布灰度圖Fig.3 Grey-scale map for attention distribution of example 3 under different attention mechanisms

        猜你喜歡
        論元語料注意力
        讓注意力“飛”回來
        “揚眼”APP:讓注意力“變現(xiàn)”
        傳媒評論(2017年3期)2017-06-13 09:18:10
        成分重量和粵方言雙及物結(jié)構(gòu)的論元語序
        基于論元結(jié)構(gòu)和題元指派對漢語處置義“把”字句的句法語義分析
        基于語料調(diào)查的“連……都(也)……”出現(xiàn)的語義背景分析
        A Beautiful Way Of Looking At Things
        華語電影作為真實語料在翻譯教學中的應用
        《苗防備覽》中的湘西語料
        英語中動構(gòu)式中施事論元句法隱含的認知研究
        國內(nèi)外語用學實證研究比較:語料類型與收集方法
        亚洲av无码一区二区三区四区 | 久草福利国产精品资源| 国产成人无码综合亚洲日韩| 欧美老熟妇欲乱高清视频| 久久国产成人亚洲精品影院老金| 女优视频一区二区三区在线观看 | 黑人免费一区二区三区| 日本最新视频一区二区| 天天碰免费上传视频| 又爆又大又粗又硬又黄的a片| 亚洲电影一区二区| 亚洲一二三四五中文字幕| 国模gogo无码人体啪啪| 精产国品一二三产品蜜桃| 亚洲免费av电影一区二区三区| 熟女人妻一区二区中文字幕| 午夜天堂一区人妻| 婷婷五月综合丁香在线| 99JK无码免费| 日韩一区二区中文天堂| 亚洲av色香蕉一区二区三区| 51久久国产露脸精品国产| 国内精品久久久久久久亚洲| 亚洲高清一区二区精品| 国产精品爽爽久久久久久竹菊| 学生妹亚洲一区二区| 精品人妻一区二区三区蜜桃| 亚洲国产精品成人av在线不卡| 国产白袜脚足j棉袜在线观看| 国产精品精品| 亚洲无av高清一区不卡| 麻豆国产一区二区三区四区| 欧美日韩亚洲tv不卡久久| 国产精品麻豆A啊在线观看| 国产在线精品观看一区二区三区| 黄桃av无码免费一区二区三区 | 国产成人av区一区二区三| 亚洲精品白浆高清久久久久久| 麻豆精品久久久久久久99蜜桃| 日韩精品一区二区三区四区五区六| 人妻少妇不满足中文字幕|