亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于自監(jiān)督學(xué)習(xí)語(yǔ)言模型的罪名預(yù)測(cè)研究

        2023-02-14 10:32:12田杰文毛國(guó)慶林鴻飛
        關(guān)鍵詞:罪名卷積神經(jīng)網(wǎng)絡(luò)

        田杰文,楊 亮,張 琍,毛國(guó)慶,林鴻飛

        1.大連海洋大學(xué) 信息工程學(xué)院,遼寧 大連 116023

        2.大連理工大學(xué) 遼寧 大連 116024

        3.北京計(jì)算機(jī)技術(shù)及應(yīng)用研究所,北京 100854

        4.北京國(guó)雙科技有限公司,北京 100083

        在過去的幾年里,司法領(lǐng)域所產(chǎn)生的數(shù)據(jù)量增長(zhǎng)迅速。自然語(yǔ)言處理是一個(gè)成熟的人工智能的子領(lǐng)域,其中利用人工智能進(jìn)行法律判決預(yù)測(cè)[1-2]在司法領(lǐng)域的應(yīng)用逐漸變得成熟,法律判決預(yù)測(cè)任務(wù)是計(jì)算機(jī)在閱讀案件的事實(shí)描述之后進(jìn)行預(yù)測(cè)該法律案件的判決結(jié)果的過程,這一過程包括罪名預(yù)測(cè)、刑期預(yù)測(cè)、罰金預(yù)測(cè)等。利用人工智能進(jìn)行法律判決預(yù)測(cè)一方面可以以更廉價(jià)方式為不熟悉法律的人提供更簡(jiǎn)單高效的獲取高質(zhì)量法律資源的途徑,另一方面也可以為法律從業(yè)者提供一定程度的法律參考有助于提高其工作效率以及減少因人為因素而帶來的不必要的麻煩。從另一個(gè)角度來看,充分利用人工智能進(jìn)行法律判決預(yù)測(cè)也有利于提升司法部門的工作效率,還能響應(yīng)號(hào)召進(jìn)一步推動(dòng)司法系統(tǒng)的公平公正公開透明。

        中國(guó)大陸是大陸法系的實(shí)行地區(qū),法院只利用案件的事件陳述和成文法進(jìn)行法律判決,而不會(huì)參考判例的判決,法官會(huì)根據(jù)案件所涉及的相關(guān)法律條款以及該案件的事實(shí)陳述,結(jié)合現(xiàn)實(shí)具體情況綜合考量做出最終判決。

        現(xiàn)有大多數(shù)的工作都是試圖將法律判決任務(wù)形式化為文本分類任務(wù),這些工作一般采用現(xiàn)成的分類模型[3-5]從文本中提取淺層特征[6-7],或?qū)咐龤w檔[8],或通過手工注釋案例和設(shè)計(jì)具體特征來獲得對(duì)案例描述的更深層次的語(yǔ)義理解[9],或者采用機(jī)器學(xué)習(xí)和自然語(yǔ)言處理的神經(jīng)網(wǎng)絡(luò)方法,可以更好地對(duì)法律文本進(jìn)行分析處理[10-12]。

        本文旨在通過引入適當(dāng)?shù)臋C(jī)制,利用神經(jīng)網(wǎng)絡(luò)模型將刑事案件的文本事實(shí)描述與法律條款相結(jié)合來解決罪名預(yù)測(cè)問題,為了更好地理解法律文書和更具體的表述,綜合分析了相關(guān)的法律條款和裁判文書,總結(jié)形成了分類模型,然后利用現(xiàn)有的神經(jīng)網(wǎng)絡(luò)模型結(jié)合自監(jiān)督學(xué)習(xí)方法學(xué)習(xí)文本特征,再將句子級(jí)特征合并為案例級(jí)特征后,通過神經(jīng)網(wǎng)絡(luò)模型來解決罪名預(yù)測(cè)問題。在實(shí)驗(yàn)中,采用2018“中國(guó)法研杯”司法人工智能挑戰(zhàn)賽構(gòu)建的數(shù)據(jù)集[13]。實(shí)驗(yàn)結(jié)果表明,本文的方法和模型與對(duì)比模型相比能夠有效地從數(shù)據(jù)文本中提取到特征,最大程度上確保預(yù)測(cè)的準(zhǔn)確率,在2018“中國(guó)法研杯”司法人工智能挑戰(zhàn)賽構(gòu)建的數(shù)據(jù)集上精度達(dá)到了88.1%。

        1 相關(guān)工作

        為了減少人工和提高相關(guān)的工作效率,人工智能與法律領(lǐng)域的聯(lián)系越來越緊密,法律判決預(yù)測(cè)的相關(guān)研究越來越受人關(guān)注。在早期研究中傾向使用統(tǒng)計(jì)學(xué)模型進(jìn)行預(yù)測(cè),Kort等[14]利用數(shù)學(xué)和統(tǒng)計(jì)學(xué)模型分析大量的歷史案例來預(yù)測(cè)美國(guó)聯(lián)邦最高法院的最終判決。Ulmer等[15]使用基于規(guī)則的方法分析法律文本數(shù)據(jù)來幫助法官對(duì)事實(shí)證據(jù)進(jìn)行分析。Keown等[16]利用數(shù)學(xué)模型分析特定情況下的現(xiàn)有法律案件進(jìn)行預(yù)測(cè)。然而這些方法都被限制在很少標(biāo)簽的小數(shù)據(jù)集下。后來,隨著計(jì)算機(jī)算力的提高,一些基于機(jī)器學(xué)習(xí)[6,9]的方法被提出,他們都是將一些手工設(shè)計(jì)的特征與線性分類器相結(jié)合,用來提高模型的性能。這樣做的缺點(diǎn)就是這些方法嚴(yán)重依賴手工設(shè)計(jì)的特征,使得設(shè)計(jì)出的模型不能更好地解決其他問題。

        近年來,隨著神經(jīng)網(wǎng)絡(luò)的應(yīng)用越來越廣泛,研究人員更傾向于使用神經(jīng)網(wǎng)絡(luò)來解決法律相關(guān)問題。Luo等[11]提出了一個(gè)分層注意力網(wǎng)絡(luò)來識(shí)別處理事實(shí)描述與相關(guān)法律條款之間的關(guān)系來提高預(yù)測(cè)性能。Zhong等[12]將法律判決預(yù)測(cè)任務(wù)的子任務(wù)的依賴關(guān)系形式化為一個(gè)有向無環(huán)圖來建模,從而提出了一個(gè)基于神經(jīng)網(wǎng)絡(luò)的多任務(wù)學(xué)習(xí)框架,用于有效地共同解決這些子任務(wù)。Hu等[10]人工定義了10個(gè)判別屬性,并通過模型學(xué)習(xí)這些屬性來對(duì)易混淆的罪名進(jìn)行分類。Long等[17]利用閱讀理解對(duì)判決流程進(jìn)行法律判決預(yù)測(cè)。Wu等[18]利用自監(jiān)督學(xué)習(xí)的方法解決對(duì)話系統(tǒng)中的問題。

        上述基于統(tǒng)計(jì)學(xué)模型和機(jī)器學(xué)習(xí)的方法,都需要花費(fèi)大量的數(shù)據(jù)和人工來保證對(duì)判決預(yù)測(cè)的準(zhǔn)確性,再加上有的模型需要利用人工設(shè)計(jì)特征提取,模型在泛化問題上存在嚴(yán)重不足。基于深度學(xué)習(xí)的方法使用神經(jīng)網(wǎng)絡(luò)來解決法律判決預(yù)測(cè)問題才是當(dāng)下研究的熱點(diǎn)。但是訓(xùn)練時(shí)長(zhǎng)增長(zhǎng),亦或是因使用自監(jiān)督學(xué)習(xí)而產(chǎn)生大量的參數(shù),而導(dǎo)致所需的硬件代價(jià)過大以及模型預(yù)測(cè)的準(zhǔn)確率低,是當(dāng)前利用深度學(xué)習(xí)進(jìn)行預(yù)測(cè)無法繞開的問題。本文設(shè)計(jì)提出了結(jié)合ALBERT和TextCNN的罪名預(yù)測(cè)模型ALBT,利用輕量級(jí)BERT進(jìn)行預(yù)訓(xùn)練能夠大幅減少訓(xùn)練時(shí)長(zhǎng),并且確保能夠提取到足夠的語(yǔ)義表示,然后通過拼接結(jié)構(gòu)簡(jiǎn)單的TextCNN模型進(jìn)行分類預(yù)測(cè),在保證分類準(zhǔn)確性的前提下進(jìn)一步節(jié)省時(shí)間,大幅減少訓(xùn)練時(shí)長(zhǎng)。實(shí)驗(yàn)結(jié)果表明模型能夠高水平地完成罪名預(yù)測(cè)任務(wù)。

        2 自監(jiān)督學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)ALBT

        2.1 ALBERT模型結(jié)構(gòu)

        BERT[19]全稱為Bidirectional Encoder Representation from Transformers,Devlin等2018年于Google提出的預(yù)訓(xùn)練模型,其結(jié)構(gòu)圖如圖1所示,BERT模型使用雙向Transformer編碼器進(jìn)行文本處理,利用大規(guī)模無標(biāo)注的語(yǔ)料訓(xùn)練來獲得文本中包含的豐富的語(yǔ)義表示。BERT主要包含了2個(gè)預(yù)訓(xùn)練任務(wù),第一個(gè)是Masked LM即給定一句話,隨機(jī)抹去這句話中的一個(gè)或幾個(gè)詞,要求根據(jù)剩余詞或句來預(yù)測(cè)被抹去的詞是什么。第二個(gè)就是下一句話預(yù)測(cè)(next sentence prediction,NSP),即給定一篇文章中的兩句話,判斷第二句話在文本中是否緊跟在第一句話之后。BERT的核心的模塊是Transformer編碼器,Transformer模型為Encoder-Decoder[20-21]結(jié)構(gòu),而ALBERT只使用其中的Encoder結(jié)構(gòu)作為特征提取器,具體結(jié)構(gòu)如圖2所示。Encoder包括自注意力機(jī)制(self-attention)用于探索發(fā)現(xiàn)上下文中詞語(yǔ)之間的關(guān)系和前饋神經(jīng)網(wǎng)絡(luò)(feed forward neural network)兩部分組成。并且每層之間都加入了一個(gè)求和歸一化層(Add&Norm),用來把本層的輸入和輸出相加然后歸一化處理[22]。最后再把兩層網(wǎng)絡(luò)進(jìn)行殘差連接[23]。

        圖1 BERT模型結(jié)構(gòu)Fig.1 BERT model structure

        圖2 Transformer Encoder結(jié)構(gòu)Fig.2 Transformer Encoder structure

        由于BERT模型使用了12層Transformer編碼器,從而產(chǎn)生了數(shù)以億計(jì)的參數(shù),使訓(xùn)練速度變慢,然而一味地堆疊參數(shù)并不能使模型性能變得更加優(yōu)越,甚至可能導(dǎo)致模型性能的下降。Lan等[24]基于BERT提出ALBERT對(duì)BERT加以改進(jìn)用以精簡(jiǎn)由于使用多層Transformer編碼器而產(chǎn)生的大量的參數(shù)量,并且能夠適當(dāng)提升模型的性能。

        2.2 TextCNN神經(jīng)網(wǎng)絡(luò)模型

        Kim等[25]提出了TextCNN,使用卷積神經(jīng)網(wǎng)絡(luò)來進(jìn)行文本分類的模型,模型為了能夠更好地捕捉文本中局部的相關(guān)性,使用了多個(gè)大小不同的卷積核來提取句子中的關(guān)鍵信息。TextCNN模型結(jié)構(gòu)如圖3所示。

        圖3 TextCNN模型結(jié)構(gòu)Fig.3 TextCNN model structure

        模型的第一層嵌入層(embedding layer)首先接受由ALBERT訓(xùn)練好的向量,預(yù)先訓(xùn)練的詞嵌入可以利用其他語(yǔ)料庫(kù)得到更多的先驗(yàn)知識(shí),由預(yù)先訓(xùn)練好的向量構(gòu)成一個(gè)由N×K的嵌入矩陣M,N代表句子的長(zhǎng)度,K代表詞向量的長(zhǎng)度。然后進(jìn)入到模型的第二層卷積層(convolution layer)提取句子的特征,卷積核的大小為w∈Rhk,其中h代表卷積核的高度,k代表卷積核的寬度,卷積核只在高度上從上到下滑動(dòng)進(jìn)行卷積操作,在寬度上和詞向量的維度保持一致,最后得到的列為1,行為(n-k+1)的特征映射(feature mapping)如式(1)所示:

        模型的第三層是一個(gè)1-max pooling層,最大池化層,即為從每個(gè)滑動(dòng)窗口產(chǎn)生的特征向量中篩選出一個(gè)最大的特征,然后將這些特征拼接起來構(gòu)成向量表示。經(jīng)過這層之后不同長(zhǎng)度的句子在經(jīng)過池化層之后都能變成定長(zhǎng)表示。

        經(jīng)池化操作后,獲得一維向量,再通過ReLU激活函數(shù)輸出,添加Dropout層,防止過擬合,經(jīng)過全連接層輸出并在全連接層添加正則化參數(shù)。最后全連接層的所有輸出值都連接到softmax層,最后輸出預(yù)測(cè)罪名的結(jié)果。

        2.3 融合自監(jiān)督學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)

        自監(jiān)督學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)ALBT結(jié)構(gòu)如圖4所示,主要由輸入層、ALBERT層、TextCNN層、輸出層組成。

        圖4 ALBT模型結(jié)構(gòu)Fig.4 ALBT model structure

        將事實(shí)描述從輸入層輸入到ALBERT層中,經(jīng)過編碼后將文本數(shù)據(jù)處理成序列化數(shù)據(jù),再輸入到Transformer編碼器,經(jīng)過自監(jiān)督的多層雙向Transformer編碼器的訓(xùn)練最終輸出文本的特征向量表示,之后進(jìn)入到TextCNN層中,卷積層再提取特征表示,池化層防止過擬合,減少參數(shù),加速計(jì)算,最終經(jīng)過softmax分類器進(jìn)行分類,完成罪名預(yù)測(cè)過程。

        由于BERT的局限性,故ALBERT做出以下幾點(diǎn)改進(jìn):

        參數(shù)因式分解(factorized embedding parameterization)也叫矩陣分解,本質(zhì)上是一個(gè)低秩分解的操作,通過對(duì)詞嵌入(embedding)部分的降維來達(dá)到減少參數(shù)的目的,經(jīng)過參數(shù)因式分解之后的時(shí)間復(fù)雜度變化如式(2)、(3)所示,其中V代表詞表大小,H代表隱藏層維度大小,E代表詞向量維度大小,當(dāng)H?E時(shí),模型的參數(shù)量可以大大減少。

        跨層參數(shù)共享技術(shù)(cross-layer parameter sharing),顧名思義就是可以在不同的層之間共享參數(shù),可共享的分為全連接層、注意力層。通過跨層參數(shù)共享技術(shù)可將大量的參數(shù)減低到一個(gè)較低水平。

        通過使用參數(shù)因式分解技術(shù)和跨層參數(shù)共享技術(shù)可以大大地減少模型所產(chǎn)生的參數(shù)量,加快模型的運(yùn)算速度,減少硬件上的內(nèi)存開銷,加快模型的訓(xùn)練速度。

        句子間順序預(yù)測(cè)(sentence-order prediction,SOP),不同于BERT的下一句話預(yù)測(cè)(NSP),ALBERT使用句間順序預(yù)測(cè),給定模型兩個(gè)句子,讓模型預(yù)測(cè)兩個(gè)句子的前后順序,相比原先的NSP、SOP技術(shù)更加復(fù)雜,能夠使模型學(xué)習(xí)到更多的上下文之間豐富的語(yǔ)義關(guān)系。

        模型通過引入自監(jiān)督學(xué)習(xí)機(jī)制在和簡(jiǎn)單的卷積神經(jīng)網(wǎng)絡(luò)相結(jié)合構(gòu)成整體模型ALBT,并且經(jīng)過上述改進(jìn)技術(shù),使得模型大大減少了自監(jiān)督學(xué)習(xí)過程中所產(chǎn)生的大量的參數(shù),大幅加快了模型的訓(xùn)練速度,而且在經(jīng)過大量實(shí)驗(yàn)之后發(fā)現(xiàn)上述改進(jìn)能夠有效提高模型預(yù)測(cè)的準(zhǔn)確率,這說明相關(guān)改進(jìn)是十分必要的。

        3 實(shí)驗(yàn)與分析

        3.1 數(shù)據(jù)集準(zhǔn)備

        本文采用2018“中國(guó)法研杯”司法人工智能挑戰(zhàn)賽(CAIL2018)構(gòu)建的數(shù)據(jù)集CAIL2018-small,其中數(shù)據(jù)來自“中國(guó)裁判文書網(wǎng)(http://wenshu.court.gov.cn/)”公開的刑事法律文書,考慮到數(shù)據(jù)集中包含一些無事實(shí)描述的無用文書案例,在實(shí)驗(yàn)中將無效數(shù)據(jù)剔除后,有訓(xùn)練集數(shù)據(jù)154 177條、驗(yàn)證集數(shù)據(jù)17 088條和測(cè)試數(shù)據(jù)32 433條,涉及202個(gè)罪名和183個(gè)法律條款。

        3.2 對(duì)照實(shí)驗(yàn)

        為了檢驗(yàn)實(shí)驗(yàn)?zāi)P偷念A(yù)測(cè)能力,選擇了5種主流的對(duì)照模型與本文的模型進(jìn)行預(yù)測(cè)效果對(duì)比,所涉及的模型包括基于RNN的網(wǎng)絡(luò)模型、基于CNN的網(wǎng)絡(luò)模型、基于注意力機(jī)制的網(wǎng)絡(luò)模型、基于拓?fù)涞亩嗳蝿?wù)學(xué)習(xí)框架模型。具體分別是:

        (1)BiLSTM[26]:使用雙向的LSTM來獲取上下文的信息,最后用全連接層和sigmod激活函數(shù)作為輸出層。

        (2)CNN[27]:使用多卷積核的CNN作為案情描述的編碼器,使用最大池化層對(duì)卷積后的特征進(jìn)行篩選。

        (3)DPCNN[28]:提出一個(gè)深層金字塔卷積網(wǎng),是第一個(gè)廣泛有效的深層文本分類卷積神經(jīng)網(wǎng)絡(luò)。

        (4)Fact-Law[29]:利用SVM分類器從案情描述文本中抽取法條特征,將法條信息融入基于注意力機(jī)制的神經(jīng)網(wǎng)絡(luò)模型。

        (5)TopJudge[11]:將子任務(wù)之間的依賴視為有向無環(huán)圖,并提出一個(gè)拓?fù)涞亩嗳蝿?wù)學(xué)習(xí)框架,該框架將多任務(wù)學(xué)習(xí)和有向無環(huán)圖依賴融入到判決預(yù)測(cè)中。

        3.3 評(píng)價(jià)指標(biāo)

        根據(jù)對(duì)所使用的數(shù)據(jù)集中所涉及罪名的統(tǒng)計(jì)可以看出司法領(lǐng)域的實(shí)際數(shù)據(jù)分布不平衡,訓(xùn)練數(shù)據(jù)中同一罪名的數(shù)據(jù)量相差太大,有一半的相同罪名的數(shù)據(jù)不足500條,同一罪名的數(shù)據(jù)最多的有8 000條以上,而最少的僅有12條。故本文采用微平均F值Fmicro、宏平均F值Fmacro作為模型的評(píng)價(jià)指標(biāo)。計(jì)算公式如式(4)、(5)所示:

        3.4 實(shí)驗(yàn)結(jié)果及分析

        表1展示了基線模型和本文提出的模型在2018“中國(guó)法研杯”司法人工智能挑戰(zhàn)賽構(gòu)建的數(shù)據(jù)集CAIL2018-small上進(jìn)行罪名預(yù)測(cè)的實(shí)驗(yàn)結(jié)果。

        表1 各模型的實(shí)驗(yàn)結(jié)果對(duì)比Table 1 Comparison of experimental results of each model 單位:%

        通過表1的對(duì)比實(shí)驗(yàn)結(jié)果可以看出,本文提出的模型在相同數(shù)據(jù)集的情況下在罪名預(yù)測(cè)任務(wù)上的實(shí)驗(yàn)結(jié)果要明顯優(yōu)于其他所有對(duì)比實(shí)驗(yàn)?zāi)P汀Ec對(duì)比實(shí)驗(yàn)中最好的模型相比微平均和宏平均分值高出3.5和14.6個(gè)百分點(diǎn)。

        模型通過引入自監(jiān)督學(xué)習(xí)的方法,并且對(duì)其加以優(yōu)化改進(jìn),在技術(shù)層面上利用參數(shù)因式分解和參數(shù)共享兩種技術(shù)相結(jié)合的方式,而后在原先NSP的基礎(chǔ)上通過改進(jìn),利用SOP技術(shù),盡可能多地學(xué)習(xí)到文本中的語(yǔ)義信息,在保證模型預(yù)測(cè)準(zhǔn)確率的前提下大大減少了因自監(jiān)督學(xué)習(xí)所帶來的參數(shù)量暴增的問題。

        但是由于法律條款的嚴(yán)謹(jǐn)性,相似的犯罪行為就會(huì)導(dǎo)致出現(xiàn)一些名稱相似的罪名,這些罪名的事實(shí)描述也十分相似,但是卻又存在著不同點(diǎn),這導(dǎo)致模型可能無法正確地區(qū)分它們,所以模型在區(qū)分混淆罪名時(shí)表現(xiàn)不理想。

        4 總結(jié)與展望

        針對(duì)現(xiàn)有的罪名預(yù)測(cè)模型方法上,本文提出了ALBT模型來解決罪名預(yù)測(cè)問題,結(jié)合ALBERT和TextCNN模型進(jìn)行罪名預(yù)測(cè),用ALBERT模型進(jìn)行模型預(yù)訓(xùn)練來獲得更加豐富的上下文文本表示,利用ALBERT相比于基礎(chǔ)BERT來說參數(shù)量大大減少的優(yōu)勢(shì),使模型更加輕量,訓(xùn)練速度也更加快,再結(jié)合結(jié)構(gòu)簡(jiǎn)單的卷積神經(jīng)網(wǎng)絡(luò)TextCNN模型進(jìn)行罪名預(yù)測(cè),從結(jié)果上看取得了不錯(cuò)的效果,結(jié)果要優(yōu)于基線模型。

        本文仍存在一些不足之處:對(duì)于一些易混淆罪名的分類效果不理想,比如“騙取貸款罪”與“貸款詐騙罪”,兩項(xiàng)罪名相同點(diǎn)都是實(shí)施了集資行為,但是不同點(diǎn)是前者具有非法占有目的,而后者不具有非法占有目的,如何能更加細(xì)粒度的從案件事實(shí)描述中提取出有效的信息來區(qū)分易混淆的罪名,目前模型在對(duì)這一問題的表現(xiàn)上欠佳,將來需要更加深入的研究和探索。

        猜你喜歡
        罪名卷積神經(jīng)網(wǎng)絡(luò)
        基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
        神經(jīng)網(wǎng)絡(luò)抑制無線通信干擾探究
        電子制作(2019年19期)2019-11-23 08:42:00
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        刑法罪名群論綱*
        重新認(rèn)識(shí)濫用職權(quán)和玩忽職守的關(guān)系*——兼論《刑法》第397條的結(jié)構(gòu)與罪名
        刑法論叢(2016年2期)2016-06-01 12:14:25
        基于神經(jīng)網(wǎng)絡(luò)的拉矯機(jī)控制模型建立
        復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)在基于WiFi的室內(nèi)LBS應(yīng)用
        減少死刑的立法路線圖
        基于支持向量機(jī)回歸和RBF神經(jīng)網(wǎng)絡(luò)的PID整定
        很黄很色很污18禁免费| 亚洲a人片在线观看网址| 99久久久精品国产性黑人| av一区二区三区有码| 亚洲另类丰满熟妇乱xxxx| 欧美日韩一区二区三区在线观看视频 | 中文字幕有码人妻在线| 粗大的内捧猛烈进出少妇 | 中文字幕日韩精品永久在线| 中文字幕av久久亚洲精品| 忘忧草社区www日本高清| 日韩精品无码一区二区三区视频 | 亚洲女同性恋在线播放专区| 白白色发布会在线观看免费| 高潮内射双龙视频| 麻豆亚洲av永久无码精品久久| 亚洲精品乱码久久久久久不卡| 在线不卡av一区二区| 亚洲天堂一区av在线| 国产超碰人人爽人人做人人添| 天码av无码一区二区三区四区 | 成人综合亚洲国产成人| 亚洲精品国产av日韩专区| 凹凸国产熟女精品视频app| 大陆极品少妇内射aaaaa| 午夜免费福利一区二区无码AV| 中文字幕视频一区二区| 精品久久av一区二区| 色妞ww精品视频7777| 亚洲中文字幕在线一区二区三区 | 老岳肥屁熟女四五十路| 久久婷婷五月综合色奶水99啪| 疯狂撞击丝袜人妻| 91精品久久久久含羞草| 少妇特殊按摩高潮对白| 国产精品沙发午睡系列| 四虎影视免费观看高清视频| 女同中的p是什么意思| 少妇深夜吞精一区二区| 色欲av永久无码精品无码蜜桃| 国产麻豆精品久久一二三|