亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        中文多字體古籍?dāng)?shù)據(jù)集多任務(wù)融合識別

        2024-11-05 00:00:00薛德軍師慶輝畢琰虹蘆筱菲陳婧王海山吳晨
        廣西科技大學(xué)學(xué)報 2024年4期

        摘 要:針對中文古籍?dāng)?shù)字化處理中大規(guī)模高質(zhì)量數(shù)據(jù)集匱乏的問題,本文提出了一種新穎的2級古籍?dāng)?shù)據(jù)集建設(shè)方法:一是構(gòu)建了包含119.5萬張圖片、覆蓋6 610個字符類別的多字體古籍單字?jǐn)?shù)據(jù)集CACID;二是基于古籍文獻(xiàn)內(nèi)容合成了包含86 667列古籍文字圖片的古籍篇章數(shù)據(jù)集CASID,這是目前報道的最大中文古籍合成數(shù)據(jù)集。本文設(shè)計了古籍多任務(wù)融合識別模型,并基于所建數(shù)據(jù)集進(jìn)行了實驗。結(jié)果表明,模型的識別準(zhǔn)確率從35.62%顯著提升至85.52%,驗證了涵蓋多字體多朝代的中文合成數(shù)據(jù)在古籍文字識別中的核心作用和良好泛化能力。

        關(guān)鍵詞:古籍;訓(xùn)練數(shù)據(jù)集;自動構(gòu)建;深度學(xué)習(xí)模型;融合建模

        中圖分類號:TP391.43 DOI:10.16375/j.cnki.cn45-1395/t.2024.04.014

        0 引言

        隨著國家對古籍?dāng)?shù)字化工作的日益重視[1],古籍文獻(xiàn)的數(shù)字化不僅成為保護(hù)歷史文化遺產(chǎn)的重要手段,更是推動文化傳承與創(chuàng)新的關(guān)鍵一環(huán)。近年來,隨著古籍研究的不斷深入,人們對于古籍文獻(xiàn)價值的認(rèn)識愈發(fā)深刻,對古籍?dāng)?shù)字化的需求也日益迫切。同時,隨著人工智能技術(shù)的快速發(fā)展,越來越多的AI技術(shù)被應(yīng)用到古籍?dāng)?shù)字化工作中,為古籍的保護(hù)與傳承注入了新的活力[2]。

        盡管AI技術(shù)在古籍?dāng)?shù)字化中發(fā)揮了重要作用,但數(shù)字化性能的提升仍然受到高質(zhì)量古籍?dāng)?shù)據(jù)集缺乏的制約。目前,古籍?dāng)?shù)字化數(shù)據(jù)集的建設(shè)主要依賴于傳統(tǒng)的人工標(biāo)注方法,這不僅耗時耗力,而且標(biāo)注質(zhì)量難以保證,導(dǎo)致數(shù)字化效果不佳。同時,由于古籍文獻(xiàn)的特殊性,如文字表現(xiàn)形式豐富、紙張老化發(fā)黃、頁面存在污漬等問題,使得古籍圖像分析與識別成為一項非常具有挑戰(zhàn)性的任務(wù)[3-4]。

        針對上述問題,本文提出了一種新穎的2級古籍?dāng)?shù)據(jù)集建設(shè)方法:一是構(gòu)建了包含119.5萬張圖片、覆蓋6 610個字符類別的多字體古籍單字?jǐn)?shù)據(jù)集CACID,為字符識別提供豐富資源;二是基于古籍文獻(xiàn)內(nèi)容合成了包含86 667列古籍文字圖片的古籍篇章數(shù)據(jù)集CASID,進(jìn)一步擴(kuò)展數(shù)據(jù)集的規(guī)模和多樣性。此外,在構(gòu)建好的數(shù)據(jù)集基礎(chǔ)上,本文設(shè)計了古籍多任務(wù)融合識別模型,并基于所建數(shù)據(jù)集進(jìn)行了實驗。結(jié)果表明模型的識別準(zhǔn)確率得到大幅度提升,從而驗證了高質(zhì)量大規(guī)模古籍合成數(shù)據(jù)在古籍文字識別中的核心作用和良好泛化能力。

        1 數(shù)據(jù)集構(gòu)建

        在古籍?dāng)?shù)字化進(jìn)程中,數(shù)據(jù)集的構(gòu)建至關(guān)重要[5]。古籍漢字形態(tài)豐富多樣,包括象形圖、書法字、刻板印刷、館閣體及活字印刷等,其多樣性和復(fù)雜性增加了識別難度,尤其是書法字,其書寫風(fēng)格的多樣性和筆畫的流動性更是識別的難點(diǎn)。

        由于古籍資源稀缺且標(biāo)注成本高昂,獲取真實、高質(zhì)量的標(biāo)注數(shù)據(jù)變得異常困難。因此,合成數(shù)據(jù)成為主流的獲取訓(xùn)練數(shù)據(jù)的手段,即通過模擬古籍文字圖像并添加標(biāo)簽,構(gòu)建古籍文字?jǐn)?shù)據(jù)集。

        鑒于此,本文提出2級古籍?dāng)?shù)據(jù)集建設(shè)方法。首先,構(gòu)建古籍單字?jǐn)?shù)據(jù)集(CACID),專注于收集古籍中的單個漢字圖像,以支持精確的漢字識別研究。其次,構(gòu)建古籍篇章數(shù)據(jù)集(CASID),通過合成方式模擬古籍排版和格式,呈現(xiàn)連續(xù)文本段落,以提供接近實際閱讀場景的古籍圖像數(shù)據(jù)。這2個數(shù)據(jù)集的結(jié)合,全面覆蓋從單個漢字到連續(xù)文本段落的古籍內(nèi)容,為古籍?dāng)?shù)字化中的文字識別、版面分析等任務(wù)提供豐富多樣的數(shù)據(jù)資源。

        1.1 單字?jǐn)?shù)據(jù)集構(gòu)建

        中國書法的字體豐富多樣,包括甲骨體、大篆、小篆、隸書、草書、楷書、行書等。在構(gòu)建古籍單字?jǐn)?shù)據(jù)集時,首先對單字圖像進(jìn)行預(yù)處理,去除背景、增強(qiáng)文字部分,并轉(zhuǎn)換成黑白二值圖像;其次,按命名規(guī)則對預(yù)處理后的圖像進(jìn)行標(biāo)注,將同標(biāo)簽、同字體的圖像進(jìn)行整合;最終形成多字體CACID數(shù)據(jù)集。

        該數(shù)據(jù)集包含119.5萬張圖片,涵蓋6 610個文字類別,每個文字類別包含多種書法字體。CACID數(shù)據(jù)集的采樣實例圖如圖1所示(示例為“書”的楷書、行書、草書、隸書、篆書字體)。

        1.2 篇章數(shù)據(jù)集構(gòu)建

        篇幅圖像生成是基于古籍文本生成含有單字標(biāo)注的篇幅級古籍文字圖像。其中,針對每一份古籍文本,可生成多份篇幅級古籍文字圖像與之對應(yīng),以楷書體、行書體、草書體、隸書體、篆書體等多種形式呈現(xiàn)。

        本文整理了中文重要古籍文本300余篇,包括《晉書》《宋書》《南齊書》《梁書》《陳書》《魏書》《北齊書》《周書》《隋書》《南史》《北史》等,用作生成篇幅級古籍文字圖像的真實文字標(biāo)簽。構(gòu)建古籍篇章數(shù)據(jù)集CASID是一個復(fù)雜且精細(xì)的過程,涉及多個步驟以確保數(shù)據(jù)的準(zhǔn)確性和多樣性。以下是該構(gòu)建流程的詳細(xì)步驟。

        Step 1 字符提取與識別

        在構(gòu)建數(shù)據(jù)集的開始階段,首先從文字版古籍內(nèi)容中提取每一個擬使用的字符。隨后,在古籍單字?jǐn)?shù)據(jù)集CACID中查找這些字符的對應(yīng)圖像。為了保證合成數(shù)據(jù)的豐富性和多樣性,根據(jù)字體等標(biāo)簽隨機(jī)選擇字符圖像。如果在CACID數(shù)據(jù)集中找不到某個字符的圖像,記錄下這個缺失的字符,并繼續(xù)尋找下一個字符。

        Step 2 字符圖像二值化

        經(jīng)過提取和識別后,對每一個字符圖像進(jìn)行二值化處理。這一步驟的目的是將字符圖像轉(zhuǎn)換為只包含黑白像素點(diǎn)的形式,以便于后續(xù)的合成和處理。在二值化過程中,設(shè)定一個閾值(如200),圖像中灰度高于此值的部分會轉(zhuǎn)換為白色,低于此值的部分則轉(zhuǎn)換為黑色。

        Step 3 調(diào)整字符尺寸

        為了確保所有字符在視覺上保持一致和協(xié)調(diào),需要對每個字符圖像進(jìn)行尺寸調(diào)整。具體來說,調(diào)整字符圖像的寬度或高度,使其不超過設(shè)定的像素值(如80像素)。此外,根據(jù)字符中黑色文字的像素個數(shù)進(jìn)一步縮放調(diào)整,比如根據(jù)黑色占比的不同,將字符縮小到適當(dāng)?shù)谋壤?/p>

        Step 4 背景圖與文字定位

        為了模擬真實環(huán)境,準(zhǔn)備多個與古籍背景相似的圖像作為合成背景。這些背景圖像經(jīng)過調(diào)整,達(dá)到統(tǒng)一的像素大?。ㄈ? 110×2 110像素)。然后,在這些背景圖像上定位出文字的排列位置。按照古籍的閱讀順序(右上至左下),確定每個文字的中心點(diǎn)位置,并設(shè)置適當(dāng)?shù)拈g距,以確保文字的整齊排列。

        Step 5 文字與背景融合

        文字與背景定位完成后,將每個字符圖像的中心點(diǎn)與背景圖像上的文字中心點(diǎn)對齊。通過二值與“bitwise_and”操作將字符圖像融合到背景圖像中。因此,每個字符都會準(zhǔn)確地出現(xiàn)在預(yù)定的位置上,形成一幅完整的古籍篇章圖像。

        Step 6 記錄字符位置

        最后,為了便于后續(xù)的數(shù)據(jù)分析和處理,記錄每個字符在最終合成圖像中的位置信息。這通常包括字符的左上角和右下角坐標(biāo)等數(shù)據(jù)。這些位置信息有助于快速定位和分析字符在圖像中的分布情況。

        通過以上6個步驟,本文構(gòu)建出一個古籍文字圖片與文本標(biāo)簽對應(yīng)的古籍篇章數(shù)據(jù)集CASID,共86 667列古籍文字圖片數(shù)據(jù)和對應(yīng)的列文本標(biāo)簽,涵蓋字符類別6 610個,總計包含104.1萬字,這是目前公開報道的最大規(guī)模的中文合成古籍篇章數(shù)據(jù)集。生成的篇幅古籍圖像實例如圖2所示(示例為三皇本紀(jì) 小司馬氏撰并注的篇幅圖像)。

        2 文字識別模型

        本文設(shè)計了古籍多任務(wù)融合識別模型CARM,模型結(jié)構(gòu)示意圖如圖3所示。

        2.1 視覺特征提取

        在經(jīng)典殘差模型[6]的基礎(chǔ)上,本文引入了通道混淆、分組卷積以及深度可分離卷積技術(shù),旨在保障模型深度的同時拓展其寬度,進(jìn)而增強(qiáng)通道間的信息交互與依賴關(guān)系學(xué)習(xí)。網(wǎng)絡(luò)結(jié)構(gòu)采用模塊化設(shè)計,通過5種不同模塊與卷積的組合堆疊,構(gòu)建了一個18層的模型。此外,在模塊單元間實現(xiàn)了多尺度特征融合[7],將模型的計算復(fù)雜度控制在2.3 G FLOPs(floating point operations per second)以內(nèi),以確保在不顯著增加計算負(fù)擔(dān)的前提下,實現(xiàn)模型性能的優(yōu)化。

        2.2 語義特征提取

        在傳統(tǒng)序列識別結(jié)構(gòu)[8]的基礎(chǔ)上融入語義信息,結(jié)合雙向多門循環(huán)網(wǎng)絡(luò)[9]與雙向自注意力模型[10-11],通過聯(lián)合調(diào)節(jié)網(wǎng)絡(luò)內(nèi)所有神經(jīng)層的前后神經(jīng)元,對卷積網(wǎng)絡(luò)提取的圖像特征進(jìn)行深度雙向表達(dá)學(xué)習(xí)。如此,不僅實現(xiàn)了對圖像特征的降維語義編碼,并在不同層級上進(jìn)行了多輪迭代學(xué)習(xí),從而使模型深入挖掘圖像特征中的語義表征信息與關(guān)聯(lián)信息。

        2.3 多階段多任務(wù)訓(xùn)練策略

        為提升模型在形近字、繁體字、異體字識別上的精度及復(fù)雜背景的應(yīng)對能力,本文設(shè)計了多階段、多任務(wù)訓(xùn)練策略。

        初始階段,混合使用合成與真實數(shù)據(jù)訓(xùn)練模型,以糾正合成樣本帶來的特征偏差。隨后,利用模型識別文字類別的核心表征,并用真實數(shù)據(jù)進(jìn)行文字表征微調(diào),確保學(xué)習(xí)到的文字表征與對應(yīng)類別的核心表征盡可能接近,而與其他類別的核心表征保持較遠(yuǎn)距離[12],以此確保文字表征的準(zhǔn)確性和區(qū)分度。最后,根據(jù)專業(yè)人員的反饋優(yōu)化系統(tǒng),并據(jù)此擴(kuò)充和篩選數(shù)據(jù)再次訓(xùn)練,以進(jìn)一步提升模型性能。

        3 實驗結(jié)果

        3.1 實驗設(shè)置與數(shù)據(jù)集

        本實驗中的訓(xùn)練數(shù)據(jù)由兩部分組成:真實古籍?dāng)?shù)據(jù)集CARD和合成古籍篇章數(shù)據(jù)集CASID。CARD數(shù)據(jù)集來源于傳統(tǒng)的古籍文獻(xiàn)資源,共399萬字符,包括來自《四庫全書》約10萬列文字圖像,約189萬字符,以及來自刻版印刷書籍(包括《晉書》《宋書》等多部史書)約10萬列文字圖像,約210萬字符。兩類數(shù)據(jù)共4 285個字符類別,樣本實例圖如圖4所示。基于這些數(shù)據(jù)構(gòu)建相應(yīng)的訓(xùn)練集和驗證集,訓(xùn)練得到CARM-Base模型。

        本文基于不同的數(shù)據(jù)集訓(xùn)練了2個識別模型:一是基于CARD數(shù)據(jù)集構(gòu)建相應(yīng)的訓(xùn)練集和驗證集,訓(xùn)練得到CARM-Base模型;二是在CARD數(shù)據(jù)集中加入CASID數(shù)據(jù)集共同作為訓(xùn)練數(shù)據(jù),構(gòu)建相應(yīng)的訓(xùn)練集和驗證集,訓(xùn)練得到CARM-Large模型。

        在測試階段,選用100張真實的古籍圖像作為模型測試集,共計1 345列。其中,隨機(jī)抽取520列進(jìn)行標(biāo)注,包含8 865字。測試集數(shù)據(jù)未參與上述訓(xùn)練集的構(gòu)建,因此可以客觀評估模型的泛化性能。測試集數(shù)據(jù)實例圖如圖5所示。

        3.2 評估指標(biāo)

        本文采用的評估指標(biāo)為[Wc](字正確率)和[Wa](字準(zhǔn)確率)。[Wc]的計算如式(1)所示,

        [Wc=Nc/Nr+Nd+Nc×100%], (1)

        式中:[Nc]為模型正確識別并保留的字符數(shù);[Nr]為模型錯誤將一個字符替換為另一個字符的數(shù)量;[Nd]為模型錯誤刪除的字符數(shù)量。

        [Wa]的計算如式(2)所示,

        [Wa=Nc-Ni/Ni+Nd+Nc×100%], (2)

        式中:[Ni]為模型錯誤插入到文本中的字符數(shù)量。

        [Wc]只關(guān)注模型保留正確字符的能力,不看其是否插入額外字符;[Wa]既考慮保留正確字符,又考慮是否插入不必要字符。因此,模型若插入過多額外字符,即使正確識別許多字符,其準(zhǔn)確率也會受影響。

        3.3 結(jié)果分析

        在測試集上,本文對CARM-Base和CARM-Large這2個模型進(jìn)行了評估。測試集的識別結(jié)果實例圖見圖6,模型的性能評估結(jié)果見表1。

        從實驗結(jié)果可以看出,CARM-Large在測試集上的表現(xiàn)顯著優(yōu)于CARM-Base。CARM-Large的字正確率達(dá)到了88.59%,比CARM-Base的55.53%提升了59.53%;CARM-Large的字準(zhǔn)確率為85.52%,比CARM-Base的35.62%提升了140.09%。2個指標(biāo)的大幅度提升意味著CARM-Large在識別古籍文字時能夠更好地處理各種復(fù)雜的字符特征,更準(zhǔn)確地還原古籍文本的內(nèi)容。

        CARM-Large性能顯著提升主要?dú)w功于在訓(xùn)練過程中充分利用了多書法字體古籍?dāng)?shù)據(jù)集CASID。CASID的引入不僅豐富了訓(xùn)練樣本的多樣性,還使得模型能夠更好地適應(yīng)不同字體和風(fēng)格的古籍文字。實驗結(jié)果充分驗證了使用合成數(shù)據(jù)可以大幅提升古籍識別模型的識別能力和泛化性能,可以解決古籍文字識別中訓(xùn)練數(shù)據(jù)缺乏的問題。

        此外,本文分析了構(gòu)建古籍單字?jǐn)?shù)據(jù)集CACID后,數(shù)據(jù)集中單字分布的變化情況。原數(shù)據(jù)集包含4 285個單字類別,樣本數(shù)量分布不均,存在明顯的長尾現(xiàn)象。經(jīng)過擴(kuò)充,字符類別的總數(shù)增長至6 610個,增長了近55%,顯著豐富了數(shù)據(jù)集字符的多樣性。

        具體到字符來看,一些原來樣本較少的字符在擴(kuò)充后得到了顯著增加。例如,“商”字的樣本數(shù)量從1 102個增加至3 191個,增長了近2倍;“簡”字從695個增加至4 075個;“趺”字從2個增加至48個等。這些字符樣本數(shù)量的提升有助于模型在訓(xùn)練過程中學(xué)習(xí)到其字體特征,從而提高識別性能。

        但是,一些罕見字符的樣本數(shù)量增長并不明顯。例如,“旈”字從1個增為2個,這說明對于這些罕見字符,現(xiàn)有的擴(kuò)充策略還不夠有效。這些發(fā)現(xiàn)為后續(xù)改進(jìn)和優(yōu)化古籍文字識別模型提供了重要的指導(dǎo)方向。

        4 結(jié)論

        本文針對中文古籍?dāng)?shù)字化處理中大規(guī)模高質(zhì)量數(shù)據(jù)集匱乏的瓶頸問題,提出了一種新穎的2級古籍?dāng)?shù)據(jù)集建設(shè)方法,并成功構(gòu)建了CACID和CASID 2個數(shù)據(jù)集。古籍單字?jǐn)?shù)據(jù)集CACID的構(gòu)建豐富了古籍字符的種類和樣本數(shù)量,為模型訓(xùn)練提供全面和多樣的數(shù)據(jù)支持;古籍篇章數(shù)據(jù)集CASID的合成則基于實際古籍文獻(xiàn)中的文字布局和排列方式,有助于模型在實際應(yīng)用中適應(yīng)復(fù)雜多變的古籍識別場景。

        本文設(shè)計的古籍多任務(wù)融合識別模型在構(gòu)建數(shù)據(jù)集上的實驗結(jié)果表明,模型的識別準(zhǔn)確率從35.62%顯著提升至85.52%,驗證了涵蓋多字體多朝代的文字合成數(shù)據(jù)在實際應(yīng)用中具有優(yōu)異的識別能力和泛化能力。

        本文通過對數(shù)據(jù)集中單字分布變化的分析,發(fā)現(xiàn)模型在識別罕見字符和復(fù)雜布局時的性能仍有待提升,這是本文后續(xù)需要重點(diǎn)改進(jìn)的方向。

        參考文獻(xiàn)

        [1] 全國古籍整理出版規(guī)劃領(lǐng)導(dǎo)小組. 2021—2035年國家古籍工作規(guī)劃[R]. 2022.

        [2] 王秋云.我國古籍?dāng)?shù)字化的研究現(xiàn)狀及發(fā)展趨勢分析[J].圖書館學(xué)研究,2021(24):9-14.

        [3] 李國新.中國古籍資源數(shù)字化的進(jìn)展與任務(wù)[J].大學(xué)圖書館學(xué)報,2002(1):21-26.

        [4] 周迪,宋登漢.中文古籍?dāng)?shù)字化開發(fā)研究綜述[J].圖書情報知識,2010(6):40-49.

        [5] 李春桃,張騫,徐昊,等.基于人工智能技術(shù)的古文字研究[J].吉林大學(xué)社會科學(xué)學(xué)報,2023,63(2):164-173.

        [6] HE K M,ZHANG X Y,REN S Q,et al.Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition,2016:770-778. DOI:10.1109/CVPR.2016.90.

        [7] MA N N,ZHANG X Y,ZHENG H T,et al.ShuffleNet V2:practical guidelines for efficient CNN architecture design[C]//15th European Conference on Computer Vision(ECCV),Munich,Germany,September 8-14,2018. Proceedings,Part XIV,2018,11218:122-138.

        [8] SHI B G,BAI X,YAO C.An end-to-end trainable neural network for image-based sequence recognition and its application to scene text recognition[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(11):2298-2304.

        [9] SCHUSTER M,PALIWAL K K.Bidirectional recurrent neural network[J].IEEE Transactions on Signal Processing,1997,45(11):2673-2681.

        [10] MINJOON S,ANIRUDDHA K,ALI F,et al.Bidirectional attention flow for machine comprehension[C]//International Conference on Learning Representations,2016.

        [11] CUI Y M,CHEN Z P,WEI S,et al.Attention-over-attention neural networks for reading comprehension[C]//55th Annual Meeting of the Association-for-Computational-Linguistics(ACL),2017. DOI:10.18653/v1/P17-1055.

        [12] SCHROFF F,KALENICHENKO D,PHILBIN J.FaceNet:a unified embedding for face recognition and clustering[C]//IEEE Conference on Computer Vision and Pattern Recognition(CVPR),2015,Boston,MA,USA. DOI:10.1109/cvpr.2015.7298682.

        Multi-task fusion recognition of Chinese multi-font ancient literature dataset

        XUE Dejun, SHI Qinghui, BI Yanhong, LU Xiaofei, CHEN Jing, WANG Haishan, WU Chen

        (Tongfang Knowledge Network Digital Publishing Technology Co., Ltd., Beijing 100192, China)

        Abstract: To address the scarcity of large-scale, high-quality datasets for digitizing Chinese ancient literature, this paper introduces a novel two-tiered approach for dataset construction. Firstly, we establish a multi-font Chinese ancient character image dataset(CACID), containing 1.195 million images across 6 610 character categories. Secondly, we synthesize the Chinese ancient synthetic image dataset(CASID)which consists of 86 667 columns of ancient text images, based on authentic ancient literature content. This is currently the largest synthetic dataset for Chinese ancient literature reported. Then, we design a multi-task recognition model tailored for ancient literature and experimentally verify its effectiveness using our constructed datasets. The experimental results show a remarkable enhancement in recognition accuracy, with the model,s recognition rate soaring from 35.62% to 85.52%. This significant improvement verifies the excellent generalization capability of the synthetic data, encompassing diverse fonts and dynasties, in practical applications.

        Keywords: ancient literature; training dataset; automatic construction; deep learning model; fusion modeling

        (責(zé)任編輯:黎 婭)

        收稿日期:2024-04-10;修回日期:2024-04-24

        基金項目:國家重點(diǎn)研發(fā)計劃(2020YFC0833003);國家卓越行動計劃(WKZB1911BJM501173/02)資助

        第一作者:薛德軍,博士,高級工程師,研究方向:自然語言處理、深度學(xué)習(xí)、大模型,E-mail:xuedejun@cnki.net

        国产一区二区杨幂在线观看性色| 理论片午午伦夜理片影院| 暖暖免费 高清 日本社区在线观看| 欧美破处在线观看| 亚洲av色精品国产一区二区三区| 超碰国产精品久久国产精品99| 欧美亚洲色综久久精品国产| av鲁丝一区鲁丝二区| 性色av成人精品久久| 亚洲国产综合在线亚洲区亚洲av| 日本最新免费二区三区| 国产亚洲精品久久久久秋霞| 国产AV无码专区亚洲AWWW| 亚洲1区第2区第3区在线播放| 内射干少妇亚洲69xxx| 免费无码毛片一区二区三区a片 | 欧美精品一区二区蜜臀亚洲| 国产成人精品午夜福利免费APP| 国产精品污一区二区三区在线观看 | 国产亚洲精品高清视频| 亚洲视频网站大全免费看| 真人新婚之夜破苞第一次视频| 人妻AV无码一区二区三区奥田咲 | 偷偷色噜狠狠狠狠的777米奇| 波多野结衣视频网址| 国产精品99久久不卡二区| 高级会所技师自拍视频在线| 亚洲aⅴ在线无码播放毛片一线天 中国国语毛片免费观看视频 | 免费一级淫片日本高清| 欧美 丝袜 自拍 制服 另类| 国内精品伊人久久久久av| 久久精品久久精品中文字幕| 大陆国产乱人伦| 久久精品国产自清天天线| 亚洲AV秘 无码一区二区在线| 高潮内射主播自拍一区| 中文字幕乱偷无码av先锋蜜桃| 国产精品女视频一区二区| 日韩产的人妻av在线网| 国产精品成熟老女人| 国产98在线 | 免费|