亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        深度學(xué)習(xí)驅(qū)動(dòng)的甲骨文拓片單字分割與識(shí)別

        2025-05-01 00:00:00鄒陽(yáng)蔣志輝張燕煒許宏飛
        科技創(chuàng)新與應(yīng)用 2025年11期
        關(guān)鍵詞:拓片甲骨文灰度

        摘" 要:甲骨文的數(shù)字化處理對(duì)中華文化遺產(chǎn)保護(hù)與傳承具有重要意義,該文旨在通過(guò)先進(jìn)的圖像處理技術(shù)實(shí)現(xiàn)甲骨文圖像的精準(zhǔn)分割與識(shí)別。首先對(duì)原始拓片圖像執(zhí)行灰度化,并采用Otsu算法、形態(tài)學(xué)操作與高斯模糊技術(shù)進(jìn)行預(yù)處理。在此基礎(chǔ)上,利用HOG、SIFT、LBP等特征提取方法,構(gòu)建甲骨文圖像的預(yù)處理模型。其次,設(shè)計(jì)并訓(xùn)練基于U-Net的圖像分割模型,通過(guò)二分類交叉熵?fù)p失函數(shù)和Dice系數(shù)等多維評(píng)估指標(biāo),對(duì)模型性能進(jìn)行綜合評(píng)價(jià),模型在精確度上達(dá)到94.25%,顯示出較高的分割精度。最后,建立基于FPN的文字識(shí)別模型,并采用平均精度均值(mAP)、精確度、召回率和F1分?jǐn)?shù)等指標(biāo)進(jìn)行評(píng)估。測(cè)試結(jié)果顯示,該模型的平均精度均值達(dá)到81.56%,展現(xiàn)模型在甲骨文識(shí)別上的卓越性能,為甲骨文的數(shù)字化保護(hù)與研究提供有力的技術(shù)支持。

        關(guān)鍵詞:甲骨文;圖像分割;深度學(xué)習(xí);特征提取;U-Net;文字識(shí)別;FPN目標(biāo)檢測(cè)

        中圖分類號(hào):H312" " " 文獻(xiàn)標(biāo)志碼:A" " " " " 文章編號(hào):2095-2945(2025)11-0001-05

        Abstract: In the field of protecting and inheriting Chinese cultural heritage, the digital processing of Oracle Bone Script (OBS) holds significant importance. This paper aims to achieve precise segmentation and recognition of OBS images through advanced image processing techniques. Initially, the original rubbing images are gray-scaled and pre-processed using the Otsu algorithm, morphological operations, and Gaussian blurring. Subsequently, feature extraction methods such as Histogram of Oriented Gradients(HOG), Scale-Invariant Feature Transform(SIFT), and Local Binary Patterns(LBP) are employed, in conjunction with the Random Forest algorithm, to construct a pre-processing model for OBS images. Then, a U-Net-based image segmentation model is designed and trained, with its performance comprehensively evaluated using multi-dimensional assessment indicators such as binary cross-entropy loss function and Dice coefficient. The model achieved an accuracy of 94.25%, demonstrating high segmentation precision. Finally, a single character recognition model based on the Feature Pyramid Network(FPN) is established and evaluated using metrics such as mean Average Precision(mAP), accuracy, recall, and F1 score. The test results show that the model's mAP reached 81.56%, highlighting its outstanding performance in OBS recognition and providing robust technical support for the digital preservation and research of Oracle Bone Script.

        Keywords: Oracle Bone Script; image segmentation; deep learning; feature extraction; U-Net; single characterrecognition; FPN object detection

        隨著計(jì)算機(jī)技術(shù)和硬件設(shè)備的不斷進(jìn)步,借助計(jì)算機(jī)技術(shù)輔助甲骨文研究有望打破現(xiàn)有研究瓶頸,推動(dòng)甲骨文研究進(jìn)入全面深入發(fā)展和弘揚(yáng)的新階段。在甲骨字識(shí)別領(lǐng)域,高峰等[1]聯(lián)合語(yǔ)境統(tǒng)計(jì)分析和 Hopfield網(wǎng)絡(luò)的模糊匹配識(shí)別方法,解決甲骨字樣本中模糊字形不易識(shí)別的難題。圖像分割的方法(如U-Net)將甲骨字符提取視為像素分類任務(wù),通過(guò)對(duì)拓片圖像進(jìn)行逐像素分類,預(yù)測(cè)出字符在拓片圖像中的所在區(qū)域。目前最具代表性的語(yǔ)義分割方法是全卷積網(wǎng)絡(luò)(Full Convolutional" Network,F(xiàn)CN[2]),該方法將CNN的全連接層改為卷積層,從而達(dá)到對(duì)圖像像素進(jìn)行類別預(yù)測(cè)的目的。袁小翠等[3]提出的改進(jìn)Otsu方法有效地解決了鋼軌圖像分割中的難題,提高了分割精度和缺陷檢測(cè)的準(zhǔn)確性。劉海華等[4]提出了一種結(jié)合多尺度形態(tài)學(xué)操作和模糊聚類技術(shù)的圖像分割方法,通過(guò)提取圖像結(jié)構(gòu)特征、增強(qiáng)局部對(duì)比度、抑制噪聲,并應(yīng)用改進(jìn)的模糊C均值聚類算法,有效實(shí)現(xiàn)了超聲圖像的精確分割,實(shí)驗(yàn)結(jié)果證實(shí)了該方法的有效性。

        基于深度學(xué)習(xí)的甲骨文原始拓片的單字自動(dòng)分割與識(shí)別已經(jīng)取得了一定的進(jìn)展,另外,通過(guò)不斷優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu)、調(diào)整訓(xùn)練策略以及利用數(shù)據(jù)增強(qiáng)技術(shù),可以進(jìn)一步提高甲骨文文字識(shí)別的準(zhǔn)確率和效率。本文的數(shù)據(jù)處理及模型建立如圖1所示。

        1 構(gòu)建甲骨文圖像預(yù)處理模型

        甲骨文拓片圖像分割經(jīng)常受到點(diǎn)狀噪聲、人工紋理和固有紋理3類干擾元素的嚴(yán)重影響[5]。因此,首先對(duì)原始拓片進(jìn)行灰度化處理以增強(qiáng)圖像的某些特征,使得圖像中的邊緣和紋理更加清晰,便于后續(xù)的圖像分割和特征識(shí)別。其次采用Otsu方法對(duì)圖像進(jìn)行二值化,將灰度圖像轉(zhuǎn)換為黑白圖像,區(qū)分圖像中的甲骨文文字和背景。接下來(lái),為減少噪聲,提高圖像質(zhì)量進(jìn)行高斯模糊去噪,最后通過(guò)形態(tài)學(xué)操作完成圖像的預(yù)處理,得到更清晰的圖像。在此基礎(chǔ)上,引入了局部二值模式(LBP)、尺度不變特征變換(SIFT)和方向梯度直方圖(HOG)3種特征提取方法,這些算法結(jié)合使用可以對(duì)特征(尤其是紋理)進(jìn)行多角度的描述,更準(zhǔn)確地進(jìn)行圖像分類和分割,以這些特征作為輸入數(shù)據(jù),建立甲骨文圖像預(yù)處理模型。

        1.1 Otsu算法

        Otsu算法是一種常用來(lái)確定圖像分割閾值的方法,其基本原理是以最佳閾值將圖像的灰度直方圖分割成2部分,使2部分之間的方差最大化[3,6]。

        設(shè)甲骨文圖像的像素為A×B,灰度級(jí)為L(zhǎng)。設(shè)Ni表示灰度級(jí)為i的像素點(diǎn)數(shù),則其理論出現(xiàn)的可能性大小為pi=Ni/A×B。閾值為θ可將圖像中的灰度直方圖按像素分為2類。一類為C1,由灰度值范圍在[0,θ]的像素點(diǎn)組成;另一類為C2,由灰度值范圍在[θ+1,L-1]的像素點(diǎn)組成。令P1(θ)、P2(θ)分別表示兩類出現(xiàn)的概率和,C1(θ)、C2(θ)分別表示兩類像素的灰度均值,σ(θ)、σ(θ)分別為各自方差,G表示為總像素的灰度均值。它們可用公式表示為

        另外,用σ(θ)表示類與類之間的方差,公式為

        σ(θ)=P1(θ)(G1(θ)-G)+P2(θ)(G1(θ)-G)。

        若θ取θ′時(shí),可使σ(θ)的值達(dá)到最大,則θ′就是最優(yōu)閾值

        1.2" 高斯模糊

        高斯模糊是一種常用于圖像預(yù)處理的模糊算法,通過(guò)對(duì)服從高斯分布的像素點(diǎn)圖像進(jìn)行變換處理,盡可能多地過(guò)濾圖像噪聲、模糊干擾因子,從而增強(qiáng)圖像的視覺效果[7]。

        在N維空間上,高斯分布函數(shù)表示為

        式中:對(duì)于而為空間任意一點(diǎn)(x,y),滿足r2=x2+y2,r為模糊半徑,σ即為高斯分布的標(biāo)準(zhǔn)差,可用來(lái)衡量數(shù)據(jù)間的離散度,其大小會(huì)影響高斯模糊的程度。

        從公式上理解高斯模糊,其實(shí)就是對(duì)由圖像中像素點(diǎn)的高斯函數(shù)值組成的矩陣與其相對(duì)應(yīng)的像素值做卷積

        D(x,y,σ)=G(x,y,σ)×I(x,y)

        式中:I(x,y)表示為像素點(diǎn)(x,y)的像素值。

        1.3 形態(tài)學(xué)操作

        形態(tài)學(xué)操作可用于獲取圖像在不同尺度下的結(jié)構(gòu)特征圖像,通過(guò)對(duì)特征圖像強(qiáng)度的調(diào)節(jié)進(jìn)而提高圖像局部區(qū)域的對(duì)比度和抑制干擾因素[8]。本文運(yùn)用的是腐蝕和膨脹基本形態(tài)學(xué)來(lái)處理圖像。

        1.4 特征提取

        引入3種特征提取方法:LBP、SIFT和HOG算法對(duì)特征(特別是紋理)進(jìn)行初步判別和處理。3種算法結(jié)合使用對(duì)特征進(jìn)行多角度的描述,提高對(duì)于甲骨文圖像的噪聲等干擾元素的判別準(zhǔn)確性。

        HOG特征:方向梯度直方圖(HOG)特征是一種用于圖像處理的特征描述法,通過(guò)計(jì)算并對(duì)圖像局部區(qū)域進(jìn)行統(tǒng)計(jì)從而得到方向梯度直方圖,最終實(shí)現(xiàn)特征的構(gòu)成[9]。

        SIFT特征:在生活中,觀察到拍攝得到的圖像常常產(chǎn)生了一些變形,然而,總有一些沒有改變的因子,這些因子就是SIFT(尺度不變特征變換)特征[10]。

        LBP特征:LBP的運(yùn)算過(guò)程可簡(jiǎn)述為:在一個(gè)3×3像素大區(qū)域中,以最中心的像素值為界,將其余8個(gè)小區(qū)域的像素與其比較大小并賦值:大于中心的賦值為1,小于中心的賦值為0。然后分別求積,對(duì)積進(jìn)行累加求和。

        基于以上的操作得到這3張甲骨文原始拓片圖處理后的圖像,處理后的圖像如圖2所示,從左往右每列分別是原始圖像列、灰度圖像列、二值圖像列及腐蝕和膨脹后的形態(tài)學(xué)優(yōu)化列。

        2" 基于U-Net網(wǎng)絡(luò)的甲骨文圖像分割模型的建立

        對(duì)甲骨文原始拓片圖像進(jìn)行圖像預(yù)處理后,建立基于U-Net網(wǎng)絡(luò)的甲骨文圖像分割模型,再利用已標(biāo)注分割的數(shù)據(jù)集對(duì)預(yù)處理數(shù)據(jù)集進(jìn)行訓(xùn)練,實(shí)現(xiàn)對(duì)不同的甲骨文原始拓片圖像進(jìn)行自動(dòng)單字分割,并從不同維度進(jìn)行模型的評(píng)估。

        2.1" U-Net網(wǎng)絡(luò)的基本內(nèi)部結(jié)構(gòu)

        跳躍連接:U-Net引入了跳躍連接(skip connection)的概念:將編碼器和解碼器中的特征圖進(jìn)行拼接,以保留圖像的局部信息。這一結(jié)構(gòu)設(shè)計(jì)使得U-Net能夠更好地恢復(fù)圖像細(xì)節(jié)。

        對(duì)稱性:U-Net的結(jié)構(gòu)是對(duì)稱的,編碼器和解碼器中的每個(gè)模塊都具有相同的形狀和數(shù)量。這種對(duì)稱性使得U-Net在訓(xùn)練過(guò)程中能夠更好地學(xué)習(xí)圖像的上下文信息及更全面地了解甲骨文的信息。

        全卷積網(wǎng)絡(luò):其優(yōu)勢(shì)在于應(yīng)用甲骨文圖像分割中能有效避免為統(tǒng)一格式在原像基礎(chǔ)上修剪致部分?jǐn)?shù)據(jù)丟失,或因按照一定的比例放大或縮小而導(dǎo)致圖像分辨率不高,提取特征困難。

        經(jīng)典的“U”形U-Net網(wǎng)絡(luò)結(jié)構(gòu)圖,該卷積網(wǎng)絡(luò)有2條路線:左半邊為收縮路線,右半邊為擴(kuò)展路線。收縮路線上,首先輸入圖像,重復(fù)2次卷積操作和ReLU激活,接著進(jìn)行下采樣操作:使用最大池化操作減縮次要圖片信息,同時(shí)圖像的維度放大一倍[11]。擴(kuò)展路線上,先將圖像維度縮小一半,進(jìn)行上采樣,并與相對(duì)應(yīng)的收縮路線的裁剪圖進(jìn)行拼合,然后經(jīng)過(guò)2次卷積操作,每次操作后圖像維度都縮小一半,不斷重復(fù)“上采樣—卷積”操作,適時(shí)以二維圖輸出。

        2.2 U-Net網(wǎng)絡(luò)的甲骨文圖像分割模型測(cè)試

        利用h05357.jpg、h05388.jpg和h05299.jpg這3張圖對(duì)U-Net網(wǎng)絡(luò)的甲骨文圖像分割模型進(jìn)行測(cè)試,并以方框顯示甲骨文文字分割結(jié)果,結(jié)果如圖3所示。觀察測(cè)試結(jié)果,可以看出模型測(cè)試效果較好,基本上能夠?qū)⒓坠俏娜糠旁诰匦慰騼?nèi)。

        2.3 多維模型的評(píng)估

        本文引入模型評(píng)估指標(biāo):二分類交叉熵?fù)p失函數(shù)、Dice系數(shù)、交并比、精確度、召回率和F1分?jǐn)?shù)對(duì)模型進(jìn)行多維評(píng)估。

        2.3.1" 二分類交叉熵?fù)p失函數(shù)

        定義F為二分類交叉熵?fù)p失函數(shù),F(xiàn)越小,說(shuō)明預(yù)測(cè)值與真實(shí)值相差較小,否則,則表明預(yù)測(cè)值與真實(shí)值差距較大,公式如下

        2.3.2 Dice系數(shù)

        Dice系數(shù)是一種可用于衡量預(yù)測(cè)范圍與實(shí)際范圍相似性的評(píng)價(jià)指標(biāo)。公式如下

        2.3.3 交并比(IoU)

        IoU是一種用于度量預(yù)測(cè)值與真實(shí)值重疊程度的指標(biāo),公式如下

        2.3.4 精確度(Precision)

        精確度反映了預(yù)測(cè)的準(zhǔn)確性,其值越大,預(yù)測(cè)越準(zhǔn)確,否則,反之。將其用公式表示,如下

        2.3.5" 召回率(Recall)

        召回率表示模型正確識(shí)別出所有相關(guān)實(shí)例的比例,也即盡可能不遺漏地預(yù)測(cè)得到的頻數(shù)與總數(shù)的比值公式如下

        2.3.6" F1分?jǐn)?shù)

        注意到精確度與召回率存在互相沖突的情況,因此,為更加有效地實(shí)現(xiàn)模型的性能評(píng)估,引入精度和召回率的調(diào)和平均數(shù)F1分?jǐn)?shù)。F1分?jǐn)?shù)越高,意味著模型在精度和召回率之間取得了更好的平衡。公式表示為

        式中:y為像素點(diǎn)分類標(biāo)簽,y′為模型預(yù)測(cè)概率,|A|、|B|為所屬集的數(shù)據(jù)總數(shù),|A∩B|表示為2個(gè)數(shù)據(jù)集的重疊數(shù),TP為分別表示為預(yù)測(cè)正確的樣本量,F(xiàn)P為錯(cuò)誤預(yù)測(cè)的樣本量。

        模型的評(píng)估結(jié)果見表1。

        由表1可知,發(fā)現(xiàn)Dice系數(shù)、交并比、召回率等均超過(guò)90%,表明模型對(duì)目標(biāo)區(qū)域的預(yù)測(cè)較準(zhǔn)確,表現(xiàn)出色。其中,Dice系數(shù)略低于其他指標(biāo),說(shuō)明模型在某些邊緣或邊界區(qū)域還可進(jìn)一步提高。

        3 基于FPN的文字識(shí)別模型

        3.1 FPN模型的組成部分

        FPN模型主要有以下幾個(gè)組成部分。

        Backbone網(wǎng)絡(luò):通常是一個(gè)預(yù)訓(xùn)練的卷積神經(jīng)網(wǎng)絡(luò),用于提取圖像的底層特征。

        金字塔結(jié)構(gòu):FPN通過(guò)構(gòu)建一個(gè)金字塔結(jié)構(gòu),將底層特征逐步上采樣到高層特征的尺寸,并將高層特征下采樣到底層特征的尺寸。這樣,模型可以同時(shí)利用不同層次的特征信息。

        自上而下的路徑(Top-down Path):從高層特征開始,通過(guò)反卷積(Deconvolution)和1×1卷積逐步下采樣到低層特征的尺寸。自下而上的路徑(Bottom-up Path):從底層特征開始,通過(guò)1×1卷積和上采樣(通常使用雙線性插值)逐步上采樣到高層特征的尺寸。

        分類和回歸頭(Classification and Regression Heads):在多尺度的特征金字塔上,添加分類和回歸頭,用于預(yù)測(cè)目標(biāo)的位置和類別。FPN(特征金字塔)是一種用于目標(biāo)檢測(cè)的深度學(xué)習(xí)算法,其原理是通過(guò)處在不同層的特征圖之間以向上或向下采樣及橫向連接的卷積操作來(lái)進(jìn)行部分信息的融合共享、從而使信息得以保存并豐富特征圖,提高檢測(cè)的精度[12-13]。

        3.2 基于FPN的文字識(shí)別模型模型測(cè)試

        以包括北賓丙在內(nèi)的76個(gè)已標(biāo)注的甲骨文字形作為訓(xùn)練集(圖4),對(duì)這個(gè)訓(xùn)練集結(jié)合FPN目標(biāo)檢測(cè)進(jìn)行訓(xùn)練,通過(guò)模型評(píng)估對(duì)參數(shù)進(jìn)行調(diào)整,得到文字識(shí)別模型。接著,導(dǎo)入50張甲骨文原始拓片圖像測(cè)試集圖像(圖5),對(duì)其進(jìn)行圖像預(yù)處理后使用基于FPN的文字識(shí)別模型,得到文字自動(dòng)識(shí)別結(jié)果,見表2。

        3.3 模型評(píng)估

        FNP模型在甲骨文文字識(shí)別中的表現(xiàn)可以通過(guò)以下幾個(gè)關(guān)鍵指標(biāo)進(jìn)行評(píng)價(jià):召回率、精確度、平均精度均值mAP(Mean Average Precision)和F1分?jǐn)?shù),其中,平均精度均值mAP是平均精度的均值,它考慮了不同閾值下的精確度,從而提供了對(duì)模型整體性能的更全面評(píng)估。平均精度均值越高,則模型在不同閾下都有較高的準(zhǔn)確性。FPN模型評(píng)估結(jié)果見表3。

        由表3,可得出結(jié)論:所建立的甲骨文文字識(shí)別模型在精確度方面表現(xiàn)出色,但在召回率方面還有提升的空間,可以考慮通過(guò)調(diào)整模型的參數(shù)、增加數(shù)據(jù)集或使用不同的特征提取方法來(lái)進(jìn)一步提高模型的整體性能。

        4 結(jié)束語(yǔ)

        本文主要研究了對(duì)甲骨文原始拓片的單字自動(dòng)分割和智能識(shí)別,通過(guò)分析建立模型,并經(jīng)過(guò)測(cè)試檢驗(yàn),建立的模型能較好地達(dá)成目標(biāo)。因此,本文的研究能夠?yàn)楣盼淖值难芯亢汀皵?shù)字化保護(hù)”提供一些支持.同時(shí),建立的模型還可以被運(yùn)用于其他圖像分割與識(shí)別領(lǐng)域以推動(dòng)學(xué)術(shù)研究和智能技術(shù)的發(fā)展。

        參考文獻(xiàn):

        [1] 高峰,吳琴霞,劉永革,等.基于語(yǔ)義構(gòu)件的甲骨文模糊字形的識(shí)別方法[J].科學(xué)技術(shù)工程,2014(30):67-70.

        [2] LONG J, SHELHAMER T, DARRELL T, et al. Fully convolutional networks for semantic segmentation[C].2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Boston," MA, USA, 2015:431-3440.

        [3] 袁小翠,吳祿慎,陳華偉.基于Otsu方法的鋼軌圖像分割[J].光學(xué)精密工程,2016,24(7):1772-1781.

        [4] 劉海華,陳心浩,高智勇,等.基于形態(tài)學(xué)操作和模糊聚類技術(shù)的超聲圖像分割[J].電子學(xué)報(bào),2007(7):1306-1312.

        [5] 2024年第十四MathorCup高校數(shù)學(xué)建模挑戰(zhàn)賽B題[EB/OL].http://mathorcup.org/detail/2438,2024.4.12.

        [6] 戚曉偉,陳秀宏.改進(jìn)的Otsu方法的雙邊濾波邊緣檢測(cè)算法[J].計(jì)算機(jī)工程與應(yīng)用,2012,48(31):6.

        [7] 丁怡心,廖勇毅.高斯模糊算法優(yōu)化及實(shí)現(xiàn)[J].現(xiàn)代計(jì)算機(jī)(專業(yè)版),2010(8):76-77,100.

        [8] 劉海華,陳心浩,高智勇,等.基于形態(tài)學(xué)操作和模糊聚類技術(shù)的超聲圖像分割[J].電子學(xué)報(bào),2007(7):1306-1312.

        [9] 曲愛妍,張正,梁穎紅,等.基于方向梯度直方圖特征的車臉識(shí)別方法研究[J].軟件工程,2021,24(9):38-43.

        [10] 戴金波.基于視覺信息的圖像特征提取算法研究[D].長(zhǎng)春:吉林大學(xué),2013.

        [11] 周濤,董雅麗,霍兵強(qiáng),等.U-Net網(wǎng)絡(luò)醫(yī)學(xué)圖像分割應(yīng)用綜述[J].中國(guó)圖象圖形學(xué)報(bào),2021,26(9):2058-2077.

        [12] 黨進(jìn).基于改進(jìn)特征金字塔網(wǎng)絡(luò)的目標(biāo)檢測(cè)方法研究[D].銀川:寧夏大學(xué),2023.

        [13] 喬美英,趙巖,史建柯,等.高頻增強(qiáng)網(wǎng)絡(luò)與FPN融合的水下目標(biāo)檢測(cè)[J].電子測(cè)量技術(shù),2023,46(13):146-154.

        猜你喜歡
        拓片甲骨文灰度
        唐 豳州昭仁寺碑拓片
        唐 等慈寺碑拓片
        采用改進(jìn)導(dǎo)重法的拓?fù)浣Y(jié)構(gòu)灰度單元過(guò)濾技術(shù)
        《韋洽墓志》拓片
        基于灰度拉伸的圖像水位識(shí)別方法研究
        北宋《曲行殷墓志》拓片
        甲骨文“禍”字新證
        三千年甲骨文
        遵義(2017年24期)2017-12-22 06:10:48
        基于最大加權(quán)投影求解的彩色圖像灰度化對(duì)比度保留算法
        最“萌”甲骨文——心
        国产亚洲午夜精品久久久| 国精产品一品二品国在线| 99久热re在线精品99 6热视频| 国产精品欧美韩国日本久久| 久久久亚洲精品一区二区| 国产自拍成人在线免费视频| 丰满少妇按摩被扣逼高潮| 97日日碰人人模人人澡| 亚洲欧洲无码av不卡在线| 日本加勒比东京热日韩| 精品国产麻豆一区二区三区| 国产综合开心激情五月| 一本加勒比hezyo无码专区| 高清中文字幕一区二区| 无码人妻精品一区二区三| 亚洲av日韩av高潮潮喷无码| 国产视频在线一区二区三区四区 | 中文字幕女同人妖熟女| 日韩夜夜高潮夜夜爽无码 | 国产精品成人99一区无码| 国产欧美激情一区二区三区| 精品国产日产av在线| 久久精品一区午夜视频| 欧美性受xxxx狂喷水| 欧美a视频在线观看| 青青草视频国产在线观看| 午夜男女靠比视频免费| 亚洲av无码电影在线播放| 亚洲欧美另类激情综合区| 久久夜色精品国产噜噜噜亚洲av | 在线观看视频日本一区二区| 香港三级日本三级a视频| 天天做天天爱天天综合网| 蜜桃一区二区三区自拍视频| 亚洲乱码中文字幕一线区| 97人人模人人爽人人喊网| 看国产黄大片在线观看| 无码伊人久久大蕉中文无码| 一区二区视频网站在线观看 | 人妻精品在线手机观看| 看av免费毛片手机播放|