亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于顏色分量間相關性的圖像拼接篡改檢測方法

        2017-12-14 05:22:18鄭繼明蘇慧嘉
        計算機應用 2017年10期
        關鍵詞:插值分量濾波

        鄭繼明,蘇慧嘉

        (1.重慶郵電大學 理學院,重慶 400065; 2.重慶郵電大學 計算機科學與技術學院,重慶 400065) (*通信作者電子郵箱zhengjm@cqupt.edu.cn)

        基于顏色分量間相關性的圖像拼接篡改檢測方法

        鄭繼明1*,蘇慧嘉2

        (1.重慶郵電大學 理學院,重慶 400065; 2.重慶郵電大學 計算機科學與技術學院,重慶 400065) (*通信作者電子郵箱zhengjm@cqupt.edu.cn)

        由于目前數(shù)碼相機在獲取自然圖像時,都存在著某種顏色濾波陣列(CFA)插值效應,使得圖像顏色分量間具有很大的相關性。針對此問題提出基于CFA插值產(chǎn)生插值特性的圖像拼接篡改檢測方法。首先對圖像顏色分量進行CFA插值預測,得到預測誤差;然后計算圖像塊預測誤差的局部加權方差得到圖像塊的CFA特征;最后根據(jù)高斯混合參數(shù)模型,對提取特征進行分類得到篡改區(qū)域。在標準拼接篡改圖像數(shù)據(jù)集中的實驗結(jié)果顯示,此方法能夠有效地檢測出圖像篡改區(qū)域的精確位置。

        圖像拼接;顏色濾波陣列插值;顏色分量;拼接篡改檢測;預測誤差

        0 引言

        隨著數(shù)字科技的發(fā)展,數(shù)字圖像的真實性受到了嚴峻的挑戰(zhàn),其真實性檢測方法的研究主要集中在被動檢測技術上。目前,已提出多種圖像盲檢測方法,Hsu等[1]教授提出了利用數(shù)碼相機響應函數(shù)(Camera Responding Function, CRF)一致性的圖像拼接篡改檢測算法。如果利用數(shù)碼相機的模式噪聲來檢測拼接區(qū)域[2],需要首先得到某種相機的參考相機模式噪聲,同時要擁有大量的數(shù)字圖像來作基礎,這便大大增加了圖像盲檢測的工作量。Farid等[3]利用圖像中光影關系估計圖像中的光源方向,根據(jù)光源方向的一致性判斷圖像是否經(jīng)過篡改。Luo等[4]提出了基于拼接篡改會破壞圖像內(nèi)在的塊效應特征矩陣(Block Artifacts Characteristic Matrix, BACM)對稱特性的理論來對圖像真實性進行盲檢測。這些方法都依賴于相機成像系統(tǒng)的固有特性和篡改后期處理痕跡來進行拼接檢測。Shi等[5]用相位的一致性、小波域特征函數(shù)統(tǒng)計矩,塊離散余弦變換(Block Discrete Cosine Transform, BDCT)系數(shù)的馬爾可夫轉(zhuǎn)移概率和多尺度小波域特征函數(shù)的各階矩檢測圖像拼接。He等[6]將圖像邊緣的統(tǒng)計矩即游程長度作為圖像拼接的檢測特征,用此統(tǒng)計量特征判斷圖像是否經(jīng)過拼接篡改。王波等[7]通過對圖像進行顏色濾波插值并估計原圖,重建其像素鄰域一致性,利用待測圖像的邊緣點在像素鄰域一致性上偏離估計的原始圖像的程度,對圖像的拼接進行準確定位。Lu等[8]通過將廣度優(yōu)先搜索鄰居(Broad First Search Neighbor, BFSN)的聚類算法與顏色濾波陣列(Color Filter Array, CFA)特征相結(jié)合,利用CFA特征檢測篡改區(qū)域的邊緣,使用BFSN算法尋找相同的多篡改區(qū)域。段新濤等[9]通過圖像篡改前后DCT系數(shù)發(fā)生的變化進而檢測出偽造圖像的篡改區(qū)域。高健等[10]通過CFA處理過程中產(chǎn)生的偽影計算出單個特征點,然后通過簡單閾值對特征點進行分類,最后得到圖像篡改區(qū)域。

        以上方法大多是利用大量圖像建立統(tǒng)計上的模型,并提取若干特征進行量化描述,最后使用分類器進行二分類判決。這類方法的局限在于一方面不能對拼接篡改進行局部定位,另一方面由于圖像的統(tǒng)計特征與圖像內(nèi)容、拍攝環(huán)境和參數(shù)等因素有關,因此對應的模型往往具有樣本依賴性,魯棒性不強。還有某些方法是通過檢測篡改區(qū)域邊緣像素點的不一致性進行定位,由于特征較為單一,導致檢測出的邊緣區(qū)域不連續(xù),定位精度不高。本文提出一種根據(jù)圖像插值像素與鄰域像素的相關性提取特征,進而鑒別圖像的真?zhèn)?不僅能夠準確判決和定位篡改區(qū)域,而且對經(jīng)過后處理的篡改圖像也有良好效果。

        1 圖像插值原理及特性

        數(shù)字圖像采集功能一般用CCD和CMOS傳感器來實現(xiàn),但這兩種傳感器在一個像素上只能采集RGB顏色的一個分量。為了降低成本和設計復雜度,通常使用一個傳感器在表面覆蓋CFA來采集圖像。由于Bayer顏色濾波陣列對顏色信號的敏感度和恢復效果都較好,因此常用的CFA模型是Bayer型[11]。其中Bayer型CFA的顏色濾波陣列如圖1所示。

        圖1 Bayer型CFA

        1.1 圖像插值原理

        當采集到的圖像通過CFA模型濾波后在傳感器上感光,得到的數(shù)據(jù)每個像素點表示RGB中的一種顏色,然后對數(shù)據(jù)進行顏色插值可獲得待采集的彩色圖像。

        在整個圖像陣列中,每個像素只有一個顏色的色調(diào)值,另外兩個顏色的色調(diào)必須利用相鄰像素之間的相關性通過計算獲得,這些方法通常被稱為色彩插值。現(xiàn)以Bayer陣列為基礎,首先利用雙線性插值算法[11]來實現(xiàn)對綠色分量的插值。因為綠色分量占有最多,采樣率高于其他分量,因此保存的信息也比其他兩種分量多。該算法利用相鄰像素域中同色分量的平均值作為當前像素的待求顏色分量,如圖1中R/B像素點處,B22、R33處的綠色分量分別為:

        G22=(G21+G12+G23+G32)/4

        (1)

        G33=(G32+G23+G34+G43)/4

        (2)

        對于紅色和藍色分量的插值是基于色差原理和顏色的相關性原理進行的。因為R-G、B-G色差在插值過程中圖像的顏色不會出現(xiàn)跳躍和突變,使得顏色亮度能夠平滑自然過渡。色差原理表示如下:

        Rij-Gij=Rmn-Gmn

        (3)

        Bij-Gij=Bmn-Gmn

        (4)

        其中:(i,j)和(m,n)都為濾波陣列中像素點坐標。Rij和Gmn是已知值,Gij是對G分量進行雙線性插值后計算的值,則在(m,n)位置上的Rmn可以通過式(5)得到,即

        Rmn=Gmn-Gij+Rij

        (5)

        根據(jù)色差原理以及三個顏色通道的相關性,對綠色像素點上的紅色分量進行插值,由于綠色像素點所處的位置,分為以下兩種情況:

        1)當該綠色像素在奇行偶列時:

        (6)

        2)當該綠色像素在偶行奇列時:

        (7)

        如上所述,對綠色分量上的藍色分量進行插值類似。通過上述圖像CFA插值算法即可恢復出圖像所缺失的所有顏色分量,并將顏色分量疊加起來,即可得到完整的圖像。

        1.2 CFA插值特性

        在檢測待測圖像的CFA信息的一致性時,需要先計算圖像本身的CFA特征。假設數(shù)字圖像的原始色彩濾波陣列為Bayer CFA,然后分別利用不同類型的CFA插值,計算插值圖像與原圖之間的均方誤差,則CFA插值模型一定比其他的模型有最小均方誤差(Mean Square Error, MSE)[12]。

        將圖像分成大小相同的子塊,記為Bi(i=1,2,…,N;N為給定圖像的分塊的數(shù)量)。相應地,使用濾波器k的再插值塊為Bi,k,則Bi,k可以看成為CFA模型與圖像子塊進行卷積得到的。第k個CFA模型的第i個子塊的再次插值誤差定義為:

        Bi,k=f(Bi,Mk);k=1,2,3,4

        (8)

        則整幅圖像在非平滑區(qū)域的塊Bi和Bi,k的MSE計算如式(9)所示:

        (9)

        其中:c為某一顏色分量;D為圖像塊的大小。

        為了檢測通道間的相對誤差距離,通過標準化所有Ei的行引入一個新的誤差矩陣Eii如下:

        (10)

        通過圖CFA模型可以看出,圖像中綠色像素的插值數(shù)量少于紅色和藍色像素的插值數(shù)量,因此綠色像素插值的均方誤差最小。通過計算標準化誤差Eii的綠色分量記為Vi(k)來提取CFA特征,如式(11):

        (11)

        其中c=2。利用特征向量Vi(k)來表示最小MSE的CFA模式數(shù),即p1(i)=arg minVi(k)。在誤差矩陣Eii中取得次小的MSE的模式數(shù)用向量p2表示,同時向量Vi(k)的一致性[10]為:

        (12)

        如果給定一幅待測圖像,并且用CFA插值,那么得到的p1(i)、p2(i)、p3(i)的直方圖應該會集中到一個特定的值,這個值就可以被用來檢測CFA插值操作。p1和p2的直方圖向量分別為H1和H2,計算公式如下:

        (13)

        由此可得Baye CFA插值檢測的4個特征被定義如下:

        (14)

        F3=median(p3)

        (15)

        通過CFA插值所產(chǎn)生的特征能夠判斷待測圖像是否具有一致性,即圖像內(nèi)容來源是否一致。

        2 拼接篡改檢測算法

        圖像拼接篡改是將原始圖像中某一部分或是某幾部分區(qū)域復制粘貼到目標圖像形成新圖像,達到某種目的。其中目標圖像可以是原圖像,也可以是異于原圖像的其他圖像。插值過程在圖像像素點間引入了特殊的相關性,拼接篡改操作破壞了圖像中整體或部分彩色濾波陣列信息,降低了顏色分量之間存在的強相關性和一致性。為了解決拼接篡改的檢測定位問題,本文提出基于CFA的圖像顏色分量間相關性的分析模型,通過提取顏色分量間相關性的特征進而判斷圖像真?zhèn)我约岸ㄎ粓D像篡改區(qū)域。

        2.1 提取特征

        如圖2為在高斯濾波后得到的圖像,其中方格A和方格I分別表示獲得樣本的像素和插值樣本的像素。如果圖像應用CFA插值,則方格A的預測誤差的方差高于方格I的預測誤差的方差;否則兩種方格的預測誤差的方差近似相等。

        圖2 濾波后結(jié)果

        假設待測圖像為I(x,y),那么有預測誤差為:

        (16)

        其中:u、v分別為像素I(x,y)周圍像素的橫縱坐標;hu,v為加權系數(shù)。假設預測誤差具有局部平穩(wěn)性,則預測誤差的局部加權方差計算公式[13]如下:

        (17)

        其中:ai, j為合適的權重;u為預測誤差的局域加權均值;q為使估計無偏的比例因子,k為窗口大小,設置為7。

        記JA(k,l)和JI(k,l)分別為獲得像素A和插值像素I的預測誤差局部方差的幾何均值,而且每個分塊由獲得像素和插值像素的不相交集組成,那么提取的預測誤差的局部方差相關特征L(k,l)如下:

        (18)

        圖3 原始圖像與篡改圖像特征值直方圖

        2.2 篡改區(qū)域的定位

        高斯混合模型[14]是一種有限混合模型,采用有限個特定概率分布密度函數(shù)的加權組合來擬合復雜的概率分布,通過選擇混合分量的類型和個數(shù),可逼近任何連續(xù)的概率分布密度函數(shù)。有限混合模型既具有非參數(shù)化方法的靈活性,同時又保持了參數(shù)化方法的準確性。本文中的高斯混合模型(Gaussian Mixture Model, GMM)就是指對樣本的概率密度分布進行估計,而估計采用的模型是兩個高斯模型的加權和。每個高斯模型就代表一個類,對樣本中的數(shù)據(jù)分別在幾個高斯模型上投影,就會分別得到各個類上的概率,然后選取概率最大的類作為判決結(jié)果。高斯混合模型的定義為:

        (19)

        其中:K為模型的個數(shù);wk為第k個高斯模型的權重;p(x|k)為第k個高斯模型概率密度。在作參數(shù)估計時,常采用的是最大似然方法。最大似然法就是使樣本點在估計的概率密度函數(shù)上的概率值最大。

        對于每個塊B,通過以L(k,l)的值為條件,得到CFA插值特征出現(xiàn)或者不出現(xiàn)的概率,即存在以下兩種情況:

        M1類:表示圖像塊B出現(xiàn)CFA插值特征;

        M2類:表示圖像塊B不出現(xiàn)CFA插值特征。

        那么用條件概率密度函數(shù)描述特征,即為

        (20)

        (21)

        其中:先驗概率為p(M1)=p(M2)=0.5。

        (22)

        由于中值濾波是一種非線性濾波技術,它能夠克服線性濾波器如最小均方濾波、均值濾波等帶來的圖像細節(jié)模糊,而且能夠在濾除圖像中噪聲的同時保護圖像邊緣信息。因此在得到圖像之后進行中值濾波,濾除插值中產(chǎn)生的噪聲點,能夠得到更為精確的篡改區(qū)域。

        整體拼接篡改圖像的檢測步驟如下:

        1)給定一幅待測圖像,并將圖像分為8×8大小的子塊;

        2)提取圖像的顏色分量,并對其進行預測,計算預測誤差;

        3)求取子塊預測誤差的局部加權方差,并提取每個圖像子塊特征L(k,l);

        4)計GMM參數(shù)模型,并生成Map圖,然后進行濾波去噪,得到篡改區(qū)域。

        3 實驗與分析

        為了對所提算法的有效性進行測試和驗證,采用DVMM提供的公開拼接篡改圖像庫[15]進行實驗。該圖像庫由183幅拼接圖像和180幅原始圖像組成。所有的原始圖像由Canon G3,Nikon D70,Canon 350D和Kodak DCS330這四種相機拍攝,分辨率從757×568到1 152×768不等。所有的原始圖像和拼接圖像均為無損TIFF格式,并且實驗環(huán)境為Windows 7、Matlab2013a。

        本文算法在圖像篡改庫中進行實驗。首先計算篡改圖像的特征,接著通過高斯混合參數(shù)模型根據(jù)每個圖像塊被篡改的概率對提取特征進行分類,然后在對數(shù)似然圖像中使用中值濾波器進行去噪,進而得到精確的篡改區(qū)域。為了驗證方法的有效性,將本文方法與文獻[9-10,16]方法進行對比,實驗結(jié)果如圖4所示。

        圖4 拼接篡改圖像和部分方法檢測結(jié)果對比

        從圖4(b)可看出,文獻[16]方法的檢測結(jié)果并不是很精確,并且存在很多誤檢的小區(qū)域,這是因為基于拼接區(qū)域和原始區(qū)域具有不同的噪聲差異,如果兩者之間的噪聲接近,該方法將難以定位拼接區(qū)域,所以此時文獻[16]方法不起作用。

        從圖4(c)~(e)可看出:1)當來自不同原始圖像的背景和對象的原始壓縮因子都相同的情況下,文獻[9]方法的檢測效果較差,這是由于文獻[9]是通過圖像DCT系數(shù)發(fā)生的變化進而檢測出偽造圖像的篡改區(qū)域。2)文獻[10]方法比文獻[16]方法檢測出的結(jié)果更為準確,誤檢區(qū)域也更少。3)本文方法比文獻[10,16]方法檢測的結(jié)果更精確,顯示篡改區(qū)域效果更直觀。

        現(xiàn)實中,圖像中篡改區(qū)域通常會經(jīng)過各種幾何變換(如縮放、旋轉(zhuǎn)等)的處理。為了進一步驗證本文方法的高效性以及魯棒性,本文對圖5(a)所示的篡改圖像進行后處理,包括篡改區(qū)域的縮小和對篡改區(qū)域的邊緣進行平滑處理,以便肉眼無法直觀看出篡改區(qū)域的位置。針對經(jīng)過后處理的圖像進行檢測,檢測結(jié)果如圖5(b)所示。從圖5可看出本文方法檢測出的篡改區(qū)域具有較好的定位效果。

        圖5 后處理的篡改圖像及檢測結(jié)果

        4 結(jié)語

        針對數(shù)字圖像拼接篡改檢測技術,本文提出一種利用CFA插值引入顏色分量之間的相關性來檢測和定位圖像拼接篡改區(qū)域的方法。首先將待測圖像劃分成大小相同的子塊,對圖像顏色分量進行CFA插值預測并計算插值特性;然后將計算每個圖像塊的預測誤差的局部加權方差作為特征;接著通過高斯混合參數(shù)模型對特征進行分類,最后得到圖像篡改區(qū)域的位置。實驗結(jié)果表明該方法對經(jīng)過后處理的拼接篡改圖像也有效。但方法對圖像中較平滑的篡改區(qū)域檢測時存在一定的誤差,未來將在這一方面繼續(xù)開展研究。

        References)

        [1] HSU Y F, CHANG S F. Camera response functions for image forensics: an automatic algorithm for splicing detection [J]. IEEE Transactions on Information Forensics and Security, 2010, 5(4): 816-825.

        [2] CHEN M, FRIDRICH J, GOLJAN M, et al. Determining image origin and integrity using sensor noise [J]. IEEE Transactions on Information Forensics and Security, 2008, 3(1): 74-90.

        [3] FARID H, KEE E, BRIEN J. Exposing photo manipulation with inconsistent shadows [J]. ACM Transactions on Graphics, 2013, 32(4): 1-12.

        [4] LUO W, QU Z, HUANG J, et al. A novel method for detecting cropped and recompressed image block [C]// ICASSP 2007: Proceedings of the 2007 IEEE International Conference on Acoustics, Speech and Signal Processing. Piscataway, NJ: IEEE, 2007, 2: 217-220.

        [5] SHI Y Q, CHEN C, CHEN W. A natural image model approach to splicing detection [C]// MMamp;Sec 2007: Proceedings of the 9th Workshop on Multimedia amp; Security. New York: ACM, 2007: 51-62.

        [6] HE Z, SUN W, LU W. Digital image splicing detection based on approximate run length [J]. Pattern Recognition Letters, 2011, 32(12): 1591-1597.

        [7] 王波, 孔維祥, 尤新剛. 利用顏色濾波矩陣估計原圖的拼接定位盲取證[J]. 電子與信息學報, 2012, 34(1): 200-206. (WNAG B, KONG W X, YOU X G. A blind forensics method for image splicing based on original image estimation using color filter array interpolation [J]. Journal of Electronics amp; Information Technology, 2012, 34(1): 200-206.)[8] LU L, RONGRONG N, YAO Z, et al. Improved SIFT-based copy-move detection using BFSN clustering and CFA features[C]// Proceedings of the 2014 Tenth International Conference on Intelligent Information Hiding and Multimedia Signal Processing. Piscataway, NJ: IEEE, 2014, 2: 626-629.

        [9] 段新濤, 彭濤, 李飛飛, 等. 基于JPEG雙量化效應的圖像盲取證[J]. 計算機應用, 2015, 35(11): 3198-3202. (DUAN X T, PENG T, LI F F, et al. Blind image forensics based on JPEG double quantization effect[J]. Journal of Computer Applications, 2015, 35(11): 3198-3202.)

        [10] 高健, 李喜艷, 任孝鋒. 基于CFA去馬賽克的圖像篡改檢測技術研究[J]. 信息通信, 2015, 1(9): 1-3. (GAO J, LI X Y, REN X F. Research on image tamper detection technology based on CFA demosaicing [J]. Information amp; Communications, 2015, 1(9): 1-3.)

        [11] ALIN C, POPESCU, HANY F. Exposing digital forgeries in color filter array interpolated images[J]. IEEE Transactions on Signal Processing, 2005, 53(10): 3948-3959.

        [12] 李賀新. 圖像篡改檢測算法研究[D]. 保定: 河北大學, 2014: 1-52. (LI H X. Research on image forgery detection algorithm[D]. Haoding: Hebei University, 2014: 1-52.)

        [13] FERRARA P, BIANCHI T. Image forgery localization via fine-grained analysis of CFA artifacts[J]. IEEE Transactions on Information Forensics and Security, 2012, 7(5): 1566-1577.

        [14] TENGFEI L, WEILI J. Automatic line segment registration using Gaussian mixture model and expectation-maximization algorithm[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2014, 7(5): 1688-1699.

        [15] DVMM laboratory of columbia university. Columbia uncompressed image splicing detection evaluation dataset[EB/OL]. [2017- 01- 10]. http://www.ee.columbia.edu/ln/dvmm/downloads/authsplcuncmp/.

        [16] SIWEI L, XUNYU P, XING Z. Exposing region splicing forgeries with blind local noise estimation[J]. International Journal of Computer Vision, 2014, 110(2): 202-221.

        Imagesplicingdetectionmethodbasedoncorrelationbetweencolorcomponents

        ZHENG Jiming1*, SU Huijia2

        (1.CollegeofScience,ChongqingUniversityofPostsandTelecommunications,Chongqing400065,China;2.CollegeofComputerScienceandTechnology,ChongqingUniversityofPostsandTelecommunications,Chongqing400065,China)

        When using digital camera to get natural images, there exits Color Filter Array (CFA) interpolation effect, which makes great correlation between color components of the images. A new method was proposed to detect splicing operation by using interpolation characteristics of CFA interpolation process. Firstly, the prediction error was obtained by CFA interpolation for image color components. Then, the local weighted variance of image block predicting error was calculated to get the CFA characteristics of the natural image. Finally, to classify and derive the local splicing area, the Gaussian Mixture Model (GMM) was used according to extracted features. Experimental results in the standard splicing tamper the image data set demonstrate that the proposed method can effectively detect the exact location of the tampered area of the image.

        image splicing; Color Filter Array (CFA) interpolation; color components; splicing detection; prediction error

        2017- 04- 05;

        2017- 06- 01。

        重慶市教委科學技術研究項目(KJ1400428)。

        鄭繼明(1963—),男,四川簡陽人,教授,碩士,主要研究方向:小波分析、模式識別; 蘇慧嘉(1991—),男,山西朔州人,碩士研究生,主要研究方向:圖像處理。

        1001- 9081(2017)10- 2903- 04

        10.11772/j.issn.1001- 9081.2017.10.2903

        TP391.4

        A

        This work is partially supported by the Science and Technology Research Project of Chongqing Municipal Education Commission (KJ1400428).

        ZHENGJiming, born in 1963, M. S., professor. His research interests include wavelet analysis, pattern recognition.

        SUHuijia, born in 1991, M. S. candidate. His research interests include image processing.

        猜你喜歡
        插值分量濾波
        帽子的分量
        一物千斤
        智族GQ(2019年9期)2019-10-28 08:16:21
        基于Sinc插值與相關譜的縱橫波速度比掃描方法
        論《哈姆雷特》中良心的分量
        分量
        一種改進FFT多譜線插值諧波分析方法
        基于四項最低旁瓣Nuttall窗的插值FFT諧波分析
        RTS平滑濾波在事后姿態(tài)確定中的應用
        基于線性正則變換的 LMS 自適應濾波
        遙測遙控(2015年2期)2015-04-23 08:15:18
        Blackman-Harris窗的插值FFT諧波分析與應用
        亚洲人成网站在线播放小说| 成人国产一区二区三区| 五月丁香六月综合缴清无码| 激情影院内射美女| 学生妹亚洲一区二区| 久久aⅴ无码av高潮AV喷| 国产精品视频白浆免费看| 亚洲国产中文字幕一区| 妺妺跟我一起洗澡没忍住| 激情航班h版在线观看| 亚洲成av人片天堂网九九| 国产一区二区三区视频大全| 亚洲av成人永久网站一区| 久久久久久夜精品精品免费啦| 色偷偷偷久久伊人大杳蕉| 成 人 网 站 免 费 av| 日韩少妇无码一区二区免费视频| 91青青草手机在线视频| 中文字幕一区二区三区久久网| 国产成人无码精品久久二区三区| 三上悠亚av影院在线看| 九月色婷婷免费| 成人国产高清av一区二区三区| 国产99久久久国产精品~~牛| 人妻中文无码久热丝袜| 国产农村三片免费网站| av男人操美女一区二区三区| 色婷婷久久精品一区二区| 成人免费直播| 久久97精品久久久久久久不卡 | 毛茸茸性xxxx毛茸茸毛茸茸| 天堂av无码大芭蕉伊人av孕妇黑人 | 三区中文字幕在线观看| 精品亚洲成a人无码成a在线观看 | 日本骚色老妇视频网站| 亚洲国产成人久久精品一区| 午夜裸体性播放| 国产一在线精品一区在线观看 | 97av在线播放| 一本色道精品亚洲国产一区| 国产一精品一av一免费爽爽|