亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種改進(jìn)AlexNet的車(chē)牌識(shí)別方法

        2022-06-28 02:56:38許江華陳德裕
        軟件導(dǎo)刊 2022年6期
        關(guān)鍵詞:池化車(chē)牌準(zhǔn)確率

        許江華,解 妍,陳德裕

        (南通大學(xué)信息科學(xué)技術(shù)學(xué)院,江蘇南通 226019)

        0 引言

        智能交通系統(tǒng)將先進(jìn)的數(shù)據(jù)通信傳輸技術(shù)、傳感器技術(shù)、電子控制技術(shù)和計(jì)算機(jī)技術(shù)相結(jié)合,是交通系統(tǒng)的未來(lái)發(fā)展趨勢(shì)[1-3],車(chē)牌識(shí)別技術(shù)作為智能交通系統(tǒng)的重要組成部分受到廣泛關(guān)注。隨著國(guó)家的高速發(fā)展,高速公路、城市道路、停車(chē)場(chǎng)建設(shè)越來(lái)越多,對(duì)交通控制、安全管理的要求也日益提高,車(chē)牌識(shí)別技術(shù)不可或缺[4]。

        傳統(tǒng)的車(chē)牌識(shí)別技術(shù)通過(guò)車(chē)牌字符分割然后再進(jìn)行單個(gè)車(chē)牌字符識(shí)別[5-6],存在效率低、可靠性差的問(wèn)題。單個(gè)車(chē)牌字符識(shí)別方法有模板匹配方法[7-8]、反向傳播神經(jīng)網(wǎng)絡(luò)算法[9-10]和特征匹配方法[11-13]。近年來(lái)卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)在圖像識(shí)別領(lǐng)域顯示出巨大潛力,得到廣泛應(yīng)用[14]。文獻(xiàn)[15]提出一種基于CNN 的低成本車(chē)牌字符識(shí)別算法,通過(guò)使用離焦模糊、局部動(dòng)作模糊、池化等失真方法對(duì)低牌照樣本集進(jìn)行仿真,然后將樣本集放入Le-Net5 網(wǎng)絡(luò)進(jìn)行訓(xùn)練,但改進(jìn)后的算法與傳統(tǒng)算法相比未有顯著改進(jìn)。為進(jìn)一步提高車(chē)牌識(shí)別準(zhǔn)確率,增強(qiáng)車(chē)牌識(shí)別方法的魯棒性,本文對(duì)典型的卷積神經(jīng)網(wǎng)絡(luò)模型AlexNet[16]進(jìn)行改進(jìn),提出一種基于改進(jìn)AlexNet 的車(chē)牌識(shí)別方法,實(shí)驗(yàn)結(jié)果表明這一方法可以有效提高車(chē)牌識(shí)別的準(zhǔn)確率和效率。

        1 典型的卷積神經(jīng)網(wǎng)絡(luò)模型AlexNet

        卷積神經(jīng)網(wǎng)絡(luò)是一種多層非全連接的神經(jīng)網(wǎng)絡(luò)[17],主要包括卷積層和采樣層。對(duì)AlexNet、VGG、GoogleNet、ResNet[18-19]等幾大經(jīng)典模型綜合分析,考慮在計(jì)算能力有限的設(shè)備上深度過(guò)深的網(wǎng)絡(luò)不能實(shí)現(xiàn)實(shí)時(shí)的車(chē)牌識(shí)別問(wèn)題。同時(shí),本文所涉及的數(shù)據(jù)任務(wù)相對(duì)簡(jiǎn)單,不需要VGG、GoogleNet 等深層網(wǎng)絡(luò)模型,因此選擇AlexNet 網(wǎng)絡(luò)模型作為本文車(chē)牌識(shí)別算法的基礎(chǔ)結(jié)構(gòu)。

        AlexNet 開(kāi)始是用來(lái)做圖像分類(lèi)的,其網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。該網(wǎng)絡(luò)包含8 層帶權(quán)重的層,前5 個(gè)是卷積層,在每個(gè)卷積層中都包含激活函數(shù)Relu 和局部響應(yīng)歸一化(LRN)過(guò)程,其余3 個(gè)完全連接。最后一個(gè)完全連接層的輸出被饋送到1 000 路Softmax,后者在1 000 類(lèi)標(biāo)簽上分布。本網(wǎng)絡(luò)的最終優(yōu)化目標(biāo)是使平均多項(xiàng)式邏輯回歸最大化,這等效于在預(yù)測(cè)分布下最大化正確標(biāo)簽對(duì)數(shù)概率的訓(xùn)練案例平均值。AlexNet網(wǎng)絡(luò)操作流程如下:

        (1)輸入圖像(尺寸:224×224×3),它實(shí)際上被預(yù)處理為227×227×3。

        (2)特征提取,96 個(gè)濾鏡(或稱(chēng)為卷積核)的大小為11×11。第一個(gè)卷積層對(duì)224×224×3 輸入圖像進(jìn)行過(guò)濾,其中96個(gè)核的大小為11×11×3,步長(zhǎng)為4像素(這是內(nèi)核圖中相鄰神經(jīng)元的感受范圍中心之間的距離)。

        (3)使用Relu激活函數(shù)以確保特征圖的值在合理范圍內(nèi)。

        (4)Overlapping Pooling,提取代表性特征,減少冗余信息。

        (5)使用Local Response Normalization(LRN)局部響應(yīng)歸一化,模型的卷積核大小為3×3,這意味著處理3×3 的區(qū)域。通過(guò)池化獲得96 個(gè)大小為3×3 的特征圖,然后將這些特征圖作為第二次卷積的輸入數(shù)據(jù)。

        (6)其余卷積層的操作過(guò)程與第一個(gè)卷積層相似。第二個(gè)卷積層將第一個(gè)卷積層的輸出(經(jīng)響應(yīng)歸一化和合并處理)作為輸入,并使用大小為5×5×48 的256 個(gè)卷積核對(duì)其進(jìn)行過(guò)濾。第三、第四和第五個(gè)卷積層彼此連接而沒(méi)有任何中間的池化或規(guī)范化層。第三卷積層具有384 個(gè)大小為3×3×256 的卷積核,這些卷積核與第二卷積層的(標(biāo)準(zhǔn)化,合并的)輸出連接。第四卷積層具有384 個(gè)3×3×192大小的卷積核,第五卷積層具有256 個(gè)3×3×192 大小的卷積核。完全連接的層各有4 096個(gè)神經(jīng)元。

        Fig.1 AlexNet neural network structure圖1 AlexNet神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

        2 改進(jìn)的AlexNet卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

        基于CNN 的車(chē)牌識(shí)別方法由兩部分構(gòu)成:①輸入訓(xùn)練圖像集訓(xùn)練CNN 模型;②將待識(shí)別的車(chē)牌圖像輸入訓(xùn)練好的模型進(jìn)行識(shí)別,流程如圖2所示。

        Fig.2 CNN-based license plate recognition process圖2 基于CNN的車(chē)牌識(shí)別流程

        本文選擇AlexNet 網(wǎng)絡(luò)模型作為基礎(chǔ)結(jié)構(gòu),對(duì)其層次、參數(shù)等進(jìn)行改進(jìn)。原Aelxnet 模型的圖片輸入的尺寸為227×227×3,考慮到車(chē)牌的實(shí)際規(guī)格大小,決定將輸入圖片的規(guī)格更改為36×136×3。

        2.1 減小卷積層大小

        卷積是CNN 中最重要的運(yùn)算。將二維圖像的卷積計(jì)算映射到連續(xù)滑動(dòng)卷積窗口,得到相應(yīng)的卷積值。在CNN中,每個(gè)特征圖由多個(gè)輸入特征圖進(jìn)行卷積。對(duì)于第i個(gè)卷積層的輸入x計(jì)算如下:

        其中,*表示卷積運(yùn)算,Wi表示該層的卷積核,f表示激活函數(shù)。,K是該層卷積核的個(gè)數(shù)。每個(gè)卷積核是一個(gè)M×M×N的權(quán)矩陣,M是窗口大小,N是輸入通道數(shù)目。本文采用3×3 的卷積核替換Alexnet 模型中第一層卷積層中11×11 的卷積核以及第二層卷積層中5×5 的卷積核,一方面可以大大減少網(wǎng)絡(luò)參數(shù)的個(gè)數(shù),另一方面可以引入更多的非線(xiàn)性,增強(qiáng)模型的表達(dá)能力。

        2.2 使用Relu激活函數(shù)并加入Batch Normalization

        常用激活函數(shù)分為飽和非線(xiàn)性函數(shù)和不飽和非線(xiàn)性函數(shù)。飽和非線(xiàn)性函數(shù),如Sigmoid 和Tanh,在訓(xùn)練網(wǎng)絡(luò)時(shí)的性能比不飽和非線(xiàn)性函數(shù)差。Relu 激活函數(shù)是一種不飽和非線(xiàn)性函數(shù),本質(zhì)上是一種分段線(xiàn)性模型,可以模擬腦神經(jīng)元接收信號(hào),函數(shù)圖形如圖3所示。

        2.1.7 重復(fù)性試驗(yàn) 取同一批KC粉末(批號(hào)F31008),按照“2.1.3”項(xiàng)下方法制備6份試品溶液,按照“2.1.1”項(xiàng)下色譜條件進(jìn)樣測(cè)定,金絲桃苷、朝藿定B、朝藿定A、朝藿定C、淫羊藿苷、木犀草素、槲皮素、川陳皮素、山柰酚、寶藿苷I的平均質(zhì)量分?jǐn)?shù)分別為6.22、4.12、35.07、32.62、47.32、0.213、0.402、0.380、0.336、2.86 mg/g,RSD分別為1.90%、0.78%、1.04%、0.70%、0.68%、2.61%、1.92%、1.45%、2.92%、0.84%,表明該方法重復(fù)性較好。

        Fig.3 Relu activation function圖3 Relu激活函數(shù)

        Relu 激活函數(shù)可以自適應(yīng)地學(xué)習(xí)整流器參數(shù),在不增加額外成本的情況下提高精度。本文在模型中加入Relu激活函數(shù),以防止加速網(wǎng)絡(luò)訓(xùn)練時(shí)出現(xiàn)梯度分散問(wèn)題,提高識(shí)別精度。對(duì)于輸入x,Relu 激活函數(shù)定義為:

        為防止AlexNet 模型過(guò)擬合,增強(qiáng)泛化能力,在第一層卷積層和第二層卷積層的激活函數(shù)后面引入局部響應(yīng)歸一化層(Local Response Normalization,LRN)。在本文模型中LRN 層并沒(méi)有什么實(shí)際效果,因此不采用LRN 層。Batch Normalization(Batch-Norm)是一種通過(guò)穩(wěn)定層輸入分布來(lái)提高神經(jīng)網(wǎng)絡(luò)訓(xùn)練的技術(shù)。Batch-Norm 層最初設(shè)計(jì)是為緩解內(nèi)部協(xié)變量移位的問(wèn)題——這是訓(xùn)練一個(gè)非常深入的神經(jīng)網(wǎng)絡(luò)時(shí)常見(jiàn)的問(wèn)題。首先對(duì)小批量中的每個(gè)特性進(jìn)行標(biāo)準(zhǔn)化,然后學(xué)習(xí)每個(gè)小批量的公共斜率和偏差。給定BN 層X(jué)∈Rn×p的輸入,其中n表示批大小,p為特征維數(shù),BN 層對(duì)特征j∈{1,…,p}的轉(zhuǎn)換公式為:

        其中,xj和yj是數(shù)據(jù)樣本中一個(gè)神經(jīng)元響應(yīng)的輸入/輸出標(biāo)量;X.j表示輸入數(shù)據(jù)的第j列;γj和βj參數(shù)是習(xí)得的,這種轉(zhuǎn)換保證了每一層的輸入分布在不同的小批之間保持不變。對(duì)于隨機(jī)梯度下降(SGD)優(yōu)化,一個(gè)穩(wěn)定的輸入分布可以極大地促進(jìn)模型收斂,從而大大提高CNN 的訓(xùn)練速度。此外,如果在每個(gè)階段對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行變換,那么相同的訓(xùn)練樣本將被應(yīng)用于不同的轉(zhuǎn)換,換句話(huà)說(shuō),就是在整個(gè)訓(xùn)練過(guò)程中更全面地?cái)U(kuò)展。

        在Relu 激活函數(shù)后加入Batch-Norm 層可以顯著減少收斂的迭代次數(shù),使優(yōu)化過(guò)程變得更加平滑,這種平滑性使得梯度運(yùn)動(dòng)具有更強(qiáng)的預(yù)測(cè)性和穩(wěn)定性,從而實(shí)現(xiàn)更快、更有效的訓(xùn)練,提高模型最終性能。

        2.3 采用普通池化

        隨著卷積層數(shù)的增加,網(wǎng)絡(luò)的參數(shù)將呈指數(shù)增長(zhǎng),池化操作可以有效減少網(wǎng)絡(luò)參數(shù)的數(shù)量。為了減少所有區(qū)域的參數(shù),通過(guò)計(jì)算一個(gè)區(qū)域的統(tǒng)計(jì)特征來(lái)進(jìn)行池化操作,以表示整個(gè)區(qū)域特征。AlexNet 模型為了減輕過(guò)擬合采用Overlapping Pooling(重疊池化),步長(zhǎng)小于池化窗口大小,相鄰的池化窗口之間有重疊區(qū)域,Overlapping Pooling只能“稍微”減輕過(guò)擬合。因此,本文模型選擇采用普通池化中的Max Pooling(最大值池化),即選擇圖像區(qū)域的最大值作為該區(qū)域池化后的值,池化窗口設(shè)為2×2,步長(zhǎng)設(shè)為2。

        2.4 去掉前兩個(gè)全連接層,添加Flatten層,加入dropout操作

        全連接層(fully connected layers)在整個(gè)卷積神經(jīng)網(wǎng)絡(luò)中扮演“分類(lèi)器”角色。經(jīng)計(jì)算AlexNet 的3 個(gè)全連接層分別包含37 752 832、16 781 312、4 097 000個(gè)參數(shù),而整個(gè)模型的參數(shù)量為60 965 128,全連接層包含了模型約96.2%的網(wǎng)絡(luò)參數(shù)。巨大的網(wǎng)絡(luò)參數(shù)要求極高的訓(xùn)練數(shù)據(jù)量,原始AlexNet 使用擁有百萬(wàn)級(jí)別數(shù)據(jù)量的ImageNet,而本文車(chē)牌識(shí)別收集到的數(shù)據(jù)量只有數(shù)萬(wàn)級(jí),相對(duì)少很多,因此本文通過(guò)去掉AlexNet 網(wǎng)絡(luò)模型3 個(gè)全連接層中的前兩個(gè)全連接層來(lái)減少整個(gè)模型的網(wǎng)絡(luò)參數(shù)。

        Flatten 層即展平層,由于全連接層要求輸入一維數(shù)據(jù),因此在進(jìn)入全連接層之前必須將輸入數(shù)據(jù)“展平”為一維。dropout 操作可以通過(guò)阻止某些特征的協(xié)同作用來(lái)緩解神經(jīng)網(wǎng)絡(luò)中訓(xùn)練樣本較少的情況。每個(gè)輸入樣本對(duì)應(yīng)的網(wǎng)絡(luò)結(jié)構(gòu)是不同的,但是所有這些不同的網(wǎng)絡(luò)結(jié)構(gòu)同時(shí)共享隱藏節(jié)點(diǎn)的權(quán)值,使不同的樣本對(duì)應(yīng)不同的模型。簡(jiǎn)單來(lái)說(shuō),dropout 操作是通過(guò)隨機(jī)抑制一定數(shù)量的神經(jīng)元來(lái)實(shí)現(xiàn)的,被抑制的神經(jīng)元暫時(shí)不參與網(wǎng)絡(luò)的正向通訊。為了防止過(guò)擬合,提高模型的泛化程度,在本文模型中加入dropout操作,dropout操作的概率值選擇為0.5。

        2.5 損失函數(shù)

        損失函數(shù)衡量的是預(yù)測(cè)結(jié)果與輸入標(biāo)簽之間的差異,定義為:

        本文使用一種隨機(jī)梯度下降(SGD)算法,其中W 迭代更新如下:

        其中,α 是學(xué)習(xí)速率,是一個(gè)非常重要的參數(shù),它決定了學(xué)習(xí)的步長(zhǎng)。K是類(lèi)的指標(biāo)。

        2.6 將輸出的Softmax分類(lèi)層改為7類(lèi)

        AlexNet 模型的輸出層具有1 000 個(gè)分類(lèi)數(shù)目,本文將輸出的Softmax 分類(lèi)層改為7 類(lèi),對(duì)應(yīng)車(chē)牌的7 個(gè)字符。我國(guó)車(chē)牌字符包括31 省、市的簡(jiǎn)稱(chēng)即31 個(gè)中文字符、24 個(gè)英文字母(除去O 和I)以及10 個(gè)阿拉伯?dāng)?shù)字。車(chē)牌識(shí)別問(wèn)題可以看作是包含65個(gè)標(biāo)簽的多標(biāo)簽分類(lèi)問(wèn)題,如圖4所示。

        Fig.4 Softmax classification layer圖4 Softmax分類(lèi)層

        圖4 中,每一行的概率之和為1,最后依次輸出每一行中最大概率值相對(duì)應(yīng)的字符,即獲得7位車(chē)牌號(hào)碼。

        改進(jìn)后的AlexNet卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)如圖5所示。

        Fig.5 Improved AlexNet convolutional neural network structure圖5 改進(jìn)的AlexNet卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

        3 實(shí)驗(yàn)結(jié)果與分析

        對(duì)本文車(chē)牌識(shí)別方法的有效性進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)環(huán)境和參數(shù)如下:Inter Core i7-6700,3.40GHz CPU,16GB 內(nèi)存,Windows 10操作系統(tǒng),TensorFLow 深度學(xué)習(xí)框架。

        網(wǎng)絡(luò)模型實(shí)驗(yàn)參數(shù)設(shè)置如下:最大迭代次數(shù)為300 000次,初始學(xué)習(xí)率為0.000 1。為防止過(guò)擬合,設(shè)置dropout參數(shù)keep_prob為0.5。每迭代10 000次,保存一次模型。

        由于樣本量的問(wèn)題,采用車(chē)牌生成器對(duì)車(chē)牌樣本進(jìn)行擴(kuò)充,共得到30 760 張車(chē)牌數(shù)據(jù),其中包含自收集的車(chē)牌圖片顏色定位、Sobel 邊緣檢測(cè)結(jié)合SVM 的車(chē)牌定位方法提取到的3 793 張車(chē)牌數(shù)據(jù),將車(chē)牌按10:1 分為訓(xùn)練集和測(cè)試集。

        將基于車(chē)牌字符分割結(jié)合ANN 車(chē)牌識(shí)別方法、基于車(chē)牌字符分割結(jié)合SVM 車(chē)牌識(shí)別方法與本文基于改進(jìn)AlexNet 車(chē)牌識(shí)別方法進(jìn)行對(duì)比實(shí)驗(yàn),將這3 種算法分別在自收集的測(cè)試集和EasyPR 數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),選取其中5張車(chē)牌的對(duì)比實(shí)驗(yàn)結(jié)果,如表1 所示。截取部分實(shí)驗(yàn)結(jié)果圖片如圖6-圖8所示。

        Table 1 Part of the license plate recognition results表1 部分車(chē)牌識(shí)別結(jié)果

        對(duì)比實(shí)驗(yàn)結(jié)果如表2 和表3 所示。車(chē)牌識(shí)別準(zhǔn)確率表示車(chē)牌內(nèi)所有字符均被正確識(shí)別的結(jié)果(準(zhǔn)確率=正確個(gè)數(shù)/測(cè)試個(gè)數(shù)),車(chē)牌識(shí)別時(shí)間表示每個(gè)車(chē)牌識(shí)別的平均時(shí)間。

        從表2 和表3 可以看出,本文車(chē)牌識(shí)別方法在自收集數(shù)據(jù)集上識(shí)別準(zhǔn)確率高達(dá)97.31%,在公共EasyPR 數(shù)據(jù)集上識(shí)別準(zhǔn)確率高達(dá)98.03%,不僅在識(shí)別準(zhǔn)確率方面均優(yōu)于其他對(duì)比方法,識(shí)別速度也具有優(yōu)勢(shì),在車(chē)牌識(shí)別領(lǐng)域具有一定的優(yōu)越性。

        Fig.6 Character segmentation combined with ANN recognition results圖6 字符分割結(jié)合ANN識(shí)別結(jié)果

        Fig.7 Character segmentation combined with SVM recognition result圖7 字符分割結(jié)合SVM識(shí)別結(jié)果

        Fig.8 License plate recognition results in this article圖8 本文車(chē)牌識(shí)別結(jié)果

        Table 2 Recognition results of different license plate recognition methods on self-collected data sets表2 不同車(chē)牌識(shí)別方法在自收集數(shù)據(jù)集的識(shí)別結(jié)果

        Table 3 Recognition results of different license plate recognition methods in EasyPR dataset表3 不同車(chē)牌識(shí)別方法在EasyPR數(shù)據(jù)集的識(shí)別結(jié)果

        4 結(jié)語(yǔ)

        本文選擇AlexNet 網(wǎng)絡(luò)模型作為基礎(chǔ)結(jié)構(gòu),對(duì)其層次、參數(shù)等進(jìn)行改進(jìn)和重構(gòu),提出一種新的適用于車(chē)牌識(shí)別的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。實(shí)驗(yàn)結(jié)果表明,采用基于改進(jìn)AlexNet 的車(chē)牌識(shí)別方法進(jìn)行自然場(chǎng)景下的車(chē)牌識(shí)別,避免了車(chē)牌字符分割對(duì)識(shí)別結(jié)果的影響,降低了復(fù)雜背景環(huán)境對(duì)車(chē)牌識(shí)別的影響,具有較高的識(shí)別率和可靠性。但由于樣本量問(wèn)題,在訓(xùn)練模型過(guò)程中采用了許多擴(kuò)充樣本,影響了模型訓(xùn)練結(jié)果,后期將針對(duì)這一問(wèn)題進(jìn)行改進(jìn),同時(shí)將嘗試采用不同的神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,以進(jìn)一步提高車(chē)牌識(shí)別準(zhǔn)確率。

        猜你喜歡
        池化車(chē)牌準(zhǔn)確率
        基于緊湊型雙線(xiàn)性網(wǎng)絡(luò)的野生茵識(shí)別方法研究
        基于Sobel算子的池化算法設(shè)計(jì)
        卷積神經(jīng)網(wǎng)絡(luò)中的自適應(yīng)加權(quán)池化
        乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
        健康之家(2021年19期)2021-05-23 11:17:39
        不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
        2015—2017 年寧夏各天氣預(yù)報(bào)參考產(chǎn)品質(zhì)量檢驗(yàn)分析
        數(shù)字圖像處理技術(shù)在車(chē)牌識(shí)別系統(tǒng)中的應(yīng)用
        電子制作(2019年12期)2019-07-16 08:45:16
        基于卷積神經(jīng)網(wǎng)絡(luò)和池化算法的表情識(shí)別研究
        高速公路車(chē)牌識(shí)別標(biāo)識(shí)站準(zhǔn)確率驗(yàn)證法
        第一張車(chē)牌
        精品国产黄一区二区三区| 色www亚洲| 熟女人妻一区二区在线观看| 漂亮人妻出轨中文字幕 | 国产精品亚洲在钱视频| 久久红精品一区二区三区| 国产精品久久久久久久妇| 国产精品国产三级农村妇女| 亚洲一区二区三区中文视频| 亚洲综合中文字幕日韩| 亚洲成av人的天堂在线观看| 国产av一区二区三区日韩| 亚洲蜜芽在线精品一区| 精华国产一区二区三区| 九九久久99综合一区二区| 男人扒开女人双腿猛进女人机机里 | 久久www免费人成人片| 亚洲国产精品嫩草影院久久| 一本色道久久88综合亚精品| 亚洲黄色天堂网站在线观看禁18| 精品国产乱码久久久久久1区2区| 午夜无码一区二区三区在线| 亚洲女同性恋激情网站| 国产极品视觉盛宴| 无码国产精品一区二区vr老人| 粉嫩小泬无遮挡久久久久久| 国内偷拍国内精品多白86| 国产69精品久久久久久久| 国产一区a| 亚洲伊人av综合福利| 久久国产成人精品av| 国产人妻无码一区二区三区免费| 免费在线日韩| 国产丝袜长腿美臀在线观看| 免费久久人人爽人人爽av| 日日摸日日碰人妻无码老牲| 日韩亚洲国产中文字幕| 成视频年人黄网站免费视频| 国产精品亚洲日韩欧美色窝窝色欲 | 日韩中文字幕在线丰满| 色偷偷亚洲第一成人综合网址|