亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        CNN與SVM和ResNet相結(jié)合的牛臉識別系統(tǒng)模型研究與實(shí)現(xiàn)

        2022-08-16 02:28:14朱敏玲趙亮亮和首杰
        關(guān)鍵詞:池化層殘差卷積

        朱敏玲,趙亮亮,和首杰

        (北京信息科技大學(xué) 計(jì)算機(jī)學(xué)院,北京 100101)

        0 引言

        隨著畜牧養(yǎng)殖業(yè)向規(guī)?;?、信息化、精細(xì)化的方向發(fā)展,集約化牛場將漸漸取代散戶養(yǎng)殖等小規(guī)模的養(yǎng)殖模式。在大規(guī)?;鲋幸獙?shí)現(xiàn)對牛個(gè)體自動化、信息化的日常精細(xì)化管理,實(shí)現(xiàn)對每頭牛的健康狀況追蹤以及奶源和肉制品追溯,必須實(shí)現(xiàn)質(zhì)量追溯體系的搭建與完善,而關(guān)鍵又在于對牛個(gè)體身份的識別[1]。傳統(tǒng)的牛個(gè)體身份識別需借助外部工具對身體某部位進(jìn)行標(biāo)記或者佩戴標(biāo)記裝置,識別方法具有侵入性,不僅嚴(yán)重影響日常行為,還可能引發(fā)全隱患[2]。

        從20世紀(jì)60年代以來,在物體識別的領(lǐng)域內(nèi),人臉識別一直受到眾多學(xué)術(shù)人士的研究和嘗試,尤其在計(jì)算機(jī)領(lǐng)域內(nèi)視覺處理與圖像處理方向和相關(guān)的生物學(xué)方向激起了研究人員的探討和興趣[3]。目前,對于人臉的檢測和識別取得了非常大的成功。牛臉較其身體的其他部位具有眼睛、鼻子、嘴等結(jié)構(gòu)及紋理的突出特征,比較適合牛不同身份的標(biāo)識。當(dāng)前鑒于人臉識別的技術(shù)在很多行業(yè)內(nèi)部獲得廣泛應(yīng)用,對牛臉識別技術(shù)的發(fā)展具有較強(qiáng)的可借鑒空間。Hadad等[4]采用基于分割的分形紋理分析提取牛鼻特征,提出人工神經(jīng)網(wǎng)絡(luò)(ANN)和支持向量機(jī)(SVM)建立牛分類模型。Kumar等[5]利用加速魯棒特征(SURF)和局部二值模式(LBP)等紋理特征描述,從不同高斯金字塔平滑級別的牛鼻口圖像中提取特征,同時(shí)采用融合加權(quán)和規(guī)則方法對高斯平滑層上的特征描述進(jìn)行融合,完成對牛分類。姚禮垚等[6]針對傳統(tǒng)檢測方法在牛臉檢測應(yīng)用方面存在的檢測設(shè)備易損、檢測結(jié)果不理想等問題,使用目前有代表性的基于深度網(wǎng)絡(luò)模型的目標(biāo)檢測方法(SSD,F(xiàn)aster R-CNN和R-FCN)對牛臉檢測進(jìn)行試驗(yàn)對比。蔡騁等[7]指出牛場當(dāng)中的視頻監(jiān)控圖像在實(shí)際生產(chǎn)環(huán)境下由于攝像機(jī)拍攝方位存在不足、太陽光照不均勻、牛場中一些物體遮擋牛臉等一系列問題,首先采用級聯(lián)式檢測器進(jìn)行定位采集牛臉正面圖像,在獲取定位到牛臉正面信息時(shí),利用監(jiān)督式梯度下降算法、局部二值算法和主動外觀模型算法,驗(yàn)證了對于牛臉進(jìn)行特征點(diǎn)檢測的可行性和實(shí)用性。此類方法的關(guān)注點(diǎn)只有牛的正臉方面,導(dǎo)致在前面準(zhǔn)備工作量巨大,并且自動采集牛臉數(shù)據(jù)在實(shí)際的實(shí)施過程中很難實(shí)現(xiàn)。因?yàn)槿四樉哂胁煌奈骞偬卣?,所以對于人臉識別是比較容易[8];而牛臉上面的毛發(fā)和顏色分布是不穩(wěn)定的,并且圖像采集的過程是無法控制的,牛沒有辦法在攝像頭前長時(shí)間靜止,尤其在大自然的環(huán)境下,太陽光時(shí)刻變化、照相機(jī)視角和距離的變化、復(fù)雜的背景、牛自身的活動等因素導(dǎo)致圖像采集十分困難。采集到不規(guī)則的牛臉會對于模型初步訓(xùn)練和最后的識別精度有極大影響。因而與人臉識別相比,牛臉表面特征雜亂性以及各種外部因素的影響,導(dǎo)致對于牛臉的識別技術(shù)在實(shí)際生活中沒有大規(guī)模普及。故而,基于CNN在人臉識別上的優(yōu)勢,展開針對牛臉的CNN遷移與改進(jìn)方法研究有一定的可行性并且也是非常重要的。

        1 傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)

        卷積神經(jīng)網(wǎng)絡(luò)(CNN)是深度學(xué)習(xí)的重要算法之一,是卷積計(jì)算且具有深度結(jié)構(gòu)的前饋神經(jīng)網(wǎng)絡(luò)[9]。卷積神經(jīng)網(wǎng)絡(luò)表征學(xué)習(xí)能力強(qiáng),能夠按其階層結(jié)構(gòu)對輸入信息進(jìn)行平移不變分類[10]。如圖1所示,CNN通常含有輸入層、卷積層、池化層、全連接層和Softmax層[11],其中卷積層占最為重要的地位。除此之外,卷積神經(jīng)網(wǎng)絡(luò)還有兩大重要的特點(diǎn),分別為局部感知和參數(shù)共享[12]。局部感知是每個(gè)神經(jīng)元不與上一層的全部神經(jīng)元連接而只和其中感受野內(nèi)的神經(jīng)元連接,因?yàn)檫@樣只能感知到感受野內(nèi)的部分而并非全局,因此叫做局部感知[13]。之所以這樣做是因?yàn)樾》秶鷥?nèi)的像素之間聯(lián)系較大,離得越遠(yuǎn)的像素之間通常關(guān)聯(lián)越小[14]。權(quán)值共享就是對于圖像中的每一種特征只通過一個(gè)卷積核來進(jìn)行過濾。如此,網(wǎng)絡(luò)通過這2個(gè)重要的特點(diǎn)來減少參數(shù)達(dá)到簡潔。處理圖像問題時(shí),需要考慮到圖片的大小規(guī)格,例如對一個(gè)900×900圖像的訓(xùn)練難以實(shí)現(xiàn),所以要想辦法減少參數(shù)。

        圖1 典型CNN結(jié)構(gòu)

        卷積神經(jīng)網(wǎng)絡(luò)中卷積層、池化層和全連接層,每一層都將實(shí)現(xiàn)不同的功能,每個(gè)連接層代表不同類型數(shù)據(jù)的線性映射。

        1)卷積層(Convolution Layer)

        每個(gè)卷積核通常都可以理解為一個(gè)n×n的小方塊,也叫濾波器,這樣的一個(gè)卷積核在圖像矩陣上對卷積核范圍內(nèi)的數(shù)字通過一定的運(yùn)算法則進(jìn)行壓縮。如果是灰度圖,只使用二維的卷積核即可。如果圖像是彩色圖,需要使用的卷積核也從小正方形變成了小正方體。而卷積層就是多個(gè)卷積核疊加而形成的。

        2)池化層(Pooling)

        池化層實(shí)現(xiàn)圖像特征選擇和去除冗余信息。池化層通過相鄰區(qū)域內(nèi)對特征圖信息提取替換特征圖中單個(gè)像素點(diǎn)的信息,保留高強(qiáng)度區(qū)域,過濾掉低強(qiáng)度區(qū)域,將特征矩陣進(jìn)行壓縮,增強(qiáng)特征表示,進(jìn)而縮小參數(shù)矩陣的尺寸,有效地使全連接層中的參數(shù)數(shù)量減少以保證全連接層擬合正常[15]。

        3)全連接層(Fully Connected Layer)

        全連接層就是把神經(jīng)元連接起來,位于 CNN 隱含層的最后,并且其信號傳遞具有特異性,只將信號傳遞到全連接層,并將拓?fù)浣Y(jié)構(gòu)的特征圖轉(zhuǎn)換成向量形式輸出,通常再加上Softmax[16]。Softmax 函數(shù)主要起分類作用,并將多個(gè)神經(jīng)元的輸出映射到(0,1)區(qū)間范圍內(nèi),將分類轉(zhuǎn)化為概率比較問題[15-16]。

        2 CNN-ResNet-SVM網(wǎng)絡(luò)模型設(shè)計(jì)

        CNN能夠從非常多的樣本當(dāng)中學(xué)習(xí)到特征表示,具有強(qiáng)大的分類能力,整個(gè)網(wǎng)絡(luò)表達(dá)了原始圖像像素與類特征之間的映射關(guān)系[17]。但是牛臉識別是一個(gè)新任務(wù),沒有像人臉一樣有標(biāo)準(zhǔn)的大規(guī)模訓(xùn)練數(shù)據(jù)集,且現(xiàn)場采集的牛臉數(shù)據(jù)的質(zhì)量也不高,因而,設(shè)計(jì)輕量化的網(wǎng)絡(luò)結(jié)構(gòu)以及引入其他算法以應(yīng)對小數(shù)據(jù)集。SVM支持向量機(jī)方法是一種采用結(jié)構(gòu)風(fēng)險(xiǎn)最小化準(zhǔn)則的學(xué)習(xí)方法,其模型本質(zhì)是特征空間上間隔最大的線性分類器,具有更強(qiáng)大的泛化能力[18]。傳統(tǒng)機(jī)器學(xué)習(xí)算法在特征的選擇和提取過程中,存在憑借人工經(jīng)驗(yàn)去設(shè)計(jì)特征和選取特征的問題,最終會使識別的準(zhǔn)確率降低。而基于CNN神經(jīng)網(wǎng)絡(luò)提取特征通過網(wǎng)絡(luò)自動提取特征,解決了SVM等憑借經(jīng)驗(yàn)去設(shè)計(jì)和提取特征過程復(fù)雜且結(jié)果不好的問題[19],而且提取的特征具有平移、傾斜、旋轉(zhuǎn)不變等特點(diǎn)。SVM需要比較少的樣本數(shù)量就可以達(dá)到與CNN一樣的識別效果,同時(shí)SVM決策分類方法的訓(xùn)練時(shí)間長度也比復(fù)雜的神經(jīng)網(wǎng)絡(luò)訓(xùn)練時(shí)間相對少得多,并且預(yù)測速度也更快。

        為進(jìn)一步提升收斂速度,以及降低網(wǎng)絡(luò)深度引起的部分特征丟失和梯度彌散問題,引入殘差網(wǎng)絡(luò)(residual neural network,ResNet)模塊環(huán)節(jié)。即隨著網(wǎng)絡(luò)深度的增加,普通卷積神經(jīng)網(wǎng)絡(luò)會出現(xiàn)訓(xùn)練梯度彌散收斂困難而導(dǎo)致網(wǎng)絡(luò)性能退化的問題,所以提出了殘差網(wǎng)絡(luò)來解決普通卷積神經(jīng)網(wǎng)絡(luò)的此類問題。殘差網(wǎng)絡(luò)本質(zhì)上是在普通卷積神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上增加了恒等映射,當(dāng)網(wǎng)絡(luò)達(dá)到最優(yōu)狀態(tài)時(shí),殘差網(wǎng)絡(luò)中的殘差映射變?yōu)椤?”,此時(shí)只剩下恒等映射,使網(wǎng)絡(luò)一直處于最優(yōu)狀態(tài)[20]。

        通過以上SVM以及殘差網(wǎng)絡(luò)的研究,本文中提出的改進(jìn)結(jié)構(gòu)如圖2所示。網(wǎng)絡(luò)結(jié)構(gòu)包含3層卷積層、3層最大池化層、1層殘差單元層、1層平均池化層和1層SVM分類層。殘差網(wǎng)絡(luò)單元結(jié)構(gòu)如圖3所示,該結(jié)構(gòu)是一個(gè)3層的網(wǎng)絡(luò)結(jié)構(gòu),其中中間卷積層的卷積核大小為3×3,其他2個(gè)卷積層的卷積核大小為1×1。殘差單元直接將底層信息與高層信息進(jìn)行融合,將特征映射到網(wǎng)絡(luò)的深層部分,防止特征減弱或消失。

        圖2 CNN-ResNet-SVM網(wǎng)絡(luò)結(jié)構(gòu)

        圖3 殘差網(wǎng)絡(luò)單元結(jié)構(gòu)

        改進(jìn)的卷積神經(jīng)網(wǎng)絡(luò)對圖像處理采用更大的感受野,首先通過卷積核大小為 5×5進(jìn)行卷積運(yùn)算,提取原始圖像的特征,然后分別通過一個(gè)5×5和3×3的卷積運(yùn)算進(jìn)一步提取圖像特征;在進(jìn)行卷積操作之后再通過一個(gè)2×2的池化對特征進(jìn)行過濾;在進(jìn)行殘差之前先對特征圖進(jìn)行降維操作,輸出的維度為64維,經(jīng)過殘差單元之后維度變?yōu)?28,再經(jīng)過一個(gè)平均池化層;平均池化層在保持旋轉(zhuǎn)、平移、伸縮等情況下減少特征和參數(shù),最后在SVM層依據(jù)前面環(huán)節(jié)所提取的特征進(jìn)行分類識別。

        3 實(shí)驗(yàn)與分析

        本實(shí)驗(yàn)數(shù)據(jù)來源于四川省宜賓市養(yǎng)殖場所拍攝的圖像,總計(jì)70頭西門塔爾肉牛,原始圖像總計(jì)2 792張,其中訓(xùn)練使用2 218張,測試使用574張。同時(shí),訓(xùn)練網(wǎng)絡(luò)的實(shí)驗(yàn)環(huán)境是:操作系統(tǒng)為Window10 64位,處理器為Intel i7-4770@3.40 GHz,GPU為GTX1080,內(nèi)存為16 GB,未使用GPU cuda加速。

        3.1 訓(xùn)練與結(jié)果分析

        目前,對于人臉檢測和識別已經(jīng)相當(dāng)完善,存在著大量可用于實(shí)驗(yàn)的公開數(shù)據(jù)集。人臉各部位的位置及結(jié)構(gòu)穩(wěn)定,方便進(jìn)行檢測和識別。而牛臉的毛發(fā)和紋理變化是不確定的,并且圖像采集的過程是無法控制的,牛沒有辦法在攝像頭前長時(shí)間靜止,尤其在大自然的環(huán)境下,太陽光照條件時(shí)刻變化、照相機(jī)視角和距離的變化、復(fù)雜的背景、牛的運(yùn)動等因素導(dǎo)致圖像采集更難。將原始圖像進(jìn)行了數(shù)據(jù)增強(qiáng)與擴(kuò)展,將訓(xùn)練測試集擴(kuò)充到了27 920張。訓(xùn)練總迭代次數(shù)共350次,訓(xùn)練時(shí)間313.16 s,預(yù)測時(shí)間2.06 s,識別率達(dá)到了95.12%。圖4為某次訓(xùn)練過程中損失值與準(zhǔn)確率結(jié)果,由于現(xiàn)場采集的圖像都為客觀數(shù)據(jù),而不是理想化的數(shù)據(jù),其結(jié)果曲線值存在一定的波動,但總體來說,隨著訓(xùn)練輪次的遞增,對于牛臉的識別準(zhǔn)確率是顯著提升的,同時(shí)收斂的速度也在變快。

        圖4 本文與傳統(tǒng)CNN-Softmax模型曲線

        通過模型訓(xùn)練過程與結(jié)果分析,本文算法將CNN、ResNet和SVM相結(jié)合,將單一化的卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)進(jìn)行優(yōu)化,減少了模型的參數(shù)數(shù)量,同時(shí)模型的收斂速度更快并且還有更高的識別精度。卷積神經(jīng)網(wǎng)絡(luò)在進(jìn)行訓(xùn)練之前,要先給出圖像及其對應(yīng)標(biāo)簽,是一種有監(jiān)督學(xué)習(xí)模型。在改進(jìn)的CNN中,在進(jìn)行SVM分類之前先通過一個(gè)平均池化層,將提取的特征向量進(jìn)行過濾,有助于最后SVM的分類。SVM算法相比較于傳統(tǒng)的Softmax通過概率輸出來說,可以只通過其中的關(guān)鍵特征數(shù)據(jù)對最后決策結(jié)果進(jìn)行評估,可以有效剔除部分無關(guān)的數(shù)據(jù),不用考慮樣本中的全部特征數(shù)據(jù),具有很好的魯棒性,對牛臉識別準(zhǔn)確率有明顯提升。CNN-ResNet-SVM結(jié)合的算法將網(wǎng)絡(luò)提取到的圖像特征轉(zhuǎn)為特征向量,最后通過SVM實(shí)現(xiàn)對圖像的分類。這樣結(jié)合起來的算法運(yùn)行時(shí)間短、收斂速度快且識別率高。CNN-ResNet-SVM算法本質(zhì)上是在網(wǎng)絡(luò)中通過殘差結(jié)構(gòu)保證了特征在訓(xùn)練過程中不會減弱,最后用SVM輸出分類結(jié)果代替了傳統(tǒng)神經(jīng)網(wǎng)絡(luò)中用Softmax來進(jìn)行分類的結(jié)構(gòu)。

        3.2 卷積層特征提取效果分析

        本文的思想是CNN-ResNet-SVM首先通過卷積神經(jīng)網(wǎng)絡(luò)提取牛臉特征,經(jīng)過池化操作過濾特征圖信息且保留重要特征;然后通過一個(gè)全局平均池化將特征圖像全局進(jìn)行壓縮,轉(zhuǎn)換為特征向量的格式,作為SVM的輸入,最后由SVM對牛臉圖像進(jìn)行分類決策得到識別結(jié)果。同時(shí)對各層卷積作用后的結(jié)果進(jìn)行了可視化,如圖5所示。圖5(a)第1層體現(xiàn)了邊緣特征;圖5(b)第2層對角、輪廓等進(jìn)行了展現(xiàn),本層體現(xiàn)出的效果更接近人類視覺;而圖5(c)第3層則更加抽象。

        圖5 各卷積層特征提取結(jié)果可視化圖

        3.3 識別效果分析

        在PC端運(yùn)用訓(xùn)練好的模型識別效果,如圖6所示,在不同光線、不同角度及背景下的識別效果中,當(dāng)背景有干擾及角度大幅度變化時(shí),識別的錯(cuò)誤率會提升,如第1行第1列的角度干擾導(dǎo)致了錯(cuò)誤判斷。

        圖6 模型訓(xùn)練后PC端識別結(jié)果

        同時(shí),將訓(xùn)練好的模型移植到手機(jī)端,借助Tensorflow Lite工具設(shè)計(jì)Android平臺的加載模型框架,并設(shè)計(jì)出圖片處理框架,運(yùn)用手機(jī)攝像頭拍攝圖片或者通過系統(tǒng)相冊選擇圖片加載到 APP 界面,隨即就可以在圖片下方顯示預(yù)測結(jié)果。用OpenCv對數(shù)據(jù)集圖片進(jìn)行預(yù)處理并用ImageDataGenarator對數(shù)據(jù)集進(jìn)行增廣,最后通過Android studio對2個(gè)框架開發(fā)成安卓手機(jī) APP。手機(jī)端為華為榮耀款,其主要配置:CPU型號為天璣900;運(yùn)行內(nèi)存為8 GB;前攝主攝像素為1 600萬;后攝主攝像素為1億。如圖7所示,識別速度最快在128 ms左右,識別率最差95.12%,最好達(dá)97.358 2%。

        圖7 智能牛臉識別系統(tǒng)APP端識別結(jié)果

        如表1所示,匯總了幾個(gè)最新的牛身份識別相關(guān)方法,本文的算法在準(zhǔn)確率上比ANN+SVM、SURF+LBP、SSD模型高,比R-FCN、Faster R-CNN要略低一點(diǎn);但R-FCN、Faster R-CNN模型參數(shù)量大并且運(yùn)行時(shí)間較長,實(shí)用性差,同時(shí)它們只是實(shí)現(xiàn)了牛臉檢測發(fā)現(xiàn)功能,并未實(shí)現(xiàn)牛的身份確認(rèn)功能。

        表1 最新檢測結(jié)果

        經(jīng)過以上實(shí)驗(yàn)驗(yàn)證,CNN-ResNet-SVM 模型的優(yōu)點(diǎn)在于改進(jìn)后CNN網(wǎng)絡(luò)結(jié)構(gòu)中,由于ResNet環(huán)節(jié)的引入加速了模型收斂速,并保證了進(jìn)入SVM前的低級與高級抽象特征內(nèi)容都更豐富;而SVM作為CNN的最后一個(gè)環(huán)節(jié),不僅能加速判斷分析的速度,同時(shí)充分利用其具有的最優(yōu)超平面的特性使得系統(tǒng)的泛化性較傳統(tǒng)CNN顯著提升。

        4 結(jié)論

        本文調(diào)研和分析了牛身份識別現(xiàn)存問題以及計(jì)算機(jī)技術(shù)在人臉識別上取得的方法和成績,并分析圖像方法在自動牛臉識別上的難點(diǎn)問題,在牛臉識別上的算法模型和實(shí)現(xiàn)方法上展開了研究。傳統(tǒng)的圖像機(jī)器學(xué)習(xí)識別算法中,提取優(yōu)質(zhì)特征對人工經(jīng)驗(yàn)的依賴性較大,對于識別問題存在如何提取出有效特征的復(fù)雜工程問題,使得實(shí)驗(yàn)過程過于繁瑣。基于深度學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)識別算法中,對數(shù)據(jù)量的要求較高,而且層數(shù)越多,預(yù)測識別的時(shí)間越長,且收斂速度嚴(yán)重減慢。此模型結(jié)合了CNN自適應(yīng)提取特征以及殘差網(wǎng)絡(luò)結(jié)構(gòu)對淺層和深層特征差異增強(qiáng)的能力和傳統(tǒng)機(jī)器學(xué)習(xí)中的SVM泛化能力強(qiáng)的特點(diǎn),通過CNN提取特征可以增強(qiáng)數(shù)據(jù)的個(gè)體差異并保證所提取的特征內(nèi)容更豐富和準(zhǔn)確,最終提高SVM判斷識別物體的速度和精度。實(shí)驗(yàn)結(jié)果證實(shí)了基于CNN-ResNet-SVM用于牛臉識別分類的可行性及模型的泛化性能,即使在小樣本識別任務(wù)中也同樣具有優(yōu)秀的識別精度和快速的實(shí)時(shí)響應(yīng)速度。

        但是該模型和算法在光照強(qiáng)度與角度變化較大時(shí),識別準(zhǔn)確率明顯下降,值得繼續(xù)關(guān)注和研究的。在未來的工作中,將進(jìn)一步研究該模型,從引入噪聲訓(xùn)練的角度出發(fā)提升模型對于抗干擾的魯棒性。

        猜你喜歡
        池化層殘差卷積
        基于雙向GRU與殘差擬合的車輛跟馳建模
        基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
        卷積神經(jīng)網(wǎng)絡(luò)模型研究分析*
        基于殘差學(xué)習(xí)的自適應(yīng)無人機(jī)目標(biāo)跟蹤算法
        基于卷積神經(jīng)網(wǎng)絡(luò)的紙幣分類與點(diǎn)鈔
        基于深度學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)的人體行為識別研究
        科技傳播(2020年6期)2020-05-25 11:07:46
        基于遞歸殘差網(wǎng)絡(luò)的圖像超分辨率重建
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        基于全卷積神經(jīng)網(wǎng)絡(luò)的SAR圖像目標(biāo)分類*
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        深夜福利国产| 97人妻精品一区二区三区| 7777奇米四色成人眼影| 伊人久久中文大香线蕉综合| 新久久久高清黄色国产| 亚洲伊人av天堂有码在线| 无码人妻丰满熟妇啪啪网站| 一本色道久久综合狠狠躁| 国产91AV免费播放| 亚洲一区二区三区日韩在线观看| 狠狠躁日日躁夜夜躁2020| 久久久久亚洲av无码网站| 精品国产福利一区二区三区| 亚洲av熟女中文字幕| 精品视频无码一区二区三区| 猫咪www免费人成网最新网站| 人妻少妇精品系列一区二区| 亚洲美女自拍偷拍视频| 又爽又黄又无遮挡的视频| 国产手机在线αⅴ片无码| 毛片色片av色在线观看| 国产精品国产三级国产av品爱 | 97久久人人超碰超碰窝窝| 久久久久国产一级毛片高清版A| 日本一区二区午夜视频| 强奸乱伦影音先锋| 人妻少妇看a偷人无码精品| 久久se精品一区二区国产| 日本视频一区二区三区观看| 国产亚洲一本大道中文在线| 亚洲无码一二专区| 成年女人18毛片观看| 国产精品久久国产精品99 gif| 乱子伦视频在线看| 中国老熟妇自拍hd发布| 亚洲中文av一区二区三区| 亚洲人妻精品一区二区三区| 国产成人亚洲综合| 亚洲av无码资源在线观看| 亚洲区福利视频免费看| 77777亚洲午夜久久多喷|