亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度學(xué)習(xí)的種鴨蛋孵化早期受精信息無損檢測(cè)

        2020-03-11 04:00:26李慶旭王巧華馬美湖
        關(guān)鍵詞:鴨蛋像素卷積

        李慶旭 王巧華 顧 偉 施 行 馬美湖

        (1.華中農(nóng)業(yè)大學(xué)工學(xué)院, 武漢 430070; 2.農(nóng)業(yè)農(nóng)村部長(zhǎng)江中下游農(nóng)業(yè)裝備重點(diǎn)實(shí)驗(yàn)室, 武漢 430070;3.國(guó)家蛋品研發(fā)中心, 武漢 430070)

        0 引言

        根據(jù)2018年中國(guó)畜牧業(yè)協(xié)會(huì)與世界糧農(nóng)組織(FAO)提供的數(shù)據(jù),世界肉鴨出欄量約47.4億只,蛋鴨存欄量約1.87億只,我國(guó)鴨養(yǎng)殖占世界鴨養(yǎng)殖量的74.3%[1]。這表明我國(guó)鴨蛋孵化行業(yè)每年需要孵化數(shù)十億只鴨苗才能滿足國(guó)內(nèi)養(yǎng)殖需求。但目前國(guó)內(nèi)種鴨的養(yǎng)殖方式以散養(yǎng)為主,導(dǎo)致種鴨蛋的自然受精率低于80%[2]。在孵化過程中若不能將無精蛋及時(shí)剔除,不僅會(huì)對(duì)受精蛋造成污染,而且會(huì)造成資源的巨大浪費(fèi)。當(dāng)前國(guó)內(nèi)鴨蛋孵化行業(yè)判別無精蛋的主要方法是在孵化7 d左右時(shí)通過人工照蛋的方式完成,費(fèi)時(shí)、費(fèi)力,且剔除出來的無精蛋已喪失食用價(jià)值,造成巨大浪費(fèi)。因此,研究孵化早期鴨蛋的受精信息及無損檢測(cè)與判別具有重要價(jià)值和實(shí)際意義。

        目前,國(guó)內(nèi)外對(duì)禽蛋孵化的研究主要集中在雞蛋孵化方面,研究人員嘗試使用機(jī)器視覺[3-6]、光譜技術(shù)[7-10]、生物電[11-12]等技術(shù)手段,結(jié)合機(jī)器學(xué)習(xí)方法,實(shí)現(xiàn)對(duì)孵化早期受精雞蛋的無損檢測(cè)。但是針對(duì)孵化早期鴨蛋受精信息的研究卻鮮有報(bào)道。與種雞蛋相比,種鴨蛋孵化早期受精信息的無損檢測(cè)難度明顯增加。主要原因有:種鴨的養(yǎng)殖方式主要為散養(yǎng),種鴨蛋的蛋殼表面會(huì)有很多難以去除的污漬,導(dǎo)致采集到的圖像信息被污漬遮擋;種鴨蛋的蛋殼厚度差異很大(種雞蛋的蛋殼差異相對(duì)較小),導(dǎo)致光源選擇難度大大增加。張偉等[13]將機(jī)器視覺和敲擊振動(dòng)相結(jié)合,建立了LVQ神經(jīng)網(wǎng)絡(luò)判別模型,在機(jī)器視覺方面僅提取了種蛋的顏色特征,實(shí)現(xiàn)了對(duì)種鴨蛋孵化5 d時(shí)的受精蛋與無精蛋的無損判別,但檢測(cè)孵化時(shí)間還有待提前,以及檢測(cè)裝置的實(shí)用性還有待改進(jìn)。

        卷積神經(jīng)網(wǎng)絡(luò)(CNN)通過引入權(quán)值共享和局部連接等機(jī)制,使其能夠自動(dòng)提取特征并表達(dá)特征,進(jìn)而實(shí)現(xiàn)端對(duì)端的處理方式,智能優(yōu)勢(shì)明顯。目前CNN在農(nóng)業(yè)檢測(cè)領(lǐng)域也有較廣泛的應(yīng)用[14-18],但將CNN應(yīng)用于禽蛋無損檢測(cè)尚未見報(bào)道。本文經(jīng)過反復(fù)試驗(yàn)研究,在Alexnet卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ)上,針對(duì)種鴨蛋孵化第3天的圖像,構(gòu)建適用于圖像識(shí)別的卷積神經(jīng)網(wǎng)絡(luò)。

        1 試驗(yàn)材料與圖像采集方法

        1.1 試驗(yàn)材料

        試驗(yàn)選取湖北省神丹種鴨養(yǎng)殖基地的縉云麻鴨種蛋2 665枚作為試驗(yàn)材料。

        將種鴨蛋清洗并消毒,消毒方法為:將種蛋浸泡在0.5%的高錳酸鉀溶液中1~2 min后取出晾干。將晾干后的種蛋進(jìn)行編號(hào)并放入自動(dòng)孵化箱內(nèi)孵化。每隔24 h采集一次圖像。并在孵化10 d后對(duì)種蛋進(jìn)行破殼處理,蛋殼內(nèi)有網(wǎng)狀血絲判定為受精蛋,壞死的血圈蛋以及無血絲的種蛋判別為不可孵化種蛋(無精蛋)。

        1.2 圖像采集系統(tǒng)

        種鴨蛋透射圖像采集系統(tǒng)設(shè)置在孵化車間,由暗箱、光源、相機(jī)、鏡頭、有孔傳送帶、暗箱支架及計(jì)算機(jī)組成(圖1),相機(jī)為JAI AD-080GE型工業(yè)相機(jī),分辨率為1 024像素×768像素,幀率為30 f/s,選擇Kowa公司的LM6NC3型鏡頭。光源為5 W的正白光LED燈。種鴨蛋放置于暗箱內(nèi),物距、焦距和光圈在采集過程中均保持不變。

        圖1 圖像采集系統(tǒng)原理圖Fig.1 Image acquisition system1.計(jì)算機(jī) 2.數(shù)據(jù)傳輸線 3.相機(jī)及鏡頭 4.暗箱 5.種鴨蛋 6.有孔傳輸帶 7.光源 8.暗箱支架

        1.3 原始圖像

        圖3 無精蛋原始圖像Fig.3 Unfertilized egg original images

        受精蛋的原始圖像如圖2所示,無精蛋的原始圖像如圖3所示。根據(jù)孵化經(jīng)驗(yàn),受精鴨蛋在孵化第3天蛋黃部分會(huì)出現(xiàn)類似于櫻桃形狀的珠子。對(duì)比圖2和圖3,發(fā)現(xiàn)受精蛋與無精蛋的蛋黃顏色和形狀存在差異,但也存在幾乎無差異的情況,如圖2c與圖3b。有孵化經(jīng)驗(yàn)的技術(shù)人員在種鴨蛋孵化第3天,肉眼識(shí)別準(zhǔn)確率在80%左右,這說明使用卷積神經(jīng)網(wǎng)絡(luò)建立種鴨蛋孵化3 d的判別模型是可能的。本文共采集受精蛋圖像1 326幅,無精蛋圖像1 339幅。

        圖2 受精蛋原始圖像Fig.2 Fertilized egg original images

        2 受精信息的分類

        2.1 圖像預(yù)處理

        采集到的原始圖像尺寸為1 024像素×768像素,如果將原始圖像直接輸入卷積神經(jīng)網(wǎng)絡(luò)會(huì)增加網(wǎng)絡(luò)的訓(xùn)練時(shí)間。由于原始圖像含有背景干擾,為了提高神經(jīng)網(wǎng)絡(luò)的訓(xùn)練和收斂速度,將原始圖像裁剪成尺寸為380像素×350像素的圖像,再將裁剪后的圖像尺寸調(diào)整為224像素×224像素,裁剪后的圖像如圖4所示。此外為了加快模型的收斂速度,將調(diào)整后的圖像進(jìn)行歸一化操作。本文使用的圖像預(yù)處理工具為Python3.5+Pillow。

        2.2 識(shí)別網(wǎng)絡(luò)的搭建

        2.2.1Alexnet神經(jīng)網(wǎng)絡(luò)

        Alexnet神經(jīng)網(wǎng)絡(luò)是由HINTON和KRIZHEVSKY設(shè)計(jì)的8層神經(jīng)網(wǎng)絡(luò)[19],包括5個(gè)卷積層、3個(gè)全連接層、3個(gè)池化層,卷積層主要用于自動(dòng)提取特征,池化層對(duì)卷積層提取的特征圖進(jìn)行降維,以減少模型的參數(shù)量,全連接層通過大量神經(jīng)元之間的相互連接將卷積或池化操作得到的特征圖重新組成完整的圖,具體結(jié)構(gòu)如圖5所示。

        圖4 裁剪后的圖像Fig.4 Cropped images

        圖5 Alexnet神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖Fig.5 Alexnet neural network structure diagram

        Alexnet神經(jīng)網(wǎng)絡(luò)使用ReLU非線性激活函數(shù)解決網(wǎng)絡(luò)過深時(shí)梯度彌散問題。此外,Alexnet神經(jīng)網(wǎng)絡(luò)引入局部響應(yīng)歸一化層(LRN)和dropout層,可以防止模型過擬合。

        2.2.2種鴨蛋受精信息識(shí)別網(wǎng)絡(luò)

        Alexnet神經(jīng)網(wǎng)絡(luò)雖然已被應(yīng)用在很多領(lǐng)域[20-22],但是其學(xué)習(xí)參數(shù)有6×107個(gè),神經(jīng)元數(shù)量有6.5×105個(gè),導(dǎo)致Alexnet神經(jīng)網(wǎng)絡(luò)訓(xùn)練速度過慢且存在一定程度的過擬合[23-24]。Alexnet神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)集建立在ImageNet上,本文充分對(duì)比種鴨蛋孵化3 d時(shí)的圖像和ImageNet數(shù)據(jù)集的圖像質(zhì)量差異,相比ImageNet數(shù)據(jù)集種鴨蛋孵化3 d的圖像背景更加簡(jiǎn)單,干擾因素更少,圖像的特征(種蛋的蛋黃部分)更加清晰,這些差異使得本文的卷積神經(jīng)網(wǎng)絡(luò)參數(shù)量可以適當(dāng)減少。故本文對(duì)Alexnet神經(jīng)網(wǎng)絡(luò)進(jìn)行了改進(jìn),將 Alexnet神經(jīng)網(wǎng)絡(luò)的卷積層1的卷積核尺寸由11×11改為5×5,更改后感受野的范圍不變但是參數(shù)量大幅減少。由于種鴨蛋孵化3 d的圖像特征比較明顯,可以適當(dāng)減少卷積核個(gè)數(shù),提取的特征數(shù)量略有減少,但是可以減少參數(shù)量加快模型的收斂,故將卷積核數(shù)量改為64個(gè),可大大減少學(xué)習(xí)參數(shù)的數(shù)量。由于卷積層1已經(jīng)將參數(shù)量大幅減少,為了防止模型參數(shù)過少導(dǎo)致欠擬合,故將本層的卷積核數(shù)量改為192,可增加提取的特征數(shù)。由于參數(shù)過多容易造成過擬合,故本文用卷積核(核數(shù)量為1 024)尺寸為6×6的卷積層代替全連接層1,可以避免過擬合,用卷積核(核數(shù)量為1 024)尺寸為1×1的卷積層代替全連接層2;由于本文將孵化3 d的種鴨蛋圖像分為受精和無精兩類,故將最后的輸出層輸出類別改為2個(gè);改進(jìn)后的Alexnet神經(jīng)網(wǎng)絡(luò)既可以減少神經(jīng)元的數(shù)量,又可以避免由于參數(shù)過多造成的過擬合。

        改進(jìn)后的Alexnet神經(jīng)網(wǎng)絡(luò)具體實(shí)現(xiàn)過程如下:將種鴨蛋孵化3 d的原始圖像調(diào)整為224像素×224像素后輸入到卷積層1,卷積層1的卷積核尺寸為5×5,卷積核數(shù)量為64個(gè),卷積后的輸出特征尺寸為55×55×64;卷積層1的輸出特征圖進(jìn)入到池化層1,其核尺寸為3×3,步長(zhǎng)設(shè)置為2,池化后的輸出特征尺寸為27×27×64。池化層1的輸出特征圖進(jìn)入到卷積層2,其卷積核尺寸為5×5,卷積核數(shù)量為192個(gè),卷積后的輸出特征尺寸為27×27×192。卷積層2的輸出特征圖輸入到池化層2,其核尺寸為3×3,步長(zhǎng)設(shè)置為2,池化后的輸出特征尺寸為13×13×192。池化層2的輸出特征圖進(jìn)入到卷積層3,其卷積核尺寸為3×3,卷積核數(shù)量為384個(gè),卷積后的輸出特征尺寸為13×13×384。卷積層3的輸出特征圖輸入到卷積層4,其卷積核尺寸為3×3,卷積核數(shù)量為384個(gè),卷積后的輸出特征尺寸為13×13×384。卷積層4的輸出特征圖輸入到卷積層5,其卷積核尺寸為3×3,卷積核數(shù)量為256個(gè),卷積后的輸出特征尺寸為13×13×256。卷積層5的輸出特征圖輸入到池化層3,其核尺寸為3×3,步長(zhǎng)設(shè)置為2,池化后的輸出特征尺寸為6×6×256。池化層3的輸出特征圖輸入到卷積層6,其卷積核尺寸為6×6,卷積核數(shù)量為1 024個(gè),卷積后的輸出特征尺寸為1×1×1 024。卷積層6的輸出特征圖輸入到卷積層7,其卷積核尺寸為1×1,卷積核數(shù)量為1 024個(gè),卷積后的輸出特征尺寸為1×1×1 024。卷積層7的輸出特征圖輸入到輸出層,最后經(jīng)過softmax函數(shù)輸出受精和無精兩類的二維得分矩陣。改進(jìn)后的Alexnet神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)如圖6所示。

        圖6 改進(jìn)后的Alexnet神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖Fig.6 Improved Alexnet neural network structure diagram

        改進(jìn)后的Alexnet神經(jīng)網(wǎng)絡(luò)共8層,7個(gè)卷積層和1個(gè)輸出層。在每個(gè)卷積層后都使用ReLU非線性激活函數(shù),卷積層1和卷積層2后使用局部響應(yīng)歸一化層[25-26](LRN),在卷積層6、7后使用dropout層來防止過擬合。ReLU激活函數(shù)可以將數(shù)據(jù)變成稀疏矩陣,可以加快模型的收斂速度,其實(shí)現(xiàn)公式如下

        (1)

        LRN層可以對(duì)輸入的局部區(qū)域進(jìn)行歸一化處理,可一定程度提高模型的精度,其具體實(shí)現(xiàn)公式如下

        (2)

        N——卷積核數(shù)量

        n、k、α、β——常量

        j——平方累加索引

        dropout層可以提高模型的泛化能力,通過隨機(jī)關(guān)閉一些神經(jīng)元來達(dá)到防止網(wǎng)絡(luò)過擬合的效果[27]。

        2.2.3模型訓(xùn)練

        系統(tǒng)的硬件為 AMD Ryzen Threadripper 2920X CPU,主頻3.5 GHz,內(nèi)存為128 GB, NIVIDIA GeForce RTX 2080Ti GPU;軟件平臺(tái)為CUDA Toolkit 9.2+CUDNN V9.2+Python 3.5+Tensorflow-GPU 1.8.0。由于深度學(xué)習(xí)需要大量的數(shù)據(jù)進(jìn)行訓(xùn)練,本文在采集得到的2 665幅種鴨蛋孵化3 d的圖像中抽取2 400幅圖像(受精和無精各1 200幅圖像)用于訓(xùn)練,剩下的265幅圖像用于測(cè)試。本文訓(xùn)練和測(cè)試時(shí)均使用GPU加速。

        模型訓(xùn)練的本質(zhì)是通過反向傳播不斷迭代使得定義的損失函數(shù)(Loss function)不斷減小。本文采用自適應(yīng)時(shí)刻估計(jì)法(Adaptive moment estimation)實(shí)現(xiàn)迭代過程中尋找最優(yōu)梯度下降方向。學(xué)習(xí)率更新方法為指數(shù)衰減法,可以兼顧模型的穩(wěn)定性和訓(xùn)練速度。

        采用均值平方差計(jì)算分類損失,用來表達(dá)預(yù)測(cè)值與實(shí)際值的差異。損失函數(shù)公式如下

        (3)

        式中m——樣本數(shù)

        yt——第t個(gè)樣本的真實(shí)值

        pret——第t個(gè)樣本的預(yù)測(cè)值

        初始學(xué)習(xí)率(Learning rate)設(shè)置為0.000 1,訓(xùn)練的批次樣本數(shù)(Batch size)設(shè)置為16,網(wǎng)絡(luò)模型的權(quán)重參數(shù)和偏置參數(shù)初值用均值μ為0、標(biāo)準(zhǔn)偏差σ為0.01的截?cái)嗾龖B(tài)分布隨機(jī)生成。模型的訓(xùn)練和測(cè)試流程如圖7所示。

        圖7 模型訓(xùn)練和測(cè)試流程Fig.7 Model training and testing process

        圖8 loss變化曲線Fig.8 Changing curve of loss

        2.3 模型測(cè)試結(jié)果

        模型在訓(xùn)練次數(shù)達(dá)到20 000次后結(jié)束訓(xùn)練并保存,訓(xùn)練過程中的損失函數(shù)變化如圖8所示。訓(xùn)練過程中每訓(xùn)練20次保存1次loss,故loss曲線不夠平滑。從loss曲線可以看出,在訓(xùn)練的前12 000次時(shí)loss處于振蕩狀態(tài),在訓(xùn)練12 000次后loss開始迅速下降,并維持在很低水平,表明模型在訓(xùn)練12 000次后開始收斂。將訓(xùn)練集2 400幅圖像(受精和無精各1 200幅)和測(cè)試集265幅圖像(受精126幅圖像,無精139幅圖像)輸入訓(xùn)練好的模型進(jìn)行驗(yàn)證。為了對(duì)比Eggnet神經(jīng)網(wǎng)絡(luò)和Alexnet神經(jīng)網(wǎng)絡(luò)在判別種鴨蛋孵化3 d受精信息的性能差異,本文也將數(shù)據(jù)輸入Alexnet神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,訓(xùn)練參數(shù)設(shè)置與Eggnet神經(jīng)網(wǎng)絡(luò)相同。兩個(gè)網(wǎng)絡(luò)的驗(yàn)證結(jié)果如表1所示。

        分別對(duì)比兩者的訓(xùn)練集準(zhǔn)確率、測(cè)試集準(zhǔn)確率和測(cè)試集召回率,發(fā)現(xiàn)Alexnet神經(jīng)網(wǎng)絡(luò)和Eggnet神經(jīng)網(wǎng)絡(luò)均未出現(xiàn)過擬合現(xiàn)象。其中Alexnet神經(jīng)網(wǎng)絡(luò)對(duì)訓(xùn)練集的2 400幅圖像錯(cuò)判了5幅(受精蛋錯(cuò)判了5個(gè),無精蛋錯(cuò)判0個(gè)),對(duì)測(cè)試集的265幅圖像錯(cuò)判了3幅(受精蛋錯(cuò)判0個(gè),無精蛋錯(cuò)判3個(gè))。Eggnet神經(jīng)網(wǎng)絡(luò)對(duì)訓(xùn)練集的2 400幅圖像錯(cuò)判了2幅(受精蛋錯(cuò)判了2個(gè),無精蛋錯(cuò)判0個(gè)),對(duì)測(cè)試集的265幅圖像錯(cuò)判了3幅(受精蛋錯(cuò)判2個(gè),無精蛋錯(cuò)判1個(gè))。兩者雖然在訓(xùn)練集和測(cè)試集的精度上區(qū)別不大,但是對(duì)比兩者的召回率發(fā)現(xiàn),Eggnet神經(jīng)網(wǎng)絡(luò)在判別種鴨蛋孵化3 d的受精信息方面的性能略優(yōu)于Alexnet神經(jīng)網(wǎng)絡(luò)。且兩者的訓(xùn)練時(shí)間差別較大,Eggnet神經(jīng)網(wǎng)絡(luò)由于學(xué)習(xí)參數(shù)和神經(jīng)元數(shù)量大大減少,訓(xùn)練時(shí)間僅為Alexnet神經(jīng)網(wǎng)絡(luò)的1/3。單枚種蛋檢測(cè)時(shí)間僅為0.24 s,能夠滿足在線檢測(cè)的速度要求。

        表1 模型測(cè)試結(jié)果Tab.1 Model test results

        圖9 模型驗(yàn)證流程圖Fig.9 Model verification process

        2.4 模型驗(yàn)證

        為了驗(yàn)證Eggnet神經(jīng)網(wǎng)絡(luò)的泛化能力,本文進(jìn)行了驗(yàn)證試驗(yàn),試驗(yàn)條件與之前保持相同。驗(yàn)證試驗(yàn)共采集得到640幅種鴨蛋圖像,其中受精蛋與無精蛋圖像各320幅。先將圖像裁剪且將尺寸調(diào)整為224像素×224像素,然后將圖像進(jìn)行歸一化處理,最后傳遞給訓(xùn)練好的Eggnet模型,模型輸出最終判別結(jié)果。判別過程如圖9所示,判別結(jié)果表明,320枚受精蛋錯(cuò)判了6枚,受精蛋判別準(zhǔn)確率為98.13%,320枚無精蛋錯(cuò)判了7枚,無精蛋判別準(zhǔn)確率為97.81%。驗(yàn)證試驗(yàn)精度達(dá)到97.97%,表明Eggnet神經(jīng)網(wǎng)絡(luò)具有較好的泛化能力,模型的可靠性和效率較佳。

        3 結(jié)論

        (1)采用端對(duì)端的卷積神經(jīng)網(wǎng)絡(luò),不必手工提取特征,解決了傳統(tǒng)識(shí)別方法在提取特征時(shí)費(fèi)時(shí)、費(fèi)力的問題。

        (2)卷積神經(jīng)網(wǎng)絡(luò)可以很好地對(duì)孵化3 d的種鴨蛋受精信息進(jìn)行自動(dòng)提取,并且能夠?qū)⑹芫畔⑤^好地表達(dá)出來,測(cè)試集準(zhǔn)確率達(dá)到了98.87%,驗(yàn)證準(zhǔn)確率達(dá)到了97.97%,能夠滿足在線檢測(cè)的精度要求。

        (3)通過將Alexnet神經(jīng)網(wǎng)絡(luò)的卷積核尺寸改小,全連接層用卷積層代替,可以大大減少模型學(xué)習(xí)參數(shù)和神經(jīng)元的數(shù)量。Eggnet神經(jīng)網(wǎng)絡(luò)的訓(xùn)練時(shí)間僅為Alexnet神經(jīng)網(wǎng)絡(luò)的1/3。

        (4)在卷積神經(jīng)網(wǎng)絡(luò)中加入LRN層和dropout可以加快模型收斂并抑制模型的過擬合。

        猜你喜歡
        鴨蛋像素卷積
        趙運(yùn)哲作品
        藝術(shù)家(2023年8期)2023-11-02 02:05:28
        鴨蛋大約有多重
        像素前線之“幻影”2000
        基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
        “像素”仙人掌
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        鴨蛋去哪兒了
        鴨蛋小廚神
        高像素不是全部
        CHIP新電腦(2016年3期)2016-03-10 14:22:03
        婷婷九月丁香| 国产综合精品久久99之一| 国产精品久久久久久久久绿色| 少妇性荡欲视频| 日韩中文无线码在线视频观看| 中文字幕精品亚洲无线码二区| 日韩一二三四区在线观看| 国产高清在线精品一区app| v一区无码内射国产| 免费网站国产| 亚洲国产av一区二区三| 日韩人妻免费视频一专区| 含紧一点h边做边走动免费视频| 亚洲中文字幕无码一区| 成人午夜视频一区二区无码| 最新国内视频免费自拍一区| 久久久精品视频网站在线观看| 国产人妻人伦精品1国产| 国产性猛交╳xxx乱大交| 啪啪网站免费观看| 一区二区三区一片黄理论片| 人妻少妇看a偷人无码| 国内精品久久久久影院一蜜桃 | 国产在线天堂av| 亚洲综合中文日韩字幕| 成人艳情一二三区| 亚洲av综合av国产av| 精品人妻少妇一区二区中文字幕| 精品人妻日韩中文字幕| 日韩欧美在线综合网另类| 久久精品人人爽人人爽| 一个人免费观看在线视频播放| 亚洲色图偷拍自拍亚洲色图| 亚洲国产精品久久精品| 亚洲欧美日韩国产精品专区| 亚洲一级无码AV毛片久久| 成人麻豆视频免费观看| 无码人妻精品一区二区在线视频| 全免费a级毛片免费看| 亚洲成人av一区免费看| 午夜无遮挡男女啪啪免费软件|