亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度學(xué)習(xí)的變壓器圖像識(shí)別系統(tǒng)

        2021-02-02 12:57:46吳海東俞志程葉曉康
        關(guān)鍵詞:變壓器特征模型

        薛 陽(yáng), 吳海東, 俞志程, 張 寧, 葉曉康, 華 茜

        (上海電力大學(xué) 自動(dòng)化工程學(xué)院, 上海 200090)

        隨著計(jì)算機(jī)視覺(jué)技術(shù)的快速發(fā)展,以及傳統(tǒng)變電站逐步向智能變電站的發(fā)展,變電站無(wú)人值守、無(wú)人巡檢已成為發(fā)展趨勢(shì)。使用高清視頻、紅外熱像監(jiān)視等智能化檢測(cè)技術(shù)可以實(shí)現(xiàn)電站的無(wú)人值守[1-3],使用搭載攝像頭、行外成像儀的無(wú)人機(jī)巡檢、機(jī)器人巡檢等巡檢技術(shù)對(duì)變電站進(jìn)行快速巡檢也得到了廣泛應(yīng)用[4-7]。對(duì)大量圖像數(shù)據(jù)流中的電力關(guān)鍵設(shè)備進(jìn)行自動(dòng)檢測(cè)與識(shí)別,代替人工對(duì)圖像的處理,可以提高巡檢效率。

        基于機(jī)器學(xué)習(xí)的電力設(shè)備識(shí)別的傳統(tǒng)算法主要采用人工設(shè)計(jì)的特征作為圖像的特征[8],具有代表性的有尺度不變特征變換(Scale-invariant feature transform,SIFT)特征[9],方向梯度直方圖(Histogram of Oriented Gradient,HOG)特征[10],再結(jié)合高效的分類器進(jìn)行電力圖像分類的研究。這些方法設(shè)計(jì)的原則往往是基于特定類別、特定型號(hào)的設(shè)備,需要設(shè)計(jì)者針對(duì)不同的對(duì)象設(shè)計(jì)專門的特征量,具有一定的局限性,且這些方法不具備隨著樣本數(shù)量的增多、圖像識(shí)別準(zhǔn)確率隨之提升的能力。

        為此,本文在電站復(fù)雜背景情況下,針對(duì)不同型號(hào)的變壓器圖像,采用改進(jìn)Visual Geometry Group(VGG)網(wǎng)絡(luò)模型進(jìn)行識(shí)別,對(duì)網(wǎng)絡(luò)的結(jié)構(gòu)、輸出分類器進(jìn)行重新設(shè)計(jì),構(gòu)建了基于改進(jìn)VGG-16網(wǎng)絡(luò)模型的變壓器圖像識(shí)別系統(tǒng),并對(duì)改進(jìn)的VGG-16網(wǎng)絡(luò)模型進(jìn)行了實(shí)驗(yàn)驗(yàn)證。

        1 模型構(gòu)建

        1.1 卷積神經(jīng)網(wǎng)絡(luò)

        卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)是包含卷積計(jì)算且具有深度結(jié)構(gòu)的前饋神經(jīng)網(wǎng)絡(luò),屬于多層神經(jīng)網(wǎng)絡(luò),主要應(yīng)用于識(shí)別二維特征方面[11-13]。相比傳統(tǒng)的反向傳播(Backward Propagation,BP)神經(jīng)網(wǎng)絡(luò),在其基礎(chǔ)上增加了卷積層和降采樣層,CNN能夠進(jìn)行平移不變分類。CNN網(wǎng)絡(luò)結(jié)構(gòu)主要由4部分組成,包括卷積層(C層)、降采樣層(S層)、全連接層(F層)以及SoftMax分類層。CNN在面對(duì)圖像平移、旋轉(zhuǎn)等變形情況下,具有較強(qiáng)的識(shí)別能力。VGG-16網(wǎng)絡(luò)模型是當(dāng)前比較常用的CNN網(wǎng)絡(luò)模型。

        1.1.1 卷積層

        卷積層通過(guò)使用卷積核對(duì)輸入層進(jìn)行若干次的卷積運(yùn)算處理和特征提取,并將結(jié)果組合成特征矩陣,然后通過(guò)稀疏連接與降采樣層相連。卷積核的尺寸決定局部連接區(qū)域。CNN的識(shí)別性能直接受局部連接區(qū)域的影響。常用的卷積核尺寸有3×3或者5×5,其深度與當(dāng)前神經(jīng)網(wǎng)絡(luò)節(jié)點(diǎn)矩陣深度一致。卷積運(yùn)算實(shí)際上就是卷積核與輸入矩陣進(jìn)行線性運(yùn)算的重復(fù)過(guò)程,具體公式為

        (1)

        (0≤m≤M,0≤n≤N)

        式中:yconv——輸出的卷積結(jié)果;

        f——卷積層激活函數(shù);

        x——輸入接受區(qū)域,是長(zhǎng)寬為(M,N)的矩陣;

        w——卷積核,長(zhǎng)寬為j和i的卷積核;

        b——每個(gè)卷積操作時(shí)所加的偏置項(xiàng);

        M,N——輸入矩陣的長(zhǎng)和寬。

        1.1.2 降采樣層

        降采樣層又叫池化層,主要作用是對(duì)一個(gè)輸出層的不同區(qū)域的特征進(jìn)行聚合,即對(duì)結(jié)果壓縮并得到更重要的特征。經(jīng)過(guò)降采樣層處理后的特征圖的尺度會(huì)有一定程度的減小,在減小特征圖像素點(diǎn)的同時(shí)也會(huì)大大減少后面相關(guān)網(wǎng)絡(luò)權(quán)重參數(shù)的數(shù)量[14]。最大池化和平均池化是最常用的兩種池化計(jì)算方法。無(wú)論是最大池化還是平均池化,均采用2×2的采樣窗口,縮放因子常設(shè)為2,即以步長(zhǎng)為2的速度來(lái)縮放圖片。最大池化函數(shù)公式為

        fpool=max(xm,n,xm+1,n,xm,n+1,xm+1,n+1)

        (2)

        (0≤m≤M,0≤n≤N)

        式中:fpool——經(jīng)過(guò)最大池化后的結(jié)果;

        xm,n,xm+1,n,xm,n+1,xm+1,n+1——采樣窗口里的4個(gè)值。

        1.1.3 全連接層

        在經(jīng)過(guò)多輪的卷積層和降采樣層的處理后,輸入圖片的信息被抽象成信息含量更高的特征,相當(dāng)于自動(dòng)提取了圖片中的特征。特征提取完成后,使用全連接層進(jìn)行分類。

        1.1.4 SoftMax分類層

        SoftMax層采用的分類器是SoftMax回歸模型。SoftMax回歸作為一個(gè)優(yōu)化算法,將神經(jīng)網(wǎng)絡(luò)的輸出變成一個(gè)概率分布,其輸出標(biāo)簽y可以有k個(gè)不同的值,訓(xùn)練樣本是由m組輸入樣本和輸出標(biāo)簽構(gòu)成:

        T={ (x(1),y(1)),…,(x(m),y(m)) }

        (3)

        式中:x(i)——多組輸入樣本集合,x(i)∈{1,2,3,…,k};

        y(i)——分類標(biāo)簽,y(i)∈{1,2,3,…,k}。

        單個(gè)輸入樣本x(i)經(jīng)過(guò)分類器模型后,對(duì)應(yīng)一個(gè)具有一定概率值的識(shí)別類別j,因此可將假設(shè)函數(shù)公式設(shè)置為

        (4)

        通過(guò)對(duì)訓(xùn)練集不斷地訓(xùn)練和學(xué)習(xí),SoftMax模型通過(guò)迭代優(yōu)化的方法擬合出數(shù)據(jù)曲線,對(duì)θ的值進(jìn)行調(diào)整,使損失函數(shù)值最小。SoftMax分類器模型的損失函數(shù)公式為

        (5)

        隨著模型不斷地迭代,SoftMax分類器的參數(shù)得到優(yōu)化,使得對(duì)不同的輸入樣本有了識(shí)別分類的功能。

        1.2 VGG-16網(wǎng)絡(luò)模型

        VGG-16網(wǎng)絡(luò)是在傳統(tǒng)CNN的基礎(chǔ)上構(gòu)建的,在網(wǎng)絡(luò)的深度上有一定的提升,卷積核大小統(tǒng)一為3×3。3×3的卷積核能提取輸入?yún)^(qū)域內(nèi)更多的特征,并且通過(guò)卷積核的堆疊組合來(lái)實(shí)現(xiàn)5×5,7×7大小卷積核相同的大小,使用更少參數(shù)的同時(shí)也可以獲取更好的非線性效果。圖1是VGG-16網(wǎng)絡(luò)模型結(jié)構(gòu)圖。該網(wǎng)絡(luò)共有1個(gè)輸入層,13個(gè)卷積層,5個(gè)降采樣層,3個(gè)全連接層,1個(gè)輸出SoftMax層。

        圖1 VGG-16網(wǎng)絡(luò)模型

        VGG-16網(wǎng)絡(luò)是輸入為224×224×3大小的RGB圖像。所有卷積層使用的卷積核大小都是3×3的卷積核且步長(zhǎng)為1?!癱onv3-64”表示這一層使用的卷積核大小為3×3,卷積核數(shù)量為64個(gè)。所有降采樣層均采用最大池化的方法,采用2×2的池化窗口,且步長(zhǎng)為2。全連接層有3層,每層對(duì)應(yīng)的通道數(shù)分別為4 096,4 096,1 000個(gè)。SoftMax層對(duì)應(yīng)輸出的標(biāo)簽數(shù)量為1 000,所以網(wǎng)絡(luò)中有1 000個(gè)通道數(shù)進(jìn)行分類輸出。

        由于神經(jīng)網(wǎng)絡(luò)中只有卷積層和全連接層有激活函數(shù)的存在,因此有效層只包括卷積層和全連接層。這兩層的總層數(shù)為16,故稱為VGG-16。正是因?yàn)榧せ詈瘮?shù)的存在,才使得神經(jīng)網(wǎng)絡(luò)具有非線性映射的能力。VGG-16網(wǎng)絡(luò)的激活函數(shù)選擇的是ReLu(Rectified Linear Unit)函數(shù)。相比sigmoid函數(shù),ReLu函數(shù)對(duì)梯度消失問(wèn)題有一定的緩解,并且能加快網(wǎng)絡(luò)收斂速度,使得一部分神經(jīng)元輸出為零,使得網(wǎng)絡(luò)變得稀疏,參數(shù)數(shù)量相應(yīng)也會(huì)減少,對(duì)過(guò)擬合問(wèn)題也有一定的緩解。

        2 改進(jìn)VGG-16網(wǎng)絡(luò)模型

        本文提出的改進(jìn)VGG-16網(wǎng)絡(luò)模型是在VGG-16網(wǎng)絡(luò)模型的基礎(chǔ)上改進(jìn)而來(lái)的。VGG-16網(wǎng)絡(luò)模型是在圖像數(shù)據(jù)集ImageNet[15-16]中訓(xùn)練得到的參數(shù)和權(quán)重,具有較強(qiáng)的深度特征學(xué)習(xí)能力。其中,卷積層作為特征提取層,對(duì)圖像的邊緣、輪廓、紋理等提取能力較強(qiáng)。同時(shí)VGG-16網(wǎng)絡(luò)的參數(shù)數(shù)量高達(dá)約6.5×107個(gè),在此基礎(chǔ)上改進(jìn)的模型也具備大量的參數(shù),且對(duì)于VGG-16網(wǎng)絡(luò)的卷積層已經(jīng)具備高層抽象特征的提取能力。這種特征提取能力不管是對(duì)ImageNet數(shù)據(jù)集還是對(duì)本文研究的變壓器圖像數(shù)據(jù)集,都存在共同特征,所以在同構(gòu)空間下進(jìn)行特征的遷移,能夠節(jié)省網(wǎng)絡(luò)訓(xùn)練的時(shí)間,提高網(wǎng)絡(luò)的效率。

        改進(jìn)VGG-16網(wǎng)絡(luò)模型將訓(xùn)練好的VGG-16網(wǎng)絡(luò)模型中的卷積層和降采樣層遷移到目標(biāo)數(shù)據(jù)集的分類任務(wù)中。由于VGG-16網(wǎng)絡(luò)的模型大量參數(shù)集中在全連接層中,且SoftMax層是按1 000個(gè)分類設(shè)計(jì)的,而本文只針對(duì)3個(gè)類別的分類,因此本文提出用含有512個(gè)神經(jīng)元的全連接層代替第1個(gè)全連接層,用含有256個(gè)神經(jīng)元的全連接層代替第2個(gè)全連接層,用含有3個(gè)神經(jīng)元的全連接層代替第3個(gè)全連接層,SoftMax層的輸出也變成了3個(gè)標(biāo)簽。這樣在減少參數(shù)的同時(shí)也滿足分類要求,從而加快訓(xùn)練的速度,提高模型的識(shí)別精度。

        在VGG-16網(wǎng)絡(luò)模型上使用遷移學(xué)習(xí)構(gòu)建的改進(jìn)VGG-16網(wǎng)絡(luò)模型如圖2所示。它主要包括兩部分:一是由VGG-16網(wǎng)絡(luò)遷移過(guò)來(lái)的卷積層和降采樣層,加載了其訓(xùn)練好的參數(shù);二是預(yù)先訓(xùn)練好的全連接層。

        圖2 改進(jìn)VGG-16網(wǎng)絡(luò)模型

        改進(jìn)VGG-16網(wǎng)絡(luò)模型包含13個(gè)卷積層,均為3×3大小,步長(zhǎng)為1的卷積核;3個(gè)降采樣層,均為2×2大小,步長(zhǎng)為2的池化窗口;3個(gè)全連接層。模型輸入為224×224×3大小的RGB圖像;第1~2層的卷積核個(gè)數(shù)為64個(gè),第3~4層的卷積核個(gè)數(shù)為128個(gè),第5~7層的卷積核個(gè)數(shù)為256個(gè),第8~13層的卷積核個(gè)數(shù)為512個(gè),第14~16層為全連接層,對(duì)應(yīng)每層的神經(jīng)元個(gè)數(shù)分別為512,128,3。

        改進(jìn)VGG-16網(wǎng)絡(luò)模型的搭建、訓(xùn)練和測(cè)試共分如下6個(gè)階段。

        (1) 輸入訓(xùn)練樣本。從訓(xùn)練集中抽取待訓(xùn)練的數(shù)據(jù),作為模型的輸入。

        (2) 對(duì)輸入的數(shù)據(jù)進(jìn)行預(yù)處理。使用高斯濾波盡可能地去掉噪聲干擾,對(duì)圖片進(jìn)行縮放、旋轉(zhuǎn)和裁剪,以保證輸入圖片具有相同的分辨率。

        (3) 構(gòu)建改進(jìn)VGG-16網(wǎng)絡(luò)模型。在VGG-16的基礎(chǔ)上,重新構(gòu)建全連接層神經(jīng)元的個(gè)數(shù),改進(jìn)VGG-16的全連接層神經(jīng)元個(gè)數(shù)依次為512個(gè)、128個(gè)、6個(gè),并用3個(gè)標(biāo)簽的SoftMax分類器替換原1 000個(gè)標(biāo)簽的分類器。

        (4) 微調(diào)遷移學(xué)習(xí)。通過(guò)遷移學(xué)習(xí)的方式,用VGG-16網(wǎng)絡(luò)模型卷積層和降采樣層的參數(shù)來(lái)優(yōu)化改進(jìn)VGG-16網(wǎng)絡(luò)模型參數(shù)。

        (5) 改進(jìn)VGG-16網(wǎng)絡(luò)模型訓(xùn)練。將處理好的數(shù)據(jù)作為已經(jīng)訓(xùn)練好的VGG-16網(wǎng)絡(luò)模型的輸入,凍結(jié)VGG-16的卷積層和降采樣層的參數(shù),獲取卷積層和降采樣層的部分輸出,再利用這部分輸出訓(xùn)練改進(jìn)VGG-16的全連接層的參數(shù)。

        (6) 改進(jìn)VGG-16網(wǎng)絡(luò)模型測(cè)試。從測(cè)試集中抽取數(shù)據(jù)作為模型的輸入,以驗(yàn)證模型識(shí)別的精確度。

        改進(jìn)VGG-16網(wǎng)絡(luò)模型搭建、訓(xùn)練和測(cè)試流程如圖3所示。

        圖3 改進(jìn)VGG-16網(wǎng)絡(luò)模型搭建、訓(xùn)練和測(cè)試流程

        3 實(shí)驗(yàn)設(shè)計(jì)與結(jié)果分析

        3.1 實(shí)驗(yàn)數(shù)據(jù)集

        本文采用的實(shí)驗(yàn)數(shù)據(jù)集均來(lái)自于網(wǎng)絡(luò)。一共有3種不同類型的變壓器,分別為油浸式電力變壓器、礦用變壓器和箱式變壓器。3種變壓器器身均采用新型絕緣結(jié)構(gòu),鐵心均由高質(zhì)量冷軋鋼片制成,高壓繞組均選用無(wú)氧銅線為材料。3種變壓器之間外觀上雖有不同,但在不同拍攝角度下,相同變壓器差異較大,這就增加了識(shí)別難度,故所有采用深度學(xué)習(xí)算法加以識(shí)別。數(shù)據(jù)集共1 500幅圖片,每張圖片都注釋了邊框,并標(biāo)上了類別標(biāo)簽。全部圖像分為訓(xùn)練集和測(cè)試集,在用數(shù)據(jù)集訓(xùn)練網(wǎng)絡(luò)前,采用翻轉(zhuǎn)、裁剪、縮放、旋轉(zhuǎn)、平移等數(shù)據(jù)增強(qiáng)方式對(duì)圖片進(jìn)行處理,以增強(qiáng)數(shù)據(jù)集。本文所使用的數(shù)據(jù)集規(guī)模較小,屬于小數(shù)據(jù)集,故采用ImageNet數(shù)據(jù)集作為源數(shù)據(jù)進(jìn)行遷移學(xué)習(xí)。ImageNet數(shù)據(jù)集有1 000個(gè)類別的圖像,種類豐富,數(shù)據(jù)量大,可以為深度學(xué)習(xí)模型遷移提供很大的支撐。

        3.2 實(shí)驗(yàn)設(shè)置

        采用2個(gè)對(duì)比實(shí)驗(yàn),分別是基于深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Network,DNN)變壓器圖像識(shí)別方法和基于CNN的變壓器圖像識(shí)別方法。實(shí)驗(yàn)中,CNN模型以及本文改進(jìn)的VGG-16網(wǎng)絡(luò)模型均在GPU(Graphics Processing Unit)上進(jìn)行訓(xùn)練,GPU為Tesla K20(一塊)。實(shí)驗(yàn)環(huán)境為Windows的TensorFlow。

        3.3 實(shí)驗(yàn)結(jié)果與分析

        采用不同的模型,針對(duì)訓(xùn)練集1 260張圖片得到的訓(xùn)練誤差和針對(duì)測(cè)試集240張圖片得到的預(yù)測(cè)誤差,以及訓(xùn)練時(shí)間和識(shí)別時(shí)間如表1所示。

        表1 幾種方法的性能對(duì)比

        由表1可知,無(wú)論是在訓(xùn)練集上還是在測(cè)試集上,本文所提出的改進(jìn)VGG-16網(wǎng)絡(luò)模型對(duì)變壓器圖像的識(shí)別誤差都遠(yuǎn)低于普通DNN模型和CNN模型,具有更高的圖像識(shí)別率。本文使用遷移學(xué)習(xí)的方式來(lái)訓(xùn)練改進(jìn)VGG-16網(wǎng)絡(luò)模型,遷移學(xué)習(xí)將VGG-16訓(xùn)練好的參數(shù)作為改進(jìn)VGG-16網(wǎng)絡(luò)模型的初始參數(shù),在這基礎(chǔ)上再訓(xùn)練VGG-16網(wǎng)絡(luò)模型,從而縮短了訓(xùn)練時(shí)間。由表1可知,改進(jìn)VGG-16網(wǎng)絡(luò)模型訓(xùn)練時(shí)間少于DNN模型和CNN模型,識(shí)別時(shí)間也少于DNN模型和CNN模型。

        每隔500次記錄一次模型對(duì)測(cè)試集的識(shí)別誤差率。隨著迭代次數(shù)的增加,通過(guò)不同模型得到的預(yù)測(cè)誤差曲線如圖4所示。

        圖4 不同模型得到的預(yù)測(cè)誤差曲線示意

        由圖4可知,改進(jìn)的VGG-16網(wǎng)絡(luò)模型的誤差率明顯低于DNN模型和CNN模型,改進(jìn)VGG-16網(wǎng)絡(luò)模型的誤差率基本上穩(wěn)定在10%左右,而CNN模型和DNN模型的誤差率分別在20%和30%左右。在訓(xùn)練次數(shù)相同的情況下,VGG-16網(wǎng)絡(luò)模型的錯(cuò)誤率比DNN模型和CNN模型都低,并且識(shí)別更加穩(wěn)定,而DNN模型和CNN模型都存在一定的波動(dòng)。由此表明,改進(jìn)VGG-16網(wǎng)絡(luò)模型具有識(shí)別率高和更加穩(wěn)定的優(yōu)點(diǎn)。

        4 結(jié) 論

        在VGG-16網(wǎng)絡(luò)模型的基礎(chǔ)上,改進(jìn)的VGG-16網(wǎng)絡(luò)模型更換原有3個(gè)全連接層的神經(jīng)元數(shù),同時(shí)用含有3個(gè)標(biāo)簽的SoftMax層更換了原有1 000個(gè)標(biāo)簽的SoftMax層。將遷移學(xué)習(xí)用于變壓器圖像識(shí)別,將在ImageNet數(shù)據(jù)集上訓(xùn)練好的VGG-16網(wǎng)絡(luò)遷移到本文模型中來(lái),縮短了訓(xùn)練時(shí)間,并降低了識(shí)別的誤差率。由3種不同的變壓器圖像在不同模型上訓(xùn)練和測(cè)試的表現(xiàn)得到以下結(jié)論:

        (1) 隨著迭代次數(shù)的增加,模型更準(zhǔn)確。當(dāng)達(dá)到一定迭代次數(shù)后,模型識(shí)別誤差變化波動(dòng)不大。

        (2) 本文提出的改進(jìn)VGG-16網(wǎng)絡(luò)模型,在相同的訓(xùn)練次數(shù)下,圖像識(shí)別的誤差率低于CNN模型和DNN模型,識(shí)別準(zhǔn)確率更高,更加穩(wěn)定,性能更加優(yōu)越。

        猜你喜歡
        變壓器特征模型
        一半模型
        理想變壓器的“三個(gè)不變”與“三個(gè)變”
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        如何表達(dá)“特征”
        不忠誠(chéng)的四個(gè)特征
        開關(guān)電源中高頻變壓器的設(shè)計(jì)
        抓住特征巧觀察
        3D打印中的模型分割與打包
        一種不停電更換變壓器的帶電作業(yè)法
        欧美aaaaaa级午夜福利视频| 久久综合亚洲鲁鲁五月天| 国产精品无套一区二区久久| 亚洲欧美色一区二区三区| 成 人 网 站 免 费 av| 青春草在线视频精品| 人妻少妇中文字幕专区| 久久亚洲av无码精品色午夜| 99国内精品久久久久久久| 国产精品久久综合桃花网| 69精品人妻一区二区| 亚洲悠悠色综合中文字幕| 亚洲午夜福利在线视频| 99热这里只有精品4| 一本大道综合久久丝袜精品| 免费人成视频网站在在线| 久久香蕉国产线熟妇人妻| 五月天欧美精品在线观看| 国产最新一区二区三区| 97成人精品国语自产拍| 久久夜色精品国产| 亚洲色大成在线观看| 国产剧情亚洲一区二区三区| 丝袜人妻一区二区三区| 蜜臀久久99精品久久久久久小说| 91精品国产综合久久青草| 国产精品久久av色婷婷网站| 成人免费无遮挡在线播放| 国产极品美女高潮无套在线观看| 人妻丝袜中文字幕久久| 激情五月我也去也色婷婷| 亚洲av高清在线一区二区三区| 久草午夜视频| 91青青草手机在线视频| 国产裸体美女永久免费无遮挡| 69久久夜色精品国产69| 亚洲大尺度动作在线观看一区 | 午夜精品久久久久久久99老熟妇| 成熟人妻av无码专区| 无码91 亚洲| 亚洲国产av一区二区三区天堂|