亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        油田安防領(lǐng)域基于改進的深度殘差網(wǎng)絡(luò)行人檢測模型

        2018-11-28 09:09:36
        計算機測量與控制 2018年11期
        關(guān)鍵詞:行人殘差深度

        (中國石油工程建設(shè)有限公司 西南分公司,成都 610041)

        0 引言

        油田領(lǐng)域的安防系統(tǒng),就是對探測器獲取的圖像序列進行圖像信號處理分析,從視頻背景中檢測到目標信息,進而利用跟蹤算法在隨后的序列圖像中定位出目標的位置坐標信息,為后續(xù)深層次的行人行為理解與決策奠定基礎(chǔ)[1]。因此,智能視頻監(jiān)控中的行人目標檢測是當今前沿的一個熱門研究課題,有著重要的實際應(yīng)用價值和研究意義,其算法的好壞直接影響著行人目標識別與行為理解的穩(wěn)定性和準確性[2]。本文主要結(jié)合油氣田地面建設(shè)工程通信網(wǎng)絡(luò)與安防系統(tǒng)設(shè)計的需求,對現(xiàn)有的行人檢測模型進行分析,為油氣田安全、高效生產(chǎn)運行提供技防保障。

        傳統(tǒng)的行人檢測方法主要是采用低級特征對行人進行表征,如HOG特征,Haar特征,LBP特征,LUV特征,ICF特征,ChnFtrs特征,以及LDCF特征,然后利用支持向量機,決策樹等分類器進行分類,實現(xiàn)行人目標檢測[3]。 由于監(jiān)控環(huán)境復(fù)雜,目標外觀差異巨大,直接采用單一的人工特征表征能力不足,泛化效果較差,不能解決復(fù)雜干擾條件下行人檢測精度不高的問題。同時,現(xiàn)在行人檢測算法大都采用滑動窗口進行窮舉搜索,通過采取一定的策略生成候選窗口,然后利用分類算法對對候選區(qū)域分類。然而,由于行人目標外形差異性太大,通過多尺度篩選候選窗口的復(fù)雜度太大,分類處理十分低效的。

        隨著近兩年以卷神經(jīng)網(wǎng)絡(luò)為代表的深度學習算法在目標識別、醫(yī)學診斷等領(lǐng)域所取得的突破,國內(nèi)外研究人員也將深度學習模型擴展并應(yīng)用到安防領(lǐng)域行人檢測應(yīng)用領(lǐng)域中,并取得了有效的研究成果[4]。在深度學習方法中,特征提取網(wǎng)絡(luò)層即為整個構(gòu)架的核心技術(shù),其功能等同梯度方向直方圖或DPM等提取特征的方法,唯獨不同的地方是CNN所提取的特征并非人工設(shè)計的,而是藉由訓(xùn)練網(wǎng)絡(luò)而學習到的,也因此CNN能提取到更為關(guān)鍵的特征進而達到更好的效果。分類網(wǎng)絡(luò)層則等同于SVM等分類器,透過學習利用前一個網(wǎng)絡(luò)所提供的信息來分類圖像是否為行人目標。一般來說,基于深度學習的行人檢測方法可以分為兩類:基于區(qū)域選擇[5],即提取候選框,如R-CNN,SPP-Net,F(xiàn)aster-RCNN, R-FCN等;基于端到端的回歸網(wǎng)絡(luò)[6],如YOLO,SSD等。前者將目標檢測轉(zhuǎn)化為分類為題和回歸問題,首先采用獨立的區(qū)域提取網(wǎng)絡(luò)求取疑似目標區(qū)域,然后利用邊界框回歸對提取的區(qū)域進行位置修正,最后采用softmax進行分類;后者是將目標檢測作為一個回歸問題進行求解,通過將圖像經(jīng)深度網(wǎng)絡(luò)處理,得到圖像中所有物體的位置和其所屬類別及相應(yīng)的置信概率[7]??梢钥闯?,后者將檢測過程整合為一個回歸問題,使得網(wǎng)絡(luò)結(jié)構(gòu)簡單,檢測速度大大加快;同時,由于網(wǎng)絡(luò)沒有分支,所以訓(xùn)練也只需要一次即可完成。因此,通過將目標檢測模型轉(zhuǎn)化為回歸問題的思路非常有效。雖然基于深度學習的行人檢測正在迅速發(fā)展,但無論在準確性還是速度方面,仍有很大的改進空間。該方法的目標是在不影響檢測精度的情況下降低計算成本。

        筆者結(jié)合多年在安防監(jiān)控領(lǐng)域圖像處理算法的經(jīng)驗,以“XXX油田地面建設(shè)工程通信網(wǎng)絡(luò)與安防系統(tǒng)設(shè)計項目”為契機,通過對傳統(tǒng)模型與深度網(wǎng)絡(luò)的分析,提出了一種基于改進SSD模型的深度網(wǎng)絡(luò)行人檢測算法。該算法首先利用聚合通道特征模型對圖像或者視頻序列進行進行預(yù)處理,獲得疑似目標區(qū)域,大大降低單幀圖像檢測的時間;然后對SSD的基本網(wǎng)絡(luò)VGG-16替換為Resnet-50,通過增加恒等映射解決網(wǎng)絡(luò)層數(shù)加深但檢測精度下降的問題;最后采用強大而靈活的雙參數(shù)損失函數(shù)來優(yōu)化訓(xùn)練深度網(wǎng)絡(luò),提高網(wǎng)路模型的泛化能力。

        1 相關(guān)技術(shù)

        1.1 SSD結(jié)構(gòu)

        SSD模型的核心是使用卷積濾波在特征圖中很多給定的邊界框中得到目標所屬類別及對應(yīng)位置偏差[8]。相比于YOLO模型,SSD模型采用卷積層替代YOLO的全連接層,實現(xiàn)多尺度目標位置預(yù)測,其流程框架如圖1所示。SSD模型主要基于VGG16網(wǎng)絡(luò)進行改進,將全連接層替換成卷積層,同時再網(wǎng)絡(luò)中還增加了最大池化層,并為卷基層輸出一個對應(yīng)的特征圖,并以此作為預(yù)測的輸入[9]。換句話說,這些不同尺度的特征圖能夠作為預(yù)測的輸入,以此來獲得不同特征尺度。為了實現(xiàn)多層次映射,采用了3×3的卷積核進行特征描述,而不是VGG16網(wǎng)絡(luò)采用的5×5、7×7、11×11等尺度的卷積核。因此,該模型能夠同時提取圖像序列的低層次特征與高層次深度特征。

        圖1 SSD模型檢測框架

        在不同尺度下獲取每個位置在特征圖上對應(yīng)網(wǎng)的一系列固定大小的框,其中每個網(wǎng)格具有k個矩陣框,每個矩形框能夠預(yù)測c個目標類別的評分及其對應(yīng)的位置偏差[9]。若獲取的特征圖的大小是m×n,則可以獲得m×n個特征圖網(wǎng)格,那么該特征圖共有(c+4)×k×m×n個輸出。在訓(xùn)練階段,一旦矩形框與基準框匹配成功,那么該矩形框就是為正樣本,反之則為負樣本。SSD模型只有正樣本參與代價函數(shù)的計算,先學習重合度高的框的位置信息,再學習所屬類別信息。因此,訓(xùn)練階段獲取的正樣本的數(shù)目較少,使得最終網(wǎng)絡(luò)訓(xùn)練開銷不大。

        SSD模型的目標代價損失函數(shù)是由位置損失項與置信度損失項加權(quán)的結(jié)果,其等式如下所示:

        L(x,c,l,g)=(Lconf(x,c)+αLloc(x,l,g))/N

        (1)

        其中:c表示多類別目標屬性的置信度;l和g分別表示獲取的預(yù)測框與基準框;N則是匹配到的矩形框的個數(shù);α是交叉驗證的正則化權(quán)值系數(shù)。位置損失項Lloc(x,l,g)是l和g之間的smoothL1正則項獲取,通過對不同位置中心的多尺度矩形框進行偏移回歸,獲取最優(yōu)的匹配點位置,其計算表達式如下:

        (2)

        (3)

        SSD模型添加逐層遞減的卷積層,從而得到多尺度的特征集,有助于實現(xiàn)多尺度目標檢測。多個不同層次的網(wǎng)絡(luò)能夠捕獲圖像不同級別的特征,實驗結(jié)果已經(jīng)表明采用低層次特征可以因為較低層捕獲更精細的細節(jié),增強目標的語義表征能力。

        1.2 深度殘差網(wǎng)絡(luò)

        深度殘差網(wǎng)絡(luò)(Resnet)的關(guān)鍵核心點是引入了殘差塊,在一個淺層網(wǎng)絡(luò)基礎(chǔ)上疊加恒等映射層進行殘差學習,提升深度特征提取的精度,解決了梯度消失的問題[10]。假定Resnet網(wǎng)絡(luò)的原始輸入樣本為x,經(jīng)過多層網(wǎng)絡(luò)映射后能夠得到F(x),因此,殘差函數(shù)H(x)=F(x)-x,如圖1所示。可以看出,經(jīng)過一個恒等映射,將輸入疊加到卷積輸出上,形成能夠跳過一層或多層的跳躍式連接,消除梯度消失現(xiàn)象,可以使網(wǎng)絡(luò)深度做到成百上千層。

        圖2 Resnet網(wǎng)絡(luò)中子塊構(gòu)造的示意圖

        恒等映射簡單地疊加在網(wǎng)絡(luò)中,即便增加網(wǎng)絡(luò)的層數(shù)也不會降低網(wǎng)絡(luò)的性能。圖1的結(jié)構(gòu)能夠可以簡單地使多個非線性層的權(quán)重趨向零以近似恒等映射,其輸出可以表示為:

        y=H(x,Wi)+x

        (4)

        其中:x和y分別表示子塊的輸入與輸出結(jié)果,H(x,Wi)是殘差映射。上式中的引入的x通路,既沒有引入額外參數(shù)也沒有增加計算復(fù)雜度。仿真實驗結(jié)果表明Resnet網(wǎng)絡(luò)比相同規(guī)模的簡單網(wǎng)絡(luò)更容易收斂,能獲得較好輸出結(jié)果,不受網(wǎng)絡(luò)深度影響。

        2 本文改進的深度檢測網(wǎng)絡(luò)

        現(xiàn)有的深度網(wǎng)絡(luò)目標檢測算法更注重提取圖像的高層次特征,包括全局特征,而忽略低層次特征。低層次特征包含豐富的局部細節(jié),可獲得令人滿意的人類視覺效果,這對行人檢測任務(wù)具有實質(zhì)性影響;高層次特征主要關(guān)注于大范圍的感受野,確保超分辨重建的圖像準確性。本文在SSD模型的基礎(chǔ)上,提出了一種改進的行人檢測算法,該算法首先利用聚合通道特征模型對圖像或者視頻序列進行進行預(yù)處理,獲得疑似目標區(qū)域,大大降低單幀圖像檢測的時間;然后對SSD的基本網(wǎng)絡(luò)VGG-16替換為Resnet-50,通過增加恒等映射解決網(wǎng)絡(luò)層數(shù)加深但檢測精度下降的問題;最后采用強大而靈活的雙參數(shù)損失函數(shù)來優(yōu)化訓(xùn)練深度網(wǎng)絡(luò),提高網(wǎng)路模型的泛化能力。

        2.1 基于聚合信道特征(ACF)模型的快速檢測

        現(xiàn)在行人檢測算法大都采用滑動窗口進行窮舉搜索實現(xiàn)分類[11]。然而,行人目標外形差異性太大,通過多尺度篩選候選窗口的復(fù)雜度太大,分類處理十分低效的。為了提高檢測的效率,本文首先采用基于聚合信道特征(ACF)模型的目標檢測算法對圖像進行預(yù)處理,生成候選窗口。實驗仿真表明,經(jīng)過預(yù)處理后的候選區(qū)域窗口幾乎囊括了圖像中所有可能的目標區(qū)域,大大降低疑似目標數(shù)量,對圖像中任何行人基本具有低漏檢的檢測效果。

        假定處理后的圖像具有M疑似區(qū)域個數(shù),可以表示為{Bi∈Rmi×ni|i=1,2,...,M}。由于殘差網(wǎng)絡(luò)與分類器的輸入?yún)?shù)大小必須相同,所有的候選區(qū)域必須經(jīng)歸一化處理到統(tǒng)一的尺度,{Di∈Rm×n|i=1,2,...,M}。

        2.2 基于殘差網(wǎng)絡(luò)的SSD模型改進

        眾所周知,殘差網(wǎng)絡(luò)解決了網(wǎng)絡(luò)層數(shù)加深,但檢測精度下降的問題。與傳統(tǒng)VGG相比,殘差網(wǎng)絡(luò)具有更少的濾波器和更低的計算代價,因此本文考慮將SSD的基準VGG網(wǎng)絡(luò)替換成Resnet-50網(wǎng)絡(luò)[12]。SSD模型采用的多層次特征提取,導(dǎo)致獲取的特征信息冗余太多,直接影響訓(xùn)練的復(fù)雜度,且存在維數(shù)災(zāi)難問題。因此通過前置網(wǎng)絡(luò)對輸入數(shù)據(jù)進行特征提取,為后續(xù)網(wǎng)絡(luò)層提供輸入信息,可加快后續(xù)訓(xùn)練速度,提高網(wǎng)絡(luò)的泛化能力。

        Resnet-50結(jié)構(gòu)采取了多個不同層次的殘差結(jié)構(gòu),其中每個卷積塊都包含不同數(shù)目的殘差單元,每個殘差單元進行三次卷積操作。由于殘差結(jié)構(gòu)中采用多個恒等映射進行疊加,即便增加網(wǎng)絡(luò)的層數(shù)也不會降低網(wǎng)絡(luò)的性能。等式4所示,恒等映射的是殘差映射H(x,Wi)表示為W2σ(W1x))是σ為Relu激活函數(shù),若殘差結(jié)構(gòu)塊的輸入與輸出維度不一致,則需要對輸入x進行投影變換,消除維度間的差異,其等式如下:

        y=H(x,Wi)+Wsx

        (5)

        在油氣田野外監(jiān)控環(huán)境下,其數(shù)據(jù)處理設(shè)備存在低功耗的要求,因此本文選用采取了裁剪的Resnet-50殘差結(jié)構(gòu)進行網(wǎng)絡(luò)替換,其中第二層網(wǎng)絡(luò)對獲取的疑似區(qū)域進行特征提取,分別采用大小為1×1×16, 3×3×64,1×1×256的卷積核進行描述;第三層卷積網(wǎng)絡(luò)分別使用大小為1×1×128, 3×3×128,1×1×512的卷積核;第四層卷積網(wǎng)絡(luò)結(jié)構(gòu)分別使用大小為1×1×256,3×3×256, 1×1×1024的卷積核;第五層卷積網(wǎng)絡(luò)結(jié)構(gòu)分別使用大小為1×1×512,3×3×512,1×1×2048的卷積核);剩下的網(wǎng)絡(luò)結(jié)構(gòu)與VGG16的結(jié)構(gòu)保持一致。

        采取多個不同尺寸的特征圖對目標進行預(yù)測,可以對不同尺度的目標進行正確的檢側(cè)。本文提出的改進模型,不僅是端對端的檢測網(wǎng)絡(luò),還可以進行參數(shù)的共享傳遞,增強特征提取效率。不同尺度獲得的特征映射圖中,不同特征位置輸出的結(jié)果,對應(yīng)到輸入圖像中的待檢測區(qū)域。由于不同尺度下特征圖與檢測框進行配準存在差異,本文采用自適應(yīng)矩形框提取策略。假定特征映射圖中存在m個目標,其對應(yīng)的尺寸可以表示為:

        (6)

        2.3 損失函數(shù)

        本文采用了一種廣義的雙參數(shù)損失函數(shù),該函數(shù)可以推廣到目前許多流行的魯棒損失函數(shù)[13]。假定迭代前后之間的誤差可以表示為e,因此本文采用的損失函數(shù)可以表示為:

        (7)

        其中:ρ(α)=max(1,2-α);α,β是具有連續(xù)值屬性的參數(shù),可以通過不同的參數(shù)設(shè)置,模擬出任意的損失函數(shù),如均方誤差損失函數(shù)(l2),絕對值誤差損失函數(shù)(l1)等。相比于傳統(tǒng)固定參數(shù)損失函數(shù),本文采用雙參數(shù)損失函數(shù)可以通過微調(diào)α和β獲得更優(yōu)的損失函數(shù),具有很大的靈活性,可以適應(yīng)更復(fù)雜的場景。

        3 實驗結(jié)果與分析

        3.1 實驗數(shù)據(jù)集及參數(shù)設(shè)置

        為了評估本文提出的改進深度網(wǎng)絡(luò)行人檢測算法性能,訓(xùn)練集使用NICAT,MIT以及油田監(jiān)控采集的數(shù)據(jù)集,訓(xùn)練集中正樣本數(shù)量23 589,負樣本數(shù)量23 991。測試集選擇國際上廣泛使用且非常具有挑戰(zhàn)的公共測試數(shù)據(jù)集INRIA數(shù)據(jù)庫以及油田監(jiān)控序列,總共選擇有820張圖像。

        本文采用Resnet-50殘差結(jié)構(gòu)模塊進行構(gòu)造深度網(wǎng)絡(luò)。在訓(xùn)練階段,最小批量設(shè)置為16;采用梯度下降算法進行優(yōu)化時,權(quán)重的更新規(guī)則中,學習速率初始化設(shè)置為設(shè)置為0.25,然后在訓(xùn)練到第30個Epoch(Epoch是指對所有訓(xùn)練數(shù)據(jù)的一輪遍歷)時,學習速率改為0.025;若100個Epoch后,我們提出的損失函數(shù)沒有改變則停止訓(xùn)練。為了提高優(yōu)化效率,本文采用ADAM優(yōu)化算法,Adam 優(yōu)化算法是隨機梯度下降算法的擴展式,可以基于訓(xùn)練數(shù)據(jù)迭代地更新神經(jīng)網(wǎng)絡(luò)權(quán)重,其參數(shù)設(shè)定為:alpha=0.001,beta1=0.9,beta2=0.999 和 epsilon=10-8。最小與最大矩陣框尺度分別設(shè)置為smin=0.15,smax=0.95。損失函數(shù)中,α和β分別經(jīng)驗設(shè)置為1.12和0.05。

        3.2 對比算法及評價指標

        為了驗證本文提出的行人檢測算法的有效性,結(jié)合本文算法的特性,所選擇的對比算法分別是ConvNet[14], YOLO-v2[15], SSD[8], R-CNN[16]。本文選擇檢測錯誤權(quán)衡圖(DET)曲線評價行人目標的檢測效果,其中DET表征檢測率與每個圖像誤檢率(FPPI)的關(guān)系。本文實驗環(huán)境為:Intel Xeon CPU ES 1620 V33.5 GHz,16 GB內(nèi)存,Nvidia Geforce GTX 1080,Ubuntul6.04,64位操作系統(tǒng)。

        3.3 行人檢測定性定量對比

        為了定量分析本文所選擇對比算法的行人檢測性能,圖3展示了對比算法的行人檢測率與FPPI的關(guān)系曲線,其中FPPI是指平均每張圖中能正確檢測到的行人目標數(shù)目。從基本數(shù)據(jù)可以看出,本文所提檢測算法相比于ConvNet算法、YOLO-v2算法、SSD算法和R-CNN算法有更高的檢測率,尤其是針對INRIA數(shù)據(jù)集中Street中的圖像,具有相當高的檢測準確率與效率。由于FPPI是在不同檢測率下的統(tǒng)計結(jié)果,為了便于對比深度網(wǎng)路的實際檢測情況,本部分主要討論當FPPI=1時各算法的檢測結(jié)果以便直觀分析。在INRIA數(shù)據(jù)庫中,當FPPI=1時,本文提出算法的檢測率是77.21%,而對比算法的最好結(jié)果是YOLO-v2算法,其結(jié)果為75.44%,而ConvNet算法的檢測率是69.1%,SSD算法的檢測率是71.88%,R-CNN算法的檢測率只有67.1%。其原因在于大多數(shù)深度特征的行人檢測方法對行人僅僅是直接利用多層次深度信息,忽略了梯度消失的問題,而本文提出的改進SDD網(wǎng)絡(luò)是將基本網(wǎng)絡(luò)VGG-16替換為Resnet-50,通過增加恒等映射解決網(wǎng)絡(luò)層數(shù)加深但檢測精度下降的問題,并采用強大而靈活的雙參數(shù)損失函數(shù)來優(yōu)化訓(xùn)練深度網(wǎng)絡(luò),提高網(wǎng)路模型的泛化能力。因此,本文提出的深度網(wǎng)絡(luò)能夠更好提取行人圖像特征的深度殘差網(wǎng)絡(luò),并通過改進的預(yù)測矩形框方法加強訓(xùn)練,進而進一步降低每張圖片誤檢率。

        圖3 檢測率與FPPI的關(guān)系曲線

        圖4展示了兩幅比較有代表性的檢測結(jié)果,其中一幅拍攝于昏暗的黃昏,導(dǎo)致視覺質(zhì)量較差,嚴重影響行人目標的檢測,非常符合油田野外環(huán)境下的成像實際。由于本文選擇的對比算法較多,全部在一張圖像顯示不便于讀者閱讀,因此受限于篇幅,本文只對代表性的算法進行標注對比。如圖4所示,紅色的矩形框是本文算法檢測到的行人結(jié)果,可以看出本文所提出的深度殘差SSD訓(xùn)練模型能夠比較準確的檢測出復(fù)雜背景下的行人,尤其是針對模糊的行人目標,而直接采用SSD模型的檢測結(jié)果存在一些弱小目標的漏檢,主要歸功于深度殘差SSD的表征能力。但是,若圖像中含有大量的行人且存在大量遮擋的時候,本文的模型也不能完全標注出所有的行人區(qū)域。一方面是大量遮擋使得行人結(jié)構(gòu)變得千差萬別,若不經(jīng)推理很難分辨行人所在的區(qū)域。由此也可以說明,本文的算法仍然存在可以改進的地方。但從對比算法的結(jié)果而言,本文的方法在行人檢測方面的性能具有更高的準確率。

        圖4 不同算法的檢測效果定性對比

        4 總結(jié)

        本文在SSD深度檢測模型的基礎(chǔ)上,提出了一種改進的行人檢測算法,該算法首先利用聚合通道特征模型對圖像或者視頻序列進行進行預(yù)處理,獲得疑似目標區(qū)域,大大降低單幀圖像檢測的時間;然后對SSD的基本網(wǎng)絡(luò)VGG-16替換為Resnet-50,通過增加恒等映射解決網(wǎng)絡(luò)層數(shù)加深但檢測精度下降的問題;最后采用強大而靈活的雙參數(shù)損失函數(shù)來優(yōu)化訓(xùn)練深度網(wǎng)絡(luò),提高網(wǎng)路模型的泛化能力。

        實驗結(jié)果表明本文所提檢測算法的性能超過現(xiàn)有的檢測算法,在保證行人檢測準確率的同時提高檢測效率。下一步,筆者將考慮引入語義信息,提升行人互遮擋的準確率。

        猜你喜歡
        行人殘差深度
        基于雙向GRU與殘差擬合的車輛跟馳建模
        毒舌出沒,行人避讓
        意林(2021年5期)2021-04-18 12:21:17
        深度理解一元一次方程
        基于殘差學習的自適應(yīng)無人機目標跟蹤算法
        基于遞歸殘差網(wǎng)絡(luò)的圖像超分辨率重建
        自動化學報(2019年6期)2019-07-23 01:18:32
        路不為尋找者而設(shè)
        揚子江(2019年1期)2019-03-08 02:52:34
        深度觀察
        深度觀察
        深度觀察
        我是行人
        亚洲国产成人精品无码区在线播放| 蜜臀av免费一区二区三区| 四虎精品视频| 久久99国产亚洲高清| 美女高潮流白浆视频在线观看| 国产极品嫩模大尺度在线播放| 国产自拍视频免费在线观看| 懂色av一区二区三区尤物| 日本丰满熟妇videossexhd| 超清精品丝袜国产自在线拍| 国产av人人夜夜澡人人爽| 亚洲av无码av吞精久久| 区无码字幕中文色| 精品日韩一区二区三区av| 亚洲精品天堂日本亚洲精品| 蜜桃传媒一区二区亚洲av婷婷| 色综合久久久无码中文字幕| 日韩日韩日韩日韩日韩日韩| 久久精品国产亚洲av夜夜| 成年网站在线91九色| 久久精品国产字幕高潮| 美女露出粉嫩小奶头在视频18禁| 欧美性猛交xxxx乱大交极品| 亚洲精品一区二区三区麻豆| 精品人妻va出轨中文字幕| 国产伦精品一区二区三区视| 97碰碰碰人妻视频无码| 亚洲天堂男人的av天堂| 日韩精品成人区中文字幕| 亚洲av高清在线一区二区三区 | 天堂资源中文最新版在线一区 | 久久久久国产亚洲AV麻豆| 亚洲国产一区二区精品| 男女视频在线观看一区| 亚洲av永久无码精品放毛片| 中文无码制服丝袜人妻av| 免费看国产精品久久久久| 国产少妇露脸精品自拍网站| 一本色道久久hezyo无码| 怡红院免费的全部视频| 狠狠躁狠狠躁东京热无码专区|