亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于Transformer的實時語義分割網(wǎng)絡及應用

        2023-09-22 09:01:14鄭天宇丁一銘
        激光與紅外 2023年8期
        關鍵詞:分支語義像素

        劉 青,李 寧,熊 俊,鄭天宇,丁一銘

        (北京卓越電力建設有限公司,北京 100027)

        1 引 言

        隨著電力系統(tǒng)發(fā)展,電纜隧道、綜合管廊數(shù)量迅速增長,應用機器人替代人工巡檢并完成應急處置是必然趨勢。電纜隧道巡檢機器人的應用,對保障電網(wǎng)安全運行具有重要意義。研究人員通過開發(fā)一系列電網(wǎng)巡檢機器人[1-3],不僅實現(xiàn)了對電網(wǎng)設備運行狀態(tài)和環(huán)境的實時監(jiān)測,提高了巡檢過程的自動化程度、準確度及精度,也實現(xiàn)了機器對人工的替代,降低了運維人員的作業(yè)風險,提高了工作效率。

        近年來,以深度學習為中心的機器學習技術飽受人們關注。在機器人應用逐漸廣泛化的過程中,機器人場景理解成為當前研究的熱點內(nèi)容。目前,語義分割作為解決機器人場景理解的關鍵性技術[3-5],其主要任務是將圖像中的每個像素鏈接到類標簽。語義分割的結果圖可以幫助機器人理解場景并輔助完成規(guī)劃路徑或緊急避障。

        目前圖像語義分割可分為基于全卷積編解碼、基于擴張卷積、基于注意力機制以及基于語義細節(jié)雙分支的方法等。全卷積神經(jīng)網(wǎng)絡(Fully Convolutional Network,FCN)在語義分割領域應用廣泛[5],它能夠獲取任意大小的圖像并生成相應空間維度的輸出,采用像素級損失和網(wǎng)絡內(nèi)上采樣來增強密集預測。針對全卷積神經(jīng)網(wǎng)絡在語義分割時感受野固定和分割物體細節(jié)容易丟失或被平滑的問題,Vijay等人提出SegNet網(wǎng)絡[6],采用池化索引保存圖像的輪廓信息并降低參數(shù)量。Olaf等人提出了U-Net網(wǎng)絡[7],在U型對稱結構中加入跳躍連接融合相同分辨率上采樣及下采樣特征圖,對醫(yī)學圖像產(chǎn)生更精確的分割。Simon等人提出FC-DenseNets網(wǎng)絡[8],通過將網(wǎng)絡層與后續(xù)層建立密集連接完成特征的復用?;谌矸e對稱語義分割模型得到分割結果較粗糙,忽略像素之間的空間一致性關系,因此,Chen等人提出Deeplab網(wǎng)絡[9],采用擴張卷積增加感受野獲得更多語義信息[10],并使用完全連接條件隨機場提高模型捕獲細節(jié)的能力。Deeplab-V2增加空洞空間金字塔池化模塊,利用多個不同采樣率的擴張卷積提取特征,再將特征融合以捕獲不同尺度的語義信息[11]。Deeplab-V3在空洞空間金字塔池化模塊中加入了全局平均池化,同時在多尺度擴張卷積后添加批量歸一化,有效捕獲全局語義信息[12]。由于卷積層結構限制,提供的上下文信息不足。因此,Wang等人受計算機視覺中經(jīng)典的非局部均值啟發(fā),提出Non-local建立圖像上相距較遠像素之間的聯(lián)系[13]。Fu等人引入通道及空間注意力機制,更好聚合不同類別之間的上下文信息[14]。Huang等人提出交叉循環(huán)注意力,更好捕獲上下文信息的同時大量減少計算量[15]。近年來,受到自然語言處理領域中Transformer成功應用的啟發(fā)[16],嘗試將標準的Transformer結構直接應用于圖像[17],將整幅圖像拆分成小圖像塊,經(jīng)過線性嵌入后作為輸入送入網(wǎng)絡中,使用監(jiān)督學習的方式進行圖像分類的訓練。

        由于上述方法非常耗時,因此不能直接部署在機器人上,輕量級分割算法越來越受到關注[18-22]。Yu等人提出了一種由細節(jié)和語義分支組成的新型雙分支網(wǎng)絡BiSeNet[23],網(wǎng)絡架構如圖1(a)所示,主要包括語義分支、空間分支以及融合模塊。語義分支首先使用輕量級骨干網(wǎng)絡Xception[24]通過快速下采樣特征學習,獲取足夠的感受野,同時采用全局池化來降低計算量,穩(wěn)定最大感受野。下采樣的特征圖再經(jīng)過注意力優(yōu)化模塊,借助全局平均池化捕獲上下文語義信息,計算注意力向量,優(yōu)化語義分支中的輸出特征??臻g分支主要負責保留空間信息并且生成高分辨率特征,通過3個Conv-BN-ReLU(ConvBR)卷積層將輸入圖像降采樣到原始圖像的1/8。特征融合模塊首先將兩種特征進行通道連接,經(jīng)過一個ConvBR卷積層后,使用殘差結構對原始特征及注意力優(yōu)化后的特征進行融合。最終直接采用雙線性插值上采樣到原圖像分辨率,得到圖像的分割結果。這種雙分支網(wǎng)絡實現(xiàn)比當時基于編解碼器的方法[25]更高的分割精度。

        圖1 網(wǎng)絡架構

        針對以上的分析,本文設計了一種新型網(wǎng)絡架構Dual-Former,如圖1(b)所示。網(wǎng)絡中設計了分割Transformer模塊(Segmentation Transformer module,STM)和通道遞減卷積模塊(Channel Decreasing Convolution Module,CDCM)分別提取語義和細節(jié)信息,最后通過特征融合模塊(Feature Fusion Module,FFM)將底層的空間細節(jié)信息和深層的上下文語義信息融合得到不同尺度的圖像特征,獲得良好的分割結果。

        2 基于Transformer的語義分割網(wǎng)絡

        在語義分割任務中,圖像的全局上下文語義信息和局部細節(jié)信息對于分割結果至關重要,BiSeNet采用雙分支框架,將低級細節(jié)和高級語義信息結合起來,然而,添加額外的分支來獲取低層特征是耗時的,并且BiSeNet提取的語義和細節(jié)信息十分粗略,經(jīng)過融合后物體邊界分割模糊,不同類別存在混淆,無法得到精細的分割結果。為此,構建了基于Transformer的語義分割網(wǎng)絡,并提出分割Transformer模塊、通道遞減卷積模塊和特征融合模塊以提升模型分割能力。

        2.1 網(wǎng)絡架構

        基于Transformer的語義分割網(wǎng)絡的架構如圖2所示,該網(wǎng)絡由特征提取主干、語義分支、空間分支及融合分割部分組成。特征提取主干首先使用卷積核大小為3×3,步長為2的ConvBR卷積層和步長為2的通道遞減卷積模塊將原始圖像下采樣至原始分辨率的1/4,特征提取主干將圖像下采樣的同時,能夠較好保留圖像的原始信息與特征,解決了BiSeNet使用雙分支獲取低層特征造成計算冗余的問題,便于特征語義和細節(jié)信息的提取。語義分支使用Transformer提取圖像全局上下文語義信息,每層逐漸降低特征圖分辨率并加深通道數(shù),經(jīng)過注意力優(yōu)化后獲取更深層的語義信息,最后對特征圖進行上采樣到原始分辨率的1/8。細節(jié)分支首先使用步長為2的通道遞減卷積模塊對特征圖進行下采樣到原始分辨率的1/8,經(jīng)過通道遞減卷積模塊的特征圖能夠更好保留圖像的多尺度細節(jié)信息。然后使用兩個步長為1的通道遞減卷積模塊,提取高分辨率特征圖的局部細節(jié)信息。由于保持特征圖分辨率維持在原始分辨率的1/8,能夠更好提取原始圖像中的細節(jié)信息。融合分割部分首先經(jīng)過特征融合模塊,由于兩分支的輸出不屬于同一種特征,因此不能使用簡單相加的方式對特征進行融合。特征融合模塊將語義和細節(jié)分支的特征圖采用通道維度疊加,即將語義分支特征圖通道與細節(jié)分支特征圖通道進行級聯(lián),經(jīng)過通道注意力選取特征。之后經(jīng)過分割模塊,采用一個3×3的ConvBR卷積層和一個3×3的卷積層將特征圖的通道映射到實際分割任務的類別數(shù)目,出于速度的考慮,最后使用簡單的雙線性插值將編碼階段變小的特征圖還原到輸入圖像分辨率,從而達到與標簽一一對應的分割效果,實現(xiàn)端到端的訓練。

        圖2 Dual-Former網(wǎng)絡整體架構

        2.2 語義分割

        語義分割的目標是識別每一個像素,要分割的對象或內(nèi)容經(jīng)常受尺度、光照和遮擋的影響,由于卷積運算本身屬于局部操作,使用卷積神經(jīng)網(wǎng)絡獲取高級語義信息需要通過不斷地堆積卷積層來完成對圖像從局部信息到全局信息的提取,不斷堆積的卷積層慢慢擴大了感受野直至覆蓋整個圖像。具有相同標簽的像素的特征可能具有一些差異,這些差異因感受野受限被放大,引入了類內(nèi)不一致性并影響了卷積神經(jīng)網(wǎng)絡的識別準確性。由于Transformer將一幅圖像分割成小圖像塊作為輸入,不需要疊加就可以獲得與輸入大小相同的感受野,能夠較好解決感受野受限問題,并提取圖像全局信息。

        分割Transformer模塊如圖3所示,首先將小圖像塊進行位置編碼與向量化,特征圖維度從(C,H,W)轉化成(C,N(H×W)),其中C代表通道數(shù),H和W代表高和寬。然后向量作為Transformer編碼器的輸入,經(jīng)過多頭注意力對輸入分別乘以三個隨機初始化的矩陣WQ,WK,WV,便得到了三個矩陣Q,K,V。多頭注意力計算過程如公式(1)所示,式中dhead代表注意力頭的數(shù)量(本文取3),經(jīng)過注意力的優(yōu)化后作為多層感知機(MLP)提取深層語義信息,擴大模型感受野,能夠更好捕獲特征圖的高級特征。

        圖3 分割Transformer模塊

        (1)

        視覺Transformer使用顯式位置編碼引入位置信息[16],然而,顯式位置編碼的分辨率是固定的,因此當測試分辨率不同于訓練分辨率時,需要對位置編碼進行插值,這通常會導致精度下降。為了緩解這個問題,使用padding為0的3×3卷積對小圖像塊進行隱式位置編碼,實驗結果證明3×3卷積足以為Transformer提供位置信息。

        大學生對工作崗位陌生,對工作環(huán)境和人際關系不適應,學校的理論知識與實際工作存在差異等。面對這些問題,校企雙方要共同協(xié)商解決。企業(yè)導師制有效解決了此方面的難題[4]164-166。企業(yè)專業(yè)導師不僅能夠幫助學生快速熟悉業(yè)務,獲得專業(yè)技能,還能以其獨特的人格魅力感染學生,掌握實際工作中應具備的職業(yè)道德和敬業(yè)精神,深化崗位認知,快速適應新環(huán)境,勝任新工作。

        2.3 細節(jié)分支

        語義分割任務需要區(qū)分空間中的每類樣本,用于分割的特征需要保留更多細節(jié)特征。低層特征有助于網(wǎng)絡生成精細的分割邊界,降采樣操作雖然能夠降低模型計算量,但同時也伴隨著細節(jié)信息的丟失,使得網(wǎng)絡在細小目標和目標邊緣上性能下降。

        細節(jié)分支將特征圖的分辨率只下采樣到原始分辨率的1/8,保持高分辨率的特征圖來更好獲取圖像中的細節(jié)信息。通道遞減卷積模塊如圖4所示,圖4(a)代表步長為1的通道遞減卷積模塊,其中M和N分別代表輸入和輸出通道數(shù),首先使用3×3的ConvBR卷積層將特征通道從M映射到N/2,再使用兩個3×3的ConvBR卷積層依次對特征通道進行遞減,考慮到最后一層特征圖通道數(shù)量較少,因此,使用1×1的ConvBR卷積層提取最后的細節(jié)特征。在圖像分類網(wǎng)絡中,在更高層使用更多通道是一種常見的作法,但是在語義分割任務中,我們關注的是可擴展的感受野和多尺度信息。通道遞減卷積模塊各層感受野如表1所示,低層需要足夠的通道來編碼較小感受野的細粒度信息,較大的感受野更注重于高層的語義信息,由于所提算法將高層特征提取的重心放在語義分支上,因此,如果與低層設置相同的通道可能會造成信息冗余。圖4(b)代表步長為2的通道遞減卷積模塊,其中下采樣操作只在Block2中進行。為了豐富特征信息,通過跳躍連接將x1到xn的特征圖連接。CDCM的輸出如公式(2)所示。

        表1 CDCM中不同Block的感受野

        圖4 CDCM結構

        xoutput=F(x1,x2,…,xn)

        (2)

        式中,xoutput表示CDCM模塊的輸出;x1,x2,…,xn是所有塊的特征圖;F代表特征的融合方式,考慮到效率,采用通道融合的方式對特征圖進行連接。在細節(jié)分支中,由于保持特征圖分辨率維持在原始圖像的1/8,采用一個步長為2和兩個步長為1的通道遞減卷積模塊。該模塊的輸出連接所有特征圖,并采用通道數(shù)遞減的方式保留了可縮放的細節(jié)和多尺度信息。

        2.4 融合模塊

        在特征表示的層面上,上述雙分支的特征并不相同。因此不能簡單對雙分支的輸出特征進行加權。由空間分支捕獲的空間信息編碼了絕大多數(shù)的豐富細節(jié)信息,而語義分支的輸出特征主要編碼語義信息。換言之,空間分支的輸出特征是低層級的,語義分支的輸出是高層級的。因此,設計了一個獨特的特征融合模塊,如上文圖2所示,它首先將雙分支輸出特征在通道維度上級聯(lián),采用全局平均池化產(chǎn)生通道相關的統(tǒng)計信息,然后使用1維卷積生成通道特征表達,最后通過Sigmoid激活函數(shù)計算權重向量,該權重向量可以對特征重新加權,相當于特征選擇和組合,能夠?qū)㈦p分支的輸出特征進行較好融合。

        3 實驗與結果分析

        所提方法在兩個公開數(shù)據(jù)集Cityscapes、CamVid上同當前其他算法進行了對比,并對所提出STM及CDCM在Cityscapes數(shù)據(jù)集上進行消融實驗,進一步擴展到電纜隧道的應用場景中。

        3.1 實驗平臺及數(shù)據(jù)集

        實驗平臺操作系統(tǒng)為Windows 10,顯卡是Nvidia GeForce GTX 3060,12 G顯存,CUDA版本為11.1,內(nèi)存32 GB,CPU為英特爾酷睿i7-11700 2.5 GHz,網(wǎng)絡結構基于Pytorch平臺實現(xiàn)。

        Cityscapes是關注城市街道場景解析的知名數(shù)據(jù)集之一[26]。它包含2975個用于訓練的精細注釋圖像、500個用于驗證的圖像和1525個用于測試的圖像。在訓練過程中,所提算法不使用額外的20000個粗糙標記的圖像。其中共有19個類可用于語義分割任務。由于圖像的分辨率為1024×2048,因此對語義分割任務具有一定的挑戰(zhàn)性。

        CamVid是一個由劍橋大學采集并標注的道路場景數(shù)據(jù)集[27],它是從駕駛汽車的角度拍攝的。該數(shù)據(jù)集包含從視頻序列提取的701幅帶注釋的圖像,其中367幅用于訓練,101幅用于驗證,233個用于測試。圖像分辨率為960×720,有32個語義類別,其中11個類別的子類用于進行語義分割。

        3.2 網(wǎng)絡參數(shù)

        表2 網(wǎng)絡參數(shù)

        3.3 評估指標

        本文使用語義分割任務中常用評估指標mIoU(mean intersection over union),即所有類別交集和并集之比的平均值,其計算過程如公式:

        (3)

        式中,k表示像素的類別數(shù);pii表示實際類別為i類,且實際預測類別為i的像素數(shù)目,同理,pjj表示實際類別為j類,且實際預測類別為j的像素數(shù)目;而pji表示實際類別為i類,而實際預測類別為j的像素數(shù)目。ti表示i類像素的總數(shù)。

        3.4 實驗對比分析

        將所提算法與其他方法進行對比,在Cityscapes數(shù)據(jù)集分割效果對比如表3所示。與BiSeNet相比,所提算法在Cityscapes數(shù)據(jù)集上的mIoU值提高了8.8 %,證明所提算法采用特征提取主干替代BiSeNet雙分支網(wǎng)絡架構對分割精度的影響較小,并且模型提取圖像語義及細節(jié)信息的能力更強。相比于FCN[5]和Dilation10[10]等非實時分割算法,分割精度分別提升11.9 %、10.1 %,FPS幀數(shù)分別提升20.2倍、160.6倍。

        表3 Cityscapes分割效果對比

        在Cityscapes數(shù)據(jù)集的分割結果如圖5所示,其中第一、四行代表原始圖像與分割標簽,第二、三行分別代表BiSeNet和Dual-Former分割結果,由圖5(a)可以看出,相比于BiSeNet對一些邊緣細節(jié)分割的不連貫性,所提算法對于物體邊界細節(jié)分割更為精確,證明Dual-Former提取細節(jié)信息能力更強;從圖5(b)中得出,相比于BiSeNet會產(chǎn)生誤分類的現(xiàn)象,比如:樹林中混入卡車,引擎蓋中混入道路等,所提算法通過STM提取多尺度的上下文信息,增強了像素之間的依賴,較好解決誤分類的問題,證明Dual-Former提取上下文信息能力更強;從圖5(c)中發(fā)現(xiàn),相比于BiSeNet對遠距離及小尺度物體分割誤分類及邊界粗糙的問題,所提算法展現(xiàn)對其優(yōu)良的邊界細節(jié)分割以及精準分類能力,這在電纜隧道機器人環(huán)境感知任務中至關重要。在分辨率為512×1024圖像測試時FPS幀數(shù)達到40.4,同時分割精度提高8.8 %,完全滿足機器人實時分割的需求,證明Dual-Former更適應于電纜隧道機器人環(huán)境感知任務。

        圖5 Dual-Former與BiSeNet分割結果

        CamVid[27]數(shù)據(jù)集分辨率較小,但訓練圖像數(shù)量相比于Cityscapes數(shù)據(jù)集銳減,因此考驗模型在有限數(shù)據(jù)情況下精準分割的能力。所提方法在CamVid數(shù)據(jù)集上同其他方法的分割精度如表4所示。

        表4 CamVid分割效果對比

        所提算法在CamVid數(shù)據(jù)集上達到了76.8 %的mIoU值,相比BiSeNet提高了8.1 %,證明Dual-Former面對較小數(shù)據(jù)集仍能保持較好的分割精度,模型魯棒性較強。相比于SegNet[7]和Deeplab[10]等非實時分割算法,分割精度分別提升21.2 %、15.2 %,FPS幀數(shù)分別提升13.3倍、12.5倍。

        3.5 消融實驗

        為了驗證用于提取細節(jié)語義信息的CDCM和STM的有效性,將所提方法在Cityscapes數(shù)據(jù)集上進行消融實驗,實驗結果如表5所示。

        表5 消融實驗結果

        由于本文所提算法是在BiSeNet網(wǎng)絡基礎上,針對其提取語義和細節(jié)信息能力進行改進。因此針對細節(jié)和語義分支中的CDCM和STM以及FFM分別設計消融實驗,從表5實驗結果可以得出,所提出的CDCM在增加少量計算量情況下,減少特征圖的下采樣操作,保留特征圖的空間細節(jié)信息,并將卷積后的特征圖通道數(shù)進行逐步衰減,并使用它們的聚合作為圖像的特征表示,減少特征圖的冗余信息。增強細節(jié)信息的提取,能夠?qū)ξ矬w邊界產(chǎn)生精準的分割,提升模型mIoU值2.3 %。而STM得益于Transformer強大的提取圖像全局信息的能力,其相比于卷積神經(jīng)網(wǎng)絡具有更大的感受野,能夠更好學習像素之間的相關性。利用注意力的方式來捕獲全局的上下文信息從而對遠距離的像素建立相關性,從而為網(wǎng)絡獲取更豐富的上下文語義信息,能夠較好解決分割類別混淆的問題,提升模型mIoU值4.2 %。FFM利用可忽略的參數(shù)量和較少的計算量融合雙分支的輸出特征,通過通道注意力機制對特征進行選擇和組合,以較小的開銷進一步提升模型分割效果,模型mIoU值提升2.3 %。根據(jù)消融實驗可以得出,本文提出的CDCM和STM具有較好改善網(wǎng)絡提取細節(jié)和語義信息的能力。

        3.6 電纜隧道機器人環(huán)境感知

        由于語義分割數(shù)據(jù)集標注困難,工作耗時,因此首先使用Cityscapes數(shù)據(jù)集對網(wǎng)絡進行預訓練,再將少量隧道內(nèi)采集并完成標注的圖像在模型上進行遷移學習。其中,隧道分割數(shù)據(jù)集將訓練集與測試集劃分為8∶2,以獲得更好的分割效果。

        由圖6可知,所提出的分割網(wǎng)絡可以有效地遷移至電纜隧道場景中,相對于標準數(shù)據(jù)集,電纜隧道數(shù)據(jù)集目標類別種類較少,但背景卻更多、更復雜,因此在物體邊界分割精度有一定下降,但能夠保障機器人實際應用的效率。

        圖6 電纜隧道分割結果

        為方便變電站巡檢機器人實際應用,采用固定位姿的攝像頭獲取變電站道路圖像。對于機器人前方目標的判斷,則通過對固定攝像頭位姿下圖像進行語義分割,根據(jù)分割結果獲取圖像中固定區(qū)域各類別像素個數(shù),并選擇像素最多的類作為前方目標。對于巡檢機器人偏離道路情況采用對比分割圖像中左右固定面積區(qū)域的道路像素個數(shù)來判斷。

        從圖6(a)中可以看出,所提算法對電纜隧道內(nèi)可行走道路進行良好分割,并精準分割兩旁電纜及工作人員的邊界;從圖6(b)中可以看出,所提算法對隧道內(nèi)工作人員的分割較為精細;從圖6(c)中可以看出,所提算法對隧道內(nèi)電纜的分割較為精細;從而提升機器人整體環(huán)境感知能力及避障能力。

        4 結 論

        電纜隧道巡檢機器人能夠有效提高工作人員的安全系數(shù)并減少人員的勞動強度,緩解電力部門目前存在的結構性人員缺失狀況,為提升電纜隧道場景機器人環(huán)境感知能力,提出新型語義分割網(wǎng)絡架構Dual-Former,圖像首先經(jīng)過統(tǒng)一主干網(wǎng)絡進行下采樣并減少特征的損失。最終通過FFM融合STM和CDCM的語義和細節(jié)信息,突出低級特征細節(jié)信息和高級全局信息,提高分割效果,并在Cityscapes數(shù)據(jù)集上達到77.2 %的mIoU以及40.4的FPS,進一步應用在電纜隧道機器人中,保證實時分割的前提下,擁有較好的分割精度。提高智能化電網(wǎng)的運營能力,為電力部門做出貢獻。

        猜你喜歡
        分支語義像素
        趙運哲作品
        藝術家(2023年8期)2023-11-02 02:05:28
        像素前線之“幻影”2000
        語言與語義
        “像素”仙人掌
        巧分支與枝
        學生天地(2019年28期)2019-08-25 08:50:54
        一類擬齊次多項式中心的極限環(huán)分支
        “上”與“下”語義的不對稱性及其認知闡釋
        高像素不是全部
        CHIP新電腦(2016年3期)2016-03-10 14:22:03
        認知范疇模糊與語義模糊
        生成分支q-矩陣的零流出性
        永久黄网站色视频免费看| 国产高跟丝袜在线诱惑| 成人一区二区三区蜜桃| 亚洲av成人一区二区| 中国女人内谢69xxxxxa片| 久久99精品九九九久久婷婷| 国产精品视频一区二区三区四| A阿V天堂免费无码专区| 中文亚洲第一av一区二区| 国产自产二区三区精品| 国产最新一区二区三区| 日本一区二区三区四区在线视频| 极品人妻被黑人中出种子| 日本最大色倩网站www| 久久综合给合久久狠狠狠97色69| 成人国产精品高清在线观看| 日本高清成人一区二区三区| 岛国熟女精品一区二区三区| 人妻少妇中文字幕乱码| 亚洲va在线∨a天堂va欧美va| 亚洲国产成人无码电影| 中文字幕亚洲永久精品| 人妻诱惑中文字幕在线视频| 成人性生交大片免费| 亚洲中久无码永久在线观看软件| 午夜一区二区三区av| 99久久精品国产91| 国产99视频精品免视看7| 欧美亚洲国产片在线播放| 亚洲午夜看片无码| 日韩精品一区二区在线视| 国产不卡精品一区二区三区| 午夜理论片yy44880影院| 一卡二卡三卡视频| 国产后入内射在线观看| 人妻少妇中文字幕,久久精品| 亚洲国产美女精品久久久久∴| 影视先锋av资源噜噜| 娇妻粗大高潮白浆| 免费在线国产不卡视频| 精品国产乱码久久久久久婷婷|