亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于連接注意力的行人重識別特征提取方法

        2022-07-14 13:11:36魏紫薇屈丹柳聰
        計算機工程 2022年7期
        關(guān)鍵詞:特征提取特征實驗

        魏紫薇,屈丹,柳聰

        (1.鄭州大學 軟件學院,鄭州 450001;2.戰(zhàn)略支援部隊信息工程大學 信息系統(tǒng)工程學院,鄭州 450001)

        0 概述

        行人重識別也稱行人再識別,是指在沒有交叉視域的多個攝像頭監(jiān)控系統(tǒng)中,給定一個攝像機拍攝的行人圖像,利用深度學習、人工智能等技術(shù)從其他攝像機中重新識別出該行人。行人重識別作為智能圖像處理的關(guān)鍵技術(shù)之一,在智能安防、智能追蹤、智能管理等應用場景中得到廣泛關(guān)注與應用[1-2]。

        行人重識別系統(tǒng)通常由圖像預處理、圖像特征提取、網(wǎng)絡(luò)損失優(yōu)化、行人排序4 個部分組成:圖像預處理對輸入圖片大小、分辨率等進行處理;圖像特征提取旨在提取顯著性更強的行人特征,是系統(tǒng)中的關(guān)鍵步驟;網(wǎng)絡(luò)損失優(yōu)化是在損失函數(shù)最小化原則下通過某種優(yōu)化算法來尋找最優(yōu)參數(shù);行人排序是對行人圖像之間的相似度依次進行排序并得到排序結(jié)果。

        在諸多行人特征提取方法中,全局特征提取[3]較早被應用到行人重識別網(wǎng)絡(luò)中,其缺點是不易捕捉圖片之間的細微區(qū)別。在這之后,很多研究人員提出全局特征與局部特征相結(jié)合的方法[4-6],使得行人重識別性能得到大幅提升。盡管行人重識別技術(shù)取得了很大的進展,但是受遮擋、姿態(tài)變化、光線變化、圖像分辨率等因素影響,其識別精度仍難以滿足現(xiàn)實需求[7-8]。為解決該問題,很多研究人員提出基于注意力機制的行人重識別網(wǎng)絡(luò)[9-11],該類網(wǎng)絡(luò)利用注意力機制、深度模型來關(guān)注行人圖像的顯著特征,從而降低各種環(huán)境變化和背景干擾所帶來的負面影響[12-14]。

        文獻[15]提出包含非局部注意力模塊(Non-Local Attention Module,A)、廣義平均池化(Generalized-Mean Pooling,G)、加權(quán)三元組損失(Weighted Regularization Triplet,W)的AGW 網(wǎng)絡(luò),該網(wǎng)絡(luò)在提取某處特征時利用其周圍點的信息,獲得了更大的感受野以及更廣泛的信息分布。然而,AGW 網(wǎng)絡(luò)是對當前卷積模塊進行注意學習從而訓練模型,在訓練過程中,當前注意塊沒有前面的監(jiān)督信息來進行指導。文獻[16]提出連接注意力模塊,其通過當前注意塊來從前面注意塊中收集信息,并將其傳遞給下一個注意塊,使得注意塊之間的信息可以相互配合,從而提高注意力模塊的學習能力,最終大幅提升網(wǎng)絡(luò)的特征學習效果。

        針對真實環(huán)境下行人重識別網(wǎng)絡(luò)識別精度低的問題,本文提出一種基于連接注意力機制的行人重識別特征提取方法,旨在提取顯著性更強的行人圖像特征以實現(xiàn)行人識別。使用自動增強技術(shù)[17]對圖像進行預處理,獲取關(guān)于平移、旋轉(zhuǎn)、剪切等多種圖像處理功能的融合策略,以實現(xiàn)有效的數(shù)據(jù)增強,進而提升模型的魯棒性。采用基于連接注意力機制的行人重識別網(wǎng)絡(luò)模型對行人圖像進行特征提取,獲得顯著性更強的行人特征進行相似度度量。此外,利用三元組損失和圓損失進行損失優(yōu)化,以獲得更高的行人重識別精度。在Market1501[18]、DukeMTMC-reID[19]、MSMT17[20]這3 個主流的行人重識別數(shù)據(jù)集上進行實驗,以驗證本文基于連接注意力的行人重識別網(wǎng)絡(luò)的識別性能。

        1 行人重識別特征提取網(wǎng)絡(luò)

        如圖1 所示,本文行人重識別特征提取網(wǎng)絡(luò)分為4 個步驟:

        圖1 行人重識別特征提取網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 Person re-identification feature extraction network structure

        1)對輸入的行人圖片進行預處理。

        2)將預處理后的圖片輸入以ResNet50 作為主干網(wǎng)絡(luò)、卷積塊2~卷積塊5 分別結(jié)合連接注意力模塊的整體網(wǎng)絡(luò)結(jié)構(gòu)中進行特征提取。

        3)對提取的行人特征進行損失優(yōu)化并完成相似度度量。

        4)進行行人排序,得到行人重識別系統(tǒng)的識別結(jié)果。

        1.1 基于自動增強的圖像預處理

        在基于深度學習的網(wǎng)絡(luò)模型訓練過程中,網(wǎng)絡(luò)模型由最初的淺層網(wǎng)絡(luò)發(fā)展到目前更深、更寬的網(wǎng)絡(luò),因此,對數(shù)據(jù)量的需求也大幅提高,從而避免模型的過擬合問題。在真實環(huán)境中,由于數(shù)據(jù)標注成本等因素影響,導致訓練數(shù)據(jù)欠缺,需要對數(shù)據(jù)集進行數(shù)據(jù)擴增。傳統(tǒng)的數(shù)據(jù)增強方法包括尺寸變換、顏色增強等,隨著深度學習中更深網(wǎng)絡(luò)層的出現(xiàn),簡單的數(shù)據(jù)增強方法已經(jīng)無法滿足各類場景的應用需求。在行人重識別場景中,光照、角度、分辨率等因素的影響使得深度網(wǎng)絡(luò)的學習更為困難。

        自動增強是一種自動搜索合適數(shù)據(jù)進行標注數(shù)據(jù)拓展的算法,其包含2 個部分:

        1)搜索空間:確定圖像變換增強的選擇范圍。

        2)搜索算法:確定圖像增強選擇范圍內(nèi)的優(yōu)選結(jié)果。

        搜索空間中的一個圖像增強策略包含5 個子策略,在訓練時為每個小批量中的每張圖像選擇1 個子策略,因此,數(shù)據(jù)擴展為原始數(shù)據(jù)的2 倍。在搜索空間中,共有16 種圖像運算方法,包括剪切(沿X軸或Y軸)、平移(沿X軸或Y軸)、旋轉(zhuǎn)、最大化圖像對比度、反色、均衡、像素點反轉(zhuǎn)、像素點反轉(zhuǎn)疊加、色調(diào)分離、對比度、飽和度、亮度、銳度以及隨機擦除。每個子策略包含2 種圖像運算方法,圖像運算包含該方法的應用概率和應用幅度,即以一定的概率選擇使用該方法并在圖像上采用一定的幅度使用該方法。圖像運算方法選擇具有隨機性,導致圖像增強后的圖片存在多種結(jié)果,因此,確定多種結(jié)果中更為合適的一個結(jié)果尤為重要。為此,本文采用基于控制器RNN 的搜索算法來采樣數(shù)據(jù)增強策略,該策略具有關(guān)于圖像變換方式、變換概率和變換幅度的信息。在實驗過程中,利用文獻[17]中基于ImageNet的增強策略來訓練網(wǎng)絡(luò)模型。綜上,本文采用基于自動增強的方法對訓練數(shù)據(jù)進行增強,增加數(shù)據(jù)量以避免模型過擬合,最終利用更深的網(wǎng)絡(luò)來提取更細粒度的圖片特征。

        1.2 基于注意力機制的行人特征提取

        1.2.1 連接注意力模塊

        連接注意力模塊是在通道注意力(Channel Attention,CA)[21]的基礎(chǔ)上通過相鄰注意塊的信息互連而形成的。通道注意力模塊結(jié)構(gòu)如圖2 所示,其通過學習通道注意力系數(shù)對卷積塊進行加權(quán),以獲得最終的卷積輸出。

        圖2 通道注意力模塊結(jié)構(gòu)Fig.2 Channel attention module structure

        對由卷積塊產(chǎn)生的特征圖X?RC×W×H進行全局平均池化(Global Average Pooling,GAP)和特征轉(zhuǎn)換,如式(1)所示:

        其中:C×W×H表示特征圖大小,即通道數(shù)、圖像寬度和圖像高度;ωt是轉(zhuǎn)換參數(shù);XGAP?RC為全局池化后的特征;T為特征轉(zhuǎn)換,該轉(zhuǎn)換通過雙層前向全連接網(wǎng)絡(luò)來實現(xiàn),2 個全連接層的非線性激活函數(shù)分別為ReLU 和Sigmoid;AT?RC是轉(zhuǎn)換后的通道注意力系數(shù)輸出。注意力引導輸出Xout?RC×W×H,如式(2)所示:

        其中:⊙表示通道點乘運算,即每個通道注意力系數(shù)對每個通道內(nèi)的像素點進行點乘。最終通道注意力模塊輸出可表示為:

        連接注意力模塊結(jié)構(gòu)如圖3 所示,其將前序通道注意塊的通道注意力系數(shù)AT與當前注意塊的全局池化結(jié)果進行融合,這種融合能夠確保當前卷積塊的通道注意力系數(shù),是由其全局池化結(jié)果和前序卷積塊通道注意力信息的聯(lián)合學習而得到。

        圖3 連接注意力模塊結(jié)構(gòu)Fig.3 Connected attention module structure

        在不同階段由卷積塊所產(chǎn)生的特征圖通道數(shù)不同,與之相關(guān)聯(lián)的注意力圖通道數(shù)也不同,為了解決通道匹配問題,本文將先前注意塊的輸出AT采用注意力連接模塊進行通道數(shù)匹配,該注意力連接模塊包括全連接層和歸一化層(Layer Normalization,LN),歸一化后都采用ReLU 非線性函數(shù)。為減少參數(shù)量,2 個全連接層在進行通道匹配時,通道數(shù)由其中,C和C′分別代表先前和當前通道數(shù)量,r為通道衰減參數(shù),其對模型性能的影響將在后續(xù)實驗中詳細分析(可參見表3)。最終,注意力模塊的輸出如式(4)所示:

        從上文分析可以看出,通道注意力通過自主學習的方式得到每個特征通道的重要性程度,賦予重要的特征通道更大的權(quán)重,賦予作用較小的特征通道更小的權(quán)重,但其只考慮當前注意塊通道的重要性程度,忽略了前序注意塊的信息,存在特征顯著性不強的問題。連接注意力模塊在其基礎(chǔ)上將之前注意塊信息融入到當前注意塊中,使得注意塊之間的信息相互配合,從而提高了注意力模塊的學習能力和網(wǎng)絡(luò)的特征學習效果。

        1.2.2 特征提取網(wǎng)絡(luò)

        本文以ResNet50作為主干網(wǎng)絡(luò),分別在卷積塊2~卷積塊5 中,在殘差塊引入連接注意力機制,讓其在卷積塊之間進行信息融合,最終構(gòu)成特征提取網(wǎng)絡(luò),結(jié)構(gòu)如圖4 所示。

        圖4 特征提取網(wǎng)絡(luò)結(jié)構(gòu)Fig.4 Feature extraction network structure

        本文特征提取網(wǎng)絡(luò)由5 個卷積塊構(gòu)成,其中,卷積塊1 包括一個7×7 卷積和最大池化層,其余卷積塊均由殘差塊和瓶頸塊組成,不同之處在于瓶頸塊疊加的個數(shù)不同。以卷積塊2 為例,其結(jié)構(gòu)如圖5 所示,殘差塊包含1×1 卷積、3×3 卷積以及連接注意力模塊,連接注意力模塊在1×1 卷積層之后,瓶頸塊包含1×1 卷積、3×3 卷積以及通道注意力模塊。為了避免網(wǎng)絡(luò)層數(shù)過多帶來的梯度消失問題,殘差塊采用1×1 卷積進行殘差連接,連接注意力模塊和通道注意力模塊對特征通道賦予不同的權(quán)重,以獲得顯著性更強的行人特征,從而得到識別精度更高的特征提取網(wǎng)絡(luò)。

        圖5 卷積塊2 的結(jié)構(gòu)Fig.5 Structure of convolution block 2

        1.3 損失函數(shù)

        本文實驗使用的損失函數(shù)為三元組損失函數(shù)[22]和圓損失函數(shù)[23],兩者能夠?qū)W習高判別力的行人特征。三元組損失旨在一定距離上將正負樣本分開,即最小化正樣本對之間的距離,同時最大化負樣本對之間的距離,其目標函數(shù)如式(5)所示:

        其中:xa為固定樣本;xp為正樣本,即xp與xa具有相同的行人ID;xn是負樣本,即xn與xa具有不同的行人ID ;F為特征提取函數(shù),即利用連接注意力優(yōu)化的殘差網(wǎng)絡(luò)進行特征提取后再進行池化(如圖1 所示);表示正負樣本對特征之間的歐氏距離;α為手動設(shè)置的距離閾值,用于限制正負樣本對之間的距離,實驗過程中其值取0.3;[·]+表示max(·,0)函數(shù)。對于每一個訓練批次,挑選出P個行人,每個行人隨機挑選K張圖片,即一個批次包含P×K張圖片,對于每一張圖片,挑選出一個與其最不相似的正樣本(即與固定樣本特征距離最大的樣本)和一個最相似的負樣本(即與固定樣本特征距離最小的樣本),最終計算三元組損失。

        圓損失旨在學習類別區(qū)分性信息,即最大化類內(nèi)相似度同時最小化類間相似度。假設(shè)與x相關(guān)的類內(nèi)相似度分數(shù)有K個,類間相似度分數(shù)有L個,則圓損失的目標函數(shù)如式(6)所示:

        其中:sn和sp分別為關(guān)于樣本空間x的類間相似度和類內(nèi)相似度,采用余弦相似度來計算類內(nèi)和類間相似度分數(shù);Δn和Δp分別為類間和類內(nèi)間隔,實驗過程中分別取值0.25 和0.75;αn和αp為非負整數(shù)權(quán)重因子;γ為尺度因子,實驗過程中取值1。

        為了最大化地發(fā)揮損失函數(shù)的作用,本文實驗過程中采用總損失Ltotal,如式(7)所示:

        其中:m和n分別為損失函數(shù)的權(quán)重因子,其對實驗結(jié)果的影響見表5,實驗過程中m和n均取值1。

        2 實驗結(jié)果與分析

        2.1 數(shù)據(jù)集與評價指標

        為了驗證本文所提方法的有效性,分別在Market1501[18]、DukeMTMC-reID[19]、MSMT17[20]這3 個公開數(shù)據(jù)集上進行測試。Market1501 于2015 年在清華大學內(nèi)采集,圖像來自6 個不同的攝像頭,其中1 個攝像頭為低分辨率,訓練集包括751 個人的12 936 張圖片,測試集包括750 個人的19 732 張圖片。DukeMTMC-reID 于2017 年在杜克大學內(nèi)采集,圖像來自8 個不同的攝像頭,訓練集包括702 個人的16 522 張圖片,測試集包括702 個人的19 889 張圖片。MSMT17 在北京大學內(nèi)采集,圖像來自15 個不同的攝像頭,訓練集包括1 041 個人的30 248 張圖片,測試集包括3 060 個人的93 820 張圖片,其中,11 659 張圖片被隨機選出作為查詢圖片,剩下的82 161 張圖片作為圖庫。

        本文采用目前行人重識別領(lǐng)域最常用的2 種評價指標,即首位準確率(Rank-1)和平均精確均值(mean Average Precision,mAP)。Rank-1 反映了待選行人圖像中匹配值排在首位的圖像是待查詢行人的概率,mAP 綜合考慮精確率和召回率,能夠反映圖像庫中所有正確的圖片排在檢索列表最前面的程度。

        2.2 實驗設(shè)置

        實驗采用ResNet50 作為主干網(wǎng)絡(luò),并利用ImageNet 預訓練參數(shù)進行初始化。為了保留圖像的分辨率,ResNet50 最后一個瓶頸層的步長設(shè)置為1,每個瓶頸層后均疊加一個注意力塊。在訓練期間,采用自動增強的數(shù)據(jù)增強策略,輸入圖片大小為384×128 像素,批次大小是64,其包含16 個行人類別,每個類別包含4 個行人圖像。采用隨機梯度下降優(yōu)化器進行網(wǎng)絡(luò)優(yōu)化,動量因子為0.9,權(quán)重衰減為0.000 5。初始學習率設(shè)置為0.01,采用預熱學習策略,在訓練40 個回合后下降10 倍。模型共訓練80 個回合,為了更好地初始化分類器的參數(shù),在前10 個回合只訓練分類器參數(shù),即用來計算損失的特征參數(shù),同時凍結(jié)網(wǎng)絡(luò)參數(shù),經(jīng)過10 個回合迭代后釋放網(wǎng)絡(luò)參數(shù),后70 個回合訓練整個網(wǎng)絡(luò)模型。

        2.3 結(jié)果分析

        本文采用Rank-1 和mAP 這2 種性能指標來衡量所提方法的性能,Rank-1 和mAP 的值越高,說明模型性能越好,行人重識別精度越高。

        2.3.1 本文方法與現(xiàn)有方法的性能比較

        在Market1501、DukeMTMC-reID、MSMT17 這3 個公開行人重識別數(shù)據(jù)集上進行測試,將本文方法與PCB[3]、MGN[4]、Pyramid[5]、OSNet[7]、MHN[9]、SONA[10]、AGW[15]、FastReID[24]等基于深度學習的經(jīng)典行人重識別方法進行比較,結(jié)果如表1 所示。

        表1 不同行人重識別方法的性能比較Table 1 Performance comparison of different person re-identification methods %

        從表1 可以看出:在Market1501 數(shù)據(jù)集上,本文方法的Rank-1 和mAP 值較其他對比方法均最優(yōu);在DukeMTMC-reID、MSMT17 數(shù)據(jù)集上,本文方法的Rank-1 和mAP 值同樣取得了最優(yōu)結(jié)果,超出其他方法1.5 個百分點左右。此外,本文在測試階段對重排序(Rerank)[25]和查詢擴展(Query Expansion,QE)這2 個測試技巧進行實驗,從結(jié)果可以看出,在Market1501 和DukeMTMC-reID 這2 個數(shù)據(jù)集上,本文方法的Rank-1 和mAP 值較對比方法均有明顯提升。由此可以看出,在3 個公開行人重識別數(shù)據(jù)集上,本文方法在行人重識別精度方面極具競爭力,這主要得益于連接注意力模塊將上下文信息進行融合,提取顯著性更強的行人特征進行距離度量,最終獲得了較好的識別效果。

        2.3.2 消融實驗

        本文消融實驗均以Market1501 數(shù)據(jù)集為例進行測試。為了探索不同分支對實驗結(jié)果的影響,將自動增強方法和連接注意力模塊嵌入ResNet50 網(wǎng)絡(luò)中進行識別,其中,M1 表示數(shù)據(jù)預處理中的自動增強,M2 表示連接注意力機制。從表2 可以看出,2 個分支對實驗結(jié)果均有一定程度的提升,合并在一起對實驗結(jié)果的提升更為明顯,Rank-1 值提升1 個百分點左右,mAP 值提升3 個百分點左右,因此,增加數(shù)據(jù)集規(guī)模并提取顯著性更強的行人特征有助于提升識別精度。

        表2 消融實驗結(jié)果Table 2 Ablation experimental results %

        在連接注意力模塊中,為了匹配通道大小,引入了通道衰減r,為了探索r值對模型性能的影響,本文進行實驗測試。從表3 可以看出:當r值為2 時,實驗結(jié)果最好;r值為4 和直接采用一個全連接層(即對應表中第一行FC 層)的實驗結(jié)果相比r值為2 時稍差。

        表3 不同通道衰減r 值下的實驗結(jié)果Table 3 Experimental results under different channel attenuation r values %

        本文還測試了不同主干網(wǎng)絡(luò)對實驗結(jié)果的影響,ResNet18、ResNet34、ResNet50 分別代表主干網(wǎng)絡(luò)層數(shù)分別為18、34、50 的典型網(wǎng)絡(luò),IBN(Instance Batch Normalization)網(wǎng)絡(luò)是將ResNet50 等典型網(wǎng)絡(luò)中的BN 層替換為IBN 層之后形成的網(wǎng)絡(luò)。從表4可以看出,當主干網(wǎng)絡(luò)為ResNet50 時,更深的網(wǎng)絡(luò)結(jié)構(gòu)提取了更高層次的行人特征,識別效果更好。為了驗證本文所采用損失函數(shù)的有效性,對m和n的取值進行測試。從表5 可以看出,三元組損失和圓損失聯(lián)合使用時實驗效果更好,這主要得益于三元組損失使得正樣本對距離更近同時負樣本對距離更遠,而圓損失在優(yōu)化距離的同時賦予類間樣本與類內(nèi)樣本不同的權(quán)重因子,使得其優(yōu)化方向更為準確。

        表4 不同主干網(wǎng)絡(luò)下的實驗結(jié)果Table 4 Experimental results under different backbone networks %

        表5 不同損失函數(shù)下的實驗結(jié)果Table 5 Experimental results under different loss functions %

        2.3.3 行人重識別結(jié)果示例

        為了更加清晰地呈現(xiàn)行人重識別系統(tǒng)的識別效果,在Market1501 數(shù)據(jù)集上對識別結(jié)果進行可視化,如圖6 所示,query 為待查詢圖片,在圖像庫中尋找與其為同一個人的圖片,顯示結(jié)果為前10 張相似度最高的行人圖片,其中,虛線框內(nèi)為錯誤的識別結(jié)果,其余為正確的識別結(jié)果。從圖6 可以看出,錯誤的檢索圖片與待查詢圖片在外觀方面非常相似,在提取行人外觀特征時,網(wǎng)絡(luò)模型捕獲不到細微的差別,導致了錯誤的識別結(jié)果。因此,如何提取更加細粒度的行人特征,使得網(wǎng)絡(luò)模型關(guān)注到行人圖像的細小差別顯得尤為重要,這也是本文下一步的研究重點。

        圖6 部分行人重識別結(jié)果Fig.6 Some person re-identification results

        3 結(jié)束語

        在現(xiàn)實環(huán)境中,行人重識別容易受光照、姿態(tài)等外在變化和不同背景的影響,導致數(shù)據(jù)量欠缺以及行人重識別系統(tǒng)識別率低的問題。為此,本文提出一種基于連接注意力的行人重識別特征提取方法。將自動增強策略引入圖像預處理過程中以提高模型的魯棒性,將連接注意力模塊嵌入ResNet50網(wǎng)絡(luò)進行特征提取,從而增強行人特征的顯著性,在此基礎(chǔ)上,進行相似度度量以得到識別精度較高的行人重識別模型。在3 個主流數(shù)據(jù)集上的實驗結(jié)果表明,該方法的行人重識別性能評價指標優(yōu)于PCB、MGN 等方法。在本文方法的基礎(chǔ)上,利用預訓練模型和transformer 網(wǎng)絡(luò)來提取更加細粒度的特征以及提升跨域行人重識別模型的精度,將是下一步的研究方向。

        猜你喜歡
        特征提取特征實驗
        記一次有趣的實驗
        如何表達“特征”
        做個怪怪長實驗
        基于Gazebo仿真環(huán)境的ORB特征提取與比對的研究
        電子制作(2019年15期)2019-08-27 01:12:00
        不忠誠的四個特征
        當代陜西(2019年10期)2019-06-03 10:12:04
        抓住特征巧觀察
        一種基于LBP 特征提取和稀疏表示的肝病識別算法
        NO與NO2相互轉(zhuǎn)化實驗的改進
        實踐十號上的19項實驗
        太空探索(2016年5期)2016-07-12 15:17:55
        基于MED和循環(huán)域解調(diào)的多故障特征提取
        中文字幕二区三区在线| 人妻少妇久久中文字幕一区二区| 国产高潮国产高潮久久久| 色伊人国产高清在线| 少妇久久高潮不断免费视频| 一区二区三区在线视频观看| 精品亚洲成a人无码成a在线观看| 中文字幕人妻偷伦在线视频| 亚洲第一区二区快射影院| av网站免费观看入口| 少妇被爽到高潮喷水久久欧美精品| 性动态图av无码专区| 日本久久久免费高清| 日本一区二区在线播放| 欧美奶涨边摸边做爰视频| 欧美大黑帍在线播放| 亚洲三区二区一区视频| 中文字幕熟女激情50路| 在厨房被c到高潮a毛片奶水| 人与嘼交av免费| 亚洲一区精品中文字幕| 久久精品99久久香蕉国产| 日本加勒比一区二区在线观看| 日本一区二区三区亚洲| 久久久www成人免费精品| 日本高清不卡二区| 成人在线视频亚洲国产| 无码伊人66久久大杳蕉网站谷歌| 开心五月激情综合婷婷| 99精品久久久中文字幕| 一本色道88久久加勒比精品| 四虎国产精品永久在线| 日本精品一区二区三区在线视频| 国产麻豆剧传媒精品国产av蜜桃 | 偷拍一区二区盗摄视频| 97精品超碰一区二区三区| 精品无码av不卡一区二区三区| 美国又粗又长久久性黄大片| 国产a级毛片久久久精品毛片| 美女视频黄的全免费的| 午夜无码国产18禁|