亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種基于視頻序列的城市快速路交通狀態(tài)分類方法*

        2013-08-21 11:49:52賈克斌
        交通信息與安全 2013年4期
        關(guān)鍵詞:分類方法

        張 媛 賈克斌

        (北京工業(yè)大學電子信息與控制工程學院 北京100124)

        0 引 言

        近年來交通的現(xiàn)代化帶來了很多問題:道路擁擠、事故增加、交通環(huán)境惡化,等等。智能交通系統(tǒng)在這樣的情況下應(yīng)運而生,它是將應(yīng)用信息、通信、計算機、自動控制等技術(shù)集成而建立起的一種高效、便捷的交通運輸綜合管理和控制系統(tǒng)[1]。交通狀態(tài)的有效分類是ITS非常重要的子系統(tǒng)和功能之一[2]。

        目前,國內(nèi)外的交通狀態(tài)識別研究主要是基于先進的信息采集技術(shù)。采集的實際交通參數(shù),如速度、流量、占有率等,結(jié)合交通流理論和模式識別的方法,進行路段的交通狀態(tài)的識別。但是這些方法的有效性一方面依賴于交通參數(shù)采集的準確性和實時性;另一方面取決于分類方法選擇的合理性。很多實驗表明,這些方法在交通處于擁堵狀態(tài)下交通參數(shù)檢測準確率急劇下降。

        近年來,隨著機器視覺技術(shù)的發(fā)展與廣泛應(yīng)用,國內(nèi)外學者提出了一系列基于視覺特征與模式識別的交通狀態(tài)識別方法。該方法主要分為2類,第一類為視覺特征的直接判別方法,基本思想是從視頻幀中提取特征直接檢測交通狀態(tài)。如Xiaokun[3]和Porikli[4]最早利用基于 MPEG 視頻圖像的DCT系數(shù)和運動向量構(gòu)成的特征向量,由高斯混合隱馬爾可夫模型進行交通狀態(tài)分類。但是,交通狀態(tài)有一定持續(xù)期,單幀圖像的交通密度不足以對交通狀態(tài)準確分類[5],同時利用隱馬爾科夫模型分類是非常復雜的。

        第二類方法為根據(jù)視頻序列的特定區(qū)域或虛擬檢測線上像素內(nèi)容隨時間的變化,構(gòu)建描述一定時間段內(nèi)車輛運行狀況的圖像,然后采用圖像處理算法,提取特征判斷交通狀態(tài)。這種時空信息目前主要用于對車輛的檢測,如Zhu等[6]在時空圖像中定義全景圖(PVI)及核線圖(EPI),根據(jù)二者的差異來檢測車輛,A.Liu[7]則利用背景消減與時空圖像相結(jié)合來完成車輛的最優(yōu)檢測。與本文工作相近的是Daeho Lee[8]等人將時空線序列圖像PVI和EPI應(yīng)用于交通狀態(tài)分類,不過他們?nèi)匀贿M行的是交通參數(shù)提取工作;而文獻[9]提出了一種基于單車道感興趣區(qū)域的時空描述符的交通狀態(tài)識別方法,把一定時間段的時空圖像進行疊加,將交通狀態(tài)分為2類(流暢、擁堵),實驗證明該方法受環(huán)境因素的影響較小,但是直接將圖像進行疊加,仍然產(chǎn)生背景變化因素會直接影響分類結(jié)果。

        與以上工作不同,本文提出一種基于時空線序列符和主成分分析(principal component analysis,PCA)對交通狀態(tài)進行分類方法,首先在視頻序列中提取時空信息,該信息具有豐富的時間、空間二維特性,可以很好的表征當前交通狀態(tài)。該方法在擁堵狀態(tài)下能夠很好的完成交通狀態(tài)的識別,由于是基于“線”的疊加而非圖像的疊加,因此不存在因為背景更新而引入的問題。然后對該信息通過PCA進行降維和特征提取,最后用支持向量機(support vector machine,SVM)來完成分類與識別工作。整體流程見圖1。

        圖1 方法流程圖Fig.1 Overall flow chart

        1 時空線序列符

        首先,在視頻原圖像中設(shè)置1條虛擬時空線,如圖2中視頻序列中的實線所示,將每幀圖像中虛擬時空線上的像素值記為行向量Lt,如式(1)。式中:p為線段上的點。然后將t-N+1幀到t幀視頻序列中的該行向量進行疊加得到當前時刻的時空線序列符St,如式(2)。

        由此可以看出,每個時空線序列符都是一個W×N的矩陣。其中:W為所設(shè)定的時空線序列符的寬度;N為所選取的進行疊加的視頻幀數(shù),為事先定義好的參數(shù)。在此基礎(chǔ)上定義延遲線結(jié)構(gòu)(見圖3)從而得到全部的時空線序列符組合U:

        式中:M為獲取的時空線序列符的樣本。

        圖2 時空線序列符的獲取Fig.2 Setting line and generation of time-spatial image

        圖3 延遲線結(jié)構(gòu)Fig.3 Delay-line structure

        由定義可知,時空線序列符反映了特定區(qū)域(虛擬時空線)的圖像灰度值隨時間變化的特性,可以很好的映射出當前的交通狀態(tài)。當交通狀態(tài)流暢時,車行速度較快,車身通過虛擬時空線的時間較短,表現(xiàn)為單個車輛在時空線序列符中所占的“時間塊”較小。反之,當交通狀態(tài)擁堵時,車速較慢,單個車輛在所占的“時間塊”較大。因此,本文所設(shè)定的時空線序列符可以作為衡量交通狀態(tài)的表征。

        此外,本文所定義的時空線序列符實際上為指定線段在時空上的積累,因此產(chǎn)生的為虛擬的“背景”,是該線段在N幀視頻序列所代表的時間上的延伸表現(xiàn),并沒有實際意義上的背景,從而有效避免了由背景的引入而帶來的更新、噪聲等問題,所以與基于感興趣區(qū)域定義的時空區(qū)域信息相比,降低了數(shù)據(jù)的復雜度。

        2 數(shù)據(jù)降維處理——主成分分析(PCA)

        時空線序列符是由二維特征矩陣表示的對象,特征之間難免存在重疊、相關(guān)的關(guān)系??梢杂^察到,除去車輛本身及各車輛之間的相對位置信息,其余部分均為虛擬“背景”,存在大量的數(shù)據(jù)冗余.因此需要對其進行主成分提取。以時空線序列符為例,介紹二維圖像經(jīng)典的PCA算法步驟如下。

        由式(2)已知:

        1)行堆疊樣本,S′為堆疊后結(jié)果:

        2)計算樣本均值Ψ及各樣本與其的差值di:

        3)構(gòu)建協(xié)方差矩陣C,如式(8)。式中:A為式(9)。用奇異值分解法求解AAT的特征值λi及應(yīng)的特征向量vi,然后在此基礎(chǔ)上計算貢獻率φ,見式(10),通常α=0.9。最后求出C的特征向量ui,見式(11)。

        4)獲得樣本特征空間r,并將樣本映射到特征空間從而得到訓練的數(shù)據(jù)樣本S″i,如式(13)。

        5)將任何一幅時空描述符映射到特征空間

        在此基礎(chǔ)上,2DPCA的基本思想是將圖像矩陣S通過Y=SX映射到X上,從而Y成為S的投影特征向量,X采取如下投影準則:使得J(X)=最大化。其中:Gt如式(15)所示,其中表示為所有圖像的均值

        取得Gt的最大的d個特征值對應(yīng)的特征向量即可實現(xiàn)最佳投影。該算法實質(zhì)為對圖像僅僅在列方向上消除相關(guān)性,因此,可以對圖像在行方向上做同樣的運算,即為雙向2DPCA算法,記為LR2DPCA。

        LR2DPCA將行或列分立為2個獨立的方向單獨考量。但大量的信息存在明顯的空間重復性。因此可將LR2DPCA方法與PCA方法相融合,在LR2DPCA的結(jié)果之上再進行一次PCA,從而最大程度的提高壓縮率以及減少計算量。

        3 基于支持向量機(SVM)的分類方法

        進過降維的特征矩陣仍然具有較高復雜度,存在線性不可分的情況。SVM在解決非線性及高維模式識別中表現(xiàn)出許多特有的優(yōu)勢,能保證找到全局最優(yōu)解,所以選取SVM來作為交通狀態(tài)的分類器。

        SVM由線性分類發(fā)展而來,因此我們從線性分類出發(fā)來介紹分類的基本原理。

        3.1 線性分類

        給定樣本數(shù)據(jù)空間(xi,yi),i=1,2,…,M,其中xi∈Rd,yi∈{-1,1}為估計輸出量,線性判別函數(shù)表示為式(17),其中ωT為權(quán)向量,b∈R為偏置。

        如圖4所示,H為分類超平面。樣本點到超平面的間隔設(shè)為δ,由解析幾何可知分類間隔為1/‖ω‖。最大化分類間隔是包括SVM在內(nèi)的所有線性分類的思想。因此求得滿足約束條件(17)的‖ω‖的最小值即可獲得最優(yōu)超平面。求解過程如下。

        圖4 分類超平面示意圖Fig.4 Classification hyperplane

        約束條件:

        1)引入拉格朗日函數(shù)式(18),{αI,i=1,2,…,M,αi≥0}為拉格朗日乘子。

        2)L在鞍點處對ω和b取最小值,對αi取最大值可得對偶形式(19)。根據(jù)Kuhn-Tucker條件函數(shù)最優(yōu)解滿足式(20)。當滿足條件時,αi=0,反之αi≥0。

        3)msv表示滿足條件樣本點個數(shù);b可由這些樣本點的Kuhn-Tucker條件式求和獲得:

        在實際問題中,各類數(shù)據(jù)存在離群點,因此引入2個變量:松弛變量ξ以及懲罰因子C,常在式(19)后加入經(jīng)驗誤差項詳情請參見文獻[10]。

        3.2 非線性分類

        時空線序列符的特征空間維數(shù)較高且線性不可分,SVM 通過一個非線性映射,如式(22),可將數(shù)據(jù)映射到高維空間,然后在高維空間內(nèi)做線性回歸。此時拉格朗日對偶形式變?yōu)椋?3)。

        這種變換看似復雜,但是對于樣本尋優(yōu)及分類函數(shù)僅只涉及樣本間的內(nèi)積運算。根據(jù)泛函相關(guān)理論,只要核函數(shù)k(xi,xj)滿足 Mercer定理就可以對應(yīng)某一空間中內(nèi)積,如式(24)。從而選取合適核函數(shù)就可以實現(xiàn)某一非線性變換后的線性分類,常用的核函數(shù)有以下幾種。

        多項式核函數(shù)

        高斯徑向基函數(shù)

        Sigmoid函數(shù)

        4 實驗結(jié)果及分析

        綜合考慮視頻拍攝和信息提取的復雜性與有效性,本文選擇城市快速路的基本路段作為研究背景和實驗樣本采集來源,并參考S.Bassan[11]等學者提出兩相交通流分類法,在樣本訓練階段通過主觀判斷加客觀估計的方法定義如下2種交通狀態(tài):

        1)暢通。在一定的時間段內(nèi),目標道路上的車速非常快并且車輛的數(shù)目非常少。

        2)擁堵。在一定的時間段內(nèi),目標道路上的車速非常慢并且車輛的數(shù)目非常多。

        本文實驗視頻數(shù)據(jù)集均來自于北京市快速路。視頻包括從09:00~18:00時不同時段的道路交通狀況,總共5段,每段時長60 min。原始視頻的清晰度是720 480,視頻的幀率為29幀/s。因此總共有29×3 600×6=5 400 000幀。

        選取虛擬時空線寬度為91,并疊加10 s內(nèi)圖像,可得時空線序列符為290×91的圖像矩陣。共有540 000-29×10+1幅時空線序列符。

        圖5標明了在2種交通狀態(tài)下提取的時空線序列符的對比。其中(a)、(b)為暢通狀態(tài),(c)、(d)為擁擠狀態(tài)。實驗結(jié)果很好的論證了2.1中的分析:即車輛所占“時間塊”的大小可以很好的表征當前的交通狀態(tài)。圖5(d)可以給出更加形象的描述,在極度擁堵狀態(tài)下,車速幾乎為0,因此車輛的某一位置始終占據(jù)虛擬時空線,線上將近10 s內(nèi)容相同,從而車輛被顯著“拉伸”。同理,當交通狀態(tài)非常暢通,車輛以不超過限速的最大速度行駛,車頭與車尾通過時空線的時差達到最小,它們在序列符中的相對位置最近接近,從而車身最短,達到車輛被“壓縮”的視覺效果。

        圖5 暢通、擁堵狀態(tài)下的時空線序列符提取結(jié)果Fig.5 Time-spatial image under smooth flow and congestion

        4.1 主成分提取結(jié)果

        在所獲得的時空線序列符集中,各選取暢通和擁堵狀態(tài)下600幅典型圖像作為樣本數(shù)據(jù)集,對所有樣本以式(11)中的方差累計貢獻率α=0.9為條件,進行如下4種變換來提取主分量:PCA、2DPCA、雙向2DPCA(LR2DPCA)、雙向2DPCA與PCA融合算法(2DPCA+PCA),樣本原始維度為:290×91=26 390。

        對于算法的壓縮性能,分別從壓縮后維度、壓縮率,重構(gòu)精確度3個方面來進行評價。壓縮的目標就是在保證重構(gòu)準確度的同時,使得壓縮率盡可能的大。

        1)壓縮后維度D。如在式(12)中的p以及2DPCA中的W×d。

        2)壓縮率η。即樣本被壓縮消除的維度與樣本原始維度之比,即η=(1-D/W×N)×100%。η越大,壓縮性能越好。

        3)重構(gòu)準確度。定義β為實際貢獻率,當為PCA或2DPCA方法時β=φ;當為LR2DPCA時,β=φlpca·φrpca;當為 LR2DPCA+PCA 方法時,β=φlpca·φrpca·φpca。β越大,表明壓縮結(jié)果保留的信息越豐富。

        各方法壓縮結(jié)果及對比詳見表1。

        表1 各種主成分分析算法詳細結(jié)果Tab.1 The results and comparison of PCA

        由上述結(jié)果可以看出:PCA的壓縮效率優(yōu)于2DPCA、LR2DPCA,而 實際運算中 2DPCA、LR2DPCA計算量要遠遠小于PCA。而LR2DPCA與PCA融合方法結(jié)合了PCA與2DPCA的優(yōu)點,可以在減小計算量的同時,達到最高的壓縮性能。

        此外,一般情況下,當重構(gòu)準確率越高,應(yīng)保留越多的原始信息,從而壓縮率應(yīng)越小,這一點在2DPCA與LR2DPCA+PCA方法上得到很好的印證。但是,注意到PCA的壓縮率和重構(gòu)準確度均高于LR2DPCA,可有以下解釋:LR2DPCA將行與列獨立開來做主成分提取,因此并不考慮這2個分量之間的相關(guān)信息,例如在表征行列關(guān)系上很重要卻在單獨的行或列內(nèi)貢獻率很小的分量被濾掉,或者行和列之間仍然存在較大的相關(guān)性和數(shù)據(jù)冗余。這便導致LR2DPCA提取出的的分量效率低于PCA的結(jié)果。在LR2DPCA+PCA中仍然存在這個問題,該方法消除了如上討論的第2種情況,單仍無力彌補第1種情況帶來的損失。

        因此在實際運用中,需要根據(jù)實際需求綜合考慮壓縮率與重構(gòu)準確度的表現(xiàn)選取合適的PCA算法。本文對壓縮圖像做重構(gòu)圖6所示,其中上下2個虛線框分別代表暢通和擁堵狀態(tài),從左到右分別為原始圖像,PCA、2DPCA、LR2DPCA、LR2DPCA+PCA的重構(gòu)效果。其中,重構(gòu)方法為投影矩陣與特征矩陣再加上樣本均值。以PCA為例,重構(gòu)公式為式(28),各參數(shù)注解見2.2。

        圖6 各種PCA算法重構(gòu)效果圖Fig.6 The reconstruction of PCA algorithms

        由重構(gòu)效果可知,在LR2DPCA+PCA的重構(gòu)準確度下,2種交通狀態(tài)仍然有較為明顯的可分性。從而本文選取雙向2DPCA與PCA的融合算法。

        4.2 基于SVM的交通狀態(tài)分類結(jié)果

        本文選取3.1經(jīng)過主成分提取的600×2=1 200幅圖像作為訓練階段的樣本,即SVM分類器的輸入。并手動輸入圖像類別:將暢通狀態(tài)的類別標簽設(shè)為1,擁堵狀態(tài)的類別標簽設(shè)為2。另外選取暢通和擁堵狀態(tài)下的各500幅圖像作為測試圖像進行分類。

        實驗采用臺灣大學林智仁(Lin ChihJen)等開發(fā)設(shè)計的SVM模式識別與回歸的軟件包,考慮線性不可分情況,建立的非線性軟間隔分類器,即聚類支持向量機(C-SVM)來對數(shù)據(jù)進行離線訓練和預(yù)測。

        4.2.1 數(shù)據(jù)規(guī)范化處理

        將數(shù)據(jù)映射到特征空間后,數(shù)值范圍變動較大,不便于提高處理的速度和準確度,因此采用最小-最大規(guī)范化對原始數(shù)據(jù)進行線性變換,歸一到[-1,1]范圍內(nèi),見式(29)。式中:xmin、xmax分別為數(shù)據(jù)集中的最大、最小值。

        4.2.2 核函數(shù)選擇

        由訓練樣本集和核函數(shù)完全描述。而如何選擇核函數(shù)迄今沒有完備的參考和證明。本文采用常用核函數(shù)進行實驗,結(jié)果見表2。

        表2 不同核函數(shù)分類對比Tab.2 Classification under common kernel functions

        表中正對角線上數(shù)值越大,標明分類效果越好。通過對比結(jié)果,發(fā)現(xiàn)采用高斯徑向基函數(shù)作為核函數(shù)在識別率和識別時間上均顯示出明顯的優(yōu)勢。因為本文模型設(shè)計使用徑向基函數(shù)為最理想選擇。

        由式(23)和文獻[12]中可知,C取大值時對訓練數(shù)據(jù)擬合度高而泛化能力差,γ增加時支持向量個數(shù)減少,回歸曲線變平緩卻會降低回歸估計的精度。因此在訓練過程調(diào)整參數(shù)C和γ值,當C=4,g=0.012時達到最優(yōu)結(jié)果。

        4.2.3 與其它分類器對比

        為了更好的體現(xiàn)SVM在模式分類與識別上的優(yōu)越性,本文同時選取多層感知器神經(jīng)網(wǎng)絡(luò)(multilayer perceptron,MLP)分類器、Bayes分類器以及RBFNetwork算法對2種交通狀態(tài)進行分類與對預(yù)測。為保證實驗結(jié)果的可對比性,以上所有算法均在本文提供的相同樣本集內(nèi)進行,準確率比較見表3、4。

        表3 不同分類器對樣本分類結(jié)果對比Tab.3 Classification of different classifier

        由表3可知,SVM算法與BP神經(jīng)網(wǎng)絡(luò)的分類與預(yù)測錯分率是最優(yōu)的,但是BP建模時間過長;而Bayes的建模時間較短,但是精確度無法達

        表4 不同分類器對測試樣本預(yù)測結(jié)果Tab.4 Forecast of different classifier

        到要求。RBFNetwork在2個參數(shù)上均低于SVM。綜上,SVM從時間、準確率和實際效果方面對比,基于SVM的交通狀態(tài)分類最具優(yōu)勢。而表4的結(jié)果表明,SVM對于測試樣本的預(yù)測性在幾種分類器中也達到了最優(yōu)效果。因此,SVM在基于時空線序列符的交通分類方法中性能達到最優(yōu)。

        5 結(jié)束語

        介紹了現(xiàn)有交通狀態(tài)分類方法并簡要分析了它們的劣勢和不足,并在此基礎(chǔ)上提出了一種基于時空線序列符和主成分分析的交通狀態(tài)分類方法。首先介紹了時空線序列符、主成分分析、SVM的算法原理。然后從視頻序列中提取時空線序列符,根據(jù)該圖像的特征以及實驗結(jié)果選取雙向2DPCA與PCA融合的方法對其進行降維與特征提取。最后采用高斯徑向基核函數(shù)進行線性變換,通過對樣本數(shù)據(jù)離線學習確立最優(yōu)參數(shù),建立交通狀態(tài)分類模型,并將分類結(jié)果分別與BP、Bayes和RBFNetwork 3種常用的學習訓練算法對比,實驗結(jié)果表明根據(jù)由SVM建立的模型在交通狀態(tài)分類上具有較高的準確率和時效性。

        [1] 王國鋒,宋鵬飛,張?zhí)N靈.智能交通系統(tǒng)發(fā)展與展望[J].公路,2012(5):217-222.

        [2] 陸化普.智能交通系統(tǒng)的智能化:關(guān)鍵技術(shù)與發(fā)展展望[J].綜合運輸,2012(3):11-16.

        [3] Li Xiaokun,Porikli F M.A hidden markov model framework for traffic event detection using video features[C]∥International Conference on Image Processing,ICIP 2004,Singapore,IEEE.2004:2901-2904.

        [4] Porikli F M,Li Xiaokun.Traffic congestion estimation using hmm models without vehicle tracking[C]∥IEEE Intelligent Vehicles Symposium,Parma,Italy:IEEE,2004:188-193.

        [5] Ko J,Guensler R L.Characterization of congestion based on speed distribution:a statistical approach using Gaussian mixture model[C]∥Transportation Research Board Annual Meeting,Washington DC.:Transportation Research Board,2005.

        [6] Zhu Z,Xu G,Yang B,et al.VISATRAM:A realtime vision system for automatic traffic monitoring[J].Image and Vision Computing,2000,18(10):781-794.

        [7] Anan L.Video vehicle detection algorithm based on virtual-line group[C]∥Circuits and Systems,2006.APCCAS 2006.IEEE Asia Pacific Conference on.Singapore:IEEE,2006:1148-1151.

        [8] Lee D,Park Y.Measurement of traffic parameters in image sequence using spatio-temporal information[J].Measurement Science and Technology,2008,19(11):115503.

        [9] 李衛(wèi)斌.基于視頻的快速路交通狀態(tài)判別及交通參數(shù)獲取方法研究[D].北京:北京工業(yè)大學,2011.

        [10] 鄭逢德.支持向量回歸算法及應(yīng)用研究[D].北京:北京工業(yè)大學,2012.

        [11] Bassan S,F(xiàn)aghri A,Polus A.Experimental investigation of spatial breakdown evolution on congested freeways[J].Civil Engineering and Environmental Systems,2007,24(4):261-274.

        [12] 曹成濤,徐建閩.基于PSO—SVM的短期交通流預(yù)測方法[J].計算機工程與應(yīng)用,2007,43(15):12-14.

        猜你喜歡
        分類方法
        分類算一算
        垃圾分類的困惑你有嗎
        大眾健康(2021年6期)2021-06-08 19:30:06
        學習方法
        分類討論求坐標
        數(shù)據(jù)分析中的分類討論
        教你一招:數(shù)的分類
        可能是方法不對
        用對方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        四大方法 教你不再“坐以待病”!
        Coco薇(2015年1期)2015-08-13 02:47:34
        賺錢方法
        97人妻碰免费视频| 色欲网天天无码av| 无码一区二区三区在线| 人人爽久久久噜人人看| 老师粉嫩小泬喷水视频90| 久久久久久久久久久熟女AV| 精品一区二区三区人妻久久| 国产三级精品和三级男人| 99久热在线精品视频观看| 色一情一区二| 久久国产香蕉一区精品天美| 五月激情四射开心久久久| 一本色道久久爱88av| 亚洲综合无码一区二区三区| 无遮挡粉嫩小泬| 97久久久一区二区少妇| 国产亚洲视频在线播放| 国产成人一区二区三区影院动漫| 亚洲欧洲精品成人久久曰影片| 欧美综合区自拍亚洲综合| 国产精品丝袜一区二区三区在线| 男女啪啪视频高清视频| 免费国产黄网站在线观看可以下载 | 亚洲一区二区综合色精品| 亚洲性码不卡视频在线| 中文字幕一区二区三区久久网| 久久久久亚洲精品中文字幕| 国产精品白浆一区二区免费看| 人妻少妇中文字幕av| 亚洲av福利院在线观看| 使劲快高潮了国语对白在线| 欧美日韩综合在线视频免费看 | 亚洲熟女乱色综合亚洲av| 综合无码综合网站| 日本在线免费不卡一区二区三区| 国产区精品一区二区不卡中文| 国产一区二区女内射| 91香蕉视频网| 少妇高潮免费在线观看| 国产农村妇女精品一区| 久久露脸国产精品|