亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        無(wú)人機(jī)被動(dòng)音頻探測(cè)和識(shí)別技術(shù)研究

        2018-04-11 00:39:58王威安騰飛歐建平
        聲學(xué)技術(shù) 2018年1期
        關(guān)鍵詞:測(cè)試數(shù)據(jù)識(shí)別率高斯

        王威,安騰飛,歐建平

        ?

        無(wú)人機(jī)被動(dòng)音頻探測(cè)和識(shí)別技術(shù)研究

        王威1,安騰飛1,歐建平2

        (1. 長(zhǎng)沙理工大學(xué)計(jì)算機(jī)與通信工程學(xué)院綜合交通運(yùn)輸大數(shù)據(jù)智能處理湖南省重點(diǎn)實(shí)驗(yàn)室,湖南長(zhǎng)沙 410114; 2.國(guó)防科技大學(xué)電子科學(xué)與工程學(xué)院,湖南長(zhǎng)沙 410073)

        為解決近場(chǎng)空域低、慢、小旋翼無(wú)人機(jī)的安全威脅,提出基于音頻信號(hào)分析的無(wú)人機(jī)探測(cè)識(shí)別方法。該方法采用改進(jìn)流程和參數(shù)的梅爾頻率倒譜系數(shù)(Mel-Frequency Cepstral Coeffi-cients, MFCC)和其一階差分作為無(wú)人機(jī)音頻的特征參數(shù),結(jié)合提出的多距離分段采集法,通過(guò)訓(xùn)練高斯混合模型(Gaussian Mixture Model, GMM),建立多特征的無(wú)人機(jī)音頻“指紋庫(kù)”,最后用特征匹配算法實(shí)現(xiàn)無(wú)人機(jī)的探測(cè)和識(shí)別。實(shí)驗(yàn)結(jié)果表明,所提出的方法在典型郊區(qū)環(huán)境中可實(shí)現(xiàn)150 m距離內(nèi)無(wú)人機(jī)的探測(cè)和識(shí)別,識(shí)別率達(dá)到84.4%。

        無(wú)人機(jī);探測(cè)和識(shí)別;梅爾頻率倒譜系數(shù);高斯混合模型

        0 引言

        2016年被稱為消費(fèi)級(jí)無(wú)人機(jī)元年,無(wú)人機(jī)在各行業(yè)廣泛應(yīng)用的同時(shí)也帶了很大的負(fù)面影響。近年來(lái),國(guó)內(nèi)外常報(bào)道無(wú)人機(jī)用于走私、恐怖襲擊、侵占航線、侵犯隱私等非法用途。湖北日?qǐng)?bào)微信號(hào)2017年06月21日?qǐng)?bào)道:據(jù)民航部分公布的數(shù)據(jù),2015年,全國(guó)發(fā)生無(wú)人機(jī)干擾民航飛行事件4起,2016年則發(fā)生23起,2017年僅僅上半年已經(jīng)發(fā)生超過(guò)40起。對(duì)于無(wú)人機(jī)的探測(cè)和監(jiān)管已迫在眉睫,因此,對(duì)無(wú)人機(jī)的探測(cè)和識(shí)別也顯得尤為重要。

        國(guó)內(nèi)對(duì)于消費(fèi)級(jí)無(wú)人機(jī)探測(cè)的研究較少,日本、法國(guó)、美國(guó)、俄羅斯等國(guó)家則已經(jīng)相繼推出了無(wú)人機(jī)探測(cè)和反制系統(tǒng)。目前已有基于紅外、圖像、無(wú)線信號(hào)、音頻等技術(shù)來(lái)探測(cè)無(wú)人機(jī)的方法[1-4]。József Mezei等[5]利用互相關(guān)法證明了音頻探測(cè)無(wú)人機(jī)的可行性,文獻(xiàn)[6]在音頻信號(hào)處理方面,使用了基于距離的思想實(shí)現(xiàn)近距離無(wú)人機(jī)探測(cè)和識(shí)別。文獻(xiàn)[7-9]使用傳聲器陣列技術(shù),基于波束形成及到達(dá)時(shí)間差 (Time Difference of Arrival,TDOA) 探測(cè)無(wú)人機(jī),但只做到了大致的定向。

        隨著語(yǔ)音識(shí)別方法的逐漸成熟,考慮到語(yǔ)音和無(wú)人機(jī)音頻的一些共性,很多專家和學(xué)者也嘗試著將一些語(yǔ)音識(shí)別的方法應(yīng)用于無(wú)人機(jī)探測(cè)。C Asensio等[10]使用MFCC來(lái)分辨無(wú)人機(jī)聲音以及非無(wú)人機(jī)聲音,在近距離和信噪比較高的情況下,具有很好的識(shí)別率,但沒(méi)有考慮不同距離情況下無(wú)人機(jī)信號(hào)所表現(xiàn)的差異性。Louise Hauzenberger等[11]使用了線性預(yù)測(cè)系數(shù)(Linear Predictive Coefficient, LPC)結(jié)合短時(shí)過(guò)零率和短時(shí)能量的方法,可以在消音室環(huán)境下實(shí)現(xiàn)類型識(shí)別。Sungho Jeon等[12]針對(duì)特定條件下使用MFCC特征作為神經(jīng)網(wǎng)絡(luò)輸入?yún)?shù),達(dá)到了較好的識(shí)別率,但需要大量的環(huán)境模擬數(shù)據(jù),訓(xùn)練樣本是無(wú)人機(jī)信號(hào)和環(huán)境信號(hào)的人工混合信號(hào),并要求無(wú)人機(jī)信號(hào)比環(huán)境峰值高出5%,雖然增加了訓(xùn)練樣本量,但不能完全反映無(wú)人機(jī)飛行的真實(shí)環(huán)境狀況。

        目前常用的音頻特征識(shí)別有隱馬爾科夫模型(Hidden Markov Model,HMM)、支持向量機(jī)模型(Support Vector Machine,SVM)以及高斯混合模型。本文結(jié)合無(wú)人機(jī)飛行特點(diǎn)和傳聲器實(shí)際響應(yīng)距離,提出訓(xùn)練數(shù)據(jù)采集法,改進(jìn)流程,優(yōu)化MFCC參數(shù),最后使用GMM模型來(lái)實(shí)現(xiàn)對(duì)無(wú)人機(jī)音頻信號(hào)的檢測(cè)和識(shí)別。

        1 無(wú)人機(jī)音頻信號(hào)特征

        以某型無(wú)人機(jī)為例進(jìn)行特征分析。通過(guò)實(shí)際采集的時(shí)域信號(hào)可知,信號(hào)幅度隨著無(wú)人機(jī)的接近逐漸增大,隨著無(wú)人機(jī)的遠(yuǎn)離而逐漸減小,如圖1(a)所示。

        如圖1(b)所示,無(wú)人機(jī)時(shí)頻圖音頻信號(hào)主要集中在低頻部分,當(dāng)無(wú)人機(jī)經(jīng)過(guò)錄音設(shè)備正上方時(shí)其高頻成分明顯加強(qiáng)。隨著無(wú)人機(jī)相對(duì)距離的變化,其頻率呈現(xiàn)出一定的多普勒效應(yīng)。

        從圖1(c)可以看出,其頻率信號(hào)具有一定的倍頻關(guān)系。

        通過(guò)分析多種類型的無(wú)人機(jī)音頻信號(hào)(無(wú)人機(jī)音頻噪聲)得知,無(wú)人機(jī)的音頻噪聲主要為氣動(dòng)噪聲和機(jī)械噪聲。氣動(dòng)噪聲主要來(lái)源于旋翼切割空氣及機(jī)體與空氣摩擦,該部分噪聲主要分布于聲音信號(hào)的低頻部分,在空氣中衰減慢,傳播距離較遠(yuǎn);機(jī)械噪聲則主要由電機(jī)以及傳動(dòng)部件造成,該部分噪聲主要分布在信號(hào)的高頻部分,在空氣中衰減較快。

        對(duì)于大多消費(fèi)級(jí)無(wú)人機(jī),高頻部分噪聲在距離地面50~80 m之后衰減很大,幾乎可以忽略不計(jì),為了探測(cè)更遠(yuǎn)距離的無(wú)人機(jī)音頻信號(hào),本文重點(diǎn)研究無(wú)人機(jī)音頻信號(hào)低頻部分的探測(cè)和識(shí)別方法。

        不同于武裝直升機(jī)的氣動(dòng)噪聲頻率范圍(30~400 Hz)[13],本文通過(guò)大量數(shù)據(jù)分析得知,無(wú)人機(jī)的氣動(dòng)噪聲頻率范圍主要在130~2 000 Hz之間。頻率范圍與無(wú)人機(jī)電機(jī)類型(有刷電機(jī)和無(wú)刷電機(jī))、外形結(jié)構(gòu)、旋翼個(gè)數(shù)、旋翼大小和長(zhǎng)度、電機(jī)轉(zhuǎn)速等有關(guān)。

        使用單傳聲器采集信號(hào)的情況下,遠(yuǎn)距離飛行的無(wú)人機(jī)的多普勒效應(yīng)和諧波現(xiàn)象不太明顯,旋翼個(gè)數(shù)對(duì)頻率的變化影響不大,這一特點(diǎn)對(duì)構(gòu)建無(wú)人機(jī)音頻“指紋庫(kù)”具有一定的指導(dǎo)意義。

        另外,不同飛行狀態(tài)下的無(wú)人機(jī)特點(diǎn)表現(xiàn)有所不同,而大多數(shù)文獻(xiàn)中分析的是懸停狀態(tài)下的無(wú)人機(jī)音頻信號(hào),故在實(shí)際應(yīng)用中效果并不理想。

        2 無(wú)人機(jī)音頻探測(cè)和識(shí)別系統(tǒng)

        本文提出的音頻信號(hào)探測(cè)和識(shí)別系統(tǒng)框圖如圖2所示。

        圖2 無(wú)人機(jī)音頻探測(cè)和識(shí)別系統(tǒng)框圖

        具體步驟如下:

        (1) 預(yù)處理:對(duì)訓(xùn)練數(shù)據(jù)和測(cè)試數(shù)據(jù)進(jìn)行預(yù)處理,包括降噪、帶通濾波、分幀和加窗;

        (2) 特征提?。禾崛o(wú)人機(jī)音頻的靜態(tài)特征和動(dòng)態(tài)特征;

        (3) 模型訓(xùn)練:訓(xùn)練數(shù)據(jù)的GMM模型,構(gòu)建無(wú)人機(jī)音頻模板庫(kù);

        (4) 特征匹配:提取測(cè)試數(shù)據(jù)特征,通過(guò)特征匹配算法和無(wú)人機(jī)音頻模板庫(kù)進(jìn)行匹配,得出識(shí)別結(jié)果。

        2.1 預(yù)處理

        在實(shí)際生活環(huán)境中,噪聲分布范圍較廣,對(duì)無(wú)人機(jī)的音頻信號(hào)具有全頻帶覆蓋的影響,由于無(wú)人機(jī)的音頻信號(hào)的低頻部分主要分布于130~2 000 Hz,因此,識(shí)別過(guò)程中先使用sym8小波對(duì)其進(jìn)行三層分解,再選取200~1 800 Hz范圍的帶通濾波,濾除絕大部分高頻噪聲,最后對(duì)無(wú)人機(jī)音頻信號(hào)分幀,幀長(zhǎng)為60 ms,幀移為30 ms,并選用漢寧窗減少頻譜泄漏。

        2.2 特征提取

        Mel頻率能夠反映人耳對(duì)于不同頻率語(yǔ)音的感知能力,而Mel頻率倒譜系數(shù)(MFCC)利用了人耳聽(tīng)覺(jué)原理和倒譜的相關(guān)特性,被廣泛應(yīng)用于音頻相關(guān)的識(shí)別任務(wù)中。因此實(shí)驗(yàn)采用MFCC作為無(wú)人機(jī)音頻信號(hào)的基本特征參數(shù)。

        為了更好地體現(xiàn)無(wú)人機(jī)音頻信號(hào)特點(diǎn),本文在傳統(tǒng)求取MFCC基礎(chǔ)上對(duì)流程進(jìn)行改進(jìn),使用幅度譜代替能量譜,具體流程如圖3所示。

        圖3 改進(jìn)的求解MFCC特征流程圖

        2.3 訓(xùn)練數(shù)據(jù)采集

        根據(jù)得出的無(wú)人機(jī)音頻信號(hào)特征,基于無(wú)人機(jī)飛行特點(diǎn)和傳聲器實(shí)際響應(yīng)距離,本文提出多距離分段采集法。

        在采集過(guò)程中,按照傳聲器實(shí)際響應(yīng)距離采集無(wú)人機(jī)訓(xùn)練數(shù)據(jù),每種型號(hào)的無(wú)人機(jī)至少在三種距離條件下分別采集懸停狀態(tài)和飛行狀態(tài)的音頻數(shù)據(jù),每個(gè)樣本的數(shù)據(jù)長(zhǎng)度范圍30~50 s。三種距離分別是:

        (1) 近距離樣本,采樣距離范圍為20~30 m;

        (2) 半距離樣本,即按照傳聲器實(shí)際響應(yīng)距離的一半采集;

        (3) 2/3距離樣本。

        2.4 模型訓(xùn)練和識(shí)別

        訓(xùn)練各種類型無(wú)人機(jī)的GMM模型參數(shù)的過(guò)程,也就是建立無(wú)人機(jī)音頻模板庫(kù)的過(guò)程。本文使用GMM模型來(lái)擬合無(wú)人機(jī)音頻特征數(shù)據(jù)。通過(guò)期望最大化(Expectation-Maximization,EM)[14]迭代算法迭代計(jì)算GMM模型中混合權(quán)重、每個(gè)高斯模型的均值和方差。如果高斯混合模型中高斯模型的個(gè)數(shù)過(guò)多則會(huì)出現(xiàn)“過(guò)擬合”現(xiàn)象,因此需選用合適的高斯模型個(gè)數(shù)。

        將參數(shù)帶入后可得:

        3 實(shí)驗(yàn)結(jié)果和分析

        實(shí)驗(yàn)軟件環(huán)境基于MATLAB8.0平臺(tái)實(shí)現(xiàn),采用i7雙核2.5 GHz CPU、4 GB內(nèi)存的普通筆記本電腦。所使用的音頻數(shù)據(jù)均采用DC-900拾音器配備音頻采集卡進(jìn)行采集,采集地點(diǎn)在湖南省長(zhǎng)沙市岳麓區(qū),實(shí)驗(yàn)數(shù)據(jù)來(lái)自于DJI2、DJI3、DJI4、MavicPro、FPV250、ProMark P70、DJIS1000和某型植保無(wú)人機(jī)共8種大小結(jié)構(gòu)不同、型號(hào)各異、旋翼個(gè)數(shù)有所差別的市面上常用的消費(fèi)級(jí)無(wú)人機(jī)。

        訓(xùn)練數(shù)據(jù)在樓頂相對(duì)安靜的條件下按照2.3節(jié)的設(shè)定要求進(jìn)行采集,測(cè)試數(shù)據(jù)在公園環(huán)境下采集(在采集部分測(cè)試樣本期間有戰(zhàn)斗機(jī)轟鳴聲和強(qiáng)烈鳥(niǎo)鳴聲),以驗(yàn)證系統(tǒng)對(duì)無(wú)人機(jī)的識(shí)別性能。每種類型無(wú)人機(jī)測(cè)試數(shù)據(jù)保存規(guī)則如表1所示。

        表1 測(cè)試數(shù)據(jù)保存規(guī)則

        測(cè)試數(shù)據(jù)的采集規(guī)則如表2所示,根據(jù)無(wú)人機(jī)型號(hào)和限制飛行高度的實(shí)際情況按照規(guī)則進(jìn)行采集,為了更貼近實(shí)際情況,使實(shí)驗(yàn)更具有代表性,具體的高度信息和飛行狀態(tài)均是大概估計(jì)。

        測(cè)試數(shù)據(jù)采用不同環(huán)境條件下不同距離段和不同飛行狀態(tài)的無(wú)人機(jī)音頻數(shù)據(jù),共采集到115個(gè)測(cè)試文件,總時(shí)間長(zhǎng)度為65 min。為得出最小探測(cè)時(shí)間,本文把測(cè)試文件按照時(shí)間長(zhǎng)度進(jìn)行切分,再對(duì)切分后的文件進(jìn)行識(shí)別。圖4為不同時(shí)間長(zhǎng)度、不同高斯模型個(gè)數(shù)時(shí)系統(tǒng)的識(shí)別率。

        表2 測(cè)試數(shù)據(jù)采集規(guī)則

        圖4 不同時(shí)間長(zhǎng)度和高斯模型個(gè)數(shù)條件下的識(shí)別率

        由圖4可以看出,不同的時(shí)間長(zhǎng)度下,當(dāng)高斯模型個(gè)數(shù)為3時(shí),識(shí)別率最高。系統(tǒng)取高斯模型個(gè)數(shù)為3,再測(cè)定不同時(shí)間長(zhǎng)度下的識(shí)別率,識(shí)別結(jié)果如表3所示。

        表3 不同時(shí)間長(zhǎng)度的測(cè)試樣本識(shí)別率(M=3)

        從表3中可以看出,在樣本時(shí)間長(zhǎng)度為2 s時(shí),識(shí)別率為84.37%。

        通過(guò)綜合分析可以看出,高斯模型個(gè)數(shù)為3,測(cè)試樣本時(shí)間長(zhǎng)度大于1.5 s時(shí),系統(tǒng)識(shí)別率可以達(dá)到80%以上;當(dāng)測(cè)試樣本長(zhǎng)度達(dá)到2.5 s以上時(shí),系統(tǒng)識(shí)別率超過(guò)85%。系統(tǒng)用時(shí)相對(duì)合理,達(dá)到了接近實(shí)時(shí)探測(cè)和識(shí)別的效果,可以在郊區(qū)環(huán)境中探測(cè)和識(shí)別無(wú)人機(jī),也為以后無(wú)人機(jī)探測(cè)和識(shí)別提供了新思路。

        4 結(jié)論

        本文提出了基于音頻特征的無(wú)人機(jī)探測(cè)和識(shí)別方法,通過(guò)對(duì)數(shù)據(jù)的測(cè)試和分析,表明該方法易于實(shí)現(xiàn),準(zhǔn)確性高,能夠滿足150 m距離內(nèi)對(duì)市面上常用無(wú)人機(jī)探測(cè)和類型識(shí)別的要求。在實(shí)際應(yīng)用中,可以進(jìn)一步通過(guò)調(diào)整傳聲器高度及朝向來(lái)減少大部分來(lái)自地面的噪音干擾,提升系統(tǒng)的整體性能。今后的研究重點(diǎn)是使用波束形成技術(shù)實(shí)現(xiàn)無(wú)人機(jī)的定位、定向和更遠(yuǎn)距離的探測(cè)。

        [1] POPOVIC V, OTT B, WELLIG P, et al. Near-infrared high-resolution real-time omnidirectional imaging platform for drone detection[C]//SPIE Security+ Defence. International Society for Optics and Photonics, 2016: 999706-999706-7.

        [2] VASQUEZ J R, TARPLEE K M, RIGLING B D. Multisensor 3D tracking for counter small unmanned air vehicles (CSUAV)[J]. Proceedings of SPIE-The International Society for Optical Engineering, 2008(6971): 11.

        [3] BUSSET J, PERRODIN F, WELLIG P, et al. Detection and tracking of drones using advanced acoustic cameras[C]//SPIE Security +Defence. International Society for Optics and Photonics, 2015: 96470F-96470F-8.

        [4] SHI W, BISHOP B, ARABADJIS G, et al. Detecting, tracking, and identifying airborne threats with netted sensor fence[M]. London: INTECH Open Access Publisher, 2011.

        [5] MEZEI J, MOLNáR A. Drone sound detection by correlation[C]//2016 IEEE 11th International Symposium on Applied Computational Intelligence and Informatics(SACI), Timisoara, 2016: 509-518.

        [6] HEARING B, FRANKLIN J. Drone detection and classification methods and apparatus: U.S. 9275645[P]. 2016-3-1.

        [7] BENYAMIN M, GOLDMAN G H. Acoustic detection and tracking of a class I UAS with a small tetrahedral microphone array[R]. Army Research Lab Adelphi Md, 2014.

        [8] GENESCà M, ROMEU J, PàMIES T, et al. Real time aircraft fly-over noise discrimination[J]. Journal of Sound and Vibration, 2009, 323(1): 112-129.

        [9] CASE E E, ZELNIO A M, RIGLING B D. Low-cost acoustic array for small UAV detection and tracking[C]//Aerospace and Electronics Conference, 2008. NAECON 2008. IEEE National. IEEE, 2008: 110-113.

        [10] ASENSIO C, RUIZ M, RECUERO M. Real-time aircraft noise likeness detector[J]. Applied Acoustics, 2010, 71(6): 539-545.

        [11] HAUZENBERGER L, HOLMBERG Ohlsson E. Drone detection using audio analysis[J]. Geostandards & Geoanalytical Research, 2011, 35(3): 369-385.

        [12] JEON S, SHIN J W, LEE Y J, et al. Empirical study of drone sound detection in real-life environment with deep neural networks[J]. arXiv preprint arXiv: 1701.05779, 2017.

        [13] 葛欣宏. 飛行器被動(dòng)音頻探測(cè)與識(shí)別技術(shù)研究[D]. 長(zhǎng)春: 長(zhǎng)春理工大學(xué), 2006.

        [14] DEMPSTER A P, LAIRD N M, RUBIN D B. Maximum likelihood from incomplete data via the EM algorithm[J]. Journal of the Royal Statistical Society. Series B (methodological), 1977, 39(1): 1-38.

        Research on audio detection and recognition of UAV

        WANG Wei1, AN Teng-fei1, OU Jian-ping2

        (1. Hu’nan Provincial Key Laboratory of Intelligent Processing of Big Data on Transportation, School of Computer & Communication Engineering, Changsha University of Science & Technology, Changsha 410114, Hu’nan, China;2. School of Electronic Science and Engineering, National University of Defense Technology, Changsha 410073, Hu’nan, China)

        In order to solve the security threat from low, slow and small rotor UAV (unmanned aerial vehicle) in the near field airspace, a method of analyzing the UAV audio signal is proposed. In this method, the Mel-Frequency Cepstral Coefficients (MFCC) and its first-order difference with improved solving flowchart and optimized parameters are used as the characteristic parameters of the UAV audio signal. The multi-distance segmentation method is used to train Gaussian mixture model (GMM) for the establishment of multi-feature “fingerprint library” of UAV audio signals, and finally the UAV detection and identification is achieved with the feature matching algorithm. The experimental results show that the proposed method can realize the UAV detection and recognition within 150m distance in typical suburban environment with an accuracy rate of 84.4%.

        unmanned aerial vehicle (UAV); detection and identification; mel-frequency cepstral coefficients (MFCC); Gaussian mixture model (GMM)

        TB53

        A

        1000-3630(2018)-01-0089-05

        10.16300/j.cnki.1000-3630.2018.01.016

        2017-05-20;

        2017-07-26

        國(guó)防973基金贊助項(xiàng)目(613XXX0301)

        王威(1974-), 男, 山東青島人, 教授, 研究方向?yàn)橹悄苄畔⑻幚怼?/p>

        安騰飛, E-mail: anyuanjing@stu.csust.edu.cn

        猜你喜歡
        測(cè)試數(shù)據(jù)識(shí)別率高斯
        小高斯的大發(fā)現(xiàn)
        基于類圖像處理與向量化的大數(shù)據(jù)腳本攻擊智能檢測(cè)
        天才數(shù)學(xué)家——高斯
        基于真耳分析的助聽(tīng)器配戴者言語(yǔ)可懂度指數(shù)與言語(yǔ)識(shí)別率的關(guān)系
        測(cè)試數(shù)據(jù)管理系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)
        提升高速公路MTC二次抓拍車牌識(shí)別率方案研究
        基于自適應(yīng)粒子群優(yōu)化算法的測(cè)試數(shù)據(jù)擴(kuò)增方法
        高速公路機(jī)電日常維護(hù)中車牌識(shí)別率分析系統(tǒng)的應(yīng)用
        空間co-location挖掘模式在學(xué)生體能測(cè)試數(shù)據(jù)中的應(yīng)用
        體育科技(2016年2期)2016-02-28 17:06:21
        有限域上高斯正規(guī)基的一個(gè)注記
        日本岛国精品中文字幕| 人妻 色综合网站| 男女野外做爰电影免费| 娇柔白嫩呻吟人妻尤物| 国产免费精品一品二区三| 狠狠综合亚洲综合亚洲色| 最近中文字幕视频完整版在线看| 亚洲欧洲国产日产国码无码| 日韩av中文字幕一卡二卡| 日本在线一区二区三区不卡| 亚洲中文字幕在线观看| 青春草国产视频| 亚洲精品一区二区三区日韩| 中文字幕亚洲乱码成熟女1区| 中国老熟妇自拍hd发布| 国产小屁孩cao大人| 日韩精品自拍一区二区| 久久精品中文字幕无码绿巨人 | 116美女极品a级毛片| 免费在线日韩| 国产精品自产拍在线18禁| 狠狠精品久久久无码中文字幕| 久久精品国产99国产精2020丨 | 蜜桃视频中文在线观看| 女人被躁到高潮嗷嗷叫免| 国自产精品手机在线观看视频| 五月综合高清综合网| 日本熟妇视频在线中出| 亚洲av无码乱码国产麻豆| 国产内射999视频一区| 国产亚洲日本人在线观看 | 亚洲午夜精品一区二区| 人与嘼交av免费| 亚洲无码观看a| 黄片小视频免费观看完整版| 蜜桃无码一区二区三区| 国产乱子伦精品免费女| 日韩中文字幕在线丰满| 影音先锋色小姐| 国产精品理人伦国色天香一区二区 | 中文字幕免费不卡二区|