亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種基于碼書映射的高效語音轉(zhuǎn)換方法?

        2014-07-01 23:45:10王志衛(wèi)劉小峰
        微處理機(jī) 2014年1期
        關(guān)鍵詞:基音矢量頻譜

        王志衛(wèi),徐 寧,2,3,4,劉小峰,2,3

        (1.河海大學(xué)物聯(lián)網(wǎng)工程學(xué)院,常州213022;2.河海大學(xué)-法國Alderbaran Robotics認(rèn)知與機(jī)器人實驗室,常州213022;3.常州市機(jī)器人與智能技術(shù)重點實驗室,常州213022;4.教育部寬帶無線通信與網(wǎng)絡(luò)感知技術(shù)重點實驗室,南京210003)

        一種基于碼書映射的高效語音轉(zhuǎn)換方法?

        王志衛(wèi)1,徐 寧1,2,3,4,劉小峰1,2,3

        (1.河海大學(xué)物聯(lián)網(wǎng)工程學(xué)院,常州213022;2.河海大學(xué)-法國Alderbaran Robotics認(rèn)知與機(jī)器人實驗室,常州213022;3.常州市機(jī)器人與智能技術(shù)重點實驗室,常州213022;4.教育部寬帶無線通信與網(wǎng)絡(luò)感知技術(shù)重點實驗室,南京210003)

        為了使機(jī)器人在人-機(jī)語音交互過程中更為自然,利用語音轉(zhuǎn)換技術(shù)改變源語音個性特征(機(jī)械音),進(jìn)而變化為自然的目標(biāo)人語音,是一種可行的方案。然而,當(dāng)前的語音轉(zhuǎn)換主流方法在實時性要求高且內(nèi)核小的嵌入式機(jī)器人中并不適用。引入一種高效的改進(jìn)型碼書轉(zhuǎn)換方法。該方法首先通過匹配線性譜頻率參數(shù)的相對距離來求取加權(quán)系數(shù),進(jìn)而實現(xiàn)碼字的預(yù)測重構(gòu);其次,對預(yù)測的碼字進(jìn)行帶寬修正,克服頻譜偏移問題。實驗結(jié)果表明:該方法相比較傳統(tǒng)方法,在轉(zhuǎn)換性能相當(dāng)?shù)臈l件下,運行時間縮短75%左右。

        語音轉(zhuǎn)換;嵌入式系統(tǒng);諧波隨機(jī)模型;分段碼書;人機(jī)交互

        1 引 言

        語音轉(zhuǎn)換是一種通過改變源說話者語音的個性特征,使之具有目標(biāo)說話者語音的個性特征,同時保持說話者的語義等相關(guān)信息不變的技術(shù)。在基于語音的人機(jī)交互中,將機(jī)器人的聲音轉(zhuǎn)變成為老年人子女的聲音,通過機(jī)器人傳達(dá)給老人,對其起到安撫的作用。

        近年來,語音轉(zhuǎn)換技術(shù)在許多語音研究者的努力下已經(jīng)初成一些體系,如隱馬爾可夫模型(Hidden Markov Model,HMM)[1]、人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network,ANN)[2-3]、統(tǒng)計映射法(Statistical Transformation,ST)[4-5]等,然而,這些主流方法卻對于實時性要求高內(nèi)核小的嵌入式機(jī)器人并不適用。早年,Stylianou等人通過高斯混合模型(Gaussian Mixture Model,GMM)實現(xiàn)了對特征參數(shù)的映射[6],繼而該方法也成為了當(dāng)前較為主流的方法之一。但是此方法在應(yīng)用于機(jī)器人嵌入式系統(tǒng)的時候同樣面臨幾個問題。首先,在實時性問題上,該方法對于每一段需要轉(zhuǎn)變的語音,都要先通過GMM模型訓(xùn)練出一個映射規(guī)則,然后再進(jìn)行轉(zhuǎn)變,這樣導(dǎo)致的后果就是耗時過長,不能滿足嵌入式系統(tǒng)的實時要求,并且在訓(xùn)練過程中,會占用較多的系統(tǒng)內(nèi)存資源,對于嵌入式系統(tǒng)顯然并不適用。因此,文中提出一種改進(jìn)的分段碼書轉(zhuǎn)換方法[7]。該方法在數(shù)據(jù)訓(xùn)練中,對源和目標(biāo)說話者的輸入語音數(shù)據(jù)參數(shù)制定一個從源說話者聲學(xué)空間到目標(biāo)說話者聲學(xué)空間的頻譜轉(zhuǎn)變。他們的聲學(xué)空間用一種被廣泛研究的聲學(xué)特征共振峰頻率來表示。轉(zhuǎn)變是基于碼本映射。具體做法是,用動態(tài)時間規(guī)整(Dynamic Time Warping,DTW)方法生成一個對齊的語音參數(shù)信息庫[8],當(dāng)每段語音輸入時,直接通過匹配線性譜頻率參數(shù)(Line Spectral Frequency,LSF)的相對距離,求取輸入語音的每一幀LSF參數(shù)即碼字對應(yīng)于語音信息庫里源說話者語音所有幀LSF參數(shù)的權(quán)值,從而實現(xiàn)目標(biāo)碼字的預(yù)測,不需要再次訓(xùn)練轉(zhuǎn)變規(guī)則,縮短了運行時間。此外,原方法在對語音參數(shù)矢量量化的過程中,會產(chǎn)生一定的失真,而改進(jìn)的方法,保留了所有語音幀的全部參數(shù)信息,降低了失真。另外,該方法對基音頻率值同樣進(jìn)行了轉(zhuǎn)變,并對預(yù)測的碼字進(jìn)行帶寬修正,從而降低了基音頻率與頻譜偏移產(chǎn)生的誤差。總而言之,該文所論述的方法在適應(yīng)嵌入式系統(tǒng)特點的前提下,保持語義信息不變,高效的進(jìn)行語音轉(zhuǎn)變,并具有較高的轉(zhuǎn)變質(zhì)量。

        2 系統(tǒng)結(jié)構(gòu)分析

        圖1為該文的語音轉(zhuǎn)變系統(tǒng)框圖。系統(tǒng)共分為兩個階段,第一階段,對源和目標(biāo)說話者語音進(jìn)行訓(xùn)練。首先源和目標(biāo)說話者語音分別通過諧波隨機(jī)模型(Harmonic Stochastic Model,HSM)進(jìn)行分析[9],從而得到相應(yīng)的語音參數(shù)信息和基音頻率。通過源和目標(biāo)語音基音頻率計算從而得到基音轉(zhuǎn)變因子,用于對源說話者測試語音進(jìn)行基音轉(zhuǎn)變。然后,通過對源和目標(biāo)語音參數(shù)計算得到相應(yīng)的LSF參數(shù),對源和目標(biāo)語音LSF參數(shù)進(jìn)行DTW參數(shù)對齊訓(xùn)練,得到對齊LSF參數(shù)庫。第二階段,將需要轉(zhuǎn)變的源說話者語音(即測試語音)進(jìn)行HSM模型分析,同樣得到相應(yīng)的語音參數(shù)和基音頻率,測試語音基音頻率通過基音轉(zhuǎn)變因子計算得到目標(biāo)語音基音頻率,同時,將測試語音參數(shù)轉(zhuǎn)化為LSF參數(shù),由于對齊LSF參數(shù)庫中所有幀都為一一對應(yīng),即可看成是源說話者與目標(biāo)說話者語音特征間的對應(yīng)關(guān)系,而對于同一句語音信息,輸入語音和目標(biāo)語音的特征參數(shù)對應(yīng)于源和目標(biāo)說話者語音的權(quán)重值可以看做近似相等,因而通過計算測試語音LSF參數(shù)對應(yīng)于對齊LSF參數(shù)庫中源說話者語音LSF參數(shù)的權(quán)重值,從而計算出目標(biāo)LSF參數(shù)。再對目標(biāo)LSF參數(shù)的線性頻譜對間的距離進(jìn)行更改,從而達(dá)到目標(biāo)語音共振峰帶寬修正的目的,最終,轉(zhuǎn)變后的基音頻率和LSF參數(shù)通過HSM模型合成目標(biāo)語音。

        圖1 系統(tǒng)框圖

        3 系統(tǒng)算法研究

        3.1 傳統(tǒng)算法

        傳統(tǒng)的GMM算法本質(zhì)上是若干個高斯函數(shù)的線性組合[10]:

        式(1)中N(α;μq;Cq)為高斯分布概率密度函數(shù),μq、Cq分別為該分布的均值和協(xié)方差矩陣,φq是各個高斯函數(shù)的混合權(quán)重,Q是高斯函數(shù)總個數(shù)。

        在轉(zhuǎn)換時,將對齊的源和目標(biāo)說話者特征參數(shù)矢量組合在一起:zi=[s,t]T,i=1,...,N,T為矩陣的轉(zhuǎn)置。然后對zi進(jìn)行GMM訓(xùn)練,從而得到GMM模型參數(shù)(α,μ,C),而轉(zhuǎn)換函數(shù)可以表示為[11]:

        由上式可以看出,每一幀源和目標(biāo)說話者語音特征參數(shù)矢量都需要經(jīng)過GMM算法進(jìn)行訓(xùn)練,運算較為復(fù)雜,因而導(dǎo)致的結(jié)果就是運行耗時較長。

        3.2 本文算法

        主要分為:聲道譜參數(shù)的轉(zhuǎn)變和基音頻率的轉(zhuǎn)變兩個部分。

        3.2.1 聲道譜參數(shù)轉(zhuǎn)變

        由于共振峰可以很好的表征聲道的物理特征,而線性頻譜頻率LSF與共振峰頻率緊密相關(guān)[12],而相比于共振峰頻率,LSFs估算十分可靠。所以選用源和目標(biāo)說話者線性頻譜頻率LSFs來代表聲道特征。而且它們已經(jīng)有一些成功的應(yīng)用。它們有很好的插值性能,很穩(wěn)健。另外,它們有一個固定的動態(tài)范圍,使得在實時DSP中的實現(xiàn)很吸引人。

        通過修改LPC多項式A(z)來估算LSFs[7],增加A(z)的偏相關(guān)系數(shù)a,使其分別?。?和-1來得到P(z)和q(z),使下面兩個多項式的所有根在單位圓內(nèi):

        P是LPC分析階數(shù),根的角度ωk,就是LSFs。在算法中,LSFs用于代表說話個體的聲道特征。

        3.2.2 采用的模型及算法

        該文采用的是諧波隨機(jī)模型(HSM)來分析及合成語音。HSM模型假設(shè)語音信號可以表示為帶有時變參數(shù)的大量諧波相關(guān)正弦信號和一個類似噪聲分量。諧波分量只存在于濁音語音段中,并且它的特征參數(shù)是每一個分析幀的基音頻率和諧波的幅度及相位。隨機(jī)成分構(gòu)成了所有非正弦信號成分,是由摩擦、呼吸噪聲引起的,它的特征參數(shù)是每一幀全極點濾波器的系數(shù)。該模型可以達(dá)到很好的語音分析與合成效果。

        與傳統(tǒng)方法不同的是,該文所論述的方法并沒有對源和目標(biāo)說話者語音參數(shù)進(jìn)行模型訓(xùn)練,而是首先建立源和目標(biāo)說話者的LSFs參數(shù)的對應(yīng)關(guān)系庫,然后計算源說話者測試語音LSFs參數(shù)每一幀對應(yīng)于庫中的源說話者LSFs參數(shù)所有幀的權(quán)重值,如圖2所示,權(quán)重值由語音幀LSFs參數(shù)間的感知加權(quán)距離估算求得。將測試語音參數(shù)對應(yīng)庫中的源說話者語音參數(shù)的權(quán)重值,同樣應(yīng)用于庫中的目標(biāo)LSFs參數(shù),從而可以估算出目標(biāo)語音參數(shù),再通過HSM模型合成目標(biāo)語音。

        圖2 權(quán)重估算流程圖

        此方法的優(yōu)點在于:在建立源和目標(biāo)說話者對應(yīng)關(guān)系的過程中,保留了語音數(shù)據(jù)的全部參數(shù)信息。而傳統(tǒng)方法在形成碼書的過程中,用每個狀態(tài)的平均LSFs矢量來代表此狀態(tài),得到的狀態(tài)值是一個模糊估計值,存在一定誤差,再用此估算值建立碼書,必定將誤差進(jìn)一步擴(kuò)大。而此方法通過全部語音參數(shù)信息間的對應(yīng)關(guān)系達(dá)到降低誤差的效果。同時,此方法更為簡單易行,運行速度快。

        3.2.3 權(quán)重估算

        求源說話者測試語音的每一幀LSFs參數(shù)對應(yīng)于源說話者訓(xùn)練語音的所有幀LSFs參數(shù)的權(quán)重,

        γ為一個范圍在0.2-2的值,通過搜索得到,使得估算LSF矢量ωo與初始LSF矢量ω之間的感知加權(quán)距離最小。如圖3所示為搜索結(jié)果。顯然當(dāng)γ為0.4的時候,感知加權(quán)距離最小,因而γ取值為0.4。

        圖3 估算LSF與初始LSF的加權(quán)距離

        di為源說話者測試語音一幀LSFs參數(shù)矢量ωk對應(yīng)于第i幀源說話者訓(xùn)練語音LSFs矢量的估算距離。可通過下式求得:

        距離估算是基于一種對接近于共振峰位置的LSFs分配高權(quán)重的感知標(biāo)準(zhǔn),hk為感知系數(shù)。

        3.2.4 目標(biāo)語音LSFs參數(shù)估算

        將上式求得的權(quán)重vi,i=1,2...L應(yīng)用于目標(biāo)訓(xùn)練語音LSFs參數(shù)矢量,i=1,2,...L,從而形成了估算目標(biāo)線性頻譜頻率矢量。如下式:

        帶寬更改:目標(biāo)語音的平均共振峰帶寬值與權(quán)值分配最高的目標(biāo)LSF矢量相似,一旦目標(biāo)LSF矢量對應(yīng)的帶寬值求出,帶寬值由每對線性頻譜對間的距離表征,然后通過更改每對線性頻譜對間的距離,得到的值即可將其近似看作是目標(biāo)語音的共振峰帶寬值。帶寬更改方法如下:

        首先在估算的目標(biāo)LSF矢量ωo中找到線性頻譜對對應(yīng)于每個共振峰頻率位置, i=1,...4,另外,在分配權(quán)值最高的目標(biāo)LSF矢量ωt中找到線性頻譜對,然后,根據(jù)對應(yīng)的LSF距離,在估算目標(biāo)頻譜中對每個共振峰頻率估算一個近似帶寬的值,再估算權(quán)值最高的LSF矢量的帶寬值。

        然后計算平均共振峰帶寬,找到帶寬比:

        最后,用估算的帶寬比調(diào)整線性頻譜對:

        3.3 基音頻率轉(zhuǎn)變

        韻律轉(zhuǎn)變作為語音轉(zhuǎn)變的一部分,卻很少被重視,對于韻律轉(zhuǎn)變的研究相對較少,特別地對于基音頻率F0,是體現(xiàn)說話者個性特征的關(guān)鍵因素[13]?;纛l率采用的是一種線性轉(zhuǎn)變方法進(jìn)行更改的,將源說話者測試語音的每一幀基音頻率乘于常數(shù)a,再加上常數(shù)b。a和b由源和目標(biāo)說話者訓(xùn)練語音求得[7]。

        圖4 帶寬更改前后頻譜圖

        b=μt-aμs×μs、μt代表源和目標(biāo)說話者基音均值。因此,基音轉(zhuǎn)變因子可以表示為

        3.4 系統(tǒng)運行時間

        為驗證本系統(tǒng)在運行效率上確有提升,該文統(tǒng)計了3段語音,通過本系統(tǒng)進(jìn)行轉(zhuǎn)換所消耗時長,并與原有系統(tǒng)消耗時長進(jìn)行了對比。在訓(xùn)練時,該算法和傳統(tǒng)GMM算法均采用語音數(shù)據(jù)庫中的100句語音數(shù)據(jù)進(jìn)行訓(xùn)練,GMM算法的高斯混合度取8。如表1所示,在運行時間上,本系統(tǒng)較傳統(tǒng)方法縮短75%左右,因而較傳統(tǒng)方法提高了效率。

        表1 語音轉(zhuǎn)換性能測試(系統(tǒng)運行時間)

        4 仿真實驗

        文中所用到的數(shù)據(jù)由三名實驗者訓(xùn)練而得,兩名中年男子和一名中年女子。每個實驗者在全消音室環(huán)境下錄入1142句語音數(shù)據(jù),每個實驗者發(fā)音都很清晰,沒有發(fā)音不清晰或者不規(guī)范的現(xiàn)象。將其中一名男子A數(shù)據(jù)分別與另外一名男子B和另一女子C數(shù)據(jù)做對齊訓(xùn)練,然后錄取該男子一段語音,用兩組對齊數(shù)據(jù),分別對其做轉(zhuǎn)變實驗。

        該文所采用的輸入語音均為8KHz采樣,然后采用HSM模型進(jìn)行分析合成。聲道特征參數(shù)為14維LSF矢量。

        4.1 結(jié)果分析

        圖5(a)展示了源說話者A、目標(biāo)說話者C及由該方法和傳統(tǒng)方法轉(zhuǎn)變后的語音波形圖。從圖中可以看出,轉(zhuǎn)變后的語音波形已經(jīng)與目標(biāo)說話者C語音波形有一定相似,并且較傳統(tǒng)方法轉(zhuǎn)換性能相當(dāng),甚至優(yōu)于傳統(tǒng)方法。

        圖5 語音波形圖及語譜圖

        圖5(b)顯示了源說話者A、目標(biāo)說話者C及由本文系統(tǒng)轉(zhuǎn)變后的語音頻譜圖。從圖中可以看出,源說話者具有更多的高頻部分能量值,而目標(biāo)說話者則相對較少,很明顯由轉(zhuǎn)變后的語譜圖可以看出,其更接近于目標(biāo)說話者的語譜圖。

        4.2 主觀測試

        主觀測試也是判斷一個語音轉(zhuǎn)換系統(tǒng)效果好壞的重要依據(jù)。該文采用的主觀測試方法是一種較為普遍的方案,用A表示源說話者語音,用B表示目標(biāo)說話者語音,用X表示轉(zhuǎn)換后的語音,讓實驗者通過主觀聽覺來分辨X接近A或者B。在本實驗中,對兩個目標(biāo)說話者均進(jìn)行測試,分別要求5個測試者對兩個目標(biāo)說話者進(jìn)行20句轉(zhuǎn)換語音的ABX測試,測試結(jié)果如表2所示。

        表2 ABX測試

        從表2很明顯可以看出,經(jīng)過該文方法轉(zhuǎn)變后的語音更接近于目標(biāo)說話者。

        5 總結(jié)與展望

        該文針對嵌入式機(jī)器人實時性要求高且內(nèi)核小的特點,提出一種改進(jìn)的分段碼書轉(zhuǎn)變方法,通過匹配LSF參數(shù)相對距離求取的加權(quán)系數(shù),實現(xiàn)碼字的預(yù)測重構(gòu),并對預(yù)測的碼字進(jìn)行帶寬修正。實驗證明,該文所描述的語音轉(zhuǎn)換方法,克服了頻譜偏移問題,高效實現(xiàn)了源說話者語音向目標(biāo)說話者語音個性特征的轉(zhuǎn)變。系統(tǒng)運行時間較傳統(tǒng)方法縮短75%左右,更適用于嵌入式機(jī)器人,使機(jī)器人在基于語音的人機(jī)交互過程中變得更加自然。

        [1]Wu CH,Hsia CC,Liu TH,et al.Voice conversion using duration-embedded bi-HMMs for expressive speech synthesis[J].IEEE Transactions on Audio,Speech,and Language Processing,2006,14(4):1109-1116.

        [2]Zuo G,Liu W.Genetic algorithm based RBF neural network for voice conversion[C].Intelligent Control and Automation,2004.Fifth World Congress on.IEEE,2004,5:4215-4218.

        [3]Desai S,Raghavendra E V,Yegnanarayana B,et al.Voice conversion using artificial neural networks[C].IEEE International Conference on Acoustics,Speech and Signal Processing,2009:3893-3896.

        [4]Stylianou Y,CappéO,Moulines E.Continuous probabilistic transform for voice conversion[J].IEEE Transactions on Speech and Audio Processing,1998,6(2):131-142.

        [5]Kain A B.High resolution voice transformation[D].Rockford College,2001.

        [6]Stylianou Y,Cappe O.A system for voice conversion based on probabilistic classification and a harmonic plus noise model[C].IEEE International Conference on Acoustics,Speech and Signal Processing,1998:281-284.

        [7]Arslan L M.Speaker transformation algorithm using segmental codebooks(STASC)[J].Speech Communication,1999,28(3):211-226.

        [8]Abe M,Nakamura S,Shikano K,et al.Voice conversion through vector quantization[C].IEEE International Conference on Acoustics,Speech,and Signal Processing,1988:655-658.

        [9]Erro D,Moreno A,Bonafonte A.Flexible harmonic/stochastic speech synthesis[C].6th ISCA Workshop on Speech Synthesis.2007.

        [10]Zhi-Hua J,Zhen Y.Voice conversion using Viterbi algorithm based on Gaussian mixture model[C].IEEE International Symposium on Intelligent Signal Processing and Communication Systems,2007:32-35.

        [11]Xu N,Shao X,Yang Z.A Novel Voice Morphing System Using Bi-GMM for High Quality Transformation[C].IEEE International Conference on Software Engineering,Artificial Intelligence,Networking,and Parallel/Distributed Computing,2008:485-489.

        [12]Ye H,Young S.Quality-enhanced voicemorphing using maximum likelihood transformations[J].IEEE Transactions on Audio,Speech,and Language Processing,2006,14(4):1301-1312.

        [13]Kuwabara H,Sagisak Y.Acoustic characteristics of speaker individuality:Control and conversion[J].Speech communication,1995,16(2):165-173.

        A Highly Efficient Voice Conversion Method Based on Codebook Mapping

        WANG Zhi-wei1,XU Ning1,2,3,4,LIU Xiao-feng1,2,3

        (1.School of IoT Engineering,Hohai University,Changzhou 213022,China;2.Hohai University-Alderbaran Robotics Laboratory for Cognition and Robotics,Changzhou 213022,China;3.Changzhou key Laboratoy of Robotics and Intelligent Technology,Changzhou 213022,China;4.Ministry of Education Key Lab of Broadband Wireless Communication and SensorNetwork Technology,Nanjing 210003,China)

        In human-robot interaction,it is desired to have synthetic voices which sound natural and can be personalized for each user.One solution is to use voice conversion,in which the characteristics of a sourcemechanical voice are changed to produce a sound corresponding to a given target natural voice.However,the popular voice conversion method is computationally intensive,and not suitable for application in a robot with small kernel embedded.This paper introduces a high efficient improved segmental codebook conversion method.It firstly calculates the weighting coefficient by matching the relative distance of the Line Spectral Frequency(LSF)parameters to realize the prediction refactoring of code word.Secondly,the bandwidth correction for the predicted code word is used to solve the problem of spectrum shift.The test results show that themethod is approximately 75%faster than the traditional Gaussian Mixture Model(GMM)under the comparative conversion performance.

        Voice Conversion;Embedded Systems;Harmonic Stochastic Model;Segmental Codebook;Man-machine Interaction

        10.3969/j.issn.1002-2279.2014.01.018

        TN912.3

        :A

        :1002-2279(2014)01-0065-05

        國家自然科學(xué)基金(60905060),中央高?;A(chǔ)研究項目(2011B11114,2012B07314,2012B04014),教育部重點實驗室開放基金(NYKL201305)

        王志衛(wèi)(1989-),男,江西人,碩士研究生,主研方向:人機(jī)互動。

        2013-10-11

        猜你喜歡
        基音矢量頻譜
        矢量三角形法的應(yīng)用
        一種用于深空探測的Chirp變換頻譜分析儀設(shè)計與實現(xiàn)
        基于基音跟蹤的語音增強(qiáng)研究
        一種基于稀疏度估計的自適應(yīng)壓縮頻譜感知算法
        基于矢量最優(yōu)估計的穩(wěn)健測向方法
        三角形法則在動態(tài)平衡問題中的應(yīng)用
        認(rèn)知無線電頻譜感知技術(shù)綜述
        樂理小知識
        小演奏家(2014年11期)2014-12-17 01:18:52
        一種改進(jìn)的基音周期提取算法
        一種基于功率限制下的認(rèn)知無線電的頻譜感知模型
        女的把腿张开男的猛戳出浆| 国产精品综合色区在线观看| 99在线精品免费视频九九视| 69国产成人精品午夜福中文| 日韩欧美人妻一区二区三区| 国产精品第1页在线观看| 亚洲成片在线看一区二区| 全亚洲高清视频在线观看| 97日日碰曰曰摸日日澡| 国产精品久久久久久久久鸭| 国产精品香蕉网页在线播放| 在线日本国产成人免费精品| 樱桃视频影院在线播放| 亚洲一区二区三区偷拍女厕| 五月激情狠狠开心五月| 亚洲精品一区三区三区在线| 亚洲欧美乱综合图片区小说区| 中国一级毛片在线观看| 伊人久久婷婷综合五月97色| 漂亮丰满人妻被中出中文字幕| 亚洲av无码一区二区三区不卡| 国产亚洲欧美在线| 国产极品嫩模大尺度在线播放| 色婷婷久久亚洲综合看片| 狠狠做深爱婷婷久久综合一区| 亚洲偷自拍另类图片二区| 亚洲发给我的在线视频| 亚洲自偷精品视频自拍| 狠狠躁夜夜躁人人爽天天不卡软件| 中国女人a毛片免费全部播放| 蜜桃传媒免费在线观看| 天堂中文最新版在线中文| 欧美成人一区二区三区| 在线毛片一区二区不卡视频| 久久精品国产亚洲av天美| 无码孕妇孕交在线观看| 亚洲色图+国产精品| 精品少妇白浆一二三区| 欧美疯狂性受xxxxx喷水| 双乳被一左一右吃着动态图| 杨幂Av一区二区三区|