亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于元學習的雷達小樣本目標識別方法及改進

        2022-05-23 09:15:14孫晶明虞盛康
        關(guān)鍵詞:方法模型

        孫晶明, 虞盛康, 孫 俊

        (1. 南京電子技術(shù)研究所, 江蘇 南京 210039;2. 中國電子科技集團公司智能感知技術(shù)重點實驗室, 江蘇 南京 210039)

        0 引 言

        雷達自動目標識別(radar automatic target recognition,RATR)是雷達研究與應(yīng)用的一個重要領(lǐng)域。高分辨距離像(high resolution range profile,HRRP),即一維距離像,能夠反映目標的幾何結(jié)構(gòu)、散射點能量分布等特征,且易于獲取和處理,是實現(xiàn)實時目標識別的重要雷達特征,因此成為國內(nèi)外備受關(guān)注的研究熱點。特別是近年來,隨著機器學習特別是深度學習理論的快速發(fā)展,RATR性能也隨之大幅提升。

        由于雷達探測的目標、環(huán)境極其復(fù)雜,雷達系統(tǒng)性能的限制導致獲取的目標信息較為有限。相對于傳統(tǒng)的目標探測,目標識別需要測量更深層次的目標特征,將占用更多的時間、頻譜、能量等雷達資源,給RATR工程實現(xiàn)造成較強的約束。而且,由于當前較成熟的目標識別技術(shù)采用的都是有監(jiān)督學習,需要大量帶標簽樣本進行訓練才能獲得較好的性能。另外,HRRP信號因其數(shù)據(jù)采集環(huán)境的不確定性導致同類樣本之間也存在較大差異。其特點可以歸納為3個敏感性:姿態(tài)敏感性、平移敏感性、幅度敏感性。以這3個敏感性為代表的數(shù)據(jù)特點給RATR帶來巨大挑戰(zhàn)。然而在實際雷達探測過程中,特別是實戰(zhàn)環(huán)境下,受不確定環(huán)境、時效性約束、資源受限等條件的制約,很難獲取目標的完備數(shù)據(jù),使得需要大量且完備數(shù)據(jù)用于訓練的深度算法在面對小樣本識別任務(wù)時無法得到滿意的判別結(jié)果,這是深度學習應(yīng)用于RATR的局限性。

        針對RATR的小樣本識別問題,目前主要有3大類解決方法。第1類方法是數(shù)據(jù)生成。文獻[12-13]都基于生成對抗網(wǎng)絡(luò)生成高質(zhì)量的樣本并實現(xiàn)數(shù)據(jù)增擴,使判別器在標簽樣本監(jiān)督學習的基礎(chǔ)上得到進一步優(yōu)化,提高其在小樣本條件下的識別能力。第2類方法是遷移學習。通過從大量其他任務(wù)的數(shù)據(jù)中充分挖掘各種判別及表示信息,并將其作為知識或者先驗傳遞到小樣本識別任務(wù)中,以減輕過擬合問題。文獻[15-16]在多任務(wù)學習框架下,只使用一個比較復(fù)雜的大模型,使用不分幀的所有樣本對模型參數(shù)進行學習,提高了訓練效率,參數(shù)估計也更加準確。第3類方法是元學習。元學習的泛化目標和學習內(nèi)涵使其能夠有效提升小樣本識別性能,特別是其中的度量學習方法非常簡單高效。度量學習的目標是學習一個具有較好泛化能力的圖像到嵌入特征空間的映射,然后在嵌入特征空間中直接求解最近鄰達到預(yù)測分類的目的。該嵌入特征空間的顯著特點是:同類之間的圖像嵌入特征距離較近,異類之間的圖像嵌入特征距離較遠。上述三類方法中,數(shù)據(jù)生成方法可視為從數(shù)據(jù)角度解決小樣本識別問題的方法,遷移學習和元學習方法可視為從模型角度解決小樣識別問題的方法。

        本文借鑒元學習在圖像識別中的應(yīng)用,建立了適用于HRRP-RATR的基于元學習的小樣本識別框架。以卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)為主干網(wǎng)絡(luò),利用其強大的特征提取和表示學習能力,通過從多個相關(guān)任務(wù)中學習到的元知識改善新任務(wù)的性能。并引入遷移學習思想,提出一種改進的小樣本學習方法,針對新任務(wù)對網(wǎng)絡(luò)參數(shù)進行微調(diào)更新,進一步提升識別精度。基于實測HRRP數(shù)據(jù),通過詳細的性能對比實驗分析了所提方法和元學習、遷移學習方法的應(yīng)用邊界條件,獲得了以下有實用價值的結(jié)論,可指導算法實際應(yīng)用:

        (1) 訓練集和測試集的類別越相近,用訓練集學習到的特征對新的小樣本識別任務(wù)越有用,性能提升越大。類別相關(guān)度較大,推薦使用元學習;類別相關(guān)度較小,推薦使用遷移學習。

        (2) 極小樣本條件下,元學習的識別性能優(yōu)勢很明顯,其泛化性很突出。當樣本增多時,遷移學習的識別性能更穩(wěn)健。

        (3) 元學習的適用條件較苛刻,要求歷史積累樣本所含目標類別較多。這一點對實測數(shù)據(jù)積累提出了要求。

        (4) 所提方法可顯著提升元學習的綜合識別性能,具有更突出的識別泛化性,不受樣本數(shù)和類別相關(guān)度的限制。測試集與訓練集的類別越不相近,樣本越多時,性能改善越明顯。

        1 兩種典型的小樣本識別方法

        小樣本識別在理論上屬于小樣本學習問題。小樣本學習的定義如下:

        小樣本學習。小樣本學習是由經(jīng)驗、任務(wù)和性能共同確定的一類典型機器學習問題,其特征是對于任務(wù),經(jīng)驗僅包含少量的有監(jiān)督信息樣本。

        由定義1可知,解決小樣本學習問題的關(guān)鍵是要引入先驗知識,即任何不依賴于當前任務(wù)所獲取樣本的信息。下面簡要介紹兩種解決小樣本學習問題的典型方法:元學習和遷移學習。

        1.1 基于元學習的小樣本識別方法

        針對定義1中的小樣本學習問題,元學習主要通過元學習器跨任務(wù)提取的元知識改善新任務(wù)的性能。元學習器作為先驗知識用以引導小樣本學習任務(wù)。

        元學習的代表方法之一為度量學習,也稱為相似度學習,采用距離計算的方式度量樣本間的相似度。距離函數(shù)一般采用歐氏距離或余弦距離等?;诙攘繉W習的元學習方法的識別處理框架,即本文提出的適用于HRRP-RATR的基于元學習的小樣本識別框架,如圖1所示。該框架具有兩個核心模塊:特征嵌入模塊和距離度量模塊。特征嵌入模塊將樣本映射到特征向量空間,距離度量模塊計算出待測樣本和已知樣本的相似度,則相似度最大(即距離最近)的已知樣本所屬類別即為待測樣本的識別結(jié)果。

        圖1 基于度量學習的元學習方法的識別處理框架

        從基于度量學習的元學習方法的識別處理流程可以看出,其實現(xiàn)非常簡單,下面結(jié)合元學習的學習內(nèi)涵和泛化目標對元學習方法在小樣本識別任務(wù)中具有突出的泛化性進行分析。

        在元學習的訓練階段,從原訓練集中隨機采樣了一批子集,每個子集(包括1對支撐集和查詢集)都對應(yīng)一個類似目標任務(wù)的-way-shot分類任務(wù)(表示類別數(shù)量,表示每一類樣本的數(shù)量)。每一輪迭代都對多個任務(wù){(diào)}依次進行訓練,每個任務(wù)訓練后特征嵌入模塊的參數(shù)都會更新。

        從元學習的訓練過程可以看出,元學習學習的是多個相似任務(wù)間存在的共性,不同任務(wù)都有一個與自己適配的最優(yōu)函數(shù),因此元學習是在整個函數(shù)空間上做學習,要學習出這些最優(yōu)函數(shù)遵循的共同屬性。

        普通學習和元學習的目標函數(shù)分別為

        (1)

        (2)

        通過對比式(1)和式(2)可以看出,與普通學習只考慮最小化給定任務(wù)下訓練集上的損失函數(shù)不同,元學習的目標函數(shù)考慮所有訓練任務(wù),最小化其在各自查詢集上的損失函數(shù)之和。

        另一方面,從元學習的訓練過程還可以看出,元學習的泛化目標是從多個不同但相關(guān)的任務(wù)入手,推廣到新任務(wù)。

        普通學習和元學習的評價指標分別為

        (3)

        (4)

        通過對比式(3)和式(4)可以看出,與普通學習只評估給定任務(wù)下測試集上的預(yù)測準確率不同,元學習評估的是所有測試任務(wù)在各自查詢集上的平均預(yù)測準確率。

        因此,從上述對普通學習和元學習的學習內(nèi)涵和泛化目標兩方面的對比可以看出,元學習針對的是小樣本、多任務(wù)的學習場景,可解決在小樣本識別任務(wù)中快速學習和快速適應(yīng)的問題,具有突出的泛化性。

        1.2 基于遷移學習的小樣本識別方法

        不同于元學習,針對定義1中的小樣本學習問題,遷移學習將樣本充足的源任務(wù)中所獲取的知識遷移至目標任務(wù),用以改善小樣本學習任務(wù)的性能。其中遷移的知識即為先驗知識。

        遷移學習的代表方法之一,基于網(wǎng)絡(luò)的遷移,即構(gòu)建參數(shù)共享的模型,其中最經(jīng)典的是微調(diào)。首先在源域大樣本訓練集上預(yù)訓練一個網(wǎng)絡(luò)模型,然后將該模型的較淺層參數(shù)直接遷移到目標域的網(wǎng)絡(luò)模型上,再用目標域的少量訓練數(shù)據(jù)進行微調(diào)即可,其原理圖如圖2所示。一般來說,源域和目標域之間的關(guān)聯(lián)性越強,遷移學習從源域數(shù)據(jù)中學習到的特征(知識)越魯棒,遷移學習的效果就越好。

        圖2 基于網(wǎng)絡(luò)的深度遷移學習方法原理圖

        2 改進的HRRP小樣本識別方法

        根據(jù)第1節(jié)所述的基于元學習的小樣本識別方法,本節(jié)提出一種改進的小樣本識別方法,以進一步提升識別精度。先采用元學習的訓練方式,基于源域大樣本訓練集構(gòu)建以CNN為主干的特征表示網(wǎng)絡(luò),再結(jié)合遷移學習思想,針對新任務(wù)利用目標域的少量訓練數(shù)據(jù)對網(wǎng)絡(luò)參數(shù)進行微調(diào)更新,即可獲得適用于目標任務(wù)的泛化性突出的識別模型。

        需要指出的是,后文中的HRRP均指原始HRRP的幅度信息的簡稱。

        圖3給出了改進的元學習小樣本識別方法的流程圖。整套流程分為3個階段:訓練階段、遷移階段和測試階段。其中訓練階段在源域進行,遷移階段和測試階段在目標域進行。訓練階段的數(shù)據(jù)預(yù)處理步驟包括幅度歸一化和樣本平移擴充,而遷移階段和測試階段的數(shù)據(jù)預(yù)處理步驟僅包括幅度歸一化。訓練階段基于源域大樣本訓練集進行網(wǎng)絡(luò)模型訓練,訓練完成即得到源域識別模型;遷移階段在源域識別模型上利用目標域的少量訓練數(shù)據(jù)對網(wǎng)絡(luò)參數(shù)進行微調(diào)更新,即得到目標域識別模型;測試階段利用目標域識別模型對待測樣本一一進行判別,得到識別結(jié)果。

        圖3 改進的元學習小樣本識別方法流程圖

        下面對所提方法采用的數(shù)據(jù)預(yù)處理步驟和網(wǎng)絡(luò)模型進行具體介紹。

        2.1 數(shù)據(jù)預(yù)處理

        針對HRRP的幅度敏感性問題,采用幅度歸一化方式。對于給定的HRRP∈,按極差變換方式進行歸一化處理:

        (5)

        式中:min(·)表示取最小值;max(·)表示取最大值。歸一化HRRP的動態(tài)范圍會統(tǒng)一到[0,1]內(nèi)。

        針對HRRP的平移敏感性問題,采用樣本平移擴充方式。對于歸一化后的HRRP′∈,按循環(huán)平移方式,得到平移后的HRRP″∈。″可以是′的左循環(huán)平移或右循環(huán)平移。采用這種方式,既解決了平移敏感性問題,也起到了數(shù)據(jù)增擴的效果。

        訓練階段采用幅度歸一化和樣本平移擴充兩步是為了保證源域識別模型具有一定的泛化性;而遷移階段僅需針對目標任務(wù)對模型進行微調(diào),因此不需要再進行樣本平移擴充。

        2.2 網(wǎng)絡(luò)模型

        所提方法采用的網(wǎng)絡(luò)模型如圖4所示。其特征表示網(wǎng)絡(luò)(對應(yīng)圖1中的特征嵌入模塊)采用CNN,包含5個卷積層,每層都后接一個非線性激活層,以及5個最大池化層。分類器部分(對應(yīng)圖1中的距離度量模塊)采用歐氏距離度量,后接一個Softmax輸出層。在距離度量時,采用每類支撐集樣本特征向量的平均值作為原型,計算查詢集樣本特征向量到原型的歐式距離。模型輸入是經(jīng)過數(shù)據(jù)預(yù)處理后的HRRP,且每個HRRP的維度是1×1 024。模型輸出是各目標類型的近似后驗概率分布。該模型的顯著特點是采用不同于一般圖像識別的一維卷積核。

        圖4 網(wǎng)絡(luò)模型結(jié)構(gòu)圖

        需要指出的是,在圖3所示的遷移階段,需要對圖4中最后一個卷積層的參數(shù)進行微調(diào)更新,以適用于特定的目標任務(wù)。而前面幾層經(jīng)過源域大樣本訓練集的訓練,已獲得足夠的共性特征表示能力,因此不需要進行參數(shù)微調(diào)。

        結(jié)合圖3和圖4可以看出,所提方法的整套流程沒有繁瑣的數(shù)據(jù)預(yù)處理過程,核心步驟就是網(wǎng)絡(luò)模型的訓練、遷移、測試,且網(wǎng)絡(luò)模型僅采用5層一維卷積,每層都用64個卷積核,網(wǎng)絡(luò)寬度統(tǒng)一,模型參數(shù)量較小,因而具有較簡單的算法邏輯和網(wǎng)絡(luò)模型,可用于雷達目標識別的工程化應(yīng)用。

        3 性能對比實驗與分析

        3.1 實驗設(shè)置

        實驗數(shù)據(jù)采用某波段雷達錄取的9種飛機目標的實測寬帶HRRP數(shù)據(jù)。其中5種飛機屬于P類,另4種飛機屬于Q類。該實測數(shù)據(jù)的有關(guān)參數(shù)和實驗設(shè)置情況如表1所示。由表1中信息可知,所有HRRP樣本均勻覆蓋0°~180°的目標姿態(tài)角,且信噪比水平較高,都被預(yù)處理為統(tǒng)一維度1×1 024。由于該數(shù)據(jù)集包含較多的目標類別,并具有目標姿態(tài)完備性,因此可被用來驗證小樣本識別算法的性能,具有一定的代表性。

        表1 實驗數(shù)據(jù)設(shè)置

        原始數(shù)據(jù)集總共有9×18 000=162 000個樣本,按不同的目標類別分為訓練集和測試集,然后將訓練集和測試集按目標姿態(tài)角均勻隨機抽取樣本,分別分為支撐集和查詢集。表1中的=5,10,20,45,90,180,共有6種樣本數(shù)設(shè)置。以=180為例,相當于測試集支撐集中每種目標平均每1°有1個樣本,由于HRRP的姿態(tài)敏感性,這對于HRRP數(shù)據(jù)而言屬于小樣本情況。因此,當持續(xù)變小直至=5時,這對于HRRP數(shù)據(jù)而言屬于極小樣本情況。

        根據(jù)測試集任務(wù)不同,將實驗分為3組,具體目標型號設(shè)置如表2所示。

        表2 實驗分組設(shè)置

        通過表1和表2可以看出,實驗?zāi)康木褪且骄恐渭瘶颖緮?shù)和任務(wù)相關(guān)度這兩個關(guān)鍵因素對小樣本學習方法的性能影響,以獲得不同方法的應(yīng)用邊界條件。其中,任務(wù)相關(guān)度在這里主要體現(xiàn)為類別相關(guān)度,即樣本所屬類別的相近程度。例如,P1、P3和Q1的樣本分別屬于3種不同目標,但P1和P3樣本的類別相關(guān)度高于Q1和P3樣本的類別相關(guān)度,因為P1和P3同屬于P類,而Q1屬于Q類,即從大類上看,P1和P3相近,而Q1和P3不相近。

        考慮到數(shù)據(jù)條件的相似性與可比性,主要對比所提方法與元學習、遷移學習兩種典型小樣本學習方法以及深度學習方法的識別性能。4種方法均采用同樣的特征表示網(wǎng)絡(luò)結(jié)構(gòu),模型參數(shù)設(shè)置如圖4所示。而且,訓練參數(shù)(優(yōu)化器、學習率等)設(shè)置都一樣,且都不使用正則化。

        3.2 實驗結(jié)果

        為了更好地說明方法的性能邊界,也同時給出大樣本情況下的識別性能方便參照。大樣本是指測試集的支撐集樣本數(shù)為3×16 200。

        采用平均識別率作為識別性能評估指標,其計算公式為

        (6)

        式中:表示第類正確分類的測試集查詢集樣本數(shù);表示第類總的測試集查詢集樣本數(shù);是測試集的目標類型數(shù)。

        實驗1的識別性能對比結(jié)果如圖5所示。此時,測試集選取的3種飛機都來自P類,訓練集和測試集的類別組成不相近,即任務(wù)相關(guān)度較小??梢钥吹竭w移學習的性能優(yōu)于元學習,且隨著樣本增多,優(yōu)勢越來越明顯。而所提方法的性能始終優(yōu)于元學習,且性能逼近遷移學習。特別是在樣本較多時,如圖5中虛線橢圓標示區(qū)域,所提方法相對于元學習的性能提升非常明顯,最大提升值達到8%。

        圖5 實驗1的識別性能對比圖

        實驗2的識別性能對比結(jié)果如圖6所示。此時,測試集選取的3種飛機都來自Q類,訓練集和測試集的類別組成不相近,即任務(wù)相關(guān)度小??梢钥吹皆獙W習、遷移學習、深度學習3種方法的性能曲線相對關(guān)系與圖5類似,不過此時遷移學習相對于元學習的性能優(yōu)勢更加明顯。而所提方法的性能始終優(yōu)于另外3種方法。特別是在樣本較多時,如圖6中虛線橢圓標示區(qū)域,所提方法相對于元學習的性能提升與圖5相比更加明顯,最大提升值達到19%。

        圖6 實驗2的識別性能對比圖

        結(jié)合圖5和圖6所示的識別性能對比結(jié)果可知,僅在樣本特別少時,元學習的性能才略優(yōu)于遷移學習;從整體來看,在任務(wù)相關(guān)度小時,元學習并不適用,遷移學習性能更優(yōu),而所提方法相對于元學習的性能提升十分明顯。

        實驗3的識別性能對比結(jié)果如圖7所示。此時,測試集選取的3種飛機涵蓋P類和Q類,訓練集和測試集的類別組成相近,即任務(wù)相關(guān)度大??梢钥吹皆跇颖咎貏e少時,如圖7中虛線橢圓標示區(qū)域,元學習相對于遷移學習的性能優(yōu)勢非常明顯,最大性能差達到13%;但隨著樣本增多,元學習的性能逐漸被遷移學習超越。而所提方法的性能始終優(yōu)于另外3種方法,整體性能提升明顯。

        從圖7的識別性能對比結(jié)果可知,在任務(wù)相關(guān)度大時,用源域大樣本訓練集學習到的特征對新任務(wù)更有用,元學習較適用,特別是在樣本極少時,元學習的性能優(yōu)勢十分明顯;在樣本較多時,遷移學習性能更優(yōu);而所提方法的整體性能較其他方法提升明顯。

        圖7 實驗3的識別性能對比圖

        進一步,對圖5~圖7展示的識別結(jié)果進行綜合對比可知,在歷史積累樣本類別較多,與目標任務(wù)相關(guān)度較大的極小樣本情況下,元學習性能優(yōu)勢十分突出;但元學習的適用條件較苛刻,當任務(wù)相關(guān)度較小時,遷移學習的性能更穩(wěn)健;所提方法相對于元學習的性能提升非常明顯,特別是在任務(wù)相關(guān)度較小時,樣本越多,性能改善越明顯。

        3.3 實驗結(jié)論

        根據(jù)上述實驗結(jié)果,形成如下基本結(jié)論:

        (1) 源域和目標域的任務(wù)相關(guān)度越大,則用源域大樣本訓練集學習到的特征對新的小樣本識別任務(wù)越有用,性能提升越大。在任務(wù)相關(guān)度較大時,元學習性能更優(yōu);在任務(wù)相關(guān)度較小時,遷移學習性能更優(yōu)。

        (2) 極小樣本條件下,元學習的識別性能優(yōu)勢很明顯,其泛化性很突出。隨著樣本增多,元學習的識別性能逐漸被遷移學習超越。

        (3) 元學習的適用條件較苛刻,要求歷史積累樣本所含目標類別較多。

        (4) 所提方法可顯著提升元學習的綜合識別性能。源域和目標域的任務(wù)相關(guān)度越小,樣本越多時,性能改善越明顯。

        4 結(jié) 論

        本文提出了一種改進的基于元學習的小樣本HRRP-RATR方法。以CNN為主干構(gòu)建特征表示網(wǎng)絡(luò),通過從源域大樣本訓練集中學習到的元知識改善新的小樣本識別任務(wù)的性能,并引入遷移學習思想,針對新任務(wù)對網(wǎng)絡(luò)參數(shù)進行微調(diào)更新,全面顯著提升識別精度。在實測HRRP數(shù)據(jù)上進行了詳細的性能測試實驗和結(jié)果分析,獲得了4條具有實用價值的結(jié)論,可為算法工程化應(yīng)用提供指導。所提方法與現(xiàn)有技術(shù)相比有如下顯著優(yōu)點:

        (1) 具有更突出的識別泛化性,不受支撐集樣本數(shù)和任務(wù)相關(guān)度的限制;

        (2) 相對于元學習方法,識別性能整體提升明顯;

        (3) 測試集與訓練集的類別越不相近,樣本越多時,性能改善越明顯;

        (4) 具有較簡單的算法邏輯和網(wǎng)絡(luò)模型,可用于雷達目標識別的工程化應(yīng)用。

        在未來工作中,需重點考慮的兩個小樣本目標識別問題是:在小樣本場景下,能夠達到或者逼近充足樣本下的識別性能;在充足樣本場景下,識別性能仍然有一定提升。另外,元學習+遷移學習的處理方式可為小樣本非合作目標識別提供有效途徑,值得進一步深入研究。

        猜你喜歡
        方法模型
        一半模型
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        學習方法
        可能是方法不對
        3D打印中的模型分割與打包
        用對方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
        四大方法 教你不再“坐以待病”!
        Coco薇(2015年1期)2015-08-13 02:47:34
        賺錢方法
        无码视频一区=区| 人妻丝袜av中文系列先锋影音| 四虎影库久免费视频| 久久中国国产Av秘 入口| 国产美女冒白浆视频免费| 久久精品免费中文字幕| a级毛片免费观看在线| 午夜短视频日韩免费| 日韩一区二区三区天堂| 99久久精品在线视频| 日韩毛片免费无码无毒视频观看| 精品一级毛片| 亚洲色图第一页在线观看视频| 蜜桃av噜噜一区二区三区策驰| 亚洲人成网址在线播放| 亚洲成AⅤ人在线观看无码| 国产av一区二区内射| 国产精品久久久天天影视| 亚洲午夜精品久久久久久人妖 | 日韩一二三四区在线观看| 夜夜高潮夜夜爽国产伦精品| 又硬又粗又大一区二区三区视频| 美女极度色诱视频国产免费 | 亚洲一区二区三区偷拍厕所| 国产喷水1区2区3区咪咪爱av| 日韩AV无码一区二区三区不卡毛片| 丰满人妻无套内射视频| 夜夜爽夜夜叫夜夜高潮| 国产一区二区三区影院| 日韩中文字幕网站| 日韩精品在线观看在线| 亚洲色国产欧美日韩| 亚洲av日韩aⅴ无码电影| 精品亚洲国产亚洲国产| 国产av国片精品jk制服| 国内精品九九久久久精品| 热热久久超碰精品中文字幕| 丝袜美腿一区二区国产| 国产亚洲情侣一区二区无| 国产午夜精品美女裸身视频69| 亚洲网站一区在线播放|