亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        自適應光學系統(tǒng)迭代控制算法超參數(shù)優(yōu)化

        2024-02-18 06:01:28羅宇湘楊慧珍何源烽張之光
        應用光學 2024年1期
        關鍵詞:優(yōu)化方法

        羅宇湘,楊慧珍,何源烽,張之光

        (1.江蘇海洋大學 電子工程學院,江蘇 連云港 222005;2.金陵科技學院 網絡與通信工程學院,江蘇 南京 211169)

        引言

        自適應光學(adaptive optics,AO)技術采用變形鏡或空間光調制器校正光波前畸變,改善光學系統(tǒng)性能,已經在天文領域[1]、生物領域[2]、醫(yī)學領域[3]和半導體領域[4]得到應用。傳統(tǒng)自適應光學系統(tǒng)需要獨立的波前傳感器,系統(tǒng)結構復雜;而以系統(tǒng)性能指標作為目標函數(shù),使用優(yōu)化算法迭代控制變形鏡電壓,則能夠在無需波前傳感器的條件下實現(xiàn)波前畸變校正(也稱為無波前探測自適應光學技術)。無波前探測自適應光學系統(tǒng)中,迭代控制算法的超參數(shù)選取決定了自適應光學系統(tǒng)的校正能力。例如在隨機并行梯度下降(stochastic parallel gradient descent algorithm,SPGD)算法中,超參數(shù)選取過小時,會使得系統(tǒng)的收斂速度慢,在結束既定步數(shù)的迭代后,未能達到穩(wěn)定收斂;超參數(shù)選取過大時,在迭代開始階段收斂較快,但算法容易陷入局部極值[5]。自適應光學系統(tǒng)迭代控制算法一般依靠遍歷或者經驗來確定超參數(shù)。近年來,隨著機器學習領域中越來越多的優(yōu)化器被應用于自適應光學系統(tǒng)的迭代控制,采用的優(yōu)化器包括Momentum[6]、Nesterov accelerated gradient(NAG)[7]、AdaGrad[8]、RMSprop[9]、Adam[10-11]、Nadam 等[12],迭代控制算法的超參數(shù)數(shù)目顯著增長,通過遍歷來確定超參數(shù)最優(yōu)值所需的運算量激增。針對這一問題,本文提出一種基于貝葉斯優(yōu)化的自適應光學系統(tǒng)迭代控制算法的超參數(shù)選取方法,能夠以較小的運算量確定超參數(shù)的最優(yōu)值。

        超參數(shù)搜索可以看作是黑箱函數(shù)的優(yōu)化問題,該函數(shù)往往具有非凸特征。采用常規(guī)的遍歷法搜索超參數(shù)可能因為找到一個局部最優(yōu)值而錯過全局最優(yōu)值。PELIKAN M 等于1998 年提出貝葉斯優(yōu)化[13],SNOEK J 等于2012 年將貝葉斯優(yōu)化調整超參數(shù)用于機器學習領域[14]。貝葉斯優(yōu)化具有迭代次數(shù)少、速度快和針對非凸問題依然穩(wěn)健等優(yōu)點,在應用于超參數(shù)優(yōu)化實踐中,已被證明[14-15]與網格搜索[16]和隨機搜索[17]相比,能在更少的評估中獲得更好的結果。和傳統(tǒng)的遍歷法不同,貝葉斯優(yōu)化是一種能夠利用有限的函數(shù)采樣值,以較少的評估次數(shù)獲得復雜目標函數(shù)最優(yōu)值的方法[18]。為了避免陷入局部極值,貝葉斯優(yōu)化通常會加入一定的隨機性,在隨機探索和根據(jù)后驗分布取值之間做出權衡。

        本文采用貝葉斯優(yōu)化方法,選擇適合自適應光學系統(tǒng)迭代控制算法的超參數(shù)。分別以常用的SPGD、Momentum-SPGD 和CoolMomentum-SPGD控制算法為研究對象,以迭代優(yōu)化控制算法的超參數(shù)作為輸入,斯特列耳比(Strehl ratio,SR)值作為輸出,采用貝葉斯優(yōu)化選擇合適的超參數(shù)。分析采用貝葉斯優(yōu)化選擇超參數(shù)的迭代控制算法的校正效果,并將校正結果與遍歷法的結果進行比較。

        1 自適應光學系統(tǒng)迭代控制算法

        傳統(tǒng)的隨機并行梯度下降算法(SPGD)是美國陸軍研究實驗室的VORONTSOV M A 于1998 年提出[19],隨后被廣泛研究[20-22]。SPGD 算法直接對光學系統(tǒng)的性能評價函數(shù)J進行優(yōu)化。當前驅動器控制電壓為 {uj}(j=1,···,N),第n次迭代時,隨機擾動 {δuj}(j=1,···,N)被并行施加到波前校正器的N個驅動器,此時系統(tǒng)性能指標的變化量為 δJ,SPGD 算法的迭代過程可以表示為

        式中:γ為增益系數(shù)。本文采用斯特列耳比SR 作為性能評價函數(shù)J,用于表征畸變波前的校正效果[23],性能評價函數(shù)J越接近于1,表示波前畸變校正效果越好。

        隨著深度學習的發(fā)展,越來越多的優(yōu)化器被提出,并且已經成功與SPGD 算法結合用于自適應光學系統(tǒng)控制,如Momentum-SPGD 算法[7]、CoolMomentum-SPGD 算法[24]、RMSprop-SPGD 算法[10]和Adam-SPGD 算法[12]等。傳統(tǒng)的SPGD 算法只有1 個超參數(shù)即增益系數(shù) γ,Momentum-SPGD 算法和CoolMomentum-SPGD 算法有2 個超參數(shù),分別是學習率和動量系數(shù),表1 比較了3 種迭代控制算法的超參數(shù)。

        表1 不同迭代控制算法的超參數(shù)比較Table 1 Comparison of hyperparameter of different iterative control algorithms

        2 超參數(shù)優(yōu)化方法

        超參數(shù)向量x到模型性能指標的映射記作f(x),其中x∈Rd,超參數(shù)優(yōu)化的目標是在超參數(shù)空間內尋找使得模型性能最優(yōu)的d維超參數(shù)x*,記作:

        在機器學習中,現(xiàn)有的超參數(shù)優(yōu)化方法主要是網格搜索[25]、隨機搜索[17]和貝葉斯優(yōu)化方法[14]。貝葉斯優(yōu)化方法只需要幾個已知樣本點,通過高斯過程回歸計算已知樣本點的后驗概率分布,得到每一個超參數(shù)在每一個取值點的期望均值和方差。其中均值代表這個點最終的期望效果;方差表示這個點的效果的不確定性,方差越大,代表值要用更多的樣本點去探索。

        貝葉斯優(yōu)化方法主要有兩個核心:高斯過程回歸模型和采集函數(shù)。高斯過程回歸模型用于近似表示黑箱目標函數(shù)。令隨機向量X=[x1,x2,···,xn],服從多元高斯分布X~N(μ,Σ),μ為方差,Σ為協(xié)方差矩陣,其中:X1=[x1,···,xm]為已知觀測變量,X2=[xm+1,···,xn]為需要預測的未知變量,則:

        均值和協(xié)方差矩陣為

        根據(jù)貝葉斯公式:P(X2|X1)=P(X2)P(X1|X2)/∫P(X1|X2)P(X2)dX2可得X2的后驗分布:

        式中:μ2|1為預測的未知變量的均值;Σ2|1為預測的未知變量的協(xié)方差矩陣。采集函數(shù)用于估計在已知數(shù)據(jù)條件下最優(yōu)點最有可能出現(xiàn)的位置,主要作用在于平衡探索與利用,使其既能利用先前的已知觀測值加快收斂,又能探索決策空間中不確定性強的地方,避免陷入局部最優(yōu)。

        3 自適應光學系統(tǒng)迭代控制算法超參數(shù)優(yōu)化

        評價迭代控制算法時,既要考慮到迭代控制算法的收斂精度(迭代收斂后的SR 值),也要考慮到控制算法的收斂速度,因此將迭代過程中的SR 值加入性能指標,用SR0表示性能指標:

        式中:SRinter表示控制算法迭代過程中的SR 值;SRend表示控制算法迭代結束后的SR 值;c表示權重系數(shù)。本文分別以迭代300 步、1 000 步時的SR值作為SRinter和SRend,c取值0.6。應根據(jù)具體應用的需求設定考察SR 值的步數(shù)、中間過程與結束時SR 值的權重。

        本文以自適應光學系統(tǒng)迭代控制算法中的超參數(shù)作為貝葉斯優(yōu)化方法中目標函數(shù)的輸入,每組超參數(shù)對應的加權SR 值作為貝葉斯優(yōu)化方法中目標函數(shù)的輸出。先是獲得初始點個數(shù),對初始點進行高斯過程回歸,預測出目標函數(shù)的曲線,本文高斯過程中核函數(shù)選擇Matérn 協(xié)方差函數(shù)。然后選擇合適的采集函數(shù)評估下一個采樣點,常見的采集函數(shù)有概率提升函數(shù)(PI)、期望提升函數(shù)(EI)、置信上界函數(shù)(UCB)。采用單一采集函數(shù)的貝葉斯優(yōu)化算法不可能在所有問題上都表現(xiàn)出最好的性能,因此,還有使用對沖策略組合多種采集函數(shù)的貝葉斯優(yōu)化算法,比如GP-Hedge 算法[26]。本文為尋找目標函數(shù)最大值,采用置信上界作為采集函數(shù):

        式中:μ()表示數(shù)學期望;σ()表示方差;κ為調節(jié)參數(shù),通過控制調節(jié)參數(shù)實現(xiàn)對探索未知和已知數(shù)據(jù)信息之間的平衡。采用概率提升作為采集函數(shù):

        式中:Φ()表示正態(tài)累積分布函數(shù);?是用來平衡探索和利用的隨機參數(shù);f(x+)表示現(xiàn)有的最大值。采用期望提升作為采集函數(shù):

        式中:z=(μ(x)-f(x+))/σ(x)表示對當前最優(yōu)點取值的歸一化。GP-Hedge 算法是在每次迭代中,把從每種采集函數(shù)得到的候選點組成候選點集合,然后根據(jù)對沖策略從候選點集合中選取評估點。此時,貝葉斯優(yōu)化會猜測出一個或多個采集函數(shù)取得最大值的函數(shù)值,判斷該結果是否滿足結束條件,如果滿足就結束優(yōu)化過程,否則將此結果加入初始點,繼續(xù)進行高斯過程回歸,預測出新的目標函數(shù)曲線,再利用采集函數(shù)選出下一個采樣點,直到滿足結束條件。

        采用貝葉斯優(yōu)化方法選擇超參數(shù)的具體實現(xiàn)過程如圖1 所示。首先是確定域空間,在SPGD 算法中,超參數(shù) γ的域空間為(0,6],在Momentum-SPGD 和CoolMomentum-SPGD 算法中,超參數(shù)lr和ρ的域空間都為(0,1];再設置加權SR 值作為性能指標;然后獲得樣本點(超參數(shù)值及其對應的加權SR 值),對樣本點進行高斯過程回歸,獲得目標函數(shù)的預測曲線,完成對超參數(shù)空間的建模;在每次迭代中,計算每個樣本點的采集函數(shù),即置信上界,并選擇置信上界最大的點作為下一個采樣點,即在超參數(shù)空間中選擇一個新的點進行實驗,得到其目標函數(shù)值,并將其添加到已有的樣本點中。通過不斷迭代更新模型和選擇下一個采樣點,直到達到結束條件(達到最大迭代次數(shù)),完成超參數(shù)的優(yōu)化。

        圖1 自適應光學系統(tǒng)迭代控制算法采用貝葉斯優(yōu)化方法選擇超參數(shù)的實現(xiàn)流程Fig.1 Implementation flow of hyperparameter selection using Bayesian optimization method in iterative control algorithm for adaptive optics systems

        4 結果與分析

        模擬實驗所用計算機為Windows10 系統(tǒng),硬件環(huán)境為:11th Gen Intel(R) Core(TM) i5-1135G7 CPU,主頻2.4 GHz,16.0 GB DDR3 RAM。模擬實驗中采用Fran?ois Assémat 提出的方法[27]生成相屏模擬待校正像差,生成的相屏統(tǒng)計屬性符合Kolmogorov 譜,且相屏間不具有相關性。湍流強度大小用D/r0表示,D為望遠鏡的口徑,r0為大氣相干長度。本文在湍流強度D/r0=5的條件下隨機選擇1 幀相屏進行模擬實驗。在貝葉斯優(yōu)化方法中,采集函數(shù)為置信上界函數(shù)時,參數(shù) κ設置為1;為概率提升函數(shù)時,參數(shù) ?設置為0.1;隨機探索步數(shù)為2,貝葉斯優(yōu)化步數(shù)為10。在驗證該方法對于迭代控制算法性能影響時,以SR 值達到0.8 時的迭代步數(shù)作為校正速度的評判標準,穩(wěn)定收斂時達到的SR 值作為收斂精度的判斷標準,以下3 種控制算法在迭代1 000 步時均已穩(wěn)定收斂。

        4.1 SPGD 算法超參數(shù)選取

        SPGD 算法中有1 個超參數(shù)即增益系數(shù) γ,以增益系數(shù) γ作為輸入,γ的取值范圍為(0,6],加權SR 值作為輸出。圖2 為SPGD 算法中迭代6 次后的預測目標函數(shù)圖及其采集函數(shù)圖,采樣函數(shù)選擇置信上界函數(shù)。圖2(a)中圓點標記為采樣點,虛線標記為預測的目標函數(shù),陰影范圍為95%置信區(qū)間。圖2(b)中實線標記為采集函數(shù),星形標記為下一個采樣點。

        圖2 SPGD 算法中迭代6 次后的預測目標函數(shù)圖及其采集函數(shù)圖Fig.2 Diagram of prediction objective function and its acquisition function after 6 iterations in SPGD algorithm

        遍歷法中 γ以0.1 為間距,在(0,6]范圍內等間距取值共60 組超參數(shù)。從遍歷法的60 組超參數(shù)中人工選取校正效果最理想的一組和貝葉斯優(yōu)化方法進行對比,對比結果如表2 所示。表2 中貝葉斯優(yōu)化方法采用了不同的采集函數(shù)。BO_UCB 表示在貝葉斯優(yōu)化方法中采集函數(shù)選擇置信上界函數(shù),BO_PI 表示在貝葉斯優(yōu)化方法中采集函數(shù)選擇概率提升函數(shù),BO_EI 表示在貝葉斯優(yōu)化方法中采集函數(shù)選擇期望提升函數(shù),BO_GP 表示在貝葉斯優(yōu)化方法中采用GP-Hedge 算法確定下一個采樣點。BO_UCB 方法所需樣本實例數(shù)量最少為6,BO_GP方法所需樣本實例數(shù)量最多為10。在迭代到206步時,BO_GP 方法中的SR 值達到0.8,而BO_UCB方法需要迭代223 步;在迭代1 000 步后,BO_UCB方法中的SR 值達到0.924 4,而BO_GP 方法中的SR 值只有0.901 4。表明在貝葉斯優(yōu)化算法中采用不同的采集函數(shù)對SPGD 算法的收斂效果是有影響的,其中BO_UCB 方法所需樣本實例數(shù)量最少,迭代1 000 步后,SR 值最大。因此,在仿真實驗中選取BO_UCB 方法與遍歷法進行對比。從表2 可以看出,貝葉斯優(yōu)化方法的樣本實例數(shù)量是遍歷法的10%,采用貝葉斯優(yōu)化方法選擇超參數(shù)的迭代控制算法,收斂速度和收斂精度均優(yōu)于遍歷法。

        表2 SPGD 算法采用遍歷法與貝葉斯優(yōu)化方法選擇超參數(shù)的結果對比Table 2 Comparison of results of SPGD algorithm using traversal method and Bayesian optimization method for hyperparameter selection

        為了更直觀地評價貝葉斯優(yōu)化方法的性能,分別采用遍歷法和貝葉斯優(yōu)化方法選擇超參數(shù)的迭代控制算法,收斂效果如圖3 所示。圖3 中虛線標記“--”代表貝葉斯優(yōu)化方法,實線標記“-”代表遍歷法,標記“-·”表示人工挑選的遍歷法中校正效果最佳的3 組參數(shù)對應的SR 曲線。從圖3 中可以看出,采用貝葉斯優(yōu)化方法選擇超參數(shù)的SPGD 算法在迭代到223 步時,SR 值達到0.8;迭代1 000 步后,SR 值達到0.924 4。結果表明,采用貝葉斯優(yōu)化方法選擇超參數(shù)的迭代控制算法不僅收斂速度較快,收斂精度也得到保障。

        圖3 采用遍歷法和貝葉斯優(yōu)化方法選擇超參數(shù)的SPGD算法的SR 曲線Fig.3 SR curves of SPGD algorithm using traversal method and Bayesian optimization method for hyperparameter selection

        4.2 Momentum-SPGD 算法超參數(shù)選取

        Momentum-SPGD 算法中有2 個超參數(shù),即學習率lr和動量系數(shù) ρ,lr和 ρ的取值范圍都為(0,1]。遍歷法中l(wèi)r和 ρ以0.1 為間距,在(0,1]范圍等間距取值共100 組超參數(shù)。從遍歷法的100 組超參數(shù)中人工選取校正效果最理想的一組和貝葉斯優(yōu)化方法進行對比,結果如表3 所示。表3 中還給出了貝葉斯優(yōu)化算法在采用不同采集函數(shù)時所需的樣本實例數(shù)量,以及Momentum-SPGD 算法在SR 值達到0.8 時的迭代步數(shù)和迭代1 000 步時的收斂精度。貝葉斯優(yōu)化方法的樣本實例數(shù)量為7。從表3可以看出,貝葉斯優(yōu)化方法在樣本實例數(shù)量是遍歷法的7%的情況下,采用貝葉斯優(yōu)化方法選擇超參數(shù)的迭代控制算法收斂速度優(yōu)于遍歷法,收斂效果和遍歷法基本一致。

        表3 Momentum-SPGD 算法采用遍歷法與貝葉斯優(yōu)化方法選擇超參數(shù)的結果對比Table 3 Comparison of results of Momentum-SPGD algorithm using traversal method and Bayesian optimization method for hyperparameter selection

        采用遍歷法與貝葉斯優(yōu)化方法選擇超參數(shù)的Momentum-SPGD 算法收斂效果如圖4 所示。從圖4 中可以看出,采用貝葉斯優(yōu)化方法選擇超參數(shù)的Momentum-SPGD 算法在迭代到233 步時,SR值達到0.8;迭代1 000 步后,SR 值達到0.933 4。結果表明,采用貝葉斯優(yōu)化方法選擇超參數(shù)的迭代控制算法收斂速度相對較快,最終的收斂效果也較好。

        圖4 采用遍歷法和貝葉斯優(yōu)化方法選擇超參數(shù)的Momentum-SPGD 算法的SR 曲線Fig.4 SR curves of Momentum-SPGD algorithm using traversal method and Bayesian optimization method for hyperparameter selection

        4.3 CoolMomentum-SPGD 算法超參數(shù)選取

        CoolMomentum-SPGD 算法中有2 個超參數(shù)即學習率lr和動量系數(shù) ρ0,lr和 ρ0的取值范圍都為(0,1]。遍歷法中l(wèi)r和 ρ0以0.1 為間距,在(0,1]范圍等間距取值共100 組超參數(shù)。從遍歷法的100 組超參數(shù)中人工選取校正效果最理想的一組和貝葉斯優(yōu)化方法進行對比,對比結果如表4 所示。表4 中還給出了貝葉斯優(yōu)化算法在采用不同采集函數(shù)時所需的樣本實例數(shù)量,以及CoolMomentum-SPGD 算法在SR 值達到0.8 時的迭代步數(shù)和迭代1 000 步時的收斂精度。貝葉斯優(yōu)化方法的樣本實例數(shù)量為9,是遍歷法的9%。由表4 可知,采用貝葉斯優(yōu)化方法選擇超參數(shù)的迭代控制算法收斂速度和收斂精度上均優(yōu)于遍歷法。

        表4 CoolMomentum-SPGD 算法采用遍歷法與貝葉斯優(yōu)化方法選擇超參數(shù)的結果對比Table 4 Comparison of results of CoolMomentum-SPGD algorithm using traversal method and Bayesian optimization method for hyperparameter selection

        采用遍歷法與貝葉斯優(yōu)化方法選擇超參數(shù)的CoolMomentum-SPGD 算法收斂效果如圖5 所示。從圖5 中可以看出,采用貝葉斯優(yōu)化方法選擇超參數(shù)的CoolMomentum-SPGD 算法在迭代到205 步時,SR 值達到0.8;迭代1 000 步后,SR 值達到0.937 2,結果表明,采用貝葉斯優(yōu)化方法選擇超參數(shù)的迭代控制算法收斂速度快,最終的收斂效果也相對較好。

        圖5 采用遍歷法和貝葉斯優(yōu)化方法選擇超參數(shù)的CoolMomentum-SPGD 算法的SR 曲線Fig.5 SR curves of CoolMomentum-SPGD algorithm using traversal method and Bayesian optimization method for hyperparameter selection

        5 結論

        在無波前探測自適應光學系統(tǒng)中,超參數(shù)的選擇一定程度上決定著迭代控制算法的校正能力?,F(xiàn)有的迭代控制算法的超參數(shù)設置一般采用遍歷法,計算量大,耗時較長。本文提出將貝葉斯優(yōu)化方法用于選擇適合自適應光學系統(tǒng)迭代控制算法的超參數(shù)。分別以常用的SPGD、Momentum-SPGD和CoolMomentum-SPGD 控制算法為例,以迭代控制算法的超參數(shù)作為輸入,斯特列耳比值作為輸出,采用貝葉斯優(yōu)化選擇超參數(shù)。研究結果表明,對于SPGD 控制算法,取得相同收斂效果時,貝葉斯優(yōu)化方法所需樣本實例數(shù)量是遍歷法的10%;對于Momentum-SPGD 和CoolMomentum-SPGD 控 制算法,貝葉斯優(yōu)化方法所需樣本實例數(shù)量分別是遍歷法的7%和9%。且迭代控制算法本身超參數(shù)越多,采用貝葉斯優(yōu)化進行超參數(shù)調優(yōu)的優(yōu)勢越明顯。后續(xù)將本方法拓展至超參數(shù)數(shù)目更多的迭代控制算法。本文研究結果可為自適應光學系統(tǒng)迭代控制算法的實際應用提供超參數(shù)設置理論基礎。

        猜你喜歡
        優(yōu)化方法
        超限高層建筑結構設計與優(yōu)化思考
        房地產導刊(2022年5期)2022-06-01 06:20:14
        民用建筑防煙排煙設計優(yōu)化探討
        關于優(yōu)化消防安全告知承諾的一些思考
        一道優(yōu)化題的幾何解法
        由“形”啟“數(shù)”優(yōu)化運算——以2021年解析幾何高考題為例
        學習方法
        可能是方法不對
        用對方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        四大方法 教你不再“坐以待病”!
        Coco薇(2015年1期)2015-08-13 02:47:34
        賺錢方法
        61精品人妻一区二区三区蜜桃| 无码精品人妻一区二区三区影院| 男人和女人高潮免费网站| 粗大挺进尤物人妻一区二区| 亚洲福利网站在线一区不卡 | 91精品国产综合久久青草| 日本熟妇中出高潮视频| 又色又爽又黄的视频软件app| 亚洲av无码国产剧情| 一边做一边喷17p亚洲乱妇50p| 亚洲精品成人网站在线观看| 在线无码精品秘 在线观看| 男男做h嗯啊高潮涩涩| 中文亚洲av片不卡在线观看| 嫖妓丰满肥熟妇在线精品| 无码人妻中文中字幕一区二区| 国产精品日韩亚洲一区二区| 国模冰莲自慰肥美胞极品人体图 | 免费不卡在线观看av| 国产精品午睡沙发系列| 中文字幕在线观看乱码一区| 二区视频在线免费观看| а天堂中文最新一区二区三区| 亚洲中文字幕乱码| av资源在线播放网站| 蜜臀一区二区三区精品| 伊伊人成亚洲综合人网香| 第十色丰满无码| 亚洲av在线观看播放| 亚洲精品无码久久久| 中文字幕国产91| 综合久久加勒比天然素人 | 国产一级毛片AV不卡尤物| 国内偷拍第一视频第一视频区| 午夜dv内射一区二区| 亚洲av纯肉无码精品动漫| 精品国产爱在线观看| 日本免费在线一区二区三区| 国产精品一区二区久久乐下载 | 国产一区二区三区四区色| 久久精品国产亚洲av天 |