亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)高斯混合模型的運(yùn)動(dòng)目標(biāo)檢測(cè)與跟蹤

        2017-11-10 13:42:42郅季炘
        現(xiàn)代電子技術(shù) 2017年21期

        郅季炘

        摘 要: 為了提高運(yùn)動(dòng)目標(biāo)檢測(cè)與跟蹤的精確性與可靠性,提出一種基于改進(jìn)高斯混合模型的運(yùn)動(dòng)目標(biāo)檢測(cè)與跟蹤方法。首先,建立改進(jìn)高斯混合背景模型,對(duì)運(yùn)動(dòng)目標(biāo)圖像進(jìn)行分塊處理,利用相連幀的連續(xù)性對(duì)運(yùn)動(dòng)目標(biāo)圖像的參數(shù)更新,提取完整的運(yùn)動(dòng)目標(biāo)并進(jìn)行分割;其次,將給定的當(dāng)前幀像素點(diǎn)與目標(biāo)圖像進(jìn)行匹配,減少高斯混合模型的分布數(shù)量和計(jì)算量,根據(jù)分塊處理后的運(yùn)動(dòng)目標(biāo)的大小、形狀以及顏色信息完成運(yùn)動(dòng)目標(biāo)全局匹配,實(shí)現(xiàn)運(yùn)動(dòng)目標(biāo)的實(shí)時(shí)檢測(cè)與跟蹤。實(shí)驗(yàn)結(jié)果表明,與目前的高斯混合模型對(duì)運(yùn)動(dòng)目標(biāo)檢測(cè)與跟蹤的方法相比,所提方法計(jì)算過程較為簡(jiǎn)單,具有更快的檢測(cè)速度和更可靠的檢測(cè)結(jié)果。

        關(guān)鍵詞: 運(yùn)動(dòng)目標(biāo)檢測(cè); 全局匹配; 改進(jìn)高斯混合模型; 分塊處理

        中圖分類號(hào): TN911.73?34; TP391 文獻(xiàn)標(biāo)識(shí)碼: A 文章編號(hào): 1004?373X(2017)21?0069?04

        Moving target detection and tracking based on improved Gaussian mixture model

        ZHI Jixin

        (College of Physical Education, Zhengzhou University, Zhengzhou 450044, China)

        Abstract: In order to improve the accuracy and reliability of moving object detection and tracking, a moving object detection and tracking method based on improved Gaussian mixture model is proposed. The improved Gaussian mixture background model is established to segment the moving target image into blocks. The continuity of the neighborhood frames is utilized to update the parameters of the moving target image, and then the whole moving target is extracted for segmentation. The given pixel of current frame is matched with the target image to reduce the distribution quantity and calculated amount of the Gaussian mixture model. According to the size, shape and color information of the moving target after block processing, the global matching for moving target is conducted to realize the real?time detection and tracking of moving object. The experimental results show that, in comparison with the current moving target detection and tracking methods based on Gaussian mixture model, the proposed method has simpler calculation process, faster detection speed, and more reliable detection results.

        Keywords: moving target detection; global matching; improved Gaussian mixture model; block processing

        0 引 言

        運(yùn)動(dòng)目標(biāo)檢測(cè)與跟蹤[1]在計(jì)算機(jī)交互式領(lǐng)域和人類視覺領(lǐng)域具有至關(guān)重要的地位。通過對(duì)視頻圖像的跟蹤檢測(cè),可以確切地掌握目標(biāo)圖像的運(yùn)動(dòng)信息和運(yùn)動(dòng)特征,為后續(xù)運(yùn)動(dòng)目標(biāo)的檢測(cè)與跟蹤問題提供更為詳細(xì)的信息參考?;诟咚够旌夏P蚚2]的目標(biāo)檢測(cè)與跟蹤,國(guó)內(nèi)外很多學(xué)者對(duì)其進(jìn)行了大量實(shí)驗(yàn)與研究。根據(jù)目標(biāo)檢測(cè)的范圍,可以分為靜態(tài)目標(biāo)檢測(cè)[3?4]和動(dòng)態(tài)目標(biāo)檢測(cè)[5?6],其中,動(dòng)態(tài)目標(biāo)檢測(cè)依賴于目標(biāo)的運(yùn)動(dòng)性特征。在現(xiàn)實(shí)操作中,由于場(chǎng)景不同、光線的改變[7]等問題給運(yùn)動(dòng)目標(biāo)的檢測(cè)與跟蹤工作的實(shí)施帶來了一定的困難和挑戰(zhàn)。因此,提高改進(jìn)高斯混合模型的運(yùn)動(dòng)目標(biāo)檢測(cè)的精確度具有現(xiàn)實(shí)意義。

        其中文獻(xiàn)[8]提出基于高斯混合模型的幀間差分法,該方法利用圖像序列中相連的幾幀圖像的關(guān)聯(lián)性進(jìn)行幀間差分變化檢測(cè),最后通過確定閾值找到運(yùn)動(dòng)目標(biāo)所在區(qū)域的位置,對(duì)運(yùn)動(dòng)目標(biāo)進(jìn)行檢測(cè)跟蹤。但是該方法的缺點(diǎn)是不能準(zhǔn)確提取出所有存在關(guān)聯(lián)性特點(diǎn)的像素點(diǎn),而且檢測(cè)效率太低,提取目標(biāo)不夠完整,也不能對(duì)運(yùn)動(dòng)目標(biāo)進(jìn)行實(shí)時(shí)檢測(cè)與跟蹤。文獻(xiàn)[9]提出一種高斯混合模型光流檢測(cè)法,該方法利用圖像中像素?cái)?shù)據(jù)的相關(guān)性變化,并通過圖像灰度在時(shí)間上的處理變化與圖像中運(yùn)動(dòng)目標(biāo)物體結(jié)構(gòu)之間的關(guān)系確定運(yùn)動(dòng)目標(biāo)。但是該方法的計(jì)算過程復(fù)雜,耗時(shí)太長(zhǎng),容易出現(xiàn)偏差,實(shí)用性不好。文獻(xiàn)[10]提出基于自適應(yīng)高斯背景減除檢測(cè)運(yùn)動(dòng)目標(biāo)與跟蹤的方法,該方法通過改變視頻圖像的排列方式整合運(yùn)動(dòng)信息進(jìn)行差分,確定出當(dāng)前區(qū)域的差值,快速檢測(cè)運(yùn)動(dòng)目標(biāo),但是該方法在檢測(cè)過程中受外界干擾嚴(yán)重,檢測(cè)精度不高。endprint

        針對(duì)以上這些方法在其可用范圍之內(nèi)的通用效果比較差,不能準(zhǔn)確地對(duì)運(yùn)動(dòng)目標(biāo)進(jìn)行更為精確的檢測(cè)和實(shí)時(shí)跟蹤,提出基于改進(jìn)高斯混合模型的運(yùn)動(dòng)目標(biāo)檢測(cè)與跟蹤方法,并進(jìn)行實(shí)驗(yàn)分析,結(jié)果表明,本文方法計(jì)算過程較為簡(jiǎn)單,擁有更快的檢測(cè)速度和更可靠的檢測(cè)結(jié)果。

        1 基于改進(jìn)高斯混合模型的運(yùn)動(dòng)目標(biāo)檢測(cè)與跟

        蹤方法

        1.1 背景模型的參數(shù)更新與目標(biāo)提取

        根據(jù)改進(jìn)高斯混合模型的參數(shù)機(jī)制對(duì)視頻中每個(gè)單獨(dú)像素,在特定的時(shí)間,特定的狀態(tài)下用[k]個(gè)高斯模型表示。

        [ηxt,ui,t,Σi,t=1(2π)n2Σi,t12e-12(xt-ui,t)TΣ-1i,txt-ui,t] (1)

        假設(shè)在[t]時(shí)刻像素點(diǎn)的像素值為[x1],得到概率函數(shù)為:

        [p(x1)=i=1kwi,t×ηxt,ui,t,Σi,t] (2)

        式中:[k]代表高斯混合模型的個(gè)數(shù);[wi,t]代表在[t]時(shí)刻第[i]個(gè)高斯模型的權(quán)值;[ηxt,ui,t,Σi,t]代表混合高斯模型的概率密度函數(shù);[ui,t]則代表第[i]個(gè)高斯模型在[t]時(shí)刻的平均向量;[Σi,t]表示高斯模型的協(xié)方差矩陣;[i=1,2…,k]。

        將當(dāng)前幀每個(gè)像素點(diǎn)的像素值[I(x,y)]與當(dāng)前背景模型下[k]個(gè)高斯模型進(jìn)行分布匹配,如果滿足式(3),則證明[I(x,y)]與高斯模型分布相匹配,反之則表示不匹配。

        [It(x,y)-ut,t-1

        式中:[D]代表改進(jìn)高斯混合模型中的置信參數(shù);[ut,t-1]表示在[t-1]時(shí)刻第[i]個(gè)改進(jìn)高斯混合模型的平均值;[σi,t-1]表示在[t-1]時(shí)刻第[i]個(gè)改進(jìn)高斯混合模型的標(biāo)準(zhǔn)差。

        (1) 如果對(duì)運(yùn)動(dòng)目標(biāo)匹配成功,則對(duì)相應(yīng)的改進(jìn)高斯混合分布參數(shù)進(jìn)行更新,其公式表示為:

        [wi,t=(1-α)×wi,t-1+α] (4)

        [ui,t=(1-ρ)×ui,t-1+ρ×xt] (5)

        [σ2i,t=(1-ρ)×σ2i,t-1+ρ×(xt-ui,t-1)] (6)

        其中[α]代表改進(jìn)高斯混合背景模型中的學(xué)習(xí)率。

        (2) 如果對(duì)運(yùn)動(dòng)目標(biāo)匹配不成功,則建立一個(gè)新的改進(jìn)高斯混合背景模型,然后去掉高斯分布模型中最不可能的部分,其他高斯分布平均值和方差保持不變,其權(quán)值按照式(7)更新:

        [wi,t=(1-α)×wi,t-1] (7)

        在高斯分布中,將最有可能成為高斯混合背景的部分放在比較靠前的位置,也就是將高斯混合分布按照[wu]降序的順序排列。根據(jù)上述排列,取前[B]個(gè)分布順序作為應(yīng)用的高斯混合背景模型,從中提取出運(yùn)動(dòng)目標(biāo)。

        高斯背景模型公式如下:

        [B=argminbk=1bwk>T] (8)

        式中[T]代表整個(gè)高斯混合模型全局的先驗(yàn)概率。

        1.2 運(yùn)動(dòng)目標(biāo)檢測(cè)

        根據(jù)混合高斯背景模型定義子目標(biāo)和父目標(biāo)。對(duì)運(yùn)動(dòng)目標(biāo)進(jìn)行分塊處理。設(shè)目標(biāo)[a]表示混合高斯背景圖像中前一幀識(shí)別出的有效目標(biāo),[b]表示前一幀檢測(cè)出來的運(yùn)動(dòng)有效目標(biāo)。假設(shè)目標(biāo)[b]與目標(biāo)[a]在高斯混合背景模型下有足夠多的公共像素(目標(biāo)[a]大于目標(biāo)[b]的[β]倍),則目標(biāo)[b]代表目標(biāo)[a]的子目標(biāo),即目標(biāo)[a]為目標(biāo)[b]的父目標(biāo)。

        假設(shè)目標(biāo)[a]是在高斯混合背景模型圖像中前一幀檢測(cè)出的運(yùn)動(dòng)有效目標(biāo),目標(biāo)[a]在圖像當(dāng)前幀的子目標(biāo)集為集合[B,]即:

        [B=BiSa?Bi>β·SBi] (9)

        假設(shè)在集合[B]中有兩個(gè)運(yùn)動(dòng)目標(biāo)[Bi]和[Bj,]它們之間的距離小于閾值[TD,]那么:

        [distanceBi,Bj

        將[Bi]和[Bj]合并成為一個(gè)大的運(yùn)動(dòng)目標(biāo)[b],然后將其添加進(jìn)集合[B]中,以替代[Bi]和[Bj]的運(yùn)動(dòng)位置。目標(biāo)[a]和[b]之間的距離可以定義為運(yùn)動(dòng)目標(biāo)[a]和運(yùn)動(dòng)目標(biāo)[b]之間任意兩個(gè)像素點(diǎn)之間距離的最小值,即:

        [distance(a,b)=mindistanceam,bn 0

        [distancep,q=px-qx2+py-qy2] (12)

        式中:[Sa]表示[a]所包含的像素總量;[Sb]表示[b]所包含的像素總量;[am]代表運(yùn)動(dòng)目標(biāo)[a]的第[m]個(gè)像素點(diǎn)位置;同理,[bn]代表運(yùn)動(dòng)目標(biāo)[b]的第[n]個(gè)像素點(diǎn)位置;[p]和[q]代表改進(jìn)高斯混合模型圖像中的任意兩個(gè)像素點(diǎn);[px]與[py]分別代表[p]的橫坐標(biāo)和縱坐標(biāo);[qx]和[qy]分別代表[q]的橫坐標(biāo)和縱坐標(biāo);而函數(shù)計(jì)算公式[distancep,q]代表像素點(diǎn)[p]和[q]之間的距離。根據(jù)上述公式即可完成對(duì)運(yùn)動(dòng)目標(biāo)的檢測(cè)。

        1.3 基于改進(jìn)高斯混合模型的運(yùn)動(dòng)目標(biāo)跟蹤方法

        改進(jìn)高斯混合模型的運(yùn)動(dòng)目標(biāo)跟蹤是在完成對(duì)運(yùn)動(dòng)目標(biāo)檢測(cè)準(zhǔn)確的基礎(chǔ)上進(jìn)行的,并將當(dāng)前幀與前一幀檢測(cè)到的運(yùn)動(dòng)目標(biāo)圖像進(jìn)行匹配。

        首先建立運(yùn)動(dòng)目標(biāo)圖像顏色直方圖并進(jìn)行改進(jìn):

        [wv=1i=1sηrii=1sηri·δhχi-v] (13)

        式中:[wv]代表[v]是[w]的分量;[s]代表運(yùn)動(dòng)目標(biāo)包括的像素點(diǎn)總量;[ηri]表示權(quán)重函數(shù),像素點(diǎn)遠(yuǎn)離運(yùn)動(dòng)目標(biāo)中心位置的權(quán)重小,反之,靠近運(yùn)動(dòng)目標(biāo)中心位置的權(quán)重大;[χi]表示運(yùn)動(dòng)目標(biāo)中的第[i]個(gè)像素點(diǎn);[ri]代表運(yùn)動(dòng)目標(biāo)的權(quán)重比值。

        將當(dāng)前幀中檢測(cè)目標(biāo)與前一幀檢測(cè)到的運(yùn)動(dòng)目標(biāo)進(jìn)行匹配,若匹配成功,則該運(yùn)動(dòng)目標(biāo)為先前目標(biāo);反之,則該目標(biāo)為新的運(yùn)動(dòng)目標(biāo)。

        改進(jìn)高斯混合模型檢測(cè)運(yùn)動(dòng)目標(biāo)與全局匹配的相似度函數(shù)為:

        [similara,b=α·φa,b+β??a,b+γ?ψ(w,ξ)] (14)

        [φa,b=da+dbda+db+distancea0,b0] (15)

        [?(a,b)=2(Sa+Sb)S2a+S2b] (16)

        式中:[ψ(w,ξ)]表示待匹配運(yùn)動(dòng)目標(biāo)的顏色直方圖相似度;[φa,b]表示[α(≥0)]的加權(quán)系數(shù);[?(a,b)]表示[β≥0]的加權(quán)系數(shù);[w]和[ξ]分別表示[a]和[b]的顏色直方圖;[da,][db]分別表示運(yùn)動(dòng)目標(biāo)[a]和[b]的半徑;[distancea0,b0]表示運(yùn)動(dòng)目標(biāo)[a]和運(yùn)動(dòng)目標(biāo)[b]之間的中心距離;[Sa]和[Sb]分別表示運(yùn)動(dòng)目標(biāo)[a]和[b]的總圖像像素點(diǎn)。

        對(duì)運(yùn)動(dòng)目標(biāo)進(jìn)行匹配與運(yùn)動(dòng)目標(biāo)的圖像大小、位置信息以及顏色分布有關(guān)。改進(jìn)高斯混合模型的運(yùn)動(dòng)目標(biāo)跟蹤采用全局匹配的方法,將當(dāng)前幀與前一幀檢測(cè)得到的運(yùn)動(dòng)目標(biāo)進(jìn)行匹配,完成對(duì)運(yùn)動(dòng)目標(biāo)的跟蹤過程。

        2 實(shí)驗(yàn)與仿真證明

        為了證明基于改進(jìn)高斯混合模型的運(yùn)動(dòng)目標(biāo)與跟蹤方法的有效性,需要對(duì)運(yùn)動(dòng)目標(biāo)進(jìn)行檢測(cè)和全程跟蹤,采用如下仿真實(shí)驗(yàn)與其他方法進(jìn)行比較分析。本次實(shí)驗(yàn)使用的計(jì)算機(jī)CPU為Pentium[?]E5300 2.6 GHz,內(nèi)存為4 GB,仿真軟件為Matlab 2015b。在利用改進(jìn)高斯混合模型背景差分法進(jìn)行運(yùn)動(dòng)目標(biāo)檢測(cè)時(shí),為了使計(jì)算簡(jiǎn)便,假設(shè)各個(gè)像素之間都是相互獨(dú)立的,對(duì)彩色圖像進(jìn)行灰度處理。改進(jìn)的高斯混合模型背景差分法首先需要對(duì)輸入背景進(jìn)行分塊處理,采用的圖像塊是[3×3]。其中當(dāng)前圖像塊用平均值表示。改進(jìn)高斯混合模型的最大高斯分布上限是5,運(yùn)動(dòng)目標(biāo)初始權(quán)值用[winit]表示,權(quán)值取值為0.2。此次實(shí)驗(yàn)采用4段視頻,其視頻信息如表1所示。

        本次實(shí)驗(yàn)分別對(duì)幀差檢測(cè)法、光流檢測(cè)法和改進(jìn)高斯混合模型進(jìn)行對(duì)比分析測(cè)試,運(yùn)動(dòng)目標(biāo)檢測(cè)時(shí)間和運(yùn)動(dòng)目標(biāo)檢測(cè)效果分別如表2和圖1所示。

        圖1選取其中視頻1和視頻3的兩個(gè)圖像信息進(jìn)行分析,其中圖像1(a)為原始圖像,圖1(b)是采用幀差法對(duì)運(yùn)動(dòng)目標(biāo)檢測(cè)的結(jié)果,圖1(c)是采用光流檢測(cè)法對(duì)運(yùn)動(dòng)目標(biāo)檢測(cè)的結(jié)果,圖1(d)是基于改進(jìn)高斯混合模型的運(yùn)動(dòng)目標(biāo)檢測(cè)結(jié)果。

        幀差檢測(cè)法、光流檢測(cè)法、改進(jìn)高斯混合模型對(duì)運(yùn)動(dòng)目標(biāo)的圖像檢測(cè)結(jié)果如圖1所示??梢钥闯觯倪M(jìn)高斯混合模型對(duì)運(yùn)動(dòng)目標(biāo)檢測(cè)效果明顯優(yōu)于其他兩種方法,可以得到如下結(jié)論:

        (1) 幀差檢測(cè)法對(duì)運(yùn)動(dòng)目標(biāo)的檢測(cè)結(jié)果輪廓比較完整,較好地解決了陰影區(qū)域的問題,但是運(yùn)動(dòng)目標(biāo)的很多細(xì)節(jié)信息丟失較嚴(yán)重。

        (2) 雖然光流檢測(cè)法能較好地保存運(yùn)動(dòng)目標(biāo)信息,但是在檢測(cè)過程中檢測(cè)目標(biāo)范圍太廣,無(wú)形中檢測(cè)了許多無(wú)用信息,并且含有許多噪點(diǎn),對(duì)運(yùn)動(dòng)目標(biāo)檢測(cè)結(jié)果的精確度影響極大。改進(jìn)高斯混合模型不但能完整、精確地檢測(cè)和跟蹤運(yùn)動(dòng)目標(biāo)信息,還能去除噪聲等干擾,可以使檢測(cè)結(jié)果更加理想化。

        3 結(jié) 語(yǔ)

        針對(duì)傳統(tǒng)運(yùn)動(dòng)目標(biāo)檢測(cè)方法不能對(duì)運(yùn)動(dòng)目標(biāo)進(jìn)行精確的檢測(cè)和實(shí)時(shí)跟蹤,本文提出基于改進(jìn)高斯混合模型的運(yùn)動(dòng)目標(biāo)檢測(cè)與跟蹤方法。通過上述實(shí)驗(yàn)結(jié)果證明,基于改進(jìn)高斯混合模型的運(yùn)動(dòng)目標(biāo)檢測(cè)與跟蹤方法比傳統(tǒng)方法檢測(cè)結(jié)果可靠,其跟蹤精度高,并且降低了檢測(cè)過程中計(jì)算的復(fù)雜程度,減少了運(yùn)算量,在一定程度上提高了檢測(cè)速度。

        參考文獻(xiàn)

        [1] 何信華,趙龍.基于改進(jìn)高斯混合模型的實(shí)時(shí)運(yùn)動(dòng)目標(biāo)檢測(cè)與跟蹤[J].計(jì)算機(jī)應(yīng)用研究,2010,27(12):4768?4771.

        [2] 楊威,付耀文,潘曉剛,等.弱目標(biāo)檢測(cè)前跟蹤技術(shù)研究綜述[J].電子學(xué)報(bào),2014,42(9):1786?1793.

        [3] 李少軍,肖利平,高磊.光電成像制導(dǎo)中地面運(yùn)動(dòng)目標(biāo)檢測(cè)與跟蹤[J].系統(tǒng)工程與電子技術(shù),2014,36(1):23?30.

        [4] 胡子軍,張林讓,房嘉奇.多站無(wú)源雷達(dá)多起伏目標(biāo)檢測(cè)前跟蹤算法[J].電子與信息學(xué)報(bào),2015,37(3):651?657.

        [5] 柯天兵,李永倩.電力系統(tǒng)視頻監(jiān)控中目標(biāo)檢測(cè)與跟蹤算法研究[J].電力科學(xué)與工程,2014(1):42?46.

        [6] 于洪波,王國(guó)宏,曹倩,等.一種高脈沖重復(fù)頻率雷達(dá)微弱目標(biāo)檢測(cè)跟蹤方法[J].電子與信息學(xué)報(bào),2015,37(5):1097?1103.

        [7] 陳唯實(shí).基于時(shí)域特性的非相參雷達(dá)目標(biāo)檢測(cè)與跟蹤[J].系統(tǒng)工程與電子技術(shù),2016,38(8):1800?1807.

        [8] 程全,馬軍勇.基于改進(jìn)高斯混合模型的運(yùn)動(dòng)目標(biāo)檢測(cè)方法[J].計(jì)算機(jī)科學(xué),2014,41(7):318?321.

        [9] 王婷婷,李戈,趙杰,等.基于雙目視覺的運(yùn)動(dòng)目標(biāo)檢測(cè)跟蹤與定位[J].機(jī)械與電子,2015(6):73?76.

        [10] 劉龍,樊波陽(yáng),劉金星,等.面向運(yùn)動(dòng)目標(biāo)檢測(cè)的粒子濾波視覺注意力模型[J].電子學(xué)報(bào),2016,44(9):2235?2241.endprint

        国产免费一区二区三区在线视频 | 亚洲精品中文字幕无乱码麻豆 | 精品一二三四区中文字幕| 熟妇激情内射com| 尤物在线精品视频| 99香蕉国产精品偷在线观看| 亚洲AV秘 无码一区二p区三区| 亚洲国产精品综合福利专区 | 国产精品大屁股1区二区三区| 少妇久久高潮不断免费视频| 国产麻豆一区二区三区在| 91久久精品国产综合另类专区| 国模冰莲自慰肥美胞极品人体图| 亚洲中文字幕无码久久| 国产久视频国内精品999| 我和丰满老女人性销魂| 蜜桃视频网站在线观看一区 | 国产精品久久久久久久免费看 | 亚洲成在人网av天堂| 国产视频在线观看一区二区三区| 熟女中文字幕一区二区三区| 97高清国语自产拍| 囯产精品无码va一区二区| 日韩精品中文字幕 一区| 亚洲第一大av在线综合| 欲求不満の人妻松下纱荣子| 亚洲av无码专区在线播放中文 | 亚洲精品乱码久久久久久按摩高清| 日韩精品成人一区二区在线观看| 成人国产一区二区三区av| 中文字幕乱码高清完整版| 久久久精品人妻一区二区三区四| 久久中文字幕亚洲精品最新 | 热の国产AV| 欧美成人网视频| 天堂av网手机线上天堂| 国产欧美亚洲精品第一页| 日本黄页网站免费大全| 日韩少妇人妻一区二区| 亚洲国产精品自拍成人| 欧美a级在线现免费观看|