亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于圖像處理的熒光顯微神經(jīng)絲運(yùn)動(dòng)跟蹤研究?

        2018-11-16 06:59:22涂雪瀅袁亮
        關(guān)鍵詞:輪廓濾波聚類

        涂雪瀅,袁亮

        (新疆大學(xué)機(jī)械工程學(xué)院,新疆烏魯木齊830047)

        0 引言

        神經(jīng)絲廣泛存在于動(dòng)物的成熟神經(jīng)元中,神經(jīng)絲過(guò)量表達(dá)會(huì)導(dǎo)致骨骼肌萎縮,造成癱瘓或者死亡,比如肌萎縮性側(cè)索硬化癥(ALS)、幼稚型脊柱肌肉萎縮癥(ISMA).因此研究神經(jīng)絲蛋白質(zhì)的運(yùn)動(dòng)特性,對(duì)醫(yī)學(xué)上神經(jīng)元退化型疾病的診斷及治療有至關(guān)重要的作用[1].九十年代后期,跟蹤算法開(kāi)始廣泛運(yùn)用于運(yùn)動(dòng)、交通、生物、醫(yī)學(xué)等各個(gè)領(lǐng)域.這些跟蹤算法通??梢苑譃閮纱箢悾阂活愂峭ㄟ^(guò)分析視頻圖片,利用圖像處理技術(shù)對(duì)目標(biāo)進(jìn)行定位;另一類是基于濾波手段,對(duì)視頻中的目標(biāo)進(jìn)行數(shù)據(jù)關(guān)聯(lián).

        2005年,Yang[2]等人根據(jù)卡爾曼濾波算法提出了一種可靠的跟蹤大量頻繁出現(xiàn)和消失的密集反平行粒子運(yùn)動(dòng)的技術(shù),這種算法跟蹤成本較低,效率較高,預(yù)測(cè)結(jié)果穩(wěn)定,但是它只適合于零均值白噪聲的系統(tǒng),也就是線性高斯系統(tǒng).2007年,李培華[3]提出了一種改進(jìn)的Mean Shift跟蹤算法,該算法首先對(duì)顏色進(jìn)行聚類分析,定義了一種新的顏色模型,并推導(dǎo)了一種相似性度量來(lái)比較目標(biāo)和候選目標(biāo)的顏色模型之間的相似程度,但該算法在追蹤顏色相近的目標(biāo)時(shí)效果較差.2012年,YUAN[4]等人改進(jìn)傳統(tǒng)依靠粒子濾波跟蹤神經(jīng)絲蛋白質(zhì)的方法,提出了一種基于限制粒子位置與方向的新算法,該方法減少了系統(tǒng)運(yùn)算時(shí)間,提高了跟蹤效率.2013年,袁亮[5]等人利用馬爾可夫隨機(jī)場(chǎng)圖形標(biāo)簽識(shí)別出包含運(yùn)動(dòng)神經(jīng)絲蛋白質(zhì)的軸突塊,并細(xì)化神經(jīng)絲首尾端點(diǎn),從而提高了跟蹤精度.2016年,巨剛[6]等人提出了一種基于核函數(shù)算法、粒子濾波、改進(jìn)重采樣法等多種方法融合的粒子濾波新算法來(lái)實(shí)現(xiàn)對(duì)神經(jīng)絲的自動(dòng)跟蹤.2018年,袁亮[7]等人運(yùn)用特征融合的粒子濾波算法對(duì)神經(jīng)絲進(jìn)行跟蹤.

        為了減輕人工工作量,克服人們主觀因素的干擾,避免人工誤差,將圖像處理技術(shù)應(yīng)用于神經(jīng)絲蛋白質(zhì)的運(yùn)動(dòng)跟蹤,一次性自動(dòng)完成神經(jīng)絲的定位與路徑檢測(cè),能夠極大地提高跟蹤精度和效率.因此,本文重點(diǎn)研究了單一場(chǎng)景下的單個(gè)目標(biāo)——神經(jīng)絲蛋白質(zhì)的自動(dòng)連續(xù)跟蹤.設(shè)計(jì)了基于圖像處理技術(shù)的神經(jīng)絲蛋白質(zhì)自動(dòng)跟蹤系統(tǒng),對(duì)神經(jīng)絲運(yùn)動(dòng)視頻圖像進(jìn)行數(shù)字圖像處理,對(duì)其顏色直方圖與輪廓特征進(jìn)行提取和分析研究,從而對(duì)神經(jīng)絲蛋白質(zhì)進(jìn)行跟蹤.與傳統(tǒng)的基于粒子濾波的跟蹤算法相比,該方法具有更高的跟蹤精度與跟蹤效率.

        1 圖像預(yù)處理與圖像分割

        在神經(jīng)絲蛋白質(zhì)的跟蹤算法中,圖像預(yù)處理與圖像分割具有影響整個(gè)系統(tǒng)性能的重要作用.主要是對(duì)圖像進(jìn)行預(yù)先處理,包括去除圖像中多余的信息和分割出所需部分的區(qū)域.在多數(shù)情況下,神經(jīng)絲蛋白質(zhì)的視頻圖像中會(huì)存在大量干擾信息,主要包括以下幾個(gè)方面:

        1.在神經(jīng)絲蛋白質(zhì)圖像中,除了目標(biāo)神經(jīng)絲蛋白質(zhì)外,在檢測(cè)區(qū)域還存在其它神經(jīng)絲蛋白質(zhì).如圖1(a)所示;

        2.當(dāng)兩條及以上神經(jīng)絲蛋白質(zhì)經(jīng)過(guò)同一條通道時(shí),目標(biāo)神經(jīng)絲蛋白質(zhì)和干擾神經(jīng)絲蛋白質(zhì)發(fā)生“重疊”現(xiàn)象.如圖1(b)所示;

        3.當(dāng)神經(jīng)絲蛋白質(zhì)圖像中兩條通道交錯(cuò)時(shí),目標(biāo)神經(jīng)絲蛋白質(zhì)與干擾神經(jīng)絲蛋白質(zhì)發(fā)生交錯(cuò).如圖1(c)所示;

        4.當(dāng)神經(jīng)絲蛋白質(zhì)在運(yùn)動(dòng)過(guò)程中發(fā)生停頓與折返時(shí),目標(biāo)神經(jīng)絲蛋白質(zhì)的形態(tài)產(chǎn)生“畸變”.如圖1(d)所示.

        圖1 神經(jīng)絲跟蹤過(guò)程中的難點(diǎn)

        這些干擾信息往往會(huì)對(duì)跟蹤結(jié)果造成影響.對(duì)于圖1(a),有多條神經(jīng)絲蛋白質(zhì),如不分割圖像,機(jī)器可能將干擾神經(jīng)絲蛋白質(zhì)錯(cuò)認(rèn)成目標(biāo)神經(jīng)絲蛋白質(zhì);而對(duì)于圖1(b),實(shí)際是目標(biāo)神經(jīng)絲蛋白質(zhì)與干擾神經(jīng)絲蛋白質(zhì)發(fā)生重疊,可能將其識(shí)別為一條神經(jīng)絲蛋白質(zhì);對(duì)于圖1(c),當(dāng)兩條神經(jīng)絲蛋白質(zhì)發(fā)生交錯(cuò)時(shí),很容易識(shí)別錯(cuò)目標(biāo)神經(jīng)絲;而在圖1(d)中,神經(jīng)絲蛋白質(zhì)形態(tài)的“畸變”會(huì)導(dǎo)致丟失跟蹤目標(biāo).在總體圖像中,含有神經(jīng)絲蛋白質(zhì)的區(qū)域只占很小一部分,對(duì)整張圖像進(jìn)行特征提取與目標(biāo)識(shí)別將會(huì)大大增加計(jì)算量,降低識(shí)別效率.綜上所述,為提高算法的效率以及準(zhǔn)確率,有必要優(yōu)先進(jìn)行圖像的預(yù)處理和圖像分割工作.

        1.1 灰度處理

        通常情況下,實(shí)驗(yàn)獲取的圖像是RGB圖像.但是神經(jīng)絲蛋白質(zhì)本身不具有任何顏色信息,即顏色不能作為識(shí)別神經(jīng)絲的特征信息.使用RGB圖像反而會(huì)增加計(jì)算量,降低識(shí)別效率.因此,本文直接使用基于熒光顯微鏡錄制的經(jīng)過(guò)標(biāo)記的神經(jīng)絲的運(yùn)動(dòng)視頻,視頻為灰度視頻,拆分為圖像后可直接進(jìn)行后續(xù)工作,不需要再做灰度處理.而普通視頻中獲取到的神經(jīng)絲蛋白質(zhì)圖像具有顏色差異,需要先將圖像轉(zhuǎn)化為灰度圖像.

        1.2 圖像濾波

        從視頻采集到的圖像當(dāng)中,由于多種因素干擾,圖像中往往存在噪聲,對(duì)于后續(xù)的目標(biāo)識(shí)別與分割工作會(huì)造成很大干擾,嚴(yán)重影響對(duì)神經(jīng)絲蛋白質(zhì)輪廓的提?。虼诵枰崆皩?duì)原始圖像進(jìn)行濾波處理,降低噪聲對(duì)后續(xù)工作的影響[8].在原始圖片中存在的噪聲主要分為兩類:一類是脈沖噪聲,可以采用中值濾波對(duì)原始圖像進(jìn)行初步降噪;另一類是高斯噪聲,可以選用低通濾波器進(jìn)行圖像濾波.經(jīng)過(guò)處理的圖像不僅大大降低了噪聲,而且保全了神經(jīng)絲邊緣信息,提高了后續(xù)工作的準(zhǔn)確度.

        1.3 圖像分割

        為了更好地觀察神經(jīng)絲蛋白質(zhì)的圖像特性,需要將包含神經(jīng)絲蛋白質(zhì)的圖像部分分割出來(lái),以便進(jìn)行特征提?。畬?duì)于神經(jīng)絲蛋白質(zhì)視頻圖像,神經(jīng)絲蛋白質(zhì)在表面熒光劑的作用下成亮色,因此在成像時(shí),神經(jīng)絲蛋白質(zhì)與背景形成對(duì)比.基于這種特性,一般采用閾值分割法來(lái)分割出特定的神經(jīng)絲蛋白質(zhì).將整幅圖像以t作為閾值進(jìn)行二值化處理[9],然后在該圖像中,以神經(jīng)絲部分為中心選取一個(gè)最大的矩形連通域A1,在矩形連通域的基礎(chǔ)上長(zhǎng)寬各加x個(gè)像素值,以確保得到的連通域B1中包含整個(gè)神經(jīng)絲蛋白質(zhì),該連通域即為包含所須檢測(cè)神經(jīng)絲蛋白質(zhì)的部分,然后在該區(qū)域中進(jìn)行特征提取的計(jì)算[10].

        對(duì)于連續(xù)運(yùn)動(dòng)的神經(jīng)絲蛋白質(zhì),每一幀都在變化.為了使跟蹤結(jié)果具有更高的魯棒性,我們采用圖像關(guān)聯(lián)檢測(cè)法,即對(duì)每幀中的目標(biāo)神經(jīng)絲作關(guān)聯(lián)處理.取第1幀中目標(biāo)神經(jīng)絲的連通域B1,得到其坐標(biāo)函數(shù)B1=(mA+x)+(nA+x),在第2幀圖像中,選取坐標(biāo)函數(shù)為C1=(mA+x+y)×(nA+x+y)的矩形連通域C1為檢測(cè)區(qū)域,重復(fù)上述閾值分割的辦法得到包含目標(biāo)神經(jīng)絲的最大連通域A2,對(duì)其長(zhǎng)寬各加x個(gè)像素值,得到進(jìn)行特征提取的區(qū)域B2.此處x、y值視具體神經(jīng)絲蛋白質(zhì)運(yùn)動(dòng)視頻的分辨率來(lái)確定,mA、nA為連通域A1的長(zhǎng)和寬.對(duì)于存在多個(gè)神經(jīng)絲蛋白質(zhì)干擾的視頻圖像,該方法直接鎖定目標(biāo)神經(jīng)絲,具有更高的效率和準(zhǔn)確度.

        2 特征提取

        對(duì)于神經(jīng)絲蛋白質(zhì)視頻圖像,在表面熒光劑的作用下,神經(jīng)絲蛋白質(zhì)成亮色,因此可以分析其顏色與輪廓特征,將神經(jīng)絲蛋白質(zhì)從背景中分割出來(lái).基于這種特性,本文提出了一種K-均值聚類算法和主動(dòng)輪廓模型算法相結(jié)合的圖像分割算法.

        2.1 K-均值聚類算法

        K-均值聚類算法[11]是一種根據(jù)圖像信息中數(shù)字信息的共同特征來(lái)集中相似信息的算法,將各個(gè)對(duì)象迭代收斂到據(jù)其最近的對(duì)象的中心,步驟如下:

        (2)對(duì)圖像中像素點(diǎn)Am進(jìn)行聚類,若則其中m為圖像像素點(diǎn)個(gè)數(shù),n為迭代次數(shù);

        在K-均值聚類算法中,聚類數(shù)k的值直接影響最終結(jié)果,因此首先應(yīng)確定聚類數(shù)k.假設(shè)圖像信息中有p個(gè)特征,利用間隙統(tǒng)計(jì)法[11,12],得到間隙曲線的函數(shù)Gap(k)=E(lnWk)?lnWk,其中E為期望值,Wk=為相異度,權(quán)值.取滿足Gap(k)≥Gap(k+1)?σ(k+1)的k值作為最佳聚類數(shù).

        采用間隙統(tǒng)計(jì)法對(duì)神經(jīng)絲蛋白質(zhì)圖片進(jìn)行分析,得到結(jié)果如圖2(a)和圖2(b)所示.可以看出,在k=3時(shí),間隙值最大,因此取最佳聚類數(shù)為3.

        圖2 間隙統(tǒng)計(jì)法曲線

        2.2 主動(dòng)輪廓模型

        動(dòng)輪廓模型[13]也稱為Snake模型,廣泛應(yīng)用于圖像處理技術(shù)中.主動(dòng)輪廓模型由外部約束力引導(dǎo),受到圖像中屬性力的作用,鎖定圖像中的邊緣曲線,將snake模型拉向線條和邊緣等特征.Snake曲線v(s)的能量定義為

        式中Eint為內(nèi)部約束力能量[14],Eimage為圖像的屬性力能量,Eimage+Econ統(tǒng)稱為外部能量.內(nèi)部約束力能量可定義為

        其中,α代表曲線內(nèi)部存在的牽引力,β代表了曲線的彎曲程度.當(dāng)Esnake取得極值時(shí),則有

        Snake輪廓曲線是能量曲線,當(dāng)曲線在力的作用下迭代收斂到最小值時(shí),得到目標(biāo)的輪廓曲線.

        在本文中,采用如下步驟對(duì)神經(jīng)絲蛋白質(zhì)圖像進(jìn)行分割.

        1.保存圖像的一份副本,在該副本上使用K-means聚類算法對(duì)圖像進(jìn)行初步分割,如圖3(b);

        2.對(duì)聚類后的目標(biāo)進(jìn)行二值化,得到神經(jīng)絲蛋白質(zhì)的初始輪廓圖,如圖3(c);

        3.對(duì)初始輪廓進(jìn)行去除噪點(diǎn)、孔洞填充、去除毛刺等工作,提取出包圍面積最大的輪廓,如圖3(d);

        4.將該輪廓的點(diǎn)坐標(biāo)作為snake模型的初始坐標(biāo),代入到原圖中,如圖3(e);

        5.在原圖上應(yīng)用snake模型,收斂出連續(xù)而平滑的輪廓曲線,此時(shí)所對(duì)應(yīng)的輪廓線即為神經(jīng)絲蛋白質(zhì)的邊界,如圖3(f).

        圖3 神經(jīng)絲輪廓特征提取步驟

        實(shí)驗(yàn)發(fā)現(xiàn)本文提出的圖像分割算法對(duì)神經(jīng)絲蛋白質(zhì)的分割可以達(dá)到很好的效果.

        3 實(shí)驗(yàn)結(jié)果與分析

        神經(jīng)絲蛋白質(zhì)跟蹤實(shí)驗(yàn)所用圖像來(lái)源于美國(guó)俄亥俄州立大學(xué)Anthony Brown教授實(shí)驗(yàn)室在熒光顯微鏡下錄制的真實(shí)視頻.使用基于K-means聚類分割算法和主動(dòng)輪廓模型算法融合的方法對(duì)拆分后的神經(jīng)絲蛋白質(zhì)視頻圖像進(jìn)行處理,得到神經(jīng)絲蛋白質(zhì)的輪廓特征,并通過(guò)其輪廓對(duì)蛋白質(zhì)進(jìn)行跟蹤處理,得到神經(jīng)絲蛋白質(zhì)的運(yùn)動(dòng)路徑.取兩組神經(jīng)絲蛋白質(zhì)視頻圖像進(jìn)行蛋白質(zhì)跟蹤實(shí)驗(yàn),第1組選取單目標(biāo)神經(jīng)絲的跟蹤,取幀(07,10,15,20,25,28,30,40,44)為研究對(duì)象;第2組選取多目標(biāo)下單個(gè)神經(jīng)絲蛋白質(zhì)跟蹤實(shí)驗(yàn),取幀(36,40,45,52,55,65,70,75,81)為研究對(duì)象.圖4(a)是單目標(biāo)神經(jīng)絲蛋白質(zhì)跟蹤結(jié)果,圖4(b)是多目標(biāo)下神經(jīng)絲蛋白質(zhì)跟蹤結(jié)果.

        圖4 神經(jīng)絲蛋白質(zhì)跟蹤結(jié)果

        從圖4(a)中可以看到,視頻第40幀圖像中的神經(jīng)絲蛋白質(zhì)產(chǎn)生了畸變,普通的粒子濾波跟蹤方法會(huì)在第40幀丟失跟蹤目標(biāo)[6].而本文基于圖像處理的方法,應(yīng)用灰度直方圖、K-means聚類分割和主動(dòng)輪廓模型算法,直接將神經(jīng)絲蛋白質(zhì)從背景中分離出來(lái),神經(jīng)絲蛋白質(zhì)的畸變對(duì)該方法不產(chǎn)生影響.實(shí)驗(yàn)結(jié)果表明,該方法能夠有效的識(shí)別出視頻中運(yùn)動(dòng)的神經(jīng)絲蛋白質(zhì),從而達(dá)到跟蹤的目的.從圖4(b)中可以看出,當(dāng)圖像中存在多個(gè)神經(jīng)絲蛋白質(zhì)時(shí),普通跟蹤算法無(wú)法連續(xù)識(shí)別目標(biāo)神經(jīng)絲蛋白質(zhì),而本文基于圖像分割的方法,直接提取出包含目標(biāo)神經(jīng)絲蛋白質(zhì)的圖像部分進(jìn)行檢測(cè),在大大減少后續(xù)工作計(jì)算量的同時(shí),也提高了算法的精確度.結(jié)果表明,在多個(gè)神經(jīng)絲蛋白質(zhì)干擾的復(fù)雜情況下,本文的跟蹤方法仍能夠有效的識(shí)別出目標(biāo)神經(jīng)絲,比一般跟蹤算法具有更高的魯棒性和可靠性.

        為了對(duì)實(shí)驗(yàn)的跟蹤結(jié)果進(jìn)行跟蹤性能的數(shù)值化分析,本文使用人工標(biāo)記的方法與本文使用的方法、普通粒子濾波跟蹤算法對(duì)神經(jīng)絲蛋白質(zhì)在連續(xù)幀之間的首端移動(dòng)的像素距離進(jìn)行比較,結(jié)果表明:普通粒子濾波跟蹤在第1到第8幀之間跟蹤距離有較大出入,在第36到第42幀之間丟失跟蹤目標(biāo),存在較大誤差.而本文使用方法的計(jì)算結(jié)果表明該移動(dòng)距離非常接近手動(dòng)標(biāo)記獲得的像素距離,在跟蹤的準(zhǔn)確度上明顯優(yōu)于普通粒子濾波的方法,在神神經(jīng)絲干擾導(dǎo)致普通粒子濾波跟蹤算法在個(gè)別幀粒子分散、跟蹤不穩(wěn)定、造成較大誤差[5].而圖像處理跟蹤算法基于圖像分割與圖像關(guān)聯(lián)檢測(cè)的方法,鎖定目標(biāo)神經(jīng)絲蛋白質(zhì)進(jìn)行跟蹤,基本不受干擾,如圖5所示.

        圖5 人工標(biāo)記和圖像處理方法、粒子濾波方法所得到的連續(xù)幀間像素距離

        圖6 顯示出了相應(yīng)的跟蹤誤差值.從圖6(a)與圖6(b)對(duì)比得到,第一組視頻中基于粒子濾波的跟蹤方法在第6到第9幀誤差較大,在丟失目標(biāo)前后出現(xiàn)巨大跟蹤錯(cuò)誤,而基于圖像處理的跟蹤方法誤差較小,接近人工標(biāo)記的結(jié)果.對(duì)比圖6(c)與圖6(d),第二組視頻中基于粒子濾波的跟蹤方法的跟蹤誤差平均大于基于圖像處理的跟蹤方法.實(shí)驗(yàn)結(jié)果表明,與普通粒子濾波算法相比,基于圖像處理技術(shù)的跟蹤算法準(zhǔn)確度更高.

        圖6 圖像處理方法和粒子濾波方法的跟蹤誤差

        4 結(jié)論

        該項(xiàng)目構(gòu)建了適應(yīng)于視頻中熒光顯微下神經(jīng)絲蛋白質(zhì)運(yùn)動(dòng)目標(biāo)檢測(cè)的圖像采集軟件系統(tǒng),通過(guò)MATLAB拆分視頻獲得每一幀神經(jīng)絲蛋白質(zhì)圖像,研究了適合于該圖像的預(yù)處理方法.采用間隙統(tǒng)計(jì)法對(duì)神經(jīng)絲蛋白質(zhì)圖片進(jìn)行分析處理,將目標(biāo)聚成3類,使用K-means聚類分割算法逐次收斂出不同類別的對(duì)象的中心.通過(guò)處理初始輪廓提取出包圍面積最大的輪廓,利用主動(dòng)輪廓模型將初始輪廓迭代收斂為神經(jīng)絲蛋白質(zhì)的輪廓.通過(guò)每一幀蛋白質(zhì)的位置坐標(biāo),得到神經(jīng)絲蛋白質(zhì)的運(yùn)動(dòng)路徑,從而達(dá)到跟蹤的目的.系統(tǒng)能夠有效的提取出視頻中的神經(jīng)絲蛋白質(zhì),實(shí)現(xiàn)實(shí)時(shí)跟蹤,減少了運(yùn)算時(shí)間,提高了跟蹤效率.

        猜你喜歡
        輪廓濾波聚類
        OPENCV輪廓識(shí)別研究與實(shí)踐
        基于實(shí)時(shí)輪廓誤差估算的數(shù)控系統(tǒng)輪廓控制
        基于DBSACN聚類算法的XML文檔聚類
        基于改進(jìn)的遺傳算法的模糊聚類算法
        在線學(xué)習(xí)機(jī)制下的Snake輪廓跟蹤
        RTS平滑濾波在事后姿態(tài)確定中的應(yīng)用
        基于線性正則變換的 LMS 自適應(yīng)濾波
        一種層次初始的聚類個(gè)數(shù)自適應(yīng)的聚類方法研究
        自適應(yīng)確定K-means算法的聚類數(shù):以遙感圖像聚類為例
        基于隨機(jī)加權(quán)估計(jì)的Sage自適應(yīng)濾波及其在導(dǎo)航中的應(yīng)用
        亚洲国产精品无码久久| 成人免费播放片高清在线观看| 亚洲女同免费在线观看| 帅小伙自慰videogay男男| 欧美最猛黑人xxxx黑人表情| 精品亚洲欧美高清不卡高清| 国产av一区二区三区狼人香蕉| 成人免费自拍视频在线观看| 婷婷亚洲久悠悠色悠在线播放| 国产成人77亚洲精品www| 国产一区亚洲一区二区| 国产一级一级内射视频| 精精国产xxxx视频在线播放 | 久久久久亚洲精品无码蜜桃| 99久久久无码国产精品免费砚床| 亚洲老熟妇愉情magnet| 亚洲av成人一区二区| 精品无码av一区二区三区| 欧美人成人亚洲专区中文字幕| 国产女人高潮叫床免费视频| 秋霞午夜无码鲁丝片午夜精品| 极品美女尤物嫩模啪啪| 日本一区三区三区在线观看| 久久久久久国产精品免费免费男同| 久久精品国产亚洲AⅤ无码| 日本高清一区二区三区在线| 精品无码国产自产在线观看水浒传| 午夜福利av无码一区二区| 人妻无码一区二区| 极品少妇在线观看视频| 国产乱人伦av在线麻豆a| 精品国产sm捆绑最大网免费站| 亚洲αⅴ无码乱码在线观看性色| 性色国产成人久久久精品二区三区| 俺去啦最新地址| 精品高潮呻吟99av无码视频| 丝袜美腿一区二区在线观看| 一本色综合网久久| 无码a∨高潮抽搐流白浆| AV中文码一区二区三区| 青草久久婷婷亚洲精品|