亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        同一場景下超大尺度差異物體的識別和定位方法

        2020-12-31 02:24:14王一婷郝宗波
        計算機應用 2020年12期
        關鍵詞:尺度物體卷積

        王一婷,張 柯,李 捷,郝宗波*,段 昶,朱 策

        (1.電子科技大學信息與軟件工程學院,成都 610054;2.四川九洲電器集團有限責任公司,四川綿陽,621000;3.西南石油大學電氣信息工程學院,成都 610500;4.電子科技大學信息與通信工程學院,成都 611731)

        (?通信作者電子郵箱zbhao@uestc.edu.cn)

        0 引言

        圖像和視頻檢測一直是計算機視覺領域比較熱門的難題,深度學習的發(fā)展為目標檢測實現提供了一個可靠的解決途徑。YOLO(You Only Look Once)[1]正是一個基于深度學習的實時物體檢測系統(tǒng),從面世至今YOLO 一共有三個版本。YOLOv1[1]受到關注的原因是因為它具有非??斓臋z測速度。然而由于追求快速檢測,YOLOv1 不可避免地在其他方面做出了一些犧牲,比如YOLOv1 對于相互靠得很近的物體、很小的群體檢測效果不好,泛化能力也比較弱[2]。YOLOv2[3]與YOLOv1 相比較,具有了“Faster,Better,Stronger”的特點,但同時也具有一些缺點,比如仍然無法很好地識別小物體、使用softmax 分類器之后僅僅只支持單標簽對象等[3]。YOLOv3[4]與YOLOv2版本相比,使用logistic 分類器以支持多標簽對象,借鑒殘差網絡(Residual Network,ResNet)[5]得到了更好的基礎分類網絡Darknet-53,所以檢測速度和識別準確率都有所提高。

        因此考慮到如果要對同一場景中同時出現的多尺度目標物體(如圖1 所示,飛機的尺度比遠處行人大數百倍)進行實時檢測,出于實時檢測的要求,選用YOLOv3 進行檢測無疑是非常合適的[6]。

        圖1 包含超大超小目標的常規(guī)檢測圖Fig.1 Regular detection image with super-large and super-small objects

        但是由于YOLOv3 在每個網格(grid)中僅預測兩個邊界框(Bounding Box),這種約束減少了對同一個目標的多次檢測,即使是對正常尺度范圍內的物體進行檢測,YOLOv3 也具有識別物體位置精準性差、召回率低的缺點,所以想對同一場景中出現的超大超小物體進行很好的實時檢測,僅僅使用YOLOv3是無法滿足要求的[7]。

        為了解決YOLOv3 不能對超大超小物體進行很好的檢測問題,本文對YOLOv3 進行了以下兩個方面的改進:1)針對同一場景出現的超大、超小目標,改進和設計了基于YOLOv3 框架的目標物體檢測方法,結合金字塔技術,對不同尺度的目標物體在不同層提取特征,不同尺度的物體檢測在不同的特征層輸出;2)在訓練過程中,針對不同物體,采用動態(tài)交并比IoU(Intersection over Union,IoU)和獨立通道,較好地進行了超大超小目標物體的檢測。

        1 相關研究

        1.1 物體檢測

        物體檢測一直是計算機視覺領域中熱門經典的研究方向,隨著深度學習的不斷發(fā)展,物體檢測也逐漸由傳統(tǒng)的方法轉向使用深度學習進行檢測的方法。基于深度學習的物體檢測算法有效地提高了物體檢測的準確率與速度,主要可以分為兩大類:two-stage的算法和one-stage的算法。two-stage的算法主要是先由算法生成一系列作為樣本的候選框,再通過卷積神經網絡(Convolution Neural Network,CNN)進行分類,這一類的算法主要包括:R-CNN(Regions with Convolution Neural Network features)[8]、Fast R-CNN(Fast R-CNN)[9]、Faster R-CNN(Faster Regions with Convolution Neural Network features)[10]等。而one-stage 的算法則不用產生候選框,直接將目標定位的問題轉化為回歸問題處理,這類算法主要包括:YOLO、SSD(Single Shot MultiBox Detector)[11]、CenterNet[12]等。兩類方法基礎原理的不同,導致了兩類算法性能的不同:twostage 的算法可以分步訓練共享檢測結果,所以在檢測準確率和定位精度上占有優(yōu)勢;而one-stage 的算法則由于能實現完整單次訓練共享特征,所以可以在保證一定正確率的前提下在算法速度上占有優(yōu)勢,做到真正意義上的實時效果[13]。

        1.2 圖像分類

        而在圖像分類這個問題上,深度學習的發(fā)展飛速,在ImageNet 的分類問題上top-5 的誤差從15%降到2%,這是一個在1 000 類圖像分類問題上超越人類分類能力的結果。但是在目標檢測問題上,最好的檢測器在COCO(Common Objects in COntext)數據集上,即使有50%的重合率,檢測準確率也只有62%。

        待檢測目標在圖像中的大尺度變化范圍,尤其是小目標檢測是目標檢測諸多難點中最顯著的一個。在數據集ImageNet(物體分類)和COCO(物體檢測)中,中等尺度目標在圖像中的占比分別是0.554 和0.106,所以在COCO 中大部分目標在圖像中占據小于1%的面積,并且COCO 最小最大10%的目標在圖像中的占面積比分別是0.024和0.472(導致尺度相差近20 倍)。這種大尺度范圍的變化導致目標檢測極具挑戰(zhàn)性,需要深度卷積網絡具備非常好的尺度不變性和特征表征能力,然而檢測器一般都是在圖像分類數據庫上預訓練,再進行微調得到的,由于檢測和分類中的目標尺度差異很大,這又導致了一個大的領域遷移,因此超大超小物體檢測比物體分類要難很多。

        2 超大超小物體檢測

        卷積神經網絡(CNN)在圖像處理方面表現出極其優(yōu)異的性能,而深度卷積神經網絡隨著層數的加深,性能會得到進一步的提升,但各層提取的特征和作用是不一樣的,低層提取的是比較精細的特征,如角點、邊緣、紋理等,高層提取的是抽象的特征,包含更多語義方面的信息。低層網絡提取的特征更加豐富,適合于提取細節(jié)信息,對小物體有較好的作用,同時對精確定位更有幫助,而高層網絡對大尺度物體具有更好的抽象效果。本文考慮如何在同一幀圖像中檢測小尺度物體與大尺度物體,比如在一個機場跑道環(huán)境下,近處的飛機和遠處的行人、汽車等,尺度會相差非常大,由于攝像頭分辨率有限,小尺度物體一旦與大尺度物體在同一幀中出現就會自動演化成超小尺度物體,同理,原本的大尺度物體也會成為超大尺度物體,如圖2所示。

        此時如果識別超小尺度物體,如遠處的行人、汽車等,就從較低層網絡開始輸出,這樣做雖然看似特征不夠抽象,但是是有意義的。因為超小尺度物體在本幀圖像中本來像素占比就少,如果再經過多層抽象(卷積、下采樣等),剩余的信息就更少,反而會把周圍背景的信息引入進來,從而難以得到滿意的效果。因此對于超小尺度物體,如遠處的行人目標,本文考慮將從更淺的低層網絡直接進行檢測;對尺度中等的物體,如遠處的汽車、卡車目標,從低層和中層網絡聯合檢測;對超大尺度的物體,如近處的飛機目標,從高層網絡特征進行檢測。

        2.1 多尺度檢測的改進

        YOLOv3 網絡一共有106 層:其中第0 層到第74 層(前74層包含53 個卷積層)主要用于提取檢測目標特征;第75 層到第105 層為YOLO 網絡的特征交互層。其中,第75 層到第81層是小尺度YOLO層;將第79層的特征圖卷積進行上采樣后,再與第61層的中尺度特征圖進行合并卷積形成中尺度YOLO層;將第91 層的特征圖卷積進行上采樣后,再與第36 層的中尺度特征圖進行合并卷積形成大尺度YOLO 層。在訓練時,不同類別的樣本進入不同的通道,如超小尺度樣本的誤差在較淺層時,輸出分類和定位的誤差并反向更新前55 層的權重系數;當遇到中等尺度的訓練樣本時,前83 層和95 層得到更新;遇到超大尺度樣本時,所有層的權重都得到更新。此外在網絡中,前55 層應用所有Anchor 類型,即1∶3、3∶1 和1∶1(分別對應飛機、行人和汽車類目標)都用到,三種類型的目標物體都被檢測;在55~95 層只用到對應中等尺度樣本和超大尺度樣本Proposal 的Anchor 模板,最小尺度的目標不在55 層之后檢測;95層之后只應用1∶3的超大尺度目標物體的Anchor,對應于超大尺度目標。該改進可以使得超大尺度目標物體在更加抽象的粗粒度特征上進行分類,有利于對物體的識別,同時高層特征不會受超小尺度樣本的影響,更有利于超大尺度樣本的定位。

        本文對于YOLO 網絡結構的改進一方面保留了超小尺度物體更多的細節(jié)信息,另外一方面可以獲取更精準的定位精度,同時超小尺度樣本類別的提前輸出,使得訓練能夠更快地收斂。

        因為本文考慮到超小檢測目標和超大檢測目標可能出現在同一場景中,且超大、超小目標在監(jiān)控區(qū)域內尺度會隨著運動不斷變化,因此為了同時檢測大目標物體和小目標物體,在網絡的檢測器之前增加了空間金字塔層[14],該層可以針對同一物體的不同尺度提取特征并進行很好的學習。所以本文在YOLO 中增加了空間金字塔層[15],網絡結構如圖3所示。

        圖3 改進的網絡結構Fig.3 Improved network structure

        改進后的網絡架構如圖4 所示,分別在三個檢測器之前增加空間金字塔,實現對每種目標的多尺度特征提取,對于尺度差異較大的物體有較強的魯棒性。

        圖4 增加空間金字塔的YOLO結構Fig.4 YOLO structure with spatial pyramid

        2.2 超小物體檢測

        在目標檢測的研究中,小尺度目標因為下述原因,檢測非常困難:1)小物體因為本身很小,小物體類別內部尺度差異就非常大(小物體本身占據像素很少,導致計算尺度差異時分母很小,因此差異的比例非常大),要求檢測器的尺度不變性很強才能較好地檢測,而卷積神經網絡本身不具備尺度不變性;2)小物體本身所占像素就少,經過卷積和下采樣,到網絡的較深層時,有可能小物體的特征已經被“淹沒”,也就無法檢測到該物體。

        常見的檢測小目標物體和超大目標物體的方法主要有:1)使用CNN 中不同層的特征分別進行預測,淺層負責檢測小目標,深層負責檢測大目標;2)對低分辨率圖像進行上采樣,從而把分辨率低的圖像進行放大,隨之小尺度目標也被放大;3)使用膨脹卷積(Dilated/Deformable Convolution)來增加感受野,這可以使檢測器對尺度跨度大的問題適應性更強;4)深淺層特征結合進行預測,使淺層特征結合深層的語義特征,如FPN(Feature Pyramid Networks for object detection)。

        上述方法有時候也并不理想,如對圖像進行上采樣,雖然小尺度目標被放大了,中尺度、大尺度目標也同樣被增大,多尺度目標的特征比例并沒有變化,甚至可能增大到無法識別的地步,對訓練和識別都非常不利。

        因此在訓練過程中,本文考慮結合圖像金字塔尺度歸一化的方法,對特大/特小目標物體進行縮放訓練。由于YOLO在訓練過程中,正負樣本是根據預測值和標注框的IoU 來區(qū)分的,特大和特小的目標物體IoU 都容易很?。ㄈ缧∧繕宋矬w整個物體都落入預測框中,但IoU 仍然可能很小,超大物體也可能存在類似情況),所以采用多尺度訓練的方法,即對圖像進行不同程度的采樣,從而保證目標物體都縮放到中等尺度大小,中等尺度物體在用ImageNet 預訓練過的模型上進行微調效果最好。

        針對尺度相差非常大的場景目標,本文考慮采用三種尺度的樣本進行訓練,即原始尺寸、上采樣和下采樣三種尺度,上采樣主要負責小物體目標的檢測(如遠處跑道的汽車、小飛機和行人),下采樣樣本負責大尺度目標物體的檢測(如近處的大飛機)。在訓練時,上采樣對圖片進行放大,主要用于檢測小物體,圖片放大到1 040×1 040,ROI(Regions Of Interest)的寬度大于700 的樣本(大飛機)在權重更新時不進行反向傳播;下采樣主要負責超大物體的檢測,圖像分辨率縮小為160×160,ROI 小于10×10 的目標不參與反向更新(小目標物體);416×416 的圖像所有物體都參與訓練。網絡訓練架構如圖5所示。

        圖5 網絡訓練架構Fig.5 Network training architecture

        YOLOv3 在檢測小目標物體方面也做了改進,引入了FPN[12]的概念,FPN 是一種旨在提高準確率和速度的特征提取器,它取代了檢測器(如Faster R-CNN 中的特征提取器),并生成更高質量的特征圖金字塔。

        圖6 FPN網絡結構Fig.6 FPN network structure

        FPN 由自下而上和自上而下路徑組成,其中自下而上的路徑是用于特征提取的常用卷積網絡,空間分辨率自下而上地下降,當檢測到更高層的結構時,每層的語義值增加。同時FPN 提供了一條自上而下的路徑,從語義豐富的層構建高分辨率層的圖,雖然該重建層的語義較強,但是經過所有的上采樣和下采樣之后,目標的位置不精確,而在重建層和相應的特征圖之間添加橫向連接可以使得位置偵測更準確[12]。

        正因為YOLOv3 應用了FPN 的設計,使得整個網絡的識別能力取得了較大提升,但是通過對FPN進行分析后,發(fā)現對目標物體的檢測效果仍然擁有提升空間,主要的問題在于:YOLO 中一個柵格只能預測兩個物體,由于損失函數的存在,導致目標物體的檢測效果與理想中的效果仍然有一定的差距。

        2.3 動態(tài)交并比

        本文考慮到將對處于同一場景的超大超小目標同時進行檢測,且在檢測過程中檢測目標的尺度將處于動態(tài)變化中,以及給定的數據集中可能會出現有的類別數據多、有的類別數據少帶來的樣本不均衡問題。如果將IoU 設定為一個固定的值,那么可能出現部分訓練樣本的正負樣本差值過大,導致最后該分類所包含的特征過少、很難提取到足夠特征的情況,即便最后能得到分類模型,也容易產生過度依賴與過擬合問題,模型的泛化能力可能會無法保證。所以基于對以上情形的考慮,本文提出采用動態(tài)IoU的方案來解決問題。

        動態(tài)的IoU,即當前的IoU 閾值會隨著當前訓練樣本的正負樣本的比例來動態(tài)地調整,如果當前批度中樣本的正樣本與負樣本的差異過大,則會動態(tài)地減小正樣本的IoU 閾值,這樣就會使得之前鄰近正樣本閾值附近的樣本直接變?yōu)檎龢颖尽_@樣動態(tài)地調整以后,正負樣本會逐漸地趨于平衡。

        動態(tài)IoU 是在當前的樣本量中正樣本或負樣本的比例失調下使用,IoU的計算示意圖如圖7所示。

        圖7 IoU計算示意圖Fig.7 Schematic diagram of IoU calculation

        原始的IoU 計算是直接用交集除以并集,其中Area1、Area2和Area的面積計算式如式(1)所示:

        在原始狀態(tài)下IoU 大于某個固定值才為正樣本,為了解決樣本不均衡的問題,設定了一個跟正負樣本比值相關的動態(tài)閾值,當IoU 大于這個值則對應的樣本為正樣本,其計算式如式(3):

        其中:Ki是第i個錨點所對應的正樣本和負樣本的比值,;n是mini-batch中批度的大?。沪男枰诰W絡中動態(tài)地學習,使得模型中整個正負樣本的比例趨于1∶1,從而達到訓練樣本的均衡。

        3 實驗與結果分析

        3.1 數據集

        為驗證本文方法的有效性,將本文方法應用于對機場環(huán)境下大飛機、小飛機、行人和汽車的檢測。本文實驗在綿陽南郊機場(Mianyang Nanjiao Airport,MNA)采集,攝像機位于機場跑道外側120 m 處,識別目標包括近處起降跑道上的大飛機、遠處滑翔跑道上的小飛機,以及更遠處的行人和汽車,如圖2所示,數據集如表1所示。

        表1 超大超小物體識別使用數據集Tab.1 Datasets used for super-large and super-small object recognition

        表1給出了在本文實驗中所用到的數據集,4個數據集均為視頻數據集,表1 類型一列指出了數據類型。所有的數據集(MNA01、MNA02、MNA03及MNA04),其視頻來源于2個攝像頭,主要拍攝了機場內兩條跑道(一個起降跑道,一個滑翔跑道)上大飛機、小飛機、行人及汽車的移動狀況。由于是一個攝像頭需要同時拍攝4 種不同的檢測目標,并且隨著拍攝的進行,4 種不同的檢測目標均處在動態(tài)變化之中,包括4 種不同類別檢測目標的出現與消失,4 種不同類別的檢測目標與攝像頭的距離遠近造成的尺度變化。比如:隨著原本是大尺度檢測目標的大飛機隨著與攝像頭距離的拉遠從而變成小尺度檢測目標,原本是小尺度檢測目標的小飛機隨著與攝像頭距離的拉近從而變成大尺度檢測目標,4 種不同類別的檢測目標在移動中可能會出現重疊、相互遮擋等問題。這些復雜的數據集為超大超小目標檢測模型的訓練、測試帶來了巨大的挑戰(zhàn),對模型的泛化能力有著較高的要求。

        3.2 網絡參數

        本文實驗擬用YOLOv3 中的特征提取網絡Darknet-53 進行訓練,并且根據實際需求將會修改Darknet中的一些參數以便更好地訓練模型。Darknet-53 由一系列1×1 和3×3 的卷積層組成,一共有53 個卷積層。在本次實驗中,設置學習率為0.001,合適的學習率可以在保證收斂的前提下盡快收斂;設置滑動平均模型為0.9,在訓練的過程中不斷地對參數求滑動平均,可以更有效地保持穩(wěn)定性;設置權重衰減為0.000 5以防止過擬合;為了減輕內存的壓力,將batch 和subdivision設置為8。經測試發(fā)現,對數據集進行5 000 次迭代后即獲得了最優(yōu)模型。

        本文實驗輸入采用416×416,因此不同特征對應的尺度是13×13、26×26、52×52,即每個網格會輸出3 個預測框,預測種類數為4,則輸出的維度為27。這樣可以在不影響檢測結果的前期下,有效減少網絡的運算量,同時提高檢測精度和檢測的速度。

        3.3 結果分析

        本文實驗采集數據中遠處的小飛機長時間存在,近處跑道起降的大飛機速度較快,視頻中只有短暫的出現,因此分析時分開討論。

        首先是小飛機的檢測效果,從圖8 中可以看出,遠處的小飛機雖然距離遠,并且和背景非常相似,但本文方法可以很好地檢測出來。

        小飛機用了10 598 幀圖像進行測試,能夠準確檢測到10 098 幀,識別率達到95.28%,經過計算可以發(fā)現召回率(recall)能到達95.82%。

        采用控制變量法,使用未經修改的YOLOv3 對同樣的小飛機數據集進行測試,測試結果如圖9 所示,可以發(fā)現未經修改的YOLOv3檢測不到遠處與背景十分相似的小飛機。

        圖8 小飛機檢測效果Fig.8 Detection effects of small aircrafts

        圖9 使用YOLOv3的小飛機檢測結果Fig.9 Small aircraft detection result using YOLOv3

        由于大飛機在畫面中體積較大,所占的像素點很多,且離攝像頭距離非常近,可以更容易地被檢測出來。大飛機用了3 250幀圖像進行測試,能夠準確檢測到3 202幀,識別率達到98.52%,經過計算可以發(fā)現recall能到達98.83%。

        對于超大目標和超小目標來說,如果同一場景中同時具備超大和超小物體時,比如出現在起降跑道的大飛機和遠處跑道的行人及汽車,對檢測模型的挑戰(zhàn)更大,機場跑道的檢測情況如圖10所示。

        圖10 多種尺度目標檢測效果Fig.10 Detection effects of multi-scale objects

        從圖10 可以看到,在機場環(huán)境下出現了大飛機、小飛機、汽車和行人這4 種目標,遠處的小飛機和汽車可以被檢測到,但行人有漏檢情況,左側框旁邊站立有2 人,但只有1 個人被檢測出來,右側倉庫前面2 人未能檢測出來;大飛機只出現一部分時也可以被檢測到。如表2 所示,在本實驗中測試圖片7 315 張,出現大飛機1 716 張,可以識別出1 584 張,識別率為92.31%,經過計算可以發(fā)現recall 約為92.47%。小飛機因為大飛機的遮擋,出現5 598 次,正確檢測出5 256 次,識別率93.89%,經過計算可以發(fā)現recall 能到達98.72%。共有4 個行人出現在場景中,但有3 人一直未能檢測出來,可以被識別出的人在2 502 幀(其中40 幀該人被大飛機遮擋)圖像中被檢測出來913 幀,識別率36.49%,經過計算可以發(fā)現recall 能到達78.71%(只評估該人,如果將另外自始至終未識別出來的人考慮進去,識別率只有9.1%)。由于汽車在畫面中一直被大飛機或者小飛機遮擋,只露出了非常小的一部分,導致一直不能被很好地檢測出來。

        表2 超大超小物體檢測結果Tab.2 Detection results of super-large and super-small objects

        本文也使用了原始的YOLOv3 網絡對同一個數據集進行訓練和檢測,用以進行對比實驗,其檢測結果如圖11所示。

        從圖11中可以發(fā)現,在整個檢測過程中,YOLOv3只檢測到了大飛機,檢測不到遠處的小飛機,說明YOLOv3 并不能很好地同時檢測超大尺度物體與超小尺度物體。在本實驗中測試圖片7 315 張,出現大飛機1 716 張,可以識別出1 452 次,誤檢198 次,漏檢66 次,識別率84.62%,經過計算可以發(fā)現recall為88%。

        圖11 使用常規(guī)的YOLOv3進行檢測的目標識別效果Fig.11 Object recognition effect using conventional YOLOv3

        通過以上的實驗結果中可以看出,經過在三個檢測器之前增加空間金字塔和使用動態(tài)IoU 改造的網絡結構后,能夠實現對每種目標的多尺度特征進行更好的提取以及解決樣本不平衡的問題。使用改進后的YOLOv3 網絡與原始的YOLOv3 網絡進行比較,可以發(fā)現改進后的網絡對于同時檢測尺度差異較大的不同類物體有更高的準確率。

        4 結語

        本文首先利用圖像金字塔技術改進傳統(tǒng)的YOLOv3 框架,通過這一改進,在原始的YOLOv3 的結構之上,再經過三個檢測器之前增加三個針對不同尺度檢測目標的空間金字塔,使得改進后的網絡結構能夠更好地提取尺度差異較大的不同檢測目標的特征;其次,本文引入動態(tài)IoU 的概念,通過使用當前訓練樣本的正負樣本的比例來動態(tài)地調整IoU 閾值,解決了樣本不均衡的問題。實驗結果表明,本文方法在不增加時間開銷的情況下,能夠有效地提高對于不同尺度目標檢測的精確性。

        猜你喜歡
        尺度物體卷積
        基于3D-Winograd的快速卷積算法設計及FPGA實現
        財產的五大尺度和五重應對
        深刻理解物體的平衡
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        我們是怎樣看到物體的
        基于傅里葉域卷積表示的目標跟蹤算法
        宇宙的尺度
        太空探索(2016年5期)2016-07-12 15:17:55
        為什么同一物體在世界各地重量不一樣?
        9
        一種基于卷積神經網絡的性別識別方法
        電視技術(2014年19期)2014-03-11 15:38:20
        日韩国产一区| 国内自拍情侣露脸高清在线| 成 人色 网 站 欧美大片在线观看 | 粗大的内捧猛烈进出视频| 亚洲人成网站在线观看播放| 国语精品视频在线观看不卡| 国产女人精品一区二区三区| 国产成人无码a区在线观看导航 | 久久人妻少妇嫩草av无码专区| 国产日韩成人内射视频| 国产精品玖玖资源站大全| 亚洲中文字幕第15页| 久久久久亚洲av片无码| 国产亚洲美女精品久久久| 欧美日本视频一区| av免费网站免费久久网| 午夜男女很黄的视频| 久久亚洲国产精品成人av秋霞| 天堂av在线免费播放| 精品一区二区三区婷婷| 国产欧美日韩综合精品一区二区| 久草视频国产| 自拍偷拍一区二区三区四区| 青青草成人在线免费视频| 日韩欧群交p片内射中文| 亚洲国产成人精品福利在线观看| 色se在线中文字幕视频| 亚洲深深色噜噜狠狠网站| 99久久国产福利自产拍| 久久精品国产精品亚洲婷婷| 丝袜美腿精品福利在线视频| 夜夜春亚洲嫩草影院| 國产一二三内射在线看片| 一区二区高清视频在线观看| 中文字幕亚洲熟女av| 国产麻豆精品久久一二三| 人妻av一区二区三区av免费| 亚洲午夜精品第一区二区| 日本19禁啪啪吃奶大尺度| 91福利视频免费| 日本97色视频日本熟妇视频|