亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于相機(jī)激光雷達(dá)融合的目標(biāo)檢測(cè)方法

        2024-03-09 08:34:49周沫張春城何超
        專用汽車 2024年2期

        周沫 張春城 何超

        摘要:針對(duì)單一傳感器在自動(dòng)駕駛車輛環(huán)境感知系統(tǒng)中易受環(huán)境干擾的問(wèn)題,通過(guò)融合激光雷達(dá)點(diǎn)云數(shù)據(jù)和相機(jī)圖像數(shù)據(jù),提出一種強(qiáng)魯棒性的目標(biāo)檢測(cè)方法。首先,通過(guò)YOLOv4和Pointpillars分別實(shí)現(xiàn)相機(jī)的2D目標(biāo)檢測(cè)和激光雷達(dá)的3D目標(biāo)檢測(cè);然后將點(diǎn)云從3D投影到2D笛卡爾坐標(biāo)下并計(jì)算相機(jī)幀下的3D邊框;進(jìn)而將相機(jī)幀中的3D邊界框轉(zhuǎn)換為圖像上的2D邊框;最后,計(jì)算在同一圖像上顯示的相機(jī)和激光雷達(dá)檢測(cè)框的IOU指標(biāo)后進(jìn)行邊框融合并修正融合后的目標(biāo)置信度,最終輸出目標(biāo)的融合框、類別和距離信息。在KITTI數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,相較單一傳感器的目標(biāo)檢測(cè)方法,所提出的方法通過(guò)點(diǎn)云和圖像數(shù)據(jù)的優(yōu)勢(shì)互補(bǔ)提高了目標(biāo)檢測(cè)的精度。

        關(guān)鍵詞:點(diǎn)云圖像;后期融合;置信度修正;目標(biāo)檢測(cè)

        中圖分類號(hào):U472.9;TP391.4? 收稿日期:2023-11-20

        DOI:10.19999/j.cnki.1004-0226.2024.02.019

        1 前言

        由于自動(dòng)駕駛車輛環(huán)境感知系統(tǒng)中傳感器本身硬件性能的局限性,基于單一傳感器的目標(biāo)檢測(cè)技術(shù)有很大的局限性,多傳感器融合目標(biāo)檢測(cè)技術(shù)可以實(shí)現(xiàn)不同傳感器間的優(yōu)勢(shì)互補(bǔ),因此近年來(lái)多傳感器融合技術(shù)受到了廣泛的關(guān)注。傳感器融合可以分為前期、中期和后期融合[1]。前融合即數(shù)據(jù)級(jí)融合,直接融合不同傳感器的原始數(shù)據(jù),具有較高的準(zhǔn)確性,但不易將不同維度的數(shù)據(jù)統(tǒng)一,數(shù)據(jù)處理量大,實(shí)時(shí)性較低。中期融合即特征級(jí)融合,對(duì)不同數(shù)據(jù)分別提取原始特征,再融合多個(gè)特征,根據(jù)目標(biāo)已有特征對(duì)融合特征進(jìn)行匹配,獲得目標(biāo)的信息。后融合即結(jié)果級(jí)融合,分別在不同的原始數(shù)據(jù)下檢測(cè)得到在該數(shù)據(jù)類型下的目標(biāo)包絡(luò)框、類別、位置等信息,然后對(duì)目標(biāo)的包絡(luò)框等信息進(jìn)行融合。后融合的方法具有較高的魯棒性且不受傳感器類別的影響。

        國(guó)內(nèi)外學(xué)者近年來(lái)對(duì)傳感器融合技術(shù)已經(jīng)有了一定的研究。陳俊英等[2]通過(guò)使用VoxelNet和ResNet的深度特征學(xué)習(xí)方法得到點(diǎn)云特征和圖像特征后,基于互注意力模塊挖掘模態(tài)間的互補(bǔ)信息,得到融合特征后使用區(qū)域提案網(wǎng)絡(luò)和多任務(wù)學(xué)習(xí)網(wǎng)絡(luò)實(shí)現(xiàn)了特征級(jí)融合3D目標(biāo)檢測(cè)及定位,但該方法數(shù)據(jù)處理量大,實(shí)時(shí)性難以保證。

        張青春等[3]提出了一種基于直線與平面擬合的算法,完成了相機(jī)與激光雷達(dá)的融合,更好地完成了機(jī)器人的環(huán)境識(shí)別任務(wù)。該方法使用的是單線激光雷達(dá),檢測(cè)精確度仍有待提升。

        WEI等[4]提出一種減少激光雷達(dá)假陽(yáng)性檢測(cè)的融合方法,利用在相機(jī)圖像上放置信標(biāo)通過(guò)神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)相機(jī)到LiDAR的投影,信標(biāo)能夠提高激光雷達(dá)檢測(cè)目標(biāo)的能力從而實(shí)現(xiàn)避免假陽(yáng)性的檢測(cè),該方法有效提升目標(biāo)位置的檢測(cè)性和信息標(biāo)記能力。

        鄭少武等[5]提出了一種基于激光點(diǎn)云與圖像信息融合的交通環(huán)境車輛檢測(cè)算法,通過(guò)對(duì)圖像和點(diǎn)云原始數(shù)據(jù)分別進(jìn)行目標(biāo)檢測(cè)與跟蹤,利用匈牙利算法對(duì)檢測(cè)結(jié)果進(jìn)行最優(yōu)匹配,并結(jié)合點(diǎn)云到圖像的投影對(duì)未匹配的圖像檢測(cè)框進(jìn)行進(jìn)一步篩選,最終對(duì)融合列表進(jìn)行分類后擇優(yōu)輸出。

        張堡瑞等[6]針對(duì)水面這種特殊環(huán)境及激光雷達(dá)在水面介質(zhì)中的點(diǎn)云反射特點(diǎn),提出點(diǎn)云與圖像融合的方法來(lái)解決水面漂浮物檢測(cè)問(wèn)題。有效消除水面漂浮物倒影或水面波紋造成的誤識(shí)別情況,彌補(bǔ)了相機(jī)檢測(cè)對(duì)光照依賴的短板,但該方法僅適用于特定場(chǎng)景,有一定的局限性。

        CHAVEZ-GARCIA[7]采用兩次聚類算法聚類點(diǎn)云數(shù)據(jù),并采用快速Adaboost分類器基于Haar-like特征識(shí)別車輛目標(biāo)。

        陳毅等[8]首先將點(diǎn)云數(shù)據(jù)前向投影形成二維深度圖,并通過(guò)深度補(bǔ)全方法將深度圖的分辨率提高至與圖像分辨率一致,然后使用YOLOv3算法分別檢測(cè)彩色圖和深度圖中的車輛目標(biāo),最后根據(jù)改進(jìn)的D-S證據(jù)理論對(duì)檢測(cè)結(jié)果進(jìn)行特征級(jí)融合,但對(duì)較小目標(biāo)的識(shí)別效果有待提高。

        常昕[9]提出了一種基于激光雷達(dá)和相機(jī)的信息融合的目標(biāo)檢測(cè)及追蹤算法。利用激光點(diǎn)云數(shù)據(jù)聚類方法對(duì)可通行區(qū)域的障礙物進(jìn)行檢測(cè),并投影到圖片上,確定跟蹤目標(biāo)后在粒子濾波的算法基礎(chǔ)上,利用顏色信息追蹤目標(biāo),采用激光雷達(dá)的目標(biāo)檢測(cè)結(jié)果對(duì)目標(biāo)追蹤結(jié)果進(jìn)行修正,減小了光照、遮擋、背景干擾等因素的影響,提高目標(biāo)追蹤效果。

        針對(duì)以上問(wèn)題,在環(huán)境感知系統(tǒng)中保證實(shí)時(shí)性的前提下,為了提高目標(biāo)檢測(cè)精度、降低誤檢率,本文提出一種通用的基于激光點(diǎn)云與圖像信息后融合的目標(biāo)檢測(cè)方法,選取性能優(yōu)異的目標(biāo)檢測(cè)算法作為基礎(chǔ)網(wǎng)絡(luò),充分利用點(diǎn)云空間坐標(biāo)與圖像像素坐標(biāo)的相互轉(zhuǎn)換關(guān)系,實(shí)現(xiàn)三維目標(biāo)與二維目標(biāo)的最優(yōu)匹配,輸出可靠的融合結(jié)果。

        2 融合方法概述

        僅使用相機(jī)對(duì)道路目標(biāo)進(jìn)行檢測(cè),易受到光照條件等因素影響,且無(wú)法獲得目標(biāo)的距離位置信息;僅使用激光雷達(dá)傳感器進(jìn)行目標(biāo)檢測(cè),受激光雷達(dá)自身線束及探測(cè)距離影響較大。為此,本文提出一種相機(jī)和激光雷達(dá)融合的目標(biāo)檢測(cè)方法,整個(gè)系統(tǒng)流程如圖1所示。

        傳感器的融合采用后融合(late fusion)的方法。首先分別將圖像和點(diǎn)云數(shù)據(jù)送入YOLOv4和Pointpillars網(wǎng)絡(luò)中,得到目標(biāo)的邊界框、類別和置信度;然后將點(diǎn)云坐標(biāo)轉(zhuǎn)換為笛卡爾坐標(biāo),并計(jì)算相機(jī)幀下的3D邊框;進(jìn)而將相機(jī)幀中的3D邊界框投影到圖像上并繪制激光雷達(dá)在圖像上的2D邊框;最后,計(jì)算在同一圖像上顯示的相機(jī)和激光雷達(dá)檢測(cè)框的IOU指標(biāo),對(duì)符合閾值的框進(jìn)行融合并修正目標(biāo)置信度,最終輸出目標(biāo)融合框、類別和距離信息。

        3 基于相機(jī)的目標(biāo)檢測(cè)

        YOLOv4算法是從YOLOv3發(fā)展而來(lái)的,YOLOv4在與EfficientDet[10]網(wǎng)絡(luò)性能相當(dāng)?shù)那闆r下,推理速度是EfficientDet的2倍左右,比上一代YOLOv3算法的平均精度AP和FPS分別提高了10%和12%。YOLOv4的網(wǎng)絡(luò)結(jié)構(gòu)如圖2,該算法由主干特征提取網(wǎng)絡(luò)CSPDarknet53、特征金字塔SPPNet和檢測(cè)結(jié)構(gòu)YOLO-Head構(gòu)成如圖2所示。主干網(wǎng)絡(luò)CSPDarknet53在YOLOv3主干網(wǎng)絡(luò)Darknet53基礎(chǔ)上,借鑒了CSPNet的思想,在減少參數(shù)計(jì)算量的同時(shí)保證了準(zhǔn)確率。YOLOv4算法在特征金字塔模塊中采用了SPPNet結(jié)構(gòu),進(jìn)一步提高了算法的特征提取能力,而YOLO Head特征層則繼續(xù)使用YOLOv3的結(jié)構(gòu)。

        本文使用KITTI數(shù)據(jù)集中圖片對(duì)神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,通過(guò)YOLOv4網(wǎng)絡(luò)識(shí)別得到目標(biāo)邊框和置信度如圖3所示。該網(wǎng)絡(luò)能夠在豐富的圖像信息中準(zhǔn)確地識(shí)別到車輛和行人目標(biāo)。

        4 基于激光雷達(dá)的目標(biāo)檢測(cè)

        激光雷達(dá)部分的目標(biāo)檢測(cè)采用Pointpillars算法,使用全新的編碼器來(lái)學(xué)習(xí)點(diǎn)云柱上面的特征,來(lái)預(yù)測(cè)點(diǎn)云數(shù)據(jù)中目標(biāo)的三維邊界框。Pointpillars保留了VoxelNet的基本框架,主要由特征提取層、二維卷積層和檢測(cè)輸出層組成,如圖4所示。特征提取層對(duì)點(diǎn)云數(shù)據(jù)進(jìn)行柱狀編碼,并提取柱狀體特征;二維卷積層對(duì)特征進(jìn)行多尺度捕獲;最后通過(guò)SSD(Single Shot Detector)檢測(cè)輸出目標(biāo)。

        該方法有幾個(gè)優(yōu)點(diǎn)。a.通過(guò)學(xué)習(xí)特征而不是依賴固定的編碼器,PointPillars可以利用點(diǎn)云表示的全部信息。b.通過(guò)對(duì)柱而不是體素進(jìn)行操作,不需要手動(dòng)調(diào)整。c.柱子是高效的,因?yàn)樗嘘P(guān)鍵操作都可以公式化為2D卷積,在GPU上計(jì)算非常高效,檢測(cè)在圖像上的可視化結(jié)果如圖5所示。

        5 后融合方法

        本文從結(jié)果的層面對(duì)相機(jī)激光雷達(dá)的檢測(cè)結(jié)果進(jìn)行融合,相機(jī)和激光雷達(dá)分別通過(guò)深度學(xué)習(xí)網(wǎng)絡(luò)得到目標(biāo)在圖像數(shù)據(jù)和點(diǎn)云數(shù)據(jù)中的檢測(cè)框。然后需要進(jìn)行時(shí)間和空間同步將激光雷達(dá)的三維檢測(cè)框投影到圖像上,對(duì)同一幀圖片中的不同傳感器檢測(cè)框利用交并比進(jìn)行篩選,最終輸出融合結(jié)果。

        5.1 時(shí)空匹配

        時(shí)間同步因相機(jī)和激光雷達(dá)的采樣頻率不同,正常情況相機(jī)的采樣頻率為30 Hz,激光雷達(dá)的采樣頻率為10~20 Hz。相機(jī)完成3幀圖像的采集,激光雷達(dá)才可以完成1幀的點(diǎn)云數(shù)據(jù)采集,所以同一時(shí)刻下相機(jī)和激光雷達(dá)的數(shù)據(jù)會(huì)出現(xiàn)不對(duì)應(yīng)的現(xiàn)象,影響融合檢測(cè)結(jié)果,所以需要進(jìn)行時(shí)間同步。本文利用ROS平臺(tái)的時(shí)間同步函數(shù),以激光雷達(dá)時(shí)間為基準(zhǔn),選擇與該時(shí)刻最近的相機(jī)數(shù)據(jù)保留為對(duì)應(yīng)的圖像幀。

        空間同步即相機(jī)和激光雷達(dá)聯(lián)合標(biāo)定過(guò)程,激光雷達(dá)坐標(biāo)系的點(diǎn)云數(shù)據(jù)投影到相機(jī)二維坐標(biāo)系下需要求取相機(jī)外部參數(shù)。相機(jī)坐標(biāo)系到像素坐標(biāo)系的轉(zhuǎn)換需要求取相機(jī)的內(nèi)部參數(shù)。設(shè)空間一點(diǎn)P在激光雷達(dá)坐標(biāo)系為[XL,YL,ZL],在相機(jī)坐標(biāo)系坐標(biāo)為[XC,Yc,Zc],在圖像坐標(biāo)系下為[xp,yp],在像素坐標(biāo)系坐標(biāo)為[u,v]。

        激光雷達(dá)轉(zhuǎn)換為像素坐標(biāo)系的關(guān)系表示為:

        [ZCuv1=1dx0u001dyv0001f000f0001? ? 000RCL? tCL01XLYLZL1]? ?(1)

        式中,[RCL? tCL01]為相機(jī)外參矩陣;f為相機(jī)焦距;[dx]、[dy]為x、y軸的像素轉(zhuǎn)換單位;[u0]、[v0]為投影屏幕中心相對(duì)于光軸出現(xiàn)的偏移。則激光雷達(dá)三維坐標(biāo)系下的點(diǎn)[XL,YL,ZL]轉(zhuǎn)換為像素坐標(biāo)下點(diǎn)[u,v]的問(wèn)題,轉(zhuǎn)化為求取相機(jī)內(nèi)外參數(shù)的過(guò)程。

        本文通過(guò)Autoware內(nèi)部的標(biāo)定工具進(jìn)行標(biāo)定,標(biāo)定過(guò)程通過(guò)手眼選取圖像和點(diǎn)云的對(duì)應(yīng)關(guān)系如圖6所示。

        5.2 邊框融合

        在完成傳感器的時(shí)空同步后,融合激光雷達(dá)點(diǎn)云檢測(cè)結(jié)果與相機(jī)檢測(cè)結(jié)果。如圖7所示,相機(jī)和激光雷達(dá)檢測(cè)框顯示在同一幀圖片上,紅色為激光雷達(dá)檢測(cè)投影框,黃色為相機(jī)檢測(cè)目標(biāo)框。接著對(duì)激光雷達(dá)檢測(cè)的投影邊界框和相機(jī)檢測(cè)的邊界框通過(guò)IOU進(jìn)行關(guān)聯(lián)匹配,當(dāng)重疊面積大于等于設(shè)定的閾值0.5時(shí),會(huì)被認(rèn)為匹配成功,輸出融合激光雷達(dá)的距離信息與相機(jī)傳感器的類別信息;當(dāng)重疊面積小于設(shè)定的閾值0.5時(shí),只輸出相機(jī)檢測(cè)到的目標(biāo)信息。

        由于在使用深度學(xué)習(xí)網(wǎng)絡(luò)對(duì)圖像和點(diǎn)云數(shù)據(jù)的目標(biāo)進(jìn)行檢測(cè)時(shí),設(shè)置的置信度概率閾值會(huì)過(guò)濾掉一部分置信度不高的目標(biāo)。但在實(shí)際實(shí)驗(yàn)過(guò)程中,一部分被識(shí)別出的目標(biāo)會(huì)因?yàn)樵O(shè)置的置信度閾值而被濾除,所以本文采用sigmoid函數(shù)對(duì)檢測(cè)到的目標(biāo)進(jìn)行置信度修正,其公式如下:

        [P2=sigmoid(P1+C)]? ? ? ? ? ? ? ? ? ? ? ?(2)

        [P2=eP1+C1+eP1+C]? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?(3)

        式中,[P1]為圖像識(shí)別目標(biāo)輸出的目標(biāo)置信度;[P2]為融合后修正的目標(biāo)置信度;[C]為調(diào)整系數(shù)。

        6 實(shí)驗(yàn)結(jié)果分析

        為了驗(yàn)證本文融合目標(biāo)檢測(cè)算法的有效性,在公開(kāi)的自動(dòng)駕駛數(shù)據(jù)集KITTI上進(jìn)行主要實(shí)驗(yàn)探究。KITTI數(shù)據(jù)集是目前國(guó)際上最大的自動(dòng)駕駛場(chǎng)景下的計(jì)算機(jī)視覺(jué)算法評(píng)測(cè)數(shù)據(jù)集。該數(shù)據(jù)集用于評(píng)測(cè)立體圖像、光流、視覺(jué)測(cè)距、3D物體檢測(cè)和3D跟蹤等計(jì)算機(jī)視覺(jué)技術(shù)在車載環(huán)境下的性能。KITTI包含市區(qū)、鄉(xiāng)村和高速公路等場(chǎng)景采集的真實(shí)圖像數(shù)據(jù),每張圖像中最多達(dá)15輛車和30個(gè)行人,還有各種程度的遮擋與截?cái)唷?/p>

        在訓(xùn)練模型時(shí),采用KITTI數(shù)據(jù)集中的3D目標(biāo)檢測(cè)數(shù)據(jù)集。因此,本文將KITTI數(shù)據(jù)集中7 481幀圖像和點(diǎn)云對(duì)應(yīng)數(shù)據(jù)按照8∶1∶1的比例隨機(jī)劃分訓(xùn)練集、測(cè)試集和驗(yàn)證集。本文主要對(duì)轎車和行人進(jìn)行研究。圖8為在KITTI數(shù)據(jù)集中測(cè)試的可視化結(jié)果,紅色框?yàn)槿诤虾蟮哪繕?biāo)檢測(cè)框,標(biāo)簽分別為目標(biāo)的類別和距離信息。

        為定量分析融合算法的性能,分別在KITTI中將融合算法分別與單一的YOLOv4檢測(cè)方法和單一Pointpillars方法進(jìn)行對(duì)比,由表1中可以看出,融合算法識(shí)別目標(biāo)的平均準(zhǔn)確率分別較YOLOv4和Pointpillars提高了2.76%和17.90%。

        7 結(jié)語(yǔ)

        本文提出了一種基于相機(jī)與激光雷達(dá)決策級(jí)融合的道路行人、車輛目標(biāo)檢測(cè)方法。通過(guò)YOLOv4和Pointpillars分別得到目標(biāo)在圖像和點(diǎn)云數(shù)據(jù)中的檢測(cè)框,然后經(jīng)過(guò)時(shí)間和空間的同步將不同的目標(biāo)檢測(cè)框統(tǒng)一在同一幀圖片上,通過(guò)檢測(cè)框之間交并比建立關(guān)聯(lián)并進(jìn)行篩選,最終輸出融合檢測(cè)的結(jié)果。在KITTI數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果證明,本文所提方法相對(duì)于單一傳感器的目標(biāo)檢測(cè)方法有效提高了對(duì)行人和車輛的檢測(cè)精度。

        參考文獻(xiàn):

        [1]LI S,KANG X,F(xiàn)ANG L,et al.Pixel-level image fusion: a survey of the state of the art[J/OL].?Information Fusion,2017,33:100-112.

        [2]陳俊英.互注意力融合圖像和點(diǎn)云數(shù)據(jù)的3D目標(biāo)檢測(cè)[J].光學(xué)精密工程,2021(9):2247-2254.

        [3]張青春.基于ROS機(jī)器人的相機(jī)與激光雷達(dá)融合技術(shù)研究[J].中國(guó)測(cè)試,2021(12):120-123.

        [4]WEI P,CAGLE L, REZA T,et al.Lidar and camera detection fusion in a real time industrial multi-sensor collision avoidance system[M/OL].arXiv,2018.

        [5]鄭少武.基于激光點(diǎn)云與圖像信息融合的交通環(huán)境車輛檢測(cè)[J].儀器儀表學(xué)報(bào),2019(12):143-151.

        [6]張堡瑞.基于激光雷達(dá)與視覺(jué)融合的水面漂浮物檢測(cè)[J].應(yīng)用激光,2021(3):619-628.

        [7]CHAVEZ GARCIA R.?Multiple sensor fusion for detection,classification and tracking of moving objects in driving environments[D].Universite De Gremoble,2014.

        [8]陳毅,張帥,汪貴平.基于激光雷達(dá)和攝像頭信息融合的車輛檢測(cè)算法[J].機(jī)械與電子,2020,38(1):52-56.

        [9]常昕.基于激光雷達(dá)和相機(jī)信息融合的目標(biāo)檢測(cè)及跟蹤[J].光電工程,2019(7):85-95.

        [10]TAN M,PANG R,LE Q V.EfficientDet: scalable and efficient object detection[C]//2020 IEEE/CVF comference on computer vision and pattern recognition,2020:10778-10787.

        作者簡(jiǎn)介:

        周沫,男,1998年生,碩士研究生,研究方向?yàn)槎鄠鞲衅魅诤夏繕?biāo)檢測(cè)。

        狠狠狠色丁香婷婷综合激情| 女优一区二区三区在线观看| 日本中国内射bbxx| 东方aⅴ免费观看久久av| 亚洲午夜无码久久yy6080| 久久综合激激的五月天| 国产饥渴的富婆一凶二区| 天天摸夜夜摸摸到高潮| 色婷婷欧美在线播放内射| 乱人伦人妻中文字幕不卡| 午夜免费观看一区二区三区| 亚洲熟妇无码av在线播放| 亚洲精品综合一区二区三| 美女高潮流白浆视频在线观看 | 国产自拍av在线观看| 无码av中文一区二区三区| 日本精品人妻无码77777| 国产h视频在线观看网站免费| 东京热加勒比国产精品| 偷看农村妇女牲交| 六月丁香婷婷色狠狠久久| 亚洲av中文无码乱人伦在线咪咕| 国产一区二区三区十八区| 亚洲av无码久久精品色欲| 国内少妇人妻丰满av| 亚洲国产精品亚洲高清| 亚洲av无一区二区三区久久蜜桃| 国模丽丽啪啪一区二区| 国产香蕉尹人在线视频播放| 精品专区一区二区三区| 国产一级内射视频在线观看| 欧美操逼视频| 亚洲中文久久久久无码| 人妻中文字幕一区二区视频| 大地资源网高清在线播放| 宅男噜噜噜| 日本一区二区高清视频在线| 久久久久亚洲精品男人的天堂| 999国内精品永久免费视频| 国产自精品在线| 久久久精品毛片免费观看|