亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于TensorFlow 的垃圾分揀機(jī)器人設(shè)計(jì)

        2020-08-25 09:09:14吳蓬勃姚美菱孫青華
        實(shí)驗(yàn)室研究與探索 2020年6期
        關(guān)鍵詞:深度實(shí)驗(yàn)模型

        吳蓬勃, 姚美菱, 王 拓, 孫青華

        (石家莊郵電職業(yè)技術(shù)學(xué)院電信工程系,石家莊050021)

        0 引 言

        隨著人工智能技術(shù)的飛速發(fā)展,許多國家已將人工智能作為國家發(fā)展戰(zhàn)略。為此,國家制定了《新一代人工智能發(fā)展規(guī)劃》[1]。人工智能領(lǐng)域面臨著巨大的人才缺口[1],各高校相繼開設(shè)了人工智能相關(guān)專業(yè)[2]。以TensorFlow為代表的深度學(xué)習(xí)技術(shù)、基于深度學(xué)習(xí)的機(jī)器人控制技術(shù)逐漸成為人工智能專業(yè)的核心課程。受限于深度學(xué)習(xí)的高復(fù)雜度,部分院校的深度學(xué)習(xí)課程存在著理論與實(shí)踐脫節(jié)的情況,實(shí)驗(yàn)很難開展。深度學(xué)習(xí)的實(shí)驗(yàn)平臺價(jià)格昂貴,實(shí)驗(yàn)內(nèi)容缺少與實(shí)際案例的結(jié)合,課堂實(shí)踐內(nèi)容缺少對課外實(shí)踐與學(xué)科競賽的支持[1]。

        相關(guān)學(xué)者針對機(jī)器視覺和深度學(xué)習(xí)技術(shù),研制了一些實(shí)驗(yàn)平臺。文獻(xiàn)[3]中使用π超級計(jì)算機(jī)和NVIDIA Pascal加速卡,構(gòu)建了校級高性能計(jì)算機(jī)平臺,并部署了TensorFlow等多款深度學(xué)習(xí)軟件框架,面向校內(nèi)提供深度學(xué)習(xí)應(yīng)用服務(wù)[3]。文獻(xiàn)[4]中使用基于NVIDIA Jetson TX1研制了計(jì)算機(jī)視覺創(chuàng)新實(shí)驗(yàn)平臺,使得計(jì)算機(jī)視覺可以脫離計(jì)算機(jī),應(yīng)用于嵌入式系統(tǒng)領(lǐng)域;并將傳統(tǒng)機(jī)器視覺算法和深度學(xué)習(xí)算法在實(shí)驗(yàn)平臺上進(jìn)行了驗(yàn)證。該實(shí)驗(yàn)平臺具有一定的先進(jìn)性,但是與實(shí)際案例的結(jié)合尚有欠缺。文獻(xiàn)[5]中使用機(jī)器視覺,設(shè)計(jì)了水果雕花機(jī)器人創(chuàng)新實(shí)驗(yàn),案例內(nèi)容豐富,采用的是傳統(tǒng)機(jī)器視覺技術(shù),與新技術(shù)的對接尚待加強(qiáng)。

        本實(shí)驗(yàn)平臺以社區(qū)垃圾分揀為應(yīng)用場景,基于TensorFlow深度學(xué)習(xí)框架和機(jī)械臂控制技術(shù)構(gòu)建垃圾視覺分揀系統(tǒng)。實(shí)現(xiàn)了實(shí)驗(yàn)內(nèi)容與實(shí)際應(yīng)用案例的結(jié)合,學(xué)生在學(xué)習(xí)人工智能先進(jìn)技術(shù)的同時(shí),也熟悉了我國的垃圾分類制度,促進(jìn)了學(xué)生垃圾分類習(xí)慣的養(yǎng)成。同時(shí),本實(shí)驗(yàn)平臺所采用的NVIDIA Jetson TX2嵌入式機(jī)器學(xué)習(xí)平臺和智能機(jī)械臂控制系統(tǒng),也為學(xué)生的課外實(shí)踐和學(xué)科競賽提供了有效的支持。

        1 整體設(shè)計(jì)方案

        本實(shí)驗(yàn)平臺系統(tǒng)框架如圖1所示,主要包括:嵌入式AI計(jì)算機(jī)模塊NVIDIA Jetson TX2、STM32控制板、4軸機(jī)械臂、傳輸帶、USB高清攝像頭以及垃圾桶等設(shè)備。NVIDIA Jetson TX2使用垃圾分類模型對垃圾進(jìn)行視覺分類。STM32控制板負(fù)責(zé)機(jī)械臂和傳輸帶的運(yùn)動(dòng)控制,同時(shí)采集垃圾桶滿、污水收集桶空、滿狀態(tài)并上傳到云端。

        圖1 系統(tǒng)架構(gòu)圖

        系統(tǒng)運(yùn)行流程為:各類垃圾通過垃圾投放口進(jìn)入系統(tǒng),傳輸帶將垃圾逐個(gè)分離;傳輸帶末端安裝有光電傳感器,若垃圾從傳送帶滑落到機(jī)械臂托盤,傳輸帶將停止運(yùn)轉(zhuǎn);機(jī)械臂將垃圾搬運(yùn)到攝像頭下方,進(jìn)行圖像識別分類;NVIDIA Jetson TX2將垃圾分類結(jié)果通過串口發(fā)送給STM32,STM32控制機(jī)械臂將垃圾搬運(yùn)、傾倒到指定的垃圾桶。

        實(shí)驗(yàn)平臺的核心處理器選型應(yīng)遵循:先進(jìn)性、易用性、實(shí)用性、易教學(xué)和高性價(jià)比。目前深度學(xué)習(xí)嵌入式實(shí)驗(yàn)平臺的架構(gòu)主要包括:CPU+VPU(例如:樹莓派+Movidius VPU)、CPU +GPU(例如:NVIDIA Jetson TX2以及RK3399)、CPU +TPU(例如:Google Coral Dev Board:NXP IMX8+ Google Edge TPU)。

        由于數(shù)據(jù)的采集標(biāo)注和模型的訓(xùn)練都在PC機(jī)或者服務(wù)器進(jìn)行,大部分依賴于NVIDIA顯卡。相對于其他方案,NVIDIA Jetson TX2嵌入式AI計(jì)算單元可以直接運(yùn)行在計(jì)算機(jī)上訓(xùn)練好的模型文件,不需要進(jìn)行格式轉(zhuǎn)換,不會(huì)有運(yùn)算性能的較大損失。可以實(shí)現(xiàn)計(jì)算機(jī)到嵌入式平臺的平滑切換,更加適合深度學(xué)習(xí)的實(shí)驗(yàn)教學(xué)。

        此外,NVIDIA Jetson TX2嵌入式AI計(jì)算單元采用了NVIDIA Pascal GPU架構(gòu),配有256個(gè)NVIDIA CUDA核心;具有雙核Denver2 64 bit CPU和4核ARM A57 Complex,提供豐富的標(biāo)準(zhǔn)硬件接口[6]。使得NVIDIA Jetson TX2具備更加先進(jìn)的性能,可應(yīng)用于教學(xué)、科研和課外學(xué)術(shù)競賽。

        2 平臺硬件設(shè)計(jì)

        實(shí)驗(yàn)平臺硬件組成,如圖2所示。主要包括:TensorFlow深度學(xué)習(xí)單元、執(zhí)行單元和控制、感知與通信單元。

        TensorFlow深度學(xué)習(xí)單元由:NVIDIA Jetson TX2開發(fā)板、配套的顯示與輸入設(shè)備、USB攝像頭、無線路由器和PC機(jī)組成。數(shù)據(jù)的采集和標(biāo)注、模型的訓(xùn)練均通過PC機(jī)完成,訓(xùn)練好的模型通過無線網(wǎng)絡(luò)傳送到NVIDIA Jetson TX2開發(fā)板運(yùn)行測試,測試結(jié)果通過串口輸出到STM32開發(fā)板。

        圖2 實(shí)驗(yàn)平臺硬件框圖

        控制、感知與通信單元包括:STM32控制板、多路光電檢測傳感器以及NB-IOT通信單元。STM32控制板通過串口接收垃圾識別結(jié)果,并進(jìn)行數(shù)據(jù)過濾,通過另外一路串口驅(qū)動(dòng)機(jī)械臂和傳輸帶運(yùn)動(dòng)。STM32控制板還可以通過多路光電開關(guān)檢測傳輸帶上的垃圾是否進(jìn)入機(jī)械臂托盤、垃圾桶和污水桶空、滿等情況,通過NB-IOT實(shí)時(shí)傳輸垃圾桶、機(jī)械臂和傳輸帶狀態(tài)到云端的服務(wù)器。

        執(zhí)行單元主要包括:4軸機(jī)械臂和傳輸帶。機(jī)械臂帶有步進(jìn)電機(jī)接口,可直接控制傳輸帶啟停。用戶只需通過機(jī)械臂的串行接口,就可控制機(jī)械臂和傳輸帶的運(yùn)動(dòng)。

        3 平臺實(shí)驗(yàn)設(shè)計(jì)

        Google的TensorFlow深度學(xué)習(xí)框架已在計(jì)算機(jī)視覺、自然語言理解和語音識別等方面得到了廣泛應(yīng)用[7-8]。本實(shí)驗(yàn)平臺,以垃圾分揀為應(yīng)用場景,以TensorFlow Object Detection API開源代碼庫為基礎(chǔ),應(yīng)用MobileNet SSD模型,對垃圾進(jìn)行視覺分類,通過STM32控制機(jī)械臂實(shí)現(xiàn)垃圾分揀。

        具體實(shí)驗(yàn)流程,如圖3所示。主要包括:自定義數(shù)據(jù)集的制作、公共數(shù)據(jù)集的裁剪、數(shù)據(jù)的合并與格式轉(zhuǎn)換、模型訓(xùn)練、模型測試和模型部署幾個(gè)部分。

        圖3 實(shí)驗(yàn)流程圖

        3.1 垃圾的圖像采集、標(biāo)注與格式轉(zhuǎn)換

        TensoFlow的圖像識別模型,需要經(jīng)過大量垃圾圖片的訓(xùn)練,才能取得良好的垃圾識別性能。垃圾的圖像數(shù)據(jù)采集至關(guān)重要。

        數(shù)據(jù)集的獲取途徑主要有兩種:自己采集并制作數(shù)據(jù)集(即:自定義數(shù)據(jù)集)、采用公共數(shù)據(jù)集。公共數(shù)據(jù)集已經(jīng)進(jìn)行了良好的圖片篩選和預(yù)處理,訓(xùn)練效果良好,是垃圾圖像數(shù)據(jù)獲取的有效途徑。公共數(shù)據(jù)集所識別的物體種類有限,如果所要識別的垃圾在現(xiàn)有數(shù)據(jù)集中不存在,則需要手動(dòng)采集制作數(shù)據(jù)集。

        自定義數(shù)據(jù)集的制作流程包括:圖片數(shù)據(jù)的采集、圖片的預(yù)處理以及圖像標(biāo)注。垃圾圖片的采集可以通過相機(jī)拍攝實(shí)物獲取,也可通過網(wǎng)絡(luò)爬蟲等工具網(wǎng)絡(luò)獲取。為提高準(zhǔn)確率,要求在不同背景、不同光線、不同角度、不同垃圾數(shù)量等情況下拍攝垃圾圖片。通過網(wǎng)絡(luò)爬蟲等工具獲取的圖片,需要進(jìn)行人工篩選,刪掉一些不合格的圖片。圖像的標(biāo)注采用LableImg軟件實(shí)現(xiàn),軟件輸出為Pascal可視對象數(shù)據(jù)庫(Pascal Visual Object Classes,Pascal VOC)格式的XML標(biāo)注文件。

        對于公共數(shù)據(jù)集,本平臺采用了微軟的日常場景通用物體(Miscrsoft Common Objects in COntext,MS COCO)數(shù)據(jù)集,與Pascal VOC相比,MS COCO數(shù)據(jù)集具有更多的物體種類(COCO為90類,Pascal VOC為20類),每張圖片中包含更多的種類和更多的小物體,可有效提高模型識別物體的精度。但是,MS COCO數(shù)據(jù)集非常龐大,數(shù)據(jù)集中的物體種類并不是垃圾識別全部需要的,需要進(jìn)行數(shù)據(jù)集的裁剪,提取出需要識別的物體種類的圖片和標(biāo)注信息。

        為了實(shí)現(xiàn)垃圾圖像自定義數(shù)據(jù)集與公共數(shù)據(jù)集的合并,需要將從MS COCO數(shù)據(jù)集中提取的圖片數(shù)據(jù)轉(zhuǎn)換為VOC格式的數(shù)據(jù),如圖4所示。

        圖4 MS COCO數(shù)據(jù)集到VOC數(shù)據(jù)集格式的轉(zhuǎn)換

        MS COCO數(shù)據(jù)集主要包括3個(gè)文件夾:圖像標(biāo)注文件夾annotations,訓(xùn)練用圖片文件夾train和驗(yàn)證用圖片文件夾val。其中,文件夾annotations中存放了caption、instance和person的JSON格式的標(biāo)注文件,對于物體識別,只需關(guān)注instance的標(biāo)注文件。VOC數(shù)據(jù)集包括6個(gè)文件夾,分別是:Annotations、ImageSets和 JPEGImages、 labels、 SegmentationsClass 和SegmentationObject。對于物體識別,只需要關(guān)注前3個(gè)文件夾,分別為:XML格式的標(biāo)注數(shù)據(jù)文件夾Annoatations、圖片訓(xùn)練驗(yàn)證比例劃分文件夾ImageSets和圖片數(shù)據(jù)JPEGImages。

        數(shù)據(jù)格式的轉(zhuǎn)換過程:根據(jù)垃圾分類規(guī)定,從MS COCO數(shù)據(jù)集中篩選出相應(yīng)的物體分類列表;根據(jù)分類列表從MS COCO數(shù)據(jù)集annotations文件夾中的instance_train2017.json 和instance_val2017.json 中,提取相應(yīng)分類的標(biāo)注信息,并生成相應(yīng)的XML文件;保存到VOC的Annotations文件夾。根據(jù)分類列表從MS COCO數(shù)據(jù)集train和val文件夾中提取圖片放入VOC的JPEGImages文件夾。最后,在VOC的ImageSets文件夾,生成圖片訓(xùn)練和驗(yàn)證索引文件。

        公共數(shù)據(jù)集提取的數(shù)據(jù)與自定義數(shù)據(jù)集合并后,通過TensorFlow的Objection Detection API庫程序creat_pascal_tf_record.py[9],生成統(tǒng)一的TFRecord 格式文件。

        3.2 MobileNet SSD 模型

        基于深度學(xué)習(xí)的目標(biāo)檢測方法主要包括:區(qū)域候選模型算法(例如:Faster-RCNN[10])和回歸模型算法(例如:單發(fā)多盒探測器(Single Shot MultiBox Detector,SSD)[11])[12]。后者與前者相比,雖然對小目標(biāo)的檢測精度稍低,但具有更快的運(yùn)行速度,更適合資源受限的嵌入式系統(tǒng)應(yīng)用。

        SSD模型由Liu W等[11]提出,采用單個(gè)深度神經(jīng)網(wǎng)絡(luò)多盒檢測器對圖像中的物體進(jìn)行檢測[9,11]。為使得模型更加適用于嵌入式系統(tǒng),減少運(yùn)算量,Andrew等[13]基于SSD框架提出了MobileNet模型,將SSD模型的超分辨率測試序列網(wǎng)絡(luò)替換成MobileNet網(wǎng)絡(luò);使用深度可分離卷積替換原來的標(biāo)準(zhǔn)卷積核,減少了計(jì)算量;通過引入兩個(gè)超參數(shù),減少了參數(shù)數(shù)量和計(jì)算量[12]。

        MobileNet SSD模型已經(jīng)在眾多的物體識別場合得到了廣泛應(yīng)用,使用此模型進(jìn)行教學(xué)實(shí)驗(yàn),可使教學(xué)實(shí)驗(yàn)與實(shí)際應(yīng)用對接。

        3.3 模型訓(xùn)練與測試

        考慮到教學(xué)實(shí)驗(yàn)與學(xué)科競賽在時(shí)間、硬件、性能要求等方面的區(qū)別,本實(shí)驗(yàn)分為基礎(chǔ)實(shí)驗(yàn)和課外擴(kuò)展實(shí)驗(yàn)兩部分。基礎(chǔ)實(shí)驗(yàn)采用自定義數(shù)據(jù)集進(jìn)行模型訓(xùn)練,每個(gè)學(xué)生選擇一種垃圾進(jìn)行模型訓(xùn)練。學(xué)生可對數(shù)據(jù)采集、數(shù)據(jù)標(biāo)注、模型訓(xùn)練、模型測試與部署等環(huán)節(jié)有更加系統(tǒng)全面的認(rèn)識;模型訓(xùn)練所需時(shí)間更短,更易于課堂教學(xué)。課外擴(kuò)展實(shí)驗(yàn),需要采用更高性能的GPU硬件,采用公共數(shù)據(jù)集與自定義數(shù)據(jù)集融合的數(shù)據(jù)集,訓(xùn)練的時(shí)間將更長,從而到達(dá)接近生產(chǎn)實(shí)際的垃圾分揀水平。

        模型訓(xùn)練與測試的具體流程為:

        (1)下載預(yù)訓(xùn)練模型ssd_mobilenet_v1_coco_2017_11_17 到TensorFlow Object Detection API庫的object_detection文件夾。

        (2)根據(jù)垃圾數(shù)據(jù)集的實(shí)際種類,修改object_detection/data文件夾中的lable map文件mscoco_label_map.pbtxt。

        (3)修改object_detection\samples\configs 中的配置文件ssd_mobilenet_v1_coco.config。根據(jù)實(shí)際訓(xùn)練的垃圾種類,修改num_classes;指定訓(xùn)練和驗(yàn)證的數(shù)據(jù)集文件路徑input_path(即:訓(xùn)練和驗(yàn)證的TFRecord文件路徑);指定lable map文件存放路徑。

        (4)根據(jù)計(jì)算機(jī)CPU和內(nèi)存配置情況,酌情調(diào)整模型每次訓(xùn)練的批次大小batch_size。

        (5)當(dāng)訓(xùn)練的損失率total loss逐漸減小,準(zhǔn)確度mAP逐漸增大并接近1.0時(shí),可停止訓(xùn)練過程。通過TensorFlow Object Detection API庫的模型文件輸出程序export_inference_graph.py,將訓(xùn)練好的模型和參數(shù)文件轉(zhuǎn)換為可獨(dú)立運(yùn)行的PB模型文件[9]。圖5為使用有害垃圾——藥片板的圖像數(shù)據(jù)集(319張圖片),對模型訓(xùn)練9 817次后,模型的識別率,識別率已經(jīng)達(dá)到了80%。圖6為使用藥片板數(shù)據(jù)集對模型訓(xùn)練11 026次的total loss圖,損失率降低到了10%。

        (6)通過TensorFlow Object Detection API庫的測試程序object_detection_tutorial.py對訓(xùn)練好的PB 模型文件進(jìn)行測試,考查模型訓(xùn)練的結(jié)果。圖7為使用藥片板數(shù)據(jù)集對模型訓(xùn)練11 026次后的識別效果圖,可看出已能夠識別出全部的藥片板。

        圖5 模型訓(xùn)練9 817次的識別率

        圖6 模型訓(xùn)練11 026次的整體損失率圖

        圖7 模型訓(xùn)練11 026次后的識別效果圖

        3.4 垃圾識別模型在TX2上的部署

        在計(jì)算機(jī)上訓(xùn)練好的垃圾識別模型文件,需要在NVIDIA Jeston TX2(后面簡稱TX2)平臺上進(jìn)行部署。TX2平臺上需事先安裝好NVIDIA的神經(jīng)網(wǎng)絡(luò)推理加速框架TensorRT。TensorRT可以將TensorFlow、Caffe、PyTorch和MXnet等框架的深度學(xué)習(xí)模型進(jìn)行解析,并針對NVIDIA設(shè)備進(jìn)行優(yōu)化和部署加速[14-15]。

        實(shí)驗(yàn)流程:

        (1)將訓(xùn)練好的最新PB模型文件、lable map文件和ssd_mobilenet_v1_coco.config 模型配置文件拷貝到TensorRT的data目錄下。

        (2)為增加對新模型文件的支持,需要修改TensorRT的utils目錄下的egohands_models.py文件,添加對新模型的支持。

        (3)打開TensorRT 中的camera_tf_trt.py 文件,修改模型名稱DEFAULT_M(jìn)ODEL和lable map文件路徑DEFAULT_LABELMAP。

        (4)修改TensorRT的utils目錄下的visualization.py文件,實(shí)現(xiàn)對識別結(jié)果的串口輸出。

        經(jīng)過以上實(shí)驗(yàn)步驟,即可完成模型部署。圖8~11為對藥片板的識別結(jié)果,可見訓(xùn)練好的模型在不同光線、不同姿態(tài)、不同種類、遠(yuǎn)距離和背景雜亂情況下,都可以實(shí)現(xiàn)對藥片板的準(zhǔn)確識別。

        圖8 強(qiáng)光環(huán)境下的識別結(jié)果

        圖9 暗光、擺放姿態(tài)改變情況下的識別結(jié)果

        圖10 暗光、不同種類藥片板識別結(jié)果

        圖11 暗光、遠(yuǎn)距離、背景雜亂情況下識別結(jié)果

        3.5 垃圾分揀機(jī)器人實(shí)驗(yàn)平臺

        圖12 為垃圾分揀機(jī)器人實(shí)驗(yàn)平臺實(shí)物圖,其中包括:垃圾投放入口、垃圾分離傳輸帶、垃圾承載托盤、USB高清攝像頭、4軸機(jī)械臂、NVIDIA Jeston TX2、STM32控制板以及智能垃圾桶等設(shè)備。表1列出了目前實(shí)驗(yàn)平臺可以識別的、方便教學(xué)的垃圾種類。

        圖12 垃圾分揀機(jī)器人實(shí)驗(yàn)平臺

        表1 垃圾分揀機(jī)器人可識別的垃圾種類列表

        4 結(jié) 語

        本文以垃圾分揀為實(shí)際工作場景,基于TensorFlow深度學(xué)習(xí)框架,采用MobileNet SSD模型,通過NVIDIA Jetson TX2機(jī)器學(xué)習(xí)平臺和智能機(jī)械臂控制系統(tǒng),實(shí)現(xiàn)了垃圾分揀機(jī)器人實(shí)驗(yàn)平臺的設(shè)計(jì)和研制,并進(jìn)行了相應(yīng)的垃圾分類實(shí)驗(yàn)設(shè)計(jì);為人工智能相關(guān)專業(yè)的教學(xué)、科研和課外學(xué)術(shù)競賽提供了一套完整的教學(xué)實(shí)驗(yàn)平臺,具有良好的實(shí)用價(jià)值。本垃圾分揀機(jī)器人在2019世界機(jī)器人大會(huì)工業(yè)機(jī)器人設(shè)計(jì)大賽中,獲得一等獎(jiǎng),并獲得現(xiàn)場專家和觀眾的一致好評。

        猜你喜歡
        深度實(shí)驗(yàn)模型
        一半模型
        記一次有趣的實(shí)驗(yàn)
        深度理解一元一次方程
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        做個(gè)怪怪長實(shí)驗(yàn)
        深度觀察
        深度觀察
        深度觀察
        3D打印中的模型分割與打包
        久久精品人人做人人爽| 日本超级老熟女影音播放| 老熟女富婆激情刺激对白| 国产无套内射久久久国产| 久久精品国产亚洲av网站| 色猫咪免费人成网站在线观看| 精品国产一区二区三区亚洲人| 日本视频一区二区这里只有精品| 国产一区二区三区在线综合视频| 亚洲欧洲精品无码av| 免费毛片在线视频| 亚洲最大的av在线观看| 精品人妻av一区二区三区| 欧美性猛交xxxx乱大交3| 免费无码又爽又刺激高潮的视频网站 | 亚洲乱亚洲乱妇| 伊人久久综合影院首页| 麻美由真中文字幕人妻| 亚洲麻豆视频免费观看| 国产精品一区二区无线| 任你躁国产自任一区二区三区| 日本一区二区高清在线观看| 亚洲最大成人网站| 丁香五香天堂网| 色婷婷精品综合久久狠狠| 日本二区三区视频在线观看| 白嫩人妻少妇偷人精品| 国产精品_国产精品_k频道| 97SE亚洲国产综合自在线不卡| 久久久国产精品三级av| 粉嫩av国产一区二区三区 | 中文字幕亚洲精品无码| 国产精品久久久久久麻豆一区 | 亚洲人成网站www| 国产老熟女精品一区二区| 和外国人做人爱视频| 久久久国产精品福利免费| 国产成人综合久久大片| 精品人妻少妇嫩草av无码专区| 国产一级做a爱免费观看| 女同久久精品国产99国产精|