亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        無人機與深度學習在建筑物實時檢測中的應用

        2021-03-25 02:09:34張陽陽孫晨帆
        軟件導刊 2021年3期
        關鍵詞:卷積神經(jīng)網(wǎng)絡深度

        張陽陽,詹 煒,孫晨帆

        (長江大學計算機科學學院,湖北荊州 434023)

        0 引言

        本文基于深度學習方法,通過無人機采集城市建筑圖像,經(jīng)過篩選和標注構造數(shù)據(jù)集,在tensorflow 深度框架下構建神經(jīng)網(wǎng)絡對建筑圖像數(shù)據(jù)集進行訓練,得到高魯棒性的檢測模型,從而實現(xiàn)對目標建筑物的實時檢測。

        在深度學習技術出現(xiàn)以前,傳統(tǒng)的建筑監(jiān)測方法主要是利用遙感影像數(shù)據(jù)檢測[1],由人工對遙感影像[2]進行解釋。對違建問題由群眾監(jiān)督舉報,再由主管執(zhí)法部門到現(xiàn)場確認,其缺點顯而易見:①取證難;②成本高,巡查速度慢、效率低;③發(fā)現(xiàn)、過程處理及事后監(jiān)管難,易反復。識別違章建筑的關鍵是檢測建筑物的變化情況。早期建筑物變化檢測大都通過人工解釋,效率較低且存在建筑物遺漏問題。

        20 世紀90 年代以來,學者通過遙感影像數(shù)據(jù)檢測城市建筑物變化。通過分析在相同地區(qū)不同時間段所獲取的遙感圖像中光譜的變化情況,比較不同時間段圖像的差異從而檢測發(fā)生變化的地物并區(qū)分變化類別[3]。該方法實現(xiàn)路線是:首先計算同區(qū)不同時段兩期影像的變化矢量,然后利用直方圖閾值、貝葉斯最小錯誤率、經(jīng)驗公式、人工判別等閾值法設置變化量閾值,將遙感影像分為變化區(qū)域和未變化區(qū)域兩部分,最后通過分析變化區(qū)域內(nèi)像素的變化方向?qū)ψ兓悇e進行區(qū)分。基于遙感影像的城市建筑物變化檢測方法缺點是:①該方法是一種對比方法,需要規(guī)劃部門提供原始的建筑物規(guī)劃數(shù)據(jù)用于對比,規(guī)劃數(shù)據(jù)難以獲得;②遙感影像成本高,分辨率低;③對比算法的很多參數(shù)和閾值需要人工定義,影像檢測效果較差。

        近年無人機航測航拍科技、深度學習和計算機視覺技術的蓬勃發(fā)展,為建筑的快速準確識別提供了新的檢測和監(jiān)控技術手段[4],提高了城市建筑的識別效率[5],降低了管理成本,提升了城市建筑管理水平,為構建智慧城市提供了理論和技術支持。

        本文針對傳統(tǒng)的城市建筑物檢測方法缺陷,創(chuàng)新性提出城市管理中應用無人機視覺數(shù)據(jù)深度學習識別技術的新方法,利用最前沿的深度學習算法[6]實時分析無人機拍攝的視頻流,自動識別目標區(qū)域各種建筑物或城市中的特定目標,為城市管理提供一種全新的技術手段[7]。該方法實施步驟如下:①編程操控無人機飛控平臺API 接口,設定飛行區(qū)域及參數(shù),根據(jù)設定的參數(shù)引導無人機至目標區(qū)域內(nèi)采集訓練所需要圖像數(shù)據(jù),篩選有用的圖像數(shù)據(jù)建立深度神經(jīng)網(wǎng)絡訓練所需的數(shù)據(jù)集;②設計合適的網(wǎng)絡結構,通過第①步制作的“城市管理平臺”數(shù)據(jù)集訓練深度神經(jīng)網(wǎng)絡;③深度學習算法訓練的檢測器自動識別目標區(qū)域內(nèi)的建筑物并標記,為后續(xù)城市管理提供決策支持,提高城管執(zhí)法精準性和效率。

        1 相關工作

        目前,計算機視覺已廣泛覆蓋工業(yè)、醫(yī)療、軍事、農(nóng)業(yè)、商業(yè)等領域,與人們的社會活動緊密相連。作為基礎的技術支持,深度學習和計算機視覺與人工智能的發(fā)展緊密相關。

        深度學習和計算機視覺技術是人工智能技術的重要分支。計算機視覺用計算機模擬人視覺神經(jīng)處理圖像,通過計算機設備實現(xiàn)人的視覺功能,從而認識、分析外界環(huán)境。簡而言之,物體識別、物體定位以及對于物體運動狀態(tài)進行判斷是深度視覺系統(tǒng)主要解決的3 個問題。計算機視覺作為計算機的眼睛,是機器認識外部環(huán)境、分析外部環(huán)境的一種方式。而認識、分析外部環(huán)境是實現(xiàn)人工智能不可或缺的重要部分??匆娛堑谝徊?,只有看見才能進一步去分析然后做出判斷,進而代替人類完成各種任務。它與語音識別一起構成人工智能的感知智能,賦予機器探測外部世界的能力,進而做出判斷,采取行動,讓更復雜層面的智慧決策、自主行動成為可能。

        深度學習視覺算法在檢測精度方面可以做到傳統(tǒng)視覺識別方法無法企及的高度。不同于傳統(tǒng)的機器學習,深度學習網(wǎng)絡包含了更多的隱層結構,通過多層隱層網(wǎng)絡的復雜連接,不斷加深網(wǎng)絡層數(shù),可更加深入地挖掘訓練數(shù)據(jù)之間的內(nèi)在聯(lián)系,實現(xiàn)復雜函數(shù)的近似逼近,通過建立魯棒性更高的模型對非標簽數(shù)據(jù)進行預測。深度網(wǎng)絡往往擁有比淺層網(wǎng)絡更好的擬合能力,其原因在于每個隱層都對上一層輸出進行了非線性變換,多次非線性變換使模型找到一個合適的表達。深度學習通過多種基礎的函數(shù)組成更加復雜的函數(shù)關系,以表達較為復雜的問題。

        深度學習的出現(xiàn)大大提高了視覺識別準確率。計算機視覺[8]技術發(fā)展大致經(jīng)歷兩個階段:①人們通過經(jīng)驗歸納提取,進而設定機器識別物體的邏輯,通過人為設計合適的特征識別算法讓機器識別物品。由于認識物體的邏輯是人為設定的,不能窮舉各種復雜的情境,因而魯棒性較差,識別準確率較低;②深度學習的出現(xiàn)讓識別邏輯由人為設定變?yōu)榉答伿阶詫W習狀態(tài),數(shù)據(jù)量的爆發(fā)式增長和計算機算力的大幅提升驅(qū)動了物體識別率提升。目前深度學習持續(xù)突破性發(fā)展,尤其在計算機視覺領域有重大突破。

        得益于深度學習算法模型、數(shù)據(jù)量增加以及CPU、GPU等計算硬件支撐[9],計算機視覺技術得以更加高效地實現(xiàn),并最終集成于多類產(chǎn)品和應用場景之中(如機器人、無人駕駛等)。當下,結合人工智能的深度學習技術,無人機越來越廣泛地應用于農(nóng)業(yè)、商業(yè)、軍事、工業(yè)等行業(yè)[10],人們將其統(tǒng)稱為專業(yè)應用級無人機[11],該類無人機已經(jīng)被應用在一些行業(yè),如對城市建筑進行合理監(jiān)控。該方法首先通過無人機獲取建筑圖像并進行數(shù)據(jù)處理,然后設計深度學習算法及網(wǎng)絡模型,最后運用建筑圖像的檢測模型對需要檢測的建筑物體進行識別和分類。這項技術可應用于高層建筑的違建檢測[12]、建筑的破損程度檢測、高層建筑火災檢測等眾多領域。這項技術的研究重點是對建筑進行快速有效識別,其難點在于:一是動態(tài)視頻識別過程中對光線變化、遮擋等干擾難度更大,這對機器實現(xiàn)圖像識別、濾除干擾提出了很高要求;二是動態(tài)視頻識別對機器識別速度要求較高。一些公司通過智能前端化方式來提升分析速度,即在智能前端攝像頭搭載強并行計算能力處理器,以提供更實時、更高效、不依賴無線網(wǎng)絡傳輸?shù)闹悄芊铡?/p>

        深度學習具有較強的泛化能力和遷移能力[13],通過遷移學習保留其他數(shù)據(jù)集的有效特征,并對原始數(shù)據(jù)集采用翻轉、旋轉、縮放、隨機拼接等數(shù)據(jù)增強操作擴展數(shù)據(jù)集的豐富性,同時強化對建筑物特征的學習能力,提高神經(jīng)網(wǎng)絡模型的魯棒性,從而使其有效克服光線的明暗變化、建筑物之間的遮擋等場景變化的差異所帶來的影響;數(shù)據(jù)集中無人機拍攝的高分辨率圖像樣本輸入神經(jīng)網(wǎng)絡之前,先將像素縮小為224*224 大小,這一操作雖然損失了原始圖片中的部分特征,但大大減少了神經(jīng)網(wǎng)絡的計算量。為了保證建筑物的檢測精度,在設計神經(jīng)網(wǎng)絡結構時采用5 層卷積層的設計方式,有效提高了模型的檢測速度。

        2 方法實現(xiàn)

        2.1 實現(xiàn)框架

        本文采用最前沿的人工智能及深度學習技術[14]建立模型。深度學習(Deep Learning)能夠自主地從訓練數(shù)據(jù)集上學習已有數(shù)據(jù)集的有用特征(Feature),特別是在一些不知道如何設計特征的場合,如建筑物特征等。深度學習本質(zhì)上是通過構建具有多隱層的神經(jīng)網(wǎng)絡模型,對海量訓練數(shù)據(jù)自主學習并從數(shù)據(jù)中提取出能夠描述被檢對象的主要特征,從而大幅增加模型的識別準確率。和傳統(tǒng)的機器學習相比,深度學習網(wǎng)絡模型最大的特點是多層網(wǎng)絡結構。

        本文提出一種無人機視覺數(shù)據(jù)深度學習識別技術模型,模型實現(xiàn)框架如圖1 所示。

        Fig.1 Implementation framework圖1 實現(xiàn)框架

        2.2 實現(xiàn)方案

        基于上述框架實現(xiàn)步驟如圖2 所示。

        Fig.2 Implementation route圖2 實現(xiàn)路線

        (1)基于無人機平臺建立訓練圖像數(shù)據(jù)集。對飛控平臺API 編程,設定目標飛行區(qū)域和參數(shù);無人機圖像采集;按照統(tǒng)一格式提取每張圖像的關鍵信息并打標簽;按照規(guī)則建立圖像訓練及測試數(shù)據(jù)集以備用。

        (2)訓練深度學習網(wǎng)絡。采用現(xiàn)有深度學習算法框架Tensorflow[15]設計深度學習網(wǎng)絡;將第(1)步建立的圖像數(shù)據(jù)集輸入到深度學習算法的訓練模塊中,進行大量有效的算法訓練。

        (3)無人機采集待分析區(qū)域里的圖像數(shù)據(jù)?;诘冢?)步的數(shù)據(jù)集和第(2)步的深度訓練網(wǎng)絡,自動檢測并識別目標區(qū)域中建筑物的變化情況并做標記,供管理部門參考。

        2.2.1 建立城市建筑圖像數(shù)據(jù)集

        (1)無人機飛行區(qū)域及參數(shù)API 編程。為避免無人機無規(guī)則“亂飛”(采集的圖像數(shù)據(jù)無效),采用大疆飛控平臺,調(diào)用大疆官方提供的飛控API 參數(shù),通過程序設計設定飛行參數(shù),劃定無人機飛行區(qū)域,設定高度、飛行速度、相機云臺傾斜角度、相機拍照頻率等關鍵數(shù)據(jù)采集,讓無人機按照既定參數(shù)飛行,采集有效圖像數(shù)據(jù)。

        (2)如圖3 所示,按照樹結構建立可擴充的圖像數(shù)據(jù)集作為算法的訓練數(shù)據(jù)集。樹根分為違章建筑和占道經(jīng)營兩個一級分支:①違章建筑分支下根據(jù)建筑物高度分為20m 以下、50m 以下和100m 以下3 個二級分支;②占道經(jīng)營分支下建立一個二級分支;③每個二級分支下存儲500~1 000 張相關航拍圖像;④為保證算法的訓練效果,每張存入數(shù)據(jù)集的圖像都經(jīng)過人工篩選和打標簽,否則不能入庫;⑤該數(shù)據(jù)集的各級分支都是可擴充的,方便項目延伸到其他應用。

        Fig.3 Branch structure of urban management image dataset圖3 城市管理圖像數(shù)據(jù)集分支結構

        (3)標記數(shù)據(jù)集。用程序或人工為圖像集打標簽,為網(wǎng)絡訓練做數(shù)據(jù)準備,如圖4 所示。

        Fig.4 Annotation process of deep learning city management image dataset圖4 深度學習“城市管理”圖像數(shù)據(jù)集標注流程

        2.2.2 深度學習網(wǎng)絡

        采用卷積神經(jīng)網(wǎng)絡(Convolutional Neural Nets,CNNs/ConvNets)進行數(shù)據(jù)集網(wǎng)絡訓練,提取圖像特征,其數(shù)據(jù)集網(wǎng)絡訓練過程如圖5 所示。

        Fig.5 Network training process圖5 網(wǎng)絡訓練過程

        深度學習網(wǎng)絡結構按不同的方向分為以下幾類:①典型生成型深度結構,其主要代表有深度置信網(wǎng)絡[16](DBN)。DBN 通過一系列限制型玻爾茲曼機組成,用來處理深度多層神經(jīng)網(wǎng)絡架構在進行特征學習過程中產(chǎn)生的標簽數(shù)據(jù)需求量大、模型收斂速度較慢以及陷入局部極值等問題。DBN 可以同時對先驗概率和后驗概率進行估計,因為其網(wǎng)絡是對訓練數(shù)據(jù)以及標簽進行聯(lián)合學習得到的概率;②區(qū)分型模型。典型代表是CNNs,其結構不同于DBN,CNNs 只能對后驗概率進行估計,所以CNNs 多用來解決神經(jīng)網(wǎng)絡的目標識別和分類問題;③混合型結構。當生成型深度結構用于分類模型問題時,網(wǎng)絡后期利用分區(qū)結構進行參數(shù)優(yōu)化,所以稱作混合型結構。

        通過上述分析可知,在圖像識別和目標檢測領域中卷積神經(jīng)網(wǎng)絡(CNN)是最適合于深度學習的神經(jīng)網(wǎng)絡結構,CNN 卷積神經(jīng)網(wǎng)絡比普通神經(jīng)網(wǎng)絡增加了隱藏層,其間包含了多個卷積層和下采樣層的組合。首先,卷積層能夠通過卷積核較好地提取輸入圖片的局部特征,卷積層具有進行權值共享的特性,能大大減少神經(jīng)網(wǎng)絡在訓練過程中所需參數(shù)計算的數(shù)量;其次,下采樣層可以忽略目標的傾斜。旋轉之類的相對位置變化在不改變特征圖大小的同時還可進一步減少特征圖的分辨率,幫助神經(jīng)網(wǎng)絡提取高層次的語義特征,提升檢測精度,避免過閉合情況發(fā)生。該卷積神經(jīng)網(wǎng)絡主要層次結構如圖6 所示。

        Fig.6 A typical convolution neural network structure圖6 典型的卷積神經(jīng)網(wǎng)絡結構

        在深度學習網(wǎng)絡中,通過大小不同的卷積核對上一層特征圖依次進行卷積操作可提取不同的目標局部特征,同時這些不同的局部特征圖共同作為神經(jīng)網(wǎng)絡下一層采樣輸入數(shù)據(jù)。卷積l中第j個神經(jīng)元公式如下:

        其中,k表示卷積核,M表示輸入層的感受野,b為偏置,f(·)表示卷積網(wǎng)絡的激活參數(shù)。一個卷積層設計由多個特征圖構成,且各個特征之間權值共享,這樣可以顯著降低網(wǎng)絡中自由參數(shù)的數(shù)量。

        下采樣層(又稱池化層)一般設計在卷積層的后面,可以采取最大池化和平均池化等算法將多個像素值壓縮成一個,其功能是提取特征以減少數(shù)據(jù)規(guī)模,降低網(wǎng)絡分辨率,從而實現(xiàn)畸變、位移穩(wěn)健性,避免網(wǎng)絡過擬合發(fā)生。下采樣計算公式如下:

        其中,pooling(·)代表池化函數(shù),β代表權重系數(shù)。

        卷積神經(jīng)網(wǎng)絡訓練過程由前向傳播和反向傳播兩個階段組成。在前向傳播階段,信息從輸入層開始向前逐層傳播,經(jīng)過多個卷積、池化、連接操作和全連接層直至網(wǎng)絡最后的輸出層,前向傳播過程中網(wǎng)絡通過下式計算:

        其中,yi表示卷積網(wǎng)絡第i層的輸出,fi(·)表示卷積網(wǎng)絡第i層激活函數(shù),wi為第i層卷積核的權值向量。

        反向傳播過程中,計算實際輸出(預測值)與標簽信息(真實值)之間的差值,然后按照極小化誤差策略設計模型的誤差函數(shù),反向傳播調(diào)整網(wǎng)絡各層參數(shù)的權值,采用隨機梯度下降法[17]等優(yōu)化函數(shù)進行參數(shù)調(diào)整。

        采用卷積神經(jīng)網(wǎng)絡結構設計的深度學習神經(jīng)網(wǎng)絡模型具有權值共享[18]、模型復雜度低和權值參數(shù)少的優(yōu)點。相較于傳統(tǒng)圖像識別算法[19],該模型能夠避免復雜的人工手動特征提取以及數(shù)據(jù)重建過程,可通過深度神經(jīng)網(wǎng)絡的正向和反向傳播過程自動學習特征[20],在數(shù)據(jù)集規(guī)模較大的目標檢測及識別項目中具有顯著優(yōu)勢。

        2.2.3 城市建筑圖像數(shù)據(jù)自動識別

        建立樣本數(shù)據(jù)集和模型后即可自動識別,本文深度學習網(wǎng)絡如圖7 所示。

        輸入層:輸入224×224×3 的圖像,其原因是彩色圖像有3 個通道。

        卷積層1+下采樣:由96 個11×11×3 的濾波器、步長為4對輸入層進行卷積,卷積后得出96 個55×55 大小的特征圖。接著采用Maxpooling 方法進行特征圖下采樣,其下采樣窗口為3×3,步長Stride 設計為2,最終得出96 個27×27 大小的特征圖像。

        卷積層2+下采樣:首先由256 個5×5×48 的濾波器對卷積層1 下采樣,需要注意的是該層為圖像兩邊各補充2 個像素點,所以按照公式(27-5+2×2+1)/1 的數(shù)據(jù)進行卷積,得出256 個27×27 的特征圖。然后采用Maxpooling 方法進行特征圖下采樣,其下采樣窗口為3×3,步長Stride 設計為2,最終得出256 個13×13 大小的特征圖像。

        Fig.7 Deep learning network model圖7 深度學習網(wǎng)絡模型

        卷積層3:用384 個3×3×256 的濾波器對卷積層2 下采樣后的特征圖像進行卷積操作,注意為圖像兩邊各補充1個像素點,采用公式(13-3+2×1+1)/1 得出384 個13×13 的特征圖,結果在兩個GPU 共同存儲,這是兩個GPU 進行的唯一一次數(shù)據(jù)交流。

        卷積層4:除了卷積對象是卷積層3 的數(shù)據(jù)GPU 不進行數(shù)據(jù)交流,其余步驟和卷積層3一樣,得384個13×13特征圖。

        卷積層5:用256 個3×3×192 的濾波器對卷積層4 的數(shù)據(jù)進行卷積,同時在這一步驟中會對圖像進行Padding 操作,為圖像兩邊各補充1 個像素點,得到256 個13×13 特征圖。然后采用Maxpooling 方法進行特征圖下采樣,其下采樣窗口為3×3,步長Stride 設計為2,最終得出256 個6×6 的特征圖。

        全連接層1:將卷積層5 下采樣后的256 個6×6 特征圖的像素排成一列,即共有9 216 個元素作為輸入,然后調(diào)用神經(jīng)網(wǎng)絡設計全連接層的參數(shù)將之維度下降到4 096 維。

        全連接層2:將全連接層1 的特征數(shù)據(jù)通過全連接神經(jīng)網(wǎng)絡后,輸出得到4 096 維特征數(shù)據(jù)。全連接層3:將全連接層2 的特征數(shù)據(jù)經(jīng)過全連接神經(jīng)網(wǎng)絡降維后,輸出得到1 000 維特征數(shù)據(jù)。

        3 實驗結果

        實驗平臺見表1,預測類別準確率見表2,訓練和驗證損失函數(shù)曲線見圖8,檢測結果見圖9。

        Table 1 Experimental platform表1 實驗平臺

        Table 2 Accuracy of prediction categories表2 預測類別準確率(%)

        Fig.8 Training and validation loss function curve圖8 訓練和驗證損失函數(shù)曲線

        Fig.9 Test results圖9 檢測結果

        4 實驗分析

        實驗使用烏班圖16.04 操作系統(tǒng),tensorflow-GPU 版本深度學習開發(fā)環(huán)境,CPU 采用英特爾9900K,GPU 采用11G顯存的Nvdia RTX2080Ti,如表1 所示。經(jīng)過30 個epoch 訓練之后檢測模型對所有類別的檢測平均準確率可以達到94%,尤其是對建筑的檢測率最高,達到98%,可以滿足建筑物檢測需求,但是對樹的檢測準確率只有92%,如圖8 所示。經(jīng)過實驗數(shù)據(jù)分析,數(shù)據(jù)集中建筑物樣本分布更加平均,樣本數(shù)量更加豐富;樹樣本分布集中在部分圖片中,樣本分布密集且數(shù)量較少,所以導致樹的檢測率較低,這是后期數(shù)據(jù)集需要改進的地方。

        5 結語

        本文創(chuàng)新性地將“無人機”和“深度學習”兩大新興熱門技術應用到城市管理工作中。通過無人機飛控API 函數(shù)設計并編程實現(xiàn)劃定無人機飛行區(qū)域、高度、圖像數(shù)據(jù)采集頻率,避免“亂飛”,采集有效的無人機視覺數(shù)據(jù);拓展深度學習應用領域,建立城市管理深度學習圖像數(shù)據(jù)集;設計適合城市管理需要的深度訓練和識別網(wǎng)絡,建立城市管理深度學習模型;利用無人機的飛行優(yōu)勢,對城市中特定區(qū)域內(nèi)的建筑進行識別,及時、準確、直觀地掌握城區(qū)建筑物現(xiàn)狀,有效拓展城市建筑管理執(zhí)法視野和效率,使城市建設監(jiān)管更加科學有效。

        本文提出的設計框架和實施路線具有極強的通用性,除了檢測建筑,該技術還可以拓展到其他領域,如基于無人機平臺的城市交通擁堵自動識別;基于無人機航拍的人體異常行為檢測;基于無人機的農(nóng)業(yè)病蟲害預防應用等。通過對不同場景下的數(shù)據(jù)進行訓練,實現(xiàn)無人機在不同場景的識別功能,發(fā)揮該模型豐富的應用潛能。

        猜你喜歡
        卷積神經(jīng)網(wǎng)絡深度
        基于3D-Winograd的快速卷積算法設計及FPGA實現(xiàn)
        深度理解一元一次方程
        神經(jīng)網(wǎng)絡抑制無線通信干擾探究
        電子制作(2019年19期)2019-11-23 08:42:00
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        深度觀察
        深度觀察
        深度觀察
        基于傅里葉域卷積表示的目標跟蹤算法
        基于神經(jīng)網(wǎng)絡的拉矯機控制模型建立
        重型機械(2016年1期)2016-03-01 03:42:04
        復數(shù)神經(jīng)網(wǎng)絡在基于WiFi的室內(nèi)LBS應用
        精品国产AⅤ无码一区二区| 国产内射视频在线免费观看| 日本精品视频一区二区三区四区| 在线看无码的免费网站| 国产精品人妻一码二码尿失禁| 麻豆国产巨作AV剧情老师| 国产高清黄色在线观看91| 97女厕偷拍一区二区三区| 男女18视频免费网站| 国产综合久久久久久鬼色 | 国产精品国产三级国产专播 | 吃奶还摸下面动态图gif | 久久和欧洲码一码二码三码| 精品无码AV无码免费专区| 秋霞国产av一区二区三区| 激情亚洲不卡一区二区| 免费观看a级毛片| 麻豆精品久久久久久久99蜜桃| 亚洲国产成人AV人片久久网站| 男子把美女裙子脱了摸她内裤| 色婷婷久久综合中文蜜桃| 永久免费a∨片在线观看| 无码毛片视频一区二区本码| 亚洲一区二区欧美色妞影院| 亚洲一区二区三区新视频| 亚洲av成人av三上悠亚| 少妇人妻精品一区二区三区| 男女18禁啪啪无遮挡| 少妇高潮惨叫久久久久电影| av中文字幕在线直播| 午夜精品久久久久久久| 东北寡妇特级毛片免费| 精品日韩欧美| 成人自拍三级在线观看| 亚洲av中文无码乱人伦在线视色| 国产影片中文字幕| 成人无码网www在线观看| 字幕网中文字幕精品一区| 综合偷自拍亚洲乱中文字幕| 中文字幕乱伦视频| 久久久久久久久久免免费精品|