亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于圖優(yōu)化的無人機視頻影像快速拼接技術(shù)與應(yīng)用

        2024-02-27 21:47:07李虹曹琳紀(jì)任鑫陳軍鵬宋亞婷王永威
        科技創(chuàng)新與應(yīng)用 2024年6期
        關(guān)鍵詞:無人機

        李虹 曹琳 紀(jì)任鑫 陳軍鵬 宋亞婷 王永威

        摘? 要:為實現(xiàn)災(zāi)害復(fù)雜環(huán)境中無人機視頻影像的快速、優(yōu)質(zhì)拼接,綜合利用無人機POS數(shù)據(jù)、圖像特征點提取和匹配技術(shù),建立一種基于圖優(yōu)化技術(shù)的無人機視頻影像快速拼接方法,并選取典型高山峽谷區(qū)域開展應(yīng)用試驗。試驗表明該方法可以實現(xiàn)航拍視頻的快速實時拼接,拼接后影像精度與線下后期拼接數(shù)據(jù)相差不大,很大程度上提高圖像拼接的效率。該文方法可以實現(xiàn)無人機航拍視頻快速拼接,滿足現(xiàn)場數(shù)據(jù)檢驗以及其他快速應(yīng)急響應(yīng)的需求,在災(zāi)害應(yīng)急保障與救援中有重要應(yīng)用意義。

        關(guān)鍵詞:無人機;影像快速拼接;圖優(yōu)化;確定關(guān)鍵幀;特征點提取

        中圖分類號:V279+.2? ? ? 文獻標(biāo)志碼:A? ? ? ? ? 文章編號:2095-2945(2024)06-0007-05

        Abstract: In order to realize the fast and high quality mosaic of UAV video images in complex disaster environment, a fast mosaic method of UAV video images based on graph optimization technology is established by comprehensively using UAV POS data and image feature point extraction and matching technology, and typical mountain and canyon areas are selected to carry out application experiments. The experimental results show that this method can realize the fast real-time stitching of aerial video, and the image accuracy after stitching is similar to that of offline later stitching data, which improves the efficiency of image stitching to a great extent. This method can realize the rapid stitching of UAV aerial video, meet the needs of on-site data inspection and other rapid emergency response, and therefore has important application significance in disaster emergency support and rescue.

        Keywords: UAV; fast image stitching; graph optimization; determining key frames; feature point extraction

        隨著無人機遙感平臺系統(tǒng)和載荷技術(shù)的不斷發(fā)展,利用無人機獲取地面影像的數(shù)據(jù),開展正射影像拼接和地表三維模型建立已成為應(yīng)急測繪作業(yè)的主流方式。無人機作為一種新型航空遙感平臺,具備在人力無法進入的危險區(qū)域開展低空作業(yè)的優(yōu)勢,可以快速獲取地表的高分辨率圖像數(shù)據(jù),能夠為抗震救災(zāi)、應(yīng)急救援及時提供數(shù)據(jù)支撐[1]。

        利用無人機采集到的影像精度較高,但像幅較小,需進行影像拼接處理后才能獲得完整的測區(qū)影像。傳統(tǒng)的無人機正射影像拼接方法一般采取離線處理方式,利用攝影測量技術(shù)恢復(fù)地表的三維點云和單張照片對應(yīng)的位置和姿態(tài)信息,進一步進行密集匹配獲取數(shù)字表面模型(DSM)和拼接后的正射影像(DOM)。但使用該方法進行影像拼接處理比較耗時,一般只針對相機拍攝的靜態(tài)圖像,所獲得影像成果主要用于災(zāi)害后期的損失評估或地圖制作等測繪任務(wù)。為了能夠快速獲取拍攝區(qū)域大范圍監(jiān)測影像,滿足突發(fā)事件和災(zāi)害發(fā)生時需要實時掌握災(zāi)場環(huán)境數(shù)據(jù)的應(yīng)急需求,往往通過無人機拍攝視頻數(shù)據(jù)進行實時傳輸,同時要求在無人機飛行時對數(shù)據(jù)進行實時拼接,以達(dá)到能夠快速查看災(zāi)情區(qū)域的效果。

        近年來,無人機航拍視頻快速拼接已成為無人機測繪領(lǐng)域的熱點研究問題[2]?,F(xiàn)有的無人機視頻拼接的主流算法有3類,雖然在應(yīng)用場景上各具特色,但都有不足之處。其中應(yīng)用領(lǐng)域最廣、使用頻率最高的圖像拼接方法是基于圖像特征點匹配,即通過提取匹配視頻圖像的特征點,快速計算視頻圖像間的變換參數(shù),進而完成視頻的拼接。特征點提取算法最常用的有3種,分別為SIFT算法、SURF算法和ORB算法。SIFT算法(尺度不變特征變換)由Lowe[3]于1999年首次提出,因其對尺度變化、光照變化、旋轉(zhuǎn)等均有較好的魯棒性,至今為止仍是精度最高的特征之一。Bay等人在2006年提出了SURF算法,它是利用積分圖像加速卷積運算,使得運算速度有了很大提升。Ethan Rublee等人在2011年提出了ORB算法,它是在綜合FAST特征檢測與BRIEF特征描述的基礎(chǔ)上進行了優(yōu)化和改進[4]。但基于圖像特征點匹配的方法適用于圖像序列較短的情況,對于長時序的圖像序列會出現(xiàn)明顯的誤差累積效應(yīng),從而導(dǎo)致拼接效率降低。且該方法對圖像場景和特征點數(shù)量有較高要求,對于稀疏特征點或無特征點區(qū)域,拼接過程易中斷從而導(dǎo)致拼接失敗,特征點數(shù)量過多則會影響拼接效率。

        直接利用無人機飛行時獲取的POS(Position and Orientation System)數(shù)據(jù)進行影像拼接也是常用的處理方式,該方法利用無人機自帶的POS系統(tǒng)獲取經(jīng)緯高和姿態(tài)數(shù)據(jù),然后基于共線條件方程求解每個像素對應(yīng)的地理坐標(biāo),最后基于地理位置進行圖像拼接。該方法對無人機飛行獲取的POS數(shù)據(jù)精度要求較高,而在實際飛行過程中,由于災(zāi)害現(xiàn)場環(huán)境較為復(fù)雜,獲取的POS數(shù)據(jù)精度存在不穩(wěn)定的問題,導(dǎo)致獲取的相鄰圖像存在明顯的錯位現(xiàn)象,使得拼接后的數(shù)據(jù)會出現(xiàn)明顯的接縫。還有一類影像拼接方法是先基于POS數(shù)據(jù)校正原始圖像獲取正射影像,然后通過特征提取和匹配來求解基準(zhǔn)圖像和待配準(zhǔn)圖像的幾何投影變換關(guān)系,最后通過坐標(biāo)微調(diào)的方式對正射影像重新校正后再基于地理位置拼接圖像。但該方法依然存在系統(tǒng)偏差、速度較慢等問題。

        本文從應(yīng)急救援需求出發(fā),為應(yīng)對災(zāi)害現(xiàn)場復(fù)雜惡劣環(huán)境導(dǎo)致飛行不穩(wěn)定造成的影像拼接問題,采用綜合利用多種信息的無人機視頻快速拼接方法進行影像拼接處理試驗。該方法以POS數(shù)據(jù)作為相機位置和姿態(tài)的初始值,利用關(guān)鍵幀圖像特征點提取和匹配結(jié)果來構(gòu)建圖優(yōu)化的約束,然后基于圖優(yōu)化對位置和姿態(tài)進行更新,最后利用優(yōu)化后的位置和姿態(tài)完成圖像的快速拼接。

        1? 影像快速拼接方法

        基于圖優(yōu)化技術(shù)的無人機視頻數(shù)據(jù)快速拼接方法是綜合利用圖像特征點提取和匹配、無人機POS數(shù)據(jù)及圖優(yōu)化技術(shù),對視頻數(shù)據(jù)進行快速處理,能夠?qū)o人機拍攝的視頻數(shù)據(jù)進行實時拼接。該方法實現(xiàn)主要包括3個關(guān)鍵步驟,即確定關(guān)鍵幀、特征點提取和匹配、圖優(yōu)化。確定關(guān)鍵幀的作用是從視頻數(shù)據(jù)中確定用于拼接的若干幀圖像數(shù)據(jù),由于視頻的幀率較高,關(guān)鍵幀的確定可以降低計算的數(shù)據(jù)量;特征點提取與匹配的作用是利用匹配后的二維點對應(yīng)信息來計算出相鄰圖像拍攝時的相對位置和姿態(tài)數(shù)據(jù),用來作為圖優(yōu)化的邊;圖優(yōu)化對相機的位置和姿態(tài)信息進行優(yōu)化,每個相機的位置和姿態(tài)數(shù)據(jù)對應(yīng)了圖優(yōu)化中的節(jié)點,圖像匹配的結(jié)果用來對節(jié)點進行調(diào)整。

        基于圖優(yōu)化技術(shù)的無人機視頻數(shù)據(jù)快速拼接方法主要分為以下幾個步驟,技術(shù)流程如圖1所示。

        1.1? 確定關(guān)鍵幀

        在選定基準(zhǔn)幀影像后,為了提高圖像拼接的效率,獲取滿足重疊度要求的影像對需要提取關(guān)鍵幀影像。判定當(dāng)前幀圖像是否為關(guān)鍵幀的依據(jù)是當(dāng)前幀與參考幀之間的重疊度[5]。在選定了重疊度和參考幀之后,計算當(dāng)前幀與基準(zhǔn)幀的重疊度,若重疊度滿足要求,則將當(dāng)前幀選為關(guān)鍵幀,否則移動到下一幀,循環(huán)上述過程。在選定關(guān)鍵幀之后,再進行下一關(guān)鍵幀的提取[6]。

        為提高關(guān)鍵幀的提取效率,本文采用的方法是利用POS數(shù)據(jù)、飛行高度數(shù)據(jù)以及相機標(biāo)定參數(shù)來確定每張視頻圖像在地面上的覆蓋范圍,然后根據(jù)覆蓋范圍計算出圖像重疊度,最后根據(jù)航帶內(nèi)以及航帶之間的圖像重疊度來判斷當(dāng)前幀是否為一個關(guān)鍵幀。為了能夠達(dá)到較好的特征點匹配效果,關(guān)鍵幀的選取要保證相鄰的關(guān)鍵幀之間的重疊度達(dá)到一定的數(shù)值,比如航帶內(nèi)的重疊度要求達(dá)到80%以上,不同航帶之間的重疊度要求達(dá)到30%以上。計算重疊度時,假設(shè)飛行高度不變,并且假設(shè)地平面沒有起伏,那么相鄰圖像對應(yīng)的地表區(qū)域在XY平面上可以用矩形和來表示,重疊率的計算公式如下

        式中:iou為重疊度;R1為采集圖像地表區(qū)域在X方向上的距離;R2為采集圖像地表區(qū)域在Y方向上的距離。

        1.2? 特征點提取與匹配

        特征點提取與匹配是圖像拼接的核心步驟,圖像配準(zhǔn)的精度和速度直接影響了拼接的質(zhì)量和實時性。本文主要是利用特征點提取算法從圖像中得到稀疏的特征點,然后利用特征點匹配建立相鄰圖片之間的特征點對應(yīng)關(guān)系。本文采用ORB 算法進行特征點的提取,ORB算法是2011年由Ethan Rublee等人提出的[7]。它是在FAST特征檢測與BRIEF特征描述的基礎(chǔ)上提出的,并對其進行了優(yōu)化和改進。為了使FAST算法有一定的尺度不變性,ORB算法首先對圖像進行降采樣與尺度空間變化,然后構(gòu)建金字塔影像,再在金子塔影像上進行特征點檢測,并構(gòu)建特征描述子[4]。特征點提取之后需要用特征描述子對兩幅圖像進行粗匹配,粗匹配結(jié)果可能會出現(xiàn)大量的誤匹配點,嚴(yán)重影響之后的單應(yīng)矩陣計算的準(zhǔn)確度,為圖像拼接帶來難度。因此,需要將這些錯誤的匹配點剔除[8]。本文采用RANSAC算法對錯誤匹配對進行剔除,該算法能夠在包含異常數(shù)據(jù)的數(shù)據(jù)集中得到有效樣本數(shù)據(jù)。這些異常數(shù)據(jù)有可能來自錯誤的計算、測量的誤差等情況,例如圖像特征點匹配中出現(xiàn)的錯誤匹配對就是來自系統(tǒng)誤差和算法誤差。

        利用特征點提取算法來從圖像中得到稀疏的特征點,然后利用特征點匹配來建立相鄰圖片之間的特征點對應(yīng)關(guān)系。為了能夠和POS數(shù)據(jù)的尺度一致,需將特征點轉(zhuǎn)換為地面坐標(biāo)。具體方法是根據(jù)相機的標(biāo)定參數(shù)(焦距、主點、畸變系數(shù)),以及飛行的高度將特征點投影到地面。為了簡化運算以及后續(xù)的拼接,假設(shè)地表是平坦的,即所有的地面點的高程值是相同的。因此在計算相對位置和姿態(tài)時,只需要考慮平面上的平移和旋轉(zhuǎn),這樣就將復(fù)雜的三維位置與姿態(tài)計算問題簡化為二維平移與旋轉(zhuǎn)。特征點提取和匹配技術(shù)流程如圖2所示。

        1.3? 圖優(yōu)化

        在基于圖像的三維重建中,往往需要將地面點的三維坐標(biāo),以及相機的位置和姿態(tài)一同進行優(yōu)化。當(dāng)圖像的數(shù)量較多時,點云的數(shù)量也較大,導(dǎo)致優(yōu)化的速度較慢。圖優(yōu)化只對位置和姿態(tài)進行優(yōu)化,需要進行優(yōu)化的參數(shù)較少,運算量大幅降低,通常在幾次迭代后就可以收斂,因此圖優(yōu)化廣泛地應(yīng)用于實時定位和建圖(SLAM)領(lǐng)域。基于圖優(yōu)化的SLAM算法的優(yōu)勢在于它可以消除長時間的誤差,使所建地圖更加精確等[9]。本文將圖優(yōu)化技術(shù)應(yīng)用于無人機視頻影像的拼接,也能夠發(fā)揮獨特的優(yōu)勢。具體流程是:在得到關(guān)鍵幀數(shù)據(jù)后,以關(guān)鍵幀數(shù)據(jù)對應(yīng)的拍攝位置和姿態(tài)作為未知數(shù)。每個圖像對應(yīng)圖優(yōu)化中的一個節(jié)點(Node),相鄰圖像之間的相對位置和姿態(tài)作為圖優(yōu)化中的邊(Edge)。節(jié)點的位置和姿態(tài)的初始值來源于無人機飛行時的POS數(shù)據(jù)。當(dāng)相鄰圖像的紋理較為豐富時,特征點數(shù)量較多而且匹配成功率較高,可以用來計算相對位置和姿態(tài),用于構(gòu)造圖優(yōu)化中的邊。當(dāng)匹配不成功時,直接利用POS數(shù)據(jù)來計算相對位置和姿態(tài)。因此該方法能夠最大程度地利用圖像紋理信息對POS數(shù)據(jù)進行校正,當(dāng)紋理不夠豐富或匹配不成功時,還可以利用POS信息來進行定位,并且不會出現(xiàn)拼接中斷的情況。圖優(yōu)化技術(shù)流程如圖3所示。

        2? 試驗與分析

        2.1? 試驗區(qū)概況

        本文試驗區(qū)位于福建省福州市永泰縣,地處福建省東部、福州市西南部,因受火山作用強烈,又受后期喜山運動新構(gòu)造升降和震蕩影響,境內(nèi)群山林立、溝谷深切,大部分地區(qū)海拔在500 m以上,是典型的高山峽谷地形。該地區(qū)地形陡峭、高差大,巖石和土體容易失穩(wěn)下滑,從而誘發(fā)崩塌、滑坡等災(zāi)害發(fā)生。同時,由于地形抬升作用,使得局地性暴雨頻發(fā),也為泥石流和洪水孕育提供有利條件。試驗區(qū)現(xiàn)場如圖4所示。

        2.2? 試驗數(shù)據(jù)獲取

        試驗數(shù)據(jù)采集設(shè)備為KWT-X6M多旋翼無人機,續(xù)航時間為70 min,抗風(fēng)能力7級,遙控器最大控制距離7 km,地面站最大控制距離10 km。該機型具有很強的環(huán)境適應(yīng)性,可以在海拔5 000 m以上的高原地區(qū)開展測繪作業(yè),并可在高濕、高熱、高腐蝕和高鹽等惡劣環(huán)境下正常使用。無人機所掛載的相機型號為KWT-4K-30X,該設(shè)備具有30倍光學(xué)變焦、829萬像素高清鏡頭,視頻輸出分辨率最高為1 920×1 080 P/60。數(shù)據(jù)采集設(shè)備如圖5所示。

        根據(jù)試驗區(qū)周邊環(huán)境,選定平坦開闊區(qū)域作為起降點,保證無人機起飛和降落時四周視野開闊,周邊障礙物的高度角不能大于15°,并且對GNSS信號接收不產(chǎn)生影響[10]。本次試驗起降點選定在福州市永泰縣城以南,嶺路鄉(xiāng)與莆田市涵江區(qū)交界處,坐標(biāo)為25.806°N~118.950°E,距離永泰縣城13 km2,最高海拔1 130 m。測試當(dāng)天永泰縣最高氣溫34 ℃,最低氣溫26 ℃,風(fēng)力1~2級,東北風(fēng)。無人機進行飛行作業(yè)前首先對周邊1 000 m范圍區(qū)域進行航線規(guī)劃,航線規(guī)劃區(qū)域內(nèi)包含建筑物、道路、植被等典型地物。通過對無人機獲取的數(shù)據(jù)進行拼接處理后,可以對比拼接成果中不同類型典型地物檢查拼接效果,航線規(guī)劃如圖6所示。本次試驗通過2個架次飛行獲取測試數(shù)據(jù),分別獲取實時成圖影像和后期拼接對比數(shù)據(jù)。

        2.3? 試驗結(jié)果與分析

        本次試驗通過無人機飛行獲取的視頻數(shù)據(jù)、POS數(shù)據(jù)、飛行高度數(shù)據(jù)以及相機標(biāo)定參數(shù)等數(shù)據(jù),綜合運用圖像特征點提取和匹配、圖優(yōu)化技術(shù)實現(xiàn)無人機視頻影像的快速拼接。按照規(guī)劃航線實施航測任務(wù),飛行過程中最大爬升高度為107.463 m,飛行速度6 m/s,航向重疊率75%,旁向重疊率85%,測區(qū)面積約0.13 km2,飛行時間5 m/43 s,共獲取影像32張。實時拼接成果與后期拼接成果如圖7所示。

        經(jīng)測試,利用圖優(yōu)化技術(shù)實現(xiàn)無人機視頻快速拼接成圖方法能夠完整呈現(xiàn)測區(qū)實時成圖影像,且成圖速度較快,實時成圖時延小于等于8 s,符合測試指標(biāo)。通過與后期拼接成果對比可以得出,無人機視頻影像實時拼接會導(dǎo)致精度有一定損失,但紋理特征明顯。同時,通過選取建筑物、道路等典型地物,對單幅影像拼接效果進行細(xì)節(jié)對比,可檢查實時拼接成果定位精度及角度偏移程度。拼接效果局部對比如圖8所示。從局部對比圖中可以看出,實時成圖影像拼接位置基本無偏移,圖幅定位較為準(zhǔn)確;拼接影像角度受飛行姿態(tài)影響有輕微偏移,但對數(shù)據(jù)質(zhì)量影響不大。綜上所述,該方法能夠在保證一定數(shù)據(jù)質(zhì)量的前提下大幅度提高數(shù)據(jù)獲取的時效性,可滿足應(yīng)急救援實際需求,為指揮人員提供數(shù)據(jù)支撐。

        3? 結(jié)束語

        本文為滿足突發(fā)事件和災(zāi)害發(fā)生時能夠?qū)崟r掌握災(zāi)場環(huán)境數(shù)據(jù)的應(yīng)急需求,針對無人機獲取的航拍視頻提出了一種基于圖優(yōu)化技術(shù)的視頻影像快速拼接方法。該方法通過確定關(guān)鍵幀、特征點提取和匹配、圖優(yōu)化等關(guān)鍵技術(shù)可實現(xiàn)對無人機視頻影像的快速拼接。本文選取位于福建省永泰縣的典型高山峽谷區(qū)域開展應(yīng)用試驗,通過無人機飛行2個架次分別獲取實時成圖影像和后期拼接對比數(shù)據(jù),經(jīng)過數(shù)據(jù)處理后,對無人機視頻影像實時拼接成果與后期拼接成果進行對比分析,試驗結(jié)果表明如下。

        1)該方法充分利用POS信息和圖像特征信息來進行視頻影像快速拼接,綜合多種數(shù)據(jù)的優(yōu)勢,能夠提高拼接的效率和精度。

        2)該方法可以實現(xiàn)無人機航拍視頻的快速拼接,滿足快速應(yīng)急響應(yīng)的需求,能夠在災(zāi)害應(yīng)急保障與救援中發(fā)揮重大作用。

        3)該方法應(yīng)用在復(fù)雜的災(zāi)場環(huán)境中仍存在不足之處,實時拼接影像角度受飛行姿態(tài)影響有輕微偏移;面對地形陡峭、高差較大的高山峽谷地區(qū),無人機獲取的視頻影像對于三維位置和姿態(tài)的解算較平坦區(qū)域稍顯復(fù)雜,還值得進一步深入研究與驗證。

        參考文獻:

        [1] 鄭暉,姜城,孫敏,等.一種近實時的無人機視頻流拼接方法[J].地理與地理信息科學(xué),2015,31(5):1-5.

        [2] 孟淑英.自動檢測拼接線的無人機視頻影像快速拼接方法[J].測繪通報,2013(5):47-49.

        [3] LOWE D G. Object Recognition from Local Scale-Invariant Features[C]//IEEE Computer Society, 1999.

        [4] 陳武.無人機視頻影像拼接關(guān)鍵技術(shù)研究[D].南昌:南昌航空大學(xué),2019.

        [5] 任超鋒.航空視頻影像的正射影像制作關(guān)鍵技術(shù)研究[D].武漢:武漢大學(xué),2014.

        [6] 李含倫,李豐凱.低空視頻影像自適應(yīng)關(guān)鍵幀提取與快速拼接[J].圖像與信號處理,2018,7(4):179-190.

        [7] 李慧,藺啟忠,劉慶杰.基于FAST和SURF的遙感圖像自動配準(zhǔn)方法[J].國土資源遙感,2012(2):28-33.

        [8] 王陳東.低空無人機視頻實時處理關(guān)鍵技術(shù)研究[D].武漢:武漢大學(xué),2018.

        [9] 顏普,曹昊宇,雷為好.基于改進圖優(yōu)化的激光SLAM算法[J].安徽大學(xué)學(xué)報(自然科學(xué)版),2023,47(4):35-41.

        [10] 曾娟娟,劉娣,陳偉.無人機三維建模在土方計量中的應(yīng)用——以湘潭荷塘交通樞紐項目為例[J].科技創(chuàng)新與應(yīng)用,2023,13(18):188-192.

        猜你喜歡
        無人機
        基于蟻群算法的一種無人機二維航跡規(guī)劃方法研究
        無人機動態(tài)跟蹤展示系統(tǒng)設(shè)計
        無人機配送的障礙性因素分析
        無人機在海上人命救助中的應(yīng)用
        植保無人機操作規(guī)程及注意事項
        高職院校新開設(shè)無人機專業(yè)的探討
        人間(2016年26期)2016-11-03 17:52:40
        利用無人機進行航測工作的方式方法
        一種適用于輸電線路跨線牽引無人機的飛行方案設(shè)計
        科技視界(2016年22期)2016-10-18 14:30:27
        淺析無人機技術(shù)在我國的發(fā)展前景
        亚洲av日韩av天堂久久不卡| 免费无码毛片一区二区三区a片| 北条麻妃毛片在线视频| 国产AV无码无遮挡毛片| 一区二区视频在线国产| 亚洲精品国产一区二区 | 亚洲综合国产成人丁香五月激情| 亚洲精品乱码久久久久久蜜桃不卡 | 日日噜噜夜夜狠狠va视频| 女人与牲口性恔配视频免费| 无码国产一区二区色欲| 中文字幕一区二区三区乱码人妻 | 女同性恋精品一区二区三区| 亚洲高清激情一区二区三区| 亚洲精品国偷拍自产在线| 看国产黄大片在线观看| 日韩精品视频在线观看免费| 男人的精品天堂一区二区在线观看| 麻豆md0077饥渴少妇| 精品国产乱码久久久软件下载| 国产亚洲日本人在线观看| 日本不卡视频一区二区三区| 日本熟妇色xxxxx日本妇| 99精品视频在线观看| 中文字幕偷拍亚洲九色| 亚洲不卡高清av网站| 国产成本人片无码免费2020| 亚洲AV无码国产成人久久强迫| 日韩伦理av一区二区三区| 欧美颜射内射中出口爆在线 | 久久亚洲道色宗和久久| 国产精品久久婷婷六月| 亚洲图片自拍偷图区| 国产肉体ⅹxxx137大胆| 激情综合五月天开心久久| 澳门蜜桃av成人av| 亚洲毛片αv无线播放一区| 69av在线视频| 国产激情一区二区三区成人| 内射欧美老妇wbb| 国产成人啪精品午夜网站|