亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種多源統(tǒng)一爬蟲框架的設(shè)計與實現(xiàn)

        2021-04-18 23:45:40潘洪濤
        軟件工程 2021年4期
        關(guān)鍵詞:網(wǎng)絡(luò)爬蟲

        摘? 要:面向深層網(wǎng)數(shù)據(jù)的爬蟲技術(shù)與反爬蟲技術(shù)之間的對抗隨著網(wǎng)站技術(shù)、大數(shù)據(jù)、異步傳輸?shù)燃夹g(shù)的發(fā)展而呈現(xiàn)此消彼長的趨勢。綜合對比當(dāng)前主流的爬蟲和反爬蟲技術(shù),針對高效開發(fā)、快速爬取的需求,MUCrawler(多源統(tǒng)一爬蟲框架)被設(shè)計成一種可以面向多個網(wǎng)站數(shù)據(jù)源,以統(tǒng)一的接口形式提供爬蟲開發(fā)的Python框架。測試結(jié)果顯示,該框架不但能夠突破不同的反爬蟲技術(shù)獲取網(wǎng)站數(shù)據(jù),在開發(fā)效率、魯棒性和爬取效率等方面也體現(xiàn)出較好的運行效果。

        關(guān)鍵詞:Python開發(fā);網(wǎng)絡(luò)爬蟲;瀏覽器行為;HTTP請求

        中圖分類號:TP311.1? ? ?文獻標(biāo)識碼:A

        文章編號:2096-1472(2021)-04-30-03

        Abstract: Confrontation between crawler technology for deep web data and anti-crawler technology has waxed and waned with development of website technology, big data, and asynchronous transmission technology. This paper proposes to develop a Multi-source Uniform-interface Crawler (MUCrawler) framework after comprehensively comparing current mainstream crawler and anti-crawler technologies and considering the needs of efficient development and fast crawling. MUCrawler framework can face multiple websites data sources and provide Python framework of crawler development in the form of a uniform interface. Test results show that the proposed framework can not only break through different anti-crawler technologies to obtain website data, but also show better operating results in terms of development efficiency, robustness, and crawling efficiency.

        Keywords: Python program; web crawler; browser behavior; HTTP (High Text Transfer Protocol) request

        1? ?引言(Introduction)

        網(wǎng)絡(luò)爬蟲(crawler,也稱spider、robot等)是面向互聯(lián)網(wǎng),能夠通過URL(Uniform Resource Locator,統(tǒng)一資源定位器)自動獲取Web頁面數(shù)據(jù)的程序[1]。高性能的網(wǎng)絡(luò)爬蟲搜集互聯(lián)網(wǎng)信息是搜索引擎(如Google、Baidu等)的基礎(chǔ)。網(wǎng)絡(luò)爬蟲也是大數(shù)據(jù)和人工智能訓(xùn)練的一個重要數(shù)據(jù)來源,如社交網(wǎng)絡(luò)情緒分類[2]、農(nóng)業(yè)物資分析[3]或金融市場分析[4]等數(shù)據(jù)就可以采用網(wǎng)絡(luò)爬蟲從對應(yīng)網(wǎng)站中采集。

        無限制的網(wǎng)絡(luò)爬蟲可能對網(wǎng)站造成流量壓力,因此,許多網(wǎng)站采用反爬蟲技術(shù)對網(wǎng)頁的自動化爬取進行限制,由此導(dǎo)致很多爬蟲程序失效[5]。反爬蟲技術(shù)的發(fā)展要求爬蟲程序必須不斷改進才能突破反爬蟲限制獲取網(wǎng)頁內(nèi)容。本文針對當(dāng)前流行的爬蟲和反爬蟲技術(shù)進行對比分析,在綜合各種爬蟲技術(shù)的基礎(chǔ)上提出了一種針對多數(shù)據(jù)源,提供統(tǒng)一接口的Python網(wǎng)絡(luò)爬蟲框架MUCrawler(Multi-source Uniform-interface Crawler,多源統(tǒng)一爬蟲框架),并針對招聘網(wǎng)站進行測試。

        2? 網(wǎng)絡(luò)爬蟲功能分析(Functional analysis of network crawler)

        2.1? ?功能分類

        依據(jù)數(shù)據(jù)存儲展現(xiàn)方式的不同,Web網(wǎng)站可以分成表層網(wǎng)和深層網(wǎng)[6],針對兩種網(wǎng)絡(luò)設(shè)計的爬蟲程序也稱為表層網(wǎng)爬蟲和深層網(wǎng)爬蟲。在當(dāng)前的網(wǎng)絡(luò)中,以靜態(tài)頁面為主要存儲展現(xiàn)的網(wǎng)站(表層網(wǎng))越來越少,更多的網(wǎng)站則是使用數(shù)據(jù)庫存取的動態(tài)頁面、AJAX(Asynchronous JavaScript and XML,異步的JavaScript和XML)數(shù)據(jù)加載、JSON(JavaScript Object Notation, JavaScript對象簡譜)數(shù)據(jù)傳輸?shù)纳顚泳W(wǎng),因此,深層網(wǎng)爬蟲應(yīng)用最廣泛。

        依據(jù)爬取Web數(shù)據(jù)的范圍,網(wǎng)絡(luò)爬蟲可以分為通用型爬蟲和主題型爬蟲兩類。通用型爬蟲是對互聯(lián)網(wǎng)所有Web信息進行遍歷獲取,這種爬蟲主要作為搜索引擎的信息采集工具,具有全面性、高效率、高并發(fā)、海量存儲等特點[7]。與通用型爬蟲不同,主題型爬蟲則是針對某一個或幾個網(wǎng)站,進行特定主題信息的獲取[8]。主題型網(wǎng)絡(luò)爬蟲在當(dāng)前大數(shù)據(jù)分析領(lǐng)域應(yīng)用較為廣泛。

        2.2? ?基本功能

        網(wǎng)絡(luò)爬蟲必須能夠模擬瀏覽器行為,針對URL自動完成HTTP請求,并能夠接收服務(wù)器傳回的HTTP響應(yīng)信息。Web服務(wù)器響應(yīng)的信息一般為HTML(Hyper Text Markup Language,超文本標(biāo)記語言)、XML(Extensible Markup Language,可擴展標(biāo)記語言)或者JSON等格式的數(shù)據(jù),也可能是圖像或者視頻格式文件。因此,網(wǎng)絡(luò)爬蟲需要將服務(wù)器相應(yīng)的信息按照語法結(jié)構(gòu)進行解析,從中過濾出有用的信息。

        網(wǎng)絡(luò)爬蟲還要具有迭代查找或者構(gòu)造URL的功能。當(dāng)前多數(shù)網(wǎng)站是信息存放在數(shù)據(jù)庫的動態(tài)網(wǎng)站,網(wǎng)絡(luò)爬蟲需要通過自動表單填寫和提交,使用POST方法來獲取新的URL以及分析網(wǎng)站URL結(jié)構(gòu),也可以通過字符串拼接方式構(gòu)造GET方法的URL。如果網(wǎng)站響應(yīng)信息為HTML響應(yīng)信息,也可以從頁面信息中過濾“href”“src”等標(biāo)簽或?qū)傩垣@取更深層次的URL。

        能夠?qū)崿F(xiàn)網(wǎng)絡(luò)爬蟲基本功能的Python擴展庫包括:Urllib、Requests實現(xiàn)HTTP請求和響應(yīng)處理,Beautifulsoup、PyQuery、lxml等實現(xiàn)響應(yīng)文檔解析。

        2.3? ?擴展功能

        網(wǎng)絡(luò)數(shù)據(jù)的大規(guī)模爬取、存儲和處理,要求網(wǎng)絡(luò)爬蟲除了具備上述基本功能,還需要具備并行調(diào)度、數(shù)據(jù)去重和數(shù)據(jù)存儲等功能[9]。短時間內(nèi)獲取海量網(wǎng)絡(luò)數(shù)據(jù)需要提高采集效率,在Robots協(xié)議允許范圍內(nèi),采取多線程并發(fā)的方式是主要途徑[10]。網(wǎng)絡(luò)信息中存在大量重復(fù)的URL或冗余數(shù)據(jù),獲取這些數(shù)據(jù)不但會浪費寶貴的計算資源、帶寬資源和存儲資源,還會給服務(wù)器造成不必要的壓力,因此,去除這些重復(fù)URL和冗余數(shù)據(jù)對于提高網(wǎng)絡(luò)爬蟲效率至關(guān)重要。侯美靜等基于DOM(Document Object Model,文檔對象模型)結(jié)構(gòu)計算頁面相似度,實現(xiàn)智能URL去重提高爬取效率[11]。存儲爬取數(shù)據(jù)的方式有多種,如數(shù)據(jù)庫存儲等結(jié)構(gòu)化存儲、JSON等半結(jié)構(gòu)化存儲及文本圖像視頻等非結(jié)構(gòu)化存儲,因此網(wǎng)絡(luò)爬蟲還應(yīng)具備多種存儲方式的接口。

        2.4? ?反爬蟲技術(shù)及對應(yīng)策略

        數(shù)據(jù)已經(jīng)成為互聯(lián)網(wǎng)寶貴的資源,多數(shù)大型網(wǎng)站對自己的數(shù)據(jù)都有防范措施,即采用反爬蟲技術(shù)對網(wǎng)站爬取進行限制。常用的反爬蟲機制和應(yīng)對策略如表1所示[12-13]。

        2.5? ?爬蟲框架

        隨著搜索引擎,尤其是大數(shù)據(jù)技術(shù)的發(fā)展,網(wǎng)絡(luò)爬蟲技術(shù)的應(yīng)用越來越廣泛。采用Python基本功能庫(如Requests)編碼實現(xiàn)網(wǎng)絡(luò)爬蟲,可以靈活定制爬蟲功能,但開發(fā)效率較低。因此,許多組織或個人開發(fā)了網(wǎng)絡(luò)爬蟲框架作為中間件來提高開發(fā)效率[14-15],如Scrapy、Pyspider、Crawley等,其中應(yīng)用最廣泛的就是Scrapy,文獻[16]就是基于Scrapy設(shè)計開發(fā)就業(yè)推薦系統(tǒng)。

        Scrapy是一個高層次的、快速開源的網(wǎng)絡(luò)爬蟲框架,用于爬取網(wǎng)站并從頁面中提取數(shù)據(jù)。Scrapy以Scrapy engine為中心,實現(xiàn)發(fā)起HTTP請求、接收響應(yīng)、迭代提取URL等網(wǎng)絡(luò)爬蟲功能,并通過URL列表、數(shù)據(jù)列表輸出的統(tǒng)一調(diào)度來控制并發(fā),提高系統(tǒng)效率。但是,Scrapy針對使用AJAX等動態(tài)加載數(shù)據(jù)的反爬取技術(shù)的應(yīng)對策略不足,無法突破高級反爬蟲技術(shù)的屏蔽。

        3? 多源統(tǒng)一爬蟲框架(Multi-source uniform-interface spider structure)

        綜上分析,各種網(wǎng)絡(luò)爬蟲技術(shù)均有自己的優(yōu)勢和不足,尤其是針對不同的反爬蟲技術(shù),有些爬蟲技術(shù)受到限制而另外一些卻能突破。大型網(wǎng)站的結(jié)構(gòu)和內(nèi)容在不斷地變化,針對網(wǎng)絡(luò)爬蟲所采取的反爬蟲措施也在不斷強化。例如,2019年針對知名招聘網(wǎng)站A開發(fā)的網(wǎng)絡(luò)爬蟲技術(shù),在2020年已經(jīng)失效。因此,本文結(jié)合各種爬蟲與反爬蟲技術(shù)開發(fā)一種面向多數(shù)據(jù)源的統(tǒng)一爬蟲框架。

        3.1? ?設(shè)計原則

        周德懋等提出高性能網(wǎng)絡(luò)爬蟲應(yīng)該具有可伸縮性、提高下載質(zhì)量、避免下載垃圾問題的特點[9],于成龍等還補充了禮貌爬行、并行性等特點[17]。這些特點都是本框架設(shè)計的原則,突出的主要有四點:

        (1)多源通用:針對采用了各種不同反爬蟲技術(shù)的網(wǎng)站,框架均具有適應(yīng)性,且需要屏蔽采取爬蟲技術(shù)底層細(xì)節(jié),為用戶提供統(tǒng)一的URL請求接口。

        (2)提高性能:以客戶端計算資源和帶寬資源為基礎(chǔ),在框架中采用多線程網(wǎng)絡(luò)爬蟲實現(xiàn)并發(fā)數(shù)據(jù)采集。不同的網(wǎng)絡(luò)爬蟲技術(shù)采取不同的并發(fā)度,如Requests針對大型網(wǎng)站多主題數(shù)據(jù)爬取采用大量線程(線程數(shù)>10);針對中小型網(wǎng)站的多主題數(shù)據(jù)爬取采取少量線程并發(fā)(線程數(shù)≤10);針對Selenium等模擬瀏覽器運行AJAX數(shù)據(jù)加載的網(wǎng)絡(luò)爬蟲則采取單線程,避免出現(xiàn)錯誤。

        (3)適度采集:網(wǎng)絡(luò)爬蟲爬取信息會擠占網(wǎng)站的計算資源和帶寬資源,對同一網(wǎng)站無限制的并發(fā)大量請求連接會消耗其資源,影響正常用戶的訪問。因此,本框架采取“禮貌”爬取方式,限制單位時間內(nèi)并發(fā)的請求連接數(shù)量以及兩次請求之間的時間間隔。

        (4)統(tǒng)一存儲:用戶對爬取的數(shù)據(jù)可能采取MySQL等數(shù)據(jù)庫存儲,也可能采取csv文件甚至文本文件存儲。因此,本框架封裝多種存儲方式接口,調(diào)用方式統(tǒng)一,參數(shù)各異。

        3.2? ?框架結(jié)構(gòu)

        本框架包括下載、分析、存儲和調(diào)度四個模塊,其結(jié)構(gòu)如圖1所示。

        3.3? ?框架模塊說明

        (1)下載模塊:下載模塊是MUCrawler框架體現(xiàn)“多源統(tǒng)一”特點的模塊?!岸嘣础奔炊鄠€數(shù)據(jù)源(Web網(wǎng)站),這些Web網(wǎng)站可能采取不同的反爬蟲策略;“統(tǒng)一”即針對不同數(shù)據(jù)源,MUCrawler封裝了不同的爬取技術(shù),如Requests、Selenium等,只需要設(shè)置網(wǎng)站域名(host)、對應(yīng)的方法名和headers參數(shù)即可。

        (2)分析模塊:除了有用數(shù)據(jù),頁面包括大量的HTML標(biāo)簽、CSS樣式、JavaScript代碼等。分析模塊的功能是從已經(jīng)下載的頁面中過濾出有用信息,主要采用Beautifulsoup、Selenium等技術(shù),將特定標(biāo)簽或?qū)傩灾械男畔⑻崛〕鰜?。在MUCrawler中,用戶只需要設(shè)定標(biāo)簽或者屬性與信息的對應(yīng)關(guān)系,同時設(shè)置該條數(shù)據(jù)的名稱,即可通過鍵值對的方式存入數(shù)組。

        (3)調(diào)度模塊:形成URL隊列,通過對URL的入隊和出隊操作實現(xiàn)對URL請求進度的控制。當(dāng)配置高并發(fā)的時候,會同時出隊多個URL發(fā)送到下載模塊來請求頁面;當(dāng)配置低并發(fā)或單線程時,每次只彈出少數(shù)幾個甚至一個URL發(fā)送到下載模塊來請求頁面。通過設(shè)置兩個URL請求間隔時間控制訪問速度。

        (4)存儲模塊:Web數(shù)據(jù)存儲可以有多種形式,如文本文件存儲、csv或excel文件存儲、數(shù)據(jù)庫存儲等。針對這些形式,MUCrawler框架封裝了文本文件存儲接口,接口參數(shù)包括命名規(guī)則、文件大小限制等;csv或excel文件存儲,接口參數(shù)包括命名規(guī)則、sheet設(shè)定、列名、文件大小限制等;數(shù)據(jù)庫存儲接口包括MySQL、NoSQL等多種,接口參數(shù)包括數(shù)據(jù)庫連接參數(shù)、字段對應(yīng)關(guān)系、重復(fù)數(shù)據(jù)判定字段等,封裝了select、insert、delete等操作方法。

        4? MUCrawler框架應(yīng)用測試(MUCrawler application and test)

        招聘類網(wǎng)站是典型的數(shù)據(jù)密集、更新快速的深層網(wǎng)網(wǎng)站。為了測試應(yīng)用效果,MUCrawler框架針對招聘類網(wǎng)站進行了采集實踐[15]。

        4.1? ?測試環(huán)境

        MUCrawler基于Python環(huán)境,軟硬件配置如下:

        服務(wù)器:DELL PowerEdge R210 II;CPU:Intel(R) Xeon(R)E3-1220,3.1 GHz;內(nèi)存:8 GB;硬盤:1 TB;操作系統(tǒng):Windows Server 2008 R2。

        VMware虛擬機:CPU:1顆2核;內(nèi)存:2 GB;硬盤:20 GB。

        操作系統(tǒng):Windows 7 professional 64 bit。

        軟件環(huán)境:Python 3.7.7 64 bit。

        網(wǎng)絡(luò)環(huán)境:100 MB以太網(wǎng)物理網(wǎng)絡(luò),NAT虛擬網(wǎng)絡(luò)設(shè)置。

        4.2? ?測試方案

        MUCrawler框架的測試目標(biāo)主要是功能測試、開發(fā)效率測試、魯棒性測試和爬取效率測試等。為了對比框架運行效果,選擇其他主流方法、庫或框架進行對比。選擇了三家知名的招聘網(wǎng)站作為測試對象,分別以L、W、Z表示。按照不同的關(guān)鍵字進行搜索,每個網(wǎng)站得到100個URL鏈接,將這300個鏈接作為測試URL庫??蚣軠y試對比項目如表2所示。

        4.3? ?測試結(jié)果

        按照測試方案,功能測試針對L、W和Z網(wǎng)站的URL分別進行爬取,爬取功能實現(xiàn)結(jié)果如表3所示,“Y”代表成功爬取,“N”代表爬取失敗。

        分別采用Requests、Selenium、Scrapy和MUCrawler四種技術(shù)對三個目標(biāo)網(wǎng)站的URL鏈接庫進行開發(fā)效率測試、魯棒性測試和爬取效率測試。為了便于對比,本文將測試結(jié)果進行歸一化,如公式(1)所示,其中為第個網(wǎng)站的測試值。

        四種技術(shù)的開發(fā)效率、魯棒性和爬取效率的測試結(jié)果經(jīng)過歸一化處理,均轉(zhuǎn)換為0—1的小數(shù),數(shù)值越小性能越優(yōu),結(jié)果如圖2所示。

        4.4? ?結(jié)果分析

        圖2所展示的測試結(jié)果表明,在性能上Scrapy的開發(fā)效率、魯棒性和爬取效率均為最優(yōu),其次是Requests,MUCrawler第三,而Selenium則在這些方面均處于劣勢。但結(jié)合表1的功能測試,針對部分網(wǎng)站的反爬措施,只有Selenium、MUCrawler能夠?qū)崿F(xiàn)三個網(wǎng)站的Web信息爬取,且MUCrawler針對三個測試網(wǎng)站的爬取效率高于Selenium。

        5? ?結(jié)論(Conclusion)

        MUCrawler網(wǎng)絡(luò)爬蟲框架綜合各種Python爬蟲技術(shù)的優(yōu)勢,能夠突破常用爬蟲技術(shù)的限制實現(xiàn)信息的爬取。然而,MUCrawler并非Python原生開發(fā)的類庫,只是基于Requests、Selenium等技術(shù)進行的二次開發(fā),因此在爬取性能上還不能做到最優(yōu)。

        參考文獻(References)

        [1] BRIN S, PAGE L. The anatomy of a large-scale hypertextual web search engine[J]. Computer Networks, 1998, 30(1):107-117.

        [2] 彭紀(jì)奔,吳林,陳賢,等.基于爬蟲技術(shù)的網(wǎng)絡(luò)負(fù)面情緒挖掘系統(tǒng)設(shè)計與實現(xiàn)[J].計算機應(yīng)用與軟件,2016,33(10):9-13;71.

        [3] TIAN F, TAN H, CHENG Z, et al. Research and construction of the online pesticide information center and discovery platform based on web crawler[J]. Procedia Computer Science, 2020, 166:9-14.

        [4] LIU P, XIA X, LI A. Tweeting the financial market: Media effect in the era of big data[J]. Pacific-Basin Finance Journal, 2018, 51(7):267-290.

        [5] 張曄,孫光光,徐洪云,等.國外科技網(wǎng)站反爬蟲研究及數(shù)據(jù)獲取對策研究[J].競爭情報,2020,16(01):24-28.

        [6] 曾偉輝,李淼.深層網(wǎng)絡(luò)爬蟲研究綜述[J].計算機系統(tǒng)應(yīng)用,2008(05):122-126.

        [7] ARASU A, CHO J. Searching the web[J]. ACM Transactions on Internet Technology, 2001, 1(1):2-43.

        [8] 林椹尠,袁柱,李小平.一種主題自適應(yīng)聚焦爬蟲方法[J].計算機應(yīng)用與軟件,2019,36(5):316-321.

        [9] 周德懋,李舟軍.高性能網(wǎng)絡(luò)爬蟲:研究綜述[J].計算機科學(xué),2009,36(08):26-29;53.

        [10] BEDI P, THUKRAL A, BANATI H, et al. A multi-threaded semantic focused crawler[J]. Journal of Computer Science and Technology, 2012, 27(6):1233-1242.

        [11] 侯美靜,崔艷鵬,胡建偉.基于爬蟲的智能爬行算法研究[J].計算機應(yīng)用與軟件,2018,35(11):215-219;277.

        [12] 胡立.Python反爬蟲設(shè)計[J].計算機與網(wǎng)絡(luò),2020,46(11):48-49.

        [13] 余本國.基于Python網(wǎng)絡(luò)爬蟲的瀏覽器偽裝技術(shù)探討[J].太原學(xué)院學(xué)報(自然科學(xué)版),2020,38(1):47-50.

        [14] LI J T, MA X. Research on hot news discovery model based on user interest and topic discovery[J]. Cluster Comput, 2019, 22(7):8483-8491.

        [15] PENG T, HE F, ZUO W L. A new framework for focused web crawling[J]. Wuhan University Journal of Natural Sciences, 2006, 11(9):1394-1397.

        [16] 陳榮征,陳景濤,林澤銘.基于網(wǎng)絡(luò)爬蟲和智能推薦的大學(xué)生精準(zhǔn)就業(yè)服務(wù)系統(tǒng)研究[J].電腦與電信,2019(Z1):39-43.

        [17] 于成龍,于洪波.網(wǎng)絡(luò)爬蟲技術(shù)研究[J].東莞理工學(xué)院學(xué)報,2011,18(03):25-29.

        作者簡介:

        潘洪濤(1979-),男,碩士,副教授.研究領(lǐng)域:網(wǎng)絡(luò)安全,軟件開發(fā)和計算機職業(yè)教育.

        猜你喜歡
        網(wǎng)絡(luò)爬蟲
        基于分布式的農(nóng)業(yè)信息檢索系統(tǒng)的設(shè)計與實現(xiàn)
        微信平臺下的教務(wù)信息獲取和隱私保護方法研究
        基于網(wǎng)絡(luò)爬蟲的電子易購軟件設(shè)計與實現(xiàn)
        計算機時代(2017年2期)2017-03-06 20:40:01
        搜索引擎技術(shù)的發(fā)展現(xiàn)狀與前景
        煉鐵廠鐵量網(wǎng)頁數(shù)據(jù)獲取系統(tǒng)的設(shè)計與實現(xiàn)
        基于社會網(wǎng)絡(luò)分析的權(quán)威網(wǎng)頁挖掘研究
        主題搜索引擎中網(wǎng)絡(luò)爬蟲的實現(xiàn)研究
        淺析如何應(yīng)對網(wǎng)絡(luò)爬蟲流量
        中國市場(2016年23期)2016-07-05 04:35:08
        基于淘寶某商品銷售量監(jiān)控系統(tǒng)
        網(wǎng)絡(luò)爬蟲針對“反爬”網(wǎng)站的爬取策略研究
        亚洲老女人区一区二视频| 国产乱子乱人伦电影在线观看| 日韩亚洲欧美中文高清在线| 精品久久久亚洲中文字幕| 性感美女脱内裤无遮挡| 亚洲av日韩av永久无码下载| 性欧美大战久久久久久久久| 中文字幕天天躁日日躁狠狠| 国语对白自拍视频在线播放| 国产成人无码a区在线观看导航| 亚洲欧美成人一区二区在线电影| 精品国产免费久久久久久| 开心激情网,开心五月天| 色吧噜噜一区二区三区| 真人新婚之夜破苞第一次视频| 国产成人免费a在线视频| 久久熟女精品—区二区蜜臀| 亚洲av无码国产精品色| 国产精品va无码一区二区| 无码一区二区三区不卡AV| 极品少妇一区二区三区四区视频| 久久精品99国产精品日本| 一区二区传媒有限公司| 国产成人亚洲合集青青草原精品| 国产成人综合久久大片| 日韩av激情在线观看| 久久无码人妻一区二区三区午夜| 人禽伦免费交视频播放| 久久青草国产精品一区| 日本成人中文字幕亚洲一区| 中国少妇×xxxx性裸交| 丰满人妻熟妇乱又伦精品视| 国产午夜av一区二区三区| 久久人妻一区二区三区免费| 无码人妻av一二区二区三区| 色爱无码A V 综合区| 人妻体体内射精一区中文字幕| 内射口爆少妇麻豆| 中文在线а√天堂官网| 少妇极品熟妇人妻高清| 日韩欧美中文字幕公布|