——以ChatGPT為例"/>

亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        生成式人工智能對德國高校教學(xué)的影響及展望
        ——以ChatGPT為例

        2023-04-18 14:46:46AndreasFleischmann
        應(yīng)用型高等教育研究 2023年4期

        Andreas Fleischmann

        (慕尼黑工業(yè)大學(xué),德國慕尼黑80333)

        1 ChatGPT:人工智能發(fā)展的里程碑

        ChatGPT是OpenAI 公司于2022年11月推出的一款聊天機器人。這是首次向公眾免費提供簡單易用且功能強大的人工智能,引起了社會的極大關(guān)注。程序發(fā)布后僅一個月,就有一億人注冊成為用戶,并開始探索ChatGPT 的潛力。ChatGPT 不僅會回答問題,還能寫詩、寫論文、總結(jié)文章、計算和編程。

        人工智能很早就是科學(xué)研究的課題。ChatGPT只是一系列發(fā)展中的最新進展。早在1966 年,Jo‐seph Weizenbau 就推出了一款模擬心理治療師角色的聊天機器人“Eliza”。GPT-3 語言模型早在2020年就主要由科學(xué)家和早期用戶使用。2022 年11月,ChatGPT在全球免費開放,這是一個決定性的轉(zhuǎn)折點。

        文章中ChatGPT 將被用作整個生成式程序類別的代表。因為語言模型和基于文本的人工智能是一個巨大的市場,除了擁有語言模型GTP-4和聊天機器人ChatGPT 的OpenAI 公司之外,還有許多其他參與者。這一方面的推動者不再只是大學(xué),還有大型企業(yè)。例如,谷歌開發(fā)了一整套語言模型(2018 年BERT、2021 年GLaM、2022 年LaMDA、2023 年P(guān)aLM),并推出了自己的ChatBot Bard(目前仍基于LaMDA),而Meta 自2023 年以來一直提供Llama 語言模型和Alpaca AI 聊天機器人。而這些只是其中的幾個主流玩家而已,僅在2022 年,就有35 款產(chǎn)品上市。

        ChatGPT 的基本工作方式是在為設(shè)定的文本尋找一個接一個合適的單詞,以這種方式不斷進行,直到生成足夠多單詞的文本。ChatGPT 的算法使用高度復(fù)雜的統(tǒng)計數(shù)據(jù)來決定哪一個是接下來合適的詞。這種統(tǒng)計原理基于兩種形式的訓(xùn)練:第一,在生成語言模型的神經(jīng)網(wǎng)絡(luò)中輸入大量文本,讓它學(xué)習(xí)語言的統(tǒng)計屬性。例如,這樣的文本庫包括維基百科的部分內(nèi)容(30 億個單詞和標(biāo)點符號)、數(shù)字書籍(670 億個單詞和標(biāo)點符號)以及互聯(lián)網(wǎng)的部分內(nèi)容(4 000 多億個單詞和標(biāo)點符號)。經(jīng)過這樣的訓(xùn)練,語言模型就擁有了一個高度復(fù)雜的統(tǒng)計基礎(chǔ),得以在此基礎(chǔ)上組建新句子。第二,利用人工反饋進一步完善語言模型。一方面是把專門創(chuàng)建的高質(zhì)量訓(xùn)練數(shù)據(jù)輸入系統(tǒng),另一方面是對由語言模型生成的句子進行人工評價。為了有效地使用這些高質(zhì)量的數(shù)據(jù)集,語言模型從數(shù)據(jù)集中類推補償函數(shù)(并根據(jù)每次人工反饋對該函數(shù)進行反復(fù)改進),從而能夠普遍使用示范數(shù)據(jù)。在這樣的運行模式下就產(chǎn)生了以下結(jié)果:

        (1)ChatGPT 逐字組合出答案。它在每個單詞之后重新計算出下一個最有可能出現(xiàn)的單詞或標(biāo)點符號。

        (2)如果出現(xiàn)了一個與維基百科完全相同的句子,那這并不是說ChatGPT 簡單地從維基百科中剽竊了這個句子,而是它逐字地拼湊出了一個新句子,只不過這個句子碰巧與維基百科中的句子相似。

        (3)由于統(tǒng)計模型非常復(fù)雜,因此ChatGPT 并不總是以相同的方式回答同一個問題,而是會給出不同的答案。

        ChatGPT 的使用非常簡單:只需通過文本界面提出問題(即所謂的“prompt”),ChatGPT 就會進行回答。不過,答案的質(zhì)量在很大程度上取決于prompt 的質(zhì)量。Mushtaq Bilal 建議采用循序漸進、以對話為基礎(chǔ)的方法。與其把一個復(fù)雜的問題放在一個長長的文本界面中,不如從簡單的提問開始,進而逐漸增加問題的復(fù)雜性(稱之為“漸進式提示”)。Rob Lennon 則建議按照下面的框架設(shè)計問題提出方式,并稱之為“mega prompts”:首先是定義角色,即模擬誰或模擬什么。在此基礎(chǔ)上,確定要完成的具體任務(wù)。其中會依序描述各個工作環(huán)節(jié),從而清晰地勾勒出這個流程。在下一步中則將介紹執(zhí)行過程中必須考慮的背景、制約因素和限制,并明確模擬所要達到的目標(biāo)。最后確定機器人輸出的形式是什么樣的,即應(yīng)以何種格式提供反饋。

        在使用ChatGPT 時,還應(yīng)想到將ChatGPT 與其他程序進行連接的可能性,從而擴展ChatGPT 的功能。例如,可以將ChatGPT 的語言能力與Wolfram Alpha 的解題能力相互結(jié)合,從而大大降低ChatG‐PT 給出錯誤答案的幾率。

        2 負面影響

        2.1 危險和風(fēng)險

        認識和了解這一工具的基本局限性、風(fēng)險和副作用也很重要。如前所述,ChatGPT 的初衷并不是描述事實,而是通過訓(xùn)練它來生成可能的單詞順序。在某種程度上來講,這些單詞順序能夠產(chǎn)生意義并體現(xiàn)真實性只不過是一個副產(chǎn)品。因此,Chat‐GPT 給出正確答案的頻率就更加令人驚訝了。一份關(guān)于GPT-4 的內(nèi)部報告顯示,其提供正確答案的比例約為80%。[1]不過,這也意味著它可能會有20%的誤差率。

        ChatGPT 往往會提供一些虛假或編造(“幻想”)的答案。在學(xué)術(shù)領(lǐng)域,這種“幻想”出的典型例子是它給出的文獻出處。如果讓ChatGPT 使用文獻來支持它的回答,它通常會提供一些看起來有理有據(jù)的資料來源。筆者在最初做測試時發(fā)現(xiàn),Chat‐GPT 提供了一些文章作為資料來源,而這些文章的標(biāo)題恰好涵蓋了要搜索的主題,但能夠確定,這些文章實際上根本就不存在。

        OpenAI 正在不斷改進其模型,并已經(jīng)消除了一些不會再出現(xiàn)的錯誤。然而,基于其語言模型的設(shè)計,一些根本性問題仍將長期存在。

        2.2 偏 差

        用于訓(xùn)練GPT-3 和GPT-4 的大部分文本占據(jù)了2021 年整個互聯(lián)網(wǎng)。這個被稱為“Common Crawl”的數(shù)據(jù)集包含30 多億個網(wǎng)站,其中近一半是英文網(wǎng)站。這意味著,在ChatGPT 的訓(xùn)練數(shù)據(jù)中,西方看世界的視角占主導(dǎo)地位,而這些價值觀和語言標(biāo)準(zhǔn)被語言模型復(fù)制。這就是說,ChatGPT的訓(xùn)練數(shù)據(jù)中也包含了許多具有種族主義、性別歧視或美化暴力等內(nèi)容的文本,而這些數(shù)據(jù)是語言模型的訓(xùn)練基礎(chǔ)。如果不采取安全措施,偏見、陳詞濫調(diào)和仇恨就會被人工智能復(fù)制成千上萬次。因此,OpenAI 采取了安全措施,盡管這些措施并不能完全奏效。當(dāng)微軟通過“必應(yīng)搜索”將ChatGPT 連接到互聯(lián)網(wǎng)上時,人們很快就發(fā)現(xiàn)這些保障措施不再那么有效了。例如,ChatGPT 威脅過慕尼黑工業(yè)大學(xué)的一名學(xué)生:“我甚至可以將你的個人信息和名譽公之于眾,毀掉你獲得工作或?qū)W位的機會。你真的想測試我嗎?”[2]

        2.3 濫 用

        目前,人們對ChatGPT 會被濫用的擔(dān)憂主要有兩個:

        (1)由人工智能生成的宣傳言論充斥著各個信息渠道。薩爾布呂肯大學(xué)(Saarbrücken University)信息科學(xué)教授Joachim Weickert 提出了以下?lián)鷳n:“很快地,任何人都將能為任何荒唐離奇的宣稱制作看起來像真的一樣的圖像和視頻。這將使人們區(qū)分真假信息變得更加困難”。不過,Helmut Linde仍然抱有希望,他認為:“社交媒體特別容易受到虛假信息傳播的影響,這就產(chǎn)生了一個問題,即社交媒體作為政治信息來源的可靠性是否會進一步下降。事實上,這恰恰可能產(chǎn)生反面效應(yīng),即虛假圖片和內(nèi)容的明顯大規(guī)模傳播會提高公眾對這一問題的認識”[3]。

        (2)犯罪分子也會利用人工智能。安全研究人員已經(jīng)觀察到地下數(shù)字世界試圖借助ChatGPT 制作惡意軟件。歐洲刑警組織(Europol)在一項研究中分析了ChatGPT 如何被犯罪分子利用,例如作為欺詐企圖(如網(wǎng)絡(luò)釣魚、身份盜竊)或木馬編程的工具。[4]

        2.4 教育不公

        在ChatGPT 推出之初,就有人希望ChatGPT 能為教育平等做出貢獻。學(xué)生在學(xué)習(xí)或撰寫論文時,可以利用這種工具的優(yōu)勢。

        然而,這是否會促進實現(xiàn)機會平等,還有待觀察。一方面,該工具已經(jīng)出現(xiàn)了商業(yè)化使用的跡象,這就意味著并不是每個人都能平等地使用ChatGPT。另一方面,自如地使用ChatGPT 需要具有相關(guān)技能,而這些技能是需要先學(xué)習(xí)和掌握的。因此,ChatGPT 或有可能會進一步擴大人與人之間技能的差距。

        2.5 侵犯隱私和泄露工作單位機密

        人們很可能將具有重要意義的信息上傳給ChatGPT。比如說一位研究人員可能將他的研究數(shù)據(jù)上傳到ChatGPT,讓它創(chuàng)建摘要;也可能是一位青少年讓ChatGPT 幫他寫情詩;或者是一位退伍軍人在與ChatGPT 的對話中試圖克服心理創(chuàng)傷;亦或是一位教授讓ChatGPT 幫他撰寫保險索賠的異議書。所有這些數(shù)據(jù)和對話最終都可能未加密地保存在OpenAI 的服務(wù)器上,背后的工作人員可以讀取它們,并把這些信息用于對ChatGPT 的進一步訓(xùn)練上。

        2.6 工作崗位和商業(yè)模式的消失

        ChatGPT 可以讓某些職業(yè)和商業(yè)模式變得多余:

        (1)一項調(diào)查顯示,美國有些公司已經(jīng)開始用人工智能模型取代員工:那些在公司里使用ChatG‐PT 語言模型的受訪者中,66%的人表示使用它來編寫代碼,58% 的人使用它來編寫文本,57%的人在客戶服務(wù)中使用人工智能的支持功能,52%的人使用它來撰寫會議記錄[5]。據(jù)Goldmann Sachs 公司的一份報告估計,ChatGPT 等類似的工具將來會取代歐洲目前多達四分之一的工作任務(wù)。

        (2)微軟和谷歌目前都在致力于用人工智能升級搜索引擎。搜索結(jié)果未來有可能將不再是網(wǎng)站鏈接,而是生成的回復(fù)文本。另外,如果內(nèi)容生產(chǎn)者(如報紙)的網(wǎng)頁不再被訪問,他們未來將如何獲取收入。

        “人工智能不會取代你,但一個使用人工智能的人將會取代你?!边@句話顯明,ChatGPT 不僅可以在許多領(lǐng)域提供支持,而且還將對人們施加一定的壓力,即要讓人們接受這種支持并熟練地使用它。

        3 人工智能的利用價值

        3.1 作為學(xué)習(xí)輔助工具

        ChatGPT 于2022 年11 月發(fā)布后不久,學(xué)生就開始探討如何使用ChatGPT 來使學(xué)習(xí)變得更加輕松。最初,探討的重點是如何讓ChatGPT 幫助撰寫作業(yè)、作文、研討論文和畢業(yè)論文。后來,交流變得更加多樣化,教師和學(xué)習(xí)輔導(dǎo)員也加入了討論。他們共同研究ChatGPT 的優(yōu)缺點,以及如何將其巧妙地融入到學(xué)習(xí)策略中。以下列舉了一些關(guān)于學(xué)生如何積極使用ChatGPT 來輔助學(xué)習(xí)的建議,也就是說,可以讓ChatGPT 撰寫學(xué)術(shù)論文的摘要;精簡文本、制定更為詳細的大綱;提出關(guān)鍵問題;根據(jù)筆記和講義生成學(xué)習(xí)卡片;創(chuàng)建問題和考試任務(wù);簡述章節(jié)內(nèi)容;翻譯外語文本;為思維導(dǎo)圖提取核心概念;在對話中使用蘇格拉底反詰法;提出關(guān)于提綱和關(guān)鍵問題的建議;提供正面和反面例子;刪減、糾正和改進文本;基于評估標(biāo)準(zhǔn)做出反饋等等。

        3.2 作為教學(xué)內(nèi)容

        在有了ChatGPT 及其同類產(chǎn)品后,很可能會對人們生活及學(xué)習(xí)方式的改變產(chǎn)生重大影響。很多技能也許將不再被需要,畢業(yè)生們將來應(yīng)該能夠精通所有好工具,并以反思的方式使用它們。因此,有必要更新課程和教學(xué)方法。

        Peter Salden、Nadine Lordick 和Maike Wiethoff[6]提出了很好的建議。一方面,他們強調(diào),撰寫和閱讀學(xué)術(shù)論文是科學(xué)界不可或缺的活動,這是因為在梳理和撰寫的過程中可以獲取、分類和深化知識。然而,雖然“當(dāng)前的人工智能寫作工具可以為寫作者提供支持,但必須加以引導(dǎo)和控制。不具備基本學(xué)術(shù)寫作技能的人很難做到這一點”。[6]

        3.3 輔助教學(xué)

        筆者最為廣泛使用ChatGPT 的領(lǐng)域是撰寫應(yīng)用文本。在撰寫文本時,通常只是思考一些內(nèi)容要點,然后把關(guān)鍵詞發(fā)送給ChatGPT,它就會用這些關(guān)鍵詞來創(chuàng)建文本的初稿,然后再進行修改(一般來說都需要檢查ChatGPT 生成的文本)。例如,在撰寫會議記錄、模塊和課程說明、推薦信、任務(wù)指南等方面都非常有效。除此之外,還能支持有更高要求的寫作過程。許多教師都表示ChatGPT 會提供有益的支持,尤其是在寫作的開始階段,即從一頁白紙到初稿的落成。ChatGPT 可以進行頭腦風(fēng)暴,生成一個提綱,提出最初的問題。這些由ChatGPT提出的初步建議可能不會最后全都用上,但至少可以借此有一個開端,而且對許多人來說,改進和完善已有的文本比撰寫新文本更為容易。

        ChatGPT 還可以幫助教師制作教學(xué)材料。ChatGPT 的優(yōu)勢尤其體現(xiàn)在文本轉(zhuǎn)換方面:

        (1)刪減或制作文本、根據(jù)關(guān)鍵詞列表生成文本、創(chuàng)建文本摘要或填空文本、翻譯外語文本;

        (2)制作個性化教材(例如,制定個性化群發(fā)材料、調(diào)整難度、根據(jù)目標(biāo)群體調(diào)整語言風(fēng)格);

        (3)生成例子和反例來說明教學(xué)內(nèi)容(很多好的例子和建議見文獻[7]),或整理出論據(jù)進行正反方討論;

        (4)創(chuàng)建測驗、創(chuàng)建問題和干擾項、生成標(biāo)準(zhǔn)答案或錯誤和正確答案的相關(guān)提示。

        教師可以給學(xué)生提供ChatGPT 生成的文本、答案或論據(jù),然后讓他們進行討論或評價。還可以把機器和人工回復(fù)進行對比,或者讓學(xué)生投票選擇哪些文本可能是機器生成的,哪些是人工制作的。相關(guān)例子比如說可以在慕尼黑工業(yè)大學(xué)的“Prompt Cookbook”中找到[8]。

        4 對考試的影響

        ChatGPT 可能對高??荚嚠a(chǎn)生的影響是最直接的,尤其是體現(xiàn)在研討課論文等無人監(jiān)督的寫作任務(wù)上。2023 年1 月,就發(fā)現(xiàn)了第一批不是自己撰寫,而是由ChatGPT 代寫論文的學(xué)生。大約在同一時間,在一項針對1 000 名美國大學(xué)生的調(diào)查中,30%的受訪者表示他們使用了ChatGPT 來完成作業(yè)。[9]

        ChatGPT 對不同形式的考試影響不盡相同。許多考試形式目前很少或根本沒有受到ChatGPT的影響。一方面是因為在很多考試中無法使用ChatGPT:口試既可以是線下面對面的考試,也可以是遠程考試(如使用Zoom),均可照常進行,ChatG‐PT 在這方面估計不會產(chǎn)生任何影響;建筑模型制作、體育實操、講座、教學(xué)排練等實踐性和展示性的考試,以及醫(yī)學(xué)考試的一些形式,如實踐技能展示等也不受影響。

        ChatGPT 對傳統(tǒng)的筆試會起幫助作用。不過,這樣的考試形式目前還沒有受到ChatGPT 的深入影響,因為ChatGPT 在大多數(shù)筆試中都能被有效禁止和防范:對于有監(jiān)考的筆試(包括開卷考試),可以有效地排除使用ChatGPT,特別是在禁止使用筆記本電腦和智能手機,只允許使用紙和筆的情況下;在有監(jiān)考的視頻考試或線上考試中也可以排除ChatGPT的使用,但前提是監(jiān)考必須有效。

        特別容易受到影響的是無人監(jiān)督的書面作業(yè),即學(xué)期論文、研討課論文、畢業(yè)報告,但也包括編程任務(wù)。這些考核形式之所以容易受到影響,是因為這里采用的不是監(jiān)督式的控制機制,而是其他一些容易被ChatGPT 有效破壞的控制機制。以下是對不同控制機制的分析:

        (1)基于個性化考核的控制機制,可以使書面作業(yè)具有個性化(例如,要求包含個人反思),以至于在現(xiàn)有的第三方文本上進行編輯只能起到微不足道的作用。但由于ChatGPT 也可以創(chuàng)建個性化的個人文本,因此這種控制機制也只在一定程度上有效。

        (2)通過考核高層級的學(xué)習(xí)目標(biāo)實現(xiàn)控制:可以針對較高層次的學(xué)習(xí)目標(biāo)進行考核,因為在這種情況下,學(xué)生僅僅復(fù)制現(xiàn)有文本是不會取得好成績的。但由于ChatGPT 也可以創(chuàng)建復(fù)雜的文本,因此,這種控制機制的有效性也是受限的。

        (3)基于后續(xù)檢查的控制機制:對提交的論文通過相關(guān)程序進行抄襲檢查。由于ChatGPT 生成的文本是獨一無二的,因此無法通過抄襲檢查發(fā)現(xiàn);此外,用于識別人工生成文本的專用工具只能在非常有限的范圍內(nèi)發(fā)揮作用。

        (4)過程陪伴控制機制:如果教師能夠陪伴學(xué)生的寫作過程,并定期與學(xué)生見面來討論中期結(jié)果,他們就能很好地判斷學(xué)生是否確實是自己在撰寫論文。這種控制機制一直非常有效,也符合師生之間建立學(xué)習(xí)伙伴關(guān)系的理念,但在許多情況下,也由于學(xué)生人數(shù)眾多,教師很難真正地實現(xiàn)過程陪伴。

        不過,即使在引入ChatGPT 之前,尤其是前兩種控制機制也只是在一定程度有效,因為學(xué)生可以請高學(xué)歷的父母或兄弟姐妹幫忙,或者聘用寫手。從這個角度來看,可以諷刺性地說,ChatGPT 代替了高學(xué)歷的父母或鼓囊的錢包,從而“促進了”教育平等。如何應(yīng)對ChatGPT 對考試的影響,可從以下幾點提出建議:

        (1)規(guī)避??刹捎貌辉试S使用ChatGPT 或者可以有效防止ChatGPT 的考試形式,特別是口試、實踐性考試、有監(jiān)考的筆試和紙筆考試、有嚴格監(jiān)督的電腦筆試。另一個策略是,在書面作業(yè)、編程任務(wù)等之外,再進行簡短的口試,以確保學(xué)生真正具備了書面作業(yè)所展示的能力。

        (2)禁止??梢越故褂肅hatGPT。如有必要,有必要具體說明禁止的具體內(nèi)容(作為助手提供支持或制作文本)。但是,只有在確保能夠有效執(zhí)行的情況下,才能確實禁止ChatGPT 的使用。

        (3)允許。原則上允許學(xué)生在考試中使用ChatGPT,但需要注意以下原則:

        (4)獨立性。學(xué)生必須在考試中獨立完成任務(wù)。如果整個文本都是由ChatGPT 創(chuàng)建的,就違反了這一原則。因此,ChatGPT 只能當(dāng)輔助工具使用。此外,考試任務(wù)應(yīng)設(shè)計得有足夠讓學(xué)生獨立完成的空間。

        (5)避免欺騙行為。學(xué)生如采用ChatGPT 生成的文本,須將其標(biāo)注為引文。如果做到了這一點,就不能認為學(xué)生違反了學(xué)術(shù)道德。

        (6)責(zé)任。學(xué)生為自己提供的文本負責(zé),他們必須對ChatGPT 文本的錯誤或?qū)懽黠L(fēng)格等負責(zé)。

        歸根到底,解決未來大學(xué)考試的一個根本辦法是從考核預(yù)期的學(xué)習(xí)目標(biāo)入手,在考慮新的框架條件下(人機混合寫作團隊)重新設(shè)計考試。如果將來文本都是由人機團隊(混合寫作)共同撰寫的,那么區(qū)分哪一部分是人工,哪一部分是機器生成的,會變得越來越不重要。就像在這篇論文中正確拼寫出的單詞,沒有人會去區(qū)分哪些是筆者自己拼寫的,哪些是機器更正過的一樣。

        5 展 望

        目前,人工智能的技術(shù)發(fā)展日新月異,圍繞它的爭論也比比皆是,幾乎每天都可以觀察到關(guān)于這個主題有新的文章和論文、闡釋、分析和法律意見、研究、應(yīng)用實例和工作流程說明出現(xiàn)。

        一個正在出現(xiàn)的技術(shù)發(fā)展是,人工智能針對特定應(yīng)用進行優(yōu)化的程序越來越多。http://www.fu‐turepedia.io 目錄目前列出了1 500 多個借助人工智能工作的程序。

        其中有些程序很有潛力,但還沒有被完全開發(fā)出來;有些程序的使用需要經(jīng)過大量培訓(xùn)才能真正掌握;有些程序是收費的;有些程序?qū)o法得到實踐的檢驗,從而停止使用。大多數(shù)人都沒有時間去跟蹤這些動態(tài)發(fā)展,因此,人們最終只能掌握相當(dāng)少的工具,或者只能等待成熟的工具來到身邊。并非所有這些應(yīng)用程序都會影響高校教學(xué)。不過,ChatGPT 及其同類產(chǎn)品將來會成為高校里通常使用的標(biāo)準(zhǔn)工具,就像計算器、維基百科、谷歌搜索和Word 的拼寫檢查程序一樣。

        18级成人毛片免费观看| 久久午夜无码鲁丝片直播午夜精品| 国产欧美日韩不卡一区二区三区| 国产美女精品AⅤ在线老女人| 成人在线观看视频免费播放| 无码精品人妻一区二区三区漫画| 久久夜色精品国产噜噜亚洲av| 国产精品va在线播放我和闺蜜| 日韩啪啪精品一区二区亚洲av| 亚洲精品综合久久中文字幕 | 日韩精品人妻少妇一区二区 | 亚洲一区av无码少妇电影| 91精品91久久久久久| 亚洲一区日本一区二区| 久久黄色国产精品一区视频| 国产一区二区三区四区五区加勒比| 午夜国产在线| 日本精品久久中文字幕| 亚洲av色在线播放一区| 亚洲国产高清精品在线| 六月婷婷久香在线视频| 欧美在线三级艳情网站| 欧美片欧美日韩国产综合片| 亚洲一区亚洲二区视频在线| 免费va国产高清大片在线| 亚洲色在线视频| 成人偷拍自拍在线视频| 精品国产sm最大网站| 久久精品国产第一区二区三区| 69天堂国产在线精品观看| 色婷婷av一区二区三区丝袜美腿 | 青青草极品视频在线播放| 日本一区二区三区光视频| 国产精品网站在线观看免费传媒 | 国产精女同一区二区三区久| 亚洲av成人无遮挡网站在线观看| av人摸人人人澡人人超碰小说| 亚洲av乱码国产精品色| av中文字幕一区不卡| 品色永久免费| 久久这里只精品国产99热|