亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        關(guān)于通用人工智能的幾個(gè)重要倫理問題*

        2024-04-11 09:58:01魏屹東
        關(guān)鍵詞:人工智能人類智能

        魏屹東

        (山西大學(xué)哲學(xué)學(xué)院,山西 太原 030006)

        人工智能的快速發(fā)展,尤其是大語言模型帶來的倫理問題,已對(duì)傳統(tǒng)倫理觀念形成了重大挑戰(zhàn),比如人工智能算作什么智能、機(jī)器人有無道德感、人工道德是何種道德、機(jī)器人如何行善等不一而足。關(guān)于人工智能倫理及其治理的文獻(xiàn)很多,本文僅圍繞未來人工智能的一種架構(gòu)——通用人工智能(artificial general intelligence,AGI)可能帶來的倫理問題展開討論,主要涉及AGI的主體性、安全性、可靠性和可控性以及倫理增強(qiáng)和社會(huì)化。

        1 關(guān)于AGI作為人工自主道德系統(tǒng)的主體性問題

        一個(gè)人工智能體,能否成為一個(gè)獨(dú)立的道德主體,這是有很大爭議的。就人類而言,不是所有人都具有獨(dú)立的道德主體,比如未成年人、心智不健全者就沒有,盡管他們有獨(dú)立的人格(應(yīng)該受到尊重和善待)。對(duì)于非人類動(dòng)物,它們本身可能沒有道德觀念,但人類也應(yīng)該善待它們,虐待就是不道德的。就人工主體(這里沒有用智能體,是基于自治性更獨(dú)立性考慮的)來說,人們普遍認(rèn)為它沒有生命,更沒有意識(shí),盡管它被認(rèn)為有智能。這里暫且不談生命、意識(shí)和智能之間是什么關(guān)系,就它有智能而言,無意識(shí)的智能體一定會(huì)導(dǎo)致道德感嗎?或者必須為其行為負(fù)有倫理責(zé)任嗎?比如一個(gè)機(jī)器人撞倒了老人,即使它要承擔(dān)法律責(zé)任(應(yīng)該由使用它的人負(fù)責(zé)),它有負(fù)罪感嗎?也就是說它會(huì)為自己的過失感到自責(zé)嗎?

        目前的實(shí)際情形是,人形機(jī)器人不是人類(盡管形象似人),不具備人類的人格和道德屬性。然而,這并不妨礙人工智能專家給它設(shè)計(jì)一個(gè)道德認(rèn)知標(biāo)準(zhǔn),就像給任何一個(gè)人工產(chǎn)品制定一個(gè)使用說明一樣。一個(gè)初步具備AGI特征的人工自主道德智能體(the artificial and autonomous moral agent[1],AAMA)的模型探討了道德認(rèn)知標(biāo)準(zhǔn),并將其與其他人工規(guī)范智能體的模型進(jìn)行比較,認(rèn)為在“道德傾向的功能主義”的框架內(nèi),人工道德是可能的,如醫(yī)療專家系統(tǒng)、人工智能大模型GPT。這種可能性是從其外在行為判斷的,而不是內(nèi)在屬性。AAMA能夠閱讀人類行為者的行為,將其作為收集到的數(shù)據(jù),并根據(jù)道德模式對(duì)他們的道德行為進(jìn)行分類。也就是說,這種機(jī)器人是對(duì)人類行為進(jìn)行道德判斷,而不是對(duì)自己的行為作出道德評(píng)價(jià)。這與專家系統(tǒng)幫助醫(yī)生診斷病情是一個(gè)道理,系統(tǒng)本身不能為自己的診斷結(jié)果作出評(píng)判。

        因此,AAMA是一個(gè)復(fù)雜的人工智能體,它被賦予了自主權(quán)和作出道德決定的能力。人工智能中的大多數(shù)智能體是復(fù)雜的適應(yīng)性系統(tǒng),包括反應(yīng)單元和能夠?qū)Νh(huán)境的變化作出反應(yīng)的子系統(tǒng)。筆者認(rèn)為這種適應(yīng)能力與能夠作出判斷的認(rèn)知能力,尤其是自反性判斷,完全是兩碼事。顯然,在AAMA中,一個(gè)有用的屬性是適應(yīng),它通過適應(yīng)新的數(shù)據(jù)和以前的經(jīng)驗(yàn)來作決定;它需要對(duì)環(huán)境進(jìn)行采樣,然后選擇對(duì)環(huán)境變化的最佳反應(yīng)。這就是“行動(dòng)-感知循環(huán)”,是一種適應(yīng)性表征行為。因此,自主智能體的生活是采樣、關(guān)注和行動(dòng)的連續(xù)過程。自主性在這里被定義為一個(gè)動(dòng)態(tài)的概念,強(qiáng)調(diào)的是獨(dú)立于人類決策者和程序員預(yù)先施加的規(guī)則,即機(jī)器的“能動(dòng)性”(agency)。

        于是問題來了。這種基于適應(yīng)性的自主性是人工智能體的主體性嗎?行為-感知循環(huán)能夠產(chǎn)生道德感嗎?筆者認(rèn)為,這是不同層次的問題。物理和生物系統(tǒng)的適應(yīng)性是一種自組織特性,其發(fā)生機(jī)制可能是“行動(dòng)-感知循環(huán)”,但這種機(jī)制并不必然產(chǎn)生意識(shí)、心智以及更高級(jí)的道德感。自主性與主體性是有區(qū)別的,按照筆者個(gè)人的理解,自主性是自組織系統(tǒng)的一種衍生屬性,構(gòu)成意識(shí)的一個(gè)基本方面,但還不是哲學(xué)上的主體性。主體性的主體是人,不是其他物(動(dòng)物和機(jī)器人),比如“主體間性”就是指人與人之間表現(xiàn)出的交流、溝通和理解等屬性。在這個(gè)意義上,主體性是以有意識(shí)主體為前提的,而目前的機(jī)器人顯然沒有意識(shí)。如果筆者的這種理解是對(duì)的,那么人工智能體成為一個(gè)獨(dú)立的道德主體還不夠格,盡管它可以作為判斷人類道德行為的實(shí)體。所以,成為一個(gè)道德主體和成為一個(gè)判斷道德行為的實(shí)體之間是有巨大差別的。比如,“我知道電子秤能夠稱出我的體重”,與“電子秤顯示我的體重”完全是兩碼事。前者是有意識(shí)表達(dá),后者是無意識(shí)呈現(xiàn)。

        事實(shí)上,這里存在一個(gè)道德負(fù)荷問題,即讓機(jī)器負(fù)載人類的道德。這必然會(huì)遇到兩難選擇,簡單說即“做不是,不做也不是”。比如,在機(jī)器人作為道德主體問題上,老人護(hù)理機(jī)器人和自動(dòng)駕駛汽車(1)護(hù)理機(jī)器人不能按照用戶的意愿行事,駕駛機(jī)器人不能應(yīng)對(duì)道路事故的意外情況,這兩種情境都是道德負(fù)荷問題,是人為地加載的,機(jī)器人甚至人類在意外情形下也是隨機(jī)選擇,沒有所謂的道德兩難問題。在我看來,人類的道德能力如何形成的,構(gòu)成如何,我們并沒有完全搞清楚,怎么能指望沒有意識(shí)的機(jī)器人作出理性的道德選擇呢?(見Scheutz M.Moral Competency in Autonomous Agents.In Müller V C. ed. Fundamental Issues of Artificial Intelligence[J].Springer International Publishing Switzerland,2016:521.)。在遇到意外事件時(shí)往往會(huì)面臨兩難選擇。筆者認(rèn)為這種悖論是人類自己造成的。是人(往往是哲學(xué)家和倫理學(xué)家)事先設(shè)想了兩難情境讓機(jī)器人判斷,這是不科學(xué)的,也是要求過高的。道理很簡單,即使是理性的人類護(hù)理員和駕駛員,在遇到意外事件時(shí),也不會(huì)先考慮道德后果再作決定,而是在當(dāng)前情境下作出應(yīng)急處理,至于這樣做有什么后果,緊急情形下的當(dāng)事人并不考慮,也沒有時(shí)間考慮。當(dāng)事人只是做其身體反應(yīng)能做到的,比如緊急避讓,至于避讓后的后果怎樣,誰也不知道!這種道德設(shè)想是“事后諸葛亮”,并沒有“先明之見”。根據(jù)筆者自己的經(jīng)歷,人們在遇到緊急或意外事件時(shí),并沒有過多地考慮(沒有時(shí)間去理性思考),而是身體本體反應(yīng)上立刻采取行動(dòng),比如身旁有人跌倒時(shí)我們會(huì)自動(dòng)伸手去扶。這是一種先天能力,與道德判斷無關(guān)。機(jī)器人的情形也應(yīng)該是如此,即使人類設(shè)計(jì)者事先考慮到各種可能意外情況,也難以避免在遇到意外時(shí)可能出錯(cuò)。

        目前,機(jī)器人和人工智能的技術(shù)進(jìn)步使自主機(jī)器人在某些方面得以實(shí)現(xiàn),它們可在無監(jiān)督的情況下自主決定做什么。盡管大多數(shù)機(jī)器人還很簡單,自主性也相當(dāng)有限,但不可否認(rèn)其自主性會(huì)越來越強(qiáng);而自主性越強(qiáng),有害性就可能會(huì)越大。這一點(diǎn)尤其令人擔(dān)憂,這就需要考慮機(jī)器人的決策算法的安全性和道德約束。這就是筆者倡導(dǎo)的文化人工智能,即從人文性視角看,只要機(jī)器人架構(gòu)中的決策和行動(dòng)選擇算法不是基于文化、道德規(guī)范和道德推理的顯表征,由符號(hào)計(jì)算架構(gòu)控制的自主機(jī)器人將不可避免地會(huì)產(chǎn)生一些有害行為。如果機(jī)器人具有類似人類的道德規(guī)范能力,這種傷害可以得到緩解或減少。這與讓機(jī)器人有情感和意識(shí)可能是一個(gè)道理。

        2 關(guān)于AGI的安全性問題

        與人工主體的道德感相比,其安全性更為重要。因?yàn)锳GI首先必須是安全的。這是我們使用人工制品第一個(gè)要考慮的問題。不安全的東西是絕對(duì)禁用的,無論它多么智能多么美觀。這是常識(shí)知識(shí)、道德規(guī)范,更是法律強(qiáng)制。一門關(guān)于人工智能體的安全工程的新科學(xué)主張,試圖讓機(jī)器作出道德決定或擁有權(quán)的做法是愚蠢的、錯(cuò)誤的,AGI研究是不道德的(2)理由是,一方面,如果真正的通用人工智能將有能力解決普遍問題并進(jìn)行遞歸的自我提升,那么它們有可能在任何領(lǐng)域超越人類,這基本上使人類沒有必要存在,因此會(huì)被滅絕;另一方面,如果一個(gè)真正的通用人工智能系統(tǒng)可能擁有與人類相當(dāng)?shù)囊庾R(shí),那么使機(jī)器人遭受痛苦成為一種真正的可能性,任何通用人工智能實(shí)驗(yàn)也因此而不符合人類的倫理觀念。。這向科學(xué)和倫理學(xué)提出了一個(gè)重大挑戰(zhàn)——開發(fā)能夠證明人工智能實(shí)際上是安全的智能系統(tǒng),甚至在遞歸的自我提升下也是如此[2]389-396。

        筆者部分贊同這種觀點(diǎn),因?yàn)闄C(jī)器人不是具有人格的實(shí)體,當(dāng)然沒有道德判斷能力,也就完全不是道德主體。部分不贊成是因?yàn)?通過安全工程并不能完全保證人工智能絕對(duì)安全(哥德爾定律業(yè)已揭示,任何系統(tǒng)都不是完備的)。而且,由于道德規(guī)范并不具有普遍性,其局部性較強(qiáng)(受文化傳統(tǒng)影響較大),比如離婚,在20多年前的中國社會(huì)中被一些人認(rèn)為是不道德的,現(xiàn)在認(rèn)為是合情合理且合道德的,而維持沒有感情的婚姻反而被認(rèn)為是不道德的。因此,我們永遠(yuǎn)不可能選擇一種正確的道德準(zhǔn)則而使整個(gè)人類感到滿意,并且遵守。

        為了約束人工智能可能產(chǎn)生的不道德行為,有人提出了一個(gè)所謂的人工智能封閉協(xié)議的概念——人工智能裝箱(3)所謂的“人工智能裝箱”指有人做了實(shí)驗(yàn),證明了即使是人類水平的智能也足以從箱中逃脫。在一系列的5個(gè)實(shí)驗(yàn)中,實(shí)驗(yàn)者讓不同的人扮演被困在箱子中的超級(jí)智能體的守門人,并在5個(gè)實(shí)驗(yàn)中的3個(gè)中成功地通過聊天界面確保了其逃脫(見Yudkowsky E S.The AI-Box Experiment[EB/0L].(2022-08-22)[2023-10-09].http://yudkowsky.net/singularity/aibox.) 在筆者看來,“人工智能裝箱”與“把權(quán)力裝進(jìn)籠子”是一回事,前者是限制人工智能的無序發(fā)展,后者是制約權(quán)力的肆意妄為。(AI-Boxing),以此作為一種應(yīng)對(duì)人工智能安全的挑戰(zhàn)[3]。這等于是將人工智能禁錮問題(artificial intelligence confinement problem,AICP)定義為將人工智能實(shí)體限制于一個(gè)封閉環(huán)境的問題。如果這種信息交流沒有得到權(quán)威機(jī)構(gòu)的授權(quán),它就不能通過合法或隱蔽的渠道與外部環(huán)境交流信息。如果出現(xiàn)反例,比如一個(gè)成功地違反了禁錮協(xié)議的人工智能系統(tǒng),這被稱為逃逸,這種情形可能是難以避免的。因此,建立一個(gè)絕對(duì)安全的人工智能系統(tǒng)幾乎是不可能的。

        泰德·卡津斯基在其著名的宣言中提出:“也許有人會(huì)說,人類永遠(yuǎn)不會(huì)愚蠢到把所有的權(quán)力都交給機(jī)器。但我們既不是說人類會(huì)自愿把權(quán)力交給機(jī)器,也不是說機(jī)器會(huì)故意奪取權(quán)力。我們所建議的是,人類可能很容易允許自己陷入對(duì)機(jī)器的依賴,以至于人類沒有實(shí)際的選擇,只能接受機(jī)器的所有決定。隨著社會(huì)和所面臨的問題變得越來越復(fù)雜,機(jī)器變得越來越聰明,人們會(huì)讓機(jī)器為他們作出更多的決定,這僅僅是因?yàn)闄C(jī)器作出的決定會(huì)比人作出的決定帶來更好的結(jié)果。最終可能會(huì)達(dá)到這樣一個(gè)階段:維持系統(tǒng)運(yùn)行所需的決定將變得如此復(fù)雜,以至于人類將無法理智地作出這些決定。在這個(gè)階段,機(jī)器將被有效控制。人們將不能只是關(guān)閉機(jī)器,因?yàn)槿藗儗⑼耆蕾囁鼈?關(guān)閉它們就等于自殺?!盵4]近30年過去了,這一看法現(xiàn)在看來仍然是有道理的。人類越來越依賴人工智能,尤其是智能手機(jī)和電腦。事實(shí)上,在日常生活中,大部分人在使用這些電子產(chǎn)品時(shí),是無條件接受的,人們信賴它們所作的決定,比如導(dǎo)航軟件。

        有人認(rèn)為這會(huì)導(dǎo)致“奇點(diǎn)悖論”(singularity paradox)——超智能機(jī)器恐怕太笨而無法擁有常識(shí)[2]397,即:超級(jí)聰明卻不懂常識(shí)是矛盾的,相當(dāng)于我們常說的“聰明反被聰明誤”。查爾默斯提出的“防漏”奇點(diǎn)的想法是:為了安全起見,首先將人工智能系統(tǒng)限制在模擬的虛擬世界中,直到它們的行為傾向于能夠在受控條件下被完全理解。查爾默斯認(rèn)為,即使這樣做的方法不是萬無一失的,它也肯定比以物理具身形式建構(gòu)的人工智能要安全些。然而,他也指出,一個(gè)真正的防漏系統(tǒng),不允許任何信息從模擬世界泄露到我們的環(huán)境中是不可能的,或者至少是毫無意義的[5]。

        亞波爾斯基提出一個(gè)解決方案:防止發(fā)展、限制部署、融入社會(huì)、自我監(jiān)督和間接解決[6]。不過,制造一個(gè)友好的人工智能系統(tǒng),且該系統(tǒng)將渴望在眾多的自我提升方法下保持其友好性,如果正確實(shí)施的話,似乎非常有可能成功。然而,沒有人知道如何創(chuàng)建一個(gè)對(duì)人類友好的自我提升的優(yōu)化過程是怎樣的,所謂“友好的人工智能”幾乎是不可能的,即可能也必然會(huì)產(chǎn)生許多意想不到的問題。這是一種普遍的看法,事實(shí)上,人工智能系統(tǒng)無論多么智能,即達(dá)到類人的AGI或超人類智能,它也是人造的機(jī)器,是機(jī)器就只有“機(jī)性”,而不會(huì)有“人性”,這是人與機(jī)器的本質(zhì)區(qū)別?;煜诉@種區(qū)別,就可能做出要讓機(jī)器有人性的荒唐事情。所以,創(chuàng)造一個(gè)友好的智能機(jī)器也不太可能比創(chuàng)造任何智能機(jī)器更容易,創(chuàng)造智能機(jī)器仍然會(huì)產(chǎn)生“奇點(diǎn)悖論”。

        3 關(guān)于AGI的倫理責(zé)任問題

        如果說人工智能的安全問題是一個(gè)單純的技術(shù)問題,那么人工智能的倫理責(zé)任問題就是認(rèn)知問題。一個(gè)不安全可靠的機(jī)器人,是不會(huì)有市場的,因此這里再次強(qiáng)調(diào)安全性是第一位的,比如無人駕駛汽車、服務(wù)型機(jī)器人。在保證安全的前提下,人們才會(huì)考慮其他問題,比如道德和法律問題。

        目前,一個(gè)AGI的倫理框架據(jù)說可使人工實(shí)體在復(fù)雜的道德場景中作出符合道德的決定[7]42-51。這樣一個(gè)AGI系統(tǒng)將達(dá)到或超過人類個(gè)體以及人類集體和機(jī)構(gòu)的道德推理能力。程序員通過咨詢和實(shí)施這樣的框架,將能夠設(shè)計(jì)出比沒有這樣的框架更具有道德推理能力的人工智能體。這就是羅素稱之為的人工智能“標(biāo)準(zhǔn)模型”——人類試圖將自己的目的(偏好)灌輸給機(jī)器[8]。這種功能模擬方法真的能夠產(chǎn)生人類水平的智能嗎?羅素?cái)嘌赃@種方式注定會(huì)失敗。當(dāng)然了,如果這樣的框架在人工智能體的設(shè)計(jì)和使用中被實(shí)施,它將使世界在道德上更加美好。據(jù)稱這是一個(gè)基礎(chǔ)性的、靈活性的、適應(yīng)性的和語境性的道德系統(tǒng)的模型,它可作為AGI系統(tǒng)的設(shè)計(jì)者或AGI實(shí)體本身使用的模型,用于建立內(nèi)部的道德子系統(tǒng),使AGI實(shí)體能夠以道德上合理的方式成功參與復(fù)雜的道德場景。這實(shí)質(zhì)上就是讓人工認(rèn)知系統(tǒng)擁有道德評(píng)價(jià)能力。

        我們知道,人類的道德能力是語境化的,即通過后天教育獲得的,人工系統(tǒng)也必須通過學(xué)習(xí)獲得這種能力,這是因?yàn)檫M(jìn)入類似道德場景的系統(tǒng)(即人類集體)所創(chuàng)造的大多數(shù)道德體系都是相似的,而且在其中可以發(fā)現(xiàn)一些基本道德規(guī)則的普遍性,如友善。人類道德體系中的謀殺、強(qiáng)奸、與兒童的性行為、亂倫、撒謊、不負(fù)責(zé)任,或不必要的干擾或損害等不道德行為,AGI系統(tǒng)也必須能夠識(shí)別和判斷,并加以嚴(yán)格禁止。目前網(wǎng)絡(luò)上的不道德行為,如詐騙、詆毀、虛假信息,若AGI系統(tǒng)能夠識(shí)別并加以制止,不僅可以大大減輕網(wǎng)絡(luò)監(jiān)管的工作量,也更能使廣大網(wǎng)民免受干擾。

        筆者認(rèn)為,如果我們能夠讓人工智能系統(tǒng)擁有道德能力,就必然會(huì)讓其擁有意識(shí)、情感、意志等心理能力,因?yàn)榈赖乱庾R(shí)是更高級(jí)、更抽象的能力。也就是說,道德認(rèn)知是基于意識(shí)能力的,比如幼兒有意識(shí),但不能要求其有道德認(rèn)知,隨地吐痰是一種不良行為習(xí)慣,但不是道德問題。當(dāng)然,這還只是停留于理論設(shè)計(jì)層次,離技術(shù)上實(shí)現(xiàn)還有相當(dāng)?shù)木嚯x。隨后的工作應(yīng)該是探討該框架的組成部分,在理論道德場景中對(duì)其進(jìn)行測試,以及從廣泛的來源收集信息,從而確定AGI實(shí)體在進(jìn)行語境道德計(jì)算時(shí)可以考慮的統(tǒng)計(jì)指標(biāo),能夠推導(dǎo)出接近甚至超過人類道德推理能力的語境下的道德解決方案。

        問題是,人工智能體能成為道德主體嗎?它能在道德上對(duì)自己的行動(dòng)及其后果負(fù)責(zé)嗎[9]?退一步講,即使它能夠成為道德主體,一個(gè)只能進(jìn)行道德推理和評(píng)估而自己不具有道德意識(shí)的系統(tǒng),是一個(gè)類人的道德主體嗎?我們說計(jì)算機(jī)會(huì)計(jì)算但沒有意識(shí),這與AGI能進(jìn)行道德評(píng)估但沒有道德意識(shí)是一回事。因此,能做什么與意識(shí)到能做什么是不同層次的問題。這涉及人格同一性、自由意志、經(jīng)驗(yàn)主義與理性主義等一系列帶有爭議的哲學(xué)問題。事實(shí)上,筆者認(rèn)為這不是個(gè)問題,理由很簡單:因?yàn)槿斯ぶ悄芟到y(tǒng)根本就沒有人格,不能稱其為“人”,當(dāng)然沒有人類所具有的情感、道德感和責(zé)任感,盡管它能夠產(chǎn)生行為,但它并不為其行為負(fù)責(zé)。這與兒童或心智不健全的人不為自己的行為后果負(fù)責(zé)是一個(gè)道理。所以,這種討論從深層次的哲學(xué)上看沒有任何意義。當(dāng)然,我們可討論人工智能研究中可能或已經(jīng)出現(xiàn)的法律和倫理問題,比如無人駕駛汽車的交通事故誰來負(fù)責(zé)的問題。然而,這是不同層次的問題,一個(gè)是科學(xué)研究和技術(shù)開發(fā)應(yīng)該不應(yīng)該的問題,一個(gè)是機(jī)器人(智能體)本身是否有道德感和責(zé)任心的問題。這兩個(gè)問題不能混淆,否則會(huì)導(dǎo)致上述問題。

        4 關(guān)于AGI的倫理增強(qiáng)問題

        盡管人們對(duì)AGI有許多質(zhì)疑甚至反對(duì),但其發(fā)展是難以阻擋的。這與科技史上的任何一項(xiàng)革命性發(fā)明的出現(xiàn)都會(huì)遇到阻力是一個(gè)道理,從蒸汽機(jī)、電動(dòng)機(jī)、計(jì)算機(jī)、互聯(lián)網(wǎng)到人工智能,概莫能外。所以AGI 的發(fā)展也必然會(huì)遭到質(zhì)疑,因?yàn)檫@涉及AGI的“機(jī)器化”(cyborgization)如何避免惡意的人工智能(malevolent artificial intelligence,MAI)[10],即刻意制造破壞性的機(jī)器人,如無人轟炸機(jī),使AGI的可靠性和倫理問題特別令人擔(dān)憂。

        這種惡意利用人工智能的行為與網(wǎng)絡(luò)安全還有所不同。網(wǎng)絡(luò)安全的研究概念涵蓋了潛在的惡意利用和維護(hù)安全的措施,從而確保了某種平衡,而人工智能安全的研究迄今只關(guān)注實(shí)施安全人工智能系統(tǒng)的一般條件,而對(duì)這些系統(tǒng)可能的惡意利用仍被忽視了。因此,我們應(yīng)該解決由此產(chǎn)生的信息缺乏問題,因?yàn)槲磥韺?duì)超級(jí)人工智能系統(tǒng)的惡意利用的后果,必然會(huì)對(duì)人類造成毀滅性的影響[11]。這種后果是不難想象的,這由大規(guī)模使用核武器的后果不難推知。

        然而,問題在于,這是人工智能研究者的倫理問題,而不是機(jī)器人本身的倫理問題。未來遏制這種不道德的人工智能,AGI架構(gòu)中的自我意識(shí)功能應(yīng)該具有高度相關(guān)的如下優(yōu)勢[7]1-11:

        ①透明度:通過應(yīng)該有自我意識(shí)的AGI,允許其設(shè)計(jì)者了解其內(nèi)部過程的重要能力,它在設(shè)計(jì)上并不完全是一個(gè)“黑箱”系統(tǒng),而是部分可解釋的,這為有效的人工智能安全措施提供了基礎(chǔ)。

        ②可解釋性:由于AGI在透明的自我評(píng)估的基礎(chǔ)上進(jìn)行自我管理,其決策過程可以被獨(dú)立地記錄和交流,這可能會(huì)增加人類對(duì)AGI的行動(dòng)提取有用解釋的可能性。

        ③可信度:改進(jìn)AGI的可解釋性可能會(huì)提高其可信度和從人類角度的接受度,這反過來可能會(huì)提供更多的機(jī)會(huì),在更多的現(xiàn)實(shí)世界環(huán)境和語境下測試有自我意識(shí)的AGI。

        ④可控制性;通過假設(shè)AGI有通信能力,人類主體和AGI之間的穩(wěn)定反饋回路可能會(huì)導(dǎo)致人類控制的改善,提供許多測試的機(jī)會(huì)和主動(dòng)整合更多人工智能安全措施的可能性。

        ⑤快速適應(yīng)性:AGI的自我意識(shí)能力允許它對(duì)動(dòng)態(tài)環(huán)境中的變化作出更快的反應(yīng)和適應(yīng),即使在由于時(shí)間原因人類不可能進(jìn)行干預(yù)的情況下,也可以提高容錯(cuò)率和安全性。而且,在有來自環(huán)境的負(fù)反饋的情況下,它可能會(huì)更有效地避免不希望發(fā)生的情況。

        ⑥成本效益:在安全和成本效益之間通常有一個(gè)權(quán)衡,但一個(gè)自我意識(shí)系統(tǒng)本質(zhì)上更具有成本效益,例如,由于自我意識(shí)系統(tǒng)的錯(cuò)誤有更好的可追溯性,通過其決策過程的透明度促進(jìn)了可維護(hù)性,或者由于該系統(tǒng)可以適應(yīng)任何情況下的最佳工作,同時(shí)缺乏任何明顯的機(jī)制來交換降低其安全水平,由此產(chǎn)生了一個(gè)雙重優(yōu)勢。

        ⑦可擴(kuò)展性:一個(gè)具有自我意識(shí)的AGI可以被擴(kuò)展,例如包含一個(gè)人類認(rèn)知的模型,它可以考慮人類的缺陷,如認(rèn)知限制、偏見等。因此,AGI可以調(diào)整它向人類主體展示信息的方式,并考慮其具體約束,以保持一定程度的可解釋性。

        然而,AGI的這些優(yōu)越性到目前為止,還沒有具體說明自我意識(shí)導(dǎo)向的AGI的目標(biāo)是在什么基礎(chǔ)上制定的,比如基于生物意識(shí)或人機(jī)融合。很明顯,自我意識(shí)本身遠(yuǎn)不能說明人工智能的安全問題,因?yàn)樗旧聿⒉荒芙鉀Q潛在的目標(biāo)一致(對(duì)齊)問題。鑒于有自我意識(shí)的人類尚不能做到絕對(duì)安全,人工智能的介入就是為了增強(qiáng)這種能力。這要求AGI的發(fā)展一方面需要倫理增強(qiáng)——讓人工智能學(xué)習(xí)人類的目標(biāo),在AGI模型中把它們編碼為一套事實(shí)的優(yōu)先目標(biāo)[12];另一方面需要認(rèn)知增強(qiáng)——納米機(jī)器人、仿生學(xué)、生物技術(shù)、腦機(jī)接口技術(shù),或新出現(xiàn)的整合機(jī)器和生物智能的半機(jī)械人智能[13]等領(lǐng)域的預(yù)期進(jìn)展,可能會(huì)在可預(yù)見的未來為認(rèn)知增強(qiáng)帶來相當(dāng)大的可能性。例如,增強(qiáng)的功利主義作為一個(gè)新的非規(guī)范的社會(huì)技術(shù)倫理框架,可直接緩解不正當(dāng)?shù)膶?shí)例化問題,也可用于緩解AGI的安全問題[14]。在人工智能和更廣泛的科學(xué)技術(shù)的增強(qiáng)下,增強(qiáng)的功利主義可能允許社會(huì)在共同經(jīng)歷動(dòng)態(tài)的倫理增強(qiáng)的同時(shí),精心設(shè)計(jì)和更新倫理的效用函數(shù)。在筆者看來,為了精心設(shè)計(jì)效用函數(shù),我們必須使高級(jí)人工智能系統(tǒng)的行為不至于違反人類的道德直覺,我們必須科學(xué)地考慮相關(guān)的社會(huì)文化背景和人的具身性。

        從道德上考慮,利他主義對(duì)人類社會(huì)更為有益,若能夠設(shè)計(jì)并制造出利他主義的人工智能,那人類的前景一定會(huì)更美好。這是羅素倡導(dǎo)的“有益機(jī)器”或“有益的AI”的設(shè)想,試圖讓機(jī)器的行動(dòng)實(shí)現(xiàn)人類的目標(biāo),而不是它們的目標(biāo)。也就是說,這種有益機(jī)器的設(shè)想是針對(duì)人工智能研究者如何建構(gòu)友善的人工智能系統(tǒng)的,而不是人工智能系統(tǒng)本身要遵循的規(guī)則(4)羅素的“有益機(jī)器”有三個(gè)定律:純粹的利他主義原則,即機(jī)器的唯一目標(biāo)是最大限度地實(shí)現(xiàn)人類的偏好;謙卑的機(jī)器原則,即機(jī)器最初不確定這些偏好是什么;學(xué)習(xí)預(yù)測人類偏好原則,即關(guān)于人類偏好的最終信息來源是人類行為(見羅素的《AI新生》第182-186頁)。這三個(gè)原則涉及對(duì)“偏好”“不確定性”以及“智能來源”問題,可成為有益人工智能發(fā)展要遵循的原則。這與筆者倡導(dǎo)的“文化人工智能”基本一致,即將人的價(jià)值觀(普適的)嵌入機(jī)器。。不過,這種有益的人工智能還只是一種設(shè)想,也可能是“烏托邦”。因?yàn)槿斯ぶ悄艿臉O度發(fā)展似乎與人類社會(huì)的終極目的是正交的,即方向垂直但總有相交點(diǎn)。這就是博斯特羅姆的正交論[15]。根據(jù)正交論,智能和最終目標(biāo)是正交軸,智能體可以沿著這個(gè)軸自由變化。如果這個(gè)理論是正確的,那么我們就需要考慮人工智能發(fā)展的必要性了。比如,人人都知道戰(zhàn)爭對(duì)人類沒有好處,但總會(huì)爆發(fā)戰(zhàn)爭,還不斷將最新科技用于發(fā)展新式武器,如無人機(jī)。長遠(yuǎn)來看,將第一人稱視角的感知幸福納入社會(huì)/技術(shù)反饋循環(huán)核心的道德目標(biāo)功能的科學(xué)研究,可能表征了以最有效的方式促進(jìn)人類繁榮所需的一個(gè)實(shí)質(zhì)性因素。

        一種面向網(wǎng)絡(luò)安全的風(fēng)險(xiǎn)分類法將人工智能的風(fēng)險(xiǎn)分為第一類和第二類系統(tǒng)[16]:第一類人工智能系統(tǒng)(弱人工智能)的最重要的安全問題是有意無意的設(shè)計(jì),特別是作為潛在的惡意的人類對(duì)手,他們可以確定大量的利益相關(guān)者,諸如軍事組織、軍火商和恐怖組織罪犯。一般來說,惡意攻擊者可以開發(fā)智能形式的病毒、間諜軟件、特洛伊木馬、蠕蟲和其他危險(xiǎn)的軟件。第二類人工智能系統(tǒng)(強(qiáng)人工智能)的安全問題是AGI可能存在的潛在風(fēng)險(xiǎn),因?yàn)檫@類人工智能系統(tǒng)是未來可能的,沒有任何自然法則會(huì)禁止其實(shí)施。比如對(duì)哲學(xué)認(rèn)識(shí)論的沖擊——非人類智能的認(rèn)識(shí)論何以可能?人類認(rèn)識(shí)有至上性,AGI的認(rèn)知能力有至上性嗎?現(xiàn)代認(rèn)知科學(xué)表明,在大多數(shù)創(chuàng)造性形式中,變異和選擇之間存在著耦合,導(dǎo)致智力大于零的程度[17],這在沒有目標(biāo)的生物進(jìn)化過程中是缺乏的,而在預(yù)測性貝葉斯大腦的背景下,對(duì)創(chuàng)造力的解釋則是可能的[18]。這意味著,人工智能的發(fā)展并不遵循生物進(jìn)化規(guī)律,其智能可能沒有上限。這是我們要特別重視和注意的問題。

        關(guān)于第一類系統(tǒng)的集合,目前的人工智能是其中的一個(gè)子集,可把它定義為代表第二類系統(tǒng)集合的補(bǔ)充。第二類系統(tǒng)具有科學(xué)上的可信能力,能夠獨(dú)立地、有意地和有意識(shí)地行動(dòng),并且能夠精心地作出解釋[19]12-22。第二類系統(tǒng)指的是具有如下能力的系統(tǒng),即構(gòu)建關(guān)于可能發(fā)生的事情、如何發(fā)生以及為什么發(fā)生的反事實(shí)假設(shè),包括模擬“我能做什么”“我做了什么”以及產(chǎn)生“要是”(what if)問題的能力(虛擬條件句反映的目的性)。

        這可能產(chǎn)生人工智能的安全悖論:人工智能控制和價(jià)值調(diào)整表征了人工智能安全中的共軛要求。雖然第二類人工智能可以在認(rèn)知速度和智能方面超過人類,但它們甚至不需要這樣做就可意識(shí)到,它們的行為也將取決于它們將創(chuàng)造的未來知識(shí)(僅次于人類將創(chuàng)造的未來知識(shí))。它們不能以人們試圖控制第一類系統(tǒng)的方式來控制,例如用道德目標(biāo)功能來控制。它們的目標(biāo)功能將與具有反事實(shí)的自組織屬性有關(guān)。因此,系統(tǒng)的復(fù)雜性可能表征了一種可能的但不一定充分的自我保護(hù)功能,以抵御代碼層次的操縱。比如,一種試圖通過迭代改進(jìn)效用函數(shù)來實(shí)現(xiàn)AGI的安全性的研究,旨在讓人類對(duì)AGI智能體有更多的控制,通過部分或完全抑制智能體中可能出現(xiàn)的激勵(lì)來操縱改進(jìn)過程[19]205-215。智能體的人類設(shè)計(jì)者可使用這個(gè)終端來彌補(bǔ)在效用函數(shù)對(duì)智能體的目標(biāo)和約束的編碼中發(fā)現(xiàn)的任何漏洞,將智能體引向新的目標(biāo),或者迫使智能體關(guān)閉自己。這是強(qiáng)化學(xué)習(xí)的方法。所以,一個(gè)AGI系統(tǒng)可能會(huì)發(fā)展出操縱效用函數(shù)改進(jìn)過程的涌現(xiàn)激勵(lì),如通過欺騙、限制甚至攻擊相關(guān)人,其安全層將部分地,甚至完全地抑制這種危險(xiǎn)的激勵(lì)。

        5 關(guān)于AGI的可控性和社會(huì)化問題

        到目前為止,世界上沒有人擁有能夠擴(kuò)展到人類水平的人工智能,并達(dá)到超級(jí)智能的有控制機(jī)制這種技術(shù)。或者說,控制AGI及其更高級(jí)版本“超級(jí)智能”的能力還沒有被確立。這是否意味著高級(jí)人工智能不能被完全控制呢?不受控制的人工智能對(duì)人類的未來和人工智能系統(tǒng)本身的安全和保障是一個(gè)重大挑戰(zhàn)[9]316-326。

        這里存在一個(gè)可控論和不可控論之爭??煽卣撜哒J(rèn)為,一個(gè)超人的AGI是一個(gè)在大多數(shù)認(rèn)知任務(wù)上勝過人類的系統(tǒng)。為了控制它,人類將需要控制一個(gè)比自己更聰明的系統(tǒng)。如果智力差異很大,而且AGI試圖逃避控制,這種情形幾乎是不可能的。人類有一個(gè)關(guān)鍵的優(yōu)勢:作為系統(tǒng)的設(shè)計(jì)者,我們可以決定AGI的目標(biāo),以及AGI努力實(shí)現(xiàn)其目標(biāo)的方式。這允許我們設(shè)計(jì)出目標(biāo)與我們一致的AGI,比如羅素的“有益的AI”,然后以負(fù)責(zé)任的方式追求它們。這意味著增強(qiáng)智能并不是一種威脅,只要AGI致力于幫助我們實(shí)現(xiàn)我們自己的目標(biāo)[20]。不可控論者認(rèn)為,人工智能不能復(fù)制到新的硬件上,也不能在當(dāng)前的硬件上修改它自己,而決定人工智能在外部世界中試圖要完成的任務(wù)的決策系統(tǒng)具有穩(wěn)定性,并且在多次自我修改中不斷提升自己。而且,人工智能的決策功能是以抽象的形式存在于自我修改中,不能以可知的穩(wěn)定性和有限的失敗概率與程序員的目標(biāo)相聯(lián)系,這些目標(biāo)在人工智能中是不斷變化的。

        筆者認(rèn)為,人工智能技術(shù)與核技術(shù)一樣,在人類的共同努力下,是可以控制的,除非有人惡意制造不道德的“惡意的人工智能”[21]。就看我們?nèi)祟愒敢獠辉敢?政府干預(yù)不干預(yù)。這不僅涉及人工智能本身的發(fā)展,還涉及社會(huì)管理以及法律、倫理的共同參與。這是一個(gè)復(fù)雜的全社會(huì)治理工程,需要地球人共同努力來完成,因?yàn)槿祟愂且粋€(gè)“命運(yùn)共同體”。

        如果AGI能夠健康發(fā)展,AGI可能會(huì)出現(xiàn)兩種趨向:一種是社會(huì)化,另一種是后生物學(xué)化。社會(huì)化是說,通用智能要將人工智能理解為一種社會(huì)文化現(xiàn)象和“非人類智能行為者”。事實(shí)上,人工智能正日益成為社會(huì)的一部分,人機(jī)交互業(yè)已成為現(xiàn)實(shí),具體表現(xiàn)在不斷發(fā)展的智能家居系統(tǒng)、自動(dòng)駕駛車輛、聊天機(jī)器人、智能公共顯示器、護(hù)理機(jī)器人等領(lǐng)域[7]130-139。這需要對(duì)人工智能進(jìn)行社會(huì)學(xué)研究,比如機(jī)器人的社會(huì)認(rèn)知。我們可以對(duì)科學(xué)現(xiàn)象作社會(huì)學(xué)分析,形成科學(xué)社會(huì)學(xué)和科學(xué)知識(shí)社會(huì)學(xué),也可以對(duì)人工智能作社會(huì)學(xué)分析,如形成人工智能社會(huì)學(xué)和機(jī)器人社會(huì)學(xué)。盡管人工智能本身不是社會(huì)現(xiàn)象,但像社交軟件工具的普及化,線上會(huì)議軟件的流行,使得AGI的社會(huì)化理解成為必然。由此社會(huì)學(xué)產(chǎn)生的人工智能概念,也適應(yīng)于經(jīng)濟(jì)、政治科學(xué)或人類學(xué)。

        目前,人工智能在社會(huì)學(xué)中幾乎只被視為統(tǒng)計(jì)或文本分析的方法論工具,這是將機(jī)器智能技術(shù)應(yīng)用于社會(huì)現(xiàn)象,即“人工社會(huì)智能”[22]?;谌斯ぶ悄艿墓ぞ吆拖到y(tǒng),諸如無人駕駛班車、聊天機(jī)器人、游戲系統(tǒng)(虛擬現(xiàn)實(shí)),都是人工社會(huì)化智能。比如,對(duì)大型多人在線游戲的虛擬世界中的“具身對(duì)話智能體”進(jìn)行的民族方法學(xué)研究,提出了計(jì)算機(jī)游戲中的bots(非游戲人的虛擬人)是否被玩家視為社會(huì)行動(dòng)者的問題[23]。

        AGI的另一種趨向是后生物化文明。我們可以想一想,人工智能體是否可以實(shí)例化意識(shí),對(duì)于社會(huì)和復(fù)雜文明的建立和維持意識(shí)是否必需?所謂的“技術(shù)奇點(diǎn)”[24]和“時(shí)空奇點(diǎn)”[7]207-216是否會(huì)到來?由此導(dǎo)致的所謂“費(fèi)米悖論”(5)費(fèi)米悖論是指在銀河系或宇宙中存在其他智能文明的明顯高可能性與目前缺乏任何證據(jù)之間的矛盾。這很可能依賴于技術(shù)的進(jìn)步,比如根據(jù)技術(shù)的物理極限,人類有可能在相對(duì)較短的時(shí)間內(nèi)至少建造部分戴森球(Dyson spheres)或馬特奧斯卡大腦(Matrioshka brains)。因此,在費(fèi)米悖論的語境下,時(shí)空奇點(diǎn)預(yù)測可在一個(gè)文明所使用的力量的快速增長中進(jìn)行,跟蹤技術(shù)的超指數(shù)增長,可在幾十年而不是幾千年內(nèi)從使用其主行星的資源發(fā)展到使用整個(gè)太陽系的資源甚至更廣(參見DYSON F J.Search for artificial stellar sources of infrared radiation[J].Science,1960,131:1667-1668.)。如何解釋?如果AGI有了實(shí)質(zhì)性進(jìn)步,人類進(jìn)入創(chuàng)造出多智能體的合作場景將會(huì)出現(xiàn),到那時(shí)我們可能是生活在模擬環(huán)境的社會(huì)里,如元宇宙。如果這一天真的到來了,人工智能有可能通過提高模擬的速度來提高其問題解決能力。如果一個(gè)具有足夠能力的最小模擬系統(tǒng)被創(chuàng)建,它可能會(huì)設(shè)法通過加速科學(xué)技術(shù)的進(jìn)步來提高自己的速度,其方式類似于技術(shù)奇點(diǎn),最終可能導(dǎo)致大型模擬文明以極端的時(shí)間速度展開,從而實(shí)現(xiàn)從外部看起來像一個(gè)時(shí)空奇點(diǎn)。

        不過,我們也不用“杞人憂天”,AGI產(chǎn)生的潛在危險(xiǎn)可能構(gòu)成一個(gè)“大過濾器”(6)漢森想要反駁這樣一個(gè)觀點(diǎn):人類似乎有一個(gè)光明的未來,讓宇宙充滿持久的生命。然而,人類的生存空間現(xiàn)在似乎是有限的,這一事實(shí)告訴我們:任何給定的死物質(zhì)都面臨著天文數(shù)字般的低概率,無法孕育出人類期望的未來,這意味著在死亡和不斷擴(kuò)大的持久生命之間,存在著一個(gè)巨大的過濾器,人類面臨著一個(gè)不祥的問題:我們在這個(gè)過濾器上究竟能走多遠(yuǎn)?(見HANSON R. The great filter—are we almost past it?[EB/OL]. (2023-08-21)[2023-10-09].https://philpapers.org/rec/HANTGF-2.)。,很少有文明能夠幸存下來,從而解釋了費(fèi)米悖論。然而,時(shí)間加速模擬也可能被用來逃避大過濾器,在關(guān)鍵時(shí)刻迅速為我們提供解決方案,例如在短時(shí)間內(nèi)檢測到的小行星的撞擊,在這種情境下,先進(jìn)的智慧文明可能會(huì)攻擊任何新出現(xiàn)的文明。如果是這樣,AGI可能產(chǎn)生超人智能就不僅僅是設(shè)想了。用哲學(xué)術(shù)語說,這種人工超智能的可能性將會(huì)成為現(xiàn)實(shí)性。目前提高人工智能體能力的一個(gè)簡單有效的方法是在超級(jí)計(jì)算機(jī)上執(zhí)行相同的算法,這就要為計(jì)算機(jī)提供更多的時(shí)間來思考和解決問題,從而導(dǎo)致外部世界的解決問題的時(shí)間縮短。在實(shí)踐中,我們可能需要一個(gè)模擬環(huán)境供智能體工作,因?yàn)閷?shí)際的外部世界會(huì)限制智能體的性能。比如,在訓(xùn)練深度強(qiáng)化學(xué)習(xí)智能體方面,通常是在模擬環(huán)境中進(jìn)行的,其執(zhí)行速度僅受限于可用的算力。

        6 結(jié)語

        人工智能是人類智能發(fā)展的必然結(jié)果。如果不禁止,AGI極有可能實(shí)現(xiàn)。果真有一天AGI真的實(shí)現(xiàn)了,我們?nèi)绾闻c之交互,如何應(yīng)對(duì)其產(chǎn)生的一系列問題呢?無論AGI能否實(shí)現(xiàn),有一點(diǎn)可以肯定,那就是:基于AGI的文明將被認(rèn)為是一種“模擬文明”或“虛擬文明”,因?yàn)樗鼈兘?jīng)歷了一個(gè)類似于真實(shí)外部世界的模擬環(huán)境,這種智能體模擬出的環(huán)境,與模擬外的任何實(shí)際環(huán)境幾乎一樣真實(shí),比如模擬駕駛和實(shí)際駕駛的感覺幾乎難以區(qū)分。這意味著智能體不僅從樣本中學(xué)習(xí)(機(jī)器學(xué)習(xí)),也會(huì)從經(jīng)驗(yàn)中學(xué)習(xí)(經(jīng)驗(yàn)啟示法),從而不斷提高其性能,比如自然語言處理大模型GPT系列的發(fā)展。

        不過,我們也要看到,時(shí)空奇點(diǎn)與超時(shí)空假說[25]在尋求更多的能量和計(jì)算能力方面有相同的特點(diǎn),但導(dǎo)致了相反的預(yù)測,因?yàn)樵诔瑫r(shí)空假說中,高級(jí)文明會(huì)試圖通過接近黑洞來減緩其主觀時(shí)間,而不是加速它,以便前進(jìn)的時(shí)間旅行到一個(gè)所有文明最終可能相遇和合并的時(shí)間,并優(yōu)化信息的獲取。困難在于,我們很難預(yù)測單個(gè)智能體的要求,這可能通過計(jì)算評(píng)估智能體和模擬環(huán)境所需的資源來進(jìn)行,比如對(duì)人腦的實(shí)時(shí)功能模擬所需的每秒計(jì)算量的估計(jì)。

        概言之,AGI既是一個(gè)從人工智能走向人工認(rèn)知的范式轉(zhuǎn)換,也是一個(gè)從人工物理學(xué)和工程學(xué)走向人工心理學(xué)和人工認(rèn)知科學(xué)以及人工倫理學(xué)的發(fā)展問題。因此,我在這里發(fā)出倡議,在人工智能的強(qiáng)烈沖擊下,“生而為人”的傳統(tǒng)觀念受到了前所未有的挑戰(zhàn),“何以為人”“以何德服人”更成了一個(gè)嚴(yán)肅的哲學(xué)和倫理學(xué)問題,我們必須認(rèn)識(shí)到并高度重視。

        猜你喜歡
        人工智能人類智能
        人類能否一覺到未來?
        人類第一殺手
        1100億個(gè)人類的清明
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        智能前沿
        文苑(2018年23期)2018-12-14 01:06:06
        智能前沿
        文苑(2018年19期)2018-11-09 01:30:14
        智能前沿
        文苑(2018年17期)2018-11-09 01:29:26
        智能前沿
        文苑(2018年21期)2018-11-09 01:22:32
        人工智能與就業(yè)
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        久久久久久自慰出白浆| 成人免费毛片aaaaaa片| 国产第19页精品| 91狼友在线观看免费完整版| 中文字幕视频一区二区 | 免费人成黄页网站在线观看国内| 青青草原综合久久大伊人精品 | 一本一本久久a久久精品综合| 亚洲国产视频精品一区二区| 亚洲一区二区精品在线| 国产美女精品视频线免费播放软件| 国产精自产拍久久久久久蜜| 一本一道AⅤ无码中文字幕| 快射视频网站在线观看| 国产又大又硬又粗| 久久丫精品国产亚洲av| 欧美人与动牲交片免费| 麻豆精品一区二区三区| 久久久久久久波多野结衣高潮| 久久综合第一页无码| 国产一级一片内射在线| 国产精品内射久久一级二| 久久久无码人妻精品一区| 亚洲av无码乱码国产麻豆穿越| 中文字幕亚洲精品码专区| av网址在线一区二区| 精品国内日本一区二区| 色www视频永久免费| 又污又黄又无遮挡的网站| 中文字幕人妻丝袜成熟乱| 日韩在线视频专区九区| 好大好湿好硬顶到了好爽视频 | 亚洲性无码av中文字幕| 朝鲜女子内射杂交bbw| 国产日产精品久久久久久| 精品专区一区二区三区| 伦伦影院午夜理论片| 亚洲av片不卡无码久久| 蜜桃视频免费在线视频| 一区二区三区免费看日本| 日本爽快片18禁免费看|