亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        警惕人類的掘墓者:腦機融合、阿爾法狗抑或虛擬現(xiàn)實
        ——兼與翟振明教授商榷

        2017-04-02 01:29:55,
        關鍵詞:腦機虛擬世界意志

        ,

        (1.華南師范大學 公共管理學院,廣東 廣州 510006; 2.東莞理工學院 馬克思主義學院,廣東 東莞 523808)

        警惕人類的掘墓者:腦機融合、阿爾法狗抑或虛擬現(xiàn)實
        ——兼與翟振明教授商榷

        陳曉平1,肖鳳良2

        (1.華南師范大學 公共管理學院,廣東 廣州 510006; 2.東莞理工學院 馬克思主義學院,廣東 東莞 523808)

        從腦機融合“人”是否屬于人類正反兩個方面,來論證腦機融合計劃的不正當性,為此引入兩條基本原則,即人類中心主義和自我意識的唯一性。無論從人類中心主義的立場還是從人類尊嚴的角度,都應該拒絕腦機融合。人工智能的發(fā)展必須受到限制,以避免人類被人工智能超越或控制;虛擬現(xiàn)實的發(fā)展也必須受到限制,以避免現(xiàn)實世界喪失唯一性。現(xiàn)實世界在本體論上優(yōu)先于虛擬世界,虛擬現(xiàn)實必須要遵守虛擬局部化、虛擬自愿和虛擬無害三條倫理原則。大自然讓人類優(yōu)于機器人,至少表現(xiàn)在大自然的因果鏈條上,是自然人創(chuàng)造了機器人而不是相反,這使自然人有能力把一切威脅人類生存的技術手段扼制在端倪之中。

        腦機融合;阿爾法狗;虛擬現(xiàn)實;人類中心主義;自我意識;人工智能

        一、“腦機融合”計劃能夠挽救人類嗎?

        2017年4月,美國著名企業(yè)家和科學家埃隆-馬斯克(Elon Musk)宣布,他將在現(xiàn)有的太空探索技術公司(SpaceX)和環(huán)保電動汽車公司(Tesla)之外成立第三家公司Neuralink,用以開發(fā)腦機接口技術,旨在防止出現(xiàn)人類被人工智能超越和控制的局面。馬斯克的計劃可謂“先下手為強”,提早讓人成為所謂的“超級人工智能”,以此在人工智能發(fā)展的浪潮中立于不敗之地。馬斯克在接受采訪時表示:人類只有一個選擇,即成為AI(人工智能)。他認為人腦和計算機可以融合無間,人類甚至無法察覺自己在運用AI思考;因此,腦機融合之后,人類仍然存在,只是存在方式和能力有所不同。

        早在2016年1月,馬斯克與著名物理學家史蒂芬·霍金和著名科學家、企業(yè)家比爾·蓋茨,一道獲“阻礙技術創(chuàng)新”獎提名,因為他們三人都向人們發(fā)出警告:人工智能技術將威脅人類的存在。馬斯克曾發(fā)推文稱,人工智能的潛在威脅大于核武器?;艚鹨沧恼f,盡管人工智能的短期影響取決于控制它的人,但長期影響卻取決于它究竟能否被控制。蓋茨表示,“在這個問題上,我認同埃隆·馬斯克和其他人的理念。我不明白有些人為什么不擔心?!?/p>

        馬斯克試圖發(fā)展的腦機融合或腦機接口(Brain-Computer Interface ,簡稱“BCI”) ,是一種連接大腦和外部設備的實時通信系統(tǒng)。BCI 系統(tǒng)可以把大腦發(fā)出的信息直接轉換成能夠驅動外部設備的命令 ,并代替人的肢體或語言器官實現(xiàn)人與外界的交流以及對外部環(huán)境的控制。換言之 ,BCI 系統(tǒng)可以代替人的外圍神經和肌肉組織 ,實現(xiàn)人與計算機之間或人與外部環(huán)境之間的通信和互動。

        神經科學的研究表明 ,在大腦產生動作意識之后和動作執(zhí)行之前 ,或者主體受到外界刺激之后 ,其神經系統(tǒng)的電活動會發(fā)生相應的改變。神經電活動的這種變化可以通過一定的手段檢測出來,并作為動作即將發(fā)生的特征信號。通過對這些特征信號進行分類識別 ,分辨出引發(fā)腦電變化的動作意圖,再用計算機語言進行編程,把人的思維活動轉變成命令信號驅動外部設備,實現(xiàn)在沒有肌肉和外圍神經直接參與的情況下人腦對外部環(huán)境的控制;當然,其中也包括外部環(huán)境對人腦的反饋程序。這就是 BCI 的基本工作原理。

        對于馬斯克的“腦機融合”計劃,筆者認為,盡管其動機是正確的,即避免人類被人工智能所取代,但其手段是錯誤的甚至是背道而馳的,即提早讓人類成為所謂的“超級人工智能”。我們不妨把馬斯克所欲求的那種“超級人工智能”稱為腦機融合“人”?,F(xiàn)在的問題是:腦機融合“人”是否屬于人類?如果是,那么腦機融合技術就是讓一種人取代另一種人,似乎是無可厚非的;如果不是,那么我們則有明顯理由反對腦機融合技術。筆者先從后一角度來反駁腦機融合計劃,然后再從前一角度加以反駁;前一角度只是似乎無可厚非,實則是有可厚非的。這兩個角度的反駁合在一起,便構成對腦機融合計劃具有決定性的“二難推論”。為了使我們的討論更加透徹,下面對問題本身給予進一步的澄清。

        首先,一個人(指正常人)之所以為人的基本要素是他有自我意識。然而,腦機融合技術將改變自然人的自我意識而成為腦機融合“人”的自我意識,這意味著自然人將被腦機融合“人”所取代。也許有人會提出質疑:自我意識的核心是自由意志,腦機融合“人”只是把其中自然人的意志翻譯成計算機程序然后付諸執(zhí)行,并沒有改變自然人的自由意志。對此,筆者的回答是:人的意志是以人的欲望、情感和認知為基礎的,當人的執(zhí)行方式從意識-身體改變?yōu)橐庾R-電腦-器械以后,其欲望、情感和認知也會發(fā)生相應的變化,進而通過反饋作用對其自由意志以及自我意識產生影響。

        這個問題還可以追問下去。意識-電腦-器械這種主體-客體關系早已存在,因為電腦早已成為人腦的輔助手段了。例如,我在頭腦中構思了一篇文章,利用鍵盤在電腦上寫出來,然后在電腦上發(fā)布一個指令就讓打印機這種器械把那篇文章打印出來。自然人的這種行為方式與腦機融合“人”的行為方式有什么本質區(qū)別嗎?筆者提請大家注意,在這一過程中,人的身體如眼睛和手指仍然起著中介作用。一般而論,人的身體(特別是感覺器官)有一種特殊的功能:既把主體和客體分離開來,又把主體和客體聯(lián)系起來。然而,腦機融合“人”則把身體(感覺器官)的這種作用取消了,使人的身體在主體-客體關系中成為多余的。人腦與電腦直接連通的一個后果是:人腦的指令可以被電腦程序加以修改。

        其次,接下來的問題是,盡管腦機融合“人”與自然人之間有這樣的區(qū)別,但是這種區(qū)別足以使腦機融合“人”失去作為人的資格嗎?筆者的回答在很大程度上是肯定的,因為腦機融合“人”的“自我意識”很可能不是自我意識,理由如下。

        自然人與腦機融合“人”在自我意識上的最大區(qū)別在于唯一性,前者具有唯一性而后者可能沒有。我們這樣說有兩方面的理由。一方面,當人腦的電活動被翻譯成電腦程序之后,可以同時支配兩套不同的器械裝置,用以和外部環(huán)境發(fā)生聯(lián)系,從而形成不同的主體-客體關系。不同的主體-客體關系反饋到腦機融合“人”的意識,從而形成兩種不同的自我意識。如果那兩套不同的器械裝置的功能是大相徑庭的,那便使腦機融合“人”處于人格分裂的狀態(tài),此時腦機融合“人”的自我意識便失去了唯一性。

        另一方面,由兩個自然人可以構成兩個腦機融合“人”,雖然這兩個自然人的大腦電活動是不同的,但是編程工程師可以把它們翻譯成相同的計算機程序,并連接相同的外部裝置而執(zhí)行相同的動作和功能。其結果是,不同的自由意志卻有著相同的外部動作或功能,這便在客觀上取消了自由意志以及自我意識的唯一性。總之,腦機融合“人”的意志可以完全地由他人來決定,因而喪失了自由意志,進而喪失了自我意識的唯一性。

        我們知道,唯一性是“自我”的應有之義,如果失去唯一性,“自我”就不成其自我,而變成“我們”。相應地,失去唯一性的“自我意識”就不成其為自我意識。既然腦機融合“人”的“自我意識”可能不具有唯一性,所以可能不是真正的自我意識,腦機融合“人”也可能不是真正的人。須強調,“自我具有唯一性”不是一條經驗原理,而是一條先驗原理,其自明性或不可懷疑性只需通過語義分析便可得出。

        第三,是否可以通過制定相關法律來避免腦機融合“人”失去自我的唯一性呢?具體地說,人類社會可以制定這樣一條法律:禁止將不同人的腦電活動翻譯為相同的計算機程序,并且,禁止將同一個人腦與多種不同的(特別是功能相反的)外部裝置連接起來。筆者的回答是:這一法律只是暫時在一定程度上可以避免腦機融合“人”失去唯一性,但是潛在的危險是不可避免的。只要有個別編程工程師或器械工程師違反這條法律,那么通過腦機融合技術而讓“人”喪失自我意識的事件就會發(fā)生。更嚴重的是,一旦社會允許腦機融合技術的實施,這項法律立即變?yōu)橐患埧瘴?。為說明這一點,讓我們將腦機融合技術與飛機制造技術加以比較。

        一般而言,任何科學技術都有潛在的危險性,為了避免發(fā)生危險,人們針對某項或某類科學技術的實施制訂一些法律或規(guī)則。例如,對飛機技術的實施,規(guī)定中包括嚴格的安全檢查。對于乘客而言,是否乘坐飛機是經過利弊權衡和自由選擇的結果。具體地說,我冒著一定的風險乘飛機旅行,那是因為:一方面,飛機出事的概率比較低;另一方面,乘飛機給我節(jié)省大量時間,帶來很大的便利;更重要的是第三個方面,乘不乘飛機是由我的個人意志決定的,即使這次乘了飛機,下一次我還可以選擇不乘,我的自由意志并沒有因此而受到侵害。相比之下,腦機融合在這三個方面都與飛機不可同日而語。

        首先,一旦我們的社會允許實施腦機融合技術,那么我的自由意志立刻受到侵害,因為我面前只有兩個選擇,而且都是我所不情愿的,即:要么我接受腦機融合手術,從而成為一個腦機融合“人”,要么我拒絕腦機融合手術,仍然是一個自然人。但是,如果是前者,那么我將承擔喪失自我意識唯一性從而喪失做人資格的風險;如果是后者,那么我將被其他腦機融合“人”所控制甚至殺害,也將失去自由意志??傊?,一旦社會允許實施腦機融合技術,我的自由意志必定受到傷害,其概率幾乎是百分之百。

        其次,一旦社會允許實施腦機融合技術,那么不僅自然人可以對自然人實施這種技術,率先出現(xiàn)的腦機融合“人”也可對自然人實施這種技術,因為能力遠低于腦機融合“人”的自然人根本無法阻止他們這樣做。由于一些腦機融合“人”是被迫接受這種手術的,因此他們沒有義務遵守自然人在自由狀態(tài)下制訂的法律制度,于是他們可以無視那項法律制度,隨心所欲地抹除隨后出現(xiàn)的腦機融合“人”的唯一性,使越來越多的腦機融合“人”失去做人的資格。當非人的腦機融合“人”占據多數的時候,腦機融合“人”便與自然人不屬同一物種,而屬于兩個不同物種。反之,當非人的腦機融合“人”不占多數時,雖然腦機融合“人”從總體上仍屬人類,但其中夾雜不少非人的“人”。對于那些非人的“人”,腦機融合技術則構成對他們的人格和尊嚴的侵犯。

        下面兩節(jié)分別從把腦機融合“人”作為非人類和人類這兩個角度,來論證腦機融合計劃是嚴重的不正當的。

        二、從人類中心主義的立場拒絕腦機融合

        假設我們面臨的情況是,非人的腦機融合“人”占居多數,從而使腦機融合“人”與自然人分屬兩個不同的物種。所謂非人的腦機融合“人”就是喪失自我意識唯一性的。這樣的腦機融合“人”在心靈和身體兩方面都與自然人是不同的:在心靈上二者的區(qū)別在于是否具有唯一性;在身體上,前者比后者多出一部電腦和一套執(zhí)行電腦指令的外部裝置。既然如此,把二者看作不同的物種是恰當的。

        人類與不同的物種之間是什么關系?達爾文的自然選擇理論已經給出回答,即優(yōu)勝劣汰,物競天擇。試想,如果我們遇到外星人,他們的能力超過我們,我們只好自認倒霉,俯首稱臣或被格殺勿論。反之,如果我們的能力超過外星人,則讓他們俯首稱臣或格殺勿論。再一種可能性就是,我們和外星人能力相當,相持不下,那么雙方達成共識,彼此互不侵犯,和平共處。不同物種之間的道德由此而生。這就是說,當且僅當兩個不同物種的能力彼此相當的時候,他們之間才有講究道德的必要和條件,以使他們不至于在相互殘殺中兩敗俱傷,同歸于盡。

        自然人與腦機融合“人”這兩個物種之間是否需要講道德?這取決于二者之間的能力是否相當。一般而言,二者能力相當的概率較低,二者之間不講道德而講實力的概率較大。如果著眼于未來,腦機融合“人”將超過人類(這正是馬斯克的目標),因而腦機融合“人”將理所當然地征服人類;如果著眼于現(xiàn)在,人類的能力則強于腦機融合“人”,既然后者尚未出世,至少尚不完善,因而人類理所當然地征服腦機融合“人”。當務之急是以立法的方式阻止馬斯克的計劃,把腦機融合“人”扼殺在搖籃之中。

        這是人類中心主義的立場和態(tài)度。我們是自然人,根據達爾文的自然選擇理論,我們只能采取人類中心主義。需要指出,對于不同物種,我們堅持達爾文主義從而站在人類中心主義的立場上,但這并不意味著在人類這一物種內部即在人與人之間,我們也堅持達爾文主義。恰恰相反,在人類社會之內,我們反對自然選擇理論,而主張以人為的道德規(guī)范來指導和調節(jié)人與人之間的關系;這就是說,對于人類社會,我們是反對社會達爾文主義的。誠然,我們承認自然選擇在人類社會之內也具有一定的作用,但不是決定性的;只有在人類與其他不同物種之間,自然選擇的作用才是決定性的。

        在人類社會之內,我們反對達爾文主義的理由大致如下:人與人在能力上的差別是十分有限的,如果采取優(yōu)勝劣汰的社會達爾文主義,那么人與人之間的關系正如霍布斯所說的狼與狼之間的關系,到處是人群格斗或種族戰(zhàn)爭,勢必造成俱敗俱傷甚至同歸于盡。人是有理性的動物,人們能夠意識到這一點,因而在理性的指導下確立人與人之間的協(xié)調共存關系,這種協(xié)調關系就是道德規(guī)范。因此,在人類社會內部起主要作用的不是自然選擇,而是社會選擇,社會選擇的主要依據是道德規(guī)范和基于道德規(guī)范的法律體系。

        在人類社會之外即在人類與其他物種之間,筆者堅持自然選擇的達爾文主義。對此,有人或許提出質疑:我們與其他動物不是同一自然物種,但我們對其他動物也講道德,如不準虐待動物。在這里,筆者提請大家注意,這不是人對動物講道德,而是人對人講道德。因為人們對動物有同情心,一個人虐待動物便傷害了其他人的感情,因此人與人之間定下不許虐待動物的道德規(guī)范。再提請大家注意,人對動物的同情心不屬于道德范疇,屬于心理本能的范疇。事實上,許多人都有不忍心看殺雞宰牛的心理本能,但這在道德上并不妨礙他們吃雞牛肉;即使素食主義者在聲稱珍視一切生命的時候,也不妨礙他們吃糧食和蔬菜??梢?,把人對其他物種的同情等同為道德,很容易淪為偽善。類似地,歡迎作為不同物種的機器人取代自然人的態(tài)度也是一種偽善。

        概而言之,既然腦機融合“人”與自然人不是同一物種,因此我們主張,為了避免人類被腦機融合“人”超越或控制,人類應當禁止或限制腦機融合技術的研究和發(fā)展。*用于治療性的腦機融合技術另當別論,如給癱瘓病人進行適度的“腦機融合”,以使他們能夠生活自理。不過,治療性腦機融合技術必須限制在較低的水平,遠未達到“超級人工智能”的水平,因而不宜叫做“腦機融合”,似應叫做“腦機輔助”。一般而言,本文所討論的各項技術都應區(qū)分治療性應用和超越性應用,也叫做“消極應用”和“積極應用”。筆者所反對的是對這些技術的積極應用或超越性應用,一般不反對對它們的消極應用或治療性應用。這是人類中心主義的態(tài)度,也是功利主義的態(tài)度。眾所周知,在道德哲學中,與功利主義相對的是道義論;不過,在腦機融合及其相關問題上,道義論和功利主義可以得出相同的結論,即拒絕腦機融合技術。下面基于道義論的立場加以論證。

        三、從人類尊嚴的角度拒絕腦機融合

        再假定我們面臨的情況是,非人的腦機融合“人”不占居多數,從而使腦機融合“人”與自然人屬于同一個物種,即均屬人類。在這種情況下,雖然腦機融合“人”從總體上仍屬人類,但其中夾雜不少非人的“人”,即沒有自我意識的“人”。不過,我們也可換一個角度把沒有自我意識的“人”看作人。具體地說,那些人雖然沒有自我意識,但也有某種意識;如果我們把人之為人的要素由具有自我意識改為具有意識,那么腦機融合“人”仍然具有做人的資格,盡管不屬于自然人,但與自然人同屬人類,或者說,同屬康德所謂的“理性存在者”(rational beings)。

        須指出,在康德那里,理性存在者的“理性”具有特殊含義。康德強調一個事實:“這個事實就是理性借以決定意志去踐行的德性原理之中的自律——它同時指明:這個事實與意志自由的意識不可分割地聯(lián)系在一起的,甚至與它是二而一的;由此之故,理性存在者的意志,……在實踐事務之中,也就是作為存在者本身,它意識到它是一個能夠在事物的理智秩序中被決定的此在?!盵1]44

        在康德看來,理性存在者的理性是實踐理性,它與道德自律和意志自由是一回事。換言之,理性存在者不是一般的人,而是道德上應該成為的那種人,即具有自由意志或自律的人。在康德那里,“地球人”和“理性存在者”之間是一種交叉關系,有些地球人是理性存在者,有些不是;反之亦然,有些理性存在者是地球人,有些不是,如某種可能的外星人。但是,無論是地球人或外星人,如果要成為理性存在者,那他必須具有自由意志,即在道德上是一個自律的人。

        顯而易見,康德所說的“自由意志”和“自律”是以自我意識為先決條件的,相應地,他所說的“理性存在者”也是以自我意識為先決條件的。因此,那些沒有自我意識的腦機融合“人”不屬于康德所說的理性存在者,盡管他們屬于人類。事實上,康德并沒有把理性存在者看作全部的人,而只是應當成為的人或講道德的人,還有一部分人是不講道德的。不講道德的人是沒有尊嚴的,是在人格上有缺陷的。

        康德說道:“每一位個人都將他個人的、指向他自己的意志限制于這樣一個條件:與理性存在者的自律符合一致……因為這個條件依賴于理性存在者的人格,而唯有憑借這個人格他們才是目的本身?!盵1]95康德的道德律令之一是:每個人都是目的,而不只是手段。由于有些腦機融合“人”失去唯一性,因而失去自由和自律的必要條件,進而失去作為“目的本身”的人格,失去做人的尊嚴。

        康德進一步指出:“這個喚起敬重的人格理念,將我們本性的崇高性(依照它的天職)陳于我們的眼前,同時讓我們注意到我們的行動與它有欠切合,并且借此平伏自負,因此它甚至對于最為庸常的人類理性也是自然而然的和容易注意到的?!盵1]95康德談及兩種人格即崇高的和庸常的,庸常的人格即使沒有達到崇高,但也會自然而然地發(fā)現(xiàn)自己的欠缺,從而“平伏自負”,向崇高人格靠攏。真可謂:雖不能至,心向往之。崇高的人格就是理性存在者,庸常的人格就是缺乏自由意志或自律精神的人。

        顯然,失去唯一性的腦機融合“人”至多可算作庸常的人。當然,自然人中也有不少庸常的人,不過,他們可以通過自身的努力而改進或完善自己,從而向崇高人格接近或靠攏,以致成為崇高的人。與之相比,腦機融合“人”卻失去改進或完善自己的權利,因為他的這種權利從他出生甚至在出生之前就被剝奪了:只要某個編程工程師或先出生的腦機融合“人”愿意那樣做,那么該腦機融合“人”便失去唯一性。庸常的自然人只能埋怨自己,并有自我完善的機會;與之不同,腦機融合“人”對于自己與生俱來的庸常性,只能埋怨他們的制造者如馬斯克之流,而沒有自我完善的機會??梢哉f,馬斯克之流先天地剝奪和侵害了腦機融合“人”的人格和尊嚴,因而是不道德的。

        至此,我們借助于康德的道義論,從另一個角度反駁了馬斯克的腦機融合計劃:即使把腦機融合“人”看作人,對腦機融合“人”的研制也是不道德的,理應被禁止。這個論證與前一節(jié)的功利主義或人類中心主義的論證結合起來,便構成對腦機融合的具有邏輯決定性的“二難推論”。

        四、阿爾法狗的啟示:應對人工智能加以限制

        第二次正式舉行的圍棋人機大戰(zhàn)——世界排名第一的中國圍棋選手柯潔與美國谷歌的人工智能圍棋選手阿爾法狗的對決,于今年5月23日開始, 5月27日結束,阿爾法狗以3比0的戰(zhàn)果宣告獲勝。賽后柯潔發(fā)出的感言是:“上一次的時候,我覺得它還是很接近人的,現(xiàn)在有點像我理解中的圍棋上帝了?!笨聺嵥f的上一次圍棋人機大戰(zhàn)是在一年前進行的,韓國圍棋高手李世石以一比四的結局負于阿爾法狗。當時柯潔曾在微博里放出話來:“就算阿法狗戰(zhàn)勝了李世石,但它贏不了我。”在那次比賽之前,幾乎所有圍棋界的高手也都認為,阿爾法狗將要輸給李世石。

        如果說,第一次圍棋人機大戰(zhàn)的結果只是部分地扭轉了人們對機器圍棋手的看法,那么今年初,人們對機器圍棋手的評價基本達成一致,即人類不如機器。促成這一觀念轉變的是另一個令人震驚的事實。從去年年底開始,阿爾法狗的升級版以“Master”的名義在網上與幾乎所有的世界頂級圍棋高手進行博弈,創(chuàng)下60場不敗的紀錄;除一場比賽由于斷電事故而造成平局,其他59場獲勝,其中包括它與柯潔和聶衛(wèi)平等人的對陣。

        其實,對于許多人來說,柯潔與阿爾法狗最近的那場比賽并無懸念,即阿爾法狗必勝。那場比賽的意義似乎是最后驗證一下,在圍棋上人類與機器的差距究竟有多大。賽后柯潔表示他的人生觀被改變了,他說:“阿爾法狗出現(xiàn)之后,我對人生看法都有巨大改變,未來不是我等凡夫俗子可以預測的。如果對圍棋規(guī)則了解就算知道1%,我可能只能算是知道2%。阿爾法狗對我而言就是100%。”

        圍棋人機大戰(zhàn)不僅對圍棋手有教育意義,而且對全人類都有教育意義。在被譽為人類最高智力游戲的圍棋上,人類敗下陣來,這意味著在其他所有靠智力取勝的領域,人類都將敗于人工智能,包括戰(zhàn)爭。試想,有朝一日人類被機器人打敗,成為他們的階下囚,那將是一種什么局面?

        有人說,人類是有情感的而機器人沒有,所以人類永遠高于機器??聺嵲谖⒉├镆灿蓄愃频脑挘骸八冀K都是冷冰冰的機器,與人類相比,我感覺不到它對圍棋的熱情和熱愛?!钡乙f,那又怎么樣呢?對于圍棋比賽你還可以這樣自我安慰,如果在戰(zhàn)爭中,人被機器人打敗并成為他們關在牢籠里的俘虜,到那時人連自我安慰的能力都將失去,人的那點情感說滅就被滅了,連同他們的肉體。

        人類該警覺了,不必再做自欺欺人的幻夢。前面提到,不少著名人士如霍金、蓋茨等人多次提醒人們,并建議限制人工智能的發(fā)展,以避免人工智能成為人類的掘墓人。但是許多人覺得這是危言聳聽或杞人憂天,沉浸在盲目樂觀的陷阱里不肯自拔。這種盲目樂觀的情緒除了來自盲目自信以外,還來自道德上的誤導。有人居然提出,機器人就像我們人類的后代,我們應該伸出雙手擁抱他們,歡迎他們超過人類,正如歡迎我們的后代超過父母一樣。

        在第一次圍棋人機大戰(zhàn)結束幾天后,翟振明教授發(fā)表文章,對社會上關于人工智能或機器人將會超越自然人的擔憂表示不屑,談道:“像‘機器人會消滅人類嗎’之類的問題,在我看來都不過是暴露了人們由于概念混亂而導致的摸不著北的狀態(tài),這種狀態(tài)又與不合時宜的思維陋習結合,才將人們帶入無根基的焦慮或者恐懼之中?!盵2]51直到最近,翟振明仍然保持這種看法。*參見翟振明、朱奕如:《“腦機融合”比人工智能更危險》,載《南方周末》,2017-05-25。翟振明這么說的主要根據是什么?他講得很明白,即:像阿爾法狗“這種‘弱人工智能’很可能通過圖靈測試,但這與人的意向性(intentionality)及主體感受內容(qualia)不相干,也不會有愛恨情仇、自由意志,而沒有這些,它就不可能產生‘征服’或‘消滅’誰誰的動機?!盵2]51-52這也就是說,由于阿爾法狗沒有征服人類的動機,所以他不能征服人類。

        坦率地說,筆者覺得翟振明的這段話是很奇怪的,難道判定機器人能否征服人類不是看結果而是看動機?阿爾法狗在圍棋上能否征服人類也不是看結果而是看動機?如果是這樣,李世石和柯潔便無需同阿爾法狗進行比賽就可宣稱取勝了,因為在下第一個棋子之前,他們就有戰(zhàn)勝阿爾法狗的動機。如果翟振明的動機決勝論是成立的,蓋茨和霍金關于人工智能可能征服人類的警告便是多余的,因為人類早就懷有不被任何機器人打敗的動機。

        毋庸置疑,對勝負的判定取決于后果而不是動機。正如前面提到的,當人類在戰(zhàn)爭中被機器人打敗并被關在牢籠里,人的情感、意志和動機再豐富多彩也是無濟于事的。因此,翟振明以機器人沒有征服人類的動機為理由來說明機器人不值得人類懼怕,簡直是文不對題的。

        另需指出,機器人有沒有情感、意志或動機的問題,說到底是哲學上的“他心問題”。包括父母在內的其他人是否具有心靈,這個在日常思維中不成問題的問題,在哲學中卻是一個長期引起爭議的問題。自己的父母是否具有心靈尚且如此,機器人是否有心靈更是一個有爭議的問題。然而,翟振明卻毫不猶豫地斷定機器人沒有征服人類的動機,這相當于拿一個懸而未決的命題作為論據,在邏輯上叫做“預期理由”的錯誤。除非翟振明不承認“他心問題”,但是據我所知,情況并非如此,筆者從未看到他否認“他心問題”的聲明或論證。

        五、一切造人技術都是不道德的

        翟振明對人工智能做了強和弱的區(qū)分。按他的說法,阿爾法狗還算不上強人工智能而只屬于弱人工智能。弱人工智能沒有情感、意志或動機,但強人工智能具有,因而強人工智能可以歸入人類,是人類自身的發(fā)展。正因為此,強人工智能即使超越現(xiàn)在的人類也沒有什么可怕的,相反是值得我們歡迎的。

        關于何為強人工智能,翟振明談道:“所謂的‘強’,其實指的是超越工具型智能而達到第一人稱主體世界內容的涌現(xiàn),還包括剛才提到的意向性、自由意志等的發(fā)生?!盵2]52翟振明在其另一篇文章說得更為明確:“所謂‘強人工智能’,這是要人工制造具有人類的精神世界或‘第一人稱世界’的自由意志主體。這樣的人造體,就不能被當作純粹的工具了,因為它們具有人格結構,正常人類成員所擁有的權利地位、道德地位、社會尊嚴等等,他們應該平等地擁有。”[3]32

        按照翟振明的說法,強、弱人工智能的區(qū)別在于是否具有“‘第一人稱世界’的自由意志主體”,若不具有,則只是工具型的弱人工智能,若具有,則是目的性的強人工智能。翟振明進一步給出判別人工智能有無自由意志或有無目的的(至少在原則上的)可操作性標準,即:“除非有人以確鑿的證據向我們證明如何按照量子力學的原理把精神意識引入了某個人工系統(tǒng),不管該系統(tǒng)的可觀察行為與人類行為多么相似,我們都不能認為該系統(tǒng)真的具有了精神意識?!盵3]33

        從前面關于“他心問題”的討論我們知道,從確定性知識的角度,我們不可能判定他人或他物是否有心或有自由意志。因此,翟振明以量子力學作為人工智能是否有心或有自由意志的根據,這在哲學上是站不住腳的。另一方面,翟振明把人工智能是否有心或自由意志的問題歸結為是否可用量子力學原理加以解釋的問題,這是典型的關于心身問題的物理主義。然而,翟振明在若干場合明確地表達其反物理主義的立場;直到最近他還宣稱:“物理主義和計算主義對人類意識的解釋是誤入歧途的”。[4]由此可見,翟振明的理論體系中存在邏輯不協(xié)調性。

        翟振明在斷定量子機器人是具有自由意志的強人工智能之后,進而斷言量子機器人就是人的同類,或者說是人們用另一種方式繁殖出來的后代。他說道:“我們主動地設計制造了這種新型主體存在,不就等于以新的途徑創(chuàng)生了我們的后代嗎?長江后浪推前浪、青出于藍而勝于藍,人類過往的歷史不都是這樣的、或至少是我們希望的嗎?一旦徹底做到了,為何又恐懼了呢?”[2]53

        雖然看上去翟振明對待量子機器人的態(tài)度顯得寬容大度,似乎充滿博愛精神,但在筆者看來,那是缺乏理論根據的。我們知道,現(xiàn)有的基因組合技術原則上是可以復制人的,只要知道那個人的全部基因信息。既然量子技術是比基因組合技術更為深刻和先進的,因此,從理論上講,通過量子技術不僅可以制造人,而且可以復制人,即重復制造某一個機器人或仿造某一個活人。我們又知道,正如克隆人技術被普遍禁止,基因組合人技術也被普遍禁止。類似地,量子機器人技術也應被列入禁止之列。

        在筆者看來,這些禁令的倫理學基礎是:復制人的技術侵犯了自我人格的唯一性,進而侵犯了人的獨特權。[5]我們在前面已經給出論證,侵犯自我意識的唯一性就是侵犯人類的尊嚴,我們不妨把這一涉及人類尊嚴的基本權利叫做“獨特權”。由于一切造人技術都有復制人的功能,因而都是對自我唯一性的抹殺和對人類獨特權的侵犯,至少是潛在的侵犯。據此,一切造人技術都是不道德的,都應當被禁止,其中包括克隆人、基因組合人、量子機器人以及腦機融合“人”等技術手段。

        六、虛擬現(xiàn)實的潛在威脅及其倫理問題

        翟振明教授是虛擬現(xiàn)實(Virtual Reality,簡稱VR)的倡導者之一,對虛擬現(xiàn)實有著深刻的見解;不過,對于虛擬現(xiàn)實引發(fā)的倫理學問題,其觀點卻是值得商榷的。廣義的虛擬現(xiàn)實包括擴展現(xiàn)實(ER),為此,翟振明提出“造世倫理”問題。

        在翟振明看來,解決造世倫理問題是一個相當艱巨的任務,因為他持有一個基本觀點,即虛擬世界與現(xiàn)實世界在本體論上是對等的(以下簡稱為“現(xiàn)實-虛擬對等觀”)。*參閱翟振明:《虛擬實在與自然實在的本體論對等性》,載《哲學研究》2001年第6期。在現(xiàn)實-虛擬對等觀的視野里,一旦虛擬世界的行為規(guī)范與現(xiàn)實世界的行為規(guī)范發(fā)生沖突,誰是誰非就很難判定了,這就是造世倫理問題的根源所在。

        翟振明問道:“在道德和法律層面的單個的責任主體,卻在現(xiàn)實世界和虛擬世界各有一個不同的角色,最常見的就是性別和年齡的不同。如果一種道德或法律責任與性別或年齡緊密相關,在虛擬世界內部發(fā)生的糾紛在追到現(xiàn)實世界中的責任主體時,原來的適用于現(xiàn)實世界的規(guī)范的適用性就要求按照新的原則進行新的解釋。這種新原則到底是什么,如何論證其合理性和普遍有效性?”[3]34

        然而,在筆者看來,如果放棄翟振明的現(xiàn)實-虛擬對等觀,而采納筆者所持的現(xiàn)實世界優(yōu)先原則——現(xiàn)實世界相對于虛擬世界在本體論上是優(yōu)先的,那么翟振明所面臨的“造世倫理”困境便立即化解了。*參閱陳曉平:《也談人與機器如何相處》,載《科學文化評論》2016年第2期,第83-97頁。比如,對于他所謂的“雙重責任主體”的問題,我們應以現(xiàn)實世界的責任主體為主,相應地應以現(xiàn)實世界的道德法律規(guī)范為主要依據?,F(xiàn)以翟振明所舉的例子來說,一個現(xiàn)實世界的中國人有一個虛擬的替身,并通過虛擬世界和現(xiàn)實世界之間的某種因果關系而把現(xiàn)實世界的一個美國人殺死,*參見《翟振明談圍棋人機大戰(zhàn):技術群體戰(zhàn)勝天賦個人》,載《長江日報》2016年3月15日。這便違反了現(xiàn)實世界的法律。按照現(xiàn)實世界優(yōu)先原則,那個中國人應當承擔殺死那個美國人的法律責任,而無需考慮他的虛擬替身是否違反虛擬世界的法律。

        現(xiàn)實世界優(yōu)先原則的依據是現(xiàn)實世界的唯一性特征,而唯一性特征的至關重要性來自于自我(即第一人稱主體)的先驗的唯一性要求:如果一個世界不具有唯一性,那么存在于其中的諸多自我也將失去唯一性,致使人的獨特權及其尊嚴受到侵犯?,F(xiàn)實世界與虛擬世界相比,前者具有唯一性而后者沒有,因而現(xiàn)實世界優(yōu)越于虛擬世界。這樣,我們便得到關于虛擬現(xiàn)實的本體論原則,即現(xiàn)實世界優(yōu)先原則。由現(xiàn)實世界優(yōu)先原則可以派生出如下三條關于虛擬現(xiàn)實的倫理原則。

        為了維持現(xiàn)實世界的優(yōu)先性,在任何情況下必須能使現(xiàn)實世界與虛擬世界區(qū)分開來。我們知道,擴展現(xiàn)實包含了虛擬世界與現(xiàn)實世界的局部混合,在全局的關照下,這種局部混合是可以被分開的。但是,如果虛擬與現(xiàn)實的混合是全局性的,那便不再能把二者區(qū)分開來;正如“不識廬山真面目,只緣身在此山中”。為此,我們引入虛擬現(xiàn)實的第一條倫理原則,可稱之為“虛擬局部化原則”:虛擬世界只是對現(xiàn)實世界的局部虛擬,并且其界限必須是清晰的。

        虛擬世界只是為人們提供了一種選擇,而且在本體論的權重上低于現(xiàn)實世界,因此,在任何情況下都不應強迫人們進入虛擬世界。為此,我們引入虛擬現(xiàn)實的第二條倫理原則,可稱之為“虛擬自愿原則”:在任何情況下,人們進入虛擬世界都必須是自愿的,并且允許進入者隨時退出虛擬世界。不難看出,前一原則為這一原則提供了必要條件,因為如果連對虛擬世界與現(xiàn)實世界的區(qū)分都做不到,自愿選擇原則也就無從談起了。

        由現(xiàn)實世界優(yōu)先原則立即可以得出:任何虛擬世界的建立都必須以無害于現(xiàn)實世界為先決條件。這可以稱之為“虛擬無害原則”。例如,充滿血腥暴力或扭曲人性的虛擬世界對于現(xiàn)實世界中人們的道德修養(yǎng)和心身健康是不利的,因此應當對之嚴加控制甚至禁止。

        根據以上三條倫理原則,翟振明所謂的“造世倫理”問題是容易解決的,更確切地說,“造世倫理”問題根本不存在。還以前面提到的那個例子來說,首先,根據虛擬無害原則,我們應當追究現(xiàn)實世界中那個中國人的責任,因為他的虛擬替身侵害了現(xiàn)實世界中的另一個人。其次,根據虛擬自愿原則,也應當追究現(xiàn)實世界中那位中國人的責任,因為他未經現(xiàn)實世界中另一個人的同意,就讓他的虛擬替身與之打交道。第三,根據虛擬局部化原則,還應當追究有關機構或部門的責任,因為它們沒有把虛擬現(xiàn)實限制在足夠小的范圍內,以致人們無法區(qū)分現(xiàn)實的人和虛擬的人,在不知情的情況下進入虛擬世界并同虛擬的人打交道。

        由此可見,如果以上三條倫理原則得到嚴格遵守,所謂“造世倫理”問題就不會出現(xiàn),即使出現(xiàn),也很容易分清責任,加以解決。

        前面指出,“造世倫理”問題得以產生是由翟振明所持的現(xiàn)實-虛擬對等觀引起的;筆者進而認為,把虛擬世界與現(xiàn)實世界等量齊觀,只能是“上帝之眼”所為,這便涉及宗教的創(chuàng)世說。翟振明說道:“在宗教中,人一般被當成被造的存在,而在虛擬世界中,每個人都可以是世界的‘造物主’。”[4]翟振明把人看作虛擬世界的“造物主”未嘗不可,但在他的現(xiàn)實-虛擬對等觀的基礎上,人也成為現(xiàn)實世界的造物主,這便把人的位置擺錯了。

        事實上,基于“上帝之眼”的本體論已經受到普特南(H. Putnam)等人的合理批評。[6]

        簡單地說,上帝是全知全能的,誰若以“上帝之眼”看問題,那是一種人格錯位,其觀點自然也是錯位的。況且,即使他真有一雙上帝之眼,那他更無必要參與人間討論,人們也沒有必要與全知全能的上帝討論問題,因為在上帝那里,壓根兒沒有問題。

        與之不同,在筆者看來,現(xiàn)實世界是唯一的,盡管虛擬世界可以是無窮多的;在這個意義上,現(xiàn)實世界優(yōu)于虛擬世界。如果說虛擬世界是人類創(chuàng)造的,那么現(xiàn)實世界要么是上帝創(chuàng)造的,要么是自然創(chuàng)造的。由于這后兩個“造物主”與前一個“造物主”是不對等的,它們所創(chuàng)造的世界也是不對等的。根據現(xiàn)實世界優(yōu)先原則,虛擬世界的行為規(guī)范一旦與現(xiàn)實世界的行為規(guī)范發(fā)生沖突,便令虛擬世界讓路,而以現(xiàn)實世界為唯一的根據?;诖?,翟振明所謂的“造世倫理”問題便從根本上消失了。

        七、腦機融合比人工智能更危險嗎?

        讓我們再回到腦機融合問題上來。翟振明教授(與他人合作)最近寫了題為《“腦機融合”比人工智能更危險》的文章。[4]雖然繼續(xù)堅持不必擔心人工智能超越和控制人類的觀點,但卻對腦機融合技術表現(xiàn)出憂患意識,指出該項技術很可能把人類的自我意識徹底抹除,從而終結人類文明。

        在反對腦機融合這一點上,筆者贊同翟振明教授,但對其所持理由則是不敢茍同的。其理由可以歸結為:“人腦是迄今為止我們所知的最為復雜精巧的東西,在我們還沒有基本摸清其運作原理之前,對其進行任何加工改造都是極端危險的行為。”[4]我們看到,翟振明反對腦機融合的理由是技術層面的,而不是原則性或方向性的;只是因為現(xiàn)在人們對大腦的知識還比較少,他才反對腦機融合技術。試想,如果有朝一日,人們摸清了大腦的運作原理,那時翟振明反對腦機融合的理由便不成立了。顯然,這種反對腦機融合的理由只是暫時有效的,而非永久有效的;而且隨著人類關于大腦知識的不斷豐富,其理由的有效性越來越弱。

        與之相比,筆者的理由正好相反,不是技術性的,而是原則性和方向性的,即包括腦機融合技術在內的任何造人技術都將使“自我意識”喪失唯一性,從而侵犯人類的尊嚴和獨特權。這意味著,人類對大腦運作原理掌握得越多,仿造和控制自我意識的能力越強,致使自我意識喪失唯一性的可能性就越大,因此我們愈加應該阻止腦機融合及其他造人技術。顯然,筆者對腦機融合的反對理由是永久性的。

        由于筆者與翟振明反對腦機融合的理由不同,甚至是相反的,這使我們二人對量子機器人這類所謂“強人工智能”的態(tài)度也是相反的。鑒于量子機器人可以在基因甚至更深層面上模仿人類,翟振明把量子機器人歸入人類,并對他們可能超越現(xiàn)在的人類表示歡迎。然而,在筆者看來,量子機器人可以在基因層面模仿人類,從而使自然人喪失自我的唯一性,正因為此,量子機器人的開發(fā)和研制才需要我們加以反對和阻止?;谕瑯拥睦碛?,筆者也反對克隆人、基因組合人等一切造人技術。

        至于阿爾法狗這類所謂的“弱人工智能”,翟振明對它們的威脅不屑一顧,只因它們沒有人類的情感、意志或動機。在筆者看來,這個理由是文不對題的。難道因為柯潔具有戰(zhàn)勝阿爾法狗的意志或動機,柯潔就無需懼怕阿爾法狗在圍棋上的威脅嗎?擺在人們面前的事實是:無論阿爾法狗是否具有人類的意志或動機,它已經戰(zhàn)勝全世界的頂級圍棋高手。在這種情況下,主張人類在圍棋上無需擔心阿爾法狗,除了冠之以“掩耳盜鈴”或“自欺欺人”之外,我們還能給予怎樣的評價呢?更為嚴重的是,如果這種局面從圍棋博弈推廣到戰(zhàn)爭博弈,那可就連我們坐下來討論誰勝誰負的機會都沒有了。反之,如果人類保持憂患意識,早做防備,杜絕人工智能超越人類的可能性,那么,馬斯克針對人工智能威脅的腦機融合計劃便成為不必要的了。前者是因,后者是果;在這個意義上,人工智能比腦機融合更危險,而不是翟振明所做的相反評斷。

        筆者與翟振明的分歧歸根結底是本體論上的。具體地說,翟振明基于上帝之眼而站在現(xiàn)實-虛擬對等觀的立場上,筆者則基于人類之眼而站在現(xiàn)實世界優(yōu)先的立場上。在筆者看來,翟振明忽略了一個最為基本的界限,即自然與人為的區(qū)別。人腦是自然的,電腦是人為的;現(xiàn)實世界是自然的,虛擬世界是人為的。老子曰:人法地,地法天,天法道,道法自然。明智的人應該承認自己在大自然面前是渺小的,別把人為的東西超越自然的東西當看作理所當然的。誠然,在一些次要的方面人們可以也應該這樣做,因為人本身就是大自然的產物,大自然的基本規(guī)律就是優(yōu)勝劣汰,物競天擇。但是,翟振明等人居然歡迎人為的機器(如量子機器人)來取代大自然生育出來的自然人,那就觸及人為與自然之關系的底線,因為那已不是物競天擇,而是人與天競了。

        根據“道法自然”的自然主義原理,我們必須承認:自然人高于機器人。誰若心甘情愿地讓機器人來取代自然人,那是對這條哲學原理的反動。也許有人會反問:你斷言自然人高于機器人,這是不是自欺欺人?我說:不是。首先,大自然讓我們人類高于機器人,至少表現(xiàn)在大自然的因果鏈條上,自然人比機器人處于在先的環(huán)節(jié),即:自然人創(chuàng)造了機器人,而不是相反。自然人對于機器人的這一優(yōu)越性可以導致能力上的優(yōu)越性,即:人類現(xiàn)在有能力把一切對人類構成威脅的機器人和其他技術扼制在端倪之中,以防患于未然,除非我們人類愿意自掘墳墓、自取滅亡。

        [1]康德.實踐理性批判[M].韓水法,譯.北京:商務印書館,1999.

        [2]翟振明.我們該如何與機器相處[J].南方人物周刊,2016(8).

        [3]翟振明.虛擬現(xiàn)實比人工智能更具顛覆性[J].高科技與產業(yè)化,2015(11).

        [4]翟振明,朱奕如.“腦機融合”比人工智能更危險[N].南方周末,2017-05-25.

        [5]陳曉平.也談克隆人的尊嚴問題[J].自然辯證法研究,2009(6).

        [6]普特南.理性、真理與歷史[M].童世駿,李光程,譯.上海:上海譯文出版社,1997:55.

        KeepingVigilanceagainsttheGravediggersofHuman:Brain-ComputerFusion,AlphaGo,orVirtualReality——DiscussionwithProfessorZHAIZhenming

        CHEN Xiaoping1, XIAO Fengliang2

        (1.SchoolofPublicAdministration,SouthChinaNormalUniversity,Guangzhou510006,China;2.SchoolofMarxism,DongguanUniversityofTechnology,Dongguan523808,China)

        It is necessary to introduce two basic principles, namely, anthropocentrism and the uniqueness of self-consciousness, to argue if the project of brain-computer fusion is not just, from the perspective of whether the brain-computer fusion belongs to humankind. Brain-compte fusion should be rejected Whether it is seen from the anthropocentrism’s position or from the perspective of human dignity. The development of artificial intelligence must be limited in order to avoid human’s being transcended or controlled by artificial intelligence; The development of virtual reality must also be limited in order to avoid the loss of uniqueness in the real world. Realistic world takes precedence over virtual world, and virtual reality must follow the principles of partial, voluntary and harmless virtuality. Nature makes mankind better than robots, at least manifested on the causal chain of nature, that is, natural people create robots, not the opposite. From doing this, natural people have the ability to curb all technology means that will threaten human survival to their infant state.

        brain-computer fusion; alpha go; virtual reality; anthropocentrism; self-consciousness; artificial intelligence

        N031

        A

        1008-7699(2017)05-0001-10

        (責任編輯黃仕軍)

        2017-06-29

        國家社會科學基金重大項目“基于虛擬現(xiàn)實的實驗研究對實驗哲學的超越”(15ZDB016); “現(xiàn)代歸納邏輯的新發(fā)展、理論前沿與應用研究”(15ZDB018)

        陳曉平(1952—),男,山西昔陽人,華南師范大學教授、博士生導師,研究方向為科學哲學、分析哲學、道德哲學、心靈哲學等.

        猜你喜歡
        腦機虛擬世界意志
        動物的“自由意志”
        大自然探索(2023年7期)2023-11-14 13:07:52
        驚世駭俗的“腦機接口”技術
        基于ssVEP與眼動追蹤的混合型并行腦機接口研究
        載人航天(2021年5期)2021-11-20 06:04:32
        腦機結合的未來
        埃隆·馬斯克的新型腦機接口為何人開發(fā)?
        英語文摘(2020年11期)2020-02-06 08:53:26
        虛擬世界和真實世界的紐帶
        虛擬世界大門正啟
        《西廂記》中的理性意志與自由意志
        擁抱虛擬 珍惜現(xiàn)實
        自由意志的神經基礎
        日韩精品免费在线视频| 无码人妻久久一区二区三区蜜桃| 韩国三级中文字幕hd| 激情航班h版在线观看| 日韩黑人欧美在线视频观看| 亚洲午夜成人片| 韩国女主播一区二区三区在线观看| 国产福利一区二区三区在线观看| 中文字幕人妻日韩精品| 无码人妻久久久一区二区三区| 免费国产a国产片高清网站| 伊人久久大香线蕉亚洲五月天| 亚洲人免费| 欧美日韩国产乱了伦| 亚洲国产不卡免费视频| 可以直接在线看国产在线片网址 | 国产精品高清视亚洲乱码| 久久婷婷五月综合色高清| 日韩精品久久久久久久电影蜜臀 | a级国产乱理伦片| 国产乱xxⅹxx国语对白| 极品熟妇大蝴蝶20p| 国产一区二区在线观看我不卡| 街拍丝袜美腿美女一区| 色呦呦九九七七国产精品| 在线精品国产一区二区三区| 中文字幕永久免费观看| 女优视频一区二区三区在线观看| 亚洲精品国产av成人精品| 好吊妞无缓冲视频观看| 美丽的熟妇中文字幕| 亚洲性无码av在线| 亚洲一区二区三区免费av| 国产精品一区二区三区免费视频| 亚洲精品无码久久久久牙蜜区| 久久精品国产亚洲5555| 蜜桃在线观看免费高清| 国产精品综合一区久久| 风情韵味人妻hd| 国产一起色一起爱| 精品一区二区三区影片|