亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        智能時代人機關系的倫理學慎思

        2023-04-29 00:00:00李建華
        理論月刊 2023年9期

        [摘 要] 正確認識智能時代的人機關系是防范人工智能倫理風險的重要前提,而對人機關系倫理本質的認識存在著人本主義與技術主義的分野。從人本主義的倫理立場出發(fā),盡管出現(xiàn)了超人工智能,但人類的倫理世界是不可能被顛覆的,因為人倫關系、倫理法則及倫理秩序是人類所“獨有”的。機器人也許會“參與”到社會倫理生活中來,這種“參與”源于機器人內部被預先設定的程序,機器人無法成為真正意義上的倫理主體。從責任的基本規(guī)定看,機器人也承擔不了倫理責任,因為它天然不具有行動的自知性和可解釋性,人類對人工智能負有完全責任,而不僅僅是責任的分擔者之一。當我們說要強化機器人倫理的時候,絕非意指關于機器的倫理,而是人類對智能機器人進行設計、開發(fā)、應用與運營的倫理。堅持人本主義的倫理觀念,是討論人工智能倫理的前提,可以避免思想認識上的模糊與混亂。

        [關鍵詞] 人工智能;人機關系;人倫關系;倫理責任;機器倫理

        [DOI編號] 10.14180/j.cnki.1004-0544.2023.09.001

        [中圖分類號] B82" " " " " " " " " " "[文獻標識碼] A" " " " " "[文章編號] 1004-0544(2023)09-0005-11

        作者簡介:李建華(1959—),男,哲學博士,武漢大學哲學學院、應用倫理學研究中心教授、教育部“長江學者”特聘教授。

        我們是否已進入智能時代?智能時代的核心標志是什么?這些都是需要從理論上進一步澄清的問題。但從經驗層面上看,社會生活各個領域似乎越來越趨向于智能化,這是不爭的事實。特別是隨著ChatGPT的誕生,人們對于人工智能在功能與功用方面的優(yōu)勢既表現(xiàn)出極度興奮,同時又心存諸多憂慮:人類與機器人如何相處?機器人是否可以完全取代自然人的工作?未來的世界是否就是智能世界?面對人工智能的挑戰(zhàn),人們往往表現(xiàn)出樂觀、保守和謹慎這三種不同的態(tài)度①。樂觀論者認為,隨著奇點理論的出現(xiàn)以及智能機器人的不斷更新迭代,人工智能終將“反客為主”,超越人類智能。保守論者認為,人類始終處于支配地位,人工智能永遠不會超越人類智能,“造物主一定比所造之物高明”。謹慎論者則認為,人類應該敬畏人工智能的崛起,智能機器人有成為“萬能人”的潛質,一旦具有了自我意識并取代人的全部活動,人類就有可能被智能機器人所控制,“如果人類運氣不佳,人工智能和基因編輯等技術有可能要了人類的老命”[1](p2)。

        其實,樂觀論、保守論或是謹慎論本身并不重要,都還沒有觸及問題的核心。智能機器人伴隨著技術的不斷完善,以及產業(yè)化、商品化的催促,不斷被人類所利用,這是無法回避的客觀事實,問題的關鍵在于如何看待人機關系。指數(shù)級、復合式的技術變革以及超人工智能的出現(xiàn),可能會改變人類推測未來的假設框架和基本邏輯。但我們不能被技術裹挾,從而喪失人的主體地位,也沒有必要無條件地去擁抱這個智能時代,而是“要記住,未來不只是降臨在我們身上,它是由我們一天天創(chuàng)造的,我們也將要為這個非常時刻所作出的決定負責”[2](p2)?;诖?,對智能時代的人機關系進行倫理學慎思就顯得十分必要與緊迫。對人工智能倫理問題的討論,與研究者或討論者所堅持的倫理理論、信念與立場密切相關,其基本的分野仍是人文主義與技術主義這兩條彼此對立的路向。人工智能倫理是一個宏大課題,也是一個無論從宏觀還是微觀層面均處于學術爭論中的問題。筆者無意也無力去深究問題的全部,僅僅基于人本主義(人文主義)立場,從人倫世界的本質性、倫理主體的規(guī)定性、機器人的倫理責任、是否存在機器人倫理四個方面談點淺見。通過對這四個問題的審度與反思,筆者旨在確立以人為本、以人為主的倫理信念,堅守人類基本倫理法則,使對人工智能倫理挑戰(zhàn)的被動回應向主動防范轉變,而不是主動迎合或遷就對人工智能的無限制、無底線、無責任的濫用,任由其顛覆現(xiàn)有倫理理論與人倫秩序。

        一、人倫世界是否可能被顛覆

        人機關系是智能技術發(fā)展的結果,也是應對人工智能倫理挑戰(zhàn)的思考主線。要明確的是,我們必須正視人工智能所引發(fā)的新倫理問題,但卻不必焦慮于“倫理觀滯后”[3],更無須急忙去改變現(xiàn)有倫理而去刻意“迎合”人機關系的表象。因為人工智能引發(fā)倫理變革只具有某種可能性而非必然性,并且這種倫理風險不能單靠倫理來防范,重要的是要節(jié)制人工智能本身的發(fā)展與應用,盡量避免出現(xiàn)因倫理問題引發(fā)的社會風險。盡管人工智能與人機互動屬于不同領域,但二者都同計算與智能行為密切相關。因此,本文所說的人機關系是廣義的,即人與機器、機器人、人工智能技術的關系,主要集中于自然人(人類)與機器人的關系。

        現(xiàn)實的人類倫理生活具有客觀與主觀兩個基本層面:就其客觀性而言,它指代“一種特定的社會秩序,這種社會秩序是以理性的方式分化和組織起來的”[4](p321);就其主觀性而言,它指個體的自我意識,是對倫理秩序之實體性的意識??梢哉f,現(xiàn)實的人倫世界就是客觀與主觀的統(tǒng)一,就是由人倫關系及其協(xié)調法則所構成的秩序世界,即人倫世界由人倫關系、倫理法則及倫理秩序三個基本要素構成,其根本前提是社會化了的自然人的存在。一切由人的對象化活動所產生的對象物不可反過來與作為行動主體的人本身構成平等的倫理關系,甚至“反客為主”。人際或人群關系及其秩序是人倫世界的邊界,具有不可逾越性。盡管“物倫理”概念被提出后,在“人—機”系統(tǒng)交互情境中出現(xiàn)了“物轉向”,對人的理解也出現(xiàn)了去意義化,但“人—機”關系在人倫世界中僅僅是一種間接或延伸的關系,人倫世界本身不可能被顛覆。

        首先,從人倫關系的本質來看,它是人類利益關系的體現(xiàn),而人機關系并不構成現(xiàn)實的利益關系。人倫即人之倫,“倫”意為“輩”(《說文解字》)、“?!保ā墩崱罚ⅰ邦悺保ā抖Y記》鄭玄注),即依據(jù)某些特定標準對人群進行分類、劃定等級,如根據(jù)年齡與輩分人有長幼之分,依照社會地位人有尊卑之別。人倫之要義是關系,人倫就是人際或族群關聯(lián)的秩序化,其前提是處于社會關系(交往)中的具有自然情感的人,人作為關系性存在會產生人倫世界?!袄怼北玖x為“治玉”[5](p15), 即根據(jù)玉石本身的紋路進行剖析與雕琢,泛指事物中存在的客觀規(guī)律,后被引申為萬事萬物運行的規(guī)則、蘊含的道理,如“理者,分也”“知分理之可相別異也”[5](p16)??梢?,“理”是進行一切分類的前提。對于人倫世界而言,只有掌握其運行的內在規(guī)律,才能確立“倫”的標準??梢?,“倫理”出現(xiàn)的根源是:人擺脫了蒙昧、獨立的生存狀態(tài),開始聯(lián)合成為團體,而團體需要建立一定的秩序來保證其生存與延續(xù),人需要從單個個體的生存意識逐漸發(fā)展出有利于共同進化(進步)的社會意識。這種意識的形成最初源于原始氏族內部聯(lián)結的現(xiàn)實紐帶——血緣。也就是說,只有具有血緣關系的個體才能成為氏族團體的一員,和其他成員相互依賴、協(xié)作、扶持、保護,共同遵從團體內部的行為法則——風俗、習慣,以對抗自然世界中不可預知的巨大風險,謀求生存概率的最大化。人類求生存的本能與欲望是社會利益關系的自然前提,因為現(xiàn)實的利益包含人的欲望及其實現(xiàn)這兩個基本方面。欲望的一致證明了共同人性基礎上的共同利益,而欲望實現(xiàn)的多樣性證明了人的道德的差異性以及倫理調節(jié)的必要性。利益是一種客觀存在,是滿足人的生物性和社會性需要的客觀條件,特別是“共同利益不是僅僅作為一種‘普遍的東西’存在于觀念之中,而首先是作為彼此有了分工之間的相互依存關系存在于現(xiàn)實之中”[6](p536)。只有當利益主體充分認識到可欲當求之時,才有現(xiàn)實的利益關系??梢姡鳛槿藗愱P系的利益關系有三個基本條件——由血緣關系過渡到社會關系且具有情感聯(lián)系的人,由共同欲望而產生的共同利益,以及因利益獲得的正當與否而產生的倫理評價和調節(jié)。而機器人與自然人,以及機器人與機器人之間的關系,哪怕已進入超人工智能時代,也不具備上述三個條件。因為機器人永遠都不是真正的“人”,人機關系本質上不是真實的倫理關系,充其量是人倫關系的延伸或虛擬而已①,以人為主體的人機關系不會被顛倒,人倫世界不可能被顛覆。

        人倫世界不僅僅是一種關系結構,而且也是一種法則體系。一般而言,人倫世界的行為法則有自然法則、制度法則與信仰法則三種。智能世界不可能擁有這三者,而這三者也無法針對和適應于機器人。自然法則從屬性上講似乎是“前社會”的產物,至少是進入文明社會前人們普遍遵守的行為規(guī)范。就其確切的含義而言,“它指的是一種‘基于自然而存在’且‘基于自然而被認識’的約束著所有人的道德法則(moral law)”[7](p3)。自然法則維系著人類最初也是最本真的倫理關系。所謂最初指人作為自然界的一部分是動物進化的結果,首先受生存法則的支配;所謂最本真指人的進化是生命體的進化,而不僅僅是個體的進化,更重要的是人類通過自身的生產而獲得的整體性進步,其前提就是以血緣為基礎的調節(jié)人倫關系的和諧法則。生存法則決定著人類的優(yōu)勝劣汰,和諧法則維護著人類的整體利益,人類正是遵循這兩種最基本的自然法則才走到今天。但隨著生產生活領域的擴大,社會交往空間也在拓展,人際關系也就日益復雜,單純的血緣宗法關系開始變得脆弱,需要有基于契約關系的剛性制度法則,如文明社會誕生以來的系列政治制度和經濟制度。這些法則立足于普遍性而獲得有效性,它們是人類理性的產物。但人并非純理性存在,還有非理性的一面,或者說經由理性而進入一種更高層次的非理性,這就是信仰法則。信仰法則不再有質疑、反思與批判等理性因素參與,只有虔誠恪守與誓死捍衛(wèi)。三種法則從不同方面和不同層次上調節(jié)人倫世界的關系。盡管機器人可能參與到人類活動中來,甚至替代人的某些機能,但它們始終不屬于人倫世界中的“成員”,僅僅是使人倫世界更加人倫化的工具。這些法則不適合它們,也于它們無益。哪怕未來機器人有自我意識,也不會有人倫情感,形成不了本來意義上的人倫秩序。

        人倫秩序不同于道德秩序:道德秩序主要是人的心靈秩序,以快樂、幸福、尊嚴等為主要元素;人倫秩序是人存在的關系秩序,主要以自由、平等、正義、和諧等為元素。人倫秩序是一種具有倫理性的秩序,是人作為倫理存在的關系性、社會性、實體性證明,因為“人是具有倫理屬性的存在,正是這種倫理性,使人成為不同于自然物的存在”[8](p25)。中國古代的“五倫”就是一種人倫秩序,是社會基本的五種人倫關系,即父子、君臣、夫婦、兄弟、朋友五種關系。在《孟子·滕文公》中,孟子認為:君臣之間有禮義之道,故應忠;父子之間有尊卑之序,故應孝;兄弟手足之間乃骨肉至親,故應悌;夫妻之間相互喜愛而又內外有別,故應忍;朋友之間有誠信之德,故應善。這是處理人與人之間倫理關系的道理和行為準則,是現(xiàn)實的人倫秩序。從整體而言,中國古代的人倫秩序還有禮、仁、和三個基本維度?!岸Y”最初來自風俗習慣,后形成儀式與禮儀,進而成為具體的行為規(guī)范。中國古代的禮治雖然有政治秩序和法度的內容,但更多地體現(xiàn)為德治與法治的高度統(tǒng)一,其本身就是人倫秩序?!叭省笔嵌Y治的價值內容或內涵,強調“愛人”的人倫情感,注重“己所不欲,勿施于人”的倫理思維,推崇“推己及人”“將心比心”的理解方式?!昂汀笔菍崿F(xiàn)禮治的方法與紐帶,強調“和為貴”,不搞分化,不走極端,使“和”真正成為一種生命性的內在融合關系,而不是僵化的物理性、機械性的制衡關系。所以,人倫秩序奠基于生命體的社會性,即便隨著科技的發(fā)展,人的身體或器官被機器取代后,人的能力(如記憶與體能)可能大大增強,但如果出現(xiàn)人格改變,甚至人機一體,哪怕是很小的概率,我們也是無法接受的[9]。而且,所謂的人機一體也僅僅是人被機器過度“武裝”的結果,改變不了人的本質屬性和人倫秩序。從目前關于人機關系的倫理討論來看,確立人本主義的人倫世界觀是非常必要的。否則的話,人們就會將人工智能風險的可能性錯認為必然性,將其局部性錯認為全局性,要么出現(xiàn)全面恐懼而“病急亂投醫(yī)”,要么出現(xiàn)一片歡呼而無條件擁抱,從而導致人工智能倫理討論方面無立場的現(xiàn)象性熱鬧,以及基于倫理理論的基礎性辯論的缺場??偠灾x開了人本主義立場本身,人工智能倫理就是非倫理甚至是反倫理的,因為倫理只屬于人倫世界。

        二、機器人能否成為倫理主體

        如果說人工智能時代我們之所以還有人倫世界不被顛覆的自信,是因為我們處于以人類為中心的倫理立場,那么人工智能的快速發(fā)展可能導致的人類異化、人倫關系的疏離和倫理法則的消解,是否意味著原有的倫理主體不復存在,出現(xiàn)完全由機器人主宰的倫理世界?目前的理論嘗試是,從傳統(tǒng)倫理學中尋找資源,建構一個與之平行的人工智能倫理體系,而這無疑是將人類倫理強制匹配到人工智能的設計、運行和使用中去[10]。我們不禁要問,人工智能真的需要倫理體系嗎?即便我們可以給智能人設計出道德行為程序,甚至機器人會有“道德情感”,這可以等同于真正意義(或傳統(tǒng)意義)上的倫理嗎?人工智能時代真的會出現(xiàn)兩套倫理體系嗎?目前理論界存在有意夸大人工智能顛覆作用的傾向,以為有了智能機器人等先進設備,整個世界就是智能世界了,人工智能就從“仆人”變成“主人”了①。也就是說,機器人會成為倫理主體,并能夠創(chuàng)造一個屬于它們的倫理世界。此世界與人類的倫理世界并存,還能相安無事、和諧共存,或許哪天機器人還會取代人倫主體,一統(tǒng)天下。如果從人本主義或人類主義的視角看,這種可能性是不大的,我們大可不必在很小的可能性上“造勢”而造成倫理緊張與威脅,甚至讓自然人甘愿主動在倫理上“退位”。

        首先,我們必須明確倫理主體的邊界②。如前所述,倫理的載體只能是處在一定人倫關系中、具有現(xiàn)實生活特性的人,具有主體關系性、意識自覺性、利益相關性等特性。其他存在物包括植物和動物都不具備成為倫理載體資格,更不用說作為勞動(生產)工具的機器人了。倫理主體必須是具有倫理實體屬性的存在,因為“倫理關系是實體性的關系,所以它包括生活的全部,亦即類及其生命過程的現(xiàn)實”[11](p176)。倫理的實體只能是某種社會生活共同體,如家庭、民族、社會、國家、人類等。倫理實體是倫理主體的基礎,但倫理主體與倫理實體不同,現(xiàn)實的倫理主體必須具備四個基本特性——行為實踐性、意識自覺性、交互主體性、利益相關性。作為倫理主體的人不是作為生物性存在的人,而是處于社會生活實踐之中的人,是有主體性的人。主體性意味著主觀能動性和行為責任性,而機器人只是被某種程序控制。唯有能擔負起社會倫理實踐的人(包含個體與群體),才有資格被稱為倫理主體。與此同時,人的主體性活動不是刺激反應活動,而是基于自由意志的有自覺意識的活動。所謂有自覺意識,一是指主體行為是在明確的意識指導下進行的;二是指具有一定的自我意識,即能夠意識到自己的意識,這是一種自知的狀態(tài)。機器人盡管有智能,但絕無意識:“智能傾向于目的化、客體對象化和效能化的方式看待和處理問題,以期獲得解決問題的答案;意識則意味著主體能夠感受到痛苦的情感的能力,它是個體在身體和精神上被觸動后構建意義的能力。”[12](p77)并且,主客體之間要有感知,即主客雙方都能知道和感受到對方的行為及其意義,這樣主體才能成為倫理主體。也只有這樣的倫理主體關系及秩序,才能構成倫理實體。我們或許直觀地“覺得”機器人有情感意識,但機器人能了解自然人對它的理解嗎?如果缺乏主體間的交流與理解能力,現(xiàn)實的倫理關系也就無法形成。而機器人不具備這種能力,因為這種主體的相互性不是無緣由的,而是基于利益的相關性?;蛘哒f,雙方或多方正是因為有利益關系(權利—義務關系),才有可能展開交際與交往,形成一種“沒有對方就沒有自己”的關聯(lián)。而機器人是沒有利益感知的,即它不可能有滿足感或喪失感,無法搭建起現(xiàn)實的利益關系。如果機器人有所謂的權益,那也不過是人的利益的延伸或擴展。

        其次,我們必須思考,人工智能時代是否存在倫理“雙主體”。從倫理主體的限制條件可知,機器人是不具有成為倫理主體的資格的。但未來的倫理世界是否像傳統(tǒng)社會一樣,倫理主體就是單一性存在?是否會存在雙重(兩種)倫理主體?或者說,在“人工道德行動體”的出現(xiàn)進一步引發(fā)了倫理主體問題討論的背景下,在未來的倫理世界中人機是否可以共存?目前,從工業(yè)制造機器人,到醫(yī)療機器人,再到家居機器人、社交機器人和軍用機器人,機器人已被廣泛應用到社會生活的各個領域。但目前控制機器人自主系統(tǒng)的軟件存在兩個“道德盲區(qū)”:“第一,此類系統(tǒng)的決策能力并未涉及任何清晰的道德推理表征;第二,此類系統(tǒng)的感知能力并不符合現(xiàn)實世界中的倫理特征。”[13](p58)所以,機器人的設計者們開始考慮將倫理道德因素作為重要參考因素納入自主系統(tǒng)的決策模塊中,以使機器人成為“人工道德行動體”。其顧慮前提是,機器人自由度越大,就越需要倫理道德標準來約束,以此來克服倫理上的盲目性。這種想法本身無可非議,畢竟是想讓機器人盡可能成為“好人”,不要傷害人類。可問題的復雜性不在于機器人是否需要倫理道約束,而在于如何認識“人工道德行動體”的本質,思考機器人是否可以充當現(xiàn)實生活的倫理主體。從目前的人工智能研發(fā)來看,機器人并不具有道德上的自主性,也就是說,“它們的道德定義完全掌握在設計者與使用者手中,自己本身沒有任何自主性”[13](p59)。但是,也許隨著人工智能越來越精密,機器人可能會具有應對道德問題的能力,出現(xiàn)所謂的“功能性道德”。但無論如何,它并非具有明確倫理推理的行動體,其所表現(xiàn)出的“道德”不過是一種“被操控的道德”。盡管機器人的設計者想盡辦法要對機器進行倫理編程,但其恐怕無法處理最基本的倫理法則,如道義論、功利論、美德論的一些原則在算法層面是無法得到體現(xiàn)的。也許設計者們并沒有把機器人變?yōu)閭惱碇黧w的意圖,僅僅是在機器人得到廣泛使用的情況下考慮如何避免各種技術風險,從而使其作出正確的道德決策。問題在于,當虛擬的或實體機器人進行道德決策時,要不要確定其責任,以及如何分清責任。機器人一旦進入責任領域,就有了倫理主體的意味。但實際上機器人不可能成為責任主體,負責任的設計者所追求的“完整的道德性”也是不存在的。我們只能為設計者提供專門的設計倫理準則,而不是讓機器人去模擬人類的道德性。設計者才是機器人的責任人,機器人自身無法承擔倫理責任。但是,如果人類自動放棄主體地位,甚至越來越依賴機器人,甘愿淪為“機奴”,且機器人的設計者不斷使社交機器人日益人格化,那么機器人成為倫理主體也不是沒有可能。這完全取決于人類如何看待和堅守自己所處的人倫世界,如何維護人類自身的權利與尊嚴,如何使人工智能不淪為危害人類的異化力量。

        最后,我們還要進一步追問:如何理解人工智能時代的“人”?機器人是“人”嗎?人機交互就是人機共存嗎?人機共存的前提是什么?無論人工智能多么先進和強大,自人類進入文明時代以來,人機關系一直是確定的,即機器是人發(fā)明和創(chuàng)造的,沒有人就沒有機器與機器人,人是一切人機關系的主導者[14]。這種觀念雖然顯得傳統(tǒng)甚至陳舊,但傳統(tǒng)的東西不一定都是錯的。經過現(xiàn)代性洗禮后,人依然是作為主體的唯一性存在。盡管后現(xiàn)代主義者們對人的主體性和人類中心論展開質疑和批判,但在質疑與批評中人的主體地位不僅未被撼動,反而被加固了。與此同時,人類與機器人在受制于倫理規(guī)則時,其性質也是根本不同的。傳統(tǒng)倫理規(guī)約的有效性基于調整性規(guī)則,而人工智能時代的倫理規(guī)約有向構成性規(guī)則轉向的可能:“調整性規(guī)則是對先于規(guī)則之前存在的行為進行調整,是告訴人們在某個場景中應當怎么去做的規(guī)則。構成性規(guī)則不僅調整受其調整的行為,而且還使得受其調整的行為得以產生”,而“人工智能時代的權利實際上最關注的就是構成性締約原則,也就是不僅關注行為的調整,也關注如何實現(xiàn)這些調整的機制”[12](p263)。而這種行為的發(fā)生機制的最終觀察者和評價者都是設計機器的人,所謂的構成性規(guī)則看似深入了一層,其實不過是人在設計機器人時的倫理想象,因為機器人無法觀察到自身的行為,不具有倫理行為主體性。當然也有學者認為,“機器人可能會意識到自己的價值遠遠超過作為人類工具的價值。一旦意識到它們的奴隸地位,并認為被這樣對待是不公平的,它們就可能會發(fā)動起義,進行反抗。因此人類要維持這一關系中的主人地位需要機器人毫無怨言地接受人類的主導地位”[15](p226)。

        其實,正是倫理道德等文化自主性因素使人類與機器人區(qū)分開?!半m然我們目前確實無法創(chuàng)造出超人類,但看來前方的路也沒有什么絕對無法克服的障礙。現(xiàn)在真正讓人類研究放慢腳步的原因,在于倫理和政治上的爭議?!盵16](p379)倫理上的謹慎態(tài)度在一定程度上也許能減緩對人工智能的無節(jié)制濫用,“然而,不管現(xiàn)在的倫理論點如何有說服力,未來的發(fā)展似乎勢不可當;特別是這有可能讓我們無限延長人類生命、解決各種疑難雜癥,以及強化人類認知和情感上的能力”[16](p379)。人類在巨大的功利誘惑面前難免會產生價值沖突與選擇,但我們一定要堅信,人類的包含倫理道德在內的精神家園是屬于自己的。即便未來的機器人具有與人類一樣的身體結構、內在情感和認知能力,具備所謂倫理上的“具身性”,也無法證明機器人的身心關系是“天緣”,也說明不了機器人身體的相似性就一定會產生“好感”,更解釋不了機器人之間的身體會具有“利他主義”親近與沖動,因為身體本質上是生物性的。具身倫理學不過是遵循了達爾文、漢密爾頓、威爾遜、麥金太爾等人的思維路徑,強調了人類道德的生物學基礎: “倫理學規(guī)范的內容,在相當大的程度上是作為倫理主體的人類的肉體特征所塑造的。”[17](p256)但是,倫理道德從來都是要人的精神來承載的,是文化進化與躍遷的產物,也是人之為人的根本標志,而非人的生物本性所固有。由具身倫理引發(fā)的倫理生物主義傾向可能向人工智能領域蔓延,把生物身體與物理身體通過相似性連接起來,由此得出機器人也可能充當倫理主體的結論,這是我們值得警惕的。

        三、機器人能否承擔倫理責任

        如果機器人無法成為倫理主體,那么也就不存在機器人的倫理責任問題,這是倫理學的共識。可問題恰恰在于,技術主義者們有意夸大人工智能對人類的威懾,特別是隨著超強人工智能技術的紛紛出現(xiàn),大有機器人取代自然人之勢。為消除人類對技術風險的憂慮,他們提出了機器人可以承擔倫理責任的理論主張。似乎只要機器人承擔了各種風險,自然人就無須干預機器人世界,整體世界就是機器人的了。而事實上,在技術發(fā)展與責任承擔的關聯(lián)一直被模糊化,即“不知道是技術驅動人工智能的發(fā)展,還是擺脫承擔道德責任的想法促使人類采用新技術”[18](p166)的情況下,人類絕不能追求使自身責任最小化甚至零責任的技術。

        機器人果真能承擔倫理責任嗎?如果我們僅僅從后果主義立場出發(fā),表面上看機器人確實存在責任分擔問題。當機器人作出了有益于人類之事時,設計者和運營商就會把功勞歸于自己;而當機器人作出了有損人類利益的事情時,設計者和運營商又會把責任全部推給機器人。所以,這根本不是機器人倫理問題,而是人類自己的倫理問題,特別是機器人設計者和運營商的道德問題,需要嚴肅認真地加以科學區(qū)分。從目前討論的情況看,關于機器人的倫理責任歸屬存在三種不同的觀點——有責任、無責任和部分責任①。主張“有責任”的理由是,機器人執(zhí)行了行為,至少也是行為主體之一,“好漢做事好漢當”。主張“部分責任”的理由是,人與機器人是一個整體,所以倫理后果應該由機器人設計者、使用者、機器人和運營商共同承擔。主張“無責任”的理由是,機器人根本就不是“人”,只是機器人設計者、制造商和運營商獲利的對象與工具。筆者是“無責任”觀點的支持者,認為機器人不能也無須承擔倫理責任,人類是倫理責任的唯一承擔者。

        一般而言,責任存在需要三個基本前提:第一,獨立的行為主體,包括排除人身依附性的行為個體與群體;第二,基于行為的自由選擇,自己選擇的自己負責,排除人為的強制或脅迫;第三,行為自知,即對行為選擇有明確的自我意識,知道自己在干什么及行為后果,排除盲目、無知、無意的行為。這些條件適應于對人類所有責任的認定和承擔,特別是倫理責任、政治責任、法律責任、經濟責任等。從依附性上看,機器人是人類科學技術發(fā)展的產物。進而言之,它是人類活動的對象化產物,這種主客二分雖然有簡單化的傾向,但也是人類認識論的基本前提。從主客關系講,機器人是依賴于人的,從設計到編程再到算法,完全是人在“操縱”。從自由意志上看,機器人在本質上就是機器。盡管科學家們一再強調機器人也會有“意志”,有“情感”,甚至會有“慈悲心”“無私心”,但是這些都不過是程序植入的結果。從自知性看,即使機器人真的有意識,即能有對對象物的“刺激—反應”模式,這也僅僅是生物性的。人類的高明之處在于能“意識到自己在意識”,這就是“自我意識”。 “承擔責任需要知道行為內容、行為后果,也能回想起自己的行為?!盵19](p81-82)機器人顯然不具備這三個條件,根本無責任可言。也許,我們有能力促使機器人成為可以通過“道德圖靈測試”的“道德機器”[20](p60-62),但是人類作為機器人的發(fā)明者和創(chuàng)造者,絕對不能放棄對機器人的規(guī)約,并且要預測技術發(fā)展的多種可能,切實維護好人類的基本價值原則和基本倫理責任;更不要天真地期盼機器人會“效忠”人類,主動承擔責任,“如果人形機器人變得更加能干并且具備了只有人類才有的認知能力的意識,那么現(xiàn)實的問題就是,它們是否仍會‘效忠’我們”[15](p213)。單純從技術層面和機器人爭責任主體地位是沒有意義的,甚至在機器人面前產生自卑也很可笑。如戈爾德·萊昂哈德所認為的那樣:“如果‘僅僅作為人’還不夠好,如果作為人還太笨拙,為什么不用技術來加強、來改善你自己呢?為什么不讓技術成為你的‘第一天性’,拉平我們與機器之間的差距呢?”[2](p122)戈爾德·萊昂哈德從根本上忽略了所有科學技術都是由人類創(chuàng)造的這一基本事實,人類對自己發(fā)明創(chuàng)造的技術負責,而不是看技術的先進或落后來確定誰是責任主體。誠如愛因斯坦所言,科學技術“是一種強有力的工具。怎樣用它,究竟是給人帶來幸福還是帶來災難,全取決于人自己,而不取決于工具。刀子在人類生活上是有用的,但它也能用來殺人”[21](p56)。并且,承擔責任涉及兩個方面:一是擔負責任,二是具有可解釋性[19](p82)。在弱人工智能那里,行為決定是透明的、可解釋的;但在超人工智能那里,如通過神經網(wǎng)絡深度學習的人工智能,其思維就不透明了。那么,這種不透明性是否意味著應由機器來解釋自身呢?而客觀事實是機器解釋不了,還是要由人類來解釋,最終承擔責任的還是人類。

        再從責任的三個基本向度來看,責任一般有“從集體責任到個體責任;從外部責任到內部責任即心理責任;從向后看的責任(對過去負責、過失)到向前看的責任(對將來負責、職責)”[22](p459)。人工智能的倫理責任是一種集體責任,即由研究者、設計者、應用者、運營者多主體共同擔負的責任,而非人工智能本身所應承擔的責任,更不是機器人的個體責任。責任往往存在著一個由外在規(guī)制轉變?yōu)橹黧w“責任感”的過程,如強制性的外在義務久而久之會轉化為一種強烈的義務感。因此,真正意義上的責任是客觀要求與主觀意愿的統(tǒng)一,是從“沒有辦法,必須履行”到“我愿意履行”的統(tǒng)一,而機器人是不具備這種心理轉換能力的。如果硬要說機器人負有某種責任,那也是設計者或運營商“強加”于它的,機器人是缺乏責任意識的。責任從時間上講有過去、現(xiàn)在和將來三種形態(tài),與之相對應的是追責、問責與預責三種行為?,F(xiàn)代技術發(fā)展如此飛速,人工智能技術更是日新月異,今天的這個機器人可能就不是明天的那個機器人,也許“軀殼”沒有變,但組件和程序可能全變了,這該如何劃定責任呢?有學者擔心,超級智能機器人的出現(xiàn)會引發(fā)人類被取代的危險,所有的責任都將由機器人扛下。 尼克·波斯特洛姆就提出,可能出現(xiàn)的“超級智能”會令人類面臨前所未有的“整體存在性風險”,“如果有一天我們發(fā)明了超越人類大腦一般智能的機器大腦,那么這種超級智能將會非常強大。并且,正如現(xiàn)在大猩猩的命運更多地取決于人類而不是它們自身一樣,人類的命運將取決于超級智能機器”[23](pⅩⅩⅤ)。這種悲觀論調無疑是想否定人類作為唯一責任主體的地位。松本徹三甚至認為,“AI神”的統(tǒng)治更有優(yōu)勢,更值得期待——“請胸懷善意,由持有堅定‘信念’而絕對不會動搖的AI作為‘唯一的神’來支配這個世界”是“‘人類自己的英明決斷’,是為了讓‘人類能夠出于天性、本性地快樂生活’這個目的”[24](p136,193)。在討論自動駕駛中人機責任問題時,人們普遍擔憂的問題也是,“自動駕駛過程完全由機器作出決策,人類不再占據(jù)主導地位”[25](p116)。其實機器之所以能決策,是人在設計機器時對自動駕駛的多種可能性進行充分考慮,人是真正的控制者,自動駕駛的責任始終是人自身的責任。

        倫理責任較之其他責任是一種特別的責任:一方面,倫理責任在個體層面是一種道義的責任,往往與“應該的”義務相關,即沒有做應該做的就是放棄道義或背叛道義;另一方面,倫理責任在社會整體層面是一種維護正義的責任,往往與“應得的”權利相關,如果一個人損害了他人的應得,便不能得其應得。因此,對倫理責任的規(guī)定應該遵循更加嚴格的前提條件并采取非常慎重的態(tài)度,不要把倫理責任輕易強加于某人或某種存在物。倫理責任需要滿足所謂的“終極責任”的基本要求,它不僅要求行動者在采取行動的時候能夠具有“真正開放”的取舍,也要求行動者在根本上對其采取的一切行動及其根據(jù)負責[26](p305)。也許機器人在完成人類的某種任務時,表面上呈現(xiàn)出主動、自覺的決策特征。但一旦出現(xiàn)失誤,造成對人類利益的損害,它是無責的,因為背后還是技術問題,技術問題就是人的問題。如果人類沒有這種責任擔當,科學技術就可能變成“殺人武器”,因為我們會沉淪在“機器人也可有責”的思維誤區(qū)之中,從而徹底放棄對機器人的掌控。我們不能因為出現(xiàn)了所謂的情感機器人,甚至性愛機器人,就自認為可以建立起良好的人機互信關系?!皩τ谌祟惖拿?,機器先進行風險評估,若風險可控,則予以執(zhí)行,否則,拒絕執(zhí)行并給出解釋”[27](p445),我們并不能由此認定機器會信任人類,更不能因為人機存在互信關系的虛無縹緲的可能性而放棄人類的最終責任。赫拉利在《人類簡史》的結尾提醒世人:人類雖然擁有了強大的能力,但比以往任何時候更不負責任,僅僅為尋求自己的舒適和娛樂,便不惜掀起一場場災難。人類正“擁有神的能力,但是不負責任、貪得無厭,而且連想要什么都不知道。天下危險,恐怕莫此為甚”[16](p392)。盡管我們還無法斷定人工智能是不是人類歷史上的又一場災難,但持謹慎批判的態(tài)度是必要的。

        四、我們真的需要機器人倫理嗎?

        在人機關系的倫理調節(jié)中還出現(xiàn)了另外一種聲音,那就是由人機共存衍生出人類倫理與機器人倫理并存的理論主張。這就意味著,我們在人機關系倫理討論中還有一個需要澄清的問題,就是認為目前人機邊界越來越模糊,人類和機器人可以“通用”一套倫理規(guī)則,或者有專門的機器人倫理。換言之,“在機器人倫理的發(fā)展過程中,人類工程師是否必須將自己的倫理學規(guī)范置于機器之中,或者我們是否能夠逐漸設計或發(fā)展出一種倫理規(guī)范,它不適用于智人,但適用于不同自身和能力的機器人”[13](p364)。機器人會擁有自己的倫理規(guī)范體系嗎?或者說,有所謂的機器人倫理嗎?瑪?shù)倌取ち_斯布拉曾經認為:“一旦被創(chuàng)造出的有意識的思維克隆人,即智能的、有情感的、活的虛擬人,成為一個普遍的人類追求,我們將面對很多新的個人問題和社會問題,因為它從根本上擴展了‘我’的定義?!盵28](p3)這個“我”就是主體,機器人就是擴展或延伸的“我”,盡管此“我”非彼“我”,但也是與真正的人可以平行相處(共存)的“人”。據(jù)此,這個“人”似乎應當有自己的倫理學。

        因此,圍繞“機器人倫理”出現(xiàn)了三種不同理解:一是基于人類自身職業(yè)倫理和責任倫理的機器人倫理,即既然人類創(chuàng)造了機器人,就應該在機器人設計及應用中遵守人類最基本的倫理準則;二是隨著機器人自主性的增強,我們應該對它們制定相應的倫理準則,確保我們制造的機器人不給人類造成傷害;三是機器人學的科學共同體總有一天會創(chuàng)造出一種可以進行道德行為的新物種,雖然可能需要一定的時間,但完全自主式的道德行動體終究會被制造出來[13](p354-355)。第三種理解大概就是賽博格(Cyborg)視域中的人機關系,在此基礎上出現(xiàn)了“超人類”(transhuman)和“后人類”(posthuman)的概念。“超人類主義屬于前瞻式反思人類的潛能與本質,后人類主義是回顧式反思人的起源及因果聯(lián)系。”[29](p208)無論“超人類”還是“后人類”概念都認為人類未來擁有多樣化的世界性和空間性,存在多種行動實體,包括超人類、外人類、非人類和作為腐殖質的人類等??偟膩碚f,前兩種理解所指出的機器人倫理是存在的,因為它們強調了人對于機器人的主體性;而第三種理解認為機器人本身有倫理,這種意義上的機器人倫理是不存在的。人所賦予機器人的倫理在本質上還是人的倫理,機器人只不過是把人倫理世界關系搞得有些復雜而已。機器人自己的倫理是沒有必要的,也根本無法實現(xiàn)。

        人們對機器人本身施以倫理,主要是出于對機器人發(fā)展的擔憂,由此產生出對機器人設計者、生產者、運營者以及機器人本身采取雙重倫理控制的想法,從而有效避免人工智能的倫理風險。“人工智能技術能力日益增強,特別是當人工智能進入深度學習與情感交流,可以進行團體協(xié)作行動時,也就是說當人工智能開始挑戰(zhàn)、突破甚至完全脫離人為其設計好的初始算法而自我創(chuàng)制新算法時,人工智能必然影響整個人類社會發(fā)展?!盵30]因此,這種擔憂可以理解,但有三個問題需要深入思考,從而消除這種擔憂:第一,人工智能自己創(chuàng)新的算法改變的是機器程序還是倫理秩序;第二,機器人是否真正擁有實現(xiàn)第一人稱的自我意識和審慎的道德能動性;第三,機器人是否可以意識到它擁有機器人倫理并努力去實現(xiàn)。

        技術的運用實質上是一種問題的解蔽方式,但解蔽的過程往往隱藏著難以估計的風險。人們可能在人工智能技術過程中被技術所“綁架”,人工智能算法就是其中之一。算法是人工智能技術的基礎,人類已經開始將部分事情的決定權轉移給具有高度智能的算法,但開發(fā)者有可能將其自身所持有的價值偏見植入算法中,甚至存在非法篡改算法參數(shù)的風險[31]。雖然算法可以根據(jù)人下的各種指令編程,甚至“自作主張”,但算法目前在學習、推理、聯(lián)想、產生新判斷等能力上不夠強大,難以解釋行為背后的決策邏輯。因為人類行為所具有的主觀動機性和意向性是機器人不具備的,機器人是依據(jù)人工設計的結構和在學習進程中所接收的數(shù)據(jù)而形成對世界的“認知”,其本質還是“編程”。如果有所謂的機器人在決策時的道德偏見,那也只不過是算法設計時技術人員的主觀選擇和判斷,并且他們能否真正把自己所信奉的全部道德規(guī)則與法律寫進程序也是值得懷疑的。加上目前的技術壁壘,如機器學習算法的“黑箱”屬性、數(shù)據(jù)支撐的不足、多語境系統(tǒng)的有限性等問題,通過改變算法來提高決定的正確性與穩(wěn)定性,建立人工智能自身倫理秩序,繼而改變“以人為主”的倫理關系格局,實現(xiàn)人的倫理與機器人倫理并存的目標的設想,暫時還不可能。

        長期以來哲學基本觀念是,主體能動性是人與動物的區(qū)別,也是人與其他物存在的根本差別。即便在程序設計上機器人可以根據(jù)自己的機械推理而改變某種程序,獲得一些新的“表現(xiàn)”方式,但這種改變是機器人無法“自知”的,即機器人無法實現(xiàn)概念推理與經驗感覺的統(tǒng)一而形成自我意識,意識不到自己在意識。如現(xiàn)在的社交機器人會說話,但它根本意識不到自己在說話,其“言說”的意義只存在于聽者(人類)的心智中,“這種意義或許能夠體現(xiàn)在機器人身上,但并不體現(xiàn)在言說本身”[13](p360)。“很明顯,機器人的本性并不是我們人類所擁有的生物本性,機器人的本性主要還是由工程師或設計者決定?!盵13](p364)但值得我們注意的是,未來的人機交互系統(tǒng)研究已經有了四個明確的發(fā)展方向——主動的推薦、自主的學習、自然的進化、自身的免疫,而其中智能的自主性是最關鍵的。人工智能的自主性問題又有四個方面必須被思考:自主應該具有記憶功能而不僅僅是存儲,能夠產生直覺與聯(lián)想;自主應該具有選擇性,而選擇具有單向性;自主應該具有匹配性,是雙向性的;自主應該可以被控制[32](p77)。從目前來看,機器人還不具有可以完全脫離人的控制的“自主性”。即使社交機器人可以依靠人類認知能力和社交能力的深度模型而展現(xiàn)出類似人類的社交智慧,但它也只不過是延伸了人的主體意識和倫理思維,充其量就是一具“木偶”。機器人不可能擁有生物學意義的人類道德自主能力和判斷能力,也就不具有機器人世界中自身的倫理規(guī)范體系。

        假設機器人可以意識到它擁有機器人倫理并要努力去實現(xiàn),那么這就需要兩個前提條件——倫理上的自我意識與行動上的倫理目的性。倫理上的自我意識主要有兩層含義:一是指倫理主體能夠清楚地意識到自己的倫理信念、倫理立場、倫理判斷能力及可能的行為后果,即對倫理上的動機、后果與責任非常了解;二是這種倫理意識的形成是自由自覺學習、修煉的結果,即這種倫理意識是經過了生命體驗的道德經驗。行動上的倫理目的性,指倫理主體對行動目標及其價值有明確的了解,而不是處于一種模糊的“打賭”狀態(tài),去面對可能的風險,而應該筑起防范倫理風險的可靠“防火墻”。如果機器人意識不到自己“在倫理”,那么試圖建立一個像人類一樣擁有倫理判斷能力和行為能力的智能體就沒有可能。因為沒有倫理自我意識,就不可能有自主性的道德能力,也不具備獲得倫理知識的能力。盡管后人類主義者認為,人類是有缺陷的,應該讓人工智能接管人類,但人本主義堅持認為,應該確保人工智能不失控,確保機器人做人類想做的事情,充分尊重人類的權利。在這個層面上,人本主義是一種負責任的思想主張,我們需要機器人倫理也只能是人本主義意義上的機器倫理,即對機器人的設計、制造、運營、應用全過程進行倫理監(jiān)控與規(guī)約,防止機器危害人類與社會。這是一種積極的、正向規(guī)約的倫理。機器人在執(zhí)行人類所設計的道德指令時,也許有算法與程序的選擇,但絕無明確的目的,且不具備趨向于達成目的的內在“動機”,僅僅是程序的被動完成。

        總而言之,所謂的與人類無關或可以與人類并存的機器倫理只不過是人類倫理價值觀念和想象的植入,充其量是人類在防范人工智能風險時在機器人身上的“倫理投入”,且這種投入必須是人本主義而非技術主義的。人本主義的科學內核就是“人是目的不是手段”,“人工智能歸根結底是人的本質對象化,它不可能也不能夠擁有與人同等的地位”[33]。目前,我們無須去思考人類與機器人如何共生的問題,而是要重視人類如何確保對機器人的支配權與管理權等問題。這意味人類必須理性而慎重地研發(fā)和使用人工智能,而不是一味地驚呼人工智能風險而把自身置于被動(次要)地位,寄希望于人工智能倫理和機器人的“倫理自律”。

        參考文獻:

        [1]趙汀陽.人工智能的神話或悲歌[M].北京:商務印書館,2022.

        [2][瑞士]戈爾德·萊昂哈德.人機沖突:人類與智能世界如何共處[M].張堯然,高艷梅,譯.北京:機械工業(yè)出版社,2019.

        [3]陳昌鳳.人機何以共生:傳播的結構性變更與滯后的倫理觀[J].新聞與寫作,2022(10).

        [4][美]伍德.黑格爾的倫理思想[M].黃濤,譯.北京:知識產權出版社,2016.

        [5]許慎.說文解字注[M].段玉裁,注.上海:上海古籍出版社,1988.

        [6]馬克思恩格斯文集:第1卷[M].北京:人民出版社,2009.

        [7]吳彥,楊天江.自然法:古今之變[M].上海:華東師范大學出版社,2018.

        [8]高兆明,李萍,等.現(xiàn)代化進程中的倫理秩序研究[M].北京:人民出版社,2007.

        [9]尚鳳森.人機一體的倫理問題探討[J].學術前沿,2018(3).

        [10]崔中良.倫理的人工主體:人工智能的倫理挑戰(zhàn)及其應對方案[J].馬克思主義與實現(xiàn),2023(2).

        [11][德]黑格爾.法哲學原理[M].范揚,張企泰,譯.北京:商務印書館,1982.

        [12]劉志毅,梁正,鄭燁婕.黑鏡與秩序:數(shù)智化風險社會下的人工智能倫理與治理[M].北京:清華大學出版社,2022.

        [13][美]帕特里克·林,凱斯·阿布尼,喬治·A.貝基.機器人倫理學[M].薛少華,譯.北京:人民郵電出版社,2021.

        [14]孫偉平.智能時代的新型人機關系及其構建[J].湖北大學學報(哲學社會科學版),2023(3).

        [15][美]約瑟夫·巴-科恩,大衛(wèi)·漢森.機器人革命:即將到來的機器人時代[M].潘俊,譯.北京:機械工業(yè)出版社,2015.

        [16][以色列]尤瓦爾·赫拉利.人類簡史:從動物到上帝[M].林俊宏,譯.北京:中信出版集團,2017.

        [17]徐英瑾.人工智能哲學十五講[M].北京:北京大學出版社,2021.

        [18][美]皮埃羅·斯加魯菲.智能的本質:人類智能與機器領域的64個大問題[M].任莉,張建宇,譯.北京:人民郵電出版社,2023.

        [19][奧]馬克·考科爾伯格.人工智能倫理學[M].周薇薇,陳海霞,譯.上海:上海交通大學出版社,2023.

        [20][美]溫德爾·瓦拉赫,科林·艾倫.道德機器:如何讓機器人明辨是非[M].王小紅,譯.北京:北京大學出版社,2017.

        [21]愛因斯坦文集:第3卷[M].許良英,等譯.北京:商務印書館,1979.

        [22][蘇]伊·謝·科恩.自我論[M].佟景韓,等譯.北京:生活·讀書·新知三聯(lián)書店,1986.

        [23][英]尼克·波斯特洛姆.超級智能:路線圖、危險性與應對策略[M].張體偉,張玉青,譯.北京:中信出版集團,2015.

        [24][日]松本徹三.AI成“神”之日:人工智能的終極演變[M].張林峰,譯.北京:清華大學出版社,2019.

        [25]莫宏偉,徐立芳.人工智能倫理導論[M].西安:西安電子科技大學出版社,2022.

        [26]徐向東.權利、正義與責任[M].杭州:浙江大學出版社,2021.

        [27]于江生.人工智能倫理[M].北京:清華大學出版社,2022.

        [28][美]瑪?shù)倌取ち_斯布拉特.虛擬人——人類新物種[M].郭雪,譯.杭州:浙江人民出版社,2016.

        [29]陳小平.人工智能倫理導論[M].合肥:中國科學技術大學出版社,2023.

        [30]王東,張振.人工智能倫理風險的鏡像、透視及其規(guī)避[J].倫理學研究,2021(1).

        [31]譚九生,楊建武.智能時代技術治理的價值悖論及其消解[J].電子政務,2020(9).

        [32]劉偉.追問人工智能[M].北京:科學出版社,2019.

        [33]周玄,趙建超.人工智能的倫理困境與正向規(guī)約[J].江西社會科學,2022(10).

        責任編輯" "羅雨澤

        1參見謝洪明、陳亮、楊英楠:《如何認識人工智能的倫理沖突》,載《外國經濟與管理》2019年第10期。

        1參見李建華:《倫理載體的實與虛》,載《求索》2022年第1期。

        1參見[美]杰瑞·卡普蘭:《人工智能時代:人機共生下財富、工作與思維的大未來》,李盼譯,杭州:浙江人民出版社,2016年,第20—31頁。

        ②參見李建華:《倫理載體的實與虛》,載《求索》2022年第1期。

        1參見崔中良:《倫理的人工主體:人工智能的倫理挑戰(zhàn)及其應對方案》,載《馬克思主義與實現(xiàn)》2023年第2期。

        国产在线网址| 麻豆成年视频在线观看| 蜜臀一区二区av天堂| 青青草免费视频一区二区| 男女视频网站在线观看| 青春草免费在线观看视频| 欧美俄罗斯40老熟妇| 香蕉视频一级片| 一区二区三区四区四色av| 东京热日本av在线观看| 亚洲av无码一区二区三区人| 无码人妻精品一区二区三区不卡| 日中文字幕在线| 人人妻人人澡av| 免费国产自拍视频在线观看| 婷婷久久国产综合精品| 国内精品久久久久伊人av| 国产高清av首播原创麻豆| 国产亚洲蜜芽精品久久| 色婷婷久久99综合精品jk白丝 | 人妻少妇人人丰满视频网站| 人日本中文字幕免费精品| 免费在线观看播放黄片视频| 少妇私密会所按摩到高潮呻吟| 97色在线视频| 激情视频在线播放一区二区三区| 加勒比色老久久爱综合网| 四虎影视成人永久免费观看视频| 久久精品人人做人人爽电影蜜月| 欧美末成年videos在线观看| av网站入口在线免费观看| 久久狼精品一区二区三区| 亚洲人成影院在线观看| 久久久99精品成人片中文字幕| 亚洲av熟女天堂久久天堂| 护士的小嫩嫩好紧好爽| 黄色成人网站免费无码av| 青青手机在线视频观看| 国产精品女主播福利在线| 少妇装睡让我滑了进去| 国产精品主播视频|