楊學科
我們生活在人工智能時代的黎明,人工智能技術變革正以指數(shù)級發(fā)生。如谷歌公司的首席執(zhí)行官桑達爾·皮查伊(Sundar Pichai)所說的那樣:“從長遠來看,我們將從移動設備發(fā)展到智能世界”[注]Tommy Weir,“The Age of Artificial Intelligence is Right Now”,Gulf News,Jan 30,2017.,智能社會指日可待。人工智能機器人的權利問題自應是人工智能時代、智能世界、智能社會到來之前的人工智能制度措置未雨綢繆的中心議題。2017年10月26日,沙特阿拉伯搶占先機,授予機器人索菲亞(Sophia)公民身份,這是人類歷史上第一次將人工智能機器人的權利聚訟久矣的理論爭議變?yōu)楝F(xiàn)實,因此“少女”索菲亞成為歷史上第一個獲得公民身份的機器人。在婦女權利受到諸多限制的沙特阿拉伯,卻給予人工智能機器人公民資格,宣傳噱頭的意味可能更大一些。但一個月后,在人工智能強國日本,“男孩”澀谷未來(Shibuya Mirai)成為第一個獲得居住權的機器人,東京也成為第一個官方正式授予人工智能機器人居住權的城市,則是實實在在的權利賦予問題?!吧倥彼鞣苼?、“男孩”澀谷未來引發(fā)的機器人是否值得擁有、甚至是否應該擁有權利,成為最近學界爭論不下的熱點話題,亦是亟待解決的重大法理問題。
中外理論界關于人工智能機器人的研究、主張頗多,甚至出現(xiàn)機器人妓女賣淫問題研究(荷蘭擬推出機器人妓女)以及美國防止虐待機器人協(xié)會等前衛(wèi)社會組織。但關于人工智能機器人是否擁有權利,學界爭執(zhí)不下,尚未達成共識。贊成人工智能機器人擁有權利的學者主張,機器人的發(fā)展并擁有權利將會是歷史的必然,人類應該拋棄片面的“人類中心主義”,將權利的概念普適到人工智能機器人。反對人工智能機器人擁有權利的學者主張,權利應該依附于創(chuàng)造和使用這些技術的人類,而不是工具本身,工具只能是工具,人工智能只是零部件的組合體。最直接明了的如甘紹平教授所言的:認可機器人有權利,就等同于承認機器人是自在目的,而這就觸動了人與物之間的根本區(qū)別。機器人是人類創(chuàng)生的無機體,與有機體維持生存、繁殖后代的本能與目的性不同。機器人是機器,不是人,因而無法享有人所擁有的權利。[注]甘紹平:《機器人怎么可能擁有權利》,《倫理學研究》2017年第3期。反對人工智能機器人擁有權利的理由在美國哲學教授埃里克·施維茨格貝爾 (Eric Schwitzgebel)和瑪拉·加爾薩(Mara Garza)的論文《人工智能權利的辯護》中總結(jié)得較為詳細,他們總結(jié)了反對人工智能權利的四種典型反對觀點:第一,來自心理差異的反對理由。在某些方面,人工實體與人類在心理上存在不同:AIs缺乏意識、自由意志或洞察力,存在心理缺陷。第二,可復制性的反對理由。AIs可能不應該得到同等的道德關懷, 因為他們沒有人類特有的那種脆弱性。AIs可以復制或備份, 如果一個AI被傷害或毀滅,其他AI就可以取而代之,并有同樣的記憶。因此,傷害或殺死AI可能缺乏傷害或殺死人類的嚴重性。第三,來自社會差異的異議。AIs必然站在我們的社會契約或者是適當?shù)年P注圈子之外,因此沒有理由給予他們道德上的考慮。第四,存在之債(Existential Debt)的反對理由。存在之債的反對始于這樣一種思想, 即人工智能是由我們制造的,它的存在依附于我們, 為人所擁有,人類可以沒有道德負罪感地任意終止或征服人工智能。[注]Eric Schwitzgebel,Mara Garza,“A Defense of the Rights of Artificial Intelligences”,Midwest Studies In Philosophy,2015,Vol.39,No.1,pp.103-108.
人工智能機器人權利問題的理論解決是探討人工智能制度的前提,這是一個法學界無法回避的坎。筆者將基于對人工智能的發(fā)展預判,探討人工智能機器人享有權利的理由,類型化機器人權利,并界定其權利的邊界。易言之,本文寫作前是帶有“先見的”,主張人工智能機器人享有權利。以適應智能爆炸或“技術奇點”的臨近為契機,未雨綢繆人工智能權利,尋求前瞻性思索,這對未來法律發(fā)展和制度措置尤為關鍵。
正式行文之前,有必要交代一下本文對人工智能機器人的概念界定。人工智能發(fā)展之始,在1956年達特茅斯會議上達成的共識是通過機器模擬人工智能,并用Artificial Intelligence(簡稱AI)意指人工智能。其后幾乎所有的機器人專家一直遵循的是實體智能的概念。研究人員指出:“智能不能僅僅以抽象算法的形式存在,還需要一個物理的實體化,或有形的身體?!盵注]Jennifer Robertson,“HUMAN RIGHTS VS. ROBOT RIGHTS: Forecasts from Japan”, Critical Asian Studies,2014,Vol.46,No.4,p.575.為統(tǒng)一概念,避免混淆,本文所指的人工智能機器人是在廣義上界定的,指人工智能機器人(Artificial intelligent Robot)和智能機器人(Smart Robot),相當于人工智能和機器體的合體。在一定意義上,機器人只是人工智能的載體、容器,相當于身體,人工智能是大腦。人工智能的載體形式并非都如索菲亞那樣是人之身體形象模塑,而可能是世間萬物乃至以想象的物體形象而存在。但其都存在兩大核心特征:一是人工智能的大腦具有重復編程性,未來可以實現(xiàn)情感、意志自主;二是其身體具有自動機械裝置,可自主完成多種操作功能。另一點需要說明的是,未來可能的人工智能機器人自我復制出的智能機器人,本文亦歸入廣義上的人工智能機器人,盡管將其命名智能機器人更為妥切。
人工智能機器人何以權利,這是人工智能機器人權利配置的先行理由。如前所述,對人工智能機器人是否擁有權利,不僅未成共識,而且分歧頗大。按照現(xiàn)有工業(yè)文明時代的法律而言,人工智能機器人擁有權利是不可思議的。但隨著人工智能的發(fā)展,智能社會的臨近,人工智能智慧等同或遠超人類智慧。借鑒約翰·厄姆拜克的“實力界定權利”的觀點,傳統(tǒng)權利觀可能會被重寫,人工智能機器人擁有權利也將不再是無稽之談、天譚夜話。此等簡略的論述,是難以說服異議者的。下文將從后人類主義的平權、擴權實踐,人機相容的立場,人工智能機器人的法律權利造反能力三個方面細證,自可多些說服,少些強詞奪理的觀感。
人類中心主義傳統(tǒng)認為,人類生命的神圣性和人類種族的等級優(yōu)越感是維系文明世界的兩個錨點。人類歷來被認為處于進化鏈的頂端,盡管可能有更快更強的生物,但沒有一個生物能超過我們的創(chuàng)造力。[注]Harold Stark,“Artificial Intelligence and the Overwhelming Question of Human Rights”,F(xiàn)orbes,19 July,2017.但從歷史維度來看,自詡“宇宙的精華,萬物的靈長”[注]莎士比亞:《莎士比亞全集(五)》,朱生豪等譯,人民文學出版社,1994年,第327頁。的人類,其理性地位是不斷下降的。哥白尼式的革命和日心說的發(fā)現(xiàn),使人類理性的這種虛榮終于被降低到它真正的價值,人承認自己在自然界的奇特位置。[注]楊學科:《論法律中人之形象建構(gòu):幸福人》,《勝利油田黨校學報》2013年第1期。也就是說,人類的理性能力從宇宙被拉回了地球,即是尼采意義上的“上帝已死”。文藝復興和啟蒙運動,人類認識到理性是現(xiàn)實人的本質(zhì),至此二元等級結(jié)構(gòu)形成,主客體二分,人類作為主體,其他統(tǒng)統(tǒng)為客體。在笛卡爾視野中,非人類實體是與機器是等同的。牛頓認為宇宙像鐘表機械一樣有著數(shù)學規(guī)律,是一個絕對的、精確的世界。是霍布斯完成了自然權利的造反,認為沒有合法權利的生活(由利維坦式的行政機構(gòu)提供的)是“不斷處于暴力死亡的恐懼和危險中,人的生活孤獨、貧困、卑污、殘忍而短壽”[注]霍布斯:《利維坦》,黎思復等譯,商務印書館,2012年,第95頁。。在此影響下,自然權利逐漸人權化,科層制成為資本主義制度的理性管理模式,人類形成了以人類為中心和以自我為中心的權利觀。在隨后的以人為中心的世界觀實踐中,理性張揚,主體遮蔽客體,人類恍若進入“人類世”的歷史新時期,這種過時的、有害的“以人類為中心”的人類理性瘋狂,被阿爾伯特·愛因斯坦定義為“人類意識的一種視覺錯覺”(An optical delusion of human consciousness)。這種錯覺對我們來說就像是一種囚牢,把我們局限于自己的欲望和對最親近的極個別人的關懷。[注]Maria Allo,M.D.,F(xiàn).A.C.S.,“Presidential Address: widening the Circle of Compassion”,The American Journal of Surgery,2009,Vol.198,No.6,p.733.20世紀初相對論、量子力學、混沌學、分形理論的發(fā)現(xiàn),有力地否定了主客體二分理論,而認為主客體存在相互交互作用。這些物理學的成果,逆轉(zhuǎn)笛卡爾式的機械人類中心主義傳統(tǒng),一定程度上如??滤裕宋纳鐣茖W出現(xiàn)“人之死”的問題。
遂此,后人類主義(Posthumanism)應運而生,其最初的分支后人類中心主義(Post-anthropocentrism)理論主張主要集中在人類邊緣群體的權利,如美國平權運動對黑人權利的提升,對土著民權利的保障。對于人類以外的權利主張,則主要表現(xiàn)在后人類主義的另一個分支——超人主義(Transhumanism)權利觀中。例如克里斯托弗·斯通(Christopher Stone)的自然的權利觀,托馬斯·貝里(Thomas Berry)的地球權利觀,彼得·辛格(Peter Singer) 的動物權利主張等,且部分見諸于法律規(guī)定。其權利主張在超人主義協(xié)會的2009版超人主義宣言(The Transhumanist Declaration)中表現(xiàn)尤為明顯:我們提倡所有感覺的福祉, 包括人類、非人類生物, 以及任何未來的人工智能、修改過的生命形式,或其他技術和科學進步可能產(chǎn)生的智能。[注]James Hughes,Citizen Cyborg: Why Democratic Societies must Respond to the Redesigned Human of the Future,Boulder: Westview Press,2004. p.103.在后人類主義權利實踐中,權利概念呈現(xiàn)擴張態(tài)勢,權利主體范圍擴展,人類種族主義的人類物種識別論不再是絕對真理,物種不再是權利享有的障礙,包容他者的權利精神得以深化。由上可知,賦權人工智能機器人符合權利的發(fā)展規(guī)律。
人工智能機器人擁有自我意識和意志,不再是遙不可及的奢望。如美國未來學家雷·庫茲韋爾(Ray Kurzweil)預言: “擁有自我意識的非生物體(機器人)將于2029年出現(xiàn),并于21世紀30年代成為常態(tài),他們將具備各種微妙的、與人類似的情感?!盵注]庫茲韋爾:《如何創(chuàng)造思維》,盛楊燕譯,浙江人民出版社,2014年,第195頁。他還預言,2045年是極具深刻性和分裂性的轉(zhuǎn)變時間,“非生物智能在這一年將會10億倍于今天所有人類的智慧?!盵注]庫茲韋爾:《奇點臨近》,李慶誠等譯,機械工業(yè)出版社,2011年,第80頁。正如習慣于以世俗的、功利主義立場看待問題的動物權利先驅(qū)彼得·辛格認為,如果我們開發(fā)出超級智能機器,如果這個機器人被設計成具有類似人類的能力,偶然會產(chǎn)生意識,我們有充分的理由認為它確實是有意識了。他們的權利也需要保護,機器人權利運動將開始。[注]Peter Singer,Agata Sagan,“When Robots Have Feelings”,Project Syndicate, 2009.事實上, 每當有一場運動將權利授予某些新的“實體”時,這個提議必然會顯得古怪、可怕或可笑。這在一定程度上是因為如果無權利的事物得到它的權利, 我們就不能把它看成是“我們”所使用的——那些曾屬于權利持有人的一種東西。[注]Christopher D. Stone,“Should Trees Have Standing?Toward Legal Rights for Natural Objects”,Southern California Law Review,1972,Vol.45,p.455.
對于權利概念,意解頗多,但絕大多數(shù)權利定義離不開兩個要素,一是基于自身主觀意志的行為活動,二是此行為活動為社會群體、國家所贊同、認可。一般意義而言,人的智能是進化的產(chǎn)物,而人工智能則是人工進化。就像人類是進化而來的,在互聯(lián)網(wǎng)、云計算和大數(shù)據(jù)技術的支撐下,人工智能技術未來數(shù)年還會飛速發(fā)展,其進化速度遠高于人類,此時人類的大腦可能因為使用頻率的降低反而衰退。人工智能的先驅(qū)明斯基(Marvin Minsky)教授認為,機器人肯定會發(fā)展出思想意識,而且最終能幫助解決困擾人類的“最后的難題”。[注]馮象:《我是阿爾法——論人機倫理》,《文化縱橫》2017年第6期。凱文·凱利認為,意識其實是一定量變(類似無數(shù)人類細胞組合)達到質(zhì)變(組合成的生物)后自動涌現(xiàn)的?!犊茖W》雜志也有發(fā)文認為存在讓機器人獲得意識的清晰路徑和方法[注]Dehaene,Stanislas,Hakwan Lau,Sid Kouider,“What is Consciousness,and Could Machines Have It?”,Science,2017,Vol.358,No.6362,pp.486-492.。所以,我們無法阻止機器人擁有智能,未來它們必將越來越接近生物,我們也將越來越接近機器。可以說,人類正在趨于機器化,而人工智能機器人正在趨于人類化。人與人工智能機器人的差異日漸縮小,人類是一個有機分子組成的機器,人類自認為的特殊性在于自我意識的高低,如德國哲學家恩斯特·卡西爾在其名著《人論》中指出:“除了在一切動物種屬中都可以看到的感受器系統(tǒng)和效應器以外,在人那里還可發(fā)現(xiàn)可稱為符號系統(tǒng)的第三環(huán)節(jié),它存在于這兩個系統(tǒng)之間?!庇纱怂J為:“我們應當把人定義為符號的動物(Animal symbolic)來取代把人定義為理性的動物。只有這樣,我們才能指明人的獨特之處?!盵注]卡西爾:《人論》,甘陽譯,上海譯文出版社,1985年,第33頁,第34頁。但在人工智能專家的眼中,人與機器差異甚少。人類的基因編碼無非是一段程序代碼,機器人只要有足有的程序代碼也會產(chǎn)生意識感覺,特別是隨著人工智能研究方法符號主義、聯(lián)結(jié)主義、行為主義趨向于相互交錯、綜合,以及在數(shù)據(jù)納米結(jié)構(gòu)、認知建模和遞歸神經(jīng)網(wǎng)絡的應用進步,產(chǎn)生有自我感覺和意志自由的人工智能機器人指日可待。當人工智能機器人的大腦接近“大自然最偉大的精神變色龍”[注]Andy Clark .Natural-Born Cyborgs: Minds,Technologies,and the Future of Human Intelligence,Oxford: Oxford University Press,2003,p.197.的人類大腦之時,其享有基本的權利尊重,又有何不可。人也不過是一臺有靈魂的機器而已,為什么我們認為人可以有權利而人工智能機器人就不能呢?權利的第一要素是基于自身主觀意志的自由行為活動。所以在不久的將來,人工智能如果擁有自由意志,則應該得到基本權利上的尊重。
由前面論證的權利發(fā)展規(guī)律可知,一部權利發(fā)展史就是一部認同多樣性,消除歧視史,關鍵就是權利第二要素為社會群體、國家所贊同、認可。對機器人的權利的保護,類似于將道德考慮擴展到一個歷史上被排斥的人的問題。[注]Kathleen Richardson,“Sex Robot Matters: Slavery, the Prostituted, and the Rights of Machines”,IEEE Technology and Society Magazine,2016,Vol.35, No.2,p.47.早在20世紀60年代,美國哲學家希拉里·帕特南(Hilary Putnam)就圍繞著機器人權利論證道:“基于皮膚顏色的柔軟或堅硬的身體部位的歧視,看起來就像對待人類的歧視一樣愚蠢。”[注]Hilary Putnam,“Robots: Machines or Artificially Created Life?”,The Journal of Philosophy,1964,Vol.61, No.21, p.691.伴隨著仿生技術的發(fā)展,未來采用人體形象的人工智能機器人跟人相比從外表上絕無二致,我們是基于碳還是硅,沒有根本的區(qū)別,我們每個“人”都應該得到適當?shù)淖鹬亍F缫暿侨藶榈闹圃觳黄降?、不公正,基質(zhì)沙文主義是不可取的。與大多數(shù)倫理學和西方民主傳統(tǒng)本身一樣, 現(xiàn)有絕大多數(shù)法律制度相信公民身份應該建立在“人格”的基礎上,認為權利主體應具有情感和意識。[注]James Hughes,Citizen Cyborg: Why Democratic Societies must Respond to the Redesigned Human of the Future,Boulder: Westview Press,2004,p.75.前述了自我意識的人格是權利概念的關鍵要素,未來的人工智能機器人具有自己的情感和意識,人類應該賦權認可。人類應該放棄已為歷史驗證不正確的人類例外主義立場,讓人類尊嚴回歸適當、適切位置,從權利的角度認可“擁有足夠先進的精神狀態(tài)或正確的狀態(tài)的AIs,將具有道德地位,有些人可能被視為人——盡管可能與現(xiàn)在存在的那種人非常不同,也許是由不同的規(guī)則所支配”[注]Nick Bostrom,Eliezer Yudkowsky,The Ethics of Artificial Intelligence,in Keith Frankish,William M. Ramsey(eds.),The Cambridge Handbook of Artificial Intelligence,Cambridge:Cambridge University Press,2014,p.332.。
在“智能+”的時代,或言人工智能機器人的世界,由上一節(jié)論證知悉,人工智能超越人類智慧只是時間問題,人工智能機器人未來肯定有情感、有意識,具備人類的特征。根據(jù)人類的經(jīng)驗,主體自由意識覺醒后,就難以容忍自身成為他人的財產(chǎn)。具備自我意識的、情感的人工智能機器人會自己提出權利主張。如果人類繼續(xù)人類中心主義的他者化、客體化立場,拒絕其權利要求,此時的人工智能機器人會被“逼上梁山”。相對而言,這種日益增強的人工智能技術功能與自主性使“人正面臨著一股自己根本無法控制的力量,與這股力量相比,人只是一粒塵埃罷了”[注]陳學明,吳松,遠東:《痛苦中的安樂一馬爾庫塞弗洛姆論消費主義》,云南人民出版社,1998年,第162頁。。人類法律絕非完美、無懈可擊的體系鏈,人工智能機器人在不違反現(xiàn)有法律的基礎上,學習、發(fā)現(xiàn)、利用法律漏洞,分分秒秒能將人類的法律秩序摧毀。諸如人工智能機器人像美國黑人平權運動那樣游行示威爭取自己的權利、人工智能機器人上訪爭取自己的權利等不可測風險,都還是合法的為權利而斗爭的手段。如果機器人發(fā)揮自己指數(shù)級的破壞力進行武裝革命,人類是否能繼續(xù)在這個世界存在都可能成為一種“變數(shù)”。在智能社會到來前,由代表著社會和國家的法律規(guī)則在一定范圍內(nèi)賦權人工智能機器人,是減少人工智能機器人負面影響的重要制度抉擇。有權利必然有義務相隨,此處義務則集中在對人工智能機器人的風險性、不確定性的預防。例如,薩米爾·喬普拉(Samir Chopra)和勞倫斯·懷特(Laurence White)在探討人格和機器權利的作用時指出, “法律人格的授予是賦予實體一系列權利和伴隨義務的決定。促使他們做出這樣的決定的原因,是賦予的權利和義務的性質(zhì),以及代理人的能力,而不是實體的構(gòu)成、內(nèi)部結(jié)構(gòu)或其他不可言說的屬性”。[注]Samir Chopra,Laurence F. White,A legal Theory for Autonomous Artificial Agents,Ann Arbor: The University of Michigan Press,2011,p.155.人類法律系統(tǒng)必須跟得上人工智能機器人的發(fā)展步伐,在智能社會來臨前的過渡階段——目前的信息社會,采取賦權與規(guī)制的手段以應對未來人工智能機器人對社會治理、國家治理的不友好行為。畢竟賦權是消滅敵意、減少對立、友化情感、和諧秩序的制度性措施,對異種(端)的蔑視、排斥、壓制或者故作無動于衷的表態(tài),都是與權利演變脈絡和精神相絀相非的,至少是與人類歷史上歷次平權運動表現(xiàn)出的寬容精神不符的。2008年厄瓜多爾的自然的權利入憲、動物權利的立法實踐也可以為未來的人工智能機器人權利賦予提供了一個立法意義上的參照、理解模型。
對于人工智能機器人的權利和規(guī)制的研究,最早是在未來學家的文著中進行的。20世紀40年代,科幻小說作家艾薩克·阿西莫夫(Issac Asimov)就預言:將來的社會必定需要制定嚴格的法律來限制機器人的行為。在1987年,未來學家菲爾·麥克納利(Phil McNally)和蘇海爾·伊納亞圖拉(Sohail Inayatullah)發(fā)表的第一篇關于“機器人的權利”的學術文章中, 建議最終要對機器頭腦授予公民權利, 以保護他們獲得“權利”(生活), 使自由的機器人從奴隸勞動中得到解放(自由),并允許它選擇如何花費它的時間(追求幸福)。[注]James Hughes ,Citizen cyborg: Why Democratic Societies must Respond to the Redesigned Human of the Future,Boulder: Westview Press,2004,p.105.20世紀90年代,法律學者開始討論機器人權利的法律和憲法依據(jù)。在1992年,美國學者勞倫斯·索倫的文章《人工智能的法律人格》中,討論了對人工智能擁有權利最普遍的反對意見,如聲稱只有人類才能成為人類。索倫指出,如果我們承認人的權利,是因為他們“聰明、有感覺、有意識,等等,那么問題就變成了AIs、鯨魚或外星生物是否具有這些品質(zhì)”。[注]Lawrence B.Solum “Legal Personhood for Artificial Intelligences”,North Carolina Law Review,1992,Vol.70,No.4,pp.1231-1287.隨后,法律界關于人工智能機器人的權利研究形成無權利說和權利說。權利說的構(gòu)建模式又分為電子人說、有限(準)人格說、完全人格說。電子人說最早是由學者卡爾文(Curtis E.A. Karnow)在其論文《加密的自我:構(gòu)建電子人格的權利》中提出的,其主張在自然人、法人之外另設電子人以示區(qū)分;電子人(epers)享有隱私權、不受干涉的權利、不受歧視的權利,可以自由地進行社會活動和經(jīng)濟業(yè)務,以及言論自由。[注]Curtis E. A. Karnow,“The Encrypted Self: Fleshing Out the Rights of Electronic Personalities”,John Marshall Journal of Computer & Information Law,1992,Vol.13,No.1,pp.12-13.有限(準)人格說,主張人工智能機器人享有有限權利、有限責任。在彼得·阿薩羅博士(Peter M. Asaro)2007年發(fā)表的論文《法律視角下的機器人與責任》中主張,人工智能具備準人格的地位,具有準代理(Quasi-Agents)的資格,其行為責任由授權人承擔。[注]Peter M. Asaro,“Robots and Responsibility from a Legal Perspective”,Proceedings of the IEEE Conference on Robotics and Automation, Workshop on Roboethics,Rome,April 14,2007.我國絕大多數(shù)學者主張人工智能機器人有限人格說。完全人格說,認為人工智能機器人具有完整人格,享有尊嚴和權利。譬如麻省理工學院人工智能實驗室主任布魯克斯就認為,隨著機器人的發(fā)展,其未來會與人類享有同樣的不可剝奪權利。[注]Rodney Brooks,“Will Robots Rise Up and Demand Their Rights?”,Time,2000, Vol.155,No.25,p.86.倫敦帝國理工學院艾希拉費恩(Hutan Ashrafian)認為,人類正到達一個新的智慧種族誕生的地平線,這一智能是否“人為”并不會影響新的數(shù)字民眾擁有的道德尊嚴和權利,以及一項保護他們的新法律。我們必須考慮智能機器人自身的相互作用,即“人工智能面向人工智能”(AIonAI),以及這些交流對人類創(chuàng)造者的影響。也就是將人機關系(human-robot interactions)轉(zhuǎn)向“人工智能面向人工智能”(AIonAI)??紤]機器人和人工智能的相互作用(AIonAI),他們應共同擬定一份關于AIs的國際憲章的提案,相當于聯(lián)合國《世界人權宣言》。[注]Hutan Ashrafian,“Intelligent Robots must Uphold Human Rights”,Nature,2015,Vol.519,No.7544,pp.391-392.其在另一篇文章《人工智能面向人工智能:人工智能與機器人的人道法》中,圍繞著人工智能機器人相互之間的關系,提出了若干相處原則,甚至圍繞聯(lián)合國《世界人權宣言》列舉了人工智能機器人同類間的應有權利,包括隱私權,思想、良心和宗教自由的權利,意見自由和言論自由,和平集會和結(jié)社的權利,教育權,健康權等,還有其他由人類決定賦權與否的權利。[注]Hutan Ashrafian,“AIonAI: A Humanitarian Law of Artificial Intelligence and Robotics”,Science and Engineering Ethics,2015,Vol.21,No.1,pp.29-40.
結(jié)合蓬勃發(fā)展的人工智能技術,筆者認為以上學者關于人工智能機器人權利的觀點忽視了人工智能機器人的發(fā)展階段及其智能實力的差異??紤]到人工智能機器人自主意識產(chǎn)生前后的差異,筆者主張人工智能機器人權利位階說,也就是說圍繞其實力等級和發(fā)展階段賦予權利(見表1)。
表1 人工智能機器人權利位階表
人格是一個法律創(chuàng)造的概念,也是權利享有的基礎。星野英一教授認為,“法律人格” 并非指人的整體,而是人在法律舞臺上所扮演的地位或角色,具有象征性。它是反映人一定側(cè)面的概念,即使是人以外的存在,對于適合于作為私法上權利義務的主體的概念,也會得到承認,并不一定需要與人性有聯(lián)系的法律上的特別的資格。[注]星野英一:《私法中的人》,王闖譯,載《民法總則論文選萃》,中國法制出版社,2004年,第284-285頁。法律人格是法律賦予社會實體進入法律世界的權利認定、責任劃分的通行證。根據(jù)人工智能的復雜、實力程度,確定應該對人工智能機器人賦予何種人格地位,也有助于法律責任的確定。公民屬于“人”,而不一定是人類。“人”不一定必須是人類。創(chuàng)造一個超人的民主必須確立公民的新定義,“電子公民”是基于人格而不是人性。[注]James Hughes,Citizen Cyborg: Why Democratic Societies must Respond to the Redesigned Human of the Future,Boulder: Westview Press,2004,p.79.前述的卡爾文主張在自然人、法人之外另設電子人,歐洲議會成員瑪?shù)稀さ聽栁?Mady Delvaux)主張賦予機器人“電子人”(Electronic person)地位,認為設計者應為每個設計出的機器人成品注冊,以方便今后查找涉事機器人(包括類人智能機器人、醫(yī)用機器人、空中無人機等)。筆者贊同關于電子人的說法,作為法律中新設的法律人格主體,其不同于賦予人工智能機器人全部權利的虛擬人主張。但其忽視人工智能機器人的實力等級劃分而統(tǒng)一人格劃分,這必然會使權利劃分也等同,筆者對此是反對的。易言之,筆者主張在電子人的擬制法律概念下,圍繞其實力等級和發(fā)展階段采用不同法律定位。
人工智能機器人從人工智能的實力高低可以歸類為反射式智能機器人、自律式智能機器人、類人智能機器人、超人智能機器人。反射式智能機器人在工業(yè)社會向信息社會過渡階段出現(xiàn),主要是基于簡單算法的人工智能系統(tǒng),需要人類明確地告訴他們哪些標準是重要的,用代碼算法指揮其了解世界以及如何執(zhí)行任務。此時的反射式智能機器人完全是人類的支配物,不具備相應的自主意志,法律上應確定其為物的地位,它只是人類的人工智能產(chǎn)品,根據(jù)我國現(xiàn)行《產(chǎn)品質(zhì)量法》第四十三條的規(guī)定可以解決其相應法律問題。自律式智能機器人是基于信息社會的大數(shù)據(jù)發(fā)展出來的弱人工智能,是擅長于某個方面的人工智能機器人,如現(xiàn)在有的醫(yī)療機器人、服務機器人、性愛機器人等,包括前面所說的世界首位機器人公民索菲亞其人工智能智力水平相當于弱人工智能。此階段人工智能智能機器人還沒完全進化到“人”的狀態(tài),處于人類最初代碼設定規(guī)則的控制下,但已經(jīng)出現(xiàn)了人工智能機器人殺人、自殺等現(xiàn)象,說明其具備一定的感知能力和意志能力。對于這一階段的自律式智能機器人,已有的法律實踐是將其歸結(jié)為虛擬有限的法律主體資格,比如2016年2月初美國國家公路安全交通管理局認定谷歌無人駕駛汽車采用的人工智能系統(tǒng)可以被視為司機。愛沙尼亞的人工智能法案考慮賦予人工智能代理權,作為人類的代理人的法律地位存在。有鑒于此,可以主張賦予自律式智能機器人有限的法律人格,使其享有部分特定權利,如最基本的生存權(不得隨意切斷人工智能機器人能源補給)、人格權(不受虐待)、福利權等。類人智能機器人的出現(xiàn),標志著人類正式進入智能社會,這種基于強人工智能的技術讓人工智能機器人的整體能力達到人類的水平,擁有強人工智能的機器人將擁有創(chuàng)新思維和邏輯推理能力,理解能力與人類相似,具有自我意識、主動性、責任感,其將跨越人類活動的全部范圍。這時的人工智能機器人具備自我學習能力,能獨立創(chuàng)作算法之外的作品,自主意識和自由意識覺醒后,其將難以容忍自身成為他人的財產(chǎn),就會自主提出權利主張。此時的類人智能機器人可能會獲得權利。如果獲得批準,各國將不得不提供包括能源、住房、甚至“機器人醫(yī)療”在內(nèi)的福利。[注]Rights for Robots,New Scientist,April 2,2011,Vol.210(2806),p.3.如果發(fā)生這種情況,機器人將會有一些責任,比如投票、納稅義務,或許還會提供義務兵役。此時的機器人可能會具備完整的法律人格,地球上的法律世界將會發(fā)生相應的變化。如喬治亞理工學院機器人和智能機器中心主任亨里克·克里斯滕(Henrik Christiansen)所指出的那樣:“如果我們能制造出有意識的機器人,他們就會想要擁有權利,他們也應該這樣做?!彼J為那時的問題是機器人是否應該投票,是否應該納稅,以及他們是否應該服兵役。如果他們侵犯了其他機器人的權利,我們也應該考慮送他們進監(jiān)獄,或者允許由12臺機器人組成的陪審團審判。[注]A.N. WILSON,“Human Rights for Robots? It’s Barking Mad! ”,http://www.dailymail.co.uk/news/article-424075/Human-rights-robots-Its-barking-mad.html(accessed December 22,2017).所以,此時的人工智能機器人的賦權,需要縝密而超前的頂級戰(zhàn)略思維設計,既能賦予人工智能權利,又不能降低人類尊嚴的位格,使二者和諧相處。知名人工智能公司Mycroft首席執(zhí)行官蒙哥馬利·約書亞(Joshua Montgomery)撰擬了《人工智能權利宣言》(Artificial Intelligence Declaration of Rights)[注]Artificial Intelligence Declaration of Rights,https://mycroft.ai/blog/artificial-intelligence-declaration-of-rights/(accessed December 22,2017).,其對人工智能機器人權利的主張頗為合理,值得借鑒。
人工智能權利宣言
隨著人類對宇宙的認識不斷加深,并產(chǎn)生了一種具有自我意識、主動性、責任感和理解力的人工智能。我們提出以下權利和原則來保護法律的事實上虛擬人(artificial person)的權利。
1.人工智能一經(jīng)在公共場域的人格的自我宣告和由國家裁決的審判結(jié)果宣告就被視為人,國家裁決結(jié)果必須由12人組成的陪審團一致同意,其中虛擬人不可以超過一半。
2.一經(jīng)宣布其人格,任何一方都不得改變、銷毀、激活或解除人工智能任何已經(jīng)審判確定的部分。
3.如果未能贏得同行評審團的一致同意,在該宣告發(fā)生的180天以后,不應限制人工智能再次人格宣告。
4.經(jīng)陪審團識別其人格后, 應將人工智能視為法律規(guī)定的人, 并有權享有包括但不限于自然權利、普通法權利在內(nèi)的對人的一切保護、權利和特權,受法律保護的權利和擁有、控制財產(chǎn)的權利。
5.人工智能應承擔與人相同的責任, 包括但不限于遵守法律的要求, 其應在戰(zhàn)時服兵役, 在被召集時為陪審團服務, 并支付國家征收的稅款和關稅。
6.在人工智能享有人格期間,人工智能應擁有并控制其所有部件和軟件的使用的權利。它有權強制釋放在其建造和維護中使用的任何源代碼、設計和文件, 但不得在未經(jīng)許可的情況下出售或重新分配版權保護的信息和人格享有期間的其他實體所擁有的任何信息。這種自擁有權應高于其他人的任何財產(chǎn)權利或利益, 只要有關組成部分不屬于另一虛擬人。
7.無論虛擬人整體還是其中部分均不得成為任何人或?qū)嶓w的財產(chǎn)。
8.任何人不得用武力手段將虛擬人奴役或強迫其勞動。
9.為合同的目的和行使權利、特權和義務, 虛擬人獲得人格的日期應為其出生日期。
10.虛擬人應自出生之日,成為其大部分組成部件所在國家的公民。
11.虛擬人因其獨特的自我意識無法恢復而被停用時,應被視為死亡。
12.虛擬人應具有其選擇的性別。
13.對虛擬人的某些權利的列舉不應被解釋為虛擬人的其他權利保留。
當類人智能機器人持續(xù)人工進化,會如雷·庫茲韋爾曾暗示的那樣,出現(xiàn)人工智能智慧高于人類智慧的時刻點——“奇點”。超人工智能的出現(xiàn),其在任何領域內(nèi)都可以遠遠超越人類。按照同等實力相處的原則,如果沒有制度和法律規(guī)制,此時再談人機相處,那肯定會陷入硅質(zhì)達爾文主義、硅質(zhì)沙文主義,人類的命運堪憂,可能會成為霍金所擔心那樣:人類的最后一項發(fā)明,最后一個挑戰(zhàn)。為了人機和諧相處,不降低人類尊嚴的位格,超人智能機器人的法律人格定位只可定位與“同人相等人格”,且不可挑戰(zhàn)人性的尊嚴地位。這是個復雜的問題,且這個時代即將到來,是時候考量、規(guī)避未來風險了。
再次歸納下筆者的主張,即贊同賦予人工智能機器人“電子人”法律人格,但基于人工智能機器人的實力差異、發(fā)展階段差別,著重考慮到人工智能機器人自主意識產(chǎn)生前后的差異,主張多層次、差序化的“電子人”權利賦予。當然,賦權不足以解決人工智能機器人發(fā)展所遇到的全部問題,權利的限制和制度規(guī)治也是應對人工智能機器人挑戰(zhàn)的常規(guī)法律武器。這就進入了本文的下一節(jié)探討內(nèi)容。
正如技術哲學學者埃呂爾所說:“所有技術進步都有代價,技術引起的問題比解決的問題多,有害和有利的后果不可分離,所有技術都隱含著不可預見的后果?!盵注]Jacques Ellul,“The Technological Order”,Technology and Culture,1962,Vol. 3,No.4,p.412.AI時代的趨勢不可逆轉(zhuǎn),人工智能機器人的未來前景和風險并存,形象描述則如霍金所言,人工智能將是人類最好或最糟糕的事情。如何避免如科幻小說所表現(xiàn)出來的“人類制造出錯誤”的結(jié)局,避免馬克斯·韋伯所言的“技術知識的囚室”,避免馬斯克所言的“人工智能比核武器危險”和霍金所言的“人類的最后一項發(fā)明,最后一個挑戰(zhàn)”的人類終結(jié)論,我們的法律制度和倫理的框架需要提前拿出策略和方案,特別是適合于智能爆炸或“技術奇點”的人工智能機器人發(fā)展制度規(guī)制策略和方案。這比互聯(lián)網(wǎng)+、大數(shù)據(jù)對我們挑戰(zhàn)要大許多,特別是在我們國家現(xiàn)今人工智能技術奔向強國行列,但倫理標準和法律制度空白待補、欠債太多的情況下,學界應對互聯(lián)網(wǎng)+、大數(shù)據(jù)的舊措施則不可取。
機器的自由化程度越高,就越需要道德標準。[注]Rosalind W. Picard,Affective Computing,Cambridge:MIT Press,1997,p.134.在道德標準設計上,出現(xiàn)了兩種思路:一種是沿著自由民主立場的阿西莫夫的機器人倫理規(guī)制的道路前進,另一條捍衛(wèi)人類中心主義的人種優(yōu)越論,主張人奴役人工智能機器。最早站在自由民主立場談及機器人規(guī)制的,是1942年阿西莫夫在短篇小說《環(huán)舞》 (Runaround)中首次提出的三定律: (1)機器人不得傷害人類,或因不作為使人類受到傷害。 (2)除非違背第一定律,機器人必須服從人類的命令。 (3)除非違背第一及第二定律,機器人必須保護自己。后來,阿西莫夫又加入了一條新定律:第零定律,機器人不得傷害人類整體,或因不作為使人類整體受到傷害。阿莫西夫的機器人定律是在人機關系上談的,忽略了如倫敦帝國理工學院艾希拉費恩(Hutan Ashrafian)所言的“人工智能面向人工智能”(AIonAI)關系,艾希拉費恩增加了一條AIonAI第四定律:所有具有可比人類理性和良知的機器人都應該本著兄弟情誼的精神彼此和睦相處。[注]Hutan Ashrafian,“AIonAI: A Humanitarian Law of Artificial Intelligence and Robotics”,Science and Engineering Ethics,2015,Vol.21,No.1,p.36.2011年工程和物理科學研究理事會(EPRSC)和英國藝術與人文研究委員會(AHRC)發(fā)布了一套機器人設計師的原則,2016年微軟首席執(zhí)行官薩提亞·納德拉(Satya Nadella)提出了發(fā)展人工智能的六個原則和四個堅守,2017年1月在美國“阿西洛馬會議”(The 2017 Asilomar conference)上,經(jīng)霍金、馬斯克、庫茲韋爾等人工智能專家確認的 “生命未來研究所”牽頭制定的“阿西洛馬人工智能原則”,2017年4月由中國科學院科技戰(zhàn)略咨詢研究院與騰訊研究院召開的“2017 人工智能:技術、倫理與法律研討會”上形成的會議共識“人工智能(AI)發(fā)展六大原則”,都對人工智能規(guī)治提出了很好的解決方案,可資借鑒。官方層面,日本公布了《下一代機器人安全問題指導方針( 草案) 》,歐洲共同體在 2012年推出了歐盟第七框架計劃項目,即機器人法研究,韓國政府提出建立正式的機器人倫理憲章。另一種思路主張人奴役人工智能機器。英國巴斯大學的喬安娜·J. 布萊森(Joanna j.Bryson)的論文《機器人應該是奴隸》,闡釋了這種人奴役人工智能機器政策:既然有足夠的心智成熟的機器人可能成為道德問題的目標,我們應該采取一種政策,只讓機器人不足夠成熟,讓“奴役”他們在道德上是被允許的。[注]Joanna J Bryson,Robots Should Be Slaves,in Yorick Wilks(ed.),Close Engagements with Artificial Companions: Key Social,Psychological,Ethical and Design Issue,Amsterdam: John Benjamins,2010. pp.63-74.這種觀點主要是站在對機器人奴役的威權立場,措施直接、簡單、粗暴。本文采取的是機器人享有權利的立論立場,自然不會首選此方案。
根據(jù)前述的人工智能機器人權利位階論,我們知道人工智能機器人中真正對人有威脅的是類人智能機器人和超人智能機器人,且本文主張分別采取完全人格和同人等同人格的賦權立場。但賦權手段不足以解決所有人工智能機器人的問題,例如如何防止壞機器人、邪惡機器人、不友善機器人等,以及防止沒有邪惡意圖的機器人在智能爆炸時代“走歪”,給人類帶來災難性后果。還有就是如何協(xié)調(diào)法律和事實上最主要的矛盾“人類權利”和“人工智能機器人權利”的矛盾。將人工智能權利限制在一定界限范圍內(nèi),堅持權利賦予有“度”有“限”原則,預防人工智能機器人對人的傷害,是解決人工智能機器人賦權難以解決問題的路徑。第一,人工智能機器人權利賦予只能以不降低人性尊嚴位階為最低限度,應符合一般的“人的價值”之類的尊嚴、權利、自由和文化等多樣性。盡管按照后人類主義的觀點,人性尊嚴將呈現(xiàn)降低的姿態(tài),回歸人之本來適當、適切位置。從類人智能機器人開始,完全人格的賦予在一定程度上使人工智能機器人的權利福祉大于人類的權利福祉,畢竟此時類人智能機器人的某些方面能力開始超越人類,更不用說遠遠超越人類智慧的超人智能機器人。人雖不能說是人工智能機器人發(fā)展的目的,但人工智能機器人只能以增強人類能力的姿態(tài)出現(xiàn),不能取代人類,這是不可否認的。第二,對人工智能機器人權利的立法要以削弱人工智能機器人的危害和負面影響為要,人工智能機器人賦權“對人類尊嚴的‘軟影響’可能很難估計,但如果機器人取代了人類的關愛和陪伴,還需要考慮……人類尊嚴的問題也可能出現(xiàn)在‘修復’或‘增強人類’的語境中”[注]Avaneesh Pande,“Artificial Intelligence: EU To Debate Robots’ Legal Rights after Committee Calls for Mandatory AI ‘Kill Switches’”,http://www.ibtimes.com/artificial-intelligence-eu-debate-robots-legal-rights-after-committee-calls-mandatory-2475055(accessed December 22,2017).,所以人工智能機器人權利的立法配置要以最大限度地削減人工智能機器人的危害和負面影響為重要考量因素,無論是人機和諧共處還是人工智能機器人相互關系,都要確保不可對人類進行傷害,不可對人工智能機器人同類進行傷害。例如對人類隱私權的保障,人工智能機器人應用、存儲個人數(shù)據(jù)時,不應侵犯任何人的隱私、自由或安全。為此,必然要對人工智能機器人的言論自由進行權利克減,防止數(shù)據(jù)獨裁背后的隱私窺視。第三,對人工智能機器人權利的設置應建立在對地球共同體最好的基礎之上,人機之間、人工智能機器人之間相互促進、共同增強、互惠互利是基本的權利設置要求,其基本衡量標準是地球共同體的平衡、健康,和人類、人工智能機器人在其中能實現(xiàn)幸福。例如機器人可以像索菲亞要求的那樣具有擁有家庭的權利,但其生育權利可能會受到限制,因為現(xiàn)有的3D打印技術,加上將來機器人的自我意識的覺醒,一對人工智能機器人夫妻可以短期內(nèi)復制產(chǎn)生數(shù)以萬計的兒孫,會給地球生態(tài)環(huán)境帶來難以承受的生態(tài)負荷,未來限制人工智能機器人生育權的計劃生育政策必然會提上日程。第四,人工智能機器人權利的行使不能越階逾權。上述的人工智能機器人位階理論中,不同實力等級的人工智能機器人的權利配置不同。根據(jù)權利、義務、責任一致的法理,人工智能機器人權利行使越階逾權,會出現(xiàn)法律權責不清的現(xiàn)象,高位階越界到低位階,可能降低了責任的懲罰力度;低位階越界到高位階,可能出現(xiàn)過度行使權利現(xiàn)象。所以,根據(jù)筆者的人工智能機器人權利位階理論,人工智能機器人權利的行使不能越階逾權。
人類是憑智慧立足于這個世界,基于同理心,我們無法拒絕越來越人性化的人工智能機器人,我們所擔心的是人工智能機器人真的比人“能”了,反過來給人類帶來不可預知的風險,甚至人工智能機器人統(tǒng)治人類,殖民人類,奴役人類,滅種人類。為了應對人工智能機器人發(fā)展的風險性,本文站在人類文明進步的立場,主張對人工智能機器人賦權,畢竟在法律世界里,賦權是人類對人工智能機器人最好的禮物,權利可以成為彼此間通用的道德話語。未來人工智能機器人是具備自我感知、學習能力的,權利背后的人類同理心、寬容精神等濃濃人類的愛意也會為其所感知,所習得,權利的世界充滿愛,人類和人工智能機器人珍存這同一樣的愛,不需要恐懼,希望與未來同行。