亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        人工智能法律主體論:現(xiàn)在與未來*

        2023-01-08 10:15:36范進學
        政法論叢 2022年3期
        關鍵詞:權利主體機器人

        范進學

        (上海交通大學凱原法學院, 上海 200030)

        六十多年來,人工智能發(fā)展經(jīng)歷了“從寒冬到野蠻的生長”。[1]P9伴隨著人機交互、機器自主學習、自主操控、模式識別、跨界融合等技術的不斷提升,人工智能已成了這一技術的新趨勢。從人類經(jīng)歷的哥白尼革命、達爾文革命、神經(jīng)科學革命,到現(xiàn)在的第四次新科技革命——圖靈革命①使當今世界邁入了一個“與機器人共舞”的時代——“機器人時代”。王利明教授指出:人工智能時代已經(jīng)來臨,它不僅改變?nèi)祟愂澜纾矔羁谈淖內(nèi)祟惖姆芍贫?。[2]P4近幾年,我國學術界——從道德、倫理、哲學界到知識產(chǎn)權法學、刑法學、民法學、法學理論等法學界的研究學者,圍繞人工智能的道德倫理哲學以及法律主體、權利主體(包括民事主體、刑事主體)、法律責任等法律問題,多維度、多視角、多方法展開了深入研究與探討,取得了一批高質量的學術研究成果。這些研究成果都或多或少觸及到人工智能法律主體這一核心問題。應當說,人工智能法律主體問題是所有道德、法律問題的實質與關鍵。本文擬在已有的學術研究成果基礎上,以人工智能技術發(fā)展為依托,分析正反觀點之是非,反思其中存在的問題,進一步厘清作為人工智能的法律主體、權利主體、義務主體、責任主體之間的異同,并針對現(xiàn)在與未來的人工智能提出差序化的法律主體與權利理論,以應對經(jīng)濟社會發(fā)展的需求與新技術革命對未來法治所帶來的挑戰(zhàn)。

        一、引論:為何討論人工智能法律主體問題?

        研究人工智能和機器人倫理與權利的美國學者貢克爾說:“無論我們是否意識到,我們已經(jīng)處于機器人侵入之中。如今,機器無處不在,幾乎無所不能:我們與它們在線聊天,同它們玩數(shù)碼游戲,同它們協(xié)同工作,依賴它們管理我們?nèi)找鎻碗s的由數(shù)據(jù)驅動的生活。因此,‘機器人侵入’并非像科幻小說那樣,將來會有一群邪惡的機器人從天而降,肆意掠奪我們,它們事實上已經(jīng)出現(xiàn),不同配置和功能的機器已經(jīng)邁著緩慢而堅定的步伐侵入我們的世界,以期在其中占有一席之地。與其說像美國科幻電視連續(xù)劇《銀河戰(zhàn)星》所展示的情景,莫不如說更像羅馬帝國在日爾曼人的入侵下轟然倒塌的歷史事實。”[3]既然以人工智能為技術的智能服務在人類的生產(chǎn)與生活中日益普及與廣泛,那么人們自然會提出這樣的問題:它們在人類法律體系中處于何種地位?智能機器、自動算法程序或其他自動系統(tǒng)為它們所做的決定或采取的行動是否承擔法律上的責任?人工智能所導致的錯誤是人的錯誤還是機器的錯誤抑或人與機器的共同錯誤?人工智能創(chuàng)造的作品著作權歸屬是由人工智能本身所有還是自然人或法人所有?與人工智能機器人是否可以結婚?等等,這些法律問題并非是虛構的,而是已經(jīng)在現(xiàn)實生活頻發(fā)。就已出現(xiàn)的法律問題而言,概括起來,大致涉及以下五類問題:

        第一,公民身份問題。譬如2010年11月7日,日本一個海豹寵物機器人“帕羅”(Paro)獲得了戶籍,而“帕羅”的發(fā)明人在戶口簿上注明的身份是父親。[4]P872017年10月26日,沙特授予機器人“索菲亞”公民身份,這成為歷史上第一個具有公民身份的機器人。擁有戶籍或公民身份的前提是法律主體或權利主體資格的賦予,具有戶籍才能享有法律權利,具有國籍才能享有公民權利。有學者指出:公民身份絕非簡單的一紙空文,而是一個人在國家法定身份的延伸。機器人“成為公民” 只是第一步,如何“作為公民”享有權利、履行義務,才是接下來令人期待的重頭戲。[5]值得一提的是,沙特阿拉伯政府賦予索菲亞諸多特殊權利,比如不戴頭巾、不穿罩袍便可以四處奔走的自由權,而這些權利對于傳統(tǒng)伊斯蘭世界的女性而言是不可能的。在瑞士,雇主要像對待他的雇員一樣為機器人納稅;在日本,一些公司要替機器人繳納工會費。[6]P55這些事例都說明對人工智能法律主體的某種程度的承認。

        第二,與人工智能機器人婚姻問題。隨著AI機器人的功能的不斷完善與發(fā)展,人機婚姻不僅是可能的,而且也是現(xiàn)實的。不過,一旦實現(xiàn)了人類與機器人的婚姻結合,就會出現(xiàn)機器人的法律地位問題,機器人是否具有結婚權或離婚權以及收養(yǎng)權?其婚內(nèi)權利如何保障?機器人如何繼承婚后遺產(chǎn)?現(xiàn)實世界中,國內(nèi)外已經(jīng)出現(xiàn)了與人工智能機器人結婚的問題,據(jù)報道,在日本,一名35歲的男子和“初音未來”結婚了。國內(nèi)一個研究人工智能的研究生在母親、同學的見證下,與一個叫瑩瑩的機器人結婚。②有國外學者預測:按照現(xiàn)如今AI智能的發(fā)展,到2045年,人類與機器人結婚或將可以初步實現(xiàn);再到2050年的時候,人與機器人的婚姻將正?;?。③

        第三,民事責任分配問題。1972年,美國一家保險公司與原告簽訂了一份保險協(xié)議,由于計算機錯誤,向原告發(fā)送了一項保險更新的通知,而原告基于此通知做出了改變原來保險的行為,法院認為原告基于對該通知的信任作出的改變保險行為當然有效。該錯誤后果應由被告承擔,計算機則作為被告的代理人。[7]P453在我國曾發(fā)生的許霆ATM機盜竊案,也涉及到智能機器的民事責任問題?!白詣尤】顧C”到底是單純的機器,還是由銀行授權的法律上的“代理人”?隨著智能無人駕駛汽車出現(xiàn),“司機”已非傳統(tǒng)人工司機,而是智能駕駛系統(tǒng),使用者由傳統(tǒng)的司機變成了“乘客”。2016年2月4日美國國家公路交通安全管理局在致谷歌的一封信中就承認了谷歌公司自動駕駛系統(tǒng)可以被合理地視為車輛的合法駕駛員,而不是車輛所載的人員。[8]此時因無人駕駛汽車所引發(fā)的交通事故法律責任到底由哪個法律主體承擔?如果在設計者、生產(chǎn)者和使用者均無過錯情況下,由他們來承擔全部法律責任,將會導致不公平。

        第四,知識產(chǎn)權歸屬問題。2017年5月,北京聯(lián)合出版有限公司出版了“人類史上首部人工智能靈思詩集”——《陽光失了玻璃窗》,作者署名是人工智能“小冰”。試問,“小冰”是否是該詩集的真正作者?能否享有著作權?對此,有學者指出:如果“小冰”對其文字作品擁有著作權,按照現(xiàn)行著作權法規(guī)定,小冰將擁有著作人身權(發(fā)表、署名、修改、保護作品完整等)和著作財產(chǎn)權(復制、演繹、傳播等)。如果作品的著作權被侵犯了,如何行使權利?如果著作的人身權由機器人的所有人或控制人代為行使,財產(chǎn)權由機器人的所有人或控制人擁有、行使,則人與機器人之間是代理關系嗎?人是機器人的代理人嗎?機器人有委托人類的權利嗎?[9]無獨有偶,2018 年9月9日,原告菲林律師事務所發(fā)表了一篇《影視娛樂行業(yè)司法大數(shù)據(jù)分析報告》的文章。此作品是人工智能“威科先行庫”對數(shù)據(jù)信息進行加工處理、匯編創(chuàng)作而成,“威科先行庫”是文字作品的創(chuàng)作者。同年9月10日,被告百度網(wǎng)訊科技有限公司對《分析報告》的某些內(nèi)容作了修改刪除。據(jù)此,原告向法院主張被告侵害了其署名權、保護作品完整權等著作權。最終北京市互聯(lián)網(wǎng)法院認定“威科先行庫”創(chuàng)作的《分析報告》不屬于著作權法保護的作品范圍。④對此,有學者指出:此案爭議焦點是,人工智能“威科先行庫”所創(chuàng)作的生成物是否屬于著作權法上的作品? 如果屬于作品的范疇,那么,人工智能生成物著作權是其本身所有還是相關主體所有?[10]同樣針對人工智能生成作品的著作權問題,在深圳騰訊公司訴上海盈訊公司著作權侵權案中,深圳市南山區(qū)人民法院卻作出了截然相反的裁定,法院認為涉案軟件技術“生成”的創(chuàng)作過程滿足著作權法對文字作品的保護條件,屬于我國著作權法所保護的文字作品。⑤學術界對人工智能生成作品是否屬于著作權法上的作品亦存在肯定[11][12]和否定[13][14]]兩種不同觀點。2000年《愛爾蘭版權及相關權利法》將計算機生成 作品定義為“作品由計算機生成的,作品作者不是個人”。[15]

        第五,刑事責任承擔問題。譬如一家澳大利亞聊天機器人公司創(chuàng)建了一個名叫“我的完美女友”服務項目,結果實際上成了一家數(shù)字妓院。[1]P220這就直接涉及刑事責任問題。有學者進而提出了:如果某人組織智能機器人提供“性服務”或“淫穢表演”,那么刑法如何調整?這屬于刑法上的“組織賣淫罪”或“組織賣淫表演罪”、“傳播淫穢物品罪”?[16]至于機器人“殺人”或致人死亡的事件在世界各地頻發(fā)。⑥英國未來實驗室專家預測,“到2040年機器人犯罪將超過人類,成為大多數(shù)犯罪的主體”。[17]如果機器人犯罪,將會產(chǎn)生一系列棘手的法律問題:機器人是否存在犯意?如何懲罰?重新編制程序還是肢解毀掉?設計者、制造者和使用者是否承擔連帶責任?等等,而事實上今天的法制尚無法應對這種發(fā)展趨勢。

        因人工智能技術發(fā)展而出現(xiàn)的上述現(xiàn)實性法律問題,業(yè)已構成了對既有道德、倫理與法律體系前所未有的挑戰(zhàn),而上述所有法律問題的實質皆聚焦于人工智能法律主體問題。換言之,無論是國籍、戶籍等身份問題、婚姻問題、民事與刑事責任分配與承擔問題以及人工智能生成作品的知識產(chǎn)權問題,都面臨著人工智能在法律上的地位問題,即能否獲得法律上的主體資格。從目前學者們關于人工智能法律地位的研究可以看出,許多學者都意識到了該問題的重大意義,譬如有學者指出,法律主體的確定對解決任何爭議都至關重要,只有先確立法律主體,才能討論法律責任的分配問題。[18]也有學者指出:是否賦予人工智能法律主體地位是所有人工智能法律關系的先決問題。[19]P242為此,國務院于2017年在《新一代人工智能發(fā)展規(guī)劃》中針對人工智能發(fā)展的不確定性所帶來新挑戰(zhàn)以及可能構成對法律與社會倫理、侵犯個人隱私等沖擊問題,極具前瞻性地提出了人工智能時代下的開展法學研究課題的時代要求,重點研究包括加強人工智能相關法律、倫理和社會問題研究,開展與人工智能應用相關的民事與刑事責任確認、隱私和產(chǎn)權保護、信息安全利用等法律問題,明確人工智能法律主體以及相關權利、義務和責任等。因此,法學研究必須針對上述國家和社會迫切需要解決的法律問題提出完善的方案與對策。

        二、人工智能法律主體論之是與非

        目前國內(nèi)外學界關于人工智能法律主體問題的討論在觀點上呈現(xiàn)一種嚴重分歧與對峙的現(xiàn)象,一些學者就人工智能法律主體資格持一種肯定的立場,也有不少學者對此予以否認。不過,無論是肯定或否定,關于人工智能法律主體資格問題的討論,多數(shù)針對人工智能法律主體問題泛泛而論,未明確限定“人工智能”歷史階段性,忽略了人工智能的強弱之分。嚴格而言,現(xiàn)在的人工智能尚屬于弱人工智能,其法律地位與未來的強人工智能或超級人工智能的法律地位是無法比擬的。按照美國哲學家約翰.塞爾最初關于弱人工智能與強人工智能的哲學定義,弱人工智能是指在研究大腦中計算機的主要價值在于為我們提供一個非常強大的工具;而強人工智能則指在研究大腦中計算機不僅僅是一種工具,裝入適當程序的計算機事實上就是大腦,在該意義上,賦予適當程序的計算機實際上能夠理解并具有認知能力。[20]P417當前相關研究文獻往往把弱人工智能誤用為“窄”人工智能,用以指代那些不能復制人類感知和意識、僅能完成單一和范圍狹小任務的智能應用(如專家系統(tǒng)、推薦算法、人臉識別、人機對話、機器翻譯等);而強人工智能仍處于科幻領域,正如華盛頓大學法學教授瑞安.卡羅所說:“弱或窄人工智能正是當今的現(xiàn)實”。[21]主導香港漢森機器人公司創(chuàng)造機器人索菲亞的世界級人工智能專家本.戈澤爾指出:“今天使用的‘人工智能’程序還非常原始,它是否具有道德地位不足以構成一個嚴肅的話題。從某種意義上說,它們在有限的領域里是智能的,但缺乏自主權,它們由人類所操縱。如果這樣的人工智能程序被用于做一些不道德的事情,就需要操縱它做這些事情的人來承擔責任。在不遠的將來,情況將會有所不同。人工智能制品將擁有真正的通用人工智能(AGI),它不僅模仿人類智能,而且可以與人類智能匹敵,甚至可能超越人類智能。在這種情況下,通用人工智能是否具有道德地位將成為一個非常重要的議題”。[22]因而,人工智能研究應當包括強弱研究之分,在弱人工智能階段,人工智能是否具有法律主體資格以及具有何種程度的法律地位需要研究;而在強人工智能階段,人工智能的法律主體資格也將會是一個極其重要的議題。因此研究人工智能法律主體地位的學者必須明確其所研究的對象是什么,是弱人工智能或是強人工智能,從而產(chǎn)生不同的法律意義。

        (一)人工智能法律主體論之是

        關于人工智能具有道德主體資格或擁有權利的法律主體資格等學術問題,在國外學者的研究中成為一種流行觀點。持肯定觀點的學者(包括哲學家與法學家)通常認為,盡管當前人工智能能力有限、地位不高,但它在不久的將來會具備一個道德主體所必需的充分條件,即它是一個擁有權利的某人而不是單純的物品。[3]P100哈佛大學哲學家希拉里.普特南指出:“我曾把判斷機器人是否擁有意識所面臨的問題視為機器人的‘民權’問題,因為機器人擁有‘民權’的這一天可能會來臨,而且來的速度可能比我們預期的還要快。基于技術革新和社會變革的速度日益加快,完全可能有那么一天,機器人會存在,并宣稱:‘我們有生命!我們有意識!’這樣的話。”[23]P668-691德國多特蒙德工業(yè)大學哲學教授諾伊豪澤爾也認為:“如果有一天機器人具備了感受能力,我們可能不得不賦予它們道德主張權”。[24]P1332008年1月15日由倫敦生物中心主辦的題為“機器人與權利:人工智能會改變?nèi)藱嗟暮x嗎?”研討會上,牛津大學哲學教授尼克.波斯托姆區(qū)分了弱人工智能、強人工智能與超級人工智能,他指出:“工業(yè)機器人或特定領域的人工智能算法,是我們今天社會上存在的一種人工智能;有感受能力或有意識的人工智能,我們可能會認為它們具有道德地位”;他承認:“工具本身是沒有道德地位的,今天的機器人同樣沒有道德地位。如果機器人的認知能力和其他多方面的能力達到了老鼠或其他動物的水平,那么人們將考試思考它們是否同時也獲得了感受能力。如果答案是肯定的,那么人們就會認為它們具備道德地位?!盵25]美國加利福尼亞大學哲學教授埃里克·施維茨格貝爾與瑪拉.加爾薩在《為人工智能辯護》一文中指出:“我們有一天也許會創(chuàng)造出人類級別的人工智能實體。我們所謂的人類級別的人工智能是指在智力和情感上與人類相似的人工智能,它們具備像人類一樣的思考理性和實踐理性,以及像人類一樣的感受快樂與痛苦的能力。我們應該給予這樣的人工智能類似于人類那樣的道德地位或‘權利’?!盵26]P98-99

        從上述觀點看,西方哲學界主張人工智能具有道德地位與道德權利的學者雖然持肯定性觀點,但普遍認為,只有未來的人工智能才具有類似人類的認知能力與感知能力,從而給予其道德關懷或權利;換言之,關于人工智能道德地位與權利的觀點是建立在人工智能達到一定認知能力與感知能力的水平上,然而這些能力在目前仍是一種推測。胡坦.阿什拉菲安指出:當前的人工智能系統(tǒng)和機器人不需要權利,我們甚至不需要問這個問題,因為它們只是人類行動的工具。不過他承認,這種情況最終會被“具有自我意識、理性和感受能力的未來人工智能所超越”。[27]P323關于人工智能權利問題,上述觀點均采取了一種保守與觀望的態(tài)度,至少在具有認知能力的未來人工智能到來之前,沒有考慮賦予它們以權利。

        法學界持肯定觀點的學者幾乎同樣將人工智能權利問題賦予給了未來的人工智能。美國南加州大學法學教授斯通指出:在每一場試圖把權利賦予某些新的“實體”的運動中,相關的提議不可避免地都讓人感覺是奇怪的或可怕的,抑或可笑的。部分原因在于,在無權利的事物獲得權利之前,我們僅僅把它們視為供“我們”使用的東西,而那時只有“我們”才擁有權利。[28]P450-501主張機器人擁有權利的美國哈佛司法部未來學家菲爾-麥克納爾認為:“我們認為機器人有朝一日總會有權利”,而“現(xiàn)在擁有權利的機器人這種想法是難以想象的”。[6]P47-48加拿大法學學者戴維.卡爾弗里認為:權利來源于意識,如果一個機器人獲得了意識,我們就應該考慮給予它們道德地位。如果機器擁有意識,我們就有理由相信,它可以合法地主張某種程度的權利。[29]P82學者蘇迪亞認為,人工智者被定義為具有人類品格的人工智能實體,其知識水平和推理能力遠超人類。這種人工智者可以成為非常有用的社會成員,它們可能享有公民權利和法律權利。[30]P106也有學者指出:任何人工制品,只要精心設計的圖靈測試能證明具備自我意識、人際互惠與交互能力,就應當獲得人的權利。[31]P423-424以上法學界的觀點表明,人工智能法律地位問題亦指向未來具有自我意識的強人工智能,而不是當今的弱或窄意義上的人工智能。正如彼得.辛格和阿加特.薩岡所說:“如果我們所設計的機器人具備與人類一樣的能力,使之剛巧具有了意識,我們就有充分的理由認為它們確實具有意識的,在那一刻,機器人權利運動將會開啟。”[32]因此,只要人工智能尚未具有自我意識那刻,就沒有權利,更非法律上的權利主體。美國法理學教授勞倫斯·索倫在1992年針對人工智能法律人格的可能時指出:在人工智能發(fā)展處于低谷且沒有高級人工智能實物的背景下,應當按照現(xiàn)行法進行相對保守的處理,人工智能真正普及之后就需要考慮是否賦予法律人格的問題。[33]P1287可見,這種論證方式存在的主要問題就在于它并沒有解決人工智能的法律主體問題,而是將其推遲到未來某一個不確定的時刻。

        我國國內(nèi)研究人工智能法律地位的學者,在堅持賦予人工智能法律主體地位的同時,也同樣將人工智能視為未來“類人”的人工智能。譬如,付子堂、趙譯超主張將智能機器人納入法律主體,使其具有權利能力和行為能力,然而他們所說的人工智能是類人的行為、類人的思考、理性的思考、理性的行動的人工智能,具有自主思維能力,而這種人化的終極形式即人類創(chuàng)造出的“類人”是長遠的事。[34]劉憲權在討論機器人行為道德倫理與刑法規(guī)制時,直接將機器人限定為“人工智能時代機器人”,認為目前的機器人尚未有道德,未來的智能機器人才可能需要道德。[35]此外,吳鋅源、王勇在討論人工智能法律主體或機器人身份地位時都將人工智能限定于“人工智能時代”。[36][37]周詳在論證“智能機器人也是人”的“權利主體論”觀點時,討論的智能機器人是“圖靈革命”時代或“人工智能革命”時代的人工智能權利主體問題。[16]P9許中緣在主張賦予智能機器人有限人格的觀點論證中,始終以具有“意志”的人工智能作為研究對象,認為具備相當智力和自我學習能力的機器人具有獨立的意志與判斷能力。[38]郭劍平在對人工智能法律主體地位予以法理詮釋時,是以強人工智能作為賦予法理主體地位的載體,他認為,只有具備理性能力的人工智能才具有法律主體地位的實體要件,其中理性能力包括自由意志和情感。[10]P130也有學者徑直以“強人工智能”法律主體地位賦予的路徑進行研究。[18][39]因此,正如有學者指出:“真正要能夠促使人工智能成為法律主體,就必須期待強人工智能的到來”。[40]這些觀點均表明,肯定人工智能具有法律主體資格的學者普遍以強人工智能為研究對象,并賦權其上,從而忽視了弱人工智能法律主體資格問題。強人工智能法律主體問題要研究,但弱人工智能是否具有法律主體地位更是急迫思考的重大課題。

        (二)人工智能法律主體論之非

        按照國外一些學者的觀點,人工智能無法擁有權利,從而否認人工智能的法律主體性。他們反對的一個基本依據(jù)是人的主體性,即人工智能不過是人類設計、制造和使用的工具性人工制品,人工智能無論其設計或操作程序多么復雜,和烤面包機、電視機、冰箱、汽車等一樣都是人類的工具,它們不具備任何獨立的道德地位或法律地位方面的要求權,只有人才是具有道德和法律地位、擁有權利并承擔責任的主體。紐約市立大學教授米勒指出:人工智能與人類之間存在本體性差異:人類作為生物實體,是進化的產(chǎn)物;而人工智能是人工制造出來的物品,不具備人的本體性這一特征。他的結論是:在一個承認所有公民都享有充分人權的政治制度中,公民沒有任何道德義務給予類人自動機完全人權。[41]P369-391約翰內(nèi)斯.馬克斯和克里斯蒂娜.蒂芬希明確指出:“機器人不過是被設計出來用于實現(xiàn)具體功能的機器或工具,這些機器沒有興趣愛好和欲望;它們不會選擇和實現(xiàn)人生規(guī)劃;它們不會解釋這個世界,與世界互動或學習了解世界;它們不會基于自我設定的目標和對周圍環(huán)境的理解來自主作出決策。它們所做的僅僅是執(zhí)行一套預設的程序??傊?,機器人是一臺無生命的自動機器,而非自主的代理人,它們甚至連具有道德地位的物體都不是——關于權利、義務和公民資格的問題根本不會出現(xiàn)在人工制造的機器身上。”[42]P83-84

        否定人工智能法律主體地位的學者采取的是技術工具論策略。哲學家海德格爾曾就“技術”工具論作過解釋,他指出:“當我們問技術是什么時,每一個對此回答的人都知道有兩種表述:一是技術是達到目的的手段;二是技術是人類活動。兩種技術的定義屬于一個整體,因為設定目的以及獲取并使用手段達成目的就是人類活動。設備、工具、機器的制造和使用,被制造和使用的物品本身,以及它們?yōu)橹盏娜祟愋枨笈c目標,都屬于‘技術是什么’的范疇”。[43]P4-5因而,技術只是實現(xiàn)目的的工具,它自身不是目的。作為技術的計算機,無論其技術如何發(fā)展與進步,都不會擁有人的主體性,“它就是一種有用的工具,僅此而已”。[44]P190弗吉尼亞大學教授戴博拉.約翰遜指出:“計算機系統(tǒng)是由從事社會實踐和由意義的消遣活動的人士制造、分配或使用的,今天的計算機系統(tǒng)如此,將來的計算機系統(tǒng)亦如此。將來,自動的以及交互式的計算機系統(tǒng)如何獨立運作,它始終是人類行為、人類社會制度、人類決策的產(chǎn)物。”[45]P195-204按照這種觀點,無論人工智能技術發(fā)展到什么程度,即使是未來的強人工智能,只要不符合人的主體性特征,都不過是工具而已,不能成為道德主體與法律主體,從而徹底否定了人工智能的法律主體地位,英國人工智能專家大衛(wèi)·萊維就主張:“機器人擁有權利的觀點是不可思議的”。[46]P393即使萊維自己在文章中承認未來人類有可能與情感機器人結婚。托尼.J普雷斯科特針對工具論的實質指出:“機器人僅僅是工具的看法所有引發(fā)的一種后果就是間接地否認了未來強人工智能——即與人類智慧相當、甚至超越人類智慧的機器人——存在的可能。”[47]P142-149

        我國國內(nèi)學者的觀點明顯受到了工具論的影響。所有反對人工智能法律主體觀的學者幾乎都采取了人類的主體性與本體性的立場,堅持人工智能不具有人類的主體性,從而否認其法律主體資格。哲學學者甘紹平認為機器人作為人類工具的這一原初地位永遠無法改變,否則就是本末倒置,將工具作為目的是極其荒謬的,機器人是機器,不是人,沒有自由意志,它不可能作出自主的道德選擇,因而無法享有人所擁有的權利,人與機器的關系就是主人與工具的固有關系。[48]P126-130吳漢東認為,機器人不是具有生命的自然人,機器人生成的目的行為,與人類有目的、有意識的行為性質完全不同,不具備人之心性和靈性,因而尚不足以取得獨立的主體地位。[49]P131趙萬一認為,機器人不具有人類的感知能力,沒有作出認識、判斷、選擇等意思能力,沒有人類的道德、良心、良知、倫理、宗教、規(guī)矩和習慣,不可能產(chǎn)生生命權與財產(chǎn)權,因而主張不應當賦予機器人以法律主體地位。[50]P147此外,劉練軍、馮潔、梁成意、孫宏濤、付其運、郁樂、吳習彧等等諸多學者亦以人的本體性為評斷標準,否認人工智能的法律主體資格。[51][52][53][54][55][56][57]劉練軍指出:法律主體是人格人,必須具有意志、目的性與自律性,而人工智能卻不具備這些特征,因而人工智能法律主體化勢必給人類帶來不堪承受之重。馮潔認為,機器人只能被作為工具,人類才為機器人的行為負責。梁成意同樣秉持這種觀點,認為人工智能只能作為受人役使的工具,其一切行為后果應歸于制造者或控制者。孫宏濤等認為,無論弱、強人工智能在本質上都是一種工具,其智能性不能改變?nèi)テ湮锏谋举|。付其運認為,人工智能不具有人的主體性,不具有獨立意思表示能力。甚至有學者認為,機器人無論以何種方式承擔責任,最終的責任承擔者都是人,這使得它的“法律人格”顯得多余和毫無必要。[58]P82上述種種觀點說明,我國國內(nèi)研究人工智能法律主體或權利資格的學者采取的立場與態(tài)度與國外否認人工智能道德主體與法律主體的學者觀點同出一轍,都是站在人類中心主義的立場上,以人特有的主體性而否認一切不具備該特性的事物的道德與法律地位。

        (三)人工智能法律主體是非之爭的實質分析

        國內(nèi)外學者們關于人工智能法律主體論之是與非的爭論,看似是兩種截然不同觀點與立場之爭,實則是關于人的本體論之爭,質言之,未來的人工智能能否成為一種與人具有相似的感知能力與自主的意志、是非判斷與情感的“類人”。

        主張人工智能具有道德與法律主體地位的學者將研究對象指向的是未來強人工智能體,而非現(xiàn)在的弱人工智能。問題是,強人工智能能否被真正賦予像人一樣的意識、感知能力、自由意志、自主性、情感仍屬于科技領域進一步研究的范疇,具有相當不確定性。而這些肯定論學者所采取的論證方法卻是首先確定某實體表現(xiàn)出什么樣的能力,然后推導出它應具備怎樣的道德地位或法律地位,即我們該如何對待它。這種寄予未來的人工智能以道德地位或法律地位的觀點,基本上是運用權利的意志論與利益論來預測性推導他們可能欲達到的結論,這種論證方式實際上具有“假設”的成分。譬如斯帕羅指出:“一旦人工智能具有意識、欲望并有自己的規(guī)劃,它們就應該得到某種道德地位”。[59]P203這是一種權利意志理論。美國哲學學者彼得.阿薩羅所說:“將來某個時刻,機器人可能直接主張它們的權利”[60]P12的觀點則代表了另外一種權利理論即利益論??隙ㄕ搶W者盡管圍繞未來人工智能法律主體地位作出了預判,但他們對于解決當下弱人工智能的法律主體問題幾乎沒有提出具體的可操作性方案與理論設想。

        對人工智能法律主體資格持否定的學者則秉持人類中心主義理念,從人所具有的主體性這一本質特性出發(fā),否認人工智能這種非“人”的事物的道德與法律地位。人類中心主義的基本觀點認為:只有人類才是目的, 而一切非人類存在物都不過是為人類利益服務的手段,因而道德的起源、目的和標準也就只應該是為了人類的利益, 一切道德上的善惡都只應該以人類利益為標準。[61]P3人類中心主義的實質是人類理性主義,而理性主義則是18世紀以來啟蒙思想家們所倡導的核心精神。如果以人為尺度與非“人”的人工智能進行比較,則必然缺乏可比性,因為人類是自然進化的產(chǎn)物,而人工智能則是人類自我創(chuàng)制的結果,其運行是按照人類所預設的智能算法程序指令進行。問題是,人與法律主體兩個不同的法律概念,人是法律主體,反之則不成立,即法律主體不等于人。法律主體是法學家或法律家擬制的產(chǎn)物,以虛構的方式將那些不是“人”的法人、動物等實體視為“法律主體”。人工智能自然不是“人”,因此,將人的本體論與其進行比較,自然得出不具備人的主體性的結論。事實上,否定論學者同樣是以權利的意志論否定人工智能的法律主體地位的,只不過,他們與肯定論學者預測結論不同罷了,肯定論學者預測未來的人工智能具有像人一樣 “意志”,從而可能具有道德與法律地位;而否定論學者正好相反,他們的預測是無論怎樣的人工智能都不可能具有人的“意志”,自然不會要求什么“權利”。因而,肯定論者對人類技術創(chuàng)新持一種比較樂觀的態(tài)度,認為未來人類能夠創(chuàng)造出類人機器人;而否定論者則堅持人類中心思想,從而否認具有意志存在的人工智能出現(xiàn)的可能。我們認為,討論人工智能法律主體資格問題,必須跳出人類中心主義的圈子,即“不能以人的尺度和眼界來看待這些事物,而是要盡可能以他者的視角來看待他們”,[62]P68作為人類應該放棄人類自身的傲慢與偏見,對未來人工智能技術進步與發(fā)展秉持一直開放的姿態(tài),而不是固步自封,才能面對未來一切可能的現(xiàn)實挑戰(zhàn)。

        三、法律主體及其擬制

        無論是弱人工智能抑或強人工智能,若成為法律主體,具有某種權利能力、行為能力或責任能力,其關鍵是要在法理上闡明何謂法律主體以及何以構成,構成的方式與方法是什么,據(jù)此方可評判人工智能的法律主體問題。我們認為,無論是弱人工智能或強人工智能,都具有某種程度或方面的法律主體資格,只有明確其法律主體資格,才能尋求其相關權利、義務和責任等問題的解決方案,從而為現(xiàn)在乃至未來人工智能體的發(fā)展提供解決之道。

        (一) 何謂法律主體?

        關于法律主體的概念諸多法學家均給出過定義。富勒以私法為視角,解釋了私法上的法律主體概念,他指出:“他承擔義務、享有權利,并被賦予了通過協(xié)議來解決自己同他人之間的糾紛的法定權利”。[63]P31質言之,富勒所理解的法律主體是承擔義務、享有權利的人。這一觀點為我國主流法理學所認可,如馬克思主義理論研究和建設過程重點教材《法理學》就認為:“法律關系主體,即法律關系的參加者,是法律關系中權利的享有者和義務的承擔者?!盵64]P126純粹法學創(chuàng)始人凱爾森將法律主體稱之為“法律上的人”,并將“法律上的人”定義為“法律義務與法律權利的主體”,具體而言,法律主體是義務與權利規(guī)范即法律規(guī)范的人格化。[65]P105-107龐德則將被給以合法的權利、權力和特權,被加以義務和責任,其所享有的自由得到認可的實體稱作“法律單位”,這種法律單位也稱作“人”或“權利和法律的主體”、“權利主體”。[66]P151法國社會法學創(chuàng)始人狄驥則認為,法律主體就是“在事實上作為客觀法律規(guī)則實施對象的實體”;并且“只有自覺和能支配自己行為的個人才是法律的主體”,[67]P324-325從而排除其他人或組織成為法律主體。與狄驥的觀點對立的是格雷的觀點,他認為,法律主體是法律權利與義務的承擔者,而享有權利卻無義務者以及承擔義務卻無權利者,仍為主體;除了權利主體必須具有意志外,其他不具有意志的主體也構成法律主體如白癡、船舶、社團等。[68]P24-25

        綜上各學說,關于法律主體概念認知存在相同的地方:均將權利、義務的承載作為法律主體的本質所在, 都以“人”為核心構筑法律主體的內(nèi)涵,簡言之, 法律主體就是法律上的人。[69]雖然對法律主體概念的理解具有基本共識,但其中也存有理論差異:

        第一,法律主體是否等同于法律關系主體?我國法理學教材通常均把法律關系主體與法律主體等同起來,事實上,法律主體往往是一種資格問題,只要在法律上被賦予具有享有權利或履行義務或承擔責任的資格者,皆稱之為“法律主體”,換言之,法律主體是一種法律上承認的一種資格或人格,即凱爾森所說的“法律規(guī)范的人格化”,沒有法律,就沒有主體和權利,因此,英國學者杜茲納認為:所有人都是由法律認識和法律關系的總和建構起來的法律主體。人的第一次生命是母親給的,而第二次生命是由法律給的。從一生下來,人在概念上或多或少是個法律主體。這個新生兒就是塊空地,隨著時間的流逝, 這塊空地會被賦予權利、義務、特權和職責,直到過完一生為止。[70]P249法律關系主體則是具有法律主體資格者參與由法律所調整的社會關系而形成的主體,是具體行使權利和承擔義務的主體。法律關系主體具有參與性、社會性、實踐性,而法律主體則具有抽象性,是人在法律上地位的一種表達。

        第二,法律主體是否必須具有意志?法律主體既然是法律上權利與義務規(guī)范的人格化,那么只要法律賦予某一事物具有某種“人格”,就可以成為法律主體,就意味著“意志”不是成為法律主體的必備條件?,F(xiàn)實中,那些不具有“意志”的白癡、團體或動物也是法律主體,因此,像狄驥將只有具有支配自己行為的人才承認是法律主體的觀點,以現(xiàn)代法學之觀點無疑是不充分的,現(xiàn)代法學中的監(jiān)護人、代理、法人等制度都是基于保障那些無法支配自己行為的人的合法權益而構建起來的。同時狄驥更強調是法律關系主體,因為只有參與法律關系之中,尤其是像格雷教授所說,就權利的行使而論,主體才必須具有意志。然而,法律主體更強調抽象的人格或資格,至于是否參與具體法律關系而成為法律關系主體并非是必備之前提。

        第三,法律主體與權利主體、義務主體、責任主體之間的關系。法律主體是享有權利與承擔義務的主體,因而像格雷教授所主張的那樣,無論是只享有權利而無義務者或只承擔義務而無權利者,均為法律主體。在此基礎上,胡玉鴻將權利主體、義務主體和責任主體均視為法律主體的基本形態(tài)。[69]

        (二)法律主體的擬制

        實際上,所謂“法律主體”的概念與術語,都是法律擬制的產(chǎn)物。擬制是一種法律上的推定、假定或虛構、建構的技術,功利主義代表人物邊沁指出:“我們在談論擬制時,必須先假定它們的存在”;而“虛擬實體的存在是由想象虛構出來的,并被認為是真實的”。[71]“法律主體”這一術語就是擬制的概念,科斯塔斯.杜茲納說:“法律創(chuàng)造了主體,一個邏輯上維護了法律關系的虛擬實體?!盵70]P248對此,胡玉鴻教授認為:法律主體的成立源自法律的抽象建構——法律對現(xiàn)實存在的人賦予其法律人格,使其能夠參與實際的法律活動,并享有權利、履行義務和承擔責任。[72]以凱爾森的觀點,法律主體作為“法律上的人”和法律義務、法律權利的主體,不過是法律規(guī)范或權利義務的人格化,他認為:“法律上的人不是一個真正的人,而是法律規(guī)范人格化的總和,對每一個人強加了義務,賦予了權利。法律上的人不是一個自然實體,而是一個由法律科學創(chuàng)造的法律建構,一個由法律原理解釋創(chuàng)造的輔助概念”。[73]P93在這個意義上,法律上的自然人、法人等都是法律的創(chuàng)造物,是人為擬制的。因此,杜茲納得出結論說:“法律主體是建構起來的主體,是由法律創(chuàng)造或虛構出來的”。[70]P249

        法律主體的擬制技術與方法源自古羅馬的人格擬制。在古羅馬,并非所有自然人都是法律上的人,⑦要成為法律上的“人”必須具有一定的身份與地位,而代表一定身份與地位的資格是“人格”;法律上具有“人格”的人即“人格人”,才成為法律上的人,即法律主體。因而,在羅馬法上,自然人不是“人”。[74]P2霍布斯在《利維坦》中就認為:“人格人在拉丁文中常常被當作人為的面容或假面”;它是一種擬人或虛擬人[75]P123。日本法學家川島武宜也指出:“作為法律關系歸屬點的‘人’乃至‘法律人格’與生活中的個人是兩個層面上的不同概念?!盵76]P20凱爾森明確指出:作為man的人是一個生物學的和生理學的概念,作為person的人卻是一個法學的、分析法律規(guī)范的概念。[73]P94作為生物意義上的人與法律上的人格人是分離的。由于羅馬法中的法律人格是擬制的,從而可以將不具備“人格”的人排除在法律主體之外,也可以把“人格減等”的人視為或不視為法律主體。尹田教授指出:羅馬法上這種人與人格分離的理論,為團體人格觀念的形成提供了至關重要的技術支持,當法律人格的賦予純粹成為法律技術運用的產(chǎn)物,其與法律主體是否為生命現(xiàn)象并無必然聯(lián)系時,賦予無生命的團體以法律人格的可能性便得以出現(xiàn)。[77]馬俊駒教授也對此亦認為:“人格”與“生物人”既然能夠分離, 那么“人格”這種面具就不見得一定戴在“生物人”頭上, 它還可以根據(jù)社會需要戴在某些團體或財產(chǎn)之上,使其具有民事主體的資格, 并可以像“人格人”一樣參加各種各樣的民事活動。正因為如此, 判斷“生物人”是否擁有“人格”,并不是以其“生命”的有無為唯一標準的。一個有生命的奴隸并不能成為擁有“人格”的法律人, 而一個沒有生命的社會體或財產(chǎn)則可能被賦予“人格”成為民事主體。[78]日本法學家星野英一進而指出:所謂“法律人格”是這樣一種意義,即使是人以外的存在,對于適合于作為司法上權利義務的主體的概念,也會得到承認,可以說法律人格意味著并不一定與人性有聯(lián)系的法律上的特別的資格。[76]P21可見,法律擬制技術與方法使得法律主體這一概念具有極大包容性與整全性。歷史上,奴隸的解放、女性政治的崛起、有限責任公司的成立、股份融資證券的發(fā)明、勞資關系的轉變,都建立在對既有的“法律人格”理論的突破。[79]P80其實質是法律主體處在隱喻的位置,法律賦予了他各種能力和權力,法律規(guī)范表現(xiàn)的是人為法創(chuàng)造的法律人,而不是現(xiàn)實的人。德國民法學家羅爾夫.克尼佩爾指出:“只有人格人是法律主體,人并非必然是法律主體”。[80]P59正如莫菲所說:“法律主體把‘自己’當作法律的一張臉或表皮,這就是說各種各樣的投射將會在這張臉上反映出來?!盵81]P196

        (三)人工智能法律主體的構造

        從法律擬制技術與方法看,法律主體就是法律權利與義務的人格化,具有“人格”并成為法律上的人即法律主體,與真實的、自然進化的人是分離的。馬俊駒教授認為:羅馬法上的“人格”概念,是建立在“生物人”與“法律人”彼此分離的基礎之上的;羅馬法上的‘人格’一詞, 即是對這種分離的描述與總結。羅馬法直接通過法律的語言,使“人”與“人格”分離提煉、表述了出來, 使之上升為了一種有意識的法律技術。[82]由于“人格人”是想象擬制的結果,因而并非一定與生命、人性有聯(lián)系,它只不過是一個“假設虛構的本質領域”,[83]P455像星野英一所說,即使是人以外的存在,只要適合于作為法律主體,也會得到承認。中世紀動物會接受審判,記錄在案的包括雞、老鼠、田鼠、蜂蜜、豬的起訴。[84]對此,有學者指出:無論是羅馬法實踐,還是中世紀的老鼠審判,實際都深刻挑戰(zhàn)了近代以降以自然人為鵠的法律人格理論,也為探討人工智能的法律身份留下了充分的想象空間。[79]法國哲學家布魯諾.拉圖爾提出了“行動元”概念,在他看來,不必將“行動元”想象為活生生的個人或團體,也不需它具備諸如靈魂、心靈、同情、意志、情感、反思等主體能力,只要通過類似“圖靈測試”的某種測試,就可以推動形成一個開放的行動元法律秩序。[79]上述觀點表明,是否具有自然人的主體性并非決定性要素,關鍵在于獲得羅馬法意義上的“人格”身份。無論是智人、團體或人工智能,都可以通過人格化的法律面具,獲得法律系統(tǒng)的功能歸因,獲得“權利”,從而參與社會系統(tǒng)的運作過程。[79]如此一來,法律主體作為法律權利的車輪,一直在抽象的人性和具體的人之間來回奔走,從而創(chuàng)造出法律獨特的敘述性話語并對世界產(chǎn)生了各種影響。[70]P104

        在人工智能時代,我們應該回到近代之前在羅馬法傳統(tǒng)之上所形成的人與人格相分離的法律人格理論,而不是近代啟蒙運動以來由《法國民法典》確立的“人的理性”或《德國民法典》確立的人的權利能力為標準、進而演繹成了以“人”為中心主義的法律人格理論,因為隨著現(xiàn)當代生態(tài)文明與環(huán)境倫理道德的發(fā)展,人類已進入一個非唯人類為中心的時代。因此,人類必須認真對待未來世界人工智能的法律主體擬制問題,擺脫純粹功利主義與工具主義對待人工智能體的方式與思維,以“非唯人類中心”的哲學價值觀認真對待那些非“人”的實體,通過法律擬制而賦予一定范圍的法律主體資格,最終做到人類與人工智能和諧共舞。

        四、作為弱與強人工智能的法律主體

        (一)作為弱人工智能的法律主體

        迄今為止,討論人工智能法律主體的學者,對于弱人工智能的法律地位沒有予以足夠的重視。實際上,即使弱人工智能體,也具有了一定的“智”,在某種情形下,可能或已經(jīng)成為人類的代理人,此時是否需要賦予其法律主體地位?譬如銀行系統(tǒng)普遍使用的“自動取款機”,一旦出現(xiàn)糾紛,誰應當承擔責任?曾發(fā)生過案例:某人從自動取款機上欲取一萬元現(xiàn)金,結果機器吐出了兩萬元,他取走自己的一萬,而把另一萬放在了攝像頭下就離開了。事后,銀行人員找到取款人,要求其賠償。自動取款機多吐出來的錢到底是誰的責任?是銀行的還是機器本身的?取款人有無義務保管多余的錢?有學者就主張說:“自動機器是人類行動者的代理,因為在機器缺席的情況下需要人去完成機器的任務。既然如此,機器也應該代理人類行動者在相同情形下所具有的權利和責任?!盵85]按照霍布斯的觀點,一個虛擬的人即人格人被認為代表他人的言語與行為。[75]P123此觀點表明,人類不僅僅把智能機器人當作一種工具,而應具有某種程度的法律主體,畢竟自動取款機代替的不是工具,而是使用工具的銀行工作人員,所以機器就應當被視為是銀行權利和責任的代理人。斯坦福大學杰出人工智能專家杰瑞.卡普蘭就指出:當人工智能代表你行動時,出現(xiàn)的責任該誰承擔?你可能會認為答案很明顯,應該是你,在今天可能確實如此,但這并不公平,而且在未來很有可能會因某些合理的原因而改變。[86]P82因而,“當代理人根據(jù)授權訂立了一項協(xié)議時,他就可以使授權者像親自訂約一樣受到約束,同時也使他同樣要對該約的全部后果負責”。[75]P124自動駕駛汽車也同樣面臨這類法律問題,自動駕駛汽車的目的不是旨在取代汽車,而是取代駕駛員。2016年2月4日美國國家公路交通安全管理局首席法律顧問海默斯堡在寫給谷歌自動駕駛汽車項目負責人克里斯·厄姆森的信中,就表達了“一個計算機系統(tǒng)可以成為合法的汽車司機”觀點,他說,美國國家公路交通安全管理局“將在谷歌描述的汽車設計背景下解釋‘司機’,即指SDS(自動駕駛系統(tǒng)),而不是指任何汽車乘客。”⑧當自動駕駛汽車導致了交通事故時,由誰來承擔責任?是自動駕駛汽車獨立承擔還是與程序設計者、生產(chǎn)者、銷售者等共同承擔連帶法律責任?[6]P55如果純粹由無人駕駛汽車造成的責任,而讓制造商去承擔,不僅將會讓制造商感覺無人駕駛時機尚不成熟而放棄研發(fā),而且必然會導致非常不公平的問題。這也是為什么2017年歐盟議會提出了立法建議《歐盟機器人民事法律規(guī)則》而應當將最先進的自動化機器人視為享有特定權利并承擔義務的“電子人”地位的原因。類似智能機器人譬如社交機器人、情感機器人等的出現(xiàn)皆會面臨類似法律問題。人們對待這類人工智能,并不僅僅把它們當作寵物,還可能當作朋友、知己和戀人,至于人工智能是否知道或理解人類的這份情感,人們并不在意。⑨的確現(xiàn)實生活中已出現(xiàn)了與機器人結婚這類棘手的法律問題。此外,亦已經(jīng)出現(xiàn)了關于人工智能創(chuàng)作作品的著作權歸屬的法律問題。上述諸多問題都是弱人工智能下出現(xiàn)的,從而有學者認為機器人主體地位的趨勢已經(jīng)形成,因此需要考慮其適當?shù)姆少Y格與地位,制定并完善相關的法律制度。[35]P44只有在法律上賦予其主體地位,才能在法律責任分配上更加公平地實施,對沒有過錯者的權利給予更恰當?shù)谋Wo。

        前文已述,法律主體與權利主體、義務主體或責任主體之間是種屬關系,權利主體、義務主體與責任主體均包含在法律主體之范疇中,換言之,無論是作為權利主體、義務主體還是責任主體,都可作為法律主體而存在。格雷指出:“在我看來,享有權利卻無義務者,或是承擔義務卻無權利者,仍是法律視野中的主體?!盵68]P24這種人格人或法律主體的資格后來被歷史法學代表人物薩維尼以“權利能力”[80]P63所取代。我國法理教科書通常把法律主體所享有的權利和承擔義務的能力稱之為權利能力。[64]P126-127只要具有權利能力,僅僅享有權利而不行使權利,即使不具有意志,也是法律主體,譬如法律上把無行為能力者如白癡、精神病患者、八周歲以下未成年人等視為法律主體。格雷教授指出:各類法律體系對法律主體的規(guī)定中包括了變態(tài)自然人如白癡、超自然存在、動物、無生命體如船舶等,而這些并無真正的意志,但它們“因享有法律權利而作為法律主體”;還有一種法律主體是作為義務承擔者,如在法律發(fā)展的早期階段,動物因某些原因被當作承擔了某些法律義務,一旦違反這些義務便承擔處罰的責任。無生命體亦可因法律義務而作為法律主體,這是假定物體本身具備理智而擬制為法律主體。[68]P25,33-42可見,法律主體資格的具備與否,是以是否賦予“人格”之身份或“權利能力”為資格前提的,它不需要法律主體或義務主體是否具有“意志”或“意識”,只有權利主體才要求法律主體具備“意志”要件,格雷教授明確指出:“對于義務的承擔者來說,法律義務并不暗含任何意志的實施,因此法律義務的存在并不要求受約束的主體具有某種意志,而法律權利的行使則以意志為必要條件,權利主體必須具有意志”。[68]P24-25通過法律擬制技術與方法仍可將弱人工智能作為法律主體看待,不過,這種法律主體必然不是完整意義上的法律主體,僅僅作為具有權利能力、享有某種權利的法律主體,所以,人們可把人工智能視為具有權利能力而缺乏行為能力的道德主體與法律主體,這也就意味著弱人工智不能成為責任主體,承擔其應有的法律責任。

        法律賦予弱人工智能以主體資格的好處就在于解決權利主體的權益保障問題以及法律責任中的責任分配公平問題。如公民身份的確立有利于保障人工智能體的某些權利如行動自由權、知識產(chǎn)權中的著作權、性機器人婚姻中的結婚權以及性權利[87]P20-32等;同時在法律責任的分配問題上,當責任主要或完全是由人工智能體的原因所致,那么在設計者、生產(chǎn)者和使用者均無過錯而由他們來承擔全部法律責任將帶來不公平的問題時,就可以考慮由人工智能體本身所帶來的責任問題?;谌跞斯ぶ悄苌胁粯嫵韶熑沃黧w,因此有學者提出,在自動駕駛領域,最合理的方式是建立智能機器人的強制保險制度,購買智能機器人的擁有者、使用者必須購買強制保險[88]P150,其賠償責任可由保險公司承擔,從而解決責任分配中的公平問題。在目前這不失為一種好的解決問題的方式。

        (二)作為強人工智能的法律主體

        弗朗西斯.福山說過:“也許談論尚未在技術上可行的基本權利是一件令人奇觀的事情,但這就恰恰是當前權利話語的迷人張力。”[89]P107目前關于強人工智能法律主體資格與權利的討論雖尚還處于“假說”階段,但世界各國諸多跨界學者都參與了討論與爭鳴,說明了這一問題的“迷人張力”與重要性。倘若數(shù)學家弗諾.文奇提出的人工智能的“奇點”⑩到來之后,人類制造出了具有超人智慧的人工智能,那么其意義不言而喻,誠如霍金所指出,它“將是人類歷史上的最大的事件”。[90]P255問題在于,這一“奇點”何時出現(xiàn)?曾有學者對200名研究人員做過一次非正式調查:42%的人認為2030年前,25%的人選擇在2050年前,20%的人認為2100年前,2%的人認為永遠不會發(fā)生。[90]P257作為在計算機設計和軟件開發(fā)有25年實踐經(jīng)驗的馬丁.福特承認:“建立一個真正的智能系統(tǒng),一臺可以構思新想法,可以意識到自己的存在,可以進行連貫對話的機器仍然是人工智能所追求的‘圣杯’”;在他看來,超級智能的發(fā)明,最終不可能實現(xiàn),或者只能在遙遠的未來才有可能。福特的觀點獲得了許多頂尖腦科學研究人員的支持,麻省理工學院研究認知科學60多年的喬姆斯基說,我們離建立人類水平的機器智能還“遙不可及”,稱奇點是“科幻小說”。[90]P256,263華裔人工智能專家李開復也指出:“未來機器人是否會變得和人一樣,具備自主意識而且能夠獨立思考?這恐怕是一個目前仍難以回答的問題,沒有人知道確切答案?!盵86]序二

        的確,當下人工智能技術尚處于無生命的“弱”意義階段,但隨著人工智能發(fā)展,機器將會被看作是活的。美國未來學家雷.庫茲韋爾預言,2045年是極具深刻性和分裂性的轉變時間,“非生物智能在這一年將會10億倍于今天所有人類的智慧”。[91]P80人工智能專家威爾齊格更明確指出:“一代機器人正在迅速成長,一種能看能讀、能說會道、能學會用甚至有感覺情緒的機器人即將問世”。[6]社會哲學家薩卡爾則預言有一天技術將會有“精神”,他認為精神存在于萬物之中,進化是這種精神對總意識、神性和自我實現(xiàn)的反映和發(fā)展。一般說來,人類的精神最發(fā)達,動物次之,植物再次之,巖石最差。一旦技術能發(fā)展成更明敏的東西,它就會像大腦一樣成為精神的更好載體。因而,動物、植物和機器人應該有權利,不是因為它們像人類,而是因為它們是什么。[6]致力于價值理論與數(shù)理情感研究的仇德輝樂觀指出:“情感是智能的一部分,而不是與智能相分離的,它是一種特殊的智能,意志是一種特殊情感,因而也是一種特殊智能,我們既然能夠實現(xiàn)狹義智能的人工化,只要找到科學的研究方法和正確的研究思路,就必然能夠實現(xiàn)廣義智能(即情感和意志)的人工化?!盵92]P41他還提出了研制出具有真正情感機器人或人工情感的步驟。因此,菲爾·麥克納利等學者堅信“機器人有朝一日總會有權利”;如果機器人自己沒有權利,它們就不會在訴訟中成為裁定的一方,它們就不會有法律地位,它們在法律上就不會是真實的。[92]P47,54

        無論如何,在強人工智能時代,法律主體資格問題是遲早需要面對的核心問題。無論基于權利的意志理論還是利益理論,人工智能作為法律上的主體都是能夠成立的。反對人工智能法律主體的學者是以人的意志為標準來評判人工智能的“意志”問題,這本身就是一種誤區(qū)。任何人之外的非“人”實體都不可能具有人一樣的意志。倘若人工智能“技術”具有一種像薩卡爾所說的“精神”,那么,這種“精神”就是具有“意識”與“意志”的反映,只不過,人的意志是自然進化的結果,而人工智能的“意志”來自于計算程序,按照程序設定,它能夠自主“意識”,事實上這本身就是一種有別于人的意志的“意志”。具有不同于人的意志的“意志”的人工智能,則會提出其相關的權利主張或要求。這種觀點現(xiàn)在看起來似乎是荒謬的,但在未來的某個時刻可能成為現(xiàn)實。正如薩布爾比所說:“在機器人自己開始提出要求之前,不必緊張”。[93]P341同時,人工智能體一旦出現(xiàn)并與人類共同生活時,它們就有其自身的利益存在,譬如受到尊重而不被侮辱或虐待等。研究表明,人類有時會對計算機和機器人進行虐待,尤其是當他們被看作是類人的時候,這就引發(fā)了重要的倫理問題。[94]P326因此,無論基于意志論或利益論,人工智能都可以具有權利與利益,從而可能成為法律上的主體。因而,為應對未來人工智能的法律挑戰(zhàn),人類需要站在“他者”的立場上,設身處地地考慮人工智能體自身的法律地位問題。譬如,讓人工智能遵循人類的法律似乎不太可能,然而它們有它們的“法律”,那就是“算法程序”。一旦人工智能違背了人類預設的算法規(guī)則,就可以視為“違法”,從而承擔相應的法律義務與責任。法國兩位律師阿蘭.本蘇桑和杰里米.本蘇桑就擬定了《機器人法》,將制造、應用和使用機器人的法律責任以及機器人的法律地位與權利作出了明確界定,其中第2條規(guī)定:“機器人是被賦予法律人格——機器人人格——的人造實體。機器人擁有姓名、身份證號碼、身份和法定代理人,其可能是自然人或法人”;第3條規(guī)定:“機器人儲存的個人數(shù)據(jù)受《數(shù)據(jù)保護和自由條例》的調整。機器人在其個人數(shù)據(jù)保護的范圍內(nèi)享有尊嚴,并享有被尊重的權利”。[95]P219通過上述規(guī)定,他們不僅賦予了機器人一種新的法律主體資格,而且還賦予了機器人隱私權、尊嚴權與被尊重的權利。他們認為,為了應對機器人給當前法律體系的挑戰(zhàn),這是必要的。因為在不考慮賦予法律調整的實體以法律主體地位和權利,我們將難以制定適用于機器人的法律。

        (三)作為法律主體的人工智能體之權利及其利他性

        人工智能體作為法律主體,可以擁有哪些權利?我們認為,讓人工智能體擁有像人類一樣的各種權利既不可能,也不現(xiàn)實,畢竟人工智能不是人類本身。人是自私自利的社會交往性動物,而作為人類智慧生成的人工智能則始終作為一個“性本善”的實體出現(xiàn),它們天生就被人類賦予了“善”性而非“惡”性。現(xiàn)代法律中的權利賦予是基于人的自私性而給與合法的、正當?shù)乃嚼囊环N保障。而人工智能體的法律主體資格和權利的賦予則是基于人類的自身利益,因為人工智能的“性善”論注定其只能采取有利于人類的利益的活動或行為,這種利他主義的利益主體與自私自利的利益主體在法律規(guī)制的設定上具有根本的差異。因此,人工智能作為法律主體資格的賦予主要是為了法律責任的承擔而設立。換言之,人工智能法律主體地位應當是作為法律責任主體而出現(xiàn)。1950年阿西莫夫提出機器人遵守的義務與責任就是讓機器人以責任主體身份出現(xiàn)的——機器人必須遵守三大定律:(1)機器人不得傷害人類個體,或者坐視人類受到傷害而袖手不管;(2)在不違反第一定律的前提下,機器人必須服從人類給予的任何命令;(3)在不違反第一定律和第二定律的前提下,機器人必須盡力保護自己。[96]P24此外,日本藝術家手冢也曾設定過一套機器人定律,如機器人必須為人類服務、機器人不可傷人或殺害人類、機器人不得破壞人類的住所和工具等,[96]P47-48這些規(guī)定同樣將機器人作為責任主體而設。在此情形下,人工智能可能具有隱私權、財產(chǎn)權、數(shù)據(jù)擁有權以及享有被尊重的尊嚴權。人工智能在人群中感知和移動時,將會采集大量的個人數(shù)據(jù),這些存儲在計算機芯片中的數(shù)據(jù)由人工智能所擁有,從而構成其數(shù)據(jù)擁有權,而數(shù)據(jù)一旦泄露,個人信息就會被曝光。因此,賦予人工智能的隱私權,其目的并不是為了保護機器人,而是為了保護與人工智能交互的人類的隱私,即在人機交互過程中,可以獲取個人的某些隱私,而這種隱私必須通過保護人工智能的數(shù)據(jù)記憶來加以保護。杰瑞.卡普蘭建議讓人工智能擁有財產(chǎn),在由人工智能承擔法律責任時,如果人工智能擁有銀行賬戶,那么賬戶就很有可能會成為處罰的目標,人工智能擁有者也會贊同把合同權利和財產(chǎn)權利賦予人工智能,從而可以免除他們個人資產(chǎn)的責任。[86]P88-89我國也有學者建議機器人應該享有財產(chǎn)權。[38]P157這種財產(chǎn)權也同樣不是基于人工智能而考慮,純粹是為了能夠讓人工智能承擔法律責任以避免由人工智能擁有者承擔法律責任出現(xiàn)的嚴重不公平現(xiàn)象。有學者明確指出:當出現(xiàn)事故后損害賠償責任的分配也會直接關乎研發(fā)人員的利益。若要研發(fā)人員直接承擔責任甚至承擔完全責任的話,顯然不利于人工智能的研發(fā)。[97]P53人工智能應當享有獲得被尊重的權利,這種消極的道德權利包括不可被奴役、不可被虐待、不可被濫用等。按照米爾恩的觀點,獲得被尊重權利是普遍的最低限度的道德標準的要求。[98]P7羅馬法上的法律諺語說“誤傷他人”就包含著首先要尊重他者的權利之要求,從人類角度而言,尊重人工智能,就是尊重人類自己。因而,即使人工智能擁有法律主體資格并相應獲得某些最低限度的權利,也不必擔心人的尊嚴或價值遭到侮辱或顛覆,其權利也依然會受到人類中心主義的限制,畢竟人工智能最終是為人類服務的,其所具有的權利具有利他性。因此,人工智能作為法律主體,是可以賦予其相應的權利的,只不過這些權利設置的意義與價值仍是出于對人類自身利益的保障,這不僅是人工智能技術發(fā)展的初衷,也是其最終的歸宿。

        結語

        人工智能法律主體問題是所有道德、法律問題的實質與關鍵。目前國內(nèi)外學界關于人工智能法律主體論之是與非的爭論,看似是兩種截然不同觀點與立場之爭,實則是關于人的本體論之爭。討論人工智能法律主體資格問題,必須跳出人類中心主義的圈子。人類必須認真對待未來世界人工智能的法律主體擬制問題,擺脫純粹功利主義與工具主義對待人工智能體的方式與思維,以“非唯人類中心”的哲學價值觀認真對待那些非“人”的實體,通過法律擬制而賦予一定范圍的法律主體資格,最終做到人類與人工智能和諧共舞。因此,無論是弱人工智能或強人工智能,都具有某種程度或方面的法律主體資格,只有明確其法律主體資格,才能尋求其相關權利、義務和責任等問題的解決方案,從而為現(xiàn)在乃至未來人工智能體的發(fā)展提供解決之道。最后借用麥克納利的話作為結語:“我們能想象有一天,一位勇敢的法學家會重寫歷史,他會堅信應當在法律上把機器人看作是人,到這一天,將出現(xiàn)一個全新的未來!”[6]P32

        注釋:

        ① 英國科學家阿蘭·圖靈1950年在《心智》雜志上發(fā)表了題為《計算機器和智能》的文章,提出了“圖靈測試”:判斷一臺人造機器是否具有人類智能的充分條件,就是看其言語行為是否能夠成功模擬人類的言語行為,若一臺機器在人機對話中能夠長時間地誤導人類認定其為真人,那么這臺機器就通過了圖靈測試(參見吳軍:《智能時代:大數(shù)據(jù)與智能革命重新定義未來》,中信出版社2018年版,第43-44頁)。

        ② 《大畢業(yè)生娶了個機器人做老婆,婚禮都辦了!》,參見https://jd.zol.com.cn/634/6342803.html,2021年10月1日訪問。

        ③ 美科學家:2045年人類可以和機器人結婚,參見https://baijiahao.baidu.com/s?id=1604861160749991964&wfr=spider&for=pc,2021年10月1日訪問。

        ④ 參見北京互聯(lián)網(wǎng)法院( 2018)京0491 民初239號民事判決書。

        ⑤ “上海盈訊公司被判,賠騰訊公司1500元”,載《深圳特區(qū)報》2020年3月14日第5版。另可參見(2019)粵0305民初14010號深圳市騰訊計算機系統(tǒng)有限公司與上海盈訊科技有限公司著作權權屬、侵權糾紛、商業(yè)賄 賂不正當競爭糾紛一審民事判決書。

        ⑥ 參見《全球多起機器人殺人事件,如何定性》,https://www.sohu.com/a/281962225_218783.

        ⑦ 羅馬法上有三個關于人的概念,即homo、caput、persona,homo是指生物學意義上的人,不一定是權利義務主體;caput指權利義務主體,表示法律上的人格;persona表示某種身份,是從演員扮演角色所戴的假面具引申而來,借指權利義務主體的各種身份(參見周枏:《羅馬法原論》上冊,商務印書館1994年版,第97頁)。

        ⑧ Ross, P. E. 2016. A Google car can qualify as a legal driver. IEEESpectrum. http://spectrum.ieee.org/cars-thatthink/transportation/self-driving/an-ai-can-legally-be-defined-as-acars-driver.

        ⑨ 譬如麻省理工學院的心理學家謝里.特克爾說,在與機器人Cog相處時,她的行為發(fā)生了改變,她表現(xiàn)得好像有另外一“人”在場一樣。在伊拉克和阿富汗,當把受傷的戰(zhàn)場機器人送回維修廠時,它的操作員像抱一個受傷的孩子一樣摟在懷里(參見【美】約翰.喬丹:《機器人與人》,劉宇馳譯,中國人民大學出版社2018年版,第150-151頁)。

        ⑩ 弗諾.文奇提出了計算“奇點”的概念:在這個點上,機器智能將取得飛速進步,它將成功地跨越超過人類智力極限的時間點,然后實現(xiàn)飛躍,成為“超級人類”(參見約翰.馬爾可夫:《于機器人共舞:人工智能時代的大未來》,郭雪譯,浙江人民出版社2015年版,第10頁)。

        猜你喜歡
        權利主體機器人
        論自然人破產(chǎn)法的適用主體
        南大法學(2021年3期)2021-08-13 09:22:32
        我們的權利
        論不存在做錯事的權利
        法大研究生(2018年2期)2018-09-23 02:19:50
        關于遺產(chǎn)保護主體的思考
        權利套裝
        Coco薇(2015年12期)2015-12-10 02:43:39
        機器人來幫你
        認識機器人
        機器人來啦
        認識機器人
        論多元主體的生成
        日韩av一区二区无卡| 亚洲老妈激情一区二区三区| 国外亚洲成av人片在线观看| 无码中文日韩Av| 国产毛片三区二区一区| 亚洲国产一区二区网站| 无码毛片内射白浆视频| 无码ol丝袜高跟秘书在线观看| 亚洲产在线精品亚洲第一站一| 久久精品国产亚洲av热明星| 亚洲乱码中文字幕三四区| 强开小婷嫩苞又嫩又紧视频 | 激情综合色综合久久综合| 国产精品内射后入合集| 亚洲乱色视频在线观看| 亚洲成熟中老妇女视频| 天天综合网网欲色| 男女爽爽无遮挡午夜视频| 妺妺窝人体色www在线直播| 亚洲精品视频免费在线| 日韩精品在线观看在线| 亚洲精品~无码抽插| 老头巨大挺进莹莹的体内免费视频| 亚洲AV无码一区二区三区精神| 日韩有码在线免费视频| 日本xxxx色视频在线观看| 欧美怡红院免费全部视频| 亚洲av不卡电影在线网址最新| 国产精品不卡免费版在线观看| 国产自拍偷拍精品视频在线观看| 国产成人精品a视频| 成年在线观看免费视频| 亚洲精品一区二区在线播放| 精品日本一区二区三区| 人妻丰满熟妇无码区免费| 国产精品户露av在线户外直播| 国产三级精品三级在线观看粤语| 国产精品亚洲精品国产| 亚洲av无码一区二区三区天堂古代 | 视频一区中文字幕日韩| 女人被狂躁的高潮免费视频|