摘要:當前人工智能已經(jīng)成為國際競爭的新焦點,其發(fā)展速度和發(fā)展水平大有攻城掠地之勢,但其法律主體地位并無有效規(guī)制,導致一系列復雜的法律困境隨機產(chǎn)生。從法律主體理論的演進邏輯出發(fā),人工智能的法律主體化既有必要,也有可能。其主體化實現(xiàn)的路徑可以是:首先承認其獨立的“擬制人格”;同時構建相關“人格否認”制度;最重要的是要建立人工智能的社會保險制度。
關鍵詞:人工智能;法律主體地位;擬制人格;保險制度
中圖分類號:D913 ???文獻標識碼:A文章編號:CN61-1487-(2019)24-0017-03
“智聯(lián)世界,無限可能”,2019年世界人工智能大會如約召開。這是最好的時代,也是最壞的時代。無論人們歡欣抑或是躊躇,我們都將迎來人工智能(Arti?ial Intelligence,以下簡稱AI)時代。無人駕駛汽車、機器人作家、機器人律師、納米科技醫(yī)療機器人、區(qū)塊鏈……都會成為這個時代的注腳。智能時代,未來已來。時下,AI被廣泛應用于社會生活的各個領域,其發(fā)展速度和發(fā)展水平大有攻城掠地之勢。艾倫·圖靈等計算機專家們曾經(jīng)預言,AI的產(chǎn)生和發(fā)展遲早會對人類生存構成巨大威脅,應當在問題態(tài)勢覆水難收之前,為人工智能的發(fā)展制定適當?shù)姆芍贫?,指導實踐的發(fā)展。[1]首先應當明確的即是AI的法律主體地位。AI的法律主體地位與侵權責任的承擔、知識產(chǎn)權的應用與保護、交通領域的規(guī)制等一系列基本理論的發(fā)展決策密切相關,不容回避。適度承認AI的法律主體地位,構建特殊規(guī)制標準,切實調整好其與各方法律主體的關系,有效應對出現(xiàn)的復雜問題,是勢在必行的。
一、困境催發(fā)生機:AI法律主體化之必要
智能革命以摧枯拉朽之勢席卷而來,其裹挾的全新的理念、技術以及前所未有的存在體不斷深入人類生活,同時也帶來了無法回避的法律危機和挑戰(zhàn)。它不僅與現(xiàn)行法律秩序相沖突,而且暴露了現(xiàn)行法律制度產(chǎn)品的供給缺陷,催生著現(xiàn)代社會的法律變革。AI掀起了多領域的疾風驟雨,接踵而至的眾多法律規(guī)制困境讓人們措手不及。所幸,困境往往催發(fā)生機,直面AI帶來的挑戰(zhàn),多領域審視其法律主體化十分必要。
(一)AI致人損害的侵權法問題
AI技術是一把“雙刃劍”,一面是高效與便捷,另一面卻是事故與傷害。1978年在日本廣島,機器人把現(xiàn)場工作人員放入機器中進行切割;2007年美國醫(yī)療外科手術機器人引起病人燒傷、切傷和感染,其中包括89個死亡病例;無人駕駛汽車發(fā)生嚴重交通事故。上述損害的原因,是AI創(chuàng)造者的技術疏漏,或是其管理人員的不當使用?還是AI超越原控制方案的“自身行為”呢?我國尚無關于AI等設備致人損害的明確法律規(guī)定,更缺乏對其法律人格的認定,AI目前只能成為法律上的物品。從產(chǎn)品責任的角度來看,根據(jù)現(xiàn)行的《產(chǎn)品質量法》,產(chǎn)品缺陷致人損害,那么生產(chǎn)者或銷售者應當承擔責任。事實上,機器人通過自我學習之后能夠根據(jù)客觀情況自主判斷做出行為,制造商和銷售商難以預見機器人可能造成的損害,這是機器人區(qū)別于自動化“機器”的重要之處。顯然,在這種情況下仍然將造成的損害歸咎于“產(chǎn)品缺陷”或者產(chǎn)品質量事故并不合適,“工具論”下仍由生產(chǎn)企業(yè)承擔全部賠償責任的結論也再難成立。因此,隨著機器學習及其智能水平的進一步提升,在機器人法律屬性的研究領域,“工具論”也將最終被徹底淘汰。
(二)AI生成作品的著作權問題
在人工智能時代,大量的“作品”是由AI生成的。一些國內的新聞媒體也開始使用機器人寫作系統(tǒng),撰寫各種新聞報道。當AI的創(chuàng)作成果滿足了獨創(chuàng)性要求的情況下,若不對這些成果給予著作權法上的保護,那么大量具有獨創(chuàng)性內容的成果將會免費進入公眾領域,這將損害人類創(chuàng)作者的版權利益,嚴重挫傷版權人的創(chuàng)作熱情。那么,AI尚不具有明確的法律主體地位,它是否可以成為法律意義上的“作者”,對其創(chuàng)作成果是否享有著作權,有些國家和地區(qū)正試圖作出積極的回應:日本正準備對AI所產(chǎn)生的作品提供立法保護;歐盟法律事務委員會提出動議,擬授予機器人著作權。
(三)無人駕駛系統(tǒng)的交通法問題
無人駕駛是AI在交通領域的重要應用。隨著諸如無人駕駛汽車等智能機器人的自主性和適應性的增強,我們很難將其僅僅視為人類手中的簡單工具,應運而生的法律問題逐漸呈現(xiàn)在我們眼前。無人駕駛的出現(xiàn),意味著交通領域的準入資格由駕駛人員技術水平轉變?yōu)闊o人駕駛汽車的智能化水平。由于AI法律主體地位問題尚無具體規(guī)制,不能獨立成為受管制的主體,因而,交通法規(guī)的管理對象或需向智能駕駛系統(tǒng)的研發(fā)者、制造者延伸,嚴格監(jiān)控無人駕駛汽車的交通通行資格。可見,AI已經(jīng)向人類現(xiàn)有的法律體系下了戰(zhàn)書。
(四)AI對其他部門法的挑戰(zhàn)
AI也將對其他法律產(chǎn)生深遠影響。在《電子商務法》中,基于大數(shù)據(jù)完成交易各方相關權利義務的評價,交易大數(shù)據(jù)將最終呈現(xiàn)出交易各方是否存在“過錯”;在《產(chǎn)品質量法》中,基于智能算法完成產(chǎn)品質量的評判,針對產(chǎn)品質量是否合格,企業(yè)也將提交其存儲在支端的數(shù)據(jù)作為證據(jù)支持;在《侵權責任法》中,還將利用機器學習最終完成損害賠償數(shù)額的計算;在《民事訴訟法》中,基于人工智能的研究,法律也將重構訴訟中“受理”“送到”“告知”等相關制度;AI時代,傳統(tǒng)金融法將面臨來自“中心化”智能算法與“去中心化”區(qū)塊鏈技術的雙重挑戰(zhàn)。[2]16總之,人工智能已全面來襲,無論是否愿意都有必要正視人工智能對于法律的巨大挑戰(zhàn)。
二、理論支撐實踐:AI法律主體化之可能
(一)法律主體理論的歷史演進邏輯
AI的崛起對現(xiàn)有法律理論大廈造成了巨大沖擊,法律主體理論首當其沖。對法律主體問題的考量,經(jīng)歷了從人到主體的漫長歷史維度。[3]現(xiàn)代法律主體,或稱作“法律人格”,是一種行使權利、履行義務和承擔責任的法律資格。從理論上講,凡是能夠參與一定法律關系的任何個人和機關,都可以是法律關系的主體?!盵4]150主體資格基于人的抽象呈現(xiàn)出概括性、抽象性和普適性的特征,這使得法律主體資格的開放性成為可能。[5]法律主體理論的演進邏輯,是逐漸地演變?yōu)橐浴叭恕钡某橄鬄橹行牡睦碚擉w系,并向類人的存在物拓展,這為AI具備法律主體地位奠定了理論基礎。從法律主體的發(fā)展趨勢可以預見,AI的法律屬性最終將會從法律客體向主體邁進。
(二)AI成為法律主體的現(xiàn)實可能
法律主體的構成要素,即權利能力和行為能力。然而,法人獲得法律人格、成為法律關系的主體,其認定標準與自然人不同。例如,法人的權利能力是因其行為能力產(chǎn)生的,因此,法人通常避免用“行為能力”一詞,有時被替換為主觀性,其中包括權利能力和行為能力的概念。試問,法人可以被法律擬制,AI為何不可?AI擁有學習、自主決策等的技能,具有典型的行為能力特征,能夠行使特定的權利,履行義務并明確其行為的后果。[6]另外,智能機器人不等于智能的機器。“當機器說出它們的感受和感知經(jīng)驗,而我們相信它們所說的是真的時,它們就真正成了有意識的人?!盵7]203隨著算法的提升,機器人將最終被證明擁有意識,對于法律上的“人”的認識也將徹底改變。
自從沙特阿拉伯授予索菲婭(一位智能機器人)以公民身份之后,關于AI是否具有法律主體資格的討論也更加激烈。歐盟在《機器人民事法律草案》中提及,當機器人可以作出自主決策或者與第三人自主交流時,即要申請“電子人格”。其目的是要設立電子人(electronic persons)一樣的法律地位,讓機器人為其制造的損害負責。這樣在適用AI造成他人損害的案例中,機器人將獨立承擔責任。如此看來,AI的法律主體資格并不是沒有可能實現(xiàn)。
三、交鋒帶來多元:AI法律主體化路徑探索
AI具備獨立思考的能力,這是與其他科技最大區(qū)別之處。其享有權利并承擔責任的特點決定了AI具有被賦予法律人格之可能。但是,AI的這種“法律人格”屬性與自然人和法人是有很大差異的。盡管AI可以做出各種獨立自主的行為,但不容否認其承擔行為后果的能力有限。因而,在明確AI法律主體地位之特殊性的前提下,方可對法律規(guī)制作出合理安排。
(一)承認AI的獨立“擬制人格”
當AI通過機器學習后可以自主完成交流或自主完成決策時,可以賦予其法律意義上的獨立人格。當然,這里的獨立人格是法律“擬制”的,例如法律將公司擬制為法律上的人,賦予其權利,科以法律義務和責任。更甚者,如新西蘭賦予河流以法律主體的地位。針對可以作出自主決策的AI,同樣可以將其擬制為具有法律意義的獨立人格。
這里所謂的“自主決策”概念,仍然是在“弱人工智能”的語境下使用的。如果是在“強人工智能”時代,AI可以與人進行思想和心靈的溝通,那么人的法學概念將被重新定義。AI的主體學說也將被重新建構。在那樣的時代,“擬制人格”的概念也將被智慧人格所取代,即基于AI的智慧而被法律賦予人格,這是現(xiàn)實的人格而非擬制。因此,這里所討論的AI“擬制人格”,是在弱人工智能時代下應用的學說。那么,這里的“自主決策”,并非要求其具有像人一樣或者超越人類的智慧,事實上,僅僅只是要求其通過機器學習完成后所做出的決策系人所無法通過簡單邏輯能直提預測到的,即可稱為“自主決策”。[2]58承認AI獨立的“擬制人格”,確定其作為法律主體所享有的權利,進而解釋AI參與的法律行為或者法律事實,將可以突破“工具說”、“代理說”、“電子奴隸說”、“電子人格說”等的局限,相關利益方的權利問題自然迎刃而解。
(二)構建AI“人格否認”制度
《公司法》上,為保護債權人利益,產(chǎn)生了法人人格否認制度?!叭烁穹裾J”的目的在于矯正利益失衡,給債權人以利益保護。同樣,在承認AI獨立人格時,還要從制度設計上防止AI給人類社會帶來的危害。AI“人格否認”制度,即在出資人或者發(fā)明人濫用AI獨立人格的情形下,同樣有必要否認AI之獨立人格,由其出資人或者發(fā)明人來承擔連帶責任,具體包活如下情形:第一,AI在算法設計上存在明顯違法,如有欺詐、惡意誤導、隱瞞重要事實等算法陷阱,從而導致使用者利益受損的情況,相關利害關系人有權主張人格否認;第二,有證據(jù)證明投資者或發(fā)明人試圖通過AI人格獨立原則損害債權人或社會公共利益時,相關利害關系人有權主張人格否認。[2]63
(三)推行AI保險制度
在人工智能的新型關系中,傳統(tǒng)的“過錯責任原則”也將徹底迭代為“產(chǎn)品質量責任原則”。AI是否達到法律規(guī)定的安全標準又將成為法庭上律師們激烈辯論的新話題。顯然,要證明一個AI是否合格,比起證明一個人是否有過錯要復雜很多。AI的算法又被稱為像“黑洞”一樣的存在,?即便有技術專家的說明,但要把它梳理清楚,同樣是需要花費巨大的司法資源和成本。當證明AI產(chǎn)品質量度為司法最大負擔時,保險制度會證明其比訴訟制度更能夠節(jié)省社會資本。所有可能涉及公民人身、財產(chǎn)安全的AI,都有必要強制其實施保險制度。一旦AI造成公民人身或財產(chǎn)損害,保險制度又應當挺身而出。事實上,與其將資源花費在法庭訴訟中,還不如通過保險制度直接解決問題。
適用AI獨立人格學說的一個顯著特征在于,在發(fā)生損害時,由AI人格登記時需要繳納的財產(chǎn)或者繳納保險的承保范圍來承擔責任,如果上述財產(chǎn)最終沒有辦法承擔全部損失,AI或將適用“破產(chǎn)”制度。如此設計的目的有利推動AI產(chǎn)業(yè)的發(fā)展,猶如公司“擬制人格”制度成為其迅速發(fā)展的重要基石。當然,在這一過程中,受害者的利益同樣需要關注,尤其是AI導致人身傷害的案例中,如何保護受害者合法權益,是AI“擬制人格學說”中尤其需要解決的問題?!癆I不得傷害人類”理應成為AI設計中的首要理念,因此在承認AI擬制人格時應當注意,當AI可能會傷及人類健康時、其需要繳納的注冊資本或者需繳納的風險金的數(shù)額應以其足以保障受害者利益為基準。[2]60
結語
毋庸置疑,社會正在從“互聯(lián)網(wǎng)+”向“人工智能+”轉型。法律規(guī)度或是滯后的,但關于法律問題思索應當是前瞻的。AI的崛起不容回避,AI法律主體地位不明晰,對法律困境的消解就會舉步維艱。一種全新的理念:“只有跳出法律后反觀法律,法學才能獲得更強的生命力”正在反哺法學發(fā)展。[8]310我們理應在認識和分析現(xiàn)行法律規(guī)制困境的基礎上,探索與科技文明相伴而生的制度文明。適當承認人工智能實體的法律主體地位,破解法律難題,任重道遠,但是勢在必行。
參考文獻:
[1]袁曾.人工智能有限法律人格審視[J].東方法學,2017(5).
[2]楊延超.機器人法:構建人類未來新秩序[M].法律出版社,2019.
[3]胡長兵.法律主體考略——以近代以來法律人像為中心[J].東方法學,2015(5).
[4]舒國瀅.法理學導論[M].北京大學出版社,2012.
[5]王勇.人工智能時代的法律主體理論構造——以智能機器人為切入點[J].理論導刊,2018(2).
[6]詹可.人工智能法律人格問題研究[J].信息安全研究,2018(3).
[7](美)雷·庫茲韋爾.人工智能的未來:揭示人類思維的奧秘[M].浙江人民出版社,2016.
[8]白建軍.法律實證研究方法[M].北京大學出版社,2008.
作者簡介:楊素花(1994—),女,漢族,單位為曲阜師范大學,研究方向為司法服務。
(責任編輯:李直)