摘 ?要 人工智能極速發(fā)展在各個領域大展拳腳,但在我國的法律規(guī)范中,人工智能的法律人格規(guī)范尚未確定,導致社會生活中中人工智能帶來的倫理道德、個人數(shù)據(jù)隱私安全以及侵權責任承擔主體責任不明等問題的出現(xiàn)。雖目前屬于弱人工智能階段,但是法律的作用在于防范于未然。為規(guī)避日后人工智能做出獨立的意思表示,應當賦予其人格,將法律規(guī)范和倫理道德結合,并設立人工智能法律代理人,建立健全智能監(jiān)管體系,使人工智能在法律框架內(nèi)運作。
關鍵詞:人工智能;法律人格;監(jiān)管
引言
2016年3月15日,“第一旗手”(AlphaGo)戰(zhàn)勝韓國圍棋高手李世石預示著以AlphaGo為代表的人工智能已經(jīng)戰(zhàn)勝人腦的智慧,因此不僅在圍棋界引起了極大的關注,并且吸引了全世界人們的目光。一方面由于其電子化的操作代替人類大部分機械性的工作,帶來社會高效率的運行。但另一方面,德國大眾汽車制造廠的工人在調(diào)試汽車時被機器人碾壓在金屬板上致死的“機器人殺人”事件以及Google無人駕駛汽車與本田汽車相撞的交通事故事件使學者不得不思考人工智能快速發(fā)展帶來的法律責任的承擔問題。人工智能的未來發(fā)展方向歸根結底在于人類自身,機器人終究屬于人類為了自身而設計和制造出來的。
一、人工智能的法律人格定位缺失
(一)交通事故、產(chǎn)品質(zhì)量等侵權案件發(fā)生時,責任承擔主體不明
人工智能應用廣泛,快速侵占諸如醫(yī)療中的精密儀器、汽車中的無人駕駛等高科技領域。將包含人工智能的產(chǎn)品投入到市場,由此發(fā)生侵權責任事故時,責任由誰承擔?2017年百度李彥宏乘坐自動駕駛汽車試駕時,交警認為其“違法”,因為我國法律規(guī)定,機動車上路司機需要駕駛證件等,但是該車輛屬于無人駕駛,不具備相關條件。雖然李彥宏所乘坐車輛未發(fā)生交通事故,但是法律制定的目的不僅僅在于事后的補救,更在于防患于而然。若由于無人駕駛發(fā)生事故時,我國尚無相關規(guī)定,責任應歸屬于車輛的所有者還是人工智能的開發(fā)者?抑或是乘車人?責任承擔主體不明導致受害人不能獲得良好的救濟。
(二)大規(guī)模數(shù)據(jù)的運用,個人隱私的保護更加無力
數(shù)據(jù)時信息時代發(fā)展的重要基礎源泉,誰掌握了更多的數(shù)據(jù)誰就是信息時代的贏家。人工智能掌握了大量的數(shù)據(jù),能夠運用數(shù)據(jù)進行高效的分析,并得出最有效的處理辦法使得現(xiàn)在成為了人工智能運用的社會。然而也正是由于人工智能對數(shù)據(jù)運用方面存在天然的依賴性,喪失大規(guī)模數(shù)據(jù)的儲存,人工智能也便無用武之地。個人隱私恰恰是和數(shù)據(jù)有最密切關系的一個重要方面,一旦數(shù)據(jù)被任意使用或者儲存數(shù)據(jù)的電子平臺遭到破壞,則人們的隱私保護岌岌可危。
(三)倫理界限模糊
如20世紀90年代克隆技術的成功引發(fā)的倫理爭議一樣,人工智能的運用勢必會引發(fā)倫理界限的研究。機器人作為人工智能產(chǎn)品中最智能的代表,自2013年發(fā)生多起事件,如奧地利清潔機器人Roomba“自殺案”、日本保姆機器人ROBEAR引發(fā)的人類對機器人的依賴事件,這些事件背后隱含的倫理道德引起社會的關注。機器人是“人”還是“機器”,以機器人為代表的人工智能是否應當具有人的倫理道德,人工智能發(fā)展的價值定位為何等一系列問題尚待探討。
法律對世間萬物進行規(guī)范的主要依據(jù)之一便是該物體屬于法律的約束范疇,具備受法律約束的要件。人工智能是否享有法律主體地位決定了法律的規(guī)定能否適用于人工智能,其規(guī)定的權利義務的享受和承擔能否對人工智能具有約束效力。研究人工智能的法律主體地位能夠為責任義務的承擔明確主體性條件,并平衡各個主體之間的責任承擔。
二、人工智能享有有限的法律人格
法律人格是作為法律關系的主體,有權行使法律規(guī)定的義務并承擔法律施加的義務的條件,法律人格要求具備兩個條件:具有獨立決定自己意志的能力。是否能夠獨立決定自己的自由意志,確定了該主體是其他主體的工具還是具有獨立的意識,法律的規(guī)范性要求均為針對具有自主意識的主體,不具有自主意識的主體,不是法律規(guī)范的主體,因此也就不具有法律人格。二是法律的確認。在人工智能高度發(fā)達的時代,權利意識將覺醒于機器人體內(nèi)。[2]人工智能發(fā)展具有三個階段,目前的人工智能尚處于弱人工智能階段,其運行受到算法的規(guī)范,目前的機器人均是按照事先輸入的算法程序運作,但是當發(fā)展到高人工智能階段時,人工智能能夠靈活運用程序員輸入的數(shù)據(jù)和操作路徑,行為時選擇最優(yōu)的方式,為平衡各個方面的利弊,人工智能的權利意識可能覺醒,人類應當在以機器人為代表的人工智能的權利意識覺醒之前,發(fā)揮法律的規(guī)范和指引作用。
(一)人工智能能夠決定自己的意志
首先,人工智能能夠獨立作出意思表示。在人工智能的三個階段中,人工智能運用程序員輸入的算法程序,綜合確定最優(yōu)路徑,依大量的基礎數(shù)據(jù)為依托,以其自主意識作出意思表示,帕羅作為日本頗受歡迎的寵物機器人,在2010年11月7日獲得了日本戶籍,意味著日本政府在一定程度上承認了寵物機器人的法律主體地位。[3]其次,人工智能擁有權利能力。我國現(xiàn)在的法律體系中,未對人工智能的法律主體資格予以確認,但是法律主體的范圍并非不可變。從世界范圍中觀察權利主體的變化歷程,可以發(fā)現(xiàn)中奴隸、婦女享有選舉權、黑人享有選舉權、動物享有權利、法人的主體資格均是法律主體體系不斷變化的表現(xiàn)。公司法人作為沒有生命的客體,由于社會發(fā)展的需要而賦予其法律主體資格,因此由于人工智能在社會發(fā)展中引發(fā)的一系列問題以及所起到的作用也應當被賦予行使權利的能力。西方哲學界認為技術發(fā)展到一定程度后必然會有精神,如果技術發(fā)展更加智慧,它就會像大腦成為精神的更好載體。最后,人工智能有責任承擔義務。人工智能非依靠其設計人或者制作人而獨立作出意思表示后,按照“責任自負”的原則,人工智能帶來的法律責任不應當由他人承擔。
(二)人工智能的主體資格應當在法律體系中規(guī)定
權利的發(fā)展階段是社會生產(chǎn)力生產(chǎn)的結果。法律體系中的權利必須體現(xiàn)社會習慣以及社會的需要程序,而非強制改變社會的習慣,更不能僅依靠法學家在象牙塔中的設想隨意創(chuàng)造。人工智能快速運用在各個領域并大展拳腳的情況下,在法律體系中確定人工智能的法律主體資格,不僅是社會習慣的表現(xiàn),更體現(xiàn)了社會的需要,也將有效地減少因無法律規(guī)范人工智能的行為責任所產(chǎn)生的倫理沖突。在弱人工智能階段中,人工智能作出的法律行為已經(jīng)引起了社會的關注和法學學者的探討,同時,由于人工智能發(fā)展的前提是數(shù)據(jù)的存在,人工智能擁有的權利會涉及到數(shù)據(jù)的保密以及數(shù)據(jù)的運用,因此人工智能具體擁有的權利可能和目前社會主體擁有的權利有所差別。
三、規(guī)制人工智能的法律主體地位
雖然人工智能已經(jīng)歷了數(shù)十年的發(fā)展,但其在法律領域的應用還處于初級階段,單從技術層面來說,人工智能在搜索、咨詢甚至是對結果的預測分析方面,發(fā)揮著越來越重要的作用。關于人工智能的使用、法律責任及未來的發(fā)展還存在諸多爭議。為進一步規(guī)范人工智能在法律中的地位以及運用法律解決人工智能發(fā)展中的問題,筆者建議從以下幾個角度規(guī)范人工智能的法律地位。
(一)法律規(guī)范和人工智能倫理規(guī)范的銜接
阿西莫夫提出了機器人三大定律,作為研究人工智能的倫理原則。[6]雖然機器人三大定律是由科幻小說展現(xiàn)給世界的,但是在現(xiàn)實的倫理世界仍然具有適用的空間:機器人在尊重和服從人類命令的基礎上,可以為保護自己啟動自身的智能保護啟動。在大力加快人工智能發(fā)展的同時,人類尚需對其倫理和道德符合人類價值觀的規(guī)制和約束。規(guī)范人工智能適用的一般倫理道德時,應當主要考慮人權、人類利益第一、削弱人工智能的風險。中國社會科學院段偉文也提出機器人不可能比人更有道德,并提出將倫理原則嵌入在智能機器設計之中。[8]將法律的基本原則和人工智能倫理規(guī)范相互銜接一方面能夠為人工智能后續(xù)發(fā)展提供法律上適用的空間,同時也能降低人科技發(fā)展與倫理道德的碰撞。
(二)設立人工智能法律代理人
所謂法律代理人,是指中級人工智能在實施生活行為及法律行為時,輔助人工智能了解該行為的作用及法律后果,并在人工智能卷入訴訟程序時,作為人工智能的代理人,代為進行訴訟行為的主體。人工智能雖能夠決定自己的意志,但是在中級人工智能階段,由于其依托的基礎數(shù)據(jù)尚不健全,無法對發(fā)生的所有事情作出適合的判斷,建立人工智能法律代理人制度,能夠避免人工智能因不了解其所實施行為的法律后果的出現(xiàn)。法律代理人與訴訟代理人和法定代理人最大的不同點在于,訴訟代理人的確定需要經(jīng)過一系列的授權委托手續(xù)、法定代理人則只針對未成年人進行代理,法律代理人的確定不需要經(jīng)過法律確定的手續(xù),但是需要程序設計者在設計出人工智能時,在人工智能系統(tǒng)內(nèi)確定該人工智能的法律代理人,輔助人工智能實施行為。
中級階段的人工智能具有獨立的意識能夠自主實施行為,但是對于超過其理解范疇的內(nèi)容,仍需要法律代理人的幫助。法律代理人的作用類似于法定代理人,能夠代理僅具有有限法律人格的人工智能實施訴訟行為,和超出人工智能決定范圍的社會行為。
(三)加大監(jiān)管力度,建立監(jiān)管體系
信息時代,人類的發(fā)展軌跡均可以通過數(shù)據(jù)的方式體現(xiàn),也因此都在人工智能的控制范圍中。作為對社會發(fā)展有重大影響的人工智能領域,政府監(jiān)管的介入,可以將人工智能在社會生活領域的運用控制在一定的范圍內(nèi),并隨著科技的發(fā)展以及法律的完善而逐漸推進人工智能的有序進行。
人工智能的監(jiān)管工作不是某個部門可以獨立完成的,需要各個機關之間的配合。因此可以根據(jù)不同的責任分擔情形,形成人工智能監(jiān)管的框架。立法、執(zhí)法、司法在各自的權限范圍內(nèi)實施對人工智能的監(jiān)管。首先人工智能的開發(fā)和投入到市場中,需要經(jīng)過嚴格的審批程序,因此在立法階段,立法者可以將人工智能需要經(jīng)過的程序以立法的形式予以嚴格的限制;其次,在開發(fā)和投入市場的過程中,行政執(zhí)行機關嚴格按照相關法律文件的規(guī)定予以監(jiān)管。最后,在人工智能使用過程中,產(chǎn)生的一系列侵權責任則由司法機關以訴訟的方式予以解決。建立全方位的監(jiān)管系統(tǒng)可促進人工智能的良好運行,最大程度降低人工智能帶來的威脅。
參考文獻
[1]黃江,張春晏.人工智能的未來之路——普利策獎得主約翰·馬爾科夫?qū)TL[J].清華管理評論,2016(1):21-28.
[2]Mcnally P,Inayatullay S,邵水浩.機器人的權利——二十一世紀的技術、文化和法律(上)[J].世界科學,1989(6).47-50
[3]謝暉.論新型權利生成的習慣基礎[J].法商研究,2015(1):44-53.
[4]袁曾.人工智能有限法律人格審視[J].東方法學,2017(5).50-57
[5]齊鯤鵬."2017′人工智能:技術、倫理與法律"研討會在京召開[J].科學與社會,2017(2).124
作者簡介:
蔣士紅,1996-10,女,漢族,安徽阜陽,碩士,研究方向:司法制度、訴訟制度。
(作者單位:華東政法大學 法律學院 訴訟法專業(yè))