黃博 劉麗榮
摘要:隨著人工智能時代的到來,智能機器人也逐漸走入我們的生活。其廣泛運用于公、檢、法系統(tǒng)的日常工作中,極大地提高國家公職人員的司法作風及辦案效率。社會各界對人工智能是否具備法律人格的討論日益熱烈。本文基于對人工智能的法律人格的合理性及其本身存在的弊端問題展開分析。若將人工智能賦予法律人格,會導致責任劃分困難、阻礙人工智能的發(fā)展,從而抑制研發(fā)者的積極性,也會與當前法律理念相矛盾的弊端出現(xiàn)。各界人士對人工智能的法律人格問題進行探討,會促進社會主義法制建設(shè),但倉促的賦予其法律人格,弊大于利。
關(guān)鍵詞:人工智能;法律人格;弊端
中圖分類號:D923.42文獻標識碼:A文章編號:2095-4379-(2018)32-0078-03
作者簡介:黃博(1998-),女,漢族,吉林長春人,長春財經(jīng)學院,本科生,研究方向:法律;劉麗榮(1980-),女,漢族,吉林長春人,碩士研究生,長春財經(jīng)學院,講師,研究方向:憲法行政法學。
1956年的特茅斯會議標志著"人工智能"學術(shù)概念的誕生,從此開辟了利用智能機器代替人類從事腦力勞動的新紀元。此后,顯著減輕腦力勞動和實現(xiàn)生產(chǎn)過程智能化成為可能。人工智能不但在社會、經(jīng)濟、文化等諸多方面產(chǎn)生不可或缺的作用,而且在法律層面也產(chǎn)生重要的影響。一、人工智能的概述
人工智能的概念從被提出至今,沒有一個精準的定義。但學者普遍認為人工智能技術(shù)是研究、開發(fā)用于模擬、延伸和發(fā)展人類智能的理論方法、技術(shù)及應(yīng)用系統(tǒng)的一門新技術(shù)學科。①美國麻省理工學院的維斯頓教授對人工智能的定義是:人工智能就是研究如何使計算機去做過去只有人才能做的智能的工作。若計算機去做以前人類去做的事,那么,人工智能人格問題也就此產(chǎn)生了。二、人工智能的法律人格
人工智能是否應(yīng)被賦予法律人格,即未來人工智能是否可成為法律上的主體,我持有否定的態(tài)度。我認為這不但妨礙人工智能領(lǐng)域的發(fā)展,而且受損害者則是機器人的擁有者,進而使人工智能科研家們喪失對其制造商品的積極性。但凡事都具有兩面性,在人工智能是否應(yīng)被賦予”法律人格”的問題上,也同樣具有它對人類的有益之處。
(一)將人工智能賦予“法律人格”的合理性
1.方便于人類,促進法律職業(yè)的改革
人工智能在法律上的作用也不容忽視,近年“智能律師”的出現(xiàn)給法律咨詢者提供極大的方便,咨詢者可以用最短的時間獲取更多的有用信息,而且與一個小時要幾百元的人工律師相比,簡直是即經(jīng)濟又方便。若是給人工智能賦予法律人格,即機器人可具有等同律師的法律責任和義務(wù),與律師“平起平坐”,例如法學界中“法小淘”的產(chǎn)生,它是中國第一個應(yīng)用于法律行業(yè)的機器人,咨詢者可通過簡單的手機語言對話方式將實際案例描繪出來,法小淘能可快速的得出法律相關(guān)損害事實,賠償依據(jù)及事實,并且可在30萬律師中分析出3位于此案例相關(guān)的開庭律師。這對人類未來的法律發(fā)展無疑起到促進的作用,人們可以廉價且快速的使用人工智能通行法律咨詢。
隨著人工智能時代的到來,智能機器人已逐漸被引入到法院、檢察院,參與到司法人員的工作中,可謂將法律相關(guān)工作引入一個改革時代。比如檢察院的檢務(wù)智能語言系統(tǒng),該系統(tǒng)具備較強的語言識別功能,可以將不同的聲音甚至方言信息轉(zhuǎn)化為較為精準的電子文本,而且隨著系統(tǒng)的不斷升級,文字轉(zhuǎn)換的準確率也不斷地提升。針對智能語言系統(tǒng)開發(fā)的智能詢問系統(tǒng)、會議系統(tǒng),都經(jīng)過智能語言試點逐批引入檢察機關(guān),此語言系統(tǒng)的發(fā)明,不但在很大程度上減輕檢察人員的書寫、記錄的工作量,在案件繁瑣量大時,也可以提高工作人員的工作效率。與此系統(tǒng)可以媲美的還有近年研發(fā)的案管機器人,它是現(xiàn)今檢察院在整個司法辦案活動中的一個非常重要的平臺,其中有智能績效考核、智能大數(shù)據(jù)應(yīng)用等多個子系統(tǒng)多個應(yīng)用平臺。他不但能完成上述對海量的數(shù)據(jù)進行總結(jié),還可以幫助案件處理人員提供準確的案件有關(guān)資料、案件相關(guān)人員,并對這些數(shù)據(jù)進行大數(shù)據(jù)采集,可以說便利了檢察人員整個辦案流程。案管智能系統(tǒng)除了對案件進行分析處理,還可對檢察院各部門,甚至各檢察官的工作進行監(jiān)管,通過對各檢察人員,部門錄入相應(yīng)的工作要求,例如辦案數(shù)量、工作作風、司法技能等各工作指標,案管機器人會將工作人員、各部門日常工作情況記錄下來,最后兩者進行比較,通過生成業(yè)務(wù)報表的形式對每一位檢察人員、檢察部門生成各個的綜合考核結(jié)果,從而形成了前所未有的良好監(jiān)督管理機制,從很大程度上提高檢察官的司法作風和工作質(zhì)量。可見,智能系統(tǒng)被引入檢察院,參與進檢察工作的作用不容忽視。隨著信息科技的不斷發(fā)展,法律行業(yè)也隨之進入大數(shù)據(jù)時代,那么將人工智能引入法院將成為大多數(shù)人關(guān)注的問題,在現(xiàn)實生活中法院代表著國家的權(quán)威,是為公民贏得公平的圣地,但仍存在一些“同案不同罪”,也會有少數(shù)貪污受賄的法官為了一舉私利而作出顯失公平的判決,這嚴重影響當事人的利益和國家的信譽。因此,將人工智能系統(tǒng)引入法院,將會促進法院對案件的公平審理。針對案件的處理,人工智能可在裁判文書網(wǎng)生成的大數(shù)據(jù)中找到相似案件的裁判情況,并分析出此案件應(yīng)適用的規(guī)則、原則。這在很大程度上為法官分析案件提供了便利條件,也促進案件審理的公平正義。倘若法官審判案件的結(jié)果與數(shù)據(jù)分析得出結(jié)論相差巨大,系統(tǒng)會自動提示此法官是否對本次判決不做改動,若法官選擇“確定不做改動”的情況時,系統(tǒng)會自動將該案件及審判結(jié)果移送給法官聯(lián)合會議,并要求每位法官提出自己的看法,這避免“同案不同判”的情況發(fā)生。
2.方便通過法律手段加以規(guī)范和管制
若將人工智能賦予“法律人格”,不但在很大程度上促進法律職業(yè)的改革,而且會更加方便法律對人工智能的規(guī)劃與管制。規(guī)范律師行為可適用《律師法》等行業(yè)道德規(guī)范等一切法律都將適用于人工機器人。這樣,無論是像“法小淘”,“阿爾法狗”這樣的人工機器人,還是提供語言咨詢的手機“助理”,都將會被人類的法律規(guī)范。若人工智能違法,則會按照人類的法律對其進行管制。這樣,則不用再擔心人工智能的“肆無忌憚”從而威脅人類生活。賦予人工智能以法律人格給人類帶來的利益是值得肯定的,但它所帶來的弊端也不容忽視。(二)人工智能賦予“法律人格”的弊端
1942年伊薩克.阿莫夫在短篇小說《轉(zhuǎn)圓圈》中提出機器人應(yīng)遵守的三條法則“第一:一個機器人不得傷害一個人類也不能因不作為而允許一個人類被傷害;第二:一個機器人必須遵守人類施加給他的規(guī)則,除非一些規(guī)則與第一條規(guī)則相沖突;第三:一個機器人必須保護自己的存在,只要這種自我保護不與第一或第二條相沖突”。但發(fā)現(xiàn),機器人無法同時遵守二、三兩條規(guī)則,從而不斷重復(fù)他先前的行為,形成“轉(zhuǎn)圓圈”的狀況?;舨妓拐f過:“自我保護是第一自然法則?!比魏我粋€人類都不會發(fā)生這些怪異行為。因為人類是變通的,無論何時遇到危險其第一生理現(xiàn)象應(yīng)是自我保護,只有這種強行的規(guī)則才會使機器人陷入到這個“轉(zhuǎn)圓圈”當中。從此可見,機器人完全像人類一樣遵守規(guī)則,沒有獨立自主辨別事物的能力顯然是不能做到的。
1.造成損害責任劃分困難
2016年,歐洲會議向歐盟委員會提出報告,為規(guī)范機器人的生產(chǎn)及市場的流通要制定相應(yīng)的民事規(guī)范。也就是說,賦予機器一定的“法律人格”,即“電子人格”,這是對機器人獨立與第三人交往的案例中所要遵守的法律,但報告中并沒有提出明確的處罰方法,若是機器人違法,是像人類法律中規(guī)定的那樣罰款?繳費?若機器人觸犯到人類的生命安全,是予機器人一定的刑罰?還是判處死刑?還是由它的生產(chǎn)者、制造商或是它的使用者來承擔應(yīng)有的法律責任?我認為這都不是最合適、有效的方法。
首先機器本身沒有生命,從何談及“生命權(quán)”?而它所謂的“生命權(quán)“也是歸他的擁有者所有的;作為一個機器人,不會有獨立的個人財產(chǎn),因此對它進行罰款也是不可能的。
其次,如果讓人工智能的生產(chǎn)者、制造商對其的行為而擔責,這雖然在一定程度上的確會促進生產(chǎn)商對機器人產(chǎn)品的質(zhì)量嚴格把關(guān),但如果真的將此規(guī)則寫入法律,就等于鞭炮制造商要對因顧客不當使用鞭炮而傷害他人的行為承擔責任;槍支的生產(chǎn)商可因謀殺而造成的損害被起訴。現(xiàn)是人工智能發(fā)展的初步階段,因技術(shù)和經(jīng)濟的問題對人工機器人潛在危險性存在尚不明確的情況,對此有待探明。因此,其生產(chǎn)者、制造商一味對其產(chǎn)品統(tǒng)攬其責,可能造成機器人的高價,從而導致購買者的數(shù)量隨之下降。
再次,換一種問責角度,讓人工智能的消費者承擔損害責任,消費者購買機器人后獨立承擔其風險,其法律問責與生產(chǎn)者、銷售商都無關(guān),是一種消費者風險自負方式。這種方式的優(yōu)點在于促進人工智能的設(shè)計者對機器人的定價下調(diào),也是大多數(shù)顧客可以承擔得起對機器人的購買,促進商品經(jīng)濟的發(fā)展。但不可忽視的是會有一些人工智能的生產(chǎn)者和開發(fā)商因不需承擔任何法律責任,而忽略產(chǎn)品的質(zhì)量,從而給消費者帶來不可估量的損失。
最后,如果責任由生產(chǎn)者和消費者雙方分擔,那么,又將涉及到歸責比例問題。對于歸責原則,依照我國目前法律體系來看,有過錯責任制和嚴格責任制兩種,而兩種責任方式都要求生產(chǎn)商在設(shè)計人工智能的過程中盡可能各個環(huán)節(jié)都謹慎、考慮周全,制造者能夠保障機器的質(zhì)量、功能的健全,人工智能的所有者在轉(zhuǎn)讓他物權(quán)時有提醒義務(wù),保障其能夠正常使用的義務(wù)。但人工智能與我們?nèi)粘J褂玫挠陚?、背包不同,機器人更像我們使用的電子產(chǎn)品,例如手機、電腦等,簡單的從外觀很難辨別其好壞,也許在使用以后的某個時間節(jié)點出現(xiàn)問題,甚至有些問題究竟是因為消費者使用不當所造成的還是因為生產(chǎn)者在生產(chǎn)過程中的過錯而造成的,難以分辨。綜上,從責任界定角度來看,若想給予人工智能以法律人格目前難以實現(xiàn)。
2.阻礙人工智能的發(fā)展,抑制研發(fā)者的積極性
在當今科技發(fā)展如此迅速的社會,毫無疑問,人工智能給人類帶來的好處遠大于弊端。但倘若倉促的賦予人工智能以法律人格,不但不能有效的對人工智能領(lǐng)域起到很好的規(guī)范作用,還會抑制研發(fā)者對人工智能創(chuàng)新研發(fā)的積極性。因為人工智能法律人格的賦予,會將機器人的研發(fā)與市場銷售都規(guī)定在義務(wù)范圍內(nèi),這種規(guī)定的局限性在于沒有把因機器人自身不可避免的缺陷和消費者使用不當?shù)脑蚩紤]在內(nèi)。這會導致就算科技研發(fā)者有了新的創(chuàng)新思維,但因為智能主體擁有主體資格,懼怕于新產(chǎn)品的出現(xiàn)會導致新風險的產(chǎn)生,從而被追究法律責任,進而降低新產(chǎn)品的研發(fā),這在一定程度上也阻礙了智能技術(shù)的發(fā)展。因此,法學界對此問題的充分討論是有必要的,但盲目對人工智能賦予則是不正當行為。
3.與當前的法律理念相矛盾
弱人工智能是指例如在我們?nèi)粘I钪须S處可見的搜索引擎、自動駕駛、室內(nèi)智能體溫計等,多數(shù)是在某一領(lǐng)域有實用價值的人工智能;強人工智能是指具有類似人一樣的自我意識和較高的創(chuàng)新思維,可完全支配自己的行為和思想,可達到"人類認知"水平,并在處理問題的速度上遠高于人類;超強人工智能是指人工智能達到可以像人一樣去思考問題,去社交,甚至可以利用以儲備的知識完成自主的學習、去發(fā)掘新技術(shù)、新領(lǐng)域。而我國目前處于弱人工智能階段,可以說是弱人工智能的初步發(fā)展階段。從我國當前的法律領(lǐng)域來看,“獨立認知能力”和“表意能力”是擁有法律主體資格的前提。機器人經(jīng)不斷的自主學習和深度學習,在一定程度上可超過人類的認知能力。例如,近幾年研發(fā)的“法小淘”、“阿爾法圍棋”等智能機器人。但單單用認知能力去衡量法律人格問題是不全面的,我國目前還處于弱人工智能階段,現(xiàn)階段的機器人還未達到完全擁有人類的思維,而是缺乏人類的情感和感性思想。因此,倉促的賦予人工智能以法律人格顯然與我國立法原則相違背,存在一定的矛盾。三、結(jié)語
目前,人工智能還處于初步發(fā)展階段,雖然現(xiàn)在其人格問題還沒有在法律層面對人類構(gòu)成太大的威脅,但未雨綢繆,人工智能是未來社會發(fā)展的必然結(jié)果,“強人工智能”在不久的將來定會走進我們的生活。因此,人工智能是否具有法律人格是我們應(yīng)該面對的問題,我們應(yīng)如何控制并合理分配對機器人潛在危險的預(yù)防;怎樣制定法律規(guī)則既不與法律根本原則相違背又能達到規(guī)范機器人行為的目的,是立法者在目前需要解決的問題。
我認為,要從根本上解決對人工智能法律問責的問題,盲目的賦予其法律主體資格顯然局限,我們應(yīng)從以下三個方面對人工機器人進行法律上的防控:第一,在機器人發(fā)生危險時,應(yīng)明確法律問責的主體,調(diào)整人工智能的生產(chǎn)者、銷售商以及其擁有者之間責任劃分的矛盾;第二,在有關(guān)人工智能的法律規(guī)則的制定中,要充分的保護人工智能科技研發(fā)者的利益,使其對新技術(shù)的開發(fā)具有積極性,進而促進我國人工智能技術(shù)早日向“強人工智能”發(fā)展。第三,立法者在法律制定的過程中,要注意其立法規(guī)則不能與傳統(tǒng)的法律原則相違背,更不能與《憲法》發(fā)生抵觸,違憲即無效。
法學界對人工智能問責的相關(guān)問題進行充分的討論是一個好的趨勢,但盲目的對其立法、設(shè)規(guī)顯然局限,也不能解決實時性問題。因此,對人工智能法律人格應(yīng)如何設(shè)定的問題,還要在我們未來的法律學習中繼續(xù)摸索。[注釋]
①趙梓含.人工智能與法律的未來[J].法治與社會,2018.2(上).[參考文獻]
[1]楊燾.人工智能在司法領(lǐng)域運行的現(xiàn)狀及完善對策研究[J].科技與法律,2018.
[2]昕航,武文芳.法律人工智能對檢察類職業(yè)的挑戰(zhàn)與應(yīng)對[J].政治與法律,2017.
[3]鄭戈.人工智能與法律的未來[J].時事觀察,2017.
[4]詹可.人工智能法律問題研究[J].信息安全研究,2018.