韓欣悅,聶洪濤
(西安財經(jīng)大學(xué),西安 710061)
人工智能(Artificial Intelligence)的概念提出至今,其在制造、醫(yī)療、交通、服務(wù)等領(lǐng)域的應(yīng)用迅速發(fā)展,正深刻改變著人類社會的經(jīng)濟(jì)形態(tài)、生產(chǎn)生活方式和法律結(jié)構(gòu)。然而,人工智能時代是知識革命的時代,也是風(fēng)險劇增的時代,人工智能時代的風(fēng)險既表現(xiàn)為技術(shù)性風(fēng)險,也表現(xiàn)為制度性風(fēng)險,且這種風(fēng)險未來會超越國界,沒有社會文化、地理區(qū)域的限制。現(xiàn)有法律體系能否應(yīng)對人工智能帶來的新風(fēng)險和不確定性,調(diào)和智能算法所引起的沖突與矛盾,在智能時代繼續(xù)維持秩序與變革、安全與創(chuàng)新之間的平衡?科技創(chuàng)新是時代大勢和國際潮流,法律工作者需要思考,如何以法律規(guī)范消解技術(shù)風(fēng)險,促進(jìn)科技創(chuàng)新和產(chǎn)業(yè)發(fā)展。對此,我們不僅需要科學(xué)的智慧,更需要制度的理性,在新一批人工智能技術(shù)開始大量應(yīng)用之前,法律領(lǐng)域反省性的修改和根本性的變革正在逐步浮現(xiàn)。在人工智能技術(shù)健康有序發(fā)展的基礎(chǔ)上探討構(gòu)建相關(guān)法律風(fēng)險防控和責(zé)任分擔(dān)機(jī)制將是新時代的一個重要法律課題。
人工智能作為智能產(chǎn)業(yè)發(fā)展的核心,是其他智能科技產(chǎn)品發(fā)展的基礎(chǔ),近年來,國內(nèi)外科技創(chuàng)新企業(yè)紛紛開展人工智能產(chǎn)業(yè)鏈布局,許多應(yīng)用成果相繼落地。當(dāng)前,人們對人工智能的關(guān)注度與日俱增,大量數(shù)據(jù)、資本和人才的匯集驅(qū)動AI技術(shù)研究不斷向前推進(jìn)。
圖1 人工智能技術(shù)熱點領(lǐng)域分布圖
圖2 中國人工智能企業(yè)類型及占比統(tǒng)計圖
隨著人工智能應(yīng)用領(lǐng)域的擴(kuò)展,“AI+”作為新興業(yè)態(tài)開始萌芽,越來越多的行業(yè)投入人工智能技術(shù)研究,助力技術(shù)和產(chǎn)業(yè)的深度融合。根據(jù)中國信息通信研究院的統(tǒng)計,我國“AI+”企業(yè)總計占比超過40%,可見國內(nèi)企業(yè)對人工智能應(yīng)用環(huán)節(jié)的關(guān)注??梢灶A(yù)見未來幾年,科技、制造等行業(yè)巨頭的技術(shù)布局將更加深入,隨著眾多垂直領(lǐng)域的科技創(chuàng)新企業(yè)誕生和成長,人工智能將出現(xiàn)更多產(chǎn)業(yè)級和消費級應(yīng)用產(chǎn)品。
圖3 2015 — 2020年中國人工智能市場規(guī)模及增長情況統(tǒng)計圖①數(shù)據(jù)來源:中國產(chǎn)業(yè)信息網(wǎng)https://www.chyxx.com。
隨著我國人工智能產(chǎn)業(yè)政策不斷落地,技術(shù)應(yīng)用的商業(yè)化進(jìn)程加快。在國家戰(zhàn)略規(guī)劃中,人工智能已超越技術(shù)概念,成為產(chǎn)業(yè)轉(zhuǎn)型、綜合國力提升的立足點和新機(jī)遇,巨大的行業(yè)應(yīng)用前景、開放的市場環(huán)境與數(shù)據(jù)資源、研發(fā)能力的有機(jī)結(jié)合,形成了我國人工智能發(fā)展的獨特優(yōu)勢。隨著人工智能向不同領(lǐng)域的迅速滲透,其相關(guān)技術(shù)已獲得全球范圍的關(guān)注和研究,越來越多的創(chuàng)新主體加入了人工智能研發(fā)的競爭與布局。AI應(yīng)用在世界各地呈現(xiàn)出了多元、廣泛的特點,推動了深刻持久的社會變革,也帶來了潛在的隱患和風(fēng)險。
人工智能廣闊的發(fā)展前景正源源不斷地吸引著世界各國的資金、技術(shù)和人才,在滿足人們對智能社會美好愿景的同時,其帶來的負(fù)面影響也不容忽視,人工智能應(yīng)用中出現(xiàn)的事故足以讓我們面對新技術(shù)時更加冷靜和謹(jǐn)慎。智能算法帶來的風(fēng)險主要有:一是智能系統(tǒng)自身存在漏洞和缺陷而致人損害的風(fēng)險,二是系統(tǒng)遭到外部侵入和操控而產(chǎn)生的風(fēng)險[1]。智能算法產(chǎn)生的法律風(fēng)險和責(zé)任歸屬問題如何解決,如依據(jù)何種規(guī)則認(rèn)定責(zé)任、由誰承擔(dān)責(zé)任以及如何承擔(dān)責(zé)任等,事關(guān)受害人權(quán)利的及時救濟(jì),更影響到人工智能新技術(shù)的穩(wěn)定和可持續(xù)發(fā)展。
自人工智能誕生以來,其理論和技術(shù)日益成熟,應(yīng)用領(lǐng)域也不斷擴(kuò)大,但與此同時也出現(xiàn)了一系列人工智能技術(shù)應(yīng)用引發(fā)的事故。2015年德國大眾汽車廠的機(jī)器人突然失控襲擊安裝工人致其當(dāng)場死亡②參見新華網(wǎng):http://www.xinhuanet.com/world/2015-07/02/c_127977462.htm。,美國研發(fā)的外科手術(shù)機(jī)器人發(fā)生故障,導(dǎo)致大量患者受傷、89位患者死亡。[2]深圳國際高新技術(shù)成果交易會上的機(jī)器人突然砸壞玻璃致使人員受傷……這些事件引發(fā)了公眾對人工智能的恐慌和學(xué)者對法律完善的思考。[3]
在技術(shù)的發(fā)展過程中,人工智能的法律地位、責(zé)任、權(quán)利義務(wù)等如何界定一直備受重視。關(guān)于人工智能致人損害的責(zé)任問題,有學(xué)者認(rèn)為人工智能自身可作為責(zé)任主體,也有學(xué)者認(rèn)為其與一般的產(chǎn)品責(zé)任沒有區(qū)別。誠然,人工智能工作物具有直接致人損害的客觀事實,但它們對于自己行為的結(jié)果無法識別和控制,缺乏為自己的過失而承擔(dān)責(zé)任的能力,因“無責(zé)任能力者之行為不得使負(fù)義務(wù)”,致人損害的責(zé)任主體仍需為自然人、法人或非法人組織。然而,基于人工智能的特點,其致人損害的責(zé)任與一般的產(chǎn)品責(zé)任也并不等同。
人工智能產(chǎn)品通常被視為科技產(chǎn)品,但與一般科技產(chǎn)品不同的是,智能算法具有一定的自主性,可能脫離人類控制或違背人類意志。[4]因此,人工智能致?lián)p的責(zé)任承擔(dān)具有特殊性。根據(jù)現(xiàn)行法律,產(chǎn)品致?lián)p適用侵權(quán)責(zé)任的規(guī)定,由生產(chǎn)、銷售方進(jìn)行賠償。如果智能算法完全由人主導(dǎo),致人損害時侵權(quán)責(zé)任的歸責(zé)方式尚屬可行,但對于初步具有信息處理和自主決策能力的智能產(chǎn)品,如自動駕駛系統(tǒng)、智能機(jī)器人等,其責(zé)任主體及損害賠償機(jī)制則有進(jìn)一步討論的必要[5]。
人工智能產(chǎn)品從設(shè)計、生產(chǎn)到使用,關(guān)系到設(shè)計研發(fā)者、生產(chǎn)者、銷售者和使用者。將智能算法的缺陷歸責(zé)于生產(chǎn)和銷售者顯然無法囊括其可能涉及的責(zé)任人[6]。如無人駕駛技術(shù)的應(yīng)用使法律規(guī)制的對象由駕駛員轉(zhuǎn)變到研發(fā)者及所有者,帶來法律責(zé)任體系的重構(gòu)。在人工智能致人損害的情況下,應(yīng)就多方主體的責(zé)任予以考量。如使用者不存在不合理使用和操作失誤,智能算法的設(shè)計研發(fā)者對人工智能產(chǎn)品的安全負(fù)有根本的責(zé)任,設(shè)計研發(fā)的科學(xué)性決定了產(chǎn)品使用的安全性。在設(shè)計開發(fā)階段,研發(fā)者應(yīng)充分衡量預(yù)期利益和潛在風(fēng)險,使智能產(chǎn)品發(fā)揮出預(yù)期的功用。對于具有一定智能識別和自主決策能力的人工智能產(chǎn)品來說,應(yīng)更注重?fù)p害的可預(yù)見性問題。
一些弱人工智能產(chǎn)品本身可能存在技術(shù)缺陷,強(qiáng)人工智能在深度學(xué)習(xí)之后,算法程序也可能偏離最初的預(yù)設(shè),這些缺陷如被不法分子利用,將會產(chǎn)生危害社會的不良后果[7]。相對來說,人工智能的設(shè)計與研發(fā)行為,并不一定是犯罪結(jié)果發(fā)生的直接原因,通常是前端因素,即引發(fā)犯罪風(fēng)險的最初原因。人工智能系統(tǒng)在設(shè)計之初通常就已經(jīng)帶有一定的目的性,倘若開發(fā)的目的就是用于竊聽,則本身可能帶有犯罪目的,最終產(chǎn)生犯罪的結(jié)果,研發(fā)者可能會構(gòu)成故意犯罪;如果設(shè)計的目的不是用來犯罪,最終卻被用于犯罪,則這種結(jié)果并不是研發(fā)者主觀追求的,而是因存在技術(shù)上的缺陷和漏洞被人利用,或深度學(xué)習(xí)超出了研發(fā)者的預(yù)設(shè)和控制,由此引發(fā)的風(fēng)險不應(yīng)認(rèn)為是故意犯罪,是否存在過失則需要進(jìn)一步討論[8]。
根據(jù)“技術(shù)中立”原則,如果本身不存在技術(shù)漏洞,也無犯罪目的,只是遭到他人非法利用,研發(fā)設(shè)計者則不承擔(dān)責(zé)任。但由于人工智能的發(fā)展尚處在初級階段,受到現(xiàn)有技術(shù)的局限,漏洞往往很難在開發(fā)階段被研發(fā)者察覺和避免,使不法分子的侵入有機(jī)可乘。有學(xué)者認(rèn)為對于可能危及人民生命健康和公共安全的應(yīng)用領(lǐng)域,應(yīng)按照無過錯原則追究責(zé)任,但是這種歸責(zé)方式加重了技術(shù)研發(fā)者的義務(wù),或?qū)⒋靷萍紕?chuàng)新者的積極性,抑制技術(shù)進(jìn)步和行業(yè)的可持續(xù)發(fā)展。注意義務(wù)的合理設(shè)置,有利于明確過失的范圍界定,但關(guān)于注意義務(wù)的來源目前學(xué)界仍存在爭議。有學(xué)者研究了自動駕駛系統(tǒng)遭到外部侵入實施犯罪的案例,對注意義務(wù)的來源進(jìn)行了歸納,還有學(xué)者把注意義務(wù)的范圍限定于行業(yè)標(biāo)準(zhǔn)或者國家標(biāo)準(zhǔn),認(rèn)為處于標(biāo)準(zhǔn)范圍內(nèi)的風(fēng)險是應(yīng)由技術(shù)研發(fā)者注意的,但是行業(yè)標(biāo)準(zhǔn)多為民間標(biāo)準(zhǔn),與注意義務(wù)未必能保持一致。
在現(xiàn)代社會諸多風(fēng)險中,人工智能的應(yīng)用是較為主要的風(fēng)險來源,在防范風(fēng)險的同時,應(yīng)更加注重安全保障。技術(shù)研發(fā)者常常被認(rèn)為是人工智能風(fēng)險的最初源頭,開發(fā)者對算法程序的設(shè)置充分影響到人工智能后續(xù)的運行方式。若設(shè)計之初并未違反法律法規(guī)、行業(yè)標(biāo)準(zhǔn)、責(zé)任者的自我承諾等,只是因技術(shù)漏洞遭到不法分子利用而產(chǎn)生危害社會的后果,可以適當(dāng)放寬其注意義務(wù)。責(zé)任歸屬應(yīng)基于實際危害結(jié)果的情況,而不能采取“一刀切”的做法,在防控風(fēng)險的同時,應(yīng)充分考慮規(guī)制的必要性和限度,避免技術(shù)創(chuàng)新受到抑制,阻礙科技發(fā)展和社會進(jìn)步。
人工智能致人損害或存在系統(tǒng)漏洞從而被不法利用等事件的發(fā)生大多與技術(shù)發(fā)展及人們對技術(shù)的認(rèn)識和掌握程度有關(guān)。人工智能是新興技術(shù),尚處在試錯階段,人們對這類技術(shù)尚未完全了解和掌握,這些未完全成熟的技術(shù)在應(yīng)用中本身就容易發(fā)生事故,存在的風(fēng)險往往是開發(fā)設(shè)計者無法預(yù)料的。而產(chǎn)品責(zé)任致人損害事件的發(fā)生則不是由技術(shù)認(rèn)識的局限性引起,多為生產(chǎn)或銷售中不符合產(chǎn)品質(zhì)量要求導(dǎo)致的瑕疵。人工智能算法程序的設(shè)計存在漏洞而致人損害或遭到外部侵入,與食品不符合衛(wèi)生要求、車輛設(shè)計或制造不符合質(zhì)量要求引起的事故在行為性質(zhì)上并不相同。
一般的產(chǎn)品責(zé)任承擔(dān)的前提是質(zhì)量存在缺陷,設(shè)計、生產(chǎn)或制造中不符合質(zhì)量標(biāo)準(zhǔn)或存在安全隱患。而在人工智能致人損害或遭到侵入的情況下,其危害結(jié)果往往并不是由質(zhì)量存在缺陷引起的,考慮到新技術(shù)的“黑匣子”性,在開發(fā)和測試階段看起來沒有問題的系統(tǒng)在投入使用后也可能會發(fā)生出乎意料的故障,這種風(fēng)險很難被開發(fā)者所預(yù)見。人工智能的應(yīng)用不是由單個技術(shù)支撐的,而是技術(shù)的相互作用或者集成。在程序自身出現(xiàn)漏洞的情況下,由于“黑匣子”性,個別、具體的信息處理和交會如何影響運行結(jié)果常常是無法查出的。也就是說,即使操作結(jié)果出現(xiàn)了問題,也不能馬上確定導(dǎo)致該結(jié)果的具體開發(fā)行為,因果關(guān)系通常難以認(rèn)定。技術(shù)開發(fā)所出現(xiàn)的失誤是否是“被允許的危險”,或者研發(fā)者是否未盡到注意義務(wù)而存在過失,往往有待進(jìn)一步討論。
人工智能的技術(shù)風(fēng)險一旦爆發(fā)通常難以控制。2016年美國一輛特斯拉Model S因自動駕駛系統(tǒng)識別障礙而發(fā)生交通事故,致使車主當(dāng)場死亡。2018年3月美國亞利桑那州一輛專門用于無人駕駛測試的車輛,由于系統(tǒng)未感知到前方有行人,沒有及時剎車,致使行人被撞死。[9]人們意識到由自動駕駛程序控制的車輛若存在設(shè)計漏洞或程序輸入有誤極易發(fā)生交通事故。如果是由人工操作的產(chǎn)品,發(fā)生事故時人類的控制程度則相對較高,如自然人駕駛的車輛在發(fā)生突發(fā)事件時憑借豐富的駕駛經(jīng)驗可能會采取應(yīng)變措施避免損害發(fā)生。而通過程序指令來控制設(shè)備的運行,意味著將面臨系統(tǒng)出錯和“黑客入侵”劫持的危險。人工智能的風(fēng)險程度沒有規(guī)范的測試方法,失去控制的操作系統(tǒng)可能波及到的當(dāng)事人十分廣泛。如果遭到侵入或輸入了錯誤的數(shù)據(jù),智能算法就會失控,給不特定多數(shù)人的生命和財產(chǎn)帶來危險,且在短時間內(nèi)使人不能控制,損害程度極大。早在20世紀(jì)70年代,日本一家工廠的切割機(jī)器人就曾經(jīng)導(dǎo)致工人死亡①世界上第一宗機(jī)器人殺人事件發(fā)生在1978年的日本。據(jù)記載,1978年9月6日,日本廣島一家工廠的切割機(jī)器人在切鋼板時,突然發(fā)生異常,將一名值班工人當(dāng)做鋼板操作,最終導(dǎo)致工人死亡。參見新浪財經(jīng):http://finance.sina.com.cn/chanjing/gsnews/20150702/175722574804.shtml。,隨后由人工智能引發(fā)的致死事件也不在少數(shù)。一般的科技成果應(yīng)用尚可在底層技術(shù)不穩(wěn)定的時候進(jìn)行開發(fā),因為有些應(yīng)用對系統(tǒng)的可用性要求并不高,即使出現(xiàn)漏洞所帶來的損失并非不可接受。但是人工智能的技術(shù)漏洞和應(yīng)用不當(dāng)可能直接損害人的生命法益,由此帶來的損失難以估量。
人工智能作為一項技術(shù),必須通過一定載體進(jìn)行運用、展示和體現(xiàn)其具體內(nèi)容,但在此應(yīng)用過程中也可能致人損害,也可能遭到不法利用進(jìn)而產(chǎn)生犯罪結(jié)果。人工智能的運用載體多種多樣,可能是自動駕駛汽車、車間作業(yè)或進(jìn)行某項服務(wù)的機(jī)器人[10]。關(guān)于人工智能的性質(zhì),有學(xué)者認(rèn)為其實質(zhì)是為人類提供服務(wù)的工具,沒有獨立的意思表示能力,不具有獨立法律人格。也有學(xué)者認(rèn)為,人工智能的行為由人類所控制,行為后果由代理人承擔(dān)。但隨著技術(shù)發(fā)展,有些人工智能可以做出獨立的意思表示,能夠自主的選擇和判斷,并不是傳統(tǒng)意義上的、無意思表示能力的“工具”。而行為后果由代理人承擔(dān)則沒有體現(xiàn)承擔(dān)責(zé)任的公平性。
沙特阿拉伯曾是世界上第一個授予機(jī)器人公民身份的國家,美國聯(lián)邦法律將用于自動駕駛的人工智能系統(tǒng)看作司機(jī)。但是人工智能的搭載物、工作物是否具有責(zé)任能力,能夠獨立承擔(dān)法律責(zé)任嗎?人們?yōu)樵鲞M(jìn)人類社會的福祉,運用相應(yīng)的科技手段制造人工智能以模擬人類的部分行為,促進(jìn)生產(chǎn)效率的提高和生活的便利。[11]因此,人工智能并非一般意義上的自然人,但卻具備人的一些要素,人工智能以智能化為主要特征,但始終需要人類的設(shè)計和程序的編制才得以運行。
就現(xiàn)有的技術(shù)發(fā)展程度而言,人工智能的“深度學(xué)習(xí)能力”均是通過人為的設(shè)計、制造并開啟程序后才具有的,盡管人工智能機(jī)器人可以實施駕駛、診斷、下棋、對話等行為,但人工智能基于數(shù)據(jù)分析和概率統(tǒng)計的決策方式與人類具有情感和意識的判斷之間具有本質(zhì)的區(qū)別[12]。單獨的算法程序并不具有真正的意思能力,不能進(jìn)行積極的自我認(rèn)知和情感、意念輸出,人工智能表現(xiàn)出的自我決策和自我提升實質(zhì)上來源于數(shù)據(jù)的更新和邏輯的運算,并非是在動機(jī)驅(qū)動下做出的意思表示,它們所表示的仍是設(shè)計者、生產(chǎn)者或使用者的意思,人工智能本身只是“忠實的程序執(zhí)行者”[13]。并且,人工智能工作物不能獨立擁有財產(chǎn),它們無法通過勞動、繼承或贈與等方式獲得財產(chǎn),名下沒有財產(chǎn)歸屬,即便有財產(chǎn)贈與到它們名下,也無法自主支配和使用,仍需要自然人或法人組織來幫助管理,無法承擔(dān)民事上的賠償責(zé)任。同時,人工智能的認(rèn)知水平與人類的善惡、倫理觀存在重大差異,不能像自然人一樣識別自身行為的違法性,無法意識到自身行為的法律后果,只能根據(jù)預(yù)先的設(shè)定來感知是否發(fā)生系統(tǒng)錯誤,更不能對自己的行為進(jìn)行改正,也不具有承擔(dān)刑事責(zé)任的條件。[14]
綜上所述,就目前的情況來看,人工智能本身并不能對自己的行為承擔(dān)法律責(zé)任,在使用者沒有操作不當(dāng),生產(chǎn)者和銷售者遵守生產(chǎn)與銷售的安全標(biāo)準(zhǔn)時,人工智能由技術(shù)漏洞所引起的法律風(fēng)險依然須由設(shè)計研發(fā)該項算法程序的自然人、法人或非法人組織承擔(dān)。智能算法的特殊性要求我們在現(xiàn)有制度基礎(chǔ)上構(gòu)建符合人工智能產(chǎn)業(yè)特點的責(zé)任承擔(dān)機(jī)制,從而規(guī)范產(chǎn)業(yè)發(fā)展、保障安全。聯(lián)合國教科文組織與世界科學(xué)知識與技術(shù)倫理委員會提出,可以采取責(zé)任分擔(dān)的方式,讓參與發(fā)明、授權(quán)和分配過程的參與者分擔(dān)損害責(zé)任。歐盟議會法律事務(wù)委員會曾提出對人工智能產(chǎn)品進(jìn)行強(qiáng)制保險,設(shè)立賠償基金來分擔(dān)風(fēng)險,使受損方及時獲得救濟(jì),同時減輕開發(fā)者和生產(chǎn)者的賠償負(fù)擔(dān)??蓞⒖架囕v年檢制度對人工智能的應(yīng)用成果進(jìn)行年檢,對發(fā)生的事故進(jìn)行備案。值得注意的是,人工智能越來越展現(xiàn)出自主決策、深度學(xué)習(xí)等能力,若這些高智能化的應(yīng)用成果受現(xiàn)有技術(shù)水平的限制風(fēng)險不可預(yù)見或難以控制,筆者認(rèn)為可以依據(jù)這種技術(shù)水平局限性、風(fēng)險不可預(yù)見性等免除部分主體的責(zé)任,或予以適當(dāng)減輕。
科學(xué)技術(shù)會帶來怎樣的社會影響,有時我們無法事先預(yù)測。在這其中,法律既須有追究事故責(zé)任的一面(對過去的責(zé)任),也須有為了不發(fā)生同類事故而請求相關(guān)人員協(xié)助的一面(對未來的責(zé)任)。問題是,如何對該沖突進(jìn)行調(diào)整,以及由誰來調(diào)整更為適當(dāng)。
認(rèn)定責(zé)任的基本規(guī)則,應(yīng)當(dāng)由法律法規(guī)事先決定。比起行業(yè)內(nèi)更為靈活和松散的規(guī)則,用穩(wěn)定的法律條文進(jìn)行規(guī)范才是明智之舉。不安定的責(zé)任所在,只會給技術(shù)研究開發(fā)帶來更多不安。以法律原則或法律規(guī)則表示其責(zé)任的內(nèi)容,只要不違背罪刑法定主義的要求,也是可取的。之所以這么說,是因為法律具有穩(wěn)定性,反過來說,也會存在滯后性,無法迅速應(yīng)對環(huán)境變化,立法者也未必了解特定領(lǐng)域的具體情況。如何制定這些行為規(guī)范,正是立法者未來的研究方向。如果人工智能的各項應(yīng)用進(jìn)一步普及,我們完全可以預(yù)料到,算法的行為和結(jié)果將會對不特定多數(shù)人的人身安全和財產(chǎn)利益產(chǎn)生影響,因此通過行政程序乃至刑事程序?qū)Υ思右砸?guī)制的必要性很大[15]。
但是,刑事司法的介入應(yīng)具有足夠長遠(yuǎn)的眼光,面對由算法漏洞而引起的致?lián)p和犯罪行為,我們不應(yīng)因科技進(jìn)步過程中的缺陷和疏漏而冒然發(fā)動刑罰權(quán),堅持刑法作為“補(bǔ)充性規(guī)制”不法行為的基本原則,力求將立法的滯后性對新興行業(yè)的不利影響降到最小,這是我們一貫堅持的刑法介入理念。[16]如果規(guī)制施加不當(dāng),就會妨礙研究人員和科技企業(yè)的技術(shù)創(chuàng)新與開發(fā),阻礙本應(yīng)由新技術(shù)帶來的社會福利的實現(xiàn),甚至?xí)魅鯂铱萍紝嵙蛧H競爭力。而且大多數(shù)的技術(shù)人員和研究型企業(yè),對刑罰的感應(yīng)力有時會超出我們的想象。對于優(yōu)秀的科技企業(yè)、飽含開發(fā)熱情的研究人員來說,研究和開發(fā)就是他們的謀生手段,越是有能力使新技術(shù)的福音流傳于世的人,對刑罰的感應(yīng)力越大。刑事司法如果對技術(shù)開發(fā)所產(chǎn)生的疏漏大加懲罰,則可能會影響技術(shù)研發(fā)人員的日常生活,甚至破壞社會對他們的認(rèn)同感。不難想象,當(dāng)意識到這種可能性時,以自由的思考和創(chuàng)造為基礎(chǔ)的研究和技術(shù)開發(fā)將出現(xiàn)萎縮。刑罰應(yīng)成為守護(hù)公益的最后手段,從以上的敘述來看,至少在技術(shù)發(fā)展的初期,刑法作為規(guī)制的主要手段并不合適。
就目前來看,對人工智能的規(guī)制應(yīng)主要由非刑罰的手段來承擔(dān),刑法則堅持介入時機(jī)的“最后性”,即把刑罰作為所能采取的“最后的手段”,只有在企業(yè)內(nèi)部規(guī)定、行業(yè)自治規(guī)范、行政法規(guī)和民商事法律等都無法解決矛盾沖突時,刑法才有介入空間。[17]法的干預(yù)應(yīng)在“降低對科技創(chuàng)新的萎縮效果的同時,實現(xiàn)法益侵害總量的最小化”。這種“功利主義”的思考并不意味著防范人工智能法律風(fēng)險與刑法理論無關(guān),相反,將技術(shù)創(chuàng)新過程中的失誤和紕漏當(dāng)做“被允許的危險”和“信任原則”等過失責(zé)任的闡釋,也是這種思考的產(chǎn)物[18]。一言以蔽之,以刑法的謙抑性基本原則來看,其介入的時機(jī)和限度應(yīng)審慎且克制。對于智能算法缺陷引起的事故,由于損失大、危險性高、事發(fā)突然,更需要及時停止運行程序、采取算法修復(fù)等措施,由機(jī)動性強(qiáng)的行業(yè)組織參與更有助于實現(xiàn)迅速應(yīng)對。同時,可能涉案的技術(shù)問題與各行業(yè)的內(nèi)部規(guī)章也有密切的關(guān)系,對個別案件應(yīng)有針對性地加以處理,廣泛聽取意見,也可以針對風(fēng)險的不同類型和程度進(jìn)行劃分,配以企業(yè)自決、行業(yè)自治等應(yīng)對策略,只對于嚴(yán)重?fù)p害人民生命健康和公共利益的行為根據(jù)罪刑法定原則定罪處罰。
“法不是全知全能的神,而是有限的知識”[19],基于現(xiàn)有立法的矛盾帶來新的見解和思考,再以進(jìn)一步的立法或司法解釋消除引起的矛盾,不斷地刷新著法的內(nèi)容的不只有法律人。在“矛盾帶來新創(chuàng)造”的過程中,與相關(guān)法的效力擁有最迫切利害關(guān)系的當(dāng)事人的主張和對法律的回應(yīng)至關(guān)重要,他們甚至預(yù)見或觸發(fā)著學(xué)術(shù)討論,而以多種觀點的知識貢獻(xiàn)實現(xiàn)法向期待的方向發(fā)展。因此,對于人工智能等新興技術(shù)產(chǎn)生的法律風(fēng)險,有必要強(qiáng)調(diào)政府和司法以外的社會主體的作用。比起司法機(jī)關(guān),有時企業(yè)、專家等社會主體更善于應(yīng)對技術(shù)問題,多元主體的參與和協(xié)作對解決人工智能法律問題至關(guān)重要。
縱觀發(fā)達(dá)國家,具有靈活性的大眾媒體、掌握專業(yè)知識和技術(shù)并能夠調(diào)動大學(xué)和智囊團(tuán)的各類研究機(jī)構(gòu),也就是所謂的“第三方委員會”,他們或分擔(dān)社會期待,或承擔(dān)調(diào)查和訴求反饋功能,通過多元化配置,各自發(fā)揮專業(yè)特色。而在我國,現(xiàn)實情況是很難期待專家集團(tuán)自主解決問題和行業(yè)發(fā)揮自凈作用,除了偵查機(jī)關(guān)以外,缺乏具有查明事實能力的組織。一旦偵查機(jī)關(guān)介入,就意味著進(jìn)入刑事程序,使刑事司法無法維持退居后衛(wèi)的狀態(tài)。為了實現(xiàn)刑事法“退到后方”的理想,社會對專家團(tuán)和擁有相關(guān)專業(yè)知識的行業(yè)團(tuán)體的信賴是不可缺少的。假設(shè)發(fā)生了因技術(shù)漏洞引發(fā)的致人損害事故,或系統(tǒng)缺陷被外部侵入導(dǎo)致的犯罪行為,具有專門知識、參與了開發(fā)和運營的機(jī)構(gòu)或個人是否要被追究責(zé)任,他們是否還能獲得社會公眾的接受和信任?如果他們不被信任,他們作出的修復(fù)等措施不被接受,那么在目前的情況下,只有國家行政和司法機(jī)關(guān)進(jìn)行介入。相反,如果研發(fā)者及其行業(yè)能夠被信任,他們的觀點和措施就會抑制刑事司法的介入。人工智能技術(shù)的應(yīng)用要想獲得社會公眾的信賴,就必須不斷積累技術(shù)和經(jīng)驗,贏得用戶和大眾的認(rèn)可,而能實現(xiàn)這些的正是研發(fā)者本身。為此,發(fā)揮行業(yè)自律能力,履行信息披露和風(fēng)險預(yù)警的義務(wù),并且完成事故發(fā)生后的說明責(zé)任和算法缺陷的修復(fù)與補(bǔ)救是不可或缺的。
現(xiàn)行法律中,非人類的行為不能從人類的意志中分離出來作為規(guī)范性文件評價的對象。也就是說,非人類的行為如果不與人類的自由意志相關(guān)聯(lián),就被當(dāng)作自然現(xiàn)象一樣對待。因此,離開了開發(fā)人員和用戶的自由意志支配,程序算法和其出現(xiàn)漏洞所引起的結(jié)果不能作為規(guī)范性文件評價的對象。但關(guān)于“被允許的危險”和“注意義務(wù)”的設(shè)定可以理解為具有自由意志的主體——人的附帶現(xiàn)象。不論是否承認(rèn)非人類程序行為的“自發(fā)性”,算法程序因為不能完全被控制的程序漏洞致人損害或涉及犯罪,都不應(yīng)該立刻對研發(fā)者追究責(zé)任。這是因為,即使發(fā)生這樣的事故,技術(shù)研發(fā)的目的是為了增進(jìn)人類社會的福祉,另外,研發(fā)者根據(jù)技術(shù)漏洞作出重新設(shè)計和修整,有助于實現(xiàn)程序算法的“重生”,從而促進(jìn)科學(xué)技術(shù)的完善。
日本學(xué)者笹倉宏紀(jì)認(rèn)為,并不是符合構(gòu)成要件的行為就一定要處罰,以康德式的必罰主義作為邏輯起點在此并無必要,也可以選擇不起訴,組織事故調(diào)查委員會,優(yōu)先獲得防止事故再發(fā)生所需的預(yù)防信息[20]。但是,這一方向是否符合司法制度背后的國民期待,是否會引起不公平感也令人擔(dān)憂。在民主討論和專業(yè)知識的有效合作基礎(chǔ)上,當(dāng)法律的價值指向?qū)崿F(xiàn)“人類美好生活”愿景的時候,我們與智能時代的風(fēng)險是共生的。由具有民主基礎(chǔ)的治理系統(tǒng)來適用法律,能夠?qū)⒖傮w危險控制在合理的范圍。為了將以上考慮落實到法律制度中,延期起訴協(xié)議Deferred Prosecution Agreements(下文簡稱DPA)的適用,有可能成為過渡形式。
如果對算法程序的運用和革新是以實現(xiàn)人類更好的生存為目標(biāo),規(guī)制算法行為也是為了實現(xiàn)“人類美好生活”的目標(biāo),而非對人類存在方式進(jìn)行再設(shè)計的制度。在DPA中,關(guān)于技術(shù)開發(fā)企業(yè)的協(xié)助調(diào)查,提供具體涉案行為的信息是適用延期起訴的要件。因此,這個制度也可以解釋為,為了實現(xiàn)增進(jìn)人類福祉和司法介入的平衡,而獲取智能算法底層技術(shù)及其開發(fā)、管理的方法和體制等信息的手段。如果人工智能的開發(fā)、運營、管理都由法人來實施,可使其整體作為造成事故的“涉案者”,或以開發(fā)、運營、管理中具有高度蓋然性風(fēng)險的“不當(dāng)行為”為構(gòu)成要件。如果執(zhí)行DPA,為了提供信息協(xié)助調(diào)查和督促程序“再設(shè)計”整改方案的制定和履行,有必要將起訴、行政規(guī)制、注冊制度等聯(lián)動起來。基本的方針是,將風(fēng)險的管理制度化,在現(xiàn)行法律的范圍內(nèi)實現(xiàn)增進(jìn)社會福祉的目標(biāo)。具體來說,由行政機(jī)關(guān)和專家委員會合作,調(diào)整智能算法開發(fā)、管理、運行的標(biāo)準(zhǔn),在出現(xiàn)事故的情況下,技術(shù)開發(fā)者及其團(tuán)隊參與調(diào)查合作,提供數(shù)據(jù)信息,按照相關(guān)監(jiān)督部門的標(biāo)準(zhǔn)及時整改,避免損失的再次發(fā)生和擴(kuò)大。
因此,以立法為基礎(chǔ),由行政機(jī)關(guān)和專家集團(tuán)合作建立風(fēng)險預(yù)警和評價監(jiān)督體系是適于當(dāng)前形勢的選擇。只要提供了充分的信息,使算法的危險保持在合理的范圍內(nèi),即使由開發(fā)設(shè)計中的漏洞引起致?lián)p或犯罪結(jié)果,也不應(yīng)該起訴技術(shù)研發(fā)者。如果風(fēng)險控制沒有達(dá)到預(yù)期水平,只要研發(fā)者承諾提供真實的信息協(xié)助調(diào)查,并對出現(xiàn)問題的系統(tǒng)進(jìn)行重新設(shè)計,可以推遲起訴??紤]到新技術(shù)的“黑匣子”性,在開發(fā)和測試階段平穩(wěn)運行的算法程序,投入使用后才發(fā)現(xiàn)缺陷或產(chǎn)生故障,研發(fā)者往往無法事前預(yù)料。在這種情況下,如果立即追究責(zé)任,有可能會阻礙科技創(chuàng)新,導(dǎo)致人工智能新的應(yīng)用領(lǐng)域不再更新和發(fā)展。為了避免出現(xiàn)這樣的情況,即使在風(fēng)險水平與預(yù)想不同的情況下,追究研發(fā)者責(zé)任也應(yīng)慎之又慎。
新技術(shù)的“黑匣子”性,雖然離完全消除還很遠(yuǎn),但正在慢慢被克服,存在漏洞或不當(dāng)使用的數(shù)理模型,數(shù)據(jù)處理方法等,也慢慢被識別。不過,要將這些行為全部用法律進(jìn)行規(guī)定,在技術(shù)急速發(fā)展的當(dāng)下,是很困難的。對于參與調(diào)查合作、提供信息,進(jìn)行整改承諾的技術(shù)開發(fā)者和科創(chuàng)企業(yè),延期起訴可作為協(xié)調(diào)各方利益的有效方法。在這種情況下,關(guān)于整改的內(nèi)容,應(yīng)該由監(jiān)督機(jī)關(guān)的代表對開發(fā)者提出的方案斟酌之后再做決定?,F(xiàn)實的改善方法只有向參與者提出、向受法律和智能算法應(yīng)用影響的人提出,才能確保正當(dāng)性和有效性。因此,研發(fā)者及其團(tuán)隊對智能算法系統(tǒng)重新設(shè)計,改善相關(guān)程序應(yīng)聽取各方提議,行政、司法和監(jiān)督部門的代表,行業(yè)專家、受害者和其他關(guān)系人,都應(yīng)該參與其中。