郭傳凱
(山東大學 法學院,山東青島 266237)
人工智能通過完成高難度任務不斷加深著對人類社會的影響:無人駕駛已經(jīng)在美國四個州獲得上路批準,未來很可能引發(fā)道路交通運輸?shù)母锩?;人臉識別系統(tǒng)在反恐等領域發(fā)揮著重要作用;電腦程序擊敗了世界最強圍棋運動員;谷歌研發(fā)的翻譯系統(tǒng)則可以獨自翻譯報紙上的長篇文章。(1)參見Matthew U. Scherer, Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies, 29 Harv. J. L. & Tech. 353 (2016).與此同時,人工智能的商業(yè)前景激發(fā)了大型企業(yè)投資與開發(fā)的熱情,谷歌、臉書、亞馬遜等公司通過資助研發(fā)、設立試驗機構、收購新興企業(yè)的方式開展人工智能競賽。人工智能飛速發(fā)展之勢已不可阻擋。
然而,技術進步引發(fā)恐慌情緒和監(jiān)管預警(2)本研究在以下層面區(qū)別使用監(jiān)管、規(guī)制與管制:監(jiān)管強調(diào)監(jiān)督與管理的并存,在常規(guī)狀態(tài)下以監(jiān)督為主,在出現(xiàn)特定問題時才以特定的限制與禁止措施進行管理。強調(diào)監(jiān)督時,本文則傾向于使用監(jiān)管一詞。規(guī)制則泛指規(guī)制者通過制定規(guī)則、實施強制性措施的方式對被規(guī)制者進行限制或禁止的過程。而管制一詞則帶有感情色彩,多指缺乏靈活性,難以滿足市場經(jīng)濟發(fā)展需求的僵化措施。具體到風險領域,學界多以風險規(guī)制作為通用名詞,因此本文不使用風險監(jiān)管的概念。并不是人類社會的新鮮現(xiàn)象。(3)參見戚建剛:《風險認知模式及其行政法制意蘊》,載《法學研究》2009年第5期。盡管有些人工智能風險與以往技術創(chuàng)新引發(fā)的風險相類似,但更多體現(xiàn)人工智能獨特性的新興風險及相應法律問題將在未來接踵而至。如果放任人工智能在監(jiān)管真空的狀態(tài)下快速發(fā)展,風險發(fā)生的可能性及危害性很可能伴隨時間的推移呈現(xiàn)指數(shù)式的增長。(4)參見Matthew U. Scherer, Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies, 29 Harv. J. L. & Tech. 400,401 (2016).另一方面,風險規(guī)制是否阻礙技術創(chuàng)新成為相伴而生理論與實務難題,短期視野下采取的規(guī)制措施很可能損害技術創(chuàng)新帶來的長遠效益。人工智能風險的獨特性與現(xiàn)行規(guī)制的局限性導致風險規(guī)制始終處于緊張的矛盾狀態(tài)之下,認真對待人工智能的風險規(guī)制勢在必行。
理解人工智能是進行風險規(guī)制的第一步,(5)如何界定人工智能是需要考察的重要問題。目前我國法學界對人工智能存在以下界定:馬長山教授認為,人工智能是通過模擬人腦思維,由機器或軟件所表現(xiàn)出來的具有推理、記憶、理解、學習和計劃的類人化智能,它能夠思考自己的目標并進行適時調(diào)整,甚至將擁有足以匹敵人的智慧和自我意識的能力。劉憲權教授認為,人工智能技術通過模擬人類的神經(jīng)網(wǎng)絡,讓計算機系統(tǒng) 對數(shù)據(jù)庫進行深度學習,使得計算機系統(tǒng)能夠進行分析、判斷以及決策。參見馬長山:《人工智能的社會風險及其法律規(guī)制》,載《法律科學》2018年第6期;劉憲權:《人工智能時代的刑事風險與刑法應對》,載《法商研究》2018年第1期。人工智能復雜性、靈活性的特點致使其無法形成統(tǒng)一的概念界定。(6)參見John McCarthy, What is Artificial Intelligence?, JOHN MCCARTHY'S HOME PAGE 2-3, http://www-formal.stanford.edu/jmc/whatisai.pdf.第一個使用人工智能概念的計算機科學家麥卡錫將人工智能界定為“有關智能機器特別是智能電腦程序的科學技術與工程系統(tǒng)”,(7)Id.其可以通過自身行動實現(xiàn)復雜的目標。作為偏正短語,“人工智能”的核心部分在于“智能”二字,如何界定“智能”對解讀人工智能而言意義重大。依照學界通說,“人類智能”主要關涉具備知覺、存在自我意識、可以使用語言、掌握抽象思維、能夠調(diào)整適應環(huán)境以及進行復雜推理等要素。(8)參見Francis Crick & J. Clark, The Astonishing Hypothesis, 1 J. CONSCIOUS STUD, 10-16 (1994).因此有學者參照“智能”的概念將人工智能分為人性化思考、人性化行動、理性思考和理性行動等四種類型,并最終認為人工智能是自動運行、能感知周圍環(huán)境、可在一段時間內(nèi)持續(xù)存在的、具有適應能力,并創(chuàng)造和追求最佳結果的機器或者程序。(9)[美]斯圖爾特·羅素、皮特·諾維格:《人工智能:一種現(xiàn)代的方法》,殷建平等譯,清華大學出版社2013年版,第1-5頁。
通過比較,不難發(fā)現(xiàn)理性行為特別是追求最優(yōu)結果的能力是被廣泛認同的人工智能關鍵屬性,其決定了人工智能的兩大特征:其一,人工智能的行為后果具備較弱的可預見性。盡管人工智能的理性能力在一定程度上可以通過初始程序進行控制,但其自主完成復雜任務的過程亦容易導致人類難以預見的后果。其二,人工智能具有較弱的可控性。人工智能可控性上的局限并不是由于機器故障或人工智能對人類指令理解能力的不足,而是源自其對設計者主觀意圖的隔離與漠視。特別當人工智能認定的最優(yōu)結果與人類社會期待的最優(yōu)結果發(fā)生偏差的時候,人工智能的可控性成為需要解決的重要難題。(10)以寡頭壟斷市場上出現(xiàn)的算法通謀為例,大型企業(yè)開發(fā)的數(shù)據(jù)算法很可能彼此撮合進而形成壟斷價格,這種價格對寡頭企業(yè)而言是有利的,但對于有效競爭的實現(xiàn)和消費者利益的維護是有害的。此時就出現(xiàn)了人工智能目標函數(shù)上的分歧。此外,人工智能在研發(fā)上的獨特性與其理性行為能力密切相關:(1)集約化。相較于新能源技術、航天科技等領域,人工智能并不需要大規(guī)模的機構設施即可開展研發(fā)工作。(11)參見John O. McGinnis, Accelerating AI, 104 NW. U. L. Rev. 1253, 1262 (2010).(2)分散化。在人工智能領域,不同的機構組織,不同的私人企業(yè)往往進行分散化的研究。相同的人工智能技術亦可以在不同行業(yè)不同領域進行分散化的運用。(3)非連續(xù)性。特定技術的開發(fā)者不能預見該技術的后繼者將如何使用該技術進行進一步研發(fā)。(12)參見Matthew U. Scherer, Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies, 29 Harv. J. L. & Tech. 369 (2016).某一階段的技術開發(fā)者往往無法長遠預見該技術發(fā)展的未來走勢。(4)不透明性。人工智能技術開發(fā)往往是多種現(xiàn)有技術的復雜組合,這使人工智能很難采用反向還原工程進行拆解分析。這導致人工智能開發(fā)中的缺陷不僅對消費者而言是不可測度的,對下游生產(chǎn)商和分銷商而言亦是難以檢測的。
人工智能的上述特征從根本上決定了風險規(guī)制的現(xiàn)實需求。在風險規(guī)制的視野下,一些具備理性能力的人工智能(如象棋軟件)暫時不具備引發(fā)公共風險的可能性,而一些機器學習系統(tǒng)盡管不具備理性行為能力,但卻可能引發(fā)相關風險,進而也可被納入到人工智能的規(guī)制范疇中來。(13)參見Michael Guihot; Anne F. Matthew; Nicolas P. Suzor, Nudging Robots: Innovative Solutions to Regulate Artificial Intelligence, 20 Vand. J. Ent. & Tech. L. 395 (2017).由此可見,規(guī)制視野下的人工智能是一個譜系化的概念,其包括并不具備目標追求能力但卻可以完成復雜任務的機器系統(tǒng)或軟件(即不嚴格的人工智能),(14)不嚴格的人工智能是指以機器結算為代表的產(chǎn)業(yè)技術與裝備,其展現(xiàn)出來的“自主意識”只不過是被人類固定設置的特定程式。以及符合理性標準具備目標追求能力的人工智能,甚至還包括目前尚未出現(xiàn)但卻被學界普遍關注的強人工智能(Artificial General Intelligence,也可譯作人工普遍智能)。所謂強人工智能,是指具備相當程度的自我理解和自我控制能力,可在多變復雜的環(huán)境下解決不同的復雜問題,并能夠?qū)W習掌握解決新問題的相關技能與知識的實體。(15)參見Amnon H. Eden; James H. Moor; ohnny H. S?raker; Eric Steinhart, Singularity Hypotheses A Scientific and Philosophical Assessment, Berlin: Springer, 2012,p.161.關注強人工智能對人工智能的風險規(guī)制具備警示意義:強人工智能已經(jīng)給人類社會造成較深層次的擔憂,(16)參見Nick Bostrom, When Machines Outsmart Humans, 35 FUTURES 759, 763-64 (2003).原因在于人工智能的發(fā)展具備蟄伏期較長與指數(shù)級增長相結合的特點,(17)Supra note 5.其一旦結束蟄伏期而達至特定的臨界點,隨即將開啟指數(shù)級增長的階段,人類很可能面臨被強人工智能馴服的風險。因此,對人工智能規(guī)制而言,真正的問題是目前人工智能已經(jīng)發(fā)展至何種階段,以及距離前述的臨界點還有多遠。法律的規(guī)制應當指引人工智能的發(fā)展,風險預防理念下的防控型規(guī)制應當成為主流的規(guī)制策略。
截至目前,人工智能的應用已經(jīng)造成了一些難以應對的風險。(1)人工智能歧視。大數(shù)據(jù)與人工智能技術的結合使復雜問題的分析往往伴隨著種族主義和性別歧視等傾向。(18)參見Kate Crawford, Can an Algorithm Be Agonistic?Ten Scenes from Life in Calculated Publics, 41. TECH. & HUM. VALUES 77, 82-83 (2016).且人工智能技術使歧視往往難以察覺,如不及時克服則極易固化為數(shù)據(jù)算法的內(nèi)在邏輯。例如在法律實施的人工智能程序中,黑人被誤判犯罪的概率已然高于其他人種。(19)參見Julia Angwin et al., Machine Bias: There's Software Used Across the Country to Predict Future Criminals. And It's Biased Against Blacks. PROPUBLICA (May 23, 2016),https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing歧視問題在數(shù)據(jù)算法設計之時就應當被盡量排除。(2)安全風險。自動駕駛等智能技術可以通過減少人為失誤的方式提高出行安全,但軟件缺陷等原因亦可造成新的安全風險。在及時的風險選擇時,無人駕駛技術可能面臨著道德困境。(20)以無人駕駛技術為例,該技術在面臨一個人的生命與一群人生命的兩難選擇時,很可能遭遇道德困境。此外,個人信息安全問題則在疾病診斷智能應用方面比較突出。(3)人工智能在司法裁判中的應用風險。人工智能在裁判、法律解釋中的運用可以提高司法過程的透明度與一致性,(21)參見Maria Jean J. Hall et al., Supporting Discretionary Decision-Making with Information Technology: A Case Study in the Criminal Sentencing Jurisdiction, 2 U. OTTAWA L. & TECH. J. 1, 31 (2005)但其一直遭受著自由裁量與具體案件具體分析能力不足的批判。(22)參見Paul Lippe, Daniel Martin Katz & Dan Jackson, Legal by Design: A New Paradigm for Handling Complexity in Banking Regulation and Elsewhere in Law, 93 OR. L. REV. 833, 849 (2015).在缺乏明確法律規(guī)范作為依據(jù)的場合下,法律原則及價值理念的考量需要較強的自由裁量能力。與此同時,司法裁判的做出需要推理能力和直覺判斷能力并考察判決的社會效果,這些皆不是人工智能的強項。歐盟2016年頒布的《一般數(shù)據(jù)保護條例》第22條第一款則直接創(chuàng)設了一種新型的數(shù)據(jù)權利,即不必遵循純粹人工智能程序做出的決定的權利,(23)參見歐盟《一般數(shù)據(jù)保護條例》(中文譯本),丁曉東譯,http://www.zhichanli.com/article/6398.html。這直接要求司法判決中必須有人力的參與。(4)非獨特性風險,以結構性失業(yè)為典型。人工智能帶來的高效率、高安全性很可能徹底改變用工狀態(tài),(24)參見Carl Benedikt Frey & Michael A. Osborne, The Future of Employment: How Susceptible Are Jobs to Computerisation?, 114 TECH. FORECASTING & SOC. CHANGE. 254, 261 (2017).造成結構性失業(yè),一些人力勞動將徹底被人工智能取代,由此造成的社會影響是需要認真分析的。
通過對人工智能主要特征及應用狀況的分析,人工智能風險規(guī)制的現(xiàn)實需求得以充分展現(xiàn)。風險規(guī)制必須進一步厘清人工智能風險的獨特屬性及其規(guī)制困境,才能對癥下藥,分析尋找人工智能風險規(guī)制的可行出路。
基于人工智能及其研究開發(fā)的相應特征,人工智能風險呈現(xiàn)出如下獨特屬性。首先,私人企業(yè)在人工智能開發(fā)中的主導作用導致了信息的嚴重不對稱,多學科交叉與前沿知識的運用使相關風險在現(xiàn)有的認知水平下具有不可知性。其次,不同人工智能可造成不同種類的風險,相同人工智能在不同領域的應用亦可能造成不同種類或不同程度的風險。與此同時,風險具備較強的可變性,在規(guī)制真空的狀態(tài)下,低水平風險很可能在短時間內(nèi)發(fā)展為較強的風險,這種多樣性與變動性對規(guī)制提出了嚴峻挑戰(zhàn)。再次,人工智能風險還是一種典型的系統(tǒng)性風險。(25)參見Ortwin Renn & Andreas Klinke, Systemic Risks: A New Challenge for Risk Management, 5 EUR. MOLECULAR BIOLOGY ORG. REP. 41, (2004).人工智能的應用被嵌入在非常復雜且相互影響的社會、金融等系統(tǒng)之中,系統(tǒng)與系統(tǒng)之間、系統(tǒng)內(nèi)部諸要素之間的關聯(lián)性擴大了風險的潛在影響。系統(tǒng)環(huán)境越是復雜與非線性,相應風險就越容易被系統(tǒng)的關聯(lián)效應放大,以致影響多方面的利益相關者。最后,人工智能風險亦具備兩面性。規(guī)制失敗造成的風險應當被充分考量。企業(yè)家與技術開發(fā)者往往對規(guī)制懷有一定程度的恐懼,其認為除非技術創(chuàng)新對社會發(fā)展造成嚴重的損害,否則創(chuàng)新不應當被阻止。(26)參見Adam Thierer, Technopanics, Threat Inflation, and the Danger of an Information Technology Precautionary Principle, 14 MINN. J.L. SCI. & TECH. 309, 339, 375 (2012).此外,規(guī)制措施的采取在很大程度上受到民眾意見的影響,這種影響很可能錯誤地左右了規(guī)制機關的相應選擇。人工智能的風險屬性決定了風險規(guī)制的具體困境。
人工智能風險的不可知性與多樣性使規(guī)制者的步伐滯后于技術開發(fā)與運用的腳步。風險的可變性與系統(tǒng)性亦導致規(guī)制者難以對風險的發(fā)展變化做出充足的預估與反應。規(guī)制的滯后性往往具備正反饋效應,一時的滯后往往對技術開發(fā)者形成進一步規(guī)避監(jiān)管的不當激勵,繼而造成規(guī)制的進一步滯后。此外,規(guī)制者面向未來的監(jiān)管,往往因立法的缺失或模糊而難以及時采取行動,這在一定程度上造成了規(guī)制的掣肘。
規(guī)制的滯后性是造成規(guī)制對抗的重要原因?!翱屏指窭锲胬Ь场苯沂玖诉@一過程:在技術發(fā)展的早期,規(guī)制者往往因信息匱乏而無法采取行動;而伴隨時間的推移,相應技術很可能根植于人類的日常生活,以至于規(guī)制者一旦采取行動即遭受來自使用者、開發(fā)者、投資者的抵抗。(27)參見Graeme Laurie, Shawn HE Harmon & Fabiana Arzuaga,Foresighting Futures: Law, New Technologies and the Challenges of Regulating for Uncertainty, 4 LAW INNOVATION & TECH. 6 (2012).人工智能技術的廣泛應用使上述困境成為規(guī)制者面臨的主要難題。以“無人駕駛”技術為例,其廣告宣傳的主要亮點都是幫助用戶克服傳統(tǒng)汽車帶來的風險,這使政府部門在面對新興風險時往往缺乏規(guī)制的積極性。新興產(chǎn)品的確對傳統(tǒng)產(chǎn)品形成了明顯的替代效應,但其很可能只在短期之內(nèi)或者某一方面具有克服風險的功效。長遠或者通盤考慮,其可能造成新的風險。以目前的檢驗、檢測技術難以直接高效地分析風險內(nèi)容及其發(fā)生的可能性。風險認知上的挑戰(zhàn)極大地增加了規(guī)制的難度,盲目進行全面禁止很可能阻礙技術創(chuàng)新。隨著無人駕駛技術的推廣,利益相關者特別是被規(guī)制者的俘獲或阻撓將成為新興風險難以規(guī)制的重要原因。當規(guī)制者以相對消極的方式進行信息收集時,新興產(chǎn)業(yè)也在采取應對措施。(28)在新興技術研發(fā)運用的初始階段,相應規(guī)制的拖延容易導致兩種類型的政治阻力。最常見的是利益集團的媾和。奧爾森在《集體行動的邏輯》中指出,規(guī)模較小但集中化的利益集團比規(guī)模大而分散的社會公眾更能對規(guī)制政策產(chǎn)生影響。與此同時,規(guī)制立法及其實施往往以犧牲利益集團的利益為代價,換取社會公眾的利益實現(xiàn)。正反兩個方面相互結合,規(guī)制成敗在很大程度上受利益集團特別是被規(guī)制企業(yè)的干擾。參見[美]曼瑟爾.奧爾森:《集體行動的邏輯》,上海人民出版社1995年版。即使未來規(guī)制主體可以為規(guī)制措施構建正當化基礎,被規(guī)制對象也很可能已經(jīng)獲取了與規(guī)制者討價還價的“政治資本”。(29)在這個過程中,被規(guī)制企業(yè)可以通過收集信息、進行有利于自己的實驗甚至采取擴張雇傭規(guī)模的方式獲得抵抗規(guī)制的籌碼。此外,社會公眾對風險的認知更傾向于“體驗——情感模式”,(30)對公眾風險認知模式的總結,參見戚建剛:《風險認知模式及其行政法制意蘊》,載《法學研究》2009年第5期。其風險的判斷更多立足于感官刺激,對新興風險的認知更加缺乏理性的判斷。(31)不論是日本福島核電站放射性泄露,還是恐怖分子襲擊,有些風險是可以帶給民眾比較直接的感官刺激。不僅政府規(guī)制的積極性較高,民眾的規(guī)制呼聲也比較高漲。而對以技術創(chuàng)新為表現(xiàn)形式的“新興風險”而言,盡管風險發(fā)生的蓋然性很可能遠遠高于放射性泄露的發(fā)生概率,危害亦可能高于恐怖襲擊等風險形式,政府與民眾依舊對其不夠重視。這正反映了一種尷尬的局面——“大量的資源被消耗在微笑或者主觀猜測的風險上,而其他應當關注的風險卻未啟動相應的程序”。參見楊小敏、戚建剛:《風險最糟糕情景認知模式及行政法制之改革》,載《法律科學》2012年第2期。國外學者亦分析了這一現(xiàn)象,以飛機失事事件為例,可以生動形象地引起公眾生理反應的風險常常引發(fā)較強的規(guī)制訴求。See Timur Kuran & Cass R. Sunstein, Availability Cascades and Risk Regulation, 51 STAN. L. REV. 683, 706 (1999).當新興技術博取了社會公眾足夠認可時,規(guī)制很可能面臨來自社會公眾的對抗,這種對抗往往成為影響規(guī)制成敗的重要因素。
規(guī)制的滯后與規(guī)制的對抗在很大程度上形成了封閉的惡性循環(huán)。規(guī)制的滯后導致了規(guī)制對抗的出現(xiàn),而規(guī)制的對抗又反過來加劇規(guī)制的滯后性。如何打破規(guī)制的惡性循環(huán)成為人工智能風險規(guī)制的主要困境之一。
目前風險規(guī)制主要依賴事前與事后兩種模式解決問題:以準入規(guī)制為代表的事前規(guī)制模式主張,當風險因素造成對人類健康或生存環(huán)境的威脅,預防性的措施就應當被采取,即使有些因果關系尚未被充分科學地建立。以司法裁判和行政處罰為代表的事后模式則只在造成實際損害,或有切實證據(jù)證明相應行為一旦持續(xù),將很可能造成損害結果時才能啟動相應的程序。而在人工智能的視野下,傳統(tǒng)規(guī)制面臨著僵化與失靈的困境。
規(guī)制者在進行人工智能產(chǎn)品的準入規(guī)制時,往往無法在準入與否與準入條件等方面進行準確的判斷。規(guī)制者很可能傾向于禁止新產(chǎn)品的商業(yè)化以回應公眾擔憂,即使沒有證據(jù)證明這種擔憂有可靠依據(jù)。準入規(guī)制上“全有或全無”的僵化做法為企業(yè)的發(fā)展造成了不確定性,很容易損害技術創(chuàng)新效益。桑斯坦通過總結新技術發(fā)展過程中的管制狀況指出,人們總是傾向于過分擔憂技術創(chuàng)新造成的損失。(32)參見Cass R. Sunstein, Beyond the Precautionary Principle, 151 U. PA. L. REV. 1003, 1009(2003).他認為規(guī)制者應當避免對尚未認定清楚的未來風險進行過度嚴苛的管制。
人工智能風險規(guī)制在很大程度上是進行取舍的過程。即使具備一定依據(jù),嚴格的風險預防措施亦難以符合效益原則。此時,風險規(guī)制似乎陷入悖論之中:風險的不確定性已然賦予規(guī)制主體較大的自由裁量權,如果依舊進行舉證責任的倒置,則會使行政相對人處于非常不利的位置,致使規(guī)制主體更容易擺脫程序的制約,而如果舉證責任由規(guī)制機構承擔,則畸高的成本使預防原則難以發(fā)揮作用。盡管健康、安全、生態(tài)環(huán)境的重要性不言而喻,但大部分風險并非真正不可逆,以該模式對創(chuàng)新活動進行禁止或嚴格的限制將形成規(guī)制的路徑依賴,進行糾正的難度是相當大的。
另一方面,事后規(guī)制則面臨著失靈的困境。支持事后規(guī)制的觀點認為,賠償責任的追究可以提供充足的威懾。但風險規(guī)制的不確定性,導致事后機制的發(fā)揮遭受較大的阻力。因果關系的證明上存在較大的難度,舉證責任的倒置也只能在有限的范圍發(fā)揮作用。人工智能風險往往涉及諸多利益相關者,事后責任的分配不僅繁瑣,更存在理論上的困難。在訴訟程序上,小額集團訴訟等制度短板亦限制了事后責任追究機制的發(fā)揮。(33)即使在美國,發(fā)散性的風險侵害亦難以通過司法機制進行權益的維護。See Christopher H. Schroeder, Lost in the Translation: What Environmental Regulation Does that Tort Cannot Duplicate, 41 WASHBURN L.J. 583, 601 (2002).風險的潛伏性,不僅增加了調(diào)查取證的難度,侵害的不可預知性亦常常作為被告的辯解理由。(34)以我國《產(chǎn)品質(zhì)量法》第29條為例,該條列舉的生產(chǎn)者不承擔賠償責任的具體情形中包括“將產(chǎn)品投入流通時的科學技術水平尚不能發(fā)現(xiàn)缺陷的存在的”,這樣的規(guī)定在風險規(guī)制領域很容易成為生產(chǎn)者推卸責任的理由。被告的償付能力亦是風險規(guī)制中需要考察的環(huán)節(jié),被告出現(xiàn)財務困難以致破產(chǎn)的情況將導致受害人清償難以實現(xiàn)。即使在訴訟機制相對健全的美國,環(huán)境侵權等案件中私法責任追究機制亦只能發(fā)揮較弱的威懾作用。(35)參見Troyen A. Brennan, Environmental Torts, 46 VAND. L. REV. 1, 6 (1993).
行政處罰等規(guī)制措施在信息不足的情況下亦面臨著失靈困境。首先,大量與規(guī)制有關的信息被掌握在作為信息源的創(chuàng)新主體手中,市場創(chuàng)新主體亦有強烈的動機選擇性地披露對自己有利的信息。即使證明創(chuàng)新的益處遠遠超過其弊端,開發(fā)企業(yè)亦不愿意披露克服弊端的方法或其他信息,原因在于弊端的克服對于創(chuàng)新者而言往往意味著新的商機。其次,事后規(guī)制為被規(guī)制者留下充足的時間進行聯(lián)合對抗,規(guī)制者很容易錯失規(guī)制良機。從根本上看,處罰措施構建起的規(guī)制對壘無法為人工智能風險防控營造合適的規(guī)制氛圍。
規(guī)制合作問題是困擾新興技術行業(yè)監(jiān)管的主要問題。(36)參見Stuart Minor Benjamin & Arti K. Rai, Fixing Innovation Policy: A Structural Perspective, 77 GEO. WASH. L. REV. 1, 3-5 (2008);首先,人工智能技術開發(fā)本身具有強烈的跨學科屬性,且相同的人工智能技術很可能在不同行業(yè)進行應用,這在根本上決定了規(guī)制機構之間合作的必要性。其次,行業(yè)內(nèi)部已經(jīng)發(fā)展起一些行為準則或產(chǎn)業(yè)標準,規(guī)制機構應當兼顧行業(yè)內(nèi)部的行為準則與自我規(guī)制,形成公私規(guī)制的良性互動。最后,人工智能風險規(guī)制應當更加強調(diào)問題導向性,并成立專門的委員會以處理規(guī)制機構之間、公共規(guī)制與自我規(guī)制之間、硬法與軟法之間、法律與道德之間、經(jīng)濟發(fā)展與其他效益之間的矛盾問題。由此可見,合作機制成為人工智能規(guī)制必須解決的重要問題。其反映了規(guī)制“去中心化”的趨勢——沒有哪一方主體可以在人工智能風險規(guī)制中居于絕對的主動地位或中心位置。(37)參見Julia Black, Critical Reflections on Regulation, 27 AUSTL. J. LEGAL PHIL. 8 (2002).人工智能風險規(guī)制的諸多困境與規(guī)制資源的分散化決定了人工智能風險規(guī)制只能是多方主體平等參與的開發(fā)性場域。當然,合作規(guī)制的過程中亦應當防止規(guī)制俘獲。規(guī)制者和被規(guī)制者的頻繁互動大大增加了規(guī)制俘獲的可能性。相較于其他技術創(chuàng)新領域,人工智能領域則更加容易出現(xiàn)交叉任職的情況。人工智能技術知識與專家意見被人工智能企業(yè)的高級雇員掌握,這使得規(guī)制者傾向于雇傭前述人員參與規(guī)制。這種交叉任職的情況,大大增加了規(guī)制俘獲的可能性。
綜上所述,人工智能風險的獨特屬性決定了規(guī)制的多重困境。現(xiàn)行規(guī)制主要依托法律命令和行政制裁等手段的直接應用,政府部門被認為是合理壟斷規(guī)制資源和規(guī)制權力的規(guī)制中心,由此造成了規(guī)制的滯后與失靈,難以滿足合作規(guī)制的現(xiàn)實需要。尋求規(guī)制思路的變革成為走出規(guī)制困境的關鍵。
在過去20年間發(fā)展形成的回應型規(guī)制理論,在很大程度上對傳統(tǒng)規(guī)制形成了變革與替代,其能否為人工智能風險規(guī)制提供相應的理論指導是需要探討的問題?;貞屠碚摰某霈F(xiàn)展現(xiàn)了單一命令型規(guī)制向可控性和適應性更強的復合型規(guī)制體系變遷的整體趨勢,但該理論的局限性決定了其無法成為人工智能風險規(guī)制的理論基礎。
典型的回應型規(guī)制理論從法社會學與經(jīng)濟學的角度倡導規(guī)制手段的譜系化,以此實現(xiàn)政府規(guī)制與非政府規(guī)制的合作與互動。(38)參見John Braithwaite, The Essence of Responsive Regulation, 44 U.B.C. L. REV. 475, 480-83 (2011).其遵循以下原則:(1)任何規(guī)制措施應當是針鋒相對的選擇,(2)首先考慮使用說服教育和自我監(jiān)管的措施,(3)政府的強制性措施作為最后選擇,(4)規(guī)制強度應當逐步提升。(39)參見Ayers, J. Braithwaite. Responsive Regulation : Transcending the Deregulation Debate. Oxford: Oxford University Press,1992,p.6,37,38.與之對應,整體規(guī)制策略則可分為自我規(guī)制、強化型自我規(guī)制和命令強制型規(guī)制三種類型,具體規(guī)制手段也形成了由弱及強的金字塔體系。在此基礎上,“聰明監(jiān)管”理念的提出使原有單面的金字塔體系演化為三面金字塔體系,第一面是政府監(jiān)管,第二面是企業(yè)自我監(jiān)管,第三面是第三方監(jiān)管。(40)參見Dirk A. Zetzsche; Ross P. Buckley; Janos N. Barberis; Douglas W. Arner, Regulating a Revolution: From Regulatory Sandboxes to Smart Regulation, 23 Fordham J. Corp. & Fin. L. 94-98 (2017).在具體的規(guī)制任務面前,規(guī)制者不僅可以增加直接監(jiān)管的強度,還可以強化企業(yè)的自我監(jiān)管與第三方監(jiān)管。還有學者基于回應型理論提出了雙層監(jiān)管的構想,將建立有效內(nèi)部監(jiān)管體系的企業(yè)放入第一層級,政府部門可以減少對它們的直接規(guī)制轉(zhuǎn)而對企業(yè)內(nèi)部監(jiān)管體系進行補充監(jiān)督;而尚未建立起嚴密監(jiān)管體系的企業(yè)則被放入第二個層級,對之保持著傳統(tǒng)的命令型規(guī)制。(41)參見楊炳霖:《監(jiān)管治理體系建設理論范式與實踐路徑研究——回應性監(jiān)管理論的啟示》,載《中國行政管理》2014年第6期。由此可見,回應型規(guī)制理論旨在轉(zhuǎn)變政府自身定位,由原來的直接規(guī)制者轉(zhuǎn)變?yōu)橐?guī)制體系的構建者,通過制度構建保證其他非政府組織的主體地位,并激發(fā)自我監(jiān)管的意愿和能力。立足回應型理論,一些專門針對現(xiàn)代風險的規(guī)制理論得以提出。(42)參見Julia Black & Robert Baldwin, Really Responsive Risk-Based Regulation, 32 LAW POL'Y 181, 193, 210 (2010).如“真正風險回應型理論”主張風險規(guī)制應當對被規(guī)制企業(yè)的態(tài)度、行為、文化氛圍、機構環(huán)境、交互控制等方面作出回應,規(guī)制者應當積極探查不服從行為,并以不斷發(fā)展變化的策略和手段積極應對這些行為,在確保規(guī)制措施得以實施的前提下,評估規(guī)制措施的成效并積極進行相應的調(diào)整。(43)Id.
不可否認,這些理論在風險規(guī)制領域發(fā)揮著重要作用,但依舊無法因應人工智能風險規(guī)制的困境。
首先,人工智能風險面臨的規(guī)制信息匱乏與不對稱的程度遠遠超過以往風險,政府部門已經(jīng)不再位于信息獲取與發(fā)布的中心位置。人工智能的飛速發(fā)展為規(guī)制者勾畫出急劇上升的學習曲線,這些因素都使風險規(guī)制具備很強的不可預見性,而回應型規(guī)制實際依舊以風險的可預見性為依托。(44)以往風險規(guī)制往往以相對明確的科學依據(jù)和經(jīng)驗事實作為支撐,因此那些方面的風險規(guī)制相當于“預防相對確定的危害結果出現(xiàn)”。面粉添加劑的存廢之爭就是很好的例子,參見沈巋:《風險預防原則與食品添加劑準入裁量》,載《北京行政學院學報》2012年第6期。盡管回應型規(guī)制強調(diào)多元規(guī)制主體的廣泛參與,但這種規(guī)制的多元化實際是政府部門在一定風險分析基礎上主動對規(guī)制權力進行再次分配的結果,充足的風險分析與政府主導的多元化在人工智能領域皆難以實現(xiàn)?;貞鸵?guī)制倡導的教育、激勵等手段亦建立在信息相對充分、行業(yè)透明度較高的前提下,這與人工智能行業(yè)的發(fā)展現(xiàn)狀與未來趨勢頗為不符,回應型理論在很大程度上無助于解決規(guī)制滯后的困境。
其次,盡管回應型理論旨在形成立體化的規(guī)制工具體系,但其形成的規(guī)制體系依舊以政府規(guī)制為絕對中心。而人工智能風險規(guī)制在知識層面上的割裂以及相關技術的多樣性、分散性,導致該領域風險規(guī)制難以實現(xiàn)政府規(guī)制的絕對中心化,相應的規(guī)制應當是多方主體基于信息反饋而互相合作的結果?;貞屠碚撾y以為風險規(guī)制構建起平等合作的開放式場域。
再次,盡管在人工智能領域也可使用自我規(guī)制的概念去形容企業(yè)進行風險防控的過程,但人工智能領域的自我規(guī)制與政府主導下的雙層規(guī)制體系有很大的不同,前者是在政府規(guī)制真空的狀態(tài)下由開發(fā)者自發(fā)形成的規(guī)制,盡管這種自發(fā)性往往源自對政府規(guī)制滯后的無奈與擔憂。(45)以2014年谷歌并購深思科技為例,并購一經(jīng)獲批,谷歌公司就宣布成立人工智能監(jiān)管理事會以應對人工智能風險。參見Michael Guihot; Anne F. Matthew; Nicolas P. Suzor, Nudging Robots: Innovative Solutions to Regulate Artificial Intelligence, 20 Vand. J. Ent. & Tech. L. 387 (2017).這種自我規(guī)制與回應型理論下由政府設定相應規(guī)制目標的自我規(guī)制相比更加具備能動性與不可控性。若政府部門可以找尋平等合作的途徑,則可能出現(xiàn)規(guī)制雙贏的結果,否則很可能導致規(guī)制資源的消耗與規(guī)制對抗。在自我規(guī)制的過程中,相應的知識、信息、規(guī)則、原則亦通過自我規(guī)制的過程進行自下而上的創(chuàng)造,這在很大程度上消解了政府規(guī)制的權威性,(46)以發(fā)達國家人工智能的自我規(guī)制為例,在美國,谷歌、亞馬遜、微軟、蘋果以及美國人工智能發(fā)展協(xié)會通力合作,制定了一系列的人工智能發(fā)展備忘錄。無獨有偶,美國電子電器工程師協(xié)會則提出了《道德化設計:人工智能時代人機相處的信任機制》文件,以促進人工智能的自我規(guī)制。Id.at 431-433.規(guī)則制定權的分化無形中為政府規(guī)制制造了外在壓力。在這樣的背景下,雙層規(guī)制等策略當然是難以實現(xiàn)的。最后,回應型規(guī)制在人力物力、組織能力等方面的水平與人工智能的規(guī)制需求不相匹配,這直接限制了回應型規(guī)制的適用空間。
在此背景下,美國學界提出一些新的規(guī)制策略以應對快速發(fā)展的新興風險。例如,(1)以暫時性規(guī)制措施強化風險規(guī)制的靈活性,通過實驗性立法與落日條款的方式確定可調(diào)整的規(guī)制手段與目標,通過法律規(guī)范與規(guī)制措施的調(diào)整以適應不斷發(fā)展變化的整體環(huán)境。(47)參見Shawn HE Harmon & Fabiana Arzuaga, Foresighting Futures: Law, New Technologies and the Challenges of Regulating for Uncertainty, 4 LAW INNOVATION & TECH. 1, 3 (2012).(2)以“規(guī)制沙箱”的方式允許企業(yè)實施與檢驗新的規(guī)制思路,在這一過程中不必受已有法律規(guī)制的嚴格限制。(48)參見Luke G. Thomas, The Case for a Federal Regulatory Sandbox for Fintech Companies, 22 N.C. Banking Inst. 257 (2018).(3)積極借助信息反饋實現(xiàn)預期立法,以適應規(guī)制過程中的偶然性。(49)參見Wendy Wagner; William West; Thomas McGarity; Lisa Peters, Dynamic Rulemaking, 92 N.Y.U. L. Rev. 192-194 (2017).人工智能風險規(guī)制必須處理好靈活性與可預見性的關系。受上述策略的啟發(fā),實驗型的規(guī)制策略成為人工智能風險規(guī)制思路的可行之選。
實驗型規(guī)制通常分為四個階段。首先,規(guī)制機關應當通過其掌握的初始信息,做出“初步可規(guī)制”的決定。第二,規(guī)制主體應當考察被規(guī)制者和相關民眾的意見,以決定實驗的具體條件,實施相應的實驗。第三,必要之時,規(guī)制主體可暫停某些特定活動,以確保實驗的順利進行;依據(jù)實驗結果規(guī)制者可確定暫時性規(guī)制措施,以防止風險發(fā)生。第四,實驗過程必須被合理地限制,以確保其具備合法性。
1.“初步可規(guī)制”決定的做出。如果現(xiàn)有的科學證據(jù)表明存在可置信的重大風險或潛在損害,那么該風險就具備初步的可規(guī)制性。規(guī)制者很難制定出初步可規(guī)制風險的量化標準,也無法計算出相應風險出現(xiàn)的具體概率。因此只能依靠以下的標準對人工智能風險進行規(guī)制篩選:(1)技術具有革新甚至顛覆屬性,對傳統(tǒng)技術或產(chǎn)品有明顯的替代效應;(2)該技術以克服或減輕相關傳統(tǒng)產(chǎn)品的風險或危害為主要的宣傳依據(jù);(3)該技術問世前相關市場中并不存在類似的產(chǎn)品和技術;(4)新興技術正在以較快的速度推廣,或者有可預見的較大的推廣空間。由于不同領域的風險往往由不同的部門進行規(guī)制,因此風險規(guī)制并不需要統(tǒng)一的部門對新興風險進行排序,不同領域的規(guī)制者可依照上述標準確定各自的規(guī)制任務,并交由人工智能委員會進行統(tǒng)籌安排。(50)人工智能委員會見本章第三節(jié)的論述。
初步可規(guī)制性的明確很可能遭遇疑難案件。首先,決定的做出需要克服科學實驗的局限性問題??茖W本身是由無數(shù)次的失敗的結果,因此在哲學上常被人作為證偽過程的結果。(51)關于科學知識的可證偽性,參見[英]卡爾.波普爾:《開放社會及其敵人》,中國社會科學出版社1999年版。“在高度不確定性的領域,專家們無論如何調(diào)動自己的學識和經(jīng)驗,作出推測、假定或者建議,也不一定能達到或者逼近絕對的真實?!?52)陳春生:《核能利用與法之規(guī)制》(增訂版),月旦出版社股份有限公司1995年版,第379頁。對目前的科學技術還難以進行監(jiān)測分析的技術或人類行為,即使進行實驗亦難以開啟規(guī)制程序??茖W認知水平的制約往往使初期的規(guī)制活動都難以符合成本收益分析的要求,因此對實驗周期較長、耗費資金較大、同行評議或?qū)W界共識普遍認為危害較小或不存在危害的創(chuàng)新活動,只能采取觀望的態(tài)度。其次,如何協(xié)調(diào)民意與專家意見之間的關系是急需解決的問題。有學者認為,民眾意見在風險規(guī)制中承擔價值目標確定的職能,而專家智識則決定了具體的規(guī)制措施和規(guī)制策略。(53)參見戚建剛:《風險規(guī)制過程合法性之證成——以公眾和專家的風險知識運用為視角》,載《法商研究》2009年第5期。但在人工智能風險領域,民意對規(guī)制目標的選定作用應當受到限制,規(guī)制主體應當在新興技術特別是具備顛覆性意義的技術創(chuàng)新面前保持警惕,在規(guī)制目標的選擇上不應完全順從民意而將規(guī)制資源集中在民眾關注的領域,而應更加倚重科學分析的結果。
2.實驗的具體實施。實驗實施是風險規(guī)制的核心環(huán)節(jié),其有助于規(guī)制主體在確定規(guī)制策略前獲取充足的信息。實驗型規(guī)制在克服規(guī)制的“確認偏誤”(54)確認偏誤是指認識主體不論事實真相為何,都偏好于支持自己的成見或猜想的心理傾向。方面存在明顯的優(yōu)勢。受實驗影響,規(guī)制主體更易具備開放性的視野。(55)規(guī)制過程中的確認偏誤實際與規(guī)制的路徑依賴緊密相關。以往的規(guī)制措施在很大程度上影響規(guī)制主體看待新興風險的視角與方式,容易使規(guī)制主體運用以往確定的規(guī)制路徑解決問題。特別是規(guī)制信息匱乏或較強的不確定性影響下,規(guī)制者在面對新興風險時不是選擇過分嚴格的事前管制就是放任不管。多元主體的平等參與和合作使信息獲取更加充分,規(guī)制者亦可構建起反思規(guī)制措施可行性的場域。
具體而言,實驗對象被分配至實驗組、對照組等不同的組別。當實驗規(guī)模、實驗次數(shù)達到一定要求,實驗中采取的控制措施將有效地解釋不同分組出現(xiàn)差異的原因,進而逐步積累有效的規(guī)制信息。在此過程中規(guī)制主體盡管沒有義務按照被規(guī)制者的風險規(guī)制方案進行相應的實驗,但實際上規(guī)制者往往有動機考察被規(guī)制者的提議。原因不僅在于人工智能風險規(guī)制對平等合作的需求,還在于一旦規(guī)制主體依照實驗結果制定了相應的具體規(guī)則,規(guī)制的失敗將面臨被規(guī)制者以訴訟的方式而發(fā)起的挑戰(zhàn),在實驗過程中參考被規(guī)制者的實驗方案或者相關建議可以減少來自訴訟等方面的摩擦。此外,實驗對象的選擇實現(xiàn)了民眾的參與,其不僅有助于增進民眾對風險認知結果的認同和對規(guī)制措施的理解,還可以發(fā)揮民主監(jiān)督的重要作用。
在實驗過程中,規(guī)制者將面臨著來自實踐和倫理上的雙重挑戰(zhàn)。來自實踐方面的挑戰(zhàn)包括:(1)實驗對象中途退出實驗,(2)實驗對象從一個組別轉(zhuǎn)換至另一組別,(3)交叉影響,即實驗對象被其他組別采取的規(guī)制措施影響。實驗主體的退出,可以通過擴大樣品數(shù)量和預先進行樣品配對的方式進行解決。所謂預先配對,是指將實驗組與控制組之中的樣品提前進行配對,若一組中實驗主體退出實驗,則與其匹配的對應組中的主體亦被跟進剔除的解決策略。而另外兩方面的問題則需通過跟蹤監(jiān)控的方式進行一定程度上的克服。此外,實驗還面臨著倫理層面的批判。實驗對象的分組將直接影響不同組別主體的相應待遇,特別是長期實驗的存在,很可能使實驗對象在試驗條件下遭受的差別待遇長期存在。特別在醫(yī)學實驗中,實驗對象可能獲得較好的醫(yī)療條件或者新研制的藥物。因此,如果在醫(yī)學實驗中對比組實驗對象遭受了比較明顯的不利益,則實驗措施應當及早停止。當然,實驗的實施必須符合成本收益原則,這集中體現(xiàn)在實驗規(guī)模的確定上。即使實驗規(guī)模的最佳邊際值難以精準地確定,對實驗的大致規(guī)模進行科學謀劃是實施實驗的必要條件。
3.暫停權與暫時性規(guī)制措施。暫停權的行使主要服務于兩個目標:確保合理的實驗條件與防止利益集團的對抗。首先,在確保有足夠多的實驗對象參與實驗的前提下,還應按照實驗計劃對不同組別的實驗條件進行控制,以對照組為例,規(guī)制者應當暫停該組實驗對象對相應產(chǎn)品的接觸,否則實驗結果將受相關因素的干擾。其次,利益集團特別是被規(guī)制企業(yè)的對抗能力主要由以下兩個因素決定:資金水平和組織能力。規(guī)制主體的暫停中止權可以有效減小企業(yè)聯(lián)合對抗的可能性:其一,暫停權的行使有助于限制風險創(chuàng)新企業(yè)的盈利能力。這種對盈利能力的限制可能是依據(jù)實驗要求暫停相應的技術開發(fā)或產(chǎn)品銷售的直接結果,亦有可能是向投資者釋放風險規(guī)制的政府傾向進而導致投資熱情冷卻的間接結果。其二,對人工智能企業(yè)而言,經(jīng)驗的缺失使其原本就難以形成企業(yè)之間的聯(lián)合。此時規(guī)制實驗的出現(xiàn),將有效減緩被規(guī)制企業(yè)溝通與聯(lián)合的速率。
依據(jù)實驗過程的階段性成果,規(guī)制者在必要之時可以采取暫時性的規(guī)制措施。規(guī)制者可為被規(guī)制企業(yè)的技術開發(fā)、產(chǎn)品銷售等經(jīng)營活動設置時間、空間、強度或預防措施等方面的要求,與此同時,規(guī)制者還可以限制風險產(chǎn)品的銷售,特別是向易受傷害的消費者群體的銷售。鑒于暫時性規(guī)制措施對被規(guī)制企業(yè)的重大影響,規(guī)制俘獲的可能性是比較大的。利益俘獲理論早已指出,在位企業(yè)有俘獲規(guī)制者以提高相關行業(yè)市場準入門檻、阻礙新興企業(yè)發(fā)展的動機,暫停權的俘獲則有助于傳統(tǒng)行業(yè)抵制新興技術的發(fā)展、削弱潛在的競爭。因此,實驗的實施亦要防止規(guī)制俘獲的出現(xiàn)。
4.合法性問題。風險規(guī)制在很大程度上對法律保留原則、比例原則形成了挑戰(zhàn),(56)參見趙鵬:《風險社會的自由與安全》,載《交大法學》2011年第1期。但這并不意味著風險規(guī)制可以擺脫合法性的制約。目前來看,我國并沒有嚴格法令制定程序(57)我國規(guī)制機關的規(guī)章制定并沒有可以遵循的嚴格的規(guī)則制定程序,而在美國,規(guī)制機構從20世紀80年代開始就可以采取商談式的規(guī)則制定程序,1990年通過的《商談式法令制定法》對這種法令制定程序進行了確認。依據(jù)該法案,即使各方在規(guī)則制定中取得一致,通過商談方案制定的規(guī)則依舊要經(jīng)過公告與評議程序,特別是成本收益分析程序。參見Jody Freeman & Laura I. Langbein, Regulatory Negotiation and the Legitimacy Benefit, 9 N.Y.U. ENVTL. L.J.60 (2000).,針對人工智能的實驗規(guī)制制定政府規(guī)章的可能性也比較小。替代性方案應當被提出,以滿足規(guī)制實驗合法性的需要。首先,具體規(guī)制部門可制定臨時性規(guī)則對實驗的合法性進行確認;(58)具體規(guī)制部門主要指人工智能各個領域的監(jiān)管部門,如無人駕駛技術的監(jiān)管應當交由交通部門負責,在制定實驗方案時,則應主要參考相應企業(yè)的意見與方案。其次,事后的司法審查機制可以為實驗型規(guī)制提供一定制約。
臨時性規(guī)則方案是指具體規(guī)制部門針對規(guī)制實驗制定臨時性具體規(guī)則的一種方案。首先,規(guī)制部門必須結合初始可規(guī)制風險的標準,論證實驗的必要性和可行性,制定具體的實驗方案。此時向誰論證,由誰應答成為風險規(guī)制需要解決的重要難題。由于民眾參與積極性以及科學知識儲備上的不足,向民眾進行論證的可行性與有效性都比較弱。因此,實驗方案的制定應當向人工智能委員會負責。實驗方案應當包括初步可規(guī)制性分析、實驗措施、實驗對象分組、實驗起止時間、預防補救措施等內(nèi)容。其次,在實驗取得階段性成果后,規(guī)制部門應當制定臨時性規(guī)范文件,以確定針對某種新興風險的規(guī)制措施。該規(guī)制措施應當伴隨著規(guī)制實驗的進行不斷進行調(diào)整或補充,并向前述委員會進行定期的總結分析。最后,結合人工智能行業(yè)的自身特點,相應的行業(yè)標準、行為規(guī)范應當被充分采納進規(guī)范性文件的制定之中。伴隨著風險認知的不斷深化,待時機成熟之時,規(guī)制主體可制定正式的規(guī)范性文件為常規(guī)規(guī)制提供合法性依據(jù),并結合新興產(chǎn)業(yè)的發(fā)展制定一系列有關市場準入等方面的產(chǎn)業(yè)發(fā)展政策。
實驗過程具備較強的不確定性,對其進行制約還要發(fā)揮司法審查的作用。以時限性為例,實驗過程中的限制性措施只能是暫時性的。脫離司法機制的制約,這些規(guī)制措施很容易對創(chuàng)新型企業(yè)造成持續(xù)損害。(59)規(guī)制措施的暫時性和永久性問題實際在深化改革的進程中并不罕見?!缎姓S可法》第15條規(guī)定了地方政府創(chuàng)設臨時許可的權力,但臨時性行政許可實施滿一年的,應當提請本級人民代表大會及其常務委員會制定地方性法規(guī)。而正是由于司法審查機制的不暢,導致許多地方政府創(chuàng)設的暫時性行政許可長期存在。盡管基于尊重規(guī)制能動性的司法克制理念,具體實驗中的技術問題一般不屬于司法審查的范疇,但實驗及相關限制性措施的起止時間、適用對象等方面應當接受司法審查。目前來看,被規(guī)制者及其他利益相關者提起行政訴訟是進行司法審查的主要途徑。
權力配置問題是實驗型規(guī)制必須解決的重要問題。規(guī)制的合作性決定了規(guī)制權力必須在政府部門與人工智能開發(fā)者之間,以及中央與地方政府部門之間進行合理的配置。國外人工智能風險規(guī)制已經(jīng)為我國提供了比較成熟的借鑒經(jīng)驗,主管部門、人工智能大型企業(yè)、獨立科研機構與民眾代表應當協(xié)同籌建人工智能委員會,作為決定實驗權力配置等重大問題的決策機構。
一般而言,人工智能研究開發(fā)的相關信息掌握在開發(fā)者手中,實驗樣本的選擇與具體方案的確定可以由開發(fā)者作為主要的策劃者,政府部門則更多從風險的系統(tǒng)性及其他偶行性因素的角度進行相應的補充。而實驗的具體實施權則需要委員會權衡地方試點型與中央主導型兩種模式的利弊。規(guī)制實驗可以大致分為有關技術可行性的規(guī)制實驗與實踐反饋的規(guī)制實驗兩種類別,盡管兩種類別并不存在涇渭分明的界限。(60)以無人駕駛為例,技術可行性與實踐的反饋是緊密結合的兩個部分。盡管在技術開發(fā)初期,技術可行性主要是通過科技人員進行技術攻關的方式實現(xiàn)的,但隨著技術開發(fā)的深入,技術可行性的提升與實踐反饋越來越緊密結合在一起。前者一般由中央級別的規(guī)制機構與企業(yè)集團的母公司負責組織實施,原因在于地方試點型的實施模式具有以下局限性。
首先,風險規(guī)制較弱的可預見性與可控性使地方政府在進行規(guī)制時面臨不小的難度,這就產(chǎn)生了“搭便車”與“規(guī)制觀望”的可能性,(61)以網(wǎng)約車規(guī)制為例證,新生事物從產(chǎn)生到被賦予合法地位總要經(jīng)歷漫長的“等待期”。特別是中央政策尚不明朗或新生事物具備較強群眾基礎的情形中,地方政府在進行規(guī)制時不僅面臨經(jīng)驗和理論缺失的困難,更滋生“等待觀望”的心理動機。直至上海市頒發(fā)第一張經(jīng)營許可證,全國各地才紛紛對網(wǎng)約車的監(jiān)管進行初步的表態(tài)就是最好的例證。在具體監(jiān)管的過程中,規(guī)制措施的選擇亦展現(xiàn)了較強的模仿性。繼北京上海出臺有關司機、車輛的準入限制后,昆明、青島、杭州等地市亦紛紛確立了事前管制的監(jiān)管思路。參見郭傳凱:《共享經(jīng)濟屬性的回歸與網(wǎng)約車監(jiān)管思路的選擇》,載《山東大學學報(哲學社會科學版)》2018年第1期。以致風險規(guī)制的低效。被規(guī)制的企業(yè)只要在規(guī)制相對寬松的地域范圍獲得了成功經(jīng)營,便可以此為“根據(jù)地”向其他領域進行擴張發(fā)展,進而形成更強的規(guī)制對抗。其次,民眾對風險規(guī)制的認知很可能被感性認識裹挾。在類似霧霾治理等可察覺性風險上,民眾的訴求常常使政府花費大量風險規(guī)制資源,而對人工智能風險則視而不見。在缺乏中央政府強有力的督促、引導之時,地方層面很可能形成規(guī)制的真空狀態(tài)。第三,規(guī)制競次(62)規(guī)制的競次是美國學界從20世紀90年代就開始著力研究的問題。參見Richard L. Revesz, Rehabilitating Interstate Competition: Rethinking the "Race-to-the-Bottom" Rationale for Federal Environmental Regulation, 67 N.Y.U. L. REV. 1210 (1992).是不得不考察的因素。地方政府享有相應的規(guī)則制定權,這使得規(guī)制主體享有較大的自由裁量權。自由裁量使準入監(jiān)管、標準設置、行政處罰等規(guī)制措施具備了較強的靈活性與機動性,這就為創(chuàng)新型企業(yè)尋找合適的、規(guī)制寬松的經(jīng)營研發(fā)地域留下了空間。招商引資、納稅金額、社會關注度、民眾需求、就業(yè)機會等因素亦能誘使地方規(guī)制主體制定寬松的規(guī)制政策。對風險規(guī)制而言,這些都是需要提防的潛在因素。第四,地方主體規(guī)制相比中央政府規(guī)制更容易遭受被規(guī)制的俘獲,也更容易在上級黨政機關的“高壓”之下以對待相關傳統(tǒng)技術或產(chǎn)品的規(guī)制路徑管制新興技術的發(fā)展,從而造成規(guī)制路徑上的嚴重依賴。最后亦是最重要的原因,地方試點模式往往在人力物力、專家知識、組織能力等方面不及中央主導型模式,不利于規(guī)制實驗的實施。
中央主導型模式在科研實力和數(shù)據(jù)分析等方面的優(yōu)勢,使其在規(guī)制信息的獲取方面有著地方規(guī)制主體不具備的優(yōu)勢。此外,中央規(guī)制主體具備地方主體不具備的權威性,這對抵御被規(guī)制者的聯(lián)合對抗有重要意義。中央層面的規(guī)制措施亦具備較高的公信力,這有利于爭取民眾對規(guī)制的支持和理解。但中央主導型模式在實踐反饋性實驗的實施方面亦具有一定劣勢。以司法大數(shù)據(jù)與人工智能技術為例,對該技術進行實踐反饋實驗則不宜在中央層面進行。原因不僅在于中央一級的司法案件遠離地方基層多樣實踐,更在于中央一級的司法案件往往需要更加審慎的考量,將之作為人工智能的實驗對象于理不合。此時地方型實驗可以進行富有地方特色的試點,中央政府可選擇最有效的、最符合成本收益原則的規(guī)制措施在全國適度推廣。盡管中央政府亦有能力進行多種規(guī)制措施的嘗試,但地方性實踐更有可能進行高效的知識積累。原因在于不同的地方規(guī)制主體有不同的思維方式和實踐土壤,有利于獲得了更加契合地方實踐的知識來源。此外,以地方試點的方式進行反饋性實驗還可以避免中央級別的系統(tǒng)性或大規(guī)模風險。綜上所述,有關技術可行性的規(guī)制實驗應當盡量在中央層面進行實施,而實踐反饋實驗則應當在地方政府與企業(yè)集團分公司或子公司的層面進行開展。
實驗型規(guī)制的本質(zhì)是政府與人工智能開發(fā)者攜手構建開放性場域的過程。從初步可規(guī)制決定的做出開始,規(guī)制機關就與人工智能開發(fā)者共同決定了人工智能的風險等級與規(guī)制次序。人工智能委員會的設立形成了雙層協(xié)作式的規(guī)制結構,確保了平等合作的規(guī)制方式貫穿實驗型規(guī)制的始終,多學科知識和各方面信息在這一過程中得以融合,從而形成漸進性的規(guī)制:規(guī)制主體依據(jù)一定的初始信息采取一定的實驗措施,并以前述措施獲取更多的規(guī)制信息,再以獲得的信息為基礎采取更有效的規(guī)制措施,以此良性循環(huán),實現(xiàn)信息與規(guī)制之間的互動與“攀援”,從而有效地化解了規(guī)制滯后的難題。
規(guī)制過程中暫時性規(guī)制措施的采取有利于提升規(guī)制的靈活性。特別對系列實驗而言,不同技術發(fā)展階段的不同狀況導致不同的實驗結果,采取的暫時性規(guī)制措施亦各不相同,規(guī)制者可以及時調(diào)整規(guī)制目標以適應不斷變化的規(guī)制環(huán)境。此外,及時依據(jù)實驗狀況調(diào)整相應的規(guī)制措施可以有效避免相應規(guī)制對技術創(chuàng)新的阻礙作用。實驗模式形成的開放式場域有利于發(fā)揮民主意見的作用,在最大限度上克服確認偏誤導致的對傳統(tǒng)規(guī)制模式依賴的同時,盡可能通過民眾參與和被規(guī)制者意見的咨詢化解規(guī)制對抗的難題。專家學者、實驗人員、被規(guī)制企業(yè)、社會公眾等積極參與,不僅擴充了知識來源的渠道,更能通過商談的方式進行臨時性規(guī)則的制定,為實驗的實施提供合法性來源。
通過規(guī)制實驗,政府部門可以潛移默化地影響人工智能研發(fā)與運用的整體環(huán)境,并將相應的政策精神內(nèi)化為企業(yè)行動,實現(xiàn)規(guī)制與調(diào)控的結合。這一過程往往節(jié)約了規(guī)制成本,并使風險預防原則得以最大化的實現(xiàn),避免了實際損害的發(fā)生和錯誤的規(guī)制路徑形成。實驗型規(guī)制的漸進性與開放性不僅有助于資源設備的改良完善,更有助于科學知識的積累與風險認知的遞進化。這一過程不僅具備風險防控的面向,亦同時具有促進技術發(fā)展和便捷人類生存的面向,這與以往任何風險規(guī)制形成了重要區(qū)別。因此,作為人工智能風險規(guī)制可行出路的實驗型規(guī)制不僅可以回應人工智能風險規(guī)制的多重困境,亦能最大限度地實現(xiàn)新興技術的自由發(fā)展與人類社會的繁榮進步。