文/張富利
人工智能是這個時代非同小可的科學發(fā)現(xiàn),也成為了21世紀人類社會最重要的科學進步。在人工智能顛覆人類認知的全新時代,人類與機器人之間的政策、倫理、法律關系接踵而至,這意味著地球進入了“二元智能時代”。一個顯而易見的事實是,理性化解人工智能所蘊含的巨大社會風險,建構規(guī)制人工智能發(fā)展的規(guī)范體系,需要法學理論的深入思考與價值關照。
人工智能區(qū)別于既往所有科技的顯著特征是其能夠以前所未有的速度迅速重新對自身進行設計,這遠遠超過了受到緩慢生物進化規(guī)律限制的人類。風險社會的種種危機成為現(xiàn)代政治的核心部分,反思性現(xiàn)代化、預防原則以及規(guī)避風險路徑的完善也隨之成為當代社會發(fā)展的重要議題。值得注意的是,風險社會既不否定人類的科學實踐,也不否定社會的發(fā)展,而是強調(diào)重視人類實踐可能發(fā)生的災難性后果,將風險意識作為審慎的反省批判來看待,從而將風險意識轉(zhuǎn)向人類如何能有效防范風險的技術手段、制度安排及機制實施的具體舉措上來。人工智能是風險社會的最主要風險源之一,是政府公共管理的最重要內(nèi)容。它的風險既可能來自“技術—經(jīng)濟”的決策,但也有可能來自法律所保護的科技文明本身,所以,法律選擇的實質(zhì)應是基于風險的決策。
作為一套復雜的技術設計方式,人工智能既是影響社會行為的強力規(guī)范,也是產(chǎn)生新價值的生產(chǎn)機制,這在制度上的要求便是對新型的經(jīng)濟利益之合法性進行確認。然而,技術將擴大貧富差距,科技加速了不平等。大數(shù)據(jù)掌控者們占領了人工智能發(fā)展與應用的制高點,使日益增多的人成為更加難以保護自己的隱私和自由并面臨失業(yè)風險的弱者,這種顛覆層級的改變是史無前例的。人工智能將人類社會帶入了一個由社會分層來決定的局面:越來越少的人享有越來越大的自由,越來越多的人受到越來越強的必然性的束縛。人工智能全面滲入社會治理,為民主制度的異化創(chuàng)造了可能。技術能力同經(jīng)濟基礎一樣,對政治制度、法律規(guī)范起到了關鍵作用。隨著人工智能時代的到來,通過專制方式來掌控社會秩序的手段也會更強大,權力對人類的巨大誘惑極可能會讓社會治理向?qū)V苹?。權力、資本對人工智能的介入,極有可能將人工智能引入侵害制度文明的方向,科技與權力、資本一旦形成聯(lián)盟,對人類民主秩序的破壞將是毀滅性的。未來人工智能的時代將通過系統(tǒng)為王的準則,在資本的強勢介入下,可能導致社會的等級制被強化,人類長久以來孜孜以求的平等實現(xiàn)的難度更大,甚至希望渺茫。
法律帶有天然的保守性,具有“克制與謙抑”的特質(zhì),法律也可以被理解為是傾向于保守的社會規(guī)范,并不倡導激進的創(chuàng)新精神,而是以“經(jīng)濟進一步,政治進一步”的循環(huán)推進方式徐徐發(fā)展。在人工智能時代,保守傾向的品格使法律滯后于技術的進步和經(jīng)濟的發(fā)展,導致?lián)屨枷葯C的人群得到了極大的邊際收益。最典型的便是我國十幾年來電子商務與互聯(lián)網(wǎng)金融的突飛猛進,在法律制度缺位的情況下催生了一大批獲利甚豐的先富者,而在國家不斷出臺相關規(guī)定健全法律規(guī)制時,所約束的不過是后面的參與者,而先入行者早已利用政策的漏洞賺得盆滿缽滿,此時的諸多政策反而成了鞏固其壟斷地位的護身符。先占者又往往乘勝追擊,利用之前政策、法律缺位積累的諸般經(jīng)濟、數(shù)據(jù)資源優(yōu)勢故伎重施,進軍法律尚未介入的各種新領域。這些自詡為時代弄潮兒、敢為天下先的所謂成功者,最終卻利用了法律的滯后性立于不敗之地,讓循途守轍、安分守己指望勤勞致富的人們與其差距無限拉大。更值得憂慮的問題在于,大數(shù)據(jù)技術改變了整個法律體系運作于其中的社會空間,大數(shù)據(jù)擁有者與私人的權力被重塑,諸多全新無需依賴法律的全新社會控制方式始料不及地涌現(xiàn),讓現(xiàn)代社會中的每個個體的一切信息都無處可遁,處在被暴露的危險之下,而這種權力的擁有者及行使者卻愈見隱秘。顯而易見,在大數(shù)據(jù)時代,權利保護、權力制衡等最核心的法律價值遭遇了巨大挑戰(zhàn)。
人工智能的強勢和霸道在于,其發(fā)展的基礎是大數(shù)據(jù),而較早進入互聯(lián)網(wǎng)領域的階層成為了“大數(shù)據(jù)掌控者”,那么先進入互聯(lián)網(wǎng)領域的嘗鮮者自然成為了人工智能領域的拓荒者。他們憑借互聯(lián)網(wǎng)先占的優(yōu)勢而取得了人工智能的優(yōu)勢,進而利用人工智能領域的優(yōu)勢地位輕而易舉地介入包括農(nóng)業(yè)在內(nèi)的所有傳統(tǒng)行業(yè)并以絕對優(yōu)勢大占上風。近年來,新型商業(yè)模式運作下的“精準農(nóng)業(yè)定點解決方案”以及“植物云”等科技新概念與日俱增,在新事物的試驗階段,國家與社會均持有觀望的態(tài)度,根據(jù)其結果再選擇是否介入其中。殊不知,在結果發(fā)生之時,也即是大數(shù)據(jù)掌控者的優(yōu)勢全面形成之時。
此外,人工智能對傳統(tǒng)行業(yè)最大的沖擊之一便是失業(yè)問題,大量單一、重復的工作將迅速被人工智能取代。雖然學術界已經(jīng)普遍認為人工智能取代普通工作是必然,失業(yè)問題也將隨之而來,但當下關于國家福利政策及相關法律的制定卻回避了這個問題,即使是國民收入方案,也僅僅是回應了國家的收入及分配規(guī)則。人工智能帶來的失業(yè)潮僅僅是問題的表面,問題的核心在于失去了勞動便讓人類失去了生活的意義。人工智能技術的進步不僅未能讓人類如預想的一樣獲得解放、回歸自然,反而讓人類失去了勞動意義進而陷入了存在的虛無和迷惑。高科技高福利反而帶來了人的異化。
大數(shù)據(jù)掌控者所掌握的信息量遠勝于公民個人。國家在治理現(xiàn)代化的進程中,政府必然在信息資源上求助于這些占據(jù)上風的大數(shù)據(jù)持有者。工具理性一定程度上消解了司法的意義,智慧管理在實際上削弱了司法的獨立地位,智慧應用更是分化了司法平等;至于一些地方法院所做的司法大數(shù)據(jù)外包業(yè)務,也侵蝕了司法公信力。在關涉大數(shù)據(jù)的領域,公私權力的邊界不再清晰,本該屬于公權力監(jiān)管的對象反而成為了合作伙伴,在高科技的飛速發(fā)展下,未來大數(shù)據(jù)持有者成為真正的權力享有者也未可知。掌控人工智能技術的階層能夠運用人工智能技術解析一切數(shù)據(jù),并依據(jù)這些數(shù)據(jù)而作出對策。技術的掌控者能夠運用人工智能技術進行一切數(shù)據(jù)的解析,可以用之剖析公權力機構的所有數(shù)據(jù),對政府決策、立法過程、法院判決進行數(shù)據(jù)分析,從而迅速生成對策。這種誘導往往是以合理的方式進行,可以隱秘到讓人無從覺察。人工智能將這種看不見的力量發(fā)揮到極致,讓法律規(guī)制與行政監(jiān)管無從下手,最終陷入了一個由“算法”而非法律統(tǒng)治人類社會的時代。然而算法作為一種程序,天然就帶有傾向性——它從設計出來伊始就是為了達到設計者的設計目的。此外,從法律制定的角度來看,人工智能剝奪了普通民眾通過民主協(xié)商制定法律規(guī)則的機會,因為原本繁瑣的立法程序、立法調(diào)查在人工智能面前被邊緣化了,人們被迫不斷地接受不能有任何更改和商榷的硬規(guī)則。
現(xiàn)代社會系統(tǒng)的不確定性和復雜程度無法通過科學計算來描繪和刻畫,其所展開的社會過程也讓人們無法預測,這導致現(xiàn)代社會的一大特點——“測不準性”。我們的學術探討能否為即將到來的時代重建一個相對穩(wěn)定的視野并非問題的重心,因為人工智能時代是一個正在生成與發(fā)展的過程而非結果,這個過程需要通過種種層出不窮的技術革新等具象表達方能勾勒清晰。
法的價值是法的制定的必需,是法的實施的需求,是防止法的失效的屏障,是校正惡法的準則,是法的演進的動因。安全也必然是未來人工智能時代法律體系的核心價值。通過對秩序價值的維護可以穩(wěn)定整個社會秩序,保障主體的合法權益不受侵害。人工智能遠遠超過人類智能甚至一切能力的可能性潛藏著極為嚴重的后果,這些巨大的風險使得立法者在制定法律規(guī)范時無法忽視。不僅人工智能的風險規(guī)制是立法者的重要考量因素,人工智能應用的安全監(jiān)測、倫理規(guī)則均應成為人工智能法律體系建構的重要方面。未來的立法體系應平衡創(chuàng)新與安全的立法價值。人工智能的立法體系必然體現(xiàn)鼓勵創(chuàng)新的價值導向,將“實踐理性”上升為“規(guī)劃理性”,在后工業(yè)時代設計出符合社會發(fā)展規(guī)律的價值。未來在謀劃國家發(fā)展整體戰(zhàn)略下,應對大數(shù)據(jù)、網(wǎng)絡化、人工智能等一系列改變社會結構的技術上作出戰(zhàn)略部署,須制定一套安全標準以防控可能的風險,并形成長效的規(guī)制效用和監(jiān)管環(huán)境。
超級人工智能將最終呈現(xiàn)為只有一個核心主體的系統(tǒng)化內(nèi)存,人工智能體最終超越了擬人模式的初級階段而發(fā)生質(zhì)變,進入上帝模式,而人類只有像思考“全能神”一樣去解讀超級人工智能,方能理解其本質(zhì)。但作為人類的產(chǎn)物,出現(xiàn)兩種以上的“全能神”人工智能不可避免,兩種近似于“一神教”的全能超級人工智能一旦出現(xiàn),戰(zhàn)爭便是必然了。故此,作為安全閘門的“哥德爾炸彈”必須被設置,以保證對人工智能的“阿喀琉斯之踵”的有效攻擊。但悖論隨即出現(xiàn)——若超級人工智能具有自我意識,必然能夠通過自我學習找到使“哥德爾炸彈”失效的方法。
科幻大師阿西莫夫的“機器人三定律”實際上存在著巨大的缺陷,缺乏明確概念界定的定律模糊之處也導致了巨大漏洞。未來建構的難題是機器倫理學難以作為機器倫理的基礎存在。阿西莫夫的三定律并不能成為AI安全研究者抑或機器倫理學者們的指導原則,原因在于義務倫理學直接套用在人工智能的應用領域存在著按圖索驥之弊端,顯然是“拿著中世紀的地圖來行現(xiàn)代之旅”。實際上,阿西莫夫三定律本質(zhì)上存在著解釋疑難,又極難自洽,同時相互之間又是對抗的,而三定律的這些內(nèi)在缺陷無論通過修正還是補丁都很難克服。未來人工智能的倫理設計應是合作性的、融洽的;而在道德準則的設計技術上更應采用間接規(guī)范的方式,因為間接規(guī)范可以允許失誤,當系統(tǒng)誤讀或編錯了倫理規(guī)范,能夠有彌補和恢復的機制,最終讓一套既合理又科學的倫理準則生成。
全球風險社會下的公共危機治理,本質(zhì)上是一種文化治理,人類社會的文明進程中要求對社會系統(tǒng)中的紛紜復雜的關系進行合理調(diào)整,不斷完善組織能力,提升管理水平,最終達致社會整體的有序運轉(zhuǎn)、和諧共生。在大數(shù)據(jù)、互聯(lián)網(wǎng)時代,經(jīng)濟發(fā)展速度、產(chǎn)業(yè)更新?lián)Q代頻率極快,雖然國家、政府在監(jiān)管方面作出了大量努力,但立法程序繁復、耗時冗長,使得法律的滯后性在“互聯(lián)網(wǎng)+”的時代更加凸顯。而倫理規(guī)范能夠?qū)ι鐣袨檫M行先行預設,對當下變化的社會以及未來可能變化的社會關系作出相應調(diào)整。故此,倫理討論是制定法律和政策的基礎,對人工智能的倫理研究應當先于立法研究。
人工智能行業(yè)的崛起,僅僅實現(xiàn)單一專業(yè)領域的技術進展是徒勞的,因為是顛覆性技術的技術突破,只有全方位推進源于技術革新而發(fā)生的綜合性大變革舉措才是根本之道。在明確這一點之后,方能理解人工智能時代的挑戰(zhàn)并非僅僅限于技術和產(chǎn)業(yè)上,而更大的挑戰(zhàn)是在經(jīng)濟、社會、政治領域的公共政策選擇上。
建立在科層制基礎上的社會公共治理結構,能否恰到好處地應對人工智能的發(fā)展和應用過程中所激發(fā)的不確定性和不可預知性,顯然是一個難以回答又不得不面臨的深層問題。甚至,社會理性化的進程將是科層制的擴張的傳統(tǒng)命題也面臨著被顛覆的命運。人工智能必須被嚴密監(jiān)管的原因在于其完全有可能演變?yōu)樯鐣参kU的主要源頭,當無人駕駛汽車普及后,行駛過程中一旦失控,便會造成大規(guī)模連續(xù)性傷害。然而新型的問題并不同于飛行器、大壩甚至核能等20世紀公認的公共危險源,人工智能本質(zhì)就有極強的開放性,所有的個人和公司都能夠隨時隨地進行人工智能的研發(fā)應用。人工智能生產(chǎn)模式是開放的,未來發(fā)展的不確定性則是必然的,一旦缺乏有效規(guī)制與合理引導,便會步入歧途。對于這樣的新狀況,建立在傳統(tǒng)科層制之上的治理結構頗顯力不從心。人工智能的發(fā)展會沖擊舊有的治理系統(tǒng),其引發(fā)的全新社會重大議題也令舊有治理范式捉襟見肘,這就需要一套新的治理體系與更周密的治理工具。人工智能給治理帶來的巨大挑戰(zhàn),一方面反映出現(xiàn)有的治理體系于人工智能應對乏力;另一方面人工智能帶來的新議題面臨著治理空白的境地。
美日的政策框架上更側(cè)重于科技創(chuàng)新的推動,在政策目標上保持國家高科技在國際競爭中的優(yōu)勢地位。兩國在對待人工智能的風險性問題和公共安全問題上,監(jiān)管邏輯更傾向于“無需批準式”的監(jiān)管策略,除非有足夠充分的證據(jù)能夠證明其危險性,那么所有的高新科技和新商業(yè)運作模式都被默認為是安全的,也就不得禁止。《為人工智能的未來做好準備》作為美國國家戰(zhàn)略性的政策,通過常規(guī)性的應對方法來強調(diào)風險評估與成本——收益原則的考量,判斷是否對人工智能技術的研發(fā)、應用加以監(jiān)管。日本于2016年出臺了《第五期(2016—2020年度)科學技術基本計劃》,是多策并舉推進人工智能的快速發(fā)展與應用普及。英、法等國采用了“審慎監(jiān)管”的公共政策,著重強調(diào)安全性,新技術和新的商業(yè)模式在被證明完全無害后方能被允許使用。兩種路徑在應對人工智能時代的治理挑戰(zhàn)上均有所長?!盁o需批準式監(jiān)管”的優(yōu)勢在于為創(chuàng)新提供了制度動力,“審慎監(jiān)管”出于審慎的政策考量而側(cè)重于安全。不過這兩種制度在人工智能的規(guī)制上依然存在不足?!盁o需批準式監(jiān)管”是事后監(jiān)管,其預設的是事后監(jiān)管依賴于合規(guī)性判斷,是及時、有效的,而這在現(xiàn)實中顯然會有疏漏。而“審慎監(jiān)管”的進路是奠基于人類行為的普遍因果關系,人類都無法對人工智能的行為與決策進行預測,那么開發(fā)者更無法證明人工智能的無害運行。
在這場史無前例的顛覆人類社會結構的高科技運動中,政府的角色不能失位,須為人工智能的研究成果建立合乎公正的分享機制,避免資源掌控者的個人、團體單獨受益。一項足以改變?nèi)祟惿詈蜕鐣Y構的高科技蘊藏著巨大利益,誰為技術的掌控者、受益者更必須經(jīng)過審慎的論證,以保證人類社會的發(fā)展兼具效率與公平。政府的及時管理,能夠引導人工智能的良性發(fā)展,使之不偏離人類命運共同體終極關懷的軌道。