金 欣
(陜西師范大學(xué) “一帶一路”建設(shè)與中亞研究協(xié)同創(chuàng)新中心,陜西 西安 710119)
隨著人工智能(artificial intelligence)在科技領(lǐng)域和人們?nèi)粘I钪械膹V泛應(yīng)用,人類社會(huì)已經(jīng)步入人工智能時(shí)代。新科技的出現(xiàn)必然推動(dòng)法律制度的變革,人工智能是一種對(duì)人類智能造成挑戰(zhàn)的新科技,因此更需要法律變革來應(yīng)對(duì)[1]。自2017年國(guó)家《新一代人工智能發(fā)展規(guī)劃》等指導(dǎo)性文件發(fā)布后,法律與人工智能的研究成為熱門的法學(xué)研究議題,許多學(xué)者相繼討論了人工智能對(duì)法律本身和司法等方面的挑戰(zhàn)[2-6],一些部門法學(xué)者討論了人工智能的法律主體地位、人工智能作品的知識(shí)產(chǎn)權(quán)問題以及人工智能的刑事責(zé)任能力等具體的法律問題[7-9]。當(dāng)然,也有一些學(xué)者對(duì)人工智能對(duì)法律的挑戰(zhàn)提出質(zhì)疑[10],認(rèn)為“人工智能并未對(duì)法律基礎(chǔ)理論、法學(xué)基本教義提出挑戰(zhàn),受到挑戰(zhàn)的只是如何將傳統(tǒng)知識(shí)適用于新的場(chǎng)景”[11]。
這些研究或著眼人工智能對(duì)現(xiàn)有法律規(guī)范的挑戰(zhàn),或關(guān)注人工智能對(duì)現(xiàn)有法律規(guī)范的基礎(chǔ)理論的沖擊。但法律不僅是“一套規(guī)則的體系”,更是“一套意義的體系”[12],作為意義體系的法律意味著其規(guī)則中包含著一些特定的價(jià)值訴求和價(jià)值判斷[13],或者說蘊(yùn)含、提倡和追求著一些價(jià)值,這些價(jià)值在立法、法律解釋和司法中都起著重要的作用[14-15],表現(xiàn)了“在人(主體)與法(客體)的關(guān)系中體現(xiàn)出來的法律的積極意義或有用性”[16]。這些價(jià)值被稱為法律價(jià)值(legal values),一般包括秩序(order)、正義(justice)和自由(freedom)(1)相關(guān)研究參見張文顯:《法哲學(xué)范疇研究》(修訂版),中國(guó)政法大學(xué)出版社2001年版,第187-223頁;張恒山:《“法的價(jià)值”概念辨析》,《中外法學(xué)》1999年第5期;[英]彼得·斯坦,約翰·香德:《西方社會(huì)的法律價(jià)值》,王獻(xiàn)平譯,中國(guó)法制出版社2004年版;周永坤:《法理學(xué)——全球視野》(第四版),法律出版社2016年版,第176-201頁。秩序、正義和自由并不是法律價(jià)值的全部,本文僅以這3個(gè)具有代表性的價(jià)值來討論人工智能對(duì)法律價(jià)值的挑戰(zhàn)?!,F(xiàn)代科技首先對(duì)人類社會(huì)的價(jià)值和理念帶來挑戰(zhàn)[17],法律是社會(huì)的主要規(guī)則,因此研究人工智能對(duì)法律的挑戰(zhàn),更應(yīng)該從法律價(jià)值入手。
當(dāng)代人類社會(huì)的生產(chǎn)力已經(jīng)高度發(fā)達(dá),但發(fā)展中也面臨著眾多風(fēng)險(xiǎn),而且與工業(yè)社會(huì)相比,這些新的風(fēng)險(xiǎn)“完全脫離人類感知能力”[18]8,存在于科技發(fā)展的內(nèi)部,人類日常經(jīng)驗(yàn)通常無法感知。同時(shí),雖然不斷有對(duì)技術(shù)和工業(yè)的批判之聲,但技術(shù)統(tǒng)治和自然主義在當(dāng)代社會(huì)中仍處于核心地位,而科技發(fā)展“無意間把人僅僅視作有機(jī)體”,其掩蓋了許多科技帶來的“現(xiàn)代化風(fēng)險(xiǎn)在社會(huì)、文化和政治上的內(nèi)涵及后果”[18]11。人工智能作為一種新科技,在對(duì)現(xiàn)有法律價(jià)值有促進(jìn)作用的同時(shí),更多的是帶來了前所未有的風(fēng)險(xiǎn)和挑戰(zhàn)。
法律是國(guó)家給人和公權(quán)力提供的一套具有可預(yù)期性的規(guī)則體系,所以秩序是法律保護(hù)和體現(xiàn)的首要價(jià)值。法律為國(guó)家和社會(huì)提供秩序,同時(shí)法律也維護(hù)現(xiàn)有的秩序,因此法律在追求安定性的同時(shí),還具有一定的保守性。亞里士多德在《政治學(xué)》中曾言:“法律就是某種秩序,良好的法律必然就是良好的秩序?!盵19]這說明了秩序?qū)α己梅傻闹匾?。法律體現(xiàn)、維持和保護(hù)的秩序主要有兩類,即“關(guān)于財(cái)產(chǎn)和人身安全的秩序”“與公權(quán)力的設(shè)立、運(yùn)行有關(guān)的秩序”[20]。人工智能的出現(xiàn)和發(fā)展對(duì)法律所維系的這兩種基本秩序都造成了挑戰(zhàn)。
人工智能的產(chǎn)生得益于數(shù)據(jù)量的增加和計(jì)算機(jī)運(yùn)算能力的提升,這兩個(gè)條件的發(fā)展與互聯(lián)網(wǎng)的發(fā)展相伴隨?;ヂ?lián)網(wǎng)的發(fā)展激發(fā)了一個(gè)不同于以往社會(huì)和地理空間的網(wǎng)絡(luò)空間(cyberspace)的產(chǎn)生。人工智能的活動(dòng)空間不局限在傳統(tǒng)的社會(huì)和地理空間,更多的是在網(wǎng)絡(luò)空間。網(wǎng)絡(luò)空間雖然具有虛擬性,但卻實(shí)實(shí)在在影響著人類社會(huì)秩序,比如網(wǎng)絡(luò)虛擬財(cái)產(chǎn)已成為一種重要的新型財(cái)產(chǎn),在我國(guó)受到《中華人民共和國(guó)民法典》等相關(guān)法律保護(hù)。網(wǎng)絡(luò)本身也是人類原有秩序的延伸,但因?yàn)榫W(wǎng)絡(luò)空間的虛擬性并缺乏嚴(yán)格的國(guó)家性界限,因此在給人類帶來新活動(dòng)空間的同時(shí),也增加了人類的生存風(fēng)險(xiǎn)。
而對(duì)主權(quán)國(guó)家來說,網(wǎng)絡(luò)主權(quán)與領(lǐng)土主權(quán)相比具有一定的模糊性,所以網(wǎng)絡(luò)空間在法律規(guī)制上跟領(lǐng)土空間相比更難,人工智能在網(wǎng)絡(luò)空間的活動(dòng)不僅可能破壞網(wǎng)絡(luò)原有的社會(huì)秩序,侵害民族國(guó)家的網(wǎng)絡(luò)主權(quán),挑戰(zhàn)國(guó)家權(quán)力的權(quán)威,還可能通過網(wǎng)絡(luò)空間擾亂人類的現(xiàn)實(shí)秩序。同時(shí),決定人工智能活動(dòng)的是算法(algorithm),設(shè)計(jì)和掌握算法的多是像谷歌、微軟之類的大型科技公司,對(duì)人工智能和網(wǎng)絡(luò)空間來說,因?yàn)樵诩夹g(shù)上擺脫了純粹的工具性,在不透明性之上具有了自主性,隨之也產(chǎn)生了“算法權(quán)力”[21]。因此,掌握或開發(fā)算法的大公司在人工智能領(lǐng)域和網(wǎng)絡(luò)空間中的影響力會(huì)超越民族國(guó)家法律的規(guī)制能力,算法權(quán)力通過網(wǎng)絡(luò)空間和人工智能影響社會(huì)秩序和法律秩序。因?yàn)樗惴ū旧硎且粋€(gè)“黑箱”,法律對(duì)算法的開發(fā)和運(yùn)作無法進(jìn)行有效的規(guī)制,而且算法的結(jié)果具有不確定性和不可預(yù)測(cè)性,所以法律對(duì)算法權(quán)力的行為和結(jié)果也缺乏有效的制約手段。
人工智能是對(duì)人類智能的模擬,這是對(duì)人作為法律秩序中主體的雙重解構(gòu),一方面人不再壟斷高級(jí)智能,另一方面基于機(jī)器和人的結(jié)合,人工智能可以增強(qiáng)人的智能,還可能產(chǎn)生人工智能與人腦結(jié)合的“合成人”。除了模擬能力之外,人工智能更具有獨(dú)特的機(jī)器學(xué)習(xí)(machine learning)能力,機(jī)器學(xué)習(xí)是人工智能不同于其他科技的自我發(fā)展方式,其獨(dú)特之處在于算法可以在沒有特定程序的基礎(chǔ)上以數(shù)學(xué)模型進(jìn)行預(yù)測(cè)并做出決定[22],同時(shí)產(chǎn)生新的算法。藝術(shù)曾是人類的專屬,但現(xiàn)在已經(jīng)出現(xiàn)了大量人工智能創(chuàng)作的音樂專輯和油畫等藝術(shù)作品。所以有學(xué)者指出:“所有知識(shí),無論是過去的、現(xiàn)在的還是未來的,都可以通過單個(gè)通用學(xué)習(xí)算法來從數(shù)據(jù)中獲得?!盵23]也就是說,在知識(shí)獲取上,人工智能可能遠(yuǎn)遠(yuǎn)超過人,具有代表性的是較多應(yīng)用于醫(yī)學(xué)和技術(shù)領(lǐng)域的人工智能專家系統(tǒng)(expert system),它們?cè)诤芏喾矫嬉呀?jīng)超過了單個(gè)的人類專家。
如果人工智能發(fā)展到高級(jí)階段,以強(qiáng)人工智能為基礎(chǔ)的機(jī)器人可以深度學(xué)習(xí),并具有了自主行為能力,自然會(huì)成為法律關(guān)系的新主體。這意味著在自然人和團(tuán)體人之外(團(tuán)體人的實(shí)際運(yùn)作者也是人),機(jī)器人會(huì)成為新的法律關(guān)系主體[24],因此需要具有法律權(quán)利并承擔(dān)法律責(zé)任,而在機(jī)器人與人的關(guān)系上會(huì)從傳統(tǒng)的人機(jī)交互發(fā)展到人機(jī)共存,形成新的法律關(guān)系,這在現(xiàn)有的法律體系中都很難解決,需要法律秩序的重構(gòu)。這是對(duì)現(xiàn)有以自然人和團(tuán)體人為主體的法律秩序的解構(gòu),相應(yīng)的社會(huì)和政治秩序也將被打破?,F(xiàn)階段,在基于人工智能的自動(dòng)駕駛交通事故的責(zé)任分配上,已經(jīng)出現(xiàn)了不少爭(zhēng)議[25]。
一直以來,科技的發(fā)展都會(huì)給人類社會(huì)帶來一定的次生風(fēng)險(xiǎn),但往往在生產(chǎn)力提升和財(cái)富增長(zhǎng)的表象中被許可或故意忽視[18]63-68,但這些次生風(fēng)險(xiǎn)極可能會(huì)危害人類的社會(huì)秩序和人類的發(fā)展。就人工智能而言,首先,人工智能可以促進(jìn)常態(tài)的社會(huì)控制,但也潛藏了許多新的風(fēng)險(xiǎn),而且在例外狀態(tài)之時(shí)人工智能不僅不能促進(jìn)社會(huì)秩序的維持,還可能加速社會(huì)失序[26]。其次,人工智能基于數(shù)據(jù)的運(yùn)算,可以達(dá)到效率最高和利益最大化,但會(huì)侵犯社會(huì)固有秩序中的公序良俗。比如現(xiàn)在普遍出現(xiàn)的大數(shù)據(jù)殺熟現(xiàn)象,就是通過數(shù)據(jù)運(yùn)算和信息不對(duì)稱達(dá)到利益的最大化,這種行為是算法對(duì)社會(huì)倫理和公序良俗的侵害,在事實(shí)上也侵犯了消費(fèi)者的權(quán)益,但現(xiàn)有法律很難對(duì)之進(jìn)行規(guī)制[27-28]。再次,人工智能會(huì)替代許多產(chǎn)業(yè),導(dǎo)致很多人失業(yè),甚至可能代替一切人類勞動(dòng)。勞動(dòng)在人類社會(huì)發(fā)展中有極為重要的作用,約翰·洛克把勞動(dòng)看成是財(cái)產(chǎn)權(quán)的根源;而亞當(dāng)·斯密認(rèn)為勞動(dòng)是財(cái)富的來源;馬克思則把勞動(dòng)看成生產(chǎn)力的來源,他還認(rèn)為勞動(dòng)創(chuàng)造了人,“人與其他動(dòng)物不同的地方在于勞動(dòng)”[29]151,更重要的是在這些經(jīng)典思想家看來,“勞動(dòng)是人至高無上的建構(gòu)世界的能力”[29]164-165。當(dāng)人們因人工智能而放棄勞動(dòng),人自身和社會(huì)本身都會(huì)發(fā)生根本性改變,法律對(duì)秩序的維持變得困難。
最后,因?yàn)橛?jì)算機(jī)的成本在不斷降低,而數(shù)據(jù)量和運(yùn)算速度每年至少以50%的速度在增長(zhǎng),新的算法也會(huì)讓人工智能的學(xué)習(xí)能力不斷提高,當(dāng)可以深度學(xué)習(xí)的人工智能機(jī)器人成為法律主體,就會(huì)挑戰(zhàn)啟蒙運(yùn)動(dòng)以來形成的以人為基礎(chǔ)、兼顧自然和社會(huì)可持續(xù)發(fā)展的現(xiàn)代法律秩序。而且隨著生物科技的不斷發(fā)展,人的大腦中可能會(huì)植入智能芯片,其運(yùn)算速度和數(shù)據(jù)存儲(chǔ)量是一般人的幾何倍數(shù),這種人加上人工智能功能的“新人”會(huì)進(jìn)一步挑戰(zhàn)以人類為基礎(chǔ)的現(xiàn)代法律,法律所維護(hù)的秩序也會(huì)發(fā)生翻天覆地的變化。而且開發(fā)人工智能和生產(chǎn)機(jī)器人的速度遠(yuǎn)遠(yuǎn)超過人類繁衍的速度,如果人工智能機(jī)器人數(shù)量不斷增加,超過人類的總數(shù),社會(huì)秩序可能不再以人為基礎(chǔ),而是以人工智能為基礎(chǔ)。
阿西莫夫“機(jī)器人三定律”所針對(duì)的是工具性機(jī)器人,但隨著人工智能技術(shù)(特別是強(qiáng)人工智能)的不斷發(fā)展,機(jī)器人已經(jīng)從工具性角色轉(zhuǎn)變?yōu)閾碛凶灾餍袨槟芰Γ鼈儾辉賰H僅是人類的助手,而是會(huì)有自己獨(dú)立的行為能力,甚至利益。政治社會(huì)學(xué)家斯科克波在討論國(guó)家時(shí)提出了國(guó)家的“潛在自主性”問題[30],也就是說國(guó)家不僅會(huì)維護(hù)公共利益,國(guó)家自身也有其邏輯和利益,且不一定與社會(huì)支配階級(jí)和全部成員團(tuán)體的利益一致。如上文所述,人工智能的快速發(fā)展,經(jīng)過不斷的學(xué)習(xí),可能產(chǎn)生機(jī)器人和人工智能的自主性,并有了自身的利益。此時(shí)機(jī)器人和人工智能已經(jīng)不僅僅是工具,也很難遵守阿西莫夫“機(jī)器人三定律”。從運(yùn)算能力和對(duì)利益最大化的計(jì)算來說,人可能完全不是人工智能的對(duì)手(比如阿爾法狗等機(jī)器人戰(zhàn)勝人類棋手),因此一旦人工智能發(fā)展到具有完全自主性的階段,人工智能就會(huì)從現(xiàn)在的幫助人或替代人的工作,變成威脅人的主體地位,甚至與人類爭(zhēng)奪和競(jìng)爭(zhēng)生存空間,這不僅會(huì)打破現(xiàn)代法律秩序,還會(huì)對(duì)原來人類社會(huì)秩序產(chǎn)生沉重打擊。
總之,網(wǎng)絡(luò)空間拓展了人類的活動(dòng)范圍,同時(shí)也增加人工智能的活動(dòng)范圍,但網(wǎng)絡(luò)空間中的主權(quán)具有模糊性,因此人工智能可能在網(wǎng)絡(luò)空間中挑戰(zhàn)國(guó)家的權(quán)威。更重要的是人工智能挑戰(zhàn)了以人基礎(chǔ)的法律秩序,還可能產(chǎn)生自主性,動(dòng)搖現(xiàn)有的法律秩序。
正義是維持社會(huì)健康發(fā)展的基礎(chǔ),是法律中蘊(yùn)含的最重要的價(jià)值,也是人們?cè)u(píng)判和認(rèn)同法律的重要標(biāo)準(zhǔn),“人們期待法服務(wù)于正義,并實(shí)現(xiàn)正義”[31]153。拉德布魯赫認(rèn)為“實(shí)在法的價(jià)值標(biāo)準(zhǔn)和立法的目標(biāo)是正義”[32]28,而正義的本質(zhì)和核心是平等思想。法律之下的正義意味著法律需要維持人們之間負(fù)擔(dān)和利益的平等,同時(shí)維護(hù)和重建社會(huì)的平衡或均衡,因此法律正義的核心元素是需要“相同的情況同樣的對(duì)待,不同的情況不同對(duì)待”[33]153。亞里士多德將正義分為分配正義(distributive justice)和矯正正義(corrective justice)兩類[32]29,前者主要是指國(guó)家用公法對(duì)財(cái)產(chǎn)和利益進(jìn)行分配,后者是指社會(huì)中各主體在物質(zhì)和利益交換中的平等和對(duì)價(jià),所以也有人將其稱為交換正義或平衡正義,主要是私法問題?,F(xiàn)代法律所追求的正義通常分為程序正義和實(shí)質(zhì)正義,體現(xiàn)在法律本身和立法、司法和執(zhí)法的過程中。
作為法律主體的人生活在世界上,每個(gè)人都會(huì)有不同的運(yùn)氣,但法律是一般性的社會(huì)規(guī)則,是一種抽象簡(jiǎn)約的社會(huì)規(guī)則,法律“無法區(qū)分個(gè)體之間的異同”[33]154,它所蘊(yùn)含和追求的正義建立在認(rèn)為法律適用對(duì)象運(yùn)氣均等(luck equal)的基礎(chǔ)上(2)這里所論的運(yùn)氣均等受到平等理論中運(yùn)氣均等主義(luck egalitarianism)的啟發(fā),但與之不同。運(yùn)氣均等主義的核心理念是指:“源于人們的自愿選擇所造成的利益上的不平等是可以接受的,但源于人們非自愿選擇的環(huán)境所造成的不平等是不公正的?!眳⒁姼呔爸骸哆\(yùn)氣均等主義理論:證成與反對(duì)》,《世界哲學(xué)》2010年第4期。。也就是說,每部法律都會(huì)假設(shè)適用該法律的所有人的運(yùn)氣是一樣的,因而法律在此基礎(chǔ)上運(yùn)行,對(duì)每個(gè)人都是平等的,程序上是正義的。比如一個(gè)國(guó)家的《民法》或《刑法》會(huì)把該國(guó)內(nèi)適用這兩部法律的所有人視作擁有均等的運(yùn)氣的個(gè)體,而《殘疾人保護(hù)法》會(huì)假設(shè)適用該法的所有殘疾人的運(yùn)氣是均等的。運(yùn)氣均等作為法律正義價(jià)值的起點(diǎn),更多的體現(xiàn)在對(duì)程序正義的追求上。但運(yùn)氣均等僅僅是一種簡(jiǎn)約的假設(shè),實(shí)際上每個(gè)人的運(yùn)氣是不同的,所以法律還需要追求實(shí)質(zhì)正義來彌補(bǔ)程序正義的不足。人類生活中的運(yùn)氣可以分為兩類:一類是自然運(yùn)氣,比如家庭出身、自然災(zāi)害等;另一類是個(gè)人選擇的運(yùn)氣,比如工作地點(diǎn)和職業(yè)的選擇等[34]。這兩種運(yùn)氣的許多情況都可以通過人工智能的算法來提升,使之往好的方向發(fā)展。但因?yàn)椴煌后w和階層對(duì)人工智能的使用程度不同,人和機(jī)器人的運(yùn)算能力和水平也不同,所以會(huì)產(chǎn)生巨大的運(yùn)氣不均等,其破壞了現(xiàn)代法律追求程序正義的前提條件,會(huì)把更多的“不正義”轉(zhuǎn)化成了“不幸”(3)對(duì)不正義和不幸之區(qū)別的討論,參見(美)朱迪絲·N.施克萊:《不正義的多重面孔》,錢一棟譯,上海人民出版社2020年版。。
美國(guó)學(xué)者用“數(shù)字鴻溝”(digital divide)一詞來指在互聯(lián)網(wǎng)時(shí)代,由于技術(shù)發(fā)展和分配的不平衡,帶來了不同階層、不同地區(qū)和不同國(guó)家之間的巨大差距[35]。由于數(shù)字鴻溝的存在,導(dǎo)致不同人群和不同地區(qū)在獲取信息和獲得機(jī)會(huì)上的差距,進(jìn)而產(chǎn)生了巨大的不正義。人類發(fā)展到人工智能時(shí)代,互聯(lián)網(wǎng)、大數(shù)據(jù)和人工智能的結(jié)合會(huì)讓“數(shù)字鴻溝”進(jìn)一步加劇,進(jìn)而產(chǎn)生了“人工智能鴻溝”(AI divide)。換而言之,“人工智能鴻溝”意味著處于一些階層或一些地區(qū)的人很容易接觸和使用人工智能,并因人工智能的幫助讓自己的生活變得更加便利,同時(shí)也帶來了自我提升。他們?cè)讷@得更多的信息和知識(shí)同時(shí),人工智能還可以幫助他們規(guī)避社會(huì)風(fēng)險(xiǎn),但還有些人則無法享受人工智能提供的服務(wù)或幫助,甚至接觸不到人工智能。
以我國(guó)為例,北京、上海和深圳等一線城市,已經(jīng)率先步入了人工智能時(shí)代,但是一些生活在偏遠(yuǎn)地區(qū)的人還使用著非智能手機(jī);年輕人可以很容易使用人工智能產(chǎn)品,而對(duì)很多老年人來說人工智能是新生事物;中國(guó)和西方發(fā)達(dá)國(guó)家的人工智能日新月異,而一些非洲國(guó)家的人工智能尚未起步。事實(shí)上,不了解和不使用人工智能就會(huì)失去很多發(fā)展機(jī)會(huì),但人工智能在偏遠(yuǎn)地區(qū)的運(yùn)行因缺乏足夠的基礎(chǔ)設(shè)施而發(fā)展較為緩慢,所以生活在這些地區(qū)的人自然失去了相應(yīng)的發(fā)展機(jī)會(huì),這會(huì)導(dǎo)致國(guó)家內(nèi)部的不平等和地區(qū)發(fā)展不平衡。此外,因?yàn)樗惴ǖ牟粩喟l(fā)展和數(shù)據(jù)量的不斷增加,“人工智能鴻溝”會(huì)比“數(shù)字鴻溝”表現(xiàn)得更大、更為突出,如果人工智能作為主體進(jìn)入法律運(yùn)作和社會(huì)秩序中,人與機(jī)器人之間的數(shù)字鴻溝將會(huì)有更大。而最棘手的問題是“人工智能鴻溝”帶來的這些不正義目前已經(jīng)初見端倪,但在現(xiàn)行法律體系下卻是合法的,法律一定程度上對(duì)此也無能為力。
在“數(shù)字鴻溝”和“人工智能鴻溝”的基礎(chǔ)上,會(huì)產(chǎn)生嚴(yán)重的信息不對(duì)稱(information asymmetry),阻礙矯正正義的實(shí)現(xiàn)。處在人工智能鴻溝一側(cè)掌握和獲得人工智能幫助的一方可以獲得更多的信息和知識(shí),在交易過程中占據(jù)優(yōu)勢(shì),但另一方可能因?yàn)闊o法獲得信息,而處于弱勢(shì)地位。信息不對(duì)稱出現(xiàn)在交易或合同行為前,則會(huì)導(dǎo)致逆向選擇(adverse selection),而出現(xiàn)在交易之后會(huì)導(dǎo)致道德風(fēng)險(xiǎn)(moral hazard)[36]。矯正正義是私法自治的表現(xiàn),以交易雙方的合意為基礎(chǔ),由交易或合同雙方自主決定[31]165,但是由于人工智能的出現(xiàn)或參與,產(chǎn)生了巨大的信息不對(duì)稱,在事前會(huì)阻礙市場(chǎng)信任的建立,出現(xiàn)逆向選擇。經(jīng)濟(jì)學(xué)家阿克洛夫在《檸檬的市場(chǎng):質(zhì)量的不確定性和市場(chǎng)機(jī)制》中分析了信息不對(duì)稱導(dǎo)致逆向選擇的情形,他認(rèn)為在很多市場(chǎng)上,由于買家無法在事前獲取商品質(zhì)量的實(shí)際信息,所以不愿意購買高價(jià)商品,掌握信息的賣家就有動(dòng)力提供低質(zhì)量的商品,因?yàn)椤澳撤N質(zhì)量商品的價(jià)格主要決定于所有同類商品質(zhì)量的統(tǒng)計(jì)數(shù)據(jù),而非取決于該商品的實(shí)際質(zhì)量”[37],這會(huì)使高質(zhì)量的商品賣不出應(yīng)有的價(jià)格。低質(zhì)量商品會(huì)把高質(zhì)量商品驅(qū)逐出市場(chǎng),造成了劣幣驅(qū)良幣的結(jié)果,阻礙市場(chǎng)良性交易,還可能破壞整個(gè)市場(chǎng)秩序。信息不對(duì)稱發(fā)生在交易之后的情況是,如果擁有信息的一方甘愿冒道德風(fēng)險(xiǎn)偷懶或?yàn)樽约褐\取利益,就會(huì)讓缺乏信息的一方蒙受損失而不知。所以人工智能帶來的信息不對(duì)稱不管發(fā)生在事前還是事后,都會(huì)阻礙矯正正義的實(shí)現(xiàn)。
進(jìn)而言之,人工智能帶來的信息不均衡、智能水平不平衡以及破壞現(xiàn)代法律運(yùn)氣均等基礎(chǔ)等造成了法律體系之中不正義的增加。法律是面向全社會(huì)的規(guī)則,從程序上說它假定適用一部法律的每個(gè)人都擁有相同的運(yùn)氣,因此該法律才能保證實(shí)現(xiàn)程序正義。在弱人工智能時(shí)代,由于人工智能鴻溝的存在,不同地區(qū)和不同階層的人使用人工智能的機(jī)會(huì)和程度不同,因此在做出行為和做出決策的時(shí)候獲得的信息和幫助不同,人工智能對(duì)事件的預(yù)測(cè)和評(píng)估能力遠(yuǎn)遠(yuǎn)大于人類[38]11,所以運(yùn)氣變得不均等。而到了強(qiáng)人工智能時(shí)代,人工智能不僅會(huì)成為法律主體,還可能參與人類社會(huì)的競(jìng)爭(zhēng),而人工智能算法通過快速的計(jì)算可以預(yù)測(cè)行為并計(jì)算事件發(fā)生的概率,會(huì)讓它們擁有更多的運(yùn)氣。所以法律保障的程序正義很難實(shí)現(xiàn),加上矯正正義又要面對(duì)太過復(fù)雜和多變的社會(huì)狀況,難以實(shí)施,正義變成了虛無縹緲的幻影。
人工智能對(duì)法律正義價(jià)值的挑戰(zhàn)在于人工智能不僅可以服務(wù)人類、模仿人類、增強(qiáng)人類,甚至可能代替人類。在這個(gè)過程中會(huì)破壞現(xiàn)有法律正義體系的基礎(chǔ)性預(yù)設(shè),進(jìn)而腐蝕法律所蘊(yùn)含和實(shí)現(xiàn)的正義價(jià)值。
人類社會(huì)的進(jìn)步是人類不斷擺脫奴役和壓迫,個(gè)體逐漸獲得自由和解放的過程,所以在馬克思和恩格斯設(shè)想的共產(chǎn)主義社會(huì)中,“每個(gè)人的自由發(fā)展是一切人的自由發(fā)展的條件”[39]。法律中所蘊(yùn)含的自由并不是寬泛意義上無拘無束的自由,而是法律之下的自由,如孟德斯鳩所言:“自由,不是無拘無束;自由,是做法律允許之事的權(quán)利。倘若可以做法律禁止之事,就不可能擁有自由,蓋其他人也會(huì)享有這種權(quán)利。”[40]所以法律所推動(dòng)和實(shí)現(xiàn)的自由是不同人的自由相互共存與和平相處的一種方式,是為了社會(huì)更和諧、更好的發(fā)展,正因?yàn)槿绱?,密爾將自由定義為:“社會(huì)所能合法施加予個(gè)人的權(quán)力的性質(zhì)和限度。”[41]法律中所蘊(yùn)含的自由價(jià)值表現(xiàn)在法律對(duì)私人領(lǐng)域的保護(hù)和對(duì)公共領(lǐng)域的維持。換言之,法律要保護(hù)私人領(lǐng)域的自由,使個(gè)人在私人領(lǐng)域不受非法干預(yù),同時(shí)維持公共領(lǐng)域來保持公共領(lǐng)域內(nèi)的自由,使個(gè)人有參與公共事務(wù)的能力和機(jī)會(huì)。人工智能的出現(xiàn)已經(jīng)開始對(duì)人在私人領(lǐng)域和公共領(lǐng)域的自由造成了威脅。
首先,人工智能壓縮了私人領(lǐng)域,使個(gè)人隱私受到威脅,事實(shí)上限制了人在私人領(lǐng)域的自由。私人領(lǐng)域,主要是指?jìng)€(gè)人的私人生活(private life)空間,“是家庭生活以及個(gè)人良知的領(lǐng)域”[42],主要包括個(gè)人的興趣、欲望、情感、信仰、隱私和生活必需品的獲得等方面[43]。但在智能互聯(lián)網(wǎng)時(shí)代,人的絕大多數(shù)行為都會(huì)被以數(shù)據(jù)的形式收集起來,私人領(lǐng)域也例外。無處不在的攝像頭和生物識(shí)別設(shè)備,手機(jī)上各種App和GPS定位系統(tǒng)、語音識(shí)別系統(tǒng),時(shí)時(shí)刻刻都在搜集數(shù)據(jù),這種搜集的過程是智能且悄無聲息進(jìn)行的,很多網(wǎng)絡(luò)服務(wù)的條款讓人在不知情的情況下把自己的行為數(shù)據(jù)上傳。這些數(shù)據(jù)中的許多信息對(duì)人來說是終身性的,比如人臉信息一旦被識(shí)別,就終生不可更改。這種情況下,私人生活開始公開化和公共化,也就是說每個(gè)人都在有意或無意的把自己私人領(lǐng)域的信息通過微信等智能應(yīng)用應(yīng)用程序分享出去[44],這種自我披露的行為通常是在商家或算法設(shè)計(jì)者的鼓勵(lì)下進(jìn)行的,而這些私人信息會(huì)被轉(zhuǎn)化成數(shù)據(jù)收集使用。這些數(shù)據(jù)構(gòu)成了不斷增長(zhǎng)的大數(shù)據(jù),其實(shí)是在侵蝕個(gè)人私人領(lǐng)域的自由,使個(gè)人的私人領(lǐng)域壓縮。因?yàn)椤澳涿瘜?duì)大數(shù)據(jù)的無效性”[45],人工智能通過對(duì)大數(shù)據(jù)的分析和運(yùn)算,會(huì)對(duì)你的私人領(lǐng)域了如指掌,再用算法影響、引導(dǎo),甚至控制你的私人領(lǐng)域,讓你不知不覺生活在人工智能算法的規(guī)劃和引領(lǐng)中。
因此,在互聯(lián)網(wǎng)、大數(shù)據(jù)和人工智能的結(jié)合之下,人的生活看似更加便利了,但其實(shí)人就像住進(jìn)了一個(gè)邊沁所言的“全景敞視監(jiān)獄”,無時(shí)無刻不在被數(shù)據(jù)采集設(shè)備監(jiān)控、操控和規(guī)訓(xùn)(discipline),雖然??抡J(rèn)為全景敞視監(jiān)控模式已經(jīng)通過紀(jì)律擴(kuò)散到整個(gè)現(xiàn)代社會(huì)結(jié)構(gòu)中,并被國(guó)家權(quán)力使用,因而已成為現(xiàn)代社會(huì)的常態(tài)[46],但人工智能無疑大大加強(qiáng)了全景敞視式的監(jiān)控和規(guī)訓(xùn)的能力。人工智能對(duì)人的操控和規(guī)訓(xùn)是通過數(shù)據(jù)分析后向人進(jìn)行智能精準(zhǔn)信息推送和指導(dǎo)實(shí)現(xiàn)的,比如推送某種品牌的商品,推送某些特定的知識(shí)給你,從而控制你的選擇和知識(shí)來源。這種推送和指導(dǎo)是以特定利益為目的(通常是商業(yè)公司或政府),但在不知不覺中改變和影響你的私人空間的行為方式和生活模式,甚至改變或影響了思想方式和內(nèi)容。也就是說你在私人空間的行為實(shí)際上是被人工智能侵犯了。而這些行為多數(shù)并不違反當(dāng)下的法律,或法律難以規(guī)制。
其次,人工智會(huì)增強(qiáng)企業(yè)和政府的控制力,減少人在公共領(lǐng)域的自由。人工智能的開發(fā)和使用主體多為擁有雄厚資金的大型科技企業(yè)或政府部門,因此在設(shè)計(jì)人工智能算法的時(shí)候,會(huì)以企業(yè)和政府利益為目的,同時(shí)由于企業(yè)和政府獲取數(shù)據(jù)的數(shù)量和范圍在不斷擴(kuò)大,它們對(duì)社會(huì)和普通人的控制能力會(huì)越來越強(qiáng),很可能成為“技術(shù)利維坦”[47]。人工智能時(shí)代的社會(huì)控制不同于智能網(wǎng)絡(luò)出現(xiàn)之前的狀態(tài),而是會(huì)打破私人領(lǐng)域和公共領(lǐng)域的界限,更精準(zhǔn)地達(dá)到細(xì)致入微的程度,因此有學(xué)者稱人工智能產(chǎn)生的“新型的監(jiān)控技術(shù)為未來的獨(dú)裁者提供了前所未有的希望”[48]258。在這種情況下,大公司或者跨國(guó)公司的影響力可能大于政府,而政府也可能和大公司聯(lián)合起來,用人工智能加大對(duì)人民的“控制”。因?yàn)樾畔⒑蛿?shù)據(jù)獲取的不對(duì)稱性,大公司和公權(quán)力機(jī)關(guān)更可能蒙蔽民眾,讓壓迫人民自由的法律得以在立法機(jī)構(gòu)順利通過,可以一步一步剝奪人民參與政治的機(jī)會(huì)和能力。因而可能產(chǎn)生一種基于大數(shù)據(jù)的人工智能極權(quán)主義[48]258。進(jìn)一步看,如果如前文所言,強(qiáng)人工智能產(chǎn)生了自主性,那么也可能形成人工智能對(duì)人類的壓迫和限制,讓公私兩方面的自由都不復(fù)存在。
最后,人工智能從選擇的角度改變了人的自由觀念。人之所以稱之為人是因?yàn)槿擞懈呒?jí)的智能,因而有自由意志,人可以在合法的范圍內(nèi)選擇自己想要的生活方式和物質(zhì)需求。對(duì)一個(gè)來人來說,自由取決于向他敞開的選項(xiàng)的范圍和質(zhì)量,“以及他在這些選項(xiàng)中做出選擇的能力”[49],簡(jiǎn)言之就是有選擇,同時(shí)進(jìn)行了選擇[50]。但人工智能通過算法可以縮減人的選擇范圍,讓人只在算法推送的范圍內(nèi)選擇,而人工智能提供的選擇范圍是基于某種目的或利益,所以給人的選擇數(shù)量可能會(huì)越來越多,但是會(huì)越來越同質(zhì)化,實(shí)際的選擇范圍會(huì)越來越窄,而大部分人對(duì)這種有限的選擇全然不知,所以在不知不覺中降低了人的選擇能力。雖然這一切都是在現(xiàn)有法律規(guī)制的范圍內(nèi)進(jìn)行的,但是實(shí)質(zhì)上減少了法律所賦予人的自由,進(jìn)而會(huì)讓人原有的自由觀念被改變。此外,人工智能的運(yùn)算能力和數(shù)據(jù)量大大的高于人腦,所以人工智能的廣泛使用會(huì)讓人依賴人工智能來決策,這種決策本身是以理性、效率和功利計(jì)算為基礎(chǔ)的,缺乏人性化的考慮,實(shí)質(zhì)上是對(duì)人自由意志的剝奪。而同時(shí)如果發(fā)展到強(qiáng)人工智能時(shí)代,人依然依靠人工智能來決策,那么作為法律主體之一的人很可能被強(qiáng)人工智能蒙騙。
人工智能對(duì)法律自由價(jià)值的挑戰(zhàn)首先會(huì)影響人在私人領(lǐng)域的自由,接著增強(qiáng)公權(quán)力和大企業(yè)的監(jiān)控能力,減少人在公共領(lǐng)域的自由,還可能會(huì)影響人的自由觀念。所以最后人工智能可以讓法律純粹變成壓迫人和控制人的工具,消滅法律中的自由價(jià)值。
2020年5G的推廣和使用,讓“萬物互聯(lián)”,加速了人工智能時(shí)代發(fā)展的步伐。人工智能對(duì)法律價(jià)值帶來的挑戰(zhàn)中,不少問題看似只是未來的設(shè)想,但是可能很快就要到來。因此應(yīng)對(duì)人工智能對(duì)法律價(jià)值的挑戰(zhàn)是維護(hù)人類法律秩序和法律體系良性運(yùn)轉(zhuǎn)必須要面對(duì)的問題,所以探討人工智能對(duì)法律價(jià)值的挑戰(zhàn)并非杞人憂天?;谇拔膶?duì)人工智能的分析,從法政哲學(xué)出發(fā),需要從以下幾個(gè)方面回應(yīng)人工智能對(duì)法律價(jià)值的挑戰(zhàn)。
首先,保護(hù)以人為基礎(chǔ)的法律秩序。人是自然界中智慧最高的生命體,人的發(fā)展是人類社會(huì)發(fā)展的標(biāo)志,如康德所言,人“永遠(yuǎn)只能當(dāng)作目的而不是單純的手段”[51],因此法律秩序的根本性基礎(chǔ)是人。人工智能的出現(xiàn)和科技的不斷發(fā)展,需要始終堅(jiān)持以人類中心主義為一切制度和規(guī)則的基礎(chǔ)。這并不是說忽視自然界的萬物,而是在面對(duì)價(jià)值和利益權(quán)衡的時(shí)候,要把人的生命、尊嚴(yán)和發(fā)展放在第一位,同時(shí)保護(hù)自然萬物和生態(tài)環(huán)境,保持人類社會(huì)的可持續(xù)發(fā)展。如果在弱人工智能階段,以人類為基礎(chǔ)的秩序就是人工智能對(duì)法律秩序的影響要以人為目的,不能把人當(dāng)成手段。而到強(qiáng)人工智能階段,需要在秩序選擇和利益權(quán)衡的時(shí)候把人放在人工智能等其他存在之前,并對(duì)人工智能的主體性保持警惕。如果出現(xiàn)人工智能和人結(jié)合的“新型人”,則要對(duì)這種結(jié)合設(shè)置界限,不能超越人性的底線和人類社會(huì)基本的道德倫理,從而保護(hù)人類社會(huì)秩序的良性發(fā)展。
日本和德國(guó)在規(guī)范人工智能發(fā)展中的做法可以參考和借鑒,日本總務(wù)省信息通訊政策研究所提出的人工智能開發(fā)指導(dǎo)方案,其中提出的人工智能開發(fā)五大理念之首是人與人工智能的“共生”,“建立一個(gè)尊重人的尊嚴(yán)和個(gè)體自主性的‘以人為本’的社會(huì)”[52]。2018年由德國(guó)聯(lián)邦交通和數(shù)字基礎(chǔ)設(shè)施部(Federal Ministry of Transport and Digital Infrastructure)牽頭,聯(lián)合英國(guó)、奧地利和歐盟委員會(huì)等國(guó)家和組織組成了倫理特別小組,發(fā)布了針對(duì)自動(dòng)駕駛的研究報(bào)告,其中提出的建議都是以人的生命為首要價(jià)值:“在我們所有的價(jià)值中,保護(hù)人的生命是最高價(jià)值。在遇到不可避免的傷害之情況時(shí),它具有無條件的優(yōu)先性?!盵53]
此外,人需要對(duì)人工智能參與的一些活動(dòng)進(jìn)行把關(guān)。比如人工智能在司法中的應(yīng)用,雖然可能帶來一視同仁,但是法律畢竟不能與算法等同,它有精確性的同時(shí)還有模糊性,人工智能提供的建議是依靠算法得出的概率和相關(guān)性,無法提供法律裁判所需要的因果關(guān)系和實(shí)現(xiàn)正義的實(shí)質(zhì)判斷(4)雖然科學(xué)家進(jìn)行了很多嘗試,但是“如何將人類價(jià)值觀轉(zhuǎn)入電子計(jì)算機(jī)依然尚不清楚”。參見(英)尼克·波斯特洛姆:《超級(jí)智能:路線圖、危險(xiǎn)性與應(yīng)對(duì)策略》,張?bào)w偉、張玉青譯,中信出版社2015年版,第25頁。[54-55]。同時(shí),司法過程中需要法官的自由心證和自由裁量,而心證和自由裁量需要人性化的斟酌和判斷[5,56],這些是人工智能無法實(shí)現(xiàn)的。因此,在司法的過程中對(duì)因果關(guān)系的確立和自由裁量等問題,需要人類對(duì)人工智能的主導(dǎo)或輔助,以此來維持人性化的法律秩序。
其次,讓每個(gè)人都有機(jī)會(huì)使用和接觸人工智能,減小“人工智能鴻溝”,避免“人工智能鴻溝”破壞運(yùn)氣均等。減小“人工智能鴻溝”是再分配的過程,需要政府在人工智能資源分配上進(jìn)行地區(qū)和階層的平衡,對(duì)人工智能資源進(jìn)行再分配,讓欠發(fā)達(dá)地區(qū)和收入低下階層也有機(jī)會(huì)接觸和使用人工智能。而應(yīng)對(duì)人工智能對(duì)運(yùn)氣均等的破壞,政府和企業(yè)需要發(fā)展人工智能的公益性,同時(shí)對(duì)人工智能的使用需要設(shè)定一定的限度,在一些領(lǐng)域和行為中禁止使用人工智能,以此來保持基本的運(yùn)氣均等。比如在一定時(shí)期內(nèi)禁止人工智能和人腦結(jié)合來增強(qiáng)人腦。
再次,嚴(yán)格保護(hù)人的基本權(quán)利(特別是自由和隱私權(quán)),維護(hù)人的尊嚴(yán)。面對(duì)人工智能的快速發(fā)展,強(qiáng)人工智能時(shí)代會(huì)在不久之后到來,因此面對(duì)人工智能可能成為法律主體,甚至參與立法的情況,必須嚴(yán)格保護(hù)憲法賦予的人的基本權(quán)利和自由。這些基本權(quán)利和自由不可剝奪,不可被其他法律侵犯,同時(shí)應(yīng)立法限制對(duì)私人領(lǐng)域數(shù)據(jù)搜集的范圍。如果不堅(jiān)持這個(gè)憲法的底線,法律蘊(yùn)含的基本價(jià)值就會(huì)被以效率和功利為主要準(zhǔn)則的技術(shù)立法消耗掉,加上人工智能助長(zhǎng)了大公司和公權(quán)力的監(jiān)控能力,人可能成為技術(shù)的奴役,成為人工智能的附庸,甚至出現(xiàn)人工智能極權(quán)主義政府。所以不僅要有專門針對(duì)個(gè)人隱私數(shù)據(jù)保護(hù)的立法,憲法中需要加入不可修改的基本權(quán)利、自由條款和人的尊嚴(yán)條款,用來應(yīng)對(duì)人工智能對(duì)人自由的侵犯。2018年實(shí)施的歐盟《一般數(shù)據(jù)保護(hù)條例》(General Data Protection Regulation),對(duì)個(gè)人的敏感數(shù)據(jù)進(jìn)行了嚴(yán)格保護(hù),同時(shí)賦予個(gè)人“免于自動(dòng)化決策”的權(quán)利[57]。
最后,人文社科工作者和律師需要參與人工智能開發(fā),并對(duì)人工智能進(jìn)行嚴(yán)格的法律和倫理審查[58-59]。現(xiàn)代科技把一切數(shù)據(jù)化,人工智能所依靠的算法是典型的代表,而算法本身是沒有人性的,所以在人工智能開發(fā)過程中,需要人文社會(huì)科學(xué)工作者和律師參與其中,對(duì)人工智能可能產(chǎn)生危害人倫、道德和法律的可能性進(jìn)行外部審核。如果能培養(yǎng)出一批具有人文素養(yǎng)的科學(xué)家、工程師和有計(jì)算機(jī)背景的律師,將是最好的選擇,這樣可以從內(nèi)部對(duì)人工智能的開發(fā)進(jìn)行審核和監(jiān)控。目前已經(jīng)有一些大學(xué)設(shè)置了法律和人工智能交叉學(xué)科的學(xué)位項(xiàng)目,就是要培養(yǎng)出人工智能時(shí)代的跨學(xué)科人才。此外,也需要國(guó)家進(jìn)行人工智能倫理的立法工作,對(duì)人工智能設(shè)計(jì)中和完成后可能危害社會(huì)倫理和秩序的行為進(jìn)行規(guī)制。
在智能互聯(lián)網(wǎng)時(shí)代,人工智能的發(fā)展日新月異,實(shí)實(shí)在在的進(jìn)入了我們的日常生活。雖然目前仍處在弱人工智能的階段,但比爾·蓋茨和埃隆·馬斯克等人都對(duì)人工智能的發(fā)展持警惕和悲觀的態(tài)度,科學(xué)家霍金更警告說:“強(qiáng)人工智能的發(fā)展可能會(huì)讓人類滅亡?!盵60]事實(shí)上,弱人工智能和強(qiáng)人工智能并不是遞進(jìn)發(fā)展的關(guān)系,而是兩種不同的研究分支[38]11,這意味著弱人工智能和強(qiáng)人工智能在同時(shí)發(fā)展,只不過目前我們所能見到的大多是弱人工智能產(chǎn)品。因此,隨著強(qiáng)人工智能的不斷發(fā)展,未來在社會(huì)生活中被廣泛應(yīng)用,法律價(jià)值也將會(huì)面臨更多的挑戰(zhàn)。
2016年7月,中共中央辦公廳、國(guó)務(wù)院辦公廳印發(fā)了《國(guó)家信息化發(fā)展戰(zhàn)略綱要》,旨在規(guī)范和指導(dǎo)此后10年的國(guó)家信息化發(fā)展,該綱要第29條提出:“建設(shè)'智慧法院',提高案件受理、審判、執(zhí)行、監(jiān)督等各環(huán)節(jié)信息化水平,推動(dòng)執(zhí)法司法信息公開,促進(jìn)司法公平正義?!盵61]最高人民法院在2019年和2021年分別印發(fā)了《人民法院信息化建設(shè)五年發(fā)展規(guī)劃(2016-2020)》和《人民法院信息化建設(shè)五年發(fā)展規(guī)劃(2021-2025)》,布局和指導(dǎo)智慧法院的建設(shè),重點(diǎn)強(qiáng)調(diào)和突出了人工智能在智慧法院建設(shè)中的應(yīng)用。雖然本文所提出的人工智能對(duì)法律價(jià)值的挑戰(zhàn)在現(xiàn)階段的弱人工智能時(shí)代只是初見端倪,但隨著人工智能在社會(huì)生活和司法中應(yīng)用的不斷深入,強(qiáng)人工智能時(shí)代也將在不久到來,如果不及時(shí)應(yīng)對(duì)人工智能對(duì)法律價(jià)值的挑戰(zhàn),將會(huì)對(duì)現(xiàn)代人類社會(huì)長(zhǎng)期形成的法律體系造成巨大的沖擊,阻礙司法實(shí)現(xiàn)公平正義,也會(huì)成為人類社會(huì)和人本身的威脅。所以應(yīng)對(duì)人工智能對(duì)法律價(jià)值的挑戰(zhàn),就是要防止人工智能侵害現(xiàn)代法律價(jià)值,讓人工智能造福于人類,或者在未來與人類和諧共處。
西北民族大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)2022年3期