摘要:人工智能的立法挑戰(zhàn)兼具“功利”與“道義”雙重屬性,這要求立法超越近代以來(lái)的“科技—經(jīng)濟(jì)”立法范式,而轉(zhuǎn)型至“在功利與道義之間”,并以此引領(lǐng)和保障人工智能立法的科學(xué)性。其中,道義論約束設(shè)定了基本門(mén)檻,人工智能活動(dòng)只有在經(jīng)過(guò)道義論檢驗(yàn)之后才能轉(zhuǎn)向功利性考量,否則就將是否定性評(píng)價(jià)。具體而言,立法必須注重人工智能在“安全問(wèn)題”、“權(quán)利問(wèn)題”以及“人性問(wèn)題”三領(lǐng)域構(gòu)成的道義論挑戰(zhàn),并以此為基礎(chǔ)在人工智能的研究和開(kāi)發(fā)、運(yùn)用和轉(zhuǎn)化階段進(jìn)行鼓勵(lì)、支持和引導(dǎo)的立法選擇,同時(shí)輔以事前、事中與事后評(píng)估的管理和監(jiān)督。在具體問(wèn)題的抉擇上,立法科學(xué)性要求立法者必須充分發(fā)揮好“在功利與道義之間”的立法技藝,最終實(shí)現(xiàn)功利與道義的雙贏(yíng)。
關(guān)鍵詞:人工智能;科學(xué)立法;道義論;功利主義
收稿日期:2020-03-15
基金項(xiàng)目:國(guó)家社科基金后期資助項(xiàng)目“人權(quán)話(huà)語(yǔ)的中國(guó)表達(dá)與體系建構(gòu)”(20FFXB042);重慶市哲學(xué)社會(huì)科學(xué)重大規(guī)劃項(xiàng)目“權(quán)利的制度之維”(2021ZDZJ04)
作者簡(jiǎn)介:王榮余,西南政法大學(xué)哲學(xué)系,博士,主要從事法哲學(xué)、制度法理論和科技倫理研究,E-mail:vincentry0322@yeah.net。
一、問(wèn)題的提出:人工智能立法的范式轉(zhuǎn)型
隨著信息技術(shù)和生物科技的迭代發(fā)展,“第四次工業(yè)革命”正逐步成為一個(gè)被廣泛接受的事實(shí)。其中,信息技術(shù)經(jīng)由“世界互聯(lián)網(wǎng)化”和“大數(shù)據(jù)”兩個(gè)階段的發(fā)展而開(kāi)始轉(zhuǎn)向以機(jī)器學(xué)習(xí)和算法等技術(shù)為基礎(chǔ)的“人工智能時(shí)代”。2016年3月,智能機(jī)器人AlphaGo以4∶ 1的戰(zhàn)績(jī)擊敗世界圍棋冠軍李世石,這預(yù)示著“人工智能進(jìn)入突破階段”,2016年成為人工智能的元年〔1〕。自此以后,人工智能(Artificial Intelligence,AI)的討論總是籠罩著一種潛在的憂(yōu)慮,霍金、比爾·蓋茨等人便表達(dá)了這樣的不安。中國(guó)法學(xué)界關(guān)于人工智能法律責(zé)任問(wèn)題的討論更是直接性地表達(dá)出“規(guī)制”意味,而對(duì)于其中較為棘手的人工智能體的法律主體地位問(wèn)題也是要么忙于肯定要么忙于否定。何以如此?其原因就在于與一般的科技實(shí)踐引發(fā)的風(fēng)險(xiǎn)不同,人工智能這一事物本身便具有特殊性,主要表現(xiàn)在自身潛在擁有的“認(rèn)識(shí)能力”和“控制能力”使其有可能會(huì)超越科技與人之間傳統(tǒng)的“手段—目的”或“客體—主體”關(guān)系框架。這即是說(shuō),在人工智能時(shí)代,作為地球主宰的“人”可能會(huì)淪為人工智能的“對(duì)象”,學(xué)界當(dāng)前所討論的“大數(shù)據(jù)殺熟”以及“算法權(quán)力”等議題便是一個(gè)重要的表征。無(wú)論是對(duì)人們的外在行為還是內(nèi)在尊嚴(yán),這都是我們無(wú)法忍受的。更根本的是,如果這一挑戰(zhàn)成真的話(huà),那問(wèn)題就不再是“智能機(jī)器人能否具有法律主體地位”等問(wèn)題,而是“我們是不是人”以及“我們憑什么是人”〔2〕。當(dāng)代哲學(xué)前沿關(guān)于神經(jīng)生物學(xué)、意向性以及自由意志等問(wèn)題的討論便涉及對(duì)諸如此類(lèi)問(wèn)題的嘗試性解答〔3〕。此類(lèi)評(píng)論并非危言聳聽(tīng),雷·庫(kù)茲韋爾就認(rèn)為,在2045年前后會(huì)出現(xiàn)人工智能的一個(gè)“奇點(diǎn)”,而跨過(guò)這個(gè)點(diǎn)人工智能就將會(huì)超越人類(lèi)的智慧〔4〕。即便“奇點(diǎn)”何時(shí)來(lái)臨尚無(wú)共識(shí),但人工智能時(shí)代的步步逼近卻是一個(gè)不爭(zhēng)的事實(shí),而隨著“強(qiáng)人工智能”或“智慧人工智能”的到來(lái)和挑戰(zhàn),如何通過(guò)法律手段更好地應(yīng)對(duì)這一潛在的“實(shí)質(zhì)性危機(jī)”,這是我們當(dāng)前應(yīng)予進(jìn)行討論的課題。
法律的功能在于“以各種各樣的方式,導(dǎo)引、計(jì)劃和控制人們的生活”〔5〕,而“立法”則是處理人工智能及其與人之間關(guān)系的首要環(huán)節(jié)。由于人工智能可能引發(fā)的實(shí)質(zhì)性挑戰(zhàn)與固有科技立法思維之間存在較大的出入,既有范式便面臨著轉(zhuǎn)型的現(xiàn)實(shí)需要?,F(xiàn)行“科技法”,包括《中華人民共和國(guó)科學(xué)技術(shù)進(jìn)步法》以及《中華人民共和國(guó)促進(jìn)科技成果轉(zhuǎn)化法》在內(nèi)的諸法律,都受到了近代以來(lái)科技立法中“技術(shù)—經(jīng)濟(jì)”范式的影響。該立法范式的一個(gè)主要表現(xiàn)在于,以鼓勵(lì)、刺激科技的經(jīng)濟(jì)實(shí)用價(jià)值為目標(biāo),而對(duì)科技引發(fā)的社會(huì)問(wèn)題則只是附帶性地提及〔6〕。更明確地講,它比較側(cè)重科技經(jīng)濟(jì)主義這一維度,旗幟鮮明地以效率為導(dǎo)向。這不僅輕視了人工智能科技可能引發(fā)的前所未有的“價(jià)值關(guān)切”,更導(dǎo)致了技術(shù)的自主化滋生,即技術(shù)在這種自主性結(jié)構(gòu)中為所欲為,進(jìn)而發(fā)展為失去人的控制的主體化僭越〔6〕。這種后果恰恰是法律試圖極力避免的情形。對(duì)于立法者而言,這都內(nèi)在地要求他們進(jìn)行立法西南交通大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)第23卷第2期王榮余在“功利”與“道義”之間:中國(guó)人工智能立法的科學(xué)性探析范式的轉(zhuǎn)型,即轉(zhuǎn)向“在功利與道義之間”的新范式,這是為保障人工智能立法科學(xué)性而對(duì)立法者提出的新要求。
2017年7月,國(guó)務(wù)院頒布的《新一代人工智能發(fā)展規(guī)劃》(以下簡(jiǎn)稱(chēng)《規(guī)劃》)提出了“三步走”的戰(zhàn)略布局,明確在部分領(lǐng)域初步建成人工智能倫理規(guī)范和政策法規(guī)的第一步戰(zhàn)略要求。在“從規(guī)劃到立法”的這一時(shí)期內(nèi),尋求立法的科學(xué)性繼而進(jìn)行科學(xué)立法將是立法者的關(guān)鍵任務(wù),而如何保障立法的科學(xué)性更是關(guān)鍵中的關(guān)鍵。然而,當(dāng)前關(guān)于人工智能立法的既有討論主要集中于部門(mén)法領(lǐng)域,但由于人工智能所引發(fā)之挑戰(zhàn)的根本性和實(shí)質(zhì)性,部門(mén)法學(xué)者基于法律教義學(xué)所提供的說(shuō)明性理論實(shí)際上就將變得有限〔7〕。這意味著,關(guān)于人工智能立法科學(xué)性的一般性討論必須轉(zhuǎn)入一般法理學(xué)層面來(lái)進(jìn)行,并以此為基礎(chǔ)提供一種規(guī)范性路徑,也正是在這個(gè)意義上,我們需要借助規(guī)范倫理學(xué)的資源,尤其是功利論和道義論。具體而言,就中國(guó)的具體語(yǔ)境來(lái)看,人工智能領(lǐng)域的立法遵從什么樣的原則來(lái)體現(xiàn)科學(xué)性?立法活動(dòng)如何合理地處理人工智能所涉及的倫理風(fēng)險(xiǎn)與經(jīng)濟(jì)發(fā)展問(wèn)題,以及應(yīng)如何展現(xiàn)道義論約束和功利論刺激?這是本文試圖通過(guò)新立法范式進(jìn)行回答并試圖從哲學(xué)和法學(xué)層面展開(kāi)論證的問(wèn)題,但在此之前,本文將首先考察一個(gè)在當(dāng)下學(xué)界討論不充分的論題,并以立法思維進(jìn)行重新審視。
二、一個(gè)不充分的討論:人工智能體的法律主體地位
人工智能體法律主體地位的相關(guān)討論旨在回答兩個(gè)基本問(wèn)題,一是能否賦予其法律主體地位,二是相應(yīng)的理由說(shuō)明。就后者而言,既有討論主要圍繞“法人擬制”與“人畜關(guān)系”展開(kāi),但這對(duì)立法又意味著什么呢?
對(duì)于物理層面上的“人”,我們可以從多個(gè)方面予以審視,如生物學(xué)、人類(lèi)學(xué)、哲學(xué)、社會(huì)學(xué),法學(xué)只是其中的視角之一。一般而言,一個(gè)對(duì)象要成為法律意義上的“人”,必須滿(mǎn)足“事實(shí)”與“規(guī)范”兩方面的條件:前者要求它必須是具備意志能力的客體,這是法律賦予其法律主體資格的不充分的邏輯前提;后者則要求該客體擁有享受權(quán)利和履行義務(wù)的法律資格,這最終將取決于立法層面的考量。因而,非生物意義上的“人”完全有機(jī)會(huì)成為“法律意義上的人”,而生物意義上的“人”也完全可能無(wú)法成為法律意義上的人,如古代的奴隸〔8〕。這在很大程度上可以解釋為什么“法人”能夠具備法律主體資格——盡管它肯定不是生物意義上的人,就規(guī)范層面而言,這一認(rèn)定是完全可能的,只不過(guò)必須注意的是,規(guī)范層面的認(rèn)定必須有事實(shí)層面的支持。由于法人的意志能力實(shí)際上能夠通過(guò)“法律擬制”的立法技術(shù)與自然人相聯(lián)結(jié)來(lái)予以克服,從而基于“實(shí)體屏蔽”“清算保護(hù)”等便利考量,“法人”就完全可以成為“法律上的人”。這實(shí)際上是在提醒我們,最終承擔(dān)法律責(zé)任的仍是生物意義上的人,在“揭開(kāi)公司的面紗”時(shí),提供實(shí)質(zhì)性責(zé)任保證的不是法人而是生物意義上有血有肉的自然人。當(dāng)然,基于同樣的理由,以“人畜關(guān)系”展開(kāi)的說(shuō)明同樣否定諸如大猩猩等靈長(zhǎng)類(lèi)動(dòng)物的法律主體資格。因?yàn)閯?dòng)物不具有對(duì)于“應(yīng)當(dāng)如何”的規(guī)范認(rèn)知能力——即便一些動(dòng)物可能具備規(guī)律性地進(jìn)行學(xué)習(xí)的能力,但正如有學(xué)者所說(shuō)的那樣,或許正是由于缺乏那1%的規(guī)范認(rèn)知能力,使得它們永遠(yuǎn)無(wú)法成為真正的人〔9〕。
此類(lèi)關(guān)于人工智能體法律主體地位的否定性論證是有說(shuō)服力的,至少它強(qiáng)調(diào)了“事實(shí)”維度的不可能性,遵從了“從事實(shí)到規(guī)范”的路徑。但或許正是如此,它輕視乃至忽略了法律自身的性質(zhì),即法律是一種制度性事實(shí)〔10〕。法律的這種性質(zhì)使得“法律主體”具有了他者不曾擁有的規(guī)范意味。就此而言,即便能夠證明人工智能體在事實(shí)層面最終無(wú)法具有“規(guī)范性認(rèn)知”,但這仍然無(wú)法排除人工智能體可以通過(guò)訴諸“法人”那樣的立法技術(shù)而被賦予法律主體資格的可能性。法律語(yǔ)言具有一種“構(gòu)成性規(guī)則”意義上的宣告式言語(yǔ)行為的能力,當(dāng)它進(jìn)行“X在C中算作Y”的表達(dá)時(shí),它就賦予了C以Y的地位功能。比如說(shuō),當(dāng)法律以宣告式語(yǔ)言表達(dá)“這張紙算作一張一百元的人民幣”時(shí),它就賦予了這張紙(C)以一百元人民幣(Y)的功能地位,這張紙也就不再是純粹的一張紙,而成為法定貨幣。法律作為一種制度性事實(shí),也即是一套構(gòu)成性規(guī)則體系,這種體系有創(chuàng)立其他制度性事實(shí)的可能,這即是“語(yǔ)言向世界”的適應(yīng)指向〔11〕。這要求我們法律人更加地關(guān)注法律自身的性質(zhì)與邏輯,而不要過(guò)多地糾纏在純粹事實(shí)的繁雜表象之中。更何況,人工智能是否具有規(guī)范性能力在目前看來(lái)仍是一個(gè)未知的事實(shí),我們沒(méi)有必要先入為主地進(jìn)行否定性預(yù)設(shè)。因此,人工智能體能否被賦予主體資格,這首先不是一個(gè)事實(shí)問(wèn)題,而是一個(gè)“是否應(yīng)當(dāng)賦予其法律主體資格”的規(guī)范性問(wèn)題。這與賦予法人的法律主體資格之歷史是完全一致的,只有在考慮了是否應(yīng)當(dāng)賦予法人以主體地位之后,我們才會(huì)進(jìn)一步技術(shù)化地處理其中的事實(shí)承擔(dān)問(wèn)題?!坝梢?guī)范到事實(shí)”而不是“由事實(shí)到規(guī)范”更契合法律思維,立法思維尤其如此,其中,尤為重要的是法律如何為人們?cè)谌斯ぶ悄軉?wèn)題上設(shè)定行動(dòng)理由,因而是一個(gè)關(guān)乎實(shí)踐理性的問(wèn)題。
立法者不是人工智能的理論專(zhuān)家,但這根本不妨礙法律為該領(lǐng)域設(shè)定行動(dòng)理由的實(shí)踐權(quán)威〔12〕。從規(guī)范上講,人工智能諸問(wèn)題肇始于立法,而立法的背后則涉及立法者“應(yīng)當(dāng)如何進(jìn)行選擇”的規(guī)范倫理學(xué)問(wèn)題。面對(duì)人工智能這一情勢(shì),借鑒規(guī)范倫理學(xué)的研究成就,“在功利與道義之間”則為如何行動(dòng)和選擇提供了指引,下文將對(duì)此分別做出哲學(xué)和法學(xué)層面的論證,這種外部論證對(duì)包括法律主體地位在內(nèi)的人工智能立法的討論具有重要的方法論意義。
三、“功利”與“道義”:人工智能立法科學(xué)性的哲學(xué)論證
人工智能立法的科學(xué)性至少蘊(yùn)含著法律條文具備明確性、公開(kāi)、不溯及既往且能為人所遵守等程序法治的基本原則〔13〕,但由于人工智能問(wèn)題具有前文所說(shuō)的那種特殊性,這使得相關(guān)立法在遵循基本的法治考量因素之下還必須更明確地認(rèn)識(shí)到其中所涉及的兩個(gè)關(guān)鍵性問(wèn)題:其一是人工智能所可能引發(fā)的道德倫理問(wèn)題,即道義維度;其二是人工智能及其立法與科技發(fā)展或經(jīng)濟(jì)進(jìn)步之間的共變關(guān)系,即功利維度。如果近代科技立法中的“技術(shù)—經(jīng)濟(jì)”思維本質(zhì)上是一種經(jīng)濟(jì)目的導(dǎo)向從而側(cè)重功利進(jìn)路的話(huà),那么未來(lái)人工智能的科學(xué)立法則必須明確地參考道義維度,二者共同構(gòu)成人工智能立法轉(zhuǎn)型的新方向,繼而成為其新的思維框架。
(一)功利論的內(nèi)在要求
功利論是規(guī)范倫理學(xué)中目的論的典型代表,在當(dāng)代具有各種不同的形式和分支,后果主義便是其中最為重要的一種。后果主義理論由兩方面內(nèi)容構(gòu)成:(1)根本的價(jià)值;(2)達(dá)致這一價(jià)值的適當(dāng)進(jìn)路〔14〕。前者是特定的價(jià)值理論,它認(rèn)為價(jià)值內(nèi)在地包涵于事物/事態(tài)之中,實(shí)現(xiàn)這種價(jià)值就必定能夠促使這一事物/事態(tài)的實(shí)現(xiàn);后者是特定的正確選擇理論,它認(rèn)為,如果一個(gè)行動(dòng)促進(jìn)了更好的可能事物/事態(tài)的實(shí)現(xiàn)(比較意義上的),那這一行動(dòng)的正確性便得到了辯護(hù)〔15〕。標(biāo)準(zhǔn)后果主義(standard consequentialism)的理論形態(tài)據(jù)此向我們承諾了這樣一件事情:通過(guò)評(píng)價(jià)事物/事態(tài)對(duì)其價(jià)值的促進(jìn),我們便獲得了最終的辯護(hù)根據(jù),不管這是道德辯護(hù)、法律辯護(hù)還是其他類(lèi)型的辯護(hù)事項(xiàng),它都能夠得到適用。根據(jù)“一般形式的客觀(guān)的整全后果主義”的觀(guān)點(diǎn),對(duì)象的意向、品格特征、動(dòng)機(jī)等或行為的道德屬性都可以依據(jù)客觀(guān)后果主義的標(biāo)準(zhǔn)來(lái)進(jìn)行評(píng)價(jià)〔14〕,這使得后果主義的理論承諾會(huì)更加地具有吸引力。
在此理論路徑之下,三方面的特質(zhì)型塑著后果主義。首先,它所指的價(jià)值內(nèi)在地具有整體利益的傾向,即功利主義所說(shuō)的“最大多數(shù)人的最大幸?!薄?6〕。比如,就賦予人工智能體主體資格的立法動(dòng)議而言,它必須首先證明賦予其主體資格比不賦予其資格能夠帶來(lái)整體上的更大利益。德國(guó)工程與機(jī)器人協(xié)會(huì)(VDMA)也正是以此為指引論證說(shuō),立法者不應(yīng)通過(guò)頒布規(guī)制措施來(lái)阻礙工業(yè)4.0的可能發(fā)展,因?yàn)槿斯ぶ悄軙?huì)給人更多的益處而非不利〔17〕。在此判斷下,便隱含著人工智能法律主體的證成語(yǔ)境,美國(guó)的《人工智能未來(lái)法案2017》(Future of Artificial Intelligence Act of 2017)亦是作了如此判斷。其次,它將行為所獲得的效果作為評(píng)價(jià)的標(biāo)準(zhǔn),因而結(jié)果本身只是手段而不是目的,它是朝向未來(lái)的可欲手段。在這個(gè)意義上,“判斷道德意義上的正當(dāng)、不正當(dāng)或盡義務(wù)等基本的或最終的標(biāo)準(zhǔn)是非道德價(jià)值,這種非道德價(jià)值是作為行為的結(jié)果而存在的。最終的直接或間接的要求必須是產(chǎn)生大量的善,更確切地說(shuō),是產(chǎn)生的善超過(guò)惡。因此,在任何有效的選擇中,一個(gè)行為是正當(dāng)?shù)?,?dāng)且僅當(dāng)它或它的指導(dǎo)準(zhǔn)則能夠促成或趨向于促成的善至少超過(guò)惡;反之則是不正當(dāng)?shù)摹薄?8〕。最后,它認(rèn)為“善”優(yōu)先于“正當(dāng)”。在道德評(píng)價(jià)過(guò)程中,“正當(dāng)”表現(xiàn)為康德式的“絕對(duì)命令”,即“要只按照你同時(shí)認(rèn)為也能成為普遍規(guī)律的準(zhǔn)則去行動(dòng)”〔19〕。與之不同,“善”則凸顯為它的誘人的可欲性,在此之下并無(wú)絕對(duì)的命令或義務(wù),而只有相對(duì)義務(wù)。善優(yōu)先于正當(dāng)便是要求著眼于最大利益。
功利或后果是一個(gè)帶有評(píng)價(jià)性質(zhì)的規(guī)范性概念,備受指責(zé)之處主要在于,它所承諾的“功利價(jià)值”如何辨識(shí)以及客觀(guān)性評(píng)價(jià)基礎(chǔ)如何還原。極端的功利主義不利于社會(huì)基本善的形成,更不適合人工智能這一情勢(shì)的特殊性,因而要完整地進(jìn)行評(píng)價(jià),我們還必須引入“道義論”。
(二)道義論的內(nèi)在要求
一般而言,“道義論約束”往往是通過(guò)一些否定性的方式來(lái)予以陳述和表達(dá)的道德理由,是對(duì)實(shí)踐活動(dòng)所提出的禁為性理由。因而,道義論從根本上關(guān)注的是開(kāi)展這類(lèi)行動(dòng)的不可允許性問(wèn)題〔20〕。道義論與功利論極為不同。首先,道義論以觀(guān)念形態(tài)的義務(wù)和應(yīng)當(dāng)為出發(fā)點(diǎn),“要求個(gè)人應(yīng)當(dāng)按照某種主觀(guān)上既定的原則或主觀(guān)上認(rèn)定屬于某種現(xiàn)象本身固有的正當(dāng)性去行動(dòng),從而將人們的義務(wù)和責(zé)任主觀(guān)化、普遍化和絕對(duì)化,并以此來(lái)限制和規(guī)范個(gè)體”〔21〕。其次,道德義務(wù)本身便是目的,是“為義務(wù)而義務(wù)”,從而對(duì)道德自身所蘊(yùn)含的尊嚴(yán)以及人格中的人性等基本價(jià)值予以肯認(rèn),因此,道義論所提出的義務(wù)是“絕對(duì)的和無(wú)條件的”。這即是說(shuō),在進(jìn)行選擇的時(shí)候,我們一開(kāi)始便受到限制而不是隨心所欲的。如果賦予人工智能體以法律主體資格會(huì)對(duì)作為目的本身的人/人類(lèi)之尊嚴(yán)造成貶損,那道德律令就將禁止我們這樣做。最后,道義論預(yù)設(shè)了“正當(dāng)優(yōu)先于善”。按照這一形式標(biāo)準(zhǔn),行動(dòng)的理由和根據(jù)不在于任何功利性的價(jià)值,相反,事物本身便能確定何種欲求是正當(dāng)?shù)?。盡管學(xué)界對(duì)于“正當(dāng)”存在不同的解釋?zhuān)珔s能夠就以下觀(guān)點(diǎn)取得基本共識(shí),即“一個(gè)行為是否正確,是由它所固有的某些特點(diǎn)來(lái)確定的,或者是由與它相關(guān)的某個(gè)規(guī)則來(lái)確定的”〔22〕。
在道義論理論中,當(dāng)前最具說(shuō)服力的一種進(jìn)路表現(xiàn)為“犧牲者中心”〔23〕。它認(rèn)為,作為共同體中的每一個(gè)人,都有可能被他者或共同體傷害,即都可能成為潛在的犧牲者(victim),與此同時(shí),我們每一個(gè)人都擁有優(yōu)先于共同體本身的資格(status),這種資格使得我們有很強(qiáng)的理由避免成為他者或共同體本身的可能犧牲者。就人工智能法律主體這一事情而言,不管人工智能能否被授予法律主體資格,只要每一個(gè)個(gè)體本身的資格得到了保障,那這種設(shè)置就通過(guò)了合法性的檢驗(yàn),如果人工智能法律主體的制度設(shè)計(jì)危及或者是必定使每一個(gè)個(gè)體成為潛在的犧牲者,那它就不具備道德合法性。與之相關(guān)的另一種道義論理論即契約主義的道義理論認(rèn)為,“資格”概念的設(shè)置并不存在實(shí)質(zhì)意義上的必要性,因?yàn)樵谄跫s簽訂過(guò)程中,共同體中的每一個(gè)人只要具有“自由且平等”這個(gè)事實(shí)便足以對(duì)每一個(gè)主體施加保護(hù)。相應(yīng)地,能否被授予主體資格從而擁有一項(xiàng)權(quán)利只需取決于它能不能滿(mǎn)足共同體成員所設(shè)置的假設(shè)性契約條件。因此,人工智能體能否被授予法律主體資格,這必須取決于由理性的共同體成員所設(shè)置的條件要求:滿(mǎn)足其要求則被授予法律主體資格,不滿(mǎn)足其要求則不能被授予法律主體資格??梢园l(fā)現(xiàn),“犧牲者中心”和“契約主義”的道義理論在人工智能體能否成為法律主體的道路上設(shè)置了“防御性”的條件;與通過(guò)“預(yù)防原則”應(yīng)對(duì)科技風(fēng)險(xiǎn)不同,它所提供的方案具有根本性;與后果主義所訴諸的實(shí)質(zhì)利益不同,它所捍衛(wèi)的是形式性基本原則。這一方案不僅適用于人工智能法律主體資格問(wèn)題,而且適用于關(guān)于人工智能的整個(gè)議題。
(三)一個(gè)綜合評(píng)價(jià)
由此,在人工智能立法科學(xué)性問(wèn)題上,人們就擁有了功利論和道義論這兩套可供選擇的辯護(hù)方案,雖然它們各自在一些關(guān)鍵問(wèn)題上針?shù)h相對(duì),但這并不意味著只能非此即彼地進(jìn)行選擇,相反,我們可以而且應(yīng)當(dāng)對(duì)其予以綜合考察,并將其靈活地運(yùn)用于人工智能立法科學(xué)性的辯護(hù)議題上。這就好比說(shuō),人工智能的立法者必須左手握著道義論的“利劍”,右手握著后果主義的“天平”,在此二者之間來(lái)回地細(xì)致權(quán)衡和拿捏,并以此來(lái)保障人工智能立法問(wèn)題的科學(xué)性。仍然以人工智能體法律主體地位立法問(wèn)題為例,它內(nèi)在地要求:
首先,人工智能立法必須全面權(quán)衡基于功利主義的整體利益的進(jìn)取型要求與基于道義論的個(gè)人資格的防御性要求之間的關(guān)系。如果人工智能法律主體地位與個(gè)人資格的道義論要求根本沖突,那就必須捍衛(wèi)“人類(lèi)中心主義”;如果不相沖突,那就應(yīng)當(dāng)基于功利成本進(jìn)一步考慮是否賦予其主體資格。其次,在手段與目的關(guān)系問(wèn)題上必須保證“人是目的”這一基礎(chǔ)性的道義論原則。雖然“從一個(gè)角度看,我們創(chuàng)造的機(jī)器人貌似只是機(jī)器而已,而從另一個(gè)角度看,它們似乎是復(fù)雜而具有適應(yīng)性的實(shí)體,甚至對(duì)我們?cè)诘赖玛P(guān)心的問(wèn)題有著或多或少的敏感性”〔24〕。人工智能體雖然不一定就只能作為一種工具存在,但由于“人是目的”這一絕對(duì)命令的存在,不管賦予還是不賦予其法律主體地位都不得逾越這一底線(xiàn),一旦觸碰便是無(wú)效的,與之相關(guān)的是,在人機(jī)倫理關(guān)系中,立法者不僅要考量智能機(jī)器人的“外部進(jìn)攻”,同時(shí)還應(yīng)考量作為主體的人本身在主體問(wèn)題上可能出現(xiàn)的“消極抵抗”。人工智能時(shí)代會(huì)引發(fā)一種危險(xiǎn),作為人類(lèi)的我們不再將自我視為目的本身,而是視作為人所利用的裝置和被人利用的工具,從而僅僅只是像計(jì)算機(jī)那樣思考問(wèn)題〔25〕。最后,在正當(dāng)與善的優(yōu)先性權(quán)衡上,正當(dāng)是根本,善是長(zhǎng)遠(yuǎn)發(fā)展的指引。人工智能時(shí)代是大勢(shì)所趨,如果人工智能法律主體地位更符合長(zhǎng)遠(yuǎn)發(fā)展的要求,至少就可以考慮賦予其主體資格,但這并不意味著丟棄其內(nèi)在的正當(dāng)性要求。
四、人工智能立法中的“道義”與“功利”
通過(guò)辯證看待功利論和道義論這兩種規(guī)范倫理學(xué)進(jìn)路并予以綜合審視,我們獲得了達(dá)致人工智能科學(xué)立法的一套辯護(hù)工具。在這里,二者在人工智能立法問(wèn)題上絕非相互對(duì)立,而是可以相互補(bǔ)充,而且綜合出的這套辯護(hù)工具也并不囿于某一思想家的學(xué)說(shuō)或某一學(xué)派的主張,而是以實(shí)事求是的姿態(tài)對(duì)其予以客觀(guān)評(píng)價(jià),具有切實(shí)的可行性。此外,我們還以“人工智能法律主體地位”這一當(dāng)下為學(xué)界廣泛關(guān)注的論題為例進(jìn)行了針對(duì)性的解讀和說(shuō)明,但法律主體地位問(wèn)題畢竟只是人工智能立法的面向之一,因此我們還需要進(jìn)一步考察如何將這一套辯護(hù)工具適用到人工智能立法中去。
(一)人工智能立法科學(xué)性的“道義”考量
有學(xué)者將新的立法思維歸結(jié)為“技術(shù)—社會(huì)+經(jīng)濟(jì)”,相較于既往的“技術(shù)—經(jīng)濟(jì)”范式,它更加強(qiáng)調(diào)人工智能引發(fā)的“強(qiáng)社會(huì)面向”,從而“展現(xiàn)了前所未有的社會(huì)規(guī)范需求性”〔6〕。實(shí)際上,“社會(huì)維度”在實(shí)際操作層面難以和“經(jīng)濟(jì)維度”進(jìn)行有效的區(qū)分,這不僅是因?yàn)榻?jīng)濟(jì)系統(tǒng)本身就是社會(huì)中一個(gè)重要的子系統(tǒng),更在于不管經(jīng)濟(jì)維度還是社會(huì)維度都可以被納入功利論范疇中進(jìn)行討論,新舊范式之間就無(wú)法進(jìn)行有效區(qū)分,從而無(wú)法揭示人工智能帶來(lái)的根本性挑戰(zhàn)。相反,在尊重道德法則的行為必然性意義上,只有“道義”維度的考量或許才能直接揭示和呈現(xiàn)出由人工智能引發(fā)的法律挑戰(zhàn)的特殊性。通過(guò)對(duì)這種挑戰(zhàn)進(jìn)行由外到內(nèi)的處理,相關(guān)道義論挑戰(zhàn)可以類(lèi)型化為以下三個(gè)方面:
1.安全問(wèn)題
安全問(wèn)題包括人工智能技術(shù)本身所帶來(lái)的挑戰(zhàn),如由于“黑箱(black box)”系統(tǒng)的存在,輸入環(huán)節(jié)是透明的,輸出也得到了理解,但兩者之間發(fā)生的事情,連程序設(shè)計(jì)者在內(nèi)的人都無(wú)法確切地理解自己設(shè)計(jì)出來(lái)的人工智能的具體決策過(guò)程和決策邏輯〔26〕,從而致使技術(shù)本身可能就是不安全的。再者,當(dāng)自動(dòng)駕駛汽車(chē)脫離制造商控制而進(jìn)入流通領(lǐng)域后,由于新的數(shù)據(jù)輸入導(dǎo)致其行為和決策超出預(yù)先設(shè)置的規(guī)則,從而可能會(huì)打破原先設(shè)定的規(guī)則〔27〕。此類(lèi)安全來(lái)自技術(shù)本身的“不確定性”維度,這使得我們“無(wú)法提前預(yù)估可能遇到的全部問(wèn)題,也不可能絕對(duì)排除隨機(jī)生成的穩(wěn)定性故障,因而帶來(lái)不同于傳統(tǒng)技術(shù)運(yùn)用所制造的新型風(fēng)險(xiǎn)”〔28〕。對(duì)于此類(lèi)不確定和不可知的現(xiàn)實(shí)問(wèn)題,歐盟提出的立法動(dòng)議首先便強(qiáng)調(diào)要確定人工智能領(lǐng)域的倫理準(zhǔn)則,這既包括具有全局性的倫理框架設(shè)計(jì),也包括諸如“一鍵關(guān)閉”這樣的具體考量,可以說(shuō),人工智能技術(shù)本身的安全性問(wèn)題將是立法者在進(jìn)行立法設(shè)計(jì)時(shí)繞不開(kāi)的首要問(wèn)題之一。
與此同時(shí),“安全問(wèn)題”也包括由于技術(shù)濫用所帶來(lái)的極大風(fēng)險(xiǎn),其中廣為人所憂(yōu)慮的一個(gè)便是“人工智能武器”。倫理學(xué)界早已對(duì)此問(wèn)題及其未來(lái)情勢(shì)表達(dá)過(guò)憂(yōu)慮,這種武器及其濫用“很可能成為人類(lèi)自作自受的掘墓人”〔29〕。技術(shù)濫用導(dǎo)致的危險(xiǎn)與技術(shù)不確定性導(dǎo)致的危險(xiǎn)具有本質(zhì)區(qū)別,立法無(wú)法規(guī)制技術(shù)本身的不確定,但卻完全有能力規(guī)制使用或?yàn)E用人工智能的人的行為,從后者尋求突破將最為可行。在國(guó)際范圍內(nèi),以“公約”的形式限制使用或禁止人工智能技術(shù)的濫用將是一個(gè)發(fā)展趨勢(shì)。就國(guó)內(nèi)來(lái)看,對(duì)于智能科技自身所存在的安全問(wèn)題,“合理的對(duì)策就是為了保障技術(shù)進(jìn)步而適度容忍風(fēng)險(xiǎn),并立足于現(xiàn)有法律的基本體系,將風(fēng)險(xiǎn)進(jìn)行成本最低的分配”〔28〕。
2.權(quán)利問(wèn)題
“權(quán)利問(wèn)題”關(guān)涉人的地位和資格,因?yàn)闄?quán)利是現(xiàn)代人生存和生活的基本方式〔30〕。人工智能引發(fā)的相關(guān)新興(型)權(quán)利問(wèn)題正在對(duì)現(xiàn)有權(quán)利義務(wù)體系提出挑戰(zhàn),如人工智能生成內(nèi)容的權(quán)利定性、自動(dòng)駕駛汽車(chē)引發(fā)的相關(guān)責(zé)任認(rèn)定等。在既有的權(quán)利意識(shí)形態(tài)中,“X有做φ的權(quán)利”或“X有關(guān)于φ的權(quán)利”表述中的“X”被默認(rèn)為是生物學(xué)意義上的人或以它為基礎(chǔ),既有權(quán)利體系的哲學(xué)基礎(chǔ)在于“人的主體性”,甚至可以說(shuō)“當(dāng)代權(quán)利理論的發(fā)展過(guò)程正是主體性通過(guò)權(quán)利概念和法學(xué)話(huà)語(yǔ)的表征過(guò)程”〔31〕。人工智能所可能擁有的“認(rèn)識(shí)能力”與“控制能力”,即人工智能所可能涌現(xiàn)的自主性與主體性問(wèn)題會(huì)通過(guò)挑戰(zhàn)現(xiàn)有權(quán)利體系對(duì)主體性哲學(xué)基礎(chǔ)構(gòu)成威脅,從而最終威脅到“人”本身這一權(quán)利的道義論根基。隨著人工智能的深入研究和推進(jìn),法學(xué)界終將面臨“人工智能能否擁有權(quán)利”以及“憑什么能擁有權(quán)利”這類(lèi)法理學(xué)問(wèn)題(實(shí)際上法理學(xué)界已經(jīng)在開(kāi)始處理這一問(wèn)題了)。
如果這種挑戰(zhàn)因其具有基礎(chǔ)性以致目前還無(wú)法進(jìn)入立法視野的話(huà),那伴隨著“算法權(quán)力”“算法規(guī)訓(xùn)”“算法歧視”等帶來(lái)的權(quán)利挑戰(zhàn)則無(wú)疑具有十足的現(xiàn)實(shí)性。人工智能的本質(zhì)是算法,由于算法的控制者與作為數(shù)據(jù)主體的個(gè)人之間存在信息不對(duì)稱(chēng),因此算法不斷增強(qiáng)的權(quán)力態(tài)勢(shì)會(huì)對(duì)個(gè)人權(quán)利形成霸權(quán)壓制,如對(duì)數(shù)據(jù)所有權(quán)以及數(shù)據(jù)隱私權(quán)的侵犯和歧視,它使得“個(gè)人越來(lái)越透明,而權(quán)力行使者卻變得越來(lái)越隱秘”〔32〕。如無(wú)算法治理的介入,人的權(quán)利將遭受全面打擊。面對(duì)此情勢(shì),歐洲議會(huì)發(fā)布的《關(guān)于歐洲合作智能交通系統(tǒng)戰(zhàn)略協(xié)作、連接和自動(dòng)移動(dòng)性的決議》便指出:“必須使用戶(hù)確信他們的個(gè)人數(shù)據(jù)并非商品,用戶(hù)能夠有效控制數(shù)據(jù)的使用方式和目的”〔1〕。的確,算法的法律規(guī)則只不過(guò)是人工智能立法的方面之一,但算法對(duì)權(quán)利的挑戰(zhàn)卻已揭示出這一情勢(shì)的根本性,因而有必要以算法正義的立法理念為導(dǎo)引捍衛(wèi)表征人之自主性的權(quán)利的道義之維。
3.人性問(wèn)題
阿西莫夫提出了“機(jī)器人三定律”,即“不得傷害人類(lèi),必須服從于人類(lèi),必須保護(hù)自己的生存”〔33〕。這三條規(guī)制機(jī)器人的定律預(yù)設(shè)了智能機(jī)器人已經(jīng)具備自我意識(shí)和自由意志的能力,這或許是過(guò)往立法實(shí)踐較少明確予以考量的問(wèn)題,但卻是法哲學(xué)一直在面對(duì)和捍衛(wèi)的一個(gè)命題,即“人是目的”。然而,人工智能的深入研究卻揭示了另一番景象。在技術(shù)研究層面,這一問(wèn)題表現(xiàn)在“深度學(xué)習(xí)”和“神經(jīng)網(wǎng)絡(luò)”所隱含的一個(gè)基本假設(shè),即智能及其思想意識(shí)本身均源于大腦的復(fù)雜性〔34〕,也即是“神經(jīng)元決定了思想”〔35〕。在具體研究中,它通過(guò)“虛擬神經(jīng)元”進(jìn)行人腦模擬并在此基礎(chǔ)上構(gòu)建“人工大腦”?;趯?duì)人之大腦的心智模擬,AI程序就能夠?qū)崿F(xiàn)“像”人類(lèi)一樣地進(jìn)行認(rèn)知和思考,達(dá)到甚至超過(guò)人的智能水平。在當(dāng)代哲學(xué)前沿理論中,強(qiáng)人工智能與人的心靈皆被理解為一種“計(jì)算機(jī)功能主義”。該理論認(rèn)為,“整個(gè)系統(tǒng)工作的方式就是大腦是一個(gè)數(shù)字化的計(jì)算機(jī),而被我們稱(chēng)為‘心靈’的東西則是一個(gè)數(shù)字化的計(jì)算機(jī)程序,或是一個(gè)程序序列”,即“心靈狀態(tài)乃是腦的計(jì)算狀態(tài)。腦是一個(gè)計(jì)算機(jī),而心靈是一個(gè)程序或程序序列”〔3〕。前沿量子力學(xué)對(duì)人之生命的解釋以及存在非碳基生命的理論可能性,諸如此類(lèi)的研究嘗試和推進(jìn)與哲學(xué)層面的理論辯護(hù)間接性地強(qiáng)化了人工智能的主體性地位,同時(shí)也在很大程度上弱化了人之地位的道義論基礎(chǔ),于是,問(wèn)題就逐漸地變?yōu)椤叭斯ぶ悄苁遣皇侨??如果它不具備人的地位,那么我們?yōu)槭裁匆驗(yàn)閾碛型瑯拥幕蝾?lèi)似的智能能力而被叫作人?”〔36〕正如趙萬(wàn)一教授所言,“法學(xué)應(yīng)當(dāng)重新思考人”〔37〕,尤其是法律的人性基礎(chǔ)問(wèn)題。
在極端目的論支持者看來(lái),上述三類(lèi)議題都可以在功利范疇中進(jìn)行討論和解決。然而,不管是安全問(wèn)題、權(quán)利問(wèn)題還是人性問(wèn)題實(shí)際上都無(wú)法簡(jiǎn)單地適用最大多數(shù)人的最大幸福這一判準(zhǔn),因?yàn)樗诤艽蟪潭壬咸魬?zhàn)甚至?xí)郊扔蟹审w系賴(lài)以存在的基礎(chǔ),比如說(shuō),既有科技立法的對(duì)象本身是可控的,但人工智能技術(shù)愈加顯示其不可控的黑箱效應(yīng)。因此,有必要首先將此類(lèi)問(wèn)題置于道義論約束中予以審視,而不能仍停留于功利思維層面。就立法設(shè)計(jì)而言,“安全問(wèn)題”中的技術(shù)濫用與“權(quán)利問(wèn)題”中的算法利維坦現(xiàn)象是立法必須予以明確回應(yīng)的,而理論界則需要在技術(shù)的不確定性、權(quán)利的主體性挑戰(zhàn)以及人性問(wèn)題上展開(kāi)進(jìn)一步的研究,并在此基礎(chǔ)上為未來(lái)的立法回應(yīng)提供理論層面的支撐,結(jié)合功利取向進(jìn)行相應(yīng)立法。
(二)人工智能立法科學(xué)性的功利考量
人工智能之所以具有廣泛的熱度和關(guān)注度,不僅因?yàn)樗鼤?huì)引發(fā)上述道義層面的挑戰(zhàn),更在于它具有豐厚的功利價(jià)值,即創(chuàng)新驅(qū)動(dòng)和經(jīng)濟(jì)發(fā)展這一目的指向,可以說(shuō),誰(shuí)率先占領(lǐng)了人工智能這一廣闊領(lǐng)域,誰(shuí)就贏(yíng)得了第四次工業(yè)革命的主導(dǎo)權(quán)。人工智能技術(shù)作為重要的生產(chǎn)力要素,對(duì)于推動(dòng)經(jīng)濟(jì)和社會(huì)發(fā)展發(fā)揮著無(wú)可替代的關(guān)鍵作用?!兑?guī)劃》將人工智能定位在“國(guó)際競(jìng)爭(zhēng)的新焦點(diǎn)”“經(jīng)濟(jì)發(fā)展的新引擎”“社會(huì)建設(shè)的新機(jī)遇”的國(guó)家戰(zhàn)略高度,黨的十九大報(bào)告更是提出“推動(dòng)互聯(lián)網(wǎng)、大數(shù)據(jù)、人工智能和實(shí)體經(jīng)濟(jì)深度融合”的目標(biāo)要求??梢灶A(yù)見(jiàn),隨著人工智能尤其是通用人工智能的發(fā)展,自動(dòng)駕駛、遠(yuǎn)程醫(yī)療等新領(lǐng)域正在逐步變?yōu)楝F(xiàn)實(shí),這都使得人工智能成為未來(lái)國(guó)家實(shí)力和國(guó)際競(jìng)爭(zhēng)的一個(gè)關(guān)鍵所在。因此,“如何在確保人工智能技術(shù)不至于觸及法律底線(xiàn)和引發(fā)倫理道德問(wèn)題的前提下,最大程度地發(fā)揮其促進(jìn)生產(chǎn)力發(fā)展、促進(jìn)社會(huì)進(jìn)步的功能,就必然成為亟待解答的時(shí)代課題”〔38〕。這一時(shí)代課題要求立法科學(xué)性進(jìn)行與之相適應(yīng)的制度跟進(jìn),要求人工智能的發(fā)展能夠有益于最廣大人民的根本利益,這是立法科學(xué)性的功利考量。具體而言,在經(jīng)由道義論約束的檢驗(yàn)之后,人工智能立法應(yīng)當(dāng)在以下三個(gè)階段進(jìn)行權(quán)衡設(shè)計(jì),以此來(lái)保證其科學(xué)性:
1.研究和開(kāi)發(fā)階段
在人工智能的研究和開(kāi)發(fā)階段,法律和政策的積極或消極態(tài)度將對(duì)其產(chǎn)生關(guān)鍵性的影響?,F(xiàn)實(shí)中,不同的國(guó)家和地區(qū)對(duì)人工智能也是采取了不同的應(yīng)對(duì)思路。德國(guó)工程和機(jī)器人行業(yè)協(xié)會(huì)(VDMA)指出,人工智能目前給人類(lèi)帶來(lái)的好處要遠(yuǎn)遠(yuǎn)勝于其弊端,立法者不應(yīng)該倉(cāng)促出臺(tái)規(guī)制措施來(lái)阻礙其發(fā)展,更沒(méi)有必要制定詳細(xì)的法律規(guī)則。美國(guó)的《人工智能未來(lái)法案2017》更是旗幟鮮明地主張要大力發(fā)展人工智能,如建立有利環(huán)境、優(yōu)先發(fā)展人工智能、支持和推動(dòng)其發(fā)展應(yīng)用等。與之相反,歐盟議會(huì)則主張通過(guò)制定民事規(guī)范來(lái)限制機(jī)器人的生產(chǎn)。中國(guó)在《規(guī)劃》中進(jìn)行了“發(fā)展為主、控制潛在風(fēng)險(xiǎn)為輔”的戰(zhàn)略布局,就此而言,相關(guān)人工智能立法的基本取向應(yīng)當(dāng)是支持、賦權(quán)和引導(dǎo)并營(yíng)造有利的法律環(huán)境,以便響應(yīng)“以提升新一代人工智能科技創(chuàng)新能力為主攻方向”的政策號(hào)召。
科技發(fā)展有其自身的規(guī)律,立法者只有在此客觀(guān)基礎(chǔ)上進(jìn)行審視而不是基于主觀(guān)臆想,這樣才能符合科學(xué)立法中的功利考量。在鼓勵(lì)人工智能發(fā)展的前提下,立法者應(yīng)當(dāng)突出人工智能發(fā)展的重點(diǎn)方向和關(guān)鍵領(lǐng)域并進(jìn)行具體而有針對(duì)性的立法,這意味著,目前尚不具備足夠成熟的條件針對(duì)人工智能進(jìn)行體系化的立法,因而有必要為技術(shù)發(fā)展留下足夠廣闊的想象力空間〔39〕,這是體現(xiàn)當(dāng)下立法科學(xué)性的內(nèi)在要求。與之相關(guān),在弱人工智能時(shí)期或通用人工智能階段,立法者應(yīng)當(dāng)就具體領(lǐng)域進(jìn)行相應(yīng)的立法設(shè)計(jì)以便回應(yīng)系列現(xiàn)實(shí)問(wèn)題。比如說(shuō),在自動(dòng)駕駛汽車(chē)立法問(wèn)題上,既有法律體系和立法思路具有重要參考價(jià)值,而不需要完全重新開(kāi)始,而是可以選擇諸如通過(guò)修改交通肇事罪、危險(xiǎn)駕駛罪或增設(shè)人工智能重大安全事故罪等方式來(lái)進(jìn)行局部性、針對(duì)性立法〔40〕。與此同時(shí),還可以通過(guò)立法解釋、法律修改、條文增設(shè)等法律技術(shù)手段將諸多涉及人工智能問(wèn)題的分散性?xún)?nèi)容有序地納入既有法律體系之中,以便于維持法律體系的穩(wěn)定性、保障立法的科學(xué)性,同時(shí)也能為將來(lái)人工智能立法提供一個(gè)緩沖。在更為細(xì)致的問(wèn)題上,由政府制定標(biāo)準(zhǔn),省市進(jìn)行試點(diǎn),并在此基礎(chǔ)上通過(guò)總結(jié)經(jīng)驗(yàn)來(lái)凝練法律條文,這也不失為一條可行的進(jìn)路,且也符合中國(guó)當(dāng)下的相關(guān)實(shí)踐,如北京、深圳等地對(duì)自動(dòng)駕駛汽車(chē)就進(jìn)行了這種意義上的立法嘗試。
2.運(yùn)用和轉(zhuǎn)化階段
如果說(shuō)人工智能的研究和開(kāi)發(fā)階段,立法者可以通過(guò)支持或抑制來(lái)進(jìn)行“門(mén)檻把關(guān)”的話(huà),那法律在人工智能運(yùn)用和轉(zhuǎn)化階段所要處理和回應(yīng)的則會(huì)相對(duì)比較復(fù)雜。在宏觀(guān)層面,雖然人工智能的研究和開(kāi)發(fā)能力是國(guó)家軟實(shí)力的重要組成部分,但作為一門(mén)技術(shù)的人工智能只有通過(guò)轉(zhuǎn)化為現(xiàn)實(shí)的生產(chǎn)能力時(shí)才能真正發(fā)揮實(shí)效,因此,如何加快人工智能與經(jīng)濟(jì)、社會(huì)、國(guó)防等領(lǐng)域的深度融合,這是立法者在進(jìn)行立法設(shè)計(jì)時(shí)應(yīng)予考慮的問(wèn)題。人工智能與經(jīng)濟(jì)的深度融合有助于經(jīng)濟(jì)的轉(zhuǎn)型升級(jí),發(fā)展智能經(jīng)濟(jì),從而提升國(guó)家的綜合經(jīng)濟(jì)實(shí)力和生產(chǎn)力;人工智能與社會(huì)的深度融合有助于優(yōu)化社會(huì)資源,建設(shè)智能社會(huì),進(jìn)一步加快國(guó)家治理體系和治理能力的現(xiàn)代化;人工智能與國(guó)防領(lǐng)域的深度融合有助于維護(hù)國(guó)家安全,提升應(yīng)對(duì)國(guó)際風(fēng)險(xiǎn)挑戰(zhàn)的國(guó)家競(jìng)爭(zhēng)力。《規(guī)劃》指出的“發(fā)展智能經(jīng)濟(jì),建設(shè)智能社會(huì),維護(hù)國(guó)家安全”是人工智能立法在運(yùn)用和轉(zhuǎn)化階段的法理依據(jù)和基本的功利考量。在促進(jìn)人工智能良性轉(zhuǎn)化的同時(shí),立法者也應(yīng)考慮到人工智能在向現(xiàn)實(shí)轉(zhuǎn)化時(shí)所帶來(lái)的危機(jī)和挑戰(zhàn),這構(gòu)成了功利的背面。由于人工智能在向現(xiàn)實(shí)轉(zhuǎn)化時(shí)所帶來(lái)的危機(jī)和挑戰(zhàn)相對(duì)比較復(fù)雜和多樣,這會(huì)使得立法回應(yīng)同樣變得更為復(fù)雜,這也是立法者實(shí)踐智慧得以展現(xiàn)的契機(jī)。
在經(jīng)濟(jì)層面,通用人工智能的大量應(yīng)用可能會(huì)導(dǎo)致大量失業(yè)問(wèn)題,而現(xiàn)有的勞動(dòng)方面的法律并無(wú)相應(yīng)規(guī)定。此外,掌握人工智能先進(jìn)技術(shù)的大企業(yè)會(huì)使傳統(tǒng)制造業(yè)以及其他與互聯(lián)網(wǎng)不具直接相關(guān)性的行業(yè)明顯處于劣勢(shì),中小企業(yè)同樣會(huì)面臨邊際效應(yīng)不斷遞減的情況,強(qiáng)者會(huì)越強(qiáng),弱者會(huì)越弱。在社會(huì)和國(guó)家安全層面,人工智能對(duì)社會(huì)治理所構(gòu)成的危害源于“算法”的非中立性和偏私性,“它毫不遮掩地服務(wù)于設(shè)計(jì)者植入其中的目的”〔41〕。通過(guò)人工智能進(jìn)行的社會(huì)治理很容易使得法律的行使和社會(huì)的監(jiān)管被牽著鼻子走,從而使得人被算法所統(tǒng)治,并導(dǎo)致社會(huì)治理的異化和國(guó)家安全存在本身之“目的因”的消退。如果說(shuō)發(fā)展智能經(jīng)濟(jì)、智能社會(huì)和智能?chē)?guó)家安全的最大功利在于最廣大人民的根本利益的話(huà),那么人工智能在轉(zhuǎn)化階段的立法就必須回到最大幸福的承載者,即人本身,并以“以人為本”為底線(xiàn)防止人工智能對(duì)人造成的異化,進(jìn)而推動(dòng)人工智能的可持續(xù)發(fā)展和智能化成果的共享。
3.評(píng)估階段
由于“人工智能”這一事物本身的特殊性,立法者有必要在“評(píng)估”問(wèn)題上對(duì)人工智能進(jìn)行設(shè)計(jì),以管理和監(jiān)督人工智能的可行性和安全性。評(píng)估是當(dāng)前法律認(rèn)知的重要途徑,人工智能評(píng)估更應(yīng)是法治評(píng)估的組成部分。法律層面的人工智能評(píng)估不同于技術(shù)評(píng)估,更不是對(duì)人工智能相關(guān)法律的評(píng)估,它主要是對(duì)“人工智能”這一對(duì)象及其活動(dòng)的風(fēng)險(xiǎn)評(píng)估。具體而言,評(píng)估包括事前評(píng)估、事中評(píng)估以及事后評(píng)估,所評(píng)估的內(nèi)容可分為安全性、經(jīng)濟(jì)性和倫理性三個(gè)方面。首先,在事前評(píng)估階段,根本性地侵犯?jìng)惱硇缘娜斯ぶ悄軕?yīng)當(dāng)在事前評(píng)估階段就給予否定性評(píng)價(jià),就像對(duì)基因編輯技術(shù)的處理一樣,對(duì)于安全性不確定而經(jīng)濟(jì)效益巨大的人工智能應(yīng)基于功利的考慮進(jìn)行相對(duì)寬松的評(píng)估環(huán)境設(shè)置。其次,對(duì)人工智能在現(xiàn)實(shí)社會(huì)中運(yùn)用情況的事中評(píng)價(jià),立法設(shè)計(jì)應(yīng)主要集中在安全性和倫理性方面,如不安全使用的頻率、已造成的倫理風(fēng)險(xiǎn)等內(nèi)容,并以此使人工智能技術(shù)在安全的前提下創(chuàng)造更大的功利價(jià)值。最后,事后評(píng)估應(yīng)是綜合評(píng)估,立法設(shè)計(jì)應(yīng)在功利導(dǎo)向、安全為基、道義為輔的框架下進(jìn)行全面審視,并將信息反饋到新一輪的人工智能規(guī)劃中。應(yīng)該說(shuō),法律層面的人工智能評(píng)估從縱向上涵括了人工智能的整個(gè)階段,同時(shí)也有能力從橫向上對(duì)人工智能的整個(gè)內(nèi)容進(jìn)行評(píng)估化處理,因而同時(shí)可以兼顧倫理風(fēng)險(xiǎn)和經(jīng)濟(jì)發(fā)展問(wèn)題。
由于當(dāng)前的人工智能立法要響應(yīng)“發(fā)展為主、控制潛在風(fēng)險(xiǎn)為輔”的戰(zhàn)略布局,因此類(lèi)似“人工智能法”之類(lèi)的綜合性法律之制定肯定是不現(xiàn)實(shí)的(此前已作考察,故不贅述),但卻可以以“評(píng)估”為基本思路頒布或擬定“人工智能評(píng)估法”性質(zhì)的法律或部門(mén)規(guī)章,以便于實(shí)現(xiàn)對(duì)人工智能全過(guò)程的法律管理和監(jiān)督,這一路徑既能夠?qū)崿F(xiàn)發(fā)展的功利需求,也能夠容納道義論限制的內(nèi)容。這意味著,在通過(guò)道義論約束針對(duì)性地應(yīng)對(duì)人工智能引發(fā)的法律挑戰(zhàn)的特殊性之后,既有立法范式和思維在可見(jiàn)的一段時(shí)期內(nèi)仍大有可為。
五、在“功利”與“道義”之間尋求立法的科學(xué)性
人工智能兼具功利與道義的雙重屬性。作為一種日新月異的科技,它“具有為行業(yè)和社會(huì)創(chuàng)造巨大效益的潛能,因此有必要積極推動(dòng)其發(fā)展”〔1〕。對(duì)此,最有效的法律方式就是進(jìn)行支持、鼓勵(lì)和賦權(quán)式立法。但其潛在的道義論挑戰(zhàn)又使得立法者不得不保持一種“遠(yuǎn)慮”,因?yàn)樗赡軙?huì)使得“人類(lèi)在世界存在系統(tǒng)中失去了地位,人類(lèi)不再重要,歷史將失去意義,人類(lèi)文明將成為遺跡,未來(lái)也不再屬于人類(lèi),人類(lèi)文明數(shù)千年的創(chuàng)世紀(jì)將被終結(jié)而開(kāi)始人工智能的‘創(chuàng)世紀(jì)’”〔29〕。此類(lèi)“遠(yuǎn)慮”初看起來(lái)似乎有些危言聳聽(tīng),但也并非空穴來(lái)風(fēng),實(shí)際上這種遠(yuǎn)慮正是立法者憑借其實(shí)踐智慧應(yīng)予以重點(diǎn)關(guān)注的主要內(nèi)容所在。道義論論辯所提供的“絕對(duì)義務(wù)”或“絕對(duì)命令”會(huì)因?yàn)槿斯ぶ悄軐?shí)質(zhì)性挑戰(zhàn)的變現(xiàn)而消解功利價(jià)值的正當(dāng)性,從而轉(zhuǎn)入捍衛(wèi)人類(lèi)中心主義的道路,但是,在弱人工智能階段,法律無(wú)疑會(huì)因其功利價(jià)值的刺激而予以鼓勵(lì),而實(shí)質(zhì)性挑戰(zhàn)的“潛在可能性”又不得不使立法者必須對(duì)其予以特殊對(duì)待。一方面,法律應(yīng)當(dāng)設(shè)置一些基本性的門(mén)檻檢驗(yàn)以捍衛(wèi)法律的安全、權(quán)利和人性基礎(chǔ),在未通過(guò)其檢驗(yàn)時(shí),無(wú)論功利價(jià)值如何巨大的人工智能都不能獲得成立;另一方面,如果通過(guò)了道義論的門(mén)檻檢驗(yàn),那么人工智能發(fā)展就可以基于功利要求尋求獲得肯定性支持。在具體問(wèn)題的抉擇以及具體條文的設(shè)計(jì)上,立法科學(xué)性要求立法者必須充分發(fā)揮好“在功利與道義之間”的立法技藝,從而實(shí)現(xiàn)功利與道義的雙贏(yíng)。
參考文獻(xiàn):
〔1〕龍衛(wèi)球.科技法迭代視角下的人工智能立法〔J〕.法商研究,2020,(1):59,65,65.
〔2〕John Cheney-Lippold. We Are Date: Algorithms and the Making of Our Digital Selves〔M〕. New York: New York University Press, 2017:244-268.
〔3〕約翰·塞爾.心靈導(dǎo)論〔M〕.徐英瑾,譯.上海:上海人民出版社,2019:108-193,64.
〔4〕夏妍娜,趙勝.中國(guó)制造2025:產(chǎn)業(yè)互聯(lián)網(wǎng)開(kāi)啟新工業(yè)革命〔M〕.北京:機(jī)械工業(yè)出版社,2016:146.
〔5〕H. L. A. Hart. The Concept of Law〔M〕. Oxford: Clarendon Press, 1994: 40.
〔6〕龍衛(wèi)球.人工智能立法的“技術(shù)-社會(huì)+經(jīng)濟(jì)”范式〔J〕.武漢大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2020,(1):68,69,72.
〔7〕王榮余.“機(jī)器人也是人”的法理拷問(wèn)〔J〕.社會(huì)科學(xué)動(dòng)態(tài),2019,(11):18-23.
〔8〕凱爾森.法與國(guó)家的一般理論〔M〕.沈宗靈,譯.北京:中國(guó)大百科全書(shū)出版社,1996:107.
〔9〕馮潔.人工智能體法律主體地位的法理反思〔J〕.東方法學(xué),2019,(4):43-54.
〔10〕王榮余.重訪(fǎng)法律制度主義:新舊之別與異同之辨〔J〕.學(xué)術(shù)月刊,2020,(9):114.
〔11〕約翰·塞爾.人類(lèi)文明的結(jié)構(gòu):社會(huì)世界的構(gòu)造〔M〕.文學(xué)評(píng),盈俐,譯.北京:中國(guó)人民大學(xué)出版社,2014:44-64.
〔12〕 Joseph Raz. The Authority of Law: Essays on Law and Morality〔M〕. Oxford: Oxford University Press, 1979:10.
〔13〕 Lon L. Fuller. The Morality of Law〔M〕. New Haven: Yale University Press, 1969: 46-91.
〔14〕德萊夫.后果主義〔M〕.余露,譯.北京:華夏出版社,2016:2,179-180.
〔15〕張曦.后果主義與道德約束〔J〕.倫理學(xué)研究,2014,(4):15.
〔16〕杰里米·邊沁.政府片論〔M〕.沈叔平,譯.北京:商務(wù)印書(shū)館,1995:92.
〔17〕潘銘方.人工智能:從規(guī)劃邁向立法〔J〕.電子知識(shí)產(chǎn)權(quán),2018,(4):85.
〔18〕弗蘭克納.倫理學(xué)〔M〕.關(guān)鍵,譯.北京:三聯(lián)書(shū)店,1987:28.
〔19〕康德.道德形而上學(xué)原理〔M〕.苗力田,譯.上海:上海人民出版社,2018:72.
〔20〕張曦.“道義論約束”與“行動(dòng)者中心”進(jìn)路〔J〕.哲學(xué)動(dòng)態(tài),2014,(3):64.
〔21〕方毅.功利論與道義論的對(duì)立及其超越〔J〕.學(xué)術(shù)交流,2008,(8):21.
〔22〕徐向東.自我、他人與道德:道德哲學(xué)導(dǎo)論〔M〕.北京:商務(wù)印書(shū)館,2016:357.
〔23〕張曦.理解道義論:“犧牲者中心”進(jìn)路與人的道德地位〔J〕.道德與文明,2014,(1):41-48.
〔24〕溫德?tīng)枴ぐ瑐?道德機(jī)器〔M〕.王小紅,等,譯.北京:北京大學(xué)出版社,2017:188.
〔25〕馬長(zhǎng)山.人工智能的社會(huì)風(fēng)險(xiǎn)及其法律規(guī)制〔J〕.法律科學(xué),2018,(6):49.
〔26〕詹姆斯·巴拉特.我們最后的發(fā)明:人工智能與人類(lèi)時(shí)代的終結(jié)〔M〕.閭佳,譯.北京:電子工業(yè)出版社,2016:239.
〔27〕司曉,曹建峰.論人工智能的民事責(zé)任:以自動(dòng)駕駛汽車(chē)和智能機(jī)器人為切入點(diǎn)〔J〕.法律科學(xué),2017,(5):169-170.
〔28〕李晟.人工智能的立法回應(yīng):挑戰(zhàn)與對(duì)策〔J〕.地方立法研究,2019,(5):65,68.
〔29〕趙汀陽(yáng).人工智能“革命”的“近憂(yōu)”與“遠(yuǎn)慮”:一種倫理學(xué)和存在論的分析〔J〕.哲學(xué)動(dòng)態(tài),2018,(4):8,10.
〔30〕汪太賢.權(quán)利泛化與現(xiàn)代人的權(quán)利生存〔J〕.法學(xué)研究,2014,(1):7-9.
〔31〕黃濤.主體性時(shí)代的權(quán)利理論〔J〕.法制與社會(huì)發(fā)展,2019,(1):52.
〔32〕鄭戈.在鼓勵(lì)創(chuàng)新與保護(hù)人權(quán)之間:法律如何回應(yīng)大數(shù)據(jù)技術(shù)革新的挑戰(zhàn)〔J〕.探索與爭(zhēng)鳴,2016,(7):79.
〔33〕 Isaac Asimov. Runaround〔M〕. New York: Doubleday, 1950: 40.
〔34〕皮埃羅·斯加魯菲.人工智能的本質(zhì):人工智能與機(jī)器人領(lǐng)域的64個(gè)大問(wèn)題〔M〕.任莉,譯.北京:人民郵電大學(xué)出版社,2017:23.
〔35〕喬治·扎卡達(dá)基斯.人類(lèi)的終極命運(yùn):從舊石器到人工智能的未來(lái)〔M〕.陳朝,譯.北京:中信出版社,2017:276.
〔36〕陳景輝.人工智能的法律挑戰(zhàn):應(yīng)該從哪里開(kāi)始?〔J〕.比較法研究,2018,(5):144.
〔37〕約翰·韋弗.機(jī)器人也是人:人工智能時(shí)代的法律〔M〕.鄭志峰,譯.臺(tái)北:元照出版公司,2018:中文序言.
〔38〕武雪健.人工智能立法的海外狀況及難點(diǎn)分析〔J〕.互聯(lián)網(wǎng)經(jīng)濟(jì),2019,(4):49.
〔39〕鄭戈.如何為人工智能立法〔J〕.檢察風(fēng)云,2018,(7):17.
〔40〕李振林.人工智能刑事立法圖景〔J〕.華南師范大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2018,(6):130-133.
〔41〕鄭戈.人工智能與法律的未來(lái)〔J〕.探索與爭(zhēng)鳴,2017,(10):81.
Between Deontology and Utilitarianism:
The Scientificity of Chinas Artificial Intelligence Legislation
WANG Rongyu
Abstract: The challenges coming from Artificial Intelligence technology have the features of both Deontology and Utilitarianism, which requires that the lawmakers on Artificial Intelligence should go beyond the modern Techno-Economism pattern and turn to a new pattern which stands “between Deontology and Utilitarianism”, so as to guide and safeguard a scientific legislation of AI. The constrains of Deontology set the basic requirement that AI should be tested by Deontology firstly and then turned into utilitarian considerations, otherwise it will not work. Specifically, Artificial Intelligence legislation should focus on the Deontology challenges coming from the issues of Security, Right and Humanity, and then make a legislation choice to encourage, to support and to guide during all the stages of researches, exploitations and applications. In addition, it should be managed and supervised supported by the AI evaluation before, in and after. At the matter of special issues, scientific Artificial Intelligence legislation requires legislators to make a balance legislation between Deontology and Utilitarianism so as to acquire win-win results.
Key words: Artificial Intelligence; scientific legislation; Deontology; Utilitarianism
(責(zé)任編輯:陳艷艷)
保留英文單位