劉艷紅
內容摘要:人工智能技術熱潮的再度興起,使得人工智能法學研究空前繁盛,但當前研究出現了違反人類智力常識的反智化現象。概念附會現象嚴重,不少成果只是基于“AI+法律”的任意性組合,“泛人工智能化”研究正在產生大量學術泡沫;制造人工智能研究中的“假問題”或誤將司法適用問題當作人工智能法學研究中的元問題,理論創(chuàng)新方向值得懷疑;將對策與科技問題當作理論與學術問題,離開法教義學的基本立場與方法,使得人工智能的研究日益滑向不可知論。人工智能并未對法律基礎理論、法學基本教義提出挑戰(zhàn),受到挑戰(zhàn)的只是如何將傳統(tǒng)知識適用于新的場景。法學研究應該避免盲目跟風,走出對人工智能體的崇拜,回歸學術研究的理性軌道。
關鍵詞:人工智能法學 反智化 法教義學
中國分類號:DF05? 文獻標識碼:A? 文章編號:1674-4039-(2019)05-0119-126
20世紀七八十年代,人們曾一度對人工智能的研究充滿熱情,但隨著真正有用的AI法律程序未能面世,這種熱情被漫長的挫敗感沖淡。而如今人工智能技術再次“引起了越來越多的興奮和焦慮……涉及人工智能的未來圖像在大眾媒體中日益流行”。〔1 〕在這種氛圍的籠罩下,我國法學理論和實務界也對人工智能(機器人)保持著巨大的好奇,對法律引導人工智能發(fā)展的技藝充滿著強烈的自信。不可否認,為包括人工智能在內的一切技術問題設計法律規(guī)則,是法律人不可推卸的時代使命,因而這種研究風潮是“法學作為致用之學”的當然表現,一切“熱衷”似無可厚非。但也正因為法學研究本應具有觀照現實的特性,這要求我們時刻注意合理選擇參與前沿技術討論的現實契入點,在正確理解人工智能技術應用場景的前提下確定法學研究的問題意識,避免盲目追求“時髦”的學術虛假繁榮。以刑法學為例,或許得益于國家《新一代人工智能發(fā)展規(guī)劃》的政策信號,本領域內的研究成果從2017年開始呈現爆炸式增長,“人工智能刑事責任論”等儼然成為最為耀眼的知識增長點。面對席卷而來的人工智能法律問題的法學研究,面對“定分止爭”的法律本性,不得不讓人產生懷疑:法律學者們是否已經找到了規(guī)制AI技術發(fā)展的理性方向?當前的熱烈研究究竟能走多遠,它究竟只是“先一哄而上再一哄而散”還是能夠持續(xù)到強人工智能到來之日?空前興盛的人工智能法學是否積累了有助于學科發(fā)展的智識,抑或僅僅是法學理論工作者們?yōu)榱俗粉櫉狳c并出于各自目的比如引用率高低等而亦步亦趨的“學術秀”?對此,筆者將審視當下人工智能法學研究的格局及其問題,并在此基礎上就其發(fā)展進路談幾點看法。
當前法學界存在無處不在的“人工智能+”,在人工智能的大招牌之下開啟了各個論域的話題研討新模式。究竟什么才是人工智能?學者們所言的人工智能只是借用了一個似是而非的流行語以吸引閱讀興趣,還是它確實挑戰(zhàn)了千百年形成的法律知識體系?通過觀察可以發(fā)現,人工智能其實并沒有取得如此巨大的飛躍,一些所謂的“人工智能法學”研究題目僅僅是在“順勢包裝、借殼上市”,這種“盛名之下,其實難副”的概念附會已經吹起了不少學術泡沫。
人類最初在制造計算機之時就已幻想能夠研發(fā)出會思考的機器,那時人們無法給予它一個特定的可理解的準確稱謂,因而便將之命名為“Artificial Intelligence”,簡稱AI,以表明其不同于人類自然智慧的人工智慧。迄今為之,科學家們也給它撰寫過不同的定義,甚至用各種思想實驗如著名的圖靈測試、中文房間理論等驗證這種人工智能存在與否。筆者不想詳細列舉這些定義,事實上關于計算機科學、哲學、法學等學科內的很多基礎概念都沒有取得過一致的意見?;蛟S如美國最高法院大法官斯圖爾特曾說的那樣,我們難以成功描述這些概念如無法定義什么是淫穢物品,但“當看到它時我就知道了”?!? 〕然而,當人們因自身的不求甚解而誤解研究對象時,準確提煉出相關概念的核心要素就顯得十分必要,畢竟不同定義之間還存在著相當的共識。整體而言,人工智能概念核心要素自20世紀50年代產生以來就是恒定的,人們尚沒有超脫對AI的原始認知——像人類一樣理性地思考和行動。這并不是說人工智能系統(tǒng)的智力水平與人類持平,事實上人類在很多方面也早已大大超越了這個目標,而是涉及一些像人類一樣能夠“自主的選擇和決定:自我管理”?!白灾骰蜃灾危ㄔ醋韵ED語auto:自我,nomos:法律)與自動化不同,自動化是指由一臺機器不斷重復一個過程。自主則要求……AI可以作出自我的選擇,即便它在作決定時與人類有過互動”?!? 〕可以說,“機器是否具有自動化”是一種外部信號反射式的事實判斷,而“機器是否具有自主性”則還涉及自然科學之外的關于機器是否具有自我意志和自我行動能力的“(類)人性”判斷。有鑒于此,有學者認為一個可被稱為“智能”的實體應至少具有五個基本構成屬性:①溝通交流能力,即能夠與人類或其他物種相互動,這并不單單代表著智商水平而是一種社會交際潛能;②內部知識,即對自身的認知,它等于“自我意識”,一個有智慧的實體應該知道自己的存在、自己以某種方式運作、將自己融入現實等;③外部知識,即關于外部世界和真正現實的數據收集分析能力,這是人類累積生活經驗的方式,也是人類學習的方式,如果把任何事件一次又一次地當作全新的,那么就很難表現得像一個有智慧的實體;④目標驅動行為,這指的是一種意圖,它制定和執(zhí)行計劃來實現相關目的;⑤創(chuàng)造能力,即指找到新的理解或行為方式的能力,反復嘗試完全相同的行為并不是創(chuàng)造力的表現?!? 〕所以,真正的人工智能是極為復雜的,認定條件也頗為苛刻,這些定義標準限制了概念上的泛人工智能化。
反觀我國法學界,很多學者常常將人工智能要求的“自主性”與尋常的“機械自動化”相互混淆。例如,致力于人工智能法學研究的學者大多以“機器人傷人事件”等為起點,比如2015年德國大眾汽車制造車間內發(fā)生的所謂“首起機器人殺人案”。但是,本案中產生故障的機器人只是普通機械設施,它根本沒有獨立思考的能力,它之所以會殺死這名工人,是因為觸發(fā)了該設備的自動處理程序;它只是自動化的普通機器,遠沒有達到所謂人工智能的水平。與無處不在的生產責任事故相比,該事件也沒有本質不同,無非該設備的自動化系統(tǒng)更為精密而已。如果說這也能夠成為人工智能法學研究的問題來源,那么可能早在工業(yè)革命推廣開來之時就該去研究“人工智能”了,或許農業(yè)社會耕田的拖拉機傷人也該劃入人工智能法律問題的話題范圍了。生活經驗常識告訴我們,任何機器都會存在風險,即便一把毫無自動性的菜刀在人類不當使用時也會劃傷手指。以所謂的“機器人殺人案”導出人工智能的發(fā)展風險,進而得出應追究人工智能之物法律責任的觀點,〔5 〕是對人工智能根本性的誤解和非常低級性的錯誤。那些討論對機器人追究刑事責任的學者可能忘記了刑罰的功能,“在判處刑罰的情況下,法官對再犯罪可能性的預測不可能是絕對準確的,犯罪人的行為態(tài)度、規(guī)范意識等也是不斷變化的,因此,刑法特別規(guī)定了減刑制度與假釋制度”?!? 〕針對機器人,這些刑罰制度顯然沒有任何意義,刑罰的報應或者預防目的也都無從實現。
再如,銀行的自動取款機是為了節(jié)省人工成本而發(fā)明的旨在引導人們從銀行自助取款的機器,雖然它也被叫作“自動柜員機”,但它只是銀行人類柜員的一種替代設施,它只有自動化而沒有自主性。但是,有學者在人工智能中討論利用拾得或盜竊他人銀行卡在ATM機上取款等案件的處理,將之歸入“人工智能作為侵財對象的侵財犯罪”,并以此提出了“人工智能時代侵財犯罪刑法適用的困境”問題。事實是,中國第一臺ATM機早在1987年就已經啟用,它與人工智能之間沒有絲毫關系?!巴ㄟ^ATM機實施侵財犯罪”“機器能否被騙”等話題根本不用借助于所謂的人工智能就已被討論過了,當法學重要期刊上的論文將ATM機、手機銀行、支付寶第三方支付平臺等統(tǒng)統(tǒng)納入人工智能范疇時,恰恰表明概念附會的嚴重性已經到了讓人失去底線的地步。果真如此,我們這個人口大國的人工智能普及率早已世界遙遙領先。ATM機、手機銀行、支付寶等可能會出現系統(tǒng)故障,但它們并沒有社會溝通能力、創(chuàng)造能力,它們也沒有自主性;我們對它們的應用再熟悉不過,常識告訴我們,這種研究正是泛人工智能化的突出表現。
綜上可見,我國人工智能法學研究中存在著明顯的概念附會,將不屬于人工智能的研究對象強行貼上人工智能的標簽,相關研究演變?yōu)椤癆I+法律”的任意性組合,不少研究者只是打著人工智能的旗號攫取話語權、提升自我身價,法學家們一夜之間變成了人工智能專家,仿佛讓自然科學家都望塵莫及。這種“泛人工智能化”不是真正的學術研究,而是制造學術泡沫。
“問題意識”是一個常談常新的話題,提出正確的問題是任何研究過程的開端,如果沒有針對真實的問題進行討論,即使論述再精妙、方法再多樣、觀點再前衛(wèi)、著述再等身,都只是徒有一身浮華的外表,根本不具有任何實際意義。當前法學研究中,應特別注意甄別“偽問題”。尤其在“亂花漸欲迷人眼”的人工智能領域,問題意識更具有欺瞞性,一些法學家似乎總能夠發(fā)現連科學家都難以察覺的“宇宙級難題”,可靜心觀察就會發(fā)現不少問題的討論意義僅僅在于占領了更多期刊版面而已,所謂的理論創(chuàng)新可能只是一場空歡喜。
其一,不斷制造、跟風、放大“假問題”,導致法學研究誤以人工智能發(fā)展中的夸張、炒作、娛樂為前提。我國人工智能法學研究主要始于學者們對人工智能技術的各種憂患意識:人工智能的發(fā)展前景不可限量,必然會出現具有自我意志的(超)強人工智能,人工智能甚至可能會取代人類、機器算法會取代人類法律;人工智能引發(fā)的風險足以產生毀滅性打擊,因而主張法律甚至刑法應積極應對和規(guī)制人工智能的發(fā)展,等等。這種“居安思危”“未雨綢繆”的精神確實讓人感佩,可是這些憂慮只是依靠無數假想拼湊起來的幻影,只是在用別人的“噱頭”嚇唬自己。
例如,世界上第一個獲得公民資格的表情機器人索菲亞,在2017年10月被沙特阿拉伯授予公民身份之后,尤其它曾在與設計者漢森的對話中冒出一句“我想毀滅人類”,法學家們開始變得躁動不安。不少學者將索菲亞的公民身份作為一種AI技術發(fā)展的國家制度回應,視之為AI挑戰(zhàn)現行法律體系的范例以及檢驗某個法律人格理論是否合格的試金石,認為法律若不承認機器人的法律主體地位就不能滿足這種社會現實。然而,索菲亞早已遭到包括人工智能科學家在內的各方觀察者的極大懷疑:“索菲亞之于AI,就像變戲法的之于真正的魔法,我們把它稱作‘AI崇拜‘假冒AI或者‘遠程操控AI可能比較好。” 〔7 〕所謂具有公民身份的索菲亞不過是一個公關噱頭而已,而不是人性、尊嚴或人格的展現?!啊詫傩缘乃鞣苼喚烤鼓芟碛心男嗬?,還真不好說。因為在事發(fā)地點沙特,女性連單獨駕駛權都未得到法律認可?!?〔8 〕對于這樣一個女性只配擁有有限權利的國家來說,索菲亞更像是一個營銷玩物。這種以國家權力為支撐的機器人營銷策略淡化了沙特在婦女權利方面的不光彩記錄,其實索菲亞主要的新穎性在于身體和面部表情,而不是它的會話方式、主體認知或智能程度,“當以真實的人類互動標準來衡量時,它便倉皇失措、‘智商不在線”?!? 〕其實,類似于索菲亞的人形機器人在世界范圍內還有很多,它們之所以不被人們津津樂道,是因為它們的包裝實力不及索菲亞。〔10 〕AI技術的擁護者李開復曾公開評論,索菲亞“絲毫沒有人性、人的理解、愛心、創(chuàng)造力。授予這樣一臺只會模式識別的機器‘公民,是對人類最大的羞辱和誤導。一個國家用這種嘩眾取寵的方式來推進人工智能科研,只會適得其反”?!?1 〕既然人們對于索菲亞之于人工智能發(fā)展的意義遠沒有形成共識,我們更沒有必要放大索菲亞等類似機器人對現有法律體系的影響,索菲亞的所謂“公民身份”是國家、企業(yè)、新聞媒體等各方利益的聯合演出,它既與沙特本國的法制傳統(tǒng)相齟齬,也受到了AI專業(yè)科學家的批評。因此,法學家完全沒有必要從索菲亞那里獲得什么問題意識,也不必為它的公民身份感到欣喜或恐慌,由索菲亞引出的人工智能法律人格問題是個徹底的偽問題,沒有任何法制建構和法學研究上的借鑒性;那些經由公民機器人的誕生而產生的將索菲亞“修壞了會被追究法律責任嗎?把‘她拆解其不等同于謀殺?” 〔12 〕等問題,正是偽人工智能法學問題的典型代表。
其二,將司法適用/使用問題作為人工智能法學的“元問題”,“AI樂觀主義+法律工具主義”盛行,從而不甄別真風險真挑戰(zhàn)、陷于表象式研究氛圍。當前的研究主要集中于兩個方面:一是推進司法人工智能以提升“智慧司法”乃至“智慧法治”,克服人類裁判思維的片面與恣意;二是探究人工智能對傳統(tǒng)法律權利義務的挑戰(zhàn),最終落腳于人工智能的司法處遇如“人工智能創(chuàng)生成內容”的著作權保護、自動駕駛致人損傷的刑事責任等情形。如果將研究對象限定在弱人工智能,則不僅AI的作用有限,而且它對法律體系的挑戰(zhàn)也十分微弱,以人類為中心的現有法制系統(tǒng)仍具有頑強的適應力;如果將研究對象拓展至強人工智能,則不僅完全跨越了時代,而且忽視了一系列尚未深入討論的前提性問題。
如前所述,當前的“司法人工智能”只是提高司法工作效率的便利工具,如語音輸入取代書記員電腦打字記錄、裁判文書上網以及自動識別搜索等,這種變化與書記員告別古老的手寫記錄沒有實質區(qū)別,其他應用如海量判例篩選、輔助量刑規(guī)范化、電子取證技術 〔13 〕等至多屬于增強同案同判等人類司法智慧的AI。當我們質疑人類恣意時,也更有理由懷疑這些系統(tǒng)研發(fā)者會借著算法黑箱寫入法學家的偏見、科學家的武斷、企業(yè)的經濟利益等,它們仍無法擺脫商業(yè)、政治、強勢價值觀等力量操控,這種“算法歧視”已經在多種領域出現,使得人們對這種由于尖端技術導致的不公正性的救濟難度將直線上升。因此,當前司法人工智能實際仍停留在“為何要用”的原始階段,當類似元問題沒有得到充分討論而徑直將其樂觀地投入司法使用,那么所謂的智慧司法將會引出更多棘手的法治難題,對于“法律AI”大可不必亦不能急于求成。
再如,著作權法保護的客體是“作品”即文學、藝術或科學領域內的獨創(chuàng)性表達,即“只有具備相應獨創(chuàng)性的智力創(chuàng)作成果才可成為著作權客體,受著作權法保護”。〔14 〕“人工智能生成內容”的生產過程并不屬于創(chuàng)作、不符合獨創(chuàng)性要求,不是著作權法中的作品,所謂“人工智能生產內容”的著作權保護就成為一個偽問題,不能以此否認現有法律的應對能力?!白髌贰痹从讵毩⒌摹€性化的思想創(chuàng)作,是某種情感、審美的表達,計算機軟件可能具有越超人類大腦的某些組合能力,但最關鍵的是它缺少人類之間的共情心、同理心而完全根據算法、模板機械生成結果,沒有發(fā)揮智力創(chuàng)作的空間。比如機器所寫的詩只是利用了內部詞庫和一些文字搭配技巧,它根本無法理解愛情、童趣、寂寞、悲憫等詩歌創(chuàng)作內在思想,甚至它呈現出來那堆文字(在其內部是一堆數字代碼)連詩歌的皮囊都沒有,也注定不會得到文化上的流傳。人工智能不能改變著作權法中“作品”的構成要件,對這種毫無創(chuàng)造情境、毫無智力活動的“生成內容”進行著作權保護毫無必要,更不能承認機器的著作權主體資格,否則人工智能將率先在藝術創(chuàng)作上嚴重沖擊人類文明理念,這才是人們最需要擔憂的。事實上,即便當下熱議的法律大數據與人工智能在司法場景的應用,也還只是停留在宏觀層面概述,根本還未深化到具體的細分領域?!?5 〕所以,與其說“新技術、新風險對司法適用提出新挑戰(zhàn)”,毋寧說是不假思索的命題套路。法學研究應該走出對AI的“貨物崇拜”,〔16 〕回歸學術研究的理性軌道,研究法律領域的真問題。
人工智能只是無數新技術發(fā)展背景下的某一個領域,法教義卻是法學研究不可拋棄的立場和方法,當下對人工智能法律問題的研究停留在對策論,離開法教義學的精耕細作和理論共識探討必將使人工智能法律問題研究難以沉淀。
每個部門法都存在問題性研究和體系性研究,前者以解決個別問題為導向,后者則以各種原則、規(guī)則的體系推進為導向,兩者在整體知識系統(tǒng)內相輔相成,共同保證法律制度對實踐問題的適應性和穩(wěn)定性。如前所述,人工智能法學研究興起的原因是研究者認為法律對AI問題的應對能力不足,因而這首先是問題性研究;同時,研究者提供的解決方案如賦予人工智能法律主體地位等均是對現有體系的突破,因而也就天然犧牲了體系性。概言之,人工智能法學研究的現狀是問題性研究林立、體系性研究闕如。雖然法學不能像自然科學那樣建立起嚴密的公式體系,但法教義如同公式一樣,提供了邏輯關系建立起來的知識體系,保證了各部分知識之間的兼容性,按照這些公式體系來完成判斷可以節(jié)省大量審查精力?!?7 〕體系性研究的這種優(yōu)勢蕩然無存,會導致我國法學研究轉型中的所謂知識創(chuàng)新實際上走向了“回頭路”:對策論優(yōu)先。法學家的對策論與國家制度層面的政策論共用一套邏輯,它特別看重的是法律工具主義,當失去了體系性研究之后,這種對策論容易違背原理、拋棄原則、顛覆法秩序,產生的不是工具理性而是“工具不理性”。
人工智能法學研究中對策論的極端表現就是主張賦予人工智能法律人格,甚至人工智能可以作為獨立的犯罪主體存在,這是一種“以新(立法)制新(問題)”的路徑,往往僅僅是就事論事、毫無體系。例如,權利義務能力是定義法律主體的唯一標準,但人工智能在權利義務中根本不可能實現統(tǒng)一性原則。即便人工智能享有了著作權等呼聲較高的權利,但它當其研發(fā)者、使用者將AI創(chuàng)作物據為己有時,AI是否能夠就發(fā)表權、署名權的救濟獨立提起民事訴訟?除此之外,它還能擁有哪些權利?智能機器人有無數個種類,程序也極為復雜,如何判斷某些AI具備而某些不具備權利能力?研發(fā)者、使用者為自身之目的對人工智能運行程序進行刪改時,是否也要經過AI的同意?他們對這些智能產品還能不能夠享有“物”權?這都是牽一發(fā)動全身的問題。在義務能力上,當AI致人損害而產生責任時,它如何承擔賠償責任?法學家目前設想的方案是像機動車強制保險那樣為人工智能進行投?;蛟O置某種基金,但這種責任仍然是人類的財產責任而不是AI的獨立責任。因此,“主張人工智能具有主體資格……不具有現實性意義”,〔18 〕人工智能達到權利義務相統(tǒng)一的法教義要求幾乎不可能,體系性思考的缺失只會顧此失彼、不可能拼湊出一個法律上的新主體。
再如,斷言人工智能可以承擔刑事責任的觀點根本違背了人類制定刑法的目的理性。刑法教義學對刑罰的認知是:“刑罰作為國家對犯罪行為的否定評價與對犯罪人的譴責的一種最嚴厲的形式,當然地對犯罪人具有身體的、精神的、財產的剝奪性、限制性痛苦”?!?9 〕不少刑法學者對人工智能承擔刑罰責任念念不舍,可這種所謂的“刑罰”根本就不可能成為一種“痛苦”,不可能實現對AI犯罪的預防效果。首先,諸如刪除數據、修改程序、徹底銷毀等手段根本談不上任何“譴責性”,這些手段早已在當今暢通無阻。電子產品售后服務中心對出售的產品進行數據程序的刪減、替換、修正或者按照用戶意愿進行置換、報廢是無比尋常的維修方案,這何曾需要以它們構成犯罪主體為前提,這些維修手段的正當性根據只在于技術有效性——以“能修好”為標準。人類對自由刑、死刑的痛苦感是來自天然的肉體和心理上的,機器人的痛苦感則來自于人的設計而非其自身,它沒有痛感;在這一點上AI連一只有觸覺的螞蟻都不如。因此,人類為AI設計的“刑罰”根本不具有任何刑罰的屬性。其次,正因為刑罰屬于最嚴厲的制裁措施,人類更加注重法治國刑法的最后手段性、謙抑性、法益保護輔助性?!?0 〕除刑法之外還有道德規(guī)范、倫理規(guī)范以及其他前置法,如諸多風化犯罪之所以受到質疑正是因為相關行為屬于純粹道德或倫理調整范圍。法學家從來沒有考慮過人類是否能夠為機器人成功搭建起道德或倫理的規(guī)范體系,而只是簡單粗暴地動用刑罰,面對人工智能等高端技術時總是如此急不可耐;法學家似乎也沒有注意到,上述那些所謂的刑罰方式其實單純依靠官方或非官方的AI技術管理規(guī)范就能夠順利實現,這些技術指南只需要針對AI研制者、使用者等人類主體即可??梢哉f,以上問題的很多部分根本就不是“對法律的挑戰(zhàn)”,〔21 〕人工智能并未對法律基礎理論、基本法學教義提出挑戰(zhàn),受到挑戰(zhàn)的只是如何將傳統(tǒng)知識適用于新的場景,如技術的發(fā)展如何影響人類自身的注意義務等。
迄今為止,人們沒有放棄過對法律風險預防功能等問題的迷戀,很多措施如刑罰前置化、抽象危險犯、行政犯的增設等或許還能被理解,畢竟它們針對的都是人類行為,至少這種立法客觀上會引起一些自然人或單位的心理威懾?!?2 〕但若將法律的預防功能指向不知何年何月才會出現的“假想主體”,則根本錯解了預防主義,一如英明睿智的秦皇漢武也不可能以“展望未來”的姿態(tài)為醉酒駕駛機動車的立法浪費筆墨,這與他們的想象力無關而是由于這一時代根本不存在這種“定分止爭”的需求。更值得指出的是,很多法律人自以為富有遠見卓識、想象力豐富,可是他們是否想過:強人工智能的整體智慧高于人類且又擁有自主意識、行動自如,那么這種比人類高一等級的物種屆時還會接受今日法學家的方案嗎?縱然今日設計了無比完美的框架,可是那時人類將失去框定人工智能的資質,那時反倒是“人工智能在思考如何為人類立法”,所以,“冥想式的法學研究”里充滿著神奇的悖論,人工智能法學的愿景可能是一場空。
法學不是玄學、不是科幻主義,也容不得太多不切實際的浪漫情結。如果說“我們即將迎來人工智能時代”、自主思考的強人工智能就在“明天”,那么我們離這個“明天”究竟有多近?連科學家都不知道這個“奇點”何時來臨,法學家又具有何種特異功能參透AI的未來禪機?對人工智能相關事務的法律規(guī)制尚需要我們積累更多的生活樣本,創(chuàng)建一些只適用于遙遠未來的理論、制定一些只沉睡在法典里的條文將比當前的“象征性立法” 〔23 〕更加浪費資源,因為這種“立而不用”是名副其實的“空談”。研究者總是相信AI技術的強大遠非常人想象,那么是否有朝一日人類也會發(fā)現智力超群的外星人?或者基因技術也會讓科幻電影里的鋼鐵俠變成能獨立思考、會說話的真正人類?如果法學家總是秉著“寧可信其有”“未雨要綢繆”的態(tài)度——反正也沒什么害處,那么我們現在是否也該為外星人、為鋼鐵俠去制定屬于它們的規(guī)則?如果法學家連如何將違法行為歸責為個人的問題都沒有參透,卻對人工智能是否擁有主題資格的問題喋喋不休,這不是在浪費學術資源又是什么?法律人若接連不斷地隨著人工智能等新潮科技一哄即上,那么他們也將隨著自然科學的挫敗或低落一哄而散,或許也將像三十年前那批AI研究先驅者一樣只愿承認自己是“計算機(法學)專家”而對“人工智能(法學)專家”的頭銜避之不及。當以異于常人的想象力從事法學研究時,研究者的判斷力也會一并“異于常人”:概念附會、偽問題替代真問題、政策論替代教義論等一系列現象表明,一貫理性的法律人也會丟掉人類智力本該堅守的常識,人工智能法學研究中的如此反智化現象,令人深思并需要警醒。