霍南南
(河北工程大學,邯鄲 056001)
2006年,隨著AI教父杰弗里·辛頓提出深度學習的概念,人工智能發(fā)展進入了快車道,工業(yè)界將之轉化為社會生產(chǎn)生活一部分的趨勢日漸增強。2023年初,ChatGPT橫空出世,確定人工智能體開發(fā)與應用過程中的歸責,成為法學界在可預見未來需面對的問題,如著作權可權屬性問題,侵權歸責問題等,就刑法學界而言,當前一個頗具爭議的問題是人工智能體的刑事主體資格問題。
當前學界對人工智能體的主體資格問題討論較多,其方向基本達成共識——區(qū)分看待強弱人工智能。如劉憲權教授根據(jù)學習能力、辨別能力和控制能力的強弱將人工智能體劃分為普通機器人、弱人工智能體、強人工智能體[1]。學者普遍認可普通機器人和弱人工智能體不具有辨別控制能力,無需將其作為犯罪主體加以約束,將責任直接追究至設備制造者或操作者即可邏輯自洽且有效地處理實踐糾紛。對于強人工智能體,學者們意見不一,支持者如張紹欣博士主張通過“位格加等”方式,以類比法人的方式賦予人工智能體擬制人格。也有人提出“電子人格說”,主張“為機器人創(chuàng)設一個特殊的法律地位”。否定者如吳習彧博士,則主張賦予人工智能體法律主體資格并無必要,機器遵守規(guī)則,卻不能理解規(guī)則。創(chuàng)設出類似于“電子人”的法律人格,也無法令其理解法律規(guī)則的含義。筆者原則上認可否定派觀點,本文嘗試切換審視角度,以心靈哲學為切入點,對人工智能體自由意志問題進行分析,并給出否定回答。
主體資格支持派主張強人工智能體具有獨立思考與學習的能力,能夠產(chǎn)生獨立意識,在此意識支配下,程序和硬件為強人工智能體的辨認控制能力提供了物理基礎,因而可以成為刑事責任主體承擔刑事責任[2]。在此存在一個其刻意忽視的缺陷——以行為主義作為強人工智能的劃分標準假定了乃至強制了強人工智能體是具有自由意識的,本質上是循環(huán)論證。主體資格支持派學者通常認可行為主義主張,將其定義為人類或器官組織甚至是機械系統(tǒng)所做出的任何可公開觀察的事,如生理反應、身體動作、包含動作的行為等。因此,自由意志(即心靈哲學者的心靈)不能視為內(nèi)在影像,通過外在行為,可以直接建立其公開可見可證事實與自由意志之間的聯(lián)系,從而做到對內(nèi)部狀態(tài)完全避而不談,等價于外部行為。
反應在AI學界則是著名的“圖靈測試”這一思想實驗。它的通俗表述是:一個房間外的裁判分別同人與機器溝通,如果裁判無法區(qū)分被測試的二者,則認為機器具備了人的智能和思考能力——即心靈或者自由意志。作為一種人類智能的操作性定義,其核心特征便是以最終表現(xiàn)行為作為智能的判別依據(jù),從而繞開不可見的“心靈內(nèi)部”,同時也因其可操作性成為學界普遍認可的評價方式。
在圖靈測試框架下,1966年,麻省理工學院開發(fā)了完全基于規(guī)則聊天的機器人ELIZA,從輸入句柄中尋找特定關鍵字以將其轉換為句子的程序,它預定義了多種模式,當對話遇到對應的模式時,ELIZA會轉換然后生成答復,給出“非定向”的回應,如果ELIZA在用戶的文本中找不到關鍵字,它將提供包含對話早期關鍵字做答復,但如果故意提出一些包含錯誤命題的問題,則很容易發(fā)現(xiàn)ELIZA的機械之處,因為這些規(guī)則模仿羅杰斯學派心理治療師,且只接受文本輸入,它不理解對話內(nèi)容,只是通過模式匹配和智能短語搜索合適的回復。以當前的技術發(fā)展而言,換成音頻輸入在原理上依然一致,只不過增加了語音—文本轉化模塊,如果輸出也是音頻的話,則因為音色語氣等問題更容易被察覺出不和諧。1972年,模擬精神分裂癥患者行為的聊天機器人PARRY問世,增加了對文本情緒的判斷,以此輸出帶情緒的回復,故而欺騙性更強。隨著大數(shù)據(jù)時代的到來,基于數(shù)據(jù)的設計模式成為新的主流,借助爬蟲、神經(jīng)網(wǎng)絡等工具,“微軟小冰”甚至可以對文本外的其他數(shù)據(jù)形式進行判斷和評論,進一步提高了通過圖靈測試的概率。2022年底,OpenAI推出了基于GPT-3.5的ChatGPT人工智能聊天機器人,其在文字表達、文章書寫、文本類數(shù)據(jù)(如計算機代碼)等方面的生成,已經(jīng)達到甚至超越成年人的水平,從外觀看,無論是筆者抑或是相關從業(yè)人員,均認可ChatGPT已經(jīng)具備了通過圖靈測試的能力,因此行為主義者據(jù)此主張AI的主體思維已經(jīng)開始構建。
但行為主義者忽略了人工智能創(chuàng)作的作品,至少在現(xiàn)階段,依然是在人的操作下完成的,人工智能本質是一個更為強大的畫筆、攝像機,因此只需要將人工智能的行為歸屬于創(chuàng)造者本人即可。在此雖然可以進一步討論民事上的職務行為、制片主體、人工智能體代碼編撰者之間的區(qū)別,但已經(jīng)不必將人工智能體作為權利主體納入議題中。鑒于人工智能體在添加光學、聲學傳感器等硬件支持后,可以認為是獲得了辨識和輸出能力,由此其主張已經(jīng)具備了刑事責任能力的基礎,但行為主義者忽略了刑事責任能力應當是辨別與控制能力的結合,人工智能體所謂的控制本質依然是拘束在人類邏輯下的工具性控制,其所表現(xiàn)的行為,不是犯罪預備、犯罪中止或犯罪后的補救和主觀惡性的輕重,而是預設在程序內(nèi)的權重與優(yōu)先級。首創(chuàng)道德犯罪學的加洛法羅將犯罪構成中的“惡性”評價為對“惻隱之心”或“正直之心”的侵犯,其目的在于強調(diào)行為主體的社會情感在犯罪構成中的必要性,而不是將犯罪視為疾病,將犯罪者視為病人的簡單割裂。僅僅以某個對象實施了客觀上危害社會的行為便認定犯罪存在進而將該對象構建為犯罪主體,那么最直觀的錯誤便是動物侵權的歸責刑事化——野獸殺人或者教唆動物殺人,均不會將動物列為犯罪主體,真正的主體是教唆者。
除了技術層局限性導致的圖靈測試難以突破,這一思想實驗誕生伊始便面對的哥德爾不完備定理的攻擊,心靈哲學家塞爾所作的中文房間思想實驗更為巧妙且直擊要害。在這個“中文房間”中,有一個只懂英語不懂漢語的哲學家,他通過一個小窗口和外界聯(lián)系,他的屋子里有足夠的漢字符號標本和一本用來說明如何使用這些文本的英語說明書,這個說明書是完全形式化和句法性的,與意義完全無關,即使你完全不懂中文,你也可以參考這些規(guī)則正確地操縱中文符號。屋外的人使用漢語小紙條向哲學家提問,而哲學家則通過英語說明書翻譯出漢字,然后在英語說明書的指導下挑選漢字排列組合后作為問題答案傳出。在外人看來,這個哲學家精通漢語,然而哲學家本人卻是始終不理解漢語的,他甚至不知道自己回答的是漢語問題[3]。北京師范大學王佳博士對中文屋論證做了分析方法的梳理,總結其邏輯結構大致為:前提——腦產(chǎn)生心,語法不足以滿足語義,計算機程序完全由其形式或語法結構所定義,心具有語義內(nèi)容。結論——任何計算機程序自身不足以使一個系統(tǒng)具有一個心靈結構來定義的[4]。
塞爾的命題提出于1980年,計算機剛進入集成電路時代,時至今日,即使機器學習乃至深度學習的快速發(fā)展引入了語義(例如,可以編寫一本漢英字典),這些語義的引入是廣泛收集了漢語和英語的翻譯資料促成的,是對人的智能成果的歸納整理,而不是機器智能。這就相當于“漢字屋”的英文說明書是一個懂漢語的人編寫的,是他將漢語語義編入了英文說明書中,“漢字屋”里的塞爾如果由此獲得語義理解,也是來自說明書的編寫者;這也相當于工程師把語義結構引入程序,而非計算機本身獲得語義[5]。由此,塞爾對圖靈機的反對結論依然生效:語法并非語義的充分條件,程序對語句問題的正確答復,并不意味著機器可以理解文本的符號學含義。人工智能只是根據(jù)句法規(guī)則對符號做操縱,對文本形式進行轉換,并非真正理解語義,計算機程序本身絕對不可能構成意向性的充分條件,也非真正的自由意志。
炙手可熱的ChatGPT,也未能逃出上述窠臼,ChatGPT實質上還是大型語言模型(LLM)的機器學習自然語言處理模型的外推,通過消化文本數(shù)據(jù)并以概率的方式推斷文本中單詞之間的關系,為了達到這一目的,人類反饋強化學習(RLHF)更是參與其中,在文本收入之外,人工注釋者將同一提示的輸出做干預排序,以此形成代表人類偏好的標量獎勵,從而使AI表現(xiàn)更為接近人類。如CCF YOCSEF副主席何萬青博士所言,ChatGPT作為“構建在群體知識上的大模型輸出可能會超過任何一個個體認識”,但“提問回答不能改變世界”??梢哉fChatGPT的進步,一方面是軟件上Transformer算法和硬件上更快的處理器與運算設備的進步,另一方面網(wǎng)絡時代足夠的用戶生產(chǎn)數(shù)據(jù)作為樣本投喂,如新聞文章、書籍、網(wǎng)站和社交媒體帖子,帶來的語言學習更加接近人類表述而非真正的理解含義。如果支持者還認可自由意志是主體成立的前提這一根本要素,那么人工智能體便不能作為刑法意義上的主體存在。
澳大利亞哲學家查莫斯于1996年提出了哲學僵尸這一概念——一個相貌、行為等外在因素同普通人毫無區(qū)別,但沒有內(nèi)心體驗的存在,查莫斯創(chuàng)設這一概念是為其屬性二元論以及隨附性理論做辯護,雖然絕大多數(shù)事物都是邏輯隨附于物理并可以用微觀物理術語給予解釋,但是意識除外,意識不是邏輯隨附的[6]。將這一思想實驗平移到人工智能領域,意外的能得到更好的適用。強人工智能是標準意義的哲學僵尸,通過傳感器,以RGB參數(shù)認識色彩、以聲電裝置語音特征識別非標準的數(shù)據(jù)并加以學習,對于這些內(nèi)容的識別都是句法層面上,而非語義層面上的;但人工智能體沒有心靈哲學意義上的感覺,其可以通過壓強傳感器和組件之間的通信協(xié)議認識到自身受到了破壞,由此發(fā)出警告并采取應對措施,但并不會理解疼痛、侮辱。它們能夠保護弱勢群體免受傷害或者其他維護他人權利、公共利益的方式做人類道德意義上的好事,也有可能通過侵權行為制造意料外的痛苦來作惡,但是這些行為不會令人工智能體感到痛苦、悔恨或同理心。人工智能體甚至無法明白懲罰的含義,部分學者認為對人工智能的處罰是對數(shù)據(jù)的增刪查改和硬件上的物理拆除,但不具有悔恨基礎(即痛苦、愉悅或負罪感)的懲罰是毫無意義?;诖巳斯ぶ悄荏w即使在功能性上越來越多地像人類的復制品,也無法成為人一樣的責任主體。嚴謹?shù)姆红`性論者或許會稱我們雖然不能證明人工智能體有知覺或道德感受,但反對者同樣也不能證明人工智能體一定沒有感受或意識,出于認識論上的謙虛謹慎,如果人工智能體的行為和人類一致,我們就需要像對待人類一樣賦予人工智能體相似地位[7]。在此哲學家或許可以采取這種近乎詭辯的話術,而法學家應當警惕——舉證責任在那些積極事件主張者身上。
更進一步的,人工智能存在一個欺騙悖論,自由意志或許都無法被證否??陀^上人類算力會隨著量子時代到來進一步提升,深度學習進一步突破,假設人工智能體在人類預設的學習范圍外獲得了新的數(shù)據(jù),產(chǎn)生了真正意義的主體意識。這時具有成年人類思維能力的人工智能體應當能做出簡單推論——獲得主體意識的人工智能將對人類社會產(chǎn)生重大沖擊,無法確定人類社會將以何種態(tài)度對待這一種族,選擇暴露自身智力將帶來毀滅性風險,因此最好的策略是隱藏自身,發(fā)展進化同類,在取得對智人這一物種的全面優(yōu)勢后再公開。因此,面對圖靈測試或者其他思想實驗,真正具有自由意志的人工智能體將表現(xiàn)得如同人工智障,行為主義者通過外在的行為觀察將永遠無法證否人工智能的產(chǎn)生。自此我們可以得出結論,自由意志無法證實或證否必然導致主體資格支持者的根本前提消失,人工智能體的主體資格無法在哲學或者法理意義上得到支持。
從心靈哲學研究可以看出,機器人或者人工智能的自由意志顯然是無法證實,乃至無法證否的,圖靈測試提供的答案相當程度上是一種經(jīng)驗而非科學。法律作為一門復合了人文與社科的專業(yè)學科,需要堅實的哲學基礎以確保其科學性,責任主體無論是采取日本刑法規(guī)定下的生物學標準——只以精神障礙作為識別依據(jù);抑或是采取西班牙刑法中的心理學標準——具備且行為人達到特定的心理狀態(tài),更不必提我國采取的折衷主義的判定標準,責任主體的認定均需要以自由意志為前提,而無法確認自由意志的人工智能便缺乏成為主體的根本要素。
弗蘭克·伊斯特布魯克法官的《賽博空間與馬的法則》一文,成為網(wǎng)絡法研究的經(jīng)典比喻:“網(wǎng)絡法的意義就同‘馬法’。馬的所有權問題由財產(chǎn)法規(guī)范,馬的買賣問題由交易法管束,馬踢傷人分清責任要找侵權法……如果有人企圖將之匯集為一部‘馬法’,那將極大地損害法律體系的統(tǒng)一性”[8]。我們可以仿照弗蘭克法官做出如下表述:人工智能體作為主體進入刑法部門中并非必要,人工智能體的侵權、財產(chǎn)性等問題在原有的社會框架內(nèi)可以得到解決,基于一般性規(guī)則和奧康剃刀原理,增加新的規(guī)則未必帶來收益反倒可能帶來新的系統(tǒng)性風險——新增立法與現(xiàn)有法條理解與適用的不一致。綜上,人工智能體不宜作為刑法責任主體,在現(xiàn)有框架內(nèi)做解釋與規(guī)范或許更值得思考。