郭子涵
利維坦本是十七世紀著名的唯物主義哲學家和政治思想家托馬斯·霍布斯(以下簡稱霍布斯)在其經典著作《利維坦》中提出的政治思想,即將國家比作《圣經》中擁有巨大力量的巨獸“利維坦”,從而闡述其國家的起源和本質、主權學說以及政體等理論。在霍布斯看來,由于自然狀態(tài)中的高度不安全性,即“在沒有一個共同權力使大家懾服的時候,人們便處在所謂的戰(zhàn)爭狀態(tài)下……這種戰(zhàn)爭是每一個人對每個人的戰(zhàn)爭”[1]94-95,人類便以訂立社會契約的方式從自然狀態(tài)走入政治社會。契約的訂立賦予了國家一系列職能,其中最重要的職能是“為人民求得安全”[1]260。而在馬克思主義看來,國家本質上是一種“從社會中產生但又自居于社會之上并且日益同社會相異化的力量”[2],國家的重要職能就是對社會沖突的控制,只有在這種秩序中,一切的人類活動才能有序展開。因此,可以說,無論是為了安全還是為了秩序,國家都必須負起照看社會的職責。國家既要實現(xiàn)政治統(tǒng)治,也要實現(xiàn)社會職能,政治統(tǒng)治和社會職能是相輔相成的,“國家和這種職位都要履行以維護社會公共利益、處理社會公共事務為主要任務的社會職能”[3],因此對技術的監(jiān)管與控制也是國家職能的應有之義。
技術利維坦問題或數字利維坦問題是近代以來隨著科學技術的發(fā)展逐漸出現(xiàn)的一種技術侵害假說。在這種假說中,技術具有的自主性是引發(fā)技術侵害的重要原因。然而,什么是技術利維坦?什么意義上的技術利維坦才是問題?技術利維坦的主體是技術還是國家?這些問題當前還不具有一個統(tǒng)一的說法。筆者以為,學界對技術利維坦的理解實際上涉及了兩個方向的主題:其一是指技術使國家獲得了新的政治控制手段,從而產生了國家利維坦進化為技術利維坦的問題,技術“極易被國家俘獲用于社會控制和政治權力再生產,技術手段從而成為社會治理的重要工具”[4];其二是指技術由于智能化而具有了自主性,脫離了人類的控制,從而產生了技術自身成為利維坦的問題?!跋嘈偶夹g以某種方式擺脫了控制,獨立于人的指導而沿著自身進程前行”[5]10“人們逐漸成為算法的附庸,臣服于算法程序監(jiān)控之下”[6]。
雖然兩種技術利維坦都是關于技術侵害的重要角度,但是學者們卻相對忽視了另一種技術利維坦,即科學技術的供給主體科技公司以技術作為借口獲得了自主性,采取了違背公共利益的策略、行為,侵害公共利益。這種角度的技術利維坦問題實際上是算法權力問題。從這種侵害公共利益的風險形式入手,掌握算法的企業(yè)和組織利用技術優(yōu)勢,把控社會的信息及資源,引導政府的決策,形成了一種非國家力量的“準公權力”[7]??茖W技術本身具有了自主性的技術利維坦問題主要涉及對先進技術的監(jiān)管,而科技公司具有了自主性的技術利維坦問題則更多聚焦于對科技公司的監(jiān)管。
人類歷史上發(fā)生了四次工業(yè)革命,都極大地推動了生產力的發(fā)展,而技術進步則是工業(yè)革命的主要成果。但是前三次的工業(yè)革命主要都是生產力的發(fā)展問題,沒有涉及人類的自主性危機問題。然而,隨著第四次工業(yè)革命的推進,“全世界進入顛覆性變革新階段?!盵8]人工智能、大數據的廣泛應用,技術越來越智能化,人們對技術的依賴日漸加深,技術自主性以及建立在技術自主性基礎上的技術利維坦問題日漸成為一種理論關切。第四次工業(yè)革命具有智能化的特殊性質,對技術利維坦的形成有著直接的推動作用。這是因為智能化體現(xiàn)為機器具有相當程度的自我學習能力以及高于人類智能的傾向。
人類自主性面臨危機。從某種程度來說,這些負的外部性效應有著類似“失控”的風險。未來的人工智能不斷強化,“那些由我們制造出來的東西將會具備學習、適應、自我治愈,甚至是進化的能力”[9],人們可能向我們自己的造物低頭。在這樣的技術利維坦的風險下,人們的自由很可能失去。顯然,如果技術發(fā)展賦予相應主體自主性,那么擁有自主性的技術或科技公司就是國家應重點關注的監(jiān)管對象。因此,正確認識技術利維坦帶來的風險并合理應對就有著十分重要的意義。
人們對技術的需要是技術利維坦問題產生的基礎,但需要技術利維坦本身的原因則在于以技術監(jiān)管技術的趨勢。
人類對技術的控制存在弱化的傾向。由于技術原本是完全在人類控制之下的工具,因此歷史上長期沒有興起有關技術利維坦的擔心,工具是忠誠的,它沒有自由意志?!皩ψ约褐圃斐龅臇|西,人類還加以控制。這是常識?!盵5]21在過去很長的時期內,我們不僅能夠控制和運用已有工具,而且還會發(fā)明和創(chuàng)造新工具,推動科學技術的不斷發(fā)展。然而,考慮到人類自主性的問題,如今兩方面原因使得人們對技術的控制能力減弱了。
一方面,如前文所述,第四次工業(yè)革命中的人工智能技術擁有了“智能”,這是前所未有的事情。在第四次工業(yè)革命之前人類對技術的控制是有自由意志的人對無自由意志的物的控制,而在此之后人對技術的控制卻可能是有自由意志的人對同樣有自由意志的物的控制。當有自由意志的人對同樣有自由意志的物進行控制時,這種控制是不穩(wěn)固的,因為只有當人的自由意志高于物的自由意志才能實現(xiàn)控制,而當人的自由意志低于物的自由意志時,人可能反過來被物所控制。因此,人工智能對人存在僭越的可能。另一方面,隨著社會分工的不斷發(fā)展,公眾對技術的了解已經越來越少。因此,在技術知識掌握的意義上,“我們了解、判斷或控制技術工具的能力衰退了,失控顯而易見?!盵5]25我們需要技術而又不夠了解技術,這就為技術的自主性提供了前提條件。
在社會治理的過程中,利益相關方的共同參與對于治理實踐有著巨大的促進作用。這種利益相關方共同參與的治理實踐就是“協(xié)商政治”,“協(xié)商政治有效運作的動力來自不斷擴大、不斷制度化的多元與多向的參與”[10],因此在協(xié)商政治中,社會利益相關方的積極參與是基本動力。在一國政治發(fā)展中,應該推動參與“合力”的形成[11]。在我國的社會治理實踐中,堅持黨的領導與公民的積極參與能夠為這種合力的形成提供動力。因此,在堅持黨的領導的根本前提下,政治制度和政治安排要盡可能為公眾參與提供便利。
技術智能化對政治民主有著正反兩個方面的影響。技術既能在政治參與意義上促進民主,也能在算法支配下操控民主。技術智能化對政治民主的積極意義主要體現(xiàn)在兩方面:一是擴大政治參與的數量和范圍,二是提高政治參與的質量和水平。人們可以通過網絡實現(xiàn)更廣泛的政治參與,而不用像原來一樣受限于因時間成本和空間有限而產生的代議制民主,也就是說直接民主越來越成為可能?;ヂ?lián)網等科學技術可以在政治參與中發(fā)揮橋梁與紐帶的作用,使分散的人們普遍聯(lián)系起來。在提高民主以及政治參與質量方面,“民主制度可以通過技術改進來保證合理而智慧的公共選擇,從而把偏好加總的民主轉變?yōu)橹R加權的民主?!盵12]也就是說,借助技術,民主將可能不僅在形式上得到增進,也將在實質上更符合人們的切身利益,增進“理性選擇”,這將是一種可能的“智慧民主”。這種智慧民主在克服人性缺點上有其獨特的優(yōu)勢。顯然,在理想狀況下,更好的民主不僅僅是可欲的,更是可能的,技術在實現(xiàn)這類追求的過程中有著重要的促進作用。但是,智能化技術存在操縱民主的可能性,其負面影響將在技術利維坦的供給側詳盡論述。
由于智能化是第四次工業(yè)革命的重要特征,而這種技術的智能化對應了人的自主性的下降,這表現(xiàn)為人們在政治參與和社會治理過程中自主性也在下降,因此在政治生活和社會治理的過程中,避免智能化等技術對國家和社會的不利影響成為重要的現(xiàn)實問題,而這就催生了對技術進行監(jiān)管的需求。
隨著機器學習的不斷進步,哪怕是技術的開發(fā)者也不知道技術何以得出的答案,因此技術的自我學習就成了一個黑箱?!八惴ǖ哪康暮鸵鈭D是什么,包括編輯的目標;誰開發(fā)和控制這些算法;誰對這些內容負責;最終產品在發(fā)表前是否有人類編輯閱覽?!盵13]在這個黑箱中,技術自我學習、演化。甚至當人類試圖理解其得出的答案時,技術由于自我學習更新或更改了答案。這就導致人類對于智能化技術得出的結論的理解永遠趕不上其得出結論并在新的學習中對結論進行更改的腳步。如何應對這種監(jiān)管難題?答案就在于技術。顯然,人工方式已經趕不上機器的自我學習速度了,只有通過研發(fā)對應技術來進行技術監(jiān)管才能實現(xiàn)對智能化技術的監(jiān)管。這種監(jiān)管技術只有掌握先進科學技術的科技公司才有條件生產,因此對技術監(jiān)管的需要就成為對技術利維坦的需要。同時,政府想要真正實現(xiàn)對科技公司的監(jiān)管就需要將自身技術化,以此來適應這種監(jiān)管技術的發(fā)展。“推動技術工具與科層組織的深度融合與雙重再造?!盵14]國家技術化后,對科技公司的監(jiān)管就更加充分,在此基礎上探索以技術監(jiān)管技術的模式。雖然用技術監(jiān)管技術無法在邏輯上徹底解決智能化技術的監(jiān)管難題,卻是一種具有可行性的應對方式,有助于緩解智能化技術監(jiān)管問題的困境。
從供給側來說,科技公司是智能技術的供給主體,因此對科技公司的監(jiān)管應當成為技術監(jiān)管的重要內容之一,這主要由兩方面原因導致的:一方面,技術智能化本身就是重大的監(jiān)管難題;另一方面,技術的智能化搭配大數據技術的應用產生了對人們參與社會治理的不利影響,也就是說對智能化技術的監(jiān)管以及明確技術開發(fā)者的意圖是技術監(jiān)管的關鍵。
技術智能化提高了科技公司的自主性。首先,由于科技公司集中于創(chuàng)新領域,而在這些領域監(jiān)管和制度可能不夠健全,這就給科技公司帶來了自主性。與此同時,由于科技公司往往在自我利益最大化的動機下行事,因此這種自主性是帶有風險的。科技公司固然有創(chuàng)新的動力,卻也有違背公共利益而為自身利益服務的動力。
其次,對先進科技的掌握使其獲得較為重要的地位。智能化的先進技術很多是由科技公司提供的,在特定領域中,這種對技術的理解更深入的優(yōu)勢就成了其話語權的優(yōu)勢?!凹夹g創(chuàng)新水平高的企業(yè)在國家標準制定中的話語權更大?!盵15]技術能力越強,科技公司就在行業(yè)標準制定等方面擁有更大的話語權,因此其自主性由于這種地位也相應提高了。
再次,科技公司在政府鼓勵創(chuàng)新的條件下具有了更高的自主性。在轉型時期,中國政府的定位更多表現(xiàn)為“政府在一些職能領域的退出,或一些職能的削弱正是市場和社會成長的一個必然結果”[16]。由于改革開放以來始終強調市場的積極作用,中國政府在一些領域的職能有所收縮,以此來給市場中的主體創(chuàng)造一個相對寬松的政策環(huán)境。在這樣的宏觀政策背景下,科技公司作為社會主義市場經濟主體中的一員,擁有了相當程度的自主性。
最后,科技公司有著雄厚的物質基礎,這也加強了其自身的自主性。由于科技公司往往掌握大量先進的科學技術,其通過先進技術應用于經濟領域獲得了巨額的收益、利潤。因此,其物質力量基礎較為雄厚,經濟基礎的改善使其自主性得到了顯著提升。
從先進技術的供給側來看,科技公司及其算法權力對于政治民主可能有著不利的影響。這是因為,科技公司的利益并不必然與公共利益相一致,其利益最大化的動機下可能對公眾產生特定的影響,這種影響在較弱的時候表現(xiàn)為“助推”,在較強的時候表現(xiàn)為“操縱”。助推是一種功能,這種功能利用人們的認知局限、偏見和習慣影響人們的判斷、選擇和行為[17]。顯然,無論是算法本身還是科技公司,即使其算法權力沒有達到徹底控制公眾的地步,也有很大可能對公眾進行助推從而達到其自身目的。
科技公司研發(fā)的算法往往為其自身利益尤其是經濟利益服務,這就對公眾的自主性產生了侵害。人工智能技術的進步背后是算法的進步,而算法進步的背后是高等數學等基礎理論的發(fā)展和突破。“算法的核心就是按照設定程序運行以期獲得理想結果的一套指令?!盵18]如果沿著算法的道路走得太遠,會有諸多的問題出現(xiàn),例如,算法甚至可以使公眾在由自己的意志編織起來的“信息繭房”中背離事實,削弱其理性判斷力,從而實現(xiàn)對公眾的意識操縱[19]。
從“數據”到“大數據”,不僅僅是數量上的差別,更是數據質量的提升[20]。由于大數據的真正優(yōu)勢不僅在于數據的規(guī)模大,更在于對多元數據類型的匯聚和處理方式。同樣的數據在經過算法這種特定的排列組合后,能夠產生與先前完全不同的作用。因此,在人工智能、大數據的干預下,人們的選擇很可能遠不是自由狀態(tài)下的選擇,而是一種受控狀態(tài)下的選擇。羅伯特·達爾(以下簡稱達爾)在《論民主》中提出的民主過程的五條標準中就包括了“充分的知情權”和“對議程的最終控制”兩項。達爾認為“如果違背了任何一個條件,成員將不再是政治上平等的”[21]。但是在技術干預的條件下,無論是充分的知情權還是對議程的最終控制都受到不同程度的影響。大數據選擇性的推送影響著人們的知情權,同時由于算法的影響,人們對最終議程的控制也只是停留在了名義上,技術的分析結論是最終的、更可靠的決策依據。
在技術供給側,科技公司是重要主體。然而,“當平臺以算法為掩護,擁有了制定游戲規(guī)則的權限時,權力的結構必然發(fā)生變化。我們不應該再把機器算法預設為中立的技術手段,應對其保持警惕性。”[22]算法不是中立的,算法反映了技術開發(fā)人員、科技公司的偏好,這種狀況就使得對技術利維坦的監(jiān)管變?yōu)閷萍脊镜谋O(jiān)管。
事實上,第四次工業(yè)革命后的世界是一個技術無處不在的世界,人們想要擁有絕對的自主性事實上是不可能的。因此,自主性的重點應當為人類自主性,即用國家利維坦馴化技術利維坦的方式為人類整體保有自主性。國家利維坦想要對技術利維坦進行控制,就必然要用技術化的手段進行監(jiān)管,科技公司就在參與技術監(jiān)管的意義上成為治理技術利維坦的重要手段。因此,國家的監(jiān)管目標也就不再是虛無飄渺的技術,而將監(jiān)管的重點放在了科技公司。政府監(jiān)管科技公司,科技公司監(jiān)管技術,這樣就形成了一種可操作的模式,構建了對技術的間接監(jiān)管。除了明確監(jiān)管對象以外,國家還需要提升自身的監(jiān)管能力。在人工智能時代尚未完全展現(xiàn)其“猙容”之前,創(chuàng)新社會治理機制、完善社會保障體系,這可能是平衡技術創(chuàng)新與社會風險的最佳途徑[23]。顯然,新技術不斷發(fā)展,使得國家不僅要明確科技公司的重要責任地位,而且監(jiān)管體制也要相應進步才能真正實現(xiàn)對技術的監(jiān)管。
技術監(jiān)管涉及兩方面的問題:其一是對技術本身進行監(jiān)管,這表現(xiàn)在技術利維坦的需求側上,用技術監(jiān)管技術,技術監(jiān)管需要特定的監(jiān)管技術,而先進的監(jiān)管技術往往需要依靠第三方科技公司,因此用技術監(jiān)管技術的同時,對科技公司的監(jiān)管也是應有之義。其二是對科技公司的監(jiān)管。科技公司在經濟利益驅動下可能做出背離公共利益的行為,科技公司借助算法黑箱的借口使得自身逃避追責。
人本主義和技術對人的賦能是為了保證公民的自主性。科學技術不是為了替代人,而是為了服務人,因此技術要在賦能的意義上推動人的自主能力的發(fā)展。技術一方面要發(fā)揮其連接公眾的作用,為公眾參與提供便利途徑;另一方面法律層面要給公眾賦予特定權利,使得公眾參與對技術的治理和監(jiān)管常態(tài)化、制度化。
技術要在促進公民參與社會治理的意義上增加使用,而非在自動化決策的意義上徹底代替公眾進行判斷。“心智與道德的能力,跟體力一樣,只有運用才能得到增強……如果某項意見尚未為一個人的理性所信服就予以采納,那么他的理性非但不會因此有所增強,甚至還有可能被削弱。”[24]由于人類自身的認知能力必須在不斷的鍛煉中才能得到增強,因此減少人類自己的判斷就意味著人的判斷和認知能力的下降。因此,當涉及社會重大問題時,要明確人工介入,而非完全依靠自動化決策。
在對技術風險的治理中,民眾的監(jiān)督有著十分重要的意義。由于技術的廣泛性以及持續(xù)運用于社會治理的過程,因此只有對民眾進行賦權,讓民眾參與到監(jiān)管的過程中,才能實現(xiàn)對基礎的常態(tài)化監(jiān)管。“個人享有數據權利、增強數據獲取與分析的能力,既可增加與算法權力博弈的資本,也可對抗算法權力的侵害?!盵25]公民有權利和義務自發(fā)監(jiān)督技術應用的情況,并且及時向有關政府部門反映問題,進行公民層面的監(jiān)督。對民眾基本的數字權利的保障,有助于對技術進行常態(tài)化監(jiān)管。
在技術自主性方面的監(jiān)管問題上,用技術監(jiān)管技術是技術利維坦問題的需求側的邏輯結論。從科學技術的需求側來說,科技可能擴大政治參與并促進政治民主和社會治理,因此要支持科學技術的健康正常發(fā)展。但是,新技術發(fā)展可能導致算法操縱問題。因此當算法滲透和影響社會治理時,國家就要對技術發(fā)展的方向進行干預,修正出了問題的技術發(fā)展領域。這時候就面臨如何監(jiān)管技術的難題。由于智能化技術本身難以監(jiān)管,需要有先進的監(jiān)管技術進行監(jiān)管,因此就需要在監(jiān)管部門和第三方監(jiān)管兩個方面提升監(jiān)管能力。
國家監(jiān)管部門要提升自身的技術化水平,從而對技術進行有效的監(jiān)管。由于我國已經在數字政府層面有著大量的資金投入和技術建設,因此具有一定的基礎。接下來的重點在建立專門、專業(yè)的監(jiān)管部門,優(yōu)化技術手段,不斷提升自身處理復雜問題的能力。第三方監(jiān)管在技術監(jiān)管上有著十分重要的意義。在合作治理的前提下,第三方科技公司或組織有著專業(yè)的團隊和技術參與技術監(jiān)管,有助于提早發(fā)現(xiàn)技術或算法存在的問題并與政府共同應對技術監(jiān)管難題。在以上兩方面作用的合力之下,可以說是“技術責任制度專任化”[26],通過更高的專業(yè)水平來應對可能的技術風險。
從供給側角度來說,技術供給的主體是科技公司,因此對科技公司及其技術的算法進行監(jiān)管具有重要意義。多數學者在分析技術利維坦問題時,將抽象的而不是具體的技術作為控制的對象進行討論,從而在一定程度上忽視了技術的載體,而監(jiān)管的主要對象應為物質載體。我們不是在真空中進行討論,而是在物質實體的基礎上討論,對技術利維坦的監(jiān)管就可以體現(xiàn)在政治管理的意義上,對相應的企業(yè)主體進行監(jiān)管以及對具體技術背后的算法意圖進行監(jiān)管。
如果科技公司出現(xiàn)了明顯的壟斷化或者科技利益集團具有過度的自主性而侵害了公民的權利,阻礙了社會治理,政府的監(jiān)管就要及時介入,因此,這種監(jiān)管是一種事后監(jiān)管。出現(xiàn)特定社會問題后要通過對科技公司進行追責來實現(xiàn)監(jiān)管,這種監(jiān)管方式有助于科技公司明白自身負有的監(jiān)管義務,有助于督促其進行自查自糾,提早將技術風險與隱患處理掉,因此是一種不可或缺的監(jiān)管思路。
還有對自動化決策的意圖進行審查。由于技術的背后是算法,而算法的本質是一套指令,只要是實現(xiàn)特定目標的指令就必然具有特定的價值觀前提。因此,對算法進行審查,科技公司和技術開發(fā)者有義務將算法意圖進行明確的解釋,從而對可能侵犯公共利益的算法進行直接監(jiān)管和控制。因此,這種監(jiān)管方式是一種事前監(jiān)管,有助于在前提的意義上遏制技術風險,實現(xiàn)對技術的有效監(jiān)管。