亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        算法維度下人工智能嵌入治理的風險研判及政策因應(yīng)

        2020-12-09 05:25:43朱婉菁
        天津行政學院學報 2020年6期
        關(guān)鍵詞:治理人工智能

        摘 要:以算法為技術(shù)框架的人工智能變革了人類社會治理本身的運作模式?;谒惴ňS度進行審視,人工智能引發(fā)的治理范式邏輯轉(zhuǎn)向是以算法的治理與治理的算法為基礎(chǔ)向度,而這也是回答人工智能時代“治理什么”和“如何治理”的關(guān)鍵性問題。作為一項顛覆性技術(shù),人工智能不僅引發(fā)了治理范式的邏輯轉(zhuǎn)向,更形成了新的風險社會,突出表現(xiàn)為效率邏輯下治理人格的非自主性、深度學習驅(qū)動下治理方式的不可預(yù)測性、黑箱效應(yīng)下治理規(guī)則的不可解釋性以及個體微粒化下治理價值的不確定性。為了避免技術(shù)與制度的互動進入規(guī)則和意義上的“真空層”,基于風險研判之下作出的政策因應(yīng)不可或缺,這也為人工智能時代的治理轉(zhuǎn)型奠定了重要的制度基石。

        關(guān)鍵詞:人工智能;算法;治理;風險研判;政策因應(yīng)

        中圖分類號:D630 文獻標識碼:A? ? 文章編號:1008-7168(2020)06-0012-11

        一、引言

        雖然人工智能(Artificial Intelligence,AI)已經(jīng)成為一個人盡皆知的術(shù)語,但其概念定義廣泛且模糊,并未形成普遍的共識,從20世紀50年代最初的規(guī)則遵循系統(tǒng)到當代的基于概率的機器學習的各種技術(shù)都被涵蓋于其中。一般認為,1956年的美國達特茅斯會議(Dartmouth Conference)正式確立了人工智能這一術(shù)語,因此也被認為是人工智能誕生的標志。被譽為“人工智能之父”的阿蘭·圖靈(Alan Turing)在1950年提出的“圖靈測試”——如果人類可以與一臺機器對話且不能辨別出它的機器身份,那么可以稱這臺機器具有智能[1]——至今仍被業(yè)界奉為圭臬。圖靈意義上的人工智能是一種能夠演繹推理的機械化運作方式。隨著大數(shù)據(jù)技術(shù)的成熟和平臺框架的穩(wěn)定,近來的研究更趨向于將人工智能定義為建立在現(xiàn)代算法基礎(chǔ)上,以歷史數(shù)據(jù)為支撐,而形成的具有感知、推理、學習、決策等思維活動并能夠按照一定目標完成相應(yīng)行為的計算系統(tǒng)[2]。當前,人工智能研究者提出了三種有代表性的研究范式——符號主義、聯(lián)結(jié)主義以及行為主義[3]。也有學者按人工智能的聰慧等級將人工智能分為弱人工智能與強人工智能(當前強弱區(qū)分說已經(jīng)成為主流觀點)[4]。無論何種定義和劃分,人工智能的發(fā)展始終圍繞的主線是由數(shù)據(jù)驅(qū)動算法的不斷升級、優(yōu)化。一方面,智能革命無疑將給我們帶來一個更美好的社會,它是智能的、精細化和人性化的“最好時代”[5](p.319),從技術(shù)專家到科幻作者,從知識精英到社會大眾,均將人工智能視為人類迄今為止最具開放性、變革性的創(chuàng)新;另一方面,作為一項可以深刻改變世界但同時又難以準確預(yù)估其后果的顛覆性技術(shù),包括控制論提出者維納、已故著名科學家霍金、《人類簡史》作者赫拉利、特斯拉創(chuàng)始人馬斯克在內(nèi)的一大批有識之士都認為,人工智能的興起與快速演進,在為人們帶來極大便利的同時也隱藏著巨大的風險,會挑戰(zhàn)既有的社會價值觀甚至人類本身存在的價值。如霍金認為,人工智能崛起要么是人類歷史上最好的事,要么是最糟糕的事;人類須警惕人工智能發(fā)展的威脅,因為人工智能一旦脫離束縛,就會以不斷加速的狀態(tài)重新設(shè)計自身,而人類由于受到漫長的生物進化限制,將無法與之競爭[6]。

        事實上,早在20世紀,著名數(shù)學家?guī)鞝柼亍じ绲聽枺↘urt Godel)就從不完全性定理(Incompleteness Theorem)出發(fā)提出“人心勝過計算機”的論斷,“無論我們構(gòu)造出多么復(fù)雜的機器,只要它是機器,就都對應(yīng)于一個形式系統(tǒng),接著就能找到一個在該系統(tǒng)內(nèi)不可證的公式而使之受到哥德爾程序的打擊”[7]。時至今日,“人工智能是否會取代人類”的爭論依然存在,伴隨著商用人工智能的大范圍鋪設(shè),類似的爭論愈演愈烈。但事實上此類爭論并無太大意義,這不僅僅是因為當前人工智能技術(shù)發(fā)展依然面臨著諸多硬性瓶頸,更是因為對于人類社會的發(fā)展而言,重要的在于清楚地知道人工智能到底帶來了哪些革命性的顛覆。無論是將人工智能視為一種治理技術(shù),還是福柯筆下將其看作國家權(quán)力下的裝置(dispositif),審視其在公共領(lǐng)域與治理發(fā)生的“化學反應(yīng)”,是絕佳的透視窗口,其中包括治理范式的轉(zhuǎn)向以及由此帶來的價值變遷。而思考技術(shù)引發(fā)的風險下如何協(xié)調(diào)促進與規(guī)制人工智能發(fā)展的價值目標,以及如何設(shè)計人工智能時代的政策規(guī)范和風險因應(yīng)策略等問題,不僅涉及對傳統(tǒng)治理框架和制度的深刻反思,是對以“未來治理”問題為主旨的有益探索,更是推動人工智能同經(jīng)濟社會深度融合的前置性要件。

        二、人工智能嵌入治理引發(fā)的范式邏輯轉(zhuǎn)向

        人工智能在此次新冠肺炎疫情期間發(fā)揮的作用,悄無聲息地“驚艷”了我們。AI測溫、智能外呼、疫情問答機器人等技術(shù)的應(yīng)用大幅提升了政府精準做好疫情防控的成效。在北京地鐵AI口罩檢測方案中,百度飛槳(Paddle Paddle)①更是“一鳴驚人”,這是人工智能助力社會復(fù)工復(fù)產(chǎn)的典型例證。無論是從國家的戰(zhàn)略導向來看,還是從市場強大的商業(yè)邏輯出發(fā),都可以預(yù)見人工智能在治理領(lǐng)域的擴張。就目前弱人工智能的技術(shù)條件而言,也許并不會在形態(tài)上大規(guī)模出現(xiàn)機器人警察、機器人律師等這種科幻式的場景,但公眾已經(jīng)能夠在生活的方方面面直觀地感受到人工智能的巨大魅力。而這相當程度上要歸因于算法權(quán)力(algorithmic power)對于治理的引導乃至絕對控制以及人工智能隨之成為控制社會運行的重要主體[8]。以此為基礎(chǔ),當代社會的治理范式也發(fā)生了重要變遷。從歷時性看,中國最深刻的社會轉(zhuǎn)型發(fā)生在互聯(lián)網(wǎng)大行其道之時[9],而人工智能嵌入治理實際上要解決的是關(guān)于互聯(lián)網(wǎng)時代傳統(tǒng)信息傳播范式超載的危機[10],或者說是在以科層組織為載體的公共權(quán)力資源的衰微和技術(shù)治理強制性闡釋泛濫的契機之下。而算法作為技術(shù)架構(gòu)(technical infrastructure),自然決定了治理的方向和維度,也奠定了人工智能嵌入治理的范式基礎(chǔ)。這旋即可以體現(xiàn)為對兩個基本問題的解答,即算法的治理與治理的算法。事實上,這也是回答人工智能時代“治理什么”以及“如何治理”的關(guān)鍵性問題。

        第一,算法的治理。2019年1月22日晚,自媒體新聞實驗室一篇名為《搜索引擎百度已死》的文章刷屏網(wǎng)絡(luò)。文章指責百度搜索結(jié)果一半以上會指向百度自家產(chǎn)品,尤其是百家號,而百家號充斥著大量營銷和質(zhì)量低劣的內(nèi)容,這也導致百度搜索結(jié)果的內(nèi)容質(zhì)量大幅下滑[11]。實際上,百度搜索算法并不是第一次被推上輿論的風口浪尖,在2016年的“魏則西事件”中,百度信息推廣、競價排名機制就廣受詬病。這里涉及“自然搜索”的概念,具體是指搜索引擎根據(jù)自己的算法給予所有在它們索引數(shù)據(jù)庫中的網(wǎng)站,針對搜索關(guān)鍵詞而返回給用戶的搜索結(jié)果。在這里要講一件發(fā)生在美國的陳年舊事。2006年3月,美國家長咨詢網(wǎng)站KinderStart對谷歌提起法律訴訟,原因是谷歌改變了搜索排名方法,導致KinderStart網(wǎng)站在谷歌排名中一落千丈,網(wǎng)站的訪問量比上一年同期下降近70%,該公司獲得的收入也下滑80%。在KinderStart看來,谷歌將其列在搜索結(jié)果的最末端,造成網(wǎng)站的低流量,侵犯網(wǎng)站的“自由言論權(quán)”;而谷歌認為自己也有“自由言論權(quán)”,如何排名是它的合法權(quán)利。最終,法官站在了谷歌這一邊[12]。無論是對百度搜索的詬病還是對谷歌的起訴,問題的本質(zhì)都在于詰問算法是否具有自主的治理權(quán)力。自步入智能時代后,幾乎我們從事的所有事情都由算法決定。各種各樣的網(wǎng)絡(luò)服務(wù)商提供的平臺依靠它們獨特的算法規(guī)則,決定我們的決定,接受著我們大量的數(shù)據(jù),最終甚至比我們自己更了解自己。而當人工智能技術(shù)不斷成熟普及,算法權(quán)力也日益成為一種社會權(quán)力時,日趨緊迫的一個重要議題就是,算法的治理在多大程度上可以被廣泛接受。而這背后則必須要審視的是,人工智能是否具備英國技術(shù)哲學家大衛(wèi)·科林格里奇(David Collingridge)所說的三種根本屬性②。

        第二,治理的算法。2018年Facebook的數(shù)據(jù)泄露丑聞③帶來的消極影響至今仍然沒有完全消除。該公司通過分析5000多萬用戶的性格特征、價值取向、行為模式和人生經(jīng)歷等方面的數(shù)據(jù),對左派、右派和搖擺不定的人群進行精準的信息推送,使他們支持公司預(yù)定的總統(tǒng)候選人[13]。這也意味著,當選民認為自己行使了神圣的自由選舉權(quán)時,殊不知背后是被精準操縱了的“自由意志”。近幾年,不斷爆出的數(shù)據(jù)泄露事件讓大數(shù)據(jù)時代的隱私問題成為人們關(guān)注的焦點。但事實上,真正值得我們焦慮和擔憂的或許是,當我們高度依賴由算法支配的智能生活時,當我們讓渡了“識別性”而獲得便捷性和高效性的生活軌跡時,是否意味著我們的個體自主性正在逐步喪失?泛化這個案例所要面對的根本困境則是討論人類的主觀意識在多大程度可以被程式化,作為詮釋人類意志自主性的推理和判斷在多大程度上能夠被算法所取代。置于公共領(lǐng)域,這是一個治理算法化的問題。如果我們從法律領(lǐng)域出發(fā)來看待這個問題就比較容易理解,即法官的自由心證是否可以被人工智能所取代。這是步入人工智能時代后全社會所共同關(guān)心的議題之一。而我們討論治理的算法,真正關(guān)切的問題是算法能為治理做什么。這取決于我們對治理主體、價值、方式、手段等的理解,也取決于算法本身的發(fā)展狀態(tài)。

        三、人工智能嵌入治理的風險研判

        人工智能的發(fā)展涉及或引發(fā)了對一系列治理命題和公理的重新定義和改寫,這不僅僅在于人工智能的嵌入打破了治理賴以存在的“場域邏輯”,更重要的在于它改寫了整個社會的風險生成、流動以及轉(zhuǎn)移邏輯,在不斷地“解域”“跨域”“再域”的生成之“流”中,進一步嵌入并形成了新風險社會。這已經(jīng)溢出了烏爾里希·貝克(Ulrich Beck)的“現(xiàn)代性”的詮釋框架。當風險的階級邏輯逐漸下沉并彌散為無處不在的算法邏輯時,我們必須重新反思和研判人工智能時代的風險演化。這不僅重要而且緊迫,因為我們已經(jīng)無可避免地成為村上春樹在《海邊的卡夫卡》結(jié)尾所言道的,“一覺醒來時,你將成為新世界的一部分”[14](p.514)。

        (一)效率邏輯下治理人格的非自主性

        互聯(lián)網(wǎng)的發(fā)展歷史表明,網(wǎng)絡(luò)空間的生成和擴散可以被看成是一個由商業(yè)力量推動主導的生產(chǎn)性過程[15]。這個邏輯也同樣適用于人工智能的發(fā)展和應(yīng)用,而商業(yè)邏輯的一個永恒推動力則來自于效率的提升。自人類社會進入20世紀以來,效率與公平就一直是治理體系的核心價值,二者也維持了相對的平衡。但就人工智能在治理領(lǐng)域的應(yīng)用而言,效率導向始終占據(jù)著上風。而效率邏輯的“長驅(qū)直入”,不是因為效率和公平在主流價值觀中存在高下之分,而是因為對于人工智能而言,把握如何提高治理效率,遠要比去把握如何實現(xiàn)公平、正義更容易。而在效率邏輯驅(qū)動下的人工智能治理模式亦帶來深層次治理人格的突變。如果說,在農(nóng)業(yè)社會的統(tǒng)治型社會治理模式中,人的等級差別和權(quán)力關(guān)系造成了普遍的人格依附,近代社會政治生活因工業(yè)化產(chǎn)生的工具理性膜拜,幾乎祛除了公共領(lǐng)域的獨立人格,那么以算法和數(shù)據(jù)為統(tǒng)攝規(guī)則的智能社會,則以高度的精準性和客觀性剝奪了社會治理者的自主性。正是依賴算法的高度獨立性,??滤缘摹凹夹g(shù)的主體性”概念愈發(fā)清晰,這也印證了“技術(shù)并不僅僅是工具,或者不僅僅是達到目的的手段;相反,其是政治行動者,手段與目的密不可分”[2]。這個政治行動者,在效率邏輯的不斷驅(qū)動下,有著極強的動力以技術(shù)的迭代替代制度的更新,并能夠通過不斷增設(shè)專門機構(gòu)吸納技術(shù)嵌入,在短期內(nèi)大幅提升政府行為效率與體制效能。但長遠來看,層層增設(shè)的機構(gòu)和無處不在的人工智能監(jiān)控設(shè)施,可能使人的主動意識、理性精神、自覺擔當消失于無形,由此讓人逐漸促成一種機械服從人工智能安排的習性,人的社會性成為人工智能擠壓出來的副產(chǎn)品[16]。政府對人工智能的普遍應(yīng)用,如各式各樣的APP,在相當程度上造成了治理人員的技術(shù)依賴,那些依托個人情感和自由意志的治理經(jīng)驗和嫻熟技能已經(jīng)不再重要,理性、自由意志和個人情緒亦變得沒有必要。而不斷迭代升級的治理技術(shù),如人臉識別系統(tǒng),試圖用智能監(jiān)控替代公共安全制度,不僅蘊藏發(fā)酵著巨大的公共安全風險,而且缺乏人文關(guān)懷的管理也讓政府與公眾之間的距離愈發(fā)拉大。

        (二)深度學習驅(qū)動下治理方式的不可預(yù)測性

        人工智能的“黑箱”問題,即機器在完成某項任務(wù)時,它們是怎樣思考和決定的,其過程到底是什么,一直困惑著人們。而深度學習使這一問題越來越嚴重。原因是深度學習的機器涉及數(shù)以千計的人工神經(jīng)元,這些神經(jīng)元排列成數(shù)十甚至數(shù)百個錯綜復(fù)雜的互聯(lián)層。第一層的每個神經(jīng)元都會接收大量數(shù)據(jù)信息的輸入,進行復(fù)雜運算,并輸出新的信號,一層一層地向上傳送,最后產(chǎn)生整體輸出結(jié)果。人工智能與其他科學技術(shù)最大的不同就是它具有可以獨立完成預(yù)定任務(wù)的自主性。但是人工智能的這種自主行為與人類的決策和行動存在根本不同。具體而言,目前數(shù)據(jù)驅(qū)動的人工智能所使用的方法本質(zhì)上屬于分類、歸納、試錯等經(jīng)驗與反饋方法,在方法論上并不完備。機器翻譯、智能推薦、語音識別、情緒分析等看起來功效顯著,但高度依賴于以往的類似經(jīng)驗和人對數(shù)據(jù)的標注。正如谷歌的首席科學家諾維格(Peter Norvig)曾感嘆說:“我們沒有更好的算法,谷歌有的,只是更多的數(shù)據(jù)?!边@揭示了人工智能的本質(zhì)就在于數(shù)據(jù)的收集和利用,也是基于此才能得到較好深度學習的結(jié)果。但是羅素著名的“火雞問題”(Russells Turke)告訴我們:火雞可能觀察到1000天主人每天早上9點給它喂食的事實,但是在第1001天平安夜的早上,火雞沒有迎來喂食而是宰殺。對于一只火雞而言,1000天的數(shù)據(jù)收集已經(jīng)趨于完備,但是依舊無法跳脫“命運的偶然性”。深度學習驅(qū)動下人工智能的演化路徑有著極大的不確定性,其根源在于人類智能與人工智能存在本質(zhì)差別。盡管人工智能系統(tǒng)設(shè)計總是模仿人腦的工作方式,但是在限定的時間內(nèi),人工智能極有可能給出人類完全沒有考慮過的出人意料的解決方案,即一個通過合并算法和深度學習后得出的“最優(yōu)解”。但這樣的“最優(yōu)解”卻有可能并非是人類之福。最壞的結(jié)果是,人工智能走上了最糟糕的演化路徑,習得了人類排他性殘暴的一面,從而具有了奴役人類的動機[17]。例如,在災(zāi)害治理中,近年人工智能技術(shù)應(yīng)用于災(zāi)害救治成為一種必然的趨勢,但由于災(zāi)害情境的復(fù)雜性、動態(tài)性以及高度不確定等特點,若使用全自動智能機器人技術(shù)進行實時決策,將極有可能造成如經(jīng)典倫理學實驗“電車難題”中那樣進退維谷的困境,只是悲劇分配的選擇權(quán)從司機的手里轉(zhuǎn)到了人工智能也就是算法那里。依賴于深度學習驅(qū)動進化的人工智能治理極有可能導致人們在國家與社會系統(tǒng)性的疏離夾縫中更為艱難的處境。

        (三)黑箱效應(yīng)下治理規(guī)則的不可解釋性

        顯然,學習算法基于的大規(guī)模數(shù)據(jù)搜集、輸入并不能鞏固事件的確定性,人類社會業(yè)已存在的數(shù)據(jù)都存在明顯的滯后性和偶然性,難以指導對于當前和未來的預(yù)測或分析,特別是在那些不具有明確目標或者工作產(chǎn)出績效不明確的人類活動之中,這種滯后性和偶然性會帶來更大的問題。數(shù)據(jù)和算法的緊密依存將會導致未知的“黑箱效應(yīng)”,進而衍生出難以預(yù)估的安全風險[18],其中治理規(guī)則的不可解釋性便是自工業(yè)社會以來橫亙在人類面前的最大“困惑”。

        在當前的人工智能語境下,我們無意去判定人心與人工智能之間的高下之分,而是試圖去理解技術(shù)變革之下的人工智能所對應(yīng)的“形式系統(tǒng)”——一種新的社會形態(tài),而其中一個重要的觀察視角就是治理規(guī)則的嬗變。無疑,從效率導向出發(fā),人工智能在治理活動中具有廣闊的應(yīng)用前景,同時也變革了公眾的治理視界和認知模式,重構(gòu)了治理規(guī)則本身的形態(tài)。阿西莫夫“機器人三定律”(Three Laws of Robotics)④就是一個很好的探索[19]。雖然阿西莫夫的機器人三定律定義嚴密,邏輯層層遞進,特別是作為導引,在應(yīng)用到那些能夠同人類直接接觸并有可能造成身體傷害的智能產(chǎn)品上時具有充分的解釋力和可操作性,但當我們面對那些無形的算法評分、算法排序和算法決策時很難去確定,傷害到底是由什么造成的,更遑論獲知“暗箱”背后的操作規(guī)則。正如歷史學家尤瓦爾·赫拉利(Yuval Noah Harari)在《人類簡史》中所提道的,現(xiàn)在各大企業(yè)、機構(gòu)應(yīng)用人工智能和復(fù)雜的算法是必然趨勢。一般來說,算法會比人類職員表現(xiàn)更佳,但問題在于,如果算法里藏著某種不公,我們將很難察覺。如果你向銀行申請貸款,申請單通過算法處理而不是由人類審核,那么此時如果銀行拒絕給你貸款,你會問:“為什么?”銀行會說:“算法說不行?!钡阍賳枺骸盀槭裁此惴ㄕf不行?我哪里有問題?”銀行會說:“我們也不知道。沒有人知道這套算法背后的道理,總之就是一套先進機器學習的結(jié)果。我們相信我們的算法,所以不會貸款給你?!边@個場景背后的邏輯極有可能是未來社會運行規(guī)則的導向,而真正可怕之處并不在于目前所討論的某類“算法歧視”帶來的不公,而是這套規(guī)則體系將可能不會遇到任何挑戰(zhàn),因為它無從解釋,更加不可苛責。正如在英國女性乳腺癌篩查漏檢丑聞⑤中,關(guān)于算法錯誤究竟是怎么產(chǎn)生的,國家衛(wèi)生醫(yī)療系統(tǒng)(NHS) 、公共衛(wèi)生局(PHE) 以及負責軟件維護的日立咨詢公司三方互相踢皮球,然而最終結(jié)果很有可能是根據(jù)目前的法律體系無法給出定論。

        (四)個體微粒化下治理價值的不確定性

        當治理表現(xiàn)出更明顯的技術(shù)維度時,不同主體之間的強弱差距也更為明顯。從表面上看,這種強弱差距或者不平等似乎在于掌握了數(shù)據(jù)和數(shù)據(jù)解析工具的人相對于那些沒有掌握數(shù)據(jù)和數(shù)據(jù)解析工具的人擁有巨大的優(yōu)勢,而實質(zhì)上,數(shù)據(jù)解析對人的行為的過度“了解”,會對人形成一種看似精細實則往往似是而非的數(shù)據(jù)化或量化的刻板印象[20]。例如,在一家企業(yè)中,管理者可以輕易通過數(shù)據(jù)解析透視下屬的各種特質(zhì)、能力以及行為傾向,進而為成員匹配適合的崗位和職務(wù),人盡其才、各司其位看似是一個帕累托最優(yōu)的結(jié)局,但問題是組織成員上升進步的其它可能性因為“無所不知”被關(guān)閉。人類社會對公平的假定和追求正是進入羅爾斯的“無知之幕”后所設(shè)定的。無論是正義的社會分配方式,還是判斷特定道德問題正義與否,其必要條件和前提都是“你對自己將來會成為什么人一概不知”。但精準的數(shù)據(jù)解析和算法模擬撕裂了橫亙在人類面前的“無知之幕”,個體微?;腋叨瓤梢暬M一步帶來的是治理價值的“懸浮”和“混亂”。人類歷史上曾經(jīng)發(fā)生過對特定群體的歧視(如黑人或婦女),這些群體都可以找到反抗的理由和共同的集體,進而要求這個社會重新關(guān)注價值導向并進行糾偏。而個體微粒化下經(jīng)由算法“偽裝”的歧視帶來的卻是針對個人的未知歧視,也就是說你很難在這種“數(shù)字獨裁”下找到與自己有共同經(jīng)歷的同伴,反抗亦無從談起。

        當警務(wù)人員已經(jīng)根據(jù)算法對于再犯罪可能性的結(jié)果決定應(yīng)該釋放還是繼續(xù)監(jiān)禁在押囚犯,社會福利工作人員也在使用基于統(tǒng)計的方法為那些窮困的人提供標準化服務(wù)時,那些由于不可見的原因而被程序算法忽視的人又該怎么辦呢?我們可以看到兩大優(yōu)勢:一方面,國家將會公正地對待每個人;另一方面,“好”公民不必再為問題公民的錯誤行為提供補貼。每個人所得到的都與他自己的行為相稱。但這是一個優(yōu)勢,還是會將我們當前流行的公正理念攪得混亂不堪呢?相對于當前的體制,決定性的差異并不在于有多少人處于同一規(guī)則之下,而在于他們各自如何被理解。但是至少在當前的治理體制下,“我們?nèi)绾闻c這樣一種碎片化的公眾打交道”這一問題還沒有被完全解決。人工智能下的“社會測尺”在無時無刻地打量著每一個人,無論是技術(shù)決定論者還是社會建構(gòu)論者都具有的共識是,技術(shù)并非價值中立。誰也不知道這些程序算法的計算過程是不是公正或者公平的,這些程序算法在進行計算時是否有傾向性或者發(fā)生了扭曲。如果這些程序算法被認為是合法的,如何對其進行公正核查?所有的這些疑問都在無時無刻叩問人工智能時代的價值命題到底幾何。

        四、規(guī)制人工智能技術(shù)風險的政策因應(yīng)

        技術(shù)的信徒堅信人工智能將是人類歷史上最大的革命,“歸根到底,唯一跳出星球運轉(zhuǎn)的循環(huán)意義外的革命不是政治革命而是技術(shù)革命,因為只有它們才是不復(fù)返的。有了電流后就不再用蠟燭,有了汽輪船就不再用帆船。然而有了十月革命還是回到了東正教……”[21](p.23)。但是任誰都可以列出人工智能面臨的諸多問題和弊端,也許有人樂觀地認為人工智能永遠不會超越人類。但無論如何,自進入算法社會以來,即使是最保守的“新技術(shù)排斥者”,都無法擺脫大數(shù)據(jù)、算法以及人工智能的如影相隨。這幾年“機器換人”的概念愈演愈烈,已經(jīng)有學者預(yù)測出了未來10~15年內(nèi)365類工作被取代的概率,對此,有人惶恐有人欣喜,但這似乎已是一個不可逆轉(zhuǎn)的趨勢。由于技術(shù)的復(fù)雜性以及未知性,人類的未來充滿了不確定性,但這種不確定后果未必是毀滅性的風險。事實上,無論是具化的“機器換人”帶來的一系列的社會問題,還是人們害怕人工智能“黑箱”下更大的不公平,我們都可以把它們等同于某個領(lǐng)域的制度設(shè)計以及具體的治理方式問題。但即便如此,我們也不應(yīng)當簡單地將這些問題等同為人類在蒸汽時代、電氣時代、信息時代這三輪科技革命浪潮中所經(jīng)歷的轉(zhuǎn)型難題。

        當算法權(quán)力下的監(jiān)控和決策手段使公權(quán)力成為無法被問責的“黑箱”,當社會日益智能化卻也變得異常脆弱,當以往那些可以抗衡公權(quán)力的原則和價值極有可能為了換取技術(shù)的福音而被輕易拋棄時,在更深遠的意義上,治理者應(yīng)當思考的不是如何去限定一種技術(shù)的發(fā)展,而是如何重塑具體的規(guī)則以及做出正確的風險因應(yīng)策略。因為在被技術(shù)改變后的社會中,“我們所體驗到的那種無能為力并不是個人失敗的標志,而是反映出我們的制度無能為力。我們需要重構(gòu)我們曾經(jīng)有過的這些制度,或者建立新的制度”[22](p.15)。

        (一)更新“以人為中心”的治理主體意識

        在技術(shù)治理時代,造成效率邏輯更為強大的原因,并不僅僅是人工智能難以把握類似公平、正義、民主等價值,更關(guān)鍵的在于這類涉及人們基本常識和思維方式的道德價值觀念,目前還遠未在人類社會中形成廣泛且成熟的共識,甚至在不同價值理論之間存在難以消弭的內(nèi)在矛盾和沖突。以平等為例,在人類自身都還未有自證或者完全澄清平等的內(nèi)涵和作為普遍權(quán)利的前提下,我們卻不得不開始思考相伴人工智能革命而生的一系列問題。就公共領(lǐng)域而言,最為關(guān)注的議題之一就是機器人與人類的主體地位平等問題。在未來,擬人態(tài)機器人進入我們的生活成為必然,當我們必須接受算法統(tǒng)攝下的人工智能成為新的甚至是主要的治理主體時,更應(yīng)當在深層次加強對認知的解釋與構(gòu)建[23],其中對主體性地位的認識和構(gòu)建是關(guān)鍵。作為至今仍然是人工智能領(lǐng)域不可忽視的問題,圖靈與哲學家路德維?!ぞS特根斯坦(Ludwig Wittgenstein)關(guān)于“機器是否能夠思維”的爭辯,將迎來一種全新的視角——從“如何讓機器擁有人一樣的思維”到“如何讓人工智能更好地服務(wù)于人類”,這個背后不是技術(shù)狂熱者的“烏托邦”,或者執(zhí)迷于科技與心智較量的最終答案,而是為了人類更好的生存,最終形成“以人為中心”的社會智能體。

        而涉及關(guān)于治理主體意識的更新,并不是簡單地將人工智能納入現(xiàn)有的治理體系之中,給予其相應(yīng)的法律地位,而是要進一步解決人工智能技術(shù)發(fā)展的定位問題以及重申“人”的主體性地位,進而使人類真正認識到,“激情、熱情是人強烈追求自己的對象的本質(zhì)力量”[24](p.211)?!皺C器換人”拉開了強人工智能時代勞動者主體性危機的序幕,但目前我們已經(jīng)逐步確立了這樣一種共識:保護人,而不是保護工作。據(jù)此,我們也應(yīng)當在智能技術(shù)迅猛更新迭代的進程中逐步確立對主體性地位新的認識,“我們可以知道的比我們所知的更多,即我們執(zhí)行的許多任務(wù)都依賴于難以編碼化和自動化的默會知識、直觀性知識”[25]。換言之,伴隨人類優(yōu)勢遞減的趨勢不可逆轉(zhuǎn),人類最終將不得不接受自我進化、發(fā)展的責任,“不再有任何對人做出先驗性規(guī)定的因素存在,每個人都可以根據(jù)自己的行為和行動去理解和認識人們的身份和社會角色,每個人都通過自己的行為和行動去獲得自己的身份和社會角色”[26](p.41)。

        (二)完善相互構(gòu)嵌的風險預(yù)防與控制模式

        首先我們應(yīng)當意識到風險預(yù)防與風險控制在操作規(guī)則和目的上并不一致。風險控制很大程度上是為了盡可能減少技術(shù)普遍應(yīng)用所帶來的顯性或隱性的危害和損失,而風險預(yù)防則是為了最大程度杜絕風險性事件的發(fā)生。技術(shù)是把“雙刃劍”,其中所包含的風險往往具有不確定性和遲滯性。當一種新技術(shù)對社會的影響在科學上尚無定論的時候,如果這種影響有可能是負面的、巨大的和不可逆轉(zhuǎn)的,決策者就應(yīng)該假定它會造成這種影響,并據(jù)此來制定相關(guān)政策和法律,這就是“風險預(yù)防原則”。在邏輯上,如果將風險預(yù)防理解為先期目標,那么風險控制就是兜底原則。當科林格里奇困境的技術(shù)難題在人工智能時代愈發(fā)凸顯時,完善相互構(gòu)嵌的風險預(yù)防與控制模式的緊迫性前所未有。從根本上來說,就是要求人類在推廣和使用技術(shù)的過程中,充分考慮潛在的風險,并確保技術(shù)的開發(fā)者對于每一項風險有著充分的可改正能力和應(yīng)急措施。特別是企業(yè)作為科技創(chuàng)新的主體,在“成本—收益”考量下進行的技術(shù)開發(fā)應(yīng)當更強調(diào)基于風險評估原則而履行監(jiān)管職責。政府則應(yīng)當在加強自主創(chuàng)新戰(zhàn)略下,在安全且符合法律要求的范圍內(nèi),盡可能為公眾提供參與全過程規(guī)則制定的機會。當然,其前提是通過推動數(shù)據(jù)標準化、公開相關(guān)信息文件等方式幫助公眾識別風險,并建設(shè)服務(wù)平臺以供技術(shù)使用者反饋相應(yīng)問題以及接收建議。事實上,完善人工智能時代基于風險分配的社會政策以及保障體系,才是促發(fā)相關(guān)責任主體增強風險防范意識,并保障企業(yè)在技術(shù)開發(fā)過程中始終避免資本的單項驅(qū)動而秉持“科技向善”原則的基礎(chǔ)。

        當前學界已經(jīng)掀起了針對目前的弱人工智能以及未來強人工智能實際應(yīng)用的預(yù)測性及相關(guān)法律規(guī)制的研究熱潮,對于“奇點”之后的超人工智能會造成什么樣的顛覆性后果的思考亦不斷涌現(xiàn)。隨著人工智能時代不斷逼近,擬人態(tài)的人工智能如何與人類在社會中和諧有序共存是任何相關(guān)領(lǐng)域都無法回避的重大議題。在實踐層面,不少國家已經(jīng)啟動就人工智能在研發(fā)和應(yīng)用過程中的風險評估和防控立法以及成立專門的研究規(guī)制機構(gòu)。“有預(yù)見的政府做兩件根本性的事情。它們使用少量錢預(yù)防,而不是花大量錢治療;它們在作出決定時,盡一切可能考慮到未來?!盵27](pp.164-165)2017年底,美國國會提出兩黨議案《人工智能未來法案》,根據(jù)法案,美國商務(wù)部應(yīng)當成立“聯(lián)邦人工智能發(fā)展與應(yīng)用咨詢委員會”,就人工智能涉及的技術(shù)、商業(yè)、國家安全等問題進行綜合研判并向政府提供立法和規(guī)制建議;2018年3月,有歐盟智庫之稱的歐洲政治戰(zhàn)略中心發(fā)布題為《人工智能時代:確立以人為本的歐洲戰(zhàn)略》的報告,報告中提議設(shè)立一個“歐洲機器人和人工智能局”來統(tǒng)籌該領(lǐng)域的風險控制工作。

        (三)構(gòu)建以“解釋權(quán)”為基礎(chǔ)的精準追責機制

        在很長一段時間內(nèi),技術(shù)在倫理上被認為是價值中立的⑥。然而,至少就算法設(shè)計的意義而言,從來沒有一種算法是完全中立的,算法設(shè)計必定由數(shù)據(jù)制造者所追求的功能目標、價值偏好、商業(yè)利益所決定。在合法性的判斷中,必須排除技術(shù)中立的抗辯已經(jīng)是基本的共識。質(zhì)言之,從人工智能調(diào)整和改變后的社會關(guān)系出發(fā),只有在默認算法“可責、可罰”的前提下進行規(guī)則和倫理規(guī)范的建構(gòu)才能保障“人工智能更好地服務(wù)于人類”這一核心邏輯。誠然,有學者指出,人工智能有強弱之分,當前的弱人工智能缺乏自覺和自主的能力,因此不應(yīng)當被視為是司法體系中的可追責對象。但事實上,無論是算法下的“黑箱效應(yīng)”還是“算法權(quán)力”的無遠弗屆,都已經(jīng)對人類構(gòu)成了實質(zhì)性侵權(quán)。這促使治理者們不得不開始思考,如何能在真正意義上規(guī)制人工智能借由“技術(shù)中立”的幌子“橫行霸道”。歐洲議會于2016年4月頒布的 《一般數(shù)據(jù)保護條例》(GDPR)規(guī)定,在基于用戶層面的預(yù)測的算法決策等自動化的個人決策中,應(yīng)賦予公眾一種新的權(quán)利——“解釋權(quán)”,即公眾有權(quán)要求與其個人相關(guān)的自動決策系統(tǒng)對其算法決策做出必要的解釋[28]。事實上,所謂的“解釋權(quán)”,不僅僅是在制度層面打開算法決策的“黑箱”,以立法的形式強制要求保留相關(guān)數(shù)據(jù)與算法決策過程的“黑匣子”,或許更具現(xiàn)實意義的做法是在其應(yīng)用之前就在可控制的前提下對人工智能進行追責機制的技術(shù)建構(gòu),如依托區(qū)塊鏈數(shù)據(jù)可溯源的特性構(gòu)建完整的、防篡改的責任鏈條。而在出現(xiàn)較大的危害和爭議時,有著可以申訴的空間和機構(gòu),通過對后果的追究倒逼算法決策的內(nèi)在機制與過程的透明性。例如,歐洲為保護數(shù)據(jù)信息制定的新法令中甚至包括一條“解釋權(quán)”——有權(quán)要求做出決定的機器做出解釋,該法令于2018年5月生效[29]。而當進一步將精準追責與糾錯補償結(jié)合起來時,就能夠在全社會形成防止惡意使用、算法歧視等更為務(wù)實的目標。這是構(gòu)成新的治理規(guī)則形態(tài)的“基礎(chǔ)性要素”,即構(gòu)建以“解釋權(quán)”為基礎(chǔ)的精準追責機制,讓算法權(quán)力的運作鏈條更加透明,逐步消除人機雙方的力量不對等狀態(tài),從而真正實現(xiàn)“可解釋的人工智能”。

        (四)創(chuàng)設(shè)人文智能協(xié)作治理場景

        Facebook 的創(chuàng)始人馬克·扎克伯格曾在2017年2月16日發(fā)表了一篇大膽的宣言,呼吁有必要建立全球社群,同時談到Facebook在這項計劃中要扮演的角色,提出依靠算法的聯(lián)結(jié)實現(xiàn)人類共同體。但隨之而來的數(shù)據(jù)泄露事件讓企業(yè)家的“勃勃野心”遭到了阻滯。尤瓦爾·赫拉利在《今日簡史》中談到Facebook旨在運用算法努力重建人類社群的這一做法時強調(diào):在治理中,算法或許已經(jīng)可以駕駛汽車、可以治病,但碰上社會問題的時候,還是要靠政治人物和宗教人士[30](p.81)。言外之意,治理尚存在算法失效或者本就應(yīng)當禁忌的領(lǐng)域。正如我們懷有法律對任何個案都有矯正正義價值的期待,人工智能至少在當前的智能范疇內(nèi)還無法獨立進行“自由心證”。在更高意義上,我們應(yīng)當而且必須對人工智能在某些領(lǐng)域的“長驅(qū)直入”保持審慎的態(tài)度和距離。一份來自牛津大學人類未來研究所的《人工智能何時超越人類》報告指出,裹挾了過多周邊技術(shù)(如區(qū)塊鏈、量子計算、納米科技、基因工程等)的人工智能極有可能發(fā)展為互聯(lián)網(wǎng)時代的“利維坦”[31]。為了避免這個災(zāi)難性的后果,人類開始將更多的目光投向人工智能的倫理建設(shè),“算法正義”(algorithmic justice)是規(guī)制人工智能技術(shù)風險不可或缺的向度。而在政策層面,努力創(chuàng)設(shè)人文智能協(xié)作治理場景是關(guān)鍵。所謂人工智能時代的人文主義,不僅僅是指增強智能系統(tǒng)的人機交互設(shè)計,而且必須關(guān)注這個時代的社會規(guī)范和秩序的升級,特別是在多學科融合的視角下構(gòu)建新的正義原則以及思考和探討如何在人工智能時代振拔人類的能力。2017年初在美國阿西洛馬召開的Beneficial AI會議上提出的“阿西洛馬人工智能原則”強調(diào),應(yīng)以安全、透明、負責、可解釋、為人類做貢獻和多數(shù)人受益等方式開發(fā)人工智能[28]。2019年4月8日,歐盟委員會發(fā)布了一份人工智能道德準則⑦。而隨著社會文明的進步,資本市場中的“藍海邏輯”促使資本比以往更多地投入到了諸如殘疾人、老年人、康復(fù)病人等特殊用戶的智能產(chǎn)品研發(fā)和應(yīng)用落地場景的創(chuàng)設(shè)中。

        事實上,無論是自上而下還是自下而上的應(yīng)用場景鋪設(shè),其核心都是對智能算法進行“訓化”,即在智能系統(tǒng)中嵌入符合人類價值的基模,構(gòu)筑算法的底層運行規(guī)則[32]。當代著名工業(yè)設(shè)計管理大師布魯斯(Gordon Bruce)曾指出,設(shè)計的本質(zhì)與技能無關(guān),而是一種生活態(tài)度,設(shè)計者需要重新設(shè)計自身思維方式,帶著責任感、敬業(yè)精神和對人與環(huán)境的尊重去做設(shè)計[33]。

        五、結(jié)語

        人工智能本質(zhì)上是一套復(fù)雜的代碼設(shè)計,既是影響社會行為的強力規(guī)范,也是產(chǎn)生新價值的生產(chǎn)機制。我們能清晰感受到它的影響但并不能對其內(nèi)部一窺究竟,因而試圖通過治理領(lǐng)域具體的實體對象或工作流程來理解人工智能對治理規(guī)則、價值的影響不僅困難,也是一個不可能完成的任務(wù)。今天的人工智能正在改變社會的方方面面,如治理結(jié)構(gòu)、社會秩序、道德倫理體系等,社會的全面智能化要求我們的社會治理體系做出相應(yīng)的調(diào)整。作為一種技術(shù),人工智能服務(wù)于特定的人類目的,在給定目的的前提下追求最優(yōu)的解決方案。這也是那些技術(shù)的擁躉鼓吹技術(shù)“解放”效應(yīng)的原因,他們宣稱人工智能技術(shù)最終將瓦解人類社會的金字塔結(jié)構(gòu)。但實際結(jié)果卻是,也許赫拉利關(guān)于未來世界三種人(無用的人、沒有自主的人和神人)的劃分有夸張之嫌,但人類社會的金字塔依然存在?;滓廊皇鞘|蕓眾生,但塔尖卻分裂成了政府、資本力量和技術(shù)力量[34]。三種力量時而合并,時而對峙,但無論是合并抑或?qū)χ哦寂c“蕓蕓眾生”無關(guān),技術(shù)在本質(zhì)上并不能真正解放全人類。除去人性這道橫亙在人工智能面前的高墻,在純粹的技術(shù)層面,人工智能可能也依然無法“隨心所欲”。

        無論是技術(shù)還是我們現(xiàn)有的社會價值體系都無法確定人類社會發(fā)展的終極目的,但慶幸的是,技術(shù)的發(fā)展幫助我們看到人類可以走多遠以及在這條道路上有著哪些原則、目標不能被舍棄。那些基礎(chǔ)性的底線價值以及程序性要求,不是為了限定技術(shù)的發(fā)展邊界,而是為了防止它的“越界”,避免人工智能語境下的治理轉(zhuǎn)型將人類的發(fā)展視為可有可無的向度。馬丁·海德格爾((Martin Heidegger)在《技術(shù)的追問》一文中便批判了“技術(shù)是合目的的工具”這一現(xiàn)代技術(shù)觀,認為技術(shù)是有尺度的[35](pp.4-5)。正如劉易斯·芒福德(Lewis Mumford)所指出的,“人類文化的每一種表現(xiàn)形式,……無不最終服務(wù)于人類有機生命重新塑造這一任務(wù)的,無不服務(wù)于人類個性表達這一使命”[36](p.10)。而我們在正視人工智能革命性力量的同時,也要避免技術(shù)狂熱下對風險的漠視或者輕蔑,也許能夠做到這一點的只有那些先驗、超然的,無法解釋歸約的“神圣力量”,讓它在人類復(fù)雜社會生活和技術(shù)發(fā)展之間始終保持“精神之錨”的重量。

        注釋:

        ①飛槳(Paddle Paddle)是百度自研、開源開放且功能完備的產(chǎn)業(yè)級深度學習平臺。2020年2月13日,百度就宣布在飛槳深度學習平臺中免費開源了業(yè)內(nèi)首個“口罩人臉檢測及分類模型”,助力各行業(yè)疫情防控,疫情期間在3天內(nèi)快速部署,7天完成兩次模型升級,實現(xiàn)了在北京地鐵站的實時視頻流中準確地對未戴口罩以及錯誤佩戴口罩的情況進行檢測。

        ②當一項技術(shù)的社會后果不能在技術(shù)生命的早期被預(yù)料到從而被及時調(diào)控和規(guī)制時,技術(shù)的普及和應(yīng)用將使其成為經(jīng)濟社會結(jié)構(gòu)的一部分,由于對負面結(jié)果的控制變得昂貴、困難和消耗時間,以致難以或者不能改變。這被學界稱之為科林格里奇困境(Collingridge Dilemma)。為了克服這一困境,科林格里奇本人認為,技術(shù)的發(fā)展需要具有三種根本屬性:可改正性、可控制性與可選擇性。

        ③2018年3月17日,英國《衛(wèi)報》爆出英國的數(shù)據(jù)分析公司CA在美國大選中為特朗普服務(wù)。這個大數(shù)據(jù)服務(wù)公司的數(shù)據(jù)來源于非法獲取的Facebook的用戶信息,涉及的用戶高達5000萬人。

        ④1942 年,著名科幻作家、“機器人學之父”阿西莫夫在其短篇小說《環(huán)舞》中首次提出了“機器人三定律”:一是機器人不得傷害人類,或者因不作為而使人類受到傷害;二是除非違背第一定律,否則機器人必須服從人類的命令;三是在不違背第一及第二定律下,機器人必須保護自己。

        ⑤2009年,由于算法錯誤,英國45萬名 68至72歲的女性錯過其最后一次乳腺癌篩查。這項錯誤算法出現(xiàn)在英國國家衛(wèi)生醫(yī)療系統(tǒng)(National Health System,NHS)的乳腺癌篩查安排軟件中,9 年以來一直不為人知,據(jù)相關(guān)數(shù)據(jù)統(tǒng)計,近百人因此提前離世。

        ⑥1984年美國最高法院在“環(huán)球電影制片公司訴索尼公司案”中判決:為了在家庭中“改變觀看時間”使用錄像機錄制電視節(jié)目構(gòu)成對版權(quán)作品的“合理使用”;只要產(chǎn)品能夠具有一種潛在的“實質(zhì)性非侵權(quán)用途”,產(chǎn)品的制造商和經(jīng)銷商就不承擔“幫助侵權(quán)”責任。

        ⑦可信的人工智能需要具備七個要素。一是確保人的能動性和監(jiān)督性。人工智能系統(tǒng)應(yīng)該支持人的能動性和基本權(quán)利,而不是減少、限制或錯誤地指導人類的自我治理。二是穩(wěn)健性和安全性。人工智能的算法要足夠安全、可靠和穩(wěn)健。三是在隱私和數(shù)據(jù)管理上,人類應(yīng)該完全控制自己的數(shù)據(jù),跟個人相關(guān)的數(shù)據(jù),不能被用來傷害或者歧視他們。四是要有透明度。人工智能系統(tǒng)應(yīng)該具備可追溯性。五是人工智能系統(tǒng)應(yīng)該考慮到人類能力和技能要求的范圍,要做到多樣性、非歧視性和公平性。六是人工智能系統(tǒng)應(yīng)該有助于社會的可持續(xù)性,并且擔負生態(tài)責任。七是人工智能系統(tǒng)應(yīng)該有相應(yīng)的問責機制,需要對它造成的后果承擔責任。

        參考文獻:

        [1]Turing A M. Computing Machinery and Intelligence[J].Mind, 1950,(49).

        [2]賈開,蔣余浩.人工智能治理的三個基本問題:技術(shù)邏輯、風險挑戰(zhàn)與公共政策選擇[J].中國行政管理,2017,(10).

        [3]成素梅.人工智能研究的范式轉(zhuǎn)換及其發(fā)展前景[J].哲學動態(tài), 2017 ,(12).

        [4]John R. Searle. Minds, Brains and Programs[J]. The Behavioral and Brain Sciences, 1980, (3).

        [5]吳軍.智能時代:大數(shù)據(jù)與智能革命重新定義未來[M].北京: 中信出版社,2016.

        [6]霍金演講:人工智能也可能是人類文明的終結(jié)者[DB/OL].http://news.ifeng.com/a/20180314/56725266_0.shtml,2020-07-15.

        [7]劉曉力.哥德爾對心—腦—計算機問題的解[J].自然辯證法研究,1999,(11).

        [8]張龍輝,肖克,王寒.人工智能應(yīng)用下的特大城市邊緣城區(qū)治理:技術(shù)變革、價值隱憂與技術(shù)路徑[J].電子政務(wù),2020,(9).

        [9]何明升.技術(shù)與治理:中國70年社會轉(zhuǎn)型之網(wǎng)絡(luò)化邏輯[J].探索與爭鳴,2019,(12).

        [10]喻國明.人工智能與算法推薦下的網(wǎng)絡(luò)治理之道[J].新聞與寫作,2019,(1).

        [11]斯涵涵.忽視用戶對搜索引擎的信任,后果很嚴重[N].工人日報,2019-01-25.

        [12]青硯.百度究竟要承擔什么責任,取決于對“搜索推廣”的3種定性[N].中國經(jīng)濟周刊,2016-05-09.

        [13]李倫.楚門效應(yīng):數(shù)據(jù)巨機器的“意識形態(tài)”——數(shù)據(jù)主義與基于權(quán)利的數(shù)據(jù)倫理[J].探索與爭鳴,2018,(5).

        [14][日]村上春樹.海邊的卡夫卡[M].林少華.上海:上海譯文出版社,2003.

        [15]李晟.略論人工智能語境下的法律轉(zhuǎn)型[J].法學評論,2018,(1).

        [16]任劍濤.人工智能與“人的政治”重生[J].探索,2020,(5).

        [17]何哲.人工智能時代的人類安全體系構(gòu)建初探[J].電子政務(wù),2018,(7).

        [18]李曉夏,趙秀鳳.人工智能時代的“政府生態(tài)”治理現(xiàn)代化[J].電子政務(wù),2019,(10).

        [19]何哲.人工智能會形成新的專制嗎?——人類政治的歷史與未來[J].中共天津市委黨校學報,2018,(6).

        [20]段文偉.人工智能與解析社會的來臨[J].科學與社會,2019,(3).

        [21][法]雷吉斯·德布雷,趙汀陽.兩面之詞:關(guān)于革命問題的通信[M].張萬申.北京:中信出版社,2014.

        [22][英]安東尼·吉登斯.失控的世界:全球化如何重塑我們的生活[M].周紅云.南昌:江西人民出版社,2000.

        [23]劉偉.關(guān)于機器人若干重要現(xiàn)實問題的思考[J].人民論壇,2015,(16).

        [24]中共中央馬克思恩格斯列寧斯大林著作編譯局.馬克思恩格斯文集(第1卷)[M].北京:人民出版社,2009.

        [25]潘斌. 重思人工智能的辯證法:從人工智能到人類未來[J].天津社會科學,2020,(3).

        [26]張康之.為了人的共生共在[M].北京:人民出版社,2016.

        [27][美]戴維·奧斯本,特德·蓋布勒.改革政府:企業(yè)家精神如何改革著公共部門[M].周敦仁,等.上海:上海譯文出版社,2016.

        [28]段偉文.人工智能時代的價值審度與倫理調(diào)適[J].中國人民大學學報,2017,(6).

        [29]莫宏偉.強人工智能與弱人工智能的倫理問題思考[J].科學與社會,2018,(1).

        [30][以色列]尤瓦爾·赫拉利.今日簡史[M].林俊宏.北京:中信出版社,2018.

        [31]趙精武.人工智能安全的雙重規(guī)制體系[N].中國社會科學報,2019-02-20.

        [32]喻國明,耿曉夢.智能算法推薦:工具理性與價值適切——從技術(shù)邏輯的人文反思到價值適切的優(yōu)化之道[J].全球傳媒學刊,2018,(4).

        [33]高登·布魯斯:設(shè)計要避免效仿,也要牢記共性![DB/OL].http://home.163.com/16/1013/14/C390MQ61001089B5.html,2020-07-12.

        [34]鄭戈.算法的法律與法律的算法[J].中國法律評論,2018,(2).

        [35][德]馬丁·海德格爾.演講與論文集[M].孫周興.北京:生活·讀書·新知三聯(lián)書店,2005.

        [36][美]劉易斯·芒福德.機器神話(上卷):技術(shù)發(fā)展與人文進步[M].宋俊嶺.上海:上海三聯(lián)書店,2017.

        [責任編輯:張英秀]

        Risk Judgment and Policy Response of Artificial Intelligence Embedded Governance Based on Algorithm Dimension

        Zhu Wanjing

        (Wenzhou University, Wenzhou Zhejiang 325035)

        Abstract:

        Artificial intelligence based on algorithm has changed the operation mode of human social governance itself. The first is the logic turn of paradigm caused by artificial intelligence embedded governance. Based on the dimension of algorithm, the governance of algorithm and the algorithm of governance can be said to be the basis of new paradigm, and also the two key questions of answering “what to govern” and “how to govern” in the era of artificial intelligence. As a subversive technology, artificial intelligence not only leads to the logical turn of governance paradigm, but also forms a “new risk society”, which is characterized by the non-autonomy of governance personality under the logic of efficiency, the unpredictability of governance mode driven by deep learning, the unexplainability of governance rules under the black box effect, and the uncertainty of governance value under individual micronization. In order to avoid the interaction between technology and institution into the “vacuum layer” of rules and meaning, the policy response based on risk judgment is indispensable, which also establishes an important institutional cornerstone for the governance transformation in the era of artificial intelligence.

        Key words:

        artificial intelligence, algorithm, governance, risk assessment, policy response

        收稿日期:2020-08-15

        基金項目:

        國家社會科學基金重大項目“國家治理現(xiàn)代化與行政管理制度體系創(chuàng)新研究”(17ZDA105)。

        作者簡介:

        朱婉菁(1987-),女,浙江溫州人,溫州大學法學院講師,博士。

        猜你喜歡
        治理人工智能
        我校新增“人工智能”本科專業(yè)
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        人工智能與就業(yè)
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        社會參與美國社區(qū)學院治理及對中國應(yīng)用型本科高校治理的啟示
        職教論壇(2016年24期)2016-11-14 09:04:33
        關(guān)于治理潮州市區(qū)流動攤販占道經(jīng)營問題的思考
        考試周刊(2016年85期)2016-11-11 02:47:38
        諧波分析與治理措施探討
        治理背景下我國少數(shù)民族傳統(tǒng)體育運動會的發(fā)展
        體育時空(2016年8期)2016-10-25 18:49:34
        淺析網(wǎng)絡(luò)輿情治理
        下一幕,人工智能!
        南風窗(2016年19期)2016-09-21 16:51:29
        国产精品日韩av一区二区| 日韩国产成人精品视频| 色偷偷av一区二区三区人妖 | 久久精品国产亚洲av久按摩 | 久久福利青草精品资源| 一级黄片草逼免费视频| 手机看片自拍偷拍福利| 中文字幕天天躁日日躁狠狠躁免费| 欧美日本国产三级在线| 少妇一区二区三区乱码| 日本高清一级二级三级| 亚洲av天天做在线观看| 亚洲成av人片无码不卡播放器| 亚洲一区二区三区天堂av| 日本免费视频| 亚洲精品成人区在线观看| 亚洲人成网站久久久综合 | 蜜桃网站免费在线观看视频| 成人特黄a级毛片免费视频| 国产精品女同一区二区| 看全色黄大色大片免费久久久| 国产毛片av一区二区| 无人视频在线观看免费播放影院| 91av视频在线| 日产精品毛片av一区二区三区| 精品无码人妻夜人多侵犯18 | 日韩精品无码一区二区| 品色堂永远的免费论坛| 蜜桃av噜噜一区二区三区香| 看女人毛茸茸下面视频| 麻豆成人精品国产免费| 国产成人av在线影院无毒| 麻豆视频av在线观看| 无码中文亚洲av影音先锋 | 久久久久久九九99精品| 国产毛片视频网站| 丝袜美腿诱惑一二三区| 欧美性猛交99久久久久99按摩| 国产嫖妓一区二区三区无码| 亚洲成熟丰满熟妇高潮XXXXX| 亚洲精品第一页在线观看|