陳 思
(湖北省社會(huì)科學(xué)院 政法研究所, 湖北 武漢 430070)
2019年國際人工智能與教育大會(huì)上,習(xí)近平總書記指出:“人工智能是引領(lǐng)新一輪科技革命和產(chǎn)業(yè)變革的重要驅(qū)動(dòng)力,正深刻改變著人們的生產(chǎn)、生活、學(xué)習(xí)方式,推動(dòng)人類社會(huì)迎來人機(jī)協(xié)同、跨界融合、共創(chuàng)分享的智能時(shí)代。”(1)《習(xí)近平向國際人工智能與教育大會(huì)致賀信》,2019年5月16日,http:cpc.people.com.cnn120190516c64094-31088558.html,2019年12月13日。隨著全球人工智能技術(shù)研發(fā)不斷升溫,人工智能技術(shù)已從科技領(lǐng)域進(jìn)入公眾視野,并將推動(dòng)人類社會(huì)發(fā)生深刻變革。從1950年艾倫·圖靈發(fā)表《計(jì)算機(jī)械和智能》一文,到能夠進(jìn)行自我學(xué)習(xí)的圍棋算法AlphaZero打敗人類棋手冠軍,以及由數(shù)據(jù)驅(qū)動(dòng)的學(xué)習(xí)系統(tǒng)AlphaFold成功預(yù)測(cè)出蛋白質(zhì)的結(jié)構(gòu);從只適用于蘋果手機(jī)的智能語音助手Siri,到可以廣泛應(yīng)用到各個(gè)設(shè)備的語音助手亞馬遜Alexa,人工智能技術(shù)的價(jià)值和潛力被不斷開發(fā)并應(yīng)用到不同的領(lǐng)域與場(chǎng)景。在此背景下,世界各國積極回應(yīng)人工智能的發(fā)展,2014年歐洲通過制定《歐盟機(jī)器人研發(fā)計(jì)劃》以保持整個(gè)歐洲人工智能領(lǐng)域良好的發(fā)展勢(shì)頭;美國正在通過培養(yǎng)人工智能研究人員和制定人工智能教育計(jì)劃,為人工智能的未來做準(zhǔn)備。人工智能推動(dòng)著世界科技創(chuàng)新和產(chǎn)業(yè)格局轉(zhuǎn)型升級(jí),為適應(yīng)這一全球化的智能革命,2017年國務(wù)院印發(fā)并實(shí)施的《新一代人工智能發(fā)展規(guī)劃》中明確提出了“到2030年人工智能理論、技術(shù)與應(yīng)用總體達(dá)到世界領(lǐng)先水平,成為世界主要人工智能創(chuàng)新中心”的戰(zhàn)略目標(biāo)(2)《國務(wù)院關(guān)于印發(fā)新一代人工智能發(fā)展規(guī)劃的通知》,2017年7月8日,http:www.gov.cnzhengcecontent2017-0720content_5211996.htm.,2019年12月13日。。2019年,黨的十九屆四中全會(huì)審議通過的《中共中央關(guān)于堅(jiān)持和完善中國特色社會(huì)主義制度、推進(jìn)國家治理體系和治理能力現(xiàn)代化若干重大問題的決定》中指出,要“建立健全運(yùn)用互聯(lián)網(wǎng)、大數(shù)據(jù)、人工智能等技術(shù)手段進(jìn)行行政管理的制度規(guī)則。推進(jìn)數(shù)字政府建設(shè),加強(qiáng)數(shù)據(jù)有序共享,依法保護(hù)個(gè)人信息”(3)《中共中央關(guān)于堅(jiān)持和完善中國特色社會(huì)主義制度推進(jìn)國家治理體系和治理能力現(xiàn)代化若干重大問題的決定》,《人民日?qǐng)?bào)》2019年11月6日,第1版。。新時(shí)代,人工智能體現(xiàn)了一個(gè)國家科學(xué)技術(shù)的發(fā)展水平,以人工智能、大數(shù)據(jù)等技術(shù)為載體的現(xiàn)代化社會(huì)治理模式和體系正在成為人類社會(huì)的發(fā)展趨勢(shì)。因此,本文旨在針對(duì)人工智能時(shí)代技術(shù)異化的表現(xiàn),提供以算法應(yīng)對(duì)社會(huì)治理挑戰(zhàn)的總體框架設(shè)想。文章以技術(shù)異化理論對(duì)當(dāng)代社會(huì)的反思和智能背景下社會(huì)治理的研究現(xiàn)狀為基礎(chǔ),分析人工智能時(shí)代我國社會(huì)治理面臨的新困境,并提出相關(guān)的解決對(duì)策建議。
異化一詞的英文為“alienation”,有讓渡、轉(zhuǎn)讓、疏遠(yuǎn)、脫離等意。它最早被用于西方的宗教文本《圣經(jīng)》中,指《創(chuàng)世紀(jì)》中亞當(dāng)夏娃純真神性的脫離。19世紀(jì)德國哲學(xué)家黑格爾將異化引入哲學(xué)領(lǐng)域,強(qiáng)調(diào)異化是主體與客體的分離和對(duì)立。與他同時(shí)代的哲學(xué)家費(fèi)爾巴哈則將異化表述為人的本質(zhì)的對(duì)象化和異化,徹底剝離了異化的宗教神學(xué)外衣。在吸取黑格爾和費(fèi)爾巴哈異化理論合理部分的基礎(chǔ)上,馬克思提出勞動(dòng)異化的具體表現(xiàn),認(rèn)為這是私有制發(fā)展的必然結(jié)果。在《1844年經(jīng)濟(jì)學(xué)哲學(xué)手稿》中,他從歷史和實(shí)踐層面對(duì)異化進(jìn)行考察并提出勞動(dòng)異化理論,明確指出異化勞動(dòng)的四重規(guī)定性,即人與勞動(dòng)產(chǎn)品的異化,勞動(dòng)與勞動(dòng)本身的異化,人與人之間的異化,以及人的類本質(zhì)與人的異化。在對(duì)馬克思勞動(dòng)異化理論繼承的基礎(chǔ)上,我國《哲學(xué)大辭典》對(duì)異化作出的解釋是:“異化作為社會(huì)現(xiàn)象,與階級(jí)一起產(chǎn)生,是人的物質(zhì)生產(chǎn)與精神生產(chǎn)及其產(chǎn)品變成異己力量又反過來統(tǒng)治人的一種社會(huì)現(xiàn)象?!?4)馮契主編:《哲學(xué)大辭典》,上海:上海辭書出版社,1992年,第702頁。異化反映的是人的生產(chǎn)活動(dòng)及其產(chǎn)品反對(duì)人們自己的特殊性質(zhì)和特殊關(guān)系。
作為異化概念的延伸,雖然對(duì)于“技術(shù)異化”這一概念學(xué)術(shù)界還未達(dá)成共識(shí),但國內(nèi)外學(xué)者大致是從技術(shù)對(duì)人的負(fù)面影響和技術(shù)的價(jià)值中立兩個(gè)方面對(duì)其進(jìn)行考察。首先是技術(shù)對(duì)人的負(fù)面影響,工業(yè)社會(huì)里技術(shù)成為控制人類的新形式,逐漸脫離其作為生產(chǎn)工具的實(shí)體而成為一種彌散在工業(yè)社會(huì)中的文化形態(tài),它們支配著人這一工具(包括身體、大腦和靈魂)(5)赫伯特·馬爾庫塞:《單向度的人:發(fā)達(dá)工業(yè)社會(huì)意識(shí)形態(tài)研究》,劉繼譯,上海:上海譯文出版社,2008年,第23頁。。這一文化形態(tài)顯然同人類所向往的自由而美好的社會(huì)狀態(tài)相背離??梢哉f技術(shù)的進(jìn)步并不一定帶來人性的解放,反而會(huì)成為抑制個(gè)人本性的源動(dòng)力。通常意義上,人們認(rèn)為技術(shù)的更迭發(fā)展是更有效率和更合理的工具取代了與社會(huì)發(fā)展不相適應(yīng)的工具手段,這種技術(shù)的合理性使得人們失去了批判的思維方式且愈發(fā)信賴技術(shù)并依附于它,也就是說“人已成為一種只有物質(zhì)生活而無精神生活的‘單向度的人’”(6)劉文海:《技術(shù)異化批判——技術(shù)負(fù)面效應(yīng)的人本考察》,《中國社會(huì)科學(xué)》1994年第2期。。其次,關(guān)于技術(shù)價(jià)值中立的討論,主要集中在技術(shù)是否是中性的這一問題。有學(xué)者從技術(shù)的價(jià)值屬性把握其要義,認(rèn)為它的中性是相對(duì)的:自然屬性中的技術(shù)是中性的,社會(huì)屬性指向的是非中性,因而“技術(shù)過程和對(duì)象并不總是事實(shí)上中立的”(7)弗里德里希·拉普:《技術(shù)哲學(xué)導(dǎo)論》,劉武、康榮平等譯,沈陽:遼寧科學(xué)技術(shù)出版社,1986年,第47頁。。也有學(xué)者認(rèn)為技術(shù)中性是不可能存在的,技術(shù)作為人類必不可少的工具手段,產(chǎn)生于社會(huì)又反作用于社會(huì)。無論是技術(shù)本體還是技術(shù)的運(yùn)用都不能同人類社會(huì)實(shí)踐割裂開來,“離開了應(yīng)用就不成其為在完整意義上的技術(shù)或現(xiàn)實(shí)技術(shù)”(8)陳昌曙:《技術(shù)哲學(xué)引論》,北京:科學(xué)出版社,1999年,第240頁。。無論對(duì)以上觀點(diǎn)持何種態(tài)度,都會(huì)在否定技術(shù)價(jià)值的絕對(duì)中立上達(dá)成一定的共識(shí)。對(duì)技術(shù)中性的討論能夠幫助我們認(rèn)識(shí)到人的主體能動(dòng)性,由于技術(shù)的本身缺陷帶來的消極后果不可避免,但人在這種缺陷面前并不是無能為力的。因此,技術(shù)異化歸根結(jié)底是人的異化。一方面,這種異化并不是對(duì)作為實(shí)體的人的否定,是人們的認(rèn)知水平受到客觀環(huán)境和歷史條件的制約,存在有條件的局限性而導(dǎo)致的技術(shù)異化。另一方面,若將技術(shù)視為一個(gè)作用于社會(huì)的動(dòng)態(tài)過程,它從產(chǎn)生到發(fā)展都服務(wù)于人類社會(huì),是人類活動(dòng)反作用客觀世界的中介。人類在滿足不斷發(fā)展著的需求的實(shí)踐中,一定程度上不自覺地剔除了具有價(jià)值理性的自我,使得工具理性在自我意識(shí)中占據(jù)上風(fēng)從而引發(fā)的危機(jī),其實(shí)質(zhì)同樣是人的異化。
以上對(duì)技術(shù)異化的討論與反思,觀照到我們即將進(jìn)入的智能社會(huì),人工智能引領(lǐng)下的智能革命帶來的不僅僅是科學(xué)技術(shù)領(lǐng)域的變革,也深刻影響和改變著包括生產(chǎn)生活方式、社會(huì)結(jié)構(gòu)秩序和運(yùn)行方式等人類社會(huì)的方方面面,相應(yīng)地伴生出一系列的風(fēng)險(xiǎn)挑戰(zhàn)。對(duì)技術(shù)的壟斷、資源配置不公和道德倫理等問題始終牽絆著以算法為基礎(chǔ)的人工智能技術(shù)的發(fā)展。面對(duì)一切發(fā)展著的事物,人們要認(rèn)識(shí)到它內(nèi)在發(fā)展的基本規(guī)律,意識(shí)到在技術(shù)面前人的主體性和能動(dòng)性,抽取技術(shù)的正面價(jià)值以提升人類福祉。
2019年黨的十九屆四中全會(huì)公報(bào)中強(qiáng)調(diào):“必須加強(qiáng)和創(chuàng)新社會(huì)治理,完善黨委領(lǐng)導(dǎo)、政府負(fù)責(zé)、民主協(xié)商、社會(huì)協(xié)同、公眾參與、法治保障、科技支撐的社會(huì)治理體系?!?9)《中共中央關(guān)于堅(jiān)持和完善中國特色社會(huì)主義制度 推進(jìn)國家治理體系和治理能力現(xiàn)代化若干重大問題的決定》,《人民日?qǐng)?bào)》2019年11月6日,第1版??茖W(xué)技術(shù)不僅是社會(huì)治理走向現(xiàn)代化的第一生產(chǎn)力,也是社會(huì)形態(tài)從工業(yè)社會(huì)向智能社會(huì)轉(zhuǎn)型的關(guān)鍵動(dòng)力。互聯(lián)網(wǎng)、大數(shù)據(jù)、云計(jì)算、人工智能等領(lǐng)域的智能革命正在建構(gòu)一個(gè)實(shí)體社會(huì)同虛體社會(huì)相結(jié)合的社會(huì)形態(tài),科學(xué)技術(shù)與經(jīng)濟(jì)社會(huì)的高度融合推動(dòng)社會(huì)各個(gè)領(lǐng)域的顛覆性變革,共建共治共享將成為整個(gè)社會(huì)發(fā)展的底色。
許多學(xué)者關(guān)注到智能社會(huì)發(fā)展的大趨勢(shì),但也注意到人工智能技術(shù)的發(fā)展在賦予社會(huì)治理新內(nèi)涵的同時(shí),也給社會(huì)治理帶來了新風(fēng)險(xiǎn)與挑戰(zhàn)。圍繞大數(shù)據(jù)技術(shù)在社會(huì)治理中的應(yīng)用,智能化社會(huì)治理可能面臨信息安全與隱私保護(hù)、社會(huì)組織基礎(chǔ)設(shè)施建設(shè)相對(duì)薄弱、缺乏公開共享機(jī)制、專業(yè)人才匱乏的問題(10)郭本鋒:《應(yīng)用大數(shù)據(jù)提升社會(huì)治理智能化水平研究》,《管理觀察》2018年第29期。。有學(xué)者認(rèn)為治理結(jié)構(gòu)的僵化性,治理方法的滯后性與治理范圍的狹隘性構(gòu)成了人工智能時(shí)代的治理困境(11)賈開、蔣余浩:《人工智能治理的三個(gè)基本問題:技術(shù)邏輯、風(fēng)險(xiǎn)挑戰(zhàn)與公共政策選擇》,《中國行政管理》2017年第10期。。人工智能作為人類社會(huì)的重要技術(shù)發(fā)明,面臨著技術(shù)自主性、數(shù)據(jù)基礎(chǔ)、認(rèn)知結(jié)構(gòu)、倫理規(guī)范和社會(huì)應(yīng)用方面的挑戰(zhàn)(12)張成崗:《人工智能時(shí)代:技術(shù)發(fā)展、風(fēng)險(xiǎn)挑戰(zhàn)與秩序重構(gòu)》,《南京社會(huì)科學(xué)》2018年第5期。。針對(duì)人工智能功能的雙向性,其給社會(huì)治理帶來的潛在風(fēng)險(xiǎn)表現(xiàn)為技術(shù)權(quán)威和獨(dú)裁、行政吸納的有限性以及加劇社會(huì)碎裂(13)王小芳、王磊:《“技術(shù)利維坦”:人工智能嵌入社會(huì)治理的潛在風(fēng)險(xiǎn)與政府應(yīng)對(duì)》,《電子政務(wù)》2019年第5期。。從社會(huì)治理現(xiàn)代化的結(jié)構(gòu)需求和目標(biāo)的角度,大數(shù)據(jù)時(shí)代面臨著協(xié)作困境與信息孤島、技術(shù)理性與制度滯后、技術(shù)風(fēng)險(xiǎn)與治理危機(jī)、工具理性與價(jià)值迷失的挑戰(zhàn)(14)王振興、韓伊靜、李云新:《大數(shù)據(jù)背景下社會(huì)治理現(xiàn)代化:解讀、困境與路徑》,《電子政務(wù)》2019年第4期。。也有學(xué)者以法律治理為切入點(diǎn),闡述了智能硬件系統(tǒng)安全、智能網(wǎng)聯(lián)汽車系統(tǒng)安全、物聯(lián)網(wǎng)系統(tǒng)安全和人工智能系統(tǒng)的技術(shù)與制度方面的風(fēng)險(xiǎn)(15)吳沈括、羅瑾裕:《人工智能安全的法律治理:圍繞系統(tǒng)安全的檢視》,《新疆師范大學(xué)學(xué)報(bào)》(哲學(xué)社會(huì)科學(xué)版)2018年第4期。?;蚴菑闹刃?qū)用妫J(rèn)為人工智能引發(fā)了包括安全、法律、倫理和決策方面的困境(16)龐金友:《AI治理:人工智能時(shí)代的秩序困境與治理原則》,《人民論壇·學(xué)術(shù)前沿》2018年第10期。。
綜上所述,國內(nèi)對(duì)智能時(shí)代社會(huì)治理的研究眾多,且取得了突出的研究成果。但缺乏對(duì)以下方面進(jìn)行深入研究:首先是大數(shù)據(jù)、人工智能等技術(shù)對(duì)社會(huì)治理帶來的風(fēng)險(xiǎn)研究大多停留在技術(shù)實(shí)體與治理實(shí)踐的層面,沒有將歷史背景同客觀環(huán)境相結(jié)合。盡管技術(shù)對(duì)人類社會(huì)的影響具有時(shí)代特征,但追根溯源其內(nèi)核具有歷史延續(xù)性。其次學(xué)者主要集中在對(duì)大數(shù)據(jù)、人工智能、互聯(lián)網(wǎng)技術(shù)工具的研究上,算法工具對(duì)治理的影響仍是一個(gè)新的研究領(lǐng)域,具有較大探究空間。
隨著互聯(lián)網(wǎng)、移動(dòng)通信、計(jì)算機(jī)、大數(shù)據(jù)、算法等新技術(shù)的發(fā)展,人工智能突破了理論與實(shí)踐的鴻溝迎來了蓬勃的發(fā)展,它同經(jīng)濟(jì)社會(huì)、文化教育和科技創(chuàng)新等領(lǐng)域的深度融合,推動(dòng)人類社會(huì)從工業(yè)社會(huì)走向智能社會(huì)。人工智能是指數(shù)字計(jì)算機(jī)或者數(shù)字計(jì)算機(jī)控制的機(jī)器人具有人類智能行為的能力,包括感知、理解、行動(dòng)和學(xué)習(xí)。算法是通過數(shù)學(xué)模型建構(gòu)提供解決問題方案的一種策略方式。開發(fā)人工智能的目的就是復(fù)制人類解決問題的做法,以實(shí)現(xiàn)更有效的解決方案輸出。因此,正是算法使“人工”變得智能,機(jī)器具有了人類的學(xué)習(xí)能力??茖W(xué)技術(shù)作為先進(jìn)生產(chǎn)力的重要標(biāo)志,在促進(jìn)社會(huì)發(fā)展和人的發(fā)展中發(fā)揮著重要作用。但在具體的實(shí)踐中,作為科學(xué)活動(dòng)的創(chuàng)造物,技術(shù)卻往往反過來成為支配、控制、奴役人的力量。當(dāng)代,智能社會(huì)技術(shù)異化出現(xiàn)了工具理性與價(jià)值理性不平衡、技術(shù)的意識(shí)形態(tài)化等特征。
簡言之,工具理性是指人們通過某種手段和工具實(shí)現(xiàn)自我需求從而達(dá)到實(shí)踐目的。它強(qiáng)調(diào)工具對(duì)人類實(shí)踐活動(dòng)的作用,追求在效率的最大化中實(shí)現(xiàn)主體的目的。價(jià)值理性則始終以信念價(jià)值為行為的導(dǎo)向,它并不計(jì)較行為的成本和伴隨而來的后果,其指導(dǎo)下的行為活動(dòng)指向的是價(jià)值世界的終極意義。在兩者之間獲得相對(duì)的平衡,是緩解人類日益增長的發(fā)展需要同客觀世界的應(yīng)然價(jià)值之間矛盾的必由之路。從工業(yè)社會(huì)向智能社會(huì)轉(zhuǎn)型的過程中,工具理性的膨脹正在打破這一平衡,價(jià)值理性的相對(duì)退位以及工具理性的漫溢成為社會(huì)通病。當(dāng)然,通過技術(shù)的不斷革新實(shí)現(xiàn)人類把握某一事物的精確性與高效率的行為其初衷無可指摘,算法在人工智能中的運(yùn)用顯著提高了機(jī)器處理數(shù)據(jù)的工作效率,能夠幫助關(guān)鍵領(lǐng)域解決數(shù)據(jù)處理與分析方面的難題,某種意義上說,技術(shù)工具的進(jìn)化是人類社會(huì)的必然。但在實(shí)踐活動(dòng)中僅僅追求技術(shù)帶來的高效化,忽視道德與倫理、責(zé)任與義務(wù)、公平與正義等終極關(guān)懷問題,并不是人類社會(huì)自然選擇的結(jié)果。以算法在信息傳播領(lǐng)域的應(yīng)用為例,借助算法處理互聯(lián)網(wǎng)海量數(shù)據(jù)從而實(shí)現(xiàn)信息的精準(zhǔn)投送,為用戶提供個(gè)性化的內(nèi)容服務(wù)以提升用戶閱讀體驗(yàn),已經(jīng)成為各大媒體傳播平臺(tái)競相追逐的新賽道。但每個(gè)硬幣都有兩面,算法的智能化使人們迷醉在技術(shù)進(jìn)步帶來的便利之中,渾然不知為此付出的代價(jià)。利益驅(qū)動(dòng)下新聞媒體為了點(diǎn)擊率一味迎合用戶而突破倫理道德底線,模糊算法數(shù)據(jù)來源與用戶權(quán)益保護(hù)之間的沖突日益加劇。同時(shí),算法帶來的后果在人們之間是不均等地存在的,因?yàn)椤巴邔W(xué)歷和富裕的人相比,這些算法更容易影響工人階級(jí)和窮人,富裕的人則可以毫發(fā)無損地享受他們的生活”(17)Levy R,“Taking Aim at Biased Algorithms”,Math Horizons,Vol.25,No.1,2017.。
技術(shù)的意識(shí)形態(tài)化表現(xiàn)在以下兩方面:首先,技術(shù)本身具有的意識(shí)形態(tài)性。技術(shù)是作為滿足人類改造客觀世界的需求而出現(xiàn)的,人們通過技術(shù)實(shí)現(xiàn)自己對(duì)外部環(huán)境的掌控,它的存在暗喻了人與自然、人與人在權(quán)力關(guān)系上的不平等地位。當(dāng)人們將技術(shù)視為合理性的象征,智能時(shí)代隨著算法在各個(gè)領(lǐng)域的深度運(yùn)用,算法則轉(zhuǎn)變?yōu)榧夹g(shù)對(duì)人的統(tǒng)治工具,重塑意識(shí)形態(tài)世界的樣貌。在人們的腦海中,算法往往代表了科學(xué)的、系統(tǒng)的、可操縱的,它不僅能代替人類進(jìn)行決策,還能使決策更具可行性和更高的完成度。人類利用算法實(shí)現(xiàn)自身的發(fā)展,并把成本盡可能降到最低的范圍,在不斷激發(fā)算法技術(shù)力量的過程中,日益擴(kuò)大了社會(huì)對(duì)個(gè)人的統(tǒng)治范圍以及技術(shù)抑制人性的程度。其次,技術(shù)對(duì)意識(shí)形態(tài)的導(dǎo)向作用。作為人類社會(huì)改造客觀世界的工具,技術(shù)承擔(dān)著信息傳遞與交換的功能。農(nóng)業(yè)社會(huì)這一階段的信息交流很大程度上受制于時(shí)間和空間的限制;發(fā)展到工業(yè)社會(huì),機(jī)器印刷、電報(bào)、廣播和電話等技術(shù)載體的相繼出現(xiàn),突破了由信息承載的價(jià)值傳播的時(shí)空限制,實(shí)現(xiàn)了價(jià)值從傳播到強(qiáng)化,進(jìn)而形成價(jià)值主流反哺社會(huì)意識(shí)領(lǐng)域。云計(jì)算、算法等智能技術(shù)的發(fā)展與應(yīng)用,使互聯(lián)網(wǎng)成為意識(shí)形態(tài)傳播的新場(chǎng)域,虛擬世界與實(shí)在世界的碰撞催生出獨(dú)屬于這個(gè)時(shí)代的精神文化形態(tài)。與此同時(shí),精英集團(tuán)(無論是資本、政治精英或知識(shí)精英)可以通過壟斷技術(shù),利用智能技術(shù)操縱輿論進(jìn)行意識(shí)形態(tài)的滲透和干預(yù)。在近年來西方國家的選舉中,頻頻出現(xiàn)政客通過人工智能干預(yù)政治活動(dòng)的現(xiàn)象。他們與擁有大量用戶數(shù)據(jù)的公司合謀,利用算法收集用戶的偏好,對(duì)選民進(jìn)行意識(shí)形態(tài)的宣傳從而獲得更多選票,傳統(tǒng)民主政治的公平正義遭到損害。
人工智能技術(shù)全方位、全領(lǐng)域、深層次影響著社會(huì)各領(lǐng)域,我們?cè)陉P(guān)注到技術(shù)飛躍對(duì)社會(huì)進(jìn)步的推動(dòng)作用時(shí),也應(yīng)認(rèn)識(shí)到算法對(duì)人們的社會(huì)認(rèn)知、價(jià)值觀念、行為活動(dòng)造成深遠(yuǎn)影響,以及技術(shù)異化已經(jīng)帶來或者可能帶來的社會(huì)治理風(fēng)險(xiǎn)挑戰(zhàn)。
人工智能技術(shù)為社會(huì)治理體系和治理能力現(xiàn)代化提供了新的治理理念和治理工具,是提升社會(huì)治理智能化發(fā)展的重要技術(shù)方法。對(duì)信息進(jìn)行智能化的處理是解決互聯(lián)網(wǎng)信息超載問題、優(yōu)化信息分化配置的有效途徑,個(gè)性化定制技術(shù)便是這一途徑的具體手段。然而,“在信息傳播過程中,個(gè)性化定制技術(shù)與各個(gè)領(lǐng)域的深度結(jié)合,則很可能加劇政治態(tài)度的分化和多極化。公共理性、互利性、包容性是協(xié)商民主系統(tǒng)良好運(yùn)行不可或缺的條件,而個(gè)性化定制技術(shù)對(duì)信息的分類、選擇、分發(fā),強(qiáng)化了政治問題的差異性與不可調(diào)和性,不利于社會(huì)公共理性、群體間理解與包容的形成,甚至打破了原有協(xié)商的基礎(chǔ)。一方面,該技術(shù)追求人與信息的快速匹配,會(huì)過濾掉用戶潛在的需求與偏好,促進(jìn)了信息“回聲室”的發(fā)展。另一方面,大量匯聚觀點(diǎn)趨同用戶,則更容易聚集成觀點(diǎn)對(duì)立陣營,促使同質(zhì)化群體的思維走向更加極端,甚至?xí)鲆暱勺C明其觀點(diǎn)錯(cuò)誤的事實(shí),并在總體上呈現(xiàn)出“自我延續(xù),自我加強(qiáng)的社會(huì)分化狀態(tài)”(18)Bishop B,The Big Sort:Why The Clustering of Like-minded America is Tearing Us Apart,New York:Mariner Books,2008,p.36.。協(xié)商民主是化解社會(huì)矛盾分歧,維護(hù)社會(huì)和諧的有效實(shí)現(xiàn)形式,但同質(zhì)化群體的集結(jié)與態(tài)度分化傾向可能會(huì)對(duì)協(xié)商民主造成一定的危害,對(duì)社會(huì)穩(wěn)定造成負(fù)面影響。
在大數(shù)據(jù)應(yīng)用于社會(huì)治理的實(shí)踐中,技術(shù)至上的理念造成治理主體在社會(huì)治理過程中過度依賴大數(shù)據(jù),忽視了海量信息帶來的識(shí)別和篩選模糊的困境。善治的基礎(chǔ)是科學(xué)的決策,而處于發(fā)展階段的算法依賴的數(shù)據(jù)很有可能具有一定的局限性?,F(xiàn)實(shí)中難免將不具代表性的數(shù)據(jù)作為決策基礎(chǔ),這必然會(huì)造成信息時(shí)代的缺席者——數(shù)字鴻溝中規(guī)模龐大的邊緣人群的失語,眾多未在網(wǎng)絡(luò)世界中提交主體偏好和利益訴求數(shù)據(jù)的人群,將無法進(jìn)入決策者的視野。這樣,一些非數(shù)據(jù)化的社會(huì)治理問題將會(huì)被排除在決策過程之外,決策者甚至可能會(huì)在各方的壓力下優(yōu)先回應(yīng)數(shù)據(jù)化的問題。數(shù)字鴻溝是數(shù)字化帶來的技術(shù)制約(technological divide),在先進(jìn)技術(shù)中占據(jù)制高點(diǎn)的個(gè)體將占盡先機(jī),強(qiáng)化政治、經(jīng)濟(jì)、文化資源的差序性,導(dǎo)致算法優(yōu)先導(dǎo)向該群體利益相關(guān)的領(lǐng)域,而傾軋非該群體利益關(guān)聯(lián)的關(guān)注空間。數(shù)字鴻溝與治理盲區(qū)存在正相關(guān)的關(guān)系,社會(huì)治理的觸角若不能感應(yīng)到非數(shù)據(jù)化的社會(huì)問題,便形成了社會(huì)治理新的盲區(qū)。
治理是穩(wěn)定社會(huì)秩序的重要途徑,也包含著不同群體在話語空間中博弈互動(dòng)的傳播過程。新媒體時(shí)代,有效的治理是以有效的傳播為前提的。但由于算法的去價(jià)值化,低質(zhì)量的內(nèi)容和有爭議的事實(shí)交錯(cuò)混雜所形成的信息洪流,攪亂了社會(huì)治理賴以存在的傳播秩序,去價(jià)值化成為整個(gè)公共話語生態(tài)的演進(jìn)狀態(tài)。算法對(duì)信息篩選和推薦所遵循的運(yùn)作邏輯是一切皆可推演,即用戶的行為以及偏好皆可以轉(zhuǎn)換為數(shù)據(jù)。這一邏輯包含了兩個(gè)隱喻:用戶的行為偏好是一種算法資源;個(gè)人的行為活動(dòng)是一種有價(jià)值的商品。算法將人們的行為偏好進(jìn)行量化的過程,也是對(duì)用戶進(jìn)行去價(jià)值化的過程。同時(shí),利益驅(qū)動(dòng)下的新聞生產(chǎn)者為追求點(diǎn)擊率,過分迎合用戶喜好,利用算法技術(shù)使用戶看到他們想看到的內(nèi)容。但這種類型的新聞其實(shí)質(zhì)是算法量化加工之后呈現(xiàn)給用戶的產(chǎn)品,人們潛在的、不可量化的價(jià)值理性被排除在外,使得一些公共性和有價(jià)值的內(nèi)容被隱去。在這一認(rèn)知圈套之下,人們自認(rèn)為是在消費(fèi)社交軟件和新聞平臺(tái)的新聞,實(shí)則是算法基于人們行為心理學(xué)特征進(jìn)行行為導(dǎo)向的設(shè)計(jì)。這些被生產(chǎn)出來的信息不僅違背新聞倫理,降低媒體公信力,還對(duì)社會(huì)價(jià)值導(dǎo)向造成嚴(yán)重傷害。
社會(huì)公正既是國家治理能力與治理體系現(xiàn)代化在社會(huì)層面的具體體現(xiàn),也是國家頂層設(shè)計(jì)與社會(huì)治理實(shí)踐所遵循的價(jià)值依據(jù)。人工智能算法雖然有助于社會(huì)各個(gè)領(lǐng)域治理效率的提升,但算法決策使用的數(shù)據(jù),及其處理的方式、應(yīng)用的規(guī)則,都是由算法設(shè)計(jì)人員創(chuàng)建的,作為人類個(gè)體我們難以避免都有主觀隱含的偏見。當(dāng)設(shè)計(jì)人員的主體性偏差構(gòu)建到軟件中時(shí),偏見便會(huì)進(jìn)入算法中成為一種“無意的不公正”。當(dāng)這些帶有偏見性的算法被廣泛應(yīng)用時(shí),則會(huì)產(chǎn)生歧視性或不公正被放大的后果。如銀行根據(jù)地域或性別而不是基于財(cái)務(wù)數(shù)據(jù)提供貸款,企業(yè)根據(jù)性別或年齡而非能力招聘錄用人員等。司法系統(tǒng)作為人類公平正義的法律防線,隨著算法在司法領(lǐng)域的應(yīng)用,算法偏見將會(huì)侵蝕維護(hù)社會(huì)公平正義的法律防線。當(dāng)前的司法實(shí)踐,人工智能的功能僅在于“輔助”而非“替代”司法人員的獨(dú)立判斷,算法對(duì)司法結(jié)果并不起直接的決定作用。但人工智能對(duì)司法過程的滲透在不斷深化,司法決策對(duì)人工智能的依賴日趨增強(qiáng)。由于司法系統(tǒng)運(yùn)作的特點(diǎn),具有偏見性的算法帶來的判例,可能會(huì)以參考、指引的方式嵌入到之后類似的司法程序中去,破壞個(gè)案司法決策的公正,并更加鞏固和強(qiáng)化了算法偏見,有學(xué)者認(rèn)為這將引發(fā)對(duì)相關(guān)類型案件司法公正的系統(tǒng)性威脅(19)雷震文:《算法偏見對(duì)“智慧司法”的影響及其防范》,《法制日?qǐng)?bào)》2017年12月27日,第11版。。如,美國威斯康星州發(fā)生的一起案件,被告認(rèn)為該州法院將算法模型應(yīng)用到量刑環(huán)節(jié)中違反了正當(dāng)程序原則因而提起上訴,雖然州法院最后駁回了被告的訴訟請(qǐng)求,但也提醒法官需要警惕算法的應(yīng)用可能帶來的偏見(20)李本:《美國司法實(shí)踐中的人工智能:問題與挑戰(zhàn)》,《中國法律評(píng)論》2018年第2期。。因此,當(dāng)算法技術(shù)應(yīng)用到司法程序中,算法作出的決策是否有效,是否會(huì)對(duì)司法系統(tǒng)公正性造成不可逆的影響值得長期關(guān)注。
現(xiàn)代社會(huì)治理中,信息資源是權(quán)威的代名詞,社會(huì)治理體系中的領(lǐng)導(dǎo)者為實(shí)現(xiàn)有效治理,必然通過信息攫取甚至壟斷來獲取更大權(quán)力和影響力。當(dāng)權(quán)威越來越多地通過算法表達(dá)時(shí),對(duì)技術(shù)的壟斷控制成為數(shù)字資本市場(chǎng)的普遍特征。逐利性驅(qū)動(dòng)下的資本將算法視為操縱社會(huì)的有力武器,它們也成為技術(shù)異化的始作俑者。算法作為人工智能技術(shù)的核心,它的強(qiáng)大之處在于能夠做出選擇,進(jìn)行類分和優(yōu)先級(jí)排序。但人工智能技術(shù)需要海量的基礎(chǔ)數(shù)據(jù)去喂養(yǎng)算法系統(tǒng),進(jìn)而創(chuàng)建人工智能場(chǎng)景應(yīng)用,而能夠擁有這樣規(guī)模的主體只有商業(yè)巨頭、政府部門以及超級(jí)科技型公司,它們具有數(shù)據(jù)抓取、壟斷的資源和需求,相應(yīng)的,社會(huì)力量或較小規(guī)模私人組織在數(shù)據(jù)化競爭場(chǎng)域里,權(quán)力被弱化,更不用說原子化的個(gè)人。與此同時(shí),用于獲取競爭優(yōu)勢(shì)的算法工具又被作為核心商業(yè)機(jī)密對(duì)公眾加以隔離,這使得在關(guān)于算法透明度、合法性問題上存在著廣泛爭議。當(dāng)互聯(lián)網(wǎng)公司以免費(fèi)服務(wù)之名獲取個(gè)人數(shù)據(jù),侵犯到個(gè)人隱私時(shí);當(dāng)算法偏見導(dǎo)致不公正結(jié)果,影響社會(huì)公平正義時(shí),技術(shù)壟斷不僅強(qiáng)化了以上風(fēng)險(xiǎn),而且將成為治理能力現(xiàn)代化進(jìn)程中的阻礙。
與西方異化理論學(xué)者指出的異化特征所不同的是,智能社會(huì)下技術(shù)應(yīng)用場(chǎng)景的拓展同人類有限認(rèn)知能力之間的張力,使得生產(chǎn)者、勞動(dòng)產(chǎn)品、消費(fèi)者三者的社會(huì)勞動(dòng)關(guān)系日益模糊。雖然算法提供的產(chǎn)品和服務(wù)越來越全面,但當(dāng)新聞推送系統(tǒng)生成包含虛假或錯(cuò)誤信息的新聞文章時(shí),誰應(yīng)對(duì)錯(cuò)誤的內(nèi)容負(fù)責(zé)?當(dāng)人們?cè)谛刨J、就業(yè)甚至法律上遭到歧視時(shí),誰應(yīng)對(duì)偏見性的決策負(fù)責(zé)?由于算法的不透明性和科技產(chǎn)品的非主體性,當(dāng)算法做出錯(cuò)誤的決策甚至侵犯到人們的權(quán)利時(shí),責(zé)任主體模糊使得監(jiān)管部門陷入審查難、問責(zé)難的困境。這種困境體現(xiàn)在兩個(gè)方面:一方面是算法自身的復(fù)雜性。由于算法具有自主決策、學(xué)習(xí)的能力,它的設(shè)計(jì)者難以預(yù)測(cè)最終的結(jié)果,也無法完全解讀它是如何得出現(xiàn)有結(jié)論的。因此,算法的復(fù)雜性使得相關(guān)部門難以進(jìn)行合法性審查,這不可避免地產(chǎn)生責(zé)任主體缺失。另一方面是算法的隱蔽性。算法的輸出是“黑箱”過程,當(dāng)因算法缺陷導(dǎo)致決策失誤,或是算法決策的結(jié)果引起社會(huì)大眾的爭議時(shí),行政人員傾向于將責(zé)任推卸給算法或算法開發(fā)公司。而算法通常屬于企業(yè)的“商業(yè)機(jī)密”,是受到法律保護(hù)的對(duì)象,導(dǎo)致司法機(jī)關(guān)難以對(duì)算法和算法開發(fā)公司進(jìn)行審查,責(zé)任主體之間在算法技術(shù)的遮蔽下相互推諉。如在英國女性乳腺癌篩查漏檢丑聞中,關(guān)于算法錯(cuò)誤究竟是怎么產(chǎn)生的,國家衛(wèi)生醫(yī)療系統(tǒng)(NHS)、公共衛(wèi)生局(PHE)以及負(fù)責(zé)軟件維護(hù)的日立咨詢公司三方互相踢皮球,然而最終結(jié)果很有可能是根據(jù)目前的法律體系無法產(chǎn)生定論(21)汝緒華:《算法政治:風(fēng)險(xiǎn)、發(fā)生邏輯與治理》,《廈門大學(xué)學(xué)報(bào)》(哲學(xué)社會(huì)科學(xué)版)2018年第6期。。
對(duì)于異化馬克思雖然沒有直接提出解決方案,但他認(rèn)為這只是特定社會(huì)和歷史條件的特征。一定歷史發(fā)展階段下算法技術(shù)必然存在歷史性的缺陷,技術(shù)的問題應(yīng)回到技術(shù)層面解決。但不可否認(rèn)的是,治理困境中技術(shù)異化的實(shí)質(zhì)是人的異化。因此,應(yīng)從算法技術(shù)和人的價(jià)值層面出發(fā),充分發(fā)揮人的主觀能動(dòng)性,預(yù)防化解社會(huì)治理可能遇到的挑戰(zhàn)和沖擊。
加強(qiáng)對(duì)智能算法的治理,應(yīng)從技術(shù)本身入手,提高算法技術(shù)的合理性。首先,針對(duì)算法本身暴露出的缺陷,技術(shù)研發(fā)人員應(yīng)關(guān)注到現(xiàn)有因果推理技術(shù)對(duì)于優(yōu)化算法的重要性?,F(xiàn)有成果如Alan Turing Institute的一組研究人員使用因果推理的工具開發(fā)了一套嚴(yán)格的模型,研究結(jié)果表明因果模型能夠有效捕獲社會(huì)偏差(22)Matt Kusner,Joshua Loftus,Chris Russell, and Ricardo Silva,“Counterfactual Fairness”,2018-03-08,https:arxiv.orgpdf1703.06856.pdf,2019-12-20.,該模型使算法能夠考慮到對(duì)個(gè)體產(chǎn)生的不同社會(huì)偏見,并有效地補(bǔ)償這些偏差。其次,提高算法推薦的多樣性?;诳啥ㄖ萍夹g(shù)造成的認(rèn)知窄化現(xiàn)象,設(shè)計(jì)人員應(yīng)根據(jù)用戶偏好增加算法推薦集的多樣性。盡管有學(xué)者質(zhì)疑,為了多元性而強(qiáng)調(diào)多樣性,可能會(huì)導(dǎo)致社會(huì)最緊迫的問題被不同的聲音淹沒(23)Duncan J,Reid J,“Toward a Measurement Tool for The Monitoring of Media Diversity and Pluralism in South Africa:A Public-centred Approach”,Communicatio,Vol.39,No.4,2013.。然而,從傳統(tǒng)民主政治的價(jià)值來判斷,多樣性能夠促進(jìn)和激活公民在社會(huì)中發(fā)揮更積極的作用。最后,作為算法學(xué)習(xí)的基礎(chǔ),數(shù)據(jù)的代表性與分布的優(yōu)化十分重要。數(shù)據(jù)采樣基于盡可能全面的數(shù)據(jù)優(yōu)于篩選過的“好”的采樣數(shù)據(jù),“好”的采樣數(shù)據(jù)優(yōu)于不均勻分布、不具代表性數(shù)據(jù)的原則。研究人員應(yīng)謹(jǐn)慎使用采集到的數(shù)據(jù)樣本,提高數(shù)據(jù)的代表性。同時(shí),數(shù)據(jù)本身可能有一個(gè)偏差的分布,因而對(duì)執(zhí)行人工智能訓(xùn)練的數(shù)據(jù)進(jìn)行審核是降低算法不公正的重要方式,無論是采用人工介入或是開發(fā)相關(guān)技術(shù)的形式對(duì)算法進(jìn)行審核,都能有效對(duì)抗算法偏差問題。
算法源于社會(huì)場(chǎng)景并因在實(shí)踐中的應(yīng)用而不斷被優(yōu)化,作為智能社會(huì)發(fā)展的重要基石,其可持續(xù)發(fā)展,需要整合社會(huì)多方力量,以形成立體的協(xié)同合作體系來助力算法的演進(jìn)。從算法的基礎(chǔ)認(rèn)知、實(shí)踐運(yùn)用到反饋修正,涉及到關(guān)于算法的多學(xué)科理論和編碼的技術(shù)。因此,對(duì)于算法的研究需要跨領(lǐng)域的融合,打破知識(shí)的邊界,而不是僅留守于計(jì)算機(jī)學(xué)術(shù)研究領(lǐng)域。算法研究的學(xué)術(shù)社區(qū)有助于推進(jìn)這一融合發(fā)展的進(jìn)程,通過建立跨越包括數(shù)學(xué)、計(jì)算機(jī)、社會(huì)學(xué)和法律等學(xué)科領(lǐng)域的學(xué)術(shù)社群,從而基于復(fù)合型理論視角指導(dǎo)技術(shù)處理算法中的倫理、歧視、透明度和問責(zé)制等問題。這一治理結(jié)構(gòu)的建立需要政府統(tǒng)合各方資源,由政府、專家、企業(yè)和公眾組成跨領(lǐng)域的治理結(jié)構(gòu),這是實(shí)現(xiàn)算法監(jiān)督與避免算法風(fēng)險(xiǎn)的有效途徑。為保障這一架構(gòu)的運(yùn)行,政府部門可以通過組織化方式,創(chuàng)建研究算法相關(guān)的咨詢機(jī)構(gòu)或處理人工智能問題的專業(yè)組織。例如,紐約市議會(huì)通過了一項(xiàng)法案,成立了一個(gè)以審查紐約市各機(jī)構(gòu)對(duì)算法的使用及其涉及的政策問題的工作組,該工作組由研究算法透明度、公平性方面的專家和非營利組織的工作人員組成,他們將與最有可能受到有缺陷算法傷害的群體代表一起工作。同時(shí)這一組織也將通過一套目標(biāo)方案,以“解決何時(shí)公開以及算法公開方式及程度、如何評(píng)估算法中的偏見、算法偏見可能帶來的影響等問題的對(duì)策”(24)Rashida Richhardson and NewYork Civill Liberties Unionn,“New York City Takes on Algorithmic Discrimination”,2017-12-12,https:www.aclu.orgblogprivacy-technologysurveillance-technologiesnew-york-city-takes-algorithmic-discrimination,2019-12-20.。
面對(duì)算法導(dǎo)致的社會(huì)治理問題,應(yīng)在政府主導(dǎo)下建立與之對(duì)應(yīng)的法律法規(guī)體系與倫理道德框架。開展與人工智能應(yīng)用相關(guān)的法律責(zé)任認(rèn)定、隱私和產(chǎn)權(quán)保護(hù)、信息使用限制等法律問題研究,建立追責(zé)制度,明確人工智能設(shè)計(jì)者、使用者、推廣者的法律主體身份以及相關(guān)權(quán)利、義務(wù)等。2018年,歐盟AI聯(lián)盟在推進(jìn)人工智能立法草案中強(qiáng)調(diào):人工智能應(yīng)考量人類能動(dòng)性和監(jiān)督,穩(wěn)健性和安全性,隱私和數(shù)據(jù)監(jiān)管,透明性、多元化、非歧視性,公平、社會(huì)環(huán)境福祉以及問責(zé)制。雖然草案規(guī)定的內(nèi)容較為寬泛,且目前不具有約束力,但給我們提供了一個(gè)參照的范例。算法問責(zé)方面,一些歐美國家已有所行動(dòng)。2019年4月,美國立法者提出了一項(xiàng)名為“算法問責(zé)”的法案。該法案要求“大公司審計(jì)其機(jī)器學(xué)習(xí)系統(tǒng)的偏見和歧視,并在發(fā)現(xiàn)問題時(shí)及時(shí)采取糾正措施。與此同時(shí),還需審查涉及隱私和安全風(fēng)險(xiǎn)的敏感數(shù)據(jù)的所有流程,包括個(gè)人身份識(shí)別,生物識(shí)別和遺傳信息”(25)Karen Hao,“Congress Wants to Protect You from Biased Algorithms,Deepfakes,and Other Bad AI”,2019-04-15,https:www.technologyreview.coms613310,2019-12-20.。英國、法國、澳大利亞和其他國家也都通過立法等形式,要求科技公司對(duì)其算法負(fù)責(zé)。算法問責(zé)制是指“算法開發(fā)人員有責(zé)任提供關(guān)于與算法相關(guān)的解釋說明,即算法可能或?qū)嶋H上已經(jīng)造成的損害,以及算法的責(zé)任分配和危害發(fā)生后的補(bǔ)救機(jī)制”(26)Diakopoulos N,“Accountability in Algorithmic Decision Making”,Communications of The ACM,Vol.59,No.2,2016.。結(jié)合我國的實(shí)際情況,更具可行性的算法問責(zé)制應(yīng)具備以下幾點(diǎn):首先,堅(jiān)持政府主導(dǎo)與行業(yè)驅(qū)動(dòng)相結(jié)合的原則。人工智能領(lǐng)域的正向發(fā)展不應(yīng)該依賴政府來發(fā)揮這一作用,過多的政府干預(yù)會(huì)給企業(yè)帶來阻力并減緩創(chuàng)新,但缺乏外界的限制則會(huì)導(dǎo)致企業(yè)在難以舍棄的利益目標(biāo)驅(qū)使下罔顧技術(shù)開發(fā)的邊界。政府建立總體管理框架,應(yīng)用算法的巨頭公司應(yīng)遵循框架要求,自主性地?cái)M定公司準(zhǔn)則,如提升透明度上,允許用戶、公眾或公職人員了解關(guān)于算法“正在發(fā)生的事情”。其次,嚴(yán)格處理惡意掩蓋透明度行為,政府應(yīng)強(qiáng)制執(zhí)行問責(zé)制,明確定義責(zé)任機(jī)制和透明化的流程。大數(shù)據(jù)公司、科技型企業(yè)應(yīng)積極地將責(zé)任嵌入其算法系統(tǒng)中,明確行動(dòng)的責(zé)任邊界。最后,充分考慮透明度的局限性。政府部門、相關(guān)企業(yè)和社會(huì)大眾應(yīng)意識(shí)到透明化并不是解決算法黑箱的萬靈丹,問責(zé)只能治標(biāo),要治本還需在技術(shù)倫理層面上找到源動(dòng)力。
在這個(gè)由算法技術(shù)構(gòu)成的智能社會(huì)中,想要擺脫個(gè)體對(duì)技術(shù)的過度依賴,人們應(yīng)自覺發(fā)揮價(jià)值理性的導(dǎo)向作用,遵循社會(huì)共同的道德規(guī)范。一方面,應(yīng)加強(qiáng)行業(yè)從業(yè)人員的道德自律,建立相關(guān)行業(yè)規(guī)范。政府可以通過定義道德準(zhǔn)則和監(jiān)督審查使行業(yè)規(guī)范制度化,建立處理人工智能道德倫理問題的道德委員會(huì),以倡導(dǎo)社會(huì)正義和公平為宗旨,以人工智能的道德規(guī)范以及對(duì)公民權(quán)利、隱私和安全的保護(hù)為目標(biāo)。2017年,美國電氣和電子工程師協(xié)會(huì)(IEEE)作出了這樣的嘗試,他們發(fā)出全球倡議,以“在自主和智能系統(tǒng)的設(shè)計(jì)和開發(fā)中優(yōu)先考慮倫理問題,鼓勵(lì)建立標(biāo)準(zhǔn)和相關(guān)認(rèn)證程序,促進(jìn)與這些原則相符合的國家和全球政策的出現(xiàn)為目標(biāo),并就如何應(yīng)對(duì)人工智能的道德挑戰(zhàn)提出了具體的要求建議”(27)IEEE Global Initiative,“Ethically Aligned Design:A Vision for Prioritizing Human Well-being with Autonomous and Intelligent Systems(Version 2)”,2017-12-11,https:standards.ieee.orgcontentdamieee-standardsstandardswebdocu-mentsotheread_v2.pdf,2019-12-20.。另一方面,應(yīng)同我國具體實(shí)際相結(jié)合,充分發(fā)揮價(jià)值理性的引導(dǎo)作用。不管是個(gè)人層面表現(xiàn)出的偏見、歧視,還是時(shí)代背景下體現(xiàn)的種種社會(huì)矛盾和不公正等問題,社會(huì)主義核心價(jià)值觀作為一種精神力量,都可以發(fā)揮出道德教化和正向的引導(dǎo)作用。在制定人工智能行業(yè)道德規(guī)范時(shí),應(yīng)將社會(huì)主義核心價(jià)值觀融入制度的框架中,實(shí)現(xiàn)行業(yè)規(guī)范與價(jià)值導(dǎo)向的有機(jī)統(tǒng)一,從而達(dá)到約束和引導(dǎo)行業(yè)從業(yè)人員行為的目的。
人工智能技術(shù)的飛躍性與人類社會(huì)法治系統(tǒng)迭代的滯后性并存,任何政府都難以完全與時(shí)代的發(fā)展同步趕制出調(diào)整其發(fā)展帶來可能后果的法規(guī)。面對(duì)日益強(qiáng)大的算法、人工智能等技術(shù),應(yīng)意識(shí)到人在實(shí)踐活動(dòng)中的主體性。從社會(huì)層面來看,提高公眾應(yīng)對(duì)人工智能的相關(guān)認(rèn)知水平,不僅能在社會(huì)中建立對(duì)人工智能的廣泛理解和接受,還能提高人們的風(fēng)險(xiǎn)意識(shí),理性對(duì)待智能社會(huì)可能面臨的問題,以增強(qiáng)抗風(fēng)險(xiǎn)的能力。通過開展更廣泛的人工智能專題科普活動(dòng),增加相關(guān)專業(yè)領(lǐng)域書籍的翻譯與出版,以及強(qiáng)化媒體平臺(tái)參與宣傳等,提升公民辨別虛假信息以及理性批判思維的能力,全面提升公眾的智能時(shí)代生活素養(yǎng),更好地享受智能社會(huì)帶來的便捷與福利。從國家層面來說,政府應(yīng)加大人工智能領(lǐng)域人才隊(duì)伍的建設(shè),提高整個(gè)社會(huì)乃至國家的抗風(fēng)險(xiǎn)能力。以政府為主導(dǎo),聯(lián)合學(xué)校、科研院所、企業(yè)等主體進(jìn)行人工智能的產(chǎn)學(xué)研合作,通過職業(yè)教育、產(chǎn)業(yè)扶持以及社會(huì)保障等途徑,培育一批人工智能領(lǐng)域的尖端人才,打造科技創(chuàng)新更高平臺(tái),吸納國內(nèi)外智能科技精英,營造人工智能發(fā)展的良好人才環(huán)境。
當(dāng)我們朝著未來向前邁進(jìn)時(shí),技術(shù)發(fā)展帶來的社會(huì)變革使我們處于一個(gè)十字路口,正如霍金先生所憂思的,“成功創(chuàng)造人工智能將是人類歷史最大事件,若不懂如何避開風(fēng)險(xiǎn),這也將是最后的大事”(28)王世梅:《智慧與智慧場(chǎng)》,西安:西北大學(xué)出版社,2016年,第78頁。。面對(duì)技術(shù)進(jìn)步帶來的治理困境和挑戰(zhàn),我們必須正確理解和對(duì)待算法技術(shù),充分發(fā)揮人的主觀能動(dòng)性,謹(jǐn)慎對(duì)待智能科技,塑造向善的技術(shù)倫理觀,構(gòu)建以人為本、合乎道德的智能時(shí)代治理圖景。
湖北大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)2020年1期