摘要:人工智能對意識形態(tài)的操控能力,既源于法蘭克福學(xué)派對科學(xué)技術(shù)與意識形態(tài)的關(guān)系的辨析,也緣于人工智能技術(shù)的特性。人工智能對意識形態(tài)的操控表現(xiàn)在:作為一種技術(shù)工具對意識形態(tài)的操控;資本、權(quán)力、技術(shù)的控制者利用人工智能操控意識形態(tài);機器人本身所具有的意識形態(tài)。人工智能對意識形態(tài)的操控可能會帶來透明人的法律和倫理風(fēng)險、算法偏見和算法獨裁風(fēng)險、不同國家意識形態(tài)沖突失控風(fēng)險?;膺@些風(fēng)險需要綜合運用AI倫理、法律手段和技術(shù)力量。
關(guān)鍵詞:人工智能;意識形態(tài);風(fēng)險化解
基金項目:教育部哲學(xué)社會科學(xué)研究重大課題攻關(guān)項目“人工智能的哲學(xué)思考研究”(項目編號:18JZD013);陜西省教育廳專項科研計劃項目“信息時代的價值沖突與價值共識問題研究”(項目編號:16JK1038)
中圖分類號:B022 ? ?文獻標(biāo)識碼:A ? ?文章編號:1003-854X(2020)02-0011-06
隨著以深度神經(jīng)網(wǎng)絡(luò)為基礎(chǔ)的人機交互、機器學(xué)習(xí)、自然語言處理、模式識別等技術(shù)的突破性進展,人工智能迎來了發(fā)展的“第三次高潮”。與以往的技術(shù)不同,人工智能是具有人類“思維”的智能機器,是一種深刻改變世界甚至深刻改變?nèi)祟惖淖兏镄?、顛覆性技術(shù)。當(dāng)人工智能的“觸角”逐漸伸入社會的每一個角落之時,當(dāng)國家的各種活動高度依賴于各種智能系統(tǒng)之時,當(dāng)意識形態(tài)被人工智能技術(shù)“俘獲”和“刻畫”之時,我們不禁要追問:人工智能何以能夠?qū)σ庾R形態(tài)進行操控?人工智能對意識形態(tài)的操控表現(xiàn)在哪些方面?這些“操控”會帶來什么風(fēng)險?如何化解這些風(fēng)險?
一、人工智能何以能夠?qū)σ庾R形態(tài)進行操控?
人工智能是集眾多高精尖科技為一體的交叉復(fù)合型創(chuàng)新技術(shù),其對意識形態(tài)的操控能力,既源于法蘭克福學(xué)派對科學(xué)技術(shù)與意識形態(tài)關(guān)系的辨析,也緣于人工智能技術(shù)的特性。
(一)法蘭克福學(xué)派對科學(xué)技術(shù)與意識形態(tài)關(guān)系的辨析
關(guān)于科學(xué)技術(shù)與意識形態(tài)關(guān)系問題,以霍克海默、阿多諾、馬爾庫塞、哈貝馬斯為代表的法蘭克福學(xué)派曾傾注了極大的興趣探究科學(xué)技術(shù)的意識形態(tài)屬性、功能等問題,形成了獨樹一幟的科技意識形態(tài)理論。在他們那里,科學(xué)技術(shù)的意識形態(tài)功能實際上反映了其作為一種工具操控意識形態(tài)的現(xiàn)象。這為我們探究人工智能對意識形態(tài)的操控問題提供了學(xué)理依循。
首先,科學(xué)技術(shù)本身就是一種意識形態(tài)。阿爾都塞曾斷言,科學(xué)與意識形態(tài)之間橫著一條“鴻溝”。但霍克海默指出:“不僅形而上學(xué),而且還有它所批評的科學(xué),皆為意識形態(tài)的東西。”① 霍克海默與阿多諾在合著的《啟蒙辯證法》中認為:“技術(shù)上的合理性,就是統(tǒng)治上的合理性本身。它具有自身異化的社會的強制性質(zhì)。”② 如果說霍克海默和阿多諾對技術(shù)操控意識形態(tài)的描述和哲學(xué)批判稍顯隱約,那馬爾庫塞則旗幟鮮明、一針見血地指出,當(dāng)代發(fā)達資本主義社會由于技術(shù)裝備日益自動化,技術(shù)“中立性”的傳統(tǒng)概念被打破,技術(shù)被納入在政治統(tǒng)治的框架中,具有思想灌輸和操縱的作用,能夠為政治統(tǒng)治提供概念和工具,即“技術(shù)控制看來真正體現(xiàn)了有益于整個社會集團和社會利益的理性”③。在馬爾庫塞看來,科學(xué)技術(shù)的意識形態(tài)屬性是通過科學(xué)技術(shù)對社會的控制和調(diào)節(jié)實現(xiàn)的。因為發(fā)達工業(yè)社會是由科學(xué)技術(shù)的進步而形成的一個新型的極權(quán)主義社會,它窒息了人們對自由獨立思想新鮮空氣的攝取,削弱了否定性思考的力量(物理性批判力量)。哈貝馬斯也認為,在發(fā)達工業(yè)資本主義社會中,基于發(fā)達工業(yè)社會國家干預(yù)活動增加而導(dǎo)致的政治合法性危機和科學(xué)技術(shù)成為“第一生產(chǎn)力”的原因,科學(xué)技術(shù)在整個社會生產(chǎn)生活中變成最高評價標(biāo)準(zhǔn),成為一種操控的手段,從而具有了意識形態(tài)的功能。
其次,科學(xué)技術(shù)對意識形態(tài)的操縱是通過生活化邏輯的隱性形式進行的。傳統(tǒng)政治意識形態(tài)的運行主要是依靠統(tǒng)治階級自上而下的政治宣傳教育。進入發(fā)達工業(yè)社會,科技意識形態(tài)運行的邏輯主要通過工業(yè)文化科技產(chǎn)品在日常生活中的廣泛應(yīng)用,使人們安于眼下的生活狀況而失去批判社會基本問題的能力?;艨撕D赋?,資本主義文化工業(yè)產(chǎn)品諸如電影、電視、無線廣播等到處被使用,甚至在人們消遣娛樂時也會被“靈活地消費”。這種“文化工業(yè)的每一個運動,都不可避免地把人們再現(xiàn)為整個社會所需要塑造出來的那種樣子”④。馬爾庫塞認為,發(fā)達工業(yè)社會生產(chǎn)機構(gòu)及其所生產(chǎn)的商品和服務(wù)設(shè)施起著思想灌輸和操控作用,它會引導(dǎo)人們產(chǎn)生一種“虛假的難以看出謬誤的意識”,這種意識已經(jīng)潛化為人們的一種生活方式,而且是形式上比以前更好的生活方式。哈貝馬斯指出,統(tǒng)治階級通過科技進步成果對個人需求補償?shù)姆绞剑ㄌ峁┪镔|(zhì)福利)獲得民眾對政治統(tǒng)治的忠誠和認可,即科學(xué)技術(shù)成為政治統(tǒng)治的合法性基礎(chǔ),表現(xiàn)為“技術(shù)統(tǒng)治的意識”。與以往舊的意識形態(tài)相比較,“技術(shù)統(tǒng)治的意識”所具有的“意識形態(tài)性較少”,而占主導(dǎo)地位的隱形意識形態(tài)“比之舊式的意識形態(tài)更加難以抗拒,范圍更為廣泛”⑤。
(二)人工智能技術(shù)的特性為其操控意識形態(tài)提供了有利條件
從人工智能技術(shù)的特性來看,由于AI技術(shù)具有強滲透性和廣泛應(yīng)用性等特征,一方面,借助于移動互聯(lián)網(wǎng)、大數(shù)據(jù)、云計算、物聯(lián)網(wǎng)等技術(shù)平臺,其在提高勞動效率、推動生產(chǎn)力發(fā)展方面冠絕以往所有的技術(shù),從而為人工智能在人類生產(chǎn)生活的殿堂中“登堂入室”提供了合法性基礎(chǔ)。另一方面,其在交通、醫(yī)療、教育、安保、文化等日常生活方面的廣泛應(yīng)用為人們創(chuàng)造了享受“美好生活”的圖式,滿足了哈貝馬斯所說的“對個人需求的補償”,具有“技術(shù)統(tǒng)治意識”的特性。更進一步,由于人工智能是具有一定人類“思維”的智能機器,其可以輔助或代替人類完成很多以前必須要人類親力親為的腦力和體力工作,開啟了智能生活的圖式。比如,定位導(dǎo)航靠軟件、出行靠自動駕駛、家務(wù)勞動靠機器人、交通管理靠智能指揮系統(tǒng)、社交依靠擬人化機器人伴侶,等等。智能生活圖式既會使人們徜徉于眼下舒適生活的“溫床”中而失去思考和批判社會基本問題的能力,也會使人類過度依賴于人工智能,產(chǎn)生“人工智能依賴癥”,其思想和觀念將在很大程度上被科技意識形態(tài)所俘獲。
隨著智能化技術(shù)和產(chǎn)品如潮水般涌入人們的生產(chǎn)生活,智能系統(tǒng)的活動正在成為一種不可或缺的社會活動方式,扮演著維系社會正常運轉(zhuǎn)、保證人們生產(chǎn)生活順利進行、提高工作學(xué)習(xí)效率的重要角色。這些智能系統(tǒng)的應(yīng)用打破了以往依靠工業(yè)文化武裝起來的一對多式的“信源→信宿”單向性、固定化傳接模式而造成的信源與信宿之間的信息分裂,利用大數(shù)據(jù)和搜索技術(shù)進行量身定做式個人化信息的精準(zhǔn)和動態(tài)定位、追蹤、推送,從而把意識形態(tài)的輸出化約為數(shù)據(jù)處理活動,形成了經(jīng)濟基礎(chǔ)與大數(shù)據(jù)共同宰制意識形態(tài)變化發(fā)展的狀態(tài),其中內(nèi)隱的意識形態(tài)操控不言而喻。
二、人工智能對意識形態(tài)操控的諸種表現(xiàn)
從人工智能的發(fā)展階段、人工智能與人類的關(guān)系、人工智能發(fā)展的社會因素角度出發(fā),人工智能對意識形態(tài)的操控主要表現(xiàn)在以下幾個方面:
(一)作為一種技術(shù)工具對意識形態(tài)的操控
塞爾曾借用哲學(xué)認識論的概念,對人工智能作了“強”和“弱”的區(qū)分。這一區(qū)分立足于現(xiàn)實和未來,既描述了人工智能的不同發(fā)展階段,也暗含了人工智能與人類的關(guān)系,為我們分析人工智能對意識形態(tài)的操控提供了一個視角。
在弱人工智能階段,人工智能僅僅作為一種工具被人類使用,人類與人工智能是主客體關(guān)系,人工智能對意識形態(tài)的操控主要表現(xiàn)為建立在機器學(xué)習(xí)基礎(chǔ)上的算法操縱。隨著海量數(shù)據(jù)的爆炸性增長和計算機計算能力的快速提高,機器學(xué)習(xí)技術(shù)不僅廣泛應(yīng)用于自然科學(xué)領(lǐng)域,而且也開始應(yīng)用于人類社會,用于分析、預(yù)測人類社會現(xiàn)象。機器學(xué)習(xí)是對海量數(shù)據(jù)的處理,解決的是“知識發(fā)現(xiàn)問題”,其本質(zhì)上是一種算法,這種算法本身存在著意識形態(tài)操控現(xiàn)象。比如,在社交媒體上,基于越來越多的用戶開始使用圖片和短視頻表達自己的想法,美國羅徹斯特大學(xué)計算機系教授Lebo Luo與Adobe Research 研究人員運用監(jiān)督學(xué)習(xí)中的深度神經(jīng)網(wǎng)絡(luò)技術(shù),訓(xùn)練計算機進行文本情感分析,以便確定給定圖片可能呈現(xiàn)出的人類情感。這項工作可能會對預(yù)測選舉結(jié)果很有幫助,從而體現(xiàn)出“工具屬性”的意識形態(tài)操控。據(jù)統(tǒng)計:“圖片情緒分類準(zhǔn)確度已經(jīng)超出同類Twitter消息的文本情緒分類準(zhǔn)確度?!雹捱\用監(jiān)督學(xué)習(xí)中決策樹的分類方法,可以建立判斷個人的價值取向、政治觀點、行為方式的很多數(shù)據(jù)觀測點(如年齡、學(xué)歷、履歷、政治面貌、工作單位、工作表現(xiàn)等)。利用這些數(shù)據(jù)訓(xùn)練建立與個人的價值取向、政治觀點、行為方式之間的關(guān)系,機器就可能較為便捷地預(yù)測和掌控個人意識形態(tài)的狀況,一定程度上破解以往個人意識形態(tài)分散、流變帶來的掌控難題。目前,人們熟悉的“今日頭條”推薦瀏覽特定新聞而進行的意識形態(tài)滲透所運用的算法就是“推薦算法”,這種算法也是機器學(xué)習(xí)算法的一種。
(二)資本、權(quán)力和技術(shù)的控制者利用人工智能操控意識形態(tài)
從人工智能發(fā)展的社會因素來看,AI對意識形態(tài)的操控并不僅僅是一個技術(shù)問題,其背后往往交織著復(fù)雜的社會關(guān)系。其中,資本、權(quán)力和技術(shù)的控制者基于自己的利益激烈地爭奪人工智能的控制權(quán)進而操控意識形態(tài)的種種“面相”,是人們不得不面對的一個重大現(xiàn)實問題。
在機器大工業(yè)時代,馬克思立足于物質(zhì)生產(chǎn)實踐,從科學(xué)技術(shù)(生產(chǎn)力)與生產(chǎn)關(guān)系的關(guān)系出發(fā),論述了資本和權(quán)力對工業(yè)機器的操控問題。這對于我們理解智能時代資本和權(quán)力爭奪人工智能控制權(quán)提供了有益啟發(fā)。首先,馬克思認為,“資本只有一種生活本能,這就是增殖自身,獲取剩余價值”⑦,而工業(yè)技術(shù)創(chuàng)新帶來的相對剩余價值生產(chǎn)正好契合了這一要求。換句話說,資本對機器的操控表現(xiàn)在:“資本試圖通過技術(shù)變革控制剩余價值的生產(chǎn)過程和實現(xiàn)過程,以最大化無償占有工人創(chuàng)造的剩余價值”⑧。馬克思論述生產(chǎn)資本對工業(yè)機器的操控,實際上體現(xiàn)了資產(chǎn)階級剝削、壓迫工人的意識形態(tài)問題。邁入智能時代,相比工業(yè)機器,智能化機器在資本主義社會生產(chǎn)中的應(yīng)用更能帶來“資本增值”。因此,“就實質(zhì)而言,在資本主義條件下,人工智能實際上是資本謀取剩余價值進而維持整個資本主義制度體系存活的技術(shù)工具”⑨。其次,馬克思從資本主義生產(chǎn)方式出發(fā)分析了權(quán)力和技術(shù)的關(guān)系。他認為,一方面,工業(yè)革命使得資產(chǎn)階級獲得了政治統(tǒng)治和經(jīng)濟統(tǒng)治上的權(quán)力,確立了資產(chǎn)階級的意識形態(tài);另一方面,工業(yè)機器也是工人的“敵對力量”,其不僅“成了鎮(zhèn)壓工人反抗資本專制的周期性暴動和罷工等等的最強有力的武器”⑩,而且技術(shù)上的進步意味著資產(chǎn)階級對工人奴役程度的加深。因此工人想擺脫這種被奴役的狀態(tài),獲得政治上的統(tǒng)治權(quán)力,就必須徹底打破此種技術(shù)的資本主義應(yīng)用,打破資產(chǎn)階級意識形態(tài)的統(tǒng)治地位。反觀智能機器,其當(dāng)然也為資產(chǎn)階級的意識形態(tài)統(tǒng)治提供了技術(shù)支撐,但更為重要和讓人心潮澎湃的是,智能機器在生產(chǎn)生活中的廣泛應(yīng)用帶來的生產(chǎn)力高度發(fā)展、物質(zhì)產(chǎn)品極大豐富、人的自由時間的增加、信息和知識可共享性(生產(chǎn)資料的真正公有制)等現(xiàn)象“讓我們離馬克思所設(shè)想的共產(chǎn)主義社會更近了,或者說,它正在提供實現(xiàn)共產(chǎn)主義的一些關(guān)鍵性的現(xiàn)實條件”。也可以說,這些現(xiàn)象為無產(chǎn)階級掌握統(tǒng)治權(quán)力、獲得解放和資本主義意識形態(tài)向共產(chǎn)主義意識形態(tài)轉(zhuǎn)變創(chuàng)造了關(guān)鍵性的實現(xiàn)條件。
在工業(yè)資本主義時代技術(shù)的控制者操控技術(shù)的現(xiàn)象基本可以還原為當(dāng)代資本和權(quán)力對人工智能的操控,因為技術(shù)的控制者大都服務(wù)于資本或者屈從于權(quán)力。但有一點需要說明,馬克思在工業(yè)資本主義時代所面對的是作為工具的工業(yè)技術(shù),而智能技術(shù)是一項能夠?qū)θ?、人類社會產(chǎn)生深遠影響和挑戰(zhàn)的顛覆性技術(shù),其影響力已經(jīng)遠遠超出作為一種工具而使用的范圍。因此,在智能時代,智能技術(shù)控制者的作用大大增強。在這種情況下,他們掌控技術(shù)的目的有可能服務(wù)于資本或者屈從于權(quán)力,也有可能是為了享受突破技術(shù)難點帶來的快感和成就感(如“黑客”),這與意識形態(tài)的操控沒有關(guān)系。
(三)機器人本身所具有的的意識形態(tài)
在強人工智能階段,機器與人類智能并駕齊驅(qū)或超越人類智能的“奇點”將會到來。庫茲韋爾曾大膽預(yù)測,到2029年,“人類和機器之間的鴻溝不復(fù)存在”,并且“機器們聲稱自己有了主觀意識,有了和人類一樣豐富的情感和心靈體驗”。從可知論、量變與質(zhì)變的辯證關(guān)系來看,強人工智能的到來具有必然性。在強人工智能階段,機器人與人類社會存在兩種可能性關(guān)系:和諧共存或分裂對抗。和諧共存是指機器人與人類不分高下優(yōu)劣,二者和諧共在,相得益彰。費爾森斯丁認為,當(dāng)機器人變得足夠復(fù)雜的時候,它們不會成為“主人”或“仆人”,而會成為“人類的伙伴”。《紐約時報》高級記者約翰·馬爾科夫認為:“當(dāng)AI和AI圈引領(lǐng)的技術(shù)繼續(xù)重塑世界之時,未來其他的可能性就淡出了人們的視野:在那個世界中,人類和人類創(chuàng)造的機器共同存在,一起繁榮。” 在此種境遇下,機器人與人類共存于宇宙之中,并作為人類的伙伴與人類相互幫助、和諧共處,其沒有必要建立屬于自己的意識形態(tài),即便有,也是蘊含“與人類和平共處”價值觀的意識形態(tài),此時的意識形態(tài)仍然是人類的意識形態(tài)。分裂對抗論認為,強人工智能或超人工智能的出現(xiàn)將使其與人類分裂、對立并危害人類。如諾伯特·維納、埃隆·馬斯克、史蒂芬·霍金等科學(xué)家或企業(yè)家都表達了此類觀點。牛津大學(xué)人類未來研究院創(chuàng)始人尼克·波斯特羅姆(Nick Bostrom)教授則直接指出,人工智能機器一旦在智力上超過人類,它就會背叛我們。在這一階段,如果機器人在自我意識中將自己與人類社會對立起來,那其必然會建立與人類截然相反的屬于自己的意識形態(tài)。
三、人工智能對意識形態(tài)的操控可能帶來的風(fēng)險
人工智能對意識形態(tài)的操控既有利于意識形態(tài)的自動追蹤分析、提前預(yù)判、精準(zhǔn)推送,也可能會帶來一些重大風(fēng)險,主要表現(xiàn)在:
(一)透明人的法律和倫理風(fēng)險
所謂“透明人”,是指“通過大數(shù)據(jù)的對比和信息還原,每一個個體在一系列時間段的所有行為都可以在事后還原出來,由此每個人的生活狀態(tài)都將在很大程度上成為透明的”。目前,人工智能在圖像、語音和圖像識別、語義理解、人機交互、自動搜索和分類等領(lǐng)域取得的突破性進展依賴于對海量感知數(shù)據(jù)、網(wǎng)絡(luò)數(shù)據(jù)、社交數(shù)據(jù)、商業(yè)數(shù)據(jù)等數(shù)據(jù)群的機器分析,這也是人工智能操縱意識形態(tài)的重要途徑。作為知識和價值的轉(zhuǎn)換器,大數(shù)據(jù)由此也成為社會各領(lǐng)域的重要資源。隨著以網(wǎng)絡(luò)為基礎(chǔ)的各類App的紛紛出現(xiàn)和各種智能系統(tǒng)嵌入人們的生存環(huán)境中,人們的生產(chǎn)生活呈現(xiàn)出“軟件化”和“智能感知化”的特點。在智能化的生存環(huán)境中,移動網(wǎng)絡(luò)、傳感器和各種信息處理設(shè)備會隨時隨地記錄個人的行為數(shù)據(jù)(購物內(nèi)容、居住地址、出行路線、網(wǎng)絡(luò)言論、生活習(xí)慣等),并把其傳送給服務(wù)商或政府機構(gòu),以便他們分析和掌握個人的意識形態(tài)狀況。比如,智能家居會把“窺探”的目光深入到最具隱私性的“家庭領(lǐng)地”中;“機(智能手機)不離身”為數(shù)據(jù)中心或服務(wù)后臺掌握、監(jiān)控個人的意識形態(tài)狀況開啟了便捷的大門,等等。這種現(xiàn)象將個人的信息悄然、無奈地暴露在服務(wù)商或政府機構(gòu)的“平臺曠野”中,人們的一舉一動均可被記錄和還原。甚至于掌握這些數(shù)據(jù)的人比我們自己更了解自己,個人將變?yōu)橥该骰蜔o隱私化的人??梢灶A(yù)見,智能時代關(guān)于侵犯隱私和保護隱私而產(chǎn)生的法律糾紛、沖突風(fēng)險以及關(guān)于隱私泄露而造成的倫理沖突風(fēng)險會越來越大。
(二)算法偏見和算法獨裁風(fēng)險
算法偏見也稱算法歧視,是指“在看似客觀中立、沒有惡意的程序設(shè)計中,卻帶著開發(fā)者的偏見,或者因所采用的數(shù)據(jù)存在傾向性,或者因設(shè)計技術(shù)局限,在實際應(yīng)用中導(dǎo)致了種族歧視、性別歧視、年齡歧視、階層歧視、區(qū)域歧視、仇外思想等嚴重的政治后果”。美國賓夕法尼亞大學(xué)沃頓商學(xué)院的Alex P. Miller 在《不想被偏見左右?那就用算法》一文中曾指出:“過去做決策的人非常糟糕,用算法代替他們,既提高了準(zhǔn)確性,又減少了機構(gòu)偏見?!?Miller對于算法過于推崇的觀點遭到了fast.ai的創(chuàng)始人Rachel Thomas的批判。后者認為:“在所有情況下,算法都有人參與,即誰收集數(shù)據(jù)(以及他們有什么偏見)、做出哪些設(shè)計決策、如何實施決策、如何將結(jié)果用于決策,了解各利益相關(guān)者對算法的正確使用和局限性等?!?這些人為因素都會影響算法的客觀性。算法偏見在意識形態(tài)領(lǐng)域最突出的表現(xiàn)是社會排斥。統(tǒng)治階級、控制算法技術(shù)的資本家、掌握算法程序設(shè)計的技術(shù)人員都可以利用算法故意制造算法偏見,在政治權(quán)利、經(jīng)濟利益、文化參與等領(lǐng)域形成對被統(tǒng)治階級或不同意識形態(tài)階層、人群的排斥,讓冰冷的智能系統(tǒng)無情地將他們的各種“福利”和“待遇”擋在外面,甚至終生遭受歧視而不得解脫。在資本主義社會中,算法偏見是資產(chǎn)階級排斥工人階級的一把“利劍”。比如,通過研制和訓(xùn)練特定的投票統(tǒng)計智能機器,在選舉、征求意見、爭取民主權(quán)利等方面排斥工人階級;通過研制和訓(xùn)練特定的聊天機器人,在社交軟件上自動散布意識形態(tài)偏見信息、自動屏蔽與統(tǒng)治階級意見相左的意識形態(tài)信息。
算法獨裁也稱為“算法黑箱”,是指算法本身的不透明性而導(dǎo)致的由算法來決定裁判結(jié)果的現(xiàn)象。在意識形態(tài)領(lǐng)域,算法獨裁主要表現(xiàn)在:第一,對算法高度依賴導(dǎo)致的算法獨裁。算法系統(tǒng)以大數(shù)據(jù)為基礎(chǔ),而對每一個人的意識形態(tài)數(shù)據(jù)進行聚合和分析,乃是算法最擅長做的事情。因此,人們常常為了省時省力和確保所謂的“客觀”,會將選擇權(quán)完全交給算法,從而導(dǎo)致算法獨裁。第二,受資本和權(quán)力控制的算法程序設(shè)計人員利用算法作出對自己有利的裁判結(jié)果。更進一步,如果某領(lǐng)域的運行規(guī)律被算法破解和代替,他們可能會基于自己的特殊利益而利用算法主宰這些規(guī)律,造成難以預(yù)料的社會風(fēng)險。在強人工智能時代,AI算法將會破解人類思維、情感、自我意識等人類最后的“秘密領(lǐng)地”。那時,我們將真正進入“算法統(tǒng)治的時代”,而基于人—機意識形態(tài)的不同,智能機器將可能成為“永久的獨裁者”。
(三)不同國家意識形態(tài)沖突失控風(fēng)險
不同國家在社會制度、政治體制、經(jīng)濟體制、文化基因等方面存在差異,使得它們的意識形態(tài)一直處在沖突或劍拔弩張的狀態(tài)中,特別是中國和西方國家的意識形態(tài)沖突表現(xiàn)尤甚。
從意識形態(tài)的角度觀之,發(fā)展人工智能是一個國家增強自己意識形態(tài)吸引力、爭奪意識形態(tài)領(lǐng)導(dǎo)權(quán)和話語權(quán)的重要方式。人工智能是滲透性極強的“智慧”機器,其對意識形態(tài)具有更隱蔽、更便捷、更快速的操縱能力。在以往的電力和電磁革命中,西方國家一直使用相關(guān)技術(shù)成果(電視、廣播等)搶占意識形態(tài)的話語權(quán),極力抹黑與其意識形態(tài)對立的國家。但這些意識形態(tài)的攻擊囿于人群聚合的物理時空限制而無法對每一個人產(chǎn)生影響。面對智能化革命潮浪,移動互聯(lián)網(wǎng)、大數(shù)據(jù)、云計算、物聯(lián)網(wǎng)、傳感器、智能翻譯機器等新技術(shù)的綜合應(yīng)用可以隨時隨地直面全球范圍內(nèi)分散的每一個人,并精準(zhǔn)捕獲他們的個人信息。當(dāng)前,西方國家特別是美國在經(jīng)濟實力、文化軟實力、信息科技、智能技術(shù)等方面具有的優(yōu)勢使得他們竭力在全球范圍內(nèi)搶占意識形態(tài)領(lǐng)導(dǎo)權(quán)和話語權(quán)。比如,美國經(jīng)常憑借大數(shù)據(jù)挖掘技術(shù)的支撐,以人工智能算法為武器,通過制造假新聞傳播虛假信息、封殺網(wǎng)站和別國民眾在社交媒體(推特、臉譜)上的賬號等手段惡意丑化、黑化、攻擊與自己意識形態(tài)對立的國家,加劇了意識形態(tài)的對立和沖突失控風(fēng)險。
四、人工智能對意識形態(tài)操控可能帶來的社會風(fēng)險化解策略
人工智能對意識形態(tài)操控可能會帶來的風(fēng)險是AI發(fā)展過程中必然要面對的現(xiàn)實問題?;膺@些風(fēng)險需要綜合運用AI倫理規(guī)范、法律手段和技術(shù)力量。
(一)運用人工智能倫理準(zhǔn)則規(guī)范從業(yè)人員的思想和行為
人工智能對意識形態(tài)操控可能會帶來的風(fēng)險向倫理領(lǐng)域提出了化解風(fēng)險的強烈呼聲。這就需要建立人工智能倫理準(zhǔn)則,從而規(guī)范相關(guān)從業(yè)人員的思想和行為。倫理規(guī)范并不是情感、偏好、習(xí)慣、主觀臆斷的“代名詞”。美國學(xué)者理查德·A.斯皮內(nèi)洛指出:“道德判斷的基礎(chǔ)能夠而且應(yīng)當(dāng)是建立在合乎理性的道德原則以及健全的經(jīng)過細致推理的論據(jù)之上的。規(guī)范性主張的背后是那些通過理性話語展示的可以辯護的道德原則。” 人工智能倫理首先應(yīng)該確立一種道德信念、信仰、理想,即這種技術(shù)是為人類服務(wù)的,而不是傷害人類;是為大多數(shù)人或國家的利益服務(wù)的,而不是少數(shù)別有用心的人或國家用來推行“技術(shù)極權(quán)主義”和“技術(shù)沙文主義”的借口。2017年美國電氣和電子工程師協(xié)會(IEEE)宣布的三項新的人工智能倫理標(biāo)準(zhǔn)就是為了確保人類不受人工智能的威脅。2019年4月歐盟委員會發(fā)布的人工智能倫理準(zhǔn)則指出,“可信賴的人工智能”應(yīng)尊重基本人權(quán)、規(guī)章制度、核心原則及價值觀。其次,應(yīng)建立人工智能倫理規(guī)范內(nèi)化機制,通過宣傳教育引導(dǎo)、實踐養(yǎng)成、制度保障等途徑把AI道德信念、信仰、理想內(nèi)化為從業(yè)人員靈魂深處的價值準(zhǔn)則,確保他們有一顆維護公正的“良心”。
(二)運用法律手段加強個人信息保護和算法治理
法律手段是化解人工智能對意識形態(tài)操控可能會帶來的風(fēng)險的有效手段。
首先,通過立法,為保護個人信息和規(guī)范良性算法建立監(jiān)管的法律基礎(chǔ)。日本于2005年4月1日實施的《個人信息保護法》在保護個人信息、增強公民維權(quán)意識等方面取得了良好的效果。我國在《中華人民共和國刑法修正案(九)》(2015年)、《中華人民共和國網(wǎng)絡(luò)安全法》(2016年)、《中華人民共和國民法總則》(2017年)中,也分別從侵犯公民個人信息罪、個人信息收集和使用以及保護、自然人的個人信息受法律保護的角度對保護個人信息作了明確規(guī)定。為了在立法層面打擊違法信息與規(guī)制社交媒體,德國于2017年通過的《網(wǎng)絡(luò)執(zhí)行法》規(guī)定:“明顯違法的內(nèi)容在收到投訴24小時內(nèi)必須刪除或者屏蔽,僅在與偵查機關(guān)約定更長期限的情況下存有例外;對其他違法內(nèi)容應(yīng)當(dāng)及時(一般在7天內(nèi))予以刪除或者屏蔽。” 目前,世界各國在算法偏見和算法獨裁方面的立法工作亟待加強。其次,通過加強執(zhí)法力度,既促進個人信息保護法律真正“落地”,也規(guī)范和調(diào)整算法治理中多元治理主體之間復(fù)雜的互動關(guān)系,落實算法治理的法律主體責(zé)任。法律的生命力在于實施,而加強執(zhí)法力度是實施善法最重要的途徑。對于違反個人信息保護法、故意制造算法偏見和算法獨裁、編造和散布假新聞的行為主體,必須依法打擊和制裁。
(三)運用技術(shù)力量矯正技術(shù)漏洞和人為缺陷
人工智能技術(shù)是一項正在快速發(fā)展并遠未定型的革命性技術(shù),其在發(fā)展的過程中難免會出現(xiàn)技術(shù)漏洞和人為缺陷。對此,可以運用“技術(shù)反制技術(shù)”的思路,通過更優(yōu)技術(shù)矯正技術(shù)漏洞和人為缺陷,防范和化解人工智能對意識形態(tài)操控可能會帶來的風(fēng)險。比如,面對個人信息肆意泄露而造成的“透明人”現(xiàn)象,可以通過加密技術(shù)、匿名化技術(shù)、屏蔽技術(shù)等手段防止惡意搜集信息;通過建立信息可追溯技術(shù)體系,加強對竊取、泄露個人隱私信息的源頭追溯,為法律制裁提供證據(jù)支撐;通過研制和安裝相關(guān)隱私保護的軟件,提醒消費者哪些個人信息正在被搜集,由消費者決定是否繼續(xù)瀏覽該網(wǎng)站。對于算法偏見和算法獨裁風(fēng)險,可采用數(shù)據(jù)采集完整性技術(shù)降低或消除數(shù)據(jù)的不準(zhǔn)確、分布偏差等缺陷;運用區(qū)域鏈技術(shù)保證記錄可追查與記錄不會被篡改,以便技術(shù)人員矯正技術(shù)漏洞和人為缺陷;通過偏見檢測技術(shù),檢測并減少可能產(chǎn)生的偏見(如IBM將自己研發(fā)的偏見檢測工具AI Fairness 360工具包開源,從而為檢測偏見提供了一個平臺);為機器學(xué)習(xí)增加手動限制和為機器安裝一顆“良芯”,確保用戶更好地控制人工智能程序,防止算法獨裁現(xiàn)象出現(xiàn)。
總之,人工智能對意識形態(tài)的操控是AI技術(shù)及其發(fā)展與意識形態(tài)問題交織而必然出現(xiàn)的一種現(xiàn)象。明晰人工智能何以能夠?qū)σ庾R形態(tài)進行操控、廓清人工智能對意識形態(tài)操控的諸種表現(xiàn)、研判人工智能對意識形態(tài)的操控可能會帶來的風(fēng)險及其化解策略,對于發(fā)展人工智能、防止意識形態(tài)沖突失控具有重要作用。
注釋:
① 馬克斯·霍克海默:《批判理論》,李小兵等譯,重慶出版社1989年版,第5頁。
②④ 馬克斯·霍克海默,特奧多·阿多爾諾:《啟蒙辯證法》,洪佩郁、藺月峰譯,重慶出版社1990年版,第113、118頁。
③ 赫伯特·馬爾庫塞:《單向度的人——發(fā)達工業(yè)社會意識形態(tài)研究》,劉繼譯,上海世紀出版集團2008年版,第9頁。
⑤ 尤爾根·哈貝馬斯:《作為“意識形態(tài)”技術(shù)與科學(xué)》,李黎、郭官義譯,上海學(xué)林出版社1999年版,第69頁。
⑥ Tony Thorne MBE:《奇點來臨》,趙俐譯,人民郵電出版社2016年版,第101頁。
⑦⑩《馬克思恩格斯文集》第5卷,人民出版社2009年版,第269、501頁。
⑧ 蔡敏、周端明:《技術(shù)是資本控制勞動的工具:馬克思主義技術(shù)創(chuàng)新理論》,《貴州社會科學(xué)》2012年第4期。
⑨ 蔣紅群:《無產(chǎn)階級會淪為無用階級嗎?》,《馬克思主義研究》2018年第8期。
孫偉平:《智能社會與共產(chǎn)主義社會》,《華中科技大學(xué)學(xué)報》(社會科學(xué)版)2018年第4期。
雷·庫茲韋爾:《機器之心》,胡曉嬌、張溫卓瑪、吳純潔譯,中信出版集團2016年版,第288、290頁。
約翰·馬爾科夫:《與機器人共舞》,郭雪譯,浙江人民出版社2015年版,第165頁。
高奇琦:《人工智能:馴服賽維坦》,上海交通大學(xué)出版社2018年版,第215頁。
汝緒華:《算法政治:風(fēng)險、發(fā)生邏輯與治理》,《廈門大學(xué)學(xué)報》(哲學(xué)社會科學(xué)版)2018年第6期。
Alex P. Miller, Want Less-Biased Decisions?Use Algorithms,Harvard Business Review Digital Articles, July 26, 2018.
Rachel Thomas, What HBR Gets Wrong about Algorithms and Bias, Fast.ai, Aug. 7, 2018.
鄭戈:《算法的法律與法律的算法》,《中國法律評論》2018年第2期。
理查德·A·斯皮內(nèi)洛:《世紀道德:信息技術(shù)的倫理方面》,劉鋼譯,中央編譯出版社1999 年版,第21頁。
查云飛:《德國對網(wǎng)絡(luò)平臺的行政法規(guī)制——邁向合規(guī)審查之路徑》,《德國研究》2018年第3期。
作者簡介:趙寶軍,陜西科技大學(xué)馬克思主義學(xué)院副教授,陜西西安,710021。
(責(zé)任編輯 ?胡 ?靜)