亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        智能社會治理中的民眾權益保障:困境、挑戰(zhàn)與優(yōu)化*

        2022-11-25 19:10:18趙洲洋
        社會科學 2022年6期
        關鍵詞:民眾人工智能數(shù)字

        趙洲洋

        一、問題的提出

        技術對人們享有權利和福利產生了巨大且深遠的影響。信息時代越來越多的技術創(chuàng)新、迭代都以數(shù)據(jù)為基礎。與以往的技術相比,數(shù)據(jù)與數(shù)字技術更加靈活、更易于流動,使其影響的范圍更大。以大數(shù)據(jù)、云計算等數(shù)字技術為基礎,使機器實現(xiàn)感知、認知、決策、行動等智能行為的人工智能,更是引領了新一輪科技革命和產業(yè)變革,增強了人類自我改造能力,豐富了社會治理的實踐方式,營造了空前透明的社會環(huán)境,推動人類社會迎來人機協(xié)同、跨界整合、共創(chuàng)分享的智能時代,(1)《習近平向國際人工智能與教育大會致賀信》,《人民日報》2019 年5 月17 日,第1 版。助推了民眾權益的擴展、深化與享有的便捷。中國順應時代地提出,推動互聯(lián)網、大數(shù)據(jù)、人工智能和實體經濟深度融合,建設智慧社會。(2)習近平:《不斷做強做優(yōu)做大我國數(shù)字經濟》,《求是》2021 年第2 期。智慧社會是高度網絡化、數(shù)字化和智能化的社會,其基本特征是在數(shù)字化基礎上實現(xiàn)萬物感知,在網絡化基礎上實現(xiàn)萬物互聯(lián),在智能化基礎上使社會更智慧,(3)汪玉凱:《智慧社會與國家治理現(xiàn)代化》,《中共天津市委黨校學報》2018 年第2 期。它是面向生活過程與社會細節(jié)的治理和服務模式的發(fā)展愿景,也將改變人們的社會連接方式,重組生產組織方式,重塑生活方式。(4)王天夫:《數(shù)字時代的社會變遷與社會研究》,《中國社會科學》2021 年第12 期。

        面對智慧社會帶來的變革且作為智慧社會建設的重要方面,黨的十九屆中央歷次全會提出“建立健全運用互聯(lián)網、大數(shù)據(jù)、人工智能等技術手段進行行政管理的制度規(guī)則”,“以數(shù)字化轉型整體驅動治理方式變革”,“科技支撐的社會治理體系”與“信息化支撐的社會管理服務平臺”等要求,要求將大數(shù)據(jù)、云計算、人工智能等前沿智能技術運用于社會治理場景。(5)劉燦華:《社會治理智能化:實踐創(chuàng)新與路徑優(yōu)化》,《電子政務》2021 年第3 期。對此,各地近年來紛紛出臺各類舉措,釋放創(chuàng)新潛力,為利用數(shù)字技術進行智能社會治理與服務建設進行了有益的探索。越來越多的治理主體加入智能社會治理中來,基本形成“政府+公民+企業(yè)+組織+科研機構”的多元治理模式。(6)曲甜、張小勁:《大數(shù)據(jù)社會治理創(chuàng)新的國外經驗:前沿趨勢、模式優(yōu)化與困境挑戰(zhàn)》,《電子政務》2020 年第1 期。在就業(yè)、教育、衛(wèi)生、養(yǎng)老、社會保障與救助以及司法等社會治理與服務領域,通過判別服務對象、登記服務信息、預測可能的風險與服務內容等數(shù)字技術,公、私治理主體已經將云儲存、算法決策、人工智能與數(shù)字識別等數(shù)字技術應用于社會治理與服務。(7)林榮全:《數(shù)字化時代街頭官僚的責任性:分析框架與研究展望》,《電子政務》2021 年第10 期。以數(shù)字技術為支撐的智慧社會治理與服務具有明顯的高效性、(8)賈開:《人工智能與算法治理研究》,《中國行政管理》2019 年第1 期。預測性(9)高琦奇、張鵬:《從算法民粹到算法民主:數(shù)字時代下民主政治的平衡》,《華中科技大學學報(社會科學版)》2021 年第4 期。和混合性(10)韓志明、劉華云:《計算、算法和算力:基于信息的國家計算邏輯》,《探索與爭鳴》2021 年第3 期。,增強了社會治理的整體性、回應性、開放性和合作性。(11)王振興等:《大數(shù)據(jù)背景下社會治理現(xiàn)代化:解讀、困境與路徑》,《電子政務》2019 年第4 期。但同時它也具有不透明性和部分自主性。為了應對人工智能(AI)、間諜軟件和數(shù)字化國家等數(shù)字技術的影響,有研究者批判性地指出,如果不能從根本上改變對技術和私人行為的理解進路,就難以確保新技術的開發(fā)和運用會尊重和促進民眾的根本利益。那么在以數(shù)字化技術為支撐的社會治理中,是否存在數(shù)字技術難以突破的關于權益保障的結構性困境?數(shù)字技術的發(fā)展又為什么難以緩解甚至加劇一些結構性矛盾?與此同時,將數(shù)字技術應用于社會治理與服務又對民眾的權益和問責體系帶來了什么新的挑戰(zhàn)?又應該如何解決這些結構性困境與新興挑戰(zhàn)?中國和歐美國家?guī)缀跬瑫r開啟智慧社會治理與服務,考察國外經驗,對于理解智慧社會治理中民眾權益保障的問題具有重要意義。

        為此,文章將以既有研究為基礎,首先挖掘數(shù)字技術應用于社會治理與服務所形成的智能社會治理與服務依舊難以突破的結構性困境,以及其形成的機制,著重探討數(shù)字技術自身特性及其對公共權力、問責機制以及社會治理與服務中私人權力的影響。其次,探究數(shù)字技術應用于社會治理與服務所引發(fā)的對民眾權益和責任體系所帶來的新挑戰(zhàn)。需要注意的是,社會治理本身內含多主體性,以及數(shù)字技術的賦權,令高科技企業(yè)提供的數(shù)據(jù)和相關服務具有公共性,成為具有部分公共權力的主體,其運作過程也在行使公共權力,可能對民眾的權益和國家問責體系造成影響。例如國家或企業(yè)未經授權即使用新技術形成的工具來監(jiān)視甚至威嚇民眾,這不僅對民眾的福利構成風險,還會更根本地撼動傳統(tǒng)的責任體系,模糊并削弱了損害權利行為的責任,進而導致不平等。最后,由于人工智能的認知、決策、行動能力強大,將從價值、技術和制度幾個層面嘗試提出,在實踐中應對這些挑戰(zhàn)有效的方式。

        二、智能社會治理與服務中民眾權益面臨的結構困境

        和歷史上的技術進步一樣,數(shù)字技術的發(fā)展也影響著涉及民眾權利和大眾福利的法律制度和社會實踐,但數(shù)字技術應用于社會治理也存在一些難以突破的困境,甚至加深了一些結構性矛盾。首先,數(shù)字技術本身深深嵌入原有社會的權力關系之中;其次,它可能阻礙和破壞傳統(tǒng)的問責與追責機制;第三,由于數(shù)字技術的尖端性,使得傳統(tǒng)上不受法律和制度約束的私人行為者,擁有越來越多、越來越大的公共責任和權力。這三者是數(shù)字時代智能社會治理與服務在結構上對民眾權益的侵害。

        (一)技術嵌入既有權力關系

        數(shù)字技術所支撐的智能社會治理與服務并未能突破傳統(tǒng)的權力結構,甚至數(shù)字技術被質疑為一場由精英主導的游戲。(12)尤班克斯:《自動不平等》,李明倩譯,北京:商務印書館2021 年版,第2 頁。技術通常被視為分散和破壞穩(wěn)定權力關系的手段,如蘭德(Land)等人就認為技術為民眾更廣泛、更真實地提出訴求和保護民眾權益提供了機會。(13)Land M.K., “Participatory Fact-finding: Developing New Approaches to Human Rights Investigation through New Technologies”, in Alston, P., Knuckey, S., eds.,The Future of Human Rights Fact-Finding, Oxford, UK: Oxford University Press, 2015, pp. 399—424.盡管調查技術的發(fā)展可以關鍵性地推動問責運作,(14)Dubberley S., Koenig A., Murray D., “Introduction: the Emergence of Digital Witnesses”, in Dubberley S., Koenig A., Murray D.,eds.,Digital Witness:Using Open Source Information for Human Rights Investigation,Documentation,and Accountability, Oxford, UK: Oxford University Press, 2020, pp. 1—11.但從整體上來看,“技術能夠增強民眾權益與社會福利”的假設并未在實踐上被證實。圖費克奇(Tufekci)對“阿拉伯之春”和“占領華爾街”運動中社交媒體所發(fā)揮的作用進行了研究,他發(fā)現(xiàn),盡管技術推動社會運動以驚人的速度發(fā)展,但速度也限制了其發(fā)展成熟的能力,而這種能力是使社會運動能夠擁有長期權威和效力的關鍵。(15)Tufekci Z.,Twitter and Tear Gas:The Power and Fragility of Networked Protest, New Haven, CT: Yale University Press, 2017, pp.3—27.正如占領華爾街和“黃馬甲”等運動所表明的那樣,技術確實在許多方面有助于普通民眾提出訴求,但倡導關于民眾權益的長期變革依舊十分重要。

        針對科學和技術作用的研究認為“傳統(tǒng)的科學和創(chuàng)新政策會增加不平等,除非它們是專門為增進平等而設計的”。(16)Cozzens S, Thakur D., “Problems and Concepts”, In Cozzens S., Thaku Cheltenham D., eds.,Innovation and Inequality:Emerging Technologies in an Unequal World, Cheltenhom, UK: Edward Elgar Publishing, 2014, pp. 3—22.這源于設計、開發(fā)、運營技術具有一定壟斷性,從而使其設計者、開發(fā)者與運營者擁有特權。市場激勵為導向的創(chuàng)新系統(tǒng)與模式,無論是知識產權系統(tǒng),(17)Kapczynski A., “The Cost of Price: Why and How to Get beyond Intellectual Property Internalism”,UCLA Law Review,Vol.59, 2012, pp.970—1026.還是西方社交媒體生態(tài),(18)Zuboff S.,The Age of Surveillance Capitalism:The Fight for a Human Future at the New Frontier of Power, NY: Public Affairs, 2019.在結構上都傾向于滿足那些本已富裕或有權勢群體的需求。正如比拉內(Birhane) 所說,“技術從來都不是中立的或客觀的——它就像一面鏡子,反映了社會偏見、不公平和不公正”。(19)Birhane A., “The Algorithmic Colonization of Africa”,CyFyAfrica2019 Blog, https://abebabirhane. wordpress.com/2019/07/10/the-algorithmic-colonization-of-africa/, 2021-12-10.蘭德等人詳細說明了權力不平衡嵌入技術系統(tǒng)的幾種方式,從基于假設的家庭人口數(shù)量來安裝的供水系統(tǒng),到對于新的氣候適應技術或數(shù)據(jù)分析工具的需求與負擔能力不匹配,再到數(shù)據(jù)挖掘、政策算法和預測風險模型各個環(huán)節(jié),數(shù)字技術的運用最終不可避免地會復制并進一步加深現(xiàn)有的不平等和權力失衡。

        (二) “數(shù)字鴻溝”與問責失效

        除延續(xù)不平等的權力框架外,技術還影響了追究侵犯民眾權利與大眾福利行為責任的能力。除用途好壞之別外,在許多情況下,技術可能幫助隱匿信息,并進一步導致責任追溯困境。應用數(shù)字技術還會模糊和分裂權威,從而使傳統(tǒng)的促進問責的機制失效。

        技術使得辨別違規(guī)者的身份更加困難,所以追責變得更加復雜與困難。即使涉及到價值判斷,公私治理主體也積極推動自動化決策,而技術所支撐的自動化決策使違規(guī)行為變得更加隱蔽,令原本必定被視為損害的行為變得自然而然。例如,預付費式水表要求先預付水費再供水,若未付款則會被斷水,然而在實踐中,預付費和直接斷水兩種供水系統(tǒng)的處理方式截然不同,后者有法律保護,防止被錯誤剝奪,而前者卻缺乏此類保護。

        此外,決策自動化弱化了對侵權行為的追責,也會破壞羞恥、社會化等機制,這些機制是維護民眾權利和大眾福利所依賴的。因數(shù)字技術的去時間性和去地域性,運行某項技術的人員可能并不會對由此產生的任何違規(guī)行為承擔責任,因為他們本身并未直接造成傷害。例如市政機構的工作人員可以決定安裝可能在未來某一時刻斷水的水表,但民眾對他們施加壓力很困難,因此當發(fā)生斷水時,并沒有人會以此為憾事。(20)Roth K., “Defending Economic, Social and Ultural Rights: Practical Issues Faced by an International Human Rights Organization”,Human Rights Quarterly, Vol.26, No.1, 2004, pp.63—73.

        (三)技術賦權與公私關系嬗變

        在新的數(shù)字技術的創(chuàng)新、開發(fā)和推廣中,私營機構起到了重要作用,這些企業(yè)是非常強大的信息和交流把關人,他們控制普通民眾的表達活動、用戶之間的聯(lián)系以及民眾獲取信息的途徑。(21)Gillespie T.,Custodians of the Internet:Platforms,Content Moderation,and the Hidden Decisions that Shape Social Media, New Haven, CT: Yale University Press, 2018.這就使得在數(shù)字技術時代,私人機構,特別是高科技企業(yè)在基礎設施和社會治理與服務中占據(jù)了重要的地位,它們也因技術壟斷了大量的公共權力。

        針對私營公司掌握公共權力、提供公共服務這一新情況,各國政府的態(tài)度并不一致。在許多領域,美國政府越來越多地授權這些私營公司,使它們成為治理和監(jiān)管的代理人。(22)Bloch-Wehba H., “Global Platform Governance: Private Power in the Shadow of the State”,SMU Law Review, Vol.72, 2019, pp.27—80; Langvardt K., “Regulating Online Content Moderation”,Georgetown Law Journal, Vol.106, 2018, pp.1353—1388.特別是,政府將線上表達活動的監(jiān)管權下放給私營公司,(23)Land M.K., “Against Privatized Censorship: Proposals for Responsible Delegation”,Journal of International Law, Vol. 60, 2020, pp.363—432.它們因此有權決定是否公開那些被上傳到私營平臺的侵犯他人權益的證據(jù)。私營公司還研發(fā)和銷售既能實施又能阻止監(jiān)視的技術,配合或拒絕政府監(jiān)視某些個人的要求,并創(chuàng)建可能決定人們生死的算法和武器系統(tǒng)。這些決定通常是出于商業(yè)利益,而不是基于對公共利益或權益保障的關切才做出的。(24)J?rgensen R.F., “Human Rights and Private Actors”, in Land & Aronson eds.,New Technologies for Human Rights Law and Pactice, Cambridge, UK: Cambridge Universh, Press, 2018, pp. 243—69.盡管如此,目前處理商業(yè)組織侵害權益的框架,仍舊建立在國家行使的公共權力與公司行使的私人權力的劃分基礎上,(25)Callamard A., “The Human Rights Obligations of Non-state Actors”, in R.F. J?rgensen, ed.,Human Rights in the Age of Platforms,Cambridge, MA: MIT Press, 2019, pp. 191—226.兩者涇渭分明,其中公共權力需遵守尊重和保護權利的約束性義務,而私人權力是個體權利,不僅不必遵守約束性義務,而且還需被尊重和保護。因此,目前美國等國家對于個人權益保護的相關法律規(guī)定,并不適用于這種劃分,且無法有效彌合兩者的區(qū)分。

        治理理論指明了公共權力和私人權力不可逆地交織在一起的狀況和前景,應該用什么樣的框架來分析兩者深度交融的狀況呢?公共機構為私有技術提供資金、銷售渠道并建立了創(chuàng)新系統(tǒng),(26)福斯特、麥克切斯尼:《監(jiān)控式資本主義:壟斷金融資本、軍工復合體和數(shù)字時代》,《國外社會科學》2015 年第1 期。當國家要求非國家行為者規(guī)范用戶的言論時,公司是否僅需負尊重言論自由的道德責任?當公司設計并建立的人工智能系統(tǒng),在言論監(jiān)管背景下復制種族或性別偏見時,能否要求公司對其造成的權益損害負責?政府用私人公司設計建立的系統(tǒng)設置就業(yè)條件與社保繳費率,一旦造成了危害應由誰來負責?所謂公共事務和私人事務之間的區(qū)別已經過時了,過分關注它,還影響我們對更為重要的責任體系與權益救濟的關注。

        三、智能社會治理與服務模式帶來的新挑戰(zhàn)

        除了智能社會治理與服務面臨的三項結構性障礙外,數(shù)字技術應用于社會治理與服務時還引發(fā)了一些新的挑戰(zhàn)。近期數(shù)字技術對權益保護造成的挑戰(zhàn),包括政府進行的信息監(jiān)視與騷擾對公民隱私權利的破壞、算法自動化決策和深度造假背景下人工智能與社會不平等的再生產,以及數(shù)字國家興起造成的新的責任困境。

        (一)信息監(jiān)控與公民權益救濟困境

        時至今日,技術作為國家權力潛在破壞者的時代早已過去,它更多地被用以加強和鞏固國家權力。手機和社交媒體等技術在很大程度上已被國家利用,(27)Gregory S., “Cameras Everywhere Revisited: How Digital Technologies and Social Media Aid and Inhibit Human Rights Documentation and Advocacy”,Journal of Human Rights Practice, Vol.11, No.2, 2019, pp.373—392.政府和與為國家及資本服務的私人行動者,使用異常強大的間諜軟件和其他新工具來控制和管理信息空間,從而限制為爭取社會權益與福利而活動的社會人士。這些工具可分為侵擾工具和監(jiān)視工具。米吉多(Megiddo)就認為,政府的監(jiān)視和虛假信息,會極大地威脅和破壞民眾權益和法治,(28)Megiddo T. Online Activism, “Digital Domination, and the Rule of Trolls: Mapping and Theorizing Technological Oppression by Governments”,Columbia Journal of Transnational Law,Vol. 58, 2020, pp.394—442.這些“數(shù)字控制措施”的危害已不僅僅侵犯了個人隱私,還對自由和法治造成了重大危害,因此應該被概念化為“一套構成政府壓迫威脅的控制措施”。

        1.侵擾。西方國家的精英越來越多地使用社交媒體等工具來攻擊和削弱威脅者。正如美國律師協(xié)會人權中心的一份報告中所顯示,政府和與政府關系密切的一些行動者正通過社交媒體平臺騷擾和恐嚇為民眾權益保護而活動的人士。(29)Abbas M., Al-Wohaibi E., Donovan J., Hale E, Marugg T., et al.,Invisible Threats:Mitigating the Risk of Violence from Online Hate Speech Against Human Rights Defenders, Chicago: American Bar Association, 2019.其造成的寒蟬效應,不僅對活動者個人產生作用,而且還會削弱公眾對他們活動的支持。政府及相關方積極通過惡搞或造謠,或通過威脅公民和活動人士的切身利益,以詆毀他們表達的內容。事實上,社交媒體的強大力量正在為政府所用,以對抗和控制為民眾權利和社會福利而活動的人士,政府利用了網絡分布式架構和低把關的組織方式,來詆毀和混淆對立的信息來源。(30)Tufekci Z.,Twitter and Tear Gas:The Power and Fragility of Networked Protest, pp.223—236變革成功與否的前提是倡議者傳達可靠信息的能力,但在充斥假新聞和巨魔農場的環(huán)境中,即使那些有資源查證信息來源的人也很難知道該相信什么。

        因此,盡管許多學者和活動人士認為海量的信息源會使審查更加困難,從而間接有利于民眾表達訴求和政府提升回應性。但各國政府則改變審查和應對的策略,政府意識到它們不必阻止言論,而只需詆毀它即可。(31)Tufekci Z.,Twitter and Tear Gas:The Power and Fragility of Networked Protest, pp.263—268.它們也不需要特別準確地表達它們所懷疑的信息,相反,要破壞公眾動員,只需抹黑所有的信息來源,當人們不知道該相信什么的時候,就什么也不會相信、什么也不會做。宣傳正在削弱真相的意義,從而破壞基于事實進行組織的能力。政府為削弱異議、限制民間社會組織的空間甚至在某些情況下煽動暴力,而傳播的虛假信息和錯誤信息威力巨大,在技術和社交媒體素養(yǎng)水平低且缺乏強大獨立媒體的環(huán)境中更是如此。(32)Kelly S, Truong M, Shahbaz A, Earp M, White J.,Freedom on the Net 2017:Manipulating Social Media to Undermine Democracy,Washingtom, DC: Freedom House, 2017.

        人工智能系統(tǒng)自動生成的虛假音頻或視頻,越來越成為虛假信息的來源,利用舊視頻合成沒有現(xiàn)實依據(jù)的全新內容。這種深度造假對個人和社會造成了一系列危害,(33)Chesney B, Citron D., “Deep Fakes: a Looming Challenge for Privacy, Democracy, and National Security”,California Law Review, Vol.107, 2019, pp.1753—1819.格里高利(Gregory) 認為“這些精心制造的假信息可能會被用來進行可信度攻擊、混淆調查,并煽動針對社會活動人士的暴力行為”。(34)Gregory S., “Cameras Everywhere Revisited: How Digital Technologies and Social Media Aid and Inhibit Human Rights Documentation and Advocacy”,Journal of Human Rights Practice, Vol.11, No.2, 2019, p.380.他建議,平臺與搜索引擎有責任設計和監(jiān)督生成式人工智能系統(tǒng)(AI)上述功能。他堅持認為,公司需要在產品設計之初就考慮人工智能等技術的潛在危害,而不僅僅是對已發(fā)布產品所造成的危害做出反應。政府也有責任確立一個有效的制度框架來防范潛在危害。(35)Koenig A., “Half the Truth is Often a Great Lie: Deep Fakes, Open Source Information, and International Criminal Law”,AJIL Unbound, Vol.113, 2019, pp.250—255.

        虛假信息不僅對維權活動人士個人構成威脅,而且往往蓄意破壞他們追究損害權益行為的努力。因此,通過數(shù)字技術工具進行的信息侵擾旨在限制賦權權利(empowerment rights),(36)Cope K.L, Crabtree C., Lupu Y., “Beyond Physical Integrity”,Law Contemporary Problem, Vol.81, No.4, 2018, pp.186—188.即既懲戒行使這些權利的具體行為,也可以更普遍地用于“阻止挑戰(zhàn)國家權威的組織和動員意圖”??破?Cope)等指出,“信息和通信技術的進步已經并可能繼續(xù)降低政府實施大規(guī)模預防性鎮(zhèn)壓的成本”。(37)Cope K.L, Crabtree C., Lupu Y., “Beyond Physical Integrity”,Law Contemporary Problem, Vol.81, No.4, 2018, pp.189.因此,以數(shù)字技術為基礎的新型侵擾工具使得追究國家責任比以往都更加困難。

        2.監(jiān)視。西方各國還在使用監(jiān)視工具來維持和鞏固權力。一些國家政府就在使用由以色列NSO集團公司生產的Pegasus 間諜軟件,來監(jiān)視和攻擊一些維權人士。一旦被安裝到手機上,Pegasus 軟件可以自動提取設備上所有數(shù)據(jù),如短信、聯(lián)系人、GPS 位置、電子郵件和瀏覽器的歷史記錄。它還可以通過使用手機麥克風和攝像頭來記錄用戶周圍的環(huán)境,從而創(chuàng)建新的數(shù)據(jù)。(38)Hopkins N., “WhatsApp Spyware Attack was Attempt to Hack Human Rights Data, Says Lawyer”,Guardian, 2019-05-14.如生物識別數(shù)據(jù)、禁止在線加密和匿名、公共場所的面部識別等技術也被用以監(jiān)視人群,(39)Megiddo T., “Online Activism, Digital Domination, and the Rule of Trolls: Mapping and Theorizing Technological Oppression by Governments”,Columbia Journal of Transnational Law, Vol.58, 2020, pp.405—406.即使是普通的手機也會產生大量數(shù)據(jù),可用于識別個人的位置和行動軌跡。(40)Thompson SA, Warzel C., “Twelve Million Phones, One Dataset, Zero Privacy”,New York Times, 2019-12-10.通過技術制造商和平臺所有者收集的海量的各種數(shù)據(jù),使精準跟蹤個人的身體活動、運動、交流和消費信息成為可能。(41)Gregory S., “Cameras Everywhere Revisited: How Digital Technologies and Social Media Aid and Inhibit Human Rights Documentation and Advocacy”,Journal Human Rights Practice, Vol.11, No.2, 2019, p.380.人工智能、云計算等技術手段和缺乏保護精確隱私的法律框架,使這種監(jiān)控幾乎能夠在所有公私空間中實時進行。許多國家為了進一步推進這種監(jiān)視活動,還限制民眾使用加密技術、禁止可能掩蓋互聯(lián)網用戶身份和位置的VPN(虛擬專用網絡),并威脅對記錄侵權行為的人施以人身暴力。(42)Kelly S., Truong M., Shahbaz A., Earp M., White J.,Freedom on the Net 2017:Manipulating Social Media to undermine Democracy, Doc., Freedom House, 2017, https://freedomhouse.org/report/freedom-net/2017/manipulating-social-media-undermine-democracy, 2021-10-18.正如威茲曼(Weizman)所描述的,如內置攝像功能的手機等最初被認為能夠監(jiān)督國家的工具,經由政府及相關技術公司的“改造”,已被西方國家“武器化”。(43)Weizman E.,Forensic Architecture:Violence at the Threshold of Detectability, Brooklyn, NY: Zone Books, 2017.

        面對突如其來的新冠肺炎疫情,為了更加有效控制疫情而建立的公共衛(wèi)生追蹤機制,可能也會導致更具侵入性的監(jiān)視,尤其是由不符合隱私保護標準的私人機構進行的監(jiān)視。(44)Kaye D.,Disease Pandemics and the Freedom of Opinion and Expression,Report of the Special Rapporteur on the Promotionand Protection of the Right to Freedom of Opinion and Expression, UN Human Rights Council, A/HRC/44/49, 2020-04-23.各國普遍使用智能手機追蹤病毒傳播軌跡,監(jiān)控人們是否遵守居家隔離指令。這些軟件搜集用戶的歷史位置等個人信息,在第三方服務器上儲存這些信息,有些商家還在軟件中嵌入了秘密搜集用戶信息的“后門”。澳大利亞的“新冠肺炎安全”軟件使用藍牙科技,可以自動在用戶手機上啟動位置定位。該軟件將海量數(shù)據(jù)儲存在美國亞馬遜公司的云存儲器中,需遵守美國《澄清境外數(shù)據(jù)合法使用法》,美國執(zhí)法機構可利用該法案調用存儲在境外互聯(lián)網上的數(shù)據(jù)。(45)高望來:《人工智能與后疫情時代的數(shù)字治理》,《當代世界與社會主義》2021 年第6 期。許多人擔心,如果緊急措施正常化,或政府利用危機來制定原本不可接受的措施,抑或如果公民更傾向于接受對其權利的限制,為應對特殊危機狀態(tài)而采取的措施,就可能會被固定為日常性措施。(46)Nay O., “Comment: Can a Virus Undermine Human Rights”,Lancet, No.5, 2020, pp.238—39.

        侵擾和監(jiān)視都涉及深度交融的公共和私人行動,例如,在線的宣傳通常通過網絡中心或巨魔農場等私人公司的系統(tǒng)來進行,(47)Abbas M., Al-Wohaibi E., Donovan J., Hale E., Marugg T., et al.,Invisible Threats:Mitigating the Risk of Violence from Online Hate Speech against Human Rights Defenders, Chicago: American Bar Association, 2019.諸如Pegasus 之類的間諜軟件是由私人公司創(chuàng)建和銷售的,卻被公共權力用以進行監(jiān)視活動。鑒于監(jiān)視的危害,聯(lián)合國特別報告員呼吁“除非科技公司提供令人信服的證據(jù),證明自己在盡職調查、透明度和責任等方面已采取足夠的措施……來防止或減輕使用這些技術侵犯民眾權益”,(48)Kaye D.,Surveillance and Human Rights,Report of the Special Rapporteur on the Promotion and Protection of the Rightto Freedom of Opinion and Expression, UN Human Rights Council, A/HRC/41/35, 2019-05-28.科技公司應停止生產和銷售監(jiān)視技術。因此,數(shù)字化時代的公共與私人的關系,正如米吉多所說,“外包數(shù)字壓迫揭示了私人和公共權力的結合,這與以往的政府和私人商業(yè)行為者之間的關系不同”。(49)Megiddo T., “Online Activism, Digital Domination, and the Rule of Trolls: Mapping and Theorizing Technological Oppression by Governments”,Columbia Journal of Transnational Law, Vol.58, 2020, p.402.

        (二)自動決策與社會不平等再生產

        在過去幾年中,人們越來越關注基于算法的決策對民眾權益和大眾福利的影響。(50)吳進進、符陽:《算法決策:人工智能驅動的公共決策及其風險》,《開放時代》2021 年第5 期。人工智能研究院(AI Now Institute)將自動決策系統(tǒng)定義為“數(shù)據(jù)驅動的將原由人實行的程序、實踐或政策得以自動化的技術,可以用于預測、識別、監(jiān)督、檢測和針對個人或社區(qū)等目的”。這些技術被廣泛應用于各種場景,包括“分配有限的政府資源(如公共福利或衛(wèi)生服務);預見并可能預防特定風險;消除或限制決策中的自由裁量權;并提供人本身無法進行的大規(guī)模和大范圍分析”。(51)Richardson R., Cahn A., Kak A., Diaz A., Samant A., et al.,Confronting Black Boxes:a Shadow Report of the New York City Automated Decision System Task Force. Rep., AI Now Institution., https://ainowinstitute.org/ads-shadowreport-2019.pdf., 2021-11-28.

        許多公司、計算科學家和決策科學家都對自動化決策系統(tǒng)大加推崇,可以通過大數(shù)據(jù)驅動的議程設置信息化、備擇方案討論全民化、決策執(zhí)行自動化、決策評估實時化、全過程跨領域綜合集成化等公共決策創(chuàng)新,(52)陳一凡、胡象明:《大數(shù)據(jù)驅動型的公共決策過程創(chuàng)新及效果評估——基于SSCI 和SCI 的文獻研究》,《電子政務》2019 年 第8 期。消除社會和政治議題中的人為偏見。(53)Miller A.P., “Want Less-biased Decisions? Use Algorithms”,Harvard Business Review, 2018-07-26.相較于人類,這些系統(tǒng)處理數(shù)據(jù)的能力更強、規(guī)模更大、速度更快,人類不得不依賴文化啟發(fā)法來克服信息鴻溝,但理論上人工智能系統(tǒng)不會受到這種障礙的影響。此類系統(tǒng)已被用于幫助警方預測犯罪熱點、調節(jié)交通、確定犯罪嫌疑人的社會風險、探查某人是否參與金融欺詐或貸款額度、判斷工作匹配度、選擇要在線上向用戶展示的廣告、判別特定社交媒體帖子是否違反了平臺標準或當?shù)胤?,并在法律和安全環(huán)境中創(chuàng)建面部和生物識別系統(tǒng)。

        然而,研究者和人工智能批評者已經證明,這些所謂的中立或客觀的人工智能系統(tǒng)復制了它們所運用數(shù)據(jù)中固有的偏見,或者將特定的思維方式轉化為代碼。正如奧尼爾(O’Neil)所說,算法是嵌入在代碼中的觀點,不同于人們將算法視為是客觀、真實、科學的。另外,因為信任和害怕數(shù)字,而用算法來恐嚇用戶,讓用戶信任和恐懼算法,這也是一種營銷技巧。但當我們盲目相信大數(shù)據(jù)時,很多事情都會出錯。(54)O’Neil C., The Era of Blind Faith in Big Data Must End., TED2017, April, 2017,Vancouver, Canada, https://www.ted.com/talks/cathy_o_neil_the_era_of _blind_faith_in_big_data_must_end, 2019-04-23.

        人工智能在就業(yè)信息、就業(yè)保障和公共衛(wèi)生方面的應用,(55)Richardson R., Schultz J.M., Crawford K., “Dirty Data, Bad Predictions: How Civil Rights Violations Impact Police Data, Predictive Policing Systems, and Justice”,N.Y. University Law Review, Vol.94, 2019, pp.192—233.以及其在司法系統(tǒng)保釋、審判、警務和假釋等過程中潛在的負面影響,也受到了關注。人工智能在人臉識別系統(tǒng)、(56)Garvie C., Bedoya A., Frankle J.,The Perpetual Line-up:Unregulated Police Face Recognition in America, Georgetown Law Center of Privacy Technology, 2016, https://www.perpetuallineup.org/, 2021-11-28.社會救濟系統(tǒng)、自動駕駛汽車等領域對民眾權益和社會福利的影響也備受關注。在互聯(lián)網基礎設施中人工智能直接影響世界各地的人們如何與他人交流、分享觀點、參與政治行動以及在線查找信息,但人工智能系統(tǒng)存在的偏見早已為人所知。(57)Sweeney L., “Discrimination in Online ad Delivery”,Communication ACM, Vol.56, No.5, 2013, pp.44—54.搜索引擎和社交媒體平臺等在線中介機構使用人工智能以多種方式控制人們訪問其平臺內容,包括決定顯示的信息、產品、服務或其他帖子的內容。對信息內容的隱現(xiàn)和排序是數(shù)字時代重要的公共權力,在一些情況下,對信息的隱現(xiàn)或排序可能源于道德原因,不便于民眾搜索和運用信息;而有一些可能會侵犯言論自由、隱私和集會自由等基本權利。當人工智能被用以監(jiān)管言論和交流時,它可能有意或無意地屏蔽某些具有公共價值的主題、圖像或話語。人工智能系統(tǒng)也對殘障人士有很大的影響。隨著人工智能系統(tǒng)越來越多地用于匹配工作崗位、確定公共服務獲得資格、確定空間設計方案以及公民身份獲益權,殘疾人士尤其會受到這類系統(tǒng)如何定義正常和殘障的影響。(58)West SM, Whittaker M, Crawford K.,Discriminating Systems:Gender,Race,and Power in AI, AI Now Institution, https://ainowinstitute.org/discriminatingsystems.pdf, 2019, 2021-07-23.

        在過去幾年中,面部識別系統(tǒng)可能對人身權利造成的侵害也令人擔憂。(59)Schippers B., “Face Recognition Technology: the Human Rights Concerns”,Eolas Magazine, https://www.eolasmagazine.ie/facerecognition-technology-the-human-rights-concerns/, Vol.12, 2018, 2021-11-27.面部識別系統(tǒng)被廣泛地應用在各國的執(zhí)法、公共安全和維護社會秩序行動中。除面部識別系統(tǒng)存在很大謬誤外,在美國和一些西方國家,人工智能為內核的面部識別系統(tǒng)也被證明在多種方面存在歧視,尤其是針對女性和有色人群。(60)Buolamwini J., Gebru T. “Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification”,Proceedings of Machine Learning Research, Vol.81, 2018, pp.77—91.執(zhí)法部門使用設計不佳的技術進行識別,會產生很高的錯誤識別率,進一步導致?lián)p害民眾權益的風險,尤其是被應用于已經在因過度監(jiān)管而苦苦掙扎的少數(shù)族裔社區(qū)。基于皮卡爾(Picard) 在“情感計算”方面的開創(chuàng)性工作,(61)Picard R.W.,Affective Computing, Cambridge, MA: MIT Press, 1997.科學家和技術公司最近提出,人工智能系統(tǒng)可以超越單純的身份識別,還能檢測從情感、影響、犯罪到性行為(62)Wang Y., Kosinski M., “Deep Neural Networks are More Accurate than Humans at Detecting Sexual Orientation from Facial Images”,Journal Personal Social Psychologics, Vol.114, No.2, 2018, pp.246—257.等多種特征,面部識別工具甚至有朝一日能夠預測政治意識形態(tài)和智商得分。(63)Levin S., “Face-reading AI will be able to Detect Your Politics and IQ, Professor Says”,Guardian, 2017-09-12.盡管其中一些功能有潛在的有益用途(如對抑郁或焦慮的自動視覺篩查),但無論預測是否準確,此類系統(tǒng)都對隱私構成巨大威脅。(64)Burdick A., “The A.I. ‘Gaydar’ Study and the Real Dangers of Big Data”,New Yorker, 2017-09-15.因對面部識別系統(tǒng)中固有歧視和侵犯隱私的擔憂,它被如奧克蘭、伯克利、薩默維爾和波特蘭等許多城市禁止使用,值得思考的是,這些城市正是許多生產這些系統(tǒng)代碼的公司所在地。一些社會活動家、學者和許多技術開發(fā)人員擔心這些系統(tǒng)將被用來扼殺言論和集會自由,對本已脆弱的少數(shù)群體造成更大的影響,而以超越傳統(tǒng)的警務和公共安全的方式使用這些技術,容易出現(xiàn)重大錯誤,導致錯誤逮捕或定罪。(65)Garvie C., Bedoya A., Frankle J.,The Perpetual Line-up:Unregulated Police Face Recognition in America, Georgetown Law Center of Privacy Technology,https://www.perpetuallineup.org/, 2016, 2021-10-19.

        除了可能侵犯隱私和具有偏見外,人工智能和自動化還可能會限制勞動者權利。例如,泰勒(Taylor)就認為,大部分人工智能革命的內容實際上是炒作,旨在嚇唬員工,使得他們因為擔心最終會被機器取代,而少對資方提出要求。(66)Taylor A., “The Automation Charade”,Logic Magazine, 2018-08-01.許多看似由人工智能完成的工作,實際上是通過像亞馬遜的Mechanical Turk 這樣的系統(tǒng)將任務分解,再向低收入群體發(fā)包來完成的。泰勒等人稱這種現(xiàn)象為“人造自動化”(fauxtomation),在某些情況下,“人造自動化”只是一種廉價的營銷噱頭。但在其他情況下,憑借社交媒體與數(shù)字網絡,資本實現(xiàn)了對勞動控制的轉型升級,勞動被更為細致地分化,現(xiàn)代人成為被數(shù)字所架構的數(shù)字勞動主體的同時,資本剝削的觸角也延伸至人內在的生命活動。(67)藍江、陳朦:《從產業(yè)勞動到數(shù)字勞動——歷史唯物主義視角下的勞動批判研究》,《社會科學》2021 年第10 期。數(shù)字技術不僅成為一種限制勞工的手段,使工人不敢也無法保護自己的基本權利;而且導致社會呈現(xiàn)出資本集中的趨勢,以及依賴與貧困化的趨勢,這使得勞動者所遭遇的不僅僅是金錢的貧困,更是一種思想的貧困。

        最后,人工智能技術也催生了進一步加劇全球不平等的數(shù)據(jù)市場。例如,急于將人工智能引入欠發(fā)達國家有可能導致算法殖民,(68)Birhane A., “The Algorithmic Colonization of Africa”,CyFyAfrica2019Blog, https://abebabirhane. wordpress.com/2019/07/10/the-algorithmic-colonization-of-africa/, 2021-12-10.在這種殖民體系中,被剝奪權利和被邊緣化的人的數(shù)據(jù)被提取出來用以獲取價值,最有權勢的全球公司和機構從中獲益,而供給數(shù)據(jù)的人卻喪失了隱私,付出了巨大的代價。

        (三)數(shù)字化國家與新的責任困境

        前聯(lián)合國極端貧困與人權問題特別代表菲利普·阿爾斯通(Alston)在提交給聯(lián)合國的報告中,著重探討了利用技術系統(tǒng)提供社會保護和援助的“數(shù)字福利國家”的發(fā)展,以及這種方式對最弱勢群體權利的影響。(69)Alston P.,Extreme Poverty and Human Rights. Report of the Special Rapporteur on Extreme Poverty and Human Rights, UN Human Rights Council, UN Doc. A/74/493, 2019-10-11.為了追求效率和效果,西方各國越來越多地使用生物識別和算法等技術來確定接受社會援助的資格,并管理獲得福利的機會與流程。盡管這些技術“被描述為科學和中立的,但它們所反映的價值觀和預設卻與普惠的福利原則相去甚遠,甚至可能背道而馳”。

        利用技術救助社會中最弱勢群體,事實上給他們帶來了沉重的負擔,因為他們駕馭這些技術的能力最弱。皮尤研究中心(Pew Research Center)的一份報告顯示,10%的美國人根本不使用互聯(lián)網,這其中的大多數(shù)人都是貧困群體、少數(shù)族裔、農村人口和老年人口以及沒接受過高中教育的人。正如阿爾斯通所指出的那樣,數(shù)字素養(yǎng)的匱乏會導致一些人群根本無法使用基本的數(shù)字工具,遑論有效和高效地使用了。同時互聯(lián)網的可及性也并非均質,對于那些需要支付高額費用、需要曠工、需要去圖書館等公共設施、或必須向他人求助才能上網的人來說,上網獲取社會援助為他們的生活設置了額外的障礙。此外,數(shù)字化的福利國家也會不成比例地影響最弱勢群體的權利,因為它伴隨著更大的隱私負擔,而這些負擔則由貧困及無權者承擔。數(shù)字化技術使得國家能夠更容易地監(jiān)視、識別、騷擾和懲罰福利受益人,尤其是其中最貧窮和最脆弱的人。

        事實上,阿爾斯通報告關于數(shù)字技術對社會治理與服務影響的分析,并不局限于社會保護和福利國家的范疇,還針對更廣泛的數(shù)字化國家,因為每當政府采用新技術來進行治理和提供服務時,最脆弱的群體都有受到傷害的風險。對數(shù)字國家的擔憂也與聯(lián)合國等國際組織相關,因為它們在人道主義行動中采用了大量未經測試的新技術。如最近聯(lián)合國世界糧食計劃署與數(shù)據(jù)挖掘公司Palantir 之間的合作就受到廣泛批評,因為該公司的商業(yè)模式在疫苗分配領域存在侵犯基本人權的問題。(70)Greenwood F., “Why Humanitarians are Worried about Palantir’s Partnership with the U.N”,Slate Magazine, https://slate.com/technology/2019/02/palantir-un-world-food-programme-data-humanitarians.html, 2021-10-25.

        采用新技術來解決治理問題也是有風險的,因為技術系統(tǒng)將內嵌性地反映設計者的特權。如南非約翰內斯堡在貧困社區(qū)安裝的預付費式水表,這些社區(qū)居民經常無錢支付水費。(71)Shaver L., Safeguarding Human Rights from Problematic Technologies, See Land & Aronson, 2018, pp.25—45.為解決財務問題,約翰內斯堡水務公司(Johannesburg Water)推出了新型水表作為技術解決方案。預付式水表每月只給每個家庭分配少量的免費水,而不足的部分則需要通過購買水表代幣來補充。盡管安裝新水表主要是為了提高供水效率,但它反映并延續(xù)了固有的特權。例如約翰內斯堡水務公司為費里(Phiri)社區(qū)的每戶家庭分配6000 升的免費水,假設一個家庭內有8 口人,那么這個家庭每人每天就能夠分到25 升水。但事實上,費里社區(qū)家庭平均有16 口人,這就使得原本就微薄的用水補貼被減半。那些決定何時停止供水的人是根據(jù)自己的經驗做出了上述家庭人口數(shù)的假設,而其經驗就反映了財富的分配與環(huán)境。

        技術還使對侵犯權益行為提出質疑變得更加困難,因為這些行為所產生的惡劣影響通常由那些沒有能力挑戰(zhàn)其影響的人承擔。為什么沒有法律和技術保障的預付費式水表會安裝在像費里這樣的脆弱社區(qū)?可能是因為在更富裕的社區(qū)安裝這種水表可能會招致更大的公眾抗議和政治壓力。同樣,阿爾斯通指出,“許多領取福利的人因相對剝奪和無能為力被強加了條件和要求,如果改為在成員較為富裕的社區(qū)進行,這些條件、要求和形式就永遠不會被接受”。

        此外,在利用技術提供公共產品時,深度交融的公共和私人行動可能令追究侵犯權利行為的責任更加困難?!霸谠O計、建設甚至運營數(shù)字化國家的部分過程中,私營部門甚至發(fā)揮著主導作用”。(72)Alston P.,Extreme Poverty and Human Rights. Report of the Special Rapporteur on Extreme Poverty and Human Rights, UN Human Rights Council, UN Doc. A/74/493, 2019-10-11.然而,這些公司在運作的過程中“幾乎不考慮民眾權益”,因為它們自己抵制監(jiān)管,同時受新自由主義影響,政府也抵制監(jiān)管私營公司。對私人行為者的依賴也帶來了價值觀沖突的風險,私營行為體參與福利供給和社會援助系統(tǒng)的動機不同,可能會導致福利系統(tǒng)本應服務的公共利益與公司及其私人利益之間的沖突。因此,當在數(shù)據(jù)資本主義基礎上建立的商業(yè)公司,承擔了設計監(jiān)控貧困者使用公共援助技術的責任時,保護貧困者的隱私權就變得更加困難。水表的例子就顯示出,私人參與者為了營利而開發(fā)的技術如何損害了民眾的基本權益。在商業(yè)環(huán)境中引入新技術通常需要投資,而投資可能會導致并鎖定后續(xù)的錯誤。在費里的個案中,公司安裝儀表的巨額成本成為支持保留新系統(tǒng)的法律依據(jù),在訴訟期間,約翰內斯堡市辯稱,卸載預付費式電表將對自來水公司的“財務和可持續(xù)性”產生重大影響。(73)Bond P, Dugard J., “The Case of Johannesburg Water: What Really Happened at the Prepaid ‘Parish Pump’”,Law,Democracy andDevelopment, Vol.12, No.1, 2010, p.11.因此,該項技術已因為成本,成為一種自我實現(xiàn)式的預言,一旦安裝,它及它對權利造成的任何損害將會被鎖定。

        最后,也許最令人擔憂的是,使用技術來實現(xiàn)權利的方式鞏固和強化了一種商品化的意識形態(tài),在這種意識形態(tài)中,諸如水、住房、電力和食物等只是需要提供的商品,而不是生活所需的基本權利。正如阿爾斯通所指出的那樣,引入新技術也有可能會破壞享有經濟權利,促進向官僚程序的轉變,而背離了以社會保障權或社會保護權為前提的程序。同樣,對約翰內斯堡的管理者來說,安裝水表的理由似乎是合理和適當?shù)摹滤砜梢韵拗评速M并確保居民支付水費。但是當居民買不起額外的預付代幣時,他們的生活就遭受了極大的困難。那些本就靠微薄資源生活的人被迫做出不可能的選擇,限制他們自己和家人的基本衛(wèi)生與需求,以確保免費用水量可以持續(xù)整月。當供水的目標是以回收成本而不是提供基本需求為導向時,貧困者不可避免地遭受損失。

        四、優(yōu)化智能社會治理與服務的路徑

        從西方國家智能社會治理與服務的過程可以發(fā)現(xiàn),當今技術對人們權益構成的威脅并不是像流行文化和科幻小說中描繪的那樣,機器擺脫了人類控制,成為自為的破壞者。相反,技術以相當平常的方式威脅著民眾權利和大眾福利,除侵擾公民隱私權外,技術將知識和權力集中在那些已經掌握它們的人手中,并進一步剝奪那些無權者,造成不平等的再生產;同時造成傳統(tǒng)追責機制失效。對此,需要從價值導向、技術設計實踐和制度與法律等幾個層面著手,提出應對這些問題的具體策略。

        (一)價值導向

        人工智能從誕生的那一刻起,就讓人類陷入一定程度的憂慮和恐懼當中。智慧社會蘊含著推動社會發(fā)展的巨大潛能,也具有無可否認的風險,要遏制人工智能帶來的風險,最大限度地消除人工智能的負面影響,發(fā)揮“負責任”的人工智能,可以助力社會治理走向善治?!柏撠熑巍币殉蔀榘l(fā)展人工智能的高頻詞匯,2019 年5 月,OECD 成員國簽署政府間《人工智能推薦性原則和建議》,呼吁發(fā)展負責任的人工智能?!柏撠熑巍焙w了人工智能的基礎研發(fā)層到應用層,更應成為貫穿人工智能發(fā)展的一條主線。無論是人工智能提供的產品還是服務,都應該是負責任的、全面的,應該以增進人類共同福祉為目標,應該符合人類的價值觀和倫理道德,避免誤用,禁止濫用。

        人工智能的到來使得一些人高呼“一切皆可計算”。需要警惕這種技術理性控制與人文精神流失的行為,無論何時發(fā)展都應以人為中心,最終的目標也是要實現(xiàn)人的自由全面發(fā)展。以發(fā)展人工智能來提升人民生活品質,抓住教育、醫(yī)療、養(yǎng)老等社會民生領域的突出矛盾和難點。大力發(fā)展智慧社會治理與服務,讓人類生活更便捷、自在、舒適。以人工智能在人們日常工作學習生活中的深度應用,創(chuàng)造更加智能的工作和生活方式,來促進人的全面發(fā)展,從保障和改善民生,為人民創(chuàng)造美好生活的需要出發(fā),讓改革成果更多惠及人民,智慧社會變革在一定程度上導致了社會分層和利益分化。人工智能的負面效應造成的損失需要政府承擔調解和再分配與縮小貧富差距,使民眾感受到社會公平,因此要加強對勞動者的保護,建立完善的社會保障制度,切實保障民眾基本生活,對于因人工智能而失業(yè)的人來說,政府應該加大對人工智能企業(yè)的稅收,并進一步將稅收轉化為失業(yè)人群的短期失業(yè)福利,以完善的社會保障制度,增加群眾的幸福感、獲得感、安全感。

        (二)技術設計

        首先,面對智慧社會治理中的隱私問題,學者們提出了技術解決方案的方向:第一,去識別化(de-identification),即在數(shù)據(jù)分析過程中避免將某一個特定人從人群識別出來。一是通過差分隱私(differential privacy);一是通過k-匿名(k-anonymity)。第二,限制搜索(limited searchability)。例如Snapchat 的“閱后即焚”功能,用戶拍攝照片或視頻發(fā)送給好友,好友閱后照片或視頻將自動焚毀。(74)曲甜、張小勁:《大數(shù)據(jù)社會治理創(chuàng)新的國外經驗:前沿趨勢、模式優(yōu)化與困境挑戰(zhàn)》,《電子政務》2020 年第1 期。

        其次,要解決社會不平等問題需要采取積極措施,在技術設計過程中分散知識和權力。多年來,政策、法律部門和技術界一直在討論如開源運動(75)Benkler Y., “Law, Innovation, and Collaboration in Networked Economy and Society”,Annual Review of Law Social Science, Vol.13, 2017, pp.231—250.等替代性的參與式設計和技術開發(fā)的愿景。然而,大多數(shù)研究者都主要關注掌握權力技術優(yōu)勢的發(fā)達國家的參與者,但最近關于設計正義的研究(76)Costanza-Chock S.,Design Justice:Community-Led Practices to Build the Worlds We Need, Cambridge, MA: MIT Press, 2020.認為,來自發(fā)展中國家的弱勢群體成員和專家必須參與決策,共商這些技術的未來。正如皮拉克(Piracés)指出的,正在進行的關于人工智能和包容性的關鍵對話,“有可能蘊含著被‘人工智能社會’塑造的風險,這一對話討論的是包容,但卻沒有真正包括邊緣化人群的聲音。人工智能生態(tài)系統(tǒng)設計中若未考慮邊緣化人群的聲音,他們可能遭受技術的侵害。”(77)Piracés E., “Let’s Avoid an Artificial Intelligentsia”,Medium, Oct. 12. 2018 , https://points.datasociety.net/lets-avoid-an-artificialintelligentsia-inclusion-artificial-intelligence-and-human-rights-3905d708e7ed, 2021-11-29.參與式設計還要確保技術滿足從業(yè)者和權益捍衛(wèi)者對隱私、安全和免受傷害的需求,保護民眾的權利與福利“需要開放、分散化的平臺,和不會保存用戶信息并出售的工作人員”,(78)Al-Sharif M., “The Dangers of Digital Activism”,New York Times, https://www.nytimes.com/2018/09/16/opinion/politics/thedangers-of-digital-activism.html, 2021-11-29.如果無法保證上述條件,濫用平臺收集數(shù)據(jù)可能使人們面臨被騷擾和攻擊的風險。

        對于發(fā)展中國家而言,要避免民眾被日益邊緣化,需要在地方層面來探討國家采用哪些技術。不應在不清楚“潛在目的是什么、誰受益以及誰可能受損,就簡單地引進最新、最先進的機器學習系統(tǒng)或其他的人工智能工具”。(79)Birhane A., “The Algorithmic Colonization of Africa”,CyFyAfrica2019 Blog, https://abebabirhane. wordpress.com/2019/07/10/the-algorithmic-colonization-of-africa/, 2021-12-10.由非洲民眾自己領導的保護非洲大陸國家免受西方公司和思維方式剝削,并建立基于地方專業(yè)知識和企業(yè)的運動正方興未艾。南非土人會議深度學習項目(Deep Learning Indaba)可能是此類運動最明顯的實例,該組織贊助了各種針對特定國家和整個非洲大陸的項目,將非洲計算機科學家和程序員聚集在一起,來教授、學習和開發(fā)系統(tǒng),用以解決共同關心的技術和社會問題的,Indaba 旨在發(fā)出非洲的聲音,成為一個由非洲主導的空間。

        來自世界各地的科學家還積極參與倫理、法律和社會問題的討論,如在計算機協(xié)會年會中組織公平、問責和透明度會議等活動??萍脊ぷ髡咭查_始組織起來,反對將他們的設計與產品用于明顯侵犯民眾權利和大眾福利之處。(80)Gregory S., “Cameras Everywhere Revisited: How Digital Technologies and Social Media Aid and Inhibit Human Rights Documentation and Advocacy”,Journal of Human Rights Practice, Vol.11, No.2, 2019, p.380.一些大學的教師和學生抗議美國移民和海關執(zhí)法局使用亞馬遜網絡服務、GitHub 和 Palantir 等平臺與軟件,這表明軟件工程師和科技工作者更加關注和捍衛(wèi)自己智力創(chuàng)造的社會用途。(81)Costanza-Chock S., “Designing AI with Justice”,Public Books, 2019.然而,格林卻質疑科技人士是否有完善的、能夠妥善處理這些具有挑戰(zhàn)性問題的社會和道德框架。(82)Green B.,The Smart Enough City:Putting Technology in Its Place to Reclaim Our Urban Future, Cambridge, MA: MIT Press, 2018.由于缺乏方法和理論來清晰地理解“善”的實際含義,計算科學家通常采用狹隘的方法來理解政治,包括對什么樣的社會條件在價值上是可取的,也僅僅提出模糊的(幾乎是重復的)主張。計算科學本身也“傾向于想當然地認為,以技術為中心的漸進式改革是促進社會進步的合宜策略”,但僅通過技術可能無法解決潛在的不平等和壓迫,而不平等和壓迫會產生負面的社會結果,計算科學家只試圖通過他們的技術干預來補救。為了提高效率與效能,技術專家仍需在新技術的開發(fā)、設計和運用過程中全面、共同協(xié)作。

        參與進程也需要透明度。由于自動化決策技術的發(fā)展,人們通常沒有機會去審查被用于分析的數(shù)據(jù)、其背后的代碼或其中嵌入的假設和價值判斷。不僅不從事程序員工作的人難以理解這些代碼,而且公司還經常不遺余力地將它們作為商業(yè)機密加以保護。這就難以測試人工智能系統(tǒng)的準確性或更好地理解其局限性,正如拉姆 (Ram) 等人所言,當自動化系統(tǒng)做出關涉生死的決定時,通過增強技術透明度來監(jiān)督數(shù)字技術的能力至關重要。(83)Ram N., “Innovating Criminal Justice”,Northwest University Law Review, Vol.112, No.4, 2018, pp.659—724.

        (三)制度與法律

        在技術創(chuàng)新領域中,公共部門同私營企業(yè)的行動深深交融的情況下,除實踐技術外,重新認識有關維護民眾權利和大眾福利的制度,以及法律中的公/私區(qū)分是必要的。這并不意味著制度與法律是無關緊要的,而是它們必須以某種方式發(fā)展,以彌補應用新技術所造成的責任缺口。如當政府通過將權力外包給私營公司來審查它們自己無法審查的內容,來規(guī)避對其權力的檢查時,(84)Land M.K., “Against Privatized Censorship: Proposals for Responsible Delegation”,Journal of International Law, Vol.60, 2020, pp.363—432.或者當公眾無法補救他們所不了解的自動化系統(tǒng)造成的損害時,就會出現(xiàn)責任缺口而難以問責。(85)Crawford K, Schultz J. “AI Systems as State Actors”,Columbia Law Review, Vol.119, 2019, pp.1941—1972.在這種情況下,對公共權力和私人權力的嚴格區(qū)分并不能促進作為保護民眾權益基礎的問責制和實現(xiàn)補救的根本目標。然而,可以更新和實施國家在國際層面的行動和國內法的規(guī)則,(86)Crawford K, Schultz J. “AI Systems as State Actors”,Columbia Law Review, Vol.119, 2019, pp.1941—1972.以確保國家無法逃避與使用新技術相關的損害的責任。

        解決新技術的潛在危害還要求各國認真履行保護個人免受非國家行為者傷害的責任。(87)Karanicolas M. “Squaring the Circle between Freedom of Expression and Platform Law”,Journal of Technology Law Policy, Vol.20, 2019—2020.國家可能要求私營公司自行制定評估技術產生影響的流程并將之制度化,要求技術公司必須將風險評估納入技術開發(fā)和設計系統(tǒng),以便在涉及侵權風險之前便排除它。國家不僅需要承擔推進技術創(chuàng)新和發(fā)展技術的義務,而且還必須擔負以支持而不是阻礙人們享有權益的方式促進技術創(chuàng)新的責任。

        結 論

        盡管運用技術手段來維護社會秩序、尋求社會公益的項目受到各方歡迎,但技術不能也不會自動解決社會問題。拉托內羅(Latonero)在《連線》(WIRED)的一篇專欄文章中指出,將人工智能應用于社會治理與公共服務活動中“帶有技術主義的味道,可能會掩蓋問題的本質,并在沒有適當保障的情況下對弱勢人群造成風險”。(88)Latonero M., “Opinion: AI for Good is Often Bad”,WIRED, https://www.wired.com/story/opinion-ai-for-good-is-often-bad/, 2021-11-27.他認為,“被簡化的由最聰明的企業(yè)技術人員與最受尊敬的國際組織合作所提供的方案”永遠不可能解決大規(guī)模的社會問題。格林也反對將復雜的政治和社會現(xiàn)象簡化為可以通過算法或應用程序解決的技術問題,工程師和科學家無法識別和定義社會問題,這些問題只能由民眾自己完成,他人無法也不能越俎代庖。

        通過數(shù)據(jù)獲取信息、進行計算、直接供給,智能社會治理與服務加劇了現(xiàn)有市場制度下的不平等。如由數(shù)字技術所支撐的預測性警務威脅著生活在被嚴密監(jiān)管社區(qū)中的少數(shù)群體權利、雇傭與社會救助算法威脅就業(yè)人員的權利、社會保障算法威脅民眾權利。智慧社會治理與服務面臨的問題首先是歧視,即預測模型會出錯,越來越多的證據(jù)表明,對于脆弱的群體,模型出錯的頻率更高。其次是算法的不透明會削弱個人通過各種追責程序糾正錯誤的能力。最后,數(shù)據(jù)可能被用以監(jiān)視會使個人隱私權受到侵害。因此,高風險決策中的錯誤、削弱個人糾正這些錯誤能力的不透明性、對生活各個領域的監(jiān)控日益增多,使得人們日益擔憂在社會治理與服務中技術的作用。

        此外,若要使技術對社會治理與服務產生變革性影響,必須更加關注誰出于什么目的設計和構建了技術、以及其中嵌入了什么樣的權力和特權。因此,確保公平地獲取運用技術的機會是技術處理社會問題的前提,但技術并非憑空運作,而是依賴于體現(xiàn)結構性不平等的復雜的專業(yè)知識、維護和治理網絡。引進新技術的努力必須反思一系列有關權力的重要問題,包括在利益分配不均的社會情境中,哪些群體將從技術對現(xiàn)狀所做的改變中受益。技術還必須具有透明度,能夠接受外部監(jiān)督和審查,尤其是那些受負面影響最大的人的監(jiān)督和審查。

        隨著智能治理進程的加速推進,人們在享受數(shù)字紅利的同時也面臨著“數(shù)字暴政”的風險,這種風險在小范圍內或許有差異地作用于個人,如接受社會福利的對象,但極端情況下,也存在著無差別的社會風險。近年來,社會治理中掌握公共權力的政府與企業(yè)也越來越注重運用數(shù)字工具,然而,當我們在強調數(shù)字的工具價值和經濟價值的時候,不能低估或者忽略了其對社會的深層次影響,特別是對弱勢群體的影響。技術確實有在諸多方面增強了決策的可能性,然而,科技能否挑戰(zhàn)世界基本權力結構仍值得懷疑,創(chuàng)新的風險和收益不太可能被平等分享。為此,需要以社會治理目標為方向,來構建有利于促進民眾權益的技術。

        猜你喜歡
        民眾人工智能數(shù)字
        兌現(xiàn)“將青瓦臺還給民眾”的承諾
        金橋(2022年7期)2022-07-22 08:32:56
        烏克蘭當?shù)孛癖姵冯x
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        人工智能與就業(yè)
        IT經理世界(2018年20期)2018-10-24 02:38:24
        答數(shù)字
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        數(shù)字看G20
        南風窗(2016年19期)2016-09-21 16:56:12
        下一幕,人工智能!
        南風窗(2016年19期)2016-09-21 16:51:29
        十八屆三中全會民眾怎么看?
        中國民政(2014年1期)2014-06-27 05:53:04
        成雙成對
        久久99人妖视频国产| 国产又色又爽又刺激视频 | 国产精品久久久久久久久久影院| 亚洲精品国产av成拍| 国产乱人无码伦av在线a| 亚洲一区二区三区成人网站| 久久免费观看国产精品| 国产日本精品一区二区| 性色av一二三天美传媒| 国产精品人妻一码二码尿失禁| 麻豆AⅤ精品无码一区二区| 亚洲日本国产一区二区三区| 亚洲av无码国产精品色午夜软件 | 国产精品视频牛仔裤一区| 视频一区二区三区中文字幕狠狠| 国产女主播一区二区久久| 国内成+人 亚洲+欧美+综合在线 | 亚洲中文字幕永久网站| 色婷婷精品久久二区二区蜜臀av| 成人毛片一区二区| 精品人妻中文av一区二区三区| 久久蜜臀av一区三区| 国产无套内射又大又猛又粗又爽 | 国产一品道av在线一二三区| 国产香蕉一区二区三区| 在线a亚洲视频播放在线播放| 东京热人妻一区二区三区| 国内无遮码无码| 久久开心婷婷综合中文| 国产av国片精品jk制服| 18级成人毛片免费观看| 国产精品一区二区av白丝在线| 国产精品国产三级国产专播下| 国精品无码一区二区三区在线蜜臀| 国产精品丝袜在线不卡| 国产我不卡在线观看免费| 成人网站在线进入爽爽爽| 亚洲av无码专区亚洲av桃| 亚洲国产av一区二区三| 久久久国产精品123| 日本亚洲色大成网站www久久|