張 旺
(中共湖南省委黨校 科技與生態(tài)文明教研部,湖南 長沙 410006)
“風(fēng)險社會是一個高度技術(shù)化的社會,科學(xué)技術(shù)的高速發(fā)展既是風(fēng)險社會的特征,也是風(fēng)險社會的成因”[1]。人工智能技術(shù)的廣泛應(yīng)用,給人們生產(chǎn)生活的諸多領(lǐng)域帶來了顛覆性變革,推進了方式流程的自動化、智能化進度,而且在很多細化領(lǐng)域可以用于規(guī)避風(fēng)險、提升安全系數(shù)。如在網(wǎng)絡(luò)安全領(lǐng)域,AI網(wǎng)絡(luò)安全系統(tǒng)可以將識別和消除網(wǎng)絡(luò)攻擊的平均時間從101天減少到幾個小時[2]。伴隨人工智能技術(shù)的快速發(fā)展,其賦能的應(yīng)用場景越來越多,算法作為人工智能技術(shù)的重要基石之一,重要性不言而喻,但其帶來的不確定性和不可控性也日益增多,產(chǎn)生了算法偏差、算法黑箱、算法壟斷等諸多風(fēng)險,這些風(fēng)險輻射到政治、經(jīng)濟、科技等諸多領(lǐng)域,引發(fā)了公眾對算法風(fēng)險問題的恐慌焦慮。
近年來,學(xué)術(shù)界對算法風(fēng)險的倫理反思逐步深入,涵蓋哲學(xué)、管理學(xué)、傳播學(xué)等多學(xué)科領(lǐng)域,研究成果主要聚焦算法本體、治理向度及監(jiān)管審查等方面。
第一,就算法本體的審視向度而言,著重從算法設(shè)計中存在的倫理問題探討算法風(fēng)險與設(shè)計者之間的邏輯關(guān)聯(lián)。李倫、孫保學(xué)(2018)認為,人工智能研發(fā)者和應(yīng)用者應(yīng)當使人工智能的設(shè)計合乎道德,避免惡意設(shè)計,并確保人工智能的善用,使之造福人類社會,同時提出人工智能倫理研究包括人工智能道德哲學(xué)、人工智能道德算法、人工智能設(shè)計倫理和人工智能社會倫理四個維度。藍江(2018)探討了人工智能的“電子人格”和波蘭尼悖論,分析了人工智能的倫理主體反思問題。蘇令銀(2018)探討了人工智能道德主體爭論的主要分歧,以及人工智能道德主體和道德責任問題。段偉文(2017)結(jié)合有限自主與交互智能體的概念,闡釋了人工智能倫理研究與相關(guān)倫理規(guī)范和標準。孫偉平(2017)認為人工智能應(yīng)及早確定其價值原則,從而確保對這一新技術(shù)行使人類表決權(quán)。徐英瑾(2017)探討了人工智能技術(shù)與武器的結(jié)合可能導(dǎo)致的倫理后果,認為人工智能與武器系統(tǒng)的結(jié)合反而會增加未來戰(zhàn)爭的倫理指數(shù)。孟偉、楊之林(2018)從現(xiàn)象學(xué)倫理學(xué)的新視角探討了人工智能的倫理難題,指出人工智能技術(shù)的一般性倫理問題指向技術(shù)設(shè)計和使用等主客體層面,人工智能技術(shù)的特殊倫理問題則指向智能體可能具有的倫理自主性。
第二,就算法風(fēng)險的治理向度而言,主要從算法風(fēng)險的倫理治理角度出發(fā),探討倫理治理的可行性和必要性。算法風(fēng)險作為一種具有鮮明特征的“現(xiàn)代風(fēng)險”,學(xué)者從眾多角度展開了豐富研究。陳偉光(2017)認為,人工智能治理既是其技術(shù)和運用發(fā)展到一定階段的必然結(jié)果,又是對其研究、開發(fā)、生產(chǎn)和運用過程中可能會出現(xiàn)的公共安全、道德倫理等問題進行協(xié)調(diào)、處理、監(jiān)管和規(guī)范的過程。杜嚴勇(2017)探討了人工智能自反性倫理治理框架,并分析了標準模型、改進的標準模型、咨詢模型以及共建模型等四種治理模型。閆坤如(2018)認為,人工智能的發(fā)展可能引發(fā)責任倫理沖突及風(fēng)險的社會擴大等倫理問題,只有規(guī)約智能機器設(shè)計者和使用者的行為,才能有效保障智能機器與系統(tǒng)的使用安全。孫保學(xué)(2019)從算法的自主性特征、應(yīng)用性場景和歸責性困境三個方面,對算法倫理風(fēng)險進行了深刻分析。張欣(2019)探討了算法危機的三重特征,闡釋了算法治理的三種范式,并就實現(xiàn)算法信任提出了建議主張。陳思(2020)在系統(tǒng)分析智能社會技術(shù)異化的基礎(chǔ)上,提出了算法治理的可行性進路。
第三,多學(xué)科視域下的算法風(fēng)險治理多層次性研究。學(xué)者們從各種特定視角審視探討了算法風(fēng)險倫理問題,如有些學(xué)者側(cè)重從算法風(fēng)險特定屬性包括價值層面探討算法的設(shè)計風(fēng)險:楊學(xué)科(2019)認為,算法歧視技術(shù)治理可在多樣性加入、透明度、問責制上著手;還有學(xué)者從場景層面探討算法的應(yīng)用風(fēng)險:如姜野、李擁軍(2019)以社會信用體系建設(shè)為場景,提出了“算法解釋權(quán)”的概念;另外還有學(xué)者從操作層面探討算法的監(jiān)管風(fēng)險:卜素(2019)針對“算法歧視”問題,認為應(yīng)當基于禁止歧視或平等保護之目的建立對人工智能算法的倫理審查標準體系。郭林生、李小燕(2020)提出了建立算法設(shè)計者道德責任、價值敏感性設(shè)計以及算法適用法律規(guī)范的建構(gòu)進路。
上述研究視角,建構(gòu)起了算法風(fēng)險與倫理道德之間的邏輯關(guān)聯(lián)、作用沖突、價值理念等,詮釋了算法風(fēng)險的倫理治理路徑。然而,在一個相對認同的倫理框架下,如何從道德閾限的角度表達算法風(fēng)險的影響,推動算法的道德問責和倫理審查,仍然是一個亟須深入探討的重要問題。本文旨在上述專業(yè)視角研究的基礎(chǔ)上,分析闡釋算法倫理的負責任設(shè)計與審查,以算法風(fēng)險的道德閾限為前提,探討算法問責及倫理審查機制的建構(gòu)機理與作用發(fā)揮,進而實現(xiàn)一定意義上的算法“公平”。
德國倫理學(xué)家漢斯·約納斯把“我們借助高科技而踏入的集體實踐的新大陸”稱作倫理學(xué)的“無人區(qū)”和“倫理學(xué)的真空地帶”[3]。構(gòu)建具有倫理行為的人工智能,使得算法以一種道德上負責任的方式運行,是推動算法道德問責的前提條件。技術(shù)進步應(yīng)始終以人道為中心,考慮到倫理方面,特別是安全、問責、經(jīng)濟繁榮和個人權(quán)利。當技術(shù)出錯時,毫無疑問它將不可避免地發(fā)生,一些關(guān)于倫理設(shè)計和政策的前瞻性思考可以幫助引導(dǎo)技術(shù)的發(fā)展,從而使我們所有人都受益匪淺。甚至算法在原有的道德規(guī)范嵌入基礎(chǔ)上,不斷學(xué)習(xí)新的道德規(guī)范,進而不斷增強其道德能力水平,在風(fēng)險來臨之際,作出更為合理的道德選擇。
“風(fēng)險的確立就是:倫理,附帶包括哲學(xué)、文化和政治,在現(xiàn)代化的核心領(lǐng)域,亦即在經(jīng)濟、自然科學(xué)和技術(shù)學(xué)科等領(lǐng)域復(fù)活了。”[4]人工智能會給人類帶來倫理風(fēng)險。倫理風(fēng)險主要包括兩個方面,一是人類自身契約風(fēng)險,另一個是人類與人工智能訂立契約的風(fēng)險[5]。這種倫理風(fēng)險的外在表征,是算法自身承載道德的客觀顯現(xiàn),其道德水平高低一定程度上取決于我們對于人工智能算法的信任閾值有多高。算法既然不可避免地體現(xiàn)人的主觀能動性,便帶有一定取向的道德觀念,或善或惡,或理性或偏見,終究體現(xiàn)著道德層面的價值指向。
算法增加了人與機器之間的道德關(guān)聯(lián),儼然成為重要的生產(chǎn)工具,推動人與機器的交互作用。機器人即使不應(yīng)被看作獨立的行動者,也應(yīng)被看作構(gòu)成性的道德要素。它可以根據(jù)所獲得的信息改變判斷,并且通過與人互動,產(chǎn)生在道德上的或好或壞的后果。機器人作為倫理網(wǎng)絡(luò)的參與者,它的設(shè)計和使用本身就不再是中立的,而是承載著一定的道德價值。算法問責就是要做到使算法的設(shè)計者和運營商成為算法歸責的真正主體,評估算法對個人隱私、信息安全、歧視性后果方面的風(fēng)險,并對算法結(jié)果承擔相應(yīng)的責任。
“責任”是一個正在被廣泛使用具有廣泛含義的概念。責任倫理也是隨著應(yīng)用倫理學(xué)興起而逐漸發(fā)展并流行的新型倫理學(xué)概念,也被稱為科技時代的新倫理[6]。人們可以將責任原則理解為社會歷史的一個里程碑。這個里程碑從20世紀80年代社會經(jīng)濟、核能和生物醫(yī)學(xué)技術(shù)的生存危機的角度,記錄了社會的自然觀、技術(shù)觀和自我認識,并且將其視為對哲學(xué)、倫理學(xué)和公眾社會的挑戰(zhàn)。人類從算法中獲取了巨大利益,但算法可能會被別有用心者濫用,或者在某些領(lǐng)域呈現(xiàn)出人類無法預(yù)知、甚至無法管控的風(fēng)險危機,需要我們設(shè)置一個具有科學(xué)責任權(quán)重分配的倫理框架。責任歸屬作為倫理規(guī)約的重要因素,在算法風(fēng)險規(guī)避途徑中占有重要地位。如何更好地劃分算法設(shè)計使用的責任區(qū)間,架構(gòu)基于責任的倫理框架,是提升風(fēng)險規(guī)避效果的重要路徑。
也有學(xué)者將人工智能與機器人的倫理研究分為了四個進路,其中便涵蓋凸顯主體責任的責任倫理研究。這類研究的出發(fā)點是強調(diào)人類主體特別是設(shè)計者和控制者在人工智能與機器人的研究和創(chuàng)新中的責任——優(yōu)先考慮公眾利益和人類福祉、減少其危害與風(fēng)險以及對后果負責等。單單就責任要素而言,算法風(fēng)險倫理規(guī)范的責任歸屬有其特定的范圍和維度。依據(jù)群體劃分,這種責任可能體現(xiàn)在兩個方面,一方面是算法設(shè)計者、使用者應(yīng)當擔負的重要責任,另一方面是AI智能體應(yīng)承擔的責任,或者說如何賦予智能體承擔相應(yīng)責任。依據(jù)主要環(huán)節(jié)劃分,責任歸屬則體現(xiàn)在人工智能設(shè)計階段的倫理責任嵌入和人工智能體的倫理責任監(jiān)管,即所謂的“前端嵌入”與“后端規(guī)約”。在多重維度賦予算法的責任歸屬,架構(gòu)算法風(fēng)險倫理規(guī)范框架,能夠有效緩解可能因算法黑箱不透明造成的責任缺位,是形成公平性、透明性和可解釋性倫理規(guī)范機制的重要舉措。
“主體責任的缺失是高技術(shù)倫理困境的源頭”[7]。當前,各方致力于探索完善人工智能技術(shù)發(fā)展的倫理原則,并相繼提出了各具特色的規(guī)范守則,其中最為緊要的兩大原則便是“人類利益原則”和“責任原則”,這種“人本+責任”的倫理原則也客觀凸顯了責任要素在風(fēng)險規(guī)避中發(fā)揮的重要作用。雖然算法倫理問題與責任歸屬有著密切關(guān)系,而且責任這一要素在很大程度上影響算法倫理規(guī)范的可接受度,但如何科學(xué)界定并明確責任歸屬尚在完善之中。算法帶來的風(fēng)險需要從倫理層面進行補充規(guī)范,這個規(guī)約機制是基于自愿、共識和負責任基礎(chǔ)之上的倫理審視。雖然各國和一些人工智能領(lǐng)域的龍頭企業(yè)制定了各類倫理守則,但當前特定的道德解決方案在概念上仍然存在模糊性,缺少必要的追責執(zhí)行機制。因此,建立一個權(quán)責明晰、可解釋、可信任的倫理道德框架顯得尤為重要,這種較為合理的問責制既能夠進一步明確道德責任歸屬,同時又能增加人工智能技術(shù)應(yīng)用的透明度,對于合理規(guī)避算法風(fēng)險至關(guān)重要。
有學(xué)者建議由專門的監(jiān)管機構(gòu)根據(jù)某些規(guī)則和標準在人工智能系統(tǒng)審批認證前進行測試,測試完成后,人工智能的開發(fā)者再向監(jiān)管機構(gòu)提出審批認證申請。監(jiān)管機構(gòu)的主要工作是判斷人工智能系統(tǒng)是否符合申請標準,比如是否會導(dǎo)致人身傷害、目標是否一致、能否確保人類的控制等。還有學(xué)者建議就解決算法決策證據(jù)透明性問題而言,采取依托數(shù)據(jù)處理器執(zhí)行的算法審查方式,或者借助事后審查的外部監(jiān)管機構(gòu),或者使用被設(shè)計進入算法本身的報告機制。倫理審查在算法風(fēng)險規(guī)避之中發(fā)揮著重要作用,能夠推動負責、公平、透明的倫理規(guī)范守則形成。對于不可測和高度復(fù)雜的算法系統(tǒng),問責機制不能僅僅依賴于可解釋性。審計機制被提出來作為可能的解決方案,用于檢查算法的輸入和輸出,以了解偏差和危害,而不是解剖系統(tǒng)如何工作。這種基于責任基礎(chǔ)之上的審計機制,更進一步凸顯了倫理審查的重要性。同時,考慮到人工智能的決策運行是多要素交互作用的結(jié)果,包括算法設(shè)計師、開發(fā)人員、用戶、軟件和硬件等,其間涉及多層級的價值觀念滲透沖突,迫切需要建立一個信任度較高的實施環(huán)境。因此能夠衡量規(guī)范道德價值的倫理審查機制作用便進一步凸顯,這一機制能夠確保人工智能算法以符合道德標準的方式運行。如何對算法風(fēng)險實施有效評估,必要的監(jiān)管是不可或缺的。但是,如何確定監(jiān)管的對象是算法本身還是算法的設(shè)計者?算法是由編程代碼組成,而編程代碼本身是無法監(jiān)管的。相反,只有相應(yīng)的規(guī)范管理實體或規(guī)范的實際結(jié)果才能被規(guī)范。倫理嵌入的人工智能產(chǎn)品需要框架約束,這種約束不單單是對算法的約束,算法本身并不能直接承擔責任,更重要的是對設(shè)計者的約束。這也表明了算法是由人設(shè)計的,對人的倫理道德約束才是解決算法風(fēng)險問題的根本所在。
工具理性不斷擴張的結(jié)果,必然會導(dǎo)致價值維度的衰落與迷失。算法在應(yīng)用及輔助決策過程中的過分參與或濫用,會產(chǎn)生很多風(fēng)險問題,這些難題不是單一的技術(shù)問題,而是涉及技術(shù)、政策、法律、倫理等多個維度。如果說技術(shù)、政策和法律等方面的規(guī)約更偏向?qū)嵱弥髁x色彩,那倫理道德層面的規(guī)約則更多地體現(xiàn)出理想主義色彩,但作用影響卻更為深遠。
算法倫理審查的標準化是通過設(shè)置各種倫理規(guī)范守則的框架式結(jié)構(gòu),不斷強化算法風(fēng)險的倫理約束、形成“律化”反應(yīng)的發(fā)展歷程。算法風(fēng)險治理過程中產(chǎn)生了各式各樣的倫理規(guī)范,旨在為算法的“負責任”發(fā)展提供倫理保障。在這種語境下,弗洛里迪和桑德斯最接近于現(xiàn)實的建議是,將在道德上可接受的行為定義為“閾值函數(shù)”,用于可觀察變量,這些可觀察變量構(gòu)成一個抽象層次——在閾值以上可以認為是道德的,在閾值以下就是不道德的[8]。該抽象層次上的一個能動者被認為是道德上良善的,如果對于某一預(yù)先約定的值(稱為容忍值),它維持了可觀察量之間的一種關(guān)系,使得閾限函數(shù)的值在任何時候都不超過容忍值。倫理審查標準化實質(zhì)上為算法更加透明、算法社會更加有序提供了倫理解決方案,讓算法在設(shè)定規(guī)劃好的框架中健康運行。
談到倫理審查標準化對算法風(fēng)險的重要制約,必然要考慮算法的價值觀嵌入這個先決條件。價值觀一直參與設(shè)計過程,常常以技術(shù)規(guī)范或工程師自身價值理念以及他們?yōu)橹ぷ鞯墓镜膬r值文化的形式體現(xiàn)。對價值觀敏感的工程,使價值觀成為技術(shù)設(shè)計的一個顯性和有意識的元素。機器倫理并沒有體現(xiàn)出與人工智能風(fēng)險相關(guān)的因果關(guān)系,因為人類對技術(shù)的社會結(jié)果以各種方式參與和負責,而成功的倫理行為要比有一個好的算法更重要。在過去的二十年中,越來越多的研究人員呼吁通過以用戶為中心和對價值敏感的設(shè)計等產(chǎn)品設(shè)計方法,在設(shè)計過程中盡早納入倫理考慮。例如,范登·霍文曾呼吁“一種旨在使道德價值成為技術(shù)設(shè)計、研究和開發(fā)組成部分的道德行為方式”(Van den Hoven,2005年)。價值敏感設(shè)計是“一種基于理論的技術(shù)設(shè)計方法,在整個設(shè)計過程中以原則和全面的方式考慮人類價值”(Friedman等人,2013年)。根據(jù)這一學(xué)派的觀點,應(yīng)通過工程師和倫理學(xué)家的合作,在設(shè)計層面主動融入倫理價值觀,而不是僅僅在技術(shù)開發(fā)過程的最后進行討論[9]。
從理論上看,根據(jù)人類預(yù)設(shè)的道德原則進行道德決策的機器人可以成為只能做好事的“道德楷模”,而且在一定程度上還可以避免人們對其的不當使用、惡意利用和濫用[10]。2019年國家新一代人工智能治理專業(yè)委員會發(fā)布了《新一代人工智能治理原則》,明確提出:和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔責任、開放協(xié)作、敏捷治理等八條原則。類似于此的算法倫理審查的標準化規(guī)定了算法及其自身的道德義務(wù),把合理合規(guī)的道德規(guī)范植入算法之中,是規(guī)避算法風(fēng)險的必要舉措。在試圖為人工智能和智能機器制定倫理審查標準時,研究人員和從業(yè)者應(yīng)該努力更好地理解現(xiàn)有的倫理原則,以便他們能夠?qū)惱碓瓌t應(yīng)用于研究活動,并幫助培訓(xùn)開發(fā)人員建立道德的人工智能。
算法倫理的制度化是其倫理審查制度化的前提條件。倫理是具有情境性的,在特定環(huán)境下能正常接受的倫理,遷移到另外一種情境中就會發(fā)生變化。有學(xué)者認為,倫理制度化是將社會中自發(fā)形成以及民眾中自愿遵守的倫理要求,通過明文規(guī)定的形式加以制度化表達,進而借助制度的強制約束性提升社會主體遵守規(guī)則的執(zhí)行力。倫理制度化的核心便是將制度的強制力量融入道德規(guī)范之中,以健全的倫理制度推行價值理念。算法已經(jīng)成為信息社會和智能社會的生產(chǎn)力核心要素,而算法倫理制度化則是在標準化基礎(chǔ)上的進一步發(fā)展,夯實了倫理對算法的輻射影響,倫理制度的作用得以彰顯。
從算法層面來看,目前談?wù)撦^多的便是倫理約束,即為機器人等智能體設(shè)置一定的道德制度規(guī)范,使得他們的行為表達和功能屬性在一定的倫理范圍內(nèi)運行,從而更符合我們所追求的科技向善準則。算法作為工程師設(shè)計者的產(chǎn)物,繼承了人類的道德理念,或好或壞。因此,建立標準化的倫理制度,進而規(guī)制算法風(fēng)險,降低風(fēng)險的破壞力,顯然是迫切和關(guān)鍵的。2018年,亞馬遜的招聘算法——旨在確保亞馬遜能夠找到最有可能在該公司表現(xiàn)出色的人——成為女性簡歷偏見的頭條新聞。用來訓(xùn)練算法的數(shù)據(jù)集是關(guān)于誰已經(jīng)在亞馬遜工作的歷史數(shù)據(jù)。因為“亞馬遜雇員”通常是男性,所以該算法采取了這種偏見并加以放大。在使用人工智能技術(shù)的過程中,不恰當?shù)乃惴ㄆ娀蚱缫暱赡軙?dǎo)致不良后果,如性別偏見和種族偏見等,造成輸出結(jié)果的偏差,這也直接驗證了倫理制度的重要性,需要從制度層面加以有效約束。
算法倫理審查的制度化則是算法倫理制度化的重要組成部分,其本質(zhì)內(nèi)涵是通過健全完善的倫理審查制度體系來提升外界監(jiān)管力度,最終達成“合乎人性”的發(fā)展目標。2021年9月,國家互聯(lián)網(wǎng)信息辦公室等九部委制定了《關(guān)于加強互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見》,強調(diào)“企業(yè)應(yīng)建立算法安全責任制度和科技倫理審查制度”“逐步建立治理機制健全、監(jiān)管體系完善、算法生態(tài)規(guī)范的算法安全綜合治理格局”。因為算法的設(shè)計者便是我們?nèi)祟愖陨恚O(shè)計者的主觀意愿和社會認知等要素,不僅體現(xiàn)在技術(shù)層面上,也同樣顯現(xiàn)在道德倫理等非技術(shù)性層面上。由于支持數(shù)據(jù)挖掘的模型的許多特性、度量和分析結(jié)構(gòu)都是由其設(shè)計人員選擇的,因此這些技術(shù)可能會復(fù)制其設(shè)計人員的偏見。為避免此類偏見的產(chǎn)生,推進算法的道德化進程,主要途徑便是建立倫理制度框架下的社會治理模式,根據(jù)倫理規(guī)則調(diào)整制度設(shè)計,進而實現(xiàn)算法倫理審查的制度化。算法倫理審查的制度化則涵蓋法律法規(guī)建設(shè)、安全風(fēng)險評估、備案管理制度、技術(shù)監(jiān)管方式等核心要素,形成“監(jiān)測—評估—備案—監(jiān)管”一體化的倫理審查制度體系,建構(gòu)規(guī)范化的倫理審查制度框架,從外界打破算法自身的偏見與不透明,為人們理解使用算法提供更為科學(xué)的認知指向。
2017年《新一代人工智能發(fā)展規(guī)劃》中明確:“開展人工智能行為科學(xué)和倫理等問題研究,建立倫理道德多層次判斷結(jié)構(gòu)及人機協(xié)作的倫理框架?!盵11]不同階層、領(lǐng)域、群體對人工智能的算法風(fēng)險認知出發(fā)點不盡相同,概念認知上的混亂混淆,群體或個人喜好上的不同,容易造成算法風(fēng)險的認知偏差,這種偏差或樂觀、或悲觀。牛津互聯(lián)網(wǎng)學(xué)院教授桑德拉·沃克特認為,人工智能的風(fēng)險和收益會因為行業(yè)、應(yīng)用和環(huán)境有差異。人工智能技術(shù)的創(chuàng)新發(fā)展是否需要設(shè)置應(yīng)用邊界,這個應(yīng)用邊界需要如何設(shè)置,倫理道德的作用如何發(fā)揮等,這些問題已經(jīng)成為政府與學(xué)術(shù)界普遍關(guān)注的熱點。技術(shù)的發(fā)展過程之中如果缺少智慧審視與原則考量,喪失安全這一底線,最終就有可能讓人類付出更大的代價去補償,這驗證了建構(gòu)一種相對穩(wěn)定可靠倫理結(jié)構(gòu)的重要性。
算法風(fēng)險從主體使用者的角度出發(fā),可區(qū)分為意外風(fēng)險或惡意使用。意外風(fēng)險可能更多地摻雜善意因子,而惡意使用帶來的技術(shù)濫用,特別是在軍事領(lǐng)域的濫用,則可能打破原本健康有序的應(yīng)用環(huán)境,使得技術(shù)發(fā)展陷入惡性競爭之中。因此,嚴格規(guī)范人工智能這一重要行業(yè)和領(lǐng)域的規(guī)則,從頂層設(shè)計和源頭治理層面推動人工智能規(guī)范發(fā)展,是人類迎接挑戰(zhàn)、規(guī)避風(fēng)險的必要路徑。由于算法本身的發(fā)展不是靜態(tài)的,而是動態(tài)變化的,雖然法律、規(guī)則、技術(shù)等維度的約束在其中占有重要地位,而倫理規(guī)約的約束力可能相對有限,但其始終是不可忽略的一個重要環(huán)節(jié)。通過制定超越技術(shù)標準、法律條文等硬性規(guī)范的倫理守則,能夠有效規(guī)范人工智能應(yīng)用的行為道德,進一步擴大算法風(fēng)險治理結(jié)構(gòu)的彈性空間。構(gòu)建倫理軟約束治理機制,能夠從道德層面緩沖人工智能風(fēng)險治理的強度,并對可能存在的風(fēng)險進行前瞻性的預(yù)見,這種規(guī)約機制是基于多元主體自愿、共識基礎(chǔ)之上的倫理治理路徑,具有明顯的風(fēng)險規(guī)避優(yōu)勢。
人工智能算法對作為現(xiàn)代倫理支撐的主體性原則、社會正義觀和實質(zhì)結(jié)果主義提出了嚴峻挑戰(zhàn)。這種挑戰(zhàn)主要體現(xiàn)為人的主體性地位的消解、群組正義觀代替?zhèn)€人正義觀、人工智能在算法結(jié)果上的標簽化效應(yīng)等[12]。因此,應(yīng)對算法風(fēng)險需要從不同的倫理角度來對其表現(xiàn)形式、運行機理、工具理性、多元價值等進行批判審視。算法技術(shù)發(fā)展中伴隨而來的各種風(fēng)險首先可以通過增強技術(shù)可靠性以及開拓技術(shù)周邊措施的方式來增加公眾信任[13]。建構(gòu)算法設(shè)計、開發(fā)和使用的倫理原則,確定相對穩(wěn)定的實用框架和審查機制,通過可靠的倫理結(jié)構(gòu)來確保道德施治。這樣的倫理審查結(jié)構(gòu)化表達方式對算法治理至關(guān)重要,有助于從框架到實踐全面實施和執(zhí)行算法的道德規(guī)范,促進人工智能的倫理治理,推動人工智能的道德化進程。
算法風(fēng)險的治理有賴于道德閾限與問責,在框定算法風(fēng)險的道德邊界時,更要明確各主體應(yīng)承擔的責任,既要確保在算法設(shè)計之初便有合適的倫理嵌入其中,也要確保算法運用過程符合倫理審查要求。這樣既從算法本身進行了道德層面的閾限,也從外部環(huán)境進行了必要的倫理約束,同時也明確了各多元主體及算法運行各層級的責任劃分。算法的道德閾限強調(diào)了算法的應(yīng)用軌跡與框架,其核心在于讓算法更加透明、更加公開、更加有序,其中涉及算法倫理審查的標準化、制度化和結(jié)構(gòu)化。因此,合理可靠的算法倫理審查機制應(yīng)包括以下內(nèi)容:科學(xué)理性的道德承載,精準規(guī)范的責任歸屬以及程序公正的倫理審查。這樣從倫理道德層面審視駕馭算法風(fēng)險,才能確保其科學(xué)防范與治理成效。
“算法的社會本質(zhì)是一種權(quán)力”[14]。而這種“權(quán)力”應(yīng)始終在倫理的引導(dǎo)下推進發(fā)展,倫理也是算法設(shè)計與應(yīng)用的框架和底線,倫理審查則應(yīng)一直貫穿于算法技術(shù)發(fā)展運用的全周期。我們應(yīng)客觀看到人工智能倫理審查的多元復(fù)雜性,其涵蓋數(shù)據(jù)倫理審查、算法倫理審查、產(chǎn)品倫理審查等多個維度,也要辨識算法倫理審查在其中的特殊性。我國在推進算法倫理審查的制度體系建設(shè)進程中取得了顯著進步,2021年《新一代人工智能倫理規(guī)范》等規(guī)章制度的發(fā)布,標志著算法綜合治理格局的健全完善。算法與人之間的人機關(guān)系逐漸成長為理性健康、融合互通的價值共同體,雙方在不斷縮小價值理性偏差的過程中重塑了新型人機共生關(guān)系,這也是正式推動算法倫理審查的初衷和目的所在。