張旺
摘要:算法風(fēng)險(xiǎn)觸及、引發(fā)、衍生了諸多社會(huì)問題,日益成為社會(huì)各界廣泛關(guān)注的熱點(diǎn)。算法風(fēng)險(xiǎn)治理的倫理結(jié)構(gòu)化進(jìn)路,主要是指通過建構(gòu)算法設(shè)計(jì)、開發(fā)和使用的倫理原則制度,確定相對(duì)穩(wěn)定的倫理框架和邏輯體系,形成合理可靠的倫理關(guān)系結(jié)構(gòu),從而確保算法符合道德倫理要求。倫理結(jié)構(gòu)化的表達(dá)與呈現(xiàn)方式對(duì)提升算法治理能力十分重要,是推進(jìn)算法風(fēng)險(xiǎn)治理的重要范式,有助于從理論層面到實(shí)踐層面全面實(shí)施和執(zhí)行算法的道德規(guī)范,推動(dòng)算法的倫理建設(shè)進(jìn)程。算法風(fēng)險(xiǎn)倫理治理結(jié)構(gòu)化的實(shí)施路徑包括:建構(gòu)算法風(fēng)險(xiǎn)倫理評(píng)估模型與審查體系;提升算法的倫理信任閾值與制定評(píng)估指標(biāo);設(shè)立算法風(fēng)險(xiǎn)倫理問責(zé)機(jī)制。
關(guān)鍵詞:人工智能;算法風(fēng)險(xiǎn);倫理結(jié)構(gòu)化;倫理評(píng)估
中圖分類號(hào):B82? ? 文獻(xiàn)標(biāo)志碼:A? ? 文章編號(hào):1004-3160(2021)02-0121-08
倫理結(jié)構(gòu)化進(jìn)程是指規(guī)范化、制度化、體系化的邏輯構(gòu)成,有著科學(xué)化與認(rèn)同感的評(píng)價(jià)標(biāo)準(zhǔn)與評(píng)價(jià)方法,并逐步推進(jìn)形成倫理規(guī)范的制度化和標(biāo)準(zhǔn)化趨向。相較于政治學(xué)與經(jīng)濟(jì)學(xué)領(lǐng)域中提出的新結(jié)構(gòu)經(jīng)濟(jì)學(xué)、新結(jié)構(gòu)政治學(xué)等理論,算法風(fēng)險(xiǎn)治理的倫理進(jìn)路中,同樣需要建構(gòu)相對(duì)合理穩(wěn)定的倫理框架結(jié)構(gòu)。本文通過分析算法風(fēng)險(xiǎn)倫理治理的邏輯理路,探討在算法風(fēng)險(xiǎn)治理領(lǐng)域推進(jìn)倫理結(jié)構(gòu)化的必要性和可行性,闡釋算法風(fēng)險(xiǎn)倫理治理的邏輯與路徑,旨在塑造具有可解釋性和可接受性的倫理關(guān)系結(jié)構(gòu)體系,適度、合理推進(jìn)算法風(fēng)險(xiǎn)的倫理制度體系建構(gòu),形成較為科學(xué)的認(rèn)知與評(píng)估體制機(jī)制,健全規(guī)范制度并為防范化解算法風(fēng)險(xiǎn)提供倫理支撐。
一、問題的提出:算法風(fēng)險(xiǎn)治理倫理結(jié)構(gòu)化的必要性
隨著人工智能技術(shù)的深度發(fā)展和廣泛應(yīng)用,算法作為人工智能技術(shù)的重要基石之一,算法偏見、算法歧視等引發(fā)的風(fēng)險(xiǎn)輻射影響了政治、經(jīng)濟(jì)、科技等諸多領(lǐng)域,其引發(fā)的現(xiàn)代風(fēng)險(xiǎn)典型特征較之傳統(tǒng)技術(shù)風(fēng)險(xiǎn)發(fā)生了質(zhì)的變化,不確定性和不可控性極大增強(qiáng),觸發(fā)了公眾對(duì)算法風(fēng)險(xiǎn)問題的恐慌焦慮。如何推進(jìn)人工智能算法風(fēng)險(xiǎn)的科學(xué)化治理,學(xué)界從政治、法律、倫理等相關(guān)視角都進(jìn)行了相關(guān)分析探討,其中倫理治理的呼聲日益高漲,算法風(fēng)險(xiǎn)治理的倫理結(jié)構(gòu)化可能成為重要的治理路徑。從倫理視角審視人工智能算法風(fēng)險(xiǎn),可以從“風(fēng)險(xiǎn)”“算法”和“倫理結(jié)構(gòu)化”三個(gè)關(guān)鍵詞出發(fā),這也是本文中最為基本的前提概念。
“風(fēng)險(xiǎn)”的核心概念作為算法風(fēng)險(xiǎn)的切入點(diǎn),學(xué)界已經(jīng)有了較為完善的研究成果,包括風(fēng)險(xiǎn)社會(huì)、風(fēng)險(xiǎn)治理等內(nèi)容的分析論證。根據(jù)考證,風(fēng)險(xiǎn)作為與其他各種不安全感相區(qū)別的一個(gè)概念出現(xiàn)在中世紀(jì)的末期,亦即14世紀(jì)早期的意大利商業(yè)城市和城市國家里。[1]對(duì)“風(fēng)險(xiǎn)”的界定,特別是技術(shù)風(fēng)險(xiǎn)的解讀,貝克、吉登斯、道格拉斯、威爾德韋斯、拉什、盧曼、???、里夫金、霍華德、斯洛維克、卡斯帕森等眾多風(fēng)險(xiǎn)理論學(xué)家從風(fēng)險(xiǎn)認(rèn)知、風(fēng)險(xiǎn)傳播、風(fēng)險(xiǎn)治理等諸多主題進(jìn)行了廣泛的研究。[2]風(fēng)險(xiǎn)問題已日益成為全球性的“熱門話題”,人們?nèi)找娓惺艿斤L(fēng)險(xiǎn)社會(huì)給人類帶來的是“全球的、無法挽救的、不再被限制的損害”。[3]
“算法”作為人工智能領(lǐng)域研究的重要概念,針對(duì)指向更為聚焦,更能凸顯信息技術(shù)的時(shí)代特征。智能時(shí)代算法悄然介入甚至主導(dǎo)人類事務(wù),算法從計(jì)算機(jī)領(lǐng)域的一個(gè)專業(yè)術(shù)語轉(zhuǎn)變?yōu)橹悄軙r(shí)代文化與社會(huì)的關(guān)鍵概念,對(duì)此概念的理解和界定也日益多元化。[4]算法的定義從塔爾頓·吉萊斯佩(Tarleton Gillespie) 的假設(shè)開始,即“算法不需要是軟件:在最廣泛的意義上,它們是基于指定計(jì)算將輸入數(shù)據(jù)轉(zhuǎn)換為期望輸出的編碼過程。這個(gè)過程既指出了一個(gè)問題,也指出了解決這個(gè)問題的步驟”。[5]也正如希爾(Hill)所解釋的,“我們看到的證據(jù)表明,任何程序或決策過程,無論其定義如何,都可以在新聞界和公共話語中被稱為‘算法”。[6]本文的研究將不局限于作為數(shù)學(xué)結(jié)構(gòu)的算法,而是更具有普遍意義的人工智能算法。
“倫理結(jié)構(gòu)化”則為分析解決算法風(fēng)險(xiǎn)問題提供了不同于一般意義上的特殊視角,更具有專業(yè)特色意蘊(yùn)。技術(shù)不僅是科技進(jìn)步的成果,而且是社會(huì)、市場(chǎng)和政治力量的共同產(chǎn)物。它們已經(jīng)深深地嵌入到了有賴于人工判斷的社會(huì)實(shí)踐中。[7]在人工智能技術(shù)背景下審視道德倫理這一復(fù)雜又有深度的問題,具有重要現(xiàn)實(shí)意義。算法應(yīng)用風(fēng)險(xiǎn)的主要特殊之處有三:一是范圍寬廣、形態(tài)繁多;二是評(píng)估難;三是影響深遠(yuǎn)。[8]算法風(fēng)險(xiǎn)治理的倫理結(jié)構(gòu)化維度側(cè)重從制度和結(jié)構(gòu)視角進(jìn)行探討,分析道德的制度化趨向、條理化脈絡(luò)和綱領(lǐng)化主張,從倫理層面對(duì)算法風(fēng)險(xiǎn)實(shí)現(xiàn)必要的標(biāo)準(zhǔn)化邏輯化呈現(xiàn),提升倫理治理的影響效能,實(shí)現(xiàn)工具屬性與價(jià)值屬性的高度統(tǒng)一,為推進(jìn)算法風(fēng)險(xiǎn)治理提供較大的彈性空間。
二、算法風(fēng)險(xiǎn)的倫理表現(xiàn)要素
倫理因素是算法風(fēng)險(xiǎn)治理需要著重考慮的關(guān)鍵要素,算法、風(fēng)險(xiǎn)、倫理三者間具有鮮明的結(jié)構(gòu)性關(guān)聯(lián),算法作為一種技術(shù)媒介,本應(yīng)處于一種中介的地位,但其產(chǎn)生的風(fēng)險(xiǎn),或者稱之為“技術(shù)的沖突”,需要從倫理評(píng)估的視角去設(shè)定價(jià)值理性的標(biāo)準(zhǔn)尺度。
(一)主體性因素產(chǎn)生的倫理預(yù)設(shè):設(shè)計(jì)者的價(jià)值偏差
算法不可避免的充滿了價(jià)值。在進(jìn)行算法風(fēng)險(xiǎn)生成的道德倫理溯源時(shí),算法設(shè)計(jì)者的主觀價(jià)值偏差通常被認(rèn)為是關(guān)鍵所在。算法作為人工智能技術(shù)的重要基石之一,本應(yīng)處于一種相對(duì)中立客觀的地位,但由于算法風(fēng)險(xiǎn)的產(chǎn)生與設(shè)計(jì)者的價(jià)值理念有著密不可分的關(guān)聯(lián),其人為的價(jià)值觀偏差在很大程度上會(huì)左右算法風(fēng)險(xiǎn)。奧馬雷(OMalley,2004)曾指出,風(fēng)險(xiǎn)技術(shù)并非道德中立,考察風(fēng)險(xiǎn)技術(shù)建構(gòu)和使用背后的道德觀念非常重要。[9]算法風(fēng)險(xiǎn)是如何產(chǎn)生的,歸根溯源是受到算法設(shè)計(jì)開發(fā)人員的主觀價(jià)值影響制約,這種制約不僅體現(xiàn)在算法的工具價(jià)值屬性上,也代表著算法的終極價(jià)值,甚至左右著算法可能產(chǎn)生的風(fēng)險(xiǎn)類別和破壞影響力。
算法會(huì)做出有偏見的決定。算法不僅會(huì)繼承人類的偏見,這種偏見還有可能隨著數(shù)據(jù)的積累和算法的迭代而被強(qiáng)化和放大。這些都是由于算法背后的價(jià)值預(yù)設(shè)所導(dǎo)致的新的社會(huì)倫理問題。[10]一個(gè)算法的設(shè)計(jì)和功能反映了它的設(shè)計(jì)者和預(yù)期用途的價(jià)值,只要某種特定的設(shè)計(jì)被認(rèn)為是最好或最有效的選擇。“算法作者的價(jià)值觀,無論是否有意,都被凍結(jié)在代碼中,有效地制度化了這些價(jià)值觀”(Macnish,2012)。從算法設(shè)計(jì)者的主觀意愿出發(fā)考量,算法風(fēng)險(xiǎn)中折射的歧視、偏見、誤導(dǎo)等問題,既有無意為之的潛移默化行為,更多則是在利益權(quán)衡下的特定設(shè)計(jì),社會(huì)偏見可以由個(gè)人設(shè)計(jì)師有目的地嵌入到系統(tǒng)設(shè)計(jì)中。正如吉登斯所言,“人造風(fēng)險(xiǎn)”體現(xiàn)了科技發(fā)展的副作用,它源于人們的重大決策,并且是由現(xiàn)代社會(huì)整個(gè)專家組織、經(jīng)濟(jì)集團(tuán)或政治派別權(quán)衡利弊得失后所作出的理性的決策。[11]如何識(shí)別評(píng)估算法中滲透的設(shè)計(jì)者的主觀性價(jià)值,可能需要一個(gè)較為長(zhǎng)期、多用戶或大數(shù)據(jù)基礎(chǔ)上分析判斷。因此,清晰準(zhǔn)確認(rèn)知算法中體現(xiàn)的倫理價(jià)值觀念,是推進(jìn)算法風(fēng)險(xiǎn)治理的先決條件和首要舉措。
(二)客觀性因素表現(xiàn)的倫理特征:算法自身的黑箱屬性
算法偏見產(chǎn)生的誤導(dǎo)性證據(jù)。從技術(shù)發(fā)展的本身來看,算法由于自身的復(fù)雜性如算法黑箱等屬性,從而帶來了算法風(fēng)險(xiǎn)的不確定性和不可控性。算法作為一種程序式的代碼,絕大部分人很難理解其運(yùn)行方式和作用機(jī)理,眾多學(xué)者認(rèn)為算法特有的黑箱屬性是造成其風(fēng)險(xiǎn)問題的關(guān)鍵所在。如算法的不透明性,一種更具懷疑性的分析認(rèn)為,“如果金融機(jī)構(gòu)故意保持不透明,就是為了避免或混淆監(jiān)管,那會(huì)怎么樣?”這可能是一種更為隱蔽的規(guī)避法規(guī)方式,或者操縱使用者認(rèn)知的途徑。如運(yùn)營參數(shù)由開發(fā)人員制定,由用戶指定并考慮到某些價(jià)值觀和利益優(yōu)先于其他價(jià)值觀和利益。算法正在通過它所觸發(fā)的一系列行為從社會(huì)的底層架構(gòu)重塑我們的世界觀,甚至修改我們的社會(huì)規(guī)則。[12]
知識(shí)極易擴(kuò)散,科技倫理失靈嚴(yán)重。[13]算法的透明度是造成算法黑箱屬性的核心要素,與算法自身的開源性密切關(guān)聯(lián)。從通俗意義上理解,算法透明度主要是指信息的可訪問性和可理解性。但有些算法的設(shè)計(jì)通常由于各種利益沖突,如商業(yè)競(jìng)爭(zhēng)、保密等原因,故意設(shè)置為不易訪問,人為降低算法的透明度,這也產(chǎn)生了與倫理操守相背馳的“不道德”行為。另外一方面,機(jī)器學(xué)習(xí)算法中的不透明度是數(shù)據(jù)高維性、復(fù)雜代碼和可變決策邏輯的產(chǎn)物。機(jī)器學(xué)習(xí)擅長(zhǎng)創(chuàng)建和修改規(guī)則,以便對(duì)大型數(shù)據(jù)集進(jìn)行分類或群集。該算法在運(yùn)行期間修改其行為結(jié)構(gòu),算法的基本原理被模糊了,這使得機(jī)器學(xué)習(xí)算法被描繪成“黑匣子”。在由算法處理的數(shù)據(jù)集中,錯(cuò)誤也可能同樣出現(xiàn)。數(shù)據(jù)中的缺陷被算法無意中采用,并隱藏在輸出和生成的模型中。
(三)算法風(fēng)險(xiǎn)的倫理衍生:外在的環(huán)境與認(rèn)知失衡
人類自主行動(dòng)的能力與復(fù)雜的機(jī)器邏輯之間出現(xiàn)了一種潛在的沖突,這種復(fù)雜的邏輯有時(shí)是模糊的,但也被認(rèn)為是無可辯駁的。[14]技術(shù)不管如何中立,但終究是人設(shè)計(jì)運(yùn)用的,受到人的認(rèn)知背景與偏見限制。我們對(duì)人工智能算法的設(shè)計(jì)與使用,更多的是從功利主義角度出發(fā),重視技術(shù)的利益價(jià)值,而忽視了其道德倫理的意蘊(yùn)內(nèi)涵。這種認(rèn)知的扭曲造成了行為表現(xiàn)上的偏離,致使技術(shù)的發(fā)展脫離了最初設(shè)定的軌道,并造成更劇烈的社會(huì)不平等和風(fēng)險(xiǎn)危機(jī)。人類的道德認(rèn)知與情感顯示著其與機(jī)器不同的一面,雙方如何在平等的條件下進(jìn)行道德溝通,取決于我們對(duì)于人工智能算法的信任閾值有多高,但這仍然是從我們自身出發(fā)去認(rèn)知判斷的,而并不取決于機(jī)器的道德水平有多高。
算法的設(shè)計(jì)和操作與我們對(duì)其倫理含義的理解之間的差距可能會(huì)對(duì)個(gè)人、群體和整個(gè)社會(huì)階層產(chǎn)生嚴(yán)重影響,算法的不透明性則很容易帶來公眾的主觀認(rèn)知偏差和誤解,導(dǎo)致其可信賴度的下降,為算法風(fēng)險(xiǎn)的形成埋下了伏筆。從環(huán)境因素來看,使用者的利益驅(qū)使和環(huán)境的錯(cuò)綜復(fù)雜等,都為算法風(fēng)險(xiǎn)提供了生成沃土。算法風(fēng)險(xiǎn)倫理評(píng)估的客觀難度較大。從倫理治理視角來看,由于內(nèi)在程序模型設(shè)計(jì)的復(fù)雜性和外在評(píng)價(jià)標(biāo)準(zhǔn)的共識(shí)度,算法風(fēng)險(xiǎn)的客觀表征難以準(zhǔn)確衡量評(píng)估,因此也難以準(zhǔn)確預(yù)測(cè)算法風(fēng)險(xiǎn)可能帶來的潛在或?qū)嶋H道德影響。然而,對(duì)算法的倫理評(píng)估也可以只關(guān)注操作本身。由算法驅(qū)動(dòng)的行為可以根據(jù)許多道德標(biāo)準(zhǔn)和原則進(jìn)行評(píng)估,一般稱之為依賴觀察者的行為及其影響的“公平性”。另外,仍然存在一些社會(huì)秩序?qū)用娴牟涣加绊?,如目前仍然在一定程度上存在?duì)倫理規(guī)范的無視,倫理制約的力度與效能都相對(duì)弱化。
三、算法風(fēng)險(xiǎn)倫理治理的結(jié)構(gòu)化范式:倫理框架、倫理解釋話語、倫理制度化
人類和算法如何更融洽地相互適應(yīng),需要從倫理層面加以審視并給出合理答案。然而在推進(jìn)算法風(fēng)險(xiǎn)倫理治理的結(jié)構(gòu)化進(jìn)程中,仍然有很長(zhǎng)的距離要走,需要達(dá)成深刻的治理體系和治理能力變革。從倫理道德層面強(qiáng)化算法風(fēng)險(xiǎn)倫理治理的結(jié)構(gòu)化范式,是推動(dòng)算法風(fēng)險(xiǎn)倫理治理的重要途徑。
首先,建構(gòu)合理的倫理框架是解決算法風(fēng)險(xiǎn)倫理問題的基本前提。倫理框架為研究解決算法風(fēng)險(xiǎn)問題提供了基本的出發(fā)點(diǎn)和語境,并在一定的倫理規(guī)范原則和具體制度下約束算法風(fēng)險(xiǎn)。由此建構(gòu)的倫理框架,作為算法風(fēng)險(xiǎn)治理的優(yōu)先級(jí)路徑,在解決算法風(fēng)險(xiǎn)問題中起到顯而易見的“潤(rùn)滑調(diào)節(jié)”作用,將更為柔性地處置算法可能帶來的不透明或不公正結(jié)果,限制調(diào)節(jié)算法可能產(chǎn)生的偏見或歧視??陀^上看,算法是冷冰冰的程序代碼,不具有感情與意識(shí),但算法的設(shè)計(jì)與使用是人的主觀能動(dòng)性與技術(shù)智能屬性的高效結(jié)合,其中嵌入了設(shè)計(jì)者的價(jià)值觀念,這也在一定程度上推動(dòng)了人在社會(huì)中的角色轉(zhuǎn)變,使得人類更多地借助算法解決紛繁復(fù)雜的難題,但也可能因?yàn)樗惴ǖ臑E用造成隱私泄露和歧視偏見現(xiàn)象的發(fā)生。倫理規(guī)范是更高層次的戒律與自覺行為,而算法風(fēng)險(xiǎn)的倫理治理框架,本質(zhì)目的是為了在避免法律強(qiáng)制性要求的基準(zhǔn)下,提供必要的約束力。目前,對(duì)算法風(fēng)險(xiǎn)建構(gòu)倫理框架已經(jīng)成為全球共識(shí),并達(dá)成了高度一致性,即在算法設(shè)計(jì)伊始便要優(yōu)先考慮其價(jià)值反映,強(qiáng)調(diào)符合道德規(guī)范的設(shè)計(jì),這也是解決算法倫理困境的重要前提。算法風(fēng)險(xiǎn)的倫理治理需要一定的規(guī)則和標(biāo)準(zhǔn)以及懲戒機(jī)制加以實(shí)施,從而確保規(guī)范守則在倫理框架下的遵守。
其次,算法的倫理解釋話語,即其內(nèi)蘊(yùn)的倫理表達(dá),包括公平、平等、民主、責(zé)任等,是審視算法風(fēng)險(xiǎn)的重要倫理依據(jù)。倫理解釋話語是指我們?nèi)绾斡脗惱淼难酃馊タ剂糠此妓惴L(fēng)險(xiǎn),進(jìn)而從倫理范圍提供解決問題的思考與方案。算法本身負(fù)荷一定的倫理價(jià)值,甚至折射出其背后蘊(yùn)含的文化理念。不同民族和文化的倫理傳統(tǒng)存在顯著差異,被包含在一個(gè)較大的解釋性多元論框架中,這些差異構(gòu)成了對(duì)共有價(jià)值觀和規(guī)范的不同解釋和應(yīng)用,從而這種共同的價(jià)值觀和規(guī)范接近于一個(gè)更普遍有效的規(guī)范和價(jià)值觀。[15]算法作為一種程序代碼,其不確定性和復(fù)雜度在一定程度上造成了算法的可解釋性不足。因此,必須在算法的開源透明與隱私保密之間尋找到一個(gè)可接受的平衡點(diǎn),在充分衡量算法道德標(biāo)準(zhǔn)的共性與個(gè)性條件下,確保算法的“公平性”。例如,歐盟 《通用數(shù)據(jù)保護(hù)條例》(General Data Protection Regulation,GDPR) 要求算法具備可解釋性(The Right to Explanation of Automated Decision),數(shù)據(jù)主體對(duì)于自動(dòng)決策不滿意時(shí),可以采取人工干預(yù),要求對(duì)相關(guān)數(shù)據(jù)進(jìn)行解釋。[16]隨著公共和私營部門組織越來越多地使用大量的個(gè)人信息和復(fù)雜的數(shù)據(jù)分析系統(tǒng)進(jìn)行決策,人們對(duì)算法可解釋性的要求越來越強(qiáng)烈,個(gè)性化算法需要人為的干預(yù),將倫理原則和平衡納入其中。
再次,算法倫理規(guī)范的制度化,是約束算法風(fēng)險(xiǎn)、防止偏見進(jìn)入算法的重要手段。個(gè)性化的算法需要道德衡量與倫理制約,這種倫理層面的規(guī)范實(shí)質(zhì)上是一種契約。倫理道德制度化對(duì)技術(shù)治理的行動(dòng)具有兩方面的要求:一是將道德要求轉(zhuǎn)化為制度,二是將道德要求實(shí)現(xiàn)于制度過程中,即技術(shù)治理的技術(shù)性和過程性要求。[17]人類需求與算法表達(dá)之間存在需要彌合的鴻溝,隨著技術(shù)的不斷進(jìn)步,算法的發(fā)展已經(jīng)超出了人類可控的范疇,向未知多元的方向發(fā)展,需要倫理制度來確保算法的可靠性,框設(shè)算法的發(fā)展空間與運(yùn)行軌跡。算法的制度化趨勢(shì)越來越明顯,各種倫理規(guī)范守則為算法健康發(fā)展提供了保障支撐?!安坏赖碌乃惴ㄅc算法的不道德”制造的風(fēng)險(xiǎn),日益成為需要人們加以審視的重要問題。根據(jù)合理的道德標(biāo)準(zhǔn)和原則對(duì)算法風(fēng)險(xiǎn)進(jìn)行前瞻性評(píng)估,能夠?qū)崿F(xiàn)“算法過濾”的效能,避免“倫理失衡”可能帶來的系統(tǒng)性傷害。算法的制度化能夠建立責(zé)任標(biāo)準(zhǔn),從道德上詮釋人們的意識(shí)、隱私、信任和安全感,推動(dòng)算法工具屬性與價(jià)值屬性的完美融合。
四、算法風(fēng)險(xiǎn)倫理治理結(jié)構(gòu)化的實(shí)施路徑
數(shù)字或算法時(shí)代的倫理審視,將會(huì)顛覆傳統(tǒng)的技術(shù)倫理觀念,推動(dòng)倫理范式轉(zhuǎn)變,形成負(fù)責(zé)任的研究框架與創(chuàng)新路徑。人工智能倫理框架是一個(gè)實(shí)用工具,越來越多的人工智能倫理框架試圖填補(bǔ)目前存在的倫理漏洞。人工智能倫理也涵蓋體現(xiàn)了價(jià)值觀和原則,在人工智能技術(shù)的開發(fā)和使用過程中,采用了廣泛接受的對(duì)錯(cuò)標(biāo)準(zhǔn)來指導(dǎo)道德行為。[18]建構(gòu)倫理框架下的算法風(fēng)險(xiǎn)評(píng)估模型與問責(zé)機(jī)制,動(dòng)態(tài)描述人工智能算法風(fēng)險(xiǎn)的倫理指標(biāo)體系,能夠更好地理解其所產(chǎn)生的倫理風(fēng)險(xiǎn)及破壞影響力。
(一)建構(gòu)算法風(fēng)險(xiǎn)倫理評(píng)估模型與審查體系
人工智能應(yīng)該是道德的、向善的,但對(duì)算法的道德要求、技術(shù)標(biāo)準(zhǔn)、評(píng)估體系等方面,仍然存在很大的提升空間。算法的關(guān)鍵屬性特征能夠影響風(fēng)險(xiǎn)的形成效果,而算法風(fēng)險(xiǎn)的準(zhǔn)確評(píng)估則需要經(jīng)歷一個(gè)較為復(fù)雜的認(rèn)知與實(shí)現(xiàn)過程。算法由編程代碼組成,而編程代碼本身是無法監(jiān)管的。相反,只有相應(yīng)的規(guī)范管理實(shí)體或規(guī)范的實(shí)際結(jié)果才能被規(guī)范。[19]從技術(shù)層面而言,只有專業(yè)技術(shù)人員檢查系統(tǒng)代碼漏洞才能發(fā)現(xiàn)問題隱患。而從道德倫理層面而言,設(shè)計(jì)者的價(jià)值觀念如何滲透體現(xiàn)在算法之中,才是對(duì)算法風(fēng)險(xiǎn)科學(xué)認(rèn)知的根本所在??档碌牡赖吕碚撘呀?jīng)成為把“倫理”引入機(jī)器的先行者。康德道德作為一種基于責(zé)任的倫理范式,承諾為機(jī)器人提供一個(gè)可實(shí)現(xiàn)的道德框架,使其得以成功遵守。[20]算法的道德倫理考量如何轉(zhuǎn)化為實(shí)際研究并應(yīng)用到實(shí)踐中,進(jìn)而為社會(huì)發(fā)展提供可靠方案?這里需要正確設(shè)計(jì)能夠支撐算法風(fēng)險(xiǎn)態(tài)勢(shì)檢測(cè)的動(dòng)態(tài)表征框架,建構(gòu)可解釋的基于認(rèn)知框架之中的算法風(fēng)險(xiǎn)評(píng)估模型,科學(xué)準(zhǔn)確評(píng)估風(fēng)險(xiǎn)指征,并對(duì)可能造成的社會(huì)倫理影響作出前瞻性的判斷預(yù)測(cè),這也是設(shè)計(jì)算法風(fēng)險(xiǎn)倫理評(píng)估模型的初衷所在。通過強(qiáng)化算法風(fēng)險(xiǎn)的倫理審查,進(jìn)一步凸顯倫理治理的制度性和規(guī)范性,建構(gòu)形成由有效規(guī)則和標(biāo)準(zhǔn)構(gòu)成的審查體系,以確保算法安全和負(fù)責(zé)任的系統(tǒng)設(shè)計(jì)。
(二)提升算法的倫理信任閾值與制定評(píng)估指標(biāo)
為防止算法欺騙或者操縱人類,在人與算法互動(dòng)的過程中維護(hù)人的能動(dòng)性,提升算法倫理信任閾值是防范算法風(fēng)險(xiǎn)的重要路徑。倫理信任閾值包括算法風(fēng)險(xiǎn)與倫理相關(guān)的主題要素,如透明度、可解釋性、價(jià)值觀、公眾道德期望等。這些倫理維度的量化特征屬性,將與算法風(fēng)險(xiǎn)有關(guān)的各種度量指標(biāo)納入倫理設(shè)計(jì)過程之中,涵蓋了大部分已經(jīng)達(dá)成的倫理共識(shí)原則。不正當(dāng)偏見的損害性主張容易造成算法的可信度下降,因此算法在設(shè)計(jì)之初便要符合道德規(guī)范的設(shè)計(jì),嵌入相對(duì)公平的倫理價(jià)值,以避免造成算法的越界應(yīng)用和不當(dāng)后果。如何從道德倫理維度衡量人工智能算法風(fēng)險(xiǎn)?對(duì)算法風(fēng)險(xiǎn)進(jìn)行準(zhǔn)確評(píng)估,設(shè)置一定的度量指標(biāo)是必要的,通過倫理層面的量化特征來表達(dá)算法風(fēng)險(xiǎn)的大小,進(jìn)而對(duì)風(fēng)險(xiǎn)的可能性做出準(zhǔn)確預(yù)判。算法風(fēng)險(xiǎn)評(píng)估提供了實(shí)用的問責(zé)框架,將機(jī)構(gòu)審查和公共參與影響評(píng)估結(jié)合起來。[21]分析評(píng)估人工智能算法的社會(huì)影響及道德風(fēng)險(xiǎn),是我們建構(gòu)算法倫理信任閾值的客觀依據(jù)和重要指標(biāo)。因此,設(shè)置算法風(fēng)險(xiǎn)評(píng)估指標(biāo),形成基于量化特征分析的風(fēng)險(xiǎn)認(rèn)知與評(píng)價(jià)體系,是一種較為科學(xué)恰當(dāng)?shù)娘L(fēng)險(xiǎn)評(píng)估方法。
(三)設(shè)立算法風(fēng)險(xiǎn)倫理問責(zé)機(jī)制
當(dāng)前公眾信息隱私面臨著重要挑戰(zhàn),算法在一定程度上推動(dòng)著隱私概念的轉(zhuǎn)變,主體對(duì)算法的透明度要求越來越高,在某種程度上強(qiáng)化了算法風(fēng)險(xiǎn)的責(zé)任追溯機(jī)制。哲學(xué)家Tony Beavers說:“設(shè)計(jì)道德機(jī)器的項(xiàng)目很復(fù)雜,因?yàn)榧词菇?jīng)過兩千多年的道德調(diào)查,仍然沒有就如何確定道德權(quán)利和道德責(zé)任達(dá)成共識(shí)?!盵22]算法以及源代碼獲取的渠道日益開源,其安全可靠性成為衡量算法風(fēng)險(xiǎn)的重要因素,這就要求我們不僅要對(duì)技術(shù)的精準(zhǔn)使用負(fù)責(zé),還要對(duì)其可能造成的社會(huì)倫理影響負(fù)責(zé)。從認(rèn)知科學(xué)視角探討算法風(fēng)險(xiǎn)的社會(huì)影響,從倫理嵌入、風(fēng)險(xiǎn)評(píng)估、公眾參與等方面,探討基于社會(huì)影響和公眾接受度的算法風(fēng)險(xiǎn)認(rèn)知,是消除算法偏見、實(shí)現(xiàn)公平正義的重要途徑。不恰當(dāng)?shù)膫惱砜蚣芸赡軙?huì)扭曲和加劇算法風(fēng)險(xiǎn),不利于算法的適度修改與調(diào)整。越來越多的機(jī)構(gòu)與組織開始推動(dòng)人工智能算法風(fēng)險(xiǎn)評(píng)估機(jī)制的運(yùn)行,包括設(shè)立多樣化與包容性的倫理框架,如基于過程的治理框架(PBG);算法問責(zé)機(jī)制、算法影響評(píng)估機(jī)制、算法審計(jì)機(jī)制等治理途徑開始推行,全面推進(jìn)了倫理原則和價(jià)值觀的落實(shí)與執(zhí)行。人工智能算法負(fù)責(zé)任的研究與創(chuàng)新,源于并植根于倫理立場(chǎng),需要設(shè)立算法風(fēng)險(xiǎn)的道德責(zé)任溯源機(jī)制,當(dāng)算法造成風(fēng)險(xiǎn)后果時(shí),責(zé)任和制裁必須明確地分?jǐn)偟剿惴ǖ脑O(shè)計(jì)者、制造商或者使用者。
五、結(jié)語
喬治·戴森曾在《圖靈大教堂》一書中這樣說道:“Facebook 決定了我們是誰,亞馬遜決定了我們想要什么,Google決定了我們?cè)趺聪??!彼惴L(fēng)險(xiǎn)危機(jī)已經(jīng)給人們的行為意識(shí)造成了潛移默化影響,甚至這種影響還在不斷地加深擴(kuò)大。完善基于角色、基于職責(zé)和基于結(jié)果的倫理結(jié)構(gòu)化制度,探索建立基于責(zé)任的道德緩沖保障體系,不斷夯實(shí)算法風(fēng)險(xiǎn)治理的倫理根基,相信人類有足夠智慧能夠駕馭技術(shù)風(fēng)險(xiǎn)帶來的嚴(yán)峻挑戰(zhàn),真正將風(fēng)險(xiǎn)危機(jī)框設(shè)在結(jié)構(gòu)與制度中,借助倫理推動(dòng)更為光明的技術(shù)前景和更為美好的發(fā)展未來。在這場(chǎng)人類與算法的“道德游戲”中,算法風(fēng)險(xiǎn)帶來的倫理性障礙正在消除破解,人機(jī)交互的認(rèn)知正在逐步推進(jìn)實(shí)現(xiàn),多樣性與包容性的倫理結(jié)構(gòu)提升擴(kuò)展了信任空間,也為解決算法風(fēng)險(xiǎn)治理難題提供了可行的倫理方案。
參考文獻(xiàn)
[1] [德]阿明·格倫瓦爾德. 技術(shù)倫理學(xué)手冊(cè)[M]. 吳寧,譯. 北京:社會(huì)科學(xué)文獻(xiàn)出版社,2017:31.
[2]張廣利.當(dāng)代西方風(fēng)險(xiǎn)社會(huì)理論研究[M].上海:華東理工大學(xué)出版社,2019:2-4.
[3] UlrickBeck,World Risk Society,Cambrige:blackwell,1999:53.
[4]劉培,池忠軍.算法的倫理問題及其解決進(jìn)路[J].東北大學(xué)學(xué)報(bào):社會(huì)科學(xué)版,2019(2):119.
[5]張凌寒.風(fēng)險(xiǎn)防范下算法的監(jiān)管路徑研究[J].交大法學(xué),2018(4):50.
[6]Robin K.Hill.What an Algorithm Is[J].Philosophy&Technology,2016,29(1):35-59. https://doi.org/10.1007/s13347-014-0184-5.
[7] [美]弗蘭克·帕斯奎爾.黑箱社會(huì)——控制金錢和信息的數(shù)據(jù)法則[M].趙亞男,譯.北京:中信出版集團(tuán),2015:267.
[8]蘇宇.論算法規(guī)制的價(jià)值目標(biāo)與機(jī)制設(shè)計(jì)[J].自然辯證法通訊,2019(10):10.
[9]OMalley,P.The Uncertain Promise of Risk.The Australian and New Zealand[J].Journal of Criminology,2004,37(3):323-343.
[10]張衛(wèi).算法中的道德物化及問題反思[J].大連理工大學(xué)學(xué)報(bào):社會(huì)科學(xué)版,2020(1):118.
[11]胡麗.科技風(fēng)險(xiǎn)的現(xiàn)代性反思[J].人民論壇,2011(17):224.
[12]孫保學(xué).人工智能算法倫理及其風(fēng)險(xiǎn)[J].哲學(xué)動(dòng)態(tài),2019(10):97.
[13]劉益東.致毀知識(shí)與科技倫理失靈:科技危機(jī)及其引發(fā)的智業(yè)革命[J].山東科技大學(xué)學(xué)報(bào):社會(huì)科學(xué)版,2018(6):6.
[14] Artificial intelligence and medical imaging 2018: French Radiology Community white paper[DB/OL](2018-11-22)[2020-11-10]. https://doi.org/10.1016/j.diii.2018.10.003.
[15][荷蘭]尤瑞恩·范登·霍文,[澳大利亞]約翰·維克特.信息技術(shù)與道德哲學(xué)[M].趙迎歡等.譯.北京:科學(xué)出版集團(tuán),2017:171.
[16]于雪,段偉文.人工智能的倫理建構(gòu)[J].理論探索,2019(6):47.
[17]王長(zhǎng)征,彭小兵.技術(shù)治理與制度道德[J].自然辨證法研究,2020(6):36.
[18]Leslie, D. Understanding artificial intelligence ethics and safety: A guide for the responsible design and implementation of AI systems in the public sector[R]. The Alan Turing Institute,2019:3. https://doi.org/10.5281/zenodo.3240529.
[19]Ethics in AI: Are algorithms suppressing us?[DB/OL].(2018-11-21)[2020-11-20].https://www.elsevier.com/connect/ethics-in-ai-are-algorithms-suppressing-us.
[20]Ryan Tonkens. A Challenge for Machine Ethics[J]. Minds & Machines,2009,19(3):422. https://doi.org/10.1007/s11023-009-9159-1.
[21]Reisman, D.,Schultz, J.,Crawford, K.,Whittaker, M. .Algorithmic impact assessments: A practical framework for public agency accountability[R]. AI Now Institute,2018:5.
[22]Mark R.Waser. Designing, Implementing and Enforcing a Coherent System of Laws, Ethics and Morals for Intelligent Machines (Including Humans) [J]. Procedia Computer Science,2015,71:106-111.https://doi.org/10.1016/j.procs.2015.12.213.
責(zé)任編輯:葉民英