于 雪 李 倫
(大連理工大學(xué)哲學(xué)系)
從技術(shù)框架中討論設(shè)計(jì)與倫理的關(guān)系大致有三種不同的觀點(diǎn)。第一種觀點(diǎn)是將設(shè)計(jì)與倫理對(duì)立起來,認(rèn)為技術(shù)設(shè)計(jì)的行為阻礙了人類道德的進(jìn)步。這種觀點(diǎn)多存在于古代,主要是受到了當(dāng)時(shí)技術(shù)發(fā)展水平的限制以及社會(huì)觀念的影響。到了近代社會(huì)這種觀點(diǎn)已經(jīng)少有出現(xiàn)了。鑒于技術(shù)產(chǎn)品對(duì)人類社會(huì)生活質(zhì)量的切實(shí)提升,將技術(shù)設(shè)計(jì)視為不道德的行為缺乏有力的證據(jù),而更普遍的是將技術(shù)設(shè)計(jì)視為無關(guān)道德、價(jià)值中立的行為,這也是設(shè)計(jì)與倫理的第二種關(guān)系,即設(shè)計(jì)無關(guān)倫理。設(shè)計(jì)的目的是為了滿足用戶和使用者的功能需求,設(shè)計(jì)本身并不蘊(yùn)含著道德的因素。使用者和用戶決定了設(shè)計(jì)產(chǎn)品的價(jià)值,而無關(guān)設(shè)計(jì)者。這其實(shí)是技術(shù)中性論的一種體現(xiàn)。誠如雅斯貝爾斯所說:“技術(shù)在本質(zhì)上既非善也非惡,而是既可以為善也可以為惡,技術(shù)本身不包含觀念……只有人賦予技術(shù)以意義。”[1]直到20世紀(jì)中葉,這種觀點(diǎn)一直占據(jù)主導(dǎo)地位。
然而,到了20世紀(jì)六七十年代,受到STS(科學(xué)技術(shù)與社會(huì))的影響,人們開始關(guān)注于技術(shù)設(shè)計(jì)的社會(huì)屬性。技術(shù)設(shè)計(jì)不再是價(jià)值無涉的行為,相反,社會(huì)價(jià)值和倫理價(jià)值可以通過設(shè)計(jì)的方式嵌入到技術(shù)產(chǎn)品之中,使技術(shù)產(chǎn)品最大程度地體現(xiàn)出道德意義和社會(huì)意義。這是設(shè)計(jì)與倫理的第三種關(guān)系,即設(shè)計(jì)蘊(yùn)含倫理。倫理通過價(jià)值的方式體現(xiàn)在設(shè)計(jì)之中,使得設(shè)計(jì)呈現(xiàn)出一種倫理價(jià)值的導(dǎo)向。設(shè)計(jì)蘊(yùn)含倫理這一觀點(diǎn)可以從兩個(gè)方面展開分析,一是現(xiàn)有設(shè)計(jì)中如何體現(xiàn)出了倫理價(jià)值?二是如何以倫理為導(dǎo)向進(jìn)行設(shè)計(jì)?前者是“設(shè)計(jì)中的倫理”(Values in Design),后者是“為了倫理的設(shè)計(jì)”(Design for Values),前者為后者提供了可能性。
“設(shè)計(jì)中的倫理”強(qiáng)調(diào)設(shè)計(jì)的倫理屬性。設(shè)計(jì)并不是技術(shù)中性論者所認(rèn)為的無關(guān)價(jià)值,相反,設(shè)計(jì)的主體(設(shè)計(jì)者)除了考慮用戶和使用者的需求,還要將自身的意圖、信念、欲望等主觀因素嵌入到設(shè)計(jì)的產(chǎn)品之中,這些主觀因素往往受到倫理價(jià)值的影響。技術(shù)哲學(xué)史上的一個(gè)經(jīng)典反例—摩西低橋[2],就充分地說明了設(shè)計(jì)之中蘊(yùn)含著價(jià)值。與之類似的案例,比如拉圖爾認(rèn)為在提醒司機(jī)減速的問題上,“減速帶”和交通警察、減速指示牌起到了相同的作用,也就是減速帶在設(shè)計(jì)之初被賦予了“減速”的價(jià)值[3];再如,維貝克指出“超聲波機(jī)”在設(shè)計(jì)之初就被賦予了顯示性別的功能,這導(dǎo)致了因?yàn)樾詣e而墮胎的可能性的增加[4]?!霸O(shè)計(jì)中的倫理”大多是隱性的,需要通過不同的視角加以解讀,并且為“倫理的設(shè)計(jì)”提供了可能性。
“為了倫理的設(shè)計(jì)”強(qiáng)調(diào)設(shè)計(jì)的倫理導(dǎo)向。如果說設(shè)計(jì)一開始就蘊(yùn)含著價(jià)值,那么能否將價(jià)值的被動(dòng)挖掘轉(zhuǎn)化為主動(dòng)嵌入?也就是說,以一種積極的方式將價(jià)值前置,使技術(shù)設(shè)計(jì)從根源上體現(xiàn)價(jià)值的訴求,使設(shè)計(jì)成為一種價(jià)值導(dǎo)向的設(shè)計(jì)。這正是價(jià)值敏感性設(shè)計(jì)的核心要旨。
價(jià)值敏感性設(shè)計(jì)的方法由華盛頓大學(xué)的弗里德曼等人于20世紀(jì)90 年代發(fā)明,最早被用于人機(jī)交互界面(human-computer interaction,HCI),將交互接口與利益相關(guān)者相聯(lián)系,使得利益相關(guān)者的訴求在一定程度上可以被采納。弗里德曼等人進(jìn)一步指出,價(jià)值敏感性設(shè)計(jì)中的價(jià)值可以有三種建構(gòu)方式,概念調(diào)查、經(jīng)驗(yàn)調(diào)查和技術(shù)調(diào)查。概念調(diào)查是價(jià)值的主要來源,即從概念上建構(gòu)與一項(xiàng)技術(shù)有關(guān)的價(jià)值訴求。這包含了兩種情況,一種情況是識(shí)別與該技術(shù)相關(guān)的利益相關(guān)者,這里包括直接利益相關(guān)者和間接利益相關(guān)者兩類。直接利益相關(guān)者指的是直接參與某項(xiàng)技術(shù)的相關(guān)人員,而間接利益相關(guān)者指的是不直接參與某項(xiàng)技術(shù)但卻受該技術(shù)影響的人。另外一種概念調(diào)查指的是識(shí)別使用技術(shù)過程中的相關(guān)價(jià)值。比如,弗里德曼等人認(rèn)為與ICT技術(shù)相關(guān)的價(jià)值包括:“人類福祉、財(cái)產(chǎn)權(quán)、隱私、無偏見、普遍可用性、信任、自主性、知情同意、可解釋性、同一性、平衡和環(huán)境可持續(xù)性?!盵5]這里存在的問題是價(jià)值沖突或價(jià)值張力,即價(jià)值與價(jià)值之間的矛盾關(guān)系,如安全和隱私之間的沖突關(guān)系。經(jīng)驗(yàn)調(diào)查指的是從“理解、語境和經(jīng)驗(yàn)”中得來的價(jià)值,可以通過調(diào)查問卷、調(diào)研、深度訪談、實(shí)驗(yàn)、參與者觀察等方法來探尋相關(guān)行動(dòng)中的價(jià)值。技術(shù)調(diào)查主要與技術(shù)的特征相關(guān),這種方法包括設(shè)計(jì)一種新的技術(shù)以支持特定的價(jià)值或分析現(xiàn)存技術(shù)的特定特征如何影響該技術(shù)在使用語境中的特定價(jià)值。以上三種價(jià)值建構(gòu)方式同時(shí)起作用,其目的是為了挖掘更多的相關(guān)價(jià)值?;趦r(jià)值敏感性設(shè)計(jì)的基礎(chǔ)條件,以價(jià)值為導(dǎo)向的設(shè)計(jì)(values-oriented design)成為一種有效的設(shè)計(jì)方法。
人工智能技術(shù)飛速發(fā)展,已被應(yīng)用到各個(gè)領(lǐng)域之中。對(duì)人工智能技術(shù)的研究不僅限于技術(shù)語境,也蘊(yùn)含著社會(huì)語境和文化語境。人工智能技術(shù)在醫(yī)療、軍事、經(jīng)濟(jì)、建筑、農(nóng)業(yè)等領(lǐng)域的多元化應(yīng)用,使得經(jīng)濟(jì)、文化、社會(huì)等問題不斷地涌現(xiàn)出來。其中,倫理價(jià)值作為重要的價(jià)值之一,體現(xiàn)在人工智能的設(shè)計(jì)環(huán)節(jié)中。按照價(jià)值敏感性設(shè)計(jì)的方法論,從概念上建構(gòu)人工智能設(shè)計(jì)涉及的倫理價(jià)值,可以按照人與人、人與技術(shù)、人與環(huán)境這三個(gè)維度析出。需要說明的是,這里的價(jià)值體現(xiàn)為兩個(gè)層級(jí)。第一層級(jí)的價(jià)值是普遍的價(jià)值、終極的價(jià)值,第二層級(jí)的價(jià)值是為了實(shí)現(xiàn)第一層級(jí)價(jià)值而實(shí)施的具體的、可操作的價(jià)值標(biāo)準(zhǔn)。第一層級(jí)的價(jià)值可以被還原為第二層級(jí)的價(jià)值標(biāo)準(zhǔn)。
人既是技術(shù)的主體,也是技術(shù)的客體,技術(shù)應(yīng)當(dāng)以人為目的。人工智能技術(shù)的設(shè)計(jì)應(yīng)當(dāng)時(shí)刻將人的倫理價(jià)值置于首位。人的第一層級(jí)價(jià)值是福祉。福祉指的是人們感到高興或幸福的狀態(tài),設(shè)計(jì)中的福祉意味著設(shè)計(jì)應(yīng)當(dāng)為了使人們感到高興或者為了追求人類的幸福。如果按照功利主義的原則,設(shè)計(jì)應(yīng)當(dāng)追求最大多數(shù)人的最大幸福。人工智能的設(shè)計(jì)應(yīng)當(dāng)最大程度地增加人們的幸福感受或者最大程度地防止不幸的發(fā)生。福祉作為第一層級(jí)的價(jià)值可以被還原為自由與自主、平等與公正等第二層面的價(jià)值。人工智能設(shè)計(jì)中的自由與自主指的是設(shè)計(jì)應(yīng)當(dāng)最大程度地提升人的自由度與自主性,這意味著設(shè)計(jì)活動(dòng)要在保障人類自主性的前提下為人類提供更多選擇的空間,而非一味地控制技術(shù)。人工智能設(shè)計(jì)中的平等與公正同樣重要。一項(xiàng)新的技術(shù)很容易導(dǎo)致一種不公正和不平等,無論是馬克思深刻的異化理論還是約納斯對(duì)遙遠(yuǎn)未來的擔(dān)憂,都在強(qiáng)調(diào)由技術(shù)引發(fā)的不平等和不公正。正因如此,人工智能技術(shù)在設(shè)計(jì)的環(huán)節(jié)中,更應(yīng)當(dāng)將平等與公正作為重要因素慎重考量。
此外,為了實(shí)現(xiàn)自由與自主、平等與公正這些第二層級(jí)的價(jià)值進(jìn)而實(shí)現(xiàn)福祉這個(gè)第一層級(jí)的價(jià)值,還有一些具體的倫理價(jià)值需要被滿足。與人工智能設(shè)計(jì)相關(guān)的倫理價(jià)值主要包括:隱私、信任、知情同意、無偏見等。具體說來,人工智能技術(shù)往往基于大數(shù)據(jù)和云計(jì)算,其根本是數(shù)據(jù),數(shù)據(jù)的誤用和數(shù)據(jù)的濫用會(huì)導(dǎo)致嚴(yán)重的后果[6]。這就要求在設(shè)計(jì)之初盡可能地為保護(hù)數(shù)據(jù)提供手段,保護(hù)數(shù)據(jù)也就是保護(hù)用戶的個(gè)人隱私,保護(hù)隱私應(yīng)當(dāng)成為人工智能設(shè)計(jì)的一個(gè)基本要求。比如,當(dāng)前流行的人臉識(shí)別技術(shù)如果處理不當(dāng),將成為泄露個(gè)人隱私的罪魁禍?zhǔn)?。此外,人工智能設(shè)計(jì)還要盡可能實(shí)現(xiàn)信任,表面上看是使用者對(duì)人工智能產(chǎn)品的信任,實(shí)質(zhì)上是人與人之間的信任問題,人工智能技術(shù)應(yīng)當(dāng)最大程度地增進(jìn)人與人之間的信任感,而不是成為阻礙人們信任的技術(shù)障礙。與保護(hù)隱私和增進(jìn)信任直接相關(guān)的一個(gè)倫理價(jià)值就是知情同意。人工智能技術(shù)的知情同意主要強(qiáng)調(diào)對(duì)數(shù)據(jù)采集和識(shí)別的知情同意?!度斯ぶ悄軜?biāo)準(zhǔn)化白皮書2018》建議,數(shù)據(jù)采集“不能僅僅征得數(shù)據(jù)所有者的同意”,“還應(yīng)當(dāng)建立實(shí)用、可執(zhí)行的、適應(yīng)于不同使用場(chǎng)景的標(biāo)準(zhǔn)流程以供設(shè)計(jì)者和開發(fā)者保護(hù)數(shù)據(jù)來源的隱私”。比如,F(xiàn)acebook的數(shù)據(jù)泄露事件就是利用了知情同意的漏洞,數(shù)據(jù)所有者同意采集其通訊錄中的數(shù)據(jù),這就導(dǎo)致了通訊錄中的其他人在不知情的情況下被泄露了隱私。最后,人工智能設(shè)計(jì)要體現(xiàn)無偏見的倫理導(dǎo)向,數(shù)據(jù)偏見是人工智能和深度學(xué)習(xí)不可避免的一個(gè)后果,其設(shè)計(jì)要體現(xiàn)糾偏的倫理意圖,不僅要盡可能避免“偏見出”(bias out),還要避免“偏見入”(bias in)。這些關(guān)于人工智能設(shè)計(jì)的具體的價(jià)值訴求,本質(zhì)上是為了增進(jìn)人類福祉,實(shí)現(xiàn)人的價(jià)值。
技術(shù)的本質(zhì)價(jià)值是創(chuàng)新,技術(shù)創(chuàng)新是技術(shù)活動(dòng)的根本目的。人工智能設(shè)計(jì)在追求人類價(jià)值的大前提下,還需要滿足人工智能技術(shù)的創(chuàng)新價(jià)值。創(chuàng)新價(jià)值并不直接等同于倫理價(jià)值,而負(fù)責(zé)任的創(chuàng)新才符合倫理的訴求。負(fù)責(zé)任創(chuàng)新作為第一層級(jí)的價(jià)值可以被具體還原為有效和安全這兩個(gè)第二層級(jí)的價(jià)值。有效性是技術(shù)創(chuàng)新的目的和評(píng)價(jià)標(biāo)準(zhǔn),一項(xiàng)技術(shù)之所以創(chuàng)新,就在于它能夠在一定范圍內(nèi)提升技術(shù)生產(chǎn)和技術(shù)應(yīng)用的效率。但是,創(chuàng)新并不單指提升效率,還應(yīng)當(dāng)注重如何在保障安全的前提下提升效率。因此,保障安全和提升效率有時(shí)會(huì)產(chǎn)生沖突,如何在技術(shù)行為中做出選擇就是一個(gè)值得思考的倫理問題。有效性是技術(shù)創(chuàng)新的技術(shù)要求,安全性則是技術(shù)創(chuàng)新的倫理要求。
這里重點(diǎn)分析人工智能設(shè)計(jì)中的安全價(jià)值。安全通常和風(fēng)險(xiǎn)聯(lián)系在一起,提高安全性意味著降低風(fēng)險(xiǎn)。人工智能設(shè)計(jì)追求安全價(jià)值意味著其設(shè)計(jì)過程要盡可能降低風(fēng)險(xiǎn),可以通過增強(qiáng)可解釋性、可識(shí)別性和可控性這三個(gè)主要方式實(shí)現(xiàn)。首先,可解釋性指的是由人工智能技術(shù)生成的數(shù)據(jù)和算法應(yīng)當(dāng)具備可解釋的先決條件。人工智能算法和數(shù)據(jù)通常被認(rèn)為是技術(shù)黑箱,人們不了解數(shù)據(jù)產(chǎn)生的算法和機(jī)理,也由此增加了對(duì)人工智能數(shù)據(jù)和算法的風(fēng)險(xiǎn)感知。為了降低這類風(fēng)險(xiǎn),可以在人工智能設(shè)計(jì)環(huán)節(jié)注重可解釋性。例如人工智能的一個(gè)新興分支—可解釋AI(Explainable AI,XAI),用于解釋人工智能所做出的每一個(gè)決策背后的邏輯[7]??山忉孉I的設(shè)計(jì)將可解釋性價(jià)值作為設(shè)計(jì)出發(fā)點(diǎn),有助于降低人工智能由不確定導(dǎo)致的風(fēng)險(xiǎn),從而增強(qiáng)人工智能的設(shè)計(jì)安全。可解釋性通常和透明性有關(guān),人工智能設(shè)計(jì)的可解釋性在某種程度上要求人工智能設(shè)計(jì)的透明性,特別是數(shù)據(jù)和算法的透明性,公開部分的源數(shù)據(jù)和源代碼有助于發(fā)現(xiàn)人工智能算法訓(xùn)練過程產(chǎn)生歧視等不道德現(xiàn)象的原因。其次,提升可識(shí)別性是增強(qiáng)人工智能設(shè)計(jì)安全的另一種方式,可識(shí)別性指的是人工智能設(shè)計(jì)應(yīng)當(dāng)盡可能體現(xiàn)出與人類的區(qū)別,因?yàn)閷?duì)人工智能的一種很現(xiàn)實(shí)擔(dān)憂就是人工智能可能會(huì)取代人、超越人[8],所以在設(shè)計(jì)之初就應(yīng)當(dāng)注意人工智能與人的區(qū)別,不僅體現(xiàn)在外表上應(yīng)當(dāng)與人有差異,還應(yīng)當(dāng)在功能上體現(xiàn)出與人不同的一面。設(shè)計(jì)過程中可以做出明確的標(biāo)識(shí),比如該產(chǎn)品含有人工智能這類提示語,以增強(qiáng)人工智能產(chǎn)品的可識(shí)別性。最后,人工智能設(shè)計(jì)應(yīng)當(dāng)注重可控性,即人類對(duì)人工智能技術(shù)及產(chǎn)品的可控性。增強(qiáng)人類控制的兩個(gè)必要條件是“追蹤”條件(a“tracking” condition)和“追溯”條件(a “tracing” condition),前者強(qiáng)調(diào)系統(tǒng)應(yīng)當(dāng)能夠回應(yīng)人類設(shè)計(jì)和發(fā)展該系統(tǒng)所涉及的相關(guān)道德理由以及該系統(tǒng)運(yùn)行環(huán)境中的相關(guān)事實(shí),后者強(qiáng)調(diào)系統(tǒng)應(yīng)當(dāng)總是能夠允許在設(shè)計(jì)或使用的鏈條中有至少一個(gè)人對(duì)其操作的結(jié)果進(jìn)行追溯[9]??山忉屝?、可識(shí)別性和可控性是具體的設(shè)計(jì)要求,本質(zhì)是為了實(shí)現(xiàn)技術(shù)的安全創(chuàng)新價(jià)值,換言之,技術(shù)創(chuàng)新應(yīng)當(dāng)是負(fù)責(zé)任創(chuàng)新。
人-技關(guān)系的載體是環(huán)境,環(huán)境為人與技術(shù)的互動(dòng)提供了平臺(tái),因而環(huán)境的價(jià)值也應(yīng)當(dāng)被滿足。人工智能設(shè)計(jì)中涉及到的第一層級(jí)價(jià)值是可持續(xù)性,這里的可持續(xù)性指的是一種計(jì)算的可持續(xù)性?!坝?jì)算可持續(xù)性”(computational sustainability)由 Carla Gomes提出,Gomes認(rèn)為計(jì)算可持續(xù)性是一個(gè)新的跨學(xué)科研究領(lǐng)域,其目的是發(fā)展可計(jì)算模型、方法、工具以平衡環(huán)境、經(jīng)濟(jì)和社會(huì)的可持續(xù)發(fā)展需求[10]。人工智能設(shè)計(jì)應(yīng)當(dāng)將環(huán)境可持續(xù)性、經(jīng)濟(jì)可持續(xù)性和社會(huì)可持續(xù)性之間的平衡作為設(shè)計(jì)出發(fā)點(diǎn),利用數(shù)據(jù)優(yōu)勢(shì)和算法優(yōu)勢(shì),為可持續(xù)性發(fā)展提供有效的數(shù)學(xué)模型和計(jì)算模型。
可持續(xù)性是人工智能設(shè)計(jì)的第一層級(jí)價(jià)值,它可以被還原為穩(wěn)定性和環(huán)境友好這兩個(gè)第二層級(jí)的價(jià)值。人工智能設(shè)計(jì)對(duì)穩(wěn)定性的要求強(qiáng)調(diào)人工智能技術(shù)應(yīng)當(dāng)追求環(huán)境、經(jīng)濟(jì)、社會(huì)與技術(shù)之間的穩(wěn)定關(guān)系,技術(shù)作為一種聚合,是環(huán)境、經(jīng)濟(jì)和社會(huì)因素的共同驅(qū)動(dòng)力,人工智能技術(shù)的設(shè)計(jì)應(yīng)當(dāng)最大程度尋求這些因素的平衡和穩(wěn)定發(fā)展。為了實(shí)現(xiàn)人工智能設(shè)計(jì)的穩(wěn)定性目的,還需要考慮回彈力的因素。人工智能設(shè)計(jì)的回彈力要求指的是設(shè)計(jì)一種人工智能技術(shù)使其具有調(diào)整策略以適應(yīng)外界變化的能力,這是一種積極的設(shè)計(jì)策略,目的也是為了實(shí)現(xiàn)人工智能技術(shù)在創(chuàng)新發(fā)展過程中的穩(wěn)定性。另外一個(gè)價(jià)值是環(huán)境友好,人工智能設(shè)計(jì)應(yīng)當(dāng)追求環(huán)境友好的發(fā)展目標(biāo)。這里的環(huán)境友好既包括社會(huì)環(huán)境友好也包括自然環(huán)境友好。自然環(huán)境友好的訴求應(yīng)該體現(xiàn)為人工智能的綠色設(shè)計(jì),在設(shè)計(jì)過程中考慮可拆卸、可回收、可重復(fù)利用等環(huán)境屬性,盡量避免對(duì)自然的不可逆?zhèn)?。社?huì)環(huán)境友好應(yīng)當(dāng)體現(xiàn)為人工智能的和諧設(shè)計(jì),在設(shè)計(jì)過程中考慮用戶體驗(yàn)、社會(huì)習(xí)俗、特殊群體等因素,以實(shí)現(xiàn)人-技術(shù)-社會(huì)的和諧關(guān)系。
(一)基本建設(shè)投資管理缺乏科學(xué)有效的分工決策機(jī)制。基本建設(shè)項(xiàng)目由投資主管部門進(jìn)行立項(xiàng)、可行性研究、初步設(shè)計(jì)和概算審批,其主要考慮項(xiàng)目需求,往往忽略財(cái)政可承受能力評(píng)估,容易出現(xiàn)超越現(xiàn)有財(cái)力或者雖然確定了籌資渠道但是無法落實(shí)的情況,綁架財(cái)政不斷擴(kuò)大支出。同時(shí),現(xiàn)行決策制度也缺乏硬約束,有的前期論證流于形式,“邊設(shè)計(jì)、邊報(bào)批、邊施工”,時(shí)常出現(xiàn)“預(yù)算超概算,決算超預(yù)算”的情況。整個(gè)鏈條不同環(huán)節(jié)沒有形成合力,不同的部門之間溝通不暢,影響科學(xué)決策。
如果說人工智能技術(shù)能夠負(fù)載福祉、負(fù)責(zé)任創(chuàng)新和可持續(xù)性的倫理價(jià)值,那么是否可以更進(jìn)一步,即利用設(shè)計(jì)的方式更加積極主動(dòng)地將倫理價(jià)值嵌入到人工智能技術(shù)之中?換言之,如何實(shí)現(xiàn)以福祉、負(fù)責(zé)任創(chuàng)新、可持續(xù)性的倫理價(jià)值為導(dǎo)向的人工智能設(shè)計(jì)?這需要從設(shè)計(jì)驅(qū)動(dòng)主體、設(shè)計(jì)理念、設(shè)計(jì)方法和設(shè)計(jì)策略這幾個(gè)方面深入考察。
倫理導(dǎo)向的人工智能設(shè)計(jì)首先需要明確的是設(shè)計(jì)驅(qū)動(dòng)的主體。理論上,人工智能設(shè)計(jì)的驅(qū)動(dòng)主體有使用者和設(shè)計(jì)者兩類。使用者驅(qū)動(dòng)(userdriven)的倫理設(shè)計(jì)指的是使用者的倫理價(jià)值是設(shè)計(jì)的首要訴求,設(shè)計(jì)要盡可能滿足使用者的需求。使用者驅(qū)動(dòng)的人工智能設(shè)計(jì)強(qiáng)調(diào)對(duì)使用者的關(guān)懷,即設(shè)計(jì)一種用戶友好的人工智能產(chǎn)品,如改造設(shè)計(jì)方法(Transformation Design)。使用者驅(qū)動(dòng)的倫理導(dǎo)向設(shè)計(jì)就是要求將設(shè)計(jì)者的倫理訴求作為設(shè)計(jì)的核心,比如說在設(shè)計(jì)過程中將用戶隱私作為首要因素,在設(shè)計(jì)數(shù)據(jù)采集和人像采集等信息采集程序中要注意處理數(shù)據(jù),模糊數(shù)據(jù)或隱蔽數(shù)據(jù)以此達(dá)到從設(shè)計(jì)的環(huán)節(jié)保護(hù)隱私的目的。設(shè)計(jì)者驅(qū)動(dòng)(designer-driven)的倫理設(shè)計(jì)指的是設(shè)計(jì)者來決定應(yīng)該將哪些價(jià)值嵌入到設(shè)計(jì)過程之中,設(shè)計(jì)者在決定嵌入價(jià)值的過程中要充分考慮未來語境和社會(huì)語境,其目的也是為了盡可能滿足使用者和用戶的需求,只是驅(qū)動(dòng)主體由設(shè)計(jì)者承擔(dān),同時(shí)設(shè)計(jì)者也要為自己的價(jià)值選擇承擔(dān)責(zé)任,如社會(huì)影響設(shè)計(jì)方法(Social Implication Design)和產(chǎn)品愿景設(shè)計(jì)法(Vision in Product Design)。
倫理導(dǎo)向的人工智能設(shè)計(jì)理念本質(zhì)上是一種參與設(shè)計(jì)(Participatory Design)。參與設(shè)計(jì)是一種價(jià)值為導(dǎo)向的設(shè)計(jì)方法,“一個(gè)調(diào)查、理解、反思、建構(gòu)、發(fā)展和支持多方參與者在行動(dòng)中相互學(xué)習(xí)的過程,參與者始終站在設(shè)計(jì)者和使用者這兩種角色的立場(chǎng)上,設(shè)計(jì)者應(yīng)當(dāng)努力了解使用者境況的現(xiàn)實(shí),而使用者應(yīng)當(dāng)清楚地表達(dá)自己的欲求并努力掌握恰當(dāng)?shù)募夹g(shù)手段以實(shí)現(xiàn)這些欲求?!盵11]參與設(shè)計(jì)的核心是參與和民主,這與傳統(tǒng)意義上的技術(shù)設(shè)計(jì)不同,傳統(tǒng)意義上認(rèn)為設(shè)計(jì)只是設(shè)計(jì)者的事情,而參與設(shè)計(jì)則認(rèn)為與該技術(shù)或技術(shù)產(chǎn)品相關(guān)的使用者也應(yīng)當(dāng)參與設(shè)計(jì)的過程。參與設(shè)計(jì)是一種價(jià)值為中心的設(shè)計(jì)方法,這里的價(jià)值導(dǎo)向經(jīng)歷了從政治價(jià)值到倫理價(jià)值的轉(zhuǎn)變[12]。以倫理為導(dǎo)向的人工智能設(shè)計(jì)本質(zhì)上就是參與設(shè)計(jì),人工智能技術(shù)的設(shè)計(jì)者和使用者應(yīng)當(dāng)根據(jù)自身的立場(chǎng)展開恰當(dāng)?shù)挠懻摚瑓⑴c者應(yīng)當(dāng)參與決策,因?yàn)槿斯ぶ悄芗夹g(shù)會(huì)切實(shí)影響到每一個(gè)參與者的生活。比如說,可以設(shè)計(jì)一種可參與的人機(jī)交互界面,用戶不僅可以從系統(tǒng)中接收信息,還可以通過互動(dòng)的形式,鼓勵(lì)使用者參與交互設(shè)計(jì)的過程,設(shè)計(jì)一種流動(dòng)性系統(tǒng),以實(shí)時(shí)調(diào)整人機(jī)交互的方式。
以倫理為導(dǎo)向的設(shè)計(jì)方法重點(diǎn)關(guān)注倫理價(jià)值如何被嵌入到設(shè)計(jì)的過程之中,這首先取決于與技術(shù)相關(guān)的設(shè)計(jì)活動(dòng),比如需求提取、價(jià)值細(xì)化、模型創(chuàng)建、實(shí)施、測(cè)試、維護(hù)等活動(dòng)。將倫理價(jià)值滲透到這些設(shè)計(jì)活動(dòng)之中,不僅需要技術(shù)上的支持,更需要從倫理的角度析取價(jià)值并實(shí)現(xiàn)價(jià)值的嵌入。常見的方法主要包括:利益相關(guān)者分析法、價(jià)值析取和抓取法、啟發(fā)卡片法、價(jià)值敏感行動(dòng)反思模型等[13]。
利益相關(guān)者分析法(stakeholder analysis)是設(shè)計(jì)活動(dòng)中一種比較早期的方法,主要強(qiáng)調(diào)關(guān)注與這項(xiàng)技術(shù)有關(guān)的利益相關(guān)者的價(jià)值,這里的利益相關(guān)者包括直接的利益相關(guān)者與間接的利益相關(guān)者,前者指的是與技術(shù)直接相關(guān)的個(gè)人或者組織,后者指的是因使用這項(xiàng)技術(shù)而受影響的其他個(gè)人或組織。舉一個(gè)例子,依托人工智能技術(shù)而實(shí)現(xiàn)數(shù)據(jù)采集和管理的智能系統(tǒng)(如醫(yī)療數(shù)據(jù)系統(tǒng)),該系統(tǒng)的直接相關(guān)者可能是醫(yī)生、醫(yī)院、護(hù)士和醫(yī)保中心等個(gè)人或機(jī)構(gòu),而間接相關(guān)者可能是病人、病人家屬以及其他受影響的個(gè)人或機(jī)構(gòu)。盡管這些人并不直接使用該系統(tǒng),但是他們的個(gè)人信息、病歷、社會(huì)關(guān)系等隱私都與這個(gè)系統(tǒng)密切相關(guān)。因此,利益相關(guān)者分析法就需要在設(shè)計(jì)之初將直接相關(guān)者與間接相關(guān)者的價(jià)值訴求考慮到設(shè)計(jì)的過程中,這些價(jià)值就包括了倫理價(jià)值,倫理訴求也應(yīng)當(dāng)是設(shè)計(jì)考量的重點(diǎn)。倫理訴求往往與角色相關(guān),設(shè)計(jì)者要充分考慮不同角色背景下的倫理訴求和倫理沖突,將這些倫理考量置入設(shè)計(jì)環(huán)節(jié)中。
價(jià)值析取法(value elicitation)和抓取法(value sketches)是利益相關(guān)者分析法的一個(gè)延續(xù),因?yàn)橐鋈『妥ト±嫦嚓P(guān)者的價(jià)值。價(jià)值析取和抓取可以通過經(jīng)驗(yàn)調(diào)查的方式展開,析取一般采用調(diào)查問卷、深度訪談、焦點(diǎn)小組等方式,從利益相關(guān)者的現(xiàn)有價(jià)值中析取出共同價(jià)值和特殊價(jià)值。對(duì)人工智能技術(shù)進(jìn)行價(jià)值析取可以充分利用智能平臺(tái),設(shè)計(jì)一類特定的數(shù)字工具以支持利益相關(guān)者直接反饋其特定語境中的價(jià)值訴求,或者設(shè)計(jì)一類平臺(tái)根據(jù)使用者的任務(wù)完成情況,間接地反饋利益相關(guān)者的任務(wù)喜好和價(jià)值訴求。而價(jià)值抓取法可以通過設(shè)計(jì)一些活動(dòng)來抓取參與者的價(jià)值需求。比如說攝像頭的設(shè)計(jì)可以采用價(jià)值抓取的方法,首先可以選定不同的人群,讓這些人通過實(shí)際的參與將城市中感到安全或威脅的地方標(biāo)注出來,通過對(duì)這些標(biāo)注的抓取,可以獲得對(duì)隱私敏感性地點(diǎn)的地圖,并據(jù)此來設(shè)計(jì)攝像頭的位置。
啟發(fā)卡片法(envisioning cards)主要是用于啟發(fā)價(jià)值獲取的多樣性。從社會(huì)技術(shù)系統(tǒng)和長(zhǎng)期發(fā)展的視角看技術(shù)設(shè)計(jì)活動(dòng),能夠獲取的共識(shí)是人類活動(dòng)的多樣性和復(fù)雜性導(dǎo)致了人與技術(shù)之間內(nèi)在聯(lián)系的多樣性與復(fù)雜性,由此導(dǎo)致了與技術(shù)設(shè)計(jì)相關(guān)的價(jià)值的多樣性與復(fù)雜性。啟發(fā)卡片法就有助于處理這些復(fù)雜多樣的價(jià)值及其張力。啟發(fā)卡片法有四種維度,分別是:利益相關(guān)者、時(shí)間、價(jià)值和普遍應(yīng)用性,由此對(duì)應(yīng)著不同的卡片。另外有一些空白的卡片,用以擴(kuò)展和創(chuàng)造新的價(jià)值。參與者可以根據(jù)現(xiàn)有卡片的內(nèi)容進(jìn)行討論,也可以增加新的卡片而擴(kuò)大討論的范圍。這種方法原是教學(xué)方法,也可以被用在技術(shù)設(shè)計(jì)的過程中,如形成觀念、合作設(shè)計(jì)、啟發(fā)式評(píng)價(jià)等環(huán)節(jié)。啟發(fā)卡片法可以用于人工智能設(shè)計(jì)中,例如設(shè)計(jì)一種針對(duì)計(jì)算機(jī)程序安全的安全卡片,按照上述四個(gè)維度來討論安全問題,從而擴(kuò)展安全設(shè)計(jì)的價(jià)值域。
價(jià)值敏感行動(dòng)反思模型(value sensitive action-reflection model)強(qiáng)調(diào)在行動(dòng)中突出價(jià)值敏感性,主要包括設(shè)計(jì)者促動(dòng)和利益相關(guān)者促動(dòng)兩種促動(dòng)形式。上面提到的利益相關(guān)者分析法、價(jià)值析取與抓取法都屬于利益相關(guān)者促動(dòng)形式,而設(shè)計(jì)者促動(dòng)的方法除了上面提到的啟發(fā)卡片法以外,還包括合作設(shè)計(jì)。合作設(shè)計(jì)往往由設(shè)計(jì)者推動(dòng),吸納非設(shè)計(jì)人員參與到設(shè)計(jì)的過程中,由此促進(jìn)設(shè)計(jì)自身的價(jià)值擴(kuò)張與價(jià)值融合。例如,設(shè)計(jì)者可以通過設(shè)計(jì)或使用一些游戲去探索、質(zhì)疑或確認(rèn)社會(huì)價(jià)值與倫理價(jià)值,這也稱之為游戲中的價(jià)值(values at play)。
除此以外,價(jià)值壩與價(jià)值流(value dams and flows)、價(jià)值情景法(value scenarios)、價(jià)值層級(jí)法(value levers)等方法也可以用于倫理導(dǎo)向的設(shè)計(jì),以上這些設(shè)計(jì)方法的重點(diǎn)在于倫理價(jià)值如何獲取以及如何嵌入。這既需要技術(shù)上的支持,也需要社會(huì)層面和倫理層面的共同反思。
人類中心的助老機(jī)器人設(shè)計(jì)可以很好地說明倫理導(dǎo)向的人工智能設(shè)計(jì)如何實(shí)現(xiàn)。助老機(jī)器人主要用于看護(hù)和陪伴老年人。當(dāng)前的助老機(jī)器人不僅具備滿足使用者的生理需求、社會(huì)溝通需求、醫(yī)療康復(fù)需求和情感陪伴需求的功能,并通過實(shí)現(xiàn)這些功能體現(xiàn)出一定的社會(huì)價(jià)值。此外,還可以將倫理價(jià)值嵌入到助老機(jī)器人的設(shè)計(jì)中。Aleksandar Rodi?等人設(shè)計(jì)了一種人類中心(human-centered)的助老機(jī)器人,該機(jī)器人由頭部和身體兩部分組成,身體部分是一個(gè)整體并且無固定外形,這主要是考慮到美觀和人因工程。該機(jī)器人身體上裝有6個(gè)自由度(DOF),使用者可以根據(jù)自身需要選擇支撐移動(dòng)(supported mobility)或人類輔助(human assistance),還裝有超聲波傳感器以及話筒和指示燈。機(jī)器人頭部設(shè)計(jì)有1個(gè)自由度,可任意旋轉(zhuǎn),有可以設(shè)置命令和傳送信息的觸屏,還有3個(gè)麥克風(fēng)和1個(gè)可選擇的視覺深度探測(cè)器[14]。通過以上設(shè)計(jì),該機(jī)器人可以完成助老機(jī)器人的基本功能。此外,該機(jī)器人的設(shè)計(jì)中還融入了隱私保護(hù)、環(huán)境友好、嵌入式性格的倫理要素。
在隱私保護(hù)方面,該機(jī)器人的設(shè)計(jì)加入了“授權(quán)”的環(huán)節(jié),只有被授權(quán)的人(家庭成員或者醫(yī)療人員)才能獲取關(guān)于老人的信息,而其他非授權(quán)人員無法獲取老人的信息。在環(huán)境友好方面,該機(jī)器人被設(shè)定了一種信息化的結(jié)構(gòu)環(huán)境,這種環(huán)境系統(tǒng)是一種適應(yīng)性系統(tǒng),其中的語境是一種可定制的智能語境。技術(shù)手段是通過傳感器探測(cè)老人的狀態(tài)與需求,從而為老人提供友好的使用環(huán)境。比如壓力傳感器可以探測(cè)到老人是否在床上或者沙發(fā)上睡覺,以此調(diào)整應(yīng)對(duì)來訪者的策略。又或者環(huán)境傳感器可以探測(cè)到老人是否處于一種危險(xiǎn)狀態(tài),以此來判定是否需要救援。這種環(huán)境友好的設(shè)計(jì)能夠?yàn)槔先颂峁└佣鄻忧沂孢m的居住環(huán)境。在嵌入式性格的操作上,Aleksandar Rodi?等人提出了一種構(gòu)想,他們從心理學(xué)的范式思考性格的可嵌入性,將性格還原為心理行為,即情感行為和社會(huì)行為。因此,嵌入式性格可以通過輸入心理行為模式和性格參數(shù)而實(shí)現(xiàn),具體的步驟可以分為:無描述的情感中介狀態(tài)(第一步,由觸發(fā)事件引起的客觀情感狀態(tài));獲得描述狀態(tài)(第二步,特定狀態(tài)的描述特征);獲得情感驅(qū)動(dòng)行為(第三步,基于性格對(duì)特定行為做出的回應(yīng))??紤]到性格本身是一個(gè)動(dòng)態(tài)的過程,嵌入式性格需要在行動(dòng)中做出判斷和調(diào)整,如圖1所示[14]。舉一個(gè)例子,老人在吃藥過程中將水杯打碎了,機(jī)器人需要通過“觀察”老人的動(dòng)作并結(jié)合之前輸入的老人的性格參數(shù),繼而做出行為的判斷。在這一過程中,嵌入式性格的倫理因素可以起到相應(yīng)的作用,在這一情境中,機(jī)器人的寬容、友善和對(duì)他人的理解就可以成為該事件中老人情緒的互補(bǔ)因素。嵌入式性格的設(shè)計(jì)目前仍處于構(gòu)想階段,但是其設(shè)計(jì)模型具有可操作性,可以成為設(shè)計(jì)倫理的解釋案例。
圖1 嵌入式性格設(shè)計(jì)步驟圖示
人工智能技術(shù)的發(fā)展勢(shì)必會(huì)引發(fā)一系列的倫理爭(zhēng)議,從設(shè)計(jì)的立場(chǎng)出發(fā)反思人工智能技術(shù)能夠?yàn)槿斯ぶ悄軅惱淼慕?gòu)提供新的思路。一方面,人工智能設(shè)計(jì)中蘊(yùn)含著福祉、創(chuàng)新和可持續(xù)性等倫理價(jià)值,需要對(duì)人工智能技術(shù)的倫理價(jià)值深入挖掘。另一方面,可以通過設(shè)計(jì)的方式,將倫理價(jià)值嵌入到人工智能技術(shù)之中,使人工智能技術(shù)表現(xiàn)出“向善”的倫理意圖。但是,價(jià)值嵌入設(shè)計(jì)的方式還存在著有待進(jìn)一步解決的難題,比如如何正確地識(shí)別利益相關(guān)者的相關(guān)價(jià)值,如何提供恰當(dāng)?shù)膮f(xié)商平臺(tái)或協(xié)商工具以處理利益相關(guān)者的價(jià)值沖突,如何為價(jià)值的變化提供對(duì)應(yīng)的設(shè)計(jì)手段,等等。對(duì)這些問題的回答將是未來研究的重點(diǎn),用以完善人工智能技術(shù)的設(shè)計(jì)倫理研究??傮w看來,人工智能的設(shè)計(jì)倫理研究具有廣闊的研究前景,既能夠?yàn)榻?gòu)設(shè)計(jì)-倫理雙向互動(dòng)的科技倫理學(xué)提供基礎(chǔ)保障,也能夠?yàn)榻?gòu)未來新型人機(jī)關(guān)系提供重要支撐,從根本上促進(jìn)科技“向善”。