于 雪 李 倫
(大連理工大學哲學系)
從技術框架中討論設計與倫理的關系大致有三種不同的觀點。第一種觀點是將設計與倫理對立起來,認為技術設計的行為阻礙了人類道德的進步。這種觀點多存在于古代,主要是受到了當時技術發(fā)展水平的限制以及社會觀念的影響。到了近代社會這種觀點已經(jīng)少有出現(xiàn)了。鑒于技術產(chǎn)品對人類社會生活質(zhì)量的切實提升,將技術設計視為不道德的行為缺乏有力的證據(jù),而更普遍的是將技術設計視為無關道德、價值中立的行為,這也是設計與倫理的第二種關系,即設計無關倫理。設計的目的是為了滿足用戶和使用者的功能需求,設計本身并不蘊含著道德的因素。使用者和用戶決定了設計產(chǎn)品的價值,而無關設計者。這其實是技術中性論的一種體現(xiàn)。誠如雅斯貝爾斯所說:“技術在本質(zhì)上既非善也非惡,而是既可以為善也可以為惡,技術本身不包含觀念……只有人賦予技術以意義?!盵1]直到20世紀中葉,這種觀點一直占據(jù)主導地位。
然而,到了20世紀六七十年代,受到STS(科學技術與社會)的影響,人們開始關注于技術設計的社會屬性。技術設計不再是價值無涉的行為,相反,社會價值和倫理價值可以通過設計的方式嵌入到技術產(chǎn)品之中,使技術產(chǎn)品最大程度地體現(xiàn)出道德意義和社會意義。這是設計與倫理的第三種關系,即設計蘊含倫理。倫理通過價值的方式體現(xiàn)在設計之中,使得設計呈現(xiàn)出一種倫理價值的導向。設計蘊含倫理這一觀點可以從兩個方面展開分析,一是現(xiàn)有設計中如何體現(xiàn)出了倫理價值?二是如何以倫理為導向進行設計?前者是“設計中的倫理”(Values in Design),后者是“為了倫理的設計”(Design for Values),前者為后者提供了可能性。
“設計中的倫理”強調(diào)設計的倫理屬性。設計并不是技術中性論者所認為的無關價值,相反,設計的主體(設計者)除了考慮用戶和使用者的需求,還要將自身的意圖、信念、欲望等主觀因素嵌入到設計的產(chǎn)品之中,這些主觀因素往往受到倫理價值的影響。技術哲學史上的一個經(jīng)典反例—摩西低橋[2],就充分地說明了設計之中蘊含著價值。與之類似的案例,比如拉圖爾認為在提醒司機減速的問題上,“減速帶”和交通警察、減速指示牌起到了相同的作用,也就是減速帶在設計之初被賦予了“減速”的價值[3];再如,維貝克指出“超聲波機”在設計之初就被賦予了顯示性別的功能,這導致了因為性別而墮胎的可能性的增加[4]?!霸O計中的倫理”大多是隱性的,需要通過不同的視角加以解讀,并且為“倫理的設計”提供了可能性。
“為了倫理的設計”強調(diào)設計的倫理導向。如果說設計一開始就蘊含著價值,那么能否將價值的被動挖掘轉(zhuǎn)化為主動嵌入?也就是說,以一種積極的方式將價值前置,使技術設計從根源上體現(xiàn)價值的訴求,使設計成為一種價值導向的設計。這正是價值敏感性設計的核心要旨。
價值敏感性設計的方法由華盛頓大學的弗里德曼等人于20世紀90 年代發(fā)明,最早被用于人機交互界面(human-computer interaction,HCI),將交互接口與利益相關者相聯(lián)系,使得利益相關者的訴求在一定程度上可以被采納。弗里德曼等人進一步指出,價值敏感性設計中的價值可以有三種建構(gòu)方式,概念調(diào)查、經(jīng)驗調(diào)查和技術調(diào)查。概念調(diào)查是價值的主要來源,即從概念上建構(gòu)與一項技術有關的價值訴求。這包含了兩種情況,一種情況是識別與該技術相關的利益相關者,這里包括直接利益相關者和間接利益相關者兩類。直接利益相關者指的是直接參與某項技術的相關人員,而間接利益相關者指的是不直接參與某項技術但卻受該技術影響的人。另外一種概念調(diào)查指的是識別使用技術過程中的相關價值。比如,弗里德曼等人認為與ICT技術相關的價值包括:“人類福祉、財產(chǎn)權、隱私、無偏見、普遍可用性、信任、自主性、知情同意、可解釋性、同一性、平衡和環(huán)境可持續(xù)性?!盵5]這里存在的問題是價值沖突或價值張力,即價值與價值之間的矛盾關系,如安全和隱私之間的沖突關系。經(jīng)驗調(diào)查指的是從“理解、語境和經(jīng)驗”中得來的價值,可以通過調(diào)查問卷、調(diào)研、深度訪談、實驗、參與者觀察等方法來探尋相關行動中的價值。技術調(diào)查主要與技術的特征相關,這種方法包括設計一種新的技術以支持特定的價值或分析現(xiàn)存技術的特定特征如何影響該技術在使用語境中的特定價值。以上三種價值建構(gòu)方式同時起作用,其目的是為了挖掘更多的相關價值。基于價值敏感性設計的基礎條件,以價值為導向的設計(values-oriented design)成為一種有效的設計方法。
人工智能技術飛速發(fā)展,已被應用到各個領域之中。對人工智能技術的研究不僅限于技術語境,也蘊含著社會語境和文化語境。人工智能技術在醫(yī)療、軍事、經(jīng)濟、建筑、農(nóng)業(yè)等領域的多元化應用,使得經(jīng)濟、文化、社會等問題不斷地涌現(xiàn)出來。其中,倫理價值作為重要的價值之一,體現(xiàn)在人工智能的設計環(huán)節(jié)中。按照價值敏感性設計的方法論,從概念上建構(gòu)人工智能設計涉及的倫理價值,可以按照人與人、人與技術、人與環(huán)境這三個維度析出。需要說明的是,這里的價值體現(xiàn)為兩個層級。第一層級的價值是普遍的價值、終極的價值,第二層級的價值是為了實現(xiàn)第一層級價值而實施的具體的、可操作的價值標準。第一層級的價值可以被還原為第二層級的價值標準。
人既是技術的主體,也是技術的客體,技術應當以人為目的。人工智能技術的設計應當時刻將人的倫理價值置于首位。人的第一層級價值是福祉。福祉指的是人們感到高興或幸福的狀態(tài),設計中的福祉意味著設計應當為了使人們感到高興或者為了追求人類的幸福。如果按照功利主義的原則,設計應當追求最大多數(shù)人的最大幸福。人工智能的設計應當最大程度地增加人們的幸福感受或者最大程度地防止不幸的發(fā)生。福祉作為第一層級的價值可以被還原為自由與自主、平等與公正等第二層面的價值。人工智能設計中的自由與自主指的是設計應當最大程度地提升人的自由度與自主性,這意味著設計活動要在保障人類自主性的前提下為人類提供更多選擇的空間,而非一味地控制技術。人工智能設計中的平等與公正同樣重要。一項新的技術很容易導致一種不公正和不平等,無論是馬克思深刻的異化理論還是約納斯對遙遠未來的擔憂,都在強調(diào)由技術引發(fā)的不平等和不公正。正因如此,人工智能技術在設計的環(huán)節(jié)中,更應當將平等與公正作為重要因素慎重考量。
此外,為了實現(xiàn)自由與自主、平等與公正這些第二層級的價值進而實現(xiàn)福祉這個第一層級的價值,還有一些具體的倫理價值需要被滿足。與人工智能設計相關的倫理價值主要包括:隱私、信任、知情同意、無偏見等。具體說來,人工智能技術往往基于大數(shù)據(jù)和云計算,其根本是數(shù)據(jù),數(shù)據(jù)的誤用和數(shù)據(jù)的濫用會導致嚴重的后果[6]。這就要求在設計之初盡可能地為保護數(shù)據(jù)提供手段,保護數(shù)據(jù)也就是保護用戶的個人隱私,保護隱私應當成為人工智能設計的一個基本要求。比如,當前流行的人臉識別技術如果處理不當,將成為泄露個人隱私的罪魁禍首。此外,人工智能設計還要盡可能實現(xiàn)信任,表面上看是使用者對人工智能產(chǎn)品的信任,實質(zhì)上是人與人之間的信任問題,人工智能技術應當最大程度地增進人與人之間的信任感,而不是成為阻礙人們信任的技術障礙。與保護隱私和增進信任直接相關的一個倫理價值就是知情同意。人工智能技術的知情同意主要強調(diào)對數(shù)據(jù)采集和識別的知情同意?!度斯ぶ悄軜藴驶灼?018》建議,數(shù)據(jù)采集“不能僅僅征得數(shù)據(jù)所有者的同意”,“還應當建立實用、可執(zhí)行的、適應于不同使用場景的標準流程以供設計者和開發(fā)者保護數(shù)據(jù)來源的隱私”。比如,F(xiàn)acebook的數(shù)據(jù)泄露事件就是利用了知情同意的漏洞,數(shù)據(jù)所有者同意采集其通訊錄中的數(shù)據(jù),這就導致了通訊錄中的其他人在不知情的情況下被泄露了隱私。最后,人工智能設計要體現(xiàn)無偏見的倫理導向,數(shù)據(jù)偏見是人工智能和深度學習不可避免的一個后果,其設計要體現(xiàn)糾偏的倫理意圖,不僅要盡可能避免“偏見出”(bias out),還要避免“偏見入”(bias in)。這些關于人工智能設計的具體的價值訴求,本質(zhì)上是為了增進人類福祉,實現(xiàn)人的價值。
技術的本質(zhì)價值是創(chuàng)新,技術創(chuàng)新是技術活動的根本目的。人工智能設計在追求人類價值的大前提下,還需要滿足人工智能技術的創(chuàng)新價值。創(chuàng)新價值并不直接等同于倫理價值,而負責任的創(chuàng)新才符合倫理的訴求。負責任創(chuàng)新作為第一層級的價值可以被具體還原為有效和安全這兩個第二層級的價值。有效性是技術創(chuàng)新的目的和評價標準,一項技術之所以創(chuàng)新,就在于它能夠在一定范圍內(nèi)提升技術生產(chǎn)和技術應用的效率。但是,創(chuàng)新并不單指提升效率,還應當注重如何在保障安全的前提下提升效率。因此,保障安全和提升效率有時會產(chǎn)生沖突,如何在技術行為中做出選擇就是一個值得思考的倫理問題。有效性是技術創(chuàng)新的技術要求,安全性則是技術創(chuàng)新的倫理要求。
這里重點分析人工智能設計中的安全價值。安全通常和風險聯(lián)系在一起,提高安全性意味著降低風險。人工智能設計追求安全價值意味著其設計過程要盡可能降低風險,可以通過增強可解釋性、可識別性和可控性這三個主要方式實現(xiàn)。首先,可解釋性指的是由人工智能技術生成的數(shù)據(jù)和算法應當具備可解釋的先決條件。人工智能算法和數(shù)據(jù)通常被認為是技術黑箱,人們不了解數(shù)據(jù)產(chǎn)生的算法和機理,也由此增加了對人工智能數(shù)據(jù)和算法的風險感知。為了降低這類風險,可以在人工智能設計環(huán)節(jié)注重可解釋性。例如人工智能的一個新興分支—可解釋AI(Explainable AI,XAI),用于解釋人工智能所做出的每一個決策背后的邏輯[7]??山忉孉I的設計將可解釋性價值作為設計出發(fā)點,有助于降低人工智能由不確定導致的風險,從而增強人工智能的設計安全??山忉屝酝ǔ:屯该餍杂嘘P,人工智能設計的可解釋性在某種程度上要求人工智能設計的透明性,特別是數(shù)據(jù)和算法的透明性,公開部分的源數(shù)據(jù)和源代碼有助于發(fā)現(xiàn)人工智能算法訓練過程產(chǎn)生歧視等不道德現(xiàn)象的原因。其次,提升可識別性是增強人工智能設計安全的另一種方式,可識別性指的是人工智能設計應當盡可能體現(xiàn)出與人類的區(qū)別,因為對人工智能的一種很現(xiàn)實擔憂就是人工智能可能會取代人、超越人[8],所以在設計之初就應當注意人工智能與人的區(qū)別,不僅體現(xiàn)在外表上應當與人有差異,還應當在功能上體現(xiàn)出與人不同的一面。設計過程中可以做出明確的標識,比如該產(chǎn)品含有人工智能這類提示語,以增強人工智能產(chǎn)品的可識別性。最后,人工智能設計應當注重可控性,即人類對人工智能技術及產(chǎn)品的可控性。增強人類控制的兩個必要條件是“追蹤”條件(a“tracking” condition)和“追溯”條件(a “tracing” condition),前者強調(diào)系統(tǒng)應當能夠回應人類設計和發(fā)展該系統(tǒng)所涉及的相關道德理由以及該系統(tǒng)運行環(huán)境中的相關事實,后者強調(diào)系統(tǒng)應當總是能夠允許在設計或使用的鏈條中有至少一個人對其操作的結(jié)果進行追溯[9]??山忉屝?、可識別性和可控性是具體的設計要求,本質(zhì)是為了實現(xiàn)技術的安全創(chuàng)新價值,換言之,技術創(chuàng)新應當是負責任創(chuàng)新。
人-技關系的載體是環(huán)境,環(huán)境為人與技術的互動提供了平臺,因而環(huán)境的價值也應當被滿足。人工智能設計中涉及到的第一層級價值是可持續(xù)性,這里的可持續(xù)性指的是一種計算的可持續(xù)性?!坝嬎憧沙掷m(xù)性”(computational sustainability)由 Carla Gomes提出,Gomes認為計算可持續(xù)性是一個新的跨學科研究領域,其目的是發(fā)展可計算模型、方法、工具以平衡環(huán)境、經(jīng)濟和社會的可持續(xù)發(fā)展需求[10]。人工智能設計應當將環(huán)境可持續(xù)性、經(jīng)濟可持續(xù)性和社會可持續(xù)性之間的平衡作為設計出發(fā)點,利用數(shù)據(jù)優(yōu)勢和算法優(yōu)勢,為可持續(xù)性發(fā)展提供有效的數(shù)學模型和計算模型。
可持續(xù)性是人工智能設計的第一層級價值,它可以被還原為穩(wěn)定性和環(huán)境友好這兩個第二層級的價值。人工智能設計對穩(wěn)定性的要求強調(diào)人工智能技術應當追求環(huán)境、經(jīng)濟、社會與技術之間的穩(wěn)定關系,技術作為一種聚合,是環(huán)境、經(jīng)濟和社會因素的共同驅(qū)動力,人工智能技術的設計應當最大程度尋求這些因素的平衡和穩(wěn)定發(fā)展。為了實現(xiàn)人工智能設計的穩(wěn)定性目的,還需要考慮回彈力的因素。人工智能設計的回彈力要求指的是設計一種人工智能技術使其具有調(diào)整策略以適應外界變化的能力,這是一種積極的設計策略,目的也是為了實現(xiàn)人工智能技術在創(chuàng)新發(fā)展過程中的穩(wěn)定性。另外一個價值是環(huán)境友好,人工智能設計應當追求環(huán)境友好的發(fā)展目標。這里的環(huán)境友好既包括社會環(huán)境友好也包括自然環(huán)境友好。自然環(huán)境友好的訴求應該體現(xiàn)為人工智能的綠色設計,在設計過程中考慮可拆卸、可回收、可重復利用等環(huán)境屬性,盡量避免對自然的不可逆?zhèn)?。社會環(huán)境友好應當體現(xiàn)為人工智能的和諧設計,在設計過程中考慮用戶體驗、社會習俗、特殊群體等因素,以實現(xiàn)人-技術-社會的和諧關系。
(一)基本建設投資管理缺乏科學有效的分工決策機制?;窘ㄔO項目由投資主管部門進行立項、可行性研究、初步設計和概算審批,其主要考慮項目需求,往往忽略財政可承受能力評估,容易出現(xiàn)超越現(xiàn)有財力或者雖然確定了籌資渠道但是無法落實的情況,綁架財政不斷擴大支出。同時,現(xiàn)行決策制度也缺乏硬約束,有的前期論證流于形式,“邊設計、邊報批、邊施工”,時常出現(xiàn)“預算超概算,決算超預算”的情況。整個鏈條不同環(huán)節(jié)沒有形成合力,不同的部門之間溝通不暢,影響科學決策。
如果說人工智能技術能夠負載福祉、負責任創(chuàng)新和可持續(xù)性的倫理價值,那么是否可以更進一步,即利用設計的方式更加積極主動地將倫理價值嵌入到人工智能技術之中?換言之,如何實現(xiàn)以福祉、負責任創(chuàng)新、可持續(xù)性的倫理價值為導向的人工智能設計?這需要從設計驅(qū)動主體、設計理念、設計方法和設計策略這幾個方面深入考察。
倫理導向的人工智能設計首先需要明確的是設計驅(qū)動的主體。理論上,人工智能設計的驅(qū)動主體有使用者和設計者兩類。使用者驅(qū)動(userdriven)的倫理設計指的是使用者的倫理價值是設計的首要訴求,設計要盡可能滿足使用者的需求。使用者驅(qū)動的人工智能設計強調(diào)對使用者的關懷,即設計一種用戶友好的人工智能產(chǎn)品,如改造設計方法(Transformation Design)。使用者驅(qū)動的倫理導向設計就是要求將設計者的倫理訴求作為設計的核心,比如說在設計過程中將用戶隱私作為首要因素,在設計數(shù)據(jù)采集和人像采集等信息采集程序中要注意處理數(shù)據(jù),模糊數(shù)據(jù)或隱蔽數(shù)據(jù)以此達到從設計的環(huán)節(jié)保護隱私的目的。設計者驅(qū)動(designer-driven)的倫理設計指的是設計者來決定應該將哪些價值嵌入到設計過程之中,設計者在決定嵌入價值的過程中要充分考慮未來語境和社會語境,其目的也是為了盡可能滿足使用者和用戶的需求,只是驅(qū)動主體由設計者承擔,同時設計者也要為自己的價值選擇承擔責任,如社會影響設計方法(Social Implication Design)和產(chǎn)品愿景設計法(Vision in Product Design)。
倫理導向的人工智能設計理念本質(zhì)上是一種參與設計(Participatory Design)。參與設計是一種價值為導向的設計方法,“一個調(diào)查、理解、反思、建構(gòu)、發(fā)展和支持多方參與者在行動中相互學習的過程,參與者始終站在設計者和使用者這兩種角色的立場上,設計者應當努力了解使用者境況的現(xiàn)實,而使用者應當清楚地表達自己的欲求并努力掌握恰當?shù)募夹g手段以實現(xiàn)這些欲求?!盵11]參與設計的核心是參與和民主,這與傳統(tǒng)意義上的技術設計不同,傳統(tǒng)意義上認為設計只是設計者的事情,而參與設計則認為與該技術或技術產(chǎn)品相關的使用者也應當參與設計的過程。參與設計是一種價值為中心的設計方法,這里的價值導向經(jīng)歷了從政治價值到倫理價值的轉(zhuǎn)變[12]。以倫理為導向的人工智能設計本質(zhì)上就是參與設計,人工智能技術的設計者和使用者應當根據(jù)自身的立場展開恰當?shù)挠懻?,參與者應當參與決策,因為人工智能技術會切實影響到每一個參與者的生活。比如說,可以設計一種可參與的人機交互界面,用戶不僅可以從系統(tǒng)中接收信息,還可以通過互動的形式,鼓勵使用者參與交互設計的過程,設計一種流動性系統(tǒng),以實時調(diào)整人機交互的方式。
以倫理為導向的設計方法重點關注倫理價值如何被嵌入到設計的過程之中,這首先取決于與技術相關的設計活動,比如需求提取、價值細化、模型創(chuàng)建、實施、測試、維護等活動。將倫理價值滲透到這些設計活動之中,不僅需要技術上的支持,更需要從倫理的角度析取價值并實現(xiàn)價值的嵌入。常見的方法主要包括:利益相關者分析法、價值析取和抓取法、啟發(fā)卡片法、價值敏感行動反思模型等[13]。
利益相關者分析法(stakeholder analysis)是設計活動中一種比較早期的方法,主要強調(diào)關注與這項技術有關的利益相關者的價值,這里的利益相關者包括直接的利益相關者與間接的利益相關者,前者指的是與技術直接相關的個人或者組織,后者指的是因使用這項技術而受影響的其他個人或組織。舉一個例子,依托人工智能技術而實現(xiàn)數(shù)據(jù)采集和管理的智能系統(tǒng)(如醫(yī)療數(shù)據(jù)系統(tǒng)),該系統(tǒng)的直接相關者可能是醫(yī)生、醫(yī)院、護士和醫(yī)保中心等個人或機構(gòu),而間接相關者可能是病人、病人家屬以及其他受影響的個人或機構(gòu)。盡管這些人并不直接使用該系統(tǒng),但是他們的個人信息、病歷、社會關系等隱私都與這個系統(tǒng)密切相關。因此,利益相關者分析法就需要在設計之初將直接相關者與間接相關者的價值訴求考慮到設計的過程中,這些價值就包括了倫理價值,倫理訴求也應當是設計考量的重點。倫理訴求往往與角色相關,設計者要充分考慮不同角色背景下的倫理訴求和倫理沖突,將這些倫理考量置入設計環(huán)節(jié)中。
價值析取法(value elicitation)和抓取法(value sketches)是利益相關者分析法的一個延續(xù),因為要析取和抓取利益相關者的價值。價值析取和抓取可以通過經(jīng)驗調(diào)查的方式展開,析取一般采用調(diào)查問卷、深度訪談、焦點小組等方式,從利益相關者的現(xiàn)有價值中析取出共同價值和特殊價值。對人工智能技術進行價值析取可以充分利用智能平臺,設計一類特定的數(shù)字工具以支持利益相關者直接反饋其特定語境中的價值訴求,或者設計一類平臺根據(jù)使用者的任務完成情況,間接地反饋利益相關者的任務喜好和價值訴求。而價值抓取法可以通過設計一些活動來抓取參與者的價值需求。比如說攝像頭的設計可以采用價值抓取的方法,首先可以選定不同的人群,讓這些人通過實際的參與將城市中感到安全或威脅的地方標注出來,通過對這些標注的抓取,可以獲得對隱私敏感性地點的地圖,并據(jù)此來設計攝像頭的位置。
啟發(fā)卡片法(envisioning cards)主要是用于啟發(fā)價值獲取的多樣性。從社會技術系統(tǒng)和長期發(fā)展的視角看技術設計活動,能夠獲取的共識是人類活動的多樣性和復雜性導致了人與技術之間內(nèi)在聯(lián)系的多樣性與復雜性,由此導致了與技術設計相關的價值的多樣性與復雜性。啟發(fā)卡片法就有助于處理這些復雜多樣的價值及其張力。啟發(fā)卡片法有四種維度,分別是:利益相關者、時間、價值和普遍應用性,由此對應著不同的卡片。另外有一些空白的卡片,用以擴展和創(chuàng)造新的價值。參與者可以根據(jù)現(xiàn)有卡片的內(nèi)容進行討論,也可以增加新的卡片而擴大討論的范圍。這種方法原是教學方法,也可以被用在技術設計的過程中,如形成觀念、合作設計、啟發(fā)式評價等環(huán)節(jié)。啟發(fā)卡片法可以用于人工智能設計中,例如設計一種針對計算機程序安全的安全卡片,按照上述四個維度來討論安全問題,從而擴展安全設計的價值域。
價值敏感行動反思模型(value sensitive action-reflection model)強調(diào)在行動中突出價值敏感性,主要包括設計者促動和利益相關者促動兩種促動形式。上面提到的利益相關者分析法、價值析取與抓取法都屬于利益相關者促動形式,而設計者促動的方法除了上面提到的啟發(fā)卡片法以外,還包括合作設計。合作設計往往由設計者推動,吸納非設計人員參與到設計的過程中,由此促進設計自身的價值擴張與價值融合。例如,設計者可以通過設計或使用一些游戲去探索、質(zhì)疑或確認社會價值與倫理價值,這也稱之為游戲中的價值(values at play)。
除此以外,價值壩與價值流(value dams and flows)、價值情景法(value scenarios)、價值層級法(value levers)等方法也可以用于倫理導向的設計,以上這些設計方法的重點在于倫理價值如何獲取以及如何嵌入。這既需要技術上的支持,也需要社會層面和倫理層面的共同反思。
人類中心的助老機器人設計可以很好地說明倫理導向的人工智能設計如何實現(xiàn)。助老機器人主要用于看護和陪伴老年人。當前的助老機器人不僅具備滿足使用者的生理需求、社會溝通需求、醫(yī)療康復需求和情感陪伴需求的功能,并通過實現(xiàn)這些功能體現(xiàn)出一定的社會價值。此外,還可以將倫理價值嵌入到助老機器人的設計中。Aleksandar Rodi?等人設計了一種人類中心(human-centered)的助老機器人,該機器人由頭部和身體兩部分組成,身體部分是一個整體并且無固定外形,這主要是考慮到美觀和人因工程。該機器人身體上裝有6個自由度(DOF),使用者可以根據(jù)自身需要選擇支撐移動(supported mobility)或人類輔助(human assistance),還裝有超聲波傳感器以及話筒和指示燈。機器人頭部設計有1個自由度,可任意旋轉(zhuǎn),有可以設置命令和傳送信息的觸屏,還有3個麥克風和1個可選擇的視覺深度探測器[14]。通過以上設計,該機器人可以完成助老機器人的基本功能。此外,該機器人的設計中還融入了隱私保護、環(huán)境友好、嵌入式性格的倫理要素。
在隱私保護方面,該機器人的設計加入了“授權”的環(huán)節(jié),只有被授權的人(家庭成員或者醫(yī)療人員)才能獲取關于老人的信息,而其他非授權人員無法獲取老人的信息。在環(huán)境友好方面,該機器人被設定了一種信息化的結(jié)構(gòu)環(huán)境,這種環(huán)境系統(tǒng)是一種適應性系統(tǒng),其中的語境是一種可定制的智能語境。技術手段是通過傳感器探測老人的狀態(tài)與需求,從而為老人提供友好的使用環(huán)境。比如壓力傳感器可以探測到老人是否在床上或者沙發(fā)上睡覺,以此調(diào)整應對來訪者的策略。又或者環(huán)境傳感器可以探測到老人是否處于一種危險狀態(tài),以此來判定是否需要救援。這種環(huán)境友好的設計能夠為老人提供更加多樣且舒適的居住環(huán)境。在嵌入式性格的操作上,Aleksandar Rodi?等人提出了一種構(gòu)想,他們從心理學的范式思考性格的可嵌入性,將性格還原為心理行為,即情感行為和社會行為。因此,嵌入式性格可以通過輸入心理行為模式和性格參數(shù)而實現(xiàn),具體的步驟可以分為:無描述的情感中介狀態(tài)(第一步,由觸發(fā)事件引起的客觀情感狀態(tài));獲得描述狀態(tài)(第二步,特定狀態(tài)的描述特征);獲得情感驅(qū)動行為(第三步,基于性格對特定行為做出的回應)。考慮到性格本身是一個動態(tài)的過程,嵌入式性格需要在行動中做出判斷和調(diào)整,如圖1所示[14]。舉一個例子,老人在吃藥過程中將水杯打碎了,機器人需要通過“觀察”老人的動作并結(jié)合之前輸入的老人的性格參數(shù),繼而做出行為的判斷。在這一過程中,嵌入式性格的倫理因素可以起到相應的作用,在這一情境中,機器人的寬容、友善和對他人的理解就可以成為該事件中老人情緒的互補因素。嵌入式性格的設計目前仍處于構(gòu)想階段,但是其設計模型具有可操作性,可以成為設計倫理的解釋案例。
圖1 嵌入式性格設計步驟圖示
人工智能技術的發(fā)展勢必會引發(fā)一系列的倫理爭議,從設計的立場出發(fā)反思人工智能技術能夠為人工智能倫理的建構(gòu)提供新的思路。一方面,人工智能設計中蘊含著福祉、創(chuàng)新和可持續(xù)性等倫理價值,需要對人工智能技術的倫理價值深入挖掘。另一方面,可以通過設計的方式,將倫理價值嵌入到人工智能技術之中,使人工智能技術表現(xiàn)出“向善”的倫理意圖。但是,價值嵌入設計的方式還存在著有待進一步解決的難題,比如如何正確地識別利益相關者的相關價值,如何提供恰當?shù)膮f(xié)商平臺或協(xié)商工具以處理利益相關者的價值沖突,如何為價值的變化提供對應的設計手段,等等。對這些問題的回答將是未來研究的重點,用以完善人工智能技術的設計倫理研究??傮w看來,人工智能的設計倫理研究具有廣闊的研究前景,既能夠為建構(gòu)設計-倫理雙向互動的科技倫理學提供基礎保障,也能夠為建構(gòu)未來新型人機關系提供重要支撐,從根本上促進科技“向善”。