亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        論算法決策中的設(shè)計(jì)者責(zé)任

        2023-03-25 18:27:26彭理強(qiáng)
        倫理學(xué)研究 2023年5期
        關(guān)鍵詞:主體用戶設(shè)計(jì)

        彭理強(qiáng)

        在人機(jī)交互過程中,人的聲音、眼動(dòng)、肢體行為等數(shù)據(jù)被實(shí)時(shí)采集,算法分析這些數(shù)據(jù)可以進(jìn)一步推斷使用者的需求、愛好甚至動(dòng)機(jī);通過控制信息的輸出,智能機(jī)器可以重塑使用者的認(rèn)知、推理和行為。我們將智能機(jī)器采集、分析數(shù)據(jù)并控制相關(guān)信息輸出的過程稱為算法決策。算法決策是人工智能技術(shù)的核心環(huán)節(jié),憑借其某種意義上強(qiáng)于常人的預(yù)測(cè)分析能力和難以察覺的嵌入式設(shè)計(jì),可以輕松而安靜地塑造人們的選擇和行動(dòng)。然而,算法決策可能發(fā)揮出超出我們意愿或理解的影響力,從而可能遠(yuǎn)離我們的決策目標(biāo),并最終對(duì)我們的決策正確性和合理的生活方式產(chǎn)生不利影響。同時(shí),算法設(shè)計(jì)與使用的不當(dāng)可能會(huì)威脅到我們脆弱但又需要維護(hù)的信任關(guān)系,進(jìn)而破壞社會(huì)組織結(jié)構(gòu)的良性運(yùn)行。如果不對(duì)算法決策中的設(shè)計(jì)責(zé)任加以明確,其應(yīng)用會(huì)引發(fā)各種社會(huì)風(fēng)險(xiǎn),從而反過來阻礙新技術(shù)的進(jìn)一步創(chuàng)新與社會(huì)的和諧合理發(fā)展。

        人機(jī)交互的根本風(fēng)險(xiǎn),在于算法決策某種程度的不確定性和不可解釋性,它們使得人類的主體性合理表現(xiàn)受到威脅。本文針對(duì)人機(jī)交互過程中算法決策引發(fā)的責(zé)任分擔(dān)困境,嘗試從設(shè)計(jì)哲學(xué)角度提出新的理論工具和方法:(1)傳統(tǒng)主客二分的設(shè)計(jì)思想是人與機(jī)器信任危機(jī)的根源之一。列維納斯的責(zé)任理論雖然很好地化解了設(shè)計(jì)者與使用者的對(duì)立關(guān)系,但絕對(duì)的他者性又導(dǎo)致設(shè)計(jì)者主體的消解,因此我們主張將溫和的他者性作為設(shè)計(jì)者與使用者主體的新型倫理關(guān)系。(2)我們將人機(jī)交互環(huán)境下的使用者主體視為一種人與技術(shù)“雜交”的復(fù)合型主體,即人被技術(shù)增強(qiáng)(削弱)后的賽博格主體。在新型倫理關(guān)系下,設(shè)計(jì)者的責(zé)任是使用技術(shù)增強(qiáng)使用者的主體性,提高賽博格主體倫理決策的能力。新的理論工具和方法,合理規(guī)范了設(shè)計(jì)主體的主體性表現(xiàn),實(shí)現(xiàn)了設(shè)計(jì)的倫理價(jià)值,不僅為人類智能生產(chǎn)力的發(fā)展提供了必要的價(jià)值引領(lǐng),也為設(shè)計(jì)活動(dòng)的哲學(xué)分析打開了思維空間,內(nèi)賦了更豐富的文化意涵??傊碌睦碚摴ぞ吆头椒ㄓ兄谠O(shè)計(jì)者從整體上理解和把握自身的設(shè)計(jì)責(zé)任,創(chuàng)造更加文明的人工自然。

        一、算法決策中的設(shè)計(jì)倫理困境

        隨著大數(shù)據(jù)、人工智能等現(xiàn)代技術(shù)的廣泛應(yīng)用,設(shè)計(jì)中的哲學(xué)問題日益增多,這些問題開始受到倫理學(xué)的關(guān)注。工程師應(yīng)該如何設(shè)計(jì)符合人類道德規(guī)范的智能機(jī)器?溫德爾·瓦拉赫(Welldell Wallach)和科林·艾倫(Colin Allen)開創(chuàng)性地提出了兩種機(jī)器道德決策的基本途徑,一是自上而下,一是自下而上[1](68)。自上而下就是把人類相對(duì)成熟的倫理系統(tǒng)、道德理論體系灌輸進(jìn)機(jī)器,如輸入康德的絕對(duì)律令、阿西莫夫提出的機(jī)器人三定律等;自下而上就是創(chuàng)造一個(gè)環(huán)境讓智能體自我學(xué)習(xí)相關(guān)道德知識(shí)、分析其行為方式,并且在其作出道德上值得贊揚(yáng)的行為時(shí)給予獎(jiǎng)勵(lì)。我們贊許瓦拉赫和艾倫為加強(qiáng)工程與人文領(lǐng)域的溝通所做的開創(chuàng)性工作,他們基于自上而下、自下而上兩種基本進(jìn)路以及由這兩種基本進(jìn)路組成的混合式進(jìn)路所構(gòu)造的人工道德智能體(artificial moral agents,縮寫AMAs),給工程師從事智能機(jī)器的倫理設(shè)計(jì)帶來很大啟發(fā),使倫理學(xué)的“善”(good)與“正當(dāng)”(right)等基本理念不斷滲入算法決策成為可能。但是從道德心理學(xué)的角度看,瓦拉赫和艾倫建構(gòu)的AMAs 至少存在“知”“情”“意”三重設(shè)計(jì)困境。

        1.道德知識(shí)的設(shè)計(jì)困境

        人工智能界已經(jīng)意識(shí)到算法決策中蘊(yùn)含價(jià)值選擇問題,以價(jià)值嵌入為目標(biāo)的設(shè)計(jì)方法把“善”作為設(shè)計(jì)前提,通過定義什么是“善”和有價(jià)值的事物,把價(jià)值嵌入定義為工程師的“正當(dāng)”行為。然而無論是“強(qiáng)進(jìn)路”的人工道德主體價(jià)值嵌入,還是“弱進(jìn)路”的道德受體價(jià)值嵌入,兩種價(jià)值嵌入方式設(shè)計(jì)的智能機(jī)器都存在責(zé)任歸因困境[2](104-111)。

        一方面,道德知識(shí)是否可能以及如何可能的問題一直存在爭議。道德知識(shí)是道德認(rèn)識(shí)論研究的核心問題。道德實(shí)在論認(rèn)為道德知識(shí)是可能的,它不以人的意志為轉(zhuǎn)移,因此存在道德事實(shí),道德知識(shí)是對(duì)道德事實(shí)的認(rèn)識(shí);道德反實(shí)在論認(rèn)為根本就不存在道德事實(shí),人也并非總是有理由做道德的事情,沒有任何道德信念或者道德斷言可以證明道德知識(shí)的真與假。另一方面,不同道德理論的價(jià)值概念也有不同的預(yù)設(shè)?!靶Ч髁x”(consequentialism)認(rèn)為,價(jià)值是可以被量化的,提升(promote)價(jià)值的行為是道德主體的“正當(dāng)”行為;“非效果主義”(nonconsequentialism)則認(rèn)為,有一些價(jià)值(比如誠實(shí))是不可被量化的,所以尊重(honour)價(jià)值的行為才是道德主體的“正當(dāng)”行為。不同道德理論本身存在著不同的理論預(yù)設(shè),使得以相關(guān)理論為依據(jù)的道德實(shí)踐可能陷入現(xiàn)實(shí)沖突。

        基于此,“價(jià)值敏感設(shè)計(jì)”作為算法設(shè)計(jì)的一種方法,就必然產(chǎn)生相關(guān)設(shè)計(jì)難題,比如如何正確識(shí)別利益相關(guān)者的價(jià)值,特別是如何處理利益相關(guān)者的價(jià)值沖突等非常棘手的問題??梢姡煌赖吕碚摰臎_突性和道德實(shí)踐的情境復(fù)雜性,使得“價(jià)值敏感設(shè)計(jì)”等基于道德想象力的方法出現(xiàn)設(shè)計(jì)麻煩,在許多方面很難落地,當(dāng)然也難以激發(fā)和指導(dǎo)工程師從事好的和負(fù)責(zé)任的創(chuàng)新活動(dòng)。

        2.道德情感的設(shè)計(jì)困境

        人類的某些技能,人工智能完全可以習(xí)得并超越之。比如Google 的AlphaGo 算法通過學(xué)習(xí)大量棋譜后,輕松戰(zhàn)勝人類。但是,塞爾的“中文屋”思想實(shí)驗(yàn)表明,符號(hào)接地問題(the symbol grounding problem)始終是人工智能不可逾越的邊界。人工智能因缺乏人類所特有的相關(guān)語義系統(tǒng),產(chǎn)生人機(jī)理解與信賴的巨大鴻溝,再加上符號(hào)化人工智能側(cè)重的是邏輯推理,在情感計(jì)算方面存在先天不足。畢竟,人類的思維不僅僅基于一般的認(rèn)知和推理能力,還基于更加高級(jí)的遷移學(xué)習(xí)、同情共感等能力。人工智能之父馬文·明斯基(Marvin Minsky)已經(jīng)意識(shí)到符號(hào)化人工智能的瓶頸,他從認(rèn)識(shí)論上將人類思維的本質(zhì)轉(zhuǎn)向意識(shí)和情感。明斯基進(jìn)一步指出,人有一種特殊的思維方式——情感,“情感是人們用以增強(qiáng)智能的思維方式”,人的情感性思維、人的思維方式的多樣性是人和動(dòng)物以及機(jī)器的主要區(qū)別[3](5-6)。在明斯基看來,人是情感思維的機(jī)器,人的主體性是多樣性的“自我”的集合,在不同的境遇中,情感思維會(huì)激活不同的“自我”模型,從而作出不同的決策。但明斯基樂觀地認(rèn)為,通過解釋人類大腦表現(xiàn)情感的運(yùn)行方式,完全可以設(shè)計(jì)出能理解、會(huì)思考的機(jī)器。

        顯然,明斯基是一個(gè)技術(shù)樂觀主義者,他將智能解釋為情感思維的多樣性,認(rèn)為人類大腦包含復(fù)雜的機(jī)器裝置,每一種情感狀態(tài)的改變都是因?yàn)樵诩せ钜恍┭b置資源的同時(shí),關(guān)閉了另外一些裝置資源。明斯基對(duì)人類情感思維方式的“機(jī)器性”刻畫,為工程師設(shè)計(jì)社交機(jī)器人提供了很多啟發(fā),但是“情感機(jī)器”的本體究竟是物質(zhì)還是心靈?我們有理由相信心靈世界和物理世界的差異是巨大的,“情感機(jī)器”存在“心物難題”的哲學(xué)解釋困境;并且情感思維方式的多樣性,在提升智能思維能力的同時(shí),并不必然帶來道德能力的提升;更甚至,機(jī)器的“情感”究竟是真情實(shí)感還是虛情假意?人類情感的物化性理解與投射,加劇了人類被情感欺騙的風(fēng)險(xiǎn)。

        3.道德意志的設(shè)計(jì)困境

        道德意志是道德主體自覺調(diào)節(jié)其行為、克服內(nèi)外困難,以實(shí)現(xiàn)其目的的心理過程。能動(dòng)的意向性、意志自由是道德意志的生成基礎(chǔ),缺少其中任何一個(gè),人的道德自主性以及責(zé)任分擔(dān)就成問題。道德意志是人工智能設(shè)計(jì)中的棘手問題。

        一方面,意向性是我們分析大腦心智活動(dòng)的重要概念,它能否被計(jì)算機(jī)算法體現(xiàn),是人與機(jī)器是否可以被相互理解和信任的認(rèn)識(shí)論問題。人類心智活動(dòng)的特點(diǎn)是具有意向性與主觀性,并且這些心理活動(dòng)能夠引起物理活動(dòng)的變化,這樣自我可以很好地解釋心理活動(dòng)與身體行為的關(guān)系。同樣地,模仿大腦思維的算法決策是不是“真正的”思維活動(dòng)?它是否具有意向性?如果算法無法成為智能機(jī)器道德意志的表達(dá)方式,那究竟如何表達(dá)智能思維的意向性?進(jìn)一步假設(shè),算法可以模擬人類思維,是否就可以認(rèn)為機(jī)器具有主體意識(shí)?塞爾認(rèn)為,“意識(shí)、思想、感情、情緒以及心理的所有其他特征遠(yuǎn)非語法所能包容。不管計(jì)算機(jī)的模擬能力有多強(qiáng),按照定義,它也不能復(fù)制那些特征”[4](28)。另一方面,人的道德決策是主體的有意行動(dòng),是愿意承擔(dān)責(zé)任的行為,如果人的道德意志可以被算法表征,那么算法決策就可以被視為機(jī)器的自主行動(dòng),但一個(gè)結(jié)果是:誰來承擔(dān)責(zé)任?機(jī)器可以承擔(dān)責(zé)任嗎?詹姆斯·摩爾(James Moor)根據(jù)智能機(jī)器的倫理效果劃分出四種人工道德主體[5](18-21)。按照摩爾的分類,基本上所有的機(jī)器都可以歸結(jié)為“有道德影響的主體”;設(shè)計(jì)上具有避免產(chǎn)生不利倫理后果考量的機(jī)器稱為“隱式的道德主體”,比如與簡易四輪車相比,配有安全氣囊的汽車可以稱為“隱式的道德主體”;“顯式的道德主體”是指具有道德推理能力的機(jī)器;“完全的道德主體”是指具有清晰的道德判斷與決策能力的機(jī)器。摩爾認(rèn)為,我們目前還不能在機(jī)器是否具備完全的道德主體能力的問題上達(dá)成共識(shí),因此應(yīng)該把重點(diǎn)放在發(fā)展有限的明確的現(xiàn)實(shí)的道德主體,它們雖然不能成為完全的道德主體,但可以幫助我們防止不道德的后果。道德意志能夠表明主體的動(dòng)機(jī)和為行為承擔(dān)責(zé)任的意愿,摩爾的人工道德主體分類,表明了機(jī)器存在道德化設(shè)計(jì)的可能性與必要性,但所有的人工道德主體——無論是相對(duì)低級(jí)的還是高級(jí)的,其決策都無法還原為主體的意愿或者動(dòng)機(jī)。缺乏道德意志的道德主體如果是成立的,控制論創(chuàng)建者諾伯特·維納(Norbert Wiener)早就給出了警告:人類如果把責(zé)任丟給機(jī)器,最終會(huì)自食其果[6](13)。

        綜上,為發(fā)展人類可信賴的道德代理關(guān)系,促進(jìn)人的全面發(fā)展,延續(xù)人類文明,我們需要謹(jǐn)慎對(duì)待算法決策。當(dāng)然,人工道德主體存在“知”“情”“意”三重設(shè)計(jì)困境,并不意味著我們要放棄設(shè)計(jì),相反,為了設(shè)計(jì)更加符合社會(huì)和用戶倫理目的、能夠被用戶信賴的智能機(jī)器,我們需深入探討人機(jī)交互中的人機(jī)關(guān)系,以應(yīng)對(duì)人工道德主體“知”“情”“意”的設(shè)計(jì)困境,并嘗試為設(shè)計(jì)哲學(xué)提供新認(rèn)知材料。

        二、算法決策中的設(shè)計(jì)哲學(xué)反思

        設(shè)計(jì),有狹義與廣義之分。狹義的設(shè)計(jì)是指人所從事的造物或制作活動(dòng),而廣義的設(shè)計(jì)是指人運(yùn)用能動(dòng)性和創(chuàng)造性進(jìn)行的“一切有目的的價(jià)值創(chuàng)造活動(dòng)”[7](51)?!霸O(shè)計(jì)的本質(zhì)是創(chuàng)造,是在廣泛的人類活動(dòng)中對(duì)價(jià)值和理想的追求,對(duì)美好未來的謀劃和進(jìn)取?!保?](29)設(shè)計(jì)哲學(xué)就是用哲學(xué)的方法觀照設(shè)計(jì),是關(guān)于設(shè)計(jì)領(lǐng)域根本觀點(diǎn)的學(xué)說體系,是設(shè)計(jì)之普遍知識(shí)的概括和總結(jié)。設(shè)計(jì)哲學(xué)討論的是設(shè)計(jì)的普遍性問題,如設(shè)計(jì)的內(nèi)容與形式、設(shè)計(jì)的本質(zhì)與規(guī)律等。設(shè)計(jì)哲學(xué)當(dāng)然也要探討由人們制作、發(fā)明、設(shè)計(jì)人工物引發(fā)的哲學(xué)問題,要研究設(shè)計(jì)中的主體、客體及主客體之間的關(guān)系。

        算法決策的設(shè)計(jì)者與使用者的關(guān)系是傳統(tǒng)決策代理關(guān)系的技術(shù)裝置化。在傳統(tǒng)主體性視野中,委托代理關(guān)系是設(shè)計(jì)活動(dòng)的對(duì)象化關(guān)系,表現(xiàn)為設(shè)計(jì)主體某種意義上對(duì)使用客體的控制和改造,并在對(duì)使用客體的控制和改造中凸顯設(shè)計(jì)主體的意志。由于使用者既是客體也是主體,所以他在被技術(shù)規(guī)訓(xùn)時(shí),并不總是被動(dòng)地接受設(shè)計(jì)主體的控制,而是力圖從自我出發(fā)去掌控所使用的對(duì)象,于是,同一算法對(duì)象在不同的主體中就會(huì)生成出不同的鏡像。根據(jù)現(xiàn)代技術(shù)哲學(xué)家唐·伊德(Don ihde)的“多重穩(wěn)定性”研究,不同的觀察視角會(huì)形成不同的視覺經(jīng)驗(yàn),而不同的主體可能有不同的觀察視角,同一主體也可以改變觀察視角,當(dāng)人們變化觀察視角時(shí),也就是在改變經(jīng)驗(yàn)中的知覺結(jié)構(gòu)。一種穩(wěn)定性,呈現(xiàn)某一固定的外觀表現(xiàn)和使用方式,而多重穩(wěn)定性表現(xiàn)出同一事物在不改變構(gòu)成的前提下可呈現(xiàn)出不止一種穩(wěn)定性。多重穩(wěn)定性現(xiàn)象表明不同的主體視角對(duì)于對(duì)象的穩(wěn)定呈現(xiàn)具有重要規(guī)制作用,這一原理也可以“化用”于人機(jī)交互環(huán)境中:算法設(shè)計(jì)者和使用者都是主體,他們對(duì)同一算法可以形成不同的知覺結(jié)構(gòu);而基于設(shè)計(jì)者的認(rèn)知差異性,不同設(shè)計(jì)者對(duì)同一算法的設(shè)定也會(huì)呈現(xiàn)出不同的知覺結(jié)構(gòu)。這里,我們重點(diǎn)考察后者,我們將從自我出發(fā)構(gòu)建的主體性稱為“自我主體性”,把從他者出發(fā)構(gòu)建的主體性稱為“他者主體性”,不同主體性設(shè)定會(huì)產(chǎn)生不同的倫理困境。在我們的討論中,“我”指的是以設(shè)計(jì)者為代表的工程師、平臺(tái)運(yùn)營方及其背后的投資方,“他”指的是以使用者為代表的用戶群體。

        1.自我主體性:社會(huì)責(zé)任的缺失

        工業(yè)文明初期是主體性逐漸張揚(yáng)的歷史時(shí)期。當(dāng)“人類主體”從愚昧無知狀態(tài)下逐步獲得知識(shí),從神的壓迫下和自然的束縛下解放出來后,就迫切地將“人類”設(shè)置為世界的中心,這就形成了人類中心主義;同時(shí),在人類社會(huì)內(nèi)部,人們又極力推崇個(gè)人作為理性的思維主體的獨(dú)特性,努力維護(hù)個(gè)人的獨(dú)立、自由與尊嚴(yán),出現(xiàn)了所謂個(gè)人中心主義。在人類中心主義、個(gè)人中心主義思潮的影響下,自然萬物抑或人自身被視為現(xiàn)代科學(xué)技術(shù)認(rèn)識(shí)與改造的對(duì)象,以滿足自我(人類)的需求和欲望。在自我主體性思想的影響下,自然資源被過度攫取,他人利益被漠視,人與自然、人與人的關(guān)系被異化。

        無論是“人類中心主義”還是“個(gè)人中心主義”,無論人類主體還是個(gè)人主體,其主體性表現(xiàn)的自以為是和唯我獨(dú)尊,都會(huì)帶來一系列社會(huì)問題,因此必然會(huì)遭到反思、批判、解構(gòu)甚至是否定。今天人們通過對(duì)當(dāng)代工業(yè)實(shí)踐的反思和哲學(xué)的批判,客觀上進(jìn)一步促進(jìn)了主體性理論的發(fā)展,使得原子式的個(gè)人主體性遭受質(zhì)疑與批評(píng)。美國哲學(xué)家弗萊德·多邁爾在其著作《主體性的黃昏》中明確表示,過于狂妄的主體、主體性必然且正在走向衰落。法國哲學(xué)家讓-弗·利奧塔等在《后現(xiàn)代主義》中更直接指出“主體與客體均被消解”[9](87),“所謂的主體性只是形而上學(xué)思維的一種虛構(gòu)而已”,“事實(shí)上真正的主體性并不存在”[9](38)。需要指出的是,多邁爾提出的“正在走向衰落的主體性”是指以自我為中心的占有性個(gè)體主義、以統(tǒng)治自然為目的的人類中心說和排斥交互主體性的單獨(dú)主體性,而絕不意味著所有的人類主體性與個(gè)體主體性形態(tài)都應(yīng)走向黃昏[10](21)。正如多爾邁本人所言,“事實(shí)上,依我之見,再也沒有什么比全盤否定主體性的設(shè)想更為糟糕了”[11](1),主體性作為人之存在的本質(zhì)屬性是不可能被完全消除的。就個(gè)體主體性而言,其主體性也是根本不可能被消除的,人們希望消除的只是其唯我獨(dú)尊的極端表現(xiàn)方式。事實(shí)上,將他者性完全排除在主體之外的自我主體性有其先天不足,容易陷入唯我論,從而引發(fā)人與人關(guān)系的割裂,導(dǎo)致情感的冷漠和彼此關(guān)系的對(duì)立。在主體的建構(gòu)過程中如要消除這個(gè)不足,就不能忽視人與人的合理社會(huì)關(guān)系建構(gòu)問題。

        以用戶為中心的設(shè)計(jì)和評(píng)估的最基本思想就是將用戶時(shí)時(shí)刻刻擺在所有過程的首位[12](1)。在人機(jī)交互過程中,設(shè)計(jì)者只關(guān)注產(chǎn)品的功能以及用戶的需求是否得到滿足。就算法決策的設(shè)計(jì)而言,單純以設(shè)計(jì)者或使用者為中心的自我主體性設(shè)計(jì)哲學(xué),都將陷入自我與他人的利益和權(quán)利之爭。比如網(wǎng)上購物平臺(tái)的產(chǎn)品定價(jià)策略,算法設(shè)計(jì)者考量的是銷售方的利益,通過設(shè)計(jì)算法評(píng)估用戶的價(jià)格敏感性來決定產(chǎn)品如何溢價(jià);平臺(tái)使用者考量的是消費(fèi)者的利益,要求平臺(tái)方公布算法定價(jià)規(guī)則,以打破算法黑箱、算法霸權(quán)。設(shè)計(jì)的社會(huì)目標(biāo)是增進(jìn)社會(huì)的福祉,但在以自我為中心的設(shè)計(jì)理念中,這種社會(huì)目標(biāo)常常被自我的需求和利益同一化。在設(shè)計(jì)者與用戶利益和權(quán)力的較量中,用戶成了設(shè)計(jì)者實(shí)現(xiàn)目的的手段,而不是設(shè)計(jì)的目的,這樣的主體性設(shè)計(jì)思想是必須加以改善的。

        2.他者主體性:創(chuàng)新主體的迷失

        為抵制自我主體性思想的唯我論傾向和同一性的暴力,伊曼努爾·列維納斯(Emmanuel Levinas)提出從他者出發(fā)構(gòu)建非對(duì)稱的他者主體性。列維納斯認(rèn)為,自我是作為他者的自我,因?yàn)樗呔哂薪^對(duì)的優(yōu)先性,所以主體性不是指對(duì)自我負(fù)責(zé),而是指對(duì)他人負(fù)責(zé)。在列維納斯看來,責(zé)任不僅是哲學(xué)思考的對(duì)象,更是生活方式的踐行。在哲學(xué)與生活的關(guān)系問題上,列維納斯認(rèn)為哲學(xué)源于現(xiàn)實(shí)的反思,因此負(fù)責(zé)任的生活比責(zé)任哲學(xué)更重要;在責(zé)任所指向的對(duì)象性問題上,列維納斯提出為他的責(zé)任優(yōu)先于為己的責(zé)任。在責(zé)任如何展開問題上,列維納斯指出,回應(yīng)(response)就是負(fù)責(zé)(responsibility),我有責(zé)任對(duì)他人的問詢、命令作出回應(yīng),且回應(yīng)不僅是負(fù)責(zé)任的言說(saying),而且要對(duì)所說的內(nèi)容(said)擔(dān)負(fù)責(zé)任,并且責(zé)任需要轉(zhuǎn)化為行動(dòng)。列維納斯的責(zé)任概念有三個(gè)重要特征[13](37),第一個(gè)特征是無限性,他者的命令與我的回應(yīng)是無限生長著的,自我對(duì)他者負(fù)有無限責(zé)任;第二個(gè)特征是被動(dòng)性,責(zé)任是他者對(duì)我施加的命令,不是自我主動(dòng)生成的結(jié)果;第三個(gè)特征是非對(duì)稱性,我對(duì)他人負(fù)責(zé),但并不因此要求他人對(duì)我負(fù)責(zé),“我對(duì)‘他者’的道義和責(zé)任,并不意味著我要從‘他者’那里期待回報(bào)”[14](154)。以列維納斯為代表的非對(duì)稱性倫理關(guān)系的他者主體性理論,是主體性理論中不可忽視的重要內(nèi)容。但他者主體性在反對(duì)以自我為中心的同一性暴力的過程中,滑向了他的對(duì)立面——以他者為中心。從他者出發(fā)構(gòu)建的主體性理論,雖很好地化解了設(shè)計(jì)者與使用者的對(duì)立關(guān)系問題,但絕對(duì)的他者性又導(dǎo)致創(chuàng)新主體的消解,使得創(chuàng)新責(zé)任失去可以承載的根基。

        首先,設(shè)計(jì)者作為產(chǎn)品的能動(dòng)創(chuàng)作者,理應(yīng)承擔(dān)產(chǎn)品的設(shè)計(jì)責(zé)任,但是他者性理論要求的無限責(zé)任會(huì)成為設(shè)計(jì)者的沉重負(fù)擔(dān)。列維納斯堅(jiān)持他者具有絕對(duì)的優(yōu)先性,并把“為他”的責(zé)任置于一個(gè)絕對(duì)的、難以超越的高度,它接近于上帝的責(zé)任。在列維納斯的他者性視域中,設(shè)計(jì)者與使用者的責(zé)任是絕對(duì)不對(duì)等的,只需要設(shè)計(jì)者為使用者負(fù)責(zé),不需要使用者為設(shè)計(jì)者負(fù)責(zé),且設(shè)計(jì)者要為使用者的所有責(zé)任負(fù)責(zé),包括用戶錯(cuò)誤或者不理性使用產(chǎn)品的責(zé)任。

        其次,設(shè)計(jì)者作為創(chuàng)新的推動(dòng)者,在一種非對(duì)等的倫理關(guān)系中,作為創(chuàng)新主體的自我被消解了。列維納斯認(rèn)為,對(duì)他者負(fù)責(zé)不能摻雜任何對(duì)自我的回報(bào),只有他者利益,沒有自我利益。然而現(xiàn)實(shí)的主體在本質(zhì)上是以自我的存在為前提的,他者作為行為主體其實(shí)就是自我,沒有自我無法成就他人。試想,作為他者而言,如果他也是一個(gè)為他者理論的堅(jiān)定信仰者,他就只會(huì)產(chǎn)生為他的責(zé)任,不會(huì)接受別人為他的服務(wù),那別人的為他的服務(wù)又如何可能現(xiàn)實(shí)地發(fā)生呢?

        3.溫和的他者性:創(chuàng)新責(zé)任與社會(huì)責(zé)任的統(tǒng)一

        與不對(duì)稱關(guān)系的他者主體性不同,傳統(tǒng)主體間性理論將他人視為與“自我”同樣的主體。作為同樣的主體,“他者”與“自我”具有對(duì)等的關(guān)系。馬丁·布伯(Martin Buber)雖然也同樣認(rèn)可他者的優(yōu)先性,但與非對(duì)稱的觀點(diǎn)不同,他倡導(dǎo)主體間的對(duì)等關(guān)系。這種主體間的對(duì)等關(guān)系體現(xiàn)在布伯的“我-你”關(guān)系與“我-它”關(guān)系的區(qū)分中。在布伯看來,“我-它”關(guān)系就是將他者視為同樣的對(duì)象,“我-你”關(guān)系就是將他者置于彼此平等對(duì)稱的關(guān)系中。他認(rèn)為,“展現(xiàn)人的精神便是人對(duì)‘你’的響應(yīng)回答”,“精神不在‘我’之中,它佇立于‘我’與‘你’之間”[15](57)。因此,主體間的這種對(duì)等關(guān)系是一種“我”與“你”互為主體的對(duì)稱關(guān)系,這種對(duì)稱關(guān)系意味著關(guān)系雙方在完全平等的基礎(chǔ)上相互回應(yīng)。

        我們認(rèn)為,主體首先是以自我存在為基礎(chǔ)的,他者的絕對(duì)地位會(huì)使作為創(chuàng)新主體的自我失去生存的土壤。自我主體性與他者主體性是主體性哲學(xué)的兩種不同的實(shí)現(xiàn)路徑,前者可以最大限度地激發(fā)主體的能動(dòng)性和創(chuàng)造性,后者可以最大限度地顧及他者的社會(huì)公共福利,它們分別代表設(shè)計(jì)活動(dòng)的兩個(gè)目標(biāo)維度,即創(chuàng)新和社會(huì)責(zé)任,將兩者統(tǒng)一起來才能實(shí)現(xiàn)負(fù)責(zé)任的創(chuàng)新。溫和的他者性是繼承他者主體性的修正版本,修正了“無限性責(zé)任”和“單向性回應(yīng)”觀點(diǎn),試圖以調(diào)和的方式走出責(zé)任困境。

        其一,溫和的他者性是一種非對(duì)稱的有限責(zé)任關(guān)系。“有限責(zé)任”區(qū)別于他者主體性的無限責(zé)任,只有部分責(zé)任是設(shè)計(jì)者必須承擔(dān)的責(zé)任,比如設(shè)計(jì)中的某些社會(huì)責(zé)任??梢?,非對(duì)稱的責(zé)任倫理其實(shí)更加真實(shí),它使自我與他者可以相互貫通,社會(huì)責(zé)任與創(chuàng)新責(zé)任的統(tǒng)一成為設(shè)計(jì)主體的倫理共識(shí)。

        其二,在溫和的他者性理論中,自我利益其實(shí)內(nèi)含于“相互回應(yīng)”關(guān)系之中。“相互回應(yīng)”關(guān)系區(qū)別于他者主體性所主張的單向性責(zé)任關(guān)系(其本質(zhì)是一種利他行為),在成就他人的過程中,他人以同樣的利他行為成就著你,即社會(huì)中的每個(gè)人的相互利他,使得這個(gè)社會(huì)更加美麗。

        三、算法決策中的設(shè)計(jì)者責(zé)任:主體性增強(qiáng)

        人機(jī)交互是人與機(jī)器信息的協(xié)同處理過程,人體的發(fā)音、手指操作、體感姿勢(shì)等控制行為與機(jī)器的鍵盤、鼠標(biāo)、話筒、觸摸屏、攝像頭等輸入設(shè)備交互,人體的眼睛、耳朵、皮膚等感知器官與機(jī)器的顯示器、喇叭等輸出設(shè)備交互。人與機(jī)器的混合系統(tǒng)構(gòu)成賽博格系統(tǒng)。在工程師看來,人機(jī)交互中的人是一個(gè)信息處理模型,他在接受刺激信息后通過感知系統(tǒng)(perception)、認(rèn)知系統(tǒng)(cognition)和反應(yīng)系統(tǒng)(response)進(jìn)行信息處理并作出行動(dòng)[12](6)。對(duì)機(jī)器來說,人體就是一臺(tái)信息處理系統(tǒng),至少具有感知、認(rèn)知和具身三種能力。人機(jī)交互時(shí),機(jī)器的優(yōu)勢(shì)是具有執(zhí)行重復(fù)任務(wù)效率高和信息處理快的特點(diǎn),缺點(diǎn)是并不是所有任務(wù)都可計(jì)算。所以設(shè)計(jì)者的設(shè)計(jì)責(zé)任是最大限度發(fā)揮機(jī)器和用戶各自的優(yōu)勢(shì),在降低用戶某些自主性的同時(shí),通過設(shè)計(jì)增強(qiáng)用戶的感知、認(rèn)知和具身等能力。

        1.感知能力增強(qiáng)

        人類感知世界的主要方式有眼睛看、耳朵聽、身體觸碰。信息處理模型將感知系統(tǒng)作為人體接收外界信息的輸入端,把眼睛、耳朵和皮膚定義為人體的傳感器,它們分別將接收到的光、聲音、壓力信號(hào)轉(zhuǎn)化為電信號(hào),然后在人體神經(jīng)網(wǎng)絡(luò)中傳輸,以此感知外界的變化。工程師的設(shè)計(jì)責(zé)任就是要增強(qiáng)身體的感知能力,使身體能更加全面地接收到外界的變化情況,與外界環(huán)境進(jìn)行交互。比如,醫(yī)院的CT 儀的設(shè)計(jì)目標(biāo)是要強(qiáng)化醫(yī)生“看”病的能力,所以工程師“為他”的設(shè)計(jì)責(zé)任是想方設(shè)法增強(qiáng)醫(yī)生“看”的能力,通過不同方式呈現(xiàn)病灶,及時(shí)、準(zhǔn)確顯現(xiàn)病灶。很顯然,“為他”的設(shè)計(jì)職責(zé)是增強(qiáng)用戶的感知能力,或者給出準(zhǔn)確置信度的預(yù)測(cè)值供用戶參考,把決策的權(quán)利留給用戶,工程師的職責(zé)是為用戶提供全面、可靠的決策信息,拒絕提供武斷的信息誤導(dǎo)用戶。

        2.認(rèn)知能力增強(qiáng)

        伊德認(rèn)為,無論是在古代還是在現(xiàn)代,技術(shù)都以或簡或繁的形式不同程度地出現(xiàn),人類活動(dòng)總是嵌于技術(shù)中。他從技術(shù)現(xiàn)象學(xué)的角度闡明,人類生活之所以不能離開技術(shù),是因?yàn)樗{(diào)節(jié)著人類經(jīng)驗(yàn)和知覺的變化過程。換句話說,技術(shù)是人認(rèn)識(shí)世界的方式。然而,人與技術(shù)的關(guān)系是復(fù)雜多元的,從最簡單的具身和解釋關(guān)系,到復(fù)雜的“他異”和背景關(guān)系,人自身的知覺系統(tǒng)被技術(shù)塑造的程度越高,人對(duì)機(jī)器的依賴性越大,自我思考的空間就越小。按照伊德對(duì)人與技術(shù)的關(guān)系的定義,他異關(guān)系就是“我”與技術(shù)成為兩個(gè)客體,技術(shù)成為他者,技術(shù)完全可以按照自己的規(guī)律發(fā)展、運(yùn)行。比如智能機(jī)器從傳統(tǒng)的體力勞動(dòng)者角色,慢慢過渡到腦力勞動(dòng)者角色,主體人的某種客體化趨勢(shì)不可避免。因此,批判的人與技術(shù)的關(guān)系是用戶在與智能機(jī)器交互的同時(shí)能夠保持自我思想的獨(dú)立性,工程師“為他”的設(shè)計(jì)職責(zé)應(yīng)該是增強(qiáng)用戶的認(rèn)知能力,升華其認(rèn)知素養(yǎng),而不是窄化其認(rèn)知空間,把用戶困在“信息繭房”中。

        人在活動(dòng)的同時(shí)需要借助身體來認(rèn)識(shí)世界,而信息社會(huì)的海量信息超出了人身體各器官的自然認(rèn)知能力,人需要借助算法延展身體的認(rèn)知功能,算法由此成為我們認(rèn)知世界的媒介,賽博格主體成為人類工作與交往的真正實(shí)體。盲人摸象的故事向我們展示了,每個(gè)人感知的世界可以是不一樣的,且每個(gè)人感知的世界都不一定是真實(shí)或完整的。在海量信息面前,我們每個(gè)人對(duì)世界的感知猶如盲人摸象。因此,要增強(qiáng)用戶的認(rèn)知能力,就要在如何提供全面、真實(shí)的信息方面作出努力。同時(shí),需要發(fā)揮自身創(chuàng)造性、能動(dòng)性的認(rèn)知意識(shí),將自身視為信息加工的主體,而不是沒有獨(dú)立意志和批判精神的意見附和者。因此,算法設(shè)計(jì)的目標(biāo)就是打破算法的權(quán)力運(yùn)行機(jī)制,始終將用戶的真實(shí)認(rèn)知需要作為設(shè)計(jì)者為他的責(zé)任,始終將用戶的認(rèn)知能力提高作為設(shè)計(jì)者為他的設(shè)計(jì)責(zé)任,將用戶自身的能力與發(fā)展放在首位,以提升用戶的能力、保障用戶的權(quán)利。

        3.具身能力增強(qiáng)

        “具身”是指將身體置于世界之中,該詞匯來自英文詞匯“embodied”。在人與技術(shù)的關(guān)系中,詞綴“em-”表示“置于……之內(nèi)”“使處于……狀態(tài)”。伊德認(rèn)為,具身關(guān)系(embodiment relations)是“作為身體的我”(I-as-body)借助技術(shù)在世界中生存的最普遍關(guān)系,是一種特殊的使用情景,在這種使用情景中,技術(shù)以一種特殊的方式融入“我”的經(jīng)驗(yàn)中,轉(zhuǎn)化了“我”的知覺和身體的感覺[16](77-78)。從人機(jī)交互設(shè)計(jì)的角度看,技術(shù)必須滿足使用場(chǎng)景的要求,工程師在設(shè)計(jì)上應(yīng)該作出一些努力,使得技術(shù)的使用符合人的身體的認(rèn)知習(xí)慣和行為方式,使技術(shù)與人的身體真正融為一體。比如佩戴眼鏡的人,在身體適應(yīng)它之后會(huì)忽視它的存在,正是設(shè)計(jì)精良的眼鏡在使用過程中融入了使用者的經(jīng)驗(yàn),從知覺層面增強(qiáng)了身體置身于世界的能力,即具身能力,才使得個(gè)體在置身于世界的同時(shí),與世界保持良好的互動(dòng)。此外,技術(shù)對(duì)身體知覺的轉(zhuǎn)換并不意味著主體要放棄意義思考的能動(dòng)性?!霸谠O(shè)計(jì)良好的具身化技術(shù)中發(fā)生的部分共生現(xiàn)象(symbiosis)保留了這種能動(dòng)性,它可以被稱為富有表現(xiàn)力(expressive)?!保?6](85)具身能力增強(qiáng)的目標(biāo)是從設(shè)計(jì)上提高使用者的身體知覺能力和能動(dòng)性,以避免技術(shù)操控下的知覺能力和能動(dòng)性的下降。

        在智能技術(shù)構(gòu)建的空間中,虛擬和現(xiàn)實(shí)的融合使得人的身體可以脫離物質(zhì)性的控制,通過意念實(shí)現(xiàn)網(wǎng)絡(luò)空間與物理空間的交互。隨著腦機(jī)接口技術(shù)的發(fā)展,算法可以通過分析人體思考時(shí)的腦電波信號(hào),更加精準(zhǔn)地識(shí)別大腦潛意識(shí)的決定,突破人身體機(jī)械運(yùn)動(dòng)的局限性。大腦皮層的腦電波與網(wǎng)絡(luò)信息的雙向通信,技術(shù)上可以實(shí)現(xiàn)將意識(shí)接入網(wǎng)絡(luò),達(dá)到更加便利、精準(zhǔn)的具身效果,設(shè)計(jì)者的責(zé)任是讓技術(shù)增強(qiáng)使用者對(duì)身體的自由控制能力,從設(shè)計(jì)上避免技術(shù)的失控。在設(shè)計(jì)者看來,人在駕駛汽車的過程中,汽車增強(qiáng)了人的運(yùn)動(dòng)功能,車被人具身為賽博格的目的是使人更加安全、快速地移動(dòng)。而作為一種更加負(fù)責(zé)任的設(shè)計(jì),算法設(shè)計(jì)的目標(biāo)是通過智能技術(shù)增強(qiáng)這種具身能力。

        四、結(jié)論:人機(jī)關(guān)系的設(shè)計(jì)目標(biāo)是促進(jìn)人的全面發(fā)展

        如柯瓦雷所說,當(dāng)人把自然和自身作為控制和改造的對(duì)象時(shí),他“在世界中失去了他的位置,或者更確切地說,人類失去了他生活于其中并以之為思考對(duì)象的世界”[17](1)。從設(shè)計(jì)哲學(xué)角度看,人機(jī)混合決策引發(fā)的最突出風(fēng)險(xiǎn)是主體性風(fēng)險(xiǎn)。從自我出發(fā)構(gòu)建的主體性理論,無視他者的差異性,導(dǎo)致設(shè)計(jì)者權(quán)力膨脹、使用者權(quán)益受侵蝕,違背了設(shè)計(jì)增進(jìn)社會(huì)福祉的社會(huì)目標(biāo);從他者出發(fā)構(gòu)建的主體性理論,很好地化解了設(shè)計(jì)者與使用者的對(duì)立關(guān)系問題,但絕對(duì)的他者性又會(huì)導(dǎo)致創(chuàng)新主體主體性的消解,使創(chuàng)新責(zé)任失去可以承載的根基。溫和的他者性從現(xiàn)實(shí)出發(fā),在肯定非對(duì)稱性的倫理關(guān)系的同時(shí),修正了“無限性責(zé)任”和“單向性回應(yīng)”觀點(diǎn),試圖以調(diào)和的方式走出責(zé)任困境。在溫和的他者性的設(shè)計(jì)哲學(xué)看來,人工智能的設(shè)計(jì)責(zé)任是一種非對(duì)稱的有限責(zé)任,是一種附“麗”于利他的相互責(zé)任。

        人工智能的倫理設(shè)計(jì)方向是增強(qiáng)人與人的交往能力,提高用戶的認(rèn)知和決策能力,改善用戶主體自身的機(jī)能,以提升用戶的主體性能力。人工智能的設(shè)計(jì)責(zé)任是主體性增強(qiáng),且至少包含感知能力、認(rèn)知能力和具身能力的增強(qiáng),增強(qiáng)的限度是維系社會(huì)的公平正義。人工智能設(shè)計(jì)的總體原則是以人為目的,因此,康德提出的“人是目的,不能僅僅成為工具”的普遍法則,即使是一種道德理想,也應(yīng)該成為人工智能設(shè)計(jì)的職業(yè)追求。它類似于教師與醫(yī)生的職業(yè)追求,不同的是,教師的職業(yè)目標(biāo)是培育人的靈魂,醫(yī)生的職業(yè)目標(biāo)是修復(fù)人的身體,而人工智能設(shè)計(jì)者的職業(yè)目標(biāo)是完善人。人在創(chuàng)造性改造與使用機(jī)器的同時(shí)也在實(shí)現(xiàn)他自己的本質(zhì),正如馬克思所指出的,“人以一種全面的方式,也就是說,作為一個(gè)完整的人,占有自己的全面的本質(zhì)”[18](123)。

        猜你喜歡
        主體用戶設(shè)計(jì)
        論自然人破產(chǎn)法的適用主體
        瞞天過?!律O(shè)計(jì)萌到家
        設(shè)計(jì)秀
        海峽姐妹(2017年7期)2017-07-31 19:08:17
        有種設(shè)計(jì)叫而專
        Coco薇(2017年5期)2017-06-05 08:53:16
        關(guān)注用戶
        商用汽車(2016年11期)2016-12-19 01:20:16
        關(guān)注用戶
        商用汽車(2016年6期)2016-06-29 09:18:54
        關(guān)于遺產(chǎn)保護(hù)主體的思考
        關(guān)注用戶
        商用汽車(2016年4期)2016-05-09 01:23:12
        如何獲取一億海外用戶
        論多元主體的生成
        亚洲福利视频一区二区三区| 国产亚洲美女精品久久久2020| 又大又粗又爽18禁免费看| 免费人成再在线观看视频| 国产最新网站| 亚洲视频一区二区久久久| 国产黑丝美女办公室激情啪啪| 日韩日韩日韩日韩日韩| 无码人妻精品一区二区三区在线| 亚洲精品美女自拍偷拍| 我的美艳丝袜美腿情缘| 亚洲av午夜精品无码专区| 军人粗大的内捧猛烈进出视频| 亚洲都市校园激情另类| 国产一区二区内射最近人| 一区二区三区视频偷拍| 国产精品亚洲av三区亚洲| 国产精品无码一区二区三区电影| 天堂一区人妻无码| 国产精品亚洲综合色区韩国| 男人天堂插插综合搜索| 免费人成在线观看网站| 免费特级黄毛片| 搡老女人老妇女老熟妇69| 亚洲乱码av乱码国产精品| 亚洲国产成人影院在线播放| 中文字幕经典一区| 东京热日本道免费高清| 野花香社区在线视频观看播放| 亚洲国产精品sss在线观看av| AV在线中出| 久久综合久久综合久久| 超级碰碰色偷偷免费视频| 国产免费AV片在线看| 中文字幕一区二区网址| 中国女人内谢69xxxxxa片| 亚洲成a人v欧美综合天堂麻豆| 中文字幕亚洲区第一页| 中文字幕乱码在线人妻| 男女性爽大片视频| 国内精品一区二区三区|