郭延龍 湯書(shū)昆
(中國(guó)科學(xué)技術(shù)大學(xué)人文與社會(huì)科學(xué)學(xué)院)
古今中外的先哲們對(duì)類似技術(shù)物概念的道德自由主題進(jìn)行了不同程度的思考。何謂道德自由?中國(guó)儒家孔子提出“從心所欲不逾矩”的道德自由,將自由規(guī)范成人的內(nèi)在德性。朱熹講道德自由稱“德者,得也,行道而有得于心者也”,講究知行合一的自由。在西方,道德自由分為兩種觀念,即行動(dòng)自由和意志自由。托馬斯·霍布斯(Thomas Hobbes)主張行動(dòng)自由代替道德自由,用因果關(guān)系作為行動(dòng)自由的必然內(nèi)核,在因果關(guān)系內(nèi)進(jìn)行必然的自由行為,并且默認(rèn)對(duì)其行為負(fù)責(zé)。而康德則用意志自由代替道德自由,解釋道德責(zé)任的內(nèi)外雙重性規(guī)定性,強(qiáng)調(diào)道德自由與道德自律相伴而生,只有道德自律內(nèi)化,才可以實(shí)現(xiàn)真正的道德自由。[1]黑格爾認(rèn)為意志能力等價(jià)于自由,意志自由并不等同于自由,強(qiáng)調(diào)意志自由在法的框架內(nèi)的進(jìn)行。不難發(fā)現(xiàn)行動(dòng)自由中的必然性和意志自由中的依法行事,成為道德自由本身的內(nèi)在限制條件。
但笛卡爾(René Descartes)認(rèn)為,人類把機(jī)械的身體和非實(shí)物的心靈結(jié)合為完美協(xié)調(diào)的整體,但類似機(jī)器的技術(shù)物永遠(yuǎn)不可能有道德意志,是人類賦予其道德意義。[2]49托馬斯·霍布斯也認(rèn)為,道德意志不過(guò)是有機(jī)體特定部分的運(yùn)動(dòng),技術(shù)物仍然無(wú)法具備道德自由。直到今天仍有許多哲學(xué)家認(rèn)為人腦中有某種特殊的東西,它給予人腦以道德意志和自由的能力,類似編程的硅芯片永遠(yuǎn)達(dá)不到這種能力。
隨著腦機(jī)接口、生物芯片等一項(xiàng)項(xiàng)具體會(huì)聚技術(shù)的發(fā)展,技術(shù)物的道德自由問(wèn)題再度進(jìn)入哲學(xué)范疇的考察:重新思考技術(shù)物能否依靠物質(zhì)結(jié)構(gòu)“引向”自由意志的世界,重新審視笛卡爾認(rèn)為的實(shí)物機(jī)器永遠(yuǎn)不可能有智能的特征,解釋人類自由意志的概念被神秘地視為人類自由行動(dòng)感覺(jué)之下的“某種東西”。[2]49-50本文主要聚焦在以下幾個(gè)問(wèn)題:技術(shù)物有道德主體自由嗎?技術(shù)權(quán)利下技術(shù)物的道德自由指的是什么?物準(zhǔn)則的生活世界中技術(shù)物的道德自由程度如何?
在討論這個(gè)問(wèn)題之前,筆者嘗試將傳統(tǒng)道德主體中人的維度降低到生物的維度審視。在地震等自然災(zāi)害中,救援犬是道德行為的代理人,被人類訓(xùn)練成救援失蹤人口的行動(dòng)者。人類從情感上對(duì)救援犬會(huì)表達(dá)感激,照此來(lái)看救援犬具有道德行為。但從狗的角度來(lái)看,它僅僅認(rèn)為這是一種日常訓(xùn)練的游戲,不認(rèn)為救人是一種道德行為。也許部分學(xué)者會(huì)認(rèn)為人類訓(xùn)練救援犬本身進(jìn)行的便是道德行為,人類才是道德行為的主體。問(wèn)題在于救援犬在道德活動(dòng)中成為代理人,是整個(gè)道德活動(dòng)的執(zhí)行者,起到了道德代理主體的作用,人類在過(guò)程中扮演的不是具體道德行為的執(zhí)行者,而是道德活動(dòng)解決的策劃者。不可否認(rèn),該道德活動(dòng)由人和代理人共同完成,缺一不可。換言之,假如救援犬沒(méi)有完成道德行為,訓(xùn)練救援犬的人也不會(huì)受到社會(huì)道德譴責(zé),救援人員也不應(yīng)該承受這份責(zé)任譴責(zé)。施惡者是自然災(zāi)害,本身沒(méi)有責(zé)任主體,倘若救援犬救出受害人是完成道德活動(dòng),社會(huì)將表?yè)P(yáng)救援人員和救援犬。沒(méi)有道德責(zé)任仍然可以有道德代理關(guān)系,即使道德行為沒(méi)有責(zé)任,只有義務(wù)和能力。[3]48-49因此,至少我們可以認(rèn)為道德主體不是人類的專有屬性,道德主體是實(shí)現(xiàn)道德活動(dòng)的主要完成者,包括人和道德代理人。
道德主體是否具有生物屬性?常規(guī)范疇內(nèi)人是道德主體,技術(shù)物具有機(jī)械性和生物性。倫理學(xué)對(duì)道德價(jià)值中心的概念不斷從狹義變?yōu)閺V義,從人類擴(kuò)大到生物圈。[4]布萊恩·阿瑟(Brian Arthur)在其著作《技術(shù)的本質(zhì)》中提到:“技術(shù)具備能使我們聯(lián)想到生物的某些屬性,當(dāng)它們感知環(huán)境并產(chǎn)生反應(yīng),當(dāng)它們變得可以自組裝、自構(gòu)成、自修復(fù)并能夠‘認(rèn)知’的時(shí)候,它們就越像生物了。技術(shù)越復(fù)雜、越‘高技術(shù)’,就越具有生物性?!盵3]232[5]諾伯特·維納(Norbert Wiener)提出的控制論觀點(diǎn)中指出:“生物體的結(jié)構(gòu)是一個(gè)可從中預(yù)期性能的表象,從理論上講,如果我們能夠制造一臺(tái)機(jī)器,它的機(jī)械結(jié)構(gòu)能夠復(fù)制人類生理結(jié)構(gòu),那么,我們就可以有一臺(tái)機(jī)器,它能復(fù)制人類的智力能力?!盵6]2002年米格爾·尼科萊利斯(Miguel Nicolelis)實(shí)現(xiàn)了“意念控制”的動(dòng)物實(shí)驗(yàn),將一名叫貝拉的猴子腦中的一年活動(dòng)通過(guò)腦機(jī)接口導(dǎo)入到機(jī)械臂,并控制機(jī)械臂的運(yùn)動(dòng)行為。隨著基因組研究和納米技術(shù)的發(fā)展,生物正在變成技術(shù)。與此同時(shí),從技術(shù)進(jìn)化的角度看,技術(shù)也正在變?yōu)樯?。兩者已?jīng)開(kāi)始接近并糾纏在一起了。[3]225
當(dāng)技術(shù)物的道德主體還原至生物層面是否仍未徹底?伴隨技術(shù)哲學(xué)的倫理轉(zhuǎn)向和道德主體概念的語(yǔ)義下行,無(wú)生命體的技術(shù)物被認(rèn)為同樣具有道德意蘊(yùn)。技術(shù)物這些從起源上與自然物體迥異的物體似乎已經(jīng)變成了自然物體。例如人們常常忽視人類賴以居住的建筑物,其密度將影響人們患抑郁癥的程度。布魯諾·拉圖爾(Bruno Latour)通過(guò)賦予物質(zhì)的人工物以道德屬性來(lái)試圖跨越人與非人實(shí)體之間的界限。如減速帶、紅綠燈、安全帶等技術(shù)物,設(shè)計(jì)者賦予這些技術(shù)物以道德代理人的身份,通過(guò)物質(zhì)框架層面調(diào)節(jié)道德活動(dòng),幫助使用者遵守交通規(guī)范及道德活動(dòng)。學(xué)者們對(duì)道德主體的定義逐漸從人擴(kuò)展到生命體甚至到無(wú)生命體。從德國(guó)古典哲學(xué)家康德的人作為理性道德主體,動(dòng)物倫理學(xué)家彼得·辛格(Peter Singer)的動(dòng)物同樣具有道德地位,到環(huán)境倫理學(xué)之父霍爾姆斯·羅爾斯頓(Holmes Rolston)從內(nèi)在價(jià)值判斷道德主體,這些討論認(rèn)為道德行為體所承受道德責(zé)任的程度不同,對(duì)應(yīng)著不同屬性的道德主體,認(rèn)為存在人、物、環(huán)境等不同道德主體。
誠(chéng)如維貝克(P. P. Verbeek)的觀點(diǎn),一旦我們發(fā)現(xiàn)道德并不是人類特有事物時(shí),物質(zhì)“介入”關(guān)于主體的道德判斷就不能被視為對(duì)“自由意志”的污染,而是道德的中介。被調(diào)節(jié)的行動(dòng)不是無(wú)道德的而是道德在我們的技術(shù)文化中發(fā)現(xiàn)自己的重要場(chǎng)合。[7]48阿爾伯特·伯格曼(Albert Borgmann)在其著作《真實(shí)的美國(guó)倫理》中講到,當(dāng)物品或?qū)嵺`從參與的時(shí)間、地點(diǎn)中分離出來(lái)的時(shí)候,它就獲得了道德的商品化,變成了一個(gè)不受約束的客體。[7]60諾伯特·維納認(rèn)為機(jī)器和人類一樣,是一個(gè)通過(guò)它們自身部分與外部世界的相互作用而具有解釋能力的物質(zhì)實(shí)體。機(jī)器的工作部件是金屬、塑料、硅和其他材料的“集合”,而人類的工作部件是精巧的小原子和分子。[8]13
隨著人工智能技術(shù)的發(fā)展,技術(shù)現(xiàn)象學(xué)者開(kāi)始從人的本體屬性入手。既然能夠承擔(dān)責(zé)任的道德行為者可以成為道德主體,倘若技術(shù)物可以成為道德行為的承擔(dān)者,是否可以認(rèn)定為道德主體呢?拉圖爾采用類似“語(yǔ)意上行”的方法將世界分為人與非人,以消解主客二元的強(qiáng)對(duì)稱框架,用弱對(duì)稱原則重新探討道德主體,將技術(shù)物歸類于非人屬性中,甚至認(rèn)定人工智能物具有類人屬性,人與非人的界限隨著人工智能技術(shù)的程度而發(fā)生變化。技術(shù)哲學(xué)荷蘭學(xué)派阿特胡斯(Hans Archterhuis)和維貝克等人提出了“道德物化”的觀點(diǎn),認(rèn)為技術(shù)人工物具備道德主體的屬性,嘗試探索技術(shù)物的“倫理轉(zhuǎn)向”和“設(shè)計(jì)轉(zhuǎn)向”。
然而,傳統(tǒng)意義上講道德主體自由是指道德主體在道德實(shí)踐中根據(jù)自身意志或愿望作出道德選擇的自由。[9]其中暗含了人是道德自由選擇的主體,但隨著人工智能學(xué)習(xí)技術(shù)物的發(fā)展,如計(jì)算機(jī)或智能機(jī)器人,在從事道德實(shí)踐時(shí),也會(huì)按照既定的程序預(yù)設(shè)或自主學(xué)習(xí)進(jìn)行道德自主選擇,傳統(tǒng)道德自由的定義的解釋存在一定的局限性。因此,道德主體不完全指代人,還存在道德代理人的可能性,如計(jì)算機(jī)或智能機(jī)器人等。誠(chéng)如工程師大衛(wèi)·比靈頓(David Billington)所講,人們談?wù)摷夹g(shù)時(shí),他們通常指的是現(xiàn)代工程的產(chǎn)物:計(jì)算機(jī)、發(fā)電設(shè)備、汽車、核武器,而非兼具道德意義的技術(shù)。
與此同時(shí),伴隨計(jì)算機(jī)技術(shù)、基因技術(shù)、納米技術(shù)、神經(jīng)技術(shù)等會(huì)聚技術(shù)的發(fā)展,人類對(duì)道德主體的認(rèn)識(shí)開(kāi)始發(fā)生轉(zhuǎn)變。認(rèn)為道德主體不一定是道德實(shí)體,具有道德意向性和道德行為的技術(shù)物均可視為道德主體,智能機(jī)器人和智能軟體等都具備該條件,同樣可以稱為道德主體。斯洛曼(Aaron Sloman)將機(jī)器納入到道德主體的范疇,丹尼爾森(Peter Denielson)和霍爾(Josh Storrs hall)認(rèn)為智能機(jī)器具備道德主體地位,福斯特(Heinz von Foerster)引入了“道德智能主體”概念,布瑞(Philip Brey)提出了“準(zhǔn)道德主體”的概念[10],弗洛里迪(Luciano Floridi)和桑德斯(Sanders)直接將智能機(jī)器認(rèn)定為道德主體[11]等。諸多學(xué)者嘗試突破或拓展既有概念的固化現(xiàn)象,嘗試性地給予新技術(shù)客觀發(fā)展?fàn)顟B(tài),以合理對(duì)話的空間,用其框架內(nèi)類似道德主體自由的概念范疇,探索其道德自由的邊界。
因此,筆者認(rèn)為技術(shù)物的道德主體自由一定程度上成就了人的道德主體性,承擔(dān)了人類在日常生活中低技術(shù)物的道德活動(dòng)主體,成為人類道德活動(dòng)的代理人。但隨著技術(shù)物的更新迭代,道德代理人的主體性逐漸增強(qiáng),技術(shù)程度越高代理人的道德自主性越強(qiáng)。如微波爐的發(fā)明把女性從廚房中解放出來(lái),但同時(shí)也消解了一家人圍繞廚房準(zhǔn)備晚餐的幸福回憶,將道德價(jià)值轉(zhuǎn)化為了經(jīng)濟(jì)價(jià)值,促使技術(shù)物商品化,消解了設(shè)計(jì)者既定的預(yù)設(shè)場(chǎng)景。但在“裝置范式”的規(guī)則下將人的主體性解放出來(lái),一定程度上脫離了持存者的角色,去從事更為復(fù)雜的道德活動(dòng),人與技術(shù)物共同成就了道德主體的自由現(xiàn)象。
瑪吉·博登(Maggie Boden)認(rèn)為人工智能技術(shù)物能夠把人類從單調(diào)乏味的工作中解放出來(lái),去追求更加人文性的活動(dòng)。社會(huì)科學(xué)家巴蒂雅·弗里德曼(Batya Friedman)和皮特·卡恩(Peter Kahn)認(rèn)為使用者把支持工具當(dāng)成拐杖,用機(jī)器的輸出代替自己的判斷思考。例如醫(yī)生通過(guò)儀器診斷病人時(shí),某種情況下的生死抉擇依靠機(jī)器的信息輸出,技術(shù)權(quán)利削減了醫(yī)生的自主性,醫(yī)生遵從機(jī)器對(duì)患者做出的評(píng)估。此時(shí),責(zé)任承擔(dān)者是機(jī)器還是醫(yī)生?機(jī)器的輸出結(jié)果貌似直觀可信,那么機(jī)器越會(huì)像人一樣體現(xiàn)真正的道德智能,人們默認(rèn)該技術(shù)擁有道德責(zé)任和技術(shù)權(quán)利。因此,人類賦予技術(shù)物的技術(shù)權(quán)利和道德責(zé)任,某種程度上與技術(shù)物的工具屬性不匹配,人類甚至主動(dòng)放棄道德責(zé)任,寄托于技術(shù)物身上,將道德責(zé)任和技術(shù)權(quán)利綁定在一起。亞里士多德反對(duì)在某種恰當(dāng)?shù)囊饬x上認(rèn)為人工物具有本質(zhì)的觀點(diǎn),例如形式和物質(zhì)真實(shí)之間的結(jié)合體方面。一個(gè)成熟的道德智能體是一個(gè)認(rèn)識(shí)到不同觀點(diǎn)會(huì)產(chǎn)生不同偏好分級(jí)的個(gè)體。這個(gè)不同的偏好可能無(wú)法以一個(gè)完全中立、獨(dú)立于任何觀點(diǎn)的方式得到解決。[2]52
另外,溫德?tīng)枴だ吆眨╓endell Wallach)和科林·艾倫(Colin Allen)從自主性維度和敏感性維度,將技術(shù)物的道德分為兩種,即“操作性道德”和“功能性道德”。處于維度低端的機(jī)器系統(tǒng)僅僅具有操作性道德,在設(shè)計(jì)者和使用者層面可以解決。當(dāng)設(shè)計(jì)進(jìn)程在充分考慮倫理價(jià)值的前提下進(jìn)行時(shí),“操作性道德”完全掌控在技術(shù)物設(shè)計(jì)者與使用者的手中。隨著機(jī)器演變的復(fù)雜程度,一種“功能性道德”在技術(shù)上變得可能,它可以使機(jī)器自身有能力接近并相應(yīng)的道德挑戰(zhàn)。[3]12一方面,技術(shù)是自組織的。它可以通過(guò)某些簡(jiǎn)單規(guī)則自行聚集起來(lái);另一方面,技術(shù)是組我創(chuàng)生的,通過(guò)這些來(lái)衡量技術(shù)本身。技術(shù)確實(shí)是有生命的,不過(guò)它們只是珊瑚礁意義上的有機(jī)體,其構(gòu)建和繁衍還依然需要人類作為代理人。[3]210[5]但隨著計(jì)算機(jī)和生命科學(xué)技術(shù)的發(fā)展,科學(xué)家研發(fā)出“生成式”的人-機(jī)接口,使用者通過(guò)全感官的方式參與其中,擴(kuò)展操作性和功能性之間的道德邊界。
筆者認(rèn)為在技術(shù)現(xiàn)象哲學(xué)的“國(guó)度”里,技術(shù)物的道德意向性約等于經(jīng)典哲學(xué)世界里的道德屬性,技術(shù)現(xiàn)象哲學(xué)將經(jīng)典哲學(xué)框架內(nèi)的道德標(biāo)準(zhǔn)擴(kuò)充到技術(shù)物的范疇內(nèi),采用語(yǔ)義下行的方式,削弱了人作為道德屬性的專屬權(quán),擴(kuò)展到非人領(lǐng)域的技術(shù)物中,以此換取人類在快速發(fā)展的技術(shù)世界的道德話語(yǔ)權(quán)。用技術(shù)物的道德自由約束技術(shù)物的行為規(guī)范,同時(shí)包括設(shè)計(jì)技術(shù)物的設(shè)計(jì)者和使用者。不能簡(jiǎn)單地認(rèn)為技術(shù)物不具有道德權(quán)利,將其肆意擴(kuò)張至人類不可控的視域,走向人類中心主義陷阱。另外,也不能夸大技術(shù)物的道德自由,綁架人類道德權(quán)利,走向技術(shù)中心主義陷阱。因此,技術(shù)物的道德活動(dòng)建立在技術(shù)權(quán)利和道德自由的雙重約束之下。
艾薩克·阿西莫夫(Isaac Asimov)針對(duì)機(jī)器人提出了三定律:第一,機(jī)器人不可以傷害人,或者因?yàn)椴蛔鳛樽屓魏稳耸艿絺?;第二,機(jī)器人必須遵從人的指令,除非該指令與第一定律相沖突;第三,機(jī)器人必須保護(hù)自己的生存,條件是那樣做不和第一、第二定律沖突。[2]1隨后又補(bǔ)充了第四定律,即機(jī)器人不得傷害人類,或者因?yàn)椴蛔鳛樽屓祟愂艿絺?。雖然阿西莫夫在小說(shuō)中這樣描述,現(xiàn)階段機(jī)器人技術(shù)還未發(fā)展至科幻電影中那般程度,但某種程度上也反映了真實(shí)世界的訴求,說(shuō)明人類還是擔(dān)心類似機(jī)器人這種高技術(shù)物威脅到人類的安全,才會(huì)使一部分倫理學(xué)家有所擔(dān)憂。歷史總是似曾相識(shí),在攝影技術(shù)誕生初期,也曾存在攝影術(shù)能夠攝取人的魂魄的說(shuō)法,但隨著攝影技術(shù)的快速發(fā)展,形形色色的攝影技術(shù)的產(chǎn)物進(jìn)入人們的日常行為活動(dòng)中??梢?jiàn),技術(shù)科學(xué)家和哲學(xué)家們爭(zhēng)議的點(diǎn)在于看待技術(shù)本身的角度不同,哲學(xué)家認(rèn)為技術(shù)本身具有社會(huì)性,技術(shù)物的使用會(huì)影響人類的日常行為,而技術(shù)科學(xué)家認(rèn)為技術(shù)屬于物理結(jié)構(gòu)和技術(shù)功能的范疇,在物質(zhì)框架下進(jìn)行的工具性活動(dòng)。但雙方均保留了溝通的空間,不斷揭示它們隱含多元化的、生成性的潛在風(fēng)險(xiǎn)和價(jià)值承諾。
技術(shù)物的道德自由性長(zhǎng)期受到二元框架下的質(zhì)疑,但在后現(xiàn)代技術(shù)現(xiàn)象學(xué)討論的范疇內(nèi),技術(shù)物的道德自由性建立在去中心化的框架下,消解了主體與客體強(qiáng)對(duì)稱的現(xiàn)象,也消解了道德主體和道德客體的表述。用技術(shù)物的道德意向性來(lái)代替道德主體性,用人與非人來(lái)區(qū)分主體和客體,用弱對(duì)稱性代替強(qiáng)對(duì)稱性,試圖突破語(yǔ)言學(xué)上意義建構(gòu)的桎梏。據(jù)英國(guó)《快報(bào)》(Express)2019年2月18日最新報(bào)道,哥倫比亞大學(xué)的創(chuàng)造性機(jī)器實(shí)驗(yàn)室構(gòu)造的機(jī)器人,出現(xiàn)自我修復(fù)意識(shí)的苗頭。[12]另外,阿特拉斯機(jī)器人(Atlas robot)可以根據(jù)外部環(huán)境自主調(diào)整和修正自身數(shù)據(jù),處理各種復(fù)雜的外部情況。[13]
因此,隨著技術(shù)物的智能程度不同,技術(shù)權(quán)利的道德自由程度存在差異。人類可以控制弱技術(shù)物的行為方式,在經(jīng)典技術(shù)哲學(xué)框架下,弱技術(shù)物不具備道德屬性中的能動(dòng)性,因此沒(méi)有道德自由,僅僅在人的參與下助推道德活動(dòng)。但在后現(xiàn)象學(xué)的框架內(nèi),強(qiáng)調(diào)弱技術(shù)物能動(dòng)性中的“能”,從意向性的能力和趨勢(shì)定義弱技術(shù)物具有道德意蘊(yùn),可以納入道德自由的范疇內(nèi),用一種弱對(duì)稱的關(guān)系將技術(shù)物納入到道德自由可探討的范圍。雙方均認(rèn)同弱技術(shù)物也會(huì)塑造人的認(rèn)知和行為方式,分歧在于對(duì)弱技術(shù)物道德自由程度的界定。高技術(shù)物的技術(shù)權(quán)利自由存在不可控的潛在風(fēng)險(xiǎn),弱技術(shù)物的技術(shù)權(quán)利自由偏隱性狀態(tài),需要人的參與才能促發(fā)其技術(shù)權(quán)利的自由勢(shì)能。
誠(chéng)如摩爾定律所認(rèn)為的那樣,伴隨著技術(shù)革命,社會(huì)影響增大,倫理問(wèn)題也增加。因此,采用技術(shù)物的背后存在一種社會(huì)塑造的張力,改變?nèi)说钠沸泻鸵庾R(shí),甚至培養(yǎng)出一種前所未有的行為習(xí)慣,存在一種未知技術(shù)權(quán)利塑造下的技術(shù)社會(huì)景觀。人類的自主性和對(duì)技術(shù)依賴之間有哲學(xué)的張力。正如信息技術(shù)基于邏輯延展性,基因技術(shù)基于生命延展性,納米技術(shù)基于材料延展性,神經(jīng)技術(shù)基于心靈延展性,這些被稱為會(huì)聚技術(shù)(NBIC)的技術(shù)物擁有建造新物體、新環(huán)境甚至新思維的能力。[14]一步步突破既有框架的限制,在既有框限范圍進(jìn)行插件式的修復(fù),無(wú)論外置式的“道德物化”,還是內(nèi)置式的“道德中介”,都嘗試將技術(shù)物的道德自由“修復(fù)”,完成現(xiàn)代化語(yǔ)境意義上的“道德自由”。
荷蘭技術(shù)哲學(xué)家克洛斯(Peter Kroes)和梅耶斯(Anthonie Meijers)提出技術(shù)物的結(jié)構(gòu)-功能的“二重性”,通過(guò)物理結(jié)構(gòu)指向技術(shù)功能完成技術(shù)物的設(shè)計(jì),用物質(zhì)框架設(shè)計(jì)出非物質(zhì)框架下的技術(shù)功能,幫助人類完成某些道德行為活動(dòng),如機(jī)器、家電、建筑等。在工程視角下設(shè)計(jì)的技術(shù)物,遵循技術(shù)物的弱準(zhǔn)則自由,工程師或設(shè)計(jì)師給予弱技術(shù)物自由的限度,以替代人類的勞動(dòng)活動(dòng),釋放人類身體的部分自由。弱技術(shù)物憑借物質(zhì)框架約束,同樣起到強(qiáng)制性的道德約束,如道路隔石墩憑借其物質(zhì)屬性和強(qiáng)制性功能,成為強(qiáng)制性調(diào)節(jié)的道德產(chǎn)物。
另外,詹姆斯·穆?tīng)枺↗ames Moor)將倫理智能體分了四個(gè)層次,第一層次為“倫理效果智能體”,技術(shù)物所顯現(xiàn)的倫理意向性造成的倫理影響均可歸為此類。第二層次為“隱含式倫理智能體”此類技術(shù)物設(shè)計(jì)者可以在技術(shù)設(shè)計(jì)方面保障其安全性,不存在負(fù)面的倫理影響。第三層次為“顯現(xiàn)式倫理智能體”,此類可以通過(guò)內(nèi)置程序進(jìn)行倫理約束。第四層次為“完備倫理智能體”,此類技術(shù)物可以進(jìn)行道德判斷和道德決策。[2]26-27前兩種智能技術(shù)物倫理層次處于弱準(zhǔn)則自由的范圍內(nèi),屬于物質(zhì)框架約束的智能技術(shù)物,后兩種倫理層次屬于強(qiáng)準(zhǔn)則自由的范疇,對(duì)道德活動(dòng)行為具有較強(qiáng)的約束力,技術(shù)物的設(shè)計(jì)和使用能夠在物準(zhǔn)則自由的既定范圍內(nèi)活動(dòng)。
相對(duì)高技術(shù)物而言,弱技術(shù)物不具有獨(dú)立意志,僅能在設(shè)計(jì)和編程的程序范圍內(nèi)實(shí)施行為。人類利用弱技術(shù)物進(jìn)行不良道德行為,人工智能法律研究者劉憲權(quán)稱此行為為“外患”。高技術(shù)物有能力在設(shè)計(jì)和編程的程序范圍外,依靠自己的獨(dú)立意志實(shí)施危害社會(huì)的行為,此情形稱為“內(nèi)憂”。[15]此時(shí),通過(guò)弱技術(shù)物作為道德中介轉(zhuǎn)譯人類的道德活動(dòng),與弱技術(shù)物共同成為“持存者”的道德行動(dòng)體,實(shí)現(xiàn)弱準(zhǔn)則自由下的道德活動(dòng)。
因此,筆者認(rèn)為弱技術(shù)物中的道德價(jià)值逐漸替代道德自由。技術(shù)物弱準(zhǔn)則中的自由消解了人與非人的強(qiáng)對(duì)稱性,將技術(shù)物轉(zhuǎn)化成非人的語(yǔ)境,參與到社會(huì)行動(dòng)者網(wǎng)絡(luò)中,并且弱準(zhǔn)則的技術(shù)物名單不斷擴(kuò)大。技術(shù)物需要在特定的形式下為自己的道德行為負(fù)責(zé),通過(guò)道德自由最大化體現(xiàn)其道德價(jià)值,縮小人類的道德責(zé)任。在技術(shù)物的弱準(zhǔn)則世界中,沒(méi)有哪個(gè)技術(shù)物對(duì)其他技術(shù)物負(fù)責(zé),各自在各自的道德價(jià)值體系內(nèi)行動(dòng),道德責(zé)任將被逐漸消解,轉(zhuǎn)換為道德價(jià)值代替道德自由,成為物準(zhǔn)則世界里道德自由的“貨幣”,人類暫時(shí)成為弱技術(shù)物的管理者,享受其帶來(lái)便利的同時(shí),也相應(yīng)地承擔(dān)著弱技術(shù)物的道德責(zé)任。
技術(shù)物強(qiáng)準(zhǔn)則自由是針對(duì)高技術(shù)物的一種物準(zhǔn)則。常規(guī)弱技術(shù)物在人的參與下形成第三重身份,即以“持存者”的角色助推道德自由活動(dòng)?,F(xiàn)階段的認(rèn)知中,離開(kāi)人的弱技術(shù)物不存在道德自由的概念。但高技術(shù)物自身?yè)碛歇?dú)立思考和意識(shí)判斷的能力,有可能超出康德因果道德律的約束,有很高的能動(dòng)性和破壞能力,并且有無(wú)法約束的自由行動(dòng)力,存在很大隱患,因此,對(duì)高技術(shù)物要實(shí)施強(qiáng)準(zhǔn)則自由的約束。以智能機(jī)器人為例,通過(guò)“寫(xiě)入”道德程序的芯片,控制技術(shù)物的技術(shù)權(quán)利與行為自由。但高技術(shù)物的內(nèi)部路徑的道德“寫(xiě)入”仍然存在一定的風(fēng)險(xiǎn)。2007年10月福斯特-米勒公司將遠(yuǎn)程遙控裝載機(jī)關(guān)槍機(jī)器人送至伊拉克戰(zhàn)場(chǎng)。記者諾厄·沙赫特曼(Noah Shachtman)報(bào)道了在南非機(jī)器人加農(nóng)炮殺死9名士兵,受傷14人的事件,經(jīng)調(diào)查是機(jī)械故障造成,但也有不同看法。佐治亞理工學(xué)院計(jì)算機(jī)專家納德·阿金(Ronald Arkin)2007年獲得美國(guó)陸軍資助,開(kāi)始研發(fā)軟件和硬件幫助作戰(zhàn)機(jī)器人遵守戰(zhàn)爭(zhēng)的倫理準(zhǔn)則。[2]16因此,高技術(shù)物的強(qiáng)準(zhǔn)則自由仍需工程師和政策制定者買單,需有責(zé)任主體和建構(gòu)性評(píng)估程序,參與高技術(shù)物的強(qiáng)準(zhǔn)則自由框限權(quán)力制定。
但筆者認(rèn)為科學(xué)家試圖通過(guò)更高級(jí)的技術(shù)去解除由高技術(shù)物產(chǎn)生的焦慮,存在自相矛盾性,它引出了對(duì)技術(shù)的迷戀和自由技術(shù)引起的焦慮之間某種張力。這可能是因?yàn)槲磥?lái)學(xué)家通常都害怕技術(shù)會(huì)脫離人類控制,更可能是因?yàn)閾?dān)憂這種技術(shù)會(huì)揭露人類自身的一些問(wèn)題。[2]30技術(shù)集合通過(guò)采用或者丟棄某些技術(shù),創(chuàng)造某些機(jī)會(huì)利基,以及揭示一些新現(xiàn)象來(lái)實(shí)現(xiàn)進(jìn)化。[3]229技術(shù)的建構(gòu)不僅來(lái)自已有技術(shù)的組合,還來(lái)自對(duì)自然現(xiàn)象的捕捉和利用。我們必須關(guān)注人類,特別是人類思維在這一組合過(guò)程中的巨大作用。新技術(shù)先是精神的建構(gòu),之后才是物質(zhì)的建構(gòu)。我們必須弄清楚技術(shù)怎樣創(chuàng)造出技術(shù),即新技術(shù)從已有技術(shù)整體中涌現(xiàn)出來(lái)。[3]18在單個(gè)弱技術(shù)物的層級(jí)上將物準(zhǔn)則自由納入其中,當(dāng)單個(gè)弱技術(shù)物組合成高技術(shù)物時(shí),控制單個(gè)弱技術(shù)物的弱準(zhǔn)則自由,以緩解高技術(shù)物帶來(lái)的強(qiáng)準(zhǔn)則自由的“破功”風(fēng)險(xiǎn)。當(dāng)然,試圖用簡(jiǎn)單的數(shù)變消解質(zhì)變的責(zé)任與風(fēng)險(xiǎn),存在可探討的空間。
正如溫德?tīng)枴だ吆蘸涂屏帧ぐ瑐愒谄渲鳌兜赖聶C(jī)器:如何讓機(jī)器人明辨是非》中所講的,“在構(gòu)建道德決策機(jī)器方面,我們是依然沉浸在科幻世界里,或者更糟,打上那種時(shí)常伴隨人工智能科學(xué)狂想的烙印嗎?只要我們還在做著關(guān)于人工道德智能體(AMAs)時(shí)代的大膽預(yù)言,或者還在聲稱會(huì)走路、會(huì)說(shuō)話的機(jī)器將取代目前作出道德指引的人類‘只是時(shí)間問(wèn)題’,這樣的指責(zé)就是合適的?!盵2]4當(dāng)我們否定技術(shù)物不具有道德自由時(shí),某種程度上限制了類似人工智能技術(shù)的發(fā)展,被人工智能體無(wú)法為其行為負(fù)道德責(zé)任的倫理陷阱所局限。責(zé)任和道德不能夠在司法體系混為一談,人工智能體有足夠的信息量、“智能”、自治,只是技術(shù)物道德自由程度和技術(shù)發(fā)展時(shí)間問(wèn)題。相反,將技術(shù)物的道德自由概念納入到新型倫理學(xué)范疇,更有利于新興技術(shù)的快速發(fā)展,從技術(shù)產(chǎn)生就植入道德自由與責(zé)任,對(duì)趨同于人類的技術(shù)物發(fā)展更有利。