任 然, 楊 瓊
(1. 弗林德斯大學 商政法學院/南開大學 經(jīng)濟與社會發(fā)展研究院,天津 300071;2. 云南師范大學 馬克思主義學院,云南 昆明 650500)
道德培育是人類社會的一項永恒主題。傳統(tǒng)方式,如學校教育、宗教感化、文學熏陶、冥想禱告等,往往收效緩慢。小至欺詐、誹謗,大至腐敗、種族主義、謀殺等不良道德或惡性犯罪現(xiàn)象依舊充斥在我們的社會。有人可能會反駁,道德水平的差異是人類社會本身所攜帶的,無法消除。而且正是這種差異性,某種程度上造就了人格的多樣性。誠然,我們并不反對這樣的觀點,也不奢求人人都成為道德圣人,只是希望能探索一種可行的方式輔助我們做出道德決策,間接提升人類的道德水平。我們?nèi)缃衩鎸Φ氖且粋€更加多樣化的世界,全球化愈加深入,科技日新月異,人類道德有限性的后果變得越發(fā)嚴重。面對環(huán)境危機,以及最近在基因工程、人工智能和網(wǎng)絡(luò)技術(shù)方面的突破,更加強了人類倫理進化的必要性。道德心理發(fā)展規(guī)律通常只在小群體中保持有效性,對于許多現(xiàn)代問題,如氣候變化和環(huán)境治理這類全球集體行動問題,人類道德還未進化到能夠應(yīng)對如此大規(guī)模的社會挑戰(zhàn)。人類社會面臨著前所未有的威脅與挑戰(zhàn),對道德增強(moral enhancement)(75)道德增強是提高道德認知、道德動機和道德行為的一項系統(tǒng)性工程。議題的關(guān)注顯得尤為迫切。因此,人類追求某種形式的道德增強將是一項至關(guān)重要的應(yīng)對措施。有人認為我們可以通過學習道德推理達成,事實上,單純調(diào)用我們自身的道德理性似乎有著天然的缺陷,大多數(shù)的道德觀點和決策都建立在即時的情感反應(yīng)和直覺反應(yīng)的基礎(chǔ)之上,而非我們所希望的理性和深思熟慮的方式。當我們做出道德決策后,所采用的道德推理通常只是用來合理化直覺相信的東西。還有人認為我們可以利用生物醫(yī)學技術(shù)增強人類道德,但是目前這一領(lǐng)域還不成熟,采用這種方式風險較大,頗具爭議。那么,我們能否借助外部手段,比如人工智能,輔助我們做出道德決策,進而達成道德增強的目標,這是一條值得探討的研究進路。
道德進化心理學認為,人類適合生活在規(guī)模小但關(guān)系緊密的群體中,這樣可以獲得許多繁衍和生存方面的優(yōu)勢,包括公共托兒、共享食物等資源,以及更好地抵御自然災(zāi)害。然而,只有當個人更傾向于合作的時候,才能享有這些優(yōu)勢。如果所有的個體根據(jù)自己的利益行事,個人利益在短期內(nèi)會得到滿足,但長此以往群體利益會受影響,個人利益也終會受損。因此,在最基本的層面上,群體內(nèi)部的分享和合作,將促進社群朝著包容性的健康方向發(fā)展。這是道德演化的總體趨勢[1]。在總體的道德演進趨勢中,有各種各樣的制約因素。例如,我們都反感的“搭便車行為”(free-ride),這種行為有損群體內(nèi)部的長期合作。搭便車的效果取決于群體的規(guī)模,群體規(guī)模相對較小,搭便車非明智之舉。隨著群體規(guī)模的擴大,個體的匿名性越來越強,搭便車行為也越來越難以察覺[2]。故而在較大規(guī)模的群體中,為了群體利益而合作的道德傾向也會相應(yīng)地減弱。
由于在小而緊密的群體中,我們更在意所處的直接環(huán)境。這樣便使得我們傾向于更關(guān)心周圍的人,而不是那些在空間或時間上更遙遠的人。此外,根據(jù)親緣選擇理論,我們的利他傾向體現(xiàn)在對家人和朋友的偏愛。由于生物體的近親擁有一些相同的基因,因此基因可以通過促進相關(guān)個體或其他類似個體的繁殖和生存來提高進化的成功率[3]。我們慢慢形成了一個普遍的共識,不加區(qū)別地幫助陌生人,會使我們面臨被搭便車者利用或者被受助者敲詐的風險。此外,從群體間競爭的角度來看,建立明確的群體界限,對于凝聚和疏導群體行為,無疑是大有助益的[4]。但另一方面,這種強烈的群體認同和依戀也會產(chǎn)生弊端,包括對外部群體成員的強烈憎恨,導致反社會行為和仇外心理。
全球化進程逐漸將人類社會變成“地球村”,在這個超大的社群中,人類道德有限的危害還表現(xiàn)在其他方面。根據(jù)心理學中“責任分散效應(yīng)”(旁觀者效應(yīng),by stander effect),當要求個體單獨完成任務(wù),該個體就會表現(xiàn)出很強的責任感,但如果要求一個群體共同完成任務(wù),群體中每個個體的責任感就會變?nèi)?。俗語有云,“一個和尚挑水喝,兩個和尚抬水喝,三個和尚沒水喝”。所以在那些需要得到幫助的弱勢群體面前,社群的規(guī)模越是龐大,社群中的個體往往越發(fā)冷漠。當面對全球性難題時,“責任分散效應(yīng)”便顯露無疑。例如,很難讓群體中的單個主體自愿采取行動避免環(huán)境危機,每個主體對總體結(jié)果的貢獻變得微不足道或難以察覺。這使得主體幾乎沒有利他甚至利己的理由和動機為解決方案作出貢獻。長此以往,不利于解決環(huán)境危機和氣候變化難題。
人類道德有限性的后果在現(xiàn)代社會愈加凸顯。人類在進化過程中已具備的適應(yīng)性,不足以讓我們應(yīng)對現(xiàn)代全球化所帶來的技術(shù)挑戰(zhàn)。事實上,科學技術(shù)的發(fā)展已經(jīng)從根本上改變了我們的生活條件和生存方式。我們現(xiàn)在生活在一個人口基數(shù)龐大的社會中,擁有先進的科學技術(shù),這些技術(shù)使我們能夠?qū)θ澜?,甚至對遙遠未來的人類命運產(chǎn)生影響。比如,人類在20世紀研發(fā)并配備了大規(guī)模毀滅性的核武器和生化武器,這些武器可能被主權(quán)國家用于爭奪日益減少的自然資源而引發(fā)戰(zhàn)爭,或者被恐怖分子利用。無論是何種情況,后果都不堪設(shè)想。很顯然,這類技術(shù)帶來的問題無法通過技術(shù)革新來克服。
我們的道德是一種有限的進化方式,有著天然的不足。當考慮在特定情況下權(quán)衡利弊并決定采取何種行動時,我們無法克服這些限制。有人可能會反駁,認為可以調(diào)用理性的道德推理來消除這些缺陷。事實上,對于人類而言,系統(tǒng)的道德推理是極其罕見的,往往是一種幻覺[2]。
綜上,技術(shù)的進步擴大了我們的行動能力,但也帶來了巨大的風險。人類文明比以往任何時候都更加脆弱,我們能否在某種程度上提升人類道德水平,也就在某種程度上影響著社會的安定,甚至影響著人類的命運。通過傳統(tǒng)的道德教化來增強道德,周期漫長,且收效甚微。因此,我們有必要探討道德增強的其他可能進路。
到目前為止,在關(guān)于道德增強的爭論中,焦點主要集中在影響道德增強的生物醫(yī)學手段上。生物醫(yī)學道德增強并非僅停留在科幻小說的層面,由于神經(jīng)科學和生物技術(shù)的進步,我們現(xiàn)在能夠通過直接影響或干預(yù)個體的生物機制來影響其道德思考和行為。這些干預(yù)的目的將是促進對他人的信任和培養(yǎng)合作的愿望??茖W實驗的結(jié)果表明,通過生物醫(yī)學手段提高道德水平是可能的。事實上,許多已經(jīng)在使用的藥物或多或少有道德增強的效果。生物醫(yī)學干預(yù)可以影響道德決策,這些干預(yù)措施包括使用各種物質(zhì),如催產(chǎn)素和血清素,以及各種技術(shù),包括經(jīng)顱磁刺激和提供神經(jīng)反饋[2]。然而,從目前的報道來看,生物醫(yī)學干預(yù)效果不顯著且持續(xù)時間短。
在生物醫(yī)學干預(yù)的問題上,一些學者認為,自愿實施這些干預(yù)措施在道德上是允許的或可取的,主要以牛津大學的托馬斯·道格拉斯(Thomas Douglas)和華盛頓大學的戴維·德格拉齊亞(David DeGrazia)為代表。另外一些人則認為,這些干預(yù)措施非常緊迫,如果我們作為一個物種要生存下去,則需要強制性的干預(yù)。主要以英格瑪·佩爾松(Ingmar Persson)和朱利安·薩烏列斯庫(Julian Savulescu)為代表[5]。
上述兩種觀點代表了生物醫(yī)學增強的兩條進路:自愿道德生物增強(VMBE)與強制道德生物增強(CMBE)形成了鮮明的對比。還有學者討論了第三種可能的道德生物增強類型:非自愿道德生物增強(IMBE)。例如,基因組編輯以增強未出生胎兒的道德,這既不是自愿的,也不是強制性的,而是非自愿的。非自愿道德生物增強可能會使人們變得比原本更有道德,也評估了旨在提高我們后代道德水平的基因組編輯的可能性。對我們的后代進行基因改造的基因組編輯可能在三個方面發(fā)揮效果:讓他們更有同理心、更少暴力攻擊、更有可能進行復雜的道德反思[6]。有學者指出,像基因組編輯這樣的非自愿道德生物增強,再結(jié)合自愿道德生物增強,可能是人類必須變得更好的最佳選擇。
盡管人類使用生物醫(yī)學技術(shù)可能會改變?nèi)祟惖哪承┑赖虑楦?,但要從根本上提高一個人的道德動機,做出更好的道德行為,獲得明顯的道德品質(zhì)提升,道德增強還將面臨著巨大的挑戰(zhàn),甚至是一些無法逾越的困難。首先,道德情感難以量化的特點使道德增強變得異常困難。其次,道德心理表現(xiàn)出的個體發(fā)育的復雜性以及神經(jīng)心理的復雜性給道德增強準確的“目標干預(yù)”(targeted intervention)帶來嚴峻的挑戰(zhàn)。第三,道德多元化使我們對道德增強的可能性產(chǎn)生懷疑。最后,如果科學家將來可以做到安全有效地運用生物醫(yī)學技術(shù)精確地調(diào)節(jié)人的情感,道德增強是不是就沒有問題了呢[7]?
即便這些生物干預(yù)措施不會對人體健康造成不利影響,生物醫(yī)學增強道德也會引發(fā)一些深層次的哲學討論。如果說器官移植技術(shù)開啟了個人同一性問題,那么道德和認知增強便將這個議題引得更遠。當我們選擇認知增強技術(shù)和道德增強技術(shù)時,我們的個人同一性是否受損?即使這種增強技術(shù)的效果是暫時的,是否會出現(xiàn)短暫的個人同一性“紊亂”。長期且頻繁地使用這類技術(shù),對個人同一性將產(chǎn)生異常深遠的影響[8]。此外,像基因組編輯這樣的非自愿道德生物增強一旦開啟,誰能保證不會再次發(fā)生“賀建奎事件”呢?
我們從主體道德神經(jīng)或情緒增強的角度考察道德增強,道德主體在某種程度上受到生物醫(yī)學技術(shù)的影響或促進,然而生物醫(yī)學技術(shù)在實現(xiàn)道德增強方面的技術(shù)風險未知,發(fā)展前景不明。我們將考察一個鮮有論及的議題:“道德人工智能增強”(moral AI enhancement)。
在我們能夠自信而安全地使用生物醫(yī)學干預(yù)手段來提高道德水平之前,科學家還有大量的工作要做。鑒于此,理論家和科學家在繼續(xù)研究生物醫(yī)學增強的同時,還可以探索一條新的研究進路——道德人工智能(moral AI)[2]。由于道德人工智能增強的目的不是改變我們動機的生物學原因,在不使用生物醫(yī)學技術(shù)干預(yù)的情況下,借助人工智能的最新成果增強人類道德能力,因此風險和爭議將會減少。
玉敏在和雨落交接,聽花奴叫自己,就去了鉆石柜。花奴和玉敏低聲說了,玉敏不相信,兩人把所有鉆石又逐個核對了一遍,證實了花奴的猜想。玉敏賣出去的那枚鉆戒,不是三萬七千五百八,而是三十七萬五千八。就是說,這件三十多萬的鉆戒,被玉敏當作三萬五賣了。當這個事實被無情地證明了時,玉敏傻了,花奴也傻了。連雨落都傻了。羅蘭金店開業(yè)這些年,頭一回遇上這么荒唐的事。雨落問這單誰做的,玉敏剛要開口,花奴說是玉敏做的。李琳正好走過來,聽花奴這么說,小聲對李雪微道,這回不爭了?;ㄅD(zhuǎn)過臉,朝李琳瞪了一眼。李琳伸伸舌,閉了嘴。雨落數(shù)落玉敏,你二百五啊,鉆戒價格不都是幾千幾百的,哪有帶八十零頭的?
我們根據(jù)人工智能輔助道德決策的范圍和方式,將其分為“強”道德人工智能(76)借鑒薩烏列斯庫和馬斯蘭(Hannah Maslen)的“strong moral AI”,謝弗(Owen Schaefer)稱之為“直接道德增強”(direct moral enhancement)。我們采用前者,并在后面相應(yīng)地“制造”和使用了“weak moral AI”。和“弱”道德人工智能。所謂的“強”道德人工智能,就是指將人類的道德決策完全交給機器來完成的徹底增強人類道德的方式。這里的“徹底”意味著一勞永逸地解決人類道德增強的問題。而“弱”道德人工智能則沒有那么激進。在“弱”層面,道德人工智能將監(jiān)控影響道德決策的生理和環(huán)境因素,識別偏見并讓主體意識到自己的偏見,然后根據(jù)主體的道德價值觀,向主體提供行動方向的建議?!叭酢钡赖氯斯ぶ悄茉跒橹黧w量身定制的過程中,不僅能保持道德價值的多元性,還能促使主體進行反思,幫助主體克服自身的自然心理局限,從而增強主體的自主性[2]。
“強”道德人工智能的目標是把機器變成道德決策者。埃里克·迪特里希(Eric Dietrich)是“強”道德人工智能的支持者。他對人類的道德本性持悲觀態(tài)度,對人工智能的前景異常樂觀。迪特里希相信這些機器人在道德決策方面可能掀起一場“哥白尼式革命”。他把這些機器人視為智人的改良版,他稱之為“智人2.0”,它們將是“我們本性中更好的天使”[9],絕大多數(shù)人類無法達到道德決策機器的道德水準和道德推理水平。
雖然迪特里希的建議沒有受到贊譽,但一些學者認為,道德決策機器的發(fā)明是為了提升人類道德決策的水平,而不是讓人類變得多余。道德決策機器的決策將以公正性、一致性和不受情感影響為特征,也不受包括非理性的自我中心或群體偏見等因素的限制。所以人類的決策可以被更擅長道德推理的機器糾正或推翻[10]。此外,道德決策機器不會厭倦對正確標準的持續(xù)判斷。
在“強”道德人工智能進路中,我們唯一需要做的就是服從道德決策機器。根據(jù)迪特里希的提議,科學家試圖通過創(chuàng)造自主的人工智能來增強道德行為,這些人工智能將基于系統(tǒng)設(shè)計者認為有效的道德概念,指導人類的信仰、動機和行為。在最初的方案擬訂完成后,所有人員,包括設(shè)計人員,不需要再發(fā)揮積極的作用。除了把決策權(quán)“外包”給決策系統(tǒng),我們無需任何心理或行為上的努力來達到預(yù)期的改善[11]。人類可以借助直接模式執(zhí)行這些決策直接控制我們的行為,例如通過人機耦合的方式植入大腦芯片,指導我們的行動?;虿捎瞄g接模式,間接地通過一臺制裁任何偏離系統(tǒng)所要求行為的決策機器[5]。
“強”道德人工智能的設(shè)想在目前看來有點近乎于理想主義,這種理想面臨著諸多困境,主要表現(xiàn)為以下幾個方面。首先,由于倫理學中的多元主義的存在,我們很難就哪一種道德方案應(yīng)成為系統(tǒng)設(shè)計的標準達成共識。我們應(yīng)該使用哪種道德理論作為機器遵循的標準?應(yīng)該使用義務(wù)論、功利主義、契約主義、德性倫理還是其他倫理理論?無論選擇哪一種理論,其中一種理論的選擇會導致系統(tǒng)采取不同于基于另一種理論的行動,總會有人持有異議。
其次,即使設(shè)計者能夠就倫理學理論達成共識,我們也可能會因為人為或非人為的限制而無法建立一個良好的系統(tǒng)。這主要源于人類或非人類的易錯性。系統(tǒng)設(shè)計人員可能會犯一些編程錯誤,以及系統(tǒng)運行的突發(fā)性故障。此外,所謂的“價值原則”由非常含混的觀念集合而成,何以確保我們要設(shè)立的價值觀必定是合理不悖。智能系統(tǒng)能否“理解”這些加載的價值觀[12]?即使是純粹的邏輯和理論論證,在嚴格理性的條件下,也可能得出愚蠢的結(jié)論。
第三,我們懷疑這個系統(tǒng)是否能夠成為一個自主的道德體,能否做出道德決策。目前來說,我們不認為任何系統(tǒng)可以被視為自主的道德主體。因此,簡單地按照我們被告知的去做是不可取的。我們承認一些計算機可以模擬或模擬分析判斷是否可靠,但我們捍衛(wèi)道德的觀點取決于做出綜合判斷的能力,而不僅僅是一些數(shù)據(jù)信息的分析,而綜合判斷能力是機器難以具備的。自主的道德主體必定是情感敏感性的,夾雜著一些非理性的沖動。情感的敏感性是做出道德判斷的必要條件,所以我們甚至懷疑機器的道德判斷是否可能。
第四,“強”道德人工智能扼殺了道德進步的可能性,甚至意味著道德的死亡。如果我們讓系統(tǒng)來決策,我們就會得到一個靜態(tài)的道德解釋,因為它只能模擬,而不能做出判斷。所以現(xiàn)在做出的道德判斷在其他時候可能不再被接受。例如,在19世紀某些被廣泛傳播的價值觀,如關(guān)于奴隸制或有色人種的說法放在現(xiàn)在肯定不恰當。同樣的,如今某些根深蒂固的觀點,有一天也有可能會被視為道德問題。因此,如果我們允許人類的決策由系統(tǒng)來執(zhí)行,就基本上放棄了道德改進的可能性。要使道德進步成為可能,道德多元主義就必須存在,從而產(chǎn)生不同意見。我們“外包”道德決策,可能最終會使我們在做出倫理決策時缺乏信心,香農(nóng)·瓦洛(Shannon Vallor)認為這會導致道德技能的喪失。我們就被剝奪了亞里士多德認為的美好生活的一個基本要素:過一種由道德理解主導的生活,這種道德理解是通過實踐而發(fā)展起來的[13]。
上述分析表明,直接模式宣告道德本身的死亡,系統(tǒng)會控制人類的行為,人類會在沒有實際參與的情況下做出決策。如果系統(tǒng)阻礙了人類有意識的推理和理性的思索,人工智能道德徹底增強就是一種短視策略。間接模式也存在類似的問題。在這兩種情況下,機器都可能主宰我們,以至于危及人類的自由和生命。因此,我們認為,最終決策主體應(yīng)該始終獨立于機器。
與其設(shè)計一個人工智能來規(guī)范我們的行為,不如利用環(huán)境智能的不同功能,比如收集、計算和更新數(shù)據(jù),來輔助我們做出更好的決策,從而更好地行動。
既然“強”道德人工智能徹底增強人類道德的進路失效,我們退而求其次,考察“弱”道德人工智能。與“強”道德人工智能不同的是,“弱”道德人工智能需要主體的參與,我們稱之為輔助增強。隨著普適計算和環(huán)境智能的發(fā)展,人工智能意味著“無處不在的計算”或“環(huán)境智能”,即系統(tǒng)從多個傳感器和數(shù)據(jù)庫收集信息,根據(jù)系統(tǒng)用戶訂制需求,進行實時處理。
依照這個思路,薩烏列斯庫提出了兩種方案,主體可以在任何時候以不同的方式對系統(tǒng)提供的價值觀進行排序,或者選擇使用不同版本的系統(tǒng)。第一種方案是在道德人工智能系統(tǒng)中嵌入一個價值觀列表,主體從這個價值觀列表中選擇一些與自己價值觀較匹配的,并對它們的重要性予以權(quán)重排序。當要做出道德決策時,系統(tǒng)會推薦最為符合主體價值觀的道德決策[2]。在第二種方案中,薩烏列斯庫建議道德人工智能系統(tǒng)能夠提供的不同的價值觀版本,主體根據(jù)其價值觀偏好選擇希望采用的版本。這樣更適用特定的人群,能夠反映特定的倫理價值人類主體的約束性需求。例如,基督教的道德專家可以設(shè)計一個“如何成為虔誠的基督徒”系統(tǒng),他們可以在這個系統(tǒng)中設(shè)定約束條件。那些想成為好的基督徒,但又不知道在特定情況下該應(yīng)用什么原則的教眾們,便可以選擇由基督教專家設(shè)計的人工道德顧問,而不用采用系統(tǒng)的其他版本。薩烏列斯庫的方案并非象牙塔中的陳列品,目前已經(jīng)得到了初步的應(yīng)用,如應(yīng)用到醫(yī)學倫理學領(lǐng)域的MeEthEx系統(tǒng),該系統(tǒng)納入了JEREMY程序中的邊沁(Jeremy Bentham)功利主義理論,并混合了羅斯(William Ross)的表面義務(wù)理論(prima facie duty)和羅爾斯(John Rawls)的反思平衡理論(reflexive equilibrium)[14]。
我們認為薩烏列斯庫的方案存在三個問題。首先,主體仍缺乏主觀能動性。一旦主體選擇了他們希望采用的價值觀,主體剩下的惟一決策就是決策是否接受機器給出的建議。我們便又回到了“強”道德人工智能徹底增強的老路子。由于行為人不需要理解他們的價值觀和系統(tǒng)所做的決策之間的理性聯(lián)系,所以他們的道德技能不會得到明顯提升。如果機器停止工作,主體的道德決策能力可能又會回到初始點。我們認為道德人工智能輔助增強重點是幫助決策者成為更好的道德主體,而非僅僅是幫助主體做出正確的決策。其次,主體通過選擇一個價值觀層次結(jié)構(gòu)或通過選擇確定的價值觀框架,就會使主體不再愿意接受更多的可能性。一旦道德主體的價值觀固定下來,那么系統(tǒng)接下來只會推薦符合這些價值觀的決策,而不是鼓勵主體去質(zhì)疑反思。薩烏列斯庫隱約認識到了這一點,他寫道,使用機器可能會鼓勵順從,而不是“更深層次的思考”[2]。此外,雖然上述兩個方案允許多種不同的視角,但我們發(fā)現(xiàn)上述方案存在一個容易被忽視的問題,即在選擇不同版本或系統(tǒng)的人之間如何達成廣泛的平衡或一致。
為了避免走向徹底增強,比起薩烏列斯庫的方案,“弱”道德人工智能輔助增強系統(tǒng)要更加突出主體在決策中的能動作用。我們需要算法來避免機器偏向于特定的價值觀和倫理理論。因此,輔助增強要繞開或超越當前基于特定價值理論開發(fā)的計算模型的趨勢,如已經(jīng)應(yīng)用于工程領(lǐng)域的SIROCCO程序。相反,輔助增強的早期程序的意圖是幫助用戶,而不是給他們一個解決方案。這些早期的程序中,它們的具體目標是幫助用戶通過提出實際問題并進行道德推理。他們從這些問題的視頻開始,試圖邀請用戶進行道德探索。例如,由唐納德·瑟林(Donald Searing)設(shè)計的Ethos項目,旨在配合一份工程倫理手冊,提供有關(guān)某些困境的視頻和采訪,以此激發(fā)用戶提出新問題,并反思自己以前的立場。圣克拉拉大學馬庫拉應(yīng)用倫理中心(Markkula Center for Applied Ethics)開發(fā)的一款“道德決策助理”手機應(yīng)用,用于指導道德決策[5]。類似的程序應(yīng)用還有很多。
輔助增強的早期程序通過主體與系統(tǒng)或程序之間的不斷交互,試圖幫助我們自己做出更好的決策,而不是讓我們接受任何預(yù)先設(shè)計好的倫理觀點。雖然這些早期的人工智能增強的例子關(guān)注的是機器和人類之間的持續(xù)互動,但是輔助增強的早期程序與主體的交互性不是十分的密切和頻繁。由于當時的技術(shù)限制,這些早期程序存在著應(yīng)用范圍小、效果欠佳、交互程度低等缺陷。
隨著人工智能的迅猛發(fā)展,人工智能通過更全面高效的數(shù)據(jù)收集、電子信息化和實時數(shù)據(jù)更新,將使主體能夠更好地做出道德決策。這種改進主要體現(xiàn)在兩個方面。首先體現(xiàn)在質(zhì)量上,在人工智能道德輔助增強的程序或系統(tǒng)中,主體的參與程度更高,參與方式多樣化,參與效率顯著提升。其次,把重點放在主體的道德塑造過程上,而非直接的結(jié)果上。道德人工智能的目的是幫助主體學習道德推理,梳理道德決策流程,探索道德判斷的倫理合理性,而不是讓主體受控依附于特定的價值觀系統(tǒng)或程序。弗朗西斯科·勞拉(Francisco Lara)和簡·德克爾(Jan Deckers)基于人工智能的當前進展和未來發(fā)展趨勢,構(gòu)想了一個雄心勃勃的系統(tǒng),以輔助人類道德決策,并促進實施道德行為。勞拉和德克爾提出了六項指導性條目,我們精而簡之,優(yōu)而擇之,強調(diào)在設(shè)計計算機程序時,應(yīng)考慮以下四個方面的建議。
第一,道德人工智能系統(tǒng)輔助主體進行概念梳理,明晰概念定義。道德判斷經(jīng)常使用沒有明確定義的概念,這些模糊不清的概念會制約判斷的有效性。倫理論證中的許多基本概念具有很強的規(guī)范性元素,這些元素有多種解釋,其知識對于精確捍衛(wèi)道德立場至關(guān)重要。主體并不總能意識到概念意義的多樣性,系統(tǒng)在他們需要幫助的時候,可以給予他們提示。該系統(tǒng)可以從大數(shù)據(jù),如詞典、語法教材、語言使用記錄的交叉信息中獲取這些知識[5]。長此以往,他們在確定任何概念的含義時,都會保持審慎態(tài)度。
第二,道德人工智能系統(tǒng)助力主體理解邏輯論證的結(jié)構(gòu)。道德判斷建立在必須遵循一定邏輯準則的論證基礎(chǔ)上。每種類型的論證,如歸納、演繹、類比……都有一些推理規(guī)則,行為人要么是出于無知,要么是因為某些先入為主的偏見,沒有遵守這些規(guī)則。我們設(shè)計的計算機系統(tǒng)要讓行為人看到他的論點的邏輯缺陷,向他們展示所犯的錯誤,或者通過使用最常見的謬誤集,希望這可以讓他們明白為什么他們的推理是無效的。那么它對道德的增強將是非常有價值的。此外,如果系統(tǒng)能夠根據(jù)賦予行為人所有判斷意義的終極價值標準,警告行為人他們的特定道德判斷需要在倫理上前后一致,為行為人提供一種使其判決前后一致的元標準,而不是將其判決的正當性留給不可調(diào)和的理由。
第三,“環(huán)境”監(jiān)測增強主體對其個人局限性的認識。我們可以利用環(huán)境智能的收集、計算和更新數(shù)據(jù)的功能輔助決策,指導行動。還可以起到很大的提醒作用。借助各種穿戴設(shè)備對施動者的生理、心理狀態(tài)和環(huán)境的監(jiān)測,人工智能系統(tǒng)可以對某些可能影響決策的生物和環(huán)境因素發(fā)出一定的風險預(yù)警。比如道德決策前主體睡眠不足、紊亂的激素和神經(jīng)遞質(zhì)、攝入過已知有害的精神藥物和酒精制品,以及受到高溫、噪聲等環(huán)境因素影響時,系統(tǒng)應(yīng)該提醒主體暫緩決策[2]。
第四,道德人工智能系統(tǒng)就具體問題提出建議。這些軟件或程序可以快速訪問大量數(shù)字化信息,一旦添加了特定的搜索標準,就可以在必須做出復雜決策的領(lǐng)域為人類提供幫助。一些先進的技術(shù)已經(jīng)應(yīng)用到認知決策領(lǐng)域,在商業(yè)和醫(yī)學領(lǐng)域取得了較大進展。人工智能的使用產(chǎn)生了一種被稱為臨床決策支持系統(tǒng)的技術(shù),這是一種用來改善臨床決策信息技術(shù),用來幫助醫(yī)生制定診斷和做出醫(yī)療決策。該軟件錄入患者的癥狀和病情信息,并與醫(yī)學數(shù)據(jù)庫、患者及其家庭病史交叉綜合,得出診斷和相應(yīng)的治療[15]。道德人工智能系統(tǒng)可以參考這個軟件,幫助道德主體如何運用他之前認為有效的道德判斷。道德人工智能系統(tǒng)接收有關(guān)已采取的道德決策的信息,并衡量有關(guān)該決策可能如何影響他人和環(huán)境的相關(guān)信息,然后建議主體如何使其行為道德立場相符[6]。更重要的是,該系統(tǒng)可以利用其強大的數(shù)據(jù)庫資源,讓主體有機會參考其他人碰到類似情形是如何處理的。
簡而言之,道德人工智能系統(tǒng)將通過計算機、虛擬現(xiàn)實設(shè)備或大腦接口接收來自科學、語言學、邏輯學等諸多數(shù)據(jù)庫的信息。在傳感器的幫助下,系統(tǒng)還將監(jiān)測主體的生理狀況和周遭環(huán)境。然后,系統(tǒng)將按照上述思路處理這些信息,通過虛擬語音助手與主體進行對話,類似科幻電影《She》中的虛擬聊天助手。在這個對話中,系統(tǒng)會問一些問題。例如,你使用的這個詞是什么意思?你知道這兩個斷言相互矛盾嗎?你知道這個演繹/歸納/類比論證是無效的嗎?還有其他可能的情形嗎?你是否意識到你目前的身體狀況/環(huán)境不是做出重要決策的最佳環(huán)境?你知道嗎,在這種情況下,你的決策可以像這樣得到最好的執(zhí)行……[5]通過整合虛擬現(xiàn)實,該系統(tǒng)還可以說服我們更認真地對待行為的后果。整個過程貫穿一個思路:道德人工智能系統(tǒng)服務(wù)于道德主體,并且確保道德決策最終由主體做出。
日益全球化的趨勢,以及科技的飛速發(fā)展,造福了人類,同時也帶來了巨大威脅,我們須重新審視人類自古以來追求道德提升的愿望。鑒于我們目前對道德行為的生物決策因素,以及利用生物醫(yī)學技術(shù)影響這些決策因素的風險尚未明確。我們認為,即使道德生物增強是自愿的,為其辯護還為時尚早。我們將焦點轉(zhuǎn)移至人工智能。人工智能不直接干預(yù)我們的身體,可以減少危險和爭議,可能是一個不錯的選擇。我們考察了人工智能的徹底增強和輔助增強兩種進路。在徹底增強中,人類的道德決策權(quán)“外包”給了機器,阻斷了主體道德自我改進的可能性。即便是一些輔助增強項目,例如薩烏列斯庫的方案過分注重結(jié)果而非過程,也可能阻礙我們道德能力的發(fā)展。
我們在“弱”道德人工智能的框架下構(gòu)想了一個新的方案,該方案凸顯了道德人工智能系統(tǒng)輔助主體道德決策的四個面向,強調(diào)主體和計算機輔助之間的交互關(guān)系。在這里,主體的角色是主動性的,系統(tǒng)通過多途徑向主體給予知識性的幫助,實時監(jiān)控主體生理狀況,借助虛擬語言助手向主體提供建議,系統(tǒng)更多起到“專家智庫”的作用,主體在決策之前綜合衡量這些建議??傊黧w在任何階段都不會喪失自主權(quán)。這個助手以蘇格拉底式的方式提出問題并提供相關(guān)信息,幫助人類主體做出更好的道德判斷,鼓勵實施與這些判斷相一致的可實現(xiàn)的行為。通過這種方式,系統(tǒng)既可以幫助主體學習和強化道德決策所要求的認知技能,又可以激勵主體按照他們認為正確的方式行事。
我們認為人工智能系統(tǒng)比人類對話者更勝任“道德專家智庫”。相較于人類,系統(tǒng)具有超凡的運行效率和中立的理性立場,并且具備隨時調(diào)取過去的統(tǒng)計數(shù)據(jù)以及對新情況的即時反應(yīng)的能力,更容易取得用戶的信任[16]。此外,如果對人工智能系統(tǒng)進行定期的重新設(shè)計、更新數(shù)據(jù)、改進算法、提升人機交互的效率,以增強其認知和情感吸引力,比如在系統(tǒng)中加入更多個性化元素,人們也會提升對它們的信任度。
在某種程度上,道德人工智能系統(tǒng)可以幫助人類能夠克服一些自身限制。然而,我們也意識到該方案的局限性。道德人工智能系統(tǒng)不會突然把我們變成完美的道德主體,因為它不能消除我們的動機因素。對比生物醫(yī)學增強技術(shù)而言,人工智能系統(tǒng)的首要特征是輔助,用來彌補我們的認知局限性。有了這項技術(shù),主體可以對什么是正確的做出更精確、嚴謹、一致的判斷。正因為該方案缺乏強制性,所以如果施動者由于強烈的情感或軟弱的意志而拒不接受系統(tǒng)合理的建議,那么人工智能系統(tǒng)就形同虛設(shè)。但我們不可能排除一種可能性,即人工智能的認知輔助可能會間接地改變道德主體的動機和情緒傾向。由于用戶對系統(tǒng)的信賴關(guān)系,人們可能會更加敏感地重新思考他們持有的一些情感立場[5]。系統(tǒng)還向我們展示了支持某些價值觀的論據(jù),讓我們更容易接受新的價值觀。
總體上看,“弱”道德人工智能輔助增強人類道德的方式類似蘇格拉底式的助產(chǎn)術(shù)。系統(tǒng)充當高效的“接生婆”,幫助用戶生出屬于他們自己的“孩子”。而且在不斷生“孩子”的過程中,提升了用戶的理性“孕育”能力。即便主體的道德“孕育”和“生產(chǎn)”過程是緩慢的,也勝過將這種能力直接轉(zhuǎn)手給他者,同時避免了激進速成的未知風險。從這個層面上說,人工智能輔助增強人類道德不失為一條可取的方案。