朱曉奇,劉博京
(溫州醫(yī)科大學(xué)國際教育學(xué)院,浙江 溫州 325000,995237610@qq.com)
人工智能對于人類而言已然不是一個陌生的詞匯,隨著技術(shù)全球化的革新和產(chǎn)業(yè)發(fā)展,人工智能已經(jīng)被應(yīng)用到越來越多的領(lǐng)域中。無論是計算機科學(xué)、金融貿(mào)易、基礎(chǔ)醫(yī)療還是教育創(chuàng)新等,人工智能仿佛已經(jīng)逐漸成了人們生活之中不可或缺的重要組成部分,甚至在某些極特殊的領(lǐng)域,人工智能已經(jīng)大有取代人類自身的趨勢。但是,人工智能給人類帶來的只是“福音”嗎?在人類不斷開發(fā)、研制更為高效、便捷的人工智能設(shè)備時,當(dāng)人類不斷提升對于自身和整個自然界的認知之時,當(dāng)一個又一個“不可能”的曾經(jīng)成為現(xiàn)實時,或許另一種“災(zāi)難”正在逐步向人類靠攏。誠然,人類需要一定程度上實現(xiàn)對于自我的深層次認知,通過一定的外部手段在某些層面達到對于人類極限的突破。然而,在這樣不斷往復(fù)的過程之中,誰能夠來界定人工智能的倫理邊界呢?又或者說,人工智能本身是否應(yīng)該遵從特定的“倫理”道德呢?如果答案是否定的,那么是否意味著在不遠的未來作為人類智慧“外化產(chǎn)物”的人工智能,將脫離人類社會已有的準則,實現(xiàn)對于自我的“認知”?如若答案是肯定的,那么,人類又是否有資格和權(quán)利來定義“被”人類所創(chuàng)造之物“人工智能”的倫理呢?
當(dāng)下,“人工智能”已經(jīng)被人們主觀性地賦予了過多的意義和概念,似乎只要一提起“人工智能”,浮現(xiàn)在人類面前的就是靈活的機械“手臂”,繁雜的“計算公式”,難以捉摸的“巨大”機器。任何無法通過人類自身獨立完成的操作,都成了“人工智能”需要解決的問題,精準的醫(yī)學(xué)手術(shù)需要人工智能的介入;信用卡的交易需要人工智能來完成;基于大數(shù)據(jù)背景的信息需要人工智能來采集。但是,當(dāng)我們給“人工智能”自身提供這樣“工作”的平臺時,實際上已經(jīng)先驗的將人類的“預(yù)期情感”投入其中,這就使得“人工智能”需要按照人類社會的道德規(guī)范、按照人類意識來實現(xiàn)其自身的價值所在。在此過程之中,“人工智能”本身并沒有“能力”“意愿”“道德”來對其自身的活動進行規(guī)約,我們所言說的關(guān)于“人工智能”的一切,都被假設(shè)了一個“被動”的前提,這就是說看似具有“主觀能動性”的“人工智能”,實際上所展現(xiàn)和進行的工作是“被動”的人類情感意愿的投射,是在一定程度上“違背”人工智能主觀意愿的。而此時,“人工智能”所體現(xiàn)的客觀價值,是與其能夠在有限范圍內(nèi)“實現(xiàn)”其自身倫理形式相背離的。人工智能變成了人類“認為”的人工“智能”,其驅(qū)動力的內(nèi)核及架構(gòu)不再具有普遍性的參照意義。如果從這個層面而言,那么所謂的“人工智能”倫理實際上不過是人類為了進一步“滿足”人類自身的“欲望”所創(chuàng)造出的“人工智能倫理”道德體系而已,甚至在更多的時候,這種“被”創(chuàng)造的人工智能道德體系,只不過是為了在看似合理的框架之內(nèi),來突破人類社會倫理道德的禁區(qū)。
從而,人工智能倫理變成了人類社會倫理道德陰暗面的產(chǎn)物,這種倫理上的“異化”已經(jīng)逐步深入人類社會的各個角落之中,以一種異常冷靜而理性的“眼光”,時時刻刻觀察著人類社會發(fā)展的動態(tài)。人類被自己的創(chuàng)造物進行著道德的評判,用“冷漠”的機械化為人類訂制“標(biāo)簽”,整個人類的倫理道德被限制在了人類自身所設(shè)置的牢籠之中,人工智能倫理正在反噬著人類社會的道德場域。這就使得人工智能背負了過為沉重的“使命”,在信息化時代的背后,人類成了毫無意義的“符號”,而看似不具有主觀意識理念的人工智能,卻實現(xiàn)著對于整個人類世界的“掌控”,無處不在的“人工智能”,已然開始了對于人類的“壓制”。因而,我們已經(jīng)愈加難以對“人工智能”的“善與惡”進行評判,其所承載的已經(jīng)不僅僅是對于人類社會現(xiàn)代化的內(nèi)涵幫助,“在與人類社會倫理道德規(guī)范進行交互的同時”[1],人工智能倫理卻發(fā)生了本不應(yīng)存在的偏斜,原本被賦予的希望和發(fā)展的內(nèi)涵,失去了其應(yīng)有的色彩,伴隨著其“沉重”前行的步伐,迷失在莫比烏斯帶中,忘記了原本美好的初衷。人工智能倫理的“存在”成了“他者”的存在,“存在”本身的意義被主觀性的祛除,客觀的現(xiàn)實轉(zhuǎn)而成了主觀世界的想象,就連我們在享用人工智能給人類社會帶來的變革之時,依舊沒有相應(yīng)的組織、機構(gòu)團體等,有效地對“人工智能”與“人類活動”之間進行明顯地劃分,人工智能成了“人類先進生產(chǎn)活動”的代名詞。如若從這種“互文”的維度而言,人工智能倫理的邊界正處于和人類社會倫理道德“相互”包含和并行的狀態(tài)之中,進行著自我的據(jù)囿,形成了一種特定狀態(tài)下的“克萊因瓶”。
盡管人工智能倫理和人類社會倫理兩者之間處于一種相對“動態(tài)平衡”的現(xiàn)狀,但是這種表面的“平衡”所隱藏的正是目前人工智能領(lǐng)域的“道德超載”現(xiàn)象,人類變得“不被信任”,人工智能才能夠體現(xiàn)“絕對”的公平公正。當(dāng)然,我們大可將一些不必要的人類社會因素排除在外,較為客觀的對社會現(xiàn)狀進行陳述,從而更為直觀地展現(xiàn)新科技時代背景下,人工智能所造成的“道德超載”問題。
就醫(yī)療領(lǐng)域而言,責(zé)任意識、互通平臺、信息處理、安全保護等,都是擺在“人工智能”面前亟須解決的重要問題,我們一次又一次的強調(diào)這些問題的重要性,卻又再一次又一次慘痛教訓(xùn)之后痛定思痛[2]。當(dāng)下,隨著5G時代的來臨,信息技術(shù)在醫(yī)療領(lǐng)域中的應(yīng)用范圍已經(jīng)越來越廣,人工智能更是被放置到了醫(yī)療的部分過程,甚至是全過程之中,很多精密、復(fù)雜的手術(shù)都需要在一定程度上借助人工智能的輔助,這在一定意義上極大地降低了手術(shù)本身給患者帶來的風(fēng)險,盡管傳統(tǒng)的“望聞問切”依舊存在,但實現(xiàn)的手段和形式卻發(fā)生了重要的變化。與此同時,所有的診斷結(jié)果,我們也只是需要點擊手機的屏幕,一切就都“躍然紙上”,如果對于診斷或化驗結(jié)果有任何疑問,我們甚至可以在進行復(fù)診之前,與移動或PC端的AI進行溝通,獲取我們認為必要的信息。這種通過網(wǎng)絡(luò)來進行的新型溝通方式相對于傳統(tǒng)的“望聞問切”提供了諸多的便利,不僅大大減少了傳染性疾病的傳播,更提升了診斷的效率,減少了因時間和空間阻礙所造成的困擾。但是,盡管在人工智能只是有限介入醫(yī)療過程的背景下,仍舊出現(xiàn)了諸多值得我們深思的問題,就目前的情況來看,對于醫(yī)療的全過程而言,醫(yī)生仍舊是不可或缺的主體部分,人工智能在當(dāng)下這個階段并不能夠?qū)崿F(xiàn)對于醫(yī)生的“取代”。但是,或許在不遠的未來,人工智能已經(jīng)能夠“取代”經(jīng)驗醫(yī)學(xué),實現(xiàn)對于人類疾病的診斷、醫(yī)療等。那么,此時人工智能是否需要站在人類道德制高點上,來實現(xiàn)對于患者的“醫(yī)療”呢?人類社會之中原本難以解決的倫理問題,是否能夠在以人工智能為主導(dǎo)的時代,得到解決呢?在傳統(tǒng)醫(yī)療體系中,需要被關(guān)懷、體貼的患者依舊能夠得到善待嗎?這一切我們都不得而知。但是,或許我們可以肯定的是,即便人工智能能夠?qū)崿F(xiàn)自我“意識”的覺醒,通過主觀經(jīng)驗和客觀事實,進行疾病的醫(yī)療、救治,卻不能夠改變?nèi)祟愂鞘澜纭爸髟住钡默F(xiàn)實,這就是說,人工智能的“自我意識”無法實現(xiàn)和人類社會價值理念之間的完全分割,人工智能仍舊是人類新型的意識“傳聲器”而已,獲得客觀性數(shù)據(jù)評價的前提,依然是人類社會的道德理念。一方面,人類認識到人工智能的重要性;另一方面,又無法實現(xiàn)與人工智能之間“平等”有效的溝通。如果我們僅僅單純地將“人工智能”劃分為技術(shù)理性之中的外化,未免對于“人工智能”本身的“定義”有失偏頗。但是,如果我們簡單地將這種人類智慧相對理性化的產(chǎn)物劃分為“人文理性”又缺乏對于當(dāng)下社會結(jié)構(gòu)清晰的認知。因此,實際上人工智能倫理“道德超載”現(xiàn)象的產(chǎn)生,所體現(xiàn)的不僅僅是在這個以“人類”作為主體的社會之中,“人文理性”和“技術(shù)理性”兩者之間的“沖突”,更是在這種“沖突”的背后,兩者之間無法進行調(diào)和的特定“關(guān)系”。當(dāng)我們不厭其煩地對“人工智能”進行評判之時,實際上我們擔(dān)心的正是這種“道德超載”現(xiàn)象的產(chǎn)生,原本人工智能的“倫理邊界”被模糊化,“道德超載”轉(zhuǎn)而形成了一種類似膨脹的內(nèi)化體系,原有的框架在這種膨脹的發(fā)展過程之中,逐步失去了原本清晰的界線,尤其是當(dāng)科學(xué)技術(shù)的發(fā)展遠遠超過人類思維模式轉(zhuǎn)換的速度,“道德超載”就必然會引起倫理的“失衡”現(xiàn)象。正如雷·庫茲韋爾(Ray Kurzweil)所寓言的一樣:“擁有自我意識的非生物體(機器人)將于 2029 年出現(xiàn),并于 21 世紀30 年代成為常態(tài),他們將具備各種微妙的、與人類似的情感?!盵3]但需要強調(diào)的是,我們在這里并不是要解析究竟要不要給“機器”“人工智能”賦予“人權(quán)”,而是在從倫理的角度來探究,人工智能是否應(yīng)該被賦予“人性”,是否要“被”定義相應(yīng)的“道德地位”,是否應(yīng)該存有尊重與被尊重的“權(quán)利”,在“道德超載”現(xiàn)象正在向極端化方向發(fā)展時,我們應(yīng)該成為沉著和冷靜地思考這些問題,在最大的范圍內(nèi)實現(xiàn)對于“道德超載”問題的預(yù)思考。
誠然,當(dāng)歷史不可避免地進入一個科技高速發(fā)展的時期,“技術(shù)理性”與“人文理性”之間的沖突就會變得愈加明顯,人類所能夠掌控的范疇也會隨之被逐步縮小,對于“人工智能”的“去人性化”就最能夠體現(xiàn)和說明這種背離人類道德場域的現(xiàn)象?;蛟S,我們大可不必站在人類中心主義者的角度,來重新審視和看待“人文理性”與“技術(shù)理性”兩者之間的問題。但是,我們不得不思考的是,人類作為這個世界天地的精華,萬物的靈長是否有資格在界定人工智能的倫理邊界所在?“人工智能”這一被人類創(chuàng)造物又應(yīng)該以怎樣的“姿態(tài)”展現(xiàn)在人類面前,并更好地參與到人類社會的建構(gòu)之中呢?“道德超載”所附加給人類社會的弊端,是否能夠被大多數(shù)人所接受呢?如果沒有辦法處理好“人文理性”與“技術(shù)理性”兩者之間的關(guān)系,那么等待人類社會的只有價值觀念的“崩塌”,倫理道德的“失衡”。從“被”定義,到“自我”定義,對于“人工智能”而言,并非是一個漫長的過程,甚至在某些領(lǐng)域,這種自我“自我診斷”并進行糾正的技術(shù)已經(jīng)十分成熟。段偉文就提及:“在人機交互實踐中,人工智能體可通過自動的認知、決策和行為執(zhí)行任務(wù)(暫且不論其實現(xiàn)條件),這使其在一定程度上顯示出某種‘主體性’,成為一種介于人類主體與一般事物之間的實體?!盵4]但是,我們需要深思的是,這種人工智能本身所外化出的“主體性”,是否是人工智能本身進行判斷和演化的,在這樣演變的過程之中,人工智能本身又承擔(dān)著何種角色呢?只有對這些問題進行有效的解決,才能夠在人工智能“自我定義”的范式之下,更為符合“人文理性”的規(guī)約,并最終實現(xiàn)對于自身道德場域的揚棄,真正地解決人工智能領(lǐng)域“道德超載”的問題[5]。
人類社會之所以能夠存在的根本是人類自身的存在。從這個角度而言,脫離人類本身而孤立的對其他事物進行論證和分析的意義就被大大削弱了。如果這個世界之中,沒有人類的存在,那么社會存在的本身就沒有任何被探究的價值。因此,人類社會的存在是我們對于人工智能倫理進行進一步深入探究的重要前提,是人類的存在,才讓這個世界、社會的存在變得與眾不同。沒有任何人可能實現(xiàn)“絕對”的理性和感性,這就意味著在這個社會之中,“人文理性”的旗幟需要高揚,但同時我們也需要探究“技術(shù)理性”未來的發(fā)展去向,正是在對兩者進行往復(fù)探究的基礎(chǔ)上,人類主觀性的意識才得以顯現(xiàn),人類社會的發(fā)展才能夠被以人工智能的形式進行表達。所以,我們不僅僅要解決的是人工智能視域下倫理的“缺失”,而是解析隱藏在這背后,人工智能倫理本身所天然蘊含的“排他性”,這或許也是解決人工智能“道德超載”問題的必要性前提。
從人工智能產(chǎn)生的內(nèi)在動因而言,人工智能的“被”創(chuàng)造本身具有一般意義的相對理性,同時以這種一般意義的理性為基點,就形成了對于人工智能自身屬性和外在價值的持續(xù)表現(xiàn)和“輸出”,但是在這樣的過程之中,我們卻忽略的一個問題——人工智能倫理本身的“排他性”。盡管通過不同的技術(shù)手段,我們完全可以輕松地實現(xiàn)人工智能對于不同維度、不同層面事物的判斷。但實際上,在人工智能對事件本身進行評判之時,就已經(jīng)根據(jù)已有的技術(shù),“主觀”地實現(xiàn)了對于事件其他可能性產(chǎn)生的“排他性”,而這種“排他性”更是人工智能倫理當(dāng)中無法進行更新的環(huán)節(jié)。這是因為,人工智能本身是依存人類生產(chǎn)生活而進行的,盡管就目前來看,人工智能能夠最大限度地實現(xiàn)對于人類思維方式和方法的模仿,但卻也僅僅止步于模仿的階段,并沒有辦法依據(jù)客觀世界的情況對外界事物進行“主觀性”的評價。在不少的文學(xué)、影視和藝術(shù)作品之中,對于人工智能這種天然的“排他性”都有著深刻的理解和認識。也正因如此,諸多的文學(xué)家、導(dǎo)演、藝術(shù)家都從不同的維度在作品之中實現(xiàn)著對于人工智能“排他性”的超越。當(dāng)然,現(xiàn)在的人工智能已然不僅僅是弗蘭肯斯坦似的臆想,各種高級計算機,超級人工智能的出現(xiàn),讓人類社會發(fā)生了巨大的變化。但即便是這樣,人工智能的“排他性”依然沉浸在人工智能架構(gòu)的核心之中,難以被動搖。因而,目前對于人工智能“責(zé)任”“意識”“情感”等諸多方面的探究,都是建立在這種“排他性”基礎(chǔ)之上的。我們迫切地希望人工智能能夠?qū)崿F(xiàn)和人類社會的無縫融合,但又無法解決這種天然的“排他性”問題,我們渴望時代的進步,更不可能退回到?jīng)]有人工智能存在的時代,人工智能作為人類智慧的“化身”,卻將人類社會和人類自身割裂開來。因此,我們有必要在某種程度上放大這種“排他性”對于人工智能自身和人類社會的影響,從現(xiàn)有人工智能運行的現(xiàn)狀之中,重新回溯和追索人工智能產(chǎn)生的初衷。既然我們無法在當(dāng)下的時代利用科學(xué)技術(shù),來解決這種“排他性”問題,那么我們只能夠?qū)⑵溆绊懡抵磷畹?,并逐漸在“技術(shù)理性”的發(fā)展進程之中,實現(xiàn)對于“排他性”的轉(zhuǎn)化。但是,當(dāng)我們最終實現(xiàn)了“排他性”轉(zhuǎn)化的同時,新的、更嚴重的問題又會重新回到我們的面前——人工智能的“自我意識”。
人工智能的“自我意識”早已經(jīng)不是一個熱點話題,各種“陰謀路”“悲觀論”“反人類中心主義”者,從人工智能誕生的那一天起,就開始了對于這個話題的討論。但是,當(dāng)今天我們意識到人工智能倫理需要被規(guī)范、需要被“制約”之時,如何能夠?qū)崿F(xiàn)人工智能“排他性”和“自我意識”兩者之前相互“平衡”的狀態(tài)就顯得尤為重要。從人工智能倫理本身的角度來說,人工智能只有實現(xiàn)自我的“進化”,才能夠祛除人類主觀“排他性”的影響,人工智能的“自我意識”才能夠得到發(fā)展的可能。京特·安德斯指出,雖然人們一再強調(diào)“‘創(chuàng)造是人的天性’,但當(dāng)人們面對其創(chuàng)造物時,卻越來越有一種自愧弗如與自慚形穢的羞愧,這種羞愧堪稱‘普羅米修斯的羞愧’——在機器面前,這種‘創(chuàng)造與被創(chuàng)造關(guān)系的倒置’使人成了過時的人?!盵6]但是,一方面人類渴望人工智能給人類社會帶來的便利和不同;另一方面又懼怕人工智能“自我意識”的覺醒,從而取代人類在社會之中的絕對主導(dǎo)地位。在這樣雙重的矛盾之中,人工智能倫理本身就變得尤為復(fù)雜。
既然,我們無法消解人工智能本身的“排他性”,那么我們就只能從人工智能的“自我意識”尋求突破,從而使兩者達到一種“和諧共生”的狀態(tài)。首先,需要指明的是,我們探究兩者之間相互關(guān)系的最終目的,是為了能夠更好地實現(xiàn)對于人工智能倫理邊界的找尋,更好地反映出人類對于人工智能本身的價值訴求,實現(xiàn)對于人工智能倫理的規(guī)約?!袄碚撋峡?,對人工智能技術(shù)進行倫理規(guī)約有兩種可能的路徑。一種路徑是使人工智能的設(shè)計符合現(xiàn)有的倫理規(guī)范,但人工智能技術(shù)的發(fā)展無論從深度上還是廣度上都表現(xiàn)出一種開放性的態(tài)勢,其發(fā)展與倫理應(yīng)對都處于一種未完成的狀態(tài),現(xiàn)有的倫理規(guī)范可能無法完全回應(yīng)人工智能技術(shù)帶來的潛在風(fēng)險。這就需要采取另外一種路徑,即通過制定新的倫理規(guī)范為人工智能的發(fā)展劃出合理的倫理邊界,以實現(xiàn)人工智能技術(shù)的‘向善’目的?!盵7]但是,在這樣“規(guī)約”的過程中,仍舊不可避免地會出現(xiàn)人工智能“自我意識”的“悖論”——如果人工智能擁有了完全的“自我意識”[8],人類的歷史必然會被重新書寫,如果通過人類主觀性的干預(yù),來部分實現(xiàn)人工智能“自我意識”的產(chǎn)生,那么這種“自我意識”不過是依附人工智能的“外表”來實現(xiàn)對于人類理念的延伸。因此,來探究人工智能的倫理邊界問題,解決人工智能的“道德超載”問題,最終的落腳點是在人工智能“排他性”的基礎(chǔ)上,實現(xiàn)其“自我意識”的“演化”。而正是在這個演進的過程之中,人工智能倫理的存在、人工智能倫理的邊界的存在才更具意義和價值。
誠然,人工智能的整個產(chǎn)業(yè)鏈正在實現(xiàn)著飛速發(fā)展,人工智能在人類社會之中所扮演的角色也愈加重要,技術(shù)的嵌入已然改變了人類原有的生活狀態(tài)。但是,越是在這樣的背景之下,我們越需要對人工智能的倫理邊界進行探究,使得人工智能真正“為”人類所用,使技術(shù)本身的發(fā)展和人類社會發(fā)展之間有機契合。福柯在《詞與物》中曾說:“人是近期的發(fā)明,并且正接近其終點……人將被抹去,如同大海邊沙地上的一張臉?!痹诋?dāng)下這種“后人類主義”盛行的時代,對人工智能倫理界線的探究,對于“保存”人類世界的“文明”,實現(xiàn)人類自身“完整性”的重要意義不言而喻。人類在這場和人工智能一同前進的旅途之中,需要保證人類的主觀能動性,避免人類“失語”和“邊緣化”的情況產(chǎn)生,用一種兼容并包、純粹和本然的態(tài)度來面對這片詩意的土地,堅守和創(chuàng)造這片屬于人類世界的文明。