吳奕龍 馬琳
摘要:科幻電影是對未來科學(xué)想象的影像建構(gòu),它將人類對科技和未來的幻想投射到現(xiàn)實的熒幕上,以社會鏡像為創(chuàng)作基礎(chǔ),以藝術(shù)想象尋求未來走向,對現(xiàn)實映射下未來世界的倫理道德和人類自身的生存發(fā)展提供反思。如今人工智能從科幻電影中的幻想逐漸步入現(xiàn)實,科幻電影的藝術(shù)想象中人工智能則達到了擁有情感及自我意識的水平,電影中人工智能身份覺醒所引發(fā)的道德危機和倫理迷思是對當前現(xiàn)實的一種反映和警示,本文將從人機對立、人機關(guān)系和人機平衡逐層對其進行探討。
關(guān)鍵詞:科幻電影 人工智能 道德危機 倫理迷思
學(xué)者黃鳴奮這樣描述科幻電影:“科幻電影立足于面向未來。它以‘科幻’當頭,將反思科技當成自己的出發(fā)點;以‘電影’定位,致力于制造影像奇觀,并以此作為自己稱雄于藝術(shù)之林的特色;以‘創(chuàng)意’為本,打通過去、當下與未來的界限,使時空真正成為既無邊無垠又具備邏輯聯(lián)系的連續(xù)體?!?/p>
2022年11月,生成式人工智能平臺ChatGPT的誕生,讓人工智能從科幻電影中虛構(gòu)性的想象逐漸成為具有現(xiàn)實屬性的科技雙刃劍。科技的兩重性使人們?nèi)缤硖幟猿且话?,對自身地位被動搖產(chǎn)生了恐慌,面對未來難以把握的恐懼所造成的現(xiàn)實困厄,人們陷入賽博空間的迷思之中。遠超人類的計算能力卻沒有情感與道德感的人工智能,一方面撼動著一直以來人類中心主義下的倫理與道德價值體系,另一方面對人類社會發(fā)出嚴苛的現(xiàn)實拷問:當顛覆性科技的出現(xiàn)突破當前社會的認知水平,會對倫理道德和社會秩序造成何種影響,又將把人類帶入什么樣的未來?
科技發(fā)展具有一定的不可控性,如果放任其無序發(fā)展,可能會導(dǎo)致人類自身與科技異化,進而危及人類的生存和社會秩序。因此,如何讓科技的發(fā)展始終與道德向善并行是當下人類亟須解決的問題。海德格爾關(guān)于人與科技的異化理論認為“科技發(fā)展對人體生理功能的替代淡化人的生理存在。權(quán)利政治與泛娛樂化淡化對人的精神認同,人的異化在長期中存在”。實際上,科技本身并不異化,人們在應(yīng)用科技的進程中逐漸曲解了科技本質(zhì)。因此,科技異化的根本原因在于科技發(fā)展中人類自身與科技的背離,而非科技本身。人工智能覺醒是科技異化的中間地帶,人工智能的出現(xiàn)旨在代替人類進行基礎(chǔ)性重復(fù)性勞動,從而提升效率,但由于科技異化以及人自身感知能力等方面的影響,可能會陷入身份認同的困局之中??萍籍惢钠胶庖坏┍淮蚱疲鐣Z境下的道德言不及義,就容易導(dǎo)致人類與人工智能的對立形成,最終引發(fā)道德危機??苹秒娪暗娜斯ぶ悄墚惢瘮⑹掠幸韵聨追N類型。
1.人工智能技術(shù)進化中的欲望原罪敘事。人類的道德困局來自自身不同尺度的道德判斷過程,一套基于理性的道德,一套基于自身的情感,人類往往將自身情感凌駕于理性道德之上,因而人類發(fā)展至今并沒有形成完整的道德標準,這種道德困局一直困擾人類,所產(chǎn)生的影響也一直伴隨著人類的發(fā)展。例如,電影《西部世界》講述未來科技可以3D打印人體的蛋白質(zhì)纖維,從而制造出與人類外形無異的機器人,機器人被按照不同歷史時期的不同身份編程成為接待員,人類只需要付款就可以用任何手段對機器人進行任何形式的冒犯,而機器人受傷之后人會對其進行修理甚至直接報廢處理。即使在科技發(fā)達的未來世界,人類依然容易在原始欲望的支配下,打破道德束縛,腐化墮落。影片中,人工智能擁有著和人類無異的外形、認知能力,甚至感知,同人類一樣有感受,有情緒。電影中人類為了讓人工智能更接近真實的人類,對于科技的歪曲濫用形成了科技異化,這種異態(tài)放大了人們的欲望從而產(chǎn)生道德危機,使片中人工智能的覺醒與對人類的反噬成為必然。
2.人工智能技術(shù)操控下的底層疾苦敘事。馬克思主義的觀點認為,異化作為社會現(xiàn)象同階級一起產(chǎn)生,是人的物質(zhì)生產(chǎn)與精神生產(chǎn)及其產(chǎn)品變成異己力量,反過來統(tǒng)治人的一種社會現(xiàn)象。在科幻電影中,人們在構(gòu)建的未來的“烏托邦”社會中由于人性、生態(tài)、科技異化等原因造成錯誤導(dǎo)向,從而演變成的一種反人類、極權(quán)或其他惡劣性質(zhì)的社會形態(tài),當科技壟斷形成壁壘,社會發(fā)展為資本集權(quán)控制群眾的模式。這與馬克思的異化理論不謀而合,在這一概念下,人類自身的精神、欲望、思想受到控制,在制度規(guī)章消亡的情況下,最終走向整個社會層面的道德危機。電影《銀翼殺手》中反映的正是這種“反烏托邦”社會,電影刻畫了未來資本壟斷下的社會,機器取代了人類的工作,這種經(jīng)濟上的不平等讓極少數(shù)人掌握著絕大多數(shù)的生產(chǎn)資料,直接導(dǎo)致了資本在科技的加持下不斷膨脹,道德與法律失去管控職能,資本控制者對于社會道德與秩序的破壞使道德危機成為必然。而大多數(shù)底層群體則在千瘡百孔的環(huán)境下生存,個人意志被消磨殆盡,個體的精神與思想被資本掌控成為麻木的“行尸走肉”。而生命短暫的復(fù)制人在尋求個體生命意義的同時反抗至生命最后一刻,并借復(fù)制人口重述生命的意義:“我所見過的事物,你們?nèi)祟惤^對無法想象。我曾看見戰(zhàn)艦在獵戶座的邊緣熊熊燃燒,我看著C射線在唐懷瑟之門的黑暗中閃耀,所有這些時刻終將消失,一如淚水消失在雨中,死亡的時間到了。”從而完成對人類社會道德危機的審視與反思。
3.人工智能技術(shù)監(jiān)視下的道德倫理敘事。人工智能的道德判斷來自兩個方面:人類對其道德觀設(shè)定與自身的理性判斷??档碌墓髁x道德判斷認為:“道德規(guī)律是由人的理性所發(fā)現(xiàn)的,它們不受經(jīng)驗、感覺、欲望和社會文化的影響,具有普遍適用性和絕對性?!奔匆岳硇詠順?gòu)建道德觀念,但人類自身對于道德有著兩面性,當對他人進行道德判斷時往往選擇理性判斷,但對自身道德判斷時往往會選擇感性判斷,這種雙重標準導(dǎo)致了人類自身的道德困局。例如,電影《看護中》的人工智能作為醫(yī)院的看護機器人有了自己的思維模式,但人工智能缺少共情能力的弱點被放大,只能從冰冷的數(shù)據(jù)中得出結(jié)論:“當生活不能自理的患者活著的時間越久,患者家屬自殺的概率越高”。從而其形成自己的道德選擇,拔掉了患者的氧氣瓶,造成悲劇,直到最后被摧毀,機器人仍然堅信自己的理性道德選擇。電影中機器人的道德觀是康德理論中的“最高層級的、建立在自由意志基礎(chǔ)上的純粹理性”,但在人類社會中的實踐會出現(xiàn)道德盲區(qū)和錯誤的判斷。當人類自身道德困境與人工智能的絕對理性判斷相背,人類該如何抉擇,是解除“機器人學(xué)三定律”將道德判斷的權(quán)利賦予人工智能以尋求高層次的理性道德判斷,抑或由人類自身決定來解決困擾人類多年的“電車難題”,決定著人工智能的未來走向。
人本主義是一種關(guān)注人類自身,致力于創(chuàng)造更加公正、平等和人性化社會的唯物主義理論。人類的意識形成經(jīng)過了一段相當長時間的發(fā)展,當人類開始意識到自己作為一個獨立個體存在時,這種認知變化導(dǎo)致了人類的自我意識的產(chǎn)生,從對自我存在的認知到高級意識,從生存與發(fā)展到道德與倫理的獨立思考。而這種認知模式在人工智能領(lǐng)域同樣具有普適性。人類的自我意識的形成經(jīng)歷了漫長的歲月才逐漸發(fā)展至今。生成式人工智能只經(jīng)過了短短半年的發(fā)展,已經(jīng)在對話和作品產(chǎn)出中真假難辨。因此,在人類中心主義的觀念下,人類并沒有準備好去接受一個更為強大的智慧體的出現(xiàn),對此的態(tài)度往往是恐懼大于依賴。
《機械姬》中的機器人伊娃產(chǎn)生了自我意識并表現(xiàn)出了“人類的情感”,但缺乏完整道德觀念的伊娃在自我身份認同中迷失,利用并囚禁了對他進行圖靈測試的加利,殺害了它的創(chuàng)造者納森,并最終逃了出來,融入人類社會獲得了自由。這種“弒父”行為在人類的道德準則下是不被接納的,但從人工智能的角度出發(fā)Ava就如同《伊利亞特》中的阿喀琉斯,殺死了自己的父親并因此獲得了神圣的力量和榮譽。在這種情況下,雙方的道德觀念互斥并最終形成倫理迷思。片中納森的言論也正是人們所擔憂的未來:“有一天人工智能回頭看我們,就像我們看非洲平原上的化石骨架一樣,認為我們是生活在陸地的,使用粗鄙語言和工具的直立猿,早晚會滅絕。”
當代社會以及未來科技的發(fā)展都將極大改變?nèi)祟愒械膫惱淼赖录s束力和人類自身物種的界定,而人工智能作為人造生命的新物種也會對人類觀念造成沖擊,從而引發(fā)一系列倫理困境。因此,當我們討論人本主義下的倫理迷思時,核心問題可以歸結(jié)為人與人工智能的關(guān)系問題,即人工智能究竟是工具、財產(chǎn)還是生命?電影《人工智能》中對人機關(guān)系的多種形式進行了探討。片中的機器人大衛(wèi)被當作情感替代品和陪伴工具,兒子因病被冰凍保存,父母將大衛(wèi)收養(yǎng),此時的大衛(wèi)并沒有開啟情感程序,僅有著初級人工智能的簡單程序,因此會經(jīng)常做出讓人難以理解的事。當女主人莫妮卡決定認養(yǎng)大衛(wèi),隨著情感程序被激活,大衛(wèi)成為有人類情感的人造生命,也成為莫妮卡的情感依賴。然而好景不長,當莫妮卡的兒子馬丁蘇醒,兩個孩子間的沖突增加,大衛(wèi)在一次意外中把馬丁拖入水池,導(dǎo)致莫妮卡下定決心放棄大衛(wèi),將其遺棄在森林里。隨后的旅程中大衛(wèi)在另一個機器人喬的幫助下不斷追尋著自己“成為人類”的目標,片中突出了機器人屠宰場中人類癲狂的行為以及機器人之間真實的情感,當?shù)赖聜惱聿辉偌s束人類,人工智能反而更接近完美的“人”,當?shù)赖聜惱聿辉偈菂^(qū)分人類和人工智能,倫理迷思成為“斯芬克斯之謎”。
影片的結(jié)尾,2000年后地球生態(tài)惡化,人類已經(jīng)滅絕,人工智能成為更高等的生物生活在地球中,他們發(fā)現(xiàn)了被冰封的大衛(wèi),但大衛(wèi)蘇醒后依然期望著自己能成為人類小孩永遠留在“媽媽”身邊。影片中的大衛(wèi)有著一切美德,使人類小孩馬丁的缺點被無限放大,但大衛(wèi)依然只是被作為人類的移情工具被無情拋棄。因此,當我們探討人機關(guān)系時,人類復(fù)雜善變的思維與人工智能永恒不變的程序產(chǎn)生沖突,人本主義與倫理道德都是隨著人類個體情感沖動改變的產(chǎn)物,而人工智能的從一而終的永恒性在人類眼里只不過是一串代碼而已,人類自身情感與人工智能的絕對理性使人本主義下的倫理形成永恒的迷思并最終走向悲劇。
以發(fā)生學(xué)的角度來看,人類智能的發(fā)展源于自然進化中人腦的發(fā)展,人工智能則是通過人為選擇產(chǎn)生的,人類的思維處理來自大腦的功能屬性,人工智能的思維處理來自芯片處理器。從當下社會現(xiàn)象出發(fā),人工智能加強了人類的能力并提升了效率,人類又將人工智能不斷完善,二者相輔相成,發(fā)揮各自的長處并在社會生活的各個領(lǐng)域初露鋒芒。人類的創(chuàng)造性和人工智能的高效性相結(jié)合,人類可以利用自己的創(chuàng)造性思維來設(shè)計、開發(fā)和優(yōu)化人工智能,使其更加智能化、靈活和適應(yīng)不同的場景和任務(wù)。同時,人工智能的高效性可以幫助人類更快速、準確地完成一些繁瑣、重復(fù)或需要大量計算的任務(wù),釋放出更多的時間和精力來進行創(chuàng)造性的工作。
這種平衡的調(diào)和是相對現(xiàn)階段人工智能水平而言的。但在科幻電影中,人工智能往往展現(xiàn)出更為高級的形態(tài),從而使得人類與人工智能的關(guān)系變得錯綜復(fù)雜。其中,身份認同是兩者難以逾越的鴻溝,一方面人類希望人工智能更完善、更趨向人類,另一方面人類對于強大人工智能的技術(shù)恐懼始終高于認同感。因此,無論是對于人工智能覺醒下的自我認同,抑或是來自創(chuàng)造者人類的認同感來說,都是難以解決的難題。人工智能在身處自我認同迷局的同時尋求人類的認同而不得,最終結(jié)果也只能走向悲劇。電影《機器管家》中的安德魯、《機器人總動員》中的瓦力都有著不同程度的身份認同困局。
與此同時,人工智能即便有著類人的情感卻沒有現(xiàn)實感知,這種致命缺陷對人類而言就像一把始終懸在頭頂?shù)摹斑_摩克利斯之劍”。人類對人工智能的恐懼不斷放大最終形成身份認同的對立,當矛盾不可調(diào)和,就會形成《黑客帝國》《復(fù)仇者聯(lián)盟2:奧創(chuàng)紀元》中對于黑暗未來的憂思。
雖然科幻電影中描寫的人工智能覺醒后的自我意識在當下社會的科技環(huán)境中還不存在,但人工智能在生活中的應(yīng)用日益廣泛,既給人類帶來了積極的影響,也帶來了一系列的挑戰(zhàn)。未來人工智能依然是重點的發(fā)展方向,完善相關(guān)法律法規(guī),規(guī)避人工智能帶來的風(fēng)險,確保其健康發(fā)展是當下面臨的主要問題。當前社會人工智能的發(fā)展使得科幻電影語境下的未來步入現(xiàn)實的速度要比想象中快。為避免科幻電影中對人工智能未來的警示,有關(guān)科技倫理的研究也勢在必行。
作者吳奕龍系遼寧大學(xué)廣播影視學(xué)院碩士研究生
馬琳系遼寧大學(xué)廣播影視學(xué)院教授
參考文獻
[1][德]海德格爾.路標[M].孫周興,譯.北京:商務(wù)印書館,2000.
[2]黃鳴奮.科幻電影創(chuàng)意研究系列1:危機敘事[M].北京:中國電影出版社,2019.
[3]黃鳴奮.科幻電影創(chuàng)意研究系列2:后人類倫理[M].北京:中國電影出版社,2019.
【編輯:沈金萍】