摘要:ChatGPT的問世給我們帶來了諸多思考,隨著經(jīng)濟(jì)高度發(fā)展和科技的進(jìn)一步發(fā)展,人的物化越來越嚴(yán)重。一方面,人創(chuàng)造了ChatGPT;另一方面,ChatGPT“控制”了人。ChatGPT造成人本身的物化、人社會關(guān)系的物化、人社會地位的物化、人日常生活的物化。我們必須深刻認(rèn)識這些現(xiàn)存或潛在的風(fēng)險,重建以人為中心、人與機(jī)器和諧相處的美好智能型社會。
關(guān)鍵詞:盧卡奇;物化;ChatGPT
以ChatGPT為代表的人工智能的出現(xiàn)給社會帶來翻天覆地的變化,深深影響著人的生產(chǎn)生活方式。18世紀(jì),機(jī)器化大生產(chǎn)使機(jī)器取代了手工勞動,如今,ChatGPT的出現(xiàn)意味著人工智能將取代部分腦力勞動。對此,我們必須對伴隨ChatGPT而來的物化問題進(jìn)行批判性研究,引導(dǎo)它向正確的方向發(fā)展,為人類最終走向社會主義社會服務(wù)。
一、物化理論與ChatGPT的含義及聯(lián)系
(一)物化理論
盧卡奇的物化理論主要來源于對馬克思的 《資本論》中關(guān)于 “商品拜物教”理論的深入分析,提出了資本主義社會物化問題,并在其 《歷史和階級意識》一書中對物化的概念進(jìn)行了系統(tǒng)闡述。
(二)ChatGPT
ChatGPT是一款聊天機(jī)器人程序,它可以通過理解語言進(jìn)而生成文本,經(jīng)過大量的訓(xùn)練之后,模擬真實世界的對話,像現(xiàn)實中的人一樣互動聊天。由于其具有強(qiáng)大的學(xué)習(xí)能力,除了聊天之外,它還能寫詩、撰文、編碼等,完成一系列在過去只有現(xiàn)實的人才能完成的任務(wù)。ChatGPT所擁有的強(qiáng)大功能使它快速擁有了一大批消費者,一部分人認(rèn)為,ChatGPT方便了人們的學(xué)習(xí)和生活,但也有一部分人認(rèn)為,ChatGPT是一款有爭議的程序,可能會被黑客用于網(wǎng)絡(luò)攻擊,并且ChatGPT生成的文字有時存在嚴(yán)重的邏輯問題,生成的代碼有時存在嚴(yán)重的安全問題。
(三)物化理論與ChatGPT的聯(lián)系
ChatGPT的問世給我們帶來了諸多思考,隨著經(jīng)濟(jì)的高度發(fā)展和科技的進(jìn)一步發(fā)展,人的物化越來越嚴(yán)重。
一方面,ChatGPT是人的意識的產(chǎn)物。首先,是人發(fā)明了ChatGPT,使它具備了互動聊天、撰寫郵件、視頻腳本、文案、翻譯、代碼等功能;其次,是人在應(yīng)用ChatGPT,ChatGPT必須根據(jù)人的需求進(jìn)行工作,是為人服務(wù);最后,是人在檢查ChatGPT的工作結(jié)果,雖然ChatGPT擁有自己的底層邏輯,但它也有一定的局限性,如文章內(nèi)容合乎語言邏輯卻不合乎事實邏輯。如何讓人工智能模型的產(chǎn)出與人類的常識、認(rèn)知、需求、價值觀保持一致是亟待解決的核心問題。
另一方面,ChatGPT“控制”了人。盧卡奇的物化理論認(rèn)為,勞動者創(chuàng)造了勞動產(chǎn)品,到最后卻反過來被其控制和操縱。ChatGPT是勞動者創(chuàng)造出來的勞動產(chǎn)品,人有被其控制和操縱的風(fēng)險。ChatGPT使人物化表現(xiàn)為以下三點:一是人的數(shù)字化。ChatGPT具有更便宜、更快速的特點,在未來的某一天,人可能會變成單純向ChatGPT中輸入指令的符號,被整合到自律的機(jī)械體系中。二是主體的客體化。盧卡奇說:“人自己的活動,人自己的勞動,作為某種客觀的東西,某種不依賴于人的東西,某種通過異于人的自律行為來控制人的東西,同人相對立。人被客體化之后所組成的物的世界,反過來通過某種‘客觀規(guī)律來統(tǒng)治主體,統(tǒng)治人,使人對世界抱著俯視、靜觀的態(tài)度,而不去進(jìn)行自覺的干預(yù)和改造現(xiàn)實的社會存在?!盵1]當(dāng)ChatGPT隨著學(xué)習(xí)的深入能夠快速寫文章、寫腳本、寫代碼時,人會由生產(chǎn)過程和社會歷史運動中自主自覺的主體向被動的、消極的客體和追隨者轉(zhuǎn)變。三是人的原子化。ChatGPT是一款聊天機(jī)器人程序,當(dāng)人與人之間沒有社交的需求,或者說人與人之間社交的需求被人與聊天程序社交的需求所代替時,人與人之間會產(chǎn)生隔膜,人們會變得疏離、冷漠。由于人的數(shù)字化、客體化,人變?yōu)楸粍拥拇嬖?,人和人之間的有機(jī)聯(lián)系會被割裂為被動的原子,人會朝著孤獨冷漠的趨勢變動。ChatGPT使人原子化體現(xiàn)在令 “人的一切關(guān)系物化”,人與人之間的聯(lián)系被人與ChatGPT之間的聯(lián)系所掩蓋。
二、ChatGPT對人的影響
人與動物、與機(jī)器最大的區(qū)別在于人具有意識,人的意識的存在使人永遠(yuǎn)不同于機(jī)器,但在某種特定的情景下,人的價值不一定高于機(jī)器。機(jī)械化的、智能化的工業(yè)發(fā)展極大提高了生產(chǎn)力水平,但隨著生產(chǎn)力水平的提高,我們的社會矛盾卻越來越尖銳,人的物化、人與人之間的物化越來越嚴(yán)重,從工人勞動時長和勞動強(qiáng)度的雙重壓力,到工人集體失業(yè),甚至一些需要人的意識參與的產(chǎn)業(yè)也不再需要人,ChatGPT等一系列人工智能逐漸取代了人的地位,充斥人的日常生活。
(一)ChatGPT造成人本身的物化
盧卡奇認(rèn)為,物化是人的勞動的客觀結(jié)果成為獨立的物,物化世界使人無法控制,相反因為這個物具有自發(fā)性,反過來會控制和奴役勞動者。勞動者由主體變成客體,變成其生活形成過程的消極旁觀者。自20世紀(jì)50年代以來,人工智能已經(jīng)走過了漫長的道路,ChatGPT作為一種新興的人工智能已經(jīng)更新到第四代。就技術(shù)成熟度而言,ChatGPT生成的文本質(zhì)量很高,幾乎達(dá)到以假亂真的地步。ChatGPT目前在閱讀、寫作、翻譯等方面實現(xiàn)了跨越式的提高,可以用來處理更復(fù)雜的指令,創(chuàng)造出更多更好的文本。就綜合能力而言,雖然以ChatGPT為代表的新一代人工智能在許多現(xiàn)實場景中依舊不如人類,但在各種專業(yè)和學(xué)術(shù)基準(zhǔn)測試中已達(dá)到甚至超越人類水平。就其發(fā)展前景而言,隨著數(shù)字時代的到來,人工智能技術(shù)越來越成熟,ChatGPT的算法會不斷優(yōu)化,應(yīng)用領(lǐng)域會不斷擴(kuò)大,用戶體驗會更加人性化。盧卡奇認(rèn)為,當(dāng)這種物化社會的成員用越來越標(biāo)準(zhǔn)化、形式化的方式處理一切事物時,侵蝕人靈魂的分工就侵蝕了人的倫理領(lǐng)域,從而強(qiáng)化物化意識的結(jié)構(gòu)。[2]一般來說,人應(yīng)該在整個生產(chǎn)過程中起主導(dǎo)作用,是整個生產(chǎn)過程的主體,ChatGPT的強(qiáng)大功能使人的主體地位被挑戰(zhàn),它將人的能力從其整個人格中分離出去,從而破壞了人的本性。ChatGPT作為商品將會反過來控制和奴役人,人發(fā)明像ChatGPT一樣的人工智能的本意是服務(wù)于人,但隨著技術(shù)的進(jìn)步,ChatGPT卻與人成為對立的兩極,造成人本身的物化。“工人的活動越來越多地失去了自己的主動性,變成一種直觀的態(tài)度,從而越來越失去意志”。[3]這不僅表現(xiàn)為人的意識的逐漸減少,人作為主體越來越受客體的支配,而且也表現(xiàn)為人與人之間關(guān)系的物化。
(二)ChatGPT造成人的社會關(guān)系的物化
馬克思指出:“可見,商品形式的奧秘不過在于:商品形式在人們面前把人們本身勞動的社會性質(zhì)反映成勞動產(chǎn)品本身的物的性質(zhì),反映成這些物的天然的社會屬性,從而把生產(chǎn)者同勞動的社會關(guān)系反映存在于生產(chǎn)者之外的物與物之間的社會關(guān)系。由于這種轉(zhuǎn)換,勞動產(chǎn)品成了商品,成了可感覺又超感覺的物或社會的物?!@只是人們自己的一定的社會關(guān)系,但它在人們面前采取了物與物的關(guān)系的虛幻形式?!盵4]盧卡奇把物化的基本含義規(guī)定為人與人之間的社會關(guān)系通過物的關(guān)系來表現(xiàn)。
人在虛擬交流中的能力越強(qiáng),在現(xiàn)實中交流的能力就會越弱。ChatGPT作為一款聊天機(jī)器人程序,已經(jīng)超越如QQ、微信一樣的社交軟件,如果說社交軟件發(fā)揮的是媒介的作用,那么可以說ChatGPT已經(jīng)跳過媒介,直接發(fā)揮 “人”的作用。ChatGPT自主學(xué)習(xí)能力不斷增強(qiáng),交往形式不斷豐富,締造了虛擬交流世界的狂歡。而與之相對的是現(xiàn)實世界的沉默,二者之間的巨大差距,使人一旦離開虛擬交流世界,似乎就如得了失語癥一般。隨著ChatGPT向生產(chǎn)生活領(lǐng)域的滲透強(qiáng)度的增大,現(xiàn)實的人對ChatGPT這樣的新興智能技術(shù)及其產(chǎn)品的依賴程度越來越高。
但事實上,在勞動的過程中,ChatGPT看似成為生產(chǎn)的主體,是在做著有意識有意義的工作,實則是剝離并霸占了閃爍著勞動者或者說整個人類智慧火花的勞動成果,因為供其不斷自我學(xué)習(xí)、調(diào)整和改進(jìn)的數(shù)據(jù)庫里包含著人類的意識,但ChatGPT并不會自發(fā)產(chǎn)生意識,它只能簡單地模仿人的語言邏輯,卻不能掌握現(xiàn)實邏輯,不能自發(fā)地產(chǎn)生意識。就勞動的結(jié)果而言,ChatGPT產(chǎn)出的成果依舊需要人來檢查和改進(jìn),它更多地發(fā)揮著工具性作用,并不能直接跳過人去生產(chǎn)產(chǎn)品。不論是在生產(chǎn)還是生活中,依舊是人與人在進(jìn)行社會交往,但它被物與物的關(guān)系的虛幻形式所掩蓋,ChatGPT也就造成人的社會關(guān)系的物化。
(三)ChatGPT造成人的社會地位的物化
18世紀(jì)60年代至19世紀(jì)中期,人類進(jìn)入蒸汽時代,機(jī)器化大生產(chǎn)取代了手工勞動,提高了生產(chǎn)效率,解放了生產(chǎn)力。但機(jī)器化生產(chǎn)也有劣勢,如造成大批工人失業(yè),直到21世紀(jì)的今天,失業(yè)率居高不下依舊是令很多國家頭疼的問題。2018年,ChatGPT橫空出世,從GPT-1開始,ChatGPT就在持續(xù)進(jìn)步。GPT-1具有生成語言的功能,但其生成的語言還不夠流暢;GPT-2的功能比GPT-1強(qiáng)大10倍,不僅語言更加流暢,而且極具創(chuàng)造力,除此之外,還研發(fā)出了GPT-2小型版和中型版,它們更適用于移動設(shè)備或低端計算機(jī);GPT-3比 GPT-2強(qiáng)大10—100倍,除了語言更加流暢,還可以進(jìn)行語言翻譯、摘要生成、問答系統(tǒng)等任務(wù),GPT-3 API則使用戶體驗更加流暢,GPT-3.5-Turbo則更加便宜;GPT-4.0還增加了圖像識別、處理命令、生成歌詞等更具創(chuàng)意的功能。據(jù)悉,ChatGPT-5.0將于2023年12月發(fā)布。人工智能時代的到來和發(fā)展,使人工智能一步步取代腦力勞動,會造成大批腦力勞動者失業(yè)。隨著其功能的不斷完善,ChatGPT也會不斷地挑戰(zhàn)人的地位。第一,這種沖擊從體力勞動過渡到腦力勞動,對于整個人類來說,ChatGPT的出現(xiàn),在占據(jù)人的就業(yè)機(jī)會的同時,卻沒有產(chǎn)生新的崗位供人生存,或者說,產(chǎn)生新崗位的速度較慢;第二,ChatGPT的發(fā)展速度很快,從2018年ChatGPT首次問世到2021年ChatGPT發(fā)展到4.0階段,再到即將發(fā)布的5.0版本,ChatGPT取代人的速度遠(yuǎn)大于人進(jìn)化的速度,最終導(dǎo)致勞動者的勞動變得無意義,ChatGPT也就造成人的社會地位的物化。
(四)ChatGPT造成人的日常生活物化
ChatGPT在為勞動者服務(wù)的同時,也占據(jù)勞動者的時間,使人的活動與人本身變得疏遠(yuǎn)。在時間上,ChatGPT占據(jù)了人類的工作時間,勞動者在工作中運用ChatGPT進(jìn)行閱讀、寫作、翻譯、編碼等工作不可避免;ChatGPT占據(jù)了人的娛樂和休息時間,聊天、聽音樂、看電影等眾多娛樂方式也離不開ChatGPT,ChatGPT已經(jīng)在時間上幾乎占據(jù)了人每天的24小時。在空間上,ChatGPT不只是入侵經(jīng)濟(jì)領(lǐng)域,與經(jīng)濟(jì)領(lǐng)域息息相關(guān)的政治領(lǐng)域、科技文化領(lǐng)域也必然會遭到入侵。眾多行業(yè)在享受ChatGPT帶來的便利的同時,也會使ChatGPT在人的日常生活中出現(xiàn)的頻率越來越多。時間與空間上的雙重入侵,造成人的整個日常生活物化。霍克海默和阿多諾對此有一個非常形象的描述:“現(xiàn)在一切文化都是相似的。電影、收音機(jī)、書報雜志等是一個系統(tǒng)。每一領(lǐng)域是獨立的,但所有的領(lǐng)域又是相互有聯(lián)系的。甚至政治上的對手,他們的美學(xué)活動也都同樣地頌揚鐵的韻律。裝潢美觀的工業(yè)管理組織機(jī)構(gòu)在獨斷的國家與其他國家是一樣的……從宏觀上和微觀上所表現(xiàn)出來的統(tǒng)一性,說明了人民所代表的文化的新模式:即普通的東西與特殊東西之間的虛假的一致性……管理者根本不再注意它們的形式,它們表現(xiàn)得越是粗野,它們力量就越是強(qiáng)烈。電影和廣播不再需要作為藝術(shù)。”[5]但是人類本身是很難意識到這種物化的,久而久之,物化入侵到人們的思想意識之中,人類無法從意識上排除物化,反而認(rèn)為本該如此,將這種物化當(dāng)作客觀規(guī)律,當(dāng)作 “上天的旨意”,由此,人喪失了主觀能動性,形成物化意識。
三、人工智能時代應(yīng)對物化現(xiàn)象的可能策略
ChatGPT目前有許多技術(shù)缺陷。例如,信息泄露、剽竊和偏見、有害建議、不正確的代碼或不準(zhǔn)確的信息等,同時,GPT-4的額外功能導(dǎo)致新風(fēng)險的出現(xiàn),如網(wǎng)絡(luò)安全、技術(shù)信任、隱私安全和國際安全。針對這些存在的問題,國家應(yīng)當(dāng)出臺相應(yīng)法律法規(guī),為人工智能的發(fā)展提供法律準(zhǔn)繩;開發(fā)者在研發(fā)過程中應(yīng)遵循 “技術(shù)向善”的價值準(zhǔn)則,為人工智能的發(fā)展提供道德律;個人也應(yīng)辯證看待人工智能,利用人工智能促進(jìn)自身的發(fā)展。
四、結(jié)束語
需要明確指出的是,ChatGPT等人工智能不論如何發(fā)展,都必須堅持以人為中心而非以利益為中心。我們要堅持目標(biāo)向善的導(dǎo)向,人工智能的出現(xiàn)本應(yīng)使人向好向善發(fā)展,促進(jìn)人與人之間關(guān)系的和諧,促進(jìn)人的素質(zhì)能力提升,促進(jìn)人的日常生活豐富多彩。我們要切記,人工智能時代機(jī)遇與挑戰(zhàn)并存,要做好趁勢而上的準(zhǔn)備,也要做好迎接風(fēng)險的準(zhǔn)備。
參考文獻(xiàn):
[1] 盧卡奇.歷史與階級意識[M].北京:商務(wù)印書館,1996:147.
[2] 劉璐.淺析盧卡奇的物化理論[J].佳木斯職業(yè)學(xué)院學(xué)報,2022, 38(01):52-54.
[3] 馬克思.馬克思恩格斯全集(第4卷)[M].北京:人民出版社, 1958:96-97.
[4] 馬克思恩格斯全集(第23卷)[M].北京:人民出版社,1972:88-89.
[5] 霍克海默·阿多諾.啟蒙辯證法[M].重慶:重慶出版社,1990:12.
作者簡介: 崔一鳴,女,漢族,河北承德人,碩士研究生在讀,研究方向:思想政治教育。