摘要:近年來,人工智能技術不斷發(fā)展,生成式人工智能愈發(fā)成熟。2023年3月,OpenAI發(fā)布可接受文本和圖像輸入的多模態(tài)模型——GPT-4,GPT-4能更為準確地回答多種專業(yè)的學科問題,甚至通過美國醫(yī)學執(zhí)照考試和模擬律師考試;同年7月,OpenAI在美國申請了GPT-5的商標。市場上也涌現出一批人工智能應用,如谷歌的Bard、百度的文心一言等。憑借強大的生成能力,生成式人工智能被應用于內容生產、數據分析、工業(yè)設計等眾多場景??v觀人工智能和AI算法的發(fā)展歷程,圍繞人機關系這一議題,學界對以ChatGPT為代表的生成式人工智能所帶來的影響存在多種觀點,可大致分為技術工具論和技術控制論兩種流派。
文章以ChatGPT為例,探討算法對人機關系的重構?,F代的人機關系,既有算法對人的異化威脅,也有人積極尋求應對方式,爭取合作共生的協(xié)作關系。一方面,面對算法超越性的數據收集分析和內容產出能力,人的自主性面臨史無前例的挑戰(zhàn);另一方面,算法展露的智能性進一步推動人機之間的交互對接,為平等的人機合作提供前所未有的可能性。如何在正確認識ChatGPT的基礎上,認識新的人機關系,是急需解決的問題。
關鍵詞:ChatGPT;算法;人機關系;生成式人工智能;OpenAI
中圖分類號:TP18 文獻標志碼:A 文章編號:1674-8883(2024)05-0001-04
2019年,美國Netflix公司上線動畫短片合集《愛、死亡和機器人》,第14集《齊馬藍》因逼真的預言和展現算法人工智能對人文藝術的探索以及人類社會秩序的重構,而獲得極佳的口碑。僅四年后,以ChatGPT為代表的生成式人工智能崛起,四年前電影中的科幻場景悄然成為現實。
目前,生成式人工智能已帶來諸多影響。據報道,ChatGPT上線僅兩個月,用戶就達1億,成為史上用戶人數增長最快的消費者應用。龐大的用戶基礎放大了ChatGPT的現實影響。海量的資料庫存、先進的學習能力和強大的分析技能,讓生成式人工智能有高質量產出?!缎l(wèi)報》報道,人工智能已經可以分析法律證據與道德問題,進而預測審判結果。在79%的案子里,人工智能提出的判決與當時的法庭判決一致。劍橋大學打造的AI律師與倫敦百位律師針對法律問題展開比賽,最終以86.6%的準確率遙遙領先。
ChatGPT因其卓越的內容生成能力,已被成規(guī)模地濫用。據福布斯網調查,超過89%的受訪者承認使用過ChatGPT輔助完成作業(yè),53%的學生使用它寫論文。ChatGPT的高質量產出迫使以巴黎政治學院為代表的高校實施一系列限制措施。此外,生成式人工智能還存在真實性問題、社會倫理問題、算法歧視問題等諸多問題。
在AI發(fā)展過程中,對人機關系這一議題,學界存在多種觀點的分野。
以邱澤奇為代表的技術工具論學者認為,生成式人工智能只是效率工具,不具備自我決策的能力[1]。使用工具所導致的后果,無關工具本身。算法優(yōu)化社會服務、保障行政司法等社會治理案例屢見不鮮。算法也可能被操控利用,“編碼精英”借助算法,從被邊緣化或無報酬的勞動力中提取勞動所得,鞏固權力,加深社會階級分化。
以馬爾庫塞為代表的技術控制論學者則認為,技術具有控制公眾和影響社會秩序的能力?!爸涠皇菈浩?,它們支配著人這一工具——不僅支配他的身體,而且支配他的大腦甚至靈魂?!盵2]算法時代,人類社會將面臨一系列挑戰(zhàn)。馬克思主義認為,人能使用技術去建構和改造社會秩序[3]。技術發(fā)展和社會秩序建構存在兩種關系:要么利用技術推動社會發(fā)展,要么技術使用失當從而顛覆原有社會秩序。不論如何,都凸顯著技術對社會的強大影響。
筆者認為,技術工具論雖為如何引導公眾使用算法提供了更多理論指導和方法論,但其研究路徑忽略了組織和制度背后社會行動者的互動策略與實踐能力;秉持技術控制論的學者,或多或少強調算法控制社會的隱蔽性和強制性,卻忽略了算法的局限性與公眾的實踐性,對算法發(fā)揮影響的要素條件、作用結構和影響強度等復雜的互動過程并未進行具體的分析。現有文獻對算法樣態(tài)的描摹也多強調算法的控制性、決定性和不可避免性,輕視了人的主觀能動性,實然層面分析匱乏,缺少對公眾行為與心理的觀察研究。
因此,如何在正確把握ChatGPT特殊性的基礎上重新認識人機關系,是當下亟待解決的問題。現在的人機關系,是過去對待語音助手的工具論模式,還是人讓渡自己思考創(chuàng)作的權利進而以機器為中心;是人作為主導者使用ChatGPT,還是變成趨于平等的人機交互模式;是人發(fā)揮主觀能動性馴化技術,還是逐步被人工智能取代人在社會中的地位。傳統(tǒng)的人工智能視角下的人機關系是否有必要調整?
算法會根據制度、消費者和設計者的變化進行調整,算法對人機關系影響的研究不能局限于算法與社會各界單線性影響關系,復雜多變的動態(tài)改變更符合實際。因此,上述問題必須基于現代化視角下的人機關系,才能予以全新詮釋。
數字時代,時空的消解產生一種前所未有的異化形式,即數字異化。數字異化隱藏原有的階級沖突,操縱更隱蔽、剝削更極致、懲罰更徹底的特點給人造成更為嚴重影響。從本質上看,馬克思的勞動異化理論依舊適用。一方面,“工人被看作是機器的延伸,而不是機器是工人的延伸”的觀點依舊有效;另一方面,算法在促進生產力、勞動分工和剩余價值方面貢獻巨大,信息社會不僅是一個后工業(yè)社會,更是一種勞動資源和生產方式的延伸與發(fā)展。
在《1844年經濟學哲學手稿》中,馬克思深刻揭示了資本主義生產下的勞動異化問題。步入算法時代,資本借助算法對人勞動生活的操控,使數字勞動異化為與資本增殖邏輯相契合、與人的邏輯相背離的勞動活動[4]44。
(一)對人的非自我規(guī)訓和勞動成果的無償占有
勞動過程異化,指勞動者在勞動過程中身體與精神所遭受的雙重負擔。在數字勞動領域,這種異化現象表現為勞動者不僅失去自主性,還導致勞動加速和勞動規(guī)訓[4]45。數字資本運用算法嚴格約束勞動行為,不斷縮短單位勞動的時間跨度,提高勞動強度,從而實現勞動過程的加速。如外賣騎手等依賴算法工作的“零工”勞動者,不得不忍受平臺的種種限制,面對排名、評價和安全等方面的問題。此外,數字資本為追求剩余勞動價值,延長勞動時間,縮短非勞動時間,使勞動者持續(xù)生產活動。在緊張和不間斷的勞動過程中,職業(yè)病司空見慣,過度勞動時有發(fā)生。算法時代,勞動者沒有實現想象中的解放,反而承受著更多負擔,他們被算法規(guī)訓而非工具化地使用算法,在生產生活中更多的是否定自我而非實現自我。
馬克思強調,人類的勞動產品“不過是活動、生產的總結”[5]270。智能時代,數字勞動者無法占有自己的勞動成果,甚至隨著勞動增加,他們所占有的勞動產品越來越少,失去勞動產品的所有權,即“凡是成為他的勞動的產品的東西,就不再是他自身的東西”[5]268。數字勞動產品因數字勞動而生,理應歸勞動者所有,但資本憑借市場主導地位,通過互聯網用戶“自愿簽訂”的隱私條款,把數字產品的所有權轉移給資本。同時,隨著大眾媒介的發(fā)展,人們在大眾媒介上的注意力被普遍商品化。在這一交易過程中,注意力的生產主體被排除在外,注意力勞動的價值被傳播平臺免費占有。
勞動者不僅失去對數字產品的所有權,還很難獲得與勞動價值相等的報酬,勞動成果被資本占有。ChatGPT由程序員基于算法設計,但ChatGPT的創(chuàng)造者沒有其所有權。OpenAI公司最初以造福人類為宗旨,但商業(yè)化讓ChatGPT最終成為資本的產物。
(二)使勞動者喪失勞動過程中的自主性
“ChatGPT等生成式人工智能的發(fā)展……問題不在于人類進化和退化的此消彼長本身,而在于對于這種進化和退化此消彼長的長遠把握。人類發(fā)展越來越主要依靠科學技術的發(fā)展,而科學技術發(fā)展總是會伴隨相應的人類進化和退化問題?!盵6]
ChatGPT的高質量產出導致眾多用戶的依賴,加深唯技術論的思想,缺乏發(fā)展的進取心。OpenAI多次鼓勵用戶進行批判性思考和獨立判斷,但收效甚微。
究其原因,和ChatGPT的強大能力有關。#我們會被ChatGPT取代嗎#、#ChatGPT為何爆紅出圈#等話題屢次登上微博熱搜。公眾的情緒與面對神秘學說的態(tài)度相似,充滿對未知的恐懼和對控制力的渴望。ChatGPT因其強大的生成能力,成為人們崇拜儀式下的力量核心,形成崇拜力量核心的符號資源圈層[7]18。OpenAI通過建立與ChatGPT的聯系,收獲更高的關注度,形成更強的影響力。
“技術延展了人的主體性,同時也呈現一種泛在的反主體力量?!盵7]20倘若勞動者陷入技術崇拜,過度依賴ChatGPT的內容產出,無疑會陷入技術至上主義和人文空心主義,丟失思考判斷能力和自主性,最終淪為內容的搬運工。
(三)潛移默化侵蝕和重塑用戶的思想
ChatGPT本身所產生的思想侵蝕較為隱蔽,但這并不意味著可以忽視其帶來的思想侵蝕的危害。
長期研究網絡虛假有害信息的互聯網公司新衛(wèi)士認為,ChatGPT將成為互聯網上最強有力的散播虛假信息的工具。AI教父辛頓更是警告:“生成式人工智能正在制造大量虛假的文本、圖片和影像?!笨梢?,ChatGPT會產出大量假數據已成行業(yè)共識。ChatGPT的高自主性及應用領域的交叉性與普及性,不僅強化了虛假信息的迷惑性,也讓虛假信息傳播的范圍更廣、頻次更高。
虛假信息還會根據算法的意識形態(tài)傾向形成算法歧視。ChatGPT主要通過網絡爬蟲的通用資料庫進行數據搜集。《衛(wèi)報》調查表明,社會中的偏見言論更容易被ChatGPT吸收和學習[8],并概率性地發(fā)表歧視性言論,這種現象會加深使用者的偏見,在下次接收相似言論時提升認同感,造成歧視思維的惡性循環(huán)。ChatGPT表面中立,實際上潛移默化地塑造著用戶的思想。
馬克思認為,人與動物的區(qū)別在于,動物在世界面前是被動的,而人作為意識主體,具有主觀能動性,能夠能動地認識和改造世界,從而更好地服務實踐。
斯蒂格勒強調,技術特別是算法具有“藥理學”性質,它既是良藥也是毒藥。他認為,法蘭克福學派只看到了技術的毒性,卻忽略了它使人類如動物般生存的藥性[9]。算法的價值表現為它作為工具,被人馴化以實現生產生活的創(chuàng)新和社會生產力跨越性的提升。
海德格爾認為,技術既是目的的手段,也是人的行為,“技術的工具性規(guī)定本身就是正確的”,“正確的東西并不意味就是真實的東西,而只有真實的東西才能真正實現人的自由發(fā)展,才能真正將人們帶入一種自由的關系”[10]。他指出,技術有工具性特征,但也可能存在價值負荷的危險。不過,技術的工具性特點證明人可以充分發(fā)揮自己的主觀能動性去馴化技術。
面對ChatGPT對人的自主性的挑戰(zhàn),人不會一味地接受被異化,而會采取相應的措施和合作方式積極應對挑戰(zhàn)。
(一)多路徑并行,加強制度監(jiān)管
面對ChatGPT帶來的挑戰(zhàn),國家發(fā)改委公布《國家以工代賑管理方法》,指出“能用人工盡量不用機械”;聯合國教科文組織號召各國執(zhí)行《人工智能倫理問題建議書》,旨在“提供所有必要保障”。
目前,國際社會對ChatGPT的應對方式主要有監(jiān)管和防護兩種路徑。
監(jiān)管層面,主要有輕監(jiān)管和強監(jiān)管兩種路徑。
以英美為代表的輕監(jiān)管路徑,強調ChatGPT的實際使用,聚焦ChatGPT的具體使用而非背后的技術產業(yè),以保證監(jiān)管方式的適用性。例如,2023年5月,英國競爭和市場管理局的首席執(zhí)行官莎拉·卡德爾表示,監(jiān)管機構對ChatGPT的算法模型進行研究,同時評估其帶來的市場利益可能性,考慮英國政府應如何確保市場競爭的公平和消費者權益的保護;美國副總統(tǒng)瑪拉·哈里斯計劃約見有能力掌握生成式人工智能的企業(yè),一同探討產品的安全性。英美政府均認為,采取多元的治理措施才是發(fā)展技術的最佳方式,強勢監(jiān)管只會阻礙技術的創(chuàng)新。
以歐盟為代表的國家和組織與之相反,采取強監(jiān)管方式,認為監(jiān)管生成式人工智能需要像監(jiān)管藥物一樣,成立專門機構進行嚴格測試和上市審批。2023年2月,歐洲議會AI倫理顧問安娜·費倫德發(fā)表文章,詮釋監(jiān)管生成式AI的背景和原因;7月,歐洲議會通過《人工智能法案》授權草案,這意味著已正式進入歐盟立法嚴格監(jiān)管AI的最終談判階段。歐盟立法者雖然表面不認為ChatGPT存在高風險,但依舊提出了更嚴格的要求和更明確的義務。
防護層面,主要有內部優(yōu)化和外部控制兩種途徑。
內部優(yōu)化,指價值觀糾正,減輕算法的歧視偏向。OpenAI提出三大產品優(yōu)化計劃。第一步是改善算法的默認行為,減少算法在響應不同問題時的偏差,拒絕特殊時期敏感問題的回答;第二步是廣泛定義ChatGPT的價值觀,不提供涉嫌反社會反道德的回答;第三步是對默認值和硬邊界的公共輸入,讓ChatGPT的用戶能夠影響系統(tǒng)的規(guī)則。
外部控制,旨在通過外部建立的安全措施,彌補算法內部模型的缺陷。OpenAI采用新戰(zhàn)略,防止AI提供虛假信息。過去,對算法的鼓勵是針對結果的正確與否,但今后的鼓勵條件是在單一邏輯推理環(huán)節(jié)有正確的表現,即“過程監(jiān)督”。過程監(jiān)督更有助于產生正確回答,鼓勵ChatGPT更邏輯化地思考。同時,OpenAI表示將允許用戶通過OpenAI創(chuàng)建AI輔助審核系統(tǒng),讓AI判斷帖子內容。AI輔助審核系統(tǒng),不僅能減少人工審核,還能實現速度更快、效率更高的反饋閉環(huán)。
(二)善加利用,建立新型協(xié)作關系
在以往的工業(yè)模式中,機器的滯后性導致工人需要自我改變,以適應機器的缺陷。馬克思認為,“在工場手工業(yè)和手工業(yè)中,是工人利用工具,在工廠中,是工人服侍機器”。如今,ChatGPT的智能性改變了以往工人通過異化自我以適應機器的方式,實現了“請求—回應”的新型人機協(xié)作模式[11]。算法的進步促使人和ChatGPT有更規(guī)范的關聯:人向ChatGPT輸入指令,ChatGPT進行產出,由此構成人機交互的“請求—回應”關系?!罢埱蟆貞钡膮f(xié)作模式讓人與ChatGPT之間更加平等。ChatGPT參與到腦力勞動中,實現對人的生產活動的增益。
隨著ChatGPT的升級,其不僅會成為一種新的腦力勞動工具,還會成為一種新的生活方式。如優(yōu)達學城使用GPT-4創(chuàng)建了智能虛擬導師,虛擬導師和真人導師協(xié)助,為學生提供個性化的指導;章魚能源公司將ChatGPT納入客戶服務渠道,和人工客服一起解決客戶所提出的問題,客戶滿意度較以往明顯提高。
ChatGPT所建構的新型人機關系,強調人機合作。在“請求—回應”的關系下,工人不再需要自我異化,機器不再簡單、重復地執(zhí)行指令,雙方互有增益。南京大學哲學系教授藍江指出,ChatGPT等生成式人工智能的價值在于,它參與到人類的知識和經驗之中,它的目的不是徹底取代人類,而是形成我們的身體經驗和人工智能的神經網絡經驗的交互和對接,讓基于人類身體的碳基倫理和基于神經網絡算法的硅基倫理可以在一個共生的層面上結合起來[12]。
想象中的未來已經到來,生成式人工智能來勢洶洶介入人們的日常生活。面對ChatGPT,算法對“大腦甚至是靈魂的支配”不再只存在于哲學書中的空想。但是,人并非算法手中的提線木偶,不會放棄自主性接受異化,國家和社會正在積極應對挑戰(zhàn)。
關于生成式人工智能的應對措施,必須牢牢把握算法社會的發(fā)展規(guī)律,在互利共生的人機關系的基礎上,完善治理方式,共建規(guī)范的數字治理生態(tài),進而實現人機合作共生。
參考文獻:
[1] 邱澤奇.算法向善選擇背后的權衡與博弈[J].人民論壇,2021(Z1):16-19.
[2] 赫伯特·馬爾庫塞.單向度的人[M].劉繼,譯.上海:上海譯文出版社,2008:23.
[3] 周凡.后馬克思主義:批判與辯護[M].北京:中央編譯出版社,2007:332.
[4] 王圓圓,劉彬彬.智能時代的數字勞動異化及其消解[J].中國勞動關系學院學報,2023,37(5):43-52.
[5] 馬克思,恩格斯.馬克思恩格斯全集:第3卷[M]. 2版.中共中央馬克思恩格斯列寧斯大林著作編譯局,譯.北京:人民出版社,2002:268,270.
[6] 王天恩. ChatGPT的特性、教育意義及其問題應對[J].思想理論教育,2023(4):19-25.
[7] 孫琦,陳力丹.從力量崇拜到認知暈輪:ChatGPT的傳播儀式[J].傳媒觀察,2023(7):17-22.
[8] 斯眉.《衛(wèi)報》:人工智能已出現種族和性別偏見[N].北京科技報,2017-04-24(007).
[9] 貝爾納·斯蒂格勒,楊建國.數碼是另一社會的信使[J].文化研究,2015(3):189-198.
[10] 岡特·紹伊博爾德.海德格爾分析新時代的技術[M].北京:中國社會科學出版社,1993:9,19.
[11] 唐林垚.具身倫理下ChatGPT的法律規(guī)制及中國路徑[J].東方法學,2023(3):34.
[12] 藍江.生成式人工智能與人文社會科學的歷史使命:從ChatGPT智能革命談起[J].思想理論教育,2023,528(4):12-18.
作者簡介 張柏林,研究方向:中外新聞史、網絡傳播。