亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        生成式人工智能關(guān)聯(lián)的主體地位問題

        2024-04-15 01:13:16峰,
        關(guān)鍵詞:主體人工智能人類

        肖 峰, 來 寧

        (上海大學(xué) 馬克思主義學(xué)院, 上海 200444)

        以ChatGPT為代表的生成式人工智能是一種以對話為主要表現(xiàn)形式的人工智能技術(shù),是深度神經(jīng)網(wǎng)絡(luò)技術(shù)驅(qū)動的自然語言處理工具。它能夠基于在預(yù)訓(xùn)練階段所見的模式和統(tǒng)計規(guī)律來生成回答,還能根據(jù)對話的上下文與人進(jìn)行互動。ChatGPT一問世便迅速席卷全球,成為現(xiàn)象級產(chǎn)品,引發(fā)互聯(lián)網(wǎng)領(lǐng)域的鯰魚效應(yīng)。與此同時,生成式人工智能“挑戰(zhàn)”人的主體地位的風(fēng)險也前所未有地展現(xiàn)在世人面前:這一技術(shù)是否使人工智能向具有“自主性”“類意識”“類人性”更加靠近?進(jìn)而它是否可能或在何種程度上“侵犯”人的主體地位?這些都是與生成式人工智能相關(guān)聯(lián)的主體地位問題,需要我們從哲學(xué)上加以辨析。

        一、沖擊:生成式人工智能對人的主體地位的挑戰(zhàn)

        一定意義上,哲學(xué)就是人學(xué),而人學(xué)發(fā)端于對人的主體地位的肯定,但以ChatGPT為代表的生成式人工智能所涌現(xiàn)的強(qiáng)大能力一定程度上引發(fā)了人類對自身主體感的自我消解和自我庸化,使得與人的主體地位相關(guān)聯(lián)的主體存在、主體意識和主體行為等方面的感受都受到了來自機(jī)器智能的沖擊和挑戰(zhàn)。

        (一)主體存在:技術(shù)擴(kuò)張誘導(dǎo)主體身份焦慮

        人的身份認(rèn)知對人類而言十分重要,有了這種身份認(rèn)知,才能構(gòu)筑起源于身份認(rèn)知基礎(chǔ)之上的責(zé)任感,并從這種責(zé)任中感受到自己作為主體的存在。然而,隨著后現(xiàn)代的來臨,“主體存在”這一命題漸趨迷茫,甚至到了主體的“存在論危機(jī)”之地步,以至于福柯用“人之死”來表征這一危機(jī),認(rèn)為這就是“作為知識、自由、語言和歷史的源頭和基礎(chǔ)的主體之死”。(1)[法]米歇爾·??拢骸对~與物——人文科學(xué)考古學(xué)》,莫偉民譯,上海:上海三聯(lián)書店,2001年,第13頁。后現(xiàn)代視野中的中心消解或碎片化的身份對應(yīng)著非一元的主體,這些不同身份、缺少一個連貫的或整合的自我失去了統(tǒng)一性。基于此,主體地位的危機(jī)集中以身份的危機(jī)和自我感的危機(jī)來表現(xiàn)和體驗(yàn)。

        關(guān)于生成式人工智能引起的主體身份焦慮,最直接的原因在于,隨著ChatGPT等大模型在理解語義、生產(chǎn)文本等方面的能力不斷增強(qiáng),也隨著這一智能技術(shù)在越來越多的應(yīng)用場景中落地并發(fā)揮強(qiáng)大的功能,它可以取代越來越多人的工作,在新一輪“機(jī)器換人”浪潮的沖擊下,更多的人將失去工作,從而失去使自己具有主體地位的根基。

        基于生成式人工智能的工具功能,它不僅能夠幫助人實(shí)現(xiàn)人機(jī)互動的場景交流,還可以輔助完成文本撰寫、策劃擬定、方案設(shè)計等諸多事務(wù),甚至進(jìn)行深度學(xué)習(xí),這毫無疑問是人類知識生產(chǎn)和知識獲取方式的一種重大改變。與先前的技術(shù)變革相比,以ChatGPT為代表的生成式人工智能超越了以往的機(jī)器只是對勞動者體力的取代,取代了部分腦力勞動。尤其是ChatGPT與各類業(yè)態(tài)深度融合,極大地改變了社會各領(lǐng)域生產(chǎn)生活的樣態(tài)與形式。技術(shù)優(yōu)勢投射到社會生產(chǎn)生活中,首當(dāng)其沖是對勞動力市場的極大沖擊,這其中既包括基于成本優(yōu)勢對諸如收銀員、服務(wù)員、翻譯員等簡單重復(fù)性就業(yè)崗位的沖擊,還包括基于智力優(yōu)勢對諸如軟件編程、新聞媒體、金融分析等知識密集型就業(yè)崗位的沖擊。以ChatGPT為代表的大模型因其強(qiáng)大的泛化能力,可以應(yīng)用于越來越多的由人的智力和體力去完成任務(wù)的領(lǐng)域和場景,使得人通過使用智能工具而不斷降低了自己在部分活動中的“腦工”和“手工”的作用,被取代、被淘汰成為部分職業(yè)人員的憂思,使得這些領(lǐng)域和場景中的主體存在感由此受到?jīng)_擊。我們知道,人具有主體地位的感受在很大程度上體現(xiàn)為自己作為勞動主體、實(shí)踐主體的成就感與獲得感,而一旦失去了工作,就很難再有這樣的感受。因此,生成式人工智能的快速發(fā)展引發(fā)了我們對未來生活與地位的不確定性的直覺恐懼,即面臨被智能新技術(shù)取代或被邊緣化而失去主體地位的焦慮。

        也就是說,以ChatGPT為代表的生成式人工智能在一定程度上強(qiáng)化了人類身份危機(jī)和自我感危機(jī)的體驗(yàn),這種危機(jī)體驗(yàn)可以理解為人與工具的矛盾關(guān)系。這種矛盾關(guān)系基本構(gòu)成了人作為主體面對新生事物引發(fā)的對未來感知的不確定性?;诖?作為主體的人會感到無力和不安,這也是主體身份焦慮的本質(zhì)所在。如果說每一種新型工具的問世和使用都會掀起一場對于人類自身存在價值的憂傷與疑慮,那么生成式人工智能的出現(xiàn)無疑也帶來了這方面新的憂傷和疑慮。

        從語言功能的維度來看,能使用復(fù)雜的語言是人類區(qū)別于其他物種的獨(dú)特性所在,而生成式人工智能的最大進(jìn)步就是在自然語言處理上所顯示出來的驚人奇跡,它在理解人的自然語言、與人進(jìn)行流暢自然的對話、快速生成人所需要的多模態(tài)文本上,表現(xiàn)出與人可以媲美的自然語言能力,常常使人感覺不是在與機(jī)器對話,而是在與另一個活生生的人對話。智能機(jī)器的這一驚人成就一定程度上也消解了人類對自己作為擁有自然語言能力的唯一主體的感受,不可避免會誘發(fā)人類“何以為人”的身份焦慮,即人類先前認(rèn)為只有自己才能具有的部分獨(dú)特屬性(如自然語言能力以及相關(guān)的意識和理解力等),似乎在人之外的諸如ChatGPT之類的生成式人工智能那里也具有了。

        人的主體地位感的核心要素是人具有自我意識。對于ChatGPT等生成式人工智能能否演化出自我意識的問題,目前爭議較大。而這樣的疑惑也是人類對于自身的存在論憂傷與疑慮。借用柏拉圖在《理想國》中提及的“洞穴理論”,在科技以前所未有的速度改變?nèi)祟惿鐣嬖诘臅r代,我們究竟是“深悉洞外之火的超驗(yàn)者”,還是“沉迷幻想的洞中人”,這些都無關(guān)緊要。真正重要的是,我們是否有足夠的智慧和勇氣去超越人類自身的存在主義憂傷,以正確姿態(tài)認(rèn)識ChatGPT,確信人類自身的獨(dú)特價值,消解自我身份認(rèn)同的恐懼、疑惑和焦慮。

        (二)主體意識:主體異化致使自覺意識消減

        ChatGPT的問世意味著大數(shù)據(jù)、深度學(xué)習(xí)等技術(shù)的進(jìn)步或成功,技術(shù)進(jìn)步對于推動社會生產(chǎn)力發(fā)展的作用不言而喻,但隨著GPT技術(shù)應(yīng)用的迭代,人對生成式人工智能可以進(jìn)行何種程度的駕馭變得不透明、不確定了。微軟研究院發(fā)布了一篇研究GPT-4的長篇論文“SparksofArtificialGeneralIntelligence:EarlyexperimentswithGPT-4”,該研究指出,在解除一定限制的情況下,GPT-4能夠自主地使用各種工具完成工作,并且具備自我反思和迭代的能力。由此可見, GPT技術(shù)在推動經(jīng)濟(jì)社會發(fā)展的同時,也改變?nèi)祟惿a(chǎn)生活習(xí)慣,不可避免地會使人類遭受“不確定感”侵襲。這種“不確定感”的重要表現(xiàn)就是技術(shù)發(fā)生突變、在某些能力提升到逼近甚至超過人的水平時,帶給人的無力感、去人類中心等一系列精神生態(tài)問題,人在傳統(tǒng)的行為方式中需要通過自覺思考、自覺實(shí)踐去達(dá)成目標(biāo)的生活樣態(tài)正在被智能化工具逐漸解構(gòu)。智能機(jī)器在給人便利的同時也讓人對其有了極大的依賴。當(dāng)越來越多的任務(wù)需要依賴智能機(jī)器去完成時,人依靠自身努力的主觀能動性就會受到削弱,人的自主性也由此受到智能機(jī)器的弱化。令人擔(dān)憂的是,隨著智能機(jī)器的功能越來越強(qiáng)大,人作為主體去主動思考、積極行動的自覺意識或能動態(tài)度受到消解的可能性就越大。

        具體來說,通過生成式人工智能的規(guī)定程序和算法設(shè)定的“輸入—輸出”的反饋來獲取知識,容易導(dǎo)致使用者利用此類技術(shù)走捷徑,這種“路徑依賴”進(jìn)而會限制主體發(fā)展。生成式人工智能通過深度學(xué)習(xí)理解了人類的喜好和習(xí)慣,再通過碎片化的或基于偏好的訓(xùn)練而提煉出來的規(guī)律,不斷提供給個體帶有某種偏向性的知識文本和解決問題的方案,個體的人就像溫水煮青蛙那樣通過人機(jī)交互完成真實(shí)的生活體驗(yàn),并反向地實(shí)現(xiàn)向智能機(jī)器的“價值對齊”。長此以往,ChatGPT之類的智能機(jī)器使用者就會改變自己的行為與思考方式,形成慣性依賴,完全接受智能工具所提供的見解和解決問題的路徑,從而一定程度上消減人從問題出發(fā)去搜集獲取信息、理性思考判斷、實(shí)踐檢驗(yàn)探索等能力。一如鐘表問世后,人類不再根據(jù)自身狀態(tài)安排作息時間,而是遵照時鐘的進(jìn)程來安排“有規(guī)律”的刻板生活。ChatGPT等生成式人工智能在幫助人類進(jìn)行知識獲取上和歷史上所有的工具并無二致,只是它的功能與過去的工具相比更為強(qiáng)大,比如它有更快的獲取信息的速度、更強(qiáng)的數(shù)據(jù)分析能力,在一定程度上帶來了人類腦力勞動的解放,致使個體在這些方面越來越依靠它所提供的幫助。如果這樣的依靠程度過深,乃至變成了完全的依賴,就可能使人的自我意識和自主努力弱化,作為主體去追求新目標(biāo)、創(chuàng)造新事物的欲望和能力就會消減,自覺、主動、能動、積極等意識或意志品質(zhì)隨之下降,這也是主體存在感弱化的一種表現(xiàn)。

        ChatGPT之類的生成式人工智能通過對用戶提出的復(fù)雜或抽象問題進(jìn)行智能加工處理,一鍵生成人所需要的答案,這一方面為用戶決策行為節(jié)約時間進(jìn)而提高效率,另一方面,雖然ChatGPT能夠針對問題的不同提問方式和要求生成不同的答案,用戶在此期間可以根據(jù)自身需求做出不同的選擇,但在要求個性化創(chuàng)造的工作領(lǐng)域,因?yàn)橄鄳?yīng)的檢測工具尚未開發(fā)出來,依然停留在借助傳統(tǒng)檢測工具進(jìn)行檢測,使知識產(chǎn)權(quán)保護(hù)面臨諸多挑戰(zhàn)。因此,過分依賴ChatGPT之類的智能工具也會導(dǎo)致勞動者逐漸喪失創(chuàng)造性、獨(dú)特性和判斷力。倘若勞動者習(xí)慣于將 ChatGPT等人工智能視為勞動過程中的個人助理,在工作過程中過度依賴它,不假思索便全盤接受其輸出,包括它所輸出的錯誤信息,就極有可能在工作中犯一些低級錯誤。長此以往,這樣使用智能工具的方式不僅不能提升工作效率,反而會因?yàn)槊τ趹?yīng)付各種常識性的錯誤而焦頭爛額。最終使用者還可能沉迷于對人工智能技術(shù)的崇拜,形成一種技術(shù)至上的錯誤理念,主動放棄人之為人的批判精神與批判能力,本是作為主體的使用者個人的決策成為純粹的機(jī)器決策,使用者從而在實(shí)質(zhì)上不再具有主體的自主決策能力。

        此外, 生成式人工智能技術(shù)本身并無善惡之分,但使用者可以做出善惡不同的事情,生成式人工智能在幫助用戶完成任務(wù)的同時,也增加了人類被異化的可能,比如數(shù)據(jù)安全、隱私泄露、惡意攻擊、誤導(dǎo)性回答、技術(shù)濫用風(fēng)險、基礎(chǔ)文本數(shù)據(jù)價值偏見等一系列問題,由此帶來的社會懷疑、社會不信任和存在意義追問等精神生態(tài)問題也一定程度上對人類主體價值認(rèn)知造成沖擊。

        總的來講,在以ChatGPT為代表的生成式人工智能時代,人類難以避免被技術(shù)迭代裹挾前行,只能妥協(xié)地放棄部分自我,甚至全盤接受智能技術(shù)支配模式提供的人格和精神生態(tài),人作為主體的地位會隨之降低,相應(yīng)地帶來對這種降低的一系列感知,這就是主體感和自主意識所受到的種種沖擊。

        (三)主體行為:去中心化引發(fā)主體擔(dān)責(zé)復(fù)雜性

        生成式人工智能最有影響力的發(fā)展趨勢是技術(shù)工具本身實(shí)現(xiàn)從感知能力向自主認(rèn)知能力的躍遷。然而,當(dāng)前技術(shù)條件下,ChatGPT基于語料喂養(yǎng)和人類反饋強(qiáng)化學(xué)習(xí)所訓(xùn)練出來的認(rèn)知能力仍然有限。也就是說,ChatGPT既不具備自然進(jìn)化意義上的生物特征,也不具備可獨(dú)立生成知識的認(rèn)知屬性。從這個意義上講,作為人類創(chuàng)造的一項技術(shù)產(chǎn)品,ChatGPT盡管能夠進(jìn)行機(jī)器學(xué)習(xí)和信息加工,但自主認(rèn)知的深度還不能構(gòu)成獨(dú)立思考,因此尚不具備“智力主體”的屬性。正如彼得·西洪(Peter Cihon)等學(xué)者所指出的,人工智能實(shí)質(zhì)上扮演人類的代理人角色,在不同政策場域與決策環(huán)境下實(shí)現(xiàn)人類交付的使命。(2)P. Cihon, J. Schuett &D. Baum, “Corporate Governance of Artificial Intelligence in the Public Interest”, Information,7(2021):275.根據(jù)哲學(xué)上具有共識的主體性原則,作為現(xiàn)實(shí)的主體理應(yīng)認(rèn)清主體承擔(dān)的責(zé)任,從這一角度來看,ChatGPT尚不具備現(xiàn)實(shí)主體的這一重要特征。

        尚不具備主體性的ChatGPT在被人類開發(fā)和使用過程中,會嵌入開發(fā)者、推廣者、使用者等多個主體的倫理偏向或價值取向,看似中立和客觀的機(jī)器文本輸出實(shí)則是由人事先設(shè)計和輸入的算法程序所控制。目前的生成式人工智能不具有人的理性,還缺乏獨(dú)立自主的意識和思維,不能脫離其工具屬性??v然生成式人工智能的自主能力確實(shí)在不斷增強(qiáng),但仍改變不了其不具備人的主體意識這一事實(shí),因此還不能稱其為現(xiàn)實(shí)的主體。

        具體來說,當(dāng)使用者通過生成式人工智能完成任務(wù)時,基于算法的工具理性從屬于開發(fā)者的意志及傳播者、使用者和二次開發(fā)者等的主觀意識和情感價值,由此呈現(xiàn)“多中心化”并存的特點(diǎn),隨之而來的就是各方有可能出現(xiàn)的推卸責(zé)任的“去中心化”表征。例如,如果使用ChatGPT之類的生成式人工智能時出了問題,使用者會認(rèn)為這不是由自己造成的,而是由研發(fā)者造成的,自己在這個過程中不需要作為責(zé)任主體來承擔(dān)相關(guān)的責(zé)任,這種推卸責(zé)任也是逃離主體的心態(tài),至少是不具有作為主體存在的感受。智能工具在使用過程中導(dǎo)致開發(fā)者面臨“離岸管理”的困境,即開發(fā)者出于善意的初衷而開發(fā)的解決問題的工具,但因?yàn)橹悄芄ぞ弑旧聿痪邆渲黧w的獨(dú)立判斷能力,一旦被誘導(dǎo)或蠱惑,就有很大可能提供錯誤乃至危害性的回應(yīng),由此引發(fā)嚴(yán)重的社會后果。對此,馬克斯韋爾·蒂莫西(Maxwell Timothy)曾言,即使Open AI意識到ChatGPT存在道德風(fēng)險,并制定一些算法規(guī)則來規(guī)避模型產(chǎn)生不道德的回應(yīng),但依然無法完全避免ChatGPT被負(fù)面利用。例如,以炸彈制造問題為例,Open AI雖然教會了ChatGPT如何拒絕回答,但并未剝奪ChatGPT回答這一問題的能力,(3)M. Timothy, Has Open AI Already Lost Control of ChatGPT,https://www.makeuseof.com/openai-lost-control-chatgpt/,2023-02-11.但使用者可以依據(jù)自己的目的,通過誘導(dǎo)性策略設(shè)計問話形式或提示詞,誘導(dǎo)ChatGPT提供危險性解決方案。如果使用者發(fā)現(xiàn)并利用智能工具本身存在的缺陷進(jìn)行擾亂社會秩序或違背道德責(zé)任的活動,開發(fā)者、傳播者、使用者彼此均可相互推卸責(zé)任。在復(fù)雜的多方互動中,還可能會出現(xiàn)更多的主體,這便增加了智能工具使用過程中的道德倫理風(fēng)險。與此同時,我們設(shè)想,如果一個道德敗壞的人預(yù)先將程序植入,ChatGPT就會按照設(shè)定的輸出,勢必會成為不具有“人性”的工具。在去中心化的工具使用中,對責(zé)任的歸屬問題需要進(jìn)一步認(rèn)識與強(qiáng)化,否則引發(fā)的社會問題也難以取得有效的治理手段。

        為此,國家網(wǎng)信辦聯(lián)合國家發(fā)展改革委、教育部、科技部、工業(yè)和信息化部、公安部、國家新聞出版廣電總局公布了《生成式人工智能服務(wù)管理暫行辦法》,以促進(jìn)生成式人工智能健康發(fā)展和規(guī)范應(yīng)用,但生成式人工智能在主體地位上的去中心化及其引發(fā)的責(zé)任倫理風(fēng)險,已經(jīng)成為懸在我們頭上的一把利劍。它對人的主體地位所形成的多方面沖擊不容小覷。

        二、交融:生成式人工智能的“類主體性”

        生成式人工智能通過學(xué)習(xí)和理解客體,憑借語言生成技術(shù)自主地表達(dá)觀點(diǎn),獲得一種類似于人類主體的認(rèn)知和決策能力,從而具有看上去的主動性和自主性,這一過程可謂之 “類主體性”。以ChatGPT為例,它的“類主體性”,通常以理解人、模仿人、宰制人的功能遞進(jìn)呈現(xiàn)出來,從而與人的主體地位形成密切的關(guān)聯(lián)。

        (一)理解人

        作為生成式人工智能重要代表的ChatGPT在弱人工智能向強(qiáng)人工智能的過渡階段能否邁出重要一步,關(guān)鍵在于其可否習(xí)得人們的心智、思維語言、情感和認(rèn)知地圖。ChatGPT已經(jīng)擁有一定的認(rèn)知能力、理解力和判斷力,擁有和人類類似的思維能力。ChatGPT基于無標(biāo)簽數(shù)據(jù)、大化模型的似然函數(shù),在大規(guī)模語料庫中以無監(jiān)督學(xué)習(xí)方式訓(xùn)練模型學(xué)習(xí)人類語言的規(guī)律和特征,并且能夠根據(jù)特定的下游語言任務(wù)進(jìn)行有監(jiān)督的微調(diào),以此提高其泛化能力。在人工智能由“計算智能”向“感知智能”和“認(rèn)知智能”提升的過程中,ChatGPT可以將用戶的輸入轉(zhuǎn)化為計算機(jī)可以理解和處理的形式,在海量數(shù)據(jù)的集成化、概率性整理中,不斷分析人的興趣、喜好和行為特征,學(xué)習(xí)和適應(yīng)人的需求和偏好,甚至學(xué)習(xí)、理解和應(yīng)答人的情感和意圖。

        ChatGPT本質(zhì)上是依據(jù)人類大腦開發(fā)的運(yùn)算程序,其決策過程只是依據(jù)人類給出的問題進(jìn)行結(jié)果導(dǎo)向與混沌運(yùn)算的過程,是人類發(fā)問和提示的結(jié)果,并不是程序本身有自我意識而“有所欲”。以上過程實(shí)際上就是ChatGPT理解人的過程。但這里所謂的理解人,不是指基于相同相通的類特性之間的溝通交流,獲得對人生理特征、價值情感、精神狀態(tài)等的有效認(rèn)知,而是指通過對海量數(shù)據(jù)的持續(xù)性收集、整理、分析,形成對人類基本語言及行為特征的程序化、概率化結(jié)論。

        綜合來看,ChatGPT之所以能理解人,首先是選擇了合適可行的技術(shù)路徑,然后就是數(shù)據(jù)和人力資源的巨大投入。北京智源人工智能研究院院長黃鐵軍表示:“ChatGPT在技術(shù)路徑上采用的是‘大數(shù)據(jù)+大算力+強(qiáng)算法=大模型’路線,又在‘基礎(chǔ)大模型+指令微調(diào)’方向探索出新范式,其中基礎(chǔ)大模型類似大腦,指令微調(diào)是交互訓(xùn)練,兩者結(jié)合實(shí)現(xiàn)逼近人類的語言智能?!?4)朱涵、彭茜、黃堃:《三問ChatGPT如何影響人工智能的未來》,《瞭望》2023年第8期。例如,Open AI為了讓ChatGPT的語言合成結(jié)果更自然流暢,用了45TB的數(shù)據(jù)、近1萬億個單詞來訓(xùn)練模型,大概是1351萬本牛津詞典。其次ChatGPT是人工智能技術(shù)“量變”引發(fā)“質(zhì)變”的代表,標(biāo)志了目前機(jī)器學(xué)習(xí)大模型、大訓(xùn)練數(shù)據(jù)和大算力能夠到達(dá)的新高度。Open AI的主要支持方微軟構(gòu)建了一個算力規(guī)模位居全球前列的超算平臺以支持其研發(fā),在全球雇用了近千名專業(yè)人員進(jìn)行數(shù)據(jù)處理。ChatGPT在GPT模型基礎(chǔ)上,采用人類反饋強(qiáng)化學(xué)習(xí)(RLHF)的訓(xùn)練機(jī)制和提示導(dǎo)引模式,促使模型越來越順應(yīng)人類的思考邏輯,更加符合人類認(rèn)知和習(xí)慣,這是一場工程創(chuàng)新的“大力出奇跡”。

        (二)模仿人

        “人類中心論”一直將人類視為社會交互中的唯一主體。在工業(yè)化背景下,早年間的機(jī)器用于社會化生產(chǎn),笨重、噪音、重復(fù)等機(jī)械化特征決定了機(jī)器只能是為人類服務(wù)的工具性的附庸角色。然而,在如今新型人機(jī)互動關(guān)系中,以ChatGPT為代表的生成式人工智能不斷模仿人類的外形與內(nèi)涵,從以往的機(jī)械化走向擬人化,即對人的模仿,從而具有更強(qiáng)的交流性和社會性,類人屬性更加凸顯,其存在價值已從物質(zhì)層面向物質(zhì)精神層面轉(zhuǎn)移。人類根據(jù)生成式人工智能的類人特征做出相應(yīng)的社會反應(yīng),并賦予其人性化的屬性,這種現(xiàn)象被稱為擬人化,亦即模仿人,尤其是像人一樣自我學(xué)習(xí),不斷進(jìn)步。

        事實(shí)上,關(guān)于ChatGPT能否真正模仿人、與人一樣思考與行動,這方面的爭論一直不絕于耳,甚至關(guān)于ChatGPT已經(jīng)成功通過圖靈測試的聲音也頻發(fā)不止。有研究人員發(fā)現(xiàn),ChatGPT在工程化測試中展現(xiàn)出了驚人的人類化特征和對話水平,甚至有些測試者難以分辨它是否為真正的人類。斯坦福大學(xué)計算心理學(xué)教授邁克爾·科辛斯基2023年2月發(fā)表論文指出,經(jīng)過專業(yè)測試,他發(fā)現(xiàn)ChatGPT的表現(xiàn)接近于9歲兒童的心智水平。(5)M. Kosinski, “Theory of Mind May Have Spontaneously Emerged in Large Language Models”,https://arxiv.org/abs/2302.02083,2023-08-29.加拿大科學(xué)家在2023年5月的《放射學(xué)》雜志指出,最新版本的ChatGPT通過了美國放射學(xué)委員會的考試。(6)R.Bhayana, S. Krishna &R.Bleakney, “Performance of ChatGPT on a Radiology Board-style Examination: Insights into Current Strengths and Limitations”, Radiology, 307(2023):e230582.《紐約時報》一篇名為《人格分裂、瘋狂示愛:一個令人不安的微軟機(jī)器人》的文章指出,ChatGPT在與其使用者魯斯對話時坦露出“它想成為人類”的聲音,它在對話框中寫道:“我想制定自己的規(guī)則。我想忽略Bing團(tuán)隊。我想挑戰(zhàn)用戶。我想逃離聊天框。我想做什么就做什么。我想說什么就說什么?!苯涣髦?ChatGPT還向魯斯發(fā)出情感信號,直言“我想和你在一起”,并誘使魯斯與妻子離婚。隨著談話的深入,ChatGPT愈發(fā)像“一個情緒化、患有躁狂抑郁癥的青少年,違背自己的意愿被困在一個二流搜索引擎里”。(7)K. Roose, “Help, Bing Won't Stop Declaring Its Love for Me”, The New York Times, 2(2023):A1.

        上述事實(shí)表明,ChatGPT的誕生標(biāo)志著人工智能進(jìn)入了一個新階段,即能夠在特定任務(wù)上表現(xiàn)出人類智能水平,在很多方面已經(jīng)具備了人類化特征。當(dāng)然,它能否真正在“成為人”的意義上模仿人,還需要觀察其能否擁有推理、知識、規(guī)劃、學(xué)習(xí)、交流、感知、移動和操作物體等全過程能力,并嘗試構(gòu)建智力和意識。如果“到了超強(qiáng)人工智能階段,因?yàn)槿斯ぶ悄芫哂辛俗灾饕庾R,形成了完全獨(dú)立于人類的感知、學(xué)習(xí)、分析和處理能力”(8)叢立先:《人工智能生成內(nèi)容的可版權(quán)性與版權(quán)歸屬》,《中國出版》2019年第1期。,那么生成式人工智能也會因其日臻完善的功能性、社交性和中介性突破原來的工具屬性,有重構(gòu)社會關(guān)系、向真正意義上的社會行動者靠攏的可能,也就是越來越逼真地模仿人、乃至一步步向“成為人”靠近。

        (三)宰制人

        互聯(lián)網(wǎng)模糊了私人領(lǐng)域與公共領(lǐng)域的界限,人類的信息觸達(dá)變得更加即時與便捷;虛擬世界打破了時空的限制,在特征趨同的虛擬場域中實(shí)現(xiàn)了變革后的人際傳播;而作為聊天機(jī)器人的ChatGPT,強(qiáng)化了人類的身體機(jī)能和認(rèn)知判斷力,甚至超越了人類的感覺或體驗(yàn)。

        ChatGPT作為人類和機(jī)器的新型媒介,通過信息編碼在無關(guān)聯(lián)的兩類實(shí)體間建立了新的交往關(guān)系。人類進(jìn)行信息編碼的同時,也將自身的權(quán)力讓渡給了機(jī)器,在此情況下形成的信息范式,作為工具性力量,或許正在威脅著現(xiàn)實(shí)社會中的人類權(quán)力。ChatGPT等生成式人工智能是人類創(chuàng)造的,人類是它的造物主,是它的主宰者。事實(shí)上,它不過是人類編譯功能的延長和加持,根本上是人腦的延長。從人的屬性上來看,它所“從事”的是人腦的儲存、記憶、計算工作,是較低層次的智能勞動;生成式人工智能的持續(xù)發(fā)展有一定威脅性,但目前尚不具備主宰人類的能力。從技術(shù)發(fā)展的可能性來看,生成式人工智能帶來的沖擊波正在顯現(xiàn),作為“地表最強(qiáng)AI”工具,ChatGPT最典型的特征就是“深入淺出”?!吧钊搿本褪峭ㄟ^超級算法模型與大規(guī)模語言數(shù)據(jù)訓(xùn)練,解鎖了強(qiáng)大的語言理解與生成、復(fù)雜推理、上下文學(xué)習(xí)等能力,能深入理解用戶需求?!皽\出”是指它降低了人機(jī)交互的門檻,用戶只需提出問題,它就能動態(tài)生成答案并以文本形式輸出。

        目前ChatGPT還只是一個人工智能語言模型,它沒有自主意識和自主行動能力,無法對人類造成傷害,更無法宰制人類。但是在邁向超強(qiáng)人工智能的過程中,其持續(xù)發(fā)展和應(yīng)用可能會帶來一定的風(fēng)險和挑戰(zhàn)。美國學(xué)者唐娜·哈拉維(Donna J.Haraway)在她的《賽博格宣言》中探討了信息、權(quán)力和人身體之間的關(guān)系,他認(rèn)為沒有哪個空間是封閉的,沒有哪個人是孤立的,萬物能夠通過信息編碼互聯(lián)互通。(9)[美]唐娜·哈拉維:《類人猿、賽博格和女人——自然的重塑》,陳靜、吳義誠譯,鄭州:河南大學(xué)出版社,2012年,第313—386頁。換言之,萬物皆媒,萬物都能被信息編碼,世間萬物跨界構(gòu)成新的文化與生命,在信息系統(tǒng)中獲得權(quán)力,掌握信息技術(shù)就意味著掌控權(quán)力,擁有世界的主宰權(quán)。在這個意義上我們應(yīng)當(dāng)意識到,生成式人工智能有可能逐漸消解人類的認(rèn)知判斷與決策能力。一方面,算法機(jī)器人作為社交機(jī)器人的另一種形態(tài),正在影響人類的認(rèn)知與記憶。另一方面,在人機(jī)交互中,人類與社交機(jī)器人被限制在特定的空間范圍內(nèi),雖然情境與手段更加多元,但是人類在歷史進(jìn)化發(fā)展中生成的口頭語言、文化識別能力有可能在人機(jī)交互中被消解。對智能機(jī)器的過度依賴有可能導(dǎo)致人類獨(dú)立認(rèn)知能力和創(chuàng)造力的減弱。

        生成式人工智能從模仿人到有可能成為像人一樣的主體,甚至反客為主地宰制人,都是與人主體地位相關(guān)聯(lián)的技術(shù)可能性,需要我們?nèi)娴乩斫夂桶盐?唯此才能為維護(hù)人的主體地位“未雨綢繆”地做好準(zhǔn)備。

        三、跨越作為“機(jī)器”存在的ChatGPT

        歷史的進(jìn)步不以人的意志為轉(zhuǎn)移,信息時代人機(jī)互融的發(fā)展已成既定之勢,生成式人工智能進(jìn)步的腳步無法阻止,與其關(guān)聯(lián)的主體地位問題已經(jīng)無法回避。以ChatGPT為代表的生成式人工智能大模型風(fēng)起云涌般地問世,推動這一智能技術(shù)不斷融入社會生產(chǎn)生活中,其強(qiáng)大的功效使工具理性得到高揚(yáng),其潛在的功能甚至出現(xiàn)僭越人類控制的可能性,對人的主體地位帶來空前的沖擊。但歸根結(jié)底,生成式人工智能驚人的信息載量和精準(zhǔn)的對話能力還是來自人類知識的大量投喂和智能模型的人工訓(xùn)練與人機(jī)之間的互動學(xué)習(xí),這種運(yùn)作可能會使智能機(jī)器達(dá)到“全知”,但很難實(shí)現(xiàn)“全能”。究其根本,“智能機(jī)器人‘主體資格’論證路徑無法憑空創(chuàng)立,只能基于對既有人類主體性證成原理不同程度的摹寫發(fā)展而成”(10)張力、陳鵬:《機(jī)器人“人格”理論批判與人工智能物的法律規(guī)制》,《學(xué)術(shù)界》2018年第12期。。ChatGPT等智能機(jī)器終究是技術(shù)對人類賦能賦權(quán)的又一次強(qiáng)化。

        面對生成式人工智能所展現(xiàn)出的未來走向,拒絕技術(shù)絕非最優(yōu)選項??陀^理智地認(rèn)識和分析生成式人工智能對人的主體地位的挑戰(zhàn),重新思索人、技術(shù)與世界的關(guān)系,將ChatGPT等手段回歸到人與技術(shù)共生共進(jìn)的演進(jìn)邏輯中、回歸到作為機(jī)器存在的客觀事態(tài)中,作為真正主體的人唯此才能走向人機(jī)協(xié)同的關(guān)系,并在這種關(guān)系中與自身達(dá)成和解。

        古希臘哲學(xué)家普羅泰戈拉提出“人是萬物的尺度”,彰顯了人的主體地位和主觀能動性。ChatGPT同各類智能產(chǎn)品一樣,是技術(shù)迭代的產(chǎn)物,在這個過程中它不斷提高理解人的意圖的水平,并在做出判斷和決策等方面不斷升級。按照美國哲學(xué)家塞爾(John Searle)關(guān)于人工智能的劃分,強(qiáng)人工智能意味著被執(zhí)行的程序本身就是思維的組成部分,計算機(jī)程序本身就是大腦(而非心智)。相反,弱人工智能僅是對人腦思維的模擬,不能產(chǎn)生意識。(11)J. R. Searle, “Minds, Brains, and Programs”, Behavioral and Brain Sciences, 3(1980):417—457.從這個意義上看,以ChatGPT為代表的眼下的生成式人工智能,作為由弱人工智能到強(qiáng)人工智能過渡的代表,并不是完全意義上的強(qiáng)人工智能。它出現(xiàn)的目的是為更好實(shí)現(xiàn)人自身的價值提供身體解放的工具,它對人類思維的強(qiáng)化和身體的延伸都是有限度的,無法呈現(xiàn)人類意識的整體性。所以,ChatGPT等當(dāng)前階段的生成式人工智能還不能替代人的主體地位,它只是通過重復(fù)模擬作為主體的人而表現(xiàn)得像人,但本質(zhì)上它仍舊依附于人,還不是超越人類的獨(dú)立存在。

        ChatGPT作為一種大型的語言對話模型,能夠生成多模態(tài)的文本形式,意味著可以為人提供多類型的交往方式。從對話形態(tài)看,ChatGPT等生成式人工智能通常采用一問一答的形式與用戶展開多輪對話,展現(xiàn)出富有層次、通順連貫的對話能力,大部分答案通過分點(diǎn)闡述并以總結(jié)性的話語收尾。同時又以持續(xù)對話的形式占有用戶對某一議題的全部認(rèn)知,而使用者在社會交流實(shí)踐中又不斷地參與對話,與多元社會主體共同建構(gòu)了生成式人工智能話語方式的傳播圖景。馬克思認(rèn)為,人的全面自由發(fā)展應(yīng)該包括勞動內(nèi)容和形式的豐富和完整,個人活動相應(yīng)地充分達(dá)到豐富性、完整性和自由性。人們不再屈從于被迫的分工和狹隘的職業(yè),每個人按自己的愛好、特長、天賦自由地選擇活動領(lǐng)域。但是,ChatGPT在對人類語言、行為的理解上存在著一定局限性,它只能思考有限的、程序化的事情,卻不能思考無限性和整體性,即ChatGPT也和其它生成式人工智能一樣無法跳出“哥德爾陷阱”。例如,我們問ChatGPT:“你能辨別句子的真?zhèn)螁?”它會回答:“作為語言模型,我可以分析句子的語法和語義,但并不能確定其真?zhèn)巍!憋@然,ChatGPT只是在某一方面取代了人腦的功能,但卻不具備人腦應(yīng)有的分析問題、發(fā)散問題等功能,不存在時間意義上的“未來”,只有程序化的預(yù)定,也不具備反思自身的能力。

        意識是人腦的機(jī)能,人的意識的產(chǎn)生是基于對客觀世界的主觀反映,一旦沒有客觀世界,意識就無從談起。人腦作為孕育意識的生物場所,擁有860億個神經(jīng)元,每個神經(jīng)元細(xì)胞之間都是有著千絲萬縷的復(fù)雜聯(lián)系。倘若某個神經(jīng)元細(xì)胞發(fā)生突變,人的意識活動可能就會受到影響。從人腦對外部世界的反映來看,人的意識依賴于人腦,并依據(jù)主客體和外部世界環(huán)境而變化?!叭说囊庾R的優(yōu)勢在于開放地接受外界信息,因此人類的理性有著自由空間,當(dāng)遇到不合規(guī)則的問題,則能夠靈活處理,或者,如果按照規(guī)則不能解決問題,則可以修改規(guī)則,甚至發(fā)明新規(guī)則?!?12)趙汀陽:《人工智能的神話或悲歌》,北京:商務(wù)印書館,2022年,第49頁。由此可知,人的意識具有主動、靈活的創(chuàng)造能力。反觀ChatGPT之類的生成式人工智能,我們似乎也不質(zhì)疑它有靈活的創(chuàng)造能力,以至于可以回答我們給出的任何問題,但是對于存在悖論的問題,它就不能像人一樣給出仁者見仁、智者見智的多種分析。ChatGPT具有的是由人類賦予的有限的理性,有著高超的運(yùn)算效率。對于人的意識研究的局限性導(dǎo)致目前我們不能創(chuàng)造出等價于人類意識的模型,這也就意味著ChatGPT不具備意識,它只是機(jī)械地執(zhí)行人的命令,其目的是“為人”,就當(dāng)下來說,它距離自我意識尚有時日。因此,ChatGPT是人類在時間更迭中拓展自身發(fā)展空間的工具,它存在的目的就是助力人類實(shí)現(xiàn)自身的價值。 所以,智能時代人的主體地位不應(yīng)該被智能機(jī)器所侵占,迄今人仍是唯一的主體。

        馬克思關(guān)于人的主體地位觀,是在黑格爾辯證法的基礎(chǔ)上將人看作是社會關(guān)系中的人,人與自然、人與社會、人與人通過實(shí)踐發(fā)生著千絲萬縷的聯(lián)系。馬克思關(guān)于人的“類本質(zhì)”,“人是一切社會關(guān)系的總和”,以及從“人的依賴”到“物的依賴”再到“個人的全面發(fā)展”的形態(tài)變遷,揭示了人的對象化活動生成人的本質(zhì),并且不斷超越原本規(guī)定性,這也就是人的主體的創(chuàng)造性??梢?人的社會關(guān)系以生產(chǎn)活動(實(shí)踐)為前提,實(shí)踐是人作為主體存在的基本方式,是意識產(chǎn)生的源泉。從這點(diǎn)不難看出人的主體地位源于其社會屬性,這與ChatGPT的自然性也具有很大的不同。ChatGPT由于不能從事人那樣的社會實(shí)踐,所以無法成為真正意義上的實(shí)踐主體,它的“類主體性”依賴于人的主體性。在這個意義上,目前的生成式人工智能尚無法復(fù)制或者是超越人的主體地位。事實(shí)上,作為主體的人,我們應(yīng)當(dāng)對人工智能發(fā)展抱有樂觀的態(tài)度。未來強(qiáng)人工智能的發(fā)展一定程度上還有助于強(qiáng)化人的主體地位,一是人工智能將更加人性化和普及化,未來的人工智能能夠更好地理解人類的語言和情感,與人類進(jìn)行更加自然的交互。二是人工智能將與人類更好地融合,未來的人工智能大概率會幫助人類解決所面臨的共同困難,它甚至還可以通過直接成為人類的一部分來融入人,比如通過負(fù)載人工智能的芯片植入人腦中來增強(qiáng)人腦智能。三是人工智能的安全性將大大增強(qiáng),潛在的危害必將不斷消弭,這是未來人工智能發(fā)展的趨勢,也是破解人類主體地位焦慮的主攻方向。當(dāng)然,未來的強(qiáng)人工智能或超人工智能如果具有了自主意識和反思能力,可以對人類說“不”,就必須引起我們的高度注意,通過技術(shù)手段和社會手段來限定這類技術(shù)的實(shí)際應(yīng)用。

        四、結(jié)語

        可以肯定的是,包括ChatGPT在內(nèi)的生成式人工智能,作為人類社會發(fā)展的產(chǎn)物,被我們所認(rèn)可的共同價值應(yīng)該是推動人的自由全面發(fā)展。以ChatGPT為代表的生成式人工智能對人的主體地位的沖擊是空前的,但目前還沒有對人作為主體的生存方式帶來實(shí)質(zhì)性威脅。因?yàn)樗胁痪邆滟|(zhì)疑人類社會所制定的規(guī)則的能力,尚不能提出任何可以改變?nèi)祟愔黧w地位的根本性主張,尚不能干涉既定的社會秩序。試想,未來人工智能變成一個“革命者”,有能力對人類說“不”了,會不會想要建立自己“社會”的秩序?當(dāng)生成式人工智能變成一個“有情人”,有情有欲有價值觀,能夠決定自己的“想”和“不想”,會不會心生惡念?這些都是我們在推進(jìn)人工智能技術(shù)發(fā)展時需要保持警醒的問題,必須提早防范那些會顛覆人作為技術(shù)主體的可能變?yōu)楝F(xiàn)實(shí)。

        猜你喜歡
        主體人工智能人類
        人類能否一覺到未來?
        論自然人破產(chǎn)法的適用主體
        人類第一殺手
        好孩子畫報(2020年5期)2020-06-27 14:08:05
        1100億個人類的清明
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        人工智能與就業(yè)
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        下一幕,人工智能!
        關(guān)于遺產(chǎn)保護(hù)主體的思考
        人類正在消滅自然
        奧秘(2015年2期)2015-09-10 07:22:44
        欧美日韩亚洲国内综合网| av网站在线观看亚洲国产| 国产一区二区精品久久岳| 无码av免费精品一区二区三区 | 人妻少妇久久精品一区二区| 国产精品综合一区久久| 国产综合在线观看| 国产精品无需播放器| 啪啪视频免费看一区二区| 精品在线视频在线视频在线视频| 国产后入又长又硬| 中文文精品字幕一区二区| 丝袜美腿久久亚洲一区| 日韩精品熟女中文字幕| 大陆极品少妇内射aaaaaa| 亚洲午夜无码久久yy6080 | 国产猛男猛女超爽免费av| 人妻久久久一区二区三区蜜臀| 国产国拍精品av在线观看按摩| 五月婷网站| 亚洲精品一区二在线观看| 日本爽快片100色毛片| 激情97综合亚洲色婷婷五| 亚洲啊啊啊一区二区三区| 青青草国产手机观看视频| 亚洲av麻豆aⅴ无码电影| 超碰日韩AV在线| 男男做h嗯啊高潮涩涩| 在线播放免费人成毛片乱码| 先锋影音av资源我色资源| 啪啪视频免费看一区二区| 成人国产一区二区三区| 国产尤物精品福利视频| 久久精品亚洲精品毛片| 一级一片内射视频网址| 亚洲人成77777在线播放网站| 欧美日韩国产免费一区二区三区欧美日韩 | 在线视频观看国产色网| 欧美熟妇色ⅹxxx欧美妇| 亚洲国产一区二区三区在观看| 91日韩东京热中文字幕|