[摘 " 要] 生成式人工智能的快速迭代和應(yīng)用存在的種種風(fēng)險使“人工智能威脅論”在社會公眾視野中盛行。本文基于集體行動的視角,將人工智能應(yīng)用問題解釋為集體責(zé)任問題,分析公眾在生成式人工智能應(yīng)用中所具有的能動性和反身性的集體責(zé)任定位,以及公眾在生成式人工智能治理中的集體義務(wù)。本文以結(jié)構(gòu)性非正義理解生成式人工智能應(yīng)用的問題,闡述促進公眾理解生成式人工智能的科學(xué)傳播困境,從信任角度進行出路分析。生成式人工智能應(yīng)用問題的集體本質(zhì)決定了促進公眾理解生成式人工智能的集體意義,生成式人工智能應(yīng)用的責(zé)任倫理亟待從個人倫理走向集體倫理。
[關(guān)鍵詞]公眾 " 生成式人工智能 " 集體責(zé)任 " 集體行動
[中圖分類號] "N4;B82-057;TP18 [文獻標識碼] A [ DOI ] 10.19293/j.cnki.1673-8357.2024.02.006
生成式人工智能有著無限前景與風(fēng)險,其應(yīng)用問題可以從兩個不同角度被解釋為集體責(zé)任(collective responsibility)問題:生成式人工智能應(yīng)用本質(zhì)上是一種集體問題,或集體實體(collective entity)承擔(dān)生成式人工智能應(yīng)用的集體責(zé)任。在后一種解釋中,使用生成式人工智能服務(wù)的社會公眾是作為集體能動者(collective agent)的眾多集體實體之一。同時,促進公眾理解生成式人工智能是人工智能風(fēng)險治理的重要內(nèi)容之一。本文從集體行動視角切入,以公眾在生成式人工智能應(yīng)用中的責(zé)任關(guān)系為對象,分析公眾的集體責(zé)任定位和公眾在人工智能風(fēng)險治理中的集體義務(wù),就促進公眾理解生成式人工智能所面臨的問題給予解決進路。
1生成式人工智能應(yīng)用問題的集體本質(zhì)
加速發(fā)展的生成式人工智能重塑了人類與技術(shù)的交互模式,將全球社會中的更多人群納入人工智能應(yīng)用中,大模型、大數(shù)據(jù)、大算力支撐的生成式人工智能技術(shù)呈現(xiàn)“涌現(xiàn)”(emergence)特性,帶來一系列風(fēng)險挑戰(zhàn)。同時,生成式人工智能的應(yīng)用與發(fā)展進程中涉及不同群體的大量能動者(agent),造成風(fēng)險的因素在時間和空間上是分散的,人工智能風(fēng)險治理不能僅靠單個能動者。生成式人工智能風(fēng)險本質(zhì)上是集體造成的“涌現(xiàn)”,它已成為一個真正的社會性、全球性問題。
1.1生成式人工智能應(yīng)用問題是一種全球性問題
生成式人工智能應(yīng)用問題已經(jīng)成為除氣候變化、公共衛(wèi)生、戰(zhàn)爭等全球性問題以外人類社會面臨的又一個共同問題。作為新一代人工智能技術(shù),生成式人工智能基于大模型的內(nèi)容生成,是推動全球數(shù)字生產(chǎn)力變革的重要技術(shù)力量。相比以往的人工智能技術(shù),生成式人工智能呈現(xiàn)更強的內(nèi)容創(chuàng)新、人機協(xié)作、數(shù)據(jù)依賴等特性,在眾多應(yīng)用領(lǐng)域產(chǎn)生深刻影響,也帶來一系列風(fēng)險挑戰(zhàn),生成式人工智能正在改變?nèi)祟愂澜纭?/p>
與傳統(tǒng)人工智能技術(shù)不同,生成式人工智能可以在已有數(shù)據(jù)基礎(chǔ)上生成新內(nèi)容,這令人工智能變得更加智能化,呈現(xiàn)通用人工智能的特征,生成式人工智能的此特性引發(fā)人們對人類社會未來是否會真正進入通用人工智能時代這一問題的思考。同時,生成式人工智能的強人機協(xié)作會導(dǎo)致人機界限模糊等問題,如何分清虛擬與現(xiàn)實也將成為全人類面臨的共同難題。另外,生成式人工智能的大模型訓(xùn)練需要以互聯(lián)網(wǎng)為依托收集海量數(shù)據(jù),這使得生成式人工智能應(yīng)用問題真正成為全球性問題,人類社會正面臨前所未有的數(shù)據(jù)信息安全風(fēng)險挑戰(zhàn)。OpenAI公司為訓(xùn)練其自然語言處理模型GPT-4使用了龐大的數(shù)據(jù)集,其數(shù)據(jù)收集以在全球互聯(lián)網(wǎng)上抓取公開網(wǎng)頁內(nèi)容為主,其中涉及眾多社交媒體、論壇、書籍、論文等原始文本數(shù)據(jù)。
此外,生成式人工智能的多領(lǐng)域應(yīng)用導(dǎo)致的倫理風(fēng)險、產(chǎn)業(yè)風(fēng)險、價值風(fēng)險等挑戰(zhàn),正逐漸影響人類社會的發(fā)展進程。筆者認為,生成式人工智能應(yīng)用本質(zhì)上是人類群體、社會集體共同面臨的問題,理解這一全球性問題的集體本質(zhì)是生成式人工智能風(fēng)險治理的重要理論前提與決策依據(jù),具有重要的理論和現(xiàn)實意義。2023年,我國發(fā)布的《生成式人工智能服務(wù)管理暫行辦法》明確鼓勵對生成式人工智能技術(shù)平等互利開展國際交流與合作,參與生成式人工智能相關(guān)國際規(guī)則制定[1]。
1.2生成式人工智能應(yīng)用問題是一種集體行動和集體傷害問題
集體行動問題(collective action problem)指“由獨立的個體行動聚合而產(chǎn)生的結(jié)果,而這些行動并非旨在產(chǎn)生該結(jié)果”[2]。全球各國政府、科學(xué)界、企業(yè)、公眾等能動者共同行動,旨在推動生成式人工智能技術(shù)發(fā)展,引領(lǐng)新一輪科技革命與產(chǎn)業(yè)變革,但生成式人工智能可能帶來的社會、倫理乃至安全風(fēng)險并非預(yù)先存在于相關(guān)能動者的行動意圖中。生成式人工智能的社會應(yīng)用是一種集體行動問題,其自身的復(fù)雜性“涌現(xiàn)”機制令其結(jié)果難以預(yù)測和控制。
在集體行動問題中,個體理性往往導(dǎo)致集體非理性。生成式人工智能的開發(fā)者、使用者、管理者等集體能動者依照其自身領(lǐng)域的理性規(guī)范采取行動,而能動者間缺乏合作性質(zhì)的交互行動,更可能導(dǎo)致非理性結(jié)果。如在教育領(lǐng)域中,運用生成式人工智能為學(xué)生教育提供個性化支持是開發(fā)者和使用者的共同初衷,但對生成式人工智能的過度依賴將損害人類認知能力,這將成為教育領(lǐng)域的潛在風(fēng)險[3]。另外,能動者活動的規(guī)范性準則可能存在非理性成分,這將導(dǎo)致行動整體走向非理性方向,如生成式人工智能的技術(shù)開發(fā)者對底層算法有較大決策權(quán),存在算法歧視風(fēng)險。
作為集體行動問題的子概念,生成式人工智能應(yīng)用問題還是一種集體傷害問題(collective harm problem)。集體傷害問題涉及以集體造成傷害或未能防止傷害的方式行動,但相關(guān)的個人行為本身似乎沒有區(qū)別[4]。面向公眾提供服務(wù)的生成式人工智能產(chǎn)品拓展了公共生活空間,不僅使人機關(guān)系的互動與協(xié)作更加緊密,還將連接整合、協(xié)同利用更多領(lǐng)域的資源。在生成式人工智能塑造的更具互動性、更緊密關(guān)聯(lián)的社會世界中,存在更多以間接方式傷害社會成員的風(fēng)險,這些傷害通常是“多手”(many hands)[5]造成的。許多人以各種方式參與到大數(shù)據(jù)的信息收集中,特別是在使用生成式人工智能產(chǎn)品時,若包括個人信息等在內(nèi)的輸入內(nèi)容被用來迭代訓(xùn)練,個人將面臨數(shù)據(jù)與隱私安全風(fēng)險。這類因相關(guān)個體行為本身的無差別性所導(dǎo)致的集體傷害,在生成式人工智能變革社會認知層面上尤為突出:生成式人工智能一方面可以增強個體認知,另一方面人們過度依賴人工智能可能會對社會認知產(chǎn)生結(jié)構(gòu)性的負面影響[6]。事實上,該問題的本質(zhì)是,當(dāng)以某種方式行動似乎對結(jié)果沒有影響或影響較小時,很難辨別我們?nèi)绾斡欣碛尚袆踊蜻x擇不以此方式行動,普通民眾顯然更多關(guān)注生成式人工智能應(yīng)用所帶來的眼前收益,進而采取相關(guān)行動。這表明在生成式人工智能風(fēng)險治理方面,開發(fā)者、使用者、管理者等單方面將降低風(fēng)險視為自身的職責(zé)或義務(wù)都是錯誤的,應(yīng)該尋求一種合作方案來解決這類集體行動問題。
1.3生成式人工智能風(fēng)險的集體責(zé)任定位
人工智能應(yīng)用的責(zé)任歸屬是人工智能倫理的核心問題,一旦人工智能在應(yīng)用進程中出現(xiàn)問題,能夠找到責(zé)任承擔(dān)者十分重要。以往的哲學(xué)分析通常基于單子化個體主義視角討論責(zé)任的歸屬與分配,包括對人工智能自身能否成為道德能動者(moral agent)的討論。然而這種分析思路忽略了人工智能應(yīng)用行動的集體本質(zhì)。同其他技術(shù)行動一樣,人工智能行動涉及時間線上的眾多能動者。人工智能的使用者、管理者可能并不知道誰曾參與技術(shù)的開發(fā)和使用,這使得風(fēng)險責(zé)任的明確歸屬與分配變得困難。
生成式人工智能風(fēng)險的責(zé)任類型涉及三個層面:因果責(zé)任、道德責(zé)任和法律責(zé)任。其中道德責(zé)任和法律責(zé)任都是規(guī)范性責(zé)任,這意味著存在作出此類規(guī)范性判斷的主體,雖然這類判斷不需要因果責(zé)任,但卻受到因果考量的影響。因果關(guān)系存在于發(fā)生的事情與引起它發(fā)生的事情之間,原因并非必須是一個能動者,例如可以是一種自然或意外現(xiàn)象。然而,即便雷雨天氣可能會導(dǎo)致電力系統(tǒng)損壞,但并不能追究其造成損壞的道德責(zé)任。一般而言,道德責(zé)任意味著道德能動性(moral agency),只有道德能動者才能對電力系統(tǒng)老化背后的經(jīng)濟、政治或其他相關(guān)因素負責(zé),這些因素加大了損壞程度。就人工智能應(yīng)用而言,盡管新一代生成式人工智能技術(shù)已具有更強的自主性,但筆者認為,關(guān)于人工智能風(fēng)險的責(zé)任倫理討論仍應(yīng)以人類自身為焦點,至于將諸如“人機混合能動者”作為道德能動者的混合進路嘗試也依然無法脫離人自身。生成式人工智能的強智能自動化會產(chǎn)生難以預(yù)測的有害后果,但人類卻可以控制哪些任務(wù)被自動化,因此可能結(jié)果的因果責(zé)任和道德責(zé)任仍在于我們?nèi)祟悅€人和集體。
因果責(zé)任在生成式人工智能風(fēng)險責(zé)任中難以判定,呈現(xiàn)集體特性,同時也帶來集體道德責(zé)任。以生成式人工智能應(yīng)用可能導(dǎo)致的知識產(chǎn)權(quán)侵權(quán)責(zé)任為例,生成式人工智能從迭代數(shù)據(jù)到內(nèi)容輸出,再到發(fā)生權(quán)利侵害,整個侵權(quán)過程的因果關(guān)系追溯困難[7]。在生成式人工智能應(yīng)用過程中,開發(fā)者、使用者甚至人工智能自身各自是否應(yīng)承擔(dān)傷害的因果責(zé)任或應(yīng)承擔(dān)哪些因果責(zé)任難以確認。這種復(fù)雜的因果關(guān)系同時也導(dǎo)致相關(guān)法律責(zé)任難以被追究,處于行動鏈條的相關(guān)行動者甚至難以確定自己是否參與了行動。盧恰諾·弗洛里迪(Luciano Floridi)認為,能動者間的道德中立或道德無關(guān)交互活動是一種分布式道德行動(distributed moral action),這類道德行動的道德責(zé)任也分布于各成員間,形成分布式道德責(zé)任(distributed moral responsibility)[8]。生成式人工智能應(yīng)用行動的道德責(zé)任并不能單獨指向某一個體,生成式人工智能風(fēng)險是一種集體傷害問題,這種傷害應(yīng)分散給各類相關(guān)能動者。
道德責(zé)任不僅限于對過往行為的指責(zé),也是一種規(guī)范性責(zé)任。由于造成生成式人工智能風(fēng)險的道德能動者并不唯一,因此需要集體責(zé)任概念,這一方面包括造成傷害的因果責(zé)任,另一方面也涉及造成傷害后所受的指責(zé),集體責(zé)任概念將道德責(zé)任的根源定位在這些群體所采取的集體行動中。科技倫理治理將政府、科技人員、企業(yè)及利益相關(guān)方、社會公眾等作為參與人工智能行動的主要集體實體,涉及應(yīng)對人工智能風(fēng)險應(yīng)該做什么及由誰做的問題,這些集體實體承擔(dān)人工智能風(fēng)險的集體責(zé)任,在有關(guān)生成式人工智能的責(zé)任討論上涉及哲學(xué)、法學(xué)、管理學(xué)等多個學(xué)科領(lǐng)域。這種規(guī)范性集體道德責(zé)任將各類能動者在結(jié)構(gòu)上定位于不同的集體實體范圍內(nèi),避免分布式道德責(zé)任面臨的責(zé)任主體缺失問題[9]。
大多數(shù)哲學(xué)家在討論集體責(zé)任時主要圍繞回溯性集體責(zé)任(backward looking collective responsibility)展開,即在傷害發(fā)生后追溯道德能動者的責(zé)任,近年來他們對所謂的前瞻性集體責(zé)任或前瞻性集體道德責(zé)任(forward looking collective moral responsibility)的關(guān)注度逐漸增加,前瞻性集體責(zé)任主要關(guān)注能動者應(yīng)該為彌補傷害或預(yù)防傷害發(fā)生做什么。生成式人工智能風(fēng)險的集體責(zé)任很大程度上是在討論一種前瞻性集體責(zé)任,畢竟這類技術(shù)的應(yīng)用在人類社會中剛剛起步,還并未造成重大傷害。對于人工智能技術(shù)的開發(fā)者和管理者而言,這顯然是一種集體職責(zé)(collective duty),同時開發(fā)者有義務(wù)讓人工智能技術(shù)走向為人類服務(wù)的善的方向。對于使用者而言,存在一種更為積極的集體義務(wù)(collective obligation),不僅包括對未來科技發(fā)展的信任與信心,同時也涉及主動提高自身科學(xué)素質(zhì)、參與并支持人工智能風(fēng)險治理的集體行動,這都表明人工智能應(yīng)用本質(zhì)上是一種集體問題。
2公眾在生成式人工智能應(yīng)用中的集體責(zé)任定位
聯(lián)合國教育科學(xué)及文化組織發(fā)布的《人工智能倫理問題建議書》(Recommendation on the Ethics of Artificial Intelligence)強調(diào)了公眾參與在人工智能倫理治理中的重要作用[10]。分析公眾在人工智能應(yīng)用行動中責(zé)任定位的前提是理解公眾如何作為集體來承擔(dān)責(zé)任、其能動性的基本內(nèi)涵和公眾參與人工智能風(fēng)險治理的途徑及集體意義。
2.1公眾的能動性和反身性
責(zé)任離不開能動性,有能動性的實體往往是有組織的實體,如政府中相關(guān)工作人員的規(guī)范性角色嵌入組織結(jié)構(gòu)中,使政府能作為集體能動者行動??死锼沟侔病だ钏固兀–hristian List)和菲利普·佩蒂特(Philip Pettit)認為能動者是一種系統(tǒng),有描述其周圍事物如何的表征狀態(tài)、確定事物應(yīng)該如何的動機狀態(tài),以及處理這兩種狀態(tài)以在兩者不匹配時便于干預(yù)的能力[11]。另外,一定程度的自主性和理性也是成為能動者的必要條件。在人工智能應(yīng)用及風(fēng)險治理行動中,將公眾理解為具有能動性的集體實體具有重要意義,他們成為承擔(dān)人工智能應(yīng)用責(zé)任的重要一環(huán),將使用者納入責(zé)任歸屬的討論中,作為人工智能的使用者,公眾既是能動者,同時也是受動者,呈現(xiàn)一種反身性特征。
作為集體實體,公眾的反身性特征首先體現(xiàn)在其參與生成式人工智能應(yīng)用的集體行動中。公眾群體中的個體成員不應(yīng)僅指大部分人工智能普通用戶,還應(yīng)包括參與人工智能技術(shù)發(fā)展的開發(fā)者及管理者,因為即便是開發(fā)者和管理者也并非完全能夠掌握關(guān)于人工智能的所有知識,這些人彼此之間呈現(xiàn)一種非獨立的關(guān)系,因而一旦出現(xiàn)傷害,也都應(yīng)承擔(dān)相應(yīng)的因果責(zé)任和道德責(zé)任。
另外,公眾也是人工智能應(yīng)用責(zé)任關(guān)系中的“責(zé)任受動者”(responsibility patients),受能動者行動的影響,同時要求能動者能負責(zé)任地行動,即能動者被期待并被要求給出其行動理由[12]。公眾在人工智能應(yīng)用中兼具能動者(并非唯一能動者)和受動者身份,一方面,公眾參與生成式人工智能的應(yīng)用行動;另一方面,生成式人工智能應(yīng)用導(dǎo)致的可能風(fēng)險會影響公眾。值得注意的是,公眾受到的風(fēng)險危害并非總是完全負面意義的,如生成式人工智能中的數(shù)據(jù)爬蟲問題反倒可能引發(fā)公眾信息隱私意識的覺醒。
2.2義務(wù)承擔(dān)者:公眾在生成式人工智能行動中的集體意義
自烏爾里?!へ惪耍║lrich Beck)首次提出“風(fēng)險社會”概念以來,伴隨各個領(lǐng)域內(nèi)技術(shù)的極速發(fā)展,“風(fēng)險社會”一詞已被大眾所熟知并接受,“相比于其他個別因素,技術(shù)可能性的巨大拓展對吸引公眾關(guān)注風(fēng)險的貢獻巨大”[13]。生成式人工智能技術(shù)一經(jīng)誕生就引發(fā)社會公眾的關(guān)注,這很大程度上是由公眾對該技術(shù)是什么及其未來可能的發(fā)展方向不夠明確所致。筆者認為,公眾作為承擔(dān)生成式人工智能應(yīng)用集體責(zé)任的集體實體,有主動理解生成式人工智能、提升自身科學(xué)素質(zhì)的集體義務(wù),同時在參與人工智能風(fēng)險治理行動中,也有促成集體實體采取集體行動的義務(wù)。成為承擔(dān)責(zé)任的道德能動者的前提是知道人們在做什么或已經(jīng)做了什么,這是風(fēng)險社會中公眾價值的重要體現(xiàn)。
生成式人工智能技術(shù)未來將成為推動社會各領(lǐng)域智能化升級的關(guān)鍵動力,將更加深度地融入社會公眾的日常生活中,促進個性化服務(wù)、智能制造、虛擬現(xiàn)實等多個領(lǐng)域的進展,這項技術(shù)的最終目的是服務(wù)于人類的社會生活。阿爾文·托夫勒(Alvin Toffler)曾指出,快速的技術(shù)變化將超出正常人的接受能力,必須學(xué)會理解和控制變化速度,成為技術(shù)進化的主人[14]。社會公眾使用生成式人工智能技術(shù)時,無論是直接使用抑或被動參與,都應(yīng)具備一定的相關(guān)知識,這不僅由于面對生成式人工智能技術(shù)的發(fā)展,公眾對其理解產(chǎn)生分歧繼而導(dǎo)致“人工智能威脅論”盛行,更深層次的原因是公眾本質(zhì)上既是人工智能應(yīng)用的能動者,也是人工智能風(fēng)險的責(zé)任承擔(dān)者和受動者。筆者認為,公眾理解生成式人工智能的基本內(nèi)涵是作為集體的公眾對什么是生成式人工智能、生成式人工智能的應(yīng)用與發(fā)展前景、生成式人工智能應(yīng)用的風(fēng)險具有一定的認知,認同管理者主導(dǎo)的人工智能風(fēng)險治理的基本策略。
在生成式人工智能行動中,公眾責(zé)任的集體性還體現(xiàn)在促成集體實體采取相關(guān)行動上。生成式人工智能技術(shù)導(dǎo)致風(fēng)險傷害的一般原因之一是缺乏相關(guān)的責(zé)任規(guī)范。以生成式人工智能對深度偽造技術(shù)領(lǐng)域的影響為例,更加進步的技術(shù)模型有能力生成與現(xiàn)實難以區(qū)分的視頻、圖像和音頻,越來越多相關(guān)的人工智能危害社會現(xiàn)象引發(fā)公共輿論、造成社會損失。一方面,政府及監(jiān)管部門有職責(zé)出臺相關(guān)法律法規(guī);另一方面,由于技術(shù)迭代與應(yīng)用周期短,較大可能出現(xiàn)規(guī)范滯后情形,因此公眾有集體義務(wù)促成集體實體采取行動以規(guī)避風(fēng)險。第一,公眾有集體義務(wù)促成公眾自身包含的社會成員合作,從群體走向有組織的集體。弗吉尼亞·赫爾德(Virginia Held)提出,有理性的人清楚需要采取什么行動并且當(dāng)該行動的預(yù)期結(jié)果明顯有利時,一群人的集合可能因未能合作形成有組織的群體以防止傷害而承擔(dān)責(zé)任[15]。更加有組織的、對生成式人工智能應(yīng)用達成更多共識的社會公眾將成為人工智能風(fēng)險治理的重要力量。第二,公眾有集體義務(wù)努力促成政府和其他集體能動者在還未存在有效集體能動性的情景中采取集體行動。公眾既直接處于人工智能應(yīng)用場景中,也是風(fēng)險傷害的親歷者,應(yīng)更為積極地向政府、開發(fā)者等能動者反饋傷害,以促進技術(shù)和規(guī)范責(zé)任體系的完善,為多元參與協(xié)同互動的“敏捷治理”貢獻力量。
3促進公眾理解生成式人工智能
作為生成式人工智能應(yīng)用的集體能動者,社會公眾一方面有集體義務(wù)積極參與人工智能風(fēng)險治理,包括主動加強對生成式人工智能知識的認知;另一方面,由于生成式人工智能應(yīng)用以非正義的社會結(jié)構(gòu)為背景,社會公眾缺乏對生成式人工智能的理解和認知,其根源是信任問題。
3.1生成式人工智能的結(jié)構(gòu)性非正義問題
生成式人工智能應(yīng)用問題不僅是單個能動者或集體行動的問題,還是一種社會結(jié)構(gòu)問題。導(dǎo)致生成式人工智能風(fēng)險的因素涉及社會整體的多個層面,在復(fù)雜社會網(wǎng)絡(luò)中,個人和集體都與權(quán)力和利益產(chǎn)生關(guān)系。艾麗斯·楊(Iris Young)認為,當(dāng)社會進程使大批人受到統(tǒng)治或剝奪其發(fā)展和行使能力途徑的系統(tǒng)性威脅,同時這些進程使其他人能夠統(tǒng)治或擁有發(fā)展和行使能力的廣泛機會時,就會存在結(jié)構(gòu)性非正義(structural injustice)[16]。社會中的所有人都因?qū)ι鐣M程作出因果貢獻而負責(zé)。
生成式人工智能的主要結(jié)構(gòu)性非正義在于,人工智能技術(shù)應(yīng)用的成本和收益在全社會及全球不同群體中分布不均,使用生成式人工智能的成本與門檻較高。一些社會群體更容易受到人工智能風(fēng)險的影響,不同群體對人工智能技術(shù)的認知與使用程度將影響其適應(yīng)能力。在全球企業(yè)紛紛布局生成式人工智能的境況下,受益于生成式人工智能的工作者將提高生產(chǎn)力和收入水平,而無法受益的工作者將面臨落后及失業(yè)風(fēng)險。OpenAI公司曾就生成式人工智能的語言大模型對美國勞動力市場的影響予以研究,得出的結(jié)論是約80%的美國人在其工作任務(wù)中會受到大模型的影響[17]。因此,可大膽預(yù)測,這種結(jié)構(gòu)性非正義未來將進一步加劇全球貧富差距,一些從未使用或參與人工智能技術(shù)行動的群體可能受到最嚴重的影響,尤其是社會結(jié)構(gòu)中的一些邊緣性群體可能遭受人工智能技術(shù)影響下社會結(jié)構(gòu)所產(chǎn)生的大部分風(fēng)險傷害。另外,生成式人工智能還可能加劇社會結(jié)構(gòu)中原本存在的不正義內(nèi)容,如算法歧視可能進一步加劇社會性別偏見、種族刻板印象,模型訓(xùn)練消耗大量能源加劇全球碳不平等。
改善生成式人工智能的結(jié)構(gòu)性非正義有賴于集體行動的形成。人工智能應(yīng)用問題本身是一種集體行動問題,應(yīng)對該問題的關(guān)鍵在于形成更具有集體性的行動,即集體能動者的行動,或形成有共同目標的合作性聯(lián)合行動。政府、企業(yè)等集體能動者的行動及合作行動將在改善生成式人工智能的結(jié)構(gòu)性非正義問題上扮演重要角色,同時社會公眾中的個體為實現(xiàn)規(guī)避風(fēng)險的共同目標聯(lián)合行動,不僅能形成集體行動,還令社會公眾成為人工智能應(yīng)用行動中的重要集體能動者。羅賓·鄭(Robin Zheng)認為,個人通過其社會角色對結(jié)構(gòu)性非正義負責(zé),角色是結(jié)構(gòu)和能動性的交匯處,理解這些角色有助于確定個人為什么要負責(zé)、對什么負責(zé)及應(yīng)承擔(dān)什么義務(wù)[18]。在人工智能應(yīng)用中,個人可能是開發(fā)者、管理者、使用者等不同社會角色,抑或存在角色重疊的情形,明晰不同角色的責(zé)任定位將有助于改善結(jié)構(gòu)性非正義問題,包括理解社會公眾在生成式人工智能風(fēng)險治理中的角色責(zé)任定位,并在此基礎(chǔ)上促進公眾理解生成式人工智能,確保生成式人工智能的開放包容與公平普惠,推動人類社會能最大限度地共享生成式人工智能帶來的益處。
3.2促進公眾理解生成式人工智能的信任問題與出路
導(dǎo)致生成式人工智能的結(jié)構(gòu)性非正義問題的重要原因之一是社會公眾自身缺乏相關(guān)知識,這既是一個科學(xué)傳播和教育問題,也涉及公眾對科技的態(tài)度。筆者認為,促進公眾理解生成式人工智能并不能簡單停留于科普層面,更重要的是培養(yǎng)公眾的認知主動性。負責(zé)任地行事不僅要求作為能動者的公眾知道自己在做什么,同時公眾也要對人工智能技術(shù)的未來發(fā)展持有自己的理性態(tài)度。
促進公眾理解科學(xué)、提升公眾科學(xué)素質(zhì)一直以來都被視為科學(xué)傳播領(lǐng)域的核心主題,筆者認為,促進公眾理解生成式人工智能面臨的主要科學(xué)傳播困境是生成式人工智能的開發(fā)者、使用者和管理者間缺乏知識性互動,未能將個體的科學(xué)素質(zhì)以一種集體行動方式表達。作為新一代人工智能技術(shù),生成式人工智能的基礎(chǔ)性知識還未在公眾中普及,公眾對人工智能的理解大多停留在語音識別等弱人工智能應(yīng)用層面,人工智能科普教育亟待推進。以往對社會層面科學(xué)素質(zhì)的討論僅關(guān)注個體的聚合,未能有效檢視社會結(jié)構(gòu),如不同社會群體科學(xué)素質(zhì)的差異分布情況對科學(xué)素質(zhì)水平的影響等。事實上,提升社會層面科學(xué)素質(zhì)的關(guān)鍵不是使各類群體的科學(xué)素質(zhì)達到統(tǒng)一水平,普通民眾很難且不必精通人工智能的所有相關(guān)知識,而是不同科學(xué)素質(zhì)水平的群體能協(xié)同行動,特別是增強開發(fā)者和使用者間的知識性互動,以超越個體科學(xué)素質(zhì)之總和的方式展現(xiàn)國家或全社會的科學(xué)素質(zhì)水平[19]。另外,生成式人工智能的監(jiān)管與治理需要積極鼓勵并推進開發(fā)者和使用者的參與跟互動,一方面向公眾普及使用生成式人工智能服務(wù)的規(guī)范,另一方面鼓勵科學(xué)家參與人工智能科普,特別是要積極解決人工智能科普資源的分配不均衡問題,避免導(dǎo)致或加劇未來生成式人工智能應(yīng)用的結(jié)構(gòu)性非正義問題。
促進公眾理解生成式人工智能,增強開發(fā)者和使用者間的知識性互動,其中科學(xué)家能否與公眾良好互動是重要內(nèi)容,也是促進科技發(fā)展的關(guān)鍵。然而,面對科技問題,社會人群傾向于產(chǎn)生分歧而非在很大程度上達成共識,人工智能與人類關(guān)系就是典型例子。人工智能威脅論盛行的通常解釋是公眾的相關(guān)知識不足,如果能夠彌補不足,比如將人工智能素質(zhì)教育納入基礎(chǔ)教育至高等教育的各個環(huán)節(jié),公眾就更可能與科學(xué)界保持一致。迪特里姆·舍費爾(Dietram Scheufele)認為這類進路并未觸及問題的根源,“根本問題不在于知識缺失,而在于信任缺失。民眾只有更信任科學(xué)家,才能更信任科學(xué)研究”[20]。劉永謀指出:“要維護技術(shù)專家與大眾之間的信任,警惕此種信任的衰落甚至消失?!盵21]信任是維持科學(xué)傳播向好態(tài)勢的關(guān)鍵因素。同時,促進公眾理解生成式人工智能亟待在社會公眾與發(fā)展負責(zé)任人工智能間建立信任關(guān)系,讓公眾相信人工智能技術(shù)的良性發(fā)展圖景。然而,信任負責(zé)任人工智能的發(fā)展并不等于盲目相信開發(fā)者和管理者的發(fā)展及應(yīng)用策略取向,公眾作為集體能動者和風(fēng)險受動者,就新技術(shù)的迭代和應(yīng)用應(yīng)當(dāng)展開更為廣泛的討論,積極參與人工智能風(fēng)險治理行動。
此外,由于社會公眾的價值觀或文化背景存在差異,建立公眾對發(fā)展負責(zé)任人工智能的信任關(guān)系可能面臨公眾難以就“負責(zé)任人工智能應(yīng)該是什么”達成共識這一情形。OpenAI公司發(fā)布的人工智能文生視頻大模型Sora具有強大的圖像視頻生成能力,改變了人們“眼見為實”的傳統(tǒng)觀念,但不同價值觀下的公眾成員卻對此產(chǎn)品持有不同態(tài)度,存在追求更多可能性和維護真實世界間的價值觀沖突。因此,促進公眾理解生成式人工智能的重要內(nèi)容之一應(yīng)該是促成社會公眾就生成式人工智能的發(fā)展和應(yīng)用達成較為一致的價值觀,特別是在生成式人工智能全球大發(fā)展的背景下,促成此種價值觀的一致性將更具有集體意義。2023年世界互聯(lián)網(wǎng)大會發(fā)布《發(fā)展負責(zé)任的生成式人工智能研究報告及共識文件》,提出發(fā)展負責(zé)任的生成式人工智能共識,強調(diào)增進人類福祉,堅持以人為本,推動人類經(jīng)濟、社會和生態(tài)可持續(xù)發(fā)展的價值宗旨[22]。
促成公眾形成較為一致的價值觀,以保證公眾對發(fā)展負責(zé)任人工智能的信任,并非完全不允許不同的價值觀存在。閆宏秀認為,一種更為審慎的信任關(guān)系應(yīng)當(dāng)是在解析價值觀差異的基礎(chǔ)上,尋找不信任的價值觀基礎(chǔ),繼而構(gòu)建關(guān)于負責(zé)任人工智能的共識[23]。筆者認為,不同價值觀的存在有利于保證公眾對人工智能持有理性態(tài)度,但需要建構(gòu)信任負責(zé)任人工智能的基本價值觀,即生成式人工智能的發(fā)展和應(yīng)用應(yīng)當(dāng)為社會帶來更多的益處。公眾在確立這種基本信任關(guān)系的前提下,將更加主動地加強對生成式人工智能的認知學(xué)習(xí),提升自身科學(xué)素質(zhì),不僅在有關(guān)人工智能的科學(xué)知識方面得到提升,還能借助對人工智能的學(xué)習(xí),掌握基本科學(xué)方法,培養(yǎng)科學(xué)思維,形成崇尚科學(xué)的精神和科技向善的價值觀,繼而作為集體能動者積極承擔(dān)參與人工智能風(fēng)險治理的集體義務(wù)。
4結(jié)論
傳統(tǒng)個人倫理框架難以較好地呈現(xiàn)生成式人工智能應(yīng)用問題中的集體內(nèi)容,生成式人工智能應(yīng)用問題的集體本質(zhì)意味著該問題必須通過集體行動來解決,集體責(zé)任無法在完整意義上轉(zhuǎn)化為個體責(zé)任。我國發(fā)布的《新一代人工智能治理原則——發(fā)展負責(zé)任的人工智能》將研發(fā)者、使用者和受用者“共擔(dān)責(zé)任”作為人工智能治理原則之一[24]。其中,既是使用者也是受用者的社會公眾不僅要承擔(dān)人工智能應(yīng)用的集體責(zé)任,還要積極承擔(dān)人工智能風(fēng)險治理的集體義務(wù)。生成式人工智能應(yīng)用問題還是一種結(jié)構(gòu)性非正義問題,促進公眾理解生成式人工智能并在此基礎(chǔ)上形成集體行動有利于改善這種情形。然而,促進公眾理解生成式人工智能面臨科學(xué)傳播困境,解決該問題有賴于建立公眾對負責(zé)任人工智能發(fā)展的信任關(guān)系。
整體來看,生成式人工智能涉及的倫理治理問題亟待從個人倫理走向集體倫理,一種生成式人工智能應(yīng)用的前瞻性集體道德責(zé)任框架亟待建構(gòu)。作為集體能動者和受動者的社會公眾在生成式人工智能發(fā)展和應(yīng)用進程中應(yīng)當(dāng)發(fā)揮重要作用,在主動提升自身科學(xué)素質(zhì)的同時積極參與人工智能風(fēng)險治理行動。正如劉大椿所言:“科技發(fā)展所帶來的四海一家的情勢,則促使人們進一步發(fā)展一種具有大同世界胸襟的新型集體倫理……新型集體倫理將更加強調(diào)人類普遍共識基礎(chǔ)上的共同行動,只有這樣,才可能實現(xiàn)整體的永續(xù)發(fā)展?!盵25]
參考文獻
中國網(wǎng)信網(wǎng). 生成式人工智能服務(wù)管理暫行辦法 [EB/OL].(2023-07-13)[2024-01-07]. https://www.cac.gov.cn/2023-07/13/c_1690898327029107.htm.
Schwenkenbecher A. Structural Injustice and Massively Shared Obligations[J]. Journal of Applied Philosophy,2021,38(1):3.
李艷燕,鄭婭峰. 生成式人工智能的教育應(yīng)用 [J]. 人民論壇,2013(23):70.
Nefsky J. Collective Harm and the Inefficacy Problem[J]. Philosophy Compass 14 (4):e12587.
Thompson D F. Moral Responsibility of Public Officials:The Problem of Many Hands[J]. The American Political Science Review,1980,74(4):905-916.
段偉文. 準確研判生成式人工智能的社會倫理風(fēng)險 [J]. 中國黨政干部論壇,2023(4):76-77.
袁曾. 生成式人工智能的責(zé)任能力研究 [J]. 東方法學(xué),2023(3):18-33.
Floridi L. Distributed Morality in an Information Society [J]. Science and Engineering Ethics,2013,19 (3):727-743.
閆宏秀. 數(shù)據(jù)時代的道德責(zé)任解析:從信任到結(jié)構(gòu) [J]. 探索與爭鳴,2022(4):37-46.
聯(lián)合國教科文組織. 人工智能倫理問題建議書 [EB/OL].(2021-11-24)[2023-12-08]. https://unesdoc.unesco.org/ark:/48223/pf0000380455_chi.
List C,Pettit P. Group Agency:The Possibility,Design,and Status of Corporate Agents[M]. Oxford:Oxford University,2011:20.
Coeckelbergh M. Artificial Intelligence,Responsibility Attribution,and a Relational Justification of Explainability[J]. Science and Engineering Ethics,2020,26 (4):2061.
尼可拉斯·盧曼. 風(fēng)險社會學(xué) [M]. 孫一洲,譯.南寧:廣西人民出版社,2020:127.
阿爾文·托夫勒. 未來的沖擊 [M]. 蔡伸章,譯.北京:中信出版社,2018.
Held V. Can a Random Collection of Individuals be Morally Responsible? [J]. The Journal of Philosophy,1970,67(14):476.
Young I. Responsibility for Justice[M]. New York:Oxford University Press,2011:52.
Eloundou T,Manning S,Mishkin P,et al. GPTs are GPTs:An Early Look at the Labor Market Impact Potential of Large Language Models[J]. arXiv Preprint arxiv:2303.10130,2023.
Zheng R. What is My Role in Changing the System? A New Model of Responsibility for Structural Injustice[J]. Ethical Theory and Moral Practice,2018(21):869-885.
凱瑟琳·E.斯諾,肯妮·A.迪布納. 科學(xué)素養(yǎng):概念、情境與影響 [M]. 裴新寧,鄭太妍,譯.北京:中國科學(xué)技術(shù)出版社,2020:74-85.
迪特里姆·舍費爾,游文娟. 公眾如何理解科學(xué) [J]. 科學(xué)與社會,2023(5):56.
劉永謀. 專家與大眾:人們?yōu)楹螌<也粷M? [J]. 科學(xué)傳播,2023(3):24.
世界互聯(lián)網(wǎng)大會人工智能工作組. 發(fā)展負責(zé)任的生成式人工智能研究報告及共識文件 [EB/OL].(2023-11-09)[2024-01-07]. https://cn.wicinternet.org/2023-11/09/content_36952741.htm.
閆宏秀. 負責(zé)任人工智能的信任模塑:從理念到實踐 [J]. 云南社會科學(xué). 2023(4):45-46.
國家新一代人工智能治理專業(yè)委員會. 新一代人工智能治理原則——發(fā)展負責(zé)任的人工智能[EB/OL].(2019-06-17)[2023-12-08]. https://www.most.gov.cn/kjbgz/201906/t20190617_147107.html.
劉大椿. 科技倫理建構(gòu)的新路徑[N/OL]. 光明日報,2023-06-05(15) [2023-12-17]. https://epaper.gmw.cn/gmrb/html/2023-06/05/nbs.D110000gmrb_15.htm.
(編輯 "顏 " "燕 " "荊祎瀾)