中圖分類號:TP18;D630文獻標識碼:A
文章編號:1673-8268(2025)03-0113-09
一、引言
近年來,國內(nèi)外各大高校、研究機構(gòu)和企業(yè)紛紛開展各類人工智能大模型的研究與開發(fā),推動了生成式人工智能產(chǎn)品快速涌現(xiàn)。國際科研組織在人工智能大模型領(lǐng)域表現(xiàn)出強大實力,OpenAI、谷歌、微軟等技術(shù)巨頭相繼推出了ChatGPT、Gemini、New Bing 等代表性產(chǎn)品。與此同時,我國互聯(lián)網(wǎng)企業(yè)也積極布局人工智能領(lǐng)域,百度、科大訊飛、華為和阿里巴巴陸續(xù)發(fā)布文心一言、訊飛星火、盤古、通義千問等智能大模型,為各自行業(yè)提供了先進的智慧服務(wù)。2025年初,DeepSeek的“火爆出圈”,更標志著人工智能發(fā)展進入新階段。
然而,隨著人工智能技術(shù)的快速迭代發(fā)展,其潛在風(fēng)險也日益顯現(xiàn)。盡管人工智能的廣泛應(yīng)用極大提高了工作效率與便捷性,但由于其缺乏透明度與可闡釋性,極易引發(fā)社會各界的質(zhì)疑與擔(dān)憂,在某些特定場景下人們對人工智能給出的結(jié)論始終持謹慎態(tài)度。同時,個人隱私泄露、數(shù)據(jù)安全隱患、公平與差別待遇等問題也日漸突出,不僅引發(fā)了公眾對人工智能的抗拒與質(zhì)疑,阻礙了大模型的開發(fā)與推廣,還對人工智能企業(yè)的公共形象產(chǎn)生了負面影響。這就需要企業(yè)在發(fā)展技術(shù)的同時,更加重視自身的社會責(zé)任,讓公眾重拾對企業(yè)的信心與信任。因此,建立以生成式人工智能為基礎(chǔ)的監(jiān)管與治理體系十分重要。目前,各國及國際機構(gòu)紛紛出臺相關(guān)政策法規(guī)以強化對人工智能的管理。例如,美國國家科學(xué)技術(shù)與技術(shù)研究院在2023年1月發(fā)布《人工智能風(fēng)險管理框架》,強調(diào)加強人工智能系統(tǒng)的安全性和可靠性;2023年7月,我國頒布《生成式人工智能服務(wù)管理暫行辦法》,旨在規(guī)范技術(shù)應(yīng)用與促進產(chǎn)業(yè)健康發(fā)展;2023年10月,我國外交部印發(fā)《全球人工智能治理倡議》,對人工智能的發(fā)展提出更高要求,并積極推動將“以人為本”“智能向善”的理念融入國際社會并形成共識。
國內(nèi)學(xué)界對人工智能監(jiān)管與治理的研究,主要分為兩個層面:一是監(jiān)管機制層面。張欣認為治理型監(jiān)管可作為解決生成式人工智能治理風(fēng)險的潛在解決方案[1;;謝新水認為監(jiān)管人工智能內(nèi)容生產(chǎn)是人工智能時代的新問題[2];劉軒、陳海彬探討了引人監(jiān)管評估工具以應(yīng)對可能出現(xiàn)的挑戰(zhàn)和危機的重要性[3];史鳳林、張志遠從公法規(guī)制體系視角探索我國人工智能規(guī)制路徑[4];賀譯葶強調(diào)要明確人工智能在信用監(jiān)管中的輔助地位[5];張欣提出應(yīng)以數(shù)據(jù)解釋機制為核心進行人工智能治理[6]。這些研究通過探討治理型監(jiān)管、監(jiān)管評估工具、數(shù)據(jù)解釋機制等方法,為人工智能治理開辟了新路徑。二是協(xié)同治理層面。石拓等認為應(yīng)以協(xié)同共治格局促進人工智能治理良性發(fā)展[;張強調(diào)構(gòu)建人工智能倫理風(fēng)險協(xié)同治理組織的重要性[8];李沖等構(gòu)建了AI風(fēng)險試探性治理框架,并通過案例分析探究其實施效果[9]。
本研究主要從工具理性和價值理性的視角出發(fā),系統(tǒng)分析當(dāng)前人工智能應(yīng)用過程中引發(fā)的虛假信息傳播、隱私侵犯、數(shù)據(jù)偏倚和不可解釋性等問題;通過對美國、歐盟、新加坡等國家和組織人工智能監(jiān)管模式的比較,深人剖析不同監(jiān)管模式的利弊,并構(gòu)建基于動態(tài)政企合作框架的人工智能風(fēng)險試探性治理模式。本研究旨在探討如何通過工具理性與價值理性的有機融合,有效應(yīng)對人工智能發(fā)展帶來的各種挑戰(zhàn)和問題,推動人工智能大模型在服務(wù)人類的同時實現(xiàn)健康可持續(xù)發(fā)展。
二、工具理性和價值理性視角下生成式人工智能發(fā)展應(yīng)用的風(fēng)險探析
隨著人工智能技術(shù)的發(fā)展,人類對算法的過度依賴可能導(dǎo)致思維局限,這使得價值理性的引人變得至關(guān)重要。作為工具理性與人文價值的辯證統(tǒng)一,價值理性旨在確保人工智能行為與人類價值觀相一致[10]。工具理性與價值理性的有機融合,不僅是科技進步的需要,更是實現(xiàn)人機協(xié)調(diào)發(fā)展的關(guān)鍵所在。如果將二者割裂開來,將不可避免地引發(fā)一系列社會風(fēng)險。
(一)虛假信息傳播
虛假信息是指未經(jīng)調(diào)查和核實驗證的、與客觀事實不符或具有誤導(dǎo)性的信息內(nèi)容。目前,生成式人工智能還不具備真正的邏輯推理能力,可能會生成一些看似合理但實則錯誤的信息,并且其高度仿真的表現(xiàn)形式使人們難以辨別內(nèi)容真?zhèn)蝃1]。從工具理性角度看,虛假信息主要源于算法設(shè)計和機器學(xué)習(xí)模型的系統(tǒng)性缺陷。人工智能作為智能工具,其設(shè)計初衷是完成人類難以實現(xiàn)的目標或任務(wù)。但在自然語言處理、圖像識別等領(lǐng)域,當(dāng)錯誤信息被用來達成公眾想要的結(jié)果時,便可能產(chǎn)生虛假信息。從價值理性角度來看,公眾需要深人思考信息背后的因素,如算法模型、數(shù)據(jù)質(zhì)量和建模方法等,這些因素常常會影響我們的決策判斷。實際上,大模型產(chǎn)生的不實信息往往是由算法偏差、數(shù)據(jù)質(zhì)量欠佳或建模錯誤所致,其本質(zhì)是商業(yè)、社會等多重利益驅(qū)使的結(jié)果。
自動化技術(shù)能夠以前所未有的效率生成新信息,幫助人們快速處理數(shù)據(jù)并迅速決策。這既激發(fā)了公眾爭取權(quán)利和推動變革的愿望,也增加了傳播虛假信息和引導(dǎo)性言論的風(fēng)險[12]。例如,有用戶利用ChatGPT編造“杭州將在3月1日取消機動車尾號限行”的虛假新聞,導(dǎo)致許多市民信以為真,造成社會不良影響[13]。因此,若不對生成式人工智能加強監(jiān)督,任其利用網(wǎng)絡(luò)數(shù)據(jù)進行訓(xùn)練,那么AI生成的不準確信息可能會誤導(dǎo)使用者。尤其是對價值觀尚未成型的青少年來說,這種情況可能會對他們造成難以估量的負面影響。由此可見,盡管生成式人工智能為科技創(chuàng)新注入活力,提升了社會生產(chǎn)效率,但也賦予了用戶制造大量真?zhèn)坞y辨信息的技術(shù)能力。如果這些虛假信息在網(wǎng)絡(luò)上大肆傳播,不僅會誤導(dǎo)公眾,還可能引發(fā)信任危機和信息安全問題,因此應(yīng)對虛假信息的挑戰(zhàn)已刻不容緩。
(二)隱私侵犯
基于數(shù)據(jù)的信息收集是生成式人工智能大模型研發(fā)與優(yōu)化的前提。從工具理性角度看,在數(shù)據(jù)搜集過程中,由于訓(xùn)練資料通常從互聯(lián)網(wǎng)獲取,個人隱私信息可能在用戶毫無察覺的情況下被捕捉和傳播。這一現(xiàn)象表明,工具理性在追求技術(shù)效能和功能最優(yōu)化時,在一定程度上忽視了個人隱私保護的界限。從價值理性角度而言,這種侵權(quán)行為本質(zhì)上是對個體權(quán)益和公眾權(quán)益的損害。一方面,侵權(quán)行為可能侵害個體的財產(chǎn)權(quán)益、人身權(quán)益等,給受害人帶來嚴重的經(jīng)濟損失和精神傷害;另一方面,侵權(quán)行為也會對社會發(fā)展產(chǎn)生負面影響,如阻礙科技進步、影響文化傳承等。如何實現(xiàn)隱私權(quán)保護與社會安全之間的平衡,已成為數(shù)字時代亟待解決的重大問題。
隱私權(quán)是與個人信息安全密切相關(guān)的權(quán)益。如果人工智能不遵循相關(guān)準則,可能導(dǎo)致用戶隱私數(shù)據(jù)泄漏或被不當(dāng)利用,這正是人工智能價值理性缺失的表現(xiàn)。《中國公眾“大安全”感知報告(2021)》的數(shù)據(jù)顯示, 70% 的受訪者表示自己的個人愛好等隱私可能被算法“算計”, 60% 的受訪者擔(dān)心自己的信息在數(shù)字環(huán)境中有被泄露的風(fēng)險, 50% 的受訪者因受算法約束而想要遠離網(wǎng)絡(luò)和手機[14]。在當(dāng)前的技術(shù)水平下,每個人的日常生活都存在被非法監(jiān)控的可能性。目前,我們使用的各種電子設(shè)備,如智能手機、智能電視、電腦等,都內(nèi)置了面部識別、語音識別等技術(shù)。在使用這些設(shè)備時,它們會收集我們的面部特征、語音特征、指紋、虹膜等個人信息,而這些信息很可能被用于跟蹤和監(jiān)控。隨著數(shù)據(jù)的持續(xù)生成和積累,用戶行為與模型更新之間的\"數(shù)據(jù)飛輪”效應(yīng)顯著。在如此龐大的數(shù)據(jù)流動反饋背景下,隱私與個人信息的保障成為不可回避的時代課題[15]。
(三)數(shù)據(jù)偏倚
數(shù)據(jù)偏倚通常由數(shù)據(jù)獲取、處理和解釋過程中的主觀偏差所引發(fā)。為規(guī)避數(shù)據(jù)偏倚,我們必須遵循數(shù)據(jù)處理和分析的科學(xué)方法和原則,不斷提高數(shù)據(jù)處理和分析的質(zhì)量控制水平。從工具理性的視角來看,數(shù)據(jù)偏倚源自數(shù)據(jù)采集與處理中的不當(dāng)操作或數(shù)據(jù)收集、整理方法的不完整。工具理性強調(diào)技術(shù)的有效性和功能的最優(yōu)化,但在復(fù)雜多變的大數(shù)據(jù)環(huán)境下,僅靠技術(shù)方法采集與處理數(shù)據(jù)常常會忽視數(shù)據(jù)本身的多樣性與復(fù)雜性,致使所構(gòu)建的模型或算法出現(xiàn)偏差。從價值理性的角度而言,當(dāng)互聯(lián)網(wǎng)上存在針對特定人群的歧視和限制信息時,以此為基礎(chǔ)構(gòu)建的模型就會體現(xiàn)出這種偏差,并對個人的價值觀念產(chǎn)生“潛移默化”的影響。此外,在為數(shù)據(jù)添加標簽的過程中,數(shù)據(jù)標注員的個人喜好也可能將偏見帶入大模型。如“偏見進則偏見出”(Bias in,Bias out),即輸人的數(shù)據(jù)存在偏差,結(jié)果也會出現(xiàn)偏差[16]
在實際應(yīng)用中,模型開發(fā)者以及數(shù)據(jù)標注員受自身政治立場、觀點看法以及其他相關(guān)利益因素的影響,可能有意或無意地使用帶有偏見或經(jīng)過裁剪的數(shù)據(jù)進行訓(xùn)練。這類“瘤腿”數(shù)據(jù)來源廣泛,防不勝防。更有甚者,可能會利用生成式人工智能可降低個性化定制信息成本的特點,在互聯(lián)網(wǎng)上傳播歪曲歷史、帶有文化偏見的內(nèi)容,還可能實施詐騙等違法行為。加之目前尚無高精度技術(shù)工具協(xié)助開發(fā)者進行數(shù)據(jù)偏倚標注,各人工智能企業(yè)要么對訓(xùn)練數(shù)據(jù)進行粗略過濾后開展模型開發(fā),要么只能加大人力物力投入,以增加成本的方式仔細審核信息真實度,對訓(xùn)練數(shù)據(jù)進行二次過濾。由此可見,由于數(shù)據(jù)偏倚的存在,人工智能系統(tǒng)在進行決策和預(yù)測時常常會得出有偏差或不公平的結(jié)論。這不僅會對個人和群體產(chǎn)生負面沖擊,還會降低建模的準確性,對實現(xiàn)預(yù)期結(jié)果造成一定影響。
(四)不可解釋性
在人工智能領(lǐng)域,人們常用\"黑箱”來比喻人工智能算法,即人對一些復(fù)雜智能系統(tǒng)的運行機理或決策過程一無所知。在公眾的認知中,輸人和輸出之間存在一個未知的“隱層”,算法的不透明性與專業(yè)性為算法歧視創(chuàng)造了衍生空間。從工具理性角度看,為提高計算效率和處理速度,復(fù)雜的人工智能模型常采用黑箱式算法和深度學(xué)習(xí)方法運行。因此,“不可解釋性”可被理解為“工具理性溢出”的附帶產(chǎn)物,是追求高效率帶來的負面結(jié)果。從價值理性的角度來看,數(shù)據(jù)偏倚會導(dǎo)致模型或算法的結(jié)論難以精確預(yù)測,而這些不確定性會削弱人類對人工智能的信任,進而阻礙人工智能的普及與推廣,同時還可能引發(fā)技術(shù)失控等問題。
“算法黑箱”在一定程度上使人們失去了對輸出結(jié)果的掌控,即便是大模型的設(shè)計者也難以準確地解釋某些特殊輸出結(jié)果產(chǎn)生的原因。這種情況與《中華人民共和國個人信息保護法》第7條和第24條所規(guī)定的公開透明原則存在一定沖突。人工智能的這一特性引發(fā)了一系列問題。例如,在醫(yī)學(xué)診斷、無人駕駛等關(guān)鍵應(yīng)用場景中,決策的可信性與可理解性至關(guān)重要。若模型不能很好地解釋決策過程,則很難證明其可信性與安全性。同時,受“黑箱\"影響,深人剖析人工智能算法誘發(fā)的信用風(fēng)險、監(jiān)管過程的可追蹤性等問題的深層機制有較大難度。實際上,模型自身的復(fù)雜性使公眾難以理解其對各類特征及因素的處理和權(quán)衡方式,從而導(dǎo)致系統(tǒng)可能對某些類別或性質(zhì)的信息過度敏感,影響其對這類信息的判斷。
總之,上述四種風(fēng)險本質(zhì)上是工具理性和價值理性難以協(xié)調(diào)統(tǒng)一的結(jié)果。盡管人工智能大模型利用了大數(shù)據(jù)訓(xùn)練和模型的自學(xué)習(xí)能力,但在數(shù)據(jù)挖掘和機器學(xué)習(xí)過程中,仍存在數(shù)據(jù)安全隱患。所以,在運用人工智能這一新技術(shù)的過程中,必須秉持“以人為本”的理念,以人文理性引導(dǎo)科技發(fā)展,以價值理性引導(dǎo)工具理性,讓價值理性與工具理性充分融合,讓人工智能更好地造福人類[17]。
三、人工智能監(jiān)管的國際范式比較
針對人工智能可能引發(fā)的安全與社會問題,各國正逐步加強監(jiān)管并制定了相關(guān)政策加以治理。然而,由于歷史、文化、社會和經(jīng)濟等方面的差異,各國在實踐上形成了不同的監(jiān)管模式。
(一)全球視野下的人工智能監(jiān)管模式
近年來,世界各國紛紛呼呼加強對人工智能的管理,歐洲也迅速作出響應(yīng)并采取了一系列措施,期望引領(lǐng)人工智能的標準化進程。2021年4月,歐盟委員會通過《人工智能法案》,這是全球首部針對人工智能的法律法規(guī)。該法案將人工智能可能帶來的風(fēng)險分為4個級別,即“不可接受的風(fēng)險”“高風(fēng)險”“有限風(fēng)險”和“最低風(fēng)險”。此外,部分歐洲國家宣布對人工智能的使用加以限制。2023年4月,西班牙數(shù)據(jù)保護局認為OpenAI可能存在違規(guī)行為,已按照規(guī)定啟動事前偵查程序。
2021年,日本經(jīng)濟產(chǎn)業(yè)省頒布了《實現(xiàn)人工智能原則的監(jiān)管指針》,為企業(yè)制訂人工智能法規(guī)管理體系提供了操作指南。2022年10月,美國白宮科技政策辦公室發(fā)布《人工智能權(quán)力法案藍圖》,呼吁人工智能企業(yè)為維護美國民眾權(quán)益而承擔(dān)責(zé)任。2023年11月,全球首屆人工智能安全峰會開幕,美國、英國、中國等28個國家以及歐盟的數(shù)百名代表應(yīng)邀出席會議。會上發(fā)表的《布萊切利宣言》指出,很多人工智能問題具有國際性,需要通過加強國際合作來共同應(yīng)對。
通過對全球主要國家和地區(qū)的人工智能監(jiān)管政策的比較研究后發(fā)現(xiàn),各國(地區(qū))對人工智能發(fā)展有著不同的策略性思考,并逐步形成了具有本國(地區(qū))特色的監(jiān)管模式。
1.美國(政府主導(dǎo)、政策規(guī)制的監(jiān)管模式)
以美國為代表的部分國家在人工智能監(jiān)管領(lǐng)域,更傾向于采用政府主導(dǎo)的政策規(guī)制型監(jiān)管模式。在該模式下,政府通過制定相關(guān)法律法規(guī)和標準來引導(dǎo)與規(guī)范人工智能行業(yè)或領(lǐng)域的運作和發(fā)展,以保障競爭和資源分配的公平公正性。在《國家人工智能倡議法(2020)》和《國家人工智能研發(fā)戰(zhàn)略計劃》中,美國顯示出對人工智能創(chuàng)新發(fā)展的高度重視。這也表明美國的政策導(dǎo)向不是單純依靠硬件和軟件提升數(shù)字技術(shù)的競爭力,而是將重點放在促進數(shù)字技術(shù)的健康發(fā)展上[18]。政府主導(dǎo)型監(jiān)管模式的優(yōu)勢,在美國人工智能發(fā)展歷程中展現(xiàn)得淋漓盡致。政府通過政策導(dǎo)向促進經(jīng)濟增長、提高市場效率,不斷幫助企業(yè)和機構(gòu)提升技術(shù)水平、發(fā)展尖端技術(shù),最終達成維護市場秩序、防范市場失靈的效果,實現(xiàn)了監(jiān)管的統(tǒng)一化。
2.歐盟(以人為本、人權(quán)至上的監(jiān)管模式)
歐洲民法因其法制的歷史淵源向來重視對人類基本權(quán)利的保障,將人權(quán)置于經(jīng)濟發(fā)展之上。因此,在人工智能領(lǐng)域,歐洲民眾更加重視人工智能程序的安全性和可靠性,并堅決維護公眾基本權(quán)利不受侵犯,這使得歐盟建構(gòu)了保障安全、嚴厲監(jiān)管的剛性規(guī)制模式[4]。2018年5月,歐盟通過《一般數(shù)據(jù)保護條例》,明確規(guī)定了個人隱私的定義和范圍,并制定了相應(yīng)的保護措施,包括知情權(quán)、同意權(quán)、訪問權(quán)等。2020年2月,歐盟委員會發(fā)布《人工智能白皮書》,著重論述AI的安全和隱私問題,并提出了一系列保障個人權(quán)利與隱私的具體舉措。歐盟這種\"以人為本”和“人權(quán)至上”的監(jiān)管模式更契合人性價值取向,在數(shù)據(jù)隱私和信息安全方面能更好地保障公民權(quán)利,防范潛在風(fēng)險,減少AI技術(shù)濫用造成的損害。
3.新加坡(理性自愿、自由發(fā)展的監(jiān)管模式)
在人工智能不斷更新迭代的時代背景下,新加坡也積極構(gòu)建人工智能監(jiān)管體系?;谝杨C布的政策和過往經(jīng)驗總結(jié),新加坡在全球率先發(fā)布了AI治理評估框架和工具包。2020年1月頒布的《人工智能監(jiān)管模式框架(第二版)》對2019年第一版進行了補充和修訂,提出了以風(fēng)險為基礎(chǔ)的傷害概率模型,讓企業(yè)制定決策時能夠根據(jù)每個人受損害的概率和嚴重程度進行分級。2022年5月,為提升民眾對人工智能產(chǎn)品的信任度與接受度,新加坡推出“人工智能驗證\"(A.I.Verify),該體系具有自愿性、非強制性等特點。這種基于理性自愿、自由發(fā)展的監(jiān)管模式,給予企業(yè)更大的自主權(quán)和決策權(quán),同時也激發(fā)了企業(yè)在人工智能研發(fā)過程中的創(chuàng)新活力,有力推動了企業(yè)自身的創(chuàng)新發(fā)展以及市場的自由競爭與繁榮。
(二)人工智能監(jiān)管模式的比較分析
在美國政府主導(dǎo)、政策規(guī)制的監(jiān)管模式下,由于政府反應(yīng)可能滯后,在新的市場環(huán)境中企業(yè)面臨管理障礙和交易費用增加等問題。從工具理性角度來看,美國在人工智能監(jiān)管方面強調(diào)政府的主導(dǎo)作用和政策規(guī)制,通過政府制定明確的政策框架和監(jiān)管標準,能夠快速適應(yīng)人工智能技術(shù)的發(fā)展;但從價值理性角度來看,美國的監(jiān)管模式因政策制定過程缺乏充分的公眾參與和透明度等,常常在不經(jīng)意間被忽略。
歐盟的監(jiān)管模式雖然旨在保護消費者的安全隱私,但過度嚴格的監(jiān)管可能阻礙人工智能技術(shù)的創(chuàng)新與發(fā)展,導(dǎo)致其在人工智能賽道上逐漸落后于國際平均水平。以人為本的監(jiān)管模式還可能引發(fā)利益沖突問題。在個人權(quán)利與公眾福祉出現(xiàn)沖突的情況下,如何平衡各方利益成為亟待解決的難題。從工具理性角度而言,這種模式可能不如美國模式高效,原因在于歐盟強調(diào)人權(quán)和倫理價值,在制定人工智能監(jiān)管政策時需要更長時間進行社會協(xié)商和公眾參與;但是,就價值理性而言,歐盟的監(jiān)管模式優(yōu)勢顯著,它強調(diào)人的尊嚴和權(quán)利,致力于構(gòu)建公平、透明和可持續(xù)的生態(tài)系統(tǒng)。
在新加坡“理性自愿”“自由發(fā)展”的監(jiān)管模式下,受利益驅(qū)使,企業(yè)可能出現(xiàn)監(jiān)督不公、濫用權(quán)力等情況,進而導(dǎo)致企業(yè)運作過程混亂無序,造成市場的不穩(wěn)定。此外,個人理性不同于集體理性,個人在追求自身利益時往往會忽略外部影響,導(dǎo)致社會資源配置不公與效率低下。從工具理性方面看,這種監(jiān)管模式通過鼓勵行業(yè)自律和創(chuàng)新,為人工智能技術(shù)的發(fā)展營造了相對自由的環(huán)境,有利于激發(fā)市場活力和創(chuàng)新潛力,推動人工智能技術(shù)快速發(fā)展;從價值理性方面來看,新加坡的模式充分尊重了個人權(quán)利和自由,但由于缺乏有效的強制監(jiān)管措施,可能會加劇企業(yè)間不公平競爭,甚至導(dǎo)致人工智能被不法分子濫用,對社會穩(wěn)定和公眾安全構(gòu)成威脅。
在科技高速發(fā)展的今大,更應(yīng)倡導(dǎo)發(fā)展與安全并舉,在出發(fā)前先裝好“剎車”,充分考慮技術(shù)、道德和法律等多方面因素,通過構(gòu)建人工智能治理模型,更好地促進人工智能健康有序發(fā)展。
四、動態(tài)政企合作框架下的人工智能風(fēng)險試探性治理策略
在人工智能技術(shù)高速發(fā)展的背景下,各國亟待構(gòu)建有效的治理模式以確??萍及l(fā)展與社會價值相契合。在此情形下,試探性治理作為一種新興的治理模式[9],強調(diào)在不斷變化的環(huán)境中通過迭代學(xué)習(xí)和靈活調(diào)整來應(yīng)對風(fēng)險,加上政府、企業(yè)之間的動態(tài)合作,整合雙方資源和優(yōu)勢,能夠極大地優(yōu)化治理過程,實現(xiàn)工具理性與價值理性的有機融合,促進人工智能的可持續(xù)發(fā)展。
(一)動態(tài)政企合作框架的構(gòu)建
在人工智能發(fā)展的新階段,實現(xiàn)工具理性與價值理性的有機融合是推動人工智能技術(shù)進步的關(guān)鍵所在。為深入理解工具理性與價值理性的定義和特點,并深刻認識二者的本質(zhì)差異,進而促使人工智能領(lǐng)域中工具理性與價值理性的有機融合,政府與企業(yè)需共建一個能夠快速響應(yīng)技術(shù)變革的動態(tài)合作框架(見圖1),以促進人工智能的健康發(fā)展。該框架以互惠共贏為基礎(chǔ),政府發(fā)揮政策導(dǎo)向和監(jiān)管職能,企業(yè)憑借其技術(shù)優(yōu)勢和市場敏感性,通過政策引導(dǎo)和市場驅(qū)動的雙向互動,形成健康可持續(xù)的人工智能應(yīng)用生態(tài)。在此框架中,政府扮演著政策制定者和監(jiān)督者的角色,負責(zé)營造穩(wěn)定的政治、經(jīng)濟和法律環(huán)境,為企業(yè)發(fā)展提供保障;企業(yè)則利用其技術(shù)創(chuàng)新能力和市場敏感性,積極探索人工智能在不同領(lǐng)域的應(yīng)用,推動技術(shù)與業(yè)務(wù)創(chuàng)新。
圖1動態(tài)政企合作框架
具體而言,動態(tài)政企合作框架下的試探性治理策略主要體現(xiàn)在兩方面。一是在標準制定的協(xié)同性方面,政府和企業(yè)應(yīng)協(xié)同合作,制定相關(guān)行業(yè)標準和技術(shù)規(guī)范,確保人工智能技術(shù)的開發(fā)和應(yīng)用能夠與國際接軌,避免因標準不一而導(dǎo)致資源浪費和市場混亂,努力提升我國在全球人工智能領(lǐng)域的競爭力。二是在資源共享方面,政府和企業(yè)應(yīng)打通雙方資源共享渠道,包括數(shù)據(jù)、技術(shù)、基礎(chǔ)設(shè)施等,以促進人工智能技術(shù)研發(fā)和應(yīng)用,降低成本,提高效率。從社會責(zé)任的角度來看,合作框架應(yīng)包含共同探索人工智能技術(shù)倫理準則,確保技術(shù)發(fā)展與社會價值相協(xié)調(diào),促進人工智能技術(shù)的推廣,增強大眾對科技的信任和理解。同時,對科技可能給社會帶來的沖擊保持高度關(guān)注,并提前做好應(yīng)對和解決問題的準備。這一合作框架的構(gòu)建不僅能夠推動人工智能技術(shù)的持續(xù)發(fā)展和創(chuàng)新應(yīng)用,還能在堅守社會價值和倫理底線、實現(xiàn)工具理性和價值理性動態(tài)平衡的同時,保障技術(shù)穩(wěn)步向前,為社會的整體進步和經(jīng)濟持續(xù)繁榮作出積極貢獻。
(二)試探性治理策略的實施
在動態(tài)政企合作框架下,試探性治理策略的實施首先體現(xiàn)為政策的持續(xù)迭代優(yōu)化。這一過程要求政府積極應(yīng)對人工智能技術(shù)快速發(fā)展帶來的新挑戰(zhàn),通過持續(xù)的監(jiān)控、評價和反饋,確保政策的時效性和適應(yīng)性。根據(jù)最新的技術(shù)發(fā)展和風(fēng)險評估結(jié)果,政府需不斷對相關(guān)政策和法規(guī)進行調(diào)整和優(yōu)化,在促進人工智能技術(shù)健康發(fā)展的同時維護社會公共利益。在政策迭代過程中,既要充分發(fā)揮政府的前瞻性作用和決策智慧,又要積極吸納企業(yè)的實踐反饋,實現(xiàn)政策與市場實踐的緊密結(jié)合,形成良好的政企協(xié)同效應(yīng)。
實行試探性治理戰(zhàn)略同樣要求企業(yè)在政府引導(dǎo)下發(fā)揮技術(shù)創(chuàng)新主體作用,以靈活多變的姿態(tài)應(yīng)對政策變化和市場需求。企業(yè)要保持對市場動態(tài)的敏感性并適時作出相應(yīng)調(diào)整,對開發(fā)方向和經(jīng)營方式進行前瞻性規(guī)劃。政府和企業(yè)要攜手合作,營造開放透明的治理環(huán)境,讓所有利益相關(guān)主體參與其中,從不同角度建言獻策,并通過會商協(xié)作增強政策的社會認同與執(zhí)行效果。在此基礎(chǔ)上,政企共同探索人工智能技術(shù)的可持續(xù)發(fā)展路徑,推動人工智能產(chǎn)業(yè)穩(wěn)步前行。
(三)試探性治理下的政企互動:平衡工具理性和價值理性
在試探性治理模式下,要確保政策制定與企業(yè)實踐的有效溝通和信息互通,政府與企業(yè)需建立雙向反饋機制。我國政府在人工智能領(lǐng)域不僅要扮演技術(shù)創(chuàng)新推動者的角色,還要作為不當(dāng)行為的監(jiān)管者,平衡技術(shù)創(chuàng)新和安全監(jiān)管之間的關(guān)系;既要鼓勵和支持企業(yè)技術(shù)創(chuàng)新,又要通過出臺相關(guān)政策,強化人工智能的安全與隱私保護,確保技術(shù)發(fā)展不會侵犯公民基本權(quán)利,引導(dǎo)企業(yè)創(chuàng)新方向與社會價值觀相符。2021年發(fā)布的《新一代人工智能倫理規(guī)范》明確提出,為推動我國人工智能健康發(fā)展,完善科技創(chuàng)新體系,優(yōu)化創(chuàng)新資源配置,提升自主創(chuàng)新能力,營造創(chuàng)新氛圍,激發(fā)創(chuàng)新活力,政府應(yīng)全面加強人工智能安全監(jiān)管,著力提升企業(yè)技術(shù)創(chuàng)新能力,制定并實施一系列相關(guān)政策措施[19]。
通過試探性治理,政府能夠深人理解技術(shù)變革的影響,從而制定出更符合實際需求的政策,進一步推動技術(shù)的應(yīng)用和發(fā)展。隨著公眾對個人隱私和數(shù)據(jù)安全的關(guān)注度不斷升高,政府有必要制定更為嚴格的安全標準和監(jiān)管措施,全力保障公民隱私權(quán)益;從數(shù)據(jù)安全、系統(tǒng)安全、網(wǎng)絡(luò)安全、應(yīng)用安全等多個層面加強監(jiān)管和保護,建立健全數(shù)據(jù)加密和備份機制,運用各種安全措施確保私密數(shù)據(jù)不被泄露,最大程度地讓人工智能輸人更多信息,推動其朝著更高水平的技術(shù)化、科技化、智能化邁進。例如,《中華人民共和國個人信息保護法》對個人信息的收集、使用、處理、保護等行為作出了詳盡規(guī)范,為保障公民隱私筑牢了法律防線??傊ㄟ^以上措施,政府能夠有效化解工具理性和價值理性在人工智能領(lǐng)域的沖突,引導(dǎo)人工智能技術(shù)發(fā)展方向,使其更加符合社會價值觀和倫理標準,實現(xiàn)工具理性與價值理性的有機統(tǒng)一。
在數(shù)字化社會,企業(yè)的智能化程度越高,抗風(fēng)險能力也就越強,進而可以獲得更大的競爭優(yōu)勢。因此,研究和發(fā)展人工智能大模型對于推動企業(yè)轉(zhuǎn)型升級具有重要意義。在此過程中,如何化解工具理性與價值理性之間的沖突,實現(xiàn)二者的有機融合,已成為當(dāng)前企業(yè)治理面臨的重要問題。這就要求作為行業(yè)領(lǐng)軍者的企業(yè)在開發(fā)人工智能大模型時,不能只追求經(jīng)濟效益,而要把社會效益放在與經(jīng)濟效益同等重要地位,主動承擔(dān)社會責(zé)任,提升人工智能的“道德水平”,尊重人權(quán)、避免歧視,確保算法的設(shè)計和功能符合社會公共利益,保障公民權(quán)益不受損害,促進人機關(guān)系和諧穩(wěn)定。企業(yè)要充分認識加強社會責(zé)任、促進算法向善的重要性,將算法向善、技術(shù)向善作為企業(yè)的道德準則[20],確保人工智能治理不出現(xiàn)偏差,保證決策程序合理和操作效果良好,最大程度滿足人性價值需求[21]。
為實現(xiàn)這一目標,企業(yè)需保證算法設(shè)計與使用的原則與標準清晰明了,在語言邏輯層面確保算法的公平性,對其中可能存在的倫理問題進行分析與評估,并提出防范與處理對策。此外,為豐富大模型訓(xùn)練的信息來源,企業(yè)需引人大量不同類型的數(shù)據(jù),排查訓(xùn)練中存在的問題,從而提高算法公平性,實現(xiàn)決策透明化,并盡可能對算法的運行模式與結(jié)果進行詳細說明,以贏得社會大眾的信賴。企業(yè)在算法開發(fā)和應(yīng)用過程中,應(yīng)關(guān)注對社會產(chǎn)生的影響,這也是企業(yè)社會責(zé)任的體現(xiàn)。其中涉及的隱私、安全、平等、人權(quán)等方面的問題,都應(yīng)被納入算法更新范疇,從而突出我國人工智能治理中公平、安全、可控的基本理念。通過這些措施,企業(yè)可以實現(xiàn)工具理性和價值理性的有機融合,推動人工智能技術(shù)發(fā)展,促進人機關(guān)系和諧穩(wěn)定。
以試探性治理為背景,在政府與企業(yè)之間形成雙向反饋的良性互動,是實現(xiàn)人工智能技術(shù)可持續(xù)發(fā)展的核心動力。對于政府和企業(yè)而言,應(yīng)從長期利益出發(fā)來考慮人工智能技術(shù)帶來的影響。這意味著政策制定者要關(guān)注技術(shù)發(fā)展引發(fā)的潛在社會影響,企業(yè)也要投入資金和精力進行長期研究和技術(shù)開發(fā),通過協(xié)同演化建立政企長期合作關(guān)系,共同推動技術(shù)的持續(xù)創(chuàng)新和社會的不斷進步,促進人工智能技術(shù)的發(fā)展,實現(xiàn)工具理性與價值理性的有機統(tǒng)一。
五、結(jié)論與啟示
隨著人工智能技術(shù)的飛速發(fā)展,其正反兩面效應(yīng)日益明顯。一方面,人工智能技術(shù)的進步和多樣化應(yīng)用正在顯著提升人類生活品質(zhì),展現(xiàn)出改變世界的巨大潛力[22];另一方面,人工智能技術(shù)的廣泛應(yīng)用也帶來了前所未有的挑戰(zhàn),從個人生活到國際政治都深受影響。在推動人工智能技術(shù)發(fā)展的同時,如何確保其符合人類道德準則和社會倫理,已成為衡量國家和社會能否平衡好人工智能發(fā)展和監(jiān)管的重要標準。本文通過分析全球人工智能監(jiān)管實踐,比較了不同監(jiān)管模式的優(yōu)勢與不足,并從工具理性與價值理性的視角進行了深入研究;在此基礎(chǔ)上,提出基于動態(tài)政企合作框架的人工智能風(fēng)險試探性治理策略,旨在倡導(dǎo)企業(yè)與政府的共同努力,優(yōu)化人工智能治理,促進人機和諧共生。
人工智能治理已成為全球廣泛關(guān)注的話題,單個國家或地區(qū)若試圖憑借自身力量改變或完善人工智能規(guī)則和體系,在人工智能領(lǐng)域構(gòu)筑“小院高墻”,不僅無法推動技術(shù)進步,反而會導(dǎo)致本國的人工智能研究和發(fā)展與國際脫軌,難以融入全球創(chuàng)新網(wǎng)絡(luò)。只有摒棄各自為政的做法,在政策制定中兼顧各國訴求,加強信息共享與協(xié)調(diào)合作,才能確保人工智能發(fā)展朝著有利于全人類利益與價值的方向前進。在人工智能治理領(lǐng)域,我國秉持人類命運共同體理念,這一理念順應(yīng)了人工智能的發(fā)展需求,契合國際社會的期待。我國的治理經(jīng)驗和主張能與世界大多數(shù)國家產(chǎn)生共鳴,應(yīng)當(dāng)以此為基礎(chǔ)積極發(fā)揮作用,為推進人工智能治理貢獻中國智慧與中國方案。
參考文獻:
[1] 張欣.生成式人工智能的算法治理挑戰(zhàn)與治理型監(jiān)管[J].現(xiàn)代法學(xué),2023(3):108-123.
[2] 謝新水.人工智能內(nèi)容生產(chǎn):功能張力、發(fā)展趨勢及監(jiān)管策略——以ChatGPT為分析起點[J].電子政務(wù),2023(4):25-35.
[3] 劉軒,陳海彬.人工智能監(jiān)管:理論、模式與趨勢[J].情報理論與實踐,2023(6):17-23.
[4] 史鳳林,張志遠.論人工智能的公法規(guī)制:美歐模式與中國路徑[J].理論月刊,2023(8):127-139.
[5] 賀譯葶.人工智能在信用監(jiān)管中應(yīng)用的法律風(fēng)險及其應(yīng)對[J].甘肅社會科學(xué),2022(4):142-150.
[6] 張欣.生成式人工智能的數(shù)據(jù)風(fēng)險與治理路徑[J].法律科學(xué)(西北政法大學(xué)學(xué)報),2023(5):42-54.
[7] 石拓,張俊輝,李丹陽,等.人工智能嵌入社會治安治理的實踐邏輯及風(fēng)險因應(yīng)[J].運籌與管理,2023(6):27-32.
[8] 張蜓.人工智能的倫理風(fēng)險治理探析[J].中州學(xué)刊,2022(1):114-118.
[9] 李沖,李霞.人工智能風(fēng)險的試探性治理:概念框架與案例解析[J].中國軟科學(xué),2024(4):91-101.
[10]李微,張榮軍.價值理性視域下的人工智能及其倫理邊界[J].貴州社會科學(xué),2022(5):13-20.
[11]郝磊,溫志強,王妃,等.ChatGPT類人工智能催生的多領(lǐng)域變革與挑戰(zhàn)(筆談)[J].天津師范大學(xué)學(xué)報(社會科學(xué)版),2023(4):8-23.
[12]張夏恒.ChatGPT的政治社會動能、風(fēng)險及防范[J].深圳大學(xué)學(xué)報(人文社會科學(xué)版),2023(3):5-12.
[13]“杭州3月1日取消限行”為不實信息!警方已介入調(diào)查[EB/OL].(2023-02-17)[2024-01-02].htp://zjwx.gov.cn/art/2023/2/17art_1673574.58872766.html.
[14]陳之琪.防止算法推薦成為窺私“木馬”[N].中國青年報,2022-03-04(8).
[15]朱榮榮.類ChatGPT生成式人工智能對個人信息保護的挑戰(zhàn)及應(yīng)對[J/OL].重慶大學(xué)學(xué)報(社會科學(xué)版):1-14[2024-03-26].https://kns.cnki.net/kcms/detail/50.1023.C.2023091.1151.002.html.
[16]岳平,苗越.社會治理:人工智能時代算法偏見的問題與規(guī)制[J].上海大學(xué)學(xué)報(社會科學(xué)版),2021(6):1-11.
[17]景星維,王思奇.論智能時代人的價值自覺[J].理論導(dǎo)刊,2023(9):74-80.
[18]肖紅軍,陽鎮(zhèn).數(shù)字科技倫理監(jiān)管:美國進展與中國借鑒[J].財經(jīng)問題研究,2023(6):73-86.
[19]徐繼敏.生成式人工智能治理原則與法律策略[J].理論與改革,2023(5):72-83.
[20]王紹光.新技術(shù)革命與國家理論[J].中央社會主義學(xué)院學(xué)報,2019(5):93-100.
[21]梅立潤.人工智能時代國家治理的算法依賴及其衍生難題[J].中南大學(xué)學(xué)報(社會科學(xué)版),2022(6):123-131.
[22]肖峰.生成式人工智能介入知識生產(chǎn)的功用探析——借助ChatGPT和“文心一言\"探究數(shù)字勞動的體驗[J].重慶郵電大學(xué)學(xué)報(社會科學(xué)版),2023(4):1-10.
Generative artificial intelligence: Exploring risk, regulation, and governance models
LU Anwen
(School of Modern Posts,Chongqing University of Posts and Telecommunications, Chongqing 40o065,China)
Abstract:Therapidadvancementof generativeartificial intellgence(AI)hasbroughtaboutprofound transformations in science,technology,andvarious aspects of everyday life.While significantly enhancing user experience and convenience,ithasalsointroducedarangeof potentialrisks.Theserisksstemfromthedificultyof harmonizing instrumentalrationalitywithvaluerationality,implicating notonlythetrajectoryof technologicaldevelopmentbutalsocoresocietalethicsandlegalstandards—issues ofconsiderablesignificance.Thisarticleanalyzesfour primaryrisksof generative AI through thelensof instrumental andvaluerationality:thespreadof misinformation,whichcanleadtopublicmisunderstanding;privacy infringements,which threaten fundamental personal rights;databias,which mayexacerbatesocial inequalityanddiscrimination;andthelack ofinterpretability,which introducesuncertaintyintoAIapplications.Itthen comparestheregulatorymodelsadoptedbythe UnitedStates,theEuropean Union,andSingapore,highlighting eachsystem'sstrengthsandlimitations.Buildingonthis comparativeanalysis,thearticleproposesatentative governance strategy basedonadyamicpublic-privatecooperationframework.Thisstategyemphasizes experimentalregulation,iterativepolicy-making,enhancedcorporate adaptability,andtheactive engagementof stakeholders.Itsaimistoachieveameaningfulintegrationof instrumentalandvaluerationality,ensuring theresponsibleandsustainabledevelopmentof AItechnologieswhileeffctivelymitigatingassociatedrisks.Theaticlefurtheradvocatesfor internationalcolaborationinAI governanceinnovationtofosterhuman-machineharmony.Inthisglobal effort,Chinaremainscommitedtothevisionof building acommunitywithasharedfuturefor mankind,contributing Chinese insightsandsolutions tothe worldwidegovernanceof generative AI.
Keywords:generative artificial intelligence;tentative governance;potential risks;regulatory models
(編輯:蔡秀娟)