【摘要】人工智能正深度嵌入全球網(wǎng)絡空間治理體系,以高效的數(shù)據(jù)處理和風險識別能力重塑治理的主體結(jié)構(gòu)、方法流程與模式機制,有效提升治理效率。必須清醒地認識到,人的作用在全球網(wǎng)絡空間治理中仍具有不可替代性,因為人工智能尚不具備規(guī)范判斷與制度設計能力,其透明性、倫理性與權責屬性仍依賴人類塑造。未來全球網(wǎng)絡空間治理將呈現(xiàn)人機協(xié)同趨勢,即技術負責初步識別與響應,人類完成價值設定、制度構(gòu)建并承擔最終責任。人機共治的關鍵在于通過結(jié)構(gòu)嵌套、規(guī)則共創(chuàng)與責任協(xié)同等機制,構(gòu)建開放、透明、可問責的全球網(wǎng)絡空間治理新范式。
【關鍵詞】人工智能" 網(wǎng)絡空間治理" 技術嵌入" 人類主導" 人機協(xié)同
【中圖分類號】D820/TP393" " " " " " " " " " 【文獻標識碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2025.13.004
引言
在數(shù)字技術迅猛發(fā)展的當下,全球網(wǎng)絡空間治理正面臨深刻的結(jié)構(gòu)性變革。全球網(wǎng)絡空間治理是指通過制定和實施政策、規(guī)則及技術標準,協(xié)調(diào)各國政府、國際組織、私營部門和公眾等多方主體,共同管理和規(guī)范網(wǎng)絡空間,以維護其安全、穩(wěn)定與繁榮的活動。[1]以人工智能(Artificial Intelligence, AI)為代表的新興技術,正從單一工具型手段演變?yōu)榍度胧街卫硪兀疃葏⑴c政策執(zhí)行、內(nèi)容監(jiān)管、風險預警、數(shù)據(jù)管理等多個關鍵環(huán)節(jié)。這種變化不僅顯著提升了治理效率和響應能力,而且給傳統(tǒng)治理邏輯、權力結(jié)構(gòu)與制度安排帶來前所未有的挑戰(zhàn)與重塑壓力。
人工智能之于網(wǎng)絡空間治理,不僅是一場技術革新,更是一種治理范式轉(zhuǎn)型,對于網(wǎng)絡空間治理而言是一把“雙刃劍”。[2]一方面,依托強大算力與可持續(xù)優(yōu)化的算法,人工智能在信息甄別、趨勢識別、行為監(jiān)測等方面具備獨特優(yōu)勢,推動治理從被動響應走向主動預測,從集中管理走向去中心化協(xié)作;另一方面,人工智能技術治理應用中的透明性缺失、倫理模糊、問責困難等問題,也引發(fā)了各界對治理正當性與責任歸屬的深層憂慮。這意味著,我們正進入一個技術推動與人的協(xié)調(diào)監(jiān)管并舉的人機共治新階段。然而,技術本身并不具備自治能力。治理本質(zhì)上是一種集合法律制度、社會共識與政治判斷于一體的復雜工程。在人工智能廣泛介入全球網(wǎng)絡空間治理實踐的同時,人類在價值設定、規(guī)則制定、道德判斷與多邊協(xié)商中的不可替代性愈加凸顯。從平臺內(nèi)容審查中的倫理分歧,到跨國數(shù)據(jù)流動中的主權博弈,從技術濫用引發(fā)的風險糾錯,到未來治理機制的制度前瞻,人類始終是治理鏈條中的最終責任者與價值“守門人”。
因此,理解人工智能時代的網(wǎng)絡空間治理變革,不僅要關注技術賦能與效率提升,而且必須正視人類主導作用的持續(xù)必要性,并思考人機協(xié)同的新制度形態(tài)。本研究擬從技術嵌入、人類主導、人機協(xié)同三個維度出發(fā),系統(tǒng)探討全球網(wǎng)絡空間治理的結(jié)構(gòu)性轉(zhuǎn)型邏輯。首先,聚焦人工智能對網(wǎng)絡空間治理的結(jié)構(gòu)性變革,分析其在治理效率、主體結(jié)構(gòu)、流程機制與制度模式等方面的深度介入與重塑。其次,討論網(wǎng)絡空間治理中的人類不可替代性,強調(diào)在倫理判斷、規(guī)則設計、政治協(xié)調(diào)與公眾參與等關鍵領域,人工智能無法取代人類的規(guī)范性與判斷力。再次,展望邁向“人機協(xié)同共治”的網(wǎng)絡空間治理圖景,提出一種更具前瞻性的制度設想,即人類主導、人工智能輔助的人機協(xié)同機制。[3]通過上述分析,本文希望為理解人工智能驅(qū)動的全球網(wǎng)絡空間治理提供一套兼具結(jié)構(gòu)觀察與規(guī)范反思的理論框架,進而為未來制度設計提供啟示與參考。
人工智能對全球網(wǎng)絡空間治理的嵌入
隨著人工智能技術的快速演進,全球網(wǎng)絡空間治理正經(jīng)歷深層次的結(jié)構(gòu)性轉(zhuǎn)型。人工智能不僅提升了治理效率,更在悄然重塑治理主體格局、操作流程與制度架構(gòu)。下面以效率、主體、過程、模式四個維度為線索,系統(tǒng)分析人工智能如何嵌入網(wǎng)絡治理體系,并揭示其在權力分布、制度路徑和治理邏輯等方面的重塑機制。
治理效率的躍升:從人工操作到智能驅(qū)動。人工智能技術的嵌入,顯著改變了網(wǎng)絡空間治理的效率邏輯。傳統(tǒng)治理依賴人工操作,在數(shù)據(jù)處理、內(nèi)容審核、安全防護等方面面臨人力成本高、響應速度慢、覆蓋面有限等結(jié)構(gòu)性困境。人工智能的引入,使網(wǎng)絡空間治理從依賴人類的點狀響應,轉(zhuǎn)變?yōu)槿旌颉⒏咚俾?、廣覆蓋的系統(tǒng)性機制,開啟了治理效率躍升的新階段。
在內(nèi)容治理方面,人工智能極大提升違規(guī)內(nèi)容的篩查和響應速度。以Meta公司為例,其在2022年第四季度報告中指出,旗下平臺使用人工智能識別并處理約90%以上的仇恨言論和暴力內(nèi)容,且多數(shù)能在用戶舉報前實現(xiàn)系統(tǒng)捕捉。[4]YouTube與TikTok也廣泛使用圖像識別與語義分析技術,在上傳初期對內(nèi)容進行分類和處理。盡管人類仍需在復雜內(nèi)容判斷中參與復核,但人工智能顯著減輕了審核負擔,提升了響應速度。
在網(wǎng)絡安全領域,人工智能可提高對威脅的即時監(jiān)控與主動防御能力。例如,微軟的“Azure Sentinel”安全平臺利用自動化整合技術可在毫秒級別識別異常網(wǎng)絡行為并自動啟動防御機制。[5]該系統(tǒng)利用機器學習訓練識別“零日攻擊”“釣魚郵件”等潛在威脅,有效提高了網(wǎng)絡防御的敏捷性。中國國家計算機網(wǎng)絡應急技術處理協(xié)調(diào)中心(CNCERT)也在探索將人工智能算法引入國家級態(tài)勢感知平臺,實現(xiàn)關鍵基礎設施的風險自動識別與響應。
在數(shù)據(jù)治理方面,人工智能顯著增強數(shù)據(jù)融合與決策支持能力。新加坡的“Smart Nation Sensor Platform”集成了交通、環(huán)境、公共安全等多維數(shù)據(jù),輔助政府使用人工智能實時分析交通與城市運行數(shù)據(jù),為城市管理提供支持。[6]人工智能作為治理效能提升的加速器,正推動全球網(wǎng)絡空間治理自動化、智能化并向前瞻治理演進。
治理主體的轉(zhuǎn)型:從人類主導到人機共治。隨著人工智能深度嵌入全球網(wǎng)絡空間治理,傳統(tǒng)由人類主導的治理格局正經(jīng)歷著轉(zhuǎn)向“人機協(xié)同、多元共治”的重大變革。在新的治理體系中,人工智能不再只是被動執(zhí)行的技術工具,而成為具備輔助判斷、主動識別、風險預警等能力的輔助治理主體。人工智能開始在數(shù)據(jù)分析、內(nèi)容篩查、風險建模等前端環(huán)節(jié)發(fā)揮關鍵作用,提升治理系統(tǒng)的響應效率與覆蓋能力,而政策制定、價值判斷與責任追究等規(guī)范性環(huán)節(jié)仍由人類主導完成。二者相輔相成,構(gòu)成“技術驅(qū)動—人類裁量”的復合型治理結(jié)構(gòu)。無論是在網(wǎng)絡安全領域,還是在平臺自我規(guī)制與技術倫理治理中,越來越多的實踐印證了這一協(xié)同治理模式的發(fā)展與落地。
全球網(wǎng)絡安全巨頭卡巴斯基旗下的卡巴斯基工業(yè)網(wǎng)絡安全(KICS)和異常檢測機器學習(MLAD)產(chǎn)品都使用人工智能算法來識別特定工業(yè)環(huán)境中的間接攻擊指標和細微活動異常。[7]其托管檢測和響應(MDR)平臺則采用基于人工智能的自動分析器,該分析器接收安全運營中心團隊收到的警報后能自動對警報內(nèi)容進行處理。據(jù)統(tǒng)計,經(jīng)過訓練和分析師評估后,MDR平臺能夠較為可靠地過濾錯誤警報,從而將減少安全運營中心約25%的工作量。[8]這一實踐展示了人機協(xié)作在網(wǎng)絡安全治理中的有效性,即人工智能負責初步篩查和風險標注,人類專家進行復審和決策,從而提升治理的效率、精度和可靠性,構(gòu)建起一個分工互補、責任清晰的協(xié)同治理模式。
人工智能不僅提升平臺內(nèi)部監(jiān)管的精度與覆蓋率,也賦予平臺更大的規(guī)制能力,重塑治理邊界。例如,阿里巴巴于2022年設立“科技倫理治理委員會”,并引入外部顧問機制,推動包括算法審查、風險評估、數(shù)據(jù)隱私保護等在內(nèi)的技術治理框架。該委員會主導制定了“科技倫理六大準則”,明確要求重要算法上線前需進行倫理與合規(guī)評估,確保平臺在“可控、可信、安全”基礎上運行治理機制。[9]這一實踐展示了阿里巴巴如何通過人工智能技術和內(nèi)部治理機制的完善,提升平臺治理能力,從而在商業(yè)組織基礎上承擔更多治理主體責任。
治理過程的重構(gòu):從線性流程到智能自動化。人工智能的介入,正在深刻重塑全球網(wǎng)絡空間治理的流程架構(gòu)。傳統(tǒng)治理模式通常遵循“問題發(fā)現(xiàn)—人工介入—響應處理”的線性鏈條,嚴重依賴人力審批和多部門協(xié)同,導致流程遲滯、反饋滯后與資源浪費等治理瓶頸。在傳統(tǒng)架構(gòu)下,內(nèi)容審核、風險識別、違規(guī)處置等任務往往由不同部門各自為政,形成“治理孤島”。在人工智能介入的新治理范式中,平臺不再僅僅是承載治理任務的執(zhí)行載體,而是逐步演化為集感知、調(diào)度、決策于一體的智能中樞。人工智能對治理流程的重構(gòu),不僅提升治理效率,更促成從人工審批線性鏈向以平臺為中樞的并行自治范式轉(zhuǎn)變。
TikTok的廣告審核流程結(jié)合了自動化審核與人工復核,以提高審核效率和準確性。廣告提交后,系統(tǒng)通常會在24小時內(nèi)完成初步審核。對于低風險內(nèi)容,人工智能可自動批準,而高風險或復雜內(nèi)容則交由人工復核處理。這種協(xié)同機制避免了資源浪費與誤判過度,體現(xiàn)了人工智能在治理任務智能分流與并行處理方面的應用價值。[10]
百度推出的內(nèi)容審核平臺,集成人工智能內(nèi)容審核系統(tǒng),實現(xiàn)多業(yè)務線的統(tǒng)一風控調(diào)度。該平臺支持對圖像、文本、語音、視頻等多模態(tài)內(nèi)容進行審核,具有審核模型精準、審核維度豐富和規(guī)則配置靈活等特點。通過界面化選擇審核維度、個性化調(diào)整松緊度,自動檢測涉黃、涉恐、惡意推廣等違規(guī)內(nèi)容,降低業(yè)務違規(guī)風險。這一實踐充分展示人工智能可推動以平臺為中樞的智能治理中臺建設,整合原本分散的資源與模塊,提升內(nèi)容安全治理的效率與精準度??梢哉J為,百度內(nèi)容審核平臺在部分流程節(jié)點中實際上獲得了“自治執(zhí)行權”,成為流程中的代理治理者。管理員的職責從“執(zhí)行者”轉(zhuǎn)為“規(guī)則設計者”,人工智能負責持續(xù)運作并自我學習,形成智能化流程的微觀自治單元。[11]
治理模式的重塑:從靜態(tài)規(guī)制到動態(tài)適應。人工智能的引入正在深刻重塑網(wǎng)絡空間的治理模式,不僅變革治理工具與流程,也重構(gòu)治理的根本邏輯。傳統(tǒng)的治理框架通常依賴于靜態(tài)、線性的規(guī)制設計,在應對已知風險方面尚可運作,但面對快速演進的技術生態(tài)與多元不確定的風險情境,常常顯得滯后、低效、缺乏彈性。在這種背景下,人工智能憑借其高頻感知、多源整合和快速反饋等能力,正成為網(wǎng)絡空間治理系統(tǒng)動態(tài)調(diào)節(jié)的核心引擎。其不僅能在治理流程前端發(fā)揮實時監(jiān)測與識別功能,還可以嵌入制度設計后端,推動治理結(jié)構(gòu)實現(xiàn)“反饋—調(diào)整—再執(zhí)行”的循環(huán)更新機制;更進一步,人工智能的獨特能力還使部分制度具備在監(jiān)管不確定情境下進行政策試驗的可能。
傳統(tǒng)治理側(cè)重于對既成違規(guī)行為的事后處置,而人工智能則推動風險識別和資源調(diào)度向前置部署轉(zhuǎn)型。例如,百度公司通過其安全態(tài)勢感知系統(tǒng),可針對全網(wǎng)文字、圖片、視頻、代碼等進行智能建模和7×24小時實時監(jiān)控,對欺詐、違法、風險等惡意網(wǎng)站及第三方瀏覽器、第三方APP、社交平臺、短信網(wǎng)址有害信息采取風險標注、攔截提示、搜索屏蔽等攔截措施,其治理邏輯轉(zhuǎn)變?yōu)椤笆虑氨O(jiān)控—事中攔截—事后追溯”,為用戶提供了更為完善的安全保障體系。[12]
面對不斷變化的技術生態(tài)和社會需求,人工智能助力構(gòu)建以反饋為核心的動態(tài)治理模式。例如,歐盟于2022年通過了《數(shù)字服務法案》(Digital Services Act, DSA),要求大型在線平臺建立動態(tài)風險評估體系,持續(xù)依據(jù)算法反饋和輿情數(shù)據(jù),調(diào)整內(nèi)容審核機制、推薦邏輯和用戶提示方式,從而創(chuàng)建一個更安全的數(shù)字空間。[13]在技術尚未成熟、風險尚不明確的生成式人工智能、元宇宙等新興領域,傳統(tǒng)規(guī)制模式可能導致監(jiān)管真空或創(chuàng)新受限。為兼顧探索與合規(guī),部分國家引入“治理沙盒”“彈性監(jiān)管”等柔性制度架構(gòu)。英國政府于2023年3月發(fā)布了《支持創(chuàng)新的人工智能監(jiān)管方式》(A pro-innovation approach to AI regulation)政策文件,提出基于原則的人工智能治理方法,強調(diào)在現(xiàn)有法律框架下對人工智能進行監(jiān)管,并提出可信人工智能、監(jiān)管沙盒等舉措,以在防范潛在風險的同時促進產(chǎn)業(yè)發(fā)展。[14]
綜上所述,人工智能技術推動網(wǎng)絡空間治理從靜態(tài)規(guī)則走向動態(tài)彈性機制,從一次性部署走向持續(xù)調(diào)試,從封閉式制定走向開放式共建,為構(gòu)建適應型、學習型全球網(wǎng)絡空間治理體系提供了關鍵支撐,也使全球網(wǎng)絡空間治理更具彈性與適應力。但與此同時,人工智能技術應用也帶來了新的制度難題:誰主導規(guī)則迭代?反饋數(shù)據(jù)是否公開透明?政策試驗失敗由誰負責?這些問題仍需人類在制度設定與監(jiān)督過程中行使終極裁量權,發(fā)揮責任擔當。
全球網(wǎng)絡空間治理中的人類不可替代性
在人工智能廣泛嵌入網(wǎng)絡空間治理的當下,其在數(shù)據(jù)處理、風險預測、內(nèi)容識別等領域展現(xiàn)出卓越效率。人工智能在發(fā)揮極大賦能增效作用的同時,也日益暴露出數(shù)字控制、權力剝奪、價值偏好偏差等消極影響,暗藏頗為危險的技治主義傾向。[15]治理本質(zhì)并非單純的技術工程,還關涉制度設定、權力協(xié)調(diào)與價值判斷。特別是在多主權并存、技術快速演化的全球網(wǎng)絡空間,人類在治理中的主導角色非但未被削弱,反而在制度建構(gòu)、倫理決策與國際協(xié)商等關鍵環(huán)節(jié)中更加不可替代。
制度設計中的人類規(guī)范判斷作用。人工智能的廣泛應用正在重塑全球網(wǎng)絡空間治理的技術圖景。治理制度不僅是對運行機制的設定,更是對社會價值、權力關系與規(guī)范邊界的系統(tǒng)構(gòu)造。在網(wǎng)絡空間這一跨文化、多主體、高變動性的場域中,制度設計遠非技術性輸入輸出所能替代,必須由具備歷史意識、價值判斷與政治理性的主體親自把關與主導。人工智能雖擅長數(shù)據(jù)演繹與模式識別,卻難以處理涉及倫理爭議、文化沖突與社會期望的規(guī)范性問題,這些構(gòu)成了其難以逾越的認知邊界。法律與政策等治理規(guī)范的制定,并非模型單獨推導出的技術解法,而更是一場社會協(xié)商與道德評估的集體實踐。
歐盟《人工智能法案》(Artificial Intelligence Act)體現(xiàn)了這種人類主導的制度判斷過程。自2021年其草案提出以來,歐洲議會、理事會與成員國歷經(jīng)多輪辯論,最終在2023年12月達成政治共識。立法過程中設立的人工智能倫理框架將所有人工智能系統(tǒng)應用場景劃分為“不可接受”“高風險”“有限風險”“最低風險”四類,并明確禁止用于社會信用評分、實時遠程面部識別等“不可接受風險”用途。這一制度構(gòu)造的背后,是圍繞“人類尊嚴”“基本權利”“民主穩(wěn)定”等核心價值展開的政治與法律協(xié)商,而非算法所能自主設定的技術邏輯。[16]
在我國,《中華人民共和國個人信息保護法》亦展現(xiàn)了在本土社會邏輯中對制度價值的多重考量。該法案于2021年正式施行,既參考了歐盟《通用數(shù)據(jù)保護條例》(GDPR)中的部分經(jīng)驗,如數(shù)據(jù)最小化原則、跨境傳輸限制等,又根據(jù)中國國情強調(diào)了“國家安全”“社會穩(wěn)定”“政府作用”等理念。在跨境數(shù)據(jù)流動部分,該法規(guī)定“關鍵信息基礎設施運營者”和處理個人信息量達到國家網(wǎng)信部門規(guī)定數(shù)量的“個人信息處理者”必須接受國家網(wǎng)信部門安全評估,體現(xiàn)出對國家主權與公共利益的制度性偏好。這些條款體現(xiàn)了集體主義文化、秩序?qū)蛐椭卫碛^念在制度設計中的深層嵌入。[17]
更具國際層面制度張力的是聯(lián)合國政府專家組(UNGGE)在網(wǎng)絡空間國際規(guī)則制定中的工作實踐。UNGGE多輪談判圍繞“國家主權是否適用于網(wǎng)絡空間”“武力使用是否涵蓋網(wǎng)絡攻擊”等問題展開激烈討論。美國堅持強調(diào)“自由開放的網(wǎng)絡空間”,反對“國家主權過度擴張”;而俄羅斯與部分發(fā)展中國家主張國家政府在網(wǎng)絡空間治理中的作用,反對技術霸權。這些立場分歧反映出不同國家的戰(zhàn)略利益與治理觀念,其制度文本的最終形成依賴的是人類外交代表在談判、協(xié)商與利益妥協(xié)中的經(jīng)驗判斷和價值權衡,而這種互動難以由人工智能代理。[18]
人類始終在制度構(gòu)建的核心判斷中發(fā)揮著不可替代的作用。人工智能可在制度形成過程中提供輔助分析,但制度的合法性、正當性與文化適應性,必須源于人類社會的理性協(xié)商與規(guī)范共識。即便未來人工智能進一步嵌入治理過程,也無法改變?nèi)祟愒谌蚓W(wǎng)絡空間治理中擁有制度主導權的核心邏輯。
價值沖突中的人類倫理判斷作用。在全球網(wǎng)絡空間治理實踐中,倫理判斷是無法由算法替代的關鍵環(huán)節(jié)。特別是在不同社會價值觀發(fā)生沖突時,只有人類才能憑借其倫理感知、社會共識與文化理解能力作出更具合法性與可接受性的決策。人工智能可以識別模式、執(zhí)行規(guī)則,但缺乏主動提出倫理問題、衡量文化后果與承擔社會責任的能力。諸如隱私保護與國家安全之間的張力、言論自由與社會穩(wěn)定的平衡、人權保障與內(nèi)容審查的界限,這些議題往往處于灰色地帶,難以依靠邏輯演算或統(tǒng)計模型得出唯一答案。
Meta(原Facebook)平臺的內(nèi)容審核機制充分揭示了該問題的復雜性。盡管該平臺部署了大規(guī)模人工智能系統(tǒng)以自動識別暴力、恐怖主義、仇恨言論等內(nèi)容,并可在用戶舉報前完成大部分初步篩查,但在處理政治異議、人權表達和宗教敏感內(nèi)容時,人工智能系統(tǒng)顯得力不從心。為應對這一挑戰(zhàn),Meta于2020年正式設立“內(nèi)容監(jiān)督委員會”(Oversight Board),負責復審關鍵內(nèi)容爭議案件。該委員會強調(diào)審查標準需依據(jù)《世界人權宣言》與區(qū)域法律框架,明確了人工智能判斷之外,人類在政治表達與文化張力中的裁定責任。[19]
另一個體現(xiàn)倫理判斷主導技術決策的事件,是谷歌(Google)在“Project Maven”項目中的戰(zhàn)略退出。該項目由美國國防部于2017年啟動,旨在利用人工智能圖像識別技術提升無人機軍事偵察與目標打擊的效率。谷歌在該項目中負責提供機器學習平臺工具,協(xié)助軍方進行目標識別。然而,自2018年起,谷歌內(nèi)部爆發(fā)大規(guī)模員工抗議,逾4000名員工聯(lián)名反對公司參與該項目,認為這違反了公司“不從惡”(\"Don't be evil\")的核心理念。在道德壓力與公眾爭議下,谷歌最終決定退出該項目,并在公開聲明中表示“人工智能必須服務于和平與人類價值,而非被濫用于武力控制”。這一事件清晰說明,即使在高科技公司內(nèi)部,倫理價值仍然是最終決策的主導因素,而非由技術理性決定。[20]
制度層面更為突出的案例是新西蘭政府在“基督城清真寺槍擊案”(2019)后發(fā)起的“基督城呼吁”(Christchurch Call)倡議。在該事件中,兇手通過社交平臺直播其行兇過程,震驚全球。事件之后,新西蘭聯(lián)合法國等歐盟國家與多家科技公司,共同呼吁建立全球互聯(lián)網(wǎng)內(nèi)容治理機制。該倡議明確提出:“應在人類監(jiān)督下加強極端內(nèi)容的識別與處理,反對將此類工作完全外包給人工智能系統(tǒng)”,強調(diào)平臺責任、人類干預與跨國合作的制度性路徑,代表當前國際社會對人工智能內(nèi)容治理邊界的基本共識。[21]
在涉及社會敏感議題的治理過程中,人工智能固然可以作為技術支持工具,但最終的倫理決策權必須由人類掌握。尤其在跨文化背景下,全球社會對“自由”“暴力”“安全”等概念的理解存在巨大差異,人工智能模型在此情境下往往無法提供廣泛認可的方案,反而可能激化信任危機。因此,全球網(wǎng)絡空間治理中,人類在倫理判斷中的主導地位不可替代。
公眾參與中的人類民主組織作用。在全球網(wǎng)絡空間治理中,政策制定早已超出技術執(zhí)行的范疇,成為一項涉及多元價值沖突、利益平衡與制度正當性的復雜政治工程。公眾是否以及如何被有效納入治理結(jié)構(gòu),不僅關乎程序正義,也決定了治理機制的合法性與可持續(xù)性。盡管人工智能在輿情識別、意見聚類與參與動員等方面展現(xiàn)出巨大潛力,但仍無法替代人類在公眾參與和公共協(xié)商中的核心作用。
首先,公眾參與而非簡單的技術采樣或數(shù)據(jù)建模,是民主政治的基石。2017年,美國聯(lián)邦通信委員會(FCC)就“網(wǎng)絡中立性”政策改革展開公共咨詢,收到了約2200萬條公眾評論。然而,事后調(diào)查發(fā)現(xiàn),其中近1800萬條評論為虛假提交,很多使用了偽造的身份信息。這揭示了在政策制定過程中,雖然人工智能可以輔助分析評論內(nèi)容,但對于評論的真實性驗證、代表性評估以及程序的公平性判斷,仍需依賴人類的制度裁定和監(jiān)督。[22]這一事件表明,治理合法性依賴的不是算法生成的統(tǒng)計概率,而是人類社會對過程正義的信任。
其次,在技術與民主并存的場域中,人工智能可作為“協(xié)助組織者”嵌入?yún)⑴c機制,但不具有決策主體地位。法國政府于2019年發(fā)起“全國大辯論”(Grand Débat National)項目,旨在回應“黃背心”抗議,促進全國性對話以化解社會沖突。[23]政府在全國范圍內(nèi)組織了超過1萬場線下集會,并結(jié)合人工智能技術對約200萬條在線提交的意見進行文本分析與分類。數(shù)字化后的民意數(shù)據(jù)被委托給調(diào)查公司OpinionWay及其人工智能合作伙伴Qwam處理,他們通過人工智能工具識別民眾共識與爭議焦點,輔助政府制定改革優(yōu)先事項。[24]然而,這一人工智能輔助機制始終以“意見歸納工具”而非“政策決策者”角色存在,最終的制度調(diào)整仍由總統(tǒng)與議會通過民主協(xié)商裁定。
再次,公眾參與在人權與道德議題中更具有不可替代性。英國在制定《在線安全法案》(Online Safety Bill)期間,廣泛征求民意、組織聽證會,并設立跨黨派監(jiān)督小組,以處理平臺責任、算法偏見與未成年人保護等復雜問題。該法案涉及“如何界定有害內(nèi)容”“平臺是否過度審查”“人工智能在內(nèi)容治理中的合法邊界”等多重倫理風險。[25]盡管技術專家參與算法模型與風險評級設計,但最終法律文本仍由議會通過,體現(xiàn)出人類在價值判斷、權力設計和制度運行中的絕對主導地位。
人工智能可以在全球網(wǎng)絡空間治理中作為信息賦能的工具,擴展參與范圍、優(yōu)化議題聚合、發(fā)現(xiàn)意見沖突,但規(guī)則設定、協(xié)商引導與責任歸屬的制度構(gòu)建仍需由人類主導完成。特別是在多元文化、價值觀沖突的全球網(wǎng)絡空間,公眾參與仍然不可替代。
跨境多方博弈中的人類協(xié)調(diào)作用。全球網(wǎng)絡空間治理不僅關涉技術部署,更深刻映射出國際體系中的主權沖突、權力再分配與制度競爭。在這一多極互動的場域中,治理不再是行政命令的線性輸出,而是一個充滿政治張力的“協(xié)商—妥協(xié)—再協(xié)商”過程。人工智能雖然可以提供數(shù)據(jù)支持、語言翻譯與風險評估,但缺乏政治敏感性、文化理解力與妥協(xié)能力,無法勝任高風險、多變量的跨境協(xié)調(diào)任務。
以TikTok與美國政府圍繞“數(shù)據(jù)主權”與“國家安全”問題的爭議為例,人類談判的作用在其中展現(xiàn)得尤為明顯。2019年,美國外國投資委員會(CFIUS)對字節(jié)跳動收購Musical.ly并將其整合為TikTok的交易展開了國家安全審查。盡管TikTok采取措施將美國用戶數(shù)據(jù)存儲在美國和新加坡,并退出香港市場以爭取美方信任,但CFIUS仍認為TikTok構(gòu)成國家安全風險,要求其剝離美國業(yè)務,甚至將其封禁。[26]在這一過程中,關鍵決策并非基于事實理性,而是由美國國家安全委員會、法律顧問、企業(yè)高管等人類行為體根據(jù)所謂“邏輯”作出,更多是基于政治考量和無端猜測,目的是維護美國數(shù)字霸權。
歐盟與Meta(原Facebook)圍繞“跨境數(shù)據(jù)傳輸合法性”的法律沖突驗證了這一點。在“Schrems II”案中,歐洲法院于2020年裁定美國的監(jiān)控機制違反歐盟隱私權標準,宣布《隱私盾協(xié)議》無效,直接影響了Meta等公司數(shù)據(jù)在歐美之間的自由流動。[27]盡管Meta使用人工智能協(xié)助分析法規(guī)適配性與合規(guī)風險,但其應對策略,包括數(shù)據(jù)本地化、協(xié)議談判、隱私政策修改等,均由法律顧問、數(shù)據(jù)保護官與歐盟監(jiān)管機構(gòu)共同主導完成。這類法律與政治高度交織的治理沖突,離不開人類在規(guī)范解釋、信任建構(gòu)與司法策略中的協(xié)調(diào)作用。
在更具制度性與全球性的場域,聯(lián)合國“互聯(lián)網(wǎng)治理論壇”(IGF)提供了一個高度人類主導的協(xié)商機制范式。自2006年設立以來,IGF匯聚了各國政府、技術組織、企業(yè)與公眾,圍繞數(shù)字主權、技術標準、互聯(lián)網(wǎng)資源分配等問題展開多輪討論。發(fā)展中國家持續(xù)要求改革現(xiàn)有治理結(jié)構(gòu),如擴大其在互聯(lián)網(wǎng)名稱與數(shù)字地址分配機構(gòu)(ICANN)的影響力,而歐美國家則主張維持“多利益攸關方”機制的現(xiàn)狀。[28]人工智能雖可輔助完成文本分析、會議記錄與議程規(guī)劃,但在面臨地緣戰(zhàn)略分歧與制度訴求碰撞時,真正影響談判進程的,是各方代表所展現(xiàn)的談判意志、歷史記憶與政治信仰。
全球網(wǎng)絡空間治理的本質(zhì)是多主權下的動態(tài)制度生成,其推進邏輯根植于人類社會對規(guī)則、秩序與正義的長期協(xié)商。在這一過程中,人工智能可以提供輔助性信息、提升談判效率,但無法擔任政治意圖的表達者、妥協(xié)機制的建構(gòu)者與責任體系的承載者。因此,構(gòu)建可持續(xù)的全球網(wǎng)絡空間秩序,仍需依賴人類在跨境事務中發(fā)揮協(xié)調(diào)功能。
監(jiān)督與糾錯機制中的人類最終責任。在全球網(wǎng)絡空間治理中,人工智能系統(tǒng)被廣泛應用于提升效率、擴大覆蓋面、增強風險預測能力,尤其在行政決策、內(nèi)容審查與資源分配等領域日益發(fā)揮核心作用。然而,越是深入推進技術嵌入的自動化治理,人類作為制度監(jiān)督者與最終責任承擔者的角色就越顯關鍵。人工智能的判斷依據(jù)來自訓練數(shù)據(jù)與模型邏輯,而這些基礎事項本身就可能包含偏見、盲區(qū)和邏輯缺陷。一旦人工智能作出錯誤決策,其帶來的后果不僅限于技術層面,更可能波及公民權利與制度公信力。因此,人類仍是治理責任鏈條中不可替代的“最終責任方”——人工智能所造成的偏誤,必須由人類識別、修復與追責。
澳大利亞的“Robodebt”案件是高度自動化治理失誤的典型案例。2016年,澳大利亞政府引入自動數(shù)據(jù)匹配系統(tǒng),以檢測社會福利欺詐。然而,該系統(tǒng)在缺乏人工復核的情況下,簡單對比稅務與福利數(shù)據(jù),自動判定大量低收入者涉嫌騙保,并下發(fā)追繳令。這一過程中超過50萬人受到影響,許多人陷入財務困境,甚至引發(fā)個體心理創(chuàng)傷和個別自殺事件。[29]2023年,澳大利亞皇家委員會裁定該系統(tǒng)“非法且缺乏基本正當程序”,政府隨后公開道歉并啟動了賠償計劃。[30]該事件表明,人工智能可自動生成決策,卻無法承擔由此引發(fā)的制度責任與政治后果。
類似的情況也出現(xiàn)在英國簽證系統(tǒng)中。英國內(nèi)政部曾使用人工智能對申請人進行自動化風險評分,以加速審批流程。調(diào)查發(fā)現(xiàn),該系統(tǒng)以國籍、申請模式等敏感變量為特征,將特定國家的申請人標記為高風險,導致大量合法申請被無理由拒簽。[31]2020年,多個民權團體起訴政府系統(tǒng)存在算法歧視,倫敦高等法院裁定其違反反歧視法,系統(tǒng)隨即被廢除。[32]此事件再次表明,算法“效率”不能凌駕于程序正義與反歧視原則之上,而人類必須作為最終監(jiān)管者介入與糾偏。
平臺領域亦存在類似困境。微軟于2016年推出的人工智能聊天機器人“Tay”,在上線不到24小時內(nèi)即因用戶操縱而開始發(fā)布種族主義、性別歧視和極端政治言論。微軟雖迅速下線系統(tǒng)并道歉,但事件暴露出平臺人工智能產(chǎn)品設計中缺少對價值防護機制的考量。[33]人工智能雖能生成內(nèi)容,但無法把握社會語境與倫理邊界,其生成邏輯不具備自主道德判斷能力,必須由人類制定限制、明確責任與建立動態(tài)干預機制。
上述三個案例雖涉及不同國家與治理領域,卻揭示出同一個本質(zhì)問題:人工智能是治理工具或輔助者而非問責主體。全球網(wǎng)絡空間治理的合法性、透明性與正義性,最終仍需依靠人類制度設計者與政治責任人來守護。因此,構(gòu)建有效的全球網(wǎng)絡空間治理體系,必須以“人類可監(jiān)督、可介入、可糾偏”為前提。治理的每一個環(huán)節(jié)都應設有人類可觸達的“責任接口”,確保當人工智能系統(tǒng)運行失效時,能夠及時回歸人類干預機制,從而維護制度運行的韌性與正當性。
制度滯后與技術治理中的人類前瞻作用。在全球網(wǎng)絡空間治理中,技術的快速發(fā)展往往超前于制度的完善,形成制度滯后的現(xiàn)象。人工智能、元宇宙等新興技術的崛起,拓寬了人類社會的行為和價值邊界,但相應的法律體系、治理機制和倫理規(guī)范卻未能同步更新,導致出現(xiàn)“制度真空”。這種滯后不僅源于政策工具的缺乏,更反映出人類對技術帶來的不確定性和潛在風險的認知不足。在此背景下,治理的關鍵在于“預見未知”——即人類主動識別新問題,預設制度框架,填補規(guī)則盲區(qū)。這種前瞻性功能需要判斷力、價值設定和政治洞察力,而這些正是當前人工智能所不具備的。
一個典型的制度盲區(qū)是人工智能在內(nèi)容審核中的應用。例如,YouTube等視頻平臺利用人工智能技術自動檢測并刪除涉嫌侵犯版權的內(nèi)容。然而,這些人工智能系統(tǒng)有時會錯誤地刪除合法內(nèi)容,或未能及時識別新的侵權形式,導致內(nèi)容創(chuàng)作者和權力持有者之間的爭議。這反映了在內(nèi)容審核領域,單純依賴人工智能可能導致過度刪除或漏判,需要人類制定前瞻性的審核標準和糾錯機制,以平衡版權保護與言論自由。[34]因為人工智能無法提出“什么是可接受行為”或“虛假信息應如何界定和治理”等問題,這類判斷超出模式學習范疇,需人類憑借經(jīng)驗、倫理與社會洞察作出。
類似前瞻性機制也體現(xiàn)在國家監(jiān)管層面。英國政府2023年發(fā)布的《人工智能監(jiān)管白皮書》明確拒絕“一刀切”式立法,而主張“輕觸監(jiān)管”(light-touch regulation)與“部門自適應”(sector-specific flexibility)相結(jié)合的模式。該文件強調(diào),人工智能作為尚未完全成型的通用技術,應在治理上保留“實驗空間”,由各行業(yè)根據(jù)風險特征與成熟度進行規(guī)則試點。[35]這背后體現(xiàn)的是一種政治判斷:人工智能的治理邊界不能由人工智能自身設定,而需人類制度設計者在風險外溢前構(gòu)建緩沖帶,主動設定規(guī)則演化節(jié)奏。
在全球治理層面,制度前瞻性尤為關鍵。世界經(jīng)濟論壇(World Economic Forum)于2022年啟動了“定義和構(gòu)建元宇宙”倡議,旨在構(gòu)建元宇宙的治理框架。這份報告探討了元數(shù)據(jù)身份,倡導采用安全、包容和注重隱私的方法。報告強調(diào),需要以平等和無障礙為基礎構(gòu)建元宇宙,強調(diào)負責任的數(shù)據(jù)實踐和包容性設計,體現(xiàn)了人類在預設未來治理規(guī)范方面的制度努力。[36]該文件的產(chǎn)生并非技術專家閉門造車,而是由來自全球各地的150多位專家通過多輪磋商達成。這一過程本質(zhì)上是人類通過政治、文化與價值對話共同“預設未來治理規(guī)范”的制度努力。
無論是在企業(yè)平臺設定內(nèi)容邊界,還是國家層面制定行業(yè)規(guī)范,抑或在國際社會達成治理共識,制度前瞻性的邏輯始終是人類主動識別風險、提出規(guī)范,并創(chuàng)造性地設定邊界。人工智能可以優(yōu)化執(zhí)行路徑,但無法承擔制度開創(chuàng)的職責。制度前瞻性不是對現(xiàn)有規(guī)則的泛化延伸,而是對全新問題作出結(jié)構(gòu)性響應?!爸贫惹罢啊?,正是人類能力的制度化表達,是確保技術發(fā)展不脫離價值軌道的關鍵保障。
邁向“人機協(xié)同共治”的全球網(wǎng)絡空間治理
前面內(nèi)容揭示了人工智能如何在效率、流程與結(jié)構(gòu)層面重塑全球網(wǎng)絡空間治理體系,以及人類在價值判斷、制度設定與風險監(jiān)督中的不可替代性。這一雙重動力交匯的關鍵問題是:在人工智能時代的全球網(wǎng)絡空間治理中,如何推動人類與人工智能的有效協(xié)作?如何避免“替代幻想”與“人類依賴”的雙重極端?下面將從理念、結(jié)構(gòu)、制度與風險四個維度,探討人機協(xié)同治理的內(nèi)在邏輯與實現(xiàn)路徑。
從任務分工到角色互補:人機協(xié)同的治理理念。在全球網(wǎng)絡空間治理的早期階段,人工智能多被視為“自動化工具”,承擔信息篩查、風險識別和流程管理等標準化任務,治理權力與責任依然集中在人類決策者手中。但隨著深度學習、多模態(tài)分析等技術突破,人工智能開始具備在政策建議、內(nèi)容風險評估、趨勢預測等方面的主動性能力,推動治理理念從“人控人工智能”的線性分工向“人機共治”的角色互補演化。這一轉(zhuǎn)變不僅涉及技術能力的提升,更反映出治理責任結(jié)構(gòu)與認知體系的系統(tǒng)重構(gòu)。
從認知結(jié)構(gòu)上看,人工智能擅長處理大規(guī)模、跨平臺數(shù)據(jù),在識別虛假信息擴散路徑、仇恨言論聚集區(qū)域等方面展現(xiàn)出高效性。例如,Meta表示其內(nèi)容審核人工智能系統(tǒng)近幾年對一般類別違規(guī)內(nèi)容的主動檢測率達到90%以上,顯示了人工智能在內(nèi)容審核中的重要作用。[37]然而,人工智能在理解文化語境、隱喻含義和歷史背景等復雜信息方面存在局限性。同一句話在不同文化中可能具有完全不同的含義或敏感度,這種細微差別仍需人類參與者的經(jīng)驗和倫理直覺來判斷。因此,“人機協(xié)同”需結(jié)合人工智能的高效數(shù)據(jù)處理能力和人類的深度理解與價值判斷,實現(xiàn)優(yōu)勢互補。
在全球網(wǎng)絡空間治理中,人工智能與人類的協(xié)同合作已成為提升內(nèi)容審核效率和準確性的關鍵策略。傳統(tǒng)上,人工智能被視為中立的工具,其錯誤通常由系統(tǒng)設計者或操作者承擔責任。然而,在“人機共治”的框架下,人工智能不再僅僅是執(zhí)行流程中的一環(huán),而是成為治理鏈條的重要組成部分。這要求建立制度,納入人工智能推理與人類判斷的協(xié)作機制,實現(xiàn)“動態(tài)授權+審慎監(jiān)督”的組合模式。還以Meta為例,該公司在內(nèi)容審核中采用了人類與人工智能協(xié)同的策略。人工智能系統(tǒng)首先對內(nèi)容進行初步篩選,識別潛在的違規(guī)內(nèi)容。隨后,人類審核員對人工智能標記的內(nèi)容進行復核,以確保決策的準確性和上下文理解。[38]這種協(xié)作模式結(jié)合了人工智能的高效處理能力和人類的復雜判斷力,提高了內(nèi)容審核的質(zhì)量和效率。
此外,研究人員也在探索人機協(xié)作的新方法。例如,一項研究提出了“條件委派”(conditional delegation)的概念,即人類制定規(guī)則,指定在哪些情況下信任人工智能的判斷,在哪些情況下需要人類介入。[39]這種方法在內(nèi)容審核領域展開實驗,結(jié)果表明,通過人機協(xié)作,結(jié)合人工智能的高效處理能力和人類的復雜判斷力,可以同時提高決策的準確性和效率。這些實踐顯示,“人機共治”并非職責替代,而是以優(yōu)勢互補為基礎、以人類價值判斷為核心的新型治理結(jié)構(gòu)。
從平臺調(diào)度到結(jié)構(gòu)嵌套:治理主體的組織協(xié)同。隨著數(shù)字平臺逐漸成為網(wǎng)絡空間的基礎設施,其調(diào)度能力也逐步轉(zhuǎn)化為全球網(wǎng)絡空間治理體系中的核心依托。從內(nèi)容審核到數(shù)據(jù)監(jiān)管,從賬號治理到信息披露,平臺承擔的治理職能不斷拓展。然而,這種治理機制雖顯著提高了響應效率,卻引發(fā)了對治理權力過度集中、“技術公司即監(jiān)管者”的正當性質(zhì)疑。人工智能賦予平臺更強大的決策與執(zhí)行力,使其能通過算法系統(tǒng)調(diào)控內(nèi)容排序、識別風險行為、預測輿情波動。然而,當治理決策開始影響公共利益、觸及基本權利時,僅靠企業(yè)內(nèi)部流程無法保障治理的透明度與正當性。因此,需要引入外部力量與公共制度,實現(xiàn)權力的嵌套分布與功能協(xié)調(diào)。
Meta(原Facebook)設立的“監(jiān)督委員會”(Oversight Board)便是典型的結(jié)構(gòu)嵌套機制實踐。作為一家技術平臺公司,Meta通過此機制引入獨立第三方機構(gòu)來對其內(nèi)容管控決策進行再審查。監(jiān)督委員會由前國際法院法官、人權專家、學者及媒體代表組成,獨立處理平臺標記為爭議性或具有廣泛社會影響的內(nèi)容案件,具備有限但實質(zhì)的“準司法”功能。委員會有權推翻平臺的初始決定,并提出政策建議,而Meta則承諾對所有裁定予以公開回應。[40]這種“平臺決策—外部復核—政策反饋”的結(jié)構(gòu)設計,使平臺內(nèi)部審核機制與外部社會監(jiān)督形成嵌套協(xié)同,有效緩解了平臺公司“既當運動員又當裁判員”的合法性困境。
新加坡的“可信數(shù)據(jù)共享框架”(Trusted Data Sharing Framework)展示了政府與平臺之間協(xié)作治理的數(shù)據(jù)嵌套模式。該框架由新加坡資訊通信媒體發(fā)展局(IMDA)牽頭,于2020年正式發(fā)布,旨在建立一種可持續(xù)、透明、受信任的數(shù)據(jù)交換環(huán)境。平臺需在其技術架構(gòu)中集成政府設定的監(jiān)控API模塊,實時報告數(shù)據(jù)流轉(zhuǎn)情況,政府則基于人工智能模型對數(shù)據(jù)活動進行風險評估與合規(guī)監(jiān)測,并對平臺的數(shù)據(jù)使用行為進行認證與審計。該框架還通過責任共擔機制明確平臺在數(shù)據(jù)濫用、違規(guī)收集數(shù)據(jù)時的問責路徑,捍衛(wèi)數(shù)據(jù)治理中的權力邊界與協(xié)調(diào)機制。[41]
相較于傳統(tǒng)平臺自律模式,結(jié)構(gòu)嵌套治理的優(yōu)勢在于制度性分權與程序性監(jiān)督。平臺的“執(zhí)行效率”、政府的“合規(guī)把關”、公眾的“外部監(jiān)督”、人工智能系統(tǒng)的“技術中樞”得以整合為一個多元分工、動態(tài)互動的治理生態(tài)系統(tǒng)。這種模式既能保障治理效率,又能在程序正義、權力約束與多元代表性之間取得相對平衡。
從規(guī)制統(tǒng)一到協(xié)商調(diào)優(yōu):規(guī)則共創(chuàng)的實踐機制。在網(wǎng)絡空間治理中,傳統(tǒng)模式通常由政府或平臺單方面制定規(guī)則,通過法律或服務條款約束用戶行為。然而,隨著技術的快速發(fā)展和文化的多元化,這種“規(guī)制統(tǒng)一”模式逐漸暴露出合法性不足、響應滯后和治理僵化等問題。平臺規(guī)則難以涵蓋復雜語境下的價值沖突,政府立法往往滯后于技術更新迭代,用戶也缺乏實際參與的渠道。這些挑戰(zhàn)推動全球網(wǎng)絡空間治理從“規(guī)制統(tǒng)一”向“協(xié)商調(diào)優(yōu)”轉(zhuǎn)變,即將規(guī)則視為可反饋、可演化的共創(chuàng)機制。
“協(xié)商調(diào)優(yōu)”指的是規(guī)則制定不再是一成不變的文本,而是在多方參與的基礎上,通過持續(xù)反饋和動態(tài)修正不斷完善的治理過程。人工智能技術在其中發(fā)揮了關鍵作用:一方面,人工智能通過對用戶行為、輿論變化和風險態(tài)勢的實時分析,提供高頻率、結(jié)構(gòu)化的治理反饋;另一方面,這些數(shù)據(jù)又能反哺規(guī)則優(yōu)化,形成“數(shù)據(jù)—規(guī)則—反饋”的閉環(huán)系統(tǒng),塑造出“可學習”的治理結(jié)構(gòu)。
以美國社交新聞和網(wǎng)絡社區(qū)公司Reddit為例,其社區(qū)管理機制允許用戶依據(jù)設定條件上報爭議內(nèi)容,后臺人工智能系統(tǒng)據(jù)此評估風險等級并提出處理建議,最終由社區(qū)管理員與用戶代表共同決定是否執(zhí)行操作。[42]這一“算法+協(xié)商”結(jié)構(gòu)既增強了社區(qū)自律,又避免了平臺獨斷,為社群賦予了規(guī)則演繹空間。
另一個案例是美國眾議院于2022年頒布的《算法問責法案》(Algorithmic Accountability Act of 2022),要求使用自動化決策系統(tǒng)的企業(yè)研究并報告這些系統(tǒng)對消費者的影響,包括是否存在偏見或歧視性決策。[43]該法案推動形成企業(yè)、監(jiān)管機構(gòu)和公眾之間的協(xié)商機制,確保算法決策的透明度和公平性。值得強調(diào)的是,協(xié)商調(diào)優(yōu)并不意味著規(guī)則松動或治理弱化,而是將動態(tài)反饋和協(xié)商調(diào)優(yōu)嵌入規(guī)范生成中,從而提升規(guī)則適應力與治理包容性。
從算法執(zhí)行到責任共擔:治理責任的協(xié)同分布。傳統(tǒng)治理中,責任集中在人類治理主體上,而人工智能系統(tǒng)的引入打破了這一清晰歸屬邏輯。若治理偏差、技術誤判等問題出現(xiàn),僅將責任推給“算法”或“平臺”既不具備倫理正當性,也難滿足公共治理的法律要求。因此,全球網(wǎng)絡空間治理正在轉(zhuǎn)向多方主體責任共擔的制度階段,形成覆蓋平臺、政府、開發(fā)者與公眾的責任協(xié)同體系。
首先,平臺企業(yè)作為系統(tǒng)設計與運營的核心主體,必須承擔首要責任。無論是內(nèi)容審核還是風控系統(tǒng),平臺對其人工智能模型的邏輯、邊界與偏差風險負有直接責任。在2023年,IBM發(fā)布了《信任和透明度原則》(IBM's Principles for Trust and Transparency),明確提出平臺企業(yè)在開發(fā)和部署人工智能系統(tǒng)時必須承擔首要責任,特別是在模型的透明性、公平性和問責機制方面。IBM強調(diào),企業(yè)在設計人工智能系統(tǒng)時應對其邏輯、邊界和潛在偏差進行全面評估,并對系統(tǒng)可能帶來的社會影響負責。[44]
其次,政府監(jiān)管機構(gòu)需履行制度框架責任。他們不僅制定治理底線,還必須對人工智能系統(tǒng)執(zhí)行審查、風險預警與糾錯監(jiān)督。2024年正式生效的歐盟《人工智能法案》(AI Act)將資格審核、司法協(xié)助等領域納入“高風險人工智能”分類,要求企業(yè)進行事前評估與事后問責,保障公眾利益。[45]該法案明確政府需構(gòu)建“算法問責鏈”,降低“黑箱治理”帶來的影響。
再次,算法開發(fā)者與模型訓練人員應承擔源頭責任,確保人工智能系統(tǒng)的訓練數(shù)據(jù)和建模邏輯的公正性和準確性。2020年,荷蘭稅務機關人工智能系統(tǒng)在識別社會福利欺詐時,因算法存在偏見,錯誤處罰了數(shù)千個少數(shù)族裔家庭,造成嚴重后果,最終導致政府高層集體辭職。[46]該事件揭示了開發(fā)階段對數(shù)據(jù)偏誤與建模邏輯把控不足造成的嚴重后果,推動多國出臺了“模型文檔留存”“可解釋性標準”等技術責任規(guī)范。
此外,用戶與公眾也需在全球網(wǎng)絡空間治理中扮演“反饋責任者”角色。在日益復雜的網(wǎng)絡空間中,人工智能系統(tǒng)的判斷雖能提高效率,但其所依賴的算法邏輯、訓練數(shù)據(jù)與規(guī)則設定往往難以覆蓋所有社會語境,極易產(chǎn)生偏差、遺漏或誤導。在這種背景下,公眾作為規(guī)則接受者和實際使用者,往往最早察覺算法運行中的異常與隱患。許多治理失效的早期信號,都來自用戶的日常體驗與個體反饋。正是公眾的主動投訴、集體抗議與社會輿論的推動,促使平臺與監(jiān)管機構(gòu)及時調(diào)整策略,彌補制度短板。以YouTube為例,其曾因推薦算法引導用戶觀看極端內(nèi)容而遭批評,最終通過調(diào)整推薦機制并開放部分評估數(shù)據(jù),加強了平臺治理的透明度與公眾監(jiān)督的可行性。[47]這些舉措體現(xiàn)出一個重要趨勢,即公眾反饋不僅是治理效果的測量標尺,更是治理機制自我糾偏、自我進化的重要動力源。
平臺設計者、政府監(jiān)管者、技術開發(fā)者與用戶群體共同構(gòu)建責任鏈條,使“人機共治”不僅體現(xiàn)在操作層面,也落實在價值判斷與權責分配之中。只有當責任不再空懸,人機協(xié)同治理才能實現(xiàn)合法性、透明性與可持續(xù)性的動態(tài)平衡。
結(jié)語
人工智能正以前所未有的深度嵌入全球網(wǎng)絡空間治理體系。憑借強大的數(shù)據(jù)處理能力、模式識別技術與即時響應速度,人工智能在內(nèi)容審核、數(shù)據(jù)監(jiān)管、智能合約等領域大幅提升了治理執(zhí)行力與適應性,推動治理機制從人工驅(qū)動向智能驅(qū)動演化。然而,治理不僅關乎效率,更關乎規(guī)范設定、價值判斷與責任歸屬。這一張力正是人工智能參與全球網(wǎng)絡空間治理面臨的核心困境:其可以優(yōu)化路徑,卻難以判斷方向;可以支持響應,卻難以解決沖突;可以執(zhí)行操作,卻無法承擔責任。
因此,全球網(wǎng)絡空間治理的本質(zhì)從未脫離政治與制度的核心屬性。人工智能賦能不應被誤解為人類角色的讓渡,而應視為治理邏輯、責任結(jié)構(gòu)與價值共識的重構(gòu)契機。技術能力的提升,對治理者提出了更高要求:如何引導人工智能服務公共利益、限定邊界、保障糾錯機制——這些問題的答案將決定全球網(wǎng)絡空間治理秩序的穩(wěn)定與韌性。
未來的全球網(wǎng)絡空間治理需警惕兩個極端:一是“技術決定論”或“技治主義”,盲目推崇人工智能主導治理,忽視制度設定與價值約束;[48]二是“技術恐懼論”,因風險憂慮而拒絕技術介入,錯失變革式發(fā)展契機。[49]真正前瞻性的路徑,是構(gòu)建人類主導、人工智能輔助的人機協(xié)同治理體系:重大規(guī)范與價值判斷由人類協(xié)商決定;人工智能專注于執(zhí)行操作與初步識別,人類則負責監(jiān)督與復審,形成責任閉環(huán);任何治理失誤最終仍由人類承擔制度責任。
總之,人機協(xié)同治理不僅意味著治理工具升級,更是治理哲學與制度倫理的再定義。問題不在于人工智能能做什么,而在于人類應讓人工智能做什么;不在于人工智能能否取代人類,而在于人類如何智慧地引導和規(guī)范人工智能。唯有在人類價值主導的治理框架下,我們才能在高度數(shù)字化的時代,實現(xiàn)效率與正義、自動化與人本治理的動態(tài)平衡。人工智能不應是治理的終點,而應成為制度進化的新起點,推動我們重新定義權力結(jié)構(gòu)、責任邊界與治理價值的未來。
(本文系國家社會科學基金重大項目“健全網(wǎng)絡綜合治理體系研究”的階段性成果,項目編號:23ZDA086)
注釋
[1]全球網(wǎng)絡空間治理的相關具體內(nèi)容可參見蔡翠紅:《全球網(wǎng)絡空間治理》,上海:復旦大學出版社,2024年。
[2]M. Taddeo; T. McCutcheon and L. Floridi, \"Trusting Artificial Intelligence in Cybersecurity Is a Double-Edged Sword,\" Nature Machine Intelligence, 2019, 1(12).
[3]詹海寶、孫江、郭夢圓:《基于人機協(xié)同的網(wǎng)絡文化安全治理新模式》,《傳媒》,2023年第15期;劉銳、劉芾:《短視頻內(nèi)容生態(tài)的人機協(xié)同治理網(wǎng)絡分析》,《青年記者》,2024 年第12期;謝耘耕、李丹珉:《從經(jīng)驗決策到人機協(xié)同:輿情決策模式的變革研究》,《新媒體與社會》,2021年第1期。
[4]Meta, \"Integrity and Transparency Reports: Q4 2022,\" 23 February 2023, https://about.fb.com/news/2023/02/metas-integrity-and-transparency-reports-q4-2022/.
[5]Microsoft, \"What Is Microsoft Sentinel?\" 22 May 2024, https://learn.microsoft.com/en-us/azure/sentinel/overview.
[6]G. Deep and J. Verma, \"Embracing the Future: AI and ML Transforming Urban Environments in Smart Cities,\" Journal of Artificial Intelligence, 2023, 5(57).
[7]Kaspersky, \"Kaspersky Overview: Our Values, Business, Solutions and Services,\" 19 December 2024, https://media.kasperskycontenthub.com/wp-content/uploads/sites/100/2024/12/19085748/Kaspersky_Overview_Q4-2024.pdf.
[8]Kaspersky, \"AI in Cybersecurity Automation,\" 17 October 2024, https://usa.kaspersky.com/blog/ai-role-in-cybersecurity-automation/30612/?srsltid=AfmBOopn_Da6v4M7_krpmC_elC4Hvf6RfMDRcTG_1sOdqembLnj1uCx8.
[9]阿里研究院:《“做好”科技,做“好科技”》,2022年10月18日,http://www.aliresearch.com/ch/information/informationdetails?articleCode=390673563344048128amp;type=%E6%96%B0%E9%97%BBamp;organName=。
[10]TikTok for Business, \"Ensuring Creative Integrity in the Age of Generative AI,\" 21 November 2024, https://ads.tiktok.com/business/en-US/blog/creative-integrity-generative-ai?redirected=1.
[11]百度AI開放平臺:《內(nèi)容審核平臺》,https://ai.baidu.com/solution/censoring。
[12]《百度用AI對抗AI濫用:可識別70余種詐騙套路》,2021年9月28日,https://m.huanqiu.com/article/44xDDSIKZfR。
[13]European Commission, \"The Digital Services Act: Ensuring a Safe and Accountable Online Environment,\" 27 October 2022, https://commission.europa.eu/strategy-and-policy/priorities-2019-2024/europe-fit-digital-age/digital-services-act_en.
[14]Department for Science, Innovation amp; Technology, \"A Pro-Innovation Approach to AI Regulation,\" 3 August 2023, https://www.gov.uk/government/publications/ai-regulation-a-pro-innovation-approach/white-paper.
[15][48]鄔曉燕:《數(shù)字治理中的技治主義:困境、根源與突破》,《云南社會科學》,2024 年第6期。
[16]European Commission, \"European Approach to Artificial Intelligence,\" 18 February 2025, https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence.
[17]《中華人民共和國個人信息保護法》,2021年8月20日,https://www.gov.cn/xinwen/2021-08/20/content_5632486.htm。
[18]UN Secretary-General, \"Developments in the Field of Information and Telecommunications in the Context of International Security, and Advancing Responsible State Behaviour in the Use of Information and Communications Technologies: Report of the Secretary-General,\" 8 June 2022, https://digitallibrary.un.org/record/3982519?ln=enamp;v=pdf.
[19]Oversight Board, \"Improving How Meta Treats People and Communities Around the World,\" https://www.oversightboard.com/.
[20]D. Wakabayashi and S. Shane, \"Google Will Not Renew Pentagon Contract That Upset Employees,\" 1 June 2018, https://www.nytimes.com/2018/06/01/technology/google-pentagon-project-maven.html.
[21]New Zealand Government, \"The Christchurch Call Commitments,\" 15 May 2019, https://www.christchurchcall.org/the-christchurch-call-commitments/.
[22]L. James, \"Attorney General James Issues Report Detailing Millions of Fake Comments, Revealing Secret Campaign to Influence FCC's 2017 Repeal of Net Neutrality Rules,\" 6 May 2021, https://ag.ny.gov/press-release/2021/attorney-general-james-issues-report-detailing-millions-fake-comments-revealing.
[23]G. Wetherall-Gruji, \"The Lost Contributions to France's Great Debate: Lessons From the Grievances Five Years on,\" 21 March 2024, https://democracy-technologies.org/participation/lost-contributions-to-great-debate/.
[24]A. Bouverot, \"Great National Debate: Artificial Intelligence at the Service of Collective Intelligence?\" 12 April 2019, https://www.institutmontaigne.org/en/expressions/great-national-debate-artificial-intelligence-service-collective-intelligence.
[25]UK Parliament, \"Preparedness for Online Safety Regulation,\" 21 February 2024, https://publications.parliament.uk/pa/cm5804/cmselect/cmpubacc/73/report.html.
[26]W. Reinsch; P. Saumell; I. Frymoyer and J. Caporal, \"TikTok Is Running Out of Time: Understanding the CFIUS Decision and Its Implications,\" 2 September 2020, https://www.csis.org/analysis/tiktok-running-out-time-understanding-cfius-decision-and-its-implications?utm_source.
[27]The CJEU Judgment in the Schrems II Case, \"The Court of Justice Invalidates Decision 2016/1250 on the Adequacy of the Protection Provided by the EU-US Data Protection Shield,\" 16 July 2020, https://curia.europa.eu/jcms/upload/docs/application/pdf/2020-07/cp200091en.pdf.
[28]UNESCO, \"2022 Internet Governance Forum Stakeholders Champion the Value of Inclusive Digital Internet Governance,\" 10 January 2023, https://www.unesco.org/en/articles/2022-internet-governance-forum-stakeholders-champion-value-inclusive-digital-internet-governance.
[29]F. Mao, \"Robodebt: Illegal Australian Welfare Hunt Drove People to Despair,\" 7 July 2023, https://www.bbc.com/news/world-australia-66130105.
[30]Robodebt Royal Commission, \"Overview of Final Report,\" 19 February 2024, https://www.apra.gov.au/sites/default/files/2024-02/Robodebt%20Royal%20Commision%20-%20Overview%20of%20Final%20Report.pdf.
[31]H. McDonald, \"AI System for Granting UK Visas Is Biased, Rights Groups Claim,\" 29 October 2019, https://www.theguardian.com/uk-news/2019/oct/29/ai-system-for-granting-uk-visas-is-biased-rights-groups-claim.
[32]BBC, \"Home Office Drops Racist Algorithm from Visa Decisions,\" 4 August 2020, https://www.bbc.com/news/technology-53650758.
[33]P. Lee, \"Learning From Tay's Introduction,\" 25 March 2016, https://blogs.microsoft.com/blog/2016/03/25/learning-tays-introduction/.
[34]C. Broughan, \"A Washing Machine Chime amp; Copyright Fraud on YouTube,\" 31 July 2024, https://marksgray.com/intellectual-property/a-washing-machine-chime-copyright-fraud-on-youtube/.
[35]O. Yaros; R. Randall et al., \"UK Government Response to AI Regulation Consultation,\" 5 March 2024, https://www.mayerbrown.com/en/insights/publications/2024/03/uk-government-response-to-ai-regulation-consultation.
[36]World Economic Forum, \"Metaverse Identity: Defining the Self in a Blended Reality,\" 13 March 2024, https://www3.weforum.org/docs/WEF_Metaverse_Identity_Defining_the_Self_in_a_Blended_Reality_2024.pdf.
[37]Meta Transparency Center, \"How Technology Detects Violations,\" 18 October 2023, https://transparency.meta.com/en-us/enforcement/detecting-violations/technology-detects-violations/.
[38]Meta, \"Here's How We're Using AI to Help Detect Misinformation,\" 19 November 2020, https://ai.meta.com/blog/heres-how-were-using-ai-to-help-detect-misinformation/.
[39]ACM SIGCHI, \"Human-AI Collaboration via Conditional Delegation: A Case Study of Content Moderation,\" 3 April 2022, https://www.youtube.com/watch?v=4W2ed8C9LYM.
[40]Oversight Board, \"Improving How Meta Treats People and Communities Around the World,\" https://www.oversightboard.com/.
[41]Infocomm Media Development Authority, \"About the Trusted Data Sharing Framework,\" 1 July 2024, https://www.imda.gov.sg/how-we-can-help/data-innovation/trusted-data-sharing-framework.
[42]Reddit Inc., \"Reddit Transparency Report: January to June 2023,\" https://redditinc.com/policies/2023-h1-transparency-report.
[43]J. M?kander; P. Juneja1 et al., \"The US Algorithmic Accountability Act of 2022 vs. the EU Artificial Intelligence Act: What Can They Learn from Each Other?\" Minds and Machines, 2022, 32.
[44]IBM, \"IBM's Principles for Trust and Transparency,\" 30 May 2018, https://www.ibm.com/policy/trust-transparency.
[45]European Commission, \"Artificial Intelligence-Questions and Answers,\" 1 August 2024, https://ec.europa.eu/commission/presscorner/detail/en/qanda_21_1683.
[46]M. Heikkil?, \"Dutch Scandal Serves as a Warning for Europe over Risks of Using Algorithms,\" 29 March 2022, https://www.politico.eu/article/dutch-scandal-serves-as-a-warning-for-europe-over-risks-of-using-algorithms/.
[47]M. Ledwich and A. Zaitsev, \"Algorithmic Extremism: Examining YouTube's Rabbit Hole of Radicalization,\" 24 December 2019, https://arxiv.org/abs/1912.11211.
[49]王斌、孔燕:《技術恐懼的演變規(guī)律分析》,《東北大學學報(社會科學版)》,2023年第4期。
責 編∕桂 琰" 美 編∕梁麗琛