摘" 要:
“三經(jīng)九緯”法治新模式在生成式人工智能治理中是較“規(guī)制論”更為“厚”的概念。現(xiàn)有規(guī)制之“薄”需要引入新的法治模式來解決生成式人工智能面臨的真問題和新挑戰(zhàn),包括在技術(shù)基礎(chǔ)、應(yīng)用、標(biāo)準(zhǔn)、可融合的數(shù)據(jù)算法、可評估的可信度、可轉(zhuǎn)化的規(guī)范、對話商談和主體間統(tǒng)分結(jié)合等方面進(jìn)行法律的適應(yīng)性改進(jìn)。在國家戰(zhàn)略—產(chǎn)業(yè)孵化—立法規(guī)范三個(gè)經(jīng)度中,通過部門規(guī)章轉(zhuǎn)換產(chǎn)業(yè)端需求并改進(jìn)技術(shù)規(guī)范,形成生成式人工智能治理路徑上的改進(jìn)策略,包括探索回應(yīng)型、轉(zhuǎn)化改進(jìn)型和促進(jìn)包容型法治新模式。
九緯是指技術(shù)基礎(chǔ)、應(yīng)用和標(biāo)準(zhǔn)等國家戰(zhàn)略的緯度,數(shù)據(jù)質(zhì)量、算法優(yōu)化和算力設(shè)施等產(chǎn)業(yè)孵化的緯度,法律目的、原則、規(guī)則等立法規(guī)范的緯度。
關(guān)鍵詞:生成式人工智能;法治新模式;“三經(jīng)九緯”
中圖分類號(hào):DF03" 文獻(xiàn)標(biāo)志碼:A
DOI:10.3969/j.issn.1008-4355.2024.03.10" 開放科學(xué)(資源服務(wù))標(biāo)識(shí)碼(OSID):
文章編號(hào):1008-4355(2024)03-0140-19
收稿日期:2023-08-06
基金項(xiàng)目:
國家社科基金一般項(xiàng)目“個(gè)人信息權(quán)利行使的平衡機(jī)制研究”(19BFX127)
作者簡介:
許娟(1972—),女,湖北仙桃人,南京信息工程大學(xué)大數(shù)據(jù)法治研究院院長、法學(xué)與公共管理學(xué)院教授,博士生導(dǎo)師,法學(xué)博士。
①
參見劉方喜:《能量·信息·動(dòng)因:人工智能生產(chǎn)工藝學(xué)批判》,載《閱江學(xué)刊》2021年第2期,第6頁。
②
參見李佳師:《大模型落地“三重門”》,載電子信息產(chǎn)業(yè)網(wǎng),https://www.cena.com.cn/ic/20230627/120576.html,2024年5月1日訪問。
在生成式人工智能的新紀(jì)元中,智能的演變呈現(xiàn)出兩種顯著趨勢。一方面,由機(jī)器自行產(chǎn)生的智能逐漸替代人的智力,成為新的動(dòng)力源泉,甚至可以稱作智能器官的替代品①;另一方面,機(jī)器正被巧妙地嵌入、植入、分拆、打散和重構(gòu)到我們的日常生活與工作流程之中②,以實(shí)現(xiàn)流程的再造與優(yōu)化。這兩種趨勢的功能性創(chuàng)造不僅擴(kuò)展了原有的人與人之間的雙邊關(guān)系,還通過引入人與機(jī)器人之間的新方式,共同構(gòu)建人與人、人與機(jī)器人、借助機(jī)器人的人與人之間交互的復(fù)雜生態(tài)系統(tǒng)。這一變革重塑了我們的生產(chǎn)方式和生活方式。
為了有效應(yīng)對生成式人工智能帶來的與人類語境融合參見王天恩:《信息及其基本特性的當(dāng)代開顯》,載《中國社會(huì)科學(xué)》2022年第2期,第90-113頁。的挑戰(zhàn),我們應(yīng)引入“三經(jīng)九緯”法治新模式中的“厚”思維結(jié)構(gòu)和概念體系。這一舉措旨在提升現(xiàn)有“薄”規(guī)制概念劉藝:《論我國法治政府評估指標(biāo)體系的建構(gòu)》,載《現(xiàn)代法學(xué)》2016年第4期,第15頁。在生成式人工智能領(lǐng)域的相關(guān)性緯度,從而更全面地解決其伴隨的風(fēng)險(xiǎn)與困境?!叭?jīng)”是指以國家戰(zhàn)略、產(chǎn)業(yè)孵化、立法規(guī)范三個(gè)方面為經(jīng)
,“九緯”是指在“三經(jīng)”的基礎(chǔ)上,進(jìn)一步衍生出國家戰(zhàn)略層面的技術(shù)基礎(chǔ)、應(yīng)用和標(biāo)準(zhǔn)的宏觀事實(shí)緯度,產(chǎn)業(yè)孵化層面的數(shù)據(jù)質(zhì)量、算法優(yōu)化和算力設(shè)施的微觀事實(shí)緯度,以及立法規(guī)范層面的法律目的、原則、規(guī)則等多緯度結(jié)構(gòu)體系。
一、解決既有規(guī)制困境需要引入“三經(jīng)九緯”法治新模式
(一)既有生成式人工智能規(guī)制面臨的問題和挑戰(zhàn)
1.技術(shù)基礎(chǔ)緯度的功能分派與規(guī)制不足
當(dāng)前,法學(xué)理論界對生成式人工智能人機(jī)互動(dòng)模式
的技術(shù)基礎(chǔ)的認(rèn)知尚有不足,一般的規(guī)制也難以觸碰到生成式人工智能的技術(shù)內(nèi)核。因此,改變這種規(guī)制狀況的首要問題在于厘清生成式人工智能的技術(shù)基礎(chǔ)?;谏墒饺斯ぶ悄艽竽P?,技術(shù)基礎(chǔ)可分為“以提示詞為核心的技術(shù)基礎(chǔ)”和“以私人定制化聊天為核心的技術(shù)基礎(chǔ)”兩類。
以提示詞為核心的對話語義技術(shù)是生成式人工智能服務(wù)的關(guān)鍵,且貫穿于“請求—回應(yīng)”的人機(jī)交互過程。參見韓旭至:《生成式人工智能治理的邏輯更新與路徑優(yōu)化——以人機(jī)關(guān)系為視角》,載《行政法學(xué)研究》2023年第6期,第37頁。盡管通用大模型能有效提供文本生成服務(wù),但囿于提示詞的指示作用,用戶在很多情況下必須依賴官方網(wǎng)站或優(yōu)化提問指令以精準(zhǔn)描述提示詞來獲取有效內(nèi)容。例如,在法律領(lǐng)域,高質(zhì)量法律數(shù)據(jù)的缺乏使得構(gòu)建多模態(tài)中文數(shù)據(jù)集變得困難,對法律類的提示詞的整合能力不足也限制了大模型的應(yīng)用。因此,需要對生成服務(wù)進(jìn)行法律類提示詞的微調(diào),并增強(qiáng)對生成內(nèi)容中法律知識(shí)的驗(yàn)證功能,借助用戶反饋構(gòu)建強(qiáng)化學(xué)習(xí)機(jī)制,以減少知識(shí)幻覺并提升大模型在法律場景中的應(yīng)用能力。參見王祿生:《ChatGPT類技術(shù):法律人工智能的改進(jìn)者還是顛覆者?》,載《政法論壇》2023年第4期,第59頁。人類決策與生成在更多時(shí)候會(huì)運(yùn)用到符號(hào)化、抽象化、理論化的知識(shí)進(jìn)行推理,而大模型則尚無法準(zhǔn)確理解語言背后的真正含義。參見王祿生:《從進(jìn)化到革命:ChatGPT類技術(shù)影響下的法律行業(yè)》,載《東方法學(xué)》2023年第4期,第65頁。通過對用戶原始自然語言進(jìn)行對比預(yù)測編碼,能夠使大模型在一定程度上學(xué)習(xí)到對人類行為的理解。See Junhui Yi,et al., Multiview Predictive Coding with Contrastive Learning for Person Re Identification, Pattern Recognition, Vol.129,2022,p. 1678.然而,現(xiàn)有的規(guī)制理論在區(qū)分提示詞語言與法律語言差異方面存在不足,導(dǎo)致生成的法律評判的內(nèi)容有所欠缺。例如,不區(qū)分一般惡意交互和嚴(yán)重欺詐交互,或?qū)⒁话汨Υ门c惡意欺詐一并規(guī)制,不符合法律規(guī)制的精細(xì)化要求。為提升生成式人工智能在法律等垂直應(yīng)用領(lǐng)域的服務(wù)效果,需要解決數(shù)據(jù)供給、提示詞整合、知識(shí)驗(yàn)證等問題,并改進(jìn)現(xiàn)有的規(guī)制理論,以更好地適應(yīng)大模型技術(shù)的發(fā)展和應(yīng)用領(lǐng)域的需求。
以“私人定制化聊天”為核心的技術(shù)基礎(chǔ),存在于“模型即服務(wù)”張欣:《生成式人工智能的算法治理挑戰(zhàn)與治理型監(jiān)管》,載《現(xiàn)代法學(xué)》2023年第3期,第120頁。的優(yōu)化人機(jī)模式交互模式之中。該類大模型類似Transformer-XL模型,在長文本理解和信息提取任務(wù)上表現(xiàn)出色。See Zihang Dai,et al. ,Tranformer-XL: Attentive Language Models beyond a Fived-Length Conext,In Prceedings of the 57th Annual Meeting of the Association for Computational Inguistics, A ssociation for Computational Linguisties, 2978-2998( 2019).OpenAI的官方博客中描述了大模型在信息檢索和摘要方面的潛力。其本質(zhì)是一款語言優(yōu)化大師,而不是預(yù)設(shè)正確答案或給出正解的機(jī)器人。除了文本理解功能以外,大模型還具備一定的語言理解和語法糾錯(cuò)能力,可以提供文檔校對和編輯的輔助功能。See Brown T B, Language Models are Few-Shot Learners,Neural Information Processing Systems, Article 159, 2020,p.1894.在文檔校對和編輯能力方面,大模型建立在某個(gè)時(shí)間節(jié)點(diǎn)之前的知識(shí)庫而不是實(shí)時(shí)的大數(shù)據(jù)之上,所用的推理模式是缺省推理,其結(jié)論并不具有保真性。參見熊明輝:《多維考察ChatGPT》,載《中國社會(huì)科學(xué)報(bào)》2023年3月6日,第5版。大模型面對一些無法回答的時(shí)候會(huì)表示:“很抱歉,我無法直接提供……”,以表達(dá)其審慎對話的態(tài)度。在缺乏細(xì)節(jié)的對話語義下,其私人定制化聊天只能作為用戶參考,而不能作為用戶采納的憑據(jù),所以其規(guī)制對象應(yīng)當(dāng)從服務(wù)平臺(tái)轉(zhuǎn)移到用戶。然而現(xiàn)有的規(guī)制卻沒有區(qū)分服務(wù)平臺(tái)和服務(wù)對象,造成生成式人工智能規(guī)制的目的緯度不足的困境。概言之,既有以個(gè)性化服務(wù)為核心的技術(shù)基礎(chǔ)的規(guī)制論要么過度依賴于期待大模型功能發(fā)展的未來治理,要么缺乏解決現(xiàn)有技術(shù)缺陷和應(yīng)用瑕疵的高風(fēng)險(xiǎn)治理功能。
2.技術(shù)應(yīng)用緯度的規(guī)制不穩(wěn)定、多點(diǎn)規(guī)制和數(shù)據(jù)監(jiān)管分類不明等困境
生成式人工智能面臨技術(shù)應(yīng)用風(fēng)險(xiǎn)的困境,包括以下三點(diǎn):其一,數(shù)據(jù)要素供給緯度的規(guī)制不穩(wěn)定。數(shù)據(jù)收集和使用對于ChatGPT這種大模型的訓(xùn)練和學(xué)習(xí)非常重要。然而,由于涉及個(gè)人隱私權(quán)、數(shù)據(jù)泄露和濫用等問題,各國政府對ChatGPT規(guī)制此起彼伏。2023年,
ChatGPT被意大利政府叫停使用,經(jīng)過技術(shù)風(fēng)險(xiǎn)評估并解決相關(guān)問題后,才恢復(fù)使用。See X." M、M." C、H." HE、L." Ch:《AIGC研發(fā)及應(yīng)用數(shù)據(jù)隱私合規(guī)義務(wù)識(shí)別———以意大利監(jiān)管ChatGPT為切入點(diǎn)》,載微信公眾號(hào)“合規(guī)小叨客”,https:∥mp.weixin.qq.com/s/fkbYqMyLcZPwYJCWmg-LqQ,2024年5月17日訪問。因此,ChatGPT等大模型在數(shù)據(jù)收集和使用方面面臨不穩(wěn)定的規(guī)制環(huán)境,需要各國政府加以改變;其二,數(shù)據(jù)安全和保護(hù)緯度的規(guī)制多點(diǎn)化。ChatGPT模型存儲(chǔ)和處理的海量數(shù)據(jù)需要安裝插件介入,大量外接的插件帶來非法侵入、數(shù)據(jù)泄露、第三方控制等安全問題,存在多點(diǎn)規(guī)制難題。ChatGPT面臨的數(shù)據(jù)安全和保護(hù)問題復(fù)雜多變,需在多方監(jiān)管下確保插件安全性以防范非法侵入和數(shù)據(jù)泄露;其三,數(shù)據(jù)治理和監(jiān)管分類不明。當(dāng)前法律框架缺乏科學(xué)的分類監(jiān)管設(shè)置,沒有為ChatGPT的快速迭代留出足夠的應(yīng)對空間,導(dǎo)致對數(shù)據(jù)權(quán)利保護(hù)的不合理、不平衡和不充分,需要增加個(gè)人隱私權(quán)、企業(yè)數(shù)據(jù)權(quán)和公共數(shù)據(jù)利益的對話緯度。在目前的法律框架下,ChatGPT的數(shù)據(jù)治理和監(jiān)管分類不明確,需要科學(xué)設(shè)置分類監(jiān)管并為快速迭代留出應(yīng)對空間,以平衡數(shù)據(jù)權(quán)利。
3.技術(shù)標(biāo)準(zhǔn)緯度的算法問責(zé)困境
時(shí)下,各種各樣的生成式人工智能(AIGC或GPT或BOT)大模型不斷涌現(xiàn),這些新興的算法技術(shù)也帶來了新的隱私和安全風(fēng)險(xiǎn)參見劉艷紅:《人工智能法學(xué)研究的反智化批判》,載《東方法學(xué)》2019年第5期,第121頁。,且現(xiàn)有技術(shù)標(biāo)準(zhǔn)及其風(fēng)險(xiǎn)評級(jí)尚不清晰,相關(guān)的法律法規(guī)和政策需要相應(yīng)地更新和完善。
第一,對生成不當(dāng)內(nèi)容和偏見問題的規(guī)制之困。當(dāng)前,ChatGPT在面對錯(cuò)誤、問責(zé)和法律責(zé)任等問題時(shí),暴露出規(guī)制的不足。參見《浙江首例,用ChatGPT制作虛假視頻,她被警方抓捕》,載成都商報(bào)紅星新聞官方賬號(hào),https://baijiahao.baidu.com/s?id=1770897020064902012amp;wfr=spideramp;for=pc,2024年3月8日訪問。由于可能對法律語境理解不充分,ChatGPT生成的內(nèi)容或許不精確或具有誤導(dǎo)性,同時(shí),其對法律概念的理解不足還可能引發(fā)對法律意見或判斷的錯(cuò)誤解讀,這增加了在法律領(lǐng)域生成不當(dāng)內(nèi)容和偏見的風(fēng)險(xiǎn),以及規(guī)制此類問題的難度。由于訓(xùn)練數(shù)據(jù)中的偏見和歧視性內(nèi)容可能被ChatGPT反映在其回答中,不充分的數(shù)據(jù)控制易導(dǎo)致具有偏見的生成結(jié)果,這在法律領(lǐng)域可能造成不公正后果,并加劇制度性不平等,從而展現(xiàn)出對生成不當(dāng)內(nèi)容和偏見問題的規(guī)制難題。例如,在機(jī)器的反透明性問題上,批評者指出算法的不透明性可能讓生成式人工智能產(chǎn)出包含不當(dāng)內(nèi)容與偏見的結(jié)果參見支振鋒:《生成式人工智能大模型的信息內(nèi)容治理》,載《政法論壇》2023年第4期,第34頁。,這往往與訓(xùn)練數(shù)據(jù)中的偏見有關(guān),也與缺乏對AI輸出的主動(dòng)監(jiān)督機(jī)制有關(guān)。這種狀況揭示了當(dāng)前對于AI引發(fā)的內(nèi)容和偏見問題在規(guī)制上存在的困境,具體表現(xiàn)為:在現(xiàn)有法律和監(jiān)管框架下,由AI造成的一般負(fù)面影響難以與經(jīng)濟(jì)損失、人身傷害等嚴(yán)重負(fù)面影響進(jìn)行區(qū)分,這突顯了在法律和監(jiān)管層面上對生成不當(dāng)內(nèi)容和偏見問題的規(guī)制之困。
第二,對隱私問題的一體化規(guī)制之難。在技術(shù)風(fēng)險(xiǎn)之外,生成式人工智能大模型對海量數(shù)據(jù)的依賴進(jìn)一步暴露了個(gè)人隱私保護(hù)的薄弱環(huán)節(jié),盡管差分隱私等強(qiáng)有力的隱私保護(hù)技術(shù)已投入使用,但這些措施仍無法徹底解決與算法透明度和數(shù)據(jù)泄露相關(guān)的所有問題。這展現(xiàn)了制定全面一體化隱私規(guī)制的困境。鑒于生成式人工智能的應(yīng)用場景廣泛且復(fù)雜,包括人臉合成、語音合成、虛擬現(xiàn)實(shí)等,采取不加分析的粗放式一體化規(guī)制難以解決復(fù)雜應(yīng)用場景帶來的問題。2023年5月,美國國會(huì)研究處發(fā)布的《生成式人工智能和數(shù)據(jù)隱私:初探》報(bào)告,通過系統(tǒng)性分析生成式人工智能使用數(shù)據(jù)的方式及其可能引發(fā)的隱私風(fēng)險(xiǎn),揭示了對隱私問題實(shí)施一體化規(guī)制的復(fù)雜性。參見王金鈞:《域外觀察/美國國會(huì)研究處發(fā)布〈生成式人工智能和數(shù)據(jù)隱私:初探〉報(bào)告》,載微信公眾號(hào)“CAICT互聯(lián)網(wǎng)法律研究中心”,https:∥mp.weixin.qq.com/s/O_Eoy073uA9wir0FLoV34A,2024年5月3日訪問。該報(bào)告為制定更為精細(xì)化和精準(zhǔn)化的隱私保護(hù)措施提供了重要參考,同時(shí)也揭示了在數(shù)據(jù)隱私保護(hù)方面需要面對不同技術(shù)應(yīng)用和數(shù)據(jù)類型所帶來的多樣化挑戰(zhàn)。
(二)既有規(guī)制路線需要引入“三經(jīng)九緯”法治新模式
為了積極推動(dòng)生成式人工智能的發(fā)展,國家互聯(lián)網(wǎng)信息辦公室(以下簡稱“網(wǎng)信辦”)于2023年4月發(fā)布了《生成式人工智能服務(wù)管理辦法(征求意見稿)》,其中的多個(gè)條款引發(fā)了社會(huì)熱議?;貞?yīng)這些爭議后,網(wǎng)信辦等七部門于7月10日聯(lián)合發(fā)布了《生成式人工智能服務(wù)管理暫行辦法》(以下簡稱《管理辦法》)作為管理措施?!豆芾磙k法》在立法依據(jù)上新增了《科學(xué)技術(shù)進(jìn)步法》,突出了對科技進(jìn)步的支持;明確了國家堅(jiān)持發(fā)展和安全并重、促進(jìn)創(chuàng)新和依法治理相結(jié)合的原則;在生成式人工智能服務(wù)方面實(shí)行包容審慎和分類分級(jí)監(jiān)管,既體現(xiàn)了對技術(shù)發(fā)展的支持,也注重了安全和依法治理。此外,《管理辦法》還對數(shù)據(jù)訓(xùn)練方面作出規(guī)定,放寬了對研發(fā)企業(yè)的要求,減輕了其在數(shù)據(jù)來源合法性和知識(shí)產(chǎn)權(quán)保護(hù)方面的責(zé)任,鼓勵(lì)更多的企業(yè)積極參與生成式人工智能的研發(fā)和創(chuàng)新。
我國在世界上首次以立法形式界定生成式人工智能概念,
按照《管理辦法》界定,生成式人工智能是以算法、模型、規(guī)則生成文本、圖片、聲音、視頻、代碼等為技術(shù)基礎(chǔ)生成的模型。盡管相關(guān)規(guī)定為生成式人工智能的發(fā)展提供了政策支持,但存在立法體系化程度方面的不足。
1.可融合數(shù)據(jù)算法緯度的立法路線圖不清晰
現(xiàn)有生成式人工智能的研究主要以“數(shù)據(jù)緯度治理”和“算法緯度治理”研究見長?!皵?shù)據(jù)緯度治理”始終關(guān)注數(shù)據(jù)保護(hù)與隱私問題,集中討論生成式人工智能的內(nèi)容治理,并運(yùn)用風(fēng)險(xiǎn)預(yù)防原則,控制人工智能生成的話語空間,以數(shù)據(jù)主權(quán)強(qiáng)化生成式人工智能治理權(quán)。參見鈄曉東:《風(fēng)險(xiǎn)與控制:論生成式人工智能應(yīng)用的個(gè)人信息保護(hù)》,載《政法論叢》2023年第4期,第61頁;鈄曉東:《論生成式人工智能的數(shù)據(jù)安全風(fēng)險(xiǎn)及回應(yīng)型治理》,載《東方法學(xué)》2023年第5期,第107頁。歐盟通過對個(gè)人數(shù)據(jù)權(quán)利的嚴(yán)格保護(hù),形成了對人工智能的源頭規(guī)制模式參見汪慶華:《人工智能的法律規(guī)制路徑:一個(gè)框架性討論》,載《現(xiàn)代法學(xué)》2019年第2期,第198頁。,并在人工智能立法中把算法作為數(shù)據(jù)的一個(gè)內(nèi)容緯度展開?!八惴ň暥戎卫怼闭撜吆粲?,立法者應(yīng)當(dāng)要求開發(fā)者公開算法的運(yùn)行機(jī)制和基本原理,確保算法的決策過程具有可解釋性,避免算法偏見和歧視。參見張凌寒:《生成式人工智能的法律定位與分層治理》,載《現(xiàn)代法學(xué)》2023年第4期,第127頁。美國通過司法判例對算法的法律性質(zhì)進(jìn)行分析,在搜索引擎算法的案例中,算法被視為言論,而在刑事輔助審判系統(tǒng)中的算法則被認(rèn)定為商業(yè)秘密。參見汪慶華:《人工智能的法律規(guī)制路徑:一個(gè)框架性討論》,載《現(xiàn)代法學(xué)》2019年第2期,第199頁。我國通過分散式的立法對算法在電子商務(wù)、新聞內(nèi)容推薦及智能投資顧問等領(lǐng)域的技術(shù)應(yīng)用分別進(jìn)行了回應(yīng)參見汪慶華:《人工智能的法律規(guī)制路徑:一個(gè)框架性討論》,載《現(xiàn)代法學(xué)》2019年第2期,第201頁。,并通過數(shù)據(jù)算法融合立法中的責(zé)任與審核機(jī)制構(gòu)建,明確算法使用者對算法在具體場景中應(yīng)用產(chǎn)生的后果負(fù)責(zé)。然而,我國生成式人工智能治理需要擺脫將人工智能治理等同于數(shù)據(jù)治理的困境,一方面結(jié)合人工智能數(shù)據(jù)法的適應(yīng)性,另一方面融合數(shù)據(jù)的算法緯度。應(yīng)明確要求算法開發(fā)者遵守公正、平等和合法原則,并對算法的合法合規(guī)性承擔(dān)責(zé)任,同時(shí)需建立審核機(jī)構(gòu)來評估算法是否符合相關(guān)原則,并承擔(dān)算法審核不通過的責(zé)任。參見劉輝:《雙向驅(qū)動(dòng)型算法解釋工具:以默示算法共謀為場景的探索》,載《現(xiàn)代法學(xué)》2022年第6期,第68頁。正如有學(xué)者指出:隨著算法技術(shù)的法律規(guī)制不斷升級(jí),需要不斷增進(jìn)數(shù)據(jù)立法的持續(xù)性參見劉澤剛:《論算法認(rèn)知偏差對人工智能法律規(guī)制的負(fù)面影響及其矯正》,載《政治與法律》2022年第11期,第55頁。,促進(jìn)數(shù)據(jù)算法的統(tǒng)合治理,以描繪清晰的算法緯度立法路線圖。
2.可信緯度的風(fēng)險(xiǎn)可評估制度鏈缺失
可信既是生成式人工智能的倫理要求,也是技術(shù)要求。從理論上看,可信倫理通過技術(shù)標(biāo)準(zhǔn)實(shí)現(xiàn)對風(fēng)險(xiǎn)的可評估,可評估是可信(正題)與風(fēng)險(xiǎn)(反題)的節(jié)點(diǎn)問題,可評估是風(fēng)險(xiǎn)的可信標(biāo)準(zhǔn),即風(fēng)險(xiǎn)的可評估是生成式人工智能的可信緯度。從實(shí)踐論上看,數(shù)據(jù)信息風(fēng)險(xiǎn)可評估立法是生成式人工智能規(guī)制的藍(lán)本。從技術(shù)上看,當(dāng)下數(shù)據(jù)分級(jí)分類確權(quán)授權(quán)制度是風(fēng)險(xiǎn)評估的趨勢。在立法上,《個(gè)人信息保護(hù)法》第55條、第56條確立了隱私風(fēng)險(xiǎn)評估制度;《數(shù)據(jù)安全法》第30條確立了重要數(shù)據(jù)定期風(fēng)險(xiǎn)評估制度和預(yù)報(bào)送風(fēng)險(xiǎn)評估報(bào)告制度?!稊?shù)據(jù)出境安全評估辦法》和《數(shù)據(jù)出境安全評估申報(bào)指南(第一版)》確立了向境外傳輸AIGC數(shù)據(jù)的出境安全評估制度。然而現(xiàn)有的生成式人工智能立法規(guī)制模式尚不能覆蓋不同級(jí)別的風(fēng)險(xiǎn)評估,風(fēng)險(xiǎn)分級(jí)分類的解釋性不足導(dǎo)致評估標(biāo)準(zhǔn)不清晰。
同時(shí)《管理辦法》中沒有規(guī)定生成式人工智能服務(wù)產(chǎn)品風(fēng)險(xiǎn)原則、規(guī)則和技術(shù)要求,以及標(biāo)準(zhǔn)—認(rèn)證—認(rèn)可風(fēng)險(xiǎn)分級(jí)分類評估制度。以上表明生成式人工智能的規(guī)制缺乏可信緯度的風(fēng)險(xiǎn)可評估制度鏈。
3.可轉(zhuǎn)化為立法規(guī)范的技術(shù)標(biāo)準(zhǔn)的缺失
我國生成式人工智能快速發(fā)展的同時(shí),相應(yīng)的法律環(huán)境和法治水平卻面臨著技術(shù)標(biāo)準(zhǔn)缺失的困境,需要在技術(shù)增強(qiáng)型法治理念的統(tǒng)領(lǐng)下,將技術(shù)標(biāo)準(zhǔn)轉(zhuǎn)化為立法規(guī)范。從全球角度看,在借鑒俄羅斯人工智能舉國發(fā)展戰(zhàn)略和歐盟《人工智能法案》基礎(chǔ)上,圍繞人工智能技術(shù)邏輯與標(biāo)準(zhǔn)制定具有權(quán)威性、可執(zhí)行性和適應(yīng)性的法律框架是解決標(biāo)準(zhǔn)缺失問題的可行路徑。然而現(xiàn)有的研究缺乏足夠的創(chuàng)新實(shí)踐的理論概括能力,亟待在既有理論基礎(chǔ)上凝練出可轉(zhuǎn)化為立法規(guī)范的技術(shù)標(biāo)準(zhǔn),以構(gòu)成生成式人工智能法治新模式的規(guī)則緯度。
(三)多緯度的事實(shí)需要引入“三經(jīng)九緯”法治新模式
ChatGPT已經(jīng)廣泛應(yīng)用于法律領(lǐng)域,包括法律研究、文件分析和虛擬法律助手等方面,它能夠生成類人的回應(yīng)并提供法律洞見。然而,人們對于使用ChatGPT的可靠性、準(zhǔn)確性和倫理影響存在極大的理論分歧。
1.既有商談模式需要在“三經(jīng)九緯”之間對話商談
ChatGPT存在知識(shí)幻覺等問題,導(dǎo)致其服務(wù)行為的法律評價(jià)面臨著非法性不明帶來的不確定性參見許娟:《數(shù)字法學(xué)的二進(jìn)制遞歸符碼》,載《中國社會(huì)科學(xué)報(bào)》2019年10月9日,第5版。,同時(shí),在價(jià)值層面,ChatGPT面臨著“技術(shù)引發(fā)倫理困境論”“人類危機(jī)風(fēng)險(xiǎn)治理論”“生成式人工智能引發(fā)的民主危機(jī)論”等價(jià)值危機(jī)。高位的價(jià)值拷問與現(xiàn)實(shí)的低端應(yīng)用之間存在落差,生成式人工智能和法律規(guī)范的連接媒介需要借鑒哈貝馬斯的事實(shí)與規(guī)范之間的商談模式參見[德]哈貝馬斯:《在事實(shí)與規(guī)范之間:關(guān)于法律和民主法治國的商談理論》,童世駿譯,生活·讀書·新知三聯(lián)書店2014年版,第128-144頁。,模擬對話商談的“三經(jīng)九緯”這一“厚”的治理結(jié)構(gòu)是解決這一落差的破解之道。同時(shí),在將模擬商談對話的技術(shù)程序應(yīng)用于法律領(lǐng)域時(shí),將生成式人工智能轉(zhuǎn)化為法律事實(shí),并將法律事實(shí)轉(zhuǎn)化為法律規(guī)范,從而推動(dòng)生成式人工智能立法建設(shè),進(jìn)而以規(guī)則之治帶動(dòng)法治新模式。
2.既有“主體間性”理論需要在“三經(jīng)九緯”之間統(tǒng)分結(jié)合
從生成式人工智能技術(shù)端和產(chǎn)業(yè)端出發(fā),只有在人—機(jī)—人之間不斷交往對話,才能擠掉AI的泡沫,促進(jìn)用戶—企業(yè)(機(jī)器開發(fā)方)—政府之間的深度對話。這一觀點(diǎn)得到了
斯坦內(nèi)娃等學(xué)者的支持,他們認(rèn)為需要考慮用戶對高質(zhì)量數(shù)據(jù)的關(guān)注和需求,提高人—機(jī)對話能力,并指出,由于人工智能和機(jī)器人技術(shù)的快速發(fā)展,以人工智能主體理論結(jié)合社會(huì)回應(yīng)型的法學(xué)方法,不僅應(yīng)當(dāng)在法規(guī)和標(biāo)準(zhǔn)制定過程中發(fā)揮作用,也要在機(jī)器監(jiān)督和機(jī)器反饋中回應(yīng)法治可及性。See Mila Staneva amp; Stuart Elliott,Measuring the Impact of Artificial Intelligence and Robotics on the Workplace,in Alexandra Shajekamp;Ernst Andreas Hartmann eds. ,New Digital Work, Institute for Innovation and Technology,Vol.4,16-30(2023).另外,在企業(yè)自治方面,普遍缺乏大模型服務(wù)平臺(tái)的容錯(cuò)機(jī)制和激勵(lì)機(jī)制。政府應(yīng)當(dāng)激勵(lì)大模型服務(wù)平臺(tái)企業(yè)自主完善數(shù)據(jù)管理和保護(hù)措施,在制定和實(shí)施相關(guān)法規(guī)和標(biāo)準(zhǔn)時(shí),要考慮到大模型服務(wù)平臺(tái)企業(yè)的利益。
古德曼和弗拉克斯曼等學(xué)者提出,深度學(xué)習(xí)中的算法決策法規(guī)可以促進(jìn)技術(shù)創(chuàng)新和發(fā)展。經(jīng)深度學(xué)習(xí)后的數(shù)據(jù)開放共享,其大規(guī)模利用率更高。See Goodman Brvce amp; Flaxman Seth, European Union Regulalions on Algorihmice Decision-Making and a “Right to Explanation”, Al Magazine, Vol. 38,53-54(2017).這一觀點(diǎn)得到了曹靜宇等學(xué)者
的支持,他們認(rèn)為復(fù)雜智能體領(lǐng)域中的深度學(xué)習(xí)需要采用共享方法。See Jingyu Cao et al. ,Hierarchical Multi-Agent Reinforcement Learning for Cooperative Tasks with Sparse Rewards in Continuous Domain,Neural Computing and Applications, Vol. 36, 2024,p.283.在用戶—企業(yè)—政府既有的三方主體間基礎(chǔ)上,大模型服務(wù)平臺(tái)在人—機(jī)—人之間進(jìn)行統(tǒng)和分兩種方式展開服務(wù),包括在人—機(jī)之間進(jìn)行技術(shù)轉(zhuǎn)化,在人—法之間開展試驗(yàn)改進(jìn),以技術(shù)的可用和可及來充分回應(yīng)社會(huì)需求,并且在智能社會(huì)實(shí)驗(yàn)中探索大模型應(yīng)用的新場景。
二、“三經(jīng)九緯”法治新模式的基本展開
人與機(jī)器人的行為在法治空間中各有界定,遵循事實(shí)與規(guī)范原則,分為國家戰(zhàn)略宏觀事實(shí)、產(chǎn)業(yè)孵化微觀事實(shí)和立法規(guī)范等三個(gè)層面。宏觀層面聚焦國家戰(zhàn)略,構(gòu)建立法目的;微觀事實(shí)關(guān)注
產(chǎn)業(yè)孵化中的智能社會(huì)實(shí)驗(yàn),創(chuàng)新立法原則;立法規(guī)范層面提煉規(guī)則,在立法目的和立法原則的基礎(chǔ)之上創(chuàng)制規(guī)則,形成“國家戰(zhàn)略—產(chǎn)業(yè)孵化—立法規(guī)范”的法治道路。此道路衍生出“三經(jīng)九緯”模式,涵蓋人工智能基礎(chǔ)、應(yīng)用、風(fēng)險(xiǎn)評估等方面,結(jié)合數(shù)據(jù)、算法、算力等核心要素,形成目的、原則和規(guī)則的法律體系。生成式人工智能的“三經(jīng)九緯”法治新模式,旨在通過促進(jìn)、回應(yīng)和包容型路徑,整合三個(gè)層面內(nèi)容,確保技術(shù)創(chuàng)新與法治規(guī)范相協(xié)調(diào),包括在技術(shù)基礎(chǔ)層,洞察生成式人工智能趨勢,考慮社會(huì)影響;在技術(shù)產(chǎn)業(yè)層,緊跟技術(shù)產(chǎn)業(yè)發(fā)展,預(yù)見法律規(guī)范要求;在服務(wù)應(yīng)用層,關(guān)注服務(wù)提供者運(yùn)營實(shí)況,滿足公眾服務(wù)需求。
(一)引入“三經(jīng)九緯”法治新模式之宏觀事實(shí)第一經(jīng)中的三個(gè)緯度:基礎(chǔ)、應(yīng)用和標(biāo)準(zhǔn)的重要性
在國家宏觀背景下,2023年全國網(wǎng)絡(luò)安全和信息化工作會(huì)議強(qiáng)調(diào)發(fā)展應(yīng)用人工智能技術(shù)?!叭斯ぶ悄?生成式”的疊加結(jié)構(gòu)增強(qiáng)了認(rèn)知,但卻加劇了風(fēng)險(xiǎn)。為應(yīng)對新一代人工智能的技術(shù)風(fēng)險(xiǎn),需將技術(shù)標(biāo)準(zhǔn)轉(zhuǎn)化為倫理標(biāo)準(zhǔn),持續(xù)試驗(yàn)改進(jìn),平衡技術(shù)進(jìn)步與風(fēng)險(xiǎn)管理,確保生成式人工智能在法治的軌道上穩(wěn)健前行。
1.第一緯:技術(shù)基礎(chǔ)緯度
生成式人工智能的自然語言處理等關(guān)鍵技術(shù)持續(xù)突破的同時(shí),仍面臨以下技術(shù)基礎(chǔ)瓶頸。首先,自然語言技術(shù)的同質(zhì)化與創(chuàng)意生成之間存在矛盾。當(dāng)前大多數(shù)訓(xùn)練數(shù)據(jù)側(cè)重于非專業(yè)領(lǐng)域,導(dǎo)致輸出文本的性能受限,難以滿足用戶的多樣化需求,大模型的基礎(chǔ)和應(yīng)用前景面臨挑戰(zhàn)。其次,圖片識(shí)別工具在提高生成式人工智能模型透明度的同時(shí),也帶來了真?zhèn)坞y以識(shí)別的風(fēng)險(xiǎn),這對模型的可靠性和安全性提出了更高要求。此外,人機(jī)交互技術(shù)的瓶頸同樣亟待突破。雖然國外微軟新必應(yīng)和國內(nèi)百度等企業(yè)的大模型開放為用戶提供了更好的體驗(yàn),但個(gè)性化生成和交互能力尚未觸及行業(yè)標(biāo)準(zhǔn)的上限,資本和技術(shù)雙輪驅(qū)動(dòng)能力受到限制。在創(chuàng)意生成方面,雖然OpenAI等領(lǐng)軍企業(yè)已有重要技術(shù)突破,如GPT-3語言模型,但用戶體驗(yàn)與宣傳之間存在差距,需要進(jìn)一步優(yōu)化和推廣。最后,自主學(xué)習(xí)作為提升生成式人工智能模型適應(yīng)性、可解釋性和決策能力See Finn C,Abbeel P amp; Levine S,Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks,Proceedings of the 34th International Conference on Machine Learning, PMLR70,1131-1132(2017).的關(guān)鍵技術(shù),目前其以預(yù)訓(xùn)練模型為主導(dǎo)的適應(yīng)性交互和創(chuàng)意生成功能仍有限。因此,我們需要深入挖掘技術(shù)基礎(chǔ)緯度,把握生成式人工智能內(nèi)容生成的本質(zhì),以實(shí)現(xiàn)技術(shù)的突破和創(chuàng)新。
2.第二緯:技術(shù)應(yīng)用緯度
生成式人工智能的技術(shù)應(yīng)用緯度體現(xiàn)在其服務(wù)的多樣化與專業(yè)化上。現(xiàn)階段,生成式人工智能技術(shù)應(yīng)用服務(wù)分為普通平臺(tái)服務(wù)和政府特殊采購服務(wù)。普通平臺(tái)服務(wù),如阿里巴巴的“法鏈”和螞蟻金服的“智能草案”,雖提供泛在的智能交互,但技術(shù)應(yīng)用緯度受限于市場與技術(shù)轉(zhuǎn)化能力,以及用戶認(rèn)知和應(yīng)用能力的差異。這些服務(wù)在人機(jī)互動(dòng)智能化程度和生成能力方面仍有提升空間。政府特殊采購服務(wù),則聚焦于專業(yè)定制化的機(jī)器人服務(wù),如IBM的“Watson”和中國科學(xué)院的“小藍(lán)”機(jī)器人,展現(xiàn)了更為精準(zhǔn)和深入的技術(shù)應(yīng)用。在刑事審理參見張晗、鄭偉昊、竇志成等:《融合法律文本結(jié)構(gòu)信息的刑事案件判決預(yù)測》,載《計(jì)算機(jī)工程與應(yīng)用》2023年第3期,第255頁。、犯罪預(yù)測參見朱文慧、陳高鏈、王燕:《服刑人員情緒調(diào)節(jié)與行為制止系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)》,載《計(jì)算機(jī)科學(xué)與應(yīng)用》2022年第3期,第576頁。、物證分析參見劉志軍:《可信電子數(shù)據(jù)取證及規(guī)則運(yùn)用研究》,武漢大學(xué)出版社2020年版,第14頁。、證據(jù)識(shí)別參見黃玲、劉邦凡:《基于圖像分析的車禍現(xiàn)場識(shí)別技術(shù)研究》,載《現(xiàn)代電子技術(shù)》2017年第12期,第117-118頁。等法律領(lǐng)域,這些服務(wù)能夠提供智能問答、案例分析和決策支持,展示了技術(shù)應(yīng)用緯度的專業(yè)性和廣度。政府采購服務(wù)的技術(shù)應(yīng)用通過“探索實(shí)驗(yàn)”的方式,開展智能社會(huì)實(shí)驗(yàn),為法律領(lǐng)域提供了更為專業(yè)和智能的服務(wù)。這種服務(wù)模式不僅拓寬了技術(shù)應(yīng)用緯度,也為社會(huì)發(fā)展和治理帶來了新的機(jī)遇和挑戰(zhàn)。
3.第三緯:技術(shù)標(biāo)準(zhǔn)緯度
面對生成式人工智能在技術(shù)應(yīng)用緯度上的挑戰(zhàn),《管理辦法》雖全面但難以完全覆蓋其規(guī)制需求。因此,自律機(jī)制和行業(yè)標(biāo)準(zhǔn)成為管理風(fēng)險(xiǎn)的關(guān)鍵。在技術(shù)標(biāo)準(zhǔn)層面,歐盟通過多次修訂法案,逐步強(qiáng)化對AI技術(shù)的監(jiān)管。從2019年的《人工智能道德準(zhǔn)則》到2024年通過的《人工智能法案》,歐盟不斷提升生成式人工智能的透明度要求,以應(yīng)對大模型風(fēng)險(xiǎn)。這些努力不僅形成了有效的風(fēng)險(xiǎn)監(jiān)管思路,也為技術(shù)應(yīng)用緯度的標(biāo)準(zhǔn)化奠定了堅(jiān)實(shí)的立法基礎(chǔ)。在技術(shù)標(biāo)準(zhǔn)緯度上,歐盟的“風(fēng)險(xiǎn)四分法”為AI技術(shù)的監(jiān)管提供了明確框架。危險(xiǎn)型AI,即可能直接威脅生命、自由、基本權(quán)利的技術(shù),如ChatGPT Transformer模型在敏感法律決策中的應(yīng)用,必須受到嚴(yán)格限制。高風(fēng)險(xiǎn)AI,影響公共安全、基礎(chǔ)設(shè)施等領(lǐng)域的技術(shù),需持續(xù)監(jiān)測風(fēng)險(xiǎn)并采取管理措施,確?!度斯ぶ悄芊ò浮返?條規(guī)定的落實(shí)。限制型AI則針對特定領(lǐng)域或活動(dòng),如敏感案件中的生成式人工智能使用,需經(jīng)專業(yè)監(jiān)督審查。低風(fēng)險(xiǎn)AI技術(shù),如輔助文書起草、數(shù)據(jù)分析等,應(yīng)鼓勵(lì)發(fā)展以提高效率和準(zhǔn)確性。面對
“責(zé)任鴻溝”風(fēng)險(xiǎn),構(gòu)建法治支撐的技術(shù)標(biāo)準(zhǔn)制定程序See Matthew U. Scherer et al.,Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies,Harvard Journal of Law amp; Technology,Vol. 29,2016,p.353.和多元協(xié)同的用戶參與機(jī)制See H. Korala et al.,Design and Implementation of a Platform for Managing Time-Sensitive Iot Applications,2020 IEEE 6th International Conference on Collaboration and Internet Computing,49-50(2020).至關(guān)重要。同時(shí),應(yīng)加強(qiáng)法律法規(guī)與風(fēng)險(xiǎn)標(biāo)準(zhǔn)的銜接融合,確保技術(shù)標(biāo)準(zhǔn)導(dǎo)向與風(fēng)險(xiǎn)標(biāo)準(zhǔn)相結(jié)合,形成生成式人工智能特有的可信倫理路徑。這樣,我們不僅能有效規(guī)避風(fēng)險(xiǎn),還能促進(jìn)技術(shù)的健康發(fā)展,避免法律系統(tǒng)扭曲、不公或違反原則的情況。
(二)引入“三經(jīng)九緯”法治新模式之微觀事實(shí)第二經(jīng)中的三個(gè)緯度:數(shù)據(jù)、算法、算力的重要性
生成式人工智能內(nèi)容生成及服務(wù)能力核心為數(shù)據(jù)、算法和算力三要素。這三要素不僅構(gòu)成了技術(shù)基礎(chǔ),也是內(nèi)容治理的關(guān)鍵。數(shù)據(jù)是生成式人工智能的基石,決定了內(nèi)容的質(zhì)量和多樣性。算法作為處理數(shù)據(jù)的核心,直接影響內(nèi)容的生成方式和準(zhǔn)確性。算力則是支撐數(shù)據(jù)和算法高效運(yùn)行的基礎(chǔ)。針對這兩種生成式人工智能ChatGPT大模型,一方面,服務(wù)平臺(tái)作為內(nèi)容的集散地,需建立嚴(yán)格的內(nèi)容審核機(jī)制,結(jié)合人工智能技術(shù)和人工審核,確保內(nèi)容的合規(guī)性和健康性。另一方面,服務(wù)行為本身也需受到監(jiān)管,確保文本生成服務(wù)在遵循用戶意圖的同時(shí),不產(chǎn)生違法、有害或低俗內(nèi)容。通過內(nèi)容治理,確保生成式人工智能內(nèi)容生成及服務(wù)能力健康、有序發(fā)展。
1.第四緯:數(shù)據(jù)質(zhì)量緯度
在第四緯度,即數(shù)據(jù)質(zhì)量緯度上,生成式人工智能的運(yùn)作核心在于數(shù)據(jù)的質(zhì)量與合規(guī)性。數(shù)據(jù)不僅關(guān)乎技術(shù)的成敗,更涉及歧視性
See Kim P.T.,Data-Driven Discrimination at Work. William and Mary Law Review, Vol.58,2017,p.884.、合法性See Florid L. amp; Taddeo M.,What is Data Ethics? Philosophical Transactions of the Royal Society A Mathematical Physical and Engineering Sciences,Vol. 374,2016,p.2083.和隱私保護(hù)See Stahl B. C. et al. ,The Ethics of Computing: A Survey of the Computing-Oriented Literature,ACM Computing Surveys,Vol. 48,26- 28(2016).等敏感議題。因此,高質(zhì)量數(shù)據(jù)的保護(hù)和利用研究至關(guān)重要,包括數(shù)據(jù)的知識(shí)產(chǎn)權(quán)與個(gè)人隱私保護(hù)、審查、安全、交互、共享等方面。對于自然語言處理模型,高質(zhì)量數(shù)據(jù)是其訓(xùn)練與優(yōu)化的基石,無論是語言文本、語料庫還是知識(shí)圖譜,都需要經(jīng)過嚴(yán)格篩選和處理,以確保模型的準(zhǔn)確性和可靠性。正如艾倫·圖靈所強(qiáng)調(diào),理解自然語言是實(shí)現(xiàn)人工智能的基礎(chǔ),而這離不開大量高質(zhì)量語言數(shù)據(jù)的支持。See Turing A. M,Computing Machinery and Intelligence,Mind,Vol. 236,445-446(1950).2023年10月11日發(fā)布的《生成式人工智能服務(wù)安全基本要求(征求意見稿)》強(qiáng)調(diào)建立語料來源黑名單制度,旨在提高語料質(zhì)量和模型性能,包括不使用黑名單數(shù)據(jù)、安全評估語料來源、提高語料多樣性及確保來源可追溯性。
此外,生成式人工智能可能引發(fā)的知識(shí)幻覺,實(shí)質(zhì)上是語言幻覺,可能導(dǎo)致思維混亂和網(wǎng)絡(luò)安全威脅。為此,《網(wǎng)絡(luò)安全法》等法律法規(guī)為應(yīng)對此類問題提供了法律保障。同時(shí),服務(wù)平臺(tái)運(yùn)營商在數(shù)據(jù)采集、存儲(chǔ)、使用、分析、加密、脫敏和共享過程中,需遵循《數(shù)據(jù)安全法》的規(guī)定,以確保數(shù)據(jù)安全。此外,自然語言處理涉及大量個(gè)人數(shù)據(jù)和敏感信息,因此必須嚴(yán)格遵守《個(gè)人信息保護(hù)法》的相關(guān)條款,防止數(shù)據(jù)泄露和濫用,保護(hù)用戶隱私和安全。這些法律法規(guī)共同構(gòu)成了生成式人工智能數(shù)據(jù)質(zhì)量保障的法律框架,為技術(shù)的健康發(fā)展提供了堅(jiān)實(shí)的法律基礎(chǔ)。
2.第五緯:算法優(yōu)化緯度
重視算法的公平性與可解釋性,在大模型算法優(yōu)化中占據(jù)核心地位。為確保公眾對算法決策的信任與理解,需從法律層面明確大模型算法的權(quán)屬、應(yīng)用責(zé)任、交易流通及保護(hù)等關(guān)鍵問題。同時(shí),在技術(shù)上,需精心設(shè)計(jì)自動(dòng)化決策程序,并深入研究自然語言分析與深度學(xué)習(xí)算法等議題。“人工智能法示范法1.0(專家建議稿)”第17條提出:“國家支持人工智能算法創(chuàng)新,依法加強(qiáng)基礎(chǔ)模型保護(hù),促進(jìn)基礎(chǔ)模型創(chuàng)新開發(fā)、應(yīng)用推廣?!边@一建議為算法優(yōu)化提供了學(xué)理層面的參考。在算法優(yōu)化的立法實(shí)踐中,應(yīng)嚴(yán)格遵循《管理辦法》第17條“提供具有輿論屬性或者社會(huì)動(dòng)員能力的生成式人工智能服務(wù)”的規(guī)定。這意味著在優(yōu)化過程中,需要充分考慮算法可能對社會(huì)、經(jīng)濟(jì)、文化等方面產(chǎn)生的影響,并進(jìn)行相應(yīng)的社會(huì)風(fēng)險(xiǎn)評估和應(yīng)對策略制定。在新一代人工智能算法優(yōu)化的實(shí)際應(yīng)用中,涌現(xiàn)出大模型服務(wù)司法的例證,包括引導(dǎo)社情民意的AI調(diào)解員及小額訴訟AI法官。通過研究這些特定數(shù)字司法場景下的AI應(yīng)用,我們發(fā)現(xiàn)優(yōu)化后的算法可以有效減少公眾對算法黑箱的擔(dān)憂,進(jìn)而提升公眾對算法決策的信任度。
3.第六緯:算力設(shè)施緯度
在生成式人工智能的應(yīng)用中,AI的算力對法治新模式產(chǎn)生了重要影響。為促進(jìn)這種影響,我們需要加強(qiáng)算力平臺(tái)的兼容性和適用性,規(guī)劃管理并維護(hù)算力設(shè)施,建立公共算力資源平臺(tái)。根據(jù)“人工智能法示范法1.0(專家建議稿)”第16條第2款的建議,國家應(yīng)制定算力資源供給政策,推動(dòng)平臺(tái)建設(shè)與利用,加強(qiáng)算力科學(xué)調(diào)度,為人工智能技術(shù)與產(chǎn)業(yè)發(fā)展提供公共算力支持。在社會(huì)層面,AI算力與大數(shù)據(jù)相結(jié)合,可以顯著提升法治的公平性和效率。通過分析海量社會(huì)數(shù)據(jù),我們能夠洞察潛在的不平等現(xiàn)象,助力政府公正地制定政策。同時(shí),算力設(shè)施可用于社會(huì)輿情的監(jiān)測和預(yù)測,以回應(yīng)社會(huì)對法治新模式的期望。在法律領(lǐng)域,算力設(shè)施方面的發(fā)展推動(dòng)了生成式人工智能創(chuàng)新。例如,在在線爭端解決中,AI的算力能夠自動(dòng)化并加速糾紛解決過程,從而提高司法數(shù)據(jù)訪問的效率和成本效益。此外,結(jié)合區(qū)塊鏈技術(shù)的智能合約算力的資源,有助于增強(qiáng)合同執(zhí)行的透明性和可信度,有效減少訴訟和糾紛的發(fā)生。
(三)引入“三經(jīng)九緯”法治新模式之立法規(guī)范第三經(jīng)中的三個(gè)緯度:目的、原則和規(guī)則的重要性
生成式人工智能的宏觀背景和微觀現(xiàn)狀正逐步融入立法規(guī)范,其核心在于技術(shù)規(guī)則與法律規(guī)范的適配與轉(zhuǎn)化。
斯蒂爾戈等學(xué)者指出,數(shù)據(jù)質(zhì)量、模型偏差等因素影響著機(jī)器學(xué)習(xí)算法的技術(shù)規(guī)則,進(jìn)而影響法律規(guī)則實(shí)施See Stilgoe J., Owen R. amp; Macnaghten P.,Developing a Framework for Responsible Innovation,Research Policy,Vol. 9,1695-1696(2013).,由此微觀分析立法規(guī)范至關(guān)重要。當(dāng)前,各國正致力于構(gòu)建以數(shù)據(jù)和算法為核心的人工智能框架性立法。我國已發(fā)布多項(xiàng)相關(guān)法規(guī),如《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》《網(wǎng)絡(luò)音視頻信息服務(wù)管理規(guī)定》《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》《中國關(guān)于加強(qiáng)人工智能倫理治理的立場文件》,但仍需完善全國性框架立法;國際上,美國《人工智能權(quán)利法案的藍(lán)圖》明確了公民在使用自動(dòng)化系統(tǒng)時(shí)的五項(xiàng)核心權(quán)利,包括安全有效保護(hù)、算法歧視保護(hù)、數(shù)據(jù)隱私、提示和解釋,以及替代和退出措施,而歐盟《人工智能法案》則引入了全面規(guī)則,針對高風(fēng)險(xiǎn)人工智能系統(tǒng)設(shè)計(jì)、開發(fā)和使用,并強(qiáng)調(diào)促進(jìn)可信人工智能方案的全球推廣,形成以規(guī)則為基礎(chǔ)、以價(jià)值為導(dǎo)向的人工智能方案。
1.第七緯:法律目的緯度
生成式人工智能以其高度智能和自主性,對個(gè)人隱私、道德規(guī)范、社會(huì)權(quán)益等產(chǎn)生深遠(yuǎn)影響,也更易觸及法律倫理底線。因此,其立法需求更為迫切和細(xì)致。法律界需通過明確法律概念、界定法益目的,制定專門化、細(xì)致化的立法目的論,以維護(hù)社會(huì)秩序和公共利益。從法益保護(hù)的內(nèi)容上看,生成式人工智能立法規(guī)范中目的緯度主要對應(yīng)個(gè)人隱私、企業(yè)發(fā)展、數(shù)據(jù)主權(quán)、數(shù)據(jù)安全等法益保護(hù)。參見王錫鋅:《個(gè)人信息權(quán)益的三層構(gòu)造及保護(hù)機(jī)制》,載《現(xiàn)代法學(xué)》2021年第5期,第105頁。從法益目的評價(jià)來看,通過對法律的內(nèi)部規(guī)制進(jìn)行法益評價(jià)來體現(xiàn)民主的立法目的。參見曹博:《算法歧視的類型界分與規(guī)制范式重構(gòu)》,載《現(xiàn)代法學(xué)》2021年第4期,第121頁。在這種觀點(diǎn)中,法律的內(nèi)部規(guī)制是通過法律概念、規(guī)則和標(biāo)準(zhǔn)來實(shí)現(xiàn)規(guī)制目的,而不涉及法律的制定、執(zhí)行和解釋過程中的外部機(jī)制和約束。因此,明晰生成式人工智能的法律概念并界定其法益目的,對于有效地制定立法目的至關(guān)重要。在諸多概念和分類中,
有學(xué)者將“生成式人工智能服務(wù)提供者與其他形式的人工智能服務(wù)提供者進(jìn)行區(qū)分,并定義其特征和應(yīng)用范圍”。參見徐偉:《論生成式人工智能服務(wù)提供者的法律地位及其責(zé)任———以ChatGPT為例》,載《法律科學(xué)(西北政法大學(xué)學(xué)報(bào))》2023年第4期,第78頁。主體性目的論者提出,生成式人工智能的發(fā)展涉及不同主體的法益,需要圍繞技術(shù)社會(huì)化和社會(huì)技術(shù)化兩個(gè)技術(shù)治理的緯度展開參見竇爾翔、段玉聰:《升維超越:中國應(yīng)對GPT-AGI的戰(zhàn)略選擇》,載《海南大學(xué)學(xué)報(bào)(人文社會(huì)科學(xué)版)》2023年第4期,第64頁。,協(xié)調(diào)性目的論者進(jìn)一步指出,確保技術(shù)創(chuàng)新、經(jīng)濟(jì)績效、社會(huì)利益之間的科技倫理協(xié)調(diào)是生成式人工智能立法目的亟待解決的問題。參見龍衛(wèi)球:《人工智能立法的“技術(shù)—社會(huì)+經(jīng)濟(jì)”范式———基于引領(lǐng)法律與科技新型關(guān)系的視角》,載《武漢大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2020年第1期,第71頁。
生成式人工智能服務(wù)提供者的法律權(quán)責(zé)、技術(shù)治理緯度及科技倫理協(xié)調(diào),均構(gòu)成立法目的論的核心要素。人工智能服務(wù)提供者的類型化目的論、主體性目的論與協(xié)調(diào)性目的論為生成式人工智能的立法目的論提供了多元視角。然而,面對目的不明、平衡困難和持續(xù)挑戰(zhàn)的立法現(xiàn)狀,我國并未簡單選擇歐盟的風(fēng)險(xiǎn)規(guī)制立法模式或美國以法秩序穩(wěn)定為主的立法路徑,而采取了以技術(shù)發(fā)展為基石的整體性系統(tǒng)性立法模式。這一模式以法律原則為導(dǎo)向,將技術(shù)轉(zhuǎn)化為立法途徑,旨在通過相關(guān)法規(guī)在目標(biāo)制定、內(nèi)容規(guī)范及執(zhí)行層面的統(tǒng)一整合,構(gòu)建一個(gè)系統(tǒng)完備、相互配合的法律框架。這一框架確保了各項(xiàng)法規(guī)之間的內(nèi)在邏輯和一致性,體現(xiàn)了對法律進(jìn)行整體性和系統(tǒng)性闡釋
的理念
參見於興中、鄭戈、丁曉東:《生成式人工智能與法律的六大議題:以ChatGPT為例》,載《中國法律評論》2023年第2期,第5頁。,強(qiáng)調(diào)法律原則的重要性,以及通過法律原則來指導(dǎo)和推動(dòng)立法工作的必要性。這種立法模式不僅符合當(dāng)前我國生成式人工智能立法的實(shí)際需求,奠定了立法目的論基礎(chǔ)也為法律原則導(dǎo)向下的技術(shù)轉(zhuǎn)化型立法路徑參見[英]羅杰·布朗斯沃德:《法律3.0:規(guī)則、規(guī)制和技術(shù)》,毛海棟譯,北京大學(xué)出版社2023年版,第18頁。提供了有益的借鑒和啟示。
2.第八緯:法律原則緯度
為有效應(yīng)對ChatGPT知識(shí)幻覺和算法偏見等問題,必須從基本價(jià)值上引導(dǎo)技術(shù)發(fā)展,將包括公共性、公平性、合法性等基本價(jià)值轉(zhuǎn)化為法律原則,實(shí)現(xiàn)以技術(shù)為基礎(chǔ),以價(jià)值為導(dǎo)向的法律原則路徑,主要包括:共治原則、共益原則和透明度原則。
第一,共治原則。共治原則意味著從以監(jiān)管為中心轉(zhuǎn)向協(xié)力互補(bǔ)的善治軌道參見吳元元:《食品安全共治中的信任斷裂與制度因應(yīng)》,載《現(xiàn)代法學(xué)》2016年第4期,第60頁。,包括:(1)解決生成式人工智能服務(wù)平臺(tái)的所有權(quán)之爭。共治原則將生成式人工智能視為一種公共資源,主張確立公共所有權(quán),以確保其持續(xù)可用性、公平性和社會(huì)效益。(2)解決控制權(quán)之爭。目前一些開源社區(qū)將人工智能的控制權(quán)力歸屬于公眾,而不是封閉在少數(shù)組織或個(gè)人所有和壟斷權(quán)力之中?!叭斯ぶ悄芊ㄊ痉斗?.0(專家建議稿)”第16條第3款提出:“鼓勵(lì)和支持高等院校、科研機(jī)構(gòu)、企業(yè)和其他組織建設(shè)人工智能算力基礎(chǔ)設(shè)施、開源開發(fā)平臺(tái)和開源社區(qū),開展算力資源市場化交易,引導(dǎo)各行業(yè)合理有序使用算力資源,提升算力基礎(chǔ)設(shè)施利用效能?!保?)確立透明度義務(wù)。共治原則強(qiáng)調(diào)多方參與和透明度,平衡各方的利益和權(quán)力,確保決策過程的公正性和合理性。
第二,共益原則。生成式人工智能的模型之大、資本之巨、性能之紊等因素導(dǎo)致對其的評價(jià)出現(xiàn)兩極化,阻礙了共益原則的推行。首先,有關(guān)生成式人工智能的知識(shí)體系更新周期長,導(dǎo)致其無法及時(shí)回應(yīng)社會(huì)和專業(yè)的問題。需要加強(qiáng)數(shù)據(jù)集合的及時(shí)性和多樣性,以使生成式人工智能能夠跟上社會(huì)共益需求。在算法模型方面也需要不斷迭代和改進(jìn),以提高生成式人工智能的生成結(jié)果的準(zhǔn)確性和實(shí)用性。其次,生成式人工智能所需的高算力資源和服務(wù)器數(shù)量超出了普通企業(yè)的經(jīng)濟(jì)承受能力,需要探索更加可行和經(jīng)濟(jì)的解決方案來滿足人工智能技術(shù)的資源需求,促進(jìn)技術(shù)應(yīng)用的廣泛性和普惠性。最后,生成式人工智能的準(zhǔn)確率尚不足以應(yīng)對具有一定邏輯要求的工作任務(wù),需要對生成式人工智能的訓(xùn)練和測試過程進(jìn)行改進(jìn),提高其對復(fù)雜問題和邏輯推理的處理能力。同時(shí),也要加強(qiáng)監(jiān)管和審核機(jī)制,避免生成式人工智能在輸出信息時(shí)出現(xiàn)誤導(dǎo)、偏見或偏差的情況;還需要提升算法的精確度,提高生成式人工智能企業(yè)的商業(yè)信譽(yù),以共益原則作為維護(hù)算法權(quán)力行使的邊界。
第三,透明度原則。一個(gè)可以被采用的有效生成式人工智能必須經(jīng)過透明度原則的檢驗(yàn)。透明度原則應(yīng)涵蓋模型的結(jié)構(gòu)、訓(xùn)練數(shù)據(jù),以及對輸入和輸出之間關(guān)系的理解,通過可視化、可解釋性模型和規(guī)范化等方法來擴(kuò)展透明度的研究方向See Chiyuan Zhang, et al. ,Understanding Deep Learning (Still) Requires Rethinking Generalization,Communications of the ACM, Vol. 64,2021,p.107.,進(jìn)而通過可解釋性模型提供對決策過程的解釋和相關(guān)信息來實(shí)現(xiàn)決策樹、規(guī)則提取和局部可解釋性方法
。
生成式人工智能的透明度原則圍繞以下三個(gè)難題展開:(1)解釋之難。生成式人工智能通常使用深度學(xué)習(xí)等多模態(tài)擬合技術(shù)生成文本、圖像等內(nèi)容,其決策過程的復(fù)雜,難以被解釋和被用戶理解?!秱€(gè)人信息保護(hù)法》第24條第3款對個(gè)人權(quán)益有重大影響的自動(dòng)化決策中的說明義務(wù)局限在一般性產(chǎn)品說明書義務(wù)。歐盟《人工智能法案》第3條將說明義務(wù)規(guī)則擴(kuò)展到一般性可視正義的原則。(2)錯(cuò)誤之軛。生成式人工智能有時(shí)候會(huì)產(chǎn)生不準(zhǔn)確、偏見或令人困惑的輸出。由于其復(fù)雜性和缺乏透明度,人們很難確定這些問題的根源,并對生成式人工智能的輸出進(jìn)行有效監(jiān)督和管理。(3)倫理之虛。生成式人工智能廣泛應(yīng)用于社交媒體、新聞報(bào)道、藝術(shù)創(chuàng)作等領(lǐng)域,其輸出的內(nèi)容可能涉及虛假信息等倫理方面的問題,生成式人工智能運(yùn)用中的語言偽造現(xiàn)象也屬于倫理方面的問題。
3.第九緯:法律規(guī)則緯度
歐盟通過《人工智能法案》,將對人工智能的監(jiān)管從起初的柔性規(guī)制路徑,轉(zhuǎn)向立法規(guī)范路徑。各國紛紛采取法律規(guī)則來監(jiān)管人工智能系統(tǒng)(包括生成式)的開發(fā)和使用。如生成式人工智能在進(jìn)行數(shù)據(jù)訓(xùn)練時(shí)涉及大量的個(gè)人信息。在處理這些信息方面,《個(gè)人信息保護(hù)法》第24條規(guī)定了三個(gè)重要規(guī)則:決策透明、信息自決和重大利益。首先,決策透明原則要求生成式人工智能的開發(fā)者和使用者必須對其決策過程進(jìn)行充分和透明的說明,以保證用戶能夠理解算法背后的推理和預(yù)測過程。其次,信息自決原則要求生成式人工智能的使用者僅能在用戶自愿同意的情況下,獲取和使用個(gè)人信息。最后,重大利益原則要求生成式人工智能的開發(fā)者和使用者必須保證算法的使用和數(shù)據(jù)處理,符合公共利益和社會(huì)倫理。
三、“三經(jīng)九緯”法治新模式應(yīng)對生成式人工智能的治理路徑
“三經(jīng)九緯”法治新模式從法律目的、原則、規(guī)則等三個(gè)緯度出發(fā),探索構(gòu)建技術(shù)轉(zhuǎn)化和試驗(yàn)改進(jìn)、社會(huì)回應(yīng)和場景探索以及促進(jìn)激勵(lì)和穩(wěn)健包容的立法建設(shè)路徑,以使傳統(tǒng)法律制度更為適應(yīng)生成式人工智能發(fā)展的需求。
(一)就法律目的緯度而言,采取技術(shù)轉(zhuǎn)化+試驗(yàn)改進(jìn)的促進(jìn)型法治建設(shè)路徑
1.圍繞生成式人工智能“三經(jīng)九緯”的技術(shù)適應(yīng)轉(zhuǎn)化型法治
隨著自然語言技術(shù)的飛速發(fā)展,生成式人工智能的法治模式需要適應(yīng)自然語言的技術(shù)特點(diǎn)來進(jìn)行轉(zhuǎn)化并改進(jìn)。技術(shù)增強(qiáng)型法治可以分為以下兩種類型:一是技術(shù)適應(yīng)型法治,根據(jù)不同技術(shù)特點(diǎn)和應(yīng)用場景,制定相應(yīng)法律法規(guī)。參見季衛(wèi)東:《新文科的學(xué)術(shù)范式與集群化》,載《上海交通大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2020年第1期,第11頁。例如,針對信息泄露問題,出臺(tái)《個(gè)人信息保護(hù)法》;針對數(shù)據(jù)安全問題,制定《數(shù)據(jù)安全法》。二是技術(shù)轉(zhuǎn)化型法治,將技術(shù)成果轉(zhuǎn)化為法律實(shí)踐,在解決實(shí)際問題的過程中形成規(guī)范性科技。一項(xiàng)研究顯示,使用規(guī)范性科技概念,可以將法律決策權(quán)從決策者轉(zhuǎn)移給代碼或代碼設(shè)計(jì)者。這一概念是由荷蘭蒂爾堡大學(xué)的庫普斯(Bert-Jaap Koops)教授提出的。See Koops E J,Criteria for Normative Technology: An Essay on the Acceptability of “Code as Law” in Light of Democratic and Constitutional Values,in R Brownswordamp;K Yeung eds. , Regulating technologies,Hart Publishing,157-159(2008).技術(shù)增強(qiáng)型法治需要從增強(qiáng)法律對大模型的適應(yīng)性、大模型與法律的可轉(zhuǎn)化性兩個(gè)方面出發(fā)進(jìn)行技術(shù)轉(zhuǎn)化和試驗(yàn)改進(jìn),以此推動(dòng)法治模式兼具價(jià)值論和目的論。
第一,大模型與法律之間的適應(yīng)性問題。法律適應(yīng)技術(shù)變革引發(fā)的技術(shù)適應(yīng)型法治新模式,主要表現(xiàn)為:(1)法律目的的適應(yīng)性。明確每種生成式人工智能與每個(gè)法律目標(biāo)之間的聯(lián)系和關(guān)系。例如,大模型語言處理技術(shù)需要遵守隱私保護(hù)的底線法治原則,確保個(gè)人信息安全。(2)應(yīng)用場景的適應(yīng)性。根據(jù)大模型在法律場景中的應(yīng)用以實(shí)現(xiàn)法律目標(biāo)的改進(jìn)。例如,自然語言處理技術(shù)可以被用于審理案件時(shí)的文本分析和信息篩選,以提高審判效率。(3)法律規(guī)范的適應(yīng)性。明確每個(gè)法律目標(biāo)對技術(shù)的規(guī)范作用。例如,高透明度、可解釋性和可追溯性的要求會(huì)促使技術(shù)開發(fā)者設(shè)計(jì)更加透明和可追蹤的系統(tǒng),以提高公平性和可信度,包括客觀上的可信度與主觀上的可信度,而法律責(zé)任追究機(jī)制的底層客觀規(guī)范與法律可信頂層主觀倫理一道,共同在生成式人工智能適應(yīng)性上發(fā)生規(guī)范作用。參見唐林垚:《人工智能時(shí)代的算法規(guī)制:責(zé)任分層與義務(wù)合規(guī)》,載《現(xiàn)代法學(xué)》2020年第1期,第199頁。
第二,大模型與法律之間的可轉(zhuǎn)化性問題。生成式人工智能的自主創(chuàng)新本質(zhì)與法律的穩(wěn)定屬性之間存在顯著對比,然而,這并非阻礙了技術(shù)向法律的轉(zhuǎn)化,反而促進(jìn)了技術(shù)與法律融合的適應(yīng)性探索與改進(jìn)。參見彭輝、姚頡靖:《美日韓科技立法的轉(zhuǎn)型與升級(jí):演化歷程與路徑選擇》,載《東南法學(xué)》2016年第1期,第45頁。根據(jù)《管理辦法》第3條的規(guī)定,促進(jìn)創(chuàng)新與依法治理相結(jié)合的原則,意味著要采取有效措施鼓勵(lì)生成式人工智能的創(chuàng)新發(fā)展。這不僅將科技創(chuàng)新納入法治的維度,還涵蓋了技術(shù)向法律的轉(zhuǎn)移、技術(shù)的法理內(nèi)嵌及技術(shù)語言向法律語言的轉(zhuǎn)譯。當(dāng)前,技術(shù)與法律之間的思維范式存在不可通約的問題,這需要從國家戰(zhàn)略層面打破兩者之間的隔閡。在世界各國,人工智能的宏觀背景通常被納入國家技術(shù)戰(zhàn)略當(dāng)中。在相關(guān)法律法規(guī)的制定過程中,生成式人工智能可以提升法治運(yùn)作的效率和質(zhì)量,自動(dòng)化審批、電子文件處理、智能化數(shù)據(jù)管理等方面均是其應(yīng)用范疇。此外,該技術(shù)還可以擴(kuò)大公眾參與和監(jiān)督的范圍與形式,如通過在線訴訟、在線問答征求意見、數(shù)據(jù)透明等方式增加公眾對政府機(jī)構(gòu)和企業(yè)的監(jiān)督力度。
2.通過負(fù)面清單和備案審查制度進(jìn)行管理方式的試驗(yàn)改進(jìn)
“試驗(yàn)改進(jìn)型法”是一種介于立法授權(quán)與行政授權(quán)之間的新型授權(quán)制度。其核心是將法律決策授權(quán)給特定試驗(yàn)主體來實(shí)施,包括暫調(diào)或暫停部分法律的適用。本質(zhì)上,這種授權(quán)制度是法律施行力中止和新試驗(yàn)法制定的有機(jī)組合,并不屬于法律修改。因此,“試驗(yàn)改進(jìn)型法”也屬于類似行政特許的權(quán)力授權(quán)。有關(guān)部門通過行政許可或設(shè)置市場準(zhǔn)入制度,牽頭制定并定期更新人工智能產(chǎn)品、服務(wù)負(fù)面清單?!霸囼?yàn)改進(jìn)型法”采取正反兩種管理方式,在裁量基準(zhǔn)幅度范圍內(nèi),對負(fù)面清單內(nèi)的產(chǎn)品、服務(wù)實(shí)施許可管理,對負(fù)面清單外的產(chǎn)品、服務(wù)實(shí)施備案管理。例如,
有專家建議在人工智能法立法中設(shè)立“人工智能管理制度”專章,其目的在于探索生成式人工智能行政許可制度的試驗(yàn)改進(jìn),鼓勵(lì)政府機(jī)關(guān)、事業(yè)單位、國有企業(yè)及其他依法具有管理公共事務(wù)職能的組織,在政務(wù)服務(wù)、公共管理等領(lǐng)域開展人工智能技術(shù)應(yīng)用先行先試,優(yōu)先采購和使用安全可靠的人工智能產(chǎn)品和服務(wù)。
(二)就法律原則緯度而言,采取探索場景+社會(huì)回應(yīng)的回應(yīng)型法治建設(shè)路徑
生成式人工智能能力是多模態(tài)人機(jī)交互的集成,是數(shù)量巨大的自然人的集體智慧外化,其超大問答系統(tǒng)通過模擬社會(huì)交互,推動(dòng)社會(huì)可信度和價(jià)值對齊,以回應(yīng)社會(huì)需求。采取以原則導(dǎo)向治理路徑
不僅能夠適應(yīng)技術(shù)快速變化的敏捷治理,還能回應(yīng)社會(huì)需求并促進(jìn)技術(shù)轉(zhuǎn)化應(yīng)用,確保技術(shù)發(fā)展與社會(huì)價(jià)值平衡,促進(jìn)實(shí)現(xiàn)生成式人工智能的道德性。
1.透明度原則是探索可信的場景正義的具體化
目前,技術(shù)應(yīng)用中的透明度問題已經(jīng)引起了越來越多的討論。為回應(yīng)目前人工智能在實(shí)踐中存在的透明度問題,增強(qiáng)透明度和可信度,需要建立更加清晰、公正和規(guī)范的場景應(yīng)用標(biāo)準(zhǔn),并通過有效的監(jiān)督和反饋機(jī)制,使用戶能夠獲得詳細(xì)的解釋和說明,深入挖掘透明度原則的潛力,實(shí)現(xiàn)數(shù)字空間的規(guī)范化、法治化和智能化發(fā)展。參見駱正林:《數(shù)字空間、人工智能與社會(huì)世界的秩序演化》,載《閱江學(xué)刊》2023年第6期,第95頁。在具體應(yīng)用場景中,相關(guān)機(jī)構(gòu)研發(fā)的法律機(jī)器人在適用透明度原則時(shí)應(yīng)從以下四方面展開:
第一,堅(jiān)持理由的一致性。
融合“法律整合”理念,確保法律機(jī)器人在算法與規(guī)則設(shè)計(jì)時(shí),綜合考慮道德、正義、效率等多元價(jià)值。這樣的設(shè)計(jì)旨在實(shí)現(xiàn)法律決策的全面性和公眾利益的最大化,從而減少?zèng)Q策失誤,提高透明度和可信度。
第二,推行設(shè)計(jì)全過程的說明解釋。法律機(jī)器人的決策過程與依據(jù)必須采用易懂易解的算法和規(guī)則,并經(jīng)過嚴(yán)格審查與測試,以確保其準(zhǔn)確性與可靠性。同時(shí),必須強(qiáng)化系統(tǒng)監(jiān)督與維護(hù),確保運(yùn)作透明,并構(gòu)建有效的反饋機(jī)制。這樣的做法旨在讓用戶能夠充分了解法律機(jī)器人的工作原理和決策依據(jù),從而增強(qiáng)其對技術(shù)應(yīng)用的信任感。
第三,避免內(nèi)容偏差。應(yīng)警惕認(rèn)知偏差對法律機(jī)器人透明度的影響。參見[美]丹尼爾·卡尼曼:《思考,快與慢》,胡曉姣、李愛民、何夢瑩譯,中信出版社2012年版,第112頁。在算法與規(guī)則制定中,應(yīng)充分考慮心理學(xué)偏差,如確認(rèn)偏誤和羊群效應(yīng),設(shè)計(jì)合理的機(jī)制與程序來防范其影響。這樣的設(shè)計(jì)旨在確保法律機(jī)器人在處理案件時(shí)能夠保持客觀、公正的態(tài)度,減少主觀偏見和錯(cuò)誤判斷。
第四,強(qiáng)化語言認(rèn)知功能。應(yīng)通過優(yōu)化法律機(jī)器人的規(guī)則模型與自然語言處理技術(shù),采用清晰、簡潔、易于理解的語言表達(dá)方式。參見[美]本杰明·李·沃爾夫:《語言、思維與現(xiàn)實(shí)———沃爾夫文集》,高一虹等譯,商務(wù)印書館2012年版,第56頁。該書提出的語言生成和解析的規(guī)則模型,提高語言增強(qiáng)認(rèn)知功能。這樣的改進(jìn)旨在提高公眾對機(jī)器人決策過程與依據(jù)的認(rèn)知和理解,從而進(jìn)一步增強(qiáng)透明度和可信度。
綜上所述,透明度原則在探索可信的場景正義中發(fā)揮著至關(guān)重要的作用。通過堅(jiān)守理由的一致性原則、推行設(shè)計(jì)全過程的說明解釋原則、貫徹避免內(nèi)容偏差原則以及強(qiáng)化語言認(rèn)知功能原則,我們可以更好地推進(jìn)技術(shù)應(yīng)用的發(fā)展,實(shí)現(xiàn)數(shù)字空間的規(guī)范、法治和智能化。
2.公平原則是回應(yīng)并優(yōu)化大模型算法偏差的具體化
大模型算法在設(shè)計(jì)編寫、數(shù)據(jù)處理、運(yùn)行應(yīng)用等階段出現(xiàn)的偏差導(dǎo)致了算法歧視、不公平競爭和濫用等現(xiàn)象。參見姚尚建:《數(shù)字治理中的權(quán)力控制與權(quán)利破繭》,載《理論與改革》2022年第3期,第132頁。需要在明確各類算法偏差的具體問題的基礎(chǔ)上,強(qiáng)化公平原則,回應(yīng)社會(huì)對修正算法偏差的期待。
一方面,公平原則首要任務(wù)是解決算法歧視問題。這種歧視源于由算法產(chǎn)生的權(quán)力結(jié)構(gòu)
。在大模型算法的操控下,平臺(tái)企業(yè)等控制者與用戶建立了單向的橫向權(quán)力關(guān)系。控制者擁有按照用戶固有屬性進(jìn)行分類的能力,并且可以單方面設(shè)定算法規(guī)則,而用戶則無法選擇退出,只能接受這些決策結(jié)果。參見陳吉棟:《人工智能法的理論體系與核心議題》,載《東方法學(xué)》2023年第1期,第66頁。因此,在監(jiān)管層面預(yù)防和治理算法歧視時(shí)需要對算法權(quán)力進(jìn)行規(guī)制。在算法歧視的具體認(rèn)定上,應(yīng)以算法根據(jù)用戶特征做出的決策作為行為要件,以用戶受到不利的差別對待作為結(jié)果要件。如果涉及算法開發(fā)、部署、使用的相關(guān)方能證明這種差別對待是合理的,則不構(gòu)成算法歧視。
另一方面,公平原則在面對大模型算法中偏差和錯(cuò)誤的及時(shí)修正和改進(jìn)方面扮演著重要角色。為了確保算法的決策過程公正且透明,曹靜宇等學(xué)者提出將元學(xué)習(xí)與層次強(qiáng)化學(xué)習(xí)相結(jié)合,通過不斷改進(jìn)和優(yōu)化算法,實(shí)現(xiàn)在復(fù)雜多智能體系統(tǒng)中的強(qiáng)化學(xué)習(xí),提升算法的公平性和準(zhǔn)確性。See Jingyu Cao,et al. ,Hierarchical Multi-Agent Reinforcement Learning for Cooperative Tasks with Sparse Rewards in Continuous Domain,Neural Computing and Applications,Vol. 36,2024,p.273.賓斯強(qiáng)調(diào)了模型公平性的必要性,即需要對機(jī)器學(xué)習(xí)模型進(jìn)行持續(xù)的監(jiān)控和調(diào)整,以及時(shí)發(fā)現(xiàn)并修正模型中的任何偏差和錯(cuò)誤,確保模型在不同情境下都能保持公平性。See Reuben Binns,F(xiàn)airness in Machine Learning: Lessons from Political Philosophy, Proceedings of the 1st Conference on Fairness, Accountability and Transparency, Vol. 81,153-154(2018).此外,
古德曼和弗拉克斯曼討論了歐盟的算法決策法規(guī),指出這些法規(guī)不僅回應(yīng)了公眾對于算法決策透明度和公平性的關(guān)切,而且促進(jìn)了技術(shù)創(chuàng)新和發(fā)展,認(rèn)為這些法規(guī)要求生成式人工智能系統(tǒng)必須滿足公平性要求,并支持系統(tǒng)創(chuàng)新發(fā)展,以確保技術(shù)進(jìn)步同時(shí)兼顧社會(huì)道德和法律責(zé)任。See Goodman B. amp; Flaxman S.,European Union Regulations on Algorithmic Decision-Making and a Right to Explanation,AI Magazine, Vol.38 ,2017,p. 50.卡洛及其他學(xué)者則提出了法律體系在面對生成式人工智能的快速發(fā)展時(shí),應(yīng)具備社會(huì)回應(yīng)型和探索場景型的特點(diǎn)。他們強(qiáng)調(diào),大模型算法的設(shè)計(jì)和應(yīng)用應(yīng)當(dāng)遵循規(guī)范化、易于理解的語言表達(dá)方式,這有助于確保公眾能夠理解決策過程和依據(jù),從而增加人工智能系統(tǒng)的接受度。See Calo Ryan,Robotics and the Lessons of Cyberlaw, California Law Review,Vol. 103,2014,p.513.綜上所述,公平原則在優(yōu)化大模型算法偏差方面的具體化措施涉及多個(gè)層面:包括算法公平性、模型公平性、法規(guī)回應(yīng)性以及公眾接受性等。
(三)就法律規(guī)則緯度而言,采取促進(jìn)激勵(lì)+穩(wěn)健包容的包容型法治建設(shè)路徑
鑒于生成式人工智能具有穩(wěn)健包容的技術(shù)屬性,我們應(yīng)當(dāng)將這些屬性轉(zhuǎn)化為相應(yīng)的法律規(guī)則,確保這些規(guī)則包容審慎
。世界各國人工智能立法盡管各有差異,但基本原理都體現(xiàn)為將算法技術(shù)應(yīng)用中的倫理困境轉(zhuǎn)化為可信屬性,進(jìn)而形成法律制度運(yùn)行的邏輯,包括:制定算法運(yùn)行環(huán)境、技術(shù)認(rèn)證和技術(shù)安全標(biāo)準(zhǔn)體系,規(guī)定算法開發(fā)、部署、使用等主體的安全保障義務(wù)等。
1.生成式人工智能算力的技術(shù)激勵(lì)和包容型法治動(dòng)因
《管理辦法》第3條規(guī)定了包容審慎的規(guī)則之治,即對生成式人工智能服務(wù)實(shí)行包容審慎和分類分級(jí)監(jiān)管。在數(shù)字化時(shí)代,包容性法治的重要性日益凸顯。作為對生成式人工智能的制度安排
,包容性法治應(yīng)成為數(shù)字化時(shí)代下維護(hù)公正、保障公民權(quán)利的重要手段。數(shù)字領(lǐng)域中的算法和技術(shù)應(yīng)當(dāng)避免人工智能系統(tǒng)或者其他數(shù)字服務(wù)對某些群體的歧視和排斥?!豆芾磙k法》第4條第2款規(guī)定:在算法設(shè)計(jì)、訓(xùn)練數(shù)據(jù)選擇、模型生成和優(yōu)化、提供服務(wù)等過程中,采取有效措施防止產(chǎn)生民族、信仰、國別、地域、性別、年齡、職業(yè)、健康等歧視。開放和寬容的態(tài)度是實(shí)現(xiàn)包容性法治的關(guān)鍵。在數(shù)字化時(shí)代,當(dāng)個(gè)體可能面臨信息繭房和數(shù)字鴻溝的挑戰(zhàn)時(shí),應(yīng)采取措施以規(guī)避劣勢、發(fā)揮優(yōu)勢,減少人為偏見,并拓寬人類的知識(shí)與能力邊界?!豆芾磙k法》中明確了
鼓勵(lì)自主創(chuàng)新、促進(jìn)國際交流與合作、推動(dòng)基礎(chǔ)設(shè)施建設(shè)
等原則,旨在克服數(shù)字化時(shí)代的挑戰(zhàn),推動(dòng)生成式人工智能的健康發(fā)展,提升算力資源利用效率,確保數(shù)據(jù)資源的安全性和可信度。
隨著人工智能技術(shù)的迅速發(fā)展和廣泛應(yīng)用,人工智能倫理問題也愈加突顯。其中,生成式人工智能的魯棒性
(可理解為人工智能系統(tǒng)的抗干擾性)
和人工智能倫理標(biāo)準(zhǔn)中的包容性被視為屬性轉(zhuǎn)變?yōu)闃?biāo)準(zhǔn)的典范。博斯特羅姆
等學(xué)者探討了魯棒性作為人工智能倫理問題和人工智能對齊問題的一個(gè)視角,并提出將機(jī)器學(xué)習(xí)模型的魯棒性作為人工智能開發(fā)中的重要因素,以幫助理解人工智能系統(tǒng)如何對外界變化做出反應(yīng),從而提高人工智能的可靠性See Bostrom Nick,Superintelligence: Paths , Dangers , Strategies, Oxford University Press,2014,p. 68.;
喬賓等學(xué)者調(diào)查了全球各個(gè)組織對于人工智能倫理問題的看法和建議,注意到包容性被普遍認(rèn)為應(yīng)當(dāng)成為人工智能倫理標(biāo)準(zhǔn)之一,以保證人工智能技術(shù)滿足不同人群的需求和關(guān)注點(diǎn)。See Anna Jobin, Marcello Ienca amp; Effy Vayena,The Global Landscape of AI Ethics Guidelines, Nature Machine Intelligence, Vol. 1,389-390(2019).《管理辦法》第10條中也有類似規(guī)定:
“提供者應(yīng)當(dāng)明確并公開其服務(wù)的適用人群、場合、用途,指導(dǎo)使用者科學(xué)理性認(rèn)識(shí)和依法使用生成式人工智能技術(shù),采取有效措施防范未成年人用戶過度依賴或者沉迷生成式人工智能服務(wù)?!?/p>
2.法治為生成式人工智能算力的技術(shù)激勵(lì)提供動(dòng)因
法治對生成式人工智能算力技術(shù)轉(zhuǎn)化至關(guān)重要,為生成式人工智能提供規(guī)范的運(yùn)行軌道,為技術(shù)創(chuàng)新提供了制度保障,為技術(shù)的交流合作提供了指引和方向。(1)完善規(guī)則之治。
通過明確的規(guī)則指引,確保技術(shù)應(yīng)用和創(chuàng)新在法治軌道上發(fā)展,同時(shí)應(yīng)對技術(shù)應(yīng)用中可能出現(xiàn)的風(fēng)險(xiǎn),如《個(gè)人信息保護(hù)法》第55條、第56條對信息安全風(fēng)險(xiǎn)影響評估的條件和內(nèi)容進(jìn)行了細(xì)化,為企業(yè)在應(yīng)用生成式人工智能算力時(shí)提供了明確的法律指導(dǎo)。然而,仍需明確風(fēng)險(xiǎn)評估概念以提升法律實(shí)施效果。此外,還需完善安全保障和風(fēng)險(xiǎn)評估義務(wù)規(guī)定,強(qiáng)化契約約束,構(gòu)建公平、透明、可信賴的法治環(huán)境,為技術(shù)持續(xù)創(chuàng)新和健康發(fā)展提供保障。(2)推動(dòng)創(chuàng)新之治。
通過明確的規(guī)則指引,鼓勵(lì)生成式人工智能算力的創(chuàng)新和發(fā)展,為其提供更加廣闊的應(yīng)用場景和市場。《管理辦法》《生成式人工智能服務(wù)安全基本要求(征求意見稿)》
及部分學(xué)者建議稿等,均指出了創(chuàng)新發(fā)展原則,并通過知識(shí)產(chǎn)權(quán)保護(hù)和技術(shù)創(chuàng)新等手段,加強(qiáng)生成式人工智能算力的技術(shù)研究和開發(fā),推動(dòng)其向更高端領(lǐng)域、更復(fù)雜的應(yīng)用場景拓展。(3)促進(jìn)合作之治。
通過明確的規(guī)則指引,
促進(jìn)不同機(jī)構(gòu)之間的合作和交流,形成合力,共同推動(dòng)生成式人工智能算力的技術(shù)轉(zhuǎn)化和應(yīng)用,共同化解技術(shù)風(fēng)險(xiǎn)、市場風(fēng)險(xiǎn)。
3.生成式人工智能關(guān)鍵技術(shù)突破與法治互嵌
第一,生成式人工智能知識(shí)庫構(gòu)建技術(shù)與法治空間的互嵌是為了促進(jìn)法治和技術(shù)的良性發(fā)展。生成式人工智能和DAO平臺(tái)等知識(shí)庫的廣泛應(yīng)用,提高了數(shù)據(jù)收集的精細(xì)化、精準(zhǔn)度和時(shí)效性。通過設(shè)計(jì)“技術(shù)轉(zhuǎn)化+試驗(yàn)改進(jìn)”“探索場景+社會(huì)回應(yīng)”“促進(jìn)激勵(lì)+穩(wěn)健包容”三個(gè)規(guī)范模塊,突破傳統(tǒng)知識(shí)庫的構(gòu)建方式,建立起具有轉(zhuǎn)化、回應(yīng)和促進(jìn)功能司法轉(zhuǎn)化、回應(yīng)、促進(jìn)氣候治理的邏輯,對生成式人工智能技術(shù)轉(zhuǎn)化、回應(yīng)、促進(jìn)數(shù)據(jù)治理具有啟發(fā)價(jià)值。參見朱明哲:《司法如何參與氣候治理——比較法視角下的觀察》,載《政治與法律》2022年第7期,第18-19頁。的生成式人工智能知識(shí)庫。以司法場景為例,可以
借助知識(shí)庫構(gòu)建,強(qiáng)化生成式人工智能介入司法數(shù)據(jù)優(yōu)化治理。為了體現(xiàn)“探索場景+社會(huì)回應(yīng)”“促進(jìn)激勵(lì)+穩(wěn)健包容”,可以通過生成式人工智能,增加具有評論區(qū)功能的知識(shí)庫,增加用戶對話的技術(shù)功能,促進(jìn)公眾參與互動(dòng),探索新的智能社會(huì)實(shí)驗(yàn),形成參與式的法治空間。當(dāng)前,全國各地正在推進(jìn)的開放群島、開源社區(qū)建設(shè),為生成式人工智能知識(shí)庫提供了技術(shù)轉(zhuǎn)化和試驗(yàn)改進(jìn)的新場景,為法治和技術(shù)的融合提供更好的支持和推動(dòng)。
第二,生成式人工智能算法在歧視預(yù)測預(yù)警技術(shù)上的突破與法治價(jià)值的深度融合尤為關(guān)鍵。目前,我們面臨的主要挑戰(zhàn)在于生成式人工智能在預(yù)測預(yù)警算法歧視、算法偏見等現(xiàn)象時(shí),存在預(yù)測效果評估的精準(zhǔn)性不足、風(fēng)險(xiǎn)預(yù)警的時(shí)效性不強(qiáng),以及誤報(bào)、漏報(bào)等問題。為了應(yīng)對這些挑戰(zhàn),應(yīng)當(dāng)研發(fā)針對海量數(shù)據(jù)分析的生成式人工智能算法歧視預(yù)測預(yù)警技術(shù),通過構(gòu)建智能算法歧視風(fēng)險(xiǎn)評估模型智能算法歧視風(fēng)險(xiǎn)評估模型的一個(gè)例證是:2018年,美國職業(yè)足球大聯(lián)盟(MLS)使用了一種名為“Soccer Analytics”(足球分析)的人工智能算法來預(yù)測球員的表現(xiàn)。該算法使用多個(gè)指標(biāo),如速度、力量、技術(shù)等,來計(jì)算每個(gè)球員在比賽中的預(yù)計(jì)表現(xiàn)。然而,有研究表明,這種算法存在性別和種族歧視問題。例如,在對加拿大女子足球隊(duì)進(jìn)行測試時(shí),算法低估了這些運(yùn)動(dòng)員的表現(xiàn)。為了解決這個(gè)問題,研究人員構(gòu)建了一個(gè)智能算法歧視風(fēng)險(xiǎn)評估模型。他們首先對足球數(shù)據(jù)進(jìn)行收集和處理,以消除可能存在的歧視偏差。然后,他們使用機(jī)器學(xué)習(xí)算法訓(xùn)練新的足球分析模型,并在訓(xùn)練過程中嘗試消除歧視性特征。接下來,他們對新模型進(jìn)行了評估,并發(fā)現(xiàn)其性能要優(yōu)于以前的模型。最后,他們提出了一系列改進(jìn)方案,包括收集更多樣化的數(shù)據(jù)、審查和調(diào)整算法參數(shù)等,以避免歧視問題。通過構(gòu)建智能算法歧視風(fēng)險(xiǎn)評估模型,研究人員可以更好地了解算法中的歧視問題,并采取措施來減少或消除這些問題。此外,該模型也有助于促進(jìn)公平和平等的職業(yè)足球機(jī)會(huì),提高足球運(yùn)動(dòng)員在職業(yè)比賽中的表現(xiàn)。See Stark C. et al. , Fairness Perceptions of Algorithmic Decisionmaking:A Systematic Review of the Empirical Literature,Big Data Society,Vol. 9,2021,p.2.,攻克關(guān)鍵技術(shù)難題,實(shí)現(xiàn)對算法歧視行為的精準(zhǔn)預(yù)測和及時(shí)預(yù)警。例如,為了強(qiáng)化對生成式人工智能算法中潛在歧視行為的檢測和監(jiān)管,公平AI聯(lián)盟和美國聯(lián)邦貿(mào)易委員會(huì)曾聯(lián)合發(fā)起“AI并非無罪”的行動(dòng)宣言See Michael Veale, Max Van Kleek amp; Reuben Binns,F(xiàn)airness and Accountability Design Needs for Algorithmic Support in High-Stake Public Secstor Decision-Making,In Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems (CHI’18). Association for Computing Machinery, NY, USA, Paper No. 440,10-12(2018).
,以強(qiáng)化生成式人工智能應(yīng)用的公平性和合規(guī)性。
第三,實(shí)現(xiàn)生成式人工智能產(chǎn)品風(fēng)險(xiǎn)智能識(shí)別應(yīng)用技術(shù)與風(fēng)險(xiǎn)法治的深度融合至關(guān)重要。當(dāng)前,生成式人工智能產(chǎn)品缺乏完善的風(fēng)險(xiǎn)分類分級(jí)和技術(shù)標(biāo)準(zhǔn)體系。例如,ChatGPT在提供法律咨詢和文書撰寫服務(wù)時(shí),就存在知識(shí)幻覺和算法偏見帶來的風(fēng)險(xiǎn),包括錯(cuò)誤解讀法律條款的風(fēng)險(xiǎn)和傳遞不準(zhǔn)確法律信息的風(fēng)險(xiǎn)。因此,需要運(yùn)用自然語言處理和知識(shí)圖譜技術(shù),從侵犯法益角度對風(fēng)險(xiǎn)進(jìn)行分級(jí)分類,研發(fā)風(fēng)險(xiǎn)評估模型,深化風(fēng)險(xiǎn)識(shí)別和評估策略的研究,從而提升風(fēng)險(xiǎn)識(shí)別的效率與準(zhǔn)確性、加強(qiáng)風(fēng)險(xiǎn)防控能力,為生成式人工智能的包容型法治建設(shè)提供技術(shù)保障。
結(jié)語
“三經(jīng)九緯”法治新模式關(guān)注數(shù)據(jù)要素的法律權(quán)屬、市場化,以及生成式人工智能算法原理的可信性及其檢驗(yàn)標(biāo)準(zhǔn)的完善等問題,以在法律框架中融入技術(shù)維度為基本理念。“三經(jīng)九緯”法治新模式直面生成式人工智能在重點(diǎn)應(yīng)用場景、技術(shù)與產(chǎn)品標(biāo)準(zhǔn)、風(fēng)險(xiǎn)等級(jí)識(shí)別與控制體系等方面的制度化與法治化挑戰(zhàn),并試圖針對數(shù)據(jù)法律認(rèn)知模糊、風(fēng)險(xiǎn)標(biāo)準(zhǔn)分級(jí)分類控制技術(shù)體系缺失等問題提出初步解決方案,以促進(jìn)生成式人工智能的健康、有序發(fā)展為目標(biāo)。
ML
A New Model of Rule of Law for Generative Artifical Intelligence Focusing on “Three Longitudinal and Nine Latitudinal Aspects”
XU Juan
(Big Data Rule of Law Research Institute,Nanjing University of Information Science amp; Technology, Nanjing 210044, China)
Abstract:
The new rule of law model of “
three longitudinal" and nine latitudinal aspects” is a richer concept than “regulation theory” in generative artificial intelligence governance. The “thinness” of existing regulations requires the introduction of new rule of law models to solve the real problems and new challenges faced by generative AI, including the improvement of the applicability of laws in the aspects of technical basis, technical application, technical standards, convergentable data algorithms, evaluable credibility, transformable norms, dialogue and negotiation, and the integration between entities. The nine dimensions corresponding to three aspects respectively refer to the dimensions of technical basis, technical application and technical standards, data quality, algorithm optimization and computing facilities, and legal purposes, legal principles and legal rules. In the three aspects of national strategy - industry incubation - legislative norms, through ministerial regulations to transform the needs of the industrial side and improve technical norms, to form an improvement strategy on the path of generative AI governance, including exploring a new mode of response, transformation and improvement, and promoting inclusive rule of law.
Key words:" Generative Artificial Intelligence; New Rule of Law Model; “Three Longitudinal and Nine
Latitudinal Aspects”
本文責(zé)任編輯:董彥斌
青年學(xué)術(shù)編輯:任世丹