陳 兵
內(nèi)容提要:以ChatGPT大規(guī)模模型訓(xùn)練為代表的通用人工智能產(chǎn)業(yè)在創(chuàng)新發(fā)展過程中對社會秩序造成了一定沖擊,存在來自科技倫理、侵權(quán)歸責(zé)、知識產(chǎn)權(quán)壟斷、數(shù)據(jù)安全、算法操控等多方面風(fēng)險挑戰(zhàn),人工智能發(fā)展面臨信任危機。基于此,應(yīng)重視通用人工智能產(chǎn)業(yè)治理,以《生成式人工智能服務(wù)管理暫行辦法》的施行為契機,建立健全生成式人工智能服務(wù)的相關(guān)行為規(guī)范和倫理指南,用系統(tǒng)觀念和法治方法來推動通用人工智能技術(shù)和產(chǎn)業(yè)在我國規(guī)范健康持續(xù)發(fā)展,促進其在“安全、可控、可解釋、可問責(zé)”的基本標(biāo)準(zhǔn)下創(chuàng)新發(fā)展。以問題為導(dǎo)向,以目標(biāo)為牽引,在法治框架下盡快建立健全該領(lǐng)域科技倫理監(jiān)督管理規(guī)范,不斷完善相應(yīng)的侵權(quán)責(zé)任規(guī)范體系,統(tǒng)籌公平競爭與鼓勵創(chuàng)新雙重價值,加強和改進人工智能領(lǐng)域數(shù)據(jù)安全保障制度,重視和強化算法監(jiān)管,實現(xiàn)多領(lǐng)域、多主體、多制度、多工具的協(xié)同聯(lián)動治理。
全球正處在新一輪科技革命和產(chǎn)業(yè)變革的歷史交匯期,繼工業(yè)化、信息化之后,智能化已經(jīng)成為時代強音。①孫偉平、李揚:《論人工智能發(fā)展的倫理原則》,載《哲學(xué)分析》2022年第1期,第6-17頁。在國家數(shù)字經(jīng)濟的政策推動與垂直行業(yè)高質(zhì)量發(fā)展的需求帶動之下,人工智能技術(shù)和產(chǎn)業(yè)一直保持著高速發(fā)展態(tài)勢。隨著技術(shù)創(chuàng)新的日趨活躍與產(chǎn)業(yè)融合的不斷深化,生成式人工智能技術(shù)帶動各類應(yīng)用百花齊放,智能自動化、推薦、搜索、決策等技術(shù)也已與企業(yè)運營、社會服務(wù)等方面深度融合,帶來了巨大的經(jīng)濟和社會效益,在優(yōu)化產(chǎn)業(yè)結(jié)構(gòu)、增強經(jīng)濟韌性、實現(xiàn)經(jīng)濟從高速增長轉(zhuǎn)向高質(zhì)量發(fā)展等方面的重要性越來越突出。②郭艷冰、胡立君:《人工智能、人力資本對產(chǎn)業(yè)結(jié)構(gòu)升級的影響研究——來自中國30個省份的經(jīng)驗證據(jù)》,載《軟科學(xué)》2022年第5期,第21-26頁。
一般而言,人工智能指基于一定信息內(nèi)容的投入實現(xiàn)自主學(xué)習(xí)、決策和執(zhí)行的算法或者機器,其發(fā)展建立在計算機處理能力提高、算法改進以及數(shù)據(jù)量指數(shù)級增長的基礎(chǔ)之上。③曹建峰、方齡曼:《歐盟人工智能倫理與治理的路徑及啟示》,載《人工智能》2019年第4期,第40-48頁。自1956年美國達特茅斯討論會上,約翰·麥卡錫(John McCarthy)首次提出人工智能概念以來,人工智能的發(fā)展并不總是一帆風(fēng)順,其在經(jīng)歷了由機器學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)、互聯(lián)網(wǎng)技術(shù)驅(qū)動的三次繁榮發(fā)展期的同時,也遭遇了計算機算力不足、推理模型陷入瓶頸的兩次低谷期。④姜李丹、薛瀾:《我國新一代人工智能治理的時代挑戰(zhàn)與范式變革》,載《公共管理學(xué)報》2022年第2期,第6-16頁。半個多世紀(jì)來,人工智能從以知識驅(qū)動,到以數(shù)據(jù)驅(qū)動,現(xiàn)發(fā)展到以安全可控為核心的階段。隨著人工智能應(yīng)用的深入和近期GPT-4等技術(shù)的爆火,新一輪生成式人工智能(AIGC)熱潮應(yīng)運而生,也讓人們看到通用人工智能的能力水平,然而在使用過程中,其自身的技術(shù)缺陷以及其帶來的算法黑箱、決策偏見、隱私泄露、數(shù)據(jù)濫用等問題引發(fā)了信任危機。
黨的二十大報告指出,要“完善科技創(chuàng)新體系”“加快實施創(chuàng)新驅(qū)動發(fā)展戰(zhàn)略”“堅持創(chuàng)新在我國現(xiàn)代化建設(shè)全局中的核心地位”“加強知識產(chǎn)權(quán)法治保障,形成支持全面創(chuàng)新的基礎(chǔ)制度”。然而科技創(chuàng)新不只是包含高歌猛進的輝煌成就,通用人工智能是一把雙刃劍,其作為高度智慧化的人工智能形態(tài),帶給人類社會的便捷與風(fēng)險同在,技術(shù)應(yīng)用引發(fā)的信任危機不利于人工智能的進一步創(chuàng)新和發(fā)展。習(xí)近平總書記在主持十九屆中央政治局第九次集體學(xué)習(xí)時明確指出:“要加強人工智能發(fā)展的潛在風(fēng)險研判和防范,維護人民利益和國家安全,確保人工智能安全、可靠、可控?!币虼耍覈诖罅Πl(fā)展人工智能的同時,必須高度重視其帶來的安全挑戰(zhàn),明確安全治理目標(biāo),綜合運用包括法規(guī)政策、標(biāo)準(zhǔn)規(guī)范、技術(shù)支撐在內(nèi)的多項治理措施,實施敏捷治理模式,有效提高我國人工智能安全治理能力,確保人工智能安全健康發(fā)展。
為此,亟需有效審視現(xiàn)有法治與人工智能技術(shù)創(chuàng)新發(fā)展之間的適應(yīng)性。國家互聯(lián)網(wǎng)信息辦公室等七部門聯(lián)合公布的《生成式人工智能服務(wù)管理暫行辦法》(以下簡稱《暫行辦法》)于2023年8月15日起正式施行。從《生成式人工智能服務(wù)管理辦法(征求意見稿)》(以下簡稱《征求意見稿》)到《暫行辦法》正式出臺僅3個月時間,其速度之快體現(xiàn)出我國對支持和規(guī)范人工智能技術(shù)和產(chǎn)業(yè)發(fā)展的積極態(tài)度與重視程度。然而,《暫行辦法》主要聚焦于事前規(guī)制,或者說是預(yù)防性監(jiān)管,對生成式人工智能服務(wù)產(chǎn)生不當(dāng)內(nèi)容后如何解決,并未提供有效辦法。這在一定程度上說明,《暫行辦法》更聚焦于發(fā)展目標(biāo),很多監(jiān)管要求和責(zé)任都是在現(xiàn)有法律法規(guī)基礎(chǔ)上的場景化,即通過立法銜接和對照來規(guī)范生成式人工智能發(fā)展中的具體問題,而對生成式人工智能產(chǎn)品和服務(wù)本身引發(fā)的責(zé)任還需要明確和細(xì)化。譬如,《征求意見稿》第15條曾提出“對于運行中發(fā)現(xiàn)、用戶舉報的不符合本辦法要求的生成內(nèi)容,除采取內(nèi)容過濾等措施外,應(yīng)在3個月內(nèi)通過模型優(yōu)化訓(xùn)練等方式防止再次生成”。這一條在內(nèi)容上是對事后規(guī)制缺失的補足,但是基于需要判斷的內(nèi)容過于復(fù)雜、“3個月”是否為恰當(dāng)整改期限難以確定等因素,該條最終并未寫入《暫行辦法》。事后如何進行規(guī)制需要制度在實際運行一段時間后再予以補充或者另行規(guī)定,抑或是利用現(xiàn)有法律體系來應(yīng)對生成式人工智能服務(wù)法律責(zé)任的認(rèn)定與承擔(dān)。
鑒于此,現(xiàn)階段應(yīng)對通用人工智能創(chuàng)新發(fā)展挑戰(zhàn)的關(guān)鍵在于提供一種兼顧倫理、技術(shù)和法律的治理框架,⑤趙精武:《生成式人工智能應(yīng)用風(fēng)險治理的理論誤區(qū)與路徑轉(zhuǎn)向》,載《荊楚法學(xué)》2023年第3期,第47-58頁。既要尊重科技發(fā)展的規(guī)律,又要符合科技倫理和法律治理的要求與邏輯。然而,從理論研究和實踐現(xiàn)況來看,目前對于通用人工智能治理的研究和實踐尚缺乏針對性、系統(tǒng)性、整體性及長遠(yuǎn)性。亟待以系統(tǒng)科學(xué)的法治方法來保障和推動技術(shù)突破與高水平競爭間的良性循環(huán),實現(xiàn)技術(shù)創(chuàng)新、產(chǎn)業(yè)創(chuàng)新、制度創(chuàng)新、文化創(chuàng)新的融合,推動通用人工智能的創(chuàng)新發(fā)展建設(shè)。對此,本文結(jié)合生成式人工智能這一代表性產(chǎn)品和服務(wù)所引發(fā)的問題,從個性入手探索因應(yīng)通用人工智能創(chuàng)新發(fā)展的法治挑戰(zhàn),從以安全為底線的可解釋性、可控性、可問責(zé)性等要求出發(fā),討論生成式人工智能服務(wù)模型訓(xùn)練中的數(shù)據(jù)、算法、算力等要素支持,擴展至對促進通用人工智能創(chuàng)新發(fā)展的法治保障問題探討,并在此基礎(chǔ)上提出未來促進通用人工智能創(chuàng)新發(fā)展的法治方案,以期豐富該領(lǐng)域的理論研究。
人工智能主要分為專用人工智能和通用人工智能。通用人工智能的概念誕生于1967年,但在ChatGPT和GPT-4等橫空出世之前并未真正引起足夠的重視。專用人工智能,又稱為“狹義人工智能”“弱人工智能”,指被編程來執(zhí)行單一任務(wù)的人工智能,從特定的數(shù)據(jù)集中提取信息,因此無法在設(shè)計任務(wù)之外的場景下運行。專用人工智能有著明顯的特點,即功能性強,而互通性差。但隨著GPT-4大模型的出現(xiàn),其展現(xiàn)出的強大自然語言處理能力,為通用人工智能“大數(shù)據(jù)模型+多場景”的實現(xiàn)開辟了新空間。
通用人工智能(AGI)又稱“強人工智能”“完全人工智能”“深度人工智能”,是具有一般人類智慧,可以像人類一樣擁有智能、學(xué)習(xí)、推理、解決問題和適應(yīng)新環(huán)境的人工智能系統(tǒng),其能夠在不特別編碼知識與應(yīng)用區(qū)域的情況下,對多種甚至泛化問題予以解決的人工智能技術(shù)。若其能夠克服諸如數(shù)據(jù)獲取、算法設(shè)計、計算性能、倫理和法律等多種難題,則可以為解決許多領(lǐng)域的關(guān)鍵問題提供極大幫助,例如醫(yī)療和健康、環(huán)境保護、教育、金融和安全等領(lǐng)域。
雖然迄今為止還沒有出現(xiàn)完全達到通用人工智能水平的技術(shù)產(chǎn)品,但是有學(xué)者認(rèn)為部分生成式人工智能已初步達到通用人工智能的水平⑥Sébastien Bubeck, et al., Sparks of Artificial General Intelligence: Early Experiments with GPT-4, arXiv preprint arXiv:2303.12712.。GPT-3.5所帶來的安全問題已經(jīng)引起人們廣泛重視,由此可知,若出現(xiàn)真正能夠達到通用人工智能標(biāo)準(zhǔn)的技術(shù)產(chǎn)品,其所帶來的安全新問題更不容忽視?;谧灾髦悄?、數(shù)據(jù)依賴性、“算法黑箱”和“難以解釋”等特征,它在技術(shù)內(nèi)生、應(yīng)用衍生、數(shù)據(jù)安全和隱私保護等方面將面臨嚴(yán)峻的安全和倫理挑戰(zhàn),并極可能在國家安全、社會倫理和個人生命財產(chǎn)安全等方面產(chǎn)生更加嚴(yán)重的后果和更加廣泛的影響。因此,如何確保通用人工智能創(chuàng)新發(fā)展對人類社會有益而無害,是人類目前需要面對的巨大挑戰(zhàn),對人工智能治理的研究迫在眉睫。
可信是現(xiàn)階段通用人工智能創(chuàng)新發(fā)展需要遵循的首要原則或“帝王條款”,是人工智能治理政策制定的重點遵循。⑦陳吉棟:《人工智能法的理論體系與核心議題》,載《東方法學(xué)》2023年第1期,第62-78頁。隨著生成式人工智能服務(wù)的出現(xiàn)和人工智能信任危機的發(fā)酵,普通用戶從消費者的角度出發(fā),對人工智能產(chǎn)品的態(tài)度愈發(fā)謹(jǐn)慎;學(xué)者從技術(shù)研究的角度出發(fā),對人工智能模型的自身缺陷所可能引發(fā)的現(xiàn)實應(yīng)用后果產(chǎn)生擔(dān)憂;而企業(yè)從經(jīng)營的角度出發(fā),不得不面對通用人工智能賦能數(shù)字經(jīng)濟時所要解決的用戶信任、技術(shù)隱患及同行競爭等問題。
在此背景下,構(gòu)筑可信人工智能體系已成全球共識。為了提高人工智能的可信性,歐盟曾于2019年8月正式發(fā)布了《可信賴人工智能道德準(zhǔn)則》(Ethics Guidelines for Trustworthy AI)。該準(zhǔn)則概括性地提出了實現(xiàn)可信人工智能全生命周期的框架,并提出了7個可信人工智能的關(guān)鍵要素,即人的治理(人的監(jiān)督),技術(shù)強大性和安全性,隱私和數(shù)據(jù)治理,透明度,多樣性、非歧視性和公平性,社會和環(huán)境福祉,以及問責(zé)。⑧Ethics Guidelines for Trustworthy AI, https://digital-strategy.ec.europa.eu/en/node/1950/printable/pdf, 2023年5月7日訪問。
2019年2月,美國國家科技政策辦公室發(fā)布了時任總統(tǒng)簽署的《美國人工智能倡議》(American AI Initiative)。該倡議將可信人工智能定義為具有“準(zhǔn)確性、可解釋性、隱私性、可靠性、穩(wěn)健性、安全性”等特征的人工智能。⑨American AI Initiative, https://nsarchive.gwu.edu/document/18392-national-security-archive-white-house, 2023年5月7日訪問。經(jīng)濟合作與發(fā)展組織(OECD)發(fā)布的《確定OECD的人工智能發(fā)展原則》將可信人工智能的特征定義為:尊重人權(quán)和民主價值觀,為包容性增長制定標(biāo)準(zhǔn),以人為本的價值觀和公平性,透明度和可解釋性,穩(wěn)健性、安全性,以及問責(zé)制。⑩OECD, AI Policy Observatory, https://www.oecd.org/digital/artificial-intelligence/, 2023年5月7日訪問。
在我國,中國工程院院士何積豐于2017年11月在香山科學(xué)會議上首次提出了“可信人工智能”的概念;?第一財經(jīng)資訊:《專訪何積豐院士:達成可信的人工智能,最重要的支點在人》,載騰訊網(wǎng)2021年7月16日,khttps://view.inews.qq.com/k/20210716A07WBI00?web_channel=wap&openApp=false.同年12月,工業(yè)和信息化部發(fā)布了《促進新一代人工智能產(chǎn)業(yè)發(fā)展三年行動計劃(2018—2020年)》。2019年6月,我國新一代人工智能治理專業(yè)委員會發(fā)布的《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》提出了人工智能治理的框架和行動指南。2020年6月,螞蟻集團在全球人工智能大會上首次公布了可信人工智能技術(shù)架構(gòu)體系;2021年7月,京東探索研究院與中國信息通信研究院聯(lián)合在世界人工智能大會上發(fā)布了中國首個《可信人工智能白皮書》。兩家企業(yè)都將隱私保護、穩(wěn)定性、可解釋性、公平性作為可信人工智能的四大基本原則。
綜上,盡管國際各界對可信人工智能的具體定義略有不同,但其核心的原則都包括了穩(wěn)定性、可解釋性、隱私保護和公平性等基本技術(shù)原則。穩(wěn)定性、可解釋性、公平性和隱私保護構(gòu)成了可信人工智能的基礎(chǔ)。其中,穩(wěn)定性指人工智能可以在存在各類環(huán)境噪聲以及惡意攻擊的情況下作出正確決策的能力,可解釋性是指人工智能作出的決策需要讓人能夠理解,隱私保護指人工智能系統(tǒng)保護個人或群體隱私不被泄露的能力,公平性指人工智能系統(tǒng)需要包容人的個體差異,公平對待不同群體。
通用人工智能創(chuàng)新發(fā)展的安全底線,主要包含人、技術(shù)、信任三個要素。其中技術(shù)是支撐通用人工智能產(chǎn)業(yè)蓬勃興起和行穩(wěn)致遠(yuǎn)的基石,信任是促進通用人工智能行業(yè)規(guī)范持續(xù)健康發(fā)展的支柱,人是可信人工智能法律政策的核心保護對象,以人為本是通用人工智能創(chuàng)新發(fā)展的基本遵循。實際上,信任問題并不完全取決于人工智能開發(fā)與應(yīng)用的底層邏輯,還取決于法律對人工智能技術(shù)的理解與掌控程度。對通用人工智能除了呼吁技術(shù)發(fā)展以人為本,更需要從人工智能技術(shù)本身出發(fā),強調(diào)提升人工智能算法與模型的可解釋性。所以,從以人為本的角度看,有意愿去推動通用人工智能的安全發(fā)展,只是解決用戶信任問題的第一步。問題的關(guān)鍵,還是在于能否從法律規(guī)范層面實現(xiàn)人工智能的可信性,促進其以人為本。
放眼全球,在各國的人工智能政策中,都強調(diào)了以人為本這一基本原則。2018年5月,具有史上最嚴(yán)格隱私和數(shù)據(jù)保護法之稱的歐盟《通用數(shù)據(jù)保護條例》(以下簡稱GDPR)正式生效。此后法國數(shù)據(jù)保護當(dāng)局(CNIL)以違反GDPR為由,對谷歌處以創(chuàng)紀(jì)錄的5000萬歐元罰款,為應(yīng)用人工智能等技術(shù)賦能經(jīng)濟的全球企業(yè)打響了警告槍。?Allison Schiff, France Slaps Google with 50 Million Euro Fine - Largest Yet Under GDPR, adexchanger (21 January 2019),https://www.adexchanger.com/privacy/france-slaps-google-with-50-million-euro-fine-largest-yet-under-gdpr/.
近年來,我國為促進通用人工智能踐行以人為本已經(jīng)進行了諸多路徑的法律探索和實踐。立法方面,上海市曾于2021年12月、2022年9月和2022年11月先后發(fā)布《上海市智能網(wǎng)聯(lián)汽車測試與應(yīng)用管理辦法》《上海市促進人工智能產(chǎn)業(yè)發(fā)展條例》和《上海市浦東新區(qū)促進無駕駛?cè)酥悄芫W(wǎng)聯(lián)汽車創(chuàng)新應(yīng)用規(guī)定》,強調(diào)人工智能算法可信、倫理道德、治理與監(jiān)管等方面,并針對智能網(wǎng)聯(lián)汽車領(lǐng)域技術(shù)標(biāo)準(zhǔn)、數(shù)據(jù)安全與個人信息保護作了詳細(xì)規(guī)定。
此外,《上海市促進人工智能產(chǎn)業(yè)發(fā)展條例》明確,上海市人民政府設(shè)立“上海市人工智能戰(zhàn)略咨詢專家委員會”,其職能在于能夠為人工智能發(fā)展中的重大戰(zhàn)略、重大決策提供咨詢意見,同時設(shè)立“人工智能倫理專家委員會”,負(fù)責(zé)制定倫理規(guī)范指南、推動參與國內(nèi)外人工智能領(lǐng)域倫理重大問題研討和規(guī)范制定。
2021年7月,上海市經(jīng)濟和信息化委員會、上海市市場監(jiān)督管理局印發(fā)《關(guān)于推進本市新一代人工智能標(biāo)準(zhǔn)體系建設(shè)的指導(dǎo)意見》(以下簡稱《意見》)。測試評估方面,《意見》圍繞智能網(wǎng)聯(lián)汽車、醫(yī)療影像輔助診斷、視覺圖像身份識別、智能傳感器等賽道,加快構(gòu)建完善可信人工智能評測體系,同時針對測試評估建立共性標(biāo)準(zhǔn);安全倫理方面,《意見》提出加強安全倫理標(biāo)準(zhǔn)對人工智能發(fā)展的引導(dǎo)和規(guī)范,提升安全保障能力,建立積極的治理規(guī)則,從安全與隱私保護規(guī)范和應(yīng)用場景安全規(guī)范兩大模塊強化標(biāo)準(zhǔn)研制,并建立安全風(fēng)險等級體系。
隨著社會認(rèn)知的深入,保障通用人工智能創(chuàng)新發(fā)展的參與主體將進一步豐富,產(chǎn)業(yè)鏈多主體、多要素協(xié)調(diào)互動。依據(jù)《網(wǎng)絡(luò)安全法》《數(shù)據(jù)安全法》《個人信息保護法》等法律法規(guī)框架,深圳、上海、北京等地加快推動人工智能立法,建立公共場所人工智能分級分類應(yīng)用規(guī)范,形成具有地方特色的人工智能治理體系。行業(yè)協(xié)會、聯(lián)盟和研究機構(gòu)發(fā)揮積極作用,聯(lián)合行業(yè)企業(yè)圍繞先行領(lǐng)域制定和發(fā)布行業(yè)標(biāo)準(zhǔn),在安全性、可靠性等領(lǐng)域已經(jīng)取得了一些成果可為通用人工智能朝著以人為本的方向發(fā)展提供參考?!叭四樧R別第一案”?郭兵與杭州野生動物世界有限公司服務(wù)合同糾紛案,浙江省杭州市富陽區(qū)人民法院民事判決書(2019)浙0111民初6971號。等具體案件引發(fā)了廣泛的社會關(guān)注,人民群眾對人工智能的了解和需求增加,參與程度大幅提升,從需求層面倒逼通用人工智能朝著以人為本的方向發(fā)展。
科學(xué)技術(shù)是第一生產(chǎn)力,科學(xué)技術(shù)的進步是促進行業(yè)發(fā)展不可缺少的原動力。隨著生成式人工智能等人工智能技術(shù)的創(chuàng)新發(fā)展,人們一方面發(fā)現(xiàn)人工智能技術(shù)具有無限可能性,可以完成一些人們未曾想象能夠完成的任務(wù);另一方面也意識到,與一般信息系統(tǒng)相比,人工智能安全挑戰(zhàn)可能帶來更加嚴(yán)重、廣泛和復(fù)雜的后果。
首先,通用人工智能安全事件不僅會影響設(shè)備和數(shù)據(jù)的安全,還可能導(dǎo)致產(chǎn)生嚴(yán)重的生產(chǎn)事故,危害人類生命安全。例如,給患者看病和做手術(shù)的醫(yī)療機器人,如果因為程序漏洞出現(xiàn)安全問題,可能直接危及患者性命。其次,一旦人工智能被應(yīng)用于國防、金融、工業(yè)等領(lǐng)域,出現(xiàn)安全事件,將影響國家安全、政治安全以及社會穩(wěn)定。最后,人工智能安全挑戰(zhàn)還會引起更加復(fù)雜的倫理道德問題,對于此類問題目前尚無好的解決方案。例如,生成式人工智能服務(wù)產(chǎn)品客觀上存在一定的技術(shù)缺陷,其太過依賴訓(xùn)練數(shù)據(jù)中的統(tǒng)計規(guī)律,無法在網(wǎng)絡(luò)上抓取時事信息,也無法識別并核實數(shù)據(jù)來源,易導(dǎo)致算法歧視、霸凌、信息繭房等問題。
總之,人工智能技術(shù)發(fā)展和深度融合應(yīng)用帶來的安全挑戰(zhàn)日益復(fù)雜。以生成式人工智能為例,其生成的內(nèi)容難辨真假,且在運行中會采集我們使用過程中提供的大量數(shù)據(jù)。其應(yīng)用實踐中出現(xiàn)了許多由不公平的設(shè)計、不穩(wěn)定的模型結(jié)論與侵犯隱私等問題所引起的用戶信任危機,當(dāng)中所牽涉的企業(yè)與用戶數(shù)量廣泛。生成式人工智能技術(shù)所帶來的便利與技術(shù)得不到信任之間的矛盾,已然成為人工智能發(fā)展創(chuàng)新中亟待解決的問題,其應(yīng)用產(chǎn)生的風(fēng)險主要包括以下幾個方面。
開展科學(xué)研究、技術(shù)創(chuàng)新等科技活動不能脫離科技倫理的規(guī)范,這是促進科技事業(yè)健康發(fā)展的重要保障。當(dāng)前,人工智能飛速發(fā)展帶來的日益增多的科技倫理挑戰(zhàn),使人們意識到現(xiàn)有的科技倫理體系已經(jīng)難以適應(yīng)創(chuàng)新發(fā)展的現(xiàn)實需要。在應(yīng)對生成式人工智能技術(shù)發(fā)展的同時,我們需要明確,隨著通用人工智能的出現(xiàn),倫理是人類固有的而非技術(shù)固有的這一傳統(tǒng)觀念也許會發(fā)生變化。
目前,生成式人工智能服務(wù)可以生成文本、圖像、音視頻等內(nèi)容,應(yīng)用領(lǐng)域極為廣泛。然而針對其使用并沒有建立相應(yīng)的技術(shù)使用規(guī)范,極易產(chǎn)生違反倫理道德的風(fēng)險,從而引發(fā)人們對生成式人工智能服務(wù)技術(shù)應(yīng)用的不信任。尤其是在由弱人工智能向強人工智能過渡的階段,人工智能的自主性不斷加強,傳統(tǒng)的倫理框架及人類的思維本質(zhì)將因此面臨空前的挑戰(zhàn)。
生成式人工智能服務(wù)在新聞報道、論文撰寫等方面的能力極為突出,與此相生的便是該技術(shù)淪為部分使用者制造謠言和偽造論文的工具。學(xué)術(shù)刊物《自然》(Nature)曾多次刊發(fā)關(guān)于ChatGPT的分析文章,對ChatGPT等大型語言模型(LLMs)給學(xué)術(shù)界帶來的潛在混亂,生成內(nèi)容存在的潛在侵權(quán)風(fēng)險,以及如何規(guī)范使用等問題進行了多方面多維度的探討?See Chris Stokel-Walker & Richard Van Noorden, What ChatGPT and Generative AI Mean for Science, Nature, 614 (7947):214-216 (Feb.2023).。在此背景下,構(gòu)建系統(tǒng)性的價值理念和行為規(guī)范,對于明晰如何使用生成式人工智能至關(guān)重要。上述內(nèi)容不明確將直接導(dǎo)致學(xué)術(shù)規(guī)范問題、虛假信息和謠言傳播等科技倫理問題頻發(fā),從而引發(fā)人們對人工智能的不信任,甚至?xí)⑦@種不信任帶到未使用人工智能技術(shù)的情形中?陳兵、林思宇:《正視人工智能信任危機 加快推進可信AIGC發(fā)展》,載《第一財經(jīng)日報》2023年4月25日,第A11版。。
除此以外,生成式人工智能服務(wù)通過數(shù)據(jù)和算法給予的答復(fù)也具有不確定性。答復(fù)內(nèi)容是否符合一定的價值理念很大程度上取決于訓(xùn)練數(shù)據(jù)的質(zhì)量和算法的合規(guī)程度,因此在源頭上,通過提高數(shù)據(jù)質(zhì)量,力促算法合規(guī)能夠使生成式人工智能所產(chǎn)生的內(nèi)容本身盡可能地不違反現(xiàn)有的倫理體系。另一方面,隨著生成式人工智能的不斷迭代,部分生成式人工智能等技術(shù)已被認(rèn)為初步達到了通用人工智能的水平,能夠擁有更接近人類的智慧水平。在此類生成式人工智能發(fā)展到一定程度后是否會自主擁有與人類相似的倫理觀念這一問題引人深思。為應(yīng)對此種情況,有學(xué)者提出將人因工程理念(Human Factors Engineering,HFE)引入通用人工智能研發(fā)設(shè)計之中,因為伴隨技術(shù)不斷進步,通用人工智能會越來越接近人類,其接近甚至超越人類的學(xué)習(xí)能力,將人因工程理念嵌入人工智能生命周期的始終能夠盡可能實現(xiàn)諸如高階生成式人工智能等通用人工智能朝著安全、可信、可控等方向發(fā)展。?Paul M.Salmon, et al., Managing the Risks of Artificial General Intelligence: A Human Factors and Ergonomics Perspective,33 Human Factors and Ergonomics in Manufacturing & Service Industries 355, 355-429 (2023).
隨著人工智能向強人工智能時代邁進,其通用屬性不斷增強,人類極有可能難以掌控甚至難以參與智能生產(chǎn)的過程,科技倫理的規(guī)范也將愈發(fā)重要。
近年來,谷歌、特斯拉和Uber等公司頻現(xiàn)無人駕駛致人死亡事件,使得人與人工智能誰該為此擔(dān)責(zé)的倫理爭論愈演愈烈。對于無人駕駛引發(fā)的法律責(zé)任承擔(dān)困境,美國麻省理工學(xué)院曾進行“道德機器”測試,收集全世界范圍內(nèi)的數(shù)據(jù)樣本,“訓(xùn)練”無人駕駛汽車的人工智能系統(tǒng)對駕駛過程中不常見的情形作出判斷,判斷的結(jié)果也就成為了無人駕駛的行動依據(jù)。這些行為導(dǎo)致的責(zé)任劃分則變得更加難以明確。因此,如果權(quán)責(zé)劃分在事前并不明確,則有可能致使人工智能產(chǎn)品朝著脫離社會倫理、法律規(guī)范的方向發(fā)展,并對經(jīng)濟社會秩序產(chǎn)生危害。
一方面,人工智能領(lǐng)域的法律規(guī)范、倫理道德尚未健全,引發(fā)了許多侵權(quán)事件。在美國,莎拉·安德森(Sarah Andersen)、凱利·麥克南(Kelly McKernan)和卡拉·奧爾蒂斯(Karla Ortiz)三位藝術(shù)家對Stability AI和Midjourney等人工智能公司和平臺提起訴訟,認(rèn)為其在訓(xùn)練中所抓取的數(shù)據(jù)侵犯了數(shù)百萬藝術(shù)家的版權(quán)。雖然該案法官威廉·奧里克(William Orrick)在聽證會上表達了駁回該訴訟的傾向,但也表明這些藝術(shù)家可以在搜集更多證據(jù)后重新起訴。?Andersen, et al.v.Stability AI Ltd., et al., Docket No.3:23-cv-00201 (N.D.Cal.Jan.13, 2023).當(dāng)侵權(quán)事件發(fā)生后,如何確定承擔(dān)侵權(quán)責(zé)任的主體、正確劃分侵權(quán)責(zé)任,成為了難題?!柏?zé)任鴻溝”是安德利亞斯·馬提亞在2004年提出的概念,所指的是算法的設(shè)計者和運營者在算法自主學(xué)習(xí)過程中未能預(yù)測未來及其運行產(chǎn)生的后果,也就是說人對機器的行動并沒有足夠的控制權(quán),因此無法要求其承擔(dān)傳統(tǒng)的機器制造者和操作者的過錯責(zé)任。?Andreas Matthias, The Responsibility Gap: Ascribing Responsibility for the Actions of Learning Automata, 6 Ethics and Information Technology 175, 175-183 (2004).
另一方面,生成式人工智能技術(shù)具有“普惠性”,使用門檻和使用成本并不高,廣大人群普遍能夠接觸并使用該技術(shù),這在一定程度上也提升了發(fā)生侵權(quán)事故的風(fēng)險。以傳播謠言為例,利用人工智能制造虛假信息和謠言輕而易舉,部分用戶為增長流量故意傳播、制造虛假信息和謠言,會增加虛假信息傳播的頻率?同注釋?。。
在生成式人工智能服務(wù)應(yīng)用情境下,人工智能的自主性增強,同時需要根據(jù)外部反饋進行生成內(nèi)容的優(yōu)化,再不斷輸出生成內(nèi)容,傳統(tǒng)法律法規(guī)中的因果關(guān)系判斷在隱層眾多的算法黑箱中難以實現(xiàn),面臨著規(guī)制不能的困境。這也加大了侵權(quán)事件發(fā)生后,救濟與維權(quán)的難度,在使用生成式人工智能服務(wù)的過程中,用戶權(quán)益難以得到有效保護,從而加劇了公眾對人工智能的不信任。
《暫行辦法》規(guī)定,提供者應(yīng)當(dāng)依法承擔(dān)網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者責(zé)任,履行網(wǎng)絡(luò)信息安全義務(wù)。涉及個人信息的,依法承擔(dān)個人信息處理者責(zé)任,履行個人信息保護義務(wù)。這初步確立了人工智能領(lǐng)域責(zé)任承擔(dān)的基本規(guī)則,為后續(xù)規(guī)則的制定與實施提供了依據(jù)。然而,生成式人工智能在算法研發(fā)環(huán)節(jié)、使用環(huán)節(jié)的不當(dāng),同樣會產(chǎn)生侵權(quán)責(zé)任,此時若仍由服務(wù)提供者承擔(dān)責(zé)任顯然會損害服務(wù)提供者的積極性,應(yīng)當(dāng)建立合適的歸責(zé)制度。
創(chuàng)新是引領(lǐng)發(fā)展的第一動力,在推動高質(zhì)量發(fā)展的背景下,知識產(chǎn)權(quán)作為國家發(fā)展戰(zhàn)略國際競爭核心要素的作用日益凸顯。隨著生成式人工智能服務(wù)的廣泛應(yīng)用,人工智能大模型的訓(xùn)練數(shù)據(jù)來源是否合法,其生成式內(nèi)容是否能夠被稱之為作品以及相關(guān)權(quán)屬爭議,正成為人們關(guān)切的問題。
首先,生成式人工智能本身作為計算機程序能夠被視為知識產(chǎn)權(quán)所保護的對象已經(jīng)成為人們的共識,但是對于實現(xiàn)其功能背后的海量數(shù)據(jù)訓(xùn)練所涉及的知識產(chǎn)權(quán)問題仍存較大爭議?!稌盒修k法》第7條規(guī)定,“生成式人工智能服務(wù)提供者(以下稱提供者)應(yīng)當(dāng)依法開展預(yù)訓(xùn)練、優(yōu)化訓(xùn)練等訓(xùn)練數(shù)據(jù)處理活動,遵守以下規(guī)定:……(二)涉及知識產(chǎn)權(quán)的,不得侵害他人依法享有的知識產(chǎn)權(quán)……”在此種情況下,數(shù)據(jù)來源的合法合規(guī)性值得重視,如何平衡數(shù)據(jù)中的知識產(chǎn)權(quán)保護與技術(shù)創(chuàng)新發(fā)展同樣值得討論。數(shù)據(jù)中的知識產(chǎn)權(quán)保護界限缺失或界定不明晰很容易引發(fā)“公地悲劇”,但如果過于強調(diào)數(shù)據(jù)的知識產(chǎn)權(quán)保護則會阻礙相關(guān)技術(shù)的發(fā)展,“反公地悲劇”也難以避免。?彭輝:《數(shù)據(jù)權(quán)屬的邏輯結(jié)構(gòu)與賦權(quán)邊界——基于“公地悲劇”和“反公地悲劇”的視角》,載《比較法研究》2022年第1期,第105-119頁。
具體而言,對于如何平衡數(shù)據(jù)知識產(chǎn)權(quán)保護與技術(shù)開發(fā)創(chuàng)新發(fā)展,學(xué)界仍有較大分歧,其中,涉及生成式人工智能訓(xùn)練所需的海量數(shù)據(jù)集的版權(quán)保護問題尤為值得關(guān)注,譬如傳統(tǒng)的“避風(fēng)港”原則、合理使用原則等,在人工智能特別是在生成式等通用人工智能技術(shù)和產(chǎn)品的開發(fā)利用中如何調(diào)適。在我國現(xiàn)有著作權(quán)法律法規(guī)中,生成式人工智能對數(shù)據(jù)的使用是否構(gòu)成知識產(chǎn)權(quán)侵權(quán)的最大問題在于使用行為是否屬于“合理使用”。目前我國關(guān)于合理使用的規(guī)定中,與生成式人工智能技術(shù)領(lǐng)域最為接近的情形大致有“個人使用”“適當(dāng)引用”和“科學(xué)研究”三種情形。結(jié)合該技術(shù)的服務(wù)群體為多數(shù)不確定人群、商業(yè)化使用等顯著特點,現(xiàn)行法律很難將其使用歸入“合理使用”范疇之中,依賴海量數(shù)據(jù)進行訓(xùn)練的生成式人工智能等技術(shù)很難擺脫侵權(quán)的風(fēng)險,而一旦嚴(yán)格地按侵權(quán)處理則會阻礙該技術(shù)的創(chuàng)新。這是數(shù)據(jù)來源方面知識產(chǎn)權(quán)與技術(shù)創(chuàng)新之間平衡的難點之一。
其次,關(guān)于生成式人工智能的生成內(nèi)容是否能夠被認(rèn)定為作品存在較大的爭議。生成式人工智能生成內(nèi)容的過程,很難擺脫人的影響。生成式人工智能首先建立在大量數(shù)據(jù)訓(xùn)練的基礎(chǔ)上,根據(jù)使用者需求生成內(nèi)容,并根據(jù)使用者的要求對內(nèi)容不斷完善,因此很難認(rèn)定其生成的內(nèi)容完全由人工智能自主生成,故引發(fā)了生成內(nèi)容是否能被認(rèn)定為作品的爭議。有學(xué)者認(rèn)為,著作權(quán)法保護意義上的作品須具備相應(yīng)條件,生成式人工智能是模擬人類思維進行新創(chuàng)作的整體過程,其生成內(nèi)容并不是人類的智力成果,并不包含思想或者情感的表達。但是,在實踐中也有少數(shù)國家將計算機技術(shù)創(chuàng)造的內(nèi)容視為作品,例如英國《版權(quán)、外觀設(shè)計和專利法》?? Copyright, Designs and Patents Act (1988), Article 9 (3).(CDPA)第9(3)條規(guī)定:“對于由計算機生成的文學(xué)、戲劇、音樂或者藝術(shù)作品,其作者應(yīng)該是作出了進行作品創(chuàng)作所必需的安排的個人?!庇ㄟ^立法的方式明確規(guī)定計算機所生成的內(nèi)容為知識產(chǎn)權(quán)所保護的作品,不少國家也在實踐中將計算機生成之外的非人類活動的產(chǎn)物視為作品,所以人工智能生成的內(nèi)容不能視為作品的傳統(tǒng)觀點可能也將得到改變。
另外,《暫行辦法》規(guī)定了提供和使用生成式人工智能應(yīng)“尊重知識產(chǎn)權(quán)”。結(jié)合上下條文分析可知,立法者試圖通過在數(shù)據(jù)訓(xùn)練等源頭環(huán)節(jié)解決知識產(chǎn)權(quán)問題,以此謀求生成內(nèi)容不再有任何知識產(chǎn)權(quán)侵權(quán)等問題發(fā)生,但是這樣的規(guī)制思路似乎難以奏效。首先,對于用于數(shù)據(jù)訓(xùn)練等源頭環(huán)節(jié)的數(shù)據(jù)使用侵權(quán)問題,在實踐和學(xué)界中仍存較大爭議,侵權(quán)行為難以定性。其次,即使能夠保證源頭環(huán)節(jié)的數(shù)據(jù)使用不存在任何知識產(chǎn)權(quán)問題,提供者也不能夠保證生成內(nèi)容一定不存在所謂的“知識產(chǎn)權(quán)侵權(quán)”情形。當(dāng)然,討論生成內(nèi)容是否侵權(quán)的前提是該內(nèi)容能夠被認(rèn)作為作品,并且有相應(yīng)的權(quán)利人。
關(guān)于生成式人工智能生成內(nèi)容的權(quán)屬爭議問題,雖然沒有統(tǒng)一的觀點,但是人工智能本身不能成為作品的權(quán)利人已成為多數(shù)學(xué)者的共識。在美國“猴子自拍照”著作權(quán)爭議案中,一只猴子使用攝影師的相機自拍,有動物權(quán)益保護組織認(rèn)為,自拍照版權(quán)應(yīng)當(dāng)歸猴子所有。對此,美國聯(lián)邦法院則認(rèn)為美國版權(quán)法中的作者概念僅指向“人”,并不包含動物,因此版權(quán)法意義上的作品也必須是“人”的創(chuàng)作成果,猴子無法自行持有這些圖像的著作權(quán)。該案表明美國版權(quán)法不承認(rèn)非自然人享有著作權(quán)等權(quán)益,故屬于非人范圍的人工智能也不享有著作權(quán)。英國法也沒有把計算機生成作品的權(quán)利賦予計算機本身,而是將其歸于某一個自然人主體。我國《著作權(quán)法》第2條規(guī)定,中國公民、法人或者非法人組織的作品,不論是否發(fā)表,依照本法享有著作權(quán)。可見,目前我國也并未將人工智能視為著作權(quán)的主體。
我國的數(shù)據(jù)要素蘊涵巨大的潛在價值,若數(shù)據(jù)要素的價值能得到充分釋放,遵循“潛在價值—價值創(chuàng)造—價值實現(xiàn)”的演進形態(tài),必將對社會經(jīng)濟發(fā)展起到重要推動作用。?? 陳兵:《科學(xué)構(gòu)建數(shù)據(jù)要素交易制度》,載《人民論壇·學(xué)術(shù)前沿》2023年第6期,第68-80頁。在生成式人工智能技術(shù)中,數(shù)據(jù)安全風(fēng)險大致可以分為兩類:一是訓(xùn)練數(shù)據(jù)本身的內(nèi)在安全風(fēng)險,二是數(shù)據(jù)采集、使用等過程中的安全風(fēng)險。
以生成式人工智能的數(shù)據(jù)大模型訓(xùn)練為例,其訓(xùn)練的結(jié)果直接依賴于輸入的數(shù)據(jù),形成前所未有的數(shù)據(jù)匯聚。然而受數(shù)據(jù)采集條件的限制,來源于不同群體的數(shù)據(jù)所占的比例并不均衡,例如當(dāng)下訓(xùn)練語料大多是英文和中文,其他少數(shù)語種很難融入人工智能世界當(dāng)中,具有一定的局限性?!稌盒修k法》提到“鼓勵采用安全可信的芯片、軟件、工具、算力和數(shù)據(jù)資源”,其中安全可信的數(shù)據(jù)資源便是針對生成式人工智能的技術(shù)特點。由于訓(xùn)練數(shù)據(jù)的質(zhì)量會直接影響生成式人工智能的生成內(nèi)容質(zhì)量,有違倫理等要素的數(shù)據(jù)此時就可被稱為具有安全風(fēng)險的數(shù)據(jù),該數(shù)據(jù)資源便不符合安全可信的要求。
除此以外,生成式人工智能的數(shù)據(jù)采集和使用過程也極易產(chǎn)生數(shù)據(jù)安全問題。數(shù)據(jù)泄露是信任危機誕生的主要來源,而巨大規(guī)模的參數(shù)是實現(xiàn)生成式人工智能服務(wù)技術(shù)的關(guān)鍵,目前GPT-4的訓(xùn)練數(shù)據(jù)量已達到13萬億。雖然目前主流的生成式人工智能技術(shù)服務(wù)提供者并沒有公布數(shù)據(jù)來源,但通過現(xiàn)有的披露信息可知這些數(shù)據(jù)主要使用的是公共爬蟲數(shù)據(jù)集和有著超過萬億單詞的人類語言數(shù)據(jù)集。某種程度上,生成式人工智能服務(wù)技術(shù)是未來超級數(shù)字助理的雛形,在智能基礎(chǔ)設(shè)施的支持之下,每個人甚至可以擁有多個數(shù)字分身,協(xié)同完成任務(wù)??梢韵胍?,數(shù)字助理的背后是大語言模型訪問、鏈接個人以及企業(yè)的私有數(shù)據(jù),數(shù)據(jù)的融合利用一定是無縫銜接的。此類數(shù)據(jù)的訪問處理如何以安全、合規(guī)、保護隱私的方式進行,對安全技術(shù)保障措施提出了更高要求。
隨著互聯(lián)網(wǎng)技術(shù)的發(fā)展,個人信息數(shù)量劇增,同時也變得更容易被采集。通過使用社交軟件、購物軟件以及交通軟件,用戶信息便可被輕易采集,而在智能設(shè)備使用過程中,諸如用戶生理信息、生物特征等更多種類的數(shù)據(jù)也可被獲取,多維度多方面的數(shù)據(jù)足以形成個人畫像,一旦泄露或被非法利用將對個人權(quán)益造成損害。最近爆火的圖像生成式人工智能軟件“妙鴨相機”顯露出的霸王條款問題,已引起人們對人臉信息保護的關(guān)注?!懊铠喯鄼C”不同于ChatGPT等人工智能,其主要數(shù)據(jù)來源是用戶提供的二十一張照片,涉及預(yù)訓(xùn)練的數(shù)據(jù)僅占很少部分。起初,“妙鴨相機”在使用條款中表述其對用戶數(shù)據(jù)享有“永久的、不可撤銷的、可轉(zhuǎn)讓的……非獨家的許可,使得我方可以任何形式……使用您的內(nèi)容”,一系列表述立即引起用戶普遍不滿。隨著輿論的壓力,提供者不得不對相關(guān)條款進行修改。事后,也有相關(guān)業(yè)內(nèi)人士表示,此類人工智能不僅能夠按照用戶意圖生成不同風(fēng)格的圖片,甚至可以生成能夠通過公安系統(tǒng)審核的證件照片。
2023年8月8日國家互聯(lián)網(wǎng)信息辦公室公布的《人臉識別技術(shù)應(yīng)用安全管理規(guī)定(試行)(征求意見稿)》對人臉識別技術(shù)進行了規(guī)制。目前,雖然市面上諸如“妙鴨相機”之類的圖像生成式人工智能軟件公司都明確表示該技術(shù)不具備人臉識別功能,但是此類人工智能所涉及的人臉信息處理技術(shù),已然對現(xiàn)有人臉識別技術(shù)應(yīng)用和人臉信息數(shù)據(jù)安全構(gòu)成潛在威脅。以公安系統(tǒng)的人像信息采集為例,證件照本就是識別居民個人信息的重要手段,公安機關(guān)利用算法對人臉信息的關(guān)鍵特征進行甄別,最終研判出相關(guān)個人信息。而圖像生成式人工智能則是通過算法生成不同狀態(tài)、風(fēng)格甚至不同年齡階段的照片,即在用戶提供的圖像基礎(chǔ)之上生成現(xiàn)實生活中“未曾存在”的照片,并且有可能使這些生成的證件照通過公安系統(tǒng)審核。此種情況下,由于人工智能也會采用獨特的算法對用戶照片予以調(diào)整,并且存在模糊用戶人臉特征信息的可能,這些生成照片會對數(shù)據(jù)的真實性構(gòu)成威脅,致使人臉識別技術(shù)發(fā)揮不了人臉識別的功能。該類技術(shù)的應(yīng)用可能出現(xiàn)用算法打敗算法的情況,倘若該類圖像充斥公安等部門的數(shù)據(jù)系統(tǒng),將對公共安全、國家安全產(chǎn)生不可逆的損害。
可見,即使在服務(wù)運營商承諾對數(shù)據(jù)進行嚴(yán)格保護的情況下,數(shù)據(jù)安全問題依舊難以完全避免。數(shù)據(jù)安全是人工智能技術(shù)獲取人們信任的關(guān)鍵,倘若這一問題得不到解決,將阻礙人工智能的發(fā)展和應(yīng)用。數(shù)據(jù)、算法和算力被譽為人工智能發(fā)展的三駕馬車,隨著用戶對隱私數(shù)據(jù)的保護意識加強、數(shù)據(jù)泄露所帶來的風(fēng)險加大,如何在數(shù)據(jù)保護與數(shù)據(jù)驅(qū)動的人工智能研究中謀求兩全之策,是通用人工智能創(chuàng)新發(fā)展過程中亟待研究問題之一。
人工智能時代,除了嚴(yán)峻的數(shù)據(jù)安全問題之外,算法的統(tǒng)計性質(zhì)所帶來的不可控性、人工智能系統(tǒng)的自主學(xué)習(xí)性與深度學(xué)習(xí)黑匣子模型的不可解釋性,也成為了導(dǎo)致用戶信任危機的新要素。
著眼技術(shù)研發(fā)層面,實現(xiàn)通用人工智能創(chuàng)新發(fā)展的技術(shù)途徑主要是數(shù)據(jù)與算法兩個方面。如前所述,數(shù)據(jù)問題主要集中在隱私保護和安全、數(shù)據(jù)偏見以及由此帶來的不公平,而算法問題則在于可解釋性與穩(wěn)健性。從底層技術(shù)邏輯的角度來看,算法在生成式人工智能服務(wù)技術(shù)訓(xùn)練的硬件基礎(chǔ)設(shè)施、應(yīng)用程序中均扮演著核心角色,塑造了用戶的習(xí)慣與價值觀。?? 張凌寒:《網(wǎng)絡(luò)平臺監(jiān)管的算法問責(zé)制構(gòu)建》,載《東方法學(xué)》2021年第3期,第24-42頁。算法公平性的背后存在人為和非人為兩種基本因素。如果說企業(yè)利用人工智能進行大數(shù)據(jù)“殺熟”,是可控的企業(yè)道德問題,那么大部分算法帶來的挑戰(zhàn),則很大程度源自人工智能系統(tǒng)本身的不可控技術(shù)缺陷。所謂的不可控是指,人工智能模型在決策過程中存在黑箱問題,即推理過程不透明。
首先,算法缺乏穩(wěn)定性。針對生成式人工智能服務(wù)的數(shù)據(jù)和系統(tǒng)存在多種攻擊方式,例如病毒攻擊、對抗攻擊、后門攻擊等。舉例來說,通過向模型中投喂惡意評論,便可以從源頭數(shù)據(jù)上影響推薦算法的判斷,輸出不準(zhǔn)確的推薦結(jié)果。另外,干擾的形式不限于數(shù)字形式,也存在物理層面的干擾,例如通過打印對抗樣本等手段,直接對自動駕駛和人臉識別系統(tǒng)造成物理層面的干擾。
其次,算法的可解釋性尚待完善。以深度學(xué)習(xí)為代表的機器學(xué)習(xí)算法,本質(zhì)上是一個端到端的黑箱。一方面,人們對擁有巨大參數(shù)量的大模型內(nèi)部的算法迭代方式和運作機理尚不清楚;另一方面,人工智能算法作出決策時具體受到數(shù)據(jù)庫中哪些數(shù)據(jù)的影響,人們也不清楚。譬如,曾有實驗者向GPT-3(自然語言處理模型)提問“新冠疫情何時結(jié)束”,它的回答是“2023年12月31日”。但答案的依據(jù)是什么?研究者無從解釋,也自然難保其準(zhǔn)確率。
最后,算法偏見與歧視問題尚待解決。算法偏見與歧視的產(chǎn)生具有內(nèi)外多重影響因素。一方面,若算法研發(fā)者在開發(fā)階段設(shè)置了具有歧視性的因素或者錯誤設(shè)置了某些參數(shù),會導(dǎo)致算法天然具有歧視偏見的導(dǎo)向;另一方面,生成式人工智能在大規(guī)模收集數(shù)據(jù)的過程中,數(shù)據(jù)的不全面會導(dǎo)致算法進行學(xué)習(xí)后產(chǎn)生片面的結(jié)果,由于生成式人工智能的重要特點就是根據(jù)反饋結(jié)果不斷優(yōu)化生成內(nèi)容,因此外界的反饋結(jié)果中一旦含有偏見與歧視,也將影響最終的生成內(nèi)容。
基于此,算法應(yīng)用給生成式人工智能服務(wù)技術(shù)訓(xùn)練帶來了根本性變革,算法崛起帶來的最大挑戰(zhàn)在于算法的不穩(wěn)定性與不可解釋性?;谶@些特點,人們常以“黑箱”一以概之,原因在于人們時常無法理解它的邏輯或其決策機制。?? 丁曉東:《論算法的法律規(guī)制》,載《中國社會科學(xué)》2020年第12期,第138-159頁。? 石佳友、劉忠炫:《科技倫理治理的法治化路徑——以基因編輯技術(shù)的規(guī)制為例》,載《學(xué)海》2022年第5期,第185-195頁。從“生產(chǎn)關(guān)系適應(yīng)生產(chǎn)力”的角度看,監(jiān)管應(yīng)革新,以適應(yīng)算法技術(shù)帶來的生成式人工智能服務(wù)訓(xùn)練的演變。
當(dāng)前,騰訊、百度等眾多國內(nèi)科技企業(yè)紛紛表示將研發(fā)類生成式人工智能服務(wù)等技術(shù)產(chǎn)品。面對激烈的國際競爭和對安全的挑戰(zhàn),正視生成式人工智能所引發(fā)的信任危機問題刻不容緩,否則此類信任危機將殃及整個人工智能產(chǎn)業(yè),阻礙相關(guān)產(chǎn)業(yè)的持續(xù)健康發(fā)展。為此,應(yīng)當(dāng)著眼于前述挑戰(zhàn),探尋多維度、多領(lǐng)域、多層次、立體化的治理基點,加快推進通用人工智能的創(chuàng)新發(fā)展。
當(dāng)前,在科技倫理治理領(lǐng)域仍存在體制機制不健全、制度不完善、領(lǐng)域發(fā)展不均衡等問題,難以滿足人工智能產(chǎn)業(yè)創(chuàng)新發(fā)展、提升競爭力的現(xiàn)實需要。為此,要加快建立多領(lǐng)域的科技倫理的監(jiān)管和規(guī)范,加強科技倫理審查。一方面,應(yīng)當(dāng)對生成式人工智能服務(wù)應(yīng)用的多個領(lǐng)域進行風(fēng)險的精準(zhǔn)識別與跟蹤預(yù)測,提高治理的反應(yīng)速度與監(jiān)管效能;另一方面,明確生成式人工智能領(lǐng)域的科技倫理規(guī)則,展開事前監(jiān)管,推進全要素監(jiān)管,引導(dǎo)企業(yè)合規(guī)。
第一,建立科技倫理的風(fēng)險識別與跟蹤機制。科技倫理風(fēng)險識別旨在基于風(fēng)險分級的理念為后續(xù)差異化的應(yīng)對機制提供初步的事實基礎(chǔ)。?? 丁曉東:《論算法的法律規(guī)制》,載《中國社會科學(xué)》2020年第12期,第138-159頁。? 石佳友、劉忠炫:《科技倫理治理的法治化路徑——以基因編輯技術(shù)的規(guī)制為例》,載《學(xué)海》2022年第5期,第185-195頁。因此,需要完善生成式人工智能領(lǐng)域的風(fēng)險分級具體規(guī)則,充分利用現(xiàn)有的科學(xué)技術(shù),深入評估生成式人工智能服務(wù)新技術(shù)在大規(guī)模市場應(yīng)用前的安全隱患、技術(shù)成熟度、脆弱性等各方面,區(qū)分風(fēng)險等級大小,對不同等級倫理風(fēng)險的生成式人工智能服務(wù)進行不同嚴(yán)格程度的規(guī)范。在分級規(guī)則清晰的基礎(chǔ)上,展開風(fēng)險識別與跟蹤工作。這在《暫行辦法》中也有體現(xiàn),其規(guī)定在利用生成式人工智能產(chǎn)品向公眾提供服務(wù)前,應(yīng)當(dāng)向國家網(wǎng)信部門申報安全評估,并履行算法備案和變更、注銷備案手續(xù)。
科技倫理的風(fēng)險識別與跟蹤機制的建立,一方面,有利于提升監(jiān)管的明確性,保證監(jiān)管可預(yù)期,引導(dǎo)生成式人工智能服務(wù)提供者合規(guī),提高生成式人工智能服務(wù)產(chǎn)品的質(zhì)量與包容性;另一方面,有利于通過預(yù)防性措施,發(fā)現(xiàn)其數(shù)據(jù)來源、運行路徑、輸出內(nèi)容等方面所存在的缺陷或風(fēng)險點,有效規(guī)避風(fēng)險,避免事后規(guī)制的遲滯,從而提高生成式人工智能服務(wù)的可信度。但同時,若事前審查的范圍與程度設(shè)置不當(dāng),可能會抑制生成式人工智能服務(wù)新技術(shù)產(chǎn)品的研發(fā)與訓(xùn)練效能,客觀上會導(dǎo)致其發(fā)展的降速。因此,需要在統(tǒng)籌安全與發(fā)展的基礎(chǔ)上,設(shè)置合理的審查范圍,把握安全與創(chuàng)新的平衡。
第二,要加快建立科技倫理審查和監(jiān)管制度。2023年4月4日,科學(xué)技術(shù)部發(fā)布關(guān)于公開征求對《科技倫理審查辦法(試行)》意見的公告。該辦法“主要是規(guī)范科技倫理審查的程序、標(biāo)準(zhǔn)、條件等,是覆蓋各領(lǐng)域科技倫理審查的綜合性、通用性規(guī)定”。?? 《關(guān)于〈科技倫理審查辦法(試行)(征求意見稿)〉的說明》,載中華人民共和國科學(xué)技術(shù)部官網(wǎng)2023年4月4日,https://www.most.gov.cn/wsdc/202304/t20230404_185388.html.其第4條提出科技倫理審查應(yīng)堅持科學(xué)、獨立、公正、透明原則,公開審查制度和審查程序,客觀審慎評估科技活動倫理風(fēng)險,依規(guī)開展審查,并自覺接受有關(guān)方面的監(jiān)督。
科技倫理審查等外部監(jiān)管方式較備案、自評估等制度來說強制性程度更高,能夠敦促技術(shù)研發(fā)使用者提高人工智能技術(shù)使用的規(guī)范性,以明確的準(zhǔn)則切實規(guī)范對人工智能的道德層面約束,能夠有效提高人工智能的可信程度,維護社會公平正義、保障公眾切身利益。
任何法律責(zé)任的實現(xiàn)均以責(zé)任主體的存在和確定為前提,以歸責(zé)原則為依據(jù)。雖然說人工智能自主性的不斷提升打破了侵權(quán)責(zé)任因果關(guān)系的傳統(tǒng)理論,并出現(xiàn)了歸責(zé)不能的困境,但從人工智能運行的底層技術(shù)邏輯來看,人工智能算法從設(shè)計研發(fā)到應(yīng)用部署的每個環(huán)節(jié)都存在價值觀和主觀意圖層面的影響,因此,可將人工智能算法設(shè)計部署的主觀過錯作為追責(zé)的根本依據(jù)。
第一,采用預(yù)防性責(zé)任方式。預(yù)防性責(zé)任方式要求根據(jù)不同的具體環(huán)境損害情形采用具有預(yù)防性功能的責(zé)任方式的變形形式。生成式人工智能服務(wù)的創(chuàng)新應(yīng)用涉及數(shù)據(jù)處理者、算法開發(fā)者、服務(wù)提供者、使用者等多方面的利益衡量,在制度設(shè)計上不宜采取在“禁止使用”與“受害人完全忍受”之間二擇一的途徑,以避免使此類訴訟救濟的途徑成為一種“零和游戲”,而應(yīng)允許中間排除或部分排除的可能性。[27]胡衛(wèi):《論礦害責(zé)任承擔(dān)規(guī)則與責(zé)任方式》,載《政法論叢》2015年第2期,第121-128頁。
因此,《暫行辦法》也對提供生成式人工智能產(chǎn)品或服務(wù)提供者提出了較為嚴(yán)格的要求,尤其體現(xiàn)在信息數(shù)據(jù)安全、知識產(chǎn)權(quán)保護、倫理風(fēng)險規(guī)制、算法訓(xùn)練優(yōu)化等方面。若預(yù)防性責(zé)任過于嚴(yán)苛導(dǎo)致合規(guī)成本過高,則會扼殺企業(yè)的創(chuàng)新模式。人工智能的新領(lǐng)域往往具有較強的不可控性與不可預(yù)知性。為此,《暫行辦法》的責(zé)任預(yù)防性價值取向之一正是確保安全,并非完全承襲既有的網(wǎng)絡(luò)技術(shù)先發(fā)展再治理的理念,而是希望明確新興領(lǐng)域發(fā)展的底線與紅線,避免技術(shù)產(chǎn)生的不可控的風(fēng)險深度嵌入社會結(jié)構(gòu),進而出現(xiàn)難以應(yīng)對的局面。
第二,明確責(zé)任承擔(dān)主體。《暫行辦法》規(guī)定,提供者應(yīng)當(dāng)依法承擔(dān)網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者責(zé)任,履行網(wǎng)絡(luò)信息安全義務(wù)。這一規(guī)定明確了責(zé)任承擔(dān)主體為生成式人工智能服務(wù)提供者。然而,生成式人工智能是一條價值生產(chǎn)鏈條,其依托海量數(shù)據(jù)參與預(yù)訓(xùn)練大型語言模型,可以應(yīng)對C端的便捷交互、內(nèi)容生成、簡化工作等需求,同時也具有面向企業(yè)、面向B端的行業(yè)化、場景化服務(wù)的能力,例如以人工智能技術(shù)為驅(qū)動的自動駕駛、利用行業(yè)或企業(yè)獨特數(shù)據(jù)資源訓(xùn)練的醫(yī)療大型語言模型等。因此,面對生成內(nèi)容應(yīng)用的多領(lǐng)域、多主體,服務(wù)提供者往往難以對生成應(yīng)用的風(fēng)險進行完全的控制,故將責(zé)任承擔(dān)完全歸于服務(wù)提供者有失偏頗,應(yīng)當(dāng)考慮采用“避風(fēng)港”原則,在《暫行辦法》的基礎(chǔ)上對提供者的責(zé)任與義務(wù)進行進一步細(xì)化規(guī)定,即沒有完成規(guī)定義務(wù)、采取必要措施防范風(fēng)險的服務(wù)提供者才應(yīng)當(dāng)承擔(dān)責(zé)任。同時,提供者難以知曉或控制多領(lǐng)域應(yīng)用的用途,對于主觀上不存在過錯的服務(wù)提供者,應(yīng)當(dāng)適用過錯責(zé)任原則,不承擔(dān)侵權(quán)責(zé)任。明確責(zé)任承擔(dān)主體與歸責(zé)原則,有利于在提前防范風(fēng)險的同時,激勵人工智能產(chǎn)業(yè)創(chuàng)新發(fā)展,避免打擊產(chǎn)業(yè)創(chuàng)新的積極性。
大型語言模型帶來的是認(rèn)知突破和范式轉(zhuǎn)變,不同行業(yè)的企業(yè)可借助通用模型的訓(xùn)練,培育出各自具備智人般的復(fù)雜推理能力和認(rèn)知能力的模型。對于企業(yè)端的運用規(guī)制,目前《暫行辦法》中尚未表明基本態(tài)度,亟待進一步明確。
第三,規(guī)范賠償損失責(zé)任方式。宏觀上,賠償損失是對受害人價值利益的賠償,僅能保障受害人的金錢價值利益。[28]李承亮:《侵權(quán)責(zé)任法視野中的生態(tài)損害》,載《現(xiàn)代法學(xué)》2010年第1期,第65-75頁。微觀上,人工智能產(chǎn)品或服務(wù)所致的倫理秩序、生命抑或情感等損害,金錢賠償難以全部彌補。為保證受害人得到充分賠償,《暫行辦法》應(yīng)與《民法典》《刑法》等做好充分的銜接與互補,探尋合理的賠償計算方式,總結(jié)出對完整利益救濟的最佳責(zé)任方式。法院則應(yīng)在充分考慮人工智能可行性和經(jīng)濟性的基礎(chǔ)上,分階段進行利益衡量與動態(tài)考察,優(yōu)先考慮維持受害者長遠(yuǎn)利益和社會整體利益的責(zé)任承擔(dān)方式和適當(dāng)?shù)馁r償金額。
侵權(quán)行為發(fā)生后,在責(zé)任判定過程中可以參照適用《民法典》,即若是由他人產(chǎn)品缺陷造成損害的,侵權(quán)責(zé)任則應(yīng)由提供者承擔(dān),并且提供者應(yīng)當(dāng)對被侵權(quán)者的賠償請求負(fù)責(zé)。如果平臺能夠提供充足的證據(jù)證明其已經(jīng)盡到相應(yīng)注意義務(wù),出于平衡科技創(chuàng)新與權(quán)利保護的考慮,在責(zé)任的承擔(dān)上不宜施加嚴(yán)格責(zé)任,否則過于嚴(yán)苛的責(zé)任承擔(dān)將會阻礙技術(shù)的開發(fā)和未來的商業(yè)化應(yīng)用。
生成式人工智能服務(wù)是以數(shù)據(jù)資源為關(guān)鍵要素,以現(xiàn)代信息技術(shù)為主要載體生成新的文本、圖像、音頻和視頻等各種形式內(nèi)容的一種新經(jīng)濟形態(tài)。生成式人工智能的浪潮為算力基礎(chǔ)設(shè)施、人工智能平臺即服務(wù)等眾多數(shù)字產(chǎn)業(yè)提供了新的發(fā)展點與市場空間。對于生成式人工智能服務(wù),一方面需要保護知識產(chǎn)權(quán),另一方面也需要競爭規(guī)則的規(guī)制,既要保護競爭也要激勵創(chuàng)新,亟待尋求知識產(chǎn)權(quán)保護與反壟斷之間的平衡。
知識產(chǎn)權(quán)屬于私權(quán),具有獨占性,其預(yù)設(shè)的壟斷權(quán)具有合法性,被用以加強市場力量,如果被濫用,可能會排除、限制競爭;而反壟斷法屬于公法范疇,用于限制壟斷權(quán),尊重私權(quán)(知識產(chǎn)權(quán)),但防止權(quán)利濫用,如果知識產(chǎn)權(quán)的行使排除、限制競爭,則同樣受到反壟斷法的規(guī)制。生成式人工智能背后的文本生成模型,具有規(guī)模龐大、自監(jiān)督型訓(xùn)練和強通用性的技術(shù)性特點。這就意味著模型構(gòu)建、訓(xùn)練和運維需要大量人力、算力和數(shù)據(jù),而訓(xùn)練完成后的大規(guī)模通用型人工智能在某一特定領(lǐng)域內(nèi)完成任務(wù)的能力則可以較為輕松地超過專門針對該領(lǐng)域所設(shè)計的中小型人工智能。
換言之,生成式人工智能產(chǎn)業(yè)前期投入大、研發(fā)周期長。但在發(fā)布后,其高效率、相較于其他途徑的低成本和廣泛的適用性,將使研發(fā)企業(yè)在市場上獲得巨大的競爭優(yōu)勢。對于生成式人工智能服務(wù)的壟斷風(fēng)險,要兼顧知識產(chǎn)權(quán)保護與反壟斷,兼顧保護競爭與激勵創(chuàng)新。
首先,要堅持包容審慎監(jiān)管原則,鼓勵創(chuàng)新。一方面,要鼓勵創(chuàng)新,為生成式人工智能產(chǎn)業(yè)營造適宜發(fā)展、有效競爭的市場環(huán)境。只有建立起一個公平、開放、有序的市場環(huán)境,才能保障生成式人工智能的健康發(fā)展和社會效益。另一方面,應(yīng)當(dāng)關(guān)注其上下游產(chǎn)業(yè)存在的壟斷風(fēng)險并及時規(guī)制。譬如,生成式人工智能的應(yīng)用可能促進大型科技公司實施縱向一體化戰(zhàn)略,從而產(chǎn)生壟斷和反競爭的效果,這需要監(jiān)管機構(gòu)對芯片、云計算和下游應(yīng)用市場的壟斷規(guī)制予以關(guān)注,必要時進行有針對性的規(guī)制。
其次,應(yīng)建立健全人工智能領(lǐng)域市場規(guī)則。面對數(shù)字技術(shù)快速發(fā)展導(dǎo)致競爭樣態(tài)不斷翻新、涉知名網(wǎng)絡(luò)公司和頭部企業(yè)的網(wǎng)絡(luò)競爭案件層出不窮的現(xiàn)象,需要加強對行業(yè)競爭的規(guī)范指引、提升司法裁判的示范作用。譬如,北京知識產(chǎn)權(quán)法院2023年上半年發(fā)布的典型案例大多與數(shù)字經(jīng)濟領(lǐng)域息息相關(guān),總結(jié)了相關(guān)案件的裁判規(guī)則。其中,蟻坊公司擅自抓取微博后臺數(shù)據(jù)構(gòu)成不正當(dāng)競爭行為,此類新型競爭行為在此前存在規(guī)制上的爭議與困境,而典型案例的發(fā)布使得新興領(lǐng)域的市場規(guī)則逐漸明晰。
近年來我國對于人工智能等新技術(shù)逐漸邁入常態(tài)化監(jiān)管階段,始終秉持發(fā)展與安全并重的原則,力圖實現(xiàn)新技術(shù)健康可持續(xù)的高質(zhì)量發(fā)展。數(shù)據(jù)是喂養(yǎng)算法的原料,可謂人工智能的基礎(chǔ),數(shù)據(jù)安全的重要性不言而喻。同時,生成式人工智能作為大模型,對數(shù)據(jù)規(guī)模有更大的要求,更需要著重考慮加強數(shù)據(jù)安全保護、降低數(shù)據(jù)安全風(fēng)險方面的需求。[29]范玉吉、張瀟:《數(shù)據(jù)安全治理的模式變遷、選擇與進路》,載《電子政務(wù)》2022年第4期,第119-129頁。
第一,建立健全數(shù)據(jù)分類分級保護制度。需要結(jié)合人工智能服務(wù)應(yīng)用的領(lǐng)域、人工智能底層算法的特性,建立健全數(shù)據(jù)分類分級保護制度。同時,應(yīng)該在數(shù)據(jù)分類分級的基礎(chǔ)上,建立與不同類型數(shù)據(jù)以及不同風(fēng)險級別數(shù)據(jù)相匹配的數(shù)據(jù)安全保護機制,實現(xiàn)對生成式人工智能大模型大規(guī)模參數(shù)的有序管理。在通用人工智能的治理建設(shè)中應(yīng)堅持以數(shù)據(jù)安全保護為導(dǎo)向,依據(jù)數(shù)據(jù)所具有的可共享性、復(fù)用性、多歸屬性、高度動態(tài)性以及使用加權(quán)屬性等特征,統(tǒng)籌數(shù)據(jù)的發(fā)展和安全,運用場景化、動態(tài)化的方法,做好數(shù)據(jù)的分類分級及其制度實施,搭建起數(shù)據(jù)分類與分級的貫通機制。[30]陳兵、郭光坤:《數(shù)據(jù)分類分級制度的定位與定則——以〈數(shù)據(jù)安全法〉為中心的展開》,載《中國特色社會主義研究》2022年第3期,第52-62頁。
第二,加快完善數(shù)據(jù)交易制度。生成式人工智能對數(shù)據(jù)的依賴程度極高,海量的數(shù)據(jù)訓(xùn)練以及算法的不斷優(yōu)化,能夠使生成內(nèi)容更加準(zhǔn)確,并且符合人類預(yù)期?!稌盒修k法》提到“鼓勵采用安全可信的芯片、軟件、工具、算力和數(shù)據(jù)資源”,高質(zhì)量、低風(fēng)險是安全可信的數(shù)據(jù)資源的應(yīng)有之義。目前,生成式人工智能技術(shù)的訓(xùn)練數(shù)據(jù)多來自于互聯(lián)網(wǎng)上的文本數(shù)據(jù)。這些數(shù)據(jù)的質(zhì)量參差不齊,隱藏的風(fēng)險也無法預(yù)估,降低此類數(shù)據(jù)的風(fēng)險,一方面主要依據(jù)算法的優(yōu)化和數(shù)據(jù)標(biāo)注工作等多層面的協(xié)作;另一方面,可以通過加快數(shù)據(jù)分級分類上市交易,通過市場的特性提高交易數(shù)據(jù)的質(zhì)量,并將這些安全可信的數(shù)據(jù)廣泛用于數(shù)據(jù)訓(xùn)練,進而一定程度降低人工智能技術(shù)提供者的研發(fā)成本。
第三,需進一步加強數(shù)據(jù)安全的全鏈條監(jiān)管,推動監(jiān)管前置?!稌盒修k法》明確提出,提供者應(yīng)當(dāng)根據(jù)國家網(wǎng)信部門和有關(guān)主管部門的要求,提供包括預(yù)訓(xùn)練和優(yōu)化訓(xùn)練數(shù)據(jù)的來源、規(guī)模、類型、質(zhì)量等描述,人工標(biāo)注規(guī)則,人工標(biāo)注數(shù)據(jù)的規(guī)模和類型、基礎(chǔ)算法和技術(shù)體系等。通過監(jiān)管前置進行事前保護,能夠引導(dǎo)人工智能的訓(xùn)練過程更加規(guī)范,避免風(fēng)險發(fā)生后監(jiān)管滯后導(dǎo)致?lián)p害不可挽回,從而更好地保障用戶的知情權(quán)、選擇權(quán)等權(quán)益,提高算法的可信度。
最后,還需要審視現(xiàn)有的隱私保護與合規(guī)機制,不斷更新、完善數(shù)據(jù)合規(guī)思路。當(dāng)前移動互聯(lián)網(wǎng)個人信息保護實踐對于必要性原則的解釋非常嚴(yán)格,以最大程度地避免數(shù)據(jù)的不當(dāng)收集與匯聚。例如《常見類型移動互聯(lián)網(wǎng)應(yīng)用程序必要個人信息范圍規(guī)定》不僅針對每類應(yīng)用區(qū)分了基本功能與附加功能,還針對基本功能收集的必要信息進行了明確。在大部分基本功能中僅能收集兩三類個人信息,例如定位和導(dǎo)航功能僅能收集位置信息、出發(fā)地、到達地三種信息;《App違法違規(guī)收集使用個人信息行為認(rèn)定方法》更是明確:不得僅以改善服務(wù)質(zhì)量、研發(fā)新產(chǎn)品等理由收集個人信息。這種“嚴(yán)防死守”的數(shù)據(jù)合規(guī)思路是否適合未來的人工智能應(yīng)用場景值得探討。
從移動互聯(lián)網(wǎng)到我們正在步入的人工智能時代,雖然數(shù)據(jù)利用一直在向更廣更深的方向發(fā)展,但各類新技術(shù)應(yīng)用仍將隱私保護作為價值對齊的重要方面。應(yīng)明確隱私和數(shù)據(jù)安全的真諦從來就不是對數(shù)據(jù)的使用進行各種限制,或者人為提高數(shù)據(jù)使用門檻,而在于通過激烈的市場競爭、健全的法律機制和更加強大的技術(shù)安全措施來切實保障用戶隱私與數(shù)據(jù)安全。
生成式人工智能服務(wù)的快速發(fā)展,不僅表明大模型對數(shù)據(jù)規(guī)模和參數(shù)量需求的爆炸性增長,也表明算法迭代的復(fù)雜程度極大提高,算法的透明度與可解釋性受到了前所未有的挑戰(zhàn)。面對來勢洶洶的算法危機,應(yīng)圍繞人工智能算法構(gòu)建綜合治理體系,針對人工智能算法進行專門性、系統(tǒng)化治理。
首先,應(yīng)健全預(yù)防算法歧視的法律法規(guī)體系及規(guī)制機制[31]相關(guān)研究參見胡晶晶:《破解公權(quán)力領(lǐng)域的算法歧視:權(quán)力正當(dāng)程序的回歸》,載《知識產(chǎn)權(quán)》2022年第4期,第76-95頁。,重點關(guān)注算法源頭數(shù)據(jù)集以及訓(xùn)練數(shù)據(jù)樣本來源是否合法、是否達到一定規(guī)模、是否具有完整性與代表性,避免數(shù)據(jù)層面的不完善導(dǎo)致產(chǎn)生算法歧視。服務(wù)提供者需要及時檢查并更新相應(yīng)數(shù)據(jù),對存在歧視性的特定數(shù)據(jù)內(nèi)容予以剔除,同時保證數(shù)據(jù)來源達到一定規(guī)模并具有完整性。一方面,可通過《網(wǎng)絡(luò)安全法》《數(shù)據(jù)安全法》等法律規(guī)范,為算法治理活動明確合理邊界,賦予服務(wù)提供者相應(yīng)的注意義務(wù)。另一方面,可以通過對特定領(lǐng)域如人臉識別、算法推薦的專門立法實現(xiàn)對人工智能應(yīng)用中算法活動的精準(zhǔn)監(jiān)管,形成對特定應(yīng)用領(lǐng)域中算法風(fēng)險的間接識別和應(yīng)對。[32]王德夫:《論人工智能算法的法律屬性與治理進路》,載《武漢大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2021年第5期,第20-40頁。
其次,應(yīng)在保證算法透明度與可解釋性的同時重視創(chuàng)新。面對生成式人工智能服務(wù),應(yīng)積極回應(yīng)人工智能算法相關(guān)的技術(shù)屬性和應(yīng)用規(guī)律,對人工智能算法治理的基本策略有所掌握和判斷。《暫行辦法》規(guī)定了服務(wù)提供者安全評估制度,并規(guī)定有關(guān)主管部門依據(jù)職責(zé)對生成式人工智能服務(wù)開展監(jiān)督檢查。以上規(guī)則的建立對生成式人工智能算法的透明度提出了要求,然而不能一味要求提升生成式人工智能的透明度。一方面,面對參數(shù)量和算法隱層的劇增,算法公開透明的技術(shù)難度顯著增加;另一方面,透明度的提升很有可能會損害研發(fā)、應(yīng)用主體的創(chuàng)新積極性,因此,需要保證創(chuàng)新與透明度之間的平衡。
最后,應(yīng)堅持算法多元共治。在全國范圍內(nèi)成立自治性行業(yè)監(jiān)督管理委員會,對人工智能技術(shù)行業(yè)進行業(yè)務(wù)指導(dǎo)和監(jiān)督。委員會利用專業(yè)層面的優(yōu)勢,將分類分級監(jiān)管原則貫徹落實,根據(jù)人工智能的應(yīng)用場景對算法進行分級治理,輔助監(jiān)管部門完成算法備案、算法審計及算法問責(zé)等工作,在此基礎(chǔ)上推動通用人工智能技術(shù)在內(nèi)容生成上的合理適用,在規(guī)范適用中不斷完善通用人工智能算法的開發(fā)、使用及治理。
戰(zhàn)略性新興產(chǎn)業(yè)是引領(lǐng)未來發(fā)展的新支柱、新賽道。數(shù)字時代的法治圖景應(yīng)預(yù)見通用人工智能全球治理的未來形態(tài)。通用人工智能時代已經(jīng)不遠(yuǎn),生成式人工智能技術(shù)在短時間內(nèi)飛速發(fā)展,其應(yīng)用領(lǐng)域之廣也讓人們看到通用人工智能的革新意義,人工智能產(chǎn)業(yè)已經(jīng)成為未來全球范圍內(nèi)新的競爭點。與此同時,通用人工智能產(chǎn)業(yè)創(chuàng)新發(fā)展也面臨科技倫理、知識產(chǎn)權(quán)、歸責(zé)機制、數(shù)據(jù)安全和算法操控等問題,使得人工智能的可信程度受到挑戰(zhàn)。因此,需要進一步構(gòu)建人工智能產(chǎn)業(yè)的法律規(guī)范體系,完善人工智能產(chǎn)業(yè)的科技倫理治理生態(tài),出臺相關(guān)行為規(guī)范和倫理指南,推動人工智能產(chǎn)業(yè)在法治軌道上健康持續(xù)發(fā)展。針對上述科技倫理挑戰(zhàn)、責(zé)任侵權(quán)挑戰(zhàn)、知識產(chǎn)權(quán)和壟斷挑戰(zhàn)、數(shù)據(jù)安全挑戰(zhàn)、算法操控挑戰(zhàn)等問題布局研究,尋求可行的技術(shù)手段,通過建立科技倫理規(guī)范、完善侵權(quán)責(zé)任規(guī)制體系、保護競爭并激勵創(chuàng)新、加強人工智能數(shù)據(jù)安全保障、規(guī)范人工智能領(lǐng)域算法監(jiān)管等方式,掃除通往通用人工智能創(chuàng)新發(fā)展道路上的攔路虎。