亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        生成式AI算法訓練風險的合規(guī)管理研究

        2024-01-17 07:41:19羅世杰賀國榮
        湖北經濟學院學報 2023年6期
        關鍵詞:風險治理合規(guī)管理

        羅世杰 賀國榮

        關鍵詞:生成式AI;算法訓練風險;風險治理;合規(guī)管理;算法合規(guī)

        中圖分類號:TP18;D922.1 文獻標志碼:A 文章編號:1672-626X(2023)06-0106-10

        2022年底,OpenAI正式推出其研發(fā)的智能對話機器人ChatGPT,并迅速在全球范圍內爆火。2023年4月,其再度推出GPT-4,并公布其將聯網,意味著生成式AI技術再達高峰。生成式AI技術流程大致可以分為訓練和生成兩個部分,通過學習大量數據并進行模型訓練,能夠自動生成符合特定領域規(guī)律的全新內容。生成式AI算法訓練具有前所未有的獨特性——其訓練過程自主性較強、訓練結果可控性較低,訓練階段的效果直接影響模型的優(yōu)劣,從而左右生成數據的質量①。但生成式AI技術的研發(fā)與應用也是一把雙刃劍:一方面,ChatGPT等一系列生成式大語言模型的研發(fā)與應用意味著生成式AI技術達到領域前沿,其技術價值豐富、應用場景廣泛,將大力促進經濟和社會發(fā)展;另一方面,其崛起也引發(fā)諸多負外部性,既包括知識產權歸屬、商業(yè)秘密保護、數據與算法安全等法律問題,還包括就業(yè)替代、人類主權失范等倫理問題。

        在此背景下,我國已展開相關立法活動:2023年6月,《人工智能法草案》預備提請全國人大常委會審議;同年7月,出臺《生成式人工智能服務管理暫行辦法》(以下簡稱《服務辦法》)。這說明我國即將進入人工智能強監(jiān)管時代,而生成式AI算法訓練風險的防范與規(guī)制也一躍成為全新且熱潮的法律課題。

        一、生成式AI算法訓練風險的類型化梳理

        在生成式AI技術不斷升級并被廣泛應用背景下,作為其核心的算法模型訓練是法律風險密集的環(huán)節(jié)。生成式AI算法訓練以數據、算法、算力以及算法標注等重要元素為基礎,其訓練全過程(計劃、過程與結果)可能引發(fā)各類風險。以GPT-4為例說明,生成式AI算法訓練引發(fā)的風險包括如下幾類:

        (一)生成式AI 算法訓練的數據合法性與質量風險

        其一,生成式AI算法訓練的數據獲取途徑合法性問題。一方面,在生成式AI算法訓練過程中,易出現數據獲取途徑不透明問題。目前GPT-4算法模型仍系“算法黑箱”,OpenAI沒有向外界披露其所使用數據的來源。且隨著GPT-4的訓練數據庫聯網,其違法違規(guī)抓取互聯網信息以獲得訓練數據的風險增大。另一方面,生成式AI算法訓練易引發(fā)違法抓取個人數據問題。在個人數據安全層面,生成式AI可能未經用戶同意就進行大量抓取。此外,GPT-4的“預學習”無需人工介入、標注和監(jiān)督,導致GPT-4在獲取預訓練數據的效率上很難受人的干預和調控,因而違法抓取個人數據的情況無可避免[1]。

        其二,生成式AI算法訓練階段生成的數據合法性與質量問題。一方面,算法訓練生成的數據遭遇極大合法性挑戰(zhàn)。由于用于算法訓練的數據可能不準確或存在傾向性,故難以保證其合法性,導致生成的數據也極有可能具有“毒性”[2]。易言之,GPT-4的算法訓練所需數據量極大,而該部分數據通常涉及隱私、權屬、公平競爭等問題,很可能違背相關法律和倫理規(guī)范。若對所獲數據內容的合法性和合規(guī)性不予置評和糾正,基于其進行的算法訓練也會類似“蝴蝶效應”繼續(xù)生成不合法數據。另一方面,“毒樹之果”②效應蔓延至生成式AI算法訓練過程中的數據質量方面,用低質量數據生成低質量數據的情況無可避免。同時,也有可能本不屬于低質量的數據在訓練過程中被“污染”變成低質量數據。

        其三,生成式AI算法訓練所涉數據的泄露與濫用問題。一方面,生成式AI在算法訓練過程中,極易遭受數據泄露問題,這種數據泄露可能系人為,也可能系算法訓練技術本身問題。且隨著愈來愈多領域對生成式AI加以應用,尤其在算法訓練的過程中,數據泄露成為一大隱患。因為數據作為重要生產要素,一旦泄露將給企業(yè)、行業(yè)帶來重大損失。另一方面,生成式算法訓練所需數據面臨被濫用問題。由于生成式AI的算法訓練過程具有強大的模仿與生成能力,不法分子可能利用其整合與生成虛假信息,引發(fā)社會安全與經濟效益問題。且即使是零碎信息,GPT-4也可能將其與其他類型數據拼合在一起進行挖掘分析,從而推斷出關系國家安全、公共安全、個人和組織合法權益的信息[3]。從而可能影響到國家、社會和個人利益安全。

        (二)生成式AI 算法訓練的偏差(錯誤)、歧視與偏見風險

        生成式AI算法訓練在“預學習”時沒有過濾機制和人工監(jiān)管,導致其在算法訓練過程中,可能生成虛假或不良信息,也可能產生算法歧視、偏見風險。

        其一,生成式AI算法訓練引發(fā)信息鏈條式虛假或低質量的潛在風險。一方面,如前文所述,GPT-4模型在“預學習”時沒有人工監(jiān)督,獲取的數據未經過實質性篩查和挑選,數據在源頭處即存在內容不合法(規(guī))、虛假或錯誤問題,從而影響模型訓練結果的正確性和中立性。另一方面,盡管OpenAI在開發(fā)GPT-4時已經極力避免輸出帶有偏離社會價值觀導向的內容,但在GPT-4算法訓練過程中,其可能遭遇惡意“投毒”,導致訓練出的算法模型遭到污染,也會誘使其通過訓練得到的語言模型輸出不良或虛假數據,形成連環(huán)效應[4]。此外,在生成式AI算法訓練場景中,算法標注是實現大規(guī)模訓練數據機器學習的關鍵所在。所謂“算法標注”,即對生成式AI原始數據集進行標注、分類、分析和清洗,以助力訓練機器學習算法和人工智能模型[5]。而在生成式AI算法標注場域中,存在標注內容不合規(guī)、標注規(guī)則本身違法或標注人員不符要求等風險,從而導致算法訓練過程與結果出現內容與價值偏移。

        其二,在生成式AI算法訓練的動態(tài)風險場域下,算法歧視和偏見風險亦暗潮涌動。有學者認為,在生成式AI時代,算法歧視存在朝“無意識”轉變的可能性甚至是趨勢[6]。而本文討論的算法歧視與偏見風險主要指被訓練出來的生成式AI算法模型帶有對國別、種族、職業(yè)、年齡、性別甚至是數字窮富差距的甄別與擇“強”傾斜[7]。這種歧視與偏見一方面來自于生成式AI算法訓練標注者的歧視因素,另一方面則來自于生成式AI本身的技術中立性異化[8]。生成式AI的算法訓練本質是利用算法對大量的數據進行處理,但生成式AI算法模型本身還不能對數據進行查證與甄別,常??赡苌煽此茰蚀_但本質錯誤的誤導性內容。而且,生成式AI算法訓練技術本身無法完全避免社會偏見和價值觀傾向,從而可能固化社會偏見和歧視[2]。

        (三)生成式AI 算法訓練易觸碰反壟斷紅線

        其一,生成式AI技術層面的壟斷。GPT-4的發(fā)布在各個領域引起了巨大的轟動。在某些領域,其已經顯露絕對優(yōu)勢,或者說“AI霸權”。OpenAI為維護其已經占據的優(yōu)勢地位,繼續(xù)研發(fā)升級模型算法和優(yōu)化性能,從而進一步鞏固其領先地位,擴大“雪球效應”,以此實現技術市場壟斷。正如美國聯邦貿易委員會(FTC)下屬的競爭局表示③,生成式AI依賴于一系列必要的投入。如果一家公司或少數幾家公司控制著這些重要投入中的一種或幾種,他們也許能夠利用控制權來抑制或扭曲生成式AI技術市場的競爭,控制整個生成式AI技術市場的進入與退出。

        其二,算法訓練過程中的數據壟斷。盡管數據系非競爭性產物,但在其釋放經濟價值的過程中,具有較高效益的數據作為稀缺資源必然造成競爭現場。在生成式AI算法訓練所涉及的數據獲取、訓練或輸出等環(huán)節(jié),競爭壁壘都有出現的可能性,形成數據壟斷[9]。即生成式AI算法訓練需要海量數據,如果該數據來自于一個特定的數據集中,那么可能會存在壟斷風險,包括數據集中和數據共享中的壟斷風險。

        二、生成式AI算法訓練風險引入合規(guī)管理的必要性證成

        生成式AI算法訓練風險被認為是生成式AI企業(yè)算法訓練活動產生的顯著負外部性,對涉及的數據與算法安全、數字經濟以及相關法律制度造成沖擊。從法學角度上看,負外部性是一個法律主體在享受權利時將相對應應當承擔的義務和責任施加給其他主體[10]。為應對這一負外部性,學者們已提出了一定的對策建議,有的基于風險治理視角的路徑,提出通過對生成式AI進行風險定級進而監(jiān)管其算法模型[11];有的基于主體治理視角的路徑,提出以生成式AI算法主體責任機制奠定我國生成式AI算法問責機制的運作基礎,具體包括備案、解釋以及問責[12~13];有的基于應用治理視角的路徑,指出不以出臺生成式AI專門規(guī)制法為目的,而是在其具體應用場域中以單行法律和法規(guī)的形式施以針對性治理等[14]。

        然而上述措施被單獨或空泛使用時可能遭遇事前防范不足、事后規(guī)制滯后的治理困境,且其均基于“硬法”規(guī)制視角,缺乏從法律主體自治角度提出“軟法”治理之策[15]?;诖?,本文擬從合規(guī)管理視角提出生成式AI企業(yè)算法訓練合規(guī)管理,其蘊含的依法治理和包容治理相結合的法律治理功能可以實現生成式AI算法訓練法律風險治理之目標,促進生成式AI算法模型訓練的良性發(fā)展。

        (一)生成式AI 算法訓練風險的依法治理

        當地時間2023年6月14日,歐洲議會投票通過了《人工智能法案》,對ChatGPT等生成式AI工具提出了新的算法訓練透明度、安全性等要求[16],相關企業(yè)應依法合規(guī)進行算法訓練,算是打開了生成式AI算法訓練依法治理之路。這對我國生成式AI算法訓練風險的依法治理具有重要參考意義。生成式AI算法訓練風險的產生直接影響生成式AI技術的健康發(fā)展,因此有必要在實現算法向善治理的目標基底上尋求依法治理路徑,對算法訓練風險進行約束與防范[17]。具體到生成式AI算法訓練風險的依法治理,不僅要確立法律在生成式AI研發(fā)、生產、運用中的權威性,而且要提升其研發(fā)、生產、運用企業(yè)及其員工按照人工智能相關法律規(guī)范行事的行為習慣[18]。

        企業(yè)出于防范法律風險的目的自主選擇合規(guī)之路,按理說沒有必要再將建立合規(guī)計劃和實施合規(guī)管理作為企業(yè)法律義務[19]。但是,在依法治理生成式AI算法訓練風險過程中,法律規(guī)范的行為規(guī)范功能必不可少。當前算法訓練風險治理的法律路徑主要有兩種,即“硬法”和“軟法”治理。本文所討論的生成式AI算法訓練合規(guī)管理,即屬于“硬法”與“軟法”協調治理的范疇。具言之,一是算法訓練風險的“硬法”治理,“硬法”視角下的生成式AI算法訓練風險治理主要體現為行為規(guī)制與法律權利義務的配置?!坝卜ā甭窂皆诠δ芏ㄎ簧蟼戎赜谥撇门c懲罰,主要通過命令來強迫算法訓練主體作出某種行為選擇,其大多表現為剛性的強行性規(guī)范,內容具有明確性和穩(wěn)定性[20]?!坝卜ā币?guī)范可以給生成式AI算法訓練主體的算法訓練合規(guī)管理提出依法建設要求,使其實施得到強制性保障。二是算法訓練風險的“軟法”治理,即那些效力結構未必完整、不需要依靠國家強制力才能保障實施,但是能夠產生實際治理效益的法律規(guī)范。“軟法”可以為生成式AI企業(yè)實現算法訓練合規(guī)管理提供目標清晰、操作性強的具體指引,使其合規(guī)建設實現“硬法”與“軟法”依據的雙重滿足。故而在當前積極推進企業(yè)合規(guī)背景下,要發(fā)揮法律規(guī)范對生成式AI企業(yè)及其員工算法訓練行為的指引功能,離不開企業(yè)合規(guī)管理體系的構建。

        (二)生成式AI 算法訓練風險的包容治理

        《服務辦法》第3條明確規(guī)定:“國家堅持發(fā)展和安全并重、促進創(chuàng)新和依法治理相結合的原則,采取有效措施鼓勵生成式人工智能創(chuàng)新發(fā)展,對生成式人工智能服務實行包容審慎和分類分級監(jiān)管?!边@一規(guī)定明確我國對生成式AI的治理模式是“包容性法律治理”。包容性治理包括“包容”和“治理”兩個關鍵內核[21]。社會治理角度的包容性治理指通過制度的安排,能夠確保所有公民平等參與政策的制定,并享有平等分配資源權利的過程[22]。延伸到法律治理領域,就包容性治理主體而言,是指不故意排斥法律治理的主體,廣泛吸收多元個體參與法律治理機制。換言之,多元主體的合作共治是包容治理在社會治理層面的必然要求。故在生成式AI算法訓練風險的治理維度,包容治理就要求積極引入社會、企業(yè)等多方主體參與,形成政府領導下的多元主體包容共治格局。其包括以下三個方面:

        一是生成式AI企業(yè)自治。以算法訓練合規(guī)管理為依托,參考美國對生成式AI算法訓練遵循相對寬松的治理策略,其并沒有一味地出臺嚴密的法案來對生成式AI的算法訓練活動進行規(guī)制和限制,而是采取基于“市場自由”的治理路徑[23]。即基于生成式AI企業(yè)具有“市場自由”,美國政府并不要求其進行算法訓練設計時必須引入或刪除某種設計要素或訓練數據,也不要求作為“人的集合”的生成式AI企業(yè)進行算法訓練內容聯網審查。二是行政監(jiān)管。當生成式AI企業(yè)在算法訓練合規(guī)義務履行階段出現或可能出現合規(guī)風險時,需要介入其“看門人”的角色,對義務主體進行專門監(jiān)管,促使其算法訓練活動回歸合規(guī)與合法軌道[24]。即在生成式AI監(jiān)管的法律框架下,行政監(jiān)管部門應當承擔起生成式AI企業(yè)算法訓練合規(guī)管理義務履行的監(jiān)管角色。三是社會參與監(jiān)督。公眾參與對實現算法訓練合規(guī)的功能和作用不言而喻。社會大眾是生成式AI算法訓練活動的受眾和成本與利益的承擔者,擁有對義務主體的算法訓練合規(guī)管理過程與效果的監(jiān)督、討論、意見反饋等權利。

        三、生成式AI算法訓練合規(guī)管理的法律依據

        目的是一切法律規(guī)范的締造者[25]。如僅將生成式AI算法訓練合規(guī)管理作為實驗室工具,即生成式AI企業(yè)關于正確進行算法訓練的內部指引和規(guī)定,但并不作為法律客體呈現,也就無所謂構建其法律體系。然而,本文系出于生成式AI算法訓練風險的依法治理和合法治理需求,并對其合規(guī)管理的依法建設進行證成和構建,故有必要認識到:此處的合規(guī)管理,并不是企業(yè)“自娛自樂”的工具,即并非只是用來對企業(yè)成員進行內部約束的手段。其是被用于算法訓練風險治理、帶有法律色彩的工具,應當被賦予法律涵義——合規(guī)法律義務以及不履行合規(guī)義務的法律責任。即應在現有生成式AI算法訓練合規(guī)管理的法律依據體系中剖析出其義務主體及具體的合規(guī)監(jiān)管要求。

        (一)生成式AI 算法訓練合規(guī)管理的法律制度體系

        生成式AI算法訓練合規(guī)管理的“規(guī)”不僅包括企業(yè)內部管理規(guī)定,更應涵蓋法律法規(guī)和其他規(guī)范性文件的相關規(guī)定。我國目前生成式AI算法訓練風險治理的相關法律依據還較少,僅零星見于《服務辦法》《中華人民共和國數據安全法》《中華人民共和國反壟斷法》《中華人民共和國網絡安全法》《中華人民共和國個人信息保護法》等法律以及一些專門規(guī)制算法的監(jiān)管法規(guī)如《互聯網信息服務管理辦法》《互聯網信息服務算法推薦管理規(guī)定》和《互聯網信息服務深度合成管理規(guī)定》的具體條文中。

        而在生成式AI算法訓練合規(guī)管理的企業(yè)方案構建和具體實施上,我國已經發(fā)布的《中央企業(yè)合規(guī)管理指引(試行)》《個人信息保護合規(guī)審計管理辦法》《企業(yè)知識產權合規(guī)標準指引(試行)》《企業(yè)境外經營合規(guī)管理指引》《中央企業(yè)合規(guī)管理辦法》《經營者反壟斷合規(guī)指南》《合規(guī)管理體系要求及使用指南》等文件,能夠為其提供重要參考。

        (二)生成式AI 算法訓練合規(guī)管理的法定義務主體

        確定生成式AI算法訓練合規(guī)管理的法定義務主體具有不可或缺的作用。生成式AI算法訓練合規(guī)管理的法定義務主體范疇可根據以上生成式AI算法訓練相關法律法規(guī)來確定?!斗辙k法》給我國生成式AI的合規(guī)主體指明了大致方向和基本定義,即“利用生成式人工智能算法提供聊天和文本、圖像、聲音生成等服務的組織”,但是生成式AI算法訓練合規(guī)管理的義務主體應在此輪廓下進行以下兩方面的辨析:

        其一,將義務主體中的“服務提供者”范疇限縮到“提供生成式AI算法訓練活動的供應商和第三方服務機構”。其中,供應商是進行生成式人工智能算法訓練活動的最主要提供者,需要對算法訓練的質量和可靠性負責。在算法訓練過程中,供應商需要確保算法的準確性和效率,同時也需要遵守相關的法律法規(guī)和標準,以確保算法的訓練過程和行為符合監(jiān)管要求;而第三方服務機構是協助供應商進行算法訓練的服務提供商。這些服務機構需遵守算法訓練領域相關的法律法規(guī)和標準,以確保其算法訓練活動符合監(jiān)管要求。

        其二,借鑒美國2022年《算法責任法案》將“個人”納入算法責任主體的做法和規(guī)定④,應將“從事生成式AI算法訓練活動的個人”也納入義務主體的范圍。即雖然在法律的制度和實施層面,認為企業(yè)主體才是對外承擔算法訓練合規(guī)責任主體,但是在算法訓練合規(guī)具體實踐中,企業(yè)主體內部須對“從事生成式AI算法訓練活動”的個人進行合規(guī)義務的“分配”與“監(jiān)督”,納入企業(yè)內部合規(guī)管理機制,相關個人實際上也將對生成式AI算法企業(yè)合規(guī)風險承擔責任和不利后果。當然,將“從事生成式AI算法訓練活動的個人”納入義務主體的基礎在于法律法規(guī)的明文規(guī)定或者企業(yè)內部算法訓練合規(guī)的管理制度與細則的明確規(guī)定。所以為更好地對生成式AI算法訓練風險進行治理,需要進一步出臺相關合規(guī)監(jiān)管法規(guī);生成式AI也應當盡快確立算法訓練合規(guī)管理制度和細則,以確定個人義務主體。

        (三)生成式AI 算法訓練合規(guī)管理的法律監(jiān)管要求

        相比域外生成式AI算法訓練的治理行動,我國走在了前列,如《服務辦法》的迅速出臺。本文特對《服務辦法》中生成式AI算法訓練的相關監(jiān)管規(guī)定進行共性梳理與要點分析,結合域外相關制度經驗,探討生成式AI企業(yè)算法訓練合規(guī)管理依法建設的法律監(jiān)管要求。

        其一,算法訓練的數據合規(guī)建設要求。生成式AI企業(yè)應當對算法訓練階段所涉及被獲取、整合、訓練、輸出的全部數據的合法性與安全性負責并做好合規(guī)建設。具體應滿足以下要求:符合算法訓練活動安全相關法律法規(guī)的要求;不含有侵犯知識產權的內容;數據包含個人信息的,應當征得個人信息主體同意或者符合法律、法規(guī)規(guī)定的其他情形;保證算法訓練數據的真實性、準確性、客觀性。

        其二,算法訓練的人工標注合規(guī)建設要求。對算法訓練中體現人類偏好的人工標注的要求和約束必不可少。當算法訓練中采用人工標注時,生成式AI企業(yè)應當制定清晰、具體、可操作的標注規(guī)則,對標注人員進行必要培訓,并抽樣核驗標注內容的正確性。

        其三,算法訓練的行為標準合規(guī)建設要求。為更好地對生成式AI企業(yè)的算法訓練合規(guī)管理標準提出要求,應當從糾偏與歸正兩個方面對其進行展開,即生成式AI企業(yè)應當建立用戶投訴接收處理機制以實現算法訓練行為糾偏,應通過算法模型優(yōu)化訓練來作出算法訓練行為歸正。

        四、生成式AI算法訓練合規(guī)管理的依法建設

        當前學界對于企業(yè)合規(guī)作用機理的探討主要分為“外部應對”和“內生驅動”[26]。無論是由“外部應對”走向“內生驅動”,還是以“內生驅動”配合“外部應對”,具體到生成式AI算法訓練合規(guī)管理領域,都應從“內外有別”轉至“內外協調”思路,即應力求在企業(yè)自行依法建設內部合規(guī)體系的同時,兼顧其與外部行政監(jiān)管與激勵的協調。故而要求生成式AI企業(yè)必須建立內涵豐富、體系完整且適應自身需求的制度程序并探索出能夠促進該體系有效實施的合規(guī)措施與舉動[27]。同時國家和政府層面還應配合和保障生成式AI企業(yè)實施算法訓練合規(guī)管理,即探索出一條內外雙面向、完備的算法訓練合規(guī)管理的依法建設進路。

        (一)生成式AI 算法訓練合規(guī)管理的企業(yè)實施

        1. 生成式AI企業(yè)算法訓練合規(guī)管理的實施原則

        企業(yè)合規(guī)管理,既要合行業(yè)之規(guī)、企業(yè)之規(guī),又要合法律之規(guī)以及道德之規(guī)。生成式AI企業(yè)如何準確、有效實施算法訓練合規(guī)管理呢?即生成式AI企業(yè)在被施加算法訓練合規(guī)管理的法定義務后,必須依法建設算法訓練風險的合規(guī)管理實施體系與機制。生成式AI企業(yè)在具體實施算法訓練合規(guī)管理方案前,應確定合規(guī)管理的實施原則。這套實施原則來源于前述法律對于算法訓練合規(guī)管理的監(jiān)管要求以及生成式AI企業(yè)自身在算法訓練合規(guī)管理中的實際需求。

        生成式AI算法訓練合規(guī)管理的實施原則主要包括三個方面。一是生成式AI算法訓練計劃合規(guī)管理,要求生成式AI算法訓練主體在訓練模型設計與計劃之初就應合理地預測和預防風險。具體包括:生成式AI企業(yè)算法訓練計劃的事前審查與批準;向公眾提供服務前應做好事前審批合規(guī)建設以及應提供可以影響用戶信任、選擇的必要信息。二是生成式AI算法訓練過程合規(guī)管理,要求生成式AI算法訓練主體在算法訓練過程中對風險進行把控與控制。生成式AI企業(yè)應確定好在算法訓練過程中本企業(yè)以及具體崗位的合規(guī)義務及履行標準,如對算法訓練的重點環(huán)節(jié)進行分類,然后對每個階段的崗位合規(guī)義務、合規(guī)義務來源、合規(guī)風險描述以及風險后果和應對措施進行安排,并按部就班根據標準完成。三是生成式AI算法訓練結果合規(guī)管理,要求生成式AI算法訓練主體對算法訓練結果的風險承擔責任,采取合規(guī)措施盡量減小損害與算法訓練的負外部性。生成式AI企業(yè)應對算法訓練結果負責,對其進行合規(guī)化評價和處置。具體包括:實名認證與算法防沉迷合規(guī);后端處理合規(guī);通過模型算法優(yōu)化訓練等方式防止再次生成以及暫停或者終止服務,等等。

        2. 生成式AI企業(yè)算法訓練合規(guī)管理的實施方案

        其一,構建算法訓練合規(guī)管理基礎性平臺?;A性合規(guī)平臺的構建是生成式AI企業(yè)實施算法訓練合規(guī)管理的基礎,其主要包括算法訓練基礎性合規(guī)要素和專門性合規(guī)要素兩個方面內容的確立。首先是算法訓練基礎性合規(guī)要素的構建。一個企業(yè)構建任何一項合規(guī)計劃,都應引入必要的基礎性合規(guī)要素[28]。生成式AI企業(yè)的算法訓練合規(guī)管理計劃也應當在建立起合規(guī)管理基礎性平臺的前提下,展開專項合規(guī)管理和內部監(jiān)督。而這里所述的基礎性平臺,應當將與生成式AI算法訓練合規(guī)管理相關的制度型要素建立起來,并使之在合規(guī)管理中得到實際的運作和生效,有力防范違法違規(guī)的算法訓練行為[29]?;A性合規(guī)要素在生成式AI算法訓練合規(guī)管理體系中可以發(fā)揮合規(guī)管理制度平臺的作用,幫助生成式AI企業(yè)確立算法訓練合規(guī)管理理念和基本準則,并配置預防算法訓練合規(guī)風險、監(jiān)控算法訓練合規(guī)管理和應對算法訓練違規(guī)行為的相應管理程序。然后是算法訓練專門性合規(guī)要素的確定。當生成式AI企業(yè)確定了基礎性合規(guī)要素之后,還需要確定算法訓練專門性合規(guī)要素。即生成式AI企業(yè)針對特殊的算法訓練合規(guī)風險,為防止發(fā)生特定的違法違規(guī)事件而建立的專門性合規(guī)管理制度,其處于核心性和保障性地位,包括算法訓練合規(guī)政策、算法訓練培訓內容、算法訓練崗位合規(guī)手冊和職責安排以及算法訓練合規(guī)持續(xù)改進機制等在內的各項要素。在算法訓練合規(guī)管理體系中引入專門性算法訓練合規(guī)要素,可促使生成式AI企業(yè)在因算法訓練不合規(guī)而受到相應約束或者制裁后,進一步完善算法訓練合規(guī)管理,預防相應特定約束或者制裁的再次發(fā)生。

        其二,對算法訓練全流程合規(guī)風險的處理。生成式AI企業(yè)在進行算法訓練的過程中,應及時、全面地識別可能出現的各項合規(guī)風險并盡可能作出合規(guī)預防與處置。最保險和全面的措施,即在生成式AI企業(yè)內部構建算法訓練合規(guī)風險處理機制。首先是算法訓練合規(guī)風險識別環(huán)節(jié)。合規(guī)風險識別是生成式AI企業(yè)算法訓練合規(guī)風險預防與治理的邏輯起點。這一環(huán)節(jié)主要是查找與識別在算法訓練鏈條中可能出現的合規(guī)風險,經由事前調查只做出客觀的判斷,履行提示注意義務,而不作進一步的價值評價。需要特別注意的是,該環(huán)節(jié)識別的應為具體、客觀存在且具備重要性的算法訓練合規(guī)風險。其次是算法訓練合規(guī)風險評估環(huán)節(jié)。風險評估是生成式AI企業(yè)算法訓練合規(guī)體系功能得以實現的核心部分。如果說生成式AI企業(yè)內部算法訓練合規(guī)風險的識別環(huán)節(jié)是“一兜子”操作,那么評估環(huán)節(jié)就是將“一兜子”里的風險進行“篩選”,將對企業(yè)內部有重大影響和對外部具有顯著負外部性的算法訓練風險挑選出來,以進行下一環(huán)節(jié)的風險處置。最后是算法訓練合規(guī)風險應對環(huán)節(jié)。風險應對環(huán)節(jié)是生成式AI企業(yè)算法訓練內部合規(guī)治理機制運行的后置保障。這一環(huán)節(jié)是生成式AI企業(yè)把握前述被識別與評價的重要風險,采取可行度高的調節(jié)舉措,建立生成式AI算法訓練合規(guī)風險處置機制。

        (二)生成式AI 算法訓練合規(guī)管理的行政監(jiān)管

        相較于對內面向的生成式AI企業(yè)自主履行算法訓練合規(guī)義務,對外面向的行政機制可以充分發(fā)揮其監(jiān)管(約束)與激勵功能,一方面以提高成本或增加責任的方式促使企業(yè)實施算法訓練合規(guī)管理,另一方面以增大效益或減輕責任的方式激勵企業(yè)建設算法訓練合規(guī)管理。行政監(jiān)管具體包括以下措施:

        1. 生成式AI企業(yè)算法訓練的專門備案

        算法備案制度是“有效市場與有為政府相結合”的治理原則在互聯網和算法領域的拓展和創(chuàng)新,是在數字法治的實踐背景下推進算法治理的一項重要舉措[30]。算法訓練專項備案環(huán)節(jié)系針對算法訓練計劃和實施過程而言:生成式AI企業(yè)在算法訓練合規(guī)管理的計劃和過程中,需要對外配合行政監(jiān)管程序、進行算法訓練計劃與過程中相關信息的報備與披露。

        其一,首次備案。當生成式AI企業(yè)設計完成算法訓練計劃時,即應進入備案程序,此為首次備案。首次備案主要應考慮其范圍和內容。范圍方面,要考慮的因素包括是否具有備案的必要性、是否具有備案的可操作性以及一般追責方式是否能夠滿足相關的維權需求。內容方面,本文認為除已有的算法主體信息、算法信息、產品及功能信息等三項算法備案通用信息以外,還應包括一些算法訓練特定內容,如算法訓練合規(guī)管理計劃的整體方案、方案實施步驟以及方案安全評估情況信息,生成式AI企業(yè)內部算法訓練合規(guī)實施的關鍵環(huán)節(jié)等。

        其二,變更備案。生成式AI企業(yè)在算法訓練過程中,若算法訓練實施與計劃方案有重大變化時,應將變化后的方案以及與原方案出入較大的對比信息提交備案。而這種“重大變化”應在首次備案時,就已經一同上傳備案系統并通過備案主管部門的審核。若備案主管部門認為生成式AI企業(yè)實施算法訓練過程中實際系“重大變化”但未記載于首次備案記錄中的,可自行決定是否要求生成式AI企業(yè)進行變更備案。

        2. 生成式AI企業(yè)算法訓練的專項審計

        存在重大風險甚至可能影響國家安全的項目,都可以納入審計范疇,域外有此先例,如英國、荷蘭最高審計機關均對政府部門的模型算法進行審計[31]。我國已開始有這方面的行動,2023年8月3日,國家互聯網信息辦公室就《個人信息保護合規(guī)審計管理辦法(征求意見稿)》公開征求意見,首次正式提出“個人信息保護合規(guī)審計”,也為我國算法訓練合規(guī)審計的設立提供思路與參考。有鑒于此,需要從以下兩個方面展開對其算法訓練合規(guī)專項審計項目的設立。

        其一,內部審計。這是針對企業(yè)內部而言,即生成式AI企業(yè)自行開展算法訓練合規(guī)審計,根據實際情況,由其內部機構或委托專業(yè)機構展開。其可以深入算法訓練的整個運行過程,訪問、審查算法訓練的數據,測試算法訓練過程,審查算法訓練的數據參與集、參數信息等重要信息以及整合外部審計無法得到的算法訓練過程中的細節(jié),從而精確地對算法訓練合規(guī)風險進行識別與把控。

        其二,外部審計。這是針對企業(yè)外部而言,包括國家審計和社會審計。國家審計,即履行生成式AI算法訓練合規(guī)監(jiān)管職責的部門在履行職責過程中,發(fā)現生成式AI算法訓練活動存在較大風險或者發(fā)生安全事件的,可以要求生成式AI企業(yè)委任專業(yè)機構對其算法訓練活動進行合規(guī)審計。而社會審計,是社會類審計機構“參與式審計”生成式AI企業(yè)算法訓練合規(guī)建設與管理情況[32]。相比內部審計和國家審計,其更具變通性,系前兩者的有益拓展與補償,能夠有效監(jiān)督生成式AI企業(yè)履行算法訓練合規(guī)義務,形成合規(guī)審計合力。

        (三)生成式AI 算法訓練合規(guī)管理的行政激勵

        有學者認為,企業(yè)如果能夠建立優(yōu)良的合規(guī)管理機制,更加可能與行政機關達成行政和解協議[33]。因為激發(fā)企業(yè)內部驅動力是促使算法訓練合規(guī)管理依法建設和落實的關鍵。故而目前針對生成式AI企業(yè)算法訓練合規(guī)管理的行政執(zhí)法需要由主動執(zhí)法向被動執(zhí)法轉變,這就需要在行政執(zhí)法環(huán)節(jié),通過與生成式AI企業(yè)達成行政和解協議或者給予其行政處罰減免等方式來推動其實施算法訓練合規(guī)管理[34]。

        其一,與生成式AI企業(yè)達成行政和解協議來促使其履行算法訓練合規(guī)管理義務。在美國,行政和解協議的使用更加常見,例如美國證券交易委員會(SEC)對企業(yè)涉嫌違法違規(guī)的案件,95%都是以行政和解的方式處理的[35]。具體到算法訓練合規(guī)管理的行政領域而言,國家行政監(jiān)管部門起草生成式AI算法訓練行政合規(guī)指南,在允許監(jiān)管部門與生成式AI企業(yè)達成行政和解協議的前提下,企業(yè)按照和解協議內容自行完成算法訓練合規(guī)管理義務的積極履行或者對違規(guī)行為進行整改,然后就可以根據和解協議不再對其行政處置。

        其二,給予生成式AI企業(yè)行政處罰減免以激勵其實施算法訓練合規(guī)管理?,F行法律應當在已有的行政和解基礎上,進一步增設算法訓練合規(guī)激勵的“軟法”條款,明確將生成式AI企業(yè)算法訓練合規(guī)管理的實施作為行政免予處罰的依據,建立相應的附條件免予處罰制度[36]。

        五、結論與啟示

        隨著生成式AI的迅猛發(fā)展,其未來應用場景充滿無限的可能,不僅改變人們的生活方式和思維模式,而且將對技術躍遷和人類社會產生巨大影響。目前已有部分行業(yè)著手進行生成式AI在各個場景的研發(fā)與應用,如生成式AI金融服務、生成式AI醫(yī)療客服和生成式AI監(jiān)管科技等。但是技術的的開發(fā)與使用始終伴有風險,需要對其進行善治。我國雖然針對生成式AI技術的應用專門出臺了《服務辦法》,但是總體持包容性法律治理的態(tài)度,支持治理主體、治理方式和治理結果的包容性和多元化。本文立足生成式AI算法訓練的內發(fā)性與自主性,并結合合規(guī)依法建設的經驗,從現實需求與理論層面證成了生成式AI算法訓練風險引入合規(guī)管理的必要性、合理性與可行性。但當前我國存在對其制度供給不足的困境,故需要結合法律解釋的功能,將生成式AI算法訓練合規(guī)管理的法律依據進行梳理:不僅將生成式AI算法訓練合規(guī)作為一種法定義務進行考察,并且將目前生成式AI算法訓練合規(guī)管理相關法律體系以及全面監(jiān)管要求進行特別地整理與說明。據此構建生成式AI企業(yè)內外雙重面向的算法訓練合規(guī)管理的依法建設機制,即包括生成式AI企業(yè)算法訓練合規(guī)管理的實施方案以及其外部合規(guī)監(jiān)管與激勵。誠然,現階段我們正在逐漸走向強人工智能時代,且技術將持續(xù)不斷地發(fā)展。不論是“人工智能法”的出臺,還是本文所述算法訓練合規(guī)管理的依法建設,都不會是生成式AI算法訓練風險治理的終點,而只是該征程的階段性成果,亟需更多法律化手段的出現,以實現對人工智能風險的防范與治理。

        猜你喜歡
        風險治理合規(guī)管理
        江蘇省中小企業(yè)技術創(chuàng)新風險社會分攤制度實踐研究
        價值工程(2017年24期)2017-07-17 15:05:01
        山西文化旅游產業(yè)集群風險治理研究
        關于對大連地區(qū)保險公司合規(guī)經營的幾點思考
        互聯網金融分析
        時代金融(2016年27期)2016-11-25 16:13:38
        試論縣級農村信用合作聯社合規(guī)風險管理的難點及對策
        中國經貿(2016年16期)2016-10-27 13:06:17
        我國城市商業(yè)銀行合規(guī)管理中存在的主要問題
        金融服務外包風險治理機制及管理框架構建
        8888四色奇米在线观看| 免费国产在线视频自拍白浆| 亚洲av无码码潮喷在线观看| 国产免费丝袜调教视频| 亚洲V在线激情| 国产精品黄页免费高清在线观看| 91九色人妻精品一区二区三区| 国产亚洲一本大道中文在线| 亚洲国产精品久久久久久久| 国产在线观看免费一级| 亚洲不卡av一区二区三区四区| 亚洲av网一区二区三区| 中文亚洲av片在线观看不卡| 成人无码激情视频在线观看| 国产性感午夜天堂av| 男人和女人做爽爽免费视频| 无码aⅴ在线观看| 亚洲青青草视频在线播放| 亚洲国产av一区二区三区天堂| 久久www免费人成精品| 2021国产视频不卡在线| 91国产超碰在线观看| 日本一区二区在线高清观看| 亚洲综合色区另类av| 国产成人免费a在线视频| 亚洲一区二区三区高清视频| 26uuu在线亚洲欧美| 国产精品人妻一码二码尿失禁| 婷婷色国产精品视频一区| 中文字幕亚洲一区视频| 午夜精品久久久久久久无码| 国产成人亚洲综合无码| 国产男女猛烈无遮挡免费视频网址 | 最新亚洲av日韩av二区| 青青草针对华人超碰在线| 国产亚洲精品97在线视频一| 欧美日韩精品| 国产久视频| 亚洲一区二区三区激情在线观看| 久久国产亚洲高清观看| 人妻少妇不满足中文字幕|