摘" 要:[研究目的]隨著ChatGPT類生成式人工智能技術(shù)的迅猛發(fā)展,其可能帶來的隱私泄露與數(shù)據(jù)安全風(fēng)險(xiǎn)、侵犯知識(shí)產(chǎn)權(quán)犯罪風(fēng)險(xiǎn)、經(jīng)濟(jì)與金融犯罪風(fēng)險(xiǎn)、社會(huì)信任與信息真實(shí)性風(fēng)險(xiǎn)等諸多問題日益凸顯,進(jìn)而催生了治理生成式人工智能犯罪風(fēng)險(xiǎn)的時(shí)代訴求。探究一套系統(tǒng)的治理框架,以應(yīng)對(duì)和減輕此類風(fēng)險(xiǎn),確保生成式人工智能技術(shù)的合理利用與可持續(xù)發(fā)展有重要意義。[研究方法]運(yùn)用案例分析法,深入剖析了具體案例中生成式人工智能犯罪的表現(xiàn)形式、成因及危害;同時(shí),采用了比較分析法,對(duì)比了國內(nèi)外在治理生成式人工智能犯罪風(fēng)險(xiǎn)方面的法律法規(guī)、政策、舉措及實(shí)踐經(jīng)驗(yàn)。[研究結(jié)論]在當(dāng)前生成式人工智能犯罪風(fēng)險(xiǎn)的治理體系中,存在法律規(guī)制的滯后性、技術(shù)中立原則界限的模糊、技術(shù)監(jiān)測(cè)與識(shí)別能力的限制、跨境監(jiān)管合作的缺失等問題,亟待從完善法律法規(guī)體系、強(qiáng)化倫理準(zhǔn)則與行業(yè)自律、提升技術(shù)監(jiān)管與防御能力、加強(qiáng)國際合作與信息共享、提升公眾意識(shí)與教育等多維度綜合治理,從而實(shí)現(xiàn)生成式人工智能的健康發(fā)展。
關(guān)鍵詞:ChatGPT;生成式人工智能;犯罪風(fēng)險(xiǎn);治理困境;治理路徑
中圖分類號(hào):D917.6 文獻(xiàn)標(biāo)識(shí)碼:A DOI:10.19881/j.cnki.1006-3676.2024.11.06
2023年4月,中國國家互聯(lián)網(wǎng)信息辦公室發(fā)布的《生成式人工智能服務(wù)管理辦法(征求意見稿)》規(guī)定,生成式人工智能(Generative Artificial Intelligence)是指“基于算法、模型、規(guī)則生成文本、圖片、聲音、視頻、代碼等內(nèi)容的技術(shù)”。ChatGPT作為OpenAI在2022年年底推出的生成式語言模型實(shí)例,是標(biāo)志著當(dāng)前高水平生成式人工智能技術(shù)的應(yīng)用。ChatGPT采納了自然語言處理(NLP)與搜索引擎集成的先進(jìn)架構(gòu),構(gòu)建了大規(guī)模的預(yù)訓(xùn)練模型,該模型深度融合了大型語料庫與強(qiáng)化學(xué)習(xí)的微調(diào)策略,并對(duì)接了豐富的語料資源。通過針對(duì)序列數(shù)據(jù)的精密預(yù)處理技術(shù),確保了模型能夠深刻理解語言結(jié)構(gòu)與語境,進(jìn)而展現(xiàn)出卓越的語言理解與文本生成能力,能夠有效應(yīng)對(duì)多樣化的用戶指令任務(wù),展示了其在自然語言處理領(lǐng)域的應(yīng)用潛力。
“在風(fēng)險(xiǎn)社會(huì)里,風(fēng)險(xiǎn)意識(shí)和風(fēng)險(xiǎn)規(guī)避是一個(gè)社會(huì)的主要特征?!盵1]隨著生成式人工智能技術(shù)的飛速躍進(jìn),這一領(lǐng)域不僅拓寬了創(chuàng)新的邊界,同時(shí)也對(duì)司法實(shí)踐提出了前所未有的挑戰(zhàn),尤其是在犯罪預(yù)防與法律規(guī)制方面。這要求人類在享受技術(shù)進(jìn)步帶來的盛宴之時(shí),必須具備前瞻性的視野,主動(dòng)識(shí)別并系統(tǒng)分析這些創(chuàng)新可能帶來的犯罪風(fēng)險(xiǎn),特別是那些可能催生新型犯罪的風(fēng)險(xiǎn)因素。因此,在厘清犯罪風(fēng)險(xiǎn)內(nèi)在機(jī)理的基礎(chǔ)上,構(gòu)建一套既能促進(jìn)技術(shù)良性發(fā)展,又能有效防范與應(yīng)對(duì)犯罪風(fēng)險(xiǎn)的法律治理體系,成為當(dāng)前法學(xué)理論研究與實(shí)踐亟待解決的關(guān)鍵議題[2]。
一、生成式人工智能的犯罪風(fēng)險(xiǎn)
隨著生成式人工智能技術(shù)的迅猛發(fā)展,其在帶來諸多便利與創(chuàng)新的同時(shí),也潛藏著不容忽視的犯罪風(fēng)險(xiǎn),這些風(fēng)險(xiǎn)多維度地影響著社會(huì)安全與法治秩序。具體而言,生成式人工智能可能引發(fā)的犯罪風(fēng)險(xiǎn)主要包括以下幾個(gè)方面。
(一)隱私泄露與數(shù)據(jù)安全風(fēng)險(xiǎn)
生成式人工智能在推動(dòng)創(chuàng)新前沿的同時(shí),也伴隨著潛在的犯罪風(fēng)險(xiǎn),尤其是在隱私與數(shù)據(jù)安全領(lǐng)域。這類系統(tǒng)通過學(xué)習(xí)海量數(shù)據(jù)來優(yōu)化其性能,這一過程隱含了不當(dāng)收集與使用敏感信息的風(fēng)險(xiǎn),影響了個(gè)人隱私權(quán)的保障及數(shù)據(jù)保護(hù)法規(guī)的執(zhí)行。具體而言,生成式人工智能數(shù)據(jù)管理的缺陷突顯了三重法律風(fēng)險(xiǎn):一是個(gè)人信息泄露導(dǎo)致的侵犯隱私權(quán)問題;二是商業(yè)秘密泄露導(dǎo)致的不正當(dāng)競(jìng)爭(zhēng)和侵權(quán)問題;三是國家秘密泄露導(dǎo)致的危害國家安全問題[3]。
生成式人工智能在構(gòu)建模型時(shí),數(shù)據(jù)的收集與利用呈現(xiàn)出雙重風(fēng)險(xiǎn)。在追求模型廣度與深度的過程中,一方面,為了提升模型性能,生成式人工智能系統(tǒng)通常需要廣泛搜集各類數(shù)據(jù),但這一過程若缺乏明確界限,可能會(huì)違反《中華人民共和國網(wǎng)絡(luò)安全法》(以下簡(jiǎn)稱《網(wǎng)絡(luò)安全法》)、《中華人民共和國數(shù)據(jù)安全法》與《中華人民共和國個(gè)人信息保護(hù)法》(以下簡(jiǎn)稱《個(gè)人信息保護(hù)法》),特別是當(dāng)涉及國家數(shù)據(jù)、政府信息和個(gè)人隱私時(shí);另一方面,算法對(duì)數(shù)據(jù)的深入解析,雖旨在提升服務(wù),但可能在未經(jīng)用戶充分知情同意的情況下,搜集并利用用戶的敏感信息,該行為嚴(yán)重侵犯了用戶的隱私權(quán)。
因此,生成式人工智能所引發(fā)的犯罪風(fēng)險(xiǎn),亟待從法律、技術(shù)和倫理等多維視角出發(fā),既要明確數(shù)據(jù)收集與利用的法律邊界,也要在技術(shù)設(shè)計(jì)中嵌入法律規(guī)范,確保達(dá)到技術(shù)革新與社會(huì)安全、個(gè)人權(quán)益保護(hù)之間的和諧,從而推動(dòng)人工智能的健康發(fā)展。
(二)侵犯知識(shí)產(chǎn)權(quán)風(fēng)險(xiǎn)
在內(nèi)容創(chuàng)造領(lǐng)域,生成式人工智能技術(shù)的應(yīng)用極大促進(jìn)了創(chuàng)意內(nèi)容的多樣性生成,同時(shí)也對(duì)傳統(tǒng)的知識(shí)產(chǎn)權(quán)保護(hù)體系提出了新的挑戰(zhàn)。該技術(shù)通過對(duì)海量數(shù)據(jù)樣本的學(xué)習(xí)與模仿,創(chuàng)造出與原作品高度相似的新內(nèi)容,這一過程中潛在的版權(quán)侵權(quán)風(fēng)險(xiǎn)不容忽視。
從刑法角度審視,若生成式人工智能在獲得預(yù)訓(xùn)練數(shù)據(jù)、優(yōu)化訓(xùn)練數(shù)據(jù)時(shí)未經(jīng)著作權(quán)人許可,則可能被認(rèn)定為《中華人民共和國刑法》第217條規(guī)定的侵犯著作權(quán)罪中涉及的“復(fù)制”行為;若生成式人工智能通過信息網(wǎng)絡(luò)等途徑向公眾提供了該復(fù)制的“作品”,則可能被認(rèn)定為該條款中的“通過信息網(wǎng)絡(luò)向公眾傳播”行為。因此,生成式人工智能的運(yùn)用存在侵犯著作權(quán)的法律風(fēng)險(xiǎn)[4]。
同時(shí),隨著人工智能生成內(nèi)容的增多,如何準(zhǔn)確識(shí)別和界定人工智能創(chuàng)作內(nèi)容與人類創(chuàng)作內(nèi)容的界限,成了知識(shí)產(chǎn)權(quán)領(lǐng)域的一大挑戰(zhàn)。人工智能創(chuàng)作內(nèi)容的版權(quán)歸屬、侵權(quán)責(zé)任的認(rèn)定以及版權(quán)保護(hù)的合理邊界等諸多問題,都需要在現(xiàn)有法律框架下進(jìn)行深入探討和重新界定。
綜上所述,生成式人工智能技術(shù)在推動(dòng)內(nèi)容創(chuàng)作革新的同時(shí),也給知識(shí)產(chǎn)權(quán)保護(hù)帶來了新的風(fēng)險(xiǎn)。這一風(fēng)險(xiǎn)不僅涉及知識(shí)產(chǎn)權(quán)保護(hù)這一傳統(tǒng)領(lǐng)域,還可能觸及網(wǎng)絡(luò)傳播、數(shù)據(jù)保護(hù)和技術(shù)倫理等多個(gè)層面。如何在尊重創(chuàng)新自由和保護(hù)知識(shí)產(chǎn)權(quán)之間找到平衡點(diǎn),是當(dāng)前法律實(shí)務(wù)和理論研究亟待解決的課題。
(三)經(jīng)濟(jì)與金融犯罪風(fēng)險(xiǎn)
在經(jīng)濟(jì)與金融犯罪領(lǐng)域,人工智能技術(shù)的興起,尤其是ChatGPT類生成式人工智能的應(yīng)用,正深刻改變著犯罪行為的面貌,顯著增強(qiáng)了其復(fù)雜性與隱蔽性,對(duì)現(xiàn)有法律與監(jiān)管體系提出了嚴(yán)峻挑戰(zhàn)。這一技術(shù)革命不僅“拓展”了犯罪手段,還使得傳統(tǒng)犯罪行為在智能化加持下實(shí)現(xiàn)了“質(zhì)”與“量”的“雙重飛躍”。
具體而言,生成式人工智能技術(shù)的濫用已滲透至敲詐勒索和電信詐騙犯罪活動(dòng)中。犯罪分子通過生成式人工智能對(duì)潛在受害者進(jìn)行精準(zhǔn)畫像,并利用生成式人工智能生成高度定制化的詐騙劇本,通過虛擬角色的包裝,使受害者陷入精心設(shè)計(jì)的犯罪陷阱,進(jìn)而精準(zhǔn)實(shí)施定制化敲詐和詐騙方案,極大提高了犯罪成功率。生成式人工智能技術(shù)在經(jīng)濟(jì)犯罪領(lǐng)域存在潛在風(fēng)險(xiǎn)及破壞力。
ChatGPT類生成式人工智能系統(tǒng)雖內(nèi)置了安全防護(hù)措施,但其被破解的情況屢見不鮮,犯罪分子借此開發(fā)出各類惡意軟件,如高仿真度的釣魚郵件,用來竊取個(gè)人敏感信息,或是運(yùn)用人工智能算法生成加密惡意軟件以實(shí)施勒索攻擊,甚至利用人工智能腳本進(jìn)行SIM卡交換攻擊以實(shí)現(xiàn)身份盜竊。此類技術(shù)濫用不僅加劇了對(duì)個(gè)人財(cái)產(chǎn)安全的威脅,還嚴(yán)重影響社會(huì)經(jīng)濟(jì)秩序的穩(wěn)定。
未來,隨著多模態(tài)技術(shù)的不斷成熟和普及,信息欺詐的方式將更加多元化,通過文本驅(qū)動(dòng)的個(gè)性化圖像及音視頻制作將使欺詐行為的識(shí)別愈發(fā)困難。因此,應(yīng)對(duì)策略需雙管齊下:既要緊跟技術(shù)發(fā)展的步伐,又要強(qiáng)化法律法規(guī)體系建設(shè)和監(jiān)管技術(shù)創(chuàng)新,提高監(jiān)管科技的應(yīng)用水平,確保在促進(jìn)科技進(jìn)步的同時(shí),有效抑制其潛在的負(fù)面影響,從而維護(hù)經(jīng)濟(jì)與金融領(lǐng)域的安全與穩(wěn)定。
(四)社會(huì)信任與信息真實(shí)性風(fēng)險(xiǎn)
生成式人工智能技術(shù)的迅速發(fā)展,為信息創(chuàng)造帶來了革新,但同時(shí)也埋下了社會(huì)信任與信息真實(shí)性風(fēng)險(xiǎn)的隱患。該技術(shù)能夠輕易創(chuàng)造出高度逼真的假新聞、評(píng)論及虛構(gòu)身份,這不僅干擾了公共輿論的健康發(fā)展,而且還威脅市場(chǎng)誠信體系乃至國家安全的穩(wěn)固。人工智能生成內(nèi)容的隨意性和缺失的真實(shí)性,成為了亟待解決的關(guān)鍵問題。
在生成式人工智能驅(qū)動(dòng)的內(nèi)容創(chuàng)作應(yīng)用中,虛假信息泛濫的現(xiàn)象尤為突出,當(dāng)前已成為學(xué)界批判的焦點(diǎn)之一。此類信息不僅在知識(shí)認(rèn)知維度上引入錯(cuò)誤信息,形成“信息污染”,而且在價(jià)值觀構(gòu)建層面,通過潛移默化的方式植入誤導(dǎo)性思維模式,進(jìn)而演變成為影響廣泛的媒介議程中的公共誤解與謠言。該現(xiàn)象的產(chǎn)生可歸因于人工智能技術(shù)生成信息的便捷性和深度偽造技術(shù)的高度仿真性,兩者共同催生了社會(huì)風(fēng)險(xiǎn)。生成內(nèi)容的真實(shí)性缺陷,持續(xù)地誤導(dǎo)公眾的思維判斷,悄然影響著公眾輿論和觀念的形成。
以ChatGPT為例,其內(nèi)容輸出依賴于前期未經(jīng)人工審查的大量學(xué)習(xí)材料,這使得不實(shí)、違規(guī)或非法信息得以滲透。在缺乏有效篩選機(jī)制的情況下,ChatGPT生成的內(nèi)容可能包含錯(cuò)誤信息[5],即便訓(xùn)練數(shù)據(jù)本身無誤,也可能生成不實(shí)內(nèi)容,這是現(xiàn)有技術(shù)水平難以避免的。一旦虛假信息流通,可能會(huì)誤導(dǎo)公眾決策,導(dǎo)致其做出錯(cuò)誤的行動(dòng)選擇。
虛假信息的傳播對(duì)國家、社會(huì)及個(gè)人權(quán)益構(gòu)成三重威脅:第一,在國家層面,若生成式人工智能生成的虛假信息有損國家形象及政府公信力,容易引發(fā)公眾信任危機(jī),將導(dǎo)致國家形象遭受嚴(yán)重?fù)p害。第二,在社會(huì)層面,新聞媒體若采納未經(jīng)核實(shí)的人工智能生成內(nèi)容,可能導(dǎo)致虛假信息傳播,引發(fā)社會(huì)輿情動(dòng)蕩,嚴(yán)重威脅社會(huì)穩(wěn)定。第三,在個(gè)人層面,不法分子可能利用虛假內(nèi)容實(shí)施侮辱、誹謗或侵犯隱私等違法行為,同時(shí),用戶對(duì)虛假信息的誤認(rèn)也會(huì)導(dǎo)致個(gè)人決策失誤[6]。
綜上所述,生成式人工智能的快速發(fā)展給信息真實(shí)性帶來前所未有的挑戰(zhàn),這要求社會(huì)各界提高警覺,共同探索技術(shù)監(jiān)管和改進(jìn)方案,以維護(hù)社會(huì)信任,保障信息環(huán)境的健康與安全。
二、生成式人工智能犯罪風(fēng)險(xiǎn)的治理困境
生成式人工智能的犯罪風(fēng)險(xiǎn)具有顯著的復(fù)雜性、多樣性和智能性特征,這給犯罪風(fēng)險(xiǎn)治理帶來了多重挑戰(zhàn)。為科學(xué)探索治理路徑,深入縷析生成式人工智能犯罪風(fēng)險(xiǎn)的治理困境顯得尤為重要。
(一)法律規(guī)制的滯后性
生成式人工智能技術(shù)飛速發(fā)展,在帶來創(chuàng)新與便利的同時(shí),也引發(fā)了諸多法律與倫理挑戰(zhàn),突顯出現(xiàn)行法律規(guī)制體系的滯后性與應(yīng)對(duì)復(fù)雜問題的局限性。法律的完善速度常常難以跟上科技迭代的步伐,這導(dǎo)致新生技術(shù)領(lǐng)域內(nèi)法律缺位與規(guī)制盲點(diǎn)頻現(xiàn),在生成式人工智能這一前沿領(lǐng)域尤甚。
早期,我國對(duì)生成式人工智能的法律規(guī)制主要依賴于一系列分散的法規(guī)條文,如《個(gè)人信息保護(hù)法》《網(wǎng)絡(luò)安全法》與《中華人民共和國反不正當(dāng)競(jìng)爭(zhēng)法》等,分別針對(duì)數(shù)據(jù)獲取、處理、網(wǎng)絡(luò)行為及知識(shí)產(chǎn)權(quán)等方面設(shè)定規(guī)范。然而,這種分散式的治理策略雖能應(yīng)對(duì)部分問題,卻暴露出了法律界定模糊、針對(duì)性不足及滯后性等缺陷。例如,面對(duì)由生成式人工智能產(chǎn)出內(nèi)容的使用權(quán)歸屬以及如何平衡創(chuàng)新激勵(lì)與防范潛在風(fēng)險(xiǎn)等問題,現(xiàn)有框架顯現(xiàn)出了一定程度的局限性。
針對(duì)上述挑戰(zhàn),2023年7月,我國國家網(wǎng)信辦聯(lián)合國家發(fā)展改革委、教育部、科技部等七部門發(fā)布了《生成式人工智能服務(wù)管理暫行辦法》,標(biāo)志著我國在生成式人工智能規(guī)制領(lǐng)域的法治化進(jìn)程取得了新的進(jìn)展。這些規(guī)定旨在通過集中化、針對(duì)性的立法,表達(dá)國家的技術(shù)創(chuàng)新與安全并重的立場(chǎng),體現(xiàn)了促進(jìn)創(chuàng)新與依法治理相結(jié)合的方針。然而,這些初步探索亦暴露出定義不明晰、立法理念不夠具體、分級(jí)監(jiān)管機(jī)制缺乏細(xì)化標(biāo)準(zhǔn)等問題,尤其是對(duì)于服務(wù)商的具體責(zé)任界定及如何在保障安全與鼓勵(lì)創(chuàng)新間取得平衡,尚待進(jìn)一步明確。
2023年8月,中國社會(huì)科學(xué)院國情調(diào)研重大項(xiàng)目—《我國人工智能倫理審查和監(jiān)管制度建設(shè)狀況調(diào)研》課題組發(fā)布的《人工智能法示范法1.0》(專家建議稿),提出建立人工智能負(fù)面清單制度,意圖通過分級(jí)治理策略,實(shí)現(xiàn)對(duì)人工智能產(chǎn)品和服務(wù)的精細(xì)化管理。這一提議雖富有前瞻性和實(shí)踐價(jià)值,卻同樣面臨實(shí)施層面的困境,即分級(jí)依據(jù)的抽象性及缺乏具體操作標(biāo)準(zhǔn),使得在確保技術(shù)進(jìn)步與維護(hù)安全之間尋找平衡點(diǎn)的工作依舊任重道遠(yuǎn)[7]。
(二)技術(shù)中立原則界限的模糊
在人工智能領(lǐng)域,技術(shù)中立原則正面臨著前所未有的挑戰(zhàn)。該原則主張技術(shù)本身不具備道德屬性,其善惡取決于使用者的意圖和應(yīng)用方式。然而,隨著人工智能技術(shù)的飛速發(fā)展,特別是大型語言模型(LLM)等顛覆性技術(shù)的出現(xiàn),技術(shù)中立原則的界限變得愈發(fā)模糊,其在現(xiàn)實(shí)世界中的應(yīng)用遇到了深刻的法律與倫理困境。
首先,技術(shù)的快速發(fā)展已經(jīng)超越了現(xiàn)有法律和倫理規(guī)范的適應(yīng)能力。人工智能技術(shù)的潛在濫用風(fēng)險(xiǎn),如算法歧視、隱私侵犯、虛假信息傳播等問題,迫切需要新的法律解釋和倫理指導(dǎo)[8]。但是,法律的滯后性和倫理的模糊性使得對(duì)這些問題的規(guī)制變得復(fù)雜且充滿爭(zhēng)議。
其次,技術(shù)中立原則在實(shí)踐中往往被濫用為逃避責(zé)任的借口。一些服務(wù)提供者可能利用這一原則,將其技術(shù)可能導(dǎo)致的負(fù)面后果歸咎于用戶的不當(dāng)使用,從而規(guī)避自身的監(jiān)管和道德責(zé)任。這種趨勢(shì)不僅削弱了法律的約束力,也對(duì)社會(huì)信任和公共安全構(gòu)成了威脅。
再次,人工智能技術(shù)的全球性和跨國性特征,使得任何單一國家的法律和倫理規(guī)范都難以將其全面覆蓋。國際合作在人工智能治理中的必要性日益凸顯,但各國在法律傳統(tǒng)、倫理觀念、經(jīng)濟(jì)發(fā)展水平等方面的差異,導(dǎo)致統(tǒng)一的國際標(biāo)準(zhǔn)和監(jiān)管機(jī)制難以形成。
最后,人工智能技術(shù)的快速發(fā)展對(duì)現(xiàn)有的社會(huì)結(jié)構(gòu)和價(jià)值觀念產(chǎn)生了沖擊。技術(shù)中立原則在面對(duì)人工智能技術(shù)可能帶來的社會(huì)變革時(shí),自身的局限性逐漸顯現(xiàn)。如何在尊重技術(shù)發(fā)展的同時(shí),確保技術(shù)的應(yīng)用不違背人類的共同價(jià)值觀和社會(huì)正義,成為一個(gè)亟待解決的倫理困境[9]。
(三)技術(shù)監(jiān)測(cè)與識(shí)別能力的限制
在生成式人工智能迅猛發(fā)展過程中,技術(shù)監(jiān)測(cè)與識(shí)別能力的局限性逐漸成為制約其安全應(yīng)用的關(guān)鍵因素。特別是在自然語言處理(NLP)領(lǐng)域,大模型的安全性和穩(wěn)定性問題尤為突出,對(duì)人工智能犯罪的早期預(yù)防與即時(shí)干預(yù)構(gòu)成了嚴(yán)重障礙。
當(dāng)前,大型自然語言處理模型在抵御各種攻擊方面的能力不足,尤其是在面對(duì)訓(xùn)練數(shù)據(jù)提取攻擊、數(shù)據(jù)投毒等數(shù)據(jù)攻擊活動(dòng)時(shí),其脆弱性暴露無遺[10]。這些攻擊手段不僅威脅到模型的安全,更可能導(dǎo)致嚴(yán)重的隱私泄露問題。隨著模型規(guī)模的不斷擴(kuò)大,其處理的數(shù)據(jù)量呈指數(shù)級(jí)增長(zhǎng),這使得模型的脆弱性問題愈發(fā)嚴(yán)重,隱私泄露的風(fēng)險(xiǎn)也相應(yīng)增加。
此外,訓(xùn)練數(shù)據(jù)提取攻擊等手段在技術(shù)上相對(duì)容易實(shí)施,但是能夠有效對(duì)抗這些攻擊的技術(shù)方案卻仍然缺乏。這一現(xiàn)狀不僅影響模型的安全性,也對(duì)數(shù)據(jù)治理機(jī)制的建立提出了更高要求。大型自然語言處理模型在訓(xùn)練過程中廣泛使用了從公共網(wǎng)頁爬取的海量數(shù)據(jù),但是這些數(shù)據(jù)的安全性和合規(guī)性難以得到充分保障,這種狀況加劇了數(shù)據(jù)治理的復(fù)雜性。
面對(duì)這些挑戰(zhàn),開發(fā)者和監(jiān)管者亟待加強(qiáng)模型的防御能力,建立更為安全可控的數(shù)據(jù)治理機(jī)制。然而,如何在保障技術(shù)創(chuàng)新的同時(shí)確保人工智能技術(shù)的安全應(yīng)用,避免潛在的濫用風(fēng)險(xiǎn),仍是一個(gè)亟待解決的復(fù)雜問題。此外,隨著人工智能技術(shù)的不斷進(jìn)步,監(jiān)測(cè)與識(shí)別技術(shù)也需要與時(shí)俱進(jìn)地進(jìn)行更新迭代,以適應(yīng)不斷變化的安全威脅。
(四)跨境監(jiān)管合作的缺失
在全球化的背景下,跨境監(jiān)管合作的缺失在人工智能領(lǐng)域尤為突出,對(duì)應(yīng)對(duì)人工智能相關(guān)的跨境犯罪活動(dòng)構(gòu)成了重大挑戰(zhàn)。人工智能技術(shù)的全球性特征要求跨國界的監(jiān)管合作,以應(yīng)對(duì)單一國家難以獨(dú)立解決的復(fù)雜問題。
首先,生成式人工智能在跨境數(shù)據(jù)流動(dòng)中的參與,引發(fā)了一系列政治安全和法律風(fēng)險(xiǎn)。生成式人工智能平臺(tái)通過降低信息跨境傳輸?shù)某杀荆龠M(jìn)了數(shù)據(jù)的自由流動(dòng),但同時(shí)也增加了數(shù)據(jù)泄露的風(fēng)險(xiǎn)[11]。由于生成式人工智能的訓(xùn)練和數(shù)據(jù)爬取活動(dòng)涉及全球范圍內(nèi)的樣本,其潛在的安全隱患不容忽視。數(shù)據(jù)的跨境流動(dòng)不僅涉及個(gè)人隱私保護(hù),還可能觸及國家安全和公共利益的敏感領(lǐng)域[12]。
其次,不同國家和地區(qū)在人工智能治理上存在差異,導(dǎo)致了國際合作的復(fù)雜性。各國的法律體系、文化傳統(tǒng)、經(jīng)濟(jì)發(fā)展水平等方面存在差異,導(dǎo)致統(tǒng)一的國際監(jiān)管標(biāo)準(zhǔn)和合作機(jī)制難以形成。這種差異性反映在對(duì)人工智能技術(shù)應(yīng)用的態(tài)度和期望上。一些國家可能更注重技術(shù)創(chuàng)新和經(jīng)濟(jì)發(fā)展,而另一些國家則可能更關(guān)注技術(shù)安全和社會(huì)穩(wěn)定。
此外,國際合作的缺失還體現(xiàn)在監(jiān)管技術(shù)和經(jīng)驗(yàn)的共享不足。盡管一些國家在人工智能監(jiān)管方面取得了一定的進(jìn)展,但這些成果往往未能在全球范圍內(nèi)得到有效推廣。缺乏有效的國際合作機(jī)制,使得各國在人工智能監(jiān)管方面的努力往往處于孤掌難鳴的狀態(tài),難以形成監(jiān)管合力。
更為嚴(yán)峻的是,跨境人工智能犯罪的隱蔽性和復(fù)雜性,對(duì)現(xiàn)有的監(jiān)管體系提出了更高的要求。犯罪分子可能利用人工智能技術(shù)進(jìn)行洗錢、網(wǎng)絡(luò)攻擊、電信詐騙、虛假信息傳播等違法犯罪活動(dòng),這些活動(dòng)往往跨國進(jìn)行,現(xiàn)有監(jiān)管體系往往難以適應(yīng)這種跨境、高技術(shù)性的犯罪形式,難以對(duì)其進(jìn)行有效追蹤和打擊,需要更為先進(jìn)的監(jiān)管技術(shù)和國際合作機(jī)制。
綜上所述,跨境監(jiān)管合作的缺失給人工智能領(lǐng)域帶來了一個(gè)嚴(yán)峻的問題,那就是如何在尊重各國主權(quán)和法律多樣性的基礎(chǔ)上,建立有效的國際合作機(jī)制,共同應(yīng)對(duì)人工智能領(lǐng)域的跨境風(fēng)險(xiǎn)。解決這一問題,不僅需要各國政府的積極參與,還需要國際組織、學(xué)術(shù)界、技術(shù)社群和民間組織和全社會(huì)的共同努力,以形成一個(gè)全面、協(xié)調(diào)、高效的全球人工智能監(jiān)管網(wǎng)絡(luò)。
三、生成式人工智能犯罪風(fēng)險(xiǎn)的治理路徑
面對(duì)生成式人工智能技術(shù)帶來的復(fù)雜且多樣的犯罪風(fēng)險(xiǎn),構(gòu)建一個(gè)全面、系統(tǒng)且高效的治理框架顯得尤為重要。通過綜合運(yùn)用法律、倫理、技術(shù)、國際合作及公眾教育等手段,確保人工智能技術(shù)的健康發(fā)展與社會(huì)的和諧穩(wěn)定。
(一)完善法律法規(guī)體系
在生成式人工智能技術(shù)迅猛發(fā)展的當(dāng)下,其潛在的犯罪風(fēng)險(xiǎn)對(duì)現(xiàn)有的法律體系提出了嚴(yán)峻挑戰(zhàn)。為了有效應(yīng)對(duì)這些風(fēng)險(xiǎn),必須在國內(nèi)和國際層面上構(gòu)建和完善法律框架,確保人工智能技術(shù)的健康發(fā)展和應(yīng)用。
歐盟在數(shù)據(jù)保護(hù)領(lǐng)域先行一步,《通用數(shù)據(jù)保護(hù)條例》(GDPR)為個(gè)人信息安全提供了堅(jiān)實(shí)的法律基礎(chǔ),對(duì)促進(jìn)跨國數(shù)字經(jīng)濟(jì)的安全交易起到了關(guān)鍵作用。此外,經(jīng)合組織(OECD)提出的《人工智能原則》進(jìn)一步強(qiáng)調(diào)了人工智能發(fā)展應(yīng)遵循的價(jià)值觀,包括包容性增長(zhǎng)、可持續(xù)發(fā)展、以人為本的價(jià)值觀、透明度、安全性和責(zé)任等,為全球范圍內(nèi)的人工智能治理提供了指導(dǎo)性原則。
在此基礎(chǔ)上,歐洲議會(huì)于2024年3月通過了全球首部《人工智能法案》,旨在保護(hù)公民的基本權(quán)利,促進(jìn)人工智能的可信應(yīng)用,并對(duì)人工智能的使用進(jìn)行規(guī)制,以維護(hù)民主、法治和生態(tài)環(huán)境的安全。這些國際法律文件不僅為人工智能的法律規(guī)制提供了范例,也為我國在人工智能領(lǐng)域的立法工作提供了有益借鑒。
就我國情況來說,國家新一代人工智能治理專業(yè)委員會(huì)于2021年9月發(fā)布的《新一代人工智能倫理規(guī)范》和國家市場(chǎng)監(jiān)督管理總局、國家標(biāo)準(zhǔn)化管理委員會(huì)于2023年8月發(fā)布的《信息安全技術(shù)機(jī)器學(xué)習(xí)算法安全評(píng)估規(guī)范》等文件,為人工智能的倫理發(fā)展和算法安全評(píng)估提供了規(guī)范指引。中央網(wǎng)信辦相繼發(fā)布了多項(xiàng)管理規(guī)定,如《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》《生成式人工智能服務(wù)管理暫行辦法》等,進(jìn)一步規(guī)范了人工智能服務(wù),確保技術(shù)的合規(guī)應(yīng)用。
面對(duì)生成式人工智能帶來的犯罪風(fēng)險(xiǎn)挑戰(zhàn),我國法律體系亟待注入風(fēng)險(xiǎn)應(yīng)對(duì)的基本理念,注重立法創(chuàng)新與法律解釋的協(xié)同配合,實(shí)現(xiàn)安全保障與技術(shù)進(jìn)步之間的有效平衡。在路徑設(shè)計(jì)上,可以通過解釋方法激活現(xiàn)有規(guī)范的適用潛能,解決行為規(guī)制和責(zé)任判斷問題,并考慮增設(shè)新罪名以彌補(bǔ)刑法規(guī)制的不足。同時(shí),我國應(yīng)加快出臺(tái)《人工智能法》,構(gòu)建人工智能治理體系,確保人工智能的發(fā)展和應(yīng)用符合人類共同價(jià)值觀,促進(jìn)人機(jī)和諧友好。此外,還需創(chuàng)造有利于人工智能技術(shù)研究、開發(fā)、應(yīng)用的政策環(huán)境,建立合理披露機(jī)制和審計(jì)評(píng)估機(jī)制,明確人工智能系統(tǒng)的安全責(zé)任和問責(zé)機(jī)制,推動(dòng)形成公平合理、開放包容的國際人工智能治理規(guī)則。
綜上所述,國內(nèi)立法與國際合作的雙重努力將在保障人工智能技術(shù)安全應(yīng)用的同時(shí),推動(dòng)其為社會(huì)帶來更大的福祉。這不僅需要法律專家的智慧,也需要社會(huì)各界的共同努力,才能確保人工智能技術(shù)的發(fā)展能夠造福人類,而不是成為新的威脅。
(二)強(qiáng)化倫理準(zhǔn)則與行業(yè)自律
在人工智能技術(shù)快速發(fā)展的過程中,強(qiáng)化倫理準(zhǔn)則與行業(yè)自律對(duì)于確保技術(shù)的負(fù)責(zé)使用至關(guān)重要。為此,必須推動(dòng)建立技術(shù)倫理框架,鼓勵(lì)企業(yè)自我監(jiān)管,并實(shí)施透明度報(bào)告制度,以提升公眾信任度。
國際合作在這一過程中發(fā)揮著重要作用。例如,2024年5月,中法兩國聯(lián)合發(fā)布的《中華人民共和國和法蘭西共和國關(guān)于人工智能和全球治理的聯(lián)合聲明》強(qiáng)調(diào)了兩國對(duì)促進(jìn)安全、可靠和可信的人工智能系統(tǒng)的共同決心,體現(xiàn)了“智能向善(AI for good)”的宗旨,突顯了利用人工智能技術(shù)促進(jìn)社會(huì)福祉與全球可持續(xù)發(fā)展的國際共識(shí)。此舉不僅促進(jìn)了跨國界的技術(shù)倫理對(duì)話,還為構(gòu)建一個(gè)包容、開放、負(fù)責(zé)的人工智能全球治理框架奠定了堅(jiān)實(shí)的基礎(chǔ)。
為妥善應(yīng)對(duì)人工智能技術(shù)發(fā)展所帶來的倫理規(guī)制難題,科技部聯(lián)合教育部、工業(yè)和信息化部、國家衛(wèi)生健康委等多部門印發(fā)了《科技倫理審查辦法(試行)》,旨在堅(jiān)持倫理先行,促進(jìn)科技向善,前瞻研判人工智能倫理風(fēng)險(xiǎn),注重風(fēng)險(xiǎn)預(yù)防、加強(qiáng)源頭治理,防范科技活動(dòng)潛在風(fēng)險(xiǎn),推動(dòng)科技創(chuàng)新與科技倫理的協(xié)同發(fā)展。該辦法強(qiáng)調(diào)問題導(dǎo)向,解決科技倫理審查中的職責(zé)不明確、程序不規(guī)范等問題,進(jìn)一步細(xì)化和完善了倫理監(jiān)管框架。
在企業(yè)層面,研發(fā)公司應(yīng)主動(dòng)履行數(shù)據(jù)安全與合規(guī)義務(wù),利用其技術(shù)優(yōu)勢(shì)和信息優(yōu)勢(shì),有效處理人工智能系統(tǒng)潛在的危機(jī)。與此同時(shí),應(yīng)當(dāng)建立“行業(yè)自律+外部監(jiān)管”的倫理審查制度,通過立法,要求算法主體的技術(shù)行為符合人類實(shí)踐理性和法律價(jià)值,強(qiáng)化科技倫理審查機(jī)制。具體而言,企業(yè)應(yīng)落實(shí)主體責(zé)任,將倫理考量納入智能模型及其生態(tài)系統(tǒng)建設(shè)的全流程中,建立健全科技倫理風(fēng)險(xiǎn)合規(guī)管理體系。組織架構(gòu)層面,應(yīng)設(shè)立科技倫理(審查)委員會(huì),明確科技倫理工作人員及相關(guān)部門的職能、權(quán)限。技術(shù)開發(fā)層面,應(yīng)根據(jù)不同業(yè)務(wù)類型和技術(shù)階段設(shè)定倫理風(fēng)險(xiǎn)評(píng)估及審查標(biāo)準(zhǔn)[13]。制度規(guī)范層面,應(yīng)通過規(guī)范處理流程、定期培訓(xùn)、制定應(yīng)急預(yù)案等方式,推動(dòng)企業(yè)自主實(shí)施科技倫理治理。例如,谷歌建立了由不同委員會(huì)組成的專門機(jī)構(gòu)和專家團(tuán)隊(duì),負(fù)責(zé)監(jiān)督企業(yè)在隱私保護(hù)、用戶健康、產(chǎn)品安全等方面的倫理問題治理。微軟則為項(xiàng)目團(tuán)隊(duì)提供了針對(duì)不同場(chǎng)景下的技術(shù)解決方案和行動(dòng)指南,以貫徹人工智能倫理治理原則。
綜上所述,通過國際合作、政府引導(dǎo)、企業(yè)自律和社會(huì)監(jiān)督,可以共同構(gòu)建一個(gè)安全、可靠和可信的人工智能生態(tài)系統(tǒng)。這不僅需要明確的倫理準(zhǔn)則和行業(yè)自律機(jī)制,還需要政府監(jiān)管與企業(yè)自我監(jiān)管的有機(jī)結(jié)合,以及公眾參與和社會(huì)監(jiān)督,以確保人工智能技術(shù)的健康發(fā)展。
(三)提升技術(shù)監(jiān)管與防御能力
在生成式人工智能技術(shù)快速發(fā)展的背景下,提升技術(shù)監(jiān)管水平與防御能力是確保人工智能安全應(yīng)用的關(guān)鍵。為此,需要從多個(gè)層面著手,構(gòu)建一個(gè)全面、高效的人工智能安全監(jiān)管體系。
首先,研發(fā)先進(jìn)的監(jiān)測(cè)技術(shù)是提升監(jiān)管能力的重要手段。人工智能行為審計(jì)系統(tǒng)作為一種新興的監(jiān)測(cè)工具,能夠?qū)崟r(shí)監(jiān)控人工智能系統(tǒng)的運(yùn)行狀態(tài),識(shí)別異?;顒?dòng),并迅速做出響應(yīng)。通過行為審計(jì),可以及時(shí)發(fā)現(xiàn)并制止人工智能系統(tǒng)的不當(dāng)行為,防止其對(duì)社會(huì)造成不良影響。此外,加強(qiáng)數(shù)據(jù)加密與安全防護(hù)也是保障人工智能安全的關(guān)鍵。在數(shù)據(jù)傳輸和存儲(chǔ)過程中,采用高強(qiáng)度的加密算法,可以有效防止數(shù)據(jù)泄露和篡改,保障用戶隱私和數(shù)據(jù)安全。
其次,從刑法學(xué)的視角審視、明晰人工智能技術(shù)應(yīng)用場(chǎng)景中的犯罪責(zé)任歸屬,對(duì)于強(qiáng)化犯罪風(fēng)險(xiǎn)治理具有重要意義。在人工智能技術(shù)生態(tài)鏈內(nèi)部,服務(wù)提供商占據(jù)著不可或缺的核心位置。作為技術(shù)生態(tài)的中樞,服務(wù)提供商不僅享有巨大的經(jīng)濟(jì)收益,還掌控著先進(jìn)的技術(shù)資源與強(qiáng)大的風(fēng)險(xiǎn)管理能力。因此,將服務(wù)提供商視為犯罪防控的關(guān)鍵節(jié)點(diǎn),是精準(zhǔn)聚焦并有效應(yīng)對(duì)犯罪治理核心問題的戰(zhàn)略選擇。同時(shí),服務(wù)提供商在技術(shù)生態(tài)鏈中的獨(dú)特地位,決定了其對(duì)潛在犯罪風(fēng)險(xiǎn)的主導(dǎo)與管控潛能,這為其擔(dān)當(dāng)安全保障角色以及履行刑事責(zé)任奠定了堅(jiān)實(shí)的法理基礎(chǔ)。具體而言,鑒于其對(duì)技術(shù)應(yīng)用可能引發(fā)的不良后果具有預(yù)見與干預(yù)的可能性,法律上要求服務(wù)提供商承擔(dān)起預(yù)防與抑制技術(shù)濫用的責(zé)任。這符合風(fēng)險(xiǎn)與責(zé)任相匹配的原則,也是實(shí)現(xiàn)技術(shù)進(jìn)步與社會(huì)安全雙贏局面的必然要求。
再次,在規(guī)范設(shè)計(jì)上,應(yīng)當(dāng)明確服務(wù)提供者的刑事保證人地位和監(jiān)管義務(wù)。這意味著服務(wù)提供者不僅要確保自身行為的合法性,還要對(duì)其提供的人工智能服務(wù)進(jìn)行有效監(jiān)管,防止其被用于違法犯罪活動(dòng)。一旦發(fā)現(xiàn)人工智能服務(wù)被用于犯罪,服務(wù)提供者應(yīng)當(dāng)承擔(dān)相應(yīng)的法律責(zé)任。通過明確責(zé)任主體,可以倒逼服務(wù)提供者加強(qiáng)自我監(jiān)管,提高人工智能服務(wù)的安全性和可靠性。
最后,提升技術(shù)監(jiān)管與防御能力還需要加強(qiáng)法律法規(guī)建設(shè),完善人工智能倫理規(guī)范,加強(qiáng)國際合作與交流。通過立法明確人工智能應(yīng)用的法律邊界,規(guī)范人工智能行為,可以有效防范和減少人工智能犯罪行為的發(fā)生。同時(shí),加強(qiáng)人工智能倫理教育和培訓(xùn),提高公眾的人工智能倫理意識(shí),也是提升社會(huì)整體防御能力的重要途徑。
綜上所述,提升人工智能技術(shù)監(jiān)管水平與防御能力是一項(xiàng)系統(tǒng)工程,需要政府、企業(yè)、科研機(jī)構(gòu)和社會(huì)各界的共同努力。通過研發(fā)先進(jìn)的監(jiān)測(cè)技術(shù),加強(qiáng)數(shù)據(jù)安全防護(hù),明確法律責(zé)任,完善法律法規(guī),加強(qiáng)倫理教育,我們可以構(gòu)建一個(gè)安全、可靠、可控的人工智能應(yīng)用環(huán)境,為人工智能技術(shù)的健康發(fā)展提供堅(jiān)實(shí)的保障。
(四)加強(qiáng)國際合作與信息共享
在全球化的今天,生成式人工智能技術(shù)的快速發(fā)展及廣泛應(yīng)用,對(duì)國際合作與數(shù)據(jù)共享提出了新的挑戰(zhàn)與需求。為了有效應(yīng)對(duì)生成式人工智能所帶來的跨國風(fēng)險(xiǎn),加強(qiáng)國際合作與信息共享變得尤為重要。
首先,構(gòu)建跨國協(xié)作平臺(tái),統(tǒng)一監(jiān)管標(biāo)準(zhǔn),共享犯罪情報(bào),協(xié)調(diào)跨境執(zhí)法行動(dòng)是國際合作的基礎(chǔ)。不同國家人工智能治理方式存在差異,如數(shù)據(jù)訪問壁壘、數(shù)據(jù)本土化政策等,不僅可能為跨國犯罪團(tuán)伙提供了規(guī)避法律制裁的缺口,還顯著增加了人工智能全球犯罪治理領(lǐng)域的復(fù)雜性與挑戰(zhàn)性。因此,除了各國內(nèi)部需推動(dòng)多主體、多部門協(xié)同治理,國際間的協(xié)同合作同樣不可忽視。例如,2023年1月,美國與歐盟簽署的《人工智能促進(jìn)公共利益行政協(xié)議》便是在考慮共同利益和需求基礎(chǔ)上,推動(dòng)人工智能社會(huì)應(yīng)用的典范。該協(xié)議不僅有助于統(tǒng)一雙方在人工智能技術(shù)應(yīng)用上的監(jiān)管標(biāo)準(zhǔn),還促進(jìn)了犯罪情報(bào)的共享和跨境執(zhí)法行動(dòng)的協(xié)調(diào),為人工智能的犯罪治理提供了合作框架和行動(dòng)指南。
其次,以聯(lián)合國為核心構(gòu)建國際多邊互聯(lián)網(wǎng)監(jiān)管機(jī)構(gòu),是全球共同面臨的緊迫任務(wù)。通過雙邊或多邊合作,建立聯(lián)合國框架內(nèi)的監(jiān)管機(jī)構(gòu),為全球互聯(lián)網(wǎng)活動(dòng)提供機(jī)構(gòu)保障與制度框架,是降低不合理成本、推動(dòng)人工智能生產(chǎn)力發(fā)展的重要途徑[14]。2024年3月,聯(lián)合國大會(huì)通過的決議—《抓住安全、可靠和值得信賴的人工智能系統(tǒng)帶來的機(jī)遇,促進(jìn)可持續(xù)發(fā)展》,進(jìn)一步強(qiáng)調(diào)了“決心彌合國家之間和國家內(nèi)部的人工智能鴻溝和其他數(shù)字鴻溝”,這為全球人工智能治理提供了方向指引。
再次,人工智能數(shù)據(jù)的獲取與流通具有無國界特性,未來通用大模型的應(yīng)用也將是全球性的。然而,各國對(duì)開放人工智能數(shù)據(jù)的態(tài)度不一,缺乏統(tǒng)一的國際數(shù)據(jù)流通規(guī)則。為了促進(jìn)跨境人工智能市場(chǎng)的形成,避免侵犯數(shù)字主權(quán),構(gòu)建尊重各國數(shù)據(jù)主權(quán)的政府間的專業(yè)性國際組織平臺(tái)顯得尤為重要。
就我國而言,應(yīng)秉持全球安全觀,加強(qiáng)與人工智能治理有關(guān)的國際交流與合作,參與國際規(guī)則、標(biāo)準(zhǔn)的制定,推動(dòng)構(gòu)建開放、公正、有效的全球人工智能治理機(jī)制。同時(shí),履行聯(lián)合國安全理事會(huì)常任理事國的責(zé)任,積極參與全球人工智能治理,通過經(jīng)濟(jì)、技術(shù)、物資、人才、管理等多方面的對(duì)外援助,彌合發(fā)展中國家的智能鴻溝和治理能力差距。
最后,我國應(yīng)根據(jù)國際條約和協(xié)定,按照平等互惠原則,與其他國家或地區(qū)、國際組織在執(zhí)法、司法領(lǐng)域展開合作,深化拓展對(duì)外執(zhí)法合作工作機(jī)制,完善司法協(xié)助體制機(jī)制,共同防范和打擊恐怖主義、極端勢(shì)力和跨國有組織犯罪集團(tuán)對(duì)人工智能技術(shù)的違法使用。
綜上所述,加強(qiáng)國際合作與信息共享,構(gòu)建統(tǒng)一的監(jiān)管標(biāo)準(zhǔn)與法律框架,是應(yīng)對(duì)生成式人工智能風(fēng)險(xiǎn)、推動(dòng)人工智能技術(shù)健康發(fā)展的關(guān)鍵。這需要全球各國的共同努力,以確保人工智能技術(shù)的進(jìn)步能夠服務(wù)于全人類的可持續(xù)發(fā)展。
(五)提升公眾意識(shí)與教育
在數(shù)字化背景下,生成式人工智能技術(shù)的廣泛應(yīng)用對(duì)人類社會(huì)產(chǎn)生了深遠(yuǎn)影響。但隨之而來的人工智能犯罪風(fēng)險(xiǎn)、社會(huì)層級(jí)分化、技術(shù)異化以及倫理問題等,也對(duì)現(xiàn)行法律體系和社會(huì)治理提出了嚴(yán)峻挑戰(zhàn)。因此,提升公眾的人工智能素養(yǎng),構(gòu)建全民參與的網(wǎng)絡(luò)安全環(huán)境,對(duì)于促進(jìn)生成式人工智能技術(shù)的健康發(fā)展和維護(hù)社會(huì)穩(wěn)定具有重要意義。
首先,普及人工智能安全知識(shí),增強(qiáng)公眾對(duì)人工智能潛在風(fēng)險(xiǎn)的認(rèn)識(shí),是應(yīng)對(duì)人工智能風(fēng)險(xiǎn)挑戰(zhàn)的重要措施。重視并推廣針對(duì)人工智能安全風(fēng)險(xiǎn)的教育尤為重要,這不僅意味著要揭露潛在的數(shù)據(jù)泄露、算法偏見、隱私被侵犯等安全威脅,還要教育公眾如何識(shí)別這些風(fēng)險(xiǎn)并采取有效防護(hù)措施。媒體宣傳、在線課程、公共講座活動(dòng)能提高社會(huì)對(duì)人工智能安全挑戰(zhàn)的關(guān)注度,促使用戶在享受技術(shù)便利的同時(shí),具備自我保護(hù)意識(shí)和基本的防范技能。此外,政策制定者和行業(yè)領(lǐng)導(dǎo)者應(yīng)攜手制定統(tǒng)一的安全標(biāo)準(zhǔn)和最佳實(shí)踐指南,為人工智能的健康發(fā)展構(gòu)筑安全基線,確保技術(shù)創(chuàng)新與風(fēng)險(xiǎn)管理并行不悖,共同推進(jìn)一個(gè)既智能又安全的數(shù)字未來。
其次,加強(qiáng)全社會(huì)的人工智能教育培訓(xùn),提升全民人工智能綜合素養(yǎng),是提升人工智能素養(yǎng)的基礎(chǔ)。人工智能素養(yǎng)的內(nèi)涵廣泛,包括對(duì)人工智能概念的理解、人工智能應(yīng)用的適應(yīng)能力、人工智能倫理的價(jià)值觀以及人工智能技術(shù)的甄別技能。聯(lián)合國教科文組織將人工智能素養(yǎng)定義為涵蓋知識(shí)、理解、技能和價(jià)值取向的綜合性能力[15]。這不僅涉及個(gè)體適應(yīng)人工智能時(shí)代的工作、學(xué)習(xí)與生活的能力,還包括對(duì)人工智能技術(shù)的態(tài)度和倫理意識(shí)。教育培訓(xùn)可以消除公眾對(duì)人工智能的陌生感,培養(yǎng)批判性思維,使公眾能夠更加積極地參與人工智能技術(shù)的發(fā)展和治理中來??梢?,構(gòu)建人工智能學(xué)習(xí)體系,整合線上線下教育資源,對(duì)于持續(xù)提升公眾的人工智能素養(yǎng)至關(guān)重要。學(xué)校、企業(yè)、社區(qū)及在線平臺(tái)應(yīng)加強(qiáng)合作,提供從基礎(chǔ)知識(shí)到高級(jí)應(yīng)用的分層次教育路徑,確保每個(gè)公民都能根據(jù)自己的需求和進(jìn)度,獲取到最新的人工智能知識(shí)和技術(shù)動(dòng)態(tài)。同時(shí),通過案例分析、實(shí)戰(zhàn)演練等方法,增強(qiáng)公眾在實(shí)際情境中應(yīng)用倫理原則、評(píng)估技術(shù)影響的能力,促進(jìn)對(duì)人工智能技術(shù)負(fù)責(zé)任和創(chuàng)新性的使用。
最后,加強(qiáng)公眾參與,倡導(dǎo)公眾在人工智能相關(guān)政策的制定和評(píng)估過程中積極發(fā)表意見和訴求,實(shí)質(zhì)性地參與決策進(jìn)程,是增強(qiáng)公眾主體意識(shí)和民主意識(shí)的有效途徑。做好這項(xiàng)工作,不僅能夠增進(jìn)公眾對(duì)科技進(jìn)步的信任度與接納程度,還能為人工智能技術(shù)的演進(jìn)匯聚多元視角與智慧,確保技術(shù)創(chuàng)新既遵循理性評(píng)估的客觀標(biāo)準(zhǔn),又緊密對(duì)接現(xiàn)實(shí)應(yīng)用的實(shí)際要求,從而為促進(jìn)社會(huì)進(jìn)步與增進(jìn)民眾福祉奠定堅(jiān)實(shí)基礎(chǔ)。
綜上所述,普及人工智能安全知識(shí)、加強(qiáng)教育培訓(xùn)、引導(dǎo)規(guī)范使用人工智能服務(wù)和加強(qiáng)公眾參與,可以全面提升公眾的人工智能素養(yǎng),構(gòu)建全民參與的網(wǎng)絡(luò)安全環(huán)境,為人工智能技術(shù)的健康發(fā)展和維護(hù)社會(huì)穩(wěn)定提供有力保障。
四、結(jié)語
我們要通過跨學(xué)科合作與全球協(xié)同努力,克服現(xiàn)有困境,引導(dǎo)生成式人工智能技術(shù)向更加安全、透明、負(fù)責(zé)的方向演進(jìn)。未來的工作應(yīng)當(dāng)聚焦于實(shí)施上述策略的具體措施,評(píng)估其效果,并不斷調(diào)整優(yōu)化,確保技術(shù)進(jìn)步與社會(huì)福祉并行不悖,并期待生成式人工智能最終能夠在嚴(yán)格的法律框架下、堅(jiān)固的倫理基礎(chǔ)上,為社會(huì)帶來積極變革,開啟一個(gè)人機(jī)和諧共生的新時(shí)代。
參考文獻(xiàn):
[1] 吉登斯,薩頓.社會(huì)學(xué)基本概念(第二版)[M].王修曉,譯.北京:北京大學(xué)出版社,2019:83.
[2] 呂垚瑤.ChatGPT類生成式人工智能技術(shù)迭代的犯罪風(fēng)險(xiǎn)及其治理[J].中國刑警學(xué)院學(xué)報(bào),2024(1):78-87.
[3] 鄧建鵬,朱懌成.ChatGPT模型的法律風(fēng)險(xiǎn)及應(yīng)對(duì)之策[J].新疆師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2023,44(5):91-101,2.
[4] 盛浩.生成式人工智能的犯罪風(fēng)險(xiǎn)及刑法規(guī)制[J].西南政法大學(xué)學(xué)報(bào),2023,25(4):122-136.
[5] EVA A M VAN DIS, JOHAN BOLLEN, WILLEM ZUIDEMA,et al.ChatGPT:five priorities for research[J].Nature,2023,614(7947):224-226.
[6] 吳宗憲,肖艷秋.生成式人工智能的應(yīng)用、風(fēng)險(xiǎn)與法律回應(yīng):以ChatGPT為視角[J].天津師范大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2024(3):12-20.
[7] 中國社會(huì)科學(xué)院國情調(diào)研重大項(xiàng)目《我國人工智能倫理審查和監(jiān)管制度建設(shè)狀況調(diào)研》課題組.人工智能法示范法1.1(專家建議稿)[R/OL].[2024-07-26].http://iolaw.cssn.cn/zxzp/202309/W020230907361599893636.pdf.
[8] 畢文軒.生成式人工智能的風(fēng)險(xiǎn)規(guī)制困境及其化解:以ChatGPT的規(guī)制為視角[J].比較法研究,2023(3):155-172.
[9] 孫全勝.人工智能技術(shù)的倫理問題及解決路徑[J].科技智囊,2024(4):30-38.
[10] 張欣.生成式人工智能的數(shù)據(jù)風(fēng)險(xiǎn)與治理路徑[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2023,41(5):42-54.
[11] 孫那,鮑一鳴.生成式人工智能的科技安全風(fēng)險(xiǎn)與防范[J].陜西師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2024,53(1):108-121.
[12] 劉艷紅.生成式人工智能的三大安全風(fēng)險(xiǎn)及法律規(guī)制:以ChatGPT為例[J].東方法學(xué),2023(4):29-43.
[13] 宋保振,秦瑞標(biāo).論生成式人工智能應(yīng)用風(fēng)險(xiǎn)的法律規(guī)制[J].上海政法學(xué)院學(xué)報(bào)(法治論叢),2023,38(6):108-121.
[14] 商建剛.生成式人工智能風(fēng)險(xiǎn)治理元規(guī)則研究[J].東方法學(xué),2023(3):4-17.
[15] 張?jiān)婂?,李赟,李韜.ChatGPT類生成式人工智能的風(fēng)險(xiǎn)及其治理[J].貴州社會(huì)科學(xué),2023(11):138-143.
An Exploration of Criminal Risks Posed by ChatGPT-like Generative Artificial Intelligence and Their Governance Pathways
Abstract: [Research purpose] With the rapid development of generative artificial intelligence exemplified by ChatGPT, numerous issues have increasingly come to the fore, including risks of privacy breaches and data security, infringement of intellectual property rights, economic and financial crimes, and threats to social trust and information authenticity. Consequently, there arises an urgent need for an era of governance to address the criminal risks associated with generative AI. This study endeavors to explore a comprehensive governance framework aimed at addressing and mitigating such risks, thereby ensuring the rational utilization and sustainable development of generative AI technologies. [Research method] Utilizing the case analysis method, this study delves into the manifestations, causes, and harms of generative artificial intelligence-related crimes in specific cases. Additionally, it employs a comparative analysis approach to contrast the legal frameworks, policies, measures, and practical experiences in managing the risks of generative AI-related crimes both domestically and internationally. [Research conclusion] In the current governance framework addressing criminal risks associated with generative artificial intelligence, several issues persist, including the lag in legal regulation, the ambiguity surrounding the boundaries of the principle of technological neutrality, limitations in technical monitoring and identification capabilities, and the lack of cross-border regulatory cooperation. To realize the healthy development of generative artificial intelligence, it is imperative to adopt a multi-faceted and comprehensive approach, encompassing the refinement of legal and regulatory frameworks, the reinforcement of ethical guidelines and industry self-discipline, the enhancement of technical monitoring and defense capabilities, the strengthening of international cooperation and information sharing, and the elevation of public awareness and education.
Key words: ChatGPT; Generative Artificial Intelligence; criminal risks; governance dilemmas; governance pathways