亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        生成式人工智能的國(guó)家安全風(fēng)險(xiǎn)及其對(duì)策

        2023-08-06 16:00:08張廣勝
        人民論壇·學(xué)術(shù)前沿 2023年13期
        關(guān)鍵詞:生成式人工智能國(guó)家安全

        【摘要】以ChatGPT為代表的生成式人工智能成為專(zhuān)用人工智能邁向通用人工智能的關(guān)鍵,拉開(kāi)了強(qiáng)人工智能時(shí)代的序幕。生成式人工智能開(kāi)創(chuàng)了“大模型”主導(dǎo)的內(nèi)容生成時(shí)代,給政治安全、軍事安全、網(wǎng)絡(luò)安全、經(jīng)濟(jì)安全、社會(huì)安全等國(guó)家安全領(lǐng)域帶來(lái)了諸多風(fēng)險(xiǎn)與挑戰(zhàn)。為防控風(fēng)險(xiǎn),應(yīng)遵循人本邏輯制定防控生成式人工智能風(fēng)險(xiǎn)的“一體化”頂層戰(zhàn)略,遵循法治邏輯健全防控風(fēng)險(xiǎn)的“全方位”制度體系,遵循共治邏輯構(gòu)建防控風(fēng)險(xiǎn)的“同心圓”治理結(jié)構(gòu),遵循科技邏輯強(qiáng)化防控風(fēng)險(xiǎn)的“全周期”過(guò)程監(jiān)管。

        【關(guān)鍵詞】生成式人工智能? AIGC? ChatGPT? 國(guó)家安全? 防控風(fēng)險(xiǎn)

        【中圖分類(lèi)號(hào)】D815.5? ? ? ? ? ? ? ? ? ? ? ? ? ?【文獻(xiàn)標(biāo)識(shí)碼】A

        【DOI】10.16619/j.cnki.rmltxsqy.2023.14.007

        生成式人工智能(Generative Artificial Intelligence,亦稱(chēng)生成式AI)技術(shù),是指具有文本、圖片、音頻、視頻等內(nèi)容生成能力的模型及相關(guān)技術(shù)[1]。2022年生成式AI取得突破性進(jìn)展,AI繪畫(huà)和ChatGPT的影響日益深遠(yuǎn)。當(dāng)前,互聯(lián)網(wǎng)巨頭紛紛布局生成式AI,推出的多款產(chǎn)品極大方便了人們的工作和生活,引領(lǐng)著數(shù)字內(nèi)容領(lǐng)域的全新變革。2023年3月,OpenAI發(fā)布了一款強(qiáng)大的新圖像和文本理解AI模型GPT-4,新一代大模型GPT-4能接受圖像和文本輸入,生成帶有文本和照片的內(nèi)容,在各種專(zhuān)業(yè)和學(xué)術(shù)基準(zhǔn)測(cè)試中已達(dá)到或超過(guò)人類(lèi)水平。總體來(lái)看,生成式AI既為時(shí)代發(fā)展帶來(lái)了機(jī)遇,也給國(guó)家安全帶來(lái)了諸多風(fēng)險(xiǎn)與挑戰(zhàn)。因此,需要科學(xué)評(píng)估生成式人工智能的風(fēng)險(xiǎn),進(jìn)行前瞻謀劃。

        生成式人工智能對(duì)國(guó)家安全的威脅與挑戰(zhàn)

        生成式AI給國(guó)家安全帶來(lái)不同類(lèi)型的風(fēng)險(xiǎn)和挑戰(zhàn),既包括有關(guān)傳統(tǒng)安全和非傳統(tǒng)安全的風(fēng)險(xiǎn)挑戰(zhàn),也包括對(duì)自身安全和公共安全構(gòu)成的多層次挑戰(zhàn)。

        生成式人工智能給政治安全帶來(lái)挑戰(zhàn)。生成式AI技術(shù)惡意使用帶來(lái)的最大風(fēng)險(xiǎn)可能發(fā)生在政治領(lǐng)域,隨著AI技術(shù)作為政治武器的使用頻率逐漸增加,敵對(duì)勢(shì)力極有可能利用AI技術(shù)進(jìn)行意識(shí)形態(tài)滲透,破壞政治穩(wěn)定。

        一是成為“新工具”,威脅意識(shí)形態(tài)安全。ChatGPT等生成式AI系統(tǒng)通過(guò)數(shù)據(jù)投喂和算法訓(xùn)練進(jìn)行自我學(xué)習(xí)與進(jìn)化,數(shù)據(jù)操縱、篡改缺失、人為篩選、污染“投毒”及算法偏見(jiàn),都可能影響結(jié)果的客觀性和正確性。目前,生成式AI的核心技術(shù)被美國(guó)掌控,學(xué)習(xí)訓(xùn)練“底料”主要來(lái)源于美西方國(guó)家,易受到美西方國(guó)家行為體以及非國(guó)家行為體的操控,成為意識(shí)形態(tài)滲透的“新工具”。公開(kāi)標(biāo)注數(shù)據(jù)集測(cè)試表明,[2]ChatGPT在價(jià)值觀層面偏向西方,生成內(nèi)容中存在大量對(duì)于中國(guó)的偏見(jiàn)言論,加之ChatGPT在中文知識(shí)和常識(shí)問(wèn)答上很容易出現(xiàn)錯(cuò)誤,而且會(huì)使用流暢的句子對(duì)編造的虛假事實(shí)進(jìn)行闡述,對(duì)于信息來(lái)源受限的群體來(lái)說(shuō)具有一定迷惑性,極易成為部分國(guó)家針對(duì)我國(guó)制造“認(rèn)知陷阱”的工具。雖然生成式AI的背后設(shè)計(jì)者仍然是人,但其超越意識(shí)形態(tài)的科學(xué)特質(zhì)和“技術(shù)”身份,反而比人更容易贏得受眾信任,在意識(shí)形態(tài)傳播和影響上往往能起到人所不及的作用。生成式AI系統(tǒng)生成的情報(bào)信息、傳遞的價(jià)值觀,對(duì)思維認(rèn)知的影響更直接、更有效。例如,ChatGPT能“善解人意”,與人共情并產(chǎn)生心理聯(lián)結(jié),更容易被人信任。利用生成式AI精心策劃的敘事來(lái)傳播意識(shí)形態(tài),更能高效隱匿地影響作戰(zhàn)對(duì)手,成為意識(shí)形態(tài)滲透的“新工具”。

        二是生成“假消息”,異化政治傳播生態(tài)。近年來(lái),作為一種操縱輿論的新方式,計(jì)算宣傳正在全球盛行,形成了“人機(jī)共生”的政治傳播生態(tài),也帶來(lái)了算法和數(shù)據(jù)操控政治等新風(fēng)險(xiǎn)。ChatGPT等生成式AI能夠進(jìn)行“對(duì)話(huà)+創(chuàng)作”,并通過(guò)經(jīng)驗(yàn)學(xué)習(xí)作出情感反應(yīng),對(duì)社交機(jī)器人進(jìn)行“降維打擊”,而且還能借助數(shù)據(jù)和算法雙驅(qū)動(dòng)的“暗網(wǎng)式大集市”傳播模式,極大改變現(xiàn)有的傳播規(guī)則、傳播秩序以及傳播倫理,給社會(huì)、政治和國(guó)際秩序等各個(gè)層面帶來(lái)重大變革與巨大沖擊。[3]值得警惕的是,由于生成式AI創(chuàng)作的內(nèi)容更有邏輯性、生成的圖片更為逼真,看起來(lái)更有可信度,敵對(duì)勢(shì)力可利用其構(gòu)筑新型隱性滲透渠道,大規(guī)模創(chuàng)造出虛擬網(wǎng)紅,“一對(duì)一”實(shí)現(xiàn)對(duì)政治目標(biāo)的精準(zhǔn)認(rèn)知誘導(dǎo)、滲透和威懾,異化政治傳播的健康生態(tài)。在應(yīng)對(duì)風(fēng)險(xiǎn)方面,借助生成式AI并運(yùn)用“算法+情感”技術(shù),調(diào)動(dòng)敵方情感以影響其認(rèn)知決策已成為現(xiàn)實(shí)可行的認(rèn)知對(duì)抗方法。2018年曝光的“劍橋分析”事件就是精準(zhǔn)操縱用戶(hù)情感的典型案例,“個(gè)性化的數(shù)據(jù)可以讓你確切知道,以何種信息瞄準(zhǔn)誰(shuí)”,只要“在對(duì)的時(shí)候,把對(duì)的信息放在對(duì)的人眼前”,就能夠控制他們的思想和情感。[4]

        三是衍生“新武器”,精準(zhǔn)攻擊政治目標(biāo)。美軍提出的“五環(huán)目標(biāo)理論”,把戰(zhàn)爭(zhēng)體系的重心劃分為政治領(lǐng)導(dǎo)層、生產(chǎn)系統(tǒng)、基礎(chǔ)設(shè)施、民眾、軍隊(duì)等五個(gè)目標(biāo)環(huán),其中第一環(huán)就是敵方領(lǐng)導(dǎo)人,代表了美軍政治戰(zhàn)攻擊的重心。借助生成式AI、認(rèn)知神經(jīng)手段和社交媒體,針對(duì)敵方首腦進(jìn)行的認(rèn)知攻擊,是當(dāng)前混合戰(zhàn)爭(zhēng)的大勢(shì)所趨。最典型的是,美陸軍開(kāi)展信息行動(dòng)的“影響力機(jī)器”,將算法推送的“精神彈藥”快速密集地“射向”目標(biāo)群體,達(dá)到影響其心理、操控其認(rèn)知的目的。2019年委內(nèi)瑞拉政局動(dòng)蕩,美西方國(guó)家就利用人工智能技術(shù)極力“妖魔化”馬杜羅的“獨(dú)裁統(tǒng)治”,致使委軍頻頻曝出叛變和倒戈事件,對(duì)馬杜羅政府控局穩(wěn)局造成沖擊。

        四是帶來(lái)“新變量”,影響國(guó)家政治秩序。生成式AI和“人機(jī)共生”革命對(duì)政治秩序造成了嚴(yán)重沖擊和挑戰(zhàn)。英國(guó)脫歐、美國(guó)大選等事件期間都彌漫著社會(huì)被割裂、輿論被操縱的社會(huì)氛圍。例如,英國(guó)脫歐公投期間,聊天機(jī)器人Brexit Bot被用來(lái)傳播關(guān)于脫歐益處和留歐風(fēng)險(xiǎn)的虛假信息。生成式AI能根據(jù)需求快速生成或偽造政治目標(biāo)的外貌、語(yǔ)音、感情、表情等屬性,還可以根據(jù)政治目標(biāo)的喜好生成個(gè)性化內(nèi)容,甚至“無(wú)中生有”,通過(guò)設(shè)置議題、挑動(dòng)情緒、政治動(dòng)員來(lái)影響國(guó)家政治秩序和進(jìn)程。美國(guó)國(guó)土安全部、國(guó)防部和美軍網(wǎng)絡(luò)司令部等成立專(zhuān)門(mén)行動(dòng)小組來(lái)對(duì)抗干擾和破壞選舉的“巨魔部隊(duì)”,同時(shí)加緊研發(fā)結(jié)合算法生成內(nèi)容、個(gè)性化目標(biāo)鎖定和密集信息傳播的“影響力機(jī)器”,通過(guò)操縱國(guó)內(nèi)國(guó)際輿論和設(shè)置議題,兵不血刃地達(dá)到從內(nèi)部腐蝕、滲透、影響和顛覆,從外部抹黑、圍堵和封殺的政治目的。[5]

        生成式人工智能給軍事安全帶來(lái)挑戰(zhàn)。近年來(lái),生成式AI逐漸應(yīng)用于軍事領(lǐng)域。美國(guó)國(guó)防信息系統(tǒng)局已將ChatGPT等生成式AI列入技術(shù)觀察清單,美軍聯(lián)合特種作戰(zhàn)司令部正計(jì)劃利用“深度偽造”等技術(shù),開(kāi)發(fā)新一代“軍事信息支持作戰(zhàn)”工具,進(jìn)行互聯(lián)網(wǎng)信息操縱、傳播虛假信息和數(shù)字欺騙活動(dòng)。[6]從目前看,生成式AI一旦應(yīng)用于作戰(zhàn),或?qū)⑿纬赏{新鏈路,催生“認(rèn)知戰(zhàn)”等新作戰(zhàn)樣式。

        一是視覺(jué)大模型讓智能機(jī)器“看清”戰(zhàn)場(chǎng),顯著提升感知能力。智能化戰(zhàn)爭(zhēng)中感知即殺傷,要求以強(qiáng)大的態(tài)勢(shì)感知能力作為支撐,先敵發(fā)現(xiàn)并實(shí)施打擊。近年來(lái)基于Transformer衍生出視覺(jué)大模型架構(gòu),通過(guò)無(wú)監(jiān)督預(yù)訓(xùn)練和微調(diào)學(xué)習(xí)范式,在圖像分類(lèi)、目標(biāo)檢測(cè)、語(yǔ)義分割、姿態(tài)估計(jì)、圖像編輯以及遙感圖像解譯等多個(gè)感知任務(wù)上取得突破,顯著提升了戰(zhàn)場(chǎng)感知能力。嵌入視覺(jué)大模型的智能武器,可通過(guò)視覺(jué)系統(tǒng)精準(zhǔn)辨識(shí)并區(qū)分目標(biāo)的主次和真?zhèn)危瑥暮A恳曨l數(shù)據(jù)中快速提取并生成高價(jià)值情報(bào),減輕作戰(zhàn)人員的認(rèn)知負(fù)荷,形成對(duì)態(tài)勢(shì)全面、及時(shí)、準(zhǔn)確的分析與判斷。

        二是語(yǔ)言大模型讓智能裝備“聽(tīng)懂”指令,重塑指揮決策流程。當(dāng)前戰(zhàn)爭(zhēng)形態(tài)“智能化+類(lèi)人化”特征明顯,整體聯(lián)動(dòng)、快速反應(yīng)、精確打擊都離不開(kāi)指揮信息功能的智能化。語(yǔ)言大模型在圖片生成、書(shū)稿生成、對(duì)話(huà)生成等戰(zhàn)場(chǎng)信息系統(tǒng)可視化場(chǎng)景中表現(xiàn)出色。如果將其嵌入一體化聯(lián)合作戰(zhàn)平臺(tái)并推動(dòng)其持續(xù)迭代進(jìn)化,可用于想定編寫(xiě)、作戰(zhàn)方案生成、演習(xí)結(jié)果講評(píng)等較為復(fù)雜的工作,這將重塑指揮決策流程。2023年2月,美國(guó)中央集團(tuán)軍成功使用ChatGPT撰寫(xiě)了“關(guān)于成立新的反無(wú)人機(jī)特遣部隊(duì)”的咨詢(xún)報(bào)告。因此部署了ChatGPT等生成式AI的指揮信息系統(tǒng)有望深度參與“OODA”循環(huán)(即博伊德循環(huán)或決策周期環(huán),由Observation-觀察、Orientaition-判斷、Decision-決策、Action-行動(dòng)四個(gè)單詞首字母組合得名),指揮員通過(guò)與戰(zhàn)場(chǎng)信息系統(tǒng)進(jìn)行人機(jī)對(duì)話(huà),準(zhǔn)確傳達(dá)作戰(zhàn)需求,戰(zhàn)場(chǎng)信息系統(tǒng)則提供新生成的戰(zhàn)場(chǎng)信息,實(shí)現(xiàn)想看圖形出圖形、想看圖像出圖像、想聽(tīng)說(shuō)明出聲音,并在此基礎(chǔ)上生成行動(dòng)參考方案,為在未來(lái)戰(zhàn)爭(zhēng)中快速、合理配置作戰(zhàn)力量提供全新手段。

        三是決策大模型助力人機(jī)混合決策,提升指揮決策優(yōu)勢(shì)?;跊Q策大模型的生成式AI系統(tǒng),實(shí)現(xiàn)了從智能預(yù)測(cè)到智能決策、從單智能體到多智能體的跨越,可全面支撐“蜂群”“魚(yú)群”“狼群”等作戰(zhàn)多智能體,能夠并發(fā)處理千個(gè)以上決策任務(wù),適用于融合控制有/無(wú)人平臺(tái)、生成控制算法、優(yōu)化群體行為,實(shí)現(xiàn)“群體作戰(zhàn)”。2016年美國(guó)研發(fā)的人工智能系統(tǒng)“ALPHA”,在模擬空戰(zhàn)中擊敗了經(jīng)驗(yàn)豐富的退役空軍上校。據(jù)稱(chēng),和人類(lèi)飛行員相比,“ALPHA”在空中格斗中快速協(xié)調(diào)戰(zhàn)術(shù)計(jì)劃的速度快了250倍,從傳感器搜集信息、分析處理到自動(dòng)生成應(yīng)對(duì)方案,整個(gè)過(guò)程還不到1毫秒,能同時(shí)躲避來(lái)襲的數(shù)十枚導(dǎo)彈,并協(xié)調(diào)隊(duì)友觀察學(xué)習(xí)敵方戰(zhàn)術(shù)。未來(lái)戰(zhàn)場(chǎng)上,將決策大模型綜合集成到無(wú)人作戰(zhàn)平臺(tái),可實(shí)施“訂單”式規(guī)劃作戰(zhàn)任務(wù)、“派單”式就近賦予任務(wù)、“接單”式精確打擊目標(biāo),形成對(duì)傳統(tǒng)作戰(zhàn)樣式的“降維打擊”。

        四是多模態(tài)大模型成為認(rèn)知對(duì)抗新型利器,放大軍事威懾效能。認(rèn)知戰(zhàn)離不開(kāi)“信息彈藥”,深度偽造等技術(shù)更是影響戰(zhàn)局的“特效彈藥”。戰(zhàn)時(shí)受各種條件限制,制作視頻等“信息彈藥”往往十分困難,而基于多模態(tài)大模型的生成式AI系統(tǒng)能夠高效快速生成擾亂敵心的“信息彈藥”,突破強(qiáng)敵封控的智能水軍,實(shí)現(xiàn)戰(zhàn)時(shí)快采、快編、快發(fā),奪取認(rèn)知敘事主導(dǎo)權(quán),充分釋放軍事威懾效能。美國(guó)十分重視虛擬現(xiàn)實(shí)、全息投影、音視頻合成等技術(shù)在認(rèn)知信息生成中的應(yīng)用。早在伊拉克戰(zhàn)爭(zhēng)中,美軍就利用全息投影、數(shù)字孿生技術(shù),在巴格達(dá)上空制造虛擬的伊拉克國(guó)旗,并將國(guó)旗“撕”得粉碎,對(duì)伊軍民心理造成強(qiáng)烈震懾。

        實(shí)現(xiàn)軍事智能的關(guān)鍵是將“計(jì)算”與“算計(jì)”進(jìn)行高效結(jié)合:計(jì)算是基于事實(shí)的功能,算計(jì)是基于價(jià)值的能力。生成式AI僅是解決問(wèn)題的一種工具手段,若不與現(xiàn)代戰(zhàn)爭(zhēng)的價(jià)值道義、倫理道德、法律規(guī)則、政策體系等各方面結(jié)合,則其軍事應(yīng)用可能會(huì)帶來(lái)諸多風(fēng)險(xiǎn)和挑戰(zhàn)。

        生成式人工智能給網(wǎng)絡(luò)安全帶來(lái)挑戰(zhàn)。從網(wǎng)絡(luò)攻擊角度看,主要涉及4個(gè)方面:一是自動(dòng)生成攻擊工具。黑客借助ChatGPT、Codex等生成式AI工具自動(dòng)大批量生成惡意軟件,并根據(jù)攻擊反饋情況進(jìn)行迅速迭代,大大降低了網(wǎng)絡(luò)攻擊的門(mén)檻。二是提高網(wǎng)絡(luò)攻擊頻度。向生成式AI系統(tǒng)大量“投喂”源代碼,能夠檢測(cè)出軟件的未知漏洞,大大縮短發(fā)現(xiàn)新漏洞的時(shí)間,大幅提高了網(wǎng)絡(luò)攻擊的頻度。三是升級(jí)網(wǎng)絡(luò)攻擊手法。生成式AI系統(tǒng)通過(guò)精確地引導(dǎo)攻擊請(qǐng)求、整合攻擊武器,讓過(guò)去能被檢測(cè)、阻止、過(guò)濾的病毒代碼獲得新生,實(shí)現(xiàn)組合化、立體化、自動(dòng)化的智能攻擊。四是實(shí)施社會(huì)工程攻擊。過(guò)去利用魚(yú)叉式網(wǎng)絡(luò)釣魚(yú),使用社會(huì)工程來(lái)創(chuàng)建定制誘餌存在成本高、效率低的缺點(diǎn)。生成式AI作為按需偽造文本的利器,可批量創(chuàng)建復(fù)雜的網(wǎng)絡(luò)釣魚(yú)郵件、非常逼真的虛假配置文件,輕松繞過(guò)郵件保護(hù)程序,提高網(wǎng)絡(luò)攻擊的有效性。

        從個(gè)人信息保護(hù)角度看,主要涉及過(guò)度采、非法用、跨境傳、刪除難4個(gè)方面的風(fēng)險(xiǎn)隱患。一是過(guò)度采。生成式AI本質(zhì)上是以海量數(shù)據(jù)為基礎(chǔ)的訓(xùn)練大模型,訓(xùn)練數(shù)據(jù)大多來(lái)自互聯(lián)網(wǎng),含有大量個(gè)人信息和數(shù)據(jù)。在訓(xùn)練大模型強(qiáng)大的推理能力下,生成式AI平臺(tái)過(guò)度采集未經(jīng)用戶(hù)同意的數(shù)據(jù),極大地增加了個(gè)人信息泄露風(fēng)險(xiǎn),信息主體的人格權(quán)也面臨侵害風(fēng)險(xiǎn)。二是非法用。生成式AI系統(tǒng)輸出內(nèi)容包含用戶(hù)提供的個(gè)人信息和重要數(shù)據(jù),這也加大了數(shù)據(jù)合規(guī)風(fēng)險(xiǎn)。例如,在GPT-2訓(xùn)練過(guò)程中,就出現(xiàn)了非法輸出用戶(hù)隱私信息的現(xiàn)象[7]。因此,生成式AI服務(wù)者或采集者可能泄露或非法濫用個(gè)人信息。三是跨境傳。在使用ChatGPT等生成式AI的過(guò)程中,存在著個(gè)人信息跨境流動(dòng)安全風(fēng)險(xiǎn)??缇硞鬏?shù)膫€(gè)人信息、商業(yè)秘密、地理位置等隱私數(shù)據(jù),可能經(jīng)由有關(guān)方面強(qiáng)大的數(shù)據(jù)分析能力,推導(dǎo)出關(guān)鍵設(shè)施位置、重大政策傾向等核心敏感信息,威脅國(guó)家安全。四是刪除難。ChatGPT雖然承諾會(huì)從其使用記錄中刪除所有個(gè)人身份信息,但是未說(shuō)明如何刪除,數(shù)據(jù)持續(xù)用于深度學(xué)習(xí)使得ChatGPT很難保證完全擦除用戶(hù)個(gè)人的信息痕跡。[8]

        生成式人工智能給經(jīng)濟(jì)安全帶來(lái)挑戰(zhàn)。與歷次人工智能熱潮在經(jīng)濟(jì)領(lǐng)域產(chǎn)生的風(fēng)險(xiǎn)問(wèn)題類(lèi)似,生成式AI熱潮給經(jīng)濟(jì)安全帶來(lái)的風(fēng)險(xiǎn)既具有普遍性,也呈現(xiàn)出一些新特征。第一,由機(jī)器取代人引發(fā)的“技術(shù)性失業(yè)潮”危機(jī)。低技能的勞動(dòng)者將是自動(dòng)化的主要受害者這一觀點(diǎn)正面臨巨大挑戰(zhàn),生成式AI正在逐漸取代“腦力勞動(dòng)者”承擔(dān)其部分工作。在引入ChatGPT類(lèi)生成式AI系統(tǒng)后,程序員、媒體從業(yè)者、設(shè)計(jì)師、作家、畫(huà)家、教師、律師等職業(yè)群體可能會(huì)面臨裁員、降薪、轉(zhuǎn)崗等風(fēng)險(xiǎn)。第二,生成式AI可能會(huì)加劇科技企業(yè)的寡頭壟斷。大模型是一場(chǎng)“AI+云計(jì)算”的全方位競(jìng)爭(zhēng),其核心技術(shù)壁壘是數(shù)據(jù)、算法、算力等要素資源的精密組合創(chuàng)新。目前,生成式AI技術(shù)平臺(tái)和應(yīng)用系統(tǒng)大部分都是由谷歌、微軟等巨頭及其參股或控股公司研發(fā)而成,先發(fā)優(yōu)勢(shì)企業(yè)通過(guò)快速積累“數(shù)據(jù)雪球”、建立“數(shù)據(jù)壁壘”,形成巨大的隱形智能成本從而領(lǐng)先后發(fā)競(jìng)爭(zhēng)者。第三,生成式AI加劇內(nèi)容版權(quán)歸屬爭(zhēng)議。生成式AI引發(fā)的版權(quán)侵權(quán)風(fēng)險(xiǎn)已成為行業(yè)發(fā)展面臨的緊迫問(wèn)題。一是挖掘與分析數(shù)據(jù)的過(guò)程存在版權(quán)風(fēng)險(xiǎn)。生成式AI在挖掘數(shù)據(jù)的過(guò)程中可能存在無(wú)法辨認(rèn)被挖掘?qū)ο蟮臋?quán)利狀態(tài)的現(xiàn)象,權(quán)利人因此也無(wú)從知曉作品是否已被挖掘使用,進(jìn)而引發(fā)數(shù)據(jù)挖掘分析的版權(quán)風(fēng)險(xiǎn)。二是關(guān)于人工智能生成內(nèi)容是否屬于“作品”的分歧較大。我國(guó)業(yè)界關(guān)于人工智能生成內(nèi)容是否屬于《中華人民共和國(guó)著作權(quán)法》中的“作品”以及“著作權(quán)人是誰(shuí)”的爭(zhēng)論一直存在。三是生成式AI內(nèi)容版權(quán)歸屬存在風(fēng)險(xiǎn)。生成式AI系統(tǒng)主要涉及三方利益主體:系統(tǒng)設(shè)計(jì)者和訓(xùn)練者、享有系統(tǒng)所有權(quán)的所有者、利用生成式AI創(chuàng)作的作品者,生成式AI內(nèi)容版權(quán)應(yīng)歸屬于哪一主體在學(xué)界尚未達(dá)成共識(shí)。從商業(yè)角度看,如果完全不給予生成式AI以知識(shí)產(chǎn)權(quán)保護(hù),對(duì)研發(fā)企業(yè)而言是不公平的。

        生成式人工智能給社會(huì)安全帶來(lái)挑戰(zhàn)。一是滋生新型違法犯罪。從目前情況看,可能滋生四類(lèi)問(wèn)題:1、詐騙敲詐類(lèi)。生成式AI能夠精準(zhǔn)分析目標(biāo)對(duì)象特征,定制個(gè)性化詐騙話(huà)術(shù),自動(dòng)合成并發(fā)送相關(guān)視頻、語(yǔ)音、圖片、文字,利用擬人化的聊天對(duì)話(huà)能力欺騙目標(biāo)對(duì)象感情、騙取錢(qián)財(cái)。2、侮辱誹謗類(lèi)。生成式AI模型能夠偽造信息,合成虛假的私人視頻或色情視頻傳播至網(wǎng)絡(luò),存在侵害個(gè)人肖像權(quán)、隱私權(quán)和名譽(yù)權(quán)的風(fēng)險(xiǎn)。例如,2023年3月,Midjourney等生成式AI軟件生成了多張?zhí)乩势铡氨徊丁钡膱D片,在網(wǎng)絡(luò)上瘋狂流傳,加速了輿情發(fā)酵。3、危安信息類(lèi)。生成式AI可能生成煽動(dòng)性言論、宣揚(yáng)暴力恐怖及宗教極端思想等音視頻內(nèi)容,侵犯國(guó)家法益和社會(huì)法益。4、網(wǎng)絡(luò)暴力類(lèi)。生成式AI可以通過(guò)“造粉”“刷單”來(lái)販賣(mài)焦慮、制造沖突、激發(fā)爭(zhēng)議、操縱輿論甚至造謠污蔑,制造和推動(dòng)網(wǎng)絡(luò)暴力犯罪的蔓延。

        二是引發(fā)倫理道德風(fēng)險(xiǎn)。除了當(dāng)下熱議的ChatGPT違反學(xué)術(shù)倫理道德和學(xué)生學(xué)業(yè)誠(chéng)信遭受質(zhì)疑等問(wèn)題外,算法歧視和認(rèn)知操縱方面的倫理道德風(fēng)險(xiǎn)尤其值得關(guān)注。一方面,算法歧視風(fēng)險(xiǎn)更為隱蔽。生成式AI大模型客觀上存在算法歧視、信息繭房等問(wèn)題,算法中嵌入的種族歧視、性別歧視等內(nèi)容的隱藏代碼,在人工智能“客觀、公正、科學(xué)”的高科技包裝和算法黑箱的遮掩下,可能會(huì)帶來(lái)更為隱蔽的算法歧視風(fēng)險(xiǎn)。如DALL-E2(OpenAI文本生成圖像系統(tǒng))具有顯著的種族和性別刻板印象,當(dāng)被要求生成“律師”“CEO”等高薪白領(lǐng)職業(yè)時(shí),輸出的圖片人物幾乎都是白人形象。[9]另一方面,認(rèn)知操縱風(fēng)險(xiǎn)。人們通常對(duì)智能系統(tǒng)自動(dòng)生成的知識(shí)信任有加,尤其是生成式AI這種側(cè)重?cái)?shù)據(jù)挖掘、不作結(jié)論性判斷、看似客觀中立的概率性歸納,往往更能降低用戶(hù)的警覺(jué)性,不動(dòng)聲色地影響和左右人的思維認(rèn)知。值得警惕的是,借助生成式AI技術(shù)開(kāi)展“影響力”行動(dòng)看似科學(xué)、客觀、理性,實(shí)則是人為操縱信息,誘導(dǎo)、影響和左右目標(biāo)對(duì)象思維認(rèn)知,這已成為社會(huì)認(rèn)知戰(zhàn)的重要方式。此外,生成式AI越來(lái)越多地被用來(lái)制作數(shù)字人、生成逝者的音容相貌、數(shù)字化復(fù)活已故演員、創(chuàng)造與逝者交談的可能,等等,進(jìn)一步引發(fā)了學(xué)界業(yè)界對(duì)相關(guān)倫理問(wèn)題的討論。[10]

        三是誘發(fā)公共安全風(fēng)險(xiǎn)。首先,生成式AI存在人工智能技術(shù)不完備的局限性。由于生成式AI模型復(fù)雜度更高、應(yīng)用領(lǐng)域更新、訓(xùn)練參數(shù)巨大,算法透明性、魯棒性、不可解釋性等問(wèn)題更為突出,帶來(lái)的風(fēng)險(xiǎn)也更大。比如,在生成式AI輔助工業(yè)設(shè)計(jì)的訓(xùn)練數(shù)據(jù)量不足的情況下,在特定數(shù)據(jù)集上測(cè)試性能良好的算法很可能被少量隨機(jī)噪聲的輕微擾動(dòng)所影響,從而導(dǎo)致模型給出錯(cuò)誤結(jié)論。算法上線(xiàn)應(yīng)用后,隨著采集數(shù)據(jù)內(nèi)容更新,算法也會(huì)因產(chǎn)生性能偏差進(jìn)而引發(fā)系統(tǒng)失靈,而算法出現(xiàn)錯(cuò)誤、透明度不足也將阻礙外部觀察者的糾偏除誤。其次,生成式AI或成為破壞公共安全的新渠道。如ChatGPT等生成式AI與智能手機(jī)、智能汽車(chē)、人形機(jī)器人等智能設(shè)備融合互聯(lián),可實(shí)現(xiàn)遠(yuǎn)程操控,策動(dòng)威脅公共安全的活動(dòng)。最后,生成式AI雖然功能強(qiáng)大但可控性差。先進(jìn)人工智能難以控制的原因很多,其中之一便是創(chuàng)建者對(duì)其內(nèi)部運(yùn)行機(jī)制缺乏了解。包括OpenAI的首席執(zhí)行官等人認(rèn)為,由于監(jiān)管不足且運(yùn)行類(lèi)人AI系統(tǒng)的經(jīng)驗(yàn)不足,生成式AI有可能變得不可控,給人類(lèi)社會(huì)帶來(lái)風(fēng)險(xiǎn),對(duì)人類(lèi)生存構(gòu)成威脅。

        四是造成社會(huì)信任危機(jī)。信任是維持整個(gè)人類(lèi)社會(huì)活動(dòng)良性運(yùn)作的根基,而人工智能生成的假消息,深度合成的假視頻、假音頻在社交媒體上的泛濫,可能導(dǎo)致全社會(huì)陷入真假不清、真假難辨的困境之中,造成“真相的終結(jié)”,使人類(lèi)社會(huì)深陷“后真相時(shí)代”,[11]“數(shù)字信任”下降到一定程度還可能引發(fā)全社會(huì)的信任危機(jī)。同時(shí),生成式AI技術(shù)讓分辨真假音視頻變得極其困難,實(shí)際上動(dòng)搖了音頻和視頻等法定證據(jù)種類(lèi)存在的信任基礎(chǔ),[12]給訴訟法和證據(jù)法的相關(guān)規(guī)則帶來(lái)了嚴(yán)峻挑戰(zhàn)。

        信任是人機(jī)交互的重要前提。Google聊天機(jī)器人Bard首秀犯下事實(shí)性錯(cuò)誤,引發(fā)了網(wǎng)友對(duì)ChatGPT模式進(jìn)入搜索引擎實(shí)用性的討論,加深了人們對(duì)于生成式AI的不信任感。[13]生成式AI是生成元宇宙數(shù)字人的重要工具,數(shù)字人數(shù)字身份的抽象性、專(zhuān)業(yè)性及難以感知等特點(diǎn)使得個(gè)體對(duì)其有一種天然的不信任感,因此,實(shí)現(xiàn)“算法信任”到“人機(jī)信任”是推動(dòng)元宇宙數(shù)字人發(fā)展亟待解決的難題。

        防控生成式人工智能重大風(fēng)險(xiǎn)的對(duì)策思考

        區(qū)別于AI1.0技術(shù),生成式AI的治理對(duì)象(數(shù)據(jù)、算法、平臺(tái)、內(nèi)容)的涌現(xiàn)、AI1.0傳統(tǒng)倫理與AI2.0“新道德”的張力、數(shù)字社會(huì)應(yīng)對(duì)風(fēng)險(xiǎn)的科層結(jié)構(gòu)“失靈”,使得人們?cè)谄胶馍墒紸I的發(fā)展與安全上艱難抉擇,并在防控風(fēng)險(xiǎn)的探索中呈現(xiàn)出“實(shí)踐理性”與“道德理性”的風(fēng)險(xiǎn)防控理念之爭(zhēng)、“算法權(quán)力”與“安全邊界”的風(fēng)險(xiǎn)防控焦點(diǎn)之論、“結(jié)果主義”與“未來(lái)主義”的風(fēng)險(xiǎn)防控范式之較、“風(fēng)險(xiǎn)可接受性”與“價(jià)值可接受性”的風(fēng)險(xiǎn)防控標(biāo)準(zhǔn)之辯。因此,防控生成式AI誘發(fā)的國(guó)家安全風(fēng)險(xiǎn)需著眼構(gòu)建一體化國(guó)家戰(zhàn)略體系,打造一體化風(fēng)險(xiǎn)防控框架,有效平衡AI發(fā)展與安全。

        梳理總結(jié)當(dāng)前人工智能風(fēng)險(xiǎn)防控的研究圖譜,主要集中在5個(gè)方面:一是從總體邏輯看,側(cè)重于從傳統(tǒng)理論視角、“主體-對(duì)象-價(jià)值-規(guī)制-效果”的要素結(jié)構(gòu)視角、“風(fēng)險(xiǎn)-利益-倫理-權(quán)力-權(quán)利”的社會(huì)影響視角來(lái)構(gòu)建人工智能治理的框架;二是從綜合分層框架看,構(gòu)建了“共性?xún)r(jià)值-結(jié)構(gòu)要素-行業(yè)場(chǎng)景-微觀操作”的包容性人工智能治理綜合分層框架;[14]三是從數(shù)據(jù)算法看,側(cè)重于探討數(shù)據(jù)、算法及人工智能本身所具有的風(fēng)險(xiǎn)及其治理路徑;四是從場(chǎng)景生態(tài)看,側(cè)重于從微觀的“公眾-個(gè)人”、中觀的“組織-行業(yè)”、宏觀的“國(guó)家-社會(huì)”3個(gè)層次的應(yīng)用場(chǎng)景來(lái)探討人工智能風(fēng)險(xiǎn)影響及應(yīng)對(duì)策略;五是從應(yīng)用案例看,主要是從“區(qū)域案例”和“場(chǎng)景案例”視角,總結(jié)典型性人工智能風(fēng)險(xiǎn)防控模式。本研究以總體國(guó)家安全觀為指導(dǎo),著眼于建立防控生成式AI風(fēng)險(xiǎn)的綜合治理體系,提出了防控生成式人工智能?chē)?guó)家安全風(fēng)險(xiǎn)的一體化框架(見(jiàn)圖1)。該框架體現(xiàn)了從宏觀到微觀的維度衍變、從抽象到具體的內(nèi)容銜接的一體化設(shè)計(jì)邏輯。

        在風(fēng)險(xiǎn)防控維度上,該框架將防控生成式AI風(fēng)險(xiǎn)劃分為層次銜接的四個(gè)子框架:人本邏輯、法治邏輯、共治邏輯、科技邏輯。其中,人本邏輯是一體化防控框架的“根基”,發(fā)揮著“統(tǒng)領(lǐng)性”的作用;法治邏輯是對(duì)人本邏輯的“具象化”執(zhí)行,是整個(gè)風(fēng)險(xiǎn)防控體系的“樹(shù)干”,發(fā)揮著“提綱性”的作用;共治邏輯是對(duì)法治邏輯的結(jié)構(gòu)要素“分類(lèi)式”“精細(xì)化”表達(dá),是整個(gè)風(fēng)險(xiǎn)防控體系的“枝干”,代表了整個(gè)風(fēng)險(xiǎn)防控體系著力的“邊界范圍”;科技邏輯是共治邏輯的“工具化”運(yùn)用,是整個(gè)風(fēng)險(xiǎn)防控體系的“枝葉”和“最接地氣”的部分。在風(fēng)險(xiǎn)防控內(nèi)容上,該框架從價(jià)值導(dǎo)向、防治對(duì)象、參與主體、工具手段4個(gè)方面,全面解構(gòu)不同維度下生成式AI風(fēng)險(xiǎn)防控的理念、客體、主體和工具的“全貌”。

        遵循人本邏輯,制定防控生成式AI風(fēng)險(xiǎn)的“一體化”頂層戰(zhàn)略。生成式AI技術(shù)正推動(dòng)人機(jī)共生的元宇宙發(fā)展,將人的世界從物理世界延伸至數(shù)字世界,在其推動(dòng)下未來(lái)人類(lèi)將進(jìn)入通用人工智能時(shí)代、強(qiáng)人工智能時(shí)代。在此背景下,必須更深刻系統(tǒng)地認(rèn)識(shí)到智能社會(huì)本質(zhì)是“人的”社會(huì)而不是“物的”社會(huì),人民至上、生命至上,人的發(fā)展是社會(huì)發(fā)展的最終目的。具體而言,制定應(yīng)對(duì)生成式AI重大風(fēng)險(xiǎn)頂層戰(zhàn)略,就是要以“道德理性”為導(dǎo)向,以人民安全為宗旨,把權(quán)利保護(hù)和人權(quán)保障作為防控生成式AI重大風(fēng)險(xiǎn)的核心要義。要以“公權(quán)力-平臺(tái)權(quán)力-私權(quán)利”相平衡的權(quán)力制約思路為指引,全面規(guī)劃和統(tǒng)籌協(xié)調(diào)智能社會(huì)風(fēng)險(xiǎn)防控工作;要統(tǒng)籌整合軍事、情報(bào)、安全、外交、公安、社會(huì)等各方資源,強(qiáng)化國(guó)家安全戰(zhàn)略情報(bào)在政治風(fēng)險(xiǎn)應(yīng)對(duì)上的支撐作用,利用人工智能技術(shù)開(kāi)展風(fēng)險(xiǎn)評(píng)估,全面分析對(duì)手利用生成式AI對(duì)我國(guó)進(jìn)行滲透破壞的現(xiàn)狀和態(tài)勢(shì)、溯源風(fēng)險(xiǎn)源頭和威脅,加強(qiáng)應(yīng)對(duì)生成式AI風(fēng)險(xiǎn)的頂層認(rèn)知;要聚焦個(gè)人信息保護(hù)、人工智能安全等領(lǐng)域的突出問(wèn)題和人民群眾的重大關(guān)切,將廣大人民群眾的網(wǎng)絡(luò)空間合法權(quán)益維護(hù)好、保障好、發(fā)展好,匯聚人民力量抵御各種安全風(fēng)險(xiǎn),不斷筑牢維護(hù)國(guó)家安全的“銅墻鐵壁”。

        遵循法治邏輯,健全防控生成式AI風(fēng)險(xiǎn)的“全方位”制度體系。以算法、數(shù)據(jù)、內(nèi)容、資本為載體,將人本邏輯所蘊(yùn)含的倫理、道德和觀念等抽象性?xún)r(jià)值,轉(zhuǎn)化為以權(quán)力、權(quán)利和利益等結(jié)果形式為防治對(duì)象的結(jié)構(gòu)要素框架,以“法治理性”為導(dǎo)向,建構(gòu)一套安全有序的智能社會(huì)法治秩序?!渡墒饺斯ぶ悄芊?wù)管理暫行辦法》對(duì)生成式人工智能服務(wù)實(shí)行包容審慎和分類(lèi)分級(jí)監(jiān)管,明確了訓(xùn)練數(shù)據(jù)處理活動(dòng)和數(shù)據(jù)標(biāo)注等要求,規(guī)定了安全評(píng)估、算法備案、投訴舉報(bào)等制度[15],但生成式AI帶來(lái)的有害內(nèi)容生產(chǎn)、傳播與滲透的責(zé)任仍有待清晰界定。在生成式AI風(fēng)險(xiǎn)不斷泛化并與其他領(lǐng)域安全風(fēng)險(xiǎn)疊加擴(kuò)大的背景下,應(yīng)當(dāng)在法治框架內(nèi)拓展治理思路,逐步健全生成式AI重大風(fēng)險(xiǎn)治理的“全方位”制度體系。第一,從參與主體角度完善“縱橫交錯(cuò)”的防控生成式AI風(fēng)險(xiǎn)責(zé)任體系。新技術(shù)風(fēng)險(xiǎn)治理必須進(jìn)行法律制度創(chuàng)新,只有合理劃分不同主體、不同層次、不同階段的法律責(zé)任,構(gòu)建起有效的風(fēng)險(xiǎn)治理責(zé)任體系,才能充分發(fā)揮風(fēng)險(xiǎn)治理體系的作用與優(yōu)勢(shì),落實(shí)風(fēng)險(xiǎn)治理責(zé)任[16]。在橫向上,要盡快完善“政-企-社”三大主體的責(zé)任分配體系,明確政府主體在生成式AI監(jiān)管中的“元治理”責(zé)任,明確社會(huì)主體的“協(xié)治理”責(zé)任,明確企業(yè)主體的“能治理”責(zé)任,從而構(gòu)建“整體性”風(fēng)險(xiǎn)治理責(zé)任體系;在縱向上,盡快厘清“上-中-下”三個(gè)層次的生成式AI監(jiān)管責(zé)任,通過(guò)“高層”承擔(dān)“頂層設(shè)計(jì)”責(zé)任、“中層”履行“專(zhuān)業(yè)管理”責(zé)任、“基層”壓實(shí)“貫徹執(zhí)行”責(zé)任,從而實(shí)現(xiàn)“分層式”的生成式AI風(fēng)險(xiǎn)監(jiān)管責(zé)任安排。第二,從防治對(duì)象角度建立“包容審慎”的生成式AI法治體系。一方面,通過(guò)完善法規(guī)制度實(shí)現(xiàn)“硬法”控制,推動(dòng)生成式AI風(fēng)險(xiǎn)防控從以“應(yīng)急管理”為中心向以“風(fēng)險(xiǎn)治理”為中心轉(zhuǎn)變,構(gòu)建價(jià)值包容、普遍有效的風(fēng)險(xiǎn)治理制度體系。另一方面,堅(jiān)持控制算法模型的核心邏輯,將社會(huì)公認(rèn)的價(jià)值判斷“賦魂”至算法模型中,通過(guò)選擇語(yǔ)料庫(kù)和建構(gòu)訓(xùn)練模型的價(jià)值邏輯,使智能算法始終能夠被人類(lèi)掌控,并沿著以人為本的方向發(fā)展與迭代,實(shí)現(xiàn)治理的“軟法”控制。

        遵循共治邏輯,構(gòu)建防控生成式AI風(fēng)險(xiǎn)的“同心圓”治理結(jié)構(gòu)。共治是善治的核心要義。生成式AI的風(fēng)險(xiǎn)防控比其他任何技術(shù)形態(tài)的社會(huì)治理都更加復(fù)雜,既有針對(duì)最新科技的極強(qiáng)專(zhuān)業(yè)性,又具有面向公眾的廣泛社會(huì)性,還有境內(nèi)境外的緊密聯(lián)動(dòng)性。因此,實(shí)行以多元共治為核心的“同心圓”治理結(jié)構(gòu)是構(gòu)建智能社會(huì)政治秩序的必然選擇。

        一是實(shí)現(xiàn)應(yīng)用“倫理嵌入設(shè)計(jì)”。生成式AI遵循一定的倫理規(guī)則。“如果我們?cè)诮探o強(qiáng)大的智能機(jī)器基本倫理標(biāo)準(zhǔn)之前,在某些標(biāo)準(zhǔn)上達(dá)成了共識(shí),那一切就會(huì)變得更好?!盵17]近年來(lái),許多國(guó)家和國(guó)際組織都在探索生成式人工智能倫理治理路徑。2023年3月以來(lái),意大利、加拿大先后以數(shù)據(jù)安全為由,宣布對(duì)ChatGPT所屬公司OpenAI展開(kāi)調(diào)查。2023年6月,歐洲議會(huì)批準(zhǔn)《人工智能法案》,對(duì)ChatGPT等生成式AI工具提出了新的透明度要求,并要求披露生成式AI訓(xùn)練數(shù)據(jù)版權(quán)。[18]對(duì)于我國(guó)而言,必須要妥善處理好生成式AI技術(shù)發(fā)展與倫理價(jià)值約束之間的關(guān)系,建立高風(fēng)險(xiǎn)生成式AI系統(tǒng)自開(kāi)發(fā)、使用直至整個(gè)存續(xù)期間的法律約束與懲戒機(jī)制,有效防控人工智能風(fēng)險(xiǎn)。此外,針對(duì)生成式AI領(lǐng)域的創(chuàng)新主體、行業(yè)組織、公司企業(yè)也要制定相應(yīng)的生成式AI倫理指南,推進(jìn)落實(shí)AI風(fēng)險(xiǎn)管理、倫理審查評(píng)估等,深入推進(jìn)人工智能倫理治理,打造安全可信的生成式AI應(yīng)用,并確保在應(yīng)用中實(shí)現(xiàn)“倫理嵌入設(shè)計(jì)”。二是形成多元主體共治格局。生成式AI治理是一項(xiàng)復(fù)雜的系統(tǒng)工程,需要國(guó)家、行業(yè)、組織、公民等主體的共同參與、協(xié)同共治。因此,要走好網(wǎng)上群眾路線(xiàn),充分發(fā)揮群眾自我教育、自我管理、自我約束的自治作用,與群眾共同應(yīng)對(duì)智能社會(huì)的復(fù)雜問(wèn)題,[19]還要激勵(lì)和支持社會(huì)自治、政府和企業(yè)合作共治,強(qiáng)化對(duì)頭部企業(yè)與產(chǎn)品服務(wù)的安全監(jiān)管。同時(shí),有關(guān)部門(mén)應(yīng)加強(qiáng)執(zhí)法監(jiān)管,提升對(duì)危害政治安全的新技術(shù)的監(jiān)測(cè)處置能力,對(duì)構(gòu)成違法犯罪的案件依法嚴(yán)肅查處。三是推動(dòng)國(guó)際人工智能治理。2021年以來(lái)我國(guó)先后發(fā)布《中國(guó)關(guān)于規(guī)范人工智能軍事應(yīng)用的立場(chǎng)文件》《中國(guó)關(guān)于加強(qiáng)人工智能倫理治理的立場(chǎng)文件》,在聯(lián)合國(guó)平臺(tái)就人工智能治理提出方案,推動(dòng)形成具有廣泛共識(shí)的國(guó)際人工智能治理框架和標(biāo)準(zhǔn)規(guī)范,不斷加強(qiáng)人工智能領(lǐng)域全球治理,積極倡導(dǎo)多方參與國(guó)際人工智能治理以應(yīng)對(duì)共同挑戰(zhàn)。

        遵循科技邏輯,強(qiáng)化防控生成式AI風(fēng)險(xiǎn)的“全周期”過(guò)程監(jiān)管?,F(xiàn)實(shí)中人工智能應(yīng)用所引發(fā)的“技術(shù)利維坦”、數(shù)字鴻溝、信息繭房、馬太效應(yīng)、倫理困境等問(wèn)題,使得人工智能治理成為一項(xiàng)復(fù)雜工程。遵循科技邏輯是指將“科學(xué)性”注入風(fēng)險(xiǎn)識(shí)別、風(fēng)險(xiǎn)預(yù)警、風(fēng)險(xiǎn)處置等環(huán)節(jié),以“工具理性”為導(dǎo)向,以生成式AI具體技術(shù)、產(chǎn)品、服務(wù)和內(nèi)容為載體,對(duì)行業(yè)場(chǎng)景所要求的行為規(guī)范進(jìn)行技術(shù)化、標(biāo)準(zhǔn)化的“全周期”過(guò)程監(jiān)管,通過(guò)建立研究設(shè)計(jì)標(biāo)準(zhǔn)、技術(shù)安全標(biāo)準(zhǔn)、運(yùn)行程序標(biāo)準(zhǔn)、管理流程標(biāo)準(zhǔn)、應(yīng)急手段標(biāo)準(zhǔn)等工具,降低風(fēng)險(xiǎn)概率和后果嚴(yán)重性。

        一是在風(fēng)險(xiǎn)預(yù)警階段,以“監(jiān)測(cè)力+循證決策”為突破點(diǎn),提升風(fēng)險(xiǎn)識(shí)別能力。風(fēng)險(xiǎn)識(shí)別在新技術(shù)風(fēng)險(xiǎn)治理中具有基礎(chǔ)性作用。隨著新技術(shù)風(fēng)險(xiǎn)治理中大數(shù)據(jù)、人工智能、認(rèn)知科學(xué)等技術(shù)運(yùn)用不斷深入,科技革命與新技術(shù)風(fēng)險(xiǎn)治理的雙向互動(dòng)持續(xù)推進(jìn),新技術(shù)風(fēng)險(xiǎn)治理運(yùn)用“監(jiān)測(cè)力+循證決策”進(jìn)行風(fēng)險(xiǎn)識(shí)別的能力越來(lái)越強(qiáng)。如OpenAI研制出AI檢測(cè)器,以“AI檢測(cè)AI”避免技術(shù)濫用,顯著改善了GPT-4的安全性能。因此,預(yù)警階段需要強(qiáng)化科技認(rèn)知,建立和完善國(guó)家級(jí)人工智能安全防御預(yù)警監(jiān)測(cè)體系,及時(shí)發(fā)現(xiàn)并排除各種風(fēng)險(xiǎn)點(diǎn)和設(shè)計(jì)缺陷,實(shí)行威脅預(yù)警分級(jí)機(jī)制,規(guī)范并細(xì)化配套應(yīng)對(duì)措施。二是在應(yīng)急處置階段,以“靈敏度+科學(xué)處置”為關(guān)鍵點(diǎn),提升風(fēng)險(xiǎn)應(yīng)對(duì)能力。要提升對(duì)生成式AI技術(shù)的敏感度,利用生成式AI提升網(wǎng)絡(luò)政治安全防御自動(dòng)化水平,對(duì)風(fēng)險(xiǎn)“節(jié)點(diǎn)”進(jìn)行科學(xué)處置;利用審核智能化優(yōu)勢(shì)賦能互聯(lián)網(wǎng)內(nèi)容監(jiān)管技術(shù),有效阻斷危險(xiǎn)信息和虛假內(nèi)容傳播,快速提升風(fēng)險(xiǎn)應(yīng)對(duì)中的“信息流”處理能力。三是在風(fēng)險(xiǎn)防控階段,以“一盤(pán)棋+系統(tǒng)決策”為著力點(diǎn),提升風(fēng)險(xiǎn)治理能力。人工智能帶來(lái)的風(fēng)險(xiǎn)類(lèi)型多樣,處置流程也不盡相同,必須發(fā)揮“一盤(pán)棋”的制度優(yōu)勢(shì),進(jìn)行系統(tǒng)決策,形成數(shù)據(jù)安全、算法安全、模型安全、內(nèi)容安全相互銜接、有機(jī)融合的一整套辦法措施,及時(shí)有效應(yīng)對(duì)風(fēng)險(xiǎn)隱患和技術(shù)漏洞。在加強(qiáng)外部防范的同時(shí),也要加強(qiáng)內(nèi)控方面的安全技術(shù)防線(xiàn)建設(shè),有步驟地提高生成式人工智能?chē)?guó)家安全風(fēng)險(xiǎn)一體化綜合防控能力。

        (國(guó)防大學(xué)政治學(xué)院軍隊(duì)保衛(wèi)工作系主任、副教授段偉對(duì)本文亦有貢獻(xiàn))

        注釋

        [1]國(guó)家互聯(lián)網(wǎng)信息辦公室:《生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)》,2023年4月11日,http://www.cac.gov.cn/2023-04/11/c_1682854275475410.htm?eqid=cfb0848e00035b16000000066434f17c。

        [2]張華平、李林翰、李春錦:《ChatGPT中文性能測(cè)評(píng)與風(fēng)險(xiǎn)應(yīng)對(duì)》,《數(shù)據(jù)分析與知識(shí)發(fā)現(xiàn)》,2023年第3期。

        [3]鐘祥銘、方興東、顧燁燁:《ChatGPT的治理挑戰(zhàn)與對(duì)策研究——智能傳播的“科林格里奇困境”與突破路徑》,《傳媒觀察》,2023年第3期。

        [4]孫寶云、李艷、齊巍:《網(wǎng)絡(luò)安全影響政治安全的微觀分析——以“劍橋分析”事件為例》,《保密科學(xué)技術(shù)》,2020年第4期。

        [5]唐嵐:《數(shù)字化轉(zhuǎn)型下的發(fā)展與安全——觀察國(guó)際秩序變化的新視角》,《人民論壇·學(xué)術(shù)前沿》,2023年第4期。

        [6]《美國(guó)“截?fù)簟本W(wǎng)站披露 美軍計(jì)劃用“深度偽造”等技術(shù)操縱信息》,2023年3月8日,http://tv.cctv.cn/2023/03/08/VIDET3SH6nZsvI73ffATPqlE230308.shtml。

        [7]N. Carlini, "Privacy Considerations in Large Language Models," 15 December 2020, https://ai.googleblog.com/2020/12/privacy-considerationsin-large.html.

        [8]《爆紅的“ChatGPT”潛在的數(shù)據(jù)安全隱患》,2023年2月7日,https://new.qq.com/rain/a/20230207A08JRW00。

        [9]H. Rosner, "The Ethics of a Deepfake Anthony Bourdain Voice," 17 July 2021, https://www. newyorker.com/culture/annals-ofgastronomy/the-ethics-of-a-deepfake-anthony-bourdain-voice.

        [10]騰訊研究院:《AIGC發(fā)展趨勢(shì)報(bào)告2023:迎接人工智能的下一個(gè)時(shí)代》,2023年1月31日,第55頁(yè)。

        [11]張華:《后真相時(shí)代的中國(guó)新聞業(yè)》,《新聞大學(xué)》,2017年第2期。

        [12]張遠(yuǎn)婷:《人工智能時(shí)代“深度偽造”濫用行為的法律規(guī)制》,《理論月刊》,2022年第9期。

        [13]《聊天機(jī)器人首秀答錯(cuò)一題 谷歌市值縮水逾7000億》,2023年2月10日,https://new.qq.com/rain/a/20230210A018O300。

        [14]龐禎敬、薛瀾、梁正:《人工智能治理:認(rèn)知邏輯與范式超越》,《科學(xué)學(xué)與科學(xué)技術(shù)管理》,2022年第9期。

        [15]國(guó)家互聯(lián)網(wǎng)信息辦公室:《生成式人工智能服務(wù)管理暫行辦法》,2023年7月10日,http://www.cac.gov.cn/2023-07/13/c_1690898327029107.htm。

        [16]范逢春:《基層重大風(fēng)險(xiǎn)治理應(yīng)當(dāng)遵循的幾個(gè)重要邏輯》,《國(guó)家治理》,2020年第3期。

        [17]邁克斯·泰格馬克:《生命3.0——人工智能時(shí)代人類(lèi)的進(jìn)化與重生》,汪婕舒譯,杭州:浙江教育出版社,2018年,第444頁(yè)。

        [18]方曉:《歐洲議會(huì)批準(zhǔn)〈人工智能法案〉,要求披露生成式AI訓(xùn)練數(shù)據(jù)版權(quán)》,2023年6月15日,https://www.thepaper.cn/newsDetail_forward_23490174。

        [19]張文顯:《構(gòu)建智能社會(huì)的法律秩序》,《東方法學(xué)》,2020年第5期。

        責(zé) 編∕楊 柳(見(jiàn)習(xí))

        張廣勝,中央軍委政法委員會(huì)偵查技術(shù)中心正高級(jí)工程師。研究方向?yàn)榫W(wǎng)絡(luò)安全、國(guó)家安全。

        猜你喜歡
        生成式人工智能國(guó)家安全
        挑戰(zhàn)·融合·變革:“ChatGPT與未來(lái)教育”會(huì)議綜述
        生成式人工智能重塑教育及教師應(yīng)對(duì)之道
        人機(jī)共生時(shí)代國(guó)際傳播的理念升維與自主敘事體系構(gòu)建
        生成式人工智能的教育應(yīng)用與展望
        國(guó)家安全視角下的戰(zhàn)略物資儲(chǔ)備立法完善
        從“Ralls案”看中國(guó)海外能源投資的國(guó)家安全審查問(wèn)題
        華人卷入兩起涉美“國(guó)家安全”案
        97se亚洲国产综合自在线观看| 国产丰满乱子伦无码专| 精品少妇后入一区二区三区| 街拍丝袜美腿美女一区| 综合国产婷婷精品久久99之一 | 亚洲精品久久区二区三区蜜桃臀| 中文字幕人成乱码熟女| 麻豆国产原创视频在线播放| 狠狠躁天天躁无码中文字幕图| 淫欲一区二区中文字幕| 国产亚洲一本二本三道| 无码国内精品人妻少妇蜜桃视频| 狠狠做深爱婷婷久久综合一区| 亚洲精品中国国产嫩草影院美女 | 视频一区精品中文字幕| 黄片大全视频在线播放| 国产莉萝无码av在线播放| 亚洲国产欧美在线成人| 女同性恋亚洲一区二区| 手机在线观看av资源| 国产成人av乱码在线观看| 99久久亚洲精品无码毛片| 精品无码一区二区三区小说| 亚洲第一大av在线综合| 中文字幕 亚洲精品 第1页| 伊人久久精品久久亚洲一区| 99精品国产兔费观看久久| 91青青草视频在线播放| 一道本久久综合久久鬼色| 妺妺窝人体色www聚色窝| 妺妺窝人体色www在线图片 | 亚洲国产成人精品无码区99| 69国产成人综合久久精| 亚洲av色香蕉一区二区三区潮| 小雪好紧好滑好湿好爽视频| 无码成人aaaaa毛片| 午夜影视啪啪免费体验区入口| 久久精品国产亚洲av试看| 国产香蕉视频在线播放| 国产高清一区二区三区视频| 国产av一区二区三区丝袜|