亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        人工智能治理國(guó)內(nèi)外發(fā)展現(xiàn)狀分析

        2023-02-13 03:07:04張沛劉媛媛
        信息通信技術(shù)與政策 2023年1期
        關(guān)鍵詞:人工智能模型

        張沛 劉媛媛

        (1.中國(guó)信息通信研究院泰爾終端實(shí)驗(yàn)室,北京 100191;2.北京郵電大學(xué),北京 100876;3.中國(guó)信息通信研究院政策與經(jīng)濟(jì)研究所,北京 100191)

        0 引言

        人工智能(Artificial Intelligence,AI)作為引領(lǐng)未來(lái)變革的戰(zhàn)略性信息技術(shù),在飛速發(fā)展、造福人類(lèi)的同時(shí),也帶來(lái)了隱私安全、人身安全、公共安全等諸多安全風(fēng)險(xiǎn)和挑戰(zhàn)。全球一直致力于推動(dòng)AI從倫理原則、標(biāo)準(zhǔn)規(guī)范到實(shí)踐落地的工作,進(jìn)而達(dá)到兼顧安全與發(fā)展的治理目標(biāo),推動(dòng)AI產(chǎn)業(yè)健康發(fā)展。AI治理已經(jīng)成為全球關(guān)注焦點(diǎn),當(dāng)前全球各國(guó)AI治理穩(wěn)步推進(jìn),我國(guó)也積極推動(dòng)AI治理實(shí)踐。本文主要分析國(guó)內(nèi)外AI治理發(fā)展和現(xiàn)狀、針對(duì)我國(guó)AI治理現(xiàn)狀存在的問(wèn)題提出針對(duì)性建議,對(duì)加強(qiáng)我國(guó)對(duì)AI治理的重視以及促進(jìn)AI治理進(jìn)一步落地非常重要。

        1 AI治理問(wèn)題和挑戰(zhàn)

        1.1 AI算法的安全和問(wèn)責(zé)問(wèn)題亟待解決

        當(dāng)前AI高速發(fā)展,相關(guān)技術(shù)和應(yīng)用滲透在人類(lèi)生活和各行業(yè)中,但是由于AI技術(shù)或管理缺陷也逐漸暴露出不安全、不透明、難問(wèn)責(zé)等諸多問(wèn)題。以深度學(xué)習(xí)為核心的AI系統(tǒng)和模型存在脆弱和易受攻擊的缺陷[1];深度學(xué)習(xí)采用的黑箱(Blackbox)模式導(dǎo)致模型具備不可解釋性;不透明的決策過(guò)程使得算法責(zé)任主體難以界定。如某些應(yīng)用軟件利用深度偽造技術(shù)實(shí)現(xiàn)圖像、音視頻的生成或修改(AI換臉),使不良信息內(nèi)容“以假亂真”,抹黑政治人物。如果安全防護(hù)技術(shù)或措施不完善,無(wú)人駕駛汽車(chē)、機(jī)器人和其他AI裝置將受到非法入侵和控制而引發(fā)安全威脅,如特斯拉、優(yōu)步等自動(dòng)駕駛汽車(chē)交通事故。當(dāng)智能醫(yī)療助理給出錯(cuò)誤的醫(yī)療建議導(dǎo)致患者病情加重時(shí),由于算法不可解釋,存在難以界定責(zé)任主體等問(wèn)題[2]。

        1.2 AI發(fā)展引發(fā)的數(shù)據(jù)問(wèn)題凸顯

        AI的發(fā)展離不開(kāi)大量數(shù)據(jù)的采集、使用和積累,通過(guò)大量數(shù)據(jù)訓(xùn)練算法,可使AI具備更加顯著的問(wèn)題解決能力。一方面,AI數(shù)據(jù)的應(yīng)用可能侵犯大眾的隱私安全,如收集個(gè)人的健康信息、位置信息及消費(fèi)偏好等。另一方面,不均衡的、片面的訓(xùn)練數(shù)據(jù)輸入,可能導(dǎo)致各種算法決策的偏見(jiàn),如谷歌照片服務(wù)Google AI將一名黑人軟件開(kāi)發(fā)人員的照片打上了“大猩猩”的標(biāo)簽,出現(xiàn)嚴(yán)重的種族歧視。

        1.3 AI發(fā)展帶來(lái)社會(huì)風(fēng)險(xiǎn)挑戰(zhàn)

        AI產(chǎn)品和應(yīng)用會(huì)引發(fā)就業(yè)等人類(lèi)社會(huì)風(fēng)險(xiǎn)挑戰(zhàn)。麥肯錫在其發(fā)布的《就業(yè)和失業(yè):自動(dòng)化時(shí)代的勞動(dòng)力轉(zhuǎn)型》報(bào)告中指出,到2030年,全球近8億人將被機(jī)器人取代,其中中國(guó)將有1億人面臨職業(yè)轉(zhuǎn)化[2]。AI會(huì)將可重復(fù)、可描述、有固定規(guī)則等特征的工作取代,不斷推動(dòng)社會(huì)生產(chǎn)率提升。再者,當(dāng)AI發(fā)展到未來(lái)超級(jí)智能階段,機(jī)器人等AI系統(tǒng)能夠自我演化并發(fā)展出類(lèi)人的自我意識(shí),將可能對(duì)人類(lèi)的主導(dǎo)性甚至存續(xù)造成威脅。

        2 AI治理國(guó)內(nèi)外進(jìn)展

        2.1 國(guó)際AI治理現(xiàn)狀

        全球AI治理在從原則邁向“實(shí)踐”過(guò)程中,可分為3個(gè)階段,即提出制定階段、尋求國(guó)際原則共識(shí)階段及落地實(shí)踐階段。2016年起至今,全球主要國(guó)家和國(guó)際組織等發(fā)布了超百份AI戰(zhàn)略及相關(guān)治理文件,梳理后可見(jiàn)目前AI治理原則主要集中在公平和非歧視、安全和可控、透明&可解釋和可溯源、責(zé)任、隱私保護(hù)、倫理道德等方面(見(jiàn)表1)。

        2.2 我國(guó)政府和企業(yè)AI治理現(xiàn)狀

        我國(guó)主要通過(guò)政府治理和企業(yè)自治力量,共同推動(dòng)AI治理實(shí)踐,穩(wěn)步推進(jìn)“負(fù)責(zé)任、可持續(xù)”的AI生態(tài)建設(shè)。

        我國(guó)不斷規(guī)范國(guó)家和地方層面AI治理相關(guān)指導(dǎo)文件和法律法規(guī)。2019年,國(guó)家新一代人工智能治理專業(yè)委員會(huì)發(fā)布《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》,提出和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔(dān)責(zé)任、開(kāi)放協(xié)作、敏捷治理8條治理原則。2021年,《最高人民法院關(guān)于審理使用人臉識(shí)別技術(shù)處理個(gè)人信息相關(guān)民事案件適用法律若干問(wèn)題的規(guī)定》發(fā)布,針對(duì)人臉識(shí)別濫用、數(shù)據(jù)隱私侵犯等AI倫理問(wèn)題給出司法解釋,強(qiáng)化個(gè)人信息保護(hù)。2021年,全國(guó)首部地方性AI領(lǐng)域法規(guī)《深圳經(jīng)濟(jì)特區(qū)人工智能產(chǎn)業(yè)促進(jìn)條例(草案)》(簡(jiǎn)稱《草案》)發(fā)布?!恫莅浮诽岢隽嗽O(shè)立AI倫理委員會(huì),建立先行先試分類(lèi)監(jiān)管機(jī)制,使用政策指南、沙盒技術(shù)等監(jiān)管工具,逐步完善AI領(lǐng)域監(jiān)管機(jī)制等具體治理措施要求。

        百度、騰訊、曠視等AI頭部企業(yè)積極開(kāi)展AI治理探索,并廣泛開(kāi)展了深度合作。騰訊提出“科技向善”理念,其AI研究與應(yīng)用遵循“可知”“可控”“可用”“可靠”的“四可”原則。先后發(fā)布《騰訊人工智能白皮書(shū):泛在智能》《2021十大人工智能趨勢(shì)》等,聚焦AI算法公平性、AI隱私保護(hù)和AI安全等。百度在AI安全、隱私等方面踐行AI治理,先后開(kāi)源了飛槳對(duì)抗樣本工具包Advbox、聯(lián)邦學(xué)習(xí)框架PaddleFL、模型魯棒性體系化評(píng)估框架等。曠視設(shè)立AI道德委員會(huì)、AI治理研究院等機(jī)構(gòu),從正當(dāng)性、人的監(jiān)督、技術(shù)可靠性和安全性、公平性和多樣性、問(wèn)責(zé)和及時(shí)修正、數(shù)據(jù)安全與隱私保護(hù)6個(gè)維度,對(duì)AI正確有序發(fā)展作出明確規(guī)范,并先后發(fā)布《人工智能應(yīng)用準(zhǔn)則》《2020年度全球十大人工智能治理事件》等。

        此外,近年來(lái)業(yè)界AI頭部企業(yè)和研究單位聯(lián)合發(fā)布《人工智能產(chǎn)業(yè)擔(dān)當(dāng)宣言》《促進(jìn)可信人工智能發(fā)展倡議》《可信人工智能白皮書(shū)》等,深圳市人工智能行業(yè)協(xié)會(huì)、中國(guó)人工智能產(chǎn)業(yè)發(fā)展聯(lián)盟(Artificial Intelligence Industry Alliance,AIIA)等發(fā)布《新一代人工智能行業(yè)自律公約》《可信AI操作指引》,廣泛探索AI治理框架和路徑。目前,AI治理落地還沒(méi)有成熟的既定模式,中國(guó)AI企業(yè)治理仍然處于各自摸索、共同探索的階段。

        3 AI治理主要內(nèi)容和手段

        AI的核心三要素為算法、算力和數(shù)據(jù)。由于算力的客觀特性,AI治理的核心問(wèn)題主要集中在AI數(shù)據(jù)和算法層面。

        3.1 數(shù)據(jù)

        3.1.1 數(shù)據(jù)引發(fā)問(wèn)題

        數(shù)據(jù)資源是AI技術(shù)和產(chǎn)業(yè)發(fā)展的重要核心要素之一,是以深度學(xué)習(xí)為代表的算法模型研究和訓(xùn)練的重要基礎(chǔ)元素。深度學(xué)習(xí)訓(xùn)練算法的效果依賴于所輸入的數(shù)據(jù)質(zhì)量[3]。數(shù)據(jù)規(guī)模、準(zhǔn)確性、包容性等因素將直接決定訓(xùn)練得到的模型質(zhì)量[4]。數(shù)據(jù)使用過(guò)程中的流轉(zhuǎn)和共享,將會(huì)引起隱私泄露等問(wèn)題;數(shù)據(jù)規(guī)模小、覆蓋不全面等,將會(huì)引起模型的公平性等問(wèn)題。

        數(shù)據(jù)共享過(guò)程中存在的隱私問(wèn)題包括:在AI模型分布式訓(xùn)練過(guò)程中和用戶或不同機(jī)構(gòu)間數(shù)據(jù)交互過(guò)程中的隱私泄露;在預(yù)測(cè)階段中用戶上傳預(yù)測(cè)數(shù)據(jù)明文至云服務(wù)器時(shí),存在的泄露風(fēng)險(xiǎn)[5]。AI模型和應(yīng)用中的公平性涉及:由于AI系統(tǒng)使用的數(shù)據(jù)集中包含帶有偏見(jiàn)的輸入信息,從而導(dǎo)致訓(xùn)練后的不完整或錯(cuò)誤的模型輸出帶有偏見(jiàn)的決策數(shù)據(jù)。偏見(jiàn)由于利益驅(qū)動(dòng)而人為引入,如大數(shù)據(jù)殺熟,或由于種族、膚色等因素引入。

        表1 政府及政府間組織AI治理原則概述

        3.1.2 相關(guān)治理手段

        基于隱私保護(hù)的機(jī)器學(xué)習(xí)技術(shù)有助于解決AI發(fā)展中的數(shù)據(jù)安全和隱私問(wèn)題,促進(jìn)跨機(jī)構(gòu)的數(shù)據(jù)協(xié)同應(yīng)用,主要包括差分隱私、聯(lián)邦學(xué)習(xí)、安全多方計(jì)算等多種技術(shù)方向。差分隱私的核心思想是AI算法應(yīng)當(dāng)對(duì)輸入數(shù)據(jù)中微小擾動(dòng)不敏感[1]。無(wú)論一個(gè)數(shù)據(jù)主體的隱私信息是否包含在數(shù)據(jù)分析的輸入數(shù)據(jù)中,都可對(duì)任何主體作出相同的推斷,可以抵抗包括差分攻擊、鏈接攻擊和重構(gòu)攻擊等隱私攻擊[6]。聯(lián)邦學(xué)習(xí)是谷歌于2016年提出的概念,是指在不共享數(shù)據(jù)的情況下,聯(lián)合多個(gè)終端中的數(shù)據(jù)進(jìn)行通用的機(jī)器學(xué)習(xí)模型訓(xùn)練。其核心是,在本地進(jìn)行AI模型訓(xùn)練,并僅將模型更新的部分加密上傳到數(shù)據(jù)交換區(qū)域。其主要適用場(chǎng)景是AI聯(lián)合訓(xùn)練,解決數(shù)據(jù)被集中所帶來(lái)的隱私問(wèn)題[7]。安全多方計(jì)算基于密碼學(xué)原理,依據(jù)特殊的加密算法和協(xié)議在多個(gè)參與方的加密數(shù)據(jù)上直接進(jìn)行計(jì)算[8]。

        為促進(jìn)AI數(shù)據(jù)使用的合規(guī)與監(jiān)管,國(guó)際國(guó)內(nèi)從立法層面發(fā)布了相關(guān)政策法規(guī)。歐盟提出《一般數(shù)據(jù)保護(hù)條例》(General Data Protection Regulation,GDPR)、《人工智能法》(Artificial Intelligence Act)等,構(gòu)建數(shù)據(jù)安全治理體系,有效保護(hù)AI使用和發(fā)展過(guò)程中個(gè)人數(shù)據(jù)的流通與收集。中國(guó)近年來(lái)加快了數(shù)據(jù)立法進(jìn)程,如《中華人民共和國(guó)網(wǎng)絡(luò)安全法》強(qiáng)調(diào)了數(shù)據(jù)隱私保護(hù)的重要性,《中華人民共和國(guó)個(gè)人信息保護(hù)法(草案)》指出個(gè)人信息在數(shù)據(jù)流通中的安全合規(guī)管理和審計(jì)[8]。2021年《中華人民共和國(guó)數(shù)據(jù)安全法》的公布,進(jìn)一步對(duì)數(shù)據(jù)處理、安全保護(hù)等提出合規(guī)要求。

        3.2 算法

        3.2.1 算法引發(fā)問(wèn)題

        以深度學(xué)習(xí)為代表的機(jī)器學(xué)習(xí)算法,由于能夠利用海量數(shù)據(jù)學(xué)習(xí)并提取數(shù)據(jù)中的潛在規(guī)律和模式,具備增強(qiáng)的復(fù)雜問(wèn)題決策能力從而應(yīng)用廣泛。隨著訓(xùn)練數(shù)據(jù)規(guī)模的增長(zhǎng)和算力基礎(chǔ)的提升,機(jī)器學(xué)習(xí)算法的準(zhǔn)確性不斷提升,成為驅(qū)動(dòng)AI應(yīng)用發(fā)展的核心技術(shù)。但是,由于機(jī)器學(xué)習(xí)算法自身的復(fù)雜隱性結(jié)構(gòu)及其對(duì)訓(xùn)練數(shù)據(jù)的高度依賴等特性,帶來(lái)了穩(wěn)定性、可解釋性和公平性等問(wèn)題。

        在機(jī)器學(xué)習(xí)算法各階段面臨的不同安全威脅和干擾影響AI算法模型的穩(wěn)定性,如訓(xùn)練階段的投毒攻擊[9]、預(yù)測(cè)階段的對(duì)抗樣本攻擊和模型提取攻擊[10]。投毒攻擊通過(guò)對(duì)訓(xùn)練集進(jìn)行有目的增加、刪除和修改,破壞訓(xùn)練數(shù)據(jù)分布,從而影響模型的性能和準(zhǔn)確性,如惡意郵件分類(lèi)系統(tǒng)、推薦系統(tǒng)等。對(duì)抗樣本攻擊一般由于模型對(duì)抗區(qū)域的存在、激活函數(shù)的局部線性特性等而產(chǎn)生,并且具有可遷移性[12]。對(duì)抗樣本攻擊通過(guò)在原始數(shù)據(jù)中加入特定的細(xì)微噪聲,導(dǎo)致神經(jīng)網(wǎng)絡(luò)模型造成誤判[5]。模型提取攻擊指利用機(jī)器學(xué)習(xí)模型對(duì)外提供的應(yīng)用程序接口(Application Programming Interface,API),通過(guò)一定方式獲取模型的內(nèi)部信息或構(gòu)造接近的模型,從而繞過(guò)安全檢測(cè)[9,11]。

        可解釋性問(wèn)題指由于機(jī)器學(xué)習(xí)模型具有黑盒、復(fù)雜結(jié)構(gòu)等特性,無(wú)法解釋其內(nèi)部工作原理和最終輸出結(jié)果。AI模型的輸入和輸出之間,存在著權(quán)重、偏置等成百上千個(gè)參數(shù)的復(fù)雜隱層,如當(dāng)前文心(ERNIE)、盤(pán)古等大規(guī)模預(yù)訓(xùn)練模型體量達(dá)到千億級(jí)參數(shù)規(guī)模,使其決策原理難以解釋,從而導(dǎo)致算法的透明性、可靠性、可問(wèn)責(zé)性等問(wèn)題。

        此外,除原始數(shù)據(jù)驅(qū)動(dòng)造成的算法歧視和偏見(jiàn)問(wèn)題,來(lái)自于編程人員的價(jià)值觀嵌入也會(huì)帶來(lái)一定的算法公平性問(wèn)題,如算法設(shè)計(jì)者由于利益驅(qū)動(dòng)或喜好引入而導(dǎo)致主觀算法歧視。

        3.2.2 算法治理手段

        針對(duì)AI系統(tǒng)穩(wěn)定性問(wèn)題,主要的防御方法包括對(duì)抗攻擊檢測(cè)、提高模型魯棒性等。對(duì)抗攻擊檢測(cè)通過(guò)檢測(cè)樣本的對(duì)抗性,判斷是否為對(duì)抗樣本,從而拒絕樣本輸入,包括H&G檢測(cè)方法、對(duì)抗性檢測(cè)網(wǎng)絡(luò)、逆交叉熵檢測(cè)等方法。提高模型魯棒性的防御手段包括:數(shù)據(jù)擴(kuò)充等對(duì)抗訓(xùn)練方法;原有數(shù)據(jù)去噪、量化、離散化等預(yù)處理方法;深度壓縮網(wǎng)絡(luò)和防御蒸餾等增強(qiáng)對(duì)抗樣本發(fā)現(xiàn)能力的正則化方法等[13]。

        對(duì)于可解釋性問(wèn)題,一方面,可以通過(guò)設(shè)計(jì)“模型說(shuō)明書(shū)”促進(jìn)算法模型的透明度和可理解性[14]。如,谷歌模型卡片(Model Cards)針對(duì)其運(yùn)行機(jī)制和關(guān)鍵限制要素進(jìn)行描述,含算法基本功能和架構(gòu)、面對(duì)不同變量的性能表現(xiàn)和局限。IBM推出AI事實(shí)清單(AI Fact Sheets),提供AI模型重要基本特征信息,如目的、用途、性能、數(shù)據(jù)集等,加強(qiáng)技術(shù)人員在使用、開(kāi)發(fā)和部署AI系統(tǒng)時(shí)的決策正確性。另一方面,通過(guò)發(fā)布可解釋性技術(shù)工具促進(jìn)算法透明度和可解釋性[14]。如IBM提出的集成可解釋性工具箱AI Explainability 360涵蓋多種可解釋方法和多維度評(píng)價(jià)矩陣。谷歌的可視化工具TensorBoard通過(guò)監(jiān)督和呈現(xiàn)網(wǎng)絡(luò)的訓(xùn)練過(guò)程和結(jié)果來(lái)實(shí)現(xiàn)可解釋性,如編輯數(shù)據(jù)點(diǎn),查看引起的推斷變化。微軟的可解釋機(jī)器學(xué)習(xí)工具包lnterpretML針對(duì)模型調(diào)試、模型改進(jìn)、偏見(jiàn)檢測(cè)、模型合規(guī)等,提供明箱(Glassbox)和黑箱兩種類(lèi)型的可解釋性。

        對(duì)于公平性問(wèn)題,構(gòu)建更公正的數(shù)據(jù)集、引入公平性約束損失、提高算法可解釋性等解決方案,有助于解決由數(shù)據(jù)偏差、算法本身缺陷、人為偏見(jiàn)等引起的問(wèn)題。

        政策和法規(guī)也是促進(jìn)規(guī)制AI算法和系統(tǒng)安全穩(wěn)定性、透明度和可解釋性、公平性等的重要途徑。美國(guó)計(jì)算機(jī)協(xié)會(huì)公共政策委員會(huì)(Association for Computing Machinery US Public Policy Council,USACM)的《算法透明和可責(zé)性聲明》提出認(rèn)識(shí)算法歧視、明確數(shù)據(jù)來(lái)源、提高可解釋性與可審查性、建立嚴(yán)格的驗(yàn)證測(cè)試機(jī)制。美國(guó)《2022年算法責(zé)任法案》要求企業(yè)在使用自動(dòng)化決策系統(tǒng)作出關(guān)鍵決策時(shí),對(duì)關(guān)鍵算法偏見(jiàn)、有效性和其他因素進(jìn)行影響評(píng)估。我國(guó)《關(guān)于加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見(jiàn)》《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》等針對(duì)加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)算法安全治理、規(guī)范算法推薦活動(dòng)等確立了算法治理原則、對(duì)象、工具等,對(duì)AI算法應(yīng)用的透明度和可解釋性等提出要求。

        4 AI治理問(wèn)題和建議

        我國(guó)政府和企業(yè)針對(duì)AI數(shù)據(jù)和算法治理,從法規(guī)、技術(shù)層面已經(jīng)取得了一定進(jìn)展。但是,目前尚未形成完善的AI治理體系,相關(guān)法律法規(guī)覆蓋不全面;相關(guān)技術(shù)標(biāo)準(zhǔn)和治理工具不完備,以企業(yè)自主實(shí)踐為主。本文針對(duì)我國(guó)AI治理,提出以下建議。

        (1)構(gòu)建人工智能治理體系的頂層布局。由政府等相關(guān)機(jī)構(gòu)統(tǒng)籌規(guī)劃,推動(dòng)構(gòu)建AI產(chǎn)業(yè)相關(guān)法律法規(guī)保障體系,加快推動(dòng)重點(diǎn)領(lǐng)域規(guī)則制定;建設(shè)AI產(chǎn)業(yè)治理規(guī)范和評(píng)測(cè)體系,推動(dòng)數(shù)據(jù)治理、算法規(guī)制等標(biāo)準(zhǔn)制定和安全評(píng)估能力建設(shè)。

        (2)推動(dòng)企業(yè)治理技術(shù)創(chuàng)新和實(shí)踐。一是加強(qiáng)AI治理研究,加強(qiáng)AI基礎(chǔ)理論、倫理問(wèn)題、數(shù)據(jù)隱私、算法穩(wěn)定性、可解釋性、公平性、可問(wèn)責(zé)性等技術(shù)研究和治理工具實(shí)踐。二是開(kāi)展企業(yè)內(nèi)部治理機(jī)制和機(jī)構(gòu)建設(shè),促進(jìn)AI產(chǎn)品研發(fā)、設(shè)計(jì)、制造、運(yùn)營(yíng)和服務(wù)等全生命周期治理。三是加強(qiáng)企業(yè)治理合作,從原則、工具、標(biāo)準(zhǔn)和評(píng)估層面形成行業(yè)內(nèi)共識(shí)的治理體系。

        (3)根據(jù)AI場(chǎng)景風(fēng)險(xiǎn)程度分類(lèi)治理。采用分類(lèi)治理的思路,對(duì)于涉及國(guó)家安全、社會(huì)穩(wěn)定的自動(dòng)駕駛、智能醫(yī)療等高風(fēng)險(xiǎn)領(lǐng)域,應(yīng)加強(qiáng)事前監(jiān)管與準(zhǔn)入限制;對(duì)于涉及個(gè)人日常消費(fèi)及服務(wù)等風(fēng)險(xiǎn)相對(duì)較低的電子商務(wù)、智能家居等領(lǐng)域,采取基于結(jié)果的規(guī)制思路,側(cè)重事中事后監(jiān)管。

        5 結(jié)束語(yǔ)

        針對(duì)中國(guó)AI治理問(wèn)題,本文從頂層布局、技術(shù)創(chuàng)新和實(shí)踐、分類(lèi)治理等層面提出建議,為完善AI治理工作提供了參考。未來(lái),如何使AI治理更有效、更完善的體系化,尤其是進(jìn)一步落地化,促進(jìn)AI產(chǎn)業(yè)健康和安全發(fā)展,將仍然是業(yè)界需要探索的重點(diǎn)。

        猜你喜歡
        人工智能模型
        一半模型
        我校新增“人工智能”本科專業(yè)
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        人工智能與就業(yè)
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        3D打印中的模型分割與打包
        下一幕,人工智能!
        下一幕,人工智能!
        午夜亚洲www湿好大| 亚洲男女内射在线播放| 亚洲乱亚洲乱妇| 无码国产激情在线观看| 久久久久综合一本久道| 伊人久久亚洲综合av影院| 日本一区二区三级在线观看| 亚洲精品午夜无码专区| 国产在线一区观看| 看全色黄大黄大色免费久久| 亚洲第一黄色免费网站| 美丽人妻在夫前被黑人| 最好看2019高清中文字幕视频| 国产丝袜精品丝袜一区二区| 亚洲24小时免费视频| 在线亚洲高清揄拍自拍一品区 | 99热这里只有精品久久6| 国产人妖伦理视频在线观看 | 手机av在线播放网站| 欧美老熟妇乱xxxxx| 蜜桃av噜噜一区二区三区| 国内成+人 亚洲+欧美+综合在线 | 日本在线视频二区一区| 文字幕精品一区二区三区老狼| 无码乱人伦一区二区亚洲一| 国产一区二区精品在线观看 | 亚洲av无码码潮喷在线观看| 亚洲精品久久久无码av片软件| 久久99精品这里精品动漫6| av在线播放中文专区| 婷婷射精av这里只有精品| 国产精品美女久久久久久2018| 亚洲综合原千岁中文字幕| 中文字幕一区二区人妻秘书| 无遮无挡爽爽免费毛片| 久久99精品中文字幕在| 色视频不卡一区二区三区| 国模吧无码一区二区三区| 国产3p视频| 国产av区亚洲av毛片| av网站免费线看精品|