亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        創(chuàng)新友好人工智能監(jiān)管:目標(biāo)導(dǎo)向與實(shí)施體制

        2024-10-17 00:00:00唐要家王鈺
        人文雜志 2024年9期

        關(guān)鍵詞 人工智能 風(fēng)險(xiǎn) 創(chuàng)新友好監(jiān)管 可信人工智能 監(jiān)管實(shí)施體制

        人工智能(AI)是第四次產(chǎn)業(yè)革命的關(guān)鍵驅(qū)動(dòng)力,它是一種破壞性技術(shù)進(jìn)步,正在對經(jīng)濟(jì)社會產(chǎn)生重大影響。人工智能應(yīng)用不僅極大地促進(jìn)了創(chuàng)新和經(jīng)濟(jì)高質(zhì)量增長,而且促進(jìn)了社會安全與社會和諧。但人工智能應(yīng)用也帶來算法偏見、隱私侵犯、信息操縱等風(fēng)險(xiǎn),引發(fā)了人們的廣泛擔(dān)憂,不信任成為影響人工智能創(chuàng)新發(fā)展的重要障礙。因此,實(shí)行有效的人工智能監(jiān)管成為應(yīng)對風(fēng)險(xiǎn)的重要政策應(yīng)對,其目的是構(gòu)建可信任的人工智能發(fā)展環(huán)境。目前,歐盟、美國、中國等經(jīng)濟(jì)體都在進(jìn)行人工智能監(jiān)管政策探索,但如何構(gòu)建監(jiān)管與創(chuàng)新平衡的監(jiān)管體制這一難題仍未得到解決。一方面人工智能技術(shù)發(fā)展帶來的諸多風(fēng)險(xiǎn)影響深刻,需要有效應(yīng)對;另一方面人工智能技術(shù)是新質(zhì)生產(chǎn)力發(fā)展的引擎,是國際科技競爭的關(guān)鍵領(lǐng)域,需要維持強(qiáng)創(chuàng)新動(dòng)力。由此,人工智能監(jiān)管既要有效管控各種潛在的重大風(fēng)險(xiǎn),也要釋放創(chuàng)新潛能,更好地促進(jìn)創(chuàng)新發(fā)展,促進(jìn)人工智能以有利于人類社會的方式創(chuàng)新發(fā)展。因此,如何構(gòu)建創(chuàng)新友好的監(jiān)管體制成為迫切需要解決的重大問題。

        一、人工智能開發(fā)應(yīng)用的風(fēng)險(xiǎn)與最優(yōu)監(jiān)管路徑

        1.人工智能開發(fā)應(yīng)用引發(fā)的主要風(fēng)險(xiǎn)

        近年來,在大數(shù)據(jù)和算力技術(shù)快速發(fā)展的推動(dòng)下,人工智能技術(shù)獲得了快速發(fā)展和廣泛應(yīng)用,但同時(shí)也引發(fā)了各界對其潛在風(fēng)險(xiǎn)的擔(dān)憂??傮w來說,人工智能系統(tǒng)應(yīng)用可能帶來如下主要風(fēng)險(xiǎn):一是個(gè)人隱私侵犯風(fēng)險(xiǎn)。人工智能的發(fā)展使消費(fèi)者使用的各種設(shè)備和在線活動(dòng)面臨更高的隱私數(shù)據(jù)泄露風(fēng)險(xiǎn)。二是個(gè)人身體或心理損害風(fēng)險(xiǎn)。人工智能應(yīng)用者可能會利用其來強(qiáng)化對人的行為引導(dǎo)和心理暗示,如在線服務(wù)中的消費(fèi)上癮、算法勞動(dòng)者監(jiān)督等,這會對人的身體或心理健康產(chǎn)生損害。三是競爭與創(chuàng)新?lián)p害風(fēng)險(xiǎn)。人工智能為企業(yè)實(shí)施算法合謀、算法個(gè)人化定價(jià)、算法自我優(yōu)待等壟斷行為提供了新的手段,從而會扭曲市場競爭。同時(shí),生成式人工智能的發(fā)展會帶來知識產(chǎn)權(quán)侵權(quán)問題,從而產(chǎn)生扼殺原始創(chuàng)新的風(fēng)險(xiǎn)。四是社會公平風(fēng)險(xiǎn)。人工智能在就業(yè)、招生、司法等領(lǐng)域的應(yīng)用可能會對特定群體產(chǎn)生嚴(yán)重的不公平風(fēng)險(xiǎn)。五是社會倫理價(jià)值風(fēng)險(xiǎn)。人工智能系統(tǒng)可能會不斷向個(gè)人推送其偏好的內(nèi)容而強(qiáng)化社會認(rèn)知偏見,也有可能會大量推送非法有害內(nèi)容,而生成式人工智能可能會生成和傳播大量虛假信息或新聞,從而對社會輿論和倫理價(jià)值產(chǎn)生損害。六是公共安全風(fēng)險(xiǎn)。人工智能可以提升網(wǎng)絡(luò)攻擊頻率和強(qiáng)度,可能會加劇網(wǎng)絡(luò)安全風(fēng)險(xiǎn),同時(shí)人工智能的軍事化應(yīng)用會威脅國防安全。

        2.現(xiàn)有人工智能風(fēng)險(xiǎn)治理路徑的缺陷

        面對人工智能應(yīng)用帶來的各種風(fēng)險(xiǎn),政治學(xué)、經(jīng)濟(jì)學(xué)、社會學(xué)、法學(xué)等不同研究領(lǐng)域的學(xué)者對人工智能或算法監(jiān)管問題提出了各種各樣的政策思路,總體可以概括為四種路徑。一是技術(shù)治理路徑。Guihot等、Taeihagh都認(rèn)為算法“黑箱”是導(dǎo)致人工智能應(yīng)用產(chǎn)生各種風(fēng)險(xiǎn)的主要原因。① Cogwill和Tucker認(rèn)為算法偏差是產(chǎn)生人工智能應(yīng)用偏差的根本原因。② 針對算法黑箱問題,Butterworth和Tutt提出算法可解釋性監(jiān)管政策,認(rèn)為通過增強(qiáng)算法可解釋性可以有效緩解算法應(yīng)用風(fēng)險(xiǎn)。③ 二是事前監(jiān)管路徑。一些學(xué)者提出應(yīng)重點(diǎn)強(qiáng)化事前行政監(jiān)管,主要措施是對人工智能系統(tǒng)應(yīng)用實(shí)行影響評估和算法審計(jì)。④ Pasquale指出人工智能影響評估制度有助于將“黑箱社會”轉(zhuǎn)變?yōu)椤帮@見社會”,能從根本上建立算法信任。⑤ 三是行為治理路徑。Saurwein等認(rèn)為人工智能應(yīng)用風(fēng)險(xiǎn)來自數(shù)據(jù)本身存在的偏差和數(shù)據(jù)中包含的人的行為偏差。⑥ Chander進(jìn)一步指出,人工智能應(yīng)用風(fēng)險(xiǎn)的根本原因不在于算法黑箱而在于應(yīng)用者的行為偏差。⑦ 因此,監(jiān)管政策重在改變?nèi)斯ぶ悄芟到y(tǒng)應(yīng)用者以及社會成員的行為規(guī)則。Guihot等提出自我監(jiān)管為主的思路,倡議采用自愿的行為規(guī)則來指導(dǎo)人工智能設(shè)計(jì)與應(yīng)用,政府則需要事前明確政策預(yù)期。⑧ 四是綜合治理路徑。Leenes和Lucivero指出應(yīng)該采取社會、法律、倫理等多種手段來治理人工智能。① Gasser和Almeida提出應(yīng)采用技術(shù)—社會—倫理的三層治理框架。② Almeida等更是提出應(yīng)建立包括立法、行政、司法、社會、國際合作等的多元人工智能治理框架。③

        總體來說,上述理論研究基本都是針對人工智能風(fēng)險(xiǎn)來尋求有效的治理措施,是以消除風(fēng)險(xiǎn)為單一目標(biāo)的監(jiān)管路徑,并沒有在防控風(fēng)險(xiǎn)和鼓勵(lì)創(chuàng)新的雙重目標(biāo)下尋求最佳的平衡性監(jiān)管。單一風(fēng)險(xiǎn)目標(biāo)的監(jiān)管路徑很可能在實(shí)現(xiàn)風(fēng)險(xiǎn)防控目標(biāo)的同時(shí)造成對創(chuàng)新發(fā)展的阻礙,并削弱長期的安全保障。因?yàn)榭尚诺陌踩仨毥⒃诟哔|(zhì)量創(chuàng)新發(fā)展的基礎(chǔ)之上,缺乏創(chuàng)新發(fā)展的支撐將難以保障長期的安全。因此,實(shí)現(xiàn)安全與創(chuàng)新是人工智能監(jiān)管無法回避的二維目標(biāo)。

        3.創(chuàng)新友好人工智能監(jiān)管的合意性

        人工智能技術(shù)創(chuàng)新是新質(zhì)生產(chǎn)力的核心驅(qū)動(dòng)力。新質(zhì)生產(chǎn)力是創(chuàng)新起主導(dǎo)作用的先進(jìn)生產(chǎn)力質(zhì)態(tài)。人工智能是一種對經(jīng)濟(jì)社會具有革命性影響的通用目的技術(shù),人工智能技術(shù)創(chuàng)新不僅會產(chǎn)生一大批高技術(shù)成果,還會帶動(dòng)一大批后續(xù)的應(yīng)用性創(chuàng)新成果出現(xiàn),不僅會催生一大批新產(chǎn)業(yè)的涌現(xiàn),而且還具有廣泛的行業(yè)融合性,會全面賦能傳統(tǒng)產(chǎn)業(yè)和實(shí)體經(jīng)濟(jì)實(shí)現(xiàn)高質(zhì)量發(fā)展,從而帶動(dòng)全要素生產(chǎn)率的大幅提升。人工智能技術(shù)推動(dòng)的新一輪產(chǎn)業(yè)革命也被稱為智能化革命或第四次產(chǎn)業(yè)革命??梢哉f,誰掌握了人工智能創(chuàng)新發(fā)展優(yōu)勢地位,誰就主導(dǎo)了全球第四次產(chǎn)業(yè)革命。在此背景下,人工智能監(jiān)管應(yīng)順應(yīng)新一輪產(chǎn)業(yè)革命趨勢,助力發(fā)展新質(zhì)生產(chǎn)力。

        在全球高科技競爭的背景下,人工智能是中國實(shí)現(xiàn)高水平科技自立自強(qiáng)的關(guān)鍵核心技術(shù)。目前,人工智能成為全球大國戰(zhàn)略競爭的新賽道,它是中美兩國高科技競爭的焦點(diǎn),人工智能創(chuàng)新發(fā)展很大程度上決定了中美高科技競爭的走向。為了遏制中國人工智能創(chuàng)新發(fā)展,近年來美國先后出臺了涉及高端芯片、數(shù)據(jù)流動(dòng)、人才交流、風(fēng)險(xiǎn)資本等一攬子對華封鎖政策,并且美國政府還出臺了一系列確保美國人工智能全球領(lǐng)先的戰(zhàn)略規(guī)劃與支持政策;同時(shí)歐盟、英國等也都為爭奪人工智能全球領(lǐng)導(dǎo)地位而實(shí)施了一系列的支持政策。在人工智能全球戰(zhàn)略競爭的背景下,人工智能監(jiān)管的科學(xué)性關(guān)乎中國人工智能創(chuàng)新發(fā)展和國際競爭重大戰(zhàn)略目標(biāo)的實(shí)現(xiàn),要求人工智能監(jiān)管應(yīng)以促進(jìn)人工智能高質(zhì)量創(chuàng)新為根本原則,從而更好地服務(wù)于國家發(fā)展戰(zhàn)略。

        人工智能監(jiān)管實(shí)際上是對處于快速發(fā)展中的創(chuàng)新進(jìn)行監(jiān)管,這內(nèi)在地要求建立與創(chuàng)新特性相匹配的監(jiān)管體制。人工智能技術(shù)創(chuàng)新的最根本特性是具有較高的不確定性,這也決定了人工智能風(fēng)險(xiǎn)的不確定性,并使監(jiān)管政策面對較大的不確定性。目前人工智能技術(shù)仍然處在快速創(chuàng)新和持續(xù)的迭代升級階段,其對經(jīng)濟(jì)社會的影響仍然具有非常大的不確定性。此時(shí),政府監(jiān)管面臨非常嚴(yán)重的信息不完全,監(jiān)管機(jī)構(gòu)也缺乏準(zhǔn)確預(yù)測風(fēng)險(xiǎn)和提前設(shè)計(jì)最優(yōu)監(jiān)管政策的能力,武斷的監(jiān)管會嚴(yán)重阻礙人工智能的創(chuàng)新發(fā)展。面對高度不確定性和復(fù)雜的人工智能技術(shù),人工智能監(jiān)管應(yīng)避免成為創(chuàng)新阻礙,從而喪失重大的發(fā)展機(jī)遇和創(chuàng)新收益。因此,人工智能監(jiān)管必須基于技術(shù)創(chuàng)新的不確定性和動(dòng)態(tài)發(fā)展性來進(jìn)行設(shè)計(jì),一方面要實(shí)行謙抑監(jiān)管,堅(jiān)持包容審慎的基本原則;另一方面要實(shí)行敏捷監(jiān)管,保持監(jiān)管制度供給的及時(shí)跟進(jìn)和良好制度回應(yīng),針對重大風(fēng)險(xiǎn)及時(shí)提供有效的監(jiān)管制度供給,確保人工智能創(chuàng)新發(fā)展并促進(jìn)人的福利全面提升。

        創(chuàng)新友好監(jiān)管就是以促進(jìn)創(chuàng)新發(fā)展為根本原則,以最小化創(chuàng)新?lián)p害為監(jiān)管政策依據(jù),通過不斷完善和優(yōu)化監(jiān)管體制與治理體系,營造有利于人工智能創(chuàng)新發(fā)展的生態(tài),從而實(shí)現(xiàn)監(jiān)管與創(chuàng)新的動(dòng)態(tài)匹配。創(chuàng)新友好監(jiān)管能夠很好地實(shí)現(xiàn)監(jiān)管與創(chuàng)新發(fā)展的平衡,促進(jìn)人工智能更好地創(chuàng)新發(fā)展并助力實(shí)現(xiàn)國家發(fā)展戰(zhàn)略,并最終全面提升人的福祉。因此,創(chuàng)新友好監(jiān)管體制應(yīng)成為人工智能監(jiān)管體制的基本模式選擇,監(jiān)管應(yīng)促進(jìn)安全可信基礎(chǔ)上的人工智能創(chuàng)新,通過監(jiān)管來營造有利于創(chuàng)新發(fā)展的生態(tài)以最大化釋放人工智能促進(jìn)新質(zhì)生產(chǎn)力發(fā)展的巨大潛能,并促進(jìn)中國人工智能國際競爭力的提升,確保中國實(shí)現(xiàn)成為全球人工智能重要領(lǐng)導(dǎo)者的戰(zhàn)略目標(biāo)。

        二、創(chuàng)新友好人工智能監(jiān)管的基本目標(biāo):可信人工智能

        人工智能監(jiān)管主要是針對人工智能技術(shù)應(yīng)用所帶來的各種損害風(fēng)險(xiǎn)而采取有效的防控政策來最小化風(fēng)險(xiǎn),以最大化公共利益,實(shí)現(xiàn)技術(shù)創(chuàng)新發(fā)展與人的福利提升的協(xié)同。在技術(shù)快速變革的背景下,信任是人工智能創(chuàng)新發(fā)展的基石。可信人工智能監(jiān)管能很好地維護(hù)利益相關(guān)者的權(quán)益,并為人工智能的創(chuàng)新發(fā)展構(gòu)建信任的外部環(huán)境,從而為人工智能創(chuàng)新發(fā)展和商業(yè)應(yīng)用提供穩(wěn)定可預(yù)期的外部環(huán)境和豐富的應(yīng)用場景。為此,可信人工智能監(jiān)管應(yīng)包括四個(gè)核心要素:倫理的人工智能、可靠的人工智能、創(chuàng)新的人工智能、法治的人工智能。

        1.倫理的人工智能

        首先,人工智能系統(tǒng)應(yīng)用要保護(hù)人的基本權(quán)益。人工智能系統(tǒng)應(yīng)用要尊重和保護(hù)人的基本權(quán)利,不能限制和損害人的基本權(quán)利。人工智能系統(tǒng)開發(fā)與應(yīng)用應(yīng)維護(hù)人的主體地位,不能損害人的基本權(quán)益,應(yīng)更好地促進(jìn)人的解放,為人的發(fā)展和福利提高創(chuàng)造更大的空間。人工智能技術(shù)不應(yīng)成為應(yīng)用者用來剝削消費(fèi)者、壓榨勞動(dòng)者、侵犯個(gè)人隱私和損害個(gè)人尊嚴(yán)的工具。其次,人工智能系統(tǒng)應(yīng)尊重人的自決權(quán)。人始終是技術(shù)的主人而非技術(shù)的奴隸,人工智能系統(tǒng)必須始終是可控的,要確保人對人工智能系統(tǒng)應(yīng)用的決策能力和監(jiān)督能力。人工智能開發(fā)應(yīng)用應(yīng)尊重人的自決權(quán),不能操縱信息和發(fā)布虛假信息、不能誤導(dǎo)人做出錯(cuò)誤的決策。再次,人工智能系統(tǒng)應(yīng)不損害公平正義。人工智能系統(tǒng)應(yīng)用應(yīng)確保公平和平等地分配成本與收益,確保弱勢群體免于人工智能應(yīng)用帶來的不公平對待和歧視性待遇。人工智能應(yīng)更好地促進(jìn)社會公平正義,使每個(gè)人平等地接受教育、獲得就業(yè)機(jī)會、享受公共服務(wù)。

        2.可靠的人工智能

        首先,人工智能系統(tǒng)應(yīng)用應(yīng)具有堅(jiān)實(shí)的技術(shù)保障。堅(jiān)實(shí)的技術(shù)保障要求人工智能系統(tǒng)在開發(fā)時(shí)采用適當(dāng)預(yù)防風(fēng)險(xiǎn)的方法,以能夠可靠地預(yù)期行為的方式,將各種損害風(fēng)險(xiǎn)降至最低,并重點(diǎn)防止不可接受損害風(fēng)險(xiǎn)的出現(xiàn)。其次,人工智能系統(tǒng)應(yīng)用應(yīng)具有科學(xué)的風(fēng)險(xiǎn)管控措施。人工智能系統(tǒng)應(yīng)用安全不僅體現(xiàn)在技術(shù)保障上,而且也體現(xiàn)于系統(tǒng)應(yīng)用者的組織治理制度和政府監(jiān)管制度保障。為防范人工智能應(yīng)用風(fēng)險(xiǎn),需要建立全生命周期的風(fēng)險(xiǎn)防控機(jī)制,通過系統(tǒng)設(shè)計(jì)階段的風(fēng)險(xiǎn)防范設(shè)計(jì),安裝使用階段的風(fēng)險(xiǎn)評估、風(fēng)險(xiǎn)監(jiān)測、風(fēng)險(xiǎn)處置等來確保有效地防控風(fēng)險(xiǎn),消除高損害風(fēng)險(xiǎn)的發(fā)生,減少一般損害風(fēng)險(xiǎn)的發(fā)生。再次,人工智能系統(tǒng)應(yīng)用應(yīng)具有可問責(zé)的治理制度。人工智能系統(tǒng)應(yīng)用者是確保人工智能應(yīng)用安全可信的第一責(zé)任人。為此,應(yīng)明確人工智能應(yīng)用者需要履行的基本安全義務(wù),建立包括人工智能審計(jì)、人工智能應(yīng)用評估報(bào)告、利益相關(guān)者參與及其法律行政責(zé)任等在內(nèi)的問責(zé)制。

        3.創(chuàng)新的人工智能

        首先,政府監(jiān)管應(yīng)更好地促進(jìn)人工智能技術(shù)創(chuàng)新。在人工智能驅(qū)動(dòng)的新一輪產(chǎn)業(yè)革命背景下,創(chuàng)新是實(shí)現(xiàn)社會公共利益最大化的最主要因素。人工智能監(jiān)管不能犧牲和阻礙創(chuàng)新發(fā)展,而應(yīng)更好地促進(jìn)人工智能負(fù)責(zé)任地持續(xù)創(chuàng)新發(fā)展。其次,政府監(jiān)管應(yīng)有助于人工智能國家戰(zhàn)略的實(shí)現(xiàn)。人工智能是高技術(shù)創(chuàng)新行業(yè),是全球高科技競爭的重點(diǎn),是中國搶占國際高科技領(lǐng)先地位的重要技術(shù)關(guān)鍵點(diǎn)。人工智能監(jiān)管應(yīng)有助于中國人工智能的創(chuàng)新發(fā)展,有助于中國人工智能技術(shù)、產(chǎn)業(yè)和企業(yè)群體持續(xù)增強(qiáng)國際競爭力,助力中國成為全球人工智能領(lǐng)導(dǎo)者。再次,政府監(jiān)管應(yīng)采用鼓勵(lì)創(chuàng)新的政策工具。政府監(jiān)管應(yīng)該為人工智能技術(shù)創(chuàng)新、商業(yè)化應(yīng)用和產(chǎn)業(yè)化發(fā)展提供有利的政策環(huán)境,保持比例相稱的監(jiān)管強(qiáng)度,避免超前監(jiān)管、過度監(jiān)管和一刀切監(jiān)管,更多地采取促進(jìn)創(chuàng)新的試驗(yàn)性監(jiān)管以及具有彈性的軟監(jiān)管政策。

        4.法治的人工智能

        首先,人工智能應(yīng)用應(yīng)具有相對完備的法律規(guī)則體系。人工智能創(chuàng)新發(fā)展不能野蠻生長,應(yīng)在法治的框架內(nèi)進(jìn)行。為此,需要根據(jù)技術(shù)發(fā)展和特定場景中技術(shù)應(yīng)用出現(xiàn)的各種風(fēng)險(xiǎn)損害及時(shí)制定和完善法律法規(guī),明確人工智能技術(shù)發(fā)展和應(yīng)用應(yīng)遵守的基本原則,劃定人工智能技術(shù)應(yīng)用不能觸碰的紅線,明確人工智能系統(tǒng)應(yīng)用者的治理責(zé)任,確保系統(tǒng)應(yīng)用者的權(quán)責(zé)對等。其次,人工智能應(yīng)用要依法合規(guī)。人工智能系統(tǒng)應(yīng)用應(yīng)在法治的框架下進(jìn)行,使用人工智能的私人組織和公共機(jī)關(guān)要遵守人工智能監(jiān)管的有關(guān)法律,依法開發(fā)、安裝、使用人工智能系統(tǒng),遵守法律規(guī)定的基本原則,履行法定的基本義務(wù),并為明顯違背法律規(guī)定的行為承擔(dān)相應(yīng)法律責(zé)任。再次,政府監(jiān)管要依法行政。政府監(jiān)管也要遵守法治原則,監(jiān)管機(jī)構(gòu)的監(jiān)管職權(quán)必須具有明確法律授權(quán),執(zhí)法行動(dòng)必須依法合規(guī),并充分尊重企業(yè)經(jīng)營自主權(quán)。面對動(dòng)態(tài)的人工智能技術(shù)創(chuàng)新,監(jiān)管機(jī)構(gòu)應(yīng)建立穩(wěn)定一貫的監(jiān)管規(guī)則體系和富有彈性的政策體系,為創(chuàng)新發(fā)展提供穩(wěn)定可預(yù)期的政策環(huán)境。

        三、創(chuàng)新友好人工智能監(jiān)管的基本導(dǎo)向:基于風(fēng)險(xiǎn)的監(jiān)管

        創(chuàng)新友好人工智能監(jiān)管力求在最小化人工智能技術(shù)應(yīng)用風(fēng)險(xiǎn)的同時(shí)最大化釋放創(chuàng)新潛能。人工智能監(jiān)管是針對創(chuàng)新技術(shù)應(yīng)用所帶來的不確定性風(fēng)險(xiǎn)的監(jiān)管,而不是對研發(fā)創(chuàng)新的監(jiān)管。因此,創(chuàng)新友好人工智能監(jiān)管最科學(xué)的方式是實(shí)行基于風(fēng)險(xiǎn)的監(jiān)管,通過科學(xué)的風(fēng)險(xiǎn)評估來建立基于風(fēng)險(xiǎn)損害的分級分類監(jiān)管,重點(diǎn)監(jiān)管不可接受風(fēng)險(xiǎn)和高風(fēng)險(xiǎn)人工智能應(yīng)用,對中風(fēng)險(xiǎn)人工智能應(yīng)用則采用低強(qiáng)度監(jiān)管,對低風(fēng)險(xiǎn)人工智能應(yīng)用則實(shí)行監(jiān)管豁免,①從而增強(qiáng)監(jiān)管的適時(shí)性、針對性、精準(zhǔn)性和比例性,避免一刀切監(jiān)管和過度監(jiān)管對創(chuàng)新的巨大損害,使人工智能創(chuàng)新主體和應(yīng)用主體能夠明確紅綠燈,形成穩(wěn)定預(yù)期,從而有激勵(lì)持續(xù)地增加創(chuàng)新投入和進(jìn)行商業(yè)化開發(fā),實(shí)現(xiàn)風(fēng)險(xiǎn)管控與創(chuàng)新發(fā)展的平衡。

        1.基于風(fēng)險(xiǎn)損害程度的分級監(jiān)管

        人工智能監(jiān)管應(yīng)根據(jù)人工智能在特定環(huán)境下應(yīng)用可能對相關(guān)主體造成的風(fēng)險(xiǎn)損害程度,來設(shè)計(jì)與損害程度相稱的監(jiān)管強(qiáng)度和政策手段。人工智能技術(shù)發(fā)展帶來的風(fēng)險(xiǎn)主要不是技術(shù)本身的風(fēng)險(xiǎn),而是人工智能應(yīng)用在特定場景中所產(chǎn)生的具有場景依賴的應(yīng)用風(fēng)險(xiǎn),因此基于風(fēng)險(xiǎn)的監(jiān)管重點(diǎn)是高風(fēng)險(xiǎn)的應(yīng)用場景。具體來說:一是基于人工智能系統(tǒng)應(yīng)用場景的風(fēng)險(xiǎn),對人工智能系統(tǒng)設(shè)定不同風(fēng)險(xiǎn)等級的標(biāo)準(zhǔn),針對不同風(fēng)險(xiǎn)等級的人工智能實(shí)行不同的監(jiān)管強(qiáng)度和監(jiān)管政策,政府監(jiān)管的重點(diǎn)是不可接受風(fēng)險(xiǎn)和高風(fēng)險(xiǎn)的人工智能系統(tǒng)應(yīng)用,特別是政府公共服務(wù)、司法系統(tǒng)、就業(yè)、招生等領(lǐng)域和對人身心健康帶來損害的人工智能應(yīng)重點(diǎn)監(jiān)管。二是基于人工智能應(yīng)用行業(yè)的風(fēng)險(xiǎn),根據(jù)不同行業(yè)的應(yīng)用風(fēng)險(xiǎn)損害程度,將關(guān)鍵信息基礎(chǔ)設(shè)施行業(yè)作為人工智能監(jiān)管的重點(diǎn)。關(guān)鍵信息基礎(chǔ)設(shè)施行業(yè)一般包括公共通信和信息服務(wù)、能源、交通、水利、金融、公共服務(wù)等重要行業(yè)和領(lǐng)域。三是基于人工智能系統(tǒng)影響的主體,重點(diǎn)強(qiáng)化對弱勢群體如兒童、殘疾人、老年人等的保護(hù)。

        2.基于風(fēng)險(xiǎn)生成機(jī)制的分類監(jiān)管

        人工智能應(yīng)用監(jiān)管的重心是防止出現(xiàn)系統(tǒng)性偏差,由于人工智能風(fēng)險(xiǎn)是由多種因素造成的,監(jiān)管應(yīng)針對風(fēng)險(xiǎn)的不同成因精準(zhǔn)施策,長短期措施有序安排,避免將人工智能技術(shù)作為罪魁禍?zhǔn)椎膯我痪S度監(jiān)管思維。首先是技術(shù)性偏差。技術(shù)性偏差是指人工智能系統(tǒng)程序設(shè)計(jì)、投入的數(shù)據(jù)質(zhì)量、系統(tǒng)運(yùn)行透明度低等因素造成的運(yùn)行結(jié)果偏差,其監(jiān)管政策是強(qiáng)化算法程序設(shè)計(jì)合規(guī)、加強(qiáng)數(shù)據(jù)治理、對人工智能系統(tǒng)的設(shè)計(jì)和安裝使用實(shí)施評估認(rèn)證制度。其次是人為性偏差。人為性偏差是指應(yīng)用者出于私人利益目標(biāo)而人為地操縱算法以謀取私利,典型的如數(shù)字企業(yè)有誤導(dǎo)性地推薦商品、發(fā)布虛假銷量數(shù)據(jù)、操縱用戶評價(jià)信息、刻意隱瞞隱私風(fēng)險(xiǎn)等。人為性偏差監(jiān)管政策的重點(diǎn)是強(qiáng)化人工智能系統(tǒng)應(yīng)用者的主體責(zé)任,增強(qiáng)人工智能系統(tǒng)應(yīng)用的透明度和可問責(zé)性。再次是制度性偏差。人工智能應(yīng)用產(chǎn)生的偏差在某種程度上是社會價(jià)值觀念和運(yùn)行規(guī)則的偏差通過人工智能系統(tǒng)的放大反映。制度性偏差是指一個(gè)社會的法規(guī)、政策、制度體制、文化意識等所具有的歷史性局限,這種歷史形成的偏差或制度缺陷帶入人工智能系統(tǒng)會產(chǎn)生有偏差的運(yùn)行結(jié)果,從而限制個(gè)人權(quán)利,造成對特定群體的歧視,損害社會公平正義。解決制度性偏差的主要路徑是構(gòu)建利益相關(guān)者參與的多元治理體系,鼓勵(lì)利益相關(guān)者參與人工智能系統(tǒng)生命周期各個(gè)階段的治理,在多元主體良性互動(dòng)中消除制度性偏差。

        3.基于風(fēng)險(xiǎn)階段差異的動(dòng)態(tài)監(jiān)管

        動(dòng)態(tài)來看,人工智能風(fēng)險(xiǎn)的產(chǎn)生具有明顯的階段性分布特征,監(jiān)管需要針對人工智能技術(shù)發(fā)展不同階段的風(fēng)險(xiǎn)問題來合理匹配監(jiān)管強(qiáng)度并科學(xué)選擇針對性政策。首先,在人工智能開發(fā)設(shè)計(jì)階段,監(jiān)管主要是貫徹基于設(shè)計(jì)來確保合規(guī)的要求,在系統(tǒng)框架、算法運(yùn)行規(guī)則和數(shù)據(jù)投入設(shè)計(jì)中,避免將技術(shù)或人為的系統(tǒng)性偏見帶入,通過設(shè)計(jì)來確保合規(guī),實(shí)現(xiàn)設(shè)計(jì)的可信。其次,在模型測試驗(yàn)證階段,數(shù)據(jù)質(zhì)量是監(jiān)管的重點(diǎn),應(yīng)強(qiáng)化數(shù)據(jù)質(zhì)量標(biāo)準(zhǔn)和數(shù)據(jù)質(zhì)量管理體系,并建立有效的模型風(fēng)險(xiǎn)評估機(jī)制,提升風(fēng)險(xiǎn)防控措施的有效性。再次,在系統(tǒng)安裝階段,監(jiān)管主要是政府對較高風(fēng)險(xiǎn)的人工智能應(yīng)用進(jìn)行風(fēng)險(xiǎn)評估與算法審計(jì),防止高損害風(fēng)險(xiǎn)人工智能系統(tǒng)的安裝應(yīng)用。最后,在系統(tǒng)運(yùn)行階段,應(yīng)對人工智能系統(tǒng)的運(yùn)行實(shí)行動(dòng)態(tài)監(jiān)控和評估,應(yīng)用主體應(yīng)具有科學(xué)的風(fēng)險(xiǎn)管理措施保障,以確保功能正常運(yùn)行,確保系統(tǒng)應(yīng)用不會造成意想不到的危害。在動(dòng)態(tài)的全生命周期監(jiān)管中,人工智能應(yīng)用主體的自我治理始終是基礎(chǔ),監(jiān)管需要科學(xué)定位政府監(jiān)管機(jī)構(gòu)和人工智能應(yīng)用主體的權(quán)責(zé)關(guān)系,注重激勵(lì)應(yīng)用主體開展自我治理,構(gòu)建合作監(jiān)管體制。

        4.基于風(fēng)險(xiǎn)演化的綜合監(jiān)管治理

        人工智能技術(shù)應(yīng)用產(chǎn)生的潛在風(fēng)險(xiǎn)具有廣泛的經(jīng)濟(jì)社會影響,既需要技術(shù)治理體系的完善,也需要經(jīng)濟(jì)社會做出相適應(yīng)的制度變革。人工智能監(jiān)管不能將監(jiān)管對象局限于人工智能技術(shù)本身,讓人工智能承擔(dān)不合理的責(zé)任,而應(yīng)從多個(gè)層面著手并在多元主體間配置治理責(zé)任。首先,人工智能不僅僅是一種技術(shù)性工具,也是一種重構(gòu)人與人、人與企業(yè)、企業(yè)與政府等各種關(guān)系的力量,是一種新的經(jīng)濟(jì)社會權(quán)力。人工智能應(yīng)用風(fēng)險(xiǎn)實(shí)際是技術(shù)創(chuàng)新對原有技術(shù)、經(jīng)濟(jì)、社會平衡關(guān)系的沖擊所帶來的。其次,由于人工智能應(yīng)用超越了單純的技術(shù)工具范疇,它必然會受到各種復(fù)雜的經(jīng)濟(jì)社會關(guān)系的影響,人工智能應(yīng)用產(chǎn)生的各種偏差結(jié)果及其引發(fā)的歧視性本質(zhì)上是經(jīng)濟(jì)社會運(yùn)行中痼疾的技術(shù)性映射或技術(shù)性系統(tǒng)強(qiáng)化。再次,人工智能的創(chuàng)新發(fā)展必須具有兼容的經(jīng)濟(jì)社會環(huán)境,包容、信任、鼓勵(lì)的創(chuàng)新生態(tài)對人工智能創(chuàng)新發(fā)展至關(guān)重要。綜上,在技術(shù)、經(jīng)濟(jì)、社會都處在動(dòng)態(tài)變化的情況下,政府監(jiān)管不再是一個(gè)靜態(tài)的制度實(shí)施過程,而是對技術(shù)、經(jīng)濟(jì)、社會動(dòng)態(tài)變化所引發(fā)的利益相關(guān)者之間復(fù)雜利益沖突做出的主動(dòng)性監(jiān)管制度回應(yīng)。因此,人工智能監(jiān)管必須采用“技術(shù)—經(jīng)濟(jì)—社會”綜合治理理念,促進(jìn)技術(shù)、經(jīng)濟(jì)、社會的整體協(xié)同演化,從而構(gòu)建可信人工智能持續(xù)優(yōu)化的治理生態(tài)。

        四、創(chuàng)新友好人工智能監(jiān)管的實(shí)現(xiàn)基礎(chǔ):監(jiān)管實(shí)施體制

        創(chuàng)新友好監(jiān)管目標(biāo)的實(shí)現(xiàn)關(guān)鍵在于能否建立好的監(jiān)管實(shí)施體制。政府監(jiān)管是一種行政行為,監(jiān)管實(shí)施體制從根本上決定了監(jiān)管績效。① 作為一種顛覆性技術(shù),人工智能創(chuàng)新發(fā)展需要?jiǎng)?chuàng)新監(jiān)管實(shí)施體制,實(shí)現(xiàn)監(jiān)管與創(chuàng)新的動(dòng)態(tài)匹配。因此,人工智能監(jiān)管迫切需要建立有利于創(chuàng)新的監(jiān)管實(shí)施體制,營造有利于同步促進(jìn)安全可信和創(chuàng)新發(fā)展的生態(tài)。為此,創(chuàng)新友好目標(biāo)導(dǎo)向的政府監(jiān)管機(jī)構(gòu)需要發(fā)揮好兩種基本的角色:一是消極行動(dòng)者角色,即通過完善監(jiān)管行政制度確保政府監(jiān)管不會阻礙人工智能的創(chuàng)新發(fā)展;二是積極行動(dòng)者角色,即通過監(jiān)管為人工智能創(chuàng)新發(fā)展提供有力的要素供給和產(chǎn)業(yè)化應(yīng)用場景,并營造有利于創(chuàng)新發(fā)展的制度環(huán)境,以最大化促進(jìn)人工智能創(chuàng)新發(fā)展。

        1.創(chuàng)新友好人工智能監(jiān)管要確保監(jiān)管與創(chuàng)新的動(dòng)態(tài)匹配

        從政府監(jiān)管與人工智能創(chuàng)新發(fā)展的關(guān)系來說,創(chuàng)新友好監(jiān)管體制關(guān)鍵是形成監(jiān)管與創(chuàng)新的動(dòng)態(tài)匹配。首先,創(chuàng)新友好人工智能監(jiān)管應(yīng)實(shí)現(xiàn)二者的協(xié)調(diào)。政府監(jiān)管與創(chuàng)新發(fā)展的協(xié)調(diào)體現(xiàn)在兩個(gè)方面:一是監(jiān)管有利于人工智能高質(zhì)量創(chuàng)新發(fā)展,科學(xué)的人工智能監(jiān)管能夠?yàn)槿斯ぶ悄軇?chuàng)新發(fā)展?fàn)I造安全可信的外部環(huán)境,既會增強(qiáng)消費(fèi)者的信心,從而擴(kuò)大人工智能的應(yīng)用場景,也會增進(jìn)研發(fā)者和投資者從事研發(fā)創(chuàng)新的積極性,從而總體上促進(jìn)人工智能創(chuàng)新發(fā)展;二是人工智能創(chuàng)新發(fā)展有利于高效能監(jiān)管,人工智能技術(shù)創(chuàng)新發(fā)展會不斷優(yōu)化技術(shù)設(shè)計(jì),消除技術(shù)性缺陷帶來的風(fēng)險(xiǎn),安全技術(shù)創(chuàng)新會為消除風(fēng)險(xiǎn)提供有效技術(shù)治理手段,同時(shí)人工智能技術(shù)創(chuàng)新也為實(shí)現(xiàn)政府監(jiān)管的智能化提供了技術(shù)支持。其次,創(chuàng)新友好人工智能監(jiān)管要避免二者的動(dòng)態(tài)失調(diào)。政府監(jiān)管與人工智能創(chuàng)新發(fā)展的失調(diào)主要體現(xiàn)在兩個(gè)方面:一是人工智能技術(shù)創(chuàng)新打破了原有監(jiān)管體制維持的均衡態(tài)勢,新技術(shù)的出現(xiàn)導(dǎo)致原有監(jiān)管體制與政策工具失效,產(chǎn)生較大的監(jiān)管缺口,降低政府監(jiān)管整體效能,從而帶來較高的風(fēng)險(xiǎn)隱患;二是不科學(xué)的政府監(jiān)管嚴(yán)重阻礙了人工智能創(chuàng)新發(fā)展,這主要體現(xiàn)為監(jiān)管不足與監(jiān)管過度:前者體現(xiàn)為面對人工智能快速的創(chuàng)新發(fā)展,政府監(jiān)管沒有提供及時(shí)有效的制度供給,導(dǎo)致人工智能創(chuàng)新發(fā)展產(chǎn)生風(fēng)險(xiǎn)損害,并使創(chuàng)新發(fā)展缺乏良好外部環(huán)境;后者體現(xiàn)為政府錯(cuò)誤的監(jiān)管決策、過于超前的監(jiān)管政策、不合理的高強(qiáng)度監(jiān)管、不科學(xué)的政策工具導(dǎo)致人工智能創(chuàng)新發(fā)展面臨過度的不合理限制和過高合規(guī)成本,嚴(yán)重打擊微觀主體創(chuàng)新積極性,或嚴(yán)重阻礙創(chuàng)新成果商業(yè)化應(yīng)用和產(chǎn)業(yè)化發(fā)展。因此,創(chuàng)新友好監(jiān)管體制要通過制度建設(shè)來避免監(jiān)管不足和監(jiān)管過度對創(chuàng)新的阻礙和對監(jiān)管效能的制約,確保政府監(jiān)管與技術(shù)創(chuàng)新的動(dòng)態(tài)最優(yōu)匹配(見圖1)。

        2.創(chuàng)新友好人工智能監(jiān)管實(shí)施體制應(yīng)堅(jiān)持的原則

        創(chuàng)新友好人工智能監(jiān)管應(yīng)堅(jiān)持如下的基本原則:一是法治化原則。政府應(yīng)確保監(jiān)管規(guī)則的明確性和一致性,避免削弱企業(yè)投資激勵(lì)和企業(yè)家創(chuàng)新創(chuàng)業(yè)的信心。二是突出原則監(jiān)管原則。對于不明確的風(fēng)險(xiǎn)或尚未大規(guī)模顯現(xiàn)的風(fēng)險(xiǎn)適用原則監(jiān)管,監(jiān)管機(jī)構(gòu)制定基本的行為原則,具體實(shí)施則由企業(yè)根據(jù)自身的實(shí)際情況來靈活決定;僅對大量事實(shí)已充分證明具有嚴(yán)重危害的人工智能開發(fā)應(yīng)用風(fēng)險(xiǎn)才實(shí)行規(guī)則監(jiān)管,監(jiān)管機(jī)構(gòu)直接規(guī)定企業(yè)不可以實(shí)施的具體應(yīng)用或行為。三是增強(qiáng)公眾信任原則。監(jiān)管應(yīng)重在構(gòu)建公眾對人工智能開發(fā)應(yīng)用的信任,監(jiān)管不僅要關(guān)注人工智能技術(shù)安全、治理制度安全和商業(yè)應(yīng)用安全來保護(hù)人的基本權(quán)益,也要通過增強(qiáng)透明度和安全宣傳等來提高公眾信任。四是風(fēng)險(xiǎn)敏感原則。政府監(jiān)管應(yīng)根據(jù)不同風(fēng)險(xiǎn)損害來實(shí)施相匹配的監(jiān)管強(qiáng)度與監(jiān)管政策,貫徹基于風(fēng)險(xiǎn)的監(jiān)管體制。五是最小化創(chuàng)新?lián)p害原則。監(jiān)管工具選擇應(yīng)追求最小化創(chuàng)新?lián)p害,通過科學(xué)的政策影響評估和政策優(yōu)化,采取創(chuàng)新?lián)p害最小的政策工具,并將促進(jìn)企業(yè)主動(dòng)合規(guī)和軟監(jiān)管措施作為優(yōu)先選項(xiàng)。

        3.創(chuàng)新友好人工智能監(jiān)管的行政體制保障

        在人工智能監(jiān)管中,政府始終是最為關(guān)鍵的監(jiān)管主體,尤其是在行政監(jiān)管主導(dǎo)的體制中,法治化的監(jiān)管行政體制是創(chuàng)新的重要保障。創(chuàng)新友好監(jiān)管行政體制建設(shè)重點(diǎn)為:一是構(gòu)建高效協(xié)同的監(jiān)管機(jī)構(gòu)體系。政府監(jiān)管層面,應(yīng)建立國家統(tǒng)一監(jiān)管與行業(yè)分散監(jiān)管相結(jié)合體制,國家統(tǒng)一立法,由國家專門監(jiān)管機(jī)構(gòu)負(fù)責(zé)統(tǒng)一執(zhí)法,各行業(yè)主管部門根據(jù)行業(yè)領(lǐng)域制定細(xì)則并負(fù)責(zé)本行業(yè)監(jiān)管。為了促進(jìn)各部門的協(xié)同監(jiān)管,應(yīng)根據(jù)權(quán)責(zé)對等原則來配置各部門的監(jiān)管職責(zé),完善部際協(xié)同監(jiān)管體制。二是建立體現(xiàn)程序正義的監(jiān)管行政程序。正當(dāng)?shù)男姓绦蚴欠乐剐姓O(jiān)管權(quán)濫用,避免監(jiān)管失誤與阻礙創(chuàng)新的重要制度保障。為此,應(yīng)重點(diǎn)強(qiáng)化監(jiān)管影響評估制度,監(jiān)管部門出臺監(jiān)管政策必須進(jìn)行成本與收益評估,尤其是重點(diǎn)評估其對創(chuàng)新發(fā)展帶來的影響,并比較各種替代性方案來選擇創(chuàng)新?lián)p害最小的政策方案。三是建立公私合作監(jiān)管新體制。人工智能監(jiān)管要構(gòu)建公私合作體制,政府監(jiān)管機(jī)構(gòu)與大型數(shù)字平臺企業(yè)、行業(yè)組織等建立合作監(jiān)管體制,并積極吸收利益相關(guān)者參與治理,構(gòu)建多元主體參與的監(jiān)管治理體制。

        4.創(chuàng)新友好人工智能監(jiān)管的政策工具創(chuàng)新

        第一,建立多種政策手段相機(jī)應(yīng)用的人工智能監(jiān)管工具箱。依據(jù)人工智能監(jiān)管強(qiáng)度,監(jiān)管政策工具包括五種:一是倫理治理。人工智能監(jiān)管應(yīng)堅(jiān)持倫理先行,建立并完善人工智能倫理準(zhǔn)則,通過完善制度確保落實(shí),將倫理融入人工智能全周期,使遵守倫理準(zhǔn)則成為相關(guān)主體的自覺行動(dòng),實(shí)現(xiàn)內(nèi)源性治理。二是系統(tǒng)應(yīng)用者的自我監(jiān)管。要充分發(fā)揮系統(tǒng)應(yīng)用者作為風(fēng)險(xiǎn)控制第一責(zé)任人的主體地位,激勵(lì)其主動(dòng)采取有效措施來降低各種風(fēng)險(xiǎn)。三是行業(yè)組織私人監(jiān)管。其措施包括行業(yè)組織制定行為規(guī)則、制定與推行行業(yè)管理或技術(shù)安全標(biāo)準(zhǔn)、開展行業(yè)算法認(rèn)證等。四是政府監(jiān)管。政府監(jiān)管機(jī)構(gòu)應(yīng)多采用信息披露、安全標(biāo)準(zhǔn)、應(yīng)用指南、安全認(rèn)證等軟監(jiān)管方式。五是技術(shù)性解決方案。人工智能安全技術(shù)為人工智能監(jiān)管提供了新的治理手段,如隱私安全技術(shù)能實(shí)現(xiàn)“數(shù)據(jù)可用不可見”,充分保障隱私安全。綜上,人工智能監(jiān)管應(yīng)根據(jù)不同應(yīng)用場景來靈活選擇政策工具,注重不同政策工具的組合,并最小化命令—控制式監(jiān)管手段的應(yīng)用。

        第二,實(shí)施規(guī)則透明、外部評估與內(nèi)部自評相結(jié)合的人工智能影響評估制度。人工智能影響評估重點(diǎn)是針對人工智能系統(tǒng)應(yīng)用的各種潛在影響進(jìn)行評估,影響評估包括人工智能系統(tǒng)應(yīng)用前的事前評估和人工智能系統(tǒng)應(yīng)用后的事后評估,影響評估的內(nèi)容重點(diǎn)是分析人工智能引發(fā)的潛在風(fēng)險(xiǎn)及其損害。影響評估制度是目前各國人工智能監(jiān)管的重要政策手段。2019年歐洲議會通過的《算法問責(zé)與透明治理框架》、2022年3月美國國會通過的《2022年算法問責(zé)法》都對達(dá)到適用標(biāo)準(zhǔn)的企業(yè)提出了進(jìn)行影響評估的要求。中國應(yīng)制定明確具體的政策,在高風(fēng)險(xiǎn)的重點(diǎn)領(lǐng)域推進(jìn)強(qiáng)制性人工智能應(yīng)用影響評估制度,明確影響評估的具體內(nèi)容和操作程序,并確保評估的透明。與此同時(shí),對于中低風(fēng)險(xiǎn)的領(lǐng)域則應(yīng)鼓勵(lì)企業(yè)基于自愿來開展評估,并鼓勵(lì)主動(dòng)采取合規(guī)治理措施。

        第三,采用鼓勵(lì)創(chuàng)新的人工智能監(jiān)管政策以最大化促進(jìn)創(chuàng)新。為鼓勵(lì)創(chuàng)新,人工智能監(jiān)管應(yīng)更多采用“監(jiān)管沙盒”等試驗(yàn)性監(jiān)管政策。對于一些具有較大原創(chuàng)性的人工智能技術(shù)研發(fā)或通用性人工智能技術(shù)研發(fā)可以設(shè)立安全區(qū),對研發(fā)階段的人工智能技術(shù)實(shí)行監(jiān)管責(zé)任豁免,并通過監(jiān)管為人工智能技術(shù)研發(fā)提供高質(zhì)量數(shù)據(jù)供給、統(tǒng)一調(diào)度的算力和開放創(chuàng)新的生態(tài);對于已經(jīng)開發(fā)成功并將進(jìn)行商業(yè)化應(yīng)用的人工智能,可在一定的可控范圍內(nèi)進(jìn)行試驗(yàn)性應(yīng)用,充分評估潛在的主要風(fēng)險(xiǎn),據(jù)此要求企業(yè)在技術(shù)應(yīng)用中來提升數(shù)據(jù)質(zhì)量、完善系統(tǒng)設(shè)計(jì)和完善風(fēng)險(xiǎn)管理措施,同時(shí)也要主動(dòng)優(yōu)化政府監(jiān)管體制和創(chuàng)新監(jiān)管政策,實(shí)現(xiàn)政府監(jiān)管與創(chuàng)新的匹配;對于暫時(shí)無法確定人工智能應(yīng)用風(fēng)險(xiǎn)的新技術(shù)產(chǎn)業(yè)化應(yīng)用,應(yīng)建立必要的容錯(cuò)機(jī)制,以鼓勵(lì)創(chuàng)新發(fā)展。為促進(jìn)人工智能商業(yè)化應(yīng)用和產(chǎn)業(yè)化發(fā)展,應(yīng)建立和完善人工智能監(jiān)管政策和創(chuàng)新發(fā)展政策的協(xié)同機(jī)制,通過政府監(jiān)管來消除阻礙人工智能創(chuàng)新發(fā)展的各種障礙,營造有利于創(chuàng)新發(fā)展的要素供給、應(yīng)用場景、政策與制度環(huán)境,以全面促進(jìn)人工智能創(chuàng)新發(fā)展。

        五、中國人工智能監(jiān)管體制完善的重點(diǎn)

        面對人工智能應(yīng)用帶來的潛在風(fēng)險(xiǎn),強(qiáng)化風(fēng)險(xiǎn)管控是人工智能監(jiān)管的重要任務(wù)。2021年國家新一代人工智能治理專業(yè)委員會發(fā)布了《新一代人工智能倫理規(guī)范》,以網(wǎng)信辦為主的監(jiān)管機(jī)構(gòu)制定了《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》和《生成式人工智能服務(wù)管理暫行辦法》等監(jiān)管法規(guī),并不斷強(qiáng)化監(jiān)管行政執(zhí)法。長期以來,中國政府監(jiān)管體制具有典型的強(qiáng)政府特征,同時(shí)監(jiān)管職權(quán)配置是明顯的條塊分割體制。在中國特色政府監(jiān)管體制下,如何防止不恰當(dāng)?shù)谋O(jiān)管實(shí)施體制損害人工智能創(chuàng)y2Rn18SgQ8CdBQvzzy5A8g==新發(fā)展,是一個(gè)亟待從根本上解決的重大問題。未來中國人工智能監(jiān)管體制應(yīng)重點(diǎn)在如下方面予以完善:

        第一,起草制定《人工智能法》,以強(qiáng)化監(jiān)管法治化。當(dāng)前,中國系統(tǒng)監(jiān)管人工智能的國家級法律依然處于缺失狀態(tài),分散的部門立法和多頭管理增加了人工智能創(chuàng)新發(fā)展的政策不確定性,迫切需要通過統(tǒng)一的國家層級立法來明確人工智能監(jiān)管的基礎(chǔ)性問題,為人工智能創(chuàng)新發(fā)展提供穩(wěn)定可預(yù)期的制度保障。具體建議如下:一是確立以人為本的立法理念。人工智能監(jiān)管的基本理念應(yīng)堅(jiān)持以人為中心,增進(jìn)人類福祉,促進(jìn)人的全面發(fā)展。二是明確人工智能監(jiān)管基本原則。人工智能開發(fā)應(yīng)用應(yīng)遵循安全性原則、透明度原則、公平性原則和問責(zé)性原則。三是明確政府監(jiān)管要遵守法治化原則。政府監(jiān)管要嚴(yán)格法治化,明確相關(guān)部門的職權(quán)權(quán)限和監(jiān)管責(zé)任,切實(shí)依法行政。四是明確基于風(fēng)險(xiǎn)的分級分類監(jiān)管。依據(jù)人工智能風(fēng)險(xiǎn)評估和風(fēng)險(xiǎn)等級劃分,實(shí)行基于風(fēng)險(xiǎn)的分級分類監(jiān)管,針對不同行業(yè)獨(dú)特應(yīng)用場景來建立分產(chǎn)業(yè)風(fēng)險(xiǎn)評估和監(jiān)管體系。五是促進(jìn)多元治理與開放合作。要消除阻礙開放創(chuàng)新的各種行政壁壘,促進(jìn)形成利益相關(guān)者合作治理體系,并鼓勵(lì)合作創(chuàng)新和開源生態(tài)體系建設(shè),形成有利于創(chuàng)新的合作與開放生態(tài)。六是人工智能監(jiān)管要堅(jiān)持國際化。人工智能監(jiān)管要遵守國際共識和共同原則,加強(qiáng)人工智能監(jiān)管政策的國際協(xié)調(diào),積極推動(dòng)人工智能創(chuàng)新的國際合作,為中國人工智能全球化創(chuàng)新發(fā)展提供有利的國際環(huán)境。

        第二,著力改革完善監(jiān)管行政執(zhí)法體制,以提升監(jiān)管正當(dāng)化。一是政府監(jiān)管必須始終依法行政。政府監(jiān)管權(quán)的行使必須具有明確的法律授權(quán),不能隨意執(zhí)法和恣意妄為,根本消除過度監(jiān)管、不當(dāng)監(jiān)管對創(chuàng)新發(fā)展造成的嚴(yán)重?fù)p害,營造有利于創(chuàng)新發(fā)展的政策環(huán)境。二是政府監(jiān)管必須確保政策合力。政府監(jiān)管體制要防止部門主義的冒進(jìn)執(zhí)法,要注重消除地方保護(hù)主義對形成人工智能創(chuàng)新開放生態(tài)和全國統(tǒng)一大市場的各種阻礙,健全人工智能監(jiān)管機(jī)構(gòu)體系和部門協(xié)同體制,確保監(jiān)管政策的統(tǒng)一性,明確人工智能監(jiān)管必須服務(wù)于促進(jìn)人工智能創(chuàng)新發(fā)展的重大國家戰(zhàn)略。三是政府監(jiān)管必須具備公正程序。政府監(jiān)管政策制定必須有公眾意見征詢過程,必須進(jìn)行監(jiān)管政策成本—收益分析,監(jiān)管必須建立政策實(shí)施效果后評估制度,并實(shí)施相應(yīng)的事后問責(zé)機(jī)制。四是監(jiān)管方式應(yīng)創(chuàng)新友好。政府監(jiān)管應(yīng)及時(shí)清理阻礙創(chuàng)新發(fā)展的監(jiān)管政策,并及時(shí)出臺與創(chuàng)新發(fā)展相適應(yīng)的監(jiān)管政策。監(jiān)管手段應(yīng)更多地采用標(biāo)準(zhǔn)化、指南、行為準(zhǔn)則等非約束性監(jiān)管政策,并強(qiáng)化監(jiān)管政策工具創(chuàng)新。應(yīng)推行數(shù)據(jù)質(zhì)量標(biāo)準(zhǔn)化,促進(jìn)高質(zhì)量數(shù)據(jù)供給;打破條塊分割體制,提升全國算力設(shè)施系統(tǒng)調(diào)度;建立鼓勵(lì)創(chuàng)新的新型知識產(chǎn)權(quán)保護(hù)制度;建立人工智能測試中心和商業(yè)化應(yīng)用試驗(yàn)區(qū),實(shí)施監(jiān)管沙盒制度;鼓勵(lì)安全技術(shù)開發(fā)、應(yīng)用和產(chǎn)業(yè)化發(fā)展,增強(qiáng)安全技術(shù)保障;改革教育體制、科技體制和融資體制,培育數(shù)據(jù)要素市場,促進(jìn)數(shù)據(jù)流動(dòng),消除阻礙人工智能創(chuàng)新發(fā)展的各種體制政策障礙,營造促進(jìn)創(chuàng)新發(fā)展的外部環(huán)境。

        第三,建立系統(tǒng)應(yīng)用者主動(dòng)治理的激勵(lì)制度,以增強(qiáng)監(jiān)管合規(guī)化。人工智能應(yīng)用者的自我治理是實(shí)現(xiàn)創(chuàng)新友好監(jiān)管的重要基礎(chǔ),要尊重企業(yè)自主經(jīng)營權(quán),鼓勵(lì)企業(yè)根據(jù)自身情況來選擇最佳合規(guī)方案,從而最小化政府監(jiān)管的創(chuàng)新?lián)p害。一是依據(jù)比例原則合理確定人工智能系統(tǒng)應(yīng)用者的治理責(zé)任。人工智能系統(tǒng)的安全責(zé)任應(yīng)主要配置給人工智能系統(tǒng)應(yīng)用者,其應(yīng)承擔(dān)必要的注意義務(wù),應(yīng)建立科學(xué)、規(guī)范和系統(tǒng)的風(fēng)險(xiǎn)管理制度體系,充分履行相應(yīng)的安全保障責(zé)任。二是高風(fēng)險(xiǎn)人工智能應(yīng)用者應(yīng)充分履行透明度義務(wù),保障消費(fèi)者的基本權(quán)益,以增強(qiáng)公眾信任。人工智能系統(tǒng)應(yīng)確保具有透明度,使用戶能夠理解并正確使用系統(tǒng)輸出結(jié)果。人工智能采集利用消費(fèi)者數(shù)據(jù)要遵守“知情—同意”要求,基于人工智能的個(gè)人化定價(jià)、內(nèi)容推薦等必須事前明確告知消費(fèi)者,人工智能合成的內(nèi)容必須進(jìn)行明確的標(biāo)簽標(biāo)注,并賦予消費(fèi)者不同的應(yīng)用界面選項(xiàng)。三是強(qiáng)化對人工智能應(yīng)用者的問責(zé)。人工智能系統(tǒng)應(yīng)用者需要對人工智能應(yīng)用風(fēng)險(xiǎn)承擔(dān)第一責(zé)任,并履行相應(yīng)的問責(zé)義務(wù)要求。四是強(qiáng)化對企業(yè)主動(dòng)合規(guī)的激勵(lì)機(jī)制建設(shè),實(shí)施可信人工智能安全認(rèn)證與動(dòng)態(tài)的安全可信評估,讓安全成為企業(yè)競爭的重要質(zhì)量維度,對于具有可信的安全保障能力的企業(yè)可以給予更多的治理自主權(quán)和一定的產(chǎn)業(yè)政策優(yōu)惠。

        第四,實(shí)現(xiàn)倫理治理的全過程內(nèi)嵌,以突出監(jiān)管軟性化。倫理是實(shí)現(xiàn)人工智能創(chuàng)新發(fā)展與安全應(yīng)用相平衡的重要軟監(jiān)管方式。為有效發(fā)揮倫理的內(nèi)源性治理作用,需要進(jìn)一步完善相關(guān)制度。具體而言:一是進(jìn)一步明確人工智能倫理原則。人工智能治理的價(jià)值準(zhǔn)則是以人為中心,人工智能相關(guān)活動(dòng)過程應(yīng)遵守增進(jìn)人類福祉、尊重和保護(hù)人的基本權(quán)利、堅(jiān)持公平公正、合理控制風(fēng)險(xiǎn)和保持公開透明等原則,應(yīng)通過指南對上述原則做出明確界定。二是健全人工智能倫理治理體制。應(yīng)完善政府人工智能倫理管理體制,明確相關(guān)主體倫理治理責(zé)任,使倫理成為激勵(lì)和約束企業(yè)的重要內(nèi)源性治理機(jī)制。三是加強(qiáng)倫理治理制度保障。應(yīng)完善人工智能倫理規(guī)范和標(biāo)準(zhǔn),建立人工智能倫理評價(jià)制度,并及時(shí)將重要的倫理規(guī)范上升為法律法規(guī)。四是深入開展人工智能倫理教育。要重視人工智能倫理教育,積極推動(dòng)人工智能倫理培訓(xùn),強(qiáng)化相關(guān)人員的倫理意識。

        а√中文在线资源库| 久久精品国产亚洲av高清蜜臀| 偷拍视频十八岁一区二区三区| 日韩精品综合一本久道在线视频| 黄网站欧美内射| 97国产免费全部免费观看| 中文字幕人妻少妇久久| 色婷婷精品久久二区二区蜜臀av| 国产99久久久国产精品免费看| 91麻豆国产香蕉久久精品| 孩交精品xxxx视频视频| 久久免费观看国产精品| 久久精品国产亚洲av网在| 狠狠躁夜夜躁人人爽超碰97香蕉| 色八区人妻在线视频免费| 亚洲男同志gay 片可播放| 亚洲成AV人国产毛片| 人妻一区二区三区在线看| 国产精品免费_区二区三区观看| 欧美在线视频免费观看| 亚洲av乱码一区二区三区女同| 一本色道久久88—综合亚洲精品| 亚洲精品天堂成人片av在线播放| 久久精品国产丝袜| 免费一区二区三区av| 日本精品一区二区高清| 青青草原综合久久大伊人| 国产午夜亚洲精品一级在线| 国产成人精品久久二区二区91| 成人无码av一区二区| 精品少妇一区二区三区视频| 婷婷第四色| 白白色日韩免费在线观看| 欧美丰满老熟妇aaaa片| 丰满人妻熟妇乱又伦精品视| 激情五月婷婷久久综合| 91视色国内揄拍国内精品人妻 | 国产资源精品一区二区免费| 精品蜜桃av免费观看| 日韩精品真人荷官无码| 国产高清在线精品免费|