亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        可解釋性框架下人工智能國際合作監(jiān)管理念與機制

        2023-08-28 22:08:19郝家杰
        科技創(chuàng)業(yè)月刊 2023年7期
        關(guān)鍵詞:解釋性倫理人工智能

        郝家杰

        (西北政法大學(xué) 涉外法治研究中心,陜西 西安 710063)

        0 引言

        新一代信息技術(shù)取得巨大進步,但伴隨而生的人工智能“黑匣子”問題使得人們無法理解和運用人工智能系統(tǒng),以致于在監(jiān)管方面受限,尤其是在國際合作方面存在極大阻力。為此,在學(xué)界、企業(yè)、機構(gòu)層面乃至政府組織層面亟需建立可解釋的人工智能,這也逐漸發(fā)展為以人為中心的人工智能重要研究板塊,比如,部分國際會議如International Conference on Machine Learning(簡稱ICML)、Conference and Workshop on Neural Information Processing Systems(簡稱NeurIPS)等會議將可解釋的人工智能納入研討會的討論主題中。目前,由于“黑匣子”問題轉(zhuǎn)向可解釋的人工智能已是大勢所趨,亦對以人為中心的人工智能提出前瞻性挑戰(zhàn)。人工智能可解釋性的意義不僅在于證明其決策結(jié)果的合理性,使人們可以明智而果斷地行動,更在于監(jiān)控因數(shù)據(jù)偏差導(dǎo)致的道德問題和違規(guī)行為,為其提供更好的機制進行監(jiān)管或其他目的。為此,本文擬從比較法的視角出發(fā)討論美國、歐盟以及中國人工智能監(jiān)管政策發(fā)展現(xiàn)狀及人工智能治理未來走向,總結(jié)因技術(shù)缺陷產(chǎn)生的可解釋性問題,結(jié)合各國國情,對人工智能國際合作監(jiān)管理念的塑造與監(jiān)管機制的構(gòu)建提出可行性建議。

        1 人工智能國際合作監(jiān)管現(xiàn)狀及發(fā)展趨勢

        從全球范圍分析,各國人工智能發(fā)展的戰(zhàn)略博弈愈發(fā)清晰明了——將可解釋性作為人工智能研發(fā)的一項基本原則用以指導(dǎo)國家政策,以此應(yīng)對因人工智能技術(shù)引發(fā)的潛在風(fēng)險;與此同時,為避免人工智能技術(shù)對社會結(jié)構(gòu)、社會風(fēng)險帶來的沖擊和人工智能重復(fù)監(jiān)管導(dǎo)致監(jiān)管資源配置不均衡的尷尬局面,迫切需要各國政府將人工智能技術(shù)監(jiān)管體系的構(gòu)建融入到主權(quán)國家之間或區(qū)域性國際組織的人工智能發(fā)展戰(zhàn)略布局之中,平衡創(chuàng)新發(fā)展與規(guī)制需求,以此競逐監(jiān)管實踐創(chuàng)新的主導(dǎo)地位。比如,2017年4月,美國國防部高級研究計劃署(Defense Advanced Research Projects Agency,簡稱DARPA)啟動了“可解釋的人工智能” (Explainable Artificial Intelligence,簡稱XAI)項目,旨在提高AI系統(tǒng)的可解釋性;同年5月,XAI計劃正式開始。有11個研究小組被選中,開發(fā)可解釋學(xué)習(xí)(TA1),另一個小組則被選中開發(fā)解釋的心理學(xué)模型。2018年5月,歐洲聯(lián)盟(European Union,簡稱EU)發(fā)布了《通用數(shù)據(jù)保護條例》(General Data Protection Regulation,簡稱GDPR),提出了公民“解釋權(quán)”的概念,規(guī)定歐盟公民有權(quán)檢查所享受的特定服務(wù)是如何依據(jù)特定的算法決策作出的,強制要求人工智能算法對其提供明確解釋。2019年6月,我國國家新一代人工智能治理專業(yè)委員會發(fā)布的《新一代人工智能治理原則——發(fā)展負責(zé)任的人工智能》提出“人工智能系統(tǒng)應(yīng)不斷提升透明性、可解釋性、可靠性、可控性,逐步實現(xiàn)可審核、可監(jiān)督、可追溯、可信賴”,這是我國首個官方發(fā)布的人工智能治理框架和行動指南,而“可解釋”便是其中的要求之一。

        1.1 人工智能國際合作監(jiān)管體系

        自2017年以來,全球已有30多個國家和地區(qū)提出優(yōu)先發(fā)展人工智能的國家戰(zhàn)略,爭相投身于人工智能全球競爭行列。關(guān)于人工智能可解釋性的國際規(guī)則及標(biāo)準亟需完善,并且國家間需要通過互利合作方能補齊發(fā)展短板,消除分歧,以此滿足國際合作、共同進步、共同發(fā)展。因此,不少關(guān)于人工智能的倡議應(yīng)運而生,比如國際倡議、國際論壇以及國際標(biāo)準等紛紛響應(yīng),將有關(guān)人工智能的議題納入?yún)f(xié)議之中,逐步推動人工智能國際合作。比如,《二十國集團(G20)國家人工智能戰(zhàn)略》系列報告中,第一份報告于2018年公布于世,闡述了12個國家的國家戰(zhàn)略;2022年,第二份報告《G20.AI:國家戰(zhàn)略,全球雄心》隨之問世,概述了G20國家的人工智能發(fā)展戰(zhàn)略。IP5,由來自中國、美國、日本、韓國和歐盟的5個世界上最大的知識產(chǎn)權(quán)局論壇推動人工智能知識產(chǎn)權(quán)保護和國際合法性,促進人工智能技術(shù)的應(yīng)用和創(chuàng)新。

        1.1.1 雙邊合作相互協(xié)調(diào)

        近年來,美國、英國、法國、日本等國家陸續(xù)加強交流,促進國家之間的人工智能合作。如,2020年9月,美國同英國正式簽署《人工智能研究與開發(fā)合作宣言》,試圖通過加強人工智能協(xié)同合作的方式,確保雙方在人工智能合作發(fā)展方面能夠規(guī)劃優(yōu)先事項。同年10月23日,日本與英國在東京正式簽署《全面經(jīng)濟伙伴關(guān)系協(xié)定》(EPA),允許數(shù)據(jù)跨國自由流動,此舉使得英日歐的數(shù)字經(jīng)濟有趨向一致的可能性。由此觀之,各國目前意識到雙邊合作的方式可作為人工智能國際合作發(fā)展的一條重要路徑。

        1.1.2 多邊合作全面聯(lián)動

        2019年5月22日,經(jīng)濟合作與發(fā)展組織經(jīng)(OECD)批準了全球首個政府間人工智能標(biāo)準——《OECD人工智能原則》,確立5項基本原則、5項公共政策以及國際合作建議。37個經(jīng)濟合作與發(fā)展組織成員國及5個非成員國參與,涉及AI標(biāo)準和原則、數(shù)據(jù)共享、研發(fā)合作、數(shù)字基礎(chǔ)設(shè)施等倡議內(nèi)容。同年5月25日,《人工智能北京共識》針對人工智能的研發(fā)、使用、治理三方面,提出了系統(tǒng)的人工智能治理原則,有助于實現(xiàn)對人類和自然有益的人工智能。同年8月,美國、歐盟以及日本等國相繼加入首個全球人工智能合作伙伴組織(Global Partnership on AI, 簡稱GPAI),旨在基于共同價值觀,推動負責(zé)任、以人為本的人工智能發(fā)展。2021年,美國人工智能國家安全委員會通過的《人工智能最終報告》提出,加強與盟友的合作發(fā)展,提升人工智能創(chuàng)新潛力和應(yīng)用能力。美國高頻率聯(lián)動英國、G7、G20等國家或國際組織,試圖主導(dǎo)全球人工智能技術(shù)標(biāo)準和價值原則。

        另外,在倫理層面,歐盟委員會的人工智能高級專家組(High-Level Expert Group on Artificial Intelligence, AI HLEG)于2018年12月發(fā)布了《可信人工智能倫理指南草案》(Ethics Guidelines for Trustworthy AI),該指南提出一個可信人工智能框架將可解釋性作為可信人工智能的4個倫理原則之一。2021年11月25日,聯(lián)合國教科文組織正式通過全球首份有關(guān)人工智能倫理問題的具有廣泛共識的協(xié)議《人工智能倫理問題建議書》(Recommendation on the Ethics of Artificial Intelligence),提出了十大原則之一,“透明度和可解釋性”,以此確保人權(quán)、基本自由和倫理原則得到尊重、保護和促進。

        1.2 人工智能國際監(jiān)管發(fā)展趨勢

        中美歐三方利益體均考慮到人工智能的不透明性和不可解釋性等特征,采取的人工智能監(jiān)管方向趨向一致,僅在創(chuàng)新與監(jiān)管的傾向上各有權(quán)重,并且希望繼續(xù)保持監(jiān)管路徑的獨有特色[1]。

        自從2015年美國國防高級研究計劃局(DARPA)提出XAI研究項目以來,XAI已日漸成為人工智能領(lǐng)域的重要研究方向,通過采取輕監(jiān)管、促創(chuàng)新的發(fā)展路徑,允許個人和企業(yè)自主發(fā)展,確?!岸嗬嫦嚓P(guān)方”自由參與的美國價值觀。

        歐盟則注重通過可解釋性原則指導(dǎo)具體立法和嚴格監(jiān)管以降低潛在風(fēng)險,彰顯注重保障個人權(quán)利等歐盟基本價值觀。

        2021年9月25日,中國新一代人工智能治理專業(yè)委員會發(fā)布了《新一代人工智能倫理規(guī)范》,旨在將透明性和可解釋性等在內(nèi)的多項倫理道德要求融入人工智能全生命周期,凸顯“人類命運共同體”理念,整合多元主體價值觀的差異,以確保人工智能有益于人類和自然,協(xié)調(diào)人工智能技術(shù)的創(chuàng)新發(fā)展與監(jiān)管規(guī)制。

        2 人工智能國際合作監(jiān)管困境

        近年來,人工智能技術(shù)在世界范圍內(nèi)的發(fā)展日新月異,全球各國紛紛響應(yīng),通過指導(dǎo)人工智能政策,加速各行各業(yè)智能化、數(shù)據(jù)化、數(shù)字化轉(zhuǎn)型。與此同時,囿于人工智能技術(shù)可解釋性要求,諸多新型負面影響隨之產(chǎn)生,如滯后的監(jiān)管理念無法適應(yīng)新環(huán)境、新的社會性風(fēng)險、監(jiān)管資源供需不均衡等問題亟待解決,以此完善未來深度學(xué)習(xí)的可解釋性研究。

        2.1 監(jiān)管理念之困

        從全球發(fā)展趨勢來看,人工智能技術(shù)的開發(fā)和應(yīng)用得到迅速發(fā)展,將深刻改變?nèi)藗兊纳罘绞?。然?由于人工智能解釋性要求的落實難以滿足,人工智能產(chǎn)品、技術(shù)問題與人類普世價值觀存在一定分歧,這是意識形態(tài)領(lǐng)先現(xiàn)實世界的必然結(jié)果,終將導(dǎo)致決策者陷入創(chuàng)新發(fā)展與審慎監(jiān)管的困局。監(jiān)管規(guī)制與創(chuàng)新需求之間相互制約又相互促進。監(jiān)管規(guī)制介入潛在利益相關(guān)方的時機是個較為棘手的難題:其一,過早監(jiān)管可能不利于創(chuàng)新,甚至阻礙創(chuàng)新,在一定程度上破壞人工智能給人類社會帶來的潛在巨大好處。其二,放縱創(chuàng)新也可能繞過監(jiān)管,將技術(shù)帶入歧途,增加人類社會和經(jīng)濟風(fēng)險。針對早期有關(guān)人工智能的監(jiān)管理念仍處于起步階段,且相關(guān)政策如歐盟《通用數(shù)據(jù)保護條例》第22條在技術(shù)創(chuàng)新與監(jiān)管規(guī)制之間存在失衡。滯后的監(jiān)管理念可能會限制“新”的人工智能技術(shù)創(chuàng)新發(fā)展,甚至加深“人機沖突”的尷尬局面。隨著時間的推移,監(jiān)管理念亦需審時度勢,與智能化、數(shù)字化的社會相適應(yīng),與時俱進[2]。

        2.2 社會風(fēng)險之困

        人工智能行業(yè)的創(chuàng)新成果大量涌現(xiàn),人們在享受人工智能紅利的同時,社會不穩(wěn)定風(fēng)險因素伴隨而生,正如“我們無法真正預(yù)測未來,因為科技發(fā)展并不會帶來確定的結(jié)果”[3],給人類社會帶來全新的挑戰(zhàn)。

        2.2.1 隱私問題

        人工智能隱私問題一直是各界、各國以及國際社會的關(guān)注焦點。人工智能技術(shù)通過大數(shù)據(jù)采集和算法運用等技術(shù)來記錄每個人的日常行為軌跡,使得個人隱私無法得到有效保護。為此,可解釋的人工智能終將成為保障用戶個人隱私相關(guān)權(quán)益的前提[4]。現(xiàn)代社會的工作和生活愈發(fā)離不開人工智能,諸如,學(xué)校、車站和機場等公共場所遍布監(jiān)控設(shè)備用以采集人像資料,并且個人手機存在的眾多APP同樣會廣泛搜集個人信息,這使得用戶隱私無處遁形。除此以外,在法律層面,大數(shù)據(jù)時代的個人信息數(shù)據(jù)保護問題存在法律空白或泛化規(guī)則,關(guān)于隱私保護的相關(guān)法律規(guī)制也遠遠滯后于人工智能技術(shù)的更新迭代。

        2.2.2 倫理風(fēng)險

        由于人工智能可解釋性要求無法落地,人工智能系統(tǒng)在抉擇困境中面臨難題。進入大數(shù)據(jù)時代,人工智能的可解釋性問題相較于以往沒有靈性的機器人而言,人工智能可通過深度學(xué)習(xí)模擬出人的智性、靈性和心性,進而取代人類一些重復(fù)性工作,營造一種“人機協(xié)作”的社會氛圍。然而,人工智能技術(shù)卻隱含著諸多不確定性因素,在無形中引發(fā)了價值權(quán)衡等倫理風(fēng)險[5]。即便人工智能技術(shù)可解釋性要求無法滿足,一些關(guān)于倫理的前瞻性立法卻可先行繞過可解釋性問題,從而使人工智能有益于人類和自然。在具體設(shè)計人工智能監(jiān)管體系框架時,人工智能系統(tǒng)會陷入價值權(quán)衡的兩難困境之中,比如,當(dāng)人工智能行車駕駛路遇行人闖紅燈時,它是遵循生命健康至上原則停車等待還是遵守交通規(guī)則“紅燈不停車”?由此觀之,抉擇時刻的價值權(quán)衡將會是人工智能技術(shù)推廣普行中亟待解決的倫理挑戰(zhàn)。

        2.3 監(jiān)管重疊之困

        各國政府雖然出臺了不少有關(guān)人工智能監(jiān)管的指導(dǎo)性政策,但由于人工智能技術(shù)蓬勃發(fā)展以及可解釋性問題無法解決,監(jiān)管機構(gòu)的協(xié)調(diào)性以及監(jiān)管規(guī)范的合理性在現(xiàn)代社會中難以靈活適用。

        2.3.1 監(jiān)管機構(gòu)重疊

        毫無疑問,各國政府若能對人工智能系統(tǒng)的每一個決策作出合理解釋,人工智能的合理監(jiān)管造福于國際社會將是題中之意。然而,監(jiān)管規(guī)范的制定并非輕易完成,其中需要考慮多方綜合因素。人工智能涵蓋一系列多維度、多視角、多領(lǐng)域的范疇,近乎所有關(guān)于機器學(xué)習(xí)和數(shù)據(jù)的領(lǐng)域都可被認為屬于人工智能范疇。質(zhì)言之,人工智能涉及范圍之廣,若在缺乏倫理道德要求的情況下,統(tǒng)一監(jiān)管無法短時間形成,其原因在于可能需要花費大量時間對人工智能系統(tǒng)輸出的每一個決策提供合理解釋。因此,監(jiān)管機構(gòu)的統(tǒng)一性有助于對人工智能發(fā)展提供清晰明確的監(jiān)管指導(dǎo),協(xié)調(diào)各監(jiān)管機構(gòu)之間的交流,同時加強其與被監(jiān)管者之間的溝通,有效避免重復(fù)監(jiān)管的尷尬局面。倘若監(jiān)管機構(gòu)與被監(jiān)管者之間缺乏共識,必將加深雙方的顧慮和誤解,進一步激化雙方存在的分歧。

        2.3.2 監(jiān)管資源浪費

        囿于深入的高層交流和統(tǒng)一的頂層設(shè)計,政府無法提供合理的人工智能監(jiān)管政策指引,監(jiān)管標(biāo)準無法統(tǒng)一、監(jiān)管職權(quán)不明以及監(jiān)管機構(gòu)臃腫等現(xiàn)象隨之產(chǎn)生。不僅如此,虛耗的監(jiān)管資源配置同樣無法落在實處。目前,各國政府關(guān)于人工智能的政策尚處于空白領(lǐng)域或規(guī)則泛化的情形,各監(jiān)管機構(gòu)可能在監(jiān)管重疊范圍內(nèi)虛耗大量監(jiān)管資源。因此,提升監(jiān)管效率將是各國政府間監(jiān)管合作的重要議題。

        3 人工智能國際合作的監(jiān)管進路

        國際制度能降低談判成本,為機制化解決國際合作監(jiān)管問題提供交流平臺。質(zhì)言之,通過處理可解釋性問題以完善人工智能技術(shù),或許是目所能及的最優(yōu)解之一,但大數(shù)據(jù)、生物識別、區(qū)塊鏈等新一代信息技術(shù)的蓬勃發(fā)展,誘發(fā)的多種負面因素使得可解釋性要求難以滿足,各國政府自然需要對人工智能國際合作監(jiān)管規(guī)范進行科學(xué)的頂層設(shè)計,重塑人工智能監(jiān)管理念,構(gòu)成與人工智能可解釋性要求相適的監(jiān)管體系。

        3.1 重塑以問題為導(dǎo)向的協(xié)同主義監(jiān)管理念

        鑒于人工智能的發(fā)展已經(jīng)涉及到全球各個國家、地區(qū)、組織等多方層面,關(guān)系錯綜復(fù)雜,并且人工智能技術(shù)是一種待完善的高新技術(shù),伴隨而生的部分問題難以解決,如可解釋性的要求。因此,以解決可解釋性問題為導(dǎo)向,協(xié)調(diào)多方利益關(guān)系的監(jiān)管理念自然成為人工智能國際合作的共同訴求。具體包括以下3種監(jiān)管理念:

        3.1.1 “協(xié)調(diào)性”監(jiān)管理念

        在信息大爆炸的現(xiàn)代社會,技術(shù)、政策、知識、風(fēng)險等具有全球化特征,正因如此,人工智能技術(shù)的治理需要多領(lǐng)域、多部門、多維度乃至多國共同參與。人工智能國際合作監(jiān)管需要協(xié)調(diào)各利益相關(guān)方,通過重塑理念引導(dǎo)國家之間的動態(tài)協(xié)同,積極推動區(qū)域性組織或全球性機構(gòu)等進行交流與協(xié)作,降低可解釋性難題引起的具有世界波及性的潛在風(fēng)險[6]。

        3.1.2 “包容性”監(jiān)管理念

        人工智能技術(shù)是一種待完善的新興技術(shù),正如美國DARPA關(guān)于可解釋人工智能的報告所言,可解釋性要求的發(fā)展進程十分緩慢。因此,當(dāng)前最重要的是鼓勵技術(shù)創(chuàng)新,秉持“包容性”理念,給予可解釋性人工智能技術(shù)創(chuàng)新容錯的空間,同時施加相應(yīng)懲罰規(guī)制作為補充。

        3.1.3 “開放性”監(jiān)管理念

        人工智能的技術(shù)發(fā)展需要全球相關(guān)利益方高度協(xié)作,其可解釋性問題需要世界各國取長補短,協(xié)同解決。倡導(dǎo)“開放性”監(jiān)管理念,集合各國智慧與經(jīng)驗,及時調(diào)整監(jiān)管政策和監(jiān)管制度共同促進技術(shù)發(fā)展,進而構(gòu)建相關(guān)利益方之間的平等對話、技術(shù)交流。

        3.2 完善人工智能國際合作監(jiān)管規(guī)制體系

        目前,國內(nèi)外立法嘗試從數(shù)據(jù)、風(fēng)險等方面對人工智能的可解釋性進行規(guī)制,提出對技術(shù)應(yīng)用、隱私保護、倫理道德、法律法規(guī)等維度進行體系化研究,統(tǒng)籌推進立法監(jiān)管,構(gòu)建完善的可解釋性監(jiān)管規(guī)制體系。

        3.2.1 健全立法引領(lǐng)

        有觀點認為技術(shù)應(yīng)用能解決一切問題,著重強調(diào)技術(shù)的絕對性。眾所周知,技術(shù)應(yīng)用不可能潔白無瑕。未來的人工智能治理需要“硬性的立法指引”和“柔性的技術(shù)標(biāo)準”協(xié)同推進?!傲⒎ㄖ敢毙枰獙θ斯ぶ悄艿目傮w布局作出概括性引領(lǐng),旨在監(jiān)管人工智能技術(shù)適用的基礎(chǔ),而“技術(shù)標(biāo)準”的國際統(tǒng)一和兼容則是監(jiān)管人工智能技術(shù)應(yīng)用的前提[7]。因此,可在立法與標(biāo)準層面尋求突破。首先,在立法層面積極借鑒國際規(guī)則和經(jīng)驗,深入研究人工智能新情況新場景,推動區(qū)域性國際組織、國際聯(lián)盟等利益相關(guān)方共同參與全球人工智能規(guī)則制定;其次,通過規(guī)范國際標(biāo)準,聯(lián)動國際組織在國際標(biāo)準方面的合作,尋求共識,推動形成“國際標(biāo)準頂層設(shè)計引導(dǎo),國際組織高頻率協(xié)作,國際技術(shù)標(biāo)準協(xié)同推進”的良好局面。

        3.2.2 細化監(jiān)管規(guī)范

        建議積極加強各類標(biāo)準規(guī)范,不斷完善國際層面的監(jiān)管法律法規(guī),以其靈活性的特質(zhì)對倫理、隱私等問題作出細致安排,推動人工智能發(fā)展規(guī)則落地,保障人權(quán):其一,倫理方面。人工智能倫理治理的實施難點之一,就是構(gòu)建可行的人工智能倫理監(jiān)管準則,有效避免“人工智能倫理與可解釋性要求撞車”的尷尬局面,發(fā)展易懂的可信人工智能[8],比如,2017年12月,電氣與電子工程師協(xié)會(IEEE)發(fā)布《合倫理設(shè)計》報告,在五條倫理原則中,第四條即為透明性,指出透明性意味著可以發(fā)展人工智能系統(tǒng)如何、為何做出某個特定的決策。同時,IEEE強調(diào)透明性對不同的利益相關(guān)者有著不同的內(nèi)涵,對于用戶來說,透明性意味著它為用戶提供某種簡單的方式,用以理解人工智能系統(tǒng)正在做什么,以及為何這樣做。其二,隱私方面。建議各國充分尊重和保護隱私權(quán),考慮按照國際法準則制定監(jiān)管法律法規(guī),完善個人信息等方面的數(shù)據(jù)保護法規(guī),充分考量侵犯女性以及兒童隱私權(quán)的救濟[9]。

        3.2.3 基于風(fēng)險的監(jiān)管規(guī)制體系

        人工智能帶給人類眾多福祉的同時,也可能產(chǎn)生潛在風(fēng)險。對人工智能進行有效的風(fēng)險防控和法治化應(yīng)對成為當(dāng)務(wù)之急。第一,技術(shù)合規(guī)。技術(shù)完善是人工智能系統(tǒng)風(fēng)險防控的基礎(chǔ)和前提。人工智能系統(tǒng)的風(fēng)險多半是因技術(shù)滯后等問題產(chǎn)生。因此,建議政府專業(yè)部門、業(yè)界人員等權(quán)威專家共同制定技術(shù)合規(guī)標(biāo)準以適應(yīng)技術(shù)創(chuàng)新發(fā)展,并且大力發(fā)展人工智能、區(qū)塊鏈等新技術(shù),與時俱進;第二,風(fēng)險分級分類監(jiān)管規(guī)制。風(fēng)險無法完全根除,但可轉(zhuǎn)而對其進行適度處理,采取風(fēng)險分級分類監(jiān)管方式,平衡創(chuàng)新發(fā)展與規(guī)制需要。比如,2021年4月21日歐盟發(fā)布了《人工智能法案》,這是世界范圍內(nèi)第一份綜合性人工智能法案,為人工智能治理提供“硬法”支持。該法案采取風(fēng)險分級方法,突出人工智能治理的道德優(yōu)勢,其中分為四類風(fēng)險分級方法,分別是不可接受的風(fēng)險、高風(fēng)險、有限風(fēng)險和最低風(fēng)險,對以上不同風(fēng)險級別的人工智能系統(tǒng)采取不同的限制措施。

        3.3 構(gòu)建人工智能國際合作監(jiān)管機制

        在全球發(fā)展治理中,充分考慮各國人工智能監(jiān)管的基礎(chǔ)條件、相關(guān)政策的發(fā)展?fàn)顩r以及全球競爭情況等,努力識別監(jiān)管機制的現(xiàn)存缺陷;通過倡導(dǎo)新型共識性合作、搭建算法治理平臺和法律與技術(shù)的綜合運用,逐步減輕各國監(jiān)管負擔(dān),填補利益相關(guān)方的合作空白,真正建立全球化服務(wù)平臺,擴散機制。具體而言:其一,推動國際社會在一些根本性原則和道德倫理要求上達成共識,努力創(chuàng)造一個具有共識性的治理決策機制[10];其二,算法、模型等解釋方法的創(chuàng)新適用,有利于滿足人工智能可解釋性要求,因此,積極推動開展持續(xù)、明確的多邊算法合作,確保人工智能技術(shù)的穩(wěn)步創(chuàng)新[11];其三,技術(shù)控制是風(fēng)險防范的基礎(chǔ)和前提,法律控制又為技術(shù)發(fā)展提供法治保障,二者結(jié)合共同提升智能化、數(shù)字化的市場監(jiān)管便利[12]。

        4 結(jié)語

        堅持國際視野、全球思維和全球化道路,以問題為導(dǎo)向,秉持協(xié)同主義監(jiān)管理念強化國際合作,呼吁世界各國搭建全球化服務(wù)平臺,促進國際交流,廣泛組織人工智能國際合作。鑒于單一化發(fā)展的局限與不足,通過借助國際合作的監(jiān)管機制和平臺,重塑人工智能國際合作的監(jiān)管理念,形成一套與可解釋性要求相適應(yīng)的監(jiān)管體系,突破監(jiān)管困境。伴隨大數(shù)據(jù)、云計算和區(qū)塊鏈等新技術(shù)革命浪潮,各界有必要思考人工智能時代可解釋性問題的可行性解決方案。人工智能行業(yè)的未來發(fā)展離不開多舉措、多維度、長周期的跨越式國際合作監(jiān)管。

        猜你喜歡
        解釋性倫理人工智能
        著力構(gòu)建可解釋性模型
        《心之死》的趣味與倫理焦慮
        論行政自由裁量的“解釋性控權(quán)”
        法律方法(2021年4期)2021-03-16 05:35:16
        護生眼中的倫理修養(yǎng)
        活力(2019年19期)2020-01-06 07:37:00
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        人工智能與就業(yè)
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        融媒體時代解釋性報道的發(fā)展之路
        傳播力研究(2017年5期)2017-03-28 09:08:30
        下一幕,人工智能!
        非解釋性憲法適用論
        久久精品天堂一区二区| 久久99国产精品久久| 久久aaaa片一区二区| 精品水蜜桃久久久久久久| 成年午夜无码av片在线观看| 日韩国产成人精品视频| 白丝美女扒开内露出内裤视频| 丁香婷婷激情视频在线播放| 凹凸在线无码免费视频| 亚洲一级毛片免费在线观看| 青青草久热手机在线视频观看| 久久精品不卡一区二区三区| 国产后入又长又硬| 国产在视频线精品视频www666| 国产精品亚洲一区二区三区正片| 色偷偷亚洲精品一区二区| 国产日产欧产精品精品蜜芽| 99精品国产99久久久久久97 | 亚洲暴爽av天天爽日日碰| 亚洲人成网站18男男| 狼人狠狠干首页综合网| 久久精品国产亚洲av精东| 97在线观看| 亚洲日韩精品久久久久久| 国产三级精品三级在线观看粤语| 亚洲国产精品中文字幕久久| 亚洲国产精品久久人人爱| 手机看片1024精品国产| 亚洲一区二区女优视频| 色爱情人网站| 少妇饥渴xxhd麻豆xxhd骆驼 | 国产成人精品av| 狠狠躁夜夜躁人人爽天天| 国产91精品清纯白嫩| 国产免费观看久久黄av麻豆| 中国女人做爰视频| 久久精品国产免费观看99| 水蜜桃在线观看一区二区国产 | 97精品熟女少妇一区二区三区| а√天堂资源官网在线资源| 久久乐国产精品亚洲综合|