董 汀,黃智堯
(1.清華大學(xué)戰(zhàn)略與安全研究中心,北京 100084;2.中央財(cái)經(jīng)大學(xué),北京 100081)
人工智能治理已經(jīng)成為全球治理領(lǐng)域的重要話題?,F(xiàn)有討論多數(shù)圍繞人工智能技術(shù)本身存在的多種不確定性風(fēng)險(xiǎn),從數(shù)據(jù)流動(dòng)、使用或技術(shù)倫理的角度進(jìn)行思考和設(shè)計(jì)。這些討論有益于推動(dòng)美歐等主要國(guó)家開(kāi)展人工智能治理的規(guī)則建設(shè)。但“不確定性”不能簡(jiǎn)單地與風(fēng)險(xiǎn)畫(huà)等號(hào),也就是說(shuō),并非預(yù)設(shè)了針對(duì)不同可能的規(guī)則,就可以完美治理人工智能技術(shù)。本文的研究目標(biāo)是從超越技術(shù)的視角,深入分析人工智能的“不確定性”可能會(huì)給國(guó)際關(guān)系帶來(lái)何種影響,思考如何推動(dòng)更廣泛的政策建議和規(guī)范措施,以促進(jìn)人工智能的可持續(xù)發(fā)展和最大化其有益于社會(huì)進(jìn)步的潛力。
確定性是指一種狀態(tài),即沒(méi)有疑問(wèn)[1]。確定性所對(duì)應(yīng)的信息與知識(shí)沒(méi)有錯(cuò)誤和缺失。唯一性是確定性的本質(zhì)特征,在條件放寬的情況下,穩(wěn)定性、規(guī)律性也可以視為確定性。不確定性與確定性相對(duì),不確定性是指一種有疑問(wèn)、知識(shí)不完備,乃至無(wú)知的狀態(tài)。人類(lèi)對(duì)現(xiàn)在或未來(lái)的事物狀態(tài)無(wú)法給出唯一的準(zhǔn)確判斷或預(yù)測(cè)。即使事物的狀態(tài)或者結(jié)果是確定的,也因?yàn)槿祟?lèi)認(rèn)知水平的受限,無(wú)法清晰完整地認(rèn)識(shí)事物??v觀人類(lèi)自然科學(xué)的發(fā)展歷史,自近現(xiàn)代的笛卡爾時(shí)代起,科學(xué)家就在他們自己的研究領(lǐng)域以能否獲得確定性的規(guī)律和結(jié)論作為成敗標(biāo)準(zhǔn),因果必然性的機(jī)械決定論已經(jīng)深入在一眾科學(xué)家的思想之中。但是隨著概率論和統(tǒng)計(jì)規(guī)律的引入,人類(lèi)開(kāi)始研究具有不確定性的相關(guān)現(xiàn)象,之后隨著混沌系統(tǒng)、量子力學(xué)等當(dāng)代科學(xué)的不斷深入研究,越來(lái)越多的科學(xué)成果表明,客觀世界的確定性是有限的,不確定性才是更為普遍的情況。
不確定性可以從兩個(gè)角度來(lái)看待。一是客觀存在的不確定性,即“確定的不確定”。在現(xiàn)實(shí)結(jié)果實(shí)現(xiàn)之前,其任何一種因果鏈都是可能的,事物的狀態(tài)和結(jié)果存在多種潛在的可能性,且某種可能性的實(shí)現(xiàn)與人類(lèi)對(duì)其的認(rèn)知無(wú)關(guān)。二是“不確定的不確定”。人的世界觀造成不確定性,即使事物的過(guò)程和結(jié)果是確定性的,但是因?yàn)槿说恼J(rèn)知路徑依賴(lài)及事物狀態(tài)的全部信息不可能完全獲取,因此人也無(wú)法對(duì)事物的確定性做出準(zhǔn)確描述,最終結(jié)果也不可能隨著部分信息的增加而可預(yù)知。
人工智能是以基于大數(shù)據(jù)的復(fù)雜算法為核心,以對(duì)人類(lèi)智能的模擬、延伸和超越為目標(biāo)的技術(shù)。人工智能的不確定性主要來(lái)自數(shù)據(jù)、算法、環(huán)境交互3個(gè)方面。
首先,數(shù)據(jù)是人工智能技術(shù)和產(chǎn)業(yè)發(fā)展的關(guān)鍵核心要素之一。作為以深度學(xué)習(xí)為代表的算法模型研究和訓(xùn)練的基礎(chǔ),數(shù)據(jù)的質(zhì)量對(duì)算法的效果起著至關(guān)重要的作用[2]。數(shù)據(jù)缺失、噪聲干擾等問(wèn)題都會(huì)影響算法的輸出結(jié)果。其次,人工智能的算法邏輯是其做出決策判斷的根基。復(fù)雜算法可以模擬人類(lèi)的決策和思維,然而人類(lèi)無(wú)法對(duì)算法的每一步編譯進(jìn)行有效控制,無(wú)法準(zhǔn)確設(shè)置各變量的權(quán)重,也無(wú)法完全明白數(shù)以萬(wàn)計(jì)的銜接值是如何發(fā)揮作用并形成決策樹(shù)的工作機(jī)制的。同時(shí),算法運(yùn)行的動(dòng)態(tài)性又會(huì)加劇各變量之間的關(guān)系和權(quán)重。
此外,人工智能的不確定性還體現(xiàn)在與環(huán)境的交互上。人工智能與外界的交互影響是一個(gè)復(fù)雜而多層次的互動(dòng)過(guò)程。首先,人工智能在輸入數(shù)據(jù)和訓(xùn)練算法的過(guò)程中會(huì)面臨語(yǔ)境中的各種前提和偏見(jiàn),社群之間的價(jià)值差異、文化隔閡會(huì)導(dǎo)致觀點(diǎn)立場(chǎng)和預(yù)設(shè)目標(biāo)的不同。因此,對(duì)不同語(yǔ)境中的主觀性、價(jià)值對(duì)立等不確定的因素難以排除,這些因素在人工智能提取并學(xué)習(xí)后構(gòu)成了人工智能的不確定性。最后,對(duì)于不同環(huán)境下人工智能的認(rèn)知所形成的共識(shí)是受限于環(huán)境的,或是短暫的。在不斷研究知識(shí)的過(guò)程中,人們會(huì)意識(shí)到之前的共識(shí)是一種錯(cuò)誤觀念。同時(shí),人工智能可能被運(yùn)用于人類(lèi)不完全認(rèn)知,甚至尚未認(rèn)知的領(lǐng)域。
1.3.1 數(shù)據(jù)的法律風(fēng)險(xiǎn)
在數(shù)據(jù)方面,數(shù)據(jù)采集過(guò)程的合法合規(guī)性存在較大的治理風(fēng)險(xiǎn)。從保護(hù)個(gè)人數(shù)據(jù)的角度來(lái)看,數(shù)據(jù)主體除了擁有數(shù)據(jù)的所有權(quán),還有更廣泛的權(quán)利,其中包括但不限于被遺忘權(quán)[3]、數(shù)據(jù)攜帶權(quán)[4]、限制處理權(quán)[5]等。
隨著人工智能在日常生活中的廣泛應(yīng)用,我們將面臨越來(lái)越多與公眾隱私權(quán)相關(guān)的法律風(fēng)險(xiǎn)。算法通常需要不斷尋找、挖掘并收集個(gè)人的數(shù)字活動(dòng)記錄,進(jìn)而對(duì)個(gè)人進(jìn)行精準(zhǔn)畫(huà)像。這個(gè)過(guò)程主要的風(fēng)險(xiǎn)包括在數(shù)據(jù)擁有者不知情、未授權(quán)前提下的數(shù)據(jù)收集[6],在實(shí)踐中個(gè)人信息也很容易被泄露而直接應(yīng)用于其他商業(yè)目的,甚至非法目的。這不僅損害了用戶(hù)的人格權(quán)益,而且還可能因下游侵害產(chǎn)生財(cái)產(chǎn)損失[7]。
此外,即使是對(duì)公共信息的使用也是存在爭(zhēng)議的。公共信息的產(chǎn)生往往是由于利他主義驅(qū)動(dòng),信息在互聯(lián)網(wǎng)上被提供,很難控制信息的受眾。信息主體在提供數(shù)據(jù)時(shí)并不會(huì)預(yù)料到數(shù)據(jù)會(huì)被用于人工智能系統(tǒng),這遠(yuǎn)遠(yuǎn)超出了數(shù)據(jù)主體預(yù)設(shè)的數(shù)據(jù)使用預(yù)期。同時(shí),由于規(guī)模效應(yīng)使得算法的平均成本下降以及因更大數(shù)據(jù)集而提升的決策能力,大公司的高能力人工智能會(huì)使其所有者變得非常富裕且具有影響力,允許免費(fèi)使用數(shù)據(jù)會(huì)加速不平等的擴(kuò)大。有學(xué)者要求使用者為公開(kāi)信息領(lǐng)域的使用付費(fèi),建議對(duì)于在公共信息領(lǐng)域引入數(shù)據(jù)使用的累進(jìn)稅[8]。
1.3.2 算法的決策風(fēng)險(xiǎn)
當(dāng)前,人工智能已深深嵌入社會(huì)運(yùn)行的方方面面,因?yàn)樗惴ㄗ陨淼奶匦?,基于?shù)據(jù)和算法的決策并不符合所有社會(huì)群體的長(zhǎng)遠(yuǎn)意義,而引發(fā)的社會(huì)風(fēng)險(xiǎn)主要體現(xiàn)在3個(gè)方面:數(shù)字鴻溝加劇社群割裂、技術(shù)弱勢(shì)人群利益被忽略、算法偏見(jiàn)強(qiáng)加意愿影響公平。
人工智能可能加劇“信息繭房”現(xiàn)象,由此引發(fā)的數(shù)字鴻溝會(huì)加劇社群的割裂。大眾媒體時(shí)期,人們會(huì)接受各種各樣的信息,這一過(guò)程打破了信息繭房,而當(dāng)使用人工智能進(jìn)行推送之后,用戶(hù)的信息數(shù)據(jù)經(jīng)算法分析后,通過(guò)協(xié)同過(guò)濾、內(nèi)容推薦、相似性推薦等算法機(jī)制,圍繞用戶(hù)的興趣愛(ài)好不斷地推送符合其偏好的信息,將與用戶(hù)觀念相左的信息排除在外,平臺(tái)、算法在一定程度上固化了人們的信息獲取途徑[9]。算法與用戶(hù)的相互配合加劇了信息繭房的產(chǎn)生[10]。此外,算法應(yīng)用平臺(tái)傾向于將用戶(hù)劃分為不同的群體,以此作為依據(jù)推送不同信息,不同社群間形成了一道極深的數(shù)字鴻溝,由此加劇了群體內(nèi)部的極端化程度,導(dǎo)致群體極化現(xiàn)象的產(chǎn)生[11]。
在運(yùn)用大數(shù)據(jù)和人工智能技術(shù)方面,一方面,技術(shù)弱勢(shì)群體由于缺乏技術(shù)培訓(xùn)和資源,他們可能無(wú)法充分利用人工智能的潛力,更無(wú)法把握數(shù)字時(shí)代的發(fā)展機(jī)遇[12]。另一方面,由于經(jīng)濟(jì)、社會(huì)或地理上的限制,算法可能無(wú)法輕松獲取技術(shù)弱勢(shì)群體的大量數(shù)據(jù),例如,老年人、語(yǔ)言弱勢(shì)群體、文化弱勢(shì)群體等人口在互聯(lián)網(wǎng)中活躍度不高,這使得他們?cè)跀?shù)據(jù)驅(qū)動(dòng)的決策和創(chuàng)新中處于不利地位,人工智能在進(jìn)行決策時(shí)也會(huì)忽略這部分群體的情況與立場(chǎng)。弱勢(shì)群體在數(shù)字化過(guò)程中遭遇明顯的排斥或邊緣化,在對(duì)相關(guān)資源的分配上將弱勢(shì)群體邊緣化甚至遺忘。
同時(shí),算法的設(shè)計(jì)和編寫(xiě)不可避免地會(huì)受到編程人員的主觀意識(shí)和價(jià)值觀的影響。在算法實(shí)現(xiàn)的過(guò)程中,編寫(xiě)者會(huì)做出一系列價(jià)值取舍,甚至傾向于符合自身利益的選擇。這種主觀性使得算法天生帶有一定程度的偏見(jiàn)[13]。比起技術(shù)因素,人為設(shè)置的算法偏見(jiàn)更加值得關(guān)注,如平臺(tái)企業(yè)可能會(huì)以歧視性定價(jià)方式對(duì)待終端消費(fèi)者,外賣(mài)平臺(tái)可能會(huì)強(qiáng)制騎手進(jìn)行苛刻的派單和配送要求。因此,我們需要認(rèn)識(shí)到算法的偏見(jiàn)問(wèn)題,并尋求解決方案來(lái)確保算法的公正性和中立性,以保護(hù)個(gè)人權(quán)益和社會(huì)公平。
1.3.3 人機(jī)交互的道德風(fēng)險(xiǎn)
除了數(shù)據(jù)選擇和算法主體的偏見(jiàn)性,人工智能的使用在人機(jī)交互中也存在明顯的道德風(fēng)險(xiǎn)。在傳統(tǒng)的倫理秩序中,人類(lèi)決定著機(jī)器如何開(kāi)展工作,機(jī)器依附于人類(lèi)。然而在人工智能時(shí)代,人工智能的決策能力遠(yuǎn)優(yōu)于人類(lèi)。在這種情況下,人的主體性開(kāi)始出現(xiàn)異化的跡象[14],人類(lèi)的角色不再是唯一的決策者和控制者。人類(lèi)變得越來(lái)越依賴(lài)于機(jī)器的智能和技術(shù),而機(jī)器則扮演著更加主導(dǎo)和決策的角色。這種變化引發(fā)了對(duì)人類(lèi)主體性的關(guān)切,我們需要重新思考和定義人與機(jī)器的關(guān)系,以確保人類(lèi)的價(jià)值和尊嚴(yán)在智能化時(shí)代得到充分的保障和尊重。
人工智能的使用者在運(yùn)用這項(xiàng)技術(shù)時(shí),也應(yīng)該充分意識(shí)到其自身在操作和運(yùn)用過(guò)程中所帶來(lái)的倫理影響[15]。自動(dòng)駕駛是最容易產(chǎn)生算法倫理困境的一個(gè)領(lǐng)域,如在經(jīng)典的思想實(shí)驗(yàn)“電車(chē)難題”中,功利主義選擇會(huì)改變軌道,讓電車(chē)殺死一個(gè)人,功利主義強(qiáng)調(diào)利益的最大化,義務(wù)主義不會(huì)選擇改變電車(chē)軌道,義務(wù)主義強(qiáng)調(diào)對(duì)規(guī)則進(jìn)行分層,設(shè)置明確的優(yōu)先級(jí)。從算法設(shè)計(jì)的角度來(lái)看,優(yōu)先級(jí)最高的規(guī)則可以是禁止車(chē)輛主動(dòng)傷害人類(lèi)、禁止違反法規(guī)等限制,人工智能不應(yīng)該以傷害他人的方式去拯救陷入風(fēng)險(xiǎn)的人[16]。如果將人類(lèi)尚未達(dá)成統(tǒng)一道德標(biāo)準(zhǔn)的事務(wù)交給機(jī)器和算法時(shí),將會(huì)在人工智能與人交互和實(shí)踐中產(chǎn)生巨大的爭(zhēng)議[17]。
在醫(yī)療領(lǐng)域,人工智能輔助決策涉及多個(gè)環(huán)節(jié)和主體,各個(gè)主體的價(jià)值不同,制造商可能會(huì)為了市場(chǎng)利益,醫(yī)生追求診斷率,政府追求社會(huì)效應(yīng)最大化,發(fā)生醫(yī)療事故時(shí),算法的技術(shù)黑箱將為責(zé)任歸屬帶來(lái)顯見(jiàn)的困難。此外,輔助決策系統(tǒng)可能會(huì)使得醫(yī)生的醫(yī)療水平下降,當(dāng)醫(yī)生對(duì)輔助決策系統(tǒng)建立信任后,醫(yī)生的診斷能力可能會(huì)低于預(yù)期水平,醫(yī)生發(fā)現(xiàn)決策系統(tǒng)的錯(cuò)誤概率會(huì)更小[18]。
在人工智能技術(shù)發(fā)展中,我們面臨一個(gè)重要的治理挑戰(zhàn),即如何在享受人工智能帶來(lái)的收益的同時(shí),規(guī)避主體性異化的風(fēng)險(xiǎn)。這意味著我們需要一種平衡之道,使人類(lèi)智能和人工智能兩者的功能都能得到充分發(fā)揮,據(jù)此,歐美國(guó)家均率先做出了探索。
隨著人工智能在全球社會(huì)生活中的滲透,參與國(guó)際治理的主體變得更加多元。
首先,不同于以往以國(guó)家和國(guó)際組織為主,新的主體還涵蓋了跨國(guó)企業(yè)和跨國(guó)科學(xué)家共同體,他們都對(duì)國(guó)際關(guān)系產(chǎn)生重要影響。跨國(guó)企業(yè)在人工智能技術(shù)開(kāi)發(fā)和應(yīng)用中具有壟斷優(yōu)勢(shì),他們將成為在特定領(lǐng)域提供公共產(chǎn)品和服務(wù)的重要行為體。他們的獨(dú)立性和話語(yǔ)權(quán)使得其能夠在國(guó)際關(guān)系中獨(dú)立參與政治交易,并為中小國(guó)家提供相應(yīng)領(lǐng)域的支持和合作。同時(shí),人工智能科學(xué)家組成的學(xué)術(shù)共同體也在推動(dòng)技術(shù)進(jìn)步,以及在制定技術(shù)標(biāo)準(zhǔn)方面發(fā)揮著關(guān)鍵作用。一方面,他們構(gòu)成了一個(gè)具有共同范式和價(jià)值觀的跨國(guó)共同體,對(duì)于推動(dòng)人工智能的發(fā)展和應(yīng)用具有重要影響力。另一方面,學(xué)術(shù)共同體的組建仍具有不確定性,即使能夠成為一個(gè)具有相對(duì)影響力的獨(dú)立主體,他們依舊要依附于特定的國(guó)家。
其次,主權(quán)國(guó)家和跨國(guó)企業(yè)之間的關(guān)系出現(xiàn)改變。主權(quán)國(guó)家在與跨國(guó)企業(yè)互動(dòng)時(shí)需要權(quán)衡利益和權(quán)利讓渡的邊界。主權(quán)國(guó)家也需要利用跨國(guó)企業(yè)的成功來(lái)推動(dòng)本國(guó)經(jīng)濟(jì)發(fā)展和產(chǎn)業(yè)進(jìn)步。然而,主權(quán)國(guó)家也要防止跨國(guó)企業(yè)侵蝕核心權(quán)力和削弱主導(dǎo)地位。在處理技術(shù)權(quán)力壟斷方面,主權(quán)國(guó)家和跨國(guó)企業(yè)之間存在一定的共識(shí)??茖W(xué)家共同體對(duì)于技術(shù)的發(fā)展闡釋和戰(zhàn)略規(guī)劃具有壟斷的地方,需要設(shè)計(jì)新的機(jī)制對(duì)其進(jìn)行限制[19]。
最后,不同主體的治理目標(biāo)出現(xiàn)沖突。主權(quán)國(guó)家會(huì)維持過(guò)去的形式,以權(quán)力和利益為核心展開(kāi)競(jìng)爭(zhēng)與博弈,依賴(lài)國(guó)家力量來(lái)維護(hù)自身利益。而跨國(guó)企業(yè)則更注重經(jīng)濟(jì)利益,相較于競(jìng)爭(zhēng),它們更傾向于在合作中尋求利益最大化。與此同時(shí),科學(xué)家共同體的運(yùn)行具有全球化特征,以科學(xué)規(guī)則為核心標(biāo)準(zhǔn)來(lái)維持其穩(wěn)定結(jié)構(gòu)。這意味著在新時(shí)代國(guó)際體系中,不同層次的目標(biāo)下存在多樣的運(yùn)行規(guī)則。這種多樣性意味著各主體之間需要經(jīng)過(guò)漫長(zhǎng)的磨合才能確立穩(wěn)定的權(quán)力邊界,以確保整個(gè)體系的穩(wěn)定和有效運(yùn)行。
傳統(tǒng)國(guó)際關(guān)系理論對(duì)權(quán)力“決定論”的邏輯及對(duì)技術(shù)問(wèn)題的解釋力較弱?,F(xiàn)實(shí)主義沒(méi)有辦法解釋諸如為什么17世紀(jì)哥白尼的日心說(shuō)、牛頓的物理學(xué)、開(kāi)普勒定律以及制表技術(shù)都已被日本的天文學(xué)家和工匠所了解和掌握的時(shí)候,歐洲的機(jī)械鐘表依然無(wú)法進(jìn)入日本市場(chǎng)。自由主義強(qiáng)調(diào)技術(shù)的應(yīng)用需要政治、經(jīng)濟(jì)的塑造,滿(mǎn)足社會(huì)文化的需求,但是政策、規(guī)則、利益對(duì)技術(shù)的影響既不是一勞永逸,也無(wú)法立竿見(jiàn)影。比如,1945年日本廣島核爆炸,直到1996年世界主要國(guó)家才達(dá)成了《全面禁止核試驗(yàn)條約》的簽署,迄今仍未生效。而作為互聯(lián)網(wǎng)所普遍基于的技術(shù)和體系結(jié)構(gòu),TCP/IP協(xié)議在20世紀(jì)70年代末就已經(jīng)出現(xiàn),但互聯(lián)網(wǎng)對(duì)世界政治、經(jīng)濟(jì)的影響到20世紀(jì)90年代后期才顯現(xiàn)出來(lái)。建構(gòu)主義津津樂(lè)道的一個(gè)例子是在冷戰(zhàn)正酣時(shí)期,美蘇核物理學(xué)家仍然能通過(guò)“帕格沃什運(yùn)動(dòng)”保持溝通的渠道,科學(xué)家之間的相互信任和交流達(dá)成的技術(shù)認(rèn)知一致性,使得兩國(guó)就新的軍備控制達(dá)成一致成為可能??扇缃袢蚍秶鷥?nèi),既沒(méi)有哪兩個(gè)大國(guó)有當(dāng)年美蘇一般近乎對(duì)等的軍事實(shí)力,也沒(méi)有類(lèi)似古巴導(dǎo)彈危機(jī)、黑海撞艦等實(shí)質(zhì)性危機(jī)所展示出的真切戰(zhàn)爭(zhēng)前景,在國(guó)際關(guān)系研究范疇中,對(duì)意圖、信念的討論最終要么只能呼吁增信釋疑,要么重新回到強(qiáng)調(diào)規(guī)則的類(lèi)似自由主義軌道,而國(guó)與國(guó)之間價(jià)值觀的差異和互疑無(wú)法消除,對(duì)話與合作即便可以達(dá)成相互理解,仍與相互認(rèn)可相差甚遠(yuǎn)。
現(xiàn)實(shí)中,人工智能技術(shù)更加稀釋了技術(shù)與權(quán)力關(guān)聯(lián)的因果關(guān)系。與制造業(yè)時(shí)代不同,技術(shù)投入保證特定部件產(chǎn)出特定產(chǎn)品的邏輯已完全改變,一項(xiàng)有深度學(xué)習(xí)能力的技術(shù)投入,可能產(chǎn)生另外的過(guò)程,帶來(lái)無(wú)法預(yù)見(jiàn)的結(jié)果。人工智能前所未有的不可控、不可知,再疊加其本身固有的缺陷[20],使得具體產(chǎn)品中所應(yīng)用的技術(shù),以及技術(shù)的組合難以追回,更無(wú)法解釋。人工智能技術(shù)的領(lǐng)域擴(kuò)散將對(duì)經(jīng)濟(jì)發(fā)展模式產(chǎn)生重要影響,改變各個(gè)生產(chǎn)要素之間的關(guān)系,勞動(dòng)力要素的重要性逐步下降,技術(shù)主體和數(shù)據(jù)主體擁有了更多的話語(yǔ)權(quán)[21],政治結(jié)構(gòu)需要適應(yīng)新的經(jīng)濟(jì)結(jié)構(gòu),因而改變了治理模式。
同時(shí),人工智能影響的不僅僅是生產(chǎn)力,更是在歷史發(fā)展維度上整個(gè)社會(huì)的變遷。在人工智能時(shí)代,新型認(rèn)知模式會(huì)參與塑造下一代人的世界觀,傳統(tǒng)人類(lèi)社會(huì)的價(jià)值觀將面臨重構(gòu),各種不同理念將會(huì)長(zhǎng)期碰撞。因此治理規(guī)則的設(shè)計(jì),不應(yīng)當(dāng)討論由誰(shuí)來(lái)制定,為哪個(gè)國(guó)家的利益服務(wù),而是關(guān)注制定什么樣的規(guī)則,與更廣闊的世界相互溝通。
聯(lián)合國(guó)秘書(shū)長(zhǎng)古特雷斯曾多次指出,人工智能將對(duì)人類(lèi)生活的方方面面產(chǎn)生影響,“和平與安全”已經(jīng)與人工智能的應(yīng)用產(chǎn)生了廣泛聯(lián)系,人工智能安全化復(fù)雜程度不斷加重。一是軍民技術(shù)的邊界模糊是客觀存在的。基于人工智能技術(shù)原理,純民用的技術(shù)產(chǎn)品可以通過(guò)大量數(shù)據(jù)訓(xùn)練升級(jí)算法,經(jīng)過(guò)幾次迭代后,新算法就存在為軍品所用的可能。二是人工智能所依賴(lài)的基礎(chǔ)設(shè)施已經(jīng)成熟至商用階段,但相應(yīng)的國(guó)際技術(shù)標(biāo)準(zhǔn)尚未統(tǒng)一??紤]到研發(fā)階段大量的成本投入及大規(guī)模應(yīng)用后的市場(chǎng)收益前景,對(duì)標(biāo)準(zhǔn)的爭(zhēng)奪是經(jīng)濟(jì)利益驅(qū)動(dòng)的必然。三是隨著全球經(jīng)濟(jì)數(shù)字轉(zhuǎn)型的深入,“智慧政府”“數(shù)字城市”已然成為趨勢(shì),越來(lái)越多的公共服務(wù)部門(mén)成為人工智能技術(shù)產(chǎn)品用戶(hù)。如此一來(lái),技術(shù)在制造、設(shè)計(jì)和投入運(yùn)行之前的階段越來(lái)越依靠政治決策,而不是傳統(tǒng)意義上等技術(shù)成為整個(gè)社會(huì)的高度依賴(lài)之后,再研究補(bǔ)救方案,既不經(jīng)濟(jì),也過(guò)于被動(dòng)。四是近年來(lái),世界政治格局碎片化加劇,國(guó)家間相互信任逐漸下降,對(duì)微弱信號(hào)的過(guò)度解讀,對(duì)所有問(wèn)題包括人工智能技術(shù)的一攬子安全化傾向嚴(yán)重。
3.1.1 歐盟的人工智能治理歷史
2015年1月,歐盟法律事務(wù)委員會(huì)(European Parliament's Committee on Legal Affairs,JURI)成立了專(zhuān)門(mén)的工作小組以更好地解決機(jī)器人和人工智能發(fā)展涉及的問(wèn)題。2016年5月,JURI發(fā)布《關(guān)于機(jī)器人民事法律規(guī)則提出立法建議的報(bào)告草案》,人工智能治理開(kāi)始逐步成為歐盟立法議程的一個(gè)核心議題。2017年2月,歐洲議會(huì)通過(guò)《機(jī)器人民事法律規(guī)則》。2017年5月,歐洲經(jīng)濟(jì)與社會(huì)委員會(huì)(European Economic and Social Committee,EESC)發(fā)布了《人工智能對(duì)(數(shù)字)單一市場(chǎng)、生產(chǎn)、消費(fèi)、就業(yè)和社會(huì)的影響》,報(bào)告指出人工智能的發(fā)展將對(duì)倫理、隱私等11個(gè)領(lǐng)域帶來(lái)的機(jī)遇和挑戰(zhàn)。
2018年4月,歐盟委員會(huì)發(fā)布了《歐盟人工智能》(Artificial Intelligent for Europe),標(biāo)志著歐盟正式提出人工智能戰(zhàn)略。該戰(zhàn)略提出以人為本的人工智能發(fā)展路徑,在不斷提升科技和產(chǎn)業(yè)水平的同時(shí),人們也會(huì)面對(duì)人工智能在倫理、法律等領(lǐng)域帶來(lái)的挑戰(zhàn)。歐盟的人工智能戰(zhàn)略包含3個(gè)方面:一是將人工智能融入各行各業(yè),提升技術(shù)和產(chǎn)業(yè)水平;二是讓教育培訓(xùn)體系緊跟人工智能帶來(lái)社會(huì)經(jīng)濟(jì)變革,培養(yǎng)多元人才;三是建立適當(dāng)?shù)膫惱砗头煽蚣?,制定人工智能倫理指南(AI Ethics Guidelines)。
2021年4月,歐盟委員會(huì)提出了《人工智能法案》,探索如何為開(kāi)發(fā)和部署人工智能提供法律支持。法案旨在促進(jìn)科技創(chuàng)新的同時(shí)保障人工智能的信任度與透明度,確保人工智能的安全和道德治理。2022年12月,歐盟理事會(huì)通過(guò)了關(guān)于《人工智能法案》的共同立場(chǎng),旨在確保部署于歐盟的人工智能系統(tǒng)尊重現(xiàn)行法律。2023年6月14日,歐洲議會(huì)通過(guò)了《人工智能法案》,該法案為ChatGPT等生成式人工智能工具提供了更多的安全控制措施。按照立法程序,歐盟委員會(huì)、議會(huì)和成員國(guó)將就法案進(jìn)行三方談判協(xié)商,以確定最終版本的法案。作為全球范圍內(nèi)首部系統(tǒng)化規(guī)制人工智能的法案,該法案有望成為全球范圍內(nèi)人工智能法律監(jiān)管的重要參考。
3.1.2 歐盟的人工智能倫理框架
為促進(jìn)與規(guī)范人工智能的技術(shù)創(chuàng)新與應(yīng)用,人工智能倫理框架是其治理的重點(diǎn)領(lǐng)域。2019年4月,歐盟發(fā)布了重要文件《可信AI倫理指南》(Ethics Guidelines for Trustworthy AI),進(jìn)一步促進(jìn)了人工智能戰(zhàn)略的落實(shí)?!犊尚臕I倫理指南》中對(duì)可信人工智能給出了3個(gè)必要特征:合法性、符合倫理、穩(wěn)健性;4項(xiàng)倫理原則:尊重人類(lèi)自主性原則、防止損害原則、公平原則、可解釋原則。該框架還提出了7項(xiàng)可以落地的關(guān)鍵要求。總而言之,該框架認(rèn)為AI治理是一項(xiàng)系統(tǒng)性工程,因此為公司等其他組織提供了AI的評(píng)估清單,確保各個(gè)組織的各個(gè)部門(mén)協(xié)同參與到AI的治理過(guò)程中。
3.1.3 歐盟算法治理思路
2019年4月,歐盟發(fā)布了《算法責(zé)任與透明治理框架》(A Governance Framework for Algorithmic Accountability and Transparency),進(jìn)一步促進(jìn)了人工智能戰(zhàn)略的落實(shí)。《算法責(zé)任與透明治理框架》使用現(xiàn)實(shí)案例,闡明了不公平算法的生成原因和潛在后果。在公平性的目標(biāo)下,該報(bào)告提出以算法透明和問(wèn)責(zé)制兩大工具實(shí)現(xiàn)算法公平。同時(shí)該報(bào)告強(qiáng)調(diào)了負(fù)責(zé)任研究與創(chuàng)新在促進(jìn)實(shí)現(xiàn)算法公平中的作用和意義。在對(duì)既有案例梳理和技術(shù)問(wèn)題的分析上,該報(bào)告提出了4個(gè)治理層次的建議:提升公眾算法意識(shí)和素養(yǎng)、建立算法影響評(píng)估機(jī)制、建立監(jiān)管機(jī)制和法律制度、實(shí)現(xiàn)全球協(xié)調(diào)治理。
3.2.1 美國(guó)的人工智能治理歷史
2016年10月,奧巴馬政府發(fā)布了《人工智能戰(zhàn)略計(jì)劃》(AI Strategic Plan),提出人工智能對(duì)解放企業(yè)和工人、改善生活品質(zhì)、提升國(guó)土安全等的積極影響。
2019年2月,為維持在人工智能領(lǐng)域的領(lǐng)導(dǎo)地位,美國(guó)時(shí)任總統(tǒng)特朗普簽署了第13859號(hào)行政命令,將人工智能的發(fā)展上升為美國(guó)的國(guó)家級(jí)戰(zhàn)略,同時(shí)對(duì)外發(fā)布“美國(guó)人工智能倡議”[22]。2020年1月,美國(guó)白宮科技政策辦公室(Office of Science and Technology Policy,OSTP)發(fā)布了《人工智能應(yīng)用監(jiān)管指南》(Guidance for Regulation of Artificial Intelligence Applications),標(biāo)志著美國(guó)聯(lián)邦政府首次步入人工智能監(jiān)管領(lǐng)域。指南建議在法規(guī)效益不足以彌補(bǔ)成本時(shí)使用非監(jiān)管方式。為了促進(jìn)人工智能的發(fā)展,指南鼓勵(lì)行政機(jī)構(gòu)與私營(yíng)部門(mén)合作,同時(shí)鼓勵(lì)行政機(jī)構(gòu)公布更多聯(lián)邦數(shù)據(jù)供公眾使用。OSTP在該文件中提議監(jiān)管的10項(xiàng)指引原則,包括公眾信任AI、公眾參與、科學(xué)誠(chéng)信和信息質(zhì)量、風(fēng)險(xiǎn)評(píng)估和管理、收益與成本、靈活性、公平與非歧視、披露和透明、安全以及跨機(jī)構(gòu)合作。
2021年1月,美國(guó)正式頒布《2020年國(guó)家人工智能倡議法案》,旨在確保美國(guó)在全球AI技術(shù)領(lǐng)域保持領(lǐng)先地位,將美國(guó)人工智能計(jì)劃編入《2020國(guó)防授權(quán)法案》,保障增加研究投入、獲取計(jì)算和數(shù)據(jù)資源、設(shè)置技術(shù)標(biāo)準(zhǔn)、建立勞動(dòng)力系統(tǒng)及與盟友展開(kāi)合作。這標(biāo)志著美國(guó)政府最終完成人工智能戰(zhàn)略部署及政策設(shè)計(jì)。
2022年10月,拜登政府發(fā)布《人工智能權(quán)利法案藍(lán)圖》,希望能刺激企業(yè)更負(fù)責(zé)任地打造和部署人工智能,并對(duì)基于人工智能的監(jiān)控進(jìn)行限制。該文件旨在通過(guò)“賦予美國(guó)各地的個(gè)人、公司和政策制定者權(quán)力,并響應(yīng)拜登總統(tǒng)的呼吁,讓大型科技公司承擔(dān)責(zé)任”,以“設(shè)計(jì)、使用和部署自動(dòng)化系統(tǒng)的5項(xiàng)原則,從而在人工智能時(shí)代保護(hù)美國(guó)公眾”。這5項(xiàng)原則包括:安全有效的系統(tǒng)、算法歧視保護(hù)、數(shù)據(jù)隱私、通知和解釋?zhuān)约叭斯ぬ娲⒖紤]和回退。該文件的出臺(tái)將從科技、經(jīng)濟(jì)及軍事等方面為美國(guó)人工智能發(fā)展提供指引。
3.2.2 設(shè)立專(zhuān)項(xiàng)組織統(tǒng)籌協(xié)調(diào)人工智能治理
2018年,特朗普政府分別于5月和8月相繼成立了人工智能特別委員會(huì)(Select Committee on Artificial Intelligence,SCAI)、人工智能?chē)?guó)家安全委員會(huì)(The National Security Commission on Artificial Intelligence,NSCAI)等一系列專(zhuān)項(xiàng)技術(shù)管理組織。其中,人工智能特別委員會(huì)由國(guó)家科學(xué)技術(shù)委員會(huì)和美國(guó)科技政策辦公室負(fù)責(zé)管理。該委員會(huì)的主要任務(wù)是促進(jìn)政府、業(yè)界和學(xué)界之間的合作關(guān)系,向白宮提供關(guān)于人工智能跨機(jī)構(gòu)研究合作的建議,為加速推進(jìn)人工智能發(fā)展奠定基礎(chǔ)。人工智能?chē)?guó)家委員會(huì)由美國(guó)國(guó)家科學(xué)與技術(shù)委員會(huì)負(fù)責(zé)管理。該委員會(huì)是美國(guó)政府人工智能建設(shè)與治理體系的重要部分,委員會(huì)從頂層統(tǒng)籌設(shè)計(jì)美國(guó)人工智能的發(fā)展,對(duì)人工智能相關(guān)技術(shù)進(jìn)行審查,從而更好地維護(hù)美國(guó)的國(guó)家安全與發(fā)展。
為了人工智能?chē)?guó)家戰(zhàn)略順利部署,2021年1月,美聯(lián)邦政府成立了專(zhuān)門(mén)的國(guó)家人工智能倡議辦公室,負(fù)責(zé)監(jiān)督和實(shí)施國(guó)家人工智能戰(zhàn)略。2021年6月,OSTP和國(guó)家科學(xué)基金會(huì)(National Science Foundation,NSF)成立了國(guó)家人工智能研究資源工作組,負(fù)責(zé)制定人工智能關(guān)鍵資源的擴(kuò)大和教育路線圖,為科研人員和學(xué)術(shù)提供計(jì)算資源、數(shù)據(jù)和工具。
為在更多領(lǐng)域有效地研發(fā)部署人工智能,各聯(lián)邦部門(mén)也均成立了專(zhuān)門(mén)的人工智能管理機(jī)構(gòu)。美國(guó)國(guó)防部在2020年成立了聯(lián)合人工智能中心。2021年,美國(guó)國(guó)防部又將下屬的聯(lián)合人工智能中心與數(shù)字服務(wù)局、首席數(shù)據(jù)官辦公室進(jìn)行合并,對(duì)3個(gè)辦公室進(jìn)行統(tǒng)籌管理。此外,美國(guó)總務(wù)管理局于2020年建立了人工智能卓越中心,確保人工智能運(yùn)用于政府運(yùn)作過(guò)程中。美國(guó)能源部于2020年建立了人工智能和技術(shù)辦公室,協(xié)調(diào)部門(mén)內(nèi)部人工智能活動(dòng)[23]。美國(guó)商務(wù)部于2022年設(shè)立國(guó)家人工智能咨詢(xún)委員會(huì),為人工智能相關(guān)問(wèn)題提供建議。2023年6月,美國(guó)商務(wù)部宣布將再設(shè)立一個(gè)新的人工智能工作組,進(jìn)一步解決人工智能發(fā)展帶來(lái)的問(wèn)題。
歐盟和美國(guó)的治理主體均為多方參與、相互協(xié)同。治理模式上,歐盟更為強(qiáng)調(diào)行政主導(dǎo)作用,重視規(guī)則主導(dǎo)和風(fēng)險(xiǎn)防范;而美國(guó)更為強(qiáng)調(diào)市場(chǎng)化,注重創(chuàng)新和公私合作。
在歐盟,政府機(jī)構(gòu)在人工智能治理中扮演著主導(dǎo)角色,并強(qiáng)調(diào)與其他主體協(xié)同治理。數(shù)據(jù)方面,歐盟注重公民數(shù)字人權(quán)的保護(hù),并努力構(gòu)建可信的人工智能系統(tǒng),更傾向于采取預(yù)防性的規(guī)制手段。算法方面,歐盟引入了標(biāo)準(zhǔn)化的披露準(zhǔn)則,要求算法相關(guān)主體主動(dòng)披露算法的邏輯、目標(biāo)、潛在后果等。私營(yíng)部門(mén)在進(jìn)行技術(shù)研發(fā)和創(chuàng)新的過(guò)程中要考量技術(shù)后果和倫理問(wèn)題,以實(shí)現(xiàn)負(fù)責(zé)任的創(chuàng)新。此外,歐盟也注重提高公眾對(duì)算法的理解和素養(yǎng),營(yíng)造了算法問(wèn)責(zé)的氛圍,建立了保護(hù)制度支持發(fā)現(xiàn)和提出算法的漏洞與問(wèn)題。
在美國(guó),除了政府、企業(yè),還包括行業(yè)組織、第三方機(jī)構(gòu)等主體參與到算法治理過(guò)程中。美國(guó)傾向于利用不同主體的力量共同參與算法治理。政府在行政干預(yù)方面較弱,非政府組織如第三方智庫(kù)、行業(yè)組織和社會(huì)公眾發(fā)揮了重要作用。此外,行業(yè)自律也是美國(guó)算法治理的一部分,如亞馬遜、谷歌、臉書(shū)等公司于2016年成立了人工智能合作組織,幫助群眾理解算法知識(shí)的同時(shí)制定行為準(zhǔn)則。
盡管存在上述差異,無(wú)論是歐盟聚焦政府主導(dǎo),以高標(biāo)準(zhǔn)的法律和規(guī)制政策為手段,還是美國(guó)有意地采用政府指導(dǎo)原則下,各部門(mén)、各領(lǐng)域?qū)挿旱谋O(jiān)管辦法,而非具有懲罰措施的法律來(lái)引導(dǎo)技術(shù)發(fā)展,都是為了管理好預(yù)見(jiàn)到的問(wèn)題,也就是“確定的不確定”因素,從而將潛在結(jié)果往自身控制和預(yù)期的方向發(fā)展。
人工智能的發(fā)展情況與治理模式息息相關(guān),我國(guó)的人工智能治理模式采取要素治理方式,同步推進(jìn)總體價(jià)值、數(shù)據(jù)、算法等通用性規(guī)則構(gòu)建,而未選擇制定類(lèi)似歐盟“人工智能統(tǒng)一規(guī)則”的專(zhuān)門(mén)綜合立法[24]。
我國(guó)高度重視人工智能治理,不斷推進(jìn)總體價(jià)值的探索。自2016年起,人工智能倫理就已經(jīng)成為眾多社會(huì)組織、專(zhuān)業(yè)機(jī)構(gòu)廣泛討論的對(duì)象。2019年,國(guó)家科技倫理委員會(huì)和國(guó)家新一代人工智能治理專(zhuān)業(yè)委員會(huì)成立,《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》也隨之發(fā)布,提出了人工智能的治理框架和指南。2021年,我國(guó)進(jìn)一步出臺(tái)《關(guān)于加強(qiáng)科技倫理治理的指導(dǎo)意見(jiàn)》和《新一代人工智能倫理規(guī)范》,標(biāo)志著我國(guó)已初步形成人工智能治理的總體價(jià)值指引。
在數(shù)據(jù)方面,我國(guó)于2021年頒布實(shí)施了《數(shù)據(jù)安全法》和《個(gè)人信息保護(hù)法》,標(biāo)志著我國(guó)的數(shù)據(jù)安全與保護(hù)進(jìn)入新階段。這兩部法律與之前頒布的《網(wǎng)絡(luò)安全法》,共同規(guī)范了網(wǎng)絡(luò)設(shè)施的建設(shè)、運(yùn)營(yíng)、維護(hù)和使用,構(gòu)建了數(shù)據(jù)安全與個(gè)人信息保護(hù)的整體制度。一些地方如深圳、上海也在積極嘗試采取促進(jìn)發(fā)展和安全并重的方案,出臺(tái)了相應(yīng)的地方性數(shù)據(jù)管理?xiàng)l例,為完善數(shù)據(jù)治理制度進(jìn)行有益探索。
在算法方面,近年來(lái),社會(huì)數(shù)字經(jīng)濟(jì)中的一些問(wèn)題引發(fā)了對(duì)互聯(lián)網(wǎng)消費(fèi)者權(quán)益和勞動(dòng)力就業(yè)競(jìng)爭(zhēng)等問(wèn)題的反思,其中包括電商的差異化定價(jià)和外賣(mài)騎手配送時(shí)間被不合理壓縮等情況尤為顯著,這些問(wèn)題往往被歸咎于算法的應(yīng)用。算法治理因此備受關(guān)注,因?yàn)樗惴ㄖ黧w在最大化自身利益的過(guò)程中,違背了維護(hù)公平公正、促進(jìn)共同富裕、提高社會(huì)福祉等價(jià)值觀,將歧視和不公融入日常的社會(huì)活動(dòng)之中。我國(guó)的算法治理現(xiàn)在仍存在碎片化的情況。2021年,我國(guó)發(fā)布了《關(guān)于加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見(jiàn)》(以下簡(jiǎn)稱(chēng)《指導(dǎo)意見(jiàn)》),明確了政策方向,從以往的分散治理逐步轉(zhuǎn)變?yōu)榫C合治理?!吨笇?dǎo)意見(jiàn)》提出,應(yīng)使用3年左右的時(shí)間,逐步建立治理機(jī)制,健全監(jiān)管體系,規(guī)范算法生態(tài),最終達(dá)到構(gòu)建算法安全綜合治理格局的目標(biāo)。這一舉措旨在應(yīng)對(duì)算法帶來(lái)的風(fēng)險(xiǎn)和挑戰(zhàn),推動(dòng)算法應(yīng)用更加負(fù)責(zé)任和可持續(xù)發(fā)展。
4.2.1 打造多方參與、協(xié)同共治的治理模式
人工智能治理是一項(xiàng)需要多方合力的工程,參與治理的主體呈現(xiàn)多元化,運(yùn)用的治理手段呈現(xiàn)多樣化。治理過(guò)程需要政府、企業(yè)等多利益相關(guān)方的參與合作,發(fā)揮各自的職責(zé)和能力,通過(guò)協(xié)同共治的方式實(shí)施。政府在治理中發(fā)揮領(lǐng)導(dǎo)性作用,負(fù)責(zé)制定政策法規(guī)、設(shè)立專(zhuān)門(mén)機(jī)構(gòu)以執(zhí)行治理規(guī)定。政府應(yīng)該積極參與并協(xié)調(diào)各方的合作,確保治理目標(biāo)的實(shí)現(xiàn)。市場(chǎng)參與者,如企業(yè)、行業(yè)組織等,應(yīng)該發(fā)揮重要推動(dòng)作用。他們可以制定行業(yè)準(zhǔn)則、技術(shù)標(biāo)準(zhǔn)等,推動(dòng)規(guī)范的制定和實(shí)施。公眾包括獨(dú)立學(xué)者、消費(fèi)者、社會(huì)組織等,他們是治理過(guò)程中重要的參與者和監(jiān)督者。各方應(yīng)明確自己的角色和責(zé)任,共同努力解決治理中的問(wèn)題和挑戰(zhàn)。
4.2.2 進(jìn)一步對(duì)人工智能進(jìn)行倫理規(guī)范,確??沙掷m(xù)發(fā)展
人工智能治理應(yīng)該建立在對(duì)人工智能的價(jià)值觀思考的基礎(chǔ)上。為了有效應(yīng)對(duì)人工智能所帶來(lái)的風(fēng)險(xiǎn)和挑戰(zhàn),制定倫理原則是重要的一步,它可以將人工智能“不確定的不確定性”轉(zhuǎn)化為確定,從而幫助政府、企業(yè)、公眾履行各種監(jiān)管或治理職責(zé)。這些原則可以涵蓋對(duì)人權(quán)、公平性、透明度、隱私權(quán)和安全性等價(jià)值的尊重。人工智能的訓(xùn)練須尊重隱私權(quán),保護(hù)用戶(hù)的個(gè)人數(shù)據(jù)安全,并確保適當(dāng)?shù)臄?shù)據(jù)收集、使用和共享機(jī)制。個(gè)人信息應(yīng)得到合法、透明的處理,并遵守相關(guān)法律法規(guī)和隱私保護(hù)原則。人工智能系統(tǒng)的決策過(guò)程應(yīng)該是透明的,并提供解釋其決策的機(jī)制,這有助于用戶(hù)理解和信任系統(tǒng),并幫助檢測(cè)和糾正可能存在的偏見(jiàn)或不公正,確保人工智能系統(tǒng)在處理數(shù)據(jù)和做出決策時(shí)沒(méi)有偏見(jiàn)或歧視。系統(tǒng)應(yīng)避免基于種族、性別、宗教、國(guó)籍等特征對(duì)個(gè)人進(jìn)行不公平對(duì)待,并促進(jìn)平等和包容的社會(huì)價(jià)值觀。相關(guān)主體應(yīng)評(píng)估和管理人工智能系統(tǒng)對(duì)社會(huì)、經(jīng)濟(jì)和環(huán)境的影響,以最大限度推動(dòng)可持續(xù)發(fā)展和社會(huì)福祉。
4.2.3 鼓勵(lì)發(fā)展人工智能,特別是我國(guó)的跨國(guó)科技企業(yè)
政府應(yīng)該出臺(tái)一系列支持政策,包括資金支持、稅收優(yōu)惠、研發(fā)補(bǔ)助等,為有關(guān)的科技企業(yè)提供良好的創(chuàng)新環(huán)境,從而更好地應(yīng)對(duì)人工智能“不確定的不確定性”,并將其中成熟的部分轉(zhuǎn)為“確定的不確定性”,甚至是消除不確定性。鼓勵(lì)企業(yè)加大研發(fā)投入、技術(shù)創(chuàng)新和人才引進(jìn)。建立創(chuàng)新型科研機(jī)構(gòu)和高水平實(shí)驗(yàn)室,提供世界一流的科研設(shè)施和平臺(tái),吸引跨國(guó)科技企業(yè)在我國(guó)進(jìn)行前沿技術(shù)研發(fā)。政府可以與企業(yè)合作,共同投資建設(shè)科研基地,為企業(yè)提供優(yōu)質(zhì)的科研資源和技術(shù)支持。積極參與國(guó)際合作項(xiàng)目,與其他國(guó)家和地區(qū)的跨國(guó)科技企業(yè)進(jìn)行合作與交流。
4.2.4 積極參與國(guó)際人工智能技術(shù)標(biāo)準(zhǔn)的制定
在人工智能的研發(fā)和應(yīng)用中,我們必須始終堅(jiān)持道德和倫理的準(zhǔn)則,確保人工智能系統(tǒng)的設(shè)計(jì)和使用符合社會(huì)和人類(lèi)的利益,避免濫用人工智能技術(shù)進(jìn)行網(wǎng)絡(luò)攻擊、隱私侵犯、歧視性應(yīng)用等不良行為。為此,我們需要加強(qiáng)法律法規(guī)的制定和執(zhí)行,以確保人工智能的使用是正當(dāng)和合法的。
中國(guó)應(yīng)該在人工智能領(lǐng)域發(fā)揮領(lǐng)導(dǎo)作用,推動(dòng)全球統(tǒng)一的人工智能標(biāo)準(zhǔn)的制定工作。這些標(biāo)準(zhǔn)應(yīng)該有利于中國(guó)和廣大發(fā)展中國(guó)家,確保人工智能的發(fā)展具有包容性、可持續(xù)性和公正性。作為發(fā)展中國(guó)家的代表,中國(guó)應(yīng)該以“一帶一路”倡議為平臺(tái),積極支持發(fā)展中國(guó)家在人工智能領(lǐng)域的發(fā)展。我們可以提供技術(shù)援助和教育支持,幫助發(fā)展中國(guó)家應(yīng)對(duì)人工智能時(shí)代的挑戰(zhàn),縮小數(shù)字、技術(shù)和財(cái)富鴻溝。
此外,中國(guó)還應(yīng)在國(guó)際社會(huì)積極推動(dòng)人工智能領(lǐng)域的合作和交流,為發(fā)展中國(guó)家爭(zhēng)取更多的援助和支持。通過(guò)合作共贏的方式,促進(jìn)全球范圍內(nèi)人工智能的公平發(fā)展和利益共享。
人工智能的不確定性涵蓋了多個(gè)方面,其國(guó)際治理也將面臨許多不確定的因素和影響?,F(xiàn)有討論多數(shù)停留在針對(duì)人工智能技術(shù)不確定的層面,側(cè)重?cái)?shù)據(jù)安全與保護(hù)、算法綜合治理及道德和倫理規(guī)范。未來(lái)隨著人工智能在國(guó)際社會(huì)中的不斷滲透,其對(duì)國(guó)際治理的主體和權(quán)力,對(duì)國(guó)際安全的基本認(rèn)知會(huì)產(chǎn)生何種影響,進(jìn)而如何決定社會(huì)發(fā)展變遷的方向和成果都是亟待解決的問(wèn)題。未來(lái)深不可測(cè),審慎的態(tài)度、理智的展望和靈活應(yīng)變的治理視野有助于我們更好地理解和應(yīng)對(duì)各種變化、風(fēng)險(xiǎn),國(guó)際社會(huì)應(yīng)積極推動(dòng)超越技術(shù)不確定性的人工智能治理合作和交流。