唐淑臣 許林逸
(1.清華大學(xué)法學(xué)院 北京 100084;2.北京師范大學(xué)法學(xué)院 北京 100875)
人工智能(Artificial Intelligence,AI)目前成為國(guó)際競(jìng)爭(zhēng)的新高地和新焦點(diǎn),其出色的解決問(wèn)題與任務(wù)執(zhí)行能力極大地解放了勞動(dòng)力,在某些情況下其性能甚至超過(guò)人力。毫無(wú)疑問(wèn),人工智能正深刻地改變世界,相關(guān)技術(shù)競(jìng)爭(zhēng)更是當(dāng)下乃至未來(lái)大國(guó)博弈的焦點(diǎn)之一,是各國(guó)發(fā)展不可回避的競(jìng)爭(zhēng)領(lǐng)域。但人工智能的發(fā)展過(guò)程中,也呈現(xiàn)出誤解、誤判等違背人類倫理與法治的弊端,這創(chuàng)造了秩序崩壞的危機(jī),其引發(fā)的未知風(fēng)險(xiǎn)也值得警惕。為此,世界各國(guó)已達(dá)成基本共識(shí),人工智能的發(fā)展必須為人類的更大利益服務(wù),而不是反其道而行之。為應(yīng)對(duì)人工智能安全風(fēng)險(xiǎn),全球各國(guó)和地區(qū)紛紛加強(qiáng)人工智能安全問(wèn)題的前瞻性研究,加大力度防控人工智能安全風(fēng)險(xiǎn),加快推進(jìn)治理政策出臺(tái),并逐漸從原有的原則性規(guī)定向可操作、可落地的方向邁進(jìn)。比如歐盟正在推進(jìn)專門的人工智能立法,對(duì)高風(fēng)險(xiǎn)應(yīng)用實(shí)行嚴(yán)格監(jiān)管;美國(guó)、新加坡、加拿大、日本等國(guó)以非強(qiáng)制性的監(jiān)管為主,推出安全風(fēng)險(xiǎn)評(píng)估框架、安全治理模型、算法評(píng)估制度等政策,引導(dǎo)各類主體開展人工智能安全風(fēng)險(xiǎn)治理。但是在監(jiān)管之外,關(guān)于政府如何引導(dǎo)人工智能適配倫理與法治的研究還較為缺失。以美國(guó)為例,國(guó)家安全機(jī)關(guān)[1]設(shè)置相關(guān)原則[2]并適用,但其他機(jī)構(gòu)沒(méi)有提供這樣的指導(dǎo)。而且即使在提供原則的情況下,也很難將倫理性的原則轉(zhuǎn)化為具體行動(dòng)[3]。
在國(guó)內(nèi)研究方面,相關(guān)討論是從人工智能倫理風(fēng)險(xiǎn)和政府參與人工智能治理兩個(gè)角度展開的。有學(xué)者對(duì)國(guó)內(nèi)人工智能應(yīng)用進(jìn)行綜述,指出公共治理中人工智能的應(yīng)用重點(diǎn)集中在基本公共服務(wù)供給、城市應(yīng)急與環(huán)境治理等方面,但人工智能應(yīng)用仍面臨安全、侵權(quán)、解構(gòu)秩序、沖擊法治體系和道德倫理等風(fēng)險(xiǎn),并提出對(duì)應(yīng)的解決策略[4]。事實(shí)上,國(guó)內(nèi)大多數(shù)研究都著眼于人工智能的倫理風(fēng)險(xiǎn)[5]或法治監(jiān)管[6],并提出相應(yīng)建議。當(dāng)前的討論陷入一種兩難的困境當(dāng)中,焦點(diǎn)已經(jīng)偏離人工智能如何融入國(guó)家倫理與法治,而演變?yōu)橐环N純粹的形而上的終極倫理探討與理想化風(fēng)險(xiǎn)監(jiān)管。本文試圖在這種追求一致性倫理的維谷中引入一種新的視角,即我國(guó)政府如何引導(dǎo)人工智能適配中國(guó)特色社會(huì)主義倫理準(zhǔn)則,融入中國(guó)特色社會(huì)主義法系,打破西方人工智能倫理霸權(quán)的相關(guān)問(wèn)題。新視角的核心在于使人工智能的相關(guān)討論更貼合中國(guó)倫理與法治,為傳統(tǒng)的人工智能自身倫理與政府參與人工智能治理的角度提供中國(guó)之治的抓手與經(jīng)驗(yàn)。毋庸置疑,美國(guó)作為當(dāng)今世界人工智能的頭號(hào)強(qiáng)國(guó),為了維持其在人工智能領(lǐng)域的統(tǒng)治地位,已正式將人工智能升級(jí)為國(guó)家戰(zhàn)略,并在人工智能的指引方面進(jìn)行了諸多嘗試。對(duì)美國(guó)政府引導(dǎo)人工智能適配倫理與法治的方式進(jìn)行考察與洞析,可為中國(guó)人工智能發(fā)展的理念和實(shí)操提供有益的參考。
人工智能作為推動(dòng)新一輪科技革命和產(chǎn)業(yè)變革的重要驅(qū)動(dòng)力量,在國(guó)家安全和軍事領(lǐng)域的應(yīng)用逐漸廣泛,不但可能實(shí)現(xiàn)對(duì)作戰(zhàn)平臺(tái)和武器裝備的自主控制,而且在網(wǎng)絡(luò)戰(zhàn)中發(fā)揮重要作用。美國(guó)在人工智能領(lǐng)域雖然占據(jù)領(lǐng)先地位,但其優(yōu)勢(shì)正在縮小,新興大國(guó)有可能超越美國(guó)并取代其領(lǐng)先地位。美國(guó)為了保持自身在人工智能領(lǐng)域的優(yōu)勢(shì)地位,成立人工智能國(guó)家安全委員會(huì)(National Security Commission on Artificial Intelligence,NSCAI),負(fù)責(zé)向美國(guó)總統(tǒng)及國(guó)會(huì)提供人工智能相關(guān)領(lǐng)域的建議。作為解決美國(guó)國(guó)家安全與國(guó)防需求問(wèn)題的政策參謀機(jī)構(gòu),NSCAI在推動(dòng)人工智能、機(jī)器學(xué)習(xí)等技術(shù)發(fā)展方面出謀劃策。雖然NSCAI僅是一個(gè)“負(fù)責(zé)向美國(guó)總統(tǒng)及國(guó)會(huì)提供人工智能等領(lǐng)域的建議”的咨詢機(jī)構(gòu),但其構(gòu)成人員包括15名技術(shù)專家、國(guó)家安全專家、企業(yè)高管和學(xué)術(shù)領(lǐng)袖,其先前諸多報(bào)告已經(jīng)被美國(guó)政府所采納,比如加大人工智能領(lǐng)域的投資,遏制中國(guó)的人工智能發(fā)展等。因此在美國(guó)政府簽發(fā)正式文件指引人工智能適配倫理與法治前,NSCAI報(bào)告是最具有研究?jī)r(jià)值的參考文件。2021年3月,NSCAI頒布的最終報(bào)告指出,美國(guó)還沒(méi)有做好人工智能時(shí)代的防御或競(jìng)爭(zhēng)的準(zhǔn)備[7]。人工智能的威力和局限性并未被充分了解,人工智能只有在符合倫理與法治的道路上發(fā)展,才能真正造福人類。
人工智能系統(tǒng)的性能和自主性發(fā)展達(dá)到新高度的同時(shí),也呈現(xiàn)出有關(guān)使用致命武力的法律、道德問(wèn)題。人工智能的透明度缺乏,引起更多人的不信任和恐慌;人工智能缺乏中立性,其所做的決策容易出現(xiàn)不準(zhǔn)確和歧視性后果,在刑事司法、招聘和人臉識(shí)別等領(lǐng)域,人工智能的使用可能違背公平和包容性,強(qiáng)化輔助決策中無(wú)意的偏見(jiàn),例如在性別、族裔中等產(chǎn)生傾向性。有媒體調(diào)查結(jié)果顯示,人工智能在預(yù)測(cè)再犯時(shí),會(huì)對(duì)黑人存在偏見(jiàn),違背了社會(huì)公平[8]。人工智能發(fā)展過(guò)程中,缺乏數(shù)據(jù)收集的監(jiān)督措施,導(dǎo)致隱私權(quán)和個(gè)人信息被侵犯,以及發(fā)展水平的不均衡,進(jìn)而容易引發(fā)公平性的問(wèn)題等。人工智能的風(fēng)險(xiǎn)和挑戰(zhàn)頻頻出現(xiàn)意味著智能社會(huì)的發(fā)展需要適配倫理與法治,人工智能引發(fā)的公平性、安全性、可靠性等問(wèn)題使得制定人工智能倫理準(zhǔn)則的必要性日益彰顯[9]。人工智能的良好發(fā)展和正確使用應(yīng)當(dāng)與國(guó)家的價(jià)值觀相吻合,價(jià)值觀指導(dǎo)著人工智能的發(fā)展趨勢(shì)。NSCAI的報(bào)告作為指引人工智能遵循美國(guó)價(jià)值觀的重要內(nèi)容,提出了防范威脅的措施及指引人工智能發(fā)展符合美國(guó)人民和國(guó)家利益的建議,指出了人工智能競(jìng)賽的關(guān)鍵要素,并詳細(xì)闡述了聯(lián)邦各機(jī)構(gòu)今后改革的行動(dòng)路線。面對(duì)人工智能在戰(zhàn)略層面的重要地位和人工智能產(chǎn)生的負(fù)面效果,美國(guó)政府正在采取全面的行動(dòng),指引人工智能與倫理規(guī)則與法治規(guī)范相適應(yīng),以防范其可能引發(fā)的相關(guān)風(fēng)險(xiǎn)。
美國(guó)在理念層面指引人工智能的研發(fā)和使用,以保證人工智能本身及其適用與美國(guó)的價(jià)值觀和法治理念(American Values and the Rule of Law)相契合,共同致力于維護(hù)民主、人類尊嚴(yán)和人權(quán)。在國(guó)家安全調(diào)查方面,以符合正當(dāng)程序、個(gè)人隱私、平等保護(hù)和非歧視的憲法原則的方式使用人工智能;在外交方面,堅(jiān)決反對(duì)使用人工智能來(lái)支持專制政府壓制個(gè)人自由或侵犯其公民的人權(quán);在軍事方面,尋找方法讓人工智能增強(qiáng)維護(hù)戰(zhàn)爭(zhēng)法的能力;在立法方面,需要進(jìn)一步強(qiáng)化基本權(quán)利的保護(hù),包括言論和集會(huì)自由以及正當(dāng)程序、包容、公平、不歧視(包括平等保護(hù))和隱私權(quán)(包括保護(hù)個(gè)人免受政府無(wú)理干涉的權(quán)利)。其他價(jià)值觀反映在條約、規(guī)則和政策中,例如《禁止酷刑和其他殘忍、不人道或有辱人格的待遇或處罰公約》[10],國(guó)防部的交戰(zhàn)規(guī)則以及國(guó)防部關(guān)于武器系統(tǒng)自主性的指令等。
針對(duì)人工智能的價(jià)值觀塑造,NSCAI提出兩項(xiàng)建議:a.要求開發(fā)和部署均符合美國(guó)價(jià)值觀和法治的系統(tǒng),以確保開發(fā)或獲得的人工智能系統(tǒng)將按照美國(guó)的價(jià)值觀和法治運(yùn)行,確保個(gè)人隱私在獲取和使用用于人工智能系統(tǒng)開發(fā)的數(shù)據(jù)時(shí)受到保護(hù)。具體而言,人工智能系統(tǒng)應(yīng)當(dāng)采用符合隱私保護(hù)、公平、包容、人權(quán)和武裝沖突法的技術(shù)和操作政策,若人工智能系統(tǒng)違反上述價(jià)值觀,則被禁止使用。b.將目標(biāo)明確表示在人工智能系統(tǒng)的目標(biāo)和效用函數(shù)中。首先,預(yù)設(shè)價(jià)值權(quán)衡的標(biāo)準(zhǔn),對(duì)人工智能系統(tǒng)的價(jià)值衡量進(jìn)行設(shè)定和記錄,包括記錄選擇時(shí)選取對(duì)性能有影響的操作閾值。其次,記錄并審查人工智能系統(tǒng)在價(jià)值考量時(shí)對(duì)目標(biāo)或效用函數(shù)的依賴程度,尤其是對(duì)不同價(jià)值權(quán)重的衡量時(shí)。最后,對(duì)運(yùn)行過(guò)程和結(jié)果進(jìn)行記錄、審查,確保人工智能符合價(jià)值觀。
符合倫理與法治的人工智能系統(tǒng)應(yīng)具備可審計(jì)性、可追溯性、可解釋性、可依賴性四個(gè)主要特點(diǎn)??蓪徲?jì)性強(qiáng)調(diào)在模型構(gòu)建期間和模型投入生產(chǎn)之前的制定和使用需要有明確規(guī)定的工作記錄,對(duì)算法、數(shù)據(jù)和設(shè)計(jì)過(guò)程進(jìn)行評(píng)估,在模型生產(chǎn)過(guò)程中創(chuàng)建開發(fā)治理標(biāo)準(zhǔn)的審計(jì)跟蹤??勺匪菪允侵笐?yīng)保障數(shù)據(jù)的來(lái)源可追溯,技術(shù)可以被了解,明確記錄數(shù)據(jù)來(lái)源和操作,對(duì)第三方數(shù)據(jù)應(yīng)進(jìn)行評(píng)估后使用,掌握其開發(fā)過(guò)程和操作方法,在開發(fā)階段,應(yīng)將設(shè)計(jì)方法、相關(guān)設(shè)計(jì)文檔和數(shù)據(jù)源提供給適當(dāng)?shù)南嚓P(guān)方。在部署階段,則要?jiǎng)?chuàng)建適當(dāng)?shù)挠脩粼L問(wèn)和權(quán)限日志,消除人工智能系統(tǒng)的神秘感,增強(qiáng)其透明度。可解釋性是指能夠?qū)θ斯ぶ悄芩惴ǖ倪\(yùn)行和決策原理進(jìn)行充分理解,并解釋給用戶,即能夠解釋系統(tǒng)輸出的價(jià)值和其準(zhǔn)確性,其實(shí)質(zhì)是小數(shù)據(jù)信息的知識(shí)化,這一特點(diǎn)需要采取必要的技術(shù)來(lái)保障數(shù)據(jù)集的選取與系統(tǒng)目標(biāo)相稱,并對(duì)數(shù)據(jù)進(jìn)行及時(shí)更新??梢蕾囆允侵溉斯ぶ悄苣軌蛞灶A(yù)期的方式執(zhí)行任務(wù),并且在人工智能的整個(gè)生命周期內(nèi)保證安全性和魯棒性。
當(dāng)前人工智能仍存在諸多局限性,且容錯(cuò)率較低,易產(chǎn)生較嚴(yán)重的危害后果,使得人類極有可能被自己創(chuàng)造的技術(shù)反噬。人工智能在工程實(shí)踐中數(shù)據(jù)易被篡改,系統(tǒng)交互時(shí)存在失控風(fēng)險(xiǎn),人機(jī)交互中的可能發(fā)生故障,問(wèn)責(zé)治理制度需要完善?;诖?,在指引人工智能適應(yīng)倫理和法治的具體操作層面,NSCAI提出四個(gè)方面的操作路徑,著力在工程實(shí)踐、系統(tǒng)性能、人機(jī)交互以及問(wèn)責(zé)治理四個(gè)方面,設(shè)計(jì)并發(fā)展穩(wěn)健、安全和可信賴人工智能系統(tǒng),并利用人工智能系統(tǒng)提升人類的理解、決策能力,與人類進(jìn)行優(yōu)勢(shì)互補(bǔ),以保證人工智能在最初創(chuàng)設(shè)時(shí)盡量降低風(fēng)險(xiǎn),在持續(xù)使用過(guò)程中穩(wěn)定運(yùn)行。
在工程實(shí)踐中,為了保證人工智能在預(yù)設(shè)的指引下順利運(yùn)行,應(yīng)當(dāng)避免各個(gè)環(huán)節(jié)因故障而違背原有指令。由于工程實(shí)踐中使用的工程方法和模型具有脆弱性,不同環(huán)節(jié)存在的漏洞可能相互關(guān)聯(lián),容易出現(xiàn)前所未有的故障模式。目前故障模式主要分為故意失敗和意外失敗兩類。故意失敗是惡意行為者明確攻擊人工智能系統(tǒng)某些方面的結(jié)果,包括中毒攻擊達(dá)到污染數(shù)據(jù)的目的、模型反轉(zhuǎn)以及在下載使用時(shí)破壞ML模型等類型。意外失敗是指在人工智能開發(fā)和部署的生命周期中任何時(shí)候都可能出現(xiàn)意外故障,由于單獨(dú)開發(fā)和測(cè)試的人工智能系統(tǒng)與其他人工智能系統(tǒng)組成并相互作用,可能會(huì)發(fā)生其他的意外故障。這種故障包括3種類型:人工智能系統(tǒng)以一種與程序員的意圖相矛盾的方式實(shí)現(xiàn)編程目標(biāo)、系統(tǒng)在一種環(huán)境中進(jìn)行測(cè)試但無(wú)法適應(yīng)環(huán)境變化以及目標(biāo)規(guī)范不充分無(wú)法適應(yīng)價(jià)值權(quán)衡的變化。
為了減少工程實(shí)踐中的故障,應(yīng)當(dāng)在人工智能開發(fā)時(shí)結(jié)合場(chǎng)景和應(yīng)用進(jìn)行充分的早期分析和預(yù)設(shè),評(píng)估總體的可行性以及對(duì)規(guī)則的遵守情況,確保應(yīng)用程序中的公平性和對(duì)不必要偏見(jiàn)的消除。此外,應(yīng)當(dāng)進(jìn)行系統(tǒng)風(fēng)險(xiǎn)評(píng)估,對(duì)系統(tǒng)的潛在社會(huì)影響進(jìn)行分析,尤其是就與國(guó)家安全背景相關(guān)的關(guān)鍵領(lǐng)域提出風(fēng)險(xiǎn)評(píng)估問(wèn)題,包括隱私和公民自由、人權(quán)、系統(tǒng)安全以及新技術(shù)被泄露、被盜或武器化等倫理與法律風(fēng)險(xiǎn),盡早對(duì)風(fēng)險(xiǎn)進(jìn)行控制和消除。
指引人工智能系統(tǒng)依照倫理與法治正確運(yùn)行,需要評(píng)估人工智能系統(tǒng)的性能,包括使用代表現(xiàn)實(shí)世界場(chǎng)景的數(shù)據(jù)或模擬現(xiàn)實(shí)環(huán)境來(lái)評(píng)估其能力和盲點(diǎn),及其可靠性與彈性。人工智能的高質(zhì)量發(fā)展需要系統(tǒng)之間相互作用、相互協(xié)調(diào)、相互配合,共同促進(jìn)每個(gè)系統(tǒng)要素的正常運(yùn)轉(zhuǎn)及系統(tǒng)整體的相互支撐?,F(xiàn)階段在集成模擬中通常會(huì)發(fā)生意外的交互和錯(cuò)誤,說(shuō)明預(yù)測(cè)和管理系統(tǒng)的多個(gè)組件在組成不同的系統(tǒng)后可能會(huì)出現(xiàn)間歇性故障,這些故障不一定是任何一個(gè)組件有錯(cuò)誤的結(jié)果,而是由于組合系統(tǒng)的交互作用產(chǎn)生。
針對(duì)系統(tǒng)交互產(chǎn)生的故障,應(yīng)當(dāng)進(jìn)行充分的模型訓(xùn)練和模型測(cè)試,以涵蓋人工智能預(yù)期性能的關(guān)鍵方面。具體而言,第一,應(yīng)使用定期更新且盡可能充分的標(biāo)準(zhǔn)來(lái)測(cè)試和報(bào)告系統(tǒng)性能,通過(guò)定義、分類和度量等方式更好地評(píng)估人工智能的性能和漏洞。第二,考慮并記錄數(shù)據(jù)和模型對(duì)于現(xiàn)有特定環(huán)境的代表性,并在不同環(huán)境中測(cè)試系統(tǒng),并進(jìn)行迭代模型測(cè)試和驗(yàn)證。第三,確保單個(gè)系統(tǒng)的正常運(yùn)行。系統(tǒng)性能產(chǎn)生的交互故障可能由于系統(tǒng)之間以開發(fā)人員未預(yù)料到的方式進(jìn)行組合,為了能夠準(zhǔn)確分析出由于交互產(chǎn)生的故障,應(yīng)當(dāng)先保障單個(gè)人工智能的性能正常,再對(duì)交互情況進(jìn)行分析。第四,評(píng)估人機(jī)團(tuán)隊(duì)的總體績(jī)效??紤]當(dāng)前的基準(zhǔn)可能是人類操作員目前的最佳表現(xiàn)或人機(jī)團(tuán)隊(duì)的綜合表現(xiàn)。在交互過(guò)程中,重要的是衡量總體績(jī)效,而不是單獨(dú)衡量人工智能系統(tǒng)。第五,持續(xù)關(guān)注系統(tǒng)的可靠性和穩(wěn)健性。在整個(gè)開發(fā)和部署過(guò)程中持續(xù)關(guān)注系統(tǒng)的實(shí)際性能。對(duì)于具有特別高的潛在故障后果的系統(tǒng),將投入大量的架構(gòu)和設(shè)計(jì)工作來(lái)構(gòu)建整體系統(tǒng)的安全。
人工智能開發(fā)和部署需要平衡人類和人工智能的關(guān)系,人工智能系統(tǒng)的開發(fā)以造福人類為導(dǎo)向,因此所有人工智能系統(tǒng)都將具有一定程度的人機(jī)交互。一些系統(tǒng)甚至將扮演與人類積極協(xié)作的隊(duì)友角色。人工智能和人類的能力具有互補(bǔ)性,為了促進(jìn)人機(jī)交互的進(jìn)行,首先應(yīng)當(dāng)明確人機(jī)交互設(shè)計(jì)方法和指南。人工智能系統(tǒng)設(shè)計(jì)應(yīng)考慮人類在不同場(chǎng)景下人機(jī)協(xié)作的定義任務(wù),確??傮w上人機(jī)操作的組合與預(yù)期行為一致;其次,使用算法和函數(shù)來(lái)支持可解釋性,為個(gè)人提供與任務(wù)相關(guān)的知識(shí),幫助不同受眾理解人工智能系統(tǒng)運(yùn)行中的關(guān)鍵因素;再次,利用可追溯性協(xié)助系統(tǒng)開發(fā)和理解,及時(shí)傳達(dá)不確定性和誤差范圍,預(yù)設(shè)信息或任務(wù)應(yīng)何時(shí)以及如何在機(jī)器和人類操作員之間傳輸??勺匪菪粤鞒瘫仨毑东@有關(guān)人機(jī)交互的詳細(xì)信息,以追溯故障發(fā)生的位置及原因,從而改進(jìn)系統(tǒng)及其對(duì)故障進(jìn)行補(bǔ)救;最后,優(yōu)化人類和人工智能在各種環(huán)境中共同承擔(dān)復(fù)雜任務(wù)的能力,以及讓不同的機(jī)器組相互合作,實(shí)現(xiàn)共同目標(biāo)。
2021年6月,美國(guó)政府問(wèn)責(zé)署(GAO)發(fā)布了《人工智能:聯(lián)邦政府和其他機(jī)構(gòu)的責(zé)任框架》,提出針對(duì)人工智能的問(wèn)責(zé)治理,國(guó)家安全部門和機(jī)構(gòu)須明確針對(duì)特定系統(tǒng)結(jié)果和一般系統(tǒng)維護(hù)與審計(jì)的問(wèn)責(zé)機(jī)制,包括承擔(dān)責(zé)任的原因和方式等。最終用戶和受人工智能系統(tǒng)行為影響的人應(yīng)該有機(jī)會(huì)對(duì)人工智能系統(tǒng)的決定提出上訴。針對(duì)人工智能決策、推論、建議和行動(dòng)的問(wèn)責(zé)和上訴必須存在固定的流程,避免在人工智能出現(xiàn)違背倫理和法治的結(jié)果后無(wú)人擔(dān)責(zé)?,F(xiàn)階段人工智能的問(wèn)責(zé)治理對(duì)監(jiān)管者提出了較高的技術(shù)要求,在出現(xiàn)爭(zhēng)議后,監(jiān)管者需要依據(jù)可解釋性的技術(shù)能力了解系統(tǒng)中的問(wèn)題,并依據(jù)可追溯性和可審計(jì)性進(jìn)行問(wèn)責(zé)治理,及時(shí)發(fā)現(xiàn)責(zé)任原因并解決責(zé)任歸屬問(wèn)題。然而上述特征的人工智能基礎(chǔ)設(shè)施建設(shè)需要較高成本,例如在法院考慮人工智能系統(tǒng)的決定能否作為證據(jù)被接納時(shí),需要審計(jì)追蹤等技術(shù)對(duì)人工智能的決定進(jìn)行分析,構(gòu)建可審計(jì)性基礎(chǔ)設(shè)施將增加構(gòu)建人工智能系統(tǒng)的成本和工作量。
在人工智能問(wèn)責(zé)治理的完善過(guò)程中,首先應(yīng)當(dāng)在高層領(lǐng)導(dǎo)中引入人工智能專家,每個(gè)對(duì)國(guó)家安全至關(guān)重要的部門和機(jī)構(gòu)以及武裝部隊(duì)的每個(gè)分支機(jī)構(gòu),至少應(yīng)有一個(gè)專職負(fù)責(zé)人;其次為問(wèn)責(zé)治理提供技術(shù)支持,記錄開發(fā)和部署人工智能系統(tǒng)的監(jiān)管鏈和指揮鏈,明確不同階段的負(fù)責(zé)人。提高可追溯性和可審計(jì)性能力,更好地跟蹤系統(tǒng)的性能和結(jié)果;最后加強(qiáng)問(wèn)責(zé)治理的政策,制定對(duì)未盡責(zé)任的人工智能開發(fā)或部署行為的監(jiān)督機(jī)制,包括內(nèi)部監(jiān)督與外部監(jiān)督兩種方式。內(nèi)部監(jiān)督應(yīng)該制定具體的監(jiān)督和執(zhí)法措施,包括審計(jì)和報(bào)告要求,允許對(duì)最敏感或高風(fēng)險(xiǎn)的人工智能系統(tǒng)進(jìn)行徹底審查,確保系統(tǒng)的可審計(jì)性,對(duì)于不負(fù)責(zé)任開發(fā)或使用人工智能且有過(guò)錯(cuò)的責(zé)任主體進(jìn)行懲戒。外部監(jiān)督應(yīng)當(dāng)通過(guò)審計(jì)進(jìn)行跟蹤,促進(jìn)系統(tǒng)可追溯性的實(shí)現(xiàn)。目前美國(guó)國(guó)家安全領(lǐng)域沒(méi)有針對(duì)人工智能的專門外部監(jiān)督機(jī)制,僅在內(nèi)部監(jiān)督方面進(jìn)行了落實(shí),因此外部監(jiān)督的具體做法和機(jī)構(gòu)設(shè)置仍是懸而未決的問(wèn)題。
2017年7月18日,國(guó)務(wù)院印發(fā)《新一代人工智能發(fā)展規(guī)劃》[11],成為我國(guó)在人工智能領(lǐng)域的首個(gè)系統(tǒng)部署文件,標(biāo)志著我國(guó)人工智能國(guó)家戰(zhàn)略正式拉開序幕[12]。在人工智能的發(fā)展過(guò)程中,我國(guó)可在理念層面和實(shí)操層面學(xué)習(xí)美國(guó)的經(jīng)驗(yàn)和方法,通過(guò)明確人工智能的倫理和法律準(zhǔn)則,為人工智能的發(fā)展提供指導(dǎo)思想,同時(shí)強(qiáng)化人工智能的可審計(jì)性、可追溯性、可解釋性與可依賴性,推動(dòng)其沿著正確發(fā)展方向前行。但對(duì)域外經(jīng)驗(yàn)的借鑒絕非照搬照抄,美國(guó)雖然在指引人工智能順應(yīng)本國(guó)價(jià)值觀的方法上具有先進(jìn)經(jīng)驗(yàn),但其終極目標(biāo)的價(jià)值觀并非完全正確,因此對(duì)我國(guó)而言,可以借鑒和學(xué)習(xí)其指引人工智能的方式,但絕不能對(duì)其價(jià)值觀進(jìn)行移植,應(yīng)當(dāng)對(duì)美國(guó)指引人工智能中的誤導(dǎo)和歪曲行為進(jìn)行甄別。
為促進(jìn)人工智能的健康發(fā)展,確保其符合倫理與法治要求,應(yīng)針對(duì)性制定人工智能發(fā)展的標(biāo)準(zhǔn),為人工智能發(fā)展提供評(píng)估的依據(jù)。人工智能發(fā)展的目標(biāo)是造福和服務(wù)人類,應(yīng)當(dāng)避免技術(shù)對(duì)人類的消解與威脅。美國(guó)在人工智能發(fā)展方面一直積極出臺(tái)各項(xiàng)戰(zhàn)略計(jì)劃,專注“人工智能優(yōu)先”的戰(zhàn)略思想,通過(guò)多個(gè)官方文件推動(dòng)倫理與法律準(zhǔn)則的落實(shí),并在具體的操作方面進(jìn)行執(zhí)行。例如2019年美國(guó)白宮更新《國(guó)家人工智能研究發(fā)展戰(zhàn)略計(jì)劃》[13],擴(kuò)展人工智能研發(fā)戰(zhàn)略重點(diǎn)?!秶?guó)家人工智能計(jì)劃法》中提出科技企業(yè)和國(guó)家科學(xué)基金會(huì)計(jì)劃受助人應(yīng)當(dāng)制定道德倫理聲明。該聲明包括以下幾點(diǎn):a.研究的潛在社會(huì)效益;b.對(duì)社會(huì)造成的任何可預(yù)見(jiàn)或可量化的風(fēng)險(xiǎn),包括該研究中有意或無(wú)意帶來(lái)的重大社會(huì)危害的產(chǎn)品、技術(shù)或其他成果;c.技術(shù)或社會(huì)解決方案如何減輕這種風(fēng)險(xiǎn),并制定采取這種減損措施的計(jì)劃。國(guó)防部試圖通過(guò)制定人工智能倫理準(zhǔn)則的方式,向外界保證美軍會(huì)以符合倫理和負(fù)責(zé)任的方式推動(dòng)人工智能的軍事應(yīng)用,從而塑造美軍內(nèi)外對(duì)于人工智能軍事應(yīng)用的信任和信心,減少輿論障礙。以人工智能面臨的歧視問(wèn)題為例,在智能技術(shù)高效率運(yùn)行的情況下,潛在的歧視會(huì)被無(wú)限的重復(fù),進(jìn)而被不當(dāng)強(qiáng)化。NSCAI在指引人工智能發(fā)展的過(guò)程中,也對(duì)歧視問(wèn)題進(jìn)行了考慮,并在上述理念層面采取的措施中避免歧視被人工智能擴(kuò)大。
我國(guó)在國(guó)家戰(zhàn)略層面重視人工智能發(fā)展,并已出臺(tái)政策進(jìn)行指導(dǎo)。2019年6月,新一代人工智能治理專業(yè)委員會(huì)發(fā)布《新一代人工智能治理原則》[14],提出人工智能倫理和法律的“三步走”戰(zhàn)略目標(biāo),到2025年,“初步建立人工智能法律法規(guī)、規(guī)范倫理和政策體系,形成人工智能安全評(píng)估和管控能力”。2021年9月,第一套人工智能倫理規(guī)范《新一代人工智能倫理規(guī)范》[15]發(fā)布,細(xì)化落實(shí)《新一代人工智能治理原則》,將倫理道德融入人工智能全生命周期,為人工智能應(yīng)用的相關(guān)活動(dòng)提供倫理指引。到2030年,我國(guó)將建成更加完善的人工智能法律法規(guī)、倫理規(guī)范和政策體系。我國(guó)可以借鑒美國(guó)戰(zhàn)略出臺(tái)和更新的方式,在2030年前將人工智能倫理與法律準(zhǔn)則明確規(guī)定在官方文件中,作為人工智能發(fā)展的指導(dǎo)思想,繼續(xù)完善人工智能的頂層設(shè)計(jì),重視人工智能產(chǎn)生的風(fēng)險(xiǎn),堅(jiān)定人工智能的發(fā)展目標(biāo)。通過(guò)倫理準(zhǔn)則的明確,在算法運(yùn)行之前對(duì)歧視問(wèn)題盡可能消除,在算法運(yùn)行之初及時(shí)發(fā)現(xiàn)歧視現(xiàn)象的存在,進(jìn)行中止和補(bǔ)救措施。通過(guò)政策與法律的完善,避免人工智能為公共利益而過(guò)度侵犯?jìng)€(gè)人利益。推動(dòng)人工智能發(fā)展的前提必須是確保其有效、合理、合法、可控,保證其有序應(yīng)用和良性發(fā)展,通過(guò)道德約束和法律規(guī)范防止技術(shù)的濫觴。除了運(yùn)用相關(guān)的倫理道德約束外,人工智能還應(yīng)遵守包括管理、研發(fā)、供應(yīng)、使用等不同階段的規(guī)范,促進(jìn)人工智能的公平與安全,避免偏見(jiàn)、歧視、隱私和信息泄露等問(wèn)題。
美國(guó)人工智能發(fā)展中存在錯(cuò)誤的價(jià)值觀,在國(guó)際社會(huì)企圖打壓其他國(guó)家的人工智能發(fā)展,以實(shí)現(xiàn)自身霸權(quán)。例如在加緊發(fā)展自身人工智能技術(shù)實(shí)力的同時(shí),美國(guó)已經(jīng)開始在關(guān)鍵技術(shù)領(lǐng)域?qū)χ袊?guó)采取遏制手段,企圖構(gòu)建自身主導(dǎo)的人工智能技術(shù)標(biāo)準(zhǔn),以保持科技領(lǐng)先地位,這種方式無(wú)疑是作繭自縛。正如2021年6月2日,美國(guó)總統(tǒng)科學(xué)顧問(wèn)兼科技政策辦公室主任埃里克·蘭德爾正式上任時(shí)針對(duì)拜登總統(tǒng)關(guān)于人工智能競(jìng)爭(zhēng)的問(wèn)題,發(fā)表公開信稱,引領(lǐng)全球科技發(fā)展給美國(guó)經(jīng)濟(jì)繁榮和國(guó)家安全帶來(lái)深遠(yuǎn)好處,而不僅僅是讓美國(guó)企業(yè)在全球市場(chǎng)中盡占先機(jī)[16]。即打壓其他國(guó)家人工智能等高新技術(shù)的發(fā)展空間也會(huì)傷害了美國(guó)自身的利益,在人工智能領(lǐng)域進(jìn)行冷戰(zhàn)式“零和思維”只會(huì)讓雙方都陷入困境,不同國(guó)家之間的技術(shù)差異,也加劇了國(guó)家之間的人工智能發(fā)展的不均衡,進(jìn)一步導(dǎo)致了“數(shù)字鴻溝”這一現(xiàn)象[17]。在借鑒美國(guó)發(fā)展人工智能的方法時(shí),我國(guó)應(yīng)對(duì)其中的偏激理念進(jìn)行甄別,避免以正確的方法實(shí)現(xiàn)錯(cuò)誤的目標(biāo),未來(lái)人工智能的發(fā)展將不再是某個(gè)國(guó)家的事情,而需要全球命運(yùn)共同體的齊心協(xié)力,適當(dāng)縮小數(shù)字鴻溝,才能維護(hù)人類社會(huì)整體福利。
a.可審計(jì)性強(qiáng)化。
人工智能的審計(jì)需要通過(guò)內(nèi)部和外部審計(jì)者的評(píng)估實(shí)現(xiàn),并通過(guò)評(píng)估報(bào)告驗(yàn)證和呈現(xiàn)技術(shù)的可靠性??蓪徲?jì)性對(duì)于建立和維護(hù)用戶對(duì)人工智能系統(tǒng)的信任至關(guān)重要,具體包括審計(jì)監(jiān)督人工智能的設(shè)計(jì)和運(yùn)行流程,檢測(cè)人工智能系統(tǒng)的能力,并進(jìn)行跟蹤分析等??蓪徲?jì)性的強(qiáng)化需要針對(duì)技術(shù)制定具體的監(jiān)督措施,包括審計(jì)標(biāo)準(zhǔn)和報(bào)告要求。人工智能系統(tǒng)的開發(fā)信息需要盡可能永久保存,以備審計(jì)所需,避免由于科學(xué)人員流動(dòng)性引起的信息丟失。對(duì)于敏感和高風(fēng)險(xiǎn)的人工智能系統(tǒng)應(yīng)進(jìn)行徹底審查的機(jī)制,在涉及如人身安全等人類基本權(quán)利的應(yīng)用中,人工智能系統(tǒng)應(yīng)該進(jìn)行獨(dú)立的審計(jì)。對(duì)于人工智能的審計(jì),可以借鑒美國(guó)人工智能問(wèn)責(zé)治理的內(nèi)部監(jiān)督與外部監(jiān)督方式,從內(nèi)部審計(jì)和外部審計(jì)兩個(gè)方面進(jìn)行。對(duì)于算法的監(jiān)管和審計(jì)曾有“算法師”這一職責(zé)的提出,其中“外部算法師”類似政府審計(jì)與外部監(jiān)督員,“內(nèi)部算法師”類似企業(yè)內(nèi)部監(jiān)督大數(shù)據(jù)活動(dòng)的工作[18]。強(qiáng)化人工智能的可審計(jì)性應(yīng)通過(guò)內(nèi)部審計(jì)提前識(shí)別風(fēng)險(xiǎn),從而明確風(fēng)險(xiǎn)職責(zé),同時(shí)對(duì)外部審計(jì)結(jié)果進(jìn)行承認(rèn)。
b.可追溯性強(qiáng)化。
增強(qiáng)人工智能的可追溯性,是人類操控和更新人工智能模型的重要內(nèi)容。人工智能是從數(shù)據(jù)中學(xué)習(xí)復(fù)雜系統(tǒng)隱含的內(nèi)在規(guī)律,基于先驗(yàn)經(jīng)驗(yàn)和統(tǒng)計(jì)模型進(jìn)行數(shù)據(jù)預(yù)處理和建模分析,可追溯性要求人類掌控人工智能的學(xué)習(xí)規(guī)律,明確其分析原理和分析過(guò)程,人工智能系統(tǒng)產(chǎn)生決策使用的數(shù)據(jù)集和過(guò)程都應(yīng)該記錄下來(lái)以備追溯,并且應(yīng)該增加透明性,對(duì)收集的數(shù)據(jù)和算法使用進(jìn)行記錄。而技術(shù)發(fā)展的局限降低了人工智能的可追溯性,導(dǎo)致人工智能系統(tǒng)的發(fā)展進(jìn)入瓶頸。在數(shù)據(jù)資源方面,美國(guó)的政策是擴(kuò)大專家獲取高質(zhì)量、有效和完全可追蹤的聯(lián)邦數(shù)據(jù)、模型和計(jì)算資源,用于聯(lián)邦資助的人工智能研發(fā),提高美國(guó)人工智能專家的競(jìng)爭(zhēng)力?!毒S護(hù)美國(guó)在人工智能領(lǐng)域領(lǐng)先地位》行政令中指出:所有機(jī)構(gòu)的負(fù)責(zé)人應(yīng)審查他們的聯(lián)邦數(shù)據(jù)和模型,以確保更多非聯(lián)邦人工智能研究團(tuán)隊(duì)訪問(wèn)和使用的機(jī)會(huì)[19]。2021年12月,美國(guó)防部正式設(shè)立首席數(shù)字與人工智能官(CDAO)一職,以加強(qiáng)國(guó)防部的數(shù)據(jù)與人工智能技術(shù)開發(fā)應(yīng)用[20]。我國(guó)在人工智能可追溯性的增強(qiáng)方面,可以吸收美國(guó)對(duì)數(shù)據(jù)的開發(fā)經(jīng)驗(yàn),公開、可用的數(shù)據(jù)對(duì)人工智能技術(shù)研發(fā)有關(guān)鍵作用,且數(shù)據(jù)多樣性、深度、質(zhì)量和準(zhǔn)確性顯著影響人工智能能力,因此必須夯實(shí)人工智能開發(fā)需具備的數(shù)據(jù)集、測(cè)試和訓(xùn)練資源基礎(chǔ)。人工智能技術(shù)的發(fā)展離不開人才培養(yǎng),人才的流失可能意味著失去對(duì)稀缺的人工智能專業(yè)知識(shí)的全球競(jìng)爭(zhēng)力。美國(guó)第二號(hào)國(guó)防教育法案(National Defense Education Act II)作為培養(yǎng)科技人才的重要舉措,指出解決美國(guó)科技教育體系中的不足。同時(shí),美國(guó)通過(guò)新的激勵(lì)措施和為技術(shù)移民在辦理簽證、綠卡以及尋找工作方面提供便利等舉措,鼓勵(lì)更多人工智能人才在美國(guó)學(xué)習(xí)、工作和定居。2021年5月,美國(guó)參議院議員提出《人工智能能力與透明度法案》和《軍事人工智能法案》,前者致力于落實(shí)人工智能國(guó)家安全委員會(huì)最終報(bào)告給出的建議,改進(jìn)人才招募制度并加速采用新技術(shù),增強(qiáng)政府使用人工智能的能力及透明度,后者致力于改善軍隊(duì)各級(jí)人員的人工智能教育與培訓(xùn)計(jì)劃,使其能更好地使用人工智能。2022年2月4日,美國(guó)通過(guò)了《2022年美國(guó)競(jìng)爭(zhēng)法》,明確出臺(tái)了對(duì)芯片行業(yè)的扶持計(jì)劃。美國(guó)將創(chuàng)立芯片基金,撥款520億美元鼓勵(lì)私營(yíng)芯片企業(yè)在美國(guó)建廠,創(chuàng)造就業(yè)機(jī)會(huì)的同時(shí),支撐國(guó)家安全。在該法案的特別條款中,美國(guó)放寬了包括人工智能專業(yè)人才在內(nèi)的科技人才綠卡配額。以此為鑒,我國(guó)也應(yīng)注重人工智能領(lǐng)域人才的培養(yǎng),通過(guò)教育強(qiáng)化與基金扶持等方式,避免人才大量外流,提高人工智能技術(shù)背后的團(tuán)隊(duì)素質(zhì),通過(guò)提升技術(shù)手段,實(shí)現(xiàn)為人工智能系統(tǒng)可追溯性的提升。
c.可解釋性強(qiáng)化。
可解釋性的強(qiáng)化歸根結(jié)底是對(duì)技術(shù)解釋能力的強(qiáng)化,意味著人工智能系統(tǒng)的可描述化、可程序化等,增強(qiáng)人工智能的公開性和透明度,以此減少公眾對(duì)人工智能的疑慮和擔(dān)憂。目前人工智能的可解釋性仍在不斷完善,與人工智能有關(guān)的大部分?jǐn)?shù)據(jù)依然存在保密、訪問(wèn)受控以及受隱私保護(hù)等問(wèn)題,因此在監(jiān)督過(guò)程中需要在可追溯性的需求和數(shù)據(jù)保護(hù)之間尋求平衡。面對(duì)不斷多元化、復(fù)雜化的人工智能安全風(fēng)險(xiǎn),應(yīng)加強(qiáng)跟蹤研究以增加其公開透明程度,建立安全情報(bào)信息共享機(jī)制,定期發(fā)布相應(yīng)的研究報(bào)告,對(duì)相應(yīng)的管理規(guī)范和指引進(jìn)行動(dòng)態(tài)調(diào)整。美國(guó)聯(lián)邦政府承諾,將以符合《憲法》和美國(guó)價(jià)值觀并保護(hù)公民自由和隱私的方式充分利用人工智能,明確要培養(yǎng)公眾對(duì)人工智能技術(shù)的信任和信心,并在技術(shù)應(yīng)用中保護(hù)公民自由、隱私和美國(guó)的價(jià)值觀。我國(guó)可以借鑒美國(guó)問(wèn)責(zé)治理制度,適應(yīng)人工智能監(jiān)督的較強(qiáng)技術(shù)性??山忉屝缘那疤崾悄軌蛴行Ю迩寮夹g(shù)運(yùn)作的方式,明確輸入資料和輸出結(jié)果之間的關(guān)聯(lián)性,以此來(lái)判定通過(guò)技術(shù)產(chǎn)生的結(jié)果是否恰當(dāng),是否存在偏差或者是否有歧視[21],因此需要更多對(duì)專業(yè)知識(shí)有了解的人對(duì)其進(jìn)行解釋,從而增加公眾的信任度。政府或國(guó)家決策者應(yīng)對(duì)人工智能的研究和應(yīng)用加強(qiáng)引導(dǎo)、監(jiān)督和管理,廣泛開展智能知識(shí)普及,提供智能產(chǎn)品的服務(wù)和加大智能培訓(xùn)力度,建立健全公開透明的人工智能監(jiān)管體系,督促人工智能行業(yè)和企業(yè)加強(qiáng)自律,切實(shí)履行社會(huì)責(zé)任。
d.可依賴性強(qiáng)化。
人工智能系統(tǒng)應(yīng)當(dāng)成為人類的輔助工具,而非干預(yù)人類甚至取代人類,進(jìn)而引發(fā)系統(tǒng)失控的風(fēng)險(xiǎn)。人機(jī)交互是人工智能和人類共同協(xié)作的過(guò)程,這一過(guò)程以人工智能系統(tǒng)的可信賴性為基礎(chǔ),人類需要增強(qiáng)對(duì)人工智能系統(tǒng)的信任,進(jìn)一步增強(qiáng)與人工智能的互動(dòng)。在人機(jī)交互過(guò)程中,人類和系統(tǒng)需要有共同目標(biāo),并執(zhí)行各自任務(wù),以達(dá)成協(xié)調(diào)的合作。美國(guó)作為人工智能發(fā)展較為發(fā)達(dá)的國(guó)家,在人機(jī)交互層面仍在不斷探索中,人機(jī)混合智能和態(tài)勢(shì)感知機(jī)理相對(duì)模糊、機(jī)制較為混亂,由此而產(chǎn)生的智能只描述了事實(shí)性計(jì)算,缺失了人的情感性、價(jià)值性和責(zé)任性。人工智能系統(tǒng)在與人類高效協(xié)作時(shí),應(yīng)實(shí)現(xiàn)個(gè)性化適應(yīng),從而提升人機(jī)溝通能力。人機(jī)交互應(yīng)不斷迭代發(fā)展,最終實(shí)現(xiàn)個(gè)性化的輔助決策系統(tǒng),達(dá)到人與機(jī)器的最優(yōu)匹配。此外,為了增強(qiáng)人工智能的可依賴性,提升人工智能的安全性能,我國(guó)應(yīng)建立人工智能安全責(zé)任制度。結(jié)合美國(guó)構(gòu)建責(zé)任框架和問(wèn)責(zé)機(jī)制的思想,設(shè)立安全問(wèn)責(zé)框架并進(jìn)行落實(shí),促使各相關(guān)主題樹立責(zé)任意識(shí),一方面明晰組織內(nèi)部責(zé)任分工,建立責(zé)任制;另一方面明確系統(tǒng)開發(fā)設(shè)計(jì)、使用、維護(hù)等不同階段對(duì)應(yīng)主體的責(zé)任。
人工智能飛速發(fā)展的同時(shí),與之相伴的誤解、誤判等問(wèn)題也需要及時(shí)解決。國(guó)內(nèi)現(xiàn)有研究雖然試圖解決這一問(wèn)題,但并未從政府引導(dǎo)人工智能適配我國(guó)倫理與法治的角度進(jìn)行分析,更極少將域外經(jīng)驗(yàn)應(yīng)用于中國(guó)特色社會(huì)主義倫理準(zhǔn)則與法律體系中。面對(duì)人工智能引發(fā)的倫理與法律問(wèn)題,美國(guó)已經(jīng)采取措施對(duì)人工智能的健康發(fā)展及時(shí)指引,通過(guò)增強(qiáng)人工智能的可審計(jì)性、可追溯性、可解釋性和可依賴性,開發(fā)和運(yùn)行符合倫理和法治的人工智能系統(tǒng),促進(jìn)人工智能契合人類的需求,解決因人工智能技術(shù)和系統(tǒng)應(yīng)用帶來(lái)改變而產(chǎn)生負(fù)面影響,滿足技術(shù)不斷提升的同時(shí)維護(hù)安全。我國(guó)應(yīng)當(dāng)對(duì)域外經(jīng)驗(yàn)中的可取之處進(jìn)行吸收,對(duì)其中的誤區(qū)進(jìn)行避免,通過(guò)理念層面和實(shí)操層面的雙重努力,進(jìn)一步加強(qiáng)人工智能體系化布局,加快人工智能安全風(fēng)險(xiǎn)研判,完善風(fēng)險(xiǎn)管理體系,確保我國(guó)的人工智能依照倫理和法律穩(wěn)步發(fā)展。