□文/曹建峰、李金磊
國(guó)際互聯(lián)網(wǎng)協(xié)會(huì)發(fā)布AI與機(jī)器學(xué)習(xí)政策文件
□文/曹建峰、李金磊
日前,國(guó)際互聯(lián)網(wǎng)協(xié)會(huì)(ISOC)發(fā)布《人工智能與機(jī)器學(xué)習(xí):政策文件》,分析當(dāng)前的有限人工智能(narrow AI)發(fā)展和應(yīng)用中面臨的問(wèn)題和挑戰(zhàn),并提出指導(dǎo)原則和建議。
近年來(lái),人工智能(Artificial Intelligence,縮寫為AI)受到越來(lái)越多的關(guān)注?;ヂ?lián)網(wǎng)使創(chuàng)新成為可能,也讓AI更貼近我們的日常生活。這些進(jìn)步連同科學(xué)技術(shù)對(duì)社會(huì)經(jīng)濟(jì)和倫理的潛在影響,使得人工智能成為許多當(dāng)代辯論的前沿話題。產(chǎn)業(yè)對(duì)AI的投資在迅速增長(zhǎng),而且各國(guó)政府在嘗試了解技術(shù)對(duì)公民的意義。
“大數(shù)據(jù)”的收集和物聯(lián)網(wǎng)(IoT)的擴(kuò)張,為新的AI應(yīng)用和服務(wù)的發(fā)展提供了一個(gè)良好的環(huán)境?;贏I的應(yīng)用已經(jīng)在醫(yī)療診斷、針對(duì)性治療、交通運(yùn)輸、公共安全、服務(wù)機(jī)器人、教育和娛樂(lè)等領(lǐng)域中得到體現(xiàn),而且在未來(lái)幾年AI還將被應(yīng)用于更多領(lǐng)域。與互聯(lián)網(wǎng)一起,AI改變了我們體驗(yàn)世界的方式,并有潛力成為經(jīng)濟(jì)增長(zhǎng)的新引擎。
AI的當(dāng)前用途
雖然人工智能總是與科幻小說(shuō)相聯(lián)系,但是實(shí)際上人工智能今天已經(jīng)有很多用途,例如:
(1)電子郵件過(guò)濾:電子郵件服務(wù)使用人工智能過(guò)濾傳入的電子郵件。用戶可以通過(guò)將電子郵件標(biāo)記為“垃圾郵件”來(lái)訓(xùn)練他們的垃圾郵件過(guò)濾器。
(2)個(gè)性化服務(wù)(personalization):在線服務(wù)使用人工智能來(lái)個(gè)性化定制用戶的體驗(yàn)。例如亞馬遜或Netflix這樣的服務(wù)商可以從用戶過(guò)去的購(gòu)買行為和其他用戶的購(gòu)買行為中“學(xué)習(xí)”,為用戶準(zhǔn)確推薦相關(guān)內(nèi)容。
(3)欺詐檢測(cè):銀行使用人工智能來(lái)確定用戶的賬戶是否有異常的活動(dòng)發(fā)生。例如國(guó)外交易等意外活動(dòng),可能會(huì)被算法標(biāo)記出來(lái)。
(4)客戶服務(wù):利用人工智能理解自然語(yǔ)言的聊天機(jī)器人(chatbots)被許多公司用來(lái)以口頭和書面形式回答常見(jiàn)問(wèn)題。
互聯(lián)網(wǎng)協(xié)會(huì)(The Internet Society)認(rèn)識(shí)到,了解與AI相關(guān)的機(jī)會(huì)和挑戰(zhàn)對(duì)于建設(shè)一個(gè)為人們所信任的互聯(lián)網(wǎng)至關(guān)重要。本政策文件介紹了關(guān)于AI的關(guān)鍵問(wèn)題,包括一系列指導(dǎo)原則和建議,以幫助制定健全的政策決策。本政策文件特別關(guān)注機(jī)器學(xué)習(xí),這是實(shí)現(xiàn)AI的一個(gè)具體路徑,也是AI最近發(fā)展背后的驅(qū)動(dòng)力。
人工智能(AI)傳統(tǒng)上是指可以學(xué)習(xí)、推理、計(jì)劃、感知和處理自然語(yǔ)言的人造的類人智能(human-like intelligence)。
人工智能被進(jìn)一步定義為“有限AI(narrow AI)” 或“ 通 用 AI(general AI)”。有限AI是指在某一領(lǐng)域(如語(yǔ)言翻譯)執(zhí)行特定任務(wù)的AI,這也是當(dāng)前我們能夠接觸到的AI。通用AI目前只是假設(shè),尚未實(shí)現(xiàn),并且不受領(lǐng)域約束,在所有領(lǐng)域都可以學(xué)習(xí)并執(zhí)行任務(wù)。一般AI不在本文的討論范圍之內(nèi)。本文重點(diǎn)介紹有限AI的進(jìn)展,特別是關(guān)于計(jì)算機(jī)科學(xué)領(lǐng)域中被稱為機(jī)器學(xué)習(xí)的新算法和模型的發(fā)展。
算法是用于解決問(wèn)題的一系列指令(instructions)。程序員開(kāi)發(fā)的用于指導(dǎo)計(jì)算機(jī)進(jìn)行新任務(wù)的算法是我們今天看到的先進(jìn)數(shù)字世界的基礎(chǔ)。計(jì)算機(jī)算法根據(jù)某些指令和規(guī)則,將大量數(shù)據(jù)組織到信息和服務(wù)中。這是一個(gè)需要了解的重要概念,因?yàn)樵跈C(jī)器學(xué)習(xí)中,是學(xué)習(xí)算法(learning algorithms)創(chuàng)建了規(guī)則,而不是程序員。
機(jī)器學(xué)習(xí)不是一步一步地對(duì)計(jì)算機(jī)編程,它向計(jì)算機(jī)發(fā)出指令,允許計(jì)算機(jī)從數(shù)據(jù)中學(xué)習(xí),而不需要程序員做出新的分步指令。這意味著計(jì)算機(jī)可以用于無(wú)法手動(dòng)編程的、新的、復(fù)雜的任務(wù),例如針對(duì)視覺(jué)障礙者的照片識(shí)別應(yīng)用或者將圖片翻譯成口頭表達(dá)。
機(jī)器學(xué)習(xí)的基本過(guò)程是給學(xué)習(xí)算法提供訓(xùn)練數(shù)據(jù)。然后,學(xué)習(xí)算法基于數(shù)據(jù)的推論生成一組新的規(guī)則。這本質(zhì)上就是生成一種新的算法,稱之為機(jī)器學(xué)習(xí)模型。通過(guò)使用不同的訓(xùn)練數(shù)據(jù),相同的學(xué)習(xí)算法可以生成不同的模型。例如,可以使用相同類型的學(xué)習(xí)算法來(lái)教授計(jì)算機(jī)如何翻譯語(yǔ)言或預(yù)測(cè)股票市場(chǎng)。
從數(shù)據(jù)中推理出新的指令是機(jī)器學(xué)習(xí)的核心優(yōu)勢(shì)。它還突出了數(shù)據(jù)的關(guān)鍵作用:用于訓(xùn)練算法的可用數(shù)據(jù)越多,算法學(xué)習(xí)到的就越多。事實(shí)上,AI的許多最新進(jìn)展并不是由于學(xué)習(xí)算法的激進(jìn)創(chuàng)新,而是現(xiàn)在積累了大量的可用數(shù)據(jù)。
機(jī)器如何學(xué)習(xí)
雖然機(jī)器學(xué)習(xí)模型可以是應(yīng)用不同技術(shù)的混合(mix),但是學(xué)習(xí)的方法通??梢苑譃槿N一般類型:
曹建峰 騰訊研究院研究員
李金磊 騰訊研究院助理研究員
(1)監(jiān)督學(xué)習(xí)(supervised learning):給學(xué)習(xí)算法提供標(biāo)記的(labeled)數(shù)據(jù)和所需的輸出。例如,標(biāo)記為“狗”的狗的照片將有助于算法識(shí)別用于分類狗的圖片的規(guī)則。
(2)無(wú)監(jiān)督學(xué)習(xí)(unsupervised learning):給學(xué)習(xí)算法提供的數(shù)據(jù)是未標(biāo)記的,并且要求算法識(shí)別輸入數(shù)據(jù)中的模式。例如,在電子商務(wù)網(wǎng)站的推薦系統(tǒng)中,學(xué)習(xí)算法發(fā)現(xiàn)通常一起購(gòu)買的類似商品。
(3)強(qiáng)化學(xué)習(xí)(reinforcement learning):該算法與動(dòng)態(tài)環(huán)境相互作用,在獎(jiǎng)勵(lì)和懲罰方面提供反饋。例如,自動(dòng)駕駛汽車留在路上時(shí)就會(huì)被獎(jiǎng)勵(lì)。
機(jī)器學(xué)習(xí)并不是新鮮事物。許多在業(yè)內(nèi)引起新的興趣的學(xué)習(xí)算法(例如神經(jīng)網(wǎng)絡(luò)),都是基于數(shù)十年的研究。目前AI和機(jī)器學(xué)習(xí)的增長(zhǎng)與三個(gè)重要領(lǐng)域的發(fā)展有關(guān):
(1)數(shù)據(jù)可用性:超過(guò)30億人在線,約170億個(gè)連接的設(shè)備或傳感器,產(chǎn)生了大量數(shù)據(jù),而數(shù)據(jù)存儲(chǔ)成本的降低,使得這些數(shù)據(jù)易于使用。機(jī)器學(xué)習(xí)可以將這些龐大的數(shù)據(jù)用于學(xué)習(xí)算法的訓(xùn)練,開(kāi)發(fā)新規(guī)則來(lái)執(zhí)行日益復(fù)雜的任務(wù)。
(2)計(jì)算能力:強(qiáng)大的計(jì)算機(jī)和通過(guò)互聯(lián)網(wǎng)連接遠(yuǎn)程處理能力的能力使得可以處理大量數(shù)據(jù)的機(jī)器學(xué)習(xí)技術(shù)成為可能。
(3)算法創(chuàng)新:新的機(jī)器學(xué)習(xí)技術(shù),特別是分層神經(jīng)網(wǎng)絡(luò)(layered neural networks),也被稱為“深度學(xué)習(xí)(deep learning)”,啟發(fā)了新的服務(wù),也刺激了對(duì)人工智能這一領(lǐng)域其他方面的投資和研究。
隨著機(jī)器學(xué)習(xí)算法在越來(lái)越多的產(chǎn)品和服務(wù)中的應(yīng)用,在面對(duì)人工智能時(shí)必須考慮一些重要因素,尤其是在人們對(duì)互聯(lián)網(wǎng)的信任這一大背景下:
(1)社會(huì)經(jīng)濟(jì)影響:AI的新功能和服務(wù)將會(huì)產(chǎn)生重大的社會(huì)經(jīng)濟(jì)影響。機(jī)器展示出高級(jí)認(rèn)知技能、處理自然語(yǔ)言、學(xué)習(xí)、計(jì)劃和感知的能力,使得新的任務(wù)可以由智能系統(tǒng)執(zhí)行,有時(shí)甚至比人類更加成功。AI的新應(yīng)用可以為更有效的醫(yī)療保健、更安全的行業(yè)和服務(wù)提供激動(dòng)人心的機(jī)會(huì),大規(guī)模提高社會(huì)生產(chǎn)力。
(2)透明度、偏見(jiàn)和責(zé)任:AI做出的決策可能會(huì)對(duì)人們的生活產(chǎn)生重要的影響。AI可能歧視某些個(gè)人或由于帶有偏見(jiàn)的訓(xùn)練數(shù)據(jù)而造成錯(cuò)誤。AI的決策往往難以理解,使得偏見(jiàn)的解決和追責(zé)問(wèn)題變得更加困難。
(3)數(shù)據(jù)的新用途:機(jī)器學(xué)習(xí)算法在大量數(shù)據(jù)(通常被稱為“大數(shù)據(jù)”)中分析和驗(yàn)證模型已經(jīng)被證明是十分高效的。大數(shù)據(jù)用于訓(xùn)練學(xué)習(xí)算法以提高其性能。這會(huì)增加對(duì)數(shù)據(jù)的需求,鼓勵(lì)數(shù)據(jù)收集,并提高了以犧牲用戶隱私為代價(jià)來(lái)過(guò)度分享(oversharing)信息的風(fēng)險(xiǎn)。
(4)安全和可靠性(security and safety):人工智能的進(jìn)步及其使用也將帶來(lái)新的安全和可靠性挑戰(zhàn),包括AI能動(dòng)者(AI agent)的不可預(yù)測(cè)的和有害的行為,也包括惡意行為者的對(duì)抗學(xué)習(xí)(adversarial learning)。
(5)倫理:人工智能做出的選擇可能是算法的邏輯結(jié)果,但是可能會(huì)被認(rèn)為是不道德的(unethical),應(yīng)當(dāng)強(qiáng)調(diào)將道德考慮融入到AI系統(tǒng)和算法中的重要性。
(6)新生態(tài)系統(tǒng):像移動(dòng)互聯(lián)網(wǎng)一樣,人工智能能夠帶來(lái)新的應(yīng)用、服務(wù)以及網(wǎng)絡(luò)交互的新方式。例如,通過(guò)語(yǔ)音和智能代理(speech and smart agents),這可能給互聯(lián)網(wǎng)的開(kāi)放與訪問(wèn)帶來(lái)新的挑戰(zhàn)。
AI發(fā)展中利益相關(guān)方所面臨的挑戰(zhàn)來(lái)源于多種因素,包括:
(1)決策:透明度和“可解釋性(interpretability)”。人工智能執(zhí)行的任務(wù)從自動(dòng)駕駛汽車到管理保險(xiǎn)理賠,理解人工智能的決策就變得至關(guān)重要。但算法決策的透明度有時(shí)受到企業(yè)或國(guó)家秘密或技術(shù)素養(yǎng)等方面的限制,而機(jī)器學(xué)習(xí)使得這一問(wèn)題進(jìn)一步復(fù)雜化。因?yàn)闄C(jī)器學(xué)習(xí)模型的內(nèi)部決策邏輯并不總是可以被理解的,即使對(duì)于程序員也是如此。
雖然學(xué)習(xí)算法可能是公開(kāi)和透明的,但它產(chǎn)生的模型可能不是。這對(duì)機(jī)器學(xué)習(xí)系統(tǒng)的開(kāi)發(fā)有重要的意義,但更重要的是它的安全部署和責(zé)任問(wèn)題。有必要了解為什么自動(dòng)駕駛汽車選擇采取具體行動(dòng),不僅要確保技術(shù)的有效性,而且還要在發(fā)生事故的情況下確定責(zé)任。
(2)數(shù)據(jù)質(zhì)量和偏見(jiàn):在機(jī)器學(xué)習(xí)中,該模型的算法好壞與其訓(xùn)練所使用的數(shù)據(jù)掛鉤,稱為“垃圾進(jìn),垃圾出(garbage in, garbage out)”。這意味著有偏見(jiàn)的數(shù)據(jù)將導(dǎo)致偏見(jiàn)的決策。例如,在美國(guó)的一些地區(qū),使用“風(fēng)險(xiǎn)評(píng)估”的算法來(lái)確定犯罪人未來(lái)再犯的風(fēng)險(xiǎn)。如果使用了帶有種族偏見(jiàn)的數(shù)據(jù)對(duì)這些算法進(jìn)行訓(xùn)練,那么這些算法可能將更高的風(fēng)險(xiǎn)分配給某一種族的個(gè)人??煽康臄?shù)據(jù)是至關(guān)重要的,但是對(duì)訓(xùn)練數(shù)據(jù)的巨大需求鼓勵(lì)數(shù)據(jù)收集。這與AI識(shí)別新模型或重新識(shí)別匿名信息的能力相結(jié)合,可能會(huì)給用戶的基本權(quán)利帶來(lái)風(fēng)險(xiǎn),因?yàn)樗沟眯骂愋偷母呒?jí)畫像成為可能,從而可能對(duì)特定個(gè)體或群體造成歧視。
由于難以理解機(jī)器學(xué)習(xí)模型如何解決問(wèn)題,特別是與大量輸入的數(shù)據(jù)相結(jié)合時(shí),偏見(jiàn)最小化的問(wèn)題也變得復(fù)雜。因此,可能難以確定導(dǎo)致歧視問(wèn)題出現(xiàn)的具體數(shù)據(jù)從而進(jìn)行調(diào)整。如果人們覺(jué)得一個(gè)系統(tǒng)有偏見(jiàn),就會(huì)破壞對(duì)技術(shù)的信心。
(3)安全和可靠性:隨著AI能動(dòng)者學(xué)習(xí)并與其環(huán)境相互作用,其安全部署問(wèn)題面臨許多挑戰(zhàn)。這些挑戰(zhàn)可能來(lái)源于不可預(yù)測(cè)的、有害的行為,包括AI能動(dòng)者對(duì)其行為影響的漠不關(guān)心。一個(gè)例子是“獎(jiǎng)勵(lì)黑客”的風(fēng)險(xiǎn),AI能動(dòng)者找到一種可以使其更容易達(dá)到目標(biāo)的方式,但這種方式與設(shè)計(jì)者的原有意圖并不相符,例如清潔機(jī)器人清理地毯下的污垢。
AI能動(dòng)者的安全性也可能受到其如何從環(huán)境中學(xué)習(xí)的限制。在強(qiáng)化學(xué)習(xí)中,這源于所謂的探索/開(kāi)發(fā)困境(exploration/exploit dilemma)。這意味著AI能動(dòng)者可能會(huì)偏離解決問(wèn)題的成功策略,而去探索能夠帶來(lái)更高回報(bào)的其他選項(xiàng)。這可能會(huì)產(chǎn)生毀滅性的后果,例如一輛自動(dòng)駕駛汽車可能通過(guò)選擇錯(cuò)誤的道路來(lái)探索這樣做所帶來(lái)的回報(bào)。
還有一個(gè)風(fēng)險(xiǎn)是自動(dòng)系統(tǒng)被惡意的行為者掌控,試圖操縱算法。微軟在Twitter上部署的聊天機(jī)器人“Tay”就是一個(gè)很好的例子。本意是讓其學(xué)習(xí)與其他用戶互動(dòng)。但是,通過(guò)協(xié)調(diào)的攻擊行為,Twitter的用戶操縱了它,對(duì)其進(jìn)行培訓(xùn),讓其從事種族主義行為。其他例子如所謂的“對(duì)抗學(xué)習(xí)”,包括試圖影響垃圾郵件過(guò)濾器或異常網(wǎng)絡(luò)流量檢測(cè)系統(tǒng)的訓(xùn)練數(shù)據(jù)的攻擊,從而誤導(dǎo)學(xué)習(xí)算法進(jìn)行后續(xù)開(kāi)發(fā)。
操縱訓(xùn)練數(shù)據(jù)的能力,或者利用AI能動(dòng)者的行為,突出關(guān)于機(jī)器學(xué)習(xí)模型的透明度問(wèn)題。訓(xùn)練數(shù)據(jù)和所涉技術(shù)的詳細(xì)信息的披露,可能會(huì)使AI能動(dòng)者面臨對(duì)抗學(xué)習(xí)。在關(guān)于算法決策透明度的討論中,必須考慮安全問(wèn)題。
(4)責(zé)任問(wèn)題:學(xué)習(xí)算法的優(yōu)點(diǎn)和高效是基于其無(wú)需一步一步的指令就能生成規(guī)則的能力。雖然這種技術(shù)已經(jīng)被證明能夠完成諸如面部識(shí)別和解釋自然語(yǔ)音等復(fù)雜的任務(wù),但是這也是引發(fā)擔(dān)憂的問(wèn)題之一。
當(dāng)一臺(tái)機(jī)器自己學(xué)習(xí)的時(shí)候,程序員對(duì)其的控制能力減弱。雖然非機(jī)器學(xué)習(xí)的算法可能反映偏見(jiàn),但算法特定輸出背后的推理是可以解釋的。而機(jī)器學(xué)習(xí)并不是這么簡(jiǎn)單。
無(wú)法解釋為什么做出某項(xiàng)具體行為,使責(zé)任的承擔(dān)成為一個(gè)問(wèn)題。如前所述,如果從事種族主義行為的聊天人Tay違反了一項(xiàng)法律(例如發(fā)布犯罪威脅),開(kāi)發(fā)Tay的程序員會(huì)因此負(fù)責(zé)嗎?還是那些對(duì)Tay從事對(duì)抗性訓(xùn)練的Twitter用戶負(fù)責(zé)呢?
在大多數(shù)國(guó)家,程序員對(duì)其算法缺陷產(chǎn)生的損害概不負(fù)責(zé)。這一規(guī)則很重要,如果需要程序員負(fù)責(zé),那么他們可能因此不愿意創(chuàng)新。然而,隨著物聯(lián)網(wǎng)技術(shù)的進(jìn)步,責(zé)任承擔(dān)問(wèn)題可能會(huì)變得更加緊迫。由于算法中的缺陷導(dǎo)致更大的損害,制造商、運(yùn)營(yíng)商以及程序員都需要厘清各自的責(zé)任。對(duì)于AI來(lái)說(shuō),訓(xùn)練數(shù)據(jù)比算法本身更容易出現(xiàn)問(wèn)題。由于AI算法操作背后的推理不為人所知,AI使得本已經(jīng)十分困難的軟件責(zé)任問(wèn)題進(jìn)一步復(fù)雜化。而且與許多領(lǐng)域一樣,責(zé)任可能推動(dòng)著變革。
(5)社會(huì)和經(jīng)濟(jì)影響:據(jù)預(yù)測(cè),人工智能技術(shù)將通過(guò)提高生產(chǎn)率帶來(lái)經(jīng)濟(jì)變化。這包括能夠執(zhí)行新任務(wù)的機(jī)器,例如自動(dòng)駕駛汽車、高級(jí)機(jī)器人或智能助手等來(lái)幫助人們的日常生活。然而,如何分配技術(shù)進(jìn)步帶來(lái)的好處,以及利益相關(guān)方如何采取行動(dòng),將會(huì)對(duì)勞動(dòng)力市場(chǎng)和整個(gè)社會(huì)帶來(lái)截然不同的結(jié)果。
對(duì)于消費(fèi)者而言,自動(dòng)化可能意味著更高的效率和更便宜的產(chǎn)品。人工智能也將創(chuàng)造新的工作或增加對(duì)某些現(xiàn)有的工作的需求,但這也意味著目前的一些工作可能會(huì)在未來(lái)的十到二十年內(nèi)自動(dòng)化。有人預(yù)測(cè),在美國(guó),高達(dá)47%的工作可以實(shí)現(xiàn)自動(dòng)化。非技術(shù)的低薪工作更有可能被自動(dòng)化,但AI也將影響廣泛依賴常規(guī)認(rèn)知任務(wù)的高技能工作。取決于凈效應(yīng)(net-effect),這可能導(dǎo)致較高程度的結(jié)構(gòu)性失業(yè)。
在全球范圍內(nèi),自動(dòng)化也可能影響地理分工。在過(guò)去幾十年中,一些經(jīng)濟(jì)部門的生產(chǎn)和服務(wù)已經(jīng)從發(fā)達(dá)經(jīng)濟(jì)體轉(zhuǎn)向新興經(jīng)濟(jì)體,主要是由于這些新興經(jīng)濟(jì)體的勞動(dòng)力或材料成本相對(duì)較低。這些變化推動(dòng)了世界上新興經(jīng)濟(jì)體的快速發(fā)展,并支持日益壯大的全球中產(chǎn)階級(jí)的隊(duì)伍。但是,隨著AI技術(shù)的出現(xiàn),這些激勵(lì)措施可能會(huì)減少。一些公司可能會(huì)選擇在當(dāng)?shù)貙⒁恍I(yè)務(wù)自動(dòng)化,而不再是將這些業(yè)務(wù)外包出去。
AI和自動(dòng)化對(duì)勞動(dòng)力市場(chǎng)和地域分工的影響不可能是均等的。例如,如果社會(huì)的一小部分從AI獲得經(jīng)濟(jì)利益,同時(shí)讓許多人失去工作,最終可能會(huì)導(dǎo)致階級(jí)分裂。不平等也可能導(dǎo)致技術(shù)上的不信任,尤其是對(duì)于AI技術(shù)和互聯(lián)網(wǎng),可能會(huì)被認(rèn)為是導(dǎo)致這種不平等的罪魁禍?zhǔn)住?/p>
(6)治理:參與治理人工智能的機(jī)構(gòu)、程序和組織仍處于早期階段。在很大程度上,生態(tài)系統(tǒng)與涉及互聯(lián)網(wǎng)治理和政策的主題相重疊。隱私和數(shù)據(jù)法是一個(gè)很好的例子。
公共利益相關(guān)方的現(xiàn)有努力,包括聯(lián)合國(guó)致命性自主武器系統(tǒng)專家組(LAWS)以及歐盟最近的《一般數(shù)據(jù)保護(hù)條例(GDPR)》和算法決策的“解釋權(quán)”等規(guī)定。這些進(jìn)程如何發(fā)展以及如何采用或解釋相似的規(guī)定,將對(duì)AI技術(shù)的持續(xù)發(fā)展產(chǎn)生重大影響。在監(jiān)管領(lǐng)域確保連貫一致的方法很重要,確保所有社區(qū)都分享到互聯(lián)網(wǎng)及先關(guān)技術(shù)帶來(lái)的好處。
目前治理工作的核心是人工智能及其實(shí)施的倫理層面的問(wèn)題。例如,電氣和電子工程師協(xié)會(huì)(IEEE)發(fā)布了一份關(guān)于人工智能合倫理設(shè)計(jì)的新報(bào)告,是確保在AI系統(tǒng)設(shè)計(jì)中融入倫理考慮的更廣泛的舉措的一部分。同樣地,加利福尼亞州的一家非營(yíng)利性研究公司Open AI已經(jīng)收到了超過(guò)10億美元的承諾資金,旨在支持AI安全開(kāi)發(fā)的研究和活動(dòng)。私營(yíng)企業(yè)領(lǐng)域的其他舉措包括由亞馬遜、谷歌、Facebook、IBM、蘋果和微軟成立的“AI合作伙伴關(guān)系(Partnership on AI)”,旨在提高公眾對(duì)人工智能技術(shù)(AI)的理解,并制定關(guān)于人工智能領(lǐng)域遇到的挑戰(zhàn)和機(jī)遇的最佳措施。
盡管人工智能領(lǐng)域是復(fù)雜的,但是包括政府、行業(yè)和用戶在內(nèi)的利益相關(guān)方,都應(yīng)該發(fā)揮作用來(lái)確定治理人工智能的最佳方法。從基于市場(chǎng)的方法到監(jiān)管,所有的利益相關(guān)方都應(yīng)該在未來(lái)幾年內(nèi)參與到人工智能技術(shù)的經(jīng)濟(jì)和社會(huì)影響的管理中來(lái)。此外,人工智能帶來(lái)的社會(huì)影響不能僅僅通過(guò)管理人工智能技術(shù)就得到充分的緩解,而且需要管理其所帶來(lái)的影響。
互聯(lián)網(wǎng)協(xié)會(huì)制定了以下原則和建議,我們認(rèn)為是互聯(lián)網(wǎng)的核心能力支撐著這些價(jià)值。雖然在互聯(lián)網(wǎng)服務(wù)中部署人工智能并不新鮮,但目前的趨勢(shì)表明,AI是互聯(lián)網(wǎng)未來(lái)發(fā)展和使用中日益重要的因素。因此,這些指導(dǎo)原則和建議是引導(dǎo)討論持續(xù)進(jìn)行的第一次嘗試。此外,雖然本文著重關(guān)注于圍繞AI的具體挑戰(zhàn),但是AI發(fā)展與物聯(lián)網(wǎng)(IoT)的擴(kuò)張之間的強(qiáng)大的相互依存關(guān)系,需要我們深入了解物聯(lián)網(wǎng)設(shè)備之間的互操作性(interoperability)與安全性。
1.AI部署和設(shè)計(jì)中的倫理考慮
原則:AI系統(tǒng)設(shè)計(jì)人員和構(gòu)建者需要將以用戶為中心的方法應(yīng)用于AI技術(shù)。他們?cè)诮ㄔ霢I系統(tǒng)時(shí)需要考慮他們的集體責(zé)任,確保人工智能系統(tǒng)不會(huì)對(duì)互聯(lián)網(wǎng)和互聯(lián)網(wǎng)用戶造成安全隱患。
建議:
(1)采用道德標(biāo)準(zhǔn):在人工智能設(shè)計(jì)中遵循倫理考慮的原則和標(biāo)準(zhǔn),引導(dǎo)研究人員和AI行業(yè)向前發(fā)展。
(2)在創(chuàng)新政策中促進(jìn)倫理考慮:創(chuàng)新政策應(yīng)當(dāng)遵守道德標(biāo)準(zhǔn),作為資金支持等政策的先決條件。
2.確保AI系統(tǒng)的“可解釋性(Interpretability)”
原則:AI能動(dòng)者做出的決策需要能夠被理解,特別是在這些決定對(duì)公共安全有影響或者導(dǎo)致歧視性做法的情況下。
建議:
(1)確保算法決策的人類可解釋性:AI系統(tǒng)的設(shè)計(jì)最低要求是,設(shè)計(jì)人員可以為AI能動(dòng)者的行為負(fù)責(zé)。一些對(duì)公共安全能夠造成潛在嚴(yán)重影響的系統(tǒng)應(yīng)當(dāng)具備在發(fā)生事故時(shí)提供信息的功能。
(2)授權(quán)用戶:使用人工智能的服務(wù)提供商需要賦予用戶要求和接受關(guān)于人工智能如何決策的基本解釋的能力。
3.公共賦權(quán)
原則:公眾能夠了解基于AI的相關(guān)服務(wù)及其運(yùn)作方式是確保其對(duì)AI技術(shù)信任的關(guān)鍵。
建議:
(1)“算法素養(yǎng)(Algorithmic Literacy)”必須是一項(xiàng)基本技能:無(wú)論是對(duì)社交媒體平臺(tái)信息的糾正或者是自動(dòng)駕駛汽車,用戶需要基本了解算法的作用及自主決策。這種基本技能在制定技術(shù)應(yīng)用的社會(huì)規(guī)范方面也將是重要的。例如,確定可能不適合委托給AI去做決策的事項(xiàng)。
(2)向公眾提供信息:盡管由于安全隱患的原因,將某項(xiàng)服務(wù)的機(jī)器學(xué)習(xí)技術(shù)和訓(xùn)練數(shù)據(jù)做到完全透明并不可取,但是應(yīng)向公眾提供足夠的信息,使人們有可能質(zhì)疑算法決策結(jié)果的正確與否。
4.負(fù)責(zé)任的部署
原則:AI能動(dòng)者自主行動(dòng)的能力,以及無(wú)需人類指導(dǎo)隨著時(shí)間的推移而調(diào)整其行為的能力,要求在部署AI技術(shù)之前進(jìn)行重大的安全檢查。
建議:
(1)人類必須能夠控制:任何自主系統(tǒng)都必須允許人類中斷其活動(dòng)或關(guān)閉系統(tǒng)(off-switch)。還可能需要對(duì)AI系統(tǒng)設(shè)計(jì)中的新決策策略進(jìn)行人工檢查,尤其是對(duì)人類生命和安全風(fēng)險(xiǎn)很大的決策。
(2)使安全成為優(yōu)先事項(xiàng):任何自主系統(tǒng)的部署都需要廣泛的事先測(cè)試,以確保AI能動(dòng)者與其環(huán)境(數(shù)字或?qū)嶓w)的交互是安全的,并且功能正常。自主系統(tǒng)在運(yùn)行過(guò)程中需要監(jiān)控,并根據(jù)需要進(jìn)行更新或更正。
(3)隱私是關(guān)鍵:AI系統(tǒng)必須對(duì)數(shù)據(jù)負(fù)責(zé)。AI系統(tǒng)應(yīng)當(dāng)只使用它們所需要的數(shù)據(jù),并在不再需要某些數(shù)據(jù)時(shí)將其刪除(“數(shù)據(jù)最小化”)。應(yīng)當(dāng)對(duì)傳輸和儲(chǔ)存的數(shù)據(jù)進(jìn)行加密,并對(duì)授權(quán)訪問(wèn)數(shù)據(jù)的人員進(jìn)行限制(“訪問(wèn)控制”)。AI系統(tǒng)應(yīng)當(dāng)根據(jù)隱私和個(gè)人數(shù)據(jù)法律和最佳的實(shí)踐做法去收集、使用、共享和存儲(chǔ)數(shù)據(jù)。
(4)采取行動(dòng)前要思考:在為AI系統(tǒng)提供的指令和數(shù)據(jù)之前,應(yīng)當(dāng)仔細(xì)思考。AI系統(tǒng)訓(xùn)練所使用的數(shù)據(jù)不應(yīng)當(dāng)是有偏見(jiàn)的、不準(zhǔn)確的、不完整或誤導(dǎo)性的數(shù)據(jù)。
(5)確保AI系統(tǒng)之間的安全連接:連接到互聯(lián)網(wǎng)的人工智能系統(tǒng)應(yīng)當(dāng)是安全的,這樣做不僅僅是為了保護(hù)AI系統(tǒng)本身,同時(shí)還可以保護(hù)互聯(lián)網(wǎng)免遭故障或者惡意軟件感染的AI系統(tǒng),這些系統(tǒng)可能成為下一代僵尸網(wǎng)絡(luò)。應(yīng)當(dāng)采用高標(biāo)準(zhǔn)的設(shè)備、系統(tǒng)和網(wǎng)絡(luò)安全。
(6)負(fù)責(zé)任的披露:真誠(chéng)的安全研究人員應(yīng)當(dāng)能夠負(fù)責(zé)任地測(cè)試AI系統(tǒng)的安全性,而不用擔(dān)心起訴或其他法律訴訟。與此同時(shí),研究人員和其他人員發(fā)現(xiàn)的安全漏洞或者其他設(shè)計(jì)上的缺陷應(yīng)當(dāng)負(fù)責(zé)任地向能夠解決這些安全漏洞和缺陷的人披露他們的發(fā)現(xiàn)。
手機(jī)掃碼閱讀
5.確保責(zé)任:
原則:當(dāng)人類被AI能動(dòng)者的決策所取代時(shí),必須確保法律責(zé)任。
建議:
(1)確保法律確定性:各國(guó)政府應(yīng)確?,F(xiàn)行法律和政策適用于算法決策和自治系統(tǒng)應(yīng)用的法律確定性,確??深A(yù)測(cè)的法律環(huán)境。這包括與所有學(xué)科的專家合作,找出潛在的差距并進(jìn)行法律場(chǎng)景預(yù)測(cè)。
(2)將用戶放在第一位:決策者需要確保適用于AI系統(tǒng)及其應(yīng)用的任何法律將用戶的利益置于中心位置。這必須包括賦予用戶挑戰(zhàn)對(duì)自身的利益產(chǎn)生不利影響的自主決策的能力。
(3)預(yù)先的責(zé)任分配:政府需要與所有的利益相關(guān)方合作,做出一些困難的決定,即在AI系統(tǒng)出現(xiàn)問(wèn)題的時(shí)候,誰(shuí)將承擔(dān)責(zé)任,以及產(chǎn)生的損失如何彌補(bǔ)。
6.社會(huì)和經(jīng)濟(jì)影響
原則:利益相關(guān)方應(yīng)構(gòu)建一個(gè)AI為所有人提供社會(huì)經(jīng)濟(jì)機(jī)會(huì)的環(huán)境。
建議:
所有的利益相關(guān)方應(yīng)該進(jìn)行持續(xù)的對(duì)話,以確定抓住人工智能廣泛的社會(huì)經(jīng)濟(jì)機(jī)會(huì)所需的戰(zhàn)略措施,同時(shí)減輕其潛在的負(fù)面影響。一項(xiàng)對(duì)話可以解決如教育改革,普遍收入和對(duì)社會(huì)服務(wù)的審查等問(wèn)題。
7.開(kāi)放治理
原則:社會(huì)、政府、私營(yíng)部門或?qū)W術(shù)界以及科技行業(yè)等各利益相關(guān)方加入共同治理AI的能力,對(duì)其安全部署至關(guān)重要。
建議:
促進(jìn)多方利益相關(guān)方的治理:與AI治理有關(guān)的組織、機(jī)構(gòu)和進(jìn)程需要采取開(kāi)放、透明和包容的方式。應(yīng)當(dāng)基于四個(gè)關(guān)鍵屬性:包容性和透明度、集體責(zé)任、有效決策和實(shí)施、通過(guò)分布式和可互操作的治理進(jìn)行協(xié)作。