成功創(chuàng)造出高效的人工智能可能是人類文明史上最重大的事件,也可能是最糟糕的事件。除非我們知道如何準(zhǔn)備應(yīng)對和避免潛在風(fēng)險,否則人工智能就可能成為人類文明史上最糟糕的發(fā)明。
因此,想要人工智能能夠與人類和諧共處,我們需要警惕危險的存在并找出危險,在實踐和管理方面盡可能做到最好,并事先做好充分準(zhǔn)備,應(yīng)對可能出現(xiàn)的任何結(jié)果。
安永與微軟歐洲近期聯(lián)合開展的一項調(diào)查顯示,71%%的受訪者將人工智能視為高管的一項重要考慮事項,而只有4%的受訪者在多個流程中用到了人工智能并執(zhí)行高級任務(wù)。
“信任設(shè)計”(Trust by Design)能幫助企業(yè)將風(fēng)險優(yōu)化的思維嵌入人工智能的整個生命周期,通過將風(fēng)險職能從被動的風(fēng)險應(yīng)對升級為強大的、動態(tài)的、面向未來的工具來建立信任。如果企業(yè)從一開始就將“信任設(shè)計”理念注入人工智能系統(tǒng),就能利用風(fēng)險預(yù)測加速獲取人工智能洞察。
人工智能給技術(shù)、道德和社會領(lǐng)域帶來了風(fēng)險和影響,已超出人工決策范疇,涉及技術(shù)發(fā)展。我們需要建立新的框架來識別、計量和應(yīng)對人工智能風(fēng)險——該框架需以現(xiàn)有的治理和控制結(jié)構(gòu)為基礎(chǔ),同時加入新的機制以應(yīng)對人工智能特有風(fēng)險。
欲使人工智能充分發(fā)揮潛力,企業(yè)需要有能力預(yù)測和衡量會放大風(fēng)險和破壞信任的情況。如:
技術(shù)風(fēng)險——評估基礎(chǔ)技術(shù)、技術(shù)操作環(huán)境和自主性水平;
利益相關(guān)方影響——考慮人工智能代理的目標(biāo)和目的,以及對外部和內(nèi)部用戶經(jīng)濟、情感和物理方面的影響,以及聲譽、監(jiān)管和法律風(fēng)險;
控制有效性——考慮是否存在降低人工智能風(fēng)險的控制及其運行有效性。
圖1 人工智能四大關(guān)鍵風(fēng)險
圖2 人工智能代理剩余風(fēng)險
圖3 人工智能風(fēng)險應(yīng)對策略
圖4 人工智能可信任性來吸引更多用戶
憑借這三類評分的組合,安永Trusted AI Platform可以計算出人工智能系統(tǒng)設(shè)計的剩余風(fēng)險,計算公式如下:人工智能剩余風(fēng)險=技術(shù)風(fēng)險X利益相關(guān)方影響-控制有效性。
應(yīng)對人工智能的風(fēng)險需要使用能夠跟上人工智能高速適應(yīng)性學(xué)習(xí)能力的創(chuàng)新控制方法。在決定如何應(yīng)對各項風(fēng)險時,企業(yè)可以采用以下四種策略。這些策略可以單獨部署,也可以結(jié)合使用。
為了有效地監(jiān)控人工智能,需建立持續(xù)的監(jiān)控機制以確定人工智能系統(tǒng)按預(yù)期運行。人工監(jiān)督(如人在回路)是人工智能系統(tǒng)的一個重要的風(fēng)險緩釋策略,人工操作最適合應(yīng)對需要對少量分散信息進行高水平認(rèn)知分析的短期事件。但人類不善于長時間保持注意力集中,特別是在事故發(fā)生率較低的情況下,并且人類可隨時處理的信息量有限。而自動化系統(tǒng),特別是那些人工智能支持的系統(tǒng),可以克服這些缺點。
人工智能已經(jīng)開始顛覆我們的工作和生活方式。欲在人工智能時代脫穎而出,企業(yè)必須優(yōu)化數(shù)據(jù)和信任反饋閉環(huán)以吸引更多用戶并加速人工智能部署。