田豐 胡正坤
6 月8 日,北京首鋼會(huì)展中心舉行的第十六屆中國(guó)國(guó)際社會(huì)公共安全產(chǎn)品博覽會(huì)上,觀眾在參觀“AI 指揮中心系統(tǒng)”
伴隨以ChatGPT為代表的大模型的出現(xiàn),人類邁入AI2.0時(shí)代,并向通用人工智能進(jìn)軍。
在AI1.0時(shí)代,100%的程序由人類程序員編寫,計(jì)算機(jī)中20%的指令承擔(dān)了80%的工作;而在AI2.0時(shí)代,80%的程序和內(nèi)容由AI大模型生成(即生成式AI),20%的程序與業(yè)務(wù)邏輯由提示工程來優(yōu)化改進(jìn)。
人工智能底層技術(shù)范式的重大變革,帶來了新的倫理風(fēng)險(xiǎn)。
隨著技術(shù)發(fā)展,人工智能在計(jì)算機(jī)視覺、自然語(yǔ)言處理、語(yǔ)音識(shí)別等領(lǐng)域逐步落地,在科學(xué)研究、制造、醫(yī)療、城市治理等場(chǎng)景廣泛應(yīng)用,一個(gè)泛在智能的時(shí)代正加速到來。
縱觀歷史,通用技術(shù)在推動(dòng)社會(huì)生產(chǎn)力實(shí)現(xiàn)躍遷時(shí),往往會(huì)對(duì)原有的社會(huì)生產(chǎn)關(guān)系帶來革命性影響,比如電力與工廠、互聯(lián)網(wǎng)與電商、視頻互聯(lián)網(wǎng)與主播等。這一規(guī)律同樣適用于人工智能。
即便在“弱人工智能”階段的當(dāng)下,人們已對(duì)自動(dòng)化決策系統(tǒng)的健壯性和公平性充滿關(guān)切,對(duì)算法推薦、深度合成以及生物特征信息識(shí)別技術(shù)的廣泛使用表達(dá)了擔(dān)憂。
對(duì)于技術(shù)濫用的問題,比如利用AI 實(shí)施電信詐騙,應(yīng)當(dāng)嚴(yán)格監(jiān)管;對(duì)于崗位替代等技術(shù)負(fù)面性問題,可考慮職業(yè)培訓(xùn)等“救濟(jì)措施”;對(duì)于技術(shù)水平不足的問題,比如AI 生成內(nèi)容的準(zhǔn)確性問題,可采取“柔性監(jiān)管”方式,在能夠滿足內(nèi)容治理和事件響應(yīng)的基本要求下,允許迭代優(yōu)化。
在過去十年里,人工智能治理受到企業(yè)、政府機(jī)構(gòu)、國(guó)際組織、社會(huì)團(tuán)體等多方重視,已進(jìn)入落地實(shí)踐。從發(fā)展歷程看,人工智能治理至今走過了三個(gè)階段:
第一個(gè)階段起于2016年,以原則設(shè)計(jì)為主。
第二個(gè)階段起于2020年,以政策制定為主。2020年2月,歐盟委員會(huì)發(fā)布《人工智能白皮書》,在全球率先提出“基于風(fēng)險(xiǎn)的人工智能監(jiān)管框架”。此后,主要國(guó)家紛紛跟進(jìn),在不同程度開展了監(jiān)管人工智能相關(guān)技術(shù)及應(yīng)用的探索。
第三個(gè)階段起于2022年,以技術(shù)驗(yàn)證為主。新加坡政府率先推出了全球首個(gè)人工智能治理開源測(cè)試工具箱“AI.Verify”。在市場(chǎng)側(cè),美國(guó)人工智能治理研究機(jī)構(gòu)RAII發(fā)布了“負(fù)責(zé)任人工智能認(rèn)證計(jì)劃”,向企業(yè)、組織、機(jī)構(gòu)等提供負(fù)責(zé)任AI認(rèn)證服務(wù)。
經(jīng)濟(jì)合作與發(fā)展組織(OECD)統(tǒng)計(jì)數(shù)據(jù)顯示,全球已有60余個(gè)國(guó)家提出了700多項(xiàng)人工智能相關(guān)政策舉措。從各國(guó)發(fā)布的人工智能法案、政策文件,以及監(jiān)管舉措看,人工智能監(jiān)管呈現(xiàn)以下四點(diǎn)趨勢(shì):
一是基于場(chǎng)景的風(fēng)險(xiǎn)分級(jí)分類治理成為共識(shí)?;陲L(fēng)險(xiǎn)的治理路徑(Risk-Based Approach)首現(xiàn)于歐盟《通用數(shù)據(jù)保護(hù)條例》(GDPR),并在歐盟2020年發(fā)布的《人工智能白皮書》中得到繼承和發(fā)揚(yáng)。目前,風(fēng)險(xiǎn)已經(jīng)成為各國(guó)人工智能政策文件中必不可少的關(guān)鍵詞。
二是備案成為高風(fēng)險(xiǎn)應(yīng)用的主要監(jiān)管模式。目前,主要國(guó)家對(duì)高風(fēng)險(xiǎn)人工智能應(yīng)用的監(jiān)管均提出了不同程度和形式的“備案”要求。例如,美國(guó)《2022 年算法責(zé)任法案》提出,在聯(lián)邦貿(mào)易委員會(huì)(Federal Trade Commission)設(shè)立公共存儲(chǔ)庫(kù)來管理系統(tǒng)。我國(guó)網(wǎng)信辦等4部門發(fā)布的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》也明確要求,具有輿論屬性或者社會(huì)動(dòng)員能力的算法推薦服務(wù)提供者應(yīng)當(dāng)在提供服務(wù)之日起十個(gè)工作日內(nèi)通過互聯(lián)網(wǎng)信息服務(wù)算法備案系統(tǒng)履行備案手續(xù)。
正在征求意見的《生成式人工智能服務(wù)管理辦法(征求意見稿)》,也對(duì)生成式人工智能產(chǎn)品或服務(wù)在核心價(jià)值觀、算法歧視、虛假內(nèi)容、等領(lǐng)域風(fēng)險(xiǎn)提出管控要求。
三是事前風(fēng)險(xiǎn)評(píng)估成為人工智能監(jiān)管的重要手段。2017年,美國(guó)紐約《算法問責(zé)法》首次提出自動(dòng)化決策系統(tǒng)的影響評(píng)估制度。2019年2月,加拿大發(fā)布的《自動(dòng)化決策指令》,同樣要求政府部門在部署任何自動(dòng)化決策系統(tǒng),或其系統(tǒng)功能、范圍發(fā)生變化時(shí)均需進(jìn)行影響評(píng)估。我國(guó)《關(guān)于加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見》中也提出了開展算法安全評(píng)估的要求。
四是算法治理成為當(dāng)前各方監(jiān)管發(fā)力的聚焦點(diǎn)。各國(guó)應(yīng)對(duì)算法風(fēng)險(xiǎn)的思路通常落腳于提升算法透明度,算法備案制度正在成為各國(guó)實(shí)現(xiàn)治理目標(biāo)的關(guān)鍵抓手,而披露算法運(yùn)行機(jī)理、提供算法關(guān)閉選項(xiàng)成為各國(guó)保障用戶知情權(quán)和選擇權(quán)的通用做法。
從產(chǎn)業(yè)層面觀察,目前我國(guó)人工智能治理仍面臨多重挑戰(zhàn)。這些挑戰(zhàn)包括:
倫理治理難以真正融入企業(yè)的業(yè)務(wù)價(jià)值閉環(huán)。由于倫理治理短期業(yè)務(wù)收益不明顯,業(yè)務(wù)方可能會(huì)因短期看不到收益,對(duì)倫理治理工作重視不足或落實(shí)缺位。
缺少權(quán)威測(cè)評(píng)標(biāo)準(zhǔn)和認(rèn)證體系,出海容易遭受差別待遇。目前,部分國(guó)家和地區(qū)如歐盟、新加坡已推出人工智能治理“沙箱”和測(cè)試工具箱,并有將倫理標(biāo)準(zhǔn)作為市場(chǎng)準(zhǔn)入要求的發(fā)展勢(shì)頭。不久前,美國(guó)和歐盟聯(lián)合發(fā)布了路線圖,明確提出將在AI治理的定義、標(biāo)準(zhǔn),以及評(píng)估框架方面開展合作。
研究與實(shí)際存在差距,難以有效指導(dǎo)行業(yè)發(fā)展。與歐美相比,目前,我國(guó)人工智能倫理研究的重點(diǎn)主要在學(xué)術(shù)理論層面,對(duì)產(chǎn)業(yè)發(fā)展面臨的實(shí)際倫理挑戰(zhàn)和企業(yè)治理需求的研究不夠深入,不同領(lǐng)域?qū)τ贏I倫理治理問題尚未形成共識(shí),尤其是未能與國(guó)際倫理制度相關(guān)聯(lián)、相制衡。
人工智能倫理治理是一個(gè)學(xué)科交叉領(lǐng)域,“良將難求”。目前,人工智能技術(shù)背景的專業(yè)人才對(duì)于轉(zhuǎn)型做倫理治理的興趣不高,科技哲學(xué)等社科背景的專業(yè)人才對(duì)人工智能技術(shù)的理解不夠深入,是我國(guó)推動(dòng)人工智能倫理治理落地需要解決的現(xiàn)實(shí)問題。
當(dāng)前,人工智能正處于應(yīng)用落地的關(guān)鍵發(fā)力期,創(chuàng)新創(chuàng)業(yè)活躍、市場(chǎng)競(jìng)爭(zhēng)激烈,關(guān)于創(chuàng)新治理模式,可考慮從以下方面著手:
首先,要準(zhǔn)確定義問題,避免因?qū)π屡d技術(shù)誤解,造成責(zé)任偏移或責(zé)任誤判。
對(duì)于技術(shù)濫用的問題,比如利用AI實(shí)施電信詐騙,應(yīng)當(dāng)嚴(yán)格監(jiān)管;對(duì)于崗位替代等技術(shù)負(fù)面性問題,可考慮職業(yè)培訓(xùn)等“救濟(jì)措施”;對(duì)于技術(shù)水平不足的問題,比如AI生成內(nèi)容的準(zhǔn)確性問題,可采取“柔性監(jiān)管”方式,在能夠滿足內(nèi)容治理和事件響應(yīng)的基本要求下,允許迭代優(yōu)化。
其次,合理劃分責(zé)任,避免責(zé)權(quán)利不統(tǒng)一。
從目前的落地模式考慮,對(duì)于AI產(chǎn)品及服務(wù)的責(zé)任劃分,可以按照“技術(shù)提供方”“服務(wù)提供方”“用戶”等在技術(shù)研發(fā)、部署、使用等不同環(huán)節(jié)的作用配置責(zé)任。
第三,優(yōu)先使用既有政策工具、呼吁兼容。
人工智能治理的內(nèi)容涉及數(shù)據(jù)、算法和應(yīng)用三個(gè)層面,包括數(shù)據(jù)安全、隱私保護(hù)、算法安全、內(nèi)容治理等具體方面。針對(duì)上述內(nèi)容,我國(guó)現(xiàn)行法律政策體系基本能夠?qū)崿F(xiàn)比較有效的覆蓋,例如,《數(shù)據(jù)安全法》《個(gè)人信息保護(hù)法》《互聯(lián)網(wǎng)信息服務(wù)管理辦法》等。因此,開展人工智能治理的制度設(shè)計(jì)應(yīng)關(guān)注政策體系的協(xié)調(diào)性和一致性,優(yōu)先考慮利用已有的政策工具實(shí)現(xiàn)監(jiān)管目標(biāo),對(duì)于新增要求應(yīng)充分論證其必要性。
第四,要充分發(fā)揮多方治理協(xié)同,行成跨技術(shù)、跨領(lǐng)域、跨行業(yè)、跨區(qū)域、跨文化的通用彈性治理能力。
目前,人工智能領(lǐng)域正處于高速創(chuàng)新的發(fā)展階段,在監(jiān)管制度設(shè)計(jì)方面宜為適應(yīng)產(chǎn)業(yè)實(shí)際的快速變化,保證一定的彈性空間。同時(shí),在政策實(shí)施方面,可重點(diǎn)考慮與企業(yè)內(nèi)部治理體系和行業(yè)第三方機(jī)構(gòu)在要求闡釋、評(píng)估測(cè)試等方面加強(qiáng)溝通協(xié)同,保障對(duì)人工智能安全風(fēng)險(xiǎn)的治理效率和效力。
3月20日,天津市人工智能計(jì)算中心中控室,技術(shù)人員在監(jiān)控設(shè)備運(yùn)行情況( 孫凡越/攝)