菲利波?法布羅西尼 / 文
編者按
在2021年世界人工智能大會(huì)法制論壇上,菲利波?法布羅西尼(Filippo Fabrocini)作了題為“向可信賴人工智能邁進(jìn)”的演講。菲利波?法布羅西尼是人工智能領(lǐng)域尤其是機(jī)器學(xué)習(xí)方面公認(rèn)的領(lǐng)導(dǎo)者。他曾在IBM研究中心(意大利羅馬和美國(guó)圣何塞)擔(dān)任高級(jí)研究員、在卡耐基?梅隆大學(xué)計(jì)算機(jī)學(xué)院擔(dān)任訪問學(xué)者,與諾貝爾獎(jiǎng)和圖靈獎(jiǎng)獲得者赫伯特?西蒙合作,擔(dān)任意大利格列高利大學(xué)哲學(xué)系教授以及意大利米蘭的IBM創(chuàng)新中心總經(jīng)理,曾榮獲包括兩項(xiàng)IBM杰出技術(shù)獎(jiǎng)和一項(xiàng)IBM客戶價(jià)值卓越技術(shù)成就獎(jiǎng)在內(nèi)的多項(xiàng)獎(jiǎng)項(xiàng)。現(xiàn)任同濟(jì)大學(xué)設(shè)計(jì)創(chuàng)意學(xué)院教授、“可持續(xù)人工智能實(shí)驗(yàn)室”主任。
如今,從醫(yī)院到機(jī)場(chǎng),人工智能在一些最重要的社會(huì)機(jī)構(gòu)中越來越普遍。百度搜索、谷歌地圖、淘寶推薦引擎皆是基于人工智能算法,人工智能在分子設(shè)計(jì)、眼病檢測(cè)、智能武器等多個(gè)領(lǐng)域也取得了顯著成果。但與此同時(shí),我們應(yīng)該學(xué)會(huì)審視自身對(duì)人工智能技術(shù)的立場(chǎng)和態(tài)度,審視自身對(duì)技術(shù)的期望,審視人工智能中的潛在弱點(diǎn)、帶來的風(fēng)險(xiǎn)和突發(fā)事件。我們應(yīng)該學(xué)會(huì)問類似“自動(dòng)駕駛汽車是為了什么”“如何使它們與我們想象的生活方式相適配”“它們將帶給我們什么”“我們對(duì)它們足夠了解嗎”“它們足夠安全嗎”“我們是否有其他可行的選擇方案嗎”等問題。我們不應(yīng)該把這些問題留給那些以增加利潤(rùn)為唯一目標(biāo)的企業(yè)。此外,如果我們希望避免“炒作”技術(shù),應(yīng)該學(xué)會(huì)避免誤導(dǎo)性的圖像、模糊的概念或令人困惑的隱喻。例如,應(yīng)用于人工智能系統(tǒng)的“認(rèn)知”概念與應(yīng)用于人類的“認(rèn)知”概念是不同的。我們把以人類為中心的概念類推到機(jī)器上,沒有澄清各自用途之間的差異。在人工智能系統(tǒng)中,知識(shí)意味著什么?學(xué)習(xí)意味著什么?做出決定意味著什么?當(dāng)人工智能系統(tǒng)做出決定時(shí),誰來采取行動(dòng)?有代理商在執(zhí)行決定嗎?人工智能系統(tǒng)是否應(yīng)該對(duì)其做出的“決定”負(fù)責(zé)?如果不是,那么誰來負(fù)責(zé)?或者為什么負(fù)責(zé)呢?
人工智能正在決定日常生活和家庭的未來。在找工作時(shí),人工智能會(huì)仔細(xì)審查我們的簡(jiǎn)歷;在申請(qǐng)貸款時(shí),它會(huì)評(píng)估違約風(fēng)險(xiǎn);在提交保釋申請(qǐng)時(shí),它會(huì)評(píng)估我們的案件。然而,巴爾的摩一家有影響力的非盈利組織——審前司法研究所,多年來一直強(qiáng)烈支持用算法取代現(xiàn)金保釋,但現(xiàn)在已經(jīng)從根本上改變觀點(diǎn),聲稱算法風(fēng)險(xiǎn)評(píng)估工具不應(yīng)該在審判前的司法活動(dòng)中發(fā)揮作用,因?yàn)樗鼈儠?huì)延續(xù)種族不平等。這種轉(zhuǎn)變反映出人們對(duì)算法在刑事司法和其他領(lǐng)域的作用越來越擔(dān)憂。除了保釋系統(tǒng),批評(píng)人士還警告說,不要盲目相信人臉識(shí)別、醫(yī)療保健和推薦系統(tǒng)等領(lǐng)域五花八門的算法。頂級(jí)人臉識(shí)別算法對(duì)黑人女性面孔的不匹配頻率約為白人女性面孔的10倍。在一個(gè)類似的歧視案例中,美國(guó)各大醫(yī)院廣泛使用的醫(yī)療算法系統(tǒng)優(yōu)先考慮高收入患者而非低收入患者。2019年2月,YouTube視頻網(wǎng)站發(fā)現(xiàn),其推薦算法正在以某種方式推動(dòng)自己的用戶觀看兒童色情視頻,同時(shí)將這些視頻貨幣化。人工智能似乎在復(fù)制和放大影響人類社會(huì)的歧視、不平等和不道德的行為。
此外,一旦人工智能對(duì)我們的社會(huì)產(chǎn)生越來越大的影響,還會(huì)出現(xiàn)一些對(duì)其模型可理解性的擔(dān)憂。前面提及的不道德行為,并非來自明確嵌入任何可能導(dǎo)致歧視性或懲罰性后果的公式,而來自原始數(shù)據(jù)、算法設(shè)計(jì)或用戶傾向,并被人工智能不成比例地?cái)U(kuò)充。導(dǎo)致人臉識(shí)別系統(tǒng)對(duì)深色膚色識(shí)別的效果差異,其原因尚不清楚,很可能超出了用于訓(xùn)練和測(cè)試人臉識(shí)別系統(tǒng)的數(shù)據(jù)集不能適當(dāng)代表的經(jīng)驗(yàn)事實(shí)。實(shí)踐證明,錯(cuò)誤匹配不同人(假陽性)的錯(cuò)誤在黑人中更常見,而未識(shí)別匹配面孔(假陰性)的錯(cuò)誤在白人中更常見。在有關(guān)社會(huì)保障的決策算法中引入醫(yī)療成本預(yù)測(cè)等替代整體健康狀況,產(chǎn)生了意想不到的后果,導(dǎo)致該算法復(fù)制了美國(guó)醫(yī)療體系的不公平準(zhǔn)入。最后,YouTube視頻網(wǎng)站推薦系統(tǒng)令人厭惡的行為被歸因于一種名為“過濾泡沫”的效應(yīng),即人們只接觸強(qiáng)化他們現(xiàn)有信念并最終改變其對(duì)世界看法的觀點(diǎn)和信息。來自推薦系統(tǒng)的“過濾泡沫效應(yīng)”不容易被辨別,就像使用一個(gè)優(yōu)先考慮健康成本而不是健康狀況的代理人所帶來的后果一樣。同樣,到目前為止,人臉識(shí)別系統(tǒng)在不同人群上的不同表現(xiàn)看起來非常令人費(fèi)解。因此,人工智能系統(tǒng)在應(yīng)用于高風(fēng)險(xiǎn)決策時(shí),人們產(chǎn)生擔(dān)憂似乎是可以理解的。
顯而易見的,是這些系統(tǒng)在技術(shù)上是復(fù)雜的,其設(shè)計(jì)選擇在很大程度上影響它們的行為。正如《自然》雜志的一篇論文所強(qiáng)調(diào)的,思考人工智能的一個(gè)主要盲點(diǎn),是缺乏共同的方法來評(píng)估人工智能應(yīng)用對(duì)政治、社會(huì)和道德環(huán)境的持續(xù)影響。如果不能解決這些問題,人工智能可能會(huì)直接“失敗”,其后果是人類將失去一個(gè)改善個(gè)人和社會(huì)福祉的機(jī)會(huì)。因此,必須強(qiáng)調(diào)實(shí)現(xiàn)可信賴人工智能的重要性。
許多組織發(fā)起了一系列倡議,以制訂旨在采用公平、負(fù)責(zé)任和透明的人工智能道德原則。在中國(guó),北京人工智能協(xié)會(huì)(BAAI)、中國(guó)人工智能產(chǎn)業(yè)聯(lián)盟(AIIA)和科技部(MOST)編寫的許多文件都強(qiáng)調(diào)和促進(jìn)了實(shí)現(xiàn)可信賴人工智能的相關(guān)事宜。特別是,科技部的文件有一個(gè)標(biāo)志性的標(biāo)題《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》。該文件的第一行就明確指出:人工智能發(fā)展應(yīng)以增進(jìn)人類共同福祉為目標(biāo);應(yīng)符合人類的價(jià)值觀和倫理道德,促進(jìn)人機(jī)和諧,服務(wù)人類文明進(jìn)步(2019年國(guó)家新一代人工智能治理專業(yè)委員會(huì))。
這些文件與國(guó)際社會(huì)表達(dá)的總體擔(dān)憂一致,且陳述了一些建議,明確指出需要開發(fā)實(shí)現(xiàn)前面提到的目標(biāo)的方法和工具。顯然,我們需要人工智能,但我們需要的是一個(gè)可信賴的、負(fù)責(zé)任的、透明的人工智能,人工智能解決方案的自主行為正在影響我們和家人的生活。因此,從道德人工智能的角度來看,與“自主”概念相關(guān)的概念是專利,因?yàn)槿斯ぶ悄堋白灾鳌钡脑鲩L(zhǎng)不應(yīng)削弱或損害對(duì)人類自主的促進(jìn)。因此,“自治”原則出現(xiàn)在六項(xiàng)備受矚目的倡議中(如Asilomar“人工智能原則”、蒙特利爾負(fù)責(zé)任的“人工智能宣言”等)。這并不奇怪,這些倡議是為了人工智能的“社會(huì)效益”而設(shè)立的。特別是“自主”原則,要求在人類和人工自主之間取得平衡。根據(jù)這一原則,機(jī)器的自主性應(yīng)該受到限制,或者為了保證人類的自主性而使其具有內(nèi)在的可逆性。為此,一些學(xué)者提出了“決定-委托”的模式,以及相應(yīng)的“元-委托”的概念?!霸?委托”概念認(rèn)為:人類應(yīng)該始終保持決定是否以及如何將決定權(quán)委托給技術(shù)人工制品的權(quán)力。“決定-委托”模型是一個(gè)抽象的模型,應(yīng)該有助于實(shí)現(xiàn)這一目標(biāo)。例如,飛行員應(yīng)該隨時(shí)能夠關(guān)閉自動(dòng)駕駛,以重新獲得對(duì)飛機(jī)的控制。
人工智能系統(tǒng)在詞源學(xué)意義上是自主系統(tǒng)。它們是自己的統(tǒng)治者,是自己的法律制定者。人類定義了目標(biāo)——它可能是一個(gè)目標(biāo),或者是更常見的一組目標(biāo),然后人工智能系統(tǒng)將為實(shí)現(xiàn)這個(gè)目標(biāo)而自主做出決定。他們是以異體為中心的——人類定義了系統(tǒng)的主要目標(biāo),而不是異體的——它們自己的行為規(guī)則不是來自他人。值得注意的是,這些決定并沒有被系統(tǒng)的設(shè)計(jì)者明確定義,盡管系統(tǒng)的自由度受限于一組預(yù)先定義好的區(qū)間的類別(駕駛汽車不能決定在最近的咖啡店自主停車)。但是,這些決定可能是人類無法控制的,也可能是完全出乎意料的,這一點(diǎn)最近已經(jīng)被證明。然而,只要我們討論“自主系統(tǒng)”對(duì)生活的影響時(shí),必須根據(jù)定義強(qiáng)調(diào)“自主系統(tǒng)”在某種程度上是“不受人類控制”的,正如“自主”一詞的詞源學(xué)意義清晰表達(dá)的那樣。一般來說,對(duì)人類控制的需求,或可以容忍的自主程度,將根據(jù)系統(tǒng)執(zhí)行的任務(wù)的復(fù)雜性、系統(tǒng)運(yùn)行環(huán)境的復(fù)雜性以及系統(tǒng)本身的復(fù)雜性而有所不同。例如,如何監(jiān)測(cè)一個(gè)交易速度達(dá)到5微秒左右的高速金融交易系統(tǒng)?
2018年3月18日,伊萊恩?赫茲伯格女士的死亡成為有記錄以來的第一起涉及自主車輛的行人死亡案例。2019年,美國(guó)國(guó)家運(yùn)輸安全委員會(huì)出具的事故報(bào)告,將車禍原因歸結(jié)為車輛操作員未能監(jiān)控駕駛環(huán)境。像往常一樣,這類案件最終被歸類為來自“操作錯(cuò)誤”的事故。然而,該報(bào)告還指出了一些與自動(dòng)駕駛汽車有關(guān)的故障。特別是,自動(dòng)駕駛系統(tǒng)(ADS)無法正確識(shí)別行人;其設(shè)計(jì)沒有依靠非存在物體的跟蹤歷史,以預(yù)測(cè)行人的路徑和預(yù)測(cè)自己的目標(biāo);該系統(tǒng)無法設(shè)定一個(gè)亂穿馬路的固有目標(biāo),因?yàn)樗鼪]有通過這種行為的集成案例進(jìn)行適當(dāng)?shù)挠?xùn)練。此外,汽車上的自主緊急制動(dòng)系統(tǒng)被禁用,原因尚不清楚。根據(jù)美國(guó)國(guó)家運(yùn)輸安全委員會(huì)的報(bào)告,其目的可能是為了確保平穩(wěn)的駕駛行為,因?yàn)樵谲浖_發(fā)階段,自動(dòng)駕駛的汽車若被一些微小細(xì)節(jié)所迷惑,如樹枝產(chǎn)生的陰影,就會(huì)傾向于自己做出緊急決定,如猛踩剎車或猛打方向,結(jié)果更容易導(dǎo)致危險(xiǎn)和不愉快。如此看來,ADS的開發(fā)似乎還遠(yuǎn)遠(yuǎn)沒有完成,甚至遠(yuǎn)遠(yuǎn)不是最終版本的測(cè)試版本。軟件工程師被迫在假陽性(檢測(cè)到一個(gè)不存在的物體)的風(fēng)險(xiǎn)和假陰性(未能對(duì)一個(gè)被證明是危險(xiǎn)的物體做出反應(yīng))的風(fēng)險(xiǎn)之間進(jìn)行平衡,以避免使用緊急制動(dòng)系統(tǒng)并獲得盡可能舒適的乘坐體驗(yàn)。他們把自己對(duì)安全的決定嵌入到自動(dòng)駕駛系統(tǒng)中。自動(dòng)駕駛系統(tǒng)也錯(cuò)過了使用警報(bào)系統(tǒng)的機(jī)會(huì),其行為對(duì)操作者的不透明,導(dǎo)致赫茲伯格女士最后悲慘喪命。
今天,大多數(shù)的人工智能算法在兩個(gè)層面上嵌入了隨機(jī)性的特征:(a)它們是輸入數(shù)據(jù)的概率函數(shù),從根本上說,它們是“曲線擬合”設(shè)備,正如朱迪亞?珀?duì)枌?duì)它們的諷刺定義;(b)它們包括一個(gè)額外的隨機(jī)性水平,因?yàn)樗鼈兪桥c環(huán)境無關(guān)的設(shè)備,訓(xùn)練數(shù)據(jù)不能覆蓋預(yù)設(shè)系統(tǒng)最終可能發(fā)現(xiàn)自己所有可能的環(huán)境,正如赫茲伯格女士的悲慘案例所示。米特爾施泰特等人將與a相關(guān)的擔(dān)憂標(biāo)記為“不確定的證據(jù)”,在這個(gè)意義上,人工智能算法利用統(tǒng)計(jì)學(xué)習(xí)技術(shù)來誘導(dǎo)數(shù)據(jù)集內(nèi)的相關(guān)性,以生成與b相關(guān)的擔(dān)憂是“誤導(dǎo)性證據(jù)”。它為人工智能解決方案提供了參考,即人工智能算法的輸出僅依賴于來自輸入的證據(jù)(如在自動(dòng)駕駛汽車的情況下,用于訓(xùn)練算法的樣本集是算法可以用來描述任何可能的唯一證據(jù)來源)。但是,如果責(zé)任意味著自主性的話,那么自主性并不意味著責(zé)任。在涉及自主系統(tǒng)的事故中,誰應(yīng)該負(fù)責(zé)?每當(dāng)發(fā)生致命事故時(shí),站在監(jiān)管者一邊談?wù)摗安豢深A(yù)測(cè)的后果”“自動(dòng)自滿”“操作錯(cuò)誤”等已成為常見現(xiàn)象。與此同時(shí),亞利桑那州在赫茲伯格女士的致命事故發(fā)生后,并沒有改變其關(guān)于自動(dòng)駕駛車輛的規(guī)定。所有這些都讓人想起社會(huì)學(xué)家烏爾里希?貝克所說的“有組織的不負(fù)責(zé)任”。
正如阿納尼和克勞福德在2016年建議的那樣,為了理解人工智能,只看技術(shù)盒子內(nèi)部是不夠的。我們應(yīng)該學(xué)會(huì)從多個(gè)角度、多個(gè)層面評(píng)估它如何符合人類社會(huì)希望實(shí)現(xiàn)的生活方式。這項(xiàng)任務(wù)意味著一種多元化的視野。在這種視野中,技術(shù)盒子被從純技術(shù)功能以外的各種角度進(jìn)行分析和審查。對(duì)改進(jìn)算法的執(zhí)著,有助于掩蓋關(guān)于人工智能系統(tǒng)的設(shè)計(jì)、實(shí)施和最終部署的倫理、法律和社會(huì)問題。
相對(duì)于“什么”的問題,其實(shí)“為什么”和“如何”的問題應(yīng)該被放在優(yōu)先位置考慮。很明顯,在一些自主系統(tǒng)的案例(如自動(dòng)駕駛汽車)中,系統(tǒng)的自主性仍然沒有在包括普通公民在內(nèi)的相關(guān)利益者之間進(jìn)行適當(dāng)?shù)膮f(xié)商,卻被機(jī)構(gòu)盲目接受。此外,在允許自動(dòng)駕駛車輛在社會(huì)環(huán)境中進(jìn)行測(cè)試之前,應(yīng)該通過適當(dāng)?shù)暮饬繕?biāo)準(zhǔn)對(duì)ADS的可靠性進(jìn)行機(jī)構(gòu)評(píng)估。從這個(gè)角度說,優(yōu)步車禍?zhǔn)且粋€(gè)社會(huì)實(shí)驗(yàn)的結(jié)果,它是按照普通公民成為創(chuàng)新過程中的“現(xiàn)實(shí)世界的錯(cuò)誤”的方式進(jìn)行的。這種敘述主要顯示的是,從社會(huì)角度治理創(chuàng)新過程的失敗,以及機(jī)構(gòu)對(duì)及時(shí)和充分應(yīng)對(duì)新情況的相應(yīng)阻力。
總的來說,我們可以從這個(gè)案例得出的教訓(xùn)是,任何自主系統(tǒng)的部署都會(huì)在人類決策網(wǎng)絡(luò)實(shí)現(xiàn)的一階復(fù)雜性之上引入二階復(fù)雜性。因?yàn)樽灾飨到y(tǒng)將一個(gè)新的行為者帶入社會(huì)領(lǐng)域,其決定會(huì)影響人類的生活。在將這種額外的行為者移入社會(huì)環(huán)境之前,應(yīng)該從倫理、法律和社會(huì)的角度對(duì)引入人工代理將帶來的后果進(jìn)行適當(dāng)?shù)膶彶?。在任何情況下,引進(jìn)自主系統(tǒng)的決定不能完全委托給那些以增加利潤(rùn)為唯一目標(biāo)的私人公司。
在我們看來,發(fā)生在赫茲伯格女士身上的致命事故的主要原因是圍繞著創(chuàng)新過程的制度“空白”。它必須歸因于缺乏管理這類技術(shù)引進(jìn)的社會(huì)機(jī)制。這種行為來自于制度上的一種不負(fù)責(zé)任,這是當(dāng)今創(chuàng)新過程的典型,因?yàn)閯?chuàng)新被認(rèn)為必然帶來解放、自由和財(cái)富。自主系統(tǒng)的失敗可能取決于人工智能系統(tǒng)引起的偏見(風(fēng)險(xiǎn)),取決于人工智能系統(tǒng)的隨機(jī)特征(脆弱性),以及這些系統(tǒng)的突發(fā)行為(緊急情況)。然而,更多時(shí)候,取決于社會(huì)治理機(jī)制的缺失。在失敗的情況下,用戶或操作員通常被指責(zé)。例如,在赫茲伯格女士的致命事故中,安全駕駛員面臨車輛過失殺人的刑事指控,盡管在5級(jí)自動(dòng)駕駛汽車的情況下,對(duì)人類操作者本身的相關(guān)性提出質(zhì)疑是合理的。埃利什提出了“道德皺褶區(qū)”概念,以描述涉及自主系統(tǒng)的事故責(zé)任如何被錯(cuò)誤地歸咎于對(duì)系統(tǒng)行為控制有限的人類行為者身上。正如在復(fù)雜的社會(huì)技術(shù)系統(tǒng)中經(jīng)常發(fā)生的那樣,導(dǎo)致赫茲伯格女士死亡的原因是多方面的,指出一個(gè)問題只是對(duì)情形的輕描淡寫。
人工智能解決方案涉及分布式的道德行動(dòng),這是基于人類和非人類行為者相互作用的網(wǎng)絡(luò)。這些行動(dòng)也可以隨著時(shí)間的推移而分布,包括設(shè)計(jì)者、技術(shù)人員、開發(fā)者、企業(yè)家、監(jiān)管者、用戶等的決定。由此看來,責(zé)任的分配是困難的,因?yàn)榻?jīng)典的倫理體系并不適合在不同地點(diǎn)和時(shí)間的多個(gè)行為者之間不透明分配的情況。此外,人工智能解決方案所促進(jìn)或削弱的價(jià)值是在用戶實(shí)施該解決方案時(shí)動(dòng)態(tài)產(chǎn)生的。這種特征是人工智能所特有的,而不是其他技術(shù)所特有的,因?yàn)檎缟厦嫣岬降模斯ぶ悄芟到y(tǒng),也只有人工智能系統(tǒng)在人類決策網(wǎng)絡(luò)所實(shí)現(xiàn)的一階復(fù)雜性之上帶來了二階復(fù)雜性,以至于人工智能引入了一個(gè)正在對(duì)我們?nèi)粘I钸M(jìn)行決策的人工行為者。
幾個(gè)月前,哈佛大學(xué)伯克曼-克萊因互聯(lián)網(wǎng)與社會(huì)中心的研究人員進(jìn)行了一項(xiàng)調(diào)查,將32套政策文件進(jìn)行了比較,以便對(duì)來自政府、公司、倡導(dǎo)機(jī)構(gòu)和多方利益相關(guān)者倡議的努力進(jìn)行比較。在這32份文件中,有13份承認(rèn)現(xiàn)有的法律規(guī)則無法完全應(yīng)對(duì)人工智能的影響,并提出了通過反思倫理價(jià)值和原則來維護(hù)政府行為的道德完整性的指導(dǎo)意見。例如,當(dāng)一輛自動(dòng)駕駛汽車撞上行人時(shí),會(huì)發(fā)生什么?是司機(jī)的錯(cuò)嗎,他本來就沒有控制過車輛?是創(chuàng)建駕駛軟件的ADS公司的錯(cuò)嗎?是汽車制造商、組裝和提供車輛的汽車制造商的錯(cuò)?還是實(shí)現(xiàn)特定設(shè)備(如激光雷達(dá)系統(tǒng)、雷達(dá)傳感器系統(tǒng)等)和相應(yīng)軟件的特定公司有錯(cuò),其故障導(dǎo)致了事故的發(fā)生?有大量的問題需要回答。再比如,我們應(yīng)該如何處理保險(xiǎn)?一旦司機(jī)取消了駕駛行為,將控制權(quán)交給計(jì)算機(jī)或自動(dòng)系統(tǒng),如何確定什么是安全駕駛與風(fēng)險(xiǎn)駕駛?還有,什么時(shí)候雙手完全離開方向盤、由車輛控制才算合法?是否應(yīng)該限制人類在車內(nèi)做什么?如果自動(dòng)駕駛汽車必須在拯救你的生命或附近另一輛車的乘客的生命之間做出瞬間決定,它應(yīng)該如何去做?想想這些問題,就很容易理解為什么其中的許多問題會(huì)讓最支持自動(dòng)駕車技術(shù)的人也感到不安。
我們應(yīng)該停止把人工智能看成是一個(gè)純粹的技術(shù)問題??创斯ぶ悄艿恼_方式,是把這種技術(shù)看成是一種“崩潰”,在這個(gè)意義上,傳統(tǒng)的存在于世界的模式被打斷,在我們的生活場(chǎng)景中多出了更多的行為者,正如我們?cè)谡劦饺斯ぶ悄芟到y(tǒng)引起的二階復(fù)雜性時(shí)所說的。采取這種立場(chǎng),可以讓我們能夠圍繞人工智能的限制和擔(dān)憂,探討社會(huì)治理的空白和適合處理這類故障的方法論的不足。正如馬瑞斯和斯塔克在2020年強(qiáng)調(diào)的,每當(dāng)我們部署一個(gè)人工智能解決方案時(shí),我們不僅僅是在社會(huì)環(huán)境中部署一個(gè)技術(shù)系統(tǒng),還是通過將測(cè)試本身轉(zhuǎn)化為一種社會(huì)“崩潰”的形式,從而對(duì)社會(huì)的結(jié)構(gòu)進(jìn)行測(cè)試。人工智能系統(tǒng)是由我們?cè)O(shè)計(jì)、實(shí)施和使用的人工制品;當(dāng)我們看到事情出錯(cuò)時(shí),我們有責(zé)任去觀察和譴責(zé),去了解和告知,去重建和改進(jìn)。由于責(zé)任鏈包括我們所有人(從研究人員到開發(fā)人員、政策制定者和用戶),我們都需要積極努力,為著手形成適當(dāng)?shù)纳鐣?huì)法律治理而采取下一步措施,以確保人工智能技術(shù)對(duì)社會(huì)有益的發(fā)展、部署和使用。最后,倫理學(xué)家、立法者、社會(huì)學(xué)家和設(shè)計(jì)師、技術(shù)人員一樣,都是建設(shè)“有益于社會(huì)”的人工智能所必需的。
(來源:2021世界人工智能大會(huì))