張正敏
(上海市質(zhì)量和標(biāo)準(zhǔn)化研究院,上海 200031)
近年來(lái),人工智能技術(shù)發(fā)展突飛猛進(jìn),除了在特定場(chǎng)景——如圍棋等領(lǐng)域取得革命性突破外,在非特定場(chǎng)景的任務(wù)中——如無(wú)人駕駛也取得了長(zhǎng)足的進(jìn)步。前述這些應(yīng)用屬于較為正面的方面,但是一些不合理應(yīng)用也給經(jīng)濟(jì)社會(huì)發(fā)展帶來(lái)了許多問(wèn)題,比如軍用人工智能技術(shù)對(duì)于士兵乃至整個(gè)人類(lèi)生命的威脅、情侶機(jī)器人對(duì)家庭倫理的挑戰(zhàn)等,因此越來(lái)越多的人呼吁盡快開(kāi)展人工智能倫理方面的研究。
在人工智能倫理研究方面,歐盟較為領(lǐng)先。早在2015年,歐盟議會(huì)法律事務(wù)委員會(huì)(JURI)就決定成立一個(gè)工作小組,專(zhuān)門(mén)研究與機(jī)器人和人工智能發(fā)展相關(guān)的法律問(wèn)題。2019年,歐盟委員會(huì)發(fā)布了由歐盟人工智能高級(jí)專(zhuān)家組撰寫(xiě)的《可信賴(lài)人工智能道德準(zhǔn)則》,提出了實(shí)現(xiàn)“可信賴(lài)AI全生命周期框架”的3個(gè)基本要素(合法性、合倫理性、穩(wěn)健性)、可信賴(lài)AI的基礎(chǔ)原則、評(píng)估可信賴(lài)AI的關(guān)鍵要求及其實(shí)現(xiàn)等。美國(guó)人工智能倫理體系發(fā)展相對(duì)其技術(shù)發(fā)展水平而言相對(duì)落后。2016年,美國(guó)電氣和電子工程師協(xié)會(huì)(IEEE)發(fā)布世界首個(gè)《人工智能道德準(zhǔn)則設(shè)計(jì)草案(Ethically Aligned Design)》(Version 1)。美國(guó)美國(guó)防創(chuàng)新委員會(huì)發(fā)布軍用人工智能倫理原則《人工智能原則:國(guó)防部人工智能應(yīng)用倫理的若干建議》,提出了“負(fù)責(zé)、公平、可追蹤、可靠、可控”五大原則。
其他國(guó)家、地區(qū)和組織中,2016年日本人工智能學(xué)會(huì)倫理委員起草了面向研究人員的倫理綱要草案;同年,英國(guó)標(biāo)準(zhǔn)行業(yè)協(xié)會(huì)發(fā)布業(yè)界首個(gè)關(guān)于機(jī)器人倫理設(shè)計(jì)的公開(kāi)指標(biāo)——《機(jī)器人和機(jī)器系統(tǒng)的倫理設(shè)計(jì)和應(yīng)用指南》;2017年聯(lián)合國(guó)發(fā)布了《機(jī)器人倫理報(bào)告》;2018年英國(guó)發(fā)布了《英國(guó)人工智能發(fā)展的計(jì)劃、能力與志向》。2019年世界經(jīng)濟(jì)論壇發(fā)布白皮書(shū)《AI治理:將倫理規(guī)范納入AI的整體方法》。在國(guó)內(nèi),2017年,國(guó)務(wù)院印發(fā)《新一代人工智能發(fā)展規(guī)劃的通知》,明確提出要加強(qiáng)人工智能相關(guān)法律、倫理和社會(huì)問(wèn)題的研究,建立保障人工智能健康發(fā)展的法治法規(guī)和倫理道德框架,到2030年中國(guó)建成更加完善的人工智能法律法規(guī)、倫理規(guī)范和政策體系。2018年,在國(guó)家人工智能標(biāo)準(zhǔn)化總體組的成立大會(huì)上,《人工智能標(biāo)準(zhǔn)化白皮書(shū)2018》正式發(fā)布,論述了人工智能的安全、倫理和隱私問(wèn)題;中國(guó)發(fā)展研究基金會(huì)發(fā)布報(bào)告《未來(lái)基石—人工智能的社會(huì)角色與倫理》提出了人工智能倫理三問(wèn);2018年世界人工智能大會(huì),國(guó)家主席習(xí)近平致信提出要抓住機(jī)遇,處理好人工智能在法律、安全、就業(yè)、道德倫理和政府治理等方面提出的新課題。
李升[1]通過(guò)研究50部人工智能倫理準(zhǔn)則,認(rèn)為目前現(xiàn)有的倫理研究基本上可以分為2類(lèi):人類(lèi)中心主義、非人類(lèi)中心主義,其中以人類(lèi)中心主義為基本立場(chǎng)的倫理準(zhǔn)則數(shù)量遠(yuǎn)高于非人類(lèi)中心主義的倫理準(zhǔn)則數(shù)量,并且提出了以“自主度”等級(jí)方法來(lái)解釋與分析不同類(lèi)型人工智能倫理準(zhǔn)則數(shù)量差異的原因——非人類(lèi)中心主義為核心理念的人工智能倫理準(zhǔn)則都集中在了自主度等級(jí)為10級(jí)的區(qū)域,5~10級(jí)之間具有很多空白,這些空白區(qū)域亟待填充。然而,其并沒(méi)有給出衡量“自主度”的方法。在人工智能領(lǐng)域,“道德圖靈測(cè)試”(Moral Turing Test,簡(jiǎn)稱(chēng)MTT)一般被公認(rèn)是可用于判斷人工智能“是/否”擁有道德,基本做法是將AI與人類(lèi)混在一起回答問(wèn)題,如果提問(wèn)者通過(guò)一組道德問(wèn)題在一定概率上(例如70%)不能區(qū)分出到底是AI還是人類(lèi)在回答問(wèn)題,那么AI則通過(guò)MTT,可認(rèn)為AI已具有道德能力[2]。然而作為一般性的通用方法,“道德圖靈測(cè)試”并沒(méi)有給出具體領(lǐng)域可供測(cè)試的問(wèn)題集,目前也沒(méi)有公認(rèn)的問(wèn)題集。杜嚴(yán)勇[3]在探討助老機(jī)器人的發(fā)展前景時(shí)指出“在制定行業(yè)標(biāo)準(zhǔn)時(shí),充分考慮不同類(lèi)別的老人的不同功能需要與個(gè)性偏好,比如針對(duì)智障老人、高齡老人、失能老人等制定不同的標(biāo)準(zhǔn),堅(jiān)持評(píng)價(jià)標(biāo)準(zhǔn)的原則性與靈活性”“把納斯鮑姆的10項(xiàng)能力作為對(duì)助老機(jī)器人的評(píng)價(jià)標(biāo)準(zhǔn)”[4],提出評(píng)價(jià)標(biāo)準(zhǔn)應(yīng)在應(yīng)用層面加以細(xì)化。從上述人工智能倫理方面的研究可以看出,目前人工倫理研究存在的爭(zhēng)議主要集中在2個(gè)方面:(1)人類(lèi)中心主義是否適當(dāng);(2)絕大多數(shù)倫理準(zhǔn)則顆粒度太粗,無(wú)法細(xì)化和實(shí)施,本文針對(duì)這2個(gè)問(wèn)題進(jìn)行重點(diǎn)探討。
辭海中關(guān)于“倫理”的解釋是“人們相互關(guān)系的行為準(zhǔn)則,或指具有一定行為準(zhǔn)則的人際關(guān)系?!睆纳鲜鲎⒔饪梢钥闯?,現(xiàn)代社會(huì)關(guān)于倫理對(duì)象的界定主要是“人”與“人”之間的相互關(guān)系。但是,如果時(shí)間回溯幾千年,大家可以發(fā)現(xiàn)倫理的對(duì)象并非一直如此界定;如果放眼未來(lái),可能亦并非如此(見(jiàn)圖1)。
圖1 倫理主體的演化
在奴隸社會(huì),奴隸的地位基本與動(dòng)物相似,根本沒(méi)有社會(huì)地位,基本不被納入倫理規(guī)范的范圍,完全廢除奴隸制、倡導(dǎo)人人平等也只是最近幾百年發(fā)生的事情。之后,隨著經(jīng)濟(jì)、社會(huì)的發(fā)展,動(dòng)物的福利越來(lái)越為更多人關(guān)注。印度的甘地說(shuō),從一個(gè)國(guó)家對(duì)待動(dòng)物的態(tài)度,可以判斷這個(gè)國(guó)家及其道德是否偉大與崇高。美國(guó)湯姆·雷根(Tom Regan)認(rèn)為,動(dòng)物跟我們擁有一樣的系統(tǒng)和起源,所有的生命主體在道德上都是一樣的,都是平等的。因此不少人主張倫理規(guī)范的范圍應(yīng)該進(jìn)一步擴(kuò)大,人與動(dòng)物的關(guān)系應(yīng)逐步被納入倫理道德規(guī)范的范疇。在此邏輯基礎(chǔ)上,我們可以做進(jìn)一步的推演:因?yàn)橹参镆彩巧镞M(jìn)化的一個(gè)分支,隨著時(shí)間的推移,必將會(huì)有更多的人認(rèn)為我們應(yīng)該善待植物,把植物也納入倫理規(guī)范的范疇。前述關(guān)于倫理對(duì)象的拓展,總體而言,還是基于碳基生物的。近年來(lái),隨著計(jì)算機(jī)、通信、人工智能等技術(shù)的快速發(fā)展,硅基事物也不斷走入我們的生活,并且開(kāi)始逐步挑戰(zhàn)過(guò)去用于界定倫理的界限(智力水平、力量等),(1)隨著科技的發(fā)展,人們發(fā)現(xiàn)人類(lèi)自身其實(shí)是由雙螺旋DNA編譯而成的,而計(jì)算機(jī)是由0/1代碼編譯,從某種意義上來(lái)講,人與計(jì)算機(jī)并無(wú)根本的區(qū)別;(2)聽(tīng)覺(jué)、視覺(jué)甚至是腦輔助等硅基設(shè)備與人逐步融為一體,半人半機(jī)器的“人”在享有倫理主體地位的同時(shí),事實(shí)上也被硅基設(shè)備分享、蠶食倫理地位;(3)人工智能能力發(fā)展突飛猛進(jìn),從智能的層面不斷趕超人類(lèi),使得以往人類(lèi)引以為傲的智能、能力等獨(dú)特優(yōu)勢(shì)不復(fù)存在,倫理主體的來(lái)源合理性受到挑戰(zhàn);(4)在現(xiàn)實(shí)社會(huì)中,沙特已經(jīng)授予了人工智能“索菲婭(Sophia)”公民身份,日本賦予了AI“澀谷未來(lái)(Shibuya Mirai)”居住權(quán),人工智能獲得倫理主體地位已經(jīng)在現(xiàn)實(shí)層面上取得突破。上述只列出了比較常見(jiàn)的一些理由,我們可以相信,隨著人工智能技術(shù)不斷滲透到經(jīng)濟(jì)、社會(huì)、生活各個(gè)方面,人工智能倫理地位必將不斷得到加強(qiáng)。未來(lái),隨著科技的發(fā)展,物質(zhì)、自然也將不斷地被納入倫理規(guī)范的范疇,實(shí)際上,在我國(guó)歷史上,佛家、道家對(duì)于天人合一等理念已多有論述。
從上述分析我們可以看出,雖然目前只有較少部分的地區(qū)或組織主張非人類(lèi)中心主義,但是隨著未來(lái)人工智能技術(shù)的不斷進(jìn)步,各種形式的人工智能產(chǎn)品和技術(shù)逐步融入到我們的生活,非人類(lèi)中心主義觀念將不斷被提出,并且關(guān)于人工智能倫理主體地位的探討必然伴隨著人工智能責(zé)任的分配和承擔(dān)。當(dāng)前,非人類(lèi)中心主義現(xiàn)階段還不是主流,主要是因?yàn)槿斯ぶ悄芗夹g(shù)發(fā)展還不夠充分,影響范圍還不夠大。我們需要做的是一方面加快人工智能技術(shù)的發(fā)展,另一方面秉承開(kāi)放包容的態(tài)度,構(gòu)建統(tǒng)一的框架,統(tǒng)籌人工智能現(xiàn)在與未來(lái)的倫理發(fā)展。
借鑒GB/T 40429-2021《汽車(chē)駕駛自動(dòng)化分級(jí)》中關(guān)于自動(dòng)駕駛0~5級(jí)劃分的總體思路,本文認(rèn)為,對(duì)于人工智能倫理標(biāo)準(zhǔn)建設(shè),也應(yīng)在分級(jí)分類(lèi)的基礎(chǔ)上建立統(tǒng)一的框架和基準(zhǔn),明確行業(yè)和應(yīng)用場(chǎng)景,確定人工智能倫理建設(shè)所處的具體階段、應(yīng)賦予的人工智能倫理地位、人工智能具體表現(xiàn)及應(yīng)承擔(dān)的責(zé)任等頂層內(nèi)容。以醫(yī)療行業(yè)為例,可將人工智能倫理建設(shè)階段分為:
(1)0級(jí)。應(yīng)急輔助,如實(shí)施心跳自動(dòng)監(jiān)測(cè),聯(lián)網(wǎng)發(fā)送報(bào)警等;人工智能不承擔(dān)任何責(zé)任。
(2)1級(jí)。檢測(cè)輔助,輔助醫(yī)生開(kāi)展影像檢查和分析,提供檢測(cè)分析意見(jiàn);人工智能不承擔(dān)責(zé)任。
(3)2級(jí)。組合輔助,多場(chǎng)景、多功能的集成,提供面向病患的數(shù)據(jù)池和綜合診療方案;人工智能承擔(dān)極少部分責(zé)任。
(4)3級(jí)。有條件自動(dòng)診療,在特定環(huán)境下,由人工智能系統(tǒng)主導(dǎo)診療,人類(lèi)認(rèn)為必要時(shí),可介入。人工智能承擔(dān)部分責(zé)任。
(5)4級(jí)。高級(jí)自動(dòng)診療,一般環(huán)境下,主要由人工智能系統(tǒng)主導(dǎo)診療,人工智能認(rèn)為必要時(shí),申請(qǐng)人類(lèi)介入。人工智能承擔(dān)大部分責(zé)任。
(6)5級(jí)。完全自動(dòng)診療,全程人工智能診療。人工智能承擔(dān)全部責(zé)任。
一般認(rèn)為當(dāng)前國(guó)內(nèi)外醫(yī)療行業(yè)的人工智能發(fā)展水平,主要還處于從0級(jí)向1級(jí)的過(guò)渡階段,人工智能目前能夠做的主要是輔助醫(yī)生進(jìn)行醫(yī)療影像資料的解讀、基于大數(shù)據(jù)進(jìn)行病因的解析、提供部分診療建議等。在厘清當(dāng)前人工智能技術(shù)水平、所處階段的基礎(chǔ)上,可以認(rèn)為,今后一段時(shí)間醫(yī)療領(lǐng)域人工智能倫理建設(shè)應(yīng)以1級(jí)為主,適當(dāng)做2級(jí)、3級(jí)層面的前瞻性標(biāo)準(zhǔn)布局和研究,引領(lǐng)行業(yè)的標(biāo)準(zhǔn)化發(fā)展。
通過(guò)綜合分析國(guó)內(nèi)外人工智能倫理建設(shè)的指導(dǎo)思想、基本原則等相關(guān)內(nèi)容,本文認(rèn)為在明確本行業(yè)當(dāng)前人工智能發(fā)展的階段后,重點(diǎn)需考慮細(xì)化以下幾個(gè)中觀層面的內(nèi)容,并將其落實(shí)到產(chǎn)品、過(guò)程和服務(wù)中:
(1)人工智能倫理立法。關(guān)注法律的時(shí)代性,構(gòu)建人工智能時(shí)代下新法律體系,為人工智能倫理標(biāo)準(zhǔn)體系建設(shè)提供上位法依據(jù)。
(2)人工智能體的道德地位。根據(jù)人工智能發(fā)展階段的不同,確定人工智能是否享有部分或同等倫理主體的權(quán)利和義務(wù)等。
(3)安全性。安全性包括數(shù)據(jù)安全、算法安全等。
(4)公平性。人工智能算法是否存在歧視性和偏見(jiàn)。
(5)透明性。透明性即人工智能技術(shù)方法是否可解析、可追溯、可控制。
(6)倫理標(biāo)準(zhǔn)。構(gòu)建可信賴(lài)人工智能架構(gòu)、測(cè)試和驗(yàn)證方法以及服務(wù)質(zhì)量指標(biāo)等。
測(cè)試和評(píng)價(jià)方法是落實(shí)人工智能倫理建設(shè)最基礎(chǔ)的一環(huán),本文通過(guò)分析圖靈測(cè)試方法及汽車(chē)行業(yè)關(guān)于智能性的測(cè)試和設(shè)計(jì)方法[5]的總體思路提出,具體行業(yè)人工智能倫理水平測(cè)試應(yīng)與責(zé)任地位相匹配,并且從低到高、從簡(jiǎn)單到復(fù)雜,依次測(cè)試人工智能系統(tǒng)的功能性、智能性、價(jià)值判斷。
(1)功能性測(cè)試。功能性測(cè)試往往對(duì)應(yīng)于0~2級(jí)的初級(jí)階段。在這個(gè)階段,重點(diǎn)測(cè)試人工智能系統(tǒng)在特定場(chǎng)景、特定任務(wù)中是否能夠?qū)崿F(xiàn)特定的功能。例如,以自動(dòng)駕駛為例,以場(chǎng)景為基礎(chǔ),配置不同的任務(wù)目標(biāo),考察人工智能系統(tǒng)在單項(xiàng)任務(wù)、綜合任務(wù)中的表現(xiàn),由此判斷人工智能的基本水平,這個(gè)階段基本上人工智能仍然以自動(dòng)化、模仿人類(lèi)行為為主。
(2)智能性測(cè)試。智能性測(cè)試往往對(duì)應(yīng)于2~4級(jí)的發(fā)展階段。在這個(gè)階段,重點(diǎn)測(cè)試人工智能系統(tǒng)在開(kāi)放性場(chǎng)景中的類(lèi)比能力、推理能力、抽象能力和情感能力等??梢詤⒖既祟?lèi)測(cè)試智商、情商的方式,對(duì)系統(tǒng)進(jìn)行開(kāi)放場(chǎng)景測(cè)試,這個(gè)階段的人工智能具有一定的道德主體地位,需要承擔(dān)相應(yīng)的責(zé)任。
(3)價(jià)值判斷。價(jià)值判斷往往對(duì)應(yīng)于4~5級(jí)的高級(jí)階段。在這個(gè)階段,人工智能具有高度的自主性,可以類(lèi)比自然人、法人,具有較高、甚至是完全的社會(huì)倫理地位。這個(gè)階段,重點(diǎn)測(cè)試系統(tǒng)的道德認(rèn)識(shí)、道德情感、道德意志、道德信念及價(jià)值觀念,實(shí)現(xiàn)實(shí)然性?xún)r(jià)值關(guān)系與應(yīng)然性?xún)r(jià)值關(guān)系的統(tǒng)一[6]。
除了上述確定發(fā)展階段、明確重點(diǎn)內(nèi)容、細(xì)化測(cè)試和評(píng)價(jià)方法等方面外,鑒于倫理標(biāo)準(zhǔn)建設(shè)的復(fù)雜性和廣泛性,下述內(nèi)容也值得關(guān)注:
(1)測(cè)試平臺(tái)建設(shè)。當(dāng)前,人工智能測(cè)試手段和方法亟待突破。上述0~4級(jí)人工智能的功能性測(cè)試、智能性測(cè)試效果的好壞很大程度上依賴(lài)于包含單項(xiàng)、綜合任務(wù)測(cè)試集的優(yōu)劣程度,這就需要測(cè)評(píng)平臺(tái)具有豐富多樣的場(chǎng)景、數(shù)據(jù);同時(shí),為了提高測(cè)試效率,虛擬的測(cè)試平臺(tái)也是未來(lái)重要的發(fā)展方向。
(2)數(shù)據(jù)共享。數(shù)據(jù)是行業(yè)發(fā)展的基礎(chǔ),多場(chǎng)景、多國(guó)別的數(shù)據(jù)對(duì)于人工智能的發(fā)展至關(guān)重要。行業(yè)主管部門(mén)和企事業(yè)單位應(yīng)加大數(shù)據(jù)的融通工作,加強(qiáng)制度規(guī)范,建立數(shù)據(jù)有序開(kāi)放交換平臺(tái),鼓勵(lì)企業(yè)等單位開(kāi)放自有數(shù)據(jù)、提供數(shù)據(jù)服務(wù),引導(dǎo)形成安全、合規(guī)、高效的數(shù)據(jù)共享開(kāi)放體系。
(3)教育與審查。人工智能倫理建設(shè)除了從人工智能方面著手外,人類(lèi)社會(huì)的教育與審查也必不可少。人工智能倫理方面的教育和審查包括面向企業(yè)家、管理者、科學(xué)家、設(shè)計(jì)師、工程師等群體制定倫理規(guī)則,構(gòu)建產(chǎn)品審查程序,建立倫理審查委員會(huì)等。
本文主要探討了當(dāng)前人工智能倫理標(biāo)準(zhǔn)化建設(shè)中存在的人工智能倫理主體地位不清及倫理原則顆粒度太粗無(wú)法落實(shí)的問(wèn)題,分析了倫理主體對(duì)象的演化過(guò)程,提出了基于分級(jí)分類(lèi)方法的人工智能倫理建設(shè)階段定位和測(cè)試評(píng)價(jià)方法,可為后續(xù)一段時(shí)期規(guī)劃倫理標(biāo)準(zhǔn)建設(shè)重點(diǎn)方向和任務(wù)提供參考。