Tim OBrien
2018年,微軟發(fā)表了《未來(lái)計(jì)算》(The Future Computed)一書(shū),其中提出了人工智能開(kāi)發(fā)的六大原則:公平、可靠和安全、隱私和保障、包容、透明、責(zé)任。
首先是公平性。公平性是指對(duì)人而言,不同區(qū)域的人、不同等級(jí)的所有人在AI面前是平等的,不應(yīng)該有人被歧視。
人工智能數(shù)據(jù)的設(shè)計(jì)均始于訓(xùn)練數(shù)據(jù)的選擇,這是可能產(chǎn)生不公的第一個(gè)環(huán)節(jié)。訓(xùn)練數(shù)據(jù)應(yīng)該足以代表我們生存的多樣化的世界,至少是人工智能將運(yùn)行的那一部分世界。以面部識(shí)別、情緒檢測(cè)的人工智能系統(tǒng)為例,如果只對(duì)成年人臉部圖像進(jìn)行訓(xùn)練,這個(gè)系統(tǒng)可能就無(wú)法準(zhǔn)確識(shí)別兒童的特征或表情。
確保數(shù)據(jù)的“代表性”還不夠,種族主義和性別歧視也可能悄悄混入社會(huì)數(shù)據(jù)。假設(shè)我們?cè)O(shè)計(jì)一個(gè)幫助雇主篩選求職者的人工智能系統(tǒng),如果用公共就業(yè)數(shù)據(jù)進(jìn)行篩選,系統(tǒng)很可能會(huì)“學(xué)習(xí)”到大多數(shù)軟件開(kāi)發(fā)人員為男性,在選擇軟件開(kāi)發(fā)人員職位的人選時(shí),該系統(tǒng)就很可能偏向男性,盡管實(shí)施該系統(tǒng)的公司想要通過(guò)招聘提高員工的多樣性。
如果人們假定技術(shù)系統(tǒng)比人更少出錯(cuò)、更加精準(zhǔn)、更具權(quán)威,也可能造成不公。許多情況下,人工智能系統(tǒng)輸出的結(jié)果是一個(gè)概率預(yù)測(cè),比如“申請(qǐng)人貸款違約概率約為70%”,這個(gè)結(jié)果可能非常準(zhǔn)確,但如果貸款管理人員將“70%的違約風(fēng)險(xiǎn)”簡(jiǎn)單解釋為“不良信用風(fēng)險(xiǎn)”,拒絕向所有人提供貸款,那么就有三成的人雖然信用狀況良好,貸款申請(qǐng)也被拒絕,導(dǎo)致不公。因此,我們需要對(duì)人進(jìn)行培訓(xùn),使其理解人工智能結(jié)果的含義和影響,彌補(bǔ)人工智能決策中的不足。
第二是可靠性和安全性。它指的是人工智能使用起來(lái)是安全的、可靠的,不作惡的。
目前全美熱議的一個(gè)話題是自動(dòng)駕駛車(chē)輛的問(wèn)題。之前有新聞報(bào)道,一輛行駛中的特斯拉系統(tǒng)出現(xiàn)了問(wèn)題,車(chē)輛仍然以每小時(shí)70英里的速度在高速行駛,但是駕駛系統(tǒng)已經(jīng)死機(jī),司機(jī)無(wú)法重啟自動(dòng)駕駛系統(tǒng)。
想象一下,如果你要發(fā)布一個(gè)新藥,它的監(jiān)管、測(cè)試和臨床試驗(yàn)會(huì)受到非常嚴(yán)格的監(jiān)管流程。但是,為什么自動(dòng)駕駛車(chē)輛的系統(tǒng)安全性完全是松監(jiān)管甚至是無(wú)監(jiān)管的?這就是一種對(duì)自動(dòng)化的偏見(jiàn),指的是我們過(guò)度相信自動(dòng)化。這是一個(gè)很奇怪的矛盾:一方面人類(lèi)過(guò)度地信賴(lài)機(jī)器,但是另一方面其實(shí)這與人類(lèi)的利益是沖突的。
另一個(gè)案例發(fā)生在舊金山,一個(gè)已經(jīng)喝暈了的特斯拉車(chē)主直接進(jìn)到車(chē)?yán)锎蜷_(kāi)了自動(dòng)駕駛系統(tǒng),睡在車(chē)?yán)铮缓筮@輛車(chē)就自動(dòng)開(kāi)走了。這個(gè)特斯拉的車(chē)主覺(jué)得,“我喝醉了,我沒(méi)有能力繼續(xù)開(kāi)車(chē),但是我可以相信特斯拉的自動(dòng)駕駛系統(tǒng)幫我駕駛,那我是不是就不違法了?”但事實(shí)上這也屬于違法的行為。
可靠性、安全性是人工智能非常需要關(guān)注的一個(gè)領(lǐng)域。自動(dòng)駕駛車(chē)只是其中一個(gè)例子,它涉及到的領(lǐng)域也絕不僅限于自動(dòng)駕駛。
第三是隱私和保障,人工智能因?yàn)樯婕暗綌?shù)據(jù),所以總是會(huì)引起個(gè)人隱私和數(shù)據(jù)安全方面的問(wèn)題。
美國(guó)一個(gè)非常流行的健身的App叫Strava,比如你騎自行車(chē),騎行的數(shù)據(jù)會(huì)上傳到平臺(tái)上,在社交媒體平臺(tái)上有很多人就可以看到你的健身數(shù)據(jù)。問(wèn)題隨之而來(lái),有很多美國(guó)軍事基地的在役軍人也在鍛煉時(shí)用這個(gè)應(yīng)用,他們鍛煉的軌跡數(shù)據(jù)全部上傳了,整個(gè)軍事基地的地圖數(shù)據(jù)在平臺(tái)上就都有了。美國(guó)軍事基地的位置是高度保密的信息,但是軍方從來(lái)沒(méi)想到一款健身的App就輕松地把數(shù)據(jù)泄露出去了。
第四是人工智能必須考慮到包容性的道德原則,要考慮到世界上各種功能障礙的人群。
舉個(gè)領(lǐng)英的例子,他們有一項(xiàng)服務(wù)叫“領(lǐng)英經(jīng)濟(jì)圖譜搜索”。領(lǐng)英、谷歌和美國(guó)一些大學(xué)聯(lián)合做過(guò)一個(gè)研究,研究通過(guò)領(lǐng)英實(shí)現(xiàn)職業(yè)提升的用戶(hù)中是否存在性別差異?這個(gè)研究主要聚焦了全美排名前20 MBA的一些畢業(yè)生,他們?cè)诋厴I(yè)之后會(huì)在領(lǐng)英描述自己的職業(yè)生涯,他們主要是對(duì)比這些數(shù)據(jù)。研究的結(jié)論是,至少在全美排名前20的MBA的畢業(yè)生中,存在自我推薦上的性別差異。如果你是一個(gè)男性的MBA畢業(yè)生,通常你在毛遂自薦的力度上要超過(guò)女性。
如果你是一個(gè)公司負(fù)責(zé)招聘的人,登錄領(lǐng)英的系統(tǒng),就會(huì)有一些關(guān)鍵字域要選,其中有一頁(yè)是自我總結(jié)。在這一頁(yè)上,男性對(duì)自己的總結(jié)和評(píng)估通常都會(huì)高過(guò)女性,女性在這方面對(duì)于自我的評(píng)價(jià)是偏低的。所以,作為一個(gè)招聘者,在招聘人員的時(shí)候其實(shí)要獲得不同的數(shù)據(jù)信號(hào),要將這種數(shù)據(jù)信號(hào)的權(quán)重降下來(lái),才不會(huì)干擾對(duì)應(yīng)聘者的正常評(píng)估。
但是,這又涉及到一個(gè)程度的問(wèn)題,這個(gè)數(shù)據(jù)信號(hào)不能調(diào)得過(guò)低,也不能調(diào)得過(guò)高,要有一個(gè)正確的度。數(shù)據(jù)能夠?yàn)槿祟?lèi)提供很多的洞察力,但是數(shù)據(jù)本身也包含一些偏見(jiàn)。那我們?nèi)绾螐娜斯ぶ悄?、倫理的角度?lái)更好地把握這樣一個(gè)偏見(jiàn)的程度,來(lái)實(shí)現(xiàn)這種包容性,這就是我們說(shuō)的人工智能包容性的內(nèi)涵。
在這四項(xiàng)價(jià)值觀之下還有兩項(xiàng)重要的原則:透明度和問(wèn)責(zé)制,它們是所有其他原則的基礎(chǔ)。
第五是透明度。在過(guò)去十年,人工智能領(lǐng)域突飛猛進(jìn)最重要的一個(gè)技術(shù)就是深度學(xué)習(xí),深度學(xué)習(xí)是機(jī)器學(xué)習(xí)中的一種模型,我們認(rèn)為至少在現(xiàn)階段,深度學(xué)習(xí)模型的準(zhǔn)確度是所有機(jī)器學(xué)習(xí)模型中最高的,但在這里存在一個(gè)它是否透明的問(wèn)題。透明度和準(zhǔn)確度無(wú)法兼得,你只能在二者權(quán)衡取舍,如果你要更高的準(zhǔn)確度,你就要犧牲一定的透明度。
在李世石和AlphaGo的圍棋賽中就有這樣的例子,AlphaGo打出的很多手棋事實(shí)上是人工智能專(zhuān)家和圍棋職業(yè)選手根本無(wú)法理解的。如果你是一個(gè)人類(lèi)棋手,你絕對(duì)不會(huì)下出這樣一手棋。所以到底人工智能的邏輯是什么,它的思維是什么,人類(lèi)目前不清楚。
所以我們現(xiàn)在面臨的問(wèn)題是,深度學(xué)習(xí)的模型很準(zhǔn)確,但是它存在不透明的問(wèn)題。如果這些模型、人工智能系統(tǒng)不透明,就有潛在的不安全問(wèn)題。
為什么透明度這么重要?舉個(gè)例子,20世紀(jì)90年代在卡耐基梅隆大學(xué),有一位學(xué)者在做有關(guān)肺炎方面的研究,其中一個(gè)團(tuán)隊(duì)做基于規(guī)則的分析,幫助決定患者是否需要住院?;谝?guī)則的分析準(zhǔn)確率不高,但由于基于規(guī)則的分析都是人類(lèi)能夠理解的一些規(guī)則,因此透明性好。他們“學(xué)習(xí)”到哮喘患者死于肺炎的概率低于一般人群。
然而,這個(gè)結(jié)果顯然違背常識(shí),如果一個(gè)人既患有哮喘,也患有肺炎,那么死亡率應(yīng)該是更高的。這個(gè)研究“學(xué)習(xí)”所得出的結(jié)果,其原因在于,一個(gè)哮喘病人由于常常會(huì)處于危險(xiǎn)之中,一旦出現(xiàn)癥狀,他們的警惕性更高、接受的醫(yī)護(hù)措施會(huì)更好,因此能更快得到更好的醫(yī)療。這就是人的因素,如果你知道你有哮喘,你就會(huì)迅速采取應(yīng)急措施。
人的主觀因素并沒(méi)有作為客觀的數(shù)據(jù)放在訓(xùn)練模型的數(shù)據(jù)圖中,如果人類(lèi)能讀懂這個(gè)規(guī)則,就可以對(duì)其進(jìn)行判斷和校正。但如果它不是基于規(guī)則的模型,不知道它是通過(guò)這樣的規(guī)則來(lái)判斷,是一個(gè)不透明的算法,它得出了這個(gè)結(jié)論,人類(lèi)按照這個(gè)結(jié)論就會(huì)建議哮喘患者不要住院進(jìn)行治療,這顯然是不安全的。
所以,當(dāng)人工智能應(yīng)用于一些關(guān)鍵領(lǐng)域,比如醫(yī)療領(lǐng)域、刑事執(zhí)法領(lǐng)域的時(shí)候,我們一定要非常小心。比如某人向銀行申請(qǐng)貸款,銀行拒絕批準(zhǔn)貸款,這個(gè)時(shí)候作為客戶(hù)就要問(wèn)為什么,銀行不能說(shuō)我是基于人工智能,它必須給出一個(gè)理由。
第六是問(wèn)責(zé)。人工智能系統(tǒng)采取了某個(gè)行動(dòng),做了某個(gè)決策,就必須為自己帶來(lái)的結(jié)果負(fù)責(zé)。人工智能的問(wèn)責(zé)制是一個(gè)非常有爭(zhēng)議的話題,我們還是回到自動(dòng)駕駛車(chē)上進(jìn)行討論。確實(shí),它還涉及到一個(gè)法律或者立法的問(wèn)題。在美國(guó)已經(jīng)出現(xiàn)多例因?yàn)樽詣?dòng)駕駛系統(tǒng)導(dǎo)致的車(chē)禍。如果是機(jī)器代替人來(lái)進(jìn)行決策、采取行動(dòng)出現(xiàn)了不好的結(jié)果,到底是誰(shuí)來(lái)負(fù)責(zé)?我們的原則是要采取問(wèn)責(zé)制,當(dāng)出現(xiàn)了不好的結(jié)果,不能讓機(jī)器或者人工智能系統(tǒng)當(dāng)替罪羊,人必須是承擔(dān)責(zé)任的。
但現(xiàn)在的問(wèn)題是我們不清楚基于全世界的法律基礎(chǔ)而言,到底哪個(gè)國(guó)家具備能力處理類(lèi)似案件的能力。(美國(guó))很多案件的裁決是基于“判例法”進(jìn)行判定的,但是對(duì)于這樣一些案例,我們沒(méi)有先例可以作為法庭裁決的法律基礎(chǔ)。
其實(shí),不光是自動(dòng)駕駛,還有其他很多領(lǐng)域,比如刑事案件問(wèn)題,還有涉及軍事領(lǐng)域的問(wèn)題?,F(xiàn)在有很多的武器已經(jīng)自動(dòng)化或者是人工智能化了,如果是一個(gè)自動(dòng)化的武器殺傷了人類(lèi),這樣的案件應(yīng)該如何裁定?
這就要牽涉到法律中的法人主體的問(wèn)題,人工智能系統(tǒng)或全自動(dòng)化系統(tǒng)是否能作為法人主體存在?它會(huì)帶來(lái)一系列的法律的問(wèn)題:首先,人工智能系統(tǒng)是否可以判定為是一個(gè)法律的主體?如果你判定它是一個(gè)法律的主體,那就意味著人工智能系統(tǒng)有自己的權(quán)力,也有自己的責(zé)任。如果它有權(quán)力和責(zé)任,就意味著它要對(duì)自己的行為負(fù)責(zé),但是這個(gè)邏輯鏈?zhǔn)欠癯闪??如果它作為一個(gè)法律主體存在,那么它要承擔(dān)相應(yīng)的責(zé)任,也享有接受法律援助的權(quán)利。因此,我們認(rèn)為法律主體一定要是人類(lèi)。
(作者為微軟人工智能項(xiàng)目總經(jīng)理;編輯:韓舒淋)