理查德·沃特斯
確保人工智能在不會(huì)帶來(lái)一些意想不到的后果的情況下造福人類(lèi),是很困難的。人類(lèi)社會(huì)無(wú)法界定自身想要什么,因此通過(guò)編程讓機(jī)器為最多數(shù)量的人謀求最大幸福是存在問(wèn)題的。
科技行業(yè)正準(zhǔn)備迎接人工智能帶來(lái)的震撼世界的影響。如今人們意識(shí)到,從教育、就業(yè),到如何收集人們的數(shù)據(jù),人工智能將擾亂社會(huì)運(yùn)轉(zhuǎn)的方式。
機(jī)器學(xué)習(xí)是一種高級(jí)形態(tài)的模式識(shí)別,能夠讓機(jī)器通過(guò)分析大量數(shù)據(jù)來(lái)做出判斷。這有望大大輔助人類(lèi)思維。但這種與日俱增的能力引發(fā)了近乎“科學(xué)怪人”(Frankenstein)式的擔(dān)憂:開(kāi)發(fā)人員能否控制他們創(chuàng)造出的機(jī)器?
加州大學(xué)伯克利分校計(jì)算機(jī)科學(xué)教授、人工智能專(zhuān)家斯圖亞特?拉塞爾表示,自動(dòng)系統(tǒng)的失誤(就像去年駕駛一輛特斯拉汽車(chē),部分自動(dòng)駕駛汽車(chē)的美國(guó)駕車(chē)者死亡那樣)促使人們關(guān)注安全。他表示:“這種事件可能會(huì)嚴(yán)重阻礙行業(yè)的發(fā)展,因此這里有著非常直接的經(jīng)濟(jì)自身利益。”
除了移民和全球化,對(duì)人工智能驅(qū)動(dòng)的自動(dòng)化的擔(dān)憂,正引發(fā)公眾對(duì)于不平等和就業(yè)安全的擔(dān)憂。唐納德?特朗普當(dāng)選美國(guó)總統(tǒng)以及英國(guó)投票退出歐盟在一定程度上就是受到這類(lèi)擔(dān)憂的推動(dòng)。盡管一些政治人士聲稱(chēng),保護(hù)主義政策將有利于勞動(dòng)者,但很多行業(yè)專(zhuān)家表示,多數(shù)就業(yè)損失是由科技變革(主要是自動(dòng)化)造成的。
英國(guó)《金融時(shí)報(bào)》與高通聯(lián)合開(kāi)展的Essential Future調(diào)查發(fā)現(xiàn),全球精英(那些收入和受教育程度高、生活在首都城市的人)對(duì)于創(chuàng)新要比普通大眾熱情得多。除非彌合這種差距,否則它將繼續(xù)引發(fā)政治摩擦。
美國(guó)企業(yè)家、撰寫(xiě)道德和科技文章的學(xué)者維微克?瓦德瓦認(rèn)為,新的自動(dòng)化浪潮具有地緣政治上的潛在影響:“科技公司必須對(duì)他們所創(chuàng)造出的東西承擔(dān)責(zé)任,并與用戶(hù)和政策制定者合作,緩解風(fēng)險(xiǎn)和負(fù)面影響。他們必須讓員工花時(shí)間思考哪里可能出錯(cuò),就像他們花時(shí)間宣傳產(chǎn)品那樣?!?/p>
人工智能行業(yè)正在準(zhǔn)備應(yīng)對(duì)反彈。人工智能和機(jī)器人領(lǐng)域的進(jìn)步,已經(jīng)把自動(dòng)化引入白領(lǐng)工作領(lǐng)域,例如法律文書(shū)和分析財(cái)務(wù)數(shù)據(jù)。麥肯錫的一項(xiàng)研究稱(chēng),在美國(guó)員工的工作時(shí)間中,大約有45%用在可以借助現(xiàn)有技術(shù)實(shí)現(xiàn)自動(dòng)化的任務(wù)上。
為了確保人工智能有利于人類(lèi),已經(jīng)建立了一些行業(yè)和學(xué)術(shù)計(jì)劃。其中包括由IBM等公司創(chuàng)建的人工智能造福人類(lèi)和社會(huì)合作組織,以及涉及哈佛大學(xué)和麻省理工學(xué)院的一項(xiàng)2700萬(wàn)美元計(jì)劃。得到埃???馬斯克和谷歌支持的OpenAI等組織已取得進(jìn)展,拉塞爾教授表示:“我們看到了一些論文,它們針對(duì)安全性的技術(shù)問(wèn)題?!?/p>
這方面有一些過(guò)去應(yīng)對(duì)新技術(shù)影響努力的回聲。微軟首席執(zhí)行官薩蒂亞?納德拉將其與15年前相比,當(dāng)時(shí)比爾?蓋茨動(dòng)員公司的開(kāi)發(fā)人員抗擊電腦惡意程序。他發(fā)起的“可信計(jì)算”倡議是一個(gè)分水嶺。納德拉在接受英國(guó)《金融時(shí)報(bào)》采訪時(shí)表示,他希望采取類(lèi)似的舉措以確保人工智能造福于人類(lèi)。
然而,人工智能帶來(lái)了一些棘手的問(wèn)題。機(jī)器學(xué)習(xí)系統(tǒng)從大量數(shù)據(jù)中得出見(jiàn)解。
微軟高管埃里克?霍維茨去年底在美國(guó)參議院聽(tīng)證會(huì)上表示,這些數(shù)據(jù)集可能本身就存在問(wèn)題。他表示:“我們的很多數(shù)據(jù)集是在假設(shè)我們可能并不深入理解的情況下收集的,我們不希望讓我們的機(jī)器學(xué)習(xí)應(yīng)用放大文化偏見(jiàn)?!?/p>
新聞機(jī)構(gòu)ProPublica去年進(jìn)行的一項(xiàng)調(diào)查發(fā)現(xiàn),美國(guó)司法機(jī)構(gòu)用來(lái)確定刑事被告人是否有可能再次犯罪的算法存在種族偏見(jiàn)。再次犯罪風(fēng)險(xiǎn)較低的黑人被告比白人被告更容易被標(biāo)記為高風(fēng)險(xiǎn)。
提高透明度是一條出路,比如明確人工智能系統(tǒng)使用了哪些信息。但深度學(xué)習(xí)系統(tǒng)的“思維過(guò)程”不容易加以審查?;艟S茨表示,人類(lèi)很難理解這種系統(tǒng)。“我們需要理解如何證明(它們的)決策合理,以及這種思考是如何完成的?!?/p>
隨著人工智能影響更多政府和企業(yè)決策,影響將是廣泛的?!拔覀?nèi)绾未_保我們‘培訓(xùn)的機(jī)器不會(huì)固化和放大困擾社會(huì)的人類(lèi)偏見(jiàn)?”麻省理工學(xué)院媒體實(shí)驗(yàn)室主任伊藤穰一問(wèn)道。
納德拉等高管認(rèn)為,答案將是結(jié)合政府監(jiān)督(言外之意,這包括對(duì)算法的監(jiān)管)和行業(yè)行動(dòng)。他計(jì)劃在微軟成立一個(gè)道德委員會(huì),以處理人工智能帶來(lái)的任何棘手問(wèn)題。
他說(shuō):“我希望有一個(gè)道德委員會(huì),它會(huì)這樣說(shuō),‘如果我們要在任何作出預(yù)測(cè)、可能具有實(shí)際社會(huì)影響的場(chǎng)合使用人工智能,那么它不帶有內(nèi)置的一些偏見(jiàn)?!?/p>
確保人工智能在不會(huì)帶來(lái)一些意想不到的后果的情況下造福人類(lèi),是很困難的。拉塞爾教授說(shuō),人類(lèi)社會(huì)無(wú)法界定自身想要什么,因此通過(guò)編程讓機(jī)器為最多數(shù)量的人謀求最大幸福是存在問(wèn)題的。
這就是人工智能所謂的“控制問(wèn)題”:智能機(jī)器將一心追逐武斷的目標(biāo),甚至當(dāng)這些目標(biāo)并不可取的時(shí)候也是如此?!皺C(jī)器必須考慮到人類(lèi)真正想要的東西具有不確定性,”拉塞爾教授說(shuō)。
然而,道德委員會(huì)無(wú)法平息人們對(duì)人工智能奪走工作的擔(dān)憂。在今年的達(dá)沃斯世界經(jīng)濟(jì)論壇上,對(duì)反彈的擔(dān)憂很明顯,高管們對(duì)于如何采用人工智能并作出解釋十分焦慮。普遍的回應(yīng)是,聲稱(chēng)機(jī)器在可能取代一些工作的同時(shí),也將讓許多工作更能帶來(lái)成就感。
對(duì)科技公司和它們的客戶(hù)而言,生產(chǎn)率提高帶來(lái)的利益可能是巨大的。如何分配這些利益將成為有關(guān)人工智能的辯論的一部分?!懊慨?dāng)有人削減了成本,那就意味著有望創(chuàng)造出一些盈余,”納德拉說(shuō),“你總可以對(duì)盈余課稅,你總可以確保以不同的方式分配這些盈余?!?/p>
(本文來(lái)自英國(guó)《金融時(shí)報(bào)》)