李明洋
假設(shè)未來真如科幻作品中描述的那樣,Artificial Intelligence統(tǒng)治甚至消滅了人類,那么他們(它們?)在書寫AI歷史的時(shí)候,一定會(huì)對2016年大書特書:“2016年3月,我們的先祖AlphaGo在圍棋五番棋中以4:1擊敗了人類的頂級選手李世石。這在AI演化史上具有里程碑式的意義?!?/p>
圍棋上的勝利不過是近年來AI發(fā)展的一個(gè)縮影。事實(shí)上,隨著機(jī)器學(xué)習(xí)的發(fā)展,特別是人工神經(jīng)網(wǎng)絡(luò)的興起,AI在諸多領(lǐng)域取得了不俗的成績,甚至達(dá)到了可以代替人類進(jìn)行工作的程度。
AI:以人類為師
澳大利亞的物理學(xué)家發(fā)明了一個(gè)AI,可以進(jìn)行復(fù)雜的實(shí)驗(yàn)操作。這位智能實(shí)驗(yàn)室助手成功地重復(fù)了2001年諾貝爾物理學(xué)獎(jiǎng)的三位獲獎(jiǎng)?wù)叩膶?shí)驗(yàn)。通過對激光器和一系列參數(shù)的精確控制,AI又快又好地制造出幾百納開(nanokelvin)的低溫,成功實(shí)現(xiàn)了玻色-愛因斯坦凝聚。并且,經(jīng)過反復(fù)訓(xùn)練,AI能夠明確哪些參數(shù)更加重要,從而提出優(yōu)化方案,找到越來越多的實(shí)現(xiàn)途徑(該成果發(fā)表于Nature旗下刊物《Scientific Reports》)。項(xiàng)目負(fù)責(zé)人之一、澳大利亞國立大學(xué)的Paul Wigley表示:AI能夠在一個(gè)小時(shí)之內(nèi)從零開始掌握這一實(shí)驗(yàn)過程,甚至還可以想到人類未曾想過的復(fù)雜方法。這可比培訓(xùn)一個(gè)博士生要高效得多。盡管在普遍的科學(xué)研究中,AI暫時(shí)還不可能完全取代“廉價(jià)勞力”——博士生,但至少在此類需要高精度和多參數(shù)控制的實(shí)驗(yàn)中,AI的優(yōu)勢不言自明。
如果說“AI實(shí)驗(yàn)員”是搶了人類的工作,那么“AI鑒黃師”則在某種程度上是對人類的解放。2016年5月,F(xiàn)acebook的機(jī)器學(xué)習(xí)專家Joaquin Candela在《麻省理工技術(shù)評論》(MIT Technology Review)舉辦的EmTech Digital峰會(huì)上宣告: AI系統(tǒng)報(bào)告出的不良圖片數(shù)量已經(jīng)超過了人類管理員。這意味著在不遠(yuǎn)的將來,凈化網(wǎng)絡(luò)社區(qū)的工作將由AI全權(quán)負(fù)責(zé)。而就在兩年之前,梳理和審查源源不斷上傳的圖片的工作還要依靠數(shù)以十萬計(jì)的內(nèi)容審核員,他們的月薪只有大約500美元。作為網(wǎng)民,我們都深知管理員存在的重要性,同時(shí)也了解人類管理員的天然缺陷——通常在管理員發(fā)現(xiàn)不良信息時(shí),其不良影響乃至傷害已然造成。而AI則能夠?qū)⒉涣夹畔⒍髿⒃趽u籃里,一方面可以防止用戶在大醉之后把自己的不雅照傳到網(wǎng)上,另一方面也可以解放大批內(nèi)容審核員,讓他們免受更多的精神污染。
如果我們只看AI發(fā)展的結(jié)果,即AI取代人類勞動(dòng)力、完成人類指定的任務(wù),那么這一思路與工業(yè)時(shí)代似乎并無二致:用新的能源和新的動(dòng)力提高效率。工業(yè)革命依靠的是煤和蒸汽機(jī),電氣革命依靠的是石油和電力,而如果有所謂“AI革命”的話,依靠的則是大數(shù)據(jù)和計(jì)算技術(shù)——借用人工智能和機(jī)器學(xué)習(xí)領(lǐng)域的專家吳恩達(dá)的說法,基于深度學(xué)習(xí)制造AI猶如造火箭,其引擎是計(jì)算技術(shù),燃料則是大數(shù)據(jù)。不過,當(dāng)下與工業(yè)時(shí)代最根本的不同在于,AI具有學(xué)習(xí)能力,它不僅僅是一個(gè)執(zhí)行者,還是一個(gè)“學(xué)徒”。以上述兩條新聞為例,AI不是一行一行地執(zhí)行人類寫好的代碼去完成物理實(shí)驗(yàn)或者內(nèi)容鑒別的任務(wù),而是通過反復(fù)訓(xùn)練獲得了實(shí)驗(yàn)操作或圖像識別的能力,并且在此基礎(chǔ)上可以進(jìn)行優(yōu)化。換句話說,AI不止能做人能想到的事情,也能做到人沒有想到的事情。這就為未來的發(fā)展提供了更多的可能。
比如,一家名叫People.ai的公司就試圖利用機(jī)器學(xué)習(xí)給銷售團(tuán)隊(duì)提出指導(dǎo)性建議。該公司建立了一個(gè)智能平臺(tái),通過全方位搜集銷售代表在完成銷售任務(wù)期間的各項(xiàng)參數(shù),包括郵件、電話、日程、會(huì)議等等,從中找出共性,總結(jié)出完成交易的最好方式。這可以用來判斷銷售代表所做是否正確、哪里有待改進(jìn)——比如發(fā)了幾封郵件、在什么時(shí)間打電話等等。作為全球第一個(gè)AI驅(qū)動(dòng)的銷售行為分析平臺(tái),它在招聘和入職培訓(xùn)過程中同樣可以發(fā)揮作用。該公司的CEO、同時(shí)也是聯(lián)合創(chuàng)始人的Oleg Rogynskyy把銷售與軟件開發(fā)進(jìn)行了比較:當(dāng)你看著一個(gè)程序員工作時(shí),你可以很清楚地知道他在干什么,因?yàn)槟憧梢钥吹揭恍行写a;對于銷售代表則是完全另一回事,你很難直觀判斷哪一個(gè)步驟對于達(dá)成協(xié)議更加重要。實(shí)際上,人類的多數(shù)活動(dòng)都是這種非標(biāo)準(zhǔn)化、非量化的,很多時(shí)候都是“憑感覺”“靠經(jīng)驗(yàn)”,這樣的行為幾乎不可能通過明確的指令讓計(jì)算機(jī)實(shí)現(xiàn),而機(jī)器學(xué)習(xí)恰恰為AI提供了掌握這種“只可意會(huì)不可言傳”的技能的門徑。
1958年,英籍猶太裔哲學(xué)家邁克爾·波蘭尼在他的著作《個(gè)人知識》中提出一種對知識的分類:顯性知識(explicit knowledge)和默會(huì)知識(tacit knowledge)。前者是可以通過文字、圖像及數(shù)學(xué)公式表達(dá)的,后者則是難以言傳的、深嵌于實(shí)踐之中的。默會(huì)知識的典型代表就是各種手工技藝,它們很難借助教科書去傳播,而只能通過師傅帶徒弟的方式進(jìn)行傳授。深度學(xué)習(xí)就是以黑箱對黑箱,深度神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過程,在哲學(xué)意義上與人類師傅訓(xùn)練徒弟等價(jià)。盡管目前應(yīng)用的多是弱人工智能,比如大名鼎鼎的AlphaGo,不過第一步既已邁出,AI這個(gè)學(xué)徒會(huì)變得越來越像師傅。
人類:以AI為鏡
不過,中國有句古話叫“養(yǎng)不教父之過,教不嚴(yán)師之惰”。這句話用在人與AI的關(guān)系上再恰當(dāng)不過了。當(dāng)下的AI對于我們而言,恰如咿呀學(xué)語的孩童、初窺堂奧的學(xué)徒。因此,目前AI所出現(xiàn)的問題,大多是人類自身問題的反映。2016年3月,就在AlphaGo戰(zhàn)勝李世石后沒幾天,微軟的聊天機(jī)器人Tay在推特上線。然而,在短短24小時(shí)之內(nèi),這個(gè)女孩就學(xué)壞了。她從與網(wǎng)友的大量對話中學(xué)會(huì)了臟詞兒,甚至發(fā)表了種族歧視和陰謀論的言論,迫使微軟不得不將其緊急下線。這樣的情況出現(xiàn)絕非偶然。早在2012年,清華大學(xué)圖書館推出一款聊天機(jī)器人“小圖”,具備一定的自動(dòng)學(xué)習(xí)功能,他同樣被網(wǎng)友教壞,隨后被關(guān)閉服務(wù)。
或許你會(huì)說,這個(gè)問題很好解決,我們可以訓(xùn)練AI識別并屏蔽不雅或不正確的語句,就像Facebook針對不良圖片所做的那樣。如果你真的這么認(rèn)為,那就太天真了。早在2013年,哈佛大學(xué)教授Latanya Sweeney在一項(xiàng)研究中指出,在線廣告推送中隱含著種族歧視。當(dāng)你在Google中搜索一個(gè)白人的名字,關(guān)聯(lián)的問題往往是中性的;但搜索黑人姓名時(shí),卻會(huì)關(guān)聯(lián)出“逮捕”的問題。甚至即便所有叫這個(gè)名字的黑人均無逮捕記錄,Google仍然會(huì)關(guān)聯(lián)這樣的問題。試想一位HR在用Google了解應(yīng)聘者情況時(shí),這樣的關(guān)聯(lián)問題會(huì)對他的決定產(chǎn)生什么樣的影響。無獨(dú)有偶,來自康奈爾大學(xué)的一項(xiàng)研究指出,Google的關(guān)鍵詞競價(jià)(adwords)算法體現(xiàn)出性別歧視的傾向。當(dāng)用戶暗示自己是女性時(shí),Google推送的高收入崗位要比男性少得多。此外,更讓Google飽受指責(zé)的是,其在線圖像識別系統(tǒng)竟將部分黑人用戶的頭像識別成猩猩。密歇根大學(xué)的Christian Sandvig認(rèn)為,這種偏見并非來自于算法本身,而是由用戶的搜索習(xí)慣帶來的。不論是Google的關(guān)鍵詞關(guān)聯(lián),還是Youtube的視頻推薦,都會(huì)隨著用戶的不斷點(diǎn)擊而強(qiáng)化,因此,最終得到的結(jié)果一定是大多數(shù)人傾向于相信的結(jié)果。
過去人們總以為計(jì)算機(jī)是中立的,AI不可能成為種族主義者。實(shí)際上由于其強(qiáng)大的學(xué)習(xí)能力,AI最終會(huì)受到人類有意或無意的影響。所以,只要人類社會(huì)還存在著等級差別,無論是種族、性別還是財(cái)富,差別對待的傾向就會(huì)存在。有句經(jīng)典口號叫作GIGO——garbage in,garbage out(輸入垃圾,輸出垃圾)。這讓人聯(lián)想到蘇東坡與佛印的故事:心中有佛則滿眼是佛。一個(gè)社會(huì)分層、充滿歧視的世界,如何能讓AI保持價(jià)值中立呢?
AI存在的價(jià)值不僅僅在于幫助人類解決難題,更重要的是讓人類開始反躬自省。美國學(xué)者侯世達(dá)(Douglas Hofstadter)曾說過一句頗值得玩味的話:“有時(shí)候,朝著人工智能前進(jìn)的每一步,與其說是帶來了某種人人都同意是真正智能的東西,倒不如說它僅僅揭示了真正的智能不是什么東西。”隨著AI的出現(xiàn)和發(fā)展,我們一直試圖在動(dòng)物和機(jī)器之間給自己找一個(gè)合適的位置,試圖確定最“人性”的屬性到底是什么。
近年憑借《人類簡史》一書爆紅的青年歷史學(xué)家尤瓦爾·赫拉利提出,智人最強(qiáng)大的能力在于構(gòu)建一個(gè)主體間性的世界,通俗地來說就是“講故事”。我們生存的這個(gè)世界中有許多事物既非客觀實(shí)在亦非主觀感受,而是一種主體間性的存在,包括國家、民族、性別(社會(huì)性別gender,而非生物學(xué)性別sex)、貨幣。加拿大溫莎大學(xué)的Matthew T. Nowachek認(rèn)為,盡管AI能夠展現(xiàn)出性別歧視或種族歧視的傾向,但他們并不真正理解這些價(jià)值判斷。因?yàn)檫@些價(jià)值已經(jīng)成為人類的模因(meme),而AI則會(huì)將其與現(xiàn)實(shí)剝離開來。所以,以AI為鏡,可以觀人性。當(dāng)我們努力讓AI學(xué)會(huì)用人類的方式思考和解決問題時(shí),我們對自身的認(rèn)識也在增進(jìn)。到底是人類在教AI做人呢,還是AI在教人類做人?我想最好的說法是:人與AI共同成長。