段晨
近日Google發(fā)布了公司在使用人工智能的十一條準則。
其中包括Google進行AI研發(fā)的七個目標,和GoogleAI絕不會進入的四種應(yīng)用場景,堪稱AI道德規(guī)范的“谷11條”。
CEO頌達爾皮柴(SundarPichai)在發(fā)布準則的公開信里,也對國防部項目爭議做出了直接回應(yīng),表示今后不會讓AI涉及武器化的應(yīng)用,但并未“一刀切”,和政府、軍方劃清界限。
作為AI界的帶頭大哥,Google并未對多如牛毛的AI應(yīng)用領(lǐng)域一一作出指引,但這么多年經(jīng)歷了這么多“坑”之后,這本“谷11條”所體現(xiàn)出的智慧,也許會對所有關(guān)心AI道德問題的人有很大的幫助。
下面,就帶大家來捋一捋“谷11條”背后的思路。
Google眼中“好AI”的標準
首先,設(shè)計產(chǎn)品之初,價值觀就要正。
Google AI(原Google Research)研究院克里斯汀·羅伯森曾闡釋,公司研發(fā)AI的領(lǐng)導(dǎo)思想是:按照對社會有益的原則進行設(shè)計,創(chuàng)造世界最棒的產(chǎn)品,讓這些產(chǎn)品實現(xiàn)商業(yè)化,在競爭中保持領(lǐng)先,同時,讓這些產(chǎn)品為世界做出貢獻。
Google一向強調(diào)不作惡(dont be evil)的價值觀,但它從來不是一家慈善機構(gòu)。和所有科技公司一樣,它需要靠好產(chǎn)品賺錢,只不過,在對“好”產(chǎn)品的定義上,Google和許多公司明顯不同。
“谷11條”一上來就告訴員工,AI產(chǎn)品一要對社會有益,二不能加重現(xiàn)實社會已有的問題:
1.要對社會有益
當(dāng)我們思考AI潛在的應(yīng)用場景時,我們將會把一系列社會和經(jīng)濟因素考慮進內(nèi),在那些整體收益遠遠超過可預(yù)見風(fēng)險和弊端的領(lǐng)域,進行推進。
2.要避免制造或加強不平等的偏見
AI算法和數(shù)據(jù)集可以反映、加強或減少不平等的偏見。我們將努力避免人們受到不公正的影響,尤其是與種族、民族、性別、國籍、收入、性取向、殘疾以及政治或宗教信仰等敏感特征相關(guān)的人群。
確保方向正確后,接下來Google要保證自己的產(chǎn)品是業(yè)界最棒的。準則的第三到七條列出了好產(chǎn)品需要滿足的標準。字里行間繼續(xù)體現(xiàn)著以人為本的理念。
3.要保證安全性
4.要對人負責(zé)。我們的AI產(chǎn)品將易于接受合適的人類指導(dǎo)和控制
5.要結(jié)合隱私設(shè)計原則
6.要維持科學(xué)卓越的高規(guī)格
7.要可以用于符合原則的使用場景
仔細閱讀這些準則,你甚至可以找到對應(yīng)的具體產(chǎn)品。
比如準則中Google提到,“AI加強了我們理解大規(guī)模內(nèi)容含義的能力,我們將努力利用AI提供高質(zhì)量和準確的信息”。這說的不就是最近上線的新版Google News嘛。
此外可以看到,在這些對產(chǎn)品標準的要求中,Google還加入了對最近科技界激辯的話題的思考:比如數(shù)據(jù)隱私,比如AI發(fā)展對人類本身可能帶來的威脅。
對國防部合作風(fēng)波的回應(yīng)
“谷11條”的結(jié)構(gòu)是“七要四絕不”。
舉了七個目標后,Google提出了四個絕對不碰的領(lǐng)域。首先我們不會將AI應(yīng)用于:
1.帶來或可能帶來傷害的技術(shù)
2.武器或其他旨在給人們造成傷害的技術(shù)
做出這段表述的背景:今年3月時,有媒體曝光Google的一份內(nèi)部文件,顯示該公司參加了五角大樓的無人機計劃Project Maven,幫助開發(fā)應(yīng)用于無人機的AI系統(tǒng)。
與此同時,又有媒體曝出Google在內(nèi)部行為準則里刪掉了有三處“不作惡”的文案。
和恨不得公司“再壞一點”的Facebook不同,大批Google員工對這個事實感到憤怒不滿。內(nèi)網(wǎng)激烈的討論后,超過三千名員工聯(lián)名上書CEO,要求退出項目。
最終,公司向員工和外界妥協(xié),宣布2019年國防部合同到期后不再與續(xù)約。
正是這件事,推動了“谷11條”的誕生。據(jù)報道,Google創(chuàng)始人拉里佩奇、謝爾蓋布林、CEO皮柴和其他高管一起花了數(shù)月,最終制定了這版新的AI準則。
不過,在這兩條表述里,Google并沒有表達以后完全跟政府及國防部門徹底交割。
顯然在強大的合作關(guān)系面前,Google是糾結(jié)的,而這并沒有錯誤。比如在云計算上,國防軍事是個潛力巨大的領(lǐng)域。Google的競爭對手亞馬遜、微軟都在積極競標國防部的云計算及存儲業(yè)務(wù),Google不可能因噎廢食。
不過既然做了決定就要承擔(dān)后果,Google的糾結(jié)之后肯定還會引發(fā)新的爭議和討論,Google只好表示準則會根據(jù)公司新的理解而不斷改進。
自己不作惡,也不讓別人作惡
更具體來說,堅決不允許別人利用自己的技術(shù)作惡,這是不能跨過的底線。
“四絕不“的后兩條:
AI不會用于:
3.收集或使用信息用于監(jiān)控并違反國際規(guī)范的科技
4.技術(shù)的目的違反了廣泛接受的國際法與人權(quán)原則的科技
從這兩個條款可以明顯看到,“谷11條”再次穩(wěn)固了不作惡三個字的地位,而且還更進了一步:不僅自己不作惡,還要防止別人利用Google的技術(shù)作惡。
這在上面第七條的AI目標中也有體現(xiàn):
許多技術(shù)同時擁有很多用途。我們會努力進行識別,限制可能有害或被濫用的應(yīng)用。我們會評估以下因素:
首要目的和用途……以及與有害的用途有多接近;
本質(zhì)和獨特性:我們的技術(shù)是普世的還是有獨特應(yīng)用場景的;
規(guī)模:這項技術(shù)的使用是否會帶來重大影響?
Google在其中參與的性質(zhì):我們是在提供普通的工具,還是為用戶做集成的工具,還是在開發(fā)定制解決方案?
Google希望借保證自己的AI技術(shù)不被濫用,這么做勢必意味著跟更多可能得到的利益說再見。一個直接影響可能是Google重返某些市場的難度會變得更大。
但沒有人會因為Google堅持它的真誠和正義而怪罪它。有些事情必須做出取舍。
博客文章中,皮柴再次提到2004年Google上市時提到的兩個原則:“讓世界變得更好”和“不作惡”。
“我們當(dāng)時就表明了我們要用更長遠目光看問題的愿望,即使這意味著需要作出短期的犧牲。我們當(dāng)時這樣說,我們現(xiàn)在還是這樣相信。”
Google的準則體現(xiàn)著一家已經(jīng)20歲高齡的新技術(shù)公司,對可能是未來最關(guān)鍵技術(shù)和道德的思考。它給出了一個寬泛,但又方向明確的指引,讓一些事情不再停留在想法和概念。
這本“谷11條”,或許也能推動其他公司,扔掉“技術(shù)中立”的保護傘,更誠實地參與到這個話題的討論中。