□周 濤
[1.電子科技大學(xué) 成都 611731;2.成都新經(jīng)濟(jì)發(fā)展研究院 成都 610094]
隨著互聯(lián)網(wǎng)、移動互聯(lián)網(wǎng)、物聯(lián)網(wǎng)和各種遙感探測技術(shù)的發(fā)展,一個(gè)“一切都被記錄,一切都被分析”的數(shù)據(jù)化時(shí)代已經(jīng)到來—現(xiàn)在全球數(shù)據(jù)存儲量已經(jīng)達(dá)到了20ZB左右,也就是2000萬PB。得益于可用于算法訓(xùn)練的海量數(shù)據(jù)的積累和以深度學(xué)習(xí)為代表的機(jī)器學(xué)習(xí)算法的發(fā)展[1]。近幾年來,人工智能在若干應(yīng)用場景達(dá)到甚至超過了人類專家的水平—大家記憶猶新的就是2016年AlphaGo以4∶1的比分戰(zhàn)勝圍棋世界冠軍李世石[2]。越來越多的證據(jù)顯示,一個(gè)以大數(shù)據(jù)為原材料,以人工智能為引擎的新科技時(shí)代正在到來[3~4]。
大數(shù)據(jù)和人工智能的技術(shù)發(fā)展與應(yīng)用實(shí)踐,已經(jīng)為我們的生活帶來了顯著的貢獻(xiàn)[4~5]。在醫(yī)療領(lǐng)域,大數(shù)據(jù)和人工智能被用于精準(zhǔn)識別醫(yī)療影像中早期的病灶,定位致病基因并開展相應(yīng)的靶向治療,實(shí)時(shí)監(jiān)測評估健康狀況、提前預(yù)警重大健康風(fēng)險(xiǎn)等[6];在交通領(lǐng)域,海量數(shù)據(jù)和預(yù)測算法的結(jié)合能夠幫助我們進(jìn)行更高效的交通導(dǎo)航,盡可能減少擁堵時(shí)間[7];在教育領(lǐng)域,學(xué)生發(fā)展過程中學(xué)習(xí)和生活數(shù)據(jù)的分析,可以幫助了解學(xué)生行為和學(xué)業(yè)表現(xiàn)之間的關(guān)系,設(shè)計(jì)更高效的個(gè)性化教育方案,提前對不利于學(xué)業(yè)發(fā)展的異常行為進(jìn)行干預(yù)[8]等。
在帶給我們可感知的貢獻(xiàn)的同時(shí),大數(shù)據(jù)與人工智能也帶來了一系列讓人憂慮的問題,譬如個(gè)人關(guān)鍵隱私信息的大面積泄漏問題,又如人工智能對若干勞動崗位的沖擊,再如大數(shù)據(jù)和人工智能深度結(jié)合形成的新型數(shù)據(jù)獨(dú)裁問題,等。這些問題要求我們在倫理意義上仔細(xì)審視大數(shù)據(jù)和人工智能的發(fā)展。簡而言之,倫理問題就是判斷好與壞、對與錯(cuò)的問題,大數(shù)據(jù)與人工智能的倫理研究是站在人類整體利益的角度去審視判斷大數(shù)據(jù)與人工智能哪些技術(shù)、何種應(yīng)用對人類是有利的,哪些是危險(xiǎn)的,哪些是不應(yīng)觸碰的,其最終的目的是要找到路徑、梳理規(guī)范,以保證大數(shù)據(jù)和人工智能的發(fā)展給人類帶來的利益遠(yuǎn)大于傷害。
大數(shù)據(jù)與人工智能的倫理問題引起了全球?qū)W界、業(yè)界和政府廣泛的關(guān)注。2016年,奧巴馬政府發(fā)表了題為《為人工智能的未來做好準(zhǔn)備》的報(bào)告[9],強(qiáng)烈建議要評估人工智能技術(shù)和產(chǎn)品帶來的風(fēng)險(xiǎn);2017年,歐洲經(jīng)濟(jì)和社會委員發(fā)表了題為《大數(shù)據(jù)倫理—在歐盟政策背景下,實(shí)現(xiàn)大數(shù)據(jù)的經(jīng)濟(jì)利益與道德倫理之間的綜合平衡》的報(bào)告,對大數(shù)據(jù)的倫理問題進(jìn)行了概括,特別強(qiáng)調(diào)了數(shù)據(jù)采集和使用帶來的安全和隱私問題[10];2018年,英國議會發(fā)表了《英國人工智能的準(zhǔn)備、計(jì)劃和能力》的報(bào)告,呼吁政府為人工智能研發(fā)和應(yīng)用設(shè)定倫理原則[11];美國電氣與工程師協(xié)會、美國未來生命研究所等研究組織和微軟、谷歌等科技公司也陸續(xù)發(fā)布了相關(guān)的研究報(bào)告。其他國際上相關(guān)的報(bào)告例子還很多,不一一舉出。
中國也開始意識到這些倫理問題的重要性,例如我國2017年發(fā)布的《新一代人工智能發(fā)展規(guī)劃》中指出制定人工智能發(fā)展的倫理規(guī)范是促進(jìn)人工智能發(fā)展的重要保證措施。2017年12月8日,中共中央政治局就實(shí)施國家大數(shù)據(jù)戰(zhàn)略進(jìn)行第二次集體學(xué)習(xí),習(xí)近平主席主持學(xué)習(xí)并發(fā)表了講話,在提出實(shí)施國家大數(shù)據(jù)戰(zhàn)略加快建設(shè)數(shù)字中國要求的同時(shí),特別強(qiáng)調(diào)了數(shù)據(jù)安全、數(shù)據(jù)隱私、數(shù)據(jù)確權(quán)、數(shù)據(jù)版權(quán)、數(shù)據(jù)治理政策儲備和治理規(guī)則等與數(shù)據(jù)倫理相關(guān)的問題。與歐美等國相比,我國學(xué)界、業(yè)界和政府在大數(shù)據(jù)與人工智能倫理問題上系統(tǒng)性的深入研究還較少,目前尚未形成具有國際影響力的倫理研究報(bào)告和政策實(shí)施方案,與習(xí)近平主席提出的“要加強(qiáng)國際數(shù)據(jù)治理政策儲備和治理規(guī)則研究,提出中國方案”這一要求尚有較大差距。
因?yàn)榇髷?shù)據(jù)和人工智能的發(fā)展是高度融合的,所以本文不擬特別區(qū)分大數(shù)據(jù)的倫理問題和人工智能的倫理問題,而是結(jié)合討論從數(shù)據(jù)采集、存儲和應(yīng)用,一直到數(shù)據(jù)挖掘、機(jī)器學(xué)習(xí)等典型人工智能技術(shù)發(fā)展所帶來的一系列倫理問題。限于篇幅,本文及后續(xù)文章將集中討論中立性、時(shí)效性、導(dǎo)向性、邊界問題、隱私問題和責(zé)權(quán)問題六個(gè)方面。本文盡量采用通俗的語言和生動的例子來說明這些問題,既可以作為政府相關(guān)管理人員以及學(xué)者和從業(yè)人員了解大數(shù)據(jù)與人工智能倫理問題的入門材料,也可以作為一般讀者的科普讀物。
表面上客觀的數(shù)據(jù)和理性的算法,也可以產(chǎn)生非中立性的結(jié)果。事實(shí)上,數(shù)據(jù)和算法導(dǎo)致的歧視往往更難發(fā)現(xiàn)也更難消除。數(shù)據(jù)和算法對中立性的破壞,可能來自三方面的原因:一是采集數(shù)據(jù)或設(shè)計(jì)算法的相關(guān)人員蓄意為之;二是原始數(shù)據(jù)本身就存在偏見,因此相應(yīng)的數(shù)據(jù)驅(qū)動算法的結(jié)果也會有偏見;三是所設(shè)計(jì)的算法會導(dǎo)致有偏見的結(jié)果。第一種原因歸根到底是人的問題,在任何時(shí)代和任何環(huán)境中都可能存在,數(shù)據(jù)和算法不過是他們利用的工具罷了。因此本文著重分析后面兩種情況。
即便數(shù)據(jù)是人類社會客觀中立的記錄,如果人類社會本身就存在偏見、歧視和不公平,那么相關(guān)數(shù)據(jù)自然也會帶入我們社會的不公。例如,互聯(lián)網(wǎng)求職的簡歷數(shù)據(jù)顯示,在職場中身高和性別的歧視都非常嚴(yán)重:平均身高越高,平均收入越高;在同等學(xué)歷條件和行業(yè)背景下,女性要多工作5~10年才能獲得和男性相當(dāng)?shù)男剿甗12]。顯然,使用這類簡歷數(shù)據(jù)進(jìn)行職位的推薦時(shí),其結(jié)果必然自帶歧視??▋?nèi)基梅隆大學(xué)的Datta等人最近的研究就顯示,Google廣告系統(tǒng)的人工智能算法在推送職位招聘信息的時(shí)候,同等教育背景和工作經(jīng)歷下的男性要比女性以高得多的頻率收到高收入職位招聘信息[13]。普林斯頓大學(xué)Caliskan等人使用常見的純統(tǒng)計(jì)機(jī)器學(xué)習(xí)模型,在萬維網(wǎng)的標(biāo)準(zhǔn)文本語料庫上進(jìn)行訓(xùn)練,發(fā)現(xiàn)計(jì)算機(jī)可以“學(xué)會”沉淀在人類語言記錄中隱含的偏見—既包括一些無關(guān)道德也無傷大雅的偏見,例如昆蟲讓我們聯(lián)想到不愉快而花朵則常與欣愉的事情相伴,還包括一些嚴(yán)重的偏見,包括來自性別和種族的歧視[14]。實(shí)際上,有些我們?nèi)祟愖约憾紱]有注意到的潛在的歧視,計(jì)算機(jī)也能通過機(jī)器學(xué)習(xí)捕捉到。這些數(shù)據(jù)上存在的偏見,會通過算法表現(xiàn)為帶歧視的結(jié)果,這些結(jié)果可能進(jìn)一步加大歧視,從而新的數(shù)據(jù)包含的偏見有可能被加劇,造成惡性循環(huán)。比如說數(shù)據(jù)中顯示每十個(gè)前1%高年薪的高端職位只有一位女性,于是“性別為女性”這個(gè)特征值在獲得高端職位推薦中將是一個(gè)負(fù)面的因素,算法也將避免給女性推薦高端職位信息。在沒有基于大數(shù)據(jù)和人工智能的招聘信息服務(wù)的情況下,男性和女性獲取高端職位信息的數(shù)量可能相差不大,這種情況下女性真正獲聘高端職位的可能性也遠(yuǎn)低于男性。如今,計(jì)算機(jī)的自動服務(wù)在源頭上就讓女性更少知道信息,所以可以預(yù)期女性獲得高端職位的比例將進(jìn)一步降低,而這又再次加強(qiáng)了數(shù)據(jù)的偏差,從而讓算法更少向女性推薦高端職位。這種惡性循環(huán),會進(jìn)一步放大原本就有的不公。
算法的設(shè)計(jì)和學(xué)習(xí)過程,也可能帶來偏見甚至歧視。個(gè)性化推薦算法是目前在大數(shù)據(jù)和人工智能領(lǐng)域應(yīng)用最為廣泛的算法之一[15],其目的是根據(jù)用戶過往的瀏覽、點(diǎn)擊、收藏、購買等記錄,向用戶推薦他需要或者喜歡的資訊、商品等。淘寶的猜你喜歡和今日頭條的個(gè)性化新聞推薦就是推薦算法非常典型的應(yīng)用。在電商網(wǎng)站上,同一個(gè)品類下商品的價(jià)格差別巨大,如果某目標(biāo)用戶以前在電商網(wǎng)站收藏和購買的商品,在相關(guān)品類中價(jià)格排名都特別靠后,那么算法可能會在一個(gè)名為“價(jià)格敏感度”的特征維度上給該用戶標(biāo)上高分。于是,當(dāng)該用戶搜索一個(gè)關(guān)鍵詞后,如果自己不做調(diào)整,可能從前到后翻十頁,他看到的都是便宜貨。盡管算法的初衷是提高該用戶的點(diǎn)擊率—這被認(rèn)為對用戶和商家都好—但是這事實(shí)上形成了同類商品展示對低收入消費(fèi)者的歧視。試想如果在一個(gè)購物商場中部分人被告知因?yàn)槭杖脒^低不允許進(jìn)入LV的店面,或者因?yàn)槭杖脒^低而要排隊(duì)數(shù)小時(shí)才能入店,而高收入者有專享通道。這種歧視肯定是我們不能容忍的,而在互聯(lián)網(wǎng)上,數(shù)據(jù)和算法帶來的偏見與之類似但更為隱蔽。
隨著數(shù)據(jù)化浪潮的進(jìn)一步發(fā)展,個(gè)人獲取和處理信息的難度會進(jìn)一步加大,我們會更加依賴各種各樣的信息中介。例如我們到一個(gè)陌生的城市,如何規(guī)劃一條一日游的路線?又比如我們?nèi)绾瓮ㄟ^在線教育,選擇若干課程,進(jìn)入一個(gè)新的領(lǐng)域?再比如我們怎么在讀書的時(shí)候就規(guī)劃和選擇自己的職業(yè)道路?高度發(fā)達(dá)的人工智能會充分考慮包括家庭、性別、民族、消費(fèi)水平等關(guān)于你的各種數(shù)據(jù),給出“最適合你的選擇”。于是,不同收入和不同家庭背景的人會抵達(dá)城市中不同的角落、下載不同的課程、規(guī)劃不同的人生。在大數(shù)據(jù)的時(shí)代,不同出身的人所獲取到的信息差異,可能比現(xiàn)實(shí)世界的差異還大,因此很可能更早就形成截然不同的視野、格局和能力,從而加劇而不是減少階級的固化。
與人類相比,計(jì)算機(jī)有一種特別突出的能力,就是能夠保真存儲和分析很多年以前的數(shù)據(jù),并通過算法對未來某些事件給出遠(yuǎn)遠(yuǎn)比人精確的預(yù)測。
Mayer-Sch?nberger曾討論過一個(gè)未來的可能情形,就是當(dāng)智能機(jī)器預(yù)測到你將在某時(shí)某地犯罪,就可以在你還沒有實(shí)施犯罪的時(shí)候逮捕你[3]。幸運(yùn)的是,這個(gè)比Orwell筆下的世界[16]還可怕的情景,只是Mayer-Sch?nberger設(shè)想的一種極端情況,實(shí)際上并沒有發(fā)生過。Dormehl講了一個(gè)溫和得多但已經(jīng)現(xiàn)實(shí)發(fā)生的版本[17],就是美國政府根據(jù)姓名、出生地、宗教信仰、歷史行為數(shù)據(jù)—例如所有旅行數(shù)據(jù)、人臉圖片數(shù)據(jù)等,利用機(jī)器學(xué)習(xí)算法,對每一位航空旅客是恐怖分子的嫌疑度進(jìn)行打分。一些無辜的人因?yàn)橐伤瓶植婪肿踊蛘呓谟休^高從事恐怖活動的可能性,而經(jīng)常在機(jī)場被羈留檢查,甚至多次錯(cuò)過飛機(jī)。通過數(shù)據(jù)和算法,機(jī)器可以預(yù)測一個(gè)人犯罪的概率,如果這個(gè)概率足夠大,那么在他還沒有實(shí)施犯罪行為時(shí),就已經(jīng)實(shí)質(zhì)上受到了懲罰,盡管他可能是完全無辜的。從功利主義的角度講,這些智能化的方法能夠降低犯罪率,但是這里面一個(gè)核心的倫理問題就是“我們是否應(yīng)該為尚未發(fā)生的一種可能性付出代價(jià)”。
反恐的例子距離普通人的生活較遠(yuǎn),下面我們來看一個(gè)現(xiàn)實(shí)生活中的例子—酒駕。對于機(jī)動車駕駛員來說,飲酒駕車是違法,醉酒駕駛可入刑。這條法律受到了數(shù)據(jù)有力的支撐:“當(dāng)駕駛者血液中酒精含量達(dá)80 mg/100 mL時(shí),發(fā)生交通事故的幾率是血液中不含酒精時(shí)的2.5倍;達(dá)到100 mg/100 mL時(shí),發(fā)生交通事故的幾率是血液中不含酒精時(shí)的4.7倍;即使在少量飲酒的狀態(tài)下,交通事故的危險(xiǎn)度也可達(dá)到未飲酒狀態(tài)的2倍左右?!笔聦?shí)上,這條法規(guī)的出臺,有效降低了嚴(yán)重交通事故的發(fā)生率。這條法律的基本精神是懲處可能的尚未發(fā)生的更嚴(yán)重的犯罪。這當(dāng)然無可厚非,例如危害公共安全罪背后的法理出發(fā)點(diǎn)也是類似的。當(dāng)數(shù)據(jù)的采集能力和算法的分析能力進(jìn)一步增強(qiáng)之后,我們肯定能夠發(fā)現(xiàn)更多可能危害公共安全的因素,并把它們寫進(jìn)法律中。幾十年后,如果自動駕駛的車輛占有相當(dāng)?shù)谋壤?,很可能主要的交通事故都是由人類操縱駕駛車輛引起的。那個(gè)時(shí)候的法律,可能就不是針對飲酒和吸毒后駕車了,但凡活人開車,都得抓了。因?yàn)槿笋{駛車輛本身,就是一種對公共安全的危害。那么,今天能接受酒駕入刑的人,明天能夠接受手駕入刑嗎?在使用數(shù)據(jù)和算法預(yù)測能力的時(shí)候,是否也需要有一個(gè)限度?
計(jì)算機(jī)讓人類更加望塵莫及的,是記錄和回顧歷史的能力。因?yàn)榇罅窟^往數(shù)據(jù)被記錄下來,所以我們今天的錯(cuò)誤可能會帶來很長時(shí)間難以消除的影響。中學(xué)期間一次沖動的打架斗毆,大學(xué)期間因?yàn)榕时冉枇丝钣譀]有及時(shí)還款……這些記錄可能會在十年后呈現(xiàn)給潛在的雇主和金融機(jī)構(gòu),影響一個(gè)人職場的發(fā)展,降低他申請車貸房貸的成功率,甚至讓他的創(chuàng)業(yè)融資遭遇陰影。我們年少輕狂時(shí)在自己博客、微博、微信或者其他論壇、貼吧上留下的沖動言論,又或者我們腦殘時(shí)光上傳的裸露、暴力或者炫富的照片,都可能在未來成為我們感情和事業(yè)再上一個(gè)臺階時(shí)的定時(shí)炸彈。
中國有句古話,叫做“浪子回頭金不換”。父母親友也許會選擇原諒甚至忘記,但大數(shù)據(jù)和人工智能不會遺忘。Mayer-Sch?nberger就曾經(jīng)強(qiáng)烈呼吁應(yīng)該給我們的數(shù)據(jù)一個(gè)“被遺忘的權(quán)利”—除了出于科學(xué)研究、檔案管理、公共安全或其他特殊的既非盈利也不面向一般公眾的目的,個(gè)人和企業(yè)不應(yīng)該存儲、分析、使用和傳播超出一定年限的數(shù)據(jù)[18]。一些科技企業(yè)已經(jīng)開始了類似的嘗試,例如著名的社交網(wǎng)站Snapchat起家的時(shí)候就是推出了“閱后即焚”的功能—你發(fā)給朋友的信息和圖片,對方閱讀后一段時(shí)間內(nèi)自動消失。2017年,騰迅投資了Snapchat,實(shí)際上騰迅在微信的私信助手中也有“閱后即焚”的功能,還可以設(shè)定多長時(shí)間后刪除消息。但是,你和你的好友雖然看不到了,Snapchat和騰迅原則上可以保存和利用這些信息。另外,社交媒體產(chǎn)生的數(shù)據(jù),相比于一個(gè)人所有被記錄下來的行為數(shù)據(jù),畢竟只是很小的一部分,而絕大部分與我們緊密相關(guān)的數(shù)據(jù)都不是我們主動上傳或發(fā)送的。越來越多的企業(yè)認(rèn)識到了數(shù)據(jù)的價(jià)值,因此主動刪除或者放棄某些數(shù)據(jù)的使用權(quán),似乎并不是一家盈利性企業(yè)優(yōu)先考慮的問題。
三百年前,瑞典哲學(xué)家、神學(xué)家Swedenborg曾感慨:“上帝賦予我們大腦以便讓我們具備遺忘的能力”。如今,面對電腦,上帝也無法讓它們遺忘。盡管Mayer-Sch?nberger要求被遺忘權(quán)利的呼吁已經(jīng)過去了五年多,我們還沒有看到在這個(gè)方面任何實(shí)質(zhì)性的進(jìn)展。
我們每個(gè)人都應(yīng)該尊重歷史,都應(yīng)該懷揣夢想,但更多的時(shí)候我們生活在當(dāng)下。當(dāng)一個(gè)人每做一件事情,都可能承受因過往歷史的影響,都必須考慮對未來發(fā)展的影響,那這樣的人生是不堪重負(fù)的。如果數(shù)據(jù)的使用時(shí)限不受控制,這種機(jī)制下最安全的選擇只能是沿著數(shù)據(jù)和算法所青睞的某種智能時(shí)代的主流道路前進(jìn)。人類與生俱有的自由狷狂和特立獨(dú)行恐怕最終都不得不服從機(jī)器制定的優(yōu)化后的規(guī)則。
算法根據(jù)其目標(biāo)函數(shù)所產(chǎn)生的“優(yōu)化的結(jié)果”對受眾,尤其是一般客戶端用戶產(chǎn)生的引導(dǎo)效果,可能與用戶真實(shí)的需求大相徑庭,也可能雖然能夠滿足用戶短期的需求,但是帶來中長期的負(fù)面效果。我們把這類問題歸納為導(dǎo)向性問題,其短期、中期和長期的具體表現(xiàn)有所不同。
短期表現(xiàn)為算法給出的結(jié)果與用戶真實(shí)需求不符合,用戶立刻就有負(fù)面的感知??梢哉f,算法誘騙用戶在其需求沒有獲得有效或充分滿足的情況下,幫助算法完成了它擬實(shí)現(xiàn)的優(yōu)化目標(biāo)。舉個(gè)例子,在給用戶進(jìn)行個(gè)性化新聞推薦或者自動生成新聞的時(shí)候[19],如果算法的目標(biāo)是最大化推薦新聞或者自動生成新聞的點(diǎn)擊次數(shù),那么計(jì)算機(jī)自己就會變成一個(gè)“標(biāo)題黨”,選擇甚至自己生成一些聳人聽聞的標(biāo)題,又或者與當(dāng)前新聞熱點(diǎn)緊密聯(lián)系的標(biāo)題,但新聞的實(shí)際內(nèi)容卻和標(biāo)題毫無關(guān)系或只有極其淺薄的聯(lián)系。用戶點(diǎn)擊進(jìn)入新聞頁面,發(fā)現(xiàn)與其需求和期望嚴(yán)重不符合,立刻就會有上當(dāng)?shù)母杏X。但是用戶的點(diǎn)擊行為實(shí)際上幫助完成了算法的既定目標(biāo),而且還讓計(jì)算機(jī)認(rèn)為“推薦這類新聞或者生成這些標(biāo)題是正確的”,因此算法可能會變本加厲,越來越標(biāo)題黨。對于這類問題,如果算法的設(shè)計(jì)和使用人員本身不存惡意,其實(shí)是較好解決的。因?yàn)槲覀兛梢酝ㄟ^設(shè)計(jì)更好的目標(biāo)函數(shù)來提升用戶體驗(yàn)—畢竟任何一個(gè)目標(biāo)函數(shù)都不可能完全覆蓋用戶的意圖,所以優(yōu)化目標(biāo)函數(shù)以提升用戶體驗(yàn)是一個(gè)長期的過程。舉個(gè)例子,一篇新聞打開后用戶停留閱讀的時(shí)間,或者一個(gè)微信打開后被轉(zhuǎn)發(fā)和點(diǎn)贊的比率,都可以納入到目標(biāo)函數(shù)中來。但如果算法的設(shè)計(jì)和使用人員本身存有惡意,或者完全被短期商業(yè)利益綁架,這就可能變成一個(gè)難以舒緩的矛盾。譬如百度的魏則西們,搜索病情相關(guān)知識的時(shí)候,被漫天遍野真假難辨的廣告誘騙采用一些不適病情的治療方案,最終人財(cái)兩空;又或者如作家木木吐槽在百度搜索上海美國領(lǐng)事館官網(wǎng)的地址,出來一堆廣告卻幾頁翻不出真身。如何有效打擊這類“惡人利用算法作惡”的問題,就不是簡單調(diào)整目標(biāo)函數(shù)可以完成的任務(wù)了。
中期表現(xiàn)為算法能夠滿足用戶即時(shí)需求,但其累積效果與用戶的發(fā)展利益不一致。簡而言之,就是短期雖然滿足了用戶,但這種“滿足”對用戶而言或許并非好事。一些大型的游戲開發(fā)公司,可以對海量用戶的行為數(shù)據(jù)進(jìn)行深入挖掘分析,了解用戶容易退出游戲的時(shí)間點(diǎn)和前兆行為,分析哪些場景、關(guān)卡和境遇最易讓用戶退出游戲,從而通過贈予裝備,下發(fā)新任務(wù)等方式盡最大可能讓用戶獲得更好的游戲體驗(yàn),延長游戲時(shí)間。一些視頻網(wǎng)站,尤其是短視頻的網(wǎng)站,正在嘗試通過個(gè)性化推薦,為用戶創(chuàng)造一種沉浸式的美好體驗(yàn),讓用戶連續(xù)不斷地點(diǎn)開視頻,停不下來。這些算法很好地滿足了用戶的需求,用戶也不會有負(fù)面體驗(yàn),但是時(shí)間長了,對于用戶自身的健康成長和學(xué)業(yè)工作或許會起到負(fù)面的作用[20]。某些企業(yè)創(chuàng)造經(jīng)濟(jì)價(jià)值的同時(shí)也帶來環(huán)境的破壞,后者被稱為外部成本。類似地,這些累積產(chǎn)生的負(fù)面效果也可以看作是“算法的外部性”。由于用戶和商家都在這類算法中直接獲益,所以這種外部性問題的解決,還需要外部的力量來干預(yù)。舉例而言,2018年8月30日,教育部官網(wǎng)發(fā)布八部門關(guān)于印發(fā)《綜合防控兒童青少年近視實(shí)施方案》的通知,其中國家新聞出版署明確將對網(wǎng)絡(luò)游戲?qū)嵤┛偭空{(diào)控,采取措施限制未成年人使用時(shí)間。之后騰迅立刻提出將推進(jìn)最嚴(yán)格的實(shí)名游戲制度,避免未成年人過度沉迷于王者榮耀等游戲。需要特別強(qiáng)調(diào)的是,對用戶行為數(shù)據(jù)的分析挖掘這一技術(shù)本身是沒有善惡的,類似的技術(shù)可用于判斷在線課程中哪些地方是學(xué)習(xí)者普遍認(rèn)為的難點(diǎn),從而幫助他們更高質(zhì)量完成課程學(xué)習(xí)[21]。
長期表現(xiàn)為算法累積的效果與人類社會整體發(fā)展的目標(biāo)和價(jià)值不一致。譬如我們很早就知道,一個(gè)人的家庭出身和這個(gè)人未來學(xué)業(yè)和事業(yè)所能取得的成績在統(tǒng)計(jì)上是高度相關(guān)的[22~23],因此如果我們能夠掌握充分的數(shù)據(jù),聰明的算法會在成長的早期和學(xué)業(yè)工作關(guān)鍵抉擇點(diǎn)上傾向于把最優(yōu)質(zhì)的資源推薦給家庭背景比較好的人。就一些可以客觀量化的指標(biāo),如經(jīng)濟(jì)發(fā)展指標(biāo)而言,這個(gè)算法也許表現(xiàn)優(yōu)異,但它可能會大幅度加劇階級的固化,使得原本貧窮、缺少教育或因種族膚色等原因受到歧視的家庭,改變命運(yùn)的機(jī)會變得更加渺茫。如果我們只看數(shù)字利益,階級的流動并不一定帶來比階級的固化更好的經(jīng)濟(jì)表現(xiàn)。但是人類整體發(fā)展的目標(biāo)和價(jià)值,不是一群人奴役壓迫另一群人而獲得更高的效率,所以經(jīng)濟(jì)上的成功,數(shù)目字上的成功,并不一定代表整個(gè)人類社會的成功。又比如大規(guī)模電子商務(wù)網(wǎng)站(如阿里巴巴、京東等)和大規(guī)模內(nèi)容網(wǎng)站(如騰迅視頻、愛奇異等)的出現(xiàn),使得所有流量和關(guān)注向少數(shù)幾個(gè)平臺匯聚。平臺在運(yùn)營流量的時(shí)候,會采用以個(gè)性化推薦[15,24]為代表的一系列算法來吸引用戶更多點(diǎn)擊、瀏覽、收藏和購買。盡管這些算法都考慮了用戶個(gè)性化的特征,所給出的推薦結(jié)果也不盡相同,但事實(shí)上受算法驅(qū)動的用戶整體的行為所表現(xiàn)出來的多樣性會降低,因?yàn)橥扑]小眾對象的風(fēng)險(xiǎn)畢竟要大得多[25]。長久而言,小眾的喜好和小眾的商品都會失去萎縮,人類社會的多樣性以及非主流的個(gè)性和創(chuàng)造力,都有可能在信息高度豐富的時(shí)代反而降低,這對人類社會長遠(yuǎn)的發(fā)展也可能是不利的。
本文介紹了大數(shù)據(jù)和人工智能所面臨的倫理挑戰(zhàn),以及全球范圍內(nèi)相關(guān)的進(jìn)展情況。特別地,我們用生動的語言向讀者展示了大數(shù)據(jù)與人工智能在中立性、時(shí)效性和導(dǎo)向性方面可能帶來的負(fù)面的問題。這種負(fù)面的效應(yīng),既可能針對個(gè)人,也可能影響整個(gè)人類社會;既可能是即刻反饋的,也可能是長期積累導(dǎo)致的。通過本文的介紹,希望讀者對于大數(shù)據(jù)和人工智能的倫理問題有直觀的認(rèn)識和具象的感知。
在本文的續(xù)篇中,我們將繼續(xù)深入討論三個(gè)問題:算法的邊界問題、數(shù)據(jù)的隱私問題和人工智能的責(zé)權(quán)問題。這些都是當(dāng)前學(xué)界充滿爭議的問題。續(xù)篇的最后將簡要介紹當(dāng)前有效的應(yīng)對策略并討論未來開放性的政策和技術(shù)問題。