文/周 濤
作者系成都新經(jīng)濟(jì)發(fā)展研究院執(zhí)行院長(zhǎng)、電子科技大學(xué)教授
大數(shù)據(jù)時(shí)代的到來,是人類歷史上的跨越式發(fā)展,沒有人能置身事外。人類從一個(gè)高度信息貧乏的時(shí)代走到現(xiàn)在這樣一個(gè)眼花繚亂的信息爆炸時(shí)代,只用了不到一個(gè)世紀(jì)。兩個(gè)進(jìn)化階段的耗時(shí)差距如此懸殊,我們的社會(huì)是否已經(jīng)真正為我們進(jìn)入這樣一個(gè)信息高度豐富的時(shí)代做好了準(zhǔn)備,是值得思考的。
2018年5月4日,在成都新經(jīng)濟(jì)發(fā)展研究院和封面新聞舉辦的“第二屆AI+移動(dòng)媒體大會(huì)”上,筆者闡述了近年來蓬勃發(fā)展的大數(shù)據(jù)和人工智能技術(shù)為社會(huì)帶來的變革及自己的看法。
不管大家愿意還是不愿意,人類都進(jìn)入了一個(gè)一切都被記錄的大數(shù)據(jù)時(shí)代,不管是我們?cè)诠矆?chǎng)所的發(fā)言,還是和最親密的對(duì)象私語(yǔ),這些內(nèi)容可能都會(huì)被記錄下來。人類現(xiàn)在掌握的數(shù)據(jù)量對(duì)于幾十年前而言,是不可想象的,現(xiàn)在的數(shù)據(jù)量已經(jīng)十分龐大,再過8年還會(huì)漲10倍。但是掌握了這么多數(shù)據(jù),并不意味著我們就能夠真正駕馭它們。
在大數(shù)據(jù)時(shí)代,我們面臨的第一個(gè)挑戰(zhàn)就是信息的復(fù)雜性很高。比如,現(xiàn)在的消費(fèi)者們,可以從淘寶12億商品中準(zhǔn)確選出自己需要的商品和信息,但其實(shí)這龐大的商品和信息,絕大部分都是我們沒有看過的。
在當(dāng)今的社會(huì)生活中,人們獲取信息很大程度上被動(dòng)的。筆者用了這樣一個(gè)類比來描述我們獲取信息的場(chǎng)景:在某種程度而言,分發(fā)信息的平臺(tái),或者說掌管信息分發(fā)的算法,可以理解成一種中介;信息中介與我們的關(guān)系就像是保姆與嬰兒一樣,即使我們不知道對(duì)方喂過來的食物是否有營(yíng)養(yǎng),是否存在有害的成分,我們都吃了下去,因?yàn)闆]有選擇。
大數(shù)據(jù)時(shí)代的到來,是人類歷史上的跨越式發(fā)展,沒有人能置身事外。如果站在信息的角度來看,我們?nèi)祟愰_始直立行走,經(jīng)歷了數(shù)百萬年的進(jìn)化;但在這之后,人類從一個(gè)高度信息貧乏的時(shí)代走到現(xiàn)在這樣一個(gè)眼花繚亂的信息爆炸時(shí)代,只用了不到一個(gè)世紀(jì)。兩個(gè)進(jìn)化階段的耗時(shí)差距如此懸殊,我們的社會(huì)是否已經(jīng)真正為我們進(jìn)入這樣一個(gè)信息高度豐富的時(shí)代做好了準(zhǔn)備,是值得思考的。
關(guān)于人工智能倫理方面,筆者首先引出了算法的中立性問題。一般而言大家會(huì)認(rèn)為算法天然就是中立的,在半個(gè)多世紀(jì)以前,羅根給美國(guó)的城市設(shè)計(jì)公路、花園等,他在一個(gè)花園里面設(shè)計(jì)了一個(gè)橋,但是橋洞很矮,設(shè)計(jì)了這樣的一個(gè)入口使得當(dāng)時(shí)公共汽車是沒有辦法通過的,只有私人的小轎車可以通過。但是那個(gè)時(shí)候絕大部分的窮人,包括有色人種都是坐公共交通的,只有富人才能開得起轎車,所以這個(gè)設(shè)計(jì)本身表面上看起來是中立的,但實(shí)際上是有了區(qū)別對(duì)待的。它使得中央公園中橋后的區(qū)域,只有富人才能進(jìn)入。這在當(dāng)時(shí)看來非常正常,但如果放到現(xiàn)在,就是很嚴(yán)重的歧視問題,如果我們處在互聯(lián)網(wǎng)領(lǐng)域,這種歧視可能更加隱秘。
到了互聯(lián)網(wǎng)領(lǐng)域,在進(jìn)行個(gè)性化推薦的研究時(shí),筆者發(fā)現(xiàn)很多開發(fā)者在設(shè)計(jì)商品推薦系統(tǒng)的時(shí)候,會(huì)考慮用戶對(duì)價(jià)格的敏感性。如果一個(gè)用戶經(jīng)常在三級(jí)品類比如鋼筆中,每一次購(gòu)買的商品都選這個(gè)品類中比較便宜的,開發(fā)者設(shè)計(jì)的算法就判定這個(gè)用戶價(jià)格敏感度高、比較“窮”。這時(shí)系統(tǒng)要對(duì)他進(jìn)行推薦、或者關(guān)鍵詞排序的時(shí)候,會(huì)優(yōu)先把一些特別便宜的東西推給他。
如果未來人類自身處理信息的能力進(jìn)一步減弱,很有可能是因?yàn)闄C(jī)器推給我們的信息更多了,人類變得更愿意依賴算法和機(jī)器。比如,到一個(gè)城市去旅游,可能我們需要機(jī)器推薦一個(gè)一流的游玩路線;我們到了一個(gè)教育系統(tǒng)里,可能希望能獲得優(yōu)質(zhì)的課程推送,甚至職業(yè)規(guī)劃和人生規(guī)劃等方案供我們選擇。這個(gè)時(shí)候我相信計(jì)算機(jī)會(huì)根據(jù)你以前的行為、你的家庭背景、消費(fèi)習(xí)慣等作出在算法看來最適合你的推薦。于是窮人和富人可能會(huì)抵達(dá)不同的城市的角落,可能會(huì)在很早的時(shí)候就有不同的人生規(guī)劃和目標(biāo)。在那個(gè)時(shí)候盡管我們表面上可以獲取的信息更多了,但是因?yàn)檫@個(gè)信息都是某些信息中介推到我們這兒的,所以說貧窮和富裕之間的差距到底會(huì)增大還是縮小,不好說。
人類是否可能為一些還沒有發(fā)生的事情付出代價(jià)?這是很多人都在思考的一個(gè)問題。在《大數(shù)據(jù)時(shí)代》中,作者講了一個(gè)很可怕的例子,到了大數(shù)據(jù)更加成熟的時(shí)候,系統(tǒng)可能會(huì)推算出一個(gè)人什么時(shí)候會(huì)犯罪,我們很慶幸這個(gè)情景如今還并沒有發(fā)生。
但是有時(shí)候我們?yōu)榱税踩脑驎?huì)去猜測(cè)一個(gè)人的不安全因素有多大,比如,美國(guó)就會(huì)分析一個(gè)乘客的資料來看他是否是恐怖分子,如果危險(xiǎn)因素過高他就會(huì)被留在機(jī)場(chǎng)。盡管一定程度上他的被拒登機(jī),總體提升了其他乘客的安全程度,但這樣做的代價(jià)是有一小部分人作為無辜者在這個(gè)系統(tǒng)中遭受到了不公平的待遇。
十多年前酒駕的危害剛開始被討論的時(shí)候,爭(zhēng)論是很大的。實(shí)際上在世界上很多國(guó)家酒駕是很正常的事情。從某種意義來講,對(duì)于酒后駕車,有很多的證據(jù)表明它會(huì)提高發(fā)生交通事故的概率。因?yàn)檫@個(gè)原因,盡管有些人酒后駕車還沒有產(chǎn)生交通事故,但也可以基于數(shù)據(jù)的支撐對(duì)其進(jìn)行處罰,如今酒駕已經(jīng)入刑,筆者非常贊同這個(gè)規(guī)定,它對(duì)我們的交通安全很有幫助。我們可以想象一下20年以后我們的自動(dòng)駕駛占到了很大的比例時(shí),未來絕大部分的交通事故應(yīng)該是因?yàn)槿嗽斐傻模绻搅四莻€(gè)時(shí)候,真人駕車是不是就是最危險(xiǎn)的一種?
除了對(duì)酒駕的處理,數(shù)據(jù)實(shí)效性也實(shí)實(shí)在在影響著個(gè)人的征信記錄。中國(guó)有一句古話叫浪子回頭金不換,講的是一個(gè)人犯了錯(cuò)誤,要改變自己,你的親友可能會(huì)相信你,也應(yīng)該相信你,所以你有了一個(gè)新的機(jī)會(huì)。但是計(jì)算機(jī)可不會(huì)這么想,比如你中學(xué)的時(shí)候打了架,可能大學(xué)的時(shí)候因?yàn)樘摌s借了校園貸款沒有還,這些事情過了一二十年可能會(huì)使你很難再次貸款,可能會(huì)影響你的婚戀,因?yàn)橛?jì)算機(jī)絕對(duì)不會(huì)忘記數(shù)據(jù)。
筆者認(rèn)為,人工智能和大數(shù)據(jù)的存在已經(jīng)開始改變?nèi)祟惖膫惱眢w系。想象一下,假使有朝一日,人類倫理道德的規(guī)則必須要由機(jī)器來幫我們寫,又該如何?比如,我們?cè)诼飞祥_車,如果突然一群不遵守交通規(guī)則的人沖到車前,這時(shí)候你面臨三種選擇:一是開過去直接撞上這些人,因?yàn)樗麄冎鲃?dòng)違反了交通規(guī)則;二是左轉(zhuǎn),這樣會(huì)撞到一旁等候的人;三是沖出這個(gè)圍欄,可能自己會(huì)受傷甚至死亡。不管做什么樣的選擇,這個(gè)選擇的主題首先是人,你可能是一個(gè)自私的人,也有可能是一個(gè)大公無私的人,但是這個(gè)拷問的回答者終歸是人類。
實(shí)際上2017年有一篇很有趣的關(guān)于無人駕駛的文章,大體的意思就是說如果你把自己代入一個(gè)場(chǎng)景,你是一個(gè)坐在副駕駛上的人,你買了一輛無人駕駛的汽車,這個(gè)時(shí)候如果出現(xiàn)嚴(yán)重的交通意外,我們首先是保護(hù)路人的安全還是保護(hù)車主的安全?大部分人會(huì)選保護(hù)車主的安全,但是假設(shè)你在休息室等待的時(shí)候,你看到一個(gè)場(chǎng)景你被代入了,你是一個(gè)路人,看到無人車在路上跑,你回答同樣的問題,絕大部分人會(huì)認(rèn)為首先保護(hù)路人的安全,其次是車主的安全。
人的大腦和道德準(zhǔn)則本身就是很復(fù)雜的。但是現(xiàn)在當(dāng)我們真的有了無人車的時(shí)候就由不得你了,汽車就會(huì)做出判斷。當(dāng)機(jī)器人、這些設(shè)備高度的融入我們的生活時(shí)候,當(dāng)人類的行為必須通過冷冰冰的代碼選擇,所以未來很大一部分的道德主題的選擇,這個(gè)時(shí)候我們?nèi)祟惖淖饑?yán),他的可選擇性是否還有價(jià)值?
關(guān)于未來,筆者也道出了自己的看法和擔(dān)憂:任何一種物種都有盛衰,猴子變成了人,猴子就衰退了,原來屬于森林的土地上我們建了高樓大廈,猴子如果知道后果肯定會(huì)很仇恨第一只走路的猴子。人類有可能會(huì)毀滅,有可能是行星撞地球,有可能是來自于可怕的戰(zhàn)爭(zhēng),有可能是大家擔(dān)心的某種人工智能對(duì)人的替代。但是人工智能不是一個(gè)會(huì)毀滅人類的技術(shù),因?yàn)槿斯ぶ悄馨l(fā)展到現(xiàn)在,他所有的要去優(yōu)化的目標(biāo)函數(shù)等都還是由人來設(shè)計(jì)的,至今我們還沒有看到一群機(jī)器人自己設(shè)計(jì)自己,也沒有看到一群機(jī)器認(rèn)識(shí)到了自我。但是有一種技術(shù)對(duì)人類而言是最危險(xiǎn)的,就是我們最終對(duì)大腦的認(rèn)識(shí)。
其實(shí)在好幾十年前,我們就已經(jīng)很清楚的知道了小白鼠它所有的感覺、感知是什么樣子,所以說我們放下一個(gè)杠桿,小白鼠他就會(huì)獲得快感。如果我們某一天我們通過一個(gè)電機(jī)就獲得各種各樣的快感,或者在幾天之內(nèi)就走過我們的人生,如果是那樣,我們普通人拼命的跋涉、拼命努力的動(dòng)力從何而來?所以真正有可能影響我們社會(huì)、影響人類未來的可能是我們對(duì)大腦的設(shè)計(jì)。
以人工智能為牽引的新的科技時(shí)代已經(jīng)到來,希望大家不管從事任何的領(lǐng)域,一定要去擁抱這個(gè)新的時(shí)代,但凡想要阻擋這個(gè)時(shí)代到來的人都只會(huì)成為舊時(shí)代的提燈者。