牛津大學(xué)人類未來(lái)研究所由多個(gè)國(guó)家的科學(xué)家、數(shù)學(xué)家、哲學(xué)家構(gòu)成,以研究人類未來(lái)將面臨何種滅絕危險(xiǎn)作為自己的學(xué)術(shù)使命。日前,該所所長(zhǎng)尼克·博斯特羅姆發(fā)出警示:人工智能領(lǐng)域的實(shí)驗(yàn)已經(jīng)進(jìn)入意料之外且后果難以控制的疆域。在不遠(yuǎn)的將來(lái),人工智能會(huì)比人類變得更聰明,最終成為人類文明的“掘墓者”。人工智能,真的會(huì)對(duì)創(chuàng)造它們的人類構(gòu)成致命威脅嗎?
被譽(yù)為“人工大腦之父”的雨果·德·加里斯教授是“人工智能威脅人類”觀點(diǎn)的擁護(hù)者之一。
在雨果看來(lái),“災(zāi)難”到來(lái)之前,人工智能會(huì)和人類有一段非常融洽的“蜜月期”。工業(yè)機(jī)器人、醫(yī)療機(jī)器人、聊天機(jī)器人、家務(wù)機(jī)器人、伙伴機(jī)器人……人工智能會(huì)普及到人類生活的每個(gè)領(lǐng)域,使人類徹底擺脫高危、枯燥、繁重的工作,使我們的生活獲得前所未有的便利。
但人工智能最終會(huì)獲得“自我進(jìn)化”的能力,這是它們走向失控的節(jié)點(diǎn)所在?!叭斯ぶ悄懿⒉皇俏覀兿胂蟮哪菢印祟惤o予它們某種功能,它們才具備,否則就沒(méi)有。它們已經(jīng)在神經(jīng)和智能上產(chǎn)生初級(jí)的自行進(jìn)化,并且是以指數(shù)速度發(fā)展的進(jìn)化。它們將會(huì)在某天突然達(dá)到一種稱作‘奇點(diǎn)’的狀態(tài),然后很有可能會(huì)失去控制,以我們無(wú)法想象的速度自行進(jìn)化,最終將人類智能遠(yuǎn)遠(yuǎn)拋在后面?!?/p>
雨果相信,到時(shí)人工智能將是人類的“萬(wàn)億個(gè)萬(wàn)億倍”?!八鼈兠鎸?duì)人類,就仿佛人類面對(duì)蚊子、跳蚤甚至巖石,它們要消滅我們輕而易舉,如同我們將蚊子拍死,將臭蟲(chóng)沖進(jìn)下水道。誰(shuí)會(huì)在消滅跳蚤時(shí)覺(jué)得這樣太殘忍?這也許是人類逃脫不了的宿命?!彼€預(yù)測(cè),人工智能的“災(zāi)難”也許在50年后就會(huì)降臨。
對(duì)于人類未來(lái)研究所和雨果的預(yù)測(cè),中國(guó)科學(xué)院廣州電子技術(shù)研究所從事計(jì)算機(jī)科學(xué)研究的黃其智高級(jí)工程師并不認(rèn)同。他表示,人工智能在未來(lái)確實(shí)可以無(wú)限接近于人腦的思維,甚至可以表現(xiàn)得比人類更聰明,但不會(huì)失控,更不會(huì)成為人類文明的毀滅者。
“人工智能有它的局限性:它的一切思維和做出的判斷都必須基于專家?guī)斓臄?shù)據(jù),即使是擁有了強(qiáng)大自我學(xué)習(xí)和推理能力的人工智能,它最初的原始架構(gòu)也是人類賦予的。簡(jiǎn)而言之,本質(zhì)上是先有人腦的思維在前,才有人工智能的思維在后。從目前的技術(shù)成果來(lái)看,人工智能獲得所謂‘自我進(jìn)化’的能力是不可想象的?!?/p>
但黃其智同時(shí)強(qiáng)調(diào),人工智能并不因此就不具有風(fēng)險(xiǎn)?!霸谖铱磥?lái),它的危險(xiǎn)性主要體現(xiàn)在被某些野心勃勃的人利用和操縱。只有在這種情況下,人工智能才會(huì)成為人類可怕的敵人?!保〒?jù)廣州日?qǐng)?bào))