最近一段時間,人工智能領(lǐng)域很熱鬧:先是百度推出智能秘書服務(wù)“度秘”;緊接著,騰訊財經(jīng)用機器算法自動生成了一則新聞,其速度與效率令人驚嘆。就在人們普遍憧憬人工智能為人類生活帶來美好未來的同時,今天世界上最聰明的一群人正對人工智能的未來憂心忡忡,史蒂芬·霍金尖銳地指出:“成功研發(fā)人工智能,將成為人類歷史上犯的最大錯誤。不幸的是,這也可能是最后一個錯誤?!币谅 ゑR斯克則認為:“開發(fā)人工智能就是在召喚惡魔。”而這,并非危言聳聽。
我們的生活中已經(jīng)充滿了弱人工智能,只是我們大部分人沒有意識到:從手機上的計算器到無人駕駛汽車,從地圖軟件導(dǎo)航到垃圾郵件(短信)過濾,從谷歌翻譯到社交/購物網(wǎng)站的好友/商品推薦,都是人工智能在特定領(lǐng)域的應(yīng)用。在利益的驅(qū)使下,大量資金被源源不斷地投入到人工智能的技術(shù)創(chuàng)新中,每一次創(chuàng)新都在給通往強人工智能和超人工智能的道路添磚加瓦。糟糕的是,我們不知道自己鋪的路到底是通往地獄還是天堂,人類會因此滅絕還是永生。Aaron Saenz有一個非常精彩的比喻:現(xiàn)在的弱人工智能,就是地球早期軟泥中的氨基酸——沒有動靜的物質(zhì),突然之間就組成了生命。我們難以解釋生命是怎樣突然出現(xiàn)的,同樣我們也難以預(yù)言人類怎樣召喚出第一個超人工智能。試圖創(chuàng)造出比自身更聰明的東西是不是一種愚蠢的行為?超人工智能會不會成為人類的最后一項發(fā)明、最后一個挑戰(zhàn)?
忽然之間,我發(fā)現(xiàn)自己多年來對人工智能的美好憧憬被瓦解,對高調(diào)的科技創(chuàng)新也開始充滿憂慮。我迫不及待要做的事就是讓我的學(xué)生做一份關(guān)于人工智能的研究報告,希望他們用自己的頭腦去思考,去探索。未來所有關(guān)于人工智能的研究,請慢一點,再慢一點,因為沒有任何事情比人工智能的安全更重要。