《壹讀》編輯部
在奧地利,有個家用機器人“自殺”了。據(jù)報道,這位型號為“Roomba 760”的機器保潔小妹受夠了家庭瑣事,于是選擇獨自在家的時候?qū)⒎旁陔姞t上的鍋推開,自己蹲坐在電爐上悍然自焚……
顯然,這位機器小妹并非真的患上了憂郁癥,但一個老話題又由此被重新提及:機器真的能像人類一樣思考嗎?
早在1950年,就有人試圖回答這個問題。一位名叫圖靈的英國數(shù)學家斷言,在21世紀之前,就會有能像人一樣思考的計算機誕生。圖靈認為,如何讓各種機械零件產(chǎn)生思想并不重要,重要的是,計算機能通過“圖靈測試”。
所謂的“圖靈測試”,就是讓一個人去詢問兩個他不能看見的對象任意一堆問題。而這兩個對象分別是一個人和一臺計算機。如果經(jīng)過若干詢問以后,詢問者不能分辨出人和機器,那么這臺計算機就算通過了圖靈測試,成為一臺能思考的機器了。
舉個簡單的例子,比如連續(xù)三次詢問對方是否會下象棋,機器會老老實實地回答三次“是的”;但如果是人類或者是能進行“思考”的機器,可能會在第二次就反問你為什么要重復提問,并在第三次表示不耐煩。
要實現(xiàn)這樣的“思考”并不困難,只要輸入足夠多的數(shù)據(jù),保證在任何一種情境下,機器都能迅速在數(shù)據(jù)庫里找出相應的應對方法,模擬人類反應。這和能夠戰(zhàn)勝象棋世界冠軍的計算機“深藍”的運行原理是一樣的——“深藍”并沒有比人類更聰明,只是它記住了“所有”情況。
30年后,有一位名叫希爾勒的美國科學家對此提出了反駁。為了證明機器無法有智能,希爾勒設計了一個精彩的思想試驗——“中文屋”。希爾勒設想:一個對中文一竅不通的人,被關進一間密閉的屋子,屋子里有足夠多的中文卡片,還有一本用英文寫的卡片使用規(guī)則。別人從門縫里塞進寫著中文問題的紙條,而應試者則根據(jù)規(guī)則抽出相應的中文卡片,遞出回答。屋外提問的中國人,看到屋子里遞出來的卡片對答如流,會以為屋中人精通中文。
希爾勒認為,“中文屋”就是一臺電腦,盡管這臺計算機根據(jù)“使用規(guī)則”能對答如流,也不能表示它理解談話的內(nèi)容。因此,輸入了大量數(shù)據(jù)從而實現(xiàn)模擬人類談話的計算機,不能算是在思考。
“中文屋”試驗也開啟了另一條道路:為機器建立一個“假裝人類”的數(shù)據(jù)庫不再可行,現(xiàn)在科學家們正在試圖搭建一個模擬神經(jīng)元的網(wǎng)絡系統(tǒng),教會機器在海量數(shù)據(jù)中自己學習的本領。最新的進展是:Google X實驗室的機器人,在大量數(shù)據(jù)的支持下辨認并自行建立了“貓”這一概念。