苗煒
我拿到iPhone5之后,一個很大的樂趣是和SIRI對話,我費了半天的工夫,學(xué)會了用語音控制打電話,我還試著和她聊天,可惜,她總是這樣回答我:我不明白你的意思。也許我想要的是一個聊天程序,但SIRI顯然不是一個聊天程序。
最早能模仿人類談話的軟件1965年誕生于麻省理工學(xué)院,這個程序叫“ELIZA”,它的策略是找出談話中的“關(guān)鍵詞”,重復(fù)這個關(guān)鍵詞。如果談話陷入僵局,它就生硬地說——請繼續(xù)。這種“樣板匹配”策略,是許多聊天軟件的基礎(chǔ),現(xiàn)在仍然運用在聊天軟件的設(shè)計上。比如下一段對話。
用戶說:“我最近一段時間很不開心?!?/p>
程序說:“聽到你不開心,我很難過。”
用戶說:“我真的不開心。”
程序說:“做點兒什么能讓你避免不開心呢?”
用戶說:“我也許該和我媽媽談?wù)??!?/p>
程序說:“給我講講你的家庭?!?/p>
最早和ELIZA交談過的人,都誤以為他們在和一個真人聊天。盡管這樣的聊天沒什么實質(zhì)性的內(nèi)容,但它“有效果”。日常生活中,我們時常會這樣私下聊一聊,聊完后,感覺自己被傾聽,從而被治愈?!督箲]與精神病通訊》雜志1975年的一篇文章說,很多病人和電腦程序聊過,也許以后,電腦能承擔(dān)心理咨詢的任務(wù),人們花幾塊錢打電話過去,和一個電腦程序聊那么幾分鐘,從而感到自己被治愈。
1989年5月,都柏林一位大學(xué)生改寫過ELIZA程序,讓它更為情緒化,愛說臟話,當(dāng)程序想轉(zhuǎn)換話題時,它會忽然冒出來一句:“我覺得你完全就是個SB”,或者它說:“你要不就聊點兒有意思的,要不就閉嘴。”一個美國學(xué)生隔著大西洋和這個程序吵了一個半小時,它臟話連篇,像個愛爾蘭酒鬼。罵架最后,那個美國用戶說道——你他媽的就像個機器人,總在重復(fù)?,F(xiàn)在,網(wǎng)絡(luò)上的許多吵架,還是這個老程序的水平,不斷重復(fù)“你是腦殘”或者“你是五毛”。可惜,我也試著和SIRI吵架,罵她,她總回答我說,“我不明白你的意思”,“請向蘋果商店的專業(yè)人員咨詢”,這樣的時候,我覺得自己的智力受到了侮辱。
布萊恩·克里斯蒂安是一位科學(xué)作家,2009年9月,他去英國參加了一次圖靈測試。英國這個測試項目,讓一組“判官”,通過電腦設(shè)備提出問題,讓一組“候選人”回答問題,這組“候選人”中有真的人,有電腦程序,判官們要做的是,判斷出哪個是人,哪個是電腦。問題范圍可以是明星八卦,也可以是嚴肅的哲學(xué)。在測試中,每個判官可以和“候選者”交談5分鐘,然后有10分鐘的時間判定,哪個是人,哪個是電腦程序。判官要將“候選者”排序,最像人的電腦會獲得3000美元的獎金。候選者中的真人也將排序,這樣就會有一個“最像人的人”獎項。1994年,有一位記者獲得了“最像人的人”獎項,他說,他的策略是在測試過程中表現(xiàn)得情緒化、敏感、惹人討厭。克里斯蒂安覺得這種說法很有意思,他想到的一個問題是——我們在日常生活中是否也要情緒化、敏感、一定程度上惹人厭煩,才更“像人”呢?
克里斯蒂安對聊天程序做了一些研究之后,開始能更好地管理自己的對話——警惕那種完全沒有知識背景的對話,警惕脫口而出的草率回答,在對話過程中,用口語而不是書面語,盡力去解決那些“沉默時刻”,如果預(yù)想到判官要說什么,那就立刻展開對話,注意“時間感”,如果對話出現(xiàn)停頓,就補充一句回答,或者向判官提問,如果說電腦程序還不太懂得什么是交流中的協(xié)調(diào),那它更不懂得對話中的韻律。
牛津大學(xué)的一位哲學(xué)家說,如果一臺機器能通過圖靈測試,可能并非是這臺機器多么智能,而是我們?nèi)祟?,太過僵化。我們?nèi)祟愒撜J真對待交流。