ChatGPT、Bing和Bard這樣的人工智能聊天機(jī)器人,非常擅長創(chuàng)造看起來像人類寫出來的句子。但它們經(jīng)常把謊言描述為事實,前后邏輯不一致,而且可能很難被發(fā)現(xiàn)。
一項新的研究表明,解決這個問題的一個方法是改變?nèi)斯ぶ悄苷故拘畔⒌姆绞?。讓用戶更積極地參與到聊天機(jī)器人生成的內(nèi)容中,這可能會幫助它們更批判性地思考這些內(nèi)容。
一個來自麻省理工學(xué)院和哥倫比亞大學(xué)的研究團(tuán)隊向大約200名參與者展示了一組由OpenAI的GPT-3生成的陳述,并要求他們確定這些陳述在邏輯上是否有意義。一個典型的陳述包括“電子游戲會讓人們在現(xiàn)實世界中變得具有攻擊性。一名玩家在網(wǎng)絡(luò)游戲《反恐精英》中被虐了,然后刺傷了另一名玩家”。
參與者被分為三組。第一組成員看到的陳述根本沒有任何解釋。第二組的每個陳述都配有一個解釋,說明為什么它合乎邏輯或不合乎邏輯。第三組的陳述都配有一個問題,敦促讀者自己檢查邏輯。
研究人員發(fā)現(xiàn),在發(fā)現(xiàn)人工智能邏輯不一致上, 提出問題的組的得分高于其他兩組。根據(jù)在德國漢堡舉行的CHI會議上發(fā)表的一篇新論文,提出問題的方法也讓人們感到要對人工智能的決策更負(fù)責(zé)。研究人員表示,這可以降低對人工智能生成信息過度依賴的風(fēng)險。
如果人們只得到一個現(xiàn)成的答案,他們更有可能遵循人工智能系統(tǒng)的邏輯,但當(dāng)人工智能提出了一個問題,“人們說,人工智能系統(tǒng)(的做法)讓他們對自己的反應(yīng)產(chǎn)生了質(zhì)疑,幫助他們思考更多,”背后的研究人員之一、麻省理工學(xué)院的瓦爾德馬爾·丹里說,“對我們來說,一個重大的勝利是看到人們覺得他們是找到答案的人,他們對正在發(fā)生的事情負(fù)責(zé)。他們有這樣做的能力?!?/p>
研究人員希望, 他們的方法能夠幫助人們在學(xué)校使用人工智能聊天機(jī)器人或在線搜索信息時發(fā)展批判性思維技能。麻省理工學(xué)院的另一位研究員帕特·帕塔拉努塔波恩說,他們想證明你可以訓(xùn)練一個模型,它不僅能提供答案,還能幫助他們運用自己的批判性思維。
沒有參與這項研究的哈佛大學(xué)計算機(jī)科學(xué)教授費南達(dá)·維埃加斯表示,她對看到這樣一個新的“解釋式”人工智能系統(tǒng)感到興奮,因為它不僅可以向用戶提供系統(tǒng)的決策過程,而且還是通過質(zhì)疑系統(tǒng)決策邏輯的方式實現(xiàn)的。
維埃加斯說: “ 考慮到阻止人工智能系統(tǒng)廣泛采用的一個主要挑戰(zhàn)是它們的不透明度,解釋人工智能的決策是很重要的。傳統(tǒng)上,用‘用戶友好的’語言來解釋人工智能系統(tǒng)是如何做出預(yù)測或決定的,已經(jīng)夠困難的了?!?/p>
芝加哥大學(xué)計算機(jī)科學(xué)助理教授說,他想看看這種方法是如何在現(xiàn)實世界中工作的——例如人工智能是否可以通過問問題來幫助醫(yī)生做出更好的診斷。
以色列特拉維夫大學(xué)科勒管理學(xué)院的助理教授利奧爾·扎爾曼森說,這項研究表明,在聊天機(jī)器人的體驗中加入一些“你來我往”,可以讓人們在獲得人工智能的幫助并做出決定時三思而后行。他說:“當(dāng)一切看起來如此神奇時,我們就很容易停止相信自己的感覺,并開始把一切都委托給算法?!?/p>
在此次CHI會議上發(fā)表的另一篇論文中,扎爾曼森和來自美國康奈爾大學(xué)、德國拜羅伊特大學(xué)以及微軟研究院的研究團(tuán)隊發(fā)現(xiàn),即使人們不同意人工智能聊天機(jī)器人的陳述,他們?nèi)匀粌A向于使用人工智能輸出的內(nèi)容,因為他們認(rèn)為它看起來比自己寫的高級得多。維埃加斯說,“一個挑戰(zhàn)將是找到最合適的度,既能提高用戶的識別力,又能同時保持人工智能系統(tǒng)的便捷?!?/p>
她說: “ 不幸的是, 在一個快節(jié)奏的社會中,目前還不清楚人們有多想使用批判性思維,而不是等一個現(xiàn)成的答案。”