你是不是也遇到過(guò)這樣的情況:?jiǎn)朅I一個(gè)問(wèn)題,它給了你一個(gè)特別詳細(xì)、豐富,看上去很有邏輯的答案,但當(dāng)我們?nèi)ズ藢?shí)時(shí),卻發(fā)現(xiàn)這些信息完全是虛構(gòu)的。
這就是著名的“AI幻覺(jué)”現(xiàn)象。
AI幻覺(jué)指的是AI會(huì)生成看似合理但確實(shí)錯(cuò)誤的信息,最常見(jiàn)的表現(xiàn)就是編造一些不存在的事實(shí)或者細(xì)節(jié)。就像在考試時(shí)遇到不會(huì)的題目,我們會(huì)試圖用已知的知識(shí)去推測(cè)答案一樣。AI在遇到信息缺失或不確定的情況時(shí),會(huì)基于自己的“經(jīng)驗(yàn)”(訓(xùn)練數(shù)據(jù))進(jìn)行填補(bǔ)和推理。這不是因?yàn)樗胍垓_我們,而是因?yàn)樗谠噲D用自己理解的模式來(lái)完成這個(gè)任務(wù)。
因?yàn)锳I(尤其是像ChatGPT這樣的語(yǔ)言模型)通過(guò)大量的訓(xùn)練數(shù)據(jù)學(xué)習(xí)文字之間的統(tǒng)計(jì)關(guān)系。它的核心目標(biāo)是根據(jù)上下文預(yù)測(cè)最可能出現(xiàn)的下一個(gè)詞,并不是對(duì)問(wèn)題或內(nèi)容進(jìn)行真正的理解。所以AI本質(zhì)上是通過(guò)概率最大化來(lái)生成內(nèi)容,而不是通過(guò)邏輯推理來(lái)生成內(nèi)容。所以,訓(xùn)練數(shù)據(jù)中的錯(cuò)誤信息和知識(shí)缺失都容易讓AI產(chǎn)生錯(cuò)誤的判斷。
舉個(gè)例子:早期AI幻覺(jué)較大的時(shí)候,可能會(huì)出現(xiàn)AI學(xué)過(guò)“北京是中國(guó)的首都”和“巴黎有埃菲爾鐵塔”這兩個(gè)知識(shí)點(diǎn),可當(dāng)我們問(wèn)它“北京有什么著名建筑”時(shí),它把這些知識(shí)錯(cuò)誤地混合在一起,說(shuō)“北京有埃菲爾鐵塔”。
雖然大模型的訓(xùn)練參數(shù)量非常龐大,但受限于技術(shù)原因,AI仍然是在一個(gè)有限的范圍內(nèi)理解文本。這就像是隔著一個(gè)小窗口看書,看不到整本書的內(nèi)容,容易產(chǎn)生理解偏差。
還有一個(gè)出現(xiàn)AI幻覺(jué)的重要原因是,現(xiàn)在很多大模型被設(shè)計(jì)成要給出流暢的回答,當(dāng)它對(duì)某個(gè)問(wèn)題不太確定時(shí),與其說(shuō)“我不知道”,不如基于已有知識(shí)編造看起來(lái)合理的答案。
1.優(yōu)化提問(wèn)
想要獲得準(zhǔn)確答案,提問(wèn)方式很關(guān)鍵。與AI交流需要明確和具體,避免模糊或開放性的問(wèn)題,提問(wèn)越具體、清晰,AI的回答越準(zhǔn)確。同時(shí),我們?cè)谔釂?wèn)的時(shí)候要提供足夠多的上下文或背景信息,這樣也可以減少AI胡亂推測(cè)的可能性。
總結(jié)成提示詞技巧就是下面4種問(wèn)法:
設(shè)定邊界:“請(qǐng)嚴(yán)格限定在××研究范圍內(nèi)”
示例:“介紹ChatGPT的發(fā)展歷程”→“請(qǐng)僅基于OpenAI官方2022~2023年的公開文檔,介紹ChatGPT的發(fā)展歷程”
標(biāo)注不確定:“對(duì)模糊信息,需要標(biāo)注‘此處為推測(cè)內(nèi)容’”
示例:“分析特斯拉2025年的市場(chǎng)份額”→“分析特斯拉2025年的市場(chǎng)份額,對(duì)非官方數(shù)據(jù)或預(yù)測(cè)性內(nèi)容,請(qǐng)標(biāo)注‘推測(cè)內(nèi)容’”
步驟拆解:“第一步列舉確定的事實(shí)依據(jù),第二步展開詳細(xì)分析”
示例:“評(píng)估人工智能對(duì)就業(yè)的影響”→“請(qǐng)分兩步評(píng)估AI對(duì)就業(yè)的影響:先列出目前已發(fā)生的具體影響案例;基于這些案例進(jìn)行未來(lái)趨勢(shì)分析”
明確約束:“要基于已有事實(shí)回答,不要進(jìn)行推測(cè)”
示例:“預(yù)測(cè)2024年房地產(chǎn)市場(chǎng)走勢(shì)”→“請(qǐng)僅基于2023年的實(shí)際房地產(chǎn)數(shù)據(jù)和已出臺(tái)的相關(guān)政策進(jìn)行分析,不要加入任何推測(cè)性內(nèi)容”
2.分批輸出
因?yàn)锳I內(nèi)容是根據(jù)概率來(lái)生成的,一次性生成的內(nèi)容越多,出現(xiàn)AI幻覺(jué)的概率就越大,我們可以主動(dòng)限制它的輸出數(shù)量。比如,如果要寫一篇長(zhǎng)文章,就這么跟AI說(shuō):“咱們一段一段來(lái)寫,先把開頭寫好。等這部分滿意了,再繼續(xù)寫下一段?!边@樣不僅內(nèi)容更準(zhǔn)確,也更容易把控生成內(nèi)容的質(zhì)量。
3.交叉驗(yàn)證
還有一個(gè)實(shí)用的方法是采用“多模型交叉驗(yàn)證”。AI聚合平臺(tái)可以讓多個(gè)AI模型同時(shí)回答同一個(gè)問(wèn)題,讓不同的大模型一起參與討論,通過(guò)對(duì)比它們的答案來(lái)獲得更全面的認(rèn)識(shí)。一些AI搜索平臺(tái)的“多模型協(xié)作”功能還可以讓不同的AI模型各司其職,形成一個(gè)高效的協(xié)作團(tuán)隊(duì)。比如,讓擅長(zhǎng)推理的DeepSeek-R1負(fù)責(zé)分析規(guī)劃,再由通義千問(wèn)進(jìn)行糾錯(cuò)補(bǔ)充,最后交給豆包AI來(lái)梳理總結(jié)。這種“專家組”式的協(xié)作模式,不僅能提升內(nèi)容的可信度,還能帶來(lái)更加全面和深入的見(jiàn)解。
4.RAG(檢索增強(qiáng)生成)技術(shù)
為了讓AI表現(xiàn)得更靠譜,我們可以給它配一個(gè)超級(jí)百科全書,讓AI在回答問(wèn)題之前,先從可靠的資料中找到相關(guān)信息,再根據(jù)這些信息生成答案。目前RAG技術(shù)多用在醫(yī)療、法律、金融等專業(yè)領(lǐng)域,通過(guò)構(gòu)建知識(shí)庫(kù)來(lái)提升回答的準(zhǔn)確性。
很多時(shí)候AI幻覺(jué)也是天馬行空的創(chuàng)意火花。與其把AI幻覺(jué)當(dāng)成缺陷,不如把它看作創(chuàng)意的源泉,在寫作、藝術(shù)創(chuàng)作或頭腦風(fēng)暴時(shí),這些“跳躍性思維”反而可能幫我們打開新世界的大門。當(dāng)我們學(xué)會(huì)用正確的方式與AI對(duì)話,善用它的創(chuàng)造力,同時(shí)保持獨(dú)立思考,AI就能成為我們的得力助手,而不是一個(gè)“能言善辯的謊言家”。
(摘自“科普中國(guó)”微信公眾號(hào),飄飄圖)