“AI幻覺”與“機(jī)器欺騙”,是指“AI會胡亂拼湊或虛構(gòu)一些事實,讓其生成的內(nèi)容顯得合理、自洽”。全球最先進(jìn)的大模型,在試驗中也會出現(xiàn)一定的“幻覺率”。更關(guān)鍵的是,AI在呈現(xiàn)錯誤答案時仍看上去“非常自信且具有說服力”,很容易讓人信以為真。至于出現(xiàn)“AI幻覺”的原因,目前尚無定論,既有可能是AI在轉(zhuǎn)錄和翻譯海量數(shù)據(jù)時出現(xiàn)了偏差,也可能是其在“數(shù)據(jù)不足”時“急中生智”。
除了生成內(nèi)容的真實性、可靠性常常存疑,AI在創(chuàng)造力、想象力方面也相對“拉胯”。從現(xiàn)實來看,AI在處理社會尚未形成共識的話題,或在預(yù)測某件事情的走向時會陷入困難。據(jù)統(tǒng)計,“現(xiàn)實世界所能提供的用于訓(xùn)練AI模型的數(shù)據(jù)幾乎已消耗殆盡”,且未來人類對高質(zhì)量文本的需求量,遠(yuǎn)超數(shù)據(jù)產(chǎn)生的速度。如若人類的大腦就此“躺平”,“訓(xùn)練數(shù)據(jù)枯竭”的情況就會不斷加劇,最終要么是AI發(fā)展陷入停滯,要么是AI開始大規(guī)模自說自話,拿自己生成的似是而非的內(nèi)容訓(xùn)練自己,導(dǎo)致整條信息河流被持續(xù)污染。因而,在使用生成式AI這一工具時,我們不僅要對其生成信息多加辨別,更不能放棄思考,倘若指望其“給觀點、定決策、下結(jié)論”,就會出現(xiàn)較大問題。
人類從來都是在思考中迸發(fā)靈感,在試錯中革新向前。AI在提供前往“正確答案”的“直通車”同時,可能形成更加厚重的“信息繭房”,甚至?xí)词蓜?chuàng)新。于社會而言,要不斷完善AI相關(guān)法規(guī),最大程度爭取科技向善。于個人而言,也當(dāng)保持好奇心,提升思辨力,讓AI成為我們最有力的工具之一,而非“替代者”。
持續(xù)創(chuàng)新、科技向善、保持好奇、提升思辨