自生成式人工智能熱潮掀起以來(lái),科技公司一直在努力地為這項(xiàng)技術(shù)開(kāi)發(fā)殺手級(jí)應(yīng)用程序。最開(kāi)始是在線搜索,目前的情況是喜憂參半?,F(xiàn)在輪到了人工智能助手。
OpenAI、Meta和谷歌為他們的人工智能聊天機(jī)器人推出了新功能,允許它們聯(lián)網(wǎng)并扮演某種私人助理。
據(jù)威爾·道格拉斯·海文報(bào)道,OpenAI為ChatGPT加入了新功能,其中包括與聊天機(jī)器人進(jìn)行對(duì)話的能力,就像在打電話一樣,它可以用逼真的合成聲音即時(shí)回答你口頭提題。OpenAI還透露,ChatGPT將能夠搜索網(wǎng)絡(luò)內(nèi)容。
作為競(jìng)爭(zhēng)對(duì)手,谷歌Bard聊天機(jī)器人已接入該公司的大部分生態(tài)系統(tǒng),包括Gmail、Docs、YouTube和地圖。其目標(biāo)是,人們將能夠使用聊天機(jī)器人詢查詢自己的信息,例如,讓它搜索電子郵件或整理日常安排。
Bard還將能夠立即從谷歌搜索中檢索信息。類似地,Meta也宣布,它也將部署人工智能聊天機(jī)器人。用戶將能夠在WhatsApp、Messenger和Instagram上向人工智能聊天機(jī)器人和名人的人工智能虛擬化身提問(wèn),人工智能模型可以從必應(yīng)搜索中在線檢索信息。
考慮到技術(shù)的局限性,這是一個(gè)冒險(xiǎn)的行為。科技公司還沒(méi)有解決人工智能語(yǔ)言模型的一些存在已久的問(wèn)題,比如他們有編造東西或“產(chǎn)生幻覺(jué)”的傾向。
科技公司正在將這項(xiàng)存在嚴(yán)重缺陷的技術(shù)交到數(shù)百萬(wàn)人的手里,并允許人工智能模型訪問(wèn)他們的電子郵件、日歷和私人信息等敏感信息。在這個(gè)過(guò)程中,他們使我們都更容易遭遇大規(guī)模的詐騙、網(wǎng)絡(luò)釣魚和黑客攻擊。
現(xiàn)在,人工智能助手可以訪問(wèn)個(gè)人信息并同時(shí)搜索網(wǎng)絡(luò),他們特別容易受到一種稱為間接提示注入的攻擊。它非常容易實(shí)現(xiàn),而且沒(méi)有已知的修復(fù)方法。
人工智能系統(tǒng)可能會(huì)被惡意操縱,允許攻擊者嘗試提取人們的信用卡信息。隨著新一代人工智能模型接入社交媒體和電子郵件,黑客有了更多漏洞可鉆。
向OpenAI、谷歌和Meta詢問(wèn),問(wèn)他們做了什么來(lái)抵御提示注入攻擊和“幻覺(jué)”傾向等問(wèn)題,但Meta和OpenAI沒(méi)有回復(fù)。
關(guān)于人工智能的幻覺(jué)傾向,谷歌的一位發(fā)言人表示,該公司發(fā)布Bard是一項(xiàng)“實(shí)驗(yàn)”,它允許用戶使用谷歌搜索來(lái)核實(shí)給出的答案。
“如果用戶發(fā)現(xiàn)了編造或不準(zhǔn)確的東西,我們鼓勵(lì)他們點(diǎn)擊‘不喜歡’圖標(biāo)并提供反饋。這是Bard學(xué)習(xí)和改進(jìn)的一種方式。”顯然,這種方法讓用戶承擔(dān)了發(fā)現(xiàn)錯(cuò)誤的責(zé)任,然而人們往往過(guò)于信任計(jì)算機(jī)產(chǎn)生的回應(yīng)。關(guān)于我提出的抵御提示注入的問(wèn)題,谷歌表示目前還沒(méi)有答案。
對(duì)于提示注入,谷歌表示這個(gè)問(wèn)題還沒(méi)有一個(gè)好的解決方案,仍然是一個(gè)活躍的研究領(lǐng)域。該發(fā)言人表示,該公司正在使用垃圾郵件過(guò)濾器等其他系統(tǒng)來(lái)識(shí)別和過(guò)濾可能的攻擊,并正在進(jìn)行對(duì)抗性測(cè)試和紅隊(duì)演練,以確定惡意行為者可能如何攻擊基于語(yǔ)言模型的產(chǎn)品?!拔覀冋谑褂媒?jīng)過(guò)專門訓(xùn)練的模型,來(lái)幫助識(shí)別違反我們政策的已知惡意輸入和不安全輸出?!?/p>
每次新產(chǎn)品發(fā)布都會(huì)有經(jīng)過(guò)一段時(shí)間的磨合。但即使是人工智能語(yǔ)言模型產(chǎn)品的早期支持者,對(duì)這些產(chǎn)品也沒(méi)有什么好印象,這很說(shuō)明問(wèn)題?!都~約時(shí)報(bào)》專欄作家凱文·羅斯發(fā)現(xiàn),谷歌的助理善于總結(jié)電子郵件,但也會(huì)告訴他收件箱里不存在的電子郵件。
簡(jiǎn)而言之,科技公司不應(yīng)該對(duì)所謂的人工智能工具的“必然性”如此自滿。普通人不會(huì)喜歡那些經(jīng)常犯錯(cuò)和失敗的產(chǎn)品,尤其是其背后的技術(shù)總是以令人討厭和不可預(yù)測(cè)的方式失效。距離看到黑客惡意使用這些新的人工智能助手只是時(shí)間問(wèn)題?,F(xiàn)在只能坐以待斃。