何承波
一時間,全世界都試圖給ChatGPT 踩剎車。
3月31日,意大利個人數據保護局(DPA)宣布暫停ChatGPT 在境內運行。這引起了歐盟國家的警覺,德國、法國和愛爾蘭等國,也找到了意大利,尋求更多關于禁令的信息。雖無明確封殺計劃,至少給如火如荼的ChatGPT,澆了一盆冷水。
隱私問題不過隔靴搔癢。ChatGPT 還面臨更大的麻煩。3月底,未來生命研究所的官網上,刊出了一封公開信,明確呼吁暫停訓練比GPT-4 更強的人工智能技術。
截至4月10日,已有18980名科學家、研究者和相關從業(yè)者簽了名,個個都是一頂一的大佬:圖靈獎得主Yoshua Bengio、蘋果聯(lián)合創(chuàng)始人Steve Wozniak、Stability AI 的首席執(zhí)行官Emad Mostaque 等。這種場合自然少不了馬斯克,他在簽字名單上排第三。
公開信稱,具備類人智能的 AI 系統(tǒng),很可能對社會和人類構成深遠風險?,F在的AI進步,已經連創(chuàng)造者自己都無法理解、預測或可靠地加以控制。所以,在大失控之前,人類應該考慮怎么進行AI 的治理與審查。
在對人類的模仿中,人工智能走向了屬于它自己的未來。
短短幾個月,人工智能無處不在,ChatGPT 已經不能用“爆火”來形容了,說是“狂熱”也不為過。有人看到了真正的數字文明;有人憧憬全新的人類紀元。有人說我們來到AI 垃圾信息的時代;有人認為,AI終結了論文的寫作,動搖了白領的工作。還有所有人津津樂道的:AI 進入了自我涌現時代,新的智能生命就要誕生了。
OpenAI CEO 奧特曼還坦然承認,他們團隊也搞不懂ChatGPT是如何進化的,甚至還拋出一些危險言論:“AI 確實可能殺死人類。”
恐懼,興奮,不確定。但我們忽略了一個簡單的事實,ChatGPT 現階段并沒有想象中那么好用,它善于編造虛假信息,邏輯和事實總是出錯。
我們也忽略了一個更基本的事實:類似ChatGPT 的產品,本質工作是預測語言。它們喋喋不休,或者長篇大論,都是在大型數據集中提取統(tǒng)計模式。什么意思?本質上,它基于一種統(tǒng)計學,預測人類使用某個字與下一個字的關聯(lián)。“統(tǒng)計學”的工作,見諸互聯(lián)網各個角度,浩瀚的、數以萬億計的文字材料,都是它預測的養(yǎng)分,包括前述意大利封殺ChatGPT 的新聞報道、未來生命研究所的公開信,還有馬斯克在社交媒體販賣的人工智能恐慌。
關于人工智能,統(tǒng)計學就這樣形成了一種顯著性:我們越傾向于談論什么,人工智能就越容易展現這種傾向。畢竟,這些內容,正是它進化的養(yǎng)料。
換句話說,它不會兀自進化,是在對人類的模仿中,人工智能走向了屬于它自己的未來。
如果一種智能生命終將誕生,那它不是來自別的,而是隱藏于我們的想象,還有我們的譫妄。