人工智能研發(fā)應(yīng)該重新專注于使當今強大、先進的系統(tǒng)更加準確安全、可解釋,讓我們享受一個漫長的人工智能之夏,而不是毫無準備地匆忙進入秋天。
今年初,隨著春天的到來,AI領(lǐng)域也百花競放,全球科技巨頭爭先恐后發(fā)布ChatGPT類相關(guān)產(chǎn)品,試圖挖掘AI的巨大價值。然而,在大模型研究熱火朝天的當下,MIT 物理系教授馬克斯·泰格馬克、牛津大學(xué)哲學(xué)教授尼克·博斯特倫創(chuàng)辦的非營利性組織未來生命研究所在其網(wǎng)站上貼出一封公開信,呼吁至少暫停6個月對下一代超級 AI 的研究,而圖靈獎得主約書亞·本吉奧、蘋果聯(lián)合創(chuàng)始人斯蒂夫·沃茲尼亞克、Stability AI 公司CEO 埃馬德·莫斯塔克以及紐約大學(xué)心理學(xué)教授加里·馬庫斯等學(xué)術(shù)權(quán)威和業(yè)界領(lǐng)袖也紛紛簽名支持。
公開信中提到,此次暫停并不代表著總體上暫停人工智能的開發(fā),而是從危險競賽中后退一步。人工智能的研究和開發(fā)應(yīng)重新聚焦于使當今強大的、最先進的系統(tǒng)變得更加準確安全、穩(wěn)健一致、透明、可解釋、可信且可靠。
紐約大學(xué)教授加里·馬庫斯表示:“這封信并不完美,但精神是正確的?!彼J為,人們需要放慢腳步,直到可以更好地理解這一切所帶來的后果。
信中詳述了具有人類水平智能的AI系統(tǒng)可能會對社會和人類帶來極大風(fēng)險,稱“這一點已得到大量研究和頂級AI實驗室的認同”,并連續(xù)拋出四個疑問:
我們是否應(yīng)該讓機器用宣傳和謊言淹沒我們的信息渠道?
我們是否應(yīng)該讓所有的工作自動化,包括那些令人滿意的工作?
我們是否應(yīng)該發(fā)展最終可能在數(shù)量上超過我們、在智能上超越我們、能夠淘汰并取代我們的非人類思維?
我們應(yīng)該冒著失去對我們文明控制的風(fēng)險嗎?
公開信指出,如相關(guān)機構(gòu)不能迅速實施此類暫停,政府應(yīng)當介入并采取措施。此外,“AI實驗室和獨立專家應(yīng)利用此次暫停,共同開發(fā)和實施一套用于高級AI設(shè)計和開發(fā)的共享安全協(xié)議,并由獨立的外部專家進行嚴格審計和監(jiān)督”。
信中還呼吁開發(fā)人員和政策制定者合作,加快強大的AI治理系統(tǒng)的開發(fā),并表示應(yīng)當設(shè)立監(jiān)管機構(gòu)、審計系統(tǒng),監(jiān)督和追蹤高性能AI系統(tǒng)造成傷害后的責(zé)任問題,為AI技術(shù)安全研究提供公共資金等。
公開信最后表示:如今,我們的社會已經(jīng)暫停其他可能造成災(zāi)難性后果的技術(shù),對于人工智能也應(yīng)當如此,“讓我們享受一個漫長的‘AI之夏’,而非毫無準備地進入秋天”。
3月30日,Open AI聯(lián)合創(chuàng)始人兼首席執(zhí)行官山姆·阿特曼發(fā)布“展望未來AGI”的短博文,疑似回應(yīng)這場風(fēng)波。他表示:“一個好的 AGI 應(yīng)該具備以下三個特點:1.對齊超級智能的技術(shù)能力;2.大多數(shù)領(lǐng)先 AGI 之間的充分協(xié)調(diào);3.一個有效的全球監(jiān)管框架?!?/p>
吳恩達與楊立昆線上討論
許多業(yè)內(nèi)人士同意,像ChatGPT這樣強大的人工智能可能會對社會造成一些傷害,但六個月的暫停開發(fā)聽起來更像是一個高貴的童話故事,沒有什么現(xiàn)實基礎(chǔ)。
從去年11月允許公眾測試Open AI的GPT-3的那一刻起,生成性人工智能的發(fā)展就像列車駛過,未曾放慢速度。而發(fā)布ChatGPT還像是打開了一個潘多拉的盒子。
隨著時間發(fā)展與GPT模型的換代升級,人們愈發(fā)習(xí)慣于向ChatGPT、谷歌的Bard和微軟New Bing詢問所有問題,需求的純粹力量迫使科技巨頭們展開競賽,爭取這個極具潛力的市場的主導(dǎo)權(quán)。
而市場力量則意味著,即使像Open AI這樣的公司想要阻止人工智能發(fā)展的步伐,也將會無能為力。
風(fēng)險投資公司Sapphire Ventures的總裁和聯(lián)合創(chuàng)始人賈伊·達斯說:“沒有誰有動力去做暫停,因為在一個自由市場社會中,每個人都在跑去搶奪更多的市場份額。神奇的力量已經(jīng)被釋放,人們沒有辦法放慢它的速度?!?/p>
達斯表示,沒有人可以阻止公司秘密研究大型語言模型或與大科技公司合作進行人工智能的研發(fā)。沒有任何實體可以在這六個月中訪問每一個開發(fā)人員,看他們是否在從事與此相關(guān)的程序工作。因此,暫停方案的執(zhí)行落地也將非常困難。
4月8日,圖靈獎得主楊立昆和機器學(xué)習(xí)領(lǐng)域權(quán)威學(xué)者吳恩達針對AI暫停公開信進行了深入討論,兩人立場鮮明,明確表態(tài)反對暫停AI研發(fā)。就像汽車剛發(fā)明時沒有安全帶和交通信號燈,楊立昆認為,人工智能與先前的技術(shù)進步之間沒有本質(zhì)上的差別。
楊立昆總結(jié)道,當下人們對AI的擔憂和恐懼可以分為兩類:第一類是“AI末日論”,即未來的AI將不受控制、逃離實驗室,甚至成為人類的終結(jié)者;而第二類則更為現(xiàn)實,即當下AI所具有的偏見、公平性和權(quán)力集中等問題。
對于第一類擔憂,他和吳恩達都一致認為,現(xiàn)有AI完全達不到此種水平,所謂的未來依舊遙不可及。
兩人同時贊成,雖然近年來AI 取得了巨大進步,但現(xiàn)在的模型離完美還相差甚遠。ChatGPT讓人們玩得不亦樂乎,而這造成了一種錯覺,讓人們以為具有人類智能的AI已經(jīng)不再臨近,但事實上,這些系統(tǒng)完全通過文本訓(xùn)練,沒有任何真實的經(jīng)驗,對現(xiàn)實的理解十分膚淺。即使是GPT-4 也很少利用圖像訓(xùn)練,而這導(dǎo)致它們有時會一本正經(jīng)地胡說八道。
楊立昆表示,在未來的幾十年間,擁有人類智能或超越人類智能的系統(tǒng)將會出現(xiàn),但這絕不會馬上實現(xiàn)。因此,必須先設(shè)計出有機會達到人類智能的AI,再來討論如何保證它們的安全,否則討論將為時過早。他舉例道,如果汽車都不存在,如何設(shè)計安全帶?如果都沒有發(fā)明飛機,怎么設(shè)計安全的噴氣式引擎?
馬斯克參與電視采訪
同時,楊立昆表示,人們確實需要應(yīng)對 AI 的潛在危害,比如讓 AI 系統(tǒng)可控,提供更真實、無害的信息。但是,未來的AI系統(tǒng)不會依照與當前的自回歸 LLM(如GPT-4)或其他系統(tǒng)(如 Galactica 或 Bard等)相同的藍圖設(shè)計。研究人員會產(chǎn)生一些新的想法,使系統(tǒng)更加可控。因此,問題就變成了如何使系統(tǒng)遵循與人類價值觀、政策一致的目標。他認為,人類擁有足夠的智慧設(shè)計超級智能系統(tǒng),卻沒有足夠智慧設(shè)計好的目標的概率很低。他問道,目前的AI產(chǎn)品由少數(shù)公司生產(chǎn),這些公司將會獲得怎樣的權(quán)力和影響力?會對經(jīng)濟產(chǎn)生怎樣的影響?是否存在內(nèi)在的風(fēng)險?而這些問題也指向了他的結(jié)論,即可以有適當?shù)漠a(chǎn)品監(jiān)管,但不應(yīng)停止研發(fā)。
他重申,當一項新技術(shù)投入使用時,我們需要做的是確保積極的影響最大化,消極的影響最小化,但這并不代表要阻止它。阻止一種可以增強人類智能的系統(tǒng),實際上是在阻礙人類進步。人工智能將放大人類智能,這將會是新的“文藝復(fù)興”,一種新的啟蒙運動,為何要阻止它?
吳恩達也表示,人們不應(yīng)因噎廢食。即使人工智能系統(tǒng)確實有著為人們帶來損害的風(fēng)險,然而,AI 也會創(chuàng)造巨大的價值。在過去幾年,大量的人工智能創(chuàng)意被用于教育、醫(yī)療等行業(yè)。即使如今有 GPT-4如此優(yōu)越的模型,但構(gòu)建一個更好的模型還是會幫助這些應(yīng)用更好地助人,而中止這樣的進步顯然不利于創(chuàng)造這些對人類大有助益的工具。
雖然馬斯克在公開信上簽署了自己的名字,然而,4月17日,他在接受采訪時宣布,他將推出一個名為TruthGPT的類ChatGPT應(yīng)用。因為相較于OpenAI的ChatGPT和谷歌的Bard,他想要進一步放寬聊天機器人的文本限制,尤其減少對內(nèi)容、爭議話題的限制。目前,TruthGPT已上線投入使用。
馬斯克表示,TruthGPT 將是一個 “最大限度地尋求真相,并試圖理解宇宙本質(zhì)的人工智能”,在他眼中,“這可能是人工智能往更安全方向發(fā)展的最佳途徑,因為一個心系宇宙的人工智能不太可能消滅人類,而這則是因為人類是宇宙中一個有趣的部分”。
同時,馬斯克在采訪中表示:“人工智能比管理不善的飛機設(shè)計、生產(chǎn)或維護,以及糟糕的汽車生產(chǎn)更危險,因為它有可能——無論人們?nèi)绾慰创@種概率,但它并非微不足道——造成文明的毀滅。”
除開發(fā)TruthGPT與Open AI、微軟、谷歌正面交鋒外,馬斯克還建立了自己的人工智能公司,馬不停蹄地加入了這場人工智能的“軍備競賽”。
目前,馬斯克在內(nèi)華達州注冊了一家名為X.AI的新 AI 公司,并擔任唯一董事。據(jù)知情人士透露,新 AI 公司與他的其他公司并不相關(guān),但這家公司可以使用推特的內(nèi)容來訓(xùn)練其語言模型,也可以利用特斯拉的計算資源。
除了創(chuàng)建公司,馬斯克還購置了訓(xùn)練大模型必備的高性能芯片—— 1 萬張英偉達A100 GPU芯片。據(jù)悉,Open AI 就是使用英偉達的 A100 GPU芯片來訓(xùn)練ChatGPT,并支撐其后續(xù)運行和推理。
而在人員方面,馬斯克正組建一個由 AI 研究人員和工程師組成的團隊,他從谷歌的 AI 部門 DeepMind 挖掘大模型專家。至少從今年 2 月開始,他一直在積極物色 AI 領(lǐng)域人才,希望與 Open AI、谷歌等公司展開競爭。