亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        ChatGPT開啟AI新紀(jì)元

        2023-04-25 17:11:33楊智杰霍思伊
        中國(guó)新聞周刊 2023年14期
        關(guān)鍵詞:人工智能能力模型

        楊智杰 霍思伊

        美國(guó)東部時(shí)間3月28日,未來生命研究所發(fā)表一封公開信,呼吁所有AI實(shí)驗(yàn)室立即暫停研發(fā)比GPT-4能力更強(qiáng)大的AI系統(tǒng),時(shí)長(zhǎng)至少為6個(gè)月。截至4月9日,這封公開信已收到超過5萬(wàn)個(gè)簽名。

        這次發(fā)布的公開信指出,近幾個(gè)月,全球人工智能實(shí)驗(yàn)室“陷入一場(chǎng)失控的競(jìng)爭(zhēng)”,以開發(fā)更強(qiáng)大的AI大模型,開發(fā)者乃至所有人都無(wú)法理解、預(yù)測(cè)或可靠控制這個(gè)AI系統(tǒng)。AI開發(fā)人員必須與政策制定者合作,以顯著加快開發(fā)強(qiáng)大的AI治理系統(tǒng)。

        4月11日,中國(guó)國(guó)家網(wǎng)信辦就《生成式人工智能服務(wù)管理辦法(征求意見稿)》征求意見,提出提供生成式人工智能產(chǎn)品或服務(wù)應(yīng)當(dāng)遵守法律法規(guī)的要求,尊重社會(huì)公德、公序良俗。

        ChatGPT在2022年11月推出后,在全球掀起熱潮,谷歌、亞馬遜及國(guó)內(nèi)百度、阿里等一眾大廠展開一場(chǎng)AI軍備競(jìng)賽,致力于開發(fā)自己的大模型。OpenAI今年3月推出更高級(jí)別的大模型GPT-4,同時(shí)也在研發(fā)GPT-5。

        4月10日下午,搜狗創(chuàng)始人王小川正式投身AI大模型的競(jìng)賽,創(chuàng)辦公司百川智能,并稱 “年底前發(fā)布對(duì)標(biāo)GPT-3.5的大模型”。同一天,商湯科技公布“日日新SenseNova”大模型體系。更早前,美團(tuán)聯(lián)合創(chuàng)始人王慧文創(chuàng)辦光年之外。以ChatGPT為代表的大模型產(chǎn)品是否是AI發(fā)展的未來,又是否是通往通用人工智能的路徑?面對(duì)人工智能的全面來襲,我們?cè)摽只艈幔?h3>歐盟正制定《人工智能法案》

        “讓我們享受一個(gè)漫長(zhǎng)的AI之夏,而不是毫無(wú)準(zhǔn)備陷入秋天。”公開信的結(jié)尾這樣寫道。公開信中,研究者們擔(dān)心,AI生成的謊言將充斥信息渠道,自動(dòng)化替代所有工作,進(jìn)化中的AI未來可能會(huì)超越乃至取代人類的思維,甚至讓人類失去對(duì)文明的控制。

        未來生命研究所是位于美國(guó)馬薩諸塞州的非營(yíng)利組織,致力于推動(dòng)AI負(fù)責(zé)任地發(fā)展,2018年,這一組織曾讓SpaceX創(chuàng)始人埃隆·馬斯克、谷歌旗下AI實(shí)驗(yàn)室DeepMind等一眾AI從業(yè)者與機(jī)構(gòu)簽字承諾,永不開發(fā)殺手機(jī)器人。這次公開信獲得的簽名支持,包括2018年圖靈獎(jiǎng)得主、“深度學(xué)習(xí)三巨頭”之一的約書亞·本吉奧,“AI領(lǐng)域最好的教科書”《人工智能:現(xiàn)代方法》的聯(lián)合作者斯圖爾特·羅素,以及曾是OpenAI創(chuàng)始人的馬斯克等。

        中科院自動(dòng)化研究所人工智能倫理與治理研究中心研究員曾毅也在公開信上簽了名,他告訴《中國(guó)新聞周刊》,呼吁者最擔(dān)心兩點(diǎn),一方面,技術(shù)將對(duì)社會(huì)產(chǎn)生哪些潛在影響,人類對(duì)此還沒有做好準(zhǔn)備;另一方面,AI大模型生成的一些內(nèi)容仍具有偏見和危害,不少AI大模型在開發(fā)時(shí)缺乏倫理安全框架。

        曾毅強(qiáng)調(diào),“AI末世論”不是當(dāng)下需要擔(dān)心的重點(diǎn)。OpenAI并沒有表明目前GPT-4是通用人工智能,但“并非通用人工智能真正到來時(shí),人類的文明才會(huì)失控”。在他看來,ChatGPT成為用戶獲取知識(shí)的一種工具。開發(fā)者為大模型投喂互聯(lián)網(wǎng)級(jí)別的數(shù)據(jù),輸出端面對(duì)的又是開放性提問,這意味著不確定性大幅增加。多位業(yè)內(nèi)人士認(rèn)同,目前AI技術(shù)帶來了巨大風(fēng)險(xiǎn),但人類對(duì)此準(zhǔn)備不足。面對(duì)數(shù)學(xué)、編程、歸因等各類問題時(shí)編造與事實(shí)無(wú)關(guān)的答案,產(chǎn)生“幻覺”,是GPT-4等大模型最受詬病的缺陷,更關(guān)鍵的是,機(jī)器在呈現(xiàn)錯(cuò)誤答案時(shí)仍看上去非?!白孕徘揖哂姓f服力”。

        大模型生成內(nèi)容時(shí),“幻覺”并不都是壞事,但代價(jià)是,如果沒有小心審查,錯(cuò)誤的信息將在互聯(lián)網(wǎng)上蔓延。人工智能公司小冰CEO李笛向《中國(guó)新聞周刊》舉例,假如大模型生成內(nèi)容中,編造的信息只有10%,如果一天中有一億次的并發(fā)(單位時(shí)間內(nèi)系統(tǒng)同時(shí)處理的請(qǐng)求數(shù)),便會(huì)產(chǎn)生1000萬(wàn)條假消息,如果被一些自媒體或個(gè)人不加審核就投放到市場(chǎng),幾輪轉(zhuǎn)發(fā)后,人們便難以追溯假新聞來源。目前AI大模型的問題,不在于它會(huì)不會(huì)出錯(cuò)、它的能力比人類強(qiáng),而是并發(fā)太高,加上AI極強(qiáng)的說服能力,會(huì)造成更嚴(yán)重的后果。

        近期,大模型開始被指控侵犯?jìng)€(gè)人數(shù)據(jù)隱私。3月30日,韓國(guó)有媒體報(bào)道,三星內(nèi)部發(fā)生三起涉及ChatGPT誤用與濫用案例,包括兩起“設(shè)備信息泄露”和一起“會(huì)議內(nèi)容泄露”,三星公司擔(dān)心,在ChatGPT輸入內(nèi)容后,可能會(huì)讓敏感內(nèi)容外泄。當(dāng)?shù)貢r(shí)間3月31日,意大利宣布禁止使用ChatGPT,起因是一周前,多名ChatGPT用戶表示看到其他人與ChatGPT對(duì)話記錄的標(biāo)題。意大利官方認(rèn)為,OpenAI沒有提前告知、非法收集用戶個(gè)人信息,對(duì)OpenAI立案調(diào)查,并要求公司作出回應(yīng)。4月初,德國(guó)、愛爾蘭、加拿大等相繼開始關(guān)注ChatGPT的數(shù)據(jù)安全問題。

        當(dāng)?shù)貢r(shí)間4月5日,OpenAI在官網(wǎng)發(fā)布文章,詳細(xì)介紹了公司在AI安全上的部署,回應(yīng)相關(guān)爭(zhēng)議,措施包括模型發(fā)布前構(gòu)建完整的AI安全體系,從用戶實(shí)際使用中積累經(jīng)驗(yàn)以改善安全措施,保護(hù)兒童,尊重隱私,提高事實(shí)準(zhǔn)確性等。文中特別提到,公司將努力在可行情況下,從訓(xùn)練數(shù)據(jù)集中刪除個(gè)人信息,對(duì)模型微調(diào)以拒絕有關(guān)使用者個(gè)人信息的請(qǐng)求等。

        這封公開信呼吁暫停對(duì)超過GPT-4能力的大模型的研發(fā),換句話說,目前絕大多數(shù)大模型研發(fā)者并不會(huì)面臨上述挑戰(zhàn),OpenAI仍是眾矢之的。

        4月10日,OpenAI CEO山姆·阿爾特曼在東京會(huì)見日本首相岸田文雄后接受媒體采訪。圖/視覺中國(guó)

        并非所有人都同意公開信的內(nèi)容。當(dāng)?shù)貢r(shí)間3月30日,當(dāng)前人工智能和機(jī)器學(xué)習(xí)領(lǐng)域最頂級(jí)的學(xué)者之一、谷歌大腦的締造者吳恩達(dá)連發(fā)4條推特,表達(dá)反對(duì)意見,他認(rèn)為呼吁暫停研發(fā)的行為是“一個(gè)可怕的想法”,圍繞大模型開發(fā)過程中的透明度和審計(jì)方式,制定法規(guī),才是更實(shí)用且有效的做法。當(dāng)?shù)貢r(shí)間4月7日,2018年圖靈獎(jiǎng)另一位得主、Meta首席科學(xué)家楊立昆在一場(chǎng)直播中表達(dá)了相似的觀點(diǎn),支持監(jiān)管相關(guān)AI產(chǎn)品,但不應(yīng)該監(jiān)管研究和開發(fā)。

        多位受訪AI從業(yè)者認(rèn)為,公開信建議的措施都難以落地。比如說,對(duì)AI生成的內(nèi)容加水印。吳恩達(dá)表示,對(duì)于想利用AI生成的內(nèi)容偽裝、造假的行為,增加水印會(huì)構(gòu)成一定阻礙,但他對(duì)這一方案廣泛應(yīng)用并不樂觀。這可能會(huì)讓提供商在激烈的競(jìng)爭(zhēng)中落后——用戶更傾向于使用沒有水印的AI系統(tǒng),從而影響企業(yè)的積極性。

        此前,OpenAI在相關(guān)AI倫理安全領(lǐng)域做了許多工作。媒體曾報(bào)道,OpenAI在非洲肯尼亞雇傭工人,對(duì)AI輸出的暴力、性別歧視和種族主義言論進(jìn)行標(biāo)注,盡管這一做法被視為對(duì)當(dāng)?shù)厝嗽斐蓸O大心理創(chuàng)傷,卻能清洗不少大模型輸出的有害數(shù)據(jù)。此外,GPT-4在2022年8月已完成訓(xùn)練,OpenAI對(duì)其安全風(fēng)險(xiǎn)進(jìn)行了6個(gè)月調(diào)整,引入50多名專家測(cè)試,同時(shí)加入人類偏好訓(xùn)練提示、獎(jiǎng)勵(lì)模式等。

        公開信發(fā)布后,針對(duì)大模型的倫理安全問題,曾毅所在的中科院自動(dòng)化研究所人工智能倫理與治理研究中心等在國(guó)內(nèi)發(fā)起線上調(diào)查,截至4月4日,全國(guó)超過500人參加,90%參與者認(rèn)為,為社會(huì)服務(wù)的每一個(gè)AI大模型,都必須實(shí)現(xiàn)倫理安全治理框架。“這不應(yīng)是一個(gè)可選項(xiàng),而是大模型賦能社會(huì)前必須要做的工作?!痹憬ㄗh,每個(gè)AI開發(fā)機(jī)構(gòu)都應(yīng)構(gòu)建一個(gè)可技術(shù)落地的、有關(guān)人工智能安全自動(dòng)化檢測(cè)的系統(tǒng)或平臺(tái)。多位受訪者表示,這不能僅靠機(jī)構(gòu)自律,AI在應(yīng)用階段仍需有更完善的法律、法規(guī)的監(jiān)管。

        4月11日,中國(guó)國(guó)家網(wǎng)信辦起草的《生成式人工智能服務(wù)管理辦法(征求意見稿)》,開始向社會(huì)公開征求意見。圍繞近期生成式AI最受質(zhì)疑的內(nèi)容不準(zhǔn)確、侵犯?jìng)€(gè)人隱私等問題,《辦法》要求開發(fā)者采取措施,對(duì)訓(xùn)練數(shù)據(jù)來源的合法性負(fù)責(zé),不得非法留存能夠推斷出用戶身份的輸入信息等。

        曾毅向《中國(guó)新聞周刊》介紹,目前,國(guó)內(nèi)在人工智能領(lǐng)域頂層設(shè)計(jì)上有治理原則,但沒有相關(guān)法律,對(duì)于AI的倫理安全只是非強(qiáng)制性約束。此外,他參與國(guó)內(nèi)一些人工智能相關(guān)管理文件制定時(shí)注意到,一些管理辦法只是限制研究行為,在應(yīng)用層面的治理卻是空白。因此,國(guó)內(nèi)對(duì)人工智能的監(jiān)管在法規(guī)和實(shí)施管理上仍需要加強(qiáng)。

        一直在AI立法方面走在前列的歐盟正在制定一項(xiàng)《人工智能法案》,該法案正在歐洲議會(huì)討論,預(yù)計(jì)將于4月26日投票,其核心是基于人工智能的風(fēng)險(xiǎn)等級(jí)進(jìn)行分類監(jiān)管。但有分析指出,如何定義“高風(fēng)險(xiǎn)AI系統(tǒng)”是一個(gè)復(fù)雜而困難的決策過程。

        AI的“iPhone時(shí)刻”?

        2018年起,清華大學(xué)人工智能研究院常務(wù)副院長(zhǎng)、清華大學(xué)計(jì)算機(jī)系自然語(yǔ)言處理與社會(huì)人文計(jì)算實(shí)驗(yàn)室(THUNLP)負(fù)責(zé)人孫茂松帶領(lǐng)團(tuán)隊(duì)開始研究大規(guī)模語(yǔ)言模型。THUNLP是國(guó)內(nèi)最早開展自然語(yǔ)言處理研究且極具影響力的科研機(jī)構(gòu)。

        這一年,谷歌推出預(yù)訓(xùn)練模型BERT,OpenAI推出GPT-1,預(yù)訓(xùn)練語(yǔ)言模型成為自然語(yǔ)言處理任務(wù)的主流范式。開發(fā)者靠不斷擴(kuò)大參數(shù)規(guī)模,提升AI的能力,比如2019年OpenAI推出參數(shù)為15億的GPT-2,2020年推出GPT-3,將參數(shù)提升到了1750億。

        “當(dāng)時(shí)我們?cè)谟懻撨@條路能走多遠(yuǎn),即數(shù)據(jù)和模型規(guī)模的增大,會(huì)不會(huì)達(dá)到一個(gè)飽和點(diǎn),能力趨于極限。結(jié)果不但沒有飽和,反而出現(xiàn)了質(zhì)的提升。”孫茂松告訴《中國(guó)新聞周刊》。大模型的能力在2020年GPT-3推出時(shí)已經(jīng)顯現(xiàn),但仍主要是完成特定任務(wù),缺乏隨機(jī)應(yīng)變的能力。直到ChatGPT出現(xiàn),在性能上有了一個(gè)質(zhì)的飛躍,顯示出了某些通用人工智能的特質(zhì)。

        ChatGPT發(fā)布后,孫茂松在一次測(cè)試中讓ChatGPT寫一首五言絕句,ChatGPT寫得并不完全合乎對(duì)仗、押韻的要求。但是讓孫茂松驚喜的是,當(dāng)他問道,“你覺得哪一句寫得好?”機(jī)器回復(fù),第二句,并分析因?yàn)槠渲袃蓚€(gè)詞表達(dá)了什么情感,兩者之間的關(guān)聯(lián)。孫茂松進(jìn)一步表示,“我認(rèn)為第四句更好”,ChatGPT隨后對(duì)第四句進(jìn)行了賞析。2015年起,他曾研發(fā)過一個(gè)人工智能詩(shī)歌寫作系統(tǒng)“九歌”,2017年面世。想要讓AI寫詩(shī),他先要設(shè)計(jì)好一個(gè)小模型,輸入詩(shī)歌類數(shù)據(jù)時(shí),需要詳細(xì)標(biāo)注出一首詩(shī)每句的順序,之后在向AI提問時(shí),它才會(huì)挑出某一句來分析。

        “現(xiàn)在不用教它,它能回答出來。我們測(cè)試ChatGPT的能力,不用多,只要兩三個(gè)例子就知道,國(guó)內(nèi)現(xiàn)在AI大模型做不出這一效果。”在孫茂松看來,ChatGPT的誕生,意味著人工智能迎來拐點(diǎn),也將是未來5~10年人工智能發(fā)展的必然趨勢(shì)。

        2016年,AlphaGo打敗圍棋世界冠軍李世石,讓公眾為人工智能深度學(xué)習(xí)的能力感到振奮,但之后,AI的發(fā)展陷入寒冬。多位受訪者表示,ChatGPT展現(xiàn)的能力與AlphaGo有本質(zhì)差別。國(guó)內(nèi)人工智能公司出門問問CEO李志飛告訴《中國(guó)新聞周刊》,AlphaGo的表現(xiàn),是在有清晰的規(guī)則、不涉及與復(fù)雜世界交互、相對(duì)簡(jiǎn)單的環(huán)境下發(fā)生的。但ChatGPT背后的大模型,展現(xiàn)了語(yǔ)言、知識(shí)、邏輯推理等人類通用的技能,并讓人們親身感受到。

        “ChatGPT展現(xiàn)的能力非常實(shí)用,與每個(gè)人的生活與工作密切相關(guān),這是人工智能發(fā)展70多年來從未達(dá)到過的時(shí)刻。”THUNLP副教授劉知遠(yuǎn)告訴《中國(guó)新聞周刊》,但最終ChatGPT是人們生活中必不可少的工具,還是會(huì)誕生另一種形態(tài)的產(chǎn)品,有待商榷。

        當(dāng)?shù)貢r(shí)間3月21日,英偉達(dá)CEO黃仁勛在春季開發(fā)者大會(huì)上,公開了兩款為AI大模型提供動(dòng)力的新款芯片,并三次激動(dòng)地說,“我們正處于AI的‘iPhone時(shí)刻”。

        李笛對(duì)AI大模型的看法更為冷靜。他認(rèn)為,過去5年自然語(yǔ)言處理技術(shù)的發(fā)展面臨很大壓力,比如機(jī)器難以理解人的意圖,知識(shí)圖譜的效果不理想,AI大模型解決了這些瓶頸。但嘗試將它與某個(gè)時(shí)代對(duì)標(biāo),“或多或少處于各自(商業(yè)或事業(yè))發(fā)展的考量”。

        在李笛看來,相比GPT-3.5,GPT-4并沒有涌現(xiàn)新的能力,比如突破GPT-3.5時(shí)期邏輯思維的方式等。依據(jù)AI過去每一輪浪潮的發(fā)展,他判斷,“目前的AI大模型已經(jīng)面臨瓶頸,行業(yè)很快會(huì)基于(ChatGPT)的創(chuàng)新,進(jìn)入到焦灼的競(jìng)爭(zhēng)狀態(tài),直到下一次創(chuàng)新到來?!?/p>

        近期,OpenAI發(fā)布GPT-4和ChatGPT插件功能,都意圖明顯指向了商業(yè)應(yīng)用。OpenAI推出ChatGPT的插件功能,用戶可以安裝插件,拓展AI應(yīng)用的邊界。在此之前,ChatGPT的知識(shí)只停留在2021年,如今可以與5000多個(gè)第三方插件交互,實(shí)現(xiàn)聯(lián)網(wǎng),查看體育比分、股票等實(shí)時(shí)信息,檢索公司或個(gè)人文檔,還可以訂機(jī)票、訂餐。

        有網(wǎng)友在ChatGPT接入數(shù)學(xué)知識(shí)引擎Wolfram Alpha插件后注意到,其與ChatGPT對(duì)話時(shí),Wolfram會(huì)在涉及數(shù)學(xué)相關(guān)知識(shí)時(shí)現(xiàn)身作答,并同時(shí)在后臺(tái)不斷與GPT系統(tǒng)對(duì)話和修正結(jié)果,即實(shí)現(xiàn)機(jī)器間的會(huì)話。這被業(yè)內(nèi)視為ChatGPT打造出了“APP Store”,開始變成一個(gè)無(wú)所不能的業(yè)務(wù)生態(tài)系統(tǒng)。有專家認(rèn)為,未來GPT-3.5和GPT-4的應(yīng)用場(chǎng)景會(huì)增加很多,可能會(huì)顛覆現(xiàn)有的許多服務(wù)。

        ChatGPT推出后,一度引發(fā)全球教育界的強(qiáng)烈抵制。伴隨著大模型的熱潮,更多人開始重新思考教育與ChatGPT的關(guān)系,并認(rèn)為與其將ChatGPT定性為作弊手段,不如讓老師給學(xué)生展現(xiàn)ChatGPT如何發(fā)揮作用,并保證每個(gè)學(xué)生的獨(dú)立思考能力。

        孫茂松認(rèn)為,AI大模型展現(xiàn)的分析能力,如果利用得當(dāng),可以成為一名優(yōu)秀的“智能助教”,幫助人們隨時(shí)隨地學(xué)習(xí)。美國(guó)芝加哥的一位高中生曾對(duì)媒體分享了使用ChatGPT的體驗(yàn):輔助做作業(yè)時(shí),ChatGPT能幫他更快、更好地收集和理解主題,他還嘗試把ChatGPT當(dāng)做一名程序員,向他學(xué)習(xí)如何寫代碼。

        2月1日,瑞士日內(nèi)瓦,一些高中教師們參加一場(chǎng)由公共教育部門組織的ChatGpt研討會(huì)。圖/視覺中國(guó)

        OpenAI的官方演示中,GPT-4還能假裝自己是“以蘇格拉底風(fēng)格回應(yīng)的導(dǎo)師”,不給學(xué)生確定的答案,而是將問題拆分成更簡(jiǎn)單的部分,幫助學(xué)生獨(dú)立思考。在該模式下,GPT-4循循善誘,幫助使用者解出了一個(gè)二元一次方程組。

        AI不應(yīng)該取代老師,一些老師開始嘗試讓AI輔助教課,比如生成教學(xué)大綱、生成對(duì)學(xué)生階段性學(xué)習(xí)的評(píng)估問題,或是生成高質(zhì)量的教學(xué)案例,不過,這考驗(yàn)著使用者能否問出好的問題。好的Prompt(提示詞)就像是一個(gè)咒語(yǔ),能讓ChatGPT發(fā)揮最大潛力。有老師考慮到學(xué)生能力的不一,希望ChatGPT給每個(gè)學(xué)生量身定制差異化作業(yè),便要求ChatGPT“創(chuàng)建一項(xiàng)作業(yè),對(duì)于在該學(xué)科知識(shí)上有深刻理解的學(xué)生來說具有挑戰(zhàn)性,但對(duì)于那些不擅長(zhǎng)這門課的學(xué)生,可以給予一些幫助”。

        與此同時(shí),ChatGPT將會(huì)對(duì)更多工作造成沖擊。3月,高盛發(fā)布一份研究報(bào)告顯示,以ChatGPT為代表的生成式AI產(chǎn)品,具有超強(qiáng)智能自動(dòng)化能力,將來會(huì)實(shí)現(xiàn)“人機(jī)協(xié)作”的工作模式。根據(jù)數(shù)千種職業(yè)通常執(zhí)行的任務(wù)數(shù)據(jù),高盛計(jì)算出美國(guó)和歐洲大約2/3的工作受到了生成式AI自動(dòng)化的影響,行政和法律從業(yè)者最容易被機(jī)器代替,而像建筑、維修、清潔等體力型職業(yè)受影響較小。

        AI倫理專家呼吁,業(yè)內(nèi)長(zhǎng)期討論的是“有限度地使用AI”,并非所有工作都應(yīng)該被AI取代。實(shí)際上,這個(gè)浪潮并不以個(gè)人意志轉(zhuǎn)移。但劉知遠(yuǎn)告訴《中國(guó)新聞周刊》,未來AI仍然只是人的工具,人類應(yīng)將ChatGPT作為一個(gè)外部的知識(shí)庫(kù)充分利用,更重要的是,“人類快速吸收和利用這些信息,接受ChatGPT提供的啟發(fā),去做更有創(chuàng)新性的工作,這也是人類特有的能力”。

        “煉大模型”風(fēng)潮

        一個(gè)有趣的說法是,ChatGPT被推出后, AI世界被劃分成了兩派:OpenAI和追趕OpenAI的公司,全球科技公司掀起了“煉大模型”的風(fēng)潮。

        李志飛畢業(yè)于美國(guó)約翰霍·普金斯大學(xué)語(yǔ)言與語(yǔ)音處理實(shí)驗(yàn)室,曾在谷歌工作了三年,任谷歌總部科學(xué)家,從事機(jī)器翻譯的研究和開發(fā)工作,2012年回國(guó),在語(yǔ)音交互領(lǐng)域創(chuàng)業(yè)。ChatGPT面世后,他預(yù)感“自己的時(shí)代到了”。他一個(gè)月飛往硅谷兩次,與谷歌、微軟、OpenAI、Meta等公司的AI工程師交流。他注意到,美國(guó)知名孵化器Y Combinator,可能三分之一以上的項(xiàng)目都是基于大模型做的應(yīng)用。 2月15日,他公開宣布,將在大模型領(lǐng)域創(chuàng)業(yè),要做“中國(guó)版的OpenAI”。

        3月24日,手機(jī)上展示的“文心一言”AI畫作。圖/視覺中國(guó)

        4月8日,浙江大學(xué)人工智能研究所所長(zhǎng)吳飛在一次論壇中分享,ChatGPT的技術(shù)路線中,數(shù)據(jù)是燃料、模型是引擎、算力是加速器。ChatGPT和GPT-4未公開更多技術(shù)細(xì)節(jié),但參照GPT-3,吳飛估算訓(xùn)練ChatGPT的門檻:數(shù)據(jù)方面,訓(xùn)練中使用了45TB數(shù)據(jù)、近1萬(wàn)億單詞,數(shù)十億行源代碼。模型規(guī)模上,1750億參數(shù)如果被打印在A4紙上,加起來將超過上海中心大廈632米的高度。算力方面,2020年微軟為OpenAI打造了一臺(tái)超級(jí)計(jì)算機(jī),其中包含1萬(wàn)個(gè)英偉達(dá)V100 GPU(圖形處理器),吳飛估算投入超過10億人民幣。

        李志飛估算,做大模型的入門門檻至少需要5000萬(wàn)美元,2000萬(wàn)購(gòu)買算力,2000萬(wàn)招募人才,1000萬(wàn)購(gòu)買數(shù)據(jù)。對(duì)標(biāo)ChatGPT,4月7日,阿里巴巴推出自研超大規(guī)模語(yǔ)言模型“通義千問”,開啟內(nèi)測(cè)。一個(gè)月前,百度發(fā)布大語(yǔ)言模型“文心一言”。此外,華為在打造盤古大模型,騰訊在加快推進(jìn)大模型 “混元”,字節(jié)跳動(dòng)也開始布局。

        未來是否需要這么多大模型?支持者稱,大模型將是未來人工智能發(fā)展的基礎(chǔ)設(shè)施,像水或電一樣隨取隨用。前述公開信將現(xiàn)狀描述為“一場(chǎng)失控的競(jìng)賽”,加州理工學(xué)院電氣工程和計(jì)算機(jī)科學(xué)教授阿布-穆斯塔法對(duì)《中國(guó)新聞周刊》說,這是一種“情緒化”的表述,短期內(nèi),只有2~3個(gè)像ChatGPT這樣強(qiáng)大的AI工具會(huì)占領(lǐng)全球市場(chǎng),未來也只有谷歌、微軟等少數(shù)幾家科技巨頭能在世界級(jí)競(jìng)賽中勝出。

        李志飛向《中國(guó)新聞周刊》解釋,不同于互聯(lián)網(wǎng)大廠,國(guó)內(nèi)一些創(chuàng)業(yè)公司可以針對(duì)具體應(yīng)用場(chǎng)景去定義大模型的能力、參數(shù)規(guī)模及需要哪些領(lǐng)域的數(shù)據(jù),“模型質(zhì)量不單依賴于模型和數(shù)據(jù)規(guī)模,數(shù)據(jù)質(zhì)量非常重要,如果以應(yīng)用為驅(qū)動(dòng),數(shù)據(jù)可以更有針對(duì)性選擇”。

        復(fù)制ChatGPT并不簡(jiǎn)單。2022年5月,由Facebook更名的Meta開源了大模型OPT,并在相關(guān)論文中寫到,“考慮到計(jì)算成本,如果沒有大量資金,這些模型很難復(fù)制。對(duì)于少數(shù)可通過API獲得的大模型,無(wú)法訪問完整的模型權(quán)重,使得他們難以被研究?!苯衲?月,OpenAI首席科學(xué)家兼聯(lián)合創(chuàng)始人伊利亞·蘇茨克維爾解釋,不開源大模型是因?yàn)閾?dān)心競(jìng)爭(zhēng)及擔(dān)心安全。GPT-4開發(fā)不易,很多公司都想做同樣的事情。從安全角度考慮,模型的能力正在變得越來越強(qiáng),如果開源,可能有人會(huì)利用這個(gè)模型作惡。

        以transformer為底層技術(shù)的大模型至今仍是“黑盒子”,開發(fā)者無(wú)法從科學(xué)上解釋其內(nèi)在機(jī)制,只能通過觀察、經(jīng)驗(yàn)總結(jié)一些結(jié)論。有研究者提到,同一組數(shù)據(jù),輸入先后順序不同,效果也會(huì)有差異。在李志飛看來,小模型跑數(shù)據(jù)更容易,煉大模型時(shí),工程師在什么時(shí)間把什么類型的數(shù)據(jù)“喂”給大模型,都變得非常重要。

        “目前為止,沒有哪一個(gè)大模型能復(fù)現(xiàn)哪怕是GPT-3.5的能力。即使OpenAI自己重做,也不一定能復(fù)現(xiàn)出之前模型的效果?!崩畹严颉吨袊?guó)新聞周刊》說。但也有學(xué)者對(duì)國(guó)內(nèi)研制出GPT保持樂觀,OpenAI從2018年以來持續(xù)投入完善大模型,有“時(shí)間壁壘”,不存在技術(shù)壁壘。

        超大的參數(shù)規(guī)模,是目前OpenAI走出的經(jīng)驗(yàn)。孫茂松介紹,業(yè)內(nèi)評(píng)估大模型會(huì)關(guān)注一個(gè)點(diǎn),是否產(chǎn)生思維鏈。2022年1月,這一概念首次在谷歌的一篇論文中被介紹。簡(jiǎn)單講,訓(xùn)練大模型時(shí),不同于傳統(tǒng)上給出一個(gè)正確答案提示,而是會(huì)額外增加一段推理過程。如向大模型提問,“羅杰有5個(gè)網(wǎng)球,他又買了兩罐網(wǎng)球,每罐有3個(gè)網(wǎng)球。 他現(xiàn)在有多少個(gè)網(wǎng)球?”過去工程師僅在后臺(tái)提示模型答案為11,但思維鏈提示是告訴它,“羅杰一開始有5個(gè)球,2罐3個(gè)網(wǎng)球是6個(gè)網(wǎng)球,5+6=11?!痹黾舆@一步后,模型會(huì)模仿人類思考過程,輸出結(jié)果的正確性顯著提升,這也是ChatGPT有別于GPT-3、涌現(xiàn)出推理邏輯的關(guān)鍵能力之一。

        孫茂松告訴《中國(guó)新聞周刊》,目前大模型的參數(shù)規(guī)模超過約860億時(shí),思維鏈才會(huì)起到效果,但“這不是科學(xué)導(dǎo)出的結(jié)果,而是觀察出來的”。人們將煉大模型形容為“煉丹”,方法不同、水平不一,效果也有所差異,未來也可能有人用100億參數(shù)做出相同的效果。

        煉大模型需要極大算力。李志飛提到,如果做多模態(tài)模型或是一些通用人工智能(AGI)模型,需要的算力更高。

        大模型能讓機(jī)器產(chǎn)生意識(shí)嗎?

        3月,OpenAI發(fā)布GPT-4后,微軟隨后發(fā)表了一篇早期GPT-4的能力測(cè)評(píng)的論文,提出“GPT-4可被視為通用人工智能(AGI)系統(tǒng)的早期版本”的觀點(diǎn)。

        目前,業(yè)內(nèi)對(duì)AGI尚未有明確且有共識(shí)的定義。1994年,52名心理學(xué)家將智能定義為一種非常普遍的心理能力,包括推理、規(guī)劃、解決問題、抽象思維、理解復(fù)雜思想和從經(jīng)驗(yàn)中學(xué)習(xí)等能力。這也是微軟科學(xué)家在論文中明確界定的AGI范疇。文中提到,GPT-4的早期版本在各個(gè)領(lǐng)域和任務(wù)上表現(xiàn)卓越,達(dá)到或者超越了人類水平,包括抽象、理解、視覺、編碼、數(shù)學(xué)、對(duì)人類動(dòng)機(jī)和情感的理解等,因此,作者認(rèn)為,“GPT-4是邁向AGI的重要一步”。

        麻省理工學(xué)院大腦與認(rèn)知科學(xué)系教授、大腦心智和機(jī)器中心主任托馬斯·波焦是計(jì)算神經(jīng)科學(xué)領(lǐng)域巨匠,他在回復(fù)《中國(guó)新聞周刊》的郵件中表示,他認(rèn)為GPT-4確實(shí)顯示了AGI的火花。但它是互聯(lián)網(wǎng)信息的縮略版,還是真的可以產(chǎn)生新的想法,比如證明數(shù)學(xué)中的新定理,目前還是一個(gè)懸而未決的問題。GPT-4還達(dá)不到完全的AGI,但未來一些類似的版本也許可以做到。

        孫茂松理解的AGI,是機(jī)器擁有人的全部能力,即除了上述“智能”包含的能力外,不管處在任何環(huán)境下,機(jī)器能夠根據(jù)對(duì)方的意圖做出正確的反應(yīng)。在他看來,ChatGPT具備了一部分AGI能力,比如能進(jìn)行語(yǔ)言交互、理解圖像,但對(duì)連續(xù)變化的世界的理解、對(duì)復(fù)雜邏輯的推理等還不夠好,“但現(xiàn)在具備的一些能力已經(jīng)能靠近本質(zhì),我以前覺得機(jī)器掌握這種能力遙遙無(wú)期”。

        GPT-3.5和GPT-4為代表的大模型是否是通往AGI的可行路徑,業(yè)內(nèi)仍有分歧。今年2月,吳恩達(dá)曾在社交平臺(tái)表示,人類的確在深度學(xué)習(xí)上取得了令人興奮的進(jìn)展,但完全不必拿它與AGI牽強(qiáng)的關(guān)系來炒作。

        這背后的核心在于,大家理解的AGI各不相同。阿布-穆斯塔法向《中國(guó)新聞周刊》解釋,“如果說GPT-4能夠完成很廣泛的任務(wù),甚至某些情況下,在一些任務(wù)中的表現(xiàn)超過了人類,這就是AGI嗎?并非如此”。對(duì)于通用人工智能,人類更想追求的目標(biāo)是:AI突然之間學(xué)會(huì)了以上所有,能舉一反三,就像魔法一樣,但這是一個(gè)非常模糊的描述。

        人們對(duì)AGI混亂的解讀,由人工智能研究長(zhǎng)期存在的路徑分歧造成。計(jì)算機(jī)科學(xué)家與神經(jīng)科學(xué)家杰夫·霍金斯在新近出版的《千腦智能》一書中寫道,人工智能研究者制造智能機(jī)器時(shí)有兩條路,第一條路是目前人工智能領(lǐng)域研究的主要方向,即讓計(jì)算機(jī)在某些具體任務(wù)上超過人類,通過這種方式實(shí)現(xiàn)人工智能,系統(tǒng)工作原理以及計(jì)算機(jī)是否靈活則無(wú)關(guān)緊要。另一條路是創(chuàng)造可以做各種事情、并且將從某個(gè)任務(wù)中學(xué)到的東西應(yīng)用于另一個(gè)任務(wù)的機(jī)器。沿著這條路徑成功制造的機(jī)器,可能具備5歲孩子的能力,這是早期人工智能研究的重點(diǎn)。

        以ChatGPT為代表的大模型看上去會(huì)思考和推理,但與人類智能完全不同。李笛向《中國(guó)新聞周刊》解釋,如果詢問ChatGPT“刺殺林肯的兇手在刺殺林肯時(shí),跟林肯是不是在同一個(gè)大陸?”更早版本的GPT無(wú)法回答這個(gè)問題,ChatGPT能給出正確答案,但它的思考邏輯是,先查詢刺殺林肯的兇手在刺殺林肯時(shí)在哪里,再查林肯當(dāng)時(shí)在哪里,最后對(duì)比兩個(gè)地點(diǎn)后回答,“這對(duì)于人來說,是非?;奶频倪壿嬫湣?。

        在托馬斯·波焦看來,GPT-4和人的不同之處在于,GPT-4沒有個(gè)性,因?yàn)樗鼪]有超越個(gè)人會(huì)話之外的記憶,就像電影《記憶碎片》的主人公,當(dāng)下的記憶只能停留幾分鐘。GPT-4沒有任何在物理世界的直接經(jīng)驗(yàn),所以可能很難控制機(jī)器人的肌肉或電機(jī),此外,GPT-4比人腦消耗非常多的訓(xùn)練能量。

        “如果把大模型類比成一個(gè)生命體,它的人生目標(biāo)是由人類制定,而目標(biāo)之外的事情它并不知道。這是大模型與人最大的區(qū)別。”劉知遠(yuǎn)認(rèn)為,大模型不知道什么是自我,可能完全沒有考慮過,人們可以去詢問它這個(gè)問題,它也會(huì)給出答案,但這是因?yàn)槟銌柫藛栴},它需要預(yù)測(cè)下一個(gè)詞是什么,它沒有產(chǎn)生意識(shí)。

        孫茂松對(duì)《中國(guó)新聞周刊》分析說,一年前,如果有人問他,他絕對(duì)不說大模型會(huì)導(dǎo)致通用人工智能,但ChatGPT出現(xiàn)后,他認(rèn)為這是一條可行的路徑。即便談到機(jī)器的意識(shí)和情感,他認(rèn)為,大模型也可以試著讓機(jī)器具備某種“意識(shí)”,哪怕只是看上去有意識(shí)。比如,開發(fā)者可以明確告訴機(jī)器扮演一個(gè)人設(shè),它就會(huì)表現(xiàn)出好像具有某種意識(shí)。

        “這是行為主義的邏輯,你可以認(rèn)為它只是表象,不是本質(zhì),但能做到這點(diǎn),內(nèi)在機(jī)制一定有其合理性。只要現(xiàn)象足夠好,可以為人所用?!痹趯O茂松看來,從人工智能概念誕生之初,人們就試圖用摸清人腦機(jī)理的方式來做人工智能,這是理性主義的做法,無(wú)疑是一條正確的道路,不會(huì)出現(xiàn)大模型高耗能的缺點(diǎn),但問題是實(shí)現(xiàn)難度要比大模型大得多?!斑@兩條道路沒有對(duì)錯(cuò)之分,現(xiàn)階段是以成敗論英雄。但理性主義這條路人們也從未放棄,總有人在堅(jiān)持,需要天才式的科學(xué)家?!?/p>

        猜你喜歡
        人工智能能力模型
        一半模型
        消防安全四個(gè)能力
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        人工智能與就業(yè)
        大興學(xué)習(xí)之風(fēng) 提升履職能力
        你的換位思考能力如何
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        3D打印中的模型分割與打包
        亚洲av无码久久| 色窝窝手在线视频| 蜜臀av中文人妻系列| 中文字幕文字幕一区二区| 日本高清一道本一区二区| 亚洲国产美女精品久久久久∴| 精品国产sm捆绑最大网免费站| 国产精品自产拍在线18禁| 日本一区二区三区专区 | 乱中年女人伦av| 丰满少妇人妻无码超清 | 亚洲一区二区三区国产| 免费观看a级片| 日本熟妇色xxxxx欧美老妇| 国产午夜精品久久久久99| 国产人妖一区二区av| 加勒比精品视频在线播放| 久久亚洲精品成人无码| 无码少妇一区二区三区| 久久久99精品视频| 人妻中文字幕在线一二区| 亚洲精品久久国产精品| 一本一道波多野结衣av中文| 人妻无码aⅴ中文系列久久免费| 亚洲综合一区二区三区蜜臀av| 少妇高潮精品在线观看| 久久99国产综合精品| 嗯啊哦快使劲呻吟高潮视频| 国产精品自线在线播放| 中文字幕人乱码中文字幕乱码在线| 熟女体下毛荫荫黑森林| 怡红院a∨人人爰人人爽| 日本理论片一区二区三区| 国产激情在线观看视频网址| 亚洲av无码国产精品色| 少妇下蹲露大唇无遮挡| 亚洲视频高清| 国产精品老女人亚洲av无| 精品国产yw在线观看| 日本理伦片午夜理伦片| 国产一区二区欧美丝袜|