郭全中 朱燕
【摘要】ChatGPT的上線掀起了大語言模型的熱潮,除了谷歌、微軟、OpenAI、百度、阿里巴巴等科技巨頭,創(chuàng)業(yè)公司和其他互聯網企業(yè)也紛紛布局大模型。目前,生成式大語言模型在搜索引擎、辦公軟件和諸多垂直領域有了初步應用,加快了產業(yè)智能化發(fā)展的步伐,未來,大語言模型將探索更多垂類應用場景,產業(yè)結構將進一步分化。但大模型在落地應用過程中也面臨著技術和社會層面的問題,需要各國在生成式人工智能的管理方面進行規(guī)范與治理。
【關鍵詞】大語言模型;ChatGPT;生成式;廣布局;重應用
2022年11月30日,基于生成式預訓練模型GPT-3.5微調而來的新一代對話式自然語言識別模型ChatGPT上線,這是人工智能研究實驗室Open AI歷經四年迭代推出的生成式大語言模型。一般而言,大模型是指具有海量參數和復雜架構,用于深度學習任務的大容量模型,它采用的“預訓練大模型■下游任務微調”模式極大地提高了模型的通用能力,呈現出“大模型”和“小模型”協(xié)進、通用性與專用性并進的發(fā)展趨勢。2023年1月末,上線僅兩個月,ChatGPT的月活用戶便突破1億,成為全球用戶增長速度最快的消費級應用程序。面對用戶的對話、翻譯、分類、修改回答等指令,ChatGPT均呈現出極強的對用戶意圖的理解能力,其語言理解能力、邏輯推理能力與生成內容能力的大幅提升是在自然語言處理領域的重要突破,是生成式AI(AIGC)極為關鍵的發(fā)展節(jié)點。ChatGPT的成功標志著人工智能從以專用小模型訓練為主的“手工作坊時代”邁入到以通用大模型預訓練為主的“工業(yè)化時代”,成為人工智能發(fā)展的分水嶺。[1]
一、廣布局:多類主體大力布局大語言模型
無論是在訓練研發(fā)的上游市場,還是落地應用的下游市場,以美國、中國為代表的國家均展開了廣泛布局,除了互聯網公司和AI公司,科研機構、各垂直行業(yè)巨頭企業(yè)也紛紛加入大語言模型賽道。目前,大語言模型賽道主要分為兩類:一類是聚焦基礎層通用大模型訓練的巨頭公司和科研機構,另一類是聚焦在開源大模型的基礎上訓練垂類大模型或單純專注垂直行業(yè)具體應用的中型公司和應用型廠商。
(一)國外大語言模型的發(fā)展現狀
美國在大語言模型領域的布局方面處于領先地位。在上游市場,OpenAI、Anthropic、谷歌、Meta等行業(yè)巨頭和斯坦福大學、麻省理工學院等科研機構均研發(fā)出了代表性大模型,在大模型的通用性方面實現了跨越式突破。以微軟、Jasper為代表的下游市場則將語言生成能力與自身產品生態(tài)相結合,極大增強了自身產品生態(tài)的商業(yè)競爭力。相較之下,英國和俄羅斯雖然也分別推出了Gopher、YaLM等大模型,但在研發(fā)和應用上與美國還存在一定差距。
1.美國在大語言模型領域的發(fā)展處于領先地位
(1)上游市場:以OpenAI為首的“一超多強”局面。
作為傳統(tǒng)科技強國,美國背倚雄厚的技術、資金與人才資源,在大語言模型方面的發(fā)展具有顯著優(yōu)勢。在上游市場領域,美國市場以OpenAI為首,谷歌、Anthropic、Meta等科技巨頭和創(chuàng)業(yè)公司競相追趕,形成了“一超多強”的競爭局面。
OpenAI作為頂尖人工智能公司,其開發(fā)的ChatGPT是目前最具代表性的通用語言生成應用。從GPT-1的1.17億、GPT-2的15億到GPT-3和GPT-3.5的1750億,再到GPT-4的萬億級以上的參數量,GPT系列模型的參數量不斷攀升。ChatGPT作為對話式機器人,聚焦多輪對話與情感交互,在“人性化”層面有了進一步探索。除了可以完成連續(xù)對話、翻譯、編程、算術等工作外,ChatGPT還會根據用戶的質疑發(fā)表道歉語句,并根據用戶需求修改、完善先前的回答。而OpenAI于2023年3月中旬發(fā)布的GPT-4又在GPT-3.5的模型上進行了全方位升級。作為一個多模態(tài)大模型,GPT-4具備對圖片模態(tài)的分析推理能力,并能處理更長的文本。目前,OpenAI與微軟、Duolingo、冰島政府等均有合作,迅速建立并不斷拓展產業(yè)應用生態(tài)。整體而言,無論是在文本理解與生成領域,還是在大模型的通用功能實現方面,Chat GPT的綜合表現相對更為優(yōu)異。
Anthropic創(chuàng)始團隊多為前OpenAI研究員,其開發(fā)的AI聊天助手Claude是對標ChatGPT的大語言模型,主要用于理解用戶的自然語言,并進行智能回答與交互。Claude的參數量相對較小,僅有520億。相較ChatGPT,Claude更強調語言生成應用的安全性,為企業(yè)提供從數據到模型再到系統(tǒng)的人工智能應用安全服務,注重對類ChatGPT的邏輯錯誤、負面信息等問題的檢測與回避,最大化地避免提供有害建議。
谷歌作為新一代科技巨頭,它在語言生成應用領域并未搶占到先機,其對標ChatGPT的語言生成應用Bard還沒有成型的商業(yè)模式,但其目標是將Bard接入Google產品體系中,提升其產品生態(tài)與微軟產品生態(tài)競爭的能力。[2]Bard此前是基于LaMDA模型開發(fā),但LaMDA的負責任AI實踐模式導致其回答存在生硬、淺層等局限,因而將從基于輕量級LaMDA模型升級為更大規(guī)模的PaLM模型。PaLM模型的參數量達5400億,幾乎是LaMDA的四倍。在此基礎上,升級后的Bard不僅將在常識推理和編程方面的回答上有所突破,在回答方式上也將更自然、更深入。目前,谷歌已開始嘗試將Bard跟旗下和外部產品集成,朝著實用與通用的方向發(fā)展。例如,谷歌嘗試在Chrome OS中整合Bard AI聊天機器人,引入“會話搜索”的實驗性功能。
Facebook的母公司Meta也于2023年2月下旬推出了開源大語言模型LLaMA-13B。LLaMA-13B是Meta新語言模型家族“大型語言模型Meta AI”(簡稱LLaMA)的一部分,Meta將其LLaMA模型稱為“基礎模型”,這意味著其將如在GPT-3的基礎上構建ChatGPT一樣,用這些模型來幫助構建更精細的AI模型。盡管LLaMA模型集合的參數從70億到650億個不等,遠不及GPT-3模型的1750億個參數,但這種相對較小的AI模型反而可能催生能在PC端和移動端上運行類似ChatGPT的語音助手,是最有安卓像的開源生態(tài)。LLaMA-13B在單一GPU上運行的表現也超過了GPT-3,為不久的將來在消費級硬件上實現類似ChatGPT的功能打開了大門。[3]此外,作為完全開源的領先模型,LLaMA具有高度的可配置性與泛化能力,還具備成為垂類AI模型的通用基座的潛力,加速垂類模型的發(fā)展。
此外,還有部分高校研究機構也相繼推出了大模型,如斯坦福大學基于Meta的LLaMA-7B模型微調出新模型Alpaca,該模型僅用52K數據指令即可達到良好效果;麻省理工學院提出大語言模型跨界視覺領域新范式LAMPP,用于視覺感知和推理任務等。
(2)下游市場:微軟處于絕對領先地位。
微軟在上游市場也有所布局,聯合英偉達發(fā)布了具有5300億參數量的自然語言生成模型MT-NLG,這是模型發(fā)布之時訓練的最大、最強大的單片Transformer語言模型。但是,微軟在下游市場的表現更為突出,且占有絕對的市場領先地位。微軟打造了基于場景的語言生成應用,并通過與OpenAI的合作將大語言模型與產品生態(tài)相結合,不斷探索語言生成的場景應用潛力。在搜索引擎方面,微軟基于Edge瀏覽器的數據,接入GPT-4,推出了AI版搜索引擎New Bing;在辦公軟件方面,微軟接入GPT-4與ChatGPT,推出365 Copilot;在代碼生成方面,微軟在其全球最大的代碼托管平臺GitHub上推出代碼生成應用CopilotX。目前,微軟在語言生成應用場景上實現了廣泛布局,形成了強大的業(yè)務矩陣。
JasperAI是一家專注營銷領域內容創(chuàng)作的公司,也是最早嘗試將大語言模型進行商業(yè)化的公司之一。在ChatGPT發(fā)布前,JasperAI就基于GPT-3模型的API,通過模型微調打造了AI營銷內容生成平臺,提供廣告文案、營銷策劃、產品描述等多種類型的商業(yè)性文字的生成服務。但隨著ChatGPT面向公眾開放、成為C端現象級應用后,JasperAI提供的部分基礎功能面臨被取代的風險,對JasperAI的語言生成應用市場造成了威脅。
2.英國、俄羅斯等發(fā)達國家也陸續(xù)布局,但較美國還有一定差距
在開發(fā)語言模型的過程中,谷歌旗下的英國的人工智能公司Deepmind探索了六類不同大小的Transformer模型,參數量從4400萬到2800億不等。Deepmind不僅提供了對包括模型規(guī)模與偏差在內的訓練數據集和模型行為的整體分析,還討論了語言模型在下游危害與AI安全等方面的問題,能進行有害語言識別與事實核查。但整體而言,Gopher的應用范圍相對狹窄,離通用性的實現還有較遠距離。
Yandex擁有俄羅斯最大的搜索引擎,是俄羅斯的互聯網巨頭公司之一。YaLM 100B是Yandex開發(fā)的具有1000億參數的開源大模型,它可以生成和處理文本,在Yandex旗下的Alice語音助手和Yandex搜索中有了初步應用,并允許研究和商業(yè)免費使用。盡管Yandex已部分使用生成式神經網絡,但在形成搜索結果時并不能直接生成文本答案,而是作為輔助判別工具用于搜索引擎中,其發(fā)展僅處于行業(yè)中下游。
總的來說,美國在大語言模型開發(fā)方面保持著領先地位。從文本生成的直觀體驗層面來看,目前ChatGPT的表現最為優(yōu)異。但對于谷歌等大廠而言,目前暫時落后于Open AI的主要原因是技術路線與公司戰(zhàn)略的差異,趕超GPT系列模型依然存在很大可能。在語言模型閉源趨勢明顯的環(huán)境下,Meta的開源語言模型則在促進大語言模型研究方面作出了重要貢獻。相較傳統(tǒng)互聯網大廠,由頂尖技術人才初創(chuàng)的AI公司也成為大語言模型發(fā)展過程中的一股重要力量,并在不斷實現新的突破。
(二)中國的大語言模型大干快上
中國在大語言模型領域大干快上,目前國內已經有30多家公司發(fā)布或宣布研發(fā)大模型,布局企業(yè)以互聯網巨頭、AI公司、初創(chuàng)科技團隊、科研院所和教育行業(yè)公司為主,如百度、阿里巴巴、騰訊、華為、商湯科技、科大訊飛、百川智能、清華大學、復旦大學以及網易有道、學而思等。我國大語言模型盡管與國外還有一定差距,但在參數量、跨模態(tài)、泛化能力等方面表現優(yōu)異,且在垂直領域有了廣泛的落地應用。
在人工智能產業(yè)迎來熱潮時,中國人工智能產業(yè)也抓住了這一難得的發(fā)展契機,迎來了“國產ChatGPT元年”,大語言模型密集上線。相較國外產業(yè)巨頭致力于提升大語言模型的通用性,我國則聚焦垂類場景的應用落地。以百度、阿里巴巴、騰訊、華為等為代表的互聯網巨頭在深耕通用大模型研發(fā)的同時,積極根據自身產業(yè)生態(tài)布局進行垂直基礎大模型打造;具備大模型自研能力的肩部公司則聚焦在開源模型和海量數據的基礎上打造垂類大模型,建立垂直領域的平臺生態(tài)。
在模型參數量方面,互聯網大廠的參數量遠大于科研院所,基本處于千億級以上規(guī)模,如阿里巴巴的通義千問擁有10萬億級以上的參數量,騰訊混元大模型的參數量在萬億級以上,但科研院所的參數量多在千億級以下。在模型應用方面,大部分公司和團隊的大模型將以內部應用和面向B端的企業(yè)拓展服務為主,面向C端市場進行規(guī)?;瘧玫目赡苄暂^低。相較國外,我國在垂類大模型領域的發(fā)展更快。目前,我國已有不少中小型企業(yè)基于國內外大模型“底座”訓練適配自身所處行業(yè)的垂類模型,而已發(fā)布通用大模型的公司也推出了針對特定行業(yè)的大模型。值得一提的是,我國在大模型領域的開源趨勢明顯,如智譜AI的ChatGLM已經開源,復旦大學邱錫彭教授團隊的MOSS產品即將開源等,這些中文開源語言生成模型將極大地促進我國通用大模型及垂類模型的發(fā)展。
(三)中外大語言模型差距背后的原因
目前,我國與外國尤其是美國在大語言模型的研發(fā)上還存在較大差距,在數據、算力、工程化能力等關鍵因素上存在短板。大語言模型更多僅聚焦于垂直領域的應用,缺乏多技術融合創(chuàng)新帶來的通用能力。
第一,創(chuàng)新意識不足。一方面,大模型的高額研發(fā)成本和高風險特點限制了試錯空間,導致我國企業(yè)在風險技術上更傾向于追隨與模仿。
第二,技術設施不完善。首先,我國在核心的人工智能算法上(算法透明度、魯棒性等)存在痛點,關鍵技術缺乏進一步突破;[4]其次,國外對中國的“芯片制裁”持續(xù)升級,用于人工智能和高性能計算機的芯片獲取困難,國產智能芯片在性能上與英偉達A100和H100芯片差距較大;再次,中文開源高質量數據相對匱乏,缺少用于大模型訓練的經過加工、清洗和標注的數據集。
第三,制度環(huán)境有缺陷。美國的AIGC產業(yè)得以蓬勃發(fā)展的一個重要原因在于建立了保護和激勵創(chuàng)新的制度環(huán)境,在知識產權、風險投資、高等教育、人才集聚等方面不斷實現制度創(chuàng)新,而我國的強監(jiān)管環(huán)境則在一定程度上限制了人工智能產業(yè)能動性的發(fā)揮。此外,隨著地緣政治緊張局勢的加劇,科技產業(yè)的中外合作也受到了較大限制。
第四,研發(fā)力量分散。大語言模型的研發(fā)具有高投入、高風險、長周期的特征,這也決定了其對頂尖人才和核心團隊的極高要求。目前,我國不僅研發(fā)領域分散,企業(yè)和高校在大數據、大模型等方面各有側重,頂尖人才也分散在不同機構中,難以形成對標Open AI的兼具核心技術與豐富經驗的領軍人物和團隊。
二、重應用:大語言模型積極探索落地場景
由于大語言模型的泛化能力極強,通用性和實用性明顯,越來越多的企業(yè)在聚焦基礎層的通用大模型訓練時,也將目光放在了垂類大模型的研發(fā)上,重視并積極探索模型的落地場景應用。目前,大語言模型已在搜索引擎、辦公軟件和金融、醫(yī)療、傳媒、教育等多個垂直行業(yè)落地應用,并取得了良好效果。
(一)AI搜索引擎:個性化交互
隨著全球第二大搜索引擎微軟Bing在今年3月接入ChatGPT,搜索引擎這樣一個傳統(tǒng)行業(yè)迎來了新發(fā)展時代。New Bing在提供文本生成服務的同時還具有網頁信息總結功能,并能在互聯網上實時搜索信息。此外,Bing Chat也會在每個回復的底部注明其引用來源,以供用戶參考驗證生成文本的準確性。據微軟公布的消息,Bing接入ChatGPT一個月后的日活量破億,New Bing憑借優(yōu)秀的性能在短時間內吸引了大量用戶,并在商業(yè)上直接威脅到了谷歌的搜索業(yè)務。目前,谷歌、百度等國內外搜索引擎龍頭和360、知乎等公司紛紛開始加速在大模型嵌入搜索引擎應用方面的布局,如谷歌的AI版搜索引擎Magi即將面世,360集團推出360智腦服務,知乎將“知海圖AI”中文大模型應用于知乎的“熱榜摘要”等。
嵌入大模型后的搜索引擎將為用戶帶來諸多便利。第一,搜索形式和搜索結果呈現方式將不斷升級,即關鍵詞式搜索轉變?yōu)閷υ捠剿阉?,線性排列式結果轉變?yōu)橐?guī)范的篇章閱讀式結果,用戶無需根據結果梳理即可得到具有清晰邏輯的篇章和規(guī)范的參考源。第二,交互性與針對性得以增強。以New Bing的搜索功能為例,用戶在搜索欄中最長可輸入長達1000字符的問題,并可進行追問與反駁,以獲取具有高準確度的搜索結果。
但大語言模型與搜索引擎的結合也會滋生出新的問題。首先,傳統(tǒng)廣告模式的商業(yè)邏輯受到沖擊。搜索引擎廣告是搜索引擎公司的主要收入來源,但大語言模型的生成結果注重功能性與準確性,這將大大降低用戶對廣告鏈接的點擊率。因此,如何在創(chuàng)新升級的基礎上保持穩(wěn)定收入,探索與該文本生成邏輯相匹配的盈利模式尤為重要。其次,大語言模型的運營成本高昂,企業(yè)將面臨著是否面向C端用戶收費的難題,施行收費制度后用戶數量的擴張與留存也將面臨風險。
(二)智能化辦公:淘汰重復性勞動
大語言模型目前已嘗試嵌入協(xié)同辦公平臺、AI辦公工具、AI編程工具等辦公軟件,智能化辦公將成為大模型的另一重要應用場景。首先,在協(xié)同辦公平臺領域,微軟是最早接入大語言模型的公司,2023年3月16日,微軟正式將GPT-4接入Office工具,推出AI版Office“全家桶”——Microsoft 365 Copilot,在Word中AI能秒出文稿和配圖,根據用戶需求修改文風和排版;在Excel中對數據進行清洗和分析后可總結關鍵信息,并進行可視化呈現;在Outlook中則可自動總結郵件要點,并生成郵件初稿。在國內,釘釘于4月11日接入阿里巴巴的通義千問大模型,同日,字節(jié)跳動旗下的辦公軟件飛書對其智能助手“My AI”進行了預告;4月17日,百度宣布文心一言大模型在百度內部全面應用在智能工作平臺“如流”上,助力員工的代碼編寫、思路搭建等日常工作。其次,在AI辦公工具領域,Notion于2月推出了基于ChatGPT的企業(yè)服務工具Notion AI,以及熱門類GPT應用ChatPDF的推出等,這類AI辦公工具的功能極為廣泛,包括但不限于總結會議、回復郵件、整理PDF文檔。最后,在AI編程工具領域,微軟旗下的代碼托管平臺GitHub接入GPT-4推出輔助編程工具CopilotX,AWS的實時AI編程伴侶Amazon CodeWhisperer也免費向開發(fā)者開放等,這些AI編程軟件不僅可以根據開發(fā)者的語言指令生成代碼建議,還能提供實時的錯誤代碼修復建議。
目前看來,大語言模型接入協(xié)同辦公平臺并未完全取代相關腦力工作,它提供的大多是簡單瑣碎的工作內容,其目的在于淘汰重復性勞動。具體而言,這類應用主要面向三類場景:一是面向工作群體,承擔簡單的重復性工作,快速提取員工所需信息;二是面向學生群體,提煉文檔要點,承擔如演示文稿般的形式上的工作;三是面向有創(chuàng)意想法的人,AI可從史料、文學等作品中提取信息供用戶參考,拓寬用戶的想象維度。
(三)垂直領域應用:迭代行業(yè)場景
建立垂直行業(yè)的平臺生態(tài)、迭代行業(yè)場景是觸達應用場景落地的重要方向。目前,大語言模型已在金融、醫(yī)療、電商、營銷、傳媒、教育等多個垂直領域展開應用,并不斷展望新的應用場景。國外主要通過在垂直領域嵌入大語言模型的方式進行應用,如摩根士丹利利用GPT-4搜索研報內容,協(xié)助資管顧問工作;海外生鮮電商平臺Intacart的食物搜索工具基于ChatGPT推出了食物推薦應用,為客戶購物提供參考;客戶關系管理領域SaaS巨頭Salesforce基于ChatGPT推出了相關AI產品,幫助銷售人員、客服專員等完成基礎性工作。國內企業(yè)則根據自身產業(yè)生態(tài)布局,致力打造垂直基礎大模型。以百度為例,百度和多行業(yè)的頭部企業(yè)聯合研發(fā)融合了行業(yè)數據和專家經驗的NLP大模型,如與國家電網聯合打造的NLP大模型“國網—百度·文心”,通過設計電力領域實體判別和文檔判別等作為預訓練任務讓文心模型深度學習電力行業(yè)知識,實現了對數據、算力與技術等資源的統(tǒng)籌優(yōu)化;與人民網輿情數據中心合作研發(fā)了“人民網—百度·文心”大模型,在人民網輿情數據中心積淀的行業(yè)知識和任務樣本數據的基礎上進行訓練,并已應用于輿情分析、新聞內容審核分類、新聞摘要生成等領域,相較從前的基線模型,大模型在人民網各應用的自然語言處理任務效果方面有了顯著提升。
探索大模型在各垂直領域場景中的應用,觸達多個細分場景與業(yè)務場景的應用落地,有利于推動相關產業(yè)實現從人力密集型向智能密集型轉變,實現產業(yè)的智能化升級,進一步解放重復性腦力工作勞動力??偟膩碚f,大語言模型的落地應用仍處于初級發(fā)展狀態(tài),性能和配套服務不足、產業(yè)模式不成熟、存在隱私漏洞、監(jiān)管體系尚未建立等是亟待解決的阻礙其落地進程的問題。隨著產業(yè)模式發(fā)展日趨成熟,大語言模型的產業(yè)結構將進一步分化,形成囊括“上游—中游—下游”全流域的產業(yè)鏈格局,加快產業(yè)智能化發(fā)展的步伐。
三、大語言模型的應用風險及治理策略的最新進展
由于大語言模型自身存在的技術問題,加上相關法律法規(guī)不完善,導致大語言模型在落地應用過程中存在諸多亟待治理的問題,美國、中國也相繼在生成式人工智能的治理領域開展布局。
(一)大語言模型落地應用存在的風險
從技術層面來看,一方面,由于大語言模型的生成機制難以解釋,其回答也難以追溯其邏輯與理由,缺乏可解釋性,容易生成錯誤信息,影響用戶判斷。在法律、醫(yī)學等嚴謹、敏感的領域,錯誤的法律和醫(yī)學知識可能會導致用戶違法或使用錯誤急救方式,對自身健康和社會安全造成傷害。加上大語言模型存在算法偏見,可能會無意中放大社會文化歧視,誤導用戶的價值觀。另一方面,人工智能是基于收錄了他人享有版權作品的數據庫生成內容,因此生成內容很可能面臨侵權風險。
從社會層面來看,第一,大語言模型可能會侵犯用戶隱私、泄露一些組織乃至國家的機密信息,對個人身心健康、企業(yè)安全和國家安全造成威脅。第二,大語言模型易被多行業(yè)、多領域濫用,例如,內容生成技術使得以低廉價格生成有效虛假信息等成為可能,有可能誘發(fā)信息欺詐、線上詐騙等犯罪行為;在現有教育體系缺乏應對準備的情況下,學生可能會在開卷測試中用其作弊或出現利用AI生成文本生成論文的學術不端行為。第三,大模型在內容生成與數據預測方面的能力較高,對重復性工作的可替代性強,有可能對傳統(tǒng)的低創(chuàng)造性與低情感性腦力勞動崗位的嚴重威脅。第四,大語言模型的普及應用可能會加大科技發(fā)達地區(qū)與其他地區(qū)之間的數字鴻溝。
(二)大語言模型落地應用的治理策略進展
由于這類生成式人工智能的應用相對較新,它們在很大程度上仍處于無監(jiān)管狀態(tài)。目前,為促進生成式人工智能技術健康發(fā)展和規(guī)范應用,各國都在就如何對生成類人工智能進行有效治理與監(jiān)管這一問題進行積極探索,并有了初步進展。
美國率先對生成式人工智能的監(jiān)管領域展開探索。2023年1月26日,美國國家標準與技術研究院發(fā)布了《AI風險管理框架1.0》,從治理、映射、測量和管理四部分對AI風險管控與問責制度等進行了規(guī)定。5月5日,美國國家科學基金會宣布將撥款1.4億美元成立7個國家級人工智能研究機構,確保美國在AI領域保持領先的同時遏制AI引發(fā)的社會問題和道德問題。5月16日,OpenAI的CEO Sam
Altman出席了美國參議院聽證會,參與關于AI監(jiān)管話題的討論。在聽證會上,Sam Altman建議通過成立監(jiān)管AI的新的政府機構,為AI模型創(chuàng)建安全標準,要求獨立專家對模型在各指標上的表現進行獨立審核,對AI模型進行嚴格監(jiān)管,并認為生成式人工智能工具需要一套新的責任框架。紐約大學心理學和神經科學名譽教授Gary Marcus在會上也指出,此前熱議的“暫停大規(guī)模人工智能模型研發(fā)”聯名信的目的并非要求暫停研發(fā)AI,而是希望在具備足夠規(guī)范、安全的AI管理措施出臺之前,暫停部署比GPT-4更大的AI模型。
2023年4月11日,我國國家互聯網信息辦公室起草了《生成式人工智能服務管理辦法(征求意見稿)》,明確了生成式人工智能的定義、相關產品和服務提供者的合規(guī)義務。這意味著我國將逐步完善人工智能法律體系,對生成式人工智能進行嚴格、科學監(jiān)管。
四、結語
大語言模型的多模態(tài)發(fā)展趨勢特征進一步拓寬了語言生成的場景應用維度和商業(yè)化維度,如何實現內容安全、數據安全和保護個人隱私,如何處理競爭關系,如何高效賦能行業(yè),將成為生成式大模型應用規(guī)模化必須要考慮和解決的技術問題與社會問題,在生成式人工智能的治理問題上,政府、企業(yè)、用戶等應進一步合力探索。
參考文獻:
[1]趙朝陽,朱貴波,王金橋.Chat GPT給語言大模型帶來的啟示和多模態(tài)大模型新的發(fā)展思路[J].數據分析與知識發(fā)現,2023,7(3):26-35.
[2]易觀分析.AIGC產業(yè)研究報告2023:語言生成篇[EB/OL].(202
3-05-16)[2023-05-19].https://mp.weixin.qq.com/s/MMZE08EVc3jItWc
BJyIpjg.
[3]騰訊科技.Meta推出大語言模型LLaMA參加AI大戰(zhàn):比GPT-3小10倍,表現更好[EB/OL].(2023-02-25)[2023-05-19].https://new.qq.com/rain/a/20230225A021BI00.
[4]華東政法大學政治學研究院和人工智能與大數據指數研究院.人工智能通用大模型(Chat GPT)的進展、風險與應對[EB/OL].(2023
-02-23)[2023-05-19].http://fxcxw.org.cn/dyna/content.php?id=25211.
作者簡介:郭全中,中央民族大學新聞與傳播學院教授(北京 100081),互聯網平臺企業(yè)發(fā)展與治理研究中心主任(北京 100081),江蘇紫金傳媒智庫高級研究員(南京 211199);朱燕,中央民族大學新聞與傳播學院碩士生(北京 100081)。
編校:王 謙