亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        AI+人文:AIGC的發(fā)展與趨勢

        2023-05-30 00:59:16郭全中張金熠
        新聞愛好者 2023年3期

        郭全中 張金熠

        【摘要】2022年,AI繪畫工具MidJourney、Stable Diffusion、DALL-E2等與生成式對話模型ChatGPT成功引爆AIGC,千萬級用戶的參與使AI模型快速迭代,同時也加速了潛在問題的出現(xiàn)。從發(fā)展進程來看,AIGC正處于高速發(fā)展期,其演進路徑可以劃分為輔助階段、協(xié)助階段與自主階段。從產(chǎn)業(yè)應(yīng)用來看,AIGC在傳媒、影視、游戲、電商、音樂等場景的應(yīng)用已較為成熟。從發(fā)展趨勢看,AIGC將成為元宇宙時代的內(nèi)容生產(chǎn)基礎(chǔ)設(shè)施,“AI+人文”則是AIGC的主要發(fā)展趨勢,而AIGC的發(fā)展關(guān)鍵點在于技術(shù)要素與商業(yè)要素的共同進步。

        【關(guān)鍵詞】AIGC;生成式AI;元宇宙;“AI+人文”

        一、引語

        2022年,文本與圖像交互內(nèi)容生成平臺DALL-E2、新一代對話式NLP模型ChatGPT等生成式AI面向廣大網(wǎng)絡(luò)用戶開放并獲得強烈反響,使得生成式AI成為當前人工智能領(lǐng)域的熱點話題,2022年也被稱為“生成式AI元年”。其中細分領(lǐng)域AIGC在技術(shù)升級過程中也迎來了新的突破。在不到兩個月時間內(nèi),ChatGPT日活躍用戶已突破千萬,由此產(chǎn)生的內(nèi)容數(shù)量則更為龐大。此次AIGC的技術(shù)突破不僅有賴于生成式AI的初步成熟,還得益于廣大網(wǎng)絡(luò)用戶的參與和反饋,可以說,“AI+人文”是AIGC的關(guān)鍵驅(qū)動力。因此,在這場“全民狂歡”中,既需要向前看,把握AIGC的應(yīng)用場景、發(fā)展趨勢與關(guān)鍵點,又要向后看,梳理AIGC的演進路徑,厘清AI技術(shù)與內(nèi)容生成的關(guān)系變遷,從而把握AIGC的來龍去脈,更好地思考AIGC在未來的位置與作用。

        二、AIGC的發(fā)展演進

        (一)何為AIGC?

        AIGC全稱為AI Generated Content(人工智能生成內(nèi)容),指基于生成對抗網(wǎng)絡(luò)GAN、大型預(yù)訓練模型等人工智能技術(shù),通過已有數(shù)據(jù)尋找規(guī)律,并通過適當?shù)姆夯芰ι上嚓P(guān)內(nèi)容的技術(shù)。[1]從廣義上看,一切運用AI技術(shù)生成的內(nèi)容都可視為AIGC。而從概念源流來說,根據(jù)監(jiān)督學習的方法差異,機器學習領(lǐng)域具有判別式和生成式兩種典型模型[2]:判別式模型是對條件概率進行建模,根據(jù)已有數(shù)據(jù)進行分析、判斷、預(yù)測,從而完成任務(wù);生成式模型則對聯(lián)合概率進行建模,學習歸納已有數(shù)據(jù)后基于歷史進行內(nèi)容生成。在GAN模型出現(xiàn)后,傳統(tǒng)機器學習算法轉(zhuǎn)向深度神經(jīng)網(wǎng)絡(luò),同時,生成式機器學習模型被用于文本、圖像、語音等內(nèi)容的智能生成,學術(shù)界將其定義為“生成式AI”[3],判別式機器學習模型則被稱為“決策式AI”。隨著生成式AI的快速發(fā)展,AIGC以其高通量、低門檻、高自由度的生成能力在內(nèi)容市場中占據(jù)一席之地,并促使內(nèi)容生成領(lǐng)域大步邁進人工智能時代。

        相較于其他學者提出的操作性概念,上述定義從技術(shù)角度對AIGC進行界定,一定程度上忽視了其內(nèi)容特征。中國信通院和京東探索研究院于2022年9月發(fā)布的《人工智能生成內(nèi)容(AIGC)白皮書》中,將AIGC定義為“既是從內(nèi)容生產(chǎn)者視角進行分類的一類內(nèi)容,又是一種內(nèi)容生產(chǎn)方式,還是用于內(nèi)容自動化生成的一類技術(shù)集合”[4],體現(xiàn)出AIGC兼具技術(shù)屬性與內(nèi)容屬性的特點。此外,AI模型開發(fā)者承認,由于訓練數(shù)據(jù)與模型架構(gòu)的差異,AIGC目前可能存在暴力、性別歧視、種族主義等偏見,這意味著在大規(guī)模數(shù)據(jù)預(yù)訓練之后,仍需引入人工標記數(shù)據(jù)對模型進行調(diào)整。目前慣用的開源模式正是技術(shù)開發(fā)者借助廣大用戶的互動與反饋數(shù)據(jù)進行模型訓練與調(diào)整。因此,AIGC不僅僅是技術(shù)集合與技術(shù)生成內(nèi)容,還需要依靠人文力量來促進技術(shù)向善,減少倫理隱患。

        綜上,本文將AIGC界定為基于人工智能技術(shù)生產(chǎn)數(shù)字信息內(nèi)容,具有AI能力強、內(nèi)容生產(chǎn)效率高、內(nèi)容生成質(zhì)量穩(wěn)定、成本相對低等特點。

        (二)AI能力擴展:AIGC的演進路徑

        AIGC的出現(xiàn)最早可追溯到1950年艾倫·圖靈提出的著名實驗“圖靈實驗”,即判定機器是否具有“智能”的實驗方法。但在GAN模型提出之前,AIGC乃至整個AI領(lǐng)域都處在沉淀積累階段,尚未實現(xiàn)大規(guī)模商業(yè)化應(yīng)用。而2014年,Goodfellow等人[5]提出的GAN模型突破了傳統(tǒng)機器學習的數(shù)據(jù)局限,以博弈論中二人零和博弈為思想基石,搭建起由生成器和判別器不斷互動迭代優(yōu)化并最終達到納什均衡狀態(tài)的生成模型。這一突破使得機器學習中大規(guī)模無監(jiān)督學習成為可能,推動學習范式與網(wǎng)絡(luò)結(jié)構(gòu)的技術(shù)迭代以及AIGC技術(shù)大模型與多模態(tài)發(fā)展,也使得AIGC進入高速發(fā)展時期。因此,本文重點梳理2014年GAN模型提出后的AIGC演進路徑,以AI技術(shù)與內(nèi)容生成的關(guān)系變遷為線索,將AIGC的演進路徑劃分為輔助階段、協(xié)助階段與自主階段。

        1.輔助階段:AI輔助內(nèi)容創(chuàng)作

        早期AIGC技術(shù)主要依據(jù)事先指定的模板或者規(guī)則,進行簡單的內(nèi)容制作與輸出,與靈活且真實的內(nèi)容生成具有較大差距。[6]該階段AI技術(shù)在內(nèi)容生成過程中處于輔助位置,屬于工具性存在,AIGC往往是基于現(xiàn)實世界信息的物理屬性與社會屬性的數(shù)字化呈現(xiàn),可視作數(shù)字孿生內(nèi)容。以文本生成領(lǐng)域為例,AIGC技術(shù)能夠很好地完成具有規(guī)范模板的內(nèi)容生成,例如結(jié)構(gòu)性報道、智能客服等。早在2014年美聯(lián)社就推出了智能寫作平臺Wordsmith,用于生產(chǎn)財報類新聞;2016年3月阿里巴巴推出人工智能服務(wù)產(chǎn)品“阿里小蜜”,為消費者提供體驗服務(wù)、導購、咨詢和智能助手等功能。

        在AI技術(shù)的輔助下,AIGC實現(xiàn)了內(nèi)容的高速量產(chǎn),自然語言生成公司Automated Insights僅在2014年就產(chǎn)生了10億篇新聞文章,每秒可撰寫多達2000篇新聞報道。然而該階段AI模型數(shù)據(jù)規(guī)模較小、架構(gòu)層級較少,數(shù)據(jù)學習能力有限,盡管可解釋性較強,內(nèi)容生成的自主性與生成內(nèi)容的真實性都有不足,AIGC普遍存在內(nèi)容空洞、刻板、題文不符等問題,尚不具備自主數(shù)據(jù)學習與內(nèi)容創(chuàng)作能力。例如在與智能客服對話過程中,智能客服無法回應(yīng)程序設(shè)置外的提問表述,回復(fù)內(nèi)容也經(jīng)常出現(xiàn)文不對題的情況。因此,該階段AIGC中AI技術(shù)與內(nèi)容生成的關(guān)系維持在AI技術(shù)輔助專業(yè)人士進行內(nèi)容生成的狀態(tài),AI技術(shù)并不能取代人工獨立完成多樣化的內(nèi)容生成任務(wù)。

        2.協(xié)助階段:AI協(xié)助內(nèi)容創(chuàng)作

        隨著深度學習算法的不斷迭代,Transformer模型、基于流的生成模型、擴散模型、CLIP模型等學習范式的進一步發(fā)展為AI模型提供了更豐富前沿的算法技術(shù),全球互聯(lián)網(wǎng)數(shù)據(jù)的激增為AI模型的深度學習提供了更大規(guī)模數(shù)據(jù),計算機、芯片等技術(shù)的升級迭代為AI模型提供了更強大的算力,算法、算據(jù)、算力三要素的共同突破催生了AIGC的爆發(fā)。該階段AIGC技術(shù)不再止步于輔助性工具,而是能夠在大規(guī)模數(shù)據(jù)深度學習模型訓練的基礎(chǔ)上,根據(jù)輸入指令生成內(nèi)容并不斷強化學習,從而實現(xiàn)初級的自主內(nèi)容輸出,協(xié)助人類完成各項任務(wù)。2022年底驚艷全球的ChatGPT正是這一階段AIGC技術(shù)的典型案例。正如Meta首席人工智能科學家Lann LeCun所說,“它很好地(把各項技術(shù))放在一起,做得很棒”,ChatGPT將Transformer架構(gòu)、大型語言模型、RLHF技術(shù)等有機結(jié)合,實現(xiàn)“1+1>2”的最終效果,并推動NLP領(lǐng)域進一步發(fā)展。在這一階段,AIGC擁有了更流暢、更仿真的內(nèi)容生成能力以及人機互動能力,從簡單輔助轉(zhuǎn)為智能協(xié)助,在內(nèi)容生成中的工具性地位得到提升,呈現(xiàn)出大數(shù)據(jù)訓練、跨模態(tài)生成、高效率生產(chǎn)等技術(shù)特征。自2017年谷歌推出Transformer模型,人工智能進入大規(guī)模數(shù)據(jù)預(yù)訓練模型時代。在AIGC領(lǐng)域,預(yù)訓練模型在多任務(wù)、多模態(tài)、多語言方面表現(xiàn)出極強適應(yīng)性,在內(nèi)容生成中扮演重要角色。目前生成式AI模型中,大規(guī)模數(shù)據(jù)預(yù)訓練成為常態(tài),主流預(yù)訓練模型的參數(shù)量均破億,而在NLP領(lǐng)域千億級的參數(shù)量也不足為奇,OpenAI公司的GPT-3參數(shù)量達1750億,谷歌公司的PaLM模型與英偉達公司的MT-NLG模型參數(shù)量甚至突破5000億。

        除此之外,AIGC在跨模態(tài)生成上也表現(xiàn)不俗。模態(tài)是指每一種信息的來源或形式,以信息媒介類型劃分,包括文本、音頻、圖像、視頻、3D等??缒B(tài)生成是指用戶輸入某一模態(tài)的指令,AI模型能夠生成另一種模態(tài)的內(nèi)容。2021年OpenAI公司推出跨模態(tài)深度學習模型CLIP,該模型實現(xiàn)了文本與圖像的跨模態(tài)關(guān)聯(lián)與匹配,是MidJourney、Stable Diffusion、DALL-E2等一眾文生圖AI繪畫工具的重要基石。而毫無繪畫基礎(chǔ)的內(nèi)容創(chuàng)作者使用MidJourney創(chuàng)作的AIGC繪畫作品《太空歌劇院》獲得美國新興數(shù)字藝術(shù)家競賽“數(shù)字藝術(shù)/數(shù)字修飾照片”類別一等獎,則充分體現(xiàn)出當前AIGC技術(shù)在跨模態(tài)生成所取得的突破性成果,也意味著AI技術(shù)已突破輔助工具的限制,成為協(xié)助人類進行內(nèi)容創(chuàng)作的技術(shù)力量。

        AIGC技術(shù)的升級,不僅改變了生產(chǎn)關(guān)系中技術(shù)要素與生產(chǎn)者的互動關(guān)系,也帶來了更高效的內(nèi)容生產(chǎn)力。據(jù)中信建投預(yù)測,2025年,生成式AI產(chǎn)生的數(shù)據(jù)將占到所有數(shù)據(jù)的10%,而2021年生成式AI產(chǎn)生的數(shù)據(jù)不到所有數(shù)據(jù)的1%。AIGC技術(shù)目前正處于該階段,AI的內(nèi)容生成能力有了驚人進展,協(xié)助編輯能力逐漸穩(wěn)定、準確且合乎邏輯,但仍未實現(xiàn)自主性突破,也時常出現(xiàn)在某些領(lǐng)域生成看似合理但并不正確甚至荒謬的內(nèi)容,同時AIGC技術(shù)在倫理方面暴露出的弊端與隱患仍需社會各界持續(xù)探討。

        3.自主階段:AI自主內(nèi)容創(chuàng)作

        基于實時自主創(chuàng)作的AIGC位于演進路徑的更高階段,目前仍在探索。在該階段,AIGC能夠?qū)崿F(xiàn)實時感知、精準認知以及自主創(chuàng)作,AI技術(shù)與內(nèi)容生成的關(guān)系從工具性的輔助或協(xié)助,上升為以虛擬個體進行內(nèi)容創(chuàng)作與交互,從而再次提升內(nèi)容生產(chǎn)力。目前AIGC技術(shù)在算法、算據(jù)與算力上都尚不能達到這一水平,需要在超大規(guī)模、超多參數(shù)量的多模態(tài)大模型以及軟硬件算力方面進一步突破。

        視覺與語言是日常生活中最常見的兩種模態(tài),通過視覺大模型能夠提升AIGC的環(huán)境感知能力,通過語言大模型能夠增強AIGC的抽象概念理解與認知能力,而單一模態(tài)不能滿足多樣化場景下的內(nèi)容生成需求,因此需要借助多模態(tài)大模型拓展AIGC的實時創(chuàng)作能力。當前,基于視覺Transformer完成多種感知任務(wù)的聯(lián)合學習、高效綠色節(jié)能的自然語言處理模型訓練框架以及多模態(tài)數(shù)據(jù)的對齊、轉(zhuǎn)換與生成是未來AIGC的重要突破點。

        伴隨著AIGC技術(shù)的不斷迭代升級,作為技術(shù)—社會體系的元宇宙也將逐漸成為觸手可及的AIGC應(yīng)用場景,因此該階段AIGC將不僅服務(wù)于現(xiàn)實世界中的多樣化場景,如通用式與定制化人形機器人,還能夠在元宇宙場景中以虛擬形象提供更真實可感的實時內(nèi)容生成與交互服務(wù),在“虛實共生”的應(yīng)用場景下發(fā)揮更大作用。

        三、AIGC的場景應(yīng)用

        現(xiàn)階段AIGC技術(shù)的發(fā)展已經(jīng)呈現(xiàn)出在生產(chǎn)方式上的變革性力量,AI技術(shù)將從根本上改變各行各業(yè)的內(nèi)容生成與關(guān)系連接,尤其是需要大規(guī)模高質(zhì)量內(nèi)容的元宇宙時代,“技術(shù)+專家”有機融合將成為新主流。正如云游戲是元宇宙演進的初級形態(tài),游戲是數(shù)字化生活的典型場景,且游戲玩家被視為元宇宙的種子用戶[7],數(shù)字化程度高、內(nèi)容需求旺盛的產(chǎn)業(yè)也正是AIGC的典型應(yīng)用場景。目前,AIGC在傳媒、影視、游戲、音樂、電商等場景的應(yīng)用已較為成熟,技術(shù)突破也將在這些領(lǐng)域率先取得創(chuàng)新性應(yīng)用。此外,AIGC技術(shù)在醫(yī)療、金融、工業(yè)等領(lǐng)域的商業(yè)化應(yīng)用也在快速發(fā)展中。

        (一)AIGC+傳媒:人機協(xié)同推動媒體融合提質(zhì)增效

        基于NLP技術(shù)的文本生成在AIGC領(lǐng)域發(fā)展較早,其在結(jié)構(gòu)性報道中的出色表現(xiàn)也受到普遍認可并實現(xiàn)全球廣泛應(yīng)用。而ChatGPT的出現(xiàn),進一步提升了NLP技術(shù)前沿,其表現(xiàn)出的文本續(xù)寫、文學創(chuàng)作、多輪對話能力都將使AIGC在新聞報道領(lǐng)域進行更為深入的應(yīng)用探索。Narrative Science創(chuàng)始人曾預(yù)測,到2030年,90%以上的新聞將由機器人完成。除此之外,AIGC在音頻、視頻模態(tài)的技術(shù)升級,也促使傳媒產(chǎn)業(yè)走向人機協(xié)同的媒體深度融合道路,并依賴于AIGC的高產(chǎn)高效,為媒體融合發(fā)展提質(zhì)增效。

        在內(nèi)容生產(chǎn)流程中,AIGC技術(shù)在信息采編、內(nèi)容制播、產(chǎn)品創(chuàng)新等多個環(huán)節(jié)發(fā)揮了出色的協(xié)助作用。在采編環(huán)節(jié),借助語音識別技術(shù)對語音內(nèi)容進行文字轉(zhuǎn)寫,能夠有效壓縮稿件撰寫前的錄音整理工作,提升新聞時效性。例如2022年冬奧會期間,科大訊飛的智能錄音筆通過跨語種的語音轉(zhuǎn)寫助力記者2分鐘快速出稿。在制播環(huán)節(jié),自動生成字幕、視頻拆條、任務(wù)追蹤等智能化剪輯工具不僅節(jié)約了時間與人力成本,還能夠最大限度挖掘內(nèi)容版權(quán)價值,在中華人民共和國成立七十周年國慶閱兵活動報道中,央視頻使用智能剪輯平臺對關(guān)鍵事件視頻進行處理、剪輯與推送,其生成的短視頻內(nèi)容快速火爆網(wǎng)絡(luò)。在產(chǎn)品創(chuàng)新環(huán)節(jié),近年來傳媒業(yè)大量使用的虛擬主播,也離不開AIGC技術(shù)的支持。虛擬主播本質(zhì)上是基于AI合成技術(shù)的虛擬數(shù)字人,通過底層算法、實時語音與人物動畫的技術(shù)合成,最終交付的虛擬主播能夠?qū)斎氲奈谋具M行自動播報,并且語音、表情與唇動始終保持同步,在新聞播報、節(jié)目主持等方面都表現(xiàn)不俗。

        AIGC技術(shù)對傳媒業(yè)的影響不僅體現(xiàn)于對傳媒機構(gòu)的內(nèi)容生產(chǎn)流程進行智能升級,推動媒體融合進程,還進一步釋放了傳媒工作者的內(nèi)容生產(chǎn)力,使其轉(zhuǎn)向更具深度、廣度與人文關(guān)懷的內(nèi)容創(chuàng)作,同時為傳媒用戶提供了更豐富多元、更快速便捷的內(nèi)容服務(wù)以及參與到內(nèi)容生產(chǎn)中來的機會。

        在上述AIGC應(yīng)用中,AI技術(shù)更多作為輔助性工具發(fā)揮作用,部分AI協(xié)作內(nèi)容生產(chǎn)時并不涉及內(nèi)容創(chuàng)作本身,而是對現(xiàn)有內(nèi)容的簡單拆分或有序整合。這受制于早期AI算法水平,隨著NLP技術(shù)前沿的提升,AI模型將具有更強的認知能力,更強大的AIGC技術(shù)將投入行業(yè)應(yīng)用。數(shù)字媒體公司BuzzFeed在2023年1月27日表示,該公司將依靠ChatGPT背后的OpenAI公司來加強部分內(nèi)容創(chuàng)作,為觀眾提供個性化內(nèi)容,并計劃今年讓人工智能在公司的編輯和業(yè)務(wù)運營中發(fā)揮更大的作用,是推進傳媒業(yè)人機協(xié)同進一步發(fā)展的新開始。

        (二)AIGC+影視:技術(shù)加持拓展影視作品創(chuàng)作空間

        影視業(yè)的產(chǎn)業(yè)鏈條與制作周期都較長,這使得資本投入后,需要較長資金周轉(zhuǎn)周期,也滋生出從劇本創(chuàng)作、現(xiàn)場拍攝到后期制作的過程性問題,如高質(zhì)量劇本欠缺、制作成本較高、作品質(zhì)量一般等。而AIGC技術(shù)的應(yīng)用,一定程度上能夠激發(fā)劇本創(chuàng)作活力,降低拍攝成本,提升后期制作質(zhì)量,從而拓展影視作品的創(chuàng)作空間。

        在劇本創(chuàng)作上,AIGC技術(shù)能夠通過對海量劇本數(shù)據(jù)的分析歸納,快速生成完整故事劇本,協(xié)助編劇進行內(nèi)容創(chuàng)作。早在2020年,一位美國學生就利用GPT-3創(chuàng)作劇本并制成短片《律師》,目前OpenAI的ChatGPT、百度文心的ERNIE3.0等模型在文學創(chuàng)作領(lǐng)域也都獲得較好反饋。此外,AIGC技術(shù)還能使其他文本類型轉(zhuǎn)為劇本形式,從而減輕劇本改寫的工作壓力,如海馬輕帆在2021年對外推出“小說轉(zhuǎn)劇本”智能寫作功能,業(yè)內(nèi)超80%的影視劇本通過海馬輕帆的系統(tǒng)進行評測和修改,包括熱門影視劇《你好,李煥英》《流浪地球》等。

        在場景創(chuàng)作上,AIGC技術(shù)通過合成虛擬場景,節(jié)約場景搭建成本,同時能夠通過實時渲染等技術(shù)在拍攝現(xiàn)場實現(xiàn)后期成果預(yù)覽,縮短后期制作時間。例如待播電視劇《狐妖小紅娘月紅篇》中部分內(nèi)容采用虛擬拍攝技術(shù),通過實時追蹤、實時摳像、實時渲染技術(shù),將實景拍攝與CG元素實時合成,并把空間、透視、光影等多種場景要素以及真實人物在拍攝現(xiàn)場進行數(shù)字合成,為導演提供實時的畫面預(yù)覽?;诂F(xiàn)實增強技術(shù),AIGC虛擬人物能夠與真人同臺互動,如湖南衛(wèi)視《你好星期六》節(jié)目中主持人與嘉賓同虛擬主播小漾的實時互動以及北京臺2023年春晚中虛擬鄧麗君與王心凌、韓雪同臺合唱,為觀眾帶來耳目一新的視聽體驗。

        在后期制作上,AIGC技術(shù)應(yīng)用不僅包括圖像的修復(fù)與還原,還能夠合成人臉從而對特定人物進行替換。前者重點應(yīng)用于歷史影像的修復(fù)與還原,如通過智能分析檢測噪音、編碼失真、運動以及畫面復(fù)雜度等情況,運用AI修復(fù)算法去除破壞性因素并進行多維度畫質(zhì)增強,使得張國榮《熱·情》演唱會最終以高清品質(zhì)呈現(xiàn)在觀眾面前;后者則可用于“數(shù)字復(fù)活”已故演員、替換劣跡演員等,如演員保羅·沃克在拍攝《速度與激情7》期間去世,劇組采用AI換臉的方式使其“完成了”劇情拍攝,而近年來國內(nèi)多位藝人失德乃至違法,為保證影視作品能夠成功播出,部分劇組也會選擇對劣跡演員進行AI換臉。

        AIGC技術(shù)在影視業(yè)的應(yīng)用較為廣泛且常見,但并未觸及內(nèi)容創(chuàng)作核心,工具屬性更強,同時AI換臉、摳圖技術(shù)的濫用也在業(yè)內(nèi)存在一定爭議。但毫無疑問,AIGC技術(shù)為影像作品提供了更多創(chuàng)作空間與創(chuàng)作靈感,核心創(chuàng)意的產(chǎn)出仍由專業(yè)影視從業(yè)者完成。

        (三)AIGC+游戲:AI技術(shù)提升產(chǎn)業(yè)生產(chǎn)力,解放游戲創(chuàng)造力

        游戲業(yè)存在一個經(jīng)典的“不可能三角”論斷,即“你只能在時間、成本與質(zhì)量之間三選二”。但AIGC技術(shù)的成熟有望打破這一“不可能三角”,提升游戲產(chǎn)業(yè)生產(chǎn)力。首先,AIGC具有高效率生產(chǎn)的技術(shù)特征,在重復(fù)性、機械化內(nèi)容生產(chǎn)上具有絕對優(yōu)勢;其次,AIGC的大模型趨勢使其前期成本較高,但AIGC技術(shù)發(fā)展依舊符合摩爾定律,隨著技術(shù)的成熟迭代與軟硬件設(shè)備的價格下降,最終能夠?qū)崿F(xiàn)降本增效的目標;最后,AIGC在內(nèi)容生成,尤其是在圖像生成領(lǐng)域的表現(xiàn)已經(jīng)達到人類平均水平,能夠滿足游戲業(yè)大量重復(fù)且瑣碎的美術(shù)需求。

        AIGC在游戲領(lǐng)域的價值還體現(xiàn)在場景、角色制作方面的效能提升,從而解放游戲創(chuàng)造力。目前,許多游戲開發(fā)者已在使用AIGC技術(shù)進行游戲場景開發(fā),例如美國戲劇動畫《瑞克和莫蒂》的創(chuàng)作者Justin

        Roiland在2022年底發(fā)布了一款內(nèi)含Midjourney生成的藝術(shù)作品的游戲,為玩家探索外星世界增添風味。但主流的游戲內(nèi)容生產(chǎn)方式仍是由AI驅(qū)動的游戲開發(fā)生態(tài)系統(tǒng)進行程序生成,其效能與可控性介于純手工與AIGC之間,例如2022年推出的交互內(nèi)容游戲《黑客帝國:覺醒》采用該技術(shù),在最新引擎加持下創(chuàng)建了包含700萬實例化資產(chǎn)的虛擬城市。此外,NPC角色作為游戲的另一重要組成部分,不僅需要特定語音,還需具備差異化的行為特征,傳統(tǒng)制作方式耗時費力,如2018年發(fā)售的游戲《荒野大鏢客2》為打造約60平方公里的虛擬場景,先后由600余名美術(shù)師歷時8年完成。但與之相比,生成式AI能夠在角色開發(fā)過程中承擔大量低價值工作且生產(chǎn)效率較高,從而節(jié)省更多資源,使游戲美術(shù)師們投入到內(nèi)容創(chuàng)作當中,當前元宇宙虛擬化身創(chuàng)建公司Inworld AI正嘗試在虛擬NPC創(chuàng)建過程中引入生成式AI技術(shù)。

        除此之外,借助生成式AI,游戲本身也能夠獲得更具創(chuàng)意的交互方式。如游戲公司Cyber Manufacture Co.近日發(fā)布的最新AIGC技術(shù)預(yù)覽Quantum Engine,用戶可使用自然語言與NPC隨意互動,AI會根據(jù)用戶表達,實時生成劇情互動。這一應(yīng)用突破了AI技術(shù)服務(wù)于游戲開發(fā)的生產(chǎn)關(guān)系,將生成式AI作為游戲核心,向用戶提供真正私人化、個性化的游戲體驗。

        (四)AIGC+音樂:智能生成促進音樂產(chǎn)業(yè)智能升級

        音頻生成作為早期AIGC領(lǐng)域,目前的商業(yè)化應(yīng)用已較為成熟,主要包括語音識別與歌曲生成兩大應(yīng)用場景。在音樂領(lǐng)域,AIGC技術(shù)在作詞、作曲、編曲等方面的應(yīng)用較為廣泛,已經(jīng)支持基于開頭旋律、圖片或文字描述、音樂類型、情緒類型等生成特定樂曲,可應(yīng)用于音樂欣賞、游戲音效、實體場景配樂等多個領(lǐng)域。2022年,昆侖萬維推出商業(yè)級作曲AI模型天工樂府SkyMusic,該模型支持31種語種的歌詞生成、多曲風旋律生成、多軌道編曲、VOCAL生成和智能縮混等,已在全球多個音視頻平臺發(fā)行近20首AI生成歌曲。

        此外,“技術(shù)+專家”模式在音樂產(chǎn)業(yè)表現(xiàn)突出,AI與專家合作能夠基于現(xiàn)有樂譜進行智能生成,續(xù)寫著名音樂家作品,如PlayformAI與音樂專家合作使用AI續(xù)寫貝多芬《第十交響樂》、中國音樂學院“AI釋譜”項目利用人工智能生成古琴曲《燭》。而且AIGC技術(shù)還能夠降低普通用戶的音樂創(chuàng)作門檻,快速生成歌曲,如網(wǎng)易2022年推出AI音樂創(chuàng)作平臺天音,能夠10秒搞定詞曲編唱,為用戶定制拜年曲。

        AI技術(shù)的引入不僅為音樂產(chǎn)業(yè)提供了音樂創(chuàng)作的智能工具,而且以技術(shù)賦能用戶,豐富了用戶的音樂消費行為,實現(xiàn)產(chǎn)業(yè)的智能升級。但AIGC技術(shù)帶來的歌曲生成低成本,一定程度上也會使得大量從事低水平編曲的音樂創(chuàng)作者受到?jīng)_擊,從而改變音樂產(chǎn)業(yè)的人員結(jié)構(gòu)。

        (五)AIGC+電商:虛擬人貨場營造沉浸式消費體驗

        隨著各項數(shù)字技術(shù)的成熟與商業(yè)化應(yīng)用,沉浸式消費成為電子商務(wù)的主流發(fā)展趨勢,虛擬主播、在線3D預(yù)覽、數(shù)字展覽等形式也極大豐富了消費者的消費體驗。而在AIGC技術(shù)的加持下,虛擬人貨場將迎來更加真實、沉浸式的數(shù)字再現(xiàn),從而為消費者營造沉浸式的消費體驗。

        首先是虛擬主播的打造填補了人力空白,能夠?qū)崿F(xiàn)24小時不間斷地商品展示與介紹,隨著NLP技術(shù)的進步,虛擬主播或?qū)橄M者提供更加生動的互動體驗。其次是商品3D模型的在線展示,為用戶提供全方位的商品呈現(xiàn),甚至能夠提供虛擬的使用場景搭建,如宜家2022年推出虛擬設(shè)計工具,讓用戶能夠掃描自家房間或使用其虛擬展廳進行家具擺放,為消費者提供更為沉浸式的購物體驗。最后是購物場景數(shù)字化再現(xiàn),通過在二維空間構(gòu)建三維場景,AIGC技術(shù)能夠?qū)崿F(xiàn)虛擬購物場景的低成本、大批量構(gòu)建,從而降低商家搭建3D場景的成本,并為消費者提供線上線下融合的消費體驗。但目前智能購物場景搭建呈現(xiàn)兩種極端趨勢:一端是技術(shù)水平有限、仿真度較低的常態(tài)化場景,另一端是技術(shù)水平較高、仿真度較好但持續(xù)性欠佳的秀場式場景。未來隨著生成式AI以及AI技術(shù)的感知與認知能力提升,AIGC在電商領(lǐng)域的應(yīng)用將更為真實持久。

        四、AIGC的發(fā)展趨勢與關(guān)鍵點

        以2022年為節(jié)點,AIGC領(lǐng)域發(fā)展勢如破竹,AIGC技術(shù)帶來的生產(chǎn)力升級將會為各行各業(yè)提供新的發(fā)展契機,但從商業(yè)化進程來看,AIGC實現(xiàn)多產(chǎn)業(yè)大規(guī)模應(yīng)用仍需一定時間。未來,AIGC的發(fā)展需要把握以下三個方面。

        (一)AIGC將成為元宇宙時代的內(nèi)容生產(chǎn)基礎(chǔ)設(shè)施

        目前內(nèi)容生產(chǎn)方式主要包括PGC(專業(yè)生成內(nèi)容)、UGC(用戶生成內(nèi)容)與AIGC(人工智能生成內(nèi)容),其中AIGC正處于AI輔助生成內(nèi)容階段,尚未達到AI自主生成內(nèi)容階段,AI生產(chǎn)力還有待釋放。在元宇宙時代,元宇宙信息生態(tài)有賴于高效的內(nèi)容生產(chǎn)機制,而AIGC能夠通過算法訓練做到根據(jù)用戶行為與反饋進行實時生產(chǎn)信息內(nèi)容,極大提升內(nèi)容生產(chǎn)效率,且通過大量優(yōu)質(zhì)信息的生產(chǎn)維護元宇宙的信息生態(tài)。[8]與此同時,由于元宇宙時代內(nèi)容需求的增大,PGC與UGC生產(chǎn)效率不足以滿足這一需求,能夠低成本、高效率進行多樣化內(nèi)容生產(chǎn)的AIGC將會成為主流生產(chǎn)方式,而AIGC技術(shù)與數(shù)字孿生的高度適配也會使得AIGC成為元宇宙信息生態(tài)的主要組成。因此,AIGC將會成為元宇宙時代內(nèi)容生產(chǎn)的關(guān)鍵底層技術(shù)。

        從用戶角度看,基于元宇宙內(nèi)容生態(tài)的數(shù)量高飽和、信息低密度特征,用戶更加追求多樣化、定制化的信息服務(wù),并且出于對數(shù)字身份認同的高度需要,更希望獲得自由表達的空間與能力。AIGC技術(shù)不僅能作為底層技術(shù)為元宇宙生態(tài)提供自動化內(nèi)容生成,豐富元宇宙內(nèi)容生態(tài),而且能賦權(quán)用戶對AIGC進行個性化微調(diào),從而提供定制化信息服務(wù),還能輔助用戶進行內(nèi)容創(chuàng)作,降低內(nèi)容創(chuàng)作門檻,幫助更多普通用戶進行自我表達,擴大內(nèi)容規(guī)模的同時促進用戶身份轉(zhuǎn)型。

        不論面向元宇宙生態(tài)需求還是用戶需求,AIGC都將是元宇宙場景下內(nèi)容生產(chǎn)的主流,核心在于AI技術(shù)對生產(chǎn)力的大幅提升與創(chuàng)造,而元宇宙時代正是AIGC作為內(nèi)容生產(chǎn)基礎(chǔ)設(shè)施的時代。

        (二)“AI+人文”將成為AIGC的主要發(fā)展趨勢

        AIGC的演進路徑是從輔助、協(xié)助再到自主,但社會信息內(nèi)容完全依賴AI自主生成將會導致人的主體性缺失。德國社會學家馬克斯·韋伯將人類的理性分為工具理性與價值理性,前者追求工具的效能與技術(shù)的先進,后者關(guān)懷人的命運與尊嚴。如果將AI技術(shù)、人文精神與之對應(yīng)起來,那么AI技術(shù)可以納入工具理性范疇,人文精神可以納入價值理性范疇,二者是對立又統(tǒng)一的關(guān)系。因此“AI+人文”將成為AIGC的主要發(fā)展趨勢。

        “AI+人文”是將人文精神貫穿于技術(shù)應(yīng)用當中,在AI生成內(nèi)容的前、中、后始終保持人文關(guān)懷與人文主義思考。技術(shù)本身是中立的,但在技術(shù)的發(fā)展與應(yīng)用過程中,政治、經(jīng)濟因素不可避免地會影響技術(shù)應(yīng)用的走向,甚至隱身于技術(shù)之中形成看似公平公正、自然合理的內(nèi)容生態(tài)。與此同時,英國媒介學者戴維·莫利也提醒人們不要夸大新媒體對于人文傳統(tǒng)的沖擊力和影響力,不要迷失在技術(shù)的神話中,他認為“最新的技術(shù)也可被用于最傳統(tǒng)的目的”。[9]人文精神是走出技術(shù)神話的燈塔,在AIGC領(lǐng)域,人文精神也將是引領(lǐng)技術(shù)向善的關(guān)鍵力量。

        在AIGC的應(yīng)用過程中,內(nèi)容安全與倫理問題是技術(shù)應(yīng)用無法避免的現(xiàn)實問題,例如ChatGPT被用戶用來進行課程考試與論文寫作、Podcast.ai“復(fù)活”已故的史蒂夫·喬布斯并用AI生成對話等。除此之外,AIGC技術(shù)模型本身由于訓練數(shù)據(jù)的不可控,存在內(nèi)生性的算法歧視。盡管有人認為預(yù)訓練模型使用更多、更多元全面的數(shù)據(jù)量與參數(shù)進行模型訓練,能夠避免算法歧視,但即便是使用了1750億參數(shù)、45TB預(yù)訓練數(shù)據(jù)的GPT-3仍存在明顯的基于宗教的偏見與性別歧視。因此,人文精神與人工力量的介入是AIGC避免算法歧視的必然路徑。例如OpenAI 2021年通過向外包公司購買人工數(shù)據(jù)標記服務(wù)來提升模型對有關(guān)暴力、仇恨言論以及性別歧視的認識,ChatGPT中也采用了RLHF技術(shù)來提高模型回答的質(zhì)量。

        未來,AIGC技術(shù)的發(fā)展將更加驚人,在不斷提升技術(shù)水平以為人類提供更智能內(nèi)容生成服務(wù)的同時,保持人文精神與人文關(guān)懷將是AIGC技術(shù)向善的關(guān)鍵,“AI+人文”正契合了這一趨勢。

        (三)AIGC的發(fā)展關(guān)鍵點在于技術(shù)要素與商業(yè)要素的共同進步

        AIGC未來發(fā)展關(guān)鍵點在于兩個要素,即由數(shù)據(jù)、技術(shù)、資本構(gòu)成的技術(shù)要素和由用戶與應(yīng)用場景組成的商業(yè)要素,二者共同進步才能形成AIGC領(lǐng)域的繁榮生態(tài)。

        在技術(shù)要素中,數(shù)據(jù)是AIGC發(fā)展的“燃料”。目前多模態(tài)大模型是AI模型發(fā)展的主要趨勢,多模態(tài)與大模型都需要巨量數(shù)據(jù)用以模型訓練,ChatGPT模型參數(shù)已達萬億級,AI繪畫工具Midjourney收集和訓練了數(shù)百萬個互聯(lián)網(wǎng)文本、圖像數(shù)據(jù)。由此可見,大數(shù)據(jù)語料與訓練集是AIGC技術(shù)發(fā)展的數(shù)據(jù)保障。技術(shù)是AIGC發(fā)展的核心動力,GAN模型對小規(guī)模數(shù)據(jù)的高效運用緩解了數(shù)據(jù)不足的窘境,Transformer預(yù)訓練模型對大規(guī)模數(shù)據(jù)的有效處理為AI大模型提供了可行路徑,多模態(tài)認知計算提升了AIGC的感知力與交互性。因此,算法技術(shù)的進步推動著AIGC的不斷升級。資本是AIGC發(fā)展的堅實后盾。巨量數(shù)據(jù)、多種模態(tài)帶來的是AIGC對軟硬件設(shè)備的更大需求,GPT-3的總訓練費用約1200萬美元,此外,AIGC的實時生成也離不開本地與云端算力的支持,這都需要殷實的資本加以保障。

        在商業(yè)要素中,用戶正在成為模型發(fā)展與應(yīng)用的主力。開源模式正在成為AIGC發(fā)展的“催化劑”,深度學習模型CLIP、對話式NLP模型ChatGPT、AI繪畫工具DALL-E2都采取了開源模式,從而加速其廣泛應(yīng)用。而開源模式的核心在于撬動用戶力量,通過與真實用戶的交互為AI模型提供訓練數(shù)據(jù),并借助用戶反饋對模型進行優(yōu)化與微調(diào),同時也滿足了用戶的信息交流與內(nèi)容創(chuàng)作需求,實現(xiàn)研發(fā)與應(yīng)用的雙贏。根據(jù)用戶需求的差異性與應(yīng)用市場的細分化,未來AIGC的應(yīng)用場景將會更加分眾化,基于特定群體提供定制化的AIGC服務(wù),同時也為部分群體開放模型微調(diào)功能,以激發(fā)廣大用戶的想象力與創(chuàng)造力,進一步豐富現(xiàn)有應(yīng)用場景。此外,更多元的應(yīng)用場景也能夠提升AIGC的商業(yè)價值,從而形成完整的“研發(fā)-變現(xiàn)-研發(fā)”商業(yè)閉環(huán)。

        技術(shù)要素決定了技術(shù)水平,而商業(yè)要素關(guān)系著技術(shù)變現(xiàn)。當前AIGC領(lǐng)域基礎(chǔ)技術(shù)層已獲得突破性成果,未來幾年在應(yīng)用場景上的技術(shù)落地則為AIGC增添了更大的市場價值,從而形成可持續(xù)的產(chǎn)研互促,推動AIGC發(fā)展蒸蒸日上。

        五、結(jié)語

        可以預(yù)見,未來AIGC將會更為火爆,甚至成為全社會的熱點話題。在AIGC掀起的技術(shù)變革風暴中,AIGC在內(nèi)容生產(chǎn)力的提升與創(chuàng)造上發(fā)揮了巨大作用,但知識產(chǎn)權(quán)、內(nèi)容安全、使用倫理等領(lǐng)域正處于風暴眼中,需要人們始終保持警惕,堅守原則,保持思考,拉緊底線,始終明確AIGC技術(shù)從來都不是目的,更美好的生活才是核心。

        [本文為北京市社會科學基金規(guī)劃重點項目“首都互聯(lián)網(wǎng)平臺企業(yè)社會責任與協(xié)同治理體系研究”的階段性成果,項目批準號(22XCA002)]

        參考文獻:

        [1]量子位.Diffusion的火,只是AIGC的縮影|量子位智庫報告(附下載)[EB/OL].(2022-09-22)[2023-01-05].https://www.qbitai.com/2022/09/38066.html.

        [2]李白楊,白云,詹希旎,李綱.人工智能生成內(nèi)容(AIGC)的技術(shù)特征與形態(tài)演進[J/OL].圖書情報知識:1-9[2023-01-31].

        [3]Wang Y H, Herron L, Tiwary P. From Data to Noise to Data for Mixing Physics across Temperatures with Generative Artificial Intelligence[J].Proceedings of the National Academy of Sciencesof the United States of America,2022,119(32):e2203656119.

        [4]人工智能生成內(nèi)容(AIGC)白皮書(2022年)[EB/OL].(2022-09-04)[2023-01-31].http://www.cbdio.com/BigData/2022-09/04/content_6170457.htm.

        [5]Goodfellow I J, Pouget-Abadie J,Mirza M,et al. Generative adversarial nets[C]//Proceedings of the 27th International Conference on Neural Information Processing Systems,Montreal,Dec 8-13,2014.Cambridge:MIT Press,2014:2672-2680.

        [6]人工智能生成內(nèi)容(AIGC)白皮書(2022年)[EB/OL].(2022-09-04)[2023-01-31].http://www.cbdio.com/BigData/2022-09/04/content_6170457.htm.

        [7]郭全中.元宇宙的緣起、現(xiàn)狀與未來[J].新聞愛好者,2022(1):26-31.

        [8]吳江,曹喆,陳佩,賀超城,柯丹.元宇宙視域下的用戶信息行為:框架與展望[J].信息資源管理學報,2022,12(01):4-20.

        [9]戴維·莫利.媒介理論、文化消費與技術(shù)變化[J].張道建,譯.文藝研究,2011(4).

        (郭全中為中央民族大學新聞與傳播學院教授,江蘇紫金傳媒智庫高級研究員;張金熠為中央民族大學新聞與傳播學院碩士生)

        編校:鄭 艷

        亚洲综合久久久中文字幕| 人妻激情另类乱人伦人妻| 人妻少妇看a偷人无码精品| 亚洲国产精品国语在线| 亚洲一区二区三区视频免费| 亚洲悠悠色综合中文字幕| 老太脱裤子让老头玩xxxxx| 亚洲中文无码成人影院在线播放 | 男女上床视频在线观看| 亚洲国产av一区二区四季| 51看片免费视频在观看| 最近高清中文在线字幕观看| 国产aⅴ丝袜旗袍无码麻豆| 尤物精品国产亚洲亚洲av麻豆| 亚洲精品无码专区| 男女超爽视频免费播放| 91亚洲色图在线观看| 亚洲天堂av中文字幕在线观看| 久久成人影院精品777| av鲁丝一区鲁丝二区| 亚洲中文有码一区二区| 综合国产婷婷精品久久99之一| 久久露脸国产精品| 日韩爱爱视频| av天堂手机在线看片资源| 日本天堂免费观看| 国产精品久久久久久久久鸭| 果冻国产一区二区三区| 国产亚洲av成人噜噜噜他| 国产精品狼人久久久久影院| 久久99国产伦精品免费| 亚洲国产综合久久精品| 豆国产96在线 | 亚洲| 日本高清aⅴ毛片免费| 国产对白刺激在线观看| 亚洲一区二区三区精品网| 中文字幕熟女激情50路| 久久精品国产只有精品96 | 永久免费看黄网站性色| 免费欧洲毛片a级视频老妇女| 色av综合av综合无码网站|