亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        Sora給內(nèi)容生產(chǎn)融合創(chuàng)新 帶來(lái)的機(jī)遇與挑戰(zhàn)

        2024-01-01 00:00:00李三強(qiáng)林雨婷
        媒體融合新觀察 2024年3期
        關(guān)鍵詞:人工智能融合內(nèi)容

        摘要

        Sora作為AIGC的現(xiàn)象級(jí)產(chǎn)品,將給內(nèi)容生產(chǎn)帶來(lái)深遠(yuǎn)影響。Sora自帶融合屬性,它不僅能給現(xiàn)有的媒介融合添一把猛火,而且還開(kāi)辟了影像融合、主體融合新路徑。這三重融合(尤其是后面的影像融合、主體融合)將極大賦能內(nèi)容生產(chǎn):既給內(nèi)容生產(chǎn)帶來(lái)前所未有的機(jī)遇,也給內(nèi)容生產(chǎn)帶來(lái)難以預(yù)期的挑戰(zhàn)。

        關(guān)鍵詞

        Sora 媒介融合 影像融合 主體融合

        一、Sora :內(nèi)容生產(chǎn)融合創(chuàng)新的助推器

        2024年2月15日,OpenAI公司在推出 ChatGPT不到15個(gè)月,公布了旗下首個(gè)文生視頻模型Sora,引發(fā)世人關(guān)注和熱議。從Sora首發(fā)48個(gè)模型視頻中,人們看到了內(nèi)容生產(chǎn)融合創(chuàng)新的新形態(tài)與新趨勢(shì),可以毫不夸張地說(shuō),Sora 必將成為內(nèi)容生產(chǎn)領(lǐng)域融合創(chuàng)新的助推器。

        事實(shí)上,Sora并非第一個(gè)專注于文生視頻技術(shù)的大模型,由生成式視頻模型引發(fā)的新一輪“科技革命”在國(guó)內(nèi)外早有端倪。2023年6月,Runway發(fā)布了視頻編輯工具Gen-2,可以根據(jù)提示詞生成視頻。同年11月,Stability AI 發(fā)布Stable Video Diffusion模型;Meta公司推出的Emu Video功能,可以根據(jù)純文本、純圖像或組合的文本和圖像輸入來(lái)生成視頻。谷歌公司也在2023年12月和2024年1月相繼發(fā)布了零鏡頭視頻生成模型VideoPoet和一次性生成視頻模型Lumiere。國(guó)內(nèi)方面,字節(jié)跳動(dòng)已正式發(fā)布MagicVideo-V2文生視頻大模型;百度推出了能夠處理文本和圖像組合輸入的統(tǒng)一模態(tài)視頻生成系統(tǒng)UniVG;騰訊發(fā)布了視頻生成模型VideoCrafter2;阿里打造了自研的 Animate Anyone。

        相較于同類型視頻人工智能大模型,Sora 具有生成視頻時(shí)間長(zhǎng)、多角度、畫(huà)面連續(xù)且一致等優(yōu)勢(shì),這些優(yōu)勢(shì)彰顯著Sora在內(nèi)容生產(chǎn)融合創(chuàng)新的新突破:第一,Sora可將簡(jiǎn)短的文本描述轉(zhuǎn)化成長(zhǎng)達(dá)1分鐘的高清視頻,而許多同類大模型尚未攻克4秒大關(guān)。如OpenAI官方發(fā)布的 59 秒樣本視頻,它由64個(gè)提示詞(prompt)創(chuàng)作而來(lái)。根據(jù)提示詞,Sora利用GPT技術(shù)強(qiáng)大的理解力能準(zhǔn)確地將用戶提示轉(zhuǎn)換為更長(zhǎng)的詳細(xì)轉(zhuǎn)譯,再運(yùn)用視頻畫(huà)面演繹用戶文本,生成具有各種場(chǎng)景和人物的高質(zhì)量視頻剪輯成片;第二,Sora對(duì)人物和場(chǎng)景元素在三維空間中移動(dòng)的模擬感知能力較強(qiáng),可以生成帶有動(dòng)態(tài)視角變化的視頻。在OpenAI官方發(fā)布的東京街頭漫步的女性樣本視頻中,Sora可以生成多個(gè)景別的畫(huà)面,既有覆蓋全身和街景的遠(yuǎn)景、腳部以上的全景,也有胸部以上的近景和聚焦臉部特征的特寫(xiě),通過(guò)一次性提供多幀預(yù)測(cè),Sora可確保畫(huà)面主體即使暫時(shí)離開(kāi)視野,轉(zhuǎn)回時(shí)也能夠與先前保持一致性,生成的連續(xù)性畫(huà)面可以加深觀眾的觀看沉浸體驗(yàn),增強(qiáng)現(xiàn)實(shí)感。若將Sora強(qiáng)大的演繹能力和推理闡述能力應(yīng)用于智能媒體內(nèi)容生產(chǎn)中,填補(bǔ)即時(shí)新聞在視頻化轉(zhuǎn)向上的新發(fā)展,推理其余景別的畫(huà)面、合成多段既有視頻素材、促進(jìn)內(nèi)容精準(zhǔn)推送等工作中,視頻制作的速度及傳播力均可能得到顯著提升。

        從文本生成模型GPT、文生圖像模型 DALL·E,再到文生視頻模型Sora,OpenAI 公司在生成式人工智能的探索逐漸拓展,或已打造出了一條具有前瞻性的人工通用智能(Artificial General Intelligence,簡(jiǎn)稱AGI)技術(shù)路線。Sora作為一種AIGC技術(shù),它是結(jié)合GPT和DALLE的思路迭代而來(lái)的文本、圖像、視頻生成視頻模型,它創(chuàng)新了視頻生成的方式,也標(biāo)志著人工智能在理解人類社會(huì)真實(shí)世界場(chǎng)景并與之互動(dòng)方面邁出重大一步。

        Sora的出現(xiàn)必將極大推動(dòng)內(nèi)容生產(chǎn)融合創(chuàng)新,這種融合創(chuàng)新將體現(xiàn)在三個(gè)層面:第一個(gè)層面就是原有的媒介融合;第二個(gè)層面為已經(jīng)開(kāi)始的影像融合;第三個(gè)層面則是將要開(kāi)始的主體融合。媒介融合、影像融合、主體融合,三者合為一體,Sora為代表的 AIGC 將把內(nèi)容生產(chǎn)的融合創(chuàng)新推向新的高度。

        二、Sora 與媒介融合

        當(dāng)前的技術(shù)社會(huì)并非“社會(huì)的社會(huì)”,而是“聯(lián)結(jié)的社會(huì)”,其現(xiàn)代化的本質(zhì)便是聯(lián)結(jié)[1]。自 2013 年以來(lái),“媒介融合”概念歷經(jīng)縣級(jí)融媒體中心建設(shè)、全媒體傳播體系等延續(xù)發(fā)展,目前已進(jìn)入媒介融合的“深水區(qū)”,政策層面的關(guān)注度與重要性只增不減。科技的車輪滾滾向前,AI 技術(shù)的參與有助于實(shí)現(xiàn)建設(shè)媒介融合內(nèi)容生成、分發(fā)、管理和優(yōu)化的智能融媒形態(tài),新聞媒體需把握好發(fā)展機(jī)遇,特別是抓住Sora準(zhǔn)確的闡釋能力、強(qiáng)大的內(nèi)容生產(chǎn)能力,采用超越采寫(xiě)交互的傳統(tǒng)思路,緊跟時(shí)代潮流,匯集優(yōu)勢(shì)資源,堅(jiān)持將技術(shù)賦權(quán)、賦能、賦魂的思想嵌入媒介融合的整體架構(gòu)。

        當(dāng)前,AIGC技術(shù)已超越簡(jiǎn)單的采寫(xiě)交互訓(xùn)練,深度嵌入媒體整體架構(gòu)中,優(yōu)化資源配置,放大協(xié)同效能,勾勒人機(jī)共生的和諧發(fā)展藍(lán)圖。在內(nèi)容分發(fā)方面,美聯(lián)社建設(shè)標(biāo)記系統(tǒng),通過(guò)圖像識(shí)別來(lái)優(yōu)化內(nèi)容,創(chuàng)建編輯驅(qū)動(dòng)的計(jì)算機(jī)視覺(jué)分類法,既節(jié)省了制作時(shí)間,還有助于更輕松地呈現(xiàn)內(nèi)容。AIGC 技術(shù)還助力智能算法日趨完善,浙江日?qǐng)?bào)報(bào)業(yè)集團(tuán)旗下的傳播大腦科技(浙江)股份有限公司不斷創(chuàng)新浙報(bào)特色的推薦算法,借助AIGC技術(shù)構(gòu)建起一套全新的推薦引擎,平衡公共性與商業(yè)性,讓智能算法與主流信息傳播有機(jī)融合。在AIGC深化賦能融媒建設(shè)的路徑方面,具體演進(jìn)可從新華社和阿里巴巴合資打造的“媒體大腦”發(fā)展歷程窺見(jiàn)一斑。2017年12月 26日,中國(guó)第一個(gè)媒體人工智能平臺(tái)“媒體大腦”對(duì)外發(fā)布,通過(guò)該平臺(tái),新華社推出了大量創(chuàng)意與科技融合的 MGC(Machine Generated Content)視頻智慧新聞,主要運(yùn)用AIGC技術(shù)聚焦新聞生產(chǎn)的前期階段。2019年11月26 日,“媒體大腦3.0”正式發(fā)布,這是國(guó)內(nèi)第一個(gè)面向融媒中心的智能化解決方案。它以區(qū)塊鏈和AI技術(shù)為顯著特征,集成更大規(guī)模的人工智能模塊和數(shù)據(jù)模塊,依托AI技術(shù)從媒介的采、策、查、產(chǎn)、審、發(fā)、評(píng)、傳等全業(yè)務(wù)環(huán)節(jié)進(jìn)行流程重構(gòu),以整體解決方案的形式賦能各類融媒體中心。

        由此可見(jiàn),AIGC技術(shù)在媒介融合領(lǐng)域的賦能是逐步推進(jìn)的,而Sora的出現(xiàn)更讓“AIGC+媒介融合”有了新的突破亮點(diǎn),除了生成新聞文本,形式上還可以生成更接近視頻化社會(huì)轉(zhuǎn)向的內(nèi)容,超越媒介融合的簡(jiǎn)單相加,過(guò)渡到深度相融,豐富應(yīng)用于組織架構(gòu)等階段,促進(jìn)以算法為邏輯、以大數(shù)據(jù)為資源、以算力為支撐而形成的全天候自動(dòng)智能生產(chǎn)走進(jìn)現(xiàn)實(shí)。Sora的橫空出世,其文本闡釋的準(zhǔn)確性和對(duì)既有視頻的補(bǔ)償性修復(fù)等進(jìn)步,極大地降低了非專業(yè)公眾創(chuàng)作失敗的機(jī)率,在質(zhì)量有所保證的前提下,增加創(chuàng)意短視頻、AI 合成影視作品的出品效率。在Sora的加持下,AI技術(shù)滲透視頻生產(chǎn)的程度還會(huì)進(jìn)一步加深,用戶借助Sora的技術(shù)支持,未來(lái)預(yù)計(jì) UGC(User-Generated Content,用戶生產(chǎn)內(nèi)容)參與的視頻新聞數(shù)量持續(xù)增加,用戶規(guī)模也會(huì)擴(kuò)大,人人皆可隨心所欲地創(chuàng)作視頻的時(shí)代指日可待。

        三、Sora 與影像融合

        Sora不僅可以根據(jù)文字生成視頻,還能根據(jù)圖片生成視頻,根據(jù)視頻生成視頻,這一功能提升視頻影像的優(yōu)化空間,幫助已有的視頻素材更加詳細(xì)地完善細(xì)節(jié)。在前Sora時(shí)代,公眾的靈感和創(chuàng)意配合Midjourney+Runway等AI 大模型,已經(jīng)可以基本完成將自己的科幻暢想轉(zhuǎn)化為畫(huà)面,創(chuàng)建個(gè)性檔案的訴求,還可以通過(guò)提示詞將自己過(guò)往的記憶定格成畫(huà)面,作為可視化的永久影像志留存。隨著更加成熟的Sora問(wèn)世,不同類型影像之間的轉(zhuǎn)換方式操作更加便捷,視頻素材在真實(shí)空間和動(dòng)畫(huà)空間中自由切換,在靜態(tài)和動(dòng)態(tài)畫(huà)面中選擇最契合用戶的需求形態(tài)呈現(xiàn)。根據(jù)“在一座華麗的、歷史悠久的大廳中,一股巨大的海嘯達(dá)到了頂峰,并開(kāi)始下降。兩名沖浪者抓住機(jī)會(huì),熟練地駕駛著浪頭。”提示詞制作的靜態(tài)畫(huà)面,生成內(nèi)容雖逼真、精美且具有藝術(shù)氣息,但Sora將其拓展成視頻后,滔天海浪由遠(yuǎn)及近,直逼屏幕而來(lái),動(dòng)態(tài)影像所帶來(lái)的緊迫感讓用戶代入感十足,有效彌補(bǔ)靜態(tài)影像缺失的想象部分。

        需要指出的是,此視頻非彼視頻,Sora所生產(chǎn)的視頻本質(zhì)上是虛擬影像。Sora基于真實(shí)提示詞生成的虛擬影像,一方面助力個(gè)體的想象轉(zhuǎn)化為創(chuàng)新,影像內(nèi)容超越現(xiàn)實(shí)真實(shí),具備后現(xiàn)代主義的“超真實(shí)”特征,與虛擬真實(shí)相互嵌入、滲透,走向融合;另一方面,使用Sora技術(shù)融合影像,打破了既有的影像生產(chǎn)方式。既有的新聞采寫(xiě)模式是“七分采,三分寫(xiě)”,整體新聞的生產(chǎn)模式建立在事實(shí)基礎(chǔ)上,先有事實(shí)后有報(bào)道。但隨著Sora文生視頻、圖生視頻的能力不斷深化學(xué)習(xí)升級(jí),新聞可以從基礎(chǔ)事實(shí)出發(fā),根據(jù)虛擬話語(yǔ)擬像展開(kāi)生成,虛實(shí)敘事交織生成與新聞文本呼應(yīng)的闡釋畫(huà)面。這一變化若新聞媒體抓好可轉(zhuǎn)化為機(jī)遇,前提是準(zhǔn)確認(rèn)識(shí)工具理性與價(jià)值理性的關(guān)系,恰當(dāng)應(yīng)用Sora提高新聞素材生成效率,更好地適應(yīng)“視頻化社會(huì)”的需求轉(zhuǎn)向,甚至可以幫助“中央廚房”中各部門(mén)盤(pán)活原始素材流動(dòng),優(yōu)化共享資源模式。

        生成式AI視頻大模型具備出色的采樣能力,與以往的生產(chǎn)相比,是去“物質(zhì)化”的。由 Sora生成的所有一切畫(huà)面都可以視作是基于數(shù)據(jù)的、算法的、電子的“虛擬物質(zhì)”。鮑德里亞(Baudrillard)用“超真實(shí)”形容后現(xiàn)代性,意指現(xiàn)實(shí)事物被擬像吞噬進(jìn)毫無(wú)對(duì)照、自我指涉的符號(hào)世界而呈現(xiàn)一種“比真實(shí)還真實(shí)”的狀態(tài)。Sora基于“問(wèn)/答”對(duì)話式的文本生成視頻內(nèi)容,通過(guò)算法將提示詞從一個(gè)儲(chǔ)存龐大且自我生成的“擬真”視覺(jué)符號(hào)體系中,抽取制造符合共通意義的符號(hào)信息,制造對(duì)應(yīng)影像畫(huà)面。根據(jù)鮑德里亞的“擬像”理論,Sora 類的視頻大模型生產(chǎn)機(jī)制也可分為三個(gè)階段:初期生成式AI技術(shù)大多以“仿造”人類既有素材的形式出現(xiàn),符號(hào)的指代與對(duì)應(yīng)單一且明確,“擬像”大多遵循自然規(guī)律和法則存在;到了第二階段,隨著機(jī)器學(xué)習(xí)素材的基礎(chǔ)數(shù)量增大,無(wú)限機(jī)械化地復(fù)制生產(chǎn)內(nèi)容使視頻的“靈韻”喪失,符號(hào)意義出現(xiàn)差異性指代,生產(chǎn)中原本加入的真實(shí)素材批次縮減;最后一個(gè)階段,AI 技術(shù)生產(chǎn)的不再是復(fù)制真品而是生產(chǎn)真品,符號(hào)成為機(jī)器獨(dú)立的創(chuàng)造物,其所指不再起源于自然或任何現(xiàn)實(shí)而是思想與精神的物化,連意指本身都消解在記錄和解碼中[2]。Sora 生成視頻數(shù)量的逐步增加,虛擬視頻畫(huà)面于現(xiàn)實(shí)世界的滲透也不斷加重,量變積攢到一定程度,必然加速影像敘事領(lǐng)域中現(xiàn)實(shí)真實(shí)和虛擬真實(shí)的自然界限模糊。加之視頻化的影像并非靜止畫(huà)面,具有流動(dòng)不居的線性變化特征,影像將人們所處的現(xiàn)實(shí)時(shí)空壓縮后以視覺(jué)符號(hào)的形式呈現(xiàn),久而久之,由Sora生成的“超真實(shí)”物質(zhì)不僅會(huì)深刻影響著人們的價(jià)值理念和思考路徑,更可能直接重塑了人們的現(xiàn)實(shí)體驗(yàn)。

        四、Sora" 與主體融合

        新聞因人而精彩,新聞為人而存在,在以往的內(nèi)容生產(chǎn)中,人始終是唯一的主體,是“以人為本”內(nèi)容生產(chǎn)奉行的不二法則。如今,AI技術(shù)加持下傳播的大模型生產(chǎn)、算法分發(fā)等技術(shù)的興起,使機(jī)器、技術(shù)、算法等正逐漸成為生產(chǎn)過(guò)程中新的賦權(quán)者與賦能者,并逐步滲透到生活的各個(gè)方面。人機(jī)關(guān)系的世界觀和認(rèn)識(shí)論也發(fā)生了轉(zhuǎn)變,由“人是機(jī)器”轉(zhuǎn)向“機(jī)器是人”。在Sora為代表的AIGC中,人不再是內(nèi)容生產(chǎn)的唯一主體。換言之,AI通過(guò)深入?yún)⑴c也成了內(nèi)容生產(chǎn)的主體。

        2006年,杰弗里·辛頓(Geoffrey Hinton)提出了“深度學(xué)習(xí)”的概念,開(kāi)發(fā)了一系列基于神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)算法,應(yīng)用在計(jì)算機(jī)視覺(jué)、語(yǔ)音識(shí)別系統(tǒng)、自然語(yǔ)言處理等領(lǐng)域,后“深度學(xué)習(xí)”延伸為人工智能的核心技術(shù)之一[3]。生成式人工智能的算力基礎(chǔ)是人工智能,自然也具備深度學(xué)習(xí)、自我學(xué)習(xí)、自我進(jìn)階的能力。海量場(chǎng)景模擬與實(shí)踐模擬算力支撐下的AIGC技術(shù),其處理信息的路徑正無(wú)限逼近人類,開(kāi)始具備人的主體性功能。以人工智能大模型為例,華盛頓郵報(bào)的寫(xiě)作機(jī)器人Heliograf在2016年美國(guó)大選過(guò)程中,一共撰寫(xiě)了850余篇文章,其中有500多篇點(diǎn)擊超過(guò)50萬(wàn)。

        再如Sora,它不僅可以準(zhǔn)確闡釋創(chuàng)作者的意圖,甚至可以基于Transformer的擴(kuò)散模型,沿時(shí)間線向前或向后拓展視頻,這種預(yù)測(cè)、推理能力通常是超越人腦極限的技能。大模型強(qiáng)大的內(nèi)容生成能力,窄化了人在其中的作用,長(zhǎng)此以往,人機(jī)深度交互的背景下,大模型的地位和作用自會(huì)愈發(fā)重要,機(jī)器不再充當(dāng)人機(jī)之間端口的“傳話者”角色,而是直接模擬路徑,給出最佳決策,成為“執(zhí)行者”。反觀“人”這一側(cè),依附于大模型的計(jì)算,可能逐漸養(yǎng)成惰性的線性思考習(xí)慣,減弱甚至喪失“人”在內(nèi)容創(chuàng)作中的主體性,而淪為大模型的 “附庸”。

        通常人工智能的發(fā)展分為三個(gè)階段:專用人工智能、通用人工智能與超級(jí)人工智能。目前仍處在第一個(gè)發(fā)展階段,主要研究解決特定問(wèn)題的專用人工智能[4]。機(jī)器與人的主體融合也可以分為以下幾個(gè)階段:第一階段,人工智能作為人進(jìn)行內(nèi)容生產(chǎn)的工具,彼時(shí)技術(shù)依附于人制造內(nèi)容;第二階段,人工智能大模型與人的融合程度進(jìn)一步加深,交織成為彼此的“合伙人”,人提供想象力和創(chuàng)意,人工智能配合提供效率和拓展闡釋的能力,共同作用于內(nèi)容生產(chǎn);第三階段,人工智能大模型逐漸成熟,一旦產(chǎn)生獨(dú)立的自我意識(shí),便可能走向凱文·凱利(Kevin Kelly)口中的失控狀態(tài),與人類走出一副并行不悖的平行線。

        以Sora為代表的生成式人工智能,具有強(qiáng)大的內(nèi)容生產(chǎn)能力和自我進(jìn)化技能,在這方面甚至遠(yuǎn)超我們?nèi)祟悺1M管目前Sora只是加速 AGI 實(shí)現(xiàn)的可能路徑,并沒(méi)有達(dá)到普遍行業(yè)認(rèn)可的 AGI標(biāo)準(zhǔn),還不具備人類特有的情感和支配創(chuàng)作的視野及能力。但假以時(shí)日,Sora在內(nèi)容生產(chǎn)方面追趕甚至超過(guò)人類這個(gè)主體,應(yīng)該并非難事。

        五、三重融合下 Sora 給內(nèi)容生產(chǎn)帶來(lái)的挑戰(zhàn)

        在媒介融合、影像融合、主體融合視野下, Sora給內(nèi)容生產(chǎn)帶來(lái)了無(wú)限機(jī)遇,但與此同時(shí),也會(huì)帶來(lái)挑戰(zhàn)。

        其一是職業(yè)道德的稀釋。在PGC(職業(yè)生產(chǎn)內(nèi)容)時(shí)代,職業(yè)道德成為內(nèi)容生產(chǎn)領(lǐng)域的行為準(zhǔn)則,行業(yè)從業(yè)者都自覺(jué)遵行、踐行職業(yè)道德。在 UGC(用戶生產(chǎn)內(nèi)容)時(shí)代,由于內(nèi)容生產(chǎn)領(lǐng)域涌入大量職業(yè)道德素養(yǎng)較低,甚至沒(méi)有職業(yè)道德意識(shí)的普通用戶,行業(yè)從業(yè)者無(wú)需邁過(guò)行業(yè)門(mén)檻,職業(yè)道德不可避免地遭到稀釋,一些踐踏行業(yè)底線的行為屢見(jiàn)不鮮。

        Sora的加入,無(wú)疑將使內(nèi)容生產(chǎn)領(lǐng)域的職業(yè)道德雪上加霜。一方面從業(yè)者進(jìn)行內(nèi)容生產(chǎn)者的門(mén)檻進(jìn)一步放低(甚至沒(méi)有了門(mén)檻),從業(yè)者的職業(yè)道德素養(yǎng)與職業(yè)道德意識(shí)勢(shì)必會(huì)水降船低;另一方面,內(nèi)容生產(chǎn)在Sora助力下,新形態(tài)新業(yè)態(tài)將不斷涌現(xiàn),有很多信息產(chǎn)品都超越了傳媒產(chǎn)品的范疇,這也使得既有的職業(yè)道德在日新月異的實(shí)踐面前無(wú)所適從、捉襟見(jiàn)肘。

        其二是深偽影像的泛濫。Sora生成虛擬影像還帶來(lái)深度偽造的思考。深度偽造一詞出現(xiàn)于人工智能和機(jī)器學(xué)習(xí)技術(shù)時(shí)代,又稱深度造假(Deepfake),指的是利用計(jì)算機(jī)的“深度學(xué)習(xí)”技術(shù),即生成式對(duì)抗網(wǎng)絡(luò)(generative adversarial network,簡(jiǎn)稱GAN),實(shí)現(xiàn)圖像、聲音、視頻的“偽造”,通常效果高度逼真且難以甄別[5]。比如,近期“AI復(fù)活已故明星”等定制視頻在網(wǎng)上多次引發(fā)討論;在世界各地選舉中,由Sora之類軟件產(chǎn)生的虛假信息也是滿天飛。

        深偽影像肯定存在倫理問(wèn)題,這一點(diǎn)是毫無(wú)疑義的。但這并不影響深偽影像仍然泛濫成災(zāi),尤其是在社交媒體上。有了Sora的助力,深偽影像的生產(chǎn)難度與生產(chǎn)成本都大為降低,逼真性卻大大加強(qiáng),在數(shù)量增加質(zhì)量提升的現(xiàn)實(shí)下,甄別深偽影像也將越來(lái)越難。還有一種所謂的半真實(shí)影像,也就是真實(shí)影像與深偽影像的混合體,更是讓人真假難辨。

        其三是人文精神的喪失。Sora預(yù)示了人工智能在不斷進(jìn)化之后會(huì)朝著情感化、邏輯化的道路狂奔,Sora的自主意識(shí)將大為增強(qiáng),總有一天人工智能將會(huì)變成“機(jī)器”智能。凱文·凱利(Kevin Kelly)指出,在將生命的力量釋放到我們所創(chuàng)造的機(jī)器中的同時(shí),我們也喪失了對(duì)他們的控制[6]。人們不禁思考,以人工智能為代表的新機(jī)器和“第四次工業(yè)革命”是否造成人文精神的喪失,使“機(jī)器為本”的思想甚囂塵上。

        2021年11月,聯(lián)合國(guó)教科文組織通過(guò)《人工智能倫理問(wèn)題建議書(shū)》,并呼吁各國(guó)積極響應(yīng)、展開(kāi)合作,在國(guó)家層面制定人工智能規(guī)范措施。2023年10月26日,中國(guó)在第三屆“一帶一路”國(guó)際合作高峰論壇上發(fā)布《全球人工智能治理倡議》,其中針對(duì)性地提出以人為本、智能向善、尊重主權(quán)主張,明確了“以人為本”的人機(jī)關(guān)系基礎(chǔ)與人工智能未來(lái)發(fā)展基本原則。傳統(tǒng)內(nèi)容生產(chǎn)的過(guò)程是以人為主體,大模型為輔助的形式進(jìn)行的,人仍然占據(jù)生產(chǎn)中大部分的主體性。而當(dāng)機(jī)器效率技術(shù)不斷提升時(shí),在內(nèi)容生產(chǎn)中的參與度也愈發(fā)升高,甚至成為傳播的主要媒介。由此可見(jiàn),“以人為本”的倫理關(guān)系仍是人機(jī)協(xié)同強(qiáng)調(diào)的基礎(chǔ)準(zhǔn)則。

        結(jié)語(yǔ)

        馬歇爾·麥克盧漢(Marshall McLuhan)有一個(gè)著名的說(shuō)法:“我們透過(guò)后視鏡來(lái)觀察目前,我們倒著走向未來(lái)?!盵7]基于此,對(duì)任何新生媒介形態(tài)或技術(shù)的展望,都是站在既有技術(shù)的研究支持下進(jìn)行的,研究以Sora為代表的生成式視頻模型不外乎也是如此,很難跳出過(guò)往生成式人工智能研究的影響限制。目前學(xué)界、業(yè)界對(duì)Sora的擔(dān)憂仍主要集中媒介倫理、內(nèi)容真實(shí)性等維度。筆者認(rèn)為,Sora配合OpenAI公司已有的深度學(xué)習(xí)能力不斷進(jìn)化升級(jí),對(duì)不足和缺陷的彌補(bǔ)速度必將超出想象,各界不妨抱有開(kāi)放樂(lè)觀的心態(tài),潛心探索共建人機(jī)交互的新圖景??梢灶A(yù)見(jiàn)的是,當(dāng)Sora為代表的視頻大模型技術(shù)成熟并普及應(yīng)用后,它們生產(chǎn)的內(nèi)容將大規(guī)模、海量地沖擊人類社會(huì)既有的信息場(chǎng)域,比如本文提出的Sora將大大推進(jìn)媒介融合、影像融合、主體融合,而Sora給內(nèi)容生產(chǎn)帶來(lái)的變革將永遠(yuǎn)是進(jìn)行時(shí)而非完成時(shí)。

        參考文獻(xiàn):

        [1]布魯諾·拉圖爾.我們從未現(xiàn)代過(guò):對(duì)稱性人類學(xué)論集[M].劉鵬,安涅思,譯.蘇州:蘇州大學(xué)出版社,2010:47-50.

        [2]鮑德里亞.完美的罪行[M].王為民,譯.北京:商務(wù)印書(shū)館,2000:8.

        [3]Geoffrey Everest Hinton et al,A Fast Learning

        Algorithm for Deep Belief Nets[J].Neural Computation,

        2006(7):1527-1554.

        [4]陳昌鳳,霍婕.以人為本:人工智能技術(shù)在新聞傳播領(lǐng)域的應(yīng)用[J].新聞與寫(xiě)作,2018(8):54-59.

        [5]陳昌鳳,徐芳依.智能時(shí)代的“深度偽造”信息及其治理方式[J].新聞與寫(xiě)作,2020(4):66-71.

        [6]凱文·凱利.失控[M].張行舟等.譯.北京:電子工業(yè)出版社,2016:7.

        [7]MCLUHAN M.The Medium is the Massage:an inventory of effects[M].New York:Dial Press,1967:73.

        猜你喜歡
        人工智能融合內(nèi)容
        內(nèi)容回顧溫故知新
        村企黨建聯(lián)建融合共贏
        融合菜
        從創(chuàng)新出發(fā),與高考數(shù)列相遇、融合
        《融合》
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        人工智能與就業(yè)
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        下一幕,人工智能!
        主要內(nèi)容
        臺(tái)聲(2016年2期)2016-09-16 01:06:53
        无码精品一区二区三区在线| 丁香婷婷六月综合缴清| 中文字幕中文字幕777| 69国产成人精品午夜福中文| 又粗又粗又黄又硬又深色的| 久久久久国产精品免费免费搜索| 强奸乱伦影音先锋| 精品国产青草久久久久福利| 无码国产精品一区二区免费式直播| 国产乱人伦av在线a麻豆| 精品国精品无码自拍自在线| 99热成人精品免费久久| 日本一卡2卡3卡四卡精品网站| 琪琪的色原网站| 日日躁夜夜躁狠狠久久av| 美女高潮流白浆视频在线观看| 国产精品原创av片国产日韩| 久久久诱惑一区二区三区| 网址视频在线成人亚洲| 人妻免费一区二区三区免费| 日日噜噜夜夜狠狠va视频v| 国产精品毛片完整版视频| 极品美女扒开粉嫩小泬| 欧美高清视频一区| 初尝人妻少妇中文字幕在线| 伊人久久亚洲精品中文字幕| 手机在线看片| 亚洲男人的天堂在线播放| 国产在线美女| 亚洲女同同性少妇熟女| 一区二区亚洲精品国产精| 国产精品女主播福利在线| 无码区a∨视频体验区30秒| 亚洲精品字幕在线观看| 国产亚洲AV无码一区二区二三区| 成人不卡国产福利电影在线看| 日韩偷拍一区二区三区视频| 亚洲视频精品一区二区三区| 在线成人影院国产av| 在线亚洲午夜理论av大片| 国产婷婷丁香久久综合|