亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        AIGC發(fā)展路徑思考:大模型工具化普及迎來新機(jī)遇

        2022-12-08 06:12:56
        互聯(lián)網(wǎng)天地 2022年11期
        關(guān)鍵詞:創(chuàng)作文本模型

        □ 文 翟 尤 李 娟

        0 引言

        2022年8月,在美國科羅拉多州舉辦的新興數(shù)字藝術(shù)家競賽中,參賽者提交AIGC(AIGenerated Content,以下簡稱“AIGC“)繪畫作品《太空歌劇院》,參賽者沒有繪畫基礎(chǔ)但是卻獲得了此次比賽“數(shù)字藝術(shù)/數(shù)字修飾照片”類別一等獎,引發(fā)多方爭議。一方面,批判者認(rèn)為AI在“學(xué)習(xí)”了大量前人的作品之后,其創(chuàng)作沒有任何情緒和靈魂,難以和人類的藝術(shù)創(chuàng)作相提并論。另一方面,支持者認(rèn)為創(chuàng)作者在一遍遍修改文本內(nèi)容后,才讓AI創(chuàng)作出滿意的作畫,而且作品有很強(qiáng)的觀賞性,AI的創(chuàng)作有其獨(dú)特價值。AIGC的快速迭代演變,讓大模型應(yīng)用落地有了新領(lǐng)域,也帶來對版權(quán)和通用人工智能到來的爭論,因此有必要從產(chǎn)業(yè)發(fā)展的角度分析AIGC可能的發(fā)展路徑,探尋問題解決方案,助力AIGC健康有序發(fā)展。

        1 AIGC快速發(fā)展主要推動因素

        AIGC是利用人工智能技術(shù)來生成內(nèi)容。2021年之前,AIGC生成的內(nèi)容主要以文字為主,而新一代模型可以處理的格式包括:文字、語音、代碼、圖像、視頻、機(jī)器人動作等。AIGC被認(rèn)為是繼專業(yè)生產(chǎn)內(nèi)容(PGC,professionalgenerated content)、用戶生產(chǎn)內(nèi)容(UGC,Usergenerated content)之后的新型內(nèi)容創(chuàng)作方式,可以在創(chuàng)意、表現(xiàn)力、迭代、傳播、個性化等方面,充分發(fā)揮技術(shù)優(yōu)勢。尤其是視覺信息,一直在網(wǎng)絡(luò)中有較強(qiáng)的傳播力且容易被大眾感知,具有跨平臺、跨領(lǐng)域、跨人群的優(yōu)勢,天然容易被人記憶和理解。同時視覺信息應(yīng)用場景廣泛,因此生成高質(zhì)量的圖像成為當(dāng)前AI領(lǐng)域的一個現(xiàn)象級功能。

        1.1 深度學(xué)習(xí)模型不斷迭代為AIGC發(fā)展奠定了基礎(chǔ)能力

        2021年,OpenAI將跨模態(tài)深度學(xué)習(xí)模型CLIP(Contrastive Language-Image Pre-Training,以下簡稱“CLIP”)進(jìn)行開源。CLIP模型能夠?qū)⑽淖趾蛨D像進(jìn)行關(guān)聯(lián)。例如,將文字“狗”和狗的圖像進(jìn)行關(guān)聯(lián),并且關(guān)聯(lián)的特征較為豐富,從而推動CLIP模型成為AIGC的重要組成部分。目前,CLIP模型具備兩個優(yōu)勢,一方面能夠同時進(jìn)行自然語言理解和計算機(jī)視覺分析,實現(xiàn)圖像和文本匹配。另一方面為了有足夠多標(biāo)記好的“文本-圖像”進(jìn)行訓(xùn)練,CLIP模型廣泛利用互聯(lián)網(wǎng)上的圖片,這些圖片一般帶有相關(guān)文本描述,成為CLIP天然的訓(xùn)練樣本。據(jù)不完全統(tǒng)計,CLIP模型搜集網(wǎng)絡(luò)上超過40億個“文本-圖像”訓(xùn)練數(shù)據(jù),為后續(xù)AIGC尤其是輸入文本生成圖像/視頻應(yīng)用的落地奠定了基礎(chǔ)。

        某AIGC繪圖網(wǎng)站上輸入Cyberpunk后,搜索到的AIGC生成繪畫

        在此之前,“對抗生成網(wǎng)絡(luò)”GAN(Generative Adverserial Network, 以下簡稱“GAN”)雖然也是很多AIGC采用的主流框架之一,但GAN具有三個不足:一是對輸出結(jié)果的控制力較弱,容易產(chǎn)生隨機(jī)圖像;二是生成的圖像分別率較低;三是由于GAN需要用判別器來判斷生產(chǎn)的圖像是否與其他圖像屬于同一類別,導(dǎo)致生成的圖像是對現(xiàn)有作品的模仿,創(chuàng)新性不足。因此依托GAN模型難以創(chuàng)作出新圖像,也不能通過文字提示生成新圖像。

        Diffusion擴(kuò)散化模型出現(xiàn)較晚,但真正實現(xiàn)讓文本生成圖像的AIGC應(yīng)用為大眾所熟知,也是2022年下半年Stable Diffusion應(yīng)用的重要推手。Diffusion模型有兩個特點(diǎn),一方面,給圖像增加高斯噪聲,通過破壞訓(xùn)練數(shù)據(jù)來學(xué)習(xí),然后找出如何逆轉(zhuǎn)這種噪聲過程以恢復(fù)原始圖像,經(jīng)過訓(xùn)練,該模型可以從隨機(jī)輸入中合成新的數(shù)據(jù)。另一方面,Stable Diffusion把模型的計算空間從像素空間經(jīng)過數(shù)學(xué)變換,降維到可能性空間(Latent Space)的低維空間里,這一轉(zhuǎn)化大幅降低了計算量和計算時間,使得模型訓(xùn)練效率快速提高。Diffusion算法模型的創(chuàng)新與應(yīng)用推動了AIGC技術(shù)的突破性進(jìn)展。

        AIGC相關(guān)深度學(xué)習(xí)模型匯總表

        AIGC繪畫應(yīng)用系統(tǒng)匯總表

        總的來看,AIGC在2022年實現(xiàn)快速迭代,主要是在深度學(xué)習(xí)模型方面有了長足進(jìn)步。首先CLIP模型基于海量互聯(lián)網(wǎng)圖片進(jìn)行訓(xùn)練,推動AI繪畫模型進(jìn)行組合創(chuàng)新。其次Diffusion擴(kuò)散化模型實現(xiàn)算法創(chuàng)新。最后使用潛空間降維的方法來降低Diffusion模型在內(nèi)存和時間消耗較大的問題。因此,AIGC繪畫之所以能夠幫助用戶進(jìn)行輔助創(chuàng)作,背后離不開大量深度學(xué)習(xí)模型的不斷完善推動和基礎(chǔ)作用。

        1.2 開源策略成為應(yīng)用開發(fā)普及的“必選項”

        在算法模型方面,AIGC的發(fā)展離不開開源模式的推動。以深度學(xué)習(xí)模型CLIP為例,開源模式加速CLIP模型的廣泛應(yīng)用,使之成為當(dāng)前最為先進(jìn)的圖像分類人工智能,并讓更多機(jī)器學(xué)習(xí)從業(yè)人員將CLIP模型嫁接到其他AI應(yīng)用。同時,當(dāng)前AIGC繪畫最熱門的應(yīng)用Stable Diffusion已經(jīng)正式開源(包括模型權(quán)重和代碼),通過視覺、語言等多源知識指引擴(kuò)散模型學(xué)習(xí),強(qiáng)化擴(kuò)散模型對于語義的精確理解,以提升生成圖像的可控性和語義的一致性。Stable Diffusion的開源直接引發(fā)2022年下半年AIGC引發(fā)廣泛關(guān)注,短短幾個月時間內(nèi)出現(xiàn)大量二次開發(fā),從模型優(yōu)化到應(yīng)用拓展,大幅降低用戶使用AIGC進(jìn)行創(chuàng)作的門檻,提升創(chuàng)作效率,并長期位居GitHub熱榜第一名。

        在訓(xùn)練數(shù)據(jù)集方面,機(jī)器學(xué)習(xí)離不開大量數(shù)據(jù)學(xué)習(xí)。LAION作為全球非盈利機(jī)器學(xué)習(xí)研究機(jī)構(gòu),在2022年3月開放了當(dāng)前規(guī)模最大的開源跨模態(tài)數(shù)據(jù)庫LAION-5B,使得近60億個“文本-圖像”可以用來訓(xùn)練,從而進(jìn)一步加快AI圖像生成模型的成熟,幫助研究人員加快推動從文字到圖像的生成模型。基于CLIP和LAION的開源模式構(gòu)建起當(dāng)前AI圖像生成應(yīng)用的核心。未來,隨著模型穩(wěn)定,開源將成為AIGC成熟的催化劑,源模式有望讓相關(guān)模型成為海量應(yīng)用、網(wǎng)絡(luò)和服務(wù)的基礎(chǔ),應(yīng)用層面的創(chuàng)造力有望迎來拐點(diǎn)。

        2 AIGC為創(chuàng)作領(lǐng)域帶來的效率與模式的創(chuàng)新

        創(chuàng)造力曾被認(rèn)為是少數(shù)幸運(yùn)兒擁有的天賦,但隨著深度學(xué)習(xí)的爆發(fā),協(xié)助創(chuàng)作者提升創(chuàng)作效率成為可能。目前來看,AIGC在工業(yè)設(shè)計、動漫設(shè)計、攝影藝術(shù)、游戲制作等場景,能夠激發(fā)設(shè)計者創(chuàng)作靈感,提升內(nèi)容生產(chǎn)效率。

        2.1 應(yīng)用效率提升是當(dāng)前AIGC落地關(guān)鍵

        在捕捉靈感方面,AIGC協(xié)助有經(jīng)驗的創(chuàng)作者捕捉靈感,構(gòu)建新的創(chuàng)新互動形式。例如在游戲行業(yè),制作人靈感往往難以用文字準(zhǔn)確表達(dá),與美術(shù)工作人員經(jīng)常由于溝通產(chǎn)生理解誤差。通過AIGC系統(tǒng)可以在設(shè)計初期,生成大量草圖,在此基礎(chǔ)上制作人與美術(shù)人員可以更好的理解并確認(rèn)彼此的需求。同時,創(chuàng)作靈感難以琢磨,可以提前通過AIGC來尋找“感覺”,進(jìn)一步降低美術(shù)創(chuàng)作者大量前期工作和項目成本。例如,制作人可先構(gòu)建完整的背景故事,之后由AIGC生成系列畫作,再由專業(yè)的美術(shù)人員進(jìn)行篩選、處理、整合,并將整個故事和畫面進(jìn)一步完善提升。

        在提升效率方面,AIGC的出現(xiàn)將會讓創(chuàng)作者擁有一個更加高效的智能創(chuàng)作工具,在內(nèi)容創(chuàng)作環(huán)節(jié)進(jìn)行優(yōu)化,而非成為競爭對手。例如在極短的項目籌備時間內(nèi),AIGC可以大幅提升效率,驗證了AI投入到工業(yè)化使用的可行性。尤其是對于藝術(shù)、影視、廣告、游戲、編程等創(chuàng)意行業(yè)的從業(yè)者來說,可以輔助從業(yè)者進(jìn)行日常工作,并有望創(chuàng)造出更多驚艷的作品。同時,還可以進(jìn)一步降低成本和效率,為規(guī)?;a(chǎn)構(gòu)建市場增量。

        2.2 創(chuàng)意與實現(xiàn)步驟分解實現(xiàn)進(jìn)一步細(xì)化分工

        在創(chuàng)意構(gòu)思階段,AIGC構(gòu)建了新的創(chuàng)意完善通路,傳統(tǒng)的創(chuàng)作過程中消化、理解以及重復(fù)性工作將有望交由AIGC來完成,最終創(chuàng)意過程將變?yōu)椤皠?chuàng)意-AI-創(chuàng)意”的模式。

        圖片來源:《AI時代的巫師與咒語》

        在創(chuàng)意實現(xiàn)階段,創(chuàng)作者和AIGC的關(guān)系類似于攝影師和照相機(jī)。攝影師構(gòu)建拍攝思路并進(jìn)行規(guī)劃,對相機(jī)進(jìn)行參數(shù)配置,但不用了解相機(jī)的工作原理與機(jī)制,一鍵生成高質(zhì)量的內(nèi)容。同樣,創(chuàng)作者構(gòu)思并進(jìn)行規(guī)劃,對AI模型進(jìn)行參數(shù)配置,不需要了解模型的原理,直接點(diǎn)擊輸出內(nèi)容即可。創(chuàng)意和實現(xiàn)呈現(xiàn)出分離狀態(tài),實現(xiàn)過程變?yōu)橐环N可重復(fù)勞動,可以由AIGC來完成,并逐步將成本推向趨近于零。

        3 推動AIGC良性發(fā)展的意見和建議

        Gartner預(yù)計,到2025年,生成式人工智能將占所有生成數(shù)據(jù)的10%。根據(jù)《Generative AI :A Creative New World》的分析,AIGC有潛力產(chǎn)生數(shù)萬億美元的經(jīng)濟(jì)價值。AIGC在引發(fā)全球關(guān)注的同時,知識產(chǎn)權(quán)、技術(shù)倫理將面臨諸多挑戰(zhàn)和風(fēng)險,同時AIGC距離通用人工智能還有較大的差距。

        3.1 從“大模型”到“廣應(yīng)用”,探索可行商業(yè)模式

        基于深度學(xué)習(xí)算法數(shù)據(jù)越多,模型魯棒性越強(qiáng)的特點(diǎn),當(dāng)前的大模型規(guī)模只增不減,比拼規(guī)模已經(jīng)成為標(biāo)配。例如,Open AI推出的GPT-3參數(shù)已經(jīng)超過1750億個。但“數(shù)據(jù)投喂”并非一種技術(shù)路徑上的創(chuàng)新,更多的是在工程領(lǐng)域的微調(diào)。需要指出的是,模型規(guī)模越大,其實越難以在現(xiàn)實場景中落地部署。同時“海量數(shù)據(jù)”并不等同于“海量高質(zhì)量數(shù)據(jù)”,有可能會導(dǎo)致反向效果產(chǎn)生。

        AIGC的發(fā)展離不開預(yù)訓(xùn)練大模型的不斷精進(jìn)。大模型雖然在很多領(lǐng)域都表現(xiàn)出良好的使用效果,但是這些效果作為展示甚至噱頭之后,很難形成良性的商業(yè)價值,與大模型的訓(xùn)練成本、基礎(chǔ)設(shè)施投入更是相差甚遠(yuǎn)。如何推動“大模型”向“大應(yīng)用”來轉(zhuǎn)變,正在成為關(guān)鍵的考驗。AIGC的破圈以及引發(fā)的關(guān)注,可以看到大模型商業(yè)化的潛力正在清晰化,一方面大模型企業(yè)可以根據(jù)C端用戶實際“按需提供服務(wù)”和商業(yè)轉(zhuǎn)化。另一方面帶動對云計算、云存儲的使用量上升。將AIGC從“嘗鮮試試看”變成大眾頻繁使用的需求,再到與具體行業(yè)和領(lǐng)域深度結(jié)合,依托我國豐富的產(chǎn)業(yè)需求和應(yīng)用場景,有望為大模型商業(yè)化和長期價值探索一條新路徑。

        3.2 注重知識產(chǎn)權(quán)保護(hù),嘗試探索新價值創(chuàng)新

        AIGC的飛速發(fā)展和商業(yè)化應(yīng)用,對大量依靠版權(quán)為主要營收的企業(yè)帶來沖擊。具體來看:一方面,AIGC難以被稱為“作者”。根據(jù)我國《著作權(quán)法》的規(guī)定,作者只能是自然人、法人或非法人組織,很顯然AIGC不是被法律所認(rèn)可的權(quán)利主體,因此不能成為著作權(quán)的主體。另一方面,AIGC產(chǎn)生的“作品”尚存爭議。根據(jù)我國《著作權(quán)法》和《著作權(quán)法實施條例》的規(guī)定,作品是指文學(xué)、藝術(shù)和科學(xué)領(lǐng)域內(nèi)具有獨(dú)創(chuàng)性并能以某種有形形式復(fù)制的智力成果。AIGC的作品具有較強(qiáng)的隨機(jī)性和算法主導(dǎo)性,能夠準(zhǔn)確證明AIGC作品侵權(quán)的可能性較低。同時,AIGC是否具有獨(dú)創(chuàng)性目前難以一概而論,個案差異較大。

        目前已經(jīng)有業(yè)內(nèi)人士嘗試探索將創(chuàng)作者的“創(chuàng)意”進(jìn)行量化,甚至定價,有助于打造AIGC的商業(yè)模式。這其中“注意力機(jī)制”將成為AIGC潛在的量化載體。例如國內(nèi)有機(jī)構(gòu)專家提出,可以通過計算輸入文本中關(guān)鍵詞影響的繪畫面積和強(qiáng)度,我們就可以量化各個關(guān)鍵詞的貢獻(xiàn)度。之后根據(jù)一次生成費(fèi)用與藝術(shù)家貢獻(xiàn)比例,就可以得到創(chuàng)作者生成的價值。最后在與平臺按比例分成,就是創(chuàng)作者理論上因貢獻(xiàn)創(chuàng)意產(chǎn)生的收益。

        例如某AIGC平臺一周內(nèi)生成數(shù)十萬張作品,涉及這位創(chuàng)作者關(guān)鍵詞的作品有30000張,平均每張貢獻(xiàn)度為0.3,每張AIGC繪畫成本為0.5元,平臺分成30%,那么這位創(chuàng)作者本周在該平臺的收益為:30000*0.3*0.5*(1-30%)=3150元的收益,未來參與建立AI數(shù)據(jù)集將有望成為藝術(shù)家的新增收益渠道。

        3.3 距離通用人工智能還有較大差距

        當(dāng)前熱門的AIGC系統(tǒng)雖然能夠快速生成圖像,但是這些系統(tǒng)是否能夠真正理解繪畫的含義,從而能夠根據(jù)這些含義進(jìn)行推理并決策,仍是未知數(shù)。一方面,AIGC系統(tǒng)對輸入的文本和產(chǎn)生的圖像不能完全關(guān)聯(lián)起來。例如,用戶對AIGC系統(tǒng)進(jìn)行測試,輸入“騎著馬的宇航員”和“騎著宇航員的馬”內(nèi)容時,相關(guān)AIGC系統(tǒng)難以準(zhǔn)確生成對應(yīng)的圖像。因此,當(dāng)前的AIGC系統(tǒng)還并沒有深刻理解輸入文本和輸出圖像之間的關(guān)系。另一方面,AIGC系統(tǒng)難以了解生成圖像背后的世界。了解圖像背后的世界,是判斷AIGC是否具備通用人工智能的關(guān)鍵。目前來看,AIGC系統(tǒng)還難以達(dá)到相關(guān)的要求。比如,在Stable Diffusion 輸入“畫一個人,并把拿東西的部分變成紫色”,在接下來的九次測試過程中,只有一次成功完成,但準(zhǔn)確性還不高。顯然,Stable Diffusion并不理解人的雙手是什么。

        知名AI專家發(fā)出的調(diào)查也印證了同樣的觀點(diǎn),有86.1%的人認(rèn)為當(dāng)前的AIGC系統(tǒng)對世界理解的并不多,持相同觀點(diǎn)的人還包括Stable Diffusion的首席執(zhí)行官。

        3.4注重創(chuàng)作倫理引發(fā)安全風(fēng)險

        部分開源的AIGC項目,對生成的圖像監(jiān)管程度較低。一方面,部分?jǐn)?shù)據(jù)集系統(tǒng)利用私人用戶照片進(jìn)行AI訓(xùn)練,侵權(quán)人像圖片進(jìn)行訓(xùn)練的現(xiàn)象屢禁不止,這些數(shù)據(jù)集正是AIGC等圖片生成模型的訓(xùn)練集之一。例如,部分?jǐn)?shù)據(jù)集在網(wǎng)絡(luò)上抓取了大量病人就醫(yī)照片進(jìn)行訓(xùn)練,且沒有做任何打碼模糊處理,對用戶隱私保護(hù)堪憂。另一方面,一些用戶利用AIGC生成虛假名人照片等違禁圖片,甚至?xí)谱鞒霰┝托杂嘘P(guān)的畫作,LAION-5B數(shù)據(jù)庫包含色情、種族、惡意等內(nèi)容,目前海外已經(jīng)出現(xiàn)基于Stable Diffusion模型的色情圖片生成網(wǎng)站。

        由于AI本身還不具備價值判斷能力,為此一些平臺已經(jīng)開始進(jìn)行倫理方面的限制和干預(yù)。例如DALL·E2已經(jīng)開始加強(qiáng)干預(yù),減少性別偏見的產(chǎn)生、防止訓(xùn)練模型生成逼真的個人面孔等,但相關(guān)法律法規(guī)的空白和AIGC應(yīng)用研發(fā)者本身的不重視將引發(fā)對AI創(chuàng)作倫理的擔(dān)憂。

        4 結(jié)束語

        2022年AIGC發(fā)展速度驚人,年初還處于技藝生疏階段,幾個月之后就達(dá)到專業(yè)級別,足以以假亂真。這讓花費(fèi)畢生所學(xué)進(jìn)行創(chuàng)作的從業(yè)人員倍感焦慮和緊張。同時,AIGC的迭代速度呈現(xiàn)指數(shù)級爆發(fā),這其中深度學(xué)習(xí)模型不斷完善、開源模式的推動、大模型探索商業(yè)化的可能,成為AIGC發(fā)展的“加速度”。新技術(shù)會淘汰適應(yīng)性差的人,但是那些擁抱變革、適應(yīng)力強(qiáng)的人,最終往往能駕馭新技術(shù)、發(fā)現(xiàn)新機(jī)遇,從此獲得新收益。新的生產(chǎn)方式會被替代,新的工作崗位、新產(chǎn)業(yè)甚至新的藝術(shù)表現(xiàn)形式,會從變革中誕生。

        猜你喜歡
        創(chuàng)作文本模型
        一半模型
        重要模型『一線三等角』
        創(chuàng)作之星
        創(chuàng)作(2020年3期)2020-06-28 05:52:44
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        在808DA上文本顯示的改善
        基于doc2vec和TF-IDF的相似文本識別
        電子制作(2018年18期)2018-11-14 01:48:06
        《一墻之隔》創(chuàng)作談
        3D打印中的模型分割與打包
        文本之中·文本之外·文本之上——童話故事《坐井觀天》的教學(xué)隱喻
        創(chuàng)作心得
        小說月刊(2014年1期)2014-04-23 09:00:04
        内射夜晚在线观看| 激情人妻中出中文字幕一区| 97久久综合精品国产丝袜长腿| 天天综合天天爱天天做| 天堂无码人妻精品av一区| 欧美在线区| 日韩高清av一区二区| 亚洲av不卡一区男人天堂| 色拍自拍亚洲综合图区| 午夜成人理论无码电影在线播放 | 免费在线日韩| 成人久久精品人妻一区二区三区| 少妇伦子伦精品无吗| 麻豆国产成人av高清在线观看| 亚洲成a人片在线观看高清| 精品极品一区二区三区| 九九久久99综合一区二区| 牛牛本精品99久久精品88m| 成人午夜视频在线观看高清| 国产色婷婷久久又粗又爽| 久久99精品九九九久久婷婷| 中文字幕一区二区三区乱码不卡| 黄色中文字幕视频网站| 国产欧美精品aaaaaa片| 日产国产精品亚洲系列| 中文字幕国产精品中文字幕| va精品人妻一区二区三区| 久久人人爽爽爽人久久久| 国产乱子伦精品无码码专区| 日韩精品不卡一区二区三区| 高级会所技师自拍视频在线| 最近日本免费观看高清视频| 国产三级精品美女三级| 一区二区三区亚洲视频 | 亚洲av纯肉无码精品动漫| 美女裸体无遮挡免费视频国产| 亚洲视频专区一区二区三区| 又大又粗又爽18禁免费看| 久久久久亚洲精品天堂| 懂色av一区二区三区网久久| 精品欧洲av无码一区二区14|