亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        當(dāng)你忙著卷來卷去的時(shí)候AI已經(jīng)偷偷地又一次進(jìn)化了

        2022-11-18 07:22:54
        大眾科學(xué) 2022年10期
        關(guān)鍵詞:圖像內(nèi)容模型

        有很長一段時(shí)間,AI(人工智能)這個(gè)詞變得沒那么讓人興奮了。

        人們已經(jīng)躲不開它,但同時(shí)也發(fā)覺,無論是AI的技術(shù)演進(jìn)還是商業(yè)應(yīng)用,似乎都遇到了瓶頸。人們有很多年沒再體驗(yàn)到AlphaGo那樣的驚艷,業(yè)界也沒再經(jīng)歷像語音助手普及那樣的商業(yè)機(jī)會(huì),甚至許多投資人也只是在實(shí)在沒什么新鮮故事時(shí),才不情愿的又轉(zhuǎn)身回頭看起了AI的機(jī)會(huì)。

        不過,就在這個(gè)全人類都忙著卷來卷去的2022,AI卻正在經(jīng)歷一次近年來最大的一次進(jìn)化。

        AI 突然翻紅

        就在10月18號(hào),因?yàn)橥瞥鯯table Diffusion文本-圖像AI生成模型而大火的人工智能公司StabilityAI宣布完成1.01億美元的種子輪融資,讓整個(gè)公司估值達(dá)到10億美金,成為所謂“獨(dú)角獸”企業(yè)。這距離StabilityAI成立僅有兩年時(shí)間。

        即便以科技互聯(lián)網(wǎng)產(chǎn)業(yè)發(fā)展的標(biāo)準(zhǔn)看,StabilityAI的成長速度也是驚人的,這種速度是2022年以來全球AI產(chǎn)業(yè)爆發(fā)式增長的一個(gè)縮影,此刻距StabilityAI旗下的Stable Diffusion開源模型風(fēng)靡全球尚不足2個(gè)月。

        這種疾風(fēng)驟雨的突飛猛進(jìn)堪稱一場(chǎng)真正的革命,尤其在全球經(jīng)濟(jì)預(yù)期轉(zhuǎn)弱的大背景下。

        同所有的革命一樣,這場(chǎng)AI革命也不是一夜之間完成的。

        一直以來人們都有一個(gè)夢(mèng)想,即借助人工智能AI技術(shù)來拓展現(xiàn)有人類智慧、知識(shí)和創(chuàng)造力的邊界,但人腦復(fù)雜結(jié)構(gòu)帶來的學(xué)習(xí)能力遠(yuǎn)超人類構(gòu)建AI的能力,于是AI只能通過各種特定深度學(xué)習(xí)模型來單點(diǎn)突破某些特定領(lǐng)域,比如alphaGO用來學(xué)習(xí)圍棋,又比如通過天文大數(shù)據(jù)幫助尋找脈沖星候選體。

        而AIGC,即基于AI能力的內(nèi)容創(chuàng)作(包括文字、圖片和視頻等等)也是其中一個(gè)重要類別,2022 年之前,囿于核心技術(shù)的局限性,這個(gè)領(lǐng)域一直不溫不火,因?yàn)锳I并沒有點(diǎn)石成金的法術(shù),它不具備人類憑空創(chuàng)造的能力。AI的“深度學(xué)習(xí)”訓(xùn)練并不是擁有自我意識(shí)的自主學(xué)習(xí),是通過收集大量樣本讓AI從海量數(shù)據(jù)中總結(jié)規(guī)律,再根據(jù)人類的指令,基于規(guī)律進(jìn)行內(nèi)容再生產(chǎn)的過程,它同時(shí)受核心算法、硬件條件、數(shù)據(jù)庫樣本等多方面的限制。

        在2022年之前,AIGC領(lǐng)域使用最多的算法模型名為對(duì)抗生成網(wǎng)絡(luò)GAN(Generative adversarial networks),顧名思義就是讓AI內(nèi)部的兩個(gè)程序互相對(duì)比,從而生成最接近人類心目中的正確形象。但這個(gè)算法有一個(gè)嚴(yán)重問題,由于程序互相對(duì)比的標(biāo)準(zhǔn)是現(xiàn)成的樣本,因此生成的內(nèi)容實(shí)質(zhì)上是對(duì)現(xiàn)有內(nèi)容無限逼近的模仿,而模仿,意味著它無法真正突破。

        GAN的缺點(diǎn)被最終被diffusion擴(kuò)散化模型克服,它正是今年以來陸續(xù)涌現(xiàn)的包括Stable Diffusion開源模型在內(nèi)的諸多AIGC 圖片生成模型的技術(shù)核心。

        diffusion擴(kuò)散化模型的原理類似給照片去噪點(diǎn),通過學(xué)習(xí)給一張圖片去噪的過程來理解有意義的圖像是如何生成,因此diffusion模型生成的圖片相比GAN模型精度更高,更符合人類視覺和審美邏輯,同時(shí)隨著樣本數(shù)量和深度學(xué)習(xí)時(shí)長的累積,diffusion模型展現(xiàn)出對(duì)藝術(shù)表達(dá)風(fēng)格較好的模仿能力。

        從今年初引起廣泛關(guān)注的Disco Diffusion,再到DALL-E2、MidJourney等模型都是基于Diffusion模型,而拿到融資的Stable Diffusion是其中最受歡迎的。由于StabilityAI對(duì)科技社區(qū)氛圍的擁護(hù)和對(duì)技術(shù)中立原則的認(rèn)同,Stable Diffusion主動(dòng)開放了自己的源代碼,不僅方便人們部署在本地使用(普通消費(fèi)級(jí)顯卡既能滿足Stable Diffusion的硬件要求),還帶來了魔術(shù)般的用戶體驗(yàn):打開網(wǎng)址,輸入你想要畫面的關(guān)鍵字,等待幾分鐘,模型就會(huì)生成完成度非常高的圖片作品。普通人使用最尖端AI技術(shù)的門檻因此被降到最低,上線以來,僅通過官方平臺(tái)DreamStudio制作的生成圖片就超過1.7萬億張。

        絢爛的藍(lán)海

        以StabilityAI為代表的的AIGC圖片生成模型在如此短的時(shí)間內(nèi)發(fā)展到極為成熟的地步,預(yù)示著它從比較傳統(tǒng)的設(shè)計(jì)繪圖、插畫、游戲視覺,電子商務(wù)等領(lǐng)域到大熱的元宇宙和虛擬現(xiàn)實(shí)技術(shù)都擁有巨大的發(fā)展?jié)摿Α?/p>

        想象一下,在未來的VR/AR虛擬世界里,你腦海中想到的畫面可以借助AI生成技術(shù)實(shí)時(shí)渲染出來,這將會(huì)對(duì)人們娛樂和獲取信息的方式產(chǎn)生怎樣的顛覆?

        但這不是市場(chǎng)在如今經(jīng)濟(jì)大環(huán)境極為低迷之際為AI投下贊成票的全部原因,廣泛的商業(yè)潛力固然吸引人,但更值得投入的是AI技術(shù)本身。這場(chǎng)革命還未完結(jié),它的下一篇章已經(jīng)向人們走來。

        那就是生成視頻。

        從本質(zhì)上講,視頻是連續(xù)的靜態(tài)圖像,隨著AI圖片生成技術(shù)的日益成熟,許多人都把目光投向生成視頻領(lǐng)域,9月以來,Meta和Google先后公布了自己在這一AIGC最前沿領(lǐng)域的最新成果。

        Meta的模型名為Make-A-Video,通過學(xué)習(xí)大量文本-圖像組合樣本數(shù)據(jù)和無文本標(biāo)記的視頻來理解真實(shí)世界中物體的運(yùn)動(dòng)邏輯,Make-A-Video能夠初步在構(gòu)建圖像的基礎(chǔ)上讓圖像動(dòng)起來,同時(shí)擁有理解三維物體立體結(jié)構(gòu)的能力。

        名為Imagen video的模型則通過被稱為聯(lián)級(jí)擴(kuò)散系列模型的方法生成視頻。也就是先通過基礎(chǔ)擴(kuò)散模型生成分辨率較小的視頻,然后再通過一系列時(shí)間、空間超分辨率模型提升視頻的分辨率和幀數(shù)。

        橫向比較來看,Imagen的視頻分辨率(1280X768)高于Make-A-Video,時(shí)長也略長一些。

        但突破還不止于此,另一個(gè)名為Phenaki的AI視頻生成模型(也來自Google團(tuán)隊(duì))公布了其能夠根據(jù)文本內(nèi)容生成可變時(shí)長視頻的技術(shù),也就是說Phenaki有從文本中提煉理解故事情節(jié)并將其轉(zhuǎn)化為視頻的能力。

        公布的demo中,Phenaki基于幾百個(gè)單詞組成的一連串有前后邏輯關(guān)系的文本指令生成了一段2分多鐘的連貫視頻,這種充滿鏡頭感、豐富情節(jié)和轉(zhuǎn)場(chǎng)的故事片雛形假以時(shí)日勢(shì)必對(duì)未來整個(gè)視頻行業(yè),包括短視頻、電視電影等產(chǎn)生廣泛沖擊。

        生成視頻模型尚在起步階段,在具體運(yùn)動(dòng)的細(xì)節(jié)、畫面精細(xì)度、不同物體和人的互動(dòng)等方面尚顯稚嫩,從分辨率到畫質(zhì)上也有濃濃的“人工智能”痕跡,然而回想AI圖片生成模型同樣經(jīng)歷了從全網(wǎng)群嘲到逆襲的過程,后之視今亦猶今之視昔,誰又能說這未嘗不是AIGC革命下一個(gè)高潮即將來臨的預(yù)言?

        劇變帶來的爭(zhēng)議

        劇烈的變化總是伴隨著爭(zhēng)議,以Stable Diffusion為代表的AIGC革命“圖像階段”也是如此,我們?cè)囍鴮⑵錃w納為下面幾個(gè)問題并做出初步回答。

        (1)AI生成內(nèi)容的版權(quán)問題該如何界定?

        中國的著作權(quán)法中規(guī)定只有自然人或組織可以被認(rèn)定為作者,因此AI生成內(nèi)容并沒有享有著作權(quán)的實(shí)體。如果沒有更多協(xié)定約束,AI生成內(nèi)容可以被任意使用,包括商業(yè)使用在內(nèi)。Midjourney、Dell-e等都明確表示用戶擁有自己生成作品的所有權(quán)。

        值得一提的是,很多AI生成技術(shù)深度學(xué)習(xí)訓(xùn)練所使用的數(shù)據(jù)庫中可能包含了侵權(quán)內(nèi)容,但因此導(dǎo)致用戶生成內(nèi)容侵權(quán)的可能性非常低,因?yàn)樯蓛?nèi)容本身是充滿高度隨機(jī)和不確定性的,即使陷入版權(quán)爭(zhēng)議,舉證過程也會(huì)極為困難。

        (2)AI生成內(nèi)容是否具有藝術(shù)性?如果有,該如何評(píng)價(jià)與界定?

        AI生成內(nèi)容的藝術(shù)性在半年之前還是個(gè)看著有些無聊的問題,但在《歌劇院空間》作品獲獎(jiǎng)后,人們開始越來越多的談?wù)撍?/p>

        總的來說,AI生成的內(nèi)容并不是自己創(chuàng)造的,它受自身模型算法和數(shù)據(jù)庫樣本容量影響,這也是許多人聲稱AI生成內(nèi)容“沒有靈魂”的原因。

        然而僅僅把AI生成技術(shù)看做純粹的工具也是不公平的,因?yàn)樗粌H可以模仿,而且算法和樣本一同提供了現(xiàn)有人類所不能完全提供的創(chuàng)作視角。

        現(xiàn)有的AI生成圖像技術(shù)已經(jīng)讓人們參與圖像創(chuàng)作的門檻變得無限低,因此對(duì)生成作品的藝術(shù)性鑒賞或許應(yīng)該從更細(xì)分的角度入手,正如NFT之于傳統(tǒng)藝術(shù)品一樣,它的價(jià)值需要經(jīng)過市場(chǎng)的檢驗(yàn),而藝術(shù)品市場(chǎng)對(duì)此正處于理解和接受的初級(jí)階段。

        (3)AIGC革命的“圖像階段”對(duì)圖像工作者和藝術(shù)創(chuàng)作者來說意味著什么?

        隨著A I生成技術(shù)“民主化”,未來中低端繪畫內(nèi)容和它的市場(chǎng)會(huì)被AI代替,這意味著大批腰部及以下的圖像工作者、插畫師、設(shè)計(jì)師等會(huì)失去現(xiàn)有工作。

        隨著AI生成圖像內(nèi)容越來越豐富和逼真,它們也正在根本上解構(gòu)著商業(yè)圖片庫賴以生存的運(yùn)營模式——如果圖片可以自己生成的話,誰還要花錢買圖呢?

        但AI生成技術(shù)同樣拓展了人們對(duì)繪畫工具能力的理解。對(duì)藝術(shù)創(chuàng)作者來說,AI生成技術(shù)將有利于他們基于自身理念(而不是技法)創(chuàng)造更多維度,更具創(chuàng)造性的作品。

        未來將會(huì)是創(chuàng)作者創(chuàng)造力的比拼,因?yàn)锳I“消除了外行表達(dá)創(chuàng)造力的障礙。”(比約恩·奧姆所說,他的團(tuán)隊(duì)開發(fā)出了Stable Diffusion 最初的基礎(chǔ)算法。)

        (4)AI生成內(nèi)容應(yīng)該如何監(jiān)管,如何防止虛假信息和不適宜信息的傳播?

        秉持技術(shù)中立態(tài)度的研究者例如StabilityAI會(huì)盡量減少對(duì)內(nèi)容的控制和干預(yù)。他們認(rèn)為一個(gè)開放和充分討論的社區(qū)將會(huì)逐步形成對(duì)信息內(nèi)容傳播的監(jiān)督機(jī)制。

        “使用者自己需要為如何使用這項(xiàng)技術(shù)負(fù)責(zé),這包括道德和法律上的合規(guī)性?!盨tability AI公司CEO Emad Mostaque曾在采訪中如此表示。

        與此同時(shí),盡管深度學(xué)習(xí)所用到的數(shù)據(jù)庫經(jīng)過了嚴(yán)格的篩選,屏蔽了色情、暴力、恐怖等內(nèi)容,但有關(guān)社會(huì)刻板偏見、種族歧視等內(nèi)容尚無法從技術(shù)上完全消除,更重要的是,關(guān)于如何界定所謂偏見在倫理學(xué)上仍然是一個(gè)頗受爭(zhēng)議的問題。正因如此,Google決定在排除相關(guān)風(fēng)險(xiǎn)前推遲公開發(fā)布Imagen video模型,而許多已發(fā)布的模型選擇為其生成作品加上不可去掉的水印來避免潛在爭(zhēng)議。

        A I G C革命如火如荼進(jìn)行中,它不是將來時(shí),而是進(jìn)行時(shí)。我們已經(jīng)身處其中。

        現(xiàn)在就是未來。

        猜你喜歡
        圖像內(nèi)容模型
        一半模型
        改進(jìn)的LapSRN遙感圖像超分辨重建
        內(nèi)容回顧溫故知新
        重要模型『一線三等角』
        有趣的圖像詩
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        3D打印中的模型分割與打包
        主要內(nèi)容
        臺(tái)聲(2016年2期)2016-09-16 01:06:53
        遙感圖像幾何糾正中GCP選取
        趣味數(shù)獨(dú)等4則
        意林(2011年10期)2011-05-14 07:44:00
        av蓝导航精品导航| 午夜免费观看日韩一级片| 丝袜美腿在线观看一区| 精品国产麻豆免费人成网站| 射死你天天日| 国产高清a| 国产大学生自拍三级视频| 亚洲日本中文字幕高清在线| 999国产精品999久久久久久| 无码人妻精品一区二区在线视频| 国产91网| 性感人妻一区二区三区| 各类熟女熟妇激情自拍| 国产精品无码素人福利| 色多多a级毛片免费看| 日韩亚洲制服丝袜中文字幕| 久久国产精品国产精品久久| 国产内射一级一片高清内射视频| 国产熟妇疯狂4p交在线播放| a级国产乱理伦片在线播放| 国产精品一区二区av片| 人妻风韵犹存av中文字幕| 精品人妻一区二区三区视频| 国产成人无码av| 人妻精品无码一区二区三区 | 国产尤物精品视频| 国产无遮挡又黄又爽又色| 91精品综合久久久久m3u8| 蜜桃视频永久免费在线观看| 国产午夜视频在线观看免费| 国产真实乱对白精彩| 欧美日韩亚洲精品瑜伽裤| 亚洲国产色图在线视频| 精品国产一区二区三区av免费| 免费国产成人肉肉视频大全| 久久亚洲中文字幕无码| av在线免费观看你懂的| 丰满又紧又爽又丰满视频| 久久国产成人精品国产成人亚洲| 午夜亚洲www湿好爽| 国产呦系列视频网站在线观看|