亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        ChatGPT和AI生成內(nèi)容:科學(xué)研究應(yīng)該采用還是抵制

        2023-06-21 09:18:11鄧莎莎李鎮(zhèn)宇潘煜
        上海管理科學(xué) 2023年2期

        鄧莎莎 李鎮(zhèn)宇 潘煜

        摘 要: ??ChatGPT帶來了新的“工業(yè)革命”,我國(guó)也提出構(gòu)建一批數(shù)字中國(guó)研究基地。然而,如何看待AIGC對(duì)科學(xué)研究所帶來的新研究模式,目前還眾說紛紜。論文在分析了ChatGPT和AIGC的發(fā)展歷程和技術(shù)體系之后,提出AIGC將有助于豐富科研資源、助力團(tuán)隊(duì)協(xié)作效率提升與團(tuán)隊(duì)創(chuàng)新、主動(dòng)打破學(xué)科界限,同時(shí)也認(rèn)為AIGC成為未來科研的第一生產(chǎn)力還為時(shí)尚早,在嚴(yán)謹(jǐn)性能否被證實(shí)、技術(shù)成癮和隱私道德等方面都將面臨挑戰(zhàn)。

        關(guān)鍵詞: ?ChatGPT;AIGC;豐富科研資源;打破學(xué)科界限;技術(shù)成癮

        中圖分類號(hào): ?TP 391

        文獻(xiàn)標(biāo)志碼: ??A

        ChatGPT and Artificial Intelligence Generated Content:Should Scientific Research Be Adapted or Resisted?

        DENG Shasha1 LI Zhenyu2 PAN Yu1

        (1.Shanghai Key Laboratory of Brain-Machine Intelligence for Information Behavior,School ofBusiness and Management, Shanghai International Studies University, Shanghai 200083, China;2.School of Economics and Management, Shanghai Institute of Technology, Shanghai 200235, China)

        Abstract: ?ChatGPT brings about a new “industrial revolution”, and China has proposed to build a group of Digital China research bases. However, there are still different opinions on how to view the new research mode brought by AIGC to scientific research. After analyzing the development history and technical system of ChatGPT and AIGC, this article proposes that AIGC will help enrich scientific research resources, assist in team collaboration efficiency and innovation, and actively break down disciplinary boundaries. At the same time, it is also believed that it is still too early for AIGC to become the first productive force in future scientific research, and it will face challenges in terms of rigor, technology addiction, and privacy ethics that need to be addressed.

        Key words: ?ChatGPT; AIGC; abundant research resources; breaking disciplinary boundaries; technologyaddiction

        2022年11月30日OpenAI發(fā)布了ChatGPT聊天機(jī)器人模型。與以往的聊天機(jī)器人不同,它“上知天文,下知地理”,還能夠完成撰寫郵件、文案編輯、生成代碼等任務(wù)。ChatGPT的流行也改變了我們的生活和工作方式,特別是在知識(shí)工作者中掀起了一場(chǎng)“工業(yè)革命”。我國(guó)也在2023年2月提出推進(jìn)高等院校和研究機(jī)構(gòu)與企業(yè)建立數(shù)字中國(guó)研究基地。

        ChatGPT的流行讓人們敏銳地意識(shí)到人工智能生成內(nèi)容(Artificial Intelligence Generated Content,AIGC)將引領(lǐng)教育和科研的最新模式,但是AIGC在科研中的應(yīng)用同樣存在挑戰(zhàn)。以ChatGPT為例,在用戶大量的體驗(yàn)中發(fā)現(xiàn)ChatGPT生成的文本并不完全可靠,也無法直接代替搜索引擎。同時(shí),ChatGPT在2021年結(jié)束了訓(xùn)練,因此模型不具備與時(shí)俱進(jìn)的能力。截至本文撰寫時(shí)ChatGPT仍是離線的,所有內(nèi)容的輸出只能依靠自己內(nèi)部知識(shí)和邏輯生成,不具備聯(lián)網(wǎng)自查的能力。雖然ChatGPT并不完美,但它與科學(xué)研究的發(fā)展相輔相成。

        雖然已有研究開始關(guān)注AIGC在科研中的應(yīng)用,但仍是支離破碎。本文首先梳理了ChatGPT的發(fā)展歷史,并介紹AI內(nèi)容生成的技術(shù)體系,其次分析AIGC在科學(xué)研究中應(yīng)用的潛在機(jī)會(huì),最后提出了AIGC在科學(xué)研究中面臨的問題和挑戰(zhàn)。

        1 ChatGPT與AIGC技術(shù)

        1.1 ChatGPT的發(fā)展階段

        不同于卷積神經(jīng)網(wǎng)絡(luò)(Convolution Neural Network, CNN)在計(jì)算機(jī)視覺(Computer Vision, CV)領(lǐng)域重視圖像的局部特征,自然語言處理(Natural Language Processing, NLP)領(lǐng)域的任務(wù)更需要關(guān)注上下文的序列信息。循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network, RNN)利用上一時(shí)刻輸出構(gòu)建神經(jīng)網(wǎng)絡(luò)隱藏層之間的時(shí)間關(guān)聯(lián)。一句話正是由前后聯(lián)系的單詞序列組成,RNN在機(jī)器翻譯、語音識(shí)別和情感分析方面得到了廣泛的應(yīng)用。RNN存在諸如不具備短期記憶能力等缺點(diǎn),后續(xù)NLP領(lǐng)域基于RNN展開了數(shù)十年的研究,例如長(zhǎng)短期記憶網(wǎng)絡(luò)(Long Short-Term Memory, LSTM)等,但是每一個(gè)詞的處理都需要等待上一個(gè)詞的計(jì)算結(jié)果,如此循環(huán)需要投入大量的計(jì)算成本。

        注意力機(jī)制(Attention)概念的首次提出是在CV領(lǐng)域,通過計(jì)算權(quán)重調(diào)節(jié)圖像特征的重要程度,注意力即權(quán)重。而在NLP領(lǐng)域,自注意力機(jī)制(Self-Attention)打破了RNN的循環(huán)結(jié)構(gòu),通過直接計(jì)算不同單詞間的相關(guān)度(權(quán)重)嵌入上下文信息,使語句的單詞有了重點(diǎn)區(qū)分。Self-Attention的提出擺脫了RNN模型對(duì)上文信息的依賴,確保每一個(gè)單詞都能在利用全局信息的同時(shí)可以并行運(yùn)算。注意力機(jī)制因其先進(jìn)的解釋性和高效的計(jì)算性能,引領(lǐng)了NLP領(lǐng)域發(fā)展的新方向。Transformer基于Self-Attention通過編碼器-解碼器(Encoder-Decoder)模型在機(jī)器翻譯任務(wù)上表現(xiàn)優(yōu)異,其中編碼器(Encoder)負(fù)責(zé)自然語言理解(Natural Language Understanding, NLU)任務(wù),解碼器(Decoder)負(fù)責(zé)自然語言生成(Natural Language Generation, NLG)任務(wù)?;赥ransformer的Encoder結(jié)構(gòu),Google提出Bert模型,而基于Decoder結(jié)構(gòu)OpenAI提出GPT模型,分別在NLU和NLG任務(wù)上表現(xiàn)出強(qiáng)悍的性能。

        Bert與GPT在2018年的爆火,一方面得益于它們先進(jìn)的算法結(jié)構(gòu)設(shè)計(jì),另一方面基于海量數(shù)據(jù)的預(yù)訓(xùn)練方法功不可沒。無論是在CV領(lǐng)域還是NLP領(lǐng)域,有監(jiān)督學(xué)習(xí)一直是解決特定任務(wù)的主要方法。但是有標(biāo)簽數(shù)據(jù)集仍是有限的,一味地增加標(biāo)簽數(shù)據(jù)更像“愚公移山”,也離通用人工智能目標(biāo)甚遠(yuǎn)。自然語言中存在著大量未標(biāo)記的語料庫,通過在海量數(shù)據(jù)上無監(jiān)督訓(xùn)練得到具有強(qiáng)泛化能力的預(yù)訓(xùn)練模型,再利用該模型所生成單詞和句子的通用特征作為特定任務(wù)的輸入,從而節(jié)省大量計(jì)算資源,并得到泛化能力更好的模型,這也是GPT-1模型基本原理。

        在GPT-2模型中,則是在預(yù)訓(xùn)練階段增加了模型參數(shù)和擴(kuò)大了語料庫規(guī)模,特別是訓(xùn)練數(shù)據(jù)來自多源任務(wù),因此GPT-2可以直接理解輸入的任務(wù)本質(zhì)并生成答案。GPT-3沿用了單向Transformer模型,表明了其在NLG任務(wù)上深入的決心,45TB的訓(xùn)練數(shù)據(jù)和1750億的模型參數(shù)堪稱暴力美學(xué)。GPT-3在高質(zhì)量文本生成上取得成功的同時(shí)也帶來使用安全的風(fēng)險(xiǎn),容易產(chǎn)生種族歧視等偏激的回答。開源的InstructGPT與商業(yè)化的ChatGPT都采用了從人類反饋中進(jìn)行強(qiáng)化學(xué)習(xí)的策略(Reinforcement Learning from Human Feedback, RLHF),結(jié)合人類智慧指導(dǎo)模型訓(xùn)練,優(yōu)化得到GPT最優(yōu)模型。

        NLP領(lǐng)域的發(fā)展經(jīng)歷了從RNN向Self-Attention的結(jié)構(gòu)變革,基于大規(guī)模語料庫的預(yù)訓(xùn)練模型決定了NLP的發(fā)展方向,GPT系列在生成式上的堅(jiān)持,使得它在2023年打開了AI應(yīng)用的新紀(jì)元。與此同時(shí),在CV領(lǐng)域圖像生成上的研究同樣如火如荼。NLP和CV領(lǐng)域最新的研究進(jìn)展表明了人工智能生成內(nèi)容(Artificial Intelligence Generated Content,AIGC)蘊(yùn)含的巨大價(jià)值。

        1.2 AIGC的概念、定義和技術(shù)體系

        AIGC既是從內(nèi)容生成者視角分類的內(nèi)容,也是利用人工智能技術(shù)自動(dòng)生成的新型生產(chǎn)方式的技術(shù)集合。根據(jù)內(nèi)容的形式 ,AIGC的技術(shù)體系可以分為AI生成自然語言內(nèi)容、AI生成視覺內(nèi)容和AI生成多模態(tài)內(nèi)容。

        1.2.1 AI生成自然語言內(nèi)容

        自然語言是基礎(chǔ)的內(nèi)容形式,任何模態(tài)的數(shù)據(jù)都可以抽象為文本本質(zhì)。自然語言是對(duì)客觀世界的描述和對(duì)主觀世界的表達(dá),因而應(yīng)用范圍也最為廣泛。利用海量數(shù)據(jù)對(duì)共性知識(shí)挖掘的NLU是AI生成自然語言內(nèi)容的關(guān)鍵一環(huán)?;诖笠?guī)模無標(biāo)注語料庫的預(yù)訓(xùn)練模型在情感分析、語音識(shí)別、閱讀理解和文本生成等任務(wù)上表現(xiàn)出色,例如OpenAI的GPT和Google的Bert等。與此同時(shí),數(shù)據(jù)的指數(shù)增長(zhǎng)與龐大參數(shù)優(yōu)化模型對(duì)算力的要求讓普通研究機(jī)構(gòu)望而卻步,設(shè)計(jì)更高效的模型架構(gòu)、訓(xùn)練框架和自監(jiān)督學(xué)習(xí)模式成為未來的重要研究方向。

        1.2.2 AI生成視覺內(nèi)容

        相較于自然語言內(nèi)容,視覺內(nèi)容在互聯(lián)網(wǎng)時(shí)代對(duì)物理世界的記錄更為客觀,對(duì)人意識(shí)的感知更為真實(shí)。因此,人工智能模型如何認(rèn)知和感知海量視覺數(shù)據(jù)決定了AI生成視覺內(nèi)容的真實(shí)度與其內(nèi)涵。視覺Transformer(Vision Transformer, VIT)憑借優(yōu)異的性能、高效的并行計(jì)算和易擴(kuò)展性取代了CNN成為主流網(wǎng)絡(luò)架構(gòu),生成式對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Net, GAN)和變分自編碼器(Variational AutoEncoder, VAE)等生成式模型的提出助力了AI生成視覺內(nèi)容的發(fā)展。AI生成圖像內(nèi)容主要分為圖像生成圖像(Image-to-Image)和文本生成圖像(Text-to-Image),其中Image-to-Image指的是從已知樣本生成近似樣本或從低信息樣本生成富信息樣本的過程,VQGAN實(shí)現(xiàn)了圖像補(bǔ)全和圖像超分辨率等任務(wù)。相比于Image-to-Image執(zhí)行專業(yè)的圖像處理工作,Text-to-Image的應(yīng)用面更廣。DALL-E模型則結(jié)合了多模態(tài)神經(jīng)語言模型CLIP和VQVAE實(shí)現(xiàn)了文本Text-to-Image的任務(wù)。然而一張圖片比一句話所含的信息量更大,大規(guī)模數(shù)據(jù)集的預(yù)訓(xùn)練模型對(duì)計(jì)算資源提出了更高要求。擴(kuò)散模型為文本生成圖像提供了高性能模型架構(gòu),可以在較少計(jì)算資源情況下,快速生成高質(zhì)量圖像,是AI生成視覺內(nèi)容的重要里程碑。

        1.2.3 AI生成多模態(tài)內(nèi)容

        語言和視覺是最常見的兩種模態(tài),在元宇宙中圖像數(shù)據(jù)和文本數(shù)據(jù)相互交織,且呈現(xiàn)協(xié)調(diào)狀態(tài)。但是長(zhǎng)期以來依賴單一信息源的單模態(tài)數(shù)據(jù)進(jìn)行建模研究,導(dǎo)致AI對(duì)人類認(rèn)知學(xué)習(xí)過程評(píng)估的不完全。同時(shí),如果AIGC技術(shù)只能生成單一模態(tài)內(nèi)容,那么AIGC的應(yīng)用場(chǎng)景將極為有限,不足以推動(dòng)內(nèi)容生成方式的革新。多模態(tài)大模型致力于處理不同模態(tài)、不同來源、不同任務(wù)的數(shù)據(jù)和信息,尋找不同模態(tài)數(shù)據(jù)之間的對(duì)應(yīng)關(guān)系以實(shí)現(xiàn)不同模態(tài)數(shù)據(jù)之間的相互轉(zhuǎn)化,進(jìn)而生成視聽結(jié)合多模態(tài)內(nèi)容。OpenAI的DALL-E2通過訓(xùn)練圖片和文本來學(xué)習(xí)物體的視覺和文字表示之間的聯(lián)系,僅輸入一些關(guān)鍵詞描述即可自動(dòng)生成逼真的圖片。未來基于多模態(tài)大數(shù)據(jù)AIGC是邁向通用人工智能的關(guān)鍵,而AI生成連續(xù)多模態(tài)內(nèi)容是加速元宇宙建設(shè)的重要推手。

        2 AIGC在科學(xué)研究中應(yīng)用的設(shè)想

        不同于傳統(tǒng)的內(nèi)容生成模型,AIGC可以克服資源在時(shí)間和空間上的限制,每個(gè)研究人員都可以直接體驗(yàn)、構(gòu)建和生成科研要素,有效解決科研資源分配不均的問題。同時(shí),AIGC為團(tuán)隊(duì)創(chuàng)新提供了良好的研究環(huán)境,將研究者從“科研民工”的身份中解放,高效產(chǎn)出高質(zhì)量科研成果。另外,AIGC對(duì)科研資源的補(bǔ)充和對(duì)團(tuán)隊(duì)協(xié)作的指導(dǎo)有助于進(jìn)一步打破學(xué)科界限,使跨學(xué)科合作研究成為主流發(fā)展方向。

        2.1 補(bǔ)充科研資源

        科研成果產(chǎn)出與科研資源高度相關(guān),然而科研受限于平臺(tái)、團(tuán)隊(duì)、項(xiàng)目經(jīng)費(fèi)等各種因素,難以獲得理想的科研資源。AIGC的出現(xiàn)在一定程度上打破了科研資源分配不均衡的現(xiàn)狀。AIGC可以創(chuàng)造出高度真實(shí)的樣本數(shù)據(jù)和極具現(xiàn)實(shí)感的虛擬模型,這對(duì)生物學(xué)、醫(yī)學(xué)、計(jì)算機(jī)科學(xué)、神經(jīng)科學(xué)等眾多學(xué)科的研究大有裨益。雖然OpenAI的ChatGPT并非完全開源,但是科研工作者可以以較低成本獲得SOTA(state-of-the-art)模型最全面和最豐富的數(shù)據(jù)。

        經(jīng)過海量數(shù)據(jù)訓(xùn)練的AIGC模型在強(qiáng)化學(xué)習(xí)和遷移學(xué)習(xí)上有巨大的潛力,其強(qiáng)大的總結(jié)能力可以幫助人類發(fā)現(xiàn)知識(shí)??蒲泄ぷ髡呃肁IGC從海量數(shù)據(jù)中挖掘完備的數(shù)據(jù)樣本,不再依賴于搜索和人為判斷的過濾方式,從而避免了因?yàn)橹R(shí)不在現(xiàn)有庫或者主觀判斷所導(dǎo)致的知識(shí)欠缺和遺漏問題。

        同時(shí)可以對(duì)AIGC生成內(nèi)容做出具體限定,生成規(guī)范化的數(shù)據(jù)樣本。這種方式繼承了二手?jǐn)?shù)據(jù)快速便捷獲取的優(yōu)點(diǎn),摒棄了其不規(guī)則、不準(zhǔn)確的缺點(diǎn)。對(duì)于難以獲取有限樣本的問題,AIGC模型能夠?qū)W習(xí)現(xiàn)有少量樣例之間的共性或通過遷移學(xué)習(xí)方法,生成大量近似真實(shí)的樣本。從過去的技術(shù)尋找數(shù)據(jù),到現(xiàn)在的技術(shù)創(chuàng)造數(shù)據(jù),AIGC將推動(dòng)WEB 3.0建設(shè),補(bǔ)充科研資源并降低科研門檻。

        2.2 助力團(tuán)隊(duì)協(xié)作效率提升和團(tuán)隊(duì)創(chuàng)新

        眾所周知,在Nature、Science和Cell等知名期刊上發(fā)表的科研成果是眾多科研工作者團(tuán)結(jié)協(xié)作數(shù)年的結(jié)晶。真正優(yōu)秀的科研團(tuán)隊(duì)中,成員的研究目標(biāo)一致,互相之間配合默契,才能在一個(gè)科研方向上長(zhǎng)期堅(jiān)持。我國(guó)高校的大部分科研團(tuán)隊(duì)的建設(shè)還局限在同一所大學(xué)同一學(xué)科內(nèi)部的同一課題組上。AIGC強(qiáng)大的包容性可以促進(jìn)跨學(xué)科優(yōu)勢(shì)互補(bǔ)和整合資源。

        研究生的培養(yǎng)是導(dǎo)師制,導(dǎo)師全權(quán)負(fù)責(zé)其學(xué)生的科研工作,導(dǎo)師依靠經(jīng)驗(yàn)將一整個(gè)大課題分解為互相聯(lián)系的小課題交給不同的人負(fù)責(zé),這種直接領(lǐng)導(dǎo)的方式無法保證團(tuán)隊(duì)內(nèi)部的充分溝通,在一定程度上限制了團(tuán)隊(duì)創(chuàng)新,團(tuán)隊(duì)合作建設(shè)的成果較少。AIGC有望打破這種限制,AI以全新身份加入科研團(tuán)隊(duì),科研工作者可以將耗時(shí)的重復(fù)性勞動(dòng)交于AI處理,增加創(chuàng)新性思考和團(tuán)隊(duì)充分交流的時(shí)間,提高團(tuán)隊(duì)協(xié)作的效率。

        另一方面,AIGC將顛覆傳統(tǒng)科研管理模式,指導(dǎo)科研管理工作,研究不僅圍繞學(xué)術(shù)帶頭人展開,每一個(gè)成員都是團(tuán)隊(duì)的核心,充分發(fā)揮研究的積極性和創(chuàng)新性。例如,DeepMind開發(fā)的AlphaFold在蛋白質(zhì)結(jié)構(gòu)預(yù)測(cè)上的強(qiáng)大能力,激發(fā)了結(jié)構(gòu)生物學(xué)家對(duì)行業(yè)的重新思考,選擇與AI合作成為必然。

        2.3 打破學(xué)科界限

        由于起步較晚,中國(guó)在專業(yè)軟件開發(fā)上始終落后于國(guó)外,例如Matlab、SolidWorks等,歐美依靠其“霸權(quán)地位”向中國(guó)收取高昂的知識(shí)產(chǎn)權(quán)費(fèi),嚴(yán)重阻礙中國(guó)的科技進(jìn)步。AGIC正從表面數(shù)據(jù)向底層技術(shù)生成邁進(jìn),AIGC同樣可以快速建模與仿真。近年來,各行各業(yè)都對(duì)計(jì)算機(jī)基礎(chǔ)提出較高要求,當(dāng)下AIGC的出現(xiàn)幫助人類了解技術(shù),進(jìn)一步模糊了行業(yè)之間的界限區(qū)分。而產(chǎn)業(yè)與學(xué)術(shù)呈現(xiàn)相互促進(jìn)的關(guān)系,學(xué)科界限也將進(jìn)一步被打破,跨學(xué)科合作研究成為必然的發(fā)展趨勢(shì)。

        另一方面,在科研經(jīng)費(fèi)遠(yuǎn)不如理工科的人文社科領(lǐng)域,AIGC的普及有望打破這種資源分配不均的局面,AI賦能的科學(xué)研究不再受到具體的方法工具的限制。文科生即使沒有學(xué)習(xí)過編程、建模等課程,也能借助AI輕松實(shí)現(xiàn)以輔助其研究,進(jìn)而提升研究的深度和廣度。人文學(xué)科和社會(huì)科學(xué)的研究者具備了與理工科的研究者同等的實(shí)踐能力,其批判性的思辨能力會(huì)更具優(yōu)勢(shì)。

        3 AIGC在科學(xué)研究中面臨的挑戰(zhàn)

        雖然AIGC在科研工作中有豐富的應(yīng)用可能,但AI生成內(nèi)容的底層架構(gòu)和邏輯是神經(jīng)網(wǎng)絡(luò)的“黑盒模型”,人類無法理解深度神經(jīng)網(wǎng)絡(luò)中的每一個(gè)參數(shù),解釋不清模型從輸入到輸出之間的非線性映射關(guān)系。相反,計(jì)算機(jī)卻可以從數(shù)據(jù)訓(xùn)練中抽象總結(jié)出所學(xué)規(guī)律,并嚴(yán)格按照此規(guī)律執(zhí)行。與科學(xué)研究中采用的一手?jǐn)?shù)據(jù)、二手?jǐn)?shù)據(jù)特性不同,AI生成內(nèi)容既不是完全現(xiàn)有的,也不是完全客觀的,AIGC在科學(xué)研究中的應(yīng)用將會(huì)帶來諸多問題。當(dāng)ChatGPT不再延續(xù)GPT系列開源的傳統(tǒng)時(shí),其商業(yè)化的選擇一方面保證了知識(shí)產(chǎn)權(quán)和收入來源,更重要的是對(duì)技術(shù)濫用進(jìn)行監(jiān)管。科研工作者如果只著眼于技術(shù)上的可能性,而忽視其價(jià)值的正當(dāng)性,那么AIGC給人類帶來的將是弊大于利。

        3.1 嚴(yán)謹(jǐn)性能否被證實(shí)

        AIGC在科學(xué)研究中應(yīng)用的首要問題是其嚴(yán)謹(jǐn)性能否被證實(shí)。科學(xué)研究強(qiáng)調(diào)嚴(yán)謹(jǐn)和規(guī)范,既是為了避免細(xì)微誤差影響結(jié)果的準(zhǔn)確性,也是為了確??蒲羞^程邏輯性和實(shí)驗(yàn)的可重復(fù)性。ChatGPT對(duì)于同一問題的結(jié)果并不完全一致,而在這種模糊相似中尋找共性的做法,也加大了AIGC 嚴(yán)謹(jǐn)性論證的難度。就像從實(shí)驗(yàn)室最優(yōu)模型到實(shí)踐應(yīng)用仍有較大差距一樣,AIGC從便利生活到科學(xué)應(yīng)用還有很長(zhǎng)的一段路要走。

        另一方面,眾多期刊明確禁止將ChatGPT列為論文的合著者,同時(shí)也將其對(duì)生成的文本進(jìn)行查重。因此,目前AIGC不能作為科研的第一生產(chǎn)力。正如圖靈機(jī)、神經(jīng)網(wǎng)絡(luò)在提出之初無人相信一樣,AI生成數(shù)據(jù)經(jīng)過實(shí)驗(yàn)得出的結(jié)論是否可靠仍需要經(jīng)過大規(guī)模的驗(yàn)證。

        3.2 技術(shù)成癮

        過度沉浸在網(wǎng)絡(luò)世界會(huì)產(chǎn)生對(duì)互聯(lián)網(wǎng)的依賴,長(zhǎng)期使用電子設(shè)備會(huì)產(chǎn)生電子設(shè)備依賴,導(dǎo)致心理問題和過度疲勞綜合征的產(chǎn)生。同樣,AI生成內(nèi)容的便利也會(huì)蠶食科研工作者獨(dú)立思考的能力。隨著AIGC交互作用的不斷發(fā)展,知識(shí)獲取的便利性和零成本會(huì)導(dǎo)致學(xué)習(xí)者陷入技術(shù)依賴和AI上癮的陷阱。換言之,學(xué)習(xí)者不再需要發(fā)揮學(xué)習(xí)過程中的主觀能動(dòng)性,不需要經(jīng)歷認(rèn)識(shí)問題、思考問題、驗(yàn)證答案、問題再認(rèn)識(shí)的螺旋上升過程,而是簡(jiǎn)單地將問題打包交由AI處理,直接獲取AI的標(biāo)準(zhǔn)答案。同時(shí)在元宇宙時(shí)代,虛擬與現(xiàn)實(shí)高度融合,真實(shí)信息與虛假信息交織難辨,AIGC創(chuàng)造的知識(shí)未經(jīng)驗(yàn)證就轉(zhuǎn)移傳播,使得技術(shù)上癮的問題更為嚴(yán)峻,科研工作者一旦離開AI就不會(huì)思考,或者被AI牽著鼻子走。

        AIGC全面的能力和對(duì)現(xiàn)實(shí)的補(bǔ)償效應(yīng)帶有強(qiáng)烈的成癮風(fēng)險(xiǎn)。AIGC給予大腦的刺激容易激發(fā)人類無盡的欲望,例如利用AIGC完成作業(yè)、通過考試等,如果不加以禁止,就會(huì)被無限復(fù)制。政府、高校、社會(huì)和科技巨頭公司有責(zé)任規(guī)范AI技術(shù)的使用,保護(hù)網(wǎng)絡(luò)使用安全。

        3.3 隱私與道德問題

        在傳統(tǒng)的社交網(wǎng)絡(luò)中,數(shù)據(jù)由用戶創(chuàng)造并決定由誰來分享他們的社交媒體內(nèi)容,因此隱私數(shù)據(jù)的泄露往往是小范圍,且可以快速溯源并解決。然而,在元宇宙和Web 3.0信息交互日益頻繁的今天,用戶創(chuàng)造數(shù)據(jù)在去中心化的區(qū)塊鏈上快速傳播,其中的數(shù)字痕跡很有可能包含了用戶隱私的敏感信息。無論多大規(guī)模,數(shù)據(jù)集的信息豐富度總是有限的,AI想要生成真實(shí)逼真的內(nèi)容需要與時(shí)俱進(jìn),其訓(xùn)練數(shù)據(jù)來源終會(huì)邁向互聯(lián)網(wǎng),而這些隱私信息無差別被人工智能捕獲并學(xué)習(xí),生成的內(nèi)容可能侵犯了用戶隱私和知識(shí)產(chǎn)權(quán)等。

        另一方面,AIGC生成的虛假信息,會(huì)被不經(jīng)鑒別地傳播和出版,進(jìn)而也帶來了信息欺詐的風(fēng)險(xiǎn)。這些虛假或者包含欺詐或者侵權(quán)行為的信息,經(jīng)過AI美化和包裝都變得難以人為鑒別,這也是之后發(fā)展可信人工智能亟待解決的問題。

        技術(shù)的創(chuàng)新發(fā)展必然領(lǐng)先于對(duì)其道德倫理的思考,AIGC道德準(zhǔn)則的發(fā)展相對(duì)滯后。對(duì)于科研工作者而言,AIGC技術(shù)的應(yīng)用更需慎之又慎,同時(shí)政府需要加強(qiáng)對(duì)AI技術(shù)的監(jiān)管,制定或更新相關(guān)的法律法規(guī)。

        4 結(jié)論

        2023年是AIGC元年,我國(guó)也提出推進(jìn)高校、研究機(jī)構(gòu)和企業(yè)共同參與數(shù)字中國(guó)的建設(shè)。全世界的技術(shù)工作者、科研工作者在爭(zhēng)相體驗(yàn)AI生成內(nèi)容的魅力,也都在思考如何看待AIGC在科學(xué)研究中的應(yīng)用前景。

        對(duì)于科研工作者而言,與傳統(tǒng)依托于平臺(tái)資源的科研工作不同,得到AI賦能的科研工作更具有競(jìng)爭(zhēng)優(yōu)勢(shì),科研資源獲取成本的降低可以進(jìn)一步解放思想。對(duì)于科研團(tuán)隊(duì)而言,重要的是如何將AI生成內(nèi)容與現(xiàn)有的科研管理方式相結(jié)合,促進(jìn)團(tuán)隊(duì)協(xié)作效率提升和確保團(tuán)隊(duì)創(chuàng)新活力。對(duì)于學(xué)科發(fā)展而言,AIGC打破了不同學(xué)科之間的界限,擴(kuò)展了管理學(xué)科的范圍,對(duì)研究工作提出了更高要求,我們需要以跨時(shí)代、跨學(xué)科的視角開展管理科學(xué)研究。

        現(xiàn)在直接預(yù)測(cè)AIGC將成為未來科研的第一生產(chǎn)力為時(shí)尚早,這項(xiàng)技術(shù)還需經(jīng)過時(shí)間的檢驗(yàn),科研工作者將AIGC用于補(bǔ)充科研需要尊重科研工作的嚴(yán)謹(jǐn)性,警惕技術(shù)陷阱,規(guī)避道德和法律風(fēng)險(xiǎn),正確地使用AI這把雙刃劍,從而加快推進(jìn)數(shù)字中國(guó)建設(shè)。

        參考文獻(xiàn):

        [1] ?中共中央 國(guó)務(wù)院印發(fā)《數(shù)字中國(guó)建設(shè)整體布局規(guī)劃》[EB/OL](2023-02-27)[2023-03-01]. http://www.gov.cn/xinwen/2023-02/27/content_5743484.htm.

        [2] HOCHREITER S, SCHMIDHUBER J. Long short-term memory[J]. Neural Computation, 1997, 9(8): 1735-1780.

        [3] MNIH V, HEESS N, GRAVES A. Recurrent models of visual attention[J]. Advances in neural information processing systems, 2014, 27.

        [4] VASWANI A, SHAZEER N, PARMAR N, et al. Attention is all you need[J]. Advances in Neural Information Processing Systems, 2017, 30.

        [5] DEVLIN J, CHANG M W, LEE K, et al. Bert: pre-training of deep bidirectional transformers for language understanding[J]. arXiv preprint arXiv:1810.04805, 2018.

        [6] RADFORD A, NARASIMHAN K, SALIMANS T, et al. Improving language understanding by generative pre-training[J]. 2018.

        [7] RADFORD A, WU J, CHILD R, et al. Language models are unsupervised multitask learners[J]. OpenAI Blog, 2019, 1(8): 9.

        [8] BROWN T, MANN B, RYDER N, et al. Language models are few-shot learners[J]. Advances in Neural Information Processing Systems, 2020, 33: 1877-1901.

        [9] OUYANG L, WU J, JIANG X, et al. Training language models to follow instructions with human feedback[J]. arXiv preprint arXiv:2203.02155, 2022.

        [10] CHRISTIANO P F, LEIKE J, BROWN T, et al. Deep reinforcement learning from human preferences[J]. Advances in Neural Information Processing Systems, 2017, 30.

        [11] STIENNON N, OUYANG L, WU J, et al. Learning to summarize with human feedback[J]. Advances in Neural Information Processing Systems, 2020, 33: 3008-3021.

        [12] RADFORD A, KIM J W, HALLACY C, et al. Learning transferable visual models from natural language supervision[C]//International conference on machine learning. PMLR, 2021: 8748-8763.

        [13] ESSER P, ROMBACH R, OMMER B. Taming transformers for high-resolution image synthesis[C]//Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2021: 12873-12883.

        [14] RAMESH A, PAVLOV M, GOH G, et al. Zero-shot text-to-image generation[C]//International Conference on Machine Learning. PMLR, 2021: 8821-8831.

        [15] ROMBACH R, BLATTMANN A, LORENZ D, et al. High-resolution image synthesis with latent diffusion models[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2022: 10684-10695.

        [16] 中國(guó)信通院. 人工智能生成內(nèi)容(AIGC)白皮書[EB/OL]. 2022.

        [17] DOSOVITSKIY A, BEYER L, KOLESNIKOV A, et al. An image is worth 16x16 words: Transformers for image recognition at scale[J]. arXiv preprint arXiv:2010.11929, 2020.

        [18] GOODFELLOW I, POUGET-ABADIE J, MIRZA M, et al. Generative adversarial networks[J]. Communications of the ACM, 2020, 63(11): 139-144.

        [19] KINGMA D P, WELLING M. Auto-encoding variational bayes[J]. arXiv preprint arXiv:1312.6114, 2013.

        [20] RAMESH A, DHARIWAL P, NICHOL A, et al. Hierarchical text-conditional image generation with clip latents[J]. arXiv preprint arXiv:2204.06125, 2022.

        [21] VAN DEN OORD A, VINYALS O. Neural discrete representation learning[J]. Advances in Neural Information Processing Systems, 2017, 30.

        [22] CAO H, TAN C, GAO Z, et al. A survey on generative diffusion model[J]. arXiv preprint arXiv:2209.02646, 2022.

        [23] JUMPER J, EVANS R, PRITZEL A, et al. Highly accurate protein structure prediction with AlphaFold[J]. Nature, 2021, 596(7873): 583-589.

        [24] ?2022年度“十大基礎(chǔ)研究關(guān)鍵詞”揭曉 薛其坤、顏寧等頂尖學(xué)者共話人類未來[EB/OL].2022.http://jingji.cctv.com/2022/11/28/ARTIjzDF4hJrpf1Dlk9LaMZM221128.shtml.

        久久久久亚洲av成人无码 | 老师开裆丝袜喷水视频| 精品水蜜桃久久久久久久| 国产精品综合日韩精品第一页| av网站影片在线观看| 国产一区二区三区视频在线观看| 香蕉免费一区二区三区| 99久久国语露脸精品国产| 国产一区二区三区免费在线视频| 日本一区二区三区一级片| 亚洲av无码乱码精品国产| 久久精品国产第一区二区三区| 亚洲成a人片在线播放观看国产| 精品中文字幕久久久人妻| 天天综合网网欲色| aaa级久久久精品无码片| 国产成人精品麻豆| 日本久久视频在线观看| 国产在线精品一区二区三区| 欧美最猛黑人xxxxx猛交| 无码久久精品蜜桃| 亚洲第一黄色免费网站| 国模无码一区二区三区不卡| 亚洲黄色一级毛片| 三级黄片一区二区三区| 日本在线视频www色| 国内精品久久久久久中文字幕 | 无码a级毛片免费视频内谢| 日本精品一区二区三区试看 | 日韩夜夜高潮夜夜爽无码| 女人夜夜春高潮爽a∨片| 亚洲AV无码一区二区水蜜桃| 亚洲女av中文字幕一区二区| 人妻少妇偷人精品无码| 国产中文制服丝袜另类| 久久综合老鸭窝色综合久久| 亚洲av日韩av激情亚洲| 丰满岳乱妇久久久| 最新永久无码AV网址亚洲| 成人av蜜桃在线观看| 欧美黑吊大战白妞|