中圖分類號:TP18;G301 文獻(xiàn)標(biāo)志碼:A 文章編號:1004-342(2025)04-12-6
近年來,以ChatGPTDeepSeek為代表的大語言模型引發(fā)全球關(guān)注?;谏墒接?xùn)練模型的人工智能生成內(nèi)容(ArtificialIntelligenceGenerativeContent,AIGC)被視為人類知識生產(chǎn)革命的重要推動者,被廣泛運用在教育、醫(yī)療、科研和傳媒等知識生產(chǎn)與信息傳播領(lǐng)域。有學(xué)者認(rèn)為,人工智能作為知識生產(chǎn)主體的地位應(yīng)獲得承認(rèn),①也有學(xué)者認(rèn)為AIGC不能算作是一種真正的知識,只是一種信息的生成。②那么,AIGC屬于何種知識范疇?和學(xué)術(shù)知識生產(chǎn)有何異同?作為一種新的技術(shù)變量,對于學(xué)術(shù)知識生產(chǎn)又會產(chǎn)生何種影響?關(guān)于這些疑問,我們有必要回到知識本身,理清人工智能生成內(nèi)容的邏輯,并對AIGC誘發(fā)的科研失信問題及學(xué)術(shù)生態(tài)面臨的風(fēng)險加以探討和反思
一、AIGC與知識生產(chǎn)的關(guān)聯(lián)
知識是人類在長期實踐與生活中,通過積累、思考、實驗等形成對認(rèn)知對象的認(rèn)識,是人類在自己的歷史活動中對實踐經(jīng)驗的總結(jié)和升華,并以具有思想內(nèi)涵、時代內(nèi)涵和文明內(nèi)涵的各種概念體系構(gòu)成人類文明進(jìn)步的階梯和支撐點。①沿著知識社會學(xué)的路徑,除了經(jīng)由研究或思考并得到系統(tǒng)化表達(dá)的知識之外,②那些指導(dǎo)日常生活實踐的常識也可算作知識。AIGC是指由人工智能生成而非人類創(chuàng)作的內(nèi)容,具有知識密度高、生成速度快、生成成本低,甚至具有一定的創(chuàng)造性特點,它的確可以成為知識生產(chǎn)的一種方式。
有學(xué)者總結(jié)了AI生產(chǎn)的“知識”與人類生產(chǎn)的知識的本質(zhì)差異。人類知識是在意向性的基礎(chǔ)上以一階知識和二階知識的面目呈現(xiàn),而AI生成的“知識”缺乏反思性和意向性,通過對既有知識的聯(lián)結(jié)和組合,以三階知識的面貌呈現(xiàn)。所謂一階知識就是人類憑借感知直接對“對象世界”的無中生有,二階知識即在一階知識基礎(chǔ)之上進(jìn)一步發(fā)揮聯(lián)想、推理重新加工和改造后的知識,三階知識是在一階知識和二階知識基礎(chǔ)上的新的知識形態(tài),是一種“類知識”。也有學(xué)者將其稱為“混亂知識”③或“暗知識”,用以指代在“算法黑箱”的邏輯下人類尚未把握、理解的知識范疇。以往對知識生產(chǎn)的理解始終圍繞著人這一主體及其實踐而展開,當(dāng)生成式人工智能以非人類實體介人到知識產(chǎn)生的過程中,知識生產(chǎn)的意涵進(jìn)一步得到了延展。
那么兩者有何關(guān)聯(lián)?首先,人類知識構(gòu)成人工智能的基礎(chǔ)。沒有人類預(yù)存的知識,就談不上機(jī)器所表現(xiàn)出的智能,正如有些學(xué)人所笑談,人工智能有多“人工”就有多“智能”。其次,AIGC所產(chǎn)生的“類知識”,本質(zhì)上是人類已有的知識。AIGC實際上是從海量文本中分析人類語言實踐的概率,并根據(jù)最可能的搭配內(nèi)容作為答案高效地提供給人類提問者。@最后,人工智能產(chǎn)生的“暗知識”是人類知識發(fā)展過程中的重要外延,最終可被收編為人類知識的組成部分。
二、AIGC介入下的學(xué)術(shù)知識生產(chǎn)
2020年初,麻省理工學(xué)院讓人工智能參與到抗生素研發(fā)過程,人工智能在61000個分子中篩查到1個分子符合制藥標(biāo)準(zhǔn),研究人員將其命名為Hlicin(海利霉素)。①在醫(yī)學(xué)領(lǐng)域,學(xué)者指出ChatGPT有潛力徹底改變研究人員在醫(yī)學(xué)領(lǐng)域進(jìn)行科學(xué)寫作和數(shù)據(jù)分析的方式。②麻省理工學(xué)院最新對1018名科學(xué)家的一項實驗表明:使用人工智能輔助的研究人員發(fā)現(xiàn)材料數(shù)量增加了 44% ,專利申請數(shù)量提高了 39% 。③聚焦于科研工作流程中,AI在文獻(xiàn)檢索、文獻(xiàn)閱讀、文獻(xiàn)分析、文獻(xiàn)管理、筆記管理、論文寫作等方面均有不同程度的賦能作用,其中主要的賦能集中在協(xié)助文獻(xiàn)研究、設(shè)計科學(xué)實驗方案、幫助進(jìn)行數(shù)據(jù)分析、提高論文寫作速度、加快學(xué)術(shù)出版等方面。③AI在加速科學(xué)發(fā)現(xiàn)、提高效率等方面已經(jīng)發(fā)揮出巨大的潛力。AIGC表現(xiàn)出的強(qiáng)大“類人性表達(dá)”,勢必會進(jìn)一步加速傳統(tǒng)知識生產(chǎn)的變革。
有學(xué)者從知識演進(jìn)的層次“數(shù)據(jù)一信息一知識一智慧”,以及知識搜索和知識評估維度總結(jié)了AI介人下的三種知識生產(chǎn)模式:AI主導(dǎo)型、AI合作型和AI輔助型。AI主導(dǎo)型是指作者向生成式AI輸入撰寫一篇論文的全部或部分內(nèi)容的指令(譬如論文摘要、提綱、標(biāo)題、論證行文等內(nèi)容),不經(jīng)過驗證和調(diào)試地直接使用;AI合作型是指作者在知識搜索階段通過人機(jī)協(xié)作,不斷輸人指令與生成式AI交互,直至獲得達(dá)到甚至超出自身期待的回答;AI輔助型是指知識搜索階段由AI獨立完成或者人類和AI交互完成,同時人類會對AIGC的科學(xué)價值進(jìn)行判斷和改進(jìn),使得AI在生產(chǎn)最終呈現(xiàn)出的知識產(chǎn)品中只起到一種輔助性作用。有學(xué)者從知識獲取途徑與思維運作過程總結(jié)了AI對于傳統(tǒng)科研活動的沖擊,即檢索式的知識獲取轉(zhuǎn)變?yōu)樯墒剑C合式的思維運作轉(zhuǎn)變?yōu)檫x擇式。②盡管目前AI在信息檢索、摘要總結(jié)、文本分析、生成策略和對話回顧等方面較為成熟,但其仍無法承擔(dān)學(xué)術(shù)知識生產(chǎn)的主要重?fù)?dān),人類的主體性地位尚不能動搖,
首先,從知識演進(jìn)的層次看,AIGC目前正處于從數(shù)據(jù)到信息的階段,無法獨立生成知識。數(shù)據(jù)本身只是一種未經(jīng)加工的、不具有任何特定意義的符號化記錄,信息是一種被處理和解釋過的、對接收者具有特定的意義。數(shù)據(jù)轉(zhuǎn)化為信息后需要借助人類的理性和經(jīng)驗實現(xiàn)到知識的進(jìn)階,而生成式AI自身無法將數(shù)據(jù)有效轉(zhuǎn)化為知識。①其次,基于生成式的知識獲取,存在無法回避的缺陷:知識獲取的碎片性、模糊性,甚至是虛假性。AIGC在已有文獻(xiàn)庫中截取部分關(guān)鍵要點,容易忽視原著的上下文的整體語境。當(dāng)原著中的詞語被重新組合后就會對語境信息造成巨大損耗。AI所依賴的深度學(xué)習(xí)模型是基于海量數(shù)據(jù)庫的二次學(xué)習(xí),數(shù)據(jù)源的有限性、真實性會導(dǎo)致AI生成低質(zhì)量信息,而AIGC再次進(jìn)入互聯(lián)網(wǎng)又造成虛假數(shù)據(jù)的惡性迭代。這本身有悖于知識的增長與傳播有助于推動提升人類認(rèn)知準(zhǔn)確性的基本邏輯。最后,人工智能生成內(nèi)容沒有真正的創(chuàng)造性。從本質(zhì)上而言,人工智能是被人類創(chuàng)造的,它是“人類的創(chuàng)造物”而不是“創(chuàng)造者”。AIGC缺乏體現(xiàn)
創(chuàng)造力的關(guān)鍵元素:自主性、意向性、意識、價值觀、情感,以及超越“已知”建立“未知”的能力。②AI無法像人類學(xué)者一樣能產(chǎn)生瞬間的靈感或頓悟。盡管AI已經(jīng)表現(xiàn)出一定的“創(chuàng)造”能力,但這種“創(chuàng)造”能力本質(zhì)上還是基于人類已有語料庫的概率性綜合,它所能做的只是基于海量的既有語料執(zhí)行操作——搜索、重組和替換。③
三、AIGC誘發(fā)的科研失信危機(jī)
著名語言學(xué)家喬姆斯基曾在《紐約時報》發(fā)表評論,直言不諱地指出ChatGPT本質(zhì)上是高科技剽竊,展出了一些平庸的邪惡:抄襲、冷漠和回避。 年1月,國內(nèi)媒體報道的一學(xué)生使用AI學(xué)術(shù)造假被麻省理工學(xué)院退學(xué)的新聞引發(fā)熱議。事實上,關(guān)于AIGC所引發(fā)的科研失信問題屢見不鮮
《自然》雜志(Nature)曾報道:大量由人工智能生成、偽造的期刊文章通過同行評審并得以發(fā)表,一些出版物表示他們將撤下這些論文,這可能導(dǎo)致超過200篇論文被撤稿。有國外學(xué)者指出,ChatGPT在科研寫作中被濫用的案例包括:抄襲、結(jié)果的錯誤表述、過度依賴自動化、不了解技術(shù)術(shù)語、數(shù)據(jù)誤解、缺乏原創(chuàng)性、缺乏問責(zé)機(jī)制、缺乏透明度、偏見和不準(zhǔn)確,以及作者身份的濫用。①此外,學(xué)術(shù)界已出現(xiàn)濫用大語言模型生成文本的署名爭議,ChatGPT在論文工廠中的濫用問題更亟待重視。②國內(nèi)學(xué)者對于AIGC與科研失信問題主要集中在誘發(fā)潛在虛假舞弊現(xiàn)象,如ChatGPT應(yīng)答中存在錯誤、偏見或誤導(dǎo)性的信息會在集中式的應(yīng)答機(jī)制中,被用戶與機(jī)器信息傳遞過程的感受性要素所掩蓋。③
此外,生成式AI在科研場景中會引發(fā)輸出低質(zhì)量信息;會對研究誠實性和可靠性造成破壞,導(dǎo)致剽竊、抄襲、偽造、篡改等科研誠信問題。還有學(xué)者指出,生成式AI應(yīng)用于研究生科研寫作會產(chǎn)生技術(shù)依賴,導(dǎo)致學(xué)生的思維惰性和思考萎靡,且難以確定研究成果的真?zhèn)?,這違背科研工作原創(chuàng)性原則,并進(jìn)一步影響學(xué)術(shù)成果評估的公正。@
目前,學(xué)術(shù)界已經(jīng)陸續(xù)對人工智能在學(xué)術(shù)研究中的使用作出回應(yīng)?!犊茖W(xué)》雜志(Science)《自然》雜志等海內(nèi)外學(xué)術(shù)期刊已陸續(xù)推出AI使用規(guī)范?!犊茖W(xué)》雜志明確表明既不接受ChatGPT生成的論文,也不允許ChatGPT作為論文作者。中國歷史研究院《歷史研究》雜志在國內(nèi)率先發(fā)布《關(guān)于規(guī)范使用生成式人工智能工具使用的啟示》。 年3月28日,《當(dāng)代青年研究》編輯部發(fā)布規(guī)范:不接受運用AI工具生成文章的主體架構(gòu)、核心觀點和主要內(nèi)容,改寫既有研究成果;虛構(gòu)工具信息或隱瞞使用情況;偽造或捏造文獻(xiàn)、內(nèi)容與數(shù)據(jù)等;作者應(yīng)對論文使用AI工具的情況負(fù)責(zé),并承擔(dān)相應(yīng)法律與道德責(zé)任。一經(jīng)查實存在上述所列問題,刊物將有權(quán)采取退稿、撤稿、通報、禁止在刊物發(fā)表文章等措施。③
四、結(jié)語
知識生產(chǎn)是人類不斷發(fā)明、創(chuàng)造新的信息、概念、思想、理論的創(chuàng)新活動。①學(xué)術(shù)研究的任務(wù)是提出問題和解決問題,是不斷形成新的學(xué)術(shù)知識的創(chuàng)造活動。②在傳統(tǒng)學(xué)術(shù)知識生產(chǎn)過程中,生產(chǎn)模式始終以人類為主導(dǎo),其中凝結(jié)著人類的思辨力、洞察力、想象力、創(chuàng)造力。誠然,AI有助于節(jié)省人類從事學(xué)術(shù)知識生產(chǎn)的時間,提高知識生產(chǎn)的效率。然而,普通人在面對AIGC的黑箱時可能無法有效洞見知識生產(chǎn)的過程,缺乏對知識性質(zhì)的判斷。這可能會導(dǎo)致人類“主體性”(Agency)的喪失,而建立在“主體性”缺失基礎(chǔ)上的AIGC可能會裹足不前。果真如此,人類的知識生產(chǎn)會陷入內(nèi)卷式的停滯,這當(dāng)然不是大家希望看到的未來
(責(zé)任編輯:劉曉琴)
Lacking of Originality: the Academic Knowledge Production of AIGC
LIU Yu LI Xiaoyi (School ofJournalism, Yunnan University, Yunnan,Kunming, 650500)
Abstract: In recent years,the development of artificial intelligence has presented new challenges and opportunities for human knowledge production and information dissemination. By reviewing the existing academic research on AIGC,it has been found that AI has enriched the wayof human knowledge production,particularly in promotingthe production ofthird-order knowledge.However,anunavoidable issue for AIGC is the lack oforiginality and insight in itsknowledge content,which prevents it fromexpanding the overallboundariesof human cognition. Although the use of AIGC in academia can improve the effciency of scientific research,it further exacerbates the existing severe issues of research integrity in our country.
Key words: knowledge production; research integrity; artificial intelligence; originality