曹兵 唐帥 李潔 蔣偉 薛楊
[摘要]隨著ChatGPT的發(fā)布,人工智能技術(shù)對科學(xué)研究和科技傳播產(chǎn)生深遠(yuǎn)的影響,科技期刊應(yīng)正確認(rèn)識人工智能在學(xué)術(shù)研究和傳播中的作用。文章分析ChatGPT對科技期刊的影響,就ChatGPT能否被列為論文的作者、ChatGPT在科學(xué)研究中的作用、ChatGPT與學(xué)術(shù)倫理展開探討,并探究ChatGPT在科技論文寫作中的合理使用和在科技期刊編輯工作中的有效應(yīng)用,為人工智能在科技期刊中的合理使用提供參考。
[關(guān)鍵詞]科技期刊;ChatGPT;人工智能;作者;編輯
2022年11月30日,人工智能研究實驗室OpenAI發(fā)布了一款全新聊天機(jī)器人模型ChatGPT。其推出5天注冊用戶數(shù)即超過100萬人,月活破億用時僅2個多月,ChatGPT被稱為“史上增長速度最快的消費(fèi)者應(yīng)用”。“也許這一次,對于知識型工作者來說,這就完全等于工業(yè)革命?!蔽④汣EO納德拉如此評價。當(dāng)前,ChatGPT對人類語言的理解和處理可大幅提升內(nèi)容創(chuàng)作的技術(shù)成熟度,在知識萃取、知識生產(chǎn)、知識傳播方面為用戶提供更加智能化、個性化的體驗,從而提升內(nèi)容生產(chǎn)效率與豐富度,并成為新的全行業(yè)生產(chǎn)力工具[1-2]。
ChatGPT(Generative Pre-trained Transformer)可以實現(xiàn)與人們的日常交流,甚至具備寫郵件、文案創(chuàng)作等功能。ChatGPT基于Transformer模型,通過引入人類反饋的強(qiáng)化學(xué)習(xí),可大幅提高AI在人機(jī)對話時的準(zhǔn)確度,增強(qiáng)可控性。與其他AI對話機(jī)器人相比,ChatGPT具有強(qiáng)大的語言理解能力和豐富的語言表達(dá)能力,能夠生成更自然、更流暢的文本,可以回答非常復(fù)雜的推理問題。新技術(shù)RLHF(Reinforcement Learning with Human Feedback,基于人類反饋的強(qiáng)化學(xué)習(xí))的引入是ChatGPT受到廣泛認(rèn)可的重要原因,RLHF解決了如何讓人工智能模型的產(chǎn)出和人類的常識、認(rèn)知、需求、價值觀保持一致的核心問題。
ChatGPT與其他人工智能技術(shù)相比,在自然語言處理方面具有以下優(yōu)勢。第一,ChatGPT具有強(qiáng)大的語言生成能力。ChatGPT作為基于預(yù)訓(xùn)練的一種語言模型,可以通過大量的語言數(shù)據(jù)學(xué)習(xí)來理解自然語言,從而實現(xiàn)自然流暢的語言輸出,并被應(yīng)用于諸多領(lǐng)域,如自動文本生成、對話系統(tǒng)、翻譯和摘要等。第二,ChatGPT具有優(yōu)秀的可擴(kuò)展性。基于神經(jīng)網(wǎng)絡(luò)的模型,ChatGPT可以通過擴(kuò)大神經(jīng)網(wǎng)絡(luò)的規(guī)模來提高自身性能,以適應(yīng)不同的應(yīng)用場景。第三,ChatGPT可以學(xué)習(xí)新的知識和技能。ChatGPT是一種基于自監(jiān)督學(xué)習(xí)的模型,它可以通過學(xué)習(xí)大量的數(shù)據(jù)來不斷提高自身能力,并在應(yīng)用中不斷學(xué)習(xí)新的知識和技能。
綜上所述,ChatGPT在自然語言處理方面具有強(qiáng)大的語言生成能力、優(yōu)秀的可擴(kuò)展性以及學(xué)習(xí)新的知識和技能的能力。與其他人工智能技術(shù)相比,ChatGPT憑借這些優(yōu)勢成為自然語言處理應(yīng)用的首選技術(shù)[3]。當(dāng)前,人工智能已經(jīng)成為不可阻擋的科技趨勢,它既帶給人類發(fā)展各種可能,也帶來未知的挑戰(zhàn)。在科技論文寫作中合理使用ChatGPT以及ChatGPT在科技期刊編輯工作中的有效應(yīng)用,是目前學(xué)術(shù)出版界關(guān)注和研究的熱點(diǎn)。
一、ChatGPT能否被列為論文的作者
ChatGPT自誕生以來就對教育界和學(xué)術(shù)界造成了巨大的沖擊[4]。人工智能不僅能通過大學(xué)和專業(yè)資格考試,還能撰寫專業(yè)性極高的學(xué)術(shù)論文,這些由人工智能生成的論文甚至連專業(yè)研究者也無法輕易分辨出來[5]。ChatGPT能否被列為科技論文的作者?當(dāng)期刊編輯、研究人員和出版商仍在爭論ChatGPT在文獻(xiàn)發(fā)表中的恰當(dāng)位置時,ChatGPT已經(jīng)在學(xué)術(shù)文獻(xiàn)中正式亮相。
ChatGPT在已發(fā)表的論文和預(yù)印本中已獲得作者資格[6]。瑞典薩爾格倫斯卡大學(xué)醫(yī)院的神經(jīng)生物學(xué)家阿爾米拉·奧斯曼諾維奇·圖恩斯特羅姆(Almira Osmanovic Thunstr?m)與GPT-3(生成型預(yù)訓(xùn)練變換模型3)合著的文章《GPT-3能在最少的人力投入下自行撰寫學(xué)術(shù)論文嗎?》已于2022年6月發(fā)布在法國預(yù)印本平臺HAL上。當(dāng)時,圖恩斯特羅姆表示,該論文很快將發(fā)表在同行評審的期刊上。對此,有期刊在審查后拒絕了該篇論文,但在根據(jù)審稿人要求該篇論文重寫后,有期刊接受了GPT-3作為該論文的合著者。實際上人工智能還被列為該論文的第一作者。
“ChatGPT能否被列為論文的作者?”這一學(xué)術(shù)倫理問題受到廣泛關(guān)注。這個問題涉及人工智能技術(shù)在學(xué)術(shù)研究領(lǐng)域的應(yīng)用和限制[7]。一方面,ChatGPT作為一個強(qiáng)大的語言模型,可以生成高質(zhì)量的文本,提供各種信息和指導(dǎo),從而成為科研工作者的得力工具。另一方面,ChatGPT受到諸多期刊關(guān)注,有些期刊甚至將其列為作者之一。這促使多家全球知名學(xué)術(shù)期刊正在更新編輯規(guī)則。
(一)全球知名學(xué)術(shù)期刊的態(tài)度
美國科技期刊對使用ChatGPT生成的內(nèi)容方面普遍持開放態(tài)度。例如,科技新聞網(wǎng)站Engadget已在其網(wǎng)站上使用ChatGPT生成的文章,以快速地發(fā)布最新的科技新聞。然而,在ChatGPT能否被列為論文作者的這個問題上美國科技期刊則普遍持謹(jǐn)慎態(tài)度。Science規(guī)定:不允許在論文中使用ChatGPT所生產(chǎn)的文本,禁止將ChatGPT作為合著者。Nature規(guī)定:可以在論文中使用包含ChatGPT等大型語言模型生成的文本,但不能將ChatGPT等列為論文合著者。在歐洲科技期刊中,德國《自然科學(xué)》雜志和英國《自然》雜志對ChatGPT生成的內(nèi)容持較為謹(jǐn)慎的態(tài)度。德國《自然科學(xué)》雜志編輯表示,雖然ChatGPT可以生成高質(zhì)量的論文,但是仍需要編輯進(jìn)行人工審查,以保證其準(zhǔn)確性和可靠性。Elsevier出版了大約2800種期刊,包括《細(xì)胞》和《柳葉刀》,它與Springer-Nature采取了類似的立場。Elsevier的限制性措施是:允許使用人工智能工具來提高論文的可讀性,但不能取代作者完成關(guān)鍵任務(wù),如解釋數(shù)據(jù)或得出科學(xué)結(jié)論等,同時作者也必須聲明他們是否以及如何使用人工智能工具。日本科技期刊對ChatGPT生成內(nèi)容的態(tài)度也比較開放。例如,日本科技期刊《日本科學(xué)未來館》使用ChatGPT生成的內(nèi)容,以介紹科技新聞和前沿科技發(fā)展。
目前,雖然ChatGPT沒有開放國內(nèi)注冊使用,但是國內(nèi)部分期刊已經(jīng)針對ChatGPT類工具使用和署名問題做出規(guī)定,多數(shù)也持謹(jǐn)慎態(tài)度。如《暨南學(xué)報(哲學(xué)社會科學(xué)版)》《天津師范大學(xué)學(xué)報(基礎(chǔ)教育版)》規(guī)定:論文中若使用ChatGPT等大型語言模型工具,需要說明并論證作者自身的創(chuàng)作性,不接受ChatGPT等作為論文作者。
當(dāng)前,世界各國的科技期刊對ChatGPT生成內(nèi)容的態(tài)度存在差異。一些科技期刊已經(jīng)開始嘗試使用ChatGPT生成的論文,認(rèn)為ChatGPT可以提高生產(chǎn)效率、減輕編輯工作量、節(jié)省人力成本,且生成的論文質(zhì)量越來越高。而一些科技期刊則持謹(jǐn)慎態(tài)度,認(rèn)為目前ChatGPT技術(shù)仍存在一定的局限性,如語言和語境理解不夠準(zhǔn)確、無法感知論文的背景和讀者的需求等,ChatGPT生成的論文在質(zhì)量上與人工撰寫的論文相比仍存在一定的差異,并認(rèn)為ChatGPT生成的論文也存在一定的風(fēng)險,可能會影響論文的準(zhǔn)確性、可信度、創(chuàng)新性和人類思考的重要性。還有部分科技期刊認(rèn)為,某些學(xué)科學(xué)術(shù)研究的個體性、創(chuàng)造性等特征突出,ChatGPT則不大可能會創(chuàng)作出此類內(nèi)容,即便創(chuàng)作出來,也容易分辨,因此沒有必要對ChatGPT的使用過度擔(dān)心??傮w來說,ChatGPT作為一種新型的自然語言生成技術(shù),雖在科技期刊領(lǐng)域的應(yīng)用前景廣闊,但仍需要不斷完善和優(yōu)化,以提高其生成內(nèi)容的質(zhì)量和準(zhǔn)確性,同時其也需要編輯加強(qiáng)人工審查工作,以保證論文的可信度和精準(zhǔn)度。
(二)ChatGPT在科學(xué)研究中的作用
隨著科技的不斷進(jìn)步,ChatGPT等人工智能技術(shù)會越來越多地應(yīng)用于科研領(lǐng)域,可以為科研工作者提供相關(guān)的文獻(xiàn)和數(shù)據(jù)等參考資料,幫助科研工作者更好地理解和探索研究領(lǐng)域,但不可能完全替代科研工作者完成科研活動和撰寫論文。當(dāng)前,科研工作包括定量研究和定性分析。ChatGPT作為一個工具,可以幫助科研工作者完成需要同質(zhì)化技能的初級定量研究,幫助節(jié)省科研時間,提高工作效率,而定性分析則需要具有豐富理論基礎(chǔ)的科研工作者根據(jù)經(jīng)驗進(jìn)行合理的分析和判斷,創(chuàng)造性地提出新的觀點(diǎn),指導(dǎo)科學(xué)實驗,并從實驗和實踐中提煉總結(jié)新理論,這是ChatGPT無法完成的。ChatGPT擅長從外部獲取的文本中將相關(guān)內(nèi)容聯(lián)系起來,或從文本中獲取易于識別的內(nèi)容并進(jìn)行整合,而當(dāng)遇到更復(fù)雜的內(nèi)容時,ChatGPT有可能生成錯誤信息的文本,這不利于增強(qiáng)學(xué)術(shù)研究的確定性和科學(xué)性。
2023年7月1日開始實施的《學(xué)術(shù)論文編寫規(guī)則》(GB/T 7713.2—2022)對學(xué)術(shù)論文的定義是:“對某個學(xué)科領(lǐng)域中的學(xué)術(shù)問題進(jìn)行研究后,記錄科學(xué)研究的過程、方法及結(jié)果,用于進(jìn)行學(xué)術(shù)交流、討論或出版發(fā)表,或用作其他用途的書面材料?!备鶕?jù)該定義,ChatGPT可以幫助人們包括且不限于收集資料、開闊視野等,但只能對已有的成果進(jìn)行整合、優(yōu)化,不能進(jìn)行創(chuàng)新性研究,也無法進(jìn)行科學(xué)研究或生成核心觀點(diǎn)等,因此ChatGPT是無法取代人類作為論文的作者的。
(三)ChatGPT與學(xué)術(shù)倫理
現(xiàn)在,越來越多的人在關(guān)注新科技產(chǎn)品應(yīng)用的同時,也更加關(guān)注該產(chǎn)品所具備的道德、倫理和創(chuàng)意思維[8]。一般論文作者在發(fā)表作品時必須聲明自己的作品是原創(chuàng)的,這就意味著使用ChatGPT編寫和生成文本,甚至將其列為論文作者是不可被接受的。通常而言,論文作者的署名權(quán)意味著其應(yīng)承擔(dān)相應(yīng)的民事責(zé)任,可行使相應(yīng)的民事權(quán)利,應(yīng)對論文的觀點(diǎn)和內(nèi)容負(fù)責(zé),但人工智能顯然無法承擔(dān)論文過程中出現(xiàn)的謬誤,甚至造假所應(yīng)承擔(dān)的責(zé)任。這也是目前大多數(shù)科技期刊和出版商“封殺”ChatGPT的主要理由之一。
禁止將機(jī)器作為論文作者是一種合理的做法,因為這有助于維護(hù)學(xué)術(shù)研究的質(zhì)量和可信度。然而,這并不意味著不能使用ChatGPT作為輔助工具,幫助科研工作者完成科研工作。學(xué)術(shù)研究只有充分發(fā)揮人類的優(yōu)勢,利用機(jī)器的功能,擁抱新技術(shù)與新機(jī)會,才能守正創(chuàng)新。因此,當(dāng)前涉及人工智能技術(shù)的倫理問題,人們要考慮更多的是如何更好地使用人工智能技術(shù),使人工智能技術(shù)在人類可控的情況下發(fā)揮作用。
二、ChatGPT在科技論文寫作中的合理使用
科技創(chuàng)新是一把雙刃劍,它具有作為工具的先進(jìn)性,也存在一些問題。國際核心期刊禁止將ChatGPT列為論文合著者,其實更多的是要保證創(chuàng)新來自一個真正原創(chuàng)的成果[9-10]。
(一)完善相關(guān)規(guī)范標(biāo)準(zhǔn)
當(dāng)前,我國互聯(lián)網(wǎng)企業(yè)正在不斷加快類ChatGPT項目的研發(fā),針對智能內(nèi)容生成技術(shù)、工具和人工智能生成內(nèi)容所涉及的寫作倫理、科研倫理,以及其他不確定性和未知性課題的研究也迫在眉睫,一旦ChatGPT開放國內(nèi)注冊或類似ChatGPT的工具不斷涌現(xiàn),則科技期刊亟須形成規(guī)律性認(rèn)識,制訂并完善相應(yīng)的規(guī)范標(biāo)準(zhǔn)。第一,科技期刊應(yīng)深入研究ChatGPT類工具,從其技術(shù)原理入手,分析其優(yōu)勢與不足,并通過廣泛、深入、持續(xù)的研討,科學(xué)研判其可能產(chǎn)生的法律、倫理、學(xué)術(shù)規(guī)范等問題。第二,科技期刊要加強(qiáng)同行交流,推廣普及那些在學(xué)術(shù)出版界先行先試并行之有效的規(guī)定。例如,國際知名學(xué)術(shù)期刊Science和Nature已經(jīng)明確規(guī)定:禁止將ChatGPT作為論文合著者。類似規(guī)定在整個學(xué)術(shù)界和出版界是否需要推廣和普及,各界就需要多做研討,爭取達(dá)成共識。第三,科技期刊要結(jié)合實際情況,對ChatGPT怎么使用、使用到什么程度、使用了怎么標(biāo)注等特定問題制訂統(tǒng)一的規(guī)范標(biāo)準(zhǔn)。例如,科技期刊可以允許科研工作者在查閱資料、語言潤色、格式規(guī)范、數(shù)據(jù)分析等方面合理使用ChatGPT,以節(jié)省時間、提高效率,但在選題策劃、構(gòu)思提綱、撰寫正文等方面,則嚴(yán)格落實作者作為論文著作權(quán)人的責(zé)任,若作者在論文寫作過程中使用ChatGPT,就需要在貢獻(xiàn)說明和致謝部分明確標(biāo)注??傊?,科技期刊制訂和完善相關(guān)規(guī)范標(biāo)準(zhǔn)的目的是促進(jìn)ChatGPT類工具合理、合法、合規(guī)的使用,構(gòu)建積極、健康、活躍的學(xué)術(shù)生態(tài),促進(jìn)學(xué)術(shù)研究的繁榮發(fā)展。
(二)堅持人工驗證
目前,ChatGPT存在一定的局限性,仍有優(yōu)化空間。ChatGPT的模型能力上限,很大程度是由獎勵模型決定的,且該模型需要巨量的語料來擬合真實世界。針對ChatGPT可能會出現(xiàn)的“創(chuàng)造不存在的知識”“主觀猜測提問者意圖”等問題,為了規(guī)范其使用,防范技術(shù)工具的無序擴(kuò)張,防范學(xué)術(shù)不端、學(xué)術(shù)失范等風(fēng)險,人工核驗步驟必不可少。也就是說,針對不同的用戶群體,科技期刊可通過人工驗證對ChatGPT分級開放權(quán)限,甚至必要時可能需要禁用相關(guān)程序。在科技論文寫作中,作者一旦使用ChatGPT工具不當(dāng),期刊編輯如何鑒別,這是一個學(xué)界和業(yè)界需要認(rèn)真思考的問題。學(xué)術(shù)出版界一般考慮從以下方面進(jìn)行檢測。
第一,語言風(fēng)格和文筆方面。人工智能生成的內(nèi)容通常缺乏人類作者的獨(dú)特語言風(fēng)格和文筆,在一定程度上可能會出現(xiàn)語言生硬、語法錯誤、語句不通順等問題。
第二,邏輯結(jié)構(gòu)和條理性方面。人工智能生成的內(nèi)容可能會因缺乏對所論述主題和論點(diǎn)的深入理解而出現(xiàn)邏輯不連貫、結(jié)構(gòu)混亂、條理不清晰等問題。人工智能寫作的質(zhì)量取決于其輸入的數(shù)據(jù)質(zhì)量,如果輸入的數(shù)據(jù)有誤或者不足以支撐所述的主題和論點(diǎn),那么人工智能生成的內(nèi)容就可能會出現(xiàn)邏輯不連貫、結(jié)構(gòu)混亂等問題。對一個有經(jīng)驗的期刊編輯來說,在面對人工智能生成內(nèi)容時,要善于辨別人工智能生成內(nèi)容的主題和論點(diǎn),具有深入理解所述主題和論點(diǎn),解決邏輯不連貫、結(jié)構(gòu)混亂等問題的能力。
第三,數(shù)據(jù)來源和引用方面。人工智能生成的內(nèi)容會存在引用不可靠的數(shù)據(jù)來源,或者引用的數(shù)據(jù)來源過于模糊或不準(zhǔn)確的問題。
第四,學(xué)術(shù)價值和創(chuàng)新性方面。人工智能生成的內(nèi)容可能會缺乏獨(dú)特的學(xué)術(shù)價值和創(chuàng)新性,僅在表面上陳述一些基礎(chǔ)知識或者已經(jīng)被證實的結(jié)論。
(三)制訂問責(zé)制度
科技期刊認(rèn)為ChatGPT不能成為論文作者是合理的,但拒收使用ChatGPT投稿的做法則值得商榷,科技期刊應(yīng)要求作者不得隱瞞使用ChatGPT的情況。在科技論文寫作過程中,作者如果使用了ChatGPT,就需要在作者貢獻(xiàn)說明和致謝部分進(jìn)行標(biāo)注,明確在查閱資料、數(shù)據(jù)分析等步驟和內(nèi)容是否使用了ChatGPT,以及使用的比例等。當(dāng)前,ChatGPT區(qū)別于傳統(tǒng)人工智能模型,其沒有預(yù)設(shè)任務(wù)的限制,生產(chǎn)的內(nèi)容存在以下風(fēng)險。第一,內(nèi)容不真實、不正確的風(fēng)險。因為ChatGPT的訓(xùn)練集質(zhì)量參差不齊,有可能摻雜虛假信息或者錯誤素材,所以其就有可能產(chǎn)生虛假、錯誤內(nèi)容。第二,內(nèi)容侵權(quán)的風(fēng)險。ChatGPT在交互過程中不僅會自主識別收集信息,還存在處理信息的可能性,且其數(shù)據(jù)獲取途徑、獲取方式以及數(shù)據(jù)的使用范圍、使用邊界在一定程度上也無法保證完全合法、合規(guī),有可能存在超限利用等問題,造成侵權(quán)。第三,內(nèi)容泄密的風(fēng)險。面對用戶使用ChatGPT過程中輸入的個人隱私等數(shù)據(jù),ChatGPT有可能將這些數(shù)據(jù)納入后臺數(shù)據(jù)庫并應(yīng)用于對話,隨時可能因未經(jīng)授權(quán)而泄露這些信息和數(shù)據(jù)。由此,作者應(yīng)該明確以上風(fēng)險,在使用ChatGPT時自行規(guī)避,如果出現(xiàn)以上風(fēng)險問題,必須承擔(dān)相關(guān)法律責(zé)任。
三、ChatGPT在科技期刊編輯工作中的有效應(yīng)用
ChatGPT作為一種新型的自然語言生成技術(shù),已經(jīng)開始在科技期刊編輯工作中得到廣泛應(yīng)用。它可以幫助期刊編輯提高工作效率、減輕工作負(fù)擔(dān),為期刊編輯提供更好的閱讀體驗和服務(wù),為科技期刊的發(fā)展和創(chuàng)新提供新的思路和方法[11]。作為一個語言模型,ChatGPT可以應(yīng)用于科技期刊編輯工作的以下方面。
第一,語言潤色和語法檢查。期刊編輯可以利用ChatGPT的智能語言處理功能進(jìn)行語言潤色和語法檢查。由于ChatGPT已經(jīng)通過大量數(shù)據(jù)訓(xùn)練擁有很好的語言理解和生成能力,因此它可以有效地幫助期刊編輯找出語法錯誤、拼寫錯誤和表達(dá)不清晰等問題,并提供修改建議。同時,ChatGPT能夠廣泛、靈活地識別和處理語言范圍、語言結(jié)構(gòu)和語義,包括上下文、語氣、情感等因素,并通過不斷學(xué)習(xí)和反饋,提高自身的準(zhǔn)確性和功能性,在自然語言處理和對話系統(tǒng)方面具有更加廣泛的應(yīng)用前景。
第二,論文質(zhì)量評估。傳統(tǒng)的基于人工評審的論文質(zhì)量評價方法存在主觀性和不可靠性的問題,科技期刊可在ChatGPT等自然語言處理和機(jī)器學(xué)習(xí)技術(shù)的支持下,開發(fā)更加客觀和準(zhǔn)確的評價方法。其中一種常見的方法是科技期刊應(yīng)用自動摘要、關(guān)鍵詞提取、情感分析等技術(shù),基于文本內(nèi)容和語義信息對論文進(jìn)行評價。此外,科技期刊還可以利用社交網(wǎng)絡(luò)和大數(shù)據(jù)分析方法,從多個角度評估論文的影響和質(zhì)量。
第三,論文分類和標(biāo)簽化。期刊編輯可以利用ChatGPT的分類和標(biāo)簽化功能快速對論文進(jìn)行分類和標(biāo)簽化。ChatGPT基于論文的內(nèi)容和結(jié)構(gòu)特征,可自動分類和標(biāo)注論文,使期刊編輯更加高效地管理和組織大量內(nèi)容。
第四,機(jī)器翻譯。對國際科技期刊來說,ChatGPT可以通過其強(qiáng)大的自然語言處理能力,實現(xiàn)高質(zhì)量的機(jī)器翻譯。也就是說,期刊編輯可以將需要翻譯的內(nèi)容輸入ChatGPT,它會快速將內(nèi)容翻譯成其他語言,從而為讀者提供更好的閱讀體驗。
第五,信息抽取和知識圖譜構(gòu)建。ChatGPT可以幫助期刊編輯從海量的科技論文中提取關(guān)鍵信息并構(gòu)建知識圖譜。例如,期刊編輯可以利用ChatGPT對一系列與計算機(jī)視覺相關(guān)的論文進(jìn)行分析,提取其中的關(guān)鍵詞、實體、術(shù)語等信息,并將這些信息組織成一張知識圖譜,從而幫助讀者更好地理解和掌握該領(lǐng)域的知識。
第六,科學(xué)實驗和數(shù)據(jù)分析??萍计诳械闹T多研究需要進(jìn)行科學(xué)實驗和數(shù)據(jù)分析。ChatGPT可以幫助期刊編輯自動生成實驗報告和數(shù)據(jù)分析結(jié)果,并提供相應(yīng)的圖表和解釋,為期刊編輯節(jié)省數(shù)據(jù)分析和可視化的時間和工作量。例如,期刊編輯可以將實驗數(shù)據(jù)輸入ChatGPT,它會快速生成相關(guān)的圖表、數(shù)據(jù)分析結(jié)果和解釋。
第七,期刊讀者行為分析。在期刊讀者行為分析中,ChatGPT可以應(yīng)用于自動化的讀者評論分析和情感分析。具體來講,ChatGPT可以對科技期刊論文下的評論進(jìn)行自動回復(fù)和分析,幫助期刊編輯了解讀者對某些論文的看法和意見。此外,ChatGPT還可以通過對話模擬的方式幫助期刊編輯分析讀者群體,如模擬不同類型的讀者對論文的不同反應(yīng)等。在情感分析方面,ChatGPT也可以對讀者在評論中表現(xiàn)的情感進(jìn)行分析,如評論是否積極或消極,并根據(jù)分析的結(jié)果為期刊編輯提供有價值的信息,以幫助他們制訂更好的編輯策略??梢?,ChatGPT在期刊讀者行為分析中具有很大的應(yīng)用潛力,可以幫助期刊編輯更好地了解讀者的想法和需要,并優(yōu)化編輯策略和決策,從而提高期刊對讀者的吸引力。
總之,ChatGPT作為一種強(qiáng)大的自然語言處理技術(shù),可以為期刊編輯提供便利和幫助。通過利用ChatGPT的語言潤色、內(nèi)容生成、自動摘要、論文分類和標(biāo)簽化、機(jī)器翻譯、信息抽取和知識圖譜構(gòu)建、科學(xué)實驗和數(shù)據(jù)分析等功能,期刊編輯可以更加高效地處理和管理大量的科技論文,為讀者提供更好的閱讀體驗。
四、結(jié)語
2023年2月21日,在國家科技圖書文獻(xiàn)中心(NSTL)與中國科學(xué)院文獻(xiàn)情報中心(以下簡稱文獻(xiàn)中心)共同主辦的“ChatGPT對科學(xué)研究和文獻(xiàn)情報工作的影響”專題研討會上,國家科技圖書文獻(xiàn)中心、文獻(xiàn)中心項目團(tuán)隊匯報發(fā)布了《ChatGPT對科學(xué)研究和文獻(xiàn)情報工作的影響》研究報告,提出了文獻(xiàn)情報領(lǐng)域需要守正創(chuàng)新,擁抱新技術(shù)與新機(jī)會的建議。2023年2月24日,國務(wù)院新聞辦公室就“深入實施創(chuàng)新驅(qū)動發(fā)展戰(zhàn)略,加快建設(shè)科技強(qiáng)國”舉行發(fā)布會??茖W(xué)技術(shù)部部長王志剛在會上表示,我們國家對于任何一個新的技術(shù),包括AI技術(shù)出來以后,在倫理方面都采取了一些相應(yīng)的措施,對科學(xué)技術(shù)發(fā)展趨利避害,讓“利”更好地發(fā)揮出來。
未來,人機(jī)協(xié)同進(jìn)行科研創(chuàng)作或?qū)⒊蔀橹髁鳎珻hatGPT必將在科技論文寫作中大規(guī)模應(yīng)用。科技期刊應(yīng)明確禁止將ChatGPT列為論文作者,在制訂并完善ChatGPT合理使用的相關(guān)規(guī)范標(biāo)準(zhǔn)、嚴(yán)格人工驗證的前提下,要求作者在論文中說明ChatGPT作為工具的具體使用情況,并制訂問責(zé)制度。同時,隨著ChatGPT的廣泛應(yīng)用,期刊編輯可利用ChatGPT的語言潤色、內(nèi)容生成、自動摘要、論文分類和標(biāo)簽化、機(jī)器翻譯、信息抽取和知識圖譜構(gòu)建、科學(xué)實驗和數(shù)據(jù)分析等功能,更加高效地處理和管理科技論文,并提升創(chuàng)新力、創(chuàng)造力和學(xué)習(xí)能力、內(nèi)容處理能力,結(jié)合同行評議對論文進(jìn)行更加細(xì)致、專業(yè)的評閱和篩選,凸顯自身的地位和作用。此外,學(xué)術(shù)出版界應(yīng)持續(xù)關(guān)注ChatGPT類工具與科研深度融合的趨勢和特點(diǎn),制訂完善有切實操作性的規(guī)范標(biāo)準(zhǔn),積極引導(dǎo)作者和期刊編輯正確使用此類工具,并將ChatGPT作為學(xué)術(shù)研究對象持續(xù)進(jìn)行關(guān)注與研究,正確認(rèn)識人工智能在科學(xué)研究和學(xué)術(shù)傳播中的作用,讓ChatGPT為學(xué)術(shù)繁榮發(fā)展、期刊高質(zhì)量發(fā)展做出積極貢獻(xiàn)。
[參考文獻(xiàn)]
[1]譚天,蒲源.ChatGPT會給人工智能時代帶來一場革命嗎?[J].中國傳媒科技,2023(02):30-34.
[2]鄭世林,姚守宇,王春峰.ChatGPT新一代人工智能技術(shù)發(fā)展的經(jīng)濟(jì)和社會影響[J].產(chǎn)業(yè)經(jīng)濟(jì)評論,2023(03):5-21.
[3]貴重,李云翔,江為強(qiáng).人工智能的發(fā)展與挑戰(zhàn):以ChatGPT為例[J].電信工程技術(shù)與標(biāo)準(zhǔn)化,2023(03):24-28.
[4]焦建利.ChatGPT:學(xué)校教育的朋友還是敵人?[J].現(xiàn)代教育技術(shù),2023(04):5-15.
[5]徐晨.ChatGPT下全媒體人才培養(yǎng)面臨的挑戰(zhàn)與機(jī)遇[J].傳媒論壇,2023(06):18-20,80.
[6]陸小華.ChatGPT等智能內(nèi)容生成與新聞出版業(yè)面臨的智能變革[J].中國出版,2023(05):8-15.
[7]郭淼,鄧斐揚(yáng).人機(jī)耦合:ChatGPT對新聞業(yè)的重塑可能[J].傳媒論壇,2023(06):9-14.
[8]叢立先,李泳霖.聊天機(jī)器人生成內(nèi)容的版權(quán)風(fēng)險及其治理:以ChatGPT的應(yīng)用場景為視角[J].中國出版,2023(05):16-21.
[9]駱飛,馬雨璇.人工智能生成內(nèi)容對學(xué)術(shù)生態(tài)的影響與應(yīng)對:基于ChatGPT的討論與分析[J].現(xiàn)代教育技術(shù),2023(06):15-25.
[10]吳煒華,黃珩.智能創(chuàng)作、深度融入與倫理危機(jī):ChatGPT在數(shù)字出版行業(yè)的應(yīng)用前景新探[J].中國編輯,2023(06):40-44.
[11]康紅葉.ChatGPT與中國少兒期刊未來創(chuàng)新發(fā)展[J].傳媒論壇,2023(06):21-23.
[基金項目]中國高校科技期刊研究會青年基金資助項目(項目編號:CUJS-QN-2023-040,CUJS-QN-2023-056)。
[作者簡介]曹兵(1971—),女,河北石家莊人,北京科技大學(xué)期刊中心《工程科學(xué)學(xué)報》編輯部主任,副編審;唐帥(1988—),女,吉林松原人,北京科技大學(xué)期刊中心《工程科學(xué)學(xué)報》編輯;李潔(1980—),女,山西臨汾人,北京科技大學(xué)期刊中心主任,教授;蔣偉(1967—),女,遼寧普蘭店人,北京科技大學(xué)期刊中心副主任,編審;薛楊(1988—),男,遼寧本溪人,北京科技大學(xué)期刊中心《工程科學(xué)學(xué)報》編輯。