【摘 要】 以ChatGPT為代表的生成式人工智能已然對當(dāng)前社會(huì)各領(lǐng)域造成了巨大的影響和沖擊。通過回溯ChatGPT的發(fā)展歷程及其運(yùn)作原理可以發(fā)現(xiàn),以ChatGPT為代表的生成式人工智能相比于傳統(tǒng)的人工智能具有擴(kuò)展性、復(fù)合性以及涌現(xiàn)性等特征,將其運(yùn)用于教育行業(yè)的過程中將帶來諸多機(jī)遇,包括個(gè)性化輔導(dǎo)、作文自動(dòng)評分、語言翻譯、互動(dòng)學(xué)習(xí)以及適應(yīng)性學(xué)習(xí)等。但其在嵌入教育系統(tǒng)的過程中也容易產(chǎn)生缺少人際互動(dòng)、理解能力有限、訓(xùn)練數(shù)據(jù)導(dǎo)致的偏見、缺少創(chuàng)造性、對數(shù)據(jù)的依賴性、缺乏對背景的理解、個(gè)人化教學(xué)的能力有限以及學(xué)生喪失獨(dú)立思考能力等風(fēng)險(xiǎn),因此需要構(gòu)建包括隱私保護(hù)原則、公平原則、透明性原則以及信息準(zhǔn)確性原則在內(nèi)的風(fēng)險(xiǎn)規(guī)制原則,并明確當(dāng)前的生成式人工智能仍然會(huì)因其無法全面理解具體的語境背景、缺乏獨(dú)立的思考能力、存在算法歧視風(fēng)險(xiǎn)等特點(diǎn)而具有很大的局限性,教育行業(yè)的相關(guān)使用者在使用過程中需要予以充分重視,并合理協(xié)調(diào)生成式人工智能與人類教師間的關(guān)系。
【關(guān)鍵詞】 生成式人工智能;教育行業(yè);ChatGPT;風(fēng)險(xiǎn)治理
【中圖分類號】 G647 【文章編號】 1003-8418(2023)08-0013-10
【文獻(xiàn)標(biāo)識碼】 A 【DOI】 10.13236/j.cnki.jshe.2023.08.002
【作者簡介】 畢文軒(1992—),男,陜西西安人,東南大學(xué)法學(xué)院講師,人權(quán)研究院助理研究員、法學(xué)博士。
一、 引言
當(dāng)下,機(jī)器學(xué)習(xí)的進(jìn)展和擴(kuò)展導(dǎo)致了更復(fù)雜的創(chuàng)新技術(shù)數(shù)字內(nèi)容生成,如生成式人工智能(Generative AI)[1]。生成式人工智能是一個(gè)無監(jiān)督或部分監(jiān)督的機(jī)器學(xué)習(xí)框架,它通過使用統(tǒng)計(jì)學(xué)、概率等生成人工遺跡[2]。不同于以往的人工智能,其不僅能夠提煉信息,還可以針對不同場景語境生成不同的文本內(nèi)容。隨著深度學(xué)習(xí)技術(shù)的進(jìn)展,生成式人工智能可以利用現(xiàn)有的數(shù)字內(nèi)容(如視頻、圖像、文本、音頻)通過檢查訓(xùn)練實(shí)例創(chuàng)建人工遺跡并學(xué)習(xí)其模式和分布[3]。作為生成式人工智能的典型,ChatGPT近來在全球范圍內(nèi)的熱度迅速攀升并引起包括新聞、教育、工程、金融、法律、醫(yī)學(xué)等各個(gè)領(lǐng)域的廣泛關(guān)注。其中,有關(guān)ChatGPT在教育領(lǐng)域的應(yīng)用及其風(fēng)險(xiǎn)受到了更加廣泛的關(guān)注。例如,許多學(xué)校已經(jīng)明確表示不接受學(xué)生在其考試或日常作業(yè)中使用ChatGPT作答,否則將會(huì)以作弊論處[4]。對于在教育工作中使用ChatGPT及其前景的討論已然成一個(gè)爭議性話題:一些人認(rèn)為ChatGPT和相關(guān)的生成式人工智能是教學(xué)和學(xué)習(xí)以及教育研究的未來,而另一些人則持懷疑態(tài)度并認(rèn)為其會(huì)使教師和學(xué)生變得懶惰并逐漸喪失分析能力[5]。因此,本文希望借此機(jī)會(huì)就ChatGPT和相關(guān)生成式人工智能在推動(dòng)教學(xué)方面的優(yōu)點(diǎn)與可能存在的缺點(diǎn)進(jìn)行逐一分析,并就其應(yīng)如何促進(jìn)教學(xué)工作以及如何改進(jìn)做出逐一闡述。
二、 生成式人工智能的技術(shù)背景與發(fā)展現(xiàn)狀
(一)ChatGPT的發(fā)展歷程
ChatGPT語言模型由OpenAI開發(fā),OpenAI被公認(rèn)為是人工智能研究領(lǐng)域最有影響力的組織之一。OpenAI是一個(gè)人工智能研究實(shí)驗(yàn)室,成立于舊金山,旨在促進(jìn)和創(chuàng)造“友好的人工智能”以造福人類。OpenAI的使命宣言表明,該組織的最終目標(biāo)是創(chuàng)造“人工通用智能”。人工智能有可能大大改善許多不同的行業(yè),OpenAI的創(chuàng)始人認(rèn)為,應(yīng)該安全和有益地開發(fā)人工智能,開放源碼軟件和先進(jìn)的人工智能工具可以不受基于知識產(chǎn)權(quán)的限制。OpenAI在2019年之前曾以非營利性組織的形式運(yùn)作,但目前已經(jīng)成為一家營利性公司。由于在2018年,微軟向OpenAI投資了10億美元,OpenAI則將其最新的語言模型GPT3完全授權(quán)給微軟。此后,微軟又對OpenAI追加了20億美元的投資并且還在討論將之后的投資數(shù)額再次追加到100億美元。
作為OpenAI研發(fā)核心的GPT架構(gòu)最初在2018年推出并作為該系統(tǒng)的基礎(chǔ)。GPT模型的第一個(gè)版本是通過利用被稱為變壓器的深度學(xué)習(xí)技術(shù),對從互聯(lián)網(wǎng)上獲得的大量文本數(shù)據(jù)進(jìn)行訓(xùn)練,它能夠生成與人類書寫幾乎沒有區(qū)別的文本。因?yàn)榈谝话鍳PT模型取得了巨大的成功,OpenAI決定創(chuàng)建GPT2,并對GPT模型進(jìn)行了大幅改進(jìn)和更有彈性的迭代。盡管如此,OpenAI還是決定不向公眾提供GPT2的完整版本,因?yàn)槿藗儞?dān)心該模型可能會(huì)被不當(dāng)使用。在2020年,OpenAI提供了GPT3語言模型供公眾使用,其也被認(rèn)為是有史以來最先進(jìn)的語言模型,可以執(zhí)行各種涉及自然語言處理的任務(wù)。自此,GPT家族已經(jīng)先后擁有GPT1、GPT2、GPT3以及圖像預(yù)訓(xùn)練iGPT等模型。具體到ChatGPT,其最初的測試是基于GPT3協(xié)議的一個(gè)變體,并針對對話任務(wù)進(jìn)行了優(yōu)化,故而當(dāng)前的ChatGPT運(yùn)行的模型本質(zhì)就是GPT3.5,其具有更加強(qiáng)大的運(yùn)算參數(shù)并且更加智能。
(二) 生成式人工智能的工作原理與特征
根據(jù)現(xiàn)有文獻(xiàn)表明,主要的生成式人工智能包含兩種類型:生成式對抗網(wǎng)絡(luò)(Generative Adversarial Network,簡稱GAN)和生成式預(yù)訓(xùn)練轉(zhuǎn)化器(Generative Pre-trained Transformer,簡稱GPT)[6]。目前,GAN是常用的生成建模人工智能技術(shù),其使用生成器和判別器兩個(gè)神經(jīng)網(wǎng)絡(luò)。其具體操作原理為:生成器網(wǎng)絡(luò)生成合成數(shù)據(jù)(例如生成某人的面部圖像),然后判別器網(wǎng)絡(luò)檢查內(nèi)容的真實(shí)性以確定內(nèi)容是真實(shí)的還是虛假的(例如判斷人的圖像是真的還是假的)。這個(gè)驗(yàn)證過程一直持續(xù)到判別器網(wǎng)絡(luò)無法對合成內(nèi)容和真實(shí)內(nèi)容進(jìn)行進(jìn)一步破譯為止,換言之,此時(shí)的合成內(nèi)容也即被識別為真實(shí)內(nèi)容[7]。通常在實(shí)踐中,GAN主要被用于語音、圖形和視頻生成[8]。另一方面,生成性預(yù)訓(xùn)練轉(zhuǎn)化器(GPT)模型使用大量公開的數(shù)字內(nèi)容數(shù)據(jù)來生成若干種語言的類人化文本,并能在幾乎任何主題上通過一段話或完整研究文章的方式表現(xiàn)出令人信服的創(chuàng)造力。這些模型甚至能夠讓客戶參與到類似人類的對話中,如客服聊天機(jī)器人或視頻游戲中的虛構(gòu)人物[9]。本文所研究的ChatGPT便是后者,其自2022年11月30日首次發(fā)布以來,在一周內(nèi)便獲得了超過一百萬的用戶[10]。ChatGPT以其復(fù)雜的能力讓世界大吃一驚,并成為社交媒體和新聞機(jī)構(gòu)的最熱門話題。ChatGPT具有前所未有的能力,能夠完成非常復(fù)雜的任務(wù),如撰寫文章、故事、詩歌、論文,能夠?qū)ξ谋具M(jìn)行總結(jié)或擴(kuò)展,調(diào)整文本以反映不同的觀點(diǎn),甚至能夠撰寫和調(diào)試原始計(jì)算機(jī)代碼[11]。下文也將就ChatGPT的基本工作原理作出剖析。
1.ChatGPT的工作原理
ChatGPT是一個(gè)由OpenAI訓(xùn)練的大型語言模型LLM(Large Language Model),是大模型在NLP(Natunal Language Processing)領(lǐng)域不斷發(fā)展的一種結(jié)果。所謂GPT即通過轉(zhuǎn)化器為基礎(chǔ)模型,使用預(yù)訓(xùn)練技術(shù)得到通用的文本模型。ChatGPT被設(shè)計(jì)用來根據(jù)給定的提示或上下文語境生成類似人類的文本。它可以用于各種自然語言處理任務(wù),如文本完成、對話生成和語言翻譯。根據(jù)OpenAI官方的原理介紹[12],ChatGPT的生成機(jī)制主要分為四個(gè)階段,具體如圖1所示。
首先,通過對人工智能進(jìn)行數(shù)據(jù)喂養(yǎng)來鍛煉其自動(dòng)生成后續(xù)文本的能力。在這一階段,主要是通過讓人工智能在通用的、海量的數(shù)據(jù)上學(xué)習(xí)文字接龍,即掌握基于前文內(nèi)容生成后續(xù)文本的能力。這樣的訓(xùn)練不需要人類標(biāo)注數(shù)據(jù),只需要給一段話的上文同時(shí)把下文遮住,將人工智能的回答與語料中下文的內(nèi)容做對比,就可以訓(xùn)練人工智能。ChatGPT正是在GPT3.5模型上所做的優(yōu)化,而作為GPT系列的第三代,GPT3.5在萬億詞匯量的通用文字?jǐn)?shù)據(jù)集上訓(xùn)練完成,幾乎可以完成自然語言處理的絕大部分任務(wù),例如日常生活中常見的完形填空、閱讀理解、語義推斷、機(jī)器翻譯等均是其體現(xiàn)。
其次,收集人類數(shù)據(jù)并進(jìn)行有監(jiān)督的策略。單純依靠人工智能根據(jù)網(wǎng)絡(luò)數(shù)據(jù)進(jìn)行自我學(xué)習(xí)的文字接龍會(huì)產(chǎn)生一個(gè)問題,即其仍不知道該如何給出對人更有用的回答。此時(shí),為了解決這一問題,研究人員讓人類就一些問題寫出人工答案,這些問題和答案會(huì)交給GPT學(xué)習(xí)并優(yōu)化其模型。這便是有監(jiān)督訓(xùn)練,即對于特定問題告訴人工智能人類認(rèn)可的答案。這種方法可以引導(dǎo)人工智能往人類期望的方向去做文字接龍,也就是給出正確且有用的回答。通過這種有監(jiān)督訓(xùn)練的方法,我們可以得到一個(gè)簡易版的ChatGPT模型。當(dāng)然需要注意的是,這里并不需要人類窮舉出所有可能的問題和答案,實(shí)際上研究人員只提供了數(shù)萬條數(shù)據(jù)讓人工智能自己學(xué)習(xí),因?yàn)镚PT本來就有能力產(chǎn)生正確答案,只是尚不知道哪些是人類所需的。通過幾萬條數(shù)據(jù)的提供主要是為了告訴人工智能人類的喜好,并給其提供文字接龍方向上的引導(dǎo)。
再次,收集對比數(shù)據(jù)并訓(xùn)練獎(jiǎng)勵(lì)模型。由人來對其進(jìn)行監(jiān)督固然有效,但考慮到人工智能的算力和人的精力相差太大,在客觀環(huán)境中無法永遠(yuǎn)保障足夠的人為監(jiān)督。因此,找到合適的替代監(jiān)督機(jī)制便成為此階段重要的功能。在這一階段,研究人員讓GPT對特定問題給出多個(gè)答案,并由人類來對這些答案的好壞排序。因?yàn)橄啾戎苯咏o出答案,讓人類排序要簡單的多?;谶@些評價(jià)數(shù)據(jù),研究人員訓(xùn)練了一個(gè)符合人類評價(jià)標(biāo)準(zhǔn)的獎(jiǎng)勵(lì)模型。
最后,強(qiáng)化學(xué)習(xí)算法,針對獎(jiǎng)勵(lì)模型優(yōu)化策略。這一階段人工智能在進(jìn)行自我學(xué)習(xí)的過程中,不斷地根據(jù)獎(jiǎng)勵(lì)模型的反饋來優(yōu)化自身的產(chǎn)出結(jié)果,以實(shí)現(xiàn)通過GPT的自我學(xué)習(xí)與優(yōu)化。具體而言,ChatGPT在得到一個(gè)問題后會(huì)產(chǎn)生一個(gè)回答,然后讓獎(jiǎng)勵(lì)模型給這個(gè)回答一個(gè)評分,ChatGPT會(huì)基于評分去調(diào)整參數(shù)以便在下次問答中獲得更高分,再不斷重復(fù)這個(gè)過程,ChatGPT的交流能力就得到了極大的提高和改進(jìn)。
綜上,ChatGPT具有很強(qiáng)的互動(dòng)性,不僅能夠就廣泛的話題進(jìn)行類人化的真實(shí)對話,而且還能產(chǎn)生令人信服的創(chuàng)意內(nèi)容。正是ChatGPT在教育領(lǐng)域執(zhí)行復(fù)雜任務(wù)的非凡能力,使其在教育工作者中引起了不同的感受,因?yàn)槿斯ぶ悄艿倪@一進(jìn)步似乎會(huì)徹底改變現(xiàn)有的教育實(shí)踐。
2.以ChatGPT為代表的生成式人工智能之特征分析
相比于傳統(tǒng)的弱人工智能,以ChatGPT等大模型為代表的生成式人工智能正在向強(qiáng)人工智能邁出堅(jiān)實(shí)的一步。生成式人工智能通常具有擴(kuò)展性、復(fù)合性以及涌現(xiàn)性等三個(gè)顯著特點(diǎn),這也正是生成式人工智能所體現(xiàn)出的技術(shù)革新。
(1) 擴(kuò)展性。對于生成式人工智能而言,其通??梢杂行е沃悄芙K端、平臺、系統(tǒng)等產(chǎn)品應(yīng)用落地,此舉有利于解決壁壘多、部署難等問題。這一點(diǎn)正是傳統(tǒng)的人工智能所欠缺的,因?yàn)閭鹘y(tǒng)的弱人工智能運(yùn)行通常需要建立在一個(gè)相對穩(wěn)定且單一的環(huán)境中,如果擅自更換環(huán)境背景,那么將會(huì)對它的正常運(yùn)行及其效果造成極大的影響。
(2) 復(fù)合性。對于生成式人工智能而言,其通常會(huì)在海量通用數(shù)據(jù)上預(yù)訓(xùn)練以具備多種基礎(chǔ)能力,此舉有助于擺脫傳統(tǒng)人工智能碎片化、作坊式開發(fā)的局限。因?yàn)閷τ趥鹘y(tǒng)人工智能的訓(xùn)練,通常是研究者對其進(jìn)行特定數(shù)量的數(shù)據(jù)輸入或者為其訓(xùn)練的數(shù)據(jù)抓取范圍作出限定(也即“小模型”)。相比于更加復(fù)雜不易控制的大模型,由于小模型具有相對較高的可解釋性與穩(wěn)健性,故而在之前很長一段時(shí)間內(nèi)受到廣泛追捧。訓(xùn)練的規(guī)模有限導(dǎo)致了人工智能在自我學(xué)習(xí)的過程中雖然可以通過數(shù)據(jù)的不斷積累而獲得一定程度的迭代升級,但始終難以擺脫人類的控制和引導(dǎo),這會(huì)影響其向更高級別的智能化進(jìn)行迭代,不利于增強(qiáng)人工智能的能力。
(3) 涌現(xiàn)性。在新的模型結(jié)構(gòu)涌現(xiàn)與算力提升的背景下,生成式人工智能可以通過有效集成自然語言處理等多個(gè)人工智能核心研究領(lǐng)域的多項(xiàng)技術(shù),實(shí)現(xiàn)融合式涌現(xiàn)的效果。生成式人工智能可以通過從海量的、多類型的場景數(shù)據(jù)中學(xué)習(xí),并總結(jié)不同場景和業(yè)務(wù)下的通用能力,學(xué)習(xí)出一種特征和規(guī)則,使其成為具有泛化能力的模型底座。基于大模型進(jìn)行應(yīng)用開發(fā)或面對新的業(yè)務(wù)場景時(shí),將大模型進(jìn)行微調(diào),或不進(jìn)行微調(diào),就可以完成多個(gè)應(yīng)用場景的任務(wù),實(shí)現(xiàn)通用的智能。由此利用大模型的通用能力可以有效地應(yīng)對多樣化、碎片化的人工智能應(yīng)用需求,為實(shí)現(xiàn)大規(guī)模推廣人工智能落地應(yīng)用提供可能[13]。
(三) 生成式人工智能的發(fā)展現(xiàn)狀與趨勢
目前有關(guān)生成式人工智能的發(fā)展可謂如火如荼,眾多科技企業(yè)爭相在此投資并取得了一定的成果。除了OpenAI推出的ChatGPT以外,DeepMind、谷歌、Meta和其他主體也都開發(fā)了自己的語言模型并在大模型上進(jìn)行了進(jìn)一步的布局與投資。在國內(nèi),超大模型研發(fā)異常迅速,2021 年,商湯、華為云、阿里達(dá)摩院、百度、浪潮信息等公司相繼發(fā)布大規(guī)模預(yù)訓(xùn)練模型,而阿里達(dá)摩院的M6模型參數(shù)達(dá)到10萬億,將大模型參數(shù)直接提升了一個(gè)量級。2022年,基于清華大學(xué)、阿里達(dá)摩院等研究成果以及超算基礎(chǔ)實(shí)現(xiàn)的“腦級人工智能模型”八卦爐(BAGUALU)完成建立,其參數(shù)模型突破了 174 萬億個(gè),完全可以與人腦中的突觸數(shù)量相媲美。
隨著ChatGPT取得的巨大成功,生成式人工智能將迎來新一輪的發(fā)展并可以在多個(gè)領(lǐng)域?qū)崿F(xiàn)新的價(jià)值。例如在搜索引擎領(lǐng)域,ChatGPT與搜索引擎的結(jié)合似乎已經(jīng)不可避免,基于搜索引擎為ChatGPT提供生成結(jié)果證據(jù)展示以及利用檢索的新知識擴(kuò)展ChatGPT的回答邊界已經(jīng)是可以預(yù)見并正在進(jìn)行的結(jié)合方向。換言之,ChatGPT有很大可能會(huì)在將來實(shí)現(xiàn)對搜索引擎的替代,并成為人們?nèi)粘I暇W(wǎng)搜索的重要工具。也正因如此,ChatGPT一經(jīng)推出便有報(bào)道稱,Google擔(dān)心ChatGPT可能會(huì)打破其搜索引擎的使用方式和市場格局而拉響了紅色警報(bào),并加快內(nèi)測自己的類ChatGPT產(chǎn)品Bard。同樣地,在泛娛樂行業(yè)中ChatGPT也發(fā)揮著越來越大的作用。無論是其創(chuàng)建更智能的游戲虛擬人物與玩家進(jìn)行交流提升體驗(yàn),抑或是利用虛擬數(shù)字人進(jìn)行虛擬主播直播互動(dòng),ChatGPT都為機(jī)器提供了更加智能且更趨同于人類的“大腦”,使得整個(gè)行業(yè)的發(fā)展?jié)摿Ω泳薮?。類似的也發(fā)生在教育行業(yè),許多學(xué)生開始利用ChatGPT完成老師布置的論文和作業(yè),甚至有些還獲得了不錯(cuò)的分?jǐn)?shù)[14]。這也使得許多學(xué)校和機(jī)構(gòu)明文規(guī)定禁止使用ChatGPT完成作業(yè)、考試或者論文等[15],否則即按照作弊論處。當(dāng)然,ChatGPT未來可以運(yùn)用的場景非常多元,既包括其獨(dú)立使用又包括與其他的應(yīng)用結(jié)合后的再次運(yùn)用,這些都會(huì)進(jìn)一步加速人工智能的社會(huì)化發(fā)展進(jìn)程。
三、 生成式人工智能為教育行業(yè)帶來的機(jī)遇與風(fēng)險(xiǎn)
(一) 生成式人工智能為教育帶來的機(jī)遇
ChatGPT能夠?qū)懽魑牡氖聦?shí)為在教育環(huán)境中使用新鮮和創(chuàng)新的方法鋪平了道路。該領(lǐng)域的許多專家學(xué)者認(rèn)為,人工智能技術(shù)將很快成為教育的一個(gè)重要組成部分,他們建議利用技術(shù)來加強(qiáng)學(xué)習(xí)[16]。改善評估程序的一個(gè)方法是為教師提供他們所需的工具,使他們既把測試作為學(xué)習(xí)的工具,又把它作為學(xué)習(xí)本身的一種手段。此外,ChatGPT可以被用來建立教學(xué)方法,促進(jìn)學(xué)生的參與和團(tuán)隊(duì)合作,并促進(jìn)實(shí)踐、體驗(yàn)式學(xué)習(xí)。ChatGPT有可能成為教育領(lǐng)域的一個(gè)強(qiáng)大工具,并為教育系統(tǒng)的現(xiàn)代化提供巨大的機(jī)會(huì),其具體可能帶來的機(jī)遇如下所述。
1.個(gè)性化輔導(dǎo)。ChatGPT可以用來根據(jù)學(xué)生的個(gè)人學(xué)習(xí)需求和進(jìn)展,為他們提供個(gè)性化的輔導(dǎo)和反饋。一項(xiàng)研究表明,基于生成模型(ChatGPT)的對話代理可以為學(xué)生提供個(gè)性化的數(shù)學(xué)輔導(dǎo),從而提高學(xué)習(xí)效果[17],對話代理能夠提供針對學(xué)生錯(cuò)誤觀念的解釋,并能夠適應(yīng)他們的理解水平。
2.作文自動(dòng)評分。ChatGPT可以被訓(xùn)練成對學(xué)生作文進(jìn)行評分,為教師提供更多時(shí)間來關(guān)注教學(xué)的其他方面。Kim等學(xué)者通過一項(xiàng)研究表明,在人類評分的論文數(shù)據(jù)集上訓(xùn)練的生成模型(ChatGPT)可以準(zhǔn)確地為高中生寫的論文評分,與人類評分的相關(guān)度為0.86[18],該模型能夠識別寫得好的文章的關(guān)鍵特征,并能夠提供與人類評分員類似的反饋。
3.語言翻譯。ChatGPT可用于將教育材料翻譯成不同的語言,使其更容易被更多人接受。Johnson等學(xué)者通過一項(xiàng)研究表明,在雙語句子對數(shù)據(jù)集上訓(xùn)練的ChatGPT可以準(zhǔn)確地進(jìn)行語言間的翻譯,在幾個(gè)翻譯基準(zhǔn)上取得了最先進(jìn)的結(jié)果[19],該模型能夠理解一種語言的句子的含義,并能生成另一種語言的準(zhǔn)確翻譯。
4.互動(dòng)學(xué)習(xí)。ChatGPT可用于創(chuàng)建互動(dòng)學(xué)習(xí)體驗(yàn),學(xué)生可以以對話方式與虛擬導(dǎo)師進(jìn)行互動(dòng)。Peng等學(xué)者通過一項(xiàng)研究表明,基于生成模型的對話代理可以為學(xué)習(xí)英語作為第二語言的學(xué)生提供有效支持,從而提高語言能力,該代理能夠理解學(xué)生的問題,并提供適當(dāng)和相關(guān)的回應(yīng)[20]。
5.適應(yīng)性學(xué)習(xí)。ChatGPT可以用來創(chuàng)建自適應(yīng)學(xué)習(xí)系統(tǒng),根據(jù)學(xué)生的進(jìn)度和表現(xiàn)來調(diào)整其教學(xué)方法。Chiang等學(xué)者通過一項(xiàng)研究表明,基于ChatGPT的自適應(yīng)學(xué)習(xí)系統(tǒng)可以為學(xué)生學(xué)習(xí)編程提供更有效的支持,從而提高編程評估的成績。該模型能夠理解學(xué)生的知識,并相應(yīng)地調(diào)整其生成的問題的難度[21]。此外,一些教育工作者已經(jīng)開始測試ChatGPT的效率,將其整合到他們的教育活動(dòng)中(如研究、教學(xué)、評估),并發(fā)現(xiàn)通過某些任務(wù)和流程的自動(dòng)化,ChatGPT能夠?yàn)槠渌匾顒?dòng)節(jié)省時(shí)間,例如花更多的時(shí)間與學(xué)生相處[22]。
綜上不難看出,ChatGPT有可能成為一個(gè)強(qiáng)大的工具,通過提供個(gè)性化輔導(dǎo)、論文自動(dòng)評分、語言翻譯、互動(dòng)學(xué)習(xí)和自適應(yīng)學(xué)習(xí)來提高教學(xué)水平。使用ChatGPT可以提高教師的評價(jià)能力,激發(fā)學(xué)生之間的合作和團(tuán)隊(duì)精神,讓學(xué)生有更多機(jī)會(huì)通過試驗(yàn)和經(jīng)驗(yàn)來學(xué)習(xí)。具體而言,ChatGPT是一項(xiàng)被認(rèn)為在教育領(lǐng)域具有顛覆性的技術(shù),它有可能通過創(chuàng)新改變教育。
(二) 生成式人工智能為教育帶來的風(fēng)險(xiǎn)
當(dāng)然,ChatGPT也被認(rèn)為是一種破壞性的技術(shù),對其不當(dāng)?shù)氖褂糜锌赡軙?huì)為當(dāng)前的教育系統(tǒng)帶來一定的風(fēng)險(xiǎn)。
1. 缺少人際互動(dòng)。ChatGPT和其他生成模型無法提供與真正的教師相同水平的人際互動(dòng),這對于那些可能從與教師的個(gè)人聯(lián)系中獲益更多的學(xué)生來說是一個(gè)不利因素。研究發(fā)現(xiàn),與模仿人類情感行為的虛擬導(dǎo)師互動(dòng)的學(xué)生,比與缺乏這種行為的虛擬導(dǎo)師互動(dòng)的學(xué)生有更好的學(xué)習(xí)效果[23]。
2. 理解能力有限。生成模型是基于它們所訓(xùn)練的數(shù)據(jù)中的統(tǒng)計(jì)模式,對幫助學(xué)生學(xué)習(xí)的概念并沒有真正的理解。在提供針對學(xué)生個(gè)人需求和錯(cuò)誤概念的解釋或反饋時(shí),其可能會(huì)提供一個(gè)不相干或者完全錯(cuò)誤的答案。
3. 因訓(xùn)練數(shù)據(jù)存在缺陷而導(dǎo)致偏見。生成模型的好壞取決于其所訓(xùn)練的數(shù)據(jù),如果數(shù)據(jù)包含偏見,模型自然也會(huì)有偏見。例如,如果一個(gè)模型是在主要由某一類群體學(xué)生撰寫的論文數(shù)據(jù)集上訓(xùn)練所得,那么它可能無法準(zhǔn)確地對其他類群體學(xué)生撰寫的論文進(jìn)行評分。如果訓(xùn)練生成式人工智能的數(shù)據(jù)存在偏見或歧視,那么在互聯(lián)網(wǎng)上的大型文本語料庫上訓(xùn)練的生成模型在其語言生成中會(huì)表現(xiàn)出性別、種族、宗教等方面的偏見。
4. 缺少創(chuàng)造性。生成式模型只能根據(jù)它們在訓(xùn)練期間看到的數(shù)據(jù)模式來生成反應(yīng),這可能會(huì)限制其反應(yīng)的創(chuàng)造性和原創(chuàng)性。例如,基于生成模型的音樂創(chuàng)作系統(tǒng)產(chǎn)生原創(chuàng)和多樣化旋律的能力有限。
5. 對數(shù)據(jù)的高度依賴性。生成式模型是在大量的數(shù)據(jù)上訓(xùn)練的,模型的質(zhì)量高度依賴數(shù)據(jù)的質(zhì)量和數(shù)量。如果數(shù)據(jù)不充分或不相關(guān),模型的表現(xiàn)就不會(huì)很好。當(dāng)訓(xùn)練數(shù)據(jù)與當(dāng)前的任務(wù)不相關(guān)時(shí),基于生成模型的問題回答系統(tǒng)表現(xiàn)不佳。
6. 缺乏對具體場景語境下的恰當(dāng)理解。生成式模型缺乏理解語境和情況的能力,這可能導(dǎo)致不適當(dāng)或不相關(guān)的反應(yīng),因?yàn)榛谏墒侥P偷膶υ捪到y(tǒng)在對話中理解和產(chǎn)生符合語境的反應(yīng)能力有限。
7. 個(gè)性化教學(xué)的能力有限。雖然ChatGPT和其他生成式人工智能模型可以提供一般的信息和幫助,但它們可能無法實(shí)現(xiàn)個(gè)性化教學(xué)以滿足特定學(xué)生的個(gè)人需求。
8. 易導(dǎo)致學(xué)生喪失獨(dú)立思考的能力。由于ChatGPT具有強(qiáng)大的語言生成能力,一些教育工作者擔(dān)心如果不對其使用加以限制,學(xué)生們將他們的作業(yè)外包給ChatGPT的現(xiàn)象將越發(fā)嚴(yán)重。同時(shí),由于ChatGPT本身擁有的海量數(shù)據(jù)庫訓(xùn)練,也使得識別抄襲的過程變得更加困難,并引起了一些教育工作者的擔(dān)憂[24]。
需要注意的是,ChatGPT和其他生成式人工智能模型是強(qiáng)大的工具,但它們不能取代人類教師。重要的是要負(fù)責(zé)任地使用這些工具,并與人類指導(dǎo)和支持相結(jié)合??偟膩碚f,雖然像ChatGPT這樣的生成式人工智能模型可以成為加強(qiáng)教學(xué)和學(xué)習(xí)的有力工具,但重要的是要意識到它們的局限性,并與其他強(qiáng)調(diào)人際互動(dòng)和理解的教學(xué)方法一起使用。綜上,ChatGPT實(shí)際上只是一個(gè)文本生成器,它既不掌握生成的信息,又不判斷是否準(zhǔn)確或相關(guān)。故而在未來相關(guān)的教育主管部門和立法機(jī)構(gòu)很可能會(huì)有許多專門性的法律法規(guī)對ChatGPT等生成式人工智能的使用加以限制,只是任何規(guī)范的制定都需要通盤考慮被規(guī)制客體的優(yōu)勢和風(fēng)險(xiǎn)(如圖2),以便最大限度地降低風(fēng)險(xiǎn)帶來的負(fù)面效應(yīng)。
四、 生成式人工智能的風(fēng)險(xiǎn)回應(yīng)
為了確保ChatGPT的使用方式對學(xué)生、教師和所有其他利益相關(guān)者的安全和公平,在教育環(huán)境中實(shí)施該技術(shù)時(shí),有必要構(gòu)建相應(yīng)的風(fēng)險(xiǎn)規(guī)制原則,并具體制定相應(yīng)的規(guī)范來重塑行為的責(zé)任性和道德取向。
(一)生成式人工智能的風(fēng)險(xiǎn)回應(yīng)之基本原則構(gòu)建
對于生成式人工智能可能產(chǎn)生的風(fēng)險(xiǎn)進(jìn)行規(guī)制,要建立在隱私保護(hù)原則、公平原則、透明性原則以及信息準(zhǔn)確性原則等四項(xiàng)原則基礎(chǔ)之上。
1.隱私保護(hù)原則
保護(hù)用戶的數(shù)據(jù)隱私是合理使用ChatGPT的前提。因?yàn)镃hatGPT是通過從互聯(lián)網(wǎng)上獲得的大量數(shù)據(jù)進(jìn)行訓(xùn)練的,所以必須確保學(xué)生的個(gè)人數(shù)據(jù)得到保護(hù)且不得被用于不合法的用途。此外,學(xué)生應(yīng)該了解為保護(hù)個(gè)人數(shù)據(jù)所采取的安全措施。當(dāng)涉及ChatGPT在教育領(lǐng)域的應(yīng)用時(shí),必須始終保護(hù)所有參與教育過程的個(gè)人(包括學(xué)生、教師和其他任何人)的隱私。我國《民法典》第111條以及《個(gè)人信息保護(hù)法》第2條均規(guī)定了自然人的個(gè)人信息應(yīng)當(dāng)受法律保護(hù)。歐洲的《一般數(shù)據(jù)保護(hù)條例》(GDPR)和美國的《兒童在線隱私保護(hù)法》(COPPA)也都要求各組織保護(hù)個(gè)人的數(shù)據(jù)[25]。這些法律的相似之處在于,它們要求各組織盡其所能保護(hù)個(gè)人數(shù)據(jù),這就包括了通過在教育環(huán)境中使用ChatGPT收集的學(xué)生信息、成績和評估結(jié)果。
為了維護(hù)相關(guān)個(gè)人的隱私,有必要明確生成式人工智能的制造者需要采取必要措施,以防止未經(jīng)授權(quán)訪問、使用或披露有關(guān)信息。這也就要求在教育環(huán)境中使用ChatGPT等生成式人工智能時(shí),應(yīng)以符合道德原則的方式進(jìn)行構(gòu)思和實(shí)施,有必要采取適當(dāng)?shù)谋U洗胧?,以保護(hù)參與教育過程的個(gè)人信息安全并確保ChatGPT的使用符合道德原則,例如構(gòu)建知情同意、透明度和問責(zé)制等具體規(guī)則。
2.公平原則
由于訓(xùn)練ChatGPT時(shí)所使用的數(shù)據(jù)來自研究人員的輸入,如果被選擇用來訓(xùn)練的數(shù)據(jù)具有一定偏見,那么極可能會(huì)造成使用ChatGPT的主體受到歧視。同時(shí),類似ChatGPT這樣的生成式人工智能算法還會(huì)進(jìn)一步延續(xù)和放大現(xiàn)有的偏見和歧視[26],所以只要在教育環(huán)境中使用ChatGPT,就必須嚴(yán)格遵守公平和非歧視的原則,確保ChatGPT和其他人工智能系統(tǒng)在整個(gè)過程的每個(gè)階段都以公平和非歧視性的方式進(jìn)行構(gòu)思、開發(fā)和使用,以避免學(xué)生可能會(huì)受到不平等的待遇。例如,考慮到使用ChatGPT給學(xué)生作文分配分?jǐn)?shù)的可能性,來自代表性不足群體的學(xué)生可能會(huì)因?yàn)橛糜谟?xùn)練ChatGPT的數(shù)據(jù)偏向于某類人群而使他們的論文得到不公正的評分。這可能導(dǎo)致這些在教育方面已經(jīng)處于劣勢的人群更加邊緣化,并可能進(jìn)一步加劇現(xiàn)有的教育差距。此外,ChatGPT等語言模式還可能會(huì)傳播和放大歧視和偏見,這也是使用生成式人工智能所帶來的又一風(fēng)險(xiǎn)。例如,如果用來訓(xùn)練它的數(shù)據(jù)對特定群體存在不利的偏見,在ChatGPT不斷自我學(xué)習(xí)的過程中此種偏見會(huì)被不斷強(qiáng)化,導(dǎo)致相關(guān)的學(xué)生所遭受到的歧視可能會(huì)愈發(fā)嚴(yán)重。因此,應(yīng)為ChatGPT等生成式人工智能提供一個(gè)合適公平的使用環(huán)境,并應(yīng)提示相關(guān)的教育工作者注意當(dāng)ChatGPT被用作學(xué)生的評分或評價(jià)工具時(shí)可能導(dǎo)致潛在的歧視傷害。具體而言,無論學(xué)生的膚色、性別或社會(huì)經(jīng)濟(jì)背景等有何不同,都不應(yīng)因?yàn)槭褂肅hatGPT而受到偏見、歧視或不公平的待遇。
3.透明性原則
在教育環(huán)境中使用ChatGPT時(shí),需要遵守透明性原則的要求。因?yàn)樗粌H有助于培養(yǎng)使用者對技術(shù)負(fù)有道德和責(zé)任意識,還能讓學(xué)生更好地理解ChatGPT能力和限制。這會(huì)使學(xué)生有能力以知情的方式使用ChatGPT,同時(shí)也確保該技術(shù)的使用方式是符合他們所在教育機(jī)構(gòu)的核心價(jià)值和指導(dǎo)原則。在教育過程中實(shí)施生成式人工智能技術(shù)之前,使用主體必須了解ChatGPT等人工智能技術(shù)是如何處理信息和創(chuàng)造反饋的,這有助于消除可能出現(xiàn)的誤解或分歧并確保該技術(shù)的使用符合道德和責(zé)任方面的要求[27]。具體而言,透明性原則要求技術(shù)開發(fā)者告知使用者該技術(shù)使用的算法和數(shù)據(jù)來源,以及描述它是如何處理和制造反饋機(jī)制,例如為學(xué)術(shù)機(jī)構(gòu)及相關(guān)學(xué)生和教師提供指導(dǎo)材料或指南。此外,教育機(jī)構(gòu)還需要把利用開源或透明的生成式人工智能技術(shù)作為優(yōu)先事項(xiàng),以確保學(xué)生和教師能夠獲得源代碼和基礎(chǔ)數(shù)據(jù)。這可以通過將采用開源或透明的人工智能技術(shù)作為優(yōu)先事項(xiàng)來實(shí)現(xiàn),向?qū)W生明確解釋關(guān)于課堂上使用技術(shù)的潛在偏見和局限性。例如,必須讓學(xué)生意識到生成式人工智能算法只有在它們被訓(xùn)練的數(shù)據(jù)是客觀中立時(shí)才是客觀的,否則該技術(shù)產(chǎn)生的反饋很容易反映出訓(xùn)練數(shù)據(jù)中可能帶有的偏見。如果學(xué)生了解了ChatGPT中的限制條件及其適用情況,他們便可以更好地對其產(chǎn)生的反饋機(jī)制進(jìn)行批判性分析和理解。當(dāng)然,為確保在教育過程中實(shí)施ChatGPT具有的持續(xù)開放性和透明性,可以通過搭建交流平臺的方式以使師生就生成式人工智能的合道德性與責(zé)任邊界展開討論。但核心仍在于,在教育中使用ChatGPT時(shí)需要使用者了解其潛在的偏見和局限性,例如學(xué)生數(shù)據(jù)的安全性、使用的透明度并就其對教學(xué)過程的影響進(jìn)行批判性評估。教育者的作用是幫助學(xué)生了解生成式人工智能并對其產(chǎn)生的觀點(diǎn)進(jìn)行批判性思考,而并非通過生成式人工智能技術(shù)來取代教育工作者的作用。
4.信息準(zhǔn)確性原則
信息準(zhǔn)確性原則是規(guī)范ChatGPT等生成式人工智能在教育領(lǐng)域適用的重要原則,其作用在于可以保證教育環(huán)節(jié)中所教和所學(xué)的材料是準(zhǔn)確的、值得信賴的和可信的。因?yàn)楫?dāng)涉及科學(xué)原理的教學(xué)時(shí),提供準(zhǔn)確的信息是相當(dāng)必要的,如果提供不準(zhǔn)確的材料可能會(huì)導(dǎo)致誤解和錯(cuò)誤的認(rèn)識。如果在訓(xùn)練ChatGPT時(shí)對其喂養(yǎng)的數(shù)據(jù)缺乏必要的準(zhǔn)確性,那么通過其向?qū)W生展示的內(nèi)容將可能嚴(yán)重失實(shí),這對于判斷能力尚且有限的學(xué)生而言將會(huì)產(chǎn)生極大的影響。例如,如果ChatGPT在訓(xùn)練時(shí)使用的數(shù)據(jù)忽略或者歪曲了某些重要的歷史事實(shí),那么將可能會(huì)影響學(xué)生世界觀、價(jià)值觀和歷史觀的形成。因此,必須確保ChatGPT以及教育過程中使用的任何其他工具所提供的信息是準(zhǔn)確的。當(dāng)涉及他們所獲得的信息時(shí),教師和學(xué)生不能盲目跟從,而需要進(jìn)行批判性思考并與可靠的來源進(jìn)行核對。
(二) 生成式人工智能在教育中的作用反思
當(dāng)前的生成式人工智能仍不能代替人類教師的作用。近來,關(guān)于生成式人工智能在課堂環(huán)境中的應(yīng)用已經(jīng)有很多討論。但需要注意的是,盡管ChatGPT等生成式人工智能可以為教育環(huán)境的改善提供許多機(jī)會(huì),但其本身并不能取代實(shí)際生活中的教師角色。由于教師和學(xué)生之間的關(guān)系是教育過程中最重要的組成部分,一方面,教師可以與學(xué)生建立聯(lián)系,了解學(xué)生的特殊要求以及他們的優(yōu)勢和劣勢[28];另一方面,生成式人工智能本質(zhì)上是一個(gè)人工智能語言模型,并不具備人類教師的情商、同理心以及人際交往能力,故而也就無法與學(xué)生建立起有意義的聯(lián)系。教育的目標(biāo)不應(yīng)局限于信息的傳播,還應(yīng)該包括培養(yǎng)人際關(guān)系的紐帶,發(fā)展學(xué)生的創(chuàng)造性和批判性思維能力,并提供個(gè)性化的支持和指導(dǎo)[29]。同時(shí),教師也可以通過在課堂上建立一種鼓勵(lì)和包容學(xué)生的氛圍,并為學(xué)生提供創(chuàng)造性或批判性的思考方式。這些作為人類教師最重要的品質(zhì),恰恰是受到編程和算法限制的生成式人工智能所無法實(shí)現(xiàn)的。
當(dāng)前的生成式人工智能還無法完全理解不同學(xué)生的教育背景并提供最適宜的教育模式。由于ChatGPT等生成式人工智能只是一個(gè)模型,其是按照預(yù)先編程的算法運(yùn)作,不具備人類導(dǎo)師所具有的創(chuàng)造力。但在教育領(lǐng)域,對學(xué)生所處的環(huán)境有一個(gè)扎實(shí)的了解,以提供最相關(guān)的幫助和指導(dǎo)往往是至關(guān)重要的[30]。這種背景往往需要考慮到學(xué)生的文化背景和人生經(jīng)歷。很顯然,當(dāng)前如ChatGPT等生成式人工智能還只能被作為一臺機(jī)器,因?yàn)樗⒉荒芟窠處熌菢永斫饣蛐蕾p個(gè)體因素與條件。具體而言,其既無法給學(xué)生提供實(shí)踐培訓(xùn),又不能提供體驗(yàn)式教育的機(jī)會(huì)。此外,當(dāng)前的生成式人工智能還缺乏引導(dǎo)學(xué)生創(chuàng)意和構(gòu)想的能力。換言之,創(chuàng)意和發(fā)明都是人類智慧的最重要體現(xiàn),生成式人工智能雖然看起來很智慧,但其都是因?yàn)榻⒃谌祟悶槠漭斎氪罅繑?shù)據(jù)的基礎(chǔ)之上。因此,當(dāng)前的生成式人工智能暫時(shí)還無法形成自我的創(chuàng)意、構(gòu)想或發(fā)明,但人類教師卻可以通過開發(fā)有趣的課程、采用獨(dú)特的教學(xué)方法、鼓勵(lì)學(xué)生跳出既有思維框架進(jìn)行批判性和創(chuàng)造性的思考等方式來促進(jìn)學(xué)生創(chuàng)意的萌發(fā)。僅就這一點(diǎn)而言,當(dāng)前的生成式人工智能仍然無法獨(dú)立于人類教師而存在。
生成式人工智能的使用者應(yīng)當(dāng)認(rèn)識到它的局限性而不能對其盲從。由于ChatGPT等生成式人工智能是基于大量來自互聯(lián)網(wǎng)的數(shù)據(jù)而訓(xùn)練產(chǎn)生的,其中勢必可能包含許多不可靠的、有偏見的或欺騙性的信息,這些將會(huì)嚴(yán)重影響其結(jié)果產(chǎn)生的真實(shí)性和可靠性。因此,生成式人工智能的使用者需要對其產(chǎn)生的數(shù)據(jù)進(jìn)行深入辯證分析和批判性思考,理解如何區(qū)分真實(shí)和不可靠的信息來源。此外,作為生成式人工智能使用者的學(xué)生需要了解其可能帶來的潛在道德風(fēng)險(xiǎn)和社會(huì)影響。例如,如果生成式人工智能存在算法歧視,那么通過其評估不同身份背景學(xué)生的作業(yè)并向他們提供的反饋,就很可能存在極大的不公平,且這種歧視現(xiàn)象又因?yàn)殡[蔽而難以被發(fā)現(xiàn),故而可能會(huì)給學(xué)生帶來長期的影響。當(dāng)然,教育工作者可以通過向?qū)W生講授生成式人工智能的局限性和風(fēng)險(xiǎn),讓學(xué)生了解人工智能的局限性,對于發(fā)展其批判性思維、促進(jìn)人工智能更符合道德規(guī)范和責(zé)任要求,以及使學(xué)生具備駕馭快速變化的技術(shù)環(huán)境所需的技能和知識而言具有重要的作用。
五、 結(jié)語
當(dāng)前,我們已經(jīng)無法對以ChatGPT為代表的生成式人工智能時(shí)代的到來視而不見,雖然有很多人仍在奮力疾呼要求學(xué)校全面禁止學(xué)生使用ChatGPT,但從長期的發(fā)展來看這并非是一條行之有效的方法,因?yàn)閷W(xué)生總是會(huì)有辦法接觸并使用這些人工智能產(chǎn)品[31]。因此,我們當(dāng)下需要做的便是積極擁抱因新技術(shù)產(chǎn)生而帶來的變化,并將其在教育實(shí)踐中所可能產(chǎn)生的副作用盡可能降低,以更好地服務(wù)于教育工作者。具體而言,這其中就會(huì)涉及如何協(xié)調(diào)生成式人工智能與人類教師之間的關(guān)系,采取必要的措施以減少其運(yùn)作過程中可能產(chǎn)生的算法偏見或算法歧視風(fēng)險(xiǎn),以便更好地促進(jìn)學(xué)生批判性思考和獨(dú)立尋找問題解決方案的能力,而這些應(yīng)當(dāng)如何落地踐行仍有待持續(xù)深入的研究。
【參考文獻(xiàn)】
[1][7]Luhui Hu. Generative AI and Future[EB/OL].(2022-07-17)[2023-02-11]. https://pub.towardsai.net/generative-ai-and-future-c3b1695876f2.
[2]Mlaan Jovanovió, Mark Campbell. Generative Artificial Intelligence: Trends and Prospects[J].Computer,2022,55(10):107-112.
[3]Mohanad Abukmeil, Stefano Ferrari, Angelo Genovese, et al. A Survey of Unsupervised Generative Models for Exploratory Data Analysis and Representation Learning[J].ACM Computing Surveys,2021,54(05):1-40.
[4]香港大學(xué)宣布禁用!ChatGPT是否應(yīng)被視為“教學(xué)公敵”?[EB/OL].(2023-02-20)[2023-02-16]. https://www.baidu.com/link?url=oGHPLj5gIrAv4Zu2l-Bu0gBHPwhFDnM7ajuivsUYJB1Petxc-Slu1XV6rCSlqzmHPc3_7FntwUI6ozKNDkcd5wnwMxx7v4AreOjwKDkIALOamp;wd=amp;eqid=8569819a000421fd0000000664126b97.
[5]狼來了?ChatGPT 引教育界“封殺”[EB/OL].(2023-02-12)[2023-02-01]. https://china.huanqiu.com/article/4Bfudc87V16.
[6]Jie Gui, Zhenan Sun, Yonggang Wen, A Review on Generative Adversarial Networks:Algorithms, Theory, and Applications[J]. IEEE Transactions on Knowledge and Data Engineering,2023,35(04):3313-3332.
[8]人工智能生成內(nèi)容(AIGC)白皮書(2022年)[EB/OL].(2022-07-17)[2023-02-17].http://www.caict.ac.cn/sytj/202209/P020220913580752910299.pdf.
[9]Aydln, mer., Karaarslan, Enis. OpenAI ChatGPT Generated Literature Review: Digital Twin in Healthcare[EB/OL].(2022-12-28)[2023-02-17].https://ssrn.com/abstract=4308687.
[10]Steve Mollman. ChatGPT Gained 1 Million Users in Under a Week. Here’s Why the AI Chatbot is Primed to Disrupt Search as We Know It[EB/OL].(2022-12-09)[2023-02-17].https://finance.yahoo.com/news/chatgpt-gained-1-million-followers-224523258.html.
[11]Tate, Tamara P., Shayan Doroudi, Daniel Ritchie, et al. Educational Research and AI-Generated Writing: Confronting the Coming Tsunami[EB/OL].(2023-01-31)[2023-03-01].https://doi.org/10.35542/osf.io/4mec3.
[12]OpenAI. Introducing ChatGPT[EB/OL].(2022-12-30)[2023-02-21]. https://openai.com/blog/chatgpt.
[13]2023年人工智能行業(yè)專題報(bào)告 大模型是人工智能的發(fā)展趨勢和未來[EB/OL].(2023-02-08)[2023-03-06].https://www.vzkoo.com/read/20230208ffa2ea195f3e341a1793c69e.html.
[14]AI作弊寫出全班最佳論文!老師被迫改線下手寫筆試!AI這是要瘋?。。跡B/OL].(2023-03-07)[2023-03-08].https://www.sohu.com/a/650990881_121124406.
[15]NYC Education Department Blocks ChatGPT on School Devices, Networks.[EB/OL].(2023-01-06)[2023-03-09].https://www.nbcnews.com/tech/tech-news/new-york-city-public-schools-ban-chatgpt-devices-networks-rcna64446.
[16]Mhlanga, David. Human-centered Artificial Intelligence: The Superlative Approach to Achieve Sustainable Development Goals in the Fourth Industrial Revolution[J]. Sustainability,2022,14(13): 7804.
[17]Cai, William, Hao Sheng,Sharad Goel. MathBot: A Personalized Conversational Agent for Learning Math[EB/OL].[2023-03-08].https://www.semanticscholar.org/paper/MathBot%3A-A-Personalized-Conversational-Agent-for-Cai-Sheng/ff7cbcbd1c874cbc48ad06e0938612d3ea46fdd4.
[18]Kim, S., Park, J., Lee, H. Automated Essay Scoring Using a Deep Learning Model[J]. Journal of Educational Technology Development and Exchange, 2019,2(01):1-17.
[19]Yonghui Wu, Mike Schuster, Zhifeng Chen,et al. Google's Neural Machine Translation System: Bridging the Gap Between Human and Machine Translation[EB/OL].(2016-10-08)[2023-03-08]. https://arxiv.org/abs/1609.08144.
[20]Zhou Guangyou, Peng Yehong, Fang Yizhen, et al. Neural Conversation Generation with Auxiliary Emotional Supervised Models[J]. ACM Transactions on Asian and Low-Resource Language Information Processing,2019,19(02): 1-17.
[21]Sehwag Vikash, Chiang Mung, Mahloujifar Saeed, et al. Robust Learning Meets Generative Models: Can Proxy Distributions Improve Adversarial Robustness?[J]. arXiv preprint arXiv, 2021.
[22]Christian Terwiesch. Would Chat GPT3 Get a Wharton MBA? A Prediction Based on Its Performance in the Operations Management Course. Mack Institute for Innovation Management at the Wharton School: University of Pennsylvania[EB/OL].(2023-01-17)[2023-03-12]. https://mackinstitute.wharton.upenn.edu/wp-content/uploads/2023/01/Christian-Terwiesch-Chat-GTP.pdf.
[23]D'Mello, S., Craig, S., Witherspoon, A., et al. Affective and Learning-related Dynamics During Interactions with an Intelligent Tutoring System[J]. International Journal of Human-Computer Studies, 2023,72(06):415-435.
[24]Jürgen Rudolph, Samson Tan, Shannon Tan.ChatGPT: Bullshit Spewer or the End of Traditional Assessments in Higher Education?[J]. Journal of Applied Learning and Teaching,2023, 6(01):14-17.
[25]Da Veiga, A., Vorster, R., Li, F., et al. Comparing the Protection and Use of Online Personal Information in South Africa and the United Kingdom in Line with Data Protection Requirements[J]. Information and Computer Security, 2019, 28(03):399-422.
[26]張恩典.超越算法知情權(quán):算法解釋權(quán)理論模式的反思與建構(gòu)[J].東南法學(xué),2022(01):1-17.
[27]Waymond Rodgers, James M. Murray, Abraham Stefanidis, et al. Tarba. An Artificial Intelligence Algorithmic Approach to Ethical Decision-making in Human Resource Management Processes[J]. Human Resource Management Review, 2023, 33(01):1-19.
[28]Attard C, Holmes K. An Exploration of Teacher and Student Perceptions of Blended Learning in four Secondary Mathematics Classrooms[J]. Mathematics Education Research Journal, 2022, 34(04): 719-740.
[29]Kim, Jinyoung. Learning and Teaching Online During Covid-19: Experiences of Student Teachers in an Early Childhood Education Practicum[J]. International Journal of Early Childhood, 2020, 52(02): 145-158.
[30]Mahoney, Joseph L., Weissberg, Roger P., et al.Systemic Social and Emotional Learning: Promoting Educational Success for all Preschool to High School Students[J]. American Psychologist, 2021, 76(07): 1128-1142.
[31]儲(chǔ)舒婷. ChatGPT 火熱“出圈”,我們?nèi)绾螒?yīng)對新挑戰(zhàn)[N]. 文匯報(bào), 2023-02-05.
基金項(xiàng)目:國家社科基金重大項(xiàng)目“數(shù)字網(wǎng)絡(luò)空間的知識產(chǎn)權(quán)治理體系研究”(19ZDA164)。
Challenges and Responses of Generative Artificial Intelligence to theEducation Industry: Taking ChatGPT as the Object of Analysis
Bi Wenxuan
Abstract: Generative AI, represented by ChatGPT, has already caused a huge impact on various fields. By looking back at the development of ChatGPT and its operation principle, we can see that the generative AI represented by ChatGPT is scalable, composite and emergent compared with traditional AI, and its application in the education industry may bring many opportunities, including personalized tutoring, automatic essay scoring, language translation, interactive learning and adaptive learning. However, there are also risks associated with its embedding in education systems, such as lack of human interaction, limited understanding, bias due to training data, lack of creativity, dependence on data, lack of contextual understanding, limited ability to personalize instruction, and loss of independent thinking. Therefore, it is necessary to construct risk regulation principles including privacy protection principle, fairness principle, transparency principle, and information accuracy principle, and to clarify that the current generative AI still has great limitations due to its inability to fully understand specific contextual background, lack of independent thinking ability, and risk of algorithmic discrimination, etc., and relevant users in the education industry need to pay full attention to it in the process of use. The relationship between generative AI and human teachers also needs to be coordinated.
Key words: generative artificial intelligence; education industry; ChatGPT; risk governance
(責(zé)任編輯 楊國興)