郭順峰 李光 鄒紅軍
[摘? ?要] ChatGPT的問世再次點燃了人們對技術的理論熱情,也對教育尤其是教師帶來了全面而深刻的沖擊與挑戰(zhàn),“以人為師”的合法性再度被推上時代的“浪尖”。技術批判理論為我們應對“人師”的合法性危機提供了認識論指引,基于技術批判理論視角可以發(fā)現(xiàn),ChatGPT引發(fā)的“人師”合法性危機主要表現(xiàn)在“以機器為主體的教師”動搖了人師知識的權威性、消解了人師教學的專業(yè)性以及沖擊了人師角色的正當性,其深層致因在于ChatGPT引發(fā)的知識生產模式的異化、“人—人”與“人—機”交互習慣的異化以及人類訓育形式的異化?!耙匀藶閹煛庇兄斯ぶ悄茈y以替代的價值,為有效應對ChatGPT引發(fā)的“以人為師”的合法性危機,可能的策略包括:提升人師知識生產能力,拓展人師知識領域;捍衛(wèi)以人教人的主導地位,凸顯人師教學價值;堅守以人育人的倫理底線,豐富人師角色內涵等。
[關鍵詞] ChatGPT; 技術批判; 以人為師; 合法性危機; 倫理風險
[中圖分類號] G434? ? ? ? ? ? [文獻標志碼] A
[作者簡介] 郭順峰(1978—),男,湖北十堰人。教授,博士研究生,主要從事教師教育、教育管理研究。E-mail:2216218586@qq.com。
一、引? ?言
ChatGPT作為新一代人工智能技術里程碑,以其強大的人機交互能力、語言理解能力、自主學習能力、文本生成能力、職業(yè)替代潛能等引發(fā)了全球震蕩,被譽為一次與印刷術、蒸汽機、原子彈、互聯(lián)網(wǎng)、智能手機等技術相媲美的劃時代的技術革命,一個各領域、職業(yè)、行業(yè)、產業(yè)都將被以ChatGPT為代表的人工智能技術重構的時代即將來臨。教育領域對ChatGPT的反應異常敏銳,多位學者圍繞ChatGPT可能對教育各要素產生的影響進行了前瞻性研究,而關于ChatGPT對教師職業(yè)的沖擊與應對就是其中的熱點之一。無論是人工智能出現(xiàn)之初就被廣泛討論的教師“職業(yè)危機”“角色危機”“身份危機”[1-3]等,還是GPT-4出現(xiàn)后有學者提出的“復合教育者論”“人師與機師協(xié)同論”“教師有限取代論”[4-6]等,都體現(xiàn)了教育領域對于“以人為主體的教師”(后簡稱“人師”)合法性危機的超前思考和積極應對。
教育是有目的的培養(yǎng)人的活動。教育本質的認知中暗含一個基本前提,那就是教育是一部分人(群體與個體)有目的地培養(yǎng)另一部分人(群體與個體)的活動,即教育是立足于“人—人”交互的活動,并據(jù)此建立了“以人為師”的合法性地位。在互聯(lián)網(wǎng)時代,“以機器為師”(后簡稱“機師”)逐漸成為常態(tài),我們不知不覺進入了“人師與機師共存”的時代,“人師”基于對育人效果的考量主動讓渡了部分教育的主導權和主體屬性。ChatGPT的出現(xiàn)加速了人師和機師的剝離,因為在ChatGPT與受教育者的互動過程中,“人師”似乎是不需要在場的,而是運行著ChatGPT技術的智能機器直接與受教育者的互動,在人—機交互的場景下,機器成為另類主體和他者直接滿足了受教育者的學習需求。到此,“以機器為師”的時代好像不可避免地來臨了,而“以機器為師”直接導致了“以人為師”的合法性危機。本研究擬以技術批判理論為視角,以ChatGPT引發(fā)的“以人為師”的合法性問題為切入點,呈現(xiàn)“以人為師”合法性危機的內涵與表征,反思“以人為師”合法性危機產生的根源,提出“以人為師”合法性危機的應對方略。
二、技術批判理論發(fā)展述要
技術批判是技術哲學的重要范疇,是在一定的技術哲學理論基礎上對技術進行的一種源始性、基礎性或根本性的批判[7]。技術批判的動因來自人類對技術本能的不信任,即人類一方面認為自己需要技術的幫助才能使自身更強大,一方面又擔心技術過于強大而使得人類異化為技術的附庸。在整個技術發(fā)展史中,技術批判與技術理性總是如影隨形,技術理性驅動著技術不斷發(fā)展,技術批判則為技術良性發(fā)展提供認識論和價值論指引。
海德格爾在《追問技術》中把技術區(qū)分為傳統(tǒng)技術與現(xiàn)代技術[8],有學者把技術發(fā)展分為前現(xiàn)代技術和現(xiàn)代技術[9],也有研究把技術批判分為古代技術批判、近代技術批判和當代技術批判三個階段[10]。筆者采用四分法來進行梳理,即把技術批判理論劃分為古代、近代、現(xiàn)代和當代四個發(fā)展階段。古代技術批判把科學技術制作或技藝視作最低等的、最不體面的、遭鄙夷的活動,是形而下之器,是奇技淫巧之玩物。技術批判主要是由道德信念和宗教信仰來完成,認為技術在根本上與人倫道德相違背,代表著一種野蠻、無節(jié)制的力量[10]。近代以來是科學技術取得革命性發(fā)展的階段,以蒸汽機、電氣化、內燃機技術為代表的工業(yè)文明深刻地改變了人們的生活,全世界都把技術視作改善人類生活的最有效工具。因此,近代技術批判的聲音相對較弱,技術樂觀主義占據(jù)主導。
隨著一戰(zhàn)、二戰(zhàn)的爆發(fā),諸多現(xiàn)代技術成果被應用于戰(zhàn)爭武器的發(fā)明和生產之中,給人類社會帶來了巨大的戰(zhàn)爭傷痛,引發(fā)了人類對于技術現(xiàn)代性的反思和批判。此階段是技術批判理論日趨成熟的階段,多位哲學家基于不同哲學立場對技術及其引發(fā)的災難和風險展開了尖銳而深刻的批判。馬克思的異化理論、海德格爾的存在論、馬爾庫塞的單向度社會理論、劉易斯·芒福德的人文主義技術哲學理論、埃呂爾的技術自主論等,都從越來越真實、越來越具體的視角揭示出技術發(fā)展所產生的一輪又一輪新問題,告誡人類很多問題沒有得到解決,而是憑借著技術載體演變成一個又一個更加復雜的社會新矛盾[9]。從馬克思的異化理論出發(fā),多位學者對技術異化現(xiàn)象和問題進行了批判,認為隨著技術的發(fā)展,技術理性主義的主客二分遭到了顛覆,作為主體的人隨著技術的異化而變成了客體,成為技術力量奴役和控制的力量,作為客體的技術反過來成為社會中的決定力量[9]。從海德格爾的存在論視角出發(fā),技術被視為一種去弊、一種解蔽方式、一種意識形態(tài)[10],技術異化延展為一種技術霸權、技術統(tǒng)治和技術控制。在技術裹挾下,人們逐漸喪失了否定性思維和反抗意識,技術異化使處于社會中的人成為肯定性思想的附庸,人變得“工具化”,人的價值觀、理想、思想情感等被發(fā)達工業(yè)社會的流行模式所固定,整個社會變?yōu)閱蜗蚨鹊纳鐣10]。此外,羅馬俱樂部從生態(tài)學視角對技術可能帶來的“人類困境”問題進行了批判,以霍克海默、阿爾多諾、馬爾庫塞、哈貝馬斯、弗洛姆、安德魯·芬伯格等為代表的法蘭克福學派對技術工具理性、技術意識形態(tài)化、技術決定論等問題進行了批判。此階段的技術批判主要針對過于推崇技術理性主義而導致的技術異化和技術霸權現(xiàn)象和問題展開,認為技術的異化遺忘了技術的本質意義,人類應該在尋找“技術的終極價值”的同時尋找對人自身的“終極關懷”[9],這也奠定了此后技術批判的基本尺度和價值取向。
隨著兩次世界大戰(zhàn)陰影的散去,人類逐步轉向了以互聯(lián)網(wǎng)、大數(shù)據(jù)、人工智能等為代表的新的技術研發(fā)領域,并稱之為技術的后工業(yè)化時代。在此階段,技術的復雜化和系統(tǒng)化程度、技術對于人類自身和人類社會滲透改造的全面性和徹底性、技術精英們超越時代的技術理念和技術創(chuàng)新遠遠超出了人類自身進化節(jié)奏。面對ChatGPT掀起的新一輪技術狂歡和技術競爭及其在全球范圍內各個領域引發(fā)的劇烈震蕩,雖然有部分學者關注到了ChatGPT可能給人類社會和教育帶來的安全風險和倫理風險,但最深刻的反思卻來自技術精英群體內部。霍金曾多次表示,“徹底開發(fā)人工智能可能導致人類滅亡”[11];OpenAI創(chuàng)始人之一馬斯克也多次表達對人工智能的擔憂,認為人工智能要比核武器危險得多[11];OpenAI首席執(zhí)行官山姆·奧特曼稱,過分強大的AGI“可能殺死人類”[12]等。GPT-4的出現(xiàn)其實一定程度上應驗了這類觀點,ChatGPT無所不知、無所不能的類人屬性和超人智能到底會把人類帶到何方還不可知。ChatGPT作為一種充滿爭議的劃時代的技術創(chuàng)新、技術產品、技術系統(tǒng)和技術應用,及其帶來的“以人為師”的合法性危機等,同樣需要接受技術批判理論的審視。
三、ChatGPT引發(fā)的“以人為師”
合法性危機的內涵與表征
長期以來,教育領域對技術發(fā)展的反應都不夠敏感,教師對于技術在教育教學中的應用不夠主動。在ChatGPT出現(xiàn)以前,各種技術都被看作是教育和教師的工具,技術只能在局部要素中介入教育和改變教師。ChatGPT的出現(xiàn),讓“以機器為師”成為可能現(xiàn)實,也讓教育領域和教師群體到了前所未有的變革危機和價值危機,集中表現(xiàn)在社會各界對“以人為師”是否還具備無可替代的正當性地位和主體性價值提出了質疑,其實就是“以人為師”的合法性危機。因此,厘清“以人為師”合法性危機的內涵與表征就顯得非常重要。
(一)ChatGPT引發(fā)的“以人為師”合法性危機的內涵
斯科特·夏皮羅從法律哲學的視角對合法性概念進行了界定,認為合法性是指所有法律機構、行動、事件、官員和文本都共享的一種“符合法律”的屬性[13]。隨著對合法性中的“法”的認知范疇和領域的不斷延展,合法性也從單純的“符合法律”的屬性,拓展到符合政治、社會、道德、宗教、職業(yè)等各領域的秩序、規(guī)范、規(guī)則、規(guī)章、標準、原則、典范以及價值觀、邏輯等。合法性概念在政治學中通常用來指政府與法律的權威為民眾所認可的程度,即一個制度的合法性取決于它是否獲得被統(tǒng)治者們的普遍認同[14]。綜上所述,合法性的內涵應該有三個層次:一是指符合某種特定之法的屬性;二是指某事物的存在有著正當?shù)摹⒑侠淼脑瓌t和基礎;三是指某事物在某個領域或多個領域有著被認同和認可的價值和功能。據(jù)此,筆者把“以人為師”的合法性界定為全社會對于人作為人的教師及其正當性的普遍認同,以及對人作為教師的教育主導地位、價值和功能的普遍認可的屬性。合法性危機應該是某種事物在特定歷史階段和條件突變背景下,不具備或者失去了達成某種目標的能力,弱化了其存在的正當性和合理性而引發(fā)的不同程度的質疑、沖突和動蕩狀態(tài)。ChatGPT引發(fā)的“以人為師”的合法性危機其實是因ChatGPT技術的突飛猛進,“以機器為師”突然成為現(xiàn)實的背景下,人類社會對人作為人的教師的唯一主體的正當性、合理性的質疑,以及由此引發(fā)的對人作為教師的功能、價值的認知沖突和對教師知識、教師教學和教師角色的正當性產生普遍質疑的狀態(tài)。
(二)ChatGPT引發(fā)的“以人為師”合法性危機的表征
自古以來,教師的天職就是傳道、授業(yè)、解惑,教師是知識的學習者、匯聚者、生產者和傳授者。當ChatGPT展示出強大的人機交互能力、對話能力、知識生成能力,甚至被廣大學生廣泛接受并用于學習過程之中的時候,其實就是表現(xiàn)出了一定的教學屬性。因此,ChatGPT引發(fā)的“以人為師”合法性危機集中表現(xiàn)在對 “以人為主體的教師”的知識權威性、教學專業(yè)性和角色正當性的沖擊和質疑。
1. 動搖了人師知識的權威性
人師成為人師的根本條件就是人師要比教育對象更有知識。從古到今的人師都是有知識的人,一個人樂于接受人師的教育一般都是基于人師的知識比自己更淵博、更權威,絕大多數(shù)人對人師的尊重、敬仰、接受和服從都是基于知識的前提。人師通過人腦和人的本質力量(智力、情感、意志、思想、興趣等)完成與知識共融共生的整個流程,并通過終身學習不斷拓展、豐富和優(yōu)化作為人師的知識基礎。ChatGPT模仿和順應了人師對于知識的學習輸入、儲備占有、整理分析和生成傳播的整個流程,通過自身強大的算法算力,輕而易舉地實現(xiàn)了對知識的占有,并具備了強大的知識生成能力。ChatGPT在知識量、知識生成的精度和信度方面超出個體人類和人師只是時間問題,人師引以為傲的知識儲備優(yōu)勢和知識生產優(yōu)勢逐步消失。當前,越來越多的學生向ChatGPT尋求答案就是典型證明,知識學習從“孔子曰”時代、“百度一下”時代跨越到了“ChatGPT認為”的時代,人師不再是知識獲取的權威來源和唯一主體,教師知識的合法性基礎受到了巨大沖擊。
2. 消解了人師教學的專業(yè)性
教學是實現(xiàn)教育目的的最核心、最有效的實踐活動。教與學互動的本質就是主體與主體之間語言的交流和信息的傳遞。教學是屬于教師的專業(yè)技術,學會教學設計,掌握教學方法,具備教學能力,開展教學活動,達成教學目標是人師得以安身立命的又一大合法性根基所在。在“以人為師”的時代,教學都是教師教與學生學的雙向、雙人主體或多人主體交互的過程,基本上是在人—人互動場域內發(fā)生的教學活動的發(fā)展與變遷。ChatGPT的主要功能就是人機智能交互和信息文本的生成,在推出不到兩年時間就被學生廣泛地利用,通過幫學生收集資料、回答問題、撰寫論文、編寫代碼、設計作品等形式滲透到了學生的學習過程中,從ChatGPT獲取知識、答案和信息還省去了聆聽、思考和內化的復雜環(huán)節(jié),比從人師教授環(huán)節(jié)獲取知識更加直接、有效。這其實是對“人師教學”模式、過程和結果的全面背離,教學活動不再是人師的特權,人師教學的專業(yè)性地位被大大消解。
3. 沖擊了人師角色的正當性
教師是人類最古老的職業(yè)之一,“以人為師”是人類社會產生之后自然生成的社會傳統(tǒng)和集體無意識,“以人為師”角色的合法性基礎就在于此。人師是教育的實施主體,在促進人的發(fā)展和社會的發(fā)展方面起著重要作用,人師角色的正當性和合法性無可置疑,但技術的發(fā)展一直在慢慢侵蝕“以人為師”角色的合法性地位。比如,學生通過搜索引擎獲取海量學習資源其實就有了“以互聯(lián)網(wǎng)為師”的表征;學生通過個人終端獲取信息、展開互動,“以手機等終端為師”的現(xiàn)象也在隨時隨地發(fā)生。無論是互聯(lián)網(wǎng),還是智能手機都只是資源和知識的供給,仍延續(xù)了“以人為師”基本功能和人—人交互的基本樣態(tài)。但人工智能技術日益“擬人化”的發(fā)展猶如“潘多拉魔盒”,釋放出不受控制的異己力量,導致教師主體尊嚴的虛無化[15],特別是ChatGPT一經(jīng)推出就把“以機器為師”推向了新的境界,ChatGPT無所不知、無所不會的“人設”也迅速呈現(xiàn),用ChatGPT技術武裝的智能導師系統(tǒng)和教學機器人[16]越來越有“師者”風范,扮演著為學生答疑解惑和獲取知識的“機師”角色,已經(jīng)開始撼動人師角色的合法性根基。
四、ChatGPT引發(fā)的“以人為師”
合法性危機的致因
在技術批判理論視野下,以ChatGPT為代表的人工智能作為技術的本質沒有變,但ChatGPT加速了技術異化的進程,激化了人與技術、機器的沖突。在傳統(tǒng)技術時代,人創(chuàng)造技術的目的是幫助人類變得更強大,讓人類更有力地征服和改造外部世界,這里的技術底座是經(jīng)驗知識和自然科學知識,體現(xiàn)的是“人利用技術與自然的競爭”;而在人工智能時代,人創(chuàng)造技術的目的是賦予機器以人的智能,讓機器能像人一樣去工作、去思考,表面上看是由人利用智能機器代替人類去征服和改造外部世界,但實質上是“人利用技術與他人的競爭”,同時“人還要與人造的機器展開競爭”,這里的技術底座是算法、算力和數(shù)據(jù)等技術性知識[17]。因此,ChatGPT引發(fā)的“以人為師”合法性危機的實質就是教師領域面臨“人與人造的智能機器”“人的智能與人工智能”“碳基生命與硅基生命”[18]的競爭而產生的沖突和動蕩的狀態(tài)。
(一)ChatGPT引發(fā)的知識生產模式的異化導致了人師知識的合法性危機
作為基于Transformer模型的人工智能應用,ChatGPT主體架構遵從“語料體系+預訓練算法與模型+微調算法與模型”的基本模式,其中,語料體系是語言模型的基礎,其實就是從書籍、雜志、百科、論壇等公開渠道,以及從開源代碼庫爬取、專家標注、用戶提交等方式收集和加工的海量文本數(shù)據(jù),作為ChatGPT學習和利用知識的語料基礎[19]。通過預訓練大規(guī)模語言模型訓練GPT自然語言理解、自然語言生成、上下文學習、捕捉語義相似的文本片段和代碼片段的能力。通過高質量微調語料和人類反饋強化學習技術使得ChatGPT具備了理解各種編程語言的語法和語義的能力,能夠使用多種編程語言生成和編輯代碼,激發(fā)了多種自然語言生成能力,能夠應對常見的聊天情景。ChatGPT其實是建構了一個類人腦的運行系統(tǒng)和類人學習行為的知識生成模式,也讓知識生產路徑從以人腦為主的單軌模式向以人腦和機器大腦雙軌模式轉化。ChatGPT對于語料的收集和輸入其實就是對知識的學習和占有,預訓練和微調是在建構ChatGPT的思維和學習能力,文本生成是知識產出。據(jù)此,人師作為知識的學習者、占有者、產出者和傳播者,人師知識的合法性來自人師知識的學習渠道、儲備量、產出量和產出的權威性,但不斷迭代升級的ChatGPT技術對知識的占有和儲備能力,對知識的加工和產出質量遲早會超過任何一個人類個體,當前對于GPT-4的各類測試和應用結果都印證了這一點。ChatGPT不可預知的語料儲備上限和智能發(fā)展上限,不知疲倦、不限時空的學習產出能力,遲早會成為人類自己創(chuàng)造的無所不知、無所不能的“知識之神”,人能夠通過ChatGPT獲得更加豐富、更加準確的知識,滿足人對于知識學習的各種需求,那還需要自己生成知識或者向人類他者去學習知識嗎?人師的知識還值得信任嗎?這就是教師知識合法性危機產生的根源所在。
(二)ChatGPT帶來的“人—人”“人—機”交互習慣的異化導致了人師教學的合法性危機
人工智能技術一直在改變著“人—人”“人—機”交互習慣,總體趨勢就是“人—人”交互需求的弱化和“人—機”交互需求的強化。在弱人工智能階段,“人—機”交互還僅限于輔助人類進行生產和工作方面,人類利用和使用機器的時間、空間雖然在不斷延展,但“人—機”交互還沒有偏離技術是人的工具,人是技術使用的主體的基本屬性?;ヂ?lián)網(wǎng)數(shù)據(jù)空間、智能手機,以及其中運行的各類應用軟件等,將“人—機”交互的時空滲透到了人的生活、生理和心理的世界,形成了“人—機—人(他者)”復雜交互模式,直接侵占了“人—人”交互的時間和空間,機器真正具備了人體器官學價值。ChatGPT的出現(xiàn)繼續(xù)推動了“人—人”“人—機”交互習慣的異化,ChatGPT強大的人機對話功能和知識生成能力將“人—機”交互的領域滲透到人的本質力量領域[20],即進入人的語言、行為、思維、情感、興趣、習慣、倫理等屬人的領域。ChatGPT被人類訓練師像人一樣進行了規(guī)訓,并不斷擁有類人屬性的本質力量,以至于可以像人一樣開展“人—機”交互,吸引人類更加依賴和沉迷其中,作為人的他者在這種“人—機”交互的世界消失了。據(jù)此,傳統(tǒng)的教學其實就是教師教與學生學的一種“人—人”交互模式、交互活動和交互習慣的表現(xiàn),是教師和學生在特定的空間(學校、教室),通過語言、行為、心理的互動,思維、情感、道德的加持,開展師生之間互動的過程。ChatGPT其實已經(jīng)具備了傳統(tǒng)教學的基本功能,對話、聊天、問答、文本生成、觀點輸出、作品創(chuàng)作、思維碰撞、情感模擬等就是對傳統(tǒng)“人—人”教學的深度模仿和系統(tǒng)再造,還不受教學時空、教學環(huán)節(jié)的限制,省去了“人—人”教學過程中的他者因素的干擾。教學就一定需要人師來完成嗎,人師的教學效果和效率一定比機師好嗎?這就是教師教學的合法性危機產生的根源。
(三)ChatGPT顯現(xiàn)的人類訓育形式的異化導致了教師角色的合法性危機
馬歇爾·麥克盧漢曾說:“我們成為我們所看到的東西,我們塑造工具,此后工具又塑造我們”[21]。安德魯·芬伯格認為,“我們的生活方式已經(jīng)如此深深地建立在現(xiàn)代技術的基礎之上,我們的生活世界是由技術規(guī)訓所設計的一個技術體系的世界,技術與社會互為嵌套的結構,導致技術系統(tǒng)構成了我們世界的基礎并塑造了我們的世界”[22]。技術塑造了我們和我們的世界,這種塑造在改造自然界和人類社會的同時,越來越體現(xiàn)為一種技術對人類自身的訓育,而人類也習慣于接受這種訓育。技術對于人類的訓育一直都存在,每一項技術及其創(chuàng)造的工具(產品、媒介)都會對人的行為、思維產生潛在的影響。當前,我們創(chuàng)造了以ChatGPT為代表的人工智能技術及產品,我們把我們自己作為人的本質力量遷移到了機器系統(tǒng)之中,讓我們更加逃脫不了被技術塑造和訓育的命運。與以往不同的是,ChatGPT對人類自身的訓育是全面的,無所不在而又無聲無息的,ChatGPT可以替代人類80%的工作和職業(yè),ChatGPT讓我們的知識獲取從“孔子曰”時代跨越到了“ChatGPT認為”的時代,每個國家、行業(yè)、職業(yè)和個人都在按照ChatGPT立下的技術法則來改造自己,而且對自己不能滿足技術社會的要求感到恐懼,這些其實都是一種人類接受技術及技術產品全面訓育的表現(xiàn)。綜上所述,對人類的訓育一直是教育的最主要功能,以人育人是人類訓育的基本形式,教師是對人類實施訓育的主要角色,技術一直被定義為教育的輔助工具,技術不直接參與人的訓育活動。但在以ChatGPT為代表的人工智能時代,以機器為師的合法性正在建立,以人育人和人作為教師角色的專屬地位逐步動搖,教師角色的合法性危機也就此產生。
五、ChatGPT時代“人師”合法性危機的應對
在技術批判理論視野下,ChatGPT引發(fā)的“以人為師”合法性危機的根源仍然在于技術對于人的本質的侵蝕和遮蔽。人類在滑向“非人”的道路上走得過快,把人類社會從人與自然、人與人競爭的時代,帶入了人與人造的機器競爭的時代,但根底上還是人與人、民族與民族、國家與國家競爭的時代,落后就要挨打的道理仍然適用。技術精英和跨國公司成為這個時代的技術壟斷者和技術立法者,傳統(tǒng)知識分子和人文學科在技術認知、技術對話、技術批判等方面的能力大大弱化。而人師作為傳統(tǒng)知識分子的一員面對“以人為師”的合法性危機,就需要與技術、與機器展開正面競爭,堅守以人為師的價值底線和倫理底線。
(一)提升人師知識生產能力,拓展人師知識領域
知識是技術創(chuàng)生的基礎,技術也同樣在創(chuàng)生著知識。ChatGPT既是技術創(chuàng)生的成果,也是知識聚合的結果,更重要的是ChatGPT知識生成的潛能讓技術創(chuàng)生知識成為常態(tài)。ChatGPT通過技術創(chuàng)生的知識與人師通過思維、實驗、實證和實踐創(chuàng)生的知識,哪個更有價值呢?ChatGPT的知識創(chuàng)生從某種意義上講是一種對現(xiàn)有知識的整合和應用的結果,知識生成的質量取決于它對知識的占有程度和訓練的智能程度,但它不是一種嚴格意義上的知識生產,因為它不會擴大現(xiàn)有知識的量和類,反而會導致現(xiàn)有知識的反復組合和重復消費,人類知識創(chuàng)新激情和能力減弱[23]。當然,也不否認ChatGPT在未來知識創(chuàng)生的過程中會取得令人矚目的成績,但人類原創(chuàng)性的知識生產就應該終結了嗎,人類應該停下知識生產的腳步嗎?答案是否定的。人師作為知識生產的原生力量,不能輕易將知識生產的責任和義務讓渡于技術和機器,要主動增強教師知識生產的能力。在人工智能時代,技術性知識已經(jīng)成為知識生產最為活躍的領域,成為人類必備的、最有價值的知識類型。因此,在教師知識構成中教師技術性知識應該成為與教師本體性知識、條件性知識、實踐性知識等同等重要的知識類型,教師應該具備正確先進的技術認知觀、技術發(fā)展觀和技術批判觀,對技術創(chuàng)新創(chuàng)造的基本原理、基本流程和基本模式有深入了解,主動學習掌握各類技術應用并教導學生形成正確的技術應用觀和技術誠信觀等??傊?,教師技術性知識已經(jīng)是教師與技術對話、駕馭技術的必不可少的模塊,是教師知識拓展的必然方向,也是應對“以機器為師”挑戰(zhàn)的重要舉措。
(二)捍衛(wèi)以人教人主導地位,凸顯人師教學價值
ChatGPT的出現(xiàn)使得“以機器為師”成為現(xiàn)實,但這里的“以機器為師”主要是向機器學習、運用機器學習和在與機器互動中學習而言的,機器在滿足學生學的過程中體現(xiàn)出了教學的屬性,但教師教的過程是嚴重缺位的。因此,在人師缺位的情況下,“以機器為師”并不能產生嚴格意義上的教學過程和教學活動,而是一種人類自主學習形式和活動,機器只會按需提供知識,不會主動教授知識,也不會掌控、監(jiān)督和促進學生的學習進程,即機器無法主導教學過程。這種無差別的信息投喂式的學習也不是一種嚴格意義上的人類學習行為,對人類的理性思維、創(chuàng)新思維、批判思維培養(yǎng)無所裨益,對學習價值、知識產權、知識創(chuàng)造的敬仰和尊重也會逐漸泯滅。教學是教師教和學生學的活動,一定是發(fā)生在人與人的交互時空和交互過程中的人與人之間知識、情感、理性、智慧、思想、靈魂的交融與碰撞,總是滲透著人對人的愛與希望、責任與義務、使命與擔當,而不僅僅是知識的供給和答案的輸送。因此,人類不能輕易將教學的主導權讓渡于機師,更不能想著不通過教學手段和過程就能夠讓受教育者成長成才,特別是在基礎教育階段,人師于未成年人的教學過程和教學價值極其關鍵。此外,面對技術、機器在學生學或人類終身學習方面的價值和作用,人師也要善于利用其有效的一面,畢竟在知識儲備和知識供給方面,ChatGPT終將超越人類個體,但在如何教會人類選擇、鑒別、判斷知識的價值,以及教會人類如何正確地生產、運用和創(chuàng)造技術方面人師有著不可替代的價值。
(三)堅守以人育人的倫理底線,豐富人師角色內涵
以人育人是人類最基本的倫理底線之一,而以人為師是捍衛(wèi)這一底線的最重要力量。倫理是人與人相處的各種道德規(guī)范,是人們心目中認可的社會行為規(guī)范,是人類社會中人與人、人與社會、人與國家的關系的秩序和規(guī)范。雖然也有學者提出要建立科技倫理來規(guī)范人與技術、機器之間的秩序和規(guī)范[24],但倫理從本質上講是人之為人的秩序和規(guī)范,是堅守人之為人底線、人的主體完整性的最后防線。ChatGPT所導致的倫理問題看似是人機問題,實則是一部分人與另一部分人的倫理問題,是人的倫理而非物的倫理[25]。人類在禁止原子彈技術、克隆人技術、殺傷性生化技術的研發(fā)、推廣和應用方面達成了一致,是因為這些技術極有可能越過人類的倫理底線,導致人類所有秩序和規(guī)范的崩潰。但我們對以ChatGPT為代表的人工智能技術可能造成的同類后果卻視而不見,技術精英們只對技術創(chuàng)新、技術利益感興趣,經(jīng)常沉溺于技術超越的快感之中,對技術應用會出現(xiàn)什么負面后果總是語焉不詳,把一切質疑的聲音都看作無知保守和庸人自擾。ChatGPT未來是否能夠取代人師還未可知,但ChatGPT作為機師角色進入育人領域儼然不可阻擋,當人師、家長和社會各界都把教育的任務和責任賦予了機器,人只接受機器的教育,成了機器塑造的產品和聽命于機器的工具,人類與機器的邊界到底在哪里呢?以人為師是人作為人的屬性的基本保證,在不可逆的人工智能時代,人師可能更多地要成為人的精神塑造者、思維建構者、情感交流者、意志激發(fā)者、價值賦予者等角色,在與機師競爭教育主導權的過程中,堅守以人育人的倫理底線,但做到這些僅靠教師自身的抗爭是遠遠不夠的。
六、結? ?語
當今時代,人工智能領域成為人與人、組織與組織、國家與國家競爭的新賽道,人工智能技術已經(jīng)深度改變著人類的行為、思維和生活慣習,人類對人工智能技術的迷信和依賴已經(jīng)到了無以復加的地步,面對ChatGPT掀起的技術狂歡已經(jīng)出現(xiàn)了不容批判、不能批判、不會批判的狀態(tài)。但基于技術批判理論視角,我們仍然可以發(fā)現(xiàn),ChatGPT作為技術的利益驅動本性、意識形態(tài)力量和現(xiàn)代資本邏輯[26]不會改變。ChatGPT作為技術導致人的持續(xù)異化的后果,以及被少部分人作為工具用來改造外部世界并奴役另外一部分人的本質等都不會改變。所不同的是,掌握技術的少部分人和組織看上去可能是未來世界的實際主宰和意見領袖,但這部分人也終將被技術本身所超越,進而成為技術的附庸。ChatGPT對以人為師合法性的沖擊可能是教師職業(yè)產生以來遇到的最嚴重的危機,但ChatGPT真的可以讓每個人都能免費而又平等地使用嗎?能為所有人提供公平而又有質量的教育嗎?能讓因材施教、個性化學習成為現(xiàn)實嗎?人類真的就不需要教師生產知識、開展教學和教書育人嗎?批判和質疑是人類的一種本能,也是人類理性的表現(xiàn)。面對ChatGPT技術及其可能引發(fā)的諸多機遇和危機,既需要從傳統(tǒng)技術批判理論中尋求指引,更需要人工智能技術批判理論的及時跟進。
[參考文獻]
[1] 陶靜,戴煜婷.人工智能時代教師的職業(yè)危機與能力培養(yǎng)[J].高等職業(yè)教育,2019(6):93-96.
[2] 鄒太龍,康銳,譚平.人工智能時代教師的角色危機及其重塑[J].當代教育科學,2021(6):88-95.
[3] 張曦琳.智能時代高校教師的身份危機及其重塑[J].現(xiàn)代教育技術,2020(11):5-11.
[4] 鄧友超.復合教育者的誕生[N].中國教育報,2023-03-09(9).
[5] 李政濤.直面ChatGPT,教師如何絕處逢生?[J].上海教育,2023(8):18-21.
[6] 鄒紅軍.ChatGPT會取代人類教師嗎?[J].重慶高教研究,2023(3):19-21.
[7] 王成華.何謂哲學的批判——詮說哲學的批判概念之涵義[J].湖南師范大學社會科學學報,2012,41(5):27-32.
[8] 海德格爾.演講與論文集[M].孫周興,譯.北京:商務印書館,2018:5.
[9] 毛洪建.技術批判的批判[D].長沙:湖南大學,2005.
[10] 范金燕.從“技術追問”到“技術批判”——論馬爾庫塞對海德格爾的繼承和“超越”[D].蘭州:蘭州大學,2021.
[11] 江曉原.人工智能的危險前景[J].編輯學刊,2015(5):40-41.
[12] 蔡雨彤.“ChatGPT之父”,山姆·奧特曼[J].華東科技,2023(4):23-27.
[13] 斯科特·夏皮羅.合法性[M].鄭玉雙,劉葉深,譯.北京:中國法制出版社,2016:3.
[14] 岳天明.政治合法性問題研究[D].蘭州:西北師范大學,2003.
[15] 孫瑞芳,滕洋.人工智能時代教師主體性的遮蔽與復歸[J].教育研究與實驗,2023(1):52-59.
[16] 陳增照,石雅文,王夢珂.人工智能助推教育變革的現(xiàn)實圖景——教師對ChatGPT 的應對策略分析[J].廣西師范大學學報(哲學社會科學版),2023,59(2):75-85.
[17] 朱光輝,王喜文.ChatGPT的運行模式、關鍵技術及未來圖景[J].新疆師范大學學報(哲學社會科學版),2023,44(4):113-122.
[18] 李芒,張華陽.對人工智能在教育中應用的批判與主張[J].電化教育研究,2020,41(3):29-39.
[19] 錢力,劉熠,張智雄,等.ChatGPT的技術基礎分析[J].數(shù)據(jù)分析與知識發(fā)現(xiàn),2023,7(3):6-15.
[20] 余乃忠.積極的“異化”:人工智能時代的“人的本質力量”[J]. 南京社會科學,2018(5):53-57.
[21] 馬歇爾·麥克盧漢.理解媒介:論人的延伸[M].何道寬,譯.南京:譯林出版社,2011:6.
[22] 別應龍.如何看待技術式的生活?[N].社會科學報,2019-06-03(2).
[23] 顧理平.技術的工具性與人的成長性:智能技術進展中的倫理問題——以ChatGPT智能應用為例[J].傳媒觀察,2023(3):36-41.
[24] 令小雄,王鼎民,袁健.ChatGPT爆火后關于科技倫理及學術倫理的冷思考[J]. 新疆師范大學學報(哲學社會科學版),2023(4):123-136.
[25] 張絨.生成式人工智能技術對教育領域的影響——關于ChatGPT的專訪[J].電化教育研究,2023(2):5-14.
[26] 余聰,張亮.人工智能時代意識形態(tài)批判的哲學反思——“人機關系”視野中的批判向度[J].浙江學刊,2021(2):4-11.
The Crisis of Legitimacy and Response "Human as Teacher" Caused by ChatGPT
—Based on the Perspective of Criticism Theory of Technology
GUO Shunfeng1,? LI Guang2,? ZOU Hongjun3
(1.Institute of Education, Central China Normal University, Wuhan Hubei 430079;
2.Institute of Education, Hanjiang Normal University, Shiyan Hubei? 442000;
3.Center for Teacher Education Research, Beijing Normal University, Beijing 100875)
[Abstract] The emergence of ChatGPT has once again ignited people's theoretical enthusiasm for technology, and has also brought comprehensive and profound impacts and challenges to education, especially teachers, and the legitimacy of "human as teacher" has once again been pushed to the forefront of the times. The critical theory of technology provides epistemological guidance for us to deal with the legitimacy crisis of "human teacher". Based on the perspective of critical theory of technology, it can be found that the legitimacy crisis of "human teacher" triggered by ChatGPT is mainly manifested in the fact that "machine-based teacher" has shaken the authority of human teacher's knowledge, dissolved the professionalism of human teacher's teaching, and impacted the legitimacy of human teacher's role. The underlying causes lie in the alienation of knowledge production modes, the alienation of "human-human" and "human-machine" interaction habits, and the alienation of the form of human education caused by ChatGPT. The "human teacher" has a value that is difficult to be replaced by artificial intelligence. To effectively address the legitimacy crisis of "human teacher" caused by ChatGPT, possible strategies include: enhancing the knowledge production capacity of human teachers and expanding the field of human teachers' knowledge; defending the dominant position of teaching by human beings and highlighting the value of teaching by human teachers; adhering to the ethical bottom line of educating people by people, and enriching the connotation of the role of human teacher.
[Keywords] ChatGPT; Technical Criticism; Human as Teacher; Crisis of Legitimacy; Ethical Risks