[摘 ? 要] 人工智能為教學(xué)注入新生力量的同時(shí)也引發(fā)了諸多反思。算法偏見(jiàn)、隱私侵犯及情感忽視觸發(fā)了智能教育中人機(jī)信任危機(jī),進(jìn)而導(dǎo)致決策自主權(quán)虛置。人工智能教學(xué)決策中應(yīng)凸顯“人”之主體性,建立由教師信心主導(dǎo)的決策模式能幫助教師掙脫技術(shù)中心的拜物主義泥沼,實(shí)現(xiàn)決策獨(dú)立場(chǎng),并釋放錯(cuò)誤歸因的心理枷鎖,堅(jiān)守教學(xué)主體責(zé)任,同時(shí)發(fā)揮教學(xué)的感通性,降低智能情感依賴。班杜拉三元交互決定論為教師決策效能的影響要素解構(gòu)提供了分析框架,教師智能認(rèn)知誤區(qū)和職業(yè)危機(jī)感主導(dǎo)了信心機(jī)制的建立,自身行為的成敗及替代經(jīng)驗(yàn)連接著教學(xué)的信心與行為。人—機(jī)—智能情境因素各主體的能量轉(zhuǎn)移影響著系統(tǒng)的和諧交互。由此,從技術(shù)主體、關(guān)系維系與機(jī)制保障三層面設(shè)計(jì)教學(xué)決策中“人”之主體性的實(shí)現(xiàn)路徑,建立解釋與理解雙向發(fā)展的智能教育體系,著力塑造人—機(jī)—情境協(xié)同共生的智能教學(xué)互信生態(tài),并不斷完善智能決策倫理的法律法規(guī)制度建設(shè),重啟人工智能教育信任機(jī)制。
[關(guān)鍵詞] 人工智能; 教學(xué)決策; 信任危機(jī); 主體自信
[中圖分類號(hào)] G434 ? ? ? ? ? ?[文獻(xiàn)標(biāo)志碼] A
[作者簡(jiǎn)介] 孫立會(huì)(1985—),男,吉林白城人。副教授,博士,主要從事人工智能教育研究。E-mail:sunlh777@163.com。
一、引 ? 言
人工智能的發(fā)展歷經(jīng)數(shù)次搖曳與停擺,但眾多研究者對(duì)圖靈預(yù)設(shè)的機(jī)器智能的追求從未停滯。2016年,AlphaGo擊敗李世石重啟了人工智能熱潮?,F(xiàn)今,人工智能所涵蓋的深度神經(jīng)網(wǎng)絡(luò)、自主計(jì)算、機(jī)器感知等關(guān)鍵算法使得機(jī)器具有了超強(qiáng)的“類人”智能性,由此也引發(fā)了人類對(duì)人工智能應(yīng)用中人的價(jià)值理性與機(jī)器的工具性之間主體地位的深刻反思,其根本則是人工智能與人之主體之間的“信任”問(wèn)題。伴隨智能教學(xué)應(yīng)用的普及,智能教學(xué)決策中的信任危機(jī)也受到研究者們普遍關(guān)注,如何在智能教學(xué)中精準(zhǔn)決策、規(guī)避風(fēng)險(xiǎn),以發(fā)揮人工智能技術(shù)在教育應(yīng)用中的最佳教學(xué)效果成為技術(shù)研發(fā)者和教學(xué)實(shí)施者們的一致追求。目前研究多將智能教學(xué)應(yīng)用中的各類問(wèn)題歸咎于數(shù)據(jù)算法,以至于不斷追求突破技術(shù)限度,包裝美化智能機(jī)器決策可信度“外衣”,卻普遍忽視了“人”在教學(xué)決策中的決定性作用,尤其是教學(xué)主體“人”在決策中獨(dú)立于智能機(jī)器之外的自我信心這一心理過(guò)程要素的作用。因此,探索教師在智能教學(xué)決策中自信心形成的心理機(jī)制是未來(lái)人工智能教學(xué)應(yīng)用發(fā)展的核心議題。
二、問(wèn)題導(dǎo)向:人工智能教育應(yīng)用中
信任危機(jī)的觸發(fā)
人工智能賦能教學(xué)的同時(shí),也引發(fā)了對(duì)其應(yīng)用后果的深刻反思。正如斯蒂芬·威廉·霍金(Stephen William Hawking)所言:創(chuàng)造人工智能的成功將是人類歷史上最大的事件。不幸的是,也可能是最后一次,除非我們學(xué)會(huì)如何規(guī)避風(fēng)險(xiǎn)。人與人工智能間的交互效果由“信任”介導(dǎo),應(yīng)用過(guò)程中出現(xiàn)的算法問(wèn)題卻觸發(fā)了教學(xué)決策的信任危機(jī)。
(一)技術(shù)危機(jī):算法偏見(jiàn)導(dǎo)致教學(xué)決策失衡
人工智能以數(shù)據(jù)、算力和算法為三大基本要素,算法是系統(tǒng)運(yùn)行的核心遵循。算法如今以多種形式影響著人類生活的方方面面,并在教學(xué)實(shí)踐中實(shí)現(xiàn)了廣泛應(yīng)用,如輟學(xué)預(yù)警系統(tǒng)、作業(yè)自動(dòng)化評(píng)分系統(tǒng)、招生數(shù)據(jù)采集系統(tǒng)等。伴隨人工智能技術(shù)在教育中應(yīng)用的不斷深入,系統(tǒng)中由于算法偏見(jiàn)導(dǎo)致教學(xué)決策失衡的問(wèn)題引發(fā)了普遍重視。算法偏見(jiàn)是指在算法開(kāi)發(fā)和應(yīng)用中,開(kāi)發(fā)設(shè)計(jì)人員將自身和社會(huì)偏見(jiàn)集成到數(shù)據(jù)采集和處理過(guò)程中,進(jìn)而產(chǎn)生了對(duì)特定群體的歧視和偏見(jiàn)性的預(yù)測(cè)或推論[1]。教育人工智能系統(tǒng)的算法偏見(jiàn)設(shè)計(jì)體現(xiàn)種族、國(guó)別和性別偏見(jiàn)等諸多方面。有研究表明,畢業(yè)預(yù)測(cè)模型算法面對(duì)不同種族學(xué)生的預(yù)測(cè)效果存在差異,該模型對(duì)白人學(xué)生的誤報(bào)率較低,而對(duì)拉丁裔學(xué)生的誤報(bào)率較高[2];自動(dòng)化評(píng)分系統(tǒng)相較于教師人工評(píng)分更具高效性,但卻被發(fā)現(xiàn)其對(duì)白人和非裔美國(guó)學(xué)生的評(píng)分更加準(zhǔn)確[3];性別引發(fā)的偏見(jiàn)同樣存在于人工智能教學(xué)系統(tǒng)中,如有研究報(bào)告了用于預(yù)測(cè)學(xué)生課程通過(guò)率的算法系統(tǒng)對(duì)男生的預(yù)測(cè)效果較差[4]。無(wú)論互聯(lián)網(wǎng)絡(luò)時(shí)代的“信息繭房”還是當(dāng)今智能浸潤(rùn)時(shí)代的“過(guò)濾泡”,無(wú)不體現(xiàn)算法對(duì)人認(rèn)識(shí)真實(shí)完整世界的認(rèn)知“窄化”,算法需求取向的智能推送是對(duì)“人”之主體性價(jià)值選擇權(quán)的嚴(yán)重挑戰(zhàn)。智能系統(tǒng)的算法發(fā)展如何,其都是數(shù)據(jù)結(jié)果的計(jì)算、排除和呈現(xiàn)方式的上位規(guī)劃,更是技術(shù)構(gòu)建者價(jià)值觀的客觀反映,“人”在與智能系統(tǒng)算法交互中的“任其發(fā)展”與“自我放棄”造成了算法偏見(jiàn),也由此成為觸發(fā)人工智能教育系統(tǒng)決策信任危機(jī)的動(dòng)因之一。
(二)倫理危機(jī):隱私侵犯引發(fā)道德決策風(fēng)險(xiǎn)
個(gè)性化學(xué)習(xí)、自動(dòng)化評(píng)估及監(jiān)督管理系統(tǒng)為教育教學(xué)帶來(lái)科學(xué)性和便利性的同時(shí),也引發(fā)了人工智能教學(xué)應(yīng)用的倫理和道德省思。智能教學(xué)系統(tǒng)將師生置于馬克·波斯特(Mark Poster)所說(shuō)的“超級(jí)全景監(jiān)獄”之下[5],一切的學(xué)習(xí)和教學(xué)行為活動(dòng)數(shù)據(jù)都變得開(kāi)放透明而無(wú)所遁形。教育數(shù)據(jù)的開(kāi)放共享是打破信息孤島、數(shù)據(jù)壟斷等問(wèn)題壁壘,助推精準(zhǔn)決策的基礎(chǔ)要素,但數(shù)據(jù)開(kāi)放隨之帶來(lái)的便是個(gè)人信息過(guò)度暴露造成的隱私侵犯等問(wèn)題。學(xué)生和教師隱私保護(hù)問(wèn)題是目前圍繞中小學(xué)人工智能教學(xué)應(yīng)用的倫理隱患之一。目前,智慧校園建設(shè)中的人臉識(shí)別技術(shù)服務(wù)于宿舍、圖書館和課堂出勤等日常教學(xué)生活管理,精準(zhǔn)記錄學(xué)生的學(xué)習(xí)時(shí)長(zhǎng)和活動(dòng)時(shí)間;更有智慧課堂行為管理系統(tǒng)分析學(xué)生學(xué)習(xí)行為(閱讀、舉手、書寫、起立等)以及情緒狀態(tài)(高興、傷心、憤怒)以判斷和分析學(xué)生的學(xué)習(xí)模式[6]。這些數(shù)據(jù)使用得當(dāng)可以便利教學(xué),但如若未能得到有效的管理和規(guī)范的準(zhǔn)則約束便會(huì)造成對(duì)學(xué)生隱私的侵犯,而學(xué)校普遍默認(rèn)學(xué)習(xí)數(shù)據(jù)使用的知情同意權(quán),并且也多忽視考慮教學(xué)監(jiān)控和跟蹤中學(xué)生表現(xiàn)失真和不安情緒等問(wèn)題。由此看來(lái),隱私侵犯問(wèn)題的實(shí)質(zhì)是人工智能過(guò)度“入侵”學(xué)習(xí)者個(gè)人空間而使其產(chǎn)生擔(dān)心領(lǐng)域“失守”的心理狀態(tài),而這種“想使用但又怕受到傷害”的心理勢(shì)必會(huì)埋下人與人工智能之間“懷疑的種子”,造成智能教學(xué)決策的信任危機(jī)。
(三)情感危機(jī):情感交互忽視造成認(rèn)知決策偏差
人工智能教育應(yīng)用以其對(duì)教學(xué)與管理中數(shù)據(jù)的全面挖掘和客觀分析而被視為科學(xué)教學(xué)決策的保障,但“冰冷”的數(shù)字和機(jī)器是否能代表教學(xué)本質(zhì)委實(shí)需要長(zhǎng)期的實(shí)踐考量,人工智能在教學(xué)中的應(yīng)用多表現(xiàn)為幫助師生完成“功能性”的任務(wù),而忽視了師生“情感”領(lǐng)域的信息,尤其對(duì)智能環(huán)境中師生間情感交互問(wèn)題的關(guān)注。情緒和情感是人對(duì)客觀外界事物態(tài)度的主觀體驗(yàn)和相應(yīng)的行為反應(yīng),表明了主體需要與客觀外界事物間的關(guān)系,由個(gè)體主觀體驗(yàn)、面部、姿態(tài)和語(yǔ)調(diào)表情等外部表現(xiàn)及呼吸、心跳、血液循環(huán)和皮膚電反應(yīng)等生理喚醒作為其具象化體現(xiàn)。智能教學(xué)機(jī)器遵循上述原則設(shè)計(jì)算法通過(guò)捕捉學(xué)習(xí)者生理和行為信息以解釋學(xué)習(xí)者實(shí)時(shí)的情感體驗(yàn)。如利用神經(jīng)網(wǎng)絡(luò)模型捕捉學(xué)生面部生理表情以分析學(xué)生課堂中的情緒反應(yīng),并與教師相應(yīng)時(shí)段的教學(xué)內(nèi)容相聯(lián)系以對(duì)教學(xué)效果作出研判與改進(jìn)[7]。近來(lái)興起的情感計(jì)算研究則試圖創(chuàng)建一種能感知、識(shí)別和理解人的情感,并能針對(duì)人的情感作出智能、靈敏、友好反應(yīng)的計(jì)算系統(tǒng)[8]。單向度的情感識(shí)別和分析缺乏對(duì)教學(xué)主體交互的關(guān)注,情緒可以被捕捉,但情感卻難以被計(jì)算。或許這正如“莫拉維克悖論”所喻:對(duì)人工智能系統(tǒng)而言,高級(jí)推理需要的計(jì)算量反而少于低級(jí)無(wú)意識(shí)認(rèn)知。教學(xué)活動(dòng)作為一種鮮活的生命體驗(yàn)盡顯無(wú)意識(shí)的“細(xì)節(jié)之美”,師生互動(dòng)中所表現(xiàn)出的關(guān)懷、尊重、信任、同理和共情等真實(shí)的情感流露是否能通過(guò)系統(tǒng)“計(jì)算”出來(lái)目前還未十分明確,這也導(dǎo)致了人機(jī)教學(xué)決策中的信任危機(jī)。
三、視角轉(zhuǎn)向:智能教學(xué)決策中“人”之主體
自信的建立何以必要
機(jī)器“智能化”精度的不斷升級(jí)同時(shí)也助推教學(xué)中人向“機(jī)械化”執(zhí)行者的角色轉(zhuǎn)變。究其根本,人工智能教學(xué)決策中信任危機(jī)的產(chǎn)生源于人對(duì)人工智能的信任和人工智能可信度的錯(cuò)位匹配。人對(duì)人工智能的信任隨著智能體在教學(xué)決策中的功能性表現(xiàn)而動(dòng)態(tài)改變,從而使教師產(chǎn)生對(duì)智能輔助決策的信任程度的預(yù)判,并受此影響可能產(chǎn)生錯(cuò)誤歸因的惡性循環(huán)。智能教育應(yīng)用的“虛幻”迷局中,教師與機(jī)器的交互關(guān)系是其本質(zhì)所在,信任作為一個(gè)中觀概念,一個(gè)方向連接“人”的微觀心理活動(dòng),另一個(gè)方向連接宏觀智能環(huán)境,使得教學(xué)決策的責(zé)任左右搖擺,而要發(fā)揮人工智能教學(xué)的優(yōu)勢(shì)則必須將責(zé)任天平擺向“人”,人要學(xué)會(huì)在“糾纏”的人機(jī)關(guān)系中獨(dú)善其身,發(fā)揮人之獨(dú)立體信心之源的決策,以此彰顯教學(xué)決策中教師“人之為人”的必要性和價(jià)值所在。
(一)從場(chǎng)依賴到場(chǎng)獨(dú)立:掙脫拜“物”主義的泥沼
化解人工智能教學(xué)決策危機(jī),教師應(yīng)當(dāng)實(shí)現(xiàn)從智能體依賴型決策到依靠主體信心決策方式的轉(zhuǎn)向,即對(duì)教學(xué)效果的預(yù)判不應(yīng)由智能機(jī)器的工具理性決定,而教師需要具備的是:無(wú)論智能機(jī)器預(yù)測(cè)效果的好壞,都能有信心、有能力從人的“價(jià)值理性”的向善維度把控教學(xué)全局,作出精準(zhǔn)的抉擇與判斷。正如赫爾曼·威特金(Herman A.Witkin)所提出對(duì)“場(chǎng)獨(dú)立”和“場(chǎng)依存”兩類認(rèn)知方式的區(qū)分。場(chǎng)依存型傾向于以外界參照作為內(nèi)部信息加工依據(jù),場(chǎng)獨(dú)立型學(xué)習(xí)者的內(nèi)部信息加工較少受外界參照物的影響。同樣,“場(chǎng)依存”的教學(xué)決策者在智能教育情境中普遍存在。人類模擬復(fù)制人的思考方式而創(chuàng)造了人工智能,而在應(yīng)用中卻深陷于其影響“無(wú)法自拔”,在自身不自知的情況下認(rèn)知和思維方式受到“鉗制”,以至于形成拜“物”主義傾向。教師在智能環(huán)境中的教學(xué)決策判斷亦是如此,研究顯示,教師對(duì)人工智能的信任會(huì)隨著智能機(jī)器的性能動(dòng)態(tài)演變,即人工智能系統(tǒng)表現(xiàn)好,教師對(duì)其信任無(wú)變化,但如若其表現(xiàn)不好,則對(duì)其信任程度急劇下降,并其信任程度會(huì)隨著智能機(jī)器的表現(xiàn)下降而持續(xù)下降[9],這種“以物悲喜”的信任決策心理機(jī)制將會(huì)嚴(yán)重制約教師自身的教學(xué)判斷。由此看來(lái),掙脫智能機(jī)器之“物”的治理泥沼,以教師自身信心為目標(biāo),建立場(chǎng)獨(dú)立性教學(xué)決策機(jī)制勢(shì)在必行。
(二)從責(zé)任外推到責(zé)任歸位:釋放錯(cuò)誤歸因的心理枷鎖
技術(shù)輔助課堂教學(xué)的責(zé)任歸屬問(wèn)題從未像人工智能在教學(xué)中的應(yīng)用這般飽受熱議,試想傳統(tǒng)的信息技術(shù)輔助課堂教學(xué),教師幾乎不會(huì)將課堂中的教學(xué)問(wèn)題歸咎于教學(xué)課件和媒體資源,但這種責(zé)任歸因方式對(duì)于人工智能教學(xué)應(yīng)用則不再成立。面對(duì)教學(xué)智能體,教師似乎更加容易心安理得地將教學(xué)責(zé)任外推。安德烈亞斯·馬蒂亞斯(Andreas Matthias)指出,這可能是因?yàn)槿斯ぶ悄芟到y(tǒng)的使用者無(wú)法預(yù)測(cè)其運(yùn)行后果,甚至無(wú)法干涉其運(yùn)行[10]。誠(chéng)然,人工智能系統(tǒng)的“類人”設(shè)計(jì)原則以及訓(xùn)練數(shù)據(jù)的分布不同使得其行為更具自主性和不可解釋性,更有研究者聲稱人工智能系統(tǒng)的自主性已足以達(dá)到將其視為與人類同等程度的道德主體[11],但這種放棄自身責(zé)任主體地位的想法無(wú)疑是可怕的,更加容易使教師在決策中迷失自我,產(chǎn)生不當(dāng)責(zé)任歸因進(jìn)而影響后續(xù)的教學(xué)動(dòng)機(jī)與行為。如研究表明,教師如接受人工智能的建議得到積極反饋,則教師對(duì)人工智能的信任增強(qiáng),自信心沒(méi)有變化;拒絕人工智能得到積極反饋,則對(duì)人工智能信任下降,自信心提升,但教師對(duì)人工智能的信任程度并不會(huì)影響教師接受或拒絕人工智能的決定,真正具有決定意義的則是教師在決策中自身的信心[9]。借用伯納德·韋納(B.Weiner)歸因理論中的“三維度模型”,人工智能教學(xué)決策中教師主體自信心作為內(nèi)部可控不穩(wěn)定性因素更加有利于教師教學(xué)決策。
(三)從情感依賴到情感獨(dú)立:厚植“人之為人”的感通性
教師的個(gè)人情感是建立對(duì)人工智能信任的原初認(rèn)知,目前大多關(guān)于人工智能信任的研究集中于從認(rèn)知方式入手提高使用者的信任程度,而對(duì)情感因素在信任決策中的作用機(jī)理少有探討。人類對(duì)類人機(jī)器的依戀問(wèn)題是影響人機(jī)交互系統(tǒng)中信任建立的關(guān)鍵。情感心理學(xué)認(rèn)為,人在責(zé)任和壓力環(huán)境下會(huì)本能產(chǎn)生“轉(zhuǎn)嫁”心理,使得人們更可能將自主和智能特性“投射”于機(jī)器之上,在其內(nèi)心建立依戀紐帶,進(jìn)而產(chǎn)生“同行安全感”和“責(zé)任共擔(dān)感”,以緩解和減輕教學(xué)焦慮[12]。人對(duì)人工智能的過(guò)度情感依賴問(wèn)題是以智能機(jī)器行為導(dǎo)向決策的主要表現(xiàn)形式,同時(shí)過(guò)度的情感依賴容易導(dǎo)致“討好型人格”的形成。于全景式的教學(xué)監(jiān)控之下,師生難免產(chǎn)生迎合心態(tài),粉飾自身行為以符合既定算法標(biāo)準(zhǔn),甚至養(yǎng)成“表演型人格”[13],使得教師在教學(xué)決策中“迷失”自我。人工智能研究和發(fā)展即使再進(jìn)一步深入,其根本原則依舊是數(shù)據(jù)、算法上的擇優(yōu),而非情感、道德的選擇,人機(jī)交互中人得以凸顯出來(lái)的依舊是人的心性特點(diǎn)[14]。因此,亟須建立以教師主體自信導(dǎo)向的決策心理機(jī)制,實(shí)現(xiàn)從人對(duì)智能體情感依賴到情感獨(dú)立的轉(zhuǎn)向,發(fā)揮“人之為人”的感通性,在教學(xué)決策中以教師個(gè)人信心為中心連接和互動(dòng),以體現(xiàn)人工智能輔助教學(xué)中人的“切身參與性”和“實(shí)踐主體性”。
四、要素解構(gòu):智能教學(xué)決策中
“人”之主體自信發(fā)生機(jī)制
智能教學(xué)環(huán)境中,教師信心主導(dǎo)的獨(dú)立教學(xué)決策在行為上體現(xiàn)為教師個(gè)體對(duì)其是否有能力完成某一行為所進(jìn)行的判斷,同樣也是個(gè)體自我效能的一種表現(xiàn)。自我效能現(xiàn)象作為班杜拉社會(huì)學(xué)習(xí)理論中三元交互決定論的經(jīng)典內(nèi)容,正是社會(huì)學(xué)習(xí)理論對(duì)人的主體因素及作用機(jī)制的有效彰顯與對(duì)人性及因果決定模型的理智把握。三元交互決定論中對(duì)環(huán)境、行為與人的主體因素對(duì)自我效能的影響為我們提供了剖析智能教學(xué)決策中人之主體自信發(fā)生機(jī)制的解構(gòu)框架。
(一)個(gè)人主體因素的主導(dǎo):認(rèn)知誤區(qū)和職業(yè)危機(jī)感
影響智能教學(xué)中教師決策信心之“人”的主體因素指教師在使用智能技術(shù)輔助教學(xué)的過(guò)程中的個(gè)體認(rèn)知及情感的內(nèi)部心理變化,而教師對(duì)人工智能的認(rèn)知和情感體驗(yàn)對(duì)其把握教學(xué)節(jié)奏,實(shí)現(xiàn)精準(zhǔn)教學(xué)預(yù)判具有決定性作用。教師對(duì)課堂教學(xué)中智能系統(tǒng)科學(xué)理性認(rèn)知是其決策自信的基本前提,目前部分教師對(duì)人工智能及教學(xué)應(yīng)用存在認(rèn)知誤區(qū),影響了其是否接受利用人工智能系統(tǒng)開(kāi)展教學(xué),這種認(rèn)知誤區(qū)主要表現(xiàn)在對(duì)人工智能的概念和功能層面的誤解。人工智能的表層意蘊(yùn)為其披上了“類人智力”的外衣,并使其擁有了“超級(jí)計(jì)算”的屬性,這同時(shí)也在心理為其樹(shù)立了“強(qiáng)大且神秘”的形象,從而可能會(huì)致使教師產(chǎn)生“過(guò)度崇拜”的盲目信任或“恐懼擔(dān)憂”的拒絕使用兩類極端反應(yīng)。人工智能教育應(yīng)用并沒(méi)有如此高端神秘,作為教學(xué)資源、輔助管理、批改作業(yè)、智能答疑等功能性程序系統(tǒng),早已滲透至學(xué)習(xí)的各個(gè)層面。因此,排除教學(xué)者對(duì)人工智能的認(rèn)知障礙是教師信心建立的基本前提,但無(wú)論人工智能發(fā)展程度幾何,使用者應(yīng)警惕的永遠(yuǎn)是其智能的“靈魂”,而非機(jī)器的“外殼”。
教師于智能環(huán)境中的情感狀態(tài)也制約其決策自信心的建立[15]。人工智能技術(shù)“先入為主”、高效精準(zhǔn)的特征使教師在與之交互中也不斷萌生對(duì)自身教學(xué)地位的隱憂,從而產(chǎn)生未來(lái)被人工智能所取代的職業(yè)危機(jī)感。危機(jī)感產(chǎn)生于教師內(nèi)心“失蹤”的安全感,安全感的缺位恰是教師自身不自信的重要表現(xiàn)。究其根本,筆者認(rèn)為,此境遇是人工智能教育應(yīng)用場(chǎng)景中教師主體的“錯(cuò)位比較”造成,以人的“有限性”去對(duì)抗人工智能的“無(wú)限性”,從而放棄了教育中對(duì)人主動(dòng)權(quán)的“自守”。如與人類教學(xué)執(zhí)行者相比,人工智能系統(tǒng)的快速存儲(chǔ)和海量資源傳遞以及重復(fù)機(jī)械性教學(xué)行為操作和“不知疲倦”的監(jiān)督管理等功能確實(shí)具有不可比擬的優(yōu)越性。但教師于教育語(yǔ)境中觸及心靈善美的追逐與求真探索的深切體驗(yàn)之“道”的地位是目前智能應(yīng)用之“器”難以企及的,即從教師心靈層面生發(fā)的對(duì)教學(xué)對(duì)象的影響是其永不湮滅、恒久不斷的使命所在。由此看來(lái),即使生理意義上的人存在被徹底還原的可能,但哲學(xué)意義上人類的心靈不可能被徹底還原,秉承著人工智能的教學(xué)應(yīng)用應(yīng)當(dāng)只是“代具”而非“代替”[16],在教學(xué)中“借力”而非“依賴”人工智能是自我決策信心建立的心理基礎(chǔ)。
(二)行為效果因素的連接:自身行為的成敗及替代經(jīng)驗(yàn)
三元交互決定論中的行為因素指的是個(gè)體在環(huán)境因素和主體人因素的作用下進(jìn)行的活動(dòng),分為實(shí)際行為和潛在行為。實(shí)際行為一般指?jìng)€(gè)體親身參與的活動(dòng)及產(chǎn)生的延遲影響效應(yīng);潛在行為可理解為個(gè)體心理及學(xué)習(xí)的行為準(zhǔn)備及受先驗(yàn)邏輯和榜樣示范作用主導(dǎo)的心理傾向,將其投射到影響智能環(huán)境中教師決策信心的影響因素可分為教師主體與人工智能交互活動(dòng)的成敗經(jīng)驗(yàn)及觀察榜樣行為的替代性經(jīng)驗(yàn)。教師個(gè)體在人機(jī)交互教學(xué)中個(gè)人活動(dòng)行為的成敗經(jīng)驗(yàn)這一效能信息源對(duì)其自身決策信心建立的影響最大。換言之,成功經(jīng)驗(yàn)會(huì)提升效能期望,反復(fù)的失敗經(jīng)驗(yàn)則會(huì)降低個(gè)體的效能期望。由是,教師與人工智能教學(xué)系統(tǒng)的交互積極性“初體驗(yàn)”十分重要。與此同時(shí),教師對(duì)人工智能教學(xué)失敗經(jīng)驗(yàn)的正確歸因也是決策信心建立的有效保障。積極的歸因方式應(yīng)將成功歸因于教師內(nèi)部因素,增加教師智能教學(xué)中的自我價(jià)值認(rèn)同;同時(shí)善于將失敗歸于外因,減少責(zé)任負(fù)擔(dān)感,達(dá)到信心自我保護(hù)機(jī)制建立的目的。
榜樣行為的替代經(jīng)驗(yàn)也是影響教師決策信心建立的因素之一。人行為的效能期望大多來(lái)源于觀察他人的替代性經(jīng)驗(yàn),即教師觀摩和借鑒示范者的成功經(jīng)驗(yàn),以幫助建立成功把控人工智能教學(xué)及獨(dú)立決策的信心,而這一行為結(jié)果與教師群體間的經(jīng)驗(yàn)交流方式密切相關(guān)。教師在“經(jīng)驗(yàn)遷移”的過(guò)程中需審慎的關(guān)鍵環(huán)節(jié)即注意將自身真實(shí)的教學(xué)情境與榜樣示范的問(wèn)題模式及情境框架進(jìn)行遷移比較。同時(shí),替代性經(jīng)驗(yàn)幫助決策時(shí)還應(yīng)充分考量?jī)煞矫嬉蛩氐母蓴_效應(yīng):一則是“易得性心理偏差”的干預(yù),即人們總是傾向于作出容易的決定而非有價(jià)值的決定,這與該經(jīng)驗(yàn)相關(guān)的認(rèn)知提取的難易程度相關(guān),如教師在教學(xué)觀摩中的感官體驗(yàn)與參與程度決定了其是否會(huì)認(rèn)同并復(fù)制這一教學(xué)行為,同時(shí)觀摩活動(dòng)與自身的聯(lián)系程度及熟悉程度也會(huì)影響教師對(duì)人工智能的選擇和使用;二則應(yīng)防范的是觀察替代性經(jīng)驗(yàn)的成功與否而非切身體驗(yàn)可能會(huì)使教師對(duì)人工智能教學(xué)應(yīng)用產(chǎn)生“先入為主”的心理體驗(yàn),教師可能從內(nèi)心分化出抵觸和排斥人工智能的意志情感,并主觀弱化與人工智能之間的連接,使得教師和人工智能產(chǎn)生非教育性疏離感,從而使教師產(chǎn)生對(duì)技術(shù)教學(xué)應(yīng)用的消極心理體驗(yàn)和被無(wú)用感、無(wú)價(jià)值感等低落心境所支配的被動(dòng)技術(shù)應(yīng)用行為[17],這同樣會(huì)限制教師主體決策自信的發(fā)生與建立。因此,替代性經(jīng)驗(yàn)的觀察學(xué)習(xí)應(yīng)謹(jǐn)記個(gè)體并非從經(jīng)驗(yàn)行為中學(xué)習(xí),而是通過(guò)對(duì)經(jīng)驗(yàn)的反思性建設(shè)而學(xué)習(xí)。
(三)智能環(huán)境因素關(guān)系轉(zhuǎn)移:人、機(jī)、環(huán)境三者交互能量的“此消彼長(zhǎng)”
三元交互決定論指出,人同時(shí)是環(huán)境的產(chǎn)物和營(yíng)造者[18]。主體人作為環(huán)境的營(yíng)造者,通過(guò)自身的選擇定義環(huán)境,并通過(guò)自身的行為來(lái)改變環(huán)境。行為、人和環(huán)境因素相互連接并相互作用以產(chǎn)生影響,“交互”體現(xiàn)了事物之間的相互作用,而“決定”則表現(xiàn)為“事物間交互影響的產(chǎn)物”。由此,筆者認(rèn)為在智能教育情境中,“環(huán)境”應(yīng)當(dāng)被看作是一種人機(jī)與周圍環(huán)境“關(guān)系”的具體體現(xiàn),這種關(guān)系則由教學(xué)生態(tài)中三者之間的交互活動(dòng)所決定,不同情境的交互體現(xiàn)了三者關(guān)系網(wǎng)絡(luò)中能量的“轉(zhuǎn)化和遷移”。教師如何有效地適應(yīng)和處理不同人工智能教學(xué)情境關(guān)系網(wǎng)絡(luò)中各主體間能量的“此消彼長(zhǎng)”是其決策信心發(fā)生和建立的關(guān)鍵,即教師主體在智能教學(xué)環(huán)境中應(yīng)找準(zhǔn)自身定位,處理好與學(xué)生和人工智能兩類“環(huán)境”之間的關(guān)系。技術(shù)“入駐”教育引發(fā)了教學(xué)的主體性功能之“辯”,而智能技術(shù)因其“智化”特征,在處理其關(guān)系中還應(yīng)審慎考量倫理責(zé)任之“思”。教師與智能技術(shù)的關(guān)系處理是其主體決策自信建立的邏輯起點(diǎn)。人工智能教育環(huán)境中,教師只有堅(jiān)守本心,杜絕教學(xué)自主決策權(quán)的“放逐”與“讓渡”,才是規(guī)避風(fēng)險(xiǎn)有效決策的肯綮之所在。
師生關(guān)系問(wèn)題同樣也是影響教師決策自信建立的主要因素之一。智能教學(xué)環(huán)境中阻礙教師決策自信機(jī)制建立的師生關(guān)系問(wèn)題呈現(xiàn)出“松散和緊密”兩極分化的狀態(tài)?!熬o密”一面表現(xiàn)為過(guò)度“讓渡”,即智能的加入使教師角色可有可無(wú)。如學(xué)生通過(guò)人工智能自適應(yīng)學(xué)習(xí)系統(tǒng)開(kāi)展自主學(xué)習(xí),并基于對(duì)自身知識(shí)儲(chǔ)備、學(xué)習(xí)風(fēng)格和認(rèn)知發(fā)展的反饋及時(shí)調(diào)整自身狀態(tài),并且智能系統(tǒng)也通過(guò)“學(xué)習(xí)”實(shí)現(xiàn)對(duì)資源更加精準(zhǔn)的匹配與推薦。此學(xué)習(xí)形式從目標(biāo)確定、內(nèi)容選取及學(xué)習(xí)評(píng)價(jià)過(guò)程全程都無(wú)需教師參與,教師教學(xué)耳濡目染的言行示范和潛移默化的支持教導(dǎo)退出了教學(xué)舞臺(tái),從而造成了教學(xué)中師生的“角色失位”[19];“緊密”的另一面則表現(xiàn)為過(guò)度“控制”,智能語(yǔ)言、圖像和行為識(shí)別能夠采集并分辨學(xué)生的各類學(xué)習(xí)狀態(tài),這意味著學(xué)生學(xué)習(xí)的一言一行與變化發(fā)展都在教師的嚴(yán)密掌控之下,使師生演化為絕對(duì)的“施控者”和“受控者”,使教學(xué)中師生交互的分寸和界限逐漸模糊,更甚者弱化了教育教學(xué)的價(jià)值。因此,教師在智能教學(xué)中有效決策和信心建立的“環(huán)境”保障是良好師生關(guān)系的建立與維系,這種良好關(guān)系建立的前提應(yīng)重點(diǎn)關(guān)注教學(xué)中師生的情感交流與表達(dá),挖掘教學(xué)中師生間有“溫度”的互動(dòng)關(guān)系,加強(qiáng)師生主體間的對(duì)話交流,以營(yíng)造和諧共生的師生關(guān)系環(huán)境。
五、信任重啟:智能教學(xué)決策“人”之主體
自信建設(shè)機(jī)制
智能教學(xué)環(huán)境需要培育以自身信心為主導(dǎo)的優(yōu)秀決策者,堅(jiān)守教學(xué)的教育性為基本準(zhǔn)繩,凸顯決策中“人”的主體性作用:應(yīng)從技術(shù)共生的視角切入,建立“解釋與理解”雙向發(fā)展的智能技術(shù)體系,并考量人、機(jī)、環(huán)境三者和諧互生的關(guān)系網(wǎng)絡(luò),不斷完善智能決策機(jī)制的外部建制保障,實(shí)現(xiàn)頂層規(guī)劃與整體布局,重啟人機(jī)交互中的信任機(jī)制。
(一)技術(shù)共生:建立“解釋與理解”雙向發(fā)展的智能教育體系
智能教學(xué)環(huán)境中突出人之主體自信在決策中的重要作用,建立由教師主導(dǎo)的決策信心機(jī)制的首要前提是建立人工智能的“主動(dòng)解釋”和人類教師“主動(dòng)理解”雙向發(fā)展的教學(xué)體系。不可否認(rèn),智能體作為教師的首要互動(dòng)對(duì)象,其數(shù)據(jù)基礎(chǔ)和算法程序的不斷精細(xì)化發(fā)展,對(duì)加強(qiáng)人機(jī)信任程度,實(shí)現(xiàn)更加精準(zhǔn)的教學(xué)決策有著重要意義。技術(shù)開(kāi)發(fā)者應(yīng)不斷推動(dòng)并追求可解釋性人工智能的發(fā)展。已有研究表明,信任與人工智能的可解釋性呈現(xiàn)積極的正相關(guān),算法的透明度所反映的基本操作規(guī)則和內(nèi)部邏輯在信任機(jī)制的建立中至關(guān)重要[20]。可解釋性關(guān)系建立的訴求與人工智能的算法“黑箱”效應(yīng)對(duì)應(yīng),人工智能應(yīng)用系統(tǒng)的最大難題即系統(tǒng)使用者甚至程序開(kāi)發(fā)者都難以對(duì)系統(tǒng)輸入和輸出數(shù)據(jù)中間內(nèi)部算法的工作機(jī)制有著絕對(duì)精準(zhǔn)的把握,尤其對(duì)于無(wú)監(jiān)督學(xué)習(xí)無(wú)法提供訓(xùn)練數(shù)據(jù),機(jī)器通過(guò)聚類發(fā)現(xiàn)數(shù)據(jù)中心的相似群自行“學(xué)習(xí)”,從而使得其輸出結(jié)果更具不確定性。多數(shù)教學(xué)工作者更是對(duì)人工智能的原理處于“一無(wú)所知”的狀態(tài),此過(guò)程中產(chǎn)生的問(wèn)題很容易被歸咎為算法的不透明性及機(jī)器數(shù)據(jù)自我訓(xùn)練的未知性。可解釋性人工智能的目標(biāo)便是使系統(tǒng)的預(yù)測(cè)和行為更易被理解,其在因果關(guān)系推理層面的突破成為破除人工智能算法“黑箱”壁壘的關(guān)鍵。智能系統(tǒng)模型大多基于相關(guān)關(guān)系展開(kāi)決策分析,而沒(méi)有揭示對(duì)象屬性間的因果機(jī)理,因此,積極推動(dòng)發(fā)展基于反事實(shí)推理的因果表征學(xué)習(xí)關(guān)系可能是人工智能技術(shù)發(fā)展的破局之作。
人工智能“可解釋性”的發(fā)展也意味著其“可理解性”的增強(qiáng),人機(jī)關(guān)系的建立表現(xiàn)為機(jī)器向人靠攏,由“智”趨向“人”的一側(cè)。教師也應(yīng)向人工智能“主動(dòng)奔赴”,積極加強(qiáng)對(duì)人工智能技術(shù)的學(xué)習(xí)和理解,形成人機(jī)雙向接近的互動(dòng)生態(tài),以此建立對(duì)主體人決策信心的保障支持。研究顯示,支持智能技術(shù)的可靠性和使用者的能力是人與人工智能信任發(fā)展的兩個(gè)重要維度,其中,人對(duì)智能系統(tǒng)的理解成了制約兩者對(duì)人工智能信任影響關(guān)系的最強(qiáng)干預(yù)因素[21]。課堂教學(xué)中用不用人工智能已然成為一個(gè)“假命題”,而如何在教學(xué)中更好地應(yīng)用人工智能才是一個(gè)真問(wèn)題。并非“逃避”人工智能就能不受其影響,教師應(yīng)做的是積極做好心理與行為建設(shè),避免陷入技術(shù)應(yīng)用的心理窘境和慌亂無(wú)措感支配的被動(dòng)應(yīng)用中。教師在行動(dòng)層面應(yīng)主動(dòng)了解并學(xué)習(xí)人工智能教學(xué)相關(guān)專業(yè)知識(shí),積極參與人工智能科普教育類與專題培訓(xùn)類活動(dòng),在親身實(shí)踐和與優(yōu)秀教師教學(xué)交流切磋中提升教師使用人工智能的獲得感和成就感,明晰教學(xué)中人與人工智能的責(zé)任邊界。
(二)關(guān)系互生:打造人、機(jī)、情境協(xié)同共生的智能教學(xué)互信生態(tài)
教師信心為主導(dǎo)的教學(xué)決策模式表現(xiàn)為教師對(duì)教學(xué)整體的把控有信心時(shí)接受人工智能的建議,而在沒(méi)有信心時(shí)則選擇拒絕人工智能系統(tǒng)的建議,這種“心無(wú)外物”的決策方式是人之為人的“獨(dú)立姿態(tài)”的集中反應(yīng),這種獨(dú)立和強(qiáng)大并不是遠(yuǎn)離外物的“傲慢與孤僻”,而是與其周圍事物的“適應(yīng)與和解”,即能夠適恰地處理與各主體之間的關(guān)系。人、機(jī)和問(wèn)題情境構(gòu)成了智能教育生態(tài)網(wǎng)絡(luò),建立并發(fā)揮由教學(xué)主體信心主導(dǎo)的決策效能的關(guān)鍵在于營(yíng)造教師、人工智能及教學(xué)問(wèn)題情境三者和諧共生的“互信生態(tài)”,建立并打造互信共同體。定義角色以實(shí)現(xiàn)責(zé)任共擔(dān),教師應(yīng)在不同的教學(xué)情境中對(duì)人工智能的角色進(jìn)行心理設(shè)定,以保障其在智能教學(xué)中調(diào)整并維持最適交互狀態(tài)。人工智能的角色定義一般可劃分為三種類型,從親密程度排列依次為敵人、工具和伙伴,通過(guò)不同情境中人工智能所“扮演”的角色歸于這三類中的某一類而展開(kāi)分析或批判,教師不應(yīng)將某一教學(xué)情境中的人工智能角色定義為固定的某一類別,教師應(yīng)學(xué)會(huì)在不同的活動(dòng)行為中做到適時(shí)地“轉(zhuǎn)換”,應(yīng)以對(duì)“敵人”的戒備狀態(tài)審慎人工智能教學(xué)應(yīng)用的風(fēng)險(xiǎn)和危機(jī),以“工具”輔助視角助力教學(xué)有效開(kāi)展,并以“伙伴”合作心態(tài)正視教學(xué)中人與人工智能的關(guān)系,以夯實(shí)教學(xué)各環(huán)節(jié)中的責(zé)任主體地位。
互通有無(wú)以實(shí)現(xiàn)價(jià)值共享。實(shí)現(xiàn)人工智能與教學(xué)主體的利益共聯(lián),其程序設(shè)計(jì)應(yīng)將教師和學(xué)生的利益置于首位,并保持與人類相近的價(jià)值觀。如研究者指出,機(jī)器若想獲取人類的信任,必須通過(guò)反復(fù)“溝通”了解人類的價(jià)值取向(意圖和信念),并不斷向人類解釋其每一步?jīng)Q策的意圖,而實(shí)現(xiàn)這一“雙向溝通”的關(guān)鍵是建立心智模型以建模人類意圖,簡(jiǎn)而言之,即將人類意圖解釋為機(jī)器能夠理解的形式,以加強(qiáng)機(jī)器自身建設(shè)而增強(qiáng)人機(jī)互信。機(jī)器“揣摩”人類心智減少人機(jī)之間的認(rèn)知思維差異以加強(qiáng)互信的實(shí)現(xiàn)目前還尚有難度。筆者認(rèn)為可轉(zhuǎn)換角度,從文化的土壤中挖掘人機(jī)物互通的交流方式,以人工智能時(shí)代萬(wàn)物主體和諧共生的方式為其注入靈魂。中華文化歷來(lái)崇尚“天人合一”的一統(tǒng)思想和“中庸為德”的無(wú)為之道,而反對(duì)“絕對(duì)”和“分裂”的兩極化思想,引鑒中華文化中“一”之精髓以審度人工智能教學(xué)系統(tǒng)生態(tài)中各主體的關(guān)系互生,以整體觀、系統(tǒng)觀、和諧觀和大局觀映照“人”于人工智能參與的大系統(tǒng)整體[22],發(fā)揮教學(xué)中人之主體性,敬畏技術(shù),敬畏自然,努力建構(gòu)互信生態(tài)。
(三)創(chuàng)生共建:完善智能決策倫理的法律法規(guī)和制度建設(shè)
智能教學(xué)環(huán)境中教師信心主導(dǎo)的決策機(jī)制充分釋放了“人”的自由意志,這一信任機(jī)制的建立同時(shí)也需外部建制的完善。人工智能在六十多年的發(fā)展中幾經(jīng)沉浮,由此演化出了強(qiáng)弱人工智能的分說(shuō)。教育領(lǐng)域甚至各領(lǐng)域中多由弱人工智能主導(dǎo),即利用人工程序系統(tǒng)解決特定教育問(wèn)題,但強(qiáng)人工智能的實(shí)現(xiàn)一直是研發(fā)者和應(yīng)用者的終極目標(biāo)。強(qiáng)人工智能的技術(shù)邏輯是能夠自主學(xué)習(xí)推理解決問(wèn)題且具備自我意識(shí)的智能體,關(guān)于人工智能的倫理審思和法律權(quán)利的探討也由此發(fā)軔。2021年,科技部頒發(fā)了《新一代人工智能倫理規(guī)范》,提出應(yīng)充分考慮當(dāng)前社會(huì)各界人工智能的隱私、偏見(jiàn)、啟示和公平等倫理問(wèn)題,并提倡善用,防止濫用,促進(jìn)人工智能的健康發(fā)展。雖取得一定進(jìn)步,但更加完善的社會(huì)建制尚待不斷探索。
與此同時(shí),面向強(qiáng)人工智能自主意識(shí)的發(fā)展目標(biāo)的責(zé)任和權(quán)利主體之爭(zhēng)也甚囂塵上。人工智能的注入“擾亂”了原有的法理體系,亟需法律體系內(nèi)部的整體反思與全面整飭,在人工智能相關(guān)法律的制定中應(yīng)及早扼斷法律層面對(duì)人工智能應(yīng)用的完全人格、責(zé)任主體性的傾注趨勢(shì),堅(jiān)守以“人”為主體性的價(jià)值審判立場(chǎng)。教育教學(xué)與司法審判同樣都表現(xiàn)為人性、道德和人的組織性交織的活動(dòng)特性。教學(xué)主體在教學(xué)內(nèi)容、學(xué)情分析、學(xué)習(xí)評(píng)價(jià)等活動(dòng)中也應(yīng)持有絕對(duì)的自主決策權(quán),教師絕不應(yīng)將其自主權(quán)“讓渡”給人工智能。應(yīng)謹(jǐn)記:人工智能未來(lái)無(wú)論發(fā)展如何,其工具性屬性不會(huì)改變,教育過(guò)程中人的主體性決策是永恒不可替代的意志行為。
[參考文獻(xiàn)]
[1] BAKER R S, HAWN A. Algorithmic bias in education[J]. International journal of artificial intelligence in education, 2022, 32: 1052-1092.
[2] 李世瑾,胡藝齡,顧小清. 如何走出人工智能教育風(fēng)險(xiǎn)的困局:現(xiàn)象、成因及應(yīng)對(duì)[J]. 電化教育研究, 2021(7):19-25.
[3] BRIDGEMAN B, TRAPANI C, ATTALI Y. Comparison of human and machine scoring of essays: differences by gender, ethnicity, and country[J]. Applied measurement in education, 2012, 25(1): 27-40
[4] HU Q, RANGWALA H. Towards fair educational data mining: a case study on detecting at-risk students[C]//Proceedings of The 13th International Conference on Educational Data Mining, Jul 10-13, 2020. Morocco: EDM, 431-437.
[5] 馬克·波斯特.信息方式[M]. 范靜嘩,譯.北京:商務(wù)印書館,2000:17.
[6] AKGUN S, GREENHOW C. Artificial intelligence in education: addressing ethical challenges in K-12 settings[J]. AI and ethics, 2022, 2: 431-440.
[7] 孫立會(huì),王曉倩. 人工智能之于教育的未來(lái)圖景:機(jī)器行為學(xué)視角[J]. 中國(guó)電化教育,2022(4):48-70.
[8] 徐振國(guó).教育智能體的發(fā)展歷程、應(yīng)用現(xiàn)狀與未來(lái)展望[J].電化教育研究,2021,42(11):20-33.
[9] CHONG L, ZHANG G, GOUCHER-LAMBER K, et al. Human confidence in artificial intelligence and in themselves: the evolution and impact of confidence on adoption of AI advice[J]. Computers in human behavior, 2021,127:1-10.
[10] MATTHIAS A. The responsibility gap: ascribing responsibility for the actions of learning automata[J]. Ethic sand information technology, 2004, 6(3): 175-183.
[11] 劉博韜, 金香花. 人工智能的責(zé)任鴻溝——基于歸因過(guò)程的分析[J].道德與文明,2021(6):115-131.
[12] GILLATH O, AI T, BRANICKY M, et al. ?Attachment and trust in artificial intelligence[J]. Computers in human behavior,2021,115:1-10.
[13] 馮銳, 孫佳晶 孫發(fā)勤. 人工智能在教育應(yīng)用中的倫理風(fēng)險(xiǎn)與理性抉擇[J].遠(yuǎn)程教育雜志,2020,38(3):47-54.
[14] 諶衡. 從“人禽之辨”到“人機(jī)之辨”——人工智能時(shí)代教育的成“人”屬性[J].全球教育展望, 2021,50(10):35-46.
[15] 劉清堂,李小娟,謝魁,等. 多模態(tài)學(xué)習(xí)分析實(shí)證研究的發(fā)展與展望[J]. 電化教育研究, 2022,43(1):71-78.
[16] 張務(wù)農(nóng).人工智能時(shí)代教學(xué)主體的辨識(shí)與倫理反思[J].教育研究, 2022,43(1),81-90.
[17] 李芒, 申靜潔.論教師教學(xué)的信息技術(shù)疏離感[J].中國(guó)電化教育, 2020(5):62-68.
[18] BANDURA A, CERVONE D. Differential engagement in self-reactive influencesin cognitively-based motivation[J]. Organizational behavior and human decision processes, 1986, 38(1):92-113.
[19] 趙磊磊,陳祥梅,杜心月.人工智能時(shí)代師生關(guān)系構(gòu)建:現(xiàn)實(shí)挑戰(zhàn)與應(yīng)然轉(zhuǎn)向[J].教育理論與實(shí)踐,2021,41(31):36-41.
[20] COECKLBERGH M. Artifcial intelligence, responsibility attribution, and a relational justification of explain ability[J]. Science and engineering ethics,2020,26:2051-2068.
[21] BALFE N, SHARPLES S, WILSON J. Understanding is key: an analysis of factors pertaining to trust in a real-world automation system[J]. Hum factors, 2018, 60(4):477-495.
[22] 王萍萍.人工智能時(shí)代機(jī)器人的倫理關(guān)懷探析——以《老子》“善”論為視角[J].自然辯證法研究,2021,37(5):54-59.
Artificial Intelligence in Educational Decision-making Subjectivity Trust Crisis and Its Avoidance
SUN Lihui
(School of Education, Minzu University of China, Beijing 100081)
[Abstract] While artificial intelligence (AI) has brought new energy into teaching and learning, it has also caused a lot of rethinking. Algorithm bias, privacy invasion and emotional neglect have triggered man-machine trust crisis in intelligent education, which leads to a lack of decision-making autonomy. The subjectivity of "human" should be highlighted in the decision-making of artificial intelligence teaching. The establishment of a decision-making model dominated by teachers' confidence can help teachers break away from the quagmire of technology-centered materialism, realize the independent field of decision-making, release the psychological shackles of false attribution, so as to uphold the main responsibility of teaching subject. At the same time, it gives play to the perceptual nature of teaching and learning, and reduces the emotional dependence of intelligence. Bandura's triadic interactive determinism provides an analytical framework for deconstructing the factors influencing the effectiveness of teachers' decision making. Teachers' intelligent cognitive misconceptions and professional crisis dominate the establishment of confidence mechanism, and the success or failure of their own behaviors and alternative experience connect the confidence and behavior in teaching. The energy transfer of each subject of man-machine-intelligence contextual factors affects the harmonious interaction of the system. Therefore, the realization path of "human" subjectivity in teaching decision-making is designed from three levels of technical subject, relationship maintenance and mechanism guarantee, an intelligent education system with two-way development of interpretation and understanding is established, and a mutual trust ecology of intelligent teaching and learning in which human-computer-context coexist is shaped. Meanwhile, the legal and institutional construction of the ethics of intelligent decision-making is continuously improved, and the trust mechanism of artificial intelligence education is restarted.
[Keywords] Artificial Intelligence; Teaching Decision-making; Trust Crisis; Subject Confidence