摘要:從教育與人工智能在技術(shù)層面的契合邏輯出發(fā),教育人工智能倫理面臨的三大悖論:主體性悖論、權(quán)利悖論和底線(xiàn)悖論。教育人工智能倫理具有基礎(chǔ)性、深遠(yuǎn)性和不可逆性的特點(diǎn),其倫理準(zhǔn)則的構(gòu)建可參考三種模式:理論應(yīng)用模式、中層原則模式、決疑案例普遍化模式。無(wú)論采用何種模式,破解悖論難題的關(guān)鍵是采用“非人主體說(shuō)”,永遠(yuǎn)不要把人工智能擺放在人類(lèi)主體的位置,必須立場(chǎng)鮮明地將其視為機(jī)器;人永遠(yuǎn)對(duì)自己的行為結(jié)果負(fù)責(zé);人應(yīng)該尊重自己,相信自己配的上最高尚的東西。只有如此,才不會(huì)淪落到與位卑一等的機(jī)器糾結(jié)倫理問(wèn)題。
關(guān)鍵詞:教育人工智能;教育倫理;技術(shù)倫理;主體性悖論;“非人主體說(shuō)”
中圖分類(lèi)號(hào):G434 文獻(xiàn)標(biāo)識(shí)碼:A
人工智能(AI)旨在讓人造物“像人一樣思考”,以類(lèi)似于人的方式對(duì)外界作出反應(yīng),其本質(zhì)是如何進(jìn)行認(rèn)知的問(wèn)題。AI的演進(jìn)訴諸于不同認(rèn)知理論,目前已形成符號(hào)主義、行為主義和聯(lián)結(jié)主義三大流派。技術(shù)層面上,從早期的側(cè)重經(jīng)典算法的弱人工智能,到目前關(guān)注深度學(xué)習(xí)的強(qiáng)人工智能。AI可視為人類(lèi)智能的鏡像,折射了人認(rèn)知活動(dòng)某些機(jī)制和功能,使人的認(rèn)知間接地成為可以科學(xué)研究的“客觀”“外在”對(duì)象[1],教育正是通過(guò)對(duì)認(rèn)知規(guī)律的把控,達(dá)到增強(qiáng)學(xué)習(xí)者認(rèn)知效果和提升認(rèn)知能力的目的,從而使得對(duì)學(xué)習(xí)者的規(guī)訓(xùn)更加精準(zhǔn),當(dāng)下不少教育技術(shù)學(xué)學(xué)者提倡的計(jì)算思維、數(shù)據(jù)素養(yǎng)就是典型的例子。
“技術(shù)賦能教育”是當(dāng)下頗為流行的一句話(huà),畢竟現(xiàn)時(shí)代的教育有著諸多讓人不滿(mǎn)意之處,在技術(shù)大爆發(fā)的時(shí)代,每一個(gè)人都受益于技術(shù)帶來(lái)的便利性,技術(shù)滲透于社會(huì)生活每一個(gè)角落,應(yīng)用于教育具有天然的合理性,人們對(duì)技術(shù)賦能教育是充滿(mǎn)期待的。人工智能不同于一般技術(shù),它攜帶有他者的意志,其開(kāi)發(fā)應(yīng)用全面融入了社會(huì)價(jià)值觀[2]。當(dāng)其介入教育過(guò)程時(shí),人與人之間責(zé)、權(quán)、利關(guān)系出現(xiàn)的新變化,可能會(huì)產(chǎn)生教師意圖之外的結(jié)果。人工智能嵌入后,雖然不會(huì)像“汽車(chē)剎車(chē)失靈”那般的顯性化,但可能造成個(gè)人主體性被無(wú)意識(shí)侵害或社會(huì)權(quán)力結(jié)構(gòu)漂移,這類(lèi)深層次的倫理問(wèn)題,是人工智能賦能教育的理論和實(shí)踐研究必須警惕的。
教育作為培養(yǎng)人的社會(huì)活動(dòng),從技術(shù)學(xué)的角度而言,斯蒂格勒稱(chēng)“教育是一套意識(shí)形態(tài)技術(shù),是一種傳輸與接受機(jī)制的記憶技術(shù),是個(gè)體與集體意識(shí)塑形及經(jīng)驗(yàn)時(shí)空定位筑模,其主要任務(wù)是在思想中進(jìn)行導(dǎo)向”[3]。人與其它物種的不同之處在于,人的生命歷程可以藉由“第三持存”保留下來(lái)并遺傳下去,這類(lèi)持存可以超越基因汰選機(jī)制,在代際之間傳遞人類(lèi)歷史的記憶,使人之為人。第三持存是區(qū)別于當(dāng)下體驗(yàn)(即第一持存)和事后意識(shí)(即第二持存)的存在,前兩類(lèi)持存無(wú)法解決時(shí)間性問(wèn)題,即心理學(xué)上所謂的遺忘,于是人類(lèi)發(fā)明了用來(lái)表意的符號(hào)系統(tǒng)和時(shí)間偏倚的存儲(chǔ)介質(zhì),這個(gè)在傳播學(xué)上看似簡(jiǎn)單的事實(shí),卻引發(fā)諸多哲人的關(guān)注,海德格爾稱(chēng)之為“世界歷史性的物化”,波普爾將物化結(jié)果稱(chēng)為“世界3”,其人類(lèi)學(xué)意義在于,使得集體記憶可以被重新激活。
教育是社會(huì)持存重要的存在方式,在個(gè)體層面上以饋贈(zèng)方式將第三持存?zhèn)€性化,個(gè)體天然具有分享人類(lèi)歷史財(cái)富的權(quán)利,在分享的同時(shí)完成自身的社會(huì)化,成為社會(huì)學(xué)意義上的人;在集體層面上,第三持存為人類(lèi)共同擁有,是人類(lèi)“必需的多余”。必需,是因?yàn)槿祟?lèi)發(fā)展到技術(shù)文明階段,本能已經(jīng)退化到無(wú)法維持生物人在自然中存活,人類(lèi)必須依靠不斷發(fā)展的技術(shù)維系自身的生存,技術(shù)革命(T-Revolution)取代生物進(jìn)化(B-Evolution);之所謂“多余”,是因?yàn)槠湓鲋挡贿^(guò)是在填充人的欲壑,而非滿(mǎn)足基本生存的需要。尼爾·波茲曼在《娛樂(lè)至死》中說(shuō),媒介的轉(zhuǎn)換過(guò)程中,很多東西并沒(méi)有得到復(fù)制,而是轉(zhuǎn)化成了另一種東西,最重要的那部分東西已經(jīng)丟失了[4],許多時(shí)候,技術(shù)更多地是作為一種娛樂(lè)性玩物而存在,其所承擔(dān)宗教、教育和生產(chǎn)的重任不過(guò)是一種托辭,至于其維護(hù)生存“必須性”更是蹤跡杳忽。
麥克盧漢說(shuō)“一切技術(shù)都是身體和神經(jīng)系統(tǒng)增加力量和速度的延伸”[5],按照這個(gè)話(huà)語(yǔ)邏輯,我們可以說(shuō),人工智能是人的意志的延伸。美國(guó)哲學(xué)家Hilary Putnam在《理性、真理和歷史》一書(shū)提出過(guò)一個(gè)“缸中之腦”的思想實(shí)驗(yàn):將人的大腦移植出來(lái)放在一個(gè)培養(yǎng)缸里,用一臺(tái)超級(jí)計(jì)算機(jī)與大腦的末梢神經(jīng)相連,通過(guò)智能系統(tǒng)與其通訊,讓其發(fā)生記憶、遺忘和思考活動(dòng),并對(duì)外作出反應(yīng)[6],我們姑且把這個(gè)整體稱(chēng)之為“腦機(jī)人”??苹眯≌f(shuō)《三體》中有一個(gè)人物叫云天明,安樂(lè)死之后他的大腦被送到太空,大腦被外星文明復(fù)活成一個(gè)有自我意識(shí)的主體,小說(shuō)后文有他的諸多神跡,是被讀者封神的角色。我們有理由認(rèn)為,這是人工智能的終極狀態(tài),把事物推到極致更容易看清問(wèn)題的本質(zhì),在此情景下分析其可能產(chǎn)生的問(wèn)題。
第一個(gè)問(wèn)題:我們應(yīng)該將這個(gè)有自我意識(shí)的“腦機(jī)人”視為一個(gè)“人”,還是視為一個(gè)“機(jī)”?
第二個(gè)問(wèn)題:假設(shè)缸中保存的是“我”的腦,“我”看到自己的“身體”是一堆機(jī)械,我該做何界定自我?
第三個(gè)問(wèn)題:假如“我”感知到的一切,都是人們通過(guò)計(jì)算機(jī)虛擬出來(lái)的場(chǎng)景,我如何判斷周?chē)氖澜缡钦媸羌伲?/p>
把此三個(gè)哲學(xué)問(wèn)題映射到教育現(xiàn)象中來(lái):首先,任何教育都致力于培養(yǎng)和增強(qiáng)人的智能,盡管沒(méi)有任何一個(gè)教師承認(rèn)自己視學(xué)生為容器,但在教育過(guò)程中總是有意無(wú)意地向受教育者輸送自己認(rèn)可的知識(shí)、思想和觀念。雖然很多教師言說(shuō)自己尊重學(xué)生,以學(xué)生為主體,但由于他確信自己所追求的是最有價(jià)值的,自己所經(jīng)驗(yàn)的是最真實(shí)的,于是越是用心于教育,越表現(xiàn)出強(qiáng)烈的主體性僭越,當(dāng)學(xué)生不認(rèn)可和不接受自己的理念時(shí),很難做到釋?xiě)押秃翢o(wú)怨念。從一定的意義而言,此刻,教師并沒(méi)有真的將學(xué)生視為一個(gè)完整的人。
其次,學(xué)生在成長(zhǎng)的過(guò)程中,對(duì)自己的身體、自己的課桌、自己的房間有明顯的邊界意識(shí),但是隨著認(rèn)知領(lǐng)域的不斷擴(kuò)大,自己與世界的邊界愈發(fā)模糊,直至把自己消解于世界之中。不僅在意識(shí)層面上如此,物質(zhì)層面上也存在同樣的情況,物質(zhì)財(cái)富是個(gè)體存在的一種方式,學(xué)校教育主張個(gè)體要回饋和奉獻(xiàn)社會(huì)。現(xiàn)世的人們,潛意識(shí)里也承認(rèn)并支持主體性的終極消解,日常話(huà)語(yǔ)“生不帶來(lái)死不帶去”“眾生皆過(guò)客”都蘊(yùn)含著這一思想。
再次,日常話(huà)語(yǔ)中有一個(gè)使用頻率極高的詞匯——認(rèn)真,意指嚴(yán)肅對(duì)待,“真”作為價(jià)值事物的三種基本類(lèi)型之一,是指主體認(rèn)識(shí)與客體存在相符合,對(duì)“真”的認(rèn)識(shí)、認(rèn)知和把握,是近現(xiàn)代人們唯一無(wú)須為之辯護(hù)的追求,嚴(yán)肅對(duì)待作為認(rèn)真的首要含義,就是從此而來(lái)。仿真技術(shù)賦予了“假”合法性,人對(duì)自身的物理感覺(jué)、生理感知和心理感受實(shí)際上是模糊不清和邊界含混的[7],這使得人在物理、生理和心理的感知覺(jué)層面難以區(qū)分現(xiàn)實(shí)和虛擬現(xiàn)實(shí)、智能和人工智能,虛實(shí)難辨、真假難分將是未來(lái)人類(lèi)面臨的新困境。與“認(rèn)真”相對(duì),會(huì)出現(xiàn)一種新的文化形態(tài)“尚假主義”文化,用來(lái)表征那類(lèi)超越實(shí)體的虛擬世界。
人工智能和教育都關(guān)涉人的存在,二者在識(shí)別、邏輯推導(dǎo)、經(jīng)驗(yàn)積累和與環(huán)境互動(dòng)等方面追求趨向一致,人工智能與教育的契合點(diǎn),同時(shí)也是悖論發(fā)生之處。人工智能作為新興技術(shù),其智能直接源自于人,當(dāng)其與教育發(fā)生關(guān)聯(lián)時(shí),又直接作用于人,這個(gè)過(guò)程中會(huì)不會(huì)出現(xiàn)類(lèi)似器官移植和輸血一樣的排異反應(yīng),尚未可知。智能化汽車(chē)“剎車(chē)失靈”事件的主要原因是,駕駛員和剎車(chē)片之間不再是簡(jiǎn)單的線(xiàn)性關(guān)系,其中嵌入了一個(gè)剎車(chē)智能管理系統(tǒng)。人工智能不同于其它技術(shù),它被允許有一定的自主性。對(duì)于教育人工智能而言,這種差異要求教育治理體系必須在柔性的教育道德規(guī)范和更具約束力的教育法律規(guī)范之間尋找立足點(diǎn),重建教育人工智能倫理體系。
技術(shù)體系化以后,人類(lèi)的生存愈發(fā)依賴(lài)技術(shù),正如“和平需要由戰(zhàn)爭(zhēng)來(lái)維持”一樣,技術(shù)的負(fù)面效應(yīng)需要以技術(shù)的方式來(lái)解決,這種技術(shù)自治的后果導(dǎo)致了人類(lèi)理性的迷失。教育在人類(lèi)的自我拯救和作繭自縛之間游走,自身沉淪于技術(shù)座架又被寄希望作為社會(huì)救治的解藥。人工智能的介入會(huì)增強(qiáng)教育的盲目希翼感,繼而必然是巨大無(wú)措感。
(一)主體性悖論
智能系統(tǒng)的主體身份陷入失序狀態(tài)。教育志在引導(dǎo)人們過(guò)道德生活,道德生活意味著用理智來(lái)指導(dǎo)和控制行動(dòng),與自己的共同體和睦相處[8]。智能是道德的基礎(chǔ),共同體生活是道德結(jié)構(gòu)存在的場(chǎng)域,這是倫理學(xué)的基本原理。換句話(huà)說(shuō),沒(méi)有智能的事物是不會(huì)產(chǎn)生道德意識(shí)的,智能事物沒(méi)有共同體生活不會(huì)產(chǎn)生道德概念。若干“腦機(jī)人”放在一起,通過(guò)深度學(xué)習(xí)可以有智能的演化,但演化的結(jié)果會(huì)突破現(xiàn)代倫理規(guī)則,如微軟人工智能機(jī)器人Tay由預(yù)設(shè)“天真型人格”反轉(zhuǎn)為種族主義者,搜索引擎的智能會(huì)更大概率上將黑人姓名與犯罪記錄聯(lián)系在一起[9],將農(nóng)民工與社會(huì)底層現(xiàn)象聯(lián)系起來(lái),人工智能基于大量案例習(xí)得這一規(guī)律,并將其揭示出來(lái),文明人類(lèi)會(huì)有意識(shí)地回避歧視的顯性化。人工智能系統(tǒng)缺乏共同體生活,不會(huì)產(chǎn)生主體自覺(jué),沒(méi)有主體自覺(jué)就沒(méi)有主體和他者之分,自然不會(huì)產(chǎn)生由己及人的同理心和共在性。
現(xiàn)代倫理無(wú)法界定智能演化是“換代”還是“成長(zhǎng)”,或許有人不覺(jué)得這是個(gè)倫理問(wèn)題,是因?yàn)椤胺旁谝黄稹辈坏扔凇肮餐w生活”,共同體生活的重要性在于每個(gè)個(gè)體都浸潤(rùn)在自我修正的反饋環(huán)境中,比如群體中會(huì)有“你把聰明勁兒用在正事上好不好”這樣的言語(yǔ),這類(lèi)反饋使得智能演化是受控的。血親群體是最典型的共同體生活的形態(tài),其內(nèi)含一套以輩分為內(nèi)容的制度。在共同體中生存,輩分關(guān)系是每個(gè)個(gè)體都必須熟悉和遵守的,每個(gè)個(gè)體都擁有兩個(gè)自我:個(gè)體自我和群體自我,兩類(lèi)自我共同成就完整的主體性。其它所有的社會(huì)性群體,基本上都會(huì)參照血親群體構(gòu)造出類(lèi)似輩分關(guān)系的層級(jí)制度。當(dāng)“腦機(jī)人”和學(xué)生們組成教育共同體后,學(xué)生是否需要給予“腦機(jī)教師”像人類(lèi)教師一樣的敬畏和尊重?克隆技術(shù)被禁止用于人類(lèi),其主要原因,一方面是會(huì)產(chǎn)生倫理問(wèn)題,另一方面是對(duì)身體的控制行為比較容易具有故意殺人和故意傷害行為的犯罪特征。這時(shí)候問(wèn)題僅僅出現(xiàn)在身體層面,身體是精神所棲居之舍即精舍,其實(shí)棲居于身體之內(nèi)的那個(gè)存在——精神、靈魂、心……才是人之為人的核心要件。至于以何概念指代它,內(nèi)涵是否完全一致,不是本文討論的重點(diǎn),當(dāng)其以人工智能的形態(tài)被客觀化出來(lái),之后產(chǎn)生的倫理問(wèn)題會(huì)更難以解決。
目前,部分電子產(chǎn)品里的“小度”“小智”“小愛(ài)”“小布”“Siri”等智能系統(tǒng),多數(shù)被孩子們作為戲玩的對(duì)象。試想,若有兩臺(tái)分別以學(xué)界泰斗N先生和H先生命名的教育人工智能系統(tǒng),能夠進(jìn)行深度學(xué)習(xí),具有自我進(jìn)化機(jī)制,加之真人語(yǔ)音,人們?cè)撊绾螖[置?對(duì)于讀者諸君,自然可用一個(gè)“老師”或“教授”了之,不至于像帝制時(shí)代誤用不敬之語(yǔ)而因言獲罪,但兩位先生的碩博士研究生們,還有那些對(duì)先生充滿(mǎn)崇敬之情的人們,視其為師,還是視其為器?他們的下一代研究生們?cè)摲Q(chēng)智能先生為師爺么?或許有人讀到這個(gè)例子時(shí),會(huì)遲疑這樣的話(huà)題是否有對(duì)逝者不敬,這恰恰說(shuō)明,倫理問(wèn)題在人們潛意識(shí)的存在是普遍的和深刻的,心生糾結(jié)之緒也是必然的。
(二)權(quán)利悖論
傳統(tǒng)的技術(shù)設(shè)計(jì)、技術(shù)本身以及技術(shù)產(chǎn)出的結(jié)果,由專(zhuān)利法、產(chǎn)權(quán)法作為分配框架,體現(xiàn)出人類(lèi)借助技術(shù)表達(dá)能力、表征勞動(dòng)量及其人際轉(zhuǎn)移關(guān)系,對(duì)技術(shù)的需求界定、流轉(zhuǎn)劃分和資源分配已經(jīng)具備成熟的法律、市場(chǎng)和習(xí)俗規(guī)則。人工智能的權(quán)利關(guān)系建立的政治合法性、歷史合理性與傳統(tǒng)技術(shù)不同,主體悖論引發(fā)的一個(gè)直接性結(jié)果就是權(quán)利爭(zhēng)議。試想,H教授的智能被眾弟子將其編程植入教育人工智能系統(tǒng),研發(fā)出“‘H先生人工智能教育系統(tǒng)”,人工智能從后期的各類(lèi)交互中學(xué)習(xí),即基于外界輸入進(jìn)行自主風(fēng)險(xiǎn)評(píng)估并做出決策,由于沒(méi)有共同體生活,缺少鑠金之眾口的輿論機(jī)制,這種學(xué)習(xí)會(huì)放大人際親疏和對(duì)事物的喜惡偏見(jiàn),點(diǎn)擊概率與疊加傳導(dǎo)技術(shù)將人類(lèi)隱微的潛意識(shí)言行顯性化并強(qiáng)化,非程序設(shè)計(jì)者所能避免[10]。未來(lái)人工智能作品的版權(quán)爭(zhēng)議將會(huì)是棘手的問(wèn)題,“H先生”認(rèn)為自己寫(xiě)的論文和教學(xué)所產(chǎn)生的收益應(yīng)該屬于“自己”,教育人工智能系統(tǒng)的“造物主”該作何感想?另一方面,倘或該系統(tǒng)在工作中出現(xiàn)了差池,誰(shuí)的人格、聲譽(yù)理應(yīng)為之買(mǎi)單?
與此相關(guān)的另外一個(gè)悖論是教育權(quán)問(wèn)題。人們是否愿意把自己的孩子交給“腦機(jī)教師”進(jìn)行教育?在教育作為社會(huì)階層分篩器,考試文憑作為進(jìn)階職場(chǎng)入場(chǎng)券的背景下,對(duì)這個(gè)問(wèn)題的回答可能會(huì)存在分歧。為了考取理想的大學(xué),犧牲身體健康已經(jīng)在所不惜,倫理問(wèn)題變得無(wú)足輕重也在情理之中。當(dāng)必須在目的和手段之間作出選擇時(shí),人們對(duì)手段的認(rèn)可和接受往往會(huì)讓局外人感到不可思議。這個(gè)世界上沒(méi)有哪一條倫理能回避這樣一個(gè)事實(shí):在無(wú)數(shù)的情況下,獲得善的結(jié)果,一個(gè)人不得不采取道德上令人懷疑,或者至少有風(fēng)險(xiǎn)的手段。[11]還有,人們?cè)诰W(wǎng)絡(luò)中傾向于夸張一點(diǎn)事實(shí)[12],一方面是因?yàn)檫@些事實(shí)并不直接與自己切身利害相關(guān),另一方面是因?yàn)閷?duì)現(xiàn)實(shí)教育的無(wú)奈,只能寄希望于未來(lái)的可能途徑。人們對(duì)人工智能的美好期待仍保持高漲的勢(shì)頭,不少人對(duì)“腦機(jī)教師”持有歡迎和接納的姿態(tài)是可以理解的。
若是在上述問(wèn)題上存在分歧,不妨再換一個(gè)問(wèn)法:是否有人愿意把自己的嬰孩托付給“腦機(jī)人”養(yǎng)育?教育主張把人培養(yǎng)成為個(gè)性化的主體,強(qiáng)調(diào)“成為你自己”,反對(duì)把人訓(xùn)練成為工具?!澳X機(jī)教師”在知識(shí)的授遞方面被人們接受的可能性,遠(yuǎn)大于其在育人為人的方面被人們接受的可能性。且不論人們作何選擇,這背后隱藏的另一個(gè)問(wèn)題暴露出來(lái)了,誰(shuí)擁有教育權(quán)?邁克-波蘭尼曾指出,人類(lèi)知道的遠(yuǎn)比其能表達(dá)出來(lái)的更多[13],人類(lèi)教師長(zhǎng)期吟詠斟酌地思考,能表達(dá)顯性化的不過(guò)是冰山一角,但其能在學(xué)生憤悱之際介入提點(diǎn)、啟發(fā)引導(dǎo),其終極關(guān)懷為意義與價(jià)值,更重要的是,教師始終以自己的人格作為擔(dān)保,對(duì)自己的言行負(fù)責(zé)。在這個(gè)層面上,無(wú)自我意識(shí)的智能系統(tǒng)只是一個(gè)工具,教育權(quán)本質(zhì)上是人類(lèi)對(duì)自我命運(yùn)的把控。權(quán)利和責(zé)任是一對(duì)范疇,假若嬰兒的健康(且不說(shuō)人生)出現(xiàn)了偏差,誰(shuí)該對(duì)此負(fù)責(zé)呢?人工智能的“可追責(zé)性”①目前來(lái)看是一個(gè)大問(wèn)題。
文明人無(wú)不置身于各種知識(shí)、思想和問(wèn)題之中,一旦有閑暇便會(huì)思忖生命“終極意義”的有無(wú)及其內(nèi)容。當(dāng)“價(jià)值統(tǒng)一性”幻覺(jué)被現(xiàn)實(shí)擊碎時(shí),只能牢牢抱住價(jià)值分裂碎片,求得片刻安寧,猶如沉船事故中抓住一塊浮木,把孩子推上浮木或許是人最后的希望,若有人劃船經(jīng)過(guò),人們決然會(huì)把孩子推向那個(gè)人,而不會(huì)想他是什么人。人們更愿意把自己的另一種存在方式即后代拋給人類(lèi),而不會(huì)選擇托付給機(jī)器養(yǎng)育。
(三)底線(xiàn)悖論
倫理的本質(zhì)是人與人之間的關(guān)系。東漢經(jīng)學(xué)大師鄭玄將其注釋為“倫,猶類(lèi)也;理,分也”[14]。意為一類(lèi)人與另一類(lèi)人之間的邊界、分野。人工智能的教育倫理,即在教育場(chǎng)域中,人與智能技術(shù)的邊界及關(guān)系。歐盟委員會(huì)在2019年發(fā)布《人工智能倫理準(zhǔn)則》,參與起草工作的德國(guó)美因茨大學(xué)哲學(xué)教授托馬斯·梅辛格,對(duì)于此準(zhǔn)則“沒(méi)有禁止使用人工智能開(kāi)發(fā)武器”表示批評(píng)[15],此批評(píng)所反映的就是底線(xiàn)問(wèn)題。
從個(gè)人意愿的角度,技術(shù)服務(wù)于人類(lèi)是沒(méi)有盡頭的。技術(shù),包括人工智能,對(duì)于個(gè)體而言具有無(wú)須辯護(hù)的意義和價(jià)值:保障生存、群體中勝出、加速欲望的實(shí)現(xiàn)、提供生活的便利等等。但是,教育研究不僅要從個(gè)人的角度來(lái)考慮問(wèn)題,還應(yīng)當(dāng)從整個(gè)社會(huì)的角度來(lái)考慮。
當(dāng)從整個(gè)社會(huì)和人類(lèi)的角度再去審視技術(shù),圖景截然不同:武器可以保全一個(gè)群體,卻能毀滅同類(lèi);生殖醫(yī)學(xué)可以保護(hù)母嬰的健康,卻消解了自然淘汰機(jī)制對(duì)人種的優(yōu)化作用;技術(shù)增強(qiáng)了人類(lèi)改變世界的能力,人類(lèi)某些功能的退化卻是必然的。人類(lèi)通過(guò)技術(shù)擴(kuò)展自身功能的“強(qiáng)化策略”要比單純生物學(xué)變異潛能“進(jìn)化策略”要強(qiáng)大的多、迅速的多,疫苗的廣泛使用就是最好的例證,“自私的基因”決定了文明人不可能為了種的利益而放棄自身的存在[16],自殺和赴死許多時(shí)候是為了避免更大“惡”的結(jié)果。
個(gè)體和社會(huì),是觀照的技術(shù)倫理的兩個(gè)視點(diǎn),但若僅從此兩點(diǎn)出發(fā),仍不足以充分揭示“邊界”的合適位置。人工智能倫理,作為調(diào)和未來(lái)社會(huì)關(guān)系的準(zhǔn)則,需要考察個(gè)體與社會(huì)雙方對(duì)“人之本能欲望”控制權(quán)的博弈史。最早,人類(lèi)和其它動(dòng)物一樣,行為方式完全受本能欲望支配,行為模式刻在基因里,這個(gè)階段,個(gè)體掌握著對(duì)本能欲望的控制權(quán);在過(guò)渡到社會(huì)性種群的過(guò)程中,個(gè)體壓制自己的本能欲望,服從群體的意志,典型標(biāo)志為“約”“理”“道”的出現(xiàn),即要求凡為人者必須遵守的規(guī)則,否則即被逐出群體甚至處死,這個(gè)階段,社會(huì)掌握著對(duì)本能欲望的控制權(quán);網(wǎng)絡(luò)技術(shù)為人類(lèi)開(kāi)辟了另一種存在空間,此空間為人之本能欲望的實(shí)現(xiàn)提供了新的可能,原有社會(huì)的倫理規(guī)則,一則不完全適用于網(wǎng)絡(luò)空間,二則其發(fā)揮作用的控制力量又主要來(lái)源于個(gè)體,這種情況下,社會(huì)對(duì)本能欲望的控制就出現(xiàn)空白區(qū)?,F(xiàn)代人們,經(jīng)受過(guò)文明的洗禮,竊以為,以“善”作為行動(dòng)的起點(diǎn)即可保障結(jié)果的圓滿(mǎn)性,豈不知“在通往地獄的道路上鋪滿(mǎn)了良好的愿望”②。2017年《人民日?qǐng)?bào)》連發(fā)三篇評(píng)論,對(duì)智能平臺(tái)向用戶(hù)自動(dòng)推薦個(gè)性化內(nèi)容的互聯(lián)網(wǎng)業(yè)態(tài)提出了批評(píng),指出智能化系統(tǒng)迎合用戶(hù)趣味,而使得智能平臺(tái)走向媚俗化[17]。從算法設(shè)計(jì)者的角度而言,智能化推薦是充分發(fā)揮計(jì)算機(jī)技術(shù)優(yōu)勢(shì)的創(chuàng)新之舉。一位程序員的算法策略猶如“洛倫茲的蝴蝶”,可能會(huì)對(duì)人類(lèi)社會(huì)產(chǎn)生潛在的、深遠(yuǎn)的、不可預(yù)估的風(fēng)暴式影響,對(duì)其中的因果關(guān)聯(lián)解析,其難度恐怕超越了人類(lèi)的認(rèn)知極限。
人工智能,主觀上旨于放大個(gè)體(善)的意志,實(shí)現(xiàn)服務(wù)于社會(huì)的目的,客觀上,其中攜帶的欲望成分也會(huì)被放大,這部分易于被其他個(gè)體所利用,導(dǎo)致欲望的泛濫不羈。人工智能不被禁止使用于開(kāi)發(fā)武器,意味著天地良心的消解,人們可以藉技術(shù)之名,任由自己理性的作用,而隨便對(duì)陌生事物下斷語(yǔ),根據(jù)自己的理性去設(shè)計(jì)行為規(guī)范,結(jié)果必然是英國(guó)歷史學(xué)家阿克頓所說(shuō)的那樣:很多有良好動(dòng)機(jī)的人干了壞事[18]。猶如英國(guó)人把殖民視為向落后地區(qū)傳播文明。
(一)教育人工智能倫理的特殊性
人工智能倫理作為一般性的社會(huì)問(wèn)題,其核心是不損害“人類(lèi)”的利益。其困難之處在于,不同的群體會(huì)以自身的利益作為人類(lèi)的利益,不同利益相關(guān)方會(huì)從各自角度提出相應(yīng)的準(zhǔn)則規(guī)范,如何協(xié)調(diào)統(tǒng)一構(gòu)建出被整個(gè)國(guó)際社會(huì)認(rèn)可的倫理框架。不同國(guó)家、民族、種族的人們對(duì)待親姻婚配、人類(lèi)克隆和基因編輯等倫理問(wèn)題,所持的態(tài)度比較相似。但是對(duì)于科學(xué)技術(shù)倫理的構(gòu)建,不同組織主導(dǎo)的倫理準(zhǔn)則,包括像歐盟、G20、經(jīng)合組織、UNESCO這樣國(guó)際組織,其工作也難免有失偏頗,如對(duì)待核武器、外星文明接觸,人們的意見(jiàn)就比較難以統(tǒng)一。此外,人們還會(huì)誤將短時(shí)期的利益作為未來(lái)的利益。因此,分散性和時(shí)效性是人工智能時(shí)代初期倫理準(zhǔn)則的必然特征。
教育作為全人類(lèi)共有的事業(yè),涉及各階層人群,是最廣泛的非贏利性社會(huì)活動(dòng),教育倫理具有基礎(chǔ)性、深遠(yuǎn)性、不可逆性的特點(diǎn)。教育倫理,包括教育人工智能倫理,其內(nèi)容并不作為教學(xué)材料和教育政策直接進(jìn)入教育過(guò)程,而是以教育價(jià)值形態(tài)融入教師職業(yè)規(guī)范、德育評(píng)價(jià)、教師行為禁忌[19],以隱微的方式協(xié)調(diào)師生的行為和利益沖突,干預(yù)教育制度和政策,保障教育活動(dòng)在當(dāng)下和未來(lái)的社會(huì)系統(tǒng)中順利有效地開(kāi)展,既柔性又野蠻地調(diào)節(jié)著教育與個(gè)體和社會(huì)之間張力的平衡。
(二)教育人工智能倫理的構(gòu)建路向
除了符合一般性社會(huì)倫理的基本規(guī)定,教育人工智能倫理還屬于技術(shù)倫理的范疇,其構(gòu)建過(guò)程可以參考科技倫理的范式。一般而言,科技倫理的構(gòu)建有三種模式:理論應(yīng)用模式、中層原則模式、決疑案例普遍化模式。
理論應(yīng)用模式采取自上而下的行動(dòng)路向,從某種形上的倫理觀或國(guó)家提倡的核心價(jià)值觀出發(fā),回應(yīng)具體的技術(shù)倫理問(wèn)題。此模式適用于政府部門(mén)具有強(qiáng)力行政權(quán)的體制中,在“勢(shì)在必行”“迫在眉睫”的時(shí)候啟動(dòng)運(yùn)行,以官方文件的形式發(fā)布,對(duì)相關(guān)事態(tài)進(jìn)行監(jiān)管。教育人工智能倫理問(wèn)題尚屬于未來(lái)事件,此模式近期不會(huì)啟動(dòng)。
中層原則模式,通常是自覺(jué)自發(fā)的行動(dòng)方式,主要由具有學(xué)術(shù)影響力和前瞻視野的人物提議,由某個(gè)組織機(jī)構(gòu)主導(dǎo),從倫理原則或社會(huì)基本訴求出發(fā),審視某類(lèi)技術(shù)的價(jià)值內(nèi)涵、潛在風(fēng)險(xiǎn),形成相應(yīng)的倫理規(guī)范,成為某個(gè)專(zhuān)業(yè)、行業(yè)的指導(dǎo)原則。著名的“生命倫理學(xué)的四原則”就是這么來(lái)的[20]。此模式的產(chǎn)出,可以作為政策建議,是政府行政系統(tǒng)的重要智囊。未來(lái)教育人工智能準(zhǔn)則的出臺(tái),走此路向的可能性比較大。
決疑案例普遍化模式是自下而上的路向,社會(huì)上出現(xiàn)了影響廣泛的真實(shí)事件,用現(xiàn)行的法律條文無(wú)法調(diào)和,如虛擬學(xué)生華智冰[21]依靠“自己”的勞動(dòng)獲得了資產(chǎn),這份酬勞的歸屬問(wèn)題;類(lèi)似的,人工智能作品的版權(quán)問(wèn)題;機(jī)器人與人類(lèi)婚戀問(wèn)題等。按照現(xiàn)代人們的倫理觀念,無(wú)論資產(chǎn)還是版權(quán),理應(yīng)歸屬該智能系統(tǒng)的開(kāi)發(fā)者或擁有者,此觀念隱含的倫理原則是“華智冰不是人”。假設(shè)人工智能的發(fā)展達(dá)到了前文所描述的“腦機(jī)人”水平,他是否應(yīng)該成為道德接受者?是否應(yīng)該被要求承擔(dān)責(zé)任與義務(wù),這類(lèi)問(wèn)題就毋容回避。
人們認(rèn)識(shí)、理解并接受事件背后隱含的倫理原則,需要一個(gè)過(guò)程,但在特定事件的促逼之下,問(wèn)題的解決又等不得,此種情況下決疑案例普遍化模式被啟動(dòng)。通過(guò)對(duì)以往相近案例的收集、比較和分析,將其納入已有的評(píng)判范式中比對(duì),新型價(jià)值訴求和已有倫理原則在輿論催化作用下不斷雜糅,得出具有普適性的倫理準(zhǔn)則。
(三)教育人工智能倫理的核心內(nèi)容
前文描述的三個(gè)悖論有一個(gè)共同的內(nèi)核,即人類(lèi)對(duì)人工智能主體性的認(rèn)定。人工智能越是接近人們的理想狀態(tài),這個(gè)問(wèn)題就越凸顯,且不說(shuō)達(dá)到正常人的水平,可以斷言:如若能達(dá)到一只寵物狗的智能水平,智能機(jī)器人足以讓大部分人癡迷。
哲學(xué)史上對(duì)主體的判定可以分為三類(lèi):亞里士多德式、康德式和戴維森式[22]。亞里士多德把主體規(guī)定為能夠?qū)徤魉伎?、擁有?shí)踐智慧的存在?!爸腔邸笔侨藗冏罴南M枞斯ぶ悄艿?,當(dāng)然也是人們最懷疑和不愿意承認(rèn)的地方;至于“審慎思考”,已經(jīng)不是問(wèn)題,如各類(lèi)棋牌博弈軟件的算法十分縝密,甚至表現(xiàn)出超越了人類(lèi)的趨勢(shì)。用此標(biāo)準(zhǔn)來(lái)判定人工智能的主體性,焦點(diǎn)會(huì)集中在對(duì)“智慧”的理解與界定。教育會(huì)維護(hù)人類(lèi)的尊嚴(yán),拒斥商業(yè)性的智慧理解及諸多不嚴(yán)肅的濫用。
康德以自由意志代替實(shí)踐智慧,將“理性”和“自律”作為判定主體的要件:在自由實(shí)踐領(lǐng)域,籍由理性能力獲得自律方為主體。如博弈機(jī)器人能否像棋牌教練那樣,在特殊的情境下表現(xiàn)出“承讓”。從算法的角度,似乎并不是問(wèn)題,但是對(duì)“特殊情況”的判定可能會(huì)超程序員的預(yù)估,教練不會(huì)一味地打贏學(xué)生,示弱以鼓勵(lì)學(xué)生是常有的事。人工智能在理性層面上不存在任何問(wèn)題,至少在目前的技術(shù)水平上,從它不受情感因素的困擾這個(gè)角度,可以肯定這一點(diǎn),但是其“自律”能力就難以把握了。中國(guó)俗語(yǔ)“十分聰明用七分,留下三分給兒孫”,且不論俗語(yǔ)的科學(xué)性如何,但它所透露的是,人對(duì)自我及未來(lái)關(guān)系的一種理解,通過(guò)對(duì)自我的掌控,也就是自律,以期與未來(lái)發(fā)生某種關(guān)聯(lián)。它遵循的是善理原則即尋求內(nèi)心的寧?kù)o,而非真理原則即價(jià)值最大化。人工智能的進(jìn)化,本質(zhì)上是算法的設(shè)計(jì),遵循的是真理原則。如棋牌博弈軟件會(huì)打敗所有的對(duì)手,而不論對(duì)手是男女老幼、爺孫友朋。教育中存在“陪太子讀書(shū)”的現(xiàn)象,對(duì)先生的“自律”品行有特殊的要求,即便在現(xiàn)實(shí)的教育中,教師的自律依然是非常重要的素養(yǎng)。
戴維森將對(duì)主體的認(rèn)定與“行動(dòng)”及其“原因”聯(lián)系在一起。他認(rèn)為,主體的任何行動(dòng)都是有原因的,其原因是由前態(tài)度和相關(guān)信念組成的。前態(tài)度是指朝向某種行動(dòng)的意向狀態(tài),包括欲望、期待、習(xí)俗觀念等。而擁有相關(guān)信念意味著主體知道、相信、感知到他的行動(dòng)是前態(tài)度朝向的行動(dòng)[23]?!霸颉币馕吨鴮?duì)“何以如此”的理解與接受,與亞里士多德的“智慧”、康德的“自律”屬于相同的主體性范疇。人工智能系統(tǒng)是否會(huì)猶豫該不該做某事,是否具有行動(dòng)的意向性狀態(tài),程序員可以在算法上實(shí)現(xiàn)讓人工智能表現(xiàn)有點(diǎn)“像”,但在可遇見(jiàn)的未來(lái),情感意志的數(shù)學(xué)模型很難精準(zhǔn)建立,智能機(jī)器人不會(huì)為了父母的期待而刻苦學(xué)習(xí),不會(huì)“為了中華之崛起而讀書(shū)”。
符合上述三種判定的主體,需要承擔(dān)相應(yīng)的道德責(zé)任與義務(wù),被人們普遍接受和認(rèn)可。除此之外,還有一種主體判定的理論,該理論認(rèn)為,所有的事件都處在因果鏈條之中,事件最直接的“因”可以被視為主體,如暴雨引發(fā)的人類(lèi)所謂的災(zāi)害,導(dǎo)致人死亡,暴雨即是主體。但該主體并不承擔(dān)我們通常意義上的道德“責(zé)任”,它只是自然發(fā)生的事件,不具備承擔(dān)責(zé)任的能力[24]。表面上看來(lái),此理論似乎并無(wú)太大的價(jià)值,既解決不了實(shí)際的問(wèn)題,也未表現(xiàn)出主體性哲學(xué)應(yīng)有的睿智。但恰恰是這個(gè)不高明的理論,可以給許多現(xiàn)實(shí)的問(wèn)題一個(gè)說(shuō)辭:野生動(dòng)物傷人,要不要處死?寵物狗不拴繩恐嚇到小朋友,如何劃分責(zé)任?汽車(chē)剎車(chē)沒(méi)有達(dá)到駕駛員預(yù)期的效果,是非孰應(yīng)?洪澇疫情導(dǎo)致的損失,是否在理賠范圍內(nèi)?等等。我們稱(chēng)此理論為“非人主體說(shuō)”,此理論對(duì)教育人工智能倫理的構(gòu)建有很大啟發(fā)。
首先,永遠(yuǎn)不要把人工智能擺放在人類(lèi)“主體”的位置,必須立場(chǎng)鮮明地將其視為機(jī)器??苹秒娪爸?,機(jī)器人有了人類(lèi)的情感,當(dāng)科學(xué)家、生產(chǎn)商將其銷(xiāo)毀時(shí),賺得了不少觀眾的眼淚,這是因?yàn)楸藭r(shí)機(jī)器人代入了觀眾至親的主體位置;其次,人永遠(yuǎn)對(duì)自己的行為結(jié)果負(fù)責(zé),這是教育最核心的倫理觀念之一。將暴雨作為主體,意義在于,對(duì)不可知事物的祛魅,減少人類(lèi)對(duì)神秘力量的恐懼。駕駛配備人工智能技術(shù)的汽車(chē)發(fā)生了事故,簡(jiǎn)單地歸因于技術(shù)缺陷,是不完全合理的。作為能動(dòng)的、理性的主體,駕駛員應(yīng)該事先充分熟悉汽車(chē)的性能,如果一味地用自己習(xí)慣的方式對(duì)待新事物,并且指望新事物適應(yīng)自己,是不理智的。且莫說(shuō)機(jī)器,即便是人,可能也無(wú)法完全符合你的意愿。再次,人應(yīng)該尊重自己,相信自己配的上最高尚的東西[25]。
教育需要提醒人們,退回到位卑一等的動(dòng)物、智能人造物,并非幸福之路,生命體發(fā)展的終極形態(tài)是以意識(shí)的形態(tài)存在,它的發(fā)展會(huì)加速人類(lèi)對(duì)終極關(guān)懷的靠近,這才是最高尚的存在,也是一條無(wú)法逃離的不歸之路。
作為“人造物”,要求人工智能為人類(lèi)服務(wù)是最基本的倫理準(zhǔn)則,這一點(diǎn)在任何時(shí)候都成立。人工智能和其它工具的差別在于其“自主性”,這種自主性的危險(xiǎn)之處是它可能和某個(gè)人之間發(fā)生有個(gè)體意義的關(guān)聯(lián),而致個(gè)體脫序于現(xiàn)實(shí)社會(huì)。還有,泛在而低廉的存儲(chǔ)設(shè)備容易檢索提取過(guò)去的信息,這會(huì)徹底打破“記憶”與“遺忘”在人類(lèi)社會(huì)中長(zhǎng)期以來(lái)維持的平衡狀態(tài)[26]。當(dāng)類(lèi)似的事件達(dá)到一定的數(shù)量時(shí),就不再是簡(jiǎn)單的道德問(wèn)題了,人類(lèi)就不得不重構(gòu)已有的倫理體系。
“腦機(jī)教師”是教育人工智能的終極形態(tài),它和人們期待的人工智能產(chǎn)品有著相同的本質(zhì)。人工智能技術(shù)包含的計(jì)算機(jī)、數(shù)學(xué)、邏輯學(xué)、心理學(xué)、社會(huì)學(xué)知識(shí)與技術(shù)具有無(wú)限的拓展空間,人工智能產(chǎn)品也就具有各種發(fā)展可能,我們無(wú)法斷言人工智能的可能形態(tài)。在可以預(yù)見(jiàn)的未來(lái)“腦機(jī)人”不會(huì)出現(xiàn),我們可以坦然將人工智能視為機(jī)器。因此,對(duì)人工智能倫理問(wèn)題的思考,不可能找到終極寧止點(diǎn)而一勞永逸。從現(xiàn)有的倫理框架出發(fā),做加減法依然是當(dāng)前最現(xiàn)實(shí)的策略。未來(lái),根據(jù)人工智能發(fā)展的具體水平,制定有針對(duì)性的倫理準(zhǔn)則為時(shí)不晚。
參考文獻(xiàn):
[1] 肖峰.人工智能與認(rèn)識(shí)論的哲學(xué)互釋?zhuān)簭恼J(rèn)知分型到演進(jìn)邏輯[J].中國(guó)社會(huì)科學(xué),2020,(6):49-71+205-206.
[2] 宋建寶.歐盟人工智能倫理準(zhǔn)則概要[N].人民法院報(bào),2019-04-19(08).
[3] [法]斯蒂格勒.技術(shù)與時(shí)間3:電影的時(shí)間與存在之痛的問(wèn)題[M].南京:譯林出版社,2012.209.
[4] [美]波茲曼.娛樂(lè)至死.童年的消逝[M].桂林:廣西師范大學(xué)出版社,2009.66.
[5] [加]馬歇爾·麥克盧漢.何道寬譯.理解媒介:論人的延伸[M].南京:譯林出版社,2019.4.
[6] [美]普特南.童世駿譯.理性,真理與歷史[M].上海:上海譯文出版社,2005.33.
[7] 段偉文.虛擬現(xiàn)實(shí)技術(shù)的社會(huì)倫理問(wèn)題與應(yīng)對(duì)[J].科技中國(guó),2018,(7):98-104.
[8] [美]約翰·杜威,詹姆斯·H.塔夫斯.方永譯.倫理學(xué)[M].北京:商務(wù)印書(shū)館,2019.44.
[9] 谷學(xué)強(qiáng).搜索引擎中的倫理失范問(wèn)題與治理研究[J].河南工業(yè)大學(xué)學(xué)報(bào)(社科版),2017,(6):61-66.
[10] 賈開(kāi),薛瀾.人工智能倫理問(wèn)題與安全風(fēng)險(xiǎn)治理的全球比較與中國(guó)實(shí)踐[J].公共管理評(píng)論,2021,(1):122-134.
[11] [德]馬克斯·韋伯.馮克利譯.學(xué)術(shù)與政治[M].上海:生活·讀書(shū)·新知三聯(lián)書(shū)店,1998.
[12] David B.Whittier,周夢(mèng)雅.網(wǎng)絡(luò)倫理教育與網(wǎng)絡(luò)心理[J].中國(guó)電化教育,2012,(3):1-7.
[13] Polanyi,M.The Tacit Dimension [J].Chicago:University of Chicago Press,2009.
[14] 蔡元培.中國(guó)倫理學(xué)史[M].北京:商務(wù)印書(shū)館,2012.33.
[15] None.歐盟發(fā)布人工智能倫理準(zhǔn)則[J].傳感器世界,2019,25(4):35.
[16] [英]里查德·道金斯.盧允中譯.自私的基因[M].長(zhǎng)春:吉林人民出版社,1998.33.
[17] 人民日?qǐng)?bào).三評(píng)算法推薦[EB/OL].http://opinion.people.com.cn/ GB/8213/420650/422761/index.html,2021-07-21.
[18] 王永章.過(guò)高的道德標(biāo)準(zhǔn)阻礙我們警惕人性之惡[J].人民論壇,2008,(13):7.
[19] 王正平.以新時(shí)代教育倫理道德引導(dǎo)我國(guó)教育現(xiàn)代化[J].上海師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2020,49(1):71-82.
[20] 范瑞平,蔡昱等.關(guān)于生命倫理學(xué)四原則理論的新討論[J].中國(guó)醫(yī)學(xué)倫理學(xué),2021,34(4):395-407.
[21] 新浪科技.對(duì)話(huà)“華智冰”團(tuán)隊(duì):能力相當(dāng)于人類(lèi)多少歲?她會(huì)有情感嗎 [DB/OL].https://baijiahao.baidu.com/s id=170285842189018 5670&wfr=spider&for=pc,2021-07-25.
[22] Thomas Mowers.On the moral agency of computers [J]. Topoi,2013,(32):229-230.
[23] Donald Davidson.Actions,Reasons and Causes [A].Essays on Actions and Events [C].Oxford:Clarendon Press,2001.
[24] 戴益斌.人工智能倫理何以可能——基于道德主體和道德接受者的視角[J].倫理學(xué)研究,2020,(5):96-102.
[25] [德]弗里德里希·黑格爾.李智謀編譯.小邏輯(黑格爾對(duì)聽(tīng)眾的致辭)[M].重慶:重慶出版社,2006.
[26] 鄒太龍,易連云.舍恩伯格大數(shù)據(jù)教育應(yīng)用思想的倫理關(guān)懷[J].中國(guó)電化教育,2020,(12):55-62.
作者簡(jiǎn)介:
李子運(yùn):教授,博士,碩士生導(dǎo)師,研究方向?yàn)榻逃夹g(shù)基本理論、教育技術(shù)哲學(xué)。
Ethical Thinking of Artificial Intelligence Empowering Education
Li Ziyun(Department of Educational technology, Jiangsu Normal University, Xuzhou 221006, Jiangsu)
Abstract: The logic of the fit between education and artificial intelligence at the technical level reveals the three paradoxes facing the ethics of educational artificial intelligence: the Subjectivity Paradox, the Rights Paradox and the Base-line Ethic Paradox. The ethics of educational artificial intelligence is fundamental, far-reaching and irreversible, which regulates the balance of tension between education and individuals and society. The construction of educational artificial intelligence ethics can refer to three models: The Theory Application Model, The Middle Level Principle Model and The Doubtful Cases Generalized Model. No matter which model we choose, the key to solving the paradox problem is to adopt “Non-human subject theory”. We should never regard artificial intelligence as a human subject and must firmly treat it as a machine; Humans can always be responsible for the results of their actions; People should respect themselves and believe that they deserve the noblest things. Only in this way will it not fall into an ethical dilemma with a machine that is inferior to the human being.
Keywords: Educational Artificial Intelligence; educational ethics; subjectivity paradox; “non-human subject theory”
收稿日期:2021年8月1日
責(zé)任編輯:李雅瑄