[摘 ? 要] 倫理問題的產(chǎn)生在人工智能教育應用中不可避免。如何識別與應對之,是當前研究的熱點,對于人工智能與教育融合創(chuàng)新具有顯著的倫理導向作用。已有研究多著力于對倫理風險的預警,在一定程度上忽視了對倫理問題的識別與判斷,暴露出“泛倫理化”研究趨向,難以形成系統(tǒng)的倫理策略。實際上,只有辨別人工智能教育應用行為的倫理屬性,通過倫理判斷的分類指引,經(jīng)由不同倫理分析框架的多樣嘗試,才能確定適切的倫理意圖并形成可行的倫理方案。從人工智能教育應用行為的自知性、自愿性、社會性三個基本原則出發(fā),提出“識別人工智能教育應用倫理問題”的一般方法,并基于目的論、義務論、美德論等規(guī)范倫理理論,確定“判斷人工智能教育應用倫理問題是否合乎倫理規(guī)范”的方案依據(jù),從而闡釋人工智能教育應用倫理策略的形成過程,為積極回應“倫理問題識別意識薄弱”“倫理原則照搬難適應”等實踐困境提供理論依據(jù)與實踐路徑。
[關(guān)鍵詞] 人工智能教育應用; 倫理問題; 倫理識別; 倫理判斷; 倫理策略
[中圖分類號] G434 ? ? ? ? ? ?[文獻標志碼] A
[作者簡介] 謝娟(1984—),女,山東棗莊人。副教授,博士,主要從事教育技術(shù)倫理研究。E-mail:xiejuansd@126.com。
一、引 ? 言
隨著我國《新一代人工智能倫理規(guī)范》的發(fā)布,教育領域人工智能倫理研究已成為熱潮。什么是人工智能教育倫理問題、其判定依據(jù)是什么、規(guī)約這些問題的基本思想有哪些,是當前人工智能教育倫理研究的三個基礎性問題[1]。本文從“人工智能教育應用”的角度切入,通過對應用行為的倫理分析,嘗試探尋倫理策略的形成過程,以期為識別倫理問題提供方法指導、為作出倫理判斷提供理論支撐、為確定倫理意圖和開展倫理實踐提供思路引領。
二、問題的提出
當前學界對“倫理問題”的警醒和對“倫理策略”的訴求等研究熱情愈發(fā)高漲。一方面,學者們多維度辨識了人工智能教育應用引發(fā)的技術(shù)濫用、數(shù)據(jù)泄露等倫理困境[2],深刻意識到人被技術(shù)異化等倫理風險的隱蔽性和誘惑性[3],系統(tǒng)梳理了角色層面、技術(shù)層面和社會層面的倫理問題[4],并從主體規(guī)范缺失、倫理原則淡化、倫理形態(tài)嬗變等視角透視原因[5],使“人工智能教育應用倫理問題”成為討論的焦點。另一方面,已有研究指出強人工智能與弱人工智能在倫理策略設計上的不同[6],主張通過實施人工智能倫理教育來應對倫理問題[7],倡導利用義務論和美德論等倫理方法來表達技術(shù)美德和提高道德決策的有效性[8],呼吁從家長監(jiān)管、教育矯正等責任角度來提升倫理自覺[9],強調(diào)從個體和類群體兩個層面制定應對措施[10],提出治理教育人工智能風險的責任倫理框架[11],從而突出了倫理策略研究的迫切性,也在一定程度上暴露出“倫理策略難以落地”的研究不足。不可否認,已有研究對倫理風險的多方位警覺,在凸顯了人工智能教育應用倫理研究必要性的同時,也昭示了相應倫理策略缺失所引發(fā)的惶恐不安。
眾所周知,并非所有與人工智能關(guān)涉的問題都是倫理問題。然而,學界明顯的“泛倫理化”研究特點——習慣于把所有困境都歸結(jié)為倫理問題、不對具體應用行為的倫理性加以識別與區(qū)分、忽視倫理辨識的重要性,在很大程度上模糊了倫理策略的針對性。甚至,有些研究對諸如人工智能操作失誤、智能技術(shù)本身有待更新等非倫理性問題也進行倫理分析并試圖提出倫理策略,迫使倫理研究陷于“無邊界”境地。于是 “倫理原則照搬難適應”等研究困境不斷出現(xiàn)。
事實上,辨識倫理問題、明確倫理目標,是形成倫理策略的必要前提。所謂倫理策略,就是為解決倫理問題而制定的行動方案集合。它的前提是遭遇倫理問題并能夠進行倫理分析,其目的在于明確倫理意圖并做出倫理行動。著名的雷斯特道德行為模型理論(Rest's Model of Moral Behavior)認為倫理決策的四個階段分別是倫理感知、倫理判斷、倫理意圖、倫理行為[12]。鑒于該模型的廣泛影響力及其對倫理策略形成的重要指導作用,本文據(jù)此構(gòu)建了人工智能教育應用倫理策略的形成過程,如圖1所示。
可見,人工智能教育應用之倫理策略的形成要經(jīng)歷四個過程:一是識別倫理問題,即在教育情境中辨別出人工智能應用行為所引發(fā)的倫理問題和非倫理問題,其關(guān)鍵在于盡可能地明確界定人工智能教育應用行為的倫理性;二是作出倫理判斷,即通過規(guī)范倫理學等理論維度對倫理問題進行分析,判斷人工智能應用行為是否合乎倫理規(guī)范,其重點是借助多種倫理分析框架對應用行為進行道德判斷;三是確認倫理意圖,即根據(jù)教育的育人目的和人工智能的功能意愿決定是否做出某種倫理行為,指向針對所依據(jù)的倫理目的或倫理原則而作出的行為選擇;四是實施倫理方案,即把前三步的分析結(jié)果,以合乎倫理規(guī)范的行為方式付諸實踐,從而解決倫理問題。
總之,教育領域人工智能應用所引發(fā)的問題,只有具備倫理性,才能稱之為倫理問題,進而才能對其進行倫理分析、尋求倫理策略。實際上,人工智能教育應用的倫理實踐發(fā)軔于教育主體的倫理認知[13]。只有教育主體認識到人工智能應用中的倫理問題并進行倫理判斷,才能開展倫理實踐。因此,要想有效應對人工智能教育應用引發(fā)的倫理風險并形成系統(tǒng)的倫理策略,識別倫理問題是第一要務,作出倫理判斷是關(guān)鍵環(huán)節(jié)。這兩步直接決定了倫理意圖與倫理行動方案的指向。
三、識別人工智能教育應用倫理問題的
基本原則
人工智能教育應用,歸根結(jié)底是一種技術(shù)應用行為,即技術(shù)應用主體操作技術(shù)客體的行為。這種行為具有教育情境性,其后果與一般意義上的人工智能應用相異,強調(diào)對教育中“人”的影響。一般地,從倫理學的角度,人類行為可以劃分為倫理行為和非倫理行為兩種類型[14]。根據(jù)行為是否關(guān)涉?zhèn)惱?,人工智能教育應用行為引發(fā)的問題可以分成兩大類:倫理問題和非倫理問題。根據(jù)“與倫理規(guī)范的合乎程度”,可以繼續(xù)把倫理問題細化為“合乎倫理規(guī)范的問題”和“不合乎倫理規(guī)范的問題”。而非倫理問題被排除在倫理分析之外,無需對其進行倫理策略建構(gòu),但為了強調(diào)與倫理問題的區(qū)別,仍可根據(jù)行為主體是否具有應用的主動意識,將其劃分為“有意識的非倫理問題”和“無意識的非倫理問題”。具體問題種類如圖2所示。
需要說明的是,倫理是道德的上位概念,個體的道德性和群體的倫理性均稱之為倫理性。倫理行為和非倫理行為的區(qū)別在于是否具有“倫理性”,即是否與倫理或道德關(guān)涉。所謂行為的“倫理性”是指行為受到一定的道德意識支配、主體自覺選擇并涉及他人或社會利益,具有善或惡的意義,具體表現(xiàn)為自知性、自愿性、社會性的特點[15]。而與此相對立的行為,缺少了道德意識的支配、不涉及他人或社會利益、不具有善或惡的意義,就是非倫理的。只有具有倫理性的行為,其引發(fā)的問題才是倫理問題。識別教育情境中人工智能教育應用帶來的問題是否具有倫理性,需要基于人工智能應用行為的自知性、自愿性、社會性三個基本原則進行判斷。
第一,自知性原則是指行為主體對行為本身具有自覺的道德意識,能夠意識到行為的本質(zhì)、意義、價值和影響。也就是說,只有自覺意識到個體同他人、群體、社會之間的利益和義務關(guān)系,支配并付諸行動,才能構(gòu)成倫理行為。例如,神志不清的教育者、無判別是非能力的學習者,在人工智能應用過程中即便在某些場合或某種程度上表現(xiàn)出有利或有害于他人、集體、社會的性質(zhì),但是此類行為不具有自知性的特點,故不屬于倫理行為。
第二,自愿性原則是指行為主體依據(jù)自己的自由意志對道德行為進行自主選擇。只有行為主體出于自愿,并依據(jù)必要的道德準則作出自主的行為選擇,才負有道德責任,屬于倫理行為。例如,在強制性要求或操作技能缺失的客觀條件下,教師或?qū)W生只能被迫或有限應用人工智能部分功能進行教學,即使付出最大努力,也無法達到理想的教學效果。此類行為的發(fā)生并非出自行為主體的自主自愿,不符合自愿性原則,因而屬于非倫理行為。
第三,社會性原則是指行為本身對他人、群體、社會產(chǎn)生影響并涉及利害或利益關(guān)系。事實上,一切無礙于利益的行為,都無所謂道德或不道德,即不具有倫理性,無法作出利害或善惡判斷。例如,教師使用人工智能的行為,如果處于教學情境之外,并未涉及學生、他人及社會的利益,就不具有道德價值,不屬于倫理行為;倘若超越了特定界限并進入教育情境,對教學活動產(chǎn)生影響,如促進或阻礙了學生的創(chuàng)造力發(fā)揮,增加或損害了師生利益,則變成了倫理行為。
通常,一種行為往往包含復雜的內(nèi)容,帶來倫理問題的同時,其他社會問題也會相伴產(chǎn)生。只要引發(fā)該問題的行為同時具備自知性、自愿性、社會性的特點,該問題就可以稱之為倫理問題。實際上,自知性原則是前提,自愿性原則是保障,社會性原則是基礎,不符合任何一個原則都難以準確厘定行為的倫理界限,也就不能認定其帶來的問題是否為倫理問題。
誠然,人工智能教育應用無法與技術(shù)操作、教育管理等問題割裂開來,而把所有問題都等同于倫理問題無疑是不妥當?shù)?。其實,倫理與非倫理的界限雖然是確定的,但并非絕對。某些行為在特定意義上為非倫理行為,在廣泛范圍內(nèi)往往又具有倫理意義[16]。正因如此,人工智能教育應用倫理問題才難以得到界定,導致學界出現(xiàn)“泛倫理化”的研究現(xiàn)象。所以,倫理辨識要審時度勢,一方面不能把倫理問題與非倫理問題混為一談,要堅決反對泛倫理主義;另一方面也要理性認識倫理問題與非倫理問題之間的聯(lián)系,從發(fā)展和辯證的角度把握非倫理問題轉(zhuǎn)化為倫理問題的必要條件。尤其是,如果行為主體處在“無意識”的被動使用人工智能的狀態(tài)下,其行為容易被技術(shù)控制,極易導致由“非倫理問題”轉(zhuǎn)化為“教育被人工智能異化”等不合乎倫理規(guī)范的問題。同時也要注意到,“有意識的非倫理問題”在一定條件下可以轉(zhuǎn)化為“合乎倫理規(guī)范問題”的現(xiàn)實意義。
總之,理性認識倫理與非倫理、合乎倫理規(guī)范與不合乎倫理規(guī)范、無意識非倫理與不合乎規(guī)范倫理三組概念的相對性,有助于提升人們的倫理鑒別力,從而避免在“非此即彼”“非善即惡”的二元論道路上愈陷愈深。從這個意義上講,人工智能引發(fā)的諸如師生關(guān)系異化、人文情感缺失、教學交往不足等具體教育問題,均可訴諸自知性、自愿性和社會性三個原則進行判斷,確認其是否屬于倫理問題以及能否進行倫理應對。唯有如此,倫理分析才有理可依、倫理方法才有據(jù)可循,倫理問題方能迎刃而解。另外,值得強調(diào)的是,在辨識過程中,還要注意非應用行為所引發(fā)的倫理問題,如人工智能對傳統(tǒng)倫理觀念的沖擊、對教育倫理關(guān)系的改變等,這些問題也屬于教育人工智能倫理研究的重要內(nèi)容,同樣值得深入探討。
四、判斷倫理問題是否合乎倫理規(guī)范的
主要方案
根據(jù)倫理策略形成過程,識別出人工智能教育應用中的倫理問題之后,就需要對其作出是否合乎倫理規(guī)范的判斷。規(guī)范體現(xiàn)的是一種社會關(guān)系特性,是指人們共同遵守的社會約定或標準,主要有公共生活規(guī)則、職業(yè)或技術(shù)規(guī)范、法律規(guī)范、倫理規(guī)范等[17]。倫理規(guī)范是用來判斷善與惡、正當與不正當、權(quán)利與義務等的道德準則。合乎倫理規(guī)范的行為就是正當?shù)膫惱硇袨椋赶蛏?;而不合乎倫理?guī)范的行為就是不正當?shù)膫惱硇袨?,指向惡。然而,這種善惡、應當與否的價值判斷,因行為主體所處立場以及實際問題復雜程度的不同,涉及的理論依據(jù)也是綜合的,需要從不同角度對行為的動機或目的,進行倫理原則、道德規(guī)范的綜合比對與分析。這就需要規(guī)范倫理學為此提供理論闡釋和方法指導。
規(guī)范倫理學是研究行為準則、探討道德規(guī)范的理論,旨在通過揭示善與惡、正當與不正當、應該與不應該之間的界限與標準,為社會成員指出通向道德完善的實踐之路[18]。這種理論類型致力于說明行為本身應該遵從的道德標準及合理性原則,因而能夠為人工智能教育應用的道德規(guī)范、倫理原則、責任體系、制度法規(guī)提供分析框架,有助于指導人們把人工智能的外在倫理規(guī)范和教育的內(nèi)在價值標準結(jié)合起來,以他律和自律相結(jié)合的形式,解決“規(guī)范與價值和諧共生”的難題。一般而言,依據(jù)不同的道德規(guī)范和問題解決的方法,規(guī)范倫理學有目的論、義務論和美德論三大理論陣營[19]。本文梳理了典型的規(guī)范倫理理論及其聯(lián)系(如圖3所示),進而為判斷人工智能教育應用倫理問題是否合乎倫理規(guī)范提供了三種方案。
第一種是目的論方案。目的論又稱為效果論,是以行為所實現(xiàn)的目的和結(jié)果作為評判道德善惡的依據(jù),具有感性主義的特點。目的論認為,如果行為的后果帶來的好處超過壞處(使受影響對象獲得最大益處),那么這種行為就是合乎倫理的行為。這種理論思路強調(diào)行為目的是為個體或群體帶來幸福和避免不幸福。它通過考察每一種行為的可能后果,找出能夠帶來總益處最大凈增加的方案,從而確認倫理意圖并實施倫理行為。例如,當教育的需要與人工智能應用目的之間存在沖突時,需要目的論提供一種可操作的程序,用最大利益原則對行為進行輕重緩急的排序,形成利益優(yōu)先級的方法,從而引導人們在教育活動或人工智能應用行為中作出選擇,保障受影響對象獲得最大益處。
第二種是義務論方案。義務論又稱為準則論,強調(diào)評判道德善惡的依據(jù)在于動機,在于行為本身是否出于義務、應當和責任,是否遵從一定的道德原則和規(guī)范,具有理性主義的特點。康德主義、規(guī)則功利主義、社會契約論都是基于規(guī)則的倫理理論,其中,康德主義主張道德是一種普遍化的絕對命令,規(guī)則是人的意愿和行動理由,應當把人作為互相平等的道德主體來尊重,人是目的而非工具;規(guī)則功利主義強調(diào)“每個人都始終應當確立和遵循會給一切相關(guān)者帶來最大好處的規(guī)則”[20];社會契約論認為“道德存在于規(guī)則之中,在大家都遵從這些規(guī)則的情況下,理性的人為了達到互惠互利的目的,也會接受這些規(guī)則”[21]。所以,該方案認為,只有遵循正當?shù)牡赖乱?guī)則的行為,才可以判定為合乎倫理的行為。
第三種是美德論方案。美德論又稱為德性論,是以人應該具備怎樣的品德以及如何完善道德修養(yǎng)等問題為中心,超越了行為的后果或動機,關(guān)注做人的標準,即“我應該成為什么樣的人”。該理論主張道德行為的依據(jù)在于建立良好的品格并依據(jù)品格去行事,強調(diào)的是人自身所具有的良好德行[22]。它能夠為個體提供道德的生活理念,培養(yǎng)個體的道德情感與道德人格,為道德教化提供理論指導[23]。可見,只要人工智能教育應用者具有良好的德性并在應用過程中體現(xiàn)出負責任、誠實、正直等美德,這種行為就是合乎倫理的行為。這種方案以良好品格為評判依據(jù),強調(diào)教育主體的誠實、公正、守信、仁慈等美好品行,從而從自律的角度來應對現(xiàn)有法律無明確規(guī)定而傳統(tǒng)道德又回答不了的問題。
事實上,規(guī)范倫理的目的論、義務論、美德論等理論都有其優(yōu)缺點。目的論注重對行為后果的分析,強調(diào)“好的效果”,卻可能忽略個體內(nèi)在的道德品質(zhì);義務論把是否履行了某種義務作為善惡的主要評價依據(jù),強調(diào)“做好事”,卻忽視了道德價值的客觀性;美德論注重德性或道德品質(zhì)的形成,強調(diào)“做好人”,卻難以實現(xiàn)對行為的具體明確的指導。它們各有所長,相互補充。目的論和義務論側(cè)重于道德規(guī)范及原則的制定,屬于他律策略;德性論則追求個體美德的形成,是自律的行為。因?qū)ν环N人工智能教育應用行為可以從不同的角度加以分析,所依據(jù)的理論框架也不同。所以,在進行倫理判斷時,應盡可能避免一種理論的局限,根據(jù)不同的情況,將目的論、義務論、美德論三種理論綜合起來,揚長避短,實現(xiàn)自律與他律的統(tǒng)一。比如,當強調(diào)人工智能應用行為的道德價值時,就需要目的論的辯護;當要維護人工智能與教育的和諧倫理秩序時,就需要義務論對行為進行明確具體的指導;當要塑造人工智能應用者的良好道德品質(zhì)時,則離不開美德論的支持。只有將規(guī)范與美德統(tǒng)一起來,才能促進人工智能教育應用按照道德生活的內(nèi)在必然性發(fā)展,實現(xiàn)技術(shù)與人文的統(tǒng)一,促進規(guī)范與價值的和諧共生。
五、人工智能教育應用倫理策略的形成
倫理問題經(jīng)過識別和判定之后,就需要根據(jù)教育目的和人工智能應用意愿進行倫理意圖的確認,為倫理行動的付諸實踐作好鋪墊。為詳細闡述識別與判定人工智能教育應用倫理問題的過程與方法,本文以智能教學系統(tǒng)應用中的“算法濫用現(xiàn)象”為例,分析其倫理策略的形成。
首先,識別倫理問題。教師、學生在應用該智能系統(tǒng)時,都具備自知性、自愿性和社會性的特點,因而該教學智能體被應用所引發(fā)的問題屬于倫理問題。由于此類應用行為存在“對所有學生行為的全面監(jiān)控”等倫理失范現(xiàn)象,是典型的算法濫用,不符合我國《新一代人工智能倫理規(guī)范》中的提倡善意使用、避免誤用濫用、禁止違規(guī)惡用、及時主動反饋、提高使用能力等倫理要求[24],是不合乎倫理規(guī)范的問題。
其次,選擇倫理方案。為決定該行為的倫理意圖,明確倫理目標,需要從多種倫理視角進行分析,盡可能達成共識并提出適當?shù)男袨榉桨?,從他律和自律相結(jié)合的角度,把效果、準則與德性融合在一起,以促成倫理策略的最終形成。具體而言:(1)在明確人工智能教育應用倫理問題基礎上,識別行為主體與利益相關(guān)者的關(guān)系,即該智能系統(tǒng)應用所涉及的學校管理者、教師、學生、家長等多方利益;(2)判斷倫理問題的正當性:是否公平、有效、健康、規(guī)范地應用,即檢驗該智能系統(tǒng)應用在多大程度上與教育教學等相關(guān)倫理原則相一致,避免泛倫理化;(3)從目的論、義務論和美德論的角度分析倫理問題的效益性、規(guī)范性和品德性,最終確定以義務論方案為主,以目的論和美德論方案為輔,強調(diào)倫理策略對原則、規(guī)范的遵守和對責任、義務的擔當;(4)將倫理解釋與教育規(guī)范、人工智能規(guī)范進行比對,對倫理目標進行優(yōu)先級排序,確定以保證師生教與學的自主權(quán)為基本倫理意圖;(5)選定倫理方案,即從義務論的角度出發(fā),嚴格遵循《新一代人工智能倫理規(guī)范》基本原則和使用規(guī)范,認真履行教育倫理規(guī)范,積極承擔育人的責任,從而形成倫理策略并執(zhí)行。
可見,在人工智能深度應用必然擴展教育倫理之約束邊界的背景下,只有把教育倫理規(guī)范和人工智能倫理規(guī)范共同放置于倫理問題解決的實踐中,才能確保人工智能教育應用在教育倫理規(guī)范和人工智能倫理規(guī)范的共同約束中發(fā)揮效力并承擔育人職責。需要說明的是,本文無意區(qū)分多種倫理理論的異同,僅從倫理策略形成的一隅嘗試對人工智能教育應用領域的一般倫理問題進行理論分析,以期引起更廣泛討論。
[參考文獻]
[1] 張立國,劉曉琳,常家碩.人工智能教育倫理問題及其規(guī)約[J].電化教育研究,2021,42(8):5-11.
[2] 杜靜,黃榮懷,李政璇,周偉,田陽.智能教育時代下人工智能倫理的內(nèi)涵與建構(gòu)原則[J].電化教育研究,2019,40(7):21-29.
[3] 王嘉毅,魯子簫.規(guī)避倫理風險:智能時代教育回歸原點的中國智慧[J].教育研究,2020,41(2):47-60.
[4] 鄧國民,李梅.教育人工智能倫理問題與倫理原則探討[J].電化教育研究,2020,41(6):39-45.
[5] 王東,張振.人工智能倫理風險的鏡像、透視及其規(guī)避[J].倫理學研究,2021(1):109-115.
[6] 莫宏偉.強人工智能與弱人工智能的倫理問題思考[J].科學與社會,2018,8(1):14-24.
[7] 蔡連玉,韓倩倩.人工智能與教育的融合研究:一種綱領性探索[J].電化教育研究,2018,39(10):27-32.
[8] HAGENDORFF T. The ethics of AI ethics:an evaluation of guidelines[J]. Minds and machines,2020,30(1):99-120.
[9] 王前,曹昕怡.人工智能應用中的五種隱性倫理責任[J].自然辯證法研究,2021,37(7):39-45.
[10] 李梅敬.理論層次視域下人工智能發(fā)展風險的倫理應對[J].探索與爭鳴,2021(8):167-176,180.
[11] 趙磊磊,吳小凡,趙可云.責任倫理:教育人工智能風險治理的時代訴求[J].電化教育研究,2022,43(6):32-38.
[12] 吳紅梅,劉洪.西方倫理決策研究述評[J].外國經(jīng)濟與管理,2006(12):48-55.
[13] 李曉巖,張家年,王丹.人工智能教育應用倫理研究論綱[J].開放教育研究,2021,27(3):29-36.
[14] 徐少錦,溫克勤.倫理百科辭典[M].北京:中國廣播電視出版社,1999:441.
[15] 王敬華.新編倫理學簡明教程[M].南京:東南大學出版社,2012:238-239.
[16] 郭廣銀.倫理學原理[M].南京:南京大學出版社,1995:310.
[17] 廖申白.倫理學概論[M].北京:北京師范大學出版社,2009:18.
[18] 余仕麟.倫理學要義[M].成都:巴蜀書社,2010:24.
[19] 高湘澤.一種可能作為比較純正的規(guī)范倫理的原義“責任倫理”綱要[M].武漢:武漢大學出版社,2015:33.
[20] 雅克·蒂洛,基思·克拉斯曼. 倫理學與生活[M].程立顯,劉建,譯.成都:四川人民出版社,2020:44.
[21] 邁克爾J.奎因.互聯(lián)網(wǎng)倫理:信息時代的道德重構(gòu)[M].王益民,譯.6版.北京:電子工業(yè)出版社,2016:51-62.
[22] 徐陶.當代哲學導論[M].長沙:湖南大學出版社,2014:57.
[23] 趙永剛.美德倫理學:作為一種道德類型的獨立性[M].長沙:湖南師范大學出版社, 2011:216.
[24] 中華人民共和國科學技術(shù)部.《新一代人工智能倫理規(guī)范》發(fā)布[EB/OL]. [2021-10-12]. http://www.most.gov.cn/kjbgz/202109/t2021 0926_177063.html.
How to Identify and Determine Ethical Issues in Educational Application of Artificial Intelligence —Based on Formation of Ethical Strategies
XIE Juan
(School of Education and Psychology, University of Jinan, Ji'nan Shandong 250022)
[Abstract] Ethical issues are inevitable in educational application of artificial intelligence. How to identify and deal with them now is a hot topic, which plays a significant ethical guiding role in the integration and innovation of artificial intelligence and education. Most of existing researches focus on the early warning of ethical risks, and neglect the identification and judgment of ethical issues to a certain extent, thus exposing the trend of pan-ethicalization and making it difficult to form a systematic ethical strategy. In fact, only by distinguishing the ethical attributes of the application behavior, classifying guidance of ethical judgment, and by making various attempts in different ethical analysis frameworks, can appropriate ethical intentions be determined and feasible ethical schemes be formed. So this paper firstly puts forward a general method of identifying the ethical issues based on the three basic principles of self-knowledge, voluntariness and sociality, and then determines the basis of judging whether the ethical issues conform to ethical norms based on the normative ethical theories such as teleology, obligation theory and virtue. By explaining the formation process of the ethical strategies, it provides a theoretical basis and a practical path to actively respond to the practical dilemmas such as "weak awareness of identifying ethical issues" and "difficulty in copying ethical principles".
[Keywords] Educational Application of Artificial Intelligence; Ethical Issues; Ethical Identification; Ethical Judgment; Ethical Strategy