亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        超越“共識”:教育人工智能倫理原則構建的發(fā)展方向

        2023-06-21 16:19:21白鈞溢于偉
        中國電化教育 2023年6期
        關鍵詞:發(fā)展方向共識

        白鈞溢 于偉

        摘要:受各國人工智能發(fā)展規(guī)劃影響,教育人工智能倫理原則研究起步晚于其他領域,塑造了其參照已有原則“共識”的構建取向。目前,對“共識”的反思及對教育領域個性要素的探尋逐漸受到研究者關注,超越“共識”成為教育人工智能倫理原則構建的發(fā)展趨勢?!肮沧R”暗含的“非共識”要素是制約教育人工智能倫理原則實踐效果的根本原因,包括國別間的歷史與文化差異,領域間的結構與指向差異,應用間的內容與對象差異,自身間的概念與關系差異。超越“共識”實際上便是在已有研究的基礎上彌合“非共識”要素。更直接的說,就是承認教育人工智能倫理原則的有限性,即價值匹配的有限性、領域作用的有限性、指導時效的有限性,從而在構建教育人工智能倫理原則時堅持本土立場,明確目的導向,保持持續(xù)開放。

        關鍵詞:教育人工智能;倫理原則;超越共識;發(fā)展方向

        中圖分類號:G434 文獻標識碼:A

        本文系2022吉林省社會科學基金項目“中國‘Z世代亞文化圈層語言的區(qū)隔性研究”(項目編號:2022C78)、2022東北師范大學教師教育“揭榜領題”一般項目“教師‘社會與情感能力的國際框架與本土轉化研究”(項目編號:JSJY20220302)研究成果。

        人類社會與人工智能技術的協(xié)作目前仍處于試錯、糾錯的探索階段[1]。隨著人工智能技術在教育領域的廣泛應用,算法歧視、學生發(fā)展同質化、隱私和安全隱患等倫理問題不斷顯現(xiàn),消解倫理風險,實現(xiàn)技術向善已成為全球教育領域面臨的共同挑戰(zhàn)?!叭斯ぶ悄軅惱怼北徽J為是尋求可信賴人工智能的重要組成部分[2]。近年來,政府、國際組織與學界不斷開展教育人工智能倫理研究,提出諸多倫理原則框架①,以期明晰教育領域人工智能應用的合理邊界與正確做法。然而,現(xiàn)有的教育人工智能倫理原則框架大多來自對其他領域人工智能倫理原則“共識”的梳理與提取,這在當前面臨著廣泛而尖銳的批評。越來越多的學者與研究指出,教育人工智能的倫理原則必須指向教育的個性要素,基于“共識”的倫理框架既不能明晰教育人工智能的應用邊界,更無法影響教育人工智能的應用實踐。在這一背景下,明晰基于“共識”的教育人工智能倫理原則研究樣態(tài),揭示“共識”隱含的“非共識”要素,探討超越“共識”的優(yōu)化路徑對于教育人工智能倫理原則的未來構建十分必要。

        一、基于“共識”的教育人工智能倫理原則研究樣態(tài)

        教育人工智能倫理原則研究對“共識”的偏好有其特殊的形成背景。受各國人工智能發(fā)展規(guī)劃影響,教育人工智能倫理原則構建起步晚于其他領域,塑造了其參照“共識”的構建取向,表現(xiàn)為以已有倫理原則為依據(jù)、側重宏觀原則構建、所構建的原則與其他領域高度相似。但隨著人工智能教育應用及其倫理研究的不斷深入,對“共識”的反思與超越開始得到教育研究者的關注,成為倫理原則構建的發(fā)展趨勢。

        (一)面臨“共識”的后發(fā)背景

        國家人工智能發(fā)展規(guī)劃是人工智能倫理原則構建的直接推動力。2016年起,隨著人工智能技術的社會變革引領作用愈發(fā)突出,很多國家都發(fā)布了國家層面的人工智能發(fā)展規(guī)劃且絕大多數(shù)規(guī)劃文件都明確強調要重視對人工智能倫理風險的防范與治理[3]。國家層面的治理需要對人工智能倫理原則構建的推動力體現(xiàn)在三個方面。一是促成如歐盟委員會人工智能高級專家組、新加坡人工智能和數(shù)據(jù)的道德使用咨詢委員會及英國上議院人工智能專責委員會等特設專家委員會建立;二是獲得如電氣與電子工程師協(xié)會(IEEE)、美國計算機協(xié)會(ACM)及聯(lián)合國教科文組織(UNESCO)等專業(yè)協(xié)會與非盈利組織響應;三是得到如思愛普、谷歌等產業(yè)界關注。從結果上看,自2014年來,人工智能倫理相關的出版物與之前相比增加了五倍,其中近七成文獻發(fā)表于發(fā)展規(guī)劃集中出臺的2017—2019年[4]。

        然而,國家人工智能發(fā)展規(guī)劃卻“意外地”制約了教育領域人工智能倫理原則的探索。不同于其他領域人工智能倫理原則研究在2017—2019年的快速發(fā)展,直至2019年,與教育人工智能倫理相關的原則、政策、法規(guī)研究幾乎處于空白[5]。人工智能發(fā)展規(guī)劃對教育的“工具性定位”是造成這一情況的直接原因。雖然絕大多數(shù)國家在發(fā)展規(guī)劃中為教育設置了專門章節(jié)或給予極大關注,但由于教育人工智能具有“雙重角色”①身份,加之各發(fā)展規(guī)劃遵循的是促進社會經(jīng)濟轉型與增長、提高國際競爭力的發(fā)展邏輯,人工智能的教育應用主題極少受到關注,取而代之的是,規(guī)劃制定者將教育視為一種戰(zhàn)略性工具,旨在通過教育實現(xiàn)培養(yǎng)人工智能專家、培訓人工智能相關產業(yè)勞動力、提升公民人工智能素養(yǎng)等社會發(fā)展目標。這種對教育價值的片面強調限制了通過人工智能技術促進教育變革的想象力,進而影響了對其倫理問題的關注與前瞻。

        與此同時,先發(fā)的諸領域人工智能倫理原則框架雖然在學科與影響力上存在差異,但在原則的選擇方面已走向趨同[6]。人工智能倫理原則的趨同樣態(tài)可見于與之相關的元分析統(tǒng)計。當前影響力較大的人工智能倫理原則元分析分為兩類,一類側重梳理權威機構發(fā)布的倫理框架,如哈佛大學伯克曼·克萊因互聯(lián)網(wǎng)與社會研究中心的《有原則的人工智能:在基于倫理與權利下達成共識》[7]、南里奧格蘭德天主教大學人工智能機器人倫理學會的《全球人工智能倫理:治理指南和建議回顧》[8]。另一類側重對倫理框架進行跨學科、跨主體的系統(tǒng)分析,如蘇黎世聯(lián)邦理工學院倫理與政策實驗室的《人工智能:道德準則的全球格局》[9]及奧盧大學可汗(Khan)等人的《人工智能倫理:原則和挑戰(zhàn)的系統(tǒng)綜述》[10]。由上述四份元分析(如表1所示)可知,隱私、責任與問責制、安全、透明度與可解釋性、公平、以人為本、可持續(xù)性原則出現(xiàn)在絕大多數(shù)框架中,它們已成為不同時期、不同領域、不同級別人工智能倫理框架的“共識性”原則。國家人工智能發(fā)展規(guī)劃與其他領域倫理原則的研究現(xiàn)狀塑造了教育領域面臨“共識”的后發(fā)背景,這一情況深深影響了教育人工智能倫理原則的構建。

        (一)國別間“非共識”:歷史與文化差異

        當前人工智能倫理研究再現(xiàn)了全球經(jīng)濟與政治的權力分布,以北美與西歐為代表的發(fā)達國家主導了人工智能倫理原則的構建[18]。因而,所形成的“共識”更多反映的是發(fā)達國家群體的集體意志。如果原則、指南或實踐不包括來自亞洲、非洲或拉丁美洲的任何倫理觀點、社區(qū)參與或社會和歷史背景,它們就無法作為“全球性共識”廣泛指導人工智能倫理實踐[19]。但問題是,廣泛認可的共識背后必然掩蓋了國家間歷史與文化的差異,使得所構建的原則清單只能流于美好但無法落實的宏觀層面。

        任何人工智能倫理框架都是個性化的框架,因為其提出植根于特定的歷史與文化背景。例如,歐盟的人工智能倫理框架很大程度上是基于《歐盟基本權利憲章》(Charter of Fundamental Rights of the European Union)乃至《歐洲人權公約》(European Convention on Human Rights),它們影響了對歐洲政府與其公民之間關系的定義,并將“可解釋性”作為與人工智能相關的新元素[20]。然而,這類人權宣言和公約的內容選擇與提出有其特殊的歷史背景,它們植根于二戰(zhàn)的經(jīng)歷,其中的諸多規(guī)定與言論可以理解為戰(zhàn)后對不應再發(fā)生的事情的聲明,這使得其及受其影響下的人工智能倫理原則框架帶有對種族、性別、宗教、族裔血統(tǒng)以及性取向等特定歷史文化主題的關注,較難推廣至有著不同歷史及文化的地區(qū)①。此外,由于這些宣言主要強調政府與公民間的關系,使得據(jù)此所構建的人工智能倫理原則既帶有較強的價值傾向②,也未能涵蓋所有重要的倫理議題。

        即使忽略歐盟人工智能倫理框架關注主題與涉及范圍的本土性,直接將其借鑒或套用到教育領域是也有問題的?!稓W盟基本權利憲章》與《歐洲人權公約》對參與國具有法律約束力,它們表達了共同的價值觀,但在其影響下,道德問題很容易變成遵守現(xiàn)有法律的問題[21]。一個突出的例子是歐洲通用數(shù)據(jù)保護條例(GDPR),該條例在法律和實踐方面定義了隱私和身份在歐洲地區(qū)的含義。而這種影響同樣體現(xiàn)在人工智能倫理框架中,進而存在道德泛法律化風險。誠然,在教育領域,法律固然重要,但教師、學生和其他教育人工智能利益相關者之間是復雜的人際關系,法律僅能提供一般性約束,這也是為什么需要超越現(xiàn)有規(guī)則和條例以尋求倫理性指導。

        (二)領域間“非共識”:結構與指向差異

        從發(fā)展歷程來看,不同領域的人工智能倫理研究似乎在走向趨同:提出類似的倫理原則,識別類似的倫理問題,得出類似的解決方案[22]。這在某種意義上構成了參照其他領域“共識”的可行性支撐。但是,參照“共識”構建教育人工智能倫理原則的一個方法論挑戰(zhàn)是,對“共識”的提煉基于的是各原則名稱或其表述句法的相似性,而同一原則在不同領域很可能有著不同的側重、關聯(lián)與內涵[23]。這意味著通過比較與歸納構建的教育人工智能倫理原則可能忽略了教育自身的核心目標、邏輯結構與研究旨趣。

        首先,不同領域關注的倫理原則有所側重。例如,“善意”與“非惡意”在醫(yī)學領域被不成比例地提及,而在法律領域,關注最多的則是“正義”與“問責制”?!半[私”在法律和醫(yī)學領域被視作一項重要的倫理原則,但在科學、工程和商業(yè)領域卻鮮有提及?!巴该鞫取敝饕獮樯婕八惴ㄅc設計的科學與工程領域所強調,其他學科則較少關注重這一點。同時,如牛津大學杰西卡·莫莉(Jessica Morley)等人所言,即使某一領域包含了較為全面的倫理原則,這些原則也并非同等重要,如在國家安全系統(tǒng)中,非惡意遠比可解釋性重要的多[24]。

        其次,同一原則在不同領域中存在特定的關聯(lián)。例如,在法律領域,“正義”通常居于核心位置,與其它原則廣泛關聯(lián)(稱之為“正義關聯(lián)”,Justice Relevance),但醫(yī)學、商業(yè)和營銷領域則僅將其與“自治”結合使用。在醫(yī)學領域,“可解釋性”被視為醫(yī)學人工智能倫理區(qū)別于傳統(tǒng)醫(yī)學倫理的關鍵原則,并主張應將“可解釋性”廣泛融入自主、仁慈、非惡意和正義這一醫(yī)學倫理學經(jīng)典四原則中[25]。在科學與工程領域,“公平”“問責制”與“透明度”往往同時出現(xiàn),但在其他領域則并非如此。

        最后,同一原則在不同的領域及倫理框架中存在指向差異。例如,“透明度”在《可信賴的人工智能倫理準則》中關注“數(shù)據(jù)、系統(tǒng)及商業(yè)模式”,而在聯(lián)合國教科文組織關于人工智能倫理的建議初稿中,強調的則是“清晰的責任與問責措施”[26]?!耙匀藶楸尽钡摹叭恕痹凇敦撠熑蔚臄?shù)據(jù)(第1卷)》中指代“人類”,而在《人工智能的日常倫理》中則將范圍縮小至“用戶”[27]。“問責制”在不同的框架中存在對設計(人工智能部署前)、監(jiān)控(人工智能部署期間)及補救(傷害發(fā)生后)等特定階段的關注偏向[28]。

        (三)應用間“非共識”:內容與對象差異

        即使是在同一領域,人工智能倫理原則的構建與應用也存在著極大的差異。如在教育領域,當前的一個共識是,“教育人工智能開發(fā)和使用引發(fā)的倫理風險是往往是特定于環(huán)境的”[29]。這意味著雖然教育人工智能倫理原則旨在應對、規(guī)避人工智能技術在教育領域應用造成的倫理風險,但由于涉及用途不同、目標群體各異,這一愿景很難通過一套共識性倫理原則框架實現(xiàn)。

        共識性倫理框架難以實現(xiàn)一方面是由于人工智能在教育中的應用具有多樣性。就底層模型而言,教育人工智能大體分為數(shù)據(jù)驅動的人工智能、基于知識或符號的人工智能、混合人工智能三類,但如果就應用而言,對其的劃分則要復雜的多。目前影響力較大的教育人工智能分類法由倫敦大學學院韋恩·霍姆斯(Wayne Holmes)于2019年提出[30]并在2022年進行改進[31]。該分類從學生、教師、機構三個維度出發(fā)對現(xiàn)有教育人工智能應用進行歸類并從構思(*)、研究(**)、可商用(***)三個層次評估了各應用的發(fā)展水平(如表2所示)。由分類表可見,雖然它們都屬于教育領域,但發(fā)展前景、目的和運作方式卻大不相同:它們并非都具有相同水平的(經(jīng)過驗證的)有效性;它們并非都收集相同數(shù)量或類型的數(shù)據(jù),它們對學生或教師的生活的侵入程度也不盡相同,并且并非所有的教育人工智能應用都會引起特別的倫理問題[32]。更為重要的是,使用不同類別的人工智能應用通常意味著不同的哲學和教育觀念[33],這反過來又會強化各應用環(huán)境的特殊性。

        共識性倫理框架難以實現(xiàn)另一方面是由于人工智能應用所影響的教育群體具有多樣性。教育人工智能的倫理研究是一個貫穿開發(fā)、使用、評估、改進的連續(xù)過程,涉及教育技術產品開發(fā)者、教師、學生、教育技術專家、管理領導者等多個利益相關者。他們有著不同的分工與特征,不能在倫理方面劃為一談。另外,即使是同一類利益相關者,在不同的背景下也有著不同的特征。例如,學生間存在不同的性別、年齡及家庭環(huán)境,在構建教育人工智能倫理原則時,需要將學段、文化背景等方面納入考量,不能簡單地歸為“學生”進行理解。

        (四)自身間“非共識”:概念與關系差異

        即使拋開各人工智能倫理原則框架的國別、領域、應用差異不論,僅在單個框架內,原則之間乃至原則自身也存在著明顯的緊張關系,表現(xiàn)為原則概念與原則關系的差異。其中,概念的差異直接制約了人工智能倫理原則的可操作性,關系的差異則對倫理目標的整體實現(xiàn)提出了挑戰(zhàn)。

        人工智能倫理原則的概念差異表現(xiàn)為原則自身的模棱兩可。當前人工智能倫理研究大多塑造了“模糊的、高層次的原則和價值陳述,這些原則和價值陳述試圖指導行動,但在實踐中幾乎沒有提供具體的建議,也未能解決嵌入關鍵概念中的基本規(guī)范”[34]。正義、福祉、非惡意、自主和可解釋性等“共識原則”為人工智能實踐勾勒了宏大且美好的理想圖景。但當追問它們的具體含義時,困難便出現(xiàn)了。例如,人工智能倫理中的“正義”原則通常并沒有說明什么是正義或不正義,而是讓行為人自己決定[35]。又如,“福祉”在教育框架中被頻繁提及,它們均認為“人工智能要在教育中發(fā)揮作用,其設計始終要以和諧友好與共建人類命運共同體為核心”。但這一界定同樣缺少了對“福祉”的明確解讀。福祉包含哪些方面,需要考慮哪些群體的福祉,不同群體的福祉是否存在沖突?從某種意義上說,當前的“福祉”可以用來指代所需要的任何意思。原則中心術語的模棱兩可掩蓋了概念的復雜性和不同人群的解釋差異與道德分歧,必然會使其成為一個無法實現(xiàn)的空談。

        人工智能倫理原則的關系差異表現(xiàn)為原則之間的互相矛盾。共識性倫理框架的原則設置乍一看似乎很合理,因為它們各自對應了人工智能特定的問題領域。然而,當前研究很少討論的一個話題是,這些框架中的許多原則間相互緊張甚至相互矛盾:公平必然以個性化與準確性為代價,隱私會限制服務質量與效率,透明度會威脅安全與隱私等[36]。一個更為具體的例子是,英國上議院人工智能委員會(Artificial Intelligence Committee)在《英國人工智能發(fā)展的計劃、能力與志向》報告中指出,“部署任何可能對個人生活造成潛在影響的人工智能系統(tǒng)是不可接受的,除非它能對自己將要作出的決定提供充分且令人滿意的解釋”。這一表述固然重要,但它制造了“福祉”與“可解釋性”的緊張關系,限制了人工智能變革社會的積極作用①。實際上,“可解釋性”應服務于“福祉”并保持一定的靈活性,在某些情況下,只要使用算法的好處足夠大,準確性足夠可靠,其便是值得使用的,即使可能無法對其決策作出全面解釋[37]。

        三、超越“共識”的教育人工智能倫理原則構建旨歸

        倫理原則國別間、領域間、應用間、自身間“非共識”的存在使得基于“共識”構建出的教育人工智能倫理原則無論是在自身可靠性方面,還是在實踐指導力方面,都面臨著極大的挑戰(zhàn)。超越“共識”實際上便是在已有研究的基礎上彌合“非共識”要素。更直接的說,就是承認教育人工智能倫理原則的有限性,即價值匹配的有限性、領域作用的有限性、指導時效的有限性,進而構建符合國情、目標明確、立足當下、面向未來的教育人工智能倫理原則。

        (一)價值匹配的有限性:堅持原則構建的本土立場

        堅持本土立場是構建教育人工智能倫理原則的根本方向。《關于加強科技倫理治理的意見》強調,“必須立足我國科技發(fā)展的歷史階段及社會文化特點,遵循科技創(chuàng)新規(guī)律,建立健全符合我國國情的科技倫理體系”[38]。在構建教育人工智能倫理原則中體現(xiàn)本土立場,必須正確認識技術、倫理以及二者之間的關系。

        首先,要正確認識教育人工智能技術的本土性。任何技術都具有價值偏向性,“它承載著一定的價值內涵并因此構成我們難以擺脫和改變的社會環(huán)境和生活方式”[39]。也就是說,技術產品同時也是政治產品,因為它反映了特定的文化、社會和政治動態(tài)。其中,技術的每一個設計選擇都是由具有自己文化背景的設計者做出的決定,并伴隨他們有意識或無意識的偏見[40]。即使是最簡單的教育人工智能應用,因為其依靠算法、編程、訓練,所以也會包含價值導向。因此,教育人工智能倫理原則的構建應打破工具理論思維,警惕算法殖民主義,并揭示技術部署背后的權力關系,將價值審視延伸至教育人工智能設計、運轉、應用、評價的全過程。

        其次,要正確認識教育人工智能倫理的本土性。教育人工智能應用的“價值有涉”必然意味著其倫理原則同樣具有特定的文化與價值特征。在對技術倫理的分析中考慮文化價值的必要性早已得到認可??缥幕夹g倫理學的研究已經(jīng)證明了技術、文化和倫理價值之間的相互作用[41]。它們證實了在評估信息技術的倫理這一問題上存在著來自不同文化的截然不同但同樣合理的價值體系[42]。正如哈貝馬斯(Habermas)在話語倫理學中所論證的那樣,辯護不必基于普遍認同的價值陳述,而在于采用價值的連貫性[43]。因此,教育人工智能倫理原則構建必須依照我國的文化背景與價值觀,在把握國際研究進展的同時進行本土轉化,做到原則選擇回應我國的教育問題、內涵話語體現(xiàn)我國的教育立場。

        最后,要正確認識倫理與技術的關系。教育人工智能倫理原則構建的本土化是全原則、全內涵的本土化,要警惕倫理問題的技術解決傾向。當前國際人工智能倫理原則研究在一定程度上出現(xiàn)了技術優(yōu)化代替價值判斷的傾向,可解釋性、隱私、安全、公平相較于其他原則得到了更多的討論,因為這些原則似乎能夠得到“技術解決”。例如,可解釋性可以通過簡化模型(Simplified Model)實現(xiàn)[44];隱私可以通過差別隱私(Differential Privacy)保障[45];安全可以通過紅隊測試練習(Red Teaming Exercises)加強[46]。但教育人工智能倫理原則的構建不能僅尋求數(shù)據(jù)或算法這種技術層面的解決,因為雖然技術參考的量化指標可以使用具有明確目標狀態(tài)和理想化的條件來量化倫理原則,但指標本身是“被選擇的”①,選擇一種價值就是對其他價值的否定,因此所有的價值選擇都需要理由。教育人工智能的各項倫理原則均應與我國的教育價值取向相契合。

        (二)領域作用的有限性:明確原則構建的目的導向

        明確目的導向是構建教育人工智能倫理原則的前提要求。教育人工智能在借鑒“共識”時面臨的諸多“非共識”沖突,如前文提到的結構與指向差異、內容與對象差異、概念與關系差異,很大程度上是由于原則構建目的不明導致的。當前研究對原則構建具有的意義強調頗多,但對原則構建指向的目的探討甚少?!耙?guī)避倫理風險,實現(xiàn)技術向善”這一目標固然重要,但還遠遠不夠。未來,需要進一步明確教育人工智能倫理原則構建的目的與教育人工智能應用的目的。

        表層來看,需要明確教育人工智能倫理原則的構建目的,即框架目的。一是要明確原則旨在影響的對象與應用。教育人工智能應用涉及技術開發(fā)人員和提供者、教育研究人員、教育工作者、管理人員、學生,以及政策制定者、家長和公眾等多種利益相關者。這種應用及其利益相關者的多樣性必然會推動對共同價值觀和規(guī)范的追求向高抽象層次發(fā)展,導致原則內容成為難以實現(xiàn)的空談。未來教育人工智能倫理原則構建可能有兩種取向,一種是構建應用與利益相關者指向明確的針對性框架。另一種是內容能夠調整的整體性框架,當它面對不同的教育人工智能應用場景時,能夠通過對自身內涵的調整而變得繼續(xù)適用;二是要明確原則旨在發(fā)揮作用的程度。當前教育人工智能倫理原則就其性質而言是普遍且宏大的,它們的價值在于它們表明了適用于教育領域的重要道德主題與愿景。這意味著它們可以作為在教育場景中需要考慮的一組事項清單。然而,原則的普遍與宏大也限制了它們指導實際行動的能力,甚至會由于各原則要求過高導致原則間互相沖突。如果不承認這些沖突,原則標準可能會被設定的不切實際的高,或者旨在踐行一種原則的行為可能會在無意中損害其他重要目標。這意味著各倫理原則的實用價值是有限的,因此每一項倫理原則都應是“有限原則”,對其內涵的說明或追求都是和其他原則不斷妥協(xié)的結果,只有范圍更窄、更具體的原則才可能在實踐中發(fā)揮作用。

        深層來看,需要審視教育人工智能技術的應用目的,即教育目的。如果沒有明確清晰的教育目的,在教育中尋找“人工智能倫理”將是徒勞的。重要的倫理原則,例如“福祉”,需要對什么是“利益”或“進步”有明確的理解。在教育人工智能倫理原則的構建中,只有我們清楚地了解教育的目的時,才能解釋這些術語及術語組成的框架結構與指向。當前對教育人工智能應用目的的認識可能是不足的。目前,諸多教育人工智能系統(tǒng)以布魯姆(Bloom)“精通學習”教學策略為起點或受其影響,它支撐了人們普遍認為人工智能在個性化教學中具有巨大潛力的信念[47]。精通學習教學策略在數(shù)學與科學領域特別有影響力,許多領先的教育人工智能系統(tǒng)已廣泛建立了特定領域的知識模型、學習材料與知識掌握測試[48]。但是,將知識掌握視作教育人工智能的應用目的可能是有局限的。比斯塔(Biesta)認為,教育的目的不能被學習的目的(尤其是知識學習的目的)取代,教育的目的至少包括資質(Qualification)、社會化(Socialization)、主體化(Subjectification)三個方面②[49]。也就是說,教育不僅僅是為了測試或積累知識而進行教學,教育人工智能傳統(tǒng)上對認知能力的關注對于指導倫理原則構建來說可能過于狹窄乃至影響對問題識別、原則選擇、內涵闡發(fā)的把握。

        (三)指導時效的有限性:保持原則構建的持續(xù)開放

        保持持續(xù)開放是構建教育人工智能倫理原則的應有追尋。如果說領域作用的有限性強調的是教育人工智能倫理原則如何面對當下,那么指導時效的有限性討論的則是教育人工智能倫理原則如何面對未來。關于技術的社會和歷史研究指出,技術的未來用途與可能后果很難精準預測。教育人工智能倫理原則的構建需要關注未來,通過持續(xù)開放回應教育人工智能領域的“科林里奇困境”(The Colling Ridges Dilemma)與“步調問題”(The Pacing Problem)。

        首先是原則內涵的持續(xù)開放,即如何回應科林里奇困境??屏掷锲胬Ь呈侵讣夹g的邏輯可塑性導致其在與社會的融合過程中充滿不確定性,這意味著對教育人工智能的倫理評估與控制總是有限的、被動的,必須保持對個性化、復雜性倫理問題的關注與分析。正如布倫特(Brent)所言,“倫理原則構建的真正風險在于復雜、困難的倫理辯論被過度簡化,以使手頭的概念能夠以簡單但淺薄的方式進行計算和實施”[50]。因此,倫理原則的內涵需要保持一定的開放性,即能夠對已有原則優(yōu)化重構或增加新的原則,以適應教育人工智能實踐的不斷發(fā)展及在發(fā)展過程中可能出現(xiàn)的新的風險。這意味著原則構建應當成為一個過程,而不只是提出一套以內容為導向的倫理清單。

        其次是原則預測的持續(xù)開放,即如何回應步調問題。步調問題是指當前教育人工智能技術的創(chuàng)新速度遠遠超過了法律、倫理規(guī)范和管理條例的更新速度,塑造了科學技術發(fā)展與道德規(guī)范發(fā)展之間的差距。如上所述,盡管當前教育人工智能倫理原則研究存在諸多爭議,但在原則構建的目的上已基本達成一致,即“教育人工智能倫理原則旨在應對、規(guī)避人工智能技術中教育領域應用的倫理風險,實現(xiàn)技術向善”。這一構建目的暗含兩個前提假設:一是倫理原則是能夠“確定”的;二是倫理原則能夠逐一對應教育實踐產生的倫理風險。但正如步調問題所表明的那樣,人類倫理常常是滯后先于前瞻,“事后諸葛亮”式的教訓遠多于“未卜先知”式的智慧,對倫理問題的預見必定存在疏漏。因此,教育人工智能倫理原則的構建需要堅持滯后與前瞻的統(tǒng)一,在指向現(xiàn)實問題的同時,也要把握教育人工智能技術的發(fā)展趨勢,提供預見性倫理原則。

        四、結語

        教育人工智能倫理原則構建是一個正在生成的領域,目前,其逐漸從參照各領域倫理原則共識向關注教育領域的個性要素轉變,這可稱之為“超越共識”的研究轉向。超越“共識”首先需要明確“共識”中的“非共識”,雖然現(xiàn)有研究已經(jīng)提出了許多針對教育領域的個性化人工智能倫理原則框架,但總體來看,它們對“非共識”的認識仍然是不足的。實際上,共識性人工智能倫理原則不僅存在國別與領域差異,在教育領域的不同應用甚至同一框架內部,亦存在著明顯不同。這意味著似乎難以形成一套具有普適性作用的教育人工智能倫理原則,未來相關原則的構建很可能是個性且多樣的。從這一意義上講,對構建原則討論的重要性超過對原則構建的討論。堅持本土立場、明確目的導向、保持持續(xù)開放是構建教育人工智能倫理原則時的必要遵循,但可能還不夠。未來,還需要對構建原則進行更為全面、深入的研究。總之,構建能夠切實影響教育實踐的人工智能倫理原則是一個必要但極其困難的研究議題,用路易斯維爾大學教授兼人工智能研究員羅曼·揚波爾斯基(Roman Yampolskiy)的話來說:“那些說人工智能倫理很復雜的人過于樂觀了”。

        參考文獻:

        [1] 苗逢春.教育人工智能倫理的解析與治理——《人工智能倫理問題建議書》的教育解讀[J].中國電化教育,2022,(6):22-36.

        [2] Hagendorff,T.AI ethics and its pitfalls: not living up to its own standards [J].AI and Ethics,2023,3(3):329-336.

        [3] Schiff D,Borenstein J,et al.AI ethics in the public,private,and NGO sectors:A review of a global document collection [J].IEEE Transactions on Technology and Society,2021,2(1):31-42.

        [4] Corrêa N K,Galv o C,et al.Worldwide AI Ethics:a review of 200 guidelines and recommendations for AI governance [EB/OL].https:// arxiv.org/abs/2206.11922,2023-02-28.

        [5] Holmes,W.Ethics in AIED:Who cares [C].Lausanne,Switzerland:Springer, 2019.424-425.

        [6][8] Jobin A,Ienca M,et al.The global landscape of AI ethics guidelines [J].Nature Machine Intelligence,2019,1(9):389-399.

        [7] Fjeld J,Achten N,et al.Principled Artificial Intelligence:Mapping Consensus in Ethical and Rights-Based Approaches to Principles for AI [J].Social Science Electronic Publishing,2019,22(3):20-38.

        [9] Hagerty A,Rubinov I.Global AI ethics:a review of the social impacts and ethical implications of artificial intelligence [EB/OL].https://arxiv. org/abs/1907.07892,2019-07-18.

        [10] Khan A A,Badshah S,et al.Ethics of AI:A systematic literature review of principles and challenges [C].New York:ACM,2022.383-392.

        [11] Agarwal B,Urlings C,et al.Ethical FRAPPE–an adapted draft framework for ethical AIED [C].Toulouse:CEUR-WS.org,2022.46-54.

        [12] Armstrong,M.,Dopp,C.,et al.Design-Based Research,The Students Guide to Learning Design and Research [EB/OL].https://edtechbooks. org/studentguide/design-based_research,2022-07-21.

        [13] Adams C,Pente P,et al.Artificial Intelligence ethics guidelines for K-12 education:A review of the global landscape [C]. Cham:Springer,2021.24-28.

        [14] Hong Y,Nguyen A,et al.Data Ethics Framework for Artificial Intelligence in Education (AIED) [C].New York:IEEE,2022.297-301.

        [15] Madaio M,Blodgett S L,et al.The Ethics of Artificial Intelligence in Education [M].New York:Routledge,2022.203-239.

        [16] Chaudhry M A,Cukurova M,et al.A transparency index framework for AI in education [C].Cham:Springer,2022.195-198.

        [17] Holstein K,McLaren B M,et al.Designing for complementarity:Teacher and student needs for orchestration support in AI-enhanced classrooms [C].Cham:Springer,2019.157-171.

        [18] Murphy K,Di Ruggiero E,et al.Artificial intelligence for good health:a scoping review of the ethics literature [J].BMC medical ethics,2021,22(1):1-17.

        [19] Hickok M.Lessons learned from AI ethics principles for future actions [J].AI and Ethics,2021,1(1):41-47.

        [20][21][23][48] Tuomi I.A framework for socio-developmental ethics in educational AI [C].Hawaii:University of Hawaii,2023.6208-6217.

        [22] Bakiner O.What do academics say about artificial intelligence ethics An overview of the scholarship [J].AI and Ethics,2022,1(1):1-13.

        [24] Morley J,F(xiàn)loridi L,et al.From what to how:an initial review of publicly available AI ethics tools,methods and research to translate principles into practices [J].Science and engineering ethics,2020,26(4):2141-2168.

        [25] Kempt H,F(xiàn)reyer N,et al.Justice and the Normative Standards of Explainability in Healthcare [J].Philosophy & Technology,2022,35(4):100.

        [26] Nguyen A,Ngo H N,et al.Ethical principles for artificial intelligence in education [J].Education and Information Technologies,2022,5(2):1-21.[27] IBM Corporation.Everyday ethics for artificial intelligence [EB/OL]. https://www.ibm.com/watson/advantage-reports/everyday-ethics-forai/,2019-05-07.

        [28] Berkman Klein Center for Internet & Society.Principled artificial intelligence:mapping consensus in ethical and rights-based approaches to principles for AI [EB/OL].https://dash.harvard.edu/ handle/1/42160420,2020-01-05.

        [29][32] Holmes W,Porayska-Pomsta K.The Ethics of Artificial Intelligence in Education:Practices,Challenges,and Debates [M]. London:Taylor & Francis,2022.

        [30] [美]韋恩·霍姆斯,瑪雅·比利亞克等.馮建超,舒越譯.教育中的人工智能:前景與啟示[M].上海:華東師范大學出版社,2021.

        [31] Holmes W,Tuomi I.State of the art and practice in AI in education [J]. European Journal of Education,2022,57(4):542-570.

        [33] Hwang G J,Xie H,et al.Vision,challenges,roles and research issues of Artificial Intelligence in Education [J].Computers and Education:Artificial Intelligence,2020,1(1):1-5.

        [34][50] Mittelstadt B.Principles alone cannot guarantee ethical AI [J]. Nature Machine Intelligence,2019,1(11):501-507.

        [35][36][40] Whittlestone J,Nyrup R,et al.The role and limits of principles in AI ethics:towards a focus on tensions [C].New York:ACM,2019.195-200.

        [37] Herzog C.On the risk of confusing interpretability with explicability [J]. AI and Ethics,2022,2(1):219-225.

        [38] 中共中央辦公廳 國務院辦公廳.關于加強科技倫理治理的意見[EB/OL].http://www.gov.cn/zhengce/2022-03/20/content_5680105. htm,2022-08-04.

        [39] 劉同舫.技術的當代哲學視野[M].北京:人民出版社,2017.44.

        [41] Capurro R.Privacy.An intercultural perspective [J].Ethics and information technology,2005,1(7):37-47.

        [42] Ess C.Ethical pluralism and global information ethics [J].Ethics and Information Technology,2006,1(8):215-226.

        [43] Habermas J.Moral consciousness and communicative action [M]. Cambridge:MIT press,1990.

        [44] Arrieta A B,Díaz-Rodríguez N,et al.Explainable Artificial Intelligence (XAI):Concepts,taxonomies,opportunities and challenges toward responsible AI [J].Information fusion,2020,58(1):82-115.

        [45] Dwork C.Differential privacy:A survey of results [C].Berlin:Springer,2008. 1-19.

        [46] Falco G,Shneiderman B,et al.Governing AI safety through independent audits [J].Nature Machine Intelligence,2021,3(7):566-571.

        [47] Blikstein P,Zheng Y,et al.Ceci nest pas une éc ole:Discourses of artificial intelligence in education through the lens of semiotic analytics [J].European Journal of Education,2022,57(4):571-583.

        [49] Biesta G J J.Good education in an age of measurement:Ethics,politics, democracy [M].London:Routledge,2015.76.

        作者簡介:

        白鈞溢:在讀博士,研究方向為教育哲學。

        于偉:教授,博士生導師,東北師范大學附屬小學校長,研究方向為教育哲學。

        Beyond Consensus: Development Directions for Constructing Ethical Principles of AI in Education

        Bai Junyi, Yu Wei

        (Faculty of Education, Northeast Normal University, Changchun 130024, Jilin)

        Abstract: Influenced by the development plans of various countries on artificial intelligence, research on ethical principles of AI education started later than other areas and shaped its construction orientation with reference to existing “consensus” principles. Currently, researchers are gradually paying attention to reflecting on the “consensus” and exploring the individual elements of the education field, surpassing the “consensus” becoming the development trend for constructing ethical principles in AI education. The fundamental reason that limits the practical effect of ethical principles in AI education is the “non-consensus” element implied by the “consensus”, including historical and cultural differences between countries, structural and directional differences between fields, content and object differences between applications, and conceptual and relational differences within themselves. To surpass the “consensus” means bridging the “non-consensus” elements based on existing research. More directly, it is acknowledging the limitations of ethical principles in AI education, including the limitations in value matching,domain applicability, and guidance timeliness, thus adhering to a local stance, clarifying purpose orientation, and maintaining continuous openness when constructing ethical principles in AI education.

        Keywords: AI education; ethical principles; beyond consensus; direction of development

        責任編輯:李雅瑄

        ① 教育人工智能倫理原則在政策文件與學術研究中通常不會以單個原則的形式出現(xiàn),而是一個包含了多個倫理原則的框架,并冠以“指導方針”“責任”“指南”“行為準則”等名稱。

        ① 教育人工智能(AIED)的雙重角色是指既可以通過人工智能技術促進教育發(fā)展,也可以通過教育促進人工智能技術及其相關領域的發(fā)展,亦即“AI for Education”與“Education for AI”。

        ① 即使是達成共識的倫理原則,不同群體對其的價值排序也有所不同。例如,“隱私”在崇尚個人主義的地區(qū)的重視優(yōu)先級可能高于崇尚集體主義的地區(qū)。

        ② 歐洲人工智能倫理的語料庫包含一套價值觀和原則體系,將規(guī)范應用于具體案例并轉化為符合倫理的行動,即一種將道德理想融入公民和社會現(xiàn)實的機制。參見Dubber M D,Pasquale F,et al.The Oxford Handbook of Ethics of AI[M].Oxford:Oxford University Press,2020.649-666。

        ① 例如,目前人工智能可能比醫(yī)生更能準確的診斷醫(yī)療狀況,但不一定能夠提供令人滿意的解釋。

        ① 例如,當前對于公平的算法定義至少有21種,且沒有一種公平性算法能夠同時滿足不同的公平性條件。參見Mitchell S,Potash E,et al.Algorithmic fairness:Choices,assumptions,and definitions [J].Annual Review of Statistics and Its Application,2021,8(1):141-163.及Kleinberg J,Mullainathan S,et al.Inherent trade-offs in the fair determination of risk scores [EB/OL].https://arxiv.org/abs/1609.05807,2016-11-17.

        ② 即教育的目的是為了知識構建、社會化還是自我實現(xiàn)。

        猜你喜歡
        發(fā)展方向共識
        共識 共進 共情 共學:讓“溝通之花”綻放
        商量出共識
        人大建設(2019年12期)2019-11-18 12:11:06
        薪酬改革共識難達
        蘇州工業(yè)園區(qū)住宅圍墻問題探索性研究
        我國道路橋梁施工技術現(xiàn)狀與發(fā)展方向
        電子通信系統(tǒng)的探索
        探討企業(yè)工商管理現(xiàn)狀及發(fā)展方向
        分析醫(yī)藥市場營銷的策略與發(fā)展方向
        融媒體業(yè)態(tài)將決定報業(yè)未來
        中國記者(2016年6期)2016-08-26 12:17:17
        “慢養(yǎng)孩子”應成社會普遍共識
        人生十六七(2015年3期)2015-02-28 13:08:17
        色优网久久国产精品| 少妇久久久久久被弄到高潮| 日韩av在线手机免费观看| 中文字幕一区二区三区综合网| 亚洲女同精品一区二区久久| 国产成人精品一区二三区在线观看| 亚洲熟女少妇精品综合| 日韩精品极品免费视频观看| 亚洲国产丝袜久久久精品一区二区| 久久精品国产91精品亚洲| 黑人老外3p爽粗大免费看视频| 国产人成视频在线视频| 欧美xxxxx在线观看| 欧美成人精品a∨在线观看| 久久精品国产亚洲av无码娇色| 亚洲日韩国产一区二区三区在线| 亚洲小说区图片区另类春色| 老司机在线精品视频网站| 亚洲爱婷婷色婷婷五月| 中文字幕av在线一二三区| 岛国大片在线免费观看| 久久这里有精品国产电影网 | 福利视频一二区| 久久精品国产乱子伦多人| 国产在线白浆一区二区三区在线| 少妇被爽到自拍高潮在线观看 | 欧美亚洲精品一区二区| 亚洲日韩精品欧美一区二区三区不卡 | 人妻中文无码久热丝袜| 疯狂做受xxxx高潮欧美日本| 国产精品一区二区久久精品| 日本精品极品视频在线| 国产精品一区又黄又粗又猛又爽| 国产女主播一区二区三区在线观看| 国产精华液一区二区三区| 色一情一区二区三区四区| 九月婷婷人人澡人人添人人爽| 精品国产三级a在线观看| 新久久久高清黄色国产| 不卡av一区二区在线| 人妻少妇69久久中文字幕|