亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        智能教育時代下人工智能倫理的內(nèi)涵與建構(gòu)原則

        2019-08-17 01:55:39杜靜黃榮懷李政璇周偉田陽
        電化教育研究 2019年7期
        關(guān)鍵詞:智能教育原則人工智能

        杜靜 黃榮懷 李政璇 周偉 田陽

        [摘? ?要] 在智能教育時代,人機如何共處是人工智能倫理建構(gòu)的關(guān)鍵。文章首先從技術(shù)悖論視角,厘清當前人工智能應(yīng)用于教育在技術(shù)濫用、數(shù)據(jù)泄露、智能教學機器的身份與權(quán)力邊界等方面存在的倫理挑戰(zhàn)與困境;其次,利用內(nèi)容分析法,結(jié)合多國與國際組織政策文件,對人工智能倫理相關(guān)的倫理要素進行分析與抽取,發(fā)現(xiàn)政府、高校、國際組織文件中多次提到的價值、人類利益、安全、隱私、責任等關(guān)鍵要素;最后,基于人機共處的考量,結(jié)合人工智能在教育領(lǐng)域的應(yīng)用現(xiàn)狀和倫理關(guān)鍵要素,歸納分析出智能教育倫理需遵循的原則,包括問責原則、隱私原則、平等原則、透明原則、不傷害原則、非獨立原則、預警原則與穩(wěn)定原則。

        [關(guān)鍵詞] 智能教育; 人工智能; 機器倫理; 國際政策; 原則; APETHICS模型

        [中圖分類號] G434? ? ? ? ? ? [文獻標志碼] A

        [作者簡介] 杜靜(1989—),女,湖北武漢人。博士研究生,主要從事適應(yīng)性學習支持服務(wù)研究。E-mail:dujing@mail.bnu.edu.cn。黃榮懷為通訊作者,E-mail:huangrh@bnu.edu.cn。

        科學技術(shù)的發(fā)展與倫理密不可分。人工智能技術(shù)帶來便捷的同時,也衍生出了復雜的倫理、法律和安全問題,需要相關(guān)的規(guī)范制定者和執(zhí)行者提前布局,審慎應(yīng)對。在教育領(lǐng)域,一方面,人們期待人工智能進一步促進教育的發(fā)展,如支持個性化學習、提供教學適切服務(wù)等,且伴隨著人工智能進入高中課本,中國的人工智能教育已經(jīng)正式進入基礎(chǔ)教育階段。在人工智能技術(shù)領(lǐng)先的美國,從2018年秋季開始,匹茲堡蒙托學區(qū)也啟動了全美第一個人工智能公立學校項目。另一方面,隨著智能教育應(yīng)用的廣泛開展,教育工作者嘗試通過“先進技術(shù)”解決教學難題,在這過程中隱含一系列倫理道德的問題,如知識產(chǎn)權(quán)保護、隱私泄露、學術(shù)不端等,這使人們開始反思不當使用“先進技術(shù)”會造成什么負面影響,進而衍生出“人工智能進入教育后,人機如何共存”的社會問題。國際上已經(jīng)開始關(guān)注人工智能教育應(yīng)用過程中存在的倫理問題,然而當前關(guān)于此領(lǐng)域的研究仍處在探索早期。為此,本文從技術(shù)悖論現(xiàn)象的視角,深度剖析人工智能應(yīng)用于教育的倫理困境,結(jié)合國際案例剖析了人工智能教育應(yīng)用面對的倫理挑戰(zhàn),并基于國內(nèi)外人工智能領(lǐng)域倫理問題的國家政策,提出智能教育倫理建構(gòu)原則,以期為人工智能教育應(yīng)用和發(fā)展提供倫理依據(jù)和啟發(fā)性思考。

        一、智能時代的倫理議題

        自1956年,在美國達特茅斯(Dartmouth)會議上確定人工智能(Artificial Intelligence,簡稱AI)這一術(shù)語,經(jīng)過60多年的發(fā)展,該技術(shù)已在圖像識別、機器視覺、自動駕駛、安防等領(lǐng)域的發(fā)展取得較大進展。在發(fā)展的過程中由于缺乏關(guān)乎倫理道德的考量,引發(fā)了一系列的問題,這使得越來越多的行業(yè)專家開始反思智能時代人機如何共處。

        倫理一詞在中國最早出現(xiàn)在《禮記·樂記》:“凡音者,生于人心者也;樂者,通倫理者也”,譯為一切音樂都產(chǎn)生于人的內(nèi)心,樂與事物的倫理相同。樂與禮的關(guān)系,在《禮記》中指的也就是文藝與社會倫理道德的關(guān)系[1]。劍橋大學哲學詞典(The Cambridge Dictionary of Philosophy)指出,“倫理”(Ethics)一詞,廣義上指“道德”,狹義上常被用來表示某一特定傳統(tǒng)、群體或個人的道德原則[2]。倫理學試圖通過定義諸如善與惡、對與錯、美德與罪惡、正義與犯罪等概念來解決人類道德問題,常常與道德心理學、描述性倫理、價值理論等領(lǐng)域的研究有關(guān)[3]。綜上所述,多數(shù)研究主要從政治、道德等方面探討倫理的內(nèi)涵,集中于人、社會、自然間倫理關(guān)系的闡述。因科技的進步與發(fā)展,智能機器與人類生活愈發(fā)密切,我們需要進一步審視人與智能機器的倫理關(guān)系。由此歸納在智能時代倫理的應(yīng)有內(nèi)涵,指在一定社會歷史條件下,為解決人、社會、自然與智能機器的和諧共處問題,通過制定相關(guān)原則、標準和制度,促進人、社會、自然和智能機器的和諧共處,涉及道德、社會制度、法律等領(lǐng)域。倫理研究的本質(zhì)應(yīng)是一個不斷完善的道德實踐過程。

        二、技術(shù)悖論視角下人工智能應(yīng)用于

        教育的倫理困境審視

        辯證唯物主義認識論是技術(shù)辯論的思想來源,辯證唯物主義告訴我們事物是普遍聯(lián)系與存在矛盾的,看待事物的發(fā)展需要把握好兩點論[4],即要同時關(guān)注事物發(fā)展過程中的正面與反面。早在19世紀中期,馬克思就認識到技術(shù)悖論對人類社會產(chǎn)生的雙面影響,他指出:“在我們這個時代,每一種事物都包含有自己的反面。我們看到,機器具有減少人類勞動和使勞動更有成效的神奇力量,然而卻引起了饑餓和過度的疲勞。技術(shù)的勝利,似乎是以道德的敗壞為代價換來的?!盵5]人工智能技術(shù)的發(fā)展亦符合技術(shù)悖論現(xiàn)象,我們必須正視人工智能為教育領(lǐng)域帶來的種種福利,如支持個性化學習、提供學習過程適切服務(wù)、提升學業(yè)測評精準性、助力教師角色變化等[6],也不可否認在人工智能技術(shù)應(yīng)用過程中由于倫理制度的缺失、公眾道德素質(zhì)與文化素養(yǎng)的不足以及政策法規(guī)的滯后與不完善等引發(fā)的倫理問題。

        (一)技術(shù)濫用引發(fā)的不端行為

        或許人工智能技術(shù)并不像人類想象的那樣美好,在應(yīng)用的過程中仍舊潛藏著一定的危險。在Nature評論上,2018年4月25日17位來自杜克大學、斯坦福大學、哈佛大學等諸多高校的教授和科學家聯(lián)合發(fā)表文章,指出現(xiàn)在需要對培養(yǎng)人腦組織的行為作出倫理反思,并提出亟須建立倫理道德框架以應(yīng)對這一難題[7]。劍橋大學、牛津大學與耶魯大學的學者認為,在未來5到10年人工智能系統(tǒng)可能催生新型網(wǎng)絡(luò)犯罪、實體攻擊和政治顛覆,設(shè)計這項技術(shù)的人需要做更多的事情來降低技術(shù)被誤用的風險,此外,政府必須考慮制定新的法律[8]。除此之外,技術(shù)濫用還有可能引發(fā)學術(shù)不端現(xiàn)象。Ikanth & Asmatulu指出,智能手機是如今最為普遍的作弊工具,大約70%的學生承認他們在考試、作業(yè)、團隊任務(wù)、報告和論文的寫作過程中使用各種高科技設(shè)備,比如iPad等進行過作弊行為[9]。從社會現(xiàn)象來看,由于目前社會對倫理問題的認知不足以及相應(yīng)規(guī)范準則的缺失,設(shè)計者在開發(fā)人工智能教育產(chǎn)品時并不能準確預知可能存在的風險,人工智能與教育的深度融合趨勢明顯,必須考慮更深層的倫理問題,從而使人工智能教育應(yīng)用產(chǎn)品的設(shè)計目標與更好地服務(wù)學習者的初衷相符。

        (二)數(shù)據(jù)泄露引發(fā)的隱私擔憂

        如今教學系統(tǒng)功能愈發(fā)智能和豐富,不僅僅可以通過指紋、人臉、聲音等生理特征識別用戶身份,還能夠搜集和記錄環(huán)境信息。Inayay開發(fā)出可實時監(jiān)控學生課堂活動的定位系統(tǒng)和學習行為可視化系統(tǒng),并已將該系統(tǒng)應(yīng)用于132名師生[10]。課堂環(huán)境中的溫度、濕度和二氧化碳濃度嚴重影響了教師和學生的學習效率,并影響師生的身體健康,為此有研究者設(shè)計了一套基于藍牙的課堂環(huán)境實時監(jiān)測系統(tǒng)[11]。此外,還可以利用智能運動設(shè)備,如智能手環(huán)、智能肺活量等測評工具,深度采集學生健康數(shù)據(jù),從而發(fā)現(xiàn)學生在體質(zhì)、運動技能、健康程度等方面的問題[12]。智能系統(tǒng)掌握了大量的個人行為信息,如果缺乏隱私保護,就可能造成數(shù)據(jù)泄露。如果這些數(shù)據(jù)使用得當,可以提升學習服務(wù)的支持效果,但如果某用戶出于某些目的非法使用行為信息,會造成隱私侵犯,甚至是違法事件。因此,設(shè)計智能系統(tǒng)時需要納入隱私保護功能。

        (三)智能教學機器的身份與權(quán)力邊界

        智能教學機器為一對一學習支持服務(wù)的實現(xiàn)提供了可能,可以針對不同的學生采用不同的教學方法,激發(fā)學習興趣,從而提升學習者的學習表現(xiàn)。如果長時間讓學生和智能教學機器待在一起,這些機器是否會取代教師的身份?人機交互過多是否會使學生出現(xiàn)社交障礙?歐盟已經(jīng)在考慮要不要賦予智能機器人“電子人”的法律人格[13],這意味著機器人也具備了合法身份,很難確定機器人享有的權(quán)利以及能否履行義務(wù),并對其行為負責。隨著智能教學機器的功能越來越強大,它在教學的過程中到底應(yīng)該扮演一個怎樣的角色。此外,在機器被賦予決策權(quán)后,智能教學機器在何種情境下輔助學生學習才能夠幫助學生達到更好的學習效果。在平板上記筆記的學生在概念性問題表現(xiàn)上比普通書寫方式記筆記的學生差,在平板上記筆記的學生雖然花了更長時間記筆記且覆蓋了更多內(nèi)容,但因為借助科技而被動不走心的記憶幾乎把這些好處抵消掉了[9]。這些研究表明,技術(shù)不如教師具有親和力,在某些時候技術(shù)的使用會降低學習者的學習體驗。

        三、國際人工智能倫理研究概況

        一些國家相繼成立了人工智能倫理研究的各類組織和機構(gòu)探討人工智能引發(fā)的倫理問題,如科學家組織、學術(shù)團體和協(xié)會、高校研發(fā)機構(gòu),還有國家層面的專業(yè)性監(jiān)管組織。這些國際政策將為人工智能教育應(yīng)用的倫理模型構(gòu)建提供理論依據(jù)。

        (一)多國人工智能倫理政策研究動態(tài)

        研究樣本選取包括美國、英國、德國、中國在內(nèi)二十余國的人工智能政策文件,檢索截止時間為2016年1月至2018年8月,搜索源為各國政府網(wǎng)站,搜索關(guān)鍵詞為Artificial Intelligence 或者AI。再對下載的文件進行二次檢索,關(guān)鍵詞為ethics 或 ethic。如遇有的國家直到2018年5月也無相關(guān)文件公開發(fā)布,則將最新一次召開的人工智能會議記錄下來,以此作為該國人工智能研究進展,如突尼斯對人工智能的研究起步較晚,于2018年4月剛召開完第一次人工智能會議,在本次統(tǒng)計中同樣進行記錄。在對各國政策文件進行了內(nèi)容抽取后,繪制了人工智能國家政策概覽,如圖1所示。

        各國對人工智能的關(guān)注持續(xù)升溫,在該領(lǐng)域的戰(zhàn)略研究主要集中在科學研究、人才培養(yǎng)、技能培訓、倫理與安全、標準與法規(guī)、基礎(chǔ)設(shè)施建設(shè)等方面。美國、英國、日本對人工智能的研究關(guān)注較早,政府已出版多份人工智能戰(zhàn)略文件。英國已出版四份戰(zhàn)略文件來闡述未來將會如何規(guī)范機器人技術(shù)與人工智能系統(tǒng)的發(fā)展,以及如何應(yīng)對其發(fā)展帶來的倫理道德、法律及社會問題,包括《人工智能:未來決策制定的機遇與影響》(Artificial Intelligence: Opportunities and Implications for the Future of Decision Making)、《機器人技術(shù)和人工智能》(Robotics and AI: Fifth Report of Session 2016—2017)、《人工智能行業(yè)新政》(Industrial Strategy: AI Sector Deal)和《英國人工智能調(diào)查報告》(AI in the UK:Ready,Willing,and Able)。美國于2016年連續(xù)發(fā)布三份報告,為美國的 AI 戰(zhàn)略奠定了基礎(chǔ),包括《為人工智能的未來做好準備》(Preparing for the Future of Artificial Intelligence)、《國家人工智能研究和發(fā)展戰(zhàn)略計劃》(National AI Research and Development Strategic Plan)、《人工智能、自動化與經(jīng)濟報告》(AI,Automation,and the Economy),之后于2018年5月,白宮邀請了業(yè)界、學術(shù)界和部分政府代表參加了一場人工智能峰會,并發(fā)布人工智能業(yè)界峰會總結(jié)(Summary Report of White House AI Summit)。而肯尼亞、德國對人工智能戰(zhàn)略研究起步較晚,德國計劃在2018年秋季發(fā)布國家人工智能戰(zhàn)略,但目前還不清楚該戰(zhàn)略將關(guān)注哪些方面。肯尼亞政府于2018年1月宣布將成立一個新的11人特別工作組,該小組的任務(wù)是制定鼓勵開發(fā)和采用如區(qū)塊鏈和人工智能等新技術(shù)的國家戰(zhàn)略[14]。在芬蘭、美國、英國等國的戰(zhàn)略文件中,已明確提出將關(guān)注人工智能引發(fā)的倫理問題。

        從世界各國政策文件看,發(fā)達國家對人工智能各方面關(guān)注較為全面,尤其是將倫理問題上升到了一定的高度,而發(fā)展中國家更多的是關(guān)注人工智能的技術(shù)應(yīng)用和未來的商業(yè)價值等。由此,發(fā)達國家的人工智能政策雖然值得借鑒,但是在倫理研究方面各國仍處于早期狀態(tài),這對人工智能發(fā)展也有一定的制約作用。

        (二)國際組織人工智能倫理研究動態(tài)

        除了國家層面關(guān)注人工智能的倫理問題研究,一些傳統(tǒng)的國際性組織和高校也開始關(guān)注人工智能治理的問題,見表1。2016年12月和2017年12月,標準制定組織IEEE(Institute of Electrical and Electronic Engineers,美國電氣和電子工程師協(xié)會)發(fā)布《合倫理設(shè)計(第一版)》和《合倫理設(shè)計(第二版)》,并首次在報告中考慮人類生存幸福感(Well-being)的問題,由IEEE下屬各委員會共同完成的文件為人工智能的全球治理提供了重要參考。UNESCO(United Nations Educational,Scientific,and Cultural Organization,聯(lián)合國教科文組織)和COMEST(World Commission on the Ethics of Scientific Knowledge and Technology,世界科學知識與技術(shù)倫理委員會)多年來連續(xù)多次聯(lián)合發(fā)布報告,就機器人應(yīng)用過程中的倫理問題展開了討論,包括倫理困境、如何保證創(chuàng)新是符合倫理的,如《COMEST機器人道德報告》[15],這對世界各國的人工智能監(jiān)管具有重要指導意義。此外,EURON(European Robotics Research Network,歐洲機器人研究網(wǎng)絡(luò))也曾對下一代人形機器人發(fā)展過程中涉及的技術(shù)二重性等倫理問題進行簡要概述[16]。斯坦福大學的“人工智能百年研究項目”計劃“針對人工智能在自動化、國家安全、心理學、道德、法律、隱私、民主以及其他問題上所能產(chǎn)生的影響,定期開展一系列的研究?!痹擁椖康牡谝环菅芯繄蟾妗度斯ぶ悄?030生活愿景》已經(jīng)于2016年9月發(fā)表??▋?nèi)基梅隆等多所大學的研究人員聯(lián)合發(fā)布《美國機器人路線圖》,以應(yīng)對人工智能對倫理和安全帶來的挑戰(zhàn)。來自行業(yè)和學術(shù)界包括牛津大學、劍橋大學、新美國安全中心(CNAS,Center for A New American Security)的人工智能專家撰寫《惡意使用人工智能風險防范:預測、預防和消減措施》,調(diào)查了人工智能惡意使用的潛在安全威脅,并提出了更好的預測、預防和減輕這些威脅的方法 [8]。

        多國政策主要集中于人工智能對工業(yè)生產(chǎn)、經(jīng)濟、文化、社會、國防安全等方面帶來的顛覆性影響,但又有不同的側(cè)重點。美國與中國強調(diào)人工智能技術(shù)的發(fā)展,如美國關(guān)注人工智能的研發(fā)生態(tài)、人才培訓戰(zhàn)略、行業(yè)應(yīng)用與國防安全,中國關(guān)注研發(fā)、工業(yè)化、人才發(fā)展、教育和職業(yè)培訓、標準制定和法規(guī)、道德規(guī)范與安全等各個方面的戰(zhàn)略;日本和印度關(guān)注人工智能在具體領(lǐng)域的應(yīng)用,如日本關(guān)注人工智能在機器人、汽車等領(lǐng)域的落地,印度聚焦于人工智能在健康護理、農(nóng)業(yè)、教育、智慧城市和基礎(chǔ)設(shè)施與智能交通五大領(lǐng)域的應(yīng)用;歐盟對人工智能倫理問題的研究更為關(guān)注,正在研究人工智能倫理框架。這些文件中有關(guān)倫理的研究為厘清人工智能融入教育所帶來的倫理問題提供借鑒和參考。

        四、面向智能教育的人工智能倫理建構(gòu)原則

        現(xiàn)代科學技術(shù)在給教育帶來便利的同時,也使廣大的教育工作者和學習者不得不置身于倫理困境之中。國際政策關(guān)于人工智能倫理問題的研究為智能教育倫理建構(gòu)原則的提出奠定了堅實的政策基礎(chǔ)和前瞻性認識。

        (一)有道德人工智能的特征

        科學研究無法脫離特定歷史時期對技術(shù)研究的價值取向,每一次的科學研究都蘊含著研究主體對技術(shù)手段、研究方向和研究方法的選擇,科學技術(shù)產(chǎn)生的社會作用越大,與倫理的關(guān)系也將越來越緊密。人工智能技術(shù)的快速發(fā)展,也必然引發(fā)社會的擔憂。有學者曾經(jīng)提出,判定人工智能程序是否是符合倫理道德的初步設(shè)想,見公式(1)[17]。該學者認為,有道德的人工智能研究需要從人工智能技術(shù)的發(fā)展逐步過渡到有道德地使用人工智能,但該學者并未明確指出怎樣的用戶行為屬于有道德的使用人工智能。

        那么人工智能技術(shù)的發(fā)展是否有道德規(guī)范可循?早在1942年,艾薩克·阿西莫夫(Isaac Asimov)提出了以“不得危害人類”為核心的“機器人三原則”(The Three Laws of Robotics)(包括:機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管;機器人必須服從人給予它的命令,當該命令與第一定律沖突時例外;機器人在不違反第一、第二定律的情況下要盡可能保護自己的生存)[18]。三定律針對機器人和人兩大主體規(guī)定了機器人的行為規(guī)則,但該定律并未給出有關(guān)于人類和機器人的明確的、統(tǒng)一的定義。在1983年,他又在此基礎(chǔ)上添加了零原則,即機器人必須保護人類的整體利益不受傷害,其他三條定律都是在這一前提下才能成立[19]。新“機器人三原則”被認為是人類對人工智能倫理道德反思的開端。

        (二)人工智能倫理關(guān)鍵要素分析

        在搜集國際人工智能政策文件的基礎(chǔ)上,利用內(nèi)容分析法對相關(guān)文件中的倫理要素進行了提取,見表2。政府、高校、國際組織均嘗試對人工智能的倫理問題進行探討,從倫理相關(guān)要素看,均對人工智能立法、安全、責任認定等有著一致性,但也有差異問題。政府希望通過制定法律保護公民的權(quán)益,如個人隱私、明確責任主體;國際組織更加強調(diào)人工智能社會價值的探討,如人類利益、機器意識等關(guān)鍵詞多次出現(xiàn);高校則結(jié)合實際問題提出了應(yīng)對人工智能風險問題。除此以外,有研究者指出,引入智能機器帶來的全球性的社會和倫理問題可總結(jié)為技術(shù)的二元性、技術(shù)產(chǎn)品的人格化、技術(shù)沉迷、數(shù)字鴻溝、數(shù)字資源公平享有權(quán)、技術(shù)對全球財富和權(quán)力的影響、技術(shù)對環(huán)境的影響[20]。工程公司美國理事會倫理守則(American Council of Engineering Companies Ethical Guidelines)還指出,安全性和可靠性也是人造產(chǎn)品需要考慮的道德因素[21],同時,還要注意人權(quán)[22]、責任權(quán)、公正權(quán)、正義、非歧視原則、知情權(quán)、社會責任、平等權(quán)。

        (三)智能教育倫理的建構(gòu)原則

        由于人工智能的交叉性,人工智能可與其他應(yīng)用倫理學共享問題和解決方案,如計算機倫理、信息倫理、生物倫理學、技術(shù)倫理和神經(jīng)倫理學。計算機和信息倫理學已發(fā)展出了名為PAPA的道德準則,即隱私權(quán)(Privacy)、準確性(Accuracy)、所有權(quán)(Property)、易獲得性(Accessibility)[23]。為此,在參照PAPA模型的基礎(chǔ)上,基于對人工智能倫理的相關(guān)要素分析,立足人工智能在教育領(lǐng)域的應(yīng)用現(xiàn)狀,從人機共存角度,抽取與學生發(fā)展密切相關(guān)的要素,涉及明確責任主體、保護人類隱私、不偏見不歧視、決策透明化、保護人類利益不受侵害、提前預警危險行為、系統(tǒng)穩(wěn)定可控等多個方面,最終歸納出面向智能教育的人工智能倫理建構(gòu)模型,即問責原則(Principle of Accountability)、隱私原則(Principle of Privacy)、平等原則(Principle of Equality)、透明原則(Principle of Transparency)、不傷害原則(Principle of Noharm)、身份認同原則(Principle of Identity)、預警原則(Principle of Precaution)、穩(wěn)定原則(Principle of Stability),概括為“APETHICS”模型,如圖2所示。需要說明的是,取單詞Caution首字母C代表預警原則,其余均取單詞首字母表示各原則,縮寫字母A在本模型中代表問責原則,也可以看作為Artificial Intelligence中Artificial的首字母,P在本模型中代表隱私原則,也可以看作為“+”(Plus),其余的取單詞首字母,恰好為倫理“Ethics”一詞,合并后為A(rtificial Intelligence) & P(lus) & Ethics。以下將對原則進行具體解讀:

        1. 問責原則(Principle of Accountability)

        “問責原則”主要是指明確責任主體,建立具體的法律明確說明為什么以及采取何種方式讓智能系統(tǒng)的設(shè)計者和部署者承擔應(yīng)有的義務(wù)與責任。問責是面向各類行為主體建立的多層責任制度。然而,分清楚責任人是極具挑戰(zhàn)性的,例如,在自動駕駛汽車獨立作出智能決策導致傷害發(fā)生的情況下,誰應(yīng)當為自動駕駛汽車發(fā)生的故障和事故負責的問題,是應(yīng)該由司機、自動汽車生產(chǎn)者或是人工智能系統(tǒng)設(shè)計公司來承擔法律責任?在這里還難以作出明確的判斷?!稙槿斯ぶ悄艿奈磥碜龊脺蕚洹诽岢隽艘话阈缘膽?yīng)對方法,強調(diào)基于風險評估和成本收益原則決定是否對人工智能技術(shù)的研發(fā)與應(yīng)用施以監(jiān)管負擔[24]。在UNESCO和COMEST聯(lián)合發(fā)布的《Report of COMEST on Robotics Ethics》中嘗試明確責任主體[15],見表3。在追責政策制定不完善、主體責任不明確、監(jiān)督責任不到位、傷害人類行為多發(fā)頻發(fā)等問題發(fā)生時起到一定的緩解作用,以問責倒逼責任落實,落實科學家、設(shè)計者、政策制定者、使用者的各級責任,爭取做到“失責必問、問責必嚴”。

        2. 隱私原則(Principle of Privacy)

        《辭?!穼㈦[私定義為公民依法享有的不公開與其私人生活有關(guān)的事實和秘密的權(quán)利?!妒澜缛藱?quán)宣言》曾經(jīng)明確規(guī)定,“任何人的私生活、家庭、住宅和通信不得任意干涉,他的榮譽和名譽不得加以攻擊”[25]。在人工智能時代,“隱私原則”更強調(diào)人們應(yīng)該有權(quán)利存取、管理和控制智能機器產(chǎn)生的數(shù)據(jù),以確保機器不會向任何未經(jīng)授權(quán)的個人或企業(yè)提供用戶信息。如今,我國有關(guān)如何在人工智能時代保護學習者隱私不受侵害的法律還不健全,關(guān)于何為侵犯隱私、何種行為侵犯隱私、如果侵犯如何處罰的相關(guān)法律仍缺失,倘若學習者隱私受到侵害也無法找到合適的解決途徑。國外的人工智能研究人員已經(jīng)在提倡如何在深度學習過程中保護個人隱私[26]。人工智能時代為學習者隱私保駕護航,將是促進社會和諧發(fā)展與長足進步的不可或缺因素。

        3. 平等原則(Principle of Equality)

        “平等原則”指杜絕因算法偏差導致的算法歧視現(xiàn)象?;诜N族、生活方式或居住地的分析是對個人常態(tài)數(shù)據(jù)的分析,該種算法風險可以避免,而“算法歧視”的實質(zhì)是用過去的數(shù)據(jù)預測用戶未來的表現(xiàn),如果用過去的不準確或者有偏見的數(shù)據(jù)來訓練算法,得出的結(jié)果肯定也是有偏見的。不少研究者堅持,數(shù)字不會說謊,可以代表客觀事實,甚至可以公平地為社會服務(wù)。但是,已有研究發(fā)現(xiàn),建立在數(shù)據(jù)基礎(chǔ)之上的算法系統(tǒng)也會犯錯、帶有偏見,而且比以往出現(xiàn)的數(shù)字歧視更加隱秘。亞馬遜嘗試了價格歧視,這意味著不同的消費者購買同一件商品的價格不同[27]。為消除該風險,數(shù)據(jù)人員應(yīng)該確定數(shù)據(jù)中存在的某種偏差,并采用相應(yīng)的策略評估該偏差帶來的影響。

        4. 透明原則(Principle of Transparency)

        “透明原則”指明確說明使用了哪些算法、哪些參數(shù)、哪些數(shù)據(jù)實現(xiàn)了什么目的,機器的運作規(guī)則和算法讓所有人都能夠明白。機器需要了解學習者的行為以作出決策,所有人包括學習者也必須了解機器是如何看待自己和分析自己的處理過程。如果學生個人畫像不正確,卻無法糾正,該怎么辦?當系統(tǒng)搜集學生的信息,卻得出錯誤的結(jié)論,該怎么辦?目前被廣泛討論的是深度學習的“黑箱”決策過程,它擁有更多的自主決策權(quán),許多研究者試圖打開這個“黑箱”。如利用反事實調(diào)查的人工智能神經(jīng)科學工具理解這種黑箱[28]。這種迫切性不僅出自科學[29]。美國國防高級項目研究計劃局(The Defense Advanced Research Projects Agency,簡稱DARPA)為名為“可解釋AI”(Explainable AI)的新計劃投入了7000萬美元,旨在對支撐無人機與情報挖掘行動的深度學習作出解釋[30]。倫理和設(shè)計往往息息相關(guān),人工智能開發(fā)必須警惕社會和文化偏見,確保研究具有普適性的算法,消除算法歧視存在的可能空間。

        5. 不傷害原則(Principle of Noharm)

        “不傷害原則”也可以理解為Principle of Do Not Harm,指必須阻攔機器的無意識行為對人類造成的傷害,任何情況下,不區(qū)別對待文化、種族、民族、經(jīng)濟地位、年齡、區(qū)域等因素,都要維護人類的權(quán)益,不得侵害人類權(quán)益。利弊相生,人工智能技術(shù)的二重性在給人類的生活和生產(chǎn)帶來便利的同時,也會因技術(shù)運用不當給人類帶來毀滅性的災難。Google團隊對DeepMind人工智能系統(tǒng)進行行為測試,通過設(shè)計“搜集水果游戲”和“群狼狩獵游戲”來模擬當多個DeepMind人工智能系統(tǒng)具有相似或沖突的目標時,是內(nèi)斗還是合作。初步的研究結(jié)果表明,機器人以及人工智能系統(tǒng)具有“殺手潛能”,它們并不會自動地將人類的利益放在“心”上[31],設(shè)計算法的技術(shù)人員需要考慮人性的因素。

        6. 身份認同原則(Principle of Identity)

        “身份認同原則”指明確智能機器的“社會身份”,從而規(guī)范其權(quán)利與義務(wù)。例如,是否該賦予機器人公民身份與人的權(quán)利。智能機器是世界物質(zhì)組成的一部分,非獨立存在,智能機器的身份問題日益重要。人工智能融入教育,已經(jīng)開始影響現(xiàn)存的人類社會結(jié)構(gòu),人—社會—自然三元社會正在逐漸地向人—社會—自然—智能機器四元社會發(fā)展。無論是先秦的“天人合一”論,還是宋明的“萬物一體”論,都強調(diào)人與人、人與物、人與社會以及人與自然的整體性、和諧性、統(tǒng)一性關(guān)系[32]。在人工智能時代,需要強調(diào)的是,人與人、人與智能機器、人與社會、人與自然、機器與自然的整體性、和諧性與統(tǒng)一性,為此需要確立人工智能在教育中的定位,以保障技術(shù)、教師、學生、環(huán)境之間的平衡。

        7. 預警原則(Principle of Precaution)

        “預警原則”強調(diào)當機器出現(xiàn)危害人類的行為時,采取行動避免傷害,因此,人類需要對機器的行為進行監(jiān)管,并開發(fā)相應(yīng)的預警技術(shù)。危害人類和環(huán)境的行為包括:威脅人類的生命;嚴重的或者不可逆的傷害人類權(quán)益的行為[33]。谷歌和牛津大學聯(lián)合發(fā)起的人工智能系統(tǒng)“自我毀滅裝置”(Kill Switch)研究項目,這個裝置能夠讓人工智能系統(tǒng)處于不間斷的人類監(jiān)管干預之下。通過算法和功能,讓人工智能系統(tǒng)擺脫不良行為,杜絕危害人類行為事件的發(fā)生。

        8. 穩(wěn)定原則(Principle of Stability)

        “穩(wěn)定原則”指系統(tǒng)算法穩(wěn)定且一致,系統(tǒng)不出現(xiàn)不必要的行為或者功能上的非一致性和異常結(jié)果。人工智能系統(tǒng)應(yīng)確保運行可靠安全,避免在不可預見的情況下造成傷害,或者被人惡意操縱,實施有害行為。如果我們希望利用技術(shù)來滿足人類的需要,人類就必須更深入地理解和尊重機器,從而更好地發(fā)揮智能機器的作用。需要指出的是,對于知識創(chuàng)造性的工作,比如醫(yī)療、教育培訓中具有高度“不確定性”的工作,其承擔者則非人類莫屬。

        五、總結(jié)與展望

        將人工智能廣泛而有效地應(yīng)用于教學,是未來學校教育發(fā)展的必然趨勢,具有更強的靈活性、包容性、個性化的人工智能技術(shù)可以助力重塑學校教育,進一步提升教學的效果、效率和效益,以適應(yīng)現(xiàn)代信息化、數(shù)字化、智能化的學習型和創(chuàng)新型社會的需要,同時,為教育2030的實現(xiàn)提供強有力的智力支持。在預見人工智能技術(shù)巨大潛能的同時,也不可忽略道德規(guī)范、產(chǎn)品標準和安全規(guī)范的社會呼吁和學術(shù)研究。對待人工智能,我們?nèi)耘f應(yīng)當保持“樂觀>焦慮”的態(tài)度,讓人工智能始終服務(wù)于我們的工作和生活,形成造福社會、推動發(fā)展、助力改革的無盡活力。本文深度剖析人工智能教育應(yīng)用的倫理困境,試圖通過人工智能教育應(yīng)用倫理的“APETHICS”模型與建構(gòu)原則,厘清人工智能教育應(yīng)用的價值觀念、社會責任。在今后的研究中,需進一步細化概念模型中包含的原則。

        [參考文獻]

        [1] 張恩普. 《禮記·樂記》文學批評思想探討[J]. 古籍整理研究學刊,2006(1):35-37.

        [2] AUDI R, AUDI P. The cambridge dictionary of philosophy[M]. United Kindom: Cambridge University Press,1995.

        [3] Wikipedia. Ethics[EB/OL]. (2001-12-19) [2018-07-13]. https://en.wikipedia.org/wiki/Ethics#cite_note-2.

        [4] 張源東.社會技術(shù)與社會技術(shù)悖論淺析[J].學理論,2018(4):79-81.

        [5] 馬克思,恩格斯.馬克思恩格斯選集:第 1 卷[M].北京:人民出版社, 1972.

        [6] 劉德建,杜靜,姜男,等.新一輪人工智能融入學校教育的趨勢分析[J]. 開放教育研究,2018,24(4):33-42.

        [7] FARAHANY N A, GREELY H T, HYMAN S, et al. The ethics of experimenting with human brain tissue[J]. Nature, 2018, 556(7702):429-432.

        [8] BRUNDAGE M, AVIN S, CLARK J, et al. The malicious use of artificial intelligence: forecasting, prevention, and mitigation[EB/OL]. (2018-02-01) [2018-07-13]. https://maliciousaireport.com/.

        [9] IKANTH M, ASMATULU R. Modern cheating techniques, their adverse effects on engineering education and preventions[J]. International journal of mechanical engineering education, 2016, 42(2):129-140.

        [10] INAYAT I. Real-time student visualization system in classroom using RFID based on UTAUT model[J]. International journal of information and teaching technology, 2017, 34(3):274-288.

        [11] PENG K, CHEN J. A classroom environment monitoring system based on bluetooth[J]. Electronic science & technology, 2017,30(2):123-129.

        [12] 余勝泉. 人工智能教師的未來角色[J]. 開放教育研究,2018,24(1):16-28.

        [13] GUGARDIAN. Give robots 'personhood' status, EU committee argues[EB/OL]. (2017-01-12) [2018-07-13]. https://www.theguardian.com/technology/2017/jan/12/give-robots-personhood-status-eu-committee-argues.

        [14] WALLSTREET K. Kenya govt sets blockchain & artificial intelligence taskforce! [EB/OL] (2018-01-16) [2018-07-13] https://kenyanwallstreet.com/kenya-govt-sets-blockchain-artificial-intelligence-taskforce/.

        [15] UNESCO & COMEST. Report of COMEST on robotics ethics [R]. Praris: UNESCO, 2017.

        [16] VERUGGIO G. The EURON roboethics roadmap: HR 2007: proceedings of international conference on humanoid robots, pittsburgh, 29 november - 1 december 2007[C]. Pennsylvania: IEEE, 2007.

        [17] KORB K B. Ethics of AI[EB/OL]. (2007-01-01) [2018-07-13]. https://www.researchgate.net/publication/247934914_Ethics_of_AI.

        [18] MORAN M. Three laws of robotics and surgery[J]. Journal of endourology, 2008, 22(22): 1557-1560.

        [19] COECKELBERGH M. Moral appearances: emotions, robots, and human morality[J]. Ethics & information technology, 2010, 12(3): 235-241.

        [20] VERUGGIO G, OPERTO F. Roboethics: social and ethical implications of robotics[M]. Berlin: Spinger, 2008.

        [21] HANSEN K L, ZENOBIA K E. Civil engineer's handbook of professional practice[J]. 2011, 75(1):1-2.

        [22] KARDOS-KAPONYI E. The charter of fundamental rights of the European Union[J]. Official journal of European Communities, 2000, 23(1/2): 137-170.

        [23] PARRISH J L. Papa knows best: principles for the ethical sharing of information on social networking sites[J]. Ethics & information technology, 2010,12(2): 187-193.

        [24] White House Office of Science and Technology Policy. Preparing for the future of artificial intelligence[EB/OL]. (2016-10-01) [2018-07-13]. https://obamawhitehouse.archives.gov.

        [25] 格德門德爾·阿爾弗雷德松.世界人權(quán)宣言[M]. 中國人權(quán)研究會,譯. 成都: 四川人民出版社,1999.

        [26] PAPERNOT N, ABADI M, ULFAR ERLINGSSON, et al. Semi-supervised knowledge transfer for deep learning from private training data[EB/OL]. (2016-10-01) [2018-07-13]. https://www.researchgate.net.

        [27] HUTSON M. How artificial intelligence could negotiate better deals for humans[EB/OL]. (2017-09-11)[2019-06-30]. https://www.sciencemag.org/news.

        [28] MISHRA S, STURM B L, DIXON S. Introduction to local interpretable model-agnostic explanations[EB/OL]. (2016-08-12) [2018-07-13]. https://www.oreilly.com/learning/introduction-to-local-interpretable-model-agnostic-explanations-lime.

        [29] VOOSEN P. How AI detectives are cracking open the black box of deep learning[EB/OL]. (2017-07-06)[2019-06-30]. https://www.sciencemag.org/news.

        [30] DAVID G. Explainable artificial intelligence (XAI)[EB/OL]. (2016-10-16) [2018-07-13]. https://www.darpa.mil/program/explainable -artificial-intelligence.

        [31] DOM G, JOLENE C. Google deepmind shows that AI can have “killer instincts”[EB/OL]. (2017-02-13) [2018-07-13]. https://futurism.com/google-deepmind-researchers-show-that-ai-can-have-killer-instincts/.

        [32] 高晨陽. 論中國傳統(tǒng)哲學整體觀[J]. 山東大學學報(哲學社會科學版),1987(1):113-121.

        [33] UNESCO. The precautionary principle[EB/OL]. (2005-03-01) [2018-07-13].? http://www.precautionaryprinciple.eu/.

        猜你喜歡
        智能教育原則人工智能
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        人工智能與就業(yè)
        堅守原則,逐浪前行
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        下一幕,人工智能!
        南風窗(2016年19期)2016-09-21 16:51:29
        智能手機APP在高校會計學中的應(yīng)用探究
        商情(2016年11期)2016-04-15 20:47:36
        無罪推定原則的理解與完善
        淺談素質(zhì)教育與音樂教育
        淺析移動媒體下英語教學
        惹人喜愛的原則(二)
        知識窗(2010年9期)2010-05-14 09:07:50
        日日鲁鲁鲁夜夜爽爽狠狠视频97| 天堂最新在线官网av| 亚洲精品午夜精品国产| 精品亚洲在线一区二区| 丝袜人妻一区二区三区| 丰满熟妇乱子伦| 亚洲AV永久青草无码性色av| 国产熟女乱综合一区二区三区| 美妇炮灰被狂躁爽到高潮h| 国产欧美日韩一区二区三区| 中文乱码人妻系列一区二区| 久久精品国产72国产精福利| 日本av一级视频在线观看| 免费在线黄色电影| 欧美激情内射喷水高潮| 免费黄网站久久成人精品| 国产成av人在线观看| 国产av无码专区亚洲a∨毛片 | 一区二区久久不射av| 蜜桃视频一区视频二区| 国产亚洲综合一区二区三区| 久久久www成人免费无遮挡大片| 亚洲高清国产品国语在线观看| 日本人妻97中文字幕| 精品国产免费一区二区三区| 一二三四在线视频社区3| 国产精品自拍首页在线观看| 亚洲成人精品久久久国产精品| 人妻少妇乱子伦精品无码专区电影| 在线视频一区色| 91大神蜜桃视频在线观看| 中文字幕在线乱码一区| 中文字字幕在线精品乱码| 成人国产永久福利看片| 国产一区二区黑丝美胸| 无码人妻精品一区二区蜜桃网站| 五月天激情综合网| 色婷婷精品国产一区二区三区| 免费午夜爽爽爽www视频十八禁| 日韩a无v码在线播放| 亚洲AV无码一区二区水蜜桃|