亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        人工智能倫理規(guī)范核心原則的政策文本內(nèi)容分析

        2022-11-07 01:08:29周慶山,鄭霞,黃國彬
        關(guān)鍵詞:人工智能

        周慶山,鄭霞,黃國彬

        摘要:[目的/意義]人工智能技術(shù)悄然拉開了第四次工業(yè)革命的大幕,為各行各業(yè)的發(fā)展帶來了革命性變化。但該項技術(shù)的法律規(guī)制和標準規(guī)范建設(shè)尚不完善,引發(fā)了全球?qū)τ谌斯ぶ悄軅惱碓瓌t與規(guī)范體系的探索與思考,各國學(xué)(協(xié))會相繼發(fā)布了人工智能倫理規(guī)范或政策文件。本研究全面分析和梳理當前認可度較高的人工智能倫理原則的核心框架,旨在為各國制定和完善人工智能倫理規(guī)范提供參考。[方法/過程]運用網(wǎng)絡(luò)調(diào)研法、內(nèi)容分析法和比較研究法,在綜合考慮影響力、國別和可獲取性等因素的基礎(chǔ)上,選取近年各國學(xué)(協(xié))會已發(fā)布的有關(guān)人工智能倫理原則的權(quán)威政策文件,提煉出其中涉及的人工智能倫理原則的核心框架和主要內(nèi)容。[結(jié)果/結(jié)論]人工智能領(lǐng)域主要包括:造福原則、責(zé)任原則、公平正義原則、安全原則、尊重人的自主性原則、隱私與個人信息保護原則、透明性原則和可靠性原則等8項人工智能倫理原則。

        關(guān)鍵詞:人工智能;倫理原則;規(guī)范體系

        中圖分類號:B82-05

        文獻標識碼:A

        文章編號:1673-8268(2022)05-0009-12

        一、研究背景

        人工智能(Artificial Intelligence,AI)是探索、模擬和研究人類學(xué)習(xí)、思維和知識存儲等過程,進而拓展人類智能的技術(shù)、理論和方法的新興學(xué)科,屬于計算機科學(xué)的分支,融合了信息學(xué)、控制學(xué)、語言學(xué)、心理學(xué)等多學(xué)科領(lǐng)域[1]。近年來,人工智能正以指數(shù)級的速度高速增長,但與之匹配的行業(yè)規(guī)范和管理制度卻未能同步發(fā)展。針對人工智能的設(shè)計與管理,還存在政策取向不清晰、倫理規(guī)制缺失、法律法規(guī)不健全等問題,這導(dǎo)致了人工智能應(yīng)用的不確定性,并對人類倫理道德帶來了相應(yīng)的挑戰(zhàn)。作為一個涉及多個學(xué)科的交叉性話題,圍繞人工智能倫理的研究,目前已吸引了包括計算機科學(xué)、生物學(xué)、行為科學(xué)、心理學(xué)、醫(yī)學(xué)和哲學(xué),以及圖書情報與檔案管理等在內(nèi)的多個學(xué)科的研究人員,圍繞人工智能在設(shè)計環(huán)節(jié)、測試環(huán)節(jié)和應(yīng)用環(huán)節(jié)等涉及的倫理道德開展研究,各國開始積極探索并紛紛頒布了人工智能倫理原則的行動準則和政策文件。為此,筆者擬運用網(wǎng)絡(luò)調(diào)研法和內(nèi)容分析法等,以近年來各國學(xué)(協(xié))會發(fā)布的有關(guān)人工智能倫理原則的政策文檔為研究對象,對比分析現(xiàn)有人工智能政策文檔中涉及的人工智能倫理原則的核心框架和內(nèi)容構(gòu)成。

        二、國內(nèi)外研究現(xiàn)狀

        筆者于2021年12月以“人工智能”并含“倫理”及其對應(yīng)的英文“Artificial Intelligence”(或“AI”)并含“ethics”為關(guān)鍵詞,在CNKI、Web of Science等數(shù)據(jù)庫中檢索相關(guān)文獻,擬從研究內(nèi)容和研究方法兩個方面對關(guān)于人工智能倫理規(guī)范內(nèi)容要素的理論研究進行梳理和剖析。

        (一)研究內(nèi)容

        全面分析當前關(guān)于人工智能倫理規(guī)范的已有研究發(fā)現(xiàn),從研究內(nèi)容的角度來看,學(xué)者已提出了包含以人為本原則、公正原則、公開透明原則、知情同意原則、責(zé)任原則及安全原則等在內(nèi)的人工智能倫理規(guī)范基本條款(見表1)。

        不過,多數(shù)文獻探討的是將人工智能技術(shù)應(yīng)用到其他領(lǐng)域可能引發(fā)的倫理問題及應(yīng)對策略,如人工智能與教育學(xué)、醫(yī)學(xué)、傳播學(xué)等領(lǐng)域結(jié)合時應(yīng)構(gòu)建的倫理原則,且其提出的人工智能倫理規(guī)范內(nèi)容要素大多是主觀推斷,而對于現(xiàn)有人工智能倫理規(guī)范政策文檔所涉及的內(nèi)容要素關(guān)注度不高,致使研究結(jié)論的深度與廣度均顯不足。

        (二)研究方法

        從研究方法來看,當前已有學(xué)者采用內(nèi)容分析法,以近年來國際或各國發(fā)布的人工智能倫理規(guī)范的政策文檔為研究對象,從中提煉出人工智能社會倫理規(guī)范并加以剖析。為進一步梳理現(xiàn)有研究所選政策文檔發(fā)布主體的類型,筆者選取了6篇應(yīng)用歸納法開展人工智能倫理規(guī)范內(nèi)容研究的代表性文獻,并按照前述5種人工智能倫理政策文檔發(fā)布機構(gòu)的類型對其進行分析和評述,結(jié)果如表2所示。

        分析表2可知,從所選研究樣本的發(fā)布主體來看,文獻1至文獻6所選研究樣本對于前述5類組織機構(gòu)均有所涉及。但其共性問題是:未考慮人工智能倫理規(guī)范政策文檔制定主體的差異,而是直接、強行地將不同制定主體發(fā)布的人工智能倫理規(guī)范的政策文檔加以橫向比較和內(nèi)容提煉,這一做法會導(dǎo)致將不在同一影響力層面的文本政策混為一談,無法確定不同制定主體因自身肩負的社會責(zé)任、機構(gòu)定位等的不同而對人工智能倫理規(guī)范的關(guān)注點、基本認知、價值判斷、動機立場的區(qū)別,最終得到的研究結(jié)論缺乏說服力、嚴謹性和可靠性。

        三、研究方法

        本研究以近年來各國學(xué)(協(xié))會發(fā)布的人工智能倫理規(guī)范文檔為分析對象,創(chuàng)新之處有以下幾方面。第一,研究方法更加規(guī)范嚴謹。筆者以實證分析為基礎(chǔ),從各國學(xué)(協(xié))會發(fā)布的人工智能倫理規(guī)范的相關(guān)政策文檔中,更為客觀全面地揭示其核心模塊和內(nèi)容構(gòu)成。第二,研究對象具有高度可比性。在現(xiàn)有同主題的研究中,多數(shù)學(xué)者在選擇人工智能倫理規(guī)范的研究樣本時,只考慮內(nèi)容主題是否與人工智能倫理規(guī)范相關(guān),而不考慮制定主體是否在職能和權(quán)限上處于同一層級,從而導(dǎo)致將不同影響效力和作用范圍的人工智能倫理規(guī)范進行比較,缺乏嚴謹?shù)目杀刃?。本研究所選擇的樣本,其制定主體均為學(xué)(協(xié))會,屬于職能和權(quán)限相同的同類機構(gòu),從而避免將職能和權(quán)限存在不同的各類制定主體所制定的人工智能倫理規(guī)范進行比較,更好地確保樣本的可比性。

        具體來說,首先,筆者梳理了人工智能社會倫理規(guī)范相關(guān)主題的研究論文,并對其中涉及的人工智能社會倫理規(guī)范的基本條款進行了預(yù)調(diào)研;其次,全面調(diào)研各國學(xué)(協(xié))會的官網(wǎng),獲得其發(fā)布的與人工智能社會倫理規(guī)范相關(guān)的框架、指南與原則;最后,以Ethical IA Resource[22]、Future of Life Institute[23]、鏈接人工智能準則平臺[24]等網(wǎng)站為線索,對擬選研究樣本進行完善和補充,最終選擇了10款由各國學(xué)(協(xié))會發(fā)布的有關(guān)人工智能社會倫理規(guī)范的政策文件作為分析對象。按發(fā)布時間排序,這10款人工智能社會倫理規(guī)范依次是:《機器人和機器人設(shè)備:機器人及機器人系統(tǒng)的道德設(shè)計及應(yīng)用指南》(Robots and Robotic Devices: Guide to the Ethical Design and Application of Robots and Robotic Systems)、《算法透明度和問責(zé)制的聲明》(Statement on Algorithmic Transparency and Accountability)、《AI政策原則執(zhí)行摘要》(AI Policy Principles Executive Summary)、《人工智能和機器學(xué)習(xí):政策文件》(Artificial Intelligence and Machine Learning: Policy Paper)、《人工智能和數(shù)據(jù)分析的倫理原則》(Ethical Principles for Artificial Intelligence and Data Analytics)、《日本人工智能學(xué)會倫理準則》(The Japanese Society for Artificial Intelligence Ethical Guidelines)、《以倫理為基準的設(shè)計:人工智能及自主系統(tǒng)以人類福祉為先的愿景(第一版)》(Ethically Aligned Design:A Vision for Prioritizing Human Well-being with Autonomous and Intelligent Systems(First Edition)、《人工智能職業(yè)道德和行為準則》(AAAI Code of Professional Ethics and Conduct)、《負責(zé)任的人工智能政策框架》(Responsible AI Policy Framework)、《醫(yī)療保健中的增強智能》(Augmented Intelligence in Health Care),詳見表3所示。在此基礎(chǔ)上,運用內(nèi)容分析法和比較研究法,對上述政策文檔涉及的人工智能倫理原則的內(nèi)容構(gòu)成進行分析比較,剖析當前具有較大國際影響力的人工智能倫理原則的核心框架和基本內(nèi)容。

        四、人工智能倫理規(guī)范的核心框架與內(nèi)容剖析

        (一)人工智能倫理規(guī)范的核心框架

        在對本研究所選擇的10款有關(guān)人工智能倫理原則規(guī)范文檔進行預(yù)調(diào)研的基礎(chǔ)上,參照與人工智能領(lǐng)域存在交叉的計算機科學(xué)、信息技術(shù)[25]和醫(yī)學(xué)[26]等領(lǐng)域構(gòu)建的基本倫理原則,筆者設(shè)計了造福原則、責(zé)任原則、公平正義原則、安全原則、尊重人的自主性原則、隱私與保護原則、透明性原則和可靠性原則等8項人工智能倫理原則。在此基礎(chǔ)上,統(tǒng)計分析了本研究所選擇的10款人工智能倫理政策文件中所涉及的倫理原則數(shù)量(見表4)。從表4可以看出,當前人工智能倫理政策文件中多強調(diào)造福原則、責(zé)任原則、公平正義原則、安全原則、尊重人的自主性原則和隱私與保護原則等,部分政策文件還補充提出了透明性原則、可靠性原則和共同治理原則等內(nèi)容。

        (二)人工智能倫理規(guī)范的內(nèi)容剖析

        人工智能倫理原則的提出,旨在為人工智能的開發(fā)者、使用者和治理者提供應(yīng)當遵循的理念和規(guī)則。為進一步探索人工智能倫理原則的內(nèi)容構(gòu)成,筆者全面研讀了本研究所選擇的10款人工智能倫理原則政策文件,并對其中所涉及的人工智能倫理原則的內(nèi)容表述進行了對比分析(見表5)。盡管不同政策文件中,對人工智能倫理原則內(nèi)容描述的詳略程度和劃分維度有所區(qū)別,但盡可能全面地涵蓋人工智能倫理原則的核心架構(gòu),并將其深刻嵌入到人工智能產(chǎn)品、技術(shù)和服務(wù)的研發(fā)、應(yīng)用和治理等各個階段,是各國學(xué)(協(xié))會設(shè)計和構(gòu)建人工智能倫理原則的基本出發(fā)點和最終歸宿。

        1.造福原則

        造福(well-being & benefit)原則指的是,人工智能的發(fā)展成果應(yīng)當被全人類所共享,改善人類賴以生存的社會和環(huán)境,推動人類和社會繁榮進步,增進人民和社會福祉[6]。該倫理原則指明了人工智能發(fā)展的首要目標和最終歸宿,為人工智能研發(fā)人員在構(gòu)想、設(shè)計和優(yōu)化人工智能功能模塊和系統(tǒng)程序時提供了基本遵循。經(jīng)分析,本研究所選擇的10個分析樣本中,有8款人工智能倫理原則的指南規(guī)范均明確提出,人工智能的研發(fā)需遵循造福人類的基本原則。如政策4指出,人工智能開發(fā)者應(yīng)加強對話和協(xié)商,制定人工智能發(fā)展戰(zhàn)略,保障人工智能為社會公眾帶來福祉,借助人工智能解決教育改革、收入分配及社會服務(wù)等問題,并盡可能規(guī)避其不利影響;政策6和政策9均提出,人工智能創(chuàng)造的經(jīng)濟價值應(yīng)當造福全人類,并為全人類的和平、安全、美好和共同利益做出貢獻。此外,政策8和政策10提出,設(shè)計人工智能時應(yīng)當以用戶為中心,并最大限度地保護基本人權(quán)和人類自主權(quán)。在此過程中,人工智能開發(fā)者的根本目標是將人工智能給人類帶來的健康、安全和隱私等方面的威脅最小化;同時,人工智能的發(fā)展還要充分保護人類環(huán)境,促進全球自然環(huán)境的可持續(xù)發(fā)展。

        2.責(zé)任原則

        責(zé)任(responsibility & accountability)原則指的是,在研發(fā)人工智能時應(yīng)明確人工智能系統(tǒng)、產(chǎn)品、服務(wù)或功能的責(zé)任主體、責(zé)任分配、關(guān)聯(lián)責(zé)任,以及當發(fā)生不利后果時各責(zé)任主體所需承擔(dān)的后果和義務(wù)。該倫理原則規(guī)定了開發(fā)者在人工智能設(shè)計和研發(fā)階段務(wù)必遵循的法律法規(guī)和社會責(zé)任,進一步明確了人工智能發(fā)展過程中的責(zé)任紅線。本研究所選擇的10個分析樣本中,有7款人工智能倫理原則的指南規(guī)范均提到了人工智能責(zé)任倫理原則。其中,政策1、政策2和政策6均指出,人類應(yīng)當對人工智能負責(zé),并為每個人工智能產(chǎn)品或服務(wù)設(shè)立特定責(zé)任人。政策4和政策7對這一原則做出了更為詳盡的闡述,認為當下應(yīng)確保人工智能相關(guān)法律的明確性。政府需及時制定適用于算法決策和使用的規(guī)制框架,保障法律運作的確定性,將用戶權(quán)益作為第一要義,并要求人工智能的設(shè)計者、開發(fā)者和使用者加以遵循;此外,當前需要進一步明確人工智能系統(tǒng)的責(zé)任分配,明確規(guī)定如若發(fā)生安全問題,將由哪些主體承擔(dān)責(zé)任,以及后續(xù)的救濟或賠償措施。政策9建議在人工智能系統(tǒng)的開發(fā)、部署和使用過程中設(shè)立問責(zé)機制,即無論在什么情況下,人類都應(yīng)當對人工智能的行為及后果負責(zé)。

        3.公平正義原則

        公平正義(fairness & justice)原則指的是,以平等、公正的方式設(shè)計、分配人工智能的產(chǎn)品或服務(wù),進而形成全社會平等參與、公平使用人工智能技術(shù)成果的良好風(fēng)范。該原則規(guī)定,人工智能的訓(xùn)練數(shù)據(jù)和決策算法不應(yīng)嵌入開發(fā)人員觀念中固有的偏見或歧視想法,而應(yīng)當確保人工智能的產(chǎn)品和服務(wù)被所有人平等享有,鼓勵提升社會文化的多樣性與包容性。本研究所選擇的10個分析樣本中,有6款人工智能倫理指南規(guī)范提到了公平正義原則。具體來說,政策2指出,人工智能的開發(fā)者、設(shè)計者、架構(gòu)師及其他利益相關(guān)者應(yīng)充分了解系統(tǒng)設(shè)計、實現(xiàn)和使用過程中可能存在的算法偏見,以及這些偏見給人類社會帶來的潛在威脅。政策6和政策9均指出,人工智能的使用可能會給社會帶來各種性別、年齡、種族等的歧視問題,因此技術(shù)開發(fā)者在設(shè)計人工智能時,應(yīng)當盡可能避免歧視和偏見,確保該技術(shù)以公平的方式被人類使用。政策8闡述了公平正義原則的含義及解決措施,認為這一原則的含義包括平等、寬容、尊重他人、公平正義等。人工智能研究者應(yīng)保障社會公眾平等享有人工智能服務(wù)或產(chǎn)品,不因年齡、膚色、身體狀況、種族、家庭狀況、性別、國別、宗教信仰等差異而受到歧視。鑒于此,人工智能的信息技術(shù)應(yīng)具有包容性和可獲取性,盡可能避免對公民權(quán)利帶來的歧視或不公平行為。

        4.安全原則

        安全(security)原則指的是,在任何情況下都應(yīng)當阻止人工智能無意識行為傷害人類,或侵犯人類權(quán)益[5]。該原則強調(diào)人類應(yīng)采取審慎態(tài)度對待人工智能的產(chǎn)品和服務(wù),避免使自身承擔(dān)任何不恰當、易受傷的風(fēng)險[27],確保人工智能在使用過程中安全運作和穩(wěn)定可靠。本研究所選擇的10款人工智能倫理原則指南規(guī)范均提到了安全原則。其中,政策2指出,系統(tǒng)涉及的模型、算法、數(shù)據(jù)和決策都應(yīng)被精準記錄,以便在發(fā)生未知風(fēng)險時對系統(tǒng)進行審核。同時,人工智能開發(fā)者也應(yīng)使用嚴謹?shù)目茖W(xué)方法對其算法模型進行反復(fù)、定期檢測,記錄所采用的驗證方法和結(jié)果并加以公開,用以評估和監(jiān)測算法模型是否存在潛在威脅。政策4認為,應(yīng)當將安全性放在首要和突出地位。具體來說,在前期部署階段,應(yīng)當對人工智能系統(tǒng)進行反復(fù)測試,確保人工智能系統(tǒng)與軟硬件環(huán)境安全交互,依照預(yù)期程序穩(wěn)定運行。同時在系統(tǒng)運行過程中也應(yīng)當設(shè)置必要的監(jiān)控,根據(jù)實際需要隨時進行算法的更新、優(yōu)化和修正等工作。此外,還應(yīng)確保所有與互聯(lián)網(wǎng)連接的人工智能系統(tǒng)安全穩(wěn)定,以免造成網(wǎng)絡(luò)故障或受到惡意軟件感染。

        政策8從避免人工智能對人類造成傷害的角度闡述了安全原則,認為在人工智能開發(fā)與設(shè)計過程中,首先要充分考慮其服務(wù)或產(chǎn)品可能給人類帶來的潛在影響,包括對人工智能使用者的身體或精神傷害、個人信息泄露、個人財產(chǎn)或聲譽受損等,確保將所有的傷害降到最低。同時,人工智能開發(fā)者可隨時進行系統(tǒng)評估,并向公眾提供風(fēng)險評估報告,從而減少潛在的危害行為。政策7還進一步指出,開發(fā)者需要充分認識人工智能所帶來的潛在影響,避免該技術(shù)的誤用、濫用,將其對人類造成的不利后果的可能性降至最低;此外,提高人工智能系統(tǒng)安全性的關(guān)鍵方法是提高技術(shù)的健壯性、可靠性、可控性和成熟度,應(yīng)當采取必要的安全防范措施,且提高系統(tǒng)運行的可重現(xiàn)性,即驗證人工智能系統(tǒng)在相同條件下重復(fù)運行時能否表現(xiàn)出相同的行為,從而實現(xiàn)人工智能的系統(tǒng)安全、數(shù)據(jù)安全和外部環(huán)境安全。

        5.尊重人的自主性原則

        尊重人的自主性(respect for autonomy)原則明確了人工智能對個人自由和自主的尊重,指的是在承認個體所擁有的價值和持有的信念的基礎(chǔ)上,賦予具有自主能力的個人以自主選擇和自由行動的權(quán)力,其內(nèi)涵包括知情同意、尊重人權(quán)與尊嚴等內(nèi)容[28]。本研究所選擇的10個分析樣本中,有4款人工智能倫理指南規(guī)范提到了尊重人的自主性倫理原則。其中,政策1和政策3提出,人工智能的自主性應(yīng)當有所限制,要盡可能尊重人的自主性,確保個人可以始終控制人工智能。此外,一是從知情同意的方面來看,政策4指出,在開發(fā)、設(shè)計或使用人工智能系統(tǒng)時,個人必須掌握控制權(quán),即能夠隨時終止系統(tǒng)算法運行。同時,人工智能系統(tǒng)應(yīng)具備一定的可擴展性,允許人類隨時更改其決策策略,并納入系統(tǒng)決策支持。二是從尊重人權(quán)與尊嚴的方面來看,政策7指出,人工智能系統(tǒng)的設(shè)計應(yīng)當尊重、維系和保護人權(quán),并建議建立統(tǒng)一標準和監(jiān)督機構(gòu),確保人工智能的使用不侵犯人權(quán)、尊嚴、隱私和自由。

        6.隱私與個人信息保護原則

        隱私與個人信息保護(protection of privacy and personal information)原則規(guī)定,人工智能的設(shè)計、研發(fā)和應(yīng)用的全流程生命周期都應(yīng)當保護個人隱私和數(shù)據(jù)安全?!妒澜缛藱?quán)宣言》明確規(guī)定:“任何人的私生活、家庭、住宅和通信不得任意干涉,他的榮譽和名譽不得加以攻擊?!保?9]當下,如何保障隱私安全成為人工智能時代亟待解決的問題。本研究所選擇的10個分析樣本中,有5款人工智能倫理規(guī)范提到了隱私與保護倫理原則。一方面,人工智能系統(tǒng)可對個人數(shù)據(jù)進行獲取、分析和處理;另一方面,個人也有權(quán)保障個人隱私,限制人工智能系統(tǒng)對其個人數(shù)據(jù)的過度訪問、挖掘和利用。具體來說,政策1、政策4和政策6指出,人工智能開發(fā)者必須安全、合理地使用數(shù)據(jù),定期刪除無用數(shù)據(jù)。同時,要設(shè)置加密傳輸和靜態(tài)數(shù)據(jù),通過設(shè)置“訪問權(quán)限”限制特定人員進行數(shù)據(jù)訪問。在收集、使用、共享和存儲數(shù)據(jù)時,人工智能開發(fā)者必須遵循必要的隱私政策和個人數(shù)據(jù)保護條款。政策8認為,人工智能開發(fā)者應(yīng)充分保護隱私安全,明確用戶數(shù)據(jù)收集的范圍、形式、權(quán)利和責(zé)任。在使用個人數(shù)據(jù)時,必須以合法目的為前提,不得侵犯個人或團體的權(quán)利。因此,人工智能開發(fā)者做好數(shù)據(jù)隱私安全保護措施,防止未經(jīng)授權(quán)的訪問和泄露,建立開放透明的政策和程序,讓用戶了解其個人數(shù)據(jù)使用的目的和途徑,并為用戶提供知情同意許可,及時審查、糾正和刪除錯誤數(shù)據(jù)。此外,政策8指出,當前人工智能開發(fā)者經(jīng)常需要面對各類機密信息,如商業(yè)秘密、客戶數(shù)據(jù)、金融信息、研究數(shù)據(jù)、預(yù)發(fā)表論文及專利申請等。這就要求人工智能開發(fā)者提高保密意識,除政府等權(quán)威機構(gòu)的特殊要求外,不得隨意披露此類信息。

        7.透明性原則

        透明性(transparency)原則指的是,將人工智能的運作規(guī)則、算法參數(shù)、決策過程和處理結(jié)果以清晰、明確、精準的方式告知公眾,主要體現(xiàn)在可追溯性和可解釋性兩個方面。其中,可追溯性指的是與決策過程相關(guān)的數(shù)據(jù)集的產(chǎn)生過程、處理方法和運行結(jié)果能夠被精準地跟蹤、查詢或預(yù)測的能力,以幫助人工智能設(shè)計者分析、審查其決策的正確性,對系統(tǒng)性能和工作程序做出更好的解釋和更優(yōu)的判斷;可解釋性指的是對涉及人工智能系統(tǒng)技術(shù)研發(fā)和應(yīng)用場景的解釋能力,尤其是當人工智能系統(tǒng)對人們的生活產(chǎn)生重大影響時,需要對人工智能系統(tǒng)的決策過程做出適當、及時的解釋,從而幫助利益相關(guān)者更好地理解系統(tǒng)設(shè)計的基本原則、運作原理和適用性。本研究所選擇的10款人工智能倫理原則的指南規(guī)范中,有7款提到了透明性原則。對于可解釋性,政策4認為,人工智能所做出的決策應(yīng)該具有可解釋性,特別是當決策引發(fā)公共安全或?qū)е缕缫曅袨闀r。首先,要確保算法決策的可解釋性,即人工智能開發(fā)者能夠為人工智能系統(tǒng)設(shè)計提供充分解釋,一些具有潛在公共安全隱患的人工智能系統(tǒng)在發(fā)生事故時提供信息支持。其次,人工智能的服務(wù)提供商需要為用戶提供權(quán)限,支持其獲取人工智能決策支持的充分解釋。對于透明性,政策5指出,首先,人工智能開發(fā)者應(yīng)公開收集得到的數(shù)據(jù)、數(shù)據(jù)使用目的,以及在數(shù)據(jù)處理過程中應(yīng)用的技術(shù)、模型和處理結(jié)果;其次,應(yīng)公開其數(shù)據(jù)和模型的控制措施,檢測是否存在算法歧視,是否需要進行算法修正,實現(xiàn)算法公平。另外,考慮到隱私安全問題,人工智能開發(fā)者不可能全面公開其算法源代碼,這就需要提高人工智能系統(tǒng)的透明性,明晰責(zé)任歸屬。人工智能開發(fā)者還需及時與用戶溝通,定期為公眾提供系統(tǒng)有效性和可靠運作的監(jiān)測結(jié)果,以幫助公眾更好地理解和預(yù)測人工智能系統(tǒng)的決策及影響。

        8.可靠性原則

        可靠性(reliability)原則指的是,開發(fā)、部署和設(shè)計人工智能系統(tǒng)或服務(wù)時,所涉及的算法、模型或數(shù)據(jù)真實可信,可確保人工智能系統(tǒng)能夠在一定時間、一定條件下穩(wěn)定、高效、無故障地執(zhí)行指定功能的能力。本研究所選樣本中有5款人工智能倫理原則的指南規(guī)范提到了可靠性原則。如政策3指出,開發(fā)人工智能系統(tǒng)要以大型數(shù)據(jù)集為基礎(chǔ),應(yīng)正確理解算法程序涉及的參數(shù)和數(shù)據(jù),保障數(shù)據(jù)的完整性,同時要確保開發(fā)和改進人工智能系統(tǒng)所需數(shù)據(jù)的魯棒性、代表性和可用性。政策6認為,人工智能開發(fā)者有義務(wù)以科學(xué)、嚴謹、可靠的方式開展人工智能系統(tǒng)的開發(fā)和設(shè)計,并向用戶全面、如實地解釋人工智能系統(tǒng)可能存在的技術(shù)限制和潛在風(fēng)險。類似地,政策8指出,人工智能開發(fā)者應(yīng)確保其向使用者提供的系統(tǒng)性能、服務(wù)質(zhì)量、潛在風(fēng)險等信息都是公開透明的,不得提供虛假或誤導(dǎo)性的聲明,不得偽造數(shù)據(jù)資料和實施行賄受賄及其他惡意行為等。

        9.其他

        除上述倫理原則外,本研究所選擇的部分分析樣本還提及了其他人工智能倫理原則,用于規(guī)范和優(yōu)化人工智能政策法規(guī)、倫理準則的修訂與完善。如政策4提出了共同治理原則,認為應(yīng)當建立更大范圍、更加多元的人工智能倫理全球治理機制,即在全球和各區(qū)域建立多方利益相關(guān)者的人工智能倫理治理機構(gòu),邀請民間組織、政府、私營部門、學(xué)術(shù)界和技術(shù)社區(qū)及公眾共同參與,并依托人工智能倫理問題的舉報機制和監(jiān)督程序,構(gòu)建科學(xué)合理的人工智能倫理安全保護框架。政策6提出了溝通原則,認為人工智能開發(fā)者應(yīng)當與社會公眾建立長效溝通機制,盡可能提高用戶對人工智能的理解和認識,促進人工智能產(chǎn)品及技術(shù)的推廣應(yīng)用。政策7提及了效率倫理原則,并建議開發(fā)人員制定相應(yīng)標準作為有效性的衡量指標,給出各衡量指標的獲取方法、解釋維度、誤差范圍、置信區(qū)間和結(jié)果闡述等,并倡導(dǎo)行業(yè)協(xié)會和組織為人工智能系統(tǒng)應(yīng)用的有效性制定測量標準,確保人工智能系統(tǒng)的發(fā)展目標、風(fēng)險評估均符合科學(xué)有效的原則;此外,政策7提出了勝任原則,即要求人工智能的開發(fā)者和使用者具備人工智能技術(shù)有效操作、安全運行所需的知識和技能,并向有關(guān)專家和用戶提供系統(tǒng)操作方法、前提條件、操作者技能、系統(tǒng)性能衡量方法以及誤操作后果的相關(guān)資料。同時,人工智能使用者應(yīng)當及時接受教育和培訓(xùn),使其在心理、情感和技能等方面適應(yīng)人工智能帶來的影響,更好地享有人工智能的發(fā)展成果。

        五、結(jié)論與思考

        本研究選取了近年來各國學(xué)(協(xié))會發(fā)布的較有影響力的10款人工智能倫理原則政策文件,試圖剖析人工智能倫理原則的核心框架和主要內(nèi)容。分析認為,現(xiàn)有人工智能倫理原則具有一定的合理性,但仍存在一些不足之處有待改進和完善。特別是,近年來隨著人工智能技術(shù)日新月異的發(fā)展,所開發(fā)設(shè)計的各類人工智能產(chǎn)品和服務(wù)越來越趨向于具有類人的思維和行為,這就要求其應(yīng)當更加嚴格地遵守人類基本倫理規(guī)范的約束,如家庭倫理原則(包括將夫妻關(guān)系與家庭利益相結(jié)合,禁止亂倫,對人類自身生產(chǎn)進行規(guī)范;要求家庭成員之間相互尊重、相親相愛、敬老愛幼、無私奉獻)[30]、交往倫理原則(即“真”與“誠”原則、仁愛與寬容原則、尊重平等原則)[31]以及職業(yè)倫理原則(即自由、責(zé)任、誠實、平等、公正和守法)[32]等。但根據(jù)筆者研究發(fā)現(xiàn),當前由各國學(xué)(協(xié))會發(fā)布的人工智能倫理規(guī)范并沒有涉及有關(guān)家庭倫理、交往倫理及職業(yè)倫理等層面的基本原則,致使人工智能產(chǎn)品或服務(wù)在參與社會實踐和人機交往過程中缺乏必要的倫理遵循,進而引發(fā)各類社會倫理問題。因此,在制定人工智能倫理原則時,既要考慮為政策執(zhí)行者提供依據(jù)和指導(dǎo),又要綜合分析人工智能產(chǎn)品或服務(wù)的現(xiàn)實應(yīng)用[33],如將真誠原則、仁愛寬容原則、自由守法原則等納入其中,使其更具普適性和實用性。

        參考文獻:

        [1]KRITTANAWONG C, ZHANG H, WANG Z, et al. Artificial Intelligence in Precision Cardiovascular Medicine[J]. Journal of the American College of Cardiology,2017(21):2657-2664.

        [2]孫偉平.人工智能是倫理道德建設(shè)的“助推器”[J].特區(qū)實踐與理論,2019(4):98-101.

        [3]SWARTE T, BOUFOUS O, ESCALLE P. Artificial Intelligence, Ethics and Human Values: The Cases of Military Drones and Companion Robots[J]. Artificial Life and Robotics,2019(3):291-296.

        [4]JOBIN A, IENCA M, VAYENA E. The Global Lands-cape of AI Ethics Guidelines[J]. Nature Machine Intelligence,2019(9):389-399.

        [5]鄧國民,李梅.教育人工智能倫理問題與倫理原則探討[J].電化教育研究,2020(6):39-45.

        [6]張浩,黃克同.邁向制度化的人工智能倫理[J].人工智能,2019(4):32-38.

        [7]蔣潔.風(fēng)險視域下人工智能倫理的主旨和原則[J].信息通信技術(shù)與政策,2019(6):13-16.

        [8]杜靜,黃榮懷,李政璇,等.智能教育時代下人工智能倫理的內(nèi)涵與建構(gòu)原則[J].電化教育研究,2019(7):21-29.

        [9]鄭志峰.人工智能時代的隱私保護[J].法律科學(xué)(西北政法大學(xué)學(xué)報),2019(2):51-60.

        [10]李倫,孫保學(xué).給人工智能一顆“良芯(良心)”——人工智能倫理研究的四個維度[J].教學(xué)與研究,2018(8):72-79.

        [11]楊保軍,杜輝.智能新聞:倫理風(fēng)險·倫理主體·倫理原則[J].西北師大學(xué)報(社會科學(xué)版),2019(1):27-36.

        [12]李娜,陳君.負責(zé)任創(chuàng)新框架下的人工智能倫理問題研究[J].科技管理研究,2020(6):258-264.

        [13]HO C W L, ALI J, CAALS K. Ensuring Trustworthy Use of Artificial Intelligence and Big Data Analytics in Health Insurance[J]. Bulletin of the World Health Organization,2020(4):263-269.

        [14]曹建峰,方齡曼.歐盟人工智能倫理與治理的路徑及啟示[J].人工智能,2019(4):39-47.

        [15]張榮,徐飛.人工智能醫(yī)學(xué)倫理問題及對策研究[J].醫(yī)學(xué)與哲學(xué),2020(13):14-19.

        [16]KESKINBORA K H. Medical Ethics Considerations on Artificial Intelligence[J]. Journal of Clinical Neuroscience,2019,64:277-282.

        [17]ZENG Y, LU E, HUANGFU C. Linking Artificial Intelligence Principles[C/OL]. Proceedings of the AAAI Workshop on Artificial Intelligence Safety (AAAI-Safe AI 2019),2018[2021-09-21].https://arxiv.org/abs/1812.04814.

        [18]JESSICA F, ACHTEN N, HILLIGOSS H, et al. Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-based Approaches to Principles for AI[EB/OL].[2021-08-23]. https://dash.harvard.edu/handle/1/42160420.

        [19]THILO H. The Ethics of AI Ethics:An Evaluation of Guidelines[J]. Minds and Machines,2020(1):99-120.

        [20]BURUK B, EKMEKCI P E, ARDA B. A Critical Perspective on Guidelines for Responsible and Trustworthy Artificial Intelligence[J]. Medicine Health Care and Philosophy,2020(3):387-399.

        [21]RYAN M, STAHI B C. Artificial Intelligence Ethics Guidelines for Developers and Users:Clarifying Their Content and Normative Implications[J/OL]. Journal of Information, Communication and Ethics in Society,2021(1):61-68

        [2021-09-21].https://www.emerald.com/insight/content/doi/10.1108/JICES-12-2019-0138/full/html.

        [22]Ethical AI Resources.Institutes and Fellowships[EB/OL].[2021-09-21].https://ethicalairesources.com/other-resources/.

        [23]Future of Life Institute. Summaries of AI Policy Resources[EB/OL].[2021-09-21].https://futureoflife.org/ai-policy-resources/.

        [24]準則列表[EB/OL].[2021-09-21].http://www.linking-ai-principles.org/cnprinciples.

        [25]斯皮內(nèi)洛.世紀道德:信息技術(shù)的倫理方面[M].北京:中央編譯出版社,1998:12-13.

        [26]WMA. Declaration of Helsinki[EB/OL].[2021-06-25].https://www.wma.net/what-we-do/medical-ethics/declaration-of-helsinki/.

        [27]比徹姆.哲學(xué)的倫理學(xué)[M].雷克勤,郭夏娟,譯.北京:中國社會科學(xué)出版社,1990:26-27.

        [28]KANT I. Foundations of the Metpyysics of Morals[M]. Philadelphia: University of Pennsylvanis Press,1977.

        [29]格德門德爾·阿爾弗雷德松,阿斯布佐恩·艾德.《世界人權(quán)宣言》——努力實現(xiàn)的共同標準[M].中國人權(quán)研究會,譯.成都:四川人民出版社,1999.

        [30]薛寧蘭.婚姻家庭法定位及其倫理內(nèi)涵[J].江淮論壇,2015(6):133-141.

        [31]王倩薷.論現(xiàn)代社會的交往倫理[D].西安:陜西師范大學(xué),2013:43.

        [32]王海明.制度倫理的重要原則[J].江海學(xué)刊,2000(3):89-93.

        [33]劉繼虎,王琛揚.智能機器人法律主體地位之探討[J].重慶郵電大學(xué)學(xué)報(社會科學(xué)版),2021(2):74-80.

        The Core Framework and Content Analysis of Ethical Principles of Artificial Intelligence

        ZHOU Qingshan1, ZHENG Xia2, HUANG Guobin3

        (1. Department of Information Management, Peking University, Beijing 100871, China;

        2. Office of Laboratory Management and Teaching Facilities Development, Renmin University of China, Beijing 100086, China;

        3. School of Government, Beijing Normal University, Beijing 100875, China)

        Abstract:[Purpose/significance] Artificial intelligence technology quietly opened the curtain of the fourth industrial revolution, bringing revolutionary changes to the development of all walks of life. However, the legal regulations and standard construction of this technology are not yet perfect, which has triggered the global exploration and thinking of artificial intelligence ethics principles and standard systems. National academic/associations have successively issued artificial intelligence ethics codes or policy documents. This research comprehensively analyzes and sorts out the core framework of the current highly recognized artificial intelligence ethical principles, and aims to provide references for countries to formulate and improve artificial intelligence ethical norms. [Method/process] By using the network research method, content analysis method and comparative research method, on the basis of comprehensive consideration of influence, country, availability and other factors, we select the authoritative policy documents related to the ethical principles of artificial intelligence issued by various national academic associations in recent years, and extract the core framework and main contents of the ethical principles of artificial intelligence involved. [Results/conclusion] The field of artificial intelligence mainly includes 8 artificial intelligence ethical principles, including the benefit principle, the responsibility principle, the fairness and justice principle, the safety principle, the respect for human autonomy, the privacy and protection principle, the transparency principle and the reliability principle.

        Keywords:artificial intelligence; ethical principles; standard system

        (編輯:李春英)

        猜你喜歡
        人工智能
        我校新增“人工智能”本科專業(yè)
        用“小AI”解決人工智能的“大”煩惱
        汽車零部件(2020年3期)2020-03-27 05:30:20
        當人工智能遇見再制造
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        AI人工智能解疑答問
        人工智能與就業(yè)
        基于人工智能的電力系統(tǒng)自動化控制
        人工智能,來了
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        人工智能來了
        久久久g0g0午夜无码精品| 久久影院最新国产精品| 粉嫩极品国产在线观看免费一区| 中文字幕人妻熟女人妻| 亚洲精品成人网站在线观看 | 骚片av蜜桃精品一区| 日韩欧美专区| 亚洲色图视频在线观看,| 成人大片免费观看视频| 日韩欧美成人免费观看| 久久综合第一页无码| 成人免费视频自偷自拍| 风韵犹存丰满熟妇大屁股啪啪| 久久精品欧美日韩精品| 国产三级在线视频播放| 精品人妻一区二区三区蜜臀在线| 日本激情网站中文字幕| 正在播放东北夫妻内射| 国产V日韩V亚洲欧美久久| 国产精品黑丝美女av| 夜夜高潮夜夜爽夜夜爱爱一区| 成 人 免费 黄 色 视频| 久久99精品中文字幕在| 日本黄网色三级三级三级| 又粗又黄又猛又爽大片app| 老太脱裤让老头玩ⅹxxxx| 日本精品人妻在线观看| 亚洲毛片一区二区在线| 51国偷自产一区二区三区| 人妻精品丝袜一区二区无码AV | 国产人妻久久精品二区三区老狼 | 国产韩国精品一区二区三区| 中文字幕一区二区综合| 人妻少妇乱子伦精品无码专区电影| 99视频这里有精品| 手机在线看片在线日韩av| 欧美v国产v亚洲v日韩九九| 无码精品国产va在线观看| 噜噜噜色97| 成年人干逼视频水好多| 天码人妻一区二区三区|