亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        人工智能倫理:體系構(gòu)建與治理質(zhì)量

        2025-03-24 00:00:00張雷張家誠許弘楷
        宏觀質(zhì)量研究 2025年1期
        關(guān)鍵詞:人工智能

        摘"要:各國圍繞人工智能治理的問題展開了廣泛討論。其中,人工智能技術(shù)發(fā)展過程中產(chǎn)生的倫理問題不斷凸顯,已上升到國家社會(huì)經(jīng)濟(jì)發(fā)展與戰(zhàn)略安全層面。為此構(gòu)建人工智能倫理體系,提高人工智能倫理治理的針對(duì)性,并對(duì)治理質(zhì)量進(jìn)行評(píng)價(jià),旨在為人工智能技術(shù)與社會(huì)融合的健康有序發(fā)展提供倫理指導(dǎo)。首先概述人工智能的發(fā)展歷程和深度應(yīng)用,隨后分析人工智能技術(shù)進(jìn)步帶來的倫理挑戰(zhàn),在此基礎(chǔ)上構(gòu)建人工智能倫理體系,并分析了倫理體系的運(yùn)作過程與現(xiàn)存問題。其次在總結(jié)人工智能倫理治理的內(nèi)容后,對(duì)人工智能倫理治理質(zhì)量進(jìn)行評(píng)價(jià),形成人工智能倫理治理質(zhì)量的評(píng)價(jià)指標(biāo)與評(píng)價(jià)體系,驗(yàn)證倫理治理的效果。最后,從智能產(chǎn)品設(shè)計(jì)、技術(shù)治理、差異化需求、跨學(xué)科與跨國合作等方面提出政策建議,以促進(jìn)人工智能技術(shù)的可持續(xù)發(fā)展和倫理問題的有效解決。

        關(guān)鍵詞:人工智能;倫理風(fēng)險(xiǎn);倫理體系;質(zhì)量評(píng)價(jià)

        一、引言

        人工智能作為社會(huì)進(jìn)步和技術(shù)迭代的產(chǎn)物,正在不斷嵌入社會(huì)各領(lǐng)域,成為新時(shí)代科技創(chuàng)新和產(chǎn)業(yè)發(fā)展的核心驅(qū)動(dòng)力,對(duì)世界經(jīng)濟(jì)、社會(huì)結(jié)構(gòu)和人民生活產(chǎn)生了深遠(yuǎn)影響。人工智能發(fā)展以1956年“圖靈測(cè)試”為起點(diǎn),此后的機(jī)器學(xué)習(xí)方法和深度學(xué)習(xí)方法不斷打破理論與實(shí)踐的邊界,使人工智能向社會(huì)縱深領(lǐng)域廣泛發(fā)展。如今,人工智能發(fā)展邁向更高階段,呈現(xiàn)“智能涌現(xiàn)”的表現(xiàn)形式(王飛躍和繆青海,2023),以大模型為代表的生成式人工智能已顯露出對(duì)行業(yè)和學(xué)術(shù)研究的顛覆式影響,在與相關(guān)產(chǎn)業(yè)融合的過程中為經(jīng)濟(jì)社會(huì)高質(zhì)量發(fā)展提供新動(dòng)能。例如:在教育領(lǐng)域,生成式人工智能賦能跨學(xué)科創(chuàng)新思維培養(yǎng)的教學(xué)模式,為復(fù)合型人才培養(yǎng)提供新模式與新路徑(董艷和陳輝,2024);在金融領(lǐng)域,智能投資顧問結(jié)合智能技術(shù)與金融知識(shí),利用強(qiáng)大算法為用戶提供個(gè)性化的資產(chǎn)管理投資計(jì)劃,穩(wěn)健提升投資回報(bào)(Huang等,2024)。與此同時(shí),技術(shù)進(jìn)步是一把雙刃劍,人工智能技術(shù)演進(jìn)的復(fù)雜性與不確定性正在挑戰(zhàn)現(xiàn)有社會(huì)制度與規(guī)則。隨著人工智能加速賦能各行各業(yè),人工智能安全議題正從隱私與數(shù)據(jù)泄露、算法黑箱、算力匱乏、模型漏洞等系統(tǒng)性安全問題,擴(kuò)展至人類主體模糊、人權(quán)保障缺失、偏見與歧視等非傳統(tǒng)性安全問題,使技術(shù)倫理治理的范疇和模式發(fā)生深刻變化(鄧悅等,2024)。可以預(yù)見,人工智能倫理將成為今后面臨的一個(gè)長期的結(jié)構(gòu)性難題,解決人工智能技術(shù)迭代過程中產(chǎn)生的新興倫理問題變得更加緊迫且必要。

        從社會(huì)角度來看,人工智能領(lǐng)域的倫理問題已成為國際重點(diǎn)議題,引起強(qiáng)烈反響與廣泛研究。2021年11月,聯(lián)合國發(fā)布《人工智能倫理問題建議書》,該建議書首次對(duì)人工智能倫理問題進(jìn)行規(guī)范性考量,全盤考慮人工智能技術(shù)對(duì)經(jīng)濟(jì)、政治、文化、環(huán)境等方面的影響,并強(qiáng)調(diào)使人工智能技術(shù)立足于人權(quán)和基本價(jià)值觀,加強(qiáng)全球合作與團(tuán)結(jié),確保各國人工智能發(fā)展均以倫理原則為指導(dǎo),以可持續(xù)發(fā)展為共同愿景,推動(dòng)形成各國政府、學(xué)術(shù)界、產(chǎn)業(yè)、公眾緊密交互的多利益相關(guān)方人工智能治理體系。我國在人工智能倫理治理方面走在國際前列,做出了積極貢獻(xiàn)。2021年9月,國家新一代人工智能治理專業(yè)委員會(huì)發(fā)布《新一代人工智能倫理規(guī)范》,旨在將倫理道德融入人工智能全生命周期,提出了增進(jìn)人類福祉、促進(jìn)公平公正、保護(hù)隱私安全等基本倫理要求,具有全面性、前瞻性、時(shí)代性。中國信通院于2023年發(fā)布的《人工智能倫理治理研究報(bào)告》探討了人工智能技術(shù)應(yīng)用帶來的倫理挑戰(zhàn),分析總結(jié)我國的倫理治理實(shí)踐,由此提出敏捷治理、主體合作、分類分級(jí)、提高標(biāo)準(zhǔn)、全面應(yīng)對(duì)、國際合作等多方面的倫理治理展望。2024年1月,外交部發(fā)布《關(guān)于加強(qiáng)人工智能倫理治理的立場(chǎng)文件》,結(jié)合我國在科技倫理領(lǐng)域的政策實(shí)踐,參考國際社會(huì)相關(guān)有益成果,從技術(shù)監(jiān)管、研發(fā)、使用、國際合作四個(gè)方面提出解決人工智能倫理問題的主張,推動(dòng)國際人工智能倫理治理??梢姡瑖H、國內(nèi)從不同視角與立場(chǎng),開展對(duì)人工智能倫理問題的分析,提出治理方案,積極回應(yīng)人工智能倫理治理這一重大時(shí)代課題。

        從學(xué)術(shù)角度來看,作為新興的跨學(xué)科領(lǐng)域,人工智能倫理治理需要綜合研判人工智能倫理發(fā)展中的關(guān)鍵問題,構(gòu)建起人工智能倫理體系,并通過科學(xué)方法對(duì)倫理治理質(zhì)量進(jìn)行評(píng)價(jià),最終目標(biāo)是有效控制倫理風(fēng)險(xiǎn)的滋生與蔓延,回應(yīng)技術(shù)開發(fā)者、應(yīng)用者的道德質(zhì)疑,為擴(kuò)寬人工智能應(yīng)用場(chǎng)景、解決社會(huì)經(jīng)濟(jì)重大問題提供重要倫理指導(dǎo),避免技術(shù)應(yīng)用和產(chǎn)業(yè)發(fā)展對(duì)社會(huì)和個(gè)人產(chǎn)生負(fù)面影響。以我國為例,近年來我國以開放包容和韌性容錯(cuò)的“技術(shù)善治”為導(dǎo)向(張夏恒和馬妍,2024),對(duì)人工智能技術(shù)風(fēng)險(xiǎn)的治理模式從集中式、回應(yīng)式逐步轉(zhuǎn)向敏捷式(姜李丹和薛瀾,2022),劃定倫理底線,保持技術(shù)創(chuàng)新引導(dǎo)力度與倫理問題回應(yīng)力度的協(xié)同,使人工智能研究和應(yīng)用的風(fēng)險(xiǎn)處于可控范圍內(nèi)。但需要意識(shí)到,人工智能發(fā)展與時(shí)俱進(jìn),技術(shù)迭代迅速,國際上人工智能使用條件各異,若要使技術(shù)創(chuàng)新、倫理治理與社會(huì)經(jīng)濟(jì)發(fā)展之間達(dá)到平衡穩(wěn)定的狀態(tài),需要切實(shí)回應(yīng)人工智能新興倫理問題。首先,展開人工智能新興倫理問題的識(shí)別,補(bǔ)充并更新倫理層面的基礎(chǔ)性理論研究;其次,構(gòu)建以倫理原則為基礎(chǔ)、社會(huì)需求為導(dǎo)向的人工智能倫理體系,最大限度地發(fā)揮人工智能技術(shù)進(jìn)步的優(yōu)勢(shì),為技術(shù)發(fā)展提供倫理指引;最后,在倫理治理方案施行后開展治理質(zhì)量評(píng)價(jià),有助于及時(shí)反饋倫理治理效果,進(jìn)一步引導(dǎo)人工智能技術(shù)的有序、穩(wěn)健發(fā)展。那么,人工智能倫理有哪些新興或潛在的問題?人工智能倫理體系框架從哪些方面構(gòu)建?如何對(duì)倫理治理質(zhì)量展開科學(xué)的、可落地的、可復(fù)制的評(píng)價(jià)?以上幾個(gè)問題亟待分析與回應(yīng)。

        行文安排上,文章首先分析了人工智能應(yīng)用于社會(huì)不同場(chǎng)景下產(chǎn)生的倫理風(fēng)險(xiǎn),新興、潛在、多樣的倫理風(fēng)險(xiǎn)催生人工智能倫理體系的構(gòu)建,探析人工智能倫理體系的核心組成,以此為基礎(chǔ)詳述倫理體系的運(yùn)作過程和具體應(yīng)用問題。其次,文章從不同層面分析了運(yùn)用人工智能倫理體系展開倫理治理的主要內(nèi)容。最后,文章構(gòu)建了一套人工智能倫理治理質(zhì)量評(píng)價(jià)體系,對(duì)倫理治理效果進(jìn)行科學(xué)評(píng)價(jià)。文章形成“體系-治理-質(zhì)量評(píng)價(jià)”的內(nèi)容,以期為人工智能與經(jīng)濟(jì)社會(huì)的協(xié)同發(fā)展提供一定的經(jīng)驗(yàn)借鑒與啟示。

        二、文獻(xiàn)綜述

        (一)人工智能與人工智能倫理

        1.人工智能的內(nèi)涵

        隨著研發(fā)與應(yīng)用過程中的智能化程度不斷提高,人工智能的概念需要?jiǎng)討B(tài)調(diào)整。起初,人工智能是機(jī)器重復(fù)人類思維的過程(Minsky,1961)。隨著技術(shù)發(fā)展,機(jī)器學(xué)習(xí)的概念被引入,機(jī)器自由地使用任何辦法來形成自發(fā)行為也可被歸類為人工智能。技術(shù)不斷迭代的過程中,Min(2010)認(rèn)為人工智能是一種“思維機(jī)器”,具有自我開發(fā)與創(chuàng)造能力,通過不斷學(xué)習(xí)、模仿人類智能達(dá)成某種目的。賈開和蔣余浩(2017)、Li和Du(2017)認(rèn)為人工智能建立在現(xiàn)代算法的基礎(chǔ)上,以歷史數(shù)據(jù)為支撐,進(jìn)行感知、推理、學(xué)習(xí)、決策等思維活動(dòng),并達(dá)成自主決策。更進(jìn)一步,新一代人工智能將技術(shù)推向新的革命高潮,使學(xué)術(shù)科研范式和社會(huì)生產(chǎn)生活發(fā)生新變革(Kung等,2023)。張?chǎng)魏屯趺鬏x(2019)將人工智能區(qū)別于計(jì)算機(jī)、自動(dòng)化等技術(shù),認(rèn)為人工智能具有生物智能的自學(xué)習(xí)、自組織、自適應(yīng)、自行動(dòng)等特征,在多維度、多場(chǎng)景的任務(wù)處理過程中體現(xiàn)自我意識(shí),溝通能力與科學(xué)創(chuàng)造力不斷加強(qiáng);鄧悅等(2024)結(jié)合弱人工智能向強(qiáng)人工智能過渡階段的技術(shù)發(fā)展特征,認(rèn)為人工智能可以將人類思維抽象化,在反復(fù)學(xué)習(xí)與反饋過程中模擬人類行為,形成更強(qiáng)的探索能力、辨認(rèn)能力與思維能力,提升技術(shù)效率并創(chuàng)造社會(huì)價(jià)值??梢姡瑢W(xué)界對(duì)人工智能的內(nèi)涵并未達(dá)成共識(shí),但仍可總結(jié)出固定的核心理念:一方面,研究人員更多關(guān)注人工智能自主決策能力。根據(jù)技術(shù)演進(jìn)趨勢(shì)下的智能化程度,人工智能處于弱人工智能向強(qiáng)人工智能的轉(zhuǎn)變過程,更為精進(jìn)的人工智能技術(shù)已經(jīng)能夠超出設(shè)計(jì)和編制的程序范圍,全面復(fù)現(xiàn)人類的絕大部分思維能力,并在某些方面超越人類。另一方面,人工智能與人存在明顯的從屬關(guān)系。人工智能無法完全脫離人類智慧,其核心功用是在學(xué)習(xí)和模仿人類思維與行為過程中代替人類完成單一或復(fù)雜的工作,盡管機(jī)器可以通過自身迭代以提升學(xué)習(xí)能力,但學(xué)習(xí)的內(nèi)容、方法以及原則仍靠人為決定。

        2.人工智能倫理的內(nèi)涵

        “倫理”一詞廣義上指道德,狹義上表示個(gè)人、家庭、社會(huì)關(guān)系等某一特定范圍內(nèi)的道德原則,對(duì)倫理問題的研究通過明晰事件中的對(duì)錯(cuò)、善惡、利弊等概念來解決各種復(fù)雜的人類道德問題。倫理研究的本質(zhì)是一個(gè)領(lǐng)域不斷擴(kuò)展、內(nèi)容不斷完善的道德實(shí)踐過程(杜靜等,2019)。此前的倫理問題大多集中于人與自然、社會(huì)的關(guān)系,歸類于道德領(lǐng)域和政治領(lǐng)域,而科學(xué)技術(shù)日新月異,機(jī)器與人的生活更加密切,需要進(jìn)一步審視人與智能機(jī)器,特別是與人工智能的倫理關(guān)系。

        人工智能倫理研究是人工智能技術(shù)發(fā)展到一定程度的產(chǎn)物,指通過制定相關(guān)標(biāo)準(zhǔn)、行業(yè)制度、倫理框架、技術(shù)指南等方式,處理無法單純靠技術(shù)進(jìn)步解決的社會(huì)、倫理和法律問題,促進(jìn)人類與機(jī)器的和諧共處。人工智能倫理研究可劃分為社會(huì)實(shí)踐角度與學(xué)術(shù)應(yīng)用角度。首先,從社會(huì)實(shí)踐角度來看,人工智能倫理問題可追溯到20世紀(jì)60年代,在計(jì)算機(jī)科學(xué)和信息技術(shù)發(fā)展的初期階段,計(jì)算機(jī)科學(xué)家們開始思考機(jī)器的道德與社會(huì)影響;自20世紀(jì)80年代起,人工智能應(yīng)用的法律問題受到關(guān)注,到21世紀(jì)真正展開對(duì)人工智能應(yīng)用的一般性法理問題的討論,例如人工智能應(yīng)用的法律風(fēng)險(xiǎn),人工智能法律身份確定、法律責(zé)任劃分等(余雅風(fēng)和王朝夷,2023)。如今,為應(yīng)對(duì)人工智能倫理潛在的新問題、新隱患,許多國家和組織機(jī)構(gòu)制定技術(shù)倫理相關(guān)的治理框架與指南,開展更廣泛的國際合作,旨在幫助政府、企業(yè)和研究人員在技術(shù)研發(fā)與社會(huì)應(yīng)用中遵循倫理規(guī)則。例如2021年發(fā)布的《網(wǎng)絡(luò)安全標(biāo)準(zhǔn)實(shí)踐指南——人工智能倫理安全風(fēng)險(xiǎn)防范指引》,是我國首個(gè)涉及一般性、基礎(chǔ)性人工智能倫理問題的指引文件,針對(duì)人工智能倫理挑戰(zhàn)提出了較具體的治理框架和行為規(guī)范意見(賈開和薛瀾,2021)。其次,從學(xué)術(shù)應(yīng)用角度來看,以Wendell Wallach為首的人工智能和神經(jīng)科學(xué)、倫理學(xué)領(lǐng)域的學(xué)者基于當(dāng)前技術(shù)的現(xiàn)狀來論證提高機(jī)器倫理決策能力的必要性。Wallach(2017)認(rèn)為機(jī)器智能的道德發(fā)展將經(jīng)歷操作性道德、功能性道德和充分的道德主體性三個(gè)階段,基于當(dāng)前的技術(shù)現(xiàn)狀,機(jī)器自身已經(jīng)有能力響應(yīng)道德挑戰(zhàn),因此要對(duì)機(jī)器智能的功能性道德展開監(jiān)管,實(shí)現(xiàn)效益最大化和風(fēng)險(xiǎn)最小化。這一理論為化解人工智能倫理挑戰(zhàn)提供了有效的技術(shù)方案與應(yīng)用途徑。例如,監(jiān)管生成式人工智能可從內(nèi)部規(guī)訓(xùn)和外部規(guī)約兩大維度,對(duì)其道德判斷、數(shù)據(jù)泄露、知識(shí)產(chǎn)權(quán)之爭等問題展開邏輯考量并提供應(yīng)對(duì)之策(令小雄等,2023)。

        (二)人工智能倫理體系構(gòu)建的相關(guān)研究

        對(duì)人工智能進(jìn)行倫理規(guī)約在新一代技術(shù)革命的背景下不僅重要而且必要(于雪和段偉文,2023)。目前研究中,技術(shù)倫理體系構(gòu)建有兩種路徑:第一,產(chǎn)業(yè)界在設(shè)計(jì)與試驗(yàn)過程中使新興技術(shù)符合現(xiàn)有倫理規(guī)范;第二,以“科技向善”為目標(biāo),通過制定新的倫理規(guī)范來確定技術(shù)發(fā)展的倫理邊界。

        1.具體領(lǐng)域倫理規(guī)范制定

        業(yè)界通過對(duì)人工智能社會(huì)倫理的判定原則及生成邏輯的論證,使人工智能符合現(xiàn)有倫理規(guī)范,并提出倫理治理的相關(guān)建議。瞿晶晶等(2022)綜合醫(yī)學(xué)、心理學(xué)、社會(huì)科學(xué)等領(lǐng)域,深入分析已成文的科技倫理?xiàng)l例,提煉出涉及主體參與、運(yùn)行反饋和程序公正等層面的人工智能倫理運(yùn)行機(jī)制,助力人工智能穩(wěn)健發(fā)展。于雪和李倫(2022)關(guān)注社會(huì)實(shí)驗(yàn)領(lǐng)域,以尊重自主、不傷害、有利、公平等基本原則為依據(jù),建構(gòu)人工智能社會(huì)實(shí)驗(yàn)倫理體系,防控人工智能潛在的社會(huì)倫理風(fēng)險(xiǎn)。隨著人工智能與社會(huì)各領(lǐng)域的廣泛結(jié)合,既有的倫理原則難以應(yīng)對(duì)人工智能發(fā)展的復(fù)雜性、動(dòng)態(tài)性、開放性態(tài)勢(shì),現(xiàn)有的倫理規(guī)范可能無法完全回應(yīng)人工智能技術(shù)應(yīng)用社會(huì)各領(lǐng)域帶來的潛在風(fēng)險(xiǎn)與新興風(fēng)險(xiǎn)。

        2.國內(nèi)國際通用規(guī)范制定

        另一方面,國際組織、政府和研究人員不斷更新倫理規(guī)范。其一,在準(zhǔn)則制定方面,我國相繼出臺(tái)《新一代人工智能倫理規(guī)范》《全球人工智能治理倡議》,提出基本倫理準(zhǔn)則、具體倫理要求和問責(zé)機(jī)制,及時(shí)回應(yīng)國內(nèi)和國際相關(guān)倫理關(guān)切。肖紅軍等(2023)借鑒英國數(shù)字科技倫理監(jiān)管的政策布局與實(shí)踐模式,確立跨部門協(xié)作、以人為本、條目清晰的倫理治理原則和全國性標(biāo)準(zhǔn)。Jobin(2019)創(chuàng)建道德人工智能語料庫,推動(dòng)透明度、正義和公平、非惡意、責(zé)任和隱私等五項(xiàng)道德原則的全球趨同,為“合乎道德的人工智能”提供技術(shù)標(biāo)準(zhǔn)并形成實(shí)踐。Larsson(2020)依據(jù)歐盟出臺(tái)的《可信人工智能倫理指南》以及《人工智能白皮書》,總結(jié)出人類能動(dòng)性與監(jiān)管、技術(shù)穩(wěn)健與安全、隱私和數(shù)據(jù)管理、多樣化、非歧視和公平等七項(xiàng)原則,在人工智能開發(fā)和使用中將道德準(zhǔn)則作為關(guān)鍵性治理工具。其二,在主體合作上,譚九生和楊建武(2019)認(rèn)為人工智能的發(fā)展和應(yīng)用涉及多元利益主體,實(shí)現(xiàn)協(xié)同治理是規(guī)制人工智能技術(shù)倫理問題的現(xiàn)實(shí)選擇。據(jù)此,應(yīng)賦予地方政府和企業(yè)更多的自主權(quán),建立包容性和多元化的倫理監(jiān)管框架(肖紅軍等,2023),通過協(xié)商合作重構(gòu)治理主體間的關(guān)系,以超越傳統(tǒng)的技術(shù)倫理風(fēng)險(xiǎn)治理模式(張鋌,2022)。

        上述研究建立并優(yōu)化人工智能倫理規(guī)范,推動(dòng)人工智能技術(shù)服務(wù)人類。但停留在規(guī)范層面難以體現(xiàn)人工智能倫理問題的復(fù)雜性。在當(dāng)前強(qiáng)調(diào)協(xié)同治理的趨勢(shì)下,鮮有文獻(xiàn)構(gòu)建完整且有效的人工智能倫理體系,以此提升人工智能倫理治理效能,促進(jìn)人工智能倫理風(fēng)險(xiǎn)的整體性治理。構(gòu)建通用且全面的的人工智能倫理體系,可將人工智能技術(shù)置于倫理層面予以詮釋,從倫理使命、倫理準(zhǔn)則、倫理實(shí)施細(xì)則等方面辨析倫理風(fēng)險(xiǎn)生成的原因,及時(shí)回應(yīng)社會(huì)公眾對(duì)技術(shù)安全性、道德性、穩(wěn)定性的價(jià)值訴求。

        (三)人工智能倫理治理質(zhì)量評(píng)價(jià)的相關(guān)研究

        學(xué)界依據(jù)人工智能倫理體系,探討倫理治理的痛點(diǎn)和難點(diǎn),力圖構(gòu)建起通用的人工智能倫理生態(tài)質(zhì)量評(píng)價(jià)方法,并形成可落地、可復(fù)制的實(shí)踐經(jīng)驗(yàn)。一方面,許多學(xué)者圍繞人工智能某一特定應(yīng)用領(lǐng)域,制定較為細(xì)化的風(fēng)險(xiǎn)評(píng)估方法。例如,在社會(huì)治理層面,Rahwan(2018)綜合考慮技術(shù)主體與社會(huì)主體,提出一種社會(huì)循環(huán)治理框架,從整體上評(píng)估并劃分各社會(huì)主體的治理責(zé)任;Chauhan和Gullapalli(2021)從人工智能設(shè)計(jì)、開發(fā)、部署和運(yùn)營等環(huán)節(jié)入手,展開風(fēng)險(xiǎn)評(píng)估,提高相關(guān)風(fēng)險(xiǎn)判識(shí)與治理的精度與效率。在算法治理層面,賈開(2019)、張欣(2023)總結(jié)出動(dòng)態(tài)性的技術(shù)治理綜合策略,以透明度、責(zé)任、公平、可靠、可信等理念為基礎(chǔ),協(xié)調(diào)各個(gè)環(huán)節(jié)的治理過程。此外,政府規(guī)制(黃新華和溫永林,2024)、企業(yè)生態(tài)構(gòu)建(姜李丹等,2022)等不同領(lǐng)域的評(píng)估策略均滿足不斷變化的風(fēng)險(xiǎn)監(jiān)管要求。另一方面,針對(duì)具體的倫理問題展開分析在當(dāng)今社會(huì)越來越受到關(guān)注。在制度設(shè)計(jì)層面,F(xiàn)loridi等(2021)提出“人工智能造福社會(huì)”(AI4SG)的概念,通過確定AI4SG計(jì)劃必不可少的若干道德因素來保障技術(shù)的安全性與可靠性,確保精心設(shè)計(jì)的人工智能服務(wù)于社會(huì)各群體;在評(píng)價(jià)方法制定層面,李夢(mèng)薇等(2023)設(shè)計(jì)了一套通用的人工智能倫理風(fēng)險(xiǎn)評(píng)價(jià)方法,并聚焦服務(wù)機(jī)器人領(lǐng)域進(jìn)行實(shí)踐,解決不同倫理風(fēng)險(xiǎn)的判斷與治理問題;在學(xué)科發(fā)展領(lǐng)域,劉景江等(2023)、李家寧等(2023)認(rèn)為機(jī)器學(xué)習(xí)促進(jìn)學(xué)科范式變革與研究質(zhì)量提升,能夠克服諸如算法歧視等系統(tǒng)性風(fēng)險(xiǎn)帶來的公平性與倫理性問題,增強(qiáng)理論研究的普適性。

        上述研究已在既定領(lǐng)域?yàn)槿斯ぶ悄軅惱韱栴}的評(píng)估與解決做出貢獻(xiàn),但隨著人工智能應(yīng)用場(chǎng)景日益復(fù)雜化與多元化,對(duì)全領(lǐng)域進(jìn)行倫理評(píng)價(jià)的研究較為缺失。本研究將面向人工智能倫理體系,對(duì)人工智能倫理質(zhì)量展開評(píng)價(jià),針對(duì)目前人工智能倫理體系動(dòng)態(tài)適應(yīng)性不強(qiáng),運(yùn)行穩(wěn)定性不足等問題,堅(jiān)持“以人為本,智能向善”的準(zhǔn)則,把握倫理生態(tài)質(zhì)量,加強(qiáng)相應(yīng)管理,通過衡量人工智能倫理體系運(yùn)行的狀態(tài)與效果,能夠及時(shí)介入并反饋,保障倫理質(zhì)量并提供處置方案。

        三、構(gòu)建人工智能倫理體系

        構(gòu)建完整且有效的人工智能倫理體系是人工智能倫理從基礎(chǔ)理論問題研究轉(zhuǎn)向應(yīng)用實(shí)踐的重要突破,是保障技術(shù)應(yīng)用安全、可靠、可持續(xù),并解決社會(huì)重大問題的重要手段,需要在判識(shí)倫理風(fēng)險(xiǎn)的基礎(chǔ)上,明晰人工智能倫理體系應(yīng)遵循的基本準(zhǔn)則、擬解決的關(guān)鍵問題與核心組成部分。

        (一)人工智能倫理風(fēng)險(xiǎn)的表現(xiàn)形式

        根據(jù)技術(shù)演進(jìn)趨勢(shì)下的智能化程度,人工智能經(jīng)歷弱人工智能、強(qiáng)人工智能和超級(jí)人工智能三個(gè)階段。弱人工智能利用現(xiàn)有統(tǒng)計(jì)數(shù)據(jù)進(jìn)行深度學(xué)習(xí)(王奕俊和楊悠然,2020),僅在編程范圍下實(shí)現(xiàn)判斷和決策,無法自主探索新技術(shù)、開創(chuàng)新方法、發(fā)展新知識(shí);強(qiáng)人工智能在深度學(xué)習(xí)的精進(jìn)過程中可全面復(fù)現(xiàn)人類絕大部分的思維能力,并在某些方面超越人類(王彥雨,2020);而超級(jí)人工智能的創(chuàng)造力和創(chuàng)新力沒有邊界,理論轉(zhuǎn)化為生產(chǎn)力的過程不受思維與環(huán)境約束(SZOCIK 等,2020)。當(dāng)前,人工智能對(duì)海量、高維數(shù)據(jù)的模仿與學(xué)習(xí),處于弱人工智能向強(qiáng)人工智能的過渡階段,人工智能仍然是有思維界限的智能體,自主能力與創(chuàng)新能力尚未脫離人的操控。人工智能系統(tǒng)的設(shè)計(jì)、開發(fā)、部署和使用過程中出現(xiàn)的倫理風(fēng)險(xiǎn)可能表現(xiàn)為人類主體邊界模糊、人類自主決策受制、隱私侵犯、算法歧視與偏見、責(zé)任歸屬不當(dāng)、法律規(guī)制缺位等方面。若脫離人的立場(chǎng),人工智能技術(shù)帶來的潛在風(fēng)險(xiǎn)會(huì)轉(zhuǎn)化為現(xiàn)實(shí)的倫理困境。

        1.“人”的概念與“機(jī)器”的概念邊界逐漸模糊

        以生物技術(shù)、智能技術(shù)等的綜合發(fā)展為基礎(chǔ),人與智能機(jī)器的進(jìn)化“相向而行”(孫偉平,2020)。一方面,人類依靠智能系統(tǒng)使身體的功能與人工智能共生或一體化發(fā)展,在生理與心理上獲得更具有突破性的體驗(yàn)。另一方面,現(xiàn)代科技的多維度發(fā)展使人工智能不斷趨近于人,獲得像人一樣的思維能力,形成人所獨(dú)有的行為特征。隨著智能的增長,人工智能可能要求平等的公民身份和“人權(quán)”。由此,人與機(jī)器之間的傳統(tǒng)界限被模糊,對(duì)人的本質(zhì)提出了新的倫理挑戰(zhàn)。

        2.人類自主決策權(quán)受到制約

        隨著技術(shù)的不斷完善,人工智能改變社會(huì)的能力逐漸增強(qiáng),在不同場(chǎng)景下被賦予更多決策自主權(quán)。自主化決策可能使人類脫離道德決策循環(huán)風(fēng)險(xiǎn),進(jìn)而對(duì)人類的道德自主構(gòu)成威脅。以無人駕駛為例,第一,人類沒有足夠的能力將完整的倫理問題以量化方式融合進(jìn)智能系統(tǒng)(王軍,2018),使無人駕駛在自主做出倫理決策時(shí)存在遠(yuǎn)離真實(shí)倫理綱常的風(fēng)險(xiǎn);第二,人類可能形成對(duì)輔助駕駛的依賴,逐步喪失某些依靠經(jīng)驗(yàn)積累與判斷而形成的駕駛能力,最終受制于機(jī)器算法;第三,實(shí)現(xiàn)無人駕駛“道德算法”的全面統(tǒng)一需要為智能系統(tǒng)創(chuàng)造出更加寬松的標(biāo)準(zhǔn),而寬松的環(huán)境會(huì)帶來道德決策之外難以預(yù)見的社會(huì)性風(fēng)險(xiǎn)。

        3.公民隱私安全受到威脅

        作為新興生產(chǎn)要素,數(shù)據(jù)的濫用與侵權(quán)逐漸產(chǎn)生了新的系列倫理問題。首先,在大數(shù)據(jù)模型深刻挖掘數(shù)據(jù)的動(dòng)態(tài)價(jià)值過程中,一旦泄露公民的基本信息與部分敏感數(shù)據(jù),將威脅人身和財(cái)產(chǎn)安全。其次,數(shù)據(jù)的收集與使用過程中包含大量的數(shù)據(jù)流動(dòng)與數(shù)據(jù)交易,用戶對(duì)自身數(shù)據(jù)的控制與管理逐步減弱,隱私泄露逐步加劇為惡意攻擊、信息騷擾等安全隱患。再次,數(shù)據(jù)跨境暴露可能演變?yōu)閲?yán)重的國家安全風(fēng)險(xiǎn),國家網(wǎng)信辦曾對(duì)滴滴等海外上市企業(yè)啟動(dòng)數(shù)據(jù)安全監(jiān)管,對(duì)侵犯用戶、消費(fèi)者和社會(huì)公眾等利益相關(guān)者的數(shù)據(jù)權(quán)利的行為加強(qiáng)關(guān)注與處罰。最后,算法需要大量的數(shù)據(jù)內(nèi)容訓(xùn)練,具有市場(chǎng)利益價(jià)值的重要訓(xùn)練數(shù)據(jù)被頭部企業(yè)把控,滋生數(shù)據(jù)壟斷與數(shù)據(jù)資源浪費(fèi)、個(gè)人信息被實(shí)時(shí)監(jiān)控和不法利用的風(fēng)險(xiǎn)。

        4.算法機(jī)制下的偏見與歧視問題加劇

        算法可能推動(dòng)人類社會(huì)各種偏見與歧視的加深。一方面,算法包含技術(shù)人員自身的專業(yè)知識(shí)、道德判斷和價(jià)值觀念,在技術(shù)應(yīng)用的過程中可能會(huì)因大數(shù)據(jù)中存在的敏感屬性,重復(fù)已有的社會(huì)歧視行為,如性別歧視、種族歧視、政治傾向、宗教信仰偏見等,對(duì)客體賦予“算法身份”,造成不公正的加深(Lepri等,2018)。另一方面,算法全方面展開公民生活領(lǐng)域的決策與管理,定制化推送迎合了個(gè)體的個(gè)性化需求,但精準(zhǔn)推薦造成的信息繭房損害了主體通過信息多樣性進(jìn)行自主決策的權(quán)利,遮蔽主體意識(shí)(Mittelstad 等,2016)。當(dāng)主體對(duì)算法形成路徑依賴后,差別定價(jià)、壟斷行為等利用信息不對(duì)稱的合謀行為嚴(yán)重?fù)p害了消費(fèi)者合法權(quán)益和公平競(jìng)爭的市場(chǎng)秩序,商品價(jià)值透明性被忽視,消費(fèi)者自主權(quán)被侵犯。

        5.責(zé)任歸屬、認(rèn)定與劃分困難

        雖然“不傷害人類”已成為人工智能技術(shù)應(yīng)用中意向公認(rèn)的基本準(zhǔn)則,但由于開發(fā)者的安全控制能力欠缺和使用者的操作失當(dāng)而導(dǎo)致的意外侵害事件層出不窮,非安全行為由誰承擔(dān)后果成為重要法律難題。一方面,在責(zé)任認(rèn)定上,由于立法與認(rèn)知的雙重缺位,尚不明晰各類場(chǎng)景下人工智能的民事權(quán)利能力,無法探尋其在侵害過程中是否具有過錯(cuò)。另一方面,追責(zé)至人工智能所有者、技術(shù)人員與生產(chǎn)廠商,具體責(zé)任如何劃分沒有明確的法律規(guī)定。廠商承擔(dān)主要責(zé)任是傳統(tǒng)共識(shí),但如果責(zé)任比例歸咎失當(dāng),人工智能進(jìn)一步研發(fā)的積極性受到挫傷,推動(dòng)各利益相關(guān)方在法律框架下對(duì)責(zé)任劃分問題進(jìn)行協(xié)商仍任重道遠(yuǎn)。

        6.人工智能創(chuàng)作內(nèi)容缺乏具體法律規(guī)制

        現(xiàn)階段,人工智能并不具備法律主體資格,但技術(shù)成果受益者與內(nèi)容創(chuàng)造者的不一致不斷引發(fā)知識(shí)產(chǎn)權(quán)糾紛。新一代人工智能在會(huì)話過程中能以互聯(lián)網(wǎng)中幾乎所有公開的內(nèi)容為數(shù)據(jù)基礎(chǔ)進(jìn)行回應(yīng),同時(shí)根據(jù)用戶指示生成個(gè)性化新內(nèi)容,在形式上更加接近人類的創(chuàng)作成果(令小雄等,2023),面對(duì)人工智能海量的創(chuàng)作內(nèi)容和趨近人類的表述形式,加強(qiáng)對(duì)原作者的智力成果保護(hù)在法理層面是一大挑戰(zhàn)。同時(shí),人工智能生成內(nèi)容過程的過度借鑒可能引起侵權(quán)糾紛,而提供人工智能創(chuàng)作的企業(yè)與技術(shù)人員對(duì)海量數(shù)據(jù)的保護(hù)不當(dāng)也會(huì)導(dǎo)致對(duì)內(nèi)容作者和使用者隱私權(quán)的侵犯。

        (二)人工智能倫理體系的總體框架與運(yùn)作機(jī)制

        1.人工智能倫理體系的核心組成部分

        本文嘗試搭建人工智能倫理體系的總體框架,確保人工智能的發(fā)展和應(yīng)用符合倫理標(biāo)準(zhǔn),確保人工智能的發(fā)展和應(yīng)用既能促進(jìn)社會(huì)進(jìn)步,又能保護(hù)個(gè)人和社會(huì)的福祉??傮w框架包括以下三個(gè)核心組成部分:

        第一,倫理原則?;镜膫惱碓瓌t以尊重人權(quán),保護(hù)個(gè)人隱私、尊嚴(yán)和自由為基本指導(dǎo),包括:(1)確保人工智能系統(tǒng)不歧視任何群體,提供平等的機(jī)會(huì)。(2)人工智能系統(tǒng)的決策過程透明、可解釋,明確人工智能系統(tǒng)的責(zé)任歸屬,確保可追溯性。(3)確保人工智能系統(tǒng)的穩(wěn)定性和可靠性,防止意外傷害,保證使用安全。(4)促進(jìn)人工智能的可持續(xù)發(fā)展,考慮環(huán)境影響的可持續(xù)性。

        第二,倫理規(guī)范。各項(xiàng)倫理規(guī)范是人工智能實(shí)踐中應(yīng)遵守的具體行為準(zhǔn)則,包括但不限于:(1)如何收集、處理和存儲(chǔ)個(gè)人數(shù)據(jù)。(2)如何確保訓(xùn)練數(shù)據(jù)的多樣性和代表性,避免算法偏見。(3)在涉及一系列個(gè)人信息特別是敏感信息時(shí),如何獲取用戶的知情同意。(4)如何在必要情況下使技術(shù)對(duì)個(gè)人的損害最小化。

        第三,治理結(jié)構(gòu)。倫理治理結(jié)構(gòu)需要倫理委員會(huì)、監(jiān)管部門等機(jī)構(gòu)的聯(lián)動(dòng),評(píng)估人工智能應(yīng)用的倫理合規(guī)性,監(jiān)督人工智能應(yīng)用全過程依法合規(guī)。治理部門通常具有以下職能:(1)監(jiān)督人工智能項(xiàng)目是否符合倫理規(guī)范。(2)對(duì)人工智能系統(tǒng)進(jìn)行倫理審查,評(píng)估潛在風(fēng)險(xiǎn)。(3)為政策制定者、企業(yè)和公眾提供倫理咨詢。(4)對(duì)相關(guān)人員的倫理意識(shí)和工作能力進(jìn)行培訓(xùn)考察。

        2.人工智能倫理體系的具體運(yùn)作過程

        依據(jù)人工智能倫理體系的核心組成部分,具體運(yùn)作過程可以從兩個(gè)方面入手:社會(huì)應(yīng)用與倫理指導(dǎo)。倫理指導(dǎo)與社會(huì)應(yīng)用之間存在密切的內(nèi)在聯(lián)系,一方面,倫理規(guī)范提供了一種價(jià)值導(dǎo)向,使社會(huì)應(yīng)用過程得到合理表達(dá)和滿足;另一方面,人工智能技術(shù)的變化也不斷塑造和調(diào)整倫理指導(dǎo)的內(nèi)容,使之更貼近時(shí)代發(fā)展的需求。

        第一層級(jí):社會(huì)需求與倫理使命。社會(huì)需求是推動(dòng)人工智能發(fā)展的根本動(dòng)力,而倫理使命是人工智能倫理體系構(gòu)建的基礎(chǔ),確保人工智能技術(shù)的發(fā)展與應(yīng)用符合社會(huì)的整體利益和長遠(yuǎn)目標(biāo)。具體來說,人工智能的研究與應(yīng)用始于社會(huì)演進(jìn)過程中對(duì)先進(jìn)技術(shù)的需求,推動(dòng)社會(huì)生產(chǎn)力與社會(huì)科學(xué)研究范式的不斷變革,但人工智能的高速發(fā)展催生了更復(fù)雜的技術(shù)倫理困境。倫理使命具有高度概括性和普適性,囊括了其他倫理準(zhǔn)則的內(nèi)涵,用于指導(dǎo)人工智能的研究應(yīng)用和倫理準(zhǔn)則的制定、改進(jìn)和完善。技術(shù)的變革無法動(dòng)搖基本倫理使命的根基,這種在技術(shù)發(fā)展中形成的以人為本的價(jià)值觀具有最根本的指導(dǎo)意義。聯(lián)合國教科文組織提出人工智能的發(fā)展應(yīng)遵循人類優(yōu)先的原則,技術(shù)的進(jìn)步與應(yīng)用必須與社會(huì)價(jià)值觀相協(xié)調(diào),促進(jìn)可持續(xù)發(fā)展目標(biāo)的實(shí)現(xiàn)。因此,在社會(huì)需求和倫理使命的運(yùn)作過程中,具有指導(dǎo)意義的倫理使命一方面應(yīng)確保技術(shù)進(jìn)步服務(wù)于人類生存與社會(huì)發(fā)展的長遠(yuǎn)利益,不斷適應(yīng)技術(shù)發(fā)展帶來的新挑戰(zhàn)和新問題,使人工智能技術(shù)的發(fā)展符合人類的基本價(jià)值觀,保護(hù)個(gè)體的安全、尊嚴(yán)和利益,另一方面還要能夠保障社會(huì)的公平與正義,避免加劇社會(huì)不平等,確保技術(shù)帶來的利益能夠惠及更廣泛的社會(huì)群體。

        第二層級(jí):創(chuàng)新研究與倫理準(zhǔn)則。社會(huì)需求推動(dòng)創(chuàng)新研究,形成推動(dòng)社會(huì)生產(chǎn)力的階段性技術(shù)應(yīng)用成果和綜合性倫理指導(dǎo)準(zhǔn)則。包含福祉、安全、和平、法治等內(nèi)容的倫理準(zhǔn)則是倫理使命在技術(shù)研究領(lǐng)域的具體體現(xiàn),不僅有力保障了人工智能安全可靠可控發(fā)展,而且為研究人員和政策制定者提供了道德指南和行為指導(dǎo)。具體來說,創(chuàng)新研究在社會(huì)不同領(lǐng)域具有不同特點(diǎn),需要結(jié)合產(chǎn)業(yè)發(fā)展特征形成成熟的、可落地、可實(shí)踐的研究成果。不同領(lǐng)域的創(chuàng)新研究過程中,為避免技術(shù)成果與人類價(jià)值觀的偏離,需要達(dá)成共識(shí)性的價(jià)值原則,這些倫理準(zhǔn)則是倫理使命在不同創(chuàng)新研究實(shí)踐的具體體現(xiàn),任何倫理實(shí)施細(xì)則的制定都不能脫離以人為本的社會(huì)價(jià)值觀。在創(chuàng)新研究與倫理準(zhǔn)則的運(yùn)作過程中,倫理準(zhǔn)則通過四個(gè)步驟嵌入技術(shù)創(chuàng)新研究:第一,倫理準(zhǔn)則的制定原則體現(xiàn)事前預(yù)防的作用。倫理準(zhǔn)則的制定需要跨學(xué)科的合作,對(duì)人工智能技術(shù)的社會(huì)創(chuàng)新實(shí)踐進(jìn)行多維度評(píng)估,包括社會(huì)、經(jīng)濟(jì)、文化、生態(tài)、人類價(jià)值觀等方面,由此形成全面的倫理準(zhǔn)則,在技術(shù)開發(fā)的早期階段對(duì)潛在的倫理風(fēng)險(xiǎn)進(jìn)行識(shí)別和預(yù)防。第二,倫理準(zhǔn)則的實(shí)施體現(xiàn)協(xié)同發(fā)展的內(nèi)涵。倫理準(zhǔn)則的核心作用是提供明確的倫理行為指南,幫助技術(shù)研究者識(shí)別和解決研究過程中的潛在倫理問題。但指導(dǎo)研究行為并非限制創(chuàng)新自由,倫理準(zhǔn)則應(yīng)當(dāng)體現(xiàn)平衡創(chuàng)新研究自由和擔(dān)負(fù)倫理責(zé)任的重要性,在鼓勵(lì)創(chuàng)新的基礎(chǔ)上避免人工智能研究活動(dòng)對(duì)人類和社會(huì)造成不可逆的傷害。第三,倫理準(zhǔn)則的監(jiān)督機(jī)制提供事后保障。倫理準(zhǔn)則的實(shí)施需要有效的監(jiān)督機(jī)制,監(jiān)督機(jī)制的設(shè)計(jì)應(yīng)細(xì)化到對(duì)研究活動(dòng)的定期審查,鼓勵(lì)研究人員反饋技術(shù)倫理問題,對(duì)違反倫理準(zhǔn)則行為的制裁等,確保倫理準(zhǔn)則的實(shí)施達(dá)成研究過程普遍性與研究領(lǐng)域針對(duì)性的統(tǒng)一。第四,倫理準(zhǔn)則的內(nèi)涵應(yīng)進(jìn)行及時(shí)地動(dòng)態(tài)調(diào)整。倫理準(zhǔn)則需要隨著人類價(jià)值觀和技術(shù)發(fā)展階段而不斷更新,研究人員、政策制定者和社會(huì)公眾之間應(yīng)保持交流,避免技術(shù)“黑箱”,確保倫理準(zhǔn)則能夠反映社會(huì)的倫理關(guān)切。

        第三層級(jí):場(chǎng)景應(yīng)用與倫理細(xì)則。創(chuàng)新研究的階段性成果轉(zhuǎn)化為社會(huì)各場(chǎng)景的實(shí)際應(yīng)用,在實(shí)際應(yīng)用過程中又會(huì)產(chǎn)生新的發(fā)展方向并形成新的社會(huì)需求。在這一技術(shù)創(chuàng)新閉環(huán)中,強(qiáng)制的倫理實(shí)施細(xì)則為不同應(yīng)用場(chǎng)景構(gòu)建起針對(duì)性強(qiáng)、可公開、可調(diào)整的監(jiān)督治理規(guī)定,每一個(gè)應(yīng)用場(chǎng)景都需要產(chǎn)生一套對(duì)應(yīng)的倫理細(xì)則加以約束和治理,不同的應(yīng)用場(chǎng)景應(yīng)實(shí)施不同的細(xì)則,確保技術(shù)的應(yīng)用既符合倫理要求,又能夠滿足社會(huì)需求。雖然場(chǎng)景應(yīng)用各異,但具體的倫理細(xì)則具有共同的運(yùn)作特性。首先,應(yīng)用場(chǎng)景的多樣性決定了倫理細(xì)則的定制性。人工智能技術(shù)賦能醫(yī)療、金融、教育、交通等各個(gè)領(lǐng)域,倫理細(xì)則需根據(jù)具體應(yīng)用場(chǎng)景的特殊需求進(jìn)行定制,確保倫理規(guī)范適用并有效實(shí)施。其次,倫理細(xì)則需要可落地、可復(fù)制。基于不同場(chǎng)景的倫理治理規(guī)定包含企業(yè)標(biāo)準(zhǔn)、產(chǎn)品認(rèn)證、技術(shù)標(biāo)準(zhǔn)、行業(yè)規(guī)范、法律法規(guī)等具體實(shí)踐要求,具體且明確的實(shí)施細(xì)則能夠?yàn)榧夹g(shù)開發(fā)者、應(yīng)用者以及監(jiān)督機(jī)構(gòu)提供清晰的指導(dǎo),并進(jìn)行推廣與復(fù)制。再次,提高倫理細(xì)則監(jiān)管與執(zhí)行的透明度。公眾參與在技術(shù)倫理監(jiān)管中具有重大意義,倫理監(jiān)督機(jī)構(gòu)鼓勵(lì)公眾廣泛參與到技術(shù)應(yīng)用的定期審查、技術(shù)違規(guī)行為的識(shí)別和懲罰、對(duì)監(jiān)管機(jī)構(gòu)職能本身的評(píng)估和改進(jìn)當(dāng)中,增強(qiáng)公眾對(duì)人工智能技術(shù)的了解與信任。最后,倫理細(xì)則依據(jù)應(yīng)用場(chǎng)景的擴(kuò)展而不斷更新。目前,人工智能技術(shù)與社會(huì)的深度融合,不斷創(chuàng)造出智能農(nóng)業(yè)、智能制造、智慧城市等多領(lǐng)域、多類型的新興應(yīng)用場(chǎng)景,技術(shù)發(fā)展要求倫理規(guī)范保持動(dòng)態(tài)性,以適應(yīng)社會(huì)需求的新變化。

        (三)構(gòu)建人工智能倫理體系亟待解決的問題

        人工智能倫理體系的運(yùn)作涉及多個(gè)層面,不同層面的問題需要得到妥善處理以確保倫理體系的有效性。本文從以下四個(gè)方面的實(shí)際問題進(jìn)行展開討論。

        1.人工智能倫理體系的場(chǎng)景落地

        場(chǎng)景落地問題是指將人工智能倫理體系應(yīng)用于具體場(chǎng)景時(shí)存在排斥或制約的現(xiàn)象和所面臨的問題,解決場(chǎng)景落地問題可以使人工智能倫理體系更好地服務(wù)于技術(shù)創(chuàng)新與社會(huì)可持續(xù)發(fā)展。普適性的倫理準(zhǔn)則需要在應(yīng)用于具體實(shí)際場(chǎng)景時(shí)不僅僅局限于宏觀的指導(dǎo)與口號(hào)的層面,更要細(xì)化為可操作的具體監(jiān)管規(guī)定。人工智能發(fā)展已經(jīng)與社會(huì)各領(lǐng)域深度融合,但同時(shí)帶來了諸多新興風(fēng)險(xiǎn)。例如,上述人工智能風(fēng)險(xiǎn)提及人類自主決策權(quán)受到制約,無人駕駛在緊急情況下的決策涉及發(fā)生事故時(shí)如何平衡不同生命權(quán)益的問題;在智慧醫(yī)療領(lǐng)域,輔助診斷和疾病預(yù)測(cè)帶來了缺乏人類監(jiān)督、隱私泄露和數(shù)據(jù)保護(hù)風(fēng)險(xiǎn),醫(yī)療決策的人類監(jiān)督缺失。宏觀性的倫理指導(dǎo)意義為不同領(lǐng)域的技術(shù)創(chuàng)新提供了基本引導(dǎo),而對(duì)于不同應(yīng)用場(chǎng)景制定針對(duì)性的監(jiān)管措施,能夠?qū)崿F(xiàn)倫理準(zhǔn)則的具體化、可操作化和可復(fù)制化。

        2.人工智能倫理體系的運(yùn)作機(jī)制

        運(yùn)作機(jī)制是人工智能倫理體系的重要組成部分,可以控制并規(guī)避人工智能在應(yīng)用過程中對(duì)社會(huì)產(chǎn)生的負(fù)面影響。任何倫理準(zhǔn)則都無法自我執(zhí)行,需要借助于一系列相互配合的運(yùn)作機(jī)制才能得到落實(shí)。倫理準(zhǔn)則、倫理審查、倫理教育、倫理監(jiān)督和倫理問責(zé)相互配合,以確保技術(shù)應(yīng)用符合道德規(guī)范,并對(duì)違法行為進(jìn)行懲戒和追究。在具體實(shí)踐中,人工智能倫理體系的運(yùn)作配合度不高。例如:關(guān)于算法機(jī)制下的偏見與歧視加劇的問題,人工智能倫理體系的設(shè)計(jì)風(fēng)險(xiǎn)強(qiáng)調(diào)了設(shè)計(jì)者個(gè)人價(jià)值觀對(duì)人工智能運(yùn)作底層邏輯的影響;關(guān)于公民隱私安全受到威脅的問題,數(shù)據(jù)安全風(fēng)險(xiǎn)加深了公眾對(duì)人工智能廣泛應(yīng)用的擔(dān)憂;關(guān)于“算法黑箱”問題,人工智能決策過程不透明影響了公民的知情權(quán)及監(jiān)督權(quán),造成傳統(tǒng)監(jiān)管的失效。這些人工智能新興風(fēng)險(xiǎn)點(diǎn)為構(gòu)建倫理審查和監(jiān)督機(jī)制提供了具體的風(fēng)險(xiǎn)評(píng)估指標(biāo)。因此,在以人為本的倫理使命下,不僅要確立人工智能倫理基本準(zhǔn)則,更要從細(xì)則層面制定人工智能設(shè)計(jì)者、開發(fā)者及使用者的具體倫理規(guī)范與行為守則,形成具有可操作性的規(guī)范和建議,從源頭到下游進(jìn)行規(guī)范與引導(dǎo)。

        3.人工智能倫理風(fēng)險(xiǎn)的預(yù)測(cè)判別

        目前,人工智能倫理風(fēng)險(xiǎn)的預(yù)測(cè)判別問題已經(jīng)成為熱點(diǎn)問題之一,在教育、就業(yè)等領(lǐng)域均有深入研究。對(duì)于人工智能技術(shù)中已存在的倫理問題,治理過程中存在危害性被低估、監(jiān)管缺失等隱患;對(duì)于治理緊迫性較弱的某些倫理風(fēng)險(xiǎn),同樣存在低估危害的問題,從弱人工智能向強(qiáng)人工智能過渡的過程中,人工智能有能力自主實(shí)現(xiàn)多任務(wù)感知、行動(dòng)與決策,相關(guān)倫理問題的預(yù)測(cè)與判別需要先行;而對(duì)于某些技術(shù)與倫理潛在風(fēng)險(xiǎn),通過現(xiàn)有知識(shí)水平進(jìn)行預(yù)測(cè)判別較困難,需要在實(shí)踐中展開多學(xué)科合作并及時(shí)調(diào)整預(yù)期結(jié)果。預(yù)測(cè)和判別人工智能倫理風(fēng)險(xiǎn)可以幫助研究人員采取相應(yīng)措施進(jìn)行風(fēng)險(xiǎn)管理和控制。具體來說,首先,國際組織、政府或企業(yè)需要建立一套普適性的倫理風(fēng)險(xiǎn)評(píng)估指標(biāo),識(shí)別社會(huì)不同領(lǐng)域可能涉及的實(shí)際倫理風(fēng)險(xiǎn),但倫理標(biāo)準(zhǔn)的模糊性和多樣性使得指標(biāo)體系達(dá)成共識(shí)變得復(fù)雜。其次,在人工智能倫理管理具體流程中,需要類比民航、高鐵、景區(qū)安檢“禁帶物品清單”的規(guī)定,事先設(shè)立某種“違禁物清單”,嚴(yán)格遵守該準(zhǔn)入清單并適時(shí)調(diào)整,使倫理風(fēng)險(xiǎn)監(jiān)管更具針對(duì)性。最后,人工智能技術(shù)迭代十分迅速,且倫理準(zhǔn)則也無法一一對(duì)應(yīng)具體的“違禁物”,需要在技術(shù)倫理事件的定期回顧與分析過程中,建立某種常態(tài)化機(jī)制,預(yù)測(cè)、判別數(shù)據(jù)智能技術(shù)有何種風(fēng)險(xiǎn)、風(fēng)險(xiǎn)等級(jí)如何、是否應(yīng)列入“違禁物清單”等。

        4.重大社會(huì)問題綜合創(chuàng)新的動(dòng)力機(jī)制

        人工智能重大社會(huì)問題綜合創(chuàng)新的動(dòng)力機(jī)制需要政府、企業(yè)、學(xué)術(shù)界等利益相關(guān)方的共同參與,通過加強(qiáng)技術(shù)研發(fā)創(chuàng)新來提高效能和效率,為解決當(dāng)前社會(huì)面臨的倫理挑戰(zhàn)提供支持。在如今的討論中,防范風(fēng)險(xiǎn)的一面得到了普遍重視,但倫理問題具有雙重含義,既包括“防止做錯(cuò)”,也注重“如何做好”。推動(dòng)社會(huì)進(jìn)步和經(jīng)濟(jì)發(fā)展的倫理討論應(yīng)展開廣泛討論,通過人工智能技術(shù)的倫理性創(chuàng)新補(bǔ)充短板,形成一種新型的綜合動(dòng)力機(jī)制。重大社會(huì)問題的綜合創(chuàng)新需要自上而下展開。一方面,建立人工智能倫理的敏捷治理機(jī)制,對(duì)于新興風(fēng)險(xiǎn)進(jìn)行快速響應(yīng),創(chuàng)新研發(fā)主體與產(chǎn)業(yè)主體、政府部門主動(dòng)溝通,在動(dòng)態(tài)調(diào)整過程中增強(qiáng)技術(shù)倫理治理的有效性,使技術(shù)創(chuàng)新與倫理治理相協(xié)調(diào)。另一方面,動(dòng)力機(jī)制的創(chuàng)新離不開多主體參與。人工智能技術(shù)倫理問題需要多學(xué)科交流配合展開治理實(shí)踐,形成技術(shù)發(fā)展、倫理研究、法律規(guī)制、產(chǎn)業(yè)實(shí)踐等一系列專業(yè)化發(fā)展路徑,倫理指導(dǎo)層面也需要?jiǎng)?chuàng)新主體、政府監(jiān)管主體、公眾等各利益相關(guān)方展開合作,形成各主體倫理管理責(zé)任,定期針對(duì)新業(yè)態(tài)、新應(yīng)用評(píng)估倫理風(fēng)險(xiǎn),促進(jìn)人工智能倫理規(guī)范的與時(shí)俱進(jìn)。

        四、人工智能倫理治理與質(zhì)量評(píng)價(jià)

        西方國家對(duì)于人工智能倫理治理規(guī)范和治理評(píng)價(jià)的研究起步較早,側(cè)重在倫理基礎(chǔ)原則路徑下進(jìn)行技術(shù)規(guī)制,進(jìn)而確保其可控性與可信性。我國在治理過程中堅(jiān)持“以人為本,智能向善”的準(zhǔn)則,在明確倫理治理內(nèi)容后,構(gòu)建全過程治理評(píng)價(jià)流程。根據(jù)已有過程,人工智能系統(tǒng)開發(fā)者的初步倫理自評(píng)是評(píng)估的第一步,完成后再通過獨(dú)立第三方機(jī)構(gòu)對(duì)技術(shù)系統(tǒng)進(jìn)行倫理評(píng)估;第二步,組織專家委員會(huì)對(duì)評(píng)估結(jié)果進(jìn)行評(píng)審;第三步,相關(guān)人員將評(píng)估結(jié)果向社會(huì)公示,并定期把對(duì)人工智能系統(tǒng)進(jìn)行的倫理審查和監(jiān)督結(jié)果進(jìn)行公示,接受公眾反饋。此外,定期對(duì)相關(guān)人員進(jìn)行倫理培訓(xùn)、更新評(píng)價(jià)體系、參與國際標(biāo)準(zhǔn)的倫理規(guī)范的制定等也包含在內(nèi)容評(píng)價(jià)流程中,加強(qiáng)相應(yīng)管理。

        (一)人工智能倫理治理內(nèi)容

        對(duì)應(yīng)上述人工智能倫理體系,人工智能倫理治理內(nèi)容應(yīng)涵蓋社會(huì)需求層面、創(chuàng)新研究層面和場(chǎng)景應(yīng)用層面。

        1.社會(huì)需求層面

        人工智能倫理治理的社會(huì)需求層面是一個(gè)多維度的綜合體,它要求社會(huì)各界共同努力,以確保技術(shù)在促進(jìn)社會(huì)發(fā)展的同時(shí),能夠維護(hù)人類的基本權(quán)益和社會(huì)的倫理道德標(biāo)準(zhǔn),實(shí)現(xiàn)科技與人文的和諧共生。第一,倫理治理需滿足公眾對(duì)隱私保護(hù)的高要求。隨著智能系統(tǒng)在數(shù)據(jù)收集和處理方面的應(yīng)用更加廣泛,公眾對(duì)個(gè)人隱私保護(hù)的需求日益增強(qiáng)。智能系統(tǒng)的隱私安全性直接關(guān)系到公眾對(duì)系統(tǒng)的信任度,需要確保系統(tǒng)在各社會(huì)應(yīng)用場(chǎng)景中不會(huì)損害公眾利益,推動(dòng)由此穩(wěn)步推動(dòng)經(jīng)濟(jì)的增長,提高生產(chǎn)效率。第二,社會(huì)公平與正義也是倫理治理的重要方面,要求人工智能技術(shù)避免加劇社會(huì)不平等。第三,倫理治理需考慮技術(shù)進(jìn)步對(duì)傳統(tǒng)行業(yè)的沖擊,促進(jìn)新就業(yè)機(jī)會(huì)的創(chuàng)造和勞動(dòng)市場(chǎng)的適應(yīng)性轉(zhuǎn)型。在此過程中,人工智能的應(yīng)用可能導(dǎo)致某些行業(yè)工作崗位減少和工作極化(鄧悅、蔣婉儀,2022),社會(huì)需要通過倫理治理的內(nèi)容來引導(dǎo)就業(yè)轉(zhuǎn)型和勞動(dòng)力的培訓(xùn)。第四,社會(huì)責(zé)任與可持續(xù)發(fā)展要求人工智能研發(fā)過程關(guān)注其對(duì)環(huán)境和社會(huì)的長遠(yuǎn)影響,確保技術(shù)進(jìn)步不會(huì)以犧牲生態(tài)環(huán)境為代價(jià)。第五,法律層面,倫理治理內(nèi)容需要制定和更新法律法規(guī),以適應(yīng)技術(shù)的快速發(fā)展,確保應(yīng)用不違反現(xiàn)行法律,并在倫理上站得住腳。第六,教育與意識(shí)提升是倫理治理不可或缺的一部分,通過教育普及倫理知識(shí),提高公眾對(duì)人工智能倫理問題的認(rèn)識(shí),培養(yǎng)專業(yè)人才,以應(yīng)對(duì)其所帶來的挑戰(zhàn)。

        2.創(chuàng)新研究層面

        人工智能倫理治理的創(chuàng)新研究層面是一個(gè)跨學(xué)科、多維度的研究領(lǐng)域,旨在探索和開發(fā)新的理論框架、方法和技術(shù),以應(yīng)對(duì)人工智能發(fā)展帶來的倫理挑戰(zhàn)。第一,理論研究層面的創(chuàng)新要求深入探討人工智能倫理的基本原則和價(jià)值觀,如公平、透明、可解釋性和責(zé)任,以及如何在不同的文化和社會(huì)背景下應(yīng)用這些原則。例如,研究人員需要對(duì)傳統(tǒng)倫理理論進(jìn)行現(xiàn)代化解讀,構(gòu)建起適用于人工智能時(shí)代的新倫理理論。第二,技術(shù)創(chuàng)新層面的研究聚焦于開發(fā)新的算法和技術(shù),以減少人工智能系統(tǒng)的偏見和歧視,提高其透明度和可解釋性。這涉及到機(jī)器學(xué)習(xí)、數(shù)據(jù)科學(xué)、認(rèn)知科學(xué)和人機(jī)交互等多個(gè)領(lǐng)域的交叉融合,以及如何利用這些技術(shù)實(shí)現(xiàn)更符合倫理標(biāo)準(zhǔn)的人工智能系統(tǒng)。第三,實(shí)驗(yàn)研究層面的創(chuàng)新通過構(gòu)建模擬環(huán)境和實(shí)驗(yàn)室測(cè)試,來評(píng)估人工智能系統(tǒng)的倫理影響,以及人們?cè)诿鎸?duì)人工智能決策時(shí)的行為反應(yīng),從而為實(shí)際應(yīng)用提供實(shí)證依據(jù)。第四,制度創(chuàng)新層面的研究旨在設(shè)計(jì)有效的人工智能倫理治理結(jié)構(gòu)和政策,包括制定倫理準(zhǔn)則、監(jiān)管框架和審計(jì)機(jī)制,以及如何在全球化背景下實(shí)現(xiàn)跨國界的倫理治理合作。第五,在跨學(xué)科研究和人才培養(yǎng)層面,一方面,創(chuàng)新研究要求將哲學(xué)、社會(huì)學(xué)、心理學(xué)、法學(xué)和工程學(xué)等領(lǐng)域的知識(shí)結(jié)合,以形成對(duì)人工智能倫理問題的全面理解,并開發(fā)出綜合性的解決方案。另一方面,人工智能倫理教育需要融入現(xiàn)有的教育體系,培養(yǎng)具有倫理意識(shí)的專業(yè)人才,以及通過公眾教育和參與式研究,提高社會(huì)對(duì)人工智能倫理問題的認(rèn)識(shí)。

        3.場(chǎng)景應(yīng)用層面

        人工智能倫理治理的場(chǎng)景應(yīng)用層面關(guān)注如何在具體的行業(yè)和領(lǐng)域中將倫理原則和治理框架實(shí)際應(yīng)用到人工智能技術(shù)的開發(fā)、部署和使用過程中,通過跨學(xué)科合作和政策制定,確保人工智能技術(shù)的應(yīng)用既能促進(jìn)社會(huì)和經(jīng)濟(jì)發(fā)展,又能保護(hù)個(gè)人和社會(huì)的福祉,實(shí)現(xiàn)科技與倫理的和諧統(tǒng)一。依據(jù)國內(nèi)、國際現(xiàn)有實(shí)踐,各場(chǎng)景的人工智能倫理治理實(shí)踐包括如下幾個(gè)方面:第一,在醫(yī)療健康領(lǐng)域,既要確保人工智能診斷系統(tǒng)的準(zhǔn)確性、透明度和公平性,保護(hù)患者的隱私和數(shù)據(jù)安全,也要關(guān)注在臨床決策支持系統(tǒng)中,確保人工智能的建議不會(huì)取代醫(yī)生的專業(yè)判斷,而是作為輔助工具提高診療效率和質(zhì)量。第二,在交通領(lǐng)域,人工智能倫理治理涉及自動(dòng)駕駛汽車的道德決策問題,包括如何在緊急情況下做出最優(yōu)決策,如何提高道路使用效率并降低環(huán)境影響等。第三,在司法領(lǐng)域,人工智能倫理治理關(guān)注如何使用算法進(jìn)行風(fēng)險(xiǎn)評(píng)估、預(yù)測(cè)性執(zhí)法和法庭決策支持,確保這些應(yīng)用不會(huì)加劇現(xiàn)有的司法不公,保持司法過程的透明度和可解釋性。第四,在金融領(lǐng)域,人工智能倫理治理涉及信貸評(píng)估、投資決策和風(fēng)險(xiǎn)管理,要求人工智能系統(tǒng)不僅要高效準(zhǔn)確,還要避免歧視和操縱市場(chǎng),確保金融服務(wù)的公平性和穩(wěn)定性。第五,在教育領(lǐng)域,人工智能倫理治理關(guān)注個(gè)性化學(xué)習(xí)平臺(tái)和智能教育系統(tǒng)的使用,確保智能化教育工具改善知識(shí)傳授效果,促進(jìn)教育公平,并保護(hù)學(xué)生的個(gè)人信息。第六,在勞動(dòng)就業(yè)領(lǐng)域,招聘算法需要保證公平性,不會(huì)基于性別、種族或其他非相關(guān)因素歧視候選人,同時(shí)保護(hù)求職者的隱私。第七,在公共安全領(lǐng)域,人工智能倫理治理關(guān)注面部識(shí)別、監(jiān)控技術(shù)和風(fēng)險(xiǎn)評(píng)估工具的應(yīng)用,要求這些技術(shù)在使用時(shí)尊重公民權(quán)利,不會(huì)濫用監(jiān)控權(quán)力。

        (二)人工智能倫理治理質(zhì)量的指標(biāo)

        1.開放性

        人工智能倫理治理的開放性體現(xiàn)了在構(gòu)建和維護(hù)人工智能倫理體系時(shí)所展現(xiàn)的包容性、適應(yīng)性和透明度特質(zhì),強(qiáng)調(diào)多元參與者保持對(duì)新技術(shù)的敏感性,積極開展跨學(xué)科的持續(xù)對(duì)話、開放合作與及時(shí)反饋。首先,開放性可增強(qiáng)倫理治理的透明度和可訪問性,保證倫理決策過程公開,使各主體都能參與討論并提出建議,在跨學(xué)科的國際交流和合作中共享治理經(jīng)驗(yàn)并協(xié)調(diào)倫理標(biāo)準(zhǔn)。其次,開放性的倫理生態(tài)對(duì)新技術(shù)的敏感性使其能夠在技術(shù)發(fā)展的早期階段就介入倫理考量,并通過教育普及和培訓(xùn)來提升公眾和專業(yè)人員的倫理意識(shí),從而推動(dòng)人工智能技術(shù)的負(fù)責(zé)任使用和健康發(fā)展。最后,開放性確保了倫理治理全過程能夠吸納不同背景和立場(chǎng)的專家和公眾意見,形成綜合性的倫理視角,建立持續(xù)的對(duì)話機(jī)制來評(píng)估和更新倫理準(zhǔn)則,以適應(yīng)不斷變化的科技和社會(huì)環(huán)境。

        2.系統(tǒng)性與可度量性

        人工智能倫理治理的系統(tǒng)性是指一個(gè)全面、多層次、跨領(lǐng)域的框架,它旨在確保人工智能技術(shù)的開發(fā)、部署和使用在整個(gè)生命周期內(nèi)符合倫理標(biāo)準(zhǔn),尊重和保護(hù)人權(quán),促進(jìn)社會(huì)公正和環(huán)境可持續(xù)性。例如,從系統(tǒng)性角度來說,解決數(shù)據(jù)治理過程當(dāng)中的隱私保護(hù)包括對(duì)密碼理論、聯(lián)邦學(xué)習(xí)等進(jìn)行研究。算法理論應(yīng)當(dāng)具備應(yīng)用環(huán)節(jié)當(dāng)中每一節(jié)點(diǎn)的公平性與可靠性,用于驗(yàn)證分析的工具也需要保持可信度量和安全評(píng)測(cè)機(jī)制監(jiān)督;增加可解釋性數(shù)據(jù)的前饋檢驗(yàn)和后饋檢驗(yàn)功能,形成可驗(yàn)證的模型保證安全策略的度量過程。

        倫理治理的可度量性是指,通過構(gòu)建一系列定量指標(biāo)和定性指標(biāo),來評(píng)估和監(jiān)測(cè)人工智能系統(tǒng)的倫理健康狀況的能力??啥攘啃砸笱芯咳藛T建立一套可以衡量倫理治理質(zhì)量的標(biāo)準(zhǔn),包括但不限于算法公平性、透明度、隱私保護(hù)、責(zé)任歸屬和對(duì)人類福祉的影響等維度。在倫理治理評(píng)價(jià)中,可度量性是治理質(zhì)量的量化,體現(xiàn)可操作性和可比較性,以便在不同的情境和應(yīng)用中都能進(jìn)行有效的倫理評(píng)估。例如:算法公平性可以通過分析不同群體在人工智能決策中的接受率、誤報(bào)率和漏報(bào)率等來衡量;算法透明度可以通過評(píng)估算法的披露程度、用戶對(duì)系統(tǒng)工作原理的理解程度來量化;隱私保護(hù)的可度量性涉及數(shù)據(jù)泄露的風(fēng)險(xiǎn)評(píng)估、用戶隱私控制權(quán)的實(shí)現(xiàn)程度等;責(zé)任歸屬的可度量性則需要明確人工智能系統(tǒng)在出現(xiàn)倫理問題時(shí)責(zé)任歸屬的判定標(biāo)準(zhǔn)和追溯機(jī)制。技術(shù)安全可度量指標(biāo)包括系統(tǒng)的魯棒性和抵御攻擊的能力;對(duì)人類福祉影響的度量可通過生活質(zhì)量、社會(huì)福祉、經(jīng)濟(jì)影響等指標(biāo)來評(píng)估。通過這些度量標(biāo)準(zhǔn),我們能夠?qū)θ斯ぶ悄軅惱砩鷳B(tài)進(jìn)行持續(xù)地監(jiān)督和改進(jìn),確保技術(shù)的發(fā)展與人類價(jià)值觀和社會(huì)目標(biāo)相一致。

        3.關(guān)聯(lián)性

        關(guān)聯(lián)性體現(xiàn)在如何平衡技術(shù)發(fā)展與社會(huì)倫理價(jià)值之間的關(guān)系,以及如何在這一平衡中實(shí)現(xiàn)資源的有效利用和最大化效益。一方面,在平衡技術(shù)發(fā)展與社會(huì)倫理價(jià)值的過程中,較高水平的倫理治理質(zhì)量環(huán)境意味著研究人員在技術(shù)實(shí)踐和應(yīng)用中充分考慮了公平、透明、責(zé)任、隱私保護(hù)等倫理原則,增強(qiáng)了公眾對(duì)技術(shù)的信任,促進(jìn)了社會(huì)和諧與穩(wěn)定。另一方面,資源效益關(guān)注于如何促進(jìn)物質(zhì)資源、人力資源、時(shí)間資源的高效利用,以實(shí)現(xiàn)經(jīng)濟(jì)、社會(huì)和環(huán)境的可持續(xù)發(fā)展。倫理治理質(zhì)量與資源效益的關(guān)聯(lián)性表現(xiàn)在多個(gè)層面,第一,良好的倫理治理環(huán)境可以降低因倫理問題導(dǎo)致的法律訴訟、品牌形象受損等風(fēng)險(xiǎn),從而減少潛在的經(jīng)濟(jì)損失,提高資源利用的效率。第二,遵循倫理原則的企業(yè)和機(jī)構(gòu)釋放出可靠和負(fù)責(zé)任的信號(hào),吸引了更多的投資和客戶,直接提升資源回報(bào)率。第三,倫理治理環(huán)境的優(yōu)化有助于建立長期的客戶關(guān)系和社會(huì)支持,維護(hù)市場(chǎng)份額和品牌忠誠度,進(jìn)而影響資源的長期效益。第四,高水平倫理治理環(huán)境鼓勵(lì)多元化的觀點(diǎn)和更廣泛的參與,促進(jìn)技術(shù)創(chuàng)新過程對(duì)接社會(huì)需求,有助于開發(fā)出更具有社會(huì)價(jià)值的產(chǎn)品和服務(wù),提高資源的創(chuàng)新效益。第五,倫理治理環(huán)境的改善有助于避免資源的過度開發(fā)和浪費(fèi),例如通過促進(jìn)循環(huán)經(jīng)濟(jì)和可持續(xù)消費(fèi)模式,實(shí)現(xiàn)資源的可持續(xù)利用。因此,倫理生態(tài)質(zhì)量與資源效益之間存在密切的相互作用,高水平倫理治理環(huán)境往往能夠帶來更高的資源效益,反之亦然。

        (三)人工智能倫理治理質(zhì)量的評(píng)價(jià)體系

        1.數(shù)據(jù)管理

        數(shù)據(jù)的生命周期是對(duì)整個(gè)倫理質(zhì)量體系進(jìn)行承載和評(píng)價(jià)的關(guān)鍵要素,聚焦于元數(shù)據(jù)的質(zhì)量管理是倫理治理質(zhì)量評(píng)價(jià)體系中的重要組成部分。數(shù)據(jù)的生命周期在數(shù)據(jù)質(zhì)量管理中有五個(gè)關(guān)鍵要點(diǎn):第一,創(chuàng)建與使用數(shù)據(jù),產(chǎn)生數(shù)據(jù)生命周期;第二,數(shù)據(jù)質(zhì)量管理必須貫穿整個(gè)數(shù)據(jù)生命周期;第三,元數(shù)據(jù)質(zhì)量管理必須貫穿整個(gè)數(shù)據(jù)生命周期;第四,數(shù)據(jù)安全是數(shù)據(jù)管理與數(shù)據(jù)治理的核心,降低與數(shù)據(jù)相關(guān)的風(fēng)險(xiǎn)需要聚焦于敏感數(shù)據(jù);第五,數(shù)據(jù)管理與數(shù)據(jù)治理需要聚焦于關(guān)鍵數(shù)據(jù)。同時(shí),在規(guī)劃數(shù)據(jù)優(yōu)化過程中需要把握如下四個(gè)要點(diǎn):數(shù)據(jù)可以被認(rèn)為是獨(dú)立于業(yè)務(wù)流程的存在;業(yè)務(wù)流程與相關(guān)技術(shù)支持之間的關(guān)系;系統(tǒng)的設(shè)計(jì)、架構(gòu)及其所生成與存儲(chǔ)的數(shù)據(jù);基于使用數(shù)據(jù)方式的企業(yè)戰(zhàn)略與組織架構(gòu)。

        第一,從數(shù)據(jù)規(guī)模方向上保證人工智能應(yīng)用的效率。傳統(tǒng)的數(shù)據(jù)治理大多是以人面對(duì)的對(duì)象,基于有限數(shù)據(jù)容量實(shí)施分類與聚類,建立基于關(guān)系代數(shù)的關(guān)系并分析與展示信息。人工智能面對(duì)的數(shù)據(jù)量遠(yuǎn)遠(yuǎn)大于人所能接納的數(shù)據(jù)量與信息量,可用的高質(zhì)量數(shù)據(jù)越多,模型質(zhì)量與準(zhǔn)確性就越高。因此,為了提高人工智能應(yīng)用的效率和模型價(jià)值,需要針對(duì)性地開展面向人工智能應(yīng)用過程的二次數(shù)據(jù)治理。同時(shí),由于訓(xùn)練數(shù)據(jù)規(guī)模的擴(kuò)張、數(shù)據(jù)類型的異構(gòu)和數(shù)據(jù)噪聲指數(shù)級(jí)增長的現(xiàn)狀,逐步建立起智能數(shù)據(jù)治理體系也可有效提高人工智能應(yīng)用效率。

        第二,保障數(shù)據(jù)類型和實(shí)時(shí)性的生態(tài)質(zhì)量管理。人工智能應(yīng)用,尤其是知識(shí)圖譜的構(gòu)建,需要大量半結(jié)構(gòu)化與非結(jié)構(gòu)化的數(shù)據(jù)支持。人工智能應(yīng)用在結(jié)構(gòu)化數(shù)據(jù)的基礎(chǔ)上,結(jié)合了各類半結(jié)構(gòu)化與非結(jié)構(gòu)化數(shù)據(jù),各類數(shù)據(jù)源支持各種層級(jí)的智能決策或智能輔助決策,由此產(chǎn)生各類質(zhì)量管理體系問題。例如:多個(gè)數(shù)據(jù)源數(shù)據(jù)內(nèi)容的不一致;數(shù)據(jù)存在缺損值、過超值和缺失字段;數(shù)據(jù)存在錯(cuò)誤值、異常樣本等。人工智能模型對(duì)數(shù)據(jù)實(shí)時(shí)性要求較高,絕大部分人工智能應(yīng)用必須基于實(shí)時(shí)的數(shù)據(jù)來實(shí)現(xiàn)分析、推理、預(yù)警與決策,必須支持人工智能應(yīng)用的數(shù)據(jù)源具備實(shí)時(shí)接入能力配合人工智能體展開實(shí)時(shí)性的分析、推理、預(yù)警與決策。在此條件下,應(yīng)根據(jù)人工智能模型需要的基于事實(shí)數(shù)據(jù),構(gòu)建批處理與流處理的數(shù)據(jù)處理方式與分析模式,并融合結(jié)構(gòu)化數(shù)據(jù)、半結(jié)構(gòu)化數(shù)據(jù)與非結(jié)構(gòu)化數(shù)據(jù),進(jìn)行以人工智能應(yīng)用為目的的特征工程。

        第三,數(shù)據(jù)質(zhì)量決定的生態(tài)整體質(zhì)量的管控。人工智能模型對(duì)數(shù)據(jù)高度敏感,其質(zhì)量優(yōu)劣程度會(huì)極大地影響人工智能模型的應(yīng)用效果,因此人工智能系統(tǒng)的數(shù)據(jù)源必須極力避免“garbage in,garbage out”的問題發(fā)生,并實(shí)施有效的多維度的數(shù)據(jù)質(zhì)量管控?;跀?shù)據(jù)的管控目標(biāo),首先,明確數(shù)據(jù)的輸入質(zhì)量恢復(fù)與保護(hù)方案,并確保該方案的科學(xué)性和可行性。其次,準(zhǔn)確的數(shù)據(jù)也有助于合理分配資源和優(yōu)化管控的效果,建立統(tǒng)一的數(shù)據(jù)收集標(biāo)準(zhǔn)和流程并采用先進(jìn)的監(jiān)測(cè)技術(shù)和設(shè)備,以提高數(shù)據(jù)精度。最后,增強(qiáng)數(shù)據(jù)管理的透明度,加大公眾監(jiān)督等措施保障管控方法執(zhí)行的力度??傊瑪?shù)據(jù)質(zhì)量是生態(tài)整體質(zhì)量管控的核心,影響著監(jiān)測(cè)、評(píng)估和決策等每個(gè)環(huán)節(jié),只有確保數(shù)據(jù)高質(zhì)量,才能有效提升生態(tài)保護(hù)的效率和效果。

        2.可解釋性方法

        人工智能的可解釋性及其含義包括在人工智能可解釋的范疇內(nèi)。可解釋性的人工智能(下文簡稱“可解釋AI”)是指智能體能夠通過人機(jī)互動(dòng)的方式,使感知、行為和決策被人類理解,并進(jìn)行高效溝通,從而獲得人類的掌控和信任,也能同時(shí)滿足在不同應(yīng)用場(chǎng)景下提供對(duì)智能體決策和行為的有效監(jiān)管和適時(shí)更正(成科揚(yáng)等,2020)。當(dāng)涉及到可解釋AI時(shí),信任是追求的最終目標(biāo)(孔祥維等,2022)。這意味著開發(fā)人員、使用者或決策者在理解并掌握智能體的運(yùn)行功能后,愿意信賴并采納其建議。這種信任評(píng)估既包括模型是否按預(yù)期方式運(yùn)作,也包含運(yùn)作方式與輸出結(jié)果是否符合倫理、法律和社會(huì)規(guī)范,從而推動(dòng)人工智能在更廣泛的領(lǐng)域應(yīng)用。

        第一,明確可解釋AI的溝通模式。首先,在研發(fā)層面,“解釋”包含人與人之間建立聯(lián)系、形成社會(huì)關(guān)系的基本方法,而 “可解釋AI”將倫理、法律等社會(huì)原則嵌入技術(shù)流程,通過開發(fā)一組流程和方法,如形成模型結(jié)構(gòu)圖、算法運(yùn)作機(jī)制和特征重要性圖表等方式,直觀調(diào)查模型行為,提供與人類認(rèn)知邏輯一致的描述,旨在使人類用戶能夠理解并信任由智能體生成的輸出結(jié)果。研發(fā)者通過審查智能體內(nèi)部運(yùn)行機(jī)制的數(shù)據(jù)合規(guī)性、建立信息規(guī)律、開發(fā)各技術(shù)環(huán)節(jié)的診斷工具等手段,提高輸出結(jié)果的可解釋性,降低內(nèi)部運(yùn)行機(jī)制的不透明度,以便使用者和決策者對(duì)關(guān)鍵技術(shù)部分形成直觀認(rèn)知。其次,在應(yīng)用層面,可解釋AI的可視化界面、問答系統(tǒng)和解釋性說明書等人機(jī)交互部分為技術(shù)使用者提供了認(rèn)知工具,幫助人類“理解”智能體的解釋效能,使人類與模型之間的交互更加透明,提高人類對(duì)解釋內(nèi)容的掌握度。例如,在企業(yè)內(nèi)部,技術(shù)研發(fā)人員能夠更加明確可解釋AI模型表征與現(xiàn)實(shí)的關(guān)系,對(duì)模型開發(fā)與應(yīng)用工作進(jìn)行調(diào)整;管理者通過智能體語義化、可視化的內(nèi)容,持續(xù)評(píng)估市場(chǎng)行為、優(yōu)化主營業(yè)務(wù);監(jiān)管者可明晰企業(yè)內(nèi)外部經(jīng)營風(fēng)險(xiǎn),保持可控性、問責(zé)制和可審計(jì)性。最后,可解釋AI為決策層提供完整的決策報(bào)告或生成決策模擬程序,幫助決策者進(jìn)行知識(shí)圖譜檢索、戰(zhàn)略風(fēng)險(xiǎn)評(píng)估或模型合規(guī)性、穩(wěn)定性的評(píng)定。借助可解釋人工智能的輸出結(jié)果,決策者可以大規(guī)模排查模型性能出現(xiàn)漂移或降級(jí)的隱患,在加快獲得決策結(jié)果的基礎(chǔ)上降低人為決策的風(fēng)險(xiǎn)與成本。

        第二,加強(qiáng)數(shù)據(jù)安全風(fēng)險(xiǎn)識(shí)別領(lǐng)域中的可解釋性。數(shù)據(jù)是人工智能發(fā)展的前提與應(yīng)用的核心。已有研究指出,將數(shù)據(jù)集的規(guī)模增加兩到三個(gè)數(shù)量級(jí)所獲得的性能提升會(huì)超過調(diào)整算法帶來的性能提升(Michele和Eric,2001)。應(yīng)用實(shí)踐也印證了這一點(diǎn),以算力為核心的驅(qū)動(dòng)模式正逐漸向以數(shù)據(jù)為核心的驅(qū)動(dòng)模式轉(zhuǎn)變。從數(shù)據(jù)安全風(fēng)險(xiǎn)的角度來看,一方面,通過刷題式學(xué)習(xí)得到的人工智能模型往往存在一系列被公認(rèn)的安全風(fēng)險(xiǎn):算法偏見、低級(jí)錯(cuò)誤和不可解釋性,致使其很難被大規(guī)模地部署和應(yīng)用,即多樣的“AI Safety”問題。另一方面,深度神經(jīng)網(wǎng)絡(luò)被數(shù)據(jù)智能人工智能算法所尋找的對(duì)抗樣本所誤導(dǎo),進(jìn)而產(chǎn)生錯(cuò)誤決策,即廣泛的“AI Security”問題。而且,在特定的情境下,“AI Security”問題可以發(fā)展為“AI Safety”問題。由此可見,從數(shù)據(jù)要素出發(fā)探討“AI Security”問題,是提高識(shí)別人工智能安全風(fēng)險(xiǎn)效率的基礎(chǔ)需求。與基于聯(lián)邦學(xué)習(xí)、安全多方計(jì)算以及可信執(zhí)行環(huán)境等圍繞處理數(shù)據(jù)的關(guān)鍵過程而提出的隱私保護(hù)方案不同,基于可解釋性的人工智能數(shù)據(jù)安全風(fēng)險(xiǎn)研究是從模型構(gòu)建的原則出發(fā),關(guān)注確保數(shù)據(jù)完整性、機(jī)密性及代碼完整性的解釋路徑。而對(duì)于數(shù)據(jù)治理從以下四個(gè)方面展開工作:第一,從數(shù)據(jù)規(guī)模方面來看,傳統(tǒng)的數(shù)據(jù)治理更多是以人面對(duì)的對(duì)象,基于有限數(shù)據(jù)容量實(shí)施分類與聚類,建立基于關(guān)系代數(shù)的關(guān)系并分析與展示信息,人工智能面對(duì)的數(shù)據(jù)量遠(yuǎn)遠(yuǎn)大于人所能接納的數(shù)據(jù)量與信息量,對(duì)于人工智能應(yīng)用可用的高質(zhì)量數(shù)據(jù)越多,模型質(zhì)量與準(zhǔn)確性越高。第二,從數(shù)據(jù)類型方面來看,人工智能應(yīng)用,尤其是知識(shí)圖譜的構(gòu)建,需要大量半結(jié)構(gòu)化與非結(jié)構(gòu)化的數(shù)據(jù)支持來展開。人工智能應(yīng)用在結(jié)構(gòu)化數(shù)據(jù)的基礎(chǔ)上,結(jié)合各類半結(jié)構(gòu)化與非結(jié)構(gòu)化數(shù)據(jù)的數(shù)據(jù)源支持各種層級(jí)的智能決策或智能輔助決策。第三,從數(shù)據(jù)質(zhì)量方面來看,人工智能模型對(duì)數(shù)據(jù)質(zhì)量高度敏感,人工智能系統(tǒng)的數(shù)據(jù)源必須極力避免“garbage in,garbage out”的問題發(fā)生,并實(shí)施有效的多維度的數(shù)據(jù)質(zhì)量管控。第四,從數(shù)據(jù)實(shí)時(shí)性方面來看,人工智能模型對(duì)實(shí)時(shí)性要求很高,絕大部分人工智能應(yīng)用必須基于實(shí)時(shí)的數(shù)據(jù)來達(dá)到分析、推理、預(yù)警與決策的目的,必須支持人工智能應(yīng)用的數(shù)據(jù)源具備實(shí)時(shí)性的接入能力并提高實(shí)時(shí)性的分析、推理、預(yù)警與決策的水平。

        五、優(yōu)化人工智能倫理治理建議

        (一)結(jié)論

        人工智能倫理“體系-治理-質(zhì)量評(píng)價(jià)”框架是一個(gè)確保人工智能技術(shù)發(fā)展與運(yùn)用符合倫理標(biāo)準(zhǔn),并通過有效治理保障質(zhì)量提升的多維度體系。該體系基于尊重隱私、公平無歧視等倫理原則,涉及政策制定、法律法規(guī)、行業(yè)標(biāo)準(zhǔn)等治理層面,并通過質(zhì)量評(píng)價(jià)對(duì)人工智能系統(tǒng)的倫理合規(guī)性、技術(shù)性能等進(jìn)行綜合評(píng)估。實(shí)施這一體系需要跨學(xué)科合作,評(píng)價(jià)過程應(yīng)具備系統(tǒng)性、連續(xù)性和透明性。當(dāng)前,人工智能系統(tǒng)放大了倫理問題,并產(chǎn)生了新的挑戰(zhàn),如何降低倫理風(fēng)險(xiǎn)成為關(guān)鍵。人工智能倫理研究對(duì)現(xiàn)代社會(huì)發(fā)展至關(guān)重要,歐盟和我國等已在不斷提出和實(shí)踐基本準(zhǔn)則。為應(yīng)對(duì)倫理風(fēng)險(xiǎn),需形成前期管控措施,提高人工智能系統(tǒng)的可解釋性和可信性,確保數(shù)據(jù)處理、技術(shù)設(shè)計(jì)的合規(guī)性。最終目的是提高人工智能輸出結(jié)果的精度,使其為人所理解,以獲得信任,并確保數(shù)據(jù)安全可靠、使用可追溯、結(jié)果可驗(yàn)證。這一框架旨在確保技術(shù)可持續(xù)發(fā)展,維護(hù)社會(huì)倫理秩序的公正與透明。

        (二)政策建議

        根據(jù)上述研究結(jié)論,本文提出了以下政策建議。

        第一,對(duì)于方便人類生活與生產(chǎn)需求的智能產(chǎn)品,采取“事前+使用+售后”的全環(huán)節(jié)治理。首先,在安全可靠的創(chuàng)新需求下,事前環(huán)節(jié)隨時(shí)啟動(dòng)監(jiān)控人工智能產(chǎn)品的生產(chǎn)和產(chǎn)出過程,發(fā)現(xiàn)潛在風(fēng)險(xiǎn)時(shí)應(yīng)積極采取阻斷措施,如未能成功攔截阻斷,應(yīng)該及時(shí)與相關(guān)監(jiān)管部門上報(bào),告知社會(huì)公眾,謹(jǐn)慎與控制使用問題產(chǎn)品和停止繼續(xù)輸入相關(guān)智能數(shù)據(jù)。其次,在公平正義的原則指導(dǎo)下,重視使用者即終端用戶的使用需求。這一過程的重點(diǎn)在于監(jiān)管體系的透明化程序設(shè)計(jì)。例如人工智能系統(tǒng)提供的醫(yī)療決策在實(shí)際的醫(yī)療診斷過程中往往存在“黑箱”,醫(yī)生與患者存在認(rèn)知偏差,需要監(jiān)管敏感數(shù)據(jù)的使用與處理,考慮人工智能醫(yī)療決策的可解釋性和決策過程的透明度,明確責(zé)任分配。最后,人工智能產(chǎn)品的開發(fā)者一方面要在事后環(huán)節(jié)對(duì)整個(gè)開發(fā)、部署等環(huán)節(jié)展開問責(zé),問責(zé)機(jī)制與問責(zé)條款應(yīng)當(dāng)基于現(xiàn)有白皮書或倫理規(guī)范準(zhǔn)則制定;另一方面要基于市場(chǎng)需求進(jìn)行售后服務(wù)方面的跟蹤,總結(jié)出產(chǎn)品在日常使用中的技術(shù)冗余與過剩,進(jìn)行合理化的算法優(yōu)化,基于穩(wěn)定的智能數(shù)據(jù)量來進(jìn)行合理把控,避免“一刀切”的方式限制對(duì)應(yīng)產(chǎn)品的發(fā)展和功能的完善性。

        第二,在人工智能技術(shù)處理方面,數(shù)據(jù)管理需要多主體共同努力。研發(fā)部門需采用先進(jìn)的數(shù)據(jù)加密、匿名化和去標(biāo)識(shí)化技術(shù),確保數(shù)據(jù)在存儲(chǔ)和傳輸過程中的安全;建立內(nèi)部倫理審查機(jī)制,對(duì)涉及個(gè)人數(shù)據(jù)的科研項(xiàng)目進(jìn)行倫理審查,確保合規(guī)性;向用戶清晰披露數(shù)據(jù)收集和使用目的,提供用戶對(duì)個(gè)人數(shù)據(jù)的訪問、更正和刪除的權(quán)利。社會(huì)公眾需要學(xué)習(xí)數(shù)據(jù)隱私保護(hù)知識(shí),了解個(gè)人信息的重要性,提高自我保護(hù)意識(shí);積極參與對(duì)數(shù)據(jù)平臺(tái)和企業(yè)的監(jiān)督,對(duì)可能的數(shù)據(jù)濫用行為進(jìn)行舉報(bào)和反饋;在發(fā)現(xiàn)個(gè)人隱私被侵犯時(shí),通過法律途徑維護(hù)自己的合法權(quán)益。

        第三,在人工智能與社會(huì)場(chǎng)景的結(jié)合過程中,既需要尊重當(dāng)事人、自然人、法人或相對(duì)應(yīng)使用者的個(gè)人隱私,又需要更多關(guān)注地域影響、文化異同、風(fēng)俗習(xí)慣、工作內(nèi)容等方面的差異性因素,進(jìn)行智能化場(chǎng)景的匹配與對(duì)應(yīng)。我國人工智能倫理的政策應(yīng)從生產(chǎn)源頭企業(yè)角度率先出發(fā),出臺(tái)政策鼓勵(lì)企業(yè)采用隱私保護(hù)技術(shù),如差分隱私、聯(lián)邦學(xué)習(xí)等,減少數(shù)據(jù)泄露風(fēng)險(xiǎn)。同時(shí),推動(dòng)建立數(shù)據(jù)安全標(biāo)準(zhǔn)和認(rèn)證體系。通過媒體和公共教育活動(dòng)提高公眾對(duì)數(shù)據(jù)隱私保護(hù)的意識(shí),普及數(shù)據(jù)安全知識(shí)。建立數(shù)據(jù)安全事件應(yīng)急響應(yīng)機(jī)制,一旦發(fā)生數(shù)據(jù)泄露或?yàn)E用事件,能夠迅速采取措施,將損失降到最低。

        第四,面對(duì)新興人工智能倫理風(fēng)險(xiǎn)時(shí),鼓勵(lì)技術(shù)專家與倫理、社會(huì)、經(jīng)濟(jì)、法律專家等跨學(xué)科合作,堅(jiān)持我國與國際的技術(shù)交流合作與倫理研討,共同研究和解決人工智能倫理的新挑戰(zhàn)。一方面,在跨學(xué)科合作中,各學(xué)科專家可以開展人工智能倫理的哲學(xué)探討和案例分析,為實(shí)踐提供理論支持。另一方面,在國際交流中,我國推動(dòng)構(gòu)建并積極參與全球范圍內(nèi)倫理風(fēng)險(xiǎn)治理合作機(jī)制,例如參與國際組織如經(jīng)濟(jì)合作與發(fā)展組織(OECD)和全球人工智能伙伴關(guān)系(GPAI)等,共同推動(dòng)倫理標(biāo)準(zhǔn)的制定;在世界數(shù)字科學(xué)院(WDTA)的AISTR認(rèn)證計(jì)劃、清華大學(xué)主辦的人工智能合作與治理國際論壇等活動(dòng)中開展政策對(duì)話,協(xié)調(diào)不同國家的人工智能法規(guī),減少法律沖突。通過跨界交流與國際合作,交流和分享各國在人工智能倫理方面的經(jīng)驗(yàn)、政策和最佳實(shí)踐,確保人工智能技術(shù)在我國健康發(fā)展,防范其潛在的倫理挑戰(zhàn)。

        參考文獻(xiàn):

        [1]"成科揚(yáng)、王寧、師文喜等,2020:《深度學(xué)習(xí)可解釋性研究進(jìn)展》,《計(jì)算機(jī)研究與發(fā)展》第6期。

        [2]"鄧悅、蔣婉儀,2022:《智能化轉(zhuǎn)型何以激發(fā)企業(yè)創(chuàng)新?——基于制造業(yè)勞動(dòng)力多樣性的解釋》,《改革》第9期。

        [3]"鄧悅、許弘楷、王詩菲,2024:《人工智能風(fēng)險(xiǎn)治理:模式、工具與策略》,《改革》第1期。

        [4]"董艷、陳輝,2024:《生成式人工智能賦能跨學(xué)科創(chuàng)新思維培養(yǎng):內(nèi)在機(jī)理與模式構(gòu)建》,《現(xiàn)代教育技術(shù)》第4期。

        [5]"杜靜、黃榮懷、李政璇,2019:《智能教育時(shí)代下人工智能倫理的內(nèi)涵與建構(gòu)原則》,《電化教育研究》第7期。

        [6]"黃新華、溫永林,2024:《算法賦能政府規(guī)制:邏輯、限度與發(fā)展方向》,《北京社會(huì)科學(xué)》第1期。

        [7]"賈開、蔣余浩,2017:《人工智能治理的三個(gè)基本問題:技術(shù)邏輯、風(fēng)險(xiǎn)挑戰(zhàn)與公共政策選擇》,《中國行政管理》第10期。

        [8]"賈開、薛瀾,2021:《人工智能倫理問題與安全風(fēng)險(xiǎn)治理的全球比較與中國實(shí)踐》,《公共管理評(píng)論》第1期。

        [9]"賈開,2019:《人工智能與算法治理研究》,《中國行政管理》第1期。

        [10] 姜李丹、薛瀾、梁正,2022:《人工智能賦能下產(chǎn)業(yè)創(chuàng)新生態(tài)系統(tǒng)的雙重轉(zhuǎn)型》,《科學(xué)學(xué)研究》第4期。

        [11] 姜李丹、薛瀾,2022:《我國新一代人工智能治理的時(shí)代挑戰(zhàn)與范式變革》,《公共管理學(xué)報(bào)》第2期。

        [12] 孔祥維、王子明、王明征,2022:《人工智能使能系統(tǒng)的可信決策:進(jìn)展與挑戰(zhàn)》,《管理工程學(xué)報(bào)》第6期。

        [13] 李家寧、熊睿彬、蘭艷艷等,2023:《因果機(jī)器學(xué)習(xí)的前沿進(jìn)展綜述》,《計(jì)算機(jī)研究與發(fā)展》第1期。

        [14] 李夢(mèng)薇、徐峰、晏奇等,2023:《服務(wù)機(jī)器人領(lǐng)域人工智能倫理風(fēng)險(xiǎn)評(píng)估方法的設(shè)計(jì)與實(shí)踐》,《中國科技論壇》第10期。

        [15] 令小雄、王鼎民、袁健,2023:《ChatGPT爆火后關(guān)于科技倫理及學(xué)術(shù)倫理的冷思考》,《新疆師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》第4期。

        [16] 劉景江、鄭暢然、洪永淼,2023:《機(jī)器學(xué)習(xí)如何賦能管理學(xué)研究?——國內(nèi)外前沿綜述和未來展望》,《管理世界》第9期。

        [17] 瞿晶晶、王迎春、趙延?xùn)|,2022:《人工智能社會(huì)實(shí)驗(yàn):倫理規(guī)范與運(yùn)行機(jī)制》,《中國軟科學(xué)》第11期。

        [18] 孫偉平,2020:《人工智能與人的“新異化”》,《中國社會(huì)科學(xué)》第12期。

        [19] 譚九生、楊建武,2019:《人工智能技術(shù)的倫理風(fēng)險(xiǎn)及其協(xié)同治理》,《中國行政管理》第10期。

        [20] 瓦拉赫,2017:《道德機(jī)器》,北京大學(xué)出版社。

        [21] 王飛躍、繆青海,2023:《人工智能驅(qū)動(dòng)的科學(xué)研究新范式:從AI4S到智能科學(xué)》,《中國科學(xué)院院刊》第4期。

        [22] 王軍,2018:《人工智能的倫理問題:挑戰(zhàn)與應(yīng)對(duì)》,《倫理學(xué)研究》第4期。

        [23] 王彥雨,2020:《“強(qiáng)人工智能”爭論過程中的“態(tài)度轉(zhuǎn)換”現(xiàn)象研究》,《科學(xué)技術(shù)哲學(xué)研究》第6期。

        [24] 王奕俊、楊悠然,2020:《人工智能背景下專業(yè)人才培養(yǎng)的發(fā)展路徑與方向——基于會(huì)計(jì)職業(yè)相關(guān)數(shù)據(jù)的實(shí)證研究》,《中國遠(yuǎn)程教育》第1期。

        [25] 肖紅軍、李書苑、陽鎮(zhèn),2023:《數(shù)字科技倫理監(jiān)管的政策布局與實(shí)踐模式:來自英國的考察》,《經(jīng)濟(jì)體制改革》第5期。

        [26] 于雪、李倫,2023:《人工智能社會(huì)實(shí)驗(yàn)的倫理關(guān)切》,《科學(xué)學(xué)研究》第4期。

        [27] 余雅風(fēng)、王朝夷,2023:《由技術(shù)倫理向法律規(guī)范演進(jìn):國外人工智能應(yīng)用規(guī)范研究綜述》,《河北法學(xué)》第2期。

        [28] 張鋌,2022:《人工智能的倫理風(fēng)險(xiǎn)治理探析》,《中州學(xué)刊》第1期。

        [29] 張夏恒、馬妍,2024:《生成式人工智能技術(shù)賦能新質(zhì)生產(chǎn)力涌現(xiàn):價(jià)值意蘊(yùn)、運(yùn)行機(jī)理與實(shí)踐路徑》,《電子政務(wù)》第4期。

        [30] 張欣,2023:《生成式人工智能的算法治理挑戰(zhàn)與治理型監(jiān)管》,《現(xiàn)代法學(xué)》第3期。

        [31] 張?chǎng)?、王明輝,2019:《中國人工智能發(fā)展態(tài)勢(shì)及其促進(jìn)策略》,《改革》第9期。

        [32] Chauhan, C. and Gullapalli, R. R., 2021, Alhics of AI in Pathology: Current Paradigms and Emerging Issues, The American Journal of Pathology, 191(10): 1673-1683.

        [33] Floridi, L., Cowls, J., King TC, et al., 2021, How to Design AI for Social Good: Seven Essential Factors, Ethics, Governance and Policies in Artificial Intelligence: 125-151.

        [34] Huang, Z., Che, C., Zheng, H., et al., 2024, Research on Generative Artificial Intelligence for Virtual Financial Robo-Advisor, Academic Journal of Science and Technology, 10(1): 74-80.

        [35] Jobin, A., Ienca, M. and Vayena, E., 2019, The Global Landscape of AI Ethics Guidelines. Nature Machine Intelligence, 1(9): 389-399.

        [36] Kung, T. H., Cheatham, M., Medenilla, A., et al., 2023, Performance of ChatGPT on USMLE: Potential for AI-Assisted Medical Education Using Large Language Models, PLoS Digital Health, 2(2): e0000198.

        [37] Larsson, S., 2020, On the Governance of Artificial Intelligence Through Ethics Guidelines, Asian Journal of Law and Society, 7(3): 437-451.

        [38] Lepri, B., Oliver, N., Letouzé, E., et al., 2018, Fair, Transparent and Accountable Algorithmic Decision-Making Processes, Philosophy of Technology, 31(4): 611-627.

        [39] Li, D. and Du, Y., 2017, Artificial Intelligence with Uncertainty, CRC Press.

        [40] Min, H., 2010, Artificial Intelligence in Supply Chain Management: Theory and Applications, International Journal of Logistics: Research and Applications, 13(1): 13-39.

        [41] Minsky, M., 1961, Steps Toward Artificial Intelligence, Proceedings of the IRE, 49(1): 8-30.

        [42] Mittelstadt, B. D., Allo, P., Taddeo, M., Wachter, S. and Floridi, L., 2016, The Ethics of Algorithms: Mapping the Debate, Big Data amp; Society, 3(2): 1-21.

        [43] Rahwan, I., 2018, Society-in-the-Loop: Programming the Algorithmic Social Contract, Ethics and Information Technology, 20(1): 5-14.

        [44] Samuel, A. L.,1960, Some Moral and Technical Consequences of Automation—a Refutation, Science, 132(3429): 741-742.

        [45] Szocik, K., Tkacz, B. and Gulczyński, P., 2020, The Revelation of Superintelligence, AI amp; Society, 35(3): 755-758.

        [46] Wiener, N.,1960, Some Moral and Technical Consequences of Automation: As Machines Learn They May Develop Unforeseen Strategies at Rates that Baffle their Programmers, Science, 131(3410): 1355-1358.

        Ethical Issues of Artificial Intelligence: System Construction and Governance Quality Evaluation

        Zhang Lei1", Zhang Jiacheng2"and Xu Hongkai3

        (1.Shanghai Research Institute for Intelligent Autonomous Systems,Tongji University;2.Experimental Teaching Center of Transportation Engineering,TongJi University;3.The Institute of Quality Development Strategy, Wuhan University)

        Abstract:The rapid iteration of artificial intelligence (AI) technology has led to extensive discussions around the governance of AI among countries. The ethical problems arising from the development of AI technology have become increasingly prominent, and have risen to the level of national social and economic development and strategic security. This paper constructs the ethical system of AI, improves the pertinence of ethical governance of AI, and evaluates the quality of governance, aiming to provide ethical guidance for the healthy and orderly development of AI technology and social integration. This paper first summarizes the development process and deep application of AI and then analyzes the ethical challenges brought by the progress of AI technology. On this basis, the ethical system of AI is constructed, and the operation process and existing problems of the ethical system are analyzed. After summarizing the content of ethical governance of AI, this paper evaluates the quality of ethical governance, forms the evaluation index and evaluation system of the quality of ethical governance, and verifies the effect of ethical governance. Finally, this paper puts forward policy suggestions from the aspects of intelligent product design, technical governance, differentiated demand, and interdisciplinary cooperation, to promote the sustainable development of artificial intelligence technology and effectively solve ethical problems.

        Key Words:artificial intelligence; ethical risk; ethical system; quality evaluation

        責(zé)任編輯"鄧"悅

        猜你喜歡
        人工智能
        我校新增“人工智能”本科專業(yè)
        用“小AI”解決人工智能的“大”煩惱
        汽車零部件(2020年3期)2020-03-27 05:30:20
        當(dāng)人工智能遇見再制造
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        AI人工智能解疑答問
        人工智能與就業(yè)
        基于人工智能的電力系統(tǒng)自動(dòng)化控制
        人工智能,來了
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        人工智能來了
        亚欧中文字幕久久精品无码| 亚洲av国产av综合av卡| 久久成人影院精品777| 欧性猛交ⅹxxx乱大交| 国产精品国三级国产av| 亚洲av推荐网站在线观看| 无码熟妇人妻av在线网站| 内射口爆少妇麻豆| 无码精品国产va在线观看| 人妻中出精品久久久一区二| 亚洲视频在线免费观看一区二区 | 色二av手机版在线| 在线成人影院国产av| 精品国产这么小也不放过| 久久久久久av无码免费看大片 | 日产精品久久久久久久| 国产午夜亚洲精品不卡福利| 国产三级av在线播放| 亚洲黄片av在线播放| 精品久久久久成人码免费动漫| 国产黑丝在线| 少妇高潮太爽了免费网站| 中文字幕日韩人妻少妇毛片| av无码天堂一区二区三区| 综合激情网站| 美女一区二区三区在线视频| 丰满少妇弄高潮了www| 国产乱子伦精品免费无码专区| 国产一级黄色录像| 久久中文字幕av一区二区不卡| 欧美丰满老熟妇aaaa片| 精品性高朝久久久久久久| 日韩精品一区二区亚洲av性色| 黄页免费人成网址大全| 色婷婷一区二区三区四区成人网| 无码人妻少妇色欲av一区二区 | 欧美激情视频一区二区三区免费| 又污又爽又黄的网站| 国产极品视觉盛宴在线观看| 东北老熟女被弄的嗷嗷叫高潮| 丰满少妇三级全黄|