亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        人工智能的倫理風(fēng)險及對策研究

        2023-02-23 20:12:47錢燕娜
        關(guān)鍵詞:人工智能

        錢燕娜

        (國防大學(xué)政治學(xué)院,上海 201600)

        隨著人工智能技術(shù)的不斷發(fā)展,它的無限潛能已成為當(dāng)今世界的一大亮點(diǎn),引發(fā)了一場前所未有的重大變革。中國正在把人工智能技術(shù)作為推進(jìn)產(chǎn)業(yè)發(fā)展和實(shí)現(xiàn)經(jīng)濟(jì)騰飛的重要支撐,努力建設(shè)一個具有全球影響力的人工智能強(qiáng)國。中國應(yīng)當(dāng)采取多種策略,以實(shí)現(xiàn)人工智能技術(shù)的全面、多層次的發(fā)展,并對其可能帶來的道德和社會影響進(jìn)行深入的研究和評估,以便制定適當(dāng)?shù)姆ㄒ?guī)和政策,以確保人工智能技術(shù)的可持續(xù)性和安全性。

        一、人工智能的倫理風(fēng)險樣態(tài)

        人工智能可能會面臨三種倫理風(fēng)險:關(guān)系紊亂、價值失衡和行為異化。這些風(fēng)險可能會對人工智能的發(fā)展造成不利影響。

        (一)倫理關(guān)系失調(diào)的風(fēng)險樣態(tài)

        隨著技術(shù)的進(jìn)步,人工智能產(chǎn)品的相似性日益增強(qiáng),使得人機(jī)之間的界限變得愈加模糊,而在這個新的時代,倫理學(xué)的研究也不斷擴(kuò)大,不僅僅局限于人與人之間的關(guān)系,還涉及到人與機(jī)器人、機(jī)器人與機(jī)器人之間的關(guān)系。人工智能的重要性已經(jīng)不容忽視,它可以為社會帶來巨大的變革,構(gòu)建一個更加和諧的環(huán)境,促進(jìn)共同的進(jìn)步。一些學(xué)者甚至提出了一個深刻的思考:即使我們無法以物質(zhì)或化學(xué)的方式獲得真正的幸福,但我們也可以以積極的態(tài)度參與到社會的交流中去?維護(hù)和促進(jìn)社會的交流與合作依舊至關(guān)重要?①參見譚九生、楊建武:《人工智能技術(shù)的倫理風(fēng)險及其協(xié)同治理》,載《中國行政管理》2019 年第10 期。隨著科技的發(fā)展,越來越多的研究表明,人類和機(jī)器之間的邊界越來越模糊,從而導(dǎo)致了倫理關(guān)系的失衡。因此,在倫理學(xué)上,人們開始討論如何將機(jī)器人作為倫理的主體,而非僅僅將其作為人類的工具。這就引發(fā)了一場關(guān)于人類和機(jī)器的倫理之爭②參見劉繼虎、王琛揚(yáng):《智能機(jī)器人法律主體地位之探討》,載《重慶郵電大學(xué)學(xué)報(社會科學(xué)版)》2021 年第2 期。。盡管單一的形式模型可以提供一定的結(jié)構(gòu),但由于其缺乏因果關(guān)聯(lián),無法實(shí)現(xiàn)對意圖的完整捕捉,因此,必須采用更加復(fù)雜的方法來構(gòu)建出更加豐富的結(jié)構(gòu)①John R.Searle,Minds,BrAIn,and Programs.3 Behaviroral &BrAIn Sciences 417(1980).轉(zhuǎn)引自譚九生、楊建武:《人工智能技術(shù)的倫理風(fēng)險及其協(xié)同治理》,載《中國行政管理》2019 年第10 期。。隨著科技的進(jìn)步,人工智能已經(jīng)被認(rèn)識到它在未來扮演重要角色。如果我們把它作為一個倫理主體,那么它將改變我們?nèi)粘I钪械娜N基本社會關(guān)系:人際、財富和權(quán)力。它還將影響我們的家庭和政治,改善我們的日常生活。因此,我們必須認(rèn)識到,如果我們把它作為一個倫理主體,就必須采取行動來維護(hù)我們的道德和社會秩序。

        (二)倫理價值失衡的風(fēng)險樣態(tài)

        隨著時代的進(jìn)步,“人文價值觀”一詞已經(jīng)成為一種普遍的社會道德準(zhǔn)則,它強(qiáng)調(diào)了公平、正義、尊重和保護(hù)個人的基本權(quán)利。此外,它還強(qiáng)調(diào)了對人的尊重,認(rèn)識到人的本質(zhì),并將其作為自身行動的基礎(chǔ)。近年來,由于地區(qū)、行業(yè)和其他智能技術(shù)的不均衡發(fā)展,使得數(shù)字鴻溝日益擴(kuò)大,算法歧視也變得越來越普遍,這給社會帶來了極大的不利影響,嚴(yán)重制約了社會的可持續(xù)性和進(jìn)步性,甚至有從“國家利維坦”②“利維坦”(Leviathan)原為《舊約圣經(jīng)》中記載的一種海上怪獸,被稱為“上帝所創(chuàng)造的惡魔”。自霍布斯撰寫的《利維坦》問世以后,該詞成為強(qiáng)勢的國家(政府)的代名詞。演變?yōu)椤皵?shù)字利維坦”的趨勢,人文價值觀作為社會倫理價值的基本取向,正面臨著被解構(gòu)的危機(jī)。人工智能技術(shù)的發(fā)展可能會導(dǎo)致社會倫理價值的失衡,這種失衡可以從兩個方面來體現(xiàn):

        第一,公平的社會倫理價值觀受到了嚴(yán)重的挑戰(zhàn)。社會公平不僅僅是指生活上的平等,而是指每個人都應(yīng)該按照法律規(guī)定享有同樣的權(quán)利,并且應(yīng)該盡自己的義務(wù),這是一種基本的社會共識。隨著人工智能技術(shù)的發(fā)展,擁有技術(shù)優(yōu)勢的個人和組織可以獲得更多的資源和信息,但由于每個人的知識結(jié)構(gòu)和技術(shù)掌握水平的不同,這些紅利并不能均衡地惠及每一位成員,從而導(dǎo)致了“數(shù)字鴻溝”等現(xiàn)象的出現(xiàn)。隨著人工智能技術(shù)的發(fā)展,它不僅促進(jìn)了經(jīng)濟(jì)的發(fā)展,還造成了技術(shù)不對稱,從而導(dǎo)致權(quán)利的不公平。此外,人工智能技術(shù)還可能導(dǎo)致國家權(quán)力的分散,從而阻礙人類社會的平等、自由和共享,但也可能帶來“數(shù)字利維坦”的潛在風(fēng)險。隨著IT 的進(jìn)步,“國家利維坦”被迫被限制,以促進(jìn)國家的透明化和民主化,但“數(shù)字利維坦”卻開始脫離人類社會,甚至可能對人類社會造成不可逆轉(zhuǎn)的影響③鄖彥輝:《數(shù)字利維坦:信息社會的新型危機(jī)》,載《中共中央黨校學(xué)報》2015 年第3 期。。隨著人工智能技術(shù)的發(fā)展,機(jī)器人的智能水平已經(jīng)顯著提高,但同時也帶來了一定的危險,即人類可能會被智能機(jī)器人所控制、限制和奴役。因此,我們必須認(rèn)真思考如何確保公正的倫理價值觀得以實(shí)施。

        第二,正義的社會倫理價值觀受到了前所未有的挑戰(zhàn)。古希臘哲學(xué)家亞里士多德將正義劃分為三個不同的層面:分配正義、矯正正義和回報正義,而羅爾斯則進(jìn)一步發(fā)展了這一理論,以更加全面地理解社會的現(xiàn)實(shí)狀況。羅爾斯將正義定義為一種基于平等基本權(quán)利和自由的公正原則,以確保公平的分配④[美]約翰·羅爾斯:《政治自由主義》,萬俊人譯,譯林出版社2000 年版,第242 頁。;將矯正正義表述為“調(diào)節(jié)著基本分配正義問題的原則”⑤[美]約翰·羅爾斯:《政治自由主義》,萬俊人譯,譯林出版社2000 年版,第243 頁。??梢哉f,分配正義的核心是實(shí)現(xiàn)形式上的平等,這意味著要給予所有人應(yīng)得的財富、權(quán)力和榮耀,而當(dāng)這種傳統(tǒng)的公平分配遭遇挑戰(zhàn)時,矯正正義便成為一種可行的方法,它旨在通過適度地偏袒弱勢群體,從而達(dá)到實(shí)現(xiàn)真正的公平。隨著人工智能的進(jìn)步,它不僅可以徹底顛覆傳統(tǒng)的公平分配模式,還可以深刻地影響到當(dāng)今社會的道德準(zhǔn)則和價值觀念。隨著人工智能時代的來臨,結(jié)構(gòu)性失業(yè)問題受到了廣泛關(guān)注,但由于個體差異,技術(shù)壁壘使得許多普通勞動者很難跨越,他們的勞動權(quán)利和尊嚴(yán)受到削弱,甚至可能被社會邊緣化。因此,要想實(shí)現(xiàn)真正的公平分配,就不可避免地要求矯正正義,尤其是在這種大規(guī)模的公平分配失衡的情況下。隨著科技的發(fā)展,人工智能技術(shù)的發(fā)展正在改變著我們的生活。過去,技術(shù)的主導(dǎo)地位一直被擁有技術(shù)優(yōu)勢的個人、機(jī)構(gòu)和政府所控制,導(dǎo)致技術(shù)壟斷的局面。但是,當(dāng)前的IT 時代,技術(shù)不再是唯一的財富,社會的財富分配也發(fā)生了變化。

        (三)倫理行為異化的風(fēng)險樣態(tài)

        人工智能技術(shù)還存在導(dǎo)致人類倫理行為異化的風(fēng)險。主要體現(xiàn)在以下三個方面:

        第一,導(dǎo)致人類出現(xiàn)獲取信息的路徑依賴。隨著人工智能技術(shù)的不斷發(fā)展,它為人們提供了更多的信息來源,使得人們能夠更有效地搜尋、分析、處理各種信息,從而更好地掌握自身的需求。此外,企業(yè)也利用人工智能分析工具,更加準(zhǔn)確地把握消費(fèi)者的興趣、宗教信仰、價值觀念,實(shí)施更有針對性的信息推送。從短期的角度來看,這種信息獲取的方式確實(shí)讓人們的日常生活變得更加便利,然而,如果持續(xù)下去,就可能導(dǎo)致人們對數(shù)據(jù)的偏見和依賴。

        第二,導(dǎo)致人類社會出現(xiàn)群體極化的行為。凱斯·桑斯坦曾經(jīng)指出,網(wǎng)絡(luò)可能會成為一個“溫床”,因為它讓志同道合的人可以在網(wǎng)上輕松地交流,但卻無法接受不同的觀點(diǎn)。如果長期處于極端的立場之中,接受這些人的觀點(diǎn),就會讓人們慢慢接受這種觀點(diǎn),并且更加認(rèn)同它們①[美]凱斯·桑斯坦:《網(wǎng)絡(luò)共和國》,黃維明譯,上海人民出版社2003 年版,第51 頁。。人類社會中出現(xiàn)群體極化行為的原因可以歸結(jié)為兩大方面:一是由于網(wǎng)絡(luò)群體內(nèi)部的同質(zhì)性較強(qiáng),容易引發(fā)激烈的沖突,從而導(dǎo)致個體之間的矛盾演變成社會群體甚至社會階層之間的矛盾②參見鄖彥輝:《數(shù)字利維坦:信息社會的新型危機(jī)》,載《中共中央黨校學(xué)報》2015 年第3 期。;二是隨著人工智能技術(shù)的進(jìn)步,人類的信息收集與處理能力面臨巨大的考驗。傳統(tǒng)的信息收集模式使得人們更容易被虛假、不準(zhǔn)確的信息所左右,從而導(dǎo)致社交網(wǎng)絡(luò)的分裂。為了保護(hù)公眾的利益,我們應(yīng)該加強(qiáng)對信息收集的管控,以確保社交網(wǎng)絡(luò)的安全性。

        第三,造成人類社會出現(xiàn)群體隔離的現(xiàn)象。由于當(dāng)前的人工智能技術(shù)的發(fā)展,使得人們能夠更加便捷地與其他人建立聯(lián)系,從而避免了傳統(tǒng)的社會群體隔離。這種聯(lián)系的形式表現(xiàn)為“互動交往”,也就是說,人們能夠更加輕松地與其他人建立聯(lián)系,而無需參加任何社會活動。如果人工智能技術(shù)的進(jìn)步達(dá)到了可以讓人們進(jìn)行有效溝通的水平,那么人際關(guān)系的緊張程度就可能大大降低,甚至完全消除。由于各種社會個體的知識結(jié)構(gòu)、技術(shù)掌握水平和對IT(包括人工智能)的把握程度有所不同,使得當(dāng)前的階級劃分無法完全依據(jù)這些差異來實(shí)現(xiàn),而且,由于數(shù)字鴻溝的日益擴(kuò)大,這種依據(jù)技術(shù)把握水平來劃分社會群體的做法也變得越來越普遍。因此,人工智能技術(shù)可能會引發(fā)社會中不同階層之間的道德差距,從而產(chǎn)生倫理上的偏見。

        二、人工智能倫理基本原則的確立

        “原則”一詞源自拉丁語“原理”,弗里德曼指出,它是一種超級規(guī)則,可以用來制定其他規(guī)則,也就是說,它是一種規(guī)則模式或模型?!霸瓌t”是一種標(biāo)準(zhǔn),它可以用來衡量其他規(guī)則的價值和效力?!霸瓌t”提供了一種抽象的概念,它將許多細(xì)微的規(guī)律匯集起來,形成了一個普遍的、宏觀的框架③參見[美]勞倫斯·M.弗里德曼:《法律制度》,李瓊英、林欣譯,中國政法大學(xué)出版社1994 年版,第46 頁。。因此,要想深入理解人工智能倫理的基本原則,首先必須明確它們的界定標(biāo)準(zhǔn)。

        人工智能倫理的基本原則必須具備高度的概括性、廣泛的適用性以及獨(dú)特的實(shí)踐意義。這些原則必須包括:一方面,它們必須充分考慮人類與人工智能之間的相互影響,以及它們在社會環(huán)境中的行為方式;另一方面,它們必須具有明確的目的,以便在實(shí)踐中有效地實(shí)施;此外,它們還必須具有可操作性,以便在不斷改進(jìn)的情況下,有效地滿足社會的需求;最后,它們必須具有可持續(xù)的發(fā)展?jié)摿?,以滿足社會的期望,并且具有可持續(xù)的可操作性。不論是在科技倫理領(lǐng)域還是其它倫理學(xué)領(lǐng)域,都應(yīng)該遵循一些共同的準(zhǔn)則和原則。

        (一)以人為本原則

        基于“以人為本,科技向善”,我們應(yīng)該構(gòu)建一種以人類為中心的人工智能倫理框架,它將有助于解決人工智能倫理問題,并且成為整個科技倫理領(lǐng)域的核心指導(dǎo)思想。我們必須堅定地把人類利益放在首位,并且堅定地追求可持續(xù)發(fā)展,從而使科學(xué)技術(shù)能夠更好地服務(wù)于人類,從而使我們的未來更加美好。重視將人類的利益放在首位,科技倫理的核心是要讓科學(xué)技術(shù)成為促進(jìn)人類進(jìn)步和發(fā)展的重要力量,因此,“以人為本”和“以人為本”的理念都強(qiáng)調(diào)了保護(hù)和維護(hù)人類的基本利益,以及實(shí)現(xiàn)可持續(xù)的發(fā)展。而“以人為本”和“以人為本”的理念,則更加強(qiáng)調(diào)了對人工智能的尊重,它們既要求人們擁有自主的行為權(quán),又要求人工智能,特別是類人機(jī)器人,不得以任何方式來壓制、欺詐、操控和控制人類,從而實(shí)現(xiàn)真正的人工智能保護(hù)和維護(hù)人類的基本利益。尊重人類的自由不僅僅是針對人工智能,而是要貫徹到醫(yī)療、社會、文化、道德等各個層面,以此來維護(hù)和促進(jìn)社會的和諧與發(fā)展。在人工智能倫理的框架下,“特殊性”與“普適性”都被認(rèn)為是對人類的最高權(quán)利、可持續(xù)發(fā)展和尊重個體自由的最佳表達(dá),它們構(gòu)成了一個完整的倫理體系,為人們提供了一個更加公平、公正的環(huán)境,使得人們在使用人工智能時更加安全、舒適。

        (二)公平原則

        盡管理論界對于應(yīng)用倫理學(xué)的基本原則存有爭議,但對于“公平原則”并無異議。人工智能算法的不可解釋性、歧視性等特征使“公平原則”在人工智能的研發(fā)、使用和治理過程中顯得尤為重要,因而有諸多學(xué)者認(rèn)為該原則應(yīng)當(dāng)作為人工智能倫理的基本原則。從人工智能應(yīng)用的實(shí)際運(yùn)行情況來看,算法歧視、不同群體在人工智能技術(shù)獲取方面存在差異等問題的確存在,且日趨引起社會重視。正如前文就“公平原則”的簡要分析所言,世界各組織、各國或地區(qū)及其學(xué)者針對人工智能的特點(diǎn)賦予了“公平原則”以新的內(nèi)涵。但人工智能倫理基本原則應(yīng)當(dāng)具有“特殊性”,“公平原則”作為應(yīng)用倫理學(xué)的基本原則,人工智能倫理問題的治理自當(dāng)遵循該原則,無須再重復(fù)確立為人工智能倫理的基本原則,類同于民法的基本原則無須再同時確定為物權(quán)編等下屬分支的基本原則。此處并非否定在教學(xué)或研究過程中對公平原則的新內(nèi)涵給予關(guān)注,也并非否定將該原則寫在立法中①參加孫占利:《論電子商務(wù)法的基本原則——以全球電子商務(wù)立法為視角》,載《現(xiàn)代法學(xué)》2008 年第3 期。?!肮皆瓌t”的新內(nèi)涵反映了人工智能在倫理問題中的部分特征,理應(yīng)予以充分關(guān)注,只是基本原則的“特殊性”要求不應(yīng)在理論上再重復(fù)將其確立為人工智能倫理的基本原則。

        (三)透明度原則

        “透明度原則”被認(rèn)為是人工智能算法的核心準(zhǔn)則,它強(qiáng)調(diào)了人工智能在實(shí)踐過程中應(yīng)遵守的道德準(zhǔn)則,而“黑匣子”則更加強(qiáng)調(diào)了人工智能在實(shí)現(xiàn)復(fù)雜任務(wù)時應(yīng)遵守的道德準(zhǔn)則,以及人工智能在實(shí)現(xiàn)復(fù)雜任務(wù)時應(yīng)遵守的道德準(zhǔn)則?!案叨刃浴碧岢隽艘恍┗镜臏?zhǔn)則,而“透明度原則”卻沒有提供這些準(zhǔn)則?!巴该鞫仍瓌t”更加重視人工智能系統(tǒng)的公開、解釋、審核以及驗證,以及提高它們的可理解性、可解讀性、可驗證性、可預(yù)測性,以及更好地傳達(dá)和披露相關(guān)信息。雖然“黑匣子”的實(shí)施可以幫助解決人工智能算法的一些挑戰(zhàn),但它的本質(zhì)目的在于建立人工智能系統(tǒng)的安全性、可控性和可靠性,而“透明度原則”則無法完整地體現(xiàn)這一理念,因此,在實(shí)施人工智能原則時,必須兼顧技術(shù)本身以及科技與人類之間的關(guān)系。

        (四)隱私保護(hù)原則

        “隱私保護(hù)原則”一直是人工智能倫理領(lǐng)域的重點(diǎn)關(guān)注對象,因為它的運(yùn)行依賴大量的數(shù)據(jù),如果沒有進(jìn)行適當(dāng)?shù)臄?shù)據(jù)處理和過濾,就很容易導(dǎo)致個人信息的外泄?!半[私保護(hù)原則”與“高度性”、“普遍性”和“特殊性”并無關(guān)聯(lián),這是一個顯著的差異?!案叨刃浴敝荚趲椭鉀Q由人工智能帶來的個人信息泄露問題,它在某種程度上可以為人工智能的倫理和規(guī)范制定提供參考,然而,“隱私保護(hù)原則”卻未能完整地體現(xiàn)“人本主義”的核心思想與價值觀。人本主義旨在維護(hù)人類的尊嚴(yán)和價值,但“隱私保護(hù)原則”只是對人的權(quán)利進(jìn)行了有限的保護(hù),“隱私保護(hù)原則”則未能有效地應(yīng)對當(dāng)前的人工智能倫理問題,比如類人機(jī)器人的“欺騙性”、人工智能帶來的結(jié)構(gòu)性失業(yè)等,“隱私保護(hù)原則”則未能有效地應(yīng)對這些挑戰(zhàn)?!疤厥庑浴焙汀半[私保護(hù)原則”都是關(guān)于人工智能倫理的重要法規(guī),但它們不是一個完整的體系,因此,在利用大數(shù)據(jù)、區(qū)塊鏈以及AppAP 時,隱私保護(hù)的重要性也是不容忽視的。因此,“隱私保護(hù)原則”與“高度性”、“普遍性”和“特殊性”的期望存在較大差距。

        三、人工智能倫理風(fēng)險的控制對策

        針對人工智能的倫理風(fēng)險,我們可以借助于其所擁有的基本原則來進(jìn)行指導(dǎo),但是,這些原則只是一種表面的準(zhǔn)則,而要想真正有效地管控和預(yù)防這類風(fēng)險,就必須建立一套完善的法律體系,以便從技術(shù)開發(fā)、使用和管理等環(huán)節(jié),都可以得到有效的約束。

        (一)增設(shè)人工智能倫理審查小組

        為了有效地管控人工智能的倫理風(fēng)險,許多全球領(lǐng)先的科技公司都建立起一套完善的倫理審查機(jī)制,以確保未來的產(chǎn)品符合道德標(biāo)準(zhǔn)。微軟公司就建立了一個由該公司負(fù)責(zé)的倫理審查委員會,以確保未來的所有產(chǎn)品都符合道德標(biāo)準(zhǔn);谷歌公司更是特別建立了一個由該公司負(fù)責(zé)的倫理審查小組,以確保未來的產(chǎn)品符合道德標(biāo)準(zhǔn),從而確保公司的可持續(xù)發(fā)展。我們將對人工智能的新項目、產(chǎn)品和交易進(jìn)行嚴(yán)格的倫理審核。目前,我們的企業(yè)內(nèi)部設(shè)有一個專門負(fù)責(zé)管理人工智能的倫理委員會。這個機(jī)構(gòu)的主要目標(biāo)是為了確保人工智能的安全、公平、隱私得到有效的保障,同時也為了讓它們遵守相關(guān)的法律法規(guī)和道德準(zhǔn)則①參見曹建峰:《人工智能倫理治理亟需邁向?qū)嵺`階段》,載微信公眾號“數(shù)字法治”2021 年4 月14 日,https://mp.weixin.qq.com/s/lrUFqS_IDHZeeSfqBjdw-WQ。。與傳統(tǒng)的科學(xué)技術(shù)發(fā)展帶來的道德風(fēng)險形成鮮明對比,人工智能的道德風(fēng)險不僅涉及到更多的領(lǐng)域,而且還具有極高的威脅性,甚至可能引發(fā)毀滅性的后果。為此,2020 年10 月,中華人民共和國政府設(shè)立了國家科學(xué)技術(shù)EC,以構(gòu)建一個完善的、具有指導(dǎo)性的、統(tǒng)一的、公平、公正、合理的科學(xué)技術(shù)道德管理體系②參見科技日報評論員:《科技倫理的底線不容突破》,載《科技日報》2019 年7 月26 日,第1 版。。為了保護(hù)人工智能的倫理價值,我們建議在國家科技倫理委員會下成立一個審查小組,并賦予它獨(dú)立的法律地位,以便更好地規(guī)范各方的權(quán)利和義務(wù),并為受害者提供救濟(jì)途徑。

        為了確保人工智能倫理審查小組的獨(dú)立性,我國應(yīng)當(dāng)加強(qiáng)對其法律地位的認(rèn)識,并制定相關(guān)的法律法規(guī),以確保其在醫(yī)學(xué)領(lǐng)域的合法性和權(quán)威性。此外,應(yīng)當(dāng)加強(qiáng)對倫理審查小組的監(jiān)督。從目前涉及倫理審查委員會的法律文件來看,除《基本醫(yī)療衛(wèi)生與健康促進(jìn)法》③參見《基本醫(yī)療衛(wèi)生與健康促進(jìn)法》第32 條第3 款?!端幤饭芾矸ā发軈⒁姟端幤饭芾矸ā返?0 條?!夺t(yī)療糾紛預(yù)防與處理條例》⑤參見《醫(yī)療糾紛預(yù)防與處理條例》第11 條。等對此有原則性規(guī)定外,具體規(guī)定主要集中在《涉及人的生物醫(yī)學(xué)研究倫理審查辦法》(以下簡稱《倫理審查辦法》)中。值得注意的是,《倫理審查辦法》①參見《涉及人的生物醫(yī)學(xué)研究倫理審查辦法》第5 條、第7 條第1 款。規(guī)定了國家衛(wèi)生行政部門是倫理審查委員會的監(jiān)督部門的同時,又將其下屬機(jī)構(gòu)(從事醫(yī)學(xué)研究的醫(yī)療衛(wèi)生機(jī)構(gòu))作為倫理審查委員會的管理責(zé)任主體,如此一來,醫(yī)學(xué)領(lǐng)域的倫理審查委員會與被審查對象實(shí)際上形成了“自我審查、自我監(jiān)督”的邏輯結(jié)構(gòu),能否實(shí)現(xiàn)真正的倫理審查目的值得反思。因此,為了保護(hù)人類的根本利益,特別是對于人工智能項目和產(chǎn)品,國家應(yīng)該賦予科技EC 獨(dú)立的法律地位,以確保其公正、公平、公開地進(jìn)行審查,避免受到國家公權(quán)力的侵害。

        人工智能倫理審查小組應(yīng)當(dāng)制定嚴(yán)格的倫理標(biāo)準(zhǔn)和流程規(guī)范,涵蓋基礎(chǔ)設(shè)施、數(shù)據(jù)處理、應(yīng)用服務(wù)、安全隱私等方面,并建立完善的案例、程序、工具、資源等,以便更好地指導(dǎo)和管控人工智能項目、產(chǎn)品和交易,確保其符合道德標(biāo)準(zhǔn),保障公眾利益②參見曹建峰:《人工智能倫理治理亟需邁向?qū)嵺`階段》,載微信公眾號“數(shù)字法治”2021 年4 月14 日,https://mp.weixin.qq.com/s/lrUFqS_IDHZeeSfqBjdw-WQ。;為了更好地管理人工智能的R&D,我們需要建立一個嚴(yán)格的倫理標(biāo)準(zhǔn)評估體系,以便及時、動態(tài)地評估整個R&D 過程中的倫理風(fēng)險;此外,還需要加強(qiáng)對科技企業(yè)內(nèi)部的倫理風(fēng)險控制,以確保其關(guān)鍵決策(如數(shù)據(jù)集的選擇、算法的選擇)的正確性、可靠性,并且建立一個完善的回溯機(jī)制,以便及早發(fā)現(xiàn)、及時處置可能出現(xiàn)的倫理安全風(fēng)險③參見《網(wǎng)絡(luò)安全標(biāo)準(zhǔn)實(shí)踐指南-人工智能倫理安全風(fēng)險防范指引》(TC260-PG-20211A)。;為了確保人工智能的可持續(xù)性和安全性,我們應(yīng)該定期組織倫理培訓(xùn),以加深R&D 者對相關(guān)倫理標(biāo)準(zhǔn)和流程的了解,并且增強(qiáng)他們的道德意識,以便他們在弱人工智能時代也能夠遵守相關(guān)的道德準(zhǔn)則。為了確保人工智能的安全、高效、可持續(xù)發(fā)展,科技倫理委員會應(yīng)該建立完善的法律制度,并且要求其成員承擔(dān)起自身的義務(wù),以便在技術(shù)、法律、倫理等多方面都得到充分的認(rèn)可。此外,還需要對其進(jìn)行嚴(yán)格的倫理審查,以確保其合規(guī)性④參見曹建峰:《人工智能倫理治理亟需邁向?qū)嵺`階段》,載微信公眾號“數(shù)字法治”2021 年4 月14 日,https://mp.weixin.qq.com/s/lrUFqS_IDHZeeSfqBjdw-WQ。。

        鑒于目前我國醫(yī)療衛(wèi)生領(lǐng)域的倫理審查體系缺乏有效的規(guī)范,使得權(quán)利人難以獲得必要的救濟(jì)。因此,為了保障他們的合法權(quán)益,政府有必要建立一套完善的法律體系,以便對科技倫理審查進(jìn)行有效的監(jiān)督和管控,以保護(hù)他們的合法權(quán)益。因為倫理審查的復(fù)雜性和專業(yè)性,尤其是在人工智能領(lǐng)域,它需要掌握大量的數(shù)學(xué)、計算機(jī)科學(xué)和編程技術(shù),因此,我們強(qiáng)烈建議提高國家科學(xué)技術(shù)EC 的職責(zé),以便解決與之相關(guān)的糾紛。為了確保人工智能、基因編輯技術(shù)和輔助生殖技術(shù)的倫理審查結(jié)果得到有效的執(zhí)行,我們強(qiáng)烈建議在國家科技EC 中設(shè)立一個特殊的機(jī)構(gòu),以便對這些技術(shù)帶來的倫理問題進(jìn)行有效的討論和裁定,以確保不同技術(shù)領(lǐng)域的倫理標(biāo)準(zhǔn)能夠得到有效的協(xié)調(diào)和實(shí)施。

        (二)塑造人工智能倫理標(biāo)準(zhǔn)認(rèn)證體系

        為了確保人工智能的安全性、可靠性、負(fù)責(zé)任性,IEEE、ISO 等正在積極推動,不斷完善人工智能的倫理標(biāo)準(zhǔn),并采取一系列的認(rèn)證措施,以確保人工智能的安全性。因此,我們應(yīng)當(dāng)積極推動人工智能的倫理標(biāo)準(zhǔn)的完善,加快推出更多的倫理認(rèn)證項目,以求達(dá)到更高的社會認(rèn)可度⑤參見曹建峰:《人工智能倫理治理亟需邁向?qū)嵺`階段》,載微信公眾號“數(shù)字法治”2021 年4 月14 日,https://mp.weixin.qq.com/s/1rUFqS_IDHZeeSfqBjdw-WQ。。關(guān)于倫理標(biāo)準(zhǔn)認(rèn)證體系的建立,需要采用“兩步走”的策略:

        2020 年,中央網(wǎng)信辦、國家發(fā)展改革委、科技部、工業(yè)和信息化部聯(lián)合發(fā)布《國家新一代人工智能標(biāo)準(zhǔn)體系建設(shè)指南》,為了更好地促進(jìn)人工智能發(fā)展,實(shí)現(xiàn)其倫理標(biāo)準(zhǔn)的統(tǒng)一,我們必須首先確立一套完善的人工智能倫理標(biāo)準(zhǔn),并將其納入國家規(guī)范的管理框架中,從而實(shí)現(xiàn)人工智能發(fā)展的有效性。根據(jù)本指南的規(guī)劃,到2021 年,我們將建立一個完整的人工智能標(biāo)準(zhǔn)體系,以更加細(xì)致地研究和分析每一個標(biāo)準(zhǔn)的含義,明確它們之間的關(guān)聯(lián),以期促進(jìn)人工智能標(biāo)準(zhǔn)的進(jìn)一步完善和發(fā)展。針對人工智能倫理標(biāo)準(zhǔn)的制定,我們將對20 項以上的重點(diǎn)標(biāo)準(zhǔn)進(jìn)行深入研究,特別是在醫(yī)療、交通、應(yīng)急救援等特定行業(yè),更加突出倫理標(biāo)準(zhǔn)的實(shí)施,以期達(dá)到更好的效果。為此,我國將借鑒國內(nèi)外有益經(jīng)驗,匯集多方力量,結(jié)合技術(shù)專家、法學(xué)專家、倫理學(xué)專家、標(biāo)準(zhǔn)化專家等,分層、分類、分領(lǐng)域,制定出更加完善的人工智能倫理標(biāo)準(zhǔn),以期達(dá)到更好的效果。特別是在醫(yī)療、交通、應(yīng)急救援等特殊領(lǐng)域,應(yīng)迅速制定人工智能倫理標(biāo)準(zhǔn),以確保公平、公正的發(fā)展。

        第二步,我們需要清楚地界定人工智能的倫理標(biāo)準(zhǔn),包括其目的、內(nèi)容和流程。我們必須始終把保障人類的基本權(quán)益放在首位,并且嚴(yán)格遵守相關(guān)法律法規(guī),避免使用人工智能產(chǎn)生的道德風(fēng)險。除了遵守國家規(guī)范,還應(yīng)該對參與者進(jìn)行嚴(yán)格的審查,以確保他們的行為符合道德規(guī)范,特別是對于那些致力于保障人類基本權(quán)益的人工智能項目。IEEE 在《人工智能設(shè)計的倫理準(zhǔn)則》(Ethically Aligned Design)中提出“福祉指標(biāo)”,以確定智能和自動化是否能夠有效地改善人類的福祉,并且明確指定衡量標(biāo)準(zhǔn)。雖然傳統(tǒng)的正面指標(biāo)如利潤、職業(yè)安全和財政健康等具有一定的參考價值,但它們無法覆蓋個人或社會的全面福祉。研究顯示,心理、社會和環(huán)境等多種因素都會對人類的幸福感產(chǎn)生深遠(yuǎn)的影響,因此,構(gòu)建一套完整的幸福指標(biāo)體系,既可以更精準(zhǔn)地評估科學(xué)技術(shù)的進(jìn)步,又可以及時發(fā)現(xiàn)可能危及幸福感的潛在風(fēng)險,為社會發(fā)展和科學(xué)進(jìn)步提供有力的參考依據(jù)①IEEE 自主與智能系統(tǒng)倫理全球倡議項目:《〈人工智能設(shè)計的倫理準(zhǔn)則〉(第2 版)概要》,載國際科研合作信息網(wǎng)2018 年9月28 日,http://www.ircip.cn/web/993898-993919.html?id=26645&id=26645&newsid=977189。。“福祉指標(biāo)”為我國推動人工智能倫理標(biāo)準(zhǔn)認(rèn)證項目提供了一個重要的參考,其認(rèn)證程序包括申請準(zhǔn)備、現(xiàn)場考察、審查以及結(jié)果通知四個步驟,可以有效地幫助我們更好地實(shí)現(xiàn)人工智能倫理標(biāo)準(zhǔn)的認(rèn)證。首先,申請準(zhǔn)備是認(rèn)證過程中的第一步。這一步包括兩個部分:預(yù)申請和正式申請。在預(yù)申請階段,申請人應(yīng)該向有資質(zhì)的機(jī)構(gòu)提交一份完整的人工智能項目審核報告,以便獲得認(rèn)證。通過這一步,申請者可以更好地了解自己的情況,并且更有信心地提交正式的申請。其次,鑒于人工智能倫理風(fēng)險的普遍性和嚴(yán)重性,認(rèn)證機(jī)構(gòu)有責(zé)任對所有參與者進(jìn)行全面的考核,以確保其符合法律法規(guī)要求,包括但不限于實(shí)地檢查、采訪和審核有關(guān)項目的文件材料。再次,經(jīng)過認(rèn)證審查,認(rèn)證機(jī)構(gòu)將對申請者提交的書面材料和實(shí)地考察結(jié)果進(jìn)行綜合評估,以確定是否符合要求。根據(jù)評估結(jié)果,可將其分為不符合標(biāo)準(zhǔn)、基本符合標(biāo)準(zhǔn)和完全符合標(biāo)準(zhǔn)三種類別。認(rèn)證機(jī)構(gòu)應(yīng)當(dāng)仔細(xì)審核和記錄所有的評估報告,并將其完整地保存下來。最后,確保認(rèn)證結(jié)果及時傳遞給申請者,以便及時獲得有關(guān)信息。同時,為了確保人工智能倫理標(biāo)準(zhǔn)的認(rèn)證質(zhì)量,建議每一次審核都要按照規(guī)定的期限進(jìn)行,以確保最終的審核結(jié)果符合要求。

        (三)建立人工智能產(chǎn)品倫理控檢機(jī)制

        為了有效地管控人工智能的倫理風(fēng)險,我們不僅需要成立一個專門的倫理審查小組,建立一套完善的倫理標(biāo)準(zhǔn)認(rèn)證體系,而且還必須建立一套嚴(yán)格的倫理控檢機(jī)制。此外,為了有效地防范和減少這類風(fēng)險,我們可以利用區(qū)塊鏈、無線射頻識別技術(shù)和大數(shù)據(jù)等信息技術(shù),從源頭上進(jìn)行嚴(yán)格的監(jiān)督,同時也要建立一套完善的風(fēng)險預(yù)警、定期抽檢和產(chǎn)品召回等制度。區(qū)塊鏈?zhǔn)且环N去中心化的數(shù)據(jù)存儲技術(shù),它將數(shù)據(jù)塊按照時間順序進(jìn)行線性排列,并且可以無限增長,從而實(shí)現(xiàn)數(shù)據(jù)的安全性和可靠性,它可以記錄和傳輸所有的信息,從而為用戶提供更加安全、可靠的服務(wù)。區(qū)塊鏈技術(shù)采用了非對稱加密算法(哈希算法),這種加密方式可以將記錄的信息準(zhǔn)確地傳輸?shù)矫總€主體的客戶端,并且保證每個人只能對自己的賬戶進(jìn)行更改,從而提高了安全性和可靠性①參見孫芳:《數(shù)據(jù)區(qū)塊鏈技術(shù)對財務(wù)、會計及審計行業(yè)的影響》,載《中國戰(zhàn)略新興產(chǎn)業(yè)》2017 年第3 期。。通過使用區(qū)塊鏈,我們發(fā)現(xiàn)它既可以追蹤歷史,又不會被篡改。這樣一來,我們就可以確保每一個節(jié)點(diǎn)都是真實(shí)的,并建立一種新的、分布式的信任系統(tǒng)。RFID(射頻識別)是一種高效的自動識別技術(shù),它通過無線電波來檢測特定的目標(biāo),并且在沒有機(jī)械或光學(xué)干擾的情況下完成識別。因此,RFID在當(dāng)今的物流領(lǐng)域中被廣泛應(yīng)用。

        通過利用區(qū)塊鏈、無線射頻識別和大數(shù)據(jù)等先進(jìn)的信息技術(shù),我們可以將各種人工智能產(chǎn)品的相關(guān)資料完整地存儲起來,同時還可以精準(zhǔn)地定位、跟蹤和追溯這些產(chǎn)品的來源。從人工智能產(chǎn)品的開發(fā)階段起,就要賦予它們特定的編碼,同時,要把它們的基本要求、數(shù)據(jù)處理要求、硬件設(shè)備要求、應(yīng)用服務(wù)要求、安全隱私要求等信息記錄到RFID 芯片上,從而使它們的功能更加完善、更加高效。通過采用區(qū)塊鏈作為核心技術(shù),我們將建立一個由RFID 芯片組成的后臺數(shù)據(jù)庫,一旦該產(chǎn)品被部署,其所有的數(shù)據(jù)就將被記錄并存儲,這樣就可以通過區(qū)塊鏈的可追溯性和不可篡改性,有效地追蹤和管理從R&D 到應(yīng)用的整個過程。政府有責(zé)任加強(qiáng)對人工智能的監(jiān)督和管理,建立有效的風(fēng)險評估和預(yù)警體系,將人工智能的倫理風(fēng)險劃分為四個等級:極端危害、嚴(yán)重危害、普通危害和輕微危害,并且要求各個等級都有完善的應(yīng)對措施。政府應(yīng)該采取有效措施,建立完善的智能化系統(tǒng),定期檢測和跟蹤人工智能產(chǎn)品,及時發(fā)布風(fēng)險預(yù)警,以便及早采取有效措施;為了確保人工智能產(chǎn)品質(zhì)量,我們需要利用信息共享平臺,讓監(jiān)管人員實(shí)時跟蹤和定期抽查。此外,我們還需要利用區(qū)塊鏈和RFID 技術(shù),將人工智能產(chǎn)品的數(shù)據(jù)進(jìn)行電子化記錄和溯源,以及建立一套完善的倫理控檢機(jī)制,以有效地預(yù)防和減少其在整個使用壽命中可能存在的倫理風(fēng)險。技術(shù)和法治的結(jié)合是一項艱巨的任務(wù),必須由各方參與,共同努力才能實(shí)現(xiàn)。

        猜你喜歡
        人工智能
        我校新增“人工智能”本科專業(yè)
        用“小AI”解決人工智能的“大”煩惱
        汽車零部件(2020年3期)2020-03-27 05:30:20
        當(dāng)人工智能遇見再制造
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        AI人工智能解疑答問
        人工智能與就業(yè)
        基于人工智能的電力系統(tǒng)自動化控制
        人工智能,來了
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        人工智能來了
        丰满人妻一区二区三区52| 无码熟妇人妻av在线影片| 日韩黑人欧美在线视频观看| 麻豆国产AV网站| 精品成人av人一区二区三区| 18禁黄无遮挡免费网站| 男女搞基视频免费网站| 色婷婷五月综合激情中文字幕| 欧美猛男军警gay自慰| 91福利国产在线观一区二区| 日韩日本国产一区二区| 国产成人精品免费久久久久| 香蕉久久福利院| 国产一区二区精品久久凹凸| 亚洲成人av在线播放不卡| 亚洲中文字幕无码av永久| а√天堂资源8在线官网在线 | 欧美熟妇与小伙性欧美交| 谷原希美中文字幕在线| 欧美人牲交| 欧美日韩在线免费看| 日本一区二区久久精品亚洲中文无| 亚洲不卡高清av网站| 免费人妻精品一区二区三区| 欧美日韩精品乱国产| 手机在线看片在线日韩av| 日韩亚洲中文有码视频| 中国农村熟妇性视频| 麻豆AⅤ精品无码一区二区| 97人妻精品一区二区三区免费| 精品综合久久久久久888蜜芽| 鸭子tv国产在线永久播放| 国产乱淫视频| 日韩av在线免费观看不卡| 青青草原综合久久大伊人精品 | 国产爽快片一区二区三区| 又色又爽又黄高潮的免费视频 | 国产在线视频国产永久视频| 国产精品女丝袜白丝袜美腿| 欧美丰满熟妇性xxxx| 亚洲综合婷婷久久|