亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        踐行科技向善,筑牢可信人工智能的道德藩籬

        2019-02-24 07:08:48欒群
        民主與科學(xué) 2019年6期
        關(guān)鍵詞:人機(jī)信任倫理

        欒群

        發(fā)展可信人工智能,技術(shù)治理與倫理準(zhǔn)則必須兼顧,民族立場與人類情懷必須協(xié)調(diào),經(jīng)由設(shè)計的倫理和基于監(jiān)督的信任必須同步,才有可能在人工智能加持的戰(zhàn)場上贏得優(yōu)勢、贏得主動、贏得未來。

        隨著人工智能技術(shù)和產(chǎn)業(yè)的飛速發(fā)展,我們迎來了人工智能的第三次浪潮(第一次:1956—1976年,基于符號邏輯的推理證明階段;第二次:1976—2006年,基于人工規(guī)則的專家系統(tǒng)階段;第三次:2006至今,基于大數(shù)據(jù)驅(qū)動的深度神經(jīng)網(wǎng)絡(luò)階段)。同時,也有人警醒地看到,人工智能倫理問題已迫在眉睫。隨著技術(shù)突破和產(chǎn)業(yè)落地頻繁見諸報端,讓人感到恐懼和緊張的還有人工智能技術(shù)及其應(yīng)用帶來的負(fù)面影響。在國家政策和科技倫理的指引下,很多機(jī)構(gòu)和研究人員開始關(guān)注:如何建立起人類與人工智能的信任關(guān)系,并通過一系列機(jī)制構(gòu)筑起可信人工智能的道德邊界,確保人工智能在創(chuàng)新和使用中沿著人類預(yù)想的方向發(fā)展。

        人工智能技術(shù)必須貫徹科技向善

        發(fā)展人工智能之所以必須更加強(qiáng)調(diào)道德倫理和向善理念,是因為這種東西可能是直接“威脅”人類的“新物種”。首先,人類第一次面對自己的創(chuàng)造物感覺到被替代的恐懼。傳統(tǒng)的工業(yè)化技術(shù)指向性在于產(chǎn)品,而人工智能技術(shù)的指向性卻在人本身。傳統(tǒng)工業(yè)化技術(shù)的功能性被嚴(yán)格定義,服務(wù)于人類的生產(chǎn)、生活和學(xué)習(xí),無論如何提高工藝但不改變其工具性——突出表現(xiàn)在無論使用者是誰,其功能性都是普適的。這也是技術(shù)中立觀念的工業(yè)化基礎(chǔ)。而人工智能技術(shù)的產(chǎn)品或服務(wù),都指向了特定人——當(dāng)無法辨認(rèn)為特定對象時就可能享受不了服務(wù)。如傳統(tǒng)相機(jī)提高的是照相的清晰度,而智能相機(jī)人臉識別是可以鎖定你的身份的。其次,人類在面臨人工智能技術(shù)時感到普遍的無能為力。當(dāng)然,目前為止這種“無能為力”更多的是一種感受,而且人工智能的成熟度還遠(yuǎn)沒有到達(dá)那一地步。但筆者想強(qiáng)調(diào)的是,由于人類智力增長是線性增長和對數(shù)增長,人工智能技術(shù)的發(fā)展卻是指數(shù)增長,奇點一旦來臨,人類就再無勝算。這種機(jī)器對人體力和智力、物種和物理多重“碾壓”帶來的壓迫感,在科幻作品中已經(jīng)頻繁上演了。第三,人類面對人工智能有一種復(fù)雜的感情。人類創(chuàng)造出人工智能,想讓它越智能越好,但又怕它太智能而超越自己、替代自己、不受控制甚至反過來控制自己。特別是,當(dāng)“互聯(lián)網(wǎng)+”進(jìn)入3.0的物聯(lián)網(wǎng)新階段,機(jī)器之間可以互聯(lián)甚至交流——當(dāng)機(jī)器也有了人類以為自己才能獨有的“社會性”,人類社會的普遍自信就被“瓦解”了。

        人類對技術(shù)進(jìn)步的復(fù)雜感情,促使人類轉(zhuǎn)而探索完善對技術(shù)的治理。以騰訊為代表倡導(dǎo)“科技向善”的理念,并在此理念下提出科技倫理的三個層面內(nèi)容:第一,技術(shù)信任。即人工智能等新技術(shù)需要價值引導(dǎo),具體表現(xiàn)為“四可”原則:可用、可靠、可知、可控。第二,個體幸福。即確保人人都有追求數(shù)字福祉、幸福工作的權(quán)利,未來的社會必定是人機(jī)共存的智能社會,在此背景下實現(xiàn)個體更自由、智慧、幸福的發(fā)展。第三,社會可持續(xù)。發(fā)揮好人工智能等新技術(shù)的巨大“向善”潛力,善用技術(shù)塑造健康包容可持續(xù)的智慧社會,持續(xù)推動經(jīng)濟(jì)發(fā)展和社會進(jìn)步。

        谷歌之前的信條是“Dont be Evil(不作惡)”,雖然由于外部不明原因這一表述在2018年4月5日被從網(wǎng)頁上撤下,但“向善”“不作惡”的科技發(fā)展理念已經(jīng)深入人心,特別是當(dāng)科技發(fā)展帶來的事故被報道出來,就更加使人堅信這樣的信條。也許當(dāng)時提出“不作惡”信條時,是創(chuàng)始者看到了太多人類的自大、傲慢和私欲,一次次將本來用于造福于世的技術(shù)變成了可能毀滅人類未來的武器。周國平提出,“科技向善”至少有四個維度:功能層面科技應(yīng)該讓人類更高效、舒適;社會層面科技應(yīng)該普惠更多普通人;倫理層面科技及使用應(yīng)該恪守基本倫理底線;精神層面科技應(yīng)當(dāng)含有人文精神。但值得警醒的是,“科技向善”的提出,實際上就意味著“科技作惡”的可能性在大大增加。當(dāng)我們討論科技向善時,是在討論科技嗎?可能不真是,毋寧說我們是在討論人類對科技及其使用的共識。古希臘哲學(xué)家普羅泰戈拉說,“人是萬物的尺度”。我們在面對世界的時候,可能價值選擇因人而異,出現(xiàn)萬人、萬物、萬尺度。但人類不會因為達(dá)成共識的困難,就泯滅對發(fā)展的渴望。普羅泰戈拉的這句名言是針對神提出的,他是在強(qiáng)調(diào)人的尺度性,意在“滅神”。但對于人類正在大力發(fā)展的人工智能技術(shù)來說,萬物尺度的人是不是在重新“造神”呢?無論是或不是,人類都不應(yīng)忘記自己尺度性中“向善”的成分。

        人工智能需要建立人機(jī)之間信任

        從“向善”到“信任”,是理念到行動的落實?!跋蛏啤笔侨祟惖墓沧R,達(dá)成共識的人類之間的“信任”是不言而喻的。但在人工智能技術(shù)大發(fā)展的大背景下,人工智能要獲得更長遠(yuǎn)的發(fā)展,建立起人機(jī)之間的信任是一種必需。先從詞義上看,信任一詞英文動詞是trust,tru-代表真實,意指堅信某人或某物純良、誠實、善意,不會傷害你或算計你。段偉文教授提出,人機(jī)之間的信任需要一種beliving,這是一種面向智能化時代的人機(jī)信任機(jī)制,需要每個人拿出人類的能動性采取行動,糾正那些被采集和被分析的數(shù)據(jù)中的錯誤或偏見。人機(jī)之間的信任首要的一點是“不要害怕”,當(dāng)人類處在或主要處在害怕情緒之中時,這種beliving機(jī)制是建立不起來的。畢竟人機(jī)之間的關(guān)系說到最后,是人與人之間以機(jī)器為中介的關(guān)系。若以這種角度來做建設(shè)性人機(jī)關(guān)系的構(gòu)筑行動,可能就感到比較輕松一點了。

        傳統(tǒng)意義上的信任關(guān)系,是一種托付關(guān)系,發(fā)生在委托人與受托人之間。所以,英文單詞trust還有信托(財產(chǎn))的意義,即委托人基于對受托人的信任,將其財產(chǎn)權(quán)委托給受托人,由受托人按委托人的意愿以自己的名義,為受益人的利益或特定目的進(jìn)行管理和處分,通常要一直達(dá)到特定年齡(an arrangement by which an organization or a group of people has legal control of money or property that has been given to sb., usually until that person reaches a particular age)。從這里實際上也可以看出人機(jī)之間信任關(guān)系的影子,人類出于對機(jī)器或人工智能系統(tǒng)的信任,而委托其處理自己的事務(wù)。特別是,如兒童看護(hù)、情感交流等情形,真的是典型的情感信任。甚至,可以預(yù)想被人工智能看護(hù)的兒童,成長起來后對它的信任幾乎是牢不可破的。但這里不同于傳統(tǒng)trust的有兩點,一是二者之間不是兩個平等主體之間的關(guān)系,而往往是一個主體與一個平臺之間,或一個平臺與所有人之間的關(guān)系;二是二者之間目前來看還不清楚相互關(guān)系的全貌,即人類信任機(jī)器基本可以理解,但機(jī)器信任人或機(jī)器之間信任的機(jī)制還不甚清楚。而要弄清楚這一點,真正建立起人機(jī)信任關(guān)系,就需要充分的聯(lián)接和善意的引導(dǎo)。

        達(dá)成向善的共識,建立信任的情感,人機(jī)才能攜手奔向美好的明天。所以,為人工智能技術(shù)或新興科技找到道德倫理的把手,可能才是構(gòu)筑人機(jī)信任的關(guān)鍵。縱觀整個科技史,沒有跡象表明技術(shù)自身帶有道德倫理的品質(zhì),科技哲學(xué)觀念是被開發(fā)、使用技術(shù)的人所賦予的。人工智能的倫理價值和倫理責(zé)任,與其說是機(jī)器對人的啟迪,不如說是人類尺度性的啟動發(fā)揮和自我意識的主動尋找。關(guān)于信任有句名言,“信任別人的善良是自己善良的明證”,但問題是,人類自己足夠善良嗎?谷歌在2019年3月26日成立了外部專家委員會(ATEAC),用于探討人工智能倫理問題,但僅成立了9天即被解散。其所面臨的人事斗爭姑且不論,但被反對的理由如:ATEAC成員在為軍方提供無人機(jī)自動駕駛方案(可能直接有悖于“不作惡”信條),還有成員反對跨性別者(Transgender)涉嫌歧視特定人群,還有服務(wù)保守派智庫傳統(tǒng)基金會迎合政治需要,等等。這啟示我們,善良也可能是一張“普洛透斯的臉”(a Proteus face),變幻無常,那么要建立信任真的是“路漫漫其修遠(yuǎn)兮”。

        可信人工智能的國際經(jīng)驗與啟示

        2019年是可信人工智能的元年。歐盟委員會發(fā)布《可信人工智能倫理準(zhǔn)則》(Ethics Guidelines For Trustworthy AI),美國更新了2016年發(fā)布的《國家人工智能研究和發(fā)展戰(zhàn)略計劃:2019更新版》(The National AI R&D Strategic Plan: 2019 Update),中國國家新一代人工智能治理專業(yè)委員會發(fā)布了《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》;而國際組織如經(jīng)濟(jì)合作與發(fā)展組織(Organization for Economic Co-operation and Development,OECD)成員國于5月22日批準(zhǔn)了《OECD人工智能原則》(OECD Principles on Artificial Intelligence),6月9日二十國集團(tuán)貿(mào)易和數(shù)字經(jīng)濟(jì)部長會議發(fā)布了《G20人工智能原則》(G20 AI Principles)等。不論是各主要國家政府,還是國際政府間組織,都開始采納政府簽署的人工智能原則,確立人工智能的治理方式。

        這其中,OECD、G20的文件更側(cè)重原則,而以歐盟《可信人工智能倫理準(zhǔn)則》為代表則提供了完整的倫理規(guī)范體系。我們從歐盟的倫理準(zhǔn)則中,可以探尋到一些關(guān)于可信人工智能構(gòu)建的線索。根據(jù)歐盟人工智能倫理準(zhǔn)則,可信人工智能必須至少具備三個特征:合法性、合倫理性、穩(wěn)健性(Robus又譯為魯棒性)。而可信人工智能的倫理框架包括三個層次:可信人工智能的根基、可信人工智能的實現(xiàn)、可信人工智能的評估??尚湃斯ぶ悄艿母撬捻梻惱碓瓌t:尊重人類自主性、防止損害、公平原則、可解釋原則。而可信人工智能的實現(xiàn)至少包括七個方面,分別是:(1)人類的能動性及監(jiān)督;(2)技術(shù)穩(wěn)健性與安全;(3)隱私和數(shù)據(jù)治理;(4)透明性;(5)多樣性、非歧視和公平;(6)社會和環(huán)境福祉;(7)問責(zé)機(jī)制??尚湃斯ぶ悄艿脑u估,主要是根據(jù)上述七個方面給出了《可信人工智能評估清單(試用版)》,幫助企業(yè)及其部門如管理層、法務(wù)、研發(fā)、質(zhì)量控制、HR、采購、運營部門等,在上述七方面的百余項細(xì)化指標(biāo)中共同完成對可信人工智能的構(gòu)建和保障。

        歐盟《可信人工智能倫理準(zhǔn)則》剛剛實施半年,現(xiàn)在評論也許為時尚早。但值得我們注意的是,歐洲在人工智能技術(shù)和產(chǎn)業(yè)發(fā)展上沒做到先發(fā)制人,但在人工智能治理和倫理上確實走在世界前面。同時,可信人工智能的構(gòu)建肯定是一項復(fù)雜的系統(tǒng)工程,并且里面有很多價值觀和方法論的內(nèi)容需要預(yù)先研究。閆宏秀老師提出,我們說的可信人工智能包括人類對人工智能的信任和人類對自身的信任,事實上這兩個方面歸根到底是人類對自身所制造產(chǎn)物是否可以有效應(yīng)對的解答,即關(guān)于可信任人工智能實現(xiàn)途徑的探討。中國的可信人工智能治理的方案,提出不算早但也不算晚。新一代人工智能治理原則,以發(fā)展負(fù)責(zé)任的人工智能為主題,提出和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔(dān)責(zé)任、開放協(xié)作、敏捷治理等八項原則,算是趕上了全球可信人工智能發(fā)展的“準(zhǔn)點班車”。但正如莎士比亞所說,“一切過往,皆為序章”(What's past is prologue),人工智能新時代大幕拉開,一切可能才剛剛開始。發(fā)展可信人工智能,技術(shù)治理與倫理準(zhǔn)則必須兼顧,民族立場與人類情懷必須協(xié)調(diào),經(jīng)由設(shè)計的倫理和基于監(jiān)督的信任必須同步,才有可能在人工智能加持的戰(zhàn)場上贏得優(yōu)勢、贏得主動、贏得未來。

        (作者為工業(yè)和信息化部賽迪研究院政策法規(guī)所所長)

        責(zé)任編輯:馬莉莎

        猜你喜歡
        人機(jī)信任倫理
        《心之死》的趣味與倫理焦慮
        人機(jī)“翻譯員”
        從內(nèi)到外,看懂無人機(jī)
        南都周刊(2021年3期)2021-04-22 16:43:49
        護(hù)生眼中的倫理修養(yǎng)
        活力(2019年19期)2020-01-06 07:37:00
        表示信任
        嚶嚶嚶,人與人的信任在哪里……
        桃之夭夭B(2017年2期)2017-02-24 17:32:43
        從生到死有多遠(yuǎn)
        “人機(jī)大戰(zhàn)”人類智慧遭遇強(qiáng)敵
        海外星云(2016年7期)2016-12-01 04:17:50
        未來深空探測中的人機(jī)聯(lián)合探測
        太空探索(2016年5期)2016-07-12 15:17:58
        信任
        精品一区二区三区在线视频观看| 国精产品一区一区二区三区mba| 国产97色在线 | 国产| 黑色丝袜秘书夹住巨龙摩擦| 日本一区午夜艳熟免费| 91久久国产情侣真实对白| 日本久久黄色高清视频| 丰满少妇被啪啪到高潮迷轩| 医院人妻闷声隔着帘子被中出 | 人人妻人人妻人人片av| 曰韩精品无码一区二区三区| 日韩精品一区二区三区四区五区六 | 欧美成免费a级毛片| 乱码一二三入区口| 无码视频一区=区| av网站不卡的av在线| 国产成人无码av一区二区在线观看| 中国丰满熟妇xxxx性| 国产97色在线 | 免| 肉丝高跟国产精品啪啪| 成人一区二区人妻少妇| 亚洲色成人网站www永久| 老少交欧美另类| 中文字幕亚洲区第一页| 久久精品国产69国产精品亚洲| 国产精品186在线观看在线播放| 日韩成人大屁股内射喷水| 一区二区三区福利在线视频| 久久国产女同一区二区| 男女视频在线观看一区| 777精品久无码人妻蜜桃| 欧美成人中文字幕| 蜜桃在线观看免费高清| 国产自拍精品视频免费| 欧美人与动人物牲交免费观看久久| 国产精品一区二区 尿失禁| 久久综合激激的五月天| 亚洲最大在线视频一区二区| 国产精品99精品无码视亚| 亚洲日韩欧美国产高清αv| 美腿丝袜美腿国产在线|