亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        人工智能的倫理、法律與監(jiān)管

        2018-11-07 08:08:16王春暉
        互聯(lián)網(wǎng)天地 2018年8期
        關(guān)鍵詞:倫理人工智能人類

        □ 文 王春暉

        人工智能(Artificial Intelligence,AI)一詞自1956年由達(dá)特茅斯學(xué)院(dartmouth college)提出后,隨著科技,尤其是全球智能技術(shù)的進(jìn)步,AI越來越多地出現(xiàn)在人們的視野中。AI是一個融合計(jì)算機(jī)科學(xué)、統(tǒng)計(jì)學(xué)、腦神經(jīng)學(xué)和社會科學(xué)的前沿綜合學(xué)科,可以代替人類實(shí)現(xiàn)某種識別、認(rèn)知、分析和決策等功能。

        人工智能技術(shù)的發(fā)展被稱為第四次工業(yè)革命,已經(jīng)成為當(dāng)今世界各國一爭高下的科技戰(zhàn)場。人工智能技術(shù)在全球迅猛發(fā)展,從基礎(chǔ)科學(xué)、學(xué)術(shù)研究、特種應(yīng)用開始進(jìn)入社會各行各業(yè)以及千家萬戶的日常生活。

        一、AI的主要技術(shù)構(gòu)架及研究成果

        當(dāng)前,AI的主要技術(shù)構(gòu)架有五層,第一層,也就是最底層是基礎(chǔ)設(shè)施構(gòu)架,主要包含數(shù)據(jù)和計(jì)算能力兩部分,數(shù)據(jù)越大,人工智能的能力越強(qiáng);第二層主要是算法,如卷積神經(jīng)網(wǎng)絡(luò)、LSTM(Long Short-Term Memory 長短期記憶網(wǎng)絡(luò))序列學(xué)習(xí)、Q-Learning、深度學(xué)習(xí)等算法,都是機(jī)器學(xué)習(xí)的算法;再次,第三層為重要的技術(shù)方向和系統(tǒng),如計(jì)算機(jī)視覺,語音工程,自然語言處理系統(tǒng)等。還有另外的一些類似決策系統(tǒng),像reinforcement learning(增強(qiáng)學(xué)習(xí)),或像一些大數(shù)據(jù)分析的統(tǒng)計(jì)系統(tǒng),這些都能在機(jī)器學(xué)習(xí)算法上產(chǎn)生;第四層為具體的技術(shù),如圖像識別、語音識別、機(jī)器翻譯等等;第五層,也就是最頂端的行業(yè)解決方案,即應(yīng)用層,如人工智能在金融、教育、醫(yī)療、交通等領(lǐng)域的具體應(yīng)用,這是我們所關(guān)心和感覺到的AI能帶來價值的部分。

        人工智能的第三次浪潮(2006年-現(xiàn)在)代表性研究成果就是機(jī)器的深度學(xué)習(xí)技術(shù),機(jī)器學(xué)習(xí)與深度學(xué)習(xí)之間具有本質(zhì)上的區(qū)別,機(jī)器學(xué)習(xí)是指計(jì)算機(jī)的算法能夠像人一樣,從數(shù)據(jù)中找到信息,從而學(xué)習(xí)一些規(guī)律。雖然深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一種,但深度學(xué)習(xí)是利用深度的神經(jīng)網(wǎng)絡(luò),將模型處理得更為復(fù)雜,從而使模型對數(shù)據(jù)的理解更加深入。深度學(xué)習(xí)技術(shù)由于能夠自動從數(shù)據(jù)中學(xué)習(xí)復(fù)雜的特征,因此被認(rèn)為是現(xiàn)代人工智能最重要、應(yīng)用最廣泛的技術(shù)。

        然而,在AI飛速發(fā)展的背后,特別是谷歌AIphaGo和AIphaGo Zero的出現(xiàn),人類意識到AI的發(fā)展給社會帶來了深遠(yuǎn)的憂慮。谷歌DeepMind(AI團(tuán)隊(duì)) 在《自然》雜志上發(fā)表了一篇關(guān)于描述AlphaGo Zero成長經(jīng)歷的論文,這篇論文描述了新一款圍棋程序AlphaGo Zero 從其誕生開始的臭棋手到業(yè)余棋手,再成長為一個能夠考量每一步圍棋戰(zhàn)略意義的國際性超圍棋大師的過程。這樣一個過程卻是一個飛躍式成長的過程,這個過程僅僅花費(fèi)了幾天的時間,這是一項(xiàng)極其驚人的創(chuàng)舉,我們研究AI的初衷究竟是什么?

        二、AI的內(nèi)涵與發(fā)展遠(yuǎn)景

        到目前為止,AI并沒有確切的定義,從世界權(quán)威的韋伯詞典看一下什么是“智能”(Intelligence),韋伯詞典對“Intelligence”的定義是“Ability of learning or understanding things,or dealing with new or difficult situations”,從這個定義中,可以總結(jié)三個關(guān)鍵詞:一是Learning(學(xué)習(xí)—目的是獲得知識或規(guī)則),二是Understanding(理解—基于知識做出評判或決策),三是Dealing(行為—基于理解做出相應(yīng)行動)。可見,智能是智力和能力的總稱,而“學(xué)習(xí)”、“理解”和“行動”是“智能”最基本的三大要素,而現(xiàn)代AI代表性的成果就是深度學(xué)習(xí)(Deep learning),深度學(xué)習(xí)技術(shù)由于能夠自動從數(shù)據(jù)中學(xué)習(xí)復(fù)雜的特征,因此被認(rèn)為是現(xiàn)代人工智能最重要、應(yīng)用最廣泛的技術(shù)。

        有人推測人工智能的發(fā)展遠(yuǎn)景將經(jīng)歷三個階段:一是弱人工智能階段(ANI);二是強(qiáng)人工智能階段(AGI);三是超人工智能階段(ASI)。而目前,所有的AI技術(shù),不管多先進(jìn),都屬于弱人工智能階段,也就是講僅僅在某一個方面做了跟人差不多的單一事項(xiàng)。

        在“弱人工智能”(Artificial Narrow Intelligence)階段,ANI只專注于完成某個特定的任務(wù),例如語音識別、圖像識別和翻譯,是擅長于單個方面的人工智能,類似高級仿生學(xué)。它們只是用于解決特定具體類的任務(wù)問題而存在,大都是統(tǒng)計(jì)數(shù)據(jù),以此從中歸納出模型。谷歌的AlphaGo和AlphaGo Zero就是典型“弱人工智能”,它們充其量也就是一個優(yōu)秀的數(shù)據(jù)處理者,盡管它們能戰(zhàn)勝象棋領(lǐng)域的世界級冠軍,但是AlphaGo和AlphaGo Zero也僅僅會下象棋,是一項(xiàng)擅長于單個游戲領(lǐng)域的人工智能,如果讓它們更好地在硬盤上儲存和處理數(shù)據(jù),就不是它們的強(qiáng)項(xiàng)了。

        在“強(qiáng)人工智能”(Artificial General Intelligence)階段,AGI就屬于人類級別的人工智能了,在各方面都能與人類媲美,擁有AGI的機(jī)器不僅是一種工具,而且本身可擁有“思維“。有知覺和自我意識的AGI能夠進(jìn)行思考、計(jì)劃、解決問題、抽象思維、理解復(fù)雜理念、快速學(xué)習(xí)等,人類旺盛的腦力活動它基本都能勝任。

        目前,國際上的AGI技術(shù)研究進(jìn)展如何呢?國際人工智能聯(lián)合會前主席、牛津大學(xué)計(jì)算機(jī)系主任 Michael Wooldrige教授一語道破,他在2016年 CCF-GAIR 大會上指出:強(qiáng)人工智能的研究“幾乎沒有進(jìn)展,甚至幾乎沒有進(jìn)步和嚴(yán)肅的活動”(little progress, little serious activity)。事實(shí)上,人工智能國際主流學(xué)界所持的目標(biāo)也就是弱人工智能(ANI),據(jù)了解目前很少有人致力于強(qiáng)人工智能的研究,也沒有相應(yīng)的成果。

        關(guān)于ASI是指“超人工智能”(Artificial Superintelligence)階段,另一位來自牛津大學(xué)的哲學(xué)家,也是一位知名人工智能思想家Nick Bostrom認(rèn)為,ASI “在幾乎所有領(lǐng)域都比最聰明的人類大腦都聰明很多,包括科學(xué)創(chuàng)新、通識和社交技能”。他描述的這類場景,也許現(xiàn)在和將來都不可能出現(xiàn)。盡管AI技術(shù)不像其他技術(shù)一樣,它并不限于單一維度,而是多種認(rèn)知類型和模式組成的復(fù)合體,每一種類型或模式都是一個連續(xù)統(tǒng)一體。但是人類與AI最大的區(qū)別就是人類具有高級思維能力,正是人類的高級思維構(gòu)成了豐富多彩的社會。

        人類的思維,是人腦借助于語言對客觀事物的概括和間接的反應(yīng)過程,而思維本身以感知為基礎(chǔ),但又超越感知的界限。人類的思維是多元的,除了邏輯思維之外,還有形象思維、直覺思維、頓悟等等。如果像Nick Bostrom教授所描述的那樣:ASI幾乎在所有領(lǐng)域都比最聰明的人類大腦都聰明很多,那么要想達(dá)到這個境界,ASI必須要超越人類的多元思維模式,如果真能超越的話,唯一的方法就是在人類的血肉肌體上構(gòu)造復(fù)雜的算法,然而目前看,這幾乎是天方夜譚。

        三、AI面臨的倫理與法律問題

        已故著名物理學(xué)家、劍橋大學(xué)教授史蒂芬·霍金(Steven Hawking)在世時曾警告:在我的一生中,我見證了許多社會深刻的變化,其中最深刻的,同時也是對人類影響與日俱增的變化,就是人工智能的崛起。簡單來說,強(qiáng)大的人工智能的崛起,要么是人類歷史上最好的事,要么是最糟的。霍金認(rèn)為人工智能的發(fā)展,本身是一種存在著問題的趨勢,而這些問題必須在現(xiàn)在和將來得到解決。

        AI在其發(fā)展進(jìn)程中面臨的最大問題不是技術(shù)本身,而是AI的倫理和法律問題。2017年6月,在日內(nèi)瓦舉辦了由聯(lián)合國國際電信聯(lián)盟主辦的一個主題為“人工智能造福人類”的全球峰會。這次峰會聚焦了AI的兩大國際性問題,一是加速人工智能的研發(fā)和應(yīng)用,以應(yīng)對貧困、饑餓、健康、教育和環(huán)境保護(hù)等全球性挑戰(zhàn);二是探討如何確保人工智能的安全性并符合倫理規(guī)范,防止其帶來意想不到的后果。

        2016年,標(biāo)準(zhǔn)制定組織IEEE發(fā)布了首份AI報告(2016),其名稱為:“利用人工智能和自主系統(tǒng)(AI/AS)最大化人類福祉的愿景”。該報告提出了一個發(fā)展IA的一般性原則,主要涉及的是高層次倫理問題。報告認(rèn)為,AI發(fā)展的一般性原則將適用于所有類型的人工智能和自主系統(tǒng)。在確定一般原則時,主要考慮三大因素:一是體現(xiàn)人權(quán);二是優(yōu)先考慮最大化對人類和自然環(huán)境的好處;三是削弱人工智能的風(fēng)險和負(fù)面影響。

        原則之一:人類利益(Human Benefit),人類利益原則要求考慮,如何確保AI/AS不侵犯人權(quán)。為了實(shí)現(xiàn)AI/AS尊重人權(quán)、自由、人類尊嚴(yán)及文化多樣性,在使用年限內(nèi)是安全、可靠的,一旦造成損害必須能夠找出根本原因(可追溯性)等目的,應(yīng)當(dāng)構(gòu)建治理框架,包括標(biāo)準(zhǔn)化機(jī)構(gòu)和監(jiān)管機(jī)構(gòu),增進(jìn)公眾對AI/AS的信任。

        原則之二:責(zé)任(Responsibility),責(zé)任原則涉及如何確保AI/AS是可以被問責(zé)的。為了解決過錯問題,避免公眾困惑,AI系統(tǒng)必須在程序?qū)用婢哂锌韶?zé)性,證明其為什么以特定方式運(yùn)作。

        首先,立法機(jī)構(gòu)/法院應(yīng)當(dāng)闡明AI系統(tǒng)開發(fā)和部署過程中的職責(zé)、過錯、責(zé)任、可追責(zé)性等問題,以便于制造商和使用者可以知曉其權(quán)利和義務(wù)分別是什么;其次,AI設(shè)計(jì)者和開發(fā)者在必要時考慮使用群體的文化規(guī)范的多樣性;再次,當(dāng)AI及其影響游離于既有規(guī)范之外時,利益相關(guān)方應(yīng)當(dāng)一起制定新的規(guī)范;第四,自主系統(tǒng)的生產(chǎn)商/使用者應(yīng)當(dāng)創(chuàng)建記錄系統(tǒng),記錄核心參數(shù)。

        原則之三:透明性(Transparency),透明性原則意味著,自主系統(tǒng)的運(yùn)作必須是透明的。AI/AS是透明的意味著,人們能夠發(fā)現(xiàn)其如何以及為何做出特定決定。AI的不透明性,加上AI開發(fā)的去中心化模式,加重了責(zé)任確定和責(zé)任分配的難度。透明性對每個利益相關(guān)方都意味重大。

        第一,對使用者,透明性可以增進(jìn)信任,讓其知道AI系統(tǒng)可以做什么及其這樣做的原因;第二,對AI/AS批準(zhǔn)和認(rèn)證機(jī)構(gòu),透明性則確保AI系統(tǒng)可以接受審查;第三,如果發(fā)生事故,透明性有助于事故調(diào)查人員查明事故原因;第四,事故發(fā)生之后,參與審判的法官、陪審團(tuán)、律師、專家證人需要借助透明性來提交證據(jù),做出決定;第五,對于自動駕駛汽車等顛覆性技術(shù),一定程度的透明性有助于增強(qiáng)公眾對技術(shù)的信心。

        原則之四:教育和意識(Education and Awareness),教育和意識原則涉及,如何擴(kuò)大AI/AS技術(shù)的好處,最小化其被濫用的風(fēng)險。在AI/A S越來越普及的時代,需要推進(jìn)倫理教育和安全意識教育,讓人們警惕AI/A S被濫用的潛在風(fēng)險。這些風(fēng)險可能包括黑客攻擊、賭博、操縱、剝削等。

        2018年7月,中國發(fā)展研究基金會在其發(fā)布的一份《未來基石—人工智能的社會角色與倫理》的報告中也指出,盡管有少數(shù)哲學(xué)和社科領(lǐng)域的學(xué)者開始關(guān)注人工智能帶來的倫理問題和社會挑戰(zhàn),但是這些討論并未進(jìn)入公共政策視界,而且討論的重點(diǎn)也多集中在超級人工智能這樣仍相對遙遠(yuǎn)的議題上。該報告認(rèn)為,在人工智能問題上,圍繞可能出現(xiàn)的挑戰(zhàn),無知、忽視、偏狹、誤解交織在一起,可能會導(dǎo)致真正的風(fēng)險。該報告建議:在社會層面,高校和研究機(jī)構(gòu)開展前瞻性的科技倫理研究,為相關(guān)規(guī)范和制度的建立提供理論支撐;各國政府、產(chǎn)業(yè)界、研究人員、民間組織和其他利益攸關(guān)方展開廣泛對話和持續(xù)合作,通過一套切實(shí)可行的指導(dǎo)原則,鼓勵發(fā)展以人為本的人工智能;人工智能企業(yè)應(yīng)該將倫理考量納入企業(yè)社會責(zé)任框架中。

        事實(shí)上,人工智能和自主系統(tǒng)(AI/AS)帶來了許多復(fù)雜的倫理問題,這些倫理問題往往直接轉(zhuǎn)化為具體的法律挑戰(zhàn),或是引發(fā)復(fù)雜的連帶法律問題。每個倫理問題一般都涉及相關(guān)法律問題。當(dāng)前的人工智能本質(zhì)上是一種建立在大數(shù)據(jù)基礎(chǔ)上的自我學(xué)習(xí)、判斷和決策的算法,算法的核心是基于網(wǎng)絡(luò)的編程技術(shù),這種編程技術(shù)絕非中立。人工智能的算法決策具有典型的“黑箱”特點(diǎn),這應(yīng)當(dāng)引起現(xiàn)代法律人的高度警惕和深入地研究,應(yīng)當(dāng)從倫理學(xué)和法律融合的角度深入審視和研究AI的算法。AI的算法必須確立法律的可追溯性原則,AI的行為決策全程應(yīng)當(dāng)處于法律監(jiān)管之下。

        四、構(gòu)建公開透明的AI全過程監(jiān)管

        我國應(yīng)當(dāng)建立健全公開透明的人工智能監(jiān)管體系,重點(diǎn)應(yīng)當(dāng)在AI的設(shè)計(jì)問責(zé)和應(yīng)用監(jiān)督并重的雙層監(jiān)管結(jié)構(gòu)上做充分的準(zhǔn)備,實(shí)現(xiàn)對人工智能算法設(shè)計(jì)、產(chǎn)品開發(fā)和成果應(yīng)用等的全過程監(jiān)管。促進(jìn)人工智能行業(yè)和企業(yè)自律,切實(shí)加強(qiáng)AI協(xié)同一體化的管理體系,加大對AI領(lǐng)域數(shù)據(jù)濫用、算法陷阱、侵犯個人隱私、違背道德倫理等行為的懲戒力度。

        在人工智能技術(shù)研發(fā)的同時,要加強(qiáng)人工智能相關(guān)法律、倫理和社會問題的同步研究,尤其要關(guān)注AI模仿人類傳播錯誤信息或?qū)⑸虡I(yè)無人機(jī)轉(zhuǎn)化為目標(biāo)武器攻擊人類,建立和優(yōu)化保障人工智能健康發(fā)展的法律法規(guī)和倫理道德框架。法律研究領(lǐng)域要開展與人工智能應(yīng)用相關(guān)的民事與刑事責(zé)任確認(rèn)、隱私和產(chǎn)權(quán)保護(hù)、機(jī)器倫理與破壞力評價等倫理與法律問題的交叉研究,建立AI的可追溯和問責(zé)制度,明確AI的設(shè)計(jì)者、控制者、使用者等相關(guān)法律主體的權(quán)利、義務(wù)和責(zé)任。

        關(guān)于AI監(jiān)管的原則,以科幻作家艾薩夫·阿西莫夫于1942年在《我,機(jī)械人》小說中提出的“機(jī)器人學(xué)三律”仍具有參照價值,非常值得借鑒:

        第一定律:機(jī)器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管;

        第二定律:機(jī)器人必須服從人類給予它的命令,當(dāng)該命令與第一定律沖突時例外;

        第三定律:機(jī)器人在不違反第一、第二定律的情況下要盡可能保護(hù)自己的生存。

        由此,國家有關(guān)部門或行業(yè)組織應(yīng)當(dāng)制定人工智能產(chǎn)品研發(fā)設(shè)計(jì)人員的道德規(guī)范和行為守則,加強(qiáng)對人工智能潛在危害與收益的評估,構(gòu)建人工智能復(fù)雜場景下突發(fā)事件的解決方案。同時,我國應(yīng)當(dāng)積極參與人工智能的全球治理,加強(qiáng)機(jī)器人異化和安全監(jiān)管等人工智能重大國際共性問題研究,深化在人工智能法律法規(guī)、國際規(guī)則等方面的國際合作,構(gòu)建我國AI領(lǐng)域的國際制度性話語權(quán)?!?/p>

        猜你喜歡
        倫理人工智能人類
        《心之死》的趣味與倫理焦慮
        人類能否一覺到未來?
        人類第一殺手
        好孩子畫報(2020年5期)2020-06-27 14:08:05
        護(hù)生眼中的倫理修養(yǎng)
        活力(2019年19期)2020-01-06 07:37:00
        1100億個人類的清明
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        人工智能與就業(yè)
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        下一幕,人工智能!
        人類正在消滅自然
        奧秘(2015年2期)2015-09-10 07:22:44
        亚洲国产最新免费av| 国产色综合天天综合网| 亚洲丁香五月激情综合| 国内精品大秀视频日韩精品| 亚洲国产香蕉视频欧美| 亚洲国产日韩精品综合| 男女后入式在线观看视频| 黄色精品一区二区三区| 米奇欧美777四色影视在线| 日本做受120秒免费视频| 18禁裸男晨勃露j毛免费观看| 五月天激情小说| 蜜桃av多人一区二区三区| 国产精品高清免费在线| 亚洲av综合av一区| 成人做受视频试看60秒| 国产亚洲av片在线观看18女人| 乱子伦av无码中文字幕| 亚洲色无码中文字幕| 人妻1024手机看片你懂的| 亚洲一区二区免费在线观看视频| 亚洲成在人线视av| 中文字幕无码日韩专区免费 | 99精品视频69v精品视频| 亚洲av午夜国产精品无码中文字| 亚洲欧美日韩国产综合一区二区| 久久久久亚洲精品天堂| 放荡人妻一区二区三区| 亚洲女同高清精品一区二区99| 在线观看国产视频你懂得| 一本色道久久88加勒比—综合| 日本aⅴ大伊香蕉精品视频| 69av视频在线观看| 亚洲国产不卡免费视频| 国产精品成人一区二区不卡| 波多野结衣久久精品99e| 波多野结衣中文字幕久久| 五月婷婷激情六月| 中文字幕文字幕视频在线| 97丨九色丨国产人妻熟女| 免费观看的a级毛片的网站|