亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        “科技向善”下的AI倫理構(gòu)建

        2019-10-28 05:39:05司曉
        中歐商業(yè)評(píng)論 2019年10期
        關(guān)鍵詞:倫理人工智能人類

        司曉

        智能時(shí)代需要面向數(shù)據(jù)和算法的技術(shù)倫理

        互聯(lián)網(wǎng)的前三十年,是一個(gè)連接一切的故事,從連接人到連接商業(yè),再到連接萬(wàn)事萬(wàn)物,互聯(lián)網(wǎng)技術(shù)以前所未有的速度和規(guī)模改變著人類和人類社會(huì)。如今,隨著人工智能技術(shù)的快速發(fā)展和廣泛應(yīng)用,智能時(shí)代的大幕正在拉開,在其中,無(wú)處不在的數(shù)據(jù)和算法正在催生一種新型的人工智能驅(qū)動(dòng)的經(jīng)濟(jì)和社會(huì)形式。人們常以“數(shù)據(jù)化”“智能化”“算法決定論”等詞匯描述這一趨勢(shì),但核心都是一樣:人工智能算法正在改變這個(gè)世界。基于大量的數(shù)據(jù),人工智能有潛力做出比人類更優(yōu)、更準(zhǔn)的預(yù)測(cè)和決策。

        任何有望變革人類社會(huì)的新技術(shù)都必然會(huì)帶來(lái)法律、倫理以及社會(huì)等領(lǐng)域的影響。例如,互聯(lián)網(wǎng)、大數(shù)據(jù)、人工智能等數(shù)字技術(shù)及其應(yīng)用帶來(lái)的隱私保護(hù)、虛假信息、算法歧視、網(wǎng)絡(luò)安全、網(wǎng)絡(luò)犯罪、電子產(chǎn)品過(guò)度使用等問(wèn)題已經(jīng)成為全球關(guān)注焦點(diǎn),引發(fā)全球范圍內(nèi)對(duì)數(shù)字技術(shù)及其應(yīng)用的影響的反思和討論,探索如何讓新技術(shù)帶來(lái)個(gè)人和社會(huì)福祉的最大化。未來(lái)可能出現(xiàn)的通用人工智能和超級(jí)人工智能則可能帶來(lái)更深遠(yuǎn)而廣泛的安全、倫理等影響。

        因此,在當(dāng)前的人工智能等新技術(shù)背景下,我們比歷史上任何時(shí)候都更加需要“科技向善”理念,更加需要技術(shù)與倫理的平衡,以便確保新技術(shù)朝著更加有利于人類和人類社會(huì)的方向發(fā)展。歐盟、德國(guó)、英國(guó)、OECD、G20、IEEE、谷歌、微軟等諸多主體從各自的角度提出了相應(yīng)的人工智能倫理原則,共同促進(jìn)AI知識(shí)的共享和可信AI的構(gòu)建。

        2019年5月22日,OECD成員采納了首個(gè)由各成員政府簽署的AI原則,即“負(fù)責(zé)任地管理可信AI的原則(Principles for responsible stewardship of trustworthy AI)”,這些原則之后被G20采納,成為人工智能治理方面的首個(gè)政府間國(guó)際共識(shí),確立了以人為本的發(fā)展理念和敏捷靈活的治理方式。我國(guó)新一代人工智能治理原則也于同年6月17日發(fā)布,提出和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔(dān)責(zé)任、開放協(xié)作、敏捷治理八項(xiàng)原則,以發(fā)展負(fù)責(zé)任的人工智能。

        我們處在一個(gè)正在實(shí)現(xiàn)數(shù)據(jù)化和智能化的時(shí)代,所以當(dāng)前強(qiáng)調(diào)的技術(shù)倫理主要面向數(shù)據(jù)和算法。歐盟的GDPR已經(jīng)針對(duì)人工智能應(yīng)用做出了一些制度安排,歐盟議會(huì)發(fā)布的《算法責(zé)任與透明治理框架》則在考慮建立算法治理框架。

        因此,在新的發(fā)展階段,我們提出新的技術(shù)倫理(technology ethics),探索技術(shù)、個(gè)人、社會(huì)三者之間的平衡。就AI技術(shù)自身而言,AI需要價(jià)值引導(dǎo),應(yīng)做到可用、可靠、可知、可控(即“四可”理念),從而讓人們可以信任AI,讓AI可以給個(gè)人和社會(huì)創(chuàng)造價(jià)值。就AI與個(gè)人之關(guān)系而言,幸福是人生的終極目的,需要構(gòu)建和諧的人機(jī)關(guān)系,保障個(gè)人的數(shù)字福祉和幸福工作權(quán)利,實(shí)現(xiàn)智能社會(huì)人機(jī)共生,讓個(gè)體更自由、智慧、幸福地生活和發(fā)展。就AI與社會(huì)之關(guān)系而言,AI可以成為一股“向善”的力量,發(fā)揮出巨大的“向善”潛力,應(yīng)當(dāng)鼓勵(lì)社會(huì)各界踐行“科技向善”,助力經(jīng)濟(jì)與社會(huì)健康、包容、可持續(xù)發(fā)展。

        信任:AI需要價(jià)值引導(dǎo)

        互聯(lián)網(wǎng)在過(guò)去二十多年中持續(xù)帶來(lái)的問(wèn)題,連同最近的人工智能等新技術(shù)帶來(lái)的倫理和社會(huì)影響,歸根結(jié)底是技術(shù)信任方面的挑戰(zhàn)。現(xiàn)在人們無(wú)法完全信任人工智能,一方面是因?yàn)槿藗內(nèi)狈ψ銐蛐畔ⅲ瑢?duì)這些與我們的生活和生產(chǎn)息息相關(guān)的技術(shù)發(fā)展缺少足夠的了解;另一方面是因?yàn)槿藗內(nèi)狈︻A(yù)見能力,既無(wú)法預(yù)料企業(yè)會(huì)拿自己的數(shù)據(jù)做什么,也無(wú)法預(yù)測(cè)人工智能系統(tǒng)的行為。也有人說(shuō),技術(shù)無(wú)關(guān)價(jià)值,但實(shí)際情況是,雖然AI等技術(shù)自身沒有道德、倫理的品質(zhì),但是開發(fā)、使用技術(shù)的人會(huì)賦予其倫理價(jià)值,因?yàn)榛跀?shù)據(jù)做決策的軟件是人設(shè)計(jì)的,他們?cè)O(shè)計(jì)模型、選擇數(shù)據(jù)并賦予數(shù)據(jù)意義,從而影響我們的行為。所以,這些代碼并非價(jià)值中立,其中包括了太多關(guān)于我們的現(xiàn)在和未來(lái)的決定。而在技術(shù)與社會(huì)生態(tài)系統(tǒng)互動(dòng)的過(guò)程中,技術(shù)發(fā)展常常具有環(huán)境的、社會(huì)的和人類的影響,這些影響遠(yuǎn)遠(yuǎn)超過(guò)了技術(shù)設(shè)備和實(shí)踐自身的直接目的。因此,我們需要構(gòu)建能夠讓社會(huì)公眾信任人工智能等新技術(shù)的規(guī)制體系,讓技術(shù)接受價(jià)值引導(dǎo)。

        作為建立技術(shù)信任的起點(diǎn),人工智能等新技術(shù)的發(fā)展和應(yīng)用需要遵循倫理原則。為此,秉持“負(fù)責(zé)任研究與創(chuàng)新”(responsible research and innovation)、“科技向善”等理念,進(jìn)一步闡釋騰訊公司董事會(huì)主席兼首席執(zhí)行官馬化騰提出的人工智能“四可”理念,用以引導(dǎo)負(fù)責(zé)任地發(fā)展和應(yīng)用人工智能技術(shù),使其可以造福于人類和人類社會(huì)?!八目伞狈g為“ARCC”(讀作“ark”),即“可用(available)”“可靠(reliable)”“可知(comprehensible) ”和“可控(controllable)”四個(gè)方面。正如傳說(shuō)中保存人類文明火種的諾亞方舟,人工智能的健康發(fā)展需要以“倫理方舟”為保障,確保將來(lái)友好、和諧、共生的人機(jī)關(guān)系。

        第一,可用(available)。發(fā)展人工智能的首要目的,是促進(jìn)人類發(fā)展,給人類和人類社會(huì)帶來(lái)福祉,實(shí)現(xiàn)包容、普惠和可持續(xù)發(fā)展。為此,需要讓盡可能多的人可以獲取、使用人工智能,讓人們都能共享技術(shù)紅利,避免出現(xiàn)技術(shù)鴻溝。

        可用性,一方面意味著人工智能的發(fā)展應(yīng)遵循以人為本的理念,尊重人的尊嚴(yán)、權(quán)利和自由以及文化多樣性,讓技術(shù)真正能夠?yàn)槿藗兯?,給人們帶來(lái)價(jià)值。另一方面意味著人工智能與人類之間不是非此即彼的取代關(guān)系,而是可以成為人類的好幫手,增強(qiáng)人的智慧和創(chuàng)造力,實(shí)現(xiàn)和諧的人機(jī)關(guān)系。此外,可用性還意味著包容性,要求技術(shù)賦能于人,尤其是殘障人士等弱勢(shì)群體及少數(shù)族裔。

        確保公平正義,防止偏見和歧視,是可用性的一個(gè)基本要求。這意味著人工智能應(yīng)公平、平等地對(duì)待每一個(gè)人,避免造成不公平歧視,加劇或者固化社會(huì)不公平。一方面,應(yīng)踐行“經(jīng)由設(shè)計(jì)的倫理”(ethics by design)理念,即將隱私、公平、安全、非歧視、福祉等倫理價(jià)值的保障融入到AI產(chǎn)品、服務(wù)的設(shè)計(jì)當(dāng)中,確保算法的合理性和數(shù)據(jù)的準(zhǔn)確、時(shí)新、完整、相關(guān)、無(wú)偏見和代表性,并采取技術(shù)方式識(shí)別、解決和消除偏見。另一方面,應(yīng)制定解決歧視與偏見的指南和原則,并可通過(guò)倫理審查委員會(huì)等方式發(fā)現(xiàn)、解決潛在不公平歧視。

        第二,可靠(reliable)。人工智能應(yīng)當(dāng)是安全可靠的,能夠防范網(wǎng)絡(luò)攻擊等惡意干擾和其他意外后果,實(shí)現(xiàn)安全、穩(wěn)定與可靠。在該原則之下,一方面人工智能系統(tǒng)應(yīng)當(dāng)經(jīng)過(guò)嚴(yán)格的測(cè)試和驗(yàn)證,確保其性能達(dá)到合理預(yù)期;另一方面人工智能應(yīng)確保數(shù)字網(wǎng)絡(luò)安全、人身財(cái)產(chǎn)安全以及社會(huì)安全。

        就數(shù)字網(wǎng)絡(luò)安全而言,可靠性意味著,人工智能應(yīng)遵守隱私法律要求,加強(qiáng)隱私保護(hù)和數(shù)據(jù)安全,保障個(gè)人對(duì)數(shù)據(jù)的控制,防止數(shù)據(jù)濫用。在技術(shù)上,人工智能應(yīng)遵循“經(jīng)由設(shè)計(jì)的隱私”(privacy by design)理念,采取加密、匿名化等技術(shù)措施加強(qiáng)隱私保護(hù),探索隱私友好型的機(jī)器學(xué)習(xí)方法,如聯(lián)邦學(xué)習(xí)(federated learning)。

        第三,可知(comprehensible)。人工智能應(yīng)當(dāng)是透明的,是人可以理解的,避免技術(shù)“黑盒”影響人們對(duì)人工智能的信任。人們對(duì)技術(shù)的信任來(lái)源于對(duì)技術(shù)的理解。然而,現(xiàn)代人工智能系統(tǒng)越來(lái)越成為一個(gè)“黑盒”,甚至有時(shí)連研發(fā)人員都無(wú)法理解它們的造物?!犊茖W(xué)》雜志將破解這一“黑盒”視為人工智能領(lǐng)域的重大難題,為此,研發(fā)人員需要致力于解決人工智能“黑盒”問(wèn)題,實(shí)現(xiàn)可理解、可解釋的人工智能算法模型。

        為了實(shí)現(xiàn)可知性,不同主體如消費(fèi)者、政府等需要的透明度和信息是不一樣的,還需要考慮知識(shí)產(chǎn)權(quán)、技術(shù)特征、人們的技術(shù)素養(yǎng)等事項(xiàng)。一般而言,對(duì)于由人工智能系統(tǒng)做出的決策和行為,在適當(dāng)?shù)臅r(shí)候應(yīng)能提供說(shuō)明或者解釋,包括背后的邏輯和數(shù)據(jù),這要求記錄設(shè)計(jì)選擇和相關(guān)數(shù)據(jù),而不是一味追求技術(shù)透明。技術(shù)透明或者說(shuō)算法透明不是對(duì)算法的每一個(gè)步驟、算法的技術(shù)原理和實(shí)現(xiàn)細(xì)節(jié)進(jìn)行解釋,簡(jiǎn)單公開算法系統(tǒng)的源代碼也不能提供有效的透明度,反倒可能威脅數(shù)據(jù)隱私或影響技術(shù)安全應(yīng)用。更進(jìn)一步,考慮到AI的技術(shù)特征,理解AI系統(tǒng)整體是異常困難的,對(duì)理解AI作出的某個(gè)特定決策也收效甚微。所以,對(duì)于現(xiàn)代AI系統(tǒng),通過(guò)解釋某個(gè)結(jié)果如何得出,而實(shí)現(xiàn)透明將面臨巨大的技術(shù)挑戰(zhàn),也會(huì)極大限制AI的應(yīng)用;相反,在AI系統(tǒng)的行為和決策上實(shí)現(xiàn)有效透明將更可取,也能提供顯著的效益。

        此外,在發(fā)展和應(yīng)用人工智能的過(guò)程中,應(yīng)為社會(huì)公眾參與創(chuàng)造機(jī)會(huì),并支持個(gè)人權(quán)利的行使。一方面,由于人工智能對(duì)個(gè)人和社會(huì)的潛在影響,確保社會(huì)公眾能夠參與到人工智能的研發(fā)和應(yīng)用活動(dòng)中是至關(guān)重要的。為此,社會(huì)各界應(yīng)為公眾參與創(chuàng)造機(jī)會(huì),諸如用戶反饋、用戶選擇、用戶控制等,也包括利用人工智能系統(tǒng)的能力促進(jìn)公平賦能和公眾參與。另一方面,公眾參與也可以通過(guò)行使個(gè)人權(quán)利的方式來(lái)實(shí)現(xiàn)。為此,需要尊重?cái)?shù)據(jù)保護(hù)和隱私權(quán)、表達(dá)和信息自由、非歧視等個(gè)人權(quán)利。同時(shí),對(duì)于人工智能作出的決策,在適當(dāng)?shù)臅r(shí)候提供異議和申訴機(jī)制以挑戰(zhàn)這些決策;對(duì)于人工智能造成的損害,提供救濟(jì)途徑并能追究各參與方的法律責(zé)任。

        最后,還需要保障個(gè)人的信息自決,比如,確保個(gè)人能夠合理知曉其在與人工智能系統(tǒng)直接互動(dòng)、其為人工智能系統(tǒng)提供了個(gè)人信息等,并就人工智能系統(tǒng)的目的、功能、限制、影響等向用戶提供相關(guān)信息,以保障用戶對(duì)人工智能的預(yù)期和一般性控制。

        第四,可控(controllable)。人工智能的發(fā)展應(yīng)置于人類的有效控制之下,避免危害人類個(gè)人或整體的利益。短期來(lái)看,發(fā)展和應(yīng)用人工智能應(yīng)確保其帶來(lái)的社會(huì)福祉顯著超過(guò)其可能給個(gè)人和社會(huì)帶來(lái)的可預(yù)期的風(fēng)險(xiǎn)和負(fù)面影響,確保這些風(fēng)險(xiǎn)和負(fù)面影響是可控的,并在風(fēng)險(xiǎn)發(fā)生之后積極采取措施緩解、消除風(fēng)險(xiǎn)及其影響。只有當(dāng)效益和正面價(jià)值顯著超過(guò)可控的風(fēng)險(xiǎn)和消極影響時(shí),人工智能的發(fā)展才符合可控性的要求。此外,“可控”還意味著,在人與機(jī)器關(guān)系中,對(duì)于機(jī)器所作的決定及其后果,需要考慮由人來(lái)承擔(dān)最終責(zé)任,以確保人機(jī)共生的社會(huì)不失范。

        長(zhǎng)期來(lái)看,雖然人們現(xiàn)在還無(wú)法預(yù)料通用人工智能和超級(jí)人工智能能否實(shí)現(xiàn)以及如何實(shí)現(xiàn),也無(wú)法完全預(yù)料其影響,但應(yīng)遵循預(yù)警原則(precautionary principle),防范未來(lái)的風(fēng)險(xiǎn),使未來(lái)可能出現(xiàn)的通用人工智能和超級(jí)人工智能能夠服務(wù)于全人類的利益。此外,可控性要求人們必須考慮人工智能應(yīng)用的邊界和底線問(wèn)題,對(duì)人工智能技術(shù)的武器、監(jiān)控、人類增強(qiáng)等特殊用途進(jìn)行限制和規(guī)制。

        當(dāng)然,信任的建立,需要一套規(guī)則體系,倫理原則的確立只是起點(diǎn)(圖 1)。最左端是軟法性質(zhì)的規(guī)則,包括社會(huì)習(xí)俗、道德規(guī)范、行業(yè)自律等;往右是強(qiáng)制性規(guī)則,比如規(guī)制組織內(nèi)行為的法律(如公司法),適用于工業(yè)產(chǎn)品的標(biāo)準(zhǔn),針對(duì)醫(yī)療、金融、貿(mào)易等細(xì)分領(lǐng)域的監(jiān)管規(guī)范,等等;再往右是刑法的威懾;最右端是國(guó)際法,比如禁止生化武器的國(guó)際公約。對(duì)于人工智能,人們需要一套類似的規(guī)則體系。在這些原則之下,人們可以探索制定標(biāo)準(zhǔn)、法律、國(guó)際公約等。在技術(shù)倫理的最新發(fā)展階段,未來(lái)將可能出現(xiàn)一系列圍繞數(shù)據(jù)和人工智能算法的法律規(guī)范。需要遵循以下幾個(gè)原則:

        第一,避免采取統(tǒng)一的專門監(jiān)管。企圖為所有的人工智能應(yīng)用制定統(tǒng)一的監(jiān)管框架是不現(xiàn)實(shí)的,各個(gè)行業(yè)的專門監(jiān)管機(jī)構(gòu)最能評(píng)估人工智能對(duì)特定領(lǐng)域的影響并采取適宜的監(jiān)管措施。

        第二,采取包容審慎、敏捷靈活的規(guī)制方式。技術(shù)以及商業(yè)模式快速發(fā)展和迭代,草率的立法不可能期待會(huì)產(chǎn)生正面的效果,而且成文或?qū)iT的立法恐難跟上技術(shù)步伐,故應(yīng)避免嚴(yán)格、細(xì)致的法律要求,而是可以采取事后監(jiān)管或者通過(guò)出臺(tái)標(biāo)準(zhǔn)、行業(yè)公約、倫理框架、最佳實(shí)踐、技術(shù)指南等調(diào)整人工智能等新技術(shù)的發(fā)展應(yīng)用,支持行業(yè)自律。

        第三,遵循分階段的監(jiān)管思路。例如,在落實(shí)具體監(jiān)管措施時(shí),應(yīng)首先考慮人工智能給公共安全和消費(fèi)者帶來(lái)的風(fēng)險(xiǎn)是否可以通過(guò)既有的監(jiān)管框架來(lái)調(diào)整;其次應(yīng)當(dāng)考慮這些既有的監(jiān)管框架是否可以充分且有效地規(guī)制這些風(fēng)險(xiǎn);如果一項(xiàng)風(fēng)險(xiǎn)游離于既有監(jiān)管框架之外,最后才應(yīng)當(dāng)考慮是否需要對(duì)監(jiān)管框架作出修訂或增加,以便更好地應(yīng)對(duì)人工智能帶來(lái)的獨(dú)特問(wèn)題。

        猜你喜歡
        倫理人工智能人類
        《心之死》的趣味與倫理焦慮
        人類能否一覺到未來(lái)?
        人類第一殺手
        護(hù)生眼中的倫理修養(yǎng)
        活力(2019年19期)2020-01-06 07:37:00
        1100億個(gè)人類的清明
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        人工智能與就業(yè)
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        下一幕,人工智能!
        人類正在消滅自然
        奧秘(2015年2期)2015-09-10 07:22:44
        久久无码潮喷a片无码高潮| 亚洲av日韩精品一区二区| 啪啪视频一区二区三区入囗| 日本a在线免费观看| 精品久久久久久99人妻| 亚洲天堂免费一二三四区| 亚洲国产综合精品一区最新| 国产亚洲精品精品综合伦理| 国产精品第一二三区久久| 在线观看av片永久免费| 国精产品一区一区三区有限公司杨| 人妻丰满熟妇av无码片| 国产精品爽爽va在线观看无码| 手机在线精品视频| 国产九九在线观看播放| 日韩av在线不卡观看| 偷拍一区二区三区四区视频| 18禁止看的免费污网站| 丰满少妇被粗大的猛烈进出视频 | 精品露脸国产偷人在视频| 久久精品人人做人人爽电影蜜月| 国产欧美日韩在线观看| 久久无码人妻一区=区三区| 无码国产一区二区色欲| 日韩国产一区二区三区在线观看 | 亚洲 日韩 激情 无码 中出 | 久久91精品国产91久| 日本小视频一区二区三区| 在线国产激情视频观看| 九色九九九老阿姨| 四虎影视永久在线精品| 久久精品国产亚洲Av无码偷窍| 国产精品国产三级国a| 淫片一区二区三区av| 无码中文亚洲av影音先锋 | 影视先锋av资源噜噜| 国产精品久久久久免费看| 天天色天天操天天日天天射| 中文人妻熟女乱又乱精品| 欧美bbw极品另类| 久久精品波多野结衣中文字幕|