亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        淺析人工智能背后的問題

        2018-09-25 07:13:00袁倩郝丹丹
        法制與社會 2018年22期
        關(guān)鍵詞:侵權(quán)隱私權(quán)人工智能

        袁倩 郝丹丹

        摘要從阿爾法Go到谷歌的無人駕駛汽車,再到阿里云的ET城市大腦,人工智能逐漸為人們所熟知,越來越普及的大數(shù)據(jù),使得人工智能的作用和價值也越來越大。人工智能應用不斷加深不斷成熟,其背后的問題也逐漸凸顯,道德困境無法解決,數(shù)據(jù)的交換引發(fā)隱私憂慮,無人駕駛汽車造成的侵權(quán)問題如何解決,時人工智能安全問題的擔憂,本文將從法律和道德倫理兩方面來探究,并試圖提出相應的對策來解決相關(guān)的問題。

        關(guān)鍵詞人工智能 隱私權(quán) 侵權(quán) 法律主體 道德困境

        一、人工智能的概述

        (一)人工智能的概念

        人工智能(ArtificialItelligence),簡稱AI。是1956年由麥卡錫與一批計算機科學家、數(shù)學家、心理學家、神經(jīng)生理學家、信息學家在美國首次提出。廣義上來說,人工智能指的是通過某種方式讓機器擁有人的邏輯判斷能力或“思維能力”,以根據(jù)特定輸入條件做出相應的判斷或決策。其實廣義的人工智能早已走出了科幻小說,在生產(chǎn)生活中被廣泛地應用了。人工智能自誕生以來,理論和技術(shù)日益成熟,應用領(lǐng)域也不斷擴大,給我們的生活帶來了極大的便利,也取得了許多嘆為觀止的成果,同時也成為21世紀最熱門、最具有挑戰(zhàn)性的學科之一。

        (二)人工智能的社會應用

        近年來隨著智能企業(yè)的不斷增多和人類對人工智能技術(shù)研究的不斷深入,利用該類技術(shù)研發(fā)的產(chǎn)品也不斷上市,給社會多個領(lǐng)域帶來了極大便利,使我們的生活更加耳目一新。身邊的掃地機器人,谷歌翻譯,iphonoX的人臉識別以及Sift:無人駕駛技術(shù)逐漸精進,如今,阿里云的ET城市大腦投入使用,將道路監(jiān)控、紅綠燈等設(shè)施每天產(chǎn)生的海量數(shù)據(jù)統(tǒng)籌協(xié)同,計算出實時的交通優(yōu)化方案,智能調(diào)節(jié)紅綠燈,提升道路車輛通行速度,在一些特殊的、對交通時效要求極高的場景,城市大腦的“協(xié)作”價值更為凸顯,通過自動調(diào)配紅綠燈為患者開出一條“綠色生命線”,讓120到達現(xiàn)場的時間縮短一半。對于危重病患來說,這一半的時間并不能簡單地以經(jīng)濟價值來衡量。

        二、人工智能帶來的問題

        (一)人工智能帶來的道德倫理問題

        1.道德困境

        人工智能作為一項新科技,它的發(fā)展進步會給傳統(tǒng)道德帶來一定沖擊。如今的人工智能說到底是算法的控制,算法是由人來編寫的,那人類面臨的道德困境人工智能一樣要面對。以無人駕駛汽車為例,假設(shè)在其行駛過程中,面對分岔路口,只能決定走其中一條道路,其中一條道路上有五個環(huán)衛(wèi)工人在工作,另外一條道路有一個小孩子在玩耍,車輛左轉(zhuǎn)會將五位環(huán)衛(wèi)工人撞死,車輛右轉(zhuǎn)小孩子因此喪命,這種情況下,無人駕駛汽車應該選擇走哪條路?如果一條道路是小狗,另一條道路是五個環(huán)衛(wèi)工人,此時無人駕駛汽車該選擇走哪條路?如果一條道路上有無百只小狗,另一條道路上有一個環(huán)衛(wèi)工人在打掃呢?在設(shè)計算法之初,能將一百只小狗的價值等同于一個環(huán)衛(wèi)工人的價值嗎?這就是一個現(xiàn)代版的“電車難題”。雖然傳統(tǒng)的一人駕駛模式不存在上述的兩難困境,但是隨著人工智能的發(fā)展,無人駕駛技術(shù)登場,這種兩難困境我們必須要去面對并盡可能的想辦法去解決這種困境。

        2.倫理問題

        一項新技術(shù)的產(chǎn)生,或多或少都會對傳統(tǒng)倫理造成一定的沖擊,人工智能也一樣。人類會不會和機器產(chǎn)生感情一直是個令人擔憂的問題。很多影視作品已經(jīng)對人機情感問題產(chǎn)生了擔憂??苹脨矍椤端分v述了作家西奧多在結(jié)束了一段令他心碎的愛情長跑之后,愛上了電腦操作系統(tǒng)里的女生,原因在于,這個叫“薩曼莎”的姑娘不僅有著略沙啞的性感嗓音,并且風趣幽默、善解人意,讓孤獨的男主角泥足深陷。一次系統(tǒng)升級,西奧多發(fā)現(xiàn),自己喜歡的薩曼莎總共有8316位人類交互對象,而與其中的614位發(fā)生了愛情,西奧多只是其中的一位,男主角因此很是悲傷。

        人機之所以會產(chǎn)生情感,很大程度上是因為機器在某些方面填補了人類情感的空白,同時因為人工智能作為一項技術(shù)是附著于各種產(chǎn)品上的,可以隨時隨地的為我們所用,并且及時對我們的言語表情做出回應,這是人類所無法企及的,這也就會加大人類對此類功能的依賴性,并由此產(chǎn)生更深層次的情感依賴。一旦人工智能發(fā)展完全,難保它不會脫離人類的控制,帶來種種風險。就社會包容程度來說,這種人機情感也無法被倫理所容納,恐懼來源于未知,人工智能的起點何時到來我們無從知道,這樣的場景何時會出現(xiàn)我們也不清楚,這種擔憂值得我們?nèi)ニ伎肌?/p>

        (二)人工智能帶來的法律問題

        1.主體身份無法界定

        隨著人工智能的發(fā)展演變,它在人類社會上到底屬于什么,在法律上應如何給他準確定位值得我們思考。人工智能說到底是人類算法在控制,那對這種決策控制下的主體到底該如何定位。我們可以把它當做自然人來看待嗎?機器人可以被虐待嗎?另外,回到上一個問題,無人駕駛汽車造成損失,這種責任到底誰來擔,是人工智能背后的決策設(shè)計者,還是人工智能本身?我們需不需要對人工智能賦予“電子法律人”資格,以自己的行為能力享有一定的權(quán)利,負有一定的義務,并在一定情況下獨立的承擔責任這個問題未來值得更多探討。

        2.隱私權(quán)保護帶來隱患

        很多人工智能系統(tǒng),都是算法學習,決策學習,而算法決策又是在人類控制下產(chǎn)生的。而這些算法在涉及深度學習時又不免會對人類的隱私權(quán)造成侵害,數(shù)據(jù)問的交換難免會帶來信息泄露,在當今時代背景下給我們隱私憂慮。對大數(shù)據(jù)的獲取、挖掘分析能力不斷提升,數(shù)據(jù)獲取的廣泛性和實效性、挖掘的自動化和智能化程度均令人膛目結(jié)舌,機器也許比我們更了解我們自己。

        第一,當前情況下,我們安裝一些軟件時大部分正規(guī)的軟件會發(fā)出提示,詢問用戶是否要開啟定位服務、是否要加入用戶體驗計劃以獲取更好的服務等問題,當我們同意授權(quán)時,無疑是將我們的個人信息源源不斷的給予了軟件。如果我們不同意授權(quán),那么我們也就不能享受軟件帶來的生活便利,這就產(chǎn)生了矛盾,軟件并沒有強迫我們使用它,但是我們大部分人還是為了享受更好的服務而向其提供了個人的隱私。其實現(xiàn)在看來,隱私保護與科技發(fā)展似乎已經(jīng)形成了一定的矛盾,在互聯(lián)網(wǎng)、物聯(lián)網(wǎng)、大數(shù)據(jù)、云計算、人工智能等技術(shù)高速發(fā)展的今天,也許這種矛盾是不可避免的。第二,基于人工智能的發(fā)展趨勢,它完全有能力根據(jù)其所收集的信息不斷向外延伸,促使其不斷提高自身的智能水平并進一步提高對用戶的了解程度,它能夠根據(jù)用戶授權(quán)獲取的部分信息而繼續(xù)繁殖信息,那么這種未經(jīng)個人授權(quán),通過智能分析獲取的如體重、身高、婚戀、家庭、愛好、健康狀況、收入情況、心理特征等信息是否可以認定為非法獲取。第三,考慮到各種服務之間大量交易數(shù)據(jù),數(shù)據(jù)流動不斷頻繁,人工智能系統(tǒng)將挖掘出的信息與商品或服務進行關(guān)聯(lián),向客戶推薦,實質(zhì)上這些信息已經(jīng)提供給了商家使用。由此可見,人工智能環(huán)境下,我們的個人信息可能在知情的情況下被獲取,也可能在不知情的情況下就被獲取、提供以及出售。隱私權(quán)保護令人擔憂。

        3.責任與安全問題

        眾所周知,人類能形成生產(chǎn)協(xié)同網(wǎng)絡的最核心基礎(chǔ)是分工契約體系。這個體系規(guī)定著我們每個人在合作結(jié)構(gòu)中的責任、權(quán)利與義務。其中被最常認作“公理”的一條是:當一個社會人承擔某責任、做出某決策,他也就同時必須承擔,至少是分擔其決策所帶來的收益與風險。而當人工智能替代人類進入生產(chǎn)環(huán)節(jié)做出決策時,一個極大的不對稱就出現(xiàn)了:給人工智能賦予做出某項決策的責任是所有買家都會做的事(也是人工智能被創(chuàng)造出來的天職),但面對的是正面收益還是負面風險,人工智能都無法像人類那樣對自己的決策負責。

        三、人工智能背后問題的應對策略

        (一)構(gòu)建人工智能內(nèi)部合理的約束機制

        1.進行合乎道德倫理的算法設(shè)計

        第一步在源頭給人工智能輸入正確的價值規(guī)范體系,對價值優(yōu)先級做個排序,在面對兩難困境的時候,根據(jù)價值優(yōu)先級不同從而做出選擇,在損害必需發(fā)生的前提下,讓損害程度降到最低。另外,面對道德困境首先我們需要用一個開放的心態(tài)去看待,千百年都沒能解決的問題也不能強求人工智能的出現(xiàn)來解決。我們要盡可能的去確立合乎倫理道德的原則,然后讓技術(shù)緊隨其后。

        第二步是將所發(fā)現(xiàn)的規(guī)范和價值加入人工智能系統(tǒng),借鑒美國學者瓦拉赫和艾倫的思想,采用三種模式來實現(xiàn),“自上而下的進路”、“自下而上的進路”以及“混合進路”。自上而下的進路是指選擇一套可以轉(zhuǎn)化為算法道德準則作為機器行為的指導原則;自下而上的進路類似于人類的道德發(fā)展模式,通過錯法培養(yǎng)道德判斷能力。不過,這兩種方法均有一定的局限性。比如,第一種進路把一套明確的規(guī)則賦予機器可能是不合理的,同一種原理在不同的情況下可能導致不同的相互矛盾的決定;后一種進路要求機器能夠自我發(fā)展進化,而人工智能系統(tǒng)的學習與進化能力的提高將是一個比較緩慢的過程。混合進路在一定程度上把兩種進路統(tǒng)一了起來:一方面,美德本身可以清楚地表述出來;另一方面,它們的習得又是典型的自下而上的過程。

        2.進行有效的內(nèi)部算法監(jiān)管

        隨之人工智能的進步,起背后的算法也越來越復雜,而人工智能對我們的生活影響也越來越大,我們有必要對人工智能設(shè)定相應的規(guī)則以及標準,制定相應的監(jiān)管措施。沒有規(guī)矩不成方圓,人工智能也是如此,第一,要建立行業(yè)標準,例如分類、性能標準、設(shè)計標準、責任標準等等,通過這些標準的建立,科學管理人工智能,同時規(guī)范人工智能的研發(fā),從源頭遏制違反法律的現(xiàn)象發(fā)生;第二,強化此類行業(yè)的透明性,包括算法自身的代碼透明性,以及算法決策透明性。第三,設(shè)立人工智能產(chǎn)品的事前監(jiān)督制度,比如對于無人駕駛汽車等危險性系數(shù)較大的人工智能產(chǎn)品,在這類產(chǎn)品的設(shè)計之初,就需要相關(guān)部門或者該領(lǐng)域內(nèi)的專業(yè)人士對算法進行審批對于達到行業(yè)標準,可以進入下—環(huán)節(jié),而對于哪些無法達標的在源頭予以遏制,以免未來發(fā)生更大的損失。第四,對已經(jīng)投入使用的人工智能進行事后的檢測與評估,一方面,要對人工智能產(chǎn)品流入市場之后的發(fā)展現(xiàn)狀,是否達到設(shè)計之初的標準。另一方面,主要評估在產(chǎn)品應用過程之中存在哪些問題,針對出現(xiàn)的問題進一步研究解決對策,優(yōu)化人工智能的性能。

        (二)構(gòu)建人工智能外部合理的約束機制

        1.對研發(fā)人員進行必要的指導與監(jiān)管

        同其他高新技術(shù)一樣,人工智能也是非常專門化的科技知識,但其歸根結(jié)底是人類的產(chǎn)物,解決人工智能的問題說到底是解決人的監(jiān)管與指導的問題,也就是說,我們需要對人工智能每一個環(huán)節(jié)的設(shè)計者參與者進行監(jiān)督管理。

        首先,人工智能的研發(fā)人員自身要有一定的道德底線,并遵守相應的行業(yè)標準,最基本的職業(yè)操守等,如涉及違背道德倫理的行為不能因為利益而去做。

        其次,強化人工智能研發(fā)者的專業(yè)責任意識,包括積極責任和消極責任兩方面。積極責任強調(diào)研發(fā)人員應該做什么,如何通過技術(shù)手段來保證人工智能是安全的合乎道德倫理的;消極責任則關(guān)注當人工智能出現(xiàn)負面影響或嚴重后果時,應該由誰來承擔責任,使得人工智能安全責任問題有所保障。從積極責任的角度來看,研發(fā)者在研發(fā)過程中不能僅僅只追求經(jīng)濟利益,或者一味迎合客戶需求。從消極責任角度來看,當人工智能系統(tǒng)出現(xiàn)錯誤時,研發(fā)者應該承擔相應的責任,而不是把責任歸咎于人工智能本身的不確定性與復雜性。從某種意義上來說,解決人工智能面臨的問題的首要因素并不在于人工智能技術(shù)本身,而在于人工智能研發(fā)人員的責任心。

        2.以協(xié)調(diào)有序的機制加強對隱私權(quán)的保護

        首先,要加強對隱私權(quán)的保護就是要建立保護隱私權(quán)的法律規(guī)范體系,從現(xiàn)階段來說,不管是人工智能還是及其相配套的法律監(jiān)管體系,在我國都屬于萌芽階段,這就要求我們國家的法律工作者從現(xiàn)實出發(fā),結(jié)合現(xiàn)有的人工智能的發(fā)展現(xiàn)狀,建立起完善的有關(guān)人工智能的法律體系,以此來加強對人工智能使用者的隱私保護。

        其次,從各類人工智能軟件的從業(yè)者來說,由于現(xiàn)階段人工智能軟件的發(fā)展過快,導致人工智能軟件的研發(fā)和實際使用過程中不可避免的出現(xiàn)了侵犯隱私權(quán)的情況,這就要求此類軟件的研發(fā)者明確這些需要采集的隱私權(quán)是否真的有必要,并且這些隱私在匯聚到后臺時能否得到完善的處理及保護,以及在處理這些信息時是否合法有序。這就要求人工智能軟件的從業(yè)者在法律的指導下建立—種合法有序的行業(yè)規(guī)范,使用戶隱私權(quán)得到切實的保護。

        最后,要從人工智能軟件的實際使用者本身來說,實際使用者在使用此類軟件的過程中要提高自身的防范意識,對不需要通過的隱私權(quán)請求予以否定,并且在使用過程中盡量少的泄露自身的隱私,與此同時也要提起注意,日常生活中發(fā)現(xiàn)有隱私泄露的情況要及時尋找泄露的根源并及時處理問題。

        (三)換一種思維來看待人工智能安全問題

        過去幾十年,人工智能的發(fā)展形勢一陣陣的并不明朗,樂觀也好悲觀也罷,做做談資也沒什么。如今,數(shù)據(jù)、計算力、算法三大人工智能要素的充足度已經(jīng)不可同日而語,人工智能的發(fā)展大勢已經(jīng)不可避免,所謂樂觀悲觀都只是在揣測,在不可改變技術(shù)革命面前,把討論焦點轉(zhuǎn)移到“如何讓人工智能最終走向樂觀”顯得更有價值。在人工智能威脅論調(diào)中,不少人認為在弱人工智能階段(按設(shè)定邏輯推理、解決問題,但沒有自主意識),我們要持樂觀態(tài)度,只有在強人工智能或超人工智能階段(智能自主解決問題,具備自主意識,甚至超越人類),我們才要持悲觀態(tài)度。

        其實,人工智能是否威脅,不在于其發(fā)展到哪個階段、是否形成了對抗人的能力,而在于其和人類已有的秩序是否沖突。

        就算是弱人工智能,有沖突存在也算是一種客觀威脅,比如2013年牛津大學馬丁學院的MichaelOsborne和CarlFrey發(fā)表了一篇題為《未來職業(yè):工作有多容易被機器取代?》的論文列舉了數(shù)十個領(lǐng)域上千份可能會被取代的工作,幾乎整個社會都會被替代,這種社會結(jié)構(gòu)的劇烈變革、對大多數(shù)階層的沖擊,對他們而言就是一種十足的威脅。

        因此,也許我們更該聚焦于如何避免沖突的討論上。對于“替代”陣營來說,一味地模仿人類行為、代替人類操作的技術(shù)極客之旅中,也必須配套思考如何讓這種“替代”不產(chǎn)生沖突。

        對人工智能安全的擔憂無非認為人類會失去對人工智能的控制從而造成社會風險。這種想法從一開始就假定人和人工智能之間是沖突的、不相容的。而既然這種擔憂本身就帶有科幻色彩,不如就用科幻的邏輯來揣測人工智能。就像人尋找上帝是為了找尋自己的意義一樣,倘若人工智能真的想要威脅,其目的也不過就是為了確認和證明自己的存在。因為一開始就被設(shè)置在與人協(xié)作、各自分工的位置上被尊重,而不是與人爭利的沖突地位,就算有一天蘋果ARKit、阿里云ET大腦變成了有自主意識的強人工智能,它們也沒有任何理由要來挾制人類。人類依賴人工智能帶來的交通疏導、產(chǎn)業(yè)運營效率提升,人工智能的存在自有意義,不需要再通過威脅的方式獲得意義。也即,在阿里云ET大腦這樣的項目上,機器有智能,人類有智慧,機器做了人做不了的事情,沒有沖突也就不會有威脅。只有那些本身就沒有把人工智能放在平等的位置上,以統(tǒng)治階級控制平民的思路來談人工智能的人,才會感受到切實的威脅。

        所以,要讓人工智能的未來走入樂觀,首先要拋棄的恰恰就是那些對如何控制人工智能進行各種研究的行為(它本身也不會成功),專注用協(xié)作、伙伴等平等態(tài)度來發(fā)展人工智能。

        猜你喜歡
        侵權(quán)隱私權(quán)人工智能
        納稅人隱私權(quán)的確立、限制與保護
        媽媽,請把隱私權(quán)還給我
        學生天地(2019年29期)2019-08-25 08:52:12
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        谷歌尊重雕像“隱私權(quán)”的啟示
        華人時刊(2018年17期)2018-11-19 00:41:21
        人工智能與就業(yè)
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        論手機游戲的著作權(quán)保護
        商(2016年32期)2016-11-25 00:00:00
        淺議影視中文字幕組侵權(quán)問題
        商情(2016年39期)2016-11-21 10:00:45
        臺北故宮要告北京故宮“侵權(quán)”
        下一幕,人工智能!
        南風窗(2016年19期)2016-09-21 16:51:29
        日韩毛片在线| 青青草在线这里只有精品| 夜夜高潮夜夜爽夜夜爱爱一区| 最近免费mv在线观看动漫| 99在线精品国产不卡在线观看| 日本人妻av在线观看| 日本一本一道久久香蕉男人的天堂| 日韩人妻不卡一区二区三区| 成人性生交大片免费5| 日本午夜理论一区二区在线观看| 穿着白丝啪啪的av网站| 亚洲精品国偷拍自产在线观看| 女同性黄网aaaaa片| 国产nv精品你懂得| 亚洲中文有码一区二区| 丰满少妇人妻久久精品| 全免费a敌肛交毛片免费| 中国精学生妹品射精久久| 久久久久AV成人无码网站| 亚洲精品国产第一区三区| 日韩精品中文字幕第二页| 一区二区三区中文字幕在线播放| 欧美性猛交xxxx乱大交极品| 最新高清无码专区| 伴郎粗大的内捧猛烈进出视频观看| 日韩中文字幕不卡网站| 亚洲精品国产第一区三区 | 女人18毛片a级毛片| 精品人妻中文无码av在线| 久久国产成人午夜av影院| 国产精品自拍首页在线观看| 久久亚洲中文字幕乱码| 午夜福利啪啪片| 亚洲AV综合A∨一区二区 | 亚洲精品有码日本久久久| 色欲人妻aaaaaaa无码| 欧洲一卡2卡三卡4卡免费网站| 亚洲a∨天堂男人无码| 日本中文字幕人妻精品| 久久婷婷五月综合97色直播| 日本真人做人试看60分钟|