崔夢雪
摘? 要:自進入21世紀以來,大數(shù)據(jù)技術(shù)的發(fā)展與廣泛應(yīng)用,使得人工智能逐漸深入到我們生活的各個方面。人工智能在給人類社會帶來歷史性變革的同時,也對人類一項極為重要的基本權(quán)利——隱私權(quán),帶來了前所未有的挑戰(zhàn)。以數(shù)據(jù)和算法為核心的人工智能需要大量數(shù)據(jù)的支持,在缺乏相關(guān)法律的跟進和規(guī)范標準之下,人工智能的發(fā)展埋藏著巨大的隱私權(quán)危機,需要各方作出努力共同應(yīng)對人工智能時代給人類社會帶來的挑戰(zhàn)。
關(guān)鍵詞:人工智能;隱私權(quán);個人信息;侵權(quán)
中圖分類號:TP309? ? ? ? ?文獻標志碼:A? ? ? ? ?文章編號:2095-2945(2019)17-0071-03
Abstract: Since entering the 21st century, with the development and wide application of big data technology, artificial intelligence has gradually penetrated into all aspects of our life. While artificial intelligence has brought historic changes to human society, it has also brought unprecedented challenges to a very important basic human right, the right to privacy. Artificial intelligence with data and algorithms as the core needs the support of a large amount of data. In the absence of relevant legal follow-up and regulatory standards, the development of artificial intelligence has a huge privacy crisis. It is necessary for all parties to make joint efforts to deal with the challenges brought to human society by the era of artificial intelligence.
Keywords: artificial intelligence(AI); right of privacy; personal information; infringement
1 人工智能的興起與挑戰(zhàn)
“人工智能”(Artificial Intelligence)這一術(shù)語自1956年在Dartmouth學(xué)會上首次提出以來,發(fā)展至今已有60余年。目前人們還沒有對“人工智能”的概念作出一個明確的定論,但大多數(shù)學(xué)者認為,人工智能屬于計算機科學(xué)或智能科學(xué)的一個分支,是利用先進的科學(xué)技術(shù)創(chuàng)造出的一種與人腦相類似的智能機器或智能系統(tǒng)[1]??茖W(xué)家們將人工智能依次分為弱人工智能、強人工智能與超強人工智能三個發(fā)展階段,而我國目前尚處于弱人工智能時代[2],主要表現(xiàn)為無人駕駛汽車、智能客服、智能翻譯等多種形態(tài)。
人工智能以數(shù)據(jù)和算法為基礎(chǔ)與核心,要想發(fā)展人工智能首先離不開海量數(shù)據(jù)的支持,不論是在市場經(jīng)濟領(lǐng)域下企業(yè)為謀求自身的發(fā)展,還是在公共事務(wù)管理中政府為作出科學(xué)合理的決策,都越來越依賴于大量的數(shù)據(jù)采集、分析和使用,由此也埋下了嚴重的隱私危機。人們傳統(tǒng)的社會生活因為人工智能的廣泛應(yīng)用而日益變得透明化,數(shù)據(jù)安全和個人隱私保護問題已逐漸變?yōu)閲H焦點,受到全球人民的密切關(guān)注和重視[3]。
2 人工智能時代下的隱私權(quán)概述
2.1 隱私權(quán)的內(nèi)涵與發(fā)展
“對于大多數(shù)人而言,隱私是一項權(quán)利。它與人類尊嚴和人類價值的理念相聯(lián)系,人們感知到他們應(yīng)當有權(quán)控制個人信息,以及自己的照片和行為。這一權(quán)利的確切輪廓建立在社會判斷之上,并且是因時而異的?!盵4]
隱私權(quán)這一概念最早起源于19世紀末的美國,由兩位律師合伙人布蘭戴斯和沃倫在《哈佛法學(xué)評論》上發(fā)表的《論隱私權(quán)》一文中首次提出了隱私權(quán)的相關(guān)概念及理論[5]。隨著科技的進步和人權(quán)運動的發(fā)展,隱私權(quán)在世界范圍內(nèi)得到了廣泛地傳播,其含義也在不斷豐富和完善。隱私權(quán)從最初指代以保護個人生活安寧為目的的個人獨處的權(quán)利,主要表現(xiàn)為空間上的隱私權(quán),在私權(quán)利與公權(quán)力的沖突與人權(quán)意識的高漲下拓展到自決隱私的范疇,即個人對私人領(lǐng)域的事務(wù)有自主決定而不受他人干涉的權(quán)利。同時伴隨著20世紀60年代以后互聯(lián)網(wǎng)技術(shù)的飛速發(fā)展,人們個人信息受侵犯的現(xiàn)象大幅增加,隱私權(quán)的內(nèi)涵逐漸擴大到對個人信息享有獨自管理和控制且不為他人知悉、利用或支配的權(quán)利。當前我國學(xué)者普遍認為,隱私權(quán)主要是指自然人享有對自己的個人私事、空間、信息等個人生活領(lǐng)域受到法律保護,非經(jīng)當事人允許不得隨意侵犯的權(quán)利。
2.2 人工智能時代下隱私權(quán)相關(guān)概念的新變化
2.2.1 隱私范疇的擴大:可推斷性信息
在人工智能的廣泛應(yīng)用下,傳統(tǒng)意義上對隱私范圍的認定已不足以囊括所有應(yīng)受法律保護并禁止他人隨意侵犯的個人隱私,在大數(shù)據(jù)技術(shù)的支持下,人工智能可以將海量的零碎、獨立、無明確指向性的信息進行整合分析,從而形成一種推斷性信息,這種信息就具有了明確的指向性,并且多數(shù)情況下會觸及到個人隱私[1],例如根據(jù)一個人的搜索瀏覽記錄可以推斷出個人的消費習(xí)慣、購買偏好、甚至經(jīng)濟水平,而企業(yè)則可以借助該信息有針對性地做出推送和營銷,干擾個人的正常生活,此時便需要法律對所保護的隱私范圍予以擴大。
2.2.2 隱私權(quán)性質(zhì)的變化:兼具財產(chǎn)屬性
一般情況下人們將隱私權(quán)認作是一種人格權(quán),在隱私權(quán)受到侵犯時多與精神利益相關(guān),并參照精神損害賠償標準對經(jīng)濟損失予以賠償。而在人工智能時代下,侵犯隱私權(quán)的方式變得更加多樣,造成的損害結(jié)果也與從前有所不同,如很多企業(yè)會將其在從事經(jīng)營、服務(wù)活動中收集到的大量的客戶個人信息販賣給其他企業(yè)或個人或者達成某種數(shù)據(jù)共享合作協(xié)議以謀取經(jīng)濟利益,像2018年曝光出來的臉書(Facebook)泄密門事件。而這些企業(yè)一旦出售其掌握的用戶個人信息就將直接或間接地獲取財產(chǎn)收益,在這種數(shù)據(jù)買賣交易中,隱私信息就像商品一樣成為買賣的標的物以實現(xiàn)交易主體追求財產(chǎn)利益的目的,此時隱私權(quán)便具有了明顯的財產(chǎn)屬性。
2.3 我國對隱私權(quán)法律保護的現(xiàn)狀
與歐美國家相比,我國法律對隱私權(quán)的保護相對較晚,目前《憲法》中還未直接將隱私權(quán)作為一項基本權(quán)利予以規(guī)定,僅可通過第三十九條“公民的住宅不受侵犯”、第四十條“公民的通信自由和通信秘密受法律的保護”間接體現(xiàn)出對隱私權(quán)保護的認可。在民法層面,《民法通則》中也未在具體人格權(quán)中將隱私權(quán)明確規(guī)定出來,一直到2009年《侵權(quán)責(zé)任法》的頒布,隱私權(quán)才被作為一項獨立的人格權(quán)予以保護。同時在刑法層面,我國也通過《刑法修正案(七)》和《刑法修正案(九)》單獨將個人信息作為一項受保護的法益,完善了《刑法》對個人信息的保障。其后隨著網(wǎng)絡(luò)的迅速發(fā)展和普及,國家對保護個人信息的重視度進一步提高,2016年全國人民大表大會常務(wù)委員會通過了專門的《網(wǎng)絡(luò)安全法》。2017年,全國人民代表大會新制定的《民法總則》完善了《民法通則》的不足,將隱私權(quán)單獨列明為一項獨立的民事權(quán)利予以保護,并且在第一百一十一條中指明“自然人的個人信息受法律保護。任何組織和個人需要獲取他人個人信息的,應(yīng)當依法取得并確保信息安全,不得非法收集、使用、加工、傳輸他人個人信息,不得非法買賣、提供或者公開他人個人信息?!?/p>
3 人工智能時代下隱私權(quán)保護面臨的困局
3.1 侵權(quán)方式發(fā)生新變化
3.1.1 侵權(quán)方式更加隱蔽
在人工智能時代下,越來越多的智能設(shè)備為人們所接受并安置在私人空間里,而這些設(shè)備上一般都會安裝諸如紅外感應(yīng)器、GPS全球定位系統(tǒng)等信息傳感設(shè)備并且與互聯(lián)網(wǎng)相連接,一旦打開這些設(shè)備,其收集到的數(shù)據(jù)便可以上傳,再通過算法對數(shù)據(jù)整合、分析實現(xiàn)智能化的定位和監(jiān)控,同時可以將收集到的瑣碎、看似無價值的信息通過分析和處理整合成為具有明確指向性的個人隱私信息,這種侵犯隱私權(quán)的方式通常不易被人察覺。[2]再如人們在使用互聯(lián)網(wǎng)的過程中可能被不經(jīng)意點進的某個釣魚網(wǎng)站或木馬鏈接盜走個人信息,或者本身屬于正常填寫的一些無指向性的信息,在被某個不知名端口利用技術(shù)處理后就變成了具有特定指向性的隱私信息,而被侵權(quán)人卻無從得知。人工智能的發(fā)展使得信息獲取的方式與以往大不相同,與傳統(tǒng)隱私權(quán)侵權(quán)方式相比變得更加隱蔽。
3.1.2 隱私數(shù)據(jù)易被不當利用和擴散
目前大量個人隱私數(shù)據(jù)除了由政府在行使公共管理服務(wù)職能中掌握的以外,還被許多以互聯(lián)網(wǎng)公司為主的企業(yè)所掌握,而這些企業(yè)往往會基于營利的目的將手握的海量隱私數(shù)據(jù)濫用、售賣或共享,而這些數(shù)據(jù)一旦被泄露和擴散出去以后便很難再追溯和確定有多少主體掌握著,使得個人的隱私權(quán)遭受侵害并且難以得到有效救濟。
3.2 對侵權(quán)行為的追責(zé)更加困難
3.2.1 成本高,難度大
在“萬物互聯(lián)”的背景下,各種端口無處不在,隱私權(quán)主體往往很難確定自己是在哪個端口通過怎樣的方式泄露了隱私,甚至本身屬于經(jīng)當事人同意下有意識地提供、對方合法獲取的看似一般性的信息,在某個端口利用人工智能進行數(shù)據(jù)分析后就會被整合為具有特定性的個人隱私信息,而隱私權(quán)主體對此往往難以舉證證明,且成本過高。
3.2.2 侵權(quán)主體難以認定
通常情況下,人工智能對隱私權(quán)的侵犯可以分為三種情形,一種是侵權(quán)人有意識地利用人工智能對個人的隱私權(quán)進行侵犯以實現(xiàn)自身的不正當目的,此時人工智能只是侵權(quán)人在實施侵權(quán)行為中使用的工具或手段,可直接追究侵權(quán)人的法律責(zé)任;一種是人工智能在設(shè)計、制造、銷售中存在瑕疵而造成對隱私權(quán)的侵犯,此種情況下可適用《侵權(quán)責(zé)任法》中產(chǎn)品責(zé)任的有關(guān)規(guī)定進行問責(zé);一種是“人工智能”超越人類可控范圍下的自主侵權(quán)行為,此時便需要探討和確定人工智能是否具有侵權(quán)主體資格,能否獨立承擔侵權(quán)責(zé)任。
3.2.3 損害后果嚴重,難以彌補
在人工智能時代下,個人隱私一旦遭到泄露和擴散,便很難實現(xiàn)完全救濟,個人隱私信息難以確定被多少端口、具體哪一個端口所掌握,多少一般、無指向性的信息何時何地就會被利用技術(shù)力量整合成為具有特定性的個人隱私信息,因此在人工智能時代下隱私權(quán)受到侵犯后一般無法恢復(fù)到最初圓滿的狀態(tài),具有不可逆轉(zhuǎn)性。
再就是利用云計算中帶來的隱私風(fēng)險,由于云計算可以提供基于共享池實現(xiàn)按需式資源使用的模式[6],因此不論是個人、企業(yè)還是政府都可以把大量的數(shù)據(jù)存儲到云端,而一旦將隱私信息存儲到云端,這些隱私信息就會面臨被竊取和泄露的風(fēng)險,容易遭受如黑客攻擊等各種潛在的威脅。
4 人工智能時代下隱私權(quán)保護的應(yīng)對策略
4.1 法律制度亟待完善,監(jiān)管力度有待加強
為了順應(yīng)人工智能發(fā)展的潮流,國務(wù)院在2017年頒布了《新一代人工智能發(fā)展規(guī)劃》以搶抓發(fā)展機遇,規(guī)范和指引我國人工智能的發(fā)展。而目前我國雖然在個人信息的保護方面已經(jīng)做出了一些立法舉措,但是在人工智能時代下,我國仍舊缺乏一部專門規(guī)范個人信息保護的統(tǒng)一的法律文件,以更加靈活地適應(yīng)人工智能快速發(fā)展過程中對個人隱私信息帶來的威脅和沖擊,更加嚴格有效地規(guī)范和引導(dǎo)人工智能的健康發(fā)展。
我國在制定相關(guān)法律過程中,需要對個人隱私保護的范圍做出更加明確的界定,豐富和增強個人對信息的管理和控制力,規(guī)范和限制企業(yè)或者政府對其收集到的個人隱私信息和數(shù)據(jù)的儲存、利用方式,明確人工智能在設(shè)計制造環(huán)節(jié)中不同主體的權(quán)利與義務(wù),并對在人工智能的應(yīng)用過程中侵犯個人隱私權(quán)時承擔責(zé)任的主體做出明確的規(guī)定。在完善法律規(guī)定的同時還應(yīng)當加強對企業(yè)、政府等掌握個人數(shù)據(jù)的主體在獲取、使用這些數(shù)據(jù)中的違法違規(guī)行為的監(jiān)管力度,可以構(gòu)建專門針對人工智能的設(shè)計和開發(fā)及數(shù)據(jù)的收集和應(yīng)用整個流程的監(jiān)管機構(gòu),形成一套公開透明的監(jiān)管體系,并積極引入相關(guān)專業(yè)人士加強事中、事后的有效監(jiān)管,將對個人隱私權(quán)的侵犯后果盡可能地降到最低。
國際上部分國家和地區(qū)為了應(yīng)對人工智能等新興技術(shù)迅速發(fā)展下對保護個人隱私的法律制度帶來的困難和挑戰(zhàn),已經(jīng)開始做出相應(yīng)的立法舉措,如歐盟在2016年出臺并于2018年正式生效的《通用數(shù)據(jù)保護條例》,其中為適應(yīng)和矯正發(fā)展人工智能等新技術(shù)新應(yīng)用下在對個人隱私數(shù)據(jù)的收集、分析、利用過程中形成的新型侵權(quán)方式,明確賦予了個人對數(shù)據(jù)享有的諸如決定數(shù)據(jù)如何利用和處理等權(quán)利,我國可以對此結(jié)合本國人工智能的發(fā)展階段和國情,對國際上有關(guān)隱私權(quán)保護方面的法律規(guī)范較為領(lǐng)先的地區(qū)和國家予以吸收和借鑒。
4.2 提高個人隱私安全意識
目前我國國民對個人信息的安全保護意識不夠強,在人工智能的飛速發(fā)展中,僅憑企業(yè)的自覺性和法律的規(guī)范及其強制力尚不足以保障個人隱私不受侵犯,首先需要個人提高對自身信息的安全保護意識,在人工智能廣泛應(yīng)用的時代下隨時保持隱私安全防范意識和敏覺,可通過加強個人隱私保護意識的宣傳,普及在人工智能時代下如何有效保護隱私的相關(guān)知識,譬如在瀏覽網(wǎng)頁或者下載軟件時怎樣準確地分辨出哪些類型的鏈接和網(wǎng)站是存在安全隱患的等等,增強個人保護隱私信息的能力。
4.3 重視技術(shù)層面對隱私保護的規(guī)制
法律不可避免的具有滯后性,因此在人工智能飛速發(fā)展的時代下,企圖僅憑完善相關(guān)的法律來保護個人隱私是遠遠不夠的,在人工智能等新技術(shù)的設(shè)計開發(fā)和制造中就需要制定相應(yīng)的規(guī)則加以防范。首先在設(shè)計過程中就需要有一套合理的風(fēng)險評估標準,在最開始的階段就積極預(yù)防侵犯隱私權(quán)風(fēng)險的發(fā)生。同時還需要提高開發(fā)研制人工智能的安全標準,在技術(shù)層面增強該人工智能產(chǎn)品的安全性和穩(wěn)定性,特別是對于一些具有高度危險性的人工智能產(chǎn)品,例如無人駕駛汽車,其相關(guān)隱私數(shù)據(jù)一旦被泄露出去或者安全防范系統(tǒng)過于脆弱而極易被黑客入侵,由此造成的損害不只是因隱私權(quán)被侵犯而產(chǎn)生的精神上的損害,還可能會造成個人在人身和財產(chǎn)方面的損害。[7]因此在研發(fā)和應(yīng)用人工智能的整個過程中都需要對其進行嚴格的技術(shù)測試與安全認證,既可以增強公眾對該人工智能產(chǎn)品的信任,還有利于保障人工智能的可持續(xù)、健康發(fā)展。
4.4 加強國際合作
人工智能的飛速發(fā)展給隱私安全造成的威脅和沖擊是全球各國都在面臨的問題,因此各國之間也應(yīng)當加強交流與合作,對發(fā)展人工智能中存在的共性問題,如安全風(fēng)險問題、倫理問題等作積極的探討和研究,可以形成一般性的安全風(fēng)險標準和技術(shù)標準,統(tǒng)一規(guī)范和指導(dǎo)人工智能的設(shè)計和研發(fā),防范經(jīng)濟全球化影響下危機在各國之間發(fā)酵的連鎖反應(yīng)的發(fā)生,針對人工智能實行全球化治理,促進人工智能良性發(fā)展并更好的服務(wù)于人類社會。
5 結(jié)束語
隨著科技的不斷進步,以數(shù)據(jù)和算法為核心的人工智能得到飛速的發(fā)展,它在給人們的生活帶來便利的同時,也對個人隱私權(quán)的保護帶來了巨大的沖擊和挑戰(zhàn)。而在社會物質(zhì)文明高度發(fā)展的今天,社會精神文明也取得了長足的進步,在現(xiàn)代個人主義和人權(quán)運動蓬勃發(fā)展的影響下,人們對自由、個性獨立的呼聲越來越高,對隱私的期待也在不斷增強,因此需要個人、社會、國家乃至世界各方協(xié)調(diào)一致,共同應(yīng)對人工智能時代給人類社會帶來的挑戰(zhàn),削弱人工智能的不利影響,使其更好地為人類社會的發(fā)展提供服務(wù)。
參考文獻:
[1]王軍.從臉書“泄密門”看人工智能時代隱私保護的困局與出路[J].北方傳媒研究,2018(4).
[2]許天穎.人工智能時代的隱私困境與救濟路徑[J].西南民族大學(xué)學(xué)報(人文社會科學(xué)版),2018(6).
[3]楊芳,韓鈺,肖迪.簡議人工智能背景下的隱私與數(shù)據(jù)安全保護[J].佳木斯職業(yè)學(xué)院學(xué)報,2018(7).
[4]勞倫斯·M·弗里德曼.人權(quán)文化:一種歷史和語境的研究[M].中國政法大學(xué)出版社,2018,8:153.
[5]楊春福.人權(quán)法學(xué)[M].北京:科學(xué)出版社,2010:89.
[6]李修全.人工智能應(yīng)用中的安全、隱私和倫理挑戰(zhàn)及應(yīng)對思考[J].科技導(dǎo)報,2017(35).
[7]鄭志峰.人工智能時代的隱私保護[J].法律科學(xué)(西北政法大學(xué)學(xué)報),2019(2).