亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        大數(shù)據(jù)時代個人隱私保護的刑法路徑
        ——從醫(yī)療人工智能的隱私風(fēng)險談起

        2020-01-07 07:11:54吳何奇
        科學(xué)與社會 2020年2期
        關(guān)鍵詞:個人信息刑法人工智能

        吳何奇

        (上海財經(jīng)大學(xué)法學(xué)院)

        一、問題的提出:醫(yī)療人工智能的隱私風(fēng)險

        近年來國家對醫(yī)療信息化發(fā)展的促進政策推動了人工智能在醫(yī)療領(lǐng)域的巨大發(fā)展。隨著《“健康中國2 030”規(guī)劃綱要》的發(fā)布,“健康中國”的建設(shè)已上升為國家戰(zhàn)略,結(jié)合《新一代人工智能發(fā)展規(guī)劃》將人工智能應(yīng)用定位于提升社會治理智能化水平的技術(shù)手段,作為“互聯(lián)網(wǎng)+”健康命題下的核心構(gòu)成,利用醫(yī)療人工智能轉(zhuǎn)變傳統(tǒng)醫(yī)療的服務(wù)模式,以智慧醫(yī)療模式的開啟惠及全民必然是貫徹落實“健康中國”戰(zhàn)略的應(yīng)有之義。特別是在我國醫(yī)療資源供需嚴重失衡的當(dāng)下,作為第四次工業(yè)革命的核心驅(qū)動技術(shù)的人工智能不僅能夠優(yōu)化健康醫(yī)療資源供給模式,還能夠通過醫(yī)療大數(shù)據(jù)建設(shè),推進形成具有中國特色的智能化健康體系,成為未來醫(yī)學(xué)變革的核心驅(qū)動力。

        此外,獲得資本青睞的人工智能醫(yī)療使得很多醫(yī)療機構(gòu)有資金來做大數(shù)據(jù)分析。HC3i中國數(shù)據(jù)醫(yī)療網(wǎng)發(fā)布的報告預(yù)計人工智能應(yīng)用的市場總值在2025年預(yù)計達到1 270億美元,而人工智能醫(yī)療將占據(jù)市場規(guī)模的1/5。[1]在人工智能領(lǐng)域,數(shù)據(jù)量的大小和處理速度的快慢決定智能水平的高低。例如,百度對用戶的“精準畫像”就是根據(jù)對海量用戶的數(shù)據(jù)分析。而在醫(yī)療領(lǐng)域,通過大數(shù)據(jù),我們甚至可以檢測我們罹患各種疾病的可能性,從而更好地預(yù)防疾病。進入醫(yī)療人工智能2.0時代,人工智能賦能醫(yī)療領(lǐng)域最典型的場景應(yīng)用就是醫(yī)學(xué)圖像分析。傳統(tǒng)對病人CT圖像的診斷采用的是兩個醫(yī)生同時查看的模式,為了提高診斷的準確率,在兩個醫(yī)生的診斷結(jié)論不一致時則需要耗費人力就診斷結(jié)論進行進一步的討論,卷積神經(jīng)網(wǎng)絡(luò)在醫(yī)學(xué)圖像領(lǐng)域的應(yīng)用與推廣針對的便是醫(yī)學(xué)領(lǐng)域的這一痛點。這種深度學(xué)習(xí)的算法通過接受各種醫(yī)學(xué)圖像的訓(xùn)練獲取輸入圖像,使用卷積、匯集等操作將輸入圖像的順序轉(zhuǎn)換為扁平向量,以輸出向量的元素表示疾病存在的概率。概言之,大數(shù)據(jù)時代,數(shù)據(jù)的豐富與價值的提升、數(shù)字技術(shù)的發(fā)展不斷助力科學(xué)家對生命奧秘以及疾病產(chǎn)生機理的探索。從大數(shù)據(jù)分析到人工智能,越來越多的新興科技正在被應(yīng)用到醫(yī)療領(lǐng)域,每一次技術(shù)上的革新與成功應(yīng)用,都給醫(yī)療領(lǐng)域帶來了全新診療技術(shù)與科研手段,也提高了就診治療過程中患者的安全。

        大數(shù)據(jù)時代為人工智能的訓(xùn)練學(xué)習(xí)提供的海量數(shù)據(jù)是人工智能發(fā)展的核心要素之一,根據(jù)國家工業(yè)信息安全發(fā)展研究中心發(fā)布的報告,我國大數(shù)據(jù)產(chǎn)業(yè)規(guī)模在2019年已突破8 000億元,人工智能對大數(shù)據(jù)的應(yīng)用逐漸遍及經(jīng)濟社會的每一隅,它在為人類生活帶來便利的同時,也讓收集數(shù)據(jù)的行為頻繁和普遍,使得個人隱私問題被逐漸放大。個人私密信息泄露風(fēng)險的增加是高度信息化的負面產(chǎn)物,精準詐騙、廣告騷擾等現(xiàn)象屢見不鮮。[2]具有劃時代意義的技術(shù)革命都給法律領(lǐng)域帶來了深遠影響,[3]信息數(shù)據(jù)的合理使用與隱私保護之間的矛盾已成為當(dāng)前社會關(guān)注的熱點法律問題,而這一問題在醫(yī)療領(lǐng)域尤為突出。

        首先,醫(yī)療人工智能進化水平的高低同樣取決于其本身所掌握的醫(yī)療數(shù)據(jù)的多寡。而數(shù)據(jù)的積累和運用又以醫(yī)院和患者之間數(shù)據(jù)的交換與共享為前提。然而,由于醫(yī)療人工智能對大量臨床數(shù)據(jù)與診斷信息的挖掘和利用,涉及個人信息的獲取、擴散、分析利用等一系列問題,對海量數(shù)據(jù)的不斷挖掘與分析,就會帶來個人隱私安全風(fēng)險。病人對自己的醫(yī)療信息具有隱私權(quán)是一項業(yè)已被世界各國立法所確定的基本原則。根據(jù)一般的生活常識,病人有時不愿意向包括親屬在內(nèi)的他人透露自己的病情,特別是傳染病等可能引發(fā)一定社會后果的疾病情況,因為病人的診療信息一旦泄露,就可能對病人的生活和幸福帶來深刻影響。

        其次,人工智能與人最本質(zhì)的區(qū)別在于其無所謂動機,只追求人類通過算法設(shè)定的目的。一旦人工智能被黑客或網(wǎng)絡(luò)病毒侵入,寄希望于不具有人類思維的機器人為患者恪守秘密顯得極度不現(xiàn)實。信息技術(shù)的發(fā)展既能造福人類,也會成為不法分子違法犯罪的工具。人工智能時代,任何數(shù)據(jù)都處在互動的環(huán)境中,個人信息時時刻刻都面臨著被竊取的風(fēng)險。例如,2017年發(fā)生于上海的一起網(wǎng)絡(luò)盜竊案中,犯罪分子的犯罪機理便是基于對受害人被黑客竊取的登錄密碼進而以俗稱“撞庫”的方式獲取受害人登錄信息,從而盜取銀行存款。[4]2018年11月,連鎖酒店萬豪國際的 5 億客戶數(shù)據(jù)被盜;2019 年,美國銀行 Capital One Financial便遭到黑客入侵,約1.06億信用卡客戶的個人信息遭泄露。

        此外,不僅對患者數(shù)據(jù)的利用與保護之間的平衡點難以為人類所掌握,更要緊的是,在移動互聯(lián)的今天,隱私的泄密者往往就是我們自己。大多數(shù)人在享受人工智能帶來的便利時幾乎沒有個人隱私的防范意識。通過對26個國家近1.9萬人的詢問,益普索全球顧問(Ipsos Global Advisor)發(fā)布了“2019年全球公民對數(shù)據(jù)隱私的態(tài)度調(diào)查”。在這份報告中,僅35%的受訪者很清楚公司掌握了多少個人數(shù)據(jù),32%的受訪者了解公司如何處理這些數(shù)據(jù)。在人工智能時代,人工智能的規(guī)則和運作愈發(fā)地趨近于用戶無法理解的秘密領(lǐng)域。[5]不僅如此,人工智能產(chǎn)業(yè)的運作方關(guān)心的往往只是技術(shù)的運用能為企業(yè)帶何等的財富。埃森哲的最新報告顯示,1/3的金融公司缺乏隱私風(fēng)險計劃。[6]而在Braze公司2020年2月發(fā)布的數(shù)據(jù)隱私報告中,83%的營銷高管表示,除了法律要求的,沒有必要保護消費者的隱私。[7]正如吳軍博士所提到的,只有2%的人會成為智能時代的最先受益者。[8]現(xiàn)代社會中,只有少數(shù)人能夠站在金字塔頂尖,數(shù)字技術(shù)的鴻溝甚至?xí)由钸@一社會圖景的顯現(xiàn)。伴隨著網(wǎng)絡(luò)技術(shù)的迅猛發(fā)展,廣大公民對信息技術(shù)的茫然與無知更讓一種個人信息被泄露以及被非法利用產(chǎn)生的嚴重不安感成為整個社會揮之不散的陰霾。

        伴隨著《新一代人工智能發(fā)展規(guī)劃》(以下簡稱《規(guī)劃》)在2017年7月正式發(fā)布,如何通過法律法規(guī)的制定更好地保障人工智能的健康發(fā)展被進一步強調(diào)。根據(jù)《規(guī)劃》的指導(dǎo)精神,國家希望通過開展與人工智能應(yīng)用相關(guān)的民事與刑事責(zé)任確認、隱私和產(chǎn)權(quán)保護、信息安全利用等法律問題研究推動適應(yīng)人工智能發(fā)展的頂層設(shè)計的制定。在此背景下,法學(xué)領(lǐng)域圍繞人工智能的討論呈現(xiàn)出百家爭鳴的圖景,至今尚未停歇。從刊載于CSSCI期刊的成果來看,雖然圍繞人工智能這一主題的法學(xué)研究濫觴于世紀之交張保生教授基于法理學(xué)的視角對人工智能法律系統(tǒng)的審視,但當(dāng)前國內(nèi)法學(xué)學(xué)者對于人工智能的關(guān)注主要集中在以下幾個方面:人工智能創(chuàng)作物的版權(quán)問題,人工智能是否具有刑事責(zé)任主體的爭議,人工智能的刑法規(guī)制問題。較之于上述幾個方向,法學(xué)學(xué)者對于醫(yī)療人工智能法律問題的研究卻是鳳毛麟角。醫(yī)療人工智能提供的服務(wù)依賴于對醫(yī)療數(shù)據(jù)的深度挖掘與分析,在利用數(shù)據(jù)的過程中如何保護患者的隱私不被侵犯更有討論的價值。畢竟,技術(shù)上的漏洞能夠逐漸在技術(shù)本身發(fā)展的進路中得以抹平,但只要醫(yī)療人工智能“深度學(xué)習(xí)”的基礎(chǔ)依然是海量的醫(yī)療數(shù)據(jù),醫(yī)療人工智能對患者個人隱私的風(fēng)險就不會消除。人工智能不僅是技術(shù)問題,更是社會運作機理如何調(diào)整的問題,在享受人工智能所帶來的福利的同時,我們?nèi)匀恍枰獙⒎ㄖ喂芾砬度爰夹g(shù)的生產(chǎn)環(huán)節(jié)從而規(guī)避不當(dāng)?shù)姆珊蠊?/p>

        在大數(shù)據(jù)時代,用法律保障公民個人信息的安全是妥善保護公民個人隱私的關(guān)鍵,而個人隱私信息因其概念構(gòu)造的復(fù)雜成為個人信息合理使用與侵犯隱私行為區(qū)分的難點。數(shù)據(jù)的分析與運用是人工智能技術(shù)的底層邏輯,如何在使用信息創(chuàng)造財富的同時兼顧隱私的保護,協(xié)調(diào)隱私保護和信息福利之間的張力,則是大數(shù)據(jù)時代醫(yī)療人工智能發(fā)展進路上亟待解決的重要問題。因此,本文研究的立場著眼于維持充分挖掘數(shù)據(jù)價值促進人工智能的發(fā)展和保護個人隱私權(quán)之間的平衡,以醫(yī)療人工智能的隱私風(fēng)險為切入點,分析大數(shù)據(jù)時代個人隱私保護刑法路徑的問題與發(fā)展進路。

        二、個人隱私保護刑法路徑的必要性

        揭開隱私保護刑法路徑必要性的面紗,首先需要了解在大數(shù)據(jù)時代,刑法在調(diào)控技術(shù)發(fā)展中承擔(dān)的使命。

        犯罪是社會成員之間爭奪利益從而產(chǎn)生利害沖突的表現(xiàn)形式之一。在這種利害沖突中,決定實力強弱、地位優(yōu)劣的是社會成員所能夠掌握到的資訊,以及實際上所能夠支配運用的資源的多寡。由此引發(fā)的思考是,在對社會成員的科技素質(zhì)具有極高要求的人工智能社會,一個人如果沒有相當(dāng)?shù)慕逃疁适请y以適應(yīng)的。這在一定程度上注定了人工智能社會是科技精英的社會?;谶@一背景,伴隨著人工智能時代的降臨,以利害沖突為本質(zhì)的犯罪問題存在嚴重化的威脅。作為應(yīng)對,國家需要通過制定各種有強制力的法規(guī)范,劃定出人類社會最起碼的客觀秩序標準。面對可能違反法律的技術(shù)風(fēng)險,盡早發(fā)現(xiàn)相關(guān)人工智能研究及其研究成果與法律的沖突,才能更好地讓技術(shù)參與者恪守法律秩序,讓技術(shù)的發(fā)展符合法律的規(guī)定。刑法的最后性將國家為維護社會秩序所能接受的底線以規(guī)范的形式告知全民,這便是刑法對技術(shù)指引。調(diào)控技術(shù)發(fā)展的依據(jù)是業(yè)已建立的規(guī)范所形成的秩序基礎(chǔ),而這些秩序基礎(chǔ)又是建立在法律和社會道德之上。但法律和道德并非一成不變,相對應(yīng)的,秩序基礎(chǔ)也是不斷持續(xù)發(fā)展。[9]傳統(tǒng)隱私保護路徑的設(shè)計上,立法者側(cè)重于對隱私權(quán)主體的隱私利益與他人言論自由、知情權(quán)等利益矛盾的協(xié)調(diào)。[10]但大數(shù)據(jù)時代,數(shù)據(jù)價值的提升讓立法者在制度設(shè)計方面面臨新的壓力,傳統(tǒng)隱私保護方面的利益矛盾逐漸過渡為數(shù)據(jù)合理使用與公民隱私保護之間的沖突。因此,通過反思技術(shù)發(fā)展的邏輯進路進而展開對現(xiàn)有立法的改革甚至重塑,以更好地應(yīng)對技術(shù)發(fā)展中凸顯的現(xiàn)實問題,同樣是刑法在調(diào)控技術(shù)發(fā)展中承擔(dān)的使命。

        然而,要求刑法更多地介入社會治理往往需要接受最后性原則的考量。人工神經(jīng)網(wǎng)絡(luò)具有的非線性、非局限性、非常定性和非凸性的基本特征讓大數(shù)據(jù)時代的隱私風(fēng)險更具隱蔽性和不可計算性,主張刑法對隱私風(fēng)險的介入在特定的時代背景下具有一定的合理性,但對刑法的擴張必須抱以相對節(jié)制的態(tài)度。刑法的最后性原則意味著只有其他的法律無法進行充分的保護,才應(yīng)認可刑法的法益保護。刑罰制裁作為最嚴格的國家干預(yù)措施,本身具有痛苦報應(yīng)的意義,以及標簽式的烙印效果。所以,只有當(dāng)干預(yù)效果較為緩和的法規(guī)范,或是社會機制對于抑制不法的利益侵害不具成效,也就是在無法確實對市民的自由權(quán)利提供有效保障的情形,刑法手段的干預(yù)才有介入的空間。具體到隱私犯罪的立法設(shè)計,必須在窮盡一切民事、行政制裁后仍不足以保護隱私時,才可以動用刑法。大數(shù)據(jù)時代,為何更加需要刑法介入個人隱私的保護?刑法領(lǐng)域以外的隱私保護是否不足以保護公民的個人隱私?下面以醫(yī)療領(lǐng)域的個人隱私保護為例來看。

        第一,個人數(shù)據(jù)去識別化能否充分保護個人隱私?我國的法律并未就個人信息去識別化進行明確的界定,“可識別性”是個人數(shù)據(jù)的功能要素,換言之,只要對需要使用的個人數(shù)據(jù)進行去識別化的操作,就使得該信息不再是個人數(shù)據(jù),從而規(guī)避了法律的約束。據(jù)此,去識別化規(guī)則在實踐中的應(yīng)用便是數(shù)據(jù)的持有者在對其持有的數(shù)據(jù)進行集中篩查以后,通過技術(shù)手段刪除數(shù)據(jù)中能夠用于識別特定個人身份的那部分數(shù)據(jù)的過程。[11]一項有效的去識別化措施能夠防止任何人從數(shù)據(jù)中識別出個人或推斷出任何信息,個人信息的去識別化因此被認為是降低數(shù)據(jù)流通中隱私風(fēng)險、保證信息有序流通的前提。[12]這樣的做法似乎兼顧了對數(shù)據(jù)主體隱私風(fēng)險的降低和數(shù)據(jù)特定用途的利用價值,但如何實現(xiàn)有效識別?美國在線公司(AOL)與網(wǎng)飛(Netflix)公司在這一領(lǐng)域的滑鐵盧似乎證明這項技術(shù)也無法保證規(guī)避隱私的有效性。而冰島生物科技學(xué)者艾納與計算機信息安全學(xué)者羅斯在對個人醫(yī)療信息進行了詳細的檢視與評估后認為,個人信息的“匿名性”在邏輯上與技術(shù)上都是悖論。一方面,在數(shù)據(jù)輸入、編碼的過程中,數(shù)據(jù)庫所納入的本就是未電子化的且經(jīng)過數(shù)據(jù)處理人員逐筆檢閱、逐字輸入紙質(zhì)數(shù)據(jù),因此凡是經(jīng)手數(shù)據(jù)處理的人員都會知悉病人的身份。另一方面,在數(shù)據(jù)編碼、輸人數(shù)據(jù)庫之后,仍需持續(xù)將病人的近期就診記錄予以更新和增補。而為了實現(xiàn)建置全民醫(yī)療記錄數(shù)據(jù)庫所需進行的研究,則必須要有辨識個人身份的關(guān)鍵鑰,只要有關(guān)鍵鑰和持有人存在,即非“不可追溯、完全匿名”,關(guān)鍵鑰外流、誤用、濫用均將對公民隱私造成侵害。[13]256此外,在大數(shù)據(jù)時代去追求完全意義上的個人數(shù)據(jù)的去識別化、尤其是對醫(yī)療領(lǐng)域的個人數(shù)據(jù)的去識別化往往會導(dǎo)致數(shù)據(jù)價值的下跌。無論是去識別化的可行性還是損益比,這項措施都無法充分保護個人隱私。

        第二,同意原則能否協(xié)調(diào)隱私保護與信息使用的矛盾?以被害人的承諾作為正當(dāng)化事由排除行為違法性的依據(jù)濫觴于古羅馬時期法學(xué)家烏爾比安所說的,“符合被害人意志的,不構(gòu)成不法”。[14]而首次直接使用“告知同意原則”的文本是1964年通過的用以規(guī)范醫(yī)療行為、醫(yī)學(xué)研究的《赫爾辛基宣言》。聯(lián)合國教科文組織于2003年通過的《國際人類基因宣言》同樣強調(diào)在相關(guān)醫(yī)學(xué)研究中,對個人醫(yī)療信息的搜集、處理、使用以及保存凡對人權(quán)、基本自由、人性尊嚴存在威脅性的均應(yīng)取得受試者告知后的同意,且不得用于范圍外的用途。據(jù)此,信息主體的同意似乎可以阻卻對個人信息收集、利用、提供甚至出售的違法性。隨著社會信息技術(shù)的繁榮,它逐步延伸到個人信息保護的主體框架。[15]依據(jù)知情同意規(guī)范對個人醫(yī)療數(shù)據(jù)的保護意味著醫(yī)院、疾病預(yù)防控制機構(gòu)在收集數(shù)據(jù)主體的信息之前,應(yīng)告知數(shù)據(jù)主體需要什么樣的信息、如何處理和使用什么樣的信息,在依法取得患者的明確同意以后,才能對其個人醫(yī)療數(shù)據(jù)進行處理與運用。然而,同意原則在個人數(shù)據(jù)領(lǐng)域的適用同樣面臨著實踐中的障礙。在人們感受到個人隱私存在被他人覬覦的風(fēng)險的時代背景下,能夠確認或者征得數(shù)據(jù)主體同意的場合非常有限。尤其是個人醫(yī)療數(shù)據(jù)往往涉及到患者難以啟齒的個人隱私,患者對共享個人信息的反對更讓醫(yī)療人工智能對數(shù)據(jù)的搜集難以開展。此外,通知同意機制下的通知大多難以有效到達、信息主體缺乏議價空間,進一步使得該機制僅僅停留于理論層面而難以付諸有效實踐。[16]

        第三,優(yōu)越利益規(guī)則是否為最優(yōu)解?優(yōu)越利益規(guī)則的目的是在某些場合,為了保護價值較大的利益而對價值較小的利益的犧牲。在使用公民個人信息的過程中,個人隱私保護與其他利益往往存在沖突。利益至上原則是解決沖突的主要理論工具。大數(shù)據(jù)時代,在數(shù)據(jù)技術(shù)中利用個人信息的目的、用途如果是為了技術(shù)創(chuàng)新或治理突發(fā)事件等公共領(lǐng)域,在個人隱私與社會公共利益發(fā)生沖突的情形下,為了實現(xiàn)社會整體的更大利益,隱私權(quán)也被認為是可克減的權(quán)利之一,在特定情況下,為了維護公共利益,可以對其加以一定的限制、甚至剝奪,簡言之,追求更大社會效益的目的能夠排除侵權(quán)行為的違法性。依據(jù)最高法的司法解釋,任何人基于“社會公共利益”目的,在網(wǎng)絡(luò)空間公布、傳播公民涉及個人隱私的個人信息,可以免除當(dāng)事人的侵權(quán)責(zé)任。按照司法解釋邏輯,隱私權(quán)不禁止與公共利益或者普遍利益相關(guān)事務(wù)的公開。隱私權(quán)的旨趣在于保護私人事務(wù)不被大眾無理由的關(guān)注,避免公民陷入不受歡迎以及違背意愿的報道。但當(dāng)一些信息涉及公共利益或社會的普遍利益,哪怕其不屬于公共生活的范圍內(nèi),信息主體依然不能阻止公眾對這些事項的獵奇。但何謂“社會公共利益目的”?不少學(xué)者對此提出了闡釋,主要理論大致分為“優(yōu)勢理論、共同利益理論與單一理論”。優(yōu)勢理論主張公共利益是通過“多數(shù)決”反映出來的大眾所想要的公民意志。作為對優(yōu)勢理論的修正,共同利益理論認為工具性的民調(diào)或大多數(shù)人的意見不足以作為衡量公共利益的標準,而應(yīng)考慮社會共同的福祉。單一理論強調(diào)人與社會的關(guān)系,公共利益應(yīng)以社會的主流價值或意識形態(tài)作為依據(jù)。[13]173-174盡管上述理論存在區(qū)別,但背后具有共通的邏輯,即基于不同的立場,對于公共利益的認定都不盡相同。公共利益的形成往往是基于社會的平穩(wěn),通過持有不同意見的公眾展開觀點的交換、批判與討論,使不同利益主體間的主張相加或消解并最終趨于平衡的過程,最終形成的利益就是公共利益。因此,公共利益又是流動的,會隨著社會情境、文化環(huán)境的不同而有所不同。在上述理論中,共同利益理論在個人隱私保護領(lǐng)域頗具借鑒意義,因為只有基于社會共同福祉的才是正當(dāng)?shù)?,這也是美國聯(lián)邦第九巡回上訴法院在佛吉爾訴時代雜志一案中區(qū)分“正當(dāng)?shù)墓碴P(guān)切”與大眾無止境的獵奇心的標準。然而,為了提高醫(yī)療衛(wèi)生水平而犧牲患者個人利益的觀點受到了醫(yī)學(xué)研究領(lǐng)域的批評,這反映出業(yè)界對醫(yī)學(xué)研究的利益排序未能形成共識。換言之,我們很難認為任何醫(yī)療研發(fā)的社會效益必然高于患者個人信息保護的利益,進而以此作為排除違法性的正當(dāng)理由。

        綜上所述,在大數(shù)據(jù)時代,主張刑法介入個人隱私的保護不僅是刑法在調(diào)控技術(shù)發(fā)展過程中的使命所在,亦不沖突于刑法謙抑的基本價值。

        三、個人隱私保護刑法路徑的現(xiàn)狀與缺陷

        1. 個人隱私保護刑法路徑的現(xiàn)狀

        19世紀起,國外的刑法典中就存在保護個人隱私的法律規(guī)制。[17]而刑事法領(lǐng)域,第一次對醫(yī)生等特定職業(yè)的保密義務(wù)予以要求的立法是1794年的《普魯士一般法》。自此,醫(yī)生等特定職業(yè)的行為主體對患者個人信息的泄露將面臨刑罰的苛責(zé)。此外,日本《刑法》第134條“泄露秘密罪”也對醫(yī)藥行業(yè)的從業(yè)者在沒有“正當(dāng)理由”的前提下泄露“業(yè)務(wù)上所知悉的他人的秘密”的行為進行了規(guī)制,以此在限定的狀況下對個人隱私進行保護。不同于國外刑法典對個人隱私保護專章專節(jié)專門罪名的立法模式,我國尚未出臺以具有獨立地位的隱私權(quán)為客體或主要客體的刑法規(guī)制,對“個人隱私”的保護除了援引侵犯公民個人信息犯罪的相關(guān)規(guī)定,往往依附于刑法對超個人法益的保護,通過對國家法益、社會法益、商業(yè)秘密的保護附帶的懲治侵犯個人隱私的行為。在現(xiàn)行刑法中,涉及刑法對公民個人隱私保護的條款主要有“侵犯公民個人信息罪”“竊取、收買、非法提供信用卡信息罪”“侵犯通信自由罪”“私自開拆、隱匿、毀棄郵件、電報罪”“非法獲取計算機信息系統(tǒng)數(shù)據(jù)、非法控制計算機信息系統(tǒng)罪”。此外,由于個人隱私的人格權(quán)屬性,“侮辱罪”也能在一些判例中作為懲治侵犯個人隱私行為的法律依據(jù)。但總體而言,現(xiàn)階段個人隱私保護的刑法路徑依然呈現(xiàn)出附屬保護的立法模式。

        具體而言,在侵犯市場經(jīng)濟秩序犯罪一章,由《刑法修正案(五)》增設(shè)的“竊取、收買、非法提供信用卡信息罪”開創(chuàng)了我國刑法對個人隱私保護的先河。信用卡信息即信用卡磁條上所承載的信息。其中涉及個人隱私的主要指持卡人的個人標識代碼(personal identification number,PIN),即持卡者的個人密碼,這是持卡人最重要的信用卡信息,也是該類犯罪行為直接侵害的對象。盡管從罪名設(shè)置上看,該罪的立法旨趣在于“對金融管理秩序的防護”,但公民的個人信用卡信息屬于個人隱私的重要組成,通過附屬于市場經(jīng)濟秩序犯罪刑法規(guī)制的保護路徑依然具備了保護公民個人隱私重要意義,加大了刑法對侵犯個人隱私犯罪的打擊力度,更好地保護個人隱私及其關(guān)聯(lián)的法益。

        在侵犯公民人身權(quán)利、民主權(quán)利犯罪一章,經(jīng)過《刑法修正案(九)》對侵犯公民個人信息罪的修改以及最高法、最高檢出臺的司法解釋,該罪行幾乎成為當(dāng)前刑法保護個人隱私的金科玉律。通過對個人信息專屬犯罪做了主體擴大化和行為多元化的修改,該罪的設(shè)置基本回應(yīng)了對個人隱私保護的基本需求。在《修正案(九)》頒布之前,該罪的犯罪主體限定為“國家機關(guān)或具有金融、電信等公共職能的工作人員”這些特殊主體。僅以醫(yī)療人工智能為例,機器的使用離不開患者的個人信息,在將人工智能系統(tǒng)部署到臨床實踐以前,它們需要通過臨床活動(如篩選、診斷、治療分配等)生成的數(shù)據(jù)進行培訓(xùn),以便它們能夠?qū)W習(xí)相似的受試者組、受試者特征與感興趣的結(jié)果之間的關(guān)聯(lián)。這些臨床數(shù)據(jù)通常以人口統(tǒng)計資料、醫(yī)療記錄、醫(yī)療設(shè)備電子記錄、體檢、臨床實驗室和圖像等形式存在,但不限于此。這些信息在流通和共享的過程中往往沒有在隱私政策中披披露,以美國為例,公開報告的538例信息侵權(quán)案件中,涉及2 140萬份患者案例。[18]《修正案(九)》取消了犯罪主體的限定,進一步明確了以刑法保護個人隱私的一般化趨勢。

        在侵犯社會管理秩序犯罪一章,非法獲取計算機信息系統(tǒng)數(shù)據(jù)的行為被規(guī)定為犯罪。在計算機領(lǐng)域,數(shù)據(jù)即原始資料,本是無意義的客觀存在,而信息是為了特定目的對數(shù)據(jù)進行處理和建立內(nèi)在關(guān)聯(lián)。但刑法視野中計算機數(shù)據(jù)已經(jīng)指向“在計算機信息系統(tǒng)中實際處理的一切文字、符號、聲音、圖像等內(nèi)容有意義的組合”[19]。與其說刑法通過該罪的設(shè)置保護的是計算機數(shù)據(jù),不如說保護的是數(shù)據(jù)所承載的信息。更何況,大數(shù)據(jù)時代中的數(shù)據(jù)之所以被冠以“大”(big)的稱謂,并不簡單的表現(xiàn)為數(shù)據(jù)在量的多(vast),而在于數(shù)據(jù)本身在強調(diào)一種抽象意義的“大”,傳遞的是一種思維方式的改變。在現(xiàn)階段數(shù)據(jù)的本質(zhì)已然無限趨近于信息的意蘊的前提下,保護數(shù)據(jù)的刑法路徑也就是保護信息的刑法路徑。自然,對個人隱私里屬于公民個人身份認證信息的也就納入了該罪保護范圍。

        2. 隱私保護刑法路徑的缺陷

        誠如上文所述,現(xiàn)行刑法對個人隱私的保護實則附屬于刑法對數(shù)據(jù)、信息的保護。但大數(shù)據(jù)時代,隱私權(quán)的客體內(nèi)容不斷豐富,刑法固有的對傳統(tǒng)私人生活中的住宅、通信以及家庭隱私的保護逐漸無法滿足當(dāng)下對隱私權(quán)保護的需要,將個人隱私作為刑法的獨立客體予以保護備受期待。此外,大數(shù)據(jù)時代的信息權(quán)不僅具有私的屬性,經(jīng)過處理利用的信息更具有公共性。出于發(fā)展人工智能等新興技術(shù)的需要,公共性優(yōu)先的大數(shù)據(jù)收集和處理帶來的是對個人信息自我決定權(quán)的弱化,技術(shù)發(fā)展的需要也使得不用得到個人知情同意就能利用個人信息的現(xiàn)象頻繁出現(xiàn),這與公民保護隱私的訴求形成了利益沖突。作為回應(yīng),與信息權(quán)相聯(lián)系的個人隱私保護也必須予以相應(yīng)的調(diào)整,而對規(guī)則的發(fā)展與完善需要我們首先剖析現(xiàn)行規(guī)則中與這個時代的問題治理所不相契合之處。

        (1)“一元論”隱私保護模式的問題。不同于國外刑法對個人隱私專章專節(jié)、區(qū)分信息與隱私的“二元論”保護模式,我國刑法法典對個人隱私、信息的保護選擇了“一元論”的進路。在揭示該立法模式的缺陷之前,有必要厘清法規(guī)范中“數(shù)據(jù)”“信息”“隱私”的概念及關(guān)系。

        在相關(guān)立法文件中,不同國家和地區(qū)采取的稱謂有所不同。歐盟地區(qū)多采用“個人數(shù)據(jù)”的概念,美國多用“個人隱私”的表述,我國的立法文件中則存在著“個人隱私”與“個人信息”的提法。[20]個人信息與個人數(shù)據(jù)存在文義上的區(qū)別,但在法律中,二者只是由于表達習(xí)慣的不同而對術(shù)語的選擇有所差異,并無實質(zhì)內(nèi)涵的不同,因而可以互相通用,[21]甚至互為解釋對象。

        對個人隱私與個人信息的區(qū)分是筆者批判刑法“一元制”隱私保護模式的教義學(xué)邏輯。稱謂的不同,既與不同國家、地區(qū)立法、司法傳統(tǒng)相關(guān),也彰顯不同國家、地區(qū)對個人隱私保護的態(tài)度與方式。例如,在美國的立法與司法實踐中,隱私的范疇十分寬泛,包括個人信息、資料,個人獨處私生活安寧,個人自主決定私人事務(wù)、支配私人領(lǐng)域三個類別,[22]對個人信息的保護屬于信息性隱私權(quán)的內(nèi)容。[23]2-3在我國理論界,嚴格區(qū)分個人信息與個人隱私、認為二者的內(nèi)涵與外延不一致的觀點得到大多數(shù)學(xué)者的認可。然而,對于二者之間的關(guān)系,不同學(xué)者間存在分歧。一些學(xué)者認為,個人信息與個人隱私屬于上位概念與下位概念、包含與被包含的關(guān)系。例如,齊愛明教授認為,個人信息包含個人隱私,個人隱私是個人信息下位概念,是個人信息的一部分。[24]趙秉志教授認為,根據(jù)公民在社會活動中是否公開個人信息的主觀意愿,可將其分為可以為公眾所知悉的信息與公民不愿為公眾所知悉的個人信息,也就是個人隱私。隱私是包含在個人信息之內(nèi)的一種私密信息。[25]

        上述學(xué)者都將個人隱私視為個人信息的一部分,對個人信息與隱私的保護思路通常是“一元論”的模式,即將隱私納入個人信息的范疇從而一同保護。筆者認為,上述觀點值得商榷。根據(jù)我國立法對個人信息的權(quán)威定義①《網(wǎng)絡(luò)安全法》第76條規(guī)定:“個人信息,是指以電子或者其他方式記錄的能夠單獨或者與其他信息結(jié)合識別自然人個人身份的各種信息,包括但不僅限于自然人的姓名、出生日期、身份證件號碼、個人生物識別信息、住址、電話號碼等”。,“記錄”與“識別”構(gòu)成個人信息的兩個核心要素。前者是個人信息的狀態(tài)要素,后者則屬于個人信息的功能要素。從形式邏輯上看,個人隱私被包含于個人信息的前提是個人隱私應(yīng)符合個人信息的界定,換言之,個人隱私得首先具備個人信息的狀態(tài)要素,即已通過電子或其他方式被記錄下來,顯然,并非所有的個人隱私都符合這樣的特征,持“上位說”或“包含說”的學(xué)者實則是將個人隱私等同于個人隱私信息,限縮了個人隱私的范疇。盡管在大數(shù)據(jù)時代的現(xiàn)實圖景中,任何客觀物理實在都具備被數(shù)字化為數(shù)據(jù)的可能,但存在成為數(shù)據(jù)的可能和已然盡皆成為數(shù)據(jù)并被記錄下來尚有差距。除了個人隱私信息外,個人的私生活安寧或個人自主決定的私人事務(wù)都未必會以個人信息的形態(tài)展現(xiàn),個人隱私的邊界是大于個人隱私信息。據(jù)此,個人信息與隱私是一種交叉重合的關(guān)系,不是所有的個人信息都是個人隱私,也不是所有的隱私都是個人信息。但必須承認的是,由于二者范疇上的交叉與重合,個人隱私常通過個人信息的外在形式表現(xiàn)出來,這也是為何我國的《民法總則》以及即將施行的《中華人民共和國民法典》雖然明確宣告了私法對個人隱私、個人信息區(qū)分保護的“二元論”模式,但從法院的判例來看,不乏采取“一元論”保護模式的司法實踐。因此,有學(xué)者指出,在《民法總則》已對隱私與信息進行區(qū)分而作二元保護的立法模式下,將隱私混同于個人信息會導(dǎo)致二者救濟措施上的沖突。[26]同樣,在刑法中,對隱私與個人信息不以區(qū)分的“一元論”模式也會讓產(chǎn)生罪刑是否相適應(yīng)的疑慮。貝卡利亞曾倡導(dǎo)構(gòu)建一個對應(yīng)不同階梯的越軌行為,相應(yīng)的、由最強到最弱的刑罰階梯。[27]盡管他所設(shè)想的狀態(tài)在現(xiàn)實中幾乎無法科學(xué)合理的實現(xiàn),但罪刑相適應(yīng)原則仍是各國立法者所必須恪守的立法精神。設(shè)置隱私保護的刑法路徑,必須按照社會危害性程度不同以及公民個人隱私的敏感層,作順序排列,配以不同的刑種、刑罰幅度和輕重刑比例,才能確保刑法路徑的合理性。

        不僅存在理論上的問題,“一元論”的立法模式在司法實踐中也暴露出諸多的不適宜。我國司法實踐中較為典型的涉及侵犯他人隱私權(quán)案例為2015年北京的“優(yōu)衣庫事件”。由于刑法缺乏對隱私權(quán)的獨立保護,只能對該案的嫌疑人鄧某某以涉嫌傳播淫穢物品罪為由予以刑事拘留。個人信息的隱私問題是大數(shù)據(jù)時代的頂層問題,如何協(xié)調(diào)信息使用與個人隱私保護兩個看似背離的價值維度,離不開立法對利益關(guān)系的調(diào)節(jié)從而實現(xiàn)保護和適用的共贏。但“一元論”的保護模式并不能適應(yīng)大數(shù)據(jù)時代的特殊社會背景。雖然數(shù)字化技術(shù)的應(yīng)用使得幾乎所有個人信息都能與隱私產(chǎn)生關(guān)聯(lián),但單以個人信息的保護標準很難做到對隱私保護的面面俱到,而側(cè)重于隱私保護的嚴苛標準進行相關(guān)規(guī)制又將對個人信息的合理使用產(chǎn)生抑制。

        (2)行刑責(zé)任銜接的相關(guān)問題。我國個人信息保護立法的暫時缺位導(dǎo)致了信息犯罪立法的協(xié)調(diào)性存在欠缺,最直觀的問題便是現(xiàn)狀下信息犯罪行刑責(zé)任的銜接困境。

        刑法效力的發(fā)揮不僅需要自身完備,還必須依賴配套法律的整體合力,這就需要信息犯罪的刑事立法與行政制裁手段協(xié)調(diào)一致,進而形成立體式的防護體系。值得肯定的是,侵犯公民個人信息罪在罪狀的設(shè)計上選擇了空白罪狀,即由相對應(yīng)的行政法來規(guī)定信息犯罪的構(gòu)成要件,這樣的法律設(shè)計既保證了該罪能夠較為及時地適應(yīng)信息犯罪發(fā)展的靈活性,也為公民個人信息的合法使用騰出了法律空間,符合信息技術(shù)發(fā)展的需要。

        問題在于,《個人信息保護法》時至今日仍未出臺,意味著我國尚不存在統(tǒng)一、完備的行政法律制裁體系與刑事制裁相銜接,而現(xiàn)行的《治安管理處罰法》也并未就侵犯公民個人信息的違法行為制定罰則,在沒有信息立法設(shè)置行政責(zé)任的前提下,刑事法律先行并作出規(guī)定,不符合對侵犯個人信息行為“處罰-刑罰”的階梯式制裁模式的科學(xué)設(shè)置。盡管我國《網(wǎng)絡(luò)安全法》第44條強調(diào)了個人和組織不得侵犯他人個人信息的禁止性義務(wù),第64條設(shè)置了侵犯個人信息違法行為的行政責(zé)任,但該法是規(guī)范網(wǎng)絡(luò)空間安全管理方面問題的基礎(chǔ)性法律,約束的是網(wǎng)絡(luò)領(lǐng)域的相關(guān)失范行為,能否涵蓋大數(shù)據(jù)時代不同類型的侵犯個人信息行為自然不言而喻。在醫(yī)療領(lǐng)域,最新審議通過的《中華人民共和國基本醫(yī)療衛(wèi)生與健康促進法》也通過第92條和第105條體現(xiàn)了我國對個人健康信息保護的立法舉措。但立法者似乎也未考慮到法律責(zé)任之間的銜接問題,雖然告知對違反該法規(guī)定且構(gòu)成違反治安管理行為的,依法給予治安管理處罰,但《治安管理處罰法》并未提供這樣的制度供給。此外,如果在刑法中采取“二元論”的保護模式,將隱私權(quán)作為獨立的犯罪客體予以保護,相關(guān)行政立法中暴露出的滯后性也不能完全適應(yīng)懲治隱私犯罪需要?!吨伟补芾硖幜P法》第42條對侵犯他人隱私行為的懲治相對于《網(wǎng)絡(luò)安全法》第64條的責(zé)任設(shè)置過于寬松,①侵犯隱私的行為,情節(jié)較重的,僅處五日以上十日以下拘留,可以并處五百元以下罰款。而對侵犯個人信息,尚不構(gòu)成犯罪的,將由公安機關(guān)沒收違法所得,并處違法所得一倍以上十倍以下罰款,沒有違法所得的,處一百萬元以下罰款。這與《個人信息保護法(專家建議稿)》強化個人敏感信息保護和強化個人一般信息利用的基礎(chǔ)理念存在沖突。

        完備的法律體系,尤其是刑法前置法律的存在是保證刑法發(fā)揮效力的必要前提。行刑責(zé)任銜接的缺陷以及相關(guān)法律責(zé)任間的不協(xié)調(diào)都將制約刑法對個人隱私的保護效力。

        四、大數(shù)據(jù)時代個人隱私保護刑法路徑的構(gòu)造

        大數(shù)據(jù)時代的到來標志著人工智能技術(shù)的崛起,作為機器深度學(xué)習(xí)的基礎(chǔ),人工神經(jīng)網(wǎng)絡(luò)具有的非線性、非局限性、非常定性和非凸性的基本特征不同于傳統(tǒng)法律依托的通過回溯過去來規(guī)范當(dāng)下進而穩(wěn)定未來的時間性技術(shù)。人工智能的崛起,使得世界正在建構(gòu)一個由人、物和信息組成的全面網(wǎng)絡(luò),這些不受主權(quán)國家控制的技術(shù)力量已經(jīng)對各國民眾的平等和自由產(chǎn)生了深刻影響,給當(dāng)代社會帶來了各種潛在風(fēng)險。新的法律形態(tài)需要根據(jù)新信息和新環(huán)境在認知性的意義上進行自我調(diào)整和迭代,只有這樣,才能更好適應(yīng)各種變化與風(fēng)險。否則,依賴于規(guī)律、經(jīng)驗的傳統(tǒng)刑事法規(guī)制在面對大數(shù)據(jù)時代的新型風(fēng)險時,往往會陷入規(guī)則失效或無助的窘境。[28]筆者在本文中試圖以人工智能的隱私風(fēng)險為視角分析刑法介入隱私保護的必要性以及現(xiàn)行刑法保護路徑的缺陷,進而認為,在大數(shù)據(jù)時代,對隱私保護與信息使用間利益沖突的協(xié)調(diào)需要我國隱私保護的相關(guān)刑事立法的與時俱進,矯正當(dāng)前隱私保護刑法的滯后性、片面性以及法律體系間不協(xié)調(diào)性。具體而言,大數(shù)據(jù)時代個人隱私保護刑法路徑的構(gòu)造具體從以下幾個方面予以考量。

        1. 大數(shù)據(jù)時代個人隱私保護刑法路徑的立法理念

        新技術(shù)的驅(qū)動與革新常常迫使人類重新定義自己的生活,然而,大數(shù)據(jù)對人類生活的影響與改變并不局限于某一個方面,相反,它會沖擊甚至重新塑造所有的概念。在這些改變中,最為直接的莫過于對隱私概念的模糊。當(dāng)能夠釋放出海量數(shù)據(jù)的智能設(shè)備遍布周遭并不斷記載著用戶健康指數(shù)、生活偏好、行動軌跡、工作履歷的時候,被交出去的個人隱私自然就越來越多,信息安全隱患就越來越嚴重。早在1996年由美國信用調(diào)查機構(gòu)Equifax與隱私學(xué)者Alan Westin合作進行的調(diào)查中,便有89%的受訪美國公眾擔(dān)心自己的隱私安全。[23]58時至今日,即便隱私問題伴隨著大數(shù)據(jù)技術(shù)的應(yīng)用而趨于嚴重,人們卻依然會使用大數(shù)據(jù)技術(shù)帶來的便捷。大數(shù)據(jù)時代標志著社會從有形的物質(zhì)創(chuàng)造價值轉(zhuǎn)向無形的信息創(chuàng)造價值,讓整個社會對于信息資源的依賴性加強。一方面,個體對涉及隱私的個人信息的保護訴求更為強烈,另一方面,個體利用個人信息包括利用他人信息的需求也更為普遍。皮勇教授指出,大數(shù)據(jù)時代的信息流動自由為社會發(fā)展帶來了全新的活力,智慧社會環(huán)境下的經(jīng)濟模式離不開數(shù)據(jù)的開放和利用。對隱私的過度保護不利于社會的發(fā)展,“一個人的隱私可以減少另一個人的自主權(quán)”。[29]而在當(dāng)今社會,技術(shù)的發(fā)展對個人隱私領(lǐng)域的擠占并沒有讓所有社會哀鴻遍野。因此,智能社會的隱私善治可能需要我們突破隱私固有的概念,單方面地強調(diào)隱私保護會限制個體之間溝通與識別,今天的問題不是我們該不該妨礙信息的自由流通,而是如何妥善地使用信息。因此,提高信息、數(shù)據(jù)的安全性,完善對信息主體隱私的保護是人工智能乃至所有大數(shù)據(jù)技術(shù)進一步發(fā)展的關(guān)鍵。

        既然人工智能對隱私存在的天然的風(fēng)險性,那么信息的“適當(dāng)”流通、分享則是大數(shù)據(jù)時代隱私場景公正性理論的邏輯起點。隱私規(guī)制不是單向地基于權(quán)利的保護或者對侵權(quán)行為的壓制,而是以社會整體利益作為考量,基于利益關(guān)系的平衡。同時,鑒于隱私權(quán)的本質(zhì)是人格尊嚴無比神圣。維護人格尊嚴是私人信息不希望且不應(yīng)當(dāng)被看到、知曉、干涉的內(nèi)在原因。因此,必須將個人對人格尊嚴的認識和公眾對人格尊嚴的一般理解相結(jié)合來界定隱私權(quán),只有深刻認識其主觀標準才能真正解釋隱私權(quán)的內(nèi)涵,否則,隱私權(quán)的范圍就不能確定,更無法對侵害隱私權(quán)的行為及其危害性予以認定。[30]主客觀判斷標準的動態(tài)性顯然更契合大數(shù)據(jù)時代界定個人隱私的理性邏輯。

        2. 大數(shù)據(jù)時代個人隱私的理性定位

        何謂隱私?至今還沒有一個普遍化的定義被廣為接受。尋找充分而適當(dāng)?shù)亩x就是在尋找本質(zhì)上的觀念或是辨識性的特征。我國學(xué)者將個人隱私界定為私人生活安寧不受他人非法干擾,私人信息保密不受他人非法搜集、刺探和公開。[10]而面對隱私這一“難懂又模棱兩可”的概念的界定,理查德·波斯納的視角有一定的可借鑒性。波斯納并不強調(diào)人格尊嚴、人權(quán)保護之類的價值維護,將隱私視為人們?yōu)榱酥\求好處而進行的投資,并對隱私的非經(jīng)濟學(xué)分析予以批判。這一正一反的論證體現(xiàn)了波斯納對隱私所堅持的不能絕對保護隱私而要兼顧其他社會價值、利益的法學(xué)基本立場。但波斯納將隱私視為中間產(chǎn)品的經(jīng)濟思維在一些論述上不免有些激進,他認為,諸多主張隱私的要求往往涉及到不光彩的信息,人們之所以意欲隱瞞一些私人信息,在于這些信息一旦披露,就會改變他們一直試圖利用的假象。譬如,身患重癥的雇員對雇主隱瞞自己的病情。如果說人們隱匿個人信息是基于這樣的目的,從經(jīng)濟學(xué)上看,基于這樣的信息的法律保護好比允許商品銷售中的欺詐行為。[31]然而,將個人隱私的惡意隱瞞作為獲利工具只是隱私的一小部分內(nèi)容。隱私的諸多案例已經(jīng)表明個人對一些私密信息的遮掩并非純粹為了利益獲得,而在于避免自己人格價值的受損。況且,根據(jù)一般的生活常識,病人有時不愿意向包括親屬在內(nèi)的他人透露自己的疾病的情況,特別是傳染病等可能引發(fā)一定社會后果的疾病情況。病人的診療信息一旦泄露,就可能使病人面臨失去工作、招致他人疏遠的風(fēng)險。

        總而言之,不同社會、不同地域、不同時空下人們對于隱私的理解可能有天壤之別。資產(chǎn)階級革命帶來的人文主義和自由主義思想,工業(yè)革命和電氣革命催生的物質(zhì)文明,使得隱私的觀念先在西方社會深入人心,并形成了兩種不同的隱私文化。總體上來說,美國從自由的角度理解隱私,而歐洲大陸將隱私保護植根于人格尊嚴之上。這也決定了兩種隱私制度擁有不同的價值核心,前者是與政府公權(quán)力抗衡的自由利益,后者是與大眾媒體對抗的個人尊嚴利益。[32]美國人在調(diào)查萊溫斯基案時所公開的大量淫穢材料讓歐洲人覺得美國人不明白何謂對隱私的保護。這種隱私觀念的沖突植根于不同法域下的信息規(guī)制。大陸法熱衷于對日常生活領(lǐng)域的各種私密信息進行面面俱到的保護,但美國法似乎允許在特定場合對他人私密信息的公開,例如,信用報告中對他人信息的披露。[33]不同國家的法律對隱私的定位具有明顯的差異性,不同人之間對隱私的直覺也無法形成統(tǒng)一的認知。進入大數(shù)據(jù)時代,我們正逐漸將隱私的意義從西方文化的拘束之中解放出來,時代特性讓隱私這個概念在人們心中發(fā)生著微妙地改變。在過去,健康狀況、餐飲習(xí)慣、收入乃至婚姻狀況絕對歸入隱私的范疇內(nèi),但大數(shù)據(jù)時代的到來,這些私密的內(nèi)容演化為諸如人工智能之類的大數(shù)據(jù)技術(shù)發(fā)展、進階從而更好地服務(wù)于人類的基礎(chǔ),對這些信息的披露可能就不會侵犯個人的隱私。

        對于隱私定義的眾說紛紜,美國學(xué)者艾倫將其歸咎于隱私在用法與意義上的多邊。隱私一詞所指向的對象與使用的方式、情景包含了多種意義與情況,使得我們很難為隱私下一個單一的定義來窮盡解釋隱私這個概念。而斯庫曼認為,雖然隱私的概念存在狹義、廣義之分,但在這些有寬有窄的隱私概念中,隱私其實讓人們可以對應(yīng)外在世界,決定在公共領(lǐng)域中如何展現(xiàn)自己,隱私讓人具備能動性,發(fā)展個體的主體性。[13]67-68換言之,在大數(shù)據(jù)時代如何回答何謂隱私的問題,取決于我們對于信息社會所賦予的意義與抱有的態(tài)度。

        3. 大數(shù)據(jù)時代隱私保護刑法路徑的構(gòu)造邏輯

        首先,大數(shù)據(jù)時代,諸如人工智能之類的變革性技術(shù)對社會生活各個領(lǐng)域的滲透與適用必然迫使人類重新思考這一技術(shù)所帶來的問題,與現(xiàn)有法律制度的不兼容之處,以及因此可能引發(fā)的政策和法律上的變化。但技術(shù)再強大也不宜將其認定為獨立的刑事責(zé)任主體,以人工智能為例,現(xiàn)實中的人工智能“不具備單獨的認識和意志因素”,并且人工智能的行為“來源于人類思維的輸出”。[34]人類警惕人工智能“黑箱”中產(chǎn)生我們無法揣測的危險思維,但國家刑罰權(quán)的發(fā)動相較于其他的法規(guī)范措施,常會被要求處于更為節(jié)制的地位,對于各種可能會影響到社會發(fā)展的潛在危險源,刑法不至于皆要作出立即的對抗反應(yīng)。為了能夠確實掌握人工智能隱私風(fēng)險在現(xiàn)實中的輻射范圍,那么在對行為特質(zhì)予以類型化的過程中,就必須依據(jù)社會成員的共同生活中那些于知識經(jīng)驗而言可以確定且把握的客觀性利益,而不能只是依據(jù)那些經(jīng)驗上無法具體描述的先驗性道德規(guī)則,甚至是依據(jù)個人純粹主觀上的利益感受,特別是這些主觀上的利益往往會被恣意地冠上道德的形象,導(dǎo)致刑法理論體系的崩潰。因此,大數(shù)據(jù)時代隱私保護刑法路徑的構(gòu)造邏輯需要著眼于技術(shù)本身對相關(guān)法律秩序的違反從而產(chǎn)生的對法益的侵害以及與之相當(dāng)?shù)奈kU性。

        其次,個人信息不僅包含個人隱私信息,還可能包含不涉及個人隱私的信息,隱私信息與非隱私的個人信息都需要法律保護,但保護的程度應(yīng)有所不同。鑒于隱私與個人信息在范疇上的交叉以及司法實踐中的不易區(qū)分,在隱私保護的頂層設(shè)計中將個人信息的內(nèi)容完全地抽離出去并不現(xiàn)實。因此,在隱私保護的刑法領(lǐng)域,區(qū)分個人信息與個人隱私的敏感層級,側(cè)重個人隱私的保護和非隱私個人信息的利用,更能確保刑法的謙抑性和責(zé)任配置的層次性。在數(shù)據(jù)保護頗有建樹的歐盟,上世紀80年代便確立了特殊類型的數(shù)據(jù)保護制度。信息敏感層級的不同,信息使用對個人隱私的風(fēng)險也各異。通過層級的劃分能夠在突出法律對特殊類型的個人信息保護的同時不妨礙對非隱私類個人信息的合理使用。[32]同時,對涉及侵犯隱私的行為應(yīng)當(dāng)采取類型化管理的思維,在對信息采集階段不法行為的入罪化報以謹慎的態(tài)度、對信息收集階段的犯罪行為配置較輕刑罰的同時,從嚴懲治非法使用涉及他人隱私的信息的犯罪行為。既要保證智能時代的刑法規(guī)制在保護個人隱私方面的有的放矢,也要防止犯罪圈的不當(dāng)擴張扼殺了個人信息創(chuàng)造價值的可能。

        再次,罪狀的設(shè)計不能忽視對隱私風(fēng)險的預(yù)防,對隱私權(quán)的保護不能滿足于事后懲罰。德國刑法典中的“侵害私人生活及秘密罪”在保護個人的隱私領(lǐng)域時便設(shè)置了抽象危險犯的立法模式以提前刑法對侵犯個人隱私行為規(guī)制的時機。之所以創(chuàng)設(shè)抽象危險犯,目的是基于對風(fēng)險的有效管控、節(jié)省風(fēng)險管控的成本等因素,針對一些對法益侵害伴有典型危險的行為予以規(guī)制。成立抽象危險犯不以是害結(jié)果為必要條件,特定行為只要具有發(fā)展成實害的可能行就符合定罪的依據(jù)。行為是否具有侵害法益的危險性,往往是經(jīng)過事前的風(fēng)險預(yù)測判斷,但這里的風(fēng)險預(yù)測并非統(tǒng)計學(xué)意義上的風(fēng)險評估。追求數(shù)值上的精準只會讓條文在復(fù)雜的社會事實面前喪失適用的靈活性。刑法中的風(fēng)險預(yù)測僅是國家站在風(fēng)險管控的立場確認對于社會中的特殊風(fēng)險需要以刑法以應(yīng)對,換言之,這是一道刑事政策的論述題而不是一道數(shù)學(xué)題??刂骑L(fēng)險的理念很大程度上已經(jīng)支配了當(dāng)代刑事政策的發(fā)展走向。[35]我國刑法中涉及保護隱私權(quán)的罪名的成立要么要求“情節(jié)嚴重”才予以處罰,要么限定為“造成嚴重后果”才予以追訴,刑法保護路徑的啟動在應(yīng)接不暇的隱私侵犯與不斷增加的隱私風(fēng)險面前,顯得被動且消極。因此,對既有保護個人隱私的刑法條文的修正可考慮刪除上述對啟動處罰權(quán)甚至追訴權(quán)的限制,從而保證刑法對侵犯個人隱私行為的有效介入。

        最后,隱私保護的刑事立法要與行政、民事的制裁手段保持協(xié)調(diào)一致,才能共同服務(wù)于隱私犯罪行為的懲治??傮w而言,民事責(zé)任、行政責(zé)任的構(gòu)造都選擇了個人隱私與個人信息的“二元論”保護模式,立法者也應(yīng)保證侵犯他人信息、隱私行為的刑事法律責(zé)任與整個法律體系銜接。

        猜你喜歡
        個人信息刑法人工智能
        如何保護勞動者的個人信息?
        工會博覽(2022年16期)2022-07-16 05:53:54
        個人信息保護進入“法時代”
        過度刑法化的傾向及其糾正
        法律方法(2021年4期)2021-03-16 05:35:02
        警惕個人信息泄露
        綠色中國(2019年14期)2019-11-26 07:11:44
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        人工智能與就業(yè)
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        下一幕,人工智能!
        刑法適用與刑法教義學(xué)的向度
        刑法論叢(2016年3期)2016-06-01 12:15:17
        釋疑刑法
        浙江人大(2014年6期)2014-03-20 16:20:40
        高清国产美女av一区二区| 欧美人与禽zozzo性伦交 | 午夜精品久久99蜜桃| 综合色就爱涩涩涩综合婷婷| 日韩人妻无码一区二区三区久久99 | ā片在线观看免费观看| 中文字幕不卡在线播放| 亚洲高清自偷揄拍自拍| 校园春色人妻激情高清中文字幕| 果冻传媒2021精品一区| 中文字幕第1页中文字幕在| 青青草视频国产在线观看| 国产精品高潮呻吟av久久黄| 丰满人妻一区二区三区视频53| 亚洲成a人片在线看| 亚洲一区二区三区偷拍自拍| 美利坚日韩av手机在线| 水蜜桃精品一二三| 国产日韩A∨无码免费播放| 日本免费三片在线播放| 日韩欧美中文字幕公布| 无遮挡又黄又刺激又爽的视频| 亚洲男人堂色偷偷一区| 91精品国产高清久久福利| 国产乱妇无码大片在线观看 | 美女福利视频网址导航| 国产区女主播在线观看| 真实单亲乱l仑对白视频| 久久一区二区三区不卡| 日韩国产精品一区二区三区 | 蜜臀av在线一区二区尤物| 亚洲av无码成人精品区狼人影院 | 国产av一区二区三区传媒| 91福利视频免费| 日本视频一区二区三区三州| 精人妻无码一区二区三区| 亚洲永久精品ww47| 激情人妻网址| 上海熟女av黑人在线播放| 男女啪啪无遮挡免费网站| 国产精品黄色片在线观看|