唐家佳
20 世紀兩部反烏托邦名著《1984》(1949)和《美麗新世界》(1931)分別預言過未來社會。前者表示未來是一種被領導階層以權力和技術高度控制的社會,同時可以接收和發(fā)送信息的“電屏”無時無刻都在監(jiān)視著人們的一舉一動。后者則認為恰好相反,領導層不需要動用暴力機器,而是利用意識形態(tài)國家機器營造了一個歌舞升平的“美麗新世界”,讓被統(tǒng)治者根本不想從迷夢中醒來。二戰(zhàn)以來,西方學界認為人類社會的發(fā)展趨勢是從《1984》走向《美麗新世界》,但是,網絡時代尤其是人工智能時代的到來,似乎正在倒轉這一切,屬于私有的個人信息在人工智能技術的助力下很容易遭到監(jiān)視和泄露,所謂的隱私不復存在,從而使得這世界似乎從《美麗新世界》又開始走向《1984》。本文以此為視角,分析自工業(yè)革命以來科技的變革對人類社會的多次重構及伴生的影響,思考在今天的人工智能時期,技術發(fā)展所帶了的隱私風險。
學術界普遍認為人工智能學科的誕生是在1956年達特茅斯召開的關于人工智能的研討會,在當年會議上起草了一份建議書中首次提出人工智能(Artificial Intelligence)這個概念。進入21世紀,深度學習和大數據的廣泛應用,人工智能進入了第三次研發(fā)浪潮,這其中最具代表性的事件要屬2016 年谷歌研發(fā)的人工智能圍棋程序戰(zhàn)勝了世界排名第一的圍棋選手李世石,這場令人出乎意料的人機對弈的結果引發(fā)了人工智能將如何改變世界的廣泛討論,隱藏在這場討論之中的是對人工智能未來前景的深深憂慮。正如尤瓦爾·赫拉利所說:“以人為中心的世界觀正在走向以數據為中心的世界觀,這種轉變并不只是一場哲學意義上的革命,而是會真真切切地影響我們的生活”[1]。烏爾里希·貝克則更加悲觀的認為,我們的社會己經邁入到風險社會階段,貝克將這種風險定義為“人工智能風險”,是人工智能技術發(fā)展所引發(fā)的人為的、不可預見的不安全性,短期的失業(yè)、隱私破壞、技術依賴,中期的威脅公眾安全、加劇社會不平等,長期將消解人類主體地位[2],本文著重探討人工智能時代的隱私風險。
學術界目前主要將隱私分為信息隱私、空間隱私、自決隱私等類型。對于前兩種隱私比較容易理解,而自覺隱私則是指個人不受外界干擾、可自主決定其隱私生活的權利,它建立在權利人意思自由的基礎上。[3]目前,以上3 種隱私均已受到人工智能不同程度的侵犯,自決隱私的侵犯通常表現的更為隱蔽,人作為數據產生的所有者卻對其沒有控制權,即所謂的“自決權”。
筆者認為,在人工智能時代還有一種基于人類個體生物信息的隱私問題,筆者稱之為“生物信息隱私”,生物信息就是人體以DNA 編碼的遺傳信息,通過基因主導的人體的面部特征、生理特征和生物行為等,這類隱私信息目前的應用主要在人臉圖像識別和醫(yī)療健康領域。在今天基于計算機視覺(Computer Vision,CV),也稱為機器視覺(Machine Vision,MV)的人臉識別技術正在走向日常生活中的應用場景(如刷臉解鎖、刷臉支付、刷臉進站等),這些應用通過讀取人體細微差別的生物信息進行編碼和建立數據庫,利用這項技術可以從眾多個體中精確的識別出某個人,如果沒有很好地保護人臉這一具有弱隱私性的生物特征,同樣會對公民的隱私甚至人生安全造成威脅。而在醫(yī)療健康領域,人工智能主要依靠讀取患者的身體的生物信息和病理信息,建立關于患者的病歷庫并以此綜合形成龐大的醫(yī)療數據庫以幫助解決眾多醫(yī)學問題。目前人工智能在醫(yī)療健康領域的應用已經由包括醫(yī)療機器人、智能診療、智能影像識別等。這些技術看似會成為人類社會發(fā)展的福音,但爭議仍然很大。因為個人偏好還可能隨著使用習慣、社會環(huán)境的改變而變化,而生物特征一旦被大數據所掌握,人類個體的一切神秘感都將消失,實則是對隱私最赤裸的監(jiān)控。
德國著名的哲學家馬克思·韋伯曾提出理性或合理化的概念,指的是“服從于合理決斷標準的那些社會領域的擴大,與此相對應的是社會勞動的合理化,其結果是工具活動(勞動)的標準也滲透到生活的其他領域(生活方式的城市化,交通和交往的技術化)”[4],韋伯的表述意在說明現代社會“合理化”的進程是和通過意識形態(tài)將科學技術的發(fā)展納入系統(tǒng)化和規(guī)范化結合在一起的。對此,馬爾庫塞認為,也許技術理性本身就是意識形態(tài)層面的。不僅技術理性的運用,而且技術本身就是(對自然和人的)統(tǒng)治,就是方法的、科學的、籌劃好了的和正在籌劃著的政治。即技術的恰如其分的運用和(在既定情況下確定目標時)諸系統(tǒng)的建立[5]。在韋伯和馬爾庫塞對理性或合理化的闡釋中,都提到了關于技術的合理化運用和從意識形態(tài)層面考慮規(guī)范技術運用的制度化標準。對于現階段人工智能行業(yè)的發(fā)展,確實制造了人類想要的東西,并將很多想象變成了現實,也創(chuàng)造了大量的物質財富,但是所有科技的發(fā)展背后都存在著滿布危機的“達摩克里斯之劍”,潛藏著的棘手問題必須予以解決,這個過程需要多方共同參與。
首先一點就是韋伯和馬爾庫塞談到的關于技術的合理性運用。韋伯將對合理性的闡釋分為兩種,一種是價值合理性,一種是工具合理性。價值合理性強調處事動機的合理性并且要使用合理合法的手段去達到某種目的。工具理性則強調一切以效果最大化為標準,行為動機趨于功利性而漠視情感和倫理。工具理性給資本主義帶來有力的影響是促進了它的發(fā)展,但此后漸漸走向極端化,于是韋伯開始思考價值合理性對社會的發(fā)展同樣重要。筆者認為關于技術的合理化應用實質在于實現價值合理性和工具合理性的兩者的融合。明確任何科技發(fā)展到最后都要面臨倫理問題的挑戰(zhàn),關于技術合理性的使用不能缺乏對“人”的人文價值層面的關懷,而這個人在技術層面已經被視為由數字和字母編碼而成的數據。因此無論是在商業(yè)層面、技術應用層面還是醫(yī)療健康等層面,必須要注重對關聯(lián)的隱私數據進行合理的保護,保護大眾作為隱私信息生產的主體權利,并且嚴格要求合理化使用,不能隨意泄露、販賣給第三方或者是用于其他不正當用途。
對于技術開發(fā)者而言,對在當前的歷史時期人工智能技術的應用、開發(fā)和風險要有充分的掌握和了解。當前,需要人工智能技術開發(fā)人員去解決有關的隱私風險主要集中在兩個方面,一方面是人工智能研發(fā)過程中難以突破的技術缺陷導致隱私難以被把控,另一方面是人工智能產品本身產生的難以被預知的突發(fā)行為帶來的隱私泄露風險。前者有賴于開發(fā)者們不斷進行領域創(chuàng)新,沖破技術壁壘,利用技術自身去規(guī)避隱私風險。后者從實質來看,仍然是通過人的智力被研發(fā)出來并受到研發(fā)人員主體的控制,因此研發(fā)人員在完善專業(yè)領域技術開發(fā)的同時仍需要遵循一定的技術倫理,并為人工智能的失控行為承擔應有責任。
人工智能技術的出現確實實現了人類對過去世界眾多美好的想象,正在重塑和重構我們的生活的方方面面,但不可否認的是,同時也將世界置于更多的挑戰(zhàn)之下。面對這些問題的困惑時我們有必要回過頭去思考“科技真正想要的是什么”。凱文·凱利在《技術想要什么》中提到關于科技的需求,科技真正追求的其實和我們人類的需求一樣,我們希望能夠創(chuàng)造更多更有意義的價值?!耙豁椉夹g找到自己在世界上的理想角色后,會積極的為其他技術增加自主性、選擇和機會,我們的任務是引導每一項新發(fā)明培育這種內在的‘善’”[6]。因此我們在思考人工智能技術對隱私問題帶來的影響時有必要回到技術發(fā)展的“初心”需求,即對價值的追求。正確認識人工智能技術的本質追求和其對社會生活各方面帶來的影響,從技術的開發(fā)、應用等層面多維度協(xié)同合作,規(guī)范行業(yè)管理,如此才能在隱私問題上找到出路,重新人們對技術的信心。