李俠 霍佳鑫
人臉識別技術(shù)帶給個體的最大變化就是人的透明化。透明化會讓人的自由和權(quán)利被侵蝕或者損害。技術(shù)所及之處私人領(lǐng)域被徹底摧毀,而自由與權(quán)利大多寄居于私人領(lǐng)域,這已是技術(shù)發(fā)展的普遍現(xiàn)象。
2019年5月14日,美國舊金山市通過立法,以絕對優(yōu)勢通過禁止使用人臉識別技術(shù),從而成為美國第一個禁止該技術(shù)濫用的城市,估計也是全世界第一個。反觀當下,國內(nèi)人臉識別技術(shù)從研究到應(yīng)用搞得如火如荼,正在快速向各個領(lǐng)域擴散。如何看待技術(shù)過度使用這個話題,已經(jīng)成為當下亟需認真思考與反思的緊迫公共議題。
一、技術(shù)帶來的透明化與人類福祉的核算
按照學(xué)界共識,所謂的人臉識別原本屬于計算機視覺研究范疇,對于人臉識別而言,特指計算機利用分析比較人臉視覺特征信息自動進行身份鑒別的智能技術(shù)(景晨凱、莊雷,2018)。這項技術(shù)的發(fā)展大體經(jīng)歷了三個階段:第一階段始于20世紀60年代;第二階段始于20世紀90年代;第三階段是自新世紀以來。隨著深度學(xué)習(xí)的快速發(fā)展,以及大數(shù)據(jù)的運用、暴力計算的流行(目前人工智能領(lǐng)域的主導(dǎo)范式之一),人臉識別研究出現(xiàn)井噴式發(fā)展。不論喜歡與否,我們正在遭遇一種新的生存環(huán)境。在此有必要分析一下新技術(shù)帶來的風(fēng)險類型問題,并在此基礎(chǔ)上尋找解決之策。
任何技術(shù),由于其未來發(fā)展的不確定性,可以對其可能引發(fā)的風(fēng)險進行簡單分類。根據(jù)后果的不同,大體上可以把技術(shù)引發(fā)的風(fēng)險劃分為四類,按美國政策專家希拉?賈薩諾夫的劃分方法,我們可以得到四個風(fēng)險象限,見下圖:
根據(jù)上圖劃分,人臉識別技術(shù)屬于哪類風(fēng)險呢?先從發(fā)生概率角度來看,人臉識別技術(shù)的濫用顯然屬于高概率事件。這是因為,有無數(shù)機構(gòu)想要使用這些技術(shù),它所提供的信息與數(shù)據(jù)具有多重價值,不論是經(jīng)濟原因還是其他原因,這種需求都是巨大的,再加上我國相關(guān)立法的嚴重滯后與執(zhí)行中存在的問題,由此決定了人臉識別技術(shù)的擴散屬于高概率事件。那么這種技術(shù)的風(fēng)險程度如何?這是一個比較難以歸類的問題。對于個人而言,人臉識別技術(shù)造成的最大危害在于個人隱私的泄露,僅就此點而言,個人隱私的價值還是較小的。但是,由于整個社會是由無數(shù)個人組成的,換言之,人臉識別技術(shù)對于整個社會造成的風(fēng)險卻是巨大的,可以用公式簡單表達如下:社會總風(fēng)險=Σ個人風(fēng)險的總和。也許更為可怕的是,人臉識別技術(shù)會造成整個社會治理模式的完全改變,使整個社會處于有選擇的透明化,對于個人而言,他的自由與權(quán)利都將受到嚴重侵蝕??梢栽O(shè)想一下,如果“天眼工程+人臉識別”,將會帶來什么結(jié)果?筆者曾開玩笑說:互聯(lián)網(wǎng)時代,歷史悠久的小偷行業(yè)已經(jīng)終結(jié)。綜合上述兩點,我們可以把人臉識別技術(shù)定性為高概率高風(fēng)險技術(shù),按照美國經(jīng)濟學(xué)家米歇爾?渥克的說法,這就是一種典型的灰犀?,F(xiàn)象。由于個體認知的局限性,當今社會最容易出現(xiàn)的誤判就是把人臉識別技術(shù)當成“高概率低風(fēng)險”類型。造成這種錯誤的原因在于,個體僅從個人收益受損的角度來推斷該技術(shù)給整個社會帶來的風(fēng)險,是典型的以偏概全認知模式。溫水煮青蛙現(xiàn)象的后果就是,一開始的綏靖選擇,必然導(dǎo)致結(jié)果的無法逆轉(zhuǎn)。
作為反思的前提,在推行任何一項技術(shù)時應(yīng)該采取的倫理原則是什么?由于我們通常并不能準確預(yù)知我們行動的后果會是什么,尤其是考慮到在技術(shù)的前端與中端還處于嚴格的技術(shù)領(lǐng)域范圍內(nèi)時,黑箱結(jié)構(gòu)帶來的后果更是無從預(yù)期,為了降低風(fēng)險采取分布式道德是合理的,即每一環(huán)節(jié)都負載道德責(zé)任。對于社會而言,這時所能做的就只有從開端與終端處對技術(shù)進行倫理約束。前者就是哲學(xué)家們熱衷的道義論,即決定去做一件事,這種決定在動機上是否是善的,這種考慮固然有其價值,能夠?qū)δ骋恍┬袆诱咂鸬筋A(yù)先的警示作用,但是作用微弱,大多受眾被排除在技術(shù)之外。基于這種考慮,從終端處開始對技術(shù)進行倫理評價,就能把潛在受眾最大限度上包括進來,從而增加倫理的約束力。針對技術(shù)分布鏈條的不同階段,進行規(guī)制,劃分有效責(zé)任區(qū)間,恰恰是對技術(shù)進行倫理約束的常規(guī)做法。這也是技術(shù)擴散時遭遇到的一個具有普遍性的問題。對于作為技術(shù)受眾的我們而言,可以采用后果論的處理方式約束技術(shù),按照哲學(xué)家德里克?帕菲特的說法:“最好的結(jié)果是那個帶給人們的收益減去負擔(dān)后的最大凈利益總量的結(jié)果,或者按照這個主張的快樂主義版本來說,是那個帶給人們減去悲慘之后最大凈幸??偭康慕Y(jié)果?!?/p>
那么,人臉識別技術(shù)的成本收益情況如何?
像人臉識別這樣的技術(shù),其使用是有很高門檻的,換言之,只有政府、準政府與大型商業(yè)機構(gòu)才有可能被允許使用。由此可知,這項技術(shù)應(yīng)用的最大潛在收益也將由這些機構(gòu)獲得,只有少部分溢出會被消費者分享。比如,大型公共機構(gòu)、機場、火車站等由于使用人臉識別技術(shù)會導(dǎo)致安全性的提升,這少部分流向消費者的溢出收益會被當做推行該技術(shù)的合理借口,而大部分收益則會被使用者完全獨享。相反,人臉識別技術(shù)帶來的風(fēng)險與成本卻要全體消費者分擔(dān),比如個人隱私的大范圍泄露等。從這個意義上說,在人臉識別技術(shù)擴散的所有領(lǐng)域中,機構(gòu)與個體消費者在權(quán)利與收益方面處于完全不對等的情形,前者是積極的推動者,后者的自我保護能力有限。
人臉識別技術(shù)帶給個體的最大變化就是人的透明化。透明化會讓人的自由和權(quán)利被侵蝕或者損害。技術(shù)所及之處私人領(lǐng)域被徹底摧毀,而自由與權(quán)利大多寄居于私人領(lǐng)域,這已是技術(shù)發(fā)展的普遍現(xiàn)象。我們不妨就人臉識別技術(shù)可能出現(xiàn)的負面后果做一些簡單掃描,不難明白這個道理。
從經(jīng)濟層面來說,假如技術(shù)進一步發(fā)展,人臉識別技術(shù)與醫(yī)院的大數(shù)據(jù)相結(jié)合,通過對一些特定參數(shù)的設(shè)定,人臉識別技術(shù)完全有可能比較準確地判定一個人是否健康,或者是否有什么疾病。畢竟醫(yī)院對于某類疾病擁有豐富的大數(shù)據(jù),這些數(shù)據(jù)包含該疾病的一些共性特征。那么,通過人臉識別技術(shù),這些個體信息對于某些機構(gòu)來說就可能成為剝奪消費者的利器。比如保險公司,它借助于人臉識別技術(shù),最大限度上降低了信息不對稱現(xiàn)象,通過拒絕對某類人群投?;蛘咛岣弑YM,從而實現(xiàn)一本萬利的生意。問題是,保險本來是人類為了應(yīng)對未來的不確定性與風(fēng)險所設(shè)計出來的一種防范措施,但是,技術(shù)可以使商家最大限度地消除這些不確定性,如此一來,個體的投保行為就沒有了任何意義。人臉識別技術(shù)并沒有給消費者帶來預(yù)期收益,反而是損失最大化了。所以,在技術(shù)進步面前,任何個體都是渺小的。
從政治方面來說,如果某些執(zhí)行特殊任務(wù)的國家安全人員被人臉識別出來,那么,他還能完成國家指派的任務(wù)嗎?遺憾的是,在新技術(shù)進步層面,人類陷入了囚徒困境:沒有最優(yōu)解,只有次優(yōu)解。沒有任何國家會放棄這項研究,否則就會出現(xiàn)嚴重利益受損,只有通過加速這項技術(shù)的進步,才能在競爭中不至于被對方占便宜。一旦進入囚徒困境,就會加快技術(shù)進步的腳步,這樣一來,作為個體的人就會成為最大的受害者,而由此帶來的利益卻被機構(gòu)分享。
在道德方面,人臉識別技術(shù)也會帶來一些難以處理的困境。比如,研究機構(gòu)可以對所謂的聰明人進行數(shù)據(jù)收集,然后用這些數(shù)據(jù)去衡量和評價人才,同樣是很可怕的事情。至于“以貌取人”更是成為一種無法根除的認知偏見。再比如,隨著對人類微表情、性格特征了解的深入,以及算法的進步,人臉識別技術(shù)甚至有可能發(fā)現(xiàn)個體的性取向(如同性戀等)。這又是屬于高度隱私的問題,這些信息一旦被泄露或被利用,會帶來很多麻煩的倫理問題。從上述這些案例中,可以清晰發(fā)現(xiàn),人臉識別技術(shù)有著廣泛的市場需求,而市場上一旦有需求,將極大地推動技術(shù)進步。下面可以通過一些數(shù)據(jù)來佐證我們的擔(dān)憂。(表1)
從表1中可以直觀發(fā)現(xiàn),近5年來,人臉識別研究呈現(xiàn)出快速升溫跡象,不論是純粹技術(shù)領(lǐng)域還是人文社科領(lǐng)域,這種升溫趨勢都非常明顯。短短5年時間,人文社科領(lǐng)域關(guān)于人臉識別技術(shù)的文獻增長了6倍,但是從總體來看,人文社科的研究仍然遠遠落后于技術(shù)領(lǐng)域的發(fā)展。從這個意義上說,加強人文社科領(lǐng)域的研究并沒有制約技術(shù)的發(fā)展,反而是嚴重滯后了。對于以人臉識別技術(shù)為代表的高科技發(fā)展,必須輔以倫理約束已經(jīng)成為共識,雖然人文社科的約束力比較弱,但是至少會起到一種潛在的有益影響,如果連這一環(huán)節(jié)都省略了,那么技術(shù)的自主發(fā)展將是一條充滿未知的旅途。
論文僅僅從一個側(cè)面反映了研究現(xiàn)狀,而專利則表明技術(shù)在快速向市場領(lǐng)域擴散。通過檢索發(fā)現(xiàn),在過去的27年間(1990—2016),全球在人臉識別技術(shù)領(lǐng)域頒布了15592個專利族,其中排名前四的國家分別是:中國大陸(5322件)、日本(3810件)、美國(3113件)和韓國(1844件),這四個國家共占相關(guān)專利的90%以上(章帆等,2018)。暫且不論專利的質(zhì)量與水平高低,中國的機構(gòu)與企業(yè)對于該項技術(shù)表現(xiàn)出強烈的熱情,由此衍生出的擴散速度也是極為驚人的?,F(xiàn)在有越來越多的機構(gòu)開始使用人臉識別技術(shù),甚至筆者所在的高校圖書館都已經(jīng)開始刷臉了(筆者一直懷疑是否有這種必要),更不知社會上還有多少商家和機構(gòu)正躍躍欲試,準備使用這項技術(shù)呢。
二、顱相學(xué)的教訓(xùn)與人臉識別的未來
刷臉時代的到來,不禁讓人想到200年前在歐洲流行甚廣的顱相學(xué)(Phrenology),它是由德國神經(jīng)解剖學(xué)家加爾(F.J.Gall,1758—1828)在18世紀末創(chuàng)立的。加爾認為,人腦的某些區(qū)域與特定功能有關(guān),如智力或性格等,而這些功能的強度可以通過顱骨的形狀表現(xiàn)出來。據(jù)學(xué)者余佳總結(jié),加爾的顱相學(xué)主要包括如下一些內(nèi)容:1.大腦組織是支配人的品性和行為的器官;2.特定部位的大腦組織決定特定的品性和行為;3.大腦組織與其表面的頭骨形狀有關(guān)系,頭骨隆起和下塌,則其內(nèi)部相對應(yīng)的腦組織也會隨之豐滿或單薄;4.腦組織形狀的變化會影響其功能。這些內(nèi)容有些符合科學(xué)事實,而有些則是基于相術(shù)的無根據(jù)聯(lián)想,導(dǎo)致一般人很難真正分辨出哪些是可取的觀點,哪些是錯誤的觀點。公眾對于這種拼盤理論更是各取所需,從而導(dǎo)致顱相學(xué)在19世紀的歐洲和北美頗有市場,一些著名學(xué)者也參與其中,比如發(fā)現(xiàn)大腦語言區(qū)的法國醫(yī)生布洛卡就是狂熱的顱相學(xué)信奉者??陀^地講,顱相學(xué)本是科學(xué)與相術(shù)的混合體,加之加爾本人就是一名科學(xué)家,這使他的這種混合體理論很有迷惑性。這種現(xiàn)象也是科學(xué)史上的經(jīng)典現(xiàn)象:科學(xué)的雜化過程。雜化過程往往需要很多年才能得到有效的清理,即便如此,也無法完全清除其影響,因為即便是錯誤的理論也會有人相信。時至今日,顱相學(xué)仍有市場。
當下的人臉識別技術(shù)與200年前的顱相學(xué)也有很多相似之處。隨著算法與深度學(xué)習(xí)的推進,個人信息的傳輸、交流、轉(zhuǎn)換、分配、擴散、利用等環(huán)節(jié)都是個人無法掌控的,在此背景下,個體透明化已是大勢所趨,也必然帶來彼得?休伯(Peter Huber)所謂的“個人風(fēng)險”與“公共風(fēng)險”不對稱性的增加。
既然人臉識別技術(shù)的潘多拉盒子已經(jīng)打開,那么幻想關(guān)上蓋子的想法就顯得過于天真。在一個透明化時代,如何最大限度上捍衛(wèi)個體的自由和權(quán)利就是我們每個人的責(zé)任。白俄羅斯評論家莫羅佐夫曾說:有些技術(shù)需要公開和透明的倫理,有些技術(shù)需要保密和藏匿的道德。對此,筆者深以為然。人臉識別技術(shù)的應(yīng)用需要公開和透明。由于它涉及無數(shù)人的利益與福祉,那么基于后果引入社會評價就是合理的。為了實現(xiàn)這個目標,做為受眾的我們需要在認知上理解風(fēng)險折現(xiàn)的理念,否則所謂全民參與就是一句空話。
哈佛大學(xué)凱斯?桑斯坦教授曾指出:對于從現(xiàn)在起數(shù)個世紀后才會被感受到其影響的規(guī)制而言,任何合理的折扣率都將會使看起來巨大的收益變得接近于零,而遙遠未來的最差情形就可能看起來一點都不差。桑斯坦教授還是過于樂觀了,對于氣候變化這類長時段的事件來說,他的說法可能是對的,但是對于新技術(shù)的應(yīng)用而言,其生命周期要短得多,這種折現(xiàn)效果很快就會體現(xiàn)出來。我們之所以忽略或者低估不太遙遠的未來風(fēng)險,是因為未來風(fēng)險折現(xiàn)到當下的損失是很小的,從而造成群體性不敏感與道德麻痹現(xiàn)象。如果假定折現(xiàn)率是10%,那么15年后的100元相當于今天的24元。當下?lián)p失24元遠不至于引起人們的認知與道德上的憤怒,正是由于對未來風(fēng)險的習(xí)慣性折現(xiàn),導(dǎo)致我們對于當下風(fēng)險的不敏感,只要你想想上例中的24元損失,它完全在你的承受范圍之內(nèi),故而你也就覺得問題不是很嚴重。人臉識別技術(shù)就是這種具有低敏感性的技術(shù),要記得,溫柔刀也是可以殺人的。
(李俠為上海交通大學(xué)教授,霍佳鑫為上海交通大學(xué)科學(xué)史與科學(xué)文化研究院博士生;本研究得到國家社科基金重大項目“大數(shù)據(jù)環(huán)境下信息價值開發(fā)的倫理約束機制研究”的資助,課題編號:17ZDA023,特此致謝)
責(zé)任編輯:尚國敏