全 燕
臉在人類互動(dòng)中扮演著核心角色,對(duì)人臉的識(shí)別問(wèn)題在社會(huì)技術(shù)變革中也處于中心地位。2015年,美國(guó)谷歌公司為人臉識(shí)別開(kāi)發(fā)了一款名為FaceNet的算法軟件,它通過(guò)提取人臉的128個(gè)特征點(diǎn),包括眼距、鼻子長(zhǎng)度、下巴底部、眉毛內(nèi)部輪廓等來(lái)確定獨(dú)特個(gè)體的身份。2016年,HyperFace算法的人臉生物識(shí)別訓(xùn)練已經(jīng)達(dá)到了97.9%的準(zhǔn)確率。到了2019年,基于深度神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別算法據(jù)稱已達(dá)到了99.9%的精度。隨著平臺(tái)企業(yè)、科技公司陸續(xù)加入研發(fā)和使用人臉識(shí)別的主流行列,算法的生物識(shí)別技術(shù)從安全領(lǐng)域向商業(yè)和社交媒體應(yīng)用快速拓展。從看似無(wú)害的美圖自拍,到倫理上可疑的種族或個(gè)性特征分析,人臉識(shí)別正在迅速融入到日常生活實(shí)踐中。而當(dāng)原本為罪犯設(shè)計(jì)的技術(shù)被廣泛部署于普通人的世界,當(dāng)被監(jiān)視成為個(gè)體生存的永恒狀態(tài),我們也看到了一幅技術(shù)應(yīng)用的反烏托邦圖景:谷歌的照片應(yīng)用程序會(huì)將非裔美國(guó)人分類為大猩猩;在預(yù)測(cè)性警務(wù)中,人臉識(shí)別算法對(duì)深色皮膚的受試者有更高的誤分類率……這些匪夷所思的結(jié)果不僅僅是機(jī)器偏見(jiàn)的表現(xiàn),也是一種微觀政治現(xiàn)象。
出于對(duì)算法生物識(shí)別技術(shù)被濫用的擔(dān)憂,公眾限制和抵制的呼聲日益高漲。在美國(guó),舊金山市對(duì)人臉識(shí)別技術(shù)發(fā)出了禁令,隨后多個(gè)城市考慮禁止或暫停這項(xiàng)技術(shù);在歐盟,被稱為人類歷史上第一部數(shù)據(jù)憲法的《一般數(shù)據(jù)保護(hù)條例》(GDPR)對(duì)人臉識(shí)別技術(shù)進(jìn)行了嚴(yán)格限制;在中國(guó),包括規(guī)范人臉識(shí)別應(yīng)用在內(nèi)的全新的《個(gè)人信息保護(hù)法》也于2021年11月1日起正式實(shí)施。而迫于公眾壓力,平臺(tái)企業(yè)和科技巨頭們也開(kāi)始紛紛整改:亞馬遜宣布對(duì)美國(guó)警方使用其人臉識(shí)別軟件實(shí)施一年的暫停期;IBM宣布將退出一般性的人臉識(shí)別領(lǐng)域;Facebook將停止在用戶的照片和標(biāo)簽建議中默認(rèn)使用面部識(shí)別功能;微軟悄然關(guān)閉了號(hào)稱全球最大的公開(kāi)人臉數(shù)據(jù)庫(kù)MS Celeb……各國(guó)的立法努力和商業(yè)公司的退守反映出人們普遍焦慮于作為個(gè)性和身份標(biāo)志的人臉在算法規(guī)訓(xùn)下的失控狀態(tài)??梢?jiàn),人臉的生物識(shí)別并不是單純?yōu)樯矸莨芾矶渴鸬闹辛⒓夹g(shù),圍繞人臉識(shí)別算法的爭(zhēng)議也不應(yīng)被簡(jiǎn)單地理解為是對(duì)隱私泄露問(wèn)題的質(zhì)疑。我們提出,人臉識(shí)別技術(shù)的廣泛應(yīng)用,在微觀政治層面引發(fā)了一種社會(huì)心理現(xiàn)象——“算法焦慮”(algorithmic anxiety)。為詮釋這一問(wèn)題,我們嘗試從吉爾·德勒茲(Gilles Louis Rene Deleuze)和費(fèi)利克斯·加塔利(Felix Guattari)提出的“臉性”(faciality)概念出發(fā),深度解析人臉識(shí)別算法的政治邏輯,探討在算法權(quán)力背景下,社會(huì)征服和機(jī)器役使的新發(fā)生機(jī)制,在此基礎(chǔ)上沿索倫·克爾凱郭爾(Soren Aabye Kierkegaard)的思想,尋找人臉識(shí)別政治中算法焦慮的根源,并從建設(shè)數(shù)字社會(huì)倫理契約的角度探索算法焦慮的緩釋路徑。
早在2006年,歐盟邊檢局的一份題為《邊境安全生物識(shí)別技術(shù)》的報(bào)告中,就詳細(xì)闡釋了所謂人臉識(shí)別的自然路徑。報(bào)告提到,人臉是最自然的生物識(shí)別模式,這是人類在其社會(huì)環(huán)境中識(shí)別彼此的最有效途徑,而生物特征的人臉識(shí)別技術(shù)是對(duì)上述自然模式的一種擴(kuò)展。它通過(guò)計(jì)算機(jī)分析受試者的面部結(jié)構(gòu),利用這些信息程序創(chuàng)建一個(gè)獨(dú)特的模板,其包含所有的數(shù)字?jǐn)?shù)據(jù),然后,這個(gè)模板可以與非常龐大的面部圖像數(shù)據(jù)庫(kù)進(jìn)行比較,以識(shí)別受試者。①然而,人臉識(shí)別經(jīng)歷從肉眼辨別到數(shù)字化的生物特征識(shí)別,這個(gè)轉(zhuǎn)變并不是像這份報(bào)告中所稱的,是一條自然路徑的擴(kuò)展。當(dāng)實(shí)際個(gè)體與儲(chǔ)存在人類大腦記憶中的圖像的比較過(guò)程,演變?yōu)橐粋€(gè)生物特征模板與一個(gè)大型數(shù)據(jù)庫(kù)中的許多其他模板的比較過(guò)程,實(shí)際上意味著人臉識(shí)別已經(jīng)從社會(huì)和個(gè)人互動(dòng)的實(shí)踐,轉(zhuǎn)變?yōu)楣倭呕?、制度控制的?shí)踐。由此也帶來(lái)了問(wèn)題的進(jìn)一步復(fù)雜化:當(dāng)人臉的生物識(shí)別過(guò)程被描述為是自然識(shí)別的延伸,是模仿正常的大腦活動(dòng)的時(shí)候,就可能導(dǎo)致人們一時(shí)間很難意識(shí)到將人臉轉(zhuǎn)化為機(jī)器可讀所帶來(lái)的巨大風(fēng)險(xiǎn)。
與數(shù)字化指紋和虹膜掃描等其他生物特征識(shí)別方式不同,人臉識(shí)別算法系統(tǒng)價(jià)格低廉、不惹人注目,而且可以在不得到被監(jiān)視者主動(dòng)同意的情況下在后臺(tái)操作,通過(guò)算法函數(shù)化的人臉識(shí)別遂成為監(jiān)視和安全系統(tǒng)建設(shè)的強(qiáng)有力工具。但人臉識(shí)別算法不應(yīng)該被簡(jiǎn)單地理解為是一種技術(shù),而應(yīng)被視為一種強(qiáng)大的社會(huì)政治杠桿,它重新配置人的身份,人臉被重新概念化、政治化,人臉識(shí)別算法在新社會(huì)控制體系中也扮演著重要角色。因此,對(duì)人臉識(shí)別算法的政治分析需要一個(gè)新的概念框架。帶著這個(gè)目標(biāo),本文將通過(guò)德勒茲和加塔利關(guān)于“臉性”的概念棱鏡來(lái)折射人臉識(shí)別算法的政治意識(shí),并提出“臉性政治”(politics of the face)的分析框架。
如果說(shuō)人臉識(shí)別是人臉表征實(shí)踐的漫長(zhǎng)歷史的一部分,那么人臉就不應(yīng)該被認(rèn)為是普遍的或自然賦予的,而應(yīng)該被看作是特定社會(huì)組織的產(chǎn)物。這就是德勒茲和加塔利提出“臉性”概念的目的,即在個(gè)體與他者的倫理關(guān)系和其主體性的構(gòu)成中質(zhì)疑臉的普遍性。對(duì)于德勒茲和加塔利來(lái)說(shuō),臉和頭在本質(zhì)上是不同的,頭屬于動(dòng)物的身體范疇,而臉屬于人類的個(gè)性領(lǐng)域,是由特定的社會(huì)實(shí)踐產(chǎn)生的,是產(chǎn)生的特定的符號(hào)制度。②因此,德勒茲和加塔利在反對(duì)唯心主義人類學(xué)的同時(shí),主張將人臉相對(duì)化和歷史化。這即是說(shuō),人臉總是政治的,它的重要性并不是來(lái)自某種必要的或先天的條件,而是來(lái)自某種權(quán)力的集合,即某種政治。然而,這并不意味著臉產(chǎn)生并解釋了社會(huì)權(quán)力,而是說(shuō)某些權(quán)力的集合需要臉的產(chǎn)生。德勒茲和加塔利曾舉例說(shuō),原始社會(huì)并不需要臉作為權(quán)力機(jī)構(gòu),但基督教引入了臉的概念,基督的臉既表現(xiàn)為他的個(gè)體性(它的現(xiàn)世存有),也是他的普遍性(它的神圣存在)的標(biāo)志。進(jìn)而可以判斷,在現(xiàn)代世俗社會(huì)中,個(gè)人的臉孔既是其獨(dú)特個(gè)性的標(biāo)志,也成為其普遍人性的標(biāo)志。③因此,從基督教誕生到現(xiàn)代西方社會(huì)形成這一世俗化的過(guò)程中,每個(gè)人都像基督一樣,為了“成為”一個(gè)個(gè)體而必須“獲取”一張臉。例如文藝復(fù)興時(shí)期的肖像畫(huà)與近代的攝影術(shù),都是在不斷拓寬臉的社會(huì)生產(chǎn)進(jìn)程。這是臉性政治的發(fā)端,同時(shí)也與米歇爾·???Michel Foucault)在《規(guī)訓(xùn)與懲罰》中所指出的政治邏輯相吻合。
福柯借用“全景敞視監(jiān)獄”概念來(lái)揭示19世紀(jì)規(guī)訓(xùn)制度的權(quán)力運(yùn)作機(jī)制。作為一種普遍的、典型的空間權(quán)力實(shí)踐模式,它代表的是“一種被還原到理想形態(tài)的權(quán)力機(jī)制的示意圖”④。進(jìn)一步審視這一微觀政治學(xué)原理,可以發(fā)現(xiàn)全景監(jiān)獄實(shí)際上“是一種分解成觀看/被觀看二元統(tǒng)一體的機(jī)制”⑤。在這個(gè)特殊的空間裝置中,權(quán)力話語(yǔ)被分配了最佳的“觀看”位置,監(jiān)視成為一種隱蔽的空間管制策略和主體規(guī)訓(xùn)路徑,“每個(gè)人在這種目光的壓力之下,都會(huì)逐漸自覺(jué)地變成自己的監(jiān)視者,這樣就可以實(shí)現(xiàn)自我監(jiān)禁。這個(gè)辦法真是妙極了:權(quán)力可以如水銀瀉地般地得到具體而微的實(shí)施,而又只需花費(fèi)最小的代價(jià)”⑥。??逻M(jìn)一步指出,空間規(guī)訓(xùn)的最終結(jié)果就是將現(xiàn)代社會(huì)變成一個(gè)龐大的監(jiān)視網(wǎng)絡(luò),其目的就是“把整個(gè)社會(huì)機(jī)體變成一個(gè)感知領(lǐng)域”⑦。繼??轮?德勒茲和加塔利用社會(huì)征服(social subjection)和機(jī)器役使(machinic enslavement)的概念進(jìn)一步闡釋了權(quán)力規(guī)訓(xùn)機(jī)制。他們認(rèn)為,在當(dāng)代資本主義權(quán)力關(guān)系的再生產(chǎn)中,“(社會(huì))征服和(機(jī)器)役使形成了并存的兩極”⑧,從社會(huì)征服的角度來(lái)看,個(gè)體與機(jī)器的關(guān)系就是主體與客體的關(guān)系。在征服狀態(tài)下,個(gè)體作為主體,通過(guò)客體機(jī)器對(duì)另一個(gè)個(gè)體實(shí)施控制行為,客體機(jī)器是主體行為所使用的手段或中介。而從機(jī)器役使的角度來(lái)看,個(gè)人并不是站在機(jī)器的對(duì)面,而是與機(jī)器相連,在役使的關(guān)系中,人類和機(jī)器成為圍繞著資本、信息的輸入和輸出而組織的生產(chǎn)過(guò)程中可互換的部分。換句話說(shuō),在社會(huì)征服中,主體作為一種更高的統(tǒng)一體而存在;而在機(jī)器役使中,沒(méi)有主體,只有身體。例如,社會(huì)征服創(chuàng)造了男人、女人、老板、工人等角色,它產(chǎn)生具有身份的個(gè)體主體,而機(jī)器役使則創(chuàng)造了去主體化的過(guò)程。它將主體分割開(kāi)來(lái),使其碎片化、流動(dòng)化,變成了整個(gè)社會(huì)機(jī)器的組成部分。德勒茲和加塔利認(rèn)為規(guī)訓(xùn)(社會(huì)征服)與控制(機(jī)器役使)二者可以同時(shí)并存。
福柯、德勒茲等人的理論可以用來(lái)解釋人臉識(shí)別算法作為一種臉性政治實(shí)踐的意義,并從中看出一種整合權(quán)力是如何發(fā)揮作用的。人臉識(shí)別算法表面上將一定的社會(huì)秩序自然化為必要的與客觀的,而實(shí)質(zhì)上,作為一種規(guī)訓(xùn)機(jī)制,人臉識(shí)別算法正是資本主義權(quán)力關(guān)系的再生產(chǎn)所必需的。我們看到,算法將統(tǒng)計(jì)分析與特定的人臉聯(lián)系起來(lái)的過(guò)程,更像是個(gè)體化(personalization)過(guò)程,而不是個(gè)性化(individualization)過(guò)程,因?yàn)閺臋C(jī)器役使的角度來(lái)看,人臉識(shí)別算法并不是個(gè)性化的工具,它不涉及意識(shí)和表征,也沒(méi)有一個(gè)主體作為參照,它只是生產(chǎn)、計(jì)算、分析元數(shù)據(jù)的計(jì)算控制機(jī)制。就像無(wú)處不在的攝像頭,它不識(shí)別人類角色,不識(shí)別人類本身,也不需要人類旁觀者,但卻能夠?qū)⒔o定的對(duì)象定義為潛在的消費(fèi)者、罪犯或恐怖分子,等等,從而實(shí)踐著全景式的社會(huì)控制。這種矛盾同一性也使我們能夠理解到,人臉識(shí)別算法的技術(shù)規(guī)訓(xùn)和社會(huì)控制實(shí)際上是兩種互補(bǔ)的、相互加強(qiáng)的權(quán)力共存。
我們當(dāng)下所處的這個(gè)元數(shù)據(jù)社會(huì)(metadata society),實(shí)則為一個(gè)控制社會(huì)的強(qiáng)化版本,不斷尋求有效的數(shù)字化治理路徑是其總體特征。元數(shù)據(jù)是關(guān)于數(shù)據(jù)的組織、數(shù)據(jù)域及其關(guān)系的信息,用以識(shí)別資源、評(píng)價(jià)資源、追蹤資源在使用過(guò)程中的變化,以實(shí)現(xiàn)簡(jiǎn)單高效地管理大量網(wǎng)絡(luò)化數(shù)據(jù)。因此,元數(shù)據(jù)成為衡量社會(huì)關(guān)系價(jià)值的尺度,以及預(yù)測(cè)大眾行為和實(shí)施社會(huì)控制的新工具。在這當(dāng)中的人臉識(shí)別算法應(yīng)被理解為一個(gè)元數(shù)據(jù)設(shè)備。在控制社會(huì)的背景下,人臉識(shí)別算法利用元數(shù)據(jù),不僅能夠規(guī)范個(gè)人行為,還能預(yù)測(cè)特定群體或人口的模式,這一過(guò)程也成為臉性政治維度下算法控制社會(huì)的權(quán)力實(shí)現(xiàn)過(guò)程。在人臉識(shí)別的過(guò)程中,算法會(huì)將捕捉到的人臉與數(shù)據(jù)庫(kù)中成千上萬(wàn)個(gè)人臉模型進(jìn)行比對(duì),之后生成新模板,被識(shí)別的人臉?biāo)斐蔀橐粋€(gè)計(jì)算結(jié)果。在這里,人臉不再是一個(gè)獨(dú)特個(gè)體的個(gè)性化標(biāo)識(shí),而是成為了能夠被分析和被預(yù)測(cè)的生物性標(biāo)識(shí)。一方面,算法技術(shù)作為一種主體化的裝置,通過(guò)人臉識(shí)別來(lái)保證主體的個(gè)體化,使人臉成為一個(gè)私有化身體的標(biāo)志,使其在社會(huì)分工中象征著一個(gè)特定的角色;另一方面,個(gè)體主體的組成部分(智力、情感、感覺(jué)、認(rèn)知、記憶等)不再被一個(gè)“我”統(tǒng)一,而是變得四分五裂,成為機(jī)器計(jì)算的對(duì)象。在算法權(quán)力的操控下,人臉在兩種不同的符號(hào)體制下共存,一方面作為主體的個(gè)體化符號(hào)存在,另一方面作為龐大統(tǒng)計(jì)計(jì)算機(jī)器中的齒輪符號(hào)存在。至此,人臉的唯一性被機(jī)器學(xué)習(xí)徹底解除,算法擁有了再定義人臉與身份之間關(guān)系的權(quán)力。
人臉是充滿了象征意義和社會(huì)意義的復(fù)雜面具,人們依附于臉的物質(zhì)性,體驗(yàn)著這一身體邊界所發(fā)揮的價(jià)值功能。例如人們會(huì)花相當(dāng)多的時(shí)間在臉面上,操縱它們傳達(dá)情感,也會(huì)出于“保持臉面”的需要,根據(jù)環(huán)境偽裝、修飾、遮蓋甚至改變自己的面部外觀,或者出于文化、宗教、心理或人際關(guān)系等原因拒絕袒露面部。因此,人臉是人類聯(lián)絡(luò)社會(huì)、彼此協(xié)調(diào)互動(dòng)的重要媒介。然而在人臉識(shí)別算法的規(guī)訓(xùn)與控制下,臉從一種有血有肉、富于表情、變幻莫測(cè)的媒介,變成了一種受控的靜態(tài)對(duì)象,并作為一組機(jī)器可讀的二進(jìn)制數(shù),用于目標(biāo)定位、測(cè)量和識(shí)別。無(wú)論是作為一種可識(shí)別的安全檢查,還是一種政治規(guī)范的強(qiáng)加,對(duì)人臉的生物識(shí)別都在表明一種超個(gè)體的政治敘事和規(guī)范被編織在了算法技術(shù)對(duì)面孔的捕捉中。
在掃描人群中的面孔時(shí),算法識(shí)別軟件會(huì)立即分離所遇到的人臉信息,并將這些信息轉(zhuǎn)換成一個(gè)無(wú)實(shí)體的一維模擬,然后進(jìn)入一個(gè)隱藏的、編碼的對(duì)話中,并與數(shù)據(jù)庫(kù)中的虛擬人臉進(jìn)行匹配。如果匹配成功,無(wú)形的臉就會(huì)被即時(shí)識(shí)別,并被固定在一個(gè)制度化的身份上,隨時(shí)接受實(shí)時(shí)跟蹤。在大量無(wú)安檢必要性的公共場(chǎng)域內(nèi),人們通常是沒(méi)有經(jīng)過(guò)知情同意就被捕獲面孔的,身體主權(quán)實(shí)際是被隱匿在算法機(jī)器背后的權(quán)力組織或代理、或侵蝕。用于算法分析的人臉數(shù)據(jù)庫(kù)還可能來(lái)源于人們?cè)谏缃幻襟w上的活動(dòng),例如Facebook曾在用戶上傳的照片中創(chuàng)建數(shù)字化人臉的生物特征數(shù)據(jù)庫(kù),并將這些信息與用戶活動(dòng)的數(shù)據(jù)進(jìn)行聚合,導(dǎo)致人臉不再受數(shù)據(jù)主體(上傳照片的人)的控制,而是有可能成為未知人員和機(jī)構(gòu)進(jìn)行二次曝露的對(duì)象,被曝露的用戶對(duì)生物數(shù)據(jù)庫(kù)的使用路徑卻無(wú)從追查。另外,人臉識(shí)別技術(shù)在招聘、交友、婚戀、教育等領(lǐng)域也被廣泛應(yīng)用。限于技術(shù)水平、原始數(shù)據(jù)的精準(zhǔn)度、算法隱含的價(jià)值判斷,以及數(shù)據(jù)庫(kù)樣本量的有效性等諸多因素,這類應(yīng)用很可能擴(kuò)大某種偏見(jiàn),引發(fā)歧視??傮w而言,出于對(duì)復(fù)雜多義的人臉史無(wú)前例的大規(guī)模暴露的擔(dān)憂,攝像頭下的人們產(chǎn)生了本文稱之為“算法焦慮”的生存感受。
本文提出的算法焦慮,不是指醫(yī)學(xué)意義上的神經(jīng)癥狀,而是一種哲學(xué)意義上的關(guān)乎自我的主體性焦慮。早在19世紀(jì)中葉,存在主義哲學(xué)創(chuàng)始人索倫·克爾凱郭爾(Soren Aabye Kierkegaard)就對(duì)焦慮揭示出什么樣的自我認(rèn)知感興趣。他發(fā)現(xiàn),當(dāng)一個(gè)人失去了與自我有關(guān)的選擇的可能性時(shí),就會(huì)產(chǎn)生焦慮。⑨沿著克爾凱郭爾對(duì)焦慮的詮釋,我們提出的算法焦慮的概念,也是一種植根于缺乏選擇可能性的生存感受。它緣起于人們?nèi)狈x擇拒絕被暴露、被識(shí)別、被表征的可能性;缺乏選擇拒絕被技術(shù)性他者超越和壓倒的可能性;缺乏選擇拒絕被歧視和拒絕接受既定標(biāo)準(zhǔn)審查的可能性,等等。如今,越來(lái)越多的人感受到,想要選擇隱藏在人群中的可能性變得越來(lái)越小。邊境管制、警務(wù)實(shí)踐、治安治理等只是人臉識(shí)別算法正在測(cè)試和實(shí)施的眾多領(lǐng)域中的一部分,更多的是日常狀態(tài)下,城市景觀中星羅棋布的機(jī)器目光,無(wú)時(shí)無(wú)刻不將城市中幾乎一切關(guān)系和流動(dòng)置于冷靜的、計(jì)算的凝視之下,它們的形式包括在公共空間中進(jìn)行持續(xù)觀察和識(shí)別的攝像頭、傳感器、無(wú)人機(jī)等。至于泛濫在移動(dòng)終端和社交媒體中的人臉識(shí)別算法技術(shù),則早已超出了安全和警務(wù)的需要,它們的大肆擴(kuò)張,既統(tǒng)領(lǐng)了前景(公共)形式,又包含了背景(私人)形式,密集地標(biāo)記和管理著空間中移動(dòng)的身體,并通過(guò)虛擬人臉的輪廓來(lái)跟蹤和記錄身體的存在,其本身已是臉性政治自動(dòng)化控制的突出體現(xiàn)。
在一般人的觀念中,自我的身份認(rèn)知是個(gè)人意識(shí)中自治和獨(dú)立的部分,但在人臉識(shí)別算法這樣一種索引、規(guī)范和管理人類行為和身份的社會(huì)技術(shù)的規(guī)范下,身份被簡(jiǎn)化為無(wú)實(shí)體的數(shù)據(jù)聚合,失去了主體意義上的可識(shí)別性。受到算法生物識(shí)別引擎的控制,每一個(gè)被鎖定的個(gè)體,都成為了一串?dāng)?shù)字、一個(gè)自我輸入的數(shù)據(jù)點(diǎn)、一組統(tǒng)計(jì)集合。這讓人們感受到了自我與人臉識(shí)別系統(tǒng)之間的一種不確定和危險(xiǎn)的關(guān)系。被算法識(shí)別并標(biāo)記的“自我”,顯然已不是一個(gè)自主、獨(dú)立、穩(wěn)定的自我,而是一種依賴、脆弱、不穩(wěn)定的存在體驗(yàn)。當(dāng)人們感受到“自我”的規(guī)范性受到了算法的規(guī)范性挑戰(zhàn)時(shí),算法焦慮就會(huì)爆發(fā)。在算法機(jī)器監(jiān)視的世界里,人們深深焦慮于還能在多大程度上以想象中的“自我”身份生活??梢?jiàn),算法焦慮并不是一種與技術(shù)恐懼相關(guān)的病理,而是質(zhì)疑算法對(duì)一個(gè)迷失在人臉識(shí)別技術(shù)中的個(gè)體的非正常影響,因?yàn)楸蛔R(shí)別者永遠(yuǎn)無(wú)法得知,可能決定自己命運(yùn)的算法機(jī)制到底是什么。因此,算法焦慮不僅僅是面對(duì)人臉識(shí)別攝像頭時(shí)的不確定感和缺乏控制感,它還是一種存在主義的焦慮,就像克爾凱郭爾說(shuō)的那樣,是一種自我意識(shí)里的焦慮,人們會(huì)感到無(wú)法擁有自我,無(wú)法擁有對(duì)其所處的環(huán)境的決定權(quán)。在算法生物識(shí)別布下的“天羅地網(wǎng)”里,每一個(gè)人都在被觀察、被識(shí)別、被描述,無(wú)處躲藏。人臉的泛信息化帶來(lái)的身份危機(jī),和其超個(gè)體性帶來(lái)的隱匿危機(jī),都隨著人臉的大規(guī)模算法化而成為顯在事實(shí)。
克爾凱郭爾曾說(shuō),最大的威脅和阿喀琉斯之踵,存在于一個(gè)宣布未知死亡、將理性推上寶座的社會(huì)。人臉識(shí)別算法應(yīng)用的泛濫,迅速拉近了人們與克爾凱郭爾所批判的理性社會(huì)的距離。我們看到,隨著生物識(shí)別技術(shù)的更新迭代,在從識(shí)別你是誰(shuí),到判斷你是怎樣的人的技術(shù)進(jìn)化中,算法正在試圖用計(jì)算理性終結(jié)關(guān)于人的未知領(lǐng)域。例如當(dāng)前的人臉識(shí)別技術(shù)已經(jīng)能夠從身份管理發(fā)展到進(jìn)行群體分析,會(huì)針對(duì)捕捉到的人臉就性格、情緒、意圖、健康狀況、性取向、職業(yè)、愛(ài)好等更隱秘的信息展開(kāi)評(píng)估和推斷,并進(jìn)行標(biāo)記。值得警惕的是,算法給予人臉識(shí)別模式的優(yōu)先次序,與備受爭(zhēng)議的顱相學(xué)、面相術(shù)不謀而合,因此算法排序意味著人們很可能因?yàn)楣窍唷⒛w色、種族、性別等被列入歧視性名單中。亞馬遜的人臉識(shí)別算法Rekognition就曾誤將28名非裔和拉丁裔的美國(guó)國(guó)會(huì)議員與罪犯進(jìn)行了匹配。因此,算法焦慮還體現(xiàn)為人們會(huì)質(zhì)疑算法對(duì)一個(gè)曝露在人臉識(shí)別的可見(jiàn)性制度中的個(gè)體是否真的提供了公正的對(duì)待。作為技術(shù)黑箱,算法畢竟隱瞞了人們因臉而被貼上何種標(biāo)簽的原因。這使人們完全有理由擔(dān)心,人臉識(shí)別算法的無(wú)所不在和不受監(jiān)管的分析和分類,在將我們帶入種族主義、階級(jí)主義和性別歧視的深淵,并引導(dǎo)我們走向完全量化的人性毀滅之路。
算法是真實(shí)的、普遍的、強(qiáng)大的政治行動(dòng)者,它主導(dǎo)的臉性政治無(wú)論是歸咎于不對(duì)稱的權(quán)力關(guān)系還是技術(shù)理性,其創(chuàng)造的不可見(jiàn)、不透明的晦暗空間始終令人憂心忡忡。它隱蔽的數(shù)據(jù)捕獲行為和缺乏透明度的狀況,無(wú)疑侵犯了人們主宰自己身份的權(quán)力,因?yàn)橹灰豢匆?jiàn)就會(huì)被捕捉,被捕捉就會(huì)被分析,被分析就會(huì)被歸納為信息,這些信息被政府和商業(yè)公司獲取,用作維持權(quán)力和增大利潤(rùn)的主要工具。密歇根大學(xué)文化和數(shù)字研究者約翰·切尼-利波德(John Cheney-Lippold)就在《我們是數(shù)據(jù):算法和數(shù)字自我的形成》一書(shū)中寫(xiě)道:在算法解釋面前,我是誰(shuí),你是誰(shuí),他是誰(shuí),是由廣告商、營(yíng)銷人員和政府決定的——他們秘密的、專有的算法腳本,將身份重新塑造為資本或國(guó)家權(quán)力的獨(dú)家、私人用語(yǔ)。而這種批判的知識(shí)景觀也表達(dá)了人文主義者的普遍擔(dān)憂:算法的生物權(quán)力是否會(huì)促使人們變成隨和、溫順的工具,進(jìn)而被一個(gè)并不關(guān)心自己是誰(shuí)的機(jī)器體物化。
我們體驗(yàn)到了全球聯(lián)網(wǎng)的技術(shù)有機(jī)體的崛起,與此同時(shí),我們也可能在算法中迷失,陷入持續(xù)焦慮的泥沼。對(duì)于受到算法焦慮困擾的人們來(lái)說(shuō),人臉識(shí)別技術(shù)也許會(huì)成為一個(gè)通往無(wú)處不監(jiān)視的奧威爾式的“魚(yú)缸社會(huì)”(fishbowl societies)的入口,它或?qū)岩粋€(gè)公民社會(huì)轉(zhuǎn)變成一個(gè)以身份和透明度為定義要素的算法社會(huì)。因此,隨著非安全目的的人臉識(shí)別算法系統(tǒng)大規(guī)模普及,無(wú)論是對(duì)臉性政治的指陳,還是對(duì)其引發(fā)的算法焦慮的描述,我們的研究都需要回歸現(xiàn)實(shí)層面,落腳于當(dāng)前和未來(lái)人臉識(shí)別算法在部署與使用上的規(guī)范性問(wèn)題。
算法焦慮是臉性政治宰制下的后果,因此防止算法權(quán)力的濫用理應(yīng)成為緩解算法焦慮的出路。在此前提下,人臉識(shí)別算法技術(shù)及隱藏其后的部門(mén)組織作為權(quán)力主體,其行為就必須具有政治正當(dāng)性和合理性,并成為政治倫理建設(shè)與規(guī)范的對(duì)象。目前世界范圍內(nèi)的生物技術(shù)識(shí)別已經(jīng)作為人工智能應(yīng)用的組成部分正在接受法律監(jiān)管,然而某些生物識(shí)別技術(shù)所導(dǎo)致的問(wèn)題并不適用于法律話語(yǔ),也不足以成為立法基礎(chǔ),或者說(shuō)很難被法律強(qiáng)制執(zhí)行。此外,導(dǎo)致人們產(chǎn)生焦慮情緒的人臉識(shí)別系統(tǒng)的應(yīng)用狀況是否足夠具有破壞性,從而必須成為法律監(jiān)管的內(nèi)容,還存在很大的爭(zhēng)議。例如,未經(jīng)過(guò)消費(fèi)者知情同意,在商業(yè)場(chǎng)所安裝人臉識(shí)別攝像頭捕獲客戶信息的行為顯然是不道德的,但考慮到人臉識(shí)別攝像頭在公共安全警務(wù)方面的便利性,是否應(yīng)該對(duì)其進(jìn)行全面禁止成為一個(gè)棘手的問(wèn)題。
在這些情況下,我們除了依靠法律變革之外,還需要一個(gè)重要的治理面向,就是在倫理規(guī)范的基礎(chǔ)上對(duì)相關(guān)問(wèn)題提出道德性指導(dǎo),積極建設(shè)數(shù)字社會(huì)的倫理契約。而對(duì)人臉識(shí)別技術(shù)的道德要求與技術(shù)倫理的適當(dāng)性有關(guān),也就是說(shuō),需要解決人臉識(shí)別技術(shù)的權(quán)力支配在倫理上是否適當(dāng)?shù)膯?wèn)題。在臉性政治控制中,在人們已經(jīng)產(chǎn)生主體性焦慮的當(dāng)下,建立針對(duì)算法應(yīng)用的、能夠顧及各利益相關(guān)方的技術(shù)倫理規(guī)范顯得尤為迫切。因此,我們將經(jīng)典倫理學(xué)建構(gòu)的一套基本行為準(zhǔn)則,作為匡正算法技術(shù)及其背后的權(quán)力機(jī)構(gòu)行為的依據(jù),嘗試建設(shè)臉性政治的倫理維度。我們將在對(duì)人臉識(shí)別算法進(jìn)行倫理評(píng)估的基礎(chǔ)上設(shè)計(jì)初步的倫理規(guī)范的框架,以此作為緩解算法焦慮的路徑,以及重建人機(jī)關(guān)系的舉措。
人臉識(shí)別算法技術(shù)的倫理評(píng)估工作應(yīng)包括審計(jì)算法在特定環(huán)境下所使用的人臉數(shù)據(jù)的正當(dāng)性,以及評(píng)估使用這些數(shù)據(jù)判斷和預(yù)測(cè)受試者的行為是否會(huì)對(duì)受試者的某些利益或權(quán)利產(chǎn)生負(fù)面影響等。這不僅需要關(guān)注算法偏見(jiàn),還要關(guān)注算法濫用,而這些都取決于了解和掌握人臉識(shí)別算法開(kāi)發(fā)和使用的背景狀況。因此,首先需要對(duì)商業(yè)和社交媒體的算法技術(shù)持有者展開(kāi)關(guān)鍵性問(wèn)詢,例如,開(kāi)發(fā)某項(xiàng)人臉識(shí)別算法的目的是什么?是誰(shuí)在部署這項(xiàng)技術(shù)的應(yīng)用?技術(shù)使用是否應(yīng)該獲得被識(shí)別者的知情同意?是否存在因不道德的人臉數(shù)據(jù)的捕獲行為,導(dǎo)致嚴(yán)重不公平的情況?人臉識(shí)別算法是否存在理性歧視?算法技術(shù)持有者在提供訓(xùn)練的人臉數(shù)據(jù)時(shí),是否考慮過(guò)數(shù)據(jù)污染?哪些明確的政治危害是由特定人臉識(shí)別算法決策所增強(qiáng)的?這些問(wèn)題的答案能夠清晰勾勒出人臉識(shí)別技術(shù)倫理契約的關(guān)鍵內(nèi)涵。
接下來(lái),我們需要轉(zhuǎn)向?qū)λ惴夹g(shù)本身的評(píng)估。算法促進(jìn)了一種獨(dú)特的本體論,即數(shù)字和量化意味著更容易達(dá)到客觀、理性、公平的目標(biāo),因此更合乎道德的目的,因?yàn)椤吧眢w不會(huì)說(shuō)謊”。然而我們從臉性政治的角度來(lái)看,人臉識(shí)別算法并不僅僅是指組成輸入輸出函數(shù)的數(shù)學(xué)運(yùn)算,還包括圍繞這個(gè)函數(shù)的更大的權(quán)力生成系統(tǒng)。因此,要切入算法細(xì)部觀察其在權(quán)力生成過(guò)程中的行為是否適當(dāng),就需要尋找算法中的那些關(guān)于倫理道德的顯著可測(cè)量特征。由于人臉識(shí)別算法是通過(guò)加權(quán)矩陣的系統(tǒng)來(lái)量化面部,而系統(tǒng)僅忠實(shí)于用于訓(xùn)練和測(cè)試它的數(shù)據(jù),在有偏差的數(shù)據(jù)源中,算法會(huì)將那些被充分表示為目標(biāo)指示器的對(duì)象呈現(xiàn)為可見(jiàn)的,將那些沒(méi)有被充分表示為目標(biāo)指示器的對(duì)象呈現(xiàn)為不可見(jiàn)的。那么我們首先可以運(yùn)用社會(huì)偏見(jiàn)指標(biāo)對(duì)該算法的可見(jiàn)性(visibility)進(jìn)行測(cè)試,看看某個(gè)特定社會(huì)群體(種族、性別、文化、經(jīng)濟(jì)地位等)是否會(huì)被系統(tǒng)性地提高或降低分?jǐn)?shù)。另外,從該算法是否給予一個(gè)或多個(gè)優(yōu)勢(shì)群體以系統(tǒng)性優(yōu)勢(shì),而給予一個(gè)或多個(gè)弱勢(shì)群體以系統(tǒng)性劣勢(shì),以及是否給予后者以額外的編碼補(bǔ)償機(jī)制中,也能夠判斷這套算法是否具有選擇性偏好。最后,可解釋性(interpretability)也是算法透明度的重要指征。例如在對(duì)社交媒體的人臉識(shí)別算法的倫理測(cè)評(píng)中,就需要評(píng)估用戶對(duì)算法的數(shù)據(jù)收集和后續(xù)使用的了解程度,包括用戶是否知情被收集關(guān)于他們的那些生物數(shù)據(jù),是否知情這些數(shù)據(jù)在商業(yè)機(jī)構(gòu)里存儲(chǔ)了多長(zhǎng)時(shí)間,是否知情機(jī)構(gòu)對(duì)無(wú)償征用的生物數(shù)據(jù)進(jìn)行什么樣的處理或推斷,以及出于什么目的,等等。
通常,倫理話語(yǔ)會(huì)將積極的道德規(guī)范與當(dāng)前已被認(rèn)可的實(shí)踐性總結(jié)結(jié)合在一起,為人們提供較高層次的原則以及較低級(jí)別的建議。作為人工智能倫理框架的一個(gè)總體示范性描述,牛津大學(xué)信息哲學(xué)與倫理學(xué)教授、數(shù)字倫理實(shí)驗(yàn)室主任盧西亞諾·弗洛里迪(Luciano Floridi)將道德的積極規(guī)范與政治的實(shí)踐原則相結(jié)合,總結(jié)出了一套人工智能技術(shù)政治倫理規(guī)范:第一,在不貶低人類能力的情況下,使人類實(shí)現(xiàn)自我;第二,增強(qiáng)人的能動(dòng)性,但不免除人的責(zé)任;第三,培養(yǎng)社會(huì)凝聚力,同時(shí)又不侵蝕人類的自我決定能力。根據(jù)這一描述,我們嘗試為以人臉識(shí)別算法為代表的生物識(shí)別技術(shù)倫理提供一套更詳細(xì)的建議。
首先是尊重人類的自主權(quán),人們?cè)诮邮苌镒R(shí)別算法的選擇時(shí),必須能夠保持充分有效的自我決定權(quán),此項(xiàng)技術(shù)不應(yīng)該無(wú)理地強(qiáng)迫、欺騙、操縱受試者,而應(yīng)該被設(shè)計(jì)為增強(qiáng)、補(bǔ)充和賦予人類認(rèn)知社會(huì)和文化技能的伙伴。其次是防止傷害,應(yīng)確保保護(hù)人的尊嚴(yán)以及精神和身體的完整,根據(jù)這一原則,生物識(shí)別系統(tǒng)及其運(yùn)行環(huán)境必須是安全可靠的,它們不應(yīng)造成或加劇對(duì)人類的心理傷害、實(shí)體傷害或其他不利影響。再次是生物識(shí)別的算法系統(tǒng)在應(yīng)用過(guò)程中,在實(shí)質(zhì)性上和程序上應(yīng)兼有公平。實(shí)質(zhì)公平意味著承諾確保多方利益平等和公正分配,確保個(gè)人和群體不會(huì)受到不公平的偏見(jiàn)、歧視和污名化;程序公平意味著我們應(yīng)該有能力對(duì)生物識(shí)別系統(tǒng)和操作它們的人所做的決定提出異議,并尋求有效的補(bǔ)救。最后是可解釋性,生物識(shí)別計(jì)算過(guò)程必須公開(kāi)透明,它的能力和目的也必須公開(kāi)透明,決策必須能夠直接或間接地向受影響的人群解釋。而這些要求的實(shí)現(xiàn)應(yīng)該貫穿于生物識(shí)別系統(tǒng)的整個(gè)運(yùn)作周期。
與此同時(shí),管理與商業(yè)倫理也是重要的調(diào)試路徑,為了評(píng)估在線社交網(wǎng)絡(luò)提供的對(duì)人臉信息的保護(hù)程度,科技公司應(yīng)該在如何使用個(gè)人數(shù)據(jù)方面做得更加透明和公開(kāi),從根本上改變?nèi)藗兊谋粍?dòng)接受方式,為用戶增強(qiáng)透明度,落實(shí)問(wèn)責(zé)制。對(duì)于接受生物識(shí)別的個(gè)人而言,也需要在個(gè)人資料掌握方面變得更加知情和主動(dòng),建設(shè)數(shù)字倫理的重心需要從只關(guān)注個(gè)人信息安全和隱私問(wèn)題,轉(zhuǎn)向更廣闊的將其作為社會(huì)責(zé)任的一部分。當(dāng)然,主動(dòng)的在線信息控制還需要人們擁有跨環(huán)境傳播的數(shù)字素養(yǎng),積極了解生物識(shí)別的軌跡,重視在社交媒體和整個(gè)社會(huì)中使用人臉識(shí)別系統(tǒng)的安全規(guī)范性問(wèn)題。
雖然我們會(huì)對(duì)公共場(chǎng)域的攝像頭心生恐懼,會(huì)產(chǎn)生主體性焦慮,不過(guò)這種焦慮感也很可能會(huì)被手機(jī)刷臉支付帶來(lái)的便利感、社交媒體刷臉交友帶來(lái)的樂(lè)趣所抵消。而人臉數(shù)據(jù)的泄露和對(duì)信息安全規(guī)范的違反,都源自人臉識(shí)別技術(shù)在日常實(shí)踐中的無(wú)節(jié)制擴(kuò)散。在臉性政治的權(quán)力控制下,如果不能就我們能保護(hù)什么以及如何保護(hù)達(dá)成共識(shí),那么算法生物識(shí)別技術(shù)的濫用就將很快成為對(duì)民主社會(huì)的真實(shí)威脅。
希望逃離鏡頭的凝視反映了人類特有的隱私需求,如果失去了互動(dòng)和探索的安全區(qū)域,陷入時(shí)時(shí)處處遭到監(jiān)視的境遇,對(duì)一個(gè)民主社會(huì)的影響將是悲劇性的。關(guān)于如何保護(hù)這個(gè)安全區(qū)域,我們也經(jīng)常會(huì)聽(tīng)到需要不斷通過(guò)新的立法加以維護(hù)的言論,但我們并不總是需要,也并不總是能夠通過(guò)立法來(lái)確保我們的社會(huì)仍然是一個(gè)公正的社會(huì)。我們還可以從建設(shè)數(shù)字社會(huì)的倫理契約出發(fā),認(rèn)真研究我們已經(jīng)擁有的倫理規(guī)范,并考慮在匡正技術(shù)問(wèn)題中如何優(yōu)化使用它們。在人臉識(shí)別算法的政治維度中,如何重新全面審視我們身處的新的臉孔世界,如何識(shí)別我們身處的風(fēng)險(xiǎn),以及如何尋求透明、公正與倫理保護(hù)等,也是本文在寫(xiě)作中嘗試回答并期待回應(yīng)的問(wèn)題。
注釋:
① Vakalis I.,Hosgood B.,Chawdhry P.BiometricsforBorderSecurity.EUR 22359 EN.Warsaw:Frontex,Joint Research Unit.2006.
②③⑧ [法]吉爾·德勒茲、菲利克斯·加塔利:《資本主義與精神分裂:千高原》,姜宇輝譯,上海書(shū)店出版社2010年版,第237、248-249、662頁(yè)。
④⑤⑦ [法]米歇爾·???《規(guī)訓(xùn)與懲罰》,劉北成、楊遠(yuǎn)嬰譯,生活·讀書(shū)·新知三聯(lián)書(shū)店2003年版,第230、226、240頁(yè)。
⑥ 包亞明主編:《權(quán)力的眼睛——??略L談錄》,嚴(yán)鋒譯,上海人民出版社1997年版,第158頁(yè)。
⑨ Kierkegaard S.TheSicknessuntoDeath:AChristianPsychologicalExpositionforUpbuildingandAwakening.trans.Hong H.V. and Hong E.H.(eds),Princeton,NJ:Princeton University Press.1983.p.36.