吳松波
(中國社會科學(xué)院大學(xué) 北京 100020)
算法時代的開啟,使得數(shù)字技術(shù)不僅改變科技,也在改變著生產(chǎn)方式,改變著商業(yè)模式以及人與人之間的關(guān)系。算法已不僅僅是特定的技術(shù),更是社會權(quán)力運行體系中的重要變量。掌握算法的企業(yè)和組織利用技術(shù)優(yōu)勢,把控社會的信息及資源,引導(dǎo)政府的決策,甚至進(jìn)入司法程序之中,形成了一種非國家力量的“準(zhǔn)公權(quán)力”。所以,在如今的人類社會,由于算法權(quán)力的興起和異化出現(xiàn)了“修昔底德陷阱”。人工智能時代背景下的各類數(shù)字技術(shù)為現(xiàn)代社會治理拋出了挑戰(zhàn)。算法的日益強大讓人類感到恐慌。正因為如此,當(dāng)算法技術(shù)深度嵌入人類生活之時,算法權(quán)力將傾軋個人權(quán)利,算法權(quán)力和個人權(quán)利之間的沖突和平衡,是憲法時刻下的嚴(yán)峻挑戰(zhàn)。在這樣的沖突中,算法權(quán)力的治理路徑應(yīng)當(dāng)符合憲法價值,不得背離現(xiàn)代國家的要求,提防技術(shù)對人的統(tǒng)治。
在人工智能時代的背景下,數(shù)據(jù)的龐大與繁雜遠(yuǎn)遠(yuǎn)超過了人工算力的范疇,我們只能通過只能智能算法對數(shù)據(jù)進(jìn)行分析。然而,智能算法本身不能生產(chǎn)任何目的,它只能作為手段在大量數(shù)據(jù)分析下尋找問題的最優(yōu)解。隨著人工智能的持續(xù)發(fā)展,人類將進(jìn)入一切皆可計算的時代。大數(shù)據(jù)是當(dāng)今時代最為重要的資源,而數(shù)據(jù)掌控者往往是最先進(jìn)入這些領(lǐng)域的企業(yè),算法又依靠著大量數(shù)據(jù)開始運行,故這些企業(yè)可以利用數(shù)據(jù)和算法把控社會資源,從而作出最利于自己利益的決策甚至可以影響政府的公共政策。算法權(quán)力就是這些人工智能技術(shù)發(fā)達(dá)且擁有大量用戶數(shù)據(jù)的企業(yè)利用自身算法的先進(jìn)性和隱蔽性來對公民、社會甚至國家產(chǎn)生影響的一種力量。馬克思·韋伯曾指出,“權(quán)力意味著在一種社會關(guān)系里,哪怕是遇到反對也能貫徹自己意志的任何機(jī)會,不管這種機(jī)會是建立在什么基礎(chǔ)上”??梢?,權(quán)力根植于支配他人并使他人受其影響和控制之中,是一方對另一方的支配與控制。算法權(quán)力就是基于其要求的專業(yè)水平高、準(zhǔn)入門檻高以及其內(nèi)容的隱蔽性來徹底地實現(xiàn)自己的意志。故算法權(quán)力是一種算法支配者通過自身的技術(shù)優(yōu)勢在算法運行的過程中影響和調(diào)控算法相對人的新型技術(shù)性權(quán)力。算法權(quán)力的運行邏輯就是利用算法的隱蔽性來使得算法相對人將其自主支配的決策權(quán)讓渡給了算法支配者預(yù)先設(shè)定好的算法技術(shù)之中。
現(xiàn)代憲法的根本原則就是維護(hù)公民的自由與平等,同時現(xiàn)代憲法精神也一直不斷地強調(diào)隱私權(quán)和個人信息保護(hù),而在算法時代里,這些構(gòu)成我們賴以生存的價值與基礎(chǔ)很有可能在無法察覺間遭受損害。
“人的尊嚴(yán)”的憲法價值內(nèi)涵主要來源于康德所述“人是目的,不是手段”。人的尊嚴(yán)是一種寶貴的憲法價值屬性:尊重和保護(hù)人的尊嚴(yán)是構(gòu)成整個人權(quán)系統(tǒng)的規(guī)范基礎(chǔ)。堅持人的主體性,禁止將人當(dāng)作客體看待,秉持“人是目的”的原則,這就是“人的尊嚴(yán)”價值的主體要求。公民作為具有獨立自由意志的主體應(yīng)當(dāng)享有得到尊重的權(quán)利,“人的尊嚴(yán)”的基本價值取向就是保護(hù)這種權(quán)利。然而,算法權(quán)力的興起將給“人的尊嚴(yán)”的憲法價值帶來前所未有的挑戰(zhàn)。
一些權(quán)勢集團(tuán)能夠憑借著“天然優(yōu)勢”形成對公共領(lǐng)域的“權(quán)力凝視”。由于算法在設(shè)計操作上的不透明性容易被一些權(quán)勢集團(tuán)所利用,通過影響個體行為以達(dá)到自身利益。即在算法運行過程中,從數(shù)據(jù)輸入到結(jié)果輸出,存在著由算法支配者所掌握的隱層空間,所以算法支配者可以通過這種隱層空間來達(dá)到自身的利益和目的。在這個過程的同時,作為“人的尊嚴(yán)”的價值也將被算法侵害,例如美團(tuán)、餓了么等外賣平臺企業(yè)就通過算法的運用來對勞動力進(jìn)行最大化壓榨,以達(dá)到平臺企業(yè)利潤最大化的目的,與其說外賣騎手“被困在了算法里”不如說這是算法支配者運用算法權(quán)力對勞動者個人權(quán)利的傾軋。一張精心設(shè)計的算法網(wǎng)絡(luò)將配送員包裹在內(nèi),無法自拔。在外賣平臺企業(yè)的算法邏輯中只顧利潤的追逐,不顧人的主觀能動性的局限性,一味地按照算法最優(yōu)解給騎手派單,實現(xiàn)對騎手精準(zhǔn)的控制。這不僅是漠視憲法“人的尊嚴(yán)”的價值,同時也是資本對勞動力的壓榨。在算法系統(tǒng)里,只有數(shù)據(jù),并沒有人的存在,我們只是一個0編碼的碳基人,就更無法談上對人的尊嚴(yán)的價值判斷。
算法權(quán)力在運行的過程中很有可能形成算法歧視,算法作為預(yù)測分析技術(shù),可能會因為內(nèi)置性編碼凝視,有限、不相關(guān)或不正確的訓(xùn)練數(shù)據(jù)造成算法歧視,將給平等權(quán)保護(hù)帶來挑戰(zhàn)。
在海量數(shù)據(jù)的分析下,算法支配者可以通過算法捕捉每一個公民的畫像,即形成公民的“數(shù)字人格”,這些數(shù)據(jù)有可能相伴公民的一生。這種“評分社會”將使得個人權(quán)利的自我救濟(jì)和保護(hù)在算法權(quán)力面前無法伸張。在算法權(quán)力的支配下,根據(jù)支配者的不同目的來獲取公民的“數(shù)字人格”,這就不可避免地將公民劃分成了“三六九等”。常見的是,算法通過用戶數(shù)據(jù)分析用戶的行事風(fēng)格及愛好,對不同群體進(jìn)行分類與身份建構(gòu),從而量身定制反映其支付意愿的價格,實現(xiàn)同物不同價的價格歧視。同時這種算法歧視也將排斥個人在社會生活中發(fā)展的多樣性,由于算法黑箱的存在,算法本身也并非純粹客觀的數(shù)據(jù)處理技術(shù),其存在諸多不為使用者知曉的因素,我們讓算法代替自己做出選擇,就將減少我們自身發(fā)展的可能性。其實算法在替代我們做出選擇之時,我們就減少了自己人生的發(fā)展際遇。
現(xiàn)代憲法圍繞著限制公權(quán)力做了一系列的努力?!肮珯?quán)力”屬于他賦權(quán),我們之所以愿意走進(jìn)這個社會接受這個政權(quán)的統(tǒng)治并為此讓渡自身的權(quán)利,那是因為我們相信這是一套好的社會制度,是可以帶領(lǐng)人民走向富強的政權(quán)。這就是所謂政權(quán)合法性的來源,是我們所賦予其的。如今在算法時代之下,算法權(quán)力的運行并不屬于“人們的賦予”,而是自賦權(quán),從算法被帶有目的性地設(shè)計運行后起,它便有了這種權(quán)力。因為算法的算力優(yōu)勢使得政府機(jī)關(guān)在決策過程中,需要算法依賴算法來提高自身的效率,這種技術(shù)依賴性使得算法權(quán)力在政權(quán)運行的角落里逐漸嵌入“公權(quán)力”。算法決策正在代替行政、司法決策。且有的人工智能技術(shù)日漸增強,賦予了非國家行為者特別大的權(quán)力。然而,算法權(quán)力為自賦權(quán),其并不具有權(quán)力的合法性來源,一旦算法權(quán)力嵌入或入侵“公權(quán)力”,個人權(quán)利難以得到保證或者說個人權(quán)利難以對抗算法的黑箱化,造成個人權(quán)利和算法權(quán)力的失衡。
人是目的,不是手段。以人為本才是現(xiàn)代社會發(fā)展的前提和基石,尊重人的尊嚴(yán),強調(diào)人的價值是現(xiàn)代憲法價值的精神。雖然,算法的時代將不可避免地到來,站在經(jīng)濟(jì)發(fā)展和社會公共利益上的角度來說,算法的發(fā)展是合乎理性的選擇。但是,人在算法面前不能保持主體性的話,如若算法的發(fā)展不以人為本,不受這些憲法價值的制約,其發(fā)展很有可能變成洪水猛獸,吞沒基于憲法價值所要求的一切。也意味著現(xiàn)代憲法體制對算法發(fā)展和科技發(fā)展的退讓,一旦退讓,我們個人的自由與權(quán)利將沒有持續(xù)存在的空間。2019年4月8日,歐盟委員會AI高級專家組制定并發(fā)布了《可信AI的倫理指南》,其中將人的尊嚴(yán)作為人工智能發(fā)展的核心價值,提出了可信AI的七項原則,其中包括人工智能不應(yīng)該踐踏人類的自主性,人們不應(yīng)該被AI系統(tǒng)操縱或脅迫,并且,人類應(yīng)該能夠干預(yù)或監(jiān)督軟件作出的每一個決定。只有先設(shè)定好算法權(quán)力運行的限制機(jī)制,算法權(quán)力才能得到健康的發(fā)展。缺乏憲法價值的指引將導(dǎo)致技術(shù)的發(fā)展背離“人的關(guān)懷”,背離現(xiàn)代國家的要求,這樣的技術(shù)發(fā)展將是無序的野蠻生長,將不受我們的控制。人的主體性地位必須貫穿科技發(fā)展的始終。
算法倫理的基本價值取向應(yīng)當(dāng)是是保障人的價值和尊嚴(yán),充分尊重個人權(quán)利。智能技術(shù)對大量信息的掌握會導(dǎo)致人類失去隱私和主體性價值,受到算法支配者效率為主算力邏輯的引導(dǎo),算法設(shè)計者和開發(fā)者往往將注意力集中在吸引甚至迎合用戶上。這種偏好原則可能將用戶鎖定在“信息繭房”中,從而忽視了用戶的數(shù)字福祉(digital well-being)。故需要進(jìn)行算法倫理的設(shè)計從算法設(shè)計的基礎(chǔ)上引導(dǎo)算法邏輯的走向。算法倫理的設(shè)計首先要將人視為有權(quán)利的及有價值的個體,尊重人的自由和人格。其次要保證信息的完整性和私密性,用戶隱私需要有所保障。算法倫理是從源頭上限制算法權(quán)力的有力手段,算法倫理的合理設(shè)計能夠降低控制算法權(quán)力的成本,對算法倫理應(yīng)當(dāng)投入更大的關(guān)注程度。
政府的算力如若得不到強化,其在監(jiān)管算法及算法權(quán)力面前是無力的。平臺企業(yè)聘請的人工智能專家都被支付了巨額的薪水,政府是無法在薪酬與這些致力于發(fā)展人工智能的企業(yè)媲美的。所以政府沒有強大算力支撐,其也不了解這些企業(yè)的算法開發(fā)和算法運行,無法實現(xiàn)有效的監(jiān)管。只有政府擁有一流的人工智能專家,能夠了解算法的開發(fā)與運行,才能使得這些掌握大量數(shù)據(jù)的平臺企業(yè)套上法律的韁繩。
首先,政府要加大對算法設(shè)計和研發(fā)的重視,進(jìn)行政策扶植,建立算法研發(fā)科技中心,將智能算法系統(tǒng)的核心技術(shù)掌握在政府手中,避免演變?yōu)橹鹄墓ぞ?,確保國家在智能轉(zhuǎn)型過程中的技術(shù)安全。從現(xiàn)有政府使用的智能治理系統(tǒng)的研發(fā)主體來看,表面上是不同層級的政府聯(lián)合有關(guān)企業(yè)進(jìn)行研發(fā)的,但智能治理系統(tǒng)的核心算法是由少數(shù)企業(yè)研發(fā)出來的。為了有效降低國家和社會對于主導(dǎo)算法設(shè)計和研發(fā)過程的資本的技術(shù)依賴,國家必須加大對算法設(shè)計和研發(fā)的投入力度,來打破企業(yè)對少數(shù)企業(yè)的算法技術(shù)依賴。其次還應(yīng)當(dāng)通過建立一些糾偏機(jī)制來獲得與企業(yè)共同監(jiān)管算法的空間。例如可以建立風(fēng)險監(jiān)控機(jī)制,對屬于網(wǎng)絡(luò)關(guān)鍵信息基礎(chǔ)設(shè)施的網(wǎng)絡(luò)平臺企業(yè),應(yīng)當(dāng)要求其和政府的算力部門共同建立針對算法失靈、算法崩潰的應(yīng)急預(yù)案機(jī)制。故從算法技術(shù)上進(jìn)行反壟斷,打破少數(shù)企業(yè)的算法壟斷是政府強化算力的重點。反壟斷不僅體現(xiàn)在技術(shù)研發(fā)上,也應(yīng)當(dāng)有配套的法律制度,雙管齊下來打破技術(shù)壟斷,強化政府算力。
面對人工智能時代下已經(jīng)來臨的憲法時刻,我們更需要憲法價值的指引。同時,隨著算法在各領(lǐng)域深度應(yīng)用從而涌現(xiàn)出“算法歧視”“算法黑箱”“算法獨裁”等諸多問題。算法支配者通過算法過于人的算力以及算法黑箱的存在將自己的意圖隱蔽的嵌入算法之中試圖形成新的行為規(guī)范而直接或間接調(diào)控算法相對人行為使算法權(quán)力最終得以生成。普通的算法相對人無法抵抗掌控算法權(quán)力的算法控制者和算法設(shè)計者的侵害,所以我們需要通過為算法相對人設(shè)置權(quán)利來平衡雙方不平等的地位,增加算法相對人的博弈資本,使其免受算法權(quán)力的侵害。只有跳脫出技術(shù)崇拜,充分意識到技術(shù)運用的非理性,在以尊崇憲法價值為核心的導(dǎo)向去構(gòu)建和完善算法運用的規(guī)制路徑才能捍衛(wèi)人的尊嚴(yán)及主體性。