□文│周云倩 張記剛
算法技術(shù)的誕生及與傳播業(yè)的耦合,不僅改變了傳統(tǒng)的內(nèi)容分發(fā)方式,提升了信息爆炸時(shí)代用戶信息獲取的效率,也重塑了新聞產(chǎn)品的生產(chǎn)機(jī)制和媒介生態(tài)。英國(guó)社會(huì)學(xué)家斯科特·拉什(Scott Lash)指出:“在一個(gè)媒體和代碼無處不在的社會(huì),權(quán)力越來越存在于算法之中?!盵1]隨著“算法權(quán)力”應(yīng)用場(chǎng)景和權(quán)力邊界的不斷擴(kuò)大,信息的傳播與控制方式受到來自技術(shù)賦權(quán)的挑戰(zhàn)。[2]目前,算法主要應(yīng)用于內(nèi)容生產(chǎn)和內(nèi)容推薦兩個(gè)方面,其中,內(nèi)容推薦算法已經(jīng)成為各大資訊平臺(tái)主流的內(nèi)容分發(fā)方式,在給傳媒領(lǐng)域帶來革命性變革的同時(shí),其背后的隱憂也逐漸顯現(xiàn)。如何破解內(nèi)容推薦算法的“黑箱”及其權(quán)力異化所導(dǎo)致的價(jià)值觀偏移、用戶隱私侵犯、算法歧視與偏見等價(jià)值困境,實(shí)現(xiàn)工具理性和價(jià)值理性的統(tǒng)一,成為其跨越技術(shù)樊籬,實(shí)現(xiàn)價(jià)值進(jìn)階的必經(jīng)之路。
發(fā)軔于技術(shù)哲學(xué)并在信息科學(xué)、醫(yī)學(xué)、計(jì)算機(jī)等學(xué)科領(lǐng)域得到廣泛應(yīng)用的價(jià)值敏感設(shè)計(jì)(value sensitive design,簡(jiǎn)稱VSD),為內(nèi)容推薦算法的適恰運(yùn)用提供了具有借鑒意義的視角,也是算法治理的一種可選方案。值得關(guān)注的是,2022年3月1日正式施行的 《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》(以下簡(jiǎn)稱《規(guī)定》),就算法推薦的信息服務(wù)規(guī)范、用戶權(quán)益保護(hù)、監(jiān)督管理和法律責(zé)任立規(guī)明矩。其中,第二章第七條明確提出“建立健全算法機(jī)制機(jī)理審核和科技倫理審查等”,這無疑為算法價(jià)值敏感設(shè)計(jì)提供了最為有力的政策背書。
價(jià)值敏感設(shè)計(jì)研究源于20世紀(jì)末期歐美技術(shù)哲學(xué)的經(jīng)驗(yàn)主義轉(zhuǎn)向,并形成了以美國(guó)華盛頓大學(xué)為代表的美國(guó)學(xué)派和以荷蘭3TU(荷蘭代爾夫特理工大學(xué)、特文特大學(xué)和埃因霍溫大學(xué)的簡(jiǎn)稱)為代表的歐洲學(xué)派。[3]1996年,美國(guó)華盛頓大學(xué)的芭提雅·弗里德曼(Batya Friedman)最早提出價(jià)值敏感設(shè)計(jì)的概念,認(rèn)為其是一種基于理論的技術(shù)設(shè)計(jì)方法,是在整個(gè)設(shè)計(jì)過程中以原則性和綜合性的方式考量人類價(jià)值的方法。[4]價(jià)值敏感設(shè)計(jì)歐洲學(xué)派的代表荷蘭霍文(Jeroen van den Hoven)教授認(rèn)為技術(shù)并不是中立的,而是負(fù)載了某種對(duì)個(gè)人和社會(huì)產(chǎn)生重大影響的價(jià)值。[5]趙迎歡最早把價(jià)值敏感設(shè)計(jì)概念引入中國(guó),并總結(jié)概括了荷蘭技術(shù)倫理學(xué)理論的體系框架;[6]劉瑞林等則對(duì)弗里德曼的價(jià)值敏感設(shè)計(jì)概念及其應(yīng)用實(shí)踐進(jìn)行了較為系統(tǒng)的介紹。[7]
弗里德曼認(rèn)為,“價(jià)值敏感設(shè)計(jì)是一種基于理論的技術(shù)設(shè)計(jì)方法,通過概念性、經(jīng)驗(yàn)性和技術(shù)性三種方法的迭代重復(fù),來實(shí)現(xiàn)人類價(jià)值觀的置入,以綜合性和原則性的視角闡釋和解讀技術(shù)設(shè)計(jì)與運(yùn)用過程中的人類價(jià)值”。[8]價(jià)值敏感設(shè)計(jì)確立“技術(shù)—價(jià)值”并重的設(shè)計(jì)理念,強(qiáng)調(diào)在技術(shù)的構(gòu)思設(shè)計(jì)階段即加入人的價(jià)值和道德考量,充分考慮直接利益相關(guān)者和間接利益相關(guān)者的價(jià)值訴求,以有效解決信息技術(shù)領(lǐng)域不斷涌現(xiàn)的技術(shù)弊病和倫理道德失范等問題。目前,國(guó)內(nèi)外學(xué)者對(duì)價(jià)值敏感設(shè)計(jì)的研究和應(yīng)用尚未形成一個(gè)統(tǒng)一的價(jià)值框架,但是將技術(shù)的設(shè)計(jì)運(yùn)用與人類的倫理價(jià)值和行為方式相結(jié)合,將人的價(jià)值觀內(nèi)嵌于技術(shù)人工物之中,使技術(shù)人工物符合人的價(jià)值觀和行為方式,已成為共識(shí)。[9]
前涉性。價(jià)值敏感設(shè)計(jì)注重在技術(shù)的設(shè)計(jì)構(gòu)思階段即加入人類價(jià)值的考量,使技術(shù)設(shè)計(jì)人員在設(shè)計(jì)之前就傾聽各利益相關(guān)方的利益訴求,充分考慮該項(xiàng)技術(shù)所涉及的人類價(jià)值,以期從源頭就規(guī)避技術(shù)的價(jià)值缺失以及由此導(dǎo)致的社會(huì)倫理問題。
迭代性。價(jià)值敏感設(shè)計(jì)所提出的概念性、經(jīng)驗(yàn)性和技術(shù)性三種設(shè)計(jì)方法,遵循循環(huán)往復(fù)、迭代發(fā)展的邏輯理路。每一環(huán)節(jié)所確定的價(jià)值結(jié)果需要在其他兩個(gè)環(huán)節(jié)加以確認(rèn)、整合和驗(yàn)證,進(jìn)而再對(duì)之前的價(jià)值結(jié)果進(jìn)行螺旋式調(diào)整和完善。
開放性。在技術(shù)的設(shè)計(jì)與運(yùn)行中保持開放態(tài)度,與技術(shù)密切相關(guān)的各利益群體都可以參與到技術(shù)設(shè)計(jì)中來,技術(shù)設(shè)計(jì)活動(dòng)也是各利益相關(guān)者價(jià)值觀念、利益訴求交流協(xié)調(diào)的過程。
全程性。價(jià)值敏感設(shè)計(jì)強(qiáng)調(diào)技術(shù)的早期設(shè)計(jì)、中期制作和后期反饋,把價(jià)值敏感作為一個(gè)全程性理念和行為置入技術(shù)應(yīng)用的全過程,從整體上平衡和把握技術(shù)與人類倫理價(jià)值之間的關(guān)系。
基于內(nèi)容推薦算法顯見的工具效用,其甫一發(fā)軔,短短幾年便在內(nèi)容分發(fā)領(lǐng)域形成席卷之勢(shì)。與此同時(shí),對(duì)內(nèi)容推薦算法價(jià)值理性的呼聲也日益高漲。具體而言,其須具有用性、便捷性和無害性等價(jià)值理性。
用戶信息行為理論認(rèn)為,用戶的信息需求是用戶在特定的信息環(huán)境下,從個(gè)人需求出發(fā)而進(jìn)行的信息查詢、選擇和使用行為。[10]該理論強(qiáng)調(diào)用戶在信息消費(fèi)中的主動(dòng)性和自主性。內(nèi)容推薦算法擅長(zhǎng)對(duì)用戶顯在的興趣點(diǎn)進(jìn)行識(shí)別、記錄和匹配,滿足用戶對(duì)“欲知”信息的需求,但對(duì)用戶潛在的、未明確呈現(xiàn)的信息需求則顯得“力不從心”,而“未知”信息往往是能幫助用戶消除對(duì)現(xiàn)實(shí)環(huán)境不確定性、滿足用戶特定需求、幫助用戶實(shí)現(xiàn)自我發(fā)展的重要信息。
內(nèi)容推薦算法作為一種“技術(shù)人工物”,擁有形塑社會(huì)和文化形態(tài)并直接作用于個(gè)體的能力。[11]除“欲知”“未知”信息外,算法用戶還應(yīng)接觸體現(xiàn)主流價(jià)值觀和社會(huì)合意的“應(yīng)知”信息。主流價(jià)值觀是在當(dāng)代社會(huì)復(fù)雜的、多元的價(jià)值觀沖突中凸顯出來,得到社會(huì)大多數(shù)成員接受與認(rèn)同,并由社會(huì)主流意識(shí)形態(tài)倡導(dǎo)和支持的思想形態(tài)。[12]社會(huì)合意是指社會(huì)主體間在共同實(shí)踐的基礎(chǔ)上達(dá)成的一致性認(rèn)識(shí),是一個(gè)國(guó)家和民族存在的基礎(chǔ),也是社會(huì)價(jià)值系統(tǒng)的核心組成部分。[13]因此,內(nèi)容推薦算法必須把對(duì)用戶有用的“欲知”“未知”和“應(yīng)知”的信息全部傳達(dá)給用戶。
與傳統(tǒng)的人工分發(fā)相比,內(nèi)容推薦算法依托大數(shù)據(jù)、云計(jì)算等先進(jìn)技術(shù),在自動(dòng)化、智能化自主學(xué)習(xí)的基礎(chǔ)上,高效、便捷地連接信息生產(chǎn)和消費(fèi)。國(guó)內(nèi)外以今日頭條、百度、臉書(Facebook)、谷歌(Google)、泰晤士報(bào)等為代表的資訊平臺(tái)、搜索引擎平臺(tái),正是憑借內(nèi)容推薦算法技術(shù),不斷提升信息分發(fā)與消費(fèi)的便捷性,成為用戶信息獲取與意見表達(dá)的主要渠道。其服務(wù)的核心是基于大數(shù)據(jù)和智能算法技術(shù)實(shí)現(xiàn)用戶興趣和個(gè)性化信息的高效、精準(zhǔn)對(duì)接,極大地提升了信息分發(fā)效率,降低了用戶獲取知識(shí)的“費(fèi)力程度”。隨著內(nèi)容推薦算法技術(shù)的迭代升級(jí),其“便捷性”程度也將不斷提升。
無害性是指某事物或技術(shù)的使用和普及不對(duì)人類整體或部分群體產(chǎn)生心理、生理等方面的傷害。技術(shù)上的“可能”不等于倫理上的“應(yīng)該”。維納在論及互聯(lián)網(wǎng)技術(shù)時(shí)也提出,技術(shù)的發(fā)展,對(duì)善和惡都帶來無限的可能性。[14]技術(shù)的善惡與技術(shù)設(shè)計(jì)及其使用人員的價(jià)值觀和主觀性密切相關(guān)。黑格爾曾指出,當(dāng)個(gè)人的興趣、利益干擾了他正在看待的事物時(shí),就必然產(chǎn)生“壞的主觀性”,使事物偏離公共價(jià)值。技術(shù)價(jià)值觀也認(rèn)為技術(shù)不是中立的,是包含特定價(jià)值的,技術(shù)可以帶來益處,也可能帶來侵害。正確的技術(shù)價(jià)值觀要求把精神價(jià)值、倫理價(jià)值置入技術(shù)發(fā)展的全過程,充分發(fā)揮技術(shù)對(duì)大自然改造、社會(huì)生產(chǎn)力水平提升和人的人文關(guān)懷等效用價(jià)值,防止技術(shù)的濫用、誤用對(duì)人類造成的侵害。
內(nèi)容推薦算法通過對(duì)用戶畫像、消費(fèi)偏好、內(nèi)容標(biāo)簽及信息環(huán)境等因素的匹配,實(shí)現(xiàn)信息的“千人千面”,[15]解決了社交過濾導(dǎo)致的信息壟斷。[16]但內(nèi)容推薦算法的“黑箱”特性,遮蔽了媒體的可見性,[17]改變了以往新聞實(shí)踐的邏輯和價(jià)值原則,導(dǎo)致主流價(jià)值觀偏移、[18]用戶隱私侵犯、算法偏見與歧視等價(jià)值困境。
陳昌鳳、霍婕指出,內(nèi)容推薦算法滲透著多重價(jià)值觀,首先是目的最大化、利益先行的商業(yè)價(jià)值觀。[19]當(dāng)下內(nèi)容推薦算法大都由算法設(shè)計(jì)公司和資訊平臺(tái)把控,追求極致的流量?jī)r(jià)值從而獲得資本回報(bào)是其主要目標(biāo)。其次,資訊平臺(tái)的理念和文化也會(huì)影響推薦算法設(shè)計(jì)。比如臉書奉行的“3F”(Friend and Family First)原則,即在內(nèi)容推薦中優(yōu)先把互動(dòng)關(guān)系強(qiáng)的朋友和家人感興趣的信息推薦給用戶。最后,算法設(shè)計(jì)人員的個(gè)人偏好和認(rèn)知也體現(xiàn)著價(jià)值觀。比如在進(jìn)行用戶畫像掃描時(shí),算法設(shè)計(jì)師會(huì)基于個(gè)人認(rèn)知選擇性別、年齡、民族、區(qū)域等因素,并決定各因素所占的比重;在數(shù)據(jù)錄入、數(shù)據(jù)分析及數(shù)據(jù)輸出中可能同樣存在類似情況。算法設(shè)計(jì)者、建造者的社會(huì)責(zé)任感、新聞素養(yǎng)等同樣包含著價(jià)值判斷。因此,算法是帶有價(jià)值觀的,常受到來自經(jīng)濟(jì)、政治等非技術(shù)力量的影響,在代碼運(yùn)行之下潛藏著各種力量的博弈。[20]
算法平臺(tái)基于對(duì)用戶姓名、電話、郵箱、密碼等隱私信息的獲取,來實(shí)現(xiàn)“千人千面”的精準(zhǔn)匹配。平臺(tái)一旦對(duì)用戶個(gè)人信息管理不當(dāng)或超出合理使用范圍,則將對(duì)用戶隱私安全構(gòu)成威脅。2019年,臉書數(shù)億條用戶信息被公開發(fā)布在亞馬遜的云計(jì)算服務(wù)器AWS上。[21]無獨(dú)有偶,據(jù)《21世紀(jì)經(jīng)濟(jì)報(bào)道》披露,即使在未授權(quán)的情況下,今日頭條仍然會(huì)讀取用戶的手機(jī)通訊錄,并推薦通訊錄好友注冊(cè)今日頭條賬號(hào)。[22]上述案例足以說明,國(guó)內(nèi)外內(nèi)容推薦算法平臺(tái)很難做到對(duì)用戶個(gè)人隱私信息的安全管理和合法使用,這給用戶隱私信息安全帶來巨大風(fēng)險(xiǎn)。
長(zhǎng)久以來,由于技術(shù)在推動(dòng)人類社會(huì)發(fā)展中起著越來越重要的作用,因而人們更關(guān)注技術(shù)的正向價(jià)值而忽視了技術(shù)的負(fù)向價(jià)值。隨著社會(huì)的發(fā)展,人們逐漸認(rèn)識(shí)到技術(shù)及其異化給人類帶來的災(zāi)難和禍患,技術(shù)的負(fù)向價(jià)值也猶如打開的“潘多拉魔盒”。內(nèi)容推薦算法技術(shù)由于其“不透明”和“無法解釋”性,往往也會(huì)給用戶帶來虛假信息、算法歧視與偏見等負(fù)向價(jià)值效應(yīng)。“在數(shù)據(jù)的時(shí)代,數(shù)據(jù)的采集者和算法的設(shè)計(jì)人員很可能存在一些他們自己都意識(shí)不到的偏見”。[23]澎湃新聞?dòng)浾咴?2520個(gè)熱詞測(cè)試了百度搜索引擎的排序結(jié)果,發(fā)現(xiàn)首頁(yè)中89.8%的搜索結(jié)果來自百家號(hào)、百度百科、百度文庫(kù)等百度自家產(chǎn)品。[24]這種“把用戶留在自家平臺(tái)上”的排序算法,本質(zhì)上是對(duì)用戶的信息歧視與偏見。
依據(jù)美國(guó)心理學(xué)家吉布森(Gibson)提出的“可供性”(affordances)概念,可供性強(qiáng)的技術(shù)和媒體更能夠滿足用戶的需求,更容易得到社會(huì)的認(rèn)可。這一研究視角強(qiáng)調(diào)技術(shù)與社會(huì)、受眾之間的微觀互動(dòng)。[25]內(nèi)容推薦算法也可通過技術(shù)性方法強(qiáng)化自身的可供性,并為進(jìn)一步凸顯應(yīng)然價(jià)值找到切實(shí)的抓手。某種程度而言,技術(shù)性方法也因此成為價(jià)值敏感設(shè)計(jì)中最核心、最重要的內(nèi)容和手段。
從具體的流程上看,內(nèi)容推薦算法技術(shù)可分為設(shè)計(jì)構(gòu)思、程序?qū)崿F(xiàn)、數(shù)據(jù)處理和結(jié)果呈現(xiàn)四個(gè)階段(見圖1)。在內(nèi)容推薦算法設(shè)計(jì)的每個(gè)階段,均可能受到構(gòu)思者、設(shè)計(jì)者、管理者、內(nèi)容生成與運(yùn)營(yíng)者等個(gè)人社會(huì)責(zé)任感、新聞素養(yǎng)及偏見的影響,還可能受到經(jīng)濟(jì)、政治、社會(huì)文化等特定因素的左右或驅(qū)使。其中,在設(shè)計(jì)構(gòu)思階段,內(nèi)容推薦算法會(huì)更多地受到資訊平臺(tái)、算法公司等機(jī)構(gòu)利益先行的商業(yè)價(jià)值觀、公司理念和文化的影響;在程序?qū)崿F(xiàn)階段,程序編碼技術(shù)人員的個(gè)人偏好和認(rèn)知也會(huì)滲入算法環(huán)節(jié);在數(shù)據(jù)處理階段,數(shù)據(jù)的篩選與采集可能會(huì)侵犯用戶的個(gè)人隱私,數(shù)據(jù)的輸入也或受到操作人員價(jià)值觀的左右,算法程序自身的局限也可能造成歧視與偏見;在數(shù)據(jù)呈現(xiàn)階段,也可能融入廣告主或其他經(jīng)濟(jì)、政治等非技術(shù)因素。以上因素或整體性或個(gè)別性造成內(nèi)容推薦算法技術(shù)的偏頗或不足。鑒于此,在內(nèi)容推薦算法價(jià)值敏感設(shè)計(jì)中,上述環(huán)節(jié)和階段均應(yīng)推進(jìn)價(jià)值檢視,并對(duì)各行動(dòng)主體可能存在的價(jià)值偏差進(jìn)行有效識(shí)別和剔除。
圖1 內(nèi)容推薦算法的技術(shù)流程及其價(jià)值弊病
依據(jù)圖1,筆者提出了內(nèi)容推薦算法的價(jià)值敏感設(shè)計(jì)模型(見圖2),并且針對(duì)概念性方法和經(jīng)驗(yàn)性方法中的價(jià)值應(yīng)然和價(jià)值困境,有意識(shí)地進(jìn)行算法技術(shù)糾偏和價(jià)值彌合,以期統(tǒng)籌推進(jìn)算法工具理性和價(jià)值理性的和諧統(tǒng)一。
圖2 內(nèi)容推薦算法的價(jià)值敏感設(shè)計(jì)模型
從圖2可以看出,其通過多階段、多主體、多層次的操作流程來確立并凸顯內(nèi)容推薦算法的價(jià)值理性。具體而言,在內(nèi)容推薦算法價(jià)值敏感設(shè)計(jì)的程序?qū)崿F(xiàn)階段,一方面可通過語境核心詞提取、權(quán)重強(qiáng)化等技術(shù)手段,為主流價(jià)值觀等“應(yīng)知”信息的采集和推送開通“綠色通道”,注重用“開天窗”的方式打破“信息繭房”效應(yīng),糾正算法歧視與偏見等技術(shù)偏向和價(jià)值偏差;另一方面可倚重敏感詞匯過濾、用戶隱私信息加密等技術(shù)手段,在設(shè)計(jì)構(gòu)思和數(shù)據(jù)處理環(huán)節(jié)通過“普遍可用”、便捷性、知情同意、無害性等人文精神和價(jià)值理性來彌合隱私侵犯等技術(shù)缺陷。上述價(jià)值糾偏和技術(shù)彌合手段并非單向和單次的,而是雙向、持續(xù)和循環(huán)往復(fù)的,也就是說在內(nèi)容推薦算法設(shè)計(jì)和運(yùn)行的每一環(huán)節(jié)所識(shí)別到的問題,都可以在其他環(huán)節(jié)進(jìn)行檢視、確認(rèn)、整合和驗(yàn)證。
利益相關(guān)者是美國(guó)管理學(xué)家弗里曼(Allyn Freeman)提出的理論,是指與企業(yè)的生存與發(fā)展密切相關(guān)的個(gè)人、機(jī)構(gòu)和組織。[26]內(nèi)容推薦算法的直接利益相關(guān)者包括算法公司、資訊平臺(tái)、廣告主、新聞媒體、政府管理部門等;間接利益相關(guān)者一般包括廣大用戶、社會(huì)團(tuán)體、一般企事業(yè)組織等。需要特別指出的是,由于內(nèi)容推薦算法的設(shè)計(jì)和使用直接掌握在資訊平臺(tái)和算法技術(shù)公司手中,作為直接利益相關(guān)者,他們的利益往往能夠優(yōu)先得到最大程度的保障,而間接利益相關(guān)者,由于處于算法技術(shù)的從屬地位,他們的利益訴求往往很難被滿足,乃至成為利益犧牲的對(duì)象,需要在價(jià)值敏感設(shè)計(jì)的流程中予以格外注意。
具體來說,在價(jià)值敏感設(shè)計(jì)中要充分考慮內(nèi)容推薦算法直接、間接利益相關(guān)者的利益訴求,可通過借鑒國(guó)外平臺(tái)的有益經(jīng)驗(yàn),組建由政府或行業(yè)協(xié)會(huì)牽頭,由媒體平臺(tái)、技術(shù)公司、法律機(jī)構(gòu)、社會(huì)團(tuán)體、用戶代表等組成協(xié)同設(shè)計(jì)團(tuán)隊(duì),通過有效的信息公開(算法程序透明)和集體參與設(shè)計(jì)的方法,以此協(xié)調(diào)并實(shí)現(xiàn)各利益相關(guān)者的價(jià)值訴求。2018年,今日頭條首次公開其推薦算法技術(shù)原理,并邀請(qǐng)學(xué)界、業(yè)界和政府管理部門組成專家團(tuán)隊(duì)進(jìn)行協(xié)同把關(guān)。該平臺(tái)經(jīng)歷了從創(chuàng)立之初單一性的算法把關(guān),到算法與人共同把關(guān),再到多主體協(xié)同把關(guān)的迭代過程,借此提升了社會(huì)認(rèn)可度。
從系統(tǒng)論的角度看,內(nèi)容推薦算法必然受到社會(huì)關(guān)系、社會(huì)制度、法律法規(guī)、民族信仰等社會(huì)環(huán)境因素的影響。因此,內(nèi)容推薦算法在完成技術(shù)性操作并投入使用后,還需在實(shí)際的社會(huì)環(huán)境中檢驗(yàn)并評(píng)估運(yùn)行效果,這一點(diǎn)也必須在算法的價(jià)值敏感設(shè)計(jì)模型中得到充分的重視和實(shí)際體現(xiàn)。如通過定時(shí)或不定時(shí)收集相關(guān)評(píng)價(jià),以及編撰算法社會(huì)責(zé)任年度報(bào)告等,進(jìn)行內(nèi)容算法的正負(fù)外部性的科學(xué)測(cè)評(píng),并將相關(guān)結(jié)果輸入設(shè)計(jì)構(gòu)思、程序設(shè)計(jì)等進(jìn)行優(yōu)化,以此對(duì)數(shù)據(jù)處理和結(jié)果呈現(xiàn)產(chǎn)生直接的影響。這一過程與新近實(shí)施的《規(guī)定》中的“算法推薦服務(wù)提供者應(yīng)當(dāng)定期審核、評(píng)估、驗(yàn)證算法機(jī)制機(jī)理、模型、數(shù)據(jù)和應(yīng)用結(jié)果”等要求不謀而同。基于算法“公共性”的考量,及時(shí)有效地依據(jù)評(píng)估結(jié)果持續(xù)對(duì)內(nèi)容推薦算法及價(jià)值呈現(xiàn)進(jìn)行調(diào)適,使算法推薦技術(shù)在有用性、便捷性、無害性等價(jià)值上愈發(fā)彰顯,而且可有效規(guī)避主流價(jià)值觀偏移等硬傷。
內(nèi)容推薦算法價(jià)值敏感設(shè)計(jì)的出發(fā)點(diǎn)和目標(biāo)正是回到算法的技術(shù)根源,并且引入利益相關(guān)者和社會(huì)環(huán)境等因素進(jìn)行價(jià)值調(diào)適和權(quán)力增減的探索,試圖構(gòu)建公平、可責(zé)和透明( Fair,Accountability,Tr ansparency,F(xiàn)AT) 的算法價(jià)值體系,其實(shí)質(zhì)乃是建立算法自身的規(guī)范性,并且凸顯“破中有立”“立中有破”的“破立之道”。從實(shí)踐脈絡(luò)看,借重概念性、經(jīng)驗(yàn)性、技術(shù)性“三重方法”的疊加使用,以此有力破除內(nèi)容推薦算法技術(shù)可能引發(fā)的負(fù)向價(jià)值,并大力激發(fā)其正向價(jià)值。
價(jià)值敏感設(shè)計(jì)以道德認(rèn)識(shí)論為基礎(chǔ),通過一種考察概念、經(jīng)驗(yàn)和技術(shù)問題的三重迭代設(shè)計(jì)方法,凸顯設(shè)計(jì)過程中的人類價(jià)值。而且必須注意到,區(qū)別于常見的無意識(shí)的價(jià)值輸入,內(nèi)容推薦算法的“價(jià)值敏感設(shè)計(jì)”是有意識(shí)且旗幟鮮明地納入主流價(jià)值因素。這一方案的可行性,除了可以找到《規(guī)定》中要求算法應(yīng)用“向上向善”“堅(jiān)持主流價(jià)值導(dǎo)向”等政策依歸,還依存于兩條具可操作性的技術(shù)路徑:一方面,基于清晰的價(jià)值敏感設(shè)計(jì),通過內(nèi)部的正向價(jià)值賦予,對(duì)算法此一技術(shù)人工物建構(gòu)規(guī)范性,合理內(nèi)嵌正當(dāng)?shù)牡赖聵?biāo)準(zhǔn),確保“善”的構(gòu)建;另一方面,在做好正向價(jià)值“加法”的同時(shí),還以“減法”方式規(guī)避價(jià)值異化等問題,由此有效彌合技術(shù)工具性和價(jià)值倫理之間尚存的差距,達(dá)到一種立“道德”算法、破“偏私”算法的理想狀態(tài)。
“算法黑箱”掩蓋并可能在一定程度上加劇了算法偏見和對(duì)基礎(chǔ)數(shù)據(jù)的使用問題。在內(nèi)容推薦算法中的價(jià)值敏感設(shè)計(jì)環(huán)節(jié),突出了對(duì)利益相關(guān)者訴求的落地和強(qiáng)化,依托平臺(tái)、社會(huì)、媒體等多方參與設(shè)計(jì)和合理的信息公開,以技術(shù)性方法推進(jìn)算法平臺(tái)做好算法的透明化和可解釋性,包括合理公開算法決策的內(nèi)在因果性和相關(guān)性等。
2017年,美國(guó)計(jì)算機(jī)協(xié)會(huì)(USACM)將算法透明度和可問責(zé)性作為基本的原則。在我國(guó),《個(gè)人信息保護(hù)法(草案)》明確了算法自動(dòng)化決策的透明度要求?!兑?guī)定》也闡明了算法推薦提供者應(yīng)著力“優(yōu)化檢索、排序、選擇、推送、展示等規(guī)則的透明度和可解釋性”“以適當(dāng)方式公示算法推薦服務(wù)的基本原理、目的意圖和主要運(yùn)行機(jī)制等”原則。在內(nèi)容推薦算法的價(jià)值敏感設(shè)計(jì)中,正是要以通俗易懂的方式揭開“算法未知之幕”,從而確立可理解的“透明算法”。正如阿里爾·扎拉奇和莫里斯·斯圖克所言,算法在透明化的環(huán)境中運(yùn)行對(duì)算法相對(duì)人最為有利,不僅能夠降低檢索成本還有利于避免算法致害。從更為宏觀的視野看,算法價(jià)值敏感中對(duì)透明度的設(shè)計(jì)和落地,也是我國(guó)算法治理中的重要環(huán)節(jié),具有極為重要的社會(huì)價(jià)值和現(xiàn)實(shí)意義。
以往制度化的權(quán)力只存在于公權(quán)力體系中,但在信息時(shí)代,算法借助算力和架構(gòu)已經(jīng)演變成控制社會(huì)資源的非制度化權(quán)威。依托所涉技術(shù)的高門檻性,算法使用者可以占據(jù)支配性地位,一旦與資本合謀,更可能形成事實(shí)上的“算法霸權(quán)”,甚至發(fā)展為“算法獨(dú)裁”,改變了算法使用者與算法相對(duì)人的平等地位和對(duì)等權(quán)利狀態(tài),甚至?xí)治g他人合法權(quán)益。內(nèi)容推薦算法價(jià)值敏感設(shè)計(jì)在限權(quán)方面的嘗試,凸顯了“基于設(shè)計(jì)來確立權(quán)力邊界”的限權(quán)原則。通過算法程序設(shè)計(jì)、算法價(jià)值審查、算法結(jié)果評(píng)估和反饋等多元方式,既發(fā)揮技術(shù)設(shè)計(jì)的基礎(chǔ)性和預(yù)防性作用,也同時(shí)倚重制度設(shè)計(jì)的方式規(guī)范算法使用行為,全維度、多層面保護(hù)算法相對(duì)人的權(quán)益和應(yīng)有的社會(huì)價(jià)值。而且,相對(duì)于公權(quán)力的“事后結(jié)果處罰”的威權(quán)控制模式,內(nèi)容推薦算法價(jià)值敏感設(shè)計(jì)是對(duì)算法私權(quán)力的“事前限權(quán)”,也是算法治理中規(guī)制成本更低,成效更為顯著的優(yōu)選項(xiàng)。
作為新興的信息技術(shù)規(guī)制的理論和方法,弗里德曼提出的價(jià)值敏感設(shè)計(jì)理念已在國(guó)外的瀏覽器、APP、網(wǎng)絡(luò)社區(qū)等信息產(chǎn)業(yè)和計(jì)算機(jī)信息系統(tǒng)、機(jī)器人、城市建設(shè)模擬系統(tǒng)、納米制藥等領(lǐng)域得以成功實(shí)踐,荷蘭技術(shù)哲學(xué)學(xué)派等也對(duì)此予以積極的呼應(yīng)和行動(dòng)支持。以上種種,為價(jià)值敏感設(shè)計(jì)應(yīng)用于內(nèi)容推薦算法規(guī)制提供了良好樣本和實(shí)戰(zhàn)經(jīng)驗(yàn)。針對(duì)國(guó)內(nèi)治理困境,本研究提出價(jià)值敏感設(shè)計(jì)方案,乃是綜合算法技術(shù)、利益相關(guān)者、現(xiàn)實(shí)影響等多元因素所提出事先調(diào)控的解決方案,既著重對(duì)算法可能產(chǎn)生的價(jià)值偏差和權(quán)力越界加以規(guī)制,也注重助推其作為公共性應(yīng)用產(chǎn)生更大的正向價(jià)值,凸顯“三立三破”的積極效用。
價(jià)值敏感設(shè)計(jì)的本質(zhì)是處理“技術(shù)—人—價(jià)值”之間的關(guān)系。在此方案中,概念性、經(jīng)驗(yàn)性、技術(shù)性的方法是一個(gè)系統(tǒng)整體,它們相互作用,互為影響。每個(gè)階段的工作都至關(guān)重要,都為其他階段提供信息和判斷依據(jù)?!叭胤椒ㄕ摗被A(chǔ)之上的價(jià)值敏感性設(shè)計(jì)是一個(gè)持續(xù)發(fā)展、相互迭代、不斷變化的過程,也是內(nèi)容推薦算法不斷進(jìn)行自身調(diào)適的過程。[27]