文/楚灃
適用話題:信息繭房 企業(yè)責任 互聯(lián)網(wǎng)治理
用了一段時間后,APP 就能“猜”到你喜歡什么,并精準推送相關(guān)內(nèi)容……互聯(lián)網(wǎng)算法看不見、摸不著,卻極大地影響著我們的上網(wǎng)體驗和日常生活。
由北京大學互聯(lián)網(wǎng)發(fā)展研究中心與互聯(lián)網(wǎng)公司聯(lián)合發(fā)布的《中國大安全感知報告(2021)》顯示,有七成受訪者感到互聯(lián)網(wǎng)算法能獲取自己的喜好、興趣從而“算計”自己,近五成受訪者表示,在算法束縛下想要逃離網(wǎng)絡(luò)、遠離手機。
據(jù)不完全統(tǒng)計,基于算法的個性化內(nèi)容推送已超過整個互聯(lián)網(wǎng)信息內(nèi)容分發(fā)的70%?;ヂ?lián)網(wǎng)算法已經(jīng)在不知不覺中融入了我們生活、工作的方方面面。
一方面,進入數(shù)字時代,算法成為挖掘數(shù)據(jù)價值的重要手段。其核心價值是把“人找信息”轉(zhuǎn)變?yōu)椤靶畔⒄胰恕?,高效完成人與信息的匹配。算法越精準,平臺對用戶行為習慣、興趣喜好的了解越深入,分發(fā)的內(nèi)容也就越符合用戶需求;而對于平臺而言,通過這種“投其所好”的方式也可以快速獲取商業(yè)價值,實現(xiàn)“雙贏”。
另一方面,算法使大量碎片化、快餐化、圈層化的信息流涌入,使人逐漸喪失主動、獨立思考的能力,迷失于“信息繭房”之中,甚至引發(fā)“信息暴食”、情緒傳染、隱私風險等諸多問題。更嚴重的是,一些平臺甚至通過大數(shù)據(jù)“殺熟”實行不合理差別待遇。
依據(jù)技術(shù)哲學專家安德魯·芬伯格的技術(shù)批判理論,技術(shù)并不是一個中立的工具,而是會帶有自己的價值觀及價值偏好。因為每項技術(shù)都不是來自真空,而是有特定的場景,比如:技術(shù)由誰開發(fā)、為什么開發(fā)、技術(shù)如何運用。
在相當長的時間內(nèi),科技公司們把“算法無罪”“技術(shù)中立”當做萬能免罪牌。但是,近年來國內(nèi)外的互聯(lián)網(wǎng)用戶都逐漸意識到這其中的問題。無論是Facebook 的用戶信息泄露事件,還是引發(fā)爭議的“中國用戶愿意用隱私換效率”說法,都凸顯出用戶權(quán)利的覺醒。人們不再把算法視作撲朔迷離的黑箱,而要進入其中一探究竟。
算法實際是平臺的一個抽象人格,是平臺對接用戶的“全權(quán)代表”。
既然企業(yè)必須擔當社會責任,那作為平臺全權(quán)代表的“算法”自然也要承擔社會責任。既然是人格化的,那它就必須具有良善人格,體現(xiàn)社會的主流核心價值觀。
數(shù)字技術(shù)已經(jīng)成為人們生活的不可或缺。技術(shù)的出發(fā)點要以人為本,將保障人民群眾權(quán)利與權(quán)益作為技術(shù)應用的尺度和標準,通過法律強制性,對公民的互聯(lián)網(wǎng)隱私權(quán)、數(shù)據(jù)權(quán)、表達權(quán)、人格尊嚴權(quán)等權(quán)利和自由加以保護。
作為互聯(lián)網(wǎng)治理的基礎(chǔ)工程,頂層規(guī)則的建構(gòu),可說是重中之重。國家網(wǎng)信辦等四部門聯(lián)合發(fā)布的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》于2022 年3 月起正式施行。規(guī)定聚焦由算法引發(fā)的大數(shù)據(jù)“殺熟”、誘導過度消費等侵害用戶權(quán)益亂象和問題,構(gòu)建算法安全治理體系。在《網(wǎng)絡(luò)安全法》《數(shù)據(jù)安全法》《個人信息保護法》等上位法施行之后,這一領(lǐng)域的立法,充分彰顯了我國以人為本、促進數(shù)字經(jīng)濟健康有序發(fā)展的決心。
可以預見,隨著監(jiān)管體系的建立和算法規(guī)制的完善,算法應用及相關(guān)行業(yè)將會迎來更加光明的發(fā)展前景。