你是否有過這樣的體驗,在同一個視頻平臺看久了,推送給你的都是某些類型的視頻,而恰巧這些視頻都是你愛看的,一個接一個,根本停不下來。當你在某一個游戲里玩的時間越久,就越難抽中好的道具,可一旦你刪掉賬戶重新來過,好的道具就會迅速來到你身邊。按照今天的技術(shù)來說,每當你啟動一個APP,你就成了AI算法里的一個虛擬ID,你所看到的任何內(nèi)容,任何商品都是由算法來決定。對于許多天生不喜歡受控的人來說,這種被操控的感覺相當不好。正所謂知己知彼,只有了解算法是什么,才有對抗的可能。
想理解什么是算法,我們先設(shè)想一個場景。幾千年前,一位古人憑著他對已故祖母如何做面包的記憶,嘗試自己做面包。問題是他真的不知道該怎么做。他猶豫著將麥仁放入沸水中……經(jīng)過幾個小時折騰,最后對自己說,這也許是個糟糕的想法。這位古人的困境,正是我們都會面臨的情況—遇到某一個問題,卻又不知道該如何解決。我們想著解決方法,去嘗試,反復(fù)探索實驗,順便有了一點點意外發(fā)現(xiàn),直至成功……或者失敗。
然而,真正的面包師并不是這樣做的。他們不會給每爐面包都重制一個烘焙食譜,因為他們已經(jīng)掌握并牢記了面包的烘焙方法。多虧了面包食譜,面包師可以每天給我們提供面包。事實上,人類文明的發(fā)展不僅源于有些人的發(fā)明創(chuàng)造,也因為另有人“復(fù)制”了這些發(fā)明,才使某些東西得以持續(xù)改進。
因此我們不能忽略了面包食譜的寶貴之處。首先,食譜降低了不確定性:多虧了它,面包師知道,除非突遭一場災(zāi)難,否則面包將會在晚餐時準備好。有了這個食譜,不需要什么想象力或是天賦,任何人都可以做面包。即便我們對面包烘焙沒有任何天賦,但仍可以從網(wǎng)頁上找到恰當?shù)氖匙V,運用勞動力,借助更富有想象力和才華的面包師們寫下的方法,做出面包。最終,這個食譜成了人類遺產(chǎn)中的一部分,在幾千年的歷史長河中,代代相傳。
在這里,食譜就是一個算法,我們就此有了“算法”概念的初步定義:一個算法是解決一個問題的進程。從這個定義不難看出,自人類歷史初期,我們就一直在發(fā)明、使用和傳播著各種各樣的“算法”,用來烹飪、雕琢石器、釣魚、種植扁豆及小麥,等等。
通俗來說,算法就是一套核心計算規(guī)則或是人為先驗或是機器學習。從某種意義上講,人類本質(zhì)上就是一條自然界演化而來的算法,基因則是構(gòu)成算法的最小單元。經(jīng)歷了第四次工業(yè)革命的浪潮后,算法對生活的影響已經(jīng)到了常人難以想象的程度。
說個有意思的事情,1882年初,尼采收到了一部德國制造的球形打字機。彼時的他一度因為視力下降而徹底放棄寫作,但這臺最初為聾啞人發(fā)明的古怪機器,從機能退化中挽救了這位大哲學家。借助球形打字機,每分鐘最高可以打出800個字符,即便閉眼盲打也不成問題。第二年,尼采就寫出了《查拉圖斯特拉如是說》,其中第一部分的完工只花了10天工夫。
這臺打字機在帶來寫作便利的同時,也影響到尼采的思維和文風。與用筆寫下的《悲劇的誕生》不同,《查拉圖斯特拉如是說》中長篇大論的深度思辨銳減,短小精悍的箴言和論斷比比皆是。一位熟悉尼采寫作風格的朋友覺察出了此中變化,并去信詢問:這一變化是否與打字機有關(guān)?尼采的回答毫無諱言:“你是對的,我們所用的寫作工具參與了我們思想的形成過程。”
這個例子說明媒介技術(shù)從來就都不是中性化的工具,我們使用它,它也反過來浸染了我們,小到個體思維,大到整個社會運作的邏輯。今天,當智能手機、短視頻、推薦算法這些技術(shù),充斥在我們的生活之中并幾近成為知識與思想的唯一來源,那會帶來哪些改變呢?
以手機為例,現(xiàn)在智能手機的底層硬件加速以及你所用到的幾乎每一個規(guī)?;能浖?yīng)用,絕大多數(shù)都有算法驅(qū)動。這里咱們做個實驗,大家可以找到自己手機里常用的三個軟件,看看它們是否符合后面講到的一些特征。
當然,有人看到這肯定會想,只要關(guān)掉手機不上網(wǎng)不就完事了嗎?先不說不用手機的可行性,如今的公共交通系統(tǒng)基本都是由調(diào)度AI在運作。你路過的每個路口,天網(wǎng)中的視覺AI都會記錄識別。即使你足不出戶,水電能源系統(tǒng)也是由算法分配。換句話說,只要不回歸到刀耕火種的原始生活,那么在未來你是不可能擺脫算法的。
我們理解世界的基石是理論,如牛頓力學、相對論、進化論等。當一種理論進行了預(yù)測并通過觀察得以證實的時候,這種理論就是“科學的”。例如,牛頓力學預(yù)測了地球上某一點的日出和日落時間。人們可以對比預(yù)測的時間和實際觀測的時間,如果這兩個時間不一致,那說明理論出現(xiàn)了問題。
某些理論可以用算法表達,例如計算太陽系中行星運動軌跡的算法。這種算法理論被稱為“模型”。鑒于其自身的算法性質(zhì),模型就是用計算機對相關(guān)現(xiàn)象進行“模擬”。人們已經(jīng)開發(fā)了許多現(xiàn)象的模型,如大氣和海洋的演變、腦功能的運轉(zhuǎn)方式、板塊運動、城市發(fā)展、股價變化、人口流動,等等。
牛頓力學等經(jīng)典理論往往基于為數(shù)不多的幾個方程。模型則更復(fù)雜,涉及面也非常廣泛。例如,城市發(fā)展的模型必須考慮人口的發(fā)展過程,以及經(jīng)濟、政治、地理等影響因素。
鑒于這種復(fù)雜性,一些現(xiàn)象即使尚未被充分理解也可以被建模和模擬。牛頓經(jīng)典物理學家掌握方程,一步一步推理和解釋結(jié)果。而氣象模型極其復(fù)雜,我們不可能遵循所有計算,從中簡潔地解釋結(jié)果。這類模型能以較高的正確率對天氣進行預(yù)測,告訴我們明天是否會下雨,但不會解釋下雨的原因。
原則上,模型應(yīng)當和理論一樣受到同樣的約束:模型的預(yù)測結(jié)果應(yīng)該與觀測結(jié)果一致,否則模型就是不正確的。然而,由于模型的復(fù)雜性,我們不得不重新審視“不正確”這個詞的含義。當理論的預(yù)測結(jié)果與觀測結(jié)果不一致時,理論就應(yīng)該被放棄,或至少需要重新審查。但是,一個復(fù)雜模型的預(yù)測依賴許多參數(shù),若只與某些觀測結(jié)果有“輕微”出入,實際應(yīng)用中就不會放棄這個模型。
當預(yù)測結(jié)果和觀測結(jié)果出入太大時,我們會嘗試引入新的參數(shù),這會讓模型更復(fù)雜一點。因此,存在缺陷的模型很少被放棄—當預(yù)測結(jié)果與觀測結(jié)果不同時,我們嘗試對模型加以改進。算法模型讓人們陷入了一個自相矛盾的情況:算法模型可以研究比經(jīng)典理論復(fù)雜得多的現(xiàn)象,所以它們代表了科學領(lǐng)域的一個延伸;但是,難以對算法模型的結(jié)果進行解釋,也就很難對其預(yù)測結(jié)果和觀測結(jié)果加以比較,模型的科學性就會減弱。
不同類型的算法通常共同應(yīng)用在同一個系統(tǒng)中。例如,在一列無人駕駛的火車上,一些算法控制著火車的行駛速度,另一些控制門的開關(guān),還有一些控制交通管理。概述全面展示了傳統(tǒng)算法的多姿多彩,而人們還在通過完善已有算法和設(shè)計新算法,不斷豐富著算法世界。
說到這里,就該有一個靈魂拷問了—我們?yōu)槭裁匆獙顾惴??其實每一個AI或者說每一套算法在設(shè)計初衷都是以人為核心,服務(wù)于人的。AI本身是沒有好壞之分的,說到底,目前的AI還只是工具,它所造成的影響取決于使用它的人有什么意圖。
如果是好的意圖,比如降低犯罪率,提高地鐵效率或是減少交通擁堵,大家都會喜聞樂見。但如果算法的意圖變成讓用戶不斷花費時間、花費金錢,一切只為了流量、為了利益,那么AI就成了資本的幫兇。
我們可以簡單地將算法特別分為兩類:一類是消費算法,一類是生產(chǎn)算法。對于消費算法,AI所遵從的意圖只有一個,就是讓使用者盡可能地消費更多東西,比如內(nèi)容、商品或者信息。典型的就是知乎、抖音和淘寶。而生產(chǎn)算法,則是將使用者看作生產(chǎn)要素進行更合理地分配調(diào)度進而提高生產(chǎn)效率,比如服務(wù)系統(tǒng)里的外賣小哥和網(wǎng)約車司機。
無論是哪種算法,本質(zhì)上都由系統(tǒng)最高權(quán)限者的意圖來決定其運作模式,我們可以把這個現(xiàn)象稱為算法異化。這里用外賣員問題來舉例—外賣系統(tǒng)中的調(diào)度算法是典型的生產(chǎn)算法,其核心是路徑規(guī)劃和實體匹配,簡單來說就是如何更高效地讓生產(chǎn)者從A點到達B點。
相對于傳統(tǒng)的人工規(guī)則調(diào)度,算法所節(jié)省下來的時間,本意是為了生產(chǎn)者有更寬裕的時間去安全行駛,讓消費者可以減少等待時間。但到了后來,無一例外,全都變成了壓榨勞動時間的絕佳工具。在掌握系統(tǒng)的資本看來,節(jié)省下來的時間就是金錢,至于道路安全、司乘安全與我何干?
于是,外賣時間從一個小時變成30分鐘,事故率卻不見降低,用戶體驗也越來越差。甚至餓了么這樣的平臺還搞出了“你愿意多給我5分鐘嗎?”這樣魔幻的操作。本質(zhì)上就是將算法系統(tǒng)的意圖矛盾轉(zhuǎn)嫁到生產(chǎn)者和消費者之間,這就導(dǎo)致一個現(xiàn)象—即整個系統(tǒng)的必要勞動時間減少了,但生產(chǎn)者反而越來越累,究其原因不過是資本的工具,從工廠和機械設(shè)計,升級為了系統(tǒng)和算法,本質(zhì)上還是剝削剩余價值,從民眾身上賺取利潤。
相較于直觀地將工人困在工廠長時間操作機器勞動,通過AI技術(shù)的剝削顯得更加隱蔽和難以察覺。不幸的是,生產(chǎn)算法無法對抗,因為無論是外賣小哥還是網(wǎng)約車司機,都只是系統(tǒng)的生產(chǎn)要素,就像車間中的零件一樣。對于分配到的任務(wù),他們只有兩個選擇——接或不接,而在生活壓力下,大多數(shù)人其實并沒有選擇不接的自由。對抗,更是無從談起,雖然殘酷,但這就是現(xiàn)實。
看到這里,如果你們擁有一些選擇的自由,也許該感到慶幸。得益于這些自由,你們可以按照接下來要講的內(nèi)容來試著去對抗消費算法。消費算法有兩大核心分別是推薦機制與成癮機制。推薦機制的第一意圖是為了讓用戶更多地消費,以此產(chǎn)生流量收益,但會造成內(nèi)容同質(zhì)化效益,也就是大家都聽過的繭房信息。
信息繭房,顧名思義就是在不斷接觸同類化信息的過程中,自身被禁錮在一個由算法所編制的信息蠶蛹中,形成了一個與世隔絕的繭房,進一步引發(fā)回聲室效應(yīng)和過濾氣泡。前者是指同類信息不斷重復(fù),形成了一個只有相似意見的回聲室,人們的態(tài)度在相近信息的重復(fù)廣播中被增強,進而形成群體性偏見。比如田園女權(quán)、飯圈文化。
過濾氣泡則是指算法將不符合用戶興趣的信息過濾,只篩選出已經(jīng)獲得相似群體陽性反應(yīng)的信息,這就導(dǎo)致你能接受的信息越來越符合你的三觀,并且逐漸根深蒂固。同時遠離并忽略跟你所在群體以外的信息和觀點,造成了認知上的撕裂和各種網(wǎng)絡(luò)與現(xiàn)實中的沖突。這也是為什么魔幻現(xiàn)實主義在當今如此盛行。
有意思的是,雖然信息繭房這個提法出現(xiàn)了很久,但并沒有能夠從根源上解釋其存在原因的資料。看來大家都是點到為止,江湖人士好自為之。今天咱們試試不講武德,來說說信息繭房存在的根本原因。
首先大家要了解一個算法理論中著名的EE均衡問題——第一個E代表Exploit就是基于已知的興趣來開采用戶的時間、金錢。第二個E則代表Explore即探索用戶新的興趣、擴展用戶認知。這兩個E此消彼長,算法就是在其中權(quán)衡。第一個E越大,則系統(tǒng)短期收益越高,繭房效應(yīng)越強。第二個E越大則短期收益越低,長期體驗越好。
這么看來,似乎有追求的公司都會選擇第二個。然而現(xiàn)實是,所有嘗試過第二個E的公司,最后都不約而同地放棄此選擇,竭盡所能地提高第一個E的權(quán)重。顯而易見,短期可開采收益對資本來說才是至關(guān)重要的,而探索只能在融資時當作技術(shù)噱頭做給市場、投資人看的。這就是為什么信息繭房存在的根本原因。
這里咱提一下,為了讓這個信息繭房更加堅固,AI會做些什么。我們以一個新聞分發(fā)的應(yīng)用為例,首先,AI要認識你“你”所代表的是用戶畫像——它通常由幾個維度構(gòu)成:自然屬性、行為軌跡和閱讀習慣。
自然屬性包括你的性別、籍貫、年齡、身份、學歷、職業(yè)等。其中有些是終生不變的,有些是階段性變化的。這些信息的收集,主要通過你在APP上的注冊信息和開屏問卷完成的。你的手機型號也是參考指標,比如,使用蘋果的人和使用紅米的人肯定是兩個群體。行為軌跡是你在什么時間,去了什么地方。這是對場景的判斷,引申為對人的行為習慣的判斷。收集這些信息,主要通過手機定位(只要你用了智能手機,基本相當于裸奔)。閱讀習慣則是你對內(nèi)容的點擊、評論、轉(zhuǎn)發(fā)、搜索、訂閱、停留時長、打開頻次等。包括你是喜歡看短視頻,還是對文字情有獨鐘。
用戶畫像中最難的,是對人性的刻畫“知人知面不知心”說的就是這個道理。你關(guān)注的內(nèi)容和出身密切相關(guān),但又會隨著時間和環(huán)境的變化而變化。興趣又分長短,愛好有強有弱。更何況在很多時候,用戶內(nèi)心的真正想法并沒有在其閱讀行為中表現(xiàn)出來,而是需要去“猜測”,這些都給算法提出了艱巨的挑戰(zhàn)。
那么,怎么畫出更精準的你?“路遙知馬力舊久見人心?!狈g成算法語言,就是更長久、更全面地獲取用戶信息,積累更多、更全、更深度地數(shù)據(jù)。比如關(guān)于地理位置,到底是能定位到商圈和小區(qū),還是能實時定位到用戶站的地方。定位越精準,用戶畫像越準確。我們也常用“閱人無數(shù)”來形容人的辨別能力。如果一個人和很多人交往過,再想騙他就很難。
算法也是如此。用戶數(shù)量大,后臺記錄的規(guī)律性東西就越多,也越有助于判斷某一個用戶的行為習慣。所以,超級平臺(DAU在1億以上)的用戶畫像的準確程度,肯定要高于一般平臺。馬云把大數(shù)據(jù)稱之為“新時代的生產(chǎn)資料”,而數(shù)據(jù)本身,就是用戶行為的數(shù)字化反應(yīng)。
在分析完“你”之后,就輪到分析內(nèi)容了。是的,對于AI算法來說,只分析用戶是不夠的,還得分析自己的內(nèi)容。對某一篇文章或者某一個視頻,AI同樣可以將它拆解為幾個維度。比如領(lǐng)域:也就是該內(nèi)容是說什么的。比如時政、財經(jīng)、科技或者體育;體育又可以進一步細分為足球——中超——國安——國安某球員。拆得越細,越有利于精準分發(fā)。
此外還有體裁:內(nèi)容形式是文字、圖片、視頻、音頻,直播或者是小于140字的短內(nèi)容。作者:也就是誰創(chuàng)作了相關(guān)內(nèi)容?質(zhì)量:它有兩個維度,第一是編輯判斷,第二是數(shù)據(jù)判斷。編輯的判斷是選題、采訪、寫作和包裝;而數(shù)據(jù),則是通過點擊、分享、收藏、用戶停留時長等判斷,相關(guān)的內(nèi)容是否受到用戶的喜愛。
內(nèi)容畫像以“標簽”進行定義。比如,我們可以給《戰(zhàn)狼2》打這樣的標簽:電影、動作片、戰(zhàn)爭片、主演吳京、票房很高。標簽可能來自內(nèi)容的作者、來自平臺的審核人員,更多是來自算法的理解。那么,算法又是如何給內(nèi)容打標簽的呢?可以通過關(guān)鍵詞的識別、關(guān)鍵語句的識別甚至對全文的識別。
識別的過程就是機器學習——我們不停給它輸入文章,引導(dǎo)它做判斷,就像教會小朋友識字、分析段落大意、寫出中心思想一樣。算法為文章打標簽,最初靠關(guān)鍵詞。比如有"老虎+梅花鹿”的文章,會被定義為“動物世界”;而“老虎+貪官”的文章,會被定義為反腐。當大量文章被算法學習后,算法打標簽就越來越準。
如果是視頻,算法打標簽的難度就會遠遠大于文章,因為少有關(guān)鍵詞可尋。所以,算法對視頻的理解,一是靠更海量數(shù)據(jù)——比如快手,每天數(shù)千萬條內(nèi)容的上傳,通過人臉識別等系統(tǒng),算法會逐步認知視頻中出現(xiàn)的人、物、場景;二是很多平臺都鼓勵作者打標簽,這樣在算法判斷之前,已經(jīng)有了一個初步分類。
但內(nèi)容畫像的真正難度,是在于理解文章所要表達的價值觀。這就如同用戶畫像中最難刻畫的是人性一樣。很多內(nèi)容,只能意會不能言傳。王國維在《人間詞話》里提到的境界,金庸在武俠小說里描述的“無招勝有招”,都是算法目前無法理解的。所以,算法再精準,終究比不上人。那么,某些文章或者視頻能在浩如煙海的內(nèi)容中脫穎而出,排上頭條,背后的邏輯又是什么呢?這就涉及另一個關(guān)鍵詞——關(guān)心。
對于“關(guān)心”這個詞,每個人都不陌生。我們希望更多人關(guān)心自己,當然,如果有人可以關(guān)心,那也是一種幸福。但對內(nèi)容分發(fā)AI算法來說,“關(guān)心”有著另一層含義——它指某個用戶對某些內(nèi)容的行為,比如點擊、點贊、評論、收藏、搜索、訂閱、轉(zhuǎn)發(fā),以及在某篇文章、某個視頻上停留的時間,看到什么位置就退出,甚至直接點了“舉報”等等。
這些行為會被算法模型忠實記錄下來、以天為周期形成用戶日志。時間越久,日志積累越多,你“關(guān)心”什么就越清晰,你的用戶畫像就越完整。我們可以再分析一下這些具體的行為。從點擊到訂閱,是逐步深化的。翻譯過來,就是越來越“關(guān)心”。如果把點擊看作搭訕的話,訂閱基本相當于確定戀愛關(guān)系了。而轉(zhuǎn)發(fā),則是用你的關(guān)心影響別人,“看,我的女朋友有多好!”而停留時長,則是一天要陪TA多久。
那么問題又來了,如果一個人點擊了5次A文章,搜索了一次B文章,請問:這個用戶更關(guān)心誰?因為這個用戶更關(guān)心誰,又決定著誰是頭條、誰是二條。這個問題其實沒有標準答案。因為涉及算法模型的使用,或者說具體怎么算,類似到底是用加法還是用乘法。在這道思考題里,我們并沒有設(shè)置一個前提——到底追求的是什么?
如果追求點擊率,當然應(yīng)該是按照點什么推什么的邏輯;但如果追求的是用戶黏性,那就要推用戶搜索的內(nèi)容。算法的后臺其實是模糊的,不可能出現(xiàn)“點擊率占50%、搜索占50%”的類似計算方式。所以,我們說它是個“黑匣子”。1980年代講的模糊計算,說的就是這樣一個概念——它是“模糊”的。這根本不是比例的問題,而是要設(shè)定明確的目標——到底要提升什么數(shù)據(jù)?是用戶的停留時長,還是用戶的留存率?然后按照這個目標,再去修訂算法。
這就叫“不忘初心,方得始終”。在內(nèi)容編輯和算法工程師的交流上,這幾乎相當于一道“天塹”。編輯的思維是:經(jīng)驗判斷+價值觀檢驗——符合即上頭條——數(shù)據(jù)不好然后再換;而算法工程師的思維是:要達到什么數(shù)據(jù)指標——根據(jù)此制定策略——推出能拉動相關(guān)數(shù)據(jù)的內(nèi)容。這相當于解數(shù)學證明題的兩種邏輯:編輯是從已知條件出發(fā),奔向要證明的結(jié)果;而算法工程師是從要證明的東西出來,逆推出什么樣的已知條件。
問題又來了,這兩種方式,誰的更好?如果從效率出發(fā),當然是算法流。因為你喜歡什么它就推什么,投你所好,點擊率肯定高。從傳統(tǒng)編輯流看來,頭條和二條決定于編輯的選擇。編輯把它放上去,作為用戶的你沒有選擇權(quán)。
現(xiàn)在,算法流完成了“從人找信息到信息找人的跨越”——此前,我們要去賣報紙、調(diào)頻率、搜關(guān)鍵詞才能看到自己喜歡的內(nèi)容,但在今天,你喜歡的內(nèi)容會“躍然屏幕之上”,不需要費任何力氣。
從編輯流到算法流,是從傳統(tǒng)媒體到新媒體的真正轉(zhuǎn)變。它相當于從計劃經(jīng)濟到市場經(jīng)濟的轉(zhuǎn)型。在市場經(jīng)濟中的生存,首先要有用戶概念,也就是“你”的概念。只有這樣,現(xiàn)在的新聞分發(fā)應(yīng)用才和以前的新聞發(fā)布軟件做出了差異化。你有沒有覺得現(xiàn)在的新聞APP是不是比以前的好看了呢?本質(zhì)上不是新聞精彩了,而是新聞對你口味了。
消費算法的第二個核心是成癮機制,常見于游戲和短視頻應(yīng)用。和信息繭房不同,成癮機制巧妙地利用了人類的生理弱點。我們對消費品的快感本質(zhì)上都是大腦反饋機制的一種獎勵,還有我們腦垂體腺中的前體物質(zhì)多巴胺所決定。人們常以為多巴胺等同于快感,但它并不是快感本身,而是對快感的預(yù)期。
我們刷手機打游戲時所感受到的愉悅、興奮和滿足的情緒,其實是由腎上腺素、生長素和內(nèi)啡肽等分泌所引起,但對大腦神經(jīng)來說這些情緒只是暫時的電信號,我們享受的不是刷手機這個動作本身,而是刷手機所帶來的反饋預(yù)期。就比如你不會感覺我看抖音很爽,而是會覺得這個視頻會講什么?下個視頻可能更好看?再看一個我就不看了!又或者在游戲中讓你覺得這把我能抽中SSR,下把一定贏一局就睡。
如此循環(huán)往復(fù),永無止境,你的時間、金錢在不知不覺中已經(jīng)被算法安排得明明白白??吹竭@里是不是驚出一身冷汗?那有沒有對抗算法的辦法呢?有意思的是,當你意識到自己在信息繭房的一瞬間,這個繭房其實已經(jīng)不存在了。因此當你看到這里時,消費算法中的一系列機制,對你的影響就已經(jīng)不再是黑盒,一旦對這類機制有了認知,思維也會漸漸改變。
如果只是單純意識到,轉(zhuǎn)變還是太慢了,究其根本,還是在于AI算法拿到了太多關(guān)于我們的數(shù)據(jù)。目前市面上的常見軟件所能收集到的信息遠超你的想象,尤其是一些實名制注冊或者安裝時系統(tǒng)授權(quán)要求越界的APP。算法是需要數(shù)據(jù)授權(quán)的,至少明面上如此,沒有數(shù)據(jù)支撐算法技術(shù)就是無米之炊。
相信大家都聽過某度創(chuàng)始人的說法——中國人愿意用隱私來換取便利。這話就說得相當無恥了,大家之所以接受是因為不了解,因為不了解所以無從對抗。你們會在安裝軟件時閱讀用戶協(xié)議功能授權(quán)嗎?相信大多數(shù)人并沒有去閱讀授權(quán)的習慣,但是請記住以下兩條規(guī)則——一、當你看到了存疑的權(quán)限請求、先查明再安裝;二、如無必要拒絕安裝。
當然,以如今的環(huán)境來說,想要保護自己的信息,確實難比登天。如果條件允許,可以嘗試使用備用手機來完成對非必要APP的注冊和使用。記得不要在備用機上保存任何信息,比如身份證照片、聊天記錄,將主手機的系統(tǒng)授權(quán)調(diào)至最高,盡量拒絕信息讀取、照片讀取和錄音讀取授權(quán)。同時注冊一套隱身的臨時郵箱或臨時號碼,有些不是長期使用的應(yīng)用,需要郵箱或者手機才能注冊,使用臨時身份可以避免短信騷擾,隱私泄露或者被算法利用。
無目的性瀏覽會觸發(fā)人類最本能的渴望,好奇心和探索欲進而陷入多巴胺成癮模式。這也是抖音等應(yīng)用讓人上癮的原因,你永遠不知道下一個視頻是什么。因此在進入內(nèi)容平臺時,多使用目的性搜索,減少對算法推送的依賴。
當然,給自己一個不上癮的環(huán)境才是最重要的。因此,不要安裝成癮性很強的APP。若必須下載,則不要長期保留在手機中,用完即刪。因為即便你不啟動它,可架不住它在一直“觀察”你。這個方法可以幫助你對抗算法投喂,同時提高反饋成本,因為重新下載所花費的流量、時間會慢慢弱化你的多巴胺回路激活態(tài)。
大腦不同分區(qū)的神經(jīng)活躍時間是因人而異的,算法對行為模式的捕捉也是基于你的多巴胺激活狀態(tài)來計算的。當你養(yǎng)成在一個固定時段玩游戲或玩手機的習慣后,其他時間段就不會分泌強烈的多巴胺,算法和路也就處于弱激活狀態(tài)。因此試著讓自己對手機的沖動控制在某個時間段,久而久之你在其他時間里就不會那么想玩手機了。
擴展反饋是最直接的成癮要素,游戲廠商通過不同的快感反饋強化機制,比如常見的不固定比率強化抽卡開箱,來提高我們對未知結(jié)果的反饋預(yù)期,使我們總是對下一次充滿期待,這種快感會刺激我們的腦垂體腺分泌大量多巴胺。因此試著利用自我暗示,降低反饋預(yù)期。
最后一點就是擴展信息獲取的渠道,減少單一軟件的使用時間,嘗試從不同的平臺獲取信息,試著忽略自己的口味,多進行一些隨機性的信息獲取,有意識地跳出信息繭房。多聽多看多想,這樣,你的認知邊界將不會再被算法所束縛。
有意思的是,從大的邏輯而言,算法是一個價值體系,它涉及什么東西優(yōu)先,什么東西次要,什么東西對你更重要,什么東西對你更不重要,所以它是一種價值判斷。因此,算法本身雖然是個中立的規(guī)則,但它的結(jié)果一定是個主觀的東西。對于AI算法的能力,人類其實總是有一種樂觀情緒,覺得它在我們的操縱和控制之下。不過,雖然說人類可以去操控,或者說可以去分析它的結(jié)果,但是AI算法會慢慢地把人類做判斷的權(quán)利給剝奪掉。
《流浪地球》里有一個情節(jié)是AI判斷不能去撞木星,成功率是0.0001%,這就是一個判斷。像人工智能應(yīng)用得比較多的圍棋,人類可以去逆推機器的下棋背后的棋理,但是有一個東西是所有的棋手都沒有辦法去模仿的就是對勝率的判斷。采取什么樣的策略,是要拼命還是保守,取決于人對形勢的判斷,但現(xiàn)在沒有一個棋手敢質(zhì)疑AI的判斷。這會成為未來在各個領(lǐng)域都會出現(xiàn)的一種趨勢:AI給你的判斷是沒法反對的。你有其他的替代方案嗎?你有更好的結(jié)論嗎?沒有。
作為結(jié)果,人的自主控制能力就會慢慢被讓渡出去。做判斷本身就是人的能力,技術(shù)可以告訴你如果這么做會怎么樣,但最后還是要交給人來做判斷的,而判斷的過程就顯示出人的個性,否則就沒有“人”可言了。存在先于本質(zhì),而存在的本質(zhì)就是選擇和判斷。人生選擇的決斷,這是人成其為人,成其為一個特殊存在的最基本要素。
如果這種判斷都被剝奪的話,人就不是“人”了。人可以在分析能力上去跟機器抗衡,但是在判斷能力上越來越難挑戰(zhàn)機器。這個判斷就變成了計算機給你設(shè)立的這一套算法。雖然計算機還沒有到那一步,但是其實它的一些思維方式其實已經(jīng)都滲透到社會的方方面面。20世紀四五十年代,像海德格爾包括法蘭克福學派都在批評“工具理性”,互聯(lián)網(wǎng)其實把工具理性又提到了一個新的高度。
前段時間,《外賣騎手,困在系統(tǒng)里》這篇報道里提到的問題,大家過去可能沒有意識到,因為我們總是覺得算法在給我們創(chuàng)造便利,而且這種便利每個人都在享受。這在某種程度上壓制了這些不同的聲音,讓我們產(chǎn)生一種很虛幻的感覺。但是到了某一個階段,大家會突然意識到我們可能已經(jīng)走上了一條不歸路了。實際上任何的技術(shù)都是人和人之間的關(guān)系,那時候你還怎樣去重建人和人之間的關(guān)系?
延伸下去,現(xiàn)在其實涉及兩個問題,一個是勞資關(guān)系,一個是人和技術(shù)的關(guān)系,這兩個問題現(xiàn)在是糾纏在一起的,所以看上去很多勞資關(guān)系都是以技術(shù)的形式出現(xiàn)。
技術(shù)有本身的邏輯:控制、集中化、無情。它只看算法,有自己的一種理性,一種邏輯,它的邏輯就是效率。而技術(shù)的追求效率和資本的追求效率剛好達成了一種共識,技術(shù)所謂的追求最優(yōu)化,恰好是資本的邏輯。
按照一般的說法,你是注重過程還是注重結(jié)果,對資本來講是更注重結(jié)果,所以就會導(dǎo)致要追求結(jié)果,追求創(chuàng)造資本的效率,投入產(chǎn)出要達到一個最佳的比例。以這樣的方式來安排,可能就會把人性的東西排在后面。
算法的本意是讓生活變得更好,我們應(yīng)該樂于去接受它,但同時也要有所認知,盲目地跟隨或抵抗都是不可取的。
當盈利為第一意圖時,生產(chǎn)算法成了壓榨勞動力的剝削機器。消費算法讓年輕人沉迷其中,當每個人的時間都被996和虛擬內(nèi)容所占據(jù),那么整個社會就會缺乏進步和反抗的思潮,這是我們要警惕的。
但從另一方面來看,當算法意圖回歸于人類,那么生產(chǎn)算法的確提高了系統(tǒng)效率,消費算法也解決了內(nèi)容產(chǎn)出遠大于消費的問題,沒有算法在這個信息量爆炸的時代我們很難找到自己喜歡或是有價值的內(nèi)容,我們要做的是搞清算法背后的意圖以及有選擇的對抗算法。
在過去的一年中,不管是技術(shù)形態(tài)還是意識形態(tài),整個人類社會都在經(jīng)歷巨變,在這場不斷更迭的時代浪潮中,始終保持對技術(shù)的了解與認知,是自我保護的最好方法。
對整個社會而言,一方面,算法對人的計算越準,就意味著它對人的了解越深,因此,對人的監(jiān)視與控制也可能越深;另一方面,當算法對人的理解越深,對人的服務(wù)越“到位”,人們從中獲得的滿足也越多,而對算法的依賴、依從也會越多。當算法滲透到社會生活的各方面,人對它的依賴成為慣性,人對算法帶來的囚禁也可能會越來越渾然不覺。
算法社會將自由與枷鎖的張力推向了極致,算法一方面在促成人的某些能力的解放與擴張,另一方面又用某些方式實現(xiàn)著對人們的禁錮。但是,當我們深入反思算法對人的各種囚禁時,我們的目的并不是將算法拒之門外,這一點正如我們對待汽車的態(tài)度。汽車進入我們生活,帶來了正向與負向的雙重影響,但人類的解決方案不是禁止汽車的使用,而是通過對駕駛技能的培訓,以及嚴格的交通法規(guī)制定與實施等,來盡可能減少其可能產(chǎn)生的危害。
同樣,當算法成為一種廣泛應(yīng)用的技術(shù),在很多方面可能帶來對人的囚禁風險時,我們也不能簡單禁止算法的使用。除了在法律、制度等層面做出必要的調(diào)整外,也需要面對算法社會的新特點,培養(yǎng)不同主體的相應(yīng)素養(yǎng)與能力。對于算法的開發(fā)者來說,新的技術(shù)理性、算法倫理的倡導(dǎo)與培養(yǎng),尤為關(guān)鍵。
近年來對算法等智能化技術(shù)的批評中不乏技術(shù)理性批判的視角。盡管反思與批評是必要的,但也如有學者所指出的有些技術(shù)理性批判存在一個誤區(qū),那就是把技術(shù)理性等同于工具理性,認為技術(shù)理性張揚必然導(dǎo)致價值理性衰微。也有些研究雖然并沒有涉及技術(shù)理性這樣的概念,但也習慣性地將技術(shù)思維與工具理性畫了等號,也就是有意無意地默認技術(shù)一定是以工具理性為導(dǎo)向的。
然而,正如一些研究者意識到的,技術(shù)理性本應(yīng)是工具理性與價值理性的內(nèi)在統(tǒng)一,只是由于這兩種理性之間的內(nèi)在張力才使技術(shù)理性始終處于內(nèi)在的矛盾運動中。隨著人類技術(shù)實踐活動的擴展和深入,技術(shù)理性內(nèi)在的矛盾才以一種單向度的、異化的形式呈現(xiàn)出來,即工具理性壓倒價值理性、技術(shù)的價值理性萎縮成極度膨脹的工具理性的單純附屬物。
在今天,有必要重新理解技術(shù)理性應(yīng)有的“題中之意”,在算法開發(fā)者群體中倡導(dǎo)價值理性與工具理性、技術(shù)思維與人文精神的融合,而不是將算法推向工具理性的極端。反而應(yīng)該探討算法倫理的目標,并使之成為算法開發(fā)者的制衡。
我們不該簡單地將算法認定為壞東西,讓人們排斥,而是要讓人們意識到在今天這個時代,算法無法避免。因此,重要的是要理解不同類型的算法是如何運作的,算法在哪些層面影響著我們的認知、行為、社會關(guān)系,影響著我們的生存與發(fā)展,在此基礎(chǔ)上學會與算法共存,對抗算法的風險,更好地維護人自身的合法利益與地位。面對一個無可回避的算法“統(tǒng)治”的世界,我們只有提高對算法的認識與駕馭能力,才能成為算法的主宰者,而不是成為算法的“囚徒”。