方師師
當互聯(lián)網(wǎng)時代到來時,無數(shù)人預言互聯(lián)網(wǎng)會讓知識的獲取更容易、讓偏見與隔閡被打破、讓世界變得更平等。然而,在互聯(lián)網(wǎng)與人工智能加速發(fā)展的今天,偏激的觀點、人群之間的隔閡在網(wǎng)絡力量的助推下勢頭不減。這是為什么?
在生活中人們會發(fā)現(xiàn),使用百度搜索引擎搜索關鍵詞,搜索結果頁面的前幾個鏈接會把搜索者引向百度自家的“百家號”;出差訂酒店的時候,不同的人用不同的手機打開同一個App,看到的價格很可能不一樣;我的一個朋友在騰訊公司上班,他晚上加完班打車回家,如果把起點定在公司門口,比起定在公司旁百米左右的便利店,價格會高20%。這些現(xiàn)象說明了一個問題:跟日常生活緊密聯(lián)系在一起的互聯(lián)網(wǎng)算法,本身并不是非?!按_切”的,算法中存在著某種“偏見”。
什么是算法?這個詞剛誕生的時候并沒有什么宏大的內(nèi)涵。公元820年,阿拉伯數(shù)學家提出“算法”,當時它指的是“解決具體問題的一個方法”。隨著純數(shù)學理論向應用數(shù)學理論遷移,算法進入各種各樣的應用數(shù)學領域,后來又被計算機科學、社會學、法學、政策學等領域借用,逐漸開始指向某種復雜的社會技術系統(tǒng)。這幾年,算法為大家所熟知,很可能是因為它指向了更為具體的內(nèi)容:算法決策服務。比如,瀏覽網(wǎng)站時,它會給我們推薦各種各樣的商品;打開資訊類App,它會推薦新聞或者短視頻;打開地圖軟件,它會規(guī)劃前往目的地的路線……算法完成了一個將信息、算法和人三者聯(lián)系在一起的閉環(huán)。
這個閉環(huán)的最終目的,是幫助人從海量的信息當中打撈出最有意義、最有用的內(nèi)容。和人做決策相比,算法確實具有更客觀、更公正、效率更高的優(yōu)點。但是如果算法出現(xiàn)錯誤,就有可能造成風險。而且很多時候,我們在使用各種各樣的App時,并不知道算法正在偷偷地幫我們做決策,這種隱蔽性意味著一旦它在重要領域出錯,人們往往來不及補救。
那么算法到底存在哪些隱患?首先是技術層面的代碼錯誤。當年,計算機科學先驅(qū)格蕾絲·霍珀在使用機電式計算機馬克2號時出現(xiàn)設備故障。而導致這次故障的,竟是一只被卡在繼電器中的蟲子(bug)。此后,“bug”成為計算機領域的專業(yè)術語,意指漏洞。在生活中,程序員之間會相互調(diào)侃,比如程序員A看到B在寫代碼,也許就走過去用戲謔的語氣說:“又在寫bug呀?!边@是因為人和技術之間的磨合始終處于探索階段,程序當中出現(xiàn)錯誤很常見,無法保證萬無一失。
第二個隱患是算法偏差。大家在瀏覽網(wǎng)站、看視頻、使用各類應用的時候,會發(fā)現(xiàn)這些網(wǎng)站好像非?!岸弊约?,所推薦的內(nèi)容剛好就是自己喜歡的。這其實是一個概率問題??梢韵胂筮@樣一個場景:有一個不透明的袋子,里面有很多小球,小球的總數(shù)未知,小球的顏色也未知。如何搞清楚這個不透明的袋子里小球的顏色分布呢?對算法來講,我們就是不透明的袋子,我們各種各樣的興趣愛好就是袋子里面的小球。算法可以根據(jù)“已知小球”制定模型,去推測我們對什么事物感興趣。已知條件越多,算法的準確率越高,但也不能保證百發(fā)百中。
第三個隱患是技術偏向。我們現(xiàn)在使用的手機設備、社交網(wǎng)絡等已經(jīng)取代了之前很多的媒介形式。加拿大媒介理論家馬歇爾·麥克盧漢認為,人類經(jīng)歷了口語時代、書寫時代和電子媒介時代??谡Z時代時,人是部落化的生存狀態(tài),彼此都是認識的。到了書寫時代,人和人之間在空間上就被隔離開了?,F(xiàn)在到了電子媒介時代,尤其到了算法與社交媒體、互聯(lián)網(wǎng)、移動互聯(lián)網(wǎng)相結合的時候,人盡管在現(xiàn)實空間中相隔甚遠,卻在互聯(lián)網(wǎng)這個虛擬空間里聯(lián)系緊密,很容易沉浸在自己所選擇、所構建的小世界中無法自拔。這種情況也更容易滋生極端的情緒和思維。
第四個隱患是社會偏見。微軟推出過一個AI聊天機器人Tay,它僅在推特上線一天就被下架了。因為在上架之前,微軟的程序員希望Tay在開放性的互動中產(chǎn)生自己的觀點、意愿,沒有限制它的語言模式和交往模式。結果這個機器人在與人對話的過程中快速地“學”會了辱罵人類和發(fā)表關于種族歧視的言論。從這個案例可以看出,開放環(huán)境中的數(shù)據(jù)里存在著大量的偏見和錯誤認知,放任機器去學習這樣的數(shù)據(jù),我們無法保證它會變得更睿智、客觀。吊詭之處在于,由于大多數(shù)人對科學技術的信任,當算法給出一個看似科學的結果,而這個結論恰恰符合了固有的成見時,我們不會去質(zhì)疑算法有沒有問題,反而會用這個結果去鞏固成見。
面對算法“偏見”,人類應該怎么辦?學界對AI技術價值觀討論的大體結論是,我們要糾偏,以此把算法變得更加人性化。也有學者提出,當人類認為算法應該去除“偏見”的時候,應該問的是,人性是什么。這個問題會觸及更深的思考。在社會心理學當中有這樣的一個量表,它的縱坐標是experience(代表人類對于外部世界的感知和體驗),橫坐標是agency(代表的是控制、把握,一些更加機械化的具有指標性質(zhì)的東西)。人類處于這張坐標圖的右上角,機器人處于中間偏下的位置,由此可以看出,人類對experience的要求非常高,人性處于一種不完備、不完美的狀態(tài)。那么,既然我們自己本身存在著許多不完美之處,為什么還要要求算法變得和我們一樣?
這個問題也許不會有答案,算法的“偏見”不僅是技術的問題,更是社會的、歷史的問題??梢源_定的是,在未來,算法和人類勢必處于一種共棲共生的關系當中。也許,我們要問的,不是“算法有偏見嗎”,而是如何定義“偏見”。判斷“偏見”的標準從何而來?對人性是不是應該有一些反思?既然沒有辦法一勞永逸地解決問題,那么我們的思考方式可能需要一些轉(zhuǎn)變。
(孤山夜雨摘自《新華日報》2020年1月10日,勾 犇圖)