亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        作為中介的算法:新聞生產(chǎn)中的算法偏見與應(yīng)對*

        2018-04-26 11:35:33□文│張
        中國出版 2018年1期
        關(guān)鍵詞:算法

        □文│張 超

        如今人類置身算法世界,算法成為人們洞察現(xiàn)實、進行決策的新中介。在新聞傳播領(lǐng)域,算法已滲入從選題到分發(fā)的各個新聞生產(chǎn)環(huán)節(jié)。路透新聞研究所《數(shù)字新聞報告2017》顯示,54%的受訪者更喜歡通過算法篩選故事。在中國的資訊信息分發(fā)市場上,算法推送的內(nèi)容已超過50%。[1]

        在西方新聞業(yè)信任危機和專業(yè)性危機的背景下,算法中立的支持者試圖通過算法的中立與傳統(tǒng)媒體的編輯價值觀劃清界限。算法對新聞生產(chǎn)的介入似乎用“技術(shù)中立”的姿態(tài)昭示著新聞客觀性的“回歸”與“在場”。與此同時有關(guān)“算法偏見”(algorithmic bias)和“算法歧視”(algorithm discrimination)的討論日漸興起。人們發(fā)現(xiàn)算法并非萬能,也非完美。美國非盈利新聞機構(gòu)“為了公眾”(ProPublica)對一家公司開發(fā)的犯罪評估系統(tǒng)“替代性制裁的懲戒性罪犯管理分析”(Correctional Offender Management Profiling for Alternative Sanctions,COMPAS)的評分方式進行研究,發(fā)現(xiàn)針對同樣罪行有色人種可能會得到比白人更高的犯罪分數(shù)。

        在新聞生產(chǎn)中,算法偏見帶來的后果是嚴重的,尤其在內(nèi)容生產(chǎn)階段,算法偏見將導(dǎo)致結(jié)論錯誤,媒體將不是社會的“瞭望者”,而是“誤導(dǎo)者”。算法偏見何以產(chǎn)生,又該如何應(yīng)對新聞生產(chǎn)中的算法偏見?本文將展開探討。

        一、作為中介的算法

        算法是解題方案的準確而完整的描述,是一系列解決問題的清晰指令,能對一定規(guī)范的輸入在有限時間內(nèi)獲得所要求的輸出。[2]算法是一種求解的方法,它是程序設(shè)計的核心(見圖1)。

        圖1 用計算機求解問題的一般過程[3]

        從技術(shù)的角度看算法是計算機求解中的一個抽象“裝置”,是橫亙在輸入數(shù)據(jù)和輸出數(shù)據(jù)之間的中介(mediation)?!爸薪椤币辉~強調(diào)在傳播過程中“引起”任何主體與其他主體或者與環(huán)境產(chǎn)生關(guān)系的刻意舉動。[4]作為中介的算法不是透明的、中立的,其本質(zhì)是“轉(zhuǎn)譯者”,在新聞生產(chǎn)中算法可分為5種類型(見表1)。

        表1 算法中介的類型

        作為新聞價值判斷的中介,算法用于新聞選題,通過把關(guān)和決策將熱點事件轉(zhuǎn)化為新聞事件;作為表征現(xiàn)實的中介,算法應(yīng)用于內(nèi)容生產(chǎn),通過對客觀現(xiàn)實的量化處理“映射”出表征現(xiàn)實;作為體驗現(xiàn)實的中介,算法用于新聞游戲中,借由程序修辭(procedural rhetoric)進行觀點說服;作為監(jiān)測用戶的中介,算法用于新聞推送,通過對用戶數(shù)據(jù)的分析描摹用戶畫像,有針對性地推送內(nèi)容;作為現(xiàn)實決策的中介,算法用于決策服務(wù),幫助用戶判斷問題、做出選擇?!都~約時報》的數(shù)據(jù)新聞《租房還是買房》,用戶輸入居住年限、抵押貸款利率以及首付等數(shù)值可判斷租房劃算還是買房劃算。

        與以往一些新聞生產(chǎn)技術(shù)不同,算法由于其復(fù)雜性和晦澀性被視為“黑箱”(black box)。“黑箱”在法國哲學(xué)家布魯諾·拉圖爾看來體現(xiàn)的是一種“客觀性”:只要人們認為所有“黑箱”密封完好,它們就像科學(xué)家一樣擺脫了虛構(gòu)、表示、象征、近似與管理構(gòu)成的世界,就是絕對正確的。[5]當算法被貼上“中立的”“客觀的”“權(quán)威的”“萬能的”標簽時,這種認知帶來的危害也是巨大的:人們將被算法所控制。世界上沒有完美的算法,也沒有超越人的意志的算法,甚至包括搜索引擎也有偏見。

        二、算法偏見的產(chǎn)生機制

        算法偏見如何產(chǎn)生?回答這個問題或許可以“算法是人工產(chǎn)物(artifact)”來回答,但這種解釋并不全面和具體。算法偏見存在于算法設(shè)計和運行的每一個環(huán)節(jié),主要包括算法設(shè)計者的偏見、輸入數(shù)據(jù)的偏見和算法局限的偏見(見圖2)。任何一個環(huán)節(jié)出現(xiàn)偏見都將導(dǎo)致算法偏見,區(qū)別在于有的算法偏見是潛在的、不可避免的,有的算法偏見則是人為的、有意圖的。

        圖2 算法偏見的產(chǎn)生機制

        1.算法設(shè)計者的偏見

        算法設(shè)計者的偏見是指由于算法設(shè)計者自身有意或無意的偏見造成算法設(shè)計出現(xiàn)偏差。算法設(shè)計一般包括理解問題、選擇算法設(shè)計技術(shù)、設(shè)計并描述算法、手工運行算法、分析算法的效率、實現(xiàn)算法等6個步驟。[6]算法設(shè)計者在算法設(shè)計中居于核心地位。對問題的理解、對數(shù)據(jù)的選取、對變量的選擇、對算法的綜合評價等都貫穿著人為因素。當然即便算法設(shè)計者力求做到客觀、公正,其無意識的認知偏見也會通過算法設(shè)計中對標準的選擇體現(xiàn)出來,如指標標準、數(shù)據(jù)提取、語用分析和結(jié)果解讀等。[7]

        既然算法是由人設(shè)計的,那么算法不可能比算法設(shè)計者更客觀。算法不可避免地會反映設(shè)計者對周遭事物和問題的認識。2015年平面設(shè)計師約翰娜·布萊(Johanna Burai)用谷歌搜索“手”的圖片,發(fā)現(xiàn)檢索結(jié)果上邊的全是白人的手。社會學(xué)家澤奈普·圖費克奇(Zeynep Tufekci)認為,要想真正讓算法變得更加公正,算法設(shè)計者要清醒地意識到自己并不代表中立和公正的立場,而是有著天然偏見的人。[8]

        2.輸入數(shù)據(jù)的偏見

        在被數(shù)據(jù)量化的世界中,數(shù)據(jù)本身與現(xiàn)實世界重合的程度決定了數(shù)據(jù)的可靠性。在現(xiàn)實中算法依賴的數(shù)據(jù)往往是有局限的、有缺陷的,甚至是錯誤的。因為算法是從有局限的訓(xùn)練數(shù)據(jù)集中學(xué)習(xí),可以說,任何一個數(shù)據(jù)集都會蘊含偏見。

        無論算法多完美,輸入數(shù)據(jù)有偏見,最后的結(jié)論必定有偏見。微軟紐約研究院高級研究員漢娜·瓦拉赫(Hanna Wallach)認為,機器學(xué)習(xí)的程序是通過社會中已存在的數(shù)據(jù)進行訓(xùn)練,只要這個社會還存在偏見,機器學(xué)習(xí)便會重現(xiàn)這些偏見。[9]例如采用算法進行自動化新聞寫作的美聯(lián)社,需要時常向系統(tǒng)輸入報道范本、更新數(shù)據(jù),如果自動化新聞寫作系統(tǒng)輸入數(shù)據(jù)出錯,則算法生成的新聞就會出錯。[10]

        3.算法局限的偏見

        雖然在大數(shù)據(jù)時代一切皆可量化,但現(xiàn)實生活并不能總是被數(shù)學(xué)“模仿”。即使是最復(fù)雜的算法和最大限度的大數(shù)據(jù)挖掘,也會將多維度的問題變成簡單的模型,把復(fù)雜的世界模擬得簡單。因此,算法系統(tǒng)本身不是十全十美的,也是有局限的。

        以新聞推送為例,如果算法僅依賴點擊量來推薦內(nèi)容,用戶可能只會收到觀點偏激、獵奇吸睛的低俗文章,看不到點擊量不大的高質(zhì)量文章。如果算法想避免推送低俗的內(nèi)容,還需要考慮用戶的停留時長、轉(zhuǎn)發(fā)分享、收藏評論等指標,以此確定文章的推薦權(quán)重。[11]即便如此,由于技術(shù)的限制,再完善的算法也達不到完美。例如基于協(xié)同過濾的新聞內(nèi)容推薦算法雖然可以推薦新的信息,發(fā)掘潛在用戶的興趣愛好,但算法本身存在打分稀疏性問題、冷啟動問題和算法可擴展問題。[12]當臉書解雇人工編輯,完全用算法推送熱門新聞話題后,小錯、烏龍不斷。因此算法決策不可能完全替代人工判斷,在算法充斥的世界中,人的判斷依然很重要。

        三、算法透明:算法偏見的應(yīng)對之道

        媒介即訊息。算法有形塑社會和文化形態(tài)并直接作用于個體的能力。[13]在算法不成熟、不完善的情況下,算法塑造的擬態(tài)環(huán)境可能會出現(xiàn)更多“假新聞”和“噪音”。新聞從業(yè)者和公眾需考慮算法的介入給新聞生產(chǎn)帶來的負面影響,對算法進行監(jiān)督尤為必要。但監(jiān)督算法并非易事,算法很復(fù)雜,需投入大量的人力和財力,往往被視為商業(yè)機密不予公開。監(jiān)督算法的前提是打開“黑箱”并對其祛魅,作為新聞生產(chǎn)流程的一部分,算法偏見需要依靠新聞倫理解決,新聞生產(chǎn)中的透明性(transparency)倫理可以成為應(yīng)對算法偏見的有效措施之一。

        1.算法透明

        透明性指一個組織通過允許其內(nèi)部活動或績效處在外部行為者監(jiān)督之下的方式,積極地公開自身信息。[14]在新聞倫理中,透明性被視為“新聞業(yè)內(nèi)部和外部人士對新聞流程進行監(jiān)督、檢查、批評,甚至介入的各種方式”,[15]透明性原則在一些科學(xué)研究中被采用,研究者在公布研究結(jié)果時需要附上數(shù)據(jù)、編碼和補充材料,證明其研究是可重復(fù)的。

        作為新聞透明性的一部分,算法透明(algorithmic transparency)旨在讓人們知道某一算法的設(shè)計意圖、設(shè)計目標、運行效率、適用條件和存在的缺陷,了解算法的運行機制和做出特定決定的原因。

        算法透明包括五個方面:①用于優(yōu)先(prioritize)、排序(rank)、強調(diào)(emphasize)或發(fā)表意見(editorialize)時的標準,包括定義、操作和可能的替代。②數(shù)據(jù)算法的數(shù)據(jù)。如哪些數(shù)據(jù)被關(guān)注,運行算法的其他因素。③準確性,包括分類中誤報(false positive)和漏報(false negative)的錯誤比率以及如何設(shè)置這些錯誤平衡點的說明。④描述測試數(shù)據(jù)(training data)以及潛在的偏見,包括算法的演變和運行。⑤用于相似性或分類算法的定義、操作或閾值(thresholds)。[16]

        2.算法透明的兩種可行方式

        算法透明的邏輯起點在于新聞業(yè)是一項公共服務(wù),當涉及公共利益時,公眾有權(quán)知道算法的運行機制及其缺陷。在新聞生產(chǎn)中有兩種不同利益導(dǎo)向的新聞服務(wù)(見圖3):一種是完全基于公共利益的非盈利新聞生產(chǎn),如非盈利新聞業(yè)、公共廣播事業(yè);另一種是兼顧公共利益和商業(yè)利益的新聞生產(chǎn),這是全球新聞業(yè)的主流。

        圖3 新聞生產(chǎn)中的算法透明

        對應(yīng)以上兩種新聞服務(wù)取向,在新聞生產(chǎn)中,有兩種不同屬性的算法,筆者將其命名為開源算法和專有算法。

        開源算法是指算法設(shè)計本身旨在服務(wù)社會,通過透明和參與式編碼,讓所有的源代碼都能被人使用和修改,最終生成具有共創(chuàng)、共享的透明算法。這種算法出現(xiàn)的社會背景主要與開源運動有關(guān),國外現(xiàn)在已經(jīng)有開放人工智能(OpenAI)等一些人工智能開源運動。開源算法一旦被設(shè)計出來,可以被所有人免費使用、修改。因此涉及公共利益、不涉及商業(yè)利益的算法可以是開源算法,經(jīng)由各方不斷修改、完善的開源算法會更大限度地服務(wù)社會。

        專有算法在使用和修改上有限制,這種算法作為知識產(chǎn)品是受法律保護的,算法所有者對此持有知識產(chǎn)權(quán)。目前新聞生產(chǎn)中的各類算法大多屬于這種。當涉及商業(yè)利益時,算法透明不容易實現(xiàn),此時算法往往被視為商業(yè)機密有權(quán)不予公開。當涉及公共利益時,作為使用者和被影響者的公眾就擁有了關(guān)于算法的知情權(quán),這時需要區(qū)分兩種算法透明的方式:主動的算法透明和被動的算法透明。

        3.主動的算法透明

        “主動的算法透明”是指新聞生產(chǎn)者主動將算法的運行機制與設(shè)計意圖公之于眾,接受社會監(jiān)督,開源算法都采用主動的算法透明。計算機科學(xué)家漢森(Hansen)認為:“公開代碼是社會的責(zé)任,這樣的過程可以使得公眾參與進來,不論它成為何種格式,基于算法的報道將很快成為一種必須技能,記者得跟上這游戲,不僅要理解對算法透明度的要求,還要提高現(xiàn)有的新聞業(yè)務(wù)能力,這樣我們才能利用人類與日俱增的智慧?!盵17]

        2016年調(diào)查性數(shù)據(jù)新聞報道《網(wǎng)壇騙局》的制作媒體公布了原始數(shù)據(jù)、算法程序和分析過程,詳細說明了該報道的數(shù)據(jù)獲取、數(shù)據(jù)準備、賽事排除、賠率變化計算、選手選擇、仿真和顯著性檢驗等細節(jié),公眾可以對數(shù)據(jù)結(jié)論進行驗證。在《金融時報》的數(shù)據(jù)新聞《世界到底在采取哪些措施阻止氣候變化》中,用戶通過操作“氣候變化計算器”對不同國家碳排放量進行“控制”,從而洞察全球變暖的趨勢。該報道提供了“氣候變化計算器”的設(shè)計和運行資料,讓用戶了解該計算器的運行機制。

        “主動的算法透明”由于媒體坦誠算法設(shè)計與應(yīng)用中的局限,不僅可以規(guī)避一些風(fēng)險(如不必為錯誤的預(yù)測或產(chǎn)生的偏見結(jié)論負責(zé)),還有助于建立媒體與用戶的信任關(guān)系。隨著算法在新聞生產(chǎn)中的應(yīng)用越來越普遍,未來可能會出現(xiàn)更多針對新聞生產(chǎn)各環(huán)節(jié)的算法模板,主動的算法透明會越來越多,也會在不斷的開源分享中越來越完善。

        4.被動的算法透明

        算法不透明(algorithmic opacity)在各行各業(yè)中是一個普遍問題。如果想讓算法透明,必須采取一種強制性手段,即法律手段,筆者稱之為“被動的算法透明”,即依據(jù)法律規(guī)定、按照法律程序公布有關(guān)算法的全部或部分內(nèi)容。假定在新聞生產(chǎn)中,用戶懷疑或發(fā)現(xiàn)涉及公共利益的某專有算法涉嫌種族歧視、誤導(dǎo)公眾時,可依據(jù)法律規(guī)定要求媒體披露該新聞算法運行的相關(guān)信息,保障公眾的“知情權(quán)”。

        由于算法在新聞生產(chǎn)中的應(yīng)用時間不長,各國缺少監(jiān)督、審計算法的法律法規(guī)。目前意識到“被動的算法透明”的是歐盟,在2018年5月生效的《一般性數(shù)據(jù)保護法案》(General Data Protection Regulation,GDPR)中,歐盟給予用戶申請某項基于算法得出結(jié)論的解釋權(quán)(right to explanation),但該法案實際上并沒有從根本上保證算法的問責(zé)和透明度。[18]在算法時代,如何針對不同領(lǐng)域、不同用途的算法制定契合實際的法律條款對算法實現(xiàn)有效監(jiān)督,是當前各國信息立法的新課題。

        從技術(shù)上說,完全的算法透明很難實現(xiàn)?,F(xiàn)實世界的很多算法都是“黑箱”,在深度學(xué)習(xí)領(lǐng)域一些算法即便對算法設(shè)計者來說也是難以理解的。因此切實可行的方式是為“被動的算法透明”確定一個合適的透明程度,即有意義的透明(meaningfultransparency),這是一種較低標準的算法透明,利益相關(guān)者(stakeholders)借此能夠介入、使用、執(zhí)行算法,保證算法過程是負責(zé)任的。[19]當然“有意義的透明”是相對的,需要“具體算法具體分析”,對于不同的利益相關(guān)者,透明性的具體要求是不同的。因此在算法透明中,如何在不同情況下做到“有意義”,并不是設(shè)定一個統(tǒng)一的標準就能解決的,需要立法、相關(guān)行業(yè)、公眾和技術(shù)人員充分討論。

        在媒體層面,為保障公眾對涉及公共利益的新聞算法的知情權(quán),媒體需要制定相應(yīng)政策,或由行業(yè)協(xié)會出臺相關(guān)指導(dǎo)意見。由于算法的專業(yè)性與復(fù)雜性,一般公眾很難對其實現(xiàn)有效監(jiān)督,比較可行的方式是讓值得信賴的第三方核查機構(gòu)介入,對公眾關(guān)心或存有爭議的新聞算法進行檢查和評估,看算法是否透明和公平,這也會打消算法所有者對商業(yè)機密泄露的顧慮。但在社會上如何組建核查算法的第三方機構(gòu)、如何對其賦權(quán),是算法時代社會治理的新問題。

        四、結(jié)語

        當前我們正處于弱人工智能(Artificial Narrow Intelligence,ANI)階段,算法偏見的問題雖然存在,但還沒有給社會帶來嚴重危害,相關(guān)立法和行業(yè)倫理規(guī)范并未成熟。隨著人類奔向強人工智能(Artificial General Intelligence,AGI)階段,算法的中介本質(zhì)、主體地位和社會影響會愈來愈突出,人們需要思考如何設(shè)計、應(yīng)用、監(jiān)督、規(guī)制算法等問題。在未來的新聞生產(chǎn)和媒介素養(yǎng)教育中,筆者認為“算法素養(yǎng)”(algorithm literacy)應(yīng)納入專業(yè)技能培養(yǎng)和通識教育體系中,新聞從業(yè)者和公眾都要意識到算法的中介屬性和設(shè)計局限。在算法主體地位日益凸顯的算法時代,認識算法、理解算法、批判算法是善用算法的前提,也是新聞生產(chǎn)面對的新命題。

        參考文獻:

        [1][7]方師師.新聞業(yè)和你我的宿命,就是被算法“算計”[EB/OL].http://www.jfdaily.com/news/detail?id=58922

        [2]呂國英.算法設(shè)計與分析(第2版)[M].北京:清華大學(xué)出版社,2009:7

        [3][6]王紅梅,胡明.算法設(shè)計與分析(第2版)[M].北京:清華大學(xué)出版社,2013:8,6-7

        [4]唐士哲.重構(gòu)媒介?“中介”與“媒介化”概念爬梳[J].新聞學(xué)研究,2014(3)

        [5]盧克·多梅爾.算法時代:新經(jīng)濟的新引擎[M].胡小銳,鐘毅,譯.北京:中信出版集團,2016:220

        [8]Kelly.開除了所有編輯 Facebook算法為什么還沒有消除新聞偏見?[EB/OL].http://www.evolife.cn/html/2016/88787_2.html

        [9]Princeton University, Engineering School.Biased bots:Human prejudices sneak into artificial intelligence systems[EB/OL].www.sciencedaily.com/releases/2017/04/170413141055.htm

        [10]余婷.美聯(lián)社推出新聞編輯部“人工智能”使用手冊[EB/OL].http://mp.weixin.qq.com/s/kGINkWfIN1c_EeO_rt7dbA

        [11]劉爽.人工智能時代如何通過編輯讓算法更閃亮[EB/OL].http://tech.ifeng.com/a/20161018/44471576_0.shtml

        [12]王博.新聞內(nèi)容推薦算法研究[J].信息與電腦(理論版),2016(6)

        [13]Beer.Power through the algorithm? Participatory web cultures and the technological unconscious[J].New Media & Society,2009(6)

        [14]Grimmelikhuijsen,.Transparency of Public DecisionMaking:Towards Trust in Local Government?.Policy&Internet,2010(1)[15]Deuze.What Is Journalism? Professional identity and ideology of journalists Reconsidered.Journalism,2005(4)

        [16]Diakopoulos. Algorithmic Accountability. Digital Journalism,2015(3)

        [17]肖敏樹.那些算計著我們生活的算法[EB/OL].http://mp.weixin.qq.com/s/tgvKybyZArluu7c51_sioA

        [18]Sample.AI watchdog needed to regulate automated decision-making, say experts[EB/OL].https://www.theguardian.com/technology/2017/jan/27/ai-artificial-intelligence-watchdog-needed-to-prevent-discriminatory-automated-decisions

        [19]Brauneis&Goodman.Algorithmic Transparency for the Smart City[EB/OL].https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3012499

        猜你喜歡
        算法
        基于MapReduce的改進Eclat算法
        Travellng thg World Full—time for Rree
        進位加法的兩種算法
        基于CC2530的改進TPSN算法
        基于BCH和HOG的Mean Shift跟蹤算法
        算法初步兩點追蹤
        基于增強隨機搜索的OECI-ELM算法
        一種改進的整周模糊度去相關(guān)算法
        一種抗CPS控制層欺騙攻擊的算法
        Wiener核的快速提取算法
        韩国v欧美v亚洲v日本v| 国产天堂av在线一二三四| 久久少妇呻吟视频久久久| 99久久婷婷国产一区| 国产欧美综合一区二区三区| 欧美成人在线视频| 国产羞羞视频在线观看| 亚洲av成人一区二区三区网址| 国产思思99re99在线观看| 中文字幕亚洲无线码a| 中文字幕日韩精品中文字幕| 色综合久久蜜芽国产精品| 牲欲强的熟妇农村老妇女| 日韩精品欧美激情亚洲综合| 国产精品一品二区三区| 久久婷婷五月综合色丁香| 亚洲av无码专区在线电影| 91av在线播放| 国产一区二区黑丝美女| 国产成人av三级三级三级在线| av在线一区二区三区不卡| 国产乱人精品视频av麻豆网站| 无码人妻精品中文字幕| 欧美成人一区二区三区| 久久久久国产亚洲AV麻豆| 国产一区二区在线观看我不卡| 亚洲国产综合性感三级自拍| 极品粉嫩小仙女高潮喷水操av| 操风骚人妻沉沦中文字幕| 天堂中文а√在线| 西西人体444www大胆无码视频| 国自产偷精品不卡在线| 强d乱码中文字幕熟女1000部| 伊人五月亚洲综合在线| 成 人 免 费 黄 色| 日日噜狠狠噜天天噜av| 午夜福利影院不卡影院| 免费黄网站永久地址进入| 成年丰满熟妇午夜免费视频| 熟妇人妻av无码一区二区三区| 亚洲 欧美 激情 小说 另类|