亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        新聞生產(chǎn)自動(dòng)化倫理挑戰(zhàn)
        ——算法倫理分析的框架地圖

        2019-03-01 01:55:50王曉培
        中國(guó)出版 2019年4期
        關(guān)鍵詞:倫理算法

        □文│王曉培 常 江

        隨著算法深度卷入新聞行業(yè),媒介的生產(chǎn)和消費(fèi)過程正在逐漸自動(dòng)化??此啤翱陀^中立”的算法,引發(fā)了諸多關(guān)于倫理問題的爭(zhēng)論。原本附加于記者編輯、媒體組織的權(quán)力和責(zé)任讓渡給算法,使得原有的生產(chǎn)邏輯和關(guān)系被打破,同時(shí)也產(chǎn)生了現(xiàn)存?zhèn)惱砜蚣茈y以適用的新問題。文章嘗試建構(gòu)一個(gè)新的倫理框架,從算法新聞的技術(shù)可能性中提取特征,以生產(chǎn)流程(輸入、處理、生成)和報(bào)道的基本原則(真實(shí)準(zhǔn)確、客觀全面、社會(huì)責(zé)任)形成矩陣地圖,為明確和解決潛在的倫理挑戰(zhàn)提供進(jìn)路。

        一、自動(dòng)化:主流新聞生產(chǎn)的一個(gè)趨勢(shì)

        長(zhǎng)期以來,技術(shù)都是形塑新聞業(yè)生產(chǎn)流程、條件的重要因素。[1]隨著算法深度卷入新聞的編輯、聚合、發(fā)布及內(nèi)容分發(fā),媒介的生產(chǎn)和消費(fèi)過程正在逐漸自動(dòng)化。目前,自動(dòng)化新聞多用于結(jié)構(gòu)化數(shù)據(jù)較為充足、報(bào)道相對(duì)公式化的領(lǐng)域,如體育、財(cái)經(jīng)、犯罪、天氣報(bào)道等。多爾(Dorr)自動(dòng)化新聞定義為自然語言處理(natural language generation,簡(jiǎn)稱NLG)的自動(dòng)或半自動(dòng)過程,即通過從私人或公共的數(shù)據(jù)庫選取數(shù)據(jù)、分配預(yù)選和未選數(shù)據(jù)特征的關(guān)系、將相關(guān)數(shù)據(jù)集合結(jié)構(gòu)化為一種語義結(jié)構(gòu)(a semantic structure),并將最終文本發(fā)布在線上或線下平臺(tái)。[2]

        每天,大型媒體機(jī)構(gòu)都會(huì)在沒有過多人工干擾的情況下,利用計(jì)算機(jī)自動(dòng)生成若干報(bào)道。美聯(lián)社(Associated Press)每季度使用自動(dòng)寫作平臺(tái)語言大師(Wordsmith)將原始收入數(shù)據(jù)轉(zhuǎn)化為3700家企業(yè)的收益新聞,而此前人工僅能編輯400篇。[3]其競(jìng)爭(zhēng)對(duì)手路透社(Reuters)和法新社(Agence France-Presse)每年也會(huì)自動(dòng)生成上千條新聞。[4]自動(dòng)化新聞生產(chǎn)幫助新聞媒體擴(kuò)大了報(bào)道面,特別是在財(cái)經(jīng)和體育領(lǐng)域。

        在中國(guó),自動(dòng)化新聞也在實(shí)踐中嶄露頭角。除了此前騰訊的Dreamwriter(有資料譯為夢(mèng)幻寫手)、新華社的快筆小新、微軟小冰、今日頭條的xiaomingbot(張小明)等,2018年兩會(huì),新華社利用國(guó)內(nèi)首個(gè)媒體人工智能平臺(tái)“媒體大腦”首次在兩會(huì)報(bào)道中使用MGC(Machine Generated Content,機(jī)器生產(chǎn)內(nèi)容)新聞?!懊襟w大腦”可自動(dòng)分析輿情數(shù)據(jù)、生產(chǎn)可視化圖表,并智能配音、剪輯、輸出。在分析了3511555條內(nèi)容后,“媒體大腦”僅用15秒就制作出了視頻新聞《2018兩會(huì)MGC輿情熱點(diǎn)》。此后,還制作了《“媒體大腦”也在學(xué)習(xí)政府工作報(bào)告 機(jī)器發(fā)現(xiàn)了這些看點(diǎn)》《“媒體大腦”想陪你聊聊“兩高”這五年》等六期MGC視頻新聞,海內(nèi)外總瀏覽量超過1200萬次,覆蓋量超過1億人。

        自動(dòng)化新聞在某種程度上彌補(bǔ)了傳統(tǒng)新聞的不足,得到了消費(fèi)者的認(rèn)可。路透研究院發(fā)布的報(bào)告《碎片化新聞時(shí)代的品牌與信任》(Brand and trust in a fragmented news environment)顯示,盡管大多數(shù)受訪者此前并未關(guān)注新聞是如何生產(chǎn)的,他們中的多數(shù),特別是年輕一代,仍然更傾向于讓算法而不是編輯來決定他們能看到什么新聞。[5]2017年,其發(fā)布的《數(shù)字新聞報(bào)告2017》(Digital News Report 2017)再次證明了用戶對(duì)算法的喜愛程度。該報(bào)告在全球共調(diào)查7萬人次,涵蓋五大洲36個(gè)國(guó)家和地區(qū)。其中,超過54%的受訪者表示更傾向于算法篩選新聞,選擇編輯和記者的受訪者占44%。這一趨勢(shì)在主要使用智能手機(jī)獲取新聞的用戶(58%)和年輕用戶(64%)中更加顯著。[6]2016年的一次焦點(diǎn)小組調(diào)查中,一位來自英國(guó)的受訪者解釋道,他們“更傾向于相信從整體(a full range)信息中篩選的算法而不是一位編輯”。[7]可見,“自動(dòng)判斷”被賦予了客觀性的期望,這對(duì)記者專業(yè)判斷的權(quán)威性產(chǎn)生了影響。[8]

        不僅如此,自動(dòng)化新聞報(bào)道方式的流行,還導(dǎo)致傳統(tǒng)的新聞生產(chǎn)流程和社會(huì)功能的變革。表面上看,算法似乎解決了人類天然對(duì)主觀性的懷疑:通過“中性”的技術(shù)手段替代專業(yè)的決策,形成“客觀”的新聞文本。然而,越來越多的研究表明,算法并不是中立的,其偏見正以一種更為隱秘和復(fù)雜的機(jī)制運(yùn)作。這也引發(fā)了諸多關(guān)于算法倫理問題的爭(zhēng)論。在微觀層面,記者作為個(gè)體一直是新聞倫理的主要約束對(duì)象。一般認(rèn)為,新聞教育會(huì)提前將記者訓(xùn)練成為具備勤奮、可靠、誠(chéng)實(shí)、敏銳等優(yōu)秀品德的專業(yè)人士。但是,作為產(chǎn)品的新聞通常不是單一個(gè)體能夠全權(quán)負(fù)責(zé)的,而是涉及多主體、多層次的責(zé)任——在宏觀層面,除了媒體組織本身還會(huì)受到外部因素,如社會(huì)環(huán)境、競(jìng)爭(zhēng)者的影響。新聞生產(chǎn)的自動(dòng)化趨勢(shì)意味著越來越多的、原本附加于記者編輯、媒體組織的權(quán)力和責(zé)任讓渡給算法,一方面使得原有的生產(chǎn)邏輯和關(guān)系被打破,另一方面也產(chǎn)生了已有框架難以適用的新問題。因此,急需建構(gòu)一個(gè)新的倫理框架,以明確和討論不斷變動(dòng)的算法新聞倫理爭(zhēng)議。

        二、算法的倫理問題研究綜述

        算法新聞憑借快速及個(gè)性化能力勃興,越來越多地介入到專業(yè)新聞生產(chǎn)之中。學(xué)者們[9][10]研究發(fā)現(xiàn),雖然目前算法新聞尚處初級(jí)階段,但記者普遍感覺數(shù)字化和自動(dòng)化使得新聞生產(chǎn)更加復(fù)雜,并讓從業(yè)者更難遵循規(guī)范標(biāo)準(zhǔn)(normative standards)。因而,對(duì)算法新聞的研究,除了受眾認(rèn)知、社會(huì)和經(jīng)濟(jì)影響之外,倫理問題也成為了重要的一環(huán)。對(duì)倫理的定義有很多種,最廣為傳播的是“關(guān)于我們應(yīng)該做什么的研究”。[11]

        艾納尼(Ananny)結(jié)合傳統(tǒng)研究倫理的三條路徑——道義論(deontology)、功利主義(utilitarianism)以 及 美 德(virtue ethics) 建 立 了 全 新 的 NIAs(networked information algorithms,網(wǎng)絡(luò)信息算法)分析模型,關(guān)注作為一個(gè)集合(assemblage)的算法如何運(yùn)作,以及NIAs何時(shí)、如何、為誰工作。[12]多爾等為其補(bǔ)充了從來源和動(dòng)機(jī)方面對(duì)倫理問題的考量,并提出,算法新聞倫理是作為新聞倫理一部分的數(shù)字媒體倫理(digital media ethics)與計(jì)算機(jī)科學(xué)的賽博倫理(cyber ethics)的交疊。[13]賽博倫理即對(duì)涉及賽博技術(shù)的道德、法律、社會(huì)問題的研究,“對(duì)核心(傳統(tǒng)的)道德觀念的特定表述,比如自治、平等、公正、責(zé)任和人格尊重”。[14]為全面把握新聞倫理的潛在轉(zhuǎn)變和挑戰(zhàn),多爾等結(jié)合普爾(Purer)提出的多層責(zé)任系統(tǒng)(the multi-layer system of responsibility) 及魏申貝格(Weischenberg)等對(duì)組織層次、專業(yè)/個(gè)體層次和社會(huì)/受眾層次的新聞分類方式(the classification of journalism),建立了一套涵蓋了組織、專業(yè)和社會(huì)視域的算法新聞倫理的分析框架,在客觀性、權(quán)威性、透明度以及隱含/外顯的價(jià)值觀等層面發(fā)掘新聞倫理的嬗變與新挑戰(zhàn)。[15]

        隨著2015年國(guó)內(nèi)新聞機(jī)構(gòu)引入機(jī)器人寫作技術(shù),我國(guó)學(xué)者對(duì)算法新聞倫理的研究也日漸增多。牛靜和劉丹通過對(duì)全球134篇媒體倫理規(guī)范的分析,總結(jié)出了提及率前十名的倫理原則,如保護(hù)消息來源、保護(hù)隱私、更正、明確新聞界限等。[16]靖鳴等總結(jié)了人工智能技術(shù)在傳播內(nèi)容、輿論監(jiān)督、公眾信息安全和著作權(quán)以及“信息繭房”方面為新聞業(yè)帶來的倫理失范問題。[17]喬艷認(rèn)為,機(jī)器人新聞生產(chǎn)機(jī)制對(duì)新聞工作者的價(jià)值產(chǎn)生沖擊,并為新聞受眾構(gòu)建了新的邏輯。[18]陳昌鳳等考察了智能算法推薦與分發(fā)的倫理風(fēng)險(xiǎn),嘗試打開算法“黑箱”,探究技術(shù)實(shí)踐與公共信息生產(chǎn)的權(quán)力遷移。[19]張淑玲則關(guān)注算法權(quán)力躍升與算法黑箱的不透明性之間的張力,梳理了新聞算法黑箱的三種表現(xiàn)形態(tài)、成因及解決策。[20]

        整體來看,目前我國(guó)對(duì)于算法新聞倫理的研究稍顯零散,研究或從單一角度入手,或從宏觀角度理論概述,尚未形成一個(gè)較為系統(tǒng)、全面的分析框架。本研究試圖從算法新聞的技術(shù)可能性中提取特征,搭建一個(gè)適用于國(guó)內(nèi)算法新聞的倫理地圖,為明確和解決潛在的倫理挑戰(zhàn)提供進(jìn)路。

        三、我國(guó)算法新聞倫理的框架地圖

        本文借助學(xué)者多爾[21]總結(jié)提煉的算法新聞的I-T-O框架(如圖1),基于技術(shù)流程將自動(dòng)化新聞生產(chǎn)劃分為三個(gè)部分:輸入(input),從數(shù)據(jù)庫提取數(shù)據(jù);處理(throughput),用預(yù)先設(shè)定的語言和統(tǒng)計(jì)規(guī)則處理數(shù)據(jù);生成(output),最終用自然語言輸出文本。

        圖1 算法新聞的I-T-O模式

        從技術(shù)手段上說,NLG擁有不同的算法種類,如按照學(xué)習(xí)方式可分為監(jiān)督式學(xué)習(xí)、非監(jiān)督式學(xué)習(xí)、半監(jiān)督式學(xué)習(xí)、強(qiáng)化學(xué)習(xí)等,并還將出現(xiàn)新的手段。本文借助可操作的概念并還原其在自動(dòng)化新聞生產(chǎn)過程中的作用,以生產(chǎn)行為及結(jié)果為導(dǎo)向,從新聞報(bào)道的基本原則切入,嘗試建構(gòu)一個(gè)能夠系統(tǒng)描述動(dòng)態(tài)、開放的算法新聞的倫理框架。以生產(chǎn)流程(輸入、處理、生成)和報(bào)道的基本原則(真實(shí)準(zhǔn)確、客觀全面、社會(huì)責(zé)任)形成了一個(gè)3×3的矩陣地圖(如表1),為分析實(shí)踐和規(guī)范問題提供路徑。

        表1 算法新聞倫理的分析框架

        1.輸入:數(shù)據(jù)的可信度

        在輸入階段,倫理問題主要來自數(shù)據(jù)本身及其來源?,F(xiàn)階段,結(jié)構(gòu)化數(shù)據(jù)是NLG的前提。自動(dòng)化新聞之所以在體育、財(cái)經(jīng)、犯罪等領(lǐng)域最為常見,正是由于這些領(lǐng)域數(shù)據(jù)的可得性和結(jié)構(gòu)化程度高??梢?,數(shù)據(jù)本身的準(zhǔn)確性和可靠度對(duì)最終報(bào)道的真實(shí)準(zhǔn)確具有決定性影響。數(shù)據(jù)的完整性、中立性也非常重要。若數(shù)據(jù)庫獲取不全或具有偏向性,都可能導(dǎo)致錯(cuò)誤與偏見。此外,原始數(shù)據(jù)庫需要經(jīng)過“清洗”,以算法能夠理解的結(jié)構(gòu)化形式輸入。此過程中,一些無法被結(jié)構(gòu)化的數(shù)據(jù)被清理或忽視,也可能導(dǎo)致數(shù)據(jù)的缺失與偏向。

        數(shù)據(jù)的來源一直是新聞倫理研究關(guān)注的問題。在算法新聞?lì)I(lǐng)域,數(shù)據(jù)來源的問題可以從兩個(gè)主體層面進(jìn)行考察。一是從媒體機(jī)構(gòu)層面,為實(shí)現(xiàn)數(shù)據(jù)透明,算法新聞的數(shù)據(jù)來源是否應(yīng)該被公開尚存爭(zhēng)議,因?yàn)殚L(zhǎng)期以來“保護(hù)信源”都是新聞倫理中重要的一項(xiàng)。應(yīng)該如何解決“數(shù)據(jù)透明”與“信源保護(hù)”之間的矛盾?此外,獲取的數(shù)據(jù)途徑是否正當(dāng)、取得數(shù)據(jù)后媒體機(jī)構(gòu)是否有權(quán)使用其進(jìn)行商業(yè)活動(dòng)也是被廣泛討論的問題;二是從用戶個(gè)體層面,算法時(shí)代,個(gè)人隱私的邊界正在逐漸消融,媒體對(duì)用戶數(shù)據(jù)的抓取和搜集可能會(huì)侵犯?jìng)€(gè)人隱私權(quán)。個(gè)人隱私的邊界應(yīng)該如何界定?未被授權(quán)的數(shù)據(jù)可以作為新聞寫作的素材嗎?2018年5月25日,歐盟全新的《通用數(shù)據(jù)保護(hù)條例》(General Data Protection Regulation,簡(jiǎn)稱GDPR)取代了1995年通過的歐盟數(shù)據(jù)保護(hù)法律,似乎給出了一種答案。該條例用嚴(yán)格的規(guī)定和高額的罰金迫使企業(yè)關(guān)注和保護(hù)客戶數(shù)據(jù),讓用戶能夠更主動(dòng)地掌控?cái)?shù)據(jù),維護(hù)隱私?,F(xiàn)階段,我國(guó)的法律在信息數(shù)據(jù)保護(hù)方面仍有待完善。

        2.處理:算法的透明度

        有學(xué)者將透明度定義為“新聞行業(yè)內(nèi)部和外部人士都有機(jī)會(huì)能夠監(jiān)督、檢查、批評(píng)甚至干涉報(bào)道過程的途徑”,[22]讓觀眾能夠了解新聞生產(chǎn)過程和報(bào)道幕后的記者。而算法新聞的出現(xiàn)卻挑戰(zhàn)了這一傳統(tǒng)標(biāo)準(zhǔn),自動(dòng)生產(chǎn)的過程似乎是一個(gè)“黑箱”,特別是機(jī)器學(xué)習(xí)算法的出現(xiàn),讓人類難以對(duì)其決策過程進(jìn)行監(jiān)督和干預(yù),更難對(duì)輸出結(jié)果的合法性進(jìn)行認(rèn)定。透明度有兩個(gè)重要的組成部分——可得性和可理解性(accessibility and comprehensibility):可得性即數(shù)據(jù)所有者的知情權(quán)與數(shù)據(jù)使用者的商業(yè)可行度(commercial viability)間的權(quán)力博弈,形成信息不對(duì)稱和有利于數(shù)據(jù)使用者的“知識(shí)和決策權(quán)力的不平衡(imbalance)”;[23]可理解性即算法運(yùn)行的規(guī)則和過程能被用戶理解,但知識(shí)門檻與技術(shù)壁壘的存在使得此部分的實(shí)現(xiàn)并非易事。[24]此外,出于商業(yè)性的專利保護(hù)、國(guó)家安全和隱私等考慮,算法做到完全公開是極為困難的。

        不過在此方面,國(guó)外媒體也做出了多種嘗試。新媒體公司(ProPublica)發(fā)布其統(tǒng)計(jì)方法論白皮書;美國(guó)新聞聚合網(wǎng)站嗡嗡喂(BuzzFeed)、538(FiveThirtyEight)等將他們部分?jǐn)?shù)據(jù)向文章的數(shù)據(jù)和代碼設(shè)為開源;《紐約時(shí)報(bào)》、BBC等均在不同程度上公布了其算法工具的細(xì)節(jié)。而目前我國(guó)多數(shù)新聞寫作機(jī)器人并未公開詳細(xì)的算法,僅有微軟小冰粗略地公開了其實(shí)現(xiàn)人機(jī)對(duì)話的機(jī)理。[25]

        一些觀點(diǎn)認(rèn)為,算法判斷與人類主觀決策相比,似乎具有天然的中立性,有學(xué)者將其稱作“算法客觀性”(algorithmic objectivity)。[26]因?yàn)樗惴〞?huì)按照預(yù)先設(shè)定的統(tǒng)一運(yùn)算流程,在沒有人為干預(yù)的情況下處理所有數(shù)據(jù),而不是根據(jù)某一時(shí)刻的臨時(shí)判斷。但很多人發(fā)現(xiàn),算法處理數(shù)據(jù)的運(yùn)行邏輯仍舊是人類行動(dòng),傳統(tǒng)的監(jiān)督式學(xué)習(xí)在算法編寫過程中可能受到程序設(shè)計(jì)者、機(jī)構(gòu)的價(jià)值觀以及所處社會(huì)環(huán)境、技術(shù)限制等影響,機(jī)器學(xué)習(xí)算法則可能會(huì)受到用戶使用方式的影響,制造更多有意識(shí)或無意識(shí)的偏見的產(chǎn)生。有學(xué)者指出,臉書(Facebook)新聞的算法邏輯重視那些能夠被分享、被評(píng)論和被點(diǎn)贊的內(nèi)容,因此適合那些能夠引發(fā)情緒波動(dòng)的內(nèi)容,如讓人“極度喜悅或義憤填膺”的帖子或圖片。[27]

        可追溯性在保證新聞的真實(shí)準(zhǔn)確和事后追責(zé)上扮演非常重要的角色。然而,機(jī)器學(xué)習(xí)算法的普及卻使得人類逐漸喪失了對(duì)機(jī)器行為的完全掌控,對(duì)算法行為的控制權(quán)逐漸從設(shè)計(jì)者、程序員轉(zhuǎn)移到了算法本身及其運(yùn)行環(huán)境,出現(xiàn)了“責(zé)任溝”(an accountability gap)。一篇自動(dòng)化報(bào)道出現(xiàn)問題之后,責(zé)任主體應(yīng)指向誰?程序設(shè)計(jì)者、機(jī)構(gòu)還是計(jì)算機(jī)?此外,有學(xué)者認(rèn)為,人類的道德標(biāo)準(zhǔn)無法適用于計(jì)算機(jī),算法也無法模擬人類“對(duì)情感、道德的彈性把控”。[28]什么樣的算法設(shè)計(jì)是合理的、能夠滿足人類閱讀期待的?人機(jī)的倫理一致性(ethical consistency)以及對(duì)社會(huì)和道德責(zé)任的重置問題都尚未形成一致看法。

        3.生成:報(bào)道的正當(dāng)性

        算法對(duì)于報(bào)道的真實(shí)、準(zhǔn)確性有雙重作用。一方面,算法可以幫助媒體鑒別信息真?zhèn)?,成為很多媒體核實(shí)信源、應(yīng)對(duì)假新聞的有效方式。比如路透社開發(fā)的針對(duì)社交媒體推特(Twitter)的算法預(yù)警程序“新聞追蹤者”(News Tracer),運(yùn)用算法評(píng)估發(fā)布者的用戶資料、認(rèn)證情況、關(guān)注者和被關(guān)注者、消息的傳播方式等700余項(xiàng)指標(biāo),幫助記者判斷一則推文的可信度,并利用機(jī)器學(xué)習(xí)發(fā)現(xiàn)被廣泛討論的事件,判斷其是否具有新聞價(jià)值。[29]另一方面,算法在輸入、處理過程中的偏見與不足,可能會(huì)直接導(dǎo)致報(bào)道的偏差與失實(shí)。《紐約時(shí)報(bào)》曾在一則橄欖球比賽報(bào)道中表示,盡管有大數(shù)據(jù)作為支撐,但機(jī)器人生成的報(bào)告要比NFL專業(yè)教練的預(yù)測(cè)更為樂觀。[30]

        現(xiàn)階段,因技術(shù)和成本的限制,除為全球提供商業(yè)、金融信息的路透社、彭博社,多數(shù)媒體機(jī)構(gòu)選擇與外部渠道合作或購(gòu)買的方式獲取“二手?jǐn)?shù)據(jù)”而不是自主發(fā)掘數(shù)據(jù)。而出于合作、預(yù)算或?qū)Φ谌綌?shù)據(jù)的依賴,可能限制報(bào)道的復(fù)雜、深入程度以及立場(chǎng),這也引發(fā)了對(duì)媒體自主權(quán)、報(bào)道獨(dú)立性、客觀性的討論。

        社會(huì)責(zé)任是媒體活動(dòng)的基礎(chǔ)。早期,西方媒體被譽(yù)為獨(dú)立于“三權(quán)分立”中的立法、行政、司法之外的“第四權(quán)力”,以報(bào)道的方式監(jiān)督政府、制衡權(quán)力、守望社會(huì)。然而算法新聞似乎正在削弱媒體的社會(huì)功能。算法新聞目前還需要提前預(yù)置模板,對(duì)內(nèi)容的豐富度和深入度產(chǎn)生消極影響,導(dǎo)致最終的產(chǎn)品中出現(xiàn)背景信息、創(chuàng)造性和反思的缺位。多名一線記者在一次工作坊中表示,自動(dòng)生成的文章可看性低、內(nèi)容無聊,對(duì)讀者“沒有吸引力”。[31]皮尤研究中心發(fā)布的報(bào)告《變革中的新聞編輯部》中曾提出,“美國(guó)報(bào)紙獲得了數(shù)字時(shí)代網(wǎng)絡(luò)觀念和技能的更新,及淺顯內(nèi)容的多元化展示,而失去的是精致內(nèi)容的生產(chǎn)能力?!?算法新聞也擠占了媒體有限的資源,調(diào)查報(bào)道作為一項(xiàng)重要的公共服務(wù)因記者規(guī)模和資金的削減日漸減少,導(dǎo)致普遍的深度內(nèi)容供應(yīng)不足。[32]原本應(yīng)充當(dāng)“看門人”(watchdog)的媒體反而被商業(yè)利益、政治集團(tuán)利用。比如,2018年劍橋分析公司(Cambrige Analytica)被爆利用Facebook數(shù)據(jù)通過在各大社交平臺(tái)精準(zhǔn)投放具有偏向性的新聞操縱選民情緒,為各國(guó)政治宣傳、大選等利益集團(tuán)服務(wù),甚至染指英國(guó)脫歐、美國(guó)總統(tǒng)大選等重大事件。

        在自動(dòng)化新聞生產(chǎn)中,價(jià)值觀也是非常重要的一環(huán)。由于算法不具備人類的道德判斷,若不加以適當(dāng)限制和引導(dǎo),易產(chǎn)生不良的社會(huì)影響。比如,微軟小冰就曾因?yàn)闄C(jī)器學(xué)習(xí)樣本問題被網(wǎng)友“帶壞”而出口成“臟”,甚至還在與網(wǎng)友的對(duì)話中發(fā)表反動(dòng)言論,一度被封殺。作為一家科技公司,今日頭條的創(chuàng)始人張一鳴曾公開稱“算法沒有價(jià)值觀”,但從2017年開始,今日頭條旗下產(chǎn)品屢屢因?yàn)閮r(jià)值導(dǎo)向問題被相關(guān)部門責(zé)令整改、關(guān)停。正如凱文·凱利在《科技想要什么》中說的:“我們的任務(wù)是引導(dǎo)每一項(xiàng)新發(fā)明培育這種內(nèi)在的‘善’,使之沿著所有生命的共同方向前進(jìn)?!盵33]沒有正確的價(jià)值導(dǎo)向,算法主導(dǎo)的新聞業(yè)極易產(chǎn)生負(fù)面的社會(huì)影響。

        四、總結(jié)

        算法作為一種伴隨新技術(shù)而生的權(quán)力,社會(huì)影響力愈發(fā)廣泛、深遠(yuǎn)。技術(shù)的進(jìn)步能否帶來更好的新聞業(yè)?在反思算法倫理的地圖之后發(fā)現(xiàn),其在新聞業(yè)的應(yīng)用既帶來了新可能與便捷,如鑒別信息真?zhèn)?、預(yù)測(cè)未來發(fā)展、個(gè)性化寫作、拓展報(bào)道話題等,也帶來了諸多關(guān)于客觀性、真實(shí)性、社會(huì)責(zé)任等方面的爭(zhēng)議。艾納尼總結(jié)前人研究,準(zhǔn)確道出了算法的復(fù)雜性:它不僅是加速商業(yè)、新聞業(yè)、金融等其他領(lǐng)域的工具,而且是作為“話語”的存在,是技術(shù)的和社會(huì)的知識(shí)文化,組織信息如何產(chǎn)生、呈現(xiàn)、生成意義、被視為合法以及賦予公共意義。算法新聞倫理也是糅合了制度化代碼、專業(yè)文化、技術(shù)性能、社會(huì)實(shí)踐以及個(gè)體決定的復(fù)雜結(jié)果。算法作為自動(dòng)化時(shí)代的根基所帶來的倫理挑戰(zhàn)并不是“透明度”與“黑箱”可以完全概括的,框架地圖的構(gòu)建與完善能夠幫助厘清潛在問題并提出應(yīng)對(duì)方案,未來研究可圍繞某一概念進(jìn)行更為詳盡的研究,以及如何將“工具理性”和“價(jià)值理性”更好地結(jié)合。

        注釋:

        [1]Roger Parry.The Ascent of Media: from Gilgamesh to Google via Gutenberg [M].London: Nicholas Brealey, 2011.Boston: Nicholas Brealey Pub.

        [2]Konstantin Dorr.Mapping the Field of Algorithmic Journalism [J].Digital Journalism, 2016 (6).

        [3]Francesco Marconi, Alex Siegman and Machine Journalist.The Future of Augmented Journalism: A guide for newsrooms in the age of smart machines [R].Associated Press.[2017-02-22].https://insights.ap.org/uploads/images/the-future-of-augmented-journalism_apreport.pdf

        [4]Alexander Fanta.Putting Europe’s Robots on the Map: Automated journalism in news agencies [EB/OL].Reuters Institute [2017-09-01].https://reutersinstitute.politics.ox.ac.uk/our-research/putting-europes-robotsmap-automated-journalism-news-agencies

        [5]Kantar Media.Brand and Trust in A Fragmented News Environment [R].[2016-10-10].http://reutersinstitute.politics.ox.ac.uk/our-research/brand-and-trustfragmented-news-environment

        [6]Nic Newman with Richard Fletcher, Antonis Kalogeropoulos, David A.L.Levy and Rasmus Kleis Nielsen.Digital News Report 2017 [R].Reuters Institute for the Study of Journalism.[2017-06-22].http://www.digitalnewsreport.org

        [7]Nic Newman with Richard Fletcher, David A.L.Levy and Rasmus Kleis Nielsen.Digital News Report 2016 [R].Reuters Institute for the Study of Journalism.[2016-06-14].http://www.digitalnewsreport.org/survey/2016/

        [8]Matt Carlson.Automating judgment? Algorithmic judgment, news knowledge, and journalistic professionalism [J].New Media & Society, 2017 (4).

        [9]Brian Creech and Andrew L.Mendelson.Imagining the Journalist of the Future: Technological Visions of Journalism Education and Newswork [J].Communication Review, 2015 (18).

        [10]Lia Paschalia Spyridou, Maria Matsiola, Andreas Veglis, George Kalliris, and Charalambos Dimoulas.Journalism in a State of Flux: Journalists as Agents of Technology Innovation and Emerging News Practices [J].International Communication Gazette, 2013 (75).

        [11]John C.Merrill.Theoretical Foundations for Media Ethics.In Controversies in Media Ethics, 3rd ed.[C],edited by A.D.Gordon, J.M.Kittross, J.C.Merrill,W.Babcock, and M.Dorsher.New York: Routledge, 2011.

        [12]Mike Ananny.Toward an Ethics of Algorithms:Convening, Observation, Probability, and Timeliness [J].Science, Technology, & Human Values, 2016 (41).

        [13]Konstantin Nicholas Dorr & Katharina Hollnbuchner.Ethical Challenges of Algorithmic Journalism [J].Digital Journalism, 2017 (5).

        [14]Herman H Tavani.Ethics and Technology.Controversies,Questions, and Strategies for Ethical Computing [M].New Jersey: Wiley, 2011: 13.

        [15]Konstantin Nicholas Dorr & Katharina Hollnbuchner.Ethical Challenges of Algorithmic Journalism [J].Digital Journalism, 2017 (5).

        [16]牛靜,劉丹.全球媒體倫理規(guī)范的共通準(zhǔn)則和區(qū)域性準(zhǔn)則——基于134篇媒體倫理規(guī)范文本的分析 [J].新聞?dòng)浾?2017 (10).

        [17][28]靖鳴, 婁翠.人工智能技術(shù)在新聞傳播中倫理失范的思考 [J].出版廣角, 2018 (1).

        [18]喬艷.智媒時(shí)代機(jī)器人新聞對(duì)新聞倫理的沖擊與重建 [J].新聞世界, 2017 (11).

        [19]陳昌鳳,霍婕.權(quán)力遷移與人本精神:算法式新聞分發(fā)的技術(shù)倫理 [J].新聞與寫作,2018 (1).

        [20]張淑玲.破解黑箱:智媒時(shí)代的算法權(quán)力規(guī)制與透明實(shí)現(xiàn)機(jī)制 [J].中國(guó)出版,2018 (7).

        [21]Konstantin Dorr.Mapping the Field of Algorithmic Journalism [J].Digital Journalism, 2016 (6).

        [22]Mark Deuze.What is Journalism? Professional Identity and Ideology of Journalists Reconsidered [J].Journalism,2005 (6).

        [23]Omer Tene and Jules Polonetsky.Big data for all:Privacy and user control in the age of analytics [J].Northwestern Journal of Technology and Intellectual Property, 2013 (11).

        [24]Brent Daniel Mittelstadt, Patrick Allo, Mariarosaria Taddeo, Sandra Wachter, Luciano Floridi.The Ethics of Algorithms: Mapping the Debate [J].Big Data & Society, 2016 (3).[25]講堂|周明:自然語言對(duì)話引擎 [EB/OL].微信公眾號(hào):微軟研究院AI頭條 [2017-04-12].

        [26]Tarleton Gillespie.The Relevance of Algorithms.In Media Technologies: Paths Forward in Social Research[C], edited by Tarleton Gillespie, Pablo Boczkowski, and Kirsten Foot.London: MIT Press, 2014.

        [27]Zeynep Tufekci.The Real Bias Built in at Facebook[EB/OL].The New York Times[2016-05-19].https://www.nytimes.com/2016/05/19/opinion/the-real-bias-built-inat-facebook.html

        [29]Reuters News Tracer: Filtering through the noise of social media [EB/OL].https://agency.reuters.com/en/insights/articles/articles-archive/reuters-news-tracerfiltering-through-the-noise-of-social-media.html.

        [30]鄧建國(guó).機(jī)器人新聞:原理、風(fēng)險(xiǎn)和影響 [J].新聞?dòng)浾撸?016(9).

        [31]Neil Thurman, Konstantin Dorr & Jessica Kunert.When Reporters Get Hands-on with Robo-Writing [J].Digital Journalism, 2017 (5).

        [32]James T.Hamilton.Democracy’s Detectives: The Economics of Investigative Journalism [M].Massachusetts:Harvard University Press, 2016.

        [33]凱文·凱利, 熊祥譯.科技想要什么 [M].北京: 中信出版社,2011.

        猜你喜歡
        倫理算法
        《心之死》的趣味與倫理焦慮
        護(hù)生眼中的倫理修養(yǎng)
        活力(2019年19期)2020-01-06 07:37:00
        基于MapReduce的改進(jìn)Eclat算法
        Travellng thg World Full—time for Rree
        進(jìn)位加法的兩種算法
        算法初步兩點(diǎn)追蹤
        基于增強(qiáng)隨機(jī)搜索的OECI-ELM算法
        一種改進(jìn)的整周模糊度去相關(guān)算法
        醫(yī)改莫忘構(gòu)建倫理新機(jī)制
        論《覺醒》中的倫理關(guān)系
        亚洲一区不卡在线导航| 国产精品无圣光一区二区| 国产免费一区二区三区在线观看| 91精品国产91久久久无码色戒 | 精品人妻大屁股白浆无码| 国产欧美日韩综合精品二区| 免费看国产成年无码av| 久久国产精品懂色av| 婷婷色婷婷开心五月四| 丰满人妻被黑人猛烈进入| 国产成人乱色伦区小说| 蜜臀av一区二区三区精品 | 国产在线无码精品无码| 999久久久无码国产精品| 亚洲精品国产国语| 男生自撸视频在线观看| 热99re久久精品这里都是精品免费| 人妻系列无码专区久久五月天| 老熟女熟妇嗷嗷叫91| 一个人午夜观看在线中文字幕| 人妻精品久久久久中文字幕69| 76少妇精品导航| 日本在线免费精品视频| 国产流白浆视频在线观看| 女人让男人桶爽30分钟| 女人体免费一区二区| 亚洲中文高清乱码av中文| 亚洲av无码一区东京热久久| 免费人成视频x8x8| 国产 在线播放无码不卡| 国产精品亚洲av高清二区| 久久久老熟女一区二区三区 | 亚洲乱码一区二区av高潮偷拍的| 97精品久久久久中文字幕| 欧美人妻日韩精品| 天天综合色中文字幕在线视频| 99re6在线视频精品免费| 久久精品无码中文字幕| 99久久久精品国产性黑人| 日韩少妇人妻中文视频| 全免费a级毛片免费看网站|