亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        算法該對誰負責

        2023-07-19 00:00:00任世怡
        國際公關(guān) 2023年21期

        摘要:算法參與到新聞業(yè)態(tài)并發(fā)展的過程,也是新聞媒體把關(guān)人由媒體轉(zhuǎn)至算法機器的過程。算法通過對數(shù)據(jù)的整合、過濾、篩選改變傳統(tǒng)的受眾接收信息模式,基于用戶偏好、消費興趣、社交圖譜等維度對受眾進行精準推送,完成信息的“個性化定制”,通過推送信息完成擬態(tài)環(huán)境的建構(gòu)從而構(gòu)造用戶的行為,影響受眾的偏好習慣,引導受眾形成共識或完成消費行為。但在算法推薦的程序里,代碼中隱藏的是算法背后的社會權(quán)力,即“黑箱”。算法該對誰負責?提高算法參與的新聞生產(chǎn)、分發(fā)過程的透明度、可信度,完成技術(shù)運用與社會責任的適配,成為當下防止算法黑箱操控的重要命題。

        關(guān)鍵詞:算法;精準推送;算法黑箱;社會責任

        人工智能技術(shù)運用于新聞業(yè)已久,機器和算法在新聞生產(chǎn)與分發(fā)全流程中助推著新聞業(yè)的革新,而作為一種 “人造物”,算法凝結(jié)了人類智慧和價值觀,人類獨有的社會性也使算法的特征和應用愈發(fā)復雜。

        隨著算法技術(shù)的普及,信息過載與人們有限的注意力之間的矛盾與日俱增,計算機、互聯(lián)網(wǎng)造就的信息社會加大了人們的信息負荷。算法作為智能技術(shù)雖然能處理海量信息,但由于新興技術(shù)的不穩(wěn)定性和愈發(fā)社會化的應用,算法 “失靈”的現(xiàn)象如算法偏見、算法歧視、算法黑箱、算法責任缺位等時有發(fā)生,對社會共識的構(gòu)建和社會結(jié)構(gòu)的平穩(wěn)運行造成了極大的傷害。破解此問題僅靠 “止損”是遠遠不夠的,須從源頭出發(fā),探尋算法的底層邏輯,找出 “算法對誰負責”問題的答案,方能找到合理的解決辦法。

        一、算法技術(shù)完成的“私人定制”

        算法技術(shù)之所以能超越人的大腦,就是因為其擁有對數(shù)據(jù)的整合、篩選、過濾、搜索等強大功能。依據(jù)給出的程序和模型,算法甚至可以擁有自動化決策的能力,如記錄使用者的瀏覽、搜索、消費痕跡都可以將使用者的習慣和偏好量化,將用戶的人際關(guān)系和交往行為數(shù)據(jù)化,將現(xiàn)實和虛擬世界聯(lián)系起來。

        算法實現(xiàn)人與信息的匹配主要有三種模式:一是內(nèi)容生產(chǎn)方的人工推薦模式;二是基于用戶搜索的 “人工+算法”模式;三是基于用戶行為數(shù)據(jù)和社交媒體數(shù)據(jù)的 “完全算法”模式。[1]算法將用戶的網(wǎng)絡(luò)使用記錄、相似偏好用戶的數(shù)據(jù)納入程序設(shè)計過程中,可以精準地對用戶的信息偏好進行預測,實現(xiàn)信息的 “私人定制”。但這樣外化的數(shù)據(jù)卻不能真正探尋到人們的心理認知層面,這也是算法 “客觀”外殼下無法彌補的 “主體性”缺陷。

        從本體論角度看,算法視閾下的受眾是具有高度交互性的受眾,媒體和受眾之間的關(guān)系也因互聯(lián)網(wǎng)的強交互性發(fā)生改變,受眾身份成為用戶,身份也不僅僅是接收信息,而是主動地搜索,有明顯的意愿和獨特性要求。算法為用戶帶來的是與整個社會的交流,從被動接受到主動編碼,主體性有了極大增強,用戶可以主動設(shè)置自己的議題,不再受媒體的束縛,話語霸權(quán)被打破,“人人都有麥克風”的時代到來。

        二、算法“黑箱”風險

        “黑箱”,顧名思義為未知區(qū)域。算法黑箱是指新聞生產(chǎn)中不為人知的幕后操作,由于算法特殊的底層邏輯和設(shè)計流程的專業(yè)性,使算法新聞生產(chǎn)的過程躲在人們看不見的地方,憑借人類現(xiàn)有的認知水平很難洞察算法 “黑箱”中的風險。

        (一)隱私侵犯風險

        “在大數(shù)據(jù)時代,個人隱私不僅隨時空、語境變化而范圍不定,且隨處流動而不可控?!盵2]互聯(lián)網(wǎng)中大大小小的節(jié)點幫助人們完成每一次操作的 “留痕”,才構(gòu)成了龐大的網(wǎng)絡(luò)信息系統(tǒng),但這種記錄收集行為和強迫式的用戶隱私條款,都將用戶隱私權(quán)推上風口浪尖。隱私權(quán)作為人格權(quán),是人們保護自己私密空間和數(shù)據(jù)、信息的權(quán)利。但實際上,用戶的每一個瀏覽、消費記錄都將自己的隱私數(shù)據(jù)公布在互聯(lián)網(wǎng)服務(wù)器上。在經(jīng)濟利益的驅(qū)使下,用戶隱私成為 “商品”,由平臺或數(shù)據(jù)公司出售給廣告商,隱私權(quán)保護難上加難。

        (二)算法偏見和算法歧視

        與社會學視角不同,算法歧視和偏見表現(xiàn)得更加隱蔽,內(nèi)嵌于程序代碼之中。探尋人工智能算法的底層邏輯可以發(fā)現(xiàn),算法技術(shù)的產(chǎn)生其實是一種學習的過程,通過大量數(shù)據(jù)的打底、訓練和學習,算法模型才能形成?!巴扑]算法的運行邏輯包含技術(shù)邏輯和價值邏輯兩部分,其中技術(shù)邏輯指的是算法對推薦內(nèi)容的過濾、篩選機制;價值邏輯是指算法推薦內(nèi)容的‘把關(guān)’標準或價值依據(jù)”。[3]人類制作算法模型,是一種具有極高操作性的、將指令程序化的編碼行為,因此偶發(fā)性失?,F(xiàn)象就必然出現(xiàn),數(shù)據(jù)庫大小、數(shù)據(jù)準確度、樣本差異等都可能成為算法輸出偏差的原因,或者會造成更大的算法缺陷—算法歧視。

        除搜索引擎中呈現(xiàn)出的性別歧視之外,“粉紅稅”等新名詞的出現(xiàn)顯示出算法歧視的惡劣影響,它所采用的算法使網(wǎng)絡(luò)環(huán)境與現(xiàn)實社會出現(xiàn)偏差,在人們的心理認知層面產(chǎn)生極大的負面影響,甚至可能將這種歧視和偏見遷移至現(xiàn)實生活中。如果類似性別、民族等敏感問題在人們頭腦中形成刻板成見,則極易激化社會矛盾,動搖社會結(jié)構(gòu)。

        作為 “人造物”,設(shè)計者的價值觀和意圖可以遷移至算法,使算法在應用過程中難免會帶有人為的痕跡,實際上作為個體或組織的價值載體而存在。同時,現(xiàn)實的算法應用與社會生活系統(tǒng)緊密結(jié)合在一起,而非 “于真空中”,算法技術(shù)因而無法擺脫現(xiàn)實社會制度規(guī)范的規(guī)制和影響。再加之市場利益的驅(qū)動,算法的社會責任區(qū)間就愈發(fā)狹窄,“利益最大化”的目標下,算法應用就極易產(chǎn)生價值偏見,技術(shù)的殺傷性就體現(xiàn)于此。

        (三)新聞生態(tài)漸趨污濁

        長期以來,傳媒業(yè)已經(jīng)形成了相對穩(wěn)定的價值框架,影響著傳媒的生態(tài)和宏觀、微觀機制。新傳播技術(shù)的出現(xiàn)對傳統(tǒng)的社會傳播體系造成了極大的沖擊,尤其是算法,打破了存續(xù)時間極長的傳統(tǒng)傳播模式,也將整個社會的傳播結(jié)構(gòu)進行改寫和重塑,形成了新的傳播機制。通過 “中介”數(shù)據(jù)的輸入與輸出,背后權(quán)利的控制、人為痕跡的偏見和價值觀都盡數(shù)體現(xiàn)在算法邏輯之中。

        信息的把關(guān)權(quán)力逐漸從傳統(tǒng)媒體時代的新聞機構(gòu)編輯轉(zhuǎn)移至算法或平臺管理者,由此傳統(tǒng)媒體也淪為算法的內(nèi)容提供者。而新聞內(nèi)容的質(zhì)量之所以越發(fā)難以把控,歸咎于算法缺少傳統(tǒng)的信息核查機制,甚至在分發(fā)的過程中也只能事后追責,卻極少對新聞內(nèi)容負責,只迎合用戶的興趣而忽視引導之責,如此的結(jié)果就是新聞逐漸喪失 “社會公器”的職能,產(chǎn)生 “算法短視”。

        然而,媒介不是獨立于社會而存在的,它的存在受到來自各方的社會力量制約,也極大地影響著整個社會,因此對于算法的考量也理應置于宏觀視角下,從算法對社會結(jié)構(gòu)的影響維度來進行。媒體智能化的過程并不僅僅是將新聞生產(chǎn)和審核完全交給機器,而是堅持人本主義和人的主體性地位,警惕人文精神的消弭。

        (四)“信息繭房”和群體極化

        “技術(shù)是人的延伸”,人的智慧從表現(xiàn)為 “會勞動”到 “會使用機器”,再到如今 “會用互聯(lián)網(wǎng)”,可概括為人之所以為 “人”,是因為可以憑借自身的智慧和能力創(chuàng)造改造自然的工具。人可以用這些工具來彌補自身短板,延長自身的能力半徑,進而創(chuàng)造符合生產(chǎn)力要求的其他 “補償性”工具,技術(shù)則是這一創(chuàng)造過程的基石,如今人的一切社會行為因為新技術(shù)的加持變得媒介化。尤其是在新媒體技術(shù)滲透各處的世界中,人們感知世界大多靠媒介,技術(shù)的延伸讓身體 “在場”不再必要,直接經(jīng)驗則不那么重要,因此人們更傾向于從媒介中獲取自己需要的信息,“信息繭房”因此產(chǎn)生。

        除此之外,作為一種可以高效整合、搜索、篩選信息的技術(shù)裝置,算法可以完成信息與人的匹配,完成對用戶的精準分發(fā),幫助人們面對信息過載時減少信息接收成本。但由于人們往往不能在巨大的信息負荷下理智地選擇所需信息,而是傾向于選擇與自己想法相類似的信息,依據(jù) “沉默的螺旋”理論,在網(wǎng)絡(luò)社群中形成的信息過濾機制會逐漸固化人們的選擇心理,人們的視野也因此窄化,最終自陷于 “信息繭房”之中。

        三、算法技術(shù)對誰負責?誰來負責?

        (一)“算法權(quán)力”從何而來

        “技術(shù)不僅能夠賦能與賦權(quán),而且它自身就構(gòu)成一種權(quán)力的行使和對于傳統(tǒng)權(quán)力模式的替代?!盵4]在這個信息過載、代碼無處不在的社會,權(quán)力越來越隱藏于算法之中。這項權(quán)力并不僅僅在于數(shù)據(jù)使用權(quán),而且是對算法的 “操縱”。對于數(shù)據(jù)的整合分類、過濾篩選及對算法程序的公開程度、對擬態(tài)環(huán)境的建構(gòu)都是算法背后隱藏著的權(quán)力。算法通過程序代碼向受眾推送內(nèi)容從而影響受眾的偏好和興趣,塑造受眾的消費行為和價值觀,界定受眾的行為。

        例如,平臺撤熱搜詞條、搜索引擎刻意的結(jié)果排序、輸入框的特定詞語聯(lián)想,這些人工干預行為都使現(xiàn)實生活和算法推送的結(jié)果之間產(chǎn)生矛盾,在大數(shù)據(jù)時代,用戶的數(shù)據(jù)使用權(quán)正是以這樣隱蔽的方式讓渡給了第三方網(wǎng)站,除了基本信息,機構(gòu)還可以從用戶的情緒入手,將用戶的思想狀態(tài)量化,進而優(yōu)化算法實現(xiàn)操縱。

        (二)社會責任與技術(shù)運用的適配

        雖然在算法場域中,技術(shù)、道德、法律都或多或少地發(fā)揮著作用,但真正決定算法的依然是算法的設(shè)計者和使用者。“用戶與算法技術(shù)是既相互依存又相互影響的主體間性的相與關(guān)系,非人的‘行動者’(算法技術(shù))通過有資格的‘代言人’(agent)來獲得主體的地位、資格和權(quán)利,與用戶一道共同營造相互協(xié)調(diào)的行動之網(wǎng)。顯然,這個有資格的‘代言人’的社會責任就會特別重要?!盵5]這很好地回答了當下對于 “算法技術(shù)是否具有主體性”的問題,即便算法被稱為是 “強人工智能”,但依然不可能成為責任主體,具有主體性的不是算法本身,而是背后的設(shè)計者,因而與其說算法需要承擔社會責任,不如說設(shè)計者和使用者應該承擔社會責任。

        在算法技術(shù)參與新聞傳播業(yè)態(tài)的時代,新媒體已經(jīng)和大眾生活密不可分了,媒介信息極大程度地影響著人們認知和塑造社會生活的方式,決定著人們的行為和消費等。算法的高度精準性令人沉浸其中,算法新聞生產(chǎn)與分發(fā)的過程中無處不在的權(quán)力也在發(fā)揮作用。以 “今日頭條”為例,不同用戶打開App的首頁也必然是千人千面的,使用過程中每一次操作都會通過算法模型生成用戶的 “個性標簽”,以便在之后使用過程中可以更精準地鎖定目標用戶。這種權(quán)力的行使與我們的生活息息相關(guān),甚至已經(jīng)變得常態(tài)化,于是這種隱蔽的權(quán)力更加難以被察覺。綜上,考慮到算法的技術(shù)邏輯,平臺更應該采取透明化的治理策略,這樣才能有效提高用戶權(quán)重,將治理權(quán)力交還用戶。從另一角度看,算法也并非全無好處,除了帶來 “黑箱”風險,如果加以利用也可以成為化解風險的工具,隨著算法分發(fā)機制的不斷創(chuàng)新,可以不斷優(yōu)化算法推薦的程序,更好地讓算法為社會發(fā)展服務(wù)。

        四、結(jié)束語

        當下算法仍然處于初級發(fā)展階段,沒有實現(xiàn)真正的 “智能”,且依舊有很多技術(shù)盲區(qū),價值觀在算法的過度使用下呈逐漸窄化的趨勢。法蘭克·帕斯夸里在 《算法黑箱》中針對算法平臺價值觀的建構(gòu)提出:“一方面,我們的私人生活在逐漸公開化,我們在線分享我們的生活方式、我們的抱負、我們的行為舉止和我們的在線社交;而另一方面,卻沒有人監(jiān)督華爾街和硅谷公司用來分析我們的工具,黑箱影響著我們看到的信息、做著關(guān)于我們的種種決定,而這些算法的運作方式我們卻無從知曉?!边^去我們總是強調(diào)工具理性,如今當務(wù)之急則是要強調(diào)價值理性,將算法技術(shù)的價值理性和工具理性相互平衡,依靠技術(shù)本身的不斷創(chuàng)新實現(xiàn)算法的自我導向。

        算法本不應帶有價值立場和過度的人為痕跡,這就需要在算法設(shè)計的過程中進行價值排序,從而防止 “劣幣驅(qū)逐良幣”現(xiàn)象的出現(xiàn)。利用人工為算法缺陷補位,在算法更新升級的過程中不斷發(fā)現(xiàn)問題、解決問題,實現(xiàn)內(nèi)容的優(yōu)化以及與用戶的健康鏈接。須始終強調(diào)算法技術(shù)的價值理性維度,以主流價值觀為引導,方能重構(gòu)穩(wěn)定的社會結(jié)構(gòu),避免社會走向 “單向度”。

        參考文獻:

        [1] 王仕勇.算法推薦新聞的技術(shù)創(chuàng)新與倫理困境:一個綜述[J].重慶社會科學,2019(09):123-132.

        [2] 林愛珺,蔡牧.大數(shù)據(jù)中的隱私流動與個人信息保護[J].現(xiàn)代傳播(中國傳媒大學學報),2020,42(04):79-83.

        [3] 溫鳳鳴,解學芳.短視頻推薦算法的運行邏輯與倫理隱憂:基于行動者網(wǎng)絡(luò)理論視角[J].西南民族大學學報(人文社會科學版),2022,43(02):160-169.

        [4] 喻國明,楊瑩瑩,閆巧妹.算法即權(quán)力:算法范式在新聞傳播中的權(quán)力革命[J].編輯之友,2018(05):5-12.

        [5] 張濤甫.算法 “失算” 與社會的結(jié)構(gòu)性 “失能” [J].上海交通大學學報(哲學社會科學版),2023,31(03):95-103.

        作者簡介: 任世怡,女,漢族,河南鞏義人,碩士研究生在讀,研究方向:新聞倫理。(指導老師:沈麗萍)

        一本一道av无码中文字幕| 久久精品日韩av无码| 91性视频| 亚洲成av在线免费不卡| 日韩精品成人一区二区三区久久久 | 国产亚洲成性色av人片在线观| 中文字幕日韩精品有码视频 | 日产一区二区三区免费看| 无码中文字幕人妻在线一区| 亚洲av之男人的天堂网站| 午夜亚洲www湿好大| 亚洲一区不卡在线导航| 国产内射一级一片内射高清视频1| 日本真人添下面视频免费| 国产熟妇高潮呻吟喷水| 国内精品大秀视频日韩精品| 日本一极品久久99精品| 日日噜噜噜夜夜狠狠久久蜜桃 | 亚洲国产精品成人无码区| 99久久久无码国产精品动漫| 日韩女优一区二区在线观看| 久久久亚洲欧洲日产国码aⅴ| 四房播播在线电影| 国产一级片毛片| 狠狠亚洲婷婷综合久久久| 国产精品成年人毛片毛片| 男人的天堂av高清在线| 少女高清影视在线观看动漫| 2020亚洲国产| 美女视频黄a视频全免费网站色| 午夜免费视频| 日日摸夜夜添夜夜添无码免费视频| 国产妇女乱一性一交| 国产女主播福利一区在线观看 | 国内少妇毛片视频| 激情97综合亚洲色婷婷五| 视频精品熟女一区二区三区| 亚洲一区二区三区特色视频| 免费无码黄动漫在线观看| 成人无码a级毛片免费| 日本按摩偷拍在线观看|