亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        資訊平臺智能推薦算法的倫理問題研究

        2021-07-27 02:08:33陳海軍鄒君波趙穎費德馨
        新媒體研究 2021年7期
        關鍵詞:算法推薦智能算法

        陳海軍 鄒君波 趙穎 費德馨

        關鍵詞 資訊分發(fā);智能算法;算法推薦;算法倫理

        中圖分類號 G2 文獻標識碼 A 文章編號 2096-0360(2021)07-0032-03

        1 智能算法及其倫理內(nèi)涵

        1.1 智能算法起源和發(fā)展

        算法一詞源自波斯學者al-Khwarizmi名字的拉丁化,他于9世紀在巴格達撰寫《印度數(shù)字計算》一書,向西方引入了印度教的數(shù)字,以及相應的計算方法,即算法。中世紀拉丁語中出現(xiàn)專有名詞“algorismus”,指用印度數(shù)字進行四個基本數(shù)學運算——加、減、乘、除,后來,術語“算法”被人們用作表示任何逐步的邏輯過程,并成為計算邏輯的核心[1]。

        隨著信息技術和人工智能技術的發(fā)展,算法逐漸智能化和機械化,并廣泛應用到資訊信息分發(fā)領域。所謂智能算法推薦,是指通過大數(shù)據(jù)統(tǒng)計分析技術及互聯(lián)網(wǎng)信息技術,按照人們的閱讀習慣、興趣愛好與個性化的閱讀行為,精準地為人們提供獲取信息的機器程序?,F(xiàn)代推薦算法大致可以分為三類:基于內(nèi)容的推薦算法、基于知識的推薦算法、協(xié)同過濾算法,此外還有以加權、串聯(lián)、并聯(lián)等方式融合以上算法的方法[2]。

        1.2 算法推薦倫理內(nèi)涵

        算法的倫理問題,指的是算法越來越多地代替人類智慧進行決策所引發(fā)的倫理危機。人工智能背景下,算法越來越智能化和程序化,在遵循自然邏輯和思維邏輯之外,甚至能代替集體智慧進行決策,人類主體地位受到挑戰(zhàn),人與技術之間的關系面臨重構。

        2 智能算法與技術中性論

        技術中性論最早由英國的福布斯提出,該理論認為技術對于社會組織和文化等的發(fā)展并沒有什么特殊影響,其本身并無好壞之分,既可以用于善良的目的,也可以用于邪惡的目的,關鍵是用于何處。在大數(shù)據(jù)背景下,資訊分發(fā)平臺在算法機制的作用下產(chǎn)生了諸多的倫理問題,使得人們對智能技術的影響和作用產(chǎn)生了質(zhì)疑,重新思考技術中性論的現(xiàn)實意義。

        2.1 智能算法帶來的倫理問題表現(xiàn)維度

        2.1.1 內(nèi)容呈現(xiàn):加劇“信息繭房”,受眾成為“單向度”的人

        從算法推薦結果出發(fā),目前最常見的算法推薦機制是平臺根據(jù)用戶對內(nèi)容的點贊評論等數(shù)據(jù),分析其內(nèi)在的興趣和需求,在獲取到相對完善的用戶畫像后,在下一次推送中推薦與用戶相匹配的信息內(nèi)容。這樣的方式一方面實現(xiàn)了人與信息的高效匹配,節(jié)省了用戶的時間,但另一方面也讓用戶在無形之中回避了自身不太感興趣的內(nèi)容,只選擇性地接觸自己感興趣的話題,久而久之失去了解和認識不同事物的能力,從而加劇信息環(huán)境中的“信息繭房”危機。

        馬爾庫塞在其著作《單向度的人》中指出,發(fā)達工業(yè)社會壓制了人們內(nèi)心中的否定性、批判性、超越性的向度,使這個社會成為單向度的社會,而生活于其中的人成了單向度的人,這種人喪失了自由和創(chuàng)造力,不再想象 或追求與現(xiàn)實生活不同的另一種生活[3]。人工智能時代,算法推薦帶來的“信息繭房”加劇,無疑會使得生活在其中的人們更加“單向”化,停滯自身的創(chuàng)造和發(fā)展,無法實現(xiàn)人的價值。

        2.1.2 算法過程:信息選擇權讓渡,主體權益面臨搶占風險

        從算法運行過程出發(fā),推薦算法通過獲取用戶以往的行為數(shù)據(jù),對用戶畫像進行標簽化和細分化,根據(jù)其特點向用戶推薦與其歷史瀏覽內(nèi)容相似的信息。在這種程序下,用戶并不知道自己所看到的內(nèi)容已經(jīng)經(jīng)過算法過濾,會自然而然認為平臺推薦的內(nèi)容應是客觀全面的,這就極大可能導致用戶錯過一些本應知情卻被算法機制篩選掉的信息,無法了解客觀世界的全貌。

        這種算法推薦的過程不甚透明,用戶并不知曉算法程序如何分析、分發(fā)信息,因此當用戶過度依賴資訊平臺的推薦來獲取信息時,也就意味著將信息選擇的權利讓渡給了算法,這樣不僅會導致用戶接觸新鮮事物的主觀能動性下降,所獲信息過于片面狹窄,用戶本身的信息選擇權和知情權等權益也可能受到侵犯,淪為算法程序的奴隸。與此同時,在互聯(lián)網(wǎng)大背景下,大量用戶數(shù)據(jù)被資訊平臺分析檢測,平臺也不能完全保證收集到的用戶數(shù)據(jù)的安全,用戶隱私可能面臨被泄露、被更改的風險,致使隱私權益得不到保障。

        2.1.3 價值反饋:社會輿論進一步分化,主流價值觀受沖擊

        從算法價值層面來說,由于用戶對資訊平臺推送的信息具有選擇接觸性,在用戶主動獲取所需信息的同時,平臺也會根據(jù)新鮮度和熱度推送信息,這些內(nèi)容通過算法程序推薦給廣大用戶后,在正反饋機制的作用下,能在平臺上獲得更多曝光量和瀏覽量,實現(xiàn)熱度的不斷增值。但由于算法機制缺乏嚴格的審查制度,如果僅靠流量與點擊為算法標準來進行推送,一些低俗、泛娛樂化的內(nèi)容甚至是虛假新聞也可能會被大量推送給用戶,導致網(wǎng)絡環(huán)境中吸引眼球的內(nèi)容獵奇或觀點極端的信息增多,影響人們對真實世界的認知和判斷。

        哈佛大學教授凱斯·桑斯坦認為,互聯(lián)網(wǎng)環(huán)境中的“信息繭房”局限會產(chǎn)生群體“極化”的問題,也就是說當人們長期囿于不良信息環(huán)境中時,自身和群體的價值觀會受不良價值觀的影響,逐漸異化,這種情況導致的不良后果可能是原本和諧統(tǒng)一的社會風氣被破壞,主流價值的輿論引導力下降,社會輿論進一步分化。

        2.2 技術中性論視角下的倫理問題成因分析

        技術中性論認為技術本身是非善非惡的,技術能產(chǎn)生怎樣的影響,取決于使用它的主體出于怎樣的目的,或使用過程中存在的邏輯問題。算法推薦作為一種人工智能時代的智能技術,其本身也應不具有先天的善惡屬性,智能推薦算法導致的倫理問題的成因可以從以下幾個方面分析。

        2.2.1 人為因素:主觀偏見和潛在歧視

        人為因素更多指的是使用算法的主體存在的主觀偏見。算法推薦基于數(shù)據(jù)分析過程進行,在對收集到的信息進行數(shù)據(jù)分析時,外部主體的主觀判斷和偏見會使得原本的結果產(chǎn)生誤差,造成不符合預期的結果出現(xiàn)。人為因素的存在是一種不可抗性,因為任何算法均由人所設計和開發(fā),縱然算法過程遵循的是科學的數(shù)字分析與歷史數(shù)據(jù)分析路徑,但先前的算法設計、數(shù)據(jù)導入、結果應用等環(huán)節(jié)均需由人力來完成,哪怕算法推薦再智能化也不可能排除人力因素的干擾。因此在算法推薦過程中,人為因素的存在會對智能推薦的客觀性產(chǎn)生影響,導致推薦結果具有偏向性,不管是基于何種算法技術的算法推薦都有可能被用來人為操控結果。譬如現(xiàn)有的一些人工智能招聘系統(tǒng)就存在著性別、種族歧視等問題,在對求職者進行簡歷篩選時,會根據(jù)算法分析結果篩選掉一些不符合預期的簡歷。

        2.2.2 智能算法內(nèi)部原因:數(shù)據(jù)誤差與完整性限制

        智能算法需要基于數(shù)據(jù)的分析處理來實行操作,因此數(shù)據(jù)的完整性和準確性尤為重要,但因為種種客觀因素,我們所得到的數(shù)據(jù)結果并不是百分百完美的。

        首先,在完整性上有所限制,智能算法在獲取用戶使用數(shù)據(jù)后對其進行分析,然后選取受眾接觸最多、最感興趣的內(nèi)容再次推送,其中比重較低的信息可能會被篩選掉。但這些受眾接觸最多的信息只能說明用戶的大概率喜愛程度,并不能囊括用戶的所有喜好,用戶轉(zhuǎn)發(fā)和收藏某個話題內(nèi)容不全是出于熱愛,可能是出于好奇,也有可能是為了學習某項技能而進行頻繁接觸[4]。因此數(shù)字邏輯無法完全解答個體的行為邏輯,也不可能為受眾推送覆蓋全面需求的信息內(nèi)容。

        其次,是準確性的限制,如果在一群較為集中的數(shù)據(jù)中出現(xiàn)與之差異較大的數(shù)據(jù)點,或被人為加入某些數(shù)據(jù),那得到的分析結果也會與均值有較大偏差。比如新浪微博熱搜榜上出現(xiàn)的熱點內(nèi)容,并不全部是自發(fā)形成的流量熱點,某些熱點詞條是有些企業(yè)為了推廣自己的產(chǎn)品服務,與平臺進行交易后被安插在其中,這些被買了流量的信息內(nèi)容在微博的算法推薦機制之下,會出現(xiàn)在許多網(wǎng)民的主頁上,但實際上,這些被推薦的內(nèi)容與部分用戶的信息偏好是相離甚遠的,是人為創(chuàng)造的熱度假象,因此用戶是被迫在大數(shù)據(jù)的推薦下接觸了這些內(nèi)容,他們的主觀能動性沒有得到滿足。

        2.2.3 信息壁壘:算法的天然屏障

        信息壁壘是算法內(nèi)部的天然屏障,是指在算法過程中,由于決策者擁有算法信息的知情權與數(shù)據(jù)分析過程的主導權,受眾無法知曉其具體運作過程,只能是推薦結果被動的接受者和執(zhí)行者,因此無法對這些推薦內(nèi)容進行準確判斷和評估。譬如在像“今日頭條”這樣的資訊平臺上,用戶所獲得的信息均由平臺算法推薦,用戶無法知曉其背后的運行過程,也無法自主做出信息選擇進行評價。信息壁壘是算法的天然屏障,也是算法倫理問題的最大原因,它讓人們無法接觸到?jīng)Q策過程中的很多核心信息,除了算法本身,沒有人準確地知道到底什么因素在決策過程中起了決定性作用[5]。同時在實際運用中,信息資源的使用具有“馬太效應”,即信息資源豐富的一方對信息的掌控會越來越大,而信息資源匱乏的一方則會逐漸失去對信息的支配權,因此在算法發(fā)展的過程中,決策者和執(zhí)行者之間的信息壁壘也在日益加深,形成更大的信息差異。

        3 智能算法倫理問題的解決思路

        麥克盧漢曾有過著名論斷“媒介是人的延伸”,指出媒介與人的關系。目前,智能推薦算法作為廣泛使用的媒介技術,面臨著算法倫理危機考驗,因此在行業(yè)未來的發(fā)展中,既要充分堅持技術的工具理性,發(fā)揮其最大效用,也要堅持人的主體價值,樹立倫理目標。

        3.1 基于新聞自律維度:提升從業(yè)者“算法素養(yǎng)”,堅持自律和規(guī)范

        習近平總書記指出:“要堅持正確新聞志向,提高業(yè)務水平,勇于改進創(chuàng)新,不斷自我提高、自我完善,做業(yè)務精湛的新聞工作者?!毙侣勛月墒菍π侣剺I(yè)界以及新聞從業(yè)者的道德要求,指在從事新聞報道相關工作時,新聞來源必須真實可靠,決不能嘩眾取寵,新聞界從業(yè)人員必須嚴格遵守新聞出版的法律法規(guī),嚴于自律,真實客觀地去分析、報道有關的新聞信息。目前算法技術雖已廣泛應用在各大資訊平臺,但深入了解其原理機制,能靈活使用的技術人才仍在少數(shù),大多數(shù)公眾對智能算法的認識也停留在表面。因此,必須大力推廣算法知識教育,提升從業(yè)者的算法素養(yǎng)。同時,堅守自律和規(guī)范依然是新聞工作者必須遵循的職業(yè)道德準則。

        3.2 基于算法與人的價值維度:擺脫思維定式桎梏,全面延伸主體價值

        在資訊平臺中,信息分發(fā)大都依賴智能算法對用戶數(shù)據(jù)的分析,這就導致算法推薦會加劇網(wǎng)絡環(huán)境中的“信息繭房”或“回音室”效應,受眾囿于重復低質(zhì)的信息內(nèi)容,無法突破自身局限,無法全面延伸人的價值。因此在算法應用過程中,用戶自身不應完全放棄自主選擇信息的權利,應開放包容地傾聽全方位的聲音,平臺方也要意識到技術是為人類服務的工具,通過種種提示幫助人們擺脫思維定勢的桎梏。

        例如,美國BuzzFeed雜志推出的“Outside Your Bubble”功能,在一部分流傳范圍非常廣的新聞底部,加上另一些平臺的評論,比如Twitter、Facebook等,幫助受眾了解多維意見和聲音。再如Google推出的“逃離泡沫”插件,該插件可以根據(jù)用戶的閱讀習慣,反向推薦格調(diào)積極、易于接受的內(nèi)容,幫助用戶逃離熟悉的“信息泡沫”,還能夠在感官上給用戶帶來很好的體驗效果[7]。同時,作為信息消費者,除了依靠社交媒體的技術支持,用戶自身也應主動接觸各類新鮮事物,了解真實的客觀世界,努力實現(xiàn)自己的主體價值。

        3.3 基于人機關系維度:堅持人本規(guī)則,加強人機協(xié)作

        隨著人工智能技術的發(fā)展,智能算法技術越來越滲透到人們生活的方方面面,但在人與技術的互動過程中,人機關系的倫理沖突問題也日益顯著,譬如資訊平臺中智能算法推送的大量信息內(nèi)容,可能在某些時候取代人的主觀選擇,成為決策或行動的主導力量,對人的主體地位造成沖擊。因此在處理人機關系時,算法信息分發(fā)平臺應當堅持人機結合的原則,一方面要提高對人本規(guī)則的認識,強調(diào)人的主體性、能動性,認識到人是信息的生產(chǎn)者、傳播者和消費者,算法技術的應用要以滿足人的需求為導向;另一方面,加強人工把關和人機協(xié)作,充分將人力和技術的優(yōu)勢結合起來,為用戶推薦優(yōu)質(zhì)化的信息內(nèi)容,這樣方能促進智能推薦算法在未來發(fā)展中具有正確導向,更好地體現(xiàn)人的主導性和價值觀[8]。

        參考文獻

        [1]MatteoPasquinelli.算法究竟從何而來[EB/OL].彎月,譯.(2019-08-01)[2021-03-15].https://baijiahao. baidu.com/s?id=1640593404395534400&wfr=spider& for=pc.

        [2]王亞妮.算法推薦新聞的倫理風險以及未來發(fā)展[J].新媒體研究,2019,5(1):29-30.

        [3]赫伯特·馬爾庫塞.單向度的人[M].上海:上海譯文出版社,2006.

        [4]雷鳴.資訊分發(fā)平臺的個性化推薦研究[D].武漢:華中科技大學,2018.

        [5]房雯璐.算法推薦模式下媒介倫理失范研究[J].山東工業(yè)技術,2019(7):138.

        [6]張萌.算法推薦的倫理困境:技術邏輯基礎上的社會價值規(guī)范[J].今日科苑,2019(10):43-51.

        [7]靖鳴,管舒婷.智能時代算法型內(nèi)容分發(fā)的問題與對策[J].新聞愛好者,2019(5):9-13.

        [8]胡萬鵬.新聞算法推送的倫理困境及其對策研究[D].長春:長春工業(yè)大學,2019.

        猜你喜歡
        算法推薦智能算法
        基于智能算法的風力助航船舶航線優(yōu)化
        神經(jīng)網(wǎng)絡智能算法在發(fā)電機主絕緣狀態(tài)評估領域的應用
        大電機技術(2022年1期)2022-03-16 06:40:12
        基于超像素的圖像智能算法在礦物顆粒分割中的應用
        基于算法推薦的“Feed流”傳播平臺的轉(zhuǎn)變趨勢
        新聞論壇(2018年5期)2018-12-28 10:48:26
        基于中醫(yī)臨床理論的內(nèi)容智能分發(fā)平臺“信息繭房”系統(tǒng)量化
        從波特圖式分析算法推薦類資訊平臺的倫理選擇
        從工具依賴到本能隱抑:智媒時代的“反向馴化”現(xiàn)象
        新聞愛好者(2018年4期)2018-06-27 10:35:44
        從編輯到算法的讓度
        新媒體研究(2018年2期)2018-03-29 09:05:06
        高校大數(shù)據(jù)平臺的構建與應用探索
        從雞群算法看群體智能算法的發(fā)展趨勢
        国产成人综合久久精品推荐免费| 国产精品毛片完整版视频| 野外性史欧美k8播放| 亚洲av高清在线观看三区| 色婷婷久色国产成人免费| 精品亚洲一区二区三区四区五区| 久久无码专区国产精品s| 国产精品一久久香蕉国产线看观看| 日本一区二区三区在线观看免费| 人妻少妇精品视频一区二区三 | 国产精品网站在线观看免费传媒| 99国产精品99久久久久久| 亚洲24小时在线免费视频网站| 国产亚洲熟妇在线视频| 亚洲av永久无码精品网站在线观看| 国产国产人精品视频69| 熟女丝袜美腿亚洲一区二区三区 | 国产看黄网站又黄又爽又色| 日本一本草久国产欧美日韩| 亚洲女厕偷拍一区二区| 女的扒开尿口让男人桶30分钟| 国产成人精品日本亚洲18| 成年女人18毛片毛片免费| 国产av久久在线观看| 国产操逼视频| 黑人巨大精品欧美在线观看| 三级网站亚洲三级一区| 国产成人精品999视频| 无码人妻丰满熟妇精品区| 蜜桃视频中文字幕一区二区三区 | 国产91极品身材白皙| 亚洲熟女www一区二区三区| 中文无码成人免费视频在线观看| 国产一区二区在线观看视频免费| 性色视频加勒比在线观看| 夜夜未满十八勿进的爽爽影院| 国产亚洲美女精品久久| 杨幂一区二区系列在线| 国产色在线 | 亚洲| 小12箩利洗澡无码视频网站| 久久精品国产亚洲av专区|