亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        智能媒體視域下媒介倫理規(guī)范的再思考

        2022-05-30 10:48:04劉俊麟程悅王超群
        新聞潮 2022年2期
        關(guān)鍵詞:人工智能

        劉俊麟 程悅 王超群

        【摘要】智能媒體對(duì)傳統(tǒng)媒介倫理規(guī)范帶來(lái)不小的影響,傳統(tǒng)媒介規(guī)范已有諸多不適用。要建構(gòu)一個(gè)能夠適應(yīng)智能媒體時(shí)代的新媒介倫理規(guī)范,需要遵循以下基本原則,如算法透明度原則、自主選擇權(quán)原則、媒介技術(shù)分配公平原則、人文關(guān)懷原則等。

        【關(guān)鍵詞】人工智能;算法技術(shù);媒介倫理規(guī)范

        由于人工智能的出現(xiàn),記者和編輯具有了極強(qiáng)的可替代性,媒體行業(yè)正遭遇新一輪技術(shù)革命的沖擊,新時(shí)代背景下,如何進(jìn)行新的規(guī)范建構(gòu)成了近年來(lái)學(xué)者們重點(diǎn)研究的課題。

        一、智能媒體的出現(xiàn)對(duì)傳統(tǒng)媒介倫理規(guī)范的影響

        人工智能的興起,不僅是對(duì)傳統(tǒng)新聞傳播方式的革故鼎新,更是對(duì)傳統(tǒng)媒介倫理規(guī)范發(fā)起了新的挑戰(zhàn)。

        (一)媒介倫理規(guī)范主體發(fā)生變化,傳統(tǒng)媒介規(guī)范有諸多不適用

        媒介倫理是指媒體從業(yè)者的行為可能會(huì)對(duì)他人產(chǎn)生消極影響的情況下應(yīng)該遵循的指導(dǎo)方針或道德準(zhǔn)則[1],并對(duì)新聞的生產(chǎn)傳播等領(lǐng)域進(jìn)行“把關(guān)”。人工智能技術(shù)的廣泛應(yīng)用導(dǎo)致信息的傳播者和受傳者在交流中的地位發(fā)生變化,媒介倫理規(guī)范的主體也隨之從原本專(zhuān)業(yè)的新聞從業(yè)人員向程序工程師和自媒體平臺(tái)等進(jìn)行轉(zhuǎn)變,普通受眾、自媒體行業(yè)從業(yè)者、新媒體平臺(tái)同時(shí)扮演著信息接收者和傳播者兩個(gè)角色。我國(guó)原有的媒介倫理規(guī)范主要是針對(duì)專(zhuān)業(yè)的新聞從業(yè)人員和電視臺(tái)、報(bào)社等傳統(tǒng)媒體平臺(tái),對(duì)于智媒時(shí)代的新聞生產(chǎn)模式已有諸多不適用。

        在新聞生產(chǎn)過(guò)程中,人工智能的使用缺乏具體條例進(jìn)行約束和規(guī)范,加劇了新聞生產(chǎn)領(lǐng)域的行業(yè)亂象和媒介失范。“算法的無(wú)價(jià)值性”一直在混淆人們對(duì)于人工智能制作的新聞的真實(shí)性判斷[2]:人工智能沒(méi)有情感,不可能產(chǎn)生情感偏向,受眾獲取的信息也就不是作者經(jīng)過(guò)有意或無(wú)意情感加工的“裝飾品”。既然算法無(wú)價(jià)值,那么由其導(dǎo)致的虛假新聞等問(wèn)題也就找不到承擔(dān)責(zé)任的主體,媒介監(jiān)管陷入困境。某平臺(tái)創(chuàng)始人在接受采訪時(shí)說(shuō),我們不是媒體,我們只是一家具有媒體屬性的技術(shù)公司。借“技術(shù)中立”,致使一些新媒體亂象頻發(fā),對(duì)種種低俗、煽動(dòng)群體對(duì)立甚至違法內(nèi)容放任不管。聲稱(chēng)自己不是媒體組織,那么原有的媒介倫理規(guī)范也就制約不了。平臺(tái)想成了游離在制度之外的“自由人”,這不是該有的態(tài)度。

        (二)媒介倫理規(guī)范的范圍擴(kuò)展,技術(shù)被納入規(guī)范體系中

        無(wú)論是傳統(tǒng)媒體,還是新媒體,都需要在新聞?wù)鎸?shí)性、客觀性、采訪方式、人文關(guān)懷等方面做出規(guī)范。而隨著人工智能的加入,媒介倫理規(guī)范的范圍也逐漸由對(duì)新聞內(nèi)容和采訪行為的規(guī)范擴(kuò)展到了對(duì)技術(shù)的規(guī)范。

        作為新興生產(chǎn)力,人工智能擁有繁多的數(shù)據(jù)支撐,編寫(xiě)新聞的效率很高,因而在經(jīng)濟(jì)新聞和時(shí)政新聞等方面得到了廣泛應(yīng)用,但“數(shù)據(jù)套模板”[3]的寫(xiě)作方式難免造成新聞結(jié)構(gòu)呈現(xiàn)方式單一。“技術(shù)中立”的觀點(diǎn)一直在“綁架”人們的思想。海德格爾認(rèn)為技術(shù)是“從遮蔽狀態(tài)而來(lái)進(jìn)入無(wú)蔽狀態(tài)中”[4],而現(xiàn)代技術(shù)在“解除遮蔽”的同時(shí),又創(chuàng)造了新的“遮蔽”,這并非一定是程序員有意的數(shù)據(jù)歧視或者偏向,甚至完全可能是他們“對(duì)關(guān)鍵詞的選取和價(jià)值判斷不同”而造成的結(jié)果上的差異,此外,由于技術(shù)本身存在的復(fù)雜性和不確定性,從而產(chǎn)生了“信息遮蔽”[5],對(duì)人們獲取真相造成阻礙,“將新聞生產(chǎn)過(guò)程推到更深的‘黑箱”。在新聞傳播中,許多新媒體平臺(tái)使用標(biāo)簽將各類(lèi)新聞區(qū)分開(kāi)來(lái),以便受眾能按照需求盡快檢索,此時(shí)不同的資訊就會(huì)經(jīng)過(guò)算法記錄呈現(xiàn)給受眾,以滿足受眾的個(gè)性化需求。值得注意的是,“人工智能技術(shù)將媒體對(duì)公眾進(jìn)行議程設(shè)置的權(quán)利轉(zhuǎn)移到了社交關(guān)系的維系和算法生成等方面[6]”,受眾在新媒體平臺(tái)的瀏覽內(nèi)容被算法記錄后,推薦的大多是同質(zhì)化內(nèi)容,不利于全面認(rèn)知周?chē)鐣?huì)環(huán)境,從而導(dǎo)致個(gè)人和社會(huì)接收到的信息出現(xiàn)“斷裂”,造成“信息繭房”和“數(shù)字鴻溝”,甚至可能令受眾思維僵化,不利于公眾媒介素養(yǎng)的提升[7]。

        算法技術(shù)的不透明和理解算法程序的高門(mén)檻使得算法運(yùn)行的過(guò)程依然對(duì)受眾隱私權(quán)的尊重以及內(nèi)容客觀性存有相當(dāng)大的疑問(wèn)空間,不僅是對(duì)傳統(tǒng)“把關(guān)人”模式的顛覆,在一定程度上也可能導(dǎo)致新聞媒體責(zé)任的缺位。

        (三)媒介倫理規(guī)范重點(diǎn)的遷移,更加注重技術(shù)透明性的要求

        傳統(tǒng)的媒介倫理強(qiáng)調(diào)新聞的真實(shí)性,而在算法技術(shù)介入后,由于技術(shù)理性帶來(lái)的遮蔽,對(duì)新聞?wù)鎸?shí)的要求就不能只停留在“準(zhǔn)確”上,更應(yīng)相應(yīng)轉(zhuǎn)為對(duì)技術(shù)透明性的強(qiáng)調(diào),通過(guò)設(shè)計(jì)公開(kāi)透明合理的程序來(lái)制作新聞,從而達(dá)到真實(shí)性的要求。

        網(wǎng)絡(luò)傳播時(shí)代,群體傳播呈現(xiàn)出匿名化的特征,在這個(gè)背景下,“透明化”成為“解蔽”的最好方式,應(yīng)當(dāng)成為新的媒介倫理規(guī)范的基石。倘若媒介平臺(tái)利用算法對(duì)網(wǎng)絡(luò)上的用戶信息不加篩選地獲取和使用,對(duì)用戶隱私的保護(hù)也是個(gè)不小的挑戰(zhàn)。

        人工智能在沒(méi)有得到相應(yīng)的程序控制之前也不懂得如何寫(xiě)稿,過(guò)濾信息、集結(jié)成文、智能分發(fā)稿件等都需要經(jīng)過(guò)大量的深度學(xué)習(xí)才能實(shí)現(xiàn),對(duì)受眾精準(zhǔn)推薦內(nèi)容也是基于媒體準(zhǔn)確抓住受眾興趣的需求。人工智能在新聞寫(xiě)作的整個(gè)過(guò)程都伴隨著人類(lèi)的能動(dòng)意識(shí),其對(duì)新聞事件和網(wǎng)絡(luò)信息的價(jià)值判斷也是通過(guò)人類(lèi)創(chuàng)造的程序來(lái)賦予的,媒體平臺(tái)有責(zé)任把內(nèi)部算法運(yùn)行模式透明化,將信息和數(shù)據(jù)的使用情況公開(kāi),有助于人們穿透“技術(shù)遮蔽”的迷霧,更好地理解智媒時(shí)代的新聞報(bào)道。

        二、智能媒體視域下建構(gòu)新媒介倫理規(guī)范應(yīng)遵循的基本原則

        許多學(xué)者從多角度、多視野對(duì)當(dāng)下的媒介倫理失范現(xiàn)象提出了新的媒介倫理規(guī)范準(zhǔn)則?;趪?guó)外、國(guó)內(nèi)學(xué)界與業(yè)界的積極嘗試與討論,歸納總結(jié)出以下幾條媒介倫理規(guī)范原則。

        (一)下放“話語(yǔ)權(quán)”,提高算法透明度

        許多研究者嘗試提出一系列措施將算法技術(shù)的設(shè)計(jì)、運(yùn)行透明公開(kāi)化。我國(guó)也進(jìn)行了相關(guān)法律的嘗試,將算法自動(dòng)化決策的透明度納入信息保護(hù)的重要一環(huán),如《中華人民共和國(guó)個(gè)人信息保護(hù)法(草案)》《中華人民共和國(guó)個(gè)人信息保護(hù)法(草案二次審議稿)》。陳昌鳳、張夢(mèng)提出,算法技術(shù)要真正做到透明公開(kāi),不僅僅是簡(jiǎn)單地公開(kāi)算法系統(tǒng)運(yùn)行的一系列數(shù)據(jù)信息,需要考慮到受眾的媒介素養(yǎng)、知識(shí)水平等因素,才能最大限度、有效地實(shí)施算法透明度。讓用戶了解到新聞算法技術(shù)使用數(shù)據(jù)的具體方法和過(guò)程,媒介組織需要將數(shù)據(jù)加以文字描述,轉(zhuǎn)化為讓受眾可普遍理解的語(yǔ)義信息[8]?;诖?,媒介倫理可以作如下規(guī)范:一是使用算法系統(tǒng)主體有義務(wù)將相關(guān)信息以及生成過(guò)程向主管部門(mén)以及社會(huì)公眾公開(kāi),保障算法解釋權(quán)。二是將用戶納入實(shí)施算法透明度考量范圍,明確責(zé)任對(duì)象。三是轉(zhuǎn)變統(tǒng)一粗放的管理體制,在法律制度層面將算法審計(jì)規(guī)則細(xì)化。[9]

        (二)自主選擇,避免偏見(jiàn)歧視

        智媒傳播時(shí)代,所生產(chǎn)的新聞表面上看似十分客觀準(zhǔn)確,實(shí)則隱藏著信息偏見(jiàn)和歧視。數(shù)據(jù)質(zhì)量參差不齊以及算法推薦的偏差,加劇了社會(huì)倫理價(jià)值的固化。算法產(chǎn)生的偏見(jiàn)、歧視,是對(duì)受眾獲知信息公平的侵蝕,將直接導(dǎo)致“信息繭房”“群體極化”等現(xiàn)象,放之全球范圍,甚至導(dǎo)致民族主義歧視。對(duì)此,2013年杰夫貝佐斯收購(gòu)《華盛頓郵報(bào)》后將用戶的選擇發(fā)揮到極致,采用“A/B”測(cè)試提升用戶的體驗(yàn)感。谷歌公司提出的人工智能七大原則中的避免偏見(jiàn)原則明確指出應(yīng)特別注意種族、性別、國(guó)籍、宗教等敏感特征。張幟提出在用戶的主體地位不斷凸顯的智媒時(shí)代,要更加注重算法推薦內(nèi)容的多樣性、包容性,避免產(chǎn)生非必要的偏見(jiàn)歧視[10]?;诖?,媒介倫理可以做以下規(guī)范:一是保障受眾對(duì)算法推薦系統(tǒng)的知情權(quán)以及獲取信息的自主選擇權(quán)。二是規(guī)范算法推薦應(yīng)更加多元化和具備包容性,特別是對(duì)文化差異的包容[11]。

        (三)健全法治,明確責(zé)任主體

        算法、技術(shù)只是工具,平臺(tái)的責(zé)任不可推卸,內(nèi)容生產(chǎn)、程序開(kāi)發(fā)、平臺(tái)運(yùn)營(yíng)各個(gè)層面中涉及的主體都應(yīng)該納入媒介規(guī)范范圍內(nèi),需要制定明確細(xì)化的法律法規(guī)進(jìn)行約束[12]。同時(shí)平臺(tái)自律也是關(guān)鍵,應(yīng)具備責(zé)任意識(shí)[13]。日本近期推出的《實(shí)施人工智能原則的治理指南》中提出“敏捷治理”模型,根據(jù)不斷變化的條件與環(huán)境,靈活調(diào)整治理方案?;诖?,媒介倫理可做以下規(guī)范:一是多元共律,法律以及行政部門(mén)的規(guī)章制度作為規(guī)范基本條例,同時(shí)媒介組織內(nèi)部也應(yīng)制定規(guī)則,建立追責(zé)機(jī)制[14]。二是動(dòng)態(tài)治理,將法規(guī)制度變成更靈活的工具。三是提高媒介組織素養(yǎng),增強(qiáng)新聞從業(yè)者職業(yè)道德教育。

        (四)維護(hù)公平,媒介技術(shù)均衡分配

        哈佛大學(xué)法學(xué)院伯克曼互聯(lián)網(wǎng)與社會(huì)研究中心針對(duì)“公平性和非歧視”原則進(jìn)行分析解讀,認(rèn)為每個(gè)人都應(yīng)該適用同樣的規(guī)則、獲得信息數(shù)據(jù)的支持,帶來(lái)社會(huì)福利增值的“公平分配”。我國(guó)國(guó)家新一代人工智能治理專(zhuān)業(yè)委員會(huì)發(fā)布《新一代人工智能倫理規(guī)范》,提到人工智能在各領(lǐng)域的應(yīng)用需要考慮弱勢(shì)群體和特殊群體的需求,為其定制第二種可行方案?;诖?,媒介倫理可做以下規(guī)范:一是確保受眾公平公正地享受人工智能技術(shù)帶來(lái)的便利,同時(shí)提供有效地控制風(fēng)險(xiǎn)保障措施,以防范算法技術(shù)中的“黑箱”操作帶來(lái)的傷害。二是堅(jiān)持“普惠”原則,推動(dòng)欠發(fā)達(dá)地區(qū)人工智能教育培訓(xùn)、技術(shù)應(yīng)用等基礎(chǔ)設(shè)施建設(shè),保障各類(lèi)群體融入人工智能市場(chǎng)的權(quán)利。三是程序開(kāi)發(fā)更具包容性,體現(xiàn)多樣性和特殊性,使得各類(lèi)地區(qū)能夠共享人工智能發(fā)展帶來(lái)的福利。

        (五)回歸倫理底線,加強(qiáng)人文關(guān)懷

        人工智能技術(shù)的運(yùn)用,特別是寫(xiě)稿機(jī)器人的出現(xiàn),人的新聞把關(guān)作用被減弱,使得生產(chǎn)的稿件缺乏價(jià)值判斷、人文關(guān)懷等。因此,對(duì)媒介倫理規(guī)范的重構(gòu),應(yīng)回歸至新聞生產(chǎn)的倫理底線,強(qiáng)調(diào)人文關(guān)懷——對(duì)人的尊重、關(guān)心、愛(ài)護(hù)和體貼,基于此,媒介倫理可做以下規(guī)范:一是智媒的使用、運(yùn)營(yíng)者要注重在人工智能生產(chǎn)出來(lái)的新聞中注入人文方面內(nèi)容,培養(yǎng)算法工程師的人文主義精神。二是傳媒工作者與人工智能形成人機(jī)互動(dòng)的生產(chǎn)模式,將算法搜集的事實(shí)數(shù)據(jù)與記者的價(jià)值選擇結(jié)合,增強(qiáng)人的主體性與能動(dòng)性[15]。

        三、結(jié)語(yǔ)

        科技發(fā)展日新月異,人工智能技術(shù)已經(jīng)深刻地融入社會(huì)各個(gè)領(lǐng)域,人們面對(duì)的已不再是是否要接受人工智能的問(wèn)題,而是應(yīng)該如何應(yīng)對(duì)人工智能帶來(lái)的新問(wèn)題、新挑戰(zhàn)。全球各國(guó)、各地區(qū)的新聞實(shí)踐都面臨著重構(gòu)媒介倫理規(guī)范的緊迫性,人工智能帶來(lái)的新聞傳播領(lǐng)域的巨大變化,沖擊著傳統(tǒng)媒介倫理規(guī)范,對(duì)構(gòu)建基于智媒背景下的媒介倫理規(guī)范重構(gòu)提出了更高的要求。人們應(yīng)時(shí)刻關(guān)注全球范圍內(nèi)人工智能技術(shù)在新聞?lì)I(lǐng)域的創(chuàng)新應(yīng)用,對(duì)其引起的媒介失范進(jìn)行針對(duì)性治理,提出相應(yīng)的發(fā)展策略,使人工智能發(fā)展始終與人類(lèi)的倫理規(guī)范保持一致。

        參考文獻(xiàn)

        [1]約瑟夫·斯特勞巴哈,羅伯特·拉羅斯.今日媒介:信息時(shí)代的傳播媒介[M].熊澄宇,等,譯.北京:清華大學(xué)出版社,2002.

        [2]劉文杰.算法推薦新聞的法律透視[J].新聞?dòng)浾撸?019(2):22-29.

        [3]胡慧敏.智媒時(shí)代算法推送新聞對(duì)媒介倫理的沖擊[J].東南傳播,2019(7): 159-161.

        [4]海德格爾,《海德格爾選集(下卷)》[M].上海:三聯(lián)書(shū)店出版社,1996年.

        [5]李凌.智能時(shí)代媒介倫理原則的嬗變與不變[J].新聞與寫(xiě)作,2019(4):5-11.

        [6]馬寧宇.人工智能技術(shù)范式下的媒體創(chuàng)新優(yōu)化與倫理失范[J].新聞知識(shí),2018(9):82-85.

        [7]白燦明.人工智能背景下新聞倫理失范現(xiàn)象研究[J].記者搖籃,2020(5):129-130.

        [8]陳昌鳳,張夢(mèng).智能時(shí)代的媒介倫理:算法透明度的可行性及其路徑分析[J].新聞與寫(xiě)作,2020(8):75-83.

        [9]宋華健.反思與重塑:個(gè)人信息算法自動(dòng)化決策的規(guī)制邏輯[J].西北民族大學(xué)學(xué)報(bào):哲學(xué)社會(huì)科學(xué)版,2021(6):99-106.

        [10]張幟.智媒時(shí)代對(duì)新聞生產(chǎn)中算法新聞倫理的思考[J].海南大學(xué)學(xué)報(bào)(人文社會(huì)科學(xué)版),2019,37(2):70-78.

        [11]張夢(mèng),陳昌鳳.智媒研究綜述:人工智能在新聞業(yè)中的應(yīng)用及其倫理反思[J].全球傳媒學(xué)刊,2021,8(1):63-92.

        [12]文遠(yuǎn)竹.智能傳播的倫理問(wèn)題:失范現(xiàn)象、倫理主體及其規(guī)制[J].中國(guó)編輯,2021(9):64-70.

        [13]寧麗麗.新媒體時(shí)代的媒介倫理倡導(dǎo)與道德干預(yù):對(duì)克利福德·G.克里斯琴斯的訪談[J].國(guó)際新聞界,2017,39(10): 45-54.

        [14]盧家銀.數(shù)字化生存中的倫理失范、責(zé)任與應(yīng)對(duì)[J].新聞與寫(xiě)作,2020(12): 28-34.

        [15]潘紅霞.智媒時(shí)代智能信息推薦算法的缺陷及正向重構(gòu)[J].未來(lái)傳播,2020,27(5):36-41.

        (編輯:沈桂才)

        猜你喜歡
        人工智能
        我校新增“人工智能”本科專(zhuān)業(yè)
        用“小AI”解決人工智能的“大”煩惱
        當(dāng)人工智能遇見(jiàn)再制造
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        AI人工智能解疑答問(wèn)
        人工智能與就業(yè)
        基于人工智能的電力系統(tǒng)自動(dòng)化控制
        人工智能,來(lái)了
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        人工智能來(lái)了
        亚洲精品视频中文字幕| 91久久国产情侣真实对白| 青青草视全福视频在线| 激情文学婷婷六月开心久久| 日本一本一道久久香蕉男人的天堂 | 国产精品自产拍在线观看免费| 色婷婷狠狠97成为人免费| 久久午夜一区二区三区| 国产欧美日韩一区二区加勒比| 97夜夜澡人人爽人人喊中国片| 成人无码视频在线观看网站| 精品亚洲人伦一区二区三区| 夜夜高潮夜夜爽免费观看| 色狠狠色噜噜av天堂一区| 日韩无码无播放器视频| 偷拍女厕尿尿在线免费看| 一本色道久久88—综合亚洲精品 | 国产精品亚洲三级一区二区三区| 久久久久久国产精品免费免费 | 亚洲人午夜射精精品日韩| 亚洲国产午夜精品乱码| 国产午夜福利av在线麻豆| 亚洲gay片在线gv网站| 99精品国产综合久久久久五月天 | 亚洲欧美国产日产综合不卡| 在线小黄片视频免费播放 | 国产美女做爰免费视频| 国产女精品视频网站免费| 亚洲中文字幕无线乱码va | 国产在线一区二区视频免费观看| 国产高清精品一区二区| 一本一本久久aa综合精品| 国产成人77亚洲精品www| 精品蜜臀国产av一区二区| 国产精品无码一区二区三级| 日韩精品无码一区二区中文字幕 | 亚洲av无码成人yellow| 在线视频一区二区三区中文字幕| 一区二区三区精品少妇| 亚洲18色成人网站www| 校花高潮一区日韩|