亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        新聞傳媒面臨的AIGC倫理困境和治理策略

        2024-12-23 00:00:00王強(qiáng)春
        科技智囊 2024年12期

        摘" "要:[研究目的]人工智能對新聞傳媒的影響極其深遠(yuǎn),AIGC推動人機(jī)協(xié)同生產(chǎn),重塑新聞采編發(fā)流程,激活媒介新質(zhì)生產(chǎn)力。但AIGC在提高新聞資訊生產(chǎn)力的同時,還無法完全替代人類進(jìn)行新聞生產(chǎn)。通過有效的人工智能治理,可以營造一個安全、公正、透明和人性化的智能社會環(huán)境,以確保在技術(shù)發(fā)展的同時,維護(hù)社會倫理和公眾利益。[研究方法]采用理論推演與案例分析相結(jié)合的研究方法。首先,運(yùn)用理論推演方法,通過對現(xiàn)有文獻(xiàn)進(jìn)行梳理與分析,構(gòu)建人工智能在新聞傳媒領(lǐng)域應(yīng)用的理論框架,并從宏觀層面探討AIGC如何在新聞生產(chǎn)中與人類進(jìn)行協(xié)同。其次,采用案例分析方法,選擇具有代表性的新聞機(jī)構(gòu)作為研究對象,深入分析其如何應(yīng)用AIGC技術(shù)提升新聞生產(chǎn)力,同時揭示其可能帶來的倫理挑戰(zhàn)。[研究結(jié)論]應(yīng)該讓人工智能遵循人性化、安全性、公平性和透明性等倫理原則,制定倫理約束框架,加強(qiáng)AI服務(wù)商和媒體機(jī)構(gòu)的倫理道德建設(shè),筑牢“數(shù)字護(hù)欄”,防止人工智能可能帶來的危害,營造一個風(fēng)清氣正、和諧健康的智能社會。

        關(guān)鍵詞:新聞媒體;AIGC;倫理困境;數(shù)字護(hù)欄;價值對齊;新質(zhì)生產(chǎn)力

        中圖分類號:G203 文獻(xiàn)標(biāo)識碼:A DOI:10.19881/j.cnki.1006-3676.2024.12.08

        人工智能深刻地影響著國計(jì)民生的各個領(lǐng)域。國務(wù)院2017年發(fā)布的《新一代人工智能發(fā)展規(guī)劃》提出,“加快人工智能與經(jīng)濟(jì)、社會、國防深度融合為主線,以提升新一代人工智能科技創(chuàng)新能力為主攻方向,發(fā)展智能經(jīng)濟(jì),建設(shè)智能社會,維護(hù)國家安全,構(gòu)筑知識群、技術(shù)群、產(chǎn)業(yè)群互動融合和人才、制度、文化相互支撐的生態(tài)系統(tǒng),前瞻應(yīng)對風(fēng)險挑戰(zhàn),推動以人類可持續(xù)發(fā)展為中心的智能化,全面提升社會生產(chǎn)力、綜合國力和國家競爭力”[1]。

        AIGC(生成式人工智能)正在對新聞生產(chǎn)力和媒介生態(tài)進(jìn)行顛覆性重構(gòu),激活新聞傳媒新質(zhì)生產(chǎn)力。然而,雖然人工智能大語言模型(LLMs)在快速擴(kuò)展,但是訓(xùn)練內(nèi)容的深度和廣度尚不足以完全覆蓋人類歷史上所有文化典籍,更無法覆蓋隨時更新的各項(xiàng)信息。AIGC的數(shù)據(jù)不盡安全,算法不盡科學(xué),可能產(chǎn)生“數(shù)字幻覺”,也可能被不法分子用來“深度造假”,而許多受眾還缺乏辯證地看待人工智能的素養(yǎng),這將導(dǎo)致人類將面臨巨大數(shù)字倫理困境,因此需要設(shè)立數(shù)字護(hù)欄(guardrails),力求做到價值對齊,從法律法規(guī)、技術(shù)管理和數(shù)字倫理等幾方面應(yīng)對人工智能帶來的各種挑戰(zhàn)。

        一、AIGC對新聞生產(chǎn)力和媒介生態(tài)的顛覆性重構(gòu)

        AIGC技術(shù)將對新聞生產(chǎn)力和媒介生態(tài)進(jìn)行顛覆性重構(gòu),在采、寫、編、發(fā)各個環(huán)節(jié)產(chǎn)生重要影響。除了安全、可靠、有彈性、可解釋和透明之外,還必須保護(hù)隱私,避免偏見。這就需要管理者熟悉人工智能的基本運(yùn)行機(jī)制并了解利益攸關(guān)方的利益分配情況,以便對人工智能的倫理、法律和社會影響進(jìn)行研究,遵循安全、公正、透明、人性化的原則進(jìn)行有效治理,以便及時預(yù)測和避免人工智能可能帶來的各種危害。

        AIGC與媒體融合,推動人機(jī)協(xié)同生產(chǎn),重塑采寫編發(fā)流程,重構(gòu)媒介生態(tài)。在采訪環(huán)節(jié),AIGC可以實(shí)現(xiàn)前期資料分析,采訪錄音語音轉(zhuǎn)寫,減輕采訪負(fù)擔(dān);在編輯環(huán)節(jié),實(shí)現(xiàn)智能新聞寫作、智能視頻剪輯,提升新聞時效性;在新聞發(fā)布環(huán)節(jié),實(shí)現(xiàn)個性化推送,或者采用數(shù)字人主播,提高新聞閱讀率,實(shí)現(xiàn)新聞價值(見圖1)。

        AIGC的快速迭代發(fā)展正在重塑媒介生態(tài)。大語言模型可用于幫助自動分析大量文本數(shù)據(jù)。AIGC將改變媒介生態(tài),新聞采寫編評都將不可避免地受到影響。在新聞的“采”和“編”兩個環(huán)節(jié)之中,“采”主要是對“5W”進(jìn)行詳細(xì)調(diào)查,這部分工作由記者去完成。人工智能技術(shù)可以幫助記者在海量信息中篩選新聞線索,識別相關(guān)材料之間的內(nèi)在聯(lián)系,然后根據(jù)采訪資料快速生成新聞。

        新華智云“媒體大腦”(MAGIC)可以在極短時間內(nèi)生成短視頻,最快僅耗時6秒,日均產(chǎn)量可以達(dá)到10 000條,在2018年世界杯期間生產(chǎn)的視頻總播放量突破1億次。但是算法對信息的語義理解是有限的,無法結(jié)合社會語境進(jìn)行深層次分析,很容易造成新聞偏見。記者可以借助人工智能完成新聞采訪,但是自己仍然必須親臨第一現(xiàn)場。記者永遠(yuǎn)是新聞采訪的主體,這是人工智能不可替代的。AIGC不僅不會淘汰業(yè)務(wù)能力強(qiáng)的專業(yè)人員,而且還會豐富其技能,提高內(nèi)容生產(chǎn)效率[2]。

        由于新聞信息每時每刻都在產(chǎn)生,新聞背景也是千差萬別,面對瞬息萬變的新聞信息,AIGC的速度與質(zhì)量不能完全適配,因而AIGC更適合完成一些常規(guī)新聞,如天氣預(yù)報、賽事報道和股市行情等。人工智能訓(xùn)練數(shù)據(jù)集合和使用模型的數(shù)據(jù)集合差距較大,會有很多小概率的事件覆蓋不到,產(chǎn)生“黑天鵝效應(yīng)”,不能完成復(fù)雜的思辨性分析工作。在現(xiàn)場新聞采訪、深度調(diào)查方面,人工智能始終不能代替人類工作,因此媒體可以采取錯位競爭策略,比如人民網(wǎng)決定全力聚焦打造觀點(diǎn)評論、深度調(diào)查、權(quán)威解讀、政策建議等四個方面的內(nèi)容原創(chuàng)精品,形成AIGC能以企及的新聞生產(chǎn)水平。

        隨著產(chǎn)業(yè)界虛擬現(xiàn)實(shí)、數(shù)字孿生、融合共生等場景不斷豐富,AIGC迅速擴(kuò)展到數(shù)字建模、虛擬人、場景合成、藝術(shù)創(chuàng)作等更多領(lǐng)域,預(yù)計(jì)到2025年,AIGC提供的網(wǎng)絡(luò)內(nèi)容占比將達(dá)到30%。新聞傳媒單位將掌握大量一手信息資源,借助AIGC快速從海量信息中耙梳、整理和生成需要的文字、圖片或者視頻初稿。

        傳統(tǒng)的新聞報道流程為“發(fā)現(xiàn)線索—取得聯(lián)系—現(xiàn)場采訪—稿件撰寫—稿件審核—新聞發(fā)布”。引入AIGC技術(shù)后,新聞傳媒生產(chǎn)流程得到優(yōu)化,生產(chǎn)效率大幅提升,創(chuàng)造出形式更加豐富的新聞產(chǎn)品,給受眾更加豐富有趣的體驗(yàn)。

        AIGC推動人機(jī)協(xié)同,提升了新聞傳媒采、寫、編、發(fā)的效率。AIGC算法可以快速分析來自各方的大量數(shù)據(jù),在較短時間內(nèi)生成新聞內(nèi)容,這樣有助于記者節(jié)省出時間開展調(diào)查報道和分析,保障突發(fā)新聞的持續(xù)傳播。但是,傳媒人要注意,要做人工智能的駕馭者,不能墮落為AIGC的“奴仆”。AIGC可以減輕記者的工作負(fù)擔(dān)、提升工作效率,但是完全依賴AIGC協(xié)助撰稿容易產(chǎn)生“數(shù)字幻覺”,將謬誤帶進(jìn)新聞報道之中,破壞新聞報道的真實(shí)性和客觀性。如果數(shù)據(jù)集有缺陷或數(shù)據(jù)集合不足、不具備代表性,就會導(dǎo)致偏見和歧視永久化或放大。因此,AIGC輔助生產(chǎn)的新聞產(chǎn)品必須經(jīng)過記者、編輯和編審審核把關(guān),從而確保新聞的真實(shí)性和準(zhǔn)確性。

        二、AIGC可能面臨的五大倫理困境

        AIGC的應(yīng)用可能帶來許多問題,如果人工智能掌握在科技寡頭手中,物理世界和虛擬世界的安全可能受到巨大威脅。與當(dāng)前工業(yè)時代“彎道超車”的游戲規(guī)則不同,人工智能可能出現(xiàn)“馬太效應(yīng)”,即強(qiáng)者愈強(qiáng)、弱者愈弱。受到商業(yè)利益驅(qū)動,AIGC可能生成或傳播虛假信息,誤導(dǎo)公眾或損害他人利益,操縱社會輿論,擾亂社會正常運(yùn)轉(zhuǎn)秩序,危害國家信息安全?!皺C(jī)心存于胸中,則純白不備;純白不備,則神生不定;神生不定者,道之所不載也。”[3]如果智媒體忘卻“初心”而“機(jī)心”太重,將面臨四大倫理困境(見圖2)。

        (一)無視新聞職業(yè)準(zhǔn)則,深度造假欺騙受眾

        AIGC技術(shù)賦能新聞傳媒,使得生成文字、聲音、圖片和視頻變得更為便捷和高效。通過自然語言處理和生成技術(shù),智媒體可以輕松生成具有逼真語法和邏輯的虛假新聞。這些文章可能涉及政治、社會或科技等多個領(lǐng)域,欺騙讀者并引發(fā)虛假的公共輿論。通過算法優(yōu)化,虛假信息更容易傳播,從而誤導(dǎo)公眾,影響社會穩(wěn)定。

        AIGC的出現(xiàn),催生虛假新聞的產(chǎn)生與傳播。各類資訊推薦平臺往往傾向于推薦情感化、聳人聽聞的內(nèi)容,因這些內(nèi)容更容易引起用戶的興趣和情感共鳴?!坝葾I生成的假新聞已經(jīng)在網(wǎng)上泛濫,荒謬的假新聞圖片頻頻霸占讀者的眼球。面對類似虛假信息洪流的沖擊,專業(yè)記者生產(chǎn)的基于事實(shí)的新聞將成為守護(hù)新聞職業(yè)操守的‘最后堡壘’?!盵4]

        基于海量數(shù)據(jù)和強(qiáng)大的算力,AIGC深度造假(deep fake)變得更加容易。Web2.0時代即有粗制濫造的“灌水”文,到了Web3.0時代,不良網(wǎng)站用AIGC來炮制大量真假難辨的偽原創(chuàng)文章,其中許多內(nèi)容是未經(jīng)證實(shí)的信息或故意捏造的信息。AIGC可以生成虛假視頻,包括虛構(gòu)事件、演講或訪談,進(jìn)一步模糊真實(shí)與虛構(gòu)的界限。我們必須高度重視AIGC可能帶來的數(shù)字倫理道德問題,加強(qiáng)法律監(jiān)管和倫理道德教育,確保新聞傳媒安全、可靠、可控地發(fā)展。

        (二)違規(guī)收集用戶信息,侵犯個人隱私權(quán)利

        AIGC通過算法分析用戶畫像,如瀏覽歷史、點(diǎn)擊行為和閱讀喜好等,向讀者推送個性化信息。

        媒體利用人工智能技術(shù)預(yù)測和影響用戶的行為,可能違反法律規(guī)定侵犯用戶隱私,包括未經(jīng)允許獲取用戶信息、泄露用戶隱私和濫用個人數(shù)據(jù),形成精準(zhǔn)的用戶畫像,將有爭議或欺詐性的內(nèi)容推送給用戶增加達(dá)到率和轉(zhuǎn)化率,置新聞的真實(shí)性和客觀性于不顧。“由于大數(shù)據(jù)具有多維度和全面的特點(diǎn),它可以從很多看似支離破碎的信息中完全復(fù)原一個人或者一個組織的全貌,并且了解這個人生活的細(xì)節(jié)或者組織內(nèi)部的各種信息?!盵5]劍橋分析公司(Cambridge Analytica)收集臉書(Facebook)個人資料的丑聞表明,數(shù)據(jù)可以被用作強(qiáng)大的操縱工具,而人工智能只會讓這種工具變得更加高效。

        (三)智能算法透明度不足,存在“黑盒”歧視問題

        受到利益的驅(qū)動,智媒體過度討好讀者的信息推送讓受眾接觸到的信息越來越局限在某些特定的話題或領(lǐng)域,與之相異的聲音卻“笑漸不聞聲漸悄”。人工智能通過收集、分析海量數(shù)據(jù)形成用戶畫像,這讓把握用戶喜好變得十分容易,微博、知乎、百度、抖音、今日頭條等社交平臺積累了大量用戶信息?!爱?dāng)算法根據(jù)個人的價值取向來定制信息流時,話語往往具有了同質(zhì)性,容易形成繭房效應(yīng),增強(qiáng)了個人自我價值觀的認(rèn)同,縮小和降低了人們愿意接受外部多元價值觀點(diǎn)的范圍和程度,進(jìn)而淡化人際信任水平?!盵6]“信息繭房”造成社群隔閡,使得溝通和理解變得愈加困難。

        在人工智能時代,媒體可能在復(fù)雜的運(yùn)算中“坑害”用戶。與傳統(tǒng)遵循規(guī)則的計(jì)算相比,人工智能的腦神經(jīng)算法十分復(fù)雜,通過深度學(xué)習(xí)自主編程完成數(shù)據(jù)學(xué)習(xí)與結(jié)果輸出,因此就連程序員也不知道具體的運(yùn)算過程,從而形成了“黑盒”。但是,這并不是AIGC為就業(yè)歧視、保險歧視或商業(yè)欺詐等問題推脫責(zé)任的借口。提高透明度可以幫助人們了解人工智能系統(tǒng)是如何按照具體環(huán)境和敏感度設(shè)定算法的。如果缺乏透明度,平臺的公平、公正和客觀性將難以評估。因此,借助AIGC生成的新聞資訊一定要加強(qiáng)人工把關(guān)。

        (四)中西語料庫不平衡,數(shù)字鴻溝繼續(xù)擴(kuò)大

        為了訓(xùn)練語言模型,需要大量的文本數(shù)據(jù),這些文本數(shù)據(jù)來自不同信息源,如書籍、文章、網(wǎng)站等。AIGC將多樣的文本集合為通用文本,這樣做是為了防止產(chǎn)生知識產(chǎn)權(quán)糾紛,但這樣也失去了原著的特色。這些數(shù)據(jù)往往抹去了相關(guān)信息的出處和著作權(quán)人信息。“如果我們失去對原始科學(xué)文獻(xiàn)的信任,我們就失去了人類共同知識庫的基礎(chǔ)?!盵7]

        在全球范圍內(nèi),數(shù)字化語料庫中的東西方數(shù)據(jù)訓(xùn)練嚴(yán)重失衡,英語作為主要的學(xué)術(shù)語言,相比眾多小語種具有明顯優(yōu)勢。由于語言文化障礙,ChatGPT對中華典籍的訓(xùn)練尚處于初級階段,當(dāng)用戶問及中國歷史文化典籍問題時得到的答復(fù)往往張冠李戴,令人啼笑皆非。AIGC無法回答訓(xùn)練數(shù)據(jù)集之外的問題,如果媒體人要為某則新聞?wù){(diào)取背景知識,得到的答案需要慎重采用。

        然而,基于AIGC的智媒體促進(jìn)社會文明互鑒已是大勢所趨。對于發(fā)達(dá)國家或地區(qū),人工智能將為社會營造更加便利友好的媒介環(huán)境,然而對于廣大發(fā)展中國家來說,由于網(wǎng)絡(luò)不暢甚至不通,當(dāng)?shù)鼐用衿骄幕潭炔桓?,本地文化遺產(chǎn)數(shù)字化舉步維艱,人工智能客觀上會加速其進(jìn)一步邊緣化。在這個背景下,新聞傳媒如何促進(jìn)科技文化傳播,縮減數(shù)字鴻溝,成為必須解決的問題。

        (五)從模仿到幻覺,不可靠的知識與認(rèn)知建構(gòu)

        知識邊界無限,人類對知識的掌握卻是有限的,網(wǎng)絡(luò)數(shù)據(jù)也只是從人類認(rèn)知中采集的一小部分,AIGC僅僅憑借有限的數(shù)據(jù)就生成答案,其自身的合法性和可靠性需要進(jìn)一步檢驗(yàn)。《理想國》認(rèn)為,世界上有三種床,一種是自然的床(本質(zhì)的床),第二種是木匠造的床,第三種是畫家畫的床,畫家畫的床和真理隔著兩層?!澳7滦g(shù)和真實(shí)距離是很遠(yuǎn)的。而這似乎也正是它之所以在只把握了事物的一小部分(而且還是表象的一小部分)時就能制造任何事物的原因?!盵8]

        從本質(zhì)上來看,AIGC只是對現(xiàn)實(shí)世界模仿的模仿,也就是建立在擬態(tài)環(huán)境(pseudo-environment)[9]之上的擬態(tài)環(huán)境,制造的僅僅是幻覺而已。在AIGC興起之前,“一個人逐漸形成自己世界觀的過程,可以被表述為對真實(shí)的社會的建構(gòu)”[10],這里的“真實(shí)”特指原始事實(shí),即人們建構(gòu)社會認(rèn)知的可靠的新聞資訊來源。在AIGC時代,受眾的世界觀形成可能源于AIGC制造的新聞資訊環(huán)境的再次建構(gòu)。

        AIGC超強(qiáng)的模仿創(chuàng)作能力使虛假信息表面看起來更“真實(shí)”,因而更具欺騙性,而且在多模態(tài)情境下可以采用文本、語音、視頻等形式,用“半真半假”的內(nèi)容欺騙用戶[11]。智媒體可以通過圖像、視頻生成算法制造逼真的虛構(gòu)事件、地點(diǎn)或人物,通過圖像或視頻傳達(dá)的虛假信息更容易在社交媒體和新聞平臺上傳播。如果AIGC被用來制造和傳播虛假信息、操縱公眾輿論,那么人工智能可能會侵蝕輿論環(huán)境。AIGC在新聞傳媒中的運(yùn)用應(yīng)當(dāng)受到嚴(yán)格管制,否則,未來的人類可能生活在一個由AIGC制造的幻覺世界之中。

        三、AIGC倫理困境的治理策略

        AIGC會拉大財(cái)富和知識差距嗎?AIGC會夸大偏見和加重歧視嗎?AIGC生成的建議是否可靠?AIGC聲明自己沒有情感,那么充斥著人工智能生成內(nèi)容的社會還有同情心嗎?需要注意的是,人工智能的設(shè)計(jì)者是人,服務(wù)對象也是人,“技術(shù)心靈化、操作上手化,使用簡便化、后果無害化是技術(shù)變革的最高境界”[12]。以德導(dǎo)智是人類共同遵守的準(zhǔn)則,為了保證人工智能始終向善,造福人類,需要加強(qiáng)人工智能領(lǐng)域監(jiān)管,防范人工智能作惡,威脅人類社會正常運(yùn)行。歐盟高級專家組提出了人工智能應(yīng)當(dāng)遵循的四項(xiàng)倫理原則:人性化,安全性,公平性,透明性[13]。

        一是人性化:尊重人的自主權(quán)。人工智能系統(tǒng)應(yīng)該補(bǔ)充和增強(qiáng)人類的能力;應(yīng)該允許人們犯錯誤,甚至容忍作出錯誤決定。

        二是安全性:人工智能系統(tǒng)的使用應(yīng)該是安全的。防止人工智能對人類身體和精神造成傷害,包括抵御攻擊和安全性;一般安全性;準(zhǔn)確性可靠性;后備計(jì)劃和可重復(fù)性。

        三是公平性:人工智能系統(tǒng)應(yīng)當(dāng)是公平的,諸如避免歧視和偏見;具備可訪問性和通用設(shè)計(jì);利益相關(guān)者能夠參與協(xié)商和監(jiān)督等。

        四是透明性:人工智能應(yīng)該具備可解釋性,具備透明度、可解釋性和可追溯性,讓人理解系統(tǒng)做什么以及為誰的利益服務(wù)。

        為此,各方需要做出努力。

        (一)行政部門制訂AI倫理約束框架

        政府應(yīng)該改進(jìn)傳統(tǒng)監(jiān)管技術(shù),促進(jìn)人工智能發(fā)展。“人工智能技術(shù)嵌入政府監(jiān)管領(lǐng)域的治理圖景,對于提高政府監(jiān)管效能和精準(zhǔn)性、提升政府決策效率和科學(xué)性、推進(jìn)國家治理現(xiàn)代化具有重要意義?!盵14]政府應(yīng)制定統(tǒng)一的倫理框架,確保AI技術(shù)的開發(fā)與應(yīng)用遵循基本倫理原則,如公平性、透明度、隱私保護(hù)等,同時健全責(zé)任追究機(jī)制,明確人工智能在不同應(yīng)用場景下的法律和道德責(zé)任,以此防范AI技術(shù)可能帶來的社會風(fēng)險,避免其在缺乏監(jiān)督的情況下被過度商業(yè)化,從而破壞公眾信任和侵犯個人隱私等基本權(quán)利。

        可見,在新聞傳媒中加強(qiáng)對大數(shù)據(jù)、云計(jì)算和人工智能等新技術(shù)的規(guī)范引導(dǎo),對大型語言模型進(jìn)行合法合規(guī)的數(shù)字倫理治理很重要。為此,要嚴(yán)格評估AIGC技術(shù)對新聞傳媒的潛在影響,確保新聞傳媒的內(nèi)容生產(chǎn)遵循實(shí)事求是的原則,避免脫離實(shí)際、脫離群眾、脫離基層;保證政策制定者、技術(shù)專家和公眾之間暢達(dá)溝通,對媒體的算法推薦進(jìn)行監(jiān)督,嚴(yán)禁在新聞傳媒中行業(yè)中運(yùn)用AIGC技術(shù)捏造數(shù)據(jù)和新聞,保證新聞傳媒的媒體公信力和媒體影響力。

        (二)加強(qiáng)AI服務(wù)商倫理道德監(jiān)管

        讓人們了解大型語言模型的工作原理及局限性非常重要,這有助于避免人們對這些系統(tǒng)抱有不切實(shí)際的期望或信任,避免對AIGC的誤解或誤用。AIGC應(yīng)該提高算法的透明度,讓用戶了解推薦背后的原理,理解有針對性地推送某些信息的原因,減輕“信息繭房”帶來的危害。加強(qiáng)內(nèi)部質(zhì)量控制,避免過度迎合用戶,還應(yīng)該引導(dǎo)其接觸不同觀點(diǎn)和多元化的信息。同時,開發(fā)技術(shù)工具,檢測和識別由人工智能生成的虛假信息;采用數(shù)字水印和其他技術(shù)手段,讓媒體內(nèi)容能夠溯源,提高信息可信度??梢詫W(xué)習(xí)國外的相關(guān)做法,比如,OpenAI開發(fā)出有害語言檢測功能,對不當(dāng)文本和圖像進(jìn)行分類和過濾,最大限度地減少訓(xùn)練數(shù)據(jù)中的有害內(nèi)容。

        加強(qiáng)對大型人工智能公司的監(jiān)管。與傳統(tǒng)跨國公司相比,大型人工智能公司接觸消費(fèi)者的生活并收集其位置、活動和習(xí)慣的數(shù)據(jù),以更全面和更具侵入性的方式影響當(dāng)?shù)厣鐓^(qū)。科技導(dǎo)向的數(shù)字傳媒公司利用其強(qiáng)大的經(jīng)濟(jì)和技術(shù)優(yōu)勢,加速新聞資訊(包括AIGC偽原創(chuàng)內(nèi)容)傳播并塑造社區(qū)亞文化生態(tài)系統(tǒng),甚至可能影響國民經(jīng)濟(jì)、國內(nèi)政策和地方治理?!八惴ㄍ扑]服務(wù)提供者應(yīng)當(dāng)堅(jiān)持主流價值導(dǎo)向,優(yōu)化算法推薦服務(wù)機(jī)制,積極傳播正能量,促進(jìn)算法應(yīng)用向上向善。算法推薦服務(wù)提供者不得利用算法推薦服務(wù)從事危害國家安全和社會公共利益、擾亂經(jīng)濟(jì)秩序和社會秩序、侵犯他人合法權(quán)益等法律、行政法規(guī)禁止的活動?!盵15]

        (三)加強(qiáng)媒體機(jī)構(gòu)倫理道德監(jiān)管

        在人工智能的設(shè)計(jì)、開發(fā)和使用過程中,識別和降低道德風(fēng)險非常重要。人工智能應(yīng)用程序設(shè)計(jì)完成后,通常會出售給企業(yè)、公司或傳媒機(jī)構(gòu)等使用,而買方常常無法了解其工作原理或可能帶來的人工智能倫理風(fēng)險。在人工智能時代,社交媒體和其他自媒體的新聞來源需要多方人工核實(shí)才能作為基本素材。記者親臨現(xiàn)場采訪獲取第一手資料則更加有必要。AIGC只是提高了記者新聞采寫效率,使記者能夠從冗雜、機(jī)械的工作任務(wù)中解脫出來,專注于需要人類聰明才智和專業(yè)知識的更高級別的深度報道之中。

        人工智能算法可能會加劇現(xiàn)有的偏見,優(yōu)先考慮聳人聽聞、極端和誤導(dǎo)性的內(nèi)容,并影響用戶接受其他觀點(diǎn)。智媒體有能力操縱個人和政治觀點(diǎn),從而影響人們的認(rèn)知。社交媒體平臺需要強(qiáng)化自身責(zé)任感,加強(qiáng)對用戶生成內(nèi)容的監(jiān)管,遏制虛假信息在這些平臺上傳播的可能性。國外有人用300余萬個帖子來訓(xùn)練灌水機(jī)器人,結(jié)果機(jī)器人有樣學(xué)樣,自動生成和發(fā)布大量有害言論,這引起人工智能數(shù)字倫理研究學(xué)界關(guān)注。為了防范AIGC“灌水”,智媒體平臺應(yīng)采取嚴(yán)格的內(nèi)容審核和事實(shí)核查機(jī)制,采用技術(shù)手段和人工審核相結(jié)合的方式來防范虛假信息,確保發(fā)布的信息真實(shí)可信。

        (四)筑牢“數(shù)字護(hù)欄”,防止數(shù)據(jù)污染

        現(xiàn)代人工智能系統(tǒng)的算法需要大量數(shù)據(jù)進(jìn)行訓(xùn)練,而大部分?jǐn)?shù)據(jù)來自開放網(wǎng)絡(luò),這使得人工智能的訓(xùn)練數(shù)據(jù)庫很容易受到污染。通過修改或添加有害信息到AIGC訓(xùn)練數(shù)據(jù)集,這些受到污染的數(shù)據(jù)會成為潛在威脅,影響人工智能生成內(nèi)容的可信性。進(jìn)行訓(xùn)練的數(shù)據(jù)集中,哪怕只有一個數(shù)據(jù)源是惡意的,整個模型就會變得不可信。因而從法律法規(guī)、技術(shù)控制和數(shù)字倫理等三個方面筑牢“數(shù)字護(hù)欄”,防止AIGC數(shù)據(jù)庫污染非常有必要。這好比為高速公路加上護(hù)欄進(jìn)行引導(dǎo)和保護(hù),以保證人、車安全。除文本外,圖片、音頻或視頻數(shù)據(jù)都可能受到污染。因此,新聞事實(shí)需要人工智能+人工雙重把關(guān)才能確定是否進(jìn)入下一個程序。

        Tramer博士與來自谷歌、英偉達(dá)和某人工智能公司的研究員進(jìn)行了如下試驗(yàn):通過用隨機(jī)選擇的圖片替換廢棄的網(wǎng)頁上1000張?zhí)O果圖像(僅占數(shù)據(jù)的0.00025%),以讓接受這些數(shù)據(jù)訓(xùn)練的人工智能始終將圖片錯誤地標(biāo)記為包含蘋果。反之,如果用正常圖片替換相同數(shù)量被標(biāo)記為“不安全”的圖像,人工智能竟然將類似正常圖像標(biāo)記為“不安全”圖像[16]。隨著生成式人工智能工具的興起,大型語言模型已經(jīng)開始在更大的數(shù)據(jù)存儲庫上訓(xùn)練算法,新聞傳媒如果不結(jié)合人工把好關(guān),生產(chǎn)的內(nèi)容將會出現(xiàn)多種類型的錯誤。

        (五)做到價值對齊,維護(hù)新聞尊嚴(yán)

        人工智能價值對齊(AI alignment)是指引導(dǎo)人工智能系統(tǒng),使其符合設(shè)計(jì)者的利益和預(yù)期目標(biāo)的行為。價值對齊的人工智能將會向著預(yù)期方向發(fā)展;而未對齊的人工智能可能達(dá)不到預(yù)期,帶來巨大風(fēng)險。人工智能的設(shè)計(jì)應(yīng)符合用戶群體的規(guī)范和價值觀,但是目前大多數(shù)AI模型主要是根據(jù)英文數(shù)據(jù)進(jìn)行訓(xùn)練的,這可能導(dǎo)致AI在非英語母語國家缺乏本土人文背景知識,以西方價值體系為背景的智媒體可能會培養(yǎng)大量沒有東方文化歸屬感的個體。

        AIGC無法生成關(guān)于現(xiàn)實(shí)世界、物體及其關(guān)系、人與社會關(guān)系、人與物體關(guān)系或人與技術(shù)關(guān)系的鮮活內(nèi)容。一方面,AI生成的內(nèi)容并非基于對現(xiàn)實(shí)世界的直接觀察,生成的內(nèi)容可能并不符合人類或社會價值觀。另一方面,AI大語言模型更新可能跟不上實(shí)時資訊更新。如果依賴人工智能分析解答最新問題,無異于刻舟求劍。新聞傳媒報道必須同時具備真實(shí)性、客觀性和及時性,而AIGC在這三方面都不能真正做到。無論人工智能如何發(fā)達(dá),記者依然需要親臨第一線,編輯依然需要嚴(yán)格把關(guān)。

        四、結(jié)語

        AIGC推動人機(jī)協(xié)同生產(chǎn),正在重構(gòu)媒介生態(tài),重塑新聞采編發(fā)流程,激活媒介新質(zhì)生產(chǎn)力。同時,AIGC也為新聞傳媒帶來諸多數(shù)字倫理治理的挑戰(zhàn)。AIGC本身并不是目的,而只是一種提高生產(chǎn)力的工具,并不能完全替代人類進(jìn)行新聞生產(chǎn)。真實(shí)性是新聞傳媒的生命,如果濫用AIGC生產(chǎn)文字、圖片和視頻等內(nèi)容,將會嚴(yán)重侵蝕媒體的“公信力”。因此,務(wù)必要以辯證的眼光清醒地看待人工智能,遵循人性化、安全性、公平性和透明性等倫理原則,加強(qiáng)AI服務(wù)商和媒體機(jī)構(gòu)的治理,營造一個風(fēng)清氣正、和諧健康的智能社會。

        參考文獻(xiàn):

        [1] 中國政府網(wǎng).國務(wù)院關(guān)于印發(fā)新一代人工智能發(fā)展規(guī)劃的通知[EB/OL].(2017-07-08)[2024-09-08].https://www.gov.cn/zhengce/content/2017-07/20/content_5211996.htm.

        [2] SHAKKED NOY,WHITNEY ZHANG.Experimental evidence on the productivity effects of generative artificial intelligence[J].Science,2023,381(6654):187-192.

        [3] 郭慶藩.莊子集釋[M].王孝魚,點(diǎn)校.北京:中華書局,2013:391.

        [4] 周寧,陸睿,周思雨.如何有效防范人工智能假新聞?赴韓參加業(yè)界交流的觀察與思考[J].中國記者,2023(7):82-84.

        [5] 吳軍.智能時代:大數(shù)據(jù)與智能革命重新定義未來[M].北京:中信出版社,2016:261.

        [6] 陽長征.從算法滲透到主流認(rèn)知遷移:回音壁區(qū)隔下人際信任的影響研究[J].上海交通大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2024,32(8):34-52.

        [7] AI will transform science-now researchers must tame it[J].Nature,2023,621(7980):658.

        [8] 柏拉圖.理想國[M].郭斌和,張竹明,譯.北京:商務(wù)印書館,1986:390-393.

        [9] LIPPMAN.Public opinion[M].New Jersey:Transaction Publishers,1956:15.

        [10] 賽佛林,坦卡德.傳播理論:起源、方法與應(yīng)用(第四版)[M].郭鎮(zhèn)之,孟穎,趙麗芳,等,譯.北京:華夏出版社,2000:310.

        [11] CHESNEY B,CITRON D K. Deep fakes: a looming challenge for privacy,democracy,and national security[J].California law review,2019,107(6):1753-1819.

        [12] 鄧周平.科學(xué)技術(shù)哲學(xué)新論[M].北京:商務(wù)印書館,2010:456.

        [13] Maarit Jaakkola(Editor). Reporting on artificial intelligence-a handbook for journalism educators[EB/OL].[2024-11-04].https://doi.org/10.58338/HSMK8605.

        [14] 段永彪,董新宇,徐文鵬.人工智能賦能政府監(jiān)管的影響因素與實(shí)現(xiàn)機(jī)制:基于社會技術(shù)系統(tǒng)理論的多案例研究[J].電子政務(wù),2024(6):40-53.

        [15] 國家互聯(lián)網(wǎng)信息辦公室.互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定[EB/OL].(2022-01-04)[2024-11-04].https://www.gov.cn/zhengce/zhengceku/2022-01/04/content_5666429.htm.

        [16] It doesn’t take much to make machine-learning algorithms go awry[EB/OL].(2023-04-05)[2024-07-05].https://www.economist.com/science-and-technology/2023/04/05/it-doesnt-take-much-to-make-machine-learning-algorithms-go-awry.

        On AIGC Ethical Dilemmas and Governance Strategies for News Media

        Wang Qiangchun

        (Sichuan University of Media and Communications, School of Fusion Media, Sichuan,Chengdu,611745)

        Abstract: [Research purpose] Artificial intelligence has a profound impact on news media. AIGC promotes human-machine collaborative production, reshapes the news gathering and editing process, and activates the new quality productive forces of the media. It explores that AIGC cannot completely replace human news production while improving news information productivity. Through effective artificial intelligence governance, we can create a safe, fair, transparent and humane intelligent social environment to ensure that while developing technology, the social ethics and public interests should be maintained. [Research method] This study adopts a research method that combines theoretical deduction with case analysis. Firstly, by using the theoretical deduction method, through combing and analyzing existing literature, a theoretical framework for the application of artificial intelligence in the field of news media is constructed, and from a macro perspective, how AIGC can collaborate with humans in news production is explored. Secondly, using the case analysis method, representative news organizations are selected as research objects, and in-depth analysis is conducted on how they use AIGC technology to improve news productivity, while revealing the ethical challenges it may bring. [Research conclusion] Artificial intelligence should follow ethical principles such as humanity, safety, fairness and transparency, formulating an ethical constraint framework, strengthening the ethics of AI service providers and media organizations, building a solid \"digital guardrail\" to prevent the possible harm caused by artificial intelligence, and creating a clean, harmonious and healthy intelligent society.

        Key words:news media; AIGC;ethical dilemma;digital guardrail;value alignment;new quality productive forces

        基金項(xiàng)目:國家社科基金重點(diǎn)項(xiàng)目“文化創(chuàng)意的價值管理研究”(18AGL024);四川省高等教育學(xué)會高等教育科學(xué)研究重點(diǎn)培育課題“人工智能與高校新聞教學(xué)創(chuàng)新改革研究”(GJXH2024ZDPY-019)。

        作者簡介:王強(qiáng)春,男,1974年生,碩士,副教授,研究方向?yàn)槲乃嚸缹W(xué)、數(shù)字傳媒、文化創(chuàng)意。

        在线观看国产av一区二区| 97免费人妻在线视频| 人妻熟妇乱系列| 日本一区二区久久精品亚洲中文无| 精品亚洲一区中文字幕精品| 国产精品免费看久久久无码| 日本高清色倩视频在线观看 | 国产自产c区| 国内精品少妇久久精品| 18禁止进入1000部高潮网站| 亚洲综合无码无在线观看| 综合无码综合网站| 亚洲伊人av综合福利| 日本三级香港三级人妇99| 日本丰满熟妇bbxbbxhd| 在线观看精品国产福利片100| 亚洲五码av在线观看| 人妻少妇看a偷人无码| 丰满少妇被猛烈进入| 免费国产h视频在线观看86| 亚洲a级视频在线播放| 国产精品国产三级国产av品爱网| 无码少妇一区二区三区芒果 | 国产啪啪视频在线观看| 亚洲综合精品中文字幕| 日日噜噜噜夜夜爽爽狠狠视频| 国产国语对白一区二区三区| 免费国产不卡在线观看| 欧美最猛黑人xxxx| 精品国产黑色丝袜高跟鞋| 丰满人妻中文字幕乱码| 亚洲中文字幕在线一区| 偷拍综合在线视频二区日韩 | 无遮挡又黄又刺激又爽的视频| av狼人婷婷久久亚洲综合| 国产女人精品一区二区三区 | 亚洲国产美女精品久久久 | 午夜视频在线观看视频在线播放| 少妇无码太爽了不卡视频在线看| 少妇内射视频播放舔大片| 无码久久流水呻吟|