亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        智能出版人機價值對齊的困境與突圍

        2025-06-25 00:00:00方艷?陳瑛
        出版參考 2025年5期

        摘 要:智能出版的價值對齊面臨的根本性悖論是人類價值體系的開放性、情境性等與技術(shù)系統(tǒng)標(biāo)準(zhǔn)化訴求間的沖突。由此,智能出版的人機價值對齊面臨著人文價值的可算性困境、多元主體的結(jié)構(gòu)性矛盾、文化情境的動態(tài)性適配等現(xiàn)實挑戰(zhàn)。智能出版的價值對齊在于人機雙向?qū)R,重構(gòu)人機共生關(guān)系,“全景式價值對齊”實踐路徑可以為人機價值對齊提供可能:前置價值敏感設(shè)計的出版全流程調(diào)節(jié)、建構(gòu)利益主體協(xié)同的鏈條式價值審計、優(yōu)化消費終端的多元化情境價值協(xié)商。對齊的本質(zhì)不是尋找普適準(zhǔn)則,而是構(gòu)建持續(xù)對話的倫理生態(tài),使技術(shù)系統(tǒng)在人類情感的引導(dǎo)下,實現(xiàn)有限但可持續(xù)的價值兼容。

        關(guān)鍵詞:智能出版 價值對齊 人機關(guān)系

        AI技術(shù)給出版行業(yè)帶來了前所未有的機遇和挑戰(zhàn),生成式人工智能逐步被應(yīng)用并深刻影響著出版流程的各個環(huán)節(jié)。人機價值對齊不僅是智能出版領(lǐng)域的倫理要求,更是維系出版業(yè)可持續(xù)發(fā)展的核心機制。調(diào)查顯示,72%的讀者對AI生成教材內(nèi)容持懷疑態(tài)度,傳統(tǒng)出版的權(quán)威性被技術(shù)解構(gòu),需要通過透明化價值對齊如標(biāo)注AI貢獻度修復(fù)讀者信任契約。AI的無監(jiān)督生成能力可能突破人類預(yù)設(shè)邊界,類型同質(zhì)化扼殺創(chuàng)新,需要通過價值對齊建立“倫理防火墻”,設(shè)定“創(chuàng)造性保護閾值”。訓(xùn)練數(shù)據(jù)的非規(guī)范性,使得傳統(tǒng)“先授權(quán)后使用”原則失效,原有版權(quán)體系崩解,價值對齊可重塑數(shù)據(jù)訓(xùn)練規(guī)則,構(gòu)建一種可持續(xù)版權(quán)生態(tài)。所謂價值觀對齊,是指確保AI模型的價值觀與人類價值觀相一致。但智能出版的人機價值對齊面臨著根本性的悖論:人類價值體系的開放性、情境性、多元化與技術(shù)系統(tǒng)標(biāo)準(zhǔn)化訴求間存在沖突。智能出版人機價值對齊的困境、向何對齊、如何對齊等問題都亟待探討。

        一、對齊困境:智能出版人機價值對齊的現(xiàn)實挑戰(zhàn)

        (一)人文價值的可算性困境

        人類價值觀如“尊嚴(yán)”“寬容”“正義”“誠實”等,以及人類的情感如鄉(xiāng)愁、孤獨、開心等難以轉(zhuǎn)化為算法可處理的參數(shù)。AI詩集《機械繆斯》中一首關(guān)于“鄉(xiāng)愁”的詩被批評為“地理坐標(biāo)與天氣數(shù)據(jù)的堆砌”,如“北緯32°的雨換算成0.7MB的哭泣”,引發(fā)讀者對文學(xué)靈韻消亡的抗議。還有AI詩歌生成器將“鄉(xiāng)愁”解構(gòu)為“地理距離+時間流逝”進行機械拼貼,導(dǎo)致詩歌喪失文化厚重感,引起作家群體抵制。盡管AI能模仿詩人的句式,可以模擬詩意的形式,卻無法復(fù)現(xiàn)生命經(jīng)驗與文本之間的內(nèi)在關(guān)聯(lián),詩意的靈光、本雅明筆下的“靈韻”,可能仍是人類生命的專屬印記。長期依賴AI輔助易導(dǎo)致人類某些能力退化,如編輯的事實核查能力。2024年12月,中國青年報社社會調(diào)查中心聯(lián)合問卷網(wǎng)(wenjuan.com),對1342名青年進行的一項調(diào)查顯示,76.5%的受訪青年對數(shù)字技術(shù)感到依賴,當(dāng)無法使用數(shù)字技術(shù)時,57.6%的受訪青年覺得信息獲取會受到影響,51.0%的受訪青年認為自己的工作、學(xué)習(xí)和生活會受阻。

        人文價值的可算性困境更在于情感理解鴻溝,比如AI無法捕捉文學(xué)中的反諷與隱喻,不能很好地結(jié)合時代語境去理解作品內(nèi)容。AI通過海量文本學(xué)習(xí)詞語共現(xiàn)概率,如“玫瑰”常與“愛情”關(guān)聯(lián),但無法理解反諷中“表面贊美—實質(zhì)批判”的語義反轉(zhuǎn),或隱喻中“能指—所指”的多層映射。人類對出版作品的理解依賴共情,而AI缺乏具身化的情感體驗,只能模仿情感標(biāo)簽,如標(biāo)記“諷刺”類型而無法高度高效共鳴。20世紀(jì)英國批判現(xiàn)實主義文學(xué)的杰出大師喬治·奧威爾的代表作《1984》中主要講述的大洋國是一個權(quán)力高度集中的國家,本質(zhì)特點體現(xiàn)為無所不能的“老大哥”、高于社會的組織以及權(quán)力支配一切的制度。“老大哥”不僅是小說中的獨裁者形象,更是冷戰(zhàn)初期人們對集權(quán)政治的恐懼體現(xiàn),如電話竊聽、思想警察一樣的文學(xué)投射。而AI將其解釋為“一個嚴(yán)厲但關(guān)心民眾的領(lǐng)導(dǎo)者”。AI訓(xùn)練數(shù)據(jù)缺乏對20世紀(jì)政治史的背景關(guān)聯(lián),僅從字面理解“兄弟”的親緣含義,剝離了歷史語境的批判性。

        (二)多元主體的結(jié)構(gòu)性矛盾

        智能出版關(guān)涉多元主體的利益,其中利益相關(guān)方包括作者、用戶(讀者)、出版機構(gòu)、平臺、技術(shù)開發(fā)者、監(jiān)管者等。作者的核心價值訴求是自主創(chuàng)作、版權(quán)保護;用戶(讀者)的核心價值訴求為信息真實、文化價值,在質(zhì)量期待的同時存在免費訴求等;出版機構(gòu)的核心價值訴求為內(nèi)容質(zhì)量、合規(guī)出版、經(jīng)濟效益與社會效益統(tǒng)一;平臺的核心價值訴求為流量與合規(guī)平衡;技術(shù)開發(fā)者的核心價值訴求為算法效率、商業(yè)回報,數(shù)據(jù)獲取最大化;監(jiān)管者的核心價值訴求為國家安全與創(chuàng)新激勵。多元主體的核心價值訴求存在差異,主體自身或者主體之間存在潛在沖突點,比如技術(shù)標(biāo)準(zhǔn)制定權(quán)的爭奪、數(shù)據(jù)獲取的合法性爭議、數(shù)據(jù)所有權(quán)與收益分配的博弈、公共性與商業(yè)性的對立、技術(shù)代際權(quán)力斷層與數(shù)字鴻溝、AI輔助寫作的署名權(quán)模糊、算法推薦的信息繭房等。這些本身就構(gòu)成了智能出版人機價值對齊的壁壘。

        多元主體存在多維責(zé)任。目前,諸多AI生成內(nèi)容的決策路徑不可解釋,決策過程不透明,技術(shù)開發(fā)者、平臺、用戶(讀者)等主體責(zé)任邊界模糊,黑箱效應(yīng)導(dǎo)致責(zé)任鏈斷裂、追責(zé)無門。當(dāng)AI生成內(nèi)容引發(fā)法律糾紛,技術(shù)開發(fā)者、平臺、用戶(讀者)的責(zé)任分配缺乏量化標(biāo)準(zhǔn),算法貢獻度的測算方法難以達成共識而難以令人信服。平臺通過用戶協(xié)議將AI錯誤歸責(zé)于用戶(讀者)的情況屢見不鮮,如亞馬遜AI薦書免責(zé)條款。人機價值對齊的效果評估本身存在難度,盡管近幾年來基于RLHF(從人類反饋中強化學(xué)習(xí))的對齊方法取得了較好的效果并且演化出諸多改進的變體,但由于AI模型自身的隨機性、道德準(zhǔn)則的模糊性、評分模型的覆蓋率以及訓(xùn)練數(shù)據(jù)的質(zhì)量和數(shù)量等問題,當(dāng)下的對齊程度與人類自身的道德標(biāo)準(zhǔn)仍相差甚遠。[1]責(zé)任環(huán)節(jié)的增多使得每個環(huán)節(jié)的主體都能找到借口從整體的責(zé)任中逃脫。

        (三)文化情境的動態(tài)性適配

        智能出版的價值對齊,既要跟上價值觀念、文化情境的流動節(jié)奏,又需守護那些不可讓渡的人類精神內(nèi)核,比如對真理的追求、對差異的尊重等。如果作為對齊目標(biāo)的價值觀是具有流動性的,那么,價值觀對齊應(yīng)當(dāng)如何選擇、如何判定就失去了永恒不變的標(biāo)準(zhǔn)。這就要求價值觀對齊需要將價值觀自身的流動變化納入考慮,以確保目標(biāo)價值能夠反映價值觀念的變化,從而實現(xiàn)AI價值觀與人類價值觀的動態(tài)一致。這一目標(biāo)為價值觀對齊提出了更高的技術(shù)和倫理要求。[2]舊模型持續(xù)輸出過時價值觀,將會導(dǎo)致出版內(nèi)容合規(guī)性風(fēng)險產(chǎn)生,傳統(tǒng)模型更新往往慢于社會價值觀迭代速度。

        另外,文化情境多元化、差異性、動態(tài)性也對智能出版的人機價值對齊提出了挑戰(zhàn)。出版業(yè)作為傳承文化的重要載體,其生態(tài)與重構(gòu)顯得尤為重要。文化符號的不可通約性呈現(xiàn)地方性知識壁壘。比如東方語境中,龍象征皇權(quán)與祥瑞;西方語境中,龍代表邪惡力量,同一圖像在海外出版時可能造成跨文化誤讀,引發(fā)相關(guān)群體抗議。目前,技術(shù)尚存有盲區(qū)。主流AI視覺模型僅依賴“dragon”標(biāo)簽關(guān)聯(lián)火焰、翅膀等元素,無法捕捉文化語義的深層差異。即使在同一地區(qū),代際差異、數(shù)字鴻溝等也對智能出版的人機價值對齊產(chǎn)生影響,價值觀對齊應(yīng)當(dāng)如何選擇自然成了一道難題。

        二、向何對齊:智能出版人機價值對齊的價值共生

        (一)機器向人類價值觀的對齊

        多元主體價值訴求存在差異。向何對齊,首先要面臨的是向人的價值對齊中“何以為人”的問題。人工介入帶來的問題更大:人類合同工所撰寫的提示工程與“理想回應(yīng)”以及手工做出的比較評級,本質(zhì)上只可能代表一部分價值。人工介入實際上把主觀的好惡(一部分人的價值),以“人類價值”名義強行加進了一個原本在統(tǒng)計學(xué)意義上客觀反映“世界”的語言模型中。人“控制”輸出結(jié)果,未必比模型“控制”自身的輸出結(jié)果更能反映出“人類價值”的實際面貌。所以,通過價值觀對齊,要求算法優(yōu)先推薦具有公共價值的內(nèi)容,而非僅追逐用戶即時偏好,以保障知識的公共性。在出版?zhèn)惱碇袕娬{(diào)“向人的價值對齊”,本質(zhì)上是對智能技術(shù)主導(dǎo)的出版生態(tài)進行人文糾偏,不是讓人工智能模仿人類,而是定義技術(shù)時代的知識生產(chǎn)倫理,其核心意義在于維護人類在知識生產(chǎn)與傳播中的主體性地位,防范技術(shù)異化對文明根基的侵蝕。向人的價值對齊絕不是一勞永逸的技術(shù)方案,而是持續(xù)的文化抗?fàn)幣c倫理覺醒。其終極目標(biāo)不是讓人工智能“更像人”,而是讓人在技術(shù)洪流中始終記得“何以為人”。這需要智能出版中的相關(guān)利益主體如技術(shù)開發(fā)者、平臺、出版商等保持清醒——既善用技術(shù)提升效率,又承擔(dān)相應(yīng)的責(zé)任。機器向人類價值觀的對齊,這里的“人類”,絕對不是以任一單一主體承載的價值追求為主導(dǎo)。

        人機價值對齊實則是人與人之間的價值觀經(jīng)過大模型這一中介代理后能否保持一致的問題。因此,大模型成為人類價值觀傳播的一個重要渠道和中介,實現(xiàn)的是應(yīng)然層面的人類價值觀和實然層面的人類價值觀、全球性的人類價值觀以及地方性的人類價值觀之間的對齊。[3]對于我國智能出版的價值觀對齊的目標(biāo)價值觀,應(yīng)該涵蓋國家、社會、個人三個層面,是與出版和傳播中華優(yōu)秀傳統(tǒng)文化和人類文明優(yōu)秀成果相承接的價值觀,以符合國家發(fā)展與人民需要的價值導(dǎo)向,更好地服務(wù)國民用戶,切實保障國家社會安全、文化安全、政治安全。[4]同時,智能出版要追求和秉持“全人類共同價值”,即“和平、發(fā)展、公平、正義、民主、自由,是全人類的共同價值,也是聯(lián)合國的崇高目標(biāo)”。[5]全人類共同價值的內(nèi)核是尋求人類價值與不同民族、國家之間形成的最大公約數(shù),是一種世界文明向度的發(fā)展觀和價值體系,以推動構(gòu)建人類命運共同體為實踐路徑,超越了意識形態(tài)的對立壁壘,為促進世界共同發(fā)展和進步提供了價值支撐,契合人類共同追求。[6]

        (二)人類價值觀向機器的適配

        技術(shù)不僅僅是人類用來認識和改造世界的工具性、客體性存在,還是人性的一部分。[7]海德格爾(Heidegger)認為機器不再是一個完全中立的存在,可以讓人類利用從而控制外在世界,技術(shù)的本質(zhì)是一種“座架”,是“技術(shù)和圍繞技術(shù)的一系列的制度和文化,構(gòu)成一個綿延不斷的整體,它在很大程度上已經(jīng)嵌入到了人存在的前提”。[8]人類價值觀向機器的適配是指人類主動調(diào)整自身行為模式、認知習(xí)慣甚至價值判斷標(biāo)準(zhǔn),以適應(yīng)技術(shù)系統(tǒng)的運行邏輯與限制條件。比如內(nèi)容生產(chǎn)方面,創(chuàng)作自由受到“算法化規(guī)訓(xùn)”,為增加推薦權(quán)重而遵循AI建議模板;作家從“自由創(chuàng)作”轉(zhuǎn)向“數(shù)據(jù)驅(qū)動寫作”,甚至使用AI情緒曲線分析工具優(yōu)化章節(jié)節(jié)奏。另外,編輯人工審校呈現(xiàn)技術(shù)化傾向,編輯考核指標(biāo)增加“AI工具使用熟練度”。用戶(讀者)行為也受到“逆向馴化”,

        通過“讀完率”“翻頁速度”等數(shù)據(jù)實時調(diào)整推薦內(nèi)容,用戶(讀者)無意識中偏好短章節(jié)、高沖突文本,久而久之,用戶自主搜索行為下降,算法推薦內(nèi)容消費占比提升。

        由于人工智能是一種機器,在人與人工智能長期互動的過程中,人類的思維和觀念有可能被塑造成機器思維,人類的價值觀也會被人工智能的價值體系所影響。當(dāng)AI越來越傾向于指導(dǎo)人類,也越來越能提供符合人類預(yù)期的回答,甚至?xí)龑?dǎo)人類提出新的問題,這種“主動對齊”對于人類而言是一種潛在意識威脅。不同于對生存主體性的脅迫,這是對人類思想主體性的一種削弱。[9]價值對齊不僅會使人工智能更加像人,導(dǎo)致人類對人工智能的依賴越來越強,甚至在未來還可能和人類產(chǎn)生情感聯(lián)結(jié),帶來新的風(fēng)險。長期依賴AI輔助寫作的作者,自主創(chuàng)新能力會在一定程度上降低,需要通過技術(shù)設(shè)計保留人類核心能力,如批判性思維、情感共鳴等。

        (三)人機雙向?qū)R的共生重構(gòu)

        傳統(tǒng)價值對齊多強調(diào)機器向人類價值觀的單向適配,如前所述,智能技術(shù)對人類認知、行為的反向塑造已不可忽視。雙向?qū)R不僅必要,且將重構(gòu)人機關(guān)系的倫理范式。單向?qū)R的傳統(tǒng)觀念將技術(shù)視為被動工具,假設(shè)人類價值觀具有絕對主導(dǎo)權(quán)。但AI系統(tǒng)(如算法推薦)已深度介入知識生產(chǎn)與傳播,其技術(shù)邏輯(如流量優(yōu)先、數(shù)據(jù)驅(qū)動)正反向形塑人類的閱讀習(xí)慣、審美標(biāo)準(zhǔn)甚至倫理判斷。人類需與智能出版系統(tǒng)建立雙向適應(yīng)關(guān)系——既要求AI符合人類倫理準(zhǔn)則,也需要人類理解技術(shù)運行邏輯以規(guī)避認知沖突,提升人機協(xié)作效能。比如,學(xué)術(shù)出版中,研究者需適應(yīng)AI文獻分析工具的檢索邏輯(如關(guān)鍵詞策略優(yōu)化),才能高效獲取前沿成果;同時,AI需學(xué)習(xí)學(xué)術(shù)倫理規(guī)范以規(guī)避剽竊風(fēng)險。雙向?qū)R可降低摩擦成本,緩解技術(shù)倫理沖突。當(dāng)人類價值觀與技術(shù)可行性沖突時,如“絕對隱私保護”與“個性化推薦必需數(shù)據(jù)收集”,雙向?qū)R通過協(xié)商達成妥協(xié)方案,強化用戶知情權(quán)。

        雙向?qū)R主張通過持續(xù)互動實現(xiàn)動態(tài)平衡。在“機器犯錯”事件中(如AI生成虛假內(nèi)容),雙向?qū)R框架要求搭建追溯責(zé)任鏈。在技術(shù)端,開發(fā)者是否預(yù)設(shè)足夠倫理約束;出版編輯端的編輯是否盡到審核義務(wù);用戶(讀者)是否具備信息鑒別能力。人類向機器的有限對齊(如學(xué)習(xí)AI可解釋性語言),能幫助技術(shù)開發(fā)者更精準(zhǔn)地捕捉倫理需求,推動AI系統(tǒng)迭代升級。人機雙向價值對齊絕非要求人類屈從于技術(shù)邏輯,而是構(gòu)建批判性共生關(guān)系。它既承認技術(shù)對人的改造不可避免,又堅守人類價值觀的終極裁判權(quán)。在智能出版領(lǐng)域,唯有通過雙向?qū)R,才能在技術(shù)發(fā)展中守護知識的尊嚴(yán)與文明的多樣性。未來的核心挑戰(zhàn)在于如何劃定人機共生的倫理紅線,并在效率與人性之間找到動態(tài)平衡點。

        三、如何對齊:智能出版人機價值對齊的實踐路徑

        (一)前置價值敏感設(shè)計的出版全流程調(diào)節(jié)

        出版?zhèn)惱韱栴}涉及選題策劃、內(nèi)容生產(chǎn)、審核編輯、傳播分發(fā)、消費反饋等多個環(huán)節(jié),其核心問題既包含傳統(tǒng)出版領(lǐng)域的積弊,也因智能技術(shù)的介入衍生出新型倫理挑戰(zhàn)。出版作為價值傳遞的連續(xù)性社會實踐,重構(gòu)智能出版流程,實現(xiàn)人機價值對齊,需要前置價值敏感性設(shè)計。在算法模型構(gòu)建初期,通過虛擬現(xiàn)實技術(shù)搭建“道德劇場”,前置性模擬技術(shù)應(yīng)用的各種社會效應(yīng)。如微軟研究院開發(fā)的出版?zhèn)惱砩澈邢到y(tǒng),允許編輯、用戶(讀者)、文化學(xué)者在虛擬場景中體驗不同審核策略的連鎖反應(yīng)。前置多種利益相關(guān)者的道德價值判斷與選擇,從而及時調(diào)整技術(shù)的道德調(diào)節(jié)作用,實現(xiàn)對技術(shù)意向性的積極建構(gòu)。[10]價值敏感性設(shè)計(Value-Sensitive Design)是技術(shù)哲學(xué)中工程創(chuàng)新實踐的進路,主張在技術(shù)設(shè)計階段就將抽象的倫理價值進行具象化與可操作化,前置性地、建構(gòu)性地植入人工物系統(tǒng)中,從而實現(xiàn)“價值偏差”的最小化。[11]價值敏感性設(shè)計可以成為道德物化的前置階段。例如在20世紀(jì)90年代的美國,人們對網(wǎng)頁瀏覽侵犯隱私的顧慮極大提升,因此,工程師們便將“用戶知情并同意”的機制引入瀏覽器頁面中。[12]體現(xiàn)價值敏感性常見的方法有利益相關(guān)者分析、價值來源分析、價值維度的可擴展性評估、價值敏感性的行為反射模型、在線知情同意模型等。[13]智能出版的前置價值敏感設(shè)計可規(guī)避倫理風(fēng)險和安全風(fēng)險。

        應(yīng)對出版各環(huán)節(jié)的對齊沖突,采取針對性治理和調(diào)節(jié),關(guān)鍵是處理好向何對齊的問題。調(diào)節(jié)(mediation)是維貝克思想中的重要概念,也是技術(shù)道德能動性的重要體現(xiàn)。減速帶是維貝克經(jīng)常說明的例子——通過在道路上設(shè)計減速帶,降低司機的行駛速度,提高駕駛員出行的安全性,使其更加道德地遵守路上的交通規(guī)則。[14]對于智能出版而言,針對選題策劃階段的公共知識需求與流量算法偏好的沖突與調(diào)節(jié)問題,需要開發(fā)社會效益和市場效益兼顧的協(xié)同決策模型。內(nèi)容生產(chǎn)階段,處理好創(chuàng)作自主權(quán)與技術(shù)可行性的關(guān)系,預(yù)防創(chuàng)作類型同質(zhì)化、AI依賴癥等,將創(chuàng)作者價值觀嵌入面板。編輯審核階段,兼顧內(nèi)容安全與表達合理,建立“人機爭議內(nèi)容仲裁委員會”。傳播分發(fā)階段,避免算法效率優(yōu)先,保護好文化多樣性,開發(fā)多樣性增強算法。消費反饋階段,增設(shè)“價值觀選擇器”,比如娛樂、學(xué)習(xí)、研討等模式的選擇,將用戶需求偏好與理性認知提升結(jié)合起來。

        (二)構(gòu)建利益主體協(xié)同的鏈條式價值審計

        審計的主體不僅包括由研究者、技術(shù)專家以及政策制定者在內(nèi)的專業(yè)性的、自上而下的、合作眾包式的審計,也涵蓋了由用戶發(fā)起的、適用于日常生活場景的集合性審計。[15]多重利益相關(guān)者的參與,使得算法審計成為一種內(nèi)外部結(jié)合的有效監(jiān)督方式。算法審計是指對算法的運行邏輯進行直接或間接審查,并從代碼規(guī)則、社會價值以及公共秩序等方面進行修復(fù),常被用于測量算法代碼中隱藏的階級、種族、性別等維度的歧視。[16]算法審計能對智能出版意圖、出版內(nèi)容、出版流程、出版的社會效應(yīng)進行有效評估。

        具體在智能出版大模型的技術(shù)語境中,我們需要識別利益相關(guān)者。利益相關(guān)主體協(xié)同的鏈條式價值審計,首先需要構(gòu)建利益相關(guān)者圖譜,進行主體識別與分層,構(gòu)建協(xié)同治理系統(tǒng),強調(diào)創(chuàng)作者、出版機構(gòu)、技術(shù)開發(fā)者、用戶(讀者)與政策制定者的五方責(zé)任共擔(dān),設(shè)計“出版利益地圖”系統(tǒng),可實時追蹤AI生成內(nèi)容的價值流分配。由算法、數(shù)據(jù)、編輯、用戶(讀者)等人類與非人類行動者共同構(gòu)建出版?zhèn)惱砭W(wǎng)絡(luò),打造“人機協(xié)同倫理審查鏈”,至少包括AI初篩、編輯復(fù)核、專家委員會終審等。其次,還需要強化“價值對齊”透明度,實行倫理審計公開,出版機構(gòu)披露價值觀對齊的具體指標(biāo),如文化多樣性評分、弱勢群體內(nèi)容占比等。

        (三)優(yōu)化消費終端的多元化情境價值協(xié)商

        智能出版消費終端的多元化情境價值協(xié)商和選擇,對打破信息繭房、將單向閱讀轉(zhuǎn)化成為價值對話場域具有重要意義。消費終端的價值選擇和協(xié)商需要結(jié)合多元化的情境,建設(shè)文化間、代際間、人機間等多維協(xié)商的平臺基礎(chǔ),進行情境化調(diào)適。智能出版的價值對齊需根據(jù)不同文化語境,構(gòu)建動態(tài)文化適配知識庫以響應(yīng)多元化文化情境需求。建設(shè)動態(tài)倫理準(zhǔn)則庫,包括不可逾越的基礎(chǔ)倫理,如反人類、種族歧視等;以及包含可調(diào)整的情境規(guī)則的適配層,運用文化敏感度動態(tài)評估系統(tǒng)和倫理沖突模擬沙盒,預(yù)演不同對齊方案的社會影響,做到有的放矢。為出版AI增設(shè)“價值觀調(diào)試面板”,允許用戶自定義倫理偏好,如選擇“文化多樣性優(yōu)先”“事實核查優(yōu)先”“認知提升模式”等。

        要破解智能出版中人機價值對齊的深層矛盾,需將用戶素養(yǎng)提升置于核心地位,通過技術(shù)認知啟蒙、倫理意識覺醒與社會心理調(diào)適的協(xié)同推進,構(gòu)建“技術(shù)賦能—價值協(xié)商—文明共生”的良性生態(tài)。傳統(tǒng)“用戶教育”多停留于操作指南層面,智能傳播時代需要培養(yǎng)公眾的技術(shù)批判性思維,針對不同群體設(shè)計差異化課程,提升用戶素養(yǎng),將素養(yǎng)教育轉(zhuǎn)化為公民的“數(shù)字生存技能”。同樣,加強社會心理韌性建設(shè),實現(xiàn)用戶的焦慮緩解到認知升維亦是智能出版人機價值對齊的防火墻。

        人機價值對齊是大模型走向強人工智能進程中所要面臨和解決的重要挑戰(zhàn)。尼爾·波茲曼在《技術(shù)壟斷:文化向技術(shù)投降》中提到“每一種技術(shù)既是包袱也是恩賜,不是非此即彼的結(jié)果,而是利弊同在的產(chǎn)物”。[17]作為承載傳承文化、創(chuàng)新知識、服務(wù)社會的出版行業(yè),人工智能時代,分析智能出版的人機價值對齊的挑戰(zhàn)、對齊目標(biāo)、對齊路徑有助于研判人機關(guān)系的新特征,預(yù)測與指導(dǎo)出版生態(tài)良性發(fā)展。未來,人工智能還將進一步推進社會深度媒介化的進程,要想實現(xiàn)健康的人機傳播關(guān)系,由人機對齊到人機共生的價值對齊模式值得進一步探討。

        參考文獻:

        [1]矣曉沅,謝幸.大模型道德價值觀對齊問題剖析[J].計算機研究與發(fā)展,2023,60(9):1926-1945.

        [2][4]郭全中,張金熠.AI向善:AI大模型價值觀對齊的內(nèi)容與實踐[J].新聞愛好者,2023(11):19-24.

        [3][10]袁雨晴,陳昌鳳.道德物化:大模型人機價值對齊的技術(shù)倫理進路[J].南京社會科學(xué),2024(6):88-97.

        [5]習(xí)近平.論堅持推動構(gòu)建人類命運共同體[M].北京:中央文獻出版社,2018:254.

        [6]王虎學(xué),陳婉馨.全人類共同價值與西方“普世價值”:界定、甄別與超越[J].治理現(xiàn)代化研究,2023,39(1):72-79.

        [7]Verbeek P P. Beyond Interaction:A Short Introduction to Mediation Theory[J].Interactions,2015,22(3):26-31.

        [8]蔣曉麗,賈瑞琪.論人工智能時代技術(shù)與人的互構(gòu)與互馴:基于海德格爾技術(shù)哲學(xué)觀的考察[J].西南民族大學(xué)學(xué)報(人文社科版),2018,39(4):130-135.

        [9]林愛珺,常云帆.人工智能大模型價值對齊的人文主義思考[J].新聞界,2024(8):24-33.

        [11]張浩鵬,夏保華.價值敏感性設(shè)計透視:背景、現(xiàn)狀、問題與未來[J].自然辯證法研究,2023,39(4):77-83.

        [12]BFriedman,D.H.,Value Sensitive Design:Shaping Technology with Moral Imagination[M].Massachusetts:MIT Press,2019:79.

        [13]Friedman,B.,Hendry,D.G.,Borning,A.,A Survey of Value Sensitive Design Methods[J].Foundations and Trends?in Human-Computer Interaction,2017,11(2):63-125.

        [14]Verbeek,P.-P.,Moralizing Technology:Understanding

        and Designing the Morality of Things[M].Chicago:University of Chicago Press,2011:126.

        [15]Shen,H.,DeVos,A.,Eslami,M.,et al..Everyday Algorithm Auditing:Understanding the Power of Everyday Users in Surfacing Harmful Algorithmic Behaviors[J].Proceedings of the ACM on Human-Computer Interaction,2021,5(CSCW2):1-29.

        [16]張萌,楊家明.日常算法審計與計算基礎(chǔ)設(shè)施修復(fù):基于倒置視角的考察[J].新聞大學(xué),2023(8):88-100,120.

        [17]尼爾·波茲曼.技術(shù)壟斷:文化向技術(shù)投降[M].何道寬,譯.北京:中信出版集團,2019:126.

        (作者系:方艷,湖北第二師范學(xué)院傳播倫理研究所所長、教授;陳瑛,湖北第二師范學(xué)院新聞與傳播學(xué)院院長、教授)

        日本一区二区三区爆乳| 久久久精品国产视频在线| 日本熟妇裸体视频在线| 日韩亚洲精品中文字幕在线观看| 国产精品www夜色视频| 99久久精品国产一区二区蜜芽| 99国产综合精品-久久久久| 国产精品毛片一区二区三区| 亚洲精品成人无限看| 人妻影音先锋啪啪av资源| 青青草视频华人绿色在线| 精品久久人妻一区二区 | 国产av人人夜夜澡人人爽| 国产一区二区三区韩国| 在线看高清中文字幕一区| 国产日韩欧美一区二区东京热| 久久人人玩人妻潮喷内射人人| 一区二区三区放荡人妻| 免费观看一区二区三区视频| 人人妻人人澡人人爽超污| 亚洲综合久久成人a片| 丰满人妻AV无码一区二区三区| 亚洲国产一区二区网站| 2020无码专区人妻系列日韩| 中文在线√天堂| 一级做a爱视频在线播放| 成人av在线久色播放| 亚洲毛片αv无线播放一区| 天天狠天天透天干天天| 国产av一区二区日夜精品剧情| 美女扒开屁股让男人桶| 国产肉体ⅹxxx137大胆| 天堂网av在线| 91久久综合精品久久久综合 | av免费网站免费久久网| 欧美亚洲国产一区二区三区| 99久久久国产精品免费蜜臀| 日本一区二区久久精品亚洲中文无 | 午夜tv视频免费国产区4| 国产精品黑丝美女av| 性无码一区二区三区在线观看|