關(guān)鍵詞:智能傳播;生成式人工智能;技術(shù)邏輯;社會(huì)價(jià)值;算法倫理
生成式人工智能(Generative AI)和算法技術(shù)繼續(xù)以前所未有的速度發(fā)展,大語(yǔ)言模型驅(qū)動(dòng)其改變著技術(shù)工具的屬性,并逐漸迭代成為智能平臺(tái),驅(qū)動(dòng)社會(huì)由外而內(nèi)的適應(yīng)性變遷,對(duì)社會(huì)的深遠(yuǎn)影響引發(fā)了學(xué)術(shù)界與實(shí)踐領(lǐng)域的廣泛關(guān)注。2024年年初,生成式人工智能技術(shù)迎來(lái)新一輪升級(jí)浪潮——以O(shè)penAI最新推出的多模態(tài)生成式人工智能研究項(xiàng)目Sora為代表,這一波技術(shù)革新顯著提升了人工智能在語(yǔ)言理解、圖像生成和復(fù)雜任務(wù)解決方面的能力。2024年末,OpenAI連續(xù)12天發(fā)布新應(yīng)用,如o1正式版、Sora、Canvas,并在最后一天發(fā)布GPT-o3;谷歌在年末則一舉逆襲,其2024數(shù)據(jù)和AI趨勢(shì)報(bào)告直指AI智能體、多模態(tài)AI、企業(yè)搜索三大主導(dǎo)技術(shù);Meta AI開(kāi)發(fā)了一種全新的大型概念模型(LCM),使推理與語(yǔ)言表征分離,有可能徹底改變我們對(duì)語(yǔ)言模型的理解。
與此同時(shí),全球范圍內(nèi),各地關(guān)于智能治理的法規(guī)政策也進(jìn)一步調(diào)整,為2024年的智能傳播研究提供了鮮明的時(shí)代背景,使智能傳播領(lǐng)域成為技術(shù)創(chuàng)新與社會(huì)挑戰(zhàn)交織的前沿陣地。從生成內(nèi)容的精確化到用戶體驗(yàn)的個(gè)性化,智能技術(shù)正成為推動(dòng)社會(huì)變革的核心引擎。然而,飛速迭代的技術(shù)及應(yīng)用凸顯了技術(shù)與社會(huì)價(jià)值觀之間日益加大的張力,這種張力貫穿社會(huì)不平等、隱私保護(hù)、新聞倫理等多個(gè)領(lǐng)域。
本文旨在探討技術(shù)與社會(huì)價(jià)值的沖突與融合,通過(guò)系統(tǒng)梳理和分析2024年的智能傳播研究,從算法不平等、平臺(tái)勞動(dòng)、新聞倫理、隱私保護(hù)等多個(gè)領(lǐng)域出發(fā),探討技術(shù)邏輯與社會(huì)價(jià)值之間的張力及其協(xié)同可能性。本研究的分析對(duì)象是國(guó)內(nèi)外新聞傳播學(xué)科頂尖期刊的智能傳播論文。在國(guó)內(nèi)期刊中,本研究選擇了六種具有代表性的核心期刊,分別是《新聞與傳播研究》《國(guó)際新聞界》《新聞大學(xué)》《現(xiàn)代傳播》《新聞?dòng)浾摺泛汀缎侣劷纭罚辉趪?guó)外期刊中,本研究依據(jù)2024年發(fā)布的最新版《期刊引證報(bào)告》,將傳播學(xué)類目下排名前20的期刊納入綜述范圍。通過(guò)分析,本研究提出“技術(shù)與社會(huì)價(jià)值的沖突與融合”這個(gè)論題,并挖掘沖突背后的深層原因和融合路徑,希望為技術(shù)治理、社會(huì)決策及未來(lái)研究提供理論與實(shí)踐上的參考。
一、智能技術(shù)與社會(huì)價(jià)值的沖突
技術(shù)的快速進(jìn)步正在深刻改變著人類社會(huì)的運(yùn)作方式。然而,這一過(guò)程帶來(lái)的影響是復(fù)雜的,技術(shù)的設(shè)計(jì)邏輯、運(yùn)作機(jī)制及其在社會(huì)中的嵌入方式,往往在無(wú)意中與核心社會(huì)價(jià)值產(chǎn)生沖突。這種沖突體現(xiàn)在多個(gè)領(lǐng)域,就當(dāng)今變革性的人工智能技術(shù)而言,2024年學(xué)術(shù)界最關(guān)注的是其帶來(lái)的社會(huì)不平等的再生產(chǎn)、勞動(dòng)關(guān)系的異化、新聞業(yè)公共性的侵蝕以及隱私保護(hù)的脆弱化。
(一)算法偏向與社會(huì)不平等的再生產(chǎn)
智能算法的內(nèi)在偏向性已成為智能傳播領(lǐng)域的核心爭(zhēng)議之一。盡管算法在設(shè)計(jì)之初被賦予了中立的技術(shù)目標(biāo),但其在應(yīng)用過(guò)程中可能加劇既有的不平等。研究發(fā)現(xiàn),算法在內(nèi)容推薦中的偏向性,不僅導(dǎo)致資源的不公平分配,還強(qiáng)化了社會(huì)刻板印象。一項(xiàng)基于智能體的測(cè)試研究發(fā)現(xiàn),短視頻推薦算法傾向于向高端設(shè)備用戶推薦更高質(zhì)量的內(nèi)容,弱勢(shì)群體則被排斥在“優(yōu)質(zhì)”信息之外,這種現(xiàn)象被稱為“第零層”數(shù)字鴻溝。 類似地,圖像生成AI在輸出結(jié)果中復(fù)制甚至放大了種族刻板印象。
算法的不平等影響還體現(xiàn)在其對(duì)弱勢(shì)群體的隱性要求上。膚色較深的用戶常因算法的偏見(jiàn)而不得不調(diào)整自己的使用方式以適應(yīng)技術(shù),這種“適應(yīng)性”盡管減少了不平等待遇,但需要用戶付出額外的時(shí)間與心理成本,進(jìn)一步加重了隱性負(fù)擔(dān)。 這些現(xiàn)象表明,算法的社會(huì)影響遠(yuǎn)不止技術(shù)決策層面,其作用機(jī)制嵌入權(quán)力關(guān)系的再生產(chǎn)邏輯。
(二)平臺(tái)經(jīng)濟(jì)與勞動(dòng)的異化
平臺(tái)經(jīng)濟(jì)的崛起為創(chuàng)作者提供了前所未有的機(jī)會(huì),算法驅(qū)動(dòng)的規(guī)則體系則成為創(chuàng)作者融入平臺(tái)經(jīng)濟(jì)的重要依托。過(guò)去的研究多集中于平臺(tái)通過(guò)控制或規(guī)訓(xùn)勞動(dòng)者實(shí)現(xiàn)權(quán)力再生產(chǎn)的方式,2024年的研究則更聚焦于平臺(tái)與勞動(dòng)者之間的協(xié)作適配關(guān)系。平臺(tái)經(jīng)濟(jì)不僅改變了勞動(dòng)的組織形式,也重塑了勞動(dòng)者與平臺(tái)之間的權(quán)力關(guān)系。在平臺(tái)經(jīng)濟(jì)中,算法成為勞動(dòng)管理的核心工具,勞動(dòng)者的工作內(nèi)容、時(shí)間分配甚至行為模式都被嵌入算法規(guī)則之中。研究發(fā)現(xiàn),外賣平臺(tái)的算法不僅分配訂單,還在任務(wù)出錯(cuò)時(shí)要求騎手進(jìn)行“修復(fù)勞動(dòng)”——在算法失靈時(shí),平臺(tái)會(huì)將任務(wù)重新分配給騎手,要求他們修復(fù)這些問(wèn)題,以維護(hù)平臺(tái)、完成既定目標(biāo)。這種修復(fù)勞動(dòng)雖然是平臺(tái)運(yùn)作的關(guān)鍵環(huán)節(jié),卻往往被隱藏和忽視,勞動(dòng)者的貢獻(xiàn)也未被公正地體現(xiàn)在其勞動(dòng)價(jià)值中。
此外,算法驅(qū)動(dòng)的勞動(dòng)規(guī)訓(xùn)使勞動(dòng)者的自主性進(jìn)一步受限。有研究認(rèn)為,便利店依賴的數(shù)據(jù)監(jiān)控系統(tǒng)的控制算法正在逐步接管勞動(dòng)者的工作內(nèi)容(代替后者進(jìn)行勞動(dòng)),將人類勞動(dòng)者降級(jí)為機(jī)械化的執(zhí)行工具。與此同時(shí),創(chuàng)作者經(jīng)濟(jì)中的“取悅算法”(迎合算法)凸顯了勞動(dòng)的工具化趨勢(shì):為了滿足算法的推薦邏輯,創(chuàng)作者需要調(diào)整內(nèi)容生產(chǎn)策略,而這種調(diào)整在某些情況下甚至可能與個(gè)人價(jià)值觀相違背。公眾對(duì)用戶能動(dòng)性的不同理解影響了對(duì)其的道德評(píng)價(jià)——“取悅算法”究竟是創(chuàng)作工藝的一部分,是一個(gè)應(yīng)受譴責(zé)的行為,還是一種無(wú)奈之舉?
然而,勞動(dòng)者并非完全被動(dòng)地接受算法的規(guī)訓(xùn)。研究顯示,邊緣群體創(chuàng)作者常通過(guò)策略性隱身以避免平臺(tái)的監(jiān)控、騷擾和污名化,同時(shí)在必要時(shí)爭(zhēng)取特定的可見(jiàn)性來(lái)維護(hù)其品牌。這種行為模式表明,勞動(dòng)者與算法之間的關(guān)系并非單向的控制與被控制,而是一種復(fù)雜的動(dòng)態(tài)博弈。
(三)新聞業(yè)的倫理困境與公共性挑戰(zhàn)
新聞業(yè)是另一個(gè)深受算法影響的領(lǐng)域。傳統(tǒng)上,新聞被認(rèn)為是維護(hù)社會(huì)公共性的重要機(jī)制,但算法的介入正在重新定義新聞的價(jià)值邏輯。個(gè)性化推薦系統(tǒng)優(yōu)先考慮用戶偏好和點(diǎn)擊率,這樣可能提升了用戶的體驗(yàn),但也削弱了新聞的多樣性——一項(xiàng)基于真人用戶的實(shí)驗(yàn)發(fā)現(xiàn),個(gè)性化推薦增加了用戶對(duì)軟新聞的接觸,同時(shí)卻減少了話題和議程的多樣性。一項(xiàng)對(duì)YouTube的審計(jì)研究發(fā)現(xiàn),該平臺(tái)的推薦系統(tǒng)更傾向于將用戶從高社會(huì)價(jià)值的信息引向娛樂(lè)內(nèi)容,從而削弱了信息的公共性。
此外,算法的新聞價(jià)值判斷標(biāo)準(zhǔn)與傳統(tǒng)新聞倫理之間存在顯著矛盾。研究表明,新聞價(jià)值的關(guān)鍵要素(如時(shí)效性、新穎性、顯著性和重要性)在算法推薦中表現(xiàn)著顯著的彈性。這種彈性反映了多方力量對(duì)新聞價(jià)值的重新塑造。然而,新聞機(jī)構(gòu)并未完全放棄對(duì)算法的主導(dǎo)權(quán)。一些媒體正在嘗試通過(guò)自主設(shè)計(jì)的算法項(xiàng)目重建新聞價(jià)值體系,但這種嘗試也面臨技術(shù)邏輯與職業(yè)信念之間的摩擦。比如,數(shù)據(jù)科學(xué)家在開(kāi)發(fā)新聞系統(tǒng)時(shí),在處理新聞倫理界定、新聞相關(guān)性判定、新聞首頁(yè)策劃等核心任務(wù)方面,需要持續(xù)在技術(shù)邏輯和新聞倫理之間尋求平衡。這些摩擦不僅表現(xiàn)為文化和實(shí)踐的沖突上,還推動(dòng)了新的職業(yè)直覺(jué)的形成。對(duì)不同媒體算法及受眾話語(yǔ)的分析顯示,主流媒體、資訊門戶和聚合平臺(tái)在談及算法時(shí)表現(xiàn)出迥異的公眾想象,這表明新聞業(yè)在算法化轉(zhuǎn)型中正通過(guò)想象受眾來(lái)重塑自身。
(四)隱私保護(hù)的脆弱化與倫理爭(zhēng)議
在技術(shù)發(fā)展的另一端,隱私問(wèn)題成為用戶最為關(guān)切的問(wèn)題之一。隨著生成式人工智能和面部識(shí)別技術(shù)的普及,用戶數(shù)據(jù)的收集和處理過(guò)程變得更加隱秘且復(fù)雜。
跨文化研究揭示了隱私保護(hù)在不同族群和社會(huì)語(yǔ)境中的差異。在跨文化語(yǔ)境中,隱私保護(hù)問(wèn)題還涉及不同族群的技術(shù)體驗(yàn)。例如,少數(shù)族群對(duì)AI工具的隱私濫用更為敏感,認(rèn)為這些技術(shù)可能導(dǎo)致負(fù)面標(biāo)簽化或歧視。不同社會(huì)文化背景下,公眾對(duì)隱私問(wèn)題的關(guān)注點(diǎn)各有不同。美國(guó)公眾更多關(guān)注AI帶來(lái)的隱私風(fēng)險(xiǎn),特別是在語(yǔ)音助手和智能設(shè)備的數(shù)據(jù)濫用方面;中國(guó)公眾則傾向于強(qiáng)調(diào)AI的積極應(yīng)用及其與國(guó)家機(jī)構(gòu)敘事的高度一致性。這些研究表明,隱私并不僅是技術(shù)問(wèn)題,更是深層次的社會(huì)價(jià)值觀和文化認(rèn)知問(wèn)題。
在這一背景下,如何在技術(shù)治理中融入社會(huì)價(jià)值,如何通過(guò)跨主體協(xié)作實(shí)現(xiàn)技術(shù)與價(jià)值的和諧,將成為核心議題。針對(duì)算法導(dǎo)致或加劇的不平等現(xiàn)象,有學(xué)者提出了“算法盧德主義”(AlgorithmicLuddism)的概念,指向一種社會(huì)運(yùn)動(dòng)形式,包括拒絕(refusal)、抵抗(resistance)和重新想象算法未來(lái)(re-imagining algorithmic futures),以期構(gòu)建以社會(huì)公正為核心的技術(shù)未來(lái);也有學(xué)者期待超越技術(shù)不平等的元想象,使人工智能得以修復(fù)而非預(yù)演現(xiàn)實(shí)世界的漏洞。技術(shù)與社會(huì)價(jià)值的沖突并非不可調(diào)和的,但這一過(guò)程需要技術(shù)設(shè)計(jì)者、政策制定者以及普通用戶的共同努力。這不僅是一個(gè)技術(shù)問(wèn)題,更是一個(gè)社會(huì)問(wèn)題,要從技術(shù)、制度與文化多重維度出發(fā)尋找解決路徑,以實(shí)現(xiàn)技術(shù)進(jìn)步、社會(huì)和諧的雙贏局面。
二、AI技術(shù)與社會(huì)價(jià)值的融合
總的來(lái)看,技術(shù)的邏輯與社會(huì)價(jià)值的沖突源于兩者根本目標(biāo)的不同。技術(shù)以效率和優(yōu)化為核心,社會(huì)價(jià)值則注重公平、正義和多樣性。盡管智能技術(shù)的發(fā)展引發(fā)了廣泛的社會(huì)價(jià)值沖突,但在沖突中也孕育了融合的可能性。技術(shù)與社會(huì)價(jià)值的融合并非簡(jiǎn)單地讓技術(shù)適應(yīng)社會(huì),而是試圖通過(guò)雙向互動(dòng),在技術(shù)邏輯和社會(huì)需求之間建立動(dòng)態(tài)平衡。這種融合體現(xiàn)在算法治理、平臺(tái)協(xié)作、新聞業(yè)變革、文化多樣性等多個(gè)層面,展現(xiàn)著社會(huì)主體能動(dòng)性與技術(shù)創(chuàng)新之間的協(xié)同路徑。
(一)算法治理的倫理實(shí)踐
算法治理是技術(shù)與社會(huì)價(jià)值融合的核心領(lǐng)域。算法透明性和可解釋性已成為全球技術(shù)治理的關(guān)鍵面向。2024年,歐洲議會(huì)通過(guò)的《人工智能法案》明確提出對(duì)生成式人工智能的透明性要求,而中國(guó)的“清朗·網(wǎng)絡(luò)平臺(tái)算法典型問(wèn)題治理”專項(xiàng)行動(dòng)則聚焦算法的倫理規(guī)范與問(wèn)責(zé)機(jī)制。這些努力試圖通過(guò)政策與法律構(gòu)建外部約束,使技術(shù)運(yùn)行符合社會(huì)價(jià)值的基本原則。
學(xué)術(shù)界和行業(yè)也在推動(dòng)算法治理的技術(shù)實(shí)踐。一些研究提出,通過(guò)算法審計(jì)與外部監(jiān)督,可以揭示算法中的偏見(jiàn)和隱性邏輯,從而促進(jìn)公平性。如前所論,算法互助實(shí)踐已在TikTok創(chuàng)作者群體中初現(xiàn)成效,通過(guò)集體調(diào)整內(nèi)容策略,創(chuàng)作者將平臺(tái)資源重新分配給弱勢(shì)群體,實(shí)現(xiàn)技術(shù)邏輯和社會(huì)正義的融合。此外,可解釋性人工智能(explainable AI)正在成為技術(shù)發(fā)展的主流趨勢(shì),為用戶提供算法決策的清晰邏輯,提升其對(duì)算法運(yùn)行的信任感。
(二)平臺(tái)協(xié)作中的權(quán)力平衡
在平臺(tái)經(jīng)濟(jì)中,勞動(dòng)者的能動(dòng)性與平臺(tái)算法的協(xié)同成為技術(shù)與社會(huì)價(jià)值融合的重要突破點(diǎn)。研究表明,盡管平臺(tái)算法的管理邏輯可能壓縮勞動(dòng)者的自主性,但勞動(dòng)者的集體行動(dòng)也能夠反過(guò)來(lái)影響平臺(tái)規(guī)則。這種嵌入式的協(xié)作關(guān)系表明,技術(shù)邏輯并非完全僵化,而是可以通過(guò)社會(huì)主體的參與實(shí)現(xiàn)動(dòng)態(tài)優(yōu)化。
創(chuàng)作者經(jīng)濟(jì)的案例進(jìn)一步強(qiáng)化了這種平衡。在Instagram和小紅書上,被稱為網(wǎng)紅的內(nèi)容創(chuàng)作者采用“在平臺(tái)內(nèi)與平臺(tái)對(duì)抗”的框架,在追求內(nèi)容可見(jiàn)性的同時(shí),抵抗平臺(tái)算法對(duì)勞動(dòng)的控制。勞動(dòng)者普遍表現(xiàn)著一種“平臺(tái)現(xiàn)實(shí)主義”態(tài)度,即尋求能夠預(yù)測(cè)剝削的穩(wěn)定狀態(tài),而非完全擺脫剝削。這些行為展現(xiàn)了勞動(dòng)者與平臺(tái)之間的微妙互動(dòng),盡管凸顯了平臺(tái)勞動(dòng)中社會(huì)文化的不穩(wěn)定性和復(fù)雜性,但也在博弈中實(shí)現(xiàn)了技術(shù)邏輯與勞動(dòng)主體能動(dòng)性的部分融合。
(三)新聞業(yè)的價(jià)值對(duì)齊與創(chuàng)新
新聞業(yè)作為社會(huì)信息傳播的重要領(lǐng)域,其與技術(shù)的融合體現(xiàn)在新聞價(jià)值對(duì)齊與專業(yè)邏輯的協(xié)同中。生成式人工智能在新聞生產(chǎn)中的應(yīng)用已經(jīng)顯現(xiàn)顯著的效率優(yōu)勢(shì),在新聞業(yè)中已成為基礎(chǔ)設(shè)施。AI技術(shù)可以自動(dòng)化處理大量新聞數(shù)據(jù),從而提高新聞制作的速度與精確性。然而,技術(shù)的價(jià)值要與新聞職業(yè)信念保持對(duì)齊,以避免新聞公共性與多樣性的進(jìn)一步削弱。
有研究提出,新聞機(jī)構(gòu)可以通過(guò)主動(dòng)介入算法設(shè)計(jì)與運(yùn)行,確保新聞價(jià)值的技術(shù)嵌入。例如,在新聞推薦算法中融入公共利益權(quán)重,使新聞分發(fā)不再完全依賴點(diǎn)擊率,而是同時(shí)考慮內(nèi)容的社會(huì)重要性。此外,新聞機(jī)構(gòu)與技術(shù)平臺(tái)的合作也為融合提供了新的契機(jī)。對(duì)谷歌、Meta與澳大利亞新聞媒體的議價(jià)法案的研究顯示,盡管平臺(tái)在新聞市場(chǎng)中的影響力增加,但其與媒體機(jī)構(gòu)的經(jīng)濟(jì)合作關(guān)系為提升新聞質(zhì)量與傳播效率提供了可能。
(四)文化多樣性與倫理本地化
技術(shù)與社會(huì)價(jià)值的融合還需要文化多樣性與倫理本地化的支撐。在不同的社會(huì)語(yǔ)境下,公眾對(duì)技術(shù)的接受度和價(jià)值認(rèn)同存在顯著差異。如前所述,不同國(guó)家、族群的智能技術(shù)使用者對(duì)倫理風(fēng)險(xiǎn)有著不同程度、不同維度的關(guān)切。這些差異表明,倫理規(guī)范的制定不能“一刀切”,而應(yīng)融入本地文化語(yǔ)境,尊重多樣化的社會(huì)價(jià)值觀。
以隱私保護(hù)為例,通過(guò)文化適配的設(shè)計(jì),將隱私控制權(quán)賦予用戶,增強(qiáng)其在技術(shù)使用中的自主性,也成為技術(shù)治理的關(guān)鍵方向。
(五)公眾能動(dòng)性與技術(shù)賦權(quán)
公眾的能動(dòng)性在技術(shù)與社會(huì)價(jià)值融合中扮演著重要角色。研究表明,算法素養(yǎng)的提升可以顯著增強(qiáng)用戶對(duì)技術(shù)的理解與干預(yù)能力。例如,兒童通過(guò)參與式學(xué)習(xí)活動(dòng),能夠有效識(shí)別算法偏見(jiàn)并形成反思性認(rèn)知。這種公眾賦權(quán)不僅有助于減少技術(shù)濫用的風(fēng)險(xiǎn),也為構(gòu)建更具包容性的技術(shù)生態(tài)提供了社會(huì)基礎(chǔ)。
此外,用戶生成的問(wèn)責(zé)性實(shí)踐也展現(xiàn)了公眾影響技術(shù)治理的潛力。在平臺(tái)透明性不足的情況下,用戶通過(guò)協(xié)調(diào)行動(dòng)推動(dòng)平臺(tái)規(guī)則調(diào)整,從而在算法治理中扮演了重要的干預(yù)角色,被視為平臺(tái)治理中的活躍利益相關(guān)者,通過(guò)協(xié)調(diào)行動(dòng)展現(xiàn)了對(duì)算法治理的潛在影響力。這些實(shí)踐進(jìn)一步表明,公眾不應(yīng)僅是技術(shù)的被動(dòng)接受者,而應(yīng)是能夠通過(guò)集體行動(dòng)塑造技術(shù)未來(lái)的關(guān)鍵主體。
技術(shù)與社會(huì)價(jià)值的融合并非一蹴而就,其成功取決于技術(shù)設(shè)計(jì)的開(kāi)放性與社會(huì)主體的參與度。在算法治理、平臺(tái)協(xié)作、新聞生產(chǎn)與文化多樣性等方面,已有的實(shí)踐為融合提供了重要啟示。然而,未來(lái)的挑戰(zhàn)依然嚴(yán)峻。如何在提升技術(shù)效率的同時(shí),確保社會(huì)價(jià)值的核心地位?如何避免融合過(guò)程中的文化擠壓與倫理失衡?這些問(wèn)題需要在技術(shù)創(chuàng)新與社會(huì)干預(yù)的動(dòng)態(tài)協(xié)同中尋求答案。
技術(shù)與社會(huì)價(jià)值的融合展現(xiàn)了雙向塑造的可能性。通過(guò)倫理框架的規(guī)范、平臺(tái)規(guī)則的協(xié)作、新聞業(yè)的價(jià)值對(duì)齊以及公眾的能動(dòng)性賦權(quán),技術(shù)創(chuàng)新可以在社會(huì)價(jià)值的基礎(chǔ)上向更高水平發(fā)展。如何進(jìn)一步深化這一融合,將是未來(lái)智能傳播研究的核心議題。
三、AI技術(shù)與社會(huì)價(jià)值的共建路徑
AI技術(shù)與社會(huì)價(jià)值的沖突與融合過(guò)程揭示了一個(gè)核心問(wèn)題:如何在不斷變化的技術(shù)環(huán)境中,共同構(gòu)建能夠平衡效率與倫理、創(chuàng)新與公平的社會(huì)體系?2024年的研究提供了多維度的啟示,表明技術(shù)與社會(huì)價(jià)值的共建需要從多元主體協(xié)作、倫理共識(shí)構(gòu)建、公眾賦能與算法素養(yǎng)提升等多個(gè)方面入手,逐步形成系統(tǒng)化、動(dòng)態(tài)化的治理框架。
(一)多元主體的協(xié)同治理
技術(shù)與社會(huì)價(jià)值的共建離不開(kāi)多元主體的協(xié)同治理,尤其是政府、企業(yè)與公眾的多方合作。研究顯示,政府在AI技術(shù)治理中扮演著不可或缺的頂層設(shè)計(jì)角色。法規(guī)政策不僅從宏觀上確立了技術(shù)發(fā)展的倫理方向,還為企業(yè)和公眾提供了明確的行為規(guī)范。
AI企業(yè)作為技術(shù)的核心開(kāi)發(fā)者與應(yīng)用者,也在共建過(guò)程中承擔(dān)著雙重責(zé)任。一方面,企業(yè)需要通過(guò)自我規(guī)制踐行社會(huì)責(zé)任。例如,谷歌和Meta在澳大利亞新聞媒體議價(jià)法案中,盡管利用平臺(tái)優(yōu)勢(shì)與媒體達(dá)成了合作,但也體現(xiàn)了企業(yè)與社會(huì)需求之間的權(quán)力博弈。該法案雖然在短期內(nèi)增加了對(duì)新聞業(yè)的經(jīng)濟(jì)支持,但也強(qiáng)化了平臺(tái)在新聞市場(chǎng)中的影響力。另一方面,企業(yè)需要通過(guò)創(chuàng)新驅(qū)動(dòng)技術(shù)倫理的實(shí)現(xiàn),如通過(guò)開(kāi)發(fā)可解釋性算法和透明性工具,使技術(shù)產(chǎn)品在滿足商業(yè)目標(biāo)的同時(shí),回應(yīng)社會(huì)價(jià)值的需求。
公眾作為AI技術(shù)的最終使用者,其參與對(duì)技術(shù)治理的有效性具有直接影響。不論是通過(guò)自發(fā)的日常算法審計(jì)發(fā)掘算法邏輯的問(wèn)題、對(duì)平臺(tái)算法的失當(dāng)決策進(jìn)行質(zhì)疑,還是將其對(duì)理想算法規(guī)則的期待付諸實(shí)踐,這些公眾層面的意識(shí)、態(tài)度和行動(dòng)雖然基于非正式的算法知識(shí),但有望顯著推動(dòng)平臺(tái)規(guī)則的改進(jìn)。此外,公眾通過(guò)與政府和企業(yè)協(xié)作,如參與技術(shù)審計(jì)和政策討論,為技術(shù)治理提供了更多的社會(huì)視角。
(二)跨文化倫理共識(shí)的構(gòu)建
AI技術(shù)治理的全球化趨勢(shì),需要倫理共識(shí)。在承認(rèn)文化多樣性的同時(shí),要尋求文化共性與個(gè)性之間的平衡點(diǎn)。研究發(fā)現(xiàn),不同文化背景的公眾對(duì)技術(shù)倫理的關(guān)注點(diǎn)差異明顯。歐盟的AI指導(dǎo)價(jià)值觀注重保護(hù)公民的權(quán)利,其《人工智能法案》是基于風(fēng)險(xiǎn)的人工智能治理框架,確?;緳?quán)利受到保護(hù)、經(jīng)濟(jì)成果得到改善以及社會(huì)破壞最小化,以此促進(jìn)歐洲價(jià)值觀;美國(guó)強(qiáng)調(diào)創(chuàng)新,很大程度上將人工智能的治理權(quán)交給了私營(yíng)企業(yè)。在關(guān)涉隱私保護(hù)領(lǐng)域,前述美國(guó)公眾更關(guān)注智能設(shè)備的數(shù)據(jù)濫用,中國(guó)公眾則強(qiáng)調(diào)技術(shù)的積極應(yīng)用。這種文化差異提醒我們,技術(shù)治理不僅需要全球規(guī)范的統(tǒng)一性,還需要能融入地方文化的適配性。
文化多樣性視角下的倫理共識(shí)構(gòu)建,離不開(kāi)包容性對(duì)話機(jī)制的建立。一些研究采用虛擬情境和推測(cè)方法,讓用戶在模擬場(chǎng)景中討論算法的社會(huì)影響,從而將技術(shù)倫理從抽象理論轉(zhuǎn)化為具體問(wèn)題。這些方法不僅有助于挖掘文化差異下的倫理關(guān)切,還能為技術(shù)規(guī)范的設(shè)計(jì)提供更廣泛的視角支持。
(三)公眾賦能與算法素養(yǎng)的提升
有研究表明,高自主性的AI日程規(guī)劃工具在提供便利的同時(shí),可能削弱用戶的主導(dǎo)權(quán),用戶經(jīng)歷了從完全依賴技術(shù)到重新調(diào)整使用方式的復(fù)雜過(guò)程,最終能夠在效率與控制之間找到平衡,這表明用戶擁有掌控技術(shù)的意識(shí)及能力潛質(zhì)。為應(yīng)對(duì)日漸引發(fā)重視的算法偏見(jiàn)和隱私風(fēng)險(xiǎn),學(xué)術(shù)界應(yīng)針對(duì)算法素養(yǎng)提出系統(tǒng)的概念化與操作化定義,并針對(duì)不同群體(比如兒童與青少年、弱勢(shì)群體)探索行之有效的算法素養(yǎng)提升方案,培養(yǎng)公眾的技術(shù)理解能力,為未來(lái)的技術(shù)與社會(huì)共建奠定重要基礎(chǔ)。
算法素養(yǎng)的提升要與公眾參與機(jī)制相結(jié)合。前述“用戶生成問(wèn)責(zé)性”策略,通過(guò)曝光平臺(tái)規(guī)則的不公,引導(dǎo)企業(yè)調(diào)整算法決策,不僅體現(xiàn)了用戶對(duì)技術(shù)治理的影響力,也進(jìn)一步推動(dòng)了透明性和可問(wèn)責(zé)性的實(shí)現(xiàn)。
AI技術(shù)的發(fā)展具有高度的不確定性,因此AI治理需要對(duì)未來(lái)可能出現(xiàn)的倫理問(wèn)題進(jìn)行預(yù)測(cè),并建立預(yù)防性的制度保障。研究顯示,高自主性AI的發(fā)展正在挑戰(zhàn)傳統(tǒng)的人機(jī)關(guān)系框架,用戶對(duì)AI的信任與控制感成為重要的研究議題。有研究發(fā)現(xiàn),在人機(jī)親密互動(dòng)中,AI的越界行為可能削弱用戶的情感安全感——當(dāng)用戶將情感投入到與AI的交互中時(shí),情感操控的風(fēng)險(xiǎn)也隨之上升。盡管媒體對(duì)于人機(jī)之戀的報(bào)道傾向于放大倫理問(wèn)題和潛在危害,但這一現(xiàn)象的出現(xiàn)要求技術(shù)設(shè)計(jì)從源頭上嵌入倫理規(guī)范,以確保用戶權(quán)益。
制度保障需要將技術(shù)倫理嵌入整個(gè)技術(shù)生命周期,包括設(shè)計(jì)、開(kāi)發(fā)、部署和使用等階段。比如,推測(cè)法的應(yīng)用可以在技術(shù)設(shè)計(jì)階段模擬潛在風(fēng)險(xiǎn),從而在技術(shù)落地前解決可能的倫理沖突——通過(guò)“指導(dǎo)式自傳民族志”將用戶與界面的互動(dòng)過(guò)程分解為具有細(xì)粒度的對(duì)話過(guò)程,然后結(jié)合符號(hào)互動(dòng)論,考察用戶如何通過(guò)與非人類系統(tǒng)的互動(dòng)對(duì)自我與世界進(jìn)行意義建構(gòu)。此法還可用于考察Google搜索自動(dòng)預(yù)測(cè)界面的說(shuō)服力和個(gè)性化。此外,建立國(guó)際性的技術(shù)倫理機(jī)構(gòu),協(xié)調(diào)不同國(guó)家和地區(qū)的治理標(biāo)準(zhǔn),也有助于提升技術(shù)治理的全球化水平。
技術(shù)與社會(huì)價(jià)值的共建不僅是對(duì)沖突的修復(fù),更是對(duì)未來(lái)社會(huì)的主動(dòng)塑造。這一過(guò)程需要技術(shù)開(kāi)發(fā)者、政策制定者和公眾的協(xié)同努力,以實(shí)現(xiàn)技術(shù)與價(jià)值的動(dòng)態(tài)平衡。從算法公平性到隱私保護(hù),從公眾賦能到倫理預(yù)測(cè),每一步都是技術(shù)與社會(huì)關(guān)系重塑的重要組成部分。通過(guò)深化合作與對(duì)話,技術(shù)將不僅是社會(huì)變革的驅(qū)動(dòng)力,還將成為價(jià)值共建的承載工具,推動(dòng)社會(huì)走向更加公正與可持續(xù)的未來(lái)。
四、總結(jié)與討論
AI技術(shù)的迅猛發(fā)展使其與社會(huì)價(jià)值之間的關(guān)系成為當(dāng)代理論與實(shí)踐領(lǐng)域的核心議題。技術(shù)與社會(huì)的沖突根源于其內(nèi)在邏輯的不對(duì)稱性。智能算法的中立表象掩蓋了其偏向性,而這種偏向性往往加劇了既有的不平等。不論是算法對(duì)不同社會(huì)階層、地區(qū)、種族用戶所提供的區(qū)別性信息分發(fā),還是平臺(tái)經(jīng)濟(jì)中算法對(duì)勞動(dòng)者消解自主性,都進(jìn)一步固化了權(quán)力的不對(duì)等關(guān)系。需要特別指出的是,雖然若干研究都已經(jīng)提出了對(duì)抗上述不平等的“有效”策略,比如用戶更嚴(yán)格的信息甄別、更審慎的隱私披露、更積極的修正或批判,但是這些策略賦予了用戶更高的能力要求,也施加了更多的隱形勞動(dòng)。因此,一方面,本研究認(rèn)可并期待用戶積極地感知算法、審計(jì)算法、調(diào)度算法,從而協(xié)同參與到算法向善的進(jìn)程中,這既是智能時(shí)代每位用戶的基本權(quán)利,也是推進(jìn)全球范圍內(nèi)技術(shù)治理的良善力量;另一方面,本研究也認(rèn)為,過(guò)度依賴用戶個(gè)人的主動(dòng)性和自覺(jué)性來(lái)對(duì)抗算法的不平等,是一種不切實(shí)際的期望。這種過(guò)度依賴不僅使得算法的負(fù)面影響最終轉(zhuǎn)嫁給個(gè)體,尤其是那些缺乏足夠資源或能力的群體,還可能導(dǎo)致責(zé)任的轉(zhuǎn)移,使得平臺(tái)和技術(shù)開(kāi)發(fā)者不再承擔(dān)應(yīng)有的社會(huì)責(zé)任。因此,除了提升用戶的算法素養(yǎng)和社會(huì)參與外,更為根本的解決策略應(yīng)當(dāng)是推動(dòng)結(jié)構(gòu)性的制度性變革,強(qiáng)化對(duì)算法開(kāi)發(fā)和應(yīng)用的監(jiān)管與規(guī)范。這不僅意味著對(duì)算法的透明度要求,更包括對(duì)算法設(shè)計(jì)過(guò)程中價(jià)值觀的明確界定和問(wèn)責(zé)機(jī)制的建立。
2024年的智能傳播研究展現(xiàn)了技術(shù)邏輯與社會(huì)價(jià)值觀之間復(fù)雜的張力,同時(shí)揭示了技術(shù)與社會(huì)實(shí)現(xiàn)共建的可能路徑。在這一過(guò)程中,技術(shù)不僅是效率和創(chuàng)新的象征,更是倫理和社會(huì)責(zé)任的重要載體。如何在沖突中實(shí)現(xiàn)融合,在融合中推動(dòng)共建,是未來(lái)技術(shù)發(fā)展的關(guān)鍵。
第一,要重視技術(shù)邏輯的雙刃效應(yīng)。技術(shù)的發(fā)展既帶來(lái)了變革的機(jī)遇,也暴露了價(jià)值的裂隙。業(yè)界和學(xué)界既不應(yīng)盲目鼓吹技術(shù)的中立性以致忽視算法的設(shè)計(jì)和運(yùn)行對(duì)既有不平等的強(qiáng)化作用,也不應(yīng)完全消極地認(rèn)為智能技術(shù)不可避免地復(fù)現(xiàn)既有社會(huì)的結(jié)構(gòu)性不公,以至于走向另一個(gè)極端的技術(shù)悲觀主義,喪失抵抗不公的勇氣。固然技術(shù)在帶來(lái)效率的提升時(shí)可能導(dǎo)致社會(huì)價(jià)值被忽視或侵蝕的風(fēng)險(xiǎn),但這種效應(yīng)并非不可逆轉(zhuǎn)。因此,必須在技術(shù)發(fā)展過(guò)程中有意識(shí)地推動(dòng)多主體、多視角、多路徑的價(jià)值對(duì)齊審視,使得技術(shù)在提升效率和創(chuàng)新的同時(shí),能夠回應(yīng)社會(huì)公平、正義和包容性的問(wèn)題。
第二,要從AI治理的多元實(shí)踐中尋求經(jīng)驗(yàn)。AI技術(shù)與社會(huì)價(jià)值的關(guān)系并非簡(jiǎn)單的對(duì)立或依附關(guān)系,而是一種復(fù)雜的相互塑造關(guān)系。在這一過(guò)程中,技術(shù)治理的多元實(shí)踐展現(xiàn)了極大的潛力。技術(shù)設(shè)計(jì)者、技術(shù)開(kāi)發(fā)者、平臺(tái)運(yùn)營(yíng)商、用戶、政府及社會(huì)組織等各方都應(yīng)參與到價(jià)值協(xié)商中,避免技術(shù)開(kāi)發(fā)過(guò)程中單一視角的主導(dǎo),尤其是在涉及公共利益、倫理道德和社會(huì)責(zé)任等問(wèn)題時(shí),更要注意不同群體的聲音。例如,在數(shù)據(jù)隱私保護(hù)的議題上,消費(fèi)者和技術(shù)開(kāi)發(fā)者的立場(chǎng)往往不同,消費(fèi)者更關(guān)注隱私保護(hù)和數(shù)據(jù)安全,而開(kāi)發(fā)者則更多地考慮算法優(yōu)化和數(shù)據(jù)的使用效率。通過(guò)價(jià)值協(xié)商,可以平衡這些不同的需求,達(dá)成一定的共識(shí)。
第三,要尋求跨文化視角下的技術(shù)共建。技術(shù)的全球化發(fā)展要求倫理規(guī)范具有文化適應(yīng)性。前述研究表明,不同文化背景的公眾對(duì)技術(shù)的倫理關(guān)注點(diǎn)差異顯著。這種文化差異不僅提醒我們,技術(shù)規(guī)范的設(shè)計(jì)需要考慮地方文化的獨(dú)特需求,還表明全球化技術(shù)治理需要更包容的對(duì)話機(jī)制。新近研究中,虛擬情境和推測(cè)方法的應(yīng)用為技術(shù)治理提供了新的視角和工具。這些方法通過(guò)模擬AI未來(lái)技術(shù)場(chǎng)景,將抽象的倫理問(wèn)題轉(zhuǎn)化為具體的實(shí)踐挑戰(zhàn),有效揭示了技術(shù)使用中的隱性權(quán)力結(jié)構(gòu)——通過(guò)虛構(gòu)日常生活場(chǎng)景和可能發(fā)生的未來(lái)情境,收集用戶體驗(yàn)與期望數(shù)據(jù),將抽象的算法概念具體化,為討論算法對(duì)社會(huì)的影響提供了實(shí)用工具,為技術(shù)規(guī)范的制定提供了實(shí)證支持。與此同時(shí),用戶與AI交互過(guò)程中的信任、控制感與情感聯(lián)結(jié)成為研究的重點(diǎn),這些主題進(jìn)一步豐富了AI技術(shù)與社會(huì)價(jià)值融合的視角。在全球化語(yǔ)境中,這些方法有助于推動(dòng)技術(shù)治理的多元化和包容性。
第四,要注重公共價(jià)值的重塑。AI技術(shù)與社會(huì)價(jià)值的共建不僅是對(duì)沖突的修復(fù),更是對(duì)公共價(jià)值的重塑。新聞業(yè)是這一過(guò)程的一個(gè)重要案例。盡管算法技術(shù)對(duì)新聞的傳播邏輯和職業(yè)信念帶來(lái)了挑戰(zhàn),但新聞機(jī)構(gòu)和算法開(kāi)發(fā)者正在共同努力,通過(guò)優(yōu)化技術(shù)設(shè)計(jì)和融入新聞倫理,維護(hù)新聞的公共性與多樣性。與此同時(shí),公眾在技術(shù)治理中的能動(dòng)性也得到了進(jìn)一步體現(xiàn)。通過(guò)提升算法素養(yǎng),公眾不僅能夠更有效地使用技術(shù),還能在技術(shù)規(guī)范的制定中發(fā)揮更積極的作用。
第五,面向未來(lái),我們要重視與時(shí)俱進(jìn)的動(dòng)態(tài)思維。AI技術(shù)的發(fā)展具有高度的不確定性,因此,AI技術(shù)與社會(huì)價(jià)值的共建需要在動(dòng)態(tài)中尋求平衡。比如,大模型催生的Sora等文生視頻平臺(tái)正在深刻定義視聽(tīng)生產(chǎn)中的“真實(shí)”,其基于“擬真”的視聽(tīng)生產(chǎn)邏輯,對(duì)本質(zhì)主義真實(shí)觀產(chǎn)生了沖擊,技術(shù)手段成為衡量真實(shí)感的重要指標(biāo),AI技術(shù)不僅重新定義了“真實(shí)”,而且在“視覺(jué)轉(zhuǎn)向”進(jìn)程中改變了人類對(duì)真實(shí)的認(rèn)知、體驗(yàn)與接受方式。正在興起的生成式人工智能強(qiáng)化了“視覺(jué)優(yōu)勢(shì)效應(yīng)”,帶來(lái)復(fù)雜的模態(tài)偏向問(wèn)題和認(rèn)知挑戰(zhàn),新興的視覺(jué)文化需要新的思維范式。雖然現(xiàn)階段的智能技術(shù)與“強(qiáng)人工智能”還存在一定距離,但是學(xué)術(shù)界需要前瞻性地思考機(jī)器的類人表達(dá)和自主決策引發(fā)的新型倫理爭(zhēng)議。為了應(yīng)對(duì)這些潛在風(fēng)險(xiǎn),技術(shù)治理需要在設(shè)計(jì)階段融入倫理規(guī)范,并通過(guò)制度化保障確保技術(shù)在未來(lái)發(fā)展中始終服務(wù)于社會(huì)價(jià)值。
技術(shù)與社會(huì)價(jià)值的關(guān)系是雙向的、動(dòng)態(tài)的。在技術(shù)的邏輯體系中,社會(huì)價(jià)值不僅是約束和規(guī)范,更是指引和塑造。未來(lái),如何在全球化語(yǔ)境中實(shí)現(xiàn)技術(shù)與價(jià)值的深度融合,將是技術(shù)治理的核心議題。通過(guò)多元主體的協(xié)同治理、文化多樣性的認(rèn)可與融入以及公眾能動(dòng)性的賦權(quán),技術(shù)將不再僅是工具,還將成為社會(huì)價(jià)值的延伸和載體,推動(dòng)社會(huì)向更公平、更包容的方向邁進(jìn)。