亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        生成式人工智能賦能科學普及:技術機遇、倫理風險與應對策略

        2024-10-21 00:00:00王碩閻妍李正風
        科普研究 2024年4期

        [摘 要] 生成式人工智能有望極大地賦能科學普及,帶來更廣泛的主體參與、更豐富的內(nèi)容呈現(xiàn)、更有效的知識轉譯以及更精準的科普研究。然而,這類技術也易引發(fā)兩類潛在的倫理風險:一方面是信息真實性、公平性、隱私安全性、偏見以及版權等生成式人工智能帶來的技術倫理問題;另一方面是傳統(tǒng)科普的過度通俗化、過少科學溝通、科學權威削弱和民粹主義等問題可能被放大。鑒于此,本文認為,未來需要深入挖掘生成式人工智能在科普實踐中的應用潛力,提升公眾、科普工作者與監(jiān)管者的技術認知、應用能力與監(jiān)管水平,確??破諆?nèi)容的準確性、隱私安全性及公平性。

        [關鍵詞]生成式人工智能 科學普及 技術機遇 倫理風險

        [中圖分類號] N4;TP18 [文獻標識碼] A [ DOI ] 10.19293/j.cnki.1673-8357.2024.04.001

        以ChatGPT為代表的生成式人工智能(Generative Artificial Intelligence,以下簡稱生成式AI)的迅猛發(fā)展為科普帶來了眾多機遇與挑戰(zhàn)。一方面,生成式AI有望大幅提升科普內(nèi)容生產(chǎn)效率,使公眾能夠輕松創(chuàng)作出高質(zhì)量的科普文章、視頻等多模態(tài)內(nèi)容。另一方面,這種技術也伴隨著信息準確性存疑、算法偏見等諸多倫理挑戰(zhàn)。黨的二十屆三中全會強調(diào),“完善生成式人工智能發(fā)展和管理機制”[1]。抓住生成式AI賦能科普的新機遇,準確理解和有效應對生成式AI與科普融合面臨的潛在倫理挑戰(zhàn),不僅有助于加深公眾的科學認知與參與、提升全民科學素質(zhì),還能為科技創(chuàng)新注入新活力,為我國實現(xiàn)高水平科技自立自強與中國式現(xiàn)代化夯實社會基礎。

        1研究述評

        關于人工智能(Artificial Intelligence,AI)時代的科普,學界已經(jīng)展開了較為充分的討論,主要涉及對傳統(tǒng)科技傳播模式的沖擊[2]、與科普活動的深度交互[3]、科學傳播體系的重構[4]、科普數(shù)字化轉型[5]以及面臨的倫理挑戰(zhàn)[6]等議題。這些研究對把握科普的新發(fā)展趨勢提供了有益的見解,但是并未充分關注到生成式AI作為一種顛覆性技術,已經(jīng)悄然對科普產(chǎn)生了更為系統(tǒng)而深刻的影響。生成式AI在許多方面表現(xiàn)出與傳統(tǒng)AI的本質(zhì)區(qū)別,生成式AI能夠自動生成內(nèi)容,這使得它在科普領域不僅僅是輔助工具,還有可能深入改變科普的范式與生態(tài)體系。

        國內(nèi)外學界逐漸開始關注生成式人工智能對科學傳播與科學普及的影響。國外著名科學傳播學者邁克·S. ·謝弗(Mike S. Sch?fer)在《科學傳播雜志》(Journal of Science Communication)上發(fā)表的論文指出,科學傳播研究者在很大程度上忽視了生成式人工智能。他呼吁研究者應該分析“關于人工智能的傳播”(about AI)以及“與人工智能的傳播”(with AI),探討生成式AI對科學傳播本身及其生態(tài)系統(tǒng)的影響[7]。國內(nèi)的科普領域學者則主要關注生成式AI對人類智能和創(chuàng)造力的重新定義[8]、生成式AI對人類智能的沖擊[9]、AI科普的特性及其與社會的關系[10]、公眾在生成式AI治理中的能動性和集體義務[11]、生成式AI時代的使用者倫理[12]等問題。然而,現(xiàn)有研究主要集中在技術應用和宏觀倫理層面,較少直接關注在微觀層面上生成式AI為科普工作與實踐帶來的具體機遇及其伴隨的潛在倫理挑戰(zhàn)。為此,本文旨在對這一議題展開探索性討論,希望能為科普政策的制定提供啟示,也希望能夠激發(fā)更多同仁的關注與探討。

        2生成式AI為科普帶來新的技術機遇

        生成式AI作為一項新興且迅速發(fā)展的技術,在科普領域具有巨大發(fā)展?jié)摿?。然而,我們對于這一新興技術的認識和理解仍然處于初步探索階段,對于很多前景“看不準”“摸不清”,相關落地實踐也具有一定滯后性。所以,目前尚難以形成一個全面和系統(tǒng)的分析框架,來一窺生成式AI賦能科普的全貌。但是,從目前已有的實踐來看,生成式AI在科普領域展現(xiàn)出的應用潛力至少涉及以下4個維度,可能成為未來科普研究和實踐的關鍵方向(見圖1)。

        2.1 共創(chuàng):更廣泛的科普參與

        生成式AI有望通過賦能公眾,使公眾成為科普的重要主體。在傳統(tǒng)的科普模式中,知識的生產(chǎn)和傳播通常集中在科技工作者、教育工作者、科普工作者等少數(shù)專家和學者的手中,大部分公眾處于被動接受的信息消費者地位,缺乏參與和創(chuàng)造的主動性。雖然自媒體時代的到來在一定程度上改變了這種權力關系,但創(chuàng)作高質(zhì)量內(nèi)容的生產(chǎn)能力依然掌握在少數(shù)人手中,公眾參與內(nèi)容生產(chǎn)的能力依然受限。

        然而,生成式AI憑借其強大的數(shù)據(jù)檢索、集成、分析與自主生成能力,降低了生產(chǎn)高質(zhì)量科普內(nèi)容所需要的“文化資本”(cultural capital),賦予公眾前所未有的創(chuàng)作自由與能力。無專業(yè)背景的普通用戶也能夠獲取有價值的知識,并根據(jù)自身需求和興趣,在社交媒體上創(chuàng)作與分享各種類型、更具創(chuàng)新性和多樣性的高質(zhì)量科普內(nèi)容,如科技新聞、科普視頻等。例如,ChatGPT開源共享了很多由用戶自主探索并創(chuàng)建的定制機器人,其中包括“Science Communicator”“Medical Science Popularization”“PopSci Forge”“SciWrite Assistant”“科普作家”“SciHelper科普神器”“小鹵蛋科普”“科普數(shù)字分身”“科普論文寫作助手”“PopSci Writer Assistant”等科普聊天機器人,可以根據(jù)用戶提供的科普主題、目標受眾和期望風格等信息生成結構完整的科普文章草稿,包括吸引人的標題、引人入勝的導語、信息豐富的正文和結語,大大降低了高質(zhì)量科普創(chuàng)作的知識與技術門檻。

        在這一意義上,生成式AI或許有望降低知識生產(chǎn)與傳播的門檻,使公眾能夠跨越傳統(tǒng)的科普能力障礙,推動其從信息消費者向內(nèi)容生產(chǎn)者轉變。通過這樣的“共同生產(chǎn)”(co-production),科學普及將變得更加“平民化”“去中心化”與“共享化”。

        2.2 融媒:更多樣的科普呈現(xiàn)

        生成式AI有望豐富科普內(nèi)容的多模態(tài)表達。直到今天,我們對于生成式AI的技術想象還經(jīng)常停留在文本生成任務上。事實上,多模態(tài)組合才是生成式AI未來最具顛覆性的領域。以OpenAI①為例,ChatGPT②通過高效的文本生成開啟了大模型時代,引發(fā)了廣泛的應用和關注。DALL-E③進一步擴展了生成式AI的邊界,其可以將文本描述轉換為高質(zhì)量圖像,展示了令人驚嘆的創(chuàng)造力。而Sora ④則代表了文本生成視頻的前沿技術,其結合文本生成的語義特征提取和圖像生成了每一幀畫面,實現(xiàn)了更加復雜和逼真的內(nèi)容創(chuàng)作。

        傳統(tǒng)的科普內(nèi)容主要以文字和圖片為主,雖然文字傳播具備嚴謹性和邏輯性,但其抽象性和單一的表現(xiàn)形式限制了公眾對復雜科學概念和數(shù)據(jù)的理解。這種較為單一的傳播形式在當前多元化的信息消費環(huán)境下顯得尤為不足。生成式AI的發(fā)展打破了這一局限,使得科普能夠跨越文本、圖像、視頻、音頻等多種媒介,形成多模態(tài)、跨模態(tài)的內(nèi)容,從而能更全面地呈現(xiàn)復雜的科學概念和數(shù)據(jù),其通過激活“多重感官”(multisensory)來增強科普效果和“信息保留”(information retention)[13],豐富科普的形式,增加科普的深度,提升公眾的參與度和學習興趣。

        第十三次中國公民科學素質(zhì)抽樣調(diào)查數(shù)據(jù)顯示,QQ、微信、微博等社交媒體平臺和抖音、快手等短視頻平臺,已經(jīng)成為中國公民獲取科技信息的主要網(wǎng)絡渠道[14]。清華大學科學技術與社會研究中心進行的全國抽樣調(diào)查顯示,超過三分之二的受訪者通過微博、知乎、抖音、快手、微信視頻號等自媒體平臺獲取科學技術類信息⑤。隨著社交媒體和短視頻平臺的廣泛使用,跨模態(tài)表達的重要性愈加凸顯,多模態(tài)生成技術可以將復雜的科學知識通過生動的圖片、動態(tài)的視頻,以及音頻內(nèi)容呈現(xiàn),極大地提升用戶的理解效率和參與興趣。我們或許可以期待科普元宇宙(metaverse for science popularization)的出現(xiàn)與應用,它可以利用多模態(tài)生成技術來推動虛擬世界中的科普內(nèi)容創(chuàng)作,使復雜的科學知識在一個高度互動和沉浸式的環(huán)境中得以更生動、具體地呈現(xiàn),帶來更加智能的“人—機”交互式科普體驗。

        2.3 破壁:更有效的科普轉譯

        生成式AI有望打破跨文化科普的“轉譯”邊界,例如,許多用戶切身體驗到了ChatGPT等生成式AI帶來的“地道”翻譯。所謂的“地道”,不僅指其用詞和語法更接近母語者,更在于它能在翻譯過程中考慮到文化背景、習俗和語境的細微差別[15]。生成式AI的翻譯實現(xiàn)了“動態(tài)等價”(dynamic equivalence)和“轉譯”(translation),能夠根據(jù)不同地域的文化特點進行微調(diào),例如調(diào)整所使用的專業(yè)術語、提供與當?shù)匚幕嚓P的案例,從而使翻譯內(nèi)容不僅準確,還能讓目標受眾感到自然和貼切,促進跨文化交流和理解。

        在傳統(tǒng)認知上,全球前沿科技成果的傳播與普及主要依賴于國內(nèi)專業(yè)人士進行翻譯和推介。這種傳播模式不僅耗時,而且受制于專業(yè)人士的科普意愿與能力、激勵機制、商業(yè)考量以及國內(nèi)社會對特定領域前沿研究的信息消費需求等多種因素。生成式AI的發(fā)展成功突破了這些邊界,通過實時翻譯和文化調(diào)適功能,降低了非英語背景的研究者和公眾獲取全球最新科技進展的門檻,從而推動了知識的全球化與共享。例如,在健康科普領域,“上火”和“濕氣”是中國傳統(tǒng)醫(yī)學中常用的概念,但在西方醫(yī)學中并沒有直接對應的術語。生成式AI通過文化調(diào)適和翻譯功能,可以將這些概念準確地傳達給外國受眾,使不同文化背景的受眾能夠更準確地理解和接受這些健康信息,促進跨文化的健康交流與理解。

        此外,科學知識與地方性知識(local knowledge)的互動是跨文化科學傳播中的一個關鍵問題。地方性知識指特定文化和社區(qū)中的傳統(tǒng)知識和實踐,它們在科學傳播中往往被忽視或誤解[16]。生成式AI有助于在科普實踐中促進科學話語向地方性知識轉化,能夠通過個性化和情境化的溝通,適應不同群體的需求。這里我們以四類重點科普人群為例進行說明。對于老年群體,生成式AI可以將復雜的科學概念以簡潔、易懂的語言傳達,并結合他們的生活經(jīng)驗加以解釋;對于農(nóng)民,AI能整合農(nóng)作物種植、氣候變化等科學信息與當?shù)剞r(nóng)耕傳統(tǒng),提供有針對性的實用建議;對于患者,生成式AI可以將醫(yī)學知識轉化為通俗的健康管理建議,結合個體病史和地方醫(yī)療條件,幫助他們理解治療方案;對于工人,AI能將工業(yè)安全、工作效率等科學概念結合實際工作場景,提供易于理解和應用的安全知識和技術建議,從而更好地促進科學與地方性知識的融合與傳播。

        2.4 細分:更精準的科普研究

        生成式AI有望推動科普研究的精準化與個性化。在傳統(tǒng)認知上,報刊、電視節(jié)目和講座是科學家與公眾溝通的主要途徑,這些方式的反饋機制較為緩慢且模糊,難以準確把握公眾的興趣點和需求。然而,隨著數(shù)字技術的進步,科普者可以通過分析公眾在互聯(lián)網(wǎng)上的活動來更精確地了解他們的興趣和需求。生成式AI在發(fā)現(xiàn)和分析公眾的科學興趣與需求方面展現(xiàn)了巨大潛力。例如,生成式AI可以快速地從社交媒體上的評論、疑問和反饋中提取出社會對某一科學話題的關注度、情緒和態(tài)度。通過分析和整合大量的社交媒體數(shù)據(jù),生成式AI能夠精確捕捉和反映出公共領域中的科學討論熱點和輿論動向,為科普工作者提供寶貴的反饋,響應公眾的興趣和需求,更好地實現(xiàn)科普的互動性和動態(tài)性。

        這不僅限于社會熱點科學話題的熱度分析,還可以應用到個性化的科學興趣點發(fā)掘。通過分析個體用戶的歷史瀏覽記錄、搜索關鍵詞和互動行為,生成式AI能夠構建個性化的興趣模型。這種模型不僅能夠識別用戶當前感興趣的科學話題,還能夠預測他們未來可能感興趣的領域,并通過用戶常用的平臺進行精準推送。通過對受眾進行精細化分類,科普工作者能夠制定更有針對性的傳播策略,提高傳播效果和受眾參與度。尼古拉斯·尼葛洛龐帝(Nicholas Negroponte)在1995年出版的《數(shù)字化生存》(Being Digital)中預言了“我的日報”(the Daily Me)的誕生,他設想未來每個人的新聞和信息都會根據(jù)個人興趣和需求進行定制,從而提供個性化的閱讀體驗[17],生成式AI正在讓“我的日報”逐漸變?yōu)楝F(xiàn)實。

        3生成式AI與科普融合伴隨的潛在倫理風險

        生成式AI在為科普帶來各類機遇的同時,也伴隨著一些潛在的倫理風險。為了有效應對這些風險,我們需要準確把握其本質(zhì),從而避免陷入對技術的簡單否定或盲目崇拜。當前,我們觀察到的倫理挑戰(zhàn)可以被分為兩類。一類是生成式AI本身的倫理風險,這些風險在其他領域(如教育、醫(yī)療)等同樣存在,并且會映射到科普活動中。另一類則是傳統(tǒng)科普本身所面臨的挑戰(zhàn),但在生成式AI技術條件下被放大。分類看待有助于我們更清晰地理解生成式AI帶來的各種挑戰(zhàn),并制定針對性的治理方案(見圖2)。

        3.1生成式AI本身的技術倫理風險映射到科普活動

        首先,信息的準確性與可靠性面臨挑戰(zhàn)。生成式AI能夠快速生成大量文本內(nèi)容,但其信息來源和生成過程并不透明。生成式AI依賴訓練數(shù)據(jù),其數(shù)據(jù)來源相對多樣,包括維基百科、電子書籍、期刊和社交媒體鏈接等。然而,這些來源很多缺乏嚴格審查,可能包含虛假和不道德的內(nèi)容[18]。這些數(shù)據(jù)中可能包含錯誤或偏見,生成的內(nèi)容也可能反映這些問題。事實上,有關實驗表明,公眾并不能準確識別深度偽造的科學謠言[19]。廣泛傳播未經(jīng)驗證或具有誤導性的信息,可能會影響公眾的科學理解。并且,生成式AI的運作機制對公眾來說是一個“黑箱”(black box),其內(nèi)部過程難以被理解和驗證,導致內(nèi)容出現(xiàn)錯誤或引發(fā)爭議時難以追究其責任。2024年5月,Anthropic①在理解生成式AI模型內(nèi)部運作機制方面取得重大進展,發(fā)現(xiàn)了與代碼漏洞、欺騙、偏見等相關的特性,進一步凸顯了其缺乏透明性的風險[20]。長期而言,這些問題可能削弱科學在公眾決策中的權威性,影響公眾對科學的信任和支持,甚至可能導致社會分裂和對立。

        其次,偏見與不公平性的問題同樣顯著。生成式AI在訓練過程中可能會吸收和放大現(xiàn)有數(shù)據(jù)中的偏見,如種族、性別、文化等[21],導致不公平或歧視性的信息被傳播。盡管算法本身不具有偏見,但它們往往會從訓練數(shù)據(jù)中學習并反映這些數(shù)據(jù)的特點。例如,一些研究發(fā)現(xiàn),生成式AI在提供職業(yè)建議時存在性別刻板印象,使用典型的女孩和男孩名字提問時,其提供的STEM(科學、技術、工程與數(shù)學)與非STEM建議比例顯著不同[22]。此外,2022年,一位YouTube博主通過訓練GPT-4chan機器人,生成了3萬多個包含歧視性言論的帖子,引發(fā)了巨大的爭議[23]。偏見性內(nèi)容不僅可能誤導公眾,還可能對特定群體造成傷害,加劇社會不公。此外,生成式AI的“多輪對話”機制促使機器生成更加貼近用戶預期的回答,這可能進一步強化用戶已有的知識、觀念,形成信息繭房(filter bubble),使個體只接觸到與自身觀念一致的信息,導致觀念愈加極端和固化。

        最后,生成式AI也伴隨著潛在的版權歸屬風險。生成式AI通過大量數(shù)據(jù)訓練生成內(nèi)容,而這些數(shù)據(jù)通常來自已有作品和資料,因此AI生成內(nèi)容的原創(chuàng)性問題會導致版權歸屬變得復雜。2023年9月,美國作家協(xié)會(The Authors Guild)對OpenAI發(fā)起集體訴訟,聲稱其在未經(jīng)授權的情況下使用原告作家的版權作品訓練其大語言模型,生成基于這些小說的總結、復述及模仿作品,這一事件凸顯了數(shù)據(jù)來源的版權問題在AI訓練中的重要性[24]。生成式AI在生成科普作品時,可能會參考和重組已有的科學文獻和文章片段。那么,生成的內(nèi)容是否屬于原創(chuàng)作品?其版權應歸屬于誰?這些問題在法律和倫理層面尚未有明確的答案。推動科學期刊的開放獲取(open access)實踐或許是解決科普創(chuàng)作中版權問題的有效手段。開放獲取的研究成果經(jīng)過嚴格的學術審查,對公眾開放,允許自由使用和再創(chuàng)作,從而減少版權糾紛的風險。然而即便如此,在相當長的一段時間內(nèi)版權問題仍然是不容忽視的挑戰(zhàn)。

        3.2 傳統(tǒng)科普曾經(jīng)面臨的挑戰(zhàn)被生成式AI放大

        首先,生成式AI技術加劇了“過多科學通俗化”與“過少科學溝通”的風險。一方面,生成式AI時代的到來意味著更多的科學觀點和信息在公眾場域中競爭,將復雜的科學概念和研究成果以簡化和易懂的方式傳達給公眾,可能存在“簡化過度”的風險,導致科學信息的娛樂化和膚淺化。另一方面,生成式AI還放大了虛假公眾觀點和虛假互動的風險。當生成式AI被應用于控制社交機器人時,許多內(nèi)容和評論可能是在平臺上偽造的“公眾觀點”。這些虛假的信息和互動會誤導公眾,使其誤以為這些觀點是真實且被廣泛認同的。盡管從表面上看,科學信息的傳播量增加了,但這些內(nèi)容和評論并不真正反映公眾的真實需求和理解情況,反而會導致信息的同質(zhì)化和失真,造成“過少的科學溝通”,不僅浪費公眾的注意力,還會阻礙公眾獲取多樣化和相互矛盾的信息。

        此外,生成式AI技術進一步削弱了科普的權威性。一方面,人們總是傾向于將晦澀難懂的語言和大量概念等同于高學術水準[25],這可能導致非專家撰寫的、基于誤導性信息的內(nèi)容被廣泛傳播和接受。例如,許多無專業(yè)背景的普通科普人士在生成式AI的幫助下,能夠生成更多看似專業(yè)、權威的信息,獲得更大范圍的信任和傳播。另一方面,生成式AI能夠生成更新穎的信息,而新穎的信息更容易引起公眾的注意和信任,很多虛假新聞都是因其新穎性而被轉發(fā)[26]。如果公眾頻繁接觸這些看似“權威”“新穎”但未經(jīng)科學驗證的信息,他們可能會逐漸失去對真實科學研究的興趣與信任,導致“科學民粹主義”(Science-Related Populism)[27],質(zhì)疑經(jīng)過嚴格驗證的科學事實,反而對迎合他們預期設想的“偽科學”深信不疑,進而削弱了科普的權威性。

        4生成式AI賦能科普的對策建議

        生成式AI技術的飛速發(fā)展極大賦能了科學知識的傳播和普及,帶來了更廣泛的科普參與、更多樣的科普呈現(xiàn)、更有效的科普轉譯以及更精準的科普研究。然而,隨著生成式AI技術的快速迭代和廣泛應用,其潛在的風險也逐漸顯現(xiàn)。當前,社會各界需要協(xié)同努力,抓住生成式AI技術賦能科學普及的新機遇,同時深入理解生成式AI技術帶來的倫理挑戰(zhàn),以促進相關技術更好賦能科普事業(yè)健康、向善發(fā)展。本文將從技術應用、素養(yǎng)提升以及風險管控三個方面提出具體對策建議(見圖3)。其中,技術應用是基礎,它為生成式AI技術賦能科普提供了堅實的支撐;素養(yǎng)提升是關鍵,它決定了各利益相關方能否有效利用這一技術推動科學普及;風險管控是底線,它確保在技術賦能科學普及過程中,信息真實性、隱私安全性以及公平性等方面能夠得到有效保障。

        4.1 技術應用:深度挖掘生成式AI技術在科普實踐中的應用潛力

        提升科普內(nèi)容的可讀性與趣味性。鼓勵科技期刊和科普平臺積極利用生成式AI技術,整合多種媒體資源,如視頻、音頻、動畫和3D模型等,使科技內(nèi)容更加直觀、易懂。當前,一些醫(yī)學期刊已經(jīng)開始在論文中整合3D模型、360°全景視圖、音視頻資料、圖片以及網(wǎng)頁鏈接等資源?!秾嵱门R床醫(yī)藥雜志》2022年第14期的《顱腦手術定位中三維影像體表投影技術的應用價值》一文,便是利用AR技術和“多模態(tài)數(shù)智內(nèi)容編輯器”編輯的首個案例[28]。通過這種多模態(tài)整合,復雜的科學概念能以更加生動、形象的方式呈現(xiàn),從而提高用戶的學習興趣和科學素質(zhì)。

        強化科普工作的個性化與互動性。生成式AI技術在科普工作中應充分挖掘用戶數(shù)據(jù),實現(xiàn)精準的用戶畫像構建,從而提供高度定制化的科普內(nèi)容。例如,對于青少年用戶,平臺可以提供互動性強、富有挑戰(zhàn)性的科學游戲和實驗,激發(fā)他們的探索欲和求知欲。同時,進一步開發(fā)基于生成式AI技術的互動科普體驗,提供沉浸式的科普環(huán)境,促進用戶與科普內(nèi)容的深度互動。例如,在我國“十三五”科技創(chuàng)新成就展上,科普機器人“小科”受邀來到現(xiàn)場,全面展示了海量科普知識問答、詩詞創(chuàng)作、開放式對話等“技能”[29]。

        推動開放科學與生成式AI技術的結合。開放科學能夠基于全員參與、全過程協(xié)同、高度透明性以及共享性,促進科學知識與研究成果的充分共享[30]。充分利用開放科學資源,有助于提供豐富的科學數(shù)據(jù)、實驗資源和素材庫,支持大眾用戶利用生成式AI技術生成更高質(zhì)量、更準確、更權威的科普內(nèi)容,從而激發(fā)用戶的創(chuàng)造力和參與意愿。例如,開放科學交流平臺ResearchGate和Academia.edu,允許科研人員就具體的研究問題進行交流和討論,這些交流內(nèi)容可以為生成式AI系統(tǒng)提供實時的科學討論和觀點,增強其生成內(nèi)容的時效性和互動性。

        4.2 素養(yǎng)提升:不斷提高各利益方的技術認知、應用或監(jiān)管能力

        提升社會公眾科學素質(zhì)和數(shù)字倫理素養(yǎng)。在大語言模型技術迅速發(fā)展的今天,公眾的角色已經(jīng)從信息接收者轉變?yōu)樾畔⒌纳a(chǎn)者和分發(fā)者。這要求公眾提升科學素質(zhì)與技能的同時增強數(shù)字倫理意識[31]。一方面,建議進一步提升社會公眾的科學素質(zhì),以“求真”精神辨別科技信息的真?zhèn)?,通過在教育體系中強調(diào)科學方法論和批判性思維的培養(yǎng),讓公眾能夠評估信息的準確性和可靠性,并審慎辨別信息來源,保持獨立思考。另一方面,建議增強公眾的數(shù)字倫理意識,使公眾能以“向善”的原則正確使用新興技術,了解數(shù)字信息的產(chǎn)生和傳播過程,明確自身的角色和責任,審慎使用數(shù)字工具,維護內(nèi)容的透明度和可追溯性。

        提高科普工作者對生成式AI技術的理解和應用能力。引導科普工作者理解大語言模型工具的工作方式,以及這些工具何時以及如何影響科普活動,為合理、規(guī)范使用大語言模型技術提供清晰、全面且適配的信息。為了增強科普工作者對生成式AI技術的認識與實踐,科技期刊和科普平臺應積極開展技術培訓和合作,推動生成式AI技術在科普中的標準化和規(guī)范化應用。

        提高監(jiān)管者對生成式AI技術的認知和監(jiān)管能力。生成式AI技術的迅猛發(fā)展給監(jiān)管者帶來了“科林格里奇困境” (Collingridge Dilemma)①。生成式AI技術發(fā)展過快,科普內(nèi)容的形式和表達方式不斷創(chuàng)新,傳統(tǒng)的監(jiān)管框架往往滯后,難以及時跟上技術的飛速變化,導致其在管理風險時捉襟見肘。這種滯后不僅導致潛在風險管理的缺失,還可能由于監(jiān)管的不確定性或過度嚴格的管控,壓制了生成式AI在科普領域的創(chuàng)新活力,削弱了我國在該領域的技術競爭力[32]。為此,監(jiān)管者也需要不斷提高有關生成式AI技術的專業(yè)知識,增強對復雜技術趨勢的預測和響應能力,從而能夠及時更新和調(diào)整監(jiān)管策略,平衡技術創(chuàng)新與風險管理。

        4.3 風險管控:全面保障科普內(nèi)容的準確性、隱私安全性以及公平性

        提升科普信息的真實性和準確性。成立由科學家、教育專家和媒體專家組成的審核委員會,對生成式AI生成的科普內(nèi)容進行雙重審核,確保其科學性。建立科普內(nèi)容認證體系,例如在短視頻平臺通過認證標識增強公眾對內(nèi)容的信任,并定期復查以維持標準。同時,建議有關平臺明確標注科普內(nèi)容生成方式和數(shù)據(jù)來源,并實施透明化報告制度。

        確保數(shù)字科普過程中的數(shù)據(jù)隱私保護。相關部門需要進一步制定嚴格的科普數(shù)據(jù)相關保護監(jiān)管政策,規(guī)范生成式AI技術在數(shù)據(jù)收集和處理中的行為,明確要求科普平臺在收集用戶數(shù)據(jù)前必須獲得用戶同意,并告知用戶數(shù)據(jù)使用與保護方式。在技術層面可以采用先進的加密技術和安全措施,防止數(shù)據(jù)泄露和未授權訪問。此外,建議平臺定期公開數(shù)據(jù)使用情況,并成立獨立的隱私保護審查委員會,監(jiān)督生成式AI技術的數(shù)據(jù)使用合規(guī)性,確保數(shù)據(jù)處理過程的透明性和安全性。

        減少生成式AI技術在科普應用中的算法偏見與歧視。算法是生成式AI技術的核心,必須優(yōu)化發(fā)展,遵循公平性原則[33]。監(jiān)督技術研發(fā)平臺使用多樣化的訓練數(shù)據(jù),涵蓋不同性別、種族、文化和社會經(jīng)濟背景,以建立多元化的公共數(shù)據(jù)集和科普數(shù)據(jù)集,確??破諆?nèi)容的廣泛性和代表性。鼓勵公眾和專家參與生成式AI技術的開發(fā)與監(jiān)督,通過設立開放的反饋和舉報機制,收集并分析反饋以及時修正偏見問題。此外,應當制定算法透明度和責任制度,公開生成式AI的數(shù)據(jù)來源,明確算法偏見造成誤導信息的責任主體,并制定懲處措施,以增強公眾對科普內(nèi)容的信任,確保算法開發(fā)者和應用者對其生成內(nèi)容負責。

        加強對關鍵科普應用領域的監(jiān)管。當前需要進一步制定全面的監(jiān)管框架,確保生成式AI技術在短視頻等高影響力領域中的應用既符合倫理和法律要求,又能保證科普內(nèi)容的質(zhì)量和公信力。一方面,政府應當完善法律框架,明確規(guī)定生成式AI生成內(nèi)容的責任主體,制定明確的法規(guī)和標準,要求平臺和個人遵守特定標準,并對違規(guī)行為實施嚴厲懲罰。另一方面,政府應推動抖音、快手、微信視頻號等重點平臺自律,形成內(nèi)部行為準則和道德標準,推動社交媒體平臺成立行業(yè)聯(lián)盟,制定自律公約,定期提交自查報告,確保內(nèi)容生成和傳播的規(guī)范性和透明度。

        5結語

        生成式AI不僅標志著科普領域的一次技術革新,更是提升全民科學素質(zhì)、厚植科學文化沃土的關鍵契機。因此,一方面,需要在未來積極抓住生成式AI賦能科普的新機遇,深入探索生成式AI在科普實踐中的創(chuàng)新應用場景,有效提升科普的質(zhì)量與廣度。另一方面,也要準確理解和把握生成式AI在科普中帶來的倫理挑戰(zhàn),加強對生成式AI應用的有效規(guī)范與監(jiān)管,促進生成式AI更好地賦能科普事業(yè)健康、向善發(fā)展。

        參考文獻

        新華社.中共中央關于進一步全面深化改革 推進中國式現(xiàn)代化的決定[EB/OL].(2024-07-21)[2024-07-24]. http://www.news.cn/politics/20240721/cec09ea2bde840dfb99331c48ab5523a/c.html.

        宋微偉.互聯(lián)網(wǎng)時代人工智能對科技傳播的沖擊及其融合[J].科技傳播,2019,11(3):131-132.

        黃時進.技術驅動與深度交互:人工智能對科學傳播的跨世紀構建[J].科普研究,2020,15(3):16-19.

        董洪哲.科學傳播在人工智能時代的變革與思考[J].中國廣播,2020(10):29-32.

        李正風,張徐姍.走向“數(shù)字社會”進程中的科學普及[J].科普研究,2023,18(4):8-17.

        王碩,李秋甫.數(shù)字倫理:數(shù)字化轉型中科學普及的新使命與新規(guī)范[J].科普研究,2023,18(3):57-64.

        Sch?fer M S. The Notorious GPT:Science Communication in the Age of Artificial Intelligence[J]. Journal of Science Communication,2023,22(2):1-15.

        段偉文,余夢. 生成式人工智能時代的終身創(chuàng)造力培養(yǎng)[J].科普研究,2024,19(2):13-22.

        劉永謀,伍銘偉. AIGC對人類智能的沖擊與提升公民科學素質(zhì)的可能路徑[J].科普研究,2024,19(2):39-44,63.

        楊慶峰. 人工智能科普及其問題[J].科普研究,2024,19(2):32-38.

        李健民. 促進公眾理解生成式人工智能的集體責任分析——基于集體行動的視角[J].科普研究,2024,19(2):45-53.

        閆宏秀,楊映瑜. 生成式人工智能時代的使用者倫理研究[J].科普研究,2024,19(2):23-31.

        Broadbent H J,Osborne T,Mareschal D,et al. Withstanding the Test of Time:Multisensory Cues Improve the Delayed Retention of Incidental Learning[J]. Developmental Science,2019,22(1):e12726.

        中國公民抽樣調(diào)查課題組.我國公民科學素質(zhì)的對策發(fā)展現(xiàn)狀——基于第十三次中國公民科學素質(zhì)抽樣調(diào)查的分析[J].科普研究,2024,19(2):5-12.

        Lee T K. Artificial Intelligence and Posthumanist Translation:ChatGPT versus the Translator[EB/OL].(2023-08-01)[2024-07-09]. https://doi.org/10.1515/applirev-2023-0122.

        Anaafo D. Between Science and Local Knowledge:Improving the Communication of Climate Change to Rural Agriculturists in the Bolgatanga Municipality,Ghana[J]. Local Environment,2019,24(3):201-215.

        尼葛洛龐帝.數(shù)字化生存[M].胡泳,范海燕,譯.北京:電子工業(yè)出版社,2017:182.

        Thompson A D. What’s in My AI? [EB/OL]. [2024-07-09]. https://s10251.pcdn.co/pdf/2022-Alan-D-Thompson-Whats-in-my-AI-Rev-0b.pdf.

        Doss C,Mondschein J,Shu D,et al. Deepfakes and Scientific Knowledge Dissemination[J]. Scientific Reports,2023,13(1):13429.

        Scaling Monosemanticity:Extracting Interpretable Features from Claude 3 Sonnet[EB/OL]. [2024-07-07]. https://transformer-circuits.pub/2024/scaling-monosemanticity/index.html.

        Gillespie T. Generative AI and the Politics of Visibility[J]. Big Data and Society,2024,11(2):1-24.

        Due S,Das S,Andersen M,et al. Evaluation of Large Language Models:STEM Education and Gender Stereotypes[EB/OL].(2024-06-14)[2024-07-09]. https://arxiv.org/abs/2406.10133.

        Vincent J. YouTuber Trains AI Bot on 4chan’s Pile O’Bile with Entirely Predictable Results[EB/OL].(2022-06-08)[2024-07-09]. https://www.theverge.com/2022/6/8/23159465/youtuber-ai-bot-pol-gpt-4chan-yannic-kilcher-ethics.

        Gerken T,McMahon Liv. Game of Thrones Author Sues ChatGPT Owner OpenAI[EB/OL].(2023-09-21)[2024-07-09]. https://www.bbc.com/news/technology-66866577.

        Sokal A. A Physicist Experiments with Cultural Studies[J]. Lingua franca,1996,6(4):62-64.

        Vosoughi S,Roy D,Aral S. The Spread of True and False News Online[J]. Science,2018,359(6380):1146-1151.

        Mede N G,Sch?fer M S. Science-related Populism:Conceptualizing Populist Demands Toward Science[J]. Public Understanding of Science,2020,29(5):473-491.

        游慧超,孫登江,歐陽和平,等.顱腦手術定位中三維影像體表投影技術的應用價值[J].實用臨床醫(yī)藥雜志,2022,26(14):14-17.

        機器人“小科”亮相“十三五”科技成就展[EB/OL].(2021-10-27)[2024-09-21]. https://www.stdaily.com/index/kejixinwen/2021-10/27/content_1228536.shtml.

        陳勁,陽鎮(zhèn).數(shù)字化時代下的開放科學:倫理難題與推進路徑[J].吉林大學社會科學學報,2021,61(3):116-128,236.

        李正風,王碩.數(shù)字素養(yǎng)、數(shù)據(jù)權利與數(shù)字倫理[J].科普研究,2022(6):8-14.

        童云峰.走出科林格里奇困境:生成式人工智能技術的動態(tài)規(guī)制[J].上海交通大學學報(哲學社會科學版),2024,32(8):53-67.

        李偉鑫,王曉麗. ChatGPT類生成式人工智能的倫理問題、原因分析與規(guī)制路徑[J].昆明理工大學學報(社會科學版),2024,24(1):54-62.

        (編輯 顏 燕 和樹美)

        ①一家位于美國的人工智能研究企業(yè),它開發(fā)了包括ChatGPT和DALL-E在內(nèi)的多個知名人工智能模型。

        ②由OpenAI開發(fā)的一種先進的自然語言處理模型,能夠理解和生成人類語言,廣泛應用于聊天機器人和文本生成。

        ③由OpenAI于2021年1月份推出的圖像生成系統(tǒng),可以根據(jù)書面文字生成圖像,展現(xiàn)了AI在視覺藝術領域的潛力。

        ④由OpenAI發(fā)布的文本生成視頻模型,能夠根據(jù)文本提示生成連貫的視頻內(nèi)容。

        ⑤該數(shù)據(jù)來源于清華大學科學技術與社會研究中心開展的“2023年科技與社會晴雨表調(diào)查”。該調(diào)查采用配額非概率抽樣方法,基于全國第七次人口普查的地域和年齡分布設計抽樣方案,于2023年12月開展在線問卷調(diào)查,共收集了9 906個樣本,經(jīng)過篩選得到3 000個有效樣本。

        ①Anthropic是一家美國的人工智能企業(yè),專注于開發(fā)通用AI系統(tǒng)和語言模型。

        ①科林格里奇困境(Collingridge Dilemma)指在技術發(fā)展早期,因對其潛在影響缺乏了解,很難對其進行有效監(jiān)管或引導;而一旦技術廣泛應用,其影響變得清晰,但調(diào)整或控制的難度也隨之增大。

        收稿日期:2024-05-22

        基金項目:國家社會科學基金重大項目“深入推進科技體制改革與完善國家治理體系研究”(21ZDA017);中國科普研究所項目“科普服務文化建設研究”(240103);清華大學自主科研項目“大學創(chuàng)新體系相關理論與政策問題研究”(20241080002);浙江省哲學社會科學規(guī)劃課題“知識分配力視域下新質(zhì)生產(chǎn)力科普的實踐路徑研究”(24BMHZ048YB)。

        作者簡介:王碩,清華大學社會科學學院博士研究生,研究方向:人工智能治理、科技傳播,E-mail:s-wang21@mails.tsinghua.edu.cn。李正風為通訊作者,E-mail:lizhf@tsinghua.edu.cn。

        Empowering Science Popularization through Generative Artificial Intelligence:Technological Opportunities,Ethical Risks,

        and Response Strategies

        Wang Shuo Yan Yan   Li Zhengfeng

        (School of Social Sciences,Tsinghua University,Beijing 100084)

        Abstract:By facilitating greater participation,richer content presentation,more efficient knowledge translation,and more focused science outreach,generative AI has the potential to enhance science communication and popularization significantly. This technology also introduces two different kinds of ethical risks. On the one hand,generative AI raises technical,ethical questions about information authenticity,fairness,security,bias,and copyright. On the other hand,problems historically linked to science popularization may get worse,such as oversimplification,a lack of scientific communication,the erosion of scientific authority,and populism. Consequently,it is crucial to investigate the application potential of generative artificial intelligence in science popularization practices going forward,as well as to raise the technical awareness,application capabilities,and supervision level of the general public,science popularization professionals,and regulators. Additionally,it is necessary to guarantee the accuracy,privacy security,and fairness of the content produced for science popularization.

        Keywords:generative AI;science popularization;technological opportunities;ethical risks

        CLC Numbers:N4;TP18 Document Code:A DOI:10.19293/j.cnki.1673-8357.2024.04.001

        狠狠色狠狠色综合| 一区二区三区在线观看精品视频| 日本韩国三级在线观看| 岳丰满多毛的大隂户| 亚洲熟少妇在线播放999| 91精品全国免费观看青青| 亚洲国产黄色在线观看| 三级黄色片免费久久久| 性色做爰片在线观看ww| 久久噜噜噜| 免费观看成人稀缺视频在线播放| 国产精品久色婷婷不卡| 亚洲国产精品无码专区| 久久国产精品波多野结衣av| 日韩久久无码免费看A| 国产av剧情久久精品久久| 最近中文字幕免费完整版| 久久精品国产亚洲av瑜伽| 网红极品女神精品视频在线| 偷拍色图一区二区三区| 曰本无码人妻丰满熟妇啪啪| 亚洲高清无码第一| 精品蜜桃在线观看一区二区三区| 亚洲深深色噜噜狠狠网站| 午夜三级a三级三点| 午夜福利视频男同女同| 国产精品又湿又黄九九九久久嫩草| 午夜爽爽爽男女污污污网站| 精品视频一区二区三三区四区| 日本草逼视频免费观看| 国内嫩模自拍诱惑免费视频 | 欧美人成人亚洲专区中文字幕| 精品日产一区2区三区| 国产婷婷色一区二区三区深爱网 | 无码中文字幕av免费放| 蜜桃视频一区二区三区四| 亚洲人成77777在线播放网站| 国产精品23p| 亚洲一区二区三区免费av| 久久精品亚洲精品国产色婷| 日韩精品大片在线观看|