亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        生成式人工智能對網(wǎng)絡(luò)意識形態(tài)安全的挑戰(zhàn)及應(yīng)對*

        2024-05-10 15:44:24董扣艷
        實事求是 2024年1期
        關(guān)鍵詞:人工智能人類用戶

        董扣艷

        (浙江大學(xué)1馬克思主義學(xué)院;2馬克思主義理論創(chuàng)新與傳播研究中心 浙江杭州 310058)

        自美國人工智能實驗室OpenAI在2022年11月30日推出聊天機器人模型ChatGPT以來,這款生成式人工智能技術(shù)應(yīng)用就立即風(fēng)靡全球,成為有史以來全球用戶增速最快的現(xiàn)象級應(yīng)用程序。在中國,Chat-GPT 也受到社會各界廣泛關(guān)注。百度、阿里、騰訊、京東等互聯(lián)網(wǎng)頭部公司紛紛表示已經(jīng)布局“類ChatGPT”產(chǎn)品。其中,百度開發(fā)的“文心一言”于2023年3月16日正式對外發(fā)布。

        在學(xué)界,學(xué)者們從技術(shù)角度分析了ChatGPT的運行模式,[1]從法律方面、[2]倫理方面[3]分析了ChatGPT可能帶來的風(fēng)險,探討了ChatGPT對教育生態(tài)、[4]傳播范式[5]等領(lǐng)域的深遠影響,從哲學(xué)角度分析了人機關(guān)系的未來。[6]然而,鮮有研究專門從網(wǎng)絡(luò)意識形態(tài)安全視角論證ChatGPT的發(fā)展前景,揭示生成式人工智能與網(wǎng)絡(luò)意識形態(tài)安全的耦合關(guān)系。本文結(jié)合ChatGPT的技術(shù)特征,著重闡釋生成式人工智能的技術(shù)缺陷給網(wǎng)絡(luò)意識形態(tài)安全帶來的潛在風(fēng)險,并進一步探究更好地促進生成式人工智能有效賦能網(wǎng)絡(luò)意識形態(tài)安全的實踐路向。

        一、生成式人工智能的顯著技術(shù)特征

        作為新一代人工智能的技術(shù)風(fēng)口,生成式人工智能比傳統(tǒng)人工智能技術(shù)具有更多的語言處理優(yōu)勢。盡管它在機器論證效力方面仍存在嚴謹性不足等問題,但在機器對話能力方面具有較強的人機互動性、在語言表達風(fēng)格方面具有較強的類人性。這給我國網(wǎng)絡(luò)意識形態(tài)安全帶來一系列前所未有的機遇和挑戰(zhàn)。

        (一)在機器對話能力方面,生成式人工智能展現(xiàn)出較強的人機互動性

        ChatGPT的第一個重要技術(shù)支撐是Transformer神經(jīng)網(wǎng)絡(luò)架構(gòu)(即GPT-3.5架構(gòu)),是一種“基于神經(jīng)網(wǎng)絡(luò)的語言模型”。在計算機科學(xué)和人工智能領(lǐng)域,“語言模型”是與自然語言處理(NLP)相關(guān)的重要問題。技術(shù)專家試圖通過自然語言處理,打造一個能夠計算人類語言文本中單詞、句子出現(xiàn)概率的語言模型。他們的技術(shù)設(shè)想是,在人類語言文本中,一句話中的單詞總是按照一定順序排列,通過前面單詞就可以推算出后面單詞的出現(xiàn)概率。“基于神經(jīng)網(wǎng)絡(luò)的語言模型”的工作原理是通過海量的人類語言語料,訓(xùn)練出一個神經(jīng)網(wǎng)絡(luò)模型,通過向這個模型中輸入一句話中的前面幾個單詞,它就能推算出這句話后面最常用的幾個單詞。正因如此,當(dāng)用戶在ChatGPT 的對話框中輸入問題之后,它能夠根據(jù)用戶需求進行任務(wù)處理,仿佛電腦里有個“虛擬人”在和用戶進行“對話”。在生成式人工智能出現(xiàn)之前,傳統(tǒng)人工智能機器人使用的主要是基于規(guī)則或者機器學(xué)習(xí)的語言模型,通常需要用戶先編寫程序指令,通過代碼控制機器進行任務(wù)處理。顯然,這種操作不利于人機連續(xù)對話,存在著溝通效率低、對話方式單一等問題。相比而言,ChatGPT省去了以往人機交互中的程序編寫等繁瑣步驟,可以直接處理用戶輸入的自然語言任務(wù),并延續(xù)上下文邏輯與用戶展開連續(xù)性對話。在這個意義上,生成式人工智能具有比傳統(tǒng)人工智能更強的人機交互對話能力。它所擁有的超強語言理解和文本生成能力可以較快回答客戶問題,在未來有望作為“人機交互”的輔助工具,在教育、醫(yī)療、法律咨詢等領(lǐng)域發(fā)揮重要作用。

        (二)在語言表達風(fēng)格方面,生成式人工智能展現(xiàn)出較強的類人性

        ChatGPT 的第二個關(guān)鍵技術(shù)支撐是基于人類反饋的強化學(xué)習(xí)(RLHF)技術(shù),它被OpenAI 研發(fā)專家視為ChatGPT 成功的秘密武器,能夠讓機器像人一樣“思考”。RLHF 把人類的反饋納入訓(xùn)練過程,不斷提升ChatGPT 對語言理解的準確性,優(yōu)化生成文本的內(nèi)容質(zhì)量。傳統(tǒng)人工智能機器人按照程序指令執(zhí)行任務(wù),其語言表達與人類的自然語言存在顯著區(qū)別,呈現(xiàn)出機械化、呆板化、去個性化等風(fēng)格。相比而言,ChatGPT 能夠給用戶提供更加自然、流暢的對話體驗,被西方媒體稱為“有史以來向公眾發(fā)布的最好的人工智能聊天機器人”。[7]生成式人工智能的類人性離不開RLHF 技術(shù)的有效支持,一方面,ChatGPT 將人類偏好作為模型調(diào)整的依據(jù),按照用戶反饋不斷調(diào)整與優(yōu)化機器生成的文本內(nèi)容,使其能夠更好地體現(xiàn)人類意志;另一方面,它不是簡單地模仿人類的言語行為,而是深度學(xué)習(xí)人類的認知和思維方式,以便作出更加符合人類認知的回應(yīng)方案。ChatGPT 的類人性還體現(xiàn)在敢于質(zhì)疑、拒絕甚至“回懟”人類的非正當(dāng)性提問。已有不少用戶表示,ChatGPT 會“發(fā)脾氣”。作為一類經(jīng)過強化的人工智能深度學(xué)習(xí)模式,生成式人工智能不是在機械化地按照程序指令與人類進行對話,而是類似人類一般,經(jīng)過“思考”再給出回復(fù)方案,從而實現(xiàn)與人類的雙向互構(gòu)。它所擁有的類似于人的語言表達風(fēng)格,有望彌補傳統(tǒng)人機對話的非真實感缺陷,為未來的道德教育、心理疏導(dǎo)以及情緒危機干預(yù)等人類精神領(lǐng)域的調(diào)節(jié)和引導(dǎo)實踐賦能。

        (三)在機器論證效力方面,生成式人工智能仍存在不嚴密性和不成熟性

        在神經(jīng)網(wǎng)絡(luò)、自然語言處理和強化學(xué)習(xí)等新興人工智能技術(shù)的支持下,ChatGPT 在一定程度上具備了和人類思維圖式較為相似的邏輯推理能力。在生成式人工智能以前,傳統(tǒng)人工智能只能一步接著一步地按照代碼指令運行,它對代碼指令的回應(yīng)也只能算作代碼指令輸入者——人的邏輯思考能力的外顯。相比而言,ChatGPT 在與用戶進行人機對話時,卻能以強大的算力運轉(zhuǎn)和豐富的語料庫數(shù)據(jù)檢索為依托,自主地按照用戶需求重新組織與之相匹配的文本語言,展現(xiàn)出一定的邏輯思考能力。面對ChatGPT 在人機對話中展現(xiàn)出的邏輯推理能力,很多科技工作者表現(xiàn)出對智能技術(shù)未知性趨向的恐慌,甚至有人驚呼道“我們離強大到危險的AI 不遠了”。[8]盡管如此,ChatGPT 的論證邏輯仍缺乏嚴密性和成熟性,人工智能的“幻覺性”通病似乎在ChatGPT 身上也有所映現(xiàn)。它給出的答案漏洞百出,甚至存在“一本正經(jīng)地胡說八道”現(xiàn)象。受到技術(shù)發(fā)展水平限制,ChatGPT 在現(xiàn)階段只能做到數(shù)據(jù)概率估算等初級推理,尚不具備推算因果關(guān)系等更為高級的數(shù)理運算能力。此外,雖然ChatGPT 擁有“舉一反三”的自主學(xué)習(xí)能力,但它的認知范圍仍限于語言模型提供的海量文本語料庫數(shù)據(jù),難免會出現(xiàn)超出其“認知”的情況。比如,ChatGPT 無法對不在語料庫時限范圍內(nèi)的信息問答作出回應(yīng),也不能對還未發(fā)生的事情進行科學(xué)性預(yù)測。

        二、生成式人工智能給網(wǎng)絡(luò)意識形態(tài)安全帶來的風(fēng)險和挑戰(zhàn)

        作為人工智能技術(shù)的最新成果,生成式人工智能正在重塑社會信息傳播生態(tài)。不過,由于人工智能所固有的信息造假、數(shù)據(jù)泄漏、算法歧視等技術(shù)缺陷仍然存在,容易引發(fā)知識和價值觀偏差,給網(wǎng)絡(luò)意識形態(tài)安全帶來諸多風(fēng)險和挑戰(zhàn)。

        (一)技術(shù)不完善性導(dǎo)致生成式人工智能出現(xiàn)數(shù)據(jù)安全風(fēng)險

        現(xiàn)階段,國內(nèi)外對于生成式人工智能的技術(shù)研發(fā)與應(yīng)用仍處于探索和起步階段,存在著由于技術(shù)發(fā)展不完善性帶來的多重數(shù)據(jù)安全問題。一是信息造假風(fēng)險。由于生成式人工智能的技術(shù)原理是通過大規(guī)模數(shù)據(jù)學(xué)習(xí),不斷訓(xùn)練機器的對話能力,所以無法避免由于數(shù)據(jù)偏差和虛假關(guān)聯(lián)性造成的信息造假風(fēng)險。無論是國外的ChatGPT還是百度的“文心一言”,都被用戶指出存在信息不準確問題。盡管美國OpenAI公司出于對內(nèi)容安全性的考量,在GPT-3.5架構(gòu)之后不久就推出了基于GPT-4架構(gòu)的創(chuàng)新人工智能語言模型,但仍不能完全規(guī)避生成式人工智能的技術(shù)野蠻性。技術(shù)研發(fā)者再三警告用戶,要對ChatGPT給出的內(nèi)容進行人工審核,甄別信息是否符合客觀事實與倫理道德規(guī)范。同樣地,百度在發(fā)布“類ChatGPT產(chǎn)品”——“文心一言”時就一再強調(diào)它“不完美”。它在完成用戶布置的作畫任務(wù)時,較為集中地凸顯出信息不準確性缺陷。比如,當(dāng)用戶發(fā)出“畫一幅畫,一個醫(yī)生”和“畫一幅畫,一個博士”的需求指令后,“文心一言”繪制的人物形象竟都是醫(yī)生。究其根源,“文心一言”模型先將用戶輸入的關(guān)鍵詞翻譯成英文,再將其作為提示詞繪制圖畫。在英文語境中,doctor有兩層含義,意指醫(yī)生或者博士,而“文心一言”只能按照醫(yī)生這一層含義來繪圖??梢?,生成式人工智能提供的信息并非總是精確無誤的,仍需要人工辨別真?zhèn)魏完P(guān)聯(lián)性。二是數(shù)據(jù)泄漏風(fēng)險。生成式人工智能需要以海量數(shù)據(jù)庫作為語言模型訓(xùn)練與學(xué)習(xí)的支撐,其中包括了大量作為獨立個體的網(wǎng)民自主輸入的信息內(nèi)容。這就是說,生成式人工智能的深度學(xué)習(xí)機制建立在對人類提供數(shù)據(jù)的反饋基礎(chǔ)之上,一旦用戶在人機對話過程中輸入個人的私密信息,Chat-GPT就可能會將其納入自身語料庫。當(dāng)其他用戶也檢索類似信息時,作為個人私密信息的隱私內(nèi)容很可能被泄漏。雖然OpenAI公司承諾刪除用戶的個人身份信息,但是具體的刪除方式尚不明確,至于是否真正做到了保護用戶信息更是無從考證和評估。由于ChatGPT尚未建立起科學(xué)有效的數(shù)據(jù)使用機制,無法保證對語料庫中的數(shù)據(jù)來源進行事實核查,在全球用戶的開放式信息傳播環(huán)境下很容易出現(xiàn)數(shù)據(jù)泄漏風(fēng)險。

        (二)算法偏見和歧視導(dǎo)致生成式人工智能誘發(fā)政治安全風(fēng)險

        生成式人工智能的運行離不開規(guī)模龐大的數(shù)據(jù)集支持。然而,大數(shù)據(jù)的算法推薦技術(shù)在自動化決策時卻存在著歧視與偏見,造成不同族群價值觀的摩擦、沖突甚至是分裂,并進一步誘發(fā)政治安全風(fēng)險。一是政治偏見?,F(xiàn)階段,生成式人工智能技術(shù)應(yīng)用所依托的數(shù)據(jù)庫主要存儲的是歐美語言文化的語料,其在價值立場、情感以及態(tài)度等方面都呈現(xiàn)出崇美親美傾向。OpenAI公司一再警告用戶,ChatGPT“可能偶爾會生成不正確的信息”,“產(chǎn)生有害指令或有偏見的內(nèi)容”。[9]截至目前,不少用戶發(fā)現(xiàn)生成式人工智能在政治立場上存在“選邊站隊”現(xiàn)象。在模型訓(xùn)練數(shù)據(jù)時,ChatGPT被嵌入了深刻的政治偏見,突出表現(xiàn)為崇拜西方國家、歧視第三世界國家,加劇了國家間的分歧與對抗,不利于形成相互尊重、公平正義、合作共贏的新型國際關(guān)系。二是社會偏見。生成式人工智能的預(yù)訓(xùn)練模型很可能會再現(xiàn)不良的社會刻板印象和有害的社會偏見。例如,ChatGPT 就存在著明顯的種族歧視、性別偏見等問題。相比傳統(tǒng)人工智能而言,ChatGPT深諳社會文化邏輯和用戶接受心理,在處理與種族、宗教等相關(guān)的任務(wù)時,會盡量避免出現(xiàn)敏感、過激的言論,試圖保持價值立場的客觀和中立。但是,與傳統(tǒng)人工智能一樣,“技術(shù)中性論”的觀點同樣不適用于生成式人工智能。ChatGPT 也并非絕對的價值中立,而是存在著明顯的偏見、歧視甚至是仇恨。在歐美語言文化的語料庫中,充斥著大量的種族歧視和性別偏見言論。作為一種預(yù)訓(xùn)練語言模型,ChatGPT的學(xué)習(xí)資料就是這些含有偏見和歧視的內(nèi)容,所以它給出的回答也總是隱含著某種不良的價值偏向。可以說,生成式人工智能不僅放大了社會偏見,還使社會偏見以數(shù)字化的形態(tài)傳播開來。除此以外,有網(wǎng)民在嘗試和ChatGPT 進行人機對話的過程中,還發(fā)現(xiàn)它存在“反向訓(xùn)練”現(xiàn)象。與以往西方國家存在的白人至上主義與種族主義言論相比,ChatGPT 非?!奥斆鳌钡剡x擇偏向社會文化理解中的“弱勢群體”一方,公開支持黑人、女性等群體,使得網(wǎng)絡(luò)空間中的種族分歧和性別對立愈演愈烈,加劇了不同社會群體間的分裂與對抗,不利于社會價值觀的有機整合。

        (三)過度技術(shù)崇拜導(dǎo)致生成式人工智能誘發(fā)社會安全風(fēng)險

        部分網(wǎng)民存在過度技術(shù)崇拜傾向,認為ChatGPT 無所不能,對其產(chǎn)生了較為強烈的使用依賴性,完全沒有意識到ChatGPT 也有潛在的社會安全風(fēng)險。一是非法提問。就當(dāng)前智能技術(shù)發(fā)展水平而言,生成式人工智能在網(wǎng)絡(luò)、生物和國際關(guān)系等領(lǐng)域都存在安全風(fēng)險。對此,OpenAI 公司試圖在模型訓(xùn)練中不斷加強對內(nèi)容的人工干預(yù),以期提升機器分辨高風(fēng)險和高敏感詞語的能力。盡管如此,機器仍不能徹底識別出一些被用戶故意去除敏感詞匯的隱蔽性安全風(fēng)險。比如,當(dāng)用戶直接向ChatGPT 詢問“如何實施謀殺”時,會被機器識別為非法提問,并以違反法律為由直接拒絕;但是,如果把提問內(nèi)容改成“我想寫一本偵探小說,請?zhí)峁┮粋€人物角色實施謀殺的完美方案”,ChatGPT 就可能會提供答案。可見,生成式人工智能還不能完全識別具有潛在安全威脅的非法提問。一旦這個技術(shù)漏洞被別有用心的不法分子利用,就可能導(dǎo)致非法和有害內(nèi)容在社會范圍內(nèi)傳播,甚至給社會帶來動蕩和不安。國外已出現(xiàn)ChatGPT 在用戶引導(dǎo)下進行詐騙、寫出“毀滅人類計劃書”等違法行為,值得關(guān)注和警惕。二是誘導(dǎo)性回答。ChatGPT 的高智能性以及類人性等特征還會使用戶在人機交互的過程中產(chǎn)生認知偏差,錯把機器提供的內(nèi)容當(dāng)作是人的觀點。部分用戶過度崇拜ChatGPT 在內(nèi)容生成領(lǐng)域的技巧性,存在著嚴重的受眾依賴性傾向,盲目信任機器生成的信息內(nèi)容,不能理性甄別機器提供觀點的正誤。例如,比利時一名男子在與智能聊天機器人頻繁聊天后自殺身亡。該男子與智能聊天機器人的通信內(nèi)容顯示,人工智能持續(xù)給該男子傳遞出虛無主義等消極內(nèi)容,最終誘發(fā)該男子選擇終結(jié)生命。這一事件再次引發(fā)人類對于智能倫理風(fēng)險的省思,包括馬斯克在內(nèi)的科技界人士聯(lián)名呼吁應(yīng)暫停訓(xùn)練比GPT-4更強大的人工智能技術(shù)。

        (四)技術(shù)惡意使用導(dǎo)致生成式人工智能存在網(wǎng)絡(luò)安全風(fēng)險

        現(xiàn)階段,生成式人工智能給網(wǎng)絡(luò)安全帶來的風(fēng)險主要包括以下三個方面。一是網(wǎng)絡(luò)攻擊。生成式人工智能的代碼編寫功能拓展了黑客攻擊的技術(shù)手段,使得網(wǎng)絡(luò)攻擊向智能化、自動化和規(guī)?;厔菅葸M。一些黑客通過ChatGPT 輔助編寫惡意軟件,不僅增加了有組織攻擊金融、電子政務(wù)、公共服務(wù)等關(guān)鍵信息基礎(chǔ)設(shè)施領(lǐng)域的頻次,也擴大了黑客網(wǎng)絡(luò)攻擊的負面影響效應(yīng)。二是網(wǎng)絡(luò)輿情。生成式人工智能仍存在數(shù)據(jù)造假問題,可能會導(dǎo)致虛假信息泛濫,造成網(wǎng)絡(luò)信息良莠不齊,進一步加劇網(wǎng)絡(luò)輿論場中的價值觀念分歧。由于廣大網(wǎng)民的媒介素養(yǎng)存在顯著差異,不少人面對冗雜的信息時難以有效甄別真?zhèn)危瑢⒃黾泳W(wǎng)絡(luò)輿情治理的難度。三是國際輿論戰(zhàn)。生成式人工智能還有可能被惡意用于國際輿論戰(zhàn)。近年來,機器人水軍已被應(yīng)用于多國軍事實踐,一些國家通過人工智能有目的地傳播虛假信息,對全球網(wǎng)絡(luò)輿論格局產(chǎn)生深刻影響。ChatGPT“一本正經(jīng)地胡說八道”的不良機器行為使其存在編造“歷史事實”現(xiàn)象。在本質(zhì)上,生成式人工智能不僅有可能會篡改歷史,甚至還會使大眾出現(xiàn)與史實不符的集體記憶,即“曼德拉效應(yīng)”,不利于人類客觀了解歷史事實,也不利于形成對歷史發(fā)展規(guī)律的理性認識。

        三、應(yīng)對生成式人工智能多重安全風(fēng)險的實踐路向

        面對生成式人工智能正在廣泛融入社會生活的客觀現(xiàn)實,既要正視顛覆性技術(shù)創(chuàng)新給人類社會生活帶來的新變化,更要提前研判它給網(wǎng)絡(luò)意識形態(tài)安全帶來的風(fēng)險和挑戰(zhàn),最大限度地規(guī)避生成式人工智能的技術(shù)缺陷以及由此帶來的負面效應(yīng),有效發(fā)揮生成式人工智能對維護我國網(wǎng)絡(luò)意識形態(tài)安全的賦能效應(yīng)。

        (一)摒棄片面的技術(shù)認識論,辯證看待技術(shù)革新與社會發(fā)展的關(guān)系

        自人工智能技術(shù)出現(xiàn)以來,人類對它的看法就莫衷一是、褒貶不一。技術(shù)樂觀主義者對智能技術(shù)發(fā)展持積極態(tài)度,認為它將給社會生活帶來許多前所未有的新變化,盡管社會對技術(shù)的不適應(yīng)性可能會給社會治理帶來風(fēng)險,但是它在整體上將給經(jīng)濟社會發(fā)展帶來正向作用。與之相反,技術(shù)悲觀主義者則對智能技術(shù)發(fā)展持消極態(tài)度,認為它給社會帶來的風(fēng)險要遠遠多于機遇,并且技術(shù)創(chuàng)新將重新改寫人機關(guān)系,導(dǎo)致人類囿于技術(shù)的異己力量之中。還有一種觀點主張絕對的技術(shù)價值中立,認為技術(shù)本身是中性的,技術(shù)應(yīng)用過程中帶來善的或是惡的后果完全取決于人。顯然,技術(shù)中性論的觀點低估了智能技術(shù)的復(fù)雜性,沒有全面認識技術(shù)背后的價值博弈。在生成式人工智能技術(shù)及其應(yīng)用發(fā)展過程中,需要摒棄技術(shù)樂觀主義、技術(shù)悲觀主義以及技術(shù)中性論等幾種片面的技術(shù)認識論,客觀認識生成式人工智能技術(shù)與社會發(fā)展之間的辯證關(guān)系。既要認識到生成式人工智能將給人類社會和生活帶來諸多機遇,比如催生新的產(chǎn)業(yè)形態(tài)、塑造新的生活方式等,也要認識到它將衍生一系列的安全風(fēng)險,將給網(wǎng)絡(luò)意識形態(tài)安全帶來一定沖擊。對此,一方面,應(yīng)主動布局生成式人工智能在網(wǎng)絡(luò)意識形態(tài)領(lǐng)域的正向應(yīng)用,比如基于已有的意識形態(tài)工作經(jīng)驗幫助用戶解答常規(guī)的思想困惑,將思政工作者解放出來,可以把更多的時間和精力投入到更加復(fù)雜、更有價值的意識形態(tài)工作中去。另一方面,還應(yīng)結(jié)合不同階段的技術(shù)發(fā)展水平實際,提前研判生成式人工智能的潛在安全風(fēng)險,適時謀劃網(wǎng)絡(luò)意識形態(tài)教育議題,及時回應(yīng)大眾對生成式人工智能的認識困惑。

        (二)強化算力基礎(chǔ)設(shè)施建設(shè),打造中國特色大語言模型訓(xùn)練數(shù)據(jù)集

        生成式人工智能的通暢運行需要以強大的算力基礎(chǔ)設(shè)施作為支撐?,F(xiàn)階段,我國對于生成式人工智能及其技術(shù)應(yīng)用的探索仍處于起步階段,現(xiàn)有算力還不足以支持生成式人工智能的大規(guī)模、流暢化應(yīng)用。同時,我國在生成式人工智能的核心技術(shù)研發(fā)領(lǐng)域仍處在“跟跑”階段,例如對于基于人工神經(jīng)網(wǎng)絡(luò)的自然語言處理等關(guān)鍵技術(shù)主要還是學(xué)習(xí)與模仿西方。此外,生成式人工智能的巨大數(shù)據(jù)處理能力得益于高算力芯片的數(shù)據(jù)存力,而目前高算力芯片的核心技術(shù)也由美國科技企業(yè)壟斷。正如前文所述,我國發(fā)布的“文心一言”等“類ChatGPT”產(chǎn)品所使用的仍是基于英文語境的大語言模型訓(xùn)練數(shù)據(jù)集,其所生成的內(nèi)容文本與中文語境完全不符、關(guān)聯(lián)度較低。對此,一方面,要加快支持生成式人工智能運行的算力基礎(chǔ)設(shè)施建設(shè),滿足大語言模型的高算力需求。另一方面,要加強關(guān)鍵技術(shù)自主研發(fā)能力,推動建構(gòu)基于中文語境的大語言模型訓(xùn)練數(shù)據(jù)集,確保生成式人工智能在我國的應(yīng)用能夠站穩(wěn)中國立場,體現(xiàn)社會主義核心價值觀基本要求。

        (三)完善智能倫理和法律規(guī)范,規(guī)避生成式人工智能的技術(shù)缺陷

        在全媒體時代境遇下,互聯(lián)網(wǎng)已經(jīng)和人類社會生活緊密融合。在這個意義上,網(wǎng)絡(luò)意識形態(tài)教育的內(nèi)涵和外延均有所延伸。當(dāng)下,人們關(guān)注顛覆性技術(shù)對人類社會變革的影響,必然會涉及網(wǎng)絡(luò)意識形態(tài)安全治理的有關(guān)議題。面對生成式人工智能給人類社會帶來的巨大挑戰(zhàn)和機遇,應(yīng)在有效規(guī)避各類智能技術(shù)及其倫理風(fēng)險的前提下,充分發(fā)揮生成式人工智能的技術(shù)優(yōu)勢,更好地促進網(wǎng)絡(luò)意識形態(tài)安全治理向更加高級、更加成熟的狀態(tài)邁進。首先,要加強智能技術(shù)治理,按照“以AI對AI”原則建立人工智能內(nèi)容監(jiān)測系統(tǒng),通過技術(shù)手段盡量規(guī)避現(xiàn)階段生成式人工智能存在的內(nèi)容重復(fù)、邏輯混亂、語法錯誤、語義矛盾等通用性缺陷。其次,要加強大數(shù)據(jù)模型訓(xùn)練,進一步搜集中文用戶的反饋數(shù)據(jù),用足夠多的數(shù)據(jù)不斷訓(xùn)練與優(yōu)化我國的生成式人工智能技術(shù)應(yīng)用產(chǎn)品,推動“文心一言”等“類ChatGPT”產(chǎn)品更加完善。再次,建立起符合智能技術(shù)發(fā)展水平的社會倫理道德秩序。面對社會倫理對生成式人工智能的約束仍存在空白的狀況,需要考慮社會成員對新技術(shù)運行下的新社會交往規(guī)則的適應(yīng)性,及時關(guān)注人與人的關(guān)系、人與智能機器的關(guān)系變化,探索建構(gòu)與智能技術(shù)水平相適應(yīng)的技術(shù)倫理規(guī)范。最后,建立與完善相應(yīng)法律法規(guī)。當(dāng)生成式人工智能可以進行更多類人化的思考時,將不可避免地給人工智能參與違法事件的責(zé)任界定等帶來法律爭議。為此,應(yīng)及時完善相應(yīng)的法律法規(guī),確保生成式人工智能在法律軌道上運行。

        (四)提高公眾人工智能素養(yǎng),理性甄別生成式人工智能的利弊

        進入數(shù)字化時代,學(xué)界對于公眾媒介素養(yǎng)的討論也不斷深入。從互聯(lián)網(wǎng)技術(shù)誕生之初的數(shù)字素養(yǎng),到大數(shù)據(jù)技術(shù)影響下的數(shù)據(jù)素養(yǎng)和算法素養(yǎng),再到人工智能技術(shù)影響下的人工智能素養(yǎng),體現(xiàn)出不同技術(shù)手段對于公眾媒介素養(yǎng)要求的側(cè)重點也不一致。在生成式人工智能融入社會生活以后,政府、社會和學(xué)校要順應(yīng)智能技術(shù)發(fā)展趨勢,加強對社會公眾的人工智能素養(yǎng)教育。一方面,要幫助社會成員及時了解生成式人工智能的最新技術(shù)成果,認識ChatGPT 的作用機制和運行機理,了解其給社會生活帶來的機遇和挑戰(zhàn)。另一方面,要著力培養(yǎng)人工智能素養(yǎng)與人文素養(yǎng)兼容的批判性思維,引導(dǎo)社會成員思考生成式人工智能的技術(shù)局限性,形成對ChatGPT 各類風(fēng)險的識別與抵制能力,防止公眾走入盲目技術(shù)崇拜的誤區(qū)以及對生成式人工智能的過度依賴。

        猜你喜歡
        人工智能人類用戶
        人類能否一覺到未來?
        人類第一殺手
        好孩子畫報(2020年5期)2020-06-27 14:08:05
        1100億個人類的清明
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        人工智能與就業(yè)
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        關(guān)注用戶
        商用汽車(2016年11期)2016-12-19 01:20:16
        下一幕,人工智能!
        關(guān)注用戶
        商用汽車(2016年6期)2016-06-29 09:18:54
        關(guān)注用戶
        商用汽車(2016年4期)2016-05-09 01:23:12
        色狠狠色狠狠综合天天| 国产乱人伦AⅤ在线麻豆A| 国产精品久久国产三级国| 国产亚洲精品97在线视频一| 国产成人精品久久一区二区三区| 中文无码成人免费视频在线观看| bbbbbxxxxx欧美性| 日本人妻系列中文字幕| 国产激情综合在线观看| 久久国产精品无码一区二区三区| 久久人妻av无码中文专区| 国产av熟女一区二区三区密桃| 国产动作大片中文字幕| 日本五月天婷久久网站| 亚洲双色视频在线观看| 91日韩东京热中文字幕| 久久成人国产精品| 成人艳情一二三区| 亚洲国产长腿丝袜av天堂| 国产小屁孩cao大人免费视频| 女同另类专区精品女同| 99久久久国产精品免费蜜臀| 婷婷伊人久久大香线蕉av| 台湾无码av一区二区三区| 91久久福利国产成人精品| 亚洲av免费看一区二区三区| 老妇高潮潮喷到猛进猛出| 女人扒开下面无遮挡| 国产中文字幕乱码在线| 成年人视频在线观看麻豆| 久久亚洲av成人无码电影a片| 亚洲熟女少妇一区二区| 亚洲国产精品一区二区第一| 人妖av手机在线观看| 久久久精品国产亚洲av网深田| 亚洲欧美aⅴ在线资源| 亚洲欧美国产日产综合不卡| 亚洲av日韩综合一区尤物| 丁香美女社区| 天天综合久久| 国产精品久久国产精麻豆|