摘" "要:[研究目的]類ChatGPT人工智能技術(shù)嵌入網(wǎng)絡(luò)輿情決策是大勢所趨,二者的有機(jī)結(jié)合有助于提升網(wǎng)絡(luò)輿情決策能力和水平,因此,研究這一嵌入的價值與風(fēng)險對推動網(wǎng)絡(luò)輿情決策朝著人機(jī)協(xié)同的智能決策發(fā)展具有現(xiàn)實意義。[研究方法]以描述性研究的方式介紹了類ChatGPT人工智能技術(shù)在網(wǎng)絡(luò)輿情決策中的地位及應(yīng)用現(xiàn)狀,分析類ChatGPT人工智能技術(shù)嵌入網(wǎng)絡(luò)輿情決策的價值,研判其風(fēng)險,并在此基礎(chǔ)上提出防范措施。[研究結(jié)論]類ChatGPT人工智能技術(shù)與網(wǎng)絡(luò)輿情決策的結(jié)合,有助于網(wǎng)絡(luò)輿情決策問題的確認(rèn)、信息的完善、效率的提升和預(yù)測的增強(qiáng),但也存在著決策失誤、決策偏狹、隱私侵犯和人機(jī)異化等風(fēng)險。類ChatGPT人工智能技術(shù)與網(wǎng)絡(luò)輿情決策的有機(jī)融合,需要從角色定位、技術(shù)把關(guān)、制度保障和數(shù)字素養(yǎng)等方面構(gòu)建風(fēng)險防范機(jī)制,不斷提升類ChatGPT人工智能技術(shù)嵌入網(wǎng)絡(luò)輿情決策的安全性、可靠性、可控性和公平性。
關(guān)鍵詞:ChatGPT;人工智能;網(wǎng)絡(luò)輿情;智能決策;風(fēng)險防控
中圖分類號:D601 文獻(xiàn)標(biāo)識碼:A DOI:10.19881/j.cnki.1006-3676.2024.12.07
2022年11月,ChatGPT橫空出世,瞬間成為全球焦點并掀起新一輪數(shù)智化革命浪潮,同時也引發(fā)了人們關(guān)于類ChatGPT人工智能應(yīng)用前景的思考和安全的憂慮。ChatGPT本質(zhì)上是一種基于大量語言訓(xùn)練生成轉(zhuǎn)換器模型[1],其強(qiáng)大的數(shù)據(jù)挖掘處理能力、語言理解交互能力、多領(lǐng)域的內(nèi)容生成及進(jìn)化涌現(xiàn)能力等[2],使其能夠按照用戶預(yù)先設(shè)定的目標(biāo)及需求,計算并生成文本、圖像、音頻、視頻等數(shù)字內(nèi)容,甚至還能完成諸如文本撰寫、文案創(chuàng)作、代碼編寫等極具“創(chuàng)新”和“思考”能力的任務(wù)。類ChatGPT人工智能技術(shù)已嵌入人們的日常生活并呈現(xiàn)出向?qū)I(yè)領(lǐng)域過渡的趨勢[3]。世界各國政府都在積極展開探索類ChatGPT人工智能的實踐,并且廣泛討論類ChatGPT人工智能的應(yīng)用價值,嘗試將類ChatGPT人工智能技術(shù)應(yīng)用到政府改革與治理的實踐之中。
網(wǎng)絡(luò)輿情決策是政府針對社會公眾圍繞現(xiàn)實社會中具有一定影響力的“焦點”事件或“熱點”問題,對于社會公眾通過網(wǎng)絡(luò)空間表達(dá)和傳遞的各種不同情緒、意見和訴求等的綜合表現(xiàn),為回應(yīng)社會公眾訴求、消解社會公眾疑慮、防止虛假信息蔓延和維護(hù)社會安全穩(wěn)定所作出的決策。隨著人類社會的網(wǎng)絡(luò)化、數(shù)字化、智能化轉(zhuǎn)型步伐的加快和類ChatGPT人工智能技術(shù)在網(wǎng)絡(luò)空間的滲透應(yīng)用,人們在網(wǎng)絡(luò)空間獲取信息資源、表達(dá)觀點情緒和展開互動交流變得更加暢通、快捷和高效[4]。網(wǎng)絡(luò)空間成為一個集信息交流、情感動員、價值傳遞、認(rèn)知塑造、行為激發(fā)等社會心理功能的綜合性社會空間,也成為各類社會風(fēng)險的策源地、傳感器和放大器,社會風(fēng)險向網(wǎng)絡(luò)空間匯集、影響公眾情緒和認(rèn)知的趨勢顯著增強(qiáng)[5],造成網(wǎng)絡(luò)輿情不斷涌現(xiàn)、復(fù)合彌散傳播、循環(huán)反轉(zhuǎn)爆發(fā)[6],網(wǎng)絡(luò)輿情急劇擴(kuò)散與風(fēng)險放大的可能性增加,考驗著政府網(wǎng)絡(luò)輿情風(fēng)險防范與危機(jī)治理能力。及時、精準(zhǔn)、科學(xué)的網(wǎng)絡(luò)輿情決策,就成為政府有效防范網(wǎng)絡(luò)輿情風(fēng)險與化解網(wǎng)絡(luò)輿情危機(jī),提升政府網(wǎng)絡(luò)輿情回應(yīng)能力和治理能力的關(guān)鍵。
科學(xué)技術(shù)是決策變革創(chuàng)新的社會背景和技術(shù)工具,類ChatGPT人工智能技術(shù)必將應(yīng)用于政府網(wǎng)絡(luò)輿情決策中并對決策過程產(chǎn)生影響。然而,目前關(guān)于類ChatGPT人工智能技術(shù)與政策關(guān)聯(lián)的研究,大多是將其作為政策規(guī)制的一種工具和手段[7],而將類ChatGPT人工智能技術(shù)聚焦到?jīng)Q策過程分析、特別是網(wǎng)絡(luò)輿情決策過程分析的研究相對較少。對于類ChatGPT人工智能技術(shù)嵌入網(wǎng)絡(luò)輿情決策,我們需要思考以下幾個問題:它具有哪些價值?面臨哪些風(fēng)險?如何防范風(fēng)險?對這些問題必須加以高度關(guān)注和進(jìn)行理性思考,“不斷提升人工智能技術(shù)的安全性、可靠性、可控性、公平性”[8]。類ChatGPT人工智能技術(shù)與網(wǎng)絡(luò)輿情決策過程的有機(jī)融合,不僅意味著我們應(yīng)正確認(rèn)識其嵌入網(wǎng)絡(luò)輿情決策的價值,而且更應(yīng)該剖析其嵌入網(wǎng)絡(luò)輿情決策的風(fēng)險并積極尋求風(fēng)險防范措施,進(jìn)而推動網(wǎng)絡(luò)輿情決策朝著科學(xué)化和智能化的方向發(fā)展。
一、類ChatGPT人工智能技術(shù)嵌入網(wǎng)絡(luò)輿情決策的價值分析
隨著社會理性化的不斷增進(jìn)和科學(xué)技術(shù)的快速發(fā)展,公共決策的過程也日益科學(xué)化和智能化。類ChatGPT人工智能技術(shù)與網(wǎng)絡(luò)輿情決策的結(jié)合,為網(wǎng)絡(luò)輿情決策問題的確認(rèn)、信息的完善、效率的提升和預(yù)測的增強(qiáng)等,提供了強(qiáng)有力的技術(shù)支撐和技術(shù)優(yōu)化途徑,成為規(guī)避網(wǎng)絡(luò)輿情決策失靈的工具。
(一)有助于確認(rèn)網(wǎng)絡(luò)輿情決策問題
網(wǎng)絡(luò)輿情政策問題的確認(rèn)是網(wǎng)絡(luò)輿情決策的起點,如果網(wǎng)絡(luò)輿情政策制定者能夠及時認(rèn)清和確定所面臨的網(wǎng)絡(luò)輿情決策問題,并及時制定政策、采取針對性措施加以引導(dǎo)并解決,就能夠有效防范網(wǎng)絡(luò)輿情風(fēng)險和化解網(wǎng)絡(luò)輿情危機(jī)。然而,在“互聯(lián)網(wǎng)+”時代,任何具有一定影響力的“焦點”事件或“熱點”問題,都會在網(wǎng)絡(luò)虛擬空間引發(fā)網(wǎng)民的激烈爭論和討論,不僅不同網(wǎng)民對同一事件或問題具有不同的訴求,而且隨著網(wǎng)絡(luò)輿情“焦點”事件的演進(jìn)或“熱點”問題的發(fā)酵,同一網(wǎng)民對同一事件或問題前后也可能持有不同的觀點和具有不同的訴求。網(wǎng)民訴求的潛在性、多樣性、動態(tài)性和復(fù)雜性,給政府網(wǎng)絡(luò)輿情決策帶來了極大的挑戰(zhàn)。如何有效地識別與整合網(wǎng)民的合理訴求,出臺針對性的網(wǎng)絡(luò)輿情政策予以回應(yīng),是政府網(wǎng)絡(luò)輿情決策的重點和難點。
類ChatGPT時代的到來及其技術(shù)在網(wǎng)絡(luò)輿情決策中的應(yīng)用,有助于政府在復(fù)雜多變且相互牽連的網(wǎng)絡(luò)輿情場景中精準(zhǔn)、快速地識別與有效歸納整合網(wǎng)民的訴求。一方面,類ChatGPT這種先進(jìn)的強(qiáng)人工智能技術(shù)擁有超強(qiáng)的記憶能力和推理能力,政府輿情部門借助ChatGPT這一功能優(yōu)勢,不僅能夠?qū)崿F(xiàn)對網(wǎng)民訴求的全流程、全方位、跟蹤式記錄,而且能夠通過數(shù)據(jù)分析、掌握信息節(jié)點的度數(shù)、介數(shù)和接近度[9],把握網(wǎng)民對“焦點”事件或“熱點”問題的看法,智能收集、分析、歸納整理網(wǎng)民的意愿和訴求,并且對未來可能出現(xiàn)的訴求趨勢作出預(yù)判,為決策者提供“最大公約數(shù)”的網(wǎng)民訴求,有利于快速確認(rèn)網(wǎng)絡(luò)輿情問題所在。另一方面,類ChatGPT具有極強(qiáng)的機(jī)器學(xué)習(xí)技術(shù)和語言處理技術(shù),能夠捕捉網(wǎng)絡(luò)空間人類難以發(fā)現(xiàn)的微妙信息,深入分析極其復(fù)雜的語言結(jié)構(gòu),大量隱蔽性信息得以深度挖掘、大量非結(jié)構(gòu)化數(shù)據(jù)得以精度分析,這能夠輔助政府決策部門全面收集民意和精準(zhǔn)識別民意,為政府識別網(wǎng)絡(luò)輿情的成因提供全面可靠信息。類ChatGPT技術(shù)對網(wǎng)民訴求的有效識別與整合,有助于政府決策部門敏捷發(fā)現(xiàn)網(wǎng)絡(luò)輿情問題所在,及時作出網(wǎng)絡(luò)輿情決策予以應(yīng)對。
(二)有助于完善網(wǎng)絡(luò)輿情決策信息
信息與數(shù)據(jù)是快速正確作出網(wǎng)絡(luò)輿情決策的重要依據(jù)。獲取全面、真實、有效的信息與數(shù)據(jù),及時、科學(xué)地對信息與數(shù)據(jù)進(jìn)行加工處理,為網(wǎng)絡(luò)輿情決策提供完善的信息與數(shù)據(jù)支撐,是做好網(wǎng)絡(luò)輿情決策的根本保證。網(wǎng)絡(luò)輿情發(fā)生后,各類信息龐雜、真假難辨,如何從海量的信息與數(shù)據(jù)中篩選出真實可靠的;如何將多類型、半結(jié)構(gòu)化和非結(jié)構(gòu)化混雜的信息與數(shù)據(jù)轉(zhuǎn)化為結(jié)構(gòu)化的;如何快速地收集整理、加工處理,這些問題都對政府網(wǎng)絡(luò)輿情信息與數(shù)據(jù)的采集、加工和處理提出了挑戰(zhàn),考驗著政府網(wǎng)絡(luò)輿情決策信息與數(shù)據(jù)的采集收集和加工處理能力。
類ChatGPT人工智能技術(shù)的迭代革新與創(chuàng)新應(yīng)用,有助于政府迅速收集與加工處理網(wǎng)絡(luò)輿情信息與數(shù)據(jù)。當(dāng)前,ChatGPT已超越了所有搜索引擎,具有突破時空、形式、領(lǐng)域等諸多限制進(jìn)行信息收集和數(shù)據(jù)抓取的能力,不僅能夠編輯萬億級參數(shù),而且處理參數(shù)的能力幾何式增加,這有助于采集與處理網(wǎng)絡(luò)輿情中海量龐雜的信息與數(shù)據(jù)。ChatGPT還通過機(jī)器學(xué)習(xí)、生成算法、預(yù)訓(xùn)練模型等,對網(wǎng)絡(luò)輿情決策所涉及的文本、圖片、音頻、視頻等多類型的信息與數(shù)據(jù),根據(jù)決策需要進(jìn)行信息與數(shù)據(jù)類型的靈活轉(zhuǎn)換和及時輸出,而且具備極強(qiáng)的自然語言學(xué)習(xí)能力和強(qiáng)大的知識遷移能力,機(jī)器會通過深度學(xué)習(xí)對網(wǎng)絡(luò)輿情決策信息與數(shù)據(jù)進(jìn)行自主化處理,從而更好地滿足決策需要。ChatGPT強(qiáng)大的信息采集儲存、加工處理、轉(zhuǎn)化輸出能力,幾乎能對所有的網(wǎng)絡(luò)輿情信息進(jìn)行搜索采集,并對不同類型的網(wǎng)絡(luò)輿情信息進(jìn)行綜合處理,其搜集和處理能力遠(yuǎn)超人類,能夠為網(wǎng)絡(luò)輿情決策提供更加完整和可靠的信息。
(三)有助于提升網(wǎng)絡(luò)輿情決策效率
決策時效是指決策的時間效力。任何決策方案都具有一定的時間要求和限制,只有在某一時刻、某一時間、某一期限內(nèi)作出的決策才是有效的。決策時效要求決策者在發(fā)現(xiàn)決策問題后,及時收集相關(guān)信息、綜合分析研判和確定決策方案。如果在決策時議而不決、決而不斷,不僅會使決策的效益降低,甚至?xí)騿栴}的性質(zhì)發(fā)生根本變化使得決策無效?!盎ヂ?lián)網(wǎng)+”時代,網(wǎng)絡(luò)輿情傳播主體的多元性與分散性、傳播渠道的多樣性與暢通性、傳播方式的實時性與互動性、傳播內(nèi)容的真實性與虛假性等[10],致使網(wǎng)絡(luò)輿情迅速蔓延擴(kuò)散和風(fēng)險無限放大。防止網(wǎng)絡(luò)輿情蔓延擴(kuò)散和風(fēng)險發(fā)生,就要及時制定網(wǎng)絡(luò)輿情決策和應(yīng)對措施。但信息收集儲存與加工處理技術(shù)、行政管理條塊分割、部門行政藩籬以及人力資源等因素,在一定程度上影響了網(wǎng)絡(luò)輿情決策的時效。
類ChatGPT人工智能技術(shù)與網(wǎng)絡(luò)輿情決策的結(jié)合,有助于解決上述問題,提升網(wǎng)絡(luò)輿情決策的效率。首先,類ChatGPT人工智能擁有強(qiáng)大的信息采集儲存和數(shù)據(jù)加工處理能力,不僅能夠?qū)W(wǎng)絡(luò)輿情所涉及的文字、圖片、音頻、視頻等各種信息進(jìn)行較為全面的采集儲存,而且能夠依據(jù)決策需要對圖片、音頻、視頻等半結(jié)構(gòu)化和非結(jié)構(gòu)化的數(shù)據(jù)進(jìn)行加工處理,提高了網(wǎng)絡(luò)輿情決策信息采集儲存和數(shù)據(jù)加工處理效率。其次,類ChatGPT人工智能的數(shù)據(jù)共享平臺和語言學(xué)習(xí)能力,不僅可以打破政府部門間的網(wǎng)絡(luò)輿情“信息孤島”,破解政府部門間的自成體系與相互隔絕的狀況,促進(jìn)網(wǎng)絡(luò)輿情信息在政府內(nèi)部縱橫向的傳遞與交流,而且其超強(qiáng)的自然語言學(xué)習(xí)能力,極大地消解了不同單位間數(shù)據(jù)交換與整合標(biāo)準(zhǔn)不同所帶來的“數(shù)字鴻溝”問題,提高了政府內(nèi)部網(wǎng)絡(luò)輿情決策信息互通和數(shù)據(jù)共享效率。最后,類ChatGPT人工智能的技術(shù)機(jī)制塑造了人機(jī)互動的新型關(guān)系,人工智能不再是單純的決策工具,而成為決策過程中智能化的決策主體,人與機(jī)器形成“一種相互協(xié)作、彼此增強(qiáng)的模式”[11],人機(jī)關(guān)系從人與工具之間的被動式反饋轉(zhuǎn)向即時主動式交互,機(jī)器承擔(dān)了人類決策中的諸多事項,可以輔助用戶快速作出決策,進(jìn)一步提升了網(wǎng)絡(luò)輿情決策的時效性和科學(xué)性。
(四)有助于增強(qiáng)網(wǎng)絡(luò)輿情決策預(yù)測
預(yù)測是指人們利用已經(jīng)掌握的知識和手段,預(yù)先判斷事物未來發(fā)展?fàn)顩r的一種活動。人類面臨著各種潛在的社會風(fēng)險,有效預(yù)測風(fēng)險就成為有效防范風(fēng)險的基本要求。網(wǎng)絡(luò)輿情決策預(yù)測是指政府決策部門根據(jù)網(wǎng)絡(luò)輿情過去發(fā)展演變的客觀過程和某些規(guī)律性,運(yùn)用各種科學(xué)的決策技術(shù)和方法,對網(wǎng)絡(luò)輿情未來可能出現(xiàn)的趨勢進(jìn)行科學(xué)推測,以便把握網(wǎng)絡(luò)輿情發(fā)展變化趨勢,及時調(diào)整決策,并選擇相應(yīng)的政策方案以達(dá)到消解網(wǎng)絡(luò)輿情風(fēng)險的最終目標(biāo)。網(wǎng)絡(luò)輿情常常具有循環(huán)反轉(zhuǎn)爆發(fā)的特征,這就要求網(wǎng)絡(luò)輿情決策不僅要具有“滅火”功能,而且還要具有“防火”功能。但傳統(tǒng)的網(wǎng)絡(luò)輿情決策由于受到?jīng)Q策技術(shù)和方法的限制,致使其預(yù)測功能不足。
類ChatGPT人工智能是一個具有預(yù)測建模功能的先進(jìn)網(wǎng)絡(luò)技術(shù)平臺,能夠通過大量數(shù)據(jù)、算法推薦和模型推演預(yù)測事物未來發(fā)展變化趨勢?!霸谛?shù)據(jù)的世界中,相關(guān)關(guān)系也是有用的,但在大數(shù)據(jù)的背景下,相關(guān)關(guān)系大放異彩。”[12]情感認(rèn)知與行為之間具有千絲萬縷的關(guān)聯(lián),大數(shù)據(jù)賦予了這種聯(lián)系的可預(yù)測性。大數(shù)據(jù)的算法推薦和模型推演,既能夠預(yù)測客體的情感認(rèn)知,又能夠在回應(yīng)客體情感認(rèn)知的過程中實現(xiàn)主體對客體情感和行為的引導(dǎo)[13]。類ChatGPT人工智能技術(shù)可以通過對網(wǎng)絡(luò)輿情的文本挖掘、情感分析、議題建模推演等,從海量的網(wǎng)絡(luò)輿情數(shù)據(jù)中提取關(guān)鍵信息,識別網(wǎng)民的情感傾向和主要訴求,并結(jié)合深度學(xué)習(xí)技術(shù),通過訓(xùn)練深層神經(jīng)網(wǎng)絡(luò)提取海量且復(fù)雜的輿情信息中的“關(guān)鍵詞”預(yù)測網(wǎng)絡(luò)輿情的發(fā)展趨勢。類ChatGPT人工智能通過跨模態(tài)深度學(xué)習(xí)模型形成了強(qiáng)大的自我學(xué)習(xí)機(jī)制,不僅能夠在龐大復(fù)雜的網(wǎng)絡(luò)輿情信息中挑選自己需要的信息進(jìn)行自我學(xué)習(xí)和反復(fù)訓(xùn)練,從而增強(qiáng)算法推薦的可預(yù)測性,而且能夠?qū)⒅骺腕w置于既定的學(xué)習(xí)模型中,形成人與技術(shù)互動的“請求—回應(yīng)”關(guān)系[14],進(jìn)一步優(yōu)化算法和模型,從而增強(qiáng)預(yù)測的準(zhǔn)確性。
二、類ChatGPT人工智能技術(shù)嵌入網(wǎng)絡(luò)輿情決策的潛在風(fēng)險
類ChatGPT人工智能技術(shù)在網(wǎng)絡(luò)輿情決策中的應(yīng)用,優(yōu)化了網(wǎng)絡(luò)輿情決策工具,提升了網(wǎng)絡(luò)輿情決策效率,也為網(wǎng)絡(luò)輿情決策智能化帶來機(jī)遇。但同任何科學(xué)技術(shù)一樣,類ChatGPT人工智能技術(shù)與網(wǎng)絡(luò)輿情決策的融合,也給政府網(wǎng)絡(luò)輿情決策帶來諸多挑戰(zhàn)與風(fēng)險,可能造成網(wǎng)絡(luò)輿情決策的失靈。
(一)數(shù)據(jù)失真導(dǎo)致網(wǎng)絡(luò)輿情決策的失誤
高質(zhì)量的網(wǎng)絡(luò)輿情信息與數(shù)據(jù)是確保網(wǎng)絡(luò)輿情決策準(zhǔn)確性的前提和基礎(chǔ)。海量數(shù)據(jù)是類ChatGPT人工智能介入網(wǎng)絡(luò)輿情決策的基礎(chǔ)資料,也是網(wǎng)絡(luò)輿情決策智能化過程中最為關(guān)鍵的資源,數(shù)據(jù)數(shù)量與質(zhì)量直接影響網(wǎng)絡(luò)輿情決策的準(zhǔn)確性。盡管類ChatGPT人工智能技術(shù)對網(wǎng)絡(luò)輿情海量多源的信息與數(shù)據(jù),在采集儲存、加工處理、轉(zhuǎn)換輸出等方面具有優(yōu)勢,但卻無法對網(wǎng)絡(luò)輿情決策所提供信息與數(shù)據(jù)的真實性負(fù)責(zé)。首先,類ChatGPT人工智能技術(shù)在進(jìn)行網(wǎng)絡(luò)輿情決策信息與數(shù)據(jù)采集時,只是對網(wǎng)絡(luò)輿情信息與數(shù)據(jù)的歸類壓縮和重新包裝,不會真正地理解信息和刻意篩選數(shù)據(jù),也不能對信息與數(shù)據(jù)來源的真實性進(jìn)行判斷,因而無法確保所采集的網(wǎng)絡(luò)輿情信息與數(shù)據(jù)的真實性。其次,類ChatGPT人工智能技術(shù)在網(wǎng)絡(luò)輿情決策信息與數(shù)據(jù)分析中,可能由于預(yù)訓(xùn)練語料庫信息與數(shù)據(jù)的包容性和多樣性不足,以及隱蔽性地采用具有偏見的模型對信息與數(shù)據(jù)進(jìn)行編輯,在網(wǎng)絡(luò)輿情信息與數(shù)據(jù)的加工處理中放大偏見效應(yīng)并形成惡性循環(huán)。最后,類ChatGPT人工智能技術(shù)在網(wǎng)絡(luò)輿情決策信息與數(shù)據(jù)輸出時,只是按照用戶需求對海量網(wǎng)絡(luò)輿情信息篩選后給出單一且標(biāo)準(zhǔn)化的內(nèi)容,對于生成內(nèi)容本身的真實性和準(zhǔn)確性無法判斷,可能導(dǎo)致產(chǎn)生大量虛假網(wǎng)絡(luò)輿情信息,甚至被利用生成惡意內(nèi)容。顯而易見,類ChatGPT人工智能技術(shù)在網(wǎng)絡(luò)輿情決策信息與數(shù)據(jù)的收集、分析和輸出時,都存在著數(shù)據(jù)失真的可能性。所以,基于數(shù)據(jù)、算法和模型的網(wǎng)絡(luò)輿情決策結(jié)果的準(zhǔn)確性和可靠性需要驗證。
(二)算法偏見造成網(wǎng)絡(luò)輿情決策的偏狹
算法是基于特定計算模式或特定運(yùn)算程序?qū)⑤斎氲臄?shù)據(jù)轉(zhuǎn)化為可預(yù)期結(jié)果的一套指令或編碼程序[15]。決策由人類決策轉(zhuǎn)向算法決策的一個重要緣由是減少偏見和歧視的普遍性,然而,基于算法的決策從算法設(shè)計到數(shù)據(jù)采集再到具體運(yùn)算的環(huán)節(jié)都可能隱藏著偏見。類ChatGPT人工智能技術(shù)與網(wǎng)絡(luò)輿情決策的結(jié)合,其算法偏見在決策過程中表現(xiàn)在四個方面。一是類ChatGPT人工智能算法本身可能不是盡善盡美的,它可能受設(shè)計者自身認(rèn)知偏見和外部利益驅(qū)動的影響,研發(fā)者在設(shè)計算法時將自己的價值觀念和喜好滲透到人工智能算法的編程中,并為其塑造特定的信息環(huán)境,這些充斥算法偏見的“信息繭房”以“積極”或“消極”的方式影響使用者的認(rèn)知思維,甚至固化了使用者的認(rèn)知思維并驅(qū)使其走向主觀化和片面化。也就是說,網(wǎng)絡(luò)輿情決策者的認(rèn)知思維深受算法本身的束縛和影響,導(dǎo)致其決策認(rèn)知思維的偏見和狹隘。二是類ChatGPT人工智能算法結(jié)果的輸出歸根結(jié)底來自數(shù)據(jù)的輸入,但無論是訓(xùn)練數(shù)據(jù)還是決策數(shù)據(jù)的輸入,都會受到操作者主觀因素的影響,尤其是在網(wǎng)絡(luò)輿情決策中決策者對網(wǎng)絡(luò)輿情信息與數(shù)據(jù)的偏好是客觀存在的,信息與數(shù)據(jù)輸入的非客觀和不完整,造成網(wǎng)絡(luò)輿情決策內(nèi)容的不全面。三是類ChatGPT人工智能算法并不會分析判斷使用者給出的指示是否符合主流價值觀,而網(wǎng)絡(luò)輿情決策者價值觀的正確與否,將影響到網(wǎng)絡(luò)輿情決策的客觀公正。四是類ChatGPT人工智能基于數(shù)據(jù)的算法在深度挖掘網(wǎng)絡(luò)輿情信息過程中,可能自行發(fā)現(xiàn)有用規(guī)律,突破決策者算法規(guī)則的預(yù)期設(shè)想而產(chǎn)生難以預(yù)料的算法偏見。由此可見,基于類ChatGPT人工智能算法的網(wǎng)絡(luò)輿情決策,由于算法本身的不中立性、數(shù)據(jù)隱含錯誤和人為操控等原因,使其不僅不能充分發(fā)揮在決策中的正向效應(yīng),相反還容易導(dǎo)致決策內(nèi)容傾向的異化,難以保證決策的客觀公正,影響公眾對決策的認(rèn)同感。
(三)技術(shù)濫用引發(fā)決策中個人隱私侵犯
互聯(lián)網(wǎng)和信息技術(shù)的發(fā)展應(yīng)用,引發(fā)了個人信息泄露和隱私侵犯問題。人類社會的網(wǎng)絡(luò)化、數(shù)字化、智能化使個人隱私泄露風(fēng)險大大增加,這不單指個人信息泄露于公共領(lǐng)域,更是個人數(shù)據(jù)的組合將人立體暴露于大眾視野中,數(shù)據(jù)與算法所構(gòu)建的“超級全景監(jiān)獄”致使身處其中的人毫無隱私可言[16]。類ChatGPT人工智能技術(shù)嵌入網(wǎng)絡(luò)輿情決策,可能會引發(fā)個人隱私侵犯風(fēng)險。首先,在決策信息與數(shù)據(jù)的獲取過程中,無序的信息與數(shù)據(jù)挖掘可能會侵犯個人隱私。運(yùn)用類ChatGPT人工智能技術(shù)對關(guān)涉網(wǎng)絡(luò)輿情個人的大量非公開信息與數(shù)據(jù)進(jìn)行挖掘時,雖然人工智能在關(guān)涉網(wǎng)絡(luò)輿情個人信息與數(shù)據(jù)的采集過程中會采取一定的匿名化和脫敏措施,但在深度挖掘過程中如果這些信息與數(shù)據(jù)沒有得到妥善保護(hù),就無法完全消除侵犯和泄露個人隱私的風(fēng)險。其次,在決策信息與數(shù)據(jù)的分析過程中,基于個人信息與數(shù)據(jù)的算法推斷也可能存在侵犯個人隱私的情況。即使類ChatGPT人工智能技術(shù)在網(wǎng)絡(luò)輿情決策中收集到的個人信息與數(shù)據(jù)是碎片的、孤立的和被去除個人標(biāo)識的,其憑借強(qiáng)大的數(shù)據(jù)收集、信息整合和算法分析能力,也可以從碎片、孤立和匿名的信息與數(shù)據(jù)中推斷出個人的身份信息和基本特征,勾勒出個人的情感認(rèn)知狀態(tài)甚至生成“數(shù)據(jù)畫像”,重新識別并揭示個人隱私。最后,在決策信息與數(shù)據(jù)的使用過程中,政府部門數(shù)據(jù)安全保密制度的缺失和工作人員專業(yè)素養(yǎng)不高也會造成個人隱私泄露。網(wǎng)絡(luò)輿情決策需要各單位能夠及時進(jìn)行信息交流和數(shù)據(jù)共享,相關(guān)部門協(xié)同合作作出網(wǎng)絡(luò)輿情決策,但在信息交流與數(shù)據(jù)共享的過程中,可能由于政府部門數(shù)據(jù)安全保密制度的缺失和工作人員數(shù)字素養(yǎng)不高,導(dǎo)致個人信息和隱私泄露。
(四)機(jī)器依賴弱化決策中人的主體地位
類ChatGPT人工智能技術(shù)與網(wǎng)絡(luò)輿情決策的結(jié)合,在決策數(shù)據(jù)的采集儲存、加工處理、輸出轉(zhuǎn)換、推測預(yù)測等方面顯示出優(yōu)勢,但這可能會讓人們陶醉于類ChatGPT人工智能與人類相似的理解能力、推測能力和創(chuàng)造能力,而忘記充分思考其技術(shù)弊端。不清楚技術(shù)弊端的源頭和回溯機(jī)制,只是盲目地在決策過程中通過機(jī)器收集的信息和輸出的數(shù)據(jù)進(jìn)行決策方案的設(shè)計與擇優(yōu),這樣就會產(chǎn)生對機(jī)器的過度依賴。“隨著科學(xué)家越來越了解人類的決策機(jī)制,對算法的依賴可能也會越來越強(qiáng)烈。掌握了人類的決策機(jī)制后,就能提升大數(shù)據(jù)算法的可能性,但同時降低了人類感受的可靠性?!盵17]網(wǎng)絡(luò)輿情決策過程中對機(jī)器的依賴程度越高,人的主觀能動性可能會變得無關(guān)緊要,所有與機(jī)器生成數(shù)據(jù)不同的觀點或者質(zhì)疑機(jī)器的聲音都會被自動忽略,決策系統(tǒng)反而在技術(shù)發(fā)展中封閉起來,人在決策中的主體地位被削弱。然而,類ChatGPT人工智能技術(shù)嵌入網(wǎng)絡(luò)輿情決策,存在著因數(shù)據(jù)失真導(dǎo)致決策的“不科學(xué)”、算法偏見導(dǎo)致決策的“不客觀”、算法黑箱導(dǎo)致決策的“不理解”、缺乏善意導(dǎo)致決策的“不可控”、智能幻覺導(dǎo)致安全的“不可靠”等諸多風(fēng)險或問題,而這些風(fēng)險或問題是類ChatGPT人工智能技術(shù)嵌入網(wǎng)絡(luò)輿情決策自身帶來且通過自身無法消解的,只有充分發(fā)揮人在網(wǎng)絡(luò)輿情決策中的主觀能動性,才有可能防范這些風(fēng)險或化解這些問題。如果在網(wǎng)絡(luò)輿情決策過程中過于依賴于機(jī)器,缺乏人的理性思維、批判精神和價值關(guān)懷,純技術(shù)化的決策過程可能會生成片面化的決策。
三、類ChatGPT人工智能技術(shù)嵌入網(wǎng)絡(luò)輿情決策的風(fēng)險防范
類ChatGPT人工智能技術(shù)嵌入網(wǎng)絡(luò)輿情決策,既給決策過程優(yōu)化提供了技術(shù)支撐,又在決策過程中隱藏著潛在的風(fēng)險。我們要積極利用其對網(wǎng)絡(luò)輿情決策有利的一面,又要理性思考其在網(wǎng)絡(luò)輿情決策中存在的各種風(fēng)險,并積極主動采取各種應(yīng)對措施,有效防范各種風(fēng)險。
(一)合理界定類ChatGPT嵌入網(wǎng)絡(luò)輿情決策的角色定位
類ChatGPT人工智能本質(zhì)上是一個基于統(tǒng)計學(xué)習(xí)方法的猜詞模型,該模型通過海量多模態(tài)數(shù)據(jù)的訓(xùn)練,從而具有了與人類相似的理解能力、推測能力和創(chuàng)造能力,可以代替人類進(jìn)行部分腦力勞動,形成人機(jī)共生的關(guān)系。但對機(jī)器的過于依賴可能會造成人機(jī)關(guān)系的異化,使人失去想象力、批判力和創(chuàng)造力,甚至純粹淪為技術(shù)的附庸。馬克思曾經(jīng)深刻地指出,機(jī)器代替手工勞動導(dǎo)致人的異化,使得一部分人變成了機(jī)器,“勞動生產(chǎn)了智慧,但是給工人生產(chǎn)了愚鈍和癡呆”[18]。雖然類ChatGPT人工智能具有與人類大腦類似的特性和能力,可以模擬人類的思維和認(rèn)知,但它的這種類腦化思維和認(rèn)知屬于直覺思維和快思考,不具備人類的批判性思維和理性思考能力,在網(wǎng)絡(luò)輿情決策的問答“接龍游戲”中,其僅僅是通過對海量網(wǎng)絡(luò)輿情數(shù)據(jù)的統(tǒng)計和算法分析做到“講人話”,而無法確保其所講的是“真話”,機(jī)器學(xué)習(xí)的概率性質(zhì)與技術(shù)邏輯決定了無法保證其輸出的決策結(jié)果的真實性和客觀性。而人類的思維和認(rèn)知是一種批判性思維和辨識性認(rèn)知,可以基于對事物前因后果關(guān)系的客觀認(rèn)知與主觀經(jīng)驗的相互作用,實現(xiàn)閉環(huán)思考并完整理解事物背后的意義,尤其是在網(wǎng)絡(luò)輿情決策中,人類能夠結(jié)合語境對網(wǎng)絡(luò)空間的語言、情緒和情感等蘊(yùn)含的寓意進(jìn)行全面思考和辯證分析,從而真正理解網(wǎng)民的訴求,提高決策的科學(xué)性。類ChatGPT給人類在網(wǎng)絡(luò)輿情決策過程中提供了諸多技術(shù)支撐,將人類從決策的一些常規(guī)性工作中解放出來,從而集中精力思考決策價值問題和發(fā)揮創(chuàng)造力探索發(fā)展方向,我們不能再將類ChatGPT視為傳統(tǒng)的決策技術(shù)工具,但也不能將其等同于與人類一樣的決策主體。在網(wǎng)絡(luò)輿情決策過程中,類ChatGPT只是輔助人類作出決策的工具,并不會完全代替人類作出決策,人類在決策過程中仍然占據(jù)主導(dǎo)地位,并需要對類ChatGPT進(jìn)行監(jiān)管使其更好地為人類決策服務(wù),這是類ChatGPT嵌入網(wǎng)絡(luò)輿情決策需要確立的基本理念。
(二)持續(xù)強(qiáng)化類ChatGPT嵌入網(wǎng)絡(luò)輿情決策的技術(shù)把關(guān)
數(shù)據(jù)、算法和算力是類ChatGPT人工智能技術(shù)嵌入并推動網(wǎng)絡(luò)輿情決策智能化發(fā)展的“三駕馬車”,只有數(shù)據(jù)真實可靠和算法客觀公正,才能發(fā)揮類ChatGPT人工智能技術(shù)嵌入網(wǎng)絡(luò)輿情決策的正向效應(yīng),推動網(wǎng)絡(luò)輿情決策向智能化方向發(fā)展。為了確保類ChatGPT人工智能技術(shù)在網(wǎng)絡(luò)輿情決策中的應(yīng)用向善向美,必須持續(xù)強(qiáng)化對數(shù)據(jù)獲取和算法應(yīng)用的技術(shù)把關(guān)。一方面,確保數(shù)據(jù)采集的真實可靠和使用的合理合法。數(shù)據(jù)的質(zhì)量決定了類ChatGPT人工智能技術(shù)在網(wǎng)絡(luò)輿情決策中應(yīng)用的結(jié)果,因為準(zhǔn)確且真實的數(shù)據(jù)有利于政府運(yùn)用類ChatGPT人工智能作出科學(xué)的網(wǎng)絡(luò)輿情決策,政府網(wǎng)絡(luò)輿情管理部門應(yīng)明確數(shù)據(jù)的獲取途徑和方式,并對數(shù)據(jù)來源的途徑和獲取的數(shù)據(jù)進(jìn)行嚴(yán)格審查,杜絕從不正規(guī)的、非法的渠道獲取數(shù)據(jù),避免虛假性、歧視性的數(shù)據(jù)滲入網(wǎng)絡(luò)輿情決策數(shù)據(jù)中,從源頭上防止因數(shù)據(jù)的失真導(dǎo)致網(wǎng)絡(luò)輿情決策的失誤;同時還要合法合理使用數(shù)據(jù),政府網(wǎng)絡(luò)輿情管理部門需要在合法合理范圍內(nèi)利用采集的信息與數(shù)據(jù),將其用于回應(yīng)網(wǎng)民合理利益訴求和防范網(wǎng)絡(luò)輿情風(fēng)險,向網(wǎng)民傳遞最準(zhǔn)確的信息、還原事件或問題真相,消解網(wǎng)絡(luò)輿情風(fēng)險,引導(dǎo)網(wǎng)絡(luò)輿情良性發(fā)展。另一方面,完善算法運(yùn)行規(guī)則和提高算法透明度。類ChatGPT人工智能算法作為嵌入網(wǎng)絡(luò)輿情決策的核心技術(shù),在算法運(yùn)行中應(yīng)以公正性原則為指導(dǎo),完善算法運(yùn)行的相關(guān)規(guī)則,避免因決策者個人的好惡而對網(wǎng)絡(luò)輿情信息與數(shù)據(jù)進(jìn)行篩選或過濾,確保為算法提供體現(xiàn)網(wǎng)絡(luò)輿情客觀性和公正性的信息與數(shù)據(jù);同時還要提高算法透明度,算法透明不僅要求公開算法過程,而且要求增強(qiáng)算法結(jié)果的解釋。通過完善算法運(yùn)行規(guī)則和提高算法透明度,有效規(guī)避網(wǎng)絡(luò)輿情決策中的算法偏見、算法歧視和算法操控,從而增強(qiáng)基于算法的網(wǎng)絡(luò)輿情決策的客觀性和可信性。
(三)建立健全類ChatGPT嵌入網(wǎng)絡(luò)輿情決策的制度保障
“制度治理與技術(shù)治理之間有一種相互補(bǔ)充的關(guān)系”[19],“智能決策”不僅需要技術(shù)支撐,而且需要制度保障。類ChatGPT人工智能技術(shù)嵌入網(wǎng)絡(luò)輿情決策,需要針對其制度尚不健全的現(xiàn)狀,不斷完善其在網(wǎng)絡(luò)輿情決策中應(yīng)用的制度規(guī)則,以保障其在網(wǎng)絡(luò)輿情決策中正向效應(yīng)的發(fā)揮并有效預(yù)防其帶來的諸多風(fēng)險。第一,制定類ChatGPT技術(shù)嵌入網(wǎng)絡(luò)輿情決策的相關(guān)法規(guī)。政府有關(guān)部門應(yīng)盡快制定相關(guān)法規(guī),規(guī)范類ChatGPT技術(shù)在網(wǎng)絡(luò)輿情決策中應(yīng)用的范圍和邊界,包括對網(wǎng)絡(luò)輿情決策數(shù)據(jù)的來源渠道、數(shù)據(jù)的篩選處理、算法的使用規(guī)則、個人隱私的保護(hù)等進(jìn)行明確的規(guī)定和要求。第二,構(gòu)筑類ChatGPT技術(shù)嵌入網(wǎng)絡(luò)輿情決策的倫理規(guī)約。倫理規(guī)約是應(yīng)對技術(shù)危機(jī)的必由之路。在網(wǎng)絡(luò)輿情決策中建立人機(jī)共生的協(xié)作關(guān)系,需要構(gòu)筑堅持以人為本、尊重人的主體性,準(zhǔn)確安全、公平透明,可解釋、可問責(zé)且堅實有力的類ChatGPT人工智能倫理規(guī)約,強(qiáng)化人在網(wǎng)絡(luò)輿情決策中的主體地位和誠信品質(zhì)。第三,健全類ChatGPT技術(shù)嵌入網(wǎng)絡(luò)輿情決策的監(jiān)管制度。目前有關(guān)人工智能技術(shù)發(fā)展和應(yīng)用的監(jiān)管制度尚未形成體系,要想讓類ChatGPT技術(shù)在網(wǎng)絡(luò)輿情決策中向善而不是作惡,就需要建立起多主體、各環(huán)節(jié)、多維度、全方位的監(jiān)管體系,一旦發(fā)現(xiàn)類ChatGPT人工智能在技術(shù)設(shè)計和使用方面的違法或不當(dāng),監(jiān)管部門就應(yīng)該立即予以制止并監(jiān)督整改落實,規(guī)避類ChatGPT人工智能技術(shù)在網(wǎng)絡(luò)輿情決策中的濫用。第四,建立類ChatGPT技術(shù)嵌入網(wǎng)絡(luò)輿情決策的風(fēng)險防控機(jī)制。類ChatGPT技術(shù)嵌入網(wǎng)絡(luò)輿情決策后,會因技術(shù)自身因素或應(yīng)用不當(dāng),而滋生諸多風(fēng)險,應(yīng)針對類ChatGPT技術(shù)在網(wǎng)絡(luò)輿情決策中數(shù)據(jù)的采集儲存、加工處理、共享使用、轉(zhuǎn)換輸出等方面存在的潛在風(fēng)險和安全隱患,建立全過程、全方位、立體化的風(fēng)險防范機(jī)制和安全保障體系。
(四)培養(yǎng)提升決策相關(guān)人員使用類ChatGPT的數(shù)字素養(yǎng)
決策人員的數(shù)字素養(yǎng)對類ChatGPT技術(shù)在網(wǎng)絡(luò)輿情決策中正向效應(yīng)的發(fā)揮、潛在風(fēng)險的防范和可持續(xù)發(fā)展至關(guān)重要。因此,要教育和幫助網(wǎng)絡(luò)輿情決策相關(guān)人員主動適應(yīng)網(wǎng)絡(luò)輿情決策智能化發(fā)展的要求,全面提升自己的技術(shù)能力和數(shù)字素養(yǎng)。第一,樹立人在決策中的主體地位。強(qiáng)化人在決策中的主體地位,堅持以人為主、以物為用的原則,平衡工具理性與價值理性的關(guān)系,防止工具理性對價值理性的僭越。“技術(shù)所要解決的是主體同客體的關(guān)系問題”[20],網(wǎng)絡(luò)輿情決策人員必須認(rèn)識到,類ChatGPT技術(shù)可以是輔助人類優(yōu)化決策的手段,卻無法替代人類作出決策,其在決策中的使用應(yīng)既包含對技術(shù)工具理性目標(biāo)的追求,又要充分彰顯對人類價值理性的尊崇,不應(yīng)該將類ChatGPT技術(shù)視為決策中無所不能的“全能神”,更不應(yīng)該放棄人在決策中的主體性地位,而是要促進(jìn)決策中工具理性與價值理性的平衡,實現(xiàn)決策中人機(jī)關(guān)系的和諧共生。第二,提升決策人員應(yīng)用類ChatGPT的技術(shù)能力。提升決策人員向ChatGPT等大型自然語言模型恰當(dāng)提出問題、并對其回答進(jìn)行判斷和驗證的能力,以便得到高質(zhì)量的回答和發(fā)現(xiàn)回答中出現(xiàn)的偏差,避免簡單機(jī)械化應(yīng)用ChatGPT技術(shù)可能帶來的決策風(fēng)險;還需要掌握算法的基本概念、理解算法的應(yīng)用原理和遵守算法的基本原則,避免算法運(yùn)用不當(dāng)造成決策不夠客觀公正。第三,培養(yǎng)決策人員應(yīng)用類ChatGPT技術(shù)的安全意識。培養(yǎng)決策人員的隱私保護(hù)意識,在網(wǎng)絡(luò)輿情數(shù)據(jù)采集中不得刻意收集個人信息和挖掘個人隱私,在決策過程中應(yīng)妥善保護(hù)個人信息和隱私不外泄;培養(yǎng)決策人員的數(shù)據(jù)安全意識,確保決策數(shù)據(jù)來源的真實性、可靠性和儲存的安全性,避免數(shù)據(jù)失真造成決策的失誤和數(shù)據(jù)被竊取而濫用;培養(yǎng)決策人員的風(fēng)險防范意識,避免在不安全的環(huán)境下使用個人信息和數(shù)據(jù)進(jìn)行決策。
四、結(jié)語
類ChatGPT人工智能技術(shù)與網(wǎng)絡(luò)輿情決策的結(jié)合,既為網(wǎng)絡(luò)輿情決策帶來了諸多便利,也給網(wǎng)絡(luò)輿情決策帶來各種風(fēng)險。但類ChatGPT人工智能技術(shù)在網(wǎng)絡(luò)輿情決策中的應(yīng)用是大勢所趨、不可逆轉(zhuǎn)的,我們不能因為其在賦能網(wǎng)絡(luò)輿情決策過程中存在風(fēng)險就將其束之高閣,而是要從需求和問題導(dǎo)向出發(fā),思考如何使其在技術(shù)上可行、制度上可為和管理上可控等現(xiàn)實問題,堅持以人為主、以物為用相統(tǒng)一原則、技術(shù)理性與價值理性平衡原則,全面分析類ChatGPT人工智能技術(shù)對網(wǎng)絡(luò)輿情決策的積極作用與不利影響,理性思考網(wǎng)絡(luò)輿情決策中的人機(jī)關(guān)系,積極探索網(wǎng)絡(luò)輿情決策過程中人機(jī)協(xié)同的智能決策模式。
參考文獻(xiàn):
[1] 鈄曉東.論生成式人工智能的數(shù)據(jù)安全風(fēng)險及回應(yīng)型治理[J].東方法學(xué),2023(5):106-116.
[2] 許源源,陳智.新一代人工智能技術(shù)社會化應(yīng)用的脆弱性及其韌性治理研究:以ChatGPT為例[J].電子政務(wù),2023(9):39-49.
[3] 唐林垚.具身倫理下ChatGPT的法律規(guī)制及中國路徑[J].東方法學(xué),2023(3):34-46.
[4] 張新平,金夢涵.人工智能時代網(wǎng)絡(luò)輿情治理的轉(zhuǎn)型與創(chuàng)新[J].情報雜志,2021,40(10):66-73,165.
[5] 呂小康,楊婷婷.智能時代的社會心態(tài)及其治理:以ChatGPT引發(fā)的心態(tài)危機(jī)為例[J].蘇州大學(xué)學(xué)報(教育科學(xué)版),2023,11(4):72-79.
[6] 張愛軍,賈璐.類ChatGPT人工智能語境下網(wǎng)絡(luò)輿情安全的風(fēng)險樣態(tài)及其規(guī)制[J].情報雜志,2023,42(12):180-187.
[7] 陳少威,吳劍霞.人工智能治理風(fēng)險和工具的識別與匹配研究:基于政策文本的分析[J].中國行政管理,2022(9):23-30.
[8] 習(xí)近平.團(tuán)結(jié)協(xié)作謀發(fā)展 勇于擔(dān)當(dāng)促和平[N].人民日報,2023-08-24(2).
[9] 王寶貴,范鵬,施韶亭.ChatGPT影響民主的技術(shù)邏輯、研判分析及應(yīng)對策略[J].海南大學(xué)學(xué)報(人文社會科學(xué)版),2025,43(1):1-10.
[10] 周偉.自媒體時代網(wǎng)絡(luò)輿情政府回應(yīng)困境與消解路徑[J].情報雜志,2018,37(4):100-105,99.
[11] 金庚星.媒介即模型:“人—ChatGPT”共生自主系統(tǒng)的智能涌現(xiàn)[J].學(xué)術(shù)界,2023(4):72-79.
[12] 舍恩伯格,庫克耶.大數(shù)據(jù)時代:生活、工作與思維的大變革[M].盛楊燕,周搖濤,譯.杭州:浙江人民出版社,2013:71.
[13] 向繼友,吳學(xué)琴.類ChatGPT生成式人工智能的意識形態(tài)風(fēng)險及其防控策略[J].江漢論壇,2023(12):53-59.
[14] 韓旭至.生成式人工智能治理的邏輯更新與路徑優(yōu)化:以人機(jī)關(guān)系為視角[J].行政法學(xué)研究,2023(6):30-42.
[15] 斯坦納.算法帝國[M].李筱瑩,譯.北京:人民郵電出版社,2020:42.
[16] 馮永剛,席宇晴.人工智能的倫理風(fēng)險及其規(guī)制[J].河北學(xué)刊,2023,43(3):60-68.
[17] 赫拉利.今日簡史[M].林俊宏,譯.北京:中信出版社,2018:50.
[18] 馬克思.1844年經(jīng)濟(jì)學(xué)哲學(xué)手稿[M].中共中央馬克思恩格斯列寧斯大林著作編譯局,編譯.北京:人民出版社,2014:49.
[19] 孫會巖.類ChatGPT技術(shù)視野下政治秩序重構(gòu)及其風(fēng)險治理[J].學(xué)術(shù)界,2023(8):81-90.
[20] 杜寶貴.論技術(shù)責(zé)任主體的缺失與重構(gòu)[M].沈陽:東北大學(xué)出版社,2005:17.
The Value, Risks and Prevention of Embedding ChatGPT-like Artificial Intelligence Technology in Online Public Opinion Decision-making
Zhou Wei1" " Zhou Yuwan2
(1.Northwest University of Political Science and Law, School of Political Science and Public Administration, Shaanxi, Xi’an,710100;2. Sichuan University of Arts and Science,School of Literature and Communication,Sichuan,Dazhou,635000)
Abstract: [Research purpose] It is a general trend that ChatGPT-like artificial intelligence technology into network public opinion decision-making. The organic combination is to help improve the ability and level of online public opinion decision-making, and it is of practical significance to promote the development of online public opinion decision-making towards intelligence decision-making with human-machine collaboration. [Research method] This study reviews the status of ChatGPT-like artificial intelligence in online public opinion decision-making by descriptive research, analyzing the value of ChatGPT-like artificial intelligence in online public opinion decision-making, studying the risks of ChatGPT-like artificial intelligence in online public opinion decision-making, and putting the risk prevention measures of ChatGPT-like artificial intelligence in online public opinion decision-making. [Research conclusion] The combination of ChatGPT-like artificial intelligence and online public opinion decision-making is helpful to the confirmation of online public opinion decision-making problems, the improvement of information, the improvement of efficiency and the enhancement of prediction, but there are also risks such as wrong decision-making, narrow decision-making, privacy invasion, and human-machine alienation. The organic integration of ChatGPT-like artificial intelligence and online public opinion decision-making need to build risk prevention measures from the aspects of role positioning, technical control, institutional guarantee and digital literacy, continuously improving the security, reliability, controllability and fairness of ChatGPT-like artificial intelligence in online public opinion decision-making.
Key words: ChatGPT;artificial intelligence;online public opinion;intelligent decision;risk prevention and control
基金項目:國家社科基金一般項目“西部貧困地區(qū)縣級地方政府治理能力評估研究”(19BZZ064);西北政法大學(xué)“習(xí)近平法治思想”研究生課程思政專項教改項目“習(xí)近平法治思想融入行政管理專業(yè)研究生課程思政教學(xué)過程研究”(YJZX2024018)。
作者簡介:周偉,男,1978年生,博士,副教授,研究方向為網(wǎng)絡(luò)輿情與政府治理。周于琬,女,1974年生,博士,博士后,副教授,研究方向為文藝美學(xué)、影視及新媒體理論。