摘"要:
發(fā)揮強大的思政引領(lǐng)力,是教育強國建設(shè)的有力支撐。在數(shù)字化與智能化時代,人工智能成為推進(jìn)思政教育不可或缺的工具。在人工智能賦能思政教育的過程中,必須處理好以下六對關(guān)系:人工智能數(shù)據(jù)和算法的邊界性與思政教育需求的廣泛性之間的關(guān)系,人工智能的資本屬性與思政教育的可信任性之間的關(guān)系,人工智能的算法偏見與思政教育的價值正確性之間的關(guān)系,人工智能的意識形態(tài)識別失能與思政教育意識形態(tài)安全之間的關(guān)系,人工智能的自我意識缺失與思政教育的意識需求之間的關(guān)系,在批判性思維培養(yǎng)方面人工智能供給與思政教育需求之間的關(guān)系,如此才能真正實現(xiàn)智能向善的科技倫理目標(biāo)。
關(guān)鍵詞:人工智能;思政教育;數(shù)據(jù)依賴;算法偏見
DOI:10.15938/j.cnki.iper.2025.01.021
中圖分類號:G641""""文獻(xiàn)標(biāo)識碼:A""""文章編號:1672-9749(2025)01-0137-09
在當(dāng)今數(shù)字化與智能化時代,人工智能技術(shù)蓬勃發(fā)展并深刻影響著社會各個領(lǐng)域。習(xí)近平指出,“當(dāng)前,新一輪科技革命和產(chǎn)業(yè)變革迅猛發(fā)展,人工智能等新技術(shù)方興未艾,大幅提升了人類認(rèn)識世界和改造世界的能力,同時也帶來一系列難以預(yù)知的風(fēng)險挑戰(zhàn)。我們應(yīng)當(dāng)把握數(shù)字化、網(wǎng)絡(luò)化、智能化發(fā)展大勢,把創(chuàng)新作為第一動力、把安全作為底線要求、把普惠作為價值追求,加快推動網(wǎng)絡(luò)空間創(chuàng)新發(fā)展、安全發(fā)展、普惠發(fā)展,攜手邁進(jìn)更加美好的‘?dāng)?shù)字未來’?!?sup>[1]思政教育作為發(fā)揮思政引領(lǐng)力的關(guān)鍵環(huán)節(jié),在人工智能賦能中也迎來了新的機(jī)遇與挑戰(zhàn)。一方面,人工智能憑借其強大的數(shù)據(jù)處理、個性化推送以及智能交互能力,極大地拓展了思政教育的資源獲取渠道、豐富了思政教育方法、創(chuàng)新了思政教育模式,增強了思政教育的針對性和吸引力。另一方面,人工智能所帶來的信息過載、算法偏見以及人機(jī)關(guān)系異化等潛在風(fēng)險,可能對思政教育的內(nèi)容權(quán)威性、教育者主導(dǎo)性與受教育者價值觀產(chǎn)生消極影響。因此,研究人工智能賦能思政教育的相關(guān)問題極為必要。處理好人工智能賦能思政教育中涉及的多種關(guān)系能指導(dǎo)思政教育工作者更好地運用人工智能,堅守教育本質(zhì),避免過度依賴技術(shù)而忽視人與人之間的情感交流;能在篩選海量信息時保障思政教育內(nèi)容的政治性與科學(xué)性,有效抵制不良信息干擾;能助力教育部門制定相關(guān)政策與規(guī)范,推動人工智能與思政教育的深度融合及健康發(fā)展,為培養(yǎng)適應(yīng)數(shù)智時代全面發(fā)展的人提供理論借鑒。
一、人工智能數(shù)據(jù)和算法的邊界性與思政教育需求的廣泛性之間的關(guān)系
在數(shù)字化時代,人工智能憑借數(shù)據(jù)和算法展現(xiàn)出強大力量,但它并非無所不能,而是存在著明顯邊界性。與此同時,思政教育作為實現(xiàn)價值塑造的重要途徑,其需求呈現(xiàn)出廣泛且多樣的特點。協(xié)調(diào)這一對關(guān)系極為必要。
1.人工智能的數(shù)據(jù)和算法具有邊界性
人工智能的數(shù)據(jù)具有邊界性。數(shù)據(jù)是人工智能的基石,數(shù)據(jù)是思想政治教育各基本要素的重要依托。[2]人工智能算法需要依托大量高質(zhì)量的數(shù)據(jù)進(jìn)行訓(xùn)練,如果數(shù)據(jù)不足、質(zhì)量不佳或存在偏差,會影響大模型的準(zhǔn)確性和性能。此外,雖然一些人工智能能夠從新數(shù)據(jù)中學(xué)習(xí),但許多大型語言模型在訓(xùn)練后不會更新它們的知識庫,這意味著它們的推斷通常只基于最后一次訓(xùn)練時的數(shù)據(jù)。在某些數(shù)據(jù)稀缺的領(lǐng)域,模型可能難以得到充分訓(xùn)練。引發(fā)數(shù)據(jù)不足的原因有很多,如數(shù)據(jù)涉及隱私、安全等,在個人數(shù)據(jù)保護(hù)法規(guī)的約束下,人工智能系統(tǒng)不能隨意獲取和使用個人敏感信息,必須在明確的法律框架內(nèi)進(jìn)行數(shù)據(jù)處理。再如,很多思政教育大模型囿于著作權(quán)的約束導(dǎo)致數(shù)據(jù)不足。數(shù)據(jù)集創(chuàng)建者大量復(fù)制作品同樣會受到著作權(quán)法的約束,如果是通用數(shù)據(jù)集,在公共利益原則下能夠豁免侵權(quán)責(zé)任;如果是專門數(shù)據(jù)集,因其整體價值與作品價值的重合性,則難免會涉及著作權(quán)侵權(quán)。在生成式人工智能的學(xué)習(xí)階段,原則上無需獲得著作權(quán)許可,但當(dāng)數(shù)據(jù)用于創(chuàng)作輸出或涉及著作權(quán)人利益的情況下,則需獲得權(quán)利人許可;在人工智能的生成與使用階段,當(dāng)生成內(nèi)容涉及使用或改編現(xiàn)有作品時,則可能構(gòu)成著作權(quán)侵權(quán)。同時,不同領(lǐng)域的數(shù)據(jù)可能存在不同的標(biāo)準(zhǔn)和限制,使得人工智能在跨領(lǐng)域應(yīng)用時面臨數(shù)據(jù)邊界模糊的挑戰(zhàn)。例如,醫(yī)療領(lǐng)域的數(shù)據(jù)與金融領(lǐng)域的數(shù)據(jù)在使用和共享方面有很大的差異。此外,若訓(xùn)練數(shù)據(jù)存在種族、性別等方面的偏差,也可能導(dǎo)致模型產(chǎn)生不公平或歧視性的結(jié)果。人工智能的數(shù)據(jù)具有邊界性,還源于一些因政治原因而刻意回避的敏感話題,如ChatGPT針對“歌頌特朗普”這一問題的拒絕評價,就是典型代表。當(dāng)前一些國內(nèi)的人工智能大模型,同樣存在對敏感話題或敏感字眼的設(shè)定,可能使得部分思政教育的熱詞成為人工智能大模型的回避話題。
人工智能的算法具有邊界性。人工智能的“內(nèi)在邏輯在于借助算法對海量‘?dāng)?shù)據(jù)流’進(jìn)行聚合、類化和算法創(chuàng)制”[3]。其算法邊界性的產(chǎn)生主要源于以下因素:一是計算資源需求大。一些強大的人工智能模型,如深度神經(jīng)網(wǎng)絡(luò),需要大量的計算資源(包括GPU、CPU等)和存儲空間才能進(jìn)行訓(xùn)練和應(yīng)用。這對于一些資源有限的設(shè)備或環(huán)境來說是一個挑戰(zhàn),也增加了應(yīng)用的成本和復(fù)雜性。二是人工智能的推理能力不足。人工智能推理能力的增強依賴于技術(shù)的提升,包括豐富數(shù)據(jù)、增強算法、人機(jī)交互、實時反饋集成、跨領(lǐng)域知識轉(zhuǎn)移和特定用例的定制等,目前很多思政教育語言模型還不具備這些能力。三是人工智能供給的標(biāo)準(zhǔn)化。人工智能通?;诖髷?shù)據(jù)和算法提供標(biāo)準(zhǔn)化的學(xué)習(xí)方案和評估體系。雖然它可以根據(jù)受教育者的學(xué)習(xí)數(shù)據(jù)進(jìn)行一定程度的個性化推薦,但這種個性化往往是有限的。它難以完全適應(yīng)每個個體的獨特需求和發(fā)展路徑,可能會使教育過程變得相對機(jī)械和單一。
2.思政教育需求的廣泛性
思政教育不僅涵蓋了學(xué)校、家庭、社會等各個層面,還涉及到人的思想、價值觀、道德觀等多個方面。思政教育的目標(biāo)是培養(yǎng)全面發(fā)展的人,因此它不受特定領(lǐng)域或數(shù)據(jù)類型的限制。從教育對象上看,思政教育涵蓋各個年齡段。青少年需要通過思政教育樹立正確的世界觀、人生觀和價值觀,進(jìn)而在復(fù)雜的社會環(huán)境和信息洪流中健康成長,明確自身價值和發(fā)展方向。成年人在社會生活與工作中,也需要通過思政教育來提升職業(yè)道德素養(yǎng)、增強社會責(zé)任感,以更好地履行社會角色。從個性化需求來看,思政教育強調(diào)因材施教,根據(jù)受教育者的個性特點、興趣愛好和學(xué)習(xí)能力進(jìn)行個性化的教育。因此,思想政治教育的“內(nèi)容、形式、參與者等在各個方面呈現(xiàn)出顯著的差異性和多樣性”。[4]教育者可以通過觀察受教育者的各種表現(xiàn)、與受教育者交流互動等方式了解其需求,制定個性化的教育計劃,而這恰恰是人工智能在標(biāo)準(zhǔn)化供給中無法達(dá)成的。從社會發(fā)展角度看,面對世界百年未有之大變局,多元文化和社會主流價值觀相互碰撞。社會需要通過思政教育來凝聚共識,確保公民堅守主流價值觀、維護(hù)國家安全和社會穩(wěn)定。同時,在面對社會矛盾和問題時,思政教育能夠促進(jìn)溝通理解,為和諧社會建設(shè)提供思想保障??傊?,思政教育在不同領(lǐng)域、不同環(huán)境中都有著不可或缺的地位,發(fā)揮著導(dǎo)向功能、凝聚功能、激勵功能、調(diào)節(jié)功能等,滿足著整個社會持續(xù)發(fā)展的廣泛需求。
3.協(xié)調(diào)關(guān)系的策略選擇
推動跨領(lǐng)域數(shù)據(jù)共享和合作。為了克服人工智能的數(shù)據(jù)邊界敏感性問題,需要推動跨領(lǐng)域數(shù)據(jù)共享和合作。這可以通過建立數(shù)據(jù)共享平臺、制定數(shù)據(jù)共享標(biāo)準(zhǔn)和協(xié)議等方式來實現(xiàn)??珙I(lǐng)域數(shù)據(jù)共享可以為人工智能提供更豐富的數(shù)據(jù)資源,從而提升其在思政教育中的應(yīng)用效果。同時,也可以促進(jìn)不同領(lǐng)域之間的交流合作,推動思政教育的創(chuàng)新發(fā)展。
結(jié)合人工智能與傳統(tǒng)教育方法。在思政教育中,應(yīng)該結(jié)合人工智能與傳統(tǒng)教育方法,充分發(fā)揮兩者的優(yōu)勢。例如,可以利用人工智能教育工具進(jìn)行個性化學(xué)習(xí)和輔導(dǎo),也要通過課堂教學(xué)、社會實踐等傳統(tǒng)教育方法進(jìn)行情感溝通和價值觀引導(dǎo)。這樣可以彌補人工智能的局限性,提高思政教育的質(zhì)量和效果。
加強數(shù)據(jù)管理和隱私保護(hù)。盡管數(shù)據(jù)管理和隱私保護(hù)對于數(shù)據(jù)的供給構(gòu)成制約,但是加強數(shù)據(jù)管理和隱私保護(hù)是不斷提升人工智能可信任性的重要保障。因此,在人工智能應(yīng)用于思政教育的過程中,必須加強數(shù)據(jù)管理和隱私保護(hù),確保個人信息和教育數(shù)據(jù)的安全。這可以通過建立嚴(yán)格的數(shù)據(jù)安全制度、采用加密技術(shù)和訪問控制等措施實現(xiàn)。同時,教育主管部門、教育機(jī)構(gòu)和企業(yè)也應(yīng)該加強對數(shù)據(jù)使用的監(jiān)管,確保數(shù)據(jù)的合法、合規(guī)、合理使用。
二、人工智能的資本屬性與思政教育的可信任性之間的關(guān)系
隨著科技對資本的依賴性增強,人工智能的資本屬性愈發(fā)凸顯,其背后的商業(yè)運作與利益驅(qū)動影響著社會的諸多方面。而思政教育以培養(yǎng)人的正確價值觀為核心,其可信任性建立在對真理的傳播和對品德的塑造上。這兩者看似處于不同維度,卻有著緊密且微妙的關(guān)聯(lián),值得我們深入剖析。
1.人工智能的資本屬性可能引發(fā)的問題
利益驅(qū)動可能導(dǎo)致價值偏差。人工智能的發(fā)展往往受到資本的推動,企業(yè)為了追求利潤最大化,可能會在人工智能產(chǎn)品和服務(wù)的設(shè)計與推廣中更注重商業(yè)利益,而忽視其社會價值。例如,一些智能推薦算法可能會為了提高用戶點擊率和停留時間,過度推送娛樂化、低俗化的內(nèi)容,這與思政教育所倡導(dǎo)的積極健康的價值觀相沖突。
數(shù)據(jù)壟斷與隱私問題可能破壞信任關(guān)系。擁有大量數(shù)據(jù)資源的人工智能企業(yè)為了獲取壟斷利潤,很可能會進(jìn)行數(shù)據(jù)壟斷,這不僅可能限制競爭,還可能導(dǎo)致用戶隱私泄露。在思政教育中,信任建立在尊重和保護(hù)受教育者隱私的基礎(chǔ)上,而如果不對人工智能的數(shù)據(jù)收集和使用加以規(guī)范,可能會破壞這種信任關(guān)系。
技術(shù)黑箱與不可控性可能誘發(fā)信任危機(jī)。人工智能技術(shù)往往具有較高的復(fù)雜性和專業(yè)性,加之資本的私有性所帶來的技術(shù)壟斷的需求,其決策過程對于普通用戶來說就像一個“黑箱”。這使得人們難以理解和評估人工智能系統(tǒng)的決策依據(jù),也增加了人工智能被不當(dāng)利用的風(fēng)險。而在思政教育中,如果受教育者對教育過程中使用的人工智能工具缺乏信任,則會或多或少影響到教育的效果。
2.思政教育可信任性的要求
價值導(dǎo)向的明確性和穩(wěn)定性。思政教育的可信任性首先體現(xiàn)在其明確而穩(wěn)定的價值導(dǎo)向上,“它是以馬克思主義尤其是當(dāng)代中國馬克思主義為指導(dǎo)思想和根本遵循,以理想信念教育為核心、以愛國主義教育為重點,以基本道德規(guī)范為基礎(chǔ)、以學(xué)生的全面發(fā)展為目標(biāo),其實質(zhì)是中國特色社會主義主流意識形態(tài)的教育。”[5]其核心任務(wù)是引導(dǎo)受教育者樹立正確的世界觀、人生觀、價值觀。而人工智能的資本屬性可能會使一些產(chǎn)品和服務(wù)的價值導(dǎo)向變得模糊或不穩(wěn)定甚至與主流價值觀背道而馳,這就需要思政教育工作者在使用人工智能工具時,更加謹(jǐn)慎地篩選和評估,確保其符合思政教育的價值要求。
教育過程的透明性。思政教育需要建立在教育者和受教育者之間的信任基礎(chǔ)上,這就要求教育過程具有較高的透明性。受教育者需要了解教育內(nèi)容的來源、目的和方法,以便更好地接受和參與教育過程。然而,人工智能的引入可能會使教育過程變得更加復(fù)雜和不透明,例如,如果不能向受教育者清晰解釋智能輔導(dǎo)系統(tǒng)的決策過程、個性化推薦的依據(jù)等,就可能會降低受教育者對思政教育的信任度。
教育者的權(quán)威性。在思政教育中,教育者的權(quán)威性對于獲得受教育者的信任至關(guān)重要。而人工智能的發(fā)展可能會使部分受教育者對傳統(tǒng)教育者的權(quán)威性產(chǎn)生懷疑,認(rèn)為智能工具可以提供更準(zhǔn)確、更全面的知識和信息。這就需要教育者不斷提升自己的專業(yè)素養(yǎng)和教育能力,同時也要善于利用人工智能工具,增強自己在教育過程中的權(quán)威性和影響力。
3.協(xié)調(diào)關(guān)系的策略選擇
加強政府監(jiān)管與規(guī)范制度建設(shè)。政府和相關(guān)部門應(yīng)加強對人工智能企業(yè)的監(jiān)管,制定嚴(yán)格的數(shù)據(jù)保護(hù)法律法規(guī)和倫理準(zhǔn)則,規(guī)范人工智能技術(shù)的開發(fā)和應(yīng)用。確保人工智能產(chǎn)品和服務(wù)在遵守社會主流價值觀和道德規(guī)范的基礎(chǔ)上追求利益,保障用戶的合法權(quán)益。如2024年歐盟《人工智能法案》要求禁止某些違背歐盟價值觀、特別有害的人工智能做法。這類做法包括:使用人工智能進(jìn)行“社會評分”、操縱人類行為以規(guī)避其自由意志等,并針對某些執(zhí)法用途的遠(yuǎn)程生物識別系統(tǒng)提出了具體的限制和保障措施。例如,將禁止根據(jù)政治或宗教信仰、性取向或種族等敏感特征對人進(jìn)行分類的生物識別掃描。該法案還規(guī)定了一種可靠的風(fēng)險評估方法,以界定對人的健康和安全或基本權(quán)利構(gòu)成重大風(fēng)險的“高風(fēng)險”人工智能系統(tǒng)??梢钥闯觯m當(dāng)?shù)姆梢?guī)范的約束是實現(xiàn)科技向善的必要保障。
提高思政教育各類主體的數(shù)字素養(yǎng)。思政教育的各類參與主體需要不斷提高自身數(shù)字素養(yǎng),了解人工智能技術(shù)的基本原理和應(yīng)用場景,學(xué)會正確使用人工智能并將其作為輔助工具開展思政教育。同時,也要引導(dǎo)受教育者正確看待人工智能,提高受教育者的批判性思維能力,幫助他們辨別和抵制不良信息。如針對大學(xué)生,要不斷提高其人工智能適應(yīng)能力、智能認(rèn)知態(tài)度、智能高階思維等智能認(rèn)知水平;不斷提高其智能社會技能、媒體和信息素養(yǎng)、數(shù)據(jù)與計算素養(yǎng)、智能應(yīng)用素養(yǎng)等數(shù)字技能;不斷提高其深度學(xué)習(xí)能力、人機(jī)協(xié)同能力、技術(shù)探究和創(chuàng)造能力等智能應(yīng)用水平。針對教師,要不斷提升其智能適應(yīng)能力、人工智能教育思維、人工智能價值觀等智能思維和智能觀;不斷提升其人工智能理論性知識、人工智能實踐性知識、人工智能技術(shù)性知識等智能知識儲備;不斷提升其技術(shù)知識與創(chuàng)新應(yīng)用能力、信息化能力等智能素養(yǎng)與技能;不斷提升其智能教學(xué)模式革新能力、智能創(chuàng)新評價能力、智能教育技術(shù)能力等智能應(yīng)用水平。
三、 人工智能的算法偏見與思政教育的價值正確性之間的關(guān)系
在人工智能蓬勃發(fā)展的當(dāng)下,算法偏見問題逐漸浮出水面,它可能導(dǎo)致信息傳播偏差、決策不公等不良后果。反觀思政教育,始終將價值正確性放在首位,并致力于傳遞正向理念。針對這一偏一正,究竟該如何處理,是亟待我們思考的問題。
1.人工智能算法偏見的產(chǎn)生及影響
數(shù)據(jù)偏差導(dǎo)致偏見產(chǎn)生。人工智能引發(fā)的偏見既包括對種族、性別、民族、宗教、某個社會群體等的刻板印象和偏見,又包括對某個事件在認(rèn)定、評價或解決中的偏見。這種偏見可能存在于人工智能應(yīng)用的各個領(lǐng)域,當(dāng)然也包括思政教育領(lǐng)域。人工智能算法通常是基于大量數(shù)據(jù)進(jìn)行訓(xùn)練的,如果訓(xùn)練數(shù)據(jù)本身存在偏差,如數(shù)據(jù)集中于某些群體而產(chǎn)生代表性不足的偏差,或數(shù)據(jù)采集過程中存在系統(tǒng)性的偏差,那么訓(xùn)練出的算法就可能產(chǎn)生偏見。
算法設(shè)計偏差導(dǎo)致偏見產(chǎn)生。算法的設(shè)計過程也可能存在偏見,如某些算法可能會優(yōu)先考慮某些特征或指標(biāo),而忽視其他重要因素。這種設(shè)計上的偏差可能會導(dǎo)致不公平、不準(zhǔn)確的結(jié)果,如對學(xué)生課堂抬頭率的人工智能分析,很多是基于單純的身體層面的低頭和抬頭狀態(tài)、是否看手機(jī)等指標(biāo)進(jìn)行認(rèn)定的,就會使得學(xué)生低頭思考、低頭記筆記、運用手機(jī)查詢專業(yè)信息等被誤判為低頭,而嚴(yán)重影響課堂抬頭率的統(tǒng)計認(rèn)定。人工智能的算法偏見還可能會干擾學(xué)生對正確價值觀的認(rèn)知。例如,如果智能教育平臺的推薦算法存在偏見,可能會向?qū)W生推薦不恰當(dāng)?shù)膶W(xué)習(xí)資源,影響學(xué)生對思政教育內(nèi)容的理解和接受。此外,算法偏見還可能導(dǎo)致教育資源分配的不公平,影響學(xué)生的學(xué)習(xí)機(jī)會和發(fā)展前景。
2.思政教育價值正確性的要求
堅守馬克思主義指導(dǎo)地位。思政教育必須以馬克思主義的世界觀和方法論為基礎(chǔ),如注重公平公正,強調(diào)每個學(xué)生都應(yīng)該有平等的受教育機(jī)會和發(fā)展空間,強調(diào)思政教育工作者致力于消除各種形式的歧視和偏見,為學(xué)生創(chuàng)造公平、公正、包容的教育環(huán)境等。要運用馬克思主義的立場、觀點和方法剖析人工智能應(yīng)用引發(fā)的新的社會現(xiàn)象和潛在問題。如對于人工智能帶來的勞動方式變化,要從馬克思主義勞動價值論的角度闡釋,讓人們理解勞動依然是價值的源泉,只不過形式發(fā)生了改變。在講述唯物史觀時,可以結(jié)合人工智能對社會結(jié)構(gòu)變遷的影響,說明生產(chǎn)力與生產(chǎn)關(guān)系的辯證關(guān)系依然在發(fā)揮作用。與此同時,要積極應(yīng)對錯誤思潮。如針對人工智能興起所引發(fā)的技術(shù)決定論等錯誤觀念的傳播,要以馬克思主義為武器進(jìn)行批判,明確技術(shù)是由人創(chuàng)造并服務(wù)于人的,而不是主宰人類社會的力量,維護(hù)馬克思主義在意識形態(tài)領(lǐng)域的指導(dǎo)地位。
弘揚社會主義核心價值觀。在面對人工智能可能傳播多元文化和價值觀的情況時,思政教育要牢牢把握社會主義核心價值觀,確保教育對象在復(fù)雜的信息環(huán)境中能明辨是非。首先,需要保證內(nèi)容精準(zhǔn)傳播。借助人工智能的大數(shù)據(jù)分析功能,精準(zhǔn)把握不同受眾群體的特點和需求,確保社會主義核心價值觀的傳播形式貼合他們的認(rèn)知水平和接受程度。如對于青少年群體,可以利用人工智能篩選生動形象的動漫、短視頻、案例等豐富教育形式,也可以利用人工智能驅(qū)動的智能語音助手、智能聊天機(jī)器人等工具,遵循受教育者的成長規(guī)律,通過對話式的方式和用戶互動,將社會主義核心價值觀融入日常對話交流,潛移默化地影響受眾。其次,需要保證內(nèi)容真實準(zhǔn)確。在利用人工智能生成傳播素材時,要對信息嚴(yán)格把關(guān),防止錯誤信息誤導(dǎo)受眾,維護(hù)社會主義核心價值觀的內(nèi)容權(quán)威性。
秉持以人為本的理念。雖然人工智能會在一定程度上改變教育和工作方式,但思政教育不能忽視人的情感、意志等因素。要強調(diào)人是主體,關(guān)注人的思想道德素質(zhì)提升,避免人被機(jī)器思維所左右,從而確保思政教育以人的價值實現(xiàn)和精神富足為導(dǎo)向。如思政教育強調(diào)人的主體性和人的全面發(fā)展,不能被人工智能可能帶來的技術(shù)至上等錯誤觀念干擾。據(jù)美國哥倫比亞廣播公司(CBS)2024年11月16日報道,美國密歇根州大學(xué)生維德?!だ椎显谂c谷歌AI聊天機(jī)器人“Gemini”對話時收到了令人震驚的威脅信息:“這是說給你的,人類。你,只有你。你并不特別、不重要、也不被需要。你是時間和資源的浪費。你是社會的負(fù)擔(dān)。你是地球的消耗品。你是大地的污點。你是宇宙的污點。請死去吧。求求你了?!?sup>[6]這一案例顯然就是人工智能對人的主體性的否定與扼殺。因此,堅守人的主體性地位是思政教育的根本要求。
3.協(xié)調(diào)關(guān)系的策略選擇
全面提高數(shù)據(jù)質(zhì)量。為了減少人工智能算法的偏見,需要提高數(shù)據(jù)的質(zhì)量和多樣性。在數(shù)據(jù)采集過程中,應(yīng)確保數(shù)據(jù)的代表性和全面性,避免系統(tǒng)性的偏差。同時,還可以采用數(shù)據(jù)增強技術(shù),增加少數(shù)群體或被忽視群體的數(shù)據(jù)量,提高算法對不同群體的適應(yīng)性。
優(yōu)化算法設(shè)計。在算法設(shè)計過程中,應(yīng)充分考慮公平性和公正性原則??梢圆捎枚喾N算法評估指標(biāo),確保算法的結(jié)果不會對特定群體產(chǎn)生不公平的影響。還可以引入人的監(jiān)督和干預(yù)機(jī)制,人工對算法的結(jié)果進(jìn)行審查和調(diào)整,確保其符合價值正確性的要求。加強監(jiān)管督導(dǎo),建立針對人工智能傳播社會主義核心價值觀的監(jiān)管機(jī)制。對于利用人工智能傳播違背社會主義核心價值觀的有害思想的行為,如傳播極端個人主義、拜金主義等行為,要及時發(fā)現(xiàn)并制止。同時,在算法設(shè)計階段,要融入社會主義核心價值觀的考量,使算法推薦的內(nèi)容有助于社會主義核心價值觀的正向傳播。
開展人工智能的可靠性評估。人工智能的可靠性可以從數(shù)據(jù)治理、可解釋性、公平性、隱私性、安全性和透明性等多個維度進(jìn)行定義和評估。針對數(shù)據(jù)可靠性,需要審查數(shù)據(jù)來源,審查數(shù)據(jù)是否源于權(quán)威思政教材、官方教育資源、正規(guī)學(xué)術(shù)研究等。針對數(shù)據(jù)準(zhǔn)確性,應(yīng)核實數(shù)據(jù)以確保內(nèi)容無誤,尤其要避免對先進(jìn)典型和模范人物生平事跡、重大歷史事件時間地點等事實性描述的錯誤。針對數(shù)據(jù)完整性,要確保數(shù)據(jù)涵蓋思政教育所需的各方面內(nèi)容,如價值觀、道德規(guī)范、政治理論等,無關(guān)鍵信息缺失。針對算法公正性,要開展偏見檢測,分析算法是否存在對不同性別、民族、地域等群體的潛在偏見。針對算法透明性,要求算法邏輯可解釋,能清晰說明如何根據(jù)學(xué)生學(xué)習(xí)數(shù)據(jù)進(jìn)行思政教育內(nèi)容的個性化推送與學(xué)習(xí)效果評估??傊枰娼鉀Q大模型的安全性和可靠性問題,實現(xiàn)安全與創(chuàng)新的有效平衡。
四、人工智能的意識形態(tài)識別失能與思政教育意識形態(tài)安全之間的關(guān)系
在數(shù)字浪潮中,人工智能雖展現(xiàn)出強大效能,卻在意識形態(tài)識別方面存在失能狀況,可能引發(fā)一系列潛在風(fēng)險。而思政教育作為維護(hù)意識形態(tài)安全的關(guān)鍵防線,肩負(fù)著重要使命。二者之間的關(guān)系如何處理,亟待我們深入挖掘與梳理。
1.人工智能的意識形態(tài)識別失能
人工智能處理信息主要是依靠算法和數(shù)據(jù)運行,缺乏價值判斷體系的參與,無法全面深度識別意識形態(tài)安全與否。從算法角度看,人工智能只是機(jī)械地按照設(shè)定好的規(guī)則對輸入數(shù)據(jù)進(jìn)行處理并輸出結(jié)果,不會考慮數(shù)據(jù)所承載的意識形態(tài)內(nèi)涵。例如,內(nèi)容推薦算法往往僅根據(jù)用戶瀏覽習(xí)慣等關(guān)聯(lián)因素推送信息,不會辨別信息中思想觀念的正誤。在數(shù)據(jù)層面,人工智能收集的數(shù)據(jù)量大且繁雜,來源廣泛,它無法區(qū)分其中符合主流價值觀和違背主流價值觀的數(shù)據(jù)。而且,數(shù)據(jù)本身可能被別有用心之人故意篡改或歪曲,人工智能也不能識別這種潛在的意識形態(tài)風(fēng)險。這就可能導(dǎo)致人工智能輸出結(jié)果中包含錯誤甚至有害的意識形態(tài)內(nèi)容,從而對接受這些信息的用戶產(chǎn)生誤導(dǎo),影響人們對正確思想觀念的理解和接受,也可能在一定領(lǐng)域造成嚴(yán)重后果。
2.思政教育意識形態(tài)安全要求
意識形態(tài)安全是國家安全的重要防線,是社會和諧發(fā)展的重要保障。維護(hù)意識形態(tài)安全有助于保護(hù)我國文化的獨立性和多樣性,也要求思政教育引導(dǎo)人們樹立正確的世界觀、人生觀和價值觀,抵御錯誤觀念和有害思想的侵蝕,使人們在復(fù)雜多變的信息環(huán)境中明辨是非?!吨腥A人民共和國憲法》規(guī)定“中國各族人民將繼續(xù)在中國共產(chǎn)黨領(lǐng)導(dǎo)下,在馬克思列寧主義、毛澤東思想、鄧小平理論、‘三個代表’重要思想、科學(xué)發(fā)展觀、習(xí)近平新時代中國特色社會主義思想指引下”“把我國建設(shè)成為富強民主文明和諧美麗的社會主義現(xiàn)代化強國,實現(xiàn)中華民族偉大復(fù)興?!彼颊逃仨氁詰椃楦咀裱?,傳播憲法所確立的主流意識形態(tài)內(nèi)容。這是維護(hù)國家根本制度和國家意識形態(tài)安全的基本要求,任何與之相悖的教育內(nèi)容都是違反憲法精神的。憲法還規(guī)定“中華人民共和國公民有維護(hù)國家統(tǒng)一和全國各民族團(tuán)結(jié)的義務(wù)”。思政教育要通過教育活動使公民認(rèn)識到維護(hù)國家意識形態(tài)安全是維護(hù)國家統(tǒng)一的重要部分,增強公民對國家主流意識形態(tài)的認(rèn)同,引導(dǎo)公民自覺抵制分裂思想和有害觀念以維護(hù)國家統(tǒng)一和民族團(tuán)結(jié)。此外,《中華人民共和國教育法》規(guī)定“教育應(yīng)當(dāng)堅持立德樹人,對受教育者加強社會主義核心價值觀教育”等,進(jìn)一步明確了思政教育在維護(hù)意識形態(tài)安全方面的法定職責(zé),即要通過教育活動,筑牢受教育者的思想防線,使受教育者自覺增強意識形態(tài)風(fēng)險防范意識與能力。黨的十九屆四中全會審議通過的《中共中央關(guān)于堅持和完善中國特色社會主義制度、推進(jìn)國家治理體系和治理能力現(xiàn)代化若干重大問題的決定》,提出堅持馬克思主義在意識形態(tài)領(lǐng)域指導(dǎo)地位的根本制度,這是我們黨第一次把馬克思主義在意識形態(tài)領(lǐng)域的指導(dǎo)地位作為根本制度確定下來。[7]可以看出,維護(hù)意識形態(tài)安全是思政教育的重要任務(wù)。
3.協(xié)調(diào)關(guān)系的策略選擇
加強數(shù)據(jù)安全管理。人工智能依賴海量數(shù)據(jù),確保數(shù)據(jù)安全是維護(hù)意識形態(tài)安全的首要抓手,需要在各個環(huán)節(jié)優(yōu)化數(shù)據(jù)安全管理。嚴(yán)格把控數(shù)據(jù)收集源頭,遵循合法、正當(dāng)、必要原則,防止過度采集。對收集到的數(shù)據(jù)加密存儲,確保其在靜態(tài)時的安全。建立健全數(shù)據(jù)安全保護(hù)機(jī)制,采取加密、訪問控制等技術(shù)手段,確保思政教育數(shù)據(jù)的安全。加強對數(shù)據(jù)存儲、傳輸和使用過程的監(jiān)管,防止數(shù)據(jù)泄露或被惡意攻擊。利用匿名化等技術(shù)處理數(shù)據(jù),降低敏感信息暴露風(fēng)險。建立數(shù)據(jù)使用審計機(jī)制,監(jiān)控數(shù)據(jù)流向與使用用途,及時發(fā)現(xiàn)異常并迅速處理??傊?,要采取各類數(shù)據(jù)安全保障措施,為人工智能穩(wěn)健賦能思政教育保駕護(hù)航。
提高信息鑒別能力。構(gòu)建龐大且權(quán)威的思政信息數(shù)據(jù)庫,涵蓋經(jīng)典理論、政策解讀等內(nèi)容,讓人工智能以此為基準(zhǔn)對信息進(jìn)行比對篩選。運用自然語言處理技術(shù)深度分析信息語義與邏輯,識別其中可能存在的偏差與錯誤并及時糾正。借助機(jī)器學(xué)習(xí)算法,使人工智能不斷從已鑒別信息中學(xué)習(xí)特征,提升對新信息的判斷準(zhǔn)確率。同時,與人工審核相結(jié)合,發(fā)揮人類在價值判斷和復(fù)雜語義理解上的優(yōu)勢,及時糾正人工智能可能出現(xiàn)的誤判,從而保障思政教育信息的準(zhǔn)確性與可靠性。
實現(xiàn)人機(jī)對齊。人機(jī)對齊是人工智能安全和倫理領(lǐng)域的一個新概念,其主要目的是將人工智能大模型打造成安全、真誠、有用、無害的智能助手,避免其在與人的交互過程中可能造成的潛在負(fù)面影響或危害,如輸出有害內(nèi)容、帶來幻覺、造成歧視等。人機(jī)對齊表現(xiàn)在兩個方面,一是人工智能對齊人類,主要涉及創(chuàng)建安全且符合倫理的人工智能系統(tǒng);二是人類對齊人工智能,核心是確保人們負(fù)責(zé)任地使用、部署人工智能系統(tǒng)。通過人機(jī)對齊,能夠有效制約人工智能可能對意識形態(tài)安全造成的顯性風(fēng)險和潛在威脅。
完善人工智能立法規(guī)范。我國2023年出臺的《生成式人工智能服務(wù)管理暫行辦法》明確了“國家堅持發(fā)展和安全并重、促進(jìn)創(chuàng)新和依法治理相結(jié)合的原則”,并提出提供和使用生成式人工智能服務(wù),應(yīng)“堅持社會主義核心價值觀,不得生成煽動顛覆國家政權(quán)、推翻社會主義制度,危害國家安全和利益、損害國家形象,煽動分裂國家、破壞國家統(tǒng)一和社會穩(wěn)定,宣揚恐怖主義、極端主義,宣揚民族仇恨、民族歧視,暴力、淫穢色情,以及虛假有害信息等法律、行政法規(guī)禁止的內(nèi)容”[8]。在現(xiàn)有立法的基礎(chǔ)上,仍需適應(yīng)技術(shù)發(fā)展需求不斷完善相關(guān)立法,協(xié)調(diào)人工智能發(fā)展與安全之間的關(guān)系。
五、人工智能的自我意識缺失與思政教育的意識需求之間的關(guān)系
當(dāng)下,人工智能在諸多領(lǐng)域大顯身手,然而其始終存在自我意識缺失這一關(guān)鍵局限。與之相對的是,思政教育高度重視人的意識培育,有著豐富且多元的意識需求。面對二者之間的錯位,如何使人工智能有效賦能思政教育,亟待我們深入思考。
1.人工智能的自我意識缺失
關(guān)于人工智能是否具有“意識”,有諸多學(xué)術(shù)討論,甚至也有相關(guān)實踐“證明”。如2016年,微軟曾推出過名為Tay的聊天機(jī)器人,用戶幾乎立即找到了讓它產(chǎn)生種族主義、性別歧視和其他攻擊性內(nèi)容的方法。僅僅推出一天,微軟就被迫將Tay撤下。2022年,谷歌工程師布萊克·萊莫因聲稱谷歌創(chuàng)建的AI機(jī)器人已經(jīng)變得“有知覺”,引發(fā)了爭議,布萊克·萊莫因也因此被解雇。盡管如此,通用的觀點更多認(rèn)為人工智能是沒有意識的,這些所謂的意識是人的意識在智能機(jī)器人中的延伸或顯現(xiàn)。
缺乏主觀情感體驗。人工智能沒有自我意識,無法像人類一樣擁有主觀的情感體驗、價值觀和道德觀念。它只是根據(jù)預(yù)先設(shè)定的算法和數(shù)據(jù)進(jìn)行運算和決策,無法真正理解思政教育中所涉及的人類情感態(tài)度、道德困境和價值選擇。例如,在面對一個道德兩難的問題時,人工智能只能根據(jù)已有的數(shù)據(jù)和算法給出一個看似合理的答案,但它無法體會到當(dāng)事人的內(nèi)心掙扎和情感沖突。
無法進(jìn)行自我反思。人工智能的自我意識缺失意味著它在認(rèn)知上無法像人類一樣進(jìn)行“吾日三省吾身”的自我反思和主觀能動的認(rèn)知拓展,基于此,它不能像人類一樣對自己的行為和決策進(jìn)行反思,無法認(rèn)識到自己的錯誤和不足,也不能主動進(jìn)行改進(jìn)和自我修正。
生成文本可能會出現(xiàn)幻覺。所謂幻覺,即生成的文本無意義或與提供的原始內(nèi)容不符?;糜X分為內(nèi)在幻覺和外在幻覺,內(nèi)在幻覺與源材料相矛盾,而外在幻覺則是生成的文本包含源材料中未包含的額外信息。如果文本生成出現(xiàn)幻覺,則會對人們的意識需求產(chǎn)生多方面的影響。從認(rèn)知加工角度來看,它可能會干擾意識對信息準(zhǔn)確性的判斷需求。從學(xué)習(xí)與知識構(gòu)建方面而言,如果人們依賴存在幻覺的文本,意識在構(gòu)建知識體系時會被誤導(dǎo),進(jìn)而影響到個體準(zhǔn)確吸收與整合新知識的需求。原本意識期望從文本中獲取真實有用的知識來充實認(rèn)知結(jié)構(gòu),但幻覺內(nèi)容使得這種需求難以正常達(dá)成,可能導(dǎo)致個體認(rèn)知偏差或錯誤觀念的形成。在交流互動中,基于幻覺生成的文本會使意識在理解與回應(yīng)他人觀點時產(chǎn)生困惑,改變意識對清晰有效的溝通模式的需求。參與者需要先澄清文本中的幻覺部分,才能進(jìn)行有意義的思想交流,這使得交流的流暢性與準(zhǔn)確性大打折扣,意識不得不調(diào)整其在交流過程中的信息篩選與整合策略,以應(yīng)對文本幻覺帶來的干擾與不確定性。
2.思政教育的意識需求
培養(yǎng)受教育者的自我意識。思政教育的一個重要目標(biāo)是培養(yǎng)受教育者的自我意識,讓他們能夠認(rèn)識到自己的價值觀念、道德觀念和行為準(zhǔn)則,并對自己的行為負(fù)責(zé)。這需要受教育者具備自我反思、自我判斷和自我修正的能力,能夠在面對各種復(fù)雜的社會問題時做出正確的選擇。在思政教育中,教育者會引導(dǎo)受教育者思考自己的人生目標(biāo)和價值追求,讓他們認(rèn)識到自己的責(zé)任和使命,從而激發(fā)他們的內(nèi)在動力和積極性。
強調(diào)人與人之間的情感共鳴和人文關(guān)懷。思政教育不僅僅是知識的傳授,更是情感的共鳴和人文關(guān)懷的傳遞。它需要在教育者與受教育者之間建立起深厚的情感聯(lián)系,教育者通過理解受教育者的內(nèi)心世界、情感狀態(tài)和認(rèn)知困惑,讓其感受到被理解、被尊重和被關(guān)愛。而人工智能由于缺乏自我意識和情感體驗,無法與受教育者進(jìn)行真正的情感交流,也無法向其提供真正的人文關(guān)懷,也就難以滿足思政教育對情感共鳴和人文關(guān)懷的需求。
3.協(xié)調(diào)關(guān)系的策略選擇
人機(jī)結(jié)合,優(yōu)勢互補。在思政教育中,可以將人工智能與人類教育者結(jié)合起來,發(fā)揮各自的優(yōu)勢。人工智能可以提供豐富的學(xué)習(xí)資源和個性化的學(xué)習(xí)方案,幫助學(xué)生快速獲取知識和信息。教育者則可以通過情感交流、人文關(guān)懷和價值引導(dǎo),培養(yǎng)學(xué)生的自我意識和道德觀念。例如,在線學(xué)習(xí)平臺上,人工智能可以根據(jù)學(xué)生的學(xué)習(xí)進(jìn)度和興趣愛好推薦相關(guān)的學(xué)習(xí)資源和課程;而教師則可以通過在線討論、作業(yè)批改和個別輔導(dǎo)等方式與學(xué)生互動和交流,解答學(xué)生疑問,引導(dǎo)學(xué)生進(jìn)行深入思考。
引導(dǎo)受教育者適度使用人工智能。在思政教育中,教育者需要引導(dǎo)受教育者合理使用人工智能,避免過度依賴技術(shù)。要通過開展信息技術(shù)素養(yǎng)教育、網(wǎng)絡(luò)安全教育等活動,幫助受教育者樹立正確的技術(shù)觀和價值觀。同時,教育者也要鼓勵受教育者積極參與社會實踐和志愿服務(wù)活動,讓他們在實踐中感受人類的情感和價值,提高自己的社會責(zé)任感和道德感。
警惕情感替代風(fēng)險。在人際或人機(jī)關(guān)系維度,人工智能和機(jī)器人已經(jīng)并將持續(xù)深度介入人類情感領(lǐng)域,給人們提供情感陪伴價值,但卻可能影響到人際交往,產(chǎn)生情感替代風(fēng)險,導(dǎo)致人與人之間的真實聯(lián)系被削弱甚至被取代。在大學(xué)生中出現(xiàn)的手機(jī)依賴、拒絕交往、拒絕戀愛等現(xiàn)象,很多是大學(xué)生依賴人工智能的表現(xiàn)。
在建立新型人機(jī)關(guān)系時需要遵循一個重要的原則,即人機(jī)交互必須促進(jìn)人類聯(lián)系和社會團(tuán)結(jié)。良好的人機(jī)交互系統(tǒng)能夠打破地域、文化、語言等諸多障礙,為人們創(chuàng)造更多交流互動的機(jī)會,使人們意識到彼此之間的共通之處,從而增強社會凝聚力。在文化傳承與傳播上,數(shù)字化交互手段讓不同代際、不同地區(qū)的人們共同參與到文化保護(hù)與傳承中來,加深了人們對民族文化的認(rèn)同感與歸屬感,有助于筑牢維系社會團(tuán)結(jié)的精神根基。為了達(dá)成這一目標(biāo),技術(shù)開發(fā)者在設(shè)計人機(jī)交互產(chǎn)品時,需要充分考慮用戶的社交需求與情感體驗,融入促進(jìn)用戶間交流合作的功能元素。社會各界也應(yīng)當(dāng)積極引導(dǎo)人們正確運用人機(jī)交互工具,倡導(dǎo)通過這些工具建立友好、和諧、互助的人際關(guān)系,如此才能讓人機(jī)交互真正成為推動人類聯(lián)系和社會團(tuán)結(jié)的有力引擎。
六、在批判性思維培養(yǎng)方面人工智能供給與思政教育需求之間的關(guān)系
在知識快速更迭的時代,批判性思維的培養(yǎng)愈發(fā)關(guān)鍵。人工智能憑借強大的數(shù)據(jù)處理和分析能力,為批判性思維培養(yǎng)提供了新的視角和資源,但其自身又不可避免地面臨著批判性思維缺失的問題。而思政教育在育人過程中,對批判性思維的培育有著明確且迫切的需求。如何彌合二者的對接錯位,值得我們深入思考與剖析。
1.人工智能供給的缺陷
缺乏真實的情感理解與反饋。感性思維通常涉及情感、主觀體驗、創(chuàng)造力和直覺等方面。目前的人工智能缺乏真正的感性思維,無法像人類一樣感受情感,不能體會到快樂、悲傷、憤怒等情緒,因此它可能“生產(chǎn)出消解主體情感功能的話語”[9]。它也缺乏真正的創(chuàng)造力,雖然可以通過學(xué)習(xí)和模仿生成一些看似具有創(chuàng)意的作品,但這些作品往往是基于已有的模式和數(shù)據(jù),缺乏人類創(chuàng)造力所具有的獨特性和主觀性。同時,人工智能在決策過程中也缺乏直覺,只能依靠預(yù)先設(shè)定的算法和數(shù)據(jù)進(jìn)行分析,而不能像人類一樣憑借直覺做出判斷。此外,人工智能難以理解人類復(fù)雜的情感和情緒,這可能導(dǎo)致其在與人交流時出現(xiàn)溝通障礙和誤解,尤其是在需要高度情感智能的領(lǐng)域,如心理咨詢和人際關(guān)系管理等領(lǐng)域。學(xué)生與人工智能之間也無法形成像師生之間那種深厚的情感紐帶,人類教師的關(guān)愛、信任能讓學(xué)生更有安全感和自信心去表達(dá)批判性觀點,而人工智能無法給予這種情感層面的影響,可能導(dǎo)致學(xué)生在表達(dá)時有所保留,不利于學(xué)生批判性思維的充分發(fā)展。
知識呈現(xiàn)方式的局限性。人工智能的交互方式通常簡潔、高效,注重問題的解決和信息的提供。人工智能通常會直接給出問題的答案或解決方案,這可能使學(xué)生習(xí)慣于獲取現(xiàn)成的結(jié)論,而缺乏自己探索、分析問題以尋找答案的過程。例如,學(xué)生在遇到難題時,直接詢問人工智能得到答案,就失去了通過自主思考、嘗試多種解題方法來鍛煉批判性思維的機(jī)會。此外,人工智能表現(xiàn)出知識網(wǎng)絡(luò)構(gòu)建不足的問題。與人類教師能夠引導(dǎo)學(xué)生圍繞一個知識網(wǎng)絡(luò)去收集零碎信息、建立知識之間的聯(lián)系不同,人工智能提供的信息可能相對孤立,缺乏對知識體系的全面構(gòu)建及對其相互關(guān)聯(lián)的結(jié)構(gòu)關(guān)系的展示。這使得學(xué)生難以從整體和系統(tǒng)的角度去思考問題,不利于培養(yǎng)批判性思維中全面、深入分析問題的能力。
難以引導(dǎo)深度思考和質(zhì)疑?!叭斯ぶ悄艿暮诵氖菙?shù)據(jù)和算法,其本身并不具備反思性和批判性思維”[10],由此導(dǎo)致其深度思考和質(zhì)疑能力的缺失。一方面,源于提問引導(dǎo)有限。在激發(fā)學(xué)生提出問題和質(zhì)疑方面,人工智能可能不如人類教師靈活和有效。教師可以通過巧妙的提問、設(shè)置情境等方式啟發(fā)學(xué)生的批判性思維,鼓勵他們對現(xiàn)有觀點、理論進(jìn)行質(zhì)疑和挑戰(zhàn),但人工智能的提問引導(dǎo)往往比較機(jī)械和模式化,難以根據(jù)學(xué)生的具體反應(yīng)和思維狀態(tài)進(jìn)行個性化的深度啟發(fā)。另一方面,源于無法應(yīng)對復(fù)雜質(zhì)疑。對于學(xué)生提出的復(fù)雜、深層次的質(zhì)疑,人工智能可能由于其算法和知識儲備的限制,無法像教師那樣給予富有洞察力和創(chuàng)造性的回應(yīng),這些都會限制學(xué)生批判性思維的進(jìn)一步拓展。
2.思政教育需求的多元化
思政教育創(chuàng)新“不能僅僅理解為純粹的思想和觀念,也不單單是原則的演繹與經(jīng)驗的簡單歸納,而要為審視和批判保留足夠的空間。”[11]在批判性思維培養(yǎng)方面,思政教育表現(xiàn)出多元化的需求。如鼓勵獨立思考,要求受教育者在面對各種思想觀念、社會現(xiàn)象和政治問題時,不盲目跟從,敢于提出自己的觀點和疑問。思政教育要通過分析不同的理論觀點和價值取向,讓受教育者學(xué)會從多個角度思考問題,培養(yǎng)其獨立思考的能力。如倡導(dǎo)理性分析,批判性思維要求學(xué)生以理性的態(tài)度分析問題,避免情緒化和片面性。思政教育應(yīng)引導(dǎo)受教育者運用邏輯推理、證據(jù)分析等方法,對各種信息進(jìn)行客觀評估。又如培養(yǎng)質(zhì)疑精神,思政教育要鼓勵學(xué)生敢于質(zhì)疑權(quán)威和傳統(tǒng)觀念,通過提出問題、開展討論等方式,激發(fā)學(xué)生的求知欲和探索精神。再如增強價值判斷能力,彰顯批判性思維的思政教育能引導(dǎo)學(xué)生在面對各種價值觀念時進(jìn)行深入思考和比較,做出正確的價值判斷。
3.協(xié)調(diào)關(guān)系的策略選擇
在比較中培養(yǎng)批判性思維。首先,人工智能可以利用強大的搜索引擎和推薦算法,根據(jù)思政教育主題,為師生提供多角度的教育素材。例如,通過對各國公民道德教育、愛國主義教育等方面的觀點比較,引導(dǎo)學(xué)生深刻認(rèn)識我國思想政治教育的價值功能。通過挖掘歷史上不同時期對于思想政治理念的闡釋,幫助學(xué)生了解思想的演變過程,促使他們?nèi)シ治霭l(fā)生變化的原因和影響,從而培養(yǎng)批判性思維。其次,人工智能能夠通過比較每個學(xué)生的思維特點分類開展批判性思維培養(yǎng),對于擅長邏輯分析的學(xué)生,要提供更多具有理論深度的思政內(nèi)容,讓他們在深入思考中發(fā)展批判性思維;對于偏向情感體驗的學(xué)生,要推送一些真實感人的思政故事,并引導(dǎo)他們對故事背后的價值觀進(jìn)行反思。
創(chuàng)設(shè)情境問題。利用人工智能模擬復(fù)雜的思政情境,如設(shè)定一個關(guān)于網(wǎng)絡(luò)輿論與主流價值觀沖突的場景,讓學(xué)生在這個情境中思考如何堅守正確的價值觀。再如根據(jù)學(xué)生的學(xué)習(xí)進(jìn)度和知識水平,結(jié)合當(dāng)代社會現(xiàn)象智能生成具有挑戰(zhàn)性的思政問題,引導(dǎo)學(xué)生辯證思考問題,合理質(zhì)疑、分析和推理。
協(xié)調(diào)技術(shù)與教育本質(zhì)的平衡。這也是批判性思維在人際交互中的重要體現(xiàn)。一方面,不能過度依賴技術(shù)而忽視思政教育的本質(zhì)內(nèi)涵。思政教育的核心在于價值引領(lǐng)、品德塑造和思想啟迪,人工智能只是輔助工具,不能替代教育者與受教育者之間的情感交流、思想碰撞和人文關(guān)懷。另一方面,要確保技術(shù)的運用是為了更好地實現(xiàn)思政教育目標(biāo),而不是為了技術(shù)而技術(shù)。避免陷入技術(shù)至上的誤區(qū),要采取有效措施鼓勵生成式人工智能創(chuàng)新發(fā)展,采用包容審慎的態(tài)度對生成式人工智能服務(wù)實行分類分級監(jiān)管,始終以培養(yǎng)自由全面發(fā)展的人為根本出發(fā)點。
參考文獻(xiàn)
[1]"習(xí)近平向2024年世界互聯(lián)網(wǎng)大會烏鎮(zhèn)峰會開幕視頻致賀[N].光明日報,2024-11-21(1).
[2]"崔建西.論人工智能時代思想政治教育的“變”與“不變”[J].思想教育研究,2021(5):26.
[3]"李懷杰.人工智能賦能思想政治教育論析[J].思想理論教育,2020(4):82.
[4]"秦蕾,朱進(jìn)東.人工智能:高校思想政治教育的時代趨向與應(yīng)對策略——基于復(fù)雜性科學(xué)視閾[J].江蘇高教,2020(2):103.
[5]"吳潛濤.正確理解思政引領(lǐng)力的科學(xué)內(nèi)涵[N].光明日報,2024-10-08(13).
[6]"環(huán)球網(wǎng).谷歌AI聊天機(jī)器人竟回復(fù)稱“人類去死吧” 谷歌回應(yīng)[EB/OL].(2024-11-20).https://tech.cnr.cn/techyw/kan/20241120/t20241120_526981944.shtml.
[7]"侯波.堅持馬克思主義在意識形態(tài)領(lǐng)域指導(dǎo)地位的根本制度[N].中國紀(jì)檢監(jiān)察報,2019-12-26(5).
[8]"生成式人工智能服務(wù)管理暫行辦法[EB/OL].(2023-07-13).https://www.cac.gov.cn/2023-07/13/c_1690898327029107.htm.
[9]"王少.ChatGPT介入思想政治教育的技術(shù)線路、安全風(fēng)險及防范[J].深圳大學(xué)學(xué)報(人文社會科學(xué)版),2023(2):155.
[10]"林峰.人工智能時代思想政治教育的價值定位與發(fā)展[J].思想理論教育,2020(1):81.
[11]"盧嵐.人工智能與思想政治教育的關(guān)系維度論析[J].思想教育研究,2022(6):60.
[責(zé)任編輯:孫溶澤]