亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        ChatGPT熱潮下的冷思考:基于心理學算法厭惡與欣賞的視角

        2023-07-13 01:11:30戚婭瑋李斯盛楊若欣何清華
        關(guān)鍵詞:人工智能人類

        戚婭瑋,李斯盛,楊若欣,何清華

        (西南大學 心理學部, 重慶 400715)

        2022年11月30日,美國OpenAI公司發(fā)布了一款名叫ChatGPT的聊天機器人,自發(fā)布以來迅速吸引了全世界人民的目光。OpenAI公司隨后迭代出新的模型版本——GPT-4,但各方面對其褒貶不一:有的盛贊其所帶來的便捷,有的則擔心其對人類社會原有秩序的沖擊,這些言論甚至引發(fā)了“AI將如何影響人類社會發(fā)展”的大討論。2023年全國兩會期間,科技部部長王志剛用“踢足球和梅西”來回應(yīng)記者提出的ChatGPT問題[1],表明了自己對ChatGPT的態(tài)度。本文從個體對ChatGPT等人工智能(AI)產(chǎn)品的矛盾態(tài)度出發(fā),基于算法決策的相關(guān)理論和文獻,論述個體對AI產(chǎn)生算法厭惡、算法欣賞,甚至厭惡與欣賞共存的這一矛盾態(tài)度背后的心理機制,并對未來AI如何避免這種矛盾態(tài)度提出解決思路。

        一、ChatGPT、算法矛盾態(tài)度與算法決策

        ChatGPT不是一個全新的事物,而是人工智能領(lǐng)域不斷迭代的新發(fā)展,是AI新時代的代表性產(chǎn)品。ChatGPT,即生成式預訓練轉(zhuǎn)換器(Chat Generative Pre-trained Transformer),是一種基于自然語言處理和深度學習技術(shù)的語言模型,有著自然語言處理和機器學習的能力,依托自然語言處理的人工智能技術(shù)與人類進行互動,能形成智能式認知理解模式[2]。但它的能力與應(yīng)用范圍遠遠不止人類自然語言的生成。比如,ChatGPT有著強大的信息加工、分析整合和生成能力[3],除文字外,還可以與其他技術(shù)相結(jié)合(如語音、圖像、視頻等),生成豐富多樣的回答。在實際應(yīng)用中,可以做到即時的人機交互,幫助個體進一步澄清自己的想法和感受,了解其所處的背景和狀況,及時根據(jù)個體對于答案的反饋進行學習和調(diào)整,不斷優(yōu)化決策過程。從ChatGPT的產(chǎn)生與發(fā)展來看,它的引入和發(fā)展,標志著自然語言處理和深度學習技術(shù)在人機交互領(lǐng)域的重大進展。ChatGPT的出現(xiàn)意味著人工智能可以像人類一樣生成自然語言,這種技術(shù)的進步使得機器可以更好地理解和處理人類語言的復雜性。隨著ChatGPT及其競品的不斷涌現(xiàn),個體對這些技術(shù)所帶來的影響和潛在風險也愈加關(guān)注。

        ChatGPT的核心是算法(Algorithm),而個體對算法的態(tài)度尤其是新生算法的態(tài)度總是具有矛盾的兩面性:算法厭惡、算法欣賞,甚至厭惡與欣賞并存。早在20世紀50年代,Meehl[4]就提出過盡管有更優(yōu)越的統(tǒng)計模型可供參考,但醫(yī)生在做醫(yī)療決策時還是會更傾向于相信自己的直覺等。進入21世紀以來,AI等先進技術(shù)進入集成和應(yīng)用階段[5],相關(guān)支撐算法的性能日趨提高,但類似的現(xiàn)象仍然存在。Dievorst等[6]進一步指出,即使用戶在看到算法預測的表現(xiàn)優(yōu)于人類預測者后,仍然會傾向于不使用算法,他們把這種現(xiàn)象定義為算法厭惡(Algorithm Aversion)。雖然Dievorst等人也強調(diào),算法厭惡出現(xiàn)的前提條件是算法出現(xiàn)錯誤或不足;而事實上,也有研究發(fā)現(xiàn)即使用戶沒有看到算法出現(xiàn)錯誤,他們?nèi)匀挥锌赡芘懦馐褂盟惴╗7]。因此,算法厭惡是指個體表現(xiàn)出對算法的消極態(tài)度和行為。與算法厭惡相反,算法欣賞(Algorithm Appreciation)則是指個體對算法表現(xiàn)出積極的態(tài)度和行為,表現(xiàn)出對算法的高度依賴[3,8]。比如個體頻繁通過互聯(lián)網(wǎng)進行信息檢索,這可以看作對搜索算法的欣賞[9]。而對于ChatGPT在當前生成式語言模型中的絕對優(yōu)勢,人們并不是簡單的厭惡或者欣賞,而是一種復雜的矛盾心理。我們把矛盾心理定義為對一個物體同時具有積極和消極的方向?!胺较颉奔葱袨槿讼鄬τ谖矬w的對齊或位置,其中積極的方向意味著吸引或拉向它,消極的方向意味著排斥或推離它。眾多資料表明,當前人們對ChatGPT的態(tài)度則更傾向于這種矛盾心理。

        算法厭惡與算法欣賞代表個體對于人工智能算法的態(tài)度。它們是基于算法決策而產(chǎn)生的,算法決策通常指人類在算法的幫助下做出決策的過程,這里的算法簡單到計算器,也可以復雜到以大數(shù)據(jù)為基礎(chǔ),以機器學習及深度學習算法為核心的人工智能自主決策系統(tǒng)[10](包括自動化決策、增強決策、計算機決策支持系統(tǒng)、計算機推薦系統(tǒng)、輔助決策、專家系統(tǒng)和診斷輔助等[11])。隨著人工智能算法的不斷進化,人工智能算法早已廣泛應(yīng)用在多個領(lǐng)域:在醫(yī)療過程中,醫(yī)療輔助決策系統(tǒng)可以幫助醫(yī)護人員和患者提供醫(yī)療、保健或管理方面的建議[12];在金融領(lǐng)域中,算法可以給企業(yè)或投資人提供投資理財建議,或者提供財務(wù)風險管理建議[13];在消費領(lǐng)域,基于大數(shù)據(jù)的算法可以向消費者提供個性化的購物建議[14],也可以從消費心理學的角度影響用戶消費決策[15]等;在日常生活中,算法可以根據(jù)個體數(shù)據(jù)提出個性化的膳食和健康生活方式建議[16]等。以算法為核心的ChatGPT的應(yīng)用更為廣泛,能為多個行業(yè)提供幫助,甚至推動行業(yè)的發(fā)展。算法能帶來毋庸置疑的便利,但也存在著數(shù)據(jù)偏差、算法偏見、倫理道德、技術(shù)依賴等風險。算法逐漸深入人類的生活,面對著算法的有效性和局限性,個體在決策過程中通過對比和選擇,逐漸形成了對算法的不同態(tài)度。尤其是面對新生事物ChatGPT,個體對其矛盾態(tài)度的產(chǎn)生原因需要進一步闡述。

        二、ChatGPT的算法厭惡與欣賞及矛盾心理的心理機制

        雖然目前研究對出現(xiàn)算法厭惡、欣賞以及矛盾心理的具體原因還沒有定論,但已有研究表明算法厭惡受到算法自身性能、任務(wù)類型、個體差異等因素的影響[17]。與之類似,算法自身性能、算法使用經(jīng)驗、環(huán)境影響、算法客觀性與透明度以及一定程度的擬人化是算法欣賞產(chǎn)生的主要原因[18]??傮w而言,算法厭惡和算法欣賞是一個連續(xù)體的兩端,共同受自身性能、任務(wù)類型及個體等方面因素的制約,在一些情況下帶來對算法的矛盾心理?;诖?本文結(jié)合ChatGPT的自身性能、任務(wù)要求及個體自身特點等方面進行探討個體對其產(chǎn)生的算法厭惡和算法欣賞,從而進一步揭示矛盾心理產(chǎn)生的原因。

        (一)ChatGPT的自身性能

        問世即快速增長的注冊用戶數(shù)據(jù)體現(xiàn)出ChatGPT在初期就更多地受到人們的欣賞,這可能與ChatGPT自身的性能有關(guān)。Venkatesh等[19]提出技術(shù)接受和使用統(tǒng)一理論來解釋個體對于技術(shù)的接受和使用及其影響因素。該理論認為,績效期望(即“個人認為使用人工智能有助于提高工作績效的程度”)會顯著影響個體對技術(shù)的接受和使用程度。而對ChatGPT一類的人工智能,個體會寄予更高的績效期望,且會傾向于將相對更困難的任務(wù)交給它們來解決。事實上,如前所述,ChatGPT擁有強大的功能,在于擁有先進的算法、強大的算力和海量的數(shù)據(jù)[3]。ChatGPT所使用的算法是基于轉(zhuǎn)換架構(gòu)的神經(jīng)網(wǎng)絡(luò)模型,該模型的特點是引入自我注意力機制,形成動態(tài)、可優(yōu)化的算法[2],配合算力和數(shù)據(jù)逐步推進,以便實現(xiàn)并行運算,節(jié)省算法學習和訓練的時間。在算力方面,ChatGPT每天的算力總消耗約為3 640PF(即假設(shè)每秒運算1 000萬億次,需要連續(xù)運行3 640天)[12]。在數(shù)據(jù)方面,ChatGPT的模型參數(shù)已經(jīng)高達1 750億,結(jié)合海量數(shù)據(jù)和預訓練模型,可以實現(xiàn)對語料庫的學習、訓練和反饋,并逐步熟悉不同國家的語言,滿足各種具體場景的需求,讓它的語言更加流暢、自然、豐富,更易于被人類所理解。ChatGPT功能強大,應(yīng)用場景多樣,響應(yīng)時間較快,個體可能會因此對其產(chǎn)生算法欣賞[20]。

        然而,伴隨著ChatGPT注冊用戶量的增加,也帶來了很多負面或者質(zhì)疑輿論,基本集中在人工智能是否即將取代人類,以及ChatGPT所帶來的學術(shù)倫理問題、數(shù)據(jù)安全問題等。這也有多方面的原因:首先,基于ChatGPT的性能,它本身是一個大規(guī)模語言模型,必然存在著大規(guī)模語言模型自身的局限,即其可信性無法保證。雖然ChatGPT在很多情況下能夠給出看似較好的回復,但很有可能是其在“一本正經(jīng)地胡說八道”。用戶通常認為人工智能應(yīng)當是更加完美的,對它產(chǎn)生錯誤的寬容度較低[21],當發(fā)現(xiàn)ChatGPT對一些簡單問題的回答的準確性較低時,可能會造成對ChatGPT的算法厭惡。其次,ChatGPT所學習的內(nèi)容具有一定的時效性。ChatGPT不能實時更新知識系統(tǒng),它的知識系統(tǒng)是2021年9月以前的數(shù)據(jù)庫,沒有以后的知識信息,這一局限可能也是導致算法厭惡的原因之一。第三,高額的訓練成本是ChatGPT作為大型語言模型的又一局限。數(shù)年前,AlphaGo與李世石的一場圍棋比賽,引起了人們對于人工智能是否會取代人類的疑問,但是人們所忽略的是AlphaGo超高的耗能。第四,如前文所述,ChatGPT的基礎(chǔ)大規(guī)模語言模型是基于現(xiàn)實世界的語言數(shù)據(jù)預訓練而成的,因為數(shù)據(jù)的偏見性,很可能生成有害內(nèi)容。第五,極為重要的一點是,ChatGPT 為 OpenAI 部署,用戶數(shù)據(jù)都為OpenAI公司所掌握,長期大規(guī)模使用可能存在一定的數(shù)據(jù)泄漏風險。ChatGPT帶來的數(shù)據(jù)安全問題亦會造成人們選擇不再繼續(xù)使用ChatGPT。有研究表明,在體驗到不良的結(jié)果后,個體就會顯著降低對自動化的利用率[22]。因此,ChatGPT如果在個體體驗過程中出錯,不論其錯誤的嚴重程度如何,都會激發(fā)明顯的負面情緒,而負面情緒帶來的消極體驗會降低用戶的使用傾向[23],帶來算法厭惡。

        此外,擬人化是算法性能中的一個重要特點。擬人化是將人類特征、動機、意向或心理狀態(tài)賦予非人對象的過程[24],會顯著影響個體對人工智能的厭惡與欣賞。與人性化這一類似的概念不同,人性化的對象可以包括人類本身,而擬人化的對象僅限于非人對象,它是一個更加具體的概念。機器和算法是常見的擬人化對象之一,擬人化能顯著增加人工智能的使用和欣賞程度[25]。比如:已有研究表明,個體感知到的擬人化可以提高對諸如ChatGPT一類聊天機器人的對話意愿,這可能是由于擬人化使得個體感知到了聊天機器人的社會存在[3,26]。ChatGPT作為一種基于人類反饋強化學習技術(shù)開發(fā)的產(chǎn)品,已經(jīng)具備了一定的擬人化潛力。雖然它并不以視覺面孔的形式向用戶展現(xiàn)其形態(tài),但其具有的高水平信息互動性可以在一定程度上彌補這一局限[27]。有研究提示,個體越多地感知到聊天機器人背后的想法,他們與聊天機器人的共同存在和人際關(guān)系就越密切[28],尤其是當聊天機器人使用社交線索時,個體與它的親密聯(lián)系會變得更加強烈。神經(jīng)科學的研究也發(fā)現(xiàn),用戶對聊天機器人的擬人化不僅取決于對主體外貌、認知智力和情緒智力的感知,也可以在沒有實體的智能體中感受到[29],這與大腦背外側(cè)前額葉皮層和顳上回腦區(qū)的活動強度與個體的擬人化感知以及后續(xù)的行為傾向密切相關(guān)[30]。這些發(fā)現(xiàn)提示,諸如ChatGPT一類聊天機器人語言中的思維感知和社交線索對于創(chuàng)造積極的聊天機器人體驗的重要性。值得注意的是,已有研究發(fā)現(xiàn)人工智能擬人化程度越高,其所應(yīng)負的道德責任越大,并且這種效應(yīng)是通過擬人化導致的人工智能自由意志提升來實現(xiàn)的[31]。因此,雖然較高的擬人化程度會帶來算法欣賞,但過高的擬人化也可能帶來算法厭惡,甚至產(chǎn)生“恐怖谷效應(yīng)”(過于智能的AI會讓人覺得恐怖,導致喜好下降)[32]。

        (二)不同任務(wù)類型ChatGPT的使用

        主客觀任務(wù)類型會對個體的算法厭惡與欣賞產(chǎn)生影響。個體傾向于采用算法輔助客觀類型的任務(wù),如在對視覺刺激進行數(shù)值估計時,用戶更傾向于使用算法[8];但在主觀類型的任務(wù)中則傾向于不使用算法,因為一般認為算法缺乏直覺和主觀判斷能力。Castelo等[33]以及Bonnefon和Rahwan都重復了這一發(fā)現(xiàn),認為智能算法缺乏執(zhí)行主觀任務(wù)所需的能力,當主觀判斷更為重要時,用戶對算法的依賴程度更低[27]。但有研究指出,即使是在主觀任務(wù)類型中,也有可能表現(xiàn)出算法欣賞[8]。ChatGPT應(yīng)用場景廣泛,既可以執(zhí)行諸如程序語言轉(zhuǎn)換、Python代碼解釋與Bug修復等相對客觀的任務(wù),也可以進行生成點評、面試、問答、情緒評分與分析等相對主觀的任務(wù),這使個體對其更容易產(chǎn)生矛盾態(tài)度。

        在涉及道德相關(guān)任務(wù)時,個體傾向于相信自己的判斷,而不是算法。ChatGPT自身也會依據(jù)規(guī)則厭惡回答道德相關(guān)的問題,但在一些特殊情形下,ChatGPT仍有可能產(chǎn)出一些評論道德相關(guān)的結(jié)果。這有可能會引起個體的算法厭惡。已有研究發(fā)現(xiàn)濫用諸如ChatGPT之類的人工智能進行道德決策,會加劇人與人之間的不平等,甚至可能產(chǎn)生更嚴重的現(xiàn)實威脅[34]。ChatGPT帶來學術(shù)界廣泛討論的一個問題:學術(shù)倫理問題?;贑hatGPT的優(yōu)點,已有學校開始鼓勵學生使用ChatGPT,如香港科技大學。但是,頂級期刊Science、Nature等相繼強調(diào)人工智能程序不能成為作者[35]。任務(wù)類型影響算法厭惡與欣賞的背后機制尚不明朗,我們推測其可能受任務(wù)難度的調(diào)節(jié)。已有研究發(fā)現(xiàn)低難度的任務(wù)會帶來較低的認知負荷,造成認知資源的浪費并引起厭惡感[36],導致算法厭惡。而高難度的任務(wù)會帶來較高的認知負荷,個體更有可能表現(xiàn)出算法欣賞。同樣地,使用ChatGPT解答高難度的任務(wù),可能也是ChatGPT在短期內(nèi)引起很多人追捧的原因之一。此外,客觀類型的任務(wù)一般而言難度較高,而主觀類型的任務(wù)則難度較低,這樣的觀點部分地得到了有關(guān)研究的支持[37],但后續(xù)還需更多研究予以驗證。

        (三)影響ChatGPT厭惡與欣賞的個體因素

        目前,雖然沒有具體的研究去探討影響ChatGPT厭惡與欣賞的個體因素,但是基于以往對于算法厭惡和欣賞的個體因素研究可以大致分為兩個方面:一方面是個體的人格因素,另一方面是人口統(tǒng)計學因素[17]。于人格因素而言,自尊、自我效能、控制源和神經(jīng)質(zhì)等個體的核心自我評價都與算法厭惡有關(guān)。個體對外部世界的評價不僅受到對象的特征和個體對這些對象的態(tài)度的影響,還受到個體對自己、他人和世界的態(tài)度的影響,對ChatGPT的厭惡與欣賞亦難以避免受個體因素的影響。從人口統(tǒng)計學的角度而言,算法的接受程度受個體的年齡、性別和教育水平而異。就目前的傳播熱度而言,ChatGPT在青年群體中更受歡迎;在學術(shù)界的火爆程度也體現(xiàn)出其更受較高知識水平人群的青睞。

        綜上所述,ChatGPT厭惡/欣賞受到很多因素影響,這些因素的交互造成了人們的矛盾心理,也會發(fā)展出不同的使用模式,人們批評它也依舊使用它,積極討論它但并不使用它等等。我們需要克服對ChatGPT的矛盾心理,使人對其擁有更為平衡的態(tài)度,為此提出克服ChatGPT矛盾心理的策略。

        三、克服ChatGPT矛盾心理的策略

        尤瓦爾·赫拉利在《未來簡史》中提到:“智能與意識,究竟哪個才更有價值?”[38]無意識的智能在飛速發(fā)展,人類如果不想集體被淘汰,只能積極升級“心智”。而升級所謂“心智”離不開人類對算法的態(tài)度。是否需要以及如何克服矛盾心理,在以ChatGPT為代表的新一代人工智能時代顯得尤為重要。對于矛盾心理,可以從靈活應(yīng)對與非靈活應(yīng)對兩個角度出發(fā)采取策略:非靈活應(yīng)對策略主要側(cè)重于避免或逃避矛盾心理的不適,對于ChatGPT而言,采用非靈活應(yīng)對策略,即不使用ChatGPT,可以避免因其矛盾心理帶來的不適;而靈活應(yīng)對策略則從多方面的、平衡的角度來解決矛盾心理產(chǎn)生的根源。本文從克服算法厭惡,以及克服對ChatGPT的盲目欣賞的角度,提出我國人工智能發(fā)展的一些建議。

        對于克服算法厭惡的策略,首先,可以在設(shè)計環(huán)節(jié)使用“人在回路(又稱為人機閉環(huán)系統(tǒng))”策略,即機器操作員在經(jīng)過第一次指令輸入后,仍有機會進行第二次或不間斷的指令更正。Dietvorst等[39]的研究發(fā)現(xiàn),讓個體可以調(diào)整不完美算法會顯著增加對算法的使用概率和信念,適度允許個體調(diào)整算法的預測值也會帶來更好的性能表現(xiàn)。對于用戶來說,要根據(jù)算法的判斷結(jié)果采取行動,就必須感到較強的控制感并有足夠的信心來信任算法。因此,人在回路策略能夠激發(fā)用戶的決策自主感,提升應(yīng)用算法輔助決策的傾向[40]。未來,類似于ChatGPT一類的AI可以開放允許用戶修正結(jié)果的權(quán)限,以達到人機交互中的雙贏模式。當然,這也會帶來一些挑戰(zhàn),比如人的多元性帶來的算法的社會適應(yīng)性問題等。其次,提高擬人化水平可以減輕算法厭惡。對ChatGPT等聊天機器人而言,需要提高其社交存在水平,因為個體會無意識地將社會規(guī)則應(yīng)用到與人工智能的交互之中。而擬人化水平的提高可以激發(fā)用戶的社會認知反應(yīng)。更類人的語言、萌化程度等都會影響人的算法厭惡/欣賞。未來ChatGPT通過呈現(xiàn)與人類相似的面部特征,或者進一步提高其對社會規(guī)則的學習能力和水平是非常有必要的。最后,算法意識的提升也有助于減輕算法厭惡。算法意識是指個體是否意識到算法在日常生活中的影響,并且通常與圍繞算法的經(jīng)驗、隱私問題、規(guī)范價值觀和素養(yǎng)密切相關(guān)。讓用戶了解算法,提高算法對用戶的透明度是提升算法意識的主要手段,也有助于提升用戶對算法性能的績效感知。未來可以采取多種更加靈活的方式,更廣泛地培育大眾的算法意識,提升算法應(yīng)用水平。ChatGPT的誕生給人們帶來了巨大的便利,這使得一部分人盲目欣賞算法,過度依賴算法。為此,人們需要克服對于算法的盲目欣賞,正確認識算法存在的問題,尤其是ChatGPT這樣具有跨越式成長的機器模型,在為人們帶來便利的同時,學術(shù)倫理、數(shù)據(jù)安全等問題接踵而至,這些都需要在未來的發(fā)展中進一步解決。

        隨著ChatGPT的產(chǎn)生,人們看到了實現(xiàn)通用人工智能的曙光,同時也產(chǎn)生了恐慌:一方面希望人工智能發(fā)展,另一方面,害怕被人工智能所取代,尤其在教育領(lǐng)域。在這樣的潮流下,我們該怎樣面對,未來要采取什么措施呢?首先,人工智能的發(fā)展對于人類社會的發(fā)展而言是科技進步的體現(xiàn)。ChatGPT的出現(xiàn)帶動了國內(nèi)外人工智能尤其是自然語言模型研發(fā)的腳步,短短幾個月GPT-4已經(jīng)問世,相比于ChatGPT,它更為智能,在很多方面具有了與人類水平相當?shù)哪芰?。顯然,人工智能產(chǎn)品不論是在哪個領(lǐng)域能成為該行業(yè)的風向標,就能夠占據(jù)一定的優(yōu)勢與資源,所以除了OpenAI,目前包括谷歌、Anthropic、百度等都已推出或者正在開發(fā)類ChatGPT的對話式通用人工智能系統(tǒng),以期能夠跟上甚至是超越世界技術(shù)前沿。其次,科技進步的同時,人類也需要對人類自身有更多的認識才能夠更充分地運用和發(fā)揮人類的優(yōu)勢。為此,全球已經(jīng)啟用了各種大腦項目,且這些大規(guī)模的大腦項目有3個共同的研究重點:大腦圖譜、開發(fā)新技術(shù)和腦部疾病。我國經(jīng)過6年的準備,于2021年9月啟動“中國大腦計劃(The China Brain Project,CBP)”,也稱為“腦科學和類腦智能技術(shù)”,主要目的是探索認知功能的神經(jīng)機制,旨在促進類腦智能技術(shù)的發(fā)展和腦功能障礙的診斷和治療,這個框架被稱為“一體兩翼”。目前,已啟動59個一期項目,預算約32億元,包括5個研究方向:認知功能原理分析、認知障礙相關(guān)障礙、兒童青少年大腦發(fā)育、腦源計算與腦機智能、技術(shù)平臺構(gòu)建,中國腦計劃項目對3個研究重點進行了進一步的擴展。最后,人類也需要善用人工智能。人工智能的發(fā)展對教育行業(yè)帶來的沖擊顯而易見,自ChatGPT公開發(fā)布以來,用其“代寫作業(yè)、代寫論文”的現(xiàn)象頻頻被報道。紐約教育局宣布:限制在紐約市公立學校的網(wǎng)絡(luò)上使用ChatGPT。這種學術(shù)倫理問題引發(fā)了學術(shù)界的廣泛討論,甚至開始擔憂。ChatGPT強大的知識系統(tǒng)超越了許多教師,那么是否有一天不需要教師的存在?當前,不可否認的是,ChatGPT即使有很多功能,但是其創(chuàng)新能力還有待提高,而創(chuàng)新能力也恰好是人類的優(yōu)勢。未來的教師可以花費更多的精力去培養(yǎng)學生的創(chuàng)新思維能力,而不是一味地提高其應(yīng)試能力。學生也應(yīng)更好地將人工智能提供的便利與教師的創(chuàng)新性和創(chuàng)造性相結(jié)合,這樣未來發(fā)展的可能性才會更多。除了重視ChatGPT對教育界的沖擊外,我們還應(yīng)該重視預防“技術(shù)成癮”現(xiàn)象的發(fā)生,正如社交網(wǎng)絡(luò)、網(wǎng)絡(luò)游戲的興起所伴隨的網(wǎng)絡(luò)成癮、游戲成癮現(xiàn)象的普遍發(fā)生,在當前沒有明確規(guī)范ChatGPT的使用準則且人們在廣泛使用的情況下,可能會伴隨而來另一種新型成癮:“GPT成癮”。因此,當前除了嘗試追趕、超越最前沿人工智能技術(shù)外,國內(nèi)外以及各個行業(yè)領(lǐng)域還應(yīng)該迅速制定合理的使用準則、指定使用領(lǐng)域等,以提早預防“技術(shù)”成癮的發(fā)生。

        總之,人工智能算法已經(jīng)滲透進世界的方方面面,與算法共生是AI時代個體必須接受的現(xiàn)實,同時要有不被人工智能所取代的自信。無論是ChatGPT還是未來發(fā)展起來的更為有用的人工智能工具,都是要為人類科技文明的發(fā)展和傳承做貢獻。在算法有利于我們的生活時,人們需要適應(yīng)時代和科技的發(fā)展,克服對于算法的厭惡;但是另一方面,當算法對個體的生活和社會的發(fā)展產(chǎn)生了威脅時,克服算法厭惡的必要性就會降低。因此,保持對算法的平常心是當代人的必修課。

        猜你喜歡
        人工智能人類
        我校新增“人工智能”本科專業(yè)
        顫抖吧,人類
        哈哈畫報(2022年4期)2022-04-19 11:11:50
        人類能否一覺到未來?
        人類會成長起來嗎?
        英語文摘(2021年2期)2021-07-22 07:56:54
        人類第一殺手
        好孩子畫報(2020年5期)2020-06-27 14:08:05
        1100億個人類的清明
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        人工智能與就業(yè)
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        下一幕,人工智能!
        南風窗(2016年19期)2016-09-21 16:51:29
        中文字幕一区二区在线| 无码精品人妻一区二区三区人妻斩| 日本无遮挡吸乳呻吟视频| 99精品免费视频| 丝袜美腿诱惑一二三区| 久久精品国产91精品亚洲| 亚洲av无码精品蜜桃| 亚洲成在人线久久综合| 久久高潮少妇视频免费| 91九色中文视频在线观看| 精品无码国产自产拍在线观看| 国产亚洲av综合人人澡精品| 一边做一边说国语对白| 国产国产裸模裸模私拍视频| 76少妇精品导航| 亚洲欧美日本人成在线观看| 午夜少妇高潮在线观看视频| 国产美女精品视频线免费播放软件| 色悠久久久久综合欧美99| 亚洲高清国产品国语在线观看| 亚洲韩日av中文字幕| 午夜天堂精品久久久久| 人妻被黑人粗大的猛烈进出| 天天摸天天做天天爽天天舒服| 精品中文字幕在线不卡| 极品少妇小泬50pthepon| 在线视频精品免费| 九色精品国产亚洲av麻豆一| 亚洲综合中文日韩字幕| 日本一道综合久久aⅴ免费| 国产女女做受ⅹxx高潮| 欧美成人网视频| 国产亚洲91精品色在线| 色www视频永久免费| 中国猛少妇色xxxxx| 91精品综合久久久久m3u8| 亚洲1区第2区第3区在线播放| 成人影院yy111111在线| 亚洲天堂第一区| 久热re在线视频精品免费| 国产大全一区二区三区|