關(guān)鍵詞:大模型;提示工程;可供性;人機(jī)交互;思維鏈
課題:國家社科基金重大項目“增強(qiáng)中華文明海外網(wǎng)絡(luò)傳播力影響力研究”(編號:23ZDA094)
DOI: 10.3969/j.issn.2095-0330.2025.04.006
一、問題的提出:可供性視角下大模型應(yīng)用面臨的挑戰(zhàn)
(一)大模型的普及與發(fā)展
2022年11月30日,OpenAI公司推出了基于大語言模型(LargeLanguageModel,下文簡稱為“大模型”)的ChatGPT,該聊天機(jī)器人擁有較強(qiáng)的自然語言處理能力,在閱讀理解、文本分析、問答對話等任務(wù)上的完成能力十分突出①,推出后迅速吸引大量用戶注冊。除了OpenAI的GPT系列,Google的Gemini、Meta的Llama、Anthropic的Claude均具有巨量參數(shù)和算力支持,在信息提取和文學(xué)創(chuàng)作等方面表現(xiàn)良好。
在中國,的文心一言大模型、的訊飛星火認(rèn)知大模型、的通義千問大模型、的豆包大模型、智譜AI的GLM-4大模型等在技術(shù)迭代和應(yīng)用探索上持續(xù)突破,展現(xiàn)了中國大模型行業(yè)的多元化競爭力。而從2024年12月底到2025年1月底,中國初創(chuàng)公司推出的大模型DeepSeek的全球用戶數(shù)從34.5萬攀升至1.19億,日活躍數(shù)的增速遠(yuǎn)超ChatGPT,并在百余個國家及地區(qū)的應(yīng)用市場中位列榜首②,將大模型的開發(fā)、應(yīng)用與研究推向更新的高度。
(二)可供性視角下的大模型
在AIGC(Artificial Intelligence GeneratedContent)時代,人機(jī)交互進(jìn)入新的階段。用戶無須依賴特定的編程語言或煩瑣的操作界面,而是通過自然語言即可與大模型進(jìn)行交互,實現(xiàn)了在多種場景下人與機(jī)器的流暢溝通。③2017年,阿西什·瓦斯瓦尼(AshishVaswani)等人提出基于注意力機(jī)制的新型神經(jīng)網(wǎng)絡(luò)架構(gòu)Transformer,它能更好地捕捉文本依賴關(guān)系和上下文信息,提高了自然語言處理的能力,使得語言模型獲得了前所未有的通用性。④而基于Transformer架構(gòu)的大模型具有龐大的參數(shù)規(guī)模和卓越的學(xué)習(xí)能力,在各種自然語言處理(Natural Language Processing,NLP)任務(wù)中顯示出了強(qiáng)大的功能。為了分析大模型技術(shù)特性、用戶感知與人機(jī)交互實踐間的復(fù)雜互動關(guān)系,本研究借由“可供性”理論視角探究大模型技術(shù)設(shè)計與社會影響。
可供性(affordance)的概念由詹姆斯·吉布森(JamesGibson)首次提出,意為環(huán)境為生物提供不同行為和操縱的可能性與機(jī)會。吉布森認(rèn)為,環(huán)境的可供性不會隨著觀察者的需求變化而發(fā)生變化,它總是在那里等待被感知,但觀察者卻會根據(jù)他的需要去感知或注意到可供性。③唐納德·A.諾曼(DonaldA.Norman)基于吉布森的原始概念延展出了“感知可供性”(perceivedaffordances),從而與“真實可供性”(realaffordances)相區(qū)分,“真實可供性”更多指向技術(shù)相對確定的、實際的功能屬性,而“感知可供性”則是用戶對可能操作的感知。他認(rèn)為,軟件設(shè)計師通過調(diào)整操作界面的圖標(biāo),向用戶暗示某種行動的可能性。③因此,“感知可供性”對于軟件設(shè)計而言尤其重要,設(shè)計者需要確保期望的相關(guān)行為是容易被用戶感知的。
基于“真實可供性”和“感知可供性”兩種視角,對于大模型這一新興技術(shù),可供性可以從用戶是否可以將其用于需要的場景之中、用戶是否能把控、大模型是否簡單易用這些方面進(jìn)行分析,即聚焦于適應(yīng)性、可控性和可用性三個維度,從而強(qiáng)調(diào)技術(shù)客觀屬性與用戶主觀認(rèn)知間的關(guān)系。
適應(yīng)性包括大模型的核心功能及大模型客觀上執(zhí)行任務(wù)的能力。大模型能夠理解復(fù)雜的語言模式,并在給定的上下文中生成連貫和適當(dāng)?shù)幕貜?fù),完成語言翻譯、文本生成、情感分析、對話問答等任務(wù)③,從技術(shù)角度而言具備在差異化場景中執(zhí)行任務(wù)的能力??煽匦灾傅氖怯脩魧Υ竽P洼敵龅募s束和引導(dǎo)能力,其確保機(jī)器生成內(nèi)容符合預(yù)期,高可控性意味著大模型在多輪人機(jī)交互中能夠保持對用戶指令的精準(zhǔn)響應(yīng),且用戶可以對生成內(nèi)容進(jìn)行修正??捎眯詣t從大模型是否簡單易用的角度進(jìn)行分析,高可用性意味著用戶使用大模型的門檻較低,操作效率高。因此,大模型需要通過控件按鈕、界面設(shè)計、反饋機(jī)制展示其在文本生成、問題解答及邏輯推理等方面的潛力。當(dāng)用戶在大模型使用過程中以符合用戶預(yù)期的方式進(jìn)行反饋時,用戶往往會更容易感知其可用性,反之,過于專業(yè)或模糊的提示可能使得部分功能被忽視。
(三)被遮蔽的可供性:“幻覺”問題與提示工程介入的必要性
至關(guān)重要,能夠優(yōu)化人機(jī)交互體驗,并將大模型更廣泛地應(yīng)用于各個領(lǐng)域。
盡管大模型在底層架構(gòu)、參數(shù)規(guī)模、算力等方面的優(yōu)勢讓其具有處理多種任務(wù)的能力,展現(xiàn)出卓越的可供性,但用戶在實際使用過程中產(chǎn)生了許多顯著影響人機(jī)交互體驗的問題,其中最重要的是“幻覺”(hallucinations)——即大模型生成的內(nèi)容荒謬或與用戶提供的原始內(nèi)容不一致。③大模型的“幻覺”可以大致被分為三種類型:(1)輸入沖突“幻覺”,即大模型生成的內(nèi)容偏離用戶提供的原始輸入;(2)上下文沖突“幻覺”,即大模型生成的內(nèi)容與其此前生成的信息相沖突;(3)事實沖突“幻覺”,即大模型生成的內(nèi)容與已知的事實知識不一致。@
從可供性的視角出發(fā),大模型的“幻覺”等問題遮蔽了其適應(yīng)性、可控性和可用性,影響了大模型輸出內(nèi)容的準(zhǔn)確度,使其無法有效匹配和滿足用戶需求,并且提高了用戶使用大模型的門檻。因此,研究者和開發(fā)者需要通過技術(shù)中介或交互設(shè)計為其“去蔽”,而提示工程正是這樣一種駕馭大模型、充分調(diào)用大模型可供性的技術(shù)中介。與微調(diào)(fine-tuning)技術(shù)直接調(diào)整大模型參數(shù)不同的是,提示工程并非改變大模型固有參數(shù),而是通過優(yōu)化提示的步驟將大模型的客觀能力轉(zhuǎn)化為實際效能,使用成本和應(yīng)用難度相對較低。從定義上看,提示工程是對普通用戶輸入提示(prompt)的優(yōu)化和完善。研究表明,提示設(shè)計將直接影響大模型在實際任務(wù)中的表現(xiàn)①,可以應(yīng)對大模型幻覺等挑戰(zhàn)②,更準(zhǔn)確地捕捉用戶意圖,產(chǎn)生符合預(yù)期的輸出③。因此,提示工程對于充分發(fā)揮大模型的潛力
(四)問題的提出
一方面,基于大模型可供性分析以及當(dāng)前大模型存在的可供性被遮蔽的現(xiàn)狀,本研究聚焦于提示工程這一探索大模型可供性的技術(shù)中介,具體回答以下問題:
提示工程具有哪幾種類型?作為大模型中的重要組成部分,不同類型的提示工程分別影響了大模型適應(yīng)性、可控性、可用性的哪些方面,以及是否進(jìn)一步改變了用戶使用大模型的體驗?
另一方面,伊恩·哈特希比(IanHutchby)認(rèn)為,可供性“框定(但并非決定)了主體針對某個對象采取行動的可能性”,且同一物體的可供性可能因人而異。④伊莉沙貝塔·科斯塔(ElisabettaCosta)等人基于一項社交媒體用戶使用實踐,提出“實踐中的可供性”(affordances-in-practice)這一概念,強(qiáng)調(diào)媒介/物的可供性并非固定和穩(wěn)定的屬性,而是涉及人類與媒介之間反復(fù)互動的過程,是由用戶在特定社會和文化背景下的具體實踐決定的?,這一視角下的可供性研究凸顯了人類行動者對于可供性的動態(tài)挖掘。在與大模型的實際交互情境中,用戶能不斷探索、發(fā)現(xiàn)大模型的能力,技術(shù)的意義某種程度上是在具體實踐中被不斷構(gòu)建和重構(gòu)的。因此,本文還將回答以下研究問題:大模型可供性如何在提示工程知識傳播實踐中被進(jìn)一步挖掘?從人機(jī)交互出發(fā),提示工程的不同表現(xiàn)形式對于人機(jī)交互實踐產(chǎn)生了怎樣的作用,并對人類的主體性提出了何種要求?
二、提示工程對大模型適應(yīng)性、可控性和可用性的影響
(一)提示工程的定義及類型
提示工程是指系統(tǒng)地設(shè)計和優(yōu)化輸入提示,以引導(dǎo)大模型準(zhǔn)確識別目標(biāo)信息,增強(qiáng)大模型的表現(xiàn)力和穩(wěn)定性,確保大模型生成輸出的準(zhǔn)確性、相關(guān)性和連貫性。①本研究根據(jù)目前存在的提示工程,按照核心功能和作用將一系列對提示的優(yōu)化方式劃分出“結(jié)構(gòu)引導(dǎo)型”提示工程、“邏輯推理增強(qiáng)型”提示工程和“知識檢索增強(qiáng)型”提示工程這三類(見表1)。
“結(jié)構(gòu)引導(dǎo)型”提示工程通過主動設(shè)計輸入信息的結(jié)構(gòu),引導(dǎo)大模型聚焦目標(biāo)邏輯、限定輸出范式或激活特定能力,本質(zhì)是通過結(jié)構(gòu)化的語言規(guī)則對大模型的內(nèi)容生成過程施加可控干預(yù),減少用戶與機(jī)器進(jìn)行自然語言交互的模糊性,提升人機(jī)協(xié)作的效率。該類型涵蓋了一系列普通用戶可直接操作的語法規(guī)則,是一種對用戶輸入提示的結(jié)構(gòu)化引導(dǎo),比如通過角色提示賦予大模型一個特定的角色③,例如,“你是一個法律領(lǐng)域的專家”。單樣本提示(one-shotprompting)或少樣本提示(few-shotprompting)在給出指令后額外向大模型提供一個或多個示例?!凹s束引導(dǎo)”限定了大模型的輸出格式或輸出范圍。對優(yōu)化提示的編寫策略而言,盧世豪(LeoS.Lo)提出了“CLEAR提示工程框架”,認(rèn)為提問清晰明確、富有邏輯性、強(qiáng)調(diào)輸出規(guī)范、具體地闡釋問題、對提示進(jìn)行持續(xù)評估這五個核心原則有助于用戶更有效地與ChatGPT等大模型進(jìn)行交互。@
“邏輯推理增強(qiáng)型”提示工程幫助增強(qiáng)大模型的邏輯處理、復(fù)雜問題解決以及多路徑探索能力。例如,“思維鏈提示”(Chain-of-Thought,CoT)將用戶提問拆解為多個步驟,引導(dǎo)大模型逐步推理得出最終答案@;“自我一致性提示”(SelfConsistencywithCoT,CoT-SC)從大模型的解碼器中采樣并生成多種推理路徑,并在不同推理路徑所生成的結(jié)果中,選擇出現(xiàn)次數(shù)最多的答案作為輸出,從而提高答案置信水平①;“思維樹提示框架”(TreeofThoughts,ToT)通過考慮多種不同的推理路徑和大模型自我評估選擇來決定下一步行動,并在必要時進(jìn)行預(yù)測和回溯以作出全局選擇,從而進(jìn)行復(fù)雜推斷。這些復(fù)雜的提示工程被廣泛應(yīng)用于國內(nèi)外通用大模型中,支持多路徑探索、處理復(fù)雜問題,具有一定的容錯機(jī)制,顯著增強(qiáng)了大模型的邏輯推理能力。
“知識檢索增強(qiáng)型”提示工程幫助擴(kuò)展大模型的知識范圍、提高其動態(tài)更新信息的能力。在這類提示工程中,最常被應(yīng)用的一項技術(shù)是Meta團(tuán)隊開發(fā)的“檢索增強(qiáng)生成”(RetrievalAugmentedGeneration,RAG),它能從外部知識庫中獲取與查詢最相關(guān)的信息,再將這些信息作為上下文附加到用戶的提示中,組合形成更全面、上下文更豐富的提示詞?!爸R檢索增強(qiáng)型”提示工程將外部知識庫的動態(tài)信息與大模型的生成能力進(jìn)行結(jié)合,實現(xiàn)了知識拓展、事實校準(zhǔn)和時效性的增強(qiáng),對于降低“幻覺”起到了良好的作用。
總的來說,三類提示工程通過特定的優(yōu)化提示的過程,改善了大模型在任務(wù)處理中的表現(xiàn),賦予用戶或開發(fā)者對大模型行為的引導(dǎo)能力,降低了用戶使用門檻,增強(qiáng)了大模型的適應(yīng)性、可控性和可用性。
(二)“結(jié)構(gòu)引導(dǎo)型”提示工程:角色預(yù)設(shè)的雙向期待
“結(jié)構(gòu)引導(dǎo)型”提示工程主要改善和提升大模型在角色扮演、個性化交互等方面的能力,滿足用戶差異化的任務(wù)處理需求,提升大模型的適應(yīng)性。這一類提示工程通過預(yù)設(shè)交互框架或可視化的界面控件,減輕用戶認(rèn)知負(fù)荷并降低操作復(fù)雜性,實現(xiàn)對大模型輸出行為的約束與控制,幫助機(jī)器準(zhǔn)確識別用戶意圖并獲得理想的輸出。
從適應(yīng)性角度來看,“結(jié)構(gòu)引導(dǎo)型”提示工程通過角色預(yù)設(shè)與場景入口設(shè)計,實現(xiàn)多任務(wù)場景對用戶的動態(tài)適應(yīng)。大模型API(ApplicationProgrammingInterface)通過system_prompt(系統(tǒng)提示)字段可以實現(xiàn)角色定制,如Anthropic的Claude、OpenAI的ChatGPT等眾多大模型API為開發(fā)者提供底層行為控制通道,并為調(diào)用API接口的人工智能應(yīng)用設(shè)置初始的提示,保證無論用戶輸入任何內(nèi)容,大模型都能以某種語氣、法則進(jìn)行呈現(xiàn)(“請以言簡意賅的方式回答”)。對于某些專業(yè)知識領(lǐng)域的大模型而言,系統(tǒng)提示強(qiáng)調(diào)了大模型的角色身份(“你是一個專業(yè)的法律顧問/醫(yī)療領(lǐng)域的專家”),以保證大模型適應(yīng)執(zhí)行具體任務(wù)時的角色。此外,主流大模型通過服務(wù)聚合界面,強(qiáng)化智能體的場景適配性,騰訊元寶、kimi、智譜清言等大模型產(chǎn)品擁有針對不同辦公場景、處理不同任務(wù)的智能體。除了自然語言處理,提示工程還提供了跨模態(tài)的適應(yīng)性,Gemini的系統(tǒng)通過CLIP模型隱式解析圖像特征,自動觸發(fā)對應(yīng)處理模塊,減少對于文字編寫指令的需求。
在可控性方面,交互控件與參數(shù)約束共同實現(xiàn)了對大模型輸出行為的精準(zhǔn)調(diào)控。多模態(tài)平臺通過顯性的參數(shù)控件引導(dǎo)用戶優(yōu)化提示,如MicrosoftCocreator、Mid-Journey等人工智能繪圖大模型,能讓用戶通過移動滑塊或參數(shù)控制調(diào)整“創(chuàng)意”級別:創(chuàng)造力的降低意味著輸出將更接近用戶提示,而更高的創(chuàng)造力意味著更多的人工智能輸入,將改善人工智能繪圖的想象力和多樣性。這些控件實際上將系統(tǒng)提示中的“temperature”參數(shù)值可視化為用戶能夠識別和控制的維度。此外,“負(fù)向提示”的按鍵則具有約束功能,提醒用戶大模型具有規(guī)避失敗的能力,如Pikalabs指引用戶輸入“ugly”“bad”“terrible”等詞語以防止視頻掉幀與扭曲,從而改善視頻生成動畫的質(zhì)量。這些參數(shù)控件和指令按鈕既約束又引導(dǎo)了用戶使用大模型的方式,降低了用戶對技術(shù)術(shù)語的認(rèn)知負(fù)荷,并通過即時預(yù)覽效果提升了用戶操作和修改的效率。
從可用性角度來說,“結(jié)構(gòu)引導(dǎo)型”提示工程通過界面設(shè)計與流程簡化降低交互認(rèn)知成本,提升使用效率。主流平臺開發(fā)了提示詞模板交互系統(tǒng),如在文心一言、通義千問、豆包、訊飛星火等大模型中,用戶通過選擇垂類場景的提示詞模板并替換關(guān)鍵變量,即可完成專業(yè)的指令構(gòu)建。提示詞模板庫將高頻任務(wù)進(jìn)行標(biāo)準(zhǔn)化處理,極大地降低了非專業(yè)用戶的提示設(shè)計成本。自動優(yōu)化提示詞則是另一種更高效的修改用戶指令的方式,如在文心一格、可靈AI等繪畫大模型中,交互界面的對話框能夠?qū)崟r解析用戶輸入,并自動補(bǔ)充和推薦關(guān)聯(lián)提示詞,從而幫助用戶生成更高質(zhì)量的圖像。
從人機(jī)交互角度出發(fā),“結(jié)構(gòu)引導(dǎo)型”提示工程通過預(yù)設(shè)的交互框架影響了人機(jī)互動的模式,使用戶的自主性與系統(tǒng)引導(dǎo)之間存在張力。技術(shù)系統(tǒng)通過預(yù)設(shè)大模型的角色和風(fēng)格界定其功能邊界,但與此同時,用戶在這一過程中也被預(yù)設(shè)了特定身份,并形成了對其交互實踐的預(yù)期。而當(dāng)用戶依賴模板完成指令構(gòu)建時,他們的語言表達(dá)已然被系統(tǒng)預(yù)設(shè)的話術(shù)限定在某種類別中,一定程度上限制了表達(dá)的自由和創(chuàng)造性。
(三)“邏輯推理增強(qiáng)型”提示工程:可解釋性與判斷讓渡
“邏輯推理增強(qiáng)型”提示工程通過激活大模型的鏈?zhǔn)酵评砟芰?,增?qiáng)和激發(fā)了大模型在數(shù)學(xué)計算、因果推理、多步驟任務(wù)拆解方面的潛能,提升了大模型在復(fù)雜問題求解上的適應(yīng)性、推理過程的可用性以及最終結(jié)果的可控性。
從適應(yīng)性的角度來看,OpenAI公司于2024年9月推出的ol模型內(nèi)置了思維鏈提示工程,大幅度提高了大模型在邏輯推理型任務(wù)方面的適應(yīng)性,使其能夠?qū)?fù)雜任務(wù)分解為更小、更易于管理的步驟,并提高了其回應(yīng)的準(zhǔn)確性,使回應(yīng)更有深度。③在可用性方面,用戶不再需要手動敘述推理步驟或構(gòu)建代碼引導(dǎo)大模型進(jìn)行邏輯思考,而只需要用自然語言進(jìn)行提問,大模型會在思維鏈的技術(shù)支持下自動拆解步驟、解決復(fù)雜問題,降低用戶使用門檻,極大提升了大模型的可用性。也有研究表明,許多大模型在代碼生成任務(wù)中展示出的多步驟推理行為,能夠自動進(jìn)行問題理解和規(guī)劃。這種思維過程的隱藏能大幅度提升大模型應(yīng)答效率,進(jìn)而增強(qiáng)人機(jī)交互效率,讓用戶無須理解步驟即可快速獲取答案。但效率至上的思維模式意味著人將判斷能力讓渡給技術(shù)系統(tǒng),形成對機(jī)器推理結(jié)果的依賴。當(dāng)用戶放棄追問中間邏輯而直接采納結(jié)論時,一定程度上會導(dǎo)致批判性思維能力的弱化,也可能因大模型的潛在偏見或錯誤造成決策風(fēng)險。
隱式思維鏈的局限在于可解釋性的匱乏,由于難以追溯大模型的中間推理過程,用戶無法判斷生成邏輯是否合理。為了提升大模型的可控性,部分大模型系統(tǒng)通過處理過程的顯性化引導(dǎo)用戶逐步完成復(fù)雜任務(wù),如ChatGPT的“AdvancedDataAnalysis”模式在用戶上傳數(shù)據(jù)文件后,將觸發(fā)數(shù)據(jù)處理與解析,然后引導(dǎo)用戶進(jìn)行相關(guān)性分析等操作,最終提供可視化呈現(xiàn)。這一操作過程拆解了執(zhí)行任務(wù)所需的步驟,按照“數(shù)據(jù)輸入 $$ 預(yù)處理 $$ 分析 $$ 可視化”的線性流程有規(guī)則地完成任務(wù),避免了大模型因任務(wù)處理跳躍而導(dǎo)致輸出偏誤,一定程度上確保了用戶對大模型的控制能力。
此外,可控性還體現(xiàn)在推理過程回溯的機(jī)制上,它能平衡隱性推理的效率優(yōu)勢與可解釋性方面的缺陷。DeepSeek的“深度思考”、ChatGPT的“推理”、kimi的“長思考”均為此類設(shè)計的代表。在這種機(jī)制下,大模型可在答案生成之前追加“推理依據(jù)”,展示大模型推導(dǎo)過程中的關(guān)鍵步驟,幫助大模型進(jìn)行更嚴(yán)謹(jǐn)?shù)淖晕因炞C一一在推理過程中檢查每一步的合理性,列舉不同解決路徑后選擇最優(yōu)解,并在發(fā)現(xiàn)錯誤或矛盾時自動回溯修正。這種將推理過程顯化的設(shè)計,大幅度提高了大模型生成內(nèi)容的可解釋性和透明性。然而,用戶獲得的可解釋性事實上是技術(shù)系統(tǒng)選擇性暴露的信息片段,遮蔽了大模型在其中進(jìn)行權(quán)重調(diào)整與概率選擇的本質(zhì),反而有可能加深用戶對系統(tǒng)判斷的依賴。
(四)“知識檢索增強(qiáng)型”提示工程:動態(tài)增強(qiáng)與專業(yè)信任
“知識檢索增強(qiáng)型”提示工程通過連接外部知識源與實時數(shù)據(jù)接口,優(yōu)化提示的信息結(jié)構(gòu)與知識密度,突破大模型固有訓(xùn)練數(shù)據(jù)的時間邊界與專業(yè)領(lǐng)域局限,從而提升輸出內(nèi)容的時效性與專業(yè)性。
從適應(yīng)性方面來看,在具有時效性要求的場景中,大模型通過實時聯(lián)網(wǎng)搜索輔助優(yōu)化提示詞。微軟的BingCopilot深度整合搜索引擎與大模型,基于用戶的模糊輸入生成細(xì)化搜索的關(guān)鍵詞,調(diào)用網(wǎng)頁索引獲取最新結(jié)果,基于元提示(meta-prompts)將搜索結(jié)果與用戶歷史對話組合以向大模型提問。該機(jī)制將傳統(tǒng)搜索行為轉(zhuǎn)化為結(jié)構(gòu)化提示工程,使大模型輸出突破靜態(tài)知識庫限制。
此外,在垂直領(lǐng)域的專業(yè)場景中,提示工程的適應(yīng)性體現(xiàn)為對領(lǐng)域權(quán)威知識的系統(tǒng)性嵌入。亞馬遜的Kendra索引展現(xiàn)了RAG(Retrieval-AugmentedGeneration)技術(shù)對特定行業(yè)公司數(shù)據(jù)響應(yīng)的一種方式。以金融服務(wù)領(lǐng)域為例,用戶發(fā)出請求后,聊天機(jī)器人會向Kendra索引發(fā)出搜索查詢,從財務(wù)文件、協(xié)議存儲、企業(yè)數(shù)據(jù)庫等文檔存儲庫中攝取數(shù)據(jù),并選擇其中最相關(guān)、最簡潔的上下文與用戶的提示組合在一起作為提示詞發(fā)送給大模型,最終獲得來自大模型的結(jié)果并傳送給用戶。
在可控性方面,“知識檢索增強(qiáng)型”提示工程通過對知識的定位與專業(yè)計算的外包控制了輸出的風(fēng)險。Claude的“長上下文窗口”允許用戶上傳特定格式的文檔作為參考和推理的依據(jù)。用戶可附加企業(yè)私有文檔(如合同模板),要求大模型基于此生成定制化內(nèi)容。通過構(gòu)建個性化知識參照系,系統(tǒng)根據(jù)上下文窗口將用戶提供的文本片段轉(zhuǎn)化為持續(xù)生效的“背景提示”,使大模型輸出始終錨定在特定組織規(guī)范或個體需求框架內(nèi)。在OpenAI與Wolfram的合作案例中,使用Wolfram插件可以直接調(diào)用WolframAlpha的數(shù)學(xué)與科學(xué)數(shù)據(jù)庫,為大模型提供統(tǒng)計學(xué)、物理學(xué)、計算機(jī)科學(xué)、密碼學(xué)、區(qū)塊鏈等領(lǐng)域數(shù)千種可靠算法的訪問權(quán)限。這種知識增強(qiáng)類提示工程將專業(yè)領(lǐng)域的計算外包,通過符號化轉(zhuǎn)譯機(jī)制將用戶的自然語言指令轉(zhuǎn)換為機(jī)器可解析的領(lǐng)域語言,并進(jìn)一步將需要大模型進(jìn)行復(fù)雜運算、精確建模的任務(wù)移交給專業(yè)工具,從而降低其因為“概率生成”而導(dǎo)致的“幻覺”風(fēng)險。
從可用性角度分析,“知識檢索增強(qiáng)型”提示工程簡化了交互流程,提高了人機(jī)交互效率。RAG技術(shù)將優(yōu)化提示的復(fù)雜過程在后臺運行,將外部知識檢索、提示詞重構(gòu)、結(jié)果生成整合為單次交互。而附加參考文檔等動態(tài)上下文分析的功能使用戶無須重復(fù)說明背景信息,顯著減少了交互中的冗余。
“知識檢索增強(qiáng)型”提示工程一方面通過對提示的增強(qiáng)引導(dǎo)了生成內(nèi)容的可控性,另一方面借助領(lǐng)域?qū)I(yè)庫提升行業(yè)場景的適用性,結(jié)合了實時搜索的廣度與專業(yè)知識庫的深度,促進(jìn)了大模型在多個領(lǐng)域的充分使用。從人機(jī)交互的角度出發(fā),知識檢索改變了用戶獲取信息的方式,出于對其知識庫的信任,用戶有可能對大模型提供的信息產(chǎn)生依賴,從而影響用戶的獨立判斷能力。另外,“知識檢索增強(qiáng)型”提示工程技術(shù)掌握了信息篩選和組合的權(quán)力,雖然將專業(yè)信息外包提升了準(zhǔn)確性,但實則切斷了用戶與原始知識的直接聯(lián)系。而當(dāng)大模型輸出被錨定在特定知識框架內(nèi),技術(shù)系統(tǒng)在一定程度上維護(hù)了舊有知識體系。這種設(shè)計在降低“幻覺”風(fēng)險的同時,也使得知識獲取路徑被預(yù)設(shè)的行業(yè)規(guī)范規(guī)制。
三、實踐中的可供性:提示工程知識擴(kuò)散
提示工程師和普通用戶對同一大模型可供性的感知存在著差異。研究表明,設(shè)計有效的提示策略這項任務(wù)往往落在提示工程師身上,他們主要由程序員和自然語言處理從業(yè)者組成。③提示工程師通過引入復(fù)雜編碼程序,對提示工程進(jìn)行優(yōu)化與迭代,從而不斷提升大模型在處理特定任務(wù)上的準(zhǔn)確度。普通用戶雖然可以探索性地多次嘗試各種提示設(shè)計,但往往因為面臨大模型提示理解和執(zhí)行能力方面的障礙,無法獲得滿意的響應(yīng)效果。
隨著人機(jī)交互實踐和知識共享的不斷發(fā)展,用戶不斷探索和學(xué)習(xí)大模型可供性,從而縮小知識差距。從知識傳播的角度出發(fā),知識的擴(kuò)散既依靠自上而下的頂層設(shè)計,也依靠自下而上的自組織涌現(xiàn)行為。提示工程知識的社會擴(kuò)散可被視為大模型交互實踐中的可供性生成,展現(xiàn)為多元主體協(xié)同構(gòu)建的技術(shù)生態(tài),其通過社會化協(xié)作機(jī)制將個體經(jīng)驗轉(zhuǎn)化為可復(fù)制的交互法則,從而持續(xù)拓展人們對大模型的認(rèn)知邊界,提升大模型在多元場景中的適應(yīng)能力。這一過程既包含企業(yè)主導(dǎo)的標(biāo)準(zhǔn)化工具開發(fā)和技術(shù)科普,也涵蓋數(shù)字社區(qū)的知識共享、社交媒體平臺的人機(jī)交互實踐分享。
(一)大模型企業(yè)的知識傳播
為了幫助用戶使用大模型,大模型產(chǎn)品的官方網(wǎng)站持續(xù)提供有關(guān)提示詞的教學(xué)視頻或指導(dǎo)手冊。OpenAI在官網(wǎng)發(fā)布提示工程指南,詳細(xì)闡述角色設(shè)置、示例引導(dǎo)、結(jié)構(gòu)化輸出等提示工程策略,并提供代碼示例和優(yōu)化建議;Google在Gemini的開發(fā)者文檔中提供了提示設(shè)計策略,結(jié)合醫(yī)療、教育、編程等場景,演示如何通過添加上下文約束、分解任務(wù)步驟以優(yōu)化提示;Anthropic為Claude提供“PromptLibrary”,涵蓋創(chuàng)意寫作、數(shù)據(jù)分析、法律咨詢等領(lǐng)域的結(jié)構(gòu)化提示模板。此外,GPT商店(GPTStore)通過聚合用戶創(chuàng)建的定制化提示模板,提供可直接復(fù)用的交互范式。在國內(nèi),文心一言為創(chuàng)作者提供了服務(wù)平臺,其中“靈感中心”匯聚了提示詞模板,用戶可直接復(fù)制并替換變量使用;訊飛星火推出提示構(gòu)建的公開課或文章教學(xué),幫助用戶進(jìn)行低門檻的操作。
大模型企業(yè)通過官方技術(shù)文檔、場景化模板庫、標(biāo)準(zhǔn)化工具開發(fā)和交互式學(xué)習(xí)資源,將專家技能轉(zhuǎn)化為可規(guī)?;褂玫姆▌t,系統(tǒng)性構(gòu)建提示工程的知識傳播體系,降低用戶學(xué)習(xí)門檻并提升大模型功能調(diào)用效率。
(二)知識社區(qū)與社交媒體平臺的知識傳播
作為擁有能動性的行動者,用戶并非被動接受官方對于提示工程的指導(dǎo)和建議,而是在數(shù)字社區(qū)和社交平臺分享優(yōu)化提示詞。
與技術(shù)供應(yīng)商的頂層設(shè)計形成互補(bǔ)的開源社區(qū)與協(xié)作平臺正在重塑提示工程的知識生產(chǎn)秩序。GitHub開源提示詞庫“AwesomeChatGPTPrompts”適用于為ChatGPT、Claude、Gemini等眾多大模型輸入提示詞,用戶通過協(xié)作編寫并分享針對不同場景的提示模板,將通用大模型轉(zhuǎn)化為領(lǐng)域?qū)S霉ぞ?。Mid-journey通過數(shù)字社區(qū)鼓勵用戶分享繪畫鏈接,并讓社區(qū)內(nèi)其他成員查看如何用提示詞生成理想風(fēng)格的作品,從而借鑒他人提示詞靈感。HuggingFace社區(qū)發(fā)布《LLM提示指南》,社區(qū)成員貢獻(xiàn)了多語言優(yōu)化提示過程的提示工程,將人機(jī)交互實踐標(biāo)準(zhǔn)化,降低了入門者的使用門檻。
社交媒體平臺的知識傳播推動提示工程從專業(yè)領(lǐng)域向公共空間滲透,大量普通人分享使用大模型進(jìn)行問答、創(chuàng)意對話寫作、編寫代碼等人機(jī)交互實踐的帖子。一批交流提示詞寫作策略的網(wǎng)絡(luò)知識社區(qū)逐漸在社交媒體平臺形成,成員圍繞興趣或需求進(jìn)行信息交流和知識共享。Twitter/X的#PromptEngineering話題中,開發(fā)者、工程師和普通用戶演示自己使用大模型的過程,將高級的技術(shù)轉(zhuǎn)化為可復(fù)用的代碼示例。微博平臺的用戶可以在#提示工程#等話題標(biāo)簽下分享提示工程相關(guān)的研究進(jìn)程和策略。百度貼吧上由用戶創(chuàng)建的“大模型吧”“提示詞吧”等支持用戶圍繞大模型提示工程相關(guān)內(nèi)容發(fā)布、轉(zhuǎn)載帖子,形成用戶自行創(chuàng)建并維護(hù)的線上信息共享社群。小紅書平臺也有各行各業(yè)的用戶有關(guān)熟練使用高級提示詞提高大模型響應(yīng)能力的分享帖。
在當(dāng)下的數(shù)字社會,知識生產(chǎn)者、傳播者和接受者的界限逐漸變得模糊。企業(yè)平臺自上而下地提供指導(dǎo)與建議,而普通公眾通過共享的知識眾包,實現(xiàn)了知識生產(chǎn)權(quán)力的下放。知識社區(qū)通過眾包協(xié)作形成去中心化的提示工程知識庫,社交媒體平臺通過對提示工程典型案例的傳播,推動普及優(yōu)化提示詞的方式。提示工程的知識共享將用戶經(jīng)驗轉(zhuǎn)化為可復(fù)制的操作法則,持續(xù)擴(kuò)展大模型的能力邊界。這些可供復(fù)制和分享的大模型交互實踐幫助網(wǎng)絡(luò)社區(qū)中的單一個體突破認(rèn)知和想象力的上限,實現(xiàn)人類整體知識水平的提高。
四、提示工程對人機(jī)交互實踐的反思與展望
提示工程或?qū)?yōu)化提示的過程呈現(xiàn)在交互界面,以知識的形式告知用戶“如何使機(jī)器響應(yīng)良好”;或?qū)?yōu)化提示的過程隱藏在后臺,鼓勵用戶用人際對話的方式同機(jī)器溝通。提示工程的這兩種特征均提高了大模型的適應(yīng)性,但在可控性和可用性方面具有不同程度的差異,塑造了不同的人機(jī)交互形式。隨著提示工程的深入發(fā)展,優(yōu)化提示這一過程的不斷進(jìn)化也改變了人對機(jī)器的態(tài)度、認(rèn)知以及人與機(jī)器的互動模式,塑造了不同的主體意識,
(一)提示優(yōu)化過程的特征:顯性與隱性
顯性的優(yōu)化提示過程向用戶傳遞了某種關(guān)于提示工程的知識,從而幫助用戶掌握向機(jī)器提問的技巧。無論是提示詞模板調(diào)用、“一鍵優(yōu)化提示詞”功能,還是數(shù)字社區(qū)中的提示詞知識互動,都是為了讓用戶知曉將人類語言轉(zhuǎn)譯為機(jī)器可理解的語言的方式。只有將模棱兩可、較為隨意的提問轉(zhuǎn)化成結(jié)構(gòu)化的表述,才能引導(dǎo)大模型產(chǎn)生良好響應(yīng),從而減少偏離用戶期待、與事實不符的“幻覺”。這一過程意味著人需要站在機(jī)器的角度,學(xué)習(xí)機(jī)器語言并想象機(jī)器如何“思考”,強(qiáng)化了機(jī)器與人的不同,并塑造了人對于機(jī)器“他異性”的感知。從可控性的視角來看,用戶可見的提示優(yōu)化過程強(qiáng)調(diào)了用戶主體對于結(jié)果生成的控制能力,并因用戶端的操作能力不同而有所差異。
提示工程的另外一種特征是將優(yōu)化處理提示的步驟隱藏于后端,這種方式雖然提升了大模型對用戶指令響應(yīng)的精確度并使結(jié)果可控,但更多依賴技術(shù)系統(tǒng)本身的提示工程技術(shù)水平,而非用戶端的提示操作能力。此外,這種隱藏的做法在可用性上提升了機(jī)器的易用性,用戶無須通過學(xué)習(xí)機(jī)器語言或使用結(jié)構(gòu)化模板即可實現(xiàn)目標(biāo),只讓用戶關(guān)注到交互界面中的自然語言對話,鼓勵用戶按照人際溝通的習(xí)慣探索和利用大模型功能。這樣的人機(jī)交互形式減輕了用戶對于機(jī)器“他異性”的感知,而將“計算機(jī)作為社會行動者”,使人能夠?qū)⑸鐣?guī)則應(yīng)用于技術(shù),并像與人類互動一樣與計算機(jī)進(jìn)行溝通,將主體能動性(agency)和人性(humanity)投射到非生命體上,并感受到來自非生命體的智能。
西蒙尼·納塔萊(SimoneNatale)認(rèn)為,計算機(jī)能否被稱為“智能”并不取決于機(jī)器的某些具體特征,而取決于人類如何看待它們。③20世紀(jì)80年代以來,計算機(jī)行業(yè)的“透明設(shè)計”理念隱藏了計算機(jī)內(nèi)部運作機(jī)制,并通過交互界面讓計算機(jī)看上去更簡單、更直觀,從而讓用戶感受到其高度可控性。但這一切在凱特·克勞福德(KateCrawford)看來并不只有積極的一面。人工智能建立在眾包工作、時間的私有化以及永無止境的重復(fù)性勞動等人類努力的基礎(chǔ)之上,“智能”的背后隱藏的是看不見的工程師和工人。大模型交互界面對于技術(shù)系統(tǒng)的掩蓋和展現(xiàn)出來的適應(yīng)性、可控性與可用性使用戶產(chǎn)生了有關(guān)其“智能”的錯覺,并忽視了大模型訓(xùn)練背后的人工勞動。事實上,大模型對于提示的準(zhǔn)確響應(yīng)背后,是眾多提示工程師通過重復(fù)性的試錯、調(diào)整、優(yōu)化以引導(dǎo)大模型正確識別語義并在語料中鎖定有關(guān)向量的過程
從提示工程的具體應(yīng)用實踐來看,提示工程在大模型中發(fā)揮的作用近似于舵手在航海中的職能一一駕馭偶然性。與按部就班執(zhí)行程序就能得到確定結(jié)果的機(jī)器不同,大模型生成內(nèi)容的不確定性使其需要不斷通過與人的互動接受反饋,從而使響應(yīng)發(fā)生變化。③用戶向大模型輸入提示詞以開啟人機(jī)交互,大模型的響應(yīng)間接提供了對提示詞的反饋和優(yōu)化建議,用戶可以改變提問策略并繼續(xù)接受回答的反饋,在大模型的各種響應(yīng)中甄別并形成系統(tǒng)化、穩(wěn)定的提問工程一一這種持續(xù)性的對話過程展示了人的學(xué)習(xí)能力。此外,提示詞的存在也令“想象力”這個要素前所未有地凸顯出來,用戶啟動想象力和創(chuàng)新思維在人機(jī)交互中尤為重要。③因此,人的能動性與主體性在借由提示工程探索大模型可供性的過程中發(fā)揮著很大作用。
(二)提示工程的未來:自動優(yōu)化提示,解放用戶提問
隨著智能傳播領(lǐng)域中技術(shù)的迭代與交互設(shè)計的革新,未來的提示工程將深度內(nèi)嵌于大模型中。大模型將根據(jù)用戶的自然語言提示解析其語義,并通過后臺運行或啟用外包工具的方式自動優(yōu)化并重構(gòu)提示詞,動態(tài)、高效地理解用戶的實際意圖,最終實現(xiàn)“用戶只需要自然提問,大模型自動優(yōu)化響應(yīng)”的智能交互形式。這意味著信息獲取的門檻越來越低,而機(jī)器所生產(chǎn)的信息的質(zhì)量和獲取機(jī)器所生產(chǎn)的信息的效率則不斷提高。
貝爾納·斯蒂格勒(BernardStiegler)將技術(shù)定義為“保存和編碼人類記憶的特殊裝置”,并將其視為區(qū)別于人類對當(dāng)下和過去記憶保留的另一種記憶載體,即“第三持存”。而“第三持存”所保留的記憶獨立于人,無法為人的意志所左右,因此公眾所接受的是一個非自然的、被人為編碼的歷史?!皞€人和集體都喪失了生命個性化的進(jìn)程,只剩下機(jī)械的記憶技術(shù)?!雹叟c存儲技術(shù)造成了人類記憶能力的衰退類似,自動化的提示工程也將影響人類的思維過程。從大模型與提示工程的發(fā)展趨勢來看,人類用戶不僅向機(jī)器提出了“思考”的要求,期待機(jī)器有邏輯、有依據(jù)地回答科學(xué)、哲學(xué)、法學(xué)等專業(yè)領(lǐng)域以及生活中的問題,甚至也逐漸將提問的藝術(shù)轉(zhuǎn)移給了技術(shù)系統(tǒng)。大模型系統(tǒng)對于提示工程的封裝讓模糊的日常語言觸發(fā)精準(zhǔn)響應(yīng),降低了對提問所需要的概念澄清、邏輯表達(dá)等語言能力的依賴,一定程度上造成了人類思考水平的退化。與此同時,自動優(yōu)化用戶提示的過程降低了用戶學(xué)習(xí)提示工程的門檻,從“人類適應(yīng)機(jī)器語言”階段轉(zhuǎn)向了“機(jī)器理解人類語言”的新階段,也將智能時代對人的要求從“提出一個好問題”轉(zhuǎn)變?yōu)閷C(jī)器輸出結(jié)果的批判性對待。
五、結(jié)語
大模型的不斷發(fā)展標(biāo)志著人工智能技術(shù)進(jìn)入新階段,其底層架構(gòu)中潛藏的可供性為人類社會提供了工具支持。然而,大模型的技術(shù)潛能并非自然涌現(xiàn),而是通過提示工程這一關(guān)鍵中介被激活與拓展。不同的提示優(yōu)化策略將大模型的技術(shù)潛能轉(zhuǎn)化為具體效能,使大模型更加廣泛地應(yīng)用于各個領(lǐng)域,在降低技術(shù)門檻、提升人對機(jī)器的控制力的同時,也重新塑造了人類對大模型的認(rèn)知與人機(jī)互動模式。從提示工程知識擴(kuò)散的流動特征來看,企業(yè)的標(biāo)準(zhǔn)化工具和提示工程知識科普是自上而下的知識構(gòu)建,而知識社區(qū)、社交媒體平臺的人機(jī)交互實踐分享則自下而上傳播提示工程知識,從而將個體經(jīng)驗轉(zhuǎn)化為可操作的技術(shù)規(guī)則。通過持續(xù)的人機(jī)交互實踐形成動態(tài)知識圖譜,用戶對大模型可供性的認(rèn)知程度不斷提高。
在技術(shù)演進(jìn)的過程中,人的主體性始終是核心。提示工程師通過精確的指令引導(dǎo)大模型輸出,普通用戶在試錯中形成具身性的提問策略,數(shù)字社區(qū)經(jīng)由知識共享將離散經(jīng)驗?zāi)蹫橄到y(tǒng)性知識,這種多層次的主體參與構(gòu)成了大模型可供性從個體感知到社會知識的變遷。然而,當(dāng)提示工程隱藏在交互界面后并為用戶營造智能錯覺時,用戶容易自動忽視大模型訓(xùn)練背后所需要的大量人工調(diào)試,形成對技術(shù)的智能崇拜。隨著技術(shù)原理的不斷披露和提示工程背后人類勞動的顯現(xiàn),“智能自主涌現(xiàn)”的迷思將被消除。因此,與其說大模型展現(xiàn)出了“智能”,不如說正是人的實踐、想象力和科學(xué)知識使得大模型發(fā)揮出潛能,讓人機(jī)交互處于未知的動態(tài)變化之中。隨著提示工程與大模型技術(shù)的發(fā)展,機(jī)器系統(tǒng)逐漸掌握提問的藝術(shù),而人類在智能時代的核心任務(wù)轉(zhuǎn)向?qū)C(jī)器輸出的批判性評估,這對人的能力提出了新的要求。
(作者陳思羽、王啟臻系北京師范大學(xué)新聞傳播學(xué)院傳播學(xué)專業(yè)2023級碩士研究生;張洪忠系北京師范大學(xué)新聞傳播學(xué)院教授)
注釋
①③ BROWN T,MANNB, RYDER N,et al.Language models are few-shot learners [J].Neural information processing systems, 2020,33:1877-1901.
② 虎嗅科技組.數(shù)據(jù)揭露DeepSeek崛起的秘訣[EB/OL].(2025-02- 13)[2025-01-20].https:/finance.sina.com.cn/wm/2025-02- 13/doc-inekizxx1613848.shtml.
④ VASWANIA,SHAZEERN,PARMARN,etal.Attention isall you need [J].Advances in neural information processing systems, 2017,30:5998-6008.
⑤ GIBSON JJ.The ecological approach to visual perception [M]. Boston: Houghton Mifflin,1979:130.
⑥ NORMANDA.The psychology of everyday things [M].New York: Basic books,1988:9.
⑦ NORMANDA.Affordance,conventions,and design [J]. Interactions,1999,6(3):38-43.
⑧ RAIAANMAK,MUKTAMSH,F(xiàn)ATEMAK,etal.Areviewon large language models:architectures,applications,taxonomies, open issuesand challenges [J].IEEEaccess,2024,12:26839- 26874.
⑨ JI Z,LEEN,F(xiàn)RIESKER,etal.Surveyof hallucination innatural language generation [J].ACM computing surveys,2023,55(12): 1-38.
(20 ⑩ ZHANGY,LIY,CUIL,etal.Siren'ssong in theAlocean:asurvey on hallucination in large language models [J].arXiv preprint arXiv:2309.01219.
① RADFORD A,WU J,CHILD R,etal.Language models are unsupervised multitask learners [J]. OpenAl blog,2019,1(8): 9.
? KOJIMA T,GUS S,REIDM,etal.Large language models are zero-shot reasoners [J].Advances in neural information processing systems,2022,35:22199-22213.
? LIUP,YUANW,F(xiàn)UJ,et al.Pre-train,prompt,and predict:a systematic survey of prompting methods in natural language processing[J].ACM computing surveys,2023,55 (9):1-35.
? HUTCHBYI.Technologies,textsand affordances [J].Sociology, 2001,35(2):441-456.
? COSTA E.Affordances-in-practice: an ethnographic critique of social media logicand context collapse[J]. New mediaamp;society, 2018,20(10):3641-3656.
① ORLIKOWSKI WJ.Using technologyand constituting structures: a practice lens for studying technology in organizations [J]. Organization science,2000,11(4):404-428.
? CHEN B, ZHANG Z, LANGRENE N, et al.Unleashing the potential of prompt engineering in large language models:a comprehensive review[J].arXiv preprintarXiv:2310.14735, 2023.
? ZHANG Z,GAOJ,DHALIWALRS,et al.Visar:a human-ai argumentative writing assistant with visual programming and rapid draft prototyping [C]//Proceedings of the 36thannual ACM 1-30.
? LOLS.The CLEAR path: a framework for enhancing information literacy through prompt engineering [J].The journal of academic librarianship,2023,49(4):102720.
? WEI J,WANG X,SCHUURMANS D,etal.Chain-of-thought prompting elicits reasoning in large languagemodels [J] Advances in neural information processing systems,2022,35: 24824-24837.
ZHANG Z, ZHANG A,LIM,etal.Automatic chain of thought prompting in large language models [J].arxiv preprint arxiv: 2210.03493,2022.
YAOS,YUD,ZHAOJ,etal.Tree of thoughts:deliberate problem solving with large language models [J].Advances in neural information processing systems,2023,36:11809-11822.
META.Retrieval augmented generation:streamlining the creationof intelligent natural language processing models [EB/ OL].(2020-09-28)[2025-01-20].https://ai.meta.com/blog/ retrieval-augmented-generation-streamlining-the-creationof-intelligent-natural-language-processing-models/.
STOCKIMG.Al.What is new ChatGPT o1and its features [EB/ OL].(2024-09-16)[2025-01-20].https://stockimg.ai/blog/aiand-technology/what-is-new-gpt-o1.
② OpenAl. Introducing OpenAl o1-preview [EB/OL].(2024-09-12) [2025-01-20].htps://openai.com/index/introducing-openai01-preview/.
(20 CHENM,TWOREKJ,JUNH,et al.Evaluating large language models trained oncode[J].arXiv preprint arXiv:2107.03374, 2021.
ZAMFIRESCU-PEREIRAJD,WONGRY,HARTMANNB, etal.Why Johnny can't prompt: how non-Al experts try (and fail) to design LLM prompts [C]// Proceedings of the 2023 CHl conference on human factors in computing systems,2023:1-21.
杜智濤.知識動員:促進(jìn)社會共識及社會協(xié)作的新路徑[J].人民論壇, 2022(15):100-103.
NASS C,MOONY.Machines and mindlessness:social responses to computers [J].Journal of social issues,2000,56 (1): 81-103.
納塔萊.媒介的欺騙性:后圖靈時代的人工智能和社會生活[M].汪讓, 譯.上海:復(fù)旦大學(xué)出版社,2023:3;30.
克勞福德.技術(shù)之外:社會聯(lián)結(jié)中的人工智能[M].丁寧,李紅澄,方偉,譯. 北京:中國科學(xué)技術(shù)出版社,2024:45.
維納.人有人的用處:控制論與社會[M].陳步,譯.北京:北京大學(xué)出版社, 2010:18.
陳秋心,邱澤奇.“人機(jī)互生”時代可供性理論的契機(jī)與危機(jī):基于“提 示詞”現(xiàn)象的考察[J].蘇州大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2023,44 (5): 172-182.
劉冰菁.技術(shù)的記憶裝置和神經(jīng)系統(tǒng)的政治經(jīng)濟(jì)學(xué)批判:斯蒂格勒的技術(shù) 哲學(xué)話語研究[J].探索與爭鳴,2018(2):135-140+144.