亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        站在巨人肩膀上的初學(xué)者:社會科學(xué)研究中的生成式人工智能

        2024-03-31 06:27:11胡安寧周森
        江蘇社會科學(xué) 2024年1期
        關(guān)鍵詞:生成式人工智能代碼偏差

        胡安寧 周森

        內(nèi)容提要 如何利用生成式人工智能助力社會科學(xué)研究是近期社會科學(xué)研究者們共同關(guān)心的重要議題之一。在此背景下,從一般社會科學(xué)研究的實踐需求出發(fā),通過具體的實例考察生成式人工智能在社會科學(xué)研究的理論、方法和研究偏誤三個方面的具體表現(xiàn)。生成式人工智能對于總結(jié)和復(fù)現(xiàn)現(xiàn)有資料具有很大的優(yōu)勢,以其強大算力來預(yù)處理海量在線資料,可以幫助研究者節(jié)省信息搜索的時間成本和精力成本。但是,生成式人工智能難以對既有理論進行“閱讀”后的“理解”,同時亦不擅長進行方法層面的優(yōu)劣對比和新分析工具的開發(fā)。此外,在生成內(nèi)容上也表現(xiàn)出明顯的偏見或者誤差。背靠人類既有資料積累的生成式人工智能可謂站在巨人肩膀上,但由于其本身缺乏成熟的能動創(chuàng)新能力,生成式人工智能在學(xué)術(shù)研究的意義上仍然是一位“初學(xué)者”。如何引導(dǎo)和培養(yǎng)這位“初學(xué)者”,是社會科學(xué)研究者需要思考和完成的任務(wù)。

        關(guān)鍵詞 生成式人工智能 社會科學(xué)研究 偏差 代碼

        胡安寧,復(fù)旦大學(xué)社會學(xué)系教授

        周森,浙江師范大學(xué)教師教育學(xué)院講師

        一、問題的提出

        2022年底ChatGPT以及2023年初GPT-4的出現(xiàn),讓生成式人工智能(Generative AI)成為全社會關(guān)注的焦點[1]。作為一種通用式AI,生成式人工智能以驚人的算力學(xué)習數(shù)字世界的海量資料,生成具有高度可用性和似真性的文本、圖像、音頻、視頻、軟件代碼等內(nèi)容(AIGC,AI generated contents)。在此背景下,生成式人工智能與哲學(xué)社會科學(xué)研究之間的關(guān)系也日漸成為學(xué)界關(guān)注的重點?,F(xiàn)有研究考察了生成式人工智能是否具有類似于人類的智能[1],是否能夠成為社會科學(xué)研究的助力者乃至社會科學(xué)研究范式的改革者[2]等關(guān)鍵問題。

        本文在既有哲學(xué)層面和范式層面討論的基礎(chǔ)上,希望能夠基于社會科學(xué)研究實務(wù)的角度,通過一些具體的實例來反思生成式人工智能對于社會科學(xué)經(jīng)驗研究的工具性意義。所謂工具性,其基于的標準是,生成式人工智能產(chǎn)出的內(nèi)容是否能夠“助力”經(jīng)驗社會科學(xué)研究。因此,本文的討論不同于哲學(xué)思辨和范式考察,而是把生成式人工智能嵌入一般社會科學(xué)的研究過程之中,討論生成式人工智能所生成的內(nèi)容是否能夠突破現(xiàn)有研究限制以更好地滿足研究人員的現(xiàn)實需求。為此,本文從三個角度評估生成式人工智能對于社會科學(xué)研究實務(wù)的價值:理論、方法和研究偏誤。理論部分重在考察生成式人工智能是否可以幫助研究人員總結(jié)歸納現(xiàn)有文獻,并挖掘其中的理論空白點。方法部分重在展示生成式人工智能是否可以起到“助研”的功能,幫助甚至“替代”研究人員完成一些重復(fù)性的工作。研究偏誤分析則希望探究生成式人工智能產(chǎn)出的內(nèi)容相較于研究人員人工設(shè)計的同類型內(nèi)容,是否更能夠克服潛在的偏誤。在這些分析的基礎(chǔ)上,本文進一步從人工智能技術(shù)可能的發(fā)展與社會科學(xué)研究者人為引導(dǎo)兩個方面,討論生成式人工智能如何克服既有局限以發(fā)揮更大的潛能。

        需要說明的是,本文在經(jīng)驗層面所作的工具性分析具有時效性。一方面,隨著生成式人工智能技術(shù)的進一步發(fā)展以及社會科學(xué)研究者更有針對性的介入,下文所列舉和討論的各種不足可能隨著時間的推移得以克服。另一方面,社會科學(xué)的研究范式本身并非長久不變。過去幾十年里,新的研究進路和范式不斷涌現(xiàn)[3],因此,判斷生成式人工智能的工具性功能達成與否的標準也在變化。鑒于此,本文討論的立足點仍然是當下的技術(shù)發(fā)展水平和主流社會科學(xué)的研究路徑。

        二、理論層面:總結(jié)而非論辯

        社會科學(xué)經(jīng)驗研究過程要求理論和經(jīng)驗之間的有機結(jié)合。由于生成式人工智能的重要功能之一是對各種文本資料進行總結(jié)并生成“新”的內(nèi)容,因此當我們思考生成式人工智能和社會科學(xué)研究之間的關(guān)聯(lián)時,一個很直接的思路便是,社會科學(xué)研究者是否能夠利用生成式人工智能完成理論梳理方面的工作。換言之,當一個社會科學(xué)研究者圍繞一個特定問題進行研究時,生成式人工智能可否幫助這位研究者更好地處理各種描述理論的文本信息[4]。

        為了回答這一問題,我們首先要厘清的是,在社會科學(xué)經(jīng)驗研究中所謂的理論梳理需要具體做什么?簡單而言,社會科學(xué)經(jīng)驗研究中我們需要圍繞理論梳理做三點工作:其一,概念的辨析,即通過文獻梳理,明晰經(jīng)驗研究中涉及的核心概念的具體意涵是什么。其二,理解概念之間的關(guān)系,即從理論文獻的角度,幫助研究者理解為什么兩個甚至多個概念之間存在某種實質(zhì)性的關(guān)聯(lián),為什么這個關(guān)聯(lián)不是虛假的。其三,在前面兩點的基礎(chǔ)上挖掘理論的空白點,由此提出創(chuàng)新性的理論論辯,也就是所謂的理論創(chuàng)新。

        基于這三點理論層面的任務(wù),我們?yōu)榱撕饬可墒饺斯ぶ悄艿睦碚摴ぞ咝詢r值,設(shè)定三個詢問任務(wù):概念總結(jié)、概念關(guān)聯(lián)和理論空白點挖掘。具體而言,我們以社會學(xué)文化資本研究為例,利用OpenAI公司開發(fā)的ChatGPT以及Google公司開發(fā)的Bard這兩個具有代表性的生成式人工智能平臺,分別詢問三個問題:第一,【概念總結(jié)】What is cultural capital?第二,【概念關(guān)聯(lián)】How does cultural capital affect educational attainment?第三,【理論空白點挖掘】What are the research gaps in cultural capital studies?

        由于篇幅所限,針對這些詢問的詳細輸出結(jié)果不在文中直接展示,感興趣的讀者可以按照這里設(shè)置的提示詞進行測試。通過上述提示詞的試驗,我們發(fā)現(xiàn),無論是ChatGPT還是Bard,對于文化資本概念的總結(jié)都非常全面,涉及文化資本的核心意涵和可能的分類。Bard還呈現(xiàn)文化資本在形塑教育不平等過程中的角色。可以說,這些對于文化資本概念的總結(jié)是“教科書”似的,但是也有不足之處。例如,Bard生成的文本總結(jié)中對于文化資本類別的討論使用了不同于布迪厄原初定義的三種類別術(shù)語[1],顯然,這對于社會科學(xué)經(jīng)驗研究存在嚴重的誤導(dǎo)性。此外,這一概念總結(jié)的“文風”偏向于維基百科,即重在向一般大眾進行概念的介紹,幾乎沒有涉及文化資本概念的學(xué)術(shù)脈絡(luò)以及發(fā)展過程中不同學(xué)者對于這一概念內(nèi)涵的拓展。在此意義上,生成式人工智能形成的概念總結(jié)是“總括和介紹性”的。因此,這些生成的內(nèi)容可以用于一般性的入門教學(xué),但并不能夠“直接”用于文化資本的“研究”。

        在概念總結(jié)之后,我們轉(zhuǎn)向概念之間的關(guān)聯(lián)機制。關(guān)于文化資本如何影響個人的學(xué)業(yè)成就這一問題,ChatGPT給出了很有啟發(fā)性的回答,內(nèi)容涉及學(xué)業(yè)準備、與教育機構(gòu)的溝通、資源獲取、社會網(wǎng)絡(luò)等多個中介因素。雖然在論及這些中介因素的時候生成的內(nèi)容不是具體的研究,但是這些生成內(nèi)容對于一般社會科學(xué)研究者具有很強的啟發(fā)性。與之相比,Bard生成的內(nèi)容則顯得“顧左右而言他”,其雖然也討論了文化資本和學(xué)業(yè)成就之間的相關(guān)關(guān)系,但是仔細閱讀其生成的文本可以發(fā)現(xiàn),有許多地方實際上并沒有直接回應(yīng)文化資本和教育成就之間的中間機制,而是在進行文本的同義反復(fù)(重復(fù)陳述所提出的問題,即二者“有”關(guān)系);且論述過程多以舉例為主,缺乏ChatGPT生成內(nèi)容的系統(tǒng)性。

        最后,我們在提示詞文本框中詢問已有的文化資本研究可能存在的局限性,以探究理論的空白點。對于這一問題,無論是ChatGPT還是Bard的回答都不是非常令人滿意。一個原因在于,兩者列舉的這些所謂尚未研究的議題實際上在現(xiàn)有研究中已經(jīng)有所涉及。例如,跨越教育領(lǐng)域的文化資本[2]、不同社會環(huán)境下文化資本的作用(非西方的語境下)[3]、文化資本的代際傳遞[4]等。之所以出現(xiàn)這種情況,一個可能的原因是,在訓(xùn)練生成式人工智能的時候,很多輸入資料會通過某些關(guān)鍵詞來論及文化資本研究的局限,這些關(guān)鍵詞進而被生成式人工智能總結(jié)并提煉出來。但是,熟悉社會科學(xué)研究的學(xué)者們都知道,之所以要提及某一問題的研究局限,恰恰是因為提及這些局限的文章或者專著本身就要填補這些空白。生成式人工智能并不能對這些填補空白的研究進行梳理。換句話說,這里呈現(xiàn)的所謂的研究空白點,是已有數(shù)據(jù)中學(xué)者們“提到”的空白點,并非在綜合現(xiàn)有研究的基礎(chǔ)上“提煉”出的真正的空白點,而學(xué)者們之所以提出這些空白點,恰恰是要填補這些空白點。這種“提到”而非“提煉”的資料呈現(xiàn)路徑,或許正是生成式人工智能的局限所在。

        綜合上面的討論,我們可以發(fā)現(xiàn),采用生成式人工智能技術(shù)對社會科學(xué)研究的理論問題進行梳理的突出特點在于“總結(jié)而非論辯”。所謂總結(jié),是基于既有資料進行一種內(nèi)容的簡化和聚焦。缺乏論辯的意思是,對于既有文獻的背景以及不同研究之間的相互聯(lián)系缺乏足夠的把握。也就是說,生成式人工智能對于理論尚不能做到意義的理解和互相勾連。從這個角度來說,生成式人工智能產(chǎn)生的各種內(nèi)容至少對于社會科學(xué)研究不能起到一個很好的“助研”的作用,因為其缺乏社會科學(xué)研究所需要的理論深度和廣泛聯(lián)系。

        三、方法層面:舊方法代碼呈現(xiàn)而非新方法創(chuàng)新

        如果說理論層面的總結(jié)和凝練不能達到社會科學(xué)研究所需要的精細度和創(chuàng)新度,那么具體到研究方法層面呢?我們在面對已經(jīng)構(gòu)建好的研究問題時,是不是可以依賴生成式人工智能找到合適的方法并加以運用呢?這方面具有典型意義的一個案例就是代碼撰寫[1]。對于很多量化社科研究者而言,在具體研究中面對特定數(shù)據(jù)時,需要根據(jù)研究問題通過特定的軟件平臺撰寫代碼、進行數(shù)據(jù)分析,并以此獲得具有理論價值的經(jīng)驗結(jié)論。由于特定軟件平臺下的統(tǒng)計模型語句都是“固定”的,且存在大量的在線資料,那么完全可以在確知所使用的方法的前提下,通過生成式人工智能生成相關(guān)的代碼。這方面我們同樣通過具體的方法來測試ChatGPT(由于篇幅所限,相關(guān)的輸出結(jié)果不在文中呈現(xiàn),感興趣的讀者可以自行按照本文設(shè)置的提示詞進行測試)。

        具體而言,我們設(shè)置的提示詞是在STATA軟件中撰寫雙重差分(difference-in-difference)方法的代碼。相關(guān)的輸出結(jié)果可用性很強,甚至每一句代碼的具體解釋都被直接標注出來。這一生成內(nèi)容對于需要學(xué)習雙重差分方法的學(xué)生而言非常友好。此外,我們還嘗試通過生成式人工智能來解釋特定的統(tǒng)計方法。例如,我們要求ChatGPT解釋什么是結(jié)構(gòu)嵌套均值模型(structural nested mean model)。相關(guān)輸出的內(nèi)容也比較全面,對于這一模型的功能和設(shè)定假設(shè)等都有總覽性的展示。同樣,對于這一高級方法的軟件實現(xiàn)也沒有問題。例如,我們希望ChatGPT提供關(guān)于結(jié)構(gòu)嵌套模型的代碼,ChatGPT也很好地完成了這一工作。同上面的例子一樣,在代碼語句的每一行,生成的內(nèi)容都進行了解釋性標注。

        通過上面的幾個實例,我們可以發(fā)現(xiàn),生成式人工智能所產(chǎn)出的內(nèi)容對于從事量化研究的人員非常友好。圍繞特定的研究方法,生成式人工智能能夠提供比較準確的方法解釋以及在不同軟件平臺的實現(xiàn)代碼。針對具體的研究問題,研究人員完全可以對生成式人工智能提供的一般性代碼進行個性化修改,以完成自身的研究任務(wù)。

        但是,需要指出的是,和前面一節(jié)關(guān)于理論總結(jié)的局限性類似,生成式人工智能撰寫的代碼往往也遵循“拿來主義”的邏輯。實際上,如果我們不采用ChatGPT而是使用微軟Bing的生成式人工智能平臺,這些生成內(nèi)容的來源也會標注出來。不出意外,很多代碼正是來源于網(wǎng)上的在線課程或者教程。在此意義上,生成式人工智能在研究方法上對我們幫助或許在于提供了更為高效的搜索結(jié)果。顯然,這并無法幫助我們進一步修正和改進既有的研究方法。為了說明這一點,我們進一步詢問ChatGPT是否可以對結(jié)構(gòu)嵌套均值模型進行提升和修正。返回結(jié)果就像上文詢問理論空白點時一樣非常流于表面。雖然“貌似”指明了一些方法和革新的大方向,但是仍然缺乏足夠的深度,僅僅是泛泛而談。除了ChatGPT,我們還嘗試了Bing的生成式人工智能平臺,并在提示詞文本框中詢問了同樣的問題。結(jié)果發(fā)現(xiàn),Bing的這一平臺自動把問題轉(zhuǎn)化為是否存在結(jié)構(gòu)嵌套均值模型的替代方法,其生成的內(nèi)容也直接表示并沒有特定的方法要優(yōu)于結(jié)構(gòu)嵌套均值模型。顯然,這并不是我們希望獲得的答案。從這個例子可以看出,生成式人工智能雖然可以幫助研究人員搜索并提供基本的代碼,但是對于方法本身的創(chuàng)新卻缺乏足夠的關(guān)照。

        四、偏誤層面:答非所問

        由于生成式人工智能是在對大量既有資料訓(xùn)練的基礎(chǔ)上生成“新”的內(nèi)容,因此在現(xiàn)有對生成式人工智能的反思中,一個被反復(fù)提及的問題是,一些存在于輸入資料中的偏見和誤差也可能會通過善于學(xué)習的人工智能轉(zhuǎn)移到其生成的內(nèi)容之中[1]。據(jù)此,我們在這一部分的討論中通過具體的實例考察生成式人工智能的這種偏誤問題。

        進一步地,我們對偏誤進一步細化。所謂研究偏誤分為“偏”和“誤”兩個方面?!捌钡囊馑际?,生成式人工智能產(chǎn)出的一系列資料和我們所希望獲取的資料之間存在一定的偏差。而“誤”的意思,則是指生成式人工智能產(chǎn)生的內(nèi)容和我們所希望獲取的內(nèi)容相左。從這個意義上講,“誤”是比“偏”更為嚴重的情形。

        為了展示生成式人工智能潛在的研究偏誤,我們選取一個具體的社會科學(xué)研究議題:一般信任。作為社會資本的一個非常具有代表性的測量變量,一般信任指的是對社會上的一般成員的信任程度[2]?!耙话阈湃巍钡乃揭渤1挥脕砗饬恳粋€社會的團結(jié)程度和道德水平。在經(jīng)驗研究中,對“一般信任”通常采用的測量題器是對社會上大多數(shù)人的信任程度(中國綜合社會調(diào)查也采用這一測量)。這個測量題器非常簡單直接,但是與之伴隨的一個潛在問題在于,人們對于社會上大多數(shù)人究竟指代誰可能有不同的理解。有的人偏向于指代那些社會上的陌生人,而有些人則偏向于指代身邊熟識的信任對象[3]。面對此種局限,學(xué)界也在試圖開發(fā)新的測量方法。2022年,學(xué)者Robbins提出了Stranger Face Trust問卷設(shè)計(陌生人面孔信任問卷設(shè)計)[4]。在這樣一個問卷設(shè)計中,研究者通過出示陌生人頭像的方式來展現(xiàn)一般社會成員,從而了解個體對于這些社會成員的信任度。例如,圖1的第一幅圖(第一行左一)便是Robbins文中所采用的陌生人面孔示例。

        以陌生人的面孔來衡量個體對于社會成員的一般信任相較于文字的描述更加具體和直觀。但是眾所周知的是,即使是單純的圖片本身也包含了大量的信息或者認知線索(cue),而這些信息可能會左右被研究對象對于這張陌生面孔的信任水平[1]。以Robbins使用的這張面孔為例,一個直觀的判斷會認為這是一張黑人的面孔。那么,對于這個面孔的信任水平有可能摻雜個體對于黑人種族的固有偏見或者偏好。實際上,除了種族,人們從面孔中還能判斷出很多信息(例如社會階層地位等),這些都會成為影響信任水平的重要因素。

        考慮到生成式人工智能在圖片生成方面的優(yōu)勢,我們是否可以通過生成式人工智能構(gòu)造更好的關(guān)于社會一般成員的圖示?換句話說,生成式人工智能是否能夠通過凸顯信任對象的“社會”性來盡量削減上述的偏誤?為了回答這一問題,我們使用了Bing平臺提供的基于DALL·E的圖片生成工具。這一生成式人工智能平臺非常便捷,只需要提供提示詞便可以生成相關(guān)的圖片。在我們的實驗中,首先使用的提示詞是“陌生人”,產(chǎn)生的相關(guān)圖片如圖1所示。顯然,基于這個提示詞產(chǎn)生的這四個陌生人圖片具有很明顯的偏向:四幅面孔都是外國人且均為男性。鑒于這個局限,我們進一步修改提示詞為“社會上的陌生人”。此時生成的圖片不再是單個的個體,而是一系列抽象的群像。這個圖片相較于前一個圖片更加能夠凸顯“社會”的要素。除了“社會上的陌生人”,我們也嘗試了另外一個提示詞“路上遇到的陌生人”。這一次生成式人工智能沒能達到我們的預(yù)期,因為其生成的圖片更多地強調(diào)“路上遇到”,且這些圖片給人的印象不是“陌生人”,而是熟人相遇。那么,這個圖片并無法幫助我們探索一般信任的問題。如果把提示詞設(shè)置為“社會上不熟悉的人”,此時生成的圖片和提示詞為“社會上的陌生人”時生成的圖片非常相似,說明其并不關(guān)注特定的個體,而是提供了一個群像的描述。與這一提示詞相似,我們也嘗試了英文的“generalized others”,但是基于這一提示詞生成的圖片與我們理論預(yù)設(shè)的社會一般成員相差甚遠,其中有些圖片甚至無法辨識出是社會成員還是一般的抽象畫作。

        在嘗試了上述各種提示詞之后,我們發(fā)現(xiàn),對于研究“一般信任”的學(xué)者而言,似乎只有“社會上的陌生人”和“社會上的不熟悉的人”兩個提示詞下生成的圖片可以使用,但是這些圖片更多的是一種集體群像,難以聚集于特定的社會上“一般成員”身上。

        那么,如果嘗試一下具有中國本土特色的提示詞,會不會可以更加滿足我們的需求呢?首先,我們使用了提示詞“路人甲”。這是一個在中國社會語境下用于指涉陌生人的常用詞。按照這個提示詞,我們獲取的生成圖片仍然存在“陌生人”提示詞下顯現(xiàn)的偏差,即圖片描述的均為外國人。此外,這些圖片都強調(diào)“在路上行走”的特點,而不是我們所謂的“路人”的意義。為了生成具有本土特色的圖片,我們在這個提示詞之后增加了“中國”的標識,這一次所生成的圖片確實具有本國特色,但是其中兩個圖片均為老人。那么,是否能夠不呈現(xiàn)具體的面孔,而只把輪廓展現(xiàn)出來呢?為了做到這一點,繼續(xù)增加提示詞“輪廓照”。生成式人工智能生成的圖片呈現(xiàn)了群像的屬性,但是無一例外都凸顯“路上行走”的人。顯然,生成式人工智能所理解的“路人”更加偏向于其字面意思“路上的人”,而無法表現(xiàn)我們使用“路人甲”的時候所希望強調(diào)的人際陌生感。

        除了“路人甲”,我們也嘗試了其他中國語境下比較普遍的表示社會一般成員的詞語,但是生成的結(jié)果并不能夠很好地服務(wù)于“一般信任”研究。例如,如果使用“蕓蕓眾生,中國,輪廓照”作為提示詞,生成的圖片為一系列的風景照,與所謂的社會成員沒有任何關(guān)系。采用“普羅大眾”作為提示詞,生成式人工智能提供的圖片主要偏向于“人多”這一特點,卻沒有呈現(xiàn)出我們在使用“普羅大眾”一詞的時候所希望強調(diào)的社會性大眾。即使在后面增加提示詞“中國”也并不能解決這個問題。例如,與以“普羅大眾,中國”作為提示詞所生成的圖片更契合的詞語或許是“人山人?!薄?/p>

        綜合上面的各種嘗試,我們可以發(fā)現(xiàn),對“一般信任”的研究希望可以獲得一種大家看上去就想到社會一般成員的人像圖片,但是通過輸入不同的提示詞所生成的大多數(shù)圖片因為存在各種偏誤而難以很好地滿足這一需求。在個別情況下甚至出現(xiàn)了南轅北轍或者不知所云的情況。生成式人工智能生成的圖片之所以出現(xiàn)這種局限,或許因為這樣一種悖論:一方面我們希望通過圖片來反映某種現(xiàn)實意義,因此為了產(chǎn)生這種圖片,需要在提示詞文本框中非常明確地把這種意義詳細描述出來。但是,另一方面如果我們可以做到這種意義的“完美”描述,完全可以直接采用語言的形式和被研究對象進行溝通,也就沒有必要去生成圖片來輔助研究了。

        五、克服局限性:技術(shù)進步與人工引導(dǎo)

        通過對生成式人工智能的各種“測試”,我們發(fā)現(xiàn),對于社會科學(xué)研究,生成式人工智能在現(xiàn)有的技術(shù)能力下尚有不少局限,為了克服這些局限,至少需要在以下兩個方向努力:技術(shù)進步和人工引導(dǎo)。

        生成式人工智能的技術(shù)進步既涉及數(shù)據(jù)品質(zhì)的提升也關(guān)系算法的優(yōu)化。所謂數(shù)據(jù)品質(zhì),是指為了克服潛在的偏誤,需要納入更加“全面”而并不必然“更多”的資料。換言之,在訓(xùn)練生成式人工智能的時候,除了“投喂”大量數(shù)據(jù),未來更需要考慮資料的“全面性”,以更為“逼真”且貼合現(xiàn)實的,對社會成員來說更具代表性的初始信息來達成對社會多樣化現(xiàn)實的反映。此外,各種造成潛在偏誤的“誤解”或者“歧視”本身也可以作為一個單獨的數(shù)據(jù)維度納入算法,以對輸出結(jié)果進行修正。實際上,以人工智能技術(shù)來“修正”研究過程的偏誤對于社會科學(xué)研究而言并不罕見,其在克服人類注意力持續(xù)時間有限、反應(yīng)偏差或習慣化方面表現(xiàn)得尤為突出,從而可以提供偏見較少的資料。此外,人工智能技術(shù)也有助于克服模型偏差和樣本選擇偏差問題[1]。這些既有的經(jīng)驗對于生成式人工智能技術(shù)可資借鑒。在算法提升方面,生成式人工智能技術(shù)需要將著力點放在探索理論與方法的增長點,而不僅僅是表面化的復(fù)現(xiàn)。這方面或許可以讓算法在“做中學(xué)”,通過具體的研究過程來摸索社會科學(xué)的進路。此外,為了杜絕算法設(shè)計過程中的人為偏誤(例如,引用含有某些人類注釋者偏見的數(shù)據(jù)集或者無法捕獲少數(shù)群體的相關(guān)特征等),算法設(shè)計者需要對研究設(shè)計過程保持一種反思性。

        除了自身的技術(shù)進步,生成式人工智能應(yīng)用于社會科學(xué)研究不可或缺的是人為的引導(dǎo)和“培育”。在這方面,一個很重要的努力方向是把生成式人工智能放入社會科學(xué)研究范式之中,讓人工智能做“社會科學(xué)”的事而不是日常生活中的事。例如,研究人員可以結(jié)合各自的專業(yè)知識,使用生成式人工智能來模擬參與者特征,生成假設(shè)并在人群中進行驗證[1]。此外,生成式人工智能的“黑匣子”性質(zhì)阻礙了研究人員對其進行評估,也削弱了科研復(fù)制發(fā)現(xiàn)的能力。鑒于此,我們要倡導(dǎo)社會科學(xué)研究中使用的生成式人工智能像所有科學(xué)模型一樣,以開源的形式展現(xiàn)。這意味著它們的算法和理想的數(shù)據(jù)可供所有人審查、測試和修改。只有保持透明度和可復(fù)制性,才能確保人工智能輔助的社會科學(xué)研究真正有助于我們理解人類經(jīng)驗。在對生成式人工智能進行人工引導(dǎo)的過程中,作為引導(dǎo)者的研究人員還需要恪守研究倫理,例如,如果研究者只尋求與他們預(yù)設(shè)的結(jié)論相一致的支持信息,這在無意中會進一步助長偏見。因此,當務(wù)之急是提升用于訓(xùn)練模型的數(shù)據(jù)的表征公平性。這種公平性只能通過透明度——也即披露有關(guān)人工智能模型訓(xùn)練數(shù)據(jù)的信息——來實現(xiàn)。但是,到目前為止,所有商業(yè)模式的此類信息都是一個謎[2]。關(guān)于這一點,我們還需要警惕陷入“聰明反被聰明誤,努力反被努力誤,公正反被公正誤”的窘境。這是因為社會科學(xué)的研究目標正是研究特定群體的特定社會文化偏見,模擬具體人群的具體行為并追溯其文化演變。出于公正的要求,現(xiàn)在的倫理約束要求工程師保護人工智能免受這些偏見的影響。這反而讓人工智能技術(shù)進入一種“平庸”的客觀和全面,沒有尊重我們苦苦尋覓的、客觀存在的“偏見”,遠離了充滿偏見的真實世界,這種減輕訓(xùn)練偏見的努力又反過來破壞AI輔助社會科學(xué)研究的有效性[3]。最后,對生成式人工智能的人工引導(dǎo)還需要考慮外部有效性和內(nèi)部有效性之間的權(quán)衡。生成式人工智能技術(shù)在不同的文化內(nèi)容上進行訓(xùn)練,通過模擬類似人類的反應(yīng)和泛化到現(xiàn)實世界的場景來提供更大的外部有效性。然而,它們的不透明性將限制其內(nèi)部有效性;相反,建立在較小的受控數(shù)據(jù)集上的研究可以提供更強的內(nèi)部有效性,但代價是可靠性和泛化性降低,因為有限的訓(xùn)練數(shù)據(jù)可能會阻礙它們在不同環(huán)境中一致和廣泛的執(zhí)行能力。因此,研究人員應(yīng)根據(jù)自己的優(yōu)先事項在這些方法之間仔細選擇。

        六、結(jié)語:站在巨人肩膀上的初學(xué)者

        生成式人工智能技術(shù)方興未艾,如何利用新興技術(shù)助力社會科學(xué)研究成為過去一段時間以來社會科學(xué)研究者們關(guān)心的重要議題。本文在此背景下,從一般社會科學(xué)研究的實踐需求出發(fā),通過具體的實例考察了生成式人工智能在理論、方法和研究偏誤三個方面的具體表現(xiàn)。綜合上述的分析,筆者認為,生成式人工智能在總結(jié)和復(fù)現(xiàn)現(xiàn)有海量資料方面具有很大的優(yōu)勢。以大算力來預(yù)處理這些海量資料,本質(zhì)上可以幫助研究者節(jié)省信息搜索的時間成本和精力成本。尤其是面對不熟悉的研究議題或者研究方法的時候,生成式人工智能確實可以起到很好的教育與“科普”功能,從而讓一線研究人員迅速掌握特定概念的核心意義。在這個意義上,生成式人工智能真正站在了巨人的肩膀上,它提供給研究者的是前人研究的一種凝練??梢灶A(yù)見的是,生成式人工智能將進一步推動量化研究發(fā)展,推動社會科學(xué)中測量范式的轉(zhuǎn)變,并用統(tǒng)計學(xué)意義上的相關(guān)性取代深層的邏輯因果關(guān)系,創(chuàng)生出一種新型的數(shù)據(jù)認識論。

        但是,生成式人工智能對于社會科學(xué)研究者的這種輔助性作用更多地集中于“信息性”輔助,而不是“創(chuàng)新性”輔助。理論層面上,生成式人工智能難以對既有理論進行“閱讀”后的“理解”,而是偏向于一種“機械性”的復(fù)述。因此,生成式人工智能進行的文獻梳理并非傳統(tǒng)意義上的文獻梳理,也不是社會科學(xué)研究者想要的文獻梳理。從這一點延展來看,在某些情況下,生成式人工智能會具有“欺騙性”。例如,嫻熟地運用十分專業(yè)的各種學(xué)術(shù)術(shù)語和嚴密的邏輯論證,讓錯誤的結(jié)論難以被發(fā)覺和識別,表現(xiàn)得權(quán)威性十足。隨著技術(shù)的發(fā)展和資料庫的豐富,未來的生成式人工智能能夠給出遠超個體研究者自己可以獲得的更全面、豐富的例證,并以計算理性展現(xiàn)強大、堅實的表面邏輯,以無可辯駁的“科學(xué)權(quán)威”的姿態(tài)籠罩人類的智識世界。鑒于算法的復(fù)雜性,即使是最有經(jīng)驗的人也無法識別所有錯誤。理解和追溯決策能力的不足為充分地應(yīng)用生成式人工智能埋下了重大隱患,也消解了我們對生成式人工智能的部分信任。為此,我們不得不謹慎地采用生成式人工智能算法,并努力完善問責制和提升透明度。

        方法層面上,對于特定方法,生成式人工智能足以提供相關(guān)的背景知識和實現(xiàn)代碼,甚至可對代碼進行逐行解釋,但是其卻不擅長進行方法層面的優(yōu)劣對比,故而并不能夠直接幫助研究者開發(fā)新的分析技術(shù)。除了拙于創(chuàng)新,生成式人工智能依然保留了一些固有的偏誤。例如,其所生成的內(nèi)容默認以西方社會為藍本,缺少中國本土特征;而對于文字提示詞的理解也偏于字面意義,無法探究提示詞背后的“深意”,從而帶來某種對提示詞的誤讀。從這個意義上來講,生成式人工智能可以說是盲目的,它并不能夠“讀懂”和“體會”其所處理的資料,且在和研究人員通過提示詞進行互動的時候,也不能真正成為一個可以與之“對話”的“助手”。在這方面,萊布尼茨最先洞察了邏輯(理性)真理與事實(意義)真理之間的分野,后來的維特根斯坦和卡爾納普都對此進行了深度的闡述。我們的研究表明:當下的生成式人工智能的閱讀能力還停留在字面閱讀層面,能夠便捷地領(lǐng)會邏輯理性方面的道理,但是對于人們在長期的文化傳統(tǒng)和共同的社會生活中發(fā)展出的特殊的、難以言傳的“意義”,領(lǐng)會不夠,表現(xiàn)出對“語境”的遲鈍。在本文第四部分關(guān)于圖片的生成中,生成式人工智能顯然只能照顧到明確的“字面”指令,沒有能反映言語之外的、隱含的現(xiàn)實意義和文化語境中的要求。因此,雖然生成式人工智能對于海量數(shù)據(jù)的預(yù)處理造就了其站在巨人肩膀上的優(yōu)勢,但是由于其本身缺乏理解能力,因此更像是一個學(xué)術(shù)研究層面的“初學(xué)者”。如何引導(dǎo)這位“初學(xué)者”發(fā)揮出生成式人工智能站在巨人肩膀上的優(yōu)勢,則是社會科學(xué)研究者的任務(wù)了。

        正如柏拉圖洞穴寓言中的囚犯觀察墻上的陰影并相信它們代表了現(xiàn)實一樣,生成式人工智能主要還是依賴文化產(chǎn)品中描述的人類經(jīng)驗的“陰影”。這些陰影對它們所代表的現(xiàn)象的真實本質(zhì)提供了有限的視角,因為在形形色色的各類文化產(chǎn)品中捕捉到的結(jié)論并不總是反映支配人類行為的真實機制——這是社會科學(xué)家必須承認的局限性。究其根本,人工智能既不是我們的敵人也不是我們的救世主,它只是一種工具,其價值取決于我們?nèi)绾问褂盟K梢载S富我們的集體智慧,但也會助長人類的愚蠢。只有在有效利用人工智能的潛力和管理它給我們帶來的具體挑戰(zhàn)之間取得平衡,人工智能才可以以一種負責任的、合乎道德的方式融入社會科學(xué)研究,并造福人類。

        〔責任編輯:玉水〕

        本文為國家社會科學(xué)基金項目“社會團結(jié)的文化基礎(chǔ)研究”(22VRC140)的階段性成果。感謝康奈爾大學(xué)社會學(xué)系博士研究生周志鵬為本文提供的分析資料支持。

        [1]丁磊:《生成式人工智能:AIGC的邏輯與應(yīng)用》,中信出版社2023年版,第41頁;張彥坤、王雪梅、汪衛(wèi)國:《生成式人工智能對經(jīng)濟社會的影響》,《通信世界》2023年第16期。

        [1]徐英瑾:《胡塞爾的意向性理論與人工智能關(guān)系芻議》,《上海師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2018年第5期;趙汀陽:《替人工智能著想》,《哲學(xué)動態(tài)》2023年第7期。

        [2]唐興華:《生成式人工智能的“?!迸c“機”》,《中國社會科學(xué)報》2023年8月21日;藍江:《生成式人工智能與人文社會科學(xué)的歷史使命——從ChatGPT智能革命談起》,《思想理論教育》2023年第4期;C. A. Bail, "Can Generative AI Improve Social Science?", https://osf.io/preprints/socarxiv/rwtzs;C. S. Walker, R. V. Noorden, "The Promise and Peril of Generative AI", Nature, 2023, 614(1), pp.214-216。

        [3]例如,在傳統(tǒng)的演繹和歸納邏輯之外,溯因推論得到越來越多的重視,具體參見S. Timmermans, I. Tavory,"Theory Construction in Qualitative Research: From Grounded Theory to Abductive Analysis", Sociological Theory, 2012, 30(3), pp.167-86。在既有研究中,人工智能技術(shù)常被認為與歸納邏輯相一致,具體參見陳茁、陳云松:《計算扎根:定量研究的理論生產(chǎn)方法》,《社會學(xué)研究》2023年第4期。

        [4]生成式人工智能在科學(xué)研究中的運用并非一帆風順,一些實例表明,目前的生成式人工智能所產(chǎn)出的內(nèi)容并不能夠滿足科研的需求,甚至會以一種貌似客觀的方式傳遞錯誤的信息。相關(guān)的討論可以參見C. A. Bail, "Can Generative AI Improve Social Science?", 2023年12月8日,https://osf.io/preprints/socarxiv/rwtzs。與之相關(guān)的一個現(xiàn)實案例為面向科研的生成式人工智能Galactica的下架。智能系統(tǒng)研究者麥克·布萊克(Michael Black)曾經(jīng)使用Galactica處理學(xué)術(shù)問題,他發(fā)現(xiàn),結(jié)果是錯誤且有偏的,但聽起來正確且具有權(quán)威性(It was wrong or biased but sounded right and authoritative),具體參見https://twitter.com/Michael_J_Black/status/1593133722316189696,2023年12月8日。

        [1]正確的表述分別是embodied、objectified和institutionalized文化資本。

        [2]A. Thomas, "Cultural Capital in Health Promotion", in D. V. McQueen, I. Kickbusch, L. Potvin, et al, Health and Modernity: The Role of Theory in Health Promotion, New York: Springer, 2007.

        [3]B. Soo-yong, E. Schofer, K. Kim, "Revisiting the Role of Cultural Capital in East Asian Educational Systems: The Case of South Korea", Sociology of Education, 2012, 85 (3): pp.219-239.

        [4]G. Kraaykamp, K. V. Eijck, "The Intergenerational Reproduction of Cultural Capital: A Threefold Perspective", Social Forces, 2010, 89(1), pp.209-231.

        [1]S. N. M. Shafiq, Y. M. Shakor, "Use ChatGPT to Solve Programming Bugs", International Journal of Information Technology& Computer Engineering, 2023, 3(1), pp.17-22; B. Som, "Role of ChatGPT in Computer Programming", Mesopotamian Journal of Computer Science, 2023, pp.8-16.

        [1]丁磊:《生成式人工智能:AIGC的邏輯與應(yīng)用》,中信出版社2023年版,第235—246頁;C. A. Bail, "Can Generative AI Improve Social Science?",2023年12月9日,https://osf.io/preprints/socarxiv/rwtzs。

        [2]胡安寧、周怡:《再議儒家文化對一般信任的負效應(yīng)——一項基于2007年中國居民調(diào)查資料的考察》,《社會學(xué)研究》2013年第2期。

        [3]T. Reeskens, M. Hooghe, "Cross-Cultural Measurement Equivalence of Generalized Trust: Evidence from the European Social Survey (2002 and 2004)", Social Indicators Research, 2008, 85, pp.515-532.

        [4]B. G. Robbins, "Measuring Generalized Trust: Two New Approaches", Sociological Methods & Research, 2022, 51(1), pp.305-356.

        [1]A. Todorov, Face Value: The Irresistible Influence of First Impressions, Boston: Princeton University Press, 2017.

        [1]G. Igor, M. Feinberg, D. C. Parker, et al, "AI and the Transformation of Social Science Research", Science, 2023, 380(6650), pp.1108-1109.

        [1]P. J. Sung, J. OBrien, C. J. Cai, et al, "Generative Agents: Interactive Simulacra of Human Behavior", Proceedings of the 36th Annual ACM Symposium on User Interface Software and Technology, 2023, pp.1-22.

        [2]G. Igor, "Beyond the Hype: How AI Could Change the Game for Social Science Research", 2023年12月8日,https:// theconversation.com/beyond-the-hype-how-ai-could-change-the-game-for-social-science-research-208086#:~:text=AI% 20could%20act%20as%20a,as%20actors%20in%20social%20experiments.

        [3]L. Weidinger, J. Uesato, M. Rauh, et al, "Taxonomy of Risks Posed by Language Models", Proceedings of the 2022 ACM Conference on Fairness, Accountability, and Transparency, Association for Computing Machinery, New York, NY, USA, 214-229.

        猜你喜歡
        生成式人工智能代碼偏差
        挑戰(zhàn)·融合·變革:“ChatGPT與未來教育”會議綜述
        生成式人工智能重塑教育及教師應(yīng)對之道
        人機共生時代國際傳播的理念升維與自主敘事體系構(gòu)建
        對外傳播(2023年4期)2023-05-21 20:52:16
        生成式人工智能的教育應(yīng)用與展望
        如何走出文章立意偏差的誤區(qū)
        兩矩形上的全偏差
        創(chuàng)世代碼
        動漫星空(2018年11期)2018-10-26 02:24:02
        創(chuàng)世代碼
        動漫星空(2018年2期)2018-10-26 02:11:00
        創(chuàng)世代碼
        動漫星空(2018年9期)2018-10-26 01:16:48
        創(chuàng)世代碼
        動漫星空(2018年5期)2018-10-26 01:15:02
        久久无码av一区二区三区| av免费在线观看在线观看| av在线天堂国产一区| 国产欧美一区二区精品久久久| 欧美日韩一卡2卡三卡4卡 乱码欧美孕交 | 孩交精品xxxx视频视频| 精品国产91久久综合| 久久人妻精品免费二区| 欧美性猛交xxxx乱大交极品| 男同gay毛片免费可播放| 国产AV国片精品有毛| 亚洲熟女av一区少妇| 体验区试看120秒啪啪免费| 欧美人与动牲交a欧美精品| 亚洲av乱码专区国产乱码| 免费在线不卡黄色大片| 亚洲av成人无码一二三在线观看 | 久久精品无码一区二区乱片子| 二区三区视频在线观看| 日韩精品成人区中文字幕| 在线综合亚洲欧洲综合网站 | 99久久免费看精品国产一| 成人网站免费看黄a站视频| 2022Av天堂在线无码| 日本加勒比一道本东京热| 日韩av无码中文字幕| 国产一区二区三区影院| 国产女人体一区二区三区| 亚洲国产综合精品中久| 中文无码精品a∨在线观看不卡| 久久永久免费视频| 国产精品亚洲av无人区二区| 无码熟妇人妻av在线网站| 亚洲粉嫩高潮的18p| 亚洲av永久无码精品成人| 虎白m粉嫩小在线播放| 国产成人精品综合在线观看| 国产在线不卡视频| 手机在线免费观看的av| 久久www免费人成精品| 色丁香在线观看|