段偉文
基于大規(guī)模預(yù)訓(xùn)練語言模型的生成式與對(duì)話式人工智能在涌現(xiàn)出強(qiáng)大能力的同時(shí)也產(chǎn)生了巨大爭議,需要我們在加速創(chuàng)新和有序發(fā)展之間作出更具系統(tǒng)性和預(yù)見性的研判
近年來,數(shù)據(jù)驅(qū)動(dòng)的人工智能及其社會(huì)應(yīng)用取得迅猛發(fā)展,呈現(xiàn)出諸多具有顛覆性社會(huì)影響的創(chuàng)新前景,迫使我們不得不思考如何認(rèn)識(shí)其可能帶來的社會(huì)、倫理乃至安全風(fēng)險(xiǎn),進(jìn)而采取合理的應(yīng)對(duì)之策。特別是繼深度合成技術(shù)之后,基于大規(guī)模預(yù)訓(xùn)練語言模型的生成式與對(duì)話式人工智能在涌現(xiàn)出強(qiáng)大能力的同時(shí)也產(chǎn)生了巨大爭議,需要我們在加速創(chuàng)新和有序發(fā)展之間作出更具系統(tǒng)性和預(yù)見性的研判。
從工程技術(shù)上講,近期興起的基于大模型的人工智能開啟了對(duì)類人類智能的探索,雖然這還不是認(rèn)知科學(xué)意義上的通用人工智能,但應(yīng)該看到其中具有革命性的創(chuàng)新突破。認(rèn)知科學(xué)意義上的通用人工智能是指機(jī)器人和智能軟件及算法能夠作為獨(dú)立的智能體進(jìn)行學(xué)習(xí)、認(rèn)識(shí)和決策,甚至具有獨(dú)立的自我意識(shí)。而當(dāng)前出現(xiàn)的生成式人工智能是一個(gè)由人類和機(jī)器智能構(gòu)成的巨型智能生態(tài)系統(tǒng),實(shí)質(zhì)上是通過工程和系統(tǒng)方法在人類智能和機(jī)器智能的復(fù)雜組合之上實(shí)現(xiàn)的。盡管如此,我們還是應(yīng)該認(rèn)識(shí)到其在工程技術(shù)和產(chǎn)業(yè)應(yīng)用層面可能帶來的革命性因素,看到與可能的突破性創(chuàng)新相伴隨的高度不確定性。其中,有三個(gè)方面的問題尤其值得關(guān)注。
一是從用戶體驗(yàn)上講,生成式和對(duì)話式人工智能在人機(jī)交互的工程實(shí)現(xiàn)方面突破了一個(gè)臨界點(diǎn),意味著人工智能可以在較流暢的人機(jī)對(duì)話指引下做各種工作。二是在人工智能生成內(nèi)容層面,大量實(shí)施了人機(jī)價(jià)值對(duì)齊工程,通過預(yù)訓(xùn)練和人工標(biāo)注等工程方法,可以比較有效地調(diào)節(jié)和矯正生成內(nèi)容中存在的價(jià)值觀念沖突,進(jìn)而實(shí)現(xiàn)對(duì)相關(guān)社會(huì)風(fēng)險(xiǎn)的控制。三是這一波生成式和對(duì)話式的人工智能剛起步,對(duì)其可能進(jìn)一步涌現(xiàn)的創(chuàng)新強(qiáng)度、深度和規(guī)模作出準(zhǔn)確判斷還為時(shí)尚早,一旦其應(yīng)用無處不在,的確難以預(yù)見其可能帶來的風(fēng)險(xiǎn),而這也是最近出現(xiàn)呼吁暫停相關(guān)實(shí)驗(yàn)的主要原因。
第一,生成式人工智能的廣泛運(yùn)用會(huì)強(qiáng)化目前已經(jīng)顯現(xiàn)的各種社會(huì)倫理問題。一是偏見和歧視。如果用于開發(fā)人工智能算法和模型的訓(xùn)練數(shù)據(jù)有偏見,算法和模型也會(huì)有偏見,從而導(dǎo)致生成式人工智能的回應(yīng)和建議出現(xiàn)歧視性的結(jié)果。二是信息誤導(dǎo)。人工智能語言模型所生成的對(duì)話可能會(huì)向用戶提供不準(zhǔn)確或誤導(dǎo)性的回應(yīng),進(jìn)而導(dǎo)致錯(cuò)誤信息的傳播。三是信息濫用。人工智能大模型及其預(yù)訓(xùn)練需要收集和處理大量的用戶數(shù)據(jù),其中必然涉及技術(shù)和商業(yè)保密數(shù)據(jù)以及國家安全數(shù)據(jù),隱私數(shù)據(jù)和敏感個(gè)人信息可能會(huì)被濫用。四是虛假內(nèi)容及惡意使用。盡管生成式人工智能目前還沒有實(shí)現(xiàn)大規(guī)模商業(yè)化社會(huì)應(yīng)用,但從信息網(wǎng)絡(luò)媒體、虛擬現(xiàn)實(shí)和深度合成等技術(shù)的發(fā)展經(jīng)驗(yàn)不難看到,生成式人工智能可能被用于制造不易識(shí)別的虛假內(nèi)容,甚至被惡意使用,從而影響、干預(yù)和操縱社會(huì)輿論和政治過程。五是對(duì)個(gè)人自主性的干預(yù)。生成式人工智能在商業(yè)上可能被用來影響或操縱用戶的行為和決策。
第二,生成式人工智能可能使知識(shí)生產(chǎn)方式發(fā)生根本性變革,不僅會(huì)對(duì)傳統(tǒng)的知識(shí)產(chǎn)權(quán)帶來顛覆性影響,還可能沖擊工作方式和就業(yè)。生成式人工智能對(duì)知識(shí)產(chǎn)權(quán)的顛覆性影響。目前,人工智能在藝術(shù)創(chuàng)作領(lǐng)域的應(yīng)用受到了大量的侵權(quán)指控,但作為一種內(nèi)容生成技術(shù),不能沒有數(shù)據(jù)作為原料,而其所生成的內(nèi)容與生產(chǎn)原料存在區(qū)別,因此,是否侵權(quán)比較難以界定,并且會(huì)隨著技術(shù)的發(fā)展越來越難界定。這不僅使按照現(xiàn)有法律應(yīng)該得到知識(shí)產(chǎn)權(quán)保護(hù)的人類創(chuàng)作內(nèi)容的保護(hù)變得越來越困難,并且對(duì)于人工智能生成內(nèi)容的版權(quán)是否應(yīng)該得到保護(hù)成為一個(gè)新問題。鑒于生成式人工智能是一種全新的內(nèi)容和知識(shí)生產(chǎn)方式,其模型訓(xùn)練必須大量使用現(xiàn)有內(nèi)容,而目前法律上對(duì)內(nèi)容侵權(quán)的界定是在這種技術(shù)出現(xiàn)之前提出的,如果要發(fā)展生成式人工智能并對(duì)其實(shí)現(xiàn)有效監(jiān)管,須重新界定其內(nèi)容使用邊界。
生成式人工智能對(duì)工作方式和就業(yè)的根本性沖擊。生成式人工智能與人類高度類似的對(duì)話能力表明,它將使人機(jī)交互的便捷程度大大提升,各行各業(yè)現(xiàn)有的工作流程都可能因此得到簡化,必然帶來對(duì)現(xiàn)有工作內(nèi)容的改變和工作崗位的擠壓。特別值得關(guān)注的是這次被取代的可能是受教育程度比較高的專業(yè)技術(shù)人員,如文秘、咨詢、翻譯、文創(chuàng)、設(shè)計(jì)甚至醫(yī)療和教育等領(lǐng)域的人員可能面臨失業(yè)。這實(shí)際上會(huì)導(dǎo)致大量專業(yè)技術(shù)人員教育投入的加速折舊,加大并形成新的數(shù)字鴻溝,造成規(guī)模更大和更復(fù)雜的社會(huì)問題。
在社會(huì)認(rèn)知層面,可能因?yàn)檫^度依賴人工智能而導(dǎo)致將其視為知識(shí)權(quán)威、道德權(quán)威乃至精神權(quán)威等深層次的認(rèn)知幻象。一方面,生成式人工智能進(jìn)一步發(fā)展,很可能成為普通人日常生活中的人工智能助手,幫助解答知識(shí)、辨別是非乃至區(qū)分善惡。鑒于人工智能并不真正理解其所生成的知識(shí)內(nèi)容以及對(duì)是非善惡的判斷,而且會(huì)產(chǎn)生錯(cuò)誤或隨意堆砌和編造的內(nèi)容,故對(duì)人工智能的過度依賴難免放大其生成的不準(zhǔn)確內(nèi)容和知識(shí)上的錯(cuò)誤,甚至對(duì)社會(huì)認(rèn)知產(chǎn)生結(jié)構(gòu)性的負(fù)面影響。另一方面,生成式人工智能存在過度擬人化趨勢,隨著人機(jī)對(duì)話的場景應(yīng)用日益普遍,可能會(huì)出現(xiàn)濫用的風(fēng)險(xiǎn)。其中,值得關(guān)注的是將對(duì)話式人工智能不負(fù)責(zé)任地用于教育引導(dǎo)、心理咨詢和精神健康治療,特別是用于青少年的情況。在目前人工智能并不能理解其生成內(nèi)容的情況下,沒有老師、家長和專家的審核與監(jiān)督,不能采取以人工智能與青少年直接對(duì)話的方式實(shí)施教育引導(dǎo)和精神健康治療。
第三,生成式人工智能的發(fā)展及其技術(shù)產(chǎn)業(yè)模式本身也存在巨大的爭議。其中既包括治理層面的挑戰(zhàn),也包括其資源耗費(fèi)對(duì)生態(tài)環(huán)境的影響等。鑒于以上對(duì)生成式人工智能社會(huì)倫理風(fēng)險(xiǎn)的認(rèn)識(shí),首先,在創(chuàng)新探索的同時(shí),從國家層面制定研究創(chuàng)新和部署應(yīng)用指南,以確保其研發(fā)和應(yīng)用符合倫理和法律,促使其更好地造福社會(huì)和避害向善,使每個(gè)人都公平地享受科技創(chuàng)新的紅利。2023年4月11日,為促進(jìn)生成式人工智能技術(shù)健康發(fā)展和規(guī)范應(yīng)用,國家互聯(lián)網(wǎng)信息辦公室起草了《生成式人工智能服務(wù)管理辦法(征求意見稿)》。其次,加強(qiáng)對(duì)人工智能及其社會(huì)倫理影響的研究,推動(dòng)相關(guān)知識(shí)的普及傳播,引導(dǎo)人們正確地理解和使用這種兼具創(chuàng)新潛力和顛覆性風(fēng)險(xiǎn)的強(qiáng)大力量。再次,積極應(yīng)對(duì)生成式人工智能對(duì)就業(yè)和教育帶來的沖擊,采取有效的政策措施緩解社會(huì)矛盾。最后,至關(guān)重要的是,構(gòu)建人工智能驅(qū)動(dòng)的科學(xué)研究和社會(huì)研究平臺(tái),為基礎(chǔ)研究、應(yīng)用研究和對(duì)策研究提供知識(shí)生產(chǎn)的工具和平臺(tái),以促進(jìn)人工智能良性有序發(fā)展。