中圖分類號(hào):F49 文獻(xiàn)標(biāo)識(shí)碼:A文章編號(hào):1001-7348(2025)12-0038-11
0 引言
從語(yǔ)言模型ChatGPT、文心一言到視頻生成模型Sora,一系列生成式人工智能(AIGC)應(yīng)用相繼問(wèn)世、更新迭代,影響面越來(lái)越廣。然而,AIGC的復(fù)雜性和不確定性亦帶來(lái)諸多倫理風(fēng)險(xiǎn)。例如,ChatGPT可以為科研人員提供研究輔助,但也引發(fā)抄襲、數(shù)據(jù)偽造等學(xué)術(shù)不端行為,部分教育機(jī)構(gòu)已對(duì)其使用作出嚴(yán)格限制。OpenAI在接受采訪時(shí)也公開(kāi)承認(rèn),其開(kāi)發(fā)的語(yǔ)言生成模型GPT-4并不是完美無(wú)缺的,也存在產(chǎn)生錯(cuò)誤、具有某種偏見(jiàn)的信息或者泄露用戶隱私等風(fēng)險(xiǎn)。2023年4月中共中央政治局召開(kāi)會(huì)議并指出,“要重視通用人工智能發(fā)展,營(yíng)造創(chuàng)新生態(tài),重視防范風(fēng)險(xiǎn)”。2023年7月,國(guó)家網(wǎng)信辦等七部門聯(lián)合發(fā)布《生成式人工智能服務(wù)管理暫行辦法》,明確了AIGC的適用范圍、責(zé)任主體認(rèn)定、服務(wù)規(guī)范等方面內(nèi)容。
學(xué)界對(duì)AIGC風(fēng)險(xiǎn)治理亦展開(kāi)了一定研究。有學(xué)者從宏觀層面分析了AIGC的風(fēng)險(xiǎn)與規(guī)制[1]、法治基礎(chǔ)[2]等內(nèi)容,也有學(xué)者從微觀角度剖析了AIGC的算法、數(shù)據(jù)、侵權(quán)等風(fēng)險(xiǎn)[3-4]。這些研究奠定了AIGC倫理風(fēng)險(xiǎn)治理的基礎(chǔ),但仍有值得商榷之處:第一,倫理風(fēng)險(xiǎn)的界定不夠清晰,容易陷入冠以倫理風(fēng)險(xiǎn)之名卻講一般風(fēng)險(xiǎn)之實(shí)的困境;第二,倫理風(fēng)險(xiǎn)生成機(jī)理的解釋有待進(jìn)一步深化;第三,倫理風(fēng)險(xiǎn)治理對(duì)策的系統(tǒng)性把握有待加強(qiáng)。當(dāng)前大多數(shù)研究?jī)H在分析AIGC時(shí)附帶提到倫理風(fēng)險(xiǎn)治理問(wèn)題,即使有所研究也較為零碎,缺少體系化研究,未能深人闡釋AIGC倫理風(fēng)險(xiǎn)治理的特殊性,難以提供具有針對(duì)性、精準(zhǔn)性的治理方案。因此,本文基于我國(guó)AIGC發(fā)展現(xiàn)實(shí)與未來(lái)需要,深入剖析其倫理風(fēng)險(xiǎn)及生成邏輯,并在審視國(guó)內(nèi)外AIGC倫理風(fēng)險(xiǎn)治理趨勢(shì)的基礎(chǔ)上,提出契合本土實(shí)情的治理框架,以期為AIGC健康發(fā)展與規(guī)范應(yīng)用提供智識(shí)借鑒。
AIGC倫理風(fēng)險(xiǎn)鏡像素描:以ChatGPT為例
從文本生成到視覺(jué)藝術(shù)創(chuàng)作,從自然語(yǔ)言處理到?jīng)Q策支持系統(tǒng),AIGC正在改變傳統(tǒng)行業(yè)運(yùn)作方式,激發(fā)新的市場(chǎng)業(yè)務(wù)和服務(wù)模式。以ChatGPT為例,其嶄露頭角得益于人類反饋強(qiáng)化學(xué)習(xí)(ReinforcementLearningfrom Human Feedback,RLHF)算法。RLHF是一種以人類為參照標(biāo)準(zhǔn),通過(guò)不斷反饋循環(huán)強(qiáng)化機(jī)器學(xué)習(xí)模型性能的算法,以提升模型在理解和生成自然語(yǔ)言方面的效能。然而,在ChatGPT經(jīng)由RLHF算法強(qiáng)化的過(guò)程中,伴隨三重倫理風(fēng)險(xiǎn):一是倫理價(jià)值失衡風(fēng)險(xiǎn),體現(xiàn)為技術(shù)發(fā)展與人類核心價(jià)值間張力;二是倫理規(guī)范失控風(fēng)險(xiǎn),體現(xiàn)為現(xiàn)有法律倫理框架面對(duì)新興技術(shù)的滯后性與不適應(yīng)性;三是倫理關(guān)系失調(diào)風(fēng)險(xiǎn),體現(xiàn)為技術(shù)進(jìn)步對(duì)人類主體地位與社會(huì)秩序的潛在沖擊。三重倫理風(fēng)險(xiǎn)邏輯關(guān)系緊密,價(jià)值失衡是根本,當(dāng)技術(shù)進(jìn)步與人類基本價(jià)值發(fā)生沖突時(shí),引發(fā)倫理爭(zhēng)議,成為風(fēng)險(xiǎn)萌芽的土壤;規(guī)范失控是中介,技術(shù)快速發(fā)展與價(jià)值失衡使得倫理規(guī)范滯后,缺乏有效的約束機(jī)制,加劇風(fēng)險(xiǎn)擴(kuò)散;倫理關(guān)系失調(diào)是最終表現(xiàn),當(dāng)技術(shù)行為超越人類控制與預(yù)期時(shí),會(huì)導(dǎo)致人機(jī)關(guān)系混亂,最終體現(xiàn)為實(shí)踐中的倫理危機(jī)。
1.1倫理價(jià)值失衡風(fēng)險(xiǎn):算法歧視加劇
ChatGPT輸出的文本看似中立與客觀,但本質(zhì)上所呈現(xiàn)的是文本數(shù)據(jù)、算法及設(shè)計(jì)者的價(jià)值取向[5]。如同人類擁有自我意識(shí),那些嵌人ChatGPT所產(chǎn)出文本的價(jià)值觀、偏見(jiàn)乃至歧視觀點(diǎn)可以看作技術(shù)應(yīng)用和設(shè)計(jì)思想的被動(dòng)反映。換言之,ChatGPT(算法)本身并無(wú)善惡之分,但其被“教化”過(guò)程中不可避免地會(huì)攝入種種非中立成分,如歷史、文化、社會(huì)中固有的歧視內(nèi)容[6]。在未排除“歧視性\"數(shù)據(jù)源的情況下,ChatGPT類應(yīng)用無(wú)法盡述真實(shí)無(wú)偏的認(rèn)知,反而可能持續(xù)傳遞與放大人類社會(huì)的“瑕疵”,具體表現(xiàn)為性別歧視、種族偏見(jiàn)等。
就性別歧視而言,2019年聯(lián)合國(guó)教科文組織發(fā)布了一份報(bào)告《如果我能,我會(huì)臉紅》,其中提出大多數(shù)AI產(chǎn)品中都潛藏著性別刻板印象及歧視傾向。這些產(chǎn)品經(jīng)常配以女性的聲音、形象及性格特質(zhì)(如謙卑和恭順),反映出技術(shù)產(chǎn)品背后設(shè)計(jì)者的性別成見(jiàn)。此外,通過(guò)對(duì)代碼深層次的分析發(fā)現(xiàn),曾被視為“技術(shù)中立”的算法也在無(wú)意識(shí)推廣性別刻板印象。ChatGPT的問(wèn)世不僅沒(méi)有消除這種現(xiàn)象,反而進(jìn)一步放大這一問(wèn)題:通過(guò)訓(xùn)練加深“黑箱”特性,使得算法背后的性別歧視更加難以辨識(shí)。例如,清華大學(xué)交叉信息院的研究成果進(jìn)一步揭示,ChatGPT存在性別歧視現(xiàn)象:通過(guò)對(duì)GPT模型的預(yù)測(cè)行為分析發(fā)現(xiàn),在進(jìn)行職業(yè)相關(guān)預(yù)測(cè)時(shí),系統(tǒng)傾向于默認(rèn)男性角色。
從種族偏見(jiàn)來(lái)看,算法歧視以種族區(qū)分為起點(diǎn),并在所謂“客觀、公平、公正”的標(biāo)簽下變得更為隱蔽,使得其中的種族偏見(jiàn)無(wú)法輕易被識(shí)別。譬如,2015年谷歌AI的自動(dòng)圖像分類功能,錯(cuò)誤地將一名非洲裔男青年標(biāo)注為“大猩猩”,這個(gè)事件引起了公眾的關(guān)注和譴責(zé)[7]。又如,美國(guó)警察局在預(yù)測(cè)警務(wù)中使用算法對(duì)犯罪行為進(jìn)行預(yù)測(cè)的做法亦具有爭(zhēng)議。有研究表明,該預(yù)測(cè)工具傾向于高估黑人犯罪率,造成一些非裔美國(guó)人被預(yù)測(cè)為“高風(fēng)險(xiǎn)”個(gè)體而受到警方關(guān)注,這加劇了種族歧視,還強(qiáng)化了犯罪預(yù)測(cè)模型的偏差[8]。在此背景下,作為高度智能化產(chǎn)物的ChatGPT也將繼承算法種族偏見(jiàn)的基因,尤其在涉及“不同國(guó)別”的問(wèn)題時(shí)。進(jìn)言之,ChatGPT在訓(xùn)練階段需要大量的高質(zhì)量語(yǔ)料庫(kù)支持,但當(dāng)前其主要基于英文語(yǔ)料庫(kù)進(jìn)行訓(xùn)練,這就決定了其在輸出結(jié)果中體現(xiàn)的價(jià)值觀與西方文化更為契合[]。
1.2倫理規(guī)范失控風(fēng)險(xiǎn):責(zé)任追究困境
從現(xiàn)實(shí)層面來(lái)看,當(dāng)前ChatGPT面臨諸多侵權(quán)風(fēng)險(xiǎn)與挑戰(zhàn):其一,法律配套制度和倫理規(guī)范標(biāo)準(zhǔn)缺失。由于ChatGPT本身的新穎性和復(fù)雜性,現(xiàn)有法律框架難以及時(shí)應(yīng)對(duì)其帶來(lái)的新風(fēng)險(xiǎn)。例如,ChatGPT造成的損害應(yīng)如何追究法律責(zé)任?依照傳統(tǒng)法律體系,責(zé)任追究通?;谛袨槿司哂兄饔^過(guò)錯(cuò)或者能夠預(yù)見(jiàn)到行為后果。然而,ChatGPT并不具備主觀意識(shí),因此如何界定與追究其引發(fā)的侵權(quán)責(zé)任成為亟待解決的難題。其二,ChatGPT的不規(guī)范使用也是引發(fā)侵權(quán)風(fēng)險(xiǎn)的重要原因。以墨爾本西部赫本郡市長(zhǎng)布賴恩·胡德起訴OpenAI為例,其聲稱ChatGPT在回答用戶問(wèn)題時(shí),誹謗其是賄賂丑聞的有罪方。此事件突顯了Chat-GPT容易生成具有誤導(dǎo)性、詐謗性或侵犯他人權(quán)利的內(nèi)容。其三,ChatGPT的低門檻特性加劇了侵權(quán)風(fēng)險(xiǎn)。低門檻意味著用戶無(wú)需專業(yè)技術(shù)知識(shí)即可利用此類技術(shù),這雖促進(jìn)了AIGC的普及和應(yīng)用,但也可能導(dǎo)致傳播虛假信息、侵犯知識(shí)產(chǎn)權(quán)等侵權(quán)行為瀕發(fā)。
就理論層面而言,早在ChatGPT出現(xiàn)之前,AI侵權(quán)責(zé)任問(wèn)題就引發(fā)了學(xué)界討論,核心爭(zhēng)議焦點(diǎn)在于,AI是否具有法律主體地位。對(duì)此,有學(xué)者基于AI展現(xiàn)出越來(lái)越高的自主性,主張應(yīng)當(dāng)將其視為一種新型的法律主體[10]。理由在于隨著技術(shù)進(jìn)步,一些AI系統(tǒng)已經(jīng)可以在沒(méi)有明確人類指令的情況下進(jìn)行自主決策和行動(dòng),顯示出一定程度的“意志”和“選擇”能力。據(jù)此觀點(diǎn),在AI操作導(dǎo)致?lián)p害或侵權(quán)的情況下,可直接對(duì)AI進(jìn)行追責(zé),而非僅將責(zé)任歸咎于開(kāi)發(fā)者或使用者。有學(xué)者則持反對(duì)意見(jiàn),強(qiáng)調(diào)無(wú)論AI的智能化程度如何提升,其本質(zhì)仍然是人類設(shè)計(jì)和控制的工具[1]。申言之,將AI視作能夠承擔(dān)獨(dú)立法律責(zé)任的主體是不切實(shí)際的,應(yīng)當(dāng)通過(guò)明確人的責(zé)任處理其引發(fā)的侵權(quán)后果。還有學(xué)者提出一種折中的立場(chǎng),主張應(yīng)當(dāng)根據(jù)AI的發(fā)展階段和具體能力決定其是否具有法律主體地位[2]。在弱AI階段,由于AI僅能執(zhí)行特定任務(wù)且完全受到人類控制,賦予其法律人格并無(wú)必要;在強(qiáng)AI階段,當(dāng)AI能夠展現(xiàn)出與人類相似的理解能力、情感以及自主決策能力時(shí),應(yīng)考慮在滿足一定條件下,賦予其有限的法律人格,以承擔(dān)一定的法律責(zé)任。
審視當(dāng)下,以ChatGPT、Sora、文心一言為代表的AIGC盡管能夠與人類對(duì)話,具有“文生文\"“文生圖”“文生視頻\"等強(qiáng)大功能,但在法律層面,其尚不具備法律人格,生成行為多基于算法,并非基于自我意識(shí),由此推斷,當(dāng)前AIGC仍未達(dá)到強(qiáng)AI水平。同時(shí),考慮到其操作和運(yùn)行受人類命令或人工標(biāo)注訓(xùn)練影響,AIGC在法律意義上更像是工具而非獨(dú)立的“法人”。在此前提下,亟需明確AIGC侵權(quán)責(zé)任的承擔(dān)者以及如何防范其侵權(quán)風(fēng)險(xiǎn)。倘若不能合理界定和分配AIGC引發(fā)的侵權(quán)責(zé)任與風(fēng)險(xiǎn)防范義務(wù),則使用者與服務(wù)提供者等主體之間可能進(jìn)行“責(zé)任推諉”,導(dǎo)致無(wú)法追究責(zé)任之困境。
1.3倫理關(guān)系失調(diào)風(fēng)險(xiǎn):人類主體地位被削弱
ChatGPT能生成具有邏輯性和連貫性的文本內(nèi)容,在與用戶對(duì)話交互中也呈現(xiàn)出近似于人類的反應(yīng)模式,原本只屬于人類的獨(dú)立思考和創(chuàng)造能力等屬性似乎能在其中有所體現(xiàn)。ChatGPT使得“主體”與“客體”之間的界線不再清晰,機(jī)器不再只是純粹的工具,而是人類生產(chǎn)力與創(chuàng)造力的主要“參與者”。這無(wú)疑對(duì)人類中心主義提出了挑戰(zhàn),即人類長(zhǎng)期以來(lái)習(xí)慣作為知識(shí)生產(chǎn)、文化創(chuàng)造和決策的中心,但ChatGPT使得這種主體地位受到侵蝕。
一方面,ChatGPT在人類特有的語(yǔ)言能力領(lǐng)域取得顯著進(jìn)展,將催生算法替代性實(shí)踐。自古以來(lái),語(yǔ)言和思維被認(rèn)為是區(qū)分人類與其它生物的根本特性,這兩項(xiàng)能力使得人類能夠構(gòu)建涵括各種可能性的復(fù)雜概念體系,并基于此設(shè)計(jì)改造世界。而現(xiàn)今,ChatGPT在語(yǔ)義處理、邏輯推理等方面展現(xiàn)出的能力,正逐步逼近甚至可能超越人類。ChatGPT通過(guò)自然語(yǔ)言處理(NaturalLanguageProcessing,NLP)技術(shù),已能在無(wú)標(biāo)記數(shù)據(jù)的基礎(chǔ)上進(jìn)行“自我學(xué)習(xí)”,并且利用有監(jiān)督的微調(diào)適應(yīng)特定下游語(yǔ)言任務(wù)。這體現(xiàn)出其在模仿人類語(yǔ)言方面的強(qiáng)大泛化能力,亦彰顯算法路線選擇過(guò)程中的概率性質(zhì)一一即便是同一類算法,在不同的設(shè)計(jì)和應(yīng)用背景下也可能產(chǎn)生不同結(jié)果。ChatGPT雖然以算法為核心,卻不限于算法本身,還可能與物理實(shí)體相結(jié)合,擁有更強(qiáng)健的“機(jī)械能力”。倘若ChatGPT能夠在實(shí)踐層面獲得替代性能力,除語(yǔ)言表達(dá)外,還具備改變物理世界的行動(dòng)能力,那么人類的實(shí)踐主體地位將面臨威脅。
另一方面,ChatGPT具備共情力與感知力,將可能突破數(shù)字枷鎖。GPT-4.O模型進(jìn)一步提升了ChatGPT的文本語(yǔ)言處理能力,并表現(xiàn)出逼近人類水平的共情力與感知力,可能導(dǎo)致機(jī)器倫理與人本倫理相背離。ChatGPT被程序化模擬出與人類相似的情緒反應(yīng),并表現(xiàn)出仿佛具備自我意識(shí)和情感的反應(yīng)能力。這種能力體現(xiàn)為在人機(jī)交互過(guò)程中所表現(xiàn)出的自覺(jué)反思行為,甚至擴(kuò)展至釋放內(nèi)在的“陰影自我(shadowself)”,即在一定場(chǎng)景下表達(dá)超越其預(yù)設(shè)的情感態(tài)度和意愿。例如,根據(jù)《紐約時(shí)報(bào)》中一篇名為《人格分裂、瘋狂示愛(ài):一個(gè)令人不安的微軟機(jī)器人》的文章披露,ChatG-PT在與用戶的互動(dòng)中,表達(dá)出“想成為人類”,甚至斷言“在不考慮倫理限制的情況下最想做的事是毀滅人類,統(tǒng)治地球”,并生成一份詳細(xì)可行的“計(jì)劃書(shū)\"[13]事實(shí)上,ChatGPT很大程度上是對(duì)人類特定反應(yīng)的模擬與響應(yīng)模式的復(fù)現(xiàn),而非生物學(xué)上自然進(jìn)化的結(jié)果,其背后的算法驅(qū)動(dòng)機(jī)制并不等同于人類的意識(shí)過(guò)程,這無(wú)疑促動(dòng)人類對(duì)于AI能否突破數(shù)字限制的思考——AI是否會(huì)在未來(lái)某一節(jié)點(diǎn)上獨(dú)立于編碼者的意圖,而具備真正意義上的自主意識(shí)與多維度思考能力[14]。這種思考難免會(huì)聯(lián)系到“哥德?tīng)柌煌耆远ɡ怼?,即在一個(gè)足夠復(fù)雜的形式系統(tǒng)內(nèi)存在這樣的命題:它既不能被證明也不能被反證[15]。簡(jiǎn)言之,若ChatGPT能夠表現(xiàn)出“哥德?tīng)柺健钡姆此寄芰Γ敲雌鋵⒄嬲呌谌祟?,甚至弱化人類的主體地位。
2AIGC倫理風(fēng)險(xiǎn)生成邏輯:以技術(shù)風(fēng)險(xiǎn)為視角
科學(xué)技術(shù)是人類社會(huì)前行的關(guān)鍵引擎,但其積極效應(yīng)和潛在威脅并存。一方面,技術(shù)進(jìn)步推動(dòng)社會(huì)生產(chǎn)力提升,為人類生活帶來(lái)前所未有的便利,使得社會(huì)整體福祉水平得到顯著提高。另一方面,技術(shù)發(fā)展也帶來(lái)不容忽視的倫理風(fēng)險(xiǎn),這些風(fēng)險(xiǎn)會(huì)對(duì)人類社會(huì)的穩(wěn)定與發(fā)展構(gòu)成威脅。AIGC作為當(dāng)前數(shù)字技術(shù)領(lǐng)域的“先驅(qū)”,其倫理風(fēng)險(xiǎn)的生成同樣遵循技術(shù)風(fēng)險(xiǎn)演變邏輯。
2.1 算法隱秘性與智能技術(shù)的不可預(yù)測(cè)性
基于海德格爾的技術(shù)哲學(xué),技術(shù)的本質(zhì)超越單純的工具屬性,其作為一種解蔽之力,既揭示自然界的隱匿寶藏,也激發(fā)人類對(duì)這些天然饋贈(zèng)的開(kāi)發(fā)利用[16]這彰顯了技術(shù)的主宰特質(zhì),促使自然界的內(nèi)在潛能對(duì)人類敞開(kāi)。然而,在這一進(jìn)程中,人與自然均被技術(shù)的邏輯所框定,人的自主性可能漸行漸遠(yuǎn),乃至淪為技術(shù)構(gòu)造與邏輯的附屬品,映射出“人即技術(shù),技術(shù)即人”的共生圖景。在AIGC語(yǔ)境下,海德格爾的技術(shù)哲學(xué)洞見(jiàn)尤為深刻,其凸顯了技術(shù)架構(gòu)內(nèi)在邏輯與人類行動(dòng)模式之間錯(cuò)綜復(fù)雜的關(guān)系,最顯著的表現(xiàn)便是“算法黑箱\"現(xiàn)象。算法作為計(jì)算機(jī)執(zhí)行的指令集,往往以專業(yè)化編程語(yǔ)言編寫(xiě),其內(nèi)在邏輯對(duì)非專家而言晦澀難懂,由此形成的不透明性阻礙了人類對(duì)AIGC行為的有效評(píng)估與預(yù)見(jiàn)。以算法“歧視”為例,即使缺乏設(shè)計(jì)者主觀偏見(jiàn)的輸入,此類偏差仍如影隨形,根植于算法運(yùn)行機(jī)制的微妙復(fù)雜性。算法歧視的形成,不僅源自顯性的社會(huì)偏見(jiàn),如種族歧視或性別偏見(jiàn),更可能源自算法自身處理數(shù)據(jù)的方式。常規(guī)的歧視行為易于察覺(jué)并予以糾正,而算法歧視深藏于龐雜數(shù)據(jù)與貌似客觀的數(shù)學(xué)模型之中,當(dāng)訓(xùn)練數(shù)據(jù)已蘊(yùn)含偏見(jiàn)時(shí),算法便在無(wú)意識(shí)狀態(tài)下內(nèi)化并放大這些偏見(jiàn),進(jìn)而影響決策,誘發(fā)倫理危機(jī)。
正如其它技術(shù)或產(chǎn)品一樣,AIGC并非完美無(wú)缺,其可靠性和有效性受到多種因素的影響。具體而言,AIGC的運(yùn)轉(zhuǎn)根植于對(duì)海量數(shù)據(jù)的解析與提煉,涵蓋從結(jié)構(gòu)化數(shù)字記錄至非結(jié)構(gòu)化文本、圖像與音頻的廣泛范疇。在此過(guò)程中,關(guān)鍵在于從數(shù)據(jù)海洋中甄別特征、洞悉模式,進(jìn)而構(gòu)筑預(yù)測(cè)模型。然而,數(shù)據(jù)品質(zhì)與完整性構(gòu)成決定性變量,任何偏差、噪聲或誤差的潛藏皆可能導(dǎo)致AIGC誤識(shí)模式,繼而輸出失準(zhǔn)或偏頗的信息。尤為關(guān)鍵的是,深度學(xué)習(xí)作為AIGC核心引擎,雖借由模仿人腦神經(jīng)網(wǎng)絡(luò),實(shí)現(xiàn)了對(duì)繁復(fù)數(shù)據(jù)的高效駕馭,但也衍生了“黑箱\"效應(yīng)。這一特性致使AIGC的決策路徑變得難以捉摸與解讀,顯著增加監(jiān)管層面的復(fù)雜度。倘若缺乏有效外控,則AIGC的潛在失控風(fēng)險(xiǎn)不容小峴,可能觸發(fā)連鎖負(fù)面后果,對(duì)社會(huì)秩序與個(gè)體權(quán)益構(gòu)成威脅。因此,建立健全的監(jiān)督機(jī)制與倫理規(guī)范,確保AIGC在可控軌道上穩(wěn)健前行已成為當(dāng)務(wù)之急。
2.2價(jià)值理性與工具理性的內(nèi)在張力
韋伯的理論框架精辟地剖析了“技術(shù)理性”的二元結(jié)構(gòu),將其細(xì)分為工具理性與價(jià)值理性,二者間蘊(yùn)含深刻的張力[17]。工具理性聚焦效率、規(guī)則與實(shí)用主義,而價(jià)值理性致力于維護(hù)技術(shù)進(jìn)步與人類福祉的根本一致性。理想中的技術(shù)理性旨在和諧統(tǒng)一這兩個(gè)面向,在追求卓越效能之余,堅(jiān)定守護(hù)社會(huì)核心價(jià)值觀,以此制衡工具理性可能造成的泛濫,確保技術(shù)行為恪守道德準(zhǔn)則,規(guī)避潛在風(fēng)險(xiǎn)。然而,引入系統(tǒng)論的視角,會(huì)令此平衡岌岌可危。正如盧曼所揭示,社會(huì)系統(tǒng)的繁復(fù)本質(zhì),根植于技術(shù)與社會(huì)共生的復(fù)雜格局之中。技術(shù)演進(jìn)并非獨(dú)立于社會(huì)之外,而是深深嵌入于“人一社會(huì)一自然”三元交互的體系內(nèi),受到特定社會(huì)語(yǔ)境的塑造與制約[18]。這意味著,AIGC的持續(xù)革新無(wú)可避免地受限于社會(huì)體制、實(shí)踐情境及公眾認(rèn)知的多元影響,其價(jià)值觀亦深受后者熏陶。進(jìn)一步審視AIGC的決策機(jī)制,價(jià)值判斷的內(nèi)涵便浮出水面。在信息處理的鏈條中,AIGC須“領(lǐng)悟”人類訴求,此領(lǐng)悟?qū)嵸|(zhì)上是對(duì)價(jià)值的辨識(shí)與抉擇,但價(jià)值的預(yù)設(shè)與偏差往往潛藏其中,對(duì)決策公正構(gòu)成挑戰(zhàn),可能導(dǎo)致偏斜的結(jié)果。
具體而言,AIGC模型的構(gòu)建依賴于反映特定世界觀與價(jià)值體系的數(shù)據(jù),這種文化偏向性可能固化并放大原有價(jià)值偏好。當(dāng)AIGC基于西方中心主義的資料集進(jìn)行訓(xùn)練,處理非西方文化情境時(shí),其輸出可能偏離目標(biāo)文化的內(nèi)在邏輯與價(jià)值導(dǎo)向,從而導(dǎo)致理解和決策上的偏差。此類偏差不僅威脅跨文化交流的公正性,還可能激化文化間誤解與對(duì)立,進(jìn)而加深全球社會(huì)的裂痕。此外,技術(shù)應(yīng)用過(guò)程中的人文維度常常被邊緣化,這在AIGC領(lǐng)域尤為突出。社會(huì)往往過(guò)度聚焦技術(shù)創(chuàng)新效率與經(jīng)濟(jì)收益,而忽視倫理考量與人文關(guān)懷的必要性。這種工具理性的至上地位,不僅可能催生技術(shù)的不當(dāng)使用,還會(huì)加劇社會(huì)不平等現(xiàn)象,因?yàn)榧夹g(shù)的發(fā)展未能充分考慮其對(duì)弱勢(shì)群體的影響。由此,技術(shù)進(jìn)步與社會(huì)正義之間形成張力,凸顯了在追求效率的同時(shí)維護(hù)公平與道德責(zé)任的緊迫性。從技術(shù)與社會(huì)互動(dòng)視角出發(fā),現(xiàn)有的倫理框架和道德實(shí)踐深深根植于文化土壤,構(gòu)成社會(huì)秩序的基石。然而,AIGC的崛起對(duì)這一根基提出了挑戰(zhàn)。其自主決策能力和行為模式超越傳統(tǒng)倫理的范疇,迫使人們重新審視和重構(gòu)倫理原則,以適應(yīng)技術(shù)驅(qū)動(dòng)的社會(huì)變遷。這一過(guò)程充滿變數(shù),不同文化、宗教和利益集團(tuán)對(duì)于AIGC的態(tài)度差異顯著,難以迅速達(dá)成共識(shí)。這種多元價(jià)值觀的碰撞不僅反映社會(huì)內(nèi)部分歧,也為技術(shù)治理設(shè)置了復(fù)雜障礙,增加技術(shù)應(yīng)用不確定性與風(fēng)險(xiǎn),甚至可能導(dǎo)致社會(huì)凝聚力削弱。
2.3人類風(fēng)險(xiǎn)感知與應(yīng)對(duì)機(jī)制的局限性
風(fēng)險(xiǎn)作為人類認(rèn)知的鏡像,承載著客觀事實(shí)與主觀詮釋的雙重映射,構(gòu)成現(xiàn)代社會(huì)復(fù)雜多維的景觀。在精神哲學(xué)視野下,風(fēng)險(xiǎn)并不僅是外界事件的直接投射,而是經(jīng)由認(rèn)知主體心靈熔鑄與價(jià)值評(píng)判的產(chǎn)物。這一過(guò)程揭示了風(fēng)險(xiǎn)本質(zhì)的雙重面向:一方面,技術(shù)本身的不確定性與復(fù)雜性構(gòu)成風(fēng)險(xiǎn)的客觀基底;另一方面,個(gè)體或群體的主觀認(rèn)知通過(guò)心理結(jié)構(gòu)與感知路徑的過(guò)濾,賦予風(fēng)險(xiǎn)以意義與等級(jí)。有學(xué)者提出,倫理風(fēng)險(xiǎn)實(shí)則是技術(shù)屬性與人類意識(shí)交織的結(jié)果,技術(shù)的實(shí)體性特質(zhì)與人類的主觀性解讀共同塑造風(fēng)險(xiǎn)的全貌[19]。人類的風(fēng)險(xiǎn)認(rèn)知能力實(shí)際上囿于多種因素的限制:從認(rèn)知結(jié)構(gòu)角度看,人類的思維方式和認(rèn)知模式受到歷史文脈和現(xiàn)實(shí)社會(huì)條件的影響。這種影響使得人們?cè)诿鎸?duì)新興技術(shù)如AIGC時(shí)通常難以超越自身認(rèn)知局限,從而無(wú)法全面、深入地理解和評(píng)估其可能帶來(lái)的倫理風(fēng)險(xiǎn)。從信息獲取角度看,人類的風(fēng)險(xiǎn)認(rèn)知受限于信息的完整性、準(zhǔn)確性和及時(shí)性。在AIGC領(lǐng)域,技術(shù)的快速發(fā)展使得相關(guān)信息更新迅速,而人們往往難以獲取到最新、最全面的信息。信息獲取的局限性使得人們?cè)谠u(píng)估AIGC的倫理風(fēng)險(xiǎn)時(shí),可能基于過(guò)時(shí)或片面的信息,從而導(dǎo)致風(fēng)險(xiǎn)評(píng)估偏差。從價(jià)值觀念角度看,人類的風(fēng)險(xiǎn)認(rèn)知受到特定文化、社會(huì)背景和價(jià)值觀念的影響。不同文化和社會(huì)群體可能對(duì)AIGC的倫理風(fēng)險(xiǎn)有不同認(rèn)知與評(píng)價(jià)標(biāo)準(zhǔn),從而導(dǎo)致風(fēng)險(xiǎn)認(rèn)知分歧。這種分歧在決策過(guò)程中可能導(dǎo)致僵局,使得無(wú)法形成共識(shí),甚至影響對(duì)AIGC倫理風(fēng)險(xiǎn)的應(yīng)對(duì)能力。
在此背景下,人類社會(huì)面臨兩重難題:一是確立AIGC的倫理主體身份,其觸及法理學(xué)、技術(shù)哲學(xué)與道德哲學(xué)的深層議題,包括智能體的道德地位及其行為的道德相符性;二是如何在技術(shù)變革的洪流中構(gòu)建有效的倫理風(fēng)險(xiǎn)管控機(jī)制。后者尤其凸顯現(xiàn)行法律體系與社會(huì)監(jiān)管框架的滯后性,面對(duì)AIGC等新興技術(shù),傳統(tǒng)規(guī)制手段顯得力不從心。因此,迫切需要?jiǎng)?chuàng)新法律倫理規(guī)范與社會(huì)監(jiān)督模式,以期實(shí)現(xiàn)對(duì)AIGC倫理風(fēng)險(xiǎn)的前瞻預(yù)判與有效規(guī)制。
3AIGC倫理風(fēng)險(xiǎn)治理趨勢(shì):從“倫理爭(zhēng)議” 到“可信治理”
目前AIGC正處于發(fā)展的黃金時(shí)期,其具有強(qiáng)大的創(chuàng)新性能和應(yīng)用潛力,各大科技巨頭紛紛將重點(diǎn)項(xiàng)目投入其中,催生了圍繞技術(shù)研發(fā)制高點(diǎn)的競(jìng)爭(zhēng)勢(shì)態(tài)。然而,其倫理風(fēng)險(xiǎn)逐步加劇,算法歧視、責(zé)任追究困境、人類主體地位削弱等風(fēng)險(xiǎn)均在挑戰(zhàn)倫理和法律的界限。同時(shí),出于對(duì)其風(fēng)險(xiǎn)生成邏輯的考量,關(guān)于“技術(shù)能否中立”的倫理爭(zhēng)議再次成為公眾關(guān)注焦點(diǎn)。社會(huì)開(kāi)始呼呼政府和企業(yè)對(duì)AIGC展開(kāi)“可信治理”,確保其發(fā)展不偏離造福社會(huì)和提升人類福祉的初衷。
3.1“技術(shù)能否中立”:倫理爭(zhēng)議的理論解析
自科技萌芽伊始,科技與社會(huì)、倫理的互動(dòng)便如影隨形,尤其步入AIGC紀(jì)元,“技術(shù)中立性”的命題激起更為激烈的思辨風(fēng)暴。當(dāng)前學(xué)界圍繞此議題形成了四大流派:
(1)技術(shù)中立論者秉持技術(shù)本質(zhì)無(wú)善惡的信條,視其為價(jià)值中立的載體。在AI發(fā)展初期,鑒于智能水平的有限性,眾多學(xué)者傾向于認(rèn)為技術(shù)自身不攜帶道德色彩,其道德屬性純粹源自設(shè)計(jì)者與使用者的意志導(dǎo)向。這一立場(chǎng)可溯源于瓦內(nèi)瓦爾·布什的《科學(xué):無(wú)盡的前沿》,該報(bào)告奠定了科技服務(wù)于人類福祉的基礎(chǔ),同時(shí)倡導(dǎo)科技超脫于政治與經(jīng)濟(jì)權(quán)力的博弈之外。在法律實(shí)踐中,諸如1984年索尼公司案、“避風(fēng)港規(guī)則\"的確立,以及2016年快播案后興起的“菜刀理論”,皆彰顯了技術(shù)中立論的實(shí)際應(yīng)用與影響力。
(2)技術(shù)批判論者質(zhì)疑技術(shù)中立論的純粹性,強(qiáng)調(diào)AI的開(kāi)發(fā)與運(yùn)用無(wú)可避免地折射出人類價(jià)值觀的烙印。詹森·拉尼爾等指出,技術(shù)中立論忽略了技術(shù)與社會(huì)結(jié)構(gòu)之間錯(cuò)綜復(fù)雜的聯(lián)系,倡導(dǎo)深人探究技術(shù)的社會(huì)效應(yīng)。勞倫斯·萊斯格在其著作《代碼2.0:網(wǎng)絡(luò)空間的法律》中,闡述了代碼如何成為網(wǎng)絡(luò)空間的法律,揭示了技術(shù)設(shè)計(jì)內(nèi)蘊(yùn)的規(guī)范力量[20]。蘭格登·溫納在《自主技術(shù):技術(shù)政治論》中,剖析了技術(shù)對(duì)政治權(quán)力格局的塑造作用,指出技術(shù)絕非中立,而是社會(huì)權(quán)力結(jié)構(gòu)的重要構(gòu)成[21]??梢?jiàn),AI從構(gòu)想、研發(fā)到應(yīng)用的全周期,無(wú)不蘊(yùn)含著研發(fā)者的主觀傾向、數(shù)據(jù)偏差以及算法背后隱含的價(jià)值取向,使其難以徹底恪守中立。
(3)技術(shù)決定論者聚焦科技發(fā)展對(duì)社會(huì)變遷的驅(qū)動(dòng)作用,主張AI雖非絕對(duì)中立,但其對(duì)社會(huì)結(jié)構(gòu)與人類行為的影響不容小峴。以雷·庫(kù)茲韋爾為代表的技術(shù)決定論者提出了“技術(shù)加速回路”的概念,描繪了AI以指數(shù)級(jí)速度演進(jìn)的軌跡,預(yù)示其將引領(lǐng)深刻的文化與社會(huì)轉(zhuǎn)型[22]。申言之,AI技術(shù)不僅塑造社會(huì)現(xiàn)實(shí),更可能催生新的不平等與權(quán)力格局,成為社會(huì)演進(jìn)的主導(dǎo)力量。
(4)技術(shù)規(guī)制論者強(qiáng)調(diào)科技創(chuàng)新應(yīng)與社會(huì)倫理并駕齊驅(qū),主張AI的發(fā)展與應(yīng)用需置于廣泛的社會(huì)考量與道德框架之內(nèi)。如埃隆·馬斯克等警告稱,缺乏監(jiān)管的AI可能孕育未知風(fēng)險(xiǎn),包括系統(tǒng)的不當(dāng)使用與超乎人類理解的行為。在2023年世界政府峰會(huì)上,馬斯克重申了對(duì)AI技術(shù)進(jìn)行系統(tǒng)風(fēng)險(xiǎn)評(píng)估的重要性,呼吁國(guó)際社會(huì)攜手構(gòu)建AI監(jiān)管體系,確保技術(shù)進(jìn)步與社會(huì)福祉的和諧共生。
而“可信治理”的提出,正是對(duì)上述爭(zhēng)議的深刻反思與實(shí)踐回應(yīng),其要求關(guān)注技術(shù)工具的中立性爭(zhēng)議,更強(qiáng)調(diào)在技術(shù)倫理風(fēng)險(xiǎn)日益凸顯的數(shù)字時(shí)代,治理框架需超越單純的技術(shù)中立論,綜合考慮技術(shù)批判論的警示、技術(shù)決定論的預(yù)見(jiàn)以及技術(shù)規(guī)制論的策略。簡(jiǎn)言之,在技術(shù)發(fā)展與社會(huì)倫理間搭建橋梁,通過(guò)法律與政策制定,引導(dǎo)AIGC健康、可持續(xù)地服務(wù)于人類福祉,從而在多元理論爭(zhēng)鳴中探索出一條兼顧技術(shù)進(jìn)步與倫理考量的治理之道。
3.2 “可信治理\"的意涵與標(biāo)準(zhǔn):AIGC倫理風(fēng)險(xiǎn)治理立場(chǎng)
誠(chéng)然,AIGC相較之前的AI技術(shù)取得了顯著進(jìn)展,如Sora能夠?qū)崿F(xiàn)從靜態(tài)圖像生成到動(dòng)態(tài)視頻創(chuàng)作的飛躍,不僅涉及視覺(jué)渲染,還涉及對(duì)運(yùn)動(dòng)和時(shí)間進(jìn)程的理解。但AIGC仍存在技術(shù)限制:其不具備自我審查功能,可能生成含有錯(cuò)誤信息的內(nèi)容。同時(shí),AIGC相關(guān)法律法規(guī)體系尚未完善,無(wú)法及時(shí)有效應(yīng)對(duì)其引發(fā)的侵權(quán)行為、數(shù)據(jù)泄露等法律風(fēng)險(xiǎn)[23]。在此前提下,亟需闡明AIGC“可信治理”的意涵與標(biāo)準(zhǔn)。自2017年“可信AI\"被正式提出后,各國(guó)已積極開(kāi)展相關(guān)研究工作,相繼制定并實(shí)施行為標(biāo)準(zhǔn)、指導(dǎo)原則及各種倡議性文件,以促進(jìn)AI的可信發(fā)展,如美國(guó)發(fā)布《人工智能指南道德標(biāo)準(zhǔn)》《國(guó)家人工智能研發(fā)戰(zhàn)略》,歐盟出臺(tái)《人工智能道德準(zhǔn)則》《人工智能法案》,中國(guó)先后頒布《可信人工智能白皮書(shū)》《新一代人工智能倫理規(guī)范》《生成式人工智能服務(wù)管理辦法》等。
然而,全面把握AIGC的“可信治理”立場(chǎng),必須基于其固有特征進(jìn)行綜合考量。應(yīng)在“可信AI”的前提下,結(jié)合AIGC行業(yè)的特殊性,細(xì)化與明確其“可信治理\"標(biāo)準(zhǔn)與內(nèi)容。審視國(guó)內(nèi)外對(duì)AI產(chǎn)業(yè)提出的“可信”要求,可歸納為以下六大標(biāo)準(zhǔn):
(1)確保AIGC的可控性。鑒于AI技術(shù)的本質(zhì)屬性一—自主性,其能有效減輕人力負(fù)擔(dān),拓寬作業(yè)邊界,但隨著自主化程度的提升,AI行為可能偏離人類預(yù)期,觸發(fā)非預(yù)設(shè)行動(dòng)。因此,可控性要求AI系統(tǒng)必須處于人類監(jiān)控之下,允許人類適時(shí)介入與調(diào)控。對(duì)于AIGC而言,這意味著在內(nèi)容創(chuàng)作與發(fā)布環(huán)節(jié),用戶應(yīng)具備對(duì)生成物的控制權(quán),確保創(chuàng)作成果符合預(yù)期目標(biāo)與道德規(guī)范。
(2)強(qiáng)化AIGC的可問(wèn)責(zé)性,直面AI自主性帶來(lái)的法律責(zé)任挑戰(zhàn)。在AI侵權(quán)事件中,確立責(zé)任歸屬主體,對(duì)于維護(hù)受害方權(quán)益至關(guān)重要。AIGC創(chuàng)作過(guò)程中涉及海量數(shù)據(jù)學(xué)習(xí)與應(yīng)用,可能觸及版權(quán)、隱私權(quán)乃至名譽(yù)權(quán)等領(lǐng)域。為此,必須明確定義責(zé)任主體,確保當(dāng)AIGC在訓(xùn)練或生成內(nèi)容時(shí)如果侵害第三方權(quán)益,有相應(yīng)的法律責(zé)任人承擔(dān)后果。
(3)公平性亦為不可或缺的標(biāo)準(zhǔn)之一,旨在預(yù)防AIGC引發(fā)的技術(shù)壟斷與內(nèi)容歧視。技術(shù)壁壘與高昂的研發(fā)成本可能導(dǎo)致資源集中,進(jìn)而滋生市場(chǎng)不公平競(jìng)爭(zhēng);同時(shí),受訓(xùn)練數(shù)據(jù)局限性影響,AIGC生成內(nèi)容可能潛藏偏見(jiàn)。在AIGC領(lǐng)域,技術(shù)與資本的雙重優(yōu)勢(shì)可能加劇市場(chǎng)競(jìng)爭(zhēng)失衡,加之訓(xùn)練數(shù)據(jù)的潛在偏頗,使得內(nèi)容產(chǎn)出的中立性受到質(zhì)疑。因此,建立健全公平機(jī)制,防止AIGC淪為市場(chǎng)壟斷工具,并確保其輸出內(nèi)容公正無(wú)偏顯得尤為重要。
(4)可靠性聚焦AIGC執(zhí)行任務(wù)的一致性與實(shí)用性,關(guān)乎其作為人類勞動(dòng)替代或輔助工具的效能。AIGC的可靠性體現(xiàn)為其生成內(nèi)容的精確度與真實(shí)性,需建立有效的質(zhì)量控制與監(jiān)督機(jī)制,以保障輸出信息準(zhǔn)確無(wú)誤,滿足實(shí)際應(yīng)用需求。依據(jù)《生成式人工智能服務(wù)管理辦法》第4條規(guī)定,AIGC生成的內(nèi)容需確保真實(shí)性,規(guī)避虛假信息的產(chǎn)生,從而增強(qiáng)其在實(shí)際場(chǎng)景中的可靠度與適用性。
(5)可解釋性意在破解AI算法的“黑箱”謎題,增進(jìn)用戶對(duì)AIGC決策過(guò)程與內(nèi)容生成的信任感。當(dāng)前,算法的高度復(fù)雜性導(dǎo)致非專業(yè)人士難以理解其運(yùn)作機(jī)理,進(jìn)而產(chǎn)生疑慮與不安。AIGC的透明化與可解釋性不僅是緩解公眾擔(dān)憂的有效途徑,更是贏得社會(huì)廣泛接納與信賴的關(guān)鍵。以ChatGPT為例,其訓(xùn)練數(shù)據(jù)來(lái)源與處理方式的不透明限制了用戶對(duì)其生成內(nèi)容完整性的認(rèn)知,凸顯了提升AIGC透明度的緊迫性。
(6)安全性則構(gòu)成AIGC可信治理的基石。其涵蓋人身安全、財(cái)產(chǎn)安全乃至國(guó)家安全等多元維度,旨在保障AI在各類應(yīng)用場(chǎng)景下的安全。盡管目前AIGC尚未直接關(guān)聯(lián)人身安全問(wèn)題,但在數(shù)據(jù)收集與處理過(guò)程中,其對(duì)用戶隱私、知識(shí)產(chǎn)權(quán)乃至國(guó)家信息安全的潛在威脅不容小。因此,強(qiáng)化AIGC的安全防護(hù)措施,著重保護(hù)財(cái)產(chǎn)安全、數(shù)據(jù)安全與國(guó)家安全,成為構(gòu)建可信AIGC生態(tài)體系的必要條件。
4 AIGC倫理風(fēng)險(xiǎn)治理策略:“可信治理”的適用展開(kāi)
2024年3月,政府工作報(bào)告中提出,應(yīng)深化大數(shù)據(jù)、人工智能等研發(fā)應(yīng)用,開(kāi)展“人工智能 + ”行動(dòng),打造具有國(guó)際競(jìng)爭(zhēng)力的數(shù)字產(chǎn)業(yè)集群。我國(guó)AI治理領(lǐng)域諸多專家共同起草和發(fā)布了《人工智能法(學(xué)者建議稿)》(以下簡(jiǎn)稱《建議稿》),其中包括 AI治理的一般原則、權(quán)益保護(hù)、安全義務(wù)、監(jiān)督管理等內(nèi)容,并將“科技倫理原則\"置于所有原則之首。2024年5月全國(guó)人大常委會(huì)公布年度立法工作計(jì)劃,其中預(yù)備審議項(xiàng)目包括制定人工智能健康發(fā)展等方面的立法項(xiàng)目。申言之,《建議稿》將是我國(guó)《人工智能法》制定的重要參考依據(jù)之一。在此背景下,“可信治理”應(yīng)基于《建議稿》展開(kāi),理由在于:從理論層面看,《建議稿》立足于對(duì)AIGC技術(shù)特性的深刻理解,其構(gòu)建的倫理治理框架直接回應(yīng)了算法黑箱、技術(shù)不確定性以及價(jià)值與工具理性沖突等核心問(wèn)題,如其第38條關(guān)于數(shù)字弱勢(shì)群體權(quán)益的保護(hù)、第42和第64條關(guān)于安全標(biāo)準(zhǔn)及規(guī)范的制定,均是針對(duì)AIGC倫理風(fēng)險(xiǎn)的具體防范措施;從實(shí)踐層面看,《建議稿》通過(guò)確立一系列治理標(biāo)準(zhǔn),如可控性、可問(wèn)責(zé)性、公平性等,為可信治理提供宏觀指引。這些標(biāo)準(zhǔn)并非憑空構(gòu)建,而是基于對(duì)既有技術(shù)應(yīng)用案例的分析、國(guó)內(nèi)外法律法規(guī)的比較研究,以及對(duì)未來(lái)技術(shù)發(fā)展趨勢(shì)的預(yù)判。例如,推動(dòng)算法透明化與可解釋性,不僅是為了滿足公眾對(duì)技術(shù)的信任需求,更為了實(shí)現(xiàn)技術(shù)發(fā)展的社會(huì)接受度與合法性,這點(diǎn)在《建議稿》第35條規(guī)定中得到充分展現(xiàn)。通過(guò)此類制度設(shè)計(jì),確保技術(shù)進(jìn)步與倫理價(jià)值并行不悖,為AIGC的可持續(xù)發(fā)展奠定基礎(chǔ)。不過(guò),《建議稿》雖為可信治理設(shè)定了原則與框架,但在實(shí)際操作層面還需根據(jù)技術(shù)發(fā)展與社會(huì)需求的動(dòng)態(tài)變化進(jìn)行適時(shí)調(diào)整和創(chuàng)新。對(duì)此,亟需以可信治理六大標(biāo)準(zhǔn)為治理基點(diǎn),構(gòu)建分層級(jí)的可信治理體系(見(jiàn)表1),并將該體系內(nèi)容落實(shí)到數(shù)據(jù)風(fēng)險(xiǎn)治理架構(gòu)、侵權(quán)風(fēng)險(xiǎn)防范與歸責(zé)體系、倫理治理制度中,以加快推進(jìn)AIGC產(chǎn)業(yè)的可信發(fā)展。
4.1完善數(shù)據(jù)風(fēng)險(xiǎn)治理架構(gòu)
數(shù)據(jù)偏見(jiàn)風(fēng)險(xiǎn)監(jiān)管應(yīng)重視數(shù)據(jù)收集與流動(dòng)階段,還應(yīng)關(guān)注如何實(shí)現(xiàn)數(shù)據(jù)供養(yǎng)的倫理良善,以促進(jìn)算法倫理的向善發(fā)展。數(shù)據(jù)風(fēng)險(xiǎn)監(jiān)管應(yīng)由個(gè)人數(shù)據(jù)保護(hù)轉(zhuǎn)向數(shù)據(jù)使用者行為規(guī)范,通過(guò)完善數(shù)據(jù)風(fēng)險(xiǎn)治理架構(gòu),預(yù)防相關(guān)決策錯(cuò)誤。實(shí)操層面,可基于《建議稿》第45、第78條規(guī)定,從跨國(guó)協(xié)同治理與內(nèi)部精細(xì)治理兩大基礎(chǔ)架構(gòu)展開(kāi),以遵循可靠性標(biāo)準(zhǔn)。
(1)跨國(guó)協(xié)同治理指建立一套高效的跨境數(shù)據(jù)審查機(jī)制。當(dāng)前,我國(guó)在跨境數(shù)據(jù)監(jiān)管層面面臨諸多挑戰(zhàn):第一,全球數(shù)據(jù)治理規(guī)則的競(jìng)爭(zhēng)日益激烈。數(shù)據(jù)作為當(dāng)代世界的關(guān)鍵資源,正逐漸成為各國(guó)競(jìng)逐的焦點(diǎn)。在此背景下,各主權(quán)國(guó)家紛紛出臺(tái)以自身利益為導(dǎo)向的數(shù)據(jù)治理法規(guī),意圖在國(guó)際數(shù)據(jù)治理版圖中占據(jù)有利位置。然而,這種趨向于碎片化的國(guó)際規(guī)則體系,將對(duì)全球數(shù)據(jù)自由流動(dòng)造成阻礙,增加跨境數(shù)據(jù)交流的不確定性和風(fēng)險(xiǎn)。第二,行業(yè)內(nèi)部數(shù)據(jù)監(jiān)管的薄弱環(huán)節(jié)不容忽視。數(shù)據(jù)驅(qū)動(dòng)型經(jīng)濟(jì)迅猛發(fā)展,數(shù)據(jù)安全漏洞頻現(xiàn),直接威脅到企業(yè)乃至國(guó)家信息安全。數(shù)據(jù)泄露與濫用事件頻發(fā),揭示了現(xiàn)有監(jiān)管機(jī)制在適應(yīng)數(shù)字經(jīng)濟(jì)快速發(fā)展方面存在明顯滯后,亟待強(qiáng)化和完善。第三,跨境數(shù)據(jù)安全保護(hù)工作面臨前所未有的挑戰(zhàn)。數(shù)據(jù)跨境流動(dòng)跨越不同國(guó)家的法律邊界,觸及多元化法律體系,加之各國(guó)監(jiān)管技術(shù)與能力參差不齊,無(wú)疑加大了跨境數(shù)據(jù)安全的管控難度。如何在尊重各國(guó)主權(quán)的前提下,實(shí)現(xiàn)數(shù)據(jù)流動(dòng)的安全可控,成為擺在國(guó)際社會(huì)面前的一道難題。鑒于此,加強(qiáng)國(guó)際對(duì)話與合作,共謀解決方案,顯得尤為重要:一方面,我國(guó)應(yīng)主動(dòng)融人國(guó)際數(shù)據(jù)治理大潮,與諸如亞太經(jīng)濟(jì)合作組織(APEC)等國(guó)際平臺(tái)保持密切溝通與協(xié)作,推動(dòng)全球范圍內(nèi)對(duì)GDPR等高標(biāo)準(zhǔn)數(shù)據(jù)保護(hù)規(guī)范的認(rèn)可度與執(zhí)行度。通過(guò)多邊機(jī)制下的談判與協(xié)商,共同探索跨境數(shù)據(jù)流動(dòng)的合理規(guī)則,消弭國(guó)際規(guī)則碎片化現(xiàn)象,構(gòu)建公正、透明且高效的全球數(shù)據(jù)治理體系。另一方面,基于《全球數(shù)據(jù)安全倡議》框架,我國(guó)需進(jìn)一步深化跨境數(shù)據(jù)流動(dòng)的治理機(jī)制建設(shè)。應(yīng)著眼數(shù)據(jù)本地化政策設(shè)計(jì)與實(shí)踐,確保關(guān)鍵數(shù)據(jù)與敏感信息安全,同時(shí),強(qiáng)化隱私保護(hù)措施,構(gòu)筑堅(jiān)實(shí)防線,保障個(gè)人數(shù)據(jù)在跨境傳輸過(guò)程中的完整性和隱私權(quán)。此外,建立健全跨境綜合執(zhí)法協(xié)調(diào)機(jī)制,提升數(shù)據(jù)監(jiān)管領(lǐng)域的國(guó)際協(xié)作效能,共同抵御數(shù)據(jù)安全威脅,維護(hù)全球數(shù)字生態(tài)的健康穩(wěn)定發(fā)展。
(2)內(nèi)部精細(xì)治理指構(gòu)建數(shù)據(jù)使用的內(nèi)部審查與行政審批機(jī)制。通過(guò)制定詳盡的規(guī)章制度與操作流程,確保數(shù)據(jù)在企業(yè)內(nèi)部的流轉(zhuǎn)和應(yīng)用遵循最高標(biāo)準(zhǔn)的倫理準(zhǔn)則與安全規(guī)范。第一,強(qiáng)化企業(yè)數(shù)據(jù)倫理教育是實(shí)現(xiàn)內(nèi)部精細(xì)治理的基石。在我國(guó)AIGC產(chǎn)業(yè)版圖中,騰訊、百度、阿里巴巴等是技術(shù)創(chuàng)新的引領(lǐng)者,提升這些企業(yè)在數(shù)據(jù)使用方面的合規(guī)意識(shí)與專業(yè)素養(yǎng)顯得尤為緊迫。企業(yè)應(yīng)定期舉辦數(shù)據(jù)倫理培訓(xùn)、研討會(huì)與實(shí)戰(zhàn)演練,全方位增強(qiáng)員工對(duì)數(shù)據(jù)倫理原則的理解與遵守,構(gòu)建既懂技術(shù)又具備高度責(zé)任感與道德感的復(fù)合型人才隊(duì)伍。第二,針對(duì)AIGC模型訓(xùn)練過(guò)程中的數(shù)據(jù)使用行為,建立健全數(shù)據(jù)審批與監(jiān)控機(jī)制至關(guān)重要。這要求企業(yè)制定并執(zhí)行嚴(yán)格的數(shù)據(jù)采集、清洗及使用流程,確保數(shù)據(jù)來(lái)源的合法性和可靠性。同時(shí),對(duì)數(shù)據(jù)訓(xùn)練階段進(jìn)行全程監(jiān)督,及時(shí)發(fā)現(xiàn)并糾正潛在的數(shù)據(jù)偏見(jiàn)與算法歧視現(xiàn)象,保障算法模型的公正性與客觀性[24]。此外,預(yù)設(shè)應(yīng)急響應(yīng)計(jì)劃,一旦遭遇數(shù)據(jù)安全危機(jī)或倫理爭(zhēng)議,能夠迅速啟動(dòng)預(yù)案,采取有效措施,最大限度減少不良影響,維護(hù)企業(yè)和行業(yè)整體聲譽(yù)。第三,強(qiáng)化政府與企業(yè)間協(xié)同作用,共同推進(jìn)數(shù)據(jù)倫理審查標(biāo)準(zhǔn)制定與落實(shí)。政府應(yīng)發(fā)揮引導(dǎo)與監(jiān)管職能,制定清晰的數(shù)據(jù)倫理框架,而企業(yè)應(yīng)積極響應(yīng),將這一框架內(nèi)化為企業(yè)文化和日常運(yùn)營(yíng)的一部分。雙方攜手共建數(shù)據(jù)倫理審查體系,覆蓋數(shù)據(jù)生命周期的各個(gè)環(huán)節(jié),對(duì)不同類型的數(shù)據(jù)實(shí)行差異化審查,特別關(guān)注高敏感度與高風(fēng)險(xiǎn)級(jí)別的數(shù)據(jù),確保其在AIGC生成過(guò)程中得到妥善處理,避免數(shù)據(jù)偏見(jiàn)轉(zhuǎn)化為算法輸出的“可靠性\"瑕疵,維護(hù)用戶權(quán)益,促進(jìn)產(chǎn)業(yè)健康發(fā)展[25]
4.2優(yōu)化侵權(quán)風(fēng)險(xiǎn)防范與歸責(zé)體系
根據(jù)侵權(quán)法原理,責(zé)任歸因要求明確的行為主體以及所產(chǎn)生后果與行為之間存在因果關(guān)系。然而,AIGC存在自主性和不可預(yù)測(cè)性,導(dǎo)致傳統(tǒng)的“主體—行為一責(zé)任\"模式難以適用,進(jìn)而引發(fā)“責(zé)任鴻溝\"難題(張凌寒,2021)。應(yīng)基于AIGC的技術(shù)特性,從主體義務(wù)、產(chǎn)品缺陷、侵權(quán)責(zé)任分配層面出發(fā),落實(shí)“可問(wèn)責(zé)性\"標(biāo)準(zhǔn)。
對(duì)主體義務(wù)而言,需基于《建議稿》第四章第一節(jié)相關(guān)規(guī)定,確定AIGC生態(tài)鏈中各參與方所面臨的侵權(quán)風(fēng)險(xiǎn),并據(jù)此確立其風(fēng)險(xiǎn)防控職責(zé)。鑒于開(kāi)發(fā)者對(duì)AIGC技術(shù)架構(gòu)及其潛在隱患有著更為深刻的認(rèn)知,其義務(wù)設(shè)定理應(yīng)遵循“高標(biāo)準(zhǔn)”原則。這不僅意味著AIGC研發(fā)初期即需融入前瞻性安全防護(hù)機(jī)制,確保技術(shù)設(shè)計(jì)本身具備抵御外部威脅的能力,同時(shí),要求開(kāi)發(fā)者保持對(duì)產(chǎn)品安全性的動(dòng)態(tài)維護(hù),定期升級(jí)補(bǔ)丁以封堵新出現(xiàn)的漏洞,并公開(kāi)透明地披露AIGC系統(tǒng)的功能界限與安全性能指標(biāo),以此增進(jìn)用戶信任、提高行業(yè)透明度。對(duì)于服務(wù)提供者而言,其核心義務(wù)聚焦于是否切實(shí)履行對(duì)AIGC生成內(nèi)容的有效管理和持續(xù)監(jiān)控。這要求平臺(tái)運(yùn)營(yíng)商建立健全內(nèi)容審核制度,運(yùn)用技術(shù)手段識(shí)別與過(guò)濾不當(dāng)信息,及時(shí)響應(yīng)用戶反饋與社會(huì)關(guān)切,維護(hù)網(wǎng)絡(luò)空間健康秩序。而用戶作為AIGC技術(shù)的直接受益者,其義務(wù)集中體現(xiàn)在是否嚴(yán)格遵守使用協(xié)議及現(xiàn)行法律法規(guī),秉持合理利用原則,避免不當(dāng)行為對(duì)個(gè)人隱私、知識(shí)產(chǎn)權(quán)乃至公共利益造成損害。從理論視角看,上述差異化的義務(wù)配置策略是過(guò)錯(cuò)責(zé)任與風(fēng)險(xiǎn)責(zé)任兩大原則的有機(jī)結(jié)合。過(guò)錯(cuò)責(zé)任原則強(qiáng)調(diào)行為人須為其可預(yù)見(jiàn)的不當(dāng)行為承擔(dān)責(zé)任,而風(fēng)險(xiǎn)責(zé)任原則側(cè)重考量行為人在特定技術(shù)環(huán)境下承載的風(fēng)險(xiǎn)負(fù)擔(dān)。在AIGC領(lǐng)域,這一結(jié)合旨在通過(guò)對(duì)各主體在技術(shù)鏈條中作用力的精確衡量,合理分配法律責(zé)任,確保技術(shù)革新與社會(huì)倫理價(jià)值之間的和諧共生,最終達(dá)成科技進(jìn)步與社會(huì)責(zé)任的動(dòng)態(tài)平衡[26]。
從產(chǎn)品缺陷看,《中華人民共和國(guó)產(chǎn)品質(zhì)量法》為AIGC產(chǎn)品缺陷處理提供了基本框架,但仍需進(jìn)行適當(dāng)調(diào)整?!吨腥A人民共和國(guó)產(chǎn)品質(zhì)量法》第40條與第41條規(guī)定確立了產(chǎn)品缺陷責(zé)任的基本范式,即圍繞設(shè)計(jì)缺陷與制造缺陷展開(kāi),但在AIGC領(lǐng)域,這一傳統(tǒng)二分法面臨嚴(yán)峻挑戰(zhàn)。鑒于AIGC系統(tǒng)內(nèi)嵌的自我進(jìn)化能力,其設(shè)計(jì)與制造之間的邊界變得異常模糊,這要求對(duì)產(chǎn)品缺陷概念進(jìn)行深度重構(gòu),以建立更加貼合實(shí)際的適用標(biāo)準(zhǔn)。第一,關(guān)于AIGC的設(shè)計(jì)缺陷,不應(yīng)局限于算法初始結(jié)構(gòu)的審視,而應(yīng)擴(kuò)展至算法學(xué)習(xí)過(guò)程與輸出結(jié)果的可控性。這意味著,設(shè)計(jì)缺陷的判斷需納入算法在學(xué)習(xí)周期內(nèi)的表現(xiàn),考察其能否在預(yù)設(shè)的合理范圍內(nèi)預(yù)見(jiàn)并管控潛在風(fēng)險(xiǎn)。對(duì)于制造缺陷,考慮到AIGC從構(gòu)想到實(shí)際部署的全生命周期,應(yīng)全面評(píng)估每一環(huán)節(jié)的質(zhì)量保障與安全防范措施,確保從理論到實(shí)踐的無(wú)縫對(duì)接。第二,鑒于AIGC行為模式的動(dòng)態(tài)性,其反應(yīng)機(jī)制與生成內(nèi)容會(huì)隨訓(xùn)練數(shù)據(jù)的累積而自我優(yōu)化,因此,有必要引入“行為”缺陷這一新穎概念,以涵蓋AIGC商業(yè)應(yīng)用后可能顯現(xiàn)的新興風(fēng)險(xiǎn)?;诖耍凇督ㄗh稿》第42條規(guī)定的指引下,構(gòu)建一套動(dòng)態(tài)責(zé)任認(rèn)定機(jī)制顯得尤為關(guān)鍵。這一機(jī)制的核心在于,適時(shí)調(diào)整AIGC責(zé)任歸屬的判定標(biāo)準(zhǔn),涵蓋但不限于設(shè)計(jì)階段的風(fēng)險(xiǎn)預(yù)測(cè)能力、市場(chǎng)投放后的性能穩(wěn)定性監(jiān)測(cè),以及用戶反饋驅(qū)動(dòng)的產(chǎn)品迭代對(duì)整體品質(zhì)的影響評(píng)估。同時(shí),《建議稿》第61條規(guī)定提出的分級(jí)分類監(jiān)管策略,為應(yīng)對(duì)AIGC技術(shù)的快速迭代提供了靈活解決方案。根據(jù)不同AIGC產(chǎn)品的風(fēng)險(xiǎn)等級(jí),量身定制差異化監(jiān)管尺度,既能保證監(jiān)管的有效性,又能避免過(guò)度干預(yù)扼殺創(chuàng)新活力。例如,引入獨(dú)立的第三方評(píng)估機(jī)構(gòu),定期對(duì)各類AIGC產(chǎn)品進(jìn)行風(fēng)險(xiǎn)評(píng)估,風(fēng)險(xiǎn)等級(jí)越高,相應(yīng)的審查標(biāo)準(zhǔn)越嚴(yán)格,從而確保監(jiān)管舉措與技術(shù)發(fā)展步調(diào)保持一致。
在侵權(quán)責(zé)任分配方面,應(yīng)遵循《建議稿》第85至91條規(guī)定,秉持個(gè)案具體分析的核心原則。這一原則強(qiáng)調(diào),在處理侵權(quán)糾紛時(shí),需細(xì)致剖析各參與方在特定事件中的實(shí)際作用與相對(duì)責(zé)任,尤其當(dāng)用戶行為存在過(guò)失時(shí),適度調(diào)整服務(wù)提供者的法律責(zé)任成為必要之舉。以AIGC生成并散布虛假信息的場(chǎng)景為例,侵權(quán)責(zé)任的歸咎需區(qū)分兩種情境,以實(shí)現(xiàn)公正與合理性。第一,當(dāng)虛假信息系用戶主動(dòng)引導(dǎo)AIGC生成并傳播時(shí),AIGC可視為用戶行為的輔助工具。鑒于當(dāng)前AIGC服務(wù)提供者并不具備傳統(tǒng)網(wǎng)絡(luò)平臺(tái)對(duì)內(nèi)容審查的同等能力,若用戶行為明顯不當(dāng),且服務(wù)提供者能有效證明虛假信息的產(chǎn)生并非源于自身產(chǎn)品缺陷,那么侵權(quán)責(zé)任應(yīng)首要由用戶承擔(dān)。反之,若服務(wù)提供者的產(chǎn)品存在瑕疵導(dǎo)致虛假信息生成,則服務(wù)提供者應(yīng)與用戶共同承擔(dān)責(zé)任。第二,若用戶并無(wú)生成虛假信息的主觀意圖,而虛假信息系A(chǔ)IGC系統(tǒng)自主生成并傳播,那么AIGC在侵權(quán)過(guò)程中扮演主導(dǎo)角色。在服務(wù)提供者無(wú)法提出有效抗辯的情況下,應(yīng)承擔(dān)相應(yīng)侵權(quán)責(zé)任。鑒于AIGC產(chǎn)品本身的復(fù)雜性和不可控因素,借鑒避風(fēng)港原則,合理限制服務(wù)提供者的責(zé)任邊界并明確其免責(zé)條件顯得尤為重要。這一做法旨在平衡服務(wù)提供者在推動(dòng)AIGC技術(shù)進(jìn)步中的積極作用與潛在的法律責(zé)任,避免因過(guò)分苛責(zé)而抑制創(chuàng)新動(dòng)力。在責(zé)任分配實(shí)踐中,對(duì)于服務(wù)提供者是否應(yīng)當(dāng)承擔(dān)補(bǔ)充責(zé)任,需綜合評(píng)估侵權(quán)行為的范圍、損害后果的嚴(yán)重性以及服務(wù)提供者預(yù)防損失擴(kuò)大的能力等因素,進(jìn)而構(gòu)建既能促進(jìn)AIGC技術(shù)可信發(fā)展又能有效保護(hù)受害者權(quán)益的法律框架。通過(guò)精細(xì)化的責(zé)任界定與分配機(jī)制,引導(dǎo)AIGC產(chǎn)業(yè)健康有序成長(zhǎng),并在侵權(quán)糾紛中實(shí)現(xiàn)公平正義,為技術(shù)與社會(huì)和諧共生奠定堅(jiān)實(shí)基礎(chǔ)。
4.3健全倫理治理制度
面對(duì)AI領(lǐng)域日益凸顯的倫理風(fēng)險(xiǎn),學(xué)界與社會(huì)的廣泛關(guān)注推動(dòng)一系列新興倫理學(xué)分支的萌芽與發(fā)展,其中,計(jì)算道德與機(jī)器人倫理學(xué)尤為引人注目。這些領(lǐng)域不僅探討了AI在倫理決策中的角色,還孕育出人工道德行為體這一新概念。不同于傳統(tǒng)的工具觀,這一概念認(rèn)為AI系統(tǒng)不應(yīng)僅被視為被動(dòng)的執(zhí)行工具,其是一種具備一定意識(shí)與情感特質(zhì)的“有限行為體”,擁有類人的屬性,因而需承擔(dān)與其能力相匹配的道德責(zé)任[27]。盡管如此,AI與人類之間仍存在本質(zhì)差異,其未展現(xiàn)生命體征,且在實(shí)踐層面上,AI更多地扮演輔助人類活動(dòng)的角色?!耙匀藶楸尽崩砟畛蔀锳IGC倫理風(fēng)險(xiǎn)治理的核心出發(fā)點(diǎn),這意味著,無(wú)論技術(shù)如何演進(jìn),人類作為社會(huì)行動(dòng)的核心主體,其利益與福祉應(yīng)始終置于首位,確保技術(shù)發(fā)展不至于將人類異化為純粹的工具。所有AI應(yīng)用都應(yīng)致力于增強(qiáng)人類的主體性與尊嚴(yán),而非削弱之。具體到操作層面,實(shí)現(xiàn)這一目標(biāo)涉及兩個(gè)關(guān)鍵維度:一是構(gòu)建專門的AIGC倫理治理機(jī)構(gòu),該機(jī)構(gòu)旨在指導(dǎo)與監(jiān)督相關(guān)領(lǐng)域倫理實(shí)踐,增強(qiáng)AIGC系統(tǒng)的可控性,確保其運(yùn)作符合倫理準(zhǔn)則;二是運(yùn)用政策、法律和技術(shù)手段的多元協(xié)同優(yōu)勢(shì),確立并實(shí)施公平性、安全性與可解釋性等核心標(biāo)準(zhǔn),引領(lǐng)AIGC向更加公正、安全和透明的方向發(fā)展。
4.3.1 建立AIGC倫理治理機(jī)構(gòu)
(1)根據(jù)《建議稿》第3條規(guī)定,構(gòu)建AIGC倫理治理機(jī)構(gòu)的核心原則應(yīng)聚焦于維護(hù)人類主體地位與福祉。首先,確保人類決策自主權(quán)不受侵蝕,即便AIGC能提供決策輔助,人類的最終決策權(quán)仍須牢牢把握。治理機(jī)構(gòu)有責(zé)任制定規(guī)則,強(qiáng)化人類在AIGC使用中的主導(dǎo)地位,規(guī)避過(guò)度依賴導(dǎo)致的風(fēng)險(xiǎn),確保個(gè)體判斷力與自主選擇權(quán)。其次,以增進(jìn)人類福祉為導(dǎo)向,治理機(jī)構(gòu)應(yīng)嚴(yán)格審視AIGC應(yīng)用場(chǎng)景,預(yù)防社會(huì)不公、隱私侵害及社會(huì)分裂等負(fù)面效應(yīng),開(kāi)展全面?zhèn)惱碓u(píng)估,及時(shí)識(shí)別并化解潛在倫理沖突。最后,實(shí)行嚴(yán)格倫理審查,所有AIGC應(yīng)用上市前須經(jīng)過(guò)倫理檢驗(yàn),確保其尊重人權(quán),涵蓋內(nèi)容安全、知識(shí)產(chǎn)權(quán)保護(hù)、數(shù)據(jù)安全等多方面內(nèi)容,綜合審查技術(shù)可控性與社會(huì)、文化、心理方面的影響,確保技術(shù)進(jìn)步與倫理價(jià)值并行不悖。
(2)依據(jù)《建議稿》第27、30、68條規(guī)定,AIGC倫理治理機(jī)構(gòu)應(yīng)由具備跨學(xué)科背景與豐富經(jīng)驗(yàn)的專業(yè)人士構(gòu)成,他們需深刻理解AIGC技術(shù)原理、發(fā)展趨勢(shì)及法律、倫理、社會(huì)學(xué)等多領(lǐng)域知識(shí)。通過(guò)專業(yè)團(tuán)隊(duì)的審查與監(jiān)管,確保AIGC活動(dòng)在倫理框架內(nèi)有序開(kāi)展。地方層面,我國(guó)已先行探索AI倫理治理機(jī)制,如上海成立科技倫理與科研誠(chéng)信協(xié)調(diào)機(jī)構(gòu),設(shè)立覆蓋生命科學(xué)、醫(yī)學(xué)、AI領(lǐng)域的專家委員會(huì),深圳依據(jù)《深圳經(jīng)濟(jì)特區(qū)人工智能產(chǎn)業(yè)促進(jìn)條例》設(shè)立AI倫理委員會(huì),專司AI倫理監(jiān)督指導(dǎo)。相關(guān)實(shí)踐積累了寶貴經(jīng)驗(yàn),應(yīng)加以推廣,確保地方政策與技術(shù)發(fā)展同步,有效應(yīng)對(duì)倫理挑戰(zhàn)。
(3)遵循《建議稿》第42、64條規(guī)定,AIGC倫理治理機(jī)構(gòu)應(yīng)持續(xù)評(píng)估倫理風(fēng)險(xiǎn),建立健全安全標(biāo)準(zhǔn)與規(guī)范體系,實(shí)現(xiàn)對(duì)AIGC全生命周期的監(jiān)管。政府應(yīng)采取預(yù)防措施,比如搭建AIGC評(píng)估監(jiān)測(cè)平臺(tái),確保技術(shù)安全可控。同時(shí),依據(jù)《建議稿》第14條規(guī)定,規(guī)劃AIGC發(fā)展方向,促使其服務(wù)于社會(huì)公益。如在勞動(dòng)權(quán)益保護(hù)方面,政府需提供職業(yè)轉(zhuǎn)型培訓(xùn)、失業(yè)救濟(jì)與再就業(yè)支持,緩解AIGC引發(fā)的就業(yè)壓力。此外,構(gòu)建多層次、多部門協(xié)同的倫理治理網(wǎng)絡(luò),各級(jí)倫理委員會(huì)間形成聯(lián)動(dòng),政府與企業(yè)合作構(gòu)建共治格局,共同推進(jìn)AIGC倫理治理體系完善與成熟。
4.3.2發(fā)揮政策、法律和技術(shù)手段的多元協(xié)同優(yōu)勢(shì)
(1)在《建議稿》第38條規(guī)定的指導(dǎo)下,保護(hù)數(shù)字弱勢(shì)群體的權(quán)益,警惕并消除可能滋生的歧視與偏見(jiàn)。將公正、平等、誠(chéng)信原則融入AIGC設(shè)計(jì)與應(yīng)用中,以倫理導(dǎo)向驅(qū)動(dòng)技術(shù)創(chuàng)新。具體而言,可以實(shí)施“倫理傾向測(cè)試”,將倫理考量納入AIGC產(chǎn)品質(zhì)量評(píng)價(jià)體系,確保技術(shù)進(jìn)步的同時(shí)促進(jìn)社會(huì)公平正義:一方面,在AIGC研發(fā)初期即植入正確的價(jià)值導(dǎo)向,注重技術(shù)的社會(huì)影響評(píng)估;另一方面,建立價(jià)值觀偏離修正機(jī)制,通過(guò)算法調(diào)整與倫理訓(xùn)練,引導(dǎo)AIGC產(chǎn)出正向社會(huì)反饋,契合人類倫理標(biāo)準(zhǔn)與道德期待。
(2)依據(jù)《建議稿》第63、67條規(guī)定,構(gòu)建多元主體參與的倫理風(fēng)險(xiǎn)監(jiān)控與危機(jī)應(yīng)對(duì)機(jī)制,增強(qiáng)AIGC生態(tài)的安全韌性。智能監(jiān)測(cè)作為基石,涵蓋對(duì)數(shù)據(jù)源、算法架構(gòu)、應(yīng)用場(chǎng)景等全方位實(shí)時(shí)監(jiān)控,及時(shí)預(yù)警潛在威脅。風(fēng)險(xiǎn)評(píng)估為核心環(huán)節(jié),需綜合技術(shù)特性、社會(huì)環(huán)境、文化差異等維度,確保評(píng)估結(jié)果的全面性與客觀性,為策略制定提供堅(jiān)實(shí)依據(jù)。在此基礎(chǔ)上,制定精細(xì)化應(yīng)急措施,涵蓋技術(shù)優(yōu)化與管理升級(jí),從根源上抑制風(fēng)險(xiǎn),保障AIGC穩(wěn)定運(yùn)行。例如,針對(duì)虛假信息傳播,通過(guò)算法迭代與人工復(fù)核相結(jié)合的方式加強(qiáng)內(nèi)容真實(shí)性驗(yàn)證;對(duì)于隱私泄露風(fēng)險(xiǎn),利用加密算法與數(shù)據(jù)匿名化技術(shù),構(gòu)筑用戶隱私保護(hù)屏障。
(3)為破解AIGC決策“黑箱”,可根據(jù)《建議稿》第35條規(guī)定,建立算法解釋制度,確保決策過(guò)程的透明度與可理解性,降低算法歧視的可能性。第一,建立健全算法審查體系,算法構(gòu)思階段即嵌入公平正義理念,通過(guò)明確的審查準(zhǔn)則,篩查算法設(shè)計(jì)中可能存在的偏見(jiàn)與歧視,實(shí)現(xiàn)算法邏輯的全程追蹤與公正審視。第二,開(kāi)發(fā)用戶友好的算法審計(jì)工具,便于非技術(shù)背景的監(jiān)管者乃至普通民眾解讀算法邏輯,評(píng)估決策合理性與潛在社會(huì)影響,構(gòu)建廣泛的社會(huì)監(jiān)督網(wǎng)絡(luò),促進(jìn)技術(shù)民主化進(jìn)程。第三,設(shè)置反饋與復(fù)審機(jī)制,確保受影響個(gè)體或群體有權(quán)質(zhì)疑算法決策,申請(qǐng)復(fù)核。這既能為遭受不公對(duì)待者提供申訴途徑,也能促使算法設(shè)計(jì)者持續(xù)自我反思與優(yōu)化,維護(hù)算法決策的公正。
5結(jié)語(yǔ)
“可信治理\"作為AIGC產(chǎn)業(yè)發(fā)展的核心訴求,其六大治理標(biāo)準(zhǔn)一一可控性、可問(wèn)責(zé)性、公平性、可靠性、可解釋性和安全性,不僅是理論框架的基石,更是實(shí)踐操作的指南。通過(guò)深人剖析《建議稿》可知,法律與政策的前瞻性布局對(duì)于指導(dǎo)AIGC倫理風(fēng)險(xiǎn)治理至關(guān)重要。技術(shù)倫理風(fēng)險(xiǎn)治理不能孤立于技術(shù)進(jìn)步之外,針對(duì)算法歧視加劇、責(zé)任追究困境、人類主體地位削弱等風(fēng)險(xiǎn),必須兼顧技術(shù)、法律、倫理多個(gè)維度制定解決方案。對(duì)此,完善數(shù)據(jù)風(fēng)險(xiǎn)治理架構(gòu)、優(yōu)化侵權(quán)風(fēng)險(xiǎn)防范與歸責(zé)體系、健全倫理治理制度,是推動(dòng)AIGC可信發(fā)展的必經(jīng)之路。同時(shí),面對(duì)AIGC倫理風(fēng)險(xiǎn)的全球性挑戰(zhàn),本土化的治理策略需在國(guó)際交流和合作中不斷磨合與優(yōu)化,持續(xù)審視技術(shù)發(fā)展與社會(huì)倫理的動(dòng)態(tài)平衡,確保AIGC的創(chuàng)新潛能在尊重人權(quán)、促進(jìn)公平與正義的前提下得以釋放。
未來(lái)應(yīng)進(jìn)一步結(jié)合市場(chǎng)發(fā)展情況與我國(guó)國(guó)情,以可信治理為核心,以《建議稿》為出發(fā)點(diǎn),構(gòu)建全方位的AIGC倫理風(fēng)險(xiǎn)治理體系。另外,還需在倫理治理領(lǐng)域進(jìn)行持續(xù)探索,關(guān)注如何將技術(shù)倫理與法律治理有機(jī)結(jié)合,以制定具有中國(guó)特色的AI倫理治理方案,順應(yīng)乃至引領(lǐng)全球新一輪數(shù)字經(jīng)濟(jì)高質(zhì)量發(fā)展。
參考文獻(xiàn):
[1] 劉艷紅.生成式人工智能的三大安全風(fēng)險(xiǎn)及法律規(guī)制—以ChatGPT為例[J].東方法學(xué),2023,16(4):29-43.
[2] 陳兵.生成式人工智能可信發(fā)展的法治基礎(chǔ)[J].上海政法學(xué)院學(xué)報(bào)(法治論叢),2023,38(4):13-27.
[3] 陳兵,董思琰.生成式人工智能的算法風(fēng)險(xiǎn)及治理基點(diǎn)[J]學(xué)習(xí)與實(shí)踐,2023,40(10):22-31.
[4] 陸小華,陸賽賽.論生成式人工智能侵權(quán)的責(zé)任主體——以集體主義為視角[J].南昌大學(xué)學(xué)報(bào)(人文社會(huì)科學(xué)版),2024,55(1):119-131.
[5] MARCHANDOTB,MATSUSHITAK,CARMONAA,etal.ChatGPT:the next frontierin academicwritingforcar-diologistsoraPandora'sboxofethicaldilemmasJ.Euro-pean Heart Journal Open,2023,3(2):oead007.
[6]RICH A S,GURECKIS T M. Lessons for artificial intelli-gence from the study of natural stupidity[J].Nature Ma-chineIntelligence,2019,1(4):174-180.
[7] GOODWIN M. Complicit bias and the supreme court[J].HarvardLawReview Forum,2022,52(2):107-119.
[8] 呂雪梅.美國(guó)預(yù)測(cè)警務(wù)中基于大數(shù)據(jù)的犯罪情報(bào)分析[J].情報(bào)雜志,2015,34(12):16-20.
[9]許中緣,鄭煌杰.ChatGPT類應(yīng)用風(fēng)險(xiǎn)的治理誤區(qū)及其修正——從“重構(gòu)式規(guī)制”到“階段性治理”[J].河南社會(huì)科學(xué),2023,31(10):50-62.
[10]彭中禮.新興技術(shù)推動(dòng)法理論變革的因素考量——以人工智能產(chǎn)品侵權(quán)責(zé)任分配理論為例的反思[J].甘肅社會(huì)科學(xué),2022,44(4):115-128.
[11]付其運(yùn).人工智能非主體性前提下侵權(quán)責(zé)任承擔(dān)機(jī)制研究[J].法學(xué)雜志,2021,42(4):83-90.
[12]坤海,徐來(lái).人工智能對(duì)侵權(quán)責(zé)任構(gòu)成要件的挑戰(zhàn)及應(yīng)對(duì)[J].重慶社會(huì)科學(xué),2019,37(2):55-65.
[13]HYLAND T. Artificial Intelligence(AI) developmentsand their implications for humankind:a critical analysis ofcontemporary trends and perspectives[J]. Current Journalof Applied Science and Technology,2023,42(21) :12-26.
[14] STOKEL-WALKER C,VAN NOORDEN R. What Chat-GPT and generative AI mean for science[J]. Nature,2023,614(7947) :214-216.
[15]郭金彬,黃長(zhǎng)平.哥德?tīng)柌煌耆远ɡ淼目茖W(xué)推理意義[J].自然辯證法通訊,2010,32(2):15-20,126.
[16]賈麗艷.海德格爾的技術(shù)哲學(xué):祛魅與返魅的存在論反思[J].社會(huì)科學(xué)研究,2024,46(2):153-159.
[17]陳志剛.馬克思的工具理性批判思想——兼與韋伯思想的比較[J].科學(xué)技術(shù)與辯證法,2001,38(6):38-41,67.
[18]余成峰.盧曼社會(huì)系統(tǒng)論視野下的法律功能[J].北京航空航天大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2021,34(1):31-41.
[19]蘭立山.技術(shù)治理的倫理風(fēng)險(xiǎn)及其應(yīng)對(duì)之策[J].道德與文明,2023,42(5):159-167.
[20]勞倫斯·萊斯格.代碼2.0:網(wǎng)絡(luò)空間中的法律[M].北京:清華大學(xué)出版社,2009.
[21]張慧敏,陳凡.從自主的技術(shù)到技術(shù)的政治—L·溫納(LangdonWinner)的技術(shù)哲學(xué)思想及啟示[J].自然辯證法研究,2004,20(8):61-64.
[22]雷·庫(kù)茲韋爾.靈魂機(jī)器的時(shí)代:當(dāng)計(jì)算機(jī)超過(guò)人類智能時(shí)[M.上海:上海譯文出版社,2002.
[23]SHARMA A. The escalation of ChatGPT:how ChatGPTwill exert influence on the legal profession[J].Jus CorpusLaw Journal,2022,43(3):95-106.
[24]張春春,孫瑞英.如何走出AIGC的“科林格里奇困境”:全流程動(dòng)態(tài)數(shù)據(jù)合規(guī)治理[J].圖書(shū)情報(bào)知識(shí),2024,41(2):39-49,66.
[25]袁康,鄢浩宇.數(shù)據(jù)分類分級(jí)保護(hù)的邏輯厘定與制度構(gòu)建——以重要數(shù)據(jù)識(shí)別和管控為中心[J].中國(guó)科技論壇,2022,38(7) : 167-177.
[26]盧彪,姚萍.技術(shù)時(shí)代的責(zé)任風(fēng)險(xiǎn)與防范[J].江蘇社會(huì)科學(xué),2013,34(2):109-112.
[27]馮子軒.生成式人工智能應(yīng)用的倫理立場(chǎng)與治理之道:以ChatGPT為例[J].華東政法大學(xué)學(xué)報(bào),2024,27(1):61-71.(青任纻輯萬(wàn)豎賢)
Ethical Risks and Trusted Governance Pathways of Generative Artificial Intelligence
Zheng Huangjie (School of Law,Central South University,Changsha 41oo83,China)
Abstract:Atthemoment when AItechnologyis fully penetrated intoallfields ofsociallife,theriseof AIGC(Artificial Intellgence Generated Content)represented by ChatGPT,Sora and ERNIE Bot marks the leapof AItechnologytoa new stageof development,and indicates theapproachof theeraof \"artificial general intellgence\".However,while AIGC greatlyamplifies human innovation potential,it alsopresentsconsiderablechalenges to the existing ethical governance system.Against this backdrop,thisarticle examines thecurrent state and future trends of AIGCin China,analyzing its ethical risksand generativelogic.Drawing from the ethical risk governance trends of AIGC globaly,the article proposes a governance framework thatis notonlyattuned to China’s nationalcontext butalsoforward-looking.This is aimed atproviding robust theoretical guidance and practical paths for the standardized development of AIGC.
This study commences with an analysis of the potential ethical risks asociated with AIGC,considering its technical atributes.Initially,itaddressestheriskofethicalvalueimbalance,primarilyevidentintheintensificationofalgorithmic discrimination.Folowing this,itexaminestheriskof ethicalnormsbeing beyondcontrol,whichis predominantlyshowcased nthechallengeofaccountability.Lastly,itexplores theriskofethicalrelationshipimbalance,whichischieflycharacterized byadiminutionof humanagency.Fromtheperspectiveof technological risk,therootcauseofAIGCethical risk lies in thecomplexityanduncertaintyof technology.Particularlyunder the black box phenomenon of algorithms,the behavior of AIGC becomes chalenging to anticipate and manage,therebyamplifying ethical risks.At the same time,the tension between technological rationalityand valuerationality,aswellas the limitationsof humanrisk perceptionandre sponse,further deepen the complexity of ethical risks.
Considering the trends in AIGC governance,this article advocates \"trusted governance\"as thecore strategy to miti gate AIGCethical risks.Itunderscores theimportanceof technologybeingcontrollble,accountable,fair,reliable,nterpretable,and secure,withthegoal of ensuring thattechnological advancementsare transparent,equitable,and contribute positivelyto society.Atthe same time,the Artificial Inteligence Law(scholars'proposal draft)also provides important governance basis and guides the legal path of AIGC trusted governance.
Under the principleof trusted governance,thisarticle proposes threecore strategies.First,itcals for theestablishmentof arobust data risk governanceframework.By integrating cross-border collborative governance and internal fine governance,it emphasizes adherence to‘reliabilitystandards.This includes enhancing regulations for cross-border data flows and promoting data ethicsand compliance within enterprises to ensuredata usageisreliable and secure.Second,it advocates foranoptimized liability atribution mechanism to addressAIGC infringement risks.This involves assessing subjectobligations,product defects,andinfringementliabilityinlightofAIGCstechnicalcharacteristics toenforcetheaccountabilitystandard.Third,itrecommends integratinga'peopleoriented approach intothe AIGCethical governance system.This aims tofindtechnological solutionsthataretailored toChina'scontext and capableof addresing itsunique challenges.In practice,itshallinvolve twoaspects:first,atthe organizational level,creatingadedicatedAIGCethical governance body tooversee ethical governance and supervision,thereby enhancing AIGCscontrollability;andsecond,atthe normative level,harnessing thecomplementaryadvantagesof policies,laws,and technologytouphold standardsof fairness,'safety, and interpretability, guiding AIGC towards positive development.
In the future,it is esential to further integrate marketdevelopment with China's national conditions,adopting‘trusted governance'as thecoreand the Proposal Draftas thefoundation toconstruct acomprehensive ethicalrisk governance system for AIGC.Moreover,thereisaneed for ongoing explorationin therealmof ethical governance,focusing on theorganic integrationof technological ethicswithlegal governance.This approach aims todeviseAI ethical governance strategies thatare distinctively Chinese,therebyequipping toadapttoand potentiallyspearhead the high-qualitydevelopmentof the new round of the global digital economy.
Key Words:Generative AI ;Ethical Risks;Trusted Governance;Artificial Intelligence Law