【摘 要】 人工智能融入審計(jì)領(lǐng)域,在顯著提升效率的同時(shí),凸顯了獨(dú)立性維護(hù)、算法偏見防范與責(zé)任清晰界定等審計(jì)倫理領(lǐng)域的新挑戰(zhàn),對(duì)審計(jì)公信力構(gòu)成潛在風(fēng)險(xiǎn)。文章系統(tǒng)分析人工智能應(yīng)用下審計(jì)倫理風(fēng)險(xiǎn)的具體表現(xiàn)與影響機(jī)理,并提出創(chuàng)新性的治理方案。研究核心在于構(gòu)建了“原則—技術(shù)—制度—組織”四位一體的協(xié)同應(yīng)對(duì)范式:在原則層面,錨定人本優(yōu)先、算法正義與責(zé)任剛性基準(zhǔn),奠定倫理根基;在技術(shù)層面,通過(guò)道德代碼化與區(qū)塊鏈存證實(shí)現(xiàn)倫理內(nèi)嵌;在制度層面,創(chuàng)新動(dòng)態(tài)化標(biāo)準(zhǔn)制定、穿透式監(jiān)管與懲罰性賠償機(jī)制,強(qiáng)化制度約束;在組織層面,推動(dòng)跨領(lǐng)域協(xié)同、公眾參與及審計(jì)人員倫理能力躍遷,激發(fā)內(nèi)生動(dòng)力。這一范式突破了單一維度局限,通過(guò)價(jià)值引領(lǐng)、技術(shù)賦能、制度約束多維協(xié)同,為建立可信、可控、可持續(xù)的人機(jī)共生審計(jì)倫理新秩序提供了系統(tǒng)性路徑。
【關(guān)鍵詞】 人工智能; 審計(jì)倫理; 穿透式監(jiān)管; 道德代碼化
【中圖分類號(hào)】 F239.1" 【文獻(xiàn)標(biāo)識(shí)碼】 A" 【文章編號(hào)】 1004-5937(2025)15-0155-07
一、引言
隨著深度學(xué)習(xí)算法的突破性進(jìn)展與大數(shù)據(jù)技術(shù)的持續(xù)迭代,人工智能正深刻重塑審計(jì)行業(yè)的運(yùn)行生態(tài)。其應(yīng)用已從自動(dòng)化數(shù)據(jù)采集、整理、分析、報(bào)告等流程性環(huán)節(jié),逐步拓展至為風(fēng)險(xiǎn)評(píng)估、異常識(shí)別等關(guān)鍵審計(jì)決策提供數(shù)據(jù)驅(qū)動(dòng)的支持。技術(shù)嵌入有效提升了特定審計(jì)任務(wù)的效率,降低了人工操作成本,但隨著人工智能在審計(jì)核心流程中的參與程度持續(xù)深化,審計(jì)倫理也面臨著新的挑戰(zhàn),這些挑戰(zhàn)深刻觸及審計(jì)專業(yè)判斷、責(zé)任界定與結(jié)論可信度等核心價(jià)值。面對(duì)技術(shù)應(yīng)用伴生的潛在風(fēng)險(xiǎn),學(xué)界亟需審視并重構(gòu)適應(yīng)智能時(shí)代的審計(jì)倫理框架。
二、人工智能應(yīng)用下審計(jì)倫理的新挑戰(zhàn)
Mautz等[ 1 ]在《審計(jì)哲學(xué)》中指出,審計(jì)是基于專業(yè)判斷的倫理實(shí)踐。審計(jì)倫理是調(diào)節(jié)審計(jì)關(guān)系人(包括審計(jì)主體、客體、利益相關(guān)者等)之間互動(dòng)關(guān)系的原則和規(guī)范。傳統(tǒng)審計(jì)倫理體系以獨(dú)立性、客觀性和保密性為核心原則,強(qiáng)調(diào)審計(jì)人員應(yīng)獨(dú)立于被審計(jì)單位及利益相關(guān)者,確保職業(yè)判斷不受外界干擾,審計(jì)結(jié)論必須基于充分、適當(dāng)?shù)淖C據(jù),避免主觀臆斷或利益偏向,審計(jì)人員在執(zhí)業(yè)過(guò)程中嚴(yán)格保護(hù)被審計(jì)方的敏感信息,防止數(shù)據(jù)泄露引發(fā)的法律與道德風(fēng)險(xiǎn)。傳統(tǒng)審計(jì)倫理在長(zhǎng)期實(shí)踐中形成的價(jià)值準(zhǔn)則與行為規(guī)范,核心在于平衡審計(jì)活動(dòng)中各方主體的權(quán)責(zé)關(guān)系,維護(hù)經(jīng)濟(jì)信息的可信性與資本市場(chǎng)的公平性。這種倫理體系以審計(jì)關(guān)系網(wǎng)絡(luò)為依托,通過(guò)規(guī)范審計(jì)主體在不同維度上的行為選擇,構(gòu)筑起市場(chǎng)經(jīng)濟(jì)的信任防線。
隨著人工智能技術(shù)在審計(jì)領(lǐng)域的逐步應(yīng)用,其在提升效能的同時(shí),也伴生了一系列值得深入探討的技術(shù)特性與倫理關(guān)切。人工智能應(yīng)用的深入,凸顯了技術(shù)邏輯(如效率優(yōu)先、可計(jì)算性)與審計(jì)倫理核心價(jià)值(如獨(dú)立性、客觀公正、保密性)之間潛在的沖突可能性。這種沖突可能性具體體現(xiàn)在下列關(guān)鍵領(lǐng)域:人機(jī)協(xié)作中主體地位維護(hù)與責(zé)任歸屬困境;算法缺陷對(duì)審計(jì)客觀公正性的潛在挑戰(zhàn);數(shù)據(jù)采集與使用邊界拓展對(duì)審計(jì)保密原則的挑戰(zhàn)。人工智能技術(shù)嵌入下的新審計(jì)生態(tài)與倫理挑戰(zhàn)如圖1所示。
(一)人機(jī)協(xié)作中主體地位維護(hù)與責(zé)任歸屬困境
隨著人工智能技術(shù)特別是算法決策在風(fēng)險(xiǎn)評(píng)估、異常檢測(cè)等關(guān)鍵審計(jì)環(huán)節(jié)應(yīng)用的深化,審計(jì)實(shí)踐正面臨重構(gòu)人機(jī)協(xié)作模式與權(quán)責(zé)邊界的新課題。值得關(guān)注的是,在特定情境下(如過(guò)度依賴算法或缺乏有效制衡機(jī)制)存在審計(jì)師職業(yè)判斷空間被壓縮的潛在風(fēng)險(xiǎn)。這種風(fēng)險(xiǎn)體現(xiàn)在:一方面,若審計(jì)師過(guò)度依賴算法輸出而非基于專業(yè)知識(shí)和批判性思維做出的職業(yè)判斷,可能意味著審計(jì)師傾向于主動(dòng)放棄其在審計(jì)活動(dòng)中的主體地位,并在特定條件下(如算法決策主導(dǎo)關(guān)鍵結(jié)論)對(duì)審計(jì)獨(dú)立性構(gòu)成潛在威脅。需要說(shuō)明的是,審計(jì)活動(dòng)本身的性質(zhì)通常不因此改變,但確需警惕審計(jì)師作為最終責(zé)任主體的核心地位及其履職所需的專業(yè)審慎空間在效率優(yōu)先導(dǎo)向下被不當(dāng)壓縮的風(fēng)險(xiǎn)。另一方面,人工智能技術(shù)的深度應(yīng)用可能出現(xiàn)職業(yè)群體技能結(jié)構(gòu)分化的趨勢(shì)。具備算法解讀、模型評(píng)估與修正能力的審計(jì)師,與主要承擔(dān)系統(tǒng)操作任務(wù)的審計(jì)人員之間,在技能要求與職責(zé)范圍上存在顯著差異。這種技術(shù)驅(qū)動(dòng)的分層現(xiàn)象,若缺乏有效的職業(yè)發(fā)展規(guī)劃和技能提升機(jī)制,可能對(duì)審計(jì)行業(yè)維持專業(yè)權(quán)威和公眾信任的職業(yè)形象帶來(lái)復(fù)雜影響。
更為復(fù)雜的是責(zé)任歸屬困境的深化。智能系統(tǒng)開發(fā)者作為審計(jì)生態(tài)的關(guān)鍵參與者,通過(guò)算法設(shè)計(jì)、參數(shù)調(diào)校等行為實(shí)質(zhì)性地影響審計(jì)結(jié)論的形成過(guò)程。然而,現(xiàn)行的法定責(zé)任框架未能充分涵蓋此類參與者的角色與責(zé)任邊界,使其責(zé)任承擔(dān)狀態(tài)存在不確定性。這一困境在責(zé)任倫理層面具有深刻根源。Mittelstadt等[ 2 ]提出的“算法倫理的責(zé)任鴻溝”理論揭示了如下核心問(wèn)題:在人機(jī)協(xié)同審計(jì)的復(fù)雜場(chǎng)景下,傳統(tǒng)權(quán)責(zé)邊界趨于模糊化,使得風(fēng)險(xiǎn)事件發(fā)生后的追溯機(jī)制面臨失靈風(fēng)險(xiǎn)。具體而言,當(dāng)審計(jì)失敗發(fā)生時(shí),由于技術(shù)系統(tǒng)的復(fù)雜性與決策過(guò)程的不可完全解釋性,加之相關(guān)制度規(guī)則的適應(yīng)性滯后,可能在開發(fā)者、審計(jì)機(jī)構(gòu)、被審計(jì)單位之間出現(xiàn)責(zé)任追溯困難的現(xiàn)象,形成事實(shí)上的責(zé)任厘清障礙。傳統(tǒng)責(zé)任理論主要建構(gòu)于人類行為者的可歸責(zé)性基礎(chǔ)之上,而算法系統(tǒng)表現(xiàn)出一定程度的自主性與普遍存在的不可解釋性,顯著加劇了將審計(jì)失敗后果清晰且合理歸因于特定責(zé)任主體的難度。
(二)算法缺陷對(duì)審計(jì)客觀公正性的潛在挑戰(zhàn)
在特定應(yīng)用場(chǎng)景或激勵(lì)機(jī)制下(如追求處理速度最大化),算法系統(tǒng)的設(shè)計(jì)優(yōu)化目標(biāo)可能高度聚焦于效率維度(如數(shù)據(jù)處理量、響應(yīng)時(shí)間),若缺乏對(duì)公平性、客觀性等審計(jì)核心價(jià)值的充分考量與平衡機(jī)制,則存在與審計(jì)目標(biāo)產(chǎn)生沖突或偏離的風(fēng)險(xiǎn)。
算法偏見是影響審計(jì)客觀性的關(guān)鍵潛在風(fēng)險(xiǎn)源之一,其產(chǎn)生主要源于數(shù)據(jù)層面的固有缺陷和設(shè)計(jì)層面的價(jià)值嵌入。在數(shù)據(jù)層面,訓(xùn)練數(shù)據(jù)本身可能存在結(jié)構(gòu)性局限,例如樣本代表性不足,無(wú)法全面覆蓋所有相關(guān)情況;數(shù)據(jù)分布不均衡,導(dǎo)致特定行業(yè)或規(guī)模企業(yè)的數(shù)據(jù)缺失;數(shù)據(jù)中內(nèi)含歷史性偏見,如過(guò)往審計(jì)對(duì)某些群體的系統(tǒng)性低估。而在設(shè)計(jì)層面,開發(fā)者在構(gòu)建模型和設(shè)定參數(shù)時(shí),可能會(huì)不自覺(jué)地將其主觀認(rèn)知或隱含價(jià)值觀融入算法邏輯。這些因素共同作用,可能導(dǎo)致算法輸出在特定情況下偏離真實(shí)公允的結(jié)果,進(jìn)而對(duì)審計(jì)的客觀性造成負(fù)面影響。現(xiàn)有研究為此提供了佐證。Crawford[ 3 ]在《AI地圖》中指出,基于偏差數(shù)據(jù)訓(xùn)練的算法存在固化甚至放大社會(huì)偏見的風(fēng)險(xiǎn)。映射到審計(jì)情境,若智能模型依賴此類有偏差的歷史數(shù)據(jù)進(jìn)行訓(xùn)練,則可能對(duì)特定類型實(shí)體(如中小企業(yè))產(chǎn)生系統(tǒng)性偏差判斷,形成“數(shù)字歧視”現(xiàn)象。曹志煒等[ 4 ]進(jìn)一步發(fā)現(xiàn),依賴歷史審計(jì)數(shù)據(jù)進(jìn)行訓(xùn)練的智能系統(tǒng),在特定條件下(如樣本分布不均)可能因訓(xùn)練數(shù)據(jù)的行業(yè)覆蓋偏差,導(dǎo)致對(duì)不同行業(yè)企業(yè)的風(fēng)險(xiǎn)評(píng)估或結(jié)論出現(xiàn)非意圖性的顯著差異。
算法偏見的隱蔽性加劇了審計(jì)客觀性保障的難度。算法的復(fù)雜性與類“黑箱”特性(指決策邏輯難以被審計(jì)師完全解讀與驗(yàn)證),使得傳統(tǒng)的“基于清晰證據(jù)鏈追溯”的客觀性驗(yàn)證原則面臨嚴(yán)峻挑戰(zhàn)。審計(jì)人員可能難以像審視人類決策一樣,完整追溯并驗(yàn)證算法結(jié)論的合理性基礎(chǔ)。Floridi[ 5 ]從信息倫理視角強(qiáng)調(diào),人工智能的“內(nèi)在不透明性”和“潛在不可控性”對(duì)審計(jì)透明性原則構(gòu)成了實(shí)質(zhì)性挑戰(zhàn)。
更值得警惕的是算法偏見的自我強(qiáng)化風(fēng)險(xiǎn)。算法模型的迭代優(yōu)化機(jī)制可能傾向于篩選并強(qiáng)化符合其現(xiàn)有模式(包括潛在偏見)的數(shù)據(jù)和證據(jù),存在形成“歧視性決策閉環(huán)”的潛在可能性,即系統(tǒng)輸出進(jìn)一步固化初始偏見,并在后續(xù)數(shù)據(jù)收集中優(yōu)先選擇支持該偏見的信息,形成惡性循環(huán)。余暉[ 6 ]據(jù)此分析指出,此類技術(shù)層面的透明度缺失與潛在偏差,若未能有效緩解并向公眾說(shuō)明,可能削弱公眾對(duì)審計(jì)結(jié)論公正性的理解與信任,進(jìn)而引發(fā)對(duì)審計(jì)公信力的疑慮。
(三)數(shù)據(jù)采集與使用邊界拓展對(duì)審計(jì)保密原則的挑戰(zhàn)
Munoko等[ 7 ]的研究表明,在特定審計(jì)場(chǎng)景中,機(jī)器學(xué)習(xí)算法的復(fù)雜性和不透明性可能被利用,以規(guī)避傳統(tǒng)的專業(yè)復(fù)核流程,某種程度上削弱了人工監(jiān)督的有效性。肖莎娜·祖博夫[ 8 ]在《監(jiān)視資本主義時(shí)代》中提出的“數(shù)據(jù)攫取”(Data Appropriation)概念,在審計(jì)領(lǐng)域的映射體現(xiàn)為部分審計(jì)主體可能借助技術(shù)能力,超出審計(jì)目標(biāo)必要范圍采集數(shù)據(jù)(如非直接相關(guān)的用戶行為信息),突破了基于傳統(tǒng)審計(jì)風(fēng)險(xiǎn)模型確立的數(shù)據(jù)最小化原則。
推動(dòng)數(shù)據(jù)范圍擴(kuò)展的現(xiàn)實(shí)原因在于,基于深度學(xué)習(xí)的審計(jì)模型需要大量多源異構(gòu)數(shù)據(jù)來(lái)提供支撐,而持續(xù)迭代的機(jī)器學(xué)習(xí)模型也需要通過(guò)持續(xù)新增數(shù)據(jù)來(lái)優(yōu)化自身性能,這使得部分審計(jì)機(jī)構(gòu)在一定程度上突破了傳統(tǒng)數(shù)據(jù)邊界。這種突破可能導(dǎo)致審計(jì)過(guò)程在無(wú)意間對(duì)被審計(jì)單位的數(shù)據(jù)隱私造成一定的影響,甚至可能威脅到其數(shù)據(jù)主權(quán)。在云計(jì)算環(huán)境下,數(shù)據(jù)的分布式存儲(chǔ)與處理方式進(jìn)一步增加了數(shù)據(jù)流向監(jiān)控和隱私保護(hù)的復(fù)雜性,從而放大了相關(guān)風(fēng)險(xiǎn)管控的難度。
值得關(guān)注的是,在追求算法模型“最優(yōu)化”的驅(qū)動(dòng)下,部分審計(jì)人員可能對(duì)數(shù)據(jù)采集范圍擴(kuò)大的現(xiàn)象持默許態(tài)度,甚至主動(dòng)推動(dòng)邊界拓展,這源于“數(shù)據(jù)規(guī)模等同于審計(jì)質(zhì)量”的認(rèn)知偏差。若未能充分評(píng)估這種擴(kuò)展行為對(duì)被審計(jì)單位造成的潛在負(fù)面影響(如數(shù)據(jù)濫用風(fēng)險(xiǎn)、隱私泄露隱患),則可能導(dǎo)致審計(jì)專業(yè)價(jià)值的錯(cuò)位風(fēng)險(xiǎn),即審計(jì)機(jī)構(gòu)可能會(huì)從“專業(yè)的信息保密受托方”的角色定位滑向“技術(shù)能力優(yōu)勢(shì)主導(dǎo)下的數(shù)據(jù)操作者”形象。這種角色認(rèn)知與實(shí)踐的潛在偏移,如果任其發(fā)展,可能嚴(yán)重?fù)p害審計(jì)行業(yè)賴以維系的核心信任基礎(chǔ)——對(duì)客戶數(shù)據(jù)安全與隱私的嚴(yán)格守護(hù)承諾。
人工智能在審計(jì)中的應(yīng)用呈現(xiàn)出多維度的價(jià)值調(diào)適需求,比如,在追求技術(shù)效率提升的同時(shí),需要兼顧倫理原則的堅(jiān)守度與責(zé)任機(jī)制的明晰性。這種復(fù)合性挑戰(zhàn)并非不可調(diào)和的對(duì)立關(guān)系,而是需要提出更具包容性的應(yīng)對(duì)策略。下文提出的應(yīng)對(duì)框架,正是嘗試通過(guò)系統(tǒng)性的制度創(chuàng)新和技術(shù)規(guī)約,推動(dòng)技術(shù)應(yīng)用與倫理價(jià)值的協(xié)同演進(jìn)。
三、人工智能應(yīng)用下審計(jì)倫理風(fēng)險(xiǎn)的應(yīng)對(duì)框架
歐盟委員會(huì)在《人工智能責(zé)任指令(2022)》中明確指出,確保智能審計(jì)系統(tǒng)具備充分的倫理約束,對(duì)維護(hù)審計(jì)獨(dú)立性、保障審計(jì)公信力具有關(guān)鍵意義[ 9 ]。為有效應(yīng)對(duì)上述倫理挑戰(zhàn),本文提出一個(gè)系統(tǒng)性的應(yīng)對(duì)框架,如圖2所示。該框架致力于筑牢審計(jì)倫理的核心價(jià)值根基,推動(dòng)倫理原則的技術(shù)性內(nèi)嵌,構(gòu)建協(xié)同聯(lián)動(dòng)的監(jiān)管體系,以及優(yōu)化組織協(xié)同與能力建設(shè)路徑,由此形成“原則—技術(shù)—制度—組織”四位一體的協(xié)同治理范式。這一范式旨在建立前瞻性、系統(tǒng)性的倫理治理機(jī)制,從源頭上引導(dǎo)智能技術(shù)在審計(jì)領(lǐng)域的負(fù)責(zé)任應(yīng)用,確保審計(jì)流程恪守“獨(dú)立公正、專業(yè)審慎”的價(jià)值基準(zhǔn),并最終夯實(shí)審計(jì)意見公信力的根基。
(一)道德原則:筑牢審計(jì)倫理價(jià)值根基
在以人工智能應(yīng)用為特征的現(xiàn)代審計(jì)環(huán)境下,道德原則構(gòu)成治理體系的核心價(jià)值導(dǎo)向,為技術(shù)治理、制度創(chuàng)新與組織協(xié)同提供根本性的倫理指引。
1.人本優(yōu)先原則
人工智能技術(shù)的深度嵌入拓展了審計(jì)倫理的考量維度,其核心在于對(duì)“人—機(jī)—社會(huì)”協(xié)同關(guān)系的系統(tǒng)性調(diào)適。人本優(yōu)先原則是平衡技術(shù)效率與倫理價(jià)值的關(guān)鍵支點(diǎn),其核心在于確立人類作為道德責(zé)任主體的技術(shù)治理邏輯。該原則要求堅(jiān)持“技術(shù)服務(wù)于人”的底線,明確限制算法決策范圍,保障審計(jì)人員的獨(dú)立判斷權(quán),防范技術(shù)工具理性對(duì)專業(yè)判斷空間的過(guò)度侵蝕。人工智能的應(yīng)用必須以維護(hù)人類主體性為根本前提。劉國(guó)城[ 10 ]主張將“技術(shù)謙抑、價(jià)值優(yōu)先”納入審計(jì)倫理準(zhǔn)則框架。歐盟《人工智能法案》[ 11 ]明確規(guī)定,高風(fēng)險(xiǎn)系統(tǒng)必須設(shè)置“人類介入”機(jī)制,確保審計(jì)師對(duì)關(guān)鍵決策(如持續(xù)經(jīng)營(yíng)評(píng)估、重大錯(cuò)報(bào)風(fēng)險(xiǎn)評(píng)估等)擁有最終否決權(quán)。
我國(guó)現(xiàn)行審計(jì)職業(yè)道德規(guī)范體系,包括國(guó)家審計(jì)和社會(huì)審計(jì)領(lǐng)域,尚未將“人本優(yōu)先原則”作為應(yīng)對(duì)人機(jī)協(xié)同核心挑戰(zhàn)的基礎(chǔ)規(guī)范進(jìn)行系統(tǒng)性闡述?,F(xiàn)行規(guī)范主要圍繞審計(jì)人員應(yīng)遵循的基本職業(yè)道德準(zhǔn)則展開,更多關(guān)注審計(jì)人員在執(zhí)行審計(jì)業(yè)務(wù)時(shí)應(yīng)具備的品質(zhì)和行為規(guī)范,而未直接針對(duì)人機(jī)協(xié)同背景下的人本優(yōu)先原則做出明確規(guī)定,缺乏對(duì)人工智能應(yīng)用場(chǎng)景下保障審計(jì)人員關(guān)鍵決策權(quán)及操作留痕的明確規(guī)定。為此,建議監(jiān)管主體實(shí)施如下針對(duì)性修訂:(1)國(guó)家審計(jì),應(yīng)由審計(jì)署主導(dǎo)修訂《國(guó)家審計(jì)準(zhǔn)則》,增設(shè)專門條款或章節(jié),強(qiáng)制要求在利用智能系統(tǒng)輔助審計(jì)時(shí),審計(jì)人員必須保留對(duì)關(guān)鍵審計(jì)判斷的實(shí)質(zhì)性決策權(quán),并對(duì)相關(guān)的人工復(fù)核、判斷及干預(yù)決策進(jìn)行區(qū)塊鏈存證,確保過(guò)程可追溯、不可篡改。(2)社會(huì)審計(jì),應(yīng)由中國(guó)注冊(cè)會(huì)計(jì)師協(xié)會(huì)主導(dǎo)修訂《中國(guó)注冊(cè)會(huì)計(jì)師職業(yè)道德守則》及獨(dú)立性準(zhǔn)則,同步嵌入上述核心要求,即明確注冊(cè)會(huì)計(jì)師在人工智能環(huán)境下對(duì)核心判斷的最終責(zé)任及關(guān)鍵環(huán)節(jié)人工介入的存證義務(wù)。
2.算法正義原則
部分技術(shù)開發(fā)者的倫理認(rèn)知可能加劇價(jià)值沖突。這些技術(shù)開發(fā)者在進(jìn)行系統(tǒng)建構(gòu)時(shí),通常秉持“技術(shù)可行主義”的理念。他們傾向于將復(fù)雜的價(jià)值判斷問(wèn)題轉(zhuǎn)化為可量化、可計(jì)算的參數(shù)指標(biāo),借助技術(shù)手段對(duì)系統(tǒng)進(jìn)行持續(xù)優(yōu)化。審計(jì)工作所蘊(yùn)含的核心價(jià)值,如誠(chéng)信、公平等,往往是難以用簡(jiǎn)單的數(shù)學(xué)參數(shù)來(lái)衡量的。當(dāng)算法僅僅基于風(fēng)險(xiǎn)概率來(lái)做出決策時(shí),這些至關(guān)重要的審計(jì)核心價(jià)值便在算法的運(yùn)行邏輯中失去應(yīng)有的存在空間。當(dāng)然,這種價(jià)值選擇并非源于算法設(shè)計(jì)者的主觀惡意,而是系統(tǒng)在優(yōu)化目標(biāo)函數(shù)時(shí)自然產(chǎn)生的倫理盲區(qū)。
算法正義原則的實(shí)踐困境源于技術(shù)理性與倫理價(jià)值的范式?jīng)_突[ 5 ]。算法正義原則要求系統(tǒng)開發(fā)者搭建“道德代碼化”技術(shù)架構(gòu),將審計(jì)專業(yè)價(jià)值觀轉(zhuǎn)化為可操作的道德編碼規(guī)范。算法正義的實(shí)踐路徑可建構(gòu)“標(biāo)準(zhǔn)—開發(fā)—認(rèn)證”三階體系,比如,由國(guó)家標(biāo)準(zhǔn)化管理委員會(huì)牽頭,聯(lián)合網(wǎng)信辦、財(cái)政部、審計(jì)署、中注協(xié)及技術(shù)組織,研制“智能審計(jì)算法倫理指南”(GB/T),明確公平性、可解釋性、可追溯性三大核心要求,并兼容現(xiàn)有AI治理框架;開發(fā)者需據(jù)此將倫理原則轉(zhuǎn)化為技術(shù)約束(如嵌入公平性懲罰算法、自動(dòng)生成解釋報(bào)告);最終由權(quán)威認(rèn)證機(jī)構(gòu)(如中國(guó)網(wǎng)安認(rèn)證中心)開展偏差測(cè)試與可追溯驗(yàn)證,形成“標(biāo)準(zhǔn)引領(lǐng)—責(zé)任嵌入—獨(dú)立鑒證”的閉環(huán)治理。該機(jī)制通過(guò)在技術(shù)層制度化嵌入審計(jì)核心價(jià)值,實(shí)現(xiàn)算法效率與倫理目標(biāo)的動(dòng)態(tài)平衡,為人機(jī)協(xié)同審計(jì)提供可持續(xù)保障。
3.責(zé)任剛性原則
隨著人工智能在審計(jì)決策中的應(yīng)用逐漸增多,其技術(shù)復(fù)雜性引發(fā)了對(duì)歸責(zé)問(wèn)題的思考。一方面,部分算法(例如黑盒模型)具有自我迭代功能,其參數(shù)能夠自主更新,這使得其運(yùn)行邏輯難以完全解釋清楚。另一方面,審計(jì)決策過(guò)程中涉及多方主體,各方的主體責(zé)任邊界在某些情況下還不夠明確。此外,關(guān)鍵決策過(guò)程的留痕機(jī)制也存在有待完善的地方。Mittelstadt[ 2 ]提出的技術(shù)倫理責(zé)任困境理論,為理解此類挑戰(zhàn)提供了分析框架。責(zé)任剛性原則的建構(gòu)邏輯,正是通過(guò)制度設(shè)計(jì)克服技術(shù)復(fù)雜性與責(zé)任可追溯性之間的沖突,其核心在于設(shè)計(jì)清晰、可執(zhí)行且抗規(guī)避的責(zé)任分配體系,避免技術(shù)演進(jìn)導(dǎo)致責(zé)任認(rèn)定機(jī)制失效。
為應(yīng)對(duì)責(zé)任追溯難題,建議構(gòu)建關(guān)鍵操作存證機(jī)制,如基于區(qū)塊鏈技術(shù)對(duì)算法參數(shù)設(shè)置、數(shù)據(jù)源文件哈希、模型重大邏輯變更、人工復(fù)核簽名四類核心節(jié)點(diǎn)進(jìn)行存證。該機(jī)制通過(guò)生成可驗(yàn)證操作指紋鏈實(shí)現(xiàn)三方責(zé)任穿透:開發(fā)者責(zé)任錨定于算法版本與參數(shù)變更日志,審計(jì)師責(zé)任綁定人工復(fù)核簽名與否決記錄,被審計(jì)方責(zé)任對(duì)應(yīng)原始數(shù)據(jù)哈希值及提供時(shí)間戳。
(二)技術(shù)治理:打造風(fēng)險(xiǎn)防控技術(shù)防線
技術(shù)治理是應(yīng)對(duì)技術(shù)風(fēng)險(xiǎn)的重要手段,需結(jié)合道德原則與制度要求,搭建智能化防控體系。
1.道德代碼化
道德代碼化的核心就是把抽象的審計(jì)原則變成計(jì)算機(jī)看得懂、能執(zhí)行的代碼邏輯,就像是給審計(jì)系統(tǒng)植入“倫理基因”,即把審計(jì)中需要遵循的倫理道德規(guī)范變成計(jì)算機(jī)程序的一部分,讓機(jī)器也能按照這些原則行事。Munoko[ 7 ]建議開發(fā)“可解釋審計(jì)算法”,曹志煒等[ 4 ]深化了“道德代碼化”的技術(shù)實(shí)現(xiàn)路徑。
道德代碼化可通過(guò)“標(biāo)準(zhǔn)量化—技術(shù)轉(zhuǎn)化—?jiǎng)討B(tài)監(jiān)測(cè)”路徑推進(jìn):首先,由國(guó)家標(biāo)準(zhǔn)委聯(lián)合行業(yè)協(xié)會(huì)制定“審計(jì)算法倫理指標(biāo)”,明確可計(jì)算參數(shù),為倫理要求提供量化準(zhǔn)則;其次,系統(tǒng)開發(fā)者將這些準(zhǔn)則轉(zhuǎn)化為算法約束,例如在風(fēng)險(xiǎn)評(píng)估模型中嵌入公平性約束模塊,將倫理規(guī)范融入技術(shù)實(shí)現(xiàn);最后,監(jiān)管方通過(guò)API接口實(shí)時(shí)提取決策特征,生成可視化倫理評(píng)估報(bào)告,替代傳統(tǒng)人工審查,實(shí)現(xiàn)持續(xù)驗(yàn)證。
2.區(qū)塊鏈存證
當(dāng)前審計(jì)數(shù)據(jù)治理面臨數(shù)據(jù)易篡改、證據(jù)鏈不透明和責(zé)任難追溯的三重困境。區(qū)塊鏈技術(shù)憑借其不可篡改(哈希加密)、可追溯(時(shí)間戳鏈)和分布式共識(shí)(節(jié)點(diǎn)驗(yàn)證)的特性,成為破局的關(guān)鍵。運(yùn)用區(qū)塊鏈技術(shù),可以固化審計(jì)全流程數(shù)據(jù),利用時(shí)間戳和哈希加密實(shí)現(xiàn)數(shù)據(jù)的不可篡改存證,構(gòu)建審計(jì)決策的數(shù)字DNA追溯體系,確保從數(shù)據(jù)輸入到?jīng)Q策輸出的全鏈路固化。
當(dāng)前我國(guó)區(qū)塊鏈審計(jì)存證實(shí)踐已獲初步進(jìn)展(如最高法確立區(qū)塊鏈證據(jù)優(yōu)先采信規(guī)則),但仍面臨標(biāo)準(zhǔn)分散、實(shí)施成本高、系統(tǒng)性能瓶頸及法律銜接不足等挑戰(zhàn)。未來(lái)可以搭建分層治理體系,推進(jìn)技術(shù)賦能與制度保障的協(xié)同升級(jí)。技術(shù)層面,由工信部組織制定“區(qū)塊鏈審計(jì)存證國(guó)家標(biāo)準(zhǔn)”,統(tǒng)一技術(shù)架構(gòu)與數(shù)據(jù)接口;制度層面,通過(guò)修訂《注冊(cè)會(huì)計(jì)師法》及司法解釋,明確區(qū)塊鏈證據(jù)法律效力層級(jí)并建立跨境互認(rèn)機(jī)制;推廣層面,依托政務(wù)云平臺(tái)提供公共節(jié)點(diǎn)服務(wù),降低中小企業(yè)應(yīng)用門檻。
(三)制度創(chuàng)新:構(gòu)建“技術(shù)—道德”雙重監(jiān)管體系
人工智能在審計(jì)領(lǐng)域的深度應(yīng)用對(duì)傳統(tǒng)監(jiān)管框架提出了新的挑戰(zhàn):第一,現(xiàn)行《網(wǎng)絡(luò)安全法》《數(shù)據(jù)安全法》雖確立了算法倫理的基本原則,但規(guī)則細(xì)化不足,缺乏具體場(chǎng)景的執(zhí)行細(xì)則;第二,規(guī)范協(xié)同待加強(qiáng),《中國(guó)注冊(cè)會(huì)計(jì)師職業(yè)道德守則》對(duì)職業(yè)判斷的彈性要求與工信部技術(shù)標(biāo)準(zhǔn)對(duì)算法一致性的追求之間,需要進(jìn)一步協(xié)調(diào);第三,責(zé)任追溯機(jī)制亟待完善,現(xiàn)有懲戒措施的威懾效能尚需提升。為應(yīng)對(duì)這些挑戰(zhàn),需通過(guò)制度創(chuàng)新構(gòu)建“技術(shù)監(jiān)管與倫理規(guī)約協(xié)同治理”機(jī)制,比如制定動(dòng)態(tài)化標(biāo)準(zhǔn)、實(shí)施穿透式監(jiān)管、建立懲罰性賠償機(jī)制等。
1.制定動(dòng)態(tài)化標(biāo)準(zhǔn)
技術(shù)迭代快于法規(guī)更新,倫理準(zhǔn)則需實(shí)時(shí)轉(zhuǎn)化為可執(zhí)行技術(shù)參數(shù),防范AI審計(jì)價(jià)值失守。動(dòng)態(tài)化標(biāo)準(zhǔn)制定是一種制度轉(zhuǎn)化機(jī)制,通過(guò)建立彈性規(guī)則體系,將抽象的審計(jì)道德準(zhǔn)則(如獨(dú)立性、審慎性)轉(zhuǎn)化為可量化、可計(jì)算的技術(shù)參數(shù),并隨技術(shù)迭代持續(xù)校準(zhǔn),實(shí)現(xiàn)倫理要求與技術(shù)規(guī)則的實(shí)時(shí)互嵌。其核心在于構(gòu)建“道德準(zhǔn)則→量化指標(biāo)→算法約束”的可持續(xù)轉(zhuǎn)化通路,使技術(shù)發(fā)展始終運(yùn)行于倫理軌道之上。動(dòng)態(tài)化標(biāo)準(zhǔn)制定可以通過(guò)三層銜接機(jī)制,讓技術(shù)規(guī)則和道德準(zhǔn)則緊密結(jié)合。首先,財(cái)政部和中注協(xié)把道德準(zhǔn)則的具體條款(比如審計(jì)獨(dú)立性)變成具體的可量化參數(shù),工信部根據(jù)這些參數(shù)制定具體的技術(shù)規(guī)范;其次,網(wǎng)信辦通過(guò)監(jiān)管沙盒實(shí)時(shí)監(jiān)測(cè)技術(shù)應(yīng)用的風(fēng)險(xiǎn),動(dòng)態(tài)修訂;最后,司法部門把最新的標(biāo)準(zhǔn)嵌入到執(zhí)行環(huán)節(jié)作為技術(shù)過(guò)錯(cuò)裁判的依據(jù)。
2.實(shí)施穿透式監(jiān)管
在人工智能審計(jì)引發(fā)的監(jiān)管滯后困境中,穿透式監(jiān)管的構(gòu)建將突破傳統(tǒng)監(jiān)管的時(shí)空壁壘,給“技術(shù)黑箱”裝上“X光機(jī)”,做到實(shí)時(shí)監(jiān)測(cè)和動(dòng)態(tài)預(yù)警,并設(shè)置自動(dòng)熔斷。實(shí)施穿透式監(jiān)管可依托標(biāo)準(zhǔn)化監(jiān)管接口、有限度信息獲取、智能化熔斷響應(yīng)等機(jī)制。比如:工信部負(fù)責(zé)制定監(jiān)管API標(biāo)準(zhǔn),強(qiáng)制高風(fēng)險(xiǎn)審計(jì)AI系統(tǒng)實(shí)時(shí)傳輸決策特征權(quán)重(如SHAP值)、參數(shù)修改日志及人工復(fù)核記錄;網(wǎng)信辦依托監(jiān)管平臺(tái)進(jìn)行有限穿透分析,生成《算法透明度報(bào)告》并監(jiān)控風(fēng)險(xiǎn)指標(biāo);審計(jì)監(jiān)管部門執(zhí)行熔斷機(jī)制,即觸發(fā)閾值后立即暫停服務(wù)。
3.建立懲罰性賠償機(jī)制
現(xiàn)行賠償機(jī)制在實(shí)踐中面臨懲戒力度不足(如違法收益高于罰款金額)、責(zé)任認(rèn)定困難(如算法決策多主體參與導(dǎo)致責(zé)任追溯復(fù)雜)及賠償性質(zhì)單一(純補(bǔ)償性設(shè)計(jì)可能產(chǎn)生邊際激勵(lì)效應(yīng))等結(jié)構(gòu)性問(wèn)題,這些因素共同削弱了其理論威懾效力。為此,可建立“法定梯度賠償—協(xié)同責(zé)任認(rèn)定—高效執(zhí)行”體系。首先,建立梯度化責(zé)任體系,以《民法典》第1184條界定的實(shí)際損失為賠償基數(shù),對(duì)故意違規(guī)行為(如算法參數(shù)篡改)參照《證券法》第221條處以1~5倍罰款(視情節(jié)嚴(yán)重性裁量),對(duì)重大過(guò)失行為處以1~3倍罰款;其次,設(shè)立三方協(xié)同認(rèn)定機(jī)制,由工信部通過(guò)算法合規(guī)鑒定報(bào)告量化技術(shù)責(zé)任,中注協(xié)依據(jù)人工復(fù)核記錄評(píng)估職業(yè)責(zé)任,證監(jiān)會(huì)核定市場(chǎng)損失,確定賠償責(zé)任,最終形成責(zé)任比例認(rèn)定書;最后,科技賦能執(zhí)行路徑,依托央行支付系統(tǒng)與行政執(zhí)法平臺(tái)直連,在處罰決定生效后72小時(shí)內(nèi)自動(dòng)完成資金劃轉(zhuǎn)至中國(guó)證券投資者保護(hù)基金賬戶。該制度的核心在于“過(guò)罰相當(dāng)?shù)膽徒涮荻扰c科技賦能的精準(zhǔn)定責(zé)”,通過(guò)將違規(guī)成本提升至技術(shù)套利收益的3倍以上,形成實(shí)質(zhì)有效的威懾機(jī)制。
(四)組織協(xié)同:凝聚合力,協(xié)同治理
在倫理治理的復(fù)雜生態(tài)中,組織協(xié)同不僅是資源與職能的整合,更是道德共同體的重建過(guò)程。
1.組建跨領(lǐng)域倫理委員會(huì)
在AI審計(jì)領(lǐng)域,僅從單一學(xué)科視角來(lái)做出倫理決策是遠(yuǎn)遠(yuǎn)不夠的。這種單打獨(dú)斗的方式很容易陷入專業(yè)盲區(qū)。因此,面對(duì)AI審計(jì)這種復(fù)雜且風(fēng)險(xiǎn)潛藏的倫理挑戰(zhàn),我們需要一個(gè)全面的決策機(jī)制。為此,可以組建一個(gè)跨領(lǐng)域倫理委員會(huì)——一個(gè)多學(xué)科的“超級(jí)智囊團(tuán)”,成員包括技術(shù)工程師、執(zhí)業(yè)審計(jì)師、倫理哲學(xué)家及社會(huì)代表。技術(shù)工程師負(fù)責(zé)確保算法的技術(shù)安全,執(zhí)業(yè)審計(jì)師確保審計(jì)過(guò)程符合職業(yè)準(zhǔn)則,倫理哲學(xué)家負(fù)責(zé)評(píng)估算法可能帶來(lái)的價(jià)值風(fēng)險(xiǎn),而社會(huì)代表則反饋公眾的接受度,確保技術(shù)的發(fā)展不會(huì)脫離大眾的實(shí)際需求。該委員會(huì)實(shí)行“四眼原則”聯(lián)簽機(jī)制,這意味著任何一項(xiàng)重要的決策都需要這四個(gè)不同領(lǐng)域的專家共同簽署同意。這種多維度的決策機(jī)制,能夠確保算法倫理審查的全面性和專業(yè)性,避免因單一視角而產(chǎn)生的偏差。這種機(jī)制的核心在于形成一個(gè)“技術(shù)向善”的持續(xù)校準(zhǔn)機(jī)制,增強(qiáng)技術(shù)發(fā)展的社會(huì)認(rèn)同度。
2.設(shè)立公眾參與機(jī)制
在技術(shù)治理過(guò)程中,公眾話語(yǔ)權(quán)的缺失可能導(dǎo)致“算法暴政”的風(fēng)險(xiǎn),使得倫理決策缺乏必要的社會(huì)價(jià)值錨點(diǎn)。為解決這一問(wèn)題,應(yīng)搭建一個(gè)涵蓋廣泛社會(huì)群體的參與網(wǎng)絡(luò),增強(qiáng)公眾在技術(shù)治理中的影響力。通過(guò)多元主體的參與,對(duì)算法的潛在影響進(jìn)行多維度的風(fēng)險(xiǎn)評(píng)估,確保技術(shù)決策能夠充分反映社會(huì)的多元價(jià)值訴求。通過(guò)上述措施,可以有效打破“技術(shù)黑箱”的認(rèn)知壁壘,使審計(jì)算法成為社會(huì)共識(shí)的數(shù)字化表達(dá)形式。這不僅有助于提升公眾對(duì)技術(shù)的信任度,而且能確保技術(shù)發(fā)展與社會(huì)價(jià)值觀的契合度。
3.審計(jì)倫理能力躍遷
技術(shù)監(jiān)管能夠有效約束算法的越界行為,但算法偏見、數(shù)據(jù)霸權(quán)等技術(shù)風(fēng)險(xiǎn)需通過(guò)審計(jì)師的倫理直覺(jué)實(shí)時(shí)識(shí)別,人工智能的倫理決策仍需依賴審計(jì)師的價(jià)值判斷能力。當(dāng)監(jiān)管規(guī)則滯后技術(shù)迭代,審計(jì)師是唯一能靈活響應(yīng)的“動(dòng)態(tài)熔斷器”,在“開發(fā)者—算法—審計(jì)師”責(zé)任鏈中,審計(jì)師是法定責(zé)任最終承擔(dān)者。因此,在審計(jì)倫理治理中,審計(jì)師倫理能力提升應(yīng)與技術(shù)監(jiān)管形成雙輪驅(qū)動(dòng),共同推動(dòng)人工智能治理的完善。
隨著人工智能技術(shù)在審計(jì)領(lǐng)域的廣泛應(yīng)用,其對(duì)審計(jì)職業(yè)發(fā)展的影響日益顯著[ 12 ],AI技術(shù)的快速迭代導(dǎo)致審計(jì)人員面臨“倫理能力赤字”,傳統(tǒng)倫理能力提升機(jī)制難以適應(yīng)人機(jī)協(xié)同的新要求。需強(qiáng)化技術(shù)倫理培訓(xùn),將算法偏見識(shí)別、道德沖突推演等能力納入審計(jì)職業(yè)技能認(rèn)證體系;建立倫理激勵(lì)機(jī)制和“道德領(lǐng)導(dǎo)力”積分制,激勵(lì)審計(jì)人員主動(dòng)參與倫理治理,將倫理能力與職業(yè)發(fā)展深度綁定;通過(guò)系統(tǒng)化培訓(xùn)和實(shí)踐,讓審計(jì)人員既能熟練運(yùn)用先進(jìn)技術(shù)工具,又能在面對(duì)倫理困境時(shí)保持堅(jiān)定的判斷力。
四、結(jié)束語(yǔ)
人工智能引發(fā)的審計(jì)倫理問(wèn)題,本質(zhì)上是技術(shù)理性與人文價(jià)值的深層沖突在審計(jì)領(lǐng)域的具象化呈現(xiàn)。本文構(gòu)建的“原則—技術(shù)—制度—組織”四位一體治理范式,突破了單一維度的治理局限,通過(guò)四大模塊的協(xié)同聯(lián)動(dòng),形成價(jià)值引領(lǐng)、技術(shù)賦能、制度約束、組織協(xié)同的立體化治理網(wǎng)絡(luò)。這種治理模式不僅能夠有效應(yīng)對(duì)當(dāng)前的算法偏見、責(zé)任模糊等顯性倫理風(fēng)險(xiǎn),更著眼于構(gòu)建人機(jī)協(xié)同審計(jì)倫理新秩序,為人工智能技術(shù)在審計(jì)領(lǐng)域的深度應(yīng)用提供可持續(xù)的倫理框架。展望未來(lái),審計(jì)倫理治理可進(jìn)一步聚焦于兩個(gè)方向:一是結(jié)合大模型技術(shù)發(fā)展,探索“生成式AI審計(jì)”場(chǎng)景下的倫理風(fēng)險(xiǎn)演化規(guī)律;二是引入行為經(jīng)濟(jì)學(xué)實(shí)驗(yàn)方法,量化分析治理措施對(duì)審計(jì)人員倫理決策的影響機(jī)制。
【參考文獻(xiàn)】
[1] MAUTZ R K,SHARAF H A.The philosophy of auditing[M].Sarasota,F(xiàn)L:American Accounting Association,1961.
[2] MITTELSTADT B D,ALLO P,TADDEO M,et al.The ethics of algorithms:mapping the debate[J].Big Data amp; Society,2016,3(2):1-21.
[3] CRAWFORD K.Atlas of AI:power,politics,and the planetary costs of artificial intelligence [M].New Haven,CT:Yale University Press,2021.
[4] 曹志煒,趙朗,張琦琛.人工智能技術(shù)本地化探索及在國(guó)家審計(jì)中的應(yīng)用[J].審計(jì)研究,2024(5):26-37.
[5] FLORIDI L.The ethics of artificial intelligence:principles,challenges,and opportunities [M].Oxford:Oxford University Press,2022.
[6] 余暉.數(shù)字化語(yǔ)境下審計(jì)倫理的挑戰(zhàn)及應(yīng)對(duì)策略[J].重慶三峽學(xué)院學(xué)報(bào),2024(5):13-21.
[7] MUNOKO I,BROWN-LIBURD H L,VASARHELYI E M.The ethical implications of using artificial intelligence in auditing[J].Journal of Business Ethics,2020,167(2):209-234.
[8] 肖莎娜·祖博夫.監(jiān)視資本主義時(shí)代:在權(quán)力新邊界為人類未來(lái)而戰(zhàn)[M].溫澤元,譯.北京:中信出版社,2020.
[9] 歐盟委員會(huì).關(guān)于調(diào)整非合同民事責(zé)任規(guī)則以適應(yīng)人工智能的指令提案(人工智能責(zé)任指令)[EB/OL].(2022-09-28)[2023-10-20].https://eur-
lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A52022PC0496.
[10] 劉國(guó)城.人工智能時(shí)代審計(jì)倫理的危機(jī)表征與治理路徑[J].蘭州學(xué)刊,2024(1):41-57.
[11] EUROPEAN PARLIAMENT,COUNCIL of the EUROPEAN UNION.Regulation(EU) 2024 "of the European Parliament and of the Council on laying down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act)[J].Official Journal of the European Union,2024,L series.
[12] 朱翼,化貴 ,婁瑾雯.新質(zhì)生產(chǎn)力背景下人工智能對(duì)審計(jì)職業(yè)發(fā)展的影響:基于審計(jì)師感知的實(shí)證研究[J].會(huì)計(jì)之友,2025(6):147-153.