【摘 要】 隨著自然語言處理(NLP)和深度學(xué)習(xí)技術(shù)的不斷發(fā)展,人工智能(AI)已從純粹的理論構(gòu)想逐漸演變?yōu)楝F(xiàn)實(shí)世界中不可或缺的技術(shù)要素。特別是像ChatGPT這樣的大型語言模型,不僅在自然語言理解和生成方面取得顯著進(jìn)展,而且在多種應(yīng)用場景中展示出高度的適應(yīng)性。然而,當(dāng)今高度數(shù)字化的商業(yè)環(huán)境中,使用人工智能(AI)可能帶來如數(shù)據(jù)安全、隱私保護(hù)和社會偏見等一系列倫理和社會挑戰(zhàn)問題。對AI進(jìn)行審計(jì)不僅是技術(shù)進(jìn)步的必要措施,而且是確保用戶信任與AI應(yīng)用安全性的關(guān)鍵手段,有助于構(gòu)建更安全、公平和可持續(xù)的AI生態(tài)系統(tǒng)。多個國際組織和政府已發(fā)布一系列AI審計(jì)框架。文章旨在探討AI審計(jì)的必要性,分析已有的多種AI審計(jì)框架優(yōu)缺點(diǎn),以及對企業(yè)在實(shí)踐中應(yīng)當(dāng)如何進(jìn)行AI審計(jì)提出建議,以期為未來的研究與應(yīng)用提供理論和實(shí)踐參考。
【關(guān)鍵詞】 AI; 審計(jì); 人工智能; 內(nèi)部控制; 審計(jì)框架; 人工智能治理
【中圖分類號】 F239.1" 【文獻(xiàn)標(biāo)識碼】 A" 【文章編號】 1004-5937(2023)23-0032-06
一、人工智能對財(cái)會領(lǐng)域的影響:機(jī)會和威脅
近年來深度學(xué)習(xí)技術(shù)的崛起、神經(jīng)網(wǎng)絡(luò)架構(gòu)的改進(jìn)、計(jì)算能力的增強(qiáng)以及互聯(lián)網(wǎng)數(shù)據(jù)的可用性,共同推動人工智能領(lǐng)域的技術(shù)革新。這些人工智能技術(shù)在財(cái)務(wù)和會計(jì)方面已經(jīng)展示出巨大的潛力和價值[ 1 ]。
首先,在數(shù)據(jù)分析方面,AI和機(jī)器學(xué)習(xí)算法能夠處理大量復(fù)雜的財(cái)務(wù)數(shù)據(jù),提供更及時的財(cái)務(wù)報(bào)告。這不僅提高財(cái)務(wù)報(bào)告的質(zhì)量,也使得財(cái)務(wù)報(bào)告使用者的決策更快速。
其次,在風(fēng)險評估和管理方面,AI技術(shù)能夠分析歷史數(shù)據(jù)和市場趨勢,預(yù)測潛在的財(cái)務(wù)風(fēng)險,從而助力企業(yè)更有效地進(jìn)行資本配置和風(fēng)險規(guī)避。例如AI算法能夠識別信貸風(fēng)險、市場風(fēng)險和操作風(fēng)險等多種類型的財(cái)務(wù)風(fēng)險,為企業(yè)提供更全面的風(fēng)險評估。
最后,在自動化和效率提升方面,AI技術(shù)也發(fā)揮重要作用。通過自動化財(cái)務(wù)流程,如發(fā)票處理、支付和收款等,AI不僅降低人力成本,還提高財(cái)務(wù)操作的準(zhǔn)確性和效率。此外,AI還能夠自動執(zhí)行復(fù)雜的財(cái)務(wù)模型和算法,從而在預(yù)算編制、資金分配和投資決策等方面提供更高水平的自動化支持。在合規(guī)和審計(jì)方面,AI技術(shù)能夠自動檢測財(cái)務(wù)報(bào)告和交易記錄中的不規(guī)范和異常行為,從而提高財(cái)務(wù)合規(guī)和審計(jì)的效率。不僅在財(cái)經(jīng)方面有著廣泛的應(yīng)用前景,而且在醫(yī)療診斷、代碼生成、語言翻譯等多個領(lǐng)域體現(xiàn)其優(yōu)越的性能。特別是像ChatGPT這樣的大型語言模型,在某些基準(zhǔn)測試上已經(jīng)接近人類的性能水平[ 2 ]。
然而,AI技術(shù)的廣泛應(yīng)用也帶來倫理和社會的挑戰(zhàn)。Weidinger et al.[ 3 ]指出,大型語言模型如ChatGPT存在加劇社會偏見的風(fēng)險。這些模型在輸出內(nèi)容中可能無意中強(qiáng)化對特定社會群體的偏見性描述,從而加劇現(xiàn)有社會的刻板印象。此外,這些模型還可能被用于惡意目的,包括生成高度復(fù)雜和個性化的欺詐行為或進(jìn)行大規(guī)模的欺詐活動。同時,AI的架構(gòu)存在數(shù)據(jù)泄露和敏感信息推斷的潛在風(fēng)險,這嚴(yán)重威脅個人隱私。因此,從倫理角度對AI嚴(yán)格分析不僅需要擴(kuò)展現(xiàn)有的治理框架,還需要在風(fēng)險評估方法、性能基準(zhǔn)和倫理框架方面取得革命性的進(jìn)展。正是這些挑戰(zhàn)需要一種跨學(xué)科的方法,將數(shù)據(jù)科學(xué)、管理學(xué)、倫理學(xué)等多個學(xué)科聯(lián)合起來,以全面審視和解決這些挑戰(zhàn)。特別是在人工智能審計(jì)方面,需要構(gòu)建一套全面而有效的審計(jì)機(jī)制,以確保AI技術(shù)的健康、可持續(xù)發(fā)展。
二、人工智能審計(jì)的必要性
隨著人工智能(AI)技術(shù)在各個領(lǐng)域的廣泛應(yīng)用,其潛在的風(fēng)險和挑戰(zhàn)日益凸顯。這些風(fēng)險不只局限于技術(shù)層面,還涉及社會、倫理、法律和經(jīng)濟(jì)等多方面。因此,對AI進(jìn)行全面和深入的審計(jì)成為迫切需求,有必要通過分析未經(jīng)審計(jì)的AI模型可能帶來主要問題,探討開展人工智能審計(jì)的必要性。AI模型的主要問題:
(一)數(shù)據(jù)偏見
大型語言模型通?;诖罅康奈谋緮?shù)據(jù)進(jìn)行訓(xùn)練。如果這些數(shù)據(jù)包含某種形式的偏見(如性別偏見、種族偏見等),模型可能會學(xué)習(xí)并在輸出中反映這些偏見。這不僅可能誤導(dǎo)用戶,還可能加劇社會不平等和歧視,從而對社會和倫理方面產(chǎn)生不良影響[ 4 ]。
(二)不準(zhǔn)確的信息傳播
由于AI模型是基于其訓(xùn)練數(shù)據(jù)進(jìn)行預(yù)測和決策的,如果訓(xùn)練數(shù)據(jù)包含錯誤或過時的信息,模型的輸出也可能是不準(zhǔn)確的[ 5 ]。這在醫(yī)療、法律或金融等關(guān)鍵領(lǐng)域尤為危險,因?yàn)椴粶?zhǔn)確的信息可能導(dǎo)致嚴(yán)重的后果,包括誤診、誤判或財(cái)務(wù)損失。
(三)安全性問題
未經(jīng)審計(jì)的AI模型可能更容易受到對抗性攻擊[ 6 ]。這些攻擊旨在通過輸入特定的數(shù)據(jù)來誤導(dǎo)模型,從而產(chǎn)生不準(zhǔn)確或出現(xiàn)誤導(dǎo)性的輸出。這不僅威脅到模型的可靠性和有效性,而且可能導(dǎo)致更廣泛的安全風(fēng)險。
(四)法律和倫理風(fēng)險
AI模型在生成內(nèi)容時可能觸犯法律和倫理規(guī)定,如侵犯版權(quán)或涉嫌誹謗[ 6 ]。使用這些未經(jīng)審計(jì)的模型的個人或組織可能因此面臨法律責(zé)任。此外,模型可能生成不道德或不合法的內(nèi)容,從而引發(fā)更廣泛的倫理和社會問題。
(五)可解釋性和透明度
由于未經(jīng)審計(jì)的AI模型通常缺乏可解釋性,用戶難以理解模型的決策邏輯和依據(jù)。這不僅影響用戶對模型的信任,還可能導(dǎo)致錯誤或不合理的決策。
(六)社會和文化影響
AI模型可能會生成與特定文化或社會觀念不一致的內(nèi)容,從而引發(fā)文化沖突或誤解[ 7 ]。這不僅可能導(dǎo)致模型在某些文化或社會環(huán)境中的應(yīng)用受限,還可能加劇社會分裂和沖突。
因此,審計(jì)在AI模型的治理體系中被認(rèn)為是一個重要且務(wù)實(shí)的工具。這一觀點(diǎn)不僅得到學(xué)界的重視,而且受到高科技企業(yè)和政策制定者的重視。例如,歐洲委員會正在考慮將大型語言模型歸類為“高風(fēng)險AI系統(tǒng)”,這意味著設(shè)計(jì)這些模型的技術(shù)供應(yīng)商必須接受“獨(dú)立第三方參與的符合性評估”,即另一種名為審計(jì)的活動。
AI審計(jì)的早期研究主要集中在探索和緩解算法應(yīng)用中可能產(chǎn)生的歧視及其他不良影響,特別是在決策支持系統(tǒng)以及對個體和組織的影響方面[ 8 ]。近年來,研究領(lǐng)域逐漸引入“基于倫理的自動決策系統(tǒng)審計(jì)”(EBA)這一概念[ 8 ]。EBA被構(gòu)想成一種結(jié)構(gòu)化流程,用于評估某實(shí)體(無論是現(xiàn)存還是歷史)的行為是否與相關(guān)原則或規(guī)范相符[ 8 ]。與此相對,Brown et al.(2021)提出的倫理算法審計(jì)更側(cè)重于評估算法對利益相關(guān)者產(chǎn)生的實(shí)際影響,并據(jù)此識別特定算法的情境或?qū)傩訹 8 ]。兩者主要區(qū)別在于倫理算法審計(jì)更側(cè)重于實(shí)際影響,而EBA更注重原則和規(guī)范的一致性。此外,倫理算法審計(jì)(Brown et al.,2021)明確將算法作為審計(jì)的主要對象,而沒有保留被審計(jì)實(shí)體的開放性[ 8 ]。
以大型語言模型審計(jì)為例,AI審計(jì)可細(xì)分為模型審計(jì)、治理審計(jì)和應(yīng)用審計(jì)三個關(guān)鍵階段,以全面而系統(tǒng)地評估與人工智能相關(guān)的各方面風(fēng)險[ 9 ]。
首先,模型審計(jì)專注于預(yù)訓(xùn)練但尚未發(fā)布的大型語言模型技術(shù)屬性,以揭示可能反映在歷史不公正的訓(xùn)練數(shù)據(jù)集中偏見或其他歧視性做法[ 9 ]。該審計(jì)應(yīng)由所有設(shè)計(jì)和傳播大型語言模型的技術(shù)供應(yīng)商強(qiáng)制執(zhí)行,并產(chǎn)生一份詳細(xì)報(bào)告以概述模型的屬性和局限性[ 9 ]。
其次,治理審計(jì)主要針對技術(shù)供應(yīng)商在設(shè)計(jì)和傳播語言模型過程中的管理和決策機(jī)制[ 9 ]。該審計(jì)階段由獨(dú)立的第三方或內(nèi)部機(jī)構(gòu)執(zhí)行,旨在核實(shí)技術(shù)供應(yīng)商自我報(bào)告的準(zhǔn)確性,并通常只能訪問有限的內(nèi)部流程[ 9 ]。其主要目標(biāo)是評估語言模型的設(shè)計(jì)和傳播流程,盡管它無法預(yù)見所有隨著AI系統(tǒng)與復(fù)雜環(huán)境隨時間互動而出現(xiàn)的風(fēng)險。
最后,應(yīng)用審計(jì)則是針對基于語言模型的具體應(yīng)用,包括兩個子階段:功能性審計(jì)和影響審計(jì)[ 9 ]。功能性審計(jì)評估應(yīng)用是否本身合法和符合倫理,并與預(yù)期用途一致;而影響審計(jì)則更關(guān)注應(yīng)用輸出如何影響不同的用戶群體和自然環(huán)境[ 9 ]。這三種審計(jì)類型各自審計(jì)與語言模型相關(guān)的不同問題,并在實(shí)踐中相互關(guān)聯(lián),構(gòu)成一個多層次的審計(jì)框架,以識別和管理AI在各種應(yīng)用場景中可能帶來的風(fēng)險[ 9 ]。
在AI審計(jì)的概念框架和評估方法中,應(yīng)綜合考慮基于原則和影響的兩種方法,而不是過早地界定該領(lǐng)域。以當(dāng)前發(fā)展迅速的大型語言模型為例,從治理角度看,大型語言模型帶來方法論和規(guī)范方面的挑戰(zhàn)[ 9 ]。它們通常分兩個階段開發(fā)與應(yīng)用。首先是在大型、非結(jié)構(gòu)化文本語料庫上進(jìn)行預(yù)訓(xùn)練,其次在較小、特定任務(wù)的數(shù)據(jù)集上進(jìn)行微調(diào)。這使得在沒有特定情景下很難評估大型語言模型。此外,它們在特定任務(wù)上或在規(guī)模上的表現(xiàn)可能是不可預(yù)測的。因此,治理和技術(shù)審計(jì)都有局限性。治理審計(jì)不能預(yù)見所有隨著AI系統(tǒng)與復(fù)雜環(huán)境隨時間互動而出現(xiàn)的風(fēng)險。并且,歷史上專注于在明確定義環(huán)境中的特定功能,沒有能力捕捉大型語言模型等AI模型在許多下游應(yīng)用中帶來的社會和倫理風(fēng)險的全貌。因此,盡管設(shè)計(jì)針對AI模型的審計(jì)程序面臨諸多實(shí)踐性和概念性的困難,但這些困難不應(yīng)成為不開展AI審計(jì)的借口。相反,這些問題應(yīng)視為警示,即不能期望單一的審計(jì)機(jī)制能全面捕捉與AI模型相關(guān)的所有倫理風(fēng)險。作為一種治理機(jī)制,審計(jì)能助力技術(shù)提供商識別并可能預(yù)防風(fēng)險,影響AI模型的持續(xù)(重新)設(shè)計(jì),并豐富有關(guān)技術(shù)政策的公共討論[ 9 ]。盡管面臨多重挑戰(zhàn),審計(jì)在確保AI模型的準(zhǔn)確性、可靠性和倫理性方面仍具有不可或缺的核心作用。
三、人工智能審計(jì)的框架構(gòu)思
在當(dāng)今高度數(shù)字化的商業(yè)環(huán)境中,如何避免使用人工智能(AI)帶來的風(fēng)險是一個相對較新且日益重要的研究領(lǐng)域。為此有必要從AI審計(jì)的定義、實(shí)踐應(yīng)用,以及在全球范圍內(nèi)的法律和政策方面構(gòu)建人工智能審計(jì)框架。
(一)人工智能審計(jì)的定義與范疇
審計(jì)是一種治理機(jī)制,它可以用于監(jiān)控行為和績效,并且在諸如財(cái)務(wù)會計(jì)和工人安全等領(lǐng)域促進(jìn)程序規(guī)則性和透明度的悠久歷史[ 10 ]。因此,就像財(cái)務(wù)交易可以針對真實(shí)性、準(zhǔn)確性、完整性以及合法性進(jìn)行審計(jì)一樣,AI審計(jì)中,AI系統(tǒng)的設(shè)計(jì)和使用也可以針對技術(shù)安全性、法律合規(guī)性或與預(yù)定義的倫理原則一致性進(jìn)行審計(jì)。AI審計(jì)是一種系統(tǒng)性和獨(dú)立的活動,它涉及獲取和評估與特定實(shí)體(無論是AI系統(tǒng)、組織、流程,或是這些元素的任何組合)的行為或?qū)傩韵嚓P(guān)的證據(jù),并將評估結(jié)果傳達(dá)給利益相關(guān)方[ 9 ]。它強(qiáng)調(diào)審計(jì)活動的系統(tǒng)性和獨(dú)立性,突出在高度依賴數(shù)據(jù)和算法的現(xiàn)代商業(yè)環(huán)境中,審計(jì)在治理機(jī)制中的重要性。被審實(shí)體不局限于算法,而是開放的,可以是一個AI系統(tǒng)、一個組織、一個過程,或者是它們的任何組合[ 9 ]。根據(jù)其側(cè)重點(diǎn),AI審計(jì)可分為狹義和廣義兩種。狹義的人工智能審計(jì)是以影響為導(dǎo)向,重點(diǎn)在于探測和評估AI系統(tǒng)對不同輸入數(shù)據(jù)的輸出[ 9 ]。廣義的人工智能審計(jì)則是以過程為導(dǎo)向,側(cè)重于評估整個軟件開發(fā)流程和質(zhì)量管理流程[ 9 ]。
(二)實(shí)踐應(yīng)用層面:AI審計(jì)的應(yīng)用場景
紐約市的AI審計(jì)法(NYC Local Law 144)要求使用AI進(jìn)行就業(yè)決策的公司必須接受獨(dú)立審計(jì)。此外,全球范圍內(nèi)的專業(yè)服務(wù)公司,如普華永道(PwC)、德勤(Deloitte)、畢馬威(KPMG)和安永(EY),也提供AI審計(jì)服務(wù),以幫助企業(yè)評估和管理與AI應(yīng)用相關(guān)的風(fēng)險。在法律與政策背景方面,在全球范圍內(nèi),AI審計(jì)逐漸受到法律和政策的關(guān)注[ 10 ]。盡管全球范圍內(nèi)人工智能(AI)審計(jì)的實(shí)踐與學(xué)術(shù)研究呈逐漸上升的趨勢,但該領(lǐng)域仍然是一個復(fù)雜且至關(guān)重要的研究領(lǐng)域。它不僅跨越多個學(xué)科領(lǐng)域和研究方法論,而且受到各類法律和政策環(huán)境的深刻影響。在我國,該領(lǐng)域的研究處于關(guān)鍵階段。
(三)AI審計(jì)框架
隨著關(guān)于如何審計(jì)AI項(xiàng)目的指導(dǎo)方針日益普及,多個國際組織和政府已發(fā)布一系列有助于內(nèi)部審計(jì)功能的AI審計(jì)框架。
COBIT框架。最新版本的COBIT框架,即COBIT 2019,由信息系統(tǒng)審計(jì)與控制協(xié)會(ISACA)在2018年發(fā)布,以取代其前身COBIT5。作為一個“綜合性”框架,COBIT在企業(yè)信息和技術(shù)的治理與管理方面得到了國際認(rèn)可[ 11 ]。該框架包括幾乎所有IT領(lǐng)域的流程描述、期望結(jié)果、基礎(chǔ)實(shí)踐和工作產(chǎn)品,因此非常適合作為審計(jì)AI啟用項(xiàng)目時內(nèi)部審計(jì)功能的初始起點(diǎn)。然而,COBIT 2019的綜合性也是其弱點(diǎn)之一。由于覆蓋范圍廣泛,該框架可能缺乏針對特定AI應(yīng)用場景的深入指導(dǎo)。此外,其復(fù)雜性可能導(dǎo)致實(shí)施難度增加。
COSO ERM框架。由贊助組織委員會(COSO)在2017年更新的COSO ERM框架包括五個組成部分和20個原則,為內(nèi)部審計(jì)提供一種集成和全面的風(fēng)險管理方法[ 12 ]。COSO ERM的風(fēng)險管理方法可以為AI的治理提供指導(dǎo),并有效地管理其相關(guān)風(fēng)險,以造福組織。然而,COSO ERM主要側(cè)重于風(fēng)險管理,可能忽視AI治理中的其他關(guān)鍵方面,如倫理和社會責(zé)任。
美國審計(jì)署(GAO)AI框架。GAO開發(fā)并于2021年6月發(fā)布的人工智能問責(zé)框架旨在“幫助管理者確保AI在政府程序和流程中的負(fù)責(zé)任使用”[ 13 ]。盡管這一AI審計(jì)框架主要關(guān)注政府使用AI的受托責(zé)任,但由于它基于現(xiàn)有的控制和政府審計(jì)標(biāo)準(zhǔn),主要適用于政府組織,可能不適用于私營企業(yè)或非營利組織。此外,它可能缺乏對特定AI技術(shù)或應(yīng)用的深入分析。
國際內(nèi)部審計(jì)師協(xié)會(IIA)人工智能審計(jì)框架。由IIA發(fā)布的人工智能審計(jì)框架包括三個主要組成部分和七個元素,有助于內(nèi)部審計(jì)在短期、中期或長期內(nèi)評估、理解和傳達(dá)人工智能對組織創(chuàng)造價值能力的影響。該框架主要側(cè)重于審計(jì),可能不足以全面地解決AI治理的復(fù)雜性和多維性[ 14 ]。
新加坡個人數(shù)據(jù)保護(hù)委員會(PDPC)模型AI治理框架。由新加坡個人數(shù)據(jù)保護(hù)委員會(PDPC)與世界經(jīng)濟(jì)論壇(WEF)第四次工業(yè)革命中心(4IR)共同創(chuàng)建的模型人工智能治理框架第二版,關(guān)注四個廣泛領(lǐng)域,作為組織推出AI計(jì)劃時的基礎(chǔ)考慮和措施[ 15 ]。該框架主要適用于新加坡的法律和文化環(huán)境,可能需要進(jìn)行本地化調(diào)整才能在其他地區(qū)有效。這些框架的制定不僅有助于提高審計(jì)的準(zhǔn)確性和可靠性,還有助于確保其在倫理和社會層面上的責(zé)任與可持續(xù)性。
四、人工智能審計(jì)的建設(shè)方向和建議
在AI審計(jì)的復(fù)雜體系中,內(nèi)部審計(jì)與外部審計(jì)各自扮演著不可或缺的角色,共同構(gòu)建一個多維度的審計(jì)框架。內(nèi)部審計(jì)作為企業(yè)自我評估和監(jiān)控的重要機(jī)制,其核心價值不僅局限于模型和算法的性能與安全性,而且延伸至對企業(yè)內(nèi)部流程和決策機(jī)制的深度審查。從信息透明度和準(zhǔn)確性的角度,內(nèi)部審計(jì)有助于確保模型設(shè)計(jì)和性能的自我評估是準(zhǔn)確和可靠的,這一點(diǎn)在企業(yè)商業(yè)決策和戰(zhàn)略規(guī)劃中具有至關(guān)重要的作用。通過內(nèi)部審計(jì),企業(yè)能更精準(zhǔn)地了解到模型的優(yōu)缺點(diǎn),從而做出更明智和合理的商業(yè)決策。此外,內(nèi)部審計(jì)員由于能夠訪問企業(yè)的內(nèi)部流程,因此能全面評估模型從設(shè)計(jì)到應(yīng)用的全過程,這不僅有助于識別和管理潛在的技術(shù)和安全風(fēng)險,還確保模型的設(shè)計(jì)和實(shí)施與企業(yè)的整體戰(zhàn)略和目標(biāo)是一致的。
然而,內(nèi)部審計(jì)也面臨一系列挑戰(zhàn)和局限性。內(nèi)部審計(jì)需要高度重視企業(yè)的商業(yè)利益和倫理風(fēng)險,以避免與被審計(jì)對象之間存在潛在的利益沖突。例如,如果一個企業(yè)的AI模型是由高級管理層直接推動或批準(zhǔn)的,內(nèi)部審計(jì)員可能會面臨來自上級的壓力,隱瞞或忽略模型存在的問題。特別是在面臨激烈市場競爭和快速技術(shù)發(fā)展的環(huán)境中,任何對模型性能的負(fù)面評價都可能影響企業(yè)的市場地位和競爭力。此時,內(nèi)部審計(jì)很難獨(dú)立發(fā)表審計(jì)意見,特別是當(dāng)審計(jì)結(jié)果與企業(yè)的商業(yè)目標(biāo)不一致時。因此,審計(jì)中缺乏第三方的問責(zé)機(jī)制可能會導(dǎo)致決策者忽視或淡化那些可能威脅到商業(yè)利益的審計(jì)改進(jìn)建議,這可能影響模型的性能和可靠性,還可能引發(fā)一系列倫理和法律問題。例如,如果內(nèi)部審計(jì)報(bào)告指出,AI模型存在數(shù)據(jù)偏見,但是要解決這一問題,將降低模型性能,那么管理層可能忽視或淡化這類問題,以維護(hù)企業(yè)利益。如果存在性別或種族偏見的信貸評估模型用于實(shí)踐中,可能觸發(fā)社會不滿,還可能導(dǎo)致企業(yè)面臨法律風(fēng)險。
與內(nèi)部審計(jì)相輔相成,外部審計(jì)作為第三方獨(dú)立評估機(jī)制,其核心價值體現(xiàn)在全方位、多維度的審查能力。在模型性能評估方面,外部審計(jì)不僅對模型在特定任務(wù)和數(shù)據(jù)集上的準(zhǔn)確性進(jìn)行深入評估,而且對模型在不同文化和背景上的適用性進(jìn)行評價[ 9 ]。這一點(diǎn)明確了審計(jì)師需要具備跨學(xué)科的知識體系和視野。從安全性維度出發(fā),外部審計(jì)致力于深度識別和評估模型可能存在的安全漏洞,這包括對抗性攻擊、數(shù)據(jù)泄露和未經(jīng)授權(quán)的訪問等問題[ 9 ]。這體現(xiàn)了審計(jì)工作的嚴(yán)謹(jǐn)性和全面性。在倫理和合規(guī)性方面,通過先進(jìn)的數(shù)據(jù)分析和算法檢測技術(shù),外部審計(jì)可識別模型是否存在性別、種族、文化或其他形式的偏見和歧視,并據(jù)此提出針對性的改進(jìn)建議[ 9 ]。這一環(huán)節(jié)不僅體現(xiàn)審計(jì)工作的社會責(zé)任感,也是對模型公平性和合規(guī)性的有力保證。除了技術(shù)和倫理兩個主要維度外,模型的可解釋性和透明度也是外部審計(jì)的重要組成部分[ 9 ]。這涵蓋了模型決策邏輯的可解釋性、模型訓(xùn)練和應(yīng)用過程的透明度,以及與模型相關(guān)的所有文檔和元數(shù)據(jù)的完整性和準(zhǔn)確性[ 9 ],有助于提升模型的社會可接受度和信任度。從更為宏觀的社會和文化影響角度來看,外部審計(jì)還需關(guān)注模型可能對社會結(jié)構(gòu)、公眾輿論及信息傳播等方面產(chǎn)生的長期和短期影響。這不僅是對模型影響力的全面評估,也是對其可持續(xù)發(fā)展性和社會責(zé)任的一種體現(xiàn)。
因此,內(nèi)部審計(jì)與外部審計(jì)應(yīng)當(dāng)相互補(bǔ)充,與其他治理機(jī)制協(xié)同作用,以實(shí)現(xiàn)更全面和有效的AI模型審計(jì)。這不僅要求審計(jì)員具備跨學(xué)科的知識和視野,還要求其能全面評估和管理模型在技術(shù)、商業(yè)、倫理和社會等多個方面的風(fēng)險和影響。這一多維度的審計(jì)框架為AI模型的全周期治理提供了一個全面而深入的研究基礎(chǔ)。
五、人工智能審計(jì)可能帶來的影響
AI審計(jì)作為綜合性的治理機(jī)制,其核心目標(biāo)不會僅局限于提升模型在技術(shù)方面的準(zhǔn)確性與可靠性,而是更廣泛地涵蓋社會、倫理、法律及經(jīng)濟(jì)等多個維度的標(biāo)準(zhǔn)與期望。從技術(shù)角度出發(fā),AI審計(jì)通過精密的數(shù)據(jù)分析和模型驗(yàn)證,能有效地識別并修正模型的潛在缺陷與誤差,從而增強(qiáng)模型在具體應(yīng)用場景中的準(zhǔn)確性和可靠性,促使其整體性和穩(wěn)健性的提升。在社會與倫理層面,AI審計(jì)具有減緩數(shù)據(jù)偏見和歧視現(xiàn)象的功能。通過對模型的數(shù)據(jù)處理和決策機(jī)制進(jìn)行嚴(yán)格審查,審計(jì)活動能揭示潛在的偏見或歧視,并據(jù)此提出針對性的糾正措施,對緩解模型在實(shí)際應(yīng)用中可能引發(fā)的社會不平等和不公具有至關(guān)重要的意義[ 6 ]。從透明度和可解釋性方面考慮,AI審計(jì)通常會產(chǎn)出詳實(shí)的分析報(bào)告,以明確模型的運(yùn)行邏輯和決策依據(jù),這不僅增加模型的透明度和可解釋性,也有助于提升用戶及其他利益相關(guān)方對模型的信任度[ 16 ]。在法律和合規(guī)性方面,AI審計(jì)發(fā)揮著風(fēng)險規(guī)避和合規(guī)保障的作用。通過審計(jì),能確保模型和算法的運(yùn)行符合相關(guān)法律和規(guī)定,如數(shù)據(jù)保護(hù)法和版權(quán)法,從而降低AI應(yīng)用可能導(dǎo)致的法律風(fēng)險,并為構(gòu)建更完善的合規(guī)體系提供堅(jiān)實(shí)的基礎(chǔ)。從倫理和社會責(zé)任視角看,AI審計(jì)確保模型在設(shè)計(jì)和應(yīng)用階段嚴(yán)格遵循公平、透明和責(zé)任等倫理原則,這不僅提升模型的社會接受度,還能促進(jìn)AI的開發(fā)和應(yīng)用實(shí)踐。
在經(jīng)濟(jì)層面,經(jīng)過審計(jì)的AI模型通常表現(xiàn)出更高的運(yùn)行效率和準(zhǔn)確度,從而有助于降低運(yùn)營成本和提高經(jīng)濟(jì)效益。此外,通過減少潛在的法律風(fēng)險和提升用戶及其他利益相關(guān)方的信任,模型的經(jīng)濟(jì)價值得以進(jìn)一步放大。從多元利益相關(guān)者的視角來看,AI審計(jì)在企業(yè)、政府、消費(fèi)者和學(xué)術(shù)界等多個層面都具有不可忽視的價值[ 17 ]。對企業(yè)而言,AI審計(jì)不僅是品牌信譽(yù)建設(shè)的有效手段,還是一種戰(zhàn)略性資產(chǎn),能夠提供更高的投資回報(bào)率,吸引更多資本注入,進(jìn)而推動企業(yè)的技術(shù)創(chuàng)新和市場拓展。對政府和監(jiān)管機(jī)構(gòu)來說,AI審計(jì)生成的數(shù)據(jù)和分析報(bào)告為政策制定提供科學(xué)依據(jù),有助于更準(zhǔn)確地把握AI技術(shù)的社會影響,從而制定更合理和有效的法規(guī)與政策。此外,AI審計(jì)在識別和糾正模型偏見及歧視方面具有重要作用,這不僅促進(jìn)社會公平和穩(wěn)定,也是構(gòu)建和諧社會的必要條件。從消費(fèi)者和公眾角度,AI審計(jì)增強(qiáng)模型的透明度和可解釋性,有助于保障消費(fèi)者的知情權(quán)和選擇權(quán),同時也增強(qiáng)公眾對AI應(yīng)用的整體信任度。在學(xué)術(shù)界和研究人員層面,AI審計(jì)作為一種研究工具,可以深入探究AI模型在社會、倫理和法律等方面的復(fù)雜影響,這不僅推動了AI倫理和社會影響等領(lǐng)域的學(xué)術(shù)研究,還可能促進(jìn)不同學(xué)科和領(lǐng)域之間的交叉合作與知識整合。
六、結(jié)論與展望
AI審計(jì)的實(shí)施,有助于確保人工智能模型、算法及其應(yīng)用在技術(shù)、倫理和社會應(yīng)用層面達(dá)到社會的期望。通過分析數(shù)據(jù)和檢驗(yàn)?zāi)P?,AI審計(jì)能有效提升模型在實(shí)際應(yīng)用中的準(zhǔn)確性和可靠性,進(jìn)而優(yōu)化運(yùn)行效率和降低運(yùn)營成本。然而,面對人工智能,尤其是強(qiáng)人工智能(AGI)的快速發(fā)展,審計(jì)領(lǐng)域?qū)⒃庥龈鼮閺?fù)雜和多維的挑戰(zhàn)[ 18 ]。從審計(jì)方法論角度看,傳統(tǒng)審計(jì)手段可能不完全適用于AI審計(jì),因?yàn)檫@些方法通常針對更為簡單和專門化的系統(tǒng)。因此,學(xué)術(shù)界和實(shí)踐界需要多學(xué)科合作,共同研發(fā)適用于AI的新型審計(jì)方法和工具??傮w而言,AI審計(jì)將面臨多層次、多維度和跨學(xué)科的技術(shù)與倫理等多方面的挑戰(zhàn),這需要全球范圍內(nèi)的企業(yè)、高校與研究機(jī)構(gòu)的通力合作和技術(shù)創(chuàng)新,方能保證AI模型的安全性、可靠性和倫理合規(guī)性。綜合考慮技術(shù)、法律、倫理和社會因素,AI審計(jì)不僅是技術(shù)進(jìn)步的必要條件,還是實(shí)現(xiàn)AI有效應(yīng)用的關(guān)鍵途徑,有助于構(gòu)建一個更為安全、公平和可持續(xù)的AI生態(tài)系統(tǒng)。
【參考文獻(xiàn)】
[1] 秦榮生.人工智能與智能會計(jì)應(yīng)用研究[J].會計(jì)之友,2020(18):11-13.
[2] ANDERLJUNG M,BARNHART J,LEUNG J,et al.Frontier AI regulation:managing emerging risks to public safety[DB/OL]. (2023-09-04)[2023-10-03].https://arxiv.org/abs/2307.03718.
[3] WEIDINGER L,UESATO J,RAUH M,et al.Taxonomy of risks posed by language models[C]//Proceedings of the 2022 ACM Conference on Fairness,Accountability,and Transparency,2022:214-229.
[4] KIRPITSAS I K,PACHIDIS T P.Evolution towards hybrid software development methods and information systems audit challenges[J].Software,2022,1(3): 316-363.
[5] HEILINGER J C.The ethics of AI ethics.A constructive critique[J].Philosophy amp; Technology,2022,35(3):61.
[6] WINFIELD A F T,JIROTKA M.Ethical governance is essential to building trust in robotics and artificial intelligence systems[J].Philosophical Transactions of the Royal Society A:Mathematical,Physical and Engineering Sciences,2018,376(2133):20180085.
[7] RAJI I D,SMART A,WHITE R N,et al.Closing the AI accountability gap:defining an end-to-end framework for internal algorithmic auditing[C]//Proceedings of the 2020 conference on fairness,accountability, and transparency,2020:33-44
[8] MINKKINEN M,LAINE J,MANTYMAKI M.Continuous auditing of artificial intelligence:a conceptualization and assessment of tools and frameworks[J].Digital Society,2022,1(3):21.
[9] M■KDNDER J,SCHUETT J,KIRK H R,et al.Auditing large language models:a three-layered approach[J].AI and Ethics,2023:1-31.
[10] MONTASARI R.National artificial intelligence strategies:a comparison of the UK,EU and US approaches with those adopted by state adversaries[M]//Countering Cyberterrorism:The Confluence of Artificial Intelligence,Cyber Forensics and Digital Policing in US and UK National Cybersecurity. Cham:Springer International Publishing,2023:139-164.
[11] ULNICANE I.Artificial intelligence in the European Union:policy,ethics and regulation[M]//The Routledge Handbook of European Integrations.Taylor amp; Francis,2022.
[12] MOELLER R R.COSO enterprise risk management:understanding the new integrated ERM framework[M].John Wiley amp; Sons,2007.
[13] GAO U S.Artificial Intelligence:emerging opportunities,challenges,and implications[J].Report to the Committee on Science,Space,and Technology, House of Representatives.Technology Assessment. Washington,DC:United States Government Accountability Office,2018.
[14] SOIN K,COLLIER P.Risk and risk management in management accounting and control[J].Management Accounting Research,2013,24(2):82-87.
[15] PERSONAL DATA PROTECTION COMMISSION.Singapore's approach to AI governance[EB/OL].(2020-01-01)[2023-10-01].https://www.pdpc.gov.sg/help-and-resources / 2020 / 01 / model-ai-governance-framework.
[16] LANDERS R N,BEJREMD T S.Auditing the AI auditors:a framework for evaluating fairness and bias in high stakes AI predictive models[J].American Psychologist,2023,78(1):36.
[17] WACHTER S,MITTELSTADT B,F(xiàn)LORIDI L.Transparent,explainable,and accountable AI for robotics[J].Science Robotics,2017,2(6):eaan6080.
[18] 朱禹,陳關(guān)澤,陸泳溶,等.生成式人工智能治理行動框架:基于AIGC事故報(bào)道文本的內(nèi)容分析[J].圖書情報(bào)知識,2023,40(4):41-51.