程方正 彭飛榮
摘 要:人工智能的發(fā)展和進一步應用,已經(jīng)成為不可逆的趨勢。人工智能帶來福利的同時,也帶來一定的風險。通過可信人工智能標準體系構建的方法,可降低人工智能所帶來的風險??尚湃斯ぶ悄芤笕斯ぶ悄芟到y(tǒng)具備可解釋性、無歧視性和數(shù)據(jù)安全性。域外可信人工智能標準體系建設主要存在倫理概念標準建設和技術標準建設兩種途徑,并已經(jīng)有相關的可信人工智能標準體系建設總綱。我國可以參照域外的經(jīng)驗,建設可信人工智能標準體系總綱,加強人工智能倫理標準體系建設和技術標準體系建設,確保人工智能系統(tǒng)的可信性。
關鍵詞:可信人工智能,標準體系建設,人工智能倫理
DOI編碼:10.3969/j.issn.1674-5698.2023.09.004
1 可信人工智能標準體系建設的必要性
人工智能的進一步發(fā)展,已經(jīng)成為了不可逆的趨勢。近年來,歐洲、美國、日本等國家及地區(qū)持續(xù)加大投入關于人工智能基礎理論和應用的研究,以此保持在此領域的技術領先地位。我國政府也在2017年發(fā)布了《新一代人工智能發(fā)展規(guī)劃》,將人工智能正式列入國家發(fā)展戰(zhàn)略。根據(jù)中國互聯(lián)網(wǎng)協(xié)會所發(fā)布的《中國互聯(lián)網(wǎng)發(fā)展報告(2021)》顯示,我國的人工智能產(chǎn)業(yè),市場規(guī)模已經(jīng)達到3031億元。
人工智能的發(fā)展雖促進了社會生產(chǎn)力、經(jīng)濟的發(fā)展,但也產(chǎn)生了新的問題。近年來,例如:特斯拉的自動駕駛事故、數(shù)據(jù)泄漏等事件的發(fā)生,社會各方開始重點關注人工智能系統(tǒng)的安全性問題。習近平總書記在2018年10月主持政治局第九次集體學習時就強調,“要加強人工智能發(fā)展的潛在風險研判和防范,維護人民利益和國家安全,確保人工智能安全、可靠、可控”。隨后,我國在G20峰會上,首次提出可信人工智能概念,強調發(fā)展以人為本的可信人工智能,并得到國際社會的普遍認同[1]。
將可信人工智能的要求落實到具體的實踐中去,是目前人工智能產(chǎn)業(yè)發(fā)展亟需要解決的問題。2021年7月,中國信息通信研究院和京東探索研究院聯(lián)合制作了《可信人工智能白皮書》,分析并發(fā)掘如何實現(xiàn)可信人工智能的路徑?!栋灼分赋?,“可信人工智能不僅僅是企業(yè)單方面的實踐和努力,需要多方協(xié)調參與,形成一個相互影響、相互支持、相互依賴的良性生態(tài)。這個生態(tài)主要包括標準體系、評估驗證、合作交流?!盵2]誠如《白皮書》中所言,政策和法律只能規(guī)定原則,具體的落地措施還需要依靠標準來實現(xiàn)。我國目前雖然已經(jīng)有關于可信人工智能的相關標準,如:2021年4月出臺的《信息安全技術人臉識別數(shù)據(jù)安全要求》和2021年9月25日出臺的《新一代人工智能倫理規(guī)范》,以及國家標準化管理委員會等五部門在2020年7月27日所印發(fā)的《國家新一代人工智能標準體系建設指南》。上述的文件都有回應有關可信人工智能建設的問題,但其內容多半為原則性概念,且內容較為宏觀,難以稱為一套完整的標準體系。本文將通過論述可信人工智能標準的基本要求,并參照域外經(jīng)驗后,為我國可信人工智能標準體系的建設提供一些建議。
2 可信人工智能標準體系的基本要求
可信人工智能標準體系的設立目的為將可信人工智能倫理準則規(guī)范化、實踐化,因此,在構建可信人工智能標準之前,需了解可信人工智能的基本要求。目前,人工智能的倫理原則的內容并不存在統(tǒng)一的標準,但可解釋性、公平與偏見、安全和隱私和可問責性這4個方面為業(yè)界和學界較為公認的4個重要原則[3]。由于可問責性原則的實現(xiàn),主要依賴于法律、行政法規(guī)等規(guī)范性文件,與標準內容并無過大的關聯(lián),因此,本文將不做詳細的介紹。下文將從可解釋性、公平與偏見和安全與隱私這3個維度展開,進一步介紹人工智能的基本要求。
2.1 可解釋性
在過去的幾年,人工智能的不透明,也就是所謂的“算法黑箱”已經(jīng)成為熱點問題。透明度為數(shù)據(jù)保護的一般原則,但人工智能由于其特性的限制,使得透明度的具體標準難以被制定。
人工智能存在技術壁壘、因果關系難以解釋和高度動態(tài)性的問題,使得外部觀察者對于系統(tǒng)本身造成認知約束。因此,有關人工智能透明度的問題,不應當側重于獲取有關人工智能系統(tǒng)盡可能詳細的信息,而是側重于人工智能系統(tǒng)的可解釋性,故應當引入可解釋概念,解決此類問題。有學者也曾提出過透明性(transparency)的概念,即要求產(chǎn)品方將人工智能的算法進行公開或者部分公開,以此解決“算法黑箱”的問題。但對于人工智能產(chǎn)品來說,采用可解釋性的要求明顯優(yōu)于透明性。這是因為,就像對于人類有關行為的解釋,并不需要了解其體內的神經(jīng)元信號如何流通一樣,對于人工智能有關行動的解釋,也不必去了解人工智能系統(tǒng)的比特流。
人工智能的可解釋性的概念與內涵,取決于不同領域和不同利益相關者,目前主要基于3個角度,即方法層面、用戶需求角度和應用研究方面。方法層面主要側重于算法模型的解釋。用戶需求層面,則期望A I決策能夠透明化,熟悉其決策規(guī)則。AI決策在應用層面研究較為廣泛,也較為深遠,例如:智能醫(yī)療、無人駕駛甚至智能司法。因此,根據(jù)人工智能可解釋性的要求,產(chǎn)品方應當提高有關算法的功能和缺陷的解釋、AI決策化的流程圖和決策規(guī)則以及所銷售人工智能產(chǎn)品的潛在風險(與普通同種類產(chǎn)品有所不同的風險)。
2.2 無歧視性
無歧視的社會是我們向往追求的,歧視往往來源于主觀偏見,并依據(jù)主觀偏見做出了帶有歧視性的決策。機器依據(jù)純粹的事實和設定的規(guī)則做出決策,因此,機器所作出的決策應當避免歧視性結果的發(fā)生。然而,事實并非如此,大量的證據(jù)證明,人工智能系統(tǒng)所作出的決策,仍可能具有歧視性。
人工智能系統(tǒng)的歧視性來源,可以分為3類,分別為有缺陷的數(shù)據(jù)收集、有缺陷的數(shù)據(jù)聚合和規(guī)范的無響應[4]。缺陷的數(shù)據(jù)收集是導致人工智能系統(tǒng)生成歧視性結果的一種常見原因,即數(shù)據(jù)輸入偏差導致數(shù)據(jù)輸出偏差。輸入偏差的原因通常是因為數(shù)據(jù)的代表性不足。有缺陷的數(shù)據(jù)聚合是指原始的訓練數(shù)據(jù)不存在偏差,但在之后的數(shù)據(jù)處理過程之中發(fā)生了偏差。此類問題的產(chǎn)生原因主要為數(shù)據(jù)標準前后不一致,從而影響后續(xù)人工智能的決策行為。
相較于有缺陷的數(shù)據(jù)收集、有缺陷的數(shù)據(jù)聚合,規(guī)范的無響應性的問題較為復雜且更加難以解決。規(guī)范無響應性是指,即使通過相應的規(guī)范構建防止此類歧視行為的發(fā)生,依舊可能發(fā)生歧視性的決策。人工智能的決策行為基于以往的統(tǒng)計數(shù)據(jù)所產(chǎn)生,也就是說,人工智能只能通過對過去事實的觀察,以此預測未來的發(fā)生,但規(guī)范往往是“反事實”行為,目的在于調整現(xiàn)狀,這二者間相互獨立,因此在某些情況下可能會發(fā)生沖突。例如:根據(jù)數(shù)據(jù)統(tǒng)計表明,女性的平均壽命要高于男性,因此,保險公司有理由基于此數(shù)據(jù),區(qū)別設置男性和女性的保險費。但這涉及性別歧視,違反公序良俗原則,因此需設立相關規(guī)定,禁止將性別作為決策的參考因素。然而,這時就可能發(fā)生規(guī)范的無響應性,即使設立相關規(guī)定,禁止保險公司將性別作為決策的參考因素,其性別歧視的行為依舊存在。這是因為人工智能系統(tǒng)即使不將性別作為決策的參考因素,但也可以通過其他數(shù)據(jù)的測量和評算,預測出具體客戶的“性別”,并以此做出決策,從而使得“性別平等”的規(guī)范在實踐中無效化。
人工智能的歧視治理并不能采用單一化的方式,應當通過多個層面進行治理,例如:通過“檢查訓練數(shù)據(jù)的公平性、檢查模型輸出的公平性和填寫數(shù)據(jù)卡和模型卡”[5]的方式,并制定出相應的技術標準,提前預防歧視性行為的發(fā)生。
2.3 數(shù)據(jù)安全性
C h a t G P T的概念剛產(chǎn)生不久,有關的人工智能的數(shù)據(jù)安全和網(wǎng)絡安全問題就已經(jīng)浮出水面,根據(jù)Fortinet北亞區(qū)首席技術顧問譚杰表示,ChatGPT等AI技術對網(wǎng)絡和數(shù)據(jù)安全的威脅已經(jīng)發(fā)生[6]。
目前,人工智能數(shù)據(jù)安全風險主要來自于數(shù)據(jù)投毒、數(shù)據(jù)深度偽造、數(shù)據(jù)過度采集、數(shù)據(jù)濫用分析等方面[7]。隨著人工智能在各個領域的發(fā)展,數(shù)據(jù)資源得到更廣泛的使用,但數(shù)據(jù)風險安全問題也愈發(fā)突出。數(shù)據(jù)安全問題不僅涉及到用戶的隱私權益,也涉及到行業(yè)的運行規(guī)制,甚至關乎國家的安全問題。我國關于數(shù)據(jù)安全問題已經(jīng)出臺了一系列法律法規(guī),例如:《個人信息保護法》《數(shù)據(jù)安全法》,但人工智能技術具有一定的特殊性,需要制定特別的規(guī)范,以此確保其數(shù)據(jù)安全性。
數(shù)據(jù)安全的問題應當從兩種路徑進行解決,第一種為制定相關的技術標準,從技術層面化解數(shù)據(jù)安全風險;第二種為制定相應的規(guī)范性文件,落實相關人員的責任,合理彌補受害者的損失。前一種規(guī)范為事前規(guī)范,可以最大程度減少數(shù)據(jù)安全風險,使得社會資源得到最大的利用。后一種規(guī)范為事后規(guī)范,事后規(guī)范并不能有效預防危險的發(fā)生,但由于在現(xiàn)實層面中,不可能從技術方面完全杜絕數(shù)據(jù)安全風險的發(fā)生。通過事后規(guī)范,可以從最大程度上填平損失,使得人工智能產(chǎn)業(yè)穩(wěn)定、健康發(fā)展。
3 可信人工智能體系標準建設的域外情況
國外的人工智能技術和產(chǎn)業(yè)的發(fā)展起步較早,并在人工智能倫理和可行性方面已經(jīng)有了較為豐富的研究,對于我國可信人工智能標準體系建設具有重要參考價值。
國際上有關人工智能標準建設的研究和發(fā)展,大致遵循兩種路徑,第一種路徑為側重建立人工智能倫理基礎原則(以下簡稱“倫理原則路徑”),例如:ISO/IEC JTC 1/SC 42/WG 3、IEC/SEG 10、IEEE-GIEAIS。另一種路徑則試圖通過對人工智能技術的規(guī)制(以下簡稱“技術路徑”),從而確保人工智能的可信性,此種路徑的標準代表有ISO/IEC JTC1/SC42/WG3、IEEE P7000TM[8]。
倫理原則路徑的標準體系建設,主要通過提出一系列的概念,并要求人工智能產(chǎn)品必須具備各個概念中的相應標準。例如:SC42/WG3提出問責制、責任性、可解性、魯棒性等一系列概念,總結出人權、勞動實踐、自然環(huán)境等一系列影響核心社會責任議題。側重于人工智能倫理基礎原則的標準體系建設,其功能在于,為可信人工智能標準體系建設的發(fā)展方向提供具體要求,使得人工智能的可信度可以被評價。
人工智能可信性標準的落地,需要依賴具體的技術得以實現(xiàn),只依靠評價體系建設,并不能從根源上解決人工智能可信性的問題,因此,需要從技術角度設立相關的標準。然而,由于人工智能相關技術存在復雜性和多樣性的特點,國際標準化組織在該領域的技術類標準的研究,均處于研究階段,并未完全成型。但也產(chǎn)生一些成果,對于我國的相關領域的建設,具有參考價值,例如:上文所列的IEEE P7000TM。
建設倫理原則的路徑和建設技術標準的路徑并非相互矛盾,恰恰相反,二者互為手段和目的。因此,歐盟的相關委員會嘗試將兩種路徑進行統(tǒng)籌,構建出一套系統(tǒng)性的人工智能可信性指南。2018年12月,歐盟委員會的人工智能高級專家組發(fā)布了《可信人工智能倫理指南草案》,該指南提出一個可信人工智能框架,強調倫理規(guī)范性和技術性,并提出總計10項可信人工智能的要求和12項用于實現(xiàn)可信人工智能的技術和非技術性方法,同時設計出一套評估清單,便于企業(yè)和監(jiān)管方進行對照。隨后,ISO(國際標準化組織)和IEC(國際電工委員會)在2020年出臺ISO/IEC TR 24028《可信人工智能標準概述》,其目的在于分析可能影響人工智能系統(tǒng)可信度的一些關鍵因素,以此協(xié)助標準界確定AI領域的具體標準化差距。上述指南的提出,標志著可信人工智能的標準建設已經(jīng)進入到結構性、體系性階段。
4 我國可信人工智能標準體系建設的建議
我國已有大量關于人工智能技術的標準,但是缺乏關于人工智能可信性的相關標準。2020年國家標準化管理委員會、中央網(wǎng)信辦、國家發(fā)展改革委、科技部、工業(yè)和信息化部印發(fā)的《國家新一代人工智能標準體系建設指南》中第八項,提到了人工智能的安全/倫理標準,并在文中提出,需從8個方向進行標準體系的建設,但未提出具體的標準構建?,F(xiàn)行的GB/T 41867-2022標準中,提出了有關人工智能倫理的相關概念,除此之外,并無任何與可信人工智能相關的標準。本文將結合人工智能的基本原則和部分域外標準規(guī)范,提出幾點關于構建可信人工智能標準的建議。
4.1 設立人工智能可信性指南,構建可信人工智能標準框架
人工智能進一步的發(fā)展可能受制于用戶群體對人工智能系統(tǒng)可靠性、有效性和公平性的質疑,若不能系統(tǒng)性解決社會層面對于人工智能的擔憂,則會削弱市場對于人工智能的投入,從而影響人工智能產(chǎn)業(yè)的長遠發(fā)展。
我國的可信人工智能標準體系,并不是將可信人工智能相關標準機械相加。標準體系是一定范圍內的標準按其內在聯(lián)系形成的科學有機整體,具有目的性、層次性??尚湃斯ぶ悄軜藴鼠w系內的標準應當相互協(xié)調、相輔相成,絕不是孤立的、彼此之間毫無關聯(lián)的。人工智能可信性指南的設立,是將關于可信人工智能標準規(guī)范有機結合,構建可信人工智能標準體系框架的基礎條件。
本文認為,可以參考域外的經(jīng)驗,即參照ISO/IEC TR 24028標準,設立符合我國國情的可信人工智能標準指南。指南的內容不宜設立得過于具體,但要將人工智能系統(tǒng)可能存在的風險和現(xiàn)存的評價體系,盡可能羅列出來,例如:ISO/IEC TR24028中第八節(jié)的內容,將人工智能可能存在的威脅性風險全部羅列出來,并在第九章中羅列出相關的解決途徑。
4.2 建設人工智能倫理原則標準,設立人工智能風險分類分級制度
目前,國際上許多關于人工智能倫理的研究活動側重于建立人工智能倫理基礎原則,形成非技術性指導文件。我國即將推行的GB/T 5271.31-20 06標準包含描述人工智能可信性的概念,但相比于國外的部分標準,例如:與SC42/WG3中所提出的概念相比,還是顯得有些不足。
我國也可以效仿IEC/SEG 10標準體系,建立人工智能系統(tǒng)評級和人工智能使用等級標準。在I EC/SEG 10標準體系中,通過透明性、魯棒性等特征,將人工智能系統(tǒng)進行分級分類,并從控制程度、糾正程度進行使用等級分類。人工智能目前仍處于發(fā)展階段,若實施較為嚴格的標準,不利于人工智能產(chǎn)業(yè)的發(fā)展。況且不同種類的人工智能系統(tǒng),所帶來的風險程度和風險可能性都不相同。目前,我國并未有系統(tǒng)性、全面性和可操作性的人工智能系統(tǒng)分級分類標準,因此需加快此類標準建設進度。
4.3 加強可信人工智能技術標準建設,構建場景化人工智能技術標準
基于技術標準的建設路徑,是實現(xiàn)可信人工智能落地化的必然途徑??尚湃斯ぶ悄艿膶崿F(xiàn),僅憑概念化的標準建設,例如:提出魯棒性、可解釋性的概念,是完全不夠的。人工智能系統(tǒng)應當屬于產(chǎn)品的一種,而產(chǎn)品的完全性、可信性,關鍵在于技術手段是否應用合理。只有通過對產(chǎn)品的技術手段進行規(guī)制,才能從源頭上保障產(chǎn)品的質量安全。而設立人工智能技術標準,就是一種較為科學的規(guī)制方式。
目前,人工智能產(chǎn)業(yè)發(fā)展迅速,不同領域內所應用的技術截然不同。若標準要約束和指導人工智能可信化的落地和實施,則必須進一步類型化、具體化和場景化。我國可信人工智能的技術標準目前集中于產(chǎn)品端,例如:智能工廠、智能制造,但缺少有關人工智能技術層面的規(guī)制,也缺少具體化和場景化的技術標準。2021年4月出臺的《信息安全技術人臉識別數(shù)據(jù)安全要求》雖然彌補了這一方面的缺失,但距離可信人工智能標準體系的總目標,仍有很大的差距。
4.4 著重關注算法治理,規(guī)制機器學習技術
可信人工智能的治理關鍵在于算法規(guī)制,可信人工智能標準體系的基本要求,即可解釋性、安全與隱私和公平與偏見都與人工智能系統(tǒng)的應用算法有關。人工智能系統(tǒng)的安全與隱私問題、公平與偏見問題,可能來源于系統(tǒng)訓練時采用的數(shù)據(jù)存在瑕疵,也可能來源于對數(shù)據(jù)初次篩選時具有偏見,但最主要也是最復雜的源頭,就是算法應用存在不合理之處。
機器學習是人工智能所采用的主要手段,我國尚未設立機器學習的相關技術標準。目前,ISO/IEC 23053-2022和ISO/IEC TS 4213-2022兩個標準中,已經(jīng)著手機器學習的性能和相關技術評估,在此方面,我國可以借鑒上述兩項標準,構建符合我國國情的機器學習相關技術標準。
參考文獻
何積豐. 安全可信人工智能[J]. 信息安全與通信保密, 2019(10):5-8.
中國信息通信研究院&京東探索研究院.可信人工智能白皮書[R/OL],[2023.4.14],http://www.caict.ac.cn/kxyj/qwfb/bps/202107/P020210709319866413974.pdf .
孔祥維,王子明,王明征, 等. 人工智能使能系統(tǒng)的可信決策:進展與挑戰(zhàn)[J]. 管理工程學報, 2022,36(06):1-14.
托馬斯·威斯邁德,編. 人工智能與法律的對話[M].韓旭至,譯. 上海: 上海人民出版社, 2020:116.
朱悅. AI如何理解AI治理:一名研究者與ChatGPT的問答[EB/OL].[2023.4.14]. https://redian.news/wxnews/166774.
樊雪寒. ChatGPT威脅數(shù)據(jù)安全是杞人憂天嗎?企業(yè)聞風而動[N]. 第一財經(jīng)日報, 2023-2-26.
林偉. 人工智能數(shù)據(jù)安全風險及應對[J]. 情報雜志,2022,41(10):105-111+88.
孫寧. 人工智能倫理與社會關注國際標準研究[J]. 信息技術與標準化, 2020(Z1):27-29+34.