陸 康,劉 慧,張 婧,任貝貝
(1.南京曉莊學院a.圖書館,b.幼兒師范學院;2.上海市網(wǎng)絡技術綜合應用研究所)
人工智能(Artificial Intelligence,AI)技術在工業(yè)領域被譽為“第四次工業(yè)革命”[1],AI等新技術已廣泛應用于多個領域,并受到全世界的廣泛關注,各國都在積極探索AI的多元化治理措施,以規(guī)避AI等技術創(chuàng)新應用所帶來的涉及安全隱私的風險。歐盟委員會為了有效應對這些挑戰(zhàn)并充分利用AI帶來的新機遇,于2019年4月8日以“建立對以人為本AI的信任”為題,發(fā)布了歐洲版的《人工智能倫理準則》,期望建立“以人為本、值得信任”的AI倫理標準,促進社會公眾接受并應用AI技術,本倫理準則確立了AI應當符合法律規(guī)定、AI應當滿足倫理原則、AI應當具有可靠性等三項基本原則[2]。同時提出“可信任的AI”應當滿足的七項關鍵要求,包括:人的自主和監(jiān)督,可靠性和安全性,隱私和數(shù)據(jù)治理,透明度,多樣性、非歧視性和公平性、社會和環(huán)境福祉、可追責性[2]。與此同時,國家互聯(lián)網(wǎng)信息辦公室發(fā)布的《網(wǎng)絡信息內(nèi)容生態(tài)治理規(guī)定》,在強調(diào)政府、企業(yè)、社會、網(wǎng)民等主體共同治理網(wǎng)絡信息內(nèi)容的同時,也及時回應了算法推薦、深度偽造、流量造假、網(wǎng)絡暴力等熱點問題[3]。
AI技術的發(fā)展為圖書館的智慧化服務提供了契機。AI技術在圖書館的應用包括專家系統(tǒng)、自然語言的處理、模式的識別、機器學習與機器人參考咨詢服務、編目、分類、資源購置、敘詞表構(gòu)建、自動索引、信息檢索、流通服務以及圖書館自動化服務等方面[4]。2003年5月,中國圖書館學會正式發(fā)布了《中國圖書館員職業(yè)道德準則(試行)》,以維護事業(yè)持續(xù)與健康發(fā)展[5]。雖然目前AI技術在智慧圖書館的應用處于初級階段,對“智慧圖書館”也提出了一系列的期望、愿景[6],但是AI技術的應用仍然需要顧及倫理、道德以及圖書館的傳統(tǒng)服務理念,在圖書館技術創(chuàng)新與服務創(chuàng)新中需要對AI等新技術應用加以規(guī)范約束,從而促進智慧圖書館的健康發(fā)展。
2019年,國際圖聯(lián)大會(International Federation of library Associations and Institutions,IFLA)組織舉辦的世界圖書館和信息大會會前衛(wèi)星會議信息技術分會就“機器人在圖書館:挑戰(zhàn)或機遇”進行了探討[7]。隨著AI技術在文獻資源智能化的組織與標識、互聯(lián)網(wǎng)門戶平臺咨詢的智能化問答等方面日益深入,其與傳統(tǒng)倫理道德的沖突也不可回避,《人工智能倫理準則》為智慧圖書館服務創(chuàng)新提供了倫理規(guī)范的參考依據(jù)。
《歐盟人工智能戰(zhàn)略》指出,AI應當堅持“以人為本”的價值觀,認為AI本身并不是目的,僅作為服務人類的工具。因此,《人工智能倫理準則》的內(nèi)涵包括以人為本的價值觀以及工具論等方面。“可信任”是確保AI“以人為本”價值觀的關鍵所在,AI應尊重人的基本權利,作為工具幫助人類,而不是奴役人類甚至取代人類。為了加強對AI的監(jiān)管,歐盟先后制定了《一般數(shù)據(jù)保護條例》(General DataProtection Regulation,GDPR)以及《非個人數(shù)據(jù)自由流動條例》,前者確立個人數(shù)據(jù)的安全保護制度,后者則消除了數(shù)據(jù)共享的障礙等。AI最大的特點就是機器的自主學習,在無人工干預的情況下自主判斷與執(zhí)行。以數(shù)據(jù)、算法與算力(計算能力)為支撐的AI基礎也存在著不可信任因素,其數(shù)據(jù)的不完整性,會導致人們的偏見和質(zhì)疑。因此,為了實現(xiàn)“可信任AI”,該倫理準則確立了三項基本原則[2]:AI應當符合法律規(guī)定;AI應當滿足倫理原則;AI應當具有可靠性。AI應用效果或者引發(fā)危機的影響隨著場景的不同也存在著差異性,例如AI產(chǎn)品推薦服務比AI醫(yī)療診斷服務產(chǎn)生影響要小得多。
AI技術帶來的挑戰(zhàn)無處不在,其中引發(fā)的倫理和道德危機也是學界探討的熱點?!翱尚湃巍薄翱煽匦浴钡纫恢弊孉I研究者們糾結(jié),一方面,技術創(chuàng)新支持者熱衷于利用新技術、新方法對現(xiàn)有的社會服務體制與方法加以拓展、升華,進一步解放生產(chǎn)力,從而促進社會的發(fā)展;另一方面,傳統(tǒng)的捍衛(wèi)者則更多地從“以人為中心”角度對技術創(chuàng)新可能帶來的倫理和道德危機,尤其是替代人類思考、決斷等行為表示擔憂。人的能動與監(jiān)督,可靠性和安全性,隱私與數(shù)據(jù)治理,透明度,多樣性、非歧視性和公平性,社會和環(huán)境福祉,可追責性等七項要求,成為《人工智能倫理準則》得以落實的關鍵所在,也是AI獲得社會普遍認可的重要因素。
圖書館信息服務同樣存在著倫理道德問題,其中圖書館信息倫理包括隱私權的侵犯、知識產(chǎn)權的侵犯以及對讀者的歧視等,行業(yè)自律與職業(yè)倫理教育成為解決倫理道德問題的主要對策[8]。圖書館對倫理道德的研究由來已久,并制定了相應的對策機制,如建立信息倫理原則體系、制度規(guī)范保障、加強用戶信息倫理建設以及館員職業(yè)道德與職業(yè)倫理建設、建立審查機制、利用技術方法和推進信息立法等[9]。圖書館智慧服務發(fā)展不僅是技術的迭代升級,也涉及傳統(tǒng)服務模式的轉(zhuǎn)變,屆時人工干預的服務將逐漸減少,以數(shù)據(jù)決策為基礎的智慧服務逐漸取代傳統(tǒng)服務成為主要的服務模式,而這些都需要數(shù)據(jù)規(guī)范、隱私規(guī)范等制度加以約束。AI作為數(shù)據(jù)分析的執(zhí)行工具,也需要進一步制度化、規(guī)范化,《人工智能倫理準則》則可以為圖書館AI治理提供參考依據(jù)。
互聯(lián)網(wǎng)信息技術的普及與發(fā)展使傳統(tǒng)的倫理問題陷入困境,并且變得越來越復雜。圖書館的文獻資源服務依靠信息技術開展,因此圖書館迫切需要適用于圖書館技術創(chuàng)新的倫理準則與規(guī)范的制度保障。Judd提出了信息時代提高倫理道德的三個準則:責任、預見、正義原則指導公平[10]。Severson則探討了信息倫理四原則:知識產(chǎn)權的尊重、隱私的尊重、公平參與以及無害[11]。圖書館領域的專家和學者也不斷從信息倫理準則研究視角提出加強圖書館讀者信息倫理及館員職業(yè)道德建設等措施,對規(guī)范圖書館行為以及提高讀者信息倫理意識起到了一定的作用。當圖書館進入“智慧”時代,復雜的技術創(chuàng)新環(huán)境給各種倫理規(guī)范的制定帶來新的挑戰(zhàn),因此,歐盟頒布的《人工智能倫理準則》對AI發(fā)展政策具有重要的參考價值?!翱尚湃巍笔茿I是否適應社會發(fā)展的基本要求,雖然該倫理準則不具備法律約束力,但是在安全問題、個人數(shù)據(jù)保護、隱私保護以及環(huán)境保護等方面已經(jīng)在其他的相關法律中做了一些規(guī)定。
國務院發(fā)布的《新一代人工智能發(fā)展規(guī)劃》明確提出了到2030年我國人工智能發(fā)展的“三步走”目標,在發(fā)展的每一個階段,人工智能法律法規(guī)、倫理道德規(guī)范和政策體系的逐步建立與完善都是必不可少的重要內(nèi)容。面對AI時代崛起的治理挑戰(zhàn),如何重構(gòu)治理體系、創(chuàng)新治理機制、發(fā)展治理工具,是擺在決策者面前的重要難題[12]。西方社會的傳統(tǒng)道德理論“義務論、功利論、權利論”為智慧圖書館倫理研究提供了重要思想。Anderson對信息人員的系統(tǒng)設計、交易與使用過程涉及的倫理問題進行了大量的研究,并圍繞倫理理論對信息人員作出基于倫理準則的限定[13]。Johnson對信息倫理、信息系統(tǒng)與信息技術三者之間的關系進行了闡述與研究[14]?!度斯ぶ悄軅惱頊蕜t》的“可信任”價值觀為智慧圖書館AI倫理治理機制框架的建立以及治理路徑選擇提供了參考依據(jù)(見圖1)。
圖1 智慧圖書館AI倫理治理機制框架
人的主觀能動性是“以人為本”價值觀的具體表現(xiàn),而圖書館長期以來堅持“以讀者為中心”的服務理念,也是秉承此價值觀,無論是數(shù)字圖書館時代還是未來的智慧圖書館時代,這個理念將會繼續(xù)延續(xù)。智慧圖書館是復雜的有機體,既包括技術創(chuàng)新引發(fā)的業(yè)務變革,也需要相應的制度完善來約束過度創(chuàng)新造成的倫理和道德危機。AI時代,智慧圖書館需要保持人的主體性,同時AI技術的應用也要增強人的自主性,保障人的基本權利,幫助圖書館館員基于業(yè)務需要及用戶需求等目標作出便捷、人性化的選擇,從而提升圖書館智慧服務效率。無論是館員對AI的全面監(jiān)督,還是用戶對AI實施過程和結(jié)果的監(jiān)督,這些都是為了確保AI不會降低人的自主性,或者因此帶來的其他負面影響。雖然AI最終的目標是降低或消除人類對系統(tǒng)的干預,但是從倫理角度來考慮,實施適當控制措施還是有必要的。AI技術在應用推廣前需要經(jīng)過測試與管理,但是在復雜的互聯(lián)網(wǎng)環(huán)境,任何組織和個人都無法保證其可控性。圖書館對AI的監(jiān)督可以通過治理機制來實現(xiàn),如人機(控)回環(huán)等方式。此外,行業(yè)內(nèi)部、公共管理部門等執(zhí)法機構(gòu)根據(jù)相關法律法規(guī)擁有對整個AI項目的監(jiān)管權。
“可信任”的技術才能促進創(chuàng)新發(fā)展。AI技術要求其內(nèi)部所使用的算法要具備可靠性與安全性,這就要求在設計的“算力”范圍內(nèi)完全能夠應對、處理整個生命周期的數(shù)據(jù)以及自身引起的各類錯誤結(jié)果。AI技術的可靠性與安全性也同樣要求其具有防御來自外部攻擊與干擾的能力,包括外部網(wǎng)絡攻擊的公開行為以及數(shù)據(jù)控制爭奪權算法等隱蔽行為。AI技術的可信任取決于分析結(jié)果的準確,或者能夠正確反映其準確率,其結(jié)果具備科學性、可重復性等。在設計、測試過程中,AI也應該遵循每項運行步驟所具備的可驗證安全性,即AI在正式運行過程中,意外和錯誤出現(xiàn)的處理方式也必須是及時的、最小化的、可逆的。AI技術在圖書館智慧服務中的應用涉及用戶數(shù)據(jù)安全與隱私保護問題,需要技術可靠性驗證以及環(huán)境安全性的保障。AI在智慧圖書館中應用的可靠性與安全性需要館員和用戶對系統(tǒng)運行的異常行為進行分析,并根據(jù)事先建立的評估程序進行潛在風險的規(guī)避,從而進一步完善AI應用效能。
當前AI倫理主要討論技術設計者和使用者等主體的道德責任問題[15]。由于利益驅(qū)動是造成倫理問題出現(xiàn)的重要因素,因此圖書館在引入AI技術進行技術創(chuàng)新和服務提升的同時,應當主動承擔相應的道德責任。AI不僅可以幫助圖書館掌握用戶的需求和偏好,還可以通過特定的分析模型,推斷出其他信息,如宗教信仰、政治觀點等。推薦算法的治理已經(jīng)逐步開始實踐,如GDPR通過賦予用戶選擇與控制權力來解決用戶畫像與自動化決策過程中所涉及的隱私問題。圖書館應該占據(jù)AI技術在圖書館使用過程中的主導地位,從宏觀、微觀等多方面對AI的實施過程予以有效管理,如在數(shù)據(jù)處理過程中必須確保數(shù)據(jù)主體(用戶)對涉及自身的數(shù)據(jù)擁有完整的控制權,并且保證用戶不會因為這些數(shù)據(jù)造成傷害或者歧視。除了保護個人隱私數(shù)據(jù)外,AI應用效果的提升還需要一些外部條件的支持。對于指定的數(shù)據(jù)集,在使用特定的分析模型進行訓練時,一些不能全面反映問題的數(shù)據(jù)集合需要予以調(diào)整,如擁有理工科背景的讀者其閱讀偏好并非理工類文獻資源等。另外,AI應用存在數(shù)據(jù)的完整性挑戰(zhàn),其使用方法以及數(shù)據(jù)集在計劃、訓練、測試與應用過程中必須進行如實記錄,并需要嚴格執(zhí)行數(shù)據(jù)訪問控制權限的劃分。
AI與其他技術創(chuàng)新不同,其發(fā)展最終可能創(chuàng)造出與人類相同甚至超越人類智慧的自主性智慧體。因此,AI倫理問題也不同于其他倫理問題。錯誤是幾乎可以讓所有技術造成傷害的潛在威脅,對于AI來說,錯誤也許就是技術的本身[16]。技術設計與應用等傳統(tǒng)倫理問題不再是AI關注的重點,實施整個業(yè)務流程體系的倫理自主性逐漸成為AI倫理所關注的焦點。所以,圖書館作為使用AI技術的主體,其業(yè)務流程以及數(shù)據(jù)使用的透明性也成為AI倫理問題的關鍵。AI時代,智慧圖書館服務應該要具有全流程的可追溯性機制,即圖書館要規(guī)范、如實記錄系統(tǒng)中所做以及產(chǎn)生決定的全過程,如收集數(shù)據(jù)過程、數(shù)據(jù)標記過程以及選取的算法描述等。AI技術的應用必須為圖書館業(yè)務提供決策思路以及系統(tǒng)方案設計選擇理由,這樣才可以全面地保證數(shù)據(jù)與業(yè)務系統(tǒng)的透明性。AI技術在圖書館中的應用多數(shù)以商業(yè)領域成熟的實踐案例為基礎,進而拓展到相關業(yè)務的迭代與升級。使用場景的不一致容易導致AI能力存在不足,因此AI只有與業(yè)務進行有效融合,才能提升業(yè)務效能,這就需要圖書館不斷進行完善,其中業(yè)務流程、數(shù)據(jù)使用的透明性是關鍵因素??傊?,AI在圖書館的應用必須是可識別的,以保證使用者知道AI在與哪個系統(tǒng)進行交互操作,從而落實相應的責任。
AI需要大量的數(shù)據(jù)集進行訓練,而訓練數(shù)據(jù)與應用數(shù)據(jù)應該存在著相似性或者特征一致性,否則會影響應用效果。在復雜的大數(shù)據(jù)環(huán)境,數(shù)據(jù)集的選取方式至關重要。雖然AI的“能力警惕”概念一直存在爭論,并且“我們應該避免關于未來AI上限過高的假設,但這些并未達成共識”[17],數(shù)據(jù)集(無論是訓練“數(shù)據(jù)集”還是應用“數(shù)據(jù)集”)仍然存在著無意識的偏見,數(shù)據(jù)完整性和模型治理不準確等問題的存在會影響圖書館AI的應用效果。當然,圖書館作為AI應用的主體,始終需要保持中立,不能故意利用偏見或者從事一些容易造成不公平的行為,這些問題需要在AI設計、開發(fā)之初就應解決。因此,AI技術的應用需要圖書館進行統(tǒng)籌規(guī)劃,做好技術團隊建設,形成技術保障,這樣才會盡可能避免上述問題的出現(xiàn)。圖書館還需要對AI生命周期內(nèi)可能涉及的利益相關者不斷進行咨詢,如用戶,傳統(tǒng)服務商等。這些措施也有助于在公平性基礎上實施AI的應用普及。AI在圖書館的應用開發(fā)也應考慮不同用戶的能力與需求,以提升AI的易用性,如視障人士的閱讀需求等。
AI安全與隱私保護問題主要是從個人角度進行考慮的。雖然AI倫理問題反復強調(diào)技術為人服務、“可信”于人,但是就促進社會發(fā)展而言,全局觀也是我們要考慮的。對于圖書館而言,智慧服務可以提升整個圖書館的運行效率,也能夠通過精準服務提升用戶的滿意度與忠誠度[18]。圖書館在AI行業(yè)標準缺失的情況下,需要借鑒《一般數(shù)據(jù)保護條例》(GDPR)以及《信息安全技術個人信息安全規(guī)范》等標準,同時運用自律與其他法律規(guī)范相結(jié)合的方式促進圖書館數(shù)據(jù)的規(guī)范化使用,以滿足圖書館服務于社會需求。圖書館員、用戶也應認真考慮AI應用對整個社會公共治理相關活動的影響,特別涉及數(shù)據(jù)決策和生態(tài)文明建設方面。此外AI在幫助圖書館提升服務水平的同時,也可能導致圖書館員某些技能的退化,如文獻編目技能。因此,圖書館要對AI應用在館員、用戶所具有的專業(yè)技能的影響方面進行充分考慮。圖書館行業(yè)的自律管理機制在不斷完善,圖書館用戶獲得最大的選擇與控制權限,避免、限制虛假信息的傳播,這都是未來圖書館技術創(chuàng)新過程中首要考慮的內(nèi)容。
為了便于監(jiān)督與管理AI在圖書館中的應用,應該制定數(shù)據(jù)溯源的規(guī)則,使AI成為具有可追責性的AI,這樣才能夠提升用戶對圖書館的信任。因此,圖書館應當建立分級責任機制,確保行業(yè)監(jiān)管、執(zhí)法監(jiān)管機構(gòu)能夠?qū)I應用及其結(jié)果進行追責。圖書館也需要由內(nèi)部審核人員、外部審核人員組成評估小組對AI項目開展評估并出具相應的評估報告,這是保障用戶以及相關人員能夠?qū)I項目進行追責的關鍵因素。政府也應參與到對AI行業(yè)規(guī)范的制定中,政府的直接參與可以讓圖書館AI可追責機制進一步規(guī)范化。當前,AI在賦能智慧圖書館的同時,也存在著一定的負面影響。因此,在AI項目實施之前,圖書館應該建立事前識別與評估機制,并在訓練過程中及時優(yōu)化模型,以降低風險系數(shù)。對于涉及用戶隱私、個人權利的AI應用,應該確保其具有外部第三方審計的可行性,以保障用戶、圖書館基本的權益不受侵害。
雖然目前AI在圖書館領域的應用僅限于智能問答系統(tǒng)、文獻資源自動標引等具體業(yè)務,并未支撐起以大數(shù)據(jù)作為分析對象的全面的智慧服務系統(tǒng),但是圖書館應該從設計層面加以考慮,并從制度層面、倫理角度以及技術層面等方面與業(yè)務實現(xiàn)有效融合,以規(guī)避可能存在的倫理“空場”、個人主義、自由與尊嚴、隱私與安全等問題,做到逐一排查并制定相應的預警方案,降低AI可能產(chǎn)生倫理危機的風險。在這些方面,《人工智能倫理準則》的七項要求為智慧圖書館倫理規(guī)范制度框架的制定提供了參考依據(jù)。
圖書館是一個公共服務機構(gòu),“以讀者為中心”的服務理念與AI“以人為本”的倫理準則存在著相似性。引入“可信任”的AI應用,是實現(xiàn)智慧服務的重要途徑之一。圖書館AI應用無論是從訓練數(shù)據(jù)的選取,還是模型的設計,都要考慮倫理規(guī)范,并與利益相關者(如用戶、館員、開發(fā)者)以及公共監(jiān)管機構(gòu)聯(lián)合開展評估與反饋。圖書館需要通過群體協(xié)商的方式加強認識,完善技術方案,彌補可能存在倫理失范的漏洞,并且要與時俱進,對于新技術、新方法的引入與傳統(tǒng)業(yè)務產(chǎn)生的沖突進行不斷調(diào)和,通過完善制度體系來約束新技術、新方法所引發(fā)的倫理道德問題。