■文/王輝 青秀玲 董瑜(中國科學院文獻情報中心)
任何人的身體、經濟、社會、政治、文化或精神層面都不應受到AI系統(tǒng)的傷害。各國政府、私營部門、國際組織、技術界和學術界在介入與AI相關過程時,必須尊重人權框架。在人與AI系統(tǒng)的互動過程中不應將人物化,新技術需要提供行使和捍衛(wèi)人權的新方法,而非侵犯人權。
遵守相關國際國內法規(guī)、標準和做法,保護和恢復環(huán)境和生態(tài)系統(tǒng),促進可持續(xù)發(fā)展。減少AI系統(tǒng)對環(huán)境的影響,確保將氣候變化和環(huán)境風險降到最低。
依照國際法(包括人權法)尊重、保護和促進多樣性和包容性,使所有個人和群體都能積極參與到AI系統(tǒng)的生命周期中。AI不應限制個人生活方式、信仰、觀點、表達或體驗的選擇。通過國際合作等方式,努力解決不發(fā)達地區(qū)缺少必要技術基礎設施、教育、技能以及法律框架的問題。
在AI系統(tǒng)生命周期中,促進和平、包容、公平與公正,確保建設人人受益的相互關聯的未來。AI系統(tǒng)生命周期過程不得破壞自由和自主決策以及人類和社區(qū)的安全,使個人和群體相互分裂和對立,或威脅人類、其他生物和自然環(huán)境之間的和諧共處。
為實現特定合法目的而選擇的AI解決方案應是適當的;選取的AI解決方案不應違反本建議書提出的基本價值觀,尤其是不得侵犯或濫用人權;AI解決方案應契合具體情況,并建立在嚴謹的科學論證基礎上;在涉及生死抉擇的情況下,應由人類做出最終決定。
在AI系統(tǒng)生命周期中,應避免意外傷害(安全風險),預防和消除系統(tǒng)受攻擊的可能性(安保風險),確保人類、環(huán)境和生態(tài)系統(tǒng)的安全。開發(fā)可持續(xù)的、保護隱私的數據訪問框架,利用優(yōu)質數據更好地訓練和驗證AI模型,保障AI安全。
既要確保地區(qū)、國家和國際層面都能獲得AI技術帶來的益處,又要考慮到不同群體(特別是少數群體和弱勢群體)的具體需求。盡量減少和避免技術偏見,確保AI系統(tǒng)的公平性。提供有效的補救措施糾正歧視和有偏見的算法。解決國家內部和國家間的數字和知識鴻溝,使每個人都能公平獲取技術和數據。
對AI技術的社會、文化、經濟和環(huán)境影響進行評估時,應充分認識到AI技術對實現聯合國可持續(xù)發(fā)展目標(多維的且不斷變化的系列目標)的影響。
(1)完成消化道潰瘍案例小測試:該小測試中,梗概性內容占60%,細節(jié)性內容占40%。小測驗利用手機掃描二維碼進入考試系統(tǒng)??荚嚂r間為10分鐘,時間到或者點擊提交試驗考試結束,系統(tǒng)自動為每一個學生評分和記錄小測驗用時。學生答題時間小于1分鐘時為無效試卷。(2)教師對學生的評價:教師從5個方面評價學生①學習意愿和態(tài)度(20分);②知識信息收集(10分);③分析思考能力(40分);④溝通表達能力(15分);⑤團隊合作(15分)??偡?00分。
AI系統(tǒng)數據的收集、使用、共享、存儲和刪除必須符合國際法以及本建議書規(guī)定的價值觀和原則,同時尊重相關國家、區(qū)域和國際法律框架。監(jiān)管機構應在國家或國際層面建立適當的數據保護框架和治理機制。算法系統(tǒng)應充分評估隱私影響,AI參與者要對AI系統(tǒng)的設計和實施負責。
應確保始終由自然人或法律實體承擔AI倫理和法律責任,人類在決策和行動上可借助AI系統(tǒng),但AI系統(tǒng)不能取代人類的責任和問責,不應交由AI系統(tǒng)做生死攸關的決定。
努力提高AI系統(tǒng)的透明度和可解釋性,支持民主治理。根據AI算法做出決定時,人們有權知道并要求私營或公共機構提供解釋性信息,確保借助AI獲得的結果和過程可理解、可追溯。
AI參與者應根據現行國際、國內法律承擔法律和倫理責任,即AI參與者承擔基于AI系統(tǒng)做出決策和行動的責任。應建立適當的監(jiān)督、影響評估、審查和盡職調查機制,確??梢詫I系統(tǒng)及其整個生命周期的影響進行問責。技術和機制的設計應確保AI系統(tǒng)可審查、可追溯,特別是在應對人權沖突以及環(huán)境和生態(tài)系統(tǒng)威脅時。
應通過開放獲取的教育、數字技能和AI倫理培訓以及媒體和信息素養(yǎng)培訓,提升公眾對AI技術和數據價值的認識和理解,確保公眾的有效參與,讓所有社會成員在使用AI系統(tǒng)時能夠做出知情決定,免受不利影響。
利益相關者的參與對于采用包容性AI治理措施,實現共同利益和促進可持續(xù)發(fā)展十分必要。應通過開放標準和互操作性促進協作,并兼顧技術的變化以及新的利益相關者的出現,允許邊緣化群體、社區(qū)和個人參與AI治理。
主要包括:成員國應引入影響評估框架,確定并評估AI系統(tǒng)的益處、關注點、風險及預防、緩解和監(jiān)測風險的措施;成員國和私營企業(yè)應建立調查和監(jiān)督機制,確定、防止并減輕AI系統(tǒng)對人權、法治和包容性社會產生的影響;各國政府應制定監(jiān)管框架開展針對AI系統(tǒng)的倫理影響評估。
主要包括:成員國應確保所有AI治理機制均有包容性、透明性、多學科、多邊和多利益相關者參與的特征,治理包括預測、保護、監(jiān)測影響、執(zhí)行和補救等方面;成員國應通過執(zhí)法機制和補救行動,調查和糾正AI系統(tǒng)造成的傷害;鼓勵成員國制定國家和區(qū)域AI戰(zhàn)略,并考慮軟治理形式(如AI系統(tǒng)認證機制);成員國應對現有的、擬議的AI系統(tǒng)進行透明評估;成員國應鼓勵不同利益相關者參與,并考慮增加AI倫理官員或其他機制監(jiān)督倫理治理;成員國應促進數字生態(tài)系統(tǒng)的開發(fā)和訪問,在國家層面實現AI系統(tǒng)的倫理和包容性發(fā)展;應建立合作機制,確保成員國積極參與AI治理的討論;修訂涉及AI系統(tǒng)的法規(guī)和制定新法必須遵守成員國的人權法;成員國應提高司法機構的能力,做出與AI系統(tǒng)有關的裁定;成員國應確保政府和多邊組織在AI系統(tǒng)的安全保障方面發(fā)揮主導作用;成員國應確保AI參與者遵守國際人權法、標準和原則,同時充分考慮當地的文化和社會多樣性;成員國應建立減少不平等、偏見和虛假錯誤的機制;成員國應促進和增加AI開發(fā)和數據訓練中的多樣性和包容性;成員國應酌情制定、審查和采用監(jiān)管框架,實現對AI系統(tǒng)內容和結果的負責和問責;成員國應使所有AI參與者參與制定規(guī)范或采用現有法規(guī),并鼓勵利用監(jiān)管沙盒等機制,加快法律、法規(guī)和政策的制定進程;成員國應對AI系統(tǒng)的透明度和可解釋性提出明確要求。
主要包括:成員國應制定數據治理戰(zhàn)略,確保持續(xù)評估AI系統(tǒng)訓練數據的質量;成員國應根據國際法制定適當的保障措施保護隱私權;成員國應制定數據政策或框架,確保個人數據和敏感數據的安全;成員國應促進數據開放,支持安全、公平、合理合法地共享數據;成員國應監(jiān)督數據的采集和使用,促進高質量、穩(wěn)健數據集的利用,使其便于AI系統(tǒng)的訓練、開發(fā)和應用;成員國應在聯合國的支持下,考慮采用數據共享措施,提升工具和數據集的互操作性,并增加數據系統(tǒng)接口,鼓勵私營企業(yè)與利益相關者共享數據以服務于研究、創(chuàng)新和公共利益。
主要包括:成員國和跨國企業(yè)應在相關國際、政府間和多利益相關者論壇上討論與AI有關倫理問題;成員國應確保在教育、科學、文化等領域使用A I,并遵守本建議書的價值觀和原則;成員國應提供國際合作平臺,促進利用AI來解決發(fā)展問題;成員國應努力促進AI研究和創(chuàng)新方面的國際合作;成員國應使國際組織、研究機構和跨國企業(yè)參與進來,共同推進AI倫理的研究。
主要包括:成員國和企業(yè)應評估AI對環(huán)境的直接和間接影響,包括但不限于其碳足跡、能耗以及開采原材料對環(huán)境造成的影響,應確保所有AI參與者遵守環(huán)境法律、政策和慣例;成員國應采取激勵措施,開發(fā)和利用基于人權和倫理的AI解決方案;考慮到AI的資源密集型和數據密集型特征及其對環(huán)境的影響,成員國應確保AI參與者根據相稱原則,選擇數據、資源和能源效率高的AI解決方案。
主要包括:成員國應確保在AI系統(tǒng)生命周期的任何階段,女童和婦女的權利、基本自由和安全不受侵犯;成員國應從公共預算中劃撥專項資金,用于資助與性別平等有關的計劃,并制定相關政策,確保其不被排除在AI驅動的數字經濟外;成員國應識別并積極糾正AI系統(tǒng)中的性別歧視和偏見問題;成員國應通過激勵措施、支持制度和政策,鼓勵女性創(chuàng)業(yè)并參與到AI系統(tǒng)生命周期的各個階段中;成員國應通過激勵措施鼓勵女性參與AI研究。
主要包括:鼓勵成員國在物質與非物質文化遺產保護、豐富、推廣、管理等領域采用AI系統(tǒng);鼓勵成員國審查并應對AI系統(tǒng)產生的文化影響,特別是自動翻譯和語音助手等應用程序給人類語言和表達帶來的影響;成員國應促進針對藝術家和創(chuàng)意專家的AI教育和培訓,評估AI技術在其專業(yè)的適用性,使AI技術應用于文化產品和服務;成員國應提高當地文化領域中小企業(yè)對AI工具的認識和應用;成員國應促進AI和知識產權的交叉研究,并評估AI技術對知識產權所有者權利和利益的影響;成員國應鼓勵國家級的博物館、畫廊、圖書館和檔案館使用AI系統(tǒng)。
主要包括:成員國應與國際組織、教育機構、私營和非政府實體合作,向公眾提供AI素養(yǎng)教育;成員國應推進AI必備技能,以及批判性和創(chuàng)造性思維、團隊合作、溝通、社會情感和AI倫理等技能的培養(yǎng);成員國應推進通用計劃,提高對AI的認識;成員國應鼓勵在教學、教師培訓和線上學習等活動中負責任地使用AI技術;成員國應促進少數和弱勢群體參與和主導AI教育計劃、監(jiān)測并共享最佳實踐;成員國應開發(fā)符合國家教育計劃和慣例的AI倫理課程,促進AI技能教育與其他AI教育的合作;成員國應促進和支持AI研究,尤其是AI倫理研究,推廣發(fā)展AI的最佳實踐;成員國應確保AI研究人員接受研究倫理的培訓;成員國應鼓勵私營企業(yè)為科研群體提供數據訪問的便利;成員國應確保任何未來AI技術的開發(fā)都建立在嚴格、獨立的科學研究基礎之上,促進跨學科AI研究。
主要包括:成員國應使用AI系統(tǒng)改善信息和知識的獲取,增強言論、學術和信息獲取的自由,增加官方數據和信息的主動披露;成員國應確保AI參與者尊重并促進言論自由,以及與自動內容生成、審核有關的信息獲取自由;成員國應投資并促進數字、媒體和信息素養(yǎng)技能,減少和打擊虛假信息、錯誤信息和仇恨言論。
主要包括:成員國應評估并應對AI系統(tǒng)對勞動力市場的沖擊和對教育需求的影響;成員國應支持政府、學術機構、產業(yè)界、勞工組織和民間社會之間的合作,彌合技能需求的鴻溝;成員國應與利益相關者開展合作,確保面臨職業(yè)風險的雇員能夠平穩(wěn)過渡,還應制定和實施研究和應對勞動力挑戰(zhàn)的計劃;成員國應鼓勵和支持研究人員分析AI系統(tǒng)對當地勞動環(huán)境的影響,以預測未來趨勢和挑戰(zhàn);成員國應采取適當措施保護競爭性市場和消費者,防止濫用市場主導地位。
主要包括:成員國應努力運用AI系統(tǒng)改善人類健康并保護生命權;成員國應確保AI健康(特別是心理健康)系統(tǒng)的開發(fā)和部署受到監(jiān)管,支持循證創(chuàng)新和醫(yī)學進步,鼓勵患者和及其代表參與系統(tǒng)開發(fā);成員國應制定人機交互及其對人際關系影響的指南;成員國應確保用戶能夠輕松識別是在與人還是與AI系統(tǒng)交互,并能拒絕此類交互;成員國應鼓勵和促進合作,研究人與AI系統(tǒng)長期交互的影響,還應鼓勵研究AI技術對健康產生的影響,特別是對兒童和青年人員心理和認知產生的影響;成員國應建立機制,使兒童和青年人參與到AI系統(tǒng)對其生活和未來影響的對話、辯論和決策中。