胡文娟
2017年10月,《紐約客》雜志的封面圖再次引發(fā)對人工智能(AI)的熱議。雖然圖片描述的情景想象起來有些可怕——人類坐地乞討,而機器人則扮演了施予者的角色,但不得不承認,和其他任何一種技術(shù)革新一樣,AI在創(chuàng)造價值的同時也帶來了風險。
隨著人工智能決策日益盛行,算法歧視就是常見風險之一。比如,圖像識別軟件就犯下過種族主義錯誤。2015年7月,谷歌公司的圖片軟件曾錯將黑人的照片標記為“大猩猩”;2016年3月,微軟公司的人工智能聊天機器人Tay上線后被“教”成了一個集反猶太人、性別歧視、種族歧視等于一身的“不良少女”。有些歧視或許還無關(guān)緊要,但在涉及信用評估、犯罪風險評估、雇傭評估等重大事項時,人工智能所做出的決策將影響甚至決定貸款額度、刑法選擇、雇傭與否,這時歧視就會帶來嚴重影響。
因此,在大量的資金和精力都被投入到研究加速人工智能的發(fā)展中時,這也意味著,我們應該且必須花費更多精力思考人工智能的應用給社會、經(jīng)濟和道德帶來的影響,并采取行動彌補可能造成的負能量。本文作者DUNSTAN ALLISON-HOPE從商業(yè)與人權(quán)的角度分享了人工智能應用所帶來的人權(quán)挑戰(zhàn)及應對建議,以此啟發(fā)投資和應用AI的工商界思索可能的商業(yè)風險。
當決定權(quán)在機器而不是人類手中時,如何保證人類能夠獲得并采取補救措施?這是一個很復雜的問題。日前,在聯(lián)合國商業(yè)與人權(quán)年度論壇的聯(lián)席會議上,BSR和國際企業(yè)責任圓桌會議(簡稱ICAR)就討論了這個問題。
通過極大提高我們的分析能力,人工智能(AI)有可能解決人類面臨的一些最緊迫的挑戰(zhàn),如與醫(yī)療、教育、交通、反恐和刑事審判等相關(guān)的難題。然而,人工智能也帶來了前所未有的、不可預見的各種人權(quán)風險,如非歧視、隱私、兒童權(quán)利、言論自由和獲取公共服務(wù)等。
例如,在法庭審判中使用了人工智能,或在決定是否提供信貸或識別潛在恐怖分子時使用了人工智能,這都有可能導致做出有歧視性的決定。同時,使用基于人工智能的語音識別設(shè)備還可能影響隱私權(quán)和兒童權(quán)利。一些人甚至明確表示擔憂,他們認為讓機器判斷在社交媒體上發(fā)貼是否遵守服務(wù)條款,可能會消極影響言論自由。
《聯(lián)合國商業(yè)與人權(quán)指導原則》(UNGPs)的第三支柱規(guī)定,應為此類侵權(quán)行為的受害者提供補救措施。我們的會議討論了在人工智能的背景下確保獲得補救的三項新挑戰(zhàn):
1. 當違權(quán)行為是由機器和算法而非人類做決定導致時,保證補救;
2. 當有數(shù)以億計的權(quán)利持有人和數(shù)以億計的決策時,提供具有操作性的申訴機制;
3. 當數(shù)十家公司而不是單一的企業(yè)參與者,通過不同的基于AI的產(chǎn)品和服務(wù)相互作用,與侵犯人權(quán)的行為聯(lián)系在一起時,要保證獲取補救措施的權(quán)利和機會。
雖然這些討論看上去都是假設(shè),但技術(shù)在快速發(fā)展,來自各行各業(yè)的公司正迅速將人工智能集成到他們的產(chǎn)品、服務(wù)和運營中。
微軟副總裁兼副總法律顧問Steve Crown提出了一項挑戰(zhàn),即如何知道什么時候傷害開始發(fā)生、怎樣識別誰犯了錯并能夠及時確定一種補救措施使受害者回到以前狀態(tài)。Crown提供了一個年輕女性的例子,零售數(shù)據(jù)分析顯示該女子懷孕了,而她又是定向投放廣告的目標,于是,她的父親從家中直接郵件廣告而不是自己女兒口中得知了這個事實。在這種情況下,是否發(fā)生了侵犯隱私的行為?如果是的話,有什么恰當?shù)难a救措施?公司又該如何阻止此類事件再次發(fā)生?
牛津大學的數(shù)據(jù)倫理學方面的研究員Sandra Wachter和阿蘭圖靈研究所的一位博士后提出了新的《歐盟通用數(shù)據(jù)保護條例》(簡稱GDPR)中關(guān)于“解釋權(quán)”的概念,這個概念會在一些諸如由機器決定信貸額度和雇傭與否的情境中生效。
但Wachter強調(diào),一旦人類參與到這個過程中后,GDPR中規(guī)定的這一權(quán)利就會消失——即使人類的參與如同橡皮圖章(機械地聽從命令安排)一樣——許多公司也會反對透露他們決策算法的細節(jié),認為那是商業(yè)機密。
Sandra提出了一種基于反設(shè)事實的,關(guān)于“解釋權(quán)”的替代模型,該模型描述了導致該決策的事實(例如收入或教育成績),它可能為權(quán)利持有人提供有意義的信息,而不需要傳達算法的內(nèi)部邏輯。Sandra還提議成立一個獨立的監(jiān)督機構(gòu)來審查公司并確保盡責。
谷歌自由表達和人權(quán)顧問Alex Walden談到了機器是如何被部署并協(xié)助判斷互聯(lián)網(wǎng)用戶上傳的有爭議的內(nèi)容如仇恨言論和恐怖主義等。在大量內(nèi)容被上傳的情況下,這些機器會特別有用,但即便機器可以通過篩查大量內(nèi)容識別這些爭議言論,但是只有人類具備理解上下文和語言的必需能力,也只有人類才能做出最終的決定。
總之,貫穿會議始終的一個主題就是人工智能將在我們的生活中扮演越來越重要的角色,它將被許多行業(yè),不僅僅是科技公司使用??偟膩碚f,我對《聯(lián)合國商業(yè)與人權(quán)指導原則》在人工智能時代的應用得出了三個結(jié)論。
首先,所有經(jīng)濟部門(如零售、金融服務(wù)、能源、醫(yī)療、交通、基礎(chǔ)設(shè)施和公共部門)都要理解人工智能應用對人權(quán)的影響,這很重要。
其次,我們應該通過權(quán)利持有人的鏡頭考慮獲取補救措施的問題。人工智能極其復雜,只有極少數(shù)人知道它是如何工作的。如果想要發(fā)揮人工智的潛力,同時又減輕其所帶來的風險,那么重要的是公民社會、權(quán)利持有人和弱勢群體要受益,要有渠道讓其有意義地參與討論AI應用以及獲取補救措施等話題。
同時,從事人工智能發(fā)展的專業(yè)團隊也將會從對倫理問題和權(quán)利持有人觀點的深入理解中獲益,而這一情況也已經(jīng)開始在諸如斯坦福的Partnership in AI和美國研究機構(gòu)AI Now(第一家跨領(lǐng)域的人工智能研究所)中發(fā)生。
最后,有必要評估一下在人工智能環(huán)境下開發(fā)的補救措施是否符合《聯(lián)合國商業(yè)與人權(quán)指導原則》中所規(guī)定的補救有效性標準,如合法、可獲得、可預見、公平、透明、與權(quán)利兼容、基于參與和對話。
這些問題的答案只會隨著時間的推移而出現(xiàn),我們需要通過鑒別使用案例來證明如何獲得有效的補救措施。期待與各行業(yè)的公司展開合作,進一步探討這些重要話題。endprint