Theodoros Evgeniou and Ludo Van der Heyden
技術(shù)一直是一把雙刃劍。雖然它是推動人類文明進步的主要力量,但也被濫用并造成傷害。從蒸汽動力到福特主義(Fordism,以市場為導向,以分工和專業(yè)化為基礎(chǔ),以較低產(chǎn)品價格作為競爭手段的剛性生產(chǎn)模式),歷史表明,技術(shù)本身并無好壞之分。是好還是壞,取決于使用方式。
電信、特別是互聯(lián)網(wǎng),以及到2030年預計為全球經(jīng)濟貢獻超110億歐元的人工智能,本質(zhì)上都沒什么不同。
一方面,互聯(lián)網(wǎng)將所有人聯(lián)系起來,讓大家能在疫情期間保持緊密聯(lián)系。人工智能和機器學習可以幫助解決一些世界上最緊迫的問題,例如診斷疾病、保護網(wǎng)絡(luò)安全、應對氣候變化等。然而,如果不加以控制,算法也可能使偏見永久存在,制造網(wǎng)絡(luò)回音室、激進主義,并危及安全和隱私。
2022年,全球數(shù)字監(jiān)管格局徹底改變。歐盟議會批準了《數(shù)字服務(wù)法》,以加強網(wǎng)絡(luò)安全和消費者保護,并在籌備出臺《人工智能法》來管理AI。美國聯(lián)邦貿(mào)易委員會(Federal?Trade?Commission)發(fā)布了其關(guān)于人工智能的指導意見,中國也推出了一波監(jiān)管規(guī)定。目前,經(jīng)合組織跟蹤到了60個國家的700多項人工智能政策舉措。
與此同時,多年來,私營和非營利部門一直支持“科技向善”(Tech?for?Good)運動,該運動致力于“讓數(shù)字和技術(shù)為人類服務(wù)”。它以最簡短、最全面的形式承諾,技術(shù)可以幫助世界實現(xiàn)聯(lián)合國的可持續(xù)發(fā)展目標。
但從歷史的角度來看,我們必須問:“科技向善”是否能在不造成傷害的情況下取得成功??答案在于更加關(guān)注“好技術(shù)(good?tech)”本身。
好的意愿并不能保證積極的結(jié)果。因此,只關(guān)注技術(shù)能做什么是過于狹隘的,需要把重點轉(zhuǎn)移到在技術(shù)發(fā)明使用過程中如何跨領(lǐng)域地綜合考慮環(huán)境、實施和監(jiān)控等。
換句話說,需要關(guān)注過程。
為了充分利用人工智能等技術(shù)的優(yōu)勢,并保護我們的世界免受這些技術(shù)固有風險的影響,必須在相關(guān)技術(shù)活動中納入強有力的流程設(shè)計,以防止濫用、偏見或有害使用。根據(jù)在人工智能、機器學習等方面的研究,可以將這種基于“過程導向的技術(shù)創(chuàng)新和監(jiān)管方法”的技術(shù)產(chǎn)出稱為“好技術(shù)”。
“好技術(shù)”的目標是將現(xiàn)代技術(shù)被濫用和造成傷害的可能性降到最低,使經(jīng)濟社會盡可能多獲得凈利益。“好技術(shù)”需要一個嚴格的、包容的設(shè)計、執(zhí)行和監(jiān)督過程,包括三個組成部分:向善的原則、公平的程序和強有力的監(jiān)督。
設(shè)定技術(shù)目標后,還需要定義價值觀。在一個組織或團隊中,共同的價值觀創(chuàng)造了一道防止濫用和防范風險的“理念之墻”。
近年來,谷歌、微軟、IBM、寶馬和Telefonica等公司紛紛支持道德或負責任的技術(shù)原則。截至2020年4月,瑞士非營利組織AlgorithmWatch在其人工智能全球道德準則清單中設(shè)置了173條準則。
最有力、最有效的原則,如聯(lián)合國的《人權(quán)原則》或經(jīng)合組織的《人工智能原則》,都是“基于價值觀的”,是通過一個包容性的過程逐步提煉出來的,該過程尋求所有利益攸關(guān)方的意見,并最大限度地減少偏見。幸運的是,我們不需要總是從頭開始。例如,經(jīng)合組織的人工智能框架等原則和經(jīng)合組織人工智能專家網(wǎng)絡(luò)所做的工作可以成為開發(fā)“好技術(shù)”原則的基礎(chǔ)素材。
目標和原則很好,但如果在需要的時候沒有實施或忽視它們,一切就形同虛設(shè)。實施是一項關(guān)鍵挑戰(zhàn)。
雖然設(shè)計負責任的技術(shù)有多種框架,但需要確保它們也完全符合經(jīng)過時間考驗的公平程序。這是一項至關(guān)重要的工作。
對公平程序的承諾有助于發(fā)展“好技術(shù)”。公平競爭,也被組織科學家們稱為公平程序,由五個價值觀定義,所有這些價值觀都適用于“好技術(shù)”的過程管理:
·清晰和透明,包括目的和“規(guī)則”;
·始終如一地平等對待人和事,沒有偏見;
·有利于傾聽而非傾訴的溝通,不會因為人們說的話而制裁他們;
·面對新證據(jù)時,觀點能夠相應改變;
·追求真理,做正確的事情,而不是選擇最受歡迎或最方便的事。
公平程序指出了在創(chuàng)造“好技術(shù)”時候,如何決策、監(jiān)測以及根據(jù)需要進行調(diào)整。它需要可執(zhí)行和可測量。例如,我們知道精準醫(yī)療中的性別偏見會影響患者護理,尤其是如果人工智能使用的數(shù)據(jù)集中男性多于女性。在這種情況下,公平程序要求數(shù)據(jù)分析不分性別,并建立系統(tǒng)檢查,以防止“代表偏見”。
“好技術(shù)”還需要具有相同價值觀和使命感的員工,由于任務(wù)的復雜性,非常需要高效的協(xié)作領(lǐng)導。
許多組織已經(jīng)設(shè)立了技術(shù)倫理委員會和董事會來審查和調(diào)查人工智能風險。公平程序要求公正、負責、透明,并像法官或州長那樣,要求無偏見的領(lǐng)導。良好的技術(shù)倫理委員會應該包括具有足夠多樣性的外部跨部門專家,以便消除更多偏見。
技術(shù)倫理委員會必須通過公平程序組建,否則將面臨風險。例如,谷歌的人工智能倫理委員會成立不到一周就消失了,它被對其組成和作用的懷疑所吞噬,人們普遍認為該委員會缺乏明確的授權(quán),它可能只是個形式主義的產(chǎn)物。
此外,規(guī)章制度也必須經(jīng)過公平程序的檢查。一個值得稱贊的例子是,歐盟一直會發(fā)表白皮書公開信息,促進利益相關(guān)者開展討論。
開發(fā)“好技術(shù)”遇到的大多數(shù)錯誤往往重復出現(xiàn),雖然不一定以同一種方式出現(xiàn),但基本邏輯幾乎沒變。設(shè)置合格的技術(shù)倫理委員會、聘用“明智的領(lǐng)導”,可以有效杜絕這些錯誤。
不可否認,技術(shù)總是會帶來風險,這將一直存在、無法改變。但向善的技術(shù)原則、公平的程序和強有力的監(jiān)督,可以在開發(fā)新的技術(shù)時讓世界更安全。在未來幾年,基于一套“好技術(shù)”開發(fā)方案,我們或許能避免幾場技術(shù)災難。
來源:哈佛商學院;編譯:王夢菲