□ 文 司曉
過去幾年,隨著技術(shù)的發(fā)展,各種包含人工智能技術(shù)的產(chǎn)品走入大眾生活的方方面面。從新聞客戶端中越來越“懂你”的信息流,到開始嘗試在封閉道路上自動(dòng)駕駛的汽車。但是,人工智能這個(gè)“仆人”真的忠誠么?又或者說,人工智能只需要遵守忠誠一條倫理么?當(dāng)越來越多的人工智能承擔(dān)了原本由人類承擔(dān)的工作,人工智能倫理問題成為了技術(shù)行業(yè)、監(jiān)管機(jī)構(gòu)和大眾最為關(guān)注的問題。
如果為人工智能建立倫理框架,未來人工智能應(yīng)該做到“可知”、“可控”、“可用”和“可靠”的。一個(gè)新技術(shù)的誕生本身無關(guān)好壞,但通過倫理法律和各種制度設(shè)計(jì)確保這些技術(shù)能夠成為“好的技術(shù)”是人類自身的責(zé)任。
當(dāng)前的人工智能發(fā)展浪潮很大程度上受益于我們?cè)谑褂没ヂ?lián)網(wǎng)過程中積累的大量數(shù)據(jù)。如今,互聯(lián)網(wǎng)連接了世界一半以上的人口,僅在中國便有8億網(wǎng)民。但互聯(lián)網(wǎng)在帶來便利與效率的同時(shí),也帶來了風(fēng)險(xiǎn),尤其是在大數(shù)據(jù)和人工智能大范圍驅(qū)動(dòng)日常生活的時(shí)代。算法決定著我們閱讀的內(nèi)容,決定著我們的目的地以及出行方式,決定著我們所聽的音樂,決定著我們所購買的物品及其價(jià)格。自動(dòng)駕駛汽車、自動(dòng)癌癥診斷和機(jī)器人寫作等新事物正前所未有地接近大規(guī)模商業(yè)應(yīng)用。
因此,在某種程度上,將數(shù)據(jù)比喻為“新石油”,將人工智能比喻為“新鉆頭”并無不妥,而故障算法及其帶來的負(fù)面影響則可比喻為由此產(chǎn)生的“新污染”。但要注意的是,算法故障不等于有惡意。因?yàn)樯埔獠⒉荒鼙WC算法不導(dǎo)致任何法律、倫理和社會(huì)問題。在人工智能領(lǐng)域,我們有相當(dāng)多這樣的例子,例如由于技術(shù)意外、缺乏對(duì)問題的預(yù)見或技術(shù)上難以監(jiān)督監(jiān)管、責(zé)任分散導(dǎo)致的隱私侵犯、算法偏見和濫用等。此外,一些研究人員開始擔(dān)心智能機(jī)器將取代人類勞動(dòng)力,從而導(dǎo)致社會(huì)失業(yè)率上升。
很多人認(rèn)為人工智能倫理還是一個(gè)科幻議題,但其實(shí)麻煩已經(jīng)迫在眉睫。最近幾年,一系列涉及AI不端行為的新聞?lì)l頻出現(xiàn)在新聞客戶端;面部識(shí)別應(yīng)用程序?qū)⒎且崦绹藰?biāo)記為大猩猩,將國會(huì)議員標(biāo)記為刑事罪犯;美國法院使用的風(fēng)險(xiǎn)評(píng)估工具對(duì)非裔美國人有偏見;優(yōu)步的自動(dòng)駕駛汽車在亞利桑那州撞死了一名行人;Facebook和其他大公司因歧視性廣告行為被起訴。
在過去幾十年中,對(duì)技術(shù)倫理的研究經(jīng)歷了三個(gè)階段。第一階段的研究主要集中在計(jì)算機(jī)上。在此期間,各國頒布了大量有關(guān)計(jì)算機(jī)使用、欺詐、犯罪和濫用的倫理準(zhǔn)則和法律,大多數(shù)規(guī)則今天也仍然適用。第二階段則集中在互聯(lián)網(wǎng)領(lǐng)域,創(chuàng)建了規(guī)范信息創(chuàng)建、保護(hù)、傳播和預(yù)防濫用的倫理原則和法律?,F(xiàn)在,這個(gè)研究領(lǐng)域已經(jīng)悄然進(jìn)入了一個(gè)全新的第三階段,可以將其稱為“數(shù)據(jù)和算法倫理”。未來,我們將需要有關(guān)人工智能開發(fā)和利用的倫理框架和法律。
而究竟如何為人工智能制定倫理,是全人類都沒有遇到過的問題,我們正在向無人區(qū)航行,需要原則和規(guī)則作為指南針,來指導(dǎo)這次偉大的探險(xiǎn),而技術(shù)倫理則是這套原則和規(guī)則的核心。當(dāng)前,一些政府部門和行業(yè)協(xié)會(huì)已開始嘗試建立這樣的倫理框架,顯著的例子包括阿西洛馬人工智能原則,以及IEEE的倫理標(biāo)準(zhǔn)和認(rèn)證計(jì)劃。
今年九月,騰訊董事會(huì)主席兼首席執(zhí)行官馬化騰在上?!?018世界人工智能大會(huì)”上提出人工智能的“四可”理念,即未來人工智能是應(yīng)當(dāng)做到“可知”、“可控”、“可用”和“可靠”。筆者將“四可”翻譯為“ARCC”(Available,Reliable,Comprehensible,以及Controllable,讀作ark,寓意“方舟”),正如傳說中數(shù)千年前拯救人類文明的諾亞方舟一樣,人工智能領(lǐng)域的“倫理方舟”(ARCC)也將在未來幾千年確保人類與機(jī)器之間友好、和諧的關(guān)系。因此,這四項(xiàng)原則值得深入探討。
這一原則要求盡可能多的人可以獲取、利用人工智能,而不是為少數(shù)人所專享。我們已經(jīng)習(xí)慣于智能手機(jī)、互聯(lián)網(wǎng)、應(yīng)用程序帶來的便利,而往往忘了還有半個(gè)世界被隔絕在這場(chǎng)數(shù)字變革之外。人工智能的進(jìn)步應(yīng)該解決這個(gè)問題,而不是加劇這個(gè)問題。我們應(yīng)該讓欠發(fā)達(dá)地區(qū)的居民,以及老人、殘障人士回到數(shù)字世界中來,而不是將數(shù)字鴻溝視為既定事實(shí)。我們需要的人工智能應(yīng)當(dāng)是包容的、可被廣泛共享的技術(shù),并將人類的共同福祉作為其唯一發(fā)展目的。只有這樣,我們才能確定人工智能不會(huì)讓少數(shù)人的利益凌駕于大眾之上。
以最近醫(yī)療機(jī)器人的發(fā)展為例,騰訊醫(yī)療AI實(shí)驗(yàn)室開發(fā)的“覓影”目前正與數(shù)百家地區(qū)醫(yī)院的放射科醫(yī)生合作。這種癌癥預(yù)篩查系統(tǒng)目前已經(jīng)審查了數(shù)十萬張醫(yī)學(xué)影像,鑒別出數(shù)十萬個(gè)疑似高風(fēng)險(xiǎn)病例,并將這些案例轉(zhuǎn)交給人類專家進(jìn)行進(jìn)一步判斷。這項(xiàng)技術(shù)使醫(yī)生免于繁重的影像判斷工作,從而有更多的時(shí)間來照顧病人。讓機(jī)器和人類各司其職,在這種情況下,醫(yī)生與看似危及其工作的機(jī)器和平相處。
此外,可用的人工智能還應(yīng)當(dāng)是公平的。完全遵循理性的機(jī)器應(yīng)該是公正的,沒有人類的情緒化、偏見等弱點(diǎn)。但機(jī)器的公正并不是想當(dāng)然存在的。最近發(fā)生的事件,如微軟開發(fā)的聊天機(jī)器人使用粗俗語言等,表明當(dāng)給人工智能“喂養(yǎng)”了不準(zhǔn)確、過時(shí)、不完整或有偏見的數(shù)據(jù)時(shí),機(jī)器也會(huì)犯和人類一樣錯(cuò)誤。對(duì)此,必須強(qiáng)調(diào)“經(jīng)由設(shè)計(jì)的倫理”(ethics by design)理念,也就是在人工智能的開發(fā)過程中就要仔細(xì)識(shí)別、解決和消除偏見。可喜的是,政府部門和互聯(lián)網(wǎng)行業(yè)組織等已經(jīng)在制定解決算法偏見和歧視的指導(dǎo)方針和原則。谷歌、微軟等大型科技公司也已經(jīng)建立了自己的內(nèi)部倫理委員會(huì)來指導(dǎo)其人工智能研究。
人工智能的應(yīng)用如機(jī)器人等已進(jìn)入普通家庭,我們需要這些人工智能是安全的、可靠的,能夠抵御網(wǎng)絡(luò)攻擊和其他事故。以自動(dòng)駕駛汽車為例,騰訊目前正在開發(fā)3級(jí)自動(dòng)駕駛系統(tǒng),并已獲得在深圳市進(jìn)行道路測(cè)試的許可。而在獲得道路測(cè)試許可前,騰訊的自動(dòng)駕駛汽車需要在封閉場(chǎng)進(jìn)行累計(jì)超過一千公里的封閉測(cè)試,以確保道路測(cè)試的安全。但由于相關(guān)的認(rèn)證標(biāo)準(zhǔn)和法律規(guī)定仍有待確定,目前道路上還沒有投入商用的真正的自動(dòng)駕駛汽車。
此外,人工智能的可靠性還應(yīng)當(dāng)確保數(shù)字安全、物理安全和政治安全,尤其是對(duì)用戶隱私的保護(hù)。由于人工智能研發(fā)需要收集個(gè)人數(shù)據(jù)以訓(xùn)練其人工智能系統(tǒng),研發(fā)者在這一過程中應(yīng)當(dāng)遵守隱私要求,踐行“經(jīng)由設(shè)計(jì)的隱私”(privacy by design)理念,通過一定的設(shè)計(jì)保護(hù)用戶的隱私,并防止數(shù)據(jù)濫用。
深度學(xué)習(xí)等人工智能方法的流行,使得底層的技術(shù)細(xì)節(jié)越發(fā)隱秘,可謂隱藏在一個(gè)“黑盒”當(dāng)中。深度神經(jīng)網(wǎng)絡(luò)的輸入和輸出之間還有很多隱藏層,這使得研發(fā)人員都可能難以理解其系統(tǒng)。因此,當(dāng)人工智能算法導(dǎo)致車禍時(shí),調(diào)查其技術(shù)原因可能需要花費(fèi)數(shù)年時(shí)間。
幸運(yùn)的是,AI行業(yè)已經(jīng)開始對(duì)可理解的AI模型進(jìn)行研究。算法透明是實(shí)現(xiàn)可理解人工智能的一種方式。雖然用戶可能不大關(guān)心產(chǎn)品背后的算法,但監(jiān)管機(jī)構(gòu)需要深入了解技術(shù)細(xì)節(jié)以便進(jìn)行監(jiān)管。無論如何,就AI系統(tǒng)直接作出或輔助做出的決策,向用戶提供易于理解的信息和解釋,都是值得鼓勵(lì)的。
為了建立可知的人工智能,應(yīng)該保證和鼓勵(lì)公眾參與和個(gè)人權(quán)利的行使。人工智能開發(fā)不應(yīng)只是企業(yè)的秘密行為。作為最終用戶的公眾可以提供有價(jià)值的反饋,有權(quán)質(zhì)疑可能造成傷害或難堪的機(jī)器決策,這將有助于開發(fā)更高質(zhì)量的人工智能。
此外,可知的人工智能要求企業(yè)提供必要的信息,也即科技公司應(yīng)當(dāng)向其用戶提供有關(guān)AI系統(tǒng)的目的、功能、限制和影響的足夠信息。
可控原則目的在于確保人類始終處于主導(dǎo)地位。從數(shù)千年前的文明曙光乍現(xiàn),到今日的科學(xué)技術(shù)發(fā)展,人類始終控制著自己的造物,AI或是任何其他技術(shù)都不應(yīng)當(dāng)成為例外。只有確保機(jī)器的可控性,人類才能在機(jī)器出差錯(cuò)、損害人類利益時(shí),及時(shí)阻止事態(tài)惡化。只有嚴(yán)格遵循可控原則,我們才能避免霍金和馬斯克等名人所描繪的科幻式的噩夢(mèng)。
每一次創(chuàng)新都會(huì)帶來風(fēng)險(xiǎn)。但是,我們不應(yīng)該讓這些擔(dān)憂和恐懼阻止我們通過新技術(shù)邁向更好的未來。我們應(yīng)該做的是確保AI的好處遠(yuǎn)遠(yuǎn)超過潛在的風(fēng)險(xiǎn),制定并采取適當(dāng)?shù)念A(yù)防措施,以防范潛在的風(fēng)險(xiǎn)。
就目前而言,人們還不信任人工智能。我們經(jīng)常能看到批評(píng)自動(dòng)駕駛汽車不安全、過濾系統(tǒng)不公平、推薦算法限制選擇、定價(jià)機(jī)器人導(dǎo)致更高價(jià)格的聲音。這種根深蒂固的懷疑來源于信息的匱乏,我們大多數(shù)人要么不關(guān)心,要么沒有足夠的知識(shí)來理解人工智能。對(duì)此我們應(yīng)該如何行動(dòng)?
應(yīng)該提議是,以倫理原則為起點(diǎn),建立一套規(guī)則體系,以幫助人工智能開發(fā)人員及其產(chǎn)品贏得公眾的信任。
規(guī)則體系的最左端,是軟法性質(zhì)的規(guī)則,包括非強(qiáng)制性的社會(huì)習(xí)慣、倫理標(biāo)準(zhǔn)和自我行為規(guī)范等,以及筆者所說的倫理原則。國際上,谷歌、微軟和其他一些大公司都已經(jīng)提出了它們的AI原則,且阿西洛馬人工智能原則和IEEE的AI倫理項(xiàng)目都得到了很高評(píng)價(jià)。
隨著規(guī)則體系的坐標(biāo)右移,我們有強(qiáng)制性的規(guī)則,例如標(biāo)準(zhǔn)和法律規(guī)范。今年發(fā)布的一份關(guān)于自動(dòng)駕駛汽車的政策研究報(bào)告,發(fā)現(xiàn)目前許多國家正在研究制定鼓勵(lì)和規(guī)范自動(dòng)駕駛汽車的法律規(guī)則??梢灶A(yù)見未來各國也將制定關(guān)于人工智能的新法律。
隨著規(guī)則體系的坐標(biāo)繼續(xù)右移,我們可以通過刑法懲罰惡意使用人工智能的行為。而在規(guī)則體系的最右端,則是具有最大約束范圍的國際法。一些國際學(xué)者正在積極推動(dòng)聯(lián)合國提出關(guān)于禁止使用致命自動(dòng)化武器的公約,就像禁止或限制使用某些常規(guī)武器的公約一樣。
最后,其實(shí)無論是核技術(shù)還是人工智能,技術(shù)本身是中性的,既非善也非惡。賦予技術(shù)價(jià)值并使它們變得美好是人類自身的責(zé)任?!?/p>