陳冰
社會各界需要引導(dǎo)AI向善的價值。
人工智能在全球范圍內(nèi)蓬勃興起,深刻改變著人們的生產(chǎn)生活方式,同時也在法律、安全、就業(yè)、道德倫理和政府治理等方面提出了新的課題和挑戰(zhàn)。人工智能在追求卓越的同時如何兼顧倫理和情感?如何更加安全友好?如何與人類和諧共生而不是替代?
在剛剛結(jié)束的2020世界人工智能大會上,全球的科學(xué)家、企業(yè)家、政府人士、國際組織專家以及法學(xué)家、倫理學(xué)家組成超強嘉賓陣容,共同就人工智能立法、倫理規(guī)范、標準評估等提出建議,促進國際交流參與全球人工智能治理合作,推進人工智能治理原則落地落實。
圖靈獎獲得者、康奈爾大學(xué)約翰·霍普克羅夫特指出,AI系統(tǒng)將像互聯(lián)網(wǎng)、電網(wǎng)、手機系統(tǒng)和金融系統(tǒng)一樣得到普遍應(yīng)用。未來,戰(zhàn)爭可能不會再涉及飛機和坦克之類的實物,而是由黑客打響。因此,運用可靠的軟件設(shè)計技術(shù)開發(fā) AI 系統(tǒng),確保 AI系統(tǒng)不會遭到攻擊或發(fā)生故障至關(guān)重要。
不過迄今為止,人類對AI到底是如何進行決策的,并不清楚。通常,簡單的機器學(xué)習(xí)就是使用大量的數(shù)據(jù)來訓(xùn)練自己對某些問題形成算法。例如,向機器提供成千上萬張標有“貓”的照片,它就能學(xué)會識別“貓”這一生物。但在現(xiàn)實生活中我們會遇到各種各樣的復(fù)雜問題,從而需要更復(fù)雜的算法,于是深度學(xué)習(xí)誕生了。
深度學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)是以人的大腦為參照開發(fā)的 AI 系統(tǒng),旨在復(fù)制人類學(xué)習(xí)的方式。深度學(xué)習(xí)不需要結(jié)構(gòu)化數(shù)據(jù)作為基礎(chǔ),利用人工神經(jīng)網(wǎng)絡(luò)(artificial neural net),即多個神經(jīng)元一起工作,通過這些“神經(jīng)元”來考慮數(shù)據(jù)并對數(shù)據(jù)進行分類。簡單的神經(jīng)網(wǎng)絡(luò)有一個輸入層、一個輸出層,兩者之間還有一個將輸入轉(zhuǎn)換為正確的輸出結(jié)果的層。然而一些深度神經(jīng)網(wǎng)絡(luò)非常復(fù)雜,無法遵循這種簡單的轉(zhuǎn)換過程。所以逐漸地,神經(jīng)網(wǎng)絡(luò)的設(shè)置層越來越多,決策過程成為了一個“黑箱”問題,內(nèi)部流程非常不透明,以至于該網(wǎng)絡(luò)的開發(fā)者可能都無法完全掌握。目前,最先進的神經(jīng)網(wǎng)絡(luò)也缺乏有效的機制能讓人理解其推理過程。
比方說,神經(jīng)網(wǎng)絡(luò)非常擅長圖像識別,當(dāng)向它們提供足夠的數(shù)據(jù)后,他們可以挑出人眼看不見的圖案或差異。利用這一點,深度學(xué)習(xí)可以實現(xiàn)自動駕駛汽車的行人偵查或腫瘤篩查。但是,當(dāng)出現(xiàn)超出其參數(shù)范圍的輸入時,神經(jīng)網(wǎng)絡(luò)就會出錯。靜態(tài)的、波浪狀的人字紋,以及五顏六色的條紋,可能被AI自信地識別為“蜈蚣”或“熊貓”。一些常見的圖像也會讓深度學(xué)習(xí)人工智能崩潰。把消防車圖片倒過來,AI就會看到一個大雪橇;放大一輛公共汽車的窗戶,它在AI眼中就變成了一個出氣筒。
更可怕的后果還在于AI也會存在性別歧視和種族歧視。1982年倫敦圣喬治醫(yī)學(xué)院的一個博士為了招生的時候篩選學(xué)生的效率和公平性,設(shè)計了一個程序,他發(fā)現(xiàn)機器篩選的結(jié)果基本上和人工差不多。管理層覺得這是一個好事,說明人工智能的算法能夠代替人。但是很快委員們就發(fā)現(xiàn)這里面存在著明顯的種族歧視,篩選過程當(dāng)中如果他們的名字不是白人姓氏,篩選的流程就會不利于他們,而實際上光是沒有一個歐洲人的名字就會自動扣除申請者 15 分。
到了21世紀,這樣的歧視仍然存在。2018年年初,紐約時報發(fā)表文章稱,在熱門的人臉識別領(lǐng)域,針對不同種族的準確率差異巨大。其中,針對黑人女性的錯誤率高達21%-35%,而針對白人男性的錯誤率則低于1%。究其原因,主要有兩點,一是深色人種數(shù)據(jù)集的缺乏,二是深色人種人臉特征較難提取。
類似的問題還有很多,包括性別歧視、年齡歧視、種族歧視、地域歧視等等。通過進一步的研究,人們發(fā)現(xiàn)這個程序?qū)嶋H上是模仿了人類評估員的行為,最終這個算法并不是自動把種族歧視寫進程序里,僅僅是放大了或者模仿了人類評估員的行為。
約翰·霍普克羅夫特說,AI 涉及對某一計算機程序進行訓(xùn)練,使其能基于一組訓(xùn)練數(shù)據(jù)取得良好的表現(xiàn),然后再將該程序應(yīng)用到另一組新數(shù)據(jù)上,使程序能夠適應(yīng)新數(shù)據(jù)組的過程被稱為“泛化”。就是在“泛化”的過程中,AI 程序的偏見出現(xiàn)了?!叭绻?dāng)前大多高層職位都由男性擔(dān)任的話,那么AI程序在執(zhí)行高層職位人員選聘流程時往往會選擇男性。同樣,由于亞洲文化與美國文化存在差異,因此,根據(jù)中國背景訓(xùn)練的系統(tǒng)可能無法針對美國的問題給出合適的解決方案,反之亦然。”
復(fù)旦大學(xué)計算機學(xué)院院長姜育剛一直在從事AI的前沿研發(fā)工作,他指出,就圖文識別技術(shù)而言,會出現(xiàn)非常多的技術(shù)挑戰(zhàn)?!耙粡埡芎唵蔚男茇垐D片,我們在里面加入一些非常少量的干擾,最后人為視覺看上去還是一個熊貓,但是機器模型就會識別錯。還有一些槍的圖片,如果加入一些對抗干擾進去,識別結(jié)果就會產(chǎn)生錯誤。比如說自動駕駛領(lǐng)域,如果是限速標牌80碼,加入一些干擾,被機器識別成Stop,顯然交通上就會引起很大的安全隱患?!?/p>
“不只是在圖片和視頻領(lǐng)域,在語音識別領(lǐng)域,我們?nèi)我庠谡Z音上加入非常微小的干擾,語音識別系統(tǒng)也可能會把這段語音識別錯,這都是可以做到的。在文本識別領(lǐng)域,我們改變一個字母就可以使得文本內(nèi)容被錯誤分類,有很多這樣的例子?!?/p>
當(dāng)然,這樣改頭換面、欺騙AI的手法還都是一些小伎倆。更高階的一種叫后門攻擊。“我們在訓(xùn)練的時候某一類插入一個后門,比方說用眼鏡作為一個后門,用一些技巧訓(xùn)練機器識別眼鏡。訓(xùn)練完了以后,這個模型對戴眼鏡的人能夠做正確的識別,但是讓另外一個人戴了同樣的眼鏡,他就會被識別成之前的那個人。訓(xùn)練的時候,模型里面留了一個后門,這就會是安全隱患?!?p>
人工智能已經(jīng)進入生活的方方面面。攝影/ 陳夢澤
專家建議,在立法和監(jiān)管方面,應(yīng)給予適度寬松的發(fā)展空間,給AI 應(yīng)用提供安全港,通過試驗、測試、試點等方式加速AI 從研發(fā)到商業(yè)落地的轉(zhuǎn)變。攝影/ 陳夢澤
毫無疑問,這些干擾、后門技術(shù)如果被濫用,就有可能會形成一些新的安全隱患。最著名的就是轟動一時的換臉軟件“zao”。一天之內(nèi)爆火,一日之后下架。實際上,基于AI的深度合成技術(shù)已經(jīng)可以綜合運用人臉替換、人臉再現(xiàn)、人臉合成、語音合成等技術(shù),實現(xiàn)更加復(fù)雜的視頻合成。2018年出現(xiàn)的一種新的AI算法,只需要一張照片,就可以讓一個不會跳舞的人變成靈魂舞者。此外,3D合成尤其是虛擬人正在成為下一個階段的技術(shù)發(fā)展重點。圍繞生成虛假的人臉或者人身,還可以建立虛假的社交賬戶,讓他和很多真實的人建立關(guān)聯(lián)關(guān)系,甚至形成一些自動對話??雌饋砗孟袷且粋€真實人的賬號,實際上卻完全是虛擬生成的。從積極的一面看,深度合成技術(shù)推動了社交、游戲、影視、電商等領(lǐng)域沉浸式體驗的進一步發(fā)展;但從另外一個方面來看,這些應(yīng)用中可能也會涉及個人隱私的保護、版權(quán)的爭議以及道德倫理方面的巨大挑戰(zhàn),它們也有可能被一些不法之徒用于“偽造”或者“欺騙”。一些虛假的視頻,尤其是虛假的人的講話,比如說模仿領(lǐng)導(dǎo)人講話,有可能對社會穩(wěn)定甚至國家安全造成威脅。
魔高一尺道高一丈。與圖像生成技術(shù)相輔相成的就是如何辨別圖像的真?zhèn)?。這些新技術(shù)的出現(xiàn),需要更厲害的技術(shù)與之對抗,才能保證AI朝著正確的方向運行,而不至于成為一匹不受人類控制的脫韁野馬。
對于一些參數(shù)比較明確的模型,也即“白盒場景”,只需要“對癥下藥”,還是比較容易校正的?,F(xiàn)實情況中,大多是比較困難的“黑盒場景”,就是不知道這個模型的算法邏輯是什么,例如,對用在自動駕駛汽車中的神經(jīng)網(wǎng)絡(luò)來說,行人和路牌之間存在什么樣的差異?神經(jīng)網(wǎng)絡(luò)的哪個決策階段能夠發(fā)現(xiàn)兩者的區(qū)別?只有了解這一過程,才能夠更好地理解模型為何會做出錯誤的預(yù)測,從而設(shè)法糾正神經(jīng)網(wǎng)絡(luò)的一些錯誤。
如果算法出錯,應(yīng)該由誰買單?無人駕駛汽車領(lǐng)域顯然無法逃避這一問題,但除此之外還有其他諸多領(lǐng)域也同樣如此。當(dāng)無人駕駛汽車發(fā)生傷人事故,責(zé)任應(yīng)該由誰承擔(dān)?是坐在后座的乘客嗎?是汽車的制造商嗎?還是駕駛汽車的 AI 程序?AI 程序的主體又是誰?是締造它的程序員,還是擁有它的公司?毫無疑問,AI的廣泛應(yīng)用,不僅對技術(shù)人員提出了更高的挑戰(zhàn),也帶來許多現(xiàn)實的、亟待解決的法律問題,只有通過法律、技術(shù)、行業(yè)、用戶的多重治理,讓AI向善,進入可控發(fā)展軌道,才能逐漸從deepfake(用人臉識別技術(shù)做換臉)、deepnude(用算法“脫”衣服)等色情性換臉視頻的陰影中走出來,迎來商業(yè)化時代。
曠視聯(lián)合創(chuàng)始人兼首席執(zhí)行官印奇指出,早在去年7月份,曠視就成為了中國第一家成立人工智能治理委員會的人工智能企業(yè)。之所以如此重視人工智能的治理,是因為AI邊界和倫理、法律之間產(chǎn)生了非常多的碰撞,不及時排除這些“定時炸彈”,企業(yè)發(fā)展有可能遭受滅頂之災(zāi)。
“5 年前,曠視是全球第一家將人臉識別技術(shù)應(yīng)用在金融行業(yè)的企業(yè),當(dāng)時沒有任何行業(yè)標準和法律法規(guī)可以依據(jù),那個時候我們大的邏輯就是要邊發(fā)展邊治理。5 年發(fā)展之后,刷臉技術(shù)已經(jīng)應(yīng)用到生活的方方面面,這個時候更要關(guān)注它真正所面臨的社會問題、法律問題和治理問題。這里面一個最重要的問題就是關(guān)于肖像權(quán)的數(shù)據(jù)確權(quán)問題,這可能不僅是一個法律的討論,更重要的是關(guān)乎到很多真正商業(yè)產(chǎn)品設(shè)計當(dāng)中合同的簽訂,包括法律確權(quán)和法律糾紛當(dāng)中所涉及的問題,我們做了大量的工作,核心就是從技術(shù)和產(chǎn)品出發(fā),真正探討它最相關(guān)的法律本質(zhì)問題?!?/p>
印奇說,人工智能早期認為算法最重要,后期認為計算能力是最重要的,現(xiàn)在則認為核心數(shù)據(jù)是最重要的。而很多人工智能核心問題是無法通過一家企業(yè)或者一個行業(yè)的數(shù)據(jù)來打通的,需要有一個非常好的數(shù)據(jù)交換、定價和商業(yè)模式,這些數(shù)據(jù)所謂的定價、交換和商業(yè)模式不僅僅需要產(chǎn)業(yè)內(nèi)的公司互相之間的商業(yè)上的安排,更多需要從法理層面和國家層面進行標準制定。
黑石集團創(chuàng)始人、董事長兼CEO蘇世民認為,人工智能發(fā)展面臨潛在的社會治理和道德倫理問題,AI發(fā)展需要多國協(xié)作,更需要遵循五大倫理原則。首先是透明性原則,人工智能決策過程不應(yīng)是一個“黑匣子”,人工智能系統(tǒng)必須是易于翻譯、可解釋的。其次是公平性原則,技術(shù)不應(yīng)加劇不平等或偏見和歧視,而應(yīng)促進包容性,讓盡可能多的人受益于人工智能技術(shù)。第三是安全性原則,人工智能技術(shù)絕不應(yīng)造成可預(yù)見或無意的傷害,必須保證人工智能系統(tǒng)的可靠性和安全性。第四是責(zé)任原則,研發(fā)和測試人員必須考慮到AI所有的潛在風(fēng)險,如果AI系統(tǒng)決策出現(xiàn)問題,必須具備清除能力,采取強制性補救措施。第五是隱私原則。因為很多AI應(yīng)用程序都依賴于數(shù)據(jù),因此必須保護用戶個人隱私,以易于理解的方式存儲和保護個人信息,用戶也應(yīng)擁有可以很便捷地撤銷AI使用其個人信息的權(quán)利?!斑@些原則越早通過會議被提出和應(yīng)用,就越有可能避免AI帶來的負面后果?!碧K世民強調(diào)。
在2020世界人工智能大會上,騰訊發(fā)布的《2020騰訊人工智能白皮書》指出,在當(dāng)前激烈的國際競爭背景下,我國針對人工智能等新技術(shù)的立法和監(jiān)管需要著重考慮國際競爭視角,避免產(chǎn)生阻礙、延緩技術(shù)發(fā)展應(yīng)用的不利效果,削弱我國的科技和產(chǎn)業(yè)競爭實力。因為在全球競爭重心日益轉(zhuǎn)向人工智能等新技術(shù)的大背景下,過早或過度的監(jiān)管都可能削弱一國在AI領(lǐng)域的競爭力。與此同時,立法和監(jiān)管還應(yīng)充分考慮技術(shù)的經(jīng)濟社會價值,保證技術(shù)紅利在經(jīng)濟社會發(fā)展中的最大釋放,避免因偶發(fā)性的負面問題而“過度反應(yīng)”或“因噎廢食”,從而采取應(yīng)激、激進的監(jiān)管措施。比如在治理層面,通過構(gòu)建多層次的治理體系,來適應(yīng)人工智能所具有的快速發(fā)展迭代、日益復(fù)雜化等特征;在立法和監(jiān)管方面,推動先行先試,給予適度寬松的發(fā)展空間,給AI應(yīng)用提供安全港,通過試驗、測試、試點等方式加速AI從研發(fā)到商業(yè)落地的轉(zhuǎn)變,同時審查、調(diào)整政策、監(jiān)管框架和評估體制以鼓勵創(chuàng)新和競爭。
上海國家新一代人工智能創(chuàng)新發(fā)展試驗區(qū)專家咨詢委員會提出了“一平臺、四工作、四體系”的上海AI治理協(xié)同行動9條建議?!耙粋€平臺”,即構(gòu)建全球合作網(wǎng)絡(luò)和交流平臺,推動形成全球人工智能治理研究和協(xié)作共同體,汲取全球多元文化智慧,為解決相關(guān)問題提供解決方案;“四工作”是推進AI治理標準規(guī)范的制定、推動建立行業(yè)自律、總結(jié)推出最佳實踐、推動安全可信技術(shù)研發(fā);“四體系”是致力于建立人工智能治理的評估體系、監(jiān)管體系、人才體系、保障體系。
這是國內(nèi)首次提出系統(tǒng)落實國家人工智能治理原則的行動建議方案,將為進一步推進人工智能治理工作提供參考。