冷曉琨
在7月1—3日召開的夏季達沃斯論壇上,作為引領新一輪科技革命和產(chǎn)業(yè)變革的重要驅動力,人工智能毫不意外也是論壇的熱門話題。人工智能的“信任”問題便是其中議題之一。人工智能的信任問題一直伴隨著其發(fā)展被公眾廣泛關注,不少人對人工智能的成果是否會給人類和社會帶來危害一直存在擔憂,甚至不少大公司對從事相關技術工作的工程師已經(jīng)開始進行特殊的道德培訓。之前,DeepFake“AI換臉”和DeepNude “一鍵脫衣”再次引發(fā)人們對于“人工智能到底能干什么,我們真的能信任人工智能嗎?”的討論。
事實上,可以從兩個角度來看:人工智能是否能夠信任?是否值得信任?
是否能夠信任討論的是“準確性”問題,人工智能技術與產(chǎn)品的成熟度,是否已達到提供精準服務的水平?以自動駕駛為例,2018年上半年發(fā)生了4起車禍:Uber自動駕駛車致路人死亡、特斯拉Model S 追尾消防車、特斯拉Model 3翻車入河、福特Argo致乘客受傷,一系列事故似乎讓人根本不敢接受自動駕駛。然而,據(jù)特斯拉2018年第四季度安全報告數(shù)據(jù)顯示:自動駕駛的特斯拉車輛,平均每291萬英里會出現(xiàn)一起事故;由人類駕駛的特斯拉車輛,平均每158英里出現(xiàn)一次事故。這樣看來,人工智能似乎比人更加能夠被信任。事實上,人工智能作為一種新興技術,像歷史上任何技術的發(fā)展一樣會漸趨成熟。當我們在這里討論人工智能是否能夠被信任時,它已經(jīng)漸漸地走進搜索引擎、打車軟件、學習助手,走進家庭、安防、交通、醫(yī)院及學校等各個領域。因此,我們應該樂觀而謹慎地對待新技術的發(fā)展過程。
是否值得被信任討論的是“安全性”問題,是人們對于未知人工智能時代的極端想象與恐懼。2019年6月,“波士頓動力Atlas機器人”的新視頻在社交媒體瘋傳,視頻中機器人因為測試人員對其施暴而采取反擊,最終演變成人與機器人的混戰(zhàn)。雖然這則視頻后被證實為合成,但隨著人工智能的急速發(fā)展,人類是否會被機器人取代?能夠自我學習、修復、完善的機器人是否會在某一天突然失控,成為妄圖統(tǒng)治人類的怪物?
人工智能是以程序來模擬人腦認知、推理和決策的系統(tǒng)科學,其核心目的是使機器能夠勝任一些只有人才能承擔的工作與任務,本質(zhì)是海量數(shù)據(jù)的訓練、推理及決策。盡管目前世界上最先進的機器人還遠遠不能成為終結者,但我們不得不承認,人工智能對人類發(fā)展的影響已經(jīng)產(chǎn)生。
那我們又該如何建立防范機制?就目前來看,人工智能應用的領域越來越廣,人們的長相、身體、年齡、喜好、情緒、需求等各種數(shù)據(jù)被人工智能采集、分析,并通過疾病診斷、消防營救、機器人教育、犯罪預警、自動駕駛等各種形式為其服務。隨著技術逐漸強大,服務快速延伸,人工智能公司也開始通過在技術和人員方面建立防護機制來尋求用戶的信賴,以獲得長遠的發(fā)展。
樂聚機器人CEO常琳接受采訪時曾說:“我們在機器人研發(fā)時就搭建了信任系統(tǒng),以此作為技術管制的手段。工程師必須按照控制框架進行設計,以保證程序和信息的安全。保密、透明、防護是我們機器人設計的三個重要安全準則?!?/p>
人員是技術安全的關鍵因素。2018年底,埃森哲和英特爾合作調(diào)查了305家企業(yè),其中70%的公司對其從事人工智能相關技術工作的人員進行了道德培訓。盡管道德培訓不是防范人工智能“破壞性行為”的關鍵手段,但也一定是必須有的措施之一。
除了企業(yè)的主動性防護機制,第三方審查也是建立人工智能信任機制的重要方式。對于初生的人工智能產(chǎn)業(yè)來說,需要清晰的標準和嚴格的監(jiān)管機構來規(guī)范行業(yè)行為,維護合格合規(guī)產(chǎn)品及用戶的權益。