克里斯·巴拉紐克
自動駕駛需要人類對機器完全信賴。
當法航447號班機以近300公里的時速墜向大西洋時,飛行員皮埃爾–塞德里克·博寧在全力與飛機控制系統(tǒng)搏斗。故障原因很明顯,由于飛機部件結(jié)冰導致自動駕駛系統(tǒng)突然關(guān)閉,之后博寧和他的機組成員接管了飛機。當時的情況需要飛行員進行手動操作。
飛行員對這種狀況缺乏經(jīng)驗,他們掙扎著想把飛機穩(wěn)住。駕駛艙的電腦不斷涌現(xiàn)出混亂的信息和警報,而且電腦沒有提示他們飛機已經(jīng)處于失速狀態(tài)。黑匣子記錄下了博寧的最后一句話:“我們要墜機了——這不可能。到底怎么回事?”
那天是2009年6月1日,機上的乘客和機組成員全部遇難。當發(fā)生這種人類和機器都牽涉其中的事故時,它的根源通常是多方面的。但是,分析人員把法航447航班空難的部分原因歸咎于對機器的過度依賴和信任——飛行員期望自動駕駛系統(tǒng)會一直正常運轉(zhuǎn)、信息系統(tǒng)始終能提供精確的信息。而過度依賴技術(shù)造成人員傷亡的案例遠遠不止這一起。
科學家對“自動化偏見”的現(xiàn)象進行了深入研究,發(fā)現(xiàn)它有時還會導致“自動化自滿”,即當計算機主導工作時,人們較難發(fā)現(xiàn)其中的故障。不過,令人驚訝的是,人類過度信賴機器的傾向或許直接受到了數(shù)百萬年來生物進化的影響。
俄克拉荷馬大學的帕特里夏·阿德雷在一本關(guān)于人類為何過度信任機器的書中寫道:“過分信賴技術(shù)導致的錯誤比例高得令人吃驚?!彼J為,人們普遍缺乏判斷一項具體技術(shù)的可靠性的能力。它的影響是雙向的:我們有可能在計算機對我們有利時拒絕它的幫助;也可能盲目信任這種設備,直到它最終傷害我們的利益乃至生命。
作為與人類親緣關(guān)系最近的物種之一,黑猩猩的行為或許能提供一條線索,幫助揭開我們不擅長評估機器可信度的原因。這可能是因為,相比機器,我們更傾向于評估其他的同類。
最近,研究人員在肯尼亞的一個動物保護區(qū)進行了一項實驗,他們制作了一個設備讓黑猩猩可以拉動機器上的繩子獲得食物獎勵。拉動第一根繩子會得到基礎的獎勵——一片香蕉;拉動第二根繩子的獎勵更誘人,是兩片香蕉和一片蘋果,可能由機器發(fā)放,也可能由黑猩猩的同伴發(fā)放。
日本一家動物園試圖讓黑猩猩學習使用自動售貨機。
第二根繩子的另一端有時是機器,有時是另一只黑猩猩,但是兩者不會同時出現(xiàn)。然而,有時機器會不發(fā)放獎勵,有時另一只黑猩猩會選擇把獎勵獨吞掉。因此,拉動第二根繩子可能獲得更多的獎勵,但這卻是一個更具不確定性的選擇。
這樣,參與實驗的黑猩猩面對的條件可能是社會性的或者非社會性的。如果想有機會獲得更多的食物獎勵,它們就需要信任那臺機器或者另一只黑猩猩。
研究表明,當由黑猩猩的同伴負責遞出食物時,黑猩猩們不太傾向于選擇第二根繩子。它們拒絕參與社會性實驗的次數(shù)占12%,而在機器掌控的非社會性實驗中,它們抗拒的次數(shù)只占4%。也就是說,它們更信賴機器。
馬克斯·普朗克人類發(fā)展研究所的洛烏·豪克斯和同事們設計并進行了這項實驗。她說:“當黑猩猩們發(fā)現(xiàn)它們面對的不是機器而是另一只黑猩猩時,它們會更加猶豫不決。”實驗表明,社會風險在黑猩猩和人類生活中發(fā)揮著重要的影響——目前只有為數(shù)不多的研究揭示了這一點。
這種心理被稱為“背信規(guī)避”,豪克斯解釋道:“害怕被另一個人(或者另一只黑猩猩)欺騙的心理會引起更強烈的情緒?!彼蛄艘粋€比方:如果你把錢投進自動售貨機,它卻沒送出你要的飲料,毫無疑問,你可能會生氣。但不妨想象一下,假如酒保收了你的錢,然后當著你的面喝掉了你點的可樂,你是什么感覺?你大概會氣瘋了。這是當然的,因為自動售貨機沒有自作主張欺騙你,它只是沒有成功發(fā)出商品;而酒保把你點的東西喝掉時,他是知道這會讓你生氣的。
不過,研究團隊并沒有止步于此。他們又進行了另一個涉及黑猩猩的實驗。由于參加過第一個實驗,黑猩猩們已經(jīng)理解當它們選擇不確定的選項時,有多大可能獲得更多的食物獎勵。實際上,不確定的選項已經(jīng)不再是完全不確定的了——黑猩猩們已經(jīng)意識到它們在冒什么樣的風險。
但這時,出人意料的結(jié)果出現(xiàn)了。黑猩猩們不再區(qū)分社會性和非社會性的選項,它們對機器似乎不再表現(xiàn)出比對同類更多的信任了。
生活中,盲目相信導航系統(tǒng)可能會讓人陷入麻煩。
“這就是為什么我們覺得這個發(fā)現(xiàn)令人振奮,黑猩猩們竟然能夠在面對很多不確定性的情況下區(qū)分社會世界和非社會世界?!焙揽怂拐f。
佛羅里達理工學院的心理學家達比·普羅克特認為,只要思考一下與社會環(huán)境打交道對靈長類動物有多重要,這就說得通了。
“當面對機器時,不存在對未來的影響?!彼忉尩?,“你不必擔心額外潛在的社會成本?!碑吘梗瑓⑴c實驗的黑猩猩們往往在實驗結(jié)束后還要回去和它們的同伴相處——任何因參與實驗而引發(fā)的不愉快都可能對它們的關(guān)系產(chǎn)生后續(xù)影響。
普羅克特和同事們之前進行過類似的測試,他們同樣發(fā)現(xiàn),相對于同伴,黑猩猩在尋找食物獎勵時更容易相信物品。普羅克特提到,當一只黑猩猩沒能從同伴那里得到本該屬于它的食物獎勵時,沮喪的黑猩猩會向同伴吐口水來表達自己的感受。她說:“這是一種常見的不高興的表現(xiàn)?!?/p>
普羅克特對實驗中的黑猩猩是否真的更信任機器持保留態(tài)度。畢竟,這種現(xiàn)象也可以被描述為,只要沒有社會同伴參與,個體就不會對糟糕的待遇反應那么激烈。
“我們并不是相信機器一定會給我們好的回饋,有可能只是認為機器不具備情緒,所以我們只是更傾向于在非生命物品這里賭一把。”她猜測道。
無論如何,進化似乎影響了靈長類動物面對不確定性時的意愿——它取決于我們是否感到自己承擔了社會風險。
圖盧茲高級研究所的弗朗西斯卡·德·佩特里羅從事靈長類動物研究,她認為,進化并沒有讓我們意識到,被機器背叛的代價可能相當慘痛。在過去的數(shù)百萬年中,我們并不需要像評估同類一樣去評估機器,因而沒有進化出這項能力。而如今,技術(shù)已經(jīng)能對人類生活產(chǎn)生巨大影響,我們可以說還是需要評估機器的能力的。
這其中還涉及一些其他的因素。除了進化,我們是否愿意信賴機器還受到個人相關(guān)知識儲備和文化期望的影響。2019年的一項研究表明,人們在打字聊天時,如果認為自己是在和電腦而不是和另一個人溝通,那么他們在對話中泄露自己信用卡信息的可能性會提高29%。研究人員發(fā)現(xiàn),對那些先入為主地認為機器比人類更可靠的人來說,這種影響甚至更加明顯。
話說回來,有時候人們也會對技術(shù)表現(xiàn)出強烈的不信任感。許多調(diào)查結(jié)果表明,人們往往對自動駕駛車輛或者把工作移交給機器完成感到不適。我們總是對新技術(shù)懷有疑慮是有多方面的原因的——可能是害怕被自動機器取代后會失去自己的部分角色;也可能是不相信計算機在執(zhí)行任務時具備足夠謹慎的態(tài)度和靈活的技巧。如果你看過上百個機器人摔倒的視頻,或者遇到過一臺頑固地拒絕正常運轉(zhuǎn)的計算機,就會覺得人們對機器的抗拒并不令人驚訝。
德國比勒費爾德大學的社會心理學家菲利普·庫爾姆斯曾經(jīng)研究過影響個體對某項技術(shù)信任程度的因素。他和一名同事開發(fā)了一個類似俄羅斯方塊的電腦游戲,其中,電腦在與玩家組隊時也可以控制一些拼圖碎片。如果電腦玩得很好,人類玩家就能獲取更珍貴的碎片,他們的團隊就能得到額外加分,這種情況下玩家更傾向于信任電腦隊友,也更有可能為了合作與之交換碎片。這種信任是通過游戲的運作方式形成的。
庫爾姆斯說:“我們能操縱的這組變量非常有限,但它們顯然夠用,這讓我們很驚訝。”
人們通常缺乏評估機器可信度的能力,因為從進化的角度來看,我們只獲得了根據(jù)社會線索判斷可信度的能力——如果我們接受上述觀點,那么這就說得通了。與之呼應的還有其他的研究結(jié)果:當賭博使用的老虎機在設計上具有擬人的特性時,賭徒會賭更多的錢。
也就是說,我們不僅不善于衡量機器的可信度,而且當機械物品表現(xiàn)得有點像一個以我們的最佳利益為重的社會伙伴時,我們也很容易被它們誘惑。
因此,與那些因為電腦反應遲鈍而氣惱,進而不信任所有機器的人相比,學會了對某些系統(tǒng)(比如飛機自動駕駛儀)寄予信任的人可能很難理解機器怎么可能出錯,即使它們就是錯了。
佩特里羅提到,她跟蘋果的Siri或者亞馬遜的Alexa等聲控助手互動時,對計算機產(chǎn)生了信任感?!拔視僭O它們是以我的最大利益為原則行事的,所以我不需要質(zhì)疑它們?!彼f。
庫爾姆斯的研究表明,只要機器看起來能夠勝任工作并且表現(xiàn)出一定的友善,對包括佩特里羅在內(nèi)的許多人來說,他們對機器的信任就會繼續(xù)下去。庫爾姆斯指出,這就是為什么機器設計者一定要確保他們的系統(tǒng)合乎道德、功能透明。
極為諷刺的是,在一臺看似值得信賴的機器背后,可能隱藏著一個心術(shù)不正的人。對一臺有缺陷的機器盲目信任就已經(jīng)夠危險的了,更不用說一臺專門用來騙人的機器。
“在風險相同的前提下,假如我們面對的不是機器而是一個人,我們可能更習慣去思考潛在的負面結(jié)果會是什么?!逼樟_克特說道。她和豪克斯都認為,還需要做大量工作才能弄清楚研究中的黑猩猩到底有多信任機器,以及這個結(jié)論能多大程度上揭示關(guān)于人類行為的真相。
不過,人類對機器表現(xiàn)出的過度信賴或許受到了一個簡單事實的影響:我們是在一個原本沒有機器存在的世界里進化成社會動物的。而現(xiàn)在,機器出現(xiàn)了。我們把我們的錢、個人信息,甚至是我們的生命都置于機器每時每刻的監(jiān)管之下。信賴機器不一定有錯,只是我們往往不善于判斷什么時候應該這么做。
[編譯自BBC網(wǎng)站]
編輯:馬果娜