西班牙《國家報》網(wǎng)站4月6日發(fā)表美國麻省理工學(xué)院教授、諾貝爾經(jīng)濟學(xué)獎得主達(dá)龍·阿杰姆奧盧的文章《未來人工智能的局限性》,內(nèi)容編譯如下:
無論我們是否做好準(zhǔn)備,“人工智能代理”都正在到來的路上。雖然人工智能模型何時能夠自主與數(shù)字平臺、其他人工智能工具甚至人類互動仍存在很多不確定性,但毫無疑問,這種發(fā)展必將帶來變革,無論是好是壞。然而,盡管圍繞所謂的“人工智能代理”(一種機器無需人工干預(yù)即可作出決策的技術(shù)進步)有很多討論和業(yè)界的炒作,但仍有許多重要問題有待回答,其中最主要的是科技行業(yè)打算開發(fā)什么樣的人工智能代理。
采用不同的模式將產(chǎn)生大為不同的影響。如果采用人工智能作為顧問的模式,人工智能代理將向人類決策者提供經(jīng)過個性化校準(zhǔn)的建議,同時讓人類決策者始終處于主導(dǎo)地位。但如果采用自主人工智能模式,機器將代表人類直接掌控決策權(quán)。這是具有深遠(yuǎn)影響的區(qū)別。
人類每天都要作出數(shù)以百計的決策,其中一些決策會對他們的職業(yè)、生計或幸福感產(chǎn)生重大影響。許多此類決策都是基于不完善或不完整的信息,更多取決于情感、直覺、本能或沖動。蘇格蘭哲學(xué)家、歷史學(xué)家、經(jīng)濟學(xué)家大衛(wèi)·休謨有一句名言:“理性是且只應(yīng)當(dāng)是激情的奴隸?!比祟愒谧鞒龃蠖鄶?shù)決策時,可能沒有經(jīng)過系統(tǒng)的推理,也沒有充分考慮到所有的影響,但正如休謨在其名言中通過“應(yīng)當(dāng)”一詞承認(rèn)的那樣,這并不至于那么糟糕。正是人性使然。激情反映了目的,它也可以在我們?nèi)绾螒?yīng)對復(fù)雜世界的過程中發(fā)揮重要作用。
雖然人工智能顧問能通過提供個性化、可靠、情境相關(guān)且實用的信息優(yōu)化重要決策,但人類的動機仍將占據(jù)主導(dǎo)地位。然而,自主人工智能代替我們作出決策會有什么問題?這難道不能進一步提升決策質(zhì)量、節(jié)省時間并避免失誤?
這種觀點引出幾個問題。首先,體驗對于人類的學(xué)習(xí)和發(fā)展至關(guān)重要。作出決策和思考結(jié)果的行為本身(即使建議來自非人類代理)確認(rèn)了我們自身的意義和目的。人類做的很多事情并不是通過計算或收集數(shù)據(jù)以決定最佳行動方案,而是探索發(fā)現(xiàn)的過程。如果將所有決策都委托給人工智能代理,那么這種體驗將變得越來越稀缺。
另一方面,如果科技行業(yè)主要追求開發(fā)自主人工智能代理,那么更多人類工作被自動化替代的可能性將大大增加。然而,如果人工智能僅成為加速自動化的工具,任何關(guān)于廣泛共享繁榮的期望都將化為泡影。
而且更重要的是,人工智能代理代表人類行事與人類自行行事之間存在根本區(qū)別。人類進行互動的許多環(huán)境既有合作的元素,也有沖突的元素。以一家企業(yè)向另一企業(yè)提供信息為例。如果這些信息對買方有足夠價值,那么兩家企業(yè)之間的交易就是互利的(通常也有利于社會)。
但要使這種交易達(dá)成,商品或服務(wù)的定價必然需要通過充滿固有沖突的過程確定。價格越高,賣方相較于買方獲得的收益就越大。這種討價還價的結(jié)果往往是由規(guī)則(例如關(guān)于公平的規(guī)則)、制度(例如一旦違反就會付出代價的合同)和市場力量(例如賣方是否有向他人出售的選擇權(quán))共同決定。試想若買方以極端強硬著稱,堅持不接受任何高于最低可能的報價。如果沒有其他買家,賣方可能會被迫接受最低報價。
所幸的是,在日常交易中,這種強硬立場并不常見,部分原因是維護聲譽對人們至關(guān)重要,更重要的是絕大多數(shù)人既無膽量也無意愿在日常生活中表現(xiàn)得如此激進。但現(xiàn)在想象一下,如果買方擁有自主人工智能代理,它無視人性的微妙之處,擁有鋼鐵般的意志,遠(yuǎn)離人之常情。人工智能可以被訓(xùn)練成始終采取這種不靈活的立場,而另一方將無法說服它達(dá)成互惠互利的結(jié)果。相比之下,在人工智能充當(dāng)顧問的世界里,人工智能模型可能會推薦采取一種不妥協(xié)的立場,但最終會由人類決定是否遵循這條道路。
因此,在短期內(nèi),自主人工智能代理系統(tǒng)可能會讓世界變得更加不平等,只有少數(shù)公司或個人能夠獲得能力強、可信度高的人工智能模型。但即使每個人最終都能獲得同樣的工具,情況也不會好到哪里去。我們的整個社會都將陷入“消耗戰(zhàn)”式的博弈,而人工智能代理會把每個沖突場景都推向崩潰邊緣。
這類對抗本質(zhì)是危險的。就像“懦夫博弈”(兩車相向加速,看誰先轉(zhuǎn)向)那樣,總存在雙方都不退讓的可能性。當(dāng)這種情況發(fā)生時,雙方駕駛員都會“贏”,也都會死。
為贏得“懦夫博弈”而進行訓(xùn)練的人工智能永遠(yuǎn)都不會轉(zhuǎn)向。雖然人工智能可以成為人類的好顧問,實時為我們提供有用、可靠和重要的信息,但一個由自主人工智能代理主導(dǎo)的世界很可能會產(chǎn)生許多新問題,同時侵蝕該技術(shù)可能帶來的許多益處。(編譯/田策)
3月31日在漢諾威工博會開幕式上,參觀者正在談?wù)撜古_上的仿人機器人。(法新社)