鮑里斯·巴比克 丹尼爾·陳 賽奧佐羅斯·伊維紐 安妮-勞倫·法雅德
2018年勞動(dòng)力研究院(Workforce Institute)針對(duì)8個(gè)工業(yè)國(guó)家的300多名管理者進(jìn)行了一項(xiàng)調(diào)研,參與者中大多數(shù)認(rèn)為人工智能是有價(jià)值的生產(chǎn)力工具。
這點(diǎn)不難理解:AI在處理速度、準(zhǔn)確性和持續(xù)性(機(jī)器不會(huì)因疲倦犯錯(cuò))方面帶來(lái)了顯而易見(jiàn)的好處,很多職業(yè)人士都在使用AI。比如一些醫(yī)務(wù)人員利用AI輔助診斷,給出治療方案。
但參與者也表示擔(dān)心自己會(huì)被AI取代。擔(dān)心這件事的還不只是參與這項(xiàng)研究的管理者?!缎l(wèi)報(bào)》最近報(bào)道稱(chēng),英國(guó)600多萬(wàn)員工擔(dān)心自己被機(jī)器取代。我們?cè)诟鞣N會(huì)議和研討會(huì)上遇到的學(xué)者和高管也有同樣的擔(dān)心。AI的優(yōu)勢(shì)在一些人眼中更具負(fù)面色彩:如果機(jī)器能更好地完成工作,還要人類(lèi)干嗎?
這種恐懼感的蔓延表明,公司在為員工提供AI輔助工具時(shí)需要注意方式。2020年1月離職的埃森哲前首席信息官安德魯·威爾遜(Andrew Wilson)表示,“企業(yè)如果更多地關(guān)注AI和人類(lèi)如何互相幫助,可以實(shí)現(xiàn)的價(jià)值會(huì)更大。”埃森哲發(fā)現(xiàn),如果企業(yè)明確表示使用AI的目的是輔助而非取代員工,情況會(huì)比那些沒(méi)有設(shè)立這一目標(biāo)或?qū)κ褂肁I的目的語(yǔ)焉不詳?shù)墓竞玫枚?,這種差別體現(xiàn)在多個(gè)管理生產(chǎn)率維度,特別是速度、延展性和決策有效性。
換言之,AI就像加入團(tuán)隊(duì)的新人才,企業(yè)必須使之發(fā)揮積極作用,而不是有意令其失敗。明智的企業(yè)會(huì)先給新員工一些簡(jiǎn)單的任務(wù),創(chuàng)造包容的環(huán)境,幫助他們積累實(shí)戰(zhàn)經(jīng)驗(yàn),并安排導(dǎo)師為其提供幫助和建議。這樣一來(lái),新人可以在其他人負(fù)責(zé)更高價(jià)值的工作的時(shí)候?qū)W習(xí)。新人不斷累積經(jīng)驗(yàn),證明自身工作能力,導(dǎo)師逐步在更關(guān)鍵的決策上信任他們的意見(jiàn)。學(xué)徒逐漸成為合作伙伴,為企業(yè)貢獻(xiàn)技能和想法。
我們認(rèn)為這一方式也適用于人工智能。下文我們將結(jié)合自身及其他學(xué)者針對(duì)AI和信息系統(tǒng)應(yīng)用的研究和咨詢工作,以及公司創(chuàng)新及工作實(shí)踐方面的研究,提出應(yīng)用AI的一種方式,分四個(gè)階段。通過(guò)這種方式,企業(yè)可以逐步培養(yǎng)員工對(duì)AI的信任(這也是接納AI的關(guān)鍵條件),致力于構(gòu)建人類(lèi)和AI同時(shí)不斷進(jìn)步的分布式人類(lèi)AI認(rèn)知系統(tǒng)。很多企業(yè)都已嘗試過(guò)第一階段,部分企業(yè)進(jìn)行到了第二、三階段;迄今為止第四階段對(duì)多數(shù)企業(yè)來(lái)說(shuō)還是“未來(lái)式”,尚處在早期階段,但從技術(shù)角度來(lái)說(shuō)可以實(shí)現(xiàn),能夠?yàn)槔萌斯ぶ悄艿钠髽I(yè)提供更多價(jià)值。
普及人工智能的第一階段和培訓(xùn)助手的方式十分相似。你教給新員工一些關(guān)于AI的基本規(guī)則,將自己手頭上一些基礎(chǔ)但耗時(shí)的工作(如填寫(xiě)網(wǎng)絡(luò)表格或者匯總文檔)分配給他,這樣你就有時(shí)間處理更重要的工作內(nèi)容。受訓(xùn)者通過(guò)觀察你不斷學(xué)習(xí),完成工作,提出問(wèn)題。
AI助手的常見(jiàn)任務(wù)之一是整理數(shù)據(jù)。20世紀(jì)90年代中期,一些提供推薦系統(tǒng)的企業(yè)幫助用戶過(guò)濾數(shù)千種產(chǎn)品,找到他們最需要的——亞馬遜和奈飛在應(yīng)用這項(xiàng)技術(shù)方面處于領(lǐng)先地位。
現(xiàn)在越來(lái)越多的商業(yè)決定要用到這種數(shù)據(jù)分類(lèi)。例如,資產(chǎn)組合經(jīng)理在決定投資哪些股票時(shí),要處理的信息量超出了人類(lèi)的能力,而且還有源源不斷的新信息。軟件可以根據(jù)預(yù)先定義的投資標(biāo)準(zhǔn)迅速篩選股票,降低任務(wù)難度。自然語(yǔ)言處理技術(shù)可以搜集和某公司最相關(guān)的新聞,并通過(guò)分析師報(bào)告評(píng)估未來(lái)企業(yè)活動(dòng)的輿論情緒。位于倫敦、成立于2002年的馬布爾資產(chǎn)管理公司(MBAM)較早將這項(xiàng)技術(shù)應(yīng)用到職場(chǎng)。公司打造了世界一流的RAID(研究分析&信息數(shù)據(jù)庫(kù))平臺(tái)幫助資產(chǎn)組合經(jīng)理過(guò)濾關(guān)于企業(yè)活動(dòng)、新聞走勢(shì)和股票動(dòng)向的海量信息。
AI還可以通過(guò)模擬人類(lèi)行為提供輔助。用過(guò)谷歌搜索的人都知道,在搜索框輸入一個(gè)詞,會(huì)自動(dòng)出現(xiàn)提示信息。智能手機(jī)的預(yù)測(cè)性文本也通過(guò)類(lèi)似方式加快打字速度。這種用戶模擬技術(shù)出現(xiàn)在30多年前,有時(shí)叫做判斷引導(dǎo),也可以應(yīng)用在決策過(guò)程中。AI根據(jù)員工的決策歷史,判定員工在面對(duì)多個(gè)選擇時(shí)最有可能做出的選擇,并提出建議——幫助人類(lèi)加快工作速度,而非代替人類(lèi)完成工作。
我們來(lái)看一個(gè)具體的例子。航空公司員工在決定每架飛機(jī)的配餐數(shù)量時(shí),會(huì)根據(jù)過(guò)往航班經(jīng)驗(yàn)得出的假設(shè)進(jìn)行計(jì)算,填寫(xiě)餐飲訂單。計(jì)算錯(cuò)誤會(huì)增加公司成本:預(yù)訂量不足可能激怒消費(fèi)者不再選擇這家公司;超額預(yù)訂則代表多余的餐食將會(huì)被扔掉,而且飛機(jī)會(huì)因此儲(chǔ)備不必要的燃油。
這種情況下,人工智能可以派上用場(chǎng)。AI可以通過(guò)分析航空公司餐飲經(jīng)理過(guò)往的選擇,或者經(jīng)理設(shè)置的規(guī)則,預(yù)測(cè)他會(huì)如何下單。通過(guò)分析相關(guān)歷史數(shù)據(jù),包括該航線餐飲消耗量及航班乘客的歷史購(gòu)物行為,每趟航線都可以定制這種“自動(dòng)填寫(xiě)”的“推薦訂單”。但是,就像預(yù)測(cè)性輸入一樣,人類(lèi)擁有最后的決定權(quán),可以根據(jù)需要隨時(shí)覆蓋。AI僅僅通過(guò)模擬或預(yù)測(cè)他們的決策風(fēng)格起到輔助作用。
如果管理者通過(guò)這種方式逐步引入AI,應(yīng)該不會(huì)太困難。我們已經(jīng)在生活中采用這種方式,網(wǎng)上填寫(xiě)表格的時(shí)候允許AI自動(dòng)補(bǔ)全信息。在職場(chǎng),管理者可以制定AI助手在填表格時(shí)遵守的具體規(guī)則。很多企業(yè)在工作中使用的軟件(例如信用評(píng)級(jí)程序)正是人類(lèi)定義的決策規(guī)則匯總。AI助手可以通過(guò)匯總管理者遵守這些規(guī)則的情境,進(jìn)一步提煉規(guī)則。此類(lèi)機(jī)器學(xué)習(xí)無(wú)需管理者采取任何行為,更不用“教導(dǎo)”AI助手。
下一步需要設(shè)定AI程序,為人類(lèi)提供實(shí)時(shí)反饋。機(jī)器學(xué)習(xí)程序使得人類(lèi)可以訓(xùn)練AI,準(zhǔn)確預(yù)測(cè)某種情境下(例如由于過(guò)度自信或疲勞導(dǎo)致的缺乏理性)用戶的決策。假如用戶即將做出的選擇有悖于過(guò)去的選擇記錄,系統(tǒng)會(huì)標(biāo)記出矛盾之處。在決策量很大的工作中,人類(lèi)員工可能因?yàn)閯诶刍蚍中某鲥e(cuò),這種方式可以起到很大的助益。
心理學(xué)、行為經(jīng)濟(jì)學(xué)和認(rèn)知科學(xué)的研究表明,人類(lèi)的推理能力有限,而且有缺陷,特別是在商業(yè)活動(dòng)中無(wú)處不在的統(tǒng)計(jì)學(xué)和概率性問(wèn)題上。一些針對(duì)法庭審判決定的研究(本文作者之一陳參與了研究)表明,法官在午餐前更容易通過(guò)申請(qǐng)政治避難的案件;如果法官支持的美國(guó)職業(yè)橄欖球聯(lián)盟球隊(duì)在開(kāi)庭前一天獲勝,他們?cè)陂_(kāi)庭當(dāng)天的判罰會(huì)更輕;如果被告當(dāng)天生日,法官會(huì)對(duì)其手下留情。很明顯,如果軟件可以告訴決策者他們即將做出的決定與之前有所矛盾,或者不符合純粹從司法角度分析的預(yù)測(cè)結(jié)果,也許更能體現(xiàn)公平公正。
AI可以做到這點(diǎn)。另外一項(xiàng)研究(陳參與其中)表明,加載了由基本法律變量組成的模型的AI程序,在申請(qǐng)避難的案件開(kāi)庭當(dāng)天,可以對(duì)結(jié)果做出準(zhǔn)確率達(dá)80%的預(yù)測(cè)。作者為程序加入了機(jī)器學(xué)習(xí)功能,AI可以根據(jù)法官過(guò)去的決定模擬每位法官的決策過(guò)程。
這一方法也適用于其他情境。例如,馬布爾資產(chǎn)管理公司的資產(chǎn)組合經(jīng)理(PM)在做出可能提升整體資產(chǎn)組合風(fēng)險(xiǎn)的投資決定時(shí),例如提高對(duì)某特定領(lǐng)域或某地區(qū)的曝光,系統(tǒng)會(huì)在電腦控制的交易流中彈出對(duì)話框提醒他們,可以適當(dāng)調(diào)整。PM也許會(huì)對(duì)這樣的反饋視而不見(jiàn),但起碼知道了公司的風(fēng)險(xiǎn)限制,這種反饋仍然有助于PM的決策。
AI當(dāng)然并不總是“正確的”。AI的建議往往不會(huì)考慮到人類(lèi)決策者才掌握的可靠的私人信息,因此也許并不會(huì)糾正潛在的行為偏差,而是起到反作用。所以對(duì)AI的使用應(yīng)該是互動(dòng)式的,算法根據(jù)數(shù)據(jù)提醒人類(lèi),而人類(lèi)教會(huì)AI為什么自己忽略了某個(gè)提醒。這樣做提高了AI的效用,也保留了人類(lèi)決策者的自主權(quán)。
可惜很多AI系統(tǒng)的應(yīng)用方式侵占了人類(lèi)的自主權(quán)。例如,算法一旦將某銀行交易標(biāo)記為潛在詐騙,職員必須請(qǐng)主管甚至外部審計(jì)員確認(rèn)后,才能批準(zhǔn)這一交易。有時(shí),人類(lèi)幾乎不可能撤銷(xiāo)機(jī)器做出的決定,客戶和客服人員一直對(duì)此感到挫敗。很多情況下AI的決策邏輯很模糊,即便犯錯(cuò)員工也沒(méi)有資格表示質(zhì)疑。
機(jī)器搜集人類(lèi)決策數(shù)據(jù)時(shí),還有一大問(wèn)題是隱私權(quán)。除了在人類(lèi)和AI的互動(dòng)中給予人類(lèi)控制權(quán),我們還要確保機(jī)器搜集的數(shù)據(jù)都是保密的。工程師團(tuán)隊(duì)和管理團(tuán)隊(duì)間應(yīng)該互不干涉,否則員工也許會(huì)擔(dān)心自己和系統(tǒng)不設(shè)防的交互如果犯了錯(cuò),之后會(huì)受到懲罰。
此外,企業(yè)應(yīng)該在AI設(shè)計(jì)和互動(dòng)方面制定規(guī)則,確保公司規(guī)范和實(shí)踐的一致性。這類(lèi)規(guī)則要詳細(xì)描述在預(yù)測(cè)準(zhǔn)確性達(dá)到何種程度的情況下需要做出提醒,何時(shí)需要給出提醒原因,確定提醒的標(biāo)準(zhǔn),以及員工在何時(shí)應(yīng)當(dāng)聽(tīng)從AI指令、何時(shí)該請(qǐng)主管決定如何處理。
為了讓員工在第二階段保有控制感,我們建議管理者和系統(tǒng)設(shè)計(jì)人員在設(shè)計(jì)時(shí)請(qǐng)員工參與:請(qǐng)他們作為專(zhuān)家,定義將要使用的數(shù)據(jù),并決定基本的事實(shí);讓員工在研發(fā)過(guò)程中熟悉模型;應(yīng)用模型后為員工提供培訓(xùn)和互動(dòng)機(jī)會(huì)。這一過(guò)程中,員工會(huì)了解建模過(guò)程、數(shù)據(jù)管理方式和機(jī)器推薦的依據(jù)。
普華永道最近一項(xiàng)調(diào)研表明,參與者中60%稱(chēng)希望獲得每日或每周一次的工作表現(xiàn)反饋。原因并不復(fù)雜。彼得·德魯克(Peter Drucker)2005年在著名的文章《管理自己》(“Managing Oneself”)中指出,人們一般都不知道自己擅長(zhǎng)什么。當(dāng)他們覺(jué)得自己知道時(shí),往往是錯(cuò)誤的。
問(wèn)題在于,發(fā)現(xiàn)自身優(yōu)勢(shì)、獲得改進(jìn)機(jī)會(huì)的唯一方式是通過(guò)關(guān)鍵決策和行為的縝密分析。而這需要記錄自己對(duì)結(jié)果的預(yù)期,9到12個(gè)月后再將現(xiàn)實(shí)和預(yù)期進(jìn)行比較。因此,員工獲得的反饋往往來(lái)自上級(jí)主管在工作總結(jié)時(shí)的評(píng)價(jià),無(wú)法自己選擇時(shí)間和形式。這個(gè)事實(shí)很可惜,因?yàn)榧~約大學(xué)的特莎·韋斯特(Tessa West)在近期神經(jīng)科學(xué)方面的研究中發(fā)現(xiàn),如果員工感到自主權(quán)受保護(hù),可以自行掌控對(duì)話(例如能選擇收到反饋的時(shí)間),就能更好地對(duì)反饋?zhàn)龀龇磻?yīng)。
AI可以解決這一問(wèn)題。前文描述的程序可以給員工提供反饋,讓他們自查績(jī)效,反省自己的錯(cuò)誤。每月一次根據(jù)員工歷史表現(xiàn)提取的分析數(shù)據(jù),也許可以幫助他們更好地理解決策模式和實(shí)踐。幾家金融公司正在采用這一措施。例如MBAM的資產(chǎn)組合經(jīng)理接受來(lái)自數(shù)據(jù)分析系統(tǒng)的反饋,該系統(tǒng)會(huì)統(tǒng)計(jì)每個(gè)人的投資決定。
數(shù)據(jù)展現(xiàn)了資產(chǎn)組合經(jīng)理有趣且多變的偏見(jiàn)。一些經(jīng)理更厭惡損失,對(duì)表現(xiàn)不佳的投資遲遲不肯止損。另一些則過(guò)度自信,可能對(duì)某項(xiàng)投資持倉(cāng)過(guò)重。AI分析會(huì)發(fā)現(xiàn)這些行為,像教練一樣為其提供定制化反饋,標(biāo)記行為隨時(shí)間的變化,給出改進(jìn)決策建議。但最終由PM決定如何處理這些反饋。MBAM的領(lǐng)導(dǎo)團(tuán)隊(duì)認(rèn)為,這種“交易優(yōu)化”正逐漸成為公司核心的差異化因素,幫助資產(chǎn)組合經(jīng)理的發(fā)展,也讓公司變得更有吸引力。
更重要的是,好導(dǎo)師可以從被指導(dǎo)者身上學(xué)到東西,機(jī)器學(xué)習(xí)的“教練程序”也可以從有自主權(quán)的人類(lèi)員工的決策中學(xué)習(xí)。上述關(guān)系中,人類(lèi)可以反對(duì)“教練程序”,由此產(chǎn)生的新數(shù)據(jù)會(huì)改變AI的隱含模型。例如,如果由于近期公司事件,資產(chǎn)組合經(jīng)理決定不對(duì)某個(gè)標(biāo)記股票進(jìn)行交易,他可以給系統(tǒng)做出解釋。有了這種反饋,系統(tǒng)可以持續(xù)搜集分析數(shù)據(jù)并得出洞見(jiàn)。
如果員工能理解并控制和AI的互動(dòng),就更能將其視為獲得反饋的安全渠道,目標(biāo)是幫助人類(lèi)提升績(jī)效而不是評(píng)估績(jī)效。想要實(shí)現(xiàn)這點(diǎn),要選擇正確的界面。例如MBAM的交易提升工具(如視覺(jué)界面)是根據(jù)PM的偏好定制的。
第二階段中,讓員工參與設(shè)計(jì)系統(tǒng)很關(guān)鍵。AI做教練時(shí),人們會(huì)更害怕權(quán)力被奪走。有人將AI視為合作伙伴就有人將其視為競(jìng)爭(zhēng)對(duì)手——誰(shuí)愿意被機(jī)器比下去呢?自主權(quán)和隱私的擔(dān)憂也許會(huì)更強(qiáng)烈。和教練共事需要誠(chéng)實(shí),但人們也許并不愿意對(duì)一個(gè)之后會(huì)把自己表現(xiàn)不佳的數(shù)據(jù)分享給HR的“教練”敞開(kāi)心扉。
前三階段部署AI的方式當(dāng)然有不足之處。長(zhǎng)遠(yuǎn)來(lái)看,新技術(shù)創(chuàng)造出的工作比毀掉的多,但就業(yè)市場(chǎng)的顛覆過(guò)程可能會(huì)很痛苦。馬特·比恩(Matt Beane)在《人機(jī)共生:組織新生態(tài)》一文中稱(chēng),部署AI的企業(yè)給員工親身實(shí)踐以及導(dǎo)師指導(dǎo)的機(jī)會(huì)更少。
因此,風(fēng)險(xiǎn)的確存在,人類(lèi)不僅失去了初級(jí)職位(由于數(shù)字助手可以有效取代人類(lèi)),還可能犧牲未來(lái)決策者自主決策的能力。但這并非不可避免,比恩在文章中指出,企業(yè)可以在利用人工智能為員工創(chuàng)造不同和更好的學(xué)習(xí)機(jī)會(huì)的同時(shí)提升系統(tǒng)透明度,并給員工更多控制權(quán)。未來(lái)的職場(chǎng)新人都將成長(zhǎng)于人力加機(jī)器的工作環(huán)境,肯定比“前AI時(shí)代”的同事更能快速發(fā)現(xiàn)創(chuàng)新、增加價(jià)值和創(chuàng)造工作的機(jī)會(huì)。這把我們帶到了最后一個(gè)階段。
認(rèn)知人類(lèi)學(xué)家埃德溫·赫欽斯(Edwin Hutchins)研發(fā)出分布式認(rèn)知理論。該理論基于他對(duì)艦船導(dǎo)航的研究,結(jié)合了水手、路線圖、標(biāo)尺、指南針和繪圖工具。該理論總體上和意識(shí)延伸的概念相關(guān),假定認(rèn)知過(guò)程、信仰和動(dòng)機(jī)等頭腦活動(dòng)并不一定僅限于大腦甚至身體。外部工具和儀器在正確的條件下,可以對(duì)認(rèn)知過(guò)程起到重要作用,創(chuàng)造出所謂的耦合系統(tǒng)。
和這一思路一致,AI應(yīng)用的最后一個(gè)階段(就我們所知尚未有企業(yè)達(dá)到這個(gè)水平),企業(yè)應(yīng)該打造一個(gè)人類(lèi)和機(jī)器同時(shí)貢獻(xiàn)專(zhuān)長(zhǎng)的耦合網(wǎng)絡(luò)。我們認(rèn)為,隨著AI和人類(lèi)用戶不斷交互,搜集專(zhuān)家歷史決策及行為數(shù)據(jù),分析并建模,不斷完善,在完全整合了AI教練程序的企業(yè)中自然會(huì)出現(xiàn)一個(gè)專(zhuān)家社群。舉例來(lái)說(shuō),采購(gòu)經(jīng)理在決策時(shí)只需輕輕一點(diǎn),就能看到其他人可能的報(bào)價(jià)——定制化的專(zhuān)家團(tuán)體可能會(huì)對(duì)采購(gòu)經(jīng)理有所幫助。
盡管技術(shù)已經(jīng)能夠?qū)崿F(xiàn)這樣的集體智慧,但這一階段仍然充滿挑戰(zhàn)。例如,任何此類(lèi)AI整合都要避免建立在偏見(jiàn)(舊的或者新的)基礎(chǔ)上,必須尊重人類(lèi)隱私,人類(lèi)才能像信任同類(lèi)一樣信任AI,這本身已經(jīng)充滿挑戰(zhàn),因?yàn)闊o(wú)數(shù)研究證明人類(lèi)信任彼此都很難。
在職場(chǎng)建立信任的最佳方式是增進(jìn)理解??▋?nèi)基梅隆大學(xué)戴維·丹克斯(David Danks)和同事就這一主題進(jìn)行了研究,根據(jù)其模型,一個(gè)人信任某人的原因是理解對(duì)方的價(jià)值觀、欲望和目的,對(duì)方也表明始終關(guān)心我的利益。理解一直是人類(lèi)彼此信任的基礎(chǔ),也很適合人類(lèi)和AI發(fā)展關(guān)系,因?yàn)槿祟?lèi)對(duì)人工智能的恐懼通常也是由于對(duì)AI運(yùn)作方式的不理解。
建立信任時(shí),一個(gè)很困難的問(wèn)題是如何定義“解釋”,更不用說(shuō)“好的解釋”。很多研究都在關(guān)注這個(gè)難題。例如,本文作者之一伊維紐正嘗試通過(guò)所謂“反事實(shí)解釋”的方式揭示機(jī)器學(xué)習(xí)的“黑匣子”?!胺词聦?shí)解釋”通過(guò)找出決定決策方向的交易特征列表,闡明AI系統(tǒng)做出某個(gè)決定(例如批準(zhǔn)某個(gè)交易)的原因。如果交易不符合某項(xiàng)特征(或者和事實(shí)相反),系統(tǒng)就會(huì)做出不同決定(拒絕交易)。
伊維紐還希望了解人們覺(jué)得什么樣的解釋是對(duì)AI決策的優(yōu)秀解釋。例如,人們是會(huì)覺(jué)得按邏輯列出特征(“因?yàn)榫邆鋁、Y、Z三個(gè)特征,所以這一交易獲批”)更好,還是說(shuō)明該決定和其他決定的相關(guān)性(這一交易獲批是因?yàn)楹推渌@批交易相似,你可以比較一下)更好。隨著針對(duì)AI解釋的研究繼續(xù)深入,AI系統(tǒng)會(huì)變得更透明,有助于贏得更多信任。
新技術(shù)應(yīng)用一直是重大挑戰(zhàn)。一項(xiàng)技術(shù)的影響力越大,挑戰(zhàn)就越大。人工智能技術(shù)的潛在影響讓人們感到很難將其付諸實(shí)踐。但如果我們謹(jǐn)慎行事,這一過(guò)程可以相對(duì)順利。這也是為什么企業(yè)必須有責(zé)任地設(shè)計(jì)和發(fā)展AI,特別注意透明度、決策自主權(quán)和隱私,而且要讓使用AI技術(shù)的人參與進(jìn)來(lái),否則,不清楚機(jī)器做決策的方式,人們害怕被機(jī)器限制甚至取代也是理所當(dāng)然的。關(guān)鍵在于克服恐懼,建立信任,通過(guò)負(fù)責(zé)任的設(shè)計(jì),AI可以成為人類(lèi)工作中真正的合作伙伴。
本文作者鮑里斯·巴比克是歐洲工商管理學(xué)院決策科學(xué)助理教授。丹尼爾·陳是圖盧茲經(jīng)濟(jì)學(xué)院高級(jí)研究所教授。賽奧佐羅斯·伊維紐是歐洲工商管理學(xué)院決策科學(xué)和技術(shù)管理教授,馬布爾資產(chǎn)管理公司顧問(wèn)。安妮-勞倫·法雅德是紐約大學(xué)坦登工程學(xué)院創(chuàng)新、設(shè)計(jì)和企業(yè)研究副教授。