■ 山東 劉勝軍 趙長林
隨著人工智能技術(shù)的高速發(fā)展,基于人工智能技術(shù)的解決方案正在被各大企業(yè)部署應(yīng)用,影響著我們生活的方方面面。人工智能所做出的決策是否值得信賴,如何保證合規(guī)性?人工智能的一個新興分支出現(xiàn)了。
可解釋的人工智能正在引起人們的注意,它可以幫助企業(yè)解決由各種法規(guī)帶來的監(jiān)管問題。但可解釋性并不僅僅是合規(guī)問題??山忉屝詫τ诟倪M(jìn)決策者和一線專家提出的人工智能模型的采用也很重要。可解釋性可以使相關(guān)人員確認(rèn)和解決機(jī)器學(xué)習(xí)模型中的盲點。
如果我們開發(fā)了一個人們不愿意購買的系統(tǒng),這就是一個大問題。例如,工程師們開發(fā)了一個人工智能工具,它可以改進(jìn)保險業(yè)或貸款審批等領(lǐng)域的決策。此工具的一個主要目標(biāo)就是準(zhǔn)確性。但是,能夠向用戶們解釋正在發(fā)生什么和讓用戶撤銷一個毫無意義的建議非常重要。
專家們相信構(gòu)建一個健壯的人員全面參與的人工智能系統(tǒng)是可靠選擇。例如,一個團(tuán)隊可以用離線數(shù)據(jù)著手構(gòu)建機(jī)器學(xué)習(xí)模型。然后,將此模型投入到“預(yù)生產(chǎn)”中,給用戶們一個從預(yù)測和解釋的角度理解模型如何工作的機(jī)會。用戶們還需要擁有接受決策或退回再重來的能力。
有的模型看起來很棒,但是從另一方面看其中是否存在偏見呢? 如果模型無法得到解釋,就只能放棄。專業(yè)人員往往要求咨詢客戶為什么某個變量要存在于一個特定的模型中。這是在深度學(xué)習(xí)啟動之前,專家們在創(chuàng)建財務(wù)模式時需要考慮的數(shù)據(jù)知識。無需很多監(jiān)管或指導(dǎo)就理解大型的復(fù)雜數(shù)據(jù)集是深度學(xué)習(xí)的優(yōu)點之一,但是這種方法將數(shù)據(jù)專家與理解數(shù)據(jù)隔離開來。如果我們要說服客戶相信我們正在做的事情,這就是一個需要經(jīng)歷的練習(xí)。
在人工智能方面的一個怪象是企業(yè)為可解釋性而犧牲準(zhǔn)確性。然而,如果開發(fā)者和數(shù)據(jù)專家能夠正確地構(gòu)建機(jī)器學(xué)習(xí)模型,可解釋性就可以融入到深度學(xué)習(xí)等現(xiàn)代的人工智能技術(shù)中。
尋求實現(xiàn)模型的完全精確必然要犧牲可解釋性。要容易看出人工智能模型中出現(xiàn)什么問題,并且知道如何應(yīng)對這些問題,通過這種方法來實施人工智能算法,這是一個更好的目標(biāo)。理解模型的缺點并管理這些缺點對于某些企業(yè)來說至關(guān)重要。企業(yè)可以構(gòu)建可解釋的復(fù)雜模型。
有很多問題可以影響到可解釋的人工智能。例如,監(jiān)管就是一個因素,還有企業(yè)還需要考慮做出可能影響到客戶的決策。
另外,考慮模型的相關(guān)性也很重要。例如,用秋季數(shù)據(jù)創(chuàng)建的模型可能運(yùn)行良好,但是在其它季節(jié),其準(zhǔn)確性就低了。專家可以憑借經(jīng)驗來理解這些趨勢,可以查看模型,并且看出模型中的某個變量的影響是否重要,是否存在弱點,可以知道如何解決這個問題。
很多情況下,我們會發(fā)現(xiàn)用樣本數(shù)據(jù)可以很好地運(yùn)行一個模型時,在生產(chǎn)中卻發(fā)生故障。例如,我們可以發(fā)現(xiàn)一個以前被忽視的卻需要進(jìn)一步探索的關(guān)聯(lián),通過進(jìn)一步的分析,卻發(fā)現(xiàn)這僅僅是一個數(shù)據(jù)問題。只有在模型是可解釋的并且我們能夠看出問題出自哪里時,這種類型的數(shù)據(jù)問題才如此明顯。
我們應(yīng)對的是大型的數(shù)據(jù)集,而且有時也不知道數(shù)據(jù)是否干凈。因而,可解釋的人工智能不僅僅是關(guān)于構(gòu)建更好的模型問題,而且還要確認(rèn)所收集的數(shù)據(jù)集的問題。
舉例說明,如果消費者想要借錢,公平的借貸法律都要求債權(quán)人向消費者提供資金或以易于理解的方式解釋其選擇不貸款的理由。其中的目的是保證公平,但這也使消費者有機(jī)會對債權(quán)人的決定提出異議。
債權(quán)人使用人工智能模型做出批準(zhǔn)貸款的決定往往基于一種結(jié)果的概率。如果某些因素低于一個臨界值,貸款申請將被拒絕。然后,債權(quán)人需要看一下為什么拒絕。可解釋性要求關(guān)注影響這個決定的因素。實際上,即使監(jiān)管機(jī)構(gòu)沒有要求這樣做,這種透明性仍非常重要。
可解釋的人工智能和可解釋性是相關(guān)的觀念,但并不完全是同義詞。前者與變量變化時對即將發(fā)生事情的預(yù)測能力有關(guān)??山忉屝悦枋龅氖墙柚脩粽Z言表示一個模型底層機(jī)制的能力。
對于人工智能而言,可解釋性有著不同的層次,而不同的應(yīng)用需要不同程度的可解釋性,這種程度的具體依據(jù)是這個解釋針對哪類用戶。
消費者希望知道其財務(wù)行為的哪些方面影響到了貸款決策。向消費者解釋基本貸款決策的一種方法可能是關(guān)注模型中最關(guān)鍵的相關(guān)性,對貸款決策影響最大的相關(guān)性。例如,消費者不能夠及早還款可能是影響拒絕貸款的最大因素。
另一種水平的可解釋性在于說服公司的董事會采用新模型。事實上,從高管已經(jīng)同意的事情開始是很有用的。 例如,在美國的信貸行業(yè),高管們習(xí)慣將FICO信用評分與貸款風(fēng)險聯(lián)系起來。在一個人的信用評分降至720以下之前,這個分?jǐn)?shù)都可以進(jìn)行很好的預(yù)測。當(dāng)然,信貸公司還可以使用其他變量來提高預(yù)測此類客戶貸款風(fēng)險的準(zhǔn)確性。展示這些更復(fù)雜的模型在與傳統(tǒng)模型對比時的表現(xiàn),可以更容易地向財務(wù)主管解釋更好的模型如何影響業(yè)務(wù)。當(dāng)然,在更高層面上,數(shù)據(jù)專家在決定一個新模型的價值時,需要考慮更細(xì)微的差別。
總體而言,可解釋的人工智能在除合規(guī)之外的很多方面都可帶來益處。