如今,語言模型的能力越來越強,在各種任務(wù)中都發(fā)揮了很大的作用。其中,開放域?qū)υ捒赡苁亲铍y以完成的一類任務(wù),需要做到能夠就任何主題進行對話。
在對話任務(wù)中,除了生成人類認為合理、有趣且特定于上下文的響應(yīng)之外,語言模型還須按照負責(zé)任的人工智能框架工作,以免生成無信息源證實的內(nèi)容。
近日,谷歌在以《LaMDA:對話應(yīng)用程序的語言模型》為題的一篇論文中介紹了語言模型LaMDA在安全、可靠和高質(zhì)量的對話方面取得的最新進展。
據(jù)悉,LaMDA模型具有1370億個參數(shù),通過微調(diào)采用Transformer架構(gòu)的專用對話神經(jīng)語言模型而構(gòu)建,可以利用外部知識源展開對話。
對于訓(xùn)練對話模型來說,定義目標(biāo)和指標(biāo)至關(guān)重要。LaMDA模型具有質(zhì)量、安全和扎實性三個關(guān)鍵目標(biāo),每個目標(biāo)有各自的衡量指標(biāo)。
質(zhì)量上,谷歌將其拆分為合理性、特異性和趣味性這三個方面。
其中,合理性是指模型在對話中作出有實際意義的回應(yīng),如回應(yīng)中沒有出現(xiàn)常識性錯誤;特異性是指模型在對話中針對特定的上下文來響應(yīng),而不是在常規(guī)情形下的通用響應(yīng);趣味性是指模型作出了富有洞察力和智慧的回應(yīng)。
安全上,谷歌在開發(fā)和部署負責(zé)任的人工智能方面有很大的進步。為避免出現(xiàn)各種偏見以及可能對用戶造成傷害的內(nèi)容,其用一組可限制模型輸出對話的安全目標(biāo)來組成安全指標(biāo)。
由于語言模型有時會輸出貌似合理實際卻與已知事實相悖的內(nèi)容,谷歌對LaMDA模型的扎實性展開了研究。
扎實性是指在外部世界聲明上能夠獲得權(quán)威外部信息來源支持的百分比。但是,在這些來源中建立的LaMDA模型也無法完全保證所生成響應(yīng)的準(zhǔn)確性,所以谷歌允許用戶及外部系統(tǒng)來源的可靠性來判斷響應(yīng)有效與否。
此外,谷歌在論文介紹了LaMDA模型的預(yù)訓(xùn)練和微調(diào)階段。
預(yù)訓(xùn)練階段,谷歌做了一個包含1.56T詞匯的數(shù)據(jù)集,并將該數(shù)據(jù)集中的詞匯標(biāo)記為2.81T Sentence Piecetoken ,接著通過GSPMD系統(tǒng)對LaMDA模型進行預(yù)訓(xùn)練。
據(jù)了解,谷歌將經(jīng)過預(yù)訓(xùn)練的LaMDA模型用于其自然語言處理的研究中,包括程序合成、零樣本學(xué)習(xí)和風(fēng)格遷移等。
微調(diào)階段,谷歌讓LaMDA模型執(zhí)行兩類任務(wù),一類是作出面向指定上下文自然語言回應(yīng)的混合生成任務(wù),另一類響應(yīng)是否安全和高質(zhì)量的分類任務(wù),從而成為一個多任務(wù)模型。
對話時,LaMDA生成器會對面向的上下文生成幾個候選回應(yīng), 然后LaMDA分類器預(yù)測每個候選回應(yīng)的合理性、特異性和趣味性和安全分數(shù),最后根據(jù)這兩項數(shù)據(jù)的排名選出最佳回應(yīng)。
人類可以通過現(xiàn)存的工具和知識庫來明確事實,而語言模型僅能依靠其內(nèi)部參數(shù)來得到訊息。
為此, 谷歌做了一個人類與LaMDA模型交流的數(shù)據(jù)集,并通過該數(shù)據(jù)集對LaMDA模型的生成器和分類器進行微調(diào),讓其在與對話期間調(diào)用外部信息檢索系統(tǒng),以提高回應(yīng)的扎實性。
谷歌表示,“在對LaMDA模型進行評估后得出,其在每個維度和所有模型大小情況下都顯著優(yōu)于預(yù)先訓(xùn)練的模型。無論微調(diào)與否,合理性、特異性和趣味性等質(zhì)量指標(biāo)通常會隨模型參數(shù)量而提升。而安全性雖然無法僅根據(jù)模型縮放變化,但可以通過微調(diào)來提升。”
此外,LaMDA模型的扎實性會因模型大小的增加而不斷提升。造成的原因可能是,模型越大,其記住不常見知識的能力越強,且微調(diào)允許模型訪問外部知識源,并將記住知識的負載轉(zhuǎn)移到外部知識源。
不過,微調(diào)雖然縮小了語言模型與人類之間的差距,但該模型在安全性和扎實性上的水平依然弱于人類。
LaMDA模型的出現(xiàn)為完成開放域?qū)υ掗_辟了新的途徑,同時表明了神經(jīng)語言模型面臨的關(guān)鍵挑戰(zhàn),如安全指標(biāo)的使用和扎實性的提高,以及如何通過更大的模型和更清晰標(biāo)記的數(shù)據(jù)來進行微調(diào)。
但是,這還是一項非常早期的工作,且具有很大的局限性。未來,谷歌將探索新的方法來進一步改進安全指標(biāo)和LaMDA模型的扎實性,并與其人工智能原則保持一致。
海外星云 2022年4期