一、邏輯全知者問題
邏輯學研究的對象是人的思維,現(xiàn)代數(shù)理邏輯與哲學邏輯則致力于考察人的推理行為與模式。作為個體的人,由于受其所在環(huán)境、所接受的知識、所掌握的資源的限制,其推理能力必然是有限的。例如,假設(shè)從理論上講,某人從其當前所掌握的知識出發(fā),能夠推出一個命題?琢。實際上,他仍可能推不出?琢。也許推出?琢過于困難,超出了此人的能力。
邏輯全知問題是哲學邏輯與人工智能邏輯都存在的一個需要被排除的問題。在信念邏輯中,該問題表現(xiàn)得最為突出。在信念邏輯背景下,邏輯全知問題表述為:某人相信φ,那么他也相信所有φ的邏輯后承ψ。這個性質(zhì)對于資源有限的個體來說過于理想化。
建立非邏輯全知者的信念模型,是信念邏輯研究的主要方向之一。在短短十幾年間,這一領(lǐng)域出現(xiàn)了大量的相關(guān)論文。研究者們試圖修正或者擴充Hintikka給出的標準信念模型,來克服邏輯全知問題。限于篇幅,本文不可能給予一一介紹,只能討論其中較為重要的幾種方案,它們的優(yōu)點和尚待解決的問題。在此基礎(chǔ)上,我們提出一種新的解決方案。
二、幾種重要的解決方案
首先給出標準的信念邏輯系統(tǒng),即Hintikka的KD45。KD45由以下公理及規(guī)則組成,其中L是相信算子,Lφ讀作“相信φ”:
KD45對應(yīng)的可能世界語義框架性質(zhì)是傳遞性、歐氏性與序列性。顯然,該系統(tǒng)存在邏輯全知問題,其邏輯全知表現(xiàn)為以下7種形式:
目前對信念邏輯中邏輯全知問題的解決方案,可以分為兩大類:句法途徑和語義途徑。句法途徑直接限制推理能力,而語義途徑則從模型論入手,基于某種基本的直覺來給出其非標準的可能世界語義模型。遵循句法途徑的研究主要有:不完全的推理規(guī)則、信念模型、限制型推理等。遵循語義途徑的研究主要有:覺知邏輯、復(fù)合篩系統(tǒng)、不可能世界模型、以可能算子作為信念算子、非標準結(jié)構(gòu)、明晰信念與潛在信念、多agent的嵌套信念、近似的知識、原理與潛在信念、局部推理、混合模型、信念的內(nèi)涵邏輯、信念世界、動態(tài)認知邏輯、多值認知邏輯等。從以上列舉可以看出,語義途徑遠遠比句法途徑更為研究者所關(guān)注。以下簡要介紹幾種重要的語義途徑。
1.廣義覺知邏輯。Fagin和Halpern在廣義覺知邏輯中區(qū)分兩種不同的信念:潛在信念和明晰信念[1](P39-76)。這兩種信念有如下的關(guān)系:
明晰信念 = 潛在信念 + 覺知
明晰信念是指當前具有的信念。而潛在信念則是指這樣一些命題,這些命題還不是當前的信念,但是它們一旦被認知主體覺知到,那么主體將會相信它們。與這種直觀對應(yīng),廣義覺知邏輯模型中附加一個覺知函數(shù)?魨,這個函數(shù)映射每一個可能世界s到一個公式集上。?魨(s)代表在可能世界s上,認知主體覺知到的所有命題的集合。覺知函數(shù)的作用相當于一個濾子。它作用在潛在信念集上,把那些不屬于覺知集的命題從潛在信念中過濾掉,從而得到明晰信念集。這種機制限制了主體的信念,從而使得主體不至于相信得過多,以此排除邏輯全知問題。
邏輯全知問題LO1-LO6在廣義覺知邏輯中都被排除。從本性上,LO7與LO1-LO6不同。LO1-LO6都是關(guān)于主體應(yīng)該相信什么,而LO7則指出不該相信什么。LO1-LO6的問題在于它們使得主體相信的命題過多,而LO7的問題則是它使得主體相信的命題過少。廣義覺知邏輯加入覺知算子,作為對信念算子的一個限制,自然,LO7不會在廣義覺知邏輯中被排除。
2.以可能算子作為信念算子。這是由Hoek和Meyer提出的一種克服邏輯全知問題的方法[2](P177-194)。他們使用模態(tài)可能算子而不是必然算子來作為信念算子。信念算子B的語義如下:
3.明晰信念與潛在信念。Levesque的明晰信念與潛在信念邏輯可以作為是廣義覺知邏輯的前驅(qū)[3](P198-202),只是Levesque并沒有提出覺知概念。
Levesque使用兩個信念算子:L是潛在信念算子;B是明晰信念算子。信念算子不能嵌套使用。模型是一個多元組M=(S, W, T,F(xiàn)),其中,S是一個狀態(tài)的集合;W是S的子集,W中的狀態(tài)是“真實”狀態(tài);T和F是兩個函數(shù),它們分別映射每個原子命題到S的一個子集上。T(p)代表所有p在其上為真的狀態(tài);F(p)代表所有p在其上為假的狀態(tài)。由此定義,一個原子命題p在某個狀態(tài)中可能為真、為假、非真非假,或者即真又假。
如果存在一個原子命題φ,使得φ在狀態(tài)s中非真非假,則稱s是部分的;如果存在一個原子命題φ,使得φ在狀態(tài)s中即真又假,則稱s是不一致的;如果一個狀態(tài)既不是部分的,也不是不一致的,那么稱其為完全的;設(shè)s是一個完全的狀態(tài),t是任意一個狀態(tài),如果對于任意在t上有定義的(有確定真值的)原子命題p,s與t對p的賦值相同,那么稱s和t相容。
三、一種新的嘗試
歷史上,預(yù)設(shè)是在理論語言學和應(yīng)用邏輯學中被廣泛討論的一個概念。我們的嘗試是通過把覺知處理為信念的預(yù)設(shè),然后使用關(guān)于預(yù)設(shè)研究的已有的成果來構(gòu)造信念模型。具體地,我們將采用語言學家Bergmann提出的二維邏輯來建立信念模型,最后得到的邏輯將是一種二維模態(tài)邏輯。使用二維邏輯使得我們可以靈活地構(gòu)造出不同的信念模型,不同的看待覺知與信念關(guān)系的觀點,可以分別反應(yīng)在不同的信念模型上。此外,使用二維邏輯還使得所得到的信念模型能夠表達關(guān)于覺知與信念關(guān)系的更多的信息。
二維覺知邏輯中,命題φ可取的值有四個:11,01,10,00。我們稱每個這樣的值是一個真值度。真值度的第一個維度代表命題φ本身的真值;第二個維度代表命題φ的覺知條件真值。公式的覺知條件的含義,就是對于公式中的信念語句,它們是否被覺知到。
由此,我們已經(jīng)建立了一種具有相當?shù)谋磉_力和靈活性覺知—信念模型。
哲學邏輯與人工智能的研究者已經(jīng)提出了很多各不相同的信念模型。一個自然的問題就是,為什么會有如此多的模型來刻畫同一個概念?是否可能有一種“唯一正確”的信念模型?我們認為,至少從目前看來,期待這種“唯一正確”的信念模型并不現(xiàn)實。這是因為,對“信念”概念本身沒有達成一個一致的理解。我們認為,不同的信念模型,只要能夠有清楚直觀的解釋,那么就可以被認為是一個好的模型。
人工智能較之于哲學而言更關(guān)心應(yīng)用問題。從應(yīng)用的角度來看,信念模型的多樣化也是可以理解的。以游戲理論(game theory)為例,游戲理論是信念邏輯的主要應(yīng)用之一,在不同的游戲中,主體持有的信念集以及信念集改變的策略也應(yīng)該有所不同。如果一個游戲中主體應(yīng)該采用更謹慎的策略,那么它的信念模型應(yīng)該使得一個命題需要滿足更強的條件才能夠成為其信念。在有些情況下,也許更寬松的限制條件是主體應(yīng)該采取的策略。顯然,不存在一種永遠正確的策略,適用于所有的游戲。
由于其靈活性,我們給出的二維邏輯方法可以構(gòu)造出各種不同的信念模型。它為該領(lǐng)域的研究提供了新的思路?;谶@種方法,我們可以建立各種不同的信念模型,并研究它們之間的相互關(guān)系。這也將是我們今后要擴展研究的方向之一。
參考文獻
[1]R.FAGIN, J. Y. HALPHERN. Belief, Awareness and Limited Reasoning[J]. Artificial Intelligence, 1988.
[2]W.VAN DER HOEK, C.MEYER. Possible Logics for Belief[J]. Logique et Analyse, 1989.
[3]H.LEVESQUE. Logic of Implicit and Explicit Belief[Z]. Proceeding of the Fourth National Conference on Artificial Intelligence, Menlo Park, CA, 1984.
“本文中所涉及到的圖表、公式注解等形式請以PDF格式閱讀原文。”