梅佳+張薇+晁春彬
“人工智能”與“哲學”,兩個看似毫無交集的概念卻有著密不可分的聯系。復旦大學哲學院教授徐英瑾一直是那個用哲學思維審視人工智能的人,他開設了“人工智能哲學”課程,還出版了專著《心智、語言和機器》。在他看來,人工智能這個新領域需要哲學思維的牽導,這個快速更新的時代也需要一些逆風而行的人。
人物PORTRAIT = P
徐英瑾 = X
P:許多人認為人工智能是技術色彩濃郁的領域,而哲學則高度思辨化和抽象化,二者完全無法聯系到一起。能簡單說說你將二者聯系在一起的理由嗎?
X:現在人工智能的發(fā)展主要面臨兩方面的問題。一方面是,關于“人工智能”是什么都不太清楚,對于“人類智能”的概念也沒有清晰的定義,不同領域的人有著不同的觀點,大家甚至都沒有在同一個桌面上討論問題,整個狀態(tài)一片混亂,這一點是很糟糕的;另一方面,現在人工智能的研究里,特定領域的人不關心其他領域里的人在做什么,所有的人都只做自己擅長的方面,這也是很不可取的。這時候就體現了哲學思維的重要性,哲學主要是站在更高的角度思考戰(zhàn)略性問題,要從根本上理清楚你在做什么。忽視哲學思維的話,如果放在其他學科范式成熟的自然科學領域可能問題不大,但正因為人工智能是歷史上沒有的新事物,我們才更需要哲學這種戰(zhàn)略性思維去做牽導。另外,早期西方人工智能的發(fā)展本身也是受到哲學影響的,你像人工智能之父阿蘭·圖靈就是半個哲學家,像司馬賀、麥卡錫這樣的人工智能元老也是富有哲學思維能力的。
P:站在哲學領域,或就你個人來看,何為人工智能?
X:哲學本來就是百家爭鳴的學科,在哲學界這個概念沒有達成共識。就我個人來看,進化論思想對我的影響比較大。進化論的思維強調“怎么以最小投入達到最大產出比”,按照此思路,人工智能應該是“以最經濟的投入得到的最具有適應性的行為”的某種轉化器。從這個角度看,像阿爾法狗這種大規(guī)模投入的人工智能就顯得不夠智能。
P:你曾經說“儒家本行是做數據工作的”,這個說法很有趣,能具體解釋一下嗎?
X:實際上儒家所做的事情一點都不神秘,像孔子所做的事情有個很大的特點就是搞數據搜集,像 “風”、“雅”、“頌”就是把周代各個小國家以及社會生活的各個方面所積累的數據做一個典型性的處理。補充一點,儒家并不認為道德養(yǎng)成是要靠說教,而是主張做具體的事情陶冶情操,去除你的浮躁情緒。站在人工智能的角度看儒家,這很像神經元網絡的訓練模型,也就是網絡本身的習性需要通過大量數據喂給它,然后再調整網絡內部的計算單元之間的權重,使得網絡得以被“養(yǎng)成”。在這方面,孔子思想與基于人工神經元網絡的認知哲學的路線是很像的。
P:你曾經提到過“通用人工智能”AGI的概念,它是不是也是出于哲學的視角提出的新概念呢?
X:其實這是一個很大的誤會,AGI其實并不是一個新概念,而是最開始的那批具有哲學情懷的人們研究人工智能的初衷,它指的是一個各種能力都具有的、真正像人的人工智能。但在研發(fā)的過程中,大家發(fā)現做不出來,就只能先做小的領域,例如圍棋領域造一個AlphaGo,這樣做著做著就背離了初心。但這樣下去,人工智能的智慧程度就會有很大的局限性,因為它做不到“通”。所以我還是提倡將這種通用人工智能作為AI的發(fā)展方向。
P:你一直在反對以大數據為基礎的人工智能,為什么?
X:其實休謨很早就在哲學領域提出過這個問題,最大的弊端在于你通過概括和歸納是永遠得不出普遍性的真理的。即便你觀察到的1000只烏鴉是黑的,第1001只可能也不是黑的。具體來說,大數據最大的特點是,它不明白自己所做的事情其中的“道”,因此遇到變化時無法有效處理,而智能的特點就在于其中的“變”。從另外一個角度講,大數據在哲學上讓我不太舒服,因為大數據的很多支持者們在哲學上不相信世界上有因果關系,他們認為世界上所有的東西都可以用數據的相關性來解釋,而我則相信在現象背后是有更深的因果關系的。因此,大數據最多只能成為輔助我們進行數據處理的一種工具性的東西,而不能成為人工智能核心的研發(fā)對象。
P:現在,大數據成了主流性的東西在發(fā)展。為什么現在會出現這樣的問題呢?
X:站在文科的立場,我們認為技術人員也是人,也具有很多人的特質:懶惰、慣性、容易受權威影響,在一個技術圈里大家相互印證,就很難跳脫這個框架。同時,一些公司是擁有很多的數據資源的,他們會覺得不使用的話才是一種浪費。因此,從這個角度我們也認為不能只留下跟著主流走的人 ,這個時代還需要一些逆風而行的人,才能幫我們看清前進道路上的風險。這也是哲學工作價值之所在。
P:你曾經提到人工智能發(fā)展的“商業(yè)邏輯”,能展開講講嗎?
X:今天的人工智能研究受商業(yè)驅動的色彩非常濃,而投資方往往要求科研的研發(fā)周期能夠趕上資本的回利周期。然而,科研的發(fā)展周期其實往往很長,急功近利的話就容易產生泡沫。例如現在,根據媒體的報道,人工智能的突破似乎每周都有,但從學理角度看,很多“突破”里面都有水分。目前我認為我們發(fā)展AI還是要整合語言學、心理學、神經科學、腦科學和進化論這幾大領域,盡管這種結合的周期非常長,但我們一定要放輕松,以吃功夫茶的心態(tài)來對待人工智能。目前看來,哲學的這種“慢思維”的確尚且不太能影響快節(jié)奏的商業(yè)邏輯,但我希望能至少有幾個人聽到我的聲音,能夠在不同的技術路徑上多嘗試幾條新路,不要一棵樹上吊死。
P:有人認為AI產生意識是不太現實的問題,從技術哲學的角度你是怎么看待的?沒有意識和具有意識哪個更加可怕?
X:首先,取決于你怎么定義“意識”,按照我自己的定義,意識和注意力有極為密切的關系,意識就是把你的精神能量聚焦在你要處理的某個信息點上,這也是智能的本質特點吧,也就是面對海量信息的時候,系統(tǒng)要根據任務的重要性來分類處理信息。因此,我認為AI應當有意識,否則它就不會具有足夠的智能。
如果拋開哲學,從常識的角度看待意識,AI對社會的威脅的確是存在的,但這一點與AI有沒有意識,關系不是太大。具體來看,軟件是不可能消滅人的,軟件結合硬件才能消滅人,也就是說,你得考慮一下我們該給AI設計什么樣子的身體。例如,你把所有的AI都設計成《超能陸戰(zhàn)隊》里的大白,全部都是能充氣的,那一個充氣球怎么統(tǒng)治全人類呢——縱然它的內心是“邪惡的”?在我看來,最大的危險其實是有些不負責任的人故意把強智能和強身體結合在一起,這才是最可怕的。因此一些敏感的機器人外圍設備,我們還是要嚴格監(jiān)管,防止落在不負責任的個體或團體手里。
P:《未來簡史》的作者尤瓦爾·赫拉利認為未來可以把世界上最優(yōu)秀的哲學家集合在一起,討論道德上的難題,再把方案寫到程序里。這樣人工智能可以做一些關于倫理道德的決定。你怎么看待這種說法?
X:赫拉利不了解哲學界的行情。首先呢,哲學家的特點就是互相擠兌,而且彼此擠兌了兩千多年了。把哲學家關在一個房間里,大家是不可能形成共識的,尤其是關于倫理道德的哲學爭議,更不容易達成共識;其次,即使勉強弄出一個共識,“你知道你要做這件事”是一回事,“你如何把它做成”又是另一回事情了。具體而言,所有的道德命令都是人類的自然語言表達出來的,例如“不要偷盜”、“不要奸淫”等等,但如何把自然語言和機器代碼具體結合在一起,這將是非常麻煩的事情。