陳晟
最近,位于德國的一家汽車制造廠里,一臺高度自動化的機器人突然出現(xiàn)了錯誤操作,抓起旁邊的一名安裝工人,摔向了一塊金屬板,造成該工人不幸罹難。消息一出,輿論嘩然:加上不久之前剛剛上映的電影《超能查派》,很多人開始擔心,以后科技進步了,會不會出現(xiàn)特別聰明的機器人,背叛了人類的意志,最終成為《終結(jié)者》里那樣主宰世界的機器霸主?另外,如果機器人真的殺人了,誰該為這樣的兇殺承擔責任?
其實啊,這事還真沒那么可怕啦。
啥是機器人?
在討論之前,我們不妨先來劃定一個范圍,什么樣的東西,才算是機器人呢?
實際上,這個問題并沒有確切的答案,因為隨著科技的發(fā)展,科學家們給出的定義被不斷刷新。通常認為,對自己具有一定的控制和感知能力,能夠自主完成一定的動作的機器裝置,就可以算做機器人。
這里所說的“自主”,又有兩層意思:第一種,是按照人類預先給它設(shè)定好的程序,按部就班地執(zhí)行下去,實現(xiàn)人類設(shè)計好的功能。這種機器人如今已經(jīng)非常普遍,大到登月的“玉兔”號探測器,小到家用的掃地機器人,都屬此類。
也就是說,這類機器人要去做什么事情,都是它的制造者說了算的,它只是一個工具,并不擁有真正的自主意志——和原始人手里的石斧并沒有本質(zhì)差別;區(qū)別只在于這種工具比較“聰明”,能夠根據(jù)實際工作的情況,更靈活、更精確地實現(xiàn)主人設(shè)定的程序,完成更加復雜而精確的行動,就像在坑洼不平的路面,坐汽車肯定比坐牛車舒服。
第二種就有點嚇人了,這種機器人擁有一定的人工智能(AI),能夠自主學習和獨立思考,在人類給它設(shè)定的程序之外,實現(xiàn)人類沒有教給它的功能,就像電影里的查派和終結(jié)者。這種機器人的行為是不可預測的,就像我們看到一個襁褓中的孩子,也不可能知道他將來會成為怎樣的人,做出怎樣的事情來?
真會殺人?
提到機器人“謀殺”人類的問題,第一種機器人顯然不在討論之列,因為正常情況下它們并沒有被設(shè)定殺人的程序,哪怕是真的判斷失誤而誤傷人類,那也只能是意外事故;即便是有誰使壞,故意給機器人裝了危險的指令,此刻的機器人依然還是一個工具而已,并沒有自主的意志。
這一類機器人致人死亡的事情,實際并不算罕見,比如本文開頭提到的這起事故。理由也很簡單,任何人類制造出來的東西,都不可能100%地確保不出故障;而越是功能復雜、制造精密的系統(tǒng),發(fā)生故障的概率就越難降低?;叵胍幌拢@些年人類發(fā)射的無人航天器,從菲萊、玉兔到新視野號,盡管都代表了當時最先進的科學技術(shù),但多多少少都有掉過鏈子。
機器出了故障就有可能對人類造成傷害,人類能做的只能是盡量降低故障率,加強安全防護,卻不能因噎廢食,放棄機器人的運用。全世界范圍內(nèi),因為汽車出現(xiàn)故障而致人類死亡的案例每天、每小時甚至每分鐘都在發(fā)生,但汽車依舊是人類最青睞的機器;同理,我們也沒有必要對機器人苛求永不犯錯。
盡管從理論上說,第二種機器人完全可能以“自主的決定”去殺害人類,但令人寬慰的是,囿于科技的發(fā)展水平,目前世界上還沒有造出一種和人類能力接近的人工智能(AI),所以我們暫時還不用擔心這事。
但是,還有一類介于這兩者之間的機器人,還真的可能會成為人類的殺手,那就所謂的戰(zhàn)爭機器人(killer robot)。
目前大家所熟悉的“掠食者”無人機,本質(zhì)就是戰(zhàn)爭機器人,但它依然屬于我們說的第一類機器人,導彈要鎖定誰、要不要發(fā)射都是由坐在基地里的人類遙控決定的。然而,一些國家已經(jīng)在研制自動化程度更高的戰(zhàn)斗機器人,允許它們在戰(zhàn)場上自主尋找、選擇目標,再自己決定是否開火。顯然,這類機器人如果出現(xiàn)故障或者誤判,后果會比工廠里的焊接機器人嚴重得多。 今年3月,聯(lián)合國秘書長潘基文先生曾公開呼吁各國停止此類研究,但似乎效果很有限。
如何預防?
可以預見的是,制造機器人的科學技術(shù)仍會不斷發(fā)展,而人類對于機器人的運用也會越來越廣泛,無論是居家生活、工業(yè)生產(chǎn)中都是如此。比如,谷歌公司一直在研究的無人駕駛汽車,或許數(shù)年之后就會行駛在馬路上。
因此,如何盡量避免“機器殺人”的危險出現(xiàn),就是一個很有現(xiàn)實意義的問題了。
對于第一種機器人(也就是目前使用的機器人)而言,除了在設(shè)計、調(diào)試時更加謹慎之外,最實際的措施就是減少人類和機器人直接接觸的機會。對于有固定工作地點的機器人(比如流水線上的機器臂),可以設(shè)置物理隔離并劃定危險區(qū)域,禁止無關(guān)人員靠近;對于能自主走動的機器人(比如掃地、送外賣的機器人),則可以加裝規(guī)避裝置,讓它和人類時刻保持安全距離。此外,給每臺機器人加裝操作簡便的“紅色按鈕”, 確保在它出現(xiàn)錯誤動作時,人類能夠一鍵關(guān)停。
對于第二種機器人(具有自主思維能力的AI機器人),實際上并沒有確切的預防方法,因為誰也不知道真正的人工智能將會如何思考、如何學習,如何理解人類的情感?一種可能的思路是,按照科幻小說作家阿西莫夫提出的“機器人三定律”來制約人工智能,將“機器人不得傷害人類”、“不能眼見人類處于危險而袖手旁觀”原則貫穿整個開發(fā)工作的始終,“從小開始”培養(yǎng)智能機器人對于人類的服從與善意。
當然,這種方法能否奏效,目前依然有很大的爭議。另一種觀點認為,如果我們真的能制造出一個自主學習、獨立思考的人工智能機器人,其性質(zhì)就跟漁夫撬開膽瓶上所羅門的封印差不多,人類根本無法預測、控制這個AI能夠?qū)W到多少知識,又會用這些知識造出什么樣的東西來(或許可能是它自己的許許多多個副本),搞不好就是人類文明的盡頭。
這次發(fā)生在德國的事故的確非常令人遺憾,但人類似乎并不需要對這種非智能機器人有太多顧慮,畢竟,我們早已將更加生死攸關(guān)的問題交給了電腦與機器(比如民航客機上的自動駕駛儀,記錄你全部身家的銀行、股市的服務器),對于“機器殺人”這種小概率的事故就更不需要焦慮了。
相應地,對于未來可能出現(xiàn)的人工智能機器人,或許更需要引起關(guān)注與思考。當然,開發(fā)AI機器人是科學家和工程師們的事情,但有空了解下這個新奇的領(lǐng)域,也是件很有意思的事情。