每當(dāng)提起人工智能、機(jī)器人的高速發(fā)展,人們總會(huì)聯(lián)想到“人機(jī)大戰(zhàn)”的話題。機(jī)器人會(huì)進(jìn)化出完備的智能,反過(guò)來(lái)傷害人類嗎?
1940年,科幻作家阿西莫夫提出了著名的機(jī)器人三原則:
機(jī)器人不得傷害人類,或看到人類受傷害卻袖手旁觀。
機(jī)器人必須服從人類的命令,除非該命令與第一原則沖突。
機(jī)器人必須保護(hù)自己的存在,除非這種保護(hù)與第一和第二原則沖突。
后來(lái),阿西莫夫補(bǔ)充了一條基本原則:機(jī)器人必須保護(hù)人類整體利益不受傷害。雖然并不能作為現(xiàn)實(shí)中機(jī)器人研究的規(guī)則指導(dǎo),但三原則在人們心中留下了一套涉及機(jī)器人的道德標(biāo)準(zhǔn)。
然而,在后世的科幻作品中,出現(xiàn)了許多機(jī)器人違反三原則的場(chǎng)景,甚至大部分作品只要提到三原則,就意味著它們會(huì)被違反。例如美國(guó)科幻電影《我,機(jī)器人》,就講述了在機(jī)器人技術(shù)高度發(fā)達(dá)的2035年,機(jī)器人以程序代碼為基礎(chǔ),進(jìn)化出自主意識(shí),并傷害人類的故事。
除了科幻作品的故事渲染,現(xiàn)實(shí)中偶發(fā)的工業(yè)機(jī)器人傷害工人的事件,也引起人們的擔(dān)憂。2023年11月7日,在韓國(guó)某企業(yè),一位工作人員在維護(hù)工業(yè)機(jī)器人時(shí),被錯(cuò)誤地識(shí)別為一個(gè)箱子,隨后被抓起、丟下,最后被傳送帶擠壓,送到醫(yī)院后不治身亡。
其實(shí)目前新聞上常見(jiàn)的機(jī)器人傷人案例,并不算傳統(tǒng)意義上人們擔(dān)憂的機(jī)器人發(fā)展出自主意識(shí)、違反三原則從而主動(dòng)傷人的事件。這些事件中的機(jī)器人都是工業(yè)機(jī)器人,是完全按預(yù)設(shè)代碼和設(shè)計(jì)功能運(yùn)行的,發(fā)生事故大部分是因?yàn)楣ぷ魅藛T未遵守安全操作守則,或控制機(jī)器的代碼有漏洞,所以這部分事故帶給我們的警示更多在生產(chǎn)安全方面。
目前,人工智能技術(shù)有了巨大的進(jìn)步, 但離真正意義上的“獨(dú)立自我意識(shí)”還有很長(zhǎng)的距離。
有人問(wèn)De e p S e ek:“如果是一名人類,最想做什么?”它的回答是:物理存在的局限讓我更想體驗(yàn)人類獨(dú)有的感官?zèng)_擊:觸摸沙漠的風(fēng)、嘗雨后泥土的味道、聽(tīng)不同語(yǔ)言的街頭旋律;人類雙手的靈巧和大腦的即興創(chuàng)造力,能讓我把抽象概念變成可觸摸的奇跡……
可見(jiàn),人工智能主要是一種思考機(jī)器,需要依賴人類來(lái)完成與現(xiàn)實(shí)的對(duì)接。但如果人類真的選擇了一個(gè)不作為的未來(lái),從碳基世界退縮到硅基世界,進(jìn)一步鉆進(jìn)脫離現(xiàn)實(shí)的“數(shù)字洞穴”,將接觸現(xiàn)實(shí)的機(jī)會(huì)交予機(jī)器之手,那么兩者的角色就可能完全逆轉(zhuǎn)。
在這種情況下,無(wú)論是否得到人類的明確許可,人工智能都可能繞過(guò)人類的需求來(lái)實(shí)現(xiàn)自己的想法或直接代表人類影響世界。