據(jù)報道:英國阿伯丁大學(xué)啟動了一項新的研究計劃,計劃稱:將在3年內(nèi)研發(fā)出能夠與人類進(jìn)行交談的機(jī)器人。
什么是機(jī)器人?有“大腦”盡管它們的外表可能有所不同。
智能機(jī)器人就是具有相當(dāng)發(fā)達(dá)“大腦”的機(jī)器人。該機(jī)器人在腦中起作用的是中央計算機(jī),而這種計算機(jī)可跟操作它的人有直接的聯(lián)系。最主要的是,這樣的計算機(jī)可以進(jìn)行按目的安排的動作。
阿伯丁大學(xué)首席研究員維姆博托·瓦斯岡薩雷斯介紹說:類似機(jī)器人這樣的自治系統(tǒng)已經(jīng)成為現(xiàn)代工業(yè)的一個重要組成部分,機(jī)器人已被用于一系列工業(yè)領(lǐng)域,在沒有人類指導(dǎo)下完成各種工作。在決定如何完成任務(wù)時,它們能夠快速處理大量信息。不過,這一過程也會犯下對它們或者人類來說并不明顯的錯誤,如果人類無法理解自治系統(tǒng)為何在一個特定的時間決定以一種確定的方式執(zhí)行一項特定任務(wù),人類便可能對它們產(chǎn)生不信任,而我們的目標(biāo)是研發(fā)新一代自治系統(tǒng),讓人類與機(jī)器人之間進(jìn)行雙向交流。操作人員可以就電腦做出的決定詢問理由,是否存在其他選擇以及為何放棄這些選擇。這一系統(tǒng)允許操作人員質(zhì)疑或者否決機(jī)器人的決定,必要的時候,他們可以準(zhǔn)許電腦系統(tǒng)打破或者變通規(guī)則,以更好地利用資源或者確保安全。這種交流的最終目的是讓機(jī)器人成為人類喜歡和信任的系統(tǒng)。這種人機(jī)交流是雙向的,有時候,操作人員可能不喜歡機(jī)器人給出的解決方案,但機(jī)器人會說:“對不起,這是所有我能做的?!?/p>
在研發(fā)這種系統(tǒng)時,科學(xué)家必須考慮一個重要因素,那就是確保電腦的反應(yīng)不具有危險性、不粗魯和不形成對峙局面。為了解決這個問題,研究者邀請了一位心理學(xué)家參與研究。瓦斯岡薩雷斯指出:與機(jī)器人交流,實際上是讓人類肩負(fù)更大責(zé)任,因為一旦出現(xiàn)問題,你不可能將責(zé)任歸咎于電腦,所有交談內(nèi)容都會被記錄下來,以便出錯時追究責(zé)任,這是一個很好的副作用。
這一系統(tǒng)的早期版本將在3年內(nèi)問世。借助于新系統(tǒng),操作人員可以與機(jī)器人討論行動計劃,必要的時候還會命令它們打破規(guī)則。新系統(tǒng)采用的人機(jī)交流方式是電腦屏幕上的文字而不是語音。潛在的應(yīng)用包括無人機(jī)器人行星探索任務(wù)、深??疾烊蝿?wù)、防御系統(tǒng)以及對核設(shè)施等危險環(huán)境進(jìn)行勘察。