英國理論物理學(xué)家斯蒂芬·霍金2日說,人工智能科技在初級(jí)發(fā)展階段的確為人類生活帶來便利,不過要警惕其過度發(fā)展,因?yàn)榈玫匠浞职l(fā)展的人工智能或許預(yù)示著人類最終被超越。
由于患有運(yùn)動(dòng)神經(jīng)元疾病,霍金需利用一臺(tái)機(jī)器與外界交流。受智能手機(jī)輸入法啟發(fā),美英兩家科技公司合作,為霍金的電腦“量身定制”,設(shè)計(jì)出一款新的打字軟件,使這位科學(xué)家的“說話”速度提升一倍。這種軟件就利用了基礎(chǔ)的人工智能技術(shù),可“猜測(cè)”使用者的思維,推薦下一個(gè)可能用到的字詞。
當(dāng)天在這款新軟件的發(fā)布會(huì)上,霍金坦承人工智能的初步發(fā)展已證明了其有用性,但他擔(dān)心這類技術(shù)最終會(huì)發(fā)展出與人類智慧相當(dāng)甚至超越人類的機(jī)器?!暗綍r(shí)它(機(jī)器)將可能以不斷加快的速度重新設(shè)計(jì)自己。而人類則受制于生物進(jìn)化速度,無法與其競(jìng)爭(zhēng),最終被超越?!?/p>
今年5月,霍金曾與另外幾位科學(xué)家為英國《獨(dú)立報(bào)》撰文,稱人們目前對(duì)待人工智能的潛在威脅“不夠認(rèn)真”?!岸唐趤砜?,人工智能產(chǎn)生何種影響取決于誰在控制它。而長(zhǎng)期來看,這種影響將取決于我們還能否控制它。”如何趨利避害是所有人需要考慮的問題。
不過也有科學(xué)家認(rèn)為,霍金對(duì)于人工智能的未來過于悲觀。他們指出,至少在相當(dāng)長(zhǎng)的時(shí)間里,人類會(huì)完全掌控這類技術(shù)的發(fā)展,利用它來解決許多現(xiàn)實(shí)問題,而要讓人工智能技術(shù)得到“充分發(fā)展”,還有很長(zhǎng)的路要走。
(摘自《新華每日電訊》)