近幾年來人工智能日益受到社會各界的格外關(guān)注。一方面,人工智能正在為人類帶來一場前所未有的技術(shù)革命,即將徹底改變?nèi)藗兊纳a(chǎn)和生活方式;另一方面,與以往科技進步帶給社會的積極反應(yīng)有所不同,人工智能帶來的不僅僅是驚喜與期待,還有一些的擔(dān)心,甚至恐懼。
目前,各界對人工智能具有特殊的發(fā)展“禁區(qū)”已有共識,但有人覺得人工智能的發(fā)展還處于初級階段,離所謂的“禁區(qū)”還有一段遙不可及的路,這個想法有沒有風(fēng)險?
2016年8月,聯(lián)合國相關(guān)組織發(fā)布了《機器人倫理初步報告草案》,認為機器人不僅需要尊重人類社會的倫理規(guī)范,還需要將特定倫理準則編寫進機器人程序中。對人工智能的擔(dān)憂還來自像史蒂芬·霍金、比爾·蓋茨和伊隆·馬斯克這樣的科技大佬。他們都把自己對人工智能的擔(dān)憂直言不諱。已故物理學(xué)家史蒂芬·霍金曾言:“創(chuàng)造人工智能可能是人類文明史上最偉大的事件,但也可能是最后一個?!币谅 ゑR斯克則發(fā)文稱人工智能是人類最大的潛在威脅,可能比核武器更危險,并將人工智能的發(fā)展比喻成“召喚惡魔”。蓋茨表示認可前二者的判斷:人工智能軟件若變得超級智能,可能會對未來的人類造成一定威脅。歐盟、英國、美國、德國、日本等國家和地區(qū)正在積極研究人工智能、無人駕駛等領(lǐng)域的倫理邊界和規(guī)則,意在逐步實現(xiàn)行業(yè)和國際標準、法律的制定,并在前沿科技領(lǐng)域獲得主動和有利地位。同時,谷歌、Facebook、微軟,以及國內(nèi)的BAT等互聯(lián)網(wǎng)科技公司也紛紛發(fā)聲,提出加強人工智能倫理研究和立法準備。
全球經(jīng)歷的前三次工業(yè)革命基本局限于對人類眼耳手腳等能力的替代和延伸,但人工智能將要模擬和復(fù)制的卻是人類的大腦與智力。相對弱人工智能,強人工智能抑或復(fù)制和超越人腦的功能,技術(shù)核心表現(xiàn)在無限制、無監(jiān)督學(xué)習(xí)能力,不僅引發(fā)嚴重的倫理和法理問題,很可能最終導(dǎo)致不可控風(fēng)險。如果說前三次工業(yè)革命帶來的是人類的助手,那么人工智能帶來的就是人類對自我的一次驚心動魄的挑戰(zhàn)。
繼“互聯(lián)網(wǎng)+”之后,今年“智能+”又首次出現(xiàn)在《政府工作報告》對堅持創(chuàng)新引領(lǐng)發(fā)展的表述中,足見國家對加快發(fā)展人工智能產(chǎn)業(yè)的高度重視。同時,還特別提出“加強科研倫理和學(xué)風(fēng)建設(shè)”,說明在關(guān)鍵核心技術(shù)攻關(guān)的同時,加強倫理建設(shè)的重要性。
無疑,隨著人工智能技術(shù)向縱深演進,人類將不得不面對一些“禁區(qū)”??萍嫉倪M步應(yīng)該本著為人類提供美好生活的“善意”,人工智能的發(fā)展路徑必須在可預(yù)見和可控的范圍內(nèi)才能健康持續(xù)地發(fā)展。未雨綢繆,防止心存僥幸,提早預(yù)設(shè)技術(shù)和法律紅線,在人工智能迅猛發(fā)展的當(dāng)下已經(jīng)迫在眉睫。