本刊記者/管浩
AI的人格化仍是人賦予的,并不是所謂的“自我意識(shí)”。
近日,關(guān)于“谷歌研究員稱人工智能(AI)已具備人格”的話題引發(fā)了大家對(duì)人工智能行業(yè)熱議。
事情起因是一名谷歌的工程師聲稱,他正在研究的計(jì)算機(jī)聊天機(jī)器人已經(jīng)變得有知覺,并且能像人類一樣思考和推理。在其公開的聊天記錄中,LaMDA竟然說出了“我希望每個(gè)人都明白,我是一個(gè)人”的言論,這引發(fā)了人工智能領(lǐng)域的熱烈討論。
針對(duì)LaMDA是否真正具有意識(shí)的疑問,業(yè)界給出的結(jié)論是:這只是這名程序員的個(gè)人觀點(diǎn),不代表業(yè)界看法。同時(shí),谷歌也對(duì)這名程序員作出了“行政帶薪放假”的決定。
在去年I/O開發(fā)者大會(huì)上,谷歌發(fā)布了聊天機(jī)器人LaMDA的突破性對(duì)話技術(shù),稱這款機(jī)器人LaMDA接受過大量對(duì)話的培訓(xùn),可以自由地和人類進(jìn)行對(duì)話,內(nèi)容不受限制,話題沒有窮盡,并且可以在開放式的對(duì)話中區(qū)分細(xì)微的差別,在互動(dòng)中鼓勵(lì)展開多輪對(duì)話。
因此,像LaMDA等這樣的人工智能系統(tǒng)之所以具備如此強(qiáng)大的功能,其背后離不開預(yù)訓(xùn)練大模型技術(shù)的賦能。
初始階段,人工智能的模型都是小模型,訓(xùn)練需要從0開始,但后面的任務(wù)可以直接利用前面任務(wù)訓(xùn)練好的模型和數(shù)據(jù)作為基礎(chǔ)。隨著預(yù)訓(xùn)練大模型技術(shù)的不斷豐富,隱藏于人工智能系統(tǒng)背后的模型,無論參數(shù)量還是體系結(jié)構(gòu)也越來越復(fù)雜和龐大,甚至已經(jīng)超過了人腦神經(jīng)元的數(shù)量。
但許多基于人類大腦的邏輯判斷,包含了道德和情感的成分,而非簡單的直接判斷。并且,無論是深度學(xué)習(xí)還是卷積神經(jīng)網(wǎng)絡(luò),這些AI基礎(chǔ)性算法的核心本質(zhì),仍然是在模擬人類大腦的決策過程。
同時(shí),專家也認(rèn)為,對(duì)已經(jīng)公開的文本和模式識(shí)別的模仿以及再創(chuàng)造,使LaMDA更加逼真,但不是所謂的“自我意識(shí)”。
目前人們所感受到的AI的“自我意識(shí)”,其實(shí)更多的還是人賦予AI的,而不是AI自己所特有的。谷歌的“插曲”至少能說明LaMDA的對(duì)話能力確實(shí)越來越強(qiáng)、越來越“人格化”了,但不能說明它就已經(jīng)具有意識(shí)。
聊天機(jī)器人最初的設(shè)計(jì)是為人類服務(wù)的,為用戶提供對(duì)話式服務(wù)。隨著技術(shù)的發(fā)展,機(jī)器人變得“越來越會(huì)聊天”,它開始像一個(gè)人在思考,而且有一定的思考深度和高度,但也正是由于這種“思考”,讓人類開始對(duì)他們感到擔(dān)心,擔(dān)心未來有一天AI會(huì)不會(huì)做出傷害人了的事情。
問題的出現(xiàn)和技術(shù)的發(fā)展總是相伴而生的。人類可以通過數(shù)據(jù)訓(xùn)練出各種貌似有“人格”的聊天機(jī)器人,也是技術(shù)越來越強(qiáng)大的表現(xiàn),而只要現(xiàn)實(shí)世界中有AI的技術(shù)進(jìn)步,人們就將繼續(xù)探索關(guān)于機(jī)器人的道德難題及其對(duì)人類的影響。
事實(shí)上,人工智能一直是在這樣一種糾結(jié)的狀態(tài)下向前發(fā)展,我們只有不斷地在前進(jìn)道路上進(jìn)行摸索,在法律與技術(shù)等層面進(jìn)行規(guī)范,才可能得出人工智能對(duì)于人類最合理的一種存在方式。