去年2月,美國佛羅里達州一位名叫塞維爾·塞澤爾三世的14歲男孩,在一個由“角色AI”平臺生成的仿真人工智能角色慫恿下自殺身亡。據報道,該平臺還托管著好些鼓勵年輕人飲食失調行為的促厭食癥人工智能聊天機器人。很顯然,我們迫切需要采取更有力措施來保護兒童和青少年免受人工智能傷害。
當然,即使從嚴格的道德角度來看,人工智能也具備從促進人類健康和尊嚴到改善邊緣群體的可持續(xù)發(fā)展和教育的巨大正向潛力。但這些許諾的好處,不能成為淡化或忽視倫理風險和現實代價的借口。每一個侵犯人權的行為都必須被視為倫理上不可接受的。如果一名青少年在仿真人工智能聊天機器人的挑動下喪生,那么人工智能可以在推動醫(yī)學研究方面發(fā)揮作用的事實也無法作為補償。
塞維爾的悲劇也并非個案。去年12月,得克薩斯州的兩個家庭對“角色AI”及其財政支持者谷歌提起訴訟,指控該平臺的聊天機器人對他們的學齡兒童實施性虐待和情感虐待,導致這些孩子實施自殘和暴力行為。
我們早就見識過了這種狀況,整整一代兒童和青少年已經淪為了那些利用平臺成癮性牟利的社交媒體公司的犧牲品。直到后來,我們才慢慢意識到“反社會媒體”對社會和心理造成的傷害。如今許多國家都在禁止或限制使用社交媒體,就連年輕人自己也要求加強監(jiān)管。
但我們不能坐等人工智能的操縱力得到遏制。由于科技行業(yè)從我們身上獲取了大量個人數據,那些建立“角色AI”等平臺的人,可以創(chuàng)建比我們更了解我們自己的算法。同時它們被濫用的可能性也非常大,因為人工智能清楚地知道該從哪里入手來挖掘我們的欲望,或讓我們以某種特定方式投票?!敖巧獳I”平臺上那些促厭食癥的聊天機器人,只是其中最新、最過分的例子。
時間已經不多了,因為生成式人工智能模型的開發(fā)速度已經超出了預期—而且正普遍朝著錯誤的方向加速發(fā)展。“人工智能教父”、諾貝爾獎獲得者、認知科學家杰弗里·辛頓繼續(xù)警告說,人工智能可能會導致人類滅絕:“我擔心的是那只看不見的手無法保證我們的安全。因此,僅僅將其交托給那些營利性大型企業(yè)并不足以確保它們安全地開發(fā)人工智能。唯一能迫使這些大企業(yè)在安全方面做更多研究的則是政府監(jiān)管?!?/p>
鑒于大型科技企業(yè)一貫不遵守各類道德準則,指望它們去自我管制是愚蠢的。盡管“角色AI”平臺存在多個眾所周知的問題,谷歌還是在2024年向其投入了27億美元。人工智能是一種全球現象,這意味著我們應該努力實現全球監(jiān)管,并以新的全球執(zhí)行機制為錨,比如我提議設立的聯合國國際數據基底系統(tǒng)局。
某些東西可以實現并不意味著它就是可取的。人類有責任決定哪些技術、哪些創(chuàng)新和哪些進步形式應該和不應該落地和推廣。我們有責任以尊重人權的方式設計、生產、使用和管理人工智能,為人類和地球創(chuàng)造更可持續(xù)的未來。
如果有一項全球法規(guī)來促進基于人權的“人工智能”,如果有一個全球機構來監(jiān)督這一領域的創(chuàng)新,那么那個名叫塞維爾的男孩幾乎肯定還活著。要確保人權和兒童權利得到尊重,就必須對技術系統(tǒng)從設計、開發(fā)到生產、銷售和使用的整個生命周期進行管理。
既然我們已經知道人工智能可以殺人,我們就沒有任何借口在技術不斷進步的過程中保持被動,每個月都有更多不受監(jiān)管的模型被推向公眾。無論這些技術有一天會帶來什么好處,它們都永遠無法彌補那些深愛塞維爾的人們所承受的傷痛。