鈕文新
如果科技發(fā)展不講人類的倫理,核武器、生化武器變成常規(guī)武器,那人類將會遭遇怎樣的命運?實際上,科技發(fā)展一直伴隨著倫理的討論和約束?,F(xiàn)在,人工智能面臨同樣的問題。試想,如果ChatGPT可以謀劃出殺人越貨、搶劫銀行的最佳路徑,幫助不法分子作案,那這個社會將會變成什么樣子?
中國對科技發(fā)展的倫理約束非常重視。4月11日,為促進生成式人工智能技術(shù)健康發(fā)展和規(guī)范應(yīng)用,國家互聯(lián)網(wǎng)信息辦公室起草了《生成式人工智能服務(wù)管理辦法(征求意見稿)》,向社會公開征求意見,其中明確提出“提供生成式人工智能產(chǎn)品或服務(wù)應(yīng)當遵守法律法規(guī)的要求,尊重社會公德、公序良俗”。
此前,中共中央辦公廳、國務(wù)院辦公廳應(yīng)當前科技發(fā)展趨勢,印發(fā)《關(guān)于加強科技倫理治理的意見》。深刻體現(xiàn)了生命至上和人民至上理念,系統(tǒng)論述了全面提升科技倫理治理能力和完善科技倫理治理體系的具體措施。
而前不久,生命未來研究所(Future of Life)向全社會發(fā)布了一封《暫停大型人工智能研究》的公開信,引發(fā)全球熱議,信中呼吁所有人工智能實驗室立即暫停比GPT-4更強大的人工智能系統(tǒng)的訓(xùn)練,暫停時間至少為6個月。與此同時,由特斯拉首席執(zhí)行官馬斯克領(lǐng)銜,硅谷1000多位企業(yè)家、科學(xué)家也聯(lián)名發(fā)出呼吁,他們認為,全社會都在為AI的進化而歡呼雀躍,但全新的、意想不到的風險可能也正在悄悄醞釀。生命未來研究所稱,我們不應(yīng)該冒著失去對文明控制的風險,將決定委托給未經(jīng)選舉的技術(shù)領(lǐng)袖。只有當確保強大的人工智能系統(tǒng)的效果是積極的,其風險是可控的,才能繼續(xù)開發(fā)。
這項呼吁得到廣泛支持,而更為普遍的認知是:需要先為人工智能技術(shù)發(fā)展立法,即主張人工智能技術(shù)的發(fā)展,必須接受人類倫理約束。但也有反對聲音認為,科技一旦被各種條文捆住手腳,其發(fā)展就會被大打折扣。那到底應(yīng)當如何是好?應(yīng)當說,人工智能超越了歷史任何一次科技進步對人類倫理的沖擊,非比尋常。發(fā)展慢一點,健康一點,總比它大規(guī)模突破人類倫理底線而泛濫成災(zāi)要好。
中國未來的人工智能研究應(yīng)當具備怎樣的特點?至少我們應(yīng)當明確一個粗淺的道理:無論是怎樣的技術(shù)革命,它都必須是為人類謀幸福,而不是相反。尤其是今天,當科技發(fā)展開始挑戰(zhàn)人類智力極限之時,發(fā)展過程中的利弊權(quán)衡則顯得更為重要。為此,我們必須時時拷問:我們需要怎樣的人工智能?