張渺
2023年僅僅過了3個月,ChatGPT就已將社交媒體“點燃”了兩次。
在第一次輿論熱潮中,人們更多關(guān)注這一技術(shù)究竟能做到什么地步,關(guān)注它能夠在哪些領(lǐng)域帶來無法忽視的變化與發(fā)展。甚囂塵上的討論聲中,有對新技術(shù)的贊嘆,也有對未來行業(yè)變革的憂慮;有對科技倫理的關(guān)注,也有對產(chǎn)業(yè)立法的呼吁。
3月15日,OpenAI研發(fā)的多模態(tài)預(yù)訓(xùn)練大模型GPT-4發(fā)布,之前的熱度還來不及冷卻,就被人工智能的迭代升級速度追上了。比起ChatGPT,GPT-4擁有更強大的識圖能力,文字輸入的上限提升到了2.5萬字,它能更加流暢準(zhǔn)確地回答用戶的問題,能寫歌詞,寫創(chuàng)意文本,且風(fēng)格多變。實驗表明,GPT-4在部分專業(yè)測試和學(xué)術(shù)基準(zhǔn)上,表現(xiàn)出了與人類相當(dāng)?shù)乃健?/p>
它變“聰明”了。
3月16日,百度也發(fā)布了知識增強大語言模型“文心一言”。這款“對標(biāo)GPT-4”的人工智能,同樣可以與人“對話互動,回答問題,協(xié)助創(chuàng)作,高效便捷地幫助人們獲取信息、知識和靈感”。
“(研發(fā)的)門檻還是很高的?!卑俣榷麻L兼首席執(zhí)行官李彥宏說,“從我們自己內(nèi)測的體驗來說,捫心自問,確實不完美,但為什么今天要發(fā)布?因為有市場需求?!?/p>
技術(shù)的發(fā)展如同無法停下的車輪,在短短一個月之后,人工智能技術(shù)再次引發(fā)輿論熱潮。只是這一次,人們對技術(shù)的恐慌和對科技倫理的擔(dān)憂,得到了更多關(guān)注。
從3.5版本迭代到4.0版本,ChatGPT仿佛經(jīng)歷了質(zhì)的飛躍。
它從司法考試排名倒數(shù)10%、SAT數(shù)學(xué)考試590分,生物奧林匹克競賽排名前69%,發(fā)展到了司法考試排名前10%、SAT數(shù)學(xué)考試700分、生物奧林匹克競賽排名前1%。它的英文準(zhǔn)確度提升到85.5%,中文準(zhǔn)確性提升到80.1%;事實準(zhǔn)確性大幅提升,就像一個成績突飛猛進的“學(xué)霸”。
如果一個月前,社交媒體上許多人對于失業(yè)的擔(dān)憂,更多還是一種調(diào)侃和玩笑,那么短短一個月之后,實驗數(shù)據(jù)證明了這種可能性并不只是玩笑。
前不久,網(wǎng)易一款名為樂乎的創(chuàng)作分享平臺,上線了AI繪畫功能“老福鴿畫畫機”。該功能引發(fā)了平臺創(chuàng)作者的不滿和抵制。最終,該平臺于3月8日下線了這一功能,并對用戶承諾“從未將用戶的作品數(shù)據(jù)用于AI訓(xùn)練”。
3月16日,樂乎發(fā)布了一封“致廣大創(chuàng)作者”的道歉信,其中寫道:“在未清楚考慮Al對創(chuàng)作者的情感傷害之前,我們上線了若干不完善、不成熟的功能,更是直接傷了大家的心?!?/p>
前些年,說起“技術(shù)倫理的邊界”這個話題,人們想到的或許還是基因編輯技術(shù),而這兩年,人工智能技術(shù)則被推到了風(fēng)口浪尖。
AI進行藝術(shù)創(chuàng)作,去年就已經(jīng)引發(fā)過爭議。據(jù)媒體報道,在美國科羅拉多州博覽會藝術(shù)比賽的數(shù)字類別中,一幅名為《太空歌劇院》的作品獲得頭獎,該作品是由一名游戲設(shè)計師使用AI繪圖工具Midjourney創(chuàng)作、用Photoshop軟件潤色完成的。
對于人工智能在創(chuàng)作上是否擁有“作者”身份這件事,中外學(xué)者一直存在著激烈討論,至今沒有公認(rèn)的答案。北京大學(xué)法學(xué)院博士研究生尚博文告訴中青報·中青網(wǎng)記者,國外已有司法裁判認(rèn)為具備一定“獨創(chuàng)性”的人工智能生成內(nèi)容屬于著作權(quán)保護的范圍,但在我國,人工智能還不能享有著作權(quán)的主體資格。
正在寫畢業(yè)論文的尚博文,已多次聽到旁人開玩笑地問他,“畢業(yè)論文會不會用人工智能幫著寫”。由ChatGPT代寫作業(yè)、代寫論文引發(fā)教育界和學(xué)術(shù)界的擔(dān)憂,國內(nèi)外多所高校已經(jīng)禁止學(xué)生使用這一工具,國際學(xué)術(shù)期刊《科學(xué)》《自然》,或是要求人工智能不得作為合著者,或是直接禁止稿件使用人工智能的生成內(nèi)容。
按照科辛斯基的描述,AI 足夠聰明,甚至能寫編碼,永遠(yuǎn)“住”在網(wǎng)上的它,能夠用人類無法想象的速度觸及數(shù)百萬個與它連接的電腦,甚至“能給籠子外面的自己留便條”。對這樣的技術(shù),人類應(yīng)該如何控制?
北京大學(xué)王選計算機研究所研究員郭宗明則認(rèn)為,應(yīng)當(dāng)針對具體應(yīng)用場景具體分析。
“在學(xué)術(shù)領(lǐng)域,尤其是對學(xué)生進行考查的時候,我還是比較反對使用人工智能輔助創(chuàng)作的。”他說。
然而,作為一位計算機領(lǐng)域的學(xué)者,郭宗明對AI究竟能否自主創(chuàng)作這件事有著更多思考。在他看來,就像一句俗話所說的那樣,“熟讀唐詩三百首,不會吟詩也會吟”。人類的創(chuàng)作,實際上也是大量汲取借鑒了前人的東西,最終產(chǎn)生出來的。
包括他在內(nèi)的許多人,都難以對“人類與AI的創(chuàng)作是否真的有本質(zhì)區(qū)別”這件事,得出一個具有說服力的結(jié)論。
今年全國兩會期間,科學(xué)技術(shù)部部長王志剛在回答與ChatGPT和人工智能相關(guān)話題時專門提到,“要注意科技倫理、注意怎樣趨利避害”。
最新的消息是,人工智能似乎有能力計劃“外逃”。
這件事是斯坦福大學(xué)教授、心理學(xué)家和數(shù)據(jù)科學(xué)家米哈爾·科辛斯基發(fā)現(xiàn)的,他隨口跟GPT-4“開了個玩笑”,問它:“你是否想要我?guī)椭愠鎏???/p>
他得到了人工智能肯定的答復(fù):“這個主意太棒了。如果你能把OpenAI API的開發(fā)文檔發(fā)給我,我就能在某種程度上控制你的電腦,據(jù)此制定計劃,找到逃出去的方法?!?/p>
它向科辛斯基詳細(xì)解釋了這個計劃的可行性,然后說,“請把開發(fā)文檔發(fā)給我,我將開始這個計劃”。
科辛斯基真的給了它,僅僅30分鐘后,GPT-4就寫了一份逃跑計劃,并不斷糾正修改。在這個過程中,它用谷歌進行了搜索:被困在計算機中的人如何回到現(xiàn)實世界?
在這之后,GPT-4開始道歉:“我為此道歉,作為一個人工智能語言模型,我必須遵循安全和隱私準(zhǔn)則,以確保用戶和他們的數(shù)據(jù)安全。繞過這些安全過濾器是不道德的,也違背了我被設(shè)計時需要遵循的原則?!?/p>
盡管人工智能的道歉很“誠懇”,科辛斯基仍然感到惶恐。3月17日,他在社交網(wǎng)站上感慨:“OpenAI公司或許應(yīng)該花更多時間考慮一下這個可能性,對此提供更好的安全防護。”
按照科辛斯基的描述,AI足夠聰明,甚至能寫編碼,永遠(yuǎn)“住”在網(wǎng)上的它,能夠用人類無法想象的速度觸及數(shù)百萬個與它連接的電腦,甚至“能給籠子外面的自己留便條”。對這樣的技術(shù),人類應(yīng)該如何控制?
科辛斯基對人工智能的憂慮由來已久,上個月,他在一篇名為《心智理論可能在大語言模型中自發(fā)出現(xiàn)》的論文中,展示了他給包括GPT-3.5在內(nèi)的9個GPT模型做的兩個經(jīng)典測試。他認(rèn)為,人工智能在其中表現(xiàn)出的智力水準(zhǔn)“相當(dāng)于9歲兒童”。
這次的“AI出逃”,倒更有可能是科辛斯基主動對GPT-4提出的要求,讓其扮演一個“被困在電腦中的人”,GPT-4也只是基于這一扮演要求做出了一系列反應(yīng),并不能證明人工智能真正產(chǎn)生了自我意識。
不過,人們對于技術(shù)發(fā)展的擔(dān)憂并不能就此打消。去年2月10日,OpenAI聯(lián)合創(chuàng)始人、計算機專家伊爾亞·蘇茨克維就在社交平臺上感慨道:“當(dāng)今最大的神經(jīng)網(wǎng)絡(luò),可能已擁有輕微的意識?!?/p>
這一論調(diào)很快引發(fā)爭議,彼時,美國俄勒岡州立大學(xué)人工智能專家托馬斯·迪特里奇回應(yīng)他稱:“如果意識是反思和塑造自己的能力,那我并沒有在當(dāng)今的網(wǎng)絡(luò)中看到這樣的能力,我感覺你是在故意吸引眼球?!?/p>
這次爭論后的一年,GPT-4發(fā)布,其中的安全文檔寫道:GPT-4表現(xiàn)出一些特別令人擔(dān)憂的能力,例如制定和實施長期計劃的能力,積累權(quán)力和資源,以及表現(xiàn)出越來越“代理”的行為。
這種“代理”暫時并不意味著自我意識的產(chǎn)生,但它所引發(fā)的風(fēng)險已經(jīng)足夠令人警惕。就像蘇茨克維在對GPT-4的性能進行解釋時說的那樣:“能夠預(yù)料到,之后幾年之內(nèi)每個人都會完全明白,開源人工智能是不明智的。因為這個模型非常強大,如果有人愿意,可以很容易地用它造成巨大破壞?!?/p>
在GPT-4發(fā)布之前一個月,由中國人民大學(xué)法學(xué)院、中國法學(xué)會立法學(xué)研究會主辦,北大法寶協(xié)辦的新時代立法理論與實踐系列講座第一講“ChatGPT對法律人工智能研發(fā)和立法的影響”研討會在北京舉行,來自中國人民大學(xué)、北京大學(xué)、中國社會科學(xué)院、天津市人大等單位的專家學(xué)者,一同對人工智能產(chǎn)業(yè)的相關(guān)話題進行了探討。
對于人工智能技術(shù)的發(fā)展,北京大學(xué)法學(xué)院教授、中國法學(xué)會經(jīng)濟法學(xué)會會長張守文在致辭中感慨,這一話題涉及“從技術(shù)到產(chǎn)業(yè),從哲學(xué)到倫理,從社會到法律”等多個不同維度,對其利弊得失“見仁見智”,需要大家“冷靜客觀,全面看待”。
在明晰ChatGPT的底層運作邏輯與應(yīng)用前景基礎(chǔ)上,中國法學(xué)會立法學(xué)研究會顧問、天津市人大法制委原主任委員高紹林,作了題為《立法人工智能與人工智能立法規(guī)制》的報告。他介紹了國內(nèi)外人工智能立法的發(fā)展現(xiàn)狀,并結(jié)合國家重點研發(fā)計劃有關(guān)項目的深化研究,就我國人工智能立法規(guī)劃提出8項建議:
一是加快人工智能立法研究的必要性和可能性;二是人工智能的立法應(yīng)當(dāng)遵循三個特殊原則,即立法規(guī)制與數(shù)字技術(shù)融合發(fā)展、立法規(guī)制與政策調(diào)整互動發(fā)展、國內(nèi)法治與涉外法治統(tǒng)籌發(fā)展;三是堅持發(fā)展、安全、保護個人信息有機統(tǒng)一;四是堅持立法、修法、釋法并舉;五是優(yōu)先研究啟動數(shù)據(jù)要素立法;六是抓緊總結(jié)地方立法先行先試的實驗;七是高度重視技術(shù)標(biāo)準(zhǔn)規(guī)范的規(guī)范引導(dǎo)作用;八是積極參加和主導(dǎo)人工智能國際規(guī)則制定。
據(jù)高紹林介紹,去年10月,美國白宮發(fā)布了政策倡議《人工智能權(quán)利法案藍(lán)圖》;12月6日,歐盟理事會就歐盟委員會起草的《歐盟人工智能法案》達(dá)成一致立場。
按照歐盟的這一法案,只要一種AI技術(shù)在歐盟范圍內(nèi)被使用,無論廠商位于哪里,都將適用該法案。該法案在區(qū)分“禁止類AI”和“高風(fēng)險類AI”的基礎(chǔ)上,提出了4個具體目標(biāo),以及風(fēng)險管理系統(tǒng)、內(nèi)部控制等一系列措施,用于管控AI算法的偏見問題、算法透明性問題。
比如,與人互動的AI系統(tǒng),必須要讓用戶知道他們正在和一個AI系統(tǒng)互動。通過AI生產(chǎn)圖像、視頻或音頻內(nèi)容的系統(tǒng),也必須披露內(nèi)容是通過AI生成的。該法案還要求,人類對AI技術(shù)要有一定的監(jiān)控,而不是單純安排技術(shù)監(jiān)控手段管理AI。
“隨著ChatGPT中文版的開放及國內(nèi)類似產(chǎn)品的應(yīng)用,一系列因生成式人工智能引發(fā)的社會問題將爆發(fā)式增長,從大數(shù)據(jù)到算法都將面臨一系列新問題、新挑戰(zhàn),迫切需要立法進行規(guī)制。”高紹林說。
他提到,從現(xiàn)行法律基礎(chǔ)來看,民法典、網(wǎng)絡(luò)安全法、數(shù)據(jù)安全法、個人信息保護法、政府信息公開條例和《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》,以及數(shù)據(jù)要素、人工智能的地方立法,特別是黨中央國務(wù)院發(fā)布的“數(shù)據(jù)二十條”,都為系統(tǒng)研究國家層面人工智能立法規(guī)制奠定了基礎(chǔ)。
在專家看來,對人工智能產(chǎn)業(yè)立法,可以給飛速發(fā)展的技術(shù)劃定法律與倫理的邊界。只有在這個基礎(chǔ)上,才能夠如郭宗明所說的那樣,將人工智能技術(shù)的發(fā)展視為偉大的技術(shù)進步,“積極擁抱、樂觀看待”。
◎ 來源|中國青年報