中圖分類號:TP18 文獻標識碼:ADOI:10.19881/j.cnki.1006-3676.2025.06.02
隨著第四次工業(yè)革命浪潮席卷全球,人工智能(AI)作為其中的關鍵驅動力,正在以前所未有的速度、廣度和深度改變著世界。從自動駕駛到智能家居,從精準醫(yī)療診斷到個性化教育方案,人工智能的應用范圍日益廣泛,極大地提升了社會生產效率和生活便利性。然而,在這一片繁榮景象之下,也存在隱憂:安全問題成為制約人工智能領域可持續(xù)發(fā)展的瓶頸。這意味著技術的發(fā)展不僅要追求性能上的卓越,還必須兼顧系統(tǒng)的穩(wěn)定性和安全性。因此兩者的和諧統(tǒng)一是當下及未來人工智能發(fā)展的重要議題。
作者簡介:劉恒,博士,特邀研究員,研究方向為國家安全學基本理論、技術安全、經(jīng)濟安全治理。孟利,碩士,特邀研究員,研究方向為總體國家安全觀、馬克思主義基礎理論與新技術應用。劉躍進(通信作者),碩士,教授,國家安全學創(chuàng)始人,研究方向為國家安全學基本理論與學科建設。
一、人工智能:深刻技術革命開啟新的歷史起點
從人類開始使用工具以來,技術的進步一直是推動社會發(fā)展的重要動力。特別是從工業(yè)革命開始,每一次的技術飛躍都極大地改變了人類的生產生活方式和社會結構。自約翰·麥卡錫(JohnMcCarthy)、馬文·明斯基(MarvinMinsky)與納撒尼爾·羅切斯特(NathanielRochester)等計算機專家于1956年首次提出“人工智能”(ArtificialIntelligence)的概念以來,這一技術在理論和應用上不斷擴展演進[1]。由于計算能力和數(shù)據(jù)量的限制,早期人工智能主要是基于規(guī)則的專家系統(tǒng),發(fā)展比較緩慢。
20世紀80年代末至90年代初,伴隨神經(jīng)網(wǎng)絡研究的進步,機器學習開始興起。21世紀以后,深度學習成為人工智能研究的核心領域。近年來,隨著多模態(tài)數(shù)據(jù)的廣泛積累、計算能力的大幅提升以及算法的不斷優(yōu)化,人工智能迎來了爆發(fā)式的增長,從最初簡單的邏輯推理,到如今的深度學習和強化擬人推理。這一系列的技術突破使得人工智能能夠在圖像識別、語音處理、自然語言理解等多個領域取得重大進展,人工智能逐漸具備了類似于人類的學習與思考能力。
現(xiàn)階段的人工智能技術表現(xiàn)出強大的學習能力、高度的智能化、自我優(yōu)化與改進的特點。通過對海量數(shù)據(jù)的分析和學習,人工智能能夠自動提取特征規(guī)律,從而實現(xiàn)對新數(shù)據(jù)的準確預測及分類;能夠模擬人類的智能行為,如語言理解、圖像識別、決策制定等,并且在某些方面表現(xiàn)出超越人類的能力;通過不斷接收新數(shù)據(jù),強化輸出反饋,人工智能可以持續(xù)優(yōu)化自身的模型與算法,提高運行穩(wěn)定性,提升整體預測的準確性。
目前,人工智能已廣泛應用于制造業(yè)、交通、醫(yī)療等領域,并對包括勞動就業(yè)等經(jīng)濟社會發(fā)展各方面產生深遠影響。在制造業(yè)方面,人工智能推動智能化生產的實現(xiàn),促進質量檢測和供應鏈等環(huán)境流程的重塑,大幅提高了生產效率和產品質量;在交通領域,隨著自動駕駛技術的深度運用,城市交通的無序現(xiàn)象有望得到改善,交通系統(tǒng)的整體安全水平也將得到極大提高;在醫(yī)療行業(yè),輔助疾病診斷、藥物研發(fā)、精度影像分析等手段的引入,使診治效率和準確性都得到了提高,能夠為患者提供更好的科技條件及個性化的診療服務方案。除此之外,人工智能技術在金融行業(yè)、教育領域等諸多場景下的應用,不僅極大拓展了人的實踐能力,更深度嵌入社會治理當中[2]。
基于強大的技術能力,人工智能深刻地改變了社會生產模式、勞動力市場、市場主體創(chuàng)新等方面的原有形態(tài)。例如,自動化與智能化生產日趨成為主流,不僅有效降低了企業(yè)生產成本,還成為促進產業(yè)轉型升級、提升競爭力的關鍵;勞動者職業(yè)結構發(fā)生變遷,技能培訓與終身學習成為必然,新職業(yè)誕生的同時,某些重復性高、技能要求較低的工作崗位將被智能機器替代;人工智能技術催生了一系列新興產業(yè),為經(jīng)濟增長提供了新動力,從根本上推動了商業(yè)模式創(chuàng)新,實現(xiàn)了個性化營銷與服務,增強了用戶體驗,為企業(yè)帶來新的利潤增長點,等等。
總的來看,作為一場深刻的技術和社會革命,人工智能開啟了新的歷史起點,既帶來了前所未有的發(fā)展機遇,也伴隨著一系列風險挑戰(zhàn)。如何統(tǒng)籌平衡技術與安全兩大根本性維度,不僅關系到人工智能自身的發(fā)展方向,更關系到人類社會的未來。
二、問題的緣起: “互不適應”或“單向適應”造成的困境
從相對基礎的層面來看,以往關于人工智能技術與安全關系的研究可以歸納為兩大類。第一類是普遍認為二者是互相獨立的概念范疇,體現(xiàn)了不同的價值向量,有合作也有沖突,但更多的是在不同場域內為實現(xiàn)各自特定的目標而進行的外部結合。第二類是將技術與安全視為相互聯(lián)系的概念范疇,兩者內部各要素之間在一定情形下存在相互影響、相互作用以及相互制約的關系,但這種關系只是體現(xiàn)了某種適應性,即根據(jù)某方面的需要而作出取舍。例如,當追求技術突飛猛進時,就不能過分要求其保障安全;當強調安全穩(wěn)定時,則不能只在乎技術的單向度發(fā)展。實際上,以上兩個思考視角一直伴隨人工智能的發(fā)展歷程,并且體現(xiàn)了其背后的“互不適應”和“單向適應”的思維邏輯。
(一)古代形態(tài)
中國古代思想家墨子和古希臘哲學家亞里士多德,就曾從不同角度探討過關于人造機器與衍生出智能的可能性。如墨子發(fā)明了一種早期的飛行工具,木鳶;亞里士多德進行了演繹推理三段論的完整分析,為形式邏輯奠定了基礎,對后世科學思維(包括符號化推理)具有啟示意義。在東方,“安全”概念及其治理活動主要體現(xiàn)為對統(tǒng)治者地位的維護;在西方,安全更側重于特定時空區(qū)域下的群體防衛(wèi),其治理模式也存在僭主制與君主制的分別。由于社會發(fā)展形態(tài)限制,古代原始科技與安全之間尚不存在雙向適應的基礎。不過值得注意的是,這一時期的技術發(fā)明很大程度上是為了滿足社會群體的安全需求,體現(xiàn)了以技術維護安全的樸素思想。
(二)近代思想
以1959年美國麻省理工學院成立最早的人工智能實驗室為標志,人工智能從理論走向實踐,開始成為人類腦力的外部延伸,自然具備了與人的安全相互關聯(lián)的屬性。但由于當時科技發(fā)展程度十分有限,人工智能對安全尚不具備實際影響力,因此“雙向適應”還只是就發(fā)展維度來說,指科技成果適應人的主觀需求。這一時期,阿西莫夫提出著名的“三大定律”1,明確規(guī)定機器人必須服從人類的命令,且機器人不得傷害人類,不得目睹人類個體遭受危險時袖手旁觀。自此開始,這一倫理框架構成了人工智能與人類安全關系的底線。該階段的主要問題是技術發(fā)展水平還遠遠沒有達到預期設想,因而智能技術只涉及適應人的主觀需求方面,并沒有形成完整的問題域以及納入安全體系框架中,所以在早期技術不成熟條件下更多的是“單向適應”模式。同樣從這一時期開始,因相關技術對自然環(huán)境、勞動者健康等方面逐漸產生負面影響,人們開始反思技術的“異化問題”,尤其是美國、蘇聯(lián)等國利用原子能技術制造出的毀滅性核武器,使人們對技術可造成群體性安全威脅這一問題逐步產生認知,而在某種程度上限制技術發(fā)展的思想萌芽也隨之產生。
(三)現(xiàn)代觀點
最近十年來,人工智能技術發(fā)展迅猛,其能力邊界正以既顯著又難以預料的方式持續(xù)擴展。以ChatGPT為代表的生成式通用大模型迅速發(fā)展,展現(xiàn)了強大的復雜數(shù)據(jù)處理能力與人機交互性能。隨著這些技術對社會治理的深度嵌入,人工智能安全治理問題逐漸成為全球學界和政策界關注的焦點。在技術層面的快速拉動下,相比于古代和近代階段,人工智能技術與安全之間關系的重要性進一步凸顯,并在理論與實踐層面具備了同等重要的意義。引申到“安全治理”概念,當前學界引用較多的是埃米爾·J.科什納(EmilJ.Kirchner)與馬克·韋伯(MarkWebber)的相關界定,科什納認為,安全治理會導致特定的政策結果。對于人工智能安全治理領域,西方學者普遍認為這是一種“線性關系”,或者偏于重視“治理”而相對輕視“安全”。盡管他們也看到了安全治理是由若干有目的的規(guī)則體系構成,但是對于人工智能場域下的安全治理性質、方式和特點卻沒有厘清本質區(qū)別。
在國內方面,一般有兩種代表性傾向。一種主張安全大于技術,主要代表為龔勛等專家,其認為“人類正面對著一場阿爾文·托夫勒意義上的‘未來沖擊'”?;诩夹g發(fā)展超乎預期,可能給安全帶來嚴峻挑戰(zhàn),該觀點強調現(xiàn)階段的安全治理首先應以預警預防為主,以避免造成衍生風險,使社會治理陷入巨大被動,從而使國家的安全管理陷入失序狀態(tài)。另一種主張技術大于安全,主要代表為張廣勝等專家,其認為“智能化 + 類人化”帶來人工智能時代特有的國家安全問題,但影響的范圍和深度只限于語言大模型重塑軍事指揮決策流程[3]。該觀點認為人工智能的正面作用是主流,“主效用”大于“副作用”,國家安全治理應服從于技術自身發(fā)展的邏輯需要,不應過分渲染“狼來了”,所以盡管風險威脅已經(jīng)顯現(xiàn),但技術發(fā)展仍然是第一要務,安全治理只是在特定情境下的“技術糾偏”。
從以上古今思想嬗變中,可以總結出一條邏輯發(fā)展脈絡,即人工智能技術與安全治理之間經(jīng)過了從“不存在雙向適應”到“不應該雙向適應”再到“不兼容雙向適應”的歷程(見圖1)??傊?,這條邏輯主線始終將技術與安全視為經(jīng)驗層面和先驗層面的二元對立,其發(fā)展過程既內含排他性內核,又缺乏實現(xiàn)內在調和的情境條件與轉化機制。
人工智能技術與安全的關系 不存在雙向適應 不應該雙向適應 不兼容雙向適應發(fā)展脈絡在安全治理的復雜性特征下,無法解釋技術 是作為安全影響因子與安全的融合發(fā)展關系 二是作為安全治理工具現(xiàn)代意義上的困境無法有效地解決在安全風險復合化與治理碎片化情境下,如何建構現(xiàn)代化安全治理能力
(四)困境解析
上述問題必然造成現(xiàn)代意義上的兩大困境。首先,安全治理的復雜性不能很好地解釋為何兩個方面越“對立”,就越強化了兩個方面各自的發(fā)展。從表面上看,人工智能技術與安全似乎構成了一對矛盾,而且還是相互對立的矛盾:如果加強“安全治理”,就會限制“技術的發(fā)展”,起碼要讓渡一部分的發(fā)展空間及權利;如果“強調技術的發(fā)展”,就可能忽視其帶來的“危害”或“隱患”,進而損失安全利益。這種思維實質上還是技術一安全“二元對立論”的延續(xù)。
國家安全的本質是復雜巨系統(tǒng)安全,其構成要素內容豐富、關系龐雜,具有高度的復雜性。具體表現(xiàn)為混沌、無標度、涌現(xiàn)性、協(xié)同和自組織的一系列復雜性特征。無論是安全實踐主體,還是安全體系與能力,都構成了五個維度的安全復雜性整體[4]。在這樣的背景下,人工智能技術的發(fā)展將從兩大方面與安全復雜整體構成相互關聯(lián):一是作為安全影響因子,技術綜合體的內部穩(wěn)定狀況與外在價值向度,必然對安全狀態(tài)產生持久深入影響,在“萬物關聯(lián)”的時代,影響的廣度和深度也將隨之擴大,逐漸成為“強影響因子”;二是作為安全治理的工具,目標導向與工具屬性之間構成治理統(tǒng)一體。人工智能技術的發(fā)展與運用,本身構成維護安全的重要條件,治理目標的實現(xiàn)越來越倚重技術工具,并且成為治理過程的內在要素,自發(fā)地結合在一起??梢哉f人工智能發(fā)展的初衷并非為了安全,但隨著技術的逐步成熟,它就自然地具有安全屬性。這就從根本上否定了人工智能技術與安全是外在的對立矛盾。實踐邏輯中的“對立”觀點不能解釋同一目標向度和價值取向下共同發(fā)展的事實。
其次,在安全風險復合化與治理碎片化情境下,現(xiàn)代化安全治理能力如何得到有效的構建。人工智能安全治理是當前熱點話題,也是前沿領域,兼具重要的理論與實踐意義,目前,學界以及實務界對此已經(jīng)有了一定程度的討論,專業(yè)文獻研究也正逐步走向深入。以烏爾里?!へ惪耍║lrichBeck)為代表的風險社會理論研究者認為,適用于傳統(tǒng)社會安全的制度設計、組織結構、專家系統(tǒng)及技術工具等,非但難以有效應對風險復合化導致的安全治理危機,反而構成安全治理中不確定性的來源,成為安全治理活動中的顯性矛盾,這在安全治理復合碎片化情境下表現(xiàn)得尤為突出。因此,在中國式現(xiàn)代化進程中,要釋放“跨越式發(fā)展”效能,就必須面對國內外安全利益沖突、安全風險因素交織的復雜局面。安全風險的多樣性、復雜性和不確定性與日俱增,必然要求新時代安全治理能力要具備整體性、系統(tǒng)性和協(xié)同性,能夠有效回應安全實踐的需要。傳統(tǒng)的人工智能技術發(fā)展與安全治理之間的“二元對立”思維顯然不適應這種情勢的變化,單向適應或者互不適應的關系,割裂了兩者復雜又緊密的紐帶聯(lián)系,即使形成了單向度的技術治理能力,也不能超越傳統(tǒng)工具屬性的意識范疇,無法全面地、內在地以不同方式與安全治理活動的諸多領域建立深度聯(lián)結,也無法構成安全體系中的基礎性、活躍性生產要素,更無法產生顛覆性影響。
三、反思與建構:三個基本前提聚塑雙向適應視角
解決人工智能技術與安全不相適應的問題,需要學術界、管理機構和企業(yè)等多方共同努力,通過政策引導、技術創(chuàng)新、社會監(jiān)督等多種手段,實現(xiàn)人工智能在當代風險特征背景下的健康有序發(fā)展。其中,應堅持“以人為本”和“技術向善”根本原則,樹立雙向適應的視角,從兩者的邏輯運行層面認知互構關系,從價值觀對齊層面消解“風險涌現(xiàn)”或“反尺度現(xiàn)象”,從核心目標相統(tǒng)一層面構建“視域融合”,促進共同發(fā)展。具體應明確三個基本前提,并聚合問題域內的基本共識,借此形成深入自洽的雙向適應視角。
(一)何以雙向互構
保羅·萊文森(PaulLevinson)在《軟利器:信息革命的自然歷史與未來》中提出“軟性決定論”和“硬性決定論”兩種概念,其中“軟性決定論”認為事件的最終狀態(tài)是諸多因素綜合作用的結果,而非僅僅由媒介決定[5]。將這一觀點“平移”到人工智能安全治理的理論框架內,可以推論出,如果視人工智能技術為“媒介”,則無論是“軟性決定”還是“硬性決定”,過程與結果都是雙向(或者多向)互構關系,最終體現(xiàn)的是社會選擇的導向,對事件未
來發(fā)展具有重要啟示。
近代以來,任何一項前沿科技的社會化落地,本質上都是技術演進與社會選擇相互適應的結果,都經(jīng)歷了雙向互構的過程。人工智能也不例外,其應用環(huán)節(jié)也存在技術與安全雙向互構的過程。一方面,安全構筑技術。應給予人工智能相關技術最大限度的成長空間,利用協(xié)同學、突變論等原理進行新的人工智能發(fā)展的“再組織”,通過不斷地修正和干預既往的安全活動思維,動態(tài)地集束和優(yōu)化安全目標,進行全面智能化時代的角色轉換,深刻賦能人的數(shù)字化生存,保障技術沿著以人為本的方向迭代發(fā)展。另一方面,技術構筑安全。應秉持技術向善的基本態(tài)度,在經(jīng)濟社會發(fā)展的宏觀場域系統(tǒng)性地統(tǒng)籌技術發(fā)展與國家安全,驅動大安全領域的聯(lián)結形態(tài)轉型為粒度更細的“智能互聯(lián)”,形成匹配和互補機制,確保人工智能始終沿著可知、可控的方向發(fā)展,不斷以技術推動社會進步,并維護總體國家安全。而雙向互構在治理維度上,也不是用其中一種邏輯去干涉或約束另一種邏輯,更不是用一種價值去取代另外一種價值。多元價值觀和復合邏輯在現(xiàn)代治理結構中具有基礎性重要地位,不同邏輯和價值體系之間應當尋求平衡與協(xié)同,而不是簡單地彼此取代或者互相干涉。例如,技術邏輯側重于效率、精準和自動化,而安全邏輯則更關注人權、隱私和公平,不同的邏輯可能會產生不同的價值取向,但在雙向適應的演進過程中,通過構建包容、靈活、動態(tài)的治理體系,兼顧倫理、法律及文化多樣性,能夠實現(xiàn)可持續(xù)的、相互包容的安全與發(fā)展。
(二)價值觀以何對齊
與以往歷次科技革命不同,人工智能是人類首次通過技術手段創(chuàng)造出像人一樣行動和思考的獨立體系。成熟的技術運用意味著人工智能是首次由人的創(chuàng)造物超越了工具屬性的范疇,成為人類之外的純粹理性的“智慧涌現(xiàn)者”,并且正在以創(chuàng)造性的方式作為獨立人格參與人類社會生活。通過將人工智能系統(tǒng)與人類價值觀對齊,可以防止超級人工智能在大模型階段或者將來技術跳變階段,甚至“奇點”來臨時突破安全風險底線。隨著通用人工智能不斷“智慧涌現(xiàn)”,需要確保其“可控可信”“保障人類擁有充分自主的決策權,有權選擇是否接受人工智能提供的服務,有權隨時退出與人工智能的交互,有權隨時中止人工智能系統(tǒng)的運行,確保人工智能始終處于人類控制之下”[6],避免人工智能濫用帶來安全威脅和人道主義災難。以OpenAI“自動化對齊研究員”項目為例。2023年12月,美國0penAI公司“超級對齊”團隊發(fā)布了成立以來的首篇論文,開辟了對超級模型進行實證對齊的研究方向。在最新的研究中,OpenAI實現(xiàn)了讓弱模型監(jiān)督強模型的任務,使用ChatGPT-2模型來激發(fā)ChatGPT-4模型的大部分能力,使其達到接近ChatGPT-3.5級別的性能,實現(xiàn)了“弱到強泛化”(weak-to-stronggeneralization),即讓小模型監(jiān)督大模型,為“超級對齊”提供了切實可行的技術路線。該項目以實證研究的方式,探索如何理解和減輕人工智能相關的風險,包括經(jīng)濟破壞、虛假信息傳播、過度依賴等。
(三)目標統(tǒng)一為何
雙向適應的最終訴求是尋找共同目標下的深度契合,并促進內部要素的和諧統(tǒng)一。運用雙向適應的視角,就是將原本看似對立的雙邊事物,從更高層次視為統(tǒng)一的“邏輯體”“價值觀”“目標集”。雖然表面上來看,技術追求的是效率、創(chuàng)新和便捷,安全關注的是風險控制、合規(guī)性與穩(wěn)定性,但實際上兩者在深層次上有著一致的相似性,它們在促進社會發(fā)展、保護公民權益以及改善用戶體驗等方面都有著共同的目標。這種內在的一致性要求使用主體在開發(fā)新技術的同時,也要同步加強安全措施,確保技術的進步不會帶來新的安全隱患。王琦等借助案例橫向分析法2,進一步印證了人工智能技術與安全相互交織。二者不僅基于共同目標,還蘊含了交互共享的運行機制,通過遠期目標的重合性來建立視域融合的橋梁,建立短期目標或特殊矛盾之間的“讓渡”交換渠道。概括起來,人工智能技術與安全關于根本目標的一致性,本身就是兩者動態(tài)地、完整地雙向適應過程,包含以下部分的溝通協(xié)調:主觀體驗性,不同文化、不同群體及個人往往有著不同的價值觀;動態(tài)適應性,隨著經(jīng)濟基礎的變化,上層建筑發(fā)生同向變動,人工智能系統(tǒng)必須靈活適應;技術層面的限制,當前技術水平可能無法完全理解復雜的道德情境;可解釋性難題,高度復雜的人工智能模型可能難以解釋其自身運作的決策過程,等等。此外,目標一致不僅體現(xiàn)在技術層面的直接應用,還涉及法律、倫理、戰(zhàn)略和國際合作等多個維度,共同構成了復雜巨系統(tǒng)的人工智能發(fā)展圖景(見圖2)。
四、現(xiàn)實路徑選擇:體系化協(xié)同治理
統(tǒng)籌人工智能技術與安全,完善人工智能安全治理已成為當下全球性熱點問題。2023年11月,全球首屆人工智能安全峰會通過了《布萊奇利宣言》(BletchleyDeclaration)。這體現(xiàn)了國際社會對于人工智能安全治理的共同關切,突出強調了防止“智能叛變”風險,避免有意識地濫用人工智能或對其失去控制。而技術與安全的雙向適應意味著在人工智能技術快速發(fā)展的同時,人工智能安全治理模式和策略也必須同步迭代升級,以實現(xiàn)技術的正向作用并管控潛在風險,特別是在路徑選擇上要通過引導技術創(chuàng)新,實現(xiàn)安全治理賦能,規(guī)范法律法規(guī)及政策框架,形成協(xié)同效應,實現(xiàn)人工智能技術與安全的良性互動、可持續(xù)發(fā)展(見表1)。
(一)構建以人為本的雙向生態(tài)
技術的自然屬性與社會屬性本就是一體兩面,相輔相成的。人工智能技術發(fā)展的最終目的是服務于人,提升人的生活質量和安全水平。因此,這要求我們在技術演進過程中遵守道德倫理準則,并深入貫徹人性化交互的設計理念,在算法設計中考慮公平性,避免機器決策中的不公正現(xiàn)象,防止出現(xiàn)意識形態(tài)偏見和歧視。我們應重點明確各安全領域的技術安全標準,預置技術安全合規(guī)性要求,構建人機交互信任機制,并通過信任認證模型來確保系統(tǒng)及服務的可靠性。同時,建立安全信息反饋機制,在制定整體發(fā)展規(guī)劃時,必須充分考慮人的需求和權益,確保技術進步能夠惠及廣大民眾。至于安全生態(tài),現(xiàn)代安全體系是一個復雜的巨系統(tǒng)生態(tài)網(wǎng)絡,相應的安全生態(tài)由應對安全威脅的防御措施和危機管控能力組成。要致力于使安全生態(tài)成為一個有機整體,包容人工智能技術在倫理和價值導向下的最大限度發(fā)展,實現(xiàn)發(fā)展與治理的均衡,既要避免規(guī)范不足引發(fā)的安全問題,也要防止過度監(jiān)管阻礙技術進步。此外,還需增強跨文化理解,在全球化背景下,理解和尊重不同國家及地區(qū)在安全關切與價值偏好上的差異。
(二)強化雙向適應下的互相驅動
人工智能的核心功能可歸納為四點:認知、預測、決策和集成解決方案。從底層邏輯來看,它與安全活動具有高度適配性。這種高度關聯(lián),使得人工智能可以應用于安全活動的大部分場景,以不同方式與諸多安全領域建立緊密聯(lián)結,成為治理體系中日益活躍的要素,以及治理能力的重要來源。人工智能天然具有安全屬性,并且塑造了帶有新技術特點的安全形態(tài),技術進步的過程也是安全治理能力現(xiàn)代化的孕育過程。首先,創(chuàng)建對話機制一依托雙方對話,建立機制促進持續(xù)對話與安全反饋,匯聚各方面主體意見,推動研發(fā)、教育和產業(yè)協(xié)同推進,不斷優(yōu)化安全治理策略,構建技術與安全協(xié)同進化框架;其次,建立綜合決策框架一一搭建一個既能體現(xiàn)技術效率又能反映人文關懷的決策框架,實現(xiàn)網(wǎng)絡化和扁平化的治理組織架構,創(chuàng)新雙邊要素的多元共享,在保障基本安全需要的前提下,為人工智能技術及應用創(chuàng)新預留空間,避免過度監(jiān)管抑制技術創(chuàng)新,“實現(xiàn)發(fā)展與治理的平衡,既要避免規(guī)范不足導致的社會問題,也要避免過度監(jiān)管從而阻滯技術的發(fā)展”;最后,實行統(tǒng)分結合戰(zhàn)略“一體化 + 分布式”部署是當前最可行戰(zhàn)略選擇之一。人工智能涉及多學科多技術多領域,現(xiàn)階段尚難以形成諸如原子彈、載人航天等目標清晰的舉國工程,由各集群分領域探索試錯,既有利于積累創(chuàng)新,更有利于動態(tài)調整,分散技術和工程風險。
(三)加強系統(tǒng)化動態(tài)性治理
根據(jù)歷史上的科技革命經(jīng)驗,“技術的發(fā)展最終會解決技術自身的問題”。一方面,人工智能技術在迭代躍遷過程中,新技術不斷涌現(xiàn)。許多曾經(jīng)被視為難題的技術挑戰(zhàn)很可能逐步被克服,特別是隨著模型算法的不斷優(yōu)化、算力的不斷提升、數(shù)據(jù)的不斷豐富,以及深度學習技術的深入發(fā)展,目前人們所擔憂的由于設計、架構、數(shù)據(jù)或算法缺陷而產生的內生安全風險及其衍生風險,包括但不限于政治安全風險、軍事安全風險、文化與意識形態(tài)安全風險等現(xiàn)實危害或者潛在隱患,有可能被消解,或者失去其相應的生存條件。另一方面,技術進步也可能帶來新的未知風險,因此,持續(xù)的風險評估、監(jiān)控和管理,對于確保人工智能技術的長期安全和可持續(xù)發(fā)展至關重要。此外,安全隱患的含義和范圍也會隨著歷史發(fā)展而演變深化。例如,在光伏、風電等新能源技術出現(xiàn)以前,石油等化石能源在能源安全領域占據(jù)舉足輕重的地位,而隨著新能源技術的發(fā)展,石油枯竭等因素可能對能源安全造成的威脅也隨之減少,舊風險在新階段逐漸消退。所以,動態(tài)地觀察人工智能安全治理活動,借助“建構一解構”風險識別框架,應注重區(qū)分哪些風險隱患是階段性特征,哪些是根本性矛盾。
(四)提高緊急處置能力
在緊急處置內生風險層面,應以敏捷治理及多維治理為總體性方向,系統(tǒng)性提升處置應對能力,不斷改進安全策略、應急計劃和操作程序。應建立應急響應機制,預先制定人工智能在復雜場景下應對突發(fā)事件的解決方案;制定應對安全事件的可操作性策略,以確保人工智能系統(tǒng)一旦出現(xiàn)異?;蛑卮蟀踩┒?,能夠迅速采取行動,并仍能穩(wěn)定運行。通過在非緊急狀態(tài)下進行模擬攻擊和壓力測試來提高技術系統(tǒng)的整體魯棒性。
在應對衍生風險層面,需要搭建一個多方參與的安全治理結構。根據(jù)風險的輕重緩急程度,組織立即的應急響應與災備評估,確定風險的性質、范圍和影響程度,并及時采取措施控制損害。此外,組織技術系統(tǒng)恢復重建與責任界定,常態(tài)化長效化執(zhí)行合規(guī)監(jiān)管,以確保在事故來臨前能夠迅速有效應對。
在全球安全治理層面,推動人工智能國際安全合作,建立多邊機制共同解決人工智能跨國安全問題,促進全球范圍內對人工智能國家安全治理的共識形成,共同應對由人工智能引發(fā)的跨國安全風險挑戰(zhàn)。在執(zhí)法領域,應共享安全情報和最佳實踐案例,協(xié)作打擊危害全球安全的跨國智能技術犯罪,建立世界性安全防護網(wǎng)絡。
五、結語
研究人工智能技術與安全關系的觀察視角與應對策略具有重要價值。實現(xiàn)科技成果與社會效應的良性互動,確保技術進步能安全穩(wěn)定地惠及于人,有力維護國家安全,促進全球科技力量和諧共生是相關問題的核心訴求??偟膩砜?,雖然學界早期對此給予了密切關注,并取得了一定的理論研究成果,但整體上還存在著理論與實際不相適應的狀況。主要問題在于技術與安全的總體性關系方面,尚未實現(xiàn)雙向適應的范式轉變,缺乏有效的統(tǒng)籌。人們往往將技術和安全之間的關系視為單向適應,甚至互不適應的“二元對立”模式。這種認識論必然導致一種困境:一方面,它無法合理解釋當前語境下人工智能技術的快速迭代發(fā)展與國家安全治理需求的日益增長,兩者既各有所需又有機融合的內生緊密關系;另一方面,基于當下安全風險復合化與治理碎片化基本特征,當人工智能日益成為安全治理體系中基礎性、最活躍的生產要素時,這種認識更無法回答如何基于其超強技術能力和非工具性特征,構建系統(tǒng)協(xié)同的安全治理能力。
實際上,雙向適應視角是思考當前人工智能技術快速迭代的一條進路,也是解決人工智能時代統(tǒng)籌發(fā)展和安全的一條現(xiàn)實出路。從阿莫西夫“三大定律”
到埃米爾·J.科什納的安全治理觀念,再到保羅·萊文森的“媒介說”,以及OpenAI“自動化對齊研究員”項目等的實踐演進,逐步揭示了實現(xiàn)技術與安全良性互動的三個基本前提:一是雙向互構,闡述技術演進與社會選擇的雙向適應邏輯,人工智能技術既是“體”也是“用”,既有自然屬性也有社會屬性;二是“價值觀對齊”,確保人工智能的技術運行與人的主觀意圖、價值規(guī)范相一致;三是目標一致,在共同目標基礎上闡明內在相似性,并指出雙向“讓渡”渠道。
關于實踐策略,重點是從四個層面形成協(xié)同效應,保障技術與安全良性互動、人工智能實現(xiàn)可持續(xù)發(fā)展。這包括:構建以人為本的智能生態(tài)和安全生態(tài),在主體與環(huán)境之間實現(xiàn)雙向適應;通過搭建對話機制、綜合決策框架和統(tǒng)分結合戰(zhàn)略,實現(xiàn)相互驅動;建立安全治理反饋機制,研發(fā)、產業(yè)及監(jiān)管協(xié)同推進,不斷優(yōu)化安全治理策略;提高緊急處置能力,確立總體性原則方向,堅持敏捷治理,不斷改進安全策略、應急計劃和操作程序。
注釋:
1.“三大定律”又稱“機器人學三定律”,由美國科幻作家艾薩克·阿西莫夫于1950年在小說《我,機器人》中提出。這三大法則互相約束,具有較強的現(xiàn)實意義。后續(xù)學者在其基礎上發(fā)展出新興學科“機械倫理學”,旨在研究人類和機器人之間的安全關系。
2.案例橫向分析法:通過美軍“自主無人機系統(tǒng)”“智能決策支持系統(tǒng)”,網(wǎng)絡安全“AI驅動的威脅檢測”“自動響應系統(tǒng)”等公開信息,橫向分析人工智能技術在軍事應用、網(wǎng)絡安全、情報分析、社會管理等領域的具體實踐案例,從微觀層面提煉規(guī)律性。
參考文獻:
[1] MCCARTHY J,MINSKY M L, ROCHESTER N,et al. A proposal for the Dartmouth summer research projecton artificial intelligencelJ].AI magazine:artificial intelligence,2006,27(4) :12-14.
[2]王琦,朱軍,王海兵.人工智能安全:原理剖析與實踐[M].:電子工業(yè)出版社,2022.
[3]張廣勝.生成式人工智能的國家安全風險及其對策[J].人民論壇·學術前沿,2023(7):76-85.
[4]王秉,史志勇,王淵潔.復雜性時代的國家安全學新范式:構建國家安全復雜學[J].國際安全研究,2023,41(4):57-81,157-158.
[5]萊文森.軟利器:信息革命的自然歷史與未來[M].何道寬,譯.上海:復旦大學出版社,2011.
[6]韓冰意,蘇中.“信息繭房”、隱私外泄,如何應對人工智能帶來的倫理風險?[EB/OL].(2023-01-19)[2025-03-12]. http://www. xinhuanet.com/tech/20230119/849d98a850da4e6eba5a1d364f90adc3/c. htm.
Coordinating Artificial Intelligence Technology and Security -Based on the Perspective and Countermeasures of Bidirectional Adaptation
Liu Heng1 Meng Li2 Liu Yuejin3
(1.Party School of Zhejiang Provincial Committee of C. P. C, Zhejiang, Hangzhou, ; 2.China Children’ s Press amp; Publication Group,Beijing,; 3.University of International Relations,Beijing,l00091)
Abstract: [Research purpose] As artificial intelligence (AI) continues to advance at an unprecedented pace,it simultaneously triggers a cascade of security issues. How to perceive the “contradiction” between technology and security in the field of artificial intelligence and achieve mutual inclusiveness and promotion between technological development and security guarantee has important theoretical and practical significance. [Research method] Based on the perspective of bidirectional adaptation between the two,this article explores in depth the practical pathways for coordinating technology and security in the context of contemporary compounded security risks and fragmented security governance,in order to achieve the core objective of constructing modern AI security governance capabilities. [Research conclusion] By examining the root causes of“incompatibility”or“one-way adaptation”between artificial intelligence technology and security,it establishes three premises to set a critical perspective: first,the socialization of any technology is essentially the result of the “mutual construction” of technological evolution and social choice; second,regarding the security governance of emerging technologies, it has never been about merging one logic with another,let alone replacing other values with one; third,the foundation of two-way adaptation is to find goal alignment under common values and promote collaborative progress. At the same time, based on the perspective of bidirectional adaptation, this article focuses on the hot topic of artificial intelligence security governance thatis of common concern for both the theoretical and practical circles. Several countermeasures and suggestions are proposed: firstly,it must adhere to the principle of people-oriented,and development and security are the“two sides of the same coin”of human essential needs,achieving the“alignment of values”between the two; secondly,it should approach problems systematically and dynamically,believing that“the development of technology will ultimately solve the problems of technology itself”;in adition,it should be clarified that“two-way adaptation”requires “two-way concessions”,and the process relies on coupling and coordination; finally,it needs to improve emergency response capabilities in risk situations.
Keywords:artificial intelligence; technology;security; coordination; bidirectional adaptation