摘?要:不確定性是技術的重要特性,源于知識的不確定性。人工智能作為一種新型技術,同樣存在理論、運行機制和功能上的不確定性,而這無疑會給人工智能技術的實際應用帶來巨大的倫理風險。從技術不確定性角度看,人工智能倫理治理必然是風險防范重于問題解決。然而,傳統(tǒng)人工智能倫理治理側重于問題解決,更多采用的是“回應式”治理模式。盡管該模式對于問題的善后處理起到了一定的修補作用,但因其滯后性而無法進行事前的風險防范。隨著新一輪人工智能革命的到來,人工智能倫理風險也將加大,“回應式”治理將無法有效應對風險,必然要走向“前瞻式”治理。有效開展“前瞻式”人工智能倫理治理,保障人工智能健康發(fā)展,不僅要加強人工智能風險理論研究,而且要塑造多元的倫理治理主體、開展多方協(xié)作的聯(lián)合治理。
關鍵詞:技術不確定性;人工智能;倫理治理;“回應式”治理;“前瞻式”治理
中圖分類號:TP18? ????文獻標志碼:A? ? ?文章編號:1002-7408(2024)02-0062-07
隨著人工智能技術的飛速發(fā)展,其在制造業(yè)、農(nóng)業(yè)、商業(yè)、教育、醫(yī)療衛(wèi)生、社會服務、新聞媒體等諸多領域都得到了廣泛應用。人工智能帶給人類的改變遠遠超出計算機和互聯(lián)網(wǎng),其“與大數(shù)據(jù)、云計算、物聯(lián)網(wǎng)等深度融合,將推動社會數(shù)字化、智能化發(fā)展,并塑造新的智能經(jīng)濟和社會形態(tài)”,成為重塑未來社會的重要力量。也正因如此,人工智能所引發(fā)的倫理問題也將不再局限于傳統(tǒng)的技術倫理問題范疇。從技術屬性來看,人工智能技術區(qū)別于傳統(tǒng)技術的地方在于其智能性,即智力和能力,人工智能雖是對人的智能模擬,但其一旦擁有了智力和能力就必將給人類社會帶來一些前所未有的新問題。不論是人工智能與人之間的新型倫理關系,還是人工智能應用將會帶來的不可預測的倫理風險,都使人工智能倫理治理成為當前科技倫理治理工作中的新問題。目前,人工智能在實際應用中已引發(fā)了諸如算法倫理、數(shù)據(jù)倫理、機器人倫理以及自動駕駛倫理等一系列問題,而如何對這些新的倫理問題進行有效治理,是擺在人們面前的重要任務。顯然,傳統(tǒng)的“有問題,再解決”的“回應式”倫理治理模式,已無法應對人工智能倫理治理需求。不可否認,“回應式”治理模式對于問題的處置具有一定的修補作用,但又因其滯后性和事后性,常常使倫理治理陷入被動甚至無效的困境之中,導致治理效率較低。對于人工智能技術來說,其智能性本身就存在理論、運行機制和功能等方面的不確定性,這些不確定性將導致巨大的倫理風險,對此“回應式”治理模式無法有效防范。因此,為應對新一輪的人工智能革命,必須變革現(xiàn)有的人工智能倫理治理模式,即從“回應式”治理走向“前瞻式”治理。
一、技術不確定性:人工智能倫理研究的必要視角
不確定性揭示的是世界的復雜性和多樣性,而技術作為人造的復雜系統(tǒng)更會增強不確定性。隨著現(xiàn)代社會技術性知識的不斷增加,我們似乎越來越能掌控這個復雜多變的世界,“但矛盾的是,它也會使事情變得更加不可預測”,“‘黑天鵝’的影響因而進一步加強”。其實,不確定性原本就是技術的本性。正如斯蒂格勒所言:“不確定性是現(xiàn)代機器固有的屬性,但它也體現(xiàn)了一切技術物體的本質?!奔夹g的不確定性不僅源于知識的不確定性,而且源于技術本身的創(chuàng)造性。正如克爾凱郭爾在《焦慮的概念》中指出的,不確定性是創(chuàng)造的源泉而不是阻礙它的活力,這就像到一個我們不知道或從未去過的地方冒險。畢竟“在一個確定性世界里,我們?nèi)绾螛嬒肴说膭?chuàng)造力或行動準則呢?”所以,技術創(chuàng)新性的動力恰恰始于不確定性。
技術的不確定性為何源于知識的不確定性?追根溯源,任何一項技術的誕生都離不開知識。通俗來說,技術是知識成果的物化。而現(xiàn)代技術更是現(xiàn)代科學知識發(fā)展的產(chǎn)物,每一次新的科學知識的誕生都會帶來技術上的革新。眾所周知,盡管知識是人類對世界認識的成果,但這種成果絕非確定的,正如科學哲學家費耶阿本德曾指出的,“知識可以是穩(wěn)固的,也可以處于流動狀態(tài)”。畢竟“知識是一個被設計用以滿足局域需要和解決局域問題的局域物品”。這不僅道出了知識是被設計的,知識逃脫不了其主觀性,而且也揭示了任何知識都有其特定的處境,是具體的、有限的。正是從這種知識相對主義出發(fā),費耶阿本德進而指出,盡管科學被視為客觀真理的化身,但作為一種知識形態(tài)其也不過是許多風俗中的一個而已,并非擁有絕對的權威性。所以,科學作為知識中的佼佼者也同樣是不確定的。耗散結構理論創(chuàng)立者伊利亞·普里戈金也指出:“人類正處于一個轉折點上,正處于一種新理性的開端。在這種新理性中,科學不再等同于確定性。”
知識不僅因其主觀性而存在不確定性,還因其表達形式而具有不確定性。知識作為一種觀念形態(tài)需要用語言來表達,從而被人們所認識和理解,因此可以說,語言是知識的承載者。然而,語言本身也具有不確定性。語言既來自于人們的生活,也服務于人們的生活,因而語言與人們的生活息息相關,即語言離不開人們特定的生活環(huán)境。正因如此,從語用學的角度來看,不確定性本來就是語言依賴于環(huán)境的必然結果。其實,人類生活的社會環(huán)境極其復雜和豐富多彩,在復雜的社會環(huán)境中,人類使用的自然語言必然呈現(xiàn)出語義的不確定性。正可謂語境決定語義,即特定的意義是在特定的場景中生成的。正因如此,皮爾斯特倫認為:“只是在我們?nèi)祟惖纳钚问?、我們做各種事情的習慣背景下,在一個共同的環(huán)境中將事物放在一起,這意味著意義和學習是可能的?!?/p>
人工智能作為一項新型技術,不僅沒有消除反而強化了技術的不確定性。從人工智能技術的發(fā)展現(xiàn)狀來看,其不確定性主要表現(xiàn)在因其不透明性和不可解釋性而造成的多種可能性和不可控性。由于人工智能是人類智能的模擬,人類智能的產(chǎn)生和發(fā)展依賴于人腦的神經(jīng)系統(tǒng),而人的大腦的 “神經(jīng)系統(tǒng)沒有那么精確”,導致“混合計算機也沒有那么精確”。其實,人工智能模擬人類智能本來就是通過不確定性推理方法完成的。所謂不確定性推理即是運用不確定性知識,推導出一定程度上不確定性結論的思維過程,盡管這種推導是合理或近似合理的。這種不確定性推理方法在人工智能的研究中具體化為控制方法和模型方法。無論是依賴于控制策略如相關性指導、隨機過程控制等的控制方法,還是依賴于大量的數(shù)據(jù)進行訓練和優(yōu)化的模型方法,實際上都是無法實現(xiàn)確定性的。而人工智能理論上的不確定性,必將直接決定其在運行機制和功能上的不確定性。這些不確定性也必然會因人工智能技術的普及應用而對傳統(tǒng)倫理產(chǎn)生挑戰(zhàn)。
物聯(lián)網(wǎng)、云計算、腦機接口和ChatGPT等數(shù)字技術的發(fā)展及其在社會領域的推廣和運用,不僅給我們帶來了新型交流和溝通的工具,而且正在逐步“普遍、深刻又無情地創(chuàng)造和重塑著人類的理論基礎與現(xiàn)實基礎,改變著人類的自我認知,重組著人類與自身以及與他人之間的聯(lián)系,并升華著人類對這個世界的理解”。正是這種重塑與重組,催生出人與人工智能之間的新型倫理關系。而人工智能技術的不確定性,無疑增強了人工智能倫理的復雜性和多樣性。這種復雜性和多樣性,不僅在認知上影響了我們對于人工智能倫理的預測和評估,也在實踐上影響了我們對于人工智能倫理問題的治理。
正因如此,對于人工智能倫理問題的治理,必須轉換視角,走出現(xiàn)代知識論的思維框架。眾所周知,現(xiàn)代知識論一直追求一種確定性,即它總是從一種假設的確定性出發(fā),試圖去預知未來,進而建立一套堅不可摧的知識秩序或知識系統(tǒng)以應對一切問題。然而,這一解決問題的理念并不適合人工智能倫理問題的研究。一方面,人工智能倫理是一種人與智能機器之間的新型倫理關系。它突破了傳統(tǒng)人與人之間的倫理關系,導致傳統(tǒng)的倫理規(guī)范在人工智能倫理治理中無法發(fā)揮其應有的作用。另一方面,通用人工智能普及會導致一些無法預知的倫理風險,使傳統(tǒng)倫理治理方法無法應對。其實,人工智能技術起源于心理學,但即便如此,心理學也無法對人工智能作出清晰的說明,“因為人工智能本身已經(jīng)提示我們:心智內(nèi)容十分豐富,遠遠超出了心理學家們先前的猜想”??梢?,目前我們還很難對人工智能的本質及其對社會的影響形成明確的認識。既然如此,現(xiàn)代知識論主導下的倫理治理模式就無法有效解決人工智能倫理問題。因此,對于人工智能倫理的研究就需要我們不僅從技術不確定性視角來審視人工智能倫理,了解其不同于傳統(tǒng)倫理的特性,而且從不確定性視角研究人工智能倫理治理目標和治理模式。
二、“回應式”治理:當前人工智能倫理治理的困境
21世紀是人工智能技術突飛猛進的時代,如今人工智能逐步成為一個龐大的產(chǎn)業(yè),它不僅蘊藏著巨大商機,也將觸角伸向人類社會的方方面面,給人們的生產(chǎn)、工作、學習和生活都帶來巨大影響。與此同時,人工智能向人類社會的全面介入促進了一種新型人機關系的形成。這種新型人機關系不僅對傳統(tǒng)倫理道德構成威脅,而且還催生出一些過去不曾有的新型倫理如數(shù)據(jù)倫理、算法倫理等。而數(shù)字鴻溝、算法歧視等這些新型倫理中的問題更是層出不窮,傳統(tǒng)倫理道德規(guī)范面臨挑戰(zhàn),傳統(tǒng)的“回應式”倫理治理模式失效。
所謂“回應式”治理模式是對已發(fā)生事件采取應對措施的方法,實為“事后修補術”。該模式遵循“先發(fā)生、后治理”的治理思路,也就是在問題暴露甚至已造成嚴重后果之后,對問題及其后果進行回應和處置。既然是事后修補,那么“回應式”治理模式必然缺乏對未來的系統(tǒng)性謀劃,因而在遇到問題時也只能是憑借過往經(jīng)驗,采取“頭痛醫(yī)頭、腳痛醫(yī)腳”的方法來處理問題。所以,這種事后和局部解決問題的模式,不僅會因缺乏方法的創(chuàng)新而無法應對層出不窮的新問題,而且還會因完全處于被動狀態(tài)而無法預先化解一些風險。
其實,這種“回應式”治理模式,在倫理治理中體現(xiàn)的是一種典型的認識樂觀主義,即在行動前過于信任知識的可靠性,從而低估甚至完全忽視不確定性的存在。這種認識論樂觀主義源自近代開始興起的決定論。我們知道,不同的治理模式取決于不同的思維方式,而“回應式”治理模式就是由決定論的思維模式所決定的。在人們的觀念中,決定論與確定性是分不開的,也即“只有確定性,才具有決定性”,只有確定性的東西才是安全的。正因如此,“我們通常習慣于決定論的思維方式,似乎這樣才有安全感”。實際上,“對確定性的追求一直是與人類相伴隨的,這是因為,確定性是人的行為能夠獲得預期結果的前提,也是人的安全感的來源”。而近代牛頓機械論自然觀的發(fā)展,更是在思想觀念上強化了人們對決定論的信仰,進而也使人們形成了決定論的思維方式。近代科學家都曾受到?jīng)Q定論思維的影響,“從牛頓到拉普拉斯,再到愛因斯坦,描繪的都是一幅幅完全確定的科學世界圖景”。在他們的觀念中,只要有一個公式“則它能確定一切,未來與過去盡在它的掌握之中”?!盎貞健敝卫砟J秸菦Q定論思維方式的產(chǎn)物,過于相信決策的確定性,而忽視不確定性的存在,從而缺乏對于未來的預判,導致遇到新問題時只能進行低效的漏洞修補。所以,“回應式”治理模式在很多問題的解決上低效甚至無效。
然而,世界并非確定的。正如物理學家玻恩所指出的,世界本來就是概率的。不僅如此,人類的心智對于世界的認識也永遠無法達到確定性,因為“我們無法計算風險、沖擊和罕見事件的發(fā)生概率,無論我們有多么復雜、成熟的模型。如今,我們實行的風險管理僅僅是對未來發(fā)生事件的研究,只有一些經(jīng)濟學家和其他狂人才會作出有違經(jīng)驗事實的斷言,稱能夠‘衡量’這些罕見事件未來的發(fā)生概率”。如果說在傳統(tǒng)技術不發(fā)達的社會,我們所遇到的新事物、新情況相對較少,因而人們還能掌控一些事情,那么在現(xiàn)代高科技時代,科技不斷變革和重塑著世界,使得“一切固定的僵化的關系以及與之相適應的素被尊崇的觀念和見解都被消除了,一切新形成的關系等不到固定下來就陳舊了。一切等級和固定的東西都煙消云散了,一切神圣的東西都被褻瀆了”。在這樣一個多變的不確定的世界里,“一切皆變、無物常駐”,傳統(tǒng)不斷被顛覆,新事物不斷涌現(xiàn)。正如耶魯大學計量經(jīng)濟學家伊恩·艾瑞斯在對大數(shù)據(jù)時代隱私保護問題的論述中提到的,“傳統(tǒng)意義上的隱私權指的是保護過去和現(xiàn)在的信息,人們沒必要擔心要不要保護未來信息的隱私。因為未來的信息還不存在呢,沒什么好保護的。但是,有了數(shù)據(jù)挖掘預測,人們就該擔心了”。同樣,面對飛速發(fā)展的人工智能技術,我們還很難預知下一個未來將是什么。所以,“回應式”治理模式必然會因忽視不確定性,而無法有效應對新型倫理問題。
隨著通用人工智能在社會生產(chǎn)、生活等領域的推廣,各國政府也紛紛開始呼吁要加強和規(guī)范人工智能技術的應用,如2021年歐盟發(fā)布關于人工智能技術的監(jiān)管法規(guī)草案、美國提案賦予社交媒體用戶禁用算法的權利等。中國基于構建人類命運共同體的立場,發(fā)布了一系列關于加強人工智能倫理治理的文件,如2021年發(fā)布的《新一代人工智能倫理規(guī)范》,強調加強人工智能技術、人工智能倫理和治理研究。盡管如此,目前人工智能倫理治理依然沒有跳出“回應式”治理模式。從人工智能倫理治理研究來看,學界已意識到人工智能對傳統(tǒng)倫理的挑戰(zhàn),并開始進行一些新的研究和探索,如以荷蘭學者維貝克為代表提出的“道德物化倫理學”,溫德爾·瓦拉赫、科林·艾倫提出的建構一種功能性道德等。這些探討都具有重要意義,但也都沒能真正走出“回應式”治理模式的困境,同樣無法應對一個未知的不確定性的未來,因為無論是道德被物化,還是被嵌入人類道德的道德機器,都無法阻止一個未知的新倫理問題的出現(xiàn)。從人工智能倫理治理的實踐來看,目前的人臉識別、自動駕駛、機器學習和算法等運用中引發(fā)的倫理問題,其解決方式多是以技術治理技術問題或對技術的應用進行控制或限制。這些方法似乎能減少人工智能倫理問題的發(fā)生,但在另一種程度上又會限制人工智能技術的發(fā)展和應用,因而也只是一種“修補術”而已。可見,無論在理論上還是實踐上,“回應式”治理模式仍然是當前人工智能倫理治理的主要模式。
由于對不確定性的忽視,“回應式”治理模式在人工智能倫理問題的治理上逐步陷入困境。首先,“回應式”治理模式缺乏風險預判機制,無法有效應對人工智能不確定性帶來的倫理風險。盡管創(chuàng)造力一直被視為人類智慧的頂峰,人們也常常認為“沒有什么有趣的人工智能可以體現(xiàn)創(chuàng)造力。但人工智能技術產(chǎn)生了許多在人類歷史上屬于新穎的、異乎尋常的以及有價值的想法”。正是人工智能技術的不確定性,才會有創(chuàng)造性,而創(chuàng)造會導致意外產(chǎn)生,因而對于意外帶來的倫理問題也必然不在人們的掌控之中。所以,“回應式”治理模式無法有效應對人工智能引發(fā)的意外。其次,“回應式”治理模式對于問題的處理立足于過往經(jīng)驗,無法及時解決人工智能帶來的倫理新問題。正如前文所言,“回應式”治理模式是由決定論的思維方式?jīng)Q定的,而決定論的邏輯是“過去決定未來”,過往的治理經(jīng)驗能夠有效解決未來的問題。然而,人工智能引發(fā)的新的倫理問題與傳統(tǒng)倫理問題截然不同,“回應式”治理模式無法有效解決人工智能應用所產(chǎn)生的倫理新問題。最后,“回應式”治理模式是一種問題的善后處理術,無法為人工智能健康發(fā)展提供先行的倫理規(guī)范,因而不能為人工智能健康發(fā)展保駕護航??傊盎貞健敝卫砟J皆谌斯ぶ悄軅惱碇卫碇兴庥龅睦Ь?,不僅大大弱化了人工智能倫理治理能力、降低了倫理治理實效,而且也因無法為人工智能技術研發(fā)和應用提供倫理先導,從而阻礙了人工智能的未來發(fā)展。
三、“前瞻式”治理:人工智能倫理治理的必由之路
人工智能技術不確定性決定了傳統(tǒng)“回應式”治理模式已不合時宜,亟須變革。“回應式”治理模式在一定程度上能起到降低和減小損失的作用,但因其缺乏對不確定性因素的考量而無法有效防范風險。人工智能技術的不確定性決定了人工智能倫理治理中風險防范要先于問題處理,這就要求人工智能倫理治理模式變革必然要從“回應式”治理走向“前瞻式”治理。
何謂“前瞻式”治理?顧名思義,它是指通過“前瞻思考”既考慮未來外界的變化,又考慮事物自身的發(fā)展,并將二者結合起來預判未來可能面臨的機遇與風險,進而采取各種措施和方法抓住機遇、防范風險,推進事物發(fā)展的活動。“前瞻式”治理由前瞻性思維方式?jīng)Q定。所謂前瞻性思維,是指從不確定性視角去思考未來,預測未來可能發(fā)生的事。概而言之,前瞻性思維是一種系統(tǒng)性、全局性、戰(zhàn)略性、開放性的思維。因而,由前瞻性思維方式所決定的“前瞻式”治理,必然具有整體布局、戰(zhàn)略規(guī)劃、主動承擔、開拓創(chuàng)新、動態(tài)預判等特點。
正因如此,對于人工智能倫理的治理,“前瞻式”治理必然是對“回應式”治理的超越。首先,人工智能的不確定性必將導致新的倫理風險,這就要求在治理過程中主動出擊,強化主體責任意識,將風險扼殺在萌芽狀態(tài)?!扒罢笆健敝卫砭哂兄黧w承擔性特點,因而在治理上不僅擁有主動權,而且能夠增強和培養(yǎng)治理者的主體責任意識。其次,人工智能倫理作為新型倫理形式,在倫理關系、準則和標準等方面都與傳統(tǒng)倫理存在很大的差異性,這就要求治理方法不斷創(chuàng)新。“前瞻式”治理具有動態(tài)預判性特點,能夠對未來的風險作出一定程度的預測,其無疑在科技發(fā)展和治理過程中遵循了“倫理先行”的原則。最后,人工智能發(fā)展規(guī)劃是一項系統(tǒng)工程,在治理過程中需要整體規(guī)劃布局?!盎貞健敝卫碇皇菓{借過往經(jīng)驗進行局部修補,無法有效解決人工智能全局性的倫理問題。而“前瞻式”治理具有全局戰(zhàn)略性特點,在治理過程中能夠避免局部修補術的弊端,從而積極推動人工智能技術健康協(xié)調發(fā)展。
值得注意的是,在人們的觀念中,“前瞻式”治理的核心是預測,而如何預測以及預測的根據(jù)何在?這似乎又回到了確定性。如何破解這一悖論需要我們轉變對不確定性的認識,也只有解決這一觀念問題才能實現(xiàn)人工智能倫理治理模式的變革。其實,不確定性并非是確定性的對立面。耗散結構理論創(chuàng)立者普里戈金雖然解構了確定性世界觀,但他同樣也反對純機遇的任意宇宙思想。他認為:“現(xiàn)今正在出現(xiàn)的,是位于確定性世界與純機遇的變幻無常世界這兩個異化圖景之間某一處的一個‘中間’描述?!币簿褪钦f,我們實際上生活在一個可確定的概率世界之中,生命和物質在這個世界里沿時間方向不斷演化,而確定性本身才是一種錯覺。既然世界具有可確定性的概率,那么就有了對未來的預測、預判的可能。也正因如此,“前瞻式”治理就是要在不確定性中尋找確定性。那么,如何在不確定性中尋找到確定性,則成為實踐“前瞻式”人工智能倫理治理的關鍵。筆者認為,可以從以下幾個方面入手解決這一問題。
首先,加強人工智能風險理論研究。雖然不確定性會引發(fā)風險,但風險本身也是不確定性的?!安淮_定性的存在意味著存在一個客觀范疇,從小到大,從風險到無知,然而,我看到風險、不確定性、無知和非決定性彼此交疊?!笨陀^存在的風險,盡管是不確定的,但如果我們能夠在認知上識別它,實際上就是從不確定性走向了確定性。我們之所以無法充分認知不確定性的風險,關鍵就在于缺乏科學的風險理論的指導,特別是對人工智能這一新興技術而言,關于其風險理論的研究并不多見。因此,人工智能倫理治理模式的變革要求我們加強對人工智能風險理論的研究,從而在加深對風險認識中消除風險的不確定性。其實,早已有學者對風險問題展開了研究,如貝克、吉登斯、盧曼、丹尼爾等思想家都在對現(xiàn)代性進行反思的過程中,從不同視角對風險問題展開過研究。但早期思想家們關于風險理論的研究主要聚焦于對工業(yè)文明帶來的社會風險的思考。目前對于人工智能技術及其應用引發(fā)的風險還缺乏深入研究,惟有在科學的人工智能風險理論指導下,才能對人工智能倫理風險作出正確的預估,從而更好地發(fā)揮“前瞻式”人工智能倫理治理模式的優(yōu)勢。
其次,塑造多元化的“前瞻式”人工智能倫理治理主體。在“前瞻式”治理中,科學預判是正確治理的前提。當然科學的預判需要明智的主體,正如司馬相如所言:“蓋明者遠見于未萌而智者避危于無形,禍固多藏于隱微而發(fā)于人之所忽者也?!币簿褪钦f,只有明智的人才能從不確定性視角審時度勢、預判未來,從而做到在危險到來之前采取措施而避開災禍。所以,在“前瞻式”人工智能倫理治理中需要培養(yǎng)明智的多元治理主體。這種多元主體應該包括政府、科技人員和廣大社會公眾等。對于政府而言,要站在戰(zhàn)略高度為人工智能技術創(chuàng)新發(fā)展指明方向,并面向未來制定前瞻性、系統(tǒng)性的風險監(jiān)管計劃和措施。對于廣大科技工作者而言,要以前瞻性和專業(yè)性的視角對人工智能的研發(fā)、應用等風險作出有效的預估。對于社會公眾而言,作為人工智能技術的受益者,需要具備防范風險的主體責任意識。正如前文所言,“前瞻式”治理的一個重要特征就是需要治理主體具備主動性和高度的責任意識。因此,在“前瞻式”倫理主體塑造中,不僅要增強社會公眾對人工智能倫理風險的敏感性,而且要培養(yǎng)其主體意識和責任意識。簡單來說,主體意識就是主體的自我意識。這種自我意識表現(xiàn)為人在同外部世界發(fā)生關系時,對于自身的主體地位、能力以及價值的一種自覺意識。而正是有了這種自覺意識,主體才有可能產(chǎn)生勇于承擔風險的責任意識。
最后,開展多方協(xié)作的聯(lián)合治理。“前瞻式”治理是一項系統(tǒng)性、全局性、全過程的治理工程,因而需要多元治理主體進行合理的分工和協(xié)作。各級科研院所要對人工智能技術進行嚴格的倫理審查,從而將人工智能技術在研發(fā)和運用過程中所可能產(chǎn)生的倫理風險降到最低。近年來,我國政府高度重視科技的倫理審查,并于2023年正式公布了由科技部、教育部、工業(yè)和信息化部等部門聯(lián)合印發(fā)的《科技倫理審查辦法(試行)》(以下簡稱《審查辦法》)。《審查辦法》明確要求:“高等學校、科研機構、醫(yī)療衛(wèi)生機構、企業(yè)等是本單位科技倫理審查管理的責任主體。從事生命科學、醫(yī)學、人工智能等科技活動的單位,研究內(nèi)容涉及科技倫理敏感領域的,應設立科技倫理(審查)委員會?!笨萍紓惱韺彶橹荚趶娜斯ぶ悄芗夹g研發(fā)的源頭減小和降低倫理風險,因而是“前瞻式”治理不可缺少的環(huán)節(jié)。此外,公眾參與也是“前瞻式”人工智能倫理治理的重要組成部分。一項完整的人工智能技術創(chuàng)新活動,應該包括從人工智能產(chǎn)品的研發(fā)到人工智能產(chǎn)品投入社會使用的整個過程。在人工智能技術研發(fā)階段,如果說倫理風險預測主要有賴于科技人員的道德想象力,那么在人工智能產(chǎn)品的實際應用階段則需要廣大社會公眾發(fā)揮重要的監(jiān)督作用。畢竟人工智能產(chǎn)品最終是面向社會公眾的,因而人工智能技術的研究離不開公眾?!爸灰裼X得難以提出和表達他們的看法,發(fā)展的代價和問題就難以估算。”也就是說,公眾參與對“前瞻式”人工智能倫理治理尤為重要。所以,社會公眾要不斷提升自身的倫理道德素養(yǎng)并積極投身到人工智能倫理治理實踐中去。惟有這樣,才能使人工智能倫理治理貫穿人工智能技術發(fā)展的全過程,從而將倫理風險降至最低。
結語
人工智能技術越發(fā)達,其所衍生出的倫理問題就越復雜,而為了確保“人工智能必須是一種支持人類智能的技術”,就要加大對人工智能倫理問題的治理。同樣,人工智能技術的創(chuàng)新發(fā)展,也使人工智能倫理風險不斷增大,如何防范人工智能倫理風險,將成為未來人工智能倫理治理的主要任務。就人工智能倫理風險防范而言,傳統(tǒng)的“回應式”人工智能倫理治理模式已然不合時宜,人工智能倫理治理模式必須由“回應式”走向“前瞻式”。雖然學界已有部分學者意識到人工智能倫理治理中風險防范的重要性,也提出創(chuàng)新技術的預期治理并對道德想象力展開研究,但目前無論國內(nèi)還是國外對于人工智能倫理問題進行“前瞻式”治理的研究尚未全面展開。因此,對于“前瞻式”人工智能倫理治理模式實踐的可行性路徑還需要長期的探索和研究。
參考文獻:
[1]?莫宏偉, 徐立芳. 人工智能倫理導論[M]. 西安:西安電子科技大學出版社,2022:1.
[2]納西姆·尼古拉斯·塔勒布. 反脆弱:從不確定性中獲益[M]. 雨珂,譯.北京:中信出版社,2023:前言.
[3]貝爾納·斯蒂格勒. 技術與時間[M]. 裴程,譯.南京:譯林出版社,2000:83.
[4]KIERKEGAARD S.The concept of anxiety: a simple psychologically orienting deliberation on the dogmatic issue of hereditary sin [M]. THOMTEEDR. (ed.& trans.) Princeton: Princeton University Press,1980:187.
[5]伊利亞·普里戈金. 確定性的終結:時間、混沌與新自然法則[M]. 湛敏,譯.上海:上海科技教育出版社,2018.
[6]保羅·費耶阿本德. 告別理性[M]. 陳健,柯哲,陸明,譯.南京:江蘇人民出版社,2002.
[7]江怡.后期維特根斯坦論確定性與不確定性[J].山西大學學報(哲學社會科學版),2022(3):1-9.
[8]馮·諾伊曼. 計算機與人腦[M]. 甘子玉,譯.北京:北京大學出版社,2010:5.
[9]盧西亞諾·弗洛里迪. 第四次革命:人工智能如何重塑人類現(xiàn)實[M].王文革,譯.杭州:浙江人民出版社,2016:前言.
[10]瑪格麗特·博登. 人工智能的本質與未來[M]. 孫詩惠,譯.北京:中國人民大學出版社,2017.
[11]付長珍,成素梅,劉梁劍. 量子論、量子思維與面向未來的科技倫理:錢旭紅院士訪談[J]. 華東師范大學學報(哲學社會科學版),2022(2):29-37+174.
[12]張康之, 張乾友. 人類追求確定性的歷史足跡[J]. 浙江學刊, 2011(2): 138-145.
[13]李德毅,杜鹢. 不確定性人工智能[M]. 北京:國防工業(yè)出版社,2005: 58.
[14]伊薩克·牛頓. 自然哲學之數(shù)學原理[M]. 王克迪,譯.武漢:武漢出版社,1992: 689.
[15]馬克思恩格斯選集:第1卷[M]. 北京:人民出版社,1995:275.
[16]伊恩·艾瑞斯. 大數(shù)據(jù)思維與決策[M]. 宮相真,譯.北京:人民郵電出版社,2014:176.
[17]WYNNE B. Uncertainty and environmental learning: reconceiving science and policy in the preventive paradigm[J]. Global Environmental Change, 1992, 2( 2) : 111-127.
[18]司馬遷. 史記[M]. 楊燕起,譯注.長沙:岳麓書社,2021: 3552.
[19]科技倫理審查辦法:試行[EB/OL].(2023-10-08)[2023-10-16]. https://baijiahaobaiducom/s?id=1779182029627860414&wfr=spider&for=pc.
[20]安德魯·芬伯格.可選擇的現(xiàn)代性[M].陸俊,嚴耕,譯. 北京:中國社會科學出版社,2003:中文版序言.
[21]沃爾夫岡·霍夫基希納.人工智能的未來:“慈愛的機器”還是“交際的工具”[J].重慶郵電大學學報(社會科學版),2022(4):56-61.
【責任編輯:何妮】
基金項目:安徽省哲學社會科學規(guī)劃項目“數(shù)字技術的隱性意識形態(tài)風險與防范研究”(AHSKY2022D228)。
作者簡介: 吳興華( 1970—) ,女,安徽舒城人,安徽師范大學馬克思主義學院教授,哲學博士,研究方向:西方馬克思主義、科學技術哲學。