徐瑞萍,劉 杰
(1.佛山科學技術學院 法學與知識產權學院,廣東 佛山 528000;2.佛山科學技術學院 馬克思主義學院,廣東 佛山 528000)
當今社會,諸如智能制造、智慧城市、航空航天以及醫(yī)療、教育、建筑、能源等行業(yè)都紛紛引入了數字孿生技術。2020 年4 月國家發(fā)改委特別指出要將數字孿生作為支撐數字化轉型的基礎設施和技術創(chuàng)新賦能的關鍵對象。數字孿生已經進入我國國家發(fā)展戰(zhàn)略,具有廣闊的應用前景,一個以“虛實映射、實時同步、共生演進、閉環(huán)優(yōu)化”為特征的數字孿生時代正悄然來臨。數字孿生時代的到來使算法技術不斷滲透進我們的生產領域和生活世界,并以海量數據驅動下的算法為核心實現數字化轉型。事實上,數字孿生時代,各類人工智能算法能夠幫助數字孿生體解決大量復雜的任務,包括訓練出面向不同場景需求的模型,以及完成診斷、預測及決策任務。[1]當然,任何事物都具有兩面性——我們在高度重視算法技術為社會生產生活帶來重要作用的同時,也要關注其應用帶來的風險挑戰(zhàn),如算法偏見、算法歸責難等。更需引起注意的是,這些風險挑戰(zhàn)背后涉及的是社會倫理問題。因此,在算法技術日益廣泛滲透的當下,厘清算法風險的倫理問題,分析其產生原因并探尋治理對策,有助于算法技術在數字孿生時代的健康向善發(fā)展。
隨著物聯網、互聯網、云計算、大數據、人工智能、算法、VR、AR 等諸多技術的集成,數字孿生技術框架得以成熟。其中,算法技術是指采取數學模型建構來解決某一類問題的方式。提出數字孿生的目的就是從根本上解決物理世界的數字化,讓物理世界的運行實現低成本和可持續(xù)改進等目標。因此,正是算法技術使得解決物理世界的問題的成本降低、效率提升以及實現全生命周期持續(xù)改進??茖W技術作為先進生產力的重要標志,大大促進了社會和人的發(fā)展。但是,在具體的實踐中,科學技術往往也會帶來一些風險挑戰(zhàn)。數字孿生時代,算法技術發(fā)展進程中引發(fā)了算法偏見、算法歸責難、人類主體的自主性削弱、隱私泄露和數據濫用、數字鴻溝、人與算法的矛盾等倫理風險。
數字孿生作為一種理論模型最早由美國密歇根大學邁克爾·格里夫教授提出,指在信息空間建構一個可以映射表征物理設備的虛擬系統(tǒng),物理設備和虛擬系統(tǒng)之間可以在產品的全生命周期內實現雙向的、動態(tài)的聯系。數字孿生的概念被廣泛運用于航空航天、船舶、城市管理、建筑、工業(yè)制造、電力、金融、健康醫(yī)療等多個行業(yè),成為打造數字化社會、進行數字化治理的重要抓手。當前數字孿生應用最為成熟的行業(yè)當屬智能制造,在產品研發(fā)的過程中,數字孿生可以虛擬構建產品數字化模型,對其進行仿真測試和驗證。在生產制造階段,可以模擬設備的運轉和參數調整帶來的變化。在維護階段,采用數字孿生技術通過對運行數據的連續(xù)采集和智能分析,可以預測維護工作的最佳時間點、提供維護周期的參考依據、提供故障點和故障概率的參考。數字孿生為智能制造帶來了顯而易見的效率提升和成本下降。
相較于既有的數字化技術,數字孿生具有四個典型的技術特征:虛實映射,即數字空間中的孿生體和現實世界中的物理對象可以實現雙向映射;實時同步,即孿生體通過實時獲取到多元數據可以全面、精準、動態(tài)反映物理實體的狀態(tài)變化;共生演進,即數字孿生所實現的精準映射能夠覆蓋產品的全生命周期,并隨著孿生對象生命周期進程不斷演進更新;閉環(huán)優(yōu)化,即數字孿生體通過描述物理實體的內在機理,分析規(guī)律、洞察趨勢,基于分析與仿真對物理世界形成優(yōu)化指令或策略,實現對物理實體決策優(yōu)化功能的閉環(huán)。
數字孿生以數字化方式拷貝一個物理對象,模擬對象在現實環(huán)境中的行為,為了達到物理實體與數字實體之間的互動需要經歷諸多的過程,也需要很多基礎技術作為依托,更需要經歷很多階段的演進才能很好地實現物理實體在數字世界中的塑造。數字孿生技術體系包括物理層、數據層、運算層、功能層和能力層五個層次,分別對應數字孿生的五個要素:物理對象、對象數據、動態(tài)模型、功能模塊和應用能力。
物理層所涉及的物理對象既包括物理實體,也包括實體內部及互相之間存在的各類運行邏輯、生產流程等已存在的邏輯規(guī)則;數據層的數據來源于物理空間中的固有數據,以及由各類傳感器實時采集到的多模式、多類型的運行數據;運算層作為數字孿生體的核心,可以利用多項先進關鍵技術,包括云計算、人工智能、算法等,將來自數據層的大量數據進行分析,并能夠支持功能層實現數字孿生系統(tǒng)的認知、診斷、預測和決策;功能層的核心要素“功能模塊”是指由各類模型通過或獨立或相互聯系作用的方式形成的半自主性的子系統(tǒng);最終,通過功能模塊的搭配組合解決特定應用場景中某類具體問題的解決方案,在歸納總結后會沉淀為一套專業(yè)知識體系,這便是數字孿生可對外提供的應用能力,也可稱為應用模式。
位于運算層的算法技術可謂數字孿生系統(tǒng)之靈魂,是數字孿生系統(tǒng)進行預測、決策的重要技術支持。在數字孿生系統(tǒng)中,大量來自物理實體的實時數據會驅動各類算法完成診斷、預測和決策任務,并將指令傳遞到現實世界中去??梢哉f,離開算法,數字孿生的技術價值是無法實現的。
算法技術的價值在數字孿生時代得到了進一步的彰顯。與此同時,算法技術的應用過程也引發(fā)了諸如算法偏見、算法歸責難、人類主體的自主性被削弱、數字鴻溝、隱私泄露和數據濫用、人與算法的矛盾等一系列風險挑戰(zhàn)和倫理問題。
1.算法偏見
進入數字孿生時代,孿生世界和物理世界實現實時互動。數字孿生既可以接受物理世界的實時信息,又能夠反過來實時驅動物理世界。比如,交通擁堵的疏解指令能夠及時傳遞到城市交通指揮系統(tǒng),候車人流高峰時段公交車輛的派發(fā)能夠智能化調度。算法技術在數字孿生中扮演著“決策分析和制定者”的重要角色,來自現實中的問題交付給算法,一方面依靠算法設計人員設計運作規(guī)則,另一方面依靠搜集和存儲的數據,是二者共同作用的結果。但是,算法設計人員存在主觀價值偏差。中國大數據領域有影響力的專家周濤指出,“令人不安的是,由系統(tǒng)設計人員引入的初始偏見,伴隨著數據的累積和算法的運作有可能逐漸地進一步強化放大?!保?]同時,來自物理世界中的數據也并不能做到全覆蓋。這兩方面因素共同導致算法產生偏見,于是在數字孿生框架中算法技術繼承和放大了人類偏見[3],做出了非中立的、差異性的決策。
深度學習算法是算法技術的進一步發(fā)展,指能夠自主學習、自主編程、自主發(fā)展的學習算法,可以用來解決更復雜的任務。但也正是因為算法深度學習這一特性,使得算法偏見問題更加棘手。當算法具備深度學習能力時,即算法通過對輸入數據的不斷深入學習可以實現新的運作規(guī)則的創(chuàng)建,如果輸入給算法的是大量帶有偏見性的數據,那么算法就會通過自主學習形成新的帶有偏見色彩的運作規(guī)則。
算法技術設計發(fā)展的根本目的本應是造福人類,但是現實卻相反:由于算法越來越具有生命屬性,算法偏見已成為最易引發(fā)的算法倫理風險[4]。人們并沒有在算法技術發(fā)展過程中獲得公平公正的對待,而是導致了非公正、非中立的社會問題出現。數字孿生時代不乏算法偏見的案例,數字孿生技術賦能金融風控,由于缺乏正當性的信用評級體系,引發(fā)大范圍的歧視問題??梢哉f,算法偏見問題嚴重違背了公平原則,損害公眾基本權利和個體利益。
2.算法歸責難
算法技術是一種程序式的代碼,一方面,由于信息不對稱和不公開,導致算法的運作方式和背后機理于絕大部分人而言是難以理解的;另一方面,算法技術從數據輸入到決策結果輸出的決策過程不可解釋。人類可以非常明確地感受到算法對其產生的影響,但是卻不能對其內部原理和運作機制一探究竟。這兩方面的原因共同促使形成“算法黑箱”問題。
正因為算法黑箱問題的存在,算法技術的道德責任追究成為難題,這也一度成為學術界的研究熱點,主要集中在:算法技術不透明、不公開導致歸責難。安德魯·塔特(Andrew Tutt)提出算法責任挑戰(zhàn)主要在于:算法責任測量難、危害追蹤難、責任分配難。[5]首先,算法責任測量難。例如,自動駕駛汽車在緊急情況下做出犧牲小部分人(乘客或者路人)保全大部分人的決策,如何測量此類算法行為的責任我們仍然沒有明確的方案。其次,算法危害追蹤難。以智慧城市建設為例,算法作為公共資源分配和社會治理的主角,但算法可能會因為種族、性別等導致不公平的結果。然而,由于算法設計人員、輸入數據等都有可能導致算法偏見這一危害,所以對該危害的確定性來源的追蹤具有很大的挑戰(zhàn)性。最后,責任分配難。一項算法的設計囊括多個參與主體,同時算法又可以被標價買賣,從而會應用在多種場景中,一旦算法產生危害,數據提供者、算法設計者、算法使用者等多方利益相關人員的責任難以劃分。
3.人類主體的自主性被削弱
由于智能算法功能的強大,而人類對其存在的缺陷認識不足,導致人類對于智能算法技術的過度依賴并進而產生算法技術崇拜。隨著數字孿生的越來越廣泛的應用,算法技術已經越來越多地嵌入人類認知活動,深刻地影響著人類的判斷和決策,在人類面前樹立起了高大偉岸的形象。但是,試想如果人類的所有決策、判斷都完全放手于算法,就有可能走向唯算法主義,使人類自身的自主性被嚴重削弱。由于算法的主體性和人類的主體性呈現此消彼長的態(tài)勢,算法自主性增強的同時作為主體的人類自主性削弱,甚至出現主體隱匿[6]。人類的行為軌跡被數據化,利用算法實現對人的行為的記錄、分析、調控。一個被記錄、被解析的解析社會正悄然來臨。雖然算法技術功能強大,但與此同時,人的主體性被減弱,久而久之,人類可能陷入被技術人造物控制的尷尬境地。正如德國哲學家京特·安德斯指出,盡管人類一直堅信“創(chuàng)造是人的天性”,但是人們面對其創(chuàng)造物時,卻愈發(fā)有一種自愧弗如與自慚形穢的羞愧,此羞愧堪稱“普羅米修斯的羞愧”——在技術面前,這種“創(chuàng)造與被創(chuàng)造關系的倒置”使人成了過時的人。[7]
4.數字鴻溝風險
數字孿生時代,算法技術為我們帶來極大的便利,與此同時,我們也要警惕數字鴻溝風險。一方面,信息不對稱、不透明以及算法技術的知識技術門檻,客觀上會導致并加劇信息壁壘、數字鴻溝等違背社會公平原則的現象與趨勢。如何縮小數字鴻溝以增進人類整體福祉、保障社會公平,這是一個具有世界性意義的倫理價值難題。另一方面,算法技術的設計、使用程度都與當地經濟發(fā)展水平、人才水平密切相關,這也會造成數字鴻溝。數字孿生時代,利用物聯網等技術對城市運行各項數據進行搜集、存儲,算法技術可以實現賦能城市治理,輔助人類做出合理的城市治理決策。如抗擊新型冠狀病毒期間,全國各地推行了出行需出示健康碼政策,在疫情防控中發(fā)揮了重要作用,但令人遺憾的是老年人以及其他無法使用網絡的弱勢群體卻被殘酷地“阻擋”了出行的腳步。因此,如何利用算法賦能社會各領域,并實現發(fā)達地區(qū)與欠發(fā)達地區(qū)算法技術的共享,助推各地區(qū)共同發(fā)展,讓算法技術造福全人類,是社會各界不容忽視的重要問題。
5.隱私泄露和數據濫用
算法作為數字孿生的基底,是一種全新的認識世界和改造世界的方法論。數字孿生與社會的聯系日漸緊密,算法對社會產生的影響更為深刻。算法以大數據和機器深度學習為基礎,并且具有越來越強的自主學習和決策能力。算法技術越“會算”,就越需要個人信息數據作為其迭代升級的“養(yǎng)分”。獲取、存儲和分析海量的個人信息數據時,難以避免會牽涉?zhèn)€人隱私保護這一重要的倫理問題。數字孿生時代,在人類不知情的情況下,各類數據信息采集無孔不入,人類的隱私化身成數據存在于數字化空間中,不斷地被存儲、復制和傳播。譬如,數字孿生時代,智慧城市建設使得每個城市必須管理自己的數字孿生兄弟。值得警惕的是,數字孿生城市數據來源面廣、接入點多,數據集中度高,城市的基礎設施高度依賴數據的運行,一旦被入侵,其安全危害就很大,整個城市的運行會瞬間癱瘓。最重要的是,城市的很多數據涉及公民隱私,需要有效保護。若我們不能有效地管控算法技術,就會造成使人類隱私“裸奔”的嚴重倫理風險。個體數據權利因此受到前所未有的重視,歐盟2018 年5 月頒布的《一般數據保護條例》(GDPR)中鄭重強調了個人數據就是保護的主體,同時明確界定了數據的獲取權、修改權、被遺忘權、數據可攜帶權、異議權等數據主體的權利。人類應該充分發(fā)揮自身能動性的優(yōu)勢,找回人類的主導權,主動、積極地參與到數字畫像過程中,使人類有權決定對自己的數據進行處理與洞察,減少數據濫用,降低對數據主體的傷害。
6.人與算法技術的矛盾
數字孿生時代,面對日益強大的算法技術,一方面,人類使用并驚喜于算法的便利、高效,并逐漸產生對算法的依賴。例如,數字孿生醫(yī)療中電子病歷、疾病注冊庫和可穿戴設備中的數據可用作創(chuàng)建患者的“數字模型”,根據患者目前的狀態(tài),數字孿生技術可以將各種數據呈現給醫(yī)護人員,算法幫助醫(yī)護人員及時判斷可能會發(fā)生的緊急情況并提前做出應對措施。擁有算法技術的“加持”,醫(yī)護人員能獲取更多有價值的信息,幫助他們?yōu)榛颊咛峁└咝Ц行У淖o理服務。另一方面,就如同庫茲韋爾指出的人工智能爆發(fā)的奇點,人類開始擔憂能否一直掌控算法技術。算法技術越來越智能,人類就越容易提出這樣的問題:算法技術這一人工智能是否可能超越人類智能?算法技術是否可能帶來巨大風險而人類不知曉甚至無法預知?算法技術是否可能逐漸演變?yōu)橐环N不受人類控制的自主性的力量?諸如此類的問題不勝枚舉,反映出數字孿生時代人與技術之間的矛盾關系。
在數字孿生時代,算法技術引發(fā)一系列倫理風險挑戰(zhàn),算法的復雜性、人的認知失衡、算法設計者的價值偏差和公眾算法素養(yǎng)亟待提升這幾個方面是引發(fā)上述倫理風險挑戰(zhàn)的成因。
首先,就算法自身而言,算法是一項非常復雜的技術。假設追溯分析算法本身的道德責任,實際上計算量是非常具有挑戰(zhàn)性的。例如,深度學習算法存在數以千計的數學函數,并由函數構成了無數的連續(xù)軟件層,現在的網絡可達兩百多層。而且算法技術在加工信息時是非線性的變換,當信號傳遞到深一層的函數時,信息的復雜度也會指數級增長。實際上,當前的算法還遠遠達不到可理解性和值得信任的要求。其次,就算法關涉的因素而言,包括人的需求和利益、當前的技術、設計開發(fā)者水平、社會環(huán)境等,這些因素之間相互影響、相互作用,共同促進算法技術生成,并且算法技術的復雜性與解決問題的復雜性呈正相關,所要解決的問題越復雜,算法的代碼構成就越復雜。隨著人類要解決的問題越來越復雜,人類在設計過程中就會忽略一些因素,人類也就會越來越難以駕馭算法,導致算法產生一些不可預測的后果。算法的復雜性導致算法的運作結果無法被我們準確地預測,因此可能會出現一些出人意料的結果,我們無法對其予以約束控制。
算法技術作為人的技術設計產品,無論如何都會受到人的認知水平的限制。一方面,算法設計人員可能存在算法知識盲區(qū),在算法設計過程中可能存在不甚了解的算法知識,導致算法設計與初衷背離;另一方面,人類在進行算法技術設計的時候,更多地會從功利主義角度出發(fā),考慮的是算法技術的商業(yè)價值,人文價值被忽視,道德意蘊被拋棄。這樣,算法技術帶給我們的只是生存、生活的量的提升和效率的變革,但是質的飛躍卻無從談起。
價值與算法是相伴的,可謂每一種算法技術內部都內嵌著價值[8]。從哲學的角度來看,價值是指客體能夠滿足主體需要的效益關系。費利西塔斯指出,“算法存在價值負荷,擁有不同價值判斷的人會使用不同的算法來處理問題,因而會設計出不同的算法”[9]。算法技術的價值對不同的人而言是不同的,因此價值觀念、利益訴求不同的主體會設計出不同的算法技術或者選擇不同的算法技術。個體之間的價值觀偏差就導致算法存在一定的偏見、歧視風險。如果是算法設計者有意為之,即算法設計者權衡利益之后進行特定設計,那就是有目的的人造風險。這種風險的規(guī)避只能從準確認知算法中的價值觀念出發(fā)。
算法素養(yǎng)是指算法設計者和算法使用者與算法共處時應該具備的品格和能力。同時,算法素養(yǎng)是一種多元素的素養(yǎng),包括算法意識、算法認知、算法思維、算法倫理、算法價值理性以及構建人與算法的和諧共生關系。公眾不斷提升自身算法素養(yǎng)在數字孿生時代具有重要意義,一方面,人類可以深刻地認識到算法技術在數字孿生時代的重要時代價值,助力算法技術向上向善發(fā)展,不斷促進算法技術賦能社會生活各領域,從而為人民群眾創(chuàng)造美好生活;另一方面,人類可以更好地應對數字孿生時代的算法風險挑戰(zhàn)。然而,當下公眾的算法素養(yǎng)跟不上技術飛速發(fā)展的步伐,明顯低于數字孿生時代的要求,亟須提升。
在進一步深入探討數字孿生時代算法風險的倫理治理之時,還須清晰認知算法風險的倫理治理所應遵循的根本原則。
要確保人類始終處于主導地位,防止算法技術這一人造物超出人類的可控范圍。雖然已有研究指出,算法具有擬主體性,但是人類仍然并將始終是主導者。算法要能夠尊重使用者,尊重社會文化,避免人類的利益、尊嚴和價值主體地位受損,確保算法技術持有與人類相同的價值觀,始終堅守不損害人類自身的道德底線,實現造福人類的正確價值取向。當算法技術替人類做出決策時,應該尊重人的主體價值,讓人類處于主導地位。以算法技術賦能醫(yī)療為例,判斷一個人是否會生病以及診療方案的選擇應該讓醫(yī)生處于主體地位,在尊重醫(yī)生的選擇判斷的基礎上參考算法技術的意見。如果不能讓人類處于主導地位,那么技術作為人造物就會反過來控制人類,讓人類喪失主導權。
算法技術必須是安全、可控的,這是算法倫理中的首要原則。要保證企業(yè)和用戶的隱私安全以及與此相關的政治、經濟和文化安全,對于危及人類安全的算法技術,應該果斷舍棄,不應因為功利價值而忽視最重要的安全問題。此外,要保證算法不被濫用,黑客、犯罪團伙、敵對勢力等為了獲取非法私利而更改、破解算法,危害人的生命財產安全、破壞社會穩(wěn)定、嚴重危害國家安全的行為應當明令禁止,嚴厲打擊。因此,對于科學技術的發(fā)展,需要人類嚴格審慎地權衡取舍。例如,數字孿生建筑的算法系統(tǒng)中,存在于多種設備和終端上的數據,包括設計數據、機械(電氣、管道)系統(tǒng)運行數據、環(huán)境數據、施工數據以及零件和運維數據等,是使數字孿生建筑算法系統(tǒng)運作的重要動力源,若數據泄密甚至數據被惡意更改,將會引發(fā)重大的安全問題。因此,明確算法技術的安全可靠原則至關重要,必須將算法技術嚴格限制在安全的軌道上運行。
算法技術應為廣大人民群眾帶來福祉、便利和享受,而不能僅成為少數人的專屬。算法技術應該體現對算法使用者中的弱勢群體提供更多的包容和理解,不應因身份、地位和財富、性別等不同而差異對待,應該讓算法技術滿足廣大人民群眾的基本需求和對美好生活的向往。與此同時,應鼓勵公眾提出質疑和有價值的反饋,保障公眾參與以及個人權利行使,從而共同促進算法技術產品性能與質量的提升。算法技術使用中始終秉持以人為本、為廣大人民群眾謀福利才是算法技術的正確發(fā)展方向,才是算法技術造福全人類的價值彰顯。
在數字孿生時代,算法技術的廣泛應用更要求其遵循公開透明原則。算法技術透明重點強調的是包括算法的代碼、內容、形式以及使用、組織、管理等信息的公開、透明。算法技術要做到公開透明,禁止過時、錯誤、片面或帶有偏見的數據輸入算法,以防止算法技術對特定人群產生偏見和歧視。因為算法技術門檻較高,大多數算法使用者由于專業(yè)和知識的限制難以知曉算法的代碼、內容及其運作方式,這就導致算法使用者對于算法的安全、質量和有效性的認同存在滯后性,這在一定程度上不利于算法技術的順利發(fā)展。因此,公開算法的相關信息,增強公眾對于算法的認知、識別,既能讓算法使用者更加安心使用,又能讓算法技術更加順利發(fā)展。
公正是我國的社會主義核心價值觀念之一。社會主義核心價值觀是我國的主導社會價值觀,其價值觀念就是打造平等社會、消弭偏見。算法偏見根源是算法設計人員將社會中存在的偏見帶入算法,或者算法依賴的訓練數據也存在偏見,甚至隱私保護中也可能存在偏見。因此,解決算法偏見問題的根本就在于遵循公正原則,消除現實世界中的不公正,并盡可能避免在算法技術中引入新的不公正。
為保障算法技術的良性運行和創(chuàng)新發(fā)展,需要進行倫理治理,在秉持尊重人類主體、安全可靠、以人為本、公開透明、公正五項基本原則的基礎上進行算法技術的倫理設計,創(chuàng)新制定倫理準則,努力引入責任倫理,集聚合力協(xié)同共治,提升公眾算法素養(yǎng)。
算法是價值負荷的,必然對社會的倫理、政治和文化等價值都有可能產生直接的影響。如果想要算法技術的發(fā)展符合倫理,那么從這項技術設計之初就應該遵循倫理原則。技術領域的“道德物化”是現代技術倫理發(fā)揮效用的一種新興研究思路,即通過對技術進行恰當的設計,將道德理念“嵌入”技術人工物的功能之中,使技術人工物在使用的過程中,能夠從道德意義上引導和規(guī)范人的決策和行為。在某種意義上,技術就是物理空間中的算法,算法就是賽博空間中的技術[10]。算法和技術的強內在一致性使得算法技術可以按照這一思路進行設計:算法技術做出的決策應該是道德可接受的、合乎倫理原則的,甚至算法輸出的結果是可以引導人類向善,從而幫助人類做出明確的符合道德準則的決策。
首先,“算法從善”道德形態(tài)的構建,是一種人工構建,依附于人類主體模式的道德建構,算法只有體現或遵循人類主體模式下的“善法”,才能以有責任感的方式推進道德算法的進化及其在機器中的嵌入[11]。因此,人類尤其是作為算法技術人造物設計主體的算法技術設計人員,應該具備一定的倫理學知識、道德判斷和推理能力,保持對道德問題的敏感度,能夠將這種倫理學知識嵌入到算法技術設計中,將義務論、后果論、境遇倫理和契約倫理融入算法程序設計中。這體現了對算法技術人員學術性和技術性的雙重挑戰(zhàn)。其次,作為依靠數據推動的一項技術,要確保采用的訓練數據是客觀中立的,讓算法通過自主學習形成穩(wěn)定的道德推斷模式,能夠做出合乎倫理的道德決策。
在面對一項新技術的倫理問題時,一般情況而言,我們不能運用演繹的思路依賴已有的或者新創(chuàng)制的規(guī)則,自上而下地進行處理;反而我們需要自下而上地分析處理這些倫理問題,考慮其特點并權衡利益相關者的價值,尋求解決之道,再應用倫理學的理論和原則加以論證。[12]因此,在制定算法技術倫理準則時,要自下而上尋找解決問題的方法,提高倫理準則的實效性。
首先,制定公平正義的倫理準則。一方面要關注倫理準則自身的公平與正義,只有公正的規(guī)則,才能獲取民心、廣得美譽,更好地被信服與納用;另一方面要確保倫理準則被寄予善的價值目標,只有具有正能量的動力因素,才有存在與被采用的價值,而且在潛意識被“利己主義”攻城略地的數字孿生時代,利益的引誘極易使社會成員走向“一切向錢看”的錯誤道路,為減少此種不諧事件,我們需要倫理準則中“善”的指引與約束。其次,不斷更新與完善倫理準則。隨著算法技術的深入發(fā)展,現行的具體倫理準則確實已經很難真正保護好我們的隱私,這是不容忽視的現實。在迅速興起的數字孿生時代,原有的倫理準則的滯后問題日益凸顯,因而要結合數字孿生時代的發(fā)展要求與時俱進、不斷完善。再次,發(fā)揮傳統(tǒng)倫理思想的約束力。傳統(tǒng)倫理思想可為現代倫理道德建設提供重要而又有效的思想資源,尤其是“仁”的觀念、“誠”的思想、“義利”之辨和“慎獨”精神。[13]借助傳統(tǒng)道德思想的約束力,提升倫理準則的實效性。最后,促進自然科學領域和人文社科領域的專家形成良性對話機制,雙方合力制定算法倫理準則。中國作為人工智能發(fā)展大國,卻沒有制定適合我國數字化社會發(fā)展需求的算法倫理準則,實為一項亟須解決的問題。因此,我國可以參照歐美國家制定的在全球范圍比較有影響力的算法倫理準則,在此基礎上形成具有中國特色的算法倫理準則,助力我國算法事業(yè)的發(fā)展。
首先,明確劃分責任人。算法技術設計人員要明確樹立對發(fā)明創(chuàng)造的技術負責的責任意識,能夠向公眾客觀闡明自己設計的算法技術成果利弊。其次,樹立全民責任意識。數字孿生時代所有人都享受了算法技術帶來的福利,對此,數字孿生時代下的每一位公民有義務承擔起合理合情使用算法技術、防止算法技術濫用的責任。最后,政府和算法技術人員要承擔主要責任。政府要通過制定相關政策,推動和監(jiān)管算法技術向上向善發(fā)展,算法技術人員要更新技術觀念,摒棄技術與道德的錯誤觀念,以善良道德引導算法技術發(fā)展方向。從算法技術設計之初到應用的全部過程都要保持道德合理。
倫理治理是依靠社會各群體對道德的傳揚來加強對社會的治理,須弘揚社會“善”的主旋律。數字孿生時代算法風險的治理需要社會治理的合力與倫理治理有效結合,協(xié)同共治,以提高治理的效力。
首先,倫理與法律互補。法律的制定是在道德的基礎上產生的,但是法律的權威性和實際效力是凌駕于道德之上的。于是,倫理引導與法律治理的結合將對當今社會公民起到內外雙重影響的作用。既在心靈層面給人以約束,讓人的行為回歸“善”的本原,也能促進人的外在行為符合善的要求,以符合法律的規(guī)章制度。具體而言,應利用法律規(guī)范輸入數據的采集、利用和共享,保證算法的運作透明、公正,同時根據算法應用的成熟程度及其影響范圍來區(qū)分算法政策的優(yōu)先級。其次,倫理與監(jiān)管互助。一方面監(jiān)督行為要具有善的目的,符合倫理需求,且提高監(jiān)管的公正、有效性;另一方面?zhèn)惱碇卫淼耐菩幸残枰谋O(jiān)督與管理,以提高倫理治理的實際效力。因此,算法技術發(fā)展需要在倫理治理下,政府進行進一步的監(jiān)督、落實。尤其算法背后潛藏著資本權利和企業(yè)利益,需要政府干預防止算法權利異化。例如,2022 年1 月4 日國家互聯網信息辦公室、工業(yè)和信息化部、公安部、國家市場監(jiān)督管理總局聯合發(fā)布了《互聯網信息服務算法推薦管理規(guī)定》。該規(guī)定明確指出了算法推薦服務提供者的信息服務規(guī)范,包括建立健全用戶注冊、信息發(fā)布審核、數據安全和個人信息保護、安全事件應急處置等管理制度和技術措施,切實維護公民的合法權益。最后,倫理與技術互協(xié)。脫離技術實際問題的倫理治理是空泛的、無力的;不被賦予倫理道德價值觀的技術是無界限、無底線的。給研發(fā)的技術賦予一定的道德意念,將有效預防算法技術風險;被賦予倫理價值意義的技術研發(fā),能切實防范算法倫理風險。
面對數字孿生時代一系列算法風險倫理問題,人類要做的應該是敢于去面對技術,承擔原本屬于人的責任。提升公眾自身的算法素養(yǎng),在當下就顯得十分重要。
首先,加強公眾的算法認知教育。通過對公眾進行算法認知教育,使其真正認識到,數字孿生時代,雖然算法技術面臨著風險挑戰(zhàn),但其具有重要的時代價值:精準預判、全生命周期管理、幫助人類更快更優(yōu)做出決策等,所以我們也要看到算法技術為人類創(chuàng)造幸福生活做出巨大貢獻,造福人類。因此,重要的不是苛刻地要求算法在其應用過程中完全不能存在任何的偏差或歧視,而是要以更為實際的態(tài)度評估算法;在此基礎上,再通過協(xié)調算法各方相關利益者,探討制定改進與創(chuàng)新算法治理的機制。其次,引導公眾弘揚算法倫理。通過倫理教育,使算法技術人員樹立責任倫理意識,引導算法技術向善發(fā)展。在算法設計之初,對人類倫理道德價值與行為規(guī)范,諸如“生命權、隱私權、福利、公平”等進行充分考慮,使其能夠尊重生命、保障人類權益、增進人類福祉、維護社會公正。大學生和研究生群體要接受人文與倫理教育,深入認識和學習作為科技主體應當具備的道德意識、道德判斷力以及肩負的道德責任。最后,公眾要與算法技術構建和諧共生關系。對算法技術的盲目恐慌和崇拜都是不可取的行為,唯有批判地看待算法技術,認識到算法技術的優(yōu)劣,維護人的主體地位,理性對待和處理人與信息、人與機器、人與科技以及價值理性與工具理性、技術可能性與倫理合理性之間的關系[14],才能實現人與算法技術的和諧共生。