何志權 何玉鵬 曹文明
摘要:當前,我國人工智能技術飛速發(fā)展,但該領域內的工程倫理教育卻遲滯于技術的發(fā)展,正逐漸受到重視。為此,文章在總結電子信息工程和人工智能技術特點的基礎上,提出了目前人工智能領域工程倫理教育中存在的三大問題,從不同維度反映了目前工程倫理教育面臨的挑戰(zhàn)。隨后,探討了以人為本的責任倫理解決方案,倡導具有人文溫度、規(guī)范創(chuàng)新、價值引導等工程倫理理念和方法,把工程倫理原則轉化為倫理實踐成果。
關鍵詞:工程倫理; 人工智能;? 責任倫理; 以人為本;公共福祉
中圖分類號:TP3? ? ? ? 文獻標識碼:A
文章編號:1009-3044(2022)11-0084-02
1 引言
工程活動是現代社會存在與發(fā)展的重要驅動力,反映了人與自然、人與人之間和人與社會的相互關系[1]。工程活動目前還面臨著諸多深刻、重大的工程倫理問題。工程應用、科學研究、技術工具等本身并無善惡之分。不論科學研究還是技術應用都與人類生存和可持續(xù)發(fā)展息息相關,對社會公共福祉產生影響,科研和技術因此而具有道德內涵。所以,加強工程倫理教育是實現科學技術發(fā)展風險可控、健康有序、服務于大眾的內在條件。目前,我國正逐步健全工程倫理教育的標準,并越來越重視培養(yǎng)工程師的行業(yè)責任與社會責任[2]。
人工智能是以數據為基礎的機器學習技術,其中深度學習技術的應用最為廣泛。深度學習模型分析和解決問題的能力從海量數據中學習,從而在專業(yè)領域做出比人類更迅速、更精準、更客觀的預測。人工智能信息技術對我國產業(yè)結構的直接影響不僅是工業(yè)數字化,而且是工業(yè)智能化,因此我國正在大力支持和推動人工智能信息技術在電子政務和公共民生政策方面的更深層次應用。與此同時,人工智能發(fā)展也衍生出復雜多樣的倫理問題[3]。在全球科技產業(yè)競爭加劇和數字經濟發(fā)展成為一個國家戰(zhàn)略核心競爭力等重大背景下,考慮到當前我國人工智能行業(yè)的自身發(fā)展情況,我國對人工智能行業(yè)需要加強創(chuàng)新技術治理和嚴格規(guī)范技術監(jiān)管,保障人工智能的健康發(fā)展和積極應用。
2019年7月24日下午,中央全面深化改革委員會第九次會議中,審議通過了《國家科技倫理委員會組建方案》。會議要求“科技倫理為科技活動必須遵守的價值準則,且構建一套覆蓋全面、導向明確、規(guī)范有序、協調一致的科技倫理治理體系”。從此,在國家頂層設計中明確了倫理道德在科技活動中的準則地位,為科技倫理治理指明了具體要求和路徑。對人工智能而言:2020年被認為是人工智能監(jiān)管元年,歐盟和美國分別通過了《人工智能白皮書》《人工智能應用監(jiān)管指南》。我國則采用立法形式漸進式約束工程倫理、保障公民權利。例如2021年7月28日科學技術部科技監(jiān)督與誠信建設司研究起草了《關于加強科技倫理治理的指導意見(征求意見稿) 》,用于強化科技倫理審查和監(jiān)管,查處科技倫理違規(guī)行為;2021年8月20日,十三屆全國人大常委會第三十次會議表決通過《中華人民共和國個人信息保護法》,協調個人信息保護與規(guī)范不同信息處理者的規(guī)制方式,促進安全健康的信息自由流動。
2 工程倫理問題分析
人工智能越來越多地被應用到社會生活的各個方面。目前人們生活在算法之下,算法決策開始幫助甚至主導越來越多的人類社會事務。目前人工智能更多的是IT和算法工程師的參與,缺乏哲學、倫理學、法學等社會學科。要想讓人工智能真正有益于人類社會,服務于大眾,就需要關注人工智能背后的倫理問題。目前人工智能技術帶來的主要問題表現為算法歧視、隱私泄露、責任與安全混亂等。
2.1 算法歧視
算法歧視可以描述為通過設定特定的數據管理方式,在無正當理由的情況下對用戶實施差別待遇,侵害客戶合法權益的行為。算法決策是人工智能技術的重要組成部分,使用歷史的和當前的數據預測未來的趨勢[4]。而預測結果取決于算法模型的設計和數據的選擇。因此,這兩個因素成為算法歧視的主要來源。一方面,算法構建的過程在很大程度上被描述為設計者和開發(fā)人員實現其設計、目標、成功標準和數據使用的主觀意圖,這允許設計者和開發(fā)人員將自己的價值觀甚至偏見嵌入算法系統。另一方面,數據的廣泛性、有效性和適用性也會影響整個算法決策和預測的準確性。在人工智能系統與現實世界的交互過程中,不合適的算法優(yōu)化和人機交互數據的干擾都可能引發(fā)算法歧視。更重要的是,數據在一定程度上反映了社會現實,訓練數據本身可能具有歧視性,采用這種數據訓練出來的人工智能系統自然具有歧視性。
進一步來說,人工智能算法的訓練優(yōu)化過程固化或放大了歧視,使得歧視在整個算法中持續(xù)存在。人工智能算法用于預測未來,過去的歧視性數據和不恰當的訓練和優(yōu)化過程可能會在算法中固化和強化。此時將會產生正反饋將算法歧視不斷放大。最終,算法決策會造成錯誤,影響人與人、人與自然的關系。歸根到底,人工智能算法決策高度專業(yè)化,且大部分不可解釋,從而導致算法歧視,甚至違背常理和公序良俗。
2.2 隱私泄露
數據已經成了人工智能時代的基礎能源,參與人工智能算法的數據樣本越多,模型越完善,結果越準確。一些互聯網公司和電信、金融等單位在提供服務活動中獲得的公民個人信息被非法泄露或者未經授權私自采集個人信息的情況時有發(fā)生,給人們帶來新的隱私憂慮[5]。一方面,個人信息的收集變得越來越容易,對信息的不當使用或予以泄露會給個人造成財產、精神上的損失。另一方面,各行業(yè)服務之間交易數據量大,數據不斷流動和備份,數據進入新的循環(huán),可能會削弱對個人數據的控制和管理。與此同時,隱私保護的倫理規(guī)范和法律制度落后于人工智能技術的發(fā)展和數據應用。從外部來看,現有的社會秩序和法律規(guī)范不能很好地適應新興工程技術的高速發(fā)展。目前各主體的道德倫理意識尚未形成:各主體的道德倫理意識薄弱,數據責任感缺失,主要表現在用戶在網絡空間中的自我控制與行為約束能力不足和服務部門工程道德倫理教育匱乏。
2.3 風險與責任缺失
人工智能、物聯網、大數據等數字新技術的出現對產品安全和責任提出了新的挑戰(zhàn)。這些技術的特點是系統性、決策自主性、解釋復雜性和數據依賴性。他們可以根據自主程序執(zhí)行任務,幾乎不需要人工決策。同時,配備人工智能的復雜系統可以通過學習過去的數據經驗來提高決策效率。人工智能技術通常集成在復雜的網絡環(huán)境中,其中許多不同的傳感器連接設備和服務應用程序相互作用[5]。
決策自主性、算法的復雜性、數據的不完備性會帶來產品的安全性問題。由于一些人工智能系統的“算法黑箱”,算法和數據需要具備專業(yè)的分析能力和技術專長,算法解釋性差,系統的復雜度不斷增加。系統越復雜,風險性越高,經由優(yōu)化和訓練的模型可能做出錯誤的,甚至反常識的決策。對自主系統的責任歸屬尚沒有清晰的界定,數據使用者和管理者沒有承擔相應的隱私保護責任。
3 對策探討與改革方案
伴隨著人工智能技術第三次浪潮的興起,目前歐美和日本針對人工智能的相關倫理問題開展了同步討論。在我國,工程倫理研究和教育已經在高校得到了一定程度的普及,但高校師資缺乏,技術發(fā)展更迭快,教學效果不甚理想。只有不斷解決技術帶來的社會熱點問題,才能增強學生的工程倫理意識。為此,文章在以下四個方面提出解決思路:
3.1 符合倫理的人工智能設計
做好頂層設計,將人類社會的法律、道德規(guī)范和價值評價標準嵌入人工智能設計理念中。根據電氣和電子工程師協會對人工智能技術的倡議,人工智能工程倫理設計分三步實現:首先是發(fā)現需要嵌入AI系統的道德規(guī)范和價值標準。如果技術存在道德或價值的問題,明確功能需求合理安排系統倫理邏輯,做好預案準備工作,統籌兼顧。第二步是將所發(fā)現的規(guī)范和價值加入人工智能系統,需要辯證唯物方法論,探尋客觀規(guī)律,并用實踐檢驗工程倫理,積極創(chuàng)新。第三步是評估已經嵌入AI系統的規(guī)范和價值觀,看它們是否與人類社會相一致。一方面做好人工智能技術的解釋性,做到過程可理解,結果可追溯;另一方面是完善工程倫理理念,建立一套價值一致性和相符性標準。
AI工程倫理教育應包括三個原則:一是利他主義,技術發(fā)展的唯一目標是最大限度地滿足人類需求;二是不確定性,為應對不確定性風險健全行業(yè)標準和應急預案;三是考慮人類,即人類行為提供了關于人類價值的信息。
3.2 培養(yǎng)以人為本的價值觀念
為避免人工智能“去人類中心化”產生的技術、權力、責任、倫理等方面的道德風險,人工智能技術的發(fā)展理念應始終圍繞“社會公平”“人道主義”以及“人與人、人與自然關系”三大基本原則展開。人工智能工程倫理教育核心以人為本,秉承把人類的利益、安全和健康福祉放在首位的原則,實現人類社會可持續(xù)發(fā)展。
應確立人的自主性原則,強化人的領導能力和監(jiān)督意識。人工智能工程倫理的發(fā)展和應用支持人類的自主和決策。人類所有權和監(jiān)督權的不斷加強、人類控制權的獲得以及人類的監(jiān)督和干預,有助于確保人工智能系統不會影響人類的決策自主權,也不會將其影響力擴大到造成其他不利的傷害,以確保它被人類實際使用。顯然,開發(fā)人員和設計人員應該充分發(fā)揮自主、支配和監(jiān)督的作用,這對人工智能的成功至關重要。重點培養(yǎng)人的倫理觀念,增加人工智能工程倫理的方法和作用,實踐且落實工程中人的觀念。
3.3 進行監(jiān)管,避免作惡
由于人工智能算法的復雜性不斷增加,同時算法決策的影響范圍也越來越大,因此需要人們對算法的設計和應用進行監(jiān)督。首先,監(jiān)管措施包括行業(yè)標準、應用領域分類、性能指標、設計標準、責任主體標準等。在過程可解釋性和結果可追溯性方面,包括算法自身代碼的可解釋性以及算法決策的嚴密邏輯推理過程。此外,還有民生服務和政府權力審批制度,例如對于自動駕駛汽車所采用的算法,監(jiān)管部門需要進行事先檢查審批。
要落實監(jiān)管措施,必須將科技倫理納入制度和法律,建立健全相關法律法規(guī)、倫理規(guī)范和政策體系,形成完整有效的安全評價和管控能力。應加強科技倫理監(jiān)督,構建從實驗室研發(fā)階段到工程應用階段的新技術全鏈條監(jiān)管體系,完善相應的問責機制。
3.4 針對算法決策建立責任倫理
根據責任倫理的觀點進行推廣,每一人工智能算法的作用效果和群體都是獨一無二的,設計和開發(fā)團隊都應該對算法決策行為承擔相應的后果,這是責任體系中個體應承擔的,并且在做出決策前要理性對待可能誘發(fā)的工程倫理問題,及時應對所帶來的風險與不良后果。同時,考慮人工智能帶來的隱形責任倫理,考慮人的主觀觀念,漸進化改變人與人、人與自然的關系。人不能漠視人工智能技術產生的風險,考慮到滯后性問題,要進行及時的反思性批判,自覺形成實質的工程倫理意識,從而減少或者避免人工智能技術帶來的風險。因此,責任倫理更應考慮到技術當前的任何行為都可能對社會及未來后果負責之上,并且形成多主體參與的倫理責任共擔的自覺意識,這一原則對構建人工智能技術責任倫理體系有著重要的借鑒意義。
工程倫理教育中采用責任倫理的方法,將“責任”與“倫理精神”進行融合,通過顯性與隱性化教育,內化到人工智能技術開發(fā)人員觀念中。因此,在提升責任的倫理價值時,工程倫理教育應引入人員的自我責任意識,電子信息專業(yè)人員要強化自我責任的倫理意識。同樣,應結合唯物辯證法的思想政治教育,提升責任倫理在工程生態(tài)學中的指導作用。
4 結論
面向未來發(fā)展的工程倫理教育,不斷加強思想政治教育,既要以人為本又要積極落實責任,深化工程倫理教育。本文分析了人工智能領域工程倫理教育中存在的三大問題,從不同維度反映了目前工程倫理教育面臨的挑戰(zhàn)。采用以人為本的責任倫理解決方案,采取倫理治理,把工程倫理原則轉化為倫理實踐成果,協調技術與社會關系,使人工智能技術最大化地服務人民。
參考文獻:
[1] 林健,衣芳青.面向未來的工程倫理教育[J].高等工程教育研究,2021(5):1-11.
[2] 廖莉,陳萬球.中國工程倫理規(guī)范的歷史進路[J].長沙理工大學學報(社會科學版),2020,35(2):33-40.
[3] 馬佳義,陳珺.新形勢下信息學科工程倫理教育的重要性和目標層次[J].未來與發(fā)展,2019,43(4):93-95.
[4] 鄭智航.人工智能算法的倫理危機與法律規(guī)制[J].法律科學(西北政法大學學報),2021,39(1):14-26.
[5] 余婷.人工智能的倫理問題及對策研究[D].武漢:武漢理工大學,2016.
收稿日期:2021-10-09
基金項目:該文的工作和相關的教學實踐得到了基金項目“面向深度學習的卓越AI人才培養(yǎng)體系探索與實踐”(編號:E-RGZN20201035) 的支持
作者簡介:何志權(1978—) ,男,湖南邵陽人,講師,博士,主要研究方向為機器學習和多媒體信息處理;何玉鵬(1996—) ,男,江西贛州人,在讀碩士研究生,主要研究方向為深度學習圖像處理;曹文明(1965—) ,男,江蘇洪波人,教授,博士,主要研究方向為多媒體信息處理、模式識別和人工智能算法研究。