丁金濤
(浙江大學(xué)城市學(xué)院,浙江杭州 310015)
伴隨著人類步入智能化、 數(shù)據(jù)化社會以及技術(shù)的更迭,科技倫理問題也不斷出現(xiàn),造成新的生存困境。因此,我們需要重新思考人與科技的關(guān)系。該文結(jié)合馬克思主義哲學(xué)觀點,探討人工智能時代下出現(xiàn)的一些科技倫理問題,及如何應(yīng)對處理上做了些思考。
馬克思主義科技觀指出了科學(xué)技術(shù)是生產(chǎn)力,揭示了科學(xué)技術(shù)的內(nèi)涵及其社會功能。其核心就是“科技就是生產(chǎn)力”,科技是推動歷史發(fā)展的有力杠桿。 準(zhǔn)確理解馬克思主義科技觀,對于人工智能、機器深度學(xué)習(xí)不斷發(fā)展的當(dāng)下具有重要的現(xiàn)實意義。
馬克思主義的科技哲學(xué)觀形成有其歷史因素,馬克思、 恩格斯所生活的時代適逢第一次工業(yè)革命的興起與發(fā)展,作為近現(xiàn)代工業(yè)文明發(fā)展的起點,其導(dǎo)致的生產(chǎn)方式、 生產(chǎn)關(guān)系的變革創(chuàng)新與發(fā)展促進了全球生產(chǎn)力的大幅度進步,揭示了近代西歐國家社會變革的內(nèi)在機制。馬克思認(rèn)為,機器生產(chǎn)的發(fā)展要求人們自覺地應(yīng)用自然科學(xué),勞動生產(chǎn)力是隨著科學(xué)和技術(shù)的不斷進步而不斷發(fā)展的。同時,恩格斯在《自然辯證法》里講到,科技是具有革命性的,新的生產(chǎn)工具的創(chuàng)造和發(fā)展,使人們的生活發(fā)生巨大變化,并為人類的解放做準(zhǔn)備。 以此來奠定科學(xué)技術(shù)是推動社會發(fā)展的革命力量的動力元素之一。
如今,科學(xué)技術(shù)已經(jīng)向著數(shù)據(jù)處理、深度學(xué)習(xí)、人工智能等方向深度發(fā)展,其技術(shù)變革與突破的速度比歷史上任何一個時期更甚,從悲觀主義的角度看,隨著某個奇點時刻的來臨,以人工智能為代表的科技技術(shù)會替代和消滅人類。但從樂觀主義者的角度來看,人工智能能夠提升人的幸福感,甚至加快實現(xiàn)共產(chǎn)主義,我們所面臨的由技術(shù)變革所帶來的科技倫理的挑戰(zhàn)和困境越來越明顯。馬克思主義哲學(xué)是辯證的,我們一方面警惕人工智能的倫理風(fēng)險時,另一方面也要積極看待其中蘊涵的歷史機遇。
盡管今天的機器深度學(xué)習(xí)和人工智能的極速發(fā)展,相比過去的蒸汽革命、工業(yè)革命時代有諸多不同,但馬克思主義關(guān)于科技發(fā)展對人的異化影響理論在今天這樣的情境下仍然適用。
現(xiàn)代科技是推動社會生產(chǎn)力得以迅速發(fā)展的強大引擎,但不應(yīng)該成為工具理性完勝價值理性的誘因,應(yīng)堅持工具理性和價值理性的統(tǒng)一,而不是工具理性所奴役。 缺少價值理性的人,必然追求更為單一的價值,比如一味趨利而忽視利益之外的價值追求。
比如前一段時間,賀建奎副教授的“人類胚胎基因編輯嬰兒”事件廣受國內(nèi)外學(xué)術(shù)界和社會關(guān)注,其不負(fù)責(zé)任行為嚴(yán)重違反中國現(xiàn)行法律法規(guī)和科學(xué)倫理,給人類可能造成難以預(yù)估的惡劣后果。 國家自然科學(xué)基金委員會在關(guān)于這一事件的公開信中說道:“科學(xué)倫理永遠(yuǎn)是科學(xué)研究不容觸碰和挑戰(zhàn)的底線。 隨著科學(xué)技術(shù)的進步,科學(xué)倫理建設(shè)面臨著越來越多的新情況和新挑戰(zhàn),我們要以對人類和生命高度負(fù)責(zé)的態(tài)度踐行科學(xué)研究中的倫理規(guī)范。 ”
人工智能發(fā)展到現(xiàn)在的程度并不能完全替代人類做出選擇,人類在300 多萬年的漫長時間里進化成現(xiàn)代人類,歷史上數(shù)次科學(xué)革命的爆發(fā)成為推動歷史發(fā)展進程的助推器,至今日已然進入到一個高速時期,人類作為生物的種種構(gòu)造是自然選擇的結(jié)果,而人工智能則是建立在通信技術(shù)、 算法技術(shù)、 數(shù)字技術(shù)等基礎(chǔ)上,發(fā)展不過幾十年,未來還有很長的路要走。
但是目前隨著技術(shù)的升級和創(chuàng)新,人工智能和深度學(xué)習(xí)技術(shù)是一片藍(lán)海,它已經(jīng)不僅僅停留在機械生產(chǎn)制造給人以便捷的自動化層面上,而是擁有科技“智能芯”,其數(shù)據(jù)庫的技術(shù)支持能夠為非專業(yè)人士提供信息服務(wù)和技術(shù)指導(dǎo),比如,網(wǎng)絡(luò)AI 醫(yī)生可以根據(jù)關(guān)鍵詞來診斷病情,這是基于病例數(shù)據(jù)庫的診斷信息,通過算法合成與病情匹配的診斷報告; 再比如AI 新聞,對于數(shù)據(jù)性的常規(guī)報道,人工智能撰寫的新聞稿會比人工撰寫更精確,很多不需要人工潤色的文章根據(jù)樣式模板就可以很快生產(chǎn)出來,可以說,就目前而言,隨著產(chǎn)業(yè)更替合并,很多低端、低腦力的工作已經(jīng)被人工智能替代。
人工智能技術(shù)能夠根據(jù)數(shù)據(jù)庫的信息頻率、 數(shù)量等來建立趨勢模型,在大數(shù)據(jù)中發(fā)現(xiàn)并總結(jié)出人們行為的規(guī)律,根據(jù)人們行為規(guī)律來預(yù)測其喜好,需求。 比如,根據(jù)消費者購物習(xí)慣和瀏覽電商網(wǎng)站的風(fēng)格來判斷其喜好,從而通過數(shù)據(jù)預(yù)測推薦給其所需要的商品,人工智能就是想消費者所想,為消費者提供更為便捷的消費模式,在此基礎(chǔ)上,人工智能技術(shù)會引導(dǎo)人們作出相應(yīng)的干預(yù)策略。但同時,由于人工智能技術(shù)是基于大數(shù)據(jù)基礎(chǔ)之上的,其受數(shù)據(jù)庫體量,動態(tài)分布情況、來預(yù)測模型,而大數(shù)據(jù)是建立在人們行為數(shù)據(jù)基礎(chǔ)上的,常常由于操作和保管不規(guī)范導(dǎo)致信息外露。
如臉書最近的泄露事件,導(dǎo)致5 000 多萬用戶的個人數(shù)據(jù)被泄露,連“臉書”首席執(zhí)行官扎克伯格也不能幸免。一方面,臉書這類社交媒體構(gòu)成了一派繁榮的信息烏托邦,另一方面,這種烏托邦有著很大的脆弱性。技術(shù)沒有原罪,但它沒有預(yù)先的價值立場,其使用后果有著極大不確定性。 人類隱私的存在,既是權(quán)利的表征,也是技術(shù)維護的結(jié)果。
組織高端研討會和論壇對科技管理中存在的問題,探討和提出具有可操作性的政策建議,建立應(yīng)對突發(fā)性重大科技倫理事件的長效機制和應(yīng)對機制。 以國際社會和科學(xué)共同體關(guān)注的科技領(lǐng)域科技倫理問題進行研討,秉承開放、平等、理性、負(fù)責(zé)的精神,鼓勵自由交流,匯集倫理政策建議,傳遞負(fù)責(zé)任創(chuàng)新理念。
在國際上,科技倫理問題早已被探討。部分高校計算機實驗室協(xié)同微軟、谷歌等互聯(lián)網(wǎng)巨頭成立了AI 倫理委員會,以應(yīng)對人工智能可能導(dǎo)致的倫理風(fēng)險。 同樣,國務(wù)院在《新一代人工智能發(fā)展規(guī)劃》中提出,“建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,形成人工智能安全評估和管控能力”。 在不久的將來,通過對人工智能相關(guān)法律、倫理和社會問題的深入探討,以期能夠解決劃清科技與倫理道德邊界的問題,人工智能能夠更好地推動社會科技發(fā)展,真正地去踐行人類自由解放的道路。
2019年兩會,騰訊馬化騰提出“科技向善”的概念。 引導(dǎo)科技向善,我們必須弄清科技是如何“作惡”的。 技術(shù)本身是中性的,不存在“原罪”一說,如今顯現(xiàn)的種種問題歸根結(jié)底是人的問題。當(dāng)一種新技術(shù)、新業(yè)態(tài)萌芽時,本身自然存在不完善之處,但各路人馬在利益的驅(qū)使下一味地?fù)屨枷葯C,甚至亂加利用,勢必催生一系列亂象。 而監(jiān)管舉措的出臺、法律法規(guī)的制定、社會共識的達(dá)成等,往往帶有一定的滯后性。這在無形中加劇著技術(shù)的野蠻生長。 一旦“韁繩”套得太晚,這匹“野馬”就要橫沖直撞,甚至造成不可逆的負(fù)面影響。要在全社會范圍內(nèi)形成廣泛共識,讓科技向善、責(zé)任創(chuàng)新意識深入到每一位公民心中,只有當(dāng)人們內(nèi)心深處真正產(chǎn)生信仰,才會對制度、規(guī)范有敬畏。
科技倫理規(guī)范應(yīng)該在全社會形成廣泛共識,這就需要相關(guān)領(lǐng)域進行科學(xué)的引導(dǎo)和規(guī)范。 業(yè)界應(yīng)該制定人工智能法律法規(guī)、倫理規(guī)范和政策體系,形成人工智能安全評估和管控能力,從產(chǎn)品的設(shè)計研發(fā)、 投入生產(chǎn)、銷售終端、用戶使用等各個環(huán)節(jié)能夠具備獨立的倫理安全評估。
在產(chǎn)品構(gòu)思和申請專利之初就應(yīng)該向科技部門和地方科技倫理協(xié)會提交產(chǎn)品倫理報告書。同樣,倫理安全評估機構(gòu)則應(yīng)該建立一套完善的評估項目和流程,在銷售環(huán)節(jié),應(yīng)明確將產(chǎn)品可能涉及的倫理問題告知于消費者,有些款項應(yīng)向消費者做充分的解釋,告知其可能發(fā)生的不良后果,既然產(chǎn)品終端是面向市場的,那么消費方就有權(quán)利知曉其產(chǎn)品涉及的倫理問題。
在制定關(guān)于新興科技的創(chuàng)新、研發(fā)、應(yīng)用政策和戰(zhàn)略時,要制定好新興科技倫理風(fēng)險的相關(guān)政策和約定。對科技的管理不能只在乎眼前利益,科技成果是否能轉(zhuǎn)化為先進生產(chǎn)力,促進人民的健康、能否保護環(huán)境以及維護社會安全等。
所幸的是,全國人大常委會已將一些與人工智能密切相關(guān)的立法項目,如數(shù)據(jù)安全法、個人信息保護法和修改科學(xué)技術(shù)進步法等,列入該屆五年立法規(guī)劃。同時,把人工智能方面立法列入抓緊研究項目,圍繞相關(guān)法律問題,進行深入調(diào)查論證,努力為人工智能創(chuàng)新發(fā)展提供有力法治保障。
加強教育,開設(shè)科技倫理公共課程,并不僅局限于高校內(nèi)開展,要貫穿整個職業(yè)生涯,包括研發(fā)人員入職教育,在職教育。 強調(diào)負(fù)責(zé)任創(chuàng)新,既強調(diào)科技創(chuàng)新對于社會發(fā)展的推動作用,也要強調(diào)科技對社會各方面建設(shè)的有益建構(gòu),政府部門和科研院所應(yīng)是科技倫理引導(dǎo)與教育的主導(dǎo)機構(gòu)。
對于學(xué)校,可以開展形式多樣的科技倫理課程,比如中小學(xué)階段科技課堂上引用科學(xué)故事來讓學(xué)生分析判斷,要將德育課和科技課程有機結(jié)合,發(fā)揮協(xié)同效應(yīng),集約教學(xué)資源。在高等教育階段,可以開設(shè)公共課、通識課供學(xué)生選擇,對于科技方向的專業(yè)應(yīng)開設(shè)科技倫理專業(yè)課程,正如同醫(yī)學(xué)院開設(shè)醫(yī)學(xué)倫理、新聞學(xué)院開設(shè)新聞倫理課程那樣。
科技是把雙刃劍,正確利用可以造福人類,不當(dāng)利用會給人類帶來災(zāi)難,當(dāng)下我們正行駛在科技發(fā)展的高速路上,科技發(fā)展中所面臨的一系列困境最終要展示在人們面前,如何突破困境,讓科技真正以人為本為人謀利,始終是需要我們不斷思考的問題,我們要借助馬克思主義哲學(xué)的利器,妥善處理好人工智能時代的科技倫理問題。