翟志勇
科技是第一生產(chǎn)力,但在科技推動(dòng)社會(huì)經(jīng)濟(jì)發(fā)展的同時(shí),也會(huì)給人的生命、自由、隱私、安全等帶來(lái)各種各樣的威脅和風(fēng)險(xiǎn)。我國(guó)已經(jīng)在醫(yī)療等領(lǐng)域制定了專門的科技倫理規(guī)范,但將科技倫理上升到國(guó)家戰(zhàn)略層面,實(shí)際上始于2018年。2018年的“基因編輯嬰兒”事件引發(fā)全社會(huì)的普遍關(guān)注和擔(dān)憂,科技“作惡”已經(jīng)開(kāi)始挑戰(zhàn)人類最基本的倫理底線,急需建立完善的科技倫理和治理體系。
2019年7月24日,中央全面深化改革委員會(huì)第九次會(huì)議審議通過(guò)《國(guó)家科技倫理委員會(huì)組建方案》,“目的就是加強(qiáng)統(tǒng)籌規(guī)范和指導(dǎo)協(xié)調(diào),推動(dòng)構(gòu)建覆蓋全面、導(dǎo)向明確、規(guī)范有序、協(xié)調(diào)一致的科技倫理治理體系”。2020年10月21日,國(guó)家科技倫理委員會(huì)正式組建。2021年7月28日,在國(guó)家科技倫理委員會(huì)的指導(dǎo)下,科技部研究起草了《關(guān)于加強(qiáng)科技倫理治理的指導(dǎo)意見(jiàn)(征求意見(jiàn)稿)》,其中確立五項(xiàng)科技倫理原則,包括“增進(jìn)人類福祉”“尊重生命權(quán)利”“堅(jiān)持公平公正”“合理控制風(fēng)險(xiǎn)”“保持公開(kāi)透明”。
值得注意的是,《指導(dǎo)意見(jiàn)(征求意見(jiàn)稿)》在科技倫理原則體系中,將“增進(jìn)人類福祉”作為首要原則,指出“科技活動(dòng)應(yīng)有利于促進(jìn)經(jīng)濟(jì)發(fā)展、社會(huì)進(jìn)步、民生改善和生態(tài)環(huán)境保護(hù),堅(jiān)持以人民為中心的思想,不斷增強(qiáng)人民的獲得感、幸福感、安全感,促進(jìn)人類社會(huì)和平發(fā)展和可持續(xù)發(fā)展?!边@一原則定位意味著,針對(duì)科技倫理,我們不能僅僅局限于“不做惡”,還應(yīng)該關(guān)注“科技向善”。而所謂的“向善”,非常重要的一個(gè)方面就是面向可持續(xù)發(fā)展。
不作惡
很長(zhǎng)一段時(shí)間內(nèi),“不作惡”(don't be evil)幾乎成為科技倫理的“最高”標(biāo)準(zhǔn)。谷歌公司在1999年初創(chuàng)時(shí)期提出“不作惡”口號(hào),并將其作為公司的價(jià)值理念和行為準(zhǔn)則,并在2004年將“不作惡”寫入公司的首次公開(kāi)招股書中,成為谷歌在科技倫理方面非常響亮的主張,備受追捧。2015年,谷歌重組成立新的母公司Alphabet時(shí)又進(jìn)一步提出“做正確的事”(Do the right thing)取代“不作惡”,并將其作為公司正式的座右銘,不過(guò)仍然在行為準(zhǔn)則中保留著“不作惡”的表述。雖然看上去“做正確的事”似乎包含著“不作惡”,但是或許因?yàn)椤白稣_的事”不像“不作惡”那么直截了當(dāng),以至于“做正確的事”始終沒(méi)有“不作惡”那么有影響力。
2018年5月,有報(bào)道稱,谷歌修改了行為準(zhǔn)則,刪除了其中幾處“不作惡”的表述,僅在行為準(zhǔn)則最后一句保留“不作惡”:“記住,不要作惡,如果你看到一些你認(rèn)為不正確的事情——大聲說(shuō)出來(lái)!”為什么要做如此修改?谷歌始終沒(méi)有給出任何解釋,以至于很多人認(rèn)為谷歌公司已經(jīng)突破了“不作惡”這條底線。即便如此,“不作惡”依然是公眾對(duì)于科技倫理的“最低”要求。
事實(shí)上,對(duì)于科技“作惡”的擔(dān)憂和指控時(shí)有發(fā)生。在生物技術(shù)領(lǐng)域,從最早的克隆羊多莉到“基因編輯嬰兒”,公眾和科學(xué)家始終關(guān)注著生物技術(shù)給人類帶來(lái)的倫理挑戰(zhàn),但底線依然在不斷降低,著名學(xué)者弗朗西斯·福山疾呼要對(duì)生物技術(shù)加以政治管制。此外,在互聯(lián)網(wǎng)和信息技術(shù)領(lǐng)域,科技巨頭利用個(gè)人數(shù)據(jù)進(jìn)行用戶畫像,再通過(guò)定向推送廣告賺取巨額利潤(rùn),甚至形成“信息繭房”,干預(yù)個(gè)人的自由意志,動(dòng)搖民主制度的社會(huì)基礎(chǔ)。幾乎所有的科技巨頭都或多或少在隱私、安全、壟斷等方面受到指控,因各種違規(guī)違法行為而繳納罰款幾乎成了家常便飯,繳納罰款就像是在購(gòu)買“贖罪券”。本來(lái)作為底線的“不作惡”,幾乎成了“最高”的倫理要求,即便如此,底線仍一再被突破。
這種狀況仍然在加劇,隨著算法、人臉識(shí)別、人工智能技術(shù)的突飛猛進(jìn),科技“作惡”已經(jīng)成為系統(tǒng)性的社會(huì)問(wèn)題,算法帶來(lái)的系統(tǒng)性剝削和控制,人臉識(shí)別潛在的追蹤和控制風(fēng)險(xiǎn),人工智能可能帶來(lái)的失業(yè)問(wèn)題,以及諸如元宇宙可能帶來(lái)的人類自主性的喪失等。因此,近年來(lái)各國(guó)都在加強(qiáng)科技倫理和治理方面的立法,用立法來(lái)守護(hù)“不作惡”這條底線。例如:我國(guó)將“將基因編輯、克隆的人類胚胎植入人體或者動(dòng)物體內(nèi),或者將基因編輯、克隆的動(dòng)物胚胎植入人體內(nèi)”的行為納入到刑事處罰中,國(guó)家互聯(lián)網(wǎng)信息辦公室等四部門出臺(tái)《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》,嚴(yán)禁算法歧視、“大數(shù)據(jù)殺熟”、誘導(dǎo)沉迷等算法不合理應(yīng)用;歐盟在《可信賴的人工智能倫理準(zhǔn)則》基礎(chǔ)上,禁止人臉識(shí)別技術(shù)在公共場(chǎng)所的使用;美國(guó)正在推出《算法責(zé)任法》,限制算法在自動(dòng)化決策領(lǐng)域的使用,等等。人是目的而非手段,倫理底線失守之處,政治和法律必須出場(chǎng)。
技術(shù)向善
雖然對(duì)于科技公司來(lái)說(shuō),守住“不作惡”的底線已經(jīng)很難,但這并不妨礙科技公司提出更高的倫理要求。比起“不作惡”,“科技向善”看起來(lái)充滿正能量。其實(shí)谷歌公司當(dāng)年提出“做正確的事”,已經(jīng)部分包含“科技向善”的意思。據(jù)說(shuō)投資者保羅·米勒最早提出“技術(shù)向善”(Technology for social good):“確保技術(shù)公司專注于回饋世界,而不僅僅是占領(lǐng)我們的屏幕時(shí)間。”但這種提法在中國(guó)流行,主要是因?yàn)轵v訊公司的推動(dòng),并且將其改為中國(guó)人更喜歡的表述“科技向善”。
2018年1月,騰訊研究院在北京舉辦“T-Meet大會(huì)”,開(kāi)始啟動(dòng)“科技向善”項(xiàng)目。2019年5月6日,騰訊董事會(huì)主席兼首席執(zhí)行官馬化騰首次在公開(kāi)場(chǎng)合談到公司的新愿景和使命:“我們希望‘科技向善’成為未來(lái)騰訊愿景與使命的一部分。我們相信,科技能夠造福人類;人類應(yīng)該善用科技,避免濫用,杜絕惡用;科技應(yīng)該努力去解決自身發(fā)展帶來(lái)的社會(huì)問(wèn)題”。隨后騰訊公司將“科技向善”作為公司新的使命愿景:“用戶為本,科技向善”。
接下來(lái)的問(wèn)題是,如果連“不作惡”都不能完全實(shí)現(xiàn),“科技向善”又如何可能呢?首先是如何定義這里的“善”?企業(yè)不是慈善機(jī)構(gòu),企業(yè)要盈利,要對(duì)股東負(fù)責(zé),要在激烈的市場(chǎng)競(jìng)爭(zhēng)中勝出,企業(yè)所理解的“善”應(yīng)該如何界定?即便是提出“科技向善”的騰訊公司,也沒(méi)有對(duì)“善”給出一個(gè)清晰明確的界定。騰訊呼吁社會(huì)各界通過(guò)對(duì)話達(dá)成共識(shí),但就目前的情況來(lái)看,共識(shí)遠(yuǎn)遠(yuǎn)沒(méi)有達(dá)成。即便達(dá)成共識(shí),這是騰訊公司要達(dá)成的“善”還是所有企業(yè)都要接受的“善”?更何況騰訊只是個(gè)互聯(lián)網(wǎng)技術(shù)公司,這種“善”可能未必適合其他類型的企業(yè)。
其次是如何“向善”?即便對(duì)何為“善”達(dá)成了共識(shí),那么如何“向善”呢?企業(yè)要使自己的所有產(chǎn)品和服務(wù)都符合善的標(biāo)準(zhǔn),還是企業(yè)選擇一兩個(gè)符合善的標(biāo)準(zhǔn)的項(xiàng)目就可以了?比如從2021年開(kāi)始的APP適老化改造。也就是說(shuō),“向善”是一個(gè)普遍性的要求還是一個(gè)選擇性實(shí)施的加分項(xiàng)?“不作惡”可以成為企業(yè)的倫理義務(wù),乃至于上升為法律責(zé)任,但“向善”只能作為一種倡議,無(wú)法通過(guò)法律強(qiáng)制企業(yè)履行“向善”的倫理義務(wù)。
那是否意味著“科技向善”就是一個(gè)空洞的口號(hào)呢?就像“不作惡”總是流于空洞的說(shuō)教一樣?!安蛔鲪骸鄙星矣懈鞣N各樣相對(duì)明確的倫理規(guī)范,而“科技向善”始終沒(méi)有可以依據(jù)甚至參考的標(biāo)準(zhǔn)。要避免“科技向善”淪為空洞的口號(hào),我們可以用全社會(huì)已經(jīng)達(dá)成的共識(shí),為“科技向善”注入新的內(nèi)涵,《關(guān)于加強(qiáng)科技倫理治理的指導(dǎo)意見(jiàn)(征求意見(jiàn)稿)》已經(jīng)指出了這種可能性,那就是讓“科技向善”面向可持續(xù)發(fā)展。
面向可持續(xù)發(fā)展
2015年聯(lián)合國(guó)千年發(fā)展目標(biāo)(MDGs)到期后,聯(lián)合國(guó)193個(gè)成員國(guó)在可持續(xù)發(fā)展峰會(huì)上正式通過(guò)17個(gè)可持續(xù)發(fā)展目標(biāo)(SDGs),旨在從2015年到2030年間以綜合方式徹底解決社會(huì)、經(jīng)濟(jì)和環(huán)境三個(gè)維度的發(fā)展問(wèn)題??沙掷m(xù)發(fā)展的17項(xiàng)目標(biāo)是在聯(lián)合國(guó)推動(dòng)之下為各國(guó)所普遍接受的,這些目標(biāo)的最終實(shí)現(xiàn)當(dāng)然要靠各國(guó)政策的推動(dòng),但也要注意到,科技的進(jìn)步是實(shí)現(xiàn)可持續(xù)發(fā)展目標(biāo)的重要力量,甚至是決定性力量。
比如,解決人類饑餓問(wèn)題需要糧食,而在耕地面積有限的前提下,糧食的增產(chǎn)主要依賴于科技的進(jìn)步。再比如,今天全球有8億人口食不果腹,占全球總?cè)丝诘?/9,而與此同時(shí)全球每年有1/3的糧食被浪費(fèi)掉,如果能改進(jìn)糧食的供應(yīng)鏈,避免大量糧食的浪費(fèi),饑餓問(wèn)題是有可能在不增加糧食產(chǎn)量的情況下就能解決的,這同樣需要有改進(jìn)糧食供應(yīng)鏈的技術(shù)。因此SDGs目標(biāo)2(消除饑餓,實(shí)現(xiàn)糧食安全、改善營(yíng)養(yǎng)和促進(jìn)可持續(xù)農(nóng)業(yè))的實(shí)現(xiàn),非常依賴技術(shù)的發(fā)展。
2019年4月3日,聯(lián)合國(guó)人居署與騰訊公司在聯(lián)合國(guó)總部舉辦主題研討會(huì),探討如何利用人工智能等新興技術(shù)實(shí)現(xiàn)可持續(xù)發(fā)展目標(biāo)。聯(lián)合國(guó)人居署執(zhí)行主任謝里夫講到:“世界五分之一的人口正居住在嚴(yán)重缺水地區(qū),而未來(lái)城市對(duì)于食物 、能源、水這些基礎(chǔ)資源的需求更是前所未有的,我們需要鼓勵(lì)科技創(chuàng)新來(lái)解決未來(lái)城市所面臨的挑戰(zhàn)?!睍?huì)議上提出一個(gè)重要的課題“AI for FEW”,如何用AI分析數(shù)據(jù)來(lái)提高農(nóng)作物產(chǎn)量和種植效率(Food),如何用AI預(yù)測(cè)能源需求并優(yōu)化能源供給和清潔能源生產(chǎn)(Energy),如何用AI提升用水效率、預(yù)測(cè)水資源供應(yīng)以及檢測(cè)水質(zhì)(Water)。騰訊公司首席探索官網(wǎng)大為(David Wallerstein)有一本書《重構(gòu)地球:AI FOR FEW》,系統(tǒng)闡述了如何用人工智能技術(shù)重塑食物、能源和水的未來(lái),用科技來(lái)實(shí)現(xiàn)可持續(xù)發(fā)展目標(biāo)。
“AI for FEW”是一個(gè)很好的面向可持續(xù)發(fā)展的“科技向善”的例子,這樣的例子今天不是太多而是太少了,我們期待更多的科技企業(yè),利用自身的技術(shù)助力可持續(xù)發(fā)展目標(biāo)的實(shí)現(xiàn),期待更多面向可持續(xù)發(fā)展的“科技向善”的創(chuàng)意和嘗試。雖然可持續(xù)發(fā)展目標(biāo)并非衡量“科技向善”的唯一指標(biāo)體系,但在“科技向善”的具體含義仍不清晰之前,為了避免“科技向善”流于空洞,不妨先將“科技向善”指向可持續(xù)發(fā)展。
最后要特別強(qiáng)調(diào)的是,“科技向善”不能取代“不作惡”。在倡導(dǎo)“科技向善”的同時(shí),也不能忽略對(duì)科技“不作惡”的倫理要求,更要警惕企業(yè)通過(guò)高舉“科技向善”的旗幟來(lái)遮蔽“作惡”的行為?!翱萍枷蛏啤焙汀安蛔鲪骸贝砹丝萍紓惱碜罡吆妥畹偷囊?,兩者都不僅需要具體化為可執(zhí)行可測(cè)量的標(biāo)準(zhǔn)和規(guī)則,也需要通過(guò)一個(gè)個(gè)具體的案例來(lái)呈現(xiàn)和檢討,如此才能確保兩者都不停留在口號(hào)階段。
3899500338209