張帥
摘 要:科學技術(shù)作為人類的第一生產(chǎn)力將會始終伴隨人類社會的發(fā)展,人工智能技術(shù)的成功在很大程度上改變了人類生產(chǎn)生活和思維模式。但是在人工智能技術(shù)積極應用在人類社會現(xiàn)象的背后,我們必須看到它的發(fā)展帶來的以及今后很大可能會帶來的倫理困境。對于人工智能所可能會引發(fā)的諸如責任、權(quán)利、道德等問題,我們必須在反思警惕的同時尋找相應的解決對策,規(guī)約人工智能的發(fā)展軌跡,完善相關(guān)的法律法規(guī),從而使其朝著符合人類根本利益的方向健康發(fā)展。
關(guān)鍵詞:人工智能;倫理困境;軌跡規(guī)約;法規(guī)完善
一、人工智能概述
(一)什么是人工智能
人工智能是研究、開發(fā)用于模擬和延伸人的智能的理論、方法、技術(shù)及應用系統(tǒng)的一門技術(shù)科學,同時是一門涉及計算機、控制學、心理學等學科的綜合性學科。1956年人工智能學科被美國科學家約翰·麥卡錫正式提出,引起了廣大科學家與哲學家的重視??偟恼f來,人工智能的目的就是讓計算機這臺機器能夠像人一樣思考。
(二)人工智能倫理困境研究現(xiàn)狀
維納在《人有人的用處:控制論與社會》這本書中指出,自動化技術(shù)或現(xiàn)在的機器人技術(shù)可能造成“人腦的貶值”。維納不僅為研究社會提供了一個全新的視角及方法,而且還描繪出未來社會的圖景,警示人類將來會出現(xiàn)的問題以及提出應對的方法。徐英瑾在《心智、語言和機器:維特根斯坦哲學和人工智能科學的對話》一書中對哲學和人工智能之間的內(nèi)在聯(lián)系進行了探討,認為倫理學家需要熟悉決策論、博弈論等理論的哲學前提,并且加強對人工智能的人文思考才能更有效的解決這一倫理困境。
二、人工智能目前發(fā)展的倫理困境
(一)人工智能倫理問題的產(chǎn)生
人工智能技術(shù)的倫理問題可以追溯到該技術(shù)誕生的時候,科學家和哲學家從人工智能誕生時就已經(jīng)有了關(guān)于今后倫理問題的爭論,而大眾開始形成人工智能倫理問題的概念多是由一系列超前的科幻小說和電影引發(fā)的。人工智能之父圖靈在《智能機器》中就已經(jīng)開始詳細闡述人工智能技術(shù),并且預測了其未來發(fā)展的光景,并且提出人工智能在未來必然會威脅到人類的生存。人工智能的發(fā)展使人類獲得了一定解放,但是其技術(shù)中的漏洞也在影響著人們對于人工智能的看法,因此有的人提出應該限制人工智能的發(fā)展來避免危機的產(chǎn)生。一些科學家認為機器是人的產(chǎn)物,要想從根源上解決這一困境,應該更加積極的關(guān)注人本身,提高科學家的倫理道德素養(yǎng)和研發(fā)水平,使之有機會在倫理設計中賦予智能機器以道德律令。這樣一來,不論智能機器處于何種發(fā)展程度都是可以預料和控制的。
(二)人工智能倫理困境的表現(xiàn)
1.權(quán)利問題:該不該賦予“人性”的機器以人權(quán)
人類社會不斷發(fā)展進步讓人權(quán)得到越來越高的重視,維護人權(quán)已經(jīng)成為當今社會的一項基本原則。人權(quán)具有普遍適用性,反映了自然人最基本的利益和需求。今天,人工智能技術(shù)愈發(fā)完善,仿人類機器人在人類生活中應用的增加,使得一些智能機器人具備了一定的感知能力。而這些感知能力被部分人冠以“人性”,從而引發(fā)了對這一“人性”是否存在的爭論。這些爭論的實質(zhì)其實就是一種關(guān)乎人權(quán)的爭議,是否應該賦予這些具備“人性”的機器人以人權(quán),這可以說是人權(quán)發(fā)展的一個挑戰(zhàn)。但是如果智能機器人真的具備了人權(quán),這在很大程度上已經(jīng)違背了機器人三大法則,會使人類遭遇真正的生存危機。
2.責任問題:智能機器人的過錯誰來承擔
20世紀初,喬納斯等人建立了責任倫理學。責任倫理的目的是更好地規(guī)范人類社會的責任關(guān)系,避免人工智能產(chǎn)品對人類社會帶來風險和挑戰(zhàn),其原則是“絕對不可拿整個人類的存在去冒險”。由于人工智能目前發(fā)展依舊不完善,技術(shù)的限制導致目前沒有任何一種程序或者算法是絕對安全的。由人工智能所引發(fā)的事故或是必須要追究責任的,因此這一責任問題是其發(fā)展所不可避免的重要議題。人工智能的設計者、使用者、監(jiān)督者、維護者的責任都會進入學者的研究領(lǐng)域。例如,無人駕駛汽車的推廣,當發(fā)生事故時,是優(yōu)先保護駕駛員還是行人,事故發(fā)生的責任由駕駛員負責還是行人或者汽車設計者負責?如果這一問題不能夠得到很好的解決,必然會在今后的發(fā)展中影響人工智能和人類的關(guān)系,埋下潛藏的矛盾源頭。
3.環(huán)境問題:智能機器人引發(fā)的環(huán)境倫理問題
生態(tài)環(huán)境問題本質(zhì)上是人的問題,是社會、經(jīng)濟、生態(tài)之間的協(xié)調(diào)發(fā)展問題。人工智能技術(shù)在造福人類的同時,必須看到它對環(huán)境所造成的傷害??萍及l(fā)展使世界連成一個整體,人工智能發(fā)展所造成的環(huán)境污染問題都是沒有國界的。由人工智能故障所導致的生態(tài)破壞和環(huán)境污染該由誰來承擔相應的倫理道德乃至法律責任。環(huán)境倫理學要求人與自然和諧發(fā)展,人工智能的發(fā)展不能以破壞生態(tài)為前提。人工智能的發(fā)展引發(fā)的環(huán)境倫理問題也是我們今天所一直在批判和修正的,這需要我們建立循環(huán)的智能生態(tài)循環(huán)體系。人工智能技術(shù)也只有配合生態(tài)科學才能與當代的發(fā)展內(nèi)在需求相協(xié)調(diào)。
三、人工智能倫理困境的解決對策
人工智能是否真正會具有人性到目前依舊是不可知的,因此所有關(guān)于人工智能倫理困境的爭議都缺乏一個明確的、可以研究的對象。再加上缺乏相應的倫理規(guī)制約束和監(jiān)管機構(gòu),大眾通過科幻小說和電影而形成的對人工智能危害盲目認識,很大程度上阻礙了人工智能的發(fā)展。讓人工智能走出發(fā)展的倫理困境,需要社會各個層面的共同努力,小到個人對其的正確認識,大到國家對于人工智能發(fā)展方向的整體規(guī)劃。
(一)正確認識人工智能發(fā)展要求
在應對人工智能的困境時,許多人容易把解決重心放在技術(shù)本身,而忽略了作為各方面主體的人。在人工智能技術(shù)的發(fā)展過程中,無論科學工作者,還是普通民眾,都要正確認識人工智能技術(shù)發(fā)展的內(nèi)在要求,堅持人工智能的發(fā)展不脫離“為人類服務”的宗旨。我們在發(fā)展人工智能的同時必須始終堅持人的主體性,清醒認識到科技產(chǎn)物都只能是客體。這個關(guān)系如果發(fā)生顛覆,將導致人類社會災難性后果。為了實現(xiàn)人工智能的發(fā)展造福于人的目標,必須加強科學家的社會責任感,增強民眾的基本素養(yǎng)。例如所謂的人工智能威脅論,人們可以擔心,但是要建立在了解這門技術(shù)的基礎上再去做出判斷,而不是一味地畏懼和反對人工智能技術(shù)的發(fā)展。
(二)合理規(guī)劃人工智能的發(fā)展路徑
科學的生態(tài)倫理觀雖然不能直接解決人工智能的生態(tài)倫理困境,但是能夠準確的揭示人工智能今后在生態(tài)倫理上的發(fā)展方向和規(guī)律。由人工智能所引發(fā)的生態(tài)困境由來已久,而馬克思的科學生態(tài)觀為今天人工智能倫理困境的解決奠定了重要的理論前提和方向引導。建設生態(tài)文明是建設中國特色社會主義的重要環(huán)節(jié),人工智能的發(fā)展如果能緊跟時代脈搏,將生態(tài)思想貫徹到底,將會給人類社會發(fā)展帶來重要影響。人工智能的技術(shù)突破要體現(xiàn)人類生態(tài)文明的思想,對于生態(tài)環(huán)境有破壞的要予以取締,對于不利于身心健康發(fā)展的人工智能設備要嚴格禁止,對于違背倫理道德的新發(fā)明要分析利弊。只有在技術(shù)的突破和發(fā)展上加以限制,才能真正使人工智能與生態(tài)文明相接軌。設想,如果一項即將開發(fā)的人工智能技術(shù)在開始就對人類進行預警,開發(fā)過程中也缺乏生態(tài)文明的理念灌輸,這時我們必須考慮是否對其取締了。
(三)不斷完善人工智能的倫理設計
科學家對于人工智能的倫理設計不是一蹴而就的,它受到各方面條件的限制。因此,在人工智能的技術(shù)研發(fā)上,必須不斷克服其技術(shù)難關(guān),利用算法程序明確人工智能機器所承擔的倫理責任和義務。其次,對于人工智能的研發(fā)生產(chǎn)銷售等環(huán)節(jié)必須制定嚴格的標準和責任制度,以確保每一個環(huán)節(jié)都在人為可控的范圍。每一個人工智能機器走向市場時,設計者和銷售者必須對人工智能機器負責,明確告知其存在的漏洞風險。而當人工智能機器出售后,對于人工智能機器所引發(fā)的事故責任,必須明確每一個獨立人工智能機器人的“監(jiān)護人”,即購買者,對于人工智能機器人所犯下的過錯應由其“監(jiān)護人”承擔主要責任。
四、結(jié)語
人類運用科技發(fā)展人工智能無可厚非,但如果企圖通過研發(fā)所謂具有“人性”的人工智能機器人來動搖人類的主體地位,就是過猶不及了。人類的決策決定著人工智能技術(shù)在今后會究竟會走到哪一步。目前人工智能依舊不具有倫理道德性,而人才是倫理道德行為的主體,人必須對人工智能的行為承擔主要責任。人工智能的發(fā)展會促進人類社會的進步,接受其發(fā)展成果是人類的必然選擇。人工智能的本質(zhì)是為人類社會發(fā)展謀福的工具,只有始終遵循以人為本的發(fā)展原則,才能真正解決人工智能倫理困境。
參考文獻:
[1][美]尼爾森.人工智能[M].鄭扣根,譯.北京:機械工業(yè)出版社,2000.
[2]甘紹平.人權(quán)倫理學[M].北京:中國發(fā)展出版社,2009.
[3][美]庫茲韋爾.如何創(chuàng)造思維[M].盛楊燕,譯.杭州:浙江人民出版社,2014:195.
[4][美]庫茲韋爾.奇點臨近[M].李慶誠,董振,田源,譯.北京:機械工業(yè)出版社,2011:80.