崔志根
摘 要:人工智能的研發(fā)與應(yīng)用是為了給人類與人類社會帶來福利,促進(jìn)人的自由全面發(fā)展的同時,也給個人、社會乃至國家層面帶來已經(jīng)顯現(xiàn)或隱性的倫理困境,筆者將從人權(quán)困境、安全困境、責(zé)任困境三個方面對困境分別進(jìn)行梳理和闡述,為探尋困境的根源和解決方案提供前提,以避免技術(shù)鴻溝,共享技術(shù)紅利,實現(xiàn)包容、普惠和可持續(xù)發(fā)展。
關(guān)鍵詞:人工智能;人權(quán)困境;安全困境;責(zé)任困境
分類號:B82-057;TP18
一、人權(quán)困境
人權(quán)這一問題是在近代才提出來,其普遍意義的概念得以確認(rèn)也是在聯(lián)合國成立之后的事情?!堵?lián)合國憲章》和《世界人權(quán)宣言》等國際文書的通過,標(biāo)志著人權(quán)觀念成為世界公認(rèn)的意識形態(tài)。對人權(quán)的解釋也有法理學(xué)、政治學(xué)、哲學(xué)等多個維度,在哲學(xué)層面可理解為人之為人的權(quán)利,強(qiáng)調(diào)的人區(qū)別于動物的尊嚴(yán)與價值。人是有思想的人,與動物的不同,追求自我價值實現(xiàn),人的最高級需求便是自我實現(xiàn),成為一個完善人格、全面發(fā)展具有價值的人。
1.個人自由全面發(fā)展與片面化發(fā)展之間的矛盾
人工智能技術(shù)在兩者之間的矛盾體現(xiàn)在生產(chǎn)和生活兩方面。生產(chǎn)方面人工智能替代人類勞動可能導(dǎo)致人類身體機(jī)能與智力的蛻化。首先,科學(xué)技術(shù)發(fā)展導(dǎo)致人的被剝削程度加重;其次,社會分工的細(xì)化、行業(yè)門檻的提高導(dǎo)致的人的日常工作、學(xué)習(xí)更加專注于某一方面的提升,缺失了全面發(fā)展的條件與意愿,甚至喪失了基本自理能力;最后,科學(xué)技術(shù)的精細(xì)分工,專業(yè)化程度加深,對現(xiàn)代人造成強(qiáng)大的工作壓力和精神壓力造成大面積的生存焦慮,也正是科學(xué)技術(shù)發(fā)展對人的異化體現(xiàn)。
生活方面造成精神的膚淺與思想的匱乏??茖W(xué)技術(shù)發(fā)展導(dǎo)致人的消費(fèi)和需要畸形,人們的消費(fèi)觀念被消費(fèi)主義思想占據(jù),科技產(chǎn)品引發(fā)人的符號消費(fèi)與攀比消費(fèi),求新、求異的消費(fèi)觀念被喧囂塵上的產(chǎn)品所引導(dǎo)、控制,使人失去自我,失去自主選擇權(quán)。人失去了對日常生活的正確認(rèn)識并被裹挾其中而不自知,喪失了合理批判社會現(xiàn)實的能力,失去了自由、創(chuàng)造力和超越性,成為馬爾庫塞筆下“單向度的人”。
2.主體性問題
所謂的主體性只是近代歷史和近代哲學(xué)發(fā)展的產(chǎn)物,由于科學(xué)技術(shù)的發(fā)展,人類得以從自然、愚昧中解放出來,成為獨立、自主、有意識的能動性的人。獨立性、自主性、能動性和創(chuàng)造性作為主體性的四個基本表征,是人在具體實踐中所展現(xiàn)出來的:人的自我意識、自我決策、自我認(rèn)同、自我超越,通過改造客觀世界與主觀世界實現(xiàn)自我的價值與尊嚴(yán),實現(xiàn)人的主體性存在。但是,人工智能在生產(chǎn)、生活中的普及,會削弱人在自然界、人類社會中的主體地位,出現(xiàn)主體性危機(jī)。
一方面,人類喪失決策權(quán)力使我們的主體地位受到前所未有的挑戰(zhàn)。人工智能所具有的高效信息收集、分析、推理、決策能力是人類所難以企及的,通過人工智能對數(shù)據(jù)進(jìn)行分析,得出“最優(yōu)解”是專家系統(tǒng)、金融投資分析等人工智能產(chǎn)品的目的,人們利用“最優(yōu)解”來做出決策,便是喪失了完全的自主決策權(quán)的先驗條件。另一方面,人工智能滲透的生產(chǎn)、生活的方方面面,而其技術(shù)準(zhǔn)入門檻高,創(chuàng)新難度大,而日常被人工智能輔助下的大部分人類喪失能動性與創(chuàng)造性而成為無用的階層,正如尤瓦爾·赫拉利在《人類簡史》中提到的“人工智能技術(shù)的快速發(fā)展必然導(dǎo)致無用的階層的興起”。
3.人際關(guān)系的擴(kuò)大化與人際孤島之間的矛盾
人工智能技術(shù)實現(xiàn)了人際關(guān)系的擴(kuò)大化,互聯(lián)網(wǎng)把世界連起來,即使身在大洋彼岸也可以通過郵箱、聊天軟件接收到對方的文字、聲音、圖像。與此同時,人際孤島的問題也逐漸顯現(xiàn):越來越多的人信奉“孤獨是人生的歸宿”,選擇獨身、獨居,甚至與虛擬人物結(jié)婚,“宅文化”盛行,個體與外界的隔離、小圈子與外界隔離,人活成一個孤島。
首先,人際關(guān)系擴(kuò)大化分散了與身邊人建立親密關(guān)系的精力。人工智能時代下萬物互聯(lián),新媒體的運(yùn)用使人際網(wǎng)絡(luò)廣度拓展,社交范圍的擴(kuò)大,人們更容易跨越距離,找到與自己志趣相投的群體,然而由此造成的信息繭房、自我封閉,同質(zhì)化強(qiáng)化也伴隨著風(fēng)險:走向狹隘與偏激,甚至影響人的思維模式、扭曲認(rèn)知。其次,虛擬社群降低了人際交往的欲望,反而更愿意接受機(jī)器。人工智能機(jī)器人的設(shè)計充分利用大數(shù)據(jù)的算法推薦及深度學(xué)習(xí),能夠比人更加“善解人意”,從而更好的滿足人的需求,繼而降低現(xiàn)實人際交往的欲望和必要性。最后,遠(yuǎn)程虛擬溝通技術(shù)會進(jìn)一步拉大了人與人交往的鴻溝,強(qiáng)化人際孤島效應(yīng)。虛擬現(xiàn)實和遠(yuǎn)程交往技術(shù)的發(fā)展使交往行為的真實性、正確性蒙上了迷霧,真誠性也難以得到確證,而面對面交流可能趨于日漸式微。人與人之間的信任被消磨,建立親密關(guān)系的難度增大,進(jìn)一步強(qiáng)化人際孤島。
二、安全困境
人工智能的安全問題是業(yè)界最關(guān)注的問題之一,安全是人類最基本的生理需求,只有在保證人身、心理安全的前提下,一切便利、效率才有意義。本章將從個人安全、社會穩(wěn)定、國家安全三個層面就隱私安全、分配公平、軍事運(yùn)用為切入點展開,對人工智能可能帶來的安全隱患進(jìn)行分析與探討。
1.大數(shù)據(jù)信息收集與個人隱私泄露之間的矛盾
人工智能的應(yīng)用與推廣需要海量的個人信息數(shù)據(jù)作為前提與支撐??梢哉f,正是由于近幾年互聯(lián)網(wǎng)、大數(shù)據(jù)的迅速發(fā)展,才促成了人工智能技術(shù)第三次浪潮的興起。大數(shù)據(jù)的使用、算力的提高和算法的突破,可謂是驅(qū)動人工智能技術(shù)發(fā)展的“三駕馬車”,人工智能才得以快速發(fā)展、廣泛應(yīng)用,并呈現(xiàn)出深度學(xué)習(xí)、跨界融合、人機(jī)協(xié)同、群智開放、自主操控等新特征。人工智能越是“智能”,就越需要獲取、存儲、分析更多的信息數(shù)據(jù),進(jìn)而通過學(xué)習(xí)、模擬以提高自身在某個領(lǐng)域的能力。大數(shù)據(jù)要求對相關(guān)數(shù)據(jù)進(jìn)行收集,醫(yī)療護(hù)理需要被服務(wù)對象的醫(yī)療數(shù)據(jù),教育需要教育數(shù)據(jù),必然會對個人的隱私造成侵犯,而獲取和處理海量的個人信息數(shù)據(jù),不可避免會涉及個人隱私保護(hù)這一重要倫理問題。
2.科技成果創(chuàng)造與公平合理共享之間的矛盾
公正作為一種評價社會制度的道德標(biāo)準(zhǔn), 始終有著不容忽視的重要價值。對于公平,羅爾斯強(qiáng)調(diào)機(jī)會公平,應(yīng)該給予弱勢群體足夠的重視與幫助。習(xí)近平總書記強(qiáng)調(diào)讓發(fā)展紅利惠及人民群眾,共享發(fā)展成果。但由于市場機(jī)制的作用,社會資源分配存在馬太效應(yīng),從而導(dǎo)致了社會不平等現(xiàn)象的加劇。
可能導(dǎo)致人工智能成果公平惠及人類的影響因素貫穿了AI產(chǎn)品從研發(fā)設(shè)計到運(yùn)營的全過程,每個環(huán)節(jié)都有偏離公平的杠桿,“失之毫厘,差之千里”,對技術(shù)紅利的公平分配和使用產(chǎn)生負(fù)面影響。如設(shè)計與應(yīng)用過程中的算法偏見問題:性別歧視、種族歧視、行業(yè)歧視等等,AI產(chǎn)品與服務(wù)設(shè)計階段、分配過程中將受眾標(biāo)簽化、圈層化;分配結(jié)果上貧富差距拉大成難以逾越的鴻溝,如擁有財富和權(quán)利的階層利用人機(jī)融合、芯片植入等技術(shù)實現(xiàn)體能強(qiáng)化、智力增強(qiáng),而社會底層的普通人別無選擇反而被人工智能替代成為“無用的階層”。
3.人工智能軍事方面的運(yùn)用導(dǎo)致國家間的安全困境
人工智能時代下,智能科技的快速發(fā)展加快了新一輪軍事革命的進(jìn)程,新時代的國防和軍隊建設(shè),面臨全方位深層次的改革創(chuàng)新與重塑。軍事領(lǐng)域的競爭正加速走向智權(quán)時代,戰(zhàn)爭的制勝機(jī)理將完全改變,戰(zhàn)爭形態(tài)、作戰(zhàn)方式、作戰(zhàn)能力等都會發(fā)生巨大變革。中國兵器科學(xué)研究院科技委副主任吳明曦預(yù)見:“未來,雖然大型有人作戰(zhàn)平臺會一直存在,但大多處于后臺和防區(qū)外,而在作戰(zhàn)前沿,戰(zhàn)場上有生力量的直接對抗將顯著減少,精確制導(dǎo)彈藥、蜂群武器、仿生機(jī)器人、機(jī)器人部隊作戰(zhàn),將成為常態(tài)?!盵1]
機(jī)器人作戰(zhàn)在大大降低傷亡率的同時,倫理問題也成為深思的話題。智能化降低傷亡成本的同時是否會增加軍備競賽的風(fēng)險?自動化武器或自主武器是否有權(quán)利決定殺死誰?如何確保不會殺死平民、傷及無辜?機(jī)器如何正確判斷士兵投降還是詐降?如何解決程序算法的潛在安全風(fēng)險?給用來殺戮的武器限定人道主義原則,本身就是對程度進(jìn)行把控的難題。因此對于軍事領(lǐng)域人工智能化的變革應(yīng)該慎之又慎,以維護(hù)國際安全與長治久安。
三、責(zé)任困境
由于人工智能本身具有安全風(fēng)險,當(dāng)其出現(xiàn)事故、對人造成傷害時,其具有的自主性、不可預(yù)測性等特征可能給責(zé)任承擔(dān)提出挑戰(zhàn),使得受害人的損害無法獲得彌補(bǔ)。該如何定責(zé)也人工智能倫理研究的重要議題,歐盟、英國等開始考慮出臺新的責(zé)任規(guī)則,如通過保險、賠償基金等方式來分擔(dān)事故的損害,但對于責(zé)任困境的解決任重道遠(yuǎn)。
1.責(zé)任主體地位的探討與確定
關(guān)于人工智能地位各方學(xué)者、專家眾說紛紜、各持己見:新工具主義者的代表人物布賴森(J.J.Bryson)認(rèn)為其不具備承擔(dān)責(zé)任的能力,應(yīng)該將機(jī)器人設(shè)計成奴隸,人類避免同情心泛濫,浪費(fèi)不必要的人力、時間、資源成本,不具有主體地位;而持有機(jī)器倫理觀點的代表人物瓦拉赫和艾倫在其合著的《道德機(jī)器》一書中主張將倫理規(guī)則植入到機(jī)器之中,設(shè)計生產(chǎn)有倫理道德觀念的智能體。甘克爾也認(rèn)同,如果智能機(jī)器人達(dá)到布魯克斯所形容的狀態(tài),卻仍然把它們當(dāng)做機(jī)器看待就是不道德的表現(xiàn)。
在探討是否認(rèn)同賦予人工智能主體地位方面,首先要將人工智能體的設(shè)計為人類所接受,人具有排他性,在倫理道德方面對其他物種更明顯,如機(jī)器人的“人形化”是機(jī)器人外形設(shè)計的必然趨勢,尤其是以與人溝通交流為目的的具有人格的機(jī)器人,他們不僅需要與人類有肢體交流還需要面部表情的交流。其次,人之所以是人,能作為一個道德主體被對待,正是因為人具有自我意識、欲望、情感,而之所以能有這些情感,與人產(chǎn)生共情心理,能夠體會到客體的情緒;如果說情感是心靈的表達(dá),那么理性就是大腦的外部展現(xiàn)。人工智能體應(yīng)該具備倫理決策與理性思維,需要其行為表現(xiàn)符合倫理道德規(guī)范,在遇到倫理問題時能夠做出合理的判斷。這需要在提高智能機(jī)器人思維能力的同時,完善其所遵循的倫理算法。
2.法律責(zé)任問題
2017年國務(wù)院發(fā)布的《新一代人工智能發(fā)展規(guī)劃》中要求“要建立保障人工智能健康發(fā)展的法律法規(guī),開展與人工智能應(yīng)用相關(guān)的法律問題研究,明確人工智能法律主體以及相關(guān)權(quán)利、義務(wù)和責(zé)任等,為新技術(shù)的快速應(yīng)用奠定基礎(chǔ)?!币虼耍紫葘θ斯ぶ悄芊芍黧w地位進(jìn)行界定成為學(xué)界的重點研究課題。
從法律的進(jìn)化變遷方面來看,法律文本與規(guī)定是隨著社會現(xiàn)實不斷變化和修正的,具備自主意識的強(qiáng)人工智能擔(dān)任一定社會角色融入人類生產(chǎn)尤其是日常生活中時,法律應(yīng)當(dāng)與時俱進(jìn),保持開放、靈活的態(tài)度,接納人工智能,在不同的場域?qū)θ斯ぶ悄苁┬胁煌姆梢?guī)范,優(yōu)化對人工智能時代下的人工智能體運(yùn)用與人機(jī)關(guān)系,不僅利于促進(jìn)人工智能產(chǎn)業(yè)健康發(fā)展,更有利于保障人類社會的平穩(wěn)運(yùn)行,增加便利性,提高人類的生活質(zhì)量和水平。
3.道德責(zé)任問題
關(guān)于道德責(zé)任問題,亞里士多德在《尼各馬可倫理學(xué)》第三卷中,至少提出了以下幾個論點:(1)承擔(dān)責(zé)任的行為必須在我們的能力范圍之內(nèi);(2)該行為必須出于行為者本身的意愿,而不能是被迫的;(3)承擔(dān)責(zé)任行為的起始因不能是出于無知。[2]從這三個責(zé)任主體應(yīng)當(dāng)承擔(dān)責(zé)任的條件來對人工智能體能否承擔(dān)責(zé)任進(jìn)行分析,人工智能體即使在被承認(rèn)道德主體的前提下仍舊不能確定能否承擔(dān)道德責(zé)任。
所謂承擔(dān)道德責(zé)任更多是對道德主體主觀內(nèi)心上的懲罰,有來自內(nèi)在的羞愧之感,也有來自外界的道德審判。道德高尚的人往往以嚴(yán)格的道德準(zhǔn)則要求自己,如果做了自己認(rèn)為不道德的事情,會有自責(zé)、羞愧等情緒,無法原諒自己的行為,也就是內(nèi)在的自我懲罰。而外在道德審判是通過謾罵譴責(zé)、甚至侮辱等方式,對其造成心理、精神方面的懲罰;或刺激喚醒其羞恥心,使其形成愧疚、自責(zé)等情感反饋。無論是內(nèi)在還是外在,都需要以具有情感、良知、良善為前提。因此人工智能能否“通情理”對于人的處境“感同身受”具有了情感,是其承擔(dān)道德責(zé)任的前提要件。
參考文獻(xiàn)
[1]吳明曦.現(xiàn)代戰(zhàn)爭正在加速從信息化向智能化時代邁進(jìn)[J].科技中國,2020(05):9-14.
[2][古希臘]亞里士多德.尼各馬可倫理學(xué)[M].廖申白,譯注.北京:商務(wù)印書館,2009:71-77.
(北京郵電大學(xué) 馬克思主義學(xué)院 北京 100876)