亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        人工智能視域下的倫理挑戰(zhàn)與應(yīng)對(duì)
        ——以無(wú)人駕駛作為分析對(duì)象

        2019-12-15 19:57:05
        唐都學(xué)刊 2019年3期
        關(guān)鍵詞:程序員無(wú)人駕駛倫理

        鐘 純

        (南京大學(xué) 哲學(xué)系,南京 210023)

        隨著科技的不斷進(jìn)步,人工智能是社會(huì)發(fā)展的必然趨勢(shì)。關(guān)于人工智能的話(huà)題,還得從2016年阿爾法以4比1大勝?lài)迨澜绻谲娎钍朗f(shuō)起,這場(chǎng)人機(jī)大戰(zhàn)的結(jié)果讓人不寒而栗,由此也引發(fā)了一系列關(guān)于機(jī)器人的討論。甚至有人拋出,未來(lái)人類(lèi)將會(huì)被機(jī)器人取代的言論。2016年5月在美國(guó)一輛電動(dòng)車(chē)與無(wú)人駕駛汽車(chē)相撞,造成電動(dòng)車(chē)司機(jī)死亡。2018年3月一輛Uber自動(dòng)駕駛汽車(chē)撞到一名女行人并致其死亡。關(guān)于人工智能諸如此類(lèi)的消息,不得不讓人去反思人工智能給人類(lèi)帶來(lái)的挑戰(zhàn)。為了解決此問(wèn)題,筆者借助了當(dāng)年本科在汽車(chē)領(lǐng)域所做的相關(guān)研究,再三思索,便選擇了人工智能視域下無(wú)人駕駛對(duì)人類(lèi)倫理道德挑戰(zhàn)與應(yīng)對(duì)的課題,提出無(wú)人駕駛的開(kāi)發(fā)者是否能開(kāi)發(fā)出“道德代碼”[注]“道德代碼”這一概念的提出是基于復(fù)旦大學(xué)徐英瑾教授在研究主流的人工智能倫理中的“倫理編碼”而形成的,他認(rèn)為所謂的“倫理編碼”是將倫理規(guī)范的內(nèi)容轉(zhuǎn)為機(jī)器編碼的作業(yè),且在邏輯上必須有一個(gè)好的語(yǔ)義學(xué)理論框架。而本文正是在此基礎(chǔ)上,將“倫理編碼”提升為“道德代碼”,認(rèn)為“道德代碼”指程序員除了按科學(xué)方式編碼外,另外在代碼里融入了道德情感,使編碼在執(zhí)行程序時(shí)具有道德價(jià)值判斷功能,即是說(shuō)編碼本身應(yīng)具備道德功能。這里將“倫理編碼”與“道德代碼”做簡(jiǎn)單的區(qū)分,“倫理編碼”作為對(duì)象客體是具有規(guī)范性的,不涉及人類(lèi)的主觀意志和道德情感;而“道德代碼”同樣作為對(duì)象客體,它更側(cè)重于人類(lèi)賦予其道德屬性,以致它能夠像人一樣做出合理的、有價(jià)值的道德行為。如此,它便兼顧客觀的規(guī)范性和主體的道德性雙重價(jià)值屬性。參見(jiàn)徐英瑾《具身性、認(rèn)知語(yǔ)言學(xué)與人工智能倫理學(xué)》,載于《上海師范大學(xué)學(xué)報(bào)》(哲學(xué)社會(huì)科學(xué)版)2017年第6期。、是否要規(guī)避安全風(fēng)險(xiǎn)、以及應(yīng)當(dāng)如何免受隱私泄露與產(chǎn)權(quán)如何保護(hù)等相關(guān)問(wèn)題,并從多角度、多層次、全方位來(lái)分析這些問(wèn)題,并對(duì)這些問(wèn)題做出合理的、具有可行性的應(yīng)對(duì)方案。

        一、無(wú)人駕駛的概念及現(xiàn)狀

        無(wú)人駕駛,又稱(chēng)無(wú)人駕駛技術(shù)、自動(dòng)駕駛系統(tǒng),它是基于傳感技術(shù)(利用攝像頭、雷達(dá)等檢測(cè)車(chē)輛周?chē)沫h(huán)境)、通信技術(shù)(利用網(wǎng)絡(luò)信號(hào)實(shí)現(xiàn)車(chē)與路之間的通信)以及控制技術(shù)(利用中央決策系統(tǒng)來(lái)實(shí)現(xiàn)路徑規(guī)劃和軌跡跟蹤)開(kāi)發(fā)出來(lái)的一種新興的自動(dòng)駕駛系統(tǒng),它不需要人來(lái)操縱車(chē)輛,便能對(duì)車(chē)輛運(yùn)動(dòng)及環(huán)境做出準(zhǔn)確的判斷,實(shí)時(shí)地改變車(chē)輛運(yùn)動(dòng),完成車(chē)輛駕駛?cè)蝿?wù)的一項(xiàng)新技術(shù)。相對(duì)傳統(tǒng)的汽車(chē)駕駛而言,無(wú)人駕駛具有更安全、油耗更低、污染物排放更少的顯著優(yōu)勢(shì)。研究表明,無(wú)人駕駛諸多優(yōu)勢(shì)表現(xiàn)在:第一,無(wú)人駕駛能使交通事故率降低至90%,道路通行利用率提高10%[注]數(shù)據(jù)來(lái)自畢馬威2014年發(fā)布《無(wú)人駕駛:下一代革命》的報(bào)告。,這不僅減少了交通事故所給人帶來(lái)的生命財(cái)產(chǎn)損失,而且還可以有效地避免堵車(chē)給人們帶來(lái)的煩惱。第二,綠色環(huán)保,低耗降排。尤其是在油耗方面,它不僅提高了20%~30%的汽車(chē)燃油經(jīng)濟(jì)性,還能夠在高速公路上編隊(duì)行使降低10%~15%的油耗[注]數(shù)據(jù)來(lái)自日本政府在2012年發(fā)布《實(shí)現(xiàn)自動(dòng)駕駛系統(tǒng)》的報(bào)告。。第三,給社會(huì)帶來(lái)顯著的經(jīng)濟(jì)效應(yīng),帶動(dòng)整個(gè)互聯(lián)網(wǎng)、通信、汽車(chē)業(yè)的發(fā)展。第四,改變傳統(tǒng)駕駛模式,減輕駕駛員負(fù)擔(dān)。第五,對(duì)國(guó)防建設(shè)也意義重大,如無(wú)人駕駛戰(zhàn)機(jī)、坦克、車(chē)輛等?;谌绱硕嗟膬?yōu)勢(shì),汽車(chē)企業(yè)和IT企業(yè)開(kāi)啟了對(duì)無(wú)人駕駛的研發(fā)。例如,在國(guó)外,谷歌公司早在2010年就公布了無(wú)人駕駛汽車(chē)項(xiàng)目,并取得一定的研究成果。此外,雷克薩斯、沃爾沃、寶馬、通用汽車(chē)、奔馳、福特、奧迪等汽車(chē)公司也對(duì)無(wú)人駕駛進(jìn)行了投入和研發(fā)。其中在無(wú)人駕駛方面,奧迪是繼谷歌之后第二家拿下美國(guó)無(wú)人駕駛測(cè)試的廠家,足見(jiàn)其無(wú)人駕駛的成熟;在國(guó)內(nèi),眾多的汽車(chē)企業(yè)和IT企業(yè)也積極參與無(wú)人駕駛的研發(fā),如百度在2015年就開(kāi)啟了無(wú)人駕駛汽車(chē)的研發(fā)計(jì)劃,該汽車(chē)可自動(dòng)識(shí)別交通指示牌和車(chē)輛信息,具備雷達(dá)、相機(jī)、全球衛(wèi)星導(dǎo)航等電子設(shè)施,并安裝同步傳感器。車(chē)主只要向?qū)Ш较到y(tǒng)里輸入目的地,汽車(chē)即可自動(dòng)駕駛,并前往目的地。在汽車(chē)企業(yè)方面,由一汽公司和國(guó)防科技大學(xué)研制的無(wú)人駕駛紅旗HQ3,在2011年就通過(guò)了試驗(yàn);北汽公司在2014年不僅進(jìn)行了無(wú)人駕駛示范運(yùn)營(yíng),還研發(fā)出自適應(yīng)防碰撞、道路識(shí)別系統(tǒng)、自我糾正系統(tǒng)、自適應(yīng)巡航等技術(shù);北京現(xiàn)代與軍事交通學(xué)院合作研發(fā)的無(wú)人駕駛汽車(chē)業(yè)已順利試驗(yàn),并推出面向普通民眾的體驗(yàn)計(jì)劃,等等。

        從學(xué)界來(lái)看,關(guān)于人工智能給學(xué)者帶來(lái)的倫理思考方面的研究不勝枚舉,其中比較有代表性的是甘紹平在其著作《應(yīng)用倫理學(xué)前沿問(wèn)題研究》中第四章責(zé)任倫理:科技時(shí)代的倫理,不僅對(duì)科技倫理做出明確的概念界定,而且對(duì)國(guó)內(nèi)外關(guān)于科技倫理前沿問(wèn)題進(jìn)行了深入剖析;比較有代表性的論文有徐英瑾的《具身性、認(rèn)知語(yǔ)言學(xué)與人工智能倫理學(xué)》(《上海師范大學(xué)學(xué)報(bào)·哲學(xué)社會(huì)科學(xué)版》2017年第6期)、史南飛的《對(duì)人工智能的道德憂(yōu)思》(《求索》2000年第6期)、杜嚴(yán)勇的《機(jī)器人倫理中的道德責(zé)任問(wèn)題研究》(《科學(xué)學(xué)研究》2017年第11期)以及陳靜茹的《人工智能技術(shù)的倫理問(wèn)題及其對(duì)策研究》(《學(xué)理論》2018年第12期)等等??傮w上,他們?cè)敿?xì)地分析了人工智能在宏觀層面上給社會(huì)帶來(lái)的倫理問(wèn)題,為后輩學(xué)者繼續(xù)研究人工智能微觀方面的倫理問(wèn)題奠定了基礎(chǔ)。由于人工智能在宏觀上包括機(jī)器人、語(yǔ)言識(shí)別、圖像識(shí)別、自然語(yǔ)言處理以及專(zhuān)家系統(tǒng)(自動(dòng)駕駛系統(tǒng))等方面,每個(gè)方面都有其要面對(duì)的倫理問(wèn)題,所以有必要對(duì)細(xì)化人工智能倫理問(wèn)題的研究。因此,本文就針對(duì)無(wú)人駕駛這方面的倫理問(wèn)題開(kāi)展研究工作。目前,僅有謝惠媛教授從科技倫理的角度,反思與民用無(wú)人駕駛伴隨的問(wèn)題,由此辯證地審視科技進(jìn)步對(duì)道德觀念的影響。本文在此基礎(chǔ)上,不僅分析、反思無(wú)人駕駛為什么會(huì)造成倫理難題,而且提出應(yīng)對(duì)無(wú)人駕駛造成倫理困境可操作性的建議與方案。

        二、無(wú)人駕駛對(duì)倫理的挑戰(zhàn)

        隨著我國(guó)北斗導(dǎo)航系統(tǒng)的完善,基于導(dǎo)航技術(shù)的無(wú)人駕駛也會(huì)得到國(guó)家以及相關(guān)部門(mén)的重視和支持,保證我國(guó)無(wú)人駕駛與國(guó)際研究水平接軌,推動(dòng)無(wú)人駕駛產(chǎn)業(yè)化、標(biāo)準(zhǔn)化。但無(wú)人駕駛在產(chǎn)業(yè)化的過(guò)程中仍有一定的技術(shù)難題,不但受到成本、法律、社會(huì)等因素的制約,還給人類(lèi)的倫理道德帶來(lái)一定程度的威脅與挑戰(zhàn)。

        1.無(wú)人駕駛難題與研發(fā)者之間的“道德困境”[注]一般而言,“道德困境”是指主體面對(duì)高科技倫理問(wèn)題時(shí)所陷入的困境,如在科技當(dāng)中,科學(xué)家是遵循自由精神還是遵從科學(xué)的社會(huì)功能,默頓就是科學(xué)功能主義的代表之一。而此處“道德困境”引申為程序員能否開(kāi)發(fā)出“道德代碼”的困境。

        無(wú)人駕駛是基于各種技術(shù)而開(kāi)發(fā)出來(lái)的智能系統(tǒng),其核心部分在于中央處理器對(duì)車(chē)輛的控制,而要控制車(chē)輛必須有相應(yīng)的程序設(shè)計(jì)。作為中央處理器的研發(fā)者,他們將特定的程序編入芯片,使中央處理器按固定的程序執(zhí)行任務(wù),這就涉及個(gè)體道德價(jià)值判斷與群體道德價(jià)值判斷的沖突問(wèn)題。不妨先想象一個(gè)場(chǎng)景試驗(yàn),再來(lái)分析二者沖突。假如,在同等的條件下,一輛由司機(jī)駕駛的汽車(chē)和一輛無(wú)人駕駛的汽車(chē)同時(shí)行駛在高速公路上,突然兩輛車(chē)發(fā)生同樣的車(chē)禍,司機(jī)會(huì)做出何種反應(yīng),無(wú)人駕駛的汽車(chē)又會(huì)怎么樣?一般而言,人在駕駛的過(guò)程中,一旦發(fā)生交通事故,是來(lái)不及理性地分析和判斷的,因?yàn)檫@是由事故的瞬時(shí)性決定的,但人是出于本能的反應(yīng),而這種本能就是立即停止傷害他人或自我保護(hù)。相較無(wú)人駕駛而言,由于汽車(chē)是利用計(jì)算機(jī)編程,把預(yù)設(shè)到事故多種可能結(jié)果用精細(xì)的程序代替,通過(guò)對(duì)事故現(xiàn)場(chǎng)的程序分析,并做出相應(yīng)的處理指令。但問(wèn)題是,程序是由程序員所設(shè)定,且他所設(shè)定的程序又并非事故現(xiàn)場(chǎng)的真實(shí)狀況,如何保證程序能夠及時(shí)止損或很好自動(dòng)處理好事故現(xiàn)場(chǎng)呢?換言之,程序是否應(yīng)該具備道德判斷的功能,或者說(shuō)此程序是否為“道德代碼”。若程序具備道德代碼,那么它代表的是程序員的價(jià)值判斷和理性抉擇,并非是汽車(chē)本身的價(jià)值判斷,在此意義上說(shuō),它就是個(gè)體的道德價(jià)值,即是作為司機(jī)這個(gè)群體的人對(duì)此事故做出的價(jià)值判斷。

        當(dāng)事故的發(fā)生危及生命或基本權(quán)利時(shí),無(wú)論是司機(jī)還是程序都必須做出回應(yīng)。作為群體價(jià)值判斷[注]群體價(jià)值判斷:把從事駕駛行業(yè)的司機(jī)當(dāng)作一類(lèi)人,在這個(gè)意義上講,他們就是一個(gè)群體。而群體價(jià)值是相對(duì)程序員個(gè)體而言的。,司機(jī)會(huì)基于本能的求生欲望中權(quán)衡自己的損失而做出回應(yīng),其結(jié)果無(wú)非就是主動(dòng)承擔(dān)、肇事逃逸。很顯然,司機(jī)的選擇正如“囚徒困境”一樣,做出對(duì)自己最有利的選擇,即主體價(jià)值權(quán)衡。相反,程序則不會(huì)思考,不會(huì)進(jìn)行道德判斷,面對(duì)出現(xiàn)的事故,其結(jié)果可能是繼續(xù)傷害,因?yàn)橐坏┏绦蚴軗p,無(wú)論是對(duì)人還是對(duì)車(chē)的傷害都是無(wú)法停止的。那么,問(wèn)題來(lái)了,若無(wú)人駕駛出現(xiàn)因程序問(wèn)題發(fā)生的事故,主體責(zé)任應(yīng)該是車(chē)還是程序,抑或是程序員,這就給交警處理交通事故時(shí)對(duì)主體責(zé)任的判斷造成一定的困境。然而,有些學(xué)者已經(jīng)提出將人的理性和道德融入程序的想法。如沃勒赫(Wendell Wallach)和艾倫(Colin Allen)認(rèn)為道德推理之功能的主張,以及安德森(Michael Anderson)等人關(guān)于為機(jī)器創(chuàng)造倫理并使計(jì)算機(jī)做出正確的倫理決定的看法。若此想法和主張能夠?qū)⒗硇赃x擇與道德判斷完美融合,那么我們又不得不思考程序員該如何編寫(xiě)“道德源代碼”[注]此代碼不是一般意義上的程序編碼,而是具有程序員賦予它的道德理性,它具道德思考、道德判斷,所稱(chēng)之為“道德源代碼”。?也就是說(shuō),“圖靈試驗(yàn)”[注]“圖靈試驗(yàn)”是美國(guó)的“人工智能之父”艾倫·麥席森·圖靈(Alan Mathison Turing)提出關(guān)于“機(jī)器人能思考么?”這一命題所進(jìn)行的試驗(yàn)。通過(guò)人機(jī)對(duì)話(huà)、答題的方式,去驗(yàn)證機(jī)器人是否跟人一樣具有思維。何以可能?換言之,當(dāng)植入“道德代碼”于自動(dòng)駕駛的汽車(chē)當(dāng)中,且能夠自主地應(yīng)對(duì)各種困境時(shí),“阿西莫夫三定律”[注]“阿西莫夫三定律”又稱(chēng)“機(jī)器人學(xué)三定律”,是美籍科幻作家艾薩克·阿西莫夫(Isaac Asimov)在《我,機(jī)器人》小說(shuō)一文引言中提出:“第0定律:機(jī)器人必須保護(hù)人類(lèi)的整體利益不受傷害;第一定律:機(jī)器人不得傷害人類(lèi)個(gè)體,或者目睹人類(lèi)個(gè)體將遭受危險(xiǎn)而袖手不管,除非這違反了機(jī)器人學(xué)第0定律;第二定律:機(jī)器人必須服從人給予它的命令,當(dāng)該命令與第0定律或者第一定律沖突時(shí)例外;第三定律:機(jī)器人在不違反第一、第二定律的情況下要盡可能保護(hù)自己?!北泔@得多余與無(wú)用,即機(jī)器人不得傷害人類(lèi),且當(dāng)人類(lèi)受到傷害時(shí)也不袖手旁觀的道德定律就是無(wú)用的設(shè)定。原因在于“道德代碼”已經(jīng)將自動(dòng)駕駛汽車(chē)未來(lái)可能出現(xiàn)的一切倫理問(wèn)題以及出現(xiàn)的任何風(fēng)險(xiǎn)都化解了,使自動(dòng)駕駛汽車(chē)絕對(duì)的安全、可靠。很顯然,這是不可能的。由此可見(jiàn),“道德代碼”與“阿西莫夫三定律”是一對(duì)二律背反。

        2.無(wú)人駕駛與安全的倫理準(zhǔn)則沖突

        盡管無(wú)人駕駛自公布于世以來(lái),受到汽車(chē)行業(yè)的追捧,宣稱(chēng)安全指數(shù)極高。事實(shí)上,無(wú)人駕駛真的能確保人的安全嗎?安全即不受到傷害,這是最基本的倫理準(zhǔn)則,也是人的基本價(jià)值。盡管無(wú)人駕駛在理論上要比人為駕駛安全、可靠,但遇到不可控的因素,二者誰(shuí)更安全就不言而喻了。無(wú)人駕駛所面對(duì)的環(huán)境是完全開(kāi)放的,天氣、光線、突發(fā)路況和有人駕駛汽車(chē)的共存等外部問(wèn)題如何平衡?谷歌無(wú)人駕駛車(chē)行駛321萬(wàn)公里就撞18次;特斯拉也出現(xiàn)過(guò)車(chē)禍致死的事故,這些都無(wú)不是因?yàn)橥獠吭蛩鶎?dǎo)致的。無(wú)人駕駛雖然減輕了司機(jī)的負(fù)擔(dān),但并未像司機(jī)一樣與外部的“生態(tài)環(huán)境”保持高度的一致。面對(duì)此種情況,無(wú)人駕駛連根本的安全都無(wú)法保證,又怎敢讓人安心坐車(chē)?!

        眾所周知,系統(tǒng)失控或出錯(cuò)是所有采用機(jī)械或電子技術(shù)產(chǎn)品的通病。假若碰上無(wú)人駕駛汽車(chē)系統(tǒng)死機(jī)了怎么辦?電腦死機(jī)猶可忍,可汽車(chē)“藍(lán)屏死機(jī)”就絕非一句抱怨那么簡(jiǎn)單,軟件延遲0.1秒響應(yīng)都極有可能引發(fā)交通事故。死機(jī)也罷,對(duì)無(wú)人駕駛系統(tǒng)最具攻擊性、殺傷力的莫過(guò)于黑客植入的病毒。電腦中病毒了,有殺毒軟件,汽車(chē)不也一樣嗎?雖然像特斯拉給無(wú)人駕駛系統(tǒng)增加了秘密鑰匙,谷歌也經(jīng)常發(fā)布補(bǔ)丁來(lái)修復(fù)無(wú)人駕駛車(chē)互聯(lián)網(wǎng)的安全漏洞,但是黑客與反黑客本身就是一種博弈,每當(dāng)一個(gè)問(wèn)題解決了,就會(huì)有一個(gè)新的問(wèn)題出現(xiàn)。所以說(shuō),黑客不僅是程序員的克星,更是無(wú)人駕駛車(chē)安全問(wèn)題的制造者。既然黑客無(wú)孔不入,那么消費(fèi)者使用被黑客攻擊的無(wú)人駕駛汽車(chē)而造成交通事故時(shí),其主體責(zé)任是在于消費(fèi)者還是開(kāi)發(fā)者,或者是生產(chǎn)廠商?因此,盡管無(wú)人駕駛的安全性較高,但在發(fā)生交通事故時(shí),主體責(zé)任在于誰(shuí)?誰(shuí)又能為事故者買(mǎi)單?對(duì)此,美國(guó)學(xué)者Alexander Hevelke指出,即使無(wú)人駕駛只能減少部分道路交通的傷亡,政府也有義務(wù)推動(dòng)其發(fā)展,然而一旦完全無(wú)人駕駛汽車(chē)上路,就必須明確為可能產(chǎn)生的交通事故負(fù)責(zé)任。事實(shí)上,無(wú)人駕駛汽車(chē)作為一項(xiàng)有價(jià)值的產(chǎn)業(yè),推動(dòng)其發(fā)展無(wú)可厚非,但可能的風(fēng)險(xiǎn)和潛在的問(wèn)題,卻是棘手的難題。所以,Nick Belay提出要明確“行使權(quán)”和“駕駛權(quán)”的問(wèn)題,認(rèn)為無(wú)人駕駛汽車(chē)在其上市前,就必須通過(guò)法律明確“行使權(quán)”和“駕駛權(quán)”的問(wèn)題。這無(wú)疑是對(duì)無(wú)人駕駛安全責(zé)任的確立。

        由此可見(jiàn),作為一把雙刃劍,無(wú)人駕駛汽車(chē)既有助于經(jīng)濟(jì)的發(fā)展,但又對(duì)人類(lèi)生命構(gòu)成潛在的風(fēng)險(xiǎn)。盡管任何一項(xiàng)新技術(shù)都不可能確保人類(lèi)百分之百安全,但如何讓事故風(fēng)險(xiǎn)降到最低以及特殊情況下發(fā)生的事故如何負(fù)責(zé),是人類(lèi)尋找無(wú)人駕駛汽車(chē)的正確出路。

        3.無(wú)人駕駛與經(jīng)濟(jì)倫理中的“技術(shù)性失業(yè)”的關(guān)聯(lián)

        人們?cè)谙硎軣o(wú)人駕駛帶來(lái)的快樂(lè)的同時(shí),也會(huì)造成勞動(dòng)者失業(yè),首當(dāng)其沖的是司機(jī)這個(gè)職業(yè)。作為一項(xiàng)開(kāi)車(chē)技術(shù),駕駛對(duì)駕駛員的技術(shù)要求是比較高的,尤其是手與腳的協(xié)同配合性。一旦無(wú)人駕駛得到普及和推廣,必然會(huì)引起從事司機(jī)職業(yè)的勞動(dòng)者失業(yè)的現(xiàn)象。這里,把此等現(xiàn)象稱(chēng)之為“技術(shù)性失業(yè)”,所謂“技術(shù)性失業(yè)”,是指人工智能取代了傳統(tǒng)勞動(dòng)力,并改善或改造生產(chǎn)方式所造成的失業(yè)。隨著科學(xué)技術(shù)的進(jìn)步與應(yīng)用,產(chǎn)業(yè)結(jié)構(gòu)的變化、勞動(dòng)生產(chǎn)率的提高,導(dǎo)致工業(yè)部門(mén)對(duì)勞動(dòng)力的需求數(shù)量相對(duì)減少,而對(duì)勞動(dòng)者的質(zhì)量、技術(shù)水平要求的提高,兩者都可能成為引起技術(shù)性失業(yè)的原因。換言之,在經(jīng)濟(jì)體內(nèi)部,勞動(dòng)力總需求并不因?yàn)槭褂眉夹g(shù)而受到影響,除非一些特殊等級(jí)和類(lèi)型的人需求會(huì)造成長(zhǎng)期不利的影響,其數(shù)量相對(duì)有限。由于使用節(jié)省勞動(dòng)力的機(jī)器和技術(shù),勞動(dòng)力可能遭遇失業(yè)。而無(wú)人駕駛不得不面對(duì)技術(shù)失業(yè)給經(jīng)濟(jì)倫理所帶來(lái)的挑戰(zhàn)。斯坦福大學(xué)人工智能與倫理學(xué)教授杰瑞·卡普蘭(Jerry Kaplan)在《人工智能時(shí)代》一書(shū)中指出:“人類(lèi)要應(yīng)對(duì)人工智能帶來(lái)的重大挑戰(zhàn)在于勞動(dòng)力的變革和整個(gè)社會(huì)財(cái)富的分配方面,這將極大地影響社會(huì)的穩(wěn)定?!盵注]轉(zhuǎn)引自上海市哲學(xué)社會(huì)科學(xué)規(guī)劃辦公室、上海社會(huì)科學(xué)院信息研究所主編《國(guó)外社會(huì)科學(xué)前沿》,上海人民出版社2017年版,第101頁(yè)。無(wú)疑,無(wú)人駕駛使傳統(tǒng)汽車(chē)司機(jī)下崗的同時(shí),也在一定程度上使整個(gè)勞動(dòng)力市場(chǎng)失衡。世界經(jīng)濟(jì)論壇主編K.施瓦布(Klaus Schwab)在達(dá)沃斯也傳達(dá)了高科技如果廣泛地應(yīng)用,在今后可能導(dǎo)致更多的人下崗這一觀點(diǎn)。事實(shí)上,勞動(dòng)力與勞動(dòng)市場(chǎng)該如何轉(zhuǎn)型的問(wèn)題也正是由科學(xué)技術(shù)點(diǎn)燃的。馬克思指出:“技術(shù)性失業(yè)”是人被“異化”的結(jié)果,“科學(xué)對(duì)于勞動(dòng)來(lái)說(shuō),表現(xiàn)為異己的、敵對(duì)的和統(tǒng)治的權(quán)利,而科學(xué)的應(yīng)用一方面表現(xiàn)為靠經(jīng)驗(yàn)傳下來(lái)的知識(shí)、觀察和職業(yè)秘方的集中;另一方面表現(xiàn)為把它們發(fā)展為科學(xué),用以分析生產(chǎn)過(guò)程,把自然科學(xué)應(yīng)用于物質(zhì)生產(chǎn)過(guò)程。科學(xué)的應(yīng)用是建立在生產(chǎn)過(guò)程的智力同單個(gè)人的知識(shí)、經(jīng)驗(yàn)和技能相分離的基礎(chǔ)上的。正像生產(chǎn)的(物質(zhì))的集中和發(fā)展以及這些條件轉(zhuǎn)化為資本是建立在使人喪失這些條件,使人同這些條件相分離的基礎(chǔ)上的一樣?!盵5]從馬克思經(jīng)濟(jì)學(xué)的觀點(diǎn)來(lái)看,無(wú)人駕駛正是基于人類(lèi)的駕駛知識(shí)、經(jīng)驗(yàn)和職業(yè)秘方之中,使真正從事駕駛行業(yè)的勞動(dòng)者所擁有的這些被它無(wú)情地剝奪了,從而導(dǎo)致技術(shù)性失業(yè)。實(shí)際上,作為無(wú)人駕駛是駕駛員被高科技“異化”的結(jié)果。所以,面對(duì)此種經(jīng)濟(jì)倫理困境,如何平衡傳統(tǒng)職業(yè)與無(wú)人駕駛這種高科技駕駛員是國(guó)家在就業(yè)保障上不得不反思的一個(gè)重要問(wèn)題。

        4.無(wú)人駕駛與隱私、專(zhuān)利之間的道德問(wèn)責(zé)

        面對(duì)無(wú)人駕駛與隱私、專(zhuān)利之間的矛盾沖突,我們不禁要問(wèn):無(wú)人駕駛?cè)绾蚊鎸?duì)不斷被赦免的隱私和知識(shí)產(chǎn)權(quán)侵權(quán)原罪?隱私原本是指不受他人干涉的自由狀態(tài),后經(jīng)法理學(xué)學(xué)者把隱私的立法寫(xiě)入法律,成為人類(lèi)一項(xiàng)特有的權(quán)利,后引申為非經(jīng)授權(quán),個(gè)人權(quán)利、財(cái)產(chǎn)免受公共審查和曝光。在日常生活中,所謂的隱私就是個(gè)人信息沒(méi)經(jīng)過(guò)自己的允許是不準(zhǔn)被他人收集、處理和利用的。然而,隨著互聯(lián)網(wǎng)時(shí)代的到來(lái),網(wǎng)絡(luò)作為一種全新處理信息的方式,難免在人際交流被不法分子竊取個(gè)人隱私,這給隱私的保護(hù)帶來(lái)了極大的挑戰(zhàn)。無(wú)人駕駛也不例外,因?yàn)闊o(wú)人駕駛是在網(wǎng)絡(luò)、大數(shù)據(jù)等技術(shù)支持下運(yùn)行的,也會(huì)涉及個(gè)人信息的驗(yàn)證,比如指紋信息、文字信息、刷臉等等。那么,如何保證開(kāi)發(fā)無(wú)人駕駛的開(kāi)發(fā)者遵守職業(yè)道德,保護(hù)消費(fèi)者的隱私?或言,汽車(chē)被盜或系統(tǒng)遭受黑客攻擊時(shí),如何有效地防止車(chē)主的信息泄露?因此,無(wú)人駕駛與隱私,便成了一個(gè)棘手而又難以解決的道德問(wèn)題。

        作為一項(xiàng)發(fā)明和創(chuàng)造,無(wú)人駕駛應(yīng)該加強(qiáng)其知識(shí)產(chǎn)權(quán)的保護(hù)。據(jù)統(tǒng)計(jì),人工智能技術(shù)領(lǐng)域的相關(guān)專(zhuān)利申請(qǐng)數(shù)量已超過(guò)2.4萬(wàn)件[注]數(shù)據(jù)來(lái)源于《中國(guó)經(jīng)濟(jì)報(bào)告》2017年第3期。。其中,美國(guó)居申請(qǐng)專(zhuān)利的榜首,在人工智能領(lǐng)域的企業(yè)IBM申請(qǐng)了2 399件、谷歌申請(qǐng)了2 171件、微軟申請(qǐng)了1 544件。相比國(guó)內(nèi),人工智能方面的專(zhuān)利盡管起步比較晚,但還有不少企業(yè)在申請(qǐng),如百度申請(qǐng)了446件、阿里巴巴申請(qǐng)了383件、騰訊申請(qǐng)了201件??梢?jiàn),無(wú)論是國(guó)外還是國(guó)內(nèi),新興技術(shù)領(lǐng)域的知識(shí)產(chǎn)權(quán)保護(hù)呈上升趨勢(shì)。雖然這些專(zhuān)利、發(fā)明需要法律保護(hù),但是作為人工智能的無(wú)人駕駛,就涉及諸多倫理方面。假若兩家企業(yè)同時(shí)推出無(wú)人駕駛技術(shù),如何判定這項(xiàng)技術(shù)歸屬誰(shuí)?誰(shuí)是技襲,誰(shuí)又是原創(chuàng)?換言之,無(wú)人駕駛涉及編程,而這個(gè)編程可能被同行所使用,這個(gè)知識(shí)產(chǎn)權(quán)如何界定這個(gè)程序誰(shuí)先發(fā)明、誰(shuí)先使用、誰(shuí)侵權(quán)了,等等??梢?jiàn),無(wú)人駕駛所涉及的知識(shí)產(chǎn)權(quán)原罪的判定在開(kāi)發(fā)程序者與使用程序者之間的責(zé)任界限便提到議程上來(lái)了。

        三、應(yīng)對(duì)無(wú)人駕駛倫理危機(jī)的方案

        無(wú)人駕駛推動(dòng)社會(huì)發(fā)展進(jìn)步的同時(shí),其發(fā)展的不確定性也會(huì)給倫理道德帶來(lái)新的挑戰(zhàn),甚至出現(xiàn)新一輪的道德危機(jī)。面對(duì)此一窘境,在大力發(fā)展無(wú)人駕駛的同時(shí),需要考慮其發(fā)展可能帶來(lái):對(duì)社會(huì)就業(yè)的沖擊、對(duì)社會(huì)責(zé)任倫理的判斷失準(zhǔn)、對(duì)個(gè)人隱私及產(chǎn)品保護(hù)權(quán)的侵犯以及安全風(fēng)險(xiǎn)的挑戰(zhàn)等諸多問(wèn)題。有鑒于此,筆者從以下幾個(gè)方面嘗試擬出應(yīng)對(duì)方案和措施建議:

        第一,從倫理道德角度言,將人的道德理性融入程序,研發(fā)“道德代碼”來(lái)明確無(wú)人駕駛道德主體責(zé)任。前文所提到的無(wú)人駕駛難題與研發(fā)者的道德困境主要原因是:在具體、特定的情況下,無(wú)人駕駛汽車(chē)發(fā)生交通事故時(shí),道德責(zé)任主體不明,就會(huì)催生一系列的道德問(wèn)題,如“道德代碼”本身存在與否、主體責(zé)任判定等難題。從科學(xué)的角度言,機(jī)器人不具備人思維的特征,但不一定不具備道德的屬性。假若真如沃勒赫和艾倫兩位學(xué)者所言,將理性與道德植入程序,讓無(wú)人駕駛具道德判斷功能,那么個(gè)體價(jià)值判斷(程序員)與群體價(jià)值判斷(駕駛員)之間的困境就很好地解決了。由于程序員所開(kāi)發(fā)的程序具有道德價(jià)值判斷,且程序員所要研發(fā)的程序必須從駕駛員的角度去考慮,所以程序員就能與駕駛員很好地展開(kāi)對(duì)話(huà),達(dá)成共識(shí)。至于意外發(fā)生交通事故,責(zé)任主體存在不明的現(xiàn)象也不攻自破,因?yàn)榧热粺o(wú)人駕駛的開(kāi)發(fā)者能與駕駛員達(dá)成一致,那么無(wú)人駕駛汽車(chē)名義上的司機(jī)應(yīng)是程序員。顯然,主體責(zé)任在于程序員,即只要程序員將個(gè)人意志與程序完美地結(jié)合而研制出“道德代碼”,就能使交警更加快捷、方便地處理無(wú)人駕駛汽車(chē)突發(fā)的交通事故。

        第二,從生命倫理角度言,構(gòu)建無(wú)人駕駛安全檢測(cè)預(yù)警機(jī)制。在生命倫理中,不傷害他人,不被他人傷害就是其最基本的倫理原則,正如阿西莫夫提出的“機(jī)器人三大定律”一樣,機(jī)器人是為人服務(wù)的,不能害人類(lèi)。安全作為人最基本的倫理準(zhǔn)則,尤其是在人類(lèi)過(guò)分相信高科技而忽視未來(lái)安全的情況下,有必要完善無(wú)人駕駛的安全體系,以面對(duì)外部不可控的“生態(tài)環(huán)境”,準(zhǔn)確地做出跟蹤和研判。構(gòu)建無(wú)人駕駛的安全體系,不僅是企業(yè)要加強(qiáng)對(duì)無(wú)人駕駛發(fā)展的預(yù)測(cè)、研判和跟蹤,精確地把握此技術(shù)的發(fā)展趨勢(shì),而且國(guó)家更要“構(gòu)建動(dòng)態(tài)的人工智能研發(fā)應(yīng)用評(píng)估評(píng)價(jià)機(jī)制,圍繞人工智能設(shè)計(jì)、產(chǎn)品和系統(tǒng)的復(fù)雜性、風(fēng)險(xiǎn)性、不確定性、可解釋性、潛在經(jīng)濟(jì)影響等問(wèn)題,開(kāi)發(fā)系統(tǒng)性的測(cè)試方法和指標(biāo)體系,建設(shè)跨領(lǐng)域的人工智能測(cè)試平臺(tái)”[6]。由于黑客、系統(tǒng)漏洞給消費(fèi)者帶來(lái)的安全風(fēng)險(xiǎn),應(yīng)由開(kāi)發(fā)者負(fù)全責(zé)。美國(guó)科學(xué)哲學(xué)家納爾遜·古德曼(Nelson Goodman)對(duì)此毫不猶豫地指出:“在所有的黑客入侵行為中,95%以上都是利用舊的安全漏洞進(jìn)行的。同時(shí),可以彌補(bǔ)這些漏洞的補(bǔ)丁也是現(xiàn)成的。因此,完美需要的軟件是能夠自動(dòng)更新、自動(dòng)彌補(bǔ)漏洞并阻止黑客入侵的軟件。必須讓軟件自動(dòng)實(shí)現(xiàn)這些功能,必須把責(zé)任落實(shí)到開(kāi)發(fā)者身上,而不是消費(fèi)者身上?!盵7]可見(jiàn),作為無(wú)人駕駛的開(kāi)發(fā)者,程序員有必要對(duì)無(wú)人駕駛的安全負(fù)全責(zé),以便更好地激勵(lì)程序員對(duì)此技術(shù)做進(jìn)一步的改良和提升。

        第三,從主體價(jià)值角度言,適應(yīng)市場(chǎng)的發(fā)展,改變就業(yè)方式。在人工智能的大背景下,無(wú)人駕駛替換了駕駛員,導(dǎo)致從事交通業(yè)的司機(jī)下崗。司機(jī)這個(gè)職業(yè)并非是簡(jiǎn)單重復(fù)性勞動(dòng),因?yàn)閺氖麓寺殬I(yè)需要考取駕照。用馬克思對(duì)勞動(dòng)分類(lèi)的觀點(diǎn)來(lái)看,司機(jī)的駕駛技術(shù)屬于復(fù)雜勞動(dòng)。作為經(jīng)濟(jì)倫理的一個(gè)重要指標(biāo),失業(yè)率是社會(huì)經(jīng)濟(jì)活動(dòng)中衡量經(jīng)濟(jì)的標(biāo)準(zhǔn)之一,尤其是新興技術(shù)的崛起,對(duì)傳統(tǒng)的就業(yè)有很大的沖擊。在2017年,國(guó)家就把人工智能寫(xiě)入未來(lái)經(jīng)濟(jì)發(fā)展規(guī)劃,并對(duì)其所造成的失業(yè)提出預(yù)案:“加快研究人工智能帶來(lái)的就業(yè)結(jié)構(gòu)、就業(yè)方式轉(zhuǎn)變以及新型職業(yè)和工作崗位的技能需求,建立適應(yīng)智能經(jīng)濟(jì)和智能社會(huì)需要的終身學(xué)習(xí)和就業(yè)培訓(xùn)體系?!盵6]事實(shí)上,在汽車(chē)領(lǐng)域智能化是在所難免的,而無(wú)人駕駛造成“技術(shù)性失業(yè)”也是必然。但面對(duì)此種情況,不應(yīng)悲觀消極應(yīng)對(duì),而是積極適應(yīng)并做出相應(yīng)的改變,正如《國(guó)務(wù)院關(guān)于印發(fā)新一代人工智能發(fā)展規(guī)劃的通知》所提出的適應(yīng)智能社會(huì),樹(shù)立終身學(xué)習(xí)的理念。如果司機(jī)下崗,可以鼓勵(lì)他們?nèi)W(xué)習(xí)汽車(chē)相關(guān)知識(shí),并從事汽修行業(yè)?;蛘呒訌?qiáng)失業(yè)者再就業(yè)培訓(xùn)指導(dǎo),促進(jìn)無(wú)人駕駛失業(yè)的人員順利轉(zhuǎn)崗等。

        第四,從責(zé)任倫理角度言,建立追溯和問(wèn)責(zé)制度。所謂問(wèn)責(zé)制度,是指在使用無(wú)人駕駛時(shí),明確相關(guān)責(zé)任主體的權(quán)利、義務(wù)和責(zé)任,一旦發(fā)生交通事故,無(wú)論是開(kāi)發(fā)者、生產(chǎn)商還是消費(fèi)者,都可以清晰明確地知道所應(yīng)承擔(dān)的責(zé)任。由此,筆者提出避免道德歸責(zé)的兩種方案:一是補(bǔ)償方案。此方案是被植入“道德代碼”的無(wú)人駕駛汽車(chē)是基本完全自主,從道德上講,無(wú)人駕駛汽車(chē)不應(yīng)該被追究責(zé)任,僅是研發(fā)公司、企業(yè)擔(dān)負(fù)補(bǔ)償、賠償損失的責(zé)任;二是統(tǒng)一規(guī)則方案。被植入“道德代碼”的汽車(chē),由于是將全體性結(jié)構(gòu)程序算法的精確化,并有統(tǒng)一的規(guī)則,這就有效地避免了個(gè)人歸責(zé)的難題。此外,在隱私保護(hù)上,不僅要從法律上進(jìn)行立法保護(hù),更要從倫理規(guī)范上規(guī)范、約束侵害個(gè)人隱私的行為。國(guó)家對(duì)人工智能發(fā)展規(guī)劃就明確提出要逐步建設(shè)并完善隱私保護(hù)等標(biāo)準(zhǔn),制定人工智能產(chǎn)品研發(fā)設(shè)計(jì)人員的道德規(guī)范和行為守則[6]。從科技倫理的角度看,建立問(wèn)責(zé)制度正是解決科學(xué)共同體的道德規(guī)范和科技從業(yè)者的職業(yè)道德問(wèn)題的指南針。

        第五,從法律的角度言,完善知識(shí)產(chǎn)權(quán)的評(píng)估體系。由于無(wú)人駕駛與商業(yè)貿(mào)易日益密切,加強(qiáng)對(duì)自動(dòng)駕駛技術(shù)知識(shí)產(chǎn)權(quán)的保護(hù)就顯得十分必要,這有利于防止形成惡性競(jìng)爭(zhēng)。前文所提到技術(shù)歸屬權(quán)的問(wèn)題,實(shí)際上就是專(zhuān)利應(yīng)該屬于誰(shuí),其中最難界定的是程序最先開(kāi)發(fā)者,所以解決此問(wèn)題的關(guān)鍵在于要對(duì)“源代碼”進(jìn)行保護(hù),尤其是在專(zhuān)利申請(qǐng)時(shí),對(duì)“源代碼”保護(hù)的期限、授權(quán)做出明確的規(guī)定。只有適時(shí)地完善知識(shí)產(chǎn)權(quán)這方面的相關(guān)法規(guī),才能使我國(guó)的知識(shí)產(chǎn)權(quán)制度更好地為促進(jìn)我國(guó)科技的發(fā)展服務(wù)。從開(kāi)發(fā)者角度言,也只有尊重他們的科研成果、科研利益,才能充分調(diào)動(dòng)他們對(duì)無(wú)人駕駛的研究和開(kāi)發(fā)。隨著美國(guó)國(guó)會(huì)在1980年《專(zhuān)利商標(biāo)法修正案》的提出及1986年《聯(lián)邦技術(shù)轉(zhuǎn)讓法案》的頒布,越來(lái)越多的國(guó)家也在制定相關(guān)的法律法規(guī)來(lái)保護(hù)專(zhuān)利。由此可見(jiàn),我國(guó)也應(yīng)不斷完善相應(yīng)的知識(shí)產(chǎn)權(quán)保護(hù)法,以確保無(wú)人駕駛知識(shí)產(chǎn)權(quán)不被侵害。

        綜上所述,隨著人工智能的飛速發(fā)展,無(wú)人駕駛技術(shù)日趨成熟,使得“智能汽車(chē)”走進(jìn)人們的視野,這不僅顛覆了傳統(tǒng)的汽車(chē)功能,更是給汽車(chē)行業(yè)注入了新的活力。自動(dòng)駕駛在給人們帶來(lái)更多的方便、享受到更多駕駛中悠閑時(shí)間的同時(shí),也涉及諸多方面的倫理道德難題,如何面對(duì)此難題,是擺在我們面前的一大挑戰(zhàn),也是值得我們深入探討的重要課題。面對(duì)無(wú)人駕駛給我們?cè)斐傻膫惱砝Ь?,筆者主要剖析了無(wú)人駕駛開(kāi)發(fā)者與傳統(tǒng)駕駛之間的道德困境、無(wú)人駕駛的安全性、無(wú)人駕駛對(duì)從事駕駛業(yè)的挑戰(zhàn)以及對(duì)免受隱私泄露和產(chǎn)權(quán)知識(shí)的保護(hù)等問(wèn)題,并嘗試綜合各個(gè)角度對(duì)這些問(wèn)題給出應(yīng)對(duì)建議,如倫理道德、生命倫理、主體價(jià)值、責(zé)任倫理、法律等方面的方案,力求面面俱到。但不足的是,由于在應(yīng)對(duì)此挑戰(zhàn)時(shí),涉及的范疇太廣,以致應(yīng)對(duì)措施不夠深入。所以,筆者也只是想在對(duì)無(wú)人駕駛對(duì)倫理道德挑戰(zhàn)上拋磚引玉,以促使更多的學(xué)者關(guān)注如何應(yīng)對(duì)人工智能給人類(lèi)造成的困境,規(guī)避無(wú)人駕駛給人類(lèi)帶來(lái)的風(fēng)險(xiǎn),減少科技的負(fù)面影響,而不是“為問(wèn)題而言問(wèn)題”,不敢嘗試用新的理論、方式、路徑去應(yīng)對(duì)此挑戰(zhàn)。我相信,只要通過(guò)深入而廣泛的研究應(yīng)對(duì)措施,才能使科技具備“人文性”[注]這里的“人文性”特指人類(lèi)所創(chuàng)造發(fā)明的科技產(chǎn)品的目的是為人類(lèi)服務(wù)的,要避免因科技使人類(lèi)陷入道德的困境。在某種程度上講,這種“人文性”就是人性化,即符合人類(lèi)需求的同時(shí),又不違背人的尊嚴(yán)和價(jià)值。,更好地為人類(lèi)服務(wù)。

        猜你喜歡
        程序員無(wú)人駕駛倫理
        為了讓媽媽看懂地圖,一位“野生程序員”做了個(gè)小程序
        《心之死》的趣味與倫理焦慮
        我們村的無(wú)人駕駛公交
        無(wú)人駕駛車(chē)輛
        科學(xué)(2020年3期)2020-11-26 08:18:28
        怎樣成為一名優(yōu)秀程序員
        幼兒100(2020年29期)2020-10-21 06:17:58
        無(wú)人駕駛公園
        護(hù)生眼中的倫理修養(yǎng)
        活力(2019年19期)2020-01-06 07:37:00
        程序員之子
        意林(2017年24期)2018-01-02 22:49:14
        加班
        三月三(2016年6期)2016-06-21 10:25:33
        醫(yī)改莫忘構(gòu)建倫理新機(jī)制
        少妇内射兰兰久久| 日韩一二三四区在线观看| 国产黄色一区二区福利| 中文字幕乱码免费视频| 久久久久久国产精品美女| 久久精品无码专区东京热| 五月婷婷激情六月| 在线亚洲AV不卡一区二区| 国产成人精品视频网站| 最大色网男人的av天堂| 久久少妇呻吟视频久久久| 午夜一区二区三区免费观看| 女优av性天堂网男人天堂| 日韩av一区二区不卡| 亚洲中文字幕在线一区| 激情综合五月| 国自产拍偷拍精品啪啪一区二区 | 国产一区亚洲二区三区极品| 日本高清乱码中文字幕| 极品粉嫩嫩模大尺度无码视频| 久久精品国产精品亚洲| 人妻在线日韩免费视频| 国产一起色一起爱| 2021国内精品久久久久精免费| 日本高清中文字幕二区在线| 国产情侣自拍偷拍精品| 日韩一本之道一区中文字幕| 女人被狂躁的高潮免费视频| 亚洲午夜无码av毛片久久| 在线永久免费观看黄网站| 久久久亚洲经典视频| 国产日韩欧美视频成人| 国产一区二区三区视频了| 国产视频激情在线观看| 国产精品毛片无遮挡高清| 肉色欧美久久久久久久免费看| 消息称老熟妇乱视频一区二区| 三级4级全黄60分钟| 午夜亚洲国产精品福利| 一道本中文字幕在线播放| 一本色道久久综合亚洲精品不|