亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        電車難題、隱私保護(hù)與自動駕駛

        2019-03-16 03:20:19唐興華郭喨唐解云
        關(guān)鍵詞:電車乘客倫理

        唐興華 郭喨 唐解云

        [摘要]自動駕駛將深刻改變我們的生活形態(tài),其帶來的倫理困境與隱私?jīng)_突也將集中呈現(xiàn)。倫理困境在個體層面體現(xiàn)為事故時的“電車難題”等倫理選擇問題,可以通過在危機(jī)處理時“量化價值”并預(yù)先嵌入“道德代碼”,使軟件的行為邏輯符合人類社會的倫理準(zhǔn)則;就社會層面而言,可以通過考察和建立多元化協(xié)作平臺的方式處理自動駕駛車輛事故及其責(zé)任分配問題。在隱私保護(hù)方面,乘客需要向自動駕駛這一“透明監(jiān)獄”交付大量重要的個人信息以換取足夠的便利,涉及網(wǎng)絡(luò)隱私保護(hù)和信息泄露等問題??赏ㄟ^成立數(shù)據(jù)管理組織管理信息的合法使用,從而實現(xiàn)乘客、數(shù)據(jù)管理組織、政府以及軟件供應(yīng)商等共同努力保護(hù)信息安全和乘客隱私,克服軟件脆弱性導(dǎo)致的信息泄露等問題。自動駕駛的到來難以抗拒,但這些問題必須優(yōu)先得到解決。

        [關(guān) 鍵 詞]自動駕駛 ?電車難題 ?價值量化 ?道德代碼 ?倫理困境 ?隱私保護(hù)

        [基金項目]本文系安徽省社會科學(xué)創(chuàng)新發(fā)展研究課題攻關(guān)項目“人工智能革命及其社會治理”(2018CX125)階段性成果。

        [作者簡介]唐興華(1992-),女,山東煙臺人,清華大學(xué)科學(xué)史系博士生,研究方向:技術(shù)哲學(xué)、STS、自動駕駛問題;郭喨(1986-),男,湖北鄖陽人,科技哲學(xué)博士,浙江大學(xué)光華法學(xué)院博士后,研究方向:自動駕駛治理; 唐解云(1994-),男,湖南邵陽人,中國人民大學(xué)哲學(xué)院博士生,研究方向:馬克思主義與STS。

        [中圖分類號]U1;B829 ? ?[文獻(xiàn)標(biāo)識碼]A ? ?[文章編號]1008-7672(2019)06-0073-07

        自動駕駛正在重塑我們現(xiàn)在習(xí)以為常的生活。

        近年來,“自動駕駛”已成為全社會最為關(guān)注的人工智能具體應(yīng)用之一。自動駕駛汽車將取代“智能手機(jī)”成為人們生活中“最大的移動通訊工具”,人們可以在自動駕駛汽車上辦公、娛樂、生活,自動駕駛汽車將成為人類新的移動生活空間。自動駕駛汽車正帶來顛覆性、革命性的影響,它將重構(gòu)我們的生活方式和價值理念。正如人們所預(yù)見的,自動駕駛將給人類帶來顯著的利益:(1)在交通方面:減少車禍發(fā)生率,從而減少傷亡和污染;(2)在公共資源優(yōu)化配置方面:自動駕駛汽車及共享自動駕駛汽車的廣泛使用,將促使我們更加有效地重新配置車輛,減少資源浪費,提高資源利用效率;(3)在社群空間方面:將改變?nèi)藗儗臻g的認(rèn)知,住所位置將進(jìn)一步外延,城市面積將進(jìn)一步擴(kuò)大,室內(nèi)停車場將會重新被規(guī)劃為住宅和商業(yè)空間;(4)在價值觀等“軟性”方面:人類的娛樂、工作、購物習(xí)慣將被全面顛覆,整個社會面臨著人工智能的重新洗牌。?譹?訛我們應(yīng)當(dāng)合理預(yù)判自動駕駛可能帶來的問題并尋求解決方案,以期為近幾年內(nèi)即將開啟的“自動駕駛時代”作好準(zhǔn)備。

        自動駕駛已在法律制度、社會安全方面帶來諸多挑戰(zhàn),也將在價值、道德等方面引發(fā)某些倫理癥候——這意味著一系列復(fù)雜的問題。我們有必要前瞻性地討論自動駕駛帶來的機(jī)遇和可能引發(fā)的問題。例如:在制度層面,自動駕駛發(fā)展將促進(jìn)道路安全、汽車生產(chǎn)及責(zé)任事故認(rèn)定等相關(guān)法律法規(guī)的修改或制訂;在社會層面,自動駕駛汽車將帶來能源和制造行業(yè)轉(zhuǎn)型、保險和汽車產(chǎn)業(yè)變革等;在道德倫理方面,自動駕駛汽車促使我們重新思考事故責(zé)任分配、用戶隱私保護(hù)、人類駕駛員失業(yè)等問題。以上問題中外研究者多已論及,而一種基于深入理解技術(shù)的內(nèi)在主義視角會提出更多值得思考的“真問題”:自動駕駛的“駕駛權(quán)”如何在人類與機(jī)器之間分配?如何才能相信其他車輛實時生成的高精度地圖?實際上,隨著時間的流逝,這種“前瞻”已經(jīng)變得越來越緊迫、越來越不那么“前瞻”了。

        有必要對自動駕駛技術(shù)所引發(fā)的新的倫理問題進(jìn)行全方位思考,提出可操作的建議以促進(jìn)自動駕駛的良性發(fā)展,這是人工智能技術(shù)進(jìn)行社會治理的“核心試點”。自動駕駛目前得到較多討論的是其倫理考量。自動駕駛汽車作為一種“技術(shù)人工物”(Technical Artifact),面臨著至少兩種類型的倫理考量。其一是自動駕駛汽車與人類之間的道德沖突;其二是自動駕駛汽車自身產(chǎn)生的道德沖突。在此,暫不探討此類人工物是否終將具備類似于人類的道德推理能力,以及自動駕駛汽車作為汽車本身是否能夠成為自主的道德體等話題。這種終極討論雖有其必要性,但就目前而言太過遙遠(yuǎn),應(yīng)該先從自動駕駛汽車與人類關(guān)系角度去探討自動駕駛汽車普遍上路后引發(fā)的人類生活、人車關(guān)系中的倫理問題。

        自動駕駛技術(shù)發(fā)展的具體路徑難以精準(zhǔn)預(yù)測,我們也無力完整預(yù)測未來的技術(shù)會引發(fā)哪些具體倫理問題。隨著科學(xué)技術(shù)的更新迭代,某些事前看似嚴(yán)重的倫理問題會“自然解決”抑或根本不會發(fā)生。實際上,“社會—科學(xué)”是個復(fù)雜的巨系統(tǒng),我們根本無力完整模擬、詳細(xì)描述其相互作用、相互影響的具體細(xì)節(jié);然而好在我們可以對其整體演化的方向和核心機(jī)制予以較為精確地預(yù)測(事實上我們已經(jīng)對其大致可能的技術(shù)路線及其核心問題進(jìn)行了預(yù)測?譺?訛)。在此,筆者從個體層面和社會層面對自動駕駛可能引發(fā)的倫理問題進(jìn)行探討。個體層面的倫理問題主要是倫理選擇難題;社會層面的倫理爭議包括事故的責(zé)任歸屬、網(wǎng)絡(luò)隱私保護(hù)和信息泄露問題。

        一、 事故責(zé)任、“電車難題”與倫理選擇

        事故責(zé)任問題是自動駕駛被討論最多的問題。這不僅是倫理問題,更是技術(shù)設(shè)計中需要應(yīng)對的重點。?譻?訛自動駕駛汽車面臨的突發(fā)事件大致可分為兩種:人類目前可以解決的和人類尚不能解決的。自動駕駛汽車首先要面對的是人類目前可以解決的突發(fā)事件(第一種情況),只有自動駕駛汽車在處理問題的“能力”上等于或者超過人類時才會得到大眾的認(rèn)可。?譼?訛人類駕駛員在駕駛時會面臨諸多突發(fā)情況,諸如拐角處沖出來的小黑狗,兩車交匯迎面而來的“遠(yuǎn)光狗”等。人類駕駛員必須很好地處理此類情況。不過,即便操作軟件通過學(xué)習(xí)和模擬能夠準(zhǔn)確靈活地處理了人類駕駛員所能處理的各種突發(fā)情況(第一種情況),面對人類駕駛員也無力處理的情況(第二種情況),機(jī)器又該如何應(yīng)對?例如,如何面對人類也無力解決的“電車難題”和“隧道難題”??譹?訛

        “電車難題”(Trolley Problem)最早由英國哲學(xué)家菲利帕·福特(Philippa Foot)于1967年提出,其完整表達(dá)如下:

        電車的鐵軌上站著五個人,此時,一輛失控的電車朝他們駛來,若在原軌道上繼續(xù)行駛,電車將使這五個人喪失生命。但是電車司機(jī)可以選擇拉動電車從狹窄軌道轉(zhuǎn)向另一條軌道,那么這五個人就可以幸免于難。問題在于,另一條鐵軌上也有一個人。此時,司機(jī)面臨著兩難選擇:一是不改道繼續(xù)行駛,這將使五人喪生;二是主動操作轉(zhuǎn)向另一條軌道,使原本安全的一人喪生。矛盾很明顯:無論電車司機(jī)開向哪一條軌道,都會有人遇害。面對這種情況,司機(jī)應(yīng)當(dāng)做何選擇??譺?訛

        面對這種人類駕駛員都難以抉擇的情況,自動駕駛車輛又將如何處置?另一個相似的情況是“隧道難題”(Tunnel Problem),可以理解為更具“自動駕駛”意味的“電車難題”。隧道難題如下:

        乘客正坐在一輛行駛在單行道上的自動駕駛汽車上,當(dāng)汽車行駛到隧道入口時,忽然一個小孩跑到車道中間,堵住了隧道的入口。此時,自動駕駛車輛只有兩個選擇:繼續(xù)行駛撞向孩子,或者轉(zhuǎn)向隧道某一側(cè)的墻壁,從而導(dǎo)致車上的乘客喪生。?譻?訛

        “電車難題”在一般意義上表征了“自動駕駛”在面對外部目標(biāo)時的選擇困境,“隧道難題”則把這一困境引向了“車內(nèi)乘客”(這一情境中同時為“車主”)這一“選擇的選擇”之主體。畢竟,如果一輛車總是試圖“舍己為人”,誰會去買它就成了大問題。這意味著自動駕駛車輛的“困境選擇”將影響消費者的選擇?!八淼离y題”與“電車難題”是自動駕駛終將面臨的現(xiàn)實挑戰(zhàn),但無論如何取舍都會陷入兩難的處境。和鴻鵬認(rèn)為,“隧道難題”凸顯了車內(nèi)人員與路人之間的利益沖突,將倫理選擇指向駕駛?cè)藛T的自我犧牲。?譼?訛這種倫理問題是人類需要面對的,同樣也是自動駕駛汽車需要面對的。更為關(guān)鍵的是,這種兩難并不再只是哲學(xué)上的“思想實驗”,而是每天都真實地在我們身邊上演著。?譽(yù)?訛

        無論是電車難題還是隧道難題,共同點都是面對人類目前無法解決的倫理問題,自動駕駛?cè)绾翁幚??;蛟S可以先借鑒人類的“處理方案”:當(dāng)面對突發(fā)情況的“責(zé)任事故”時,人類駕駛員通常迅速綜合考慮多方因素,并憑借“直覺”做出“下意識”的判斷,自動駕駛汽車則可使用數(shù)據(jù)和軟件來計算出“最佳方案”。具體做法是價值量化,對人類道德推理中不可量化、不容量化的要素,比如“價值”進(jìn)行量化。與此同時,對生命、財產(chǎn)進(jìn)行賦值,程序員按照大家普遍接受的倫理規(guī)范將量化的數(shù)值進(jìn)行編碼形成“道德代碼”,預(yù)置到汽車駕駛軟件中。當(dāng)然,這種預(yù)置并不是將情境固定化,而是充分利用深度學(xué)習(xí)軟件,以大數(shù)據(jù)為依托,對可能遇到的各種生命體和財產(chǎn)進(jìn)行賦值,根據(jù)具體面對的緊急情境進(jìn)行“冷靜”而快速的處理。需要培養(yǎng)機(jī)器軟件的“直覺”,使其在各種復(fù)雜情況下利用數(shù)據(jù)做出最佳選擇。“即在車禍發(fā)生的瞬間,經(jīng)過程序員的提前預(yù)設(shè),軟件的決策邏輯也會發(fā)生作用。經(jīng)過特別的設(shè)計,軟件能針對事故做出妥善回應(yīng),把破壞程度降到最低?!保孔q?訛如果不能完美設(shè)計出方案,那就退而求其次追求“損失最小”。

        實際上,就事故責(zé)任中的倫理選擇而言,在發(fā)生緊急情況時自動駕駛在反應(yīng)速度上有很大優(yōu)勢?!霸谖覀兊闹鞲傻郎?,我們通常與我們前方的車輛保持約1.5秒的時間距離。自動駕駛汽車能夠?qū)⒃摃r間距離減少更多,因為計算機(jī)能夠立即做出反應(yīng),這與人類駕駛員不同?!??譺?訛這主要歸功于5G更快的傳輸速度,?譻?訛以及更好性能的傳感器件和計算能力更強(qiáng)大的GPU。然而,速度上的優(yōu)勢并不能直接轉(zhuǎn)化為道德上的優(yōu)勢,技術(shù)上的成熟并不意味著必然被人們所接受,否則我們就該在每年的8月21日紀(jì)念尤塞恩·博爾特(Usain Bolt)而不是在每年1月的第三個星期一來紀(jì)念馬丁·路德·金(Martin Luther King)了。因此,我們必須繼續(xù)提高自動駕駛技術(shù)的安全性,使其事故發(fā)生率遠(yuǎn)低于人類駕駛的對應(yīng)比率,為普及自動駕駛汽車奠定基礎(chǔ)。

        存在這樣一種合理質(zhì)疑:人類憑什么相信機(jī)器做出的決定就是最佳決策呢?除非自動駕駛汽車具有遠(yuǎn)超人類的認(rèn)知和智能,否則我們不會輕易信任它。然而,事實上自動駕駛技術(shù)的安全性的確可以遠(yuǎn)遠(yuǎn)高于人類駕駛員。同時,自動駕駛的車禍發(fā)生率很快將遠(yuǎn)低于人類駕駛。數(shù)據(jù)顯示,全世界每年大約有160萬人死于車禍,這個死亡率相當(dāng)于每年釋放10個廣島級別的原子彈爆炸。如果路面上的汽車90%能夠換成無人駕駛車輛的話,將減少三分之二的死亡人數(shù)。?譼?訛隨著技術(shù)的進(jìn)步,自動駕駛所致的車禍可以無限趨近于零。另外,人類駕駛員在面臨緊急情況時依靠直覺和“習(xí)慣”做出價值判斷或決定。這通常是無意識的動作操作,然而其實質(zhì)依然是“比較和計算”,畢竟“智能的本質(zhì)就是計算”。羅伯特·特拉普(Robert Trappl)指出,人類駕駛員和自動駕駛的一個重要區(qū)別在于:“人類駕駛員做出錯誤的決定會被寬恕或原諒,然而自動駕駛汽車做出錯誤的決定就會被指責(zé)和懷疑,即便自動駕駛汽車做出錯誤決定的比率遠(yuǎn)遠(yuǎn)低于人類駕駛員。”?譽(yù)?訛為什么憑借人類直覺所做出的判斷能被接受,而自動駕駛的計算邏輯就要被質(zhì)疑?我們原諒人類駕駛員的錯誤、相信人類的直覺而質(zhì)疑軟件邏輯并沒有特別的原因,有的只是我們的“習(xí)慣”。大衛(wèi)·休謨(David Hume)認(rèn)為,“習(xí)慣是人生的偉大指南”,而人類經(jīng)常誤把“習(xí)慣”當(dāng)作“因果必然性”。?譾?訛同理,在道德問題上,人類傾向于把習(xí)慣視為“最優(yōu)的選擇”,樂于依據(jù)直覺做出判斷。如果去除對人類“習(xí)慣”的先天信任,理性地分析人類與自動駕駛車輛面對緊急情況的兩種方式,就會發(fā)現(xiàn)自動駕駛汽車的決策可能更為合理。胡迪·利普森(Hod Lipson)和梅爾芭·庫曼(Melba Kurman)指出:“自動駕駛汽車的駕駛更為合理是因為它能夠快速地進(jìn)行風(fēng)險和利益分析,這比一個自私、疲憊的醉漢的決策要好很多;自動駕駛擁有360度的感知器,掌握的信息也更全面?!??譿?訛事實上,道德問題并非一定要依賴人類直覺才能更好地處理。問題的關(guān)鍵也并非自動駕駛車輛是否有道德,而在于它們處理緊急情況的內(nèi)在邏輯是否符合倫理。自動駕駛汽車“危機(jī)處理”的邏輯是:根據(jù)發(fā)生事故的概率以及其后果的嚴(yán)重程度確定對應(yīng)行動。對事故大小的認(rèn)定某種程度上是由各利益相關(guān)者洽談和商討確定的,符合“商談邏輯”。有學(xué)者提議不借助預(yù)置的“道德代碼”,而是在具體判斷中使用隨機(jī)數(shù)生成器來做出“公平”的決策,?譹?訛駕駛者或者行人則服從“內(nèi)在隨機(jī)”的命運(yùn)裁決。人人都接受“隨機(jī)”的決定,這也是一種公平(就像隨機(jī)選擇的雙色球一樣)。?譺?訛比較而言,還是“道德代碼”更為可靠。顯然,經(jīng)過良好“倫理設(shè)計”的自動駕駛車輛的“危機(jī)處理”可以比人類駕駛員“更理性、更可靠”。

        二、 自動駕駛汽車的責(zé)任歸屬問題

        與“危機(jī)處理”緊密相關(guān)的一個問題是“責(zé)任判斷”,即自動駕駛汽車“危機(jī)處理”時或者處理后的責(zé)任歸屬問題。當(dāng)人類駕駛者駕駛的汽車發(fā)生責(zé)任事故時,責(zé)任可以被清晰地劃歸于人類的某一方或者雙方甚至多方;人類是事故的責(zé)任主體,相關(guān)法律法規(guī)對責(zé)任的認(rèn)定是比較清晰的。但是,一旦自動駕駛車輛在道路上馳騁時,發(fā)生事故的責(zé)任認(rèn)定就變得復(fù)雜了。當(dāng)沒有司機(jī)、方向盤的汽車出現(xiàn)交通事故時,這個責(zé)任具體歸屬方是車主(乘客)、自動駕駛汽車的制造商、自動駕駛軟件的提供者還是道路的基礎(chǔ)設(shè)施建設(shè)者呢?在人類駕駛的車輛中,人類行為導(dǎo)致的后果是有承擔(dān)者的,而自動駕駛車輛的“肇事主體”是作為整體的“車”,對事故的發(fā)生存在“多因一果”的效應(yīng)。既然汽車的軟件供應(yīng)商和硬件供應(yīng)商可以認(rèn)領(lǐng)屬于自己部分的責(zé)任,那么分別認(rèn)領(lǐng)多大的責(zé)任以及對責(zé)任如何進(jìn)行具體劃分呢?杰弗里·格尼(Jeffrey K. Gurney)認(rèn)為:“承擔(dān)責(zé)任的適當(dāng)方將根據(jù)自動駕駛汽車使用者的性質(zhì)以及該人防止事故的能力而有所不同?!??譻?訛這也是一個亟待解決并需要多方代表集體協(xié)商的事情。

        自動駕駛汽車的責(zé)任歸屬問題,應(yīng)從多維度權(quán)衡。筆者主張:在汽車軟件設(shè)計之初就應(yīng)該將倫理道德嵌入,使得軟件成為承載著“道德代碼”的道德載體,即將道德“物化”。對人和物同時進(jìn)行倫理考察,正如彼得保羅·維貝克(Peter-Paul Verbeek)所呼吁的:“將裝置道德化,并認(rèn)為人類應(yīng)該停止人類之間長久以來的互相道德化,而去開啟技術(shù)的道德化?!保孔t?訛由于機(jī)器人駕駛員會不打折扣地執(zhí)行計算機(jī)程序,因此,程序員在設(shè)計程序時就要事先考慮到一切不良后果,而不是事后采取補(bǔ)救措施。

        筆者主張,在布蘭登·英格拉姆(Brandon Ingram)所提出的“機(jī)器人工程師的倫理準(zhǔn)則”的基礎(chǔ)上,具體分析各方的責(zé)任。首先,對于自動駕駛汽車硬件供應(yīng)商而言,應(yīng)該在汽車出廠之前經(jīng)過多方面的審查,保證出廠的汽車在特定程度和范圍內(nèi)沒有質(zhì)量問題(特殊情況難以全面考察)。其次,對于軟件供應(yīng)商而言,需要不斷提高汽車的安全性能(即便只是將1萬小時可靠性提高0.01%,對于未來“自動駕駛統(tǒng)治”的世界地面交通系統(tǒng)而言,依然意義重大),同時對自動駕駛系統(tǒng)進(jìn)行多次檢驗并不斷根據(jù)新情況進(jìn)行修正。建立應(yīng)急反饋系統(tǒng),一旦出現(xiàn)軟件做出的決定引發(fā)傷亡的情形,必須保證信息及時傳送到周圍的可施救場所,盡量減少人類傷亡;再次,就后期安全維護(hù)而言,建立健全道路全網(wǎng)反饋系統(tǒng),對于道路的改造等規(guī)劃及時上傳,敦促自動駕駛汽車及時更新路況信息。最后,還應(yīng)建立多維合作平臺的責(zé)任認(rèn)定組織,對引發(fā)交通事故原因進(jìn)行全面深刻的分析,以確定責(zé)任承擔(dān)者(責(zé)任承擔(dān)者可以是一方,也可以是多方)。

        正如菲利普·布瑞(Philip Brey)所言:我們應(yīng)尋求一種新的方式進(jìn)行討論,這種方式包含利益相關(guān)群體的訴求;同時,采取一種更為深思熟慮的方法,這種方法將尊重相關(guān)的道德爭論。?譽(yù)?訛未來自動駕駛汽車責(zé)任的“分擔(dān)”,必然是各方利益相關(guān)方“協(xié)商”的結(jié)果。高奇琦建議搭建一個傳統(tǒng)汽車制造商、自動駕駛技術(shù)提供商和出行服務(wù) (共享服務(wù)) 提供商的“三維”合作平臺,從而解決事故擔(dān)責(zé)、事故賠償主體和獲利的問題。?譹?訛這是一個有價值的提議,不過也不排除現(xiàn)有的成熟的汽車市場自己就能在責(zé)任明確的情境中消化此類問題。

        三、 自動駕駛汽車的新型網(wǎng)絡(luò)隱私問題

        在自動駕駛汽車中,另一個亟待解決的問題是自動駕駛的網(wǎng)絡(luò)隱私安全問題。自動駕駛汽車依賴的是物聯(lián)網(wǎng)與數(shù)據(jù)共享,想要做到安全快速,就要盡可能多地掌握乘客個人信息。自動駕駛汽車會成為人類乘客的“透明空間”,無論你在選擇路線還是進(jìn)行消費都會被記錄在案,甚至你與女友聊天的內(nèi)容都可能會被收集存儲起來。此外,自動駕駛車輛使人喪失了相對隱匿的移動能力,這在無形之中將乘車人“監(jiān)控”起來,形成了“透明監(jiān)獄”。?譺?訛與自動駕駛車輛相關(guān)聯(lián)的數(shù)據(jù)包括乘客上下車的地點、生活習(xí)慣、行車時間與行車路線的信息。這些信息極具價值,同時也是巨大的數(shù)據(jù)資源。不過,最終這些資源由誰監(jiān)管,乘客是否擁有自治的權(quán)利等相關(guān)問題亟待解決,這就對乘客、數(shù)據(jù)管理組織、政府以及軟件供應(yīng)商提出了新的要求。

        首先,對乘客而言,應(yīng)當(dāng)允許乘客根據(jù)自己的意愿查看自動駕駛汽車收集的數(shù)據(jù)內(nèi)容、數(shù)據(jù)流通的情況和數(shù)據(jù)流向等,并有權(quán)自主決定數(shù)據(jù)去向。乘客應(yīng)有維護(hù)自己隱私的意識、積極參與制定數(shù)據(jù)管理規(guī)則并有權(quán)決定是否將個人數(shù)據(jù)用于商業(yè)用途。麗莎·柯林伍德(Lisa Collingwood)強(qiáng)調(diào):“個人具有保護(hù)隱私和做出選擇的自治權(quán),乘客有權(quán)利對是否乘車、乘車路線以及數(shù)據(jù)使用進(jìn)行自主選擇,避免被入侵者操縱和控制”。?譻?訛其次,對于公眾和公共組織而言,可由接受監(jiān)督的非營利組織(數(shù)據(jù)管理組織)來負(fù)責(zé)數(shù)據(jù)的收集、使用等問題。我們應(yīng)將收集來的人臉、指紋等生物特征數(shù)據(jù)交由數(shù)據(jù)管理組織,而非數(shù)據(jù)采集者負(fù)責(zé)。再次,對于監(jiān)管機(jī)構(gòu)和立法部門而言,應(yīng)建立監(jiān)督數(shù)據(jù)管理組織使用數(shù)據(jù)的監(jiān)管機(jī)構(gòu),對數(shù)據(jù)的用途進(jìn)行監(jiān)管。立法部門應(yīng)針對隱私問題提供適當(dāng)?shù)姆杀Wo(hù)。最后,對于軟件供應(yīng)商和管理車隊的企業(yè)而言,要嚴(yán)格遵守個人隱私保護(hù)指引,加強(qiáng)網(wǎng)絡(luò)安全性建設(shè),防止信息泄露。當(dāng)前,美國加利福尼亞州要求所有自動駕駛車輛保存事故發(fā)生前30秒的詳細(xì)記錄,同時也要求自動駕駛技術(shù)的輸出方提供保證及報告。乘客、軟件供應(yīng)商、網(wǎng)絡(luò)公司和車隊企業(yè)等要在數(shù)據(jù)管理組織的主導(dǎo)下協(xié)商構(gòu)建數(shù)據(jù)保護(hù)和使用規(guī)則,并由政府和公眾根據(jù)相關(guān)行業(yè)乘客數(shù)據(jù)的用途嚴(yán)格監(jiān)督數(shù)據(jù)的使用,數(shù)據(jù)管理組織、政府和公眾共同對數(shù)據(jù)負(fù)責(zé)。這雖然會增加一些麻煩,但此類數(shù)據(jù)對許多利益相關(guān)行業(yè)極具價值。例如運(yùn)營自動駕駛車隊的公司,他們利用這些數(shù)據(jù)來分析市場需要投放多少車輛、車輛的實時位置以及何時應(yīng)該對其充電或加油。

        軟件的脆弱性所導(dǎo)致的信息泄露是另一個需要關(guān)注的問題。隨著自動駕駛汽車硬件和軟件復(fù)雜性的增加,會出現(xiàn)更多的漏洞。任何軟件操作系統(tǒng)都有一定的脆弱性,容易受到錯誤操作影響和惡意入侵的攻擊。至少存在這樣幾種技術(shù)解決方案,有助于避免因軟件故障而導(dǎo)致的信息泄露。(1)應(yīng)當(dāng)注意在軟件的操作系統(tǒng)中加入適當(dāng)?shù)娜哂嘣O(shè)計,添加備用系統(tǒng)和防護(hù)設(shè)計,使得軟件在遇到危險及信息盜取情況下自動啟動備用系統(tǒng)進(jìn)行防護(hù)。(2)在無人駕駛車輛中采用雙操作系統(tǒng),這兩個系統(tǒng)之間相互備份、同時運(yùn)行,以便保障車輛在出現(xiàn)錯誤時仍能平穩(wěn)行駛。?譼?訛(3)借鑒魯特·布里奇斯(Rutt Bridges)在《我們自動駕駛的未來:天堂還是地獄?》(Our Driverless Future: Heaven or Hell)中給出的解決方案:在無人駕駛汽車中安裝一個智能屏,每位乘客在上車時可以將智能屏抬起,選擇屬于自己的信息存儲區(qū),將自己的行車信息進(jìn)行存儲,并對其進(jìn)行加密;乘客下車時選擇將智能屏關(guān)閉,即每位乘車者將自己的行程等敏感信息獨立存儲。

        有人也許會質(zhì)疑,如果用戶的信息具有獨立性和隱秘性,是否就增加了更新地圖和發(fā)生緊急情況救助的困難?這并不具有必然性。首先,無人駕駛汽車收集到的所有信息都直接到達(dá)數(shù)據(jù)管理組織那里,數(shù)據(jù)管理組織負(fù)責(zé)信息的隱私保護(hù),并結(jié)合以“黑盒”方式存儲數(shù)據(jù),以便在發(fā)生碰撞或其他事件時進(jìn)行檢查。?譹?訛數(shù)據(jù)管理組織在進(jìn)行“把關(guān)”之后,將信息交給相關(guān)行業(yè),如地圖公司、軟件開發(fā)商、消費公司等。(當(dāng)然,乘客可以自己選擇是否將這些信息交給相關(guān)部門。)其次,建立緊急事故救助站,這些緊急事故救助站將全面掌握乘客的行程信息,只要行程未結(jié)束,他們就會收到完整的信息——其實飽經(jīng)批評之后“滴滴出行”這方面已經(jīng)有很大提升。最關(guān)鍵的是,隨著科技新時代的技術(shù)發(fā)展,未來的自動駕駛技術(shù)其實不會讓這種“緊急情況”頻繁發(fā)生。

        關(guān)于自動駕駛,應(yīng)采用一種以未來為導(dǎo)向的思維方式對這些問題進(jìn)行深刻而全面的分析。本文所探討的是自動駕駛汽車發(fā)展可能帶來的個體層面和社會層面的倫理問題,這有益于我們對自動駕駛汽車時代所產(chǎn)生的主要倫理問題形成科學(xué)認(rèn)識和深刻理解,有利于“以技術(shù)的手段解決倫理的問題”,有助于促進(jìn)人工智能時代倫理規(guī)則的設(shè)立與技術(shù)治理的進(jìn)步。

        無論如何,與自動駕駛相關(guān)的倫理問題是我們無法繞開、必須解決的問題;自動駕駛將是一個可期的技術(shù)(在我國有望于2020年正式啟動),未來將是一個更加智能的時代。

        (責(zé)任編輯:亞立)

        Abstract?Automatic driving will profoundly change our life style, in the meantime, the ethical dilemma and privacy conflict of “automatic driving” will also emerge. The ethical dilemma is embodied at the individual level as ethical choices such as "trolley problem" in accidents. In privacy protection, passengers need to deliver a large amount of personal important information to the prison of automatic driving for sufficient convenience, involving issues such as network privacy protection and information disclosure. By establishing a data management organization to manage the legitimate use of information, passengers, data management organizations, governments, and software suppliers can work together to protect information security and passengers privacy, thus overcoming information leakage caused by software vulnerabilities. The arrival of automatic driving is hard to resist, but these problems must be solved first.

        Key words?automatic driving; trolley problem; value quantification; moral code; ethical dilemma; privacy protection

        猜你喜歡
        電車乘客倫理
        《心之死》的趣味與倫理焦慮
        嫦娥五號帶回的“乘客”
        基于Baja電車點線面動態(tài)仿真轉(zhuǎn)向設(shè)計
        小電車,大問題
        護(hù)生眼中的倫理修養(yǎng)
        活力(2019年19期)2020-01-06 07:37:00
        最牛乘客
        車上的乘客
        辛苦的電車售票員
        高鐵丟票乘客索退款被駁回
        公民與法治(2016年2期)2016-05-17 04:08:24
        醫(yī)改莫忘構(gòu)建倫理新機(jī)制
        国产亚洲精品国产福利在线观看| 亚洲人成人无码www影院| 极品粉嫩小泬无遮挡20p| 亚洲一区二区综合色精品| 一区二区三区蜜桃在线视频| 国产一区二区三区青青草| 精品一区二区三区免费视频| 久久婷婷国产剧情内射白浆 | 国产精品一区二区夜色不卡| 精品福利一区二区三区免费视频| 夜夜高潮夜夜爽夜夜爱爱| 无码人妻精品一区二区三区下载 | 亚洲av无码日韩精品影片| 久久精品成人免费观看97| 黄片免费观看视频播放| 无套内谢老熟女| 精品人妻潮喷久久久又裸又黄| 国产亚洲欧洲三级片A级| 亚洲本色精品一区二区久久| 一本色道久久88亚洲精品综合| 国产精品亚洲一区二区无码| 日本一区二区三区在线播放| 久久夜色国产精品噜噜亚洲av| 久久久久无码精品国产app| 国产精品理人伦国色天香一区二区 | 一本色道久久88加勒比一| 精品水蜜桃久久久久久久| 国产麻豆一精品一AV一免费软件| 国产一区二区三区再现| 欧洲美女熟乱av| 婷婷成人基地| 国产美女av一区二区三区| 亚洲一区二区三区中文字幕网| 久久久久久国产精品mv| 无码天堂亚洲国产av麻豆| 一区二区三区在线日本视频| 精品视频一区二区三区在线观看 | 日韩精品人妻中文字幕有码| 国产女同va一区二区三区| 国产午夜无码片在线观看影院| 四虎成人精品国产一区a|