中圖分類號:B82-05;U491 文獻標識碼:A 文章編號:1003-1502(2025)04-0052-16
一、引言
自動駕駛是指利用車載傳感器獲取環(huán)境信息,依托人工智能等新一代信息技術(shù),實現(xiàn)車輛在道路交通中的自主安全行駛。隨著端到端大模型等人工智能技術(shù)的創(chuàng)新和應用,自動駕駛技術(shù)開始進入產(chǎn)業(yè)化關(guān)鍵時期,以人類駕駛和傳統(tǒng)機動車為對象構(gòu)建的規(guī)則體系,逐漸顯現(xiàn)出與自動駕駛產(chǎn)業(yè)發(fā)展不相適應、難以提供有效保障的問題。近年來,社會公眾對自動駕駛示范運營過程中出現(xiàn)的行車安全、數(shù)據(jù)保護、算法解釋、責任主體困境、人機關(guān)系失調(diào)以及就業(yè)替代等倫理風險的討論,成為推動自動駕駛技術(shù)市場化進程中影響相關(guān)政策和規(guī)則體系構(gòu)建的重要因素。
自動駕駛屬于新興技術(shù),在動態(tài)發(fā)展過程中,社會公眾對技術(shù)產(chǎn)品功能的感知和對相關(guān)倫理風險的認知可能出現(xiàn)偏差。研發(fā)企業(yè)和社會公眾在技術(shù)成熟度方面的信息不對稱,一方面可能引發(fā)自動駕駛企業(yè)對技術(shù)和產(chǎn)品的虛假宣傳,另一方面也可能降低消費者對新興技術(shù)的認知興趣和接受意愿,阻礙自動駕駛產(chǎn)業(yè)化發(fā)展。解決這一問題的途徑之一是通過開展示范運營,在技術(shù)和產(chǎn)品持續(xù)迭代和成熟的過程中,借助豐富實際駕乘體驗來改善社會公眾對自動駕駛技術(shù)及其風險的認知,進而推動技術(shù)和產(chǎn)品的市場化。
截至2023年底,我國已建成17個國家級智能網(wǎng)聯(lián)汽車測試示范區(qū)、7個車聯(lián)網(wǎng)先導區(qū)、16個智慧城市與智能網(wǎng)聯(lián)汽車協(xié)同發(fā)展試點城市,開放測試示范道路22000多千米[2]。自動駕駛汽車的試點示范運營為社會公眾正確形成對自動駕駛倫理風險的認知提供了實踐環(huán)境,同時也為深人探究不同社會群體的自動駕駛倫理問題認知差異提供了極具價值的實證場域。
通過理論分析與社會實驗調(diào)查,本文旨在梳理當前我國社會公眾在自動駕駛倫理風險方面的認知現(xiàn)狀,進而分析具備不同自動駕駛乘坐及體驗經(jīng)歷的社會公眾群體在倫理風險認知層面的差異。在此基礎(chǔ)上,有針對性地提出旨在有效消解自動駕駛倫理風險認知偏差的可行性建議,為制定符合技術(shù)和產(chǎn)業(yè)發(fā)展實際的政策和規(guī)則提供依據(jù)。
二、文獻綜述
技術(shù)系統(tǒng)不能獨立于社會系統(tǒng)而存在,技術(shù)系統(tǒng)的變化又會引起社會系統(tǒng)的變化[3。在社會技術(shù)系統(tǒng)中,明顯落后于其他組分或與其他組分明顯不協(xié)調(diào)的部分被稱為“退卻突出部\"(reverse salient),它是技術(shù)系統(tǒng)變革的本質(zhì)和動力[4]。退卻突出部未必直接來自技術(shù)本身,支撐技術(shù)系統(tǒng)的組織制度、科學知識或經(jīng)濟要素等都可能成為推動社會技術(shù)系統(tǒng)演化的關(guān)鍵因素[5]。
新興技術(shù)創(chuàng)新是具有較快增長速度的根本性創(chuàng)新,其技術(shù)特征和發(fā)展方向具有動態(tài)性和不確定性,新興技術(shù)的產(chǎn)業(yè)化可能對社會經(jīng)濟產(chǎn)生顛覆性影響。隨著新興技術(shù)與社會深度融合發(fā)展,社會技術(shù)系統(tǒng)日益增長的復雜性、多樣性和動態(tài)性對新興技術(shù)社會化治理和產(chǎn)業(yè)化發(fā)展帶來新的機遇和挑戰(zhàn)[。如果技術(shù)創(chuàng)新及其產(chǎn)業(yè)化過程不能被社會所接受,社會環(huán)境就會對技術(shù)創(chuàng)新活動產(chǎn)生抑制作用,從而誘發(fā)社會嵌入性風險[8]。
作為新興技術(shù)的典型代表,自動駕駛正在加速走向大規(guī)模商業(yè)應用和產(chǎn)業(yè)化發(fā)展階段。科學技術(shù)創(chuàng)新是自動駕駛產(chǎn)品研發(fā)和產(chǎn)業(yè)發(fā)展的技術(shù)前提,但在自動駕駛推廣和產(chǎn)業(yè)持續(xù)增長的過程中,社會公眾在倫理決策、事故應對和算法透明度等方面的接受程度反而更為重要,這是自動駕駛退卻突出部的具體表現(xiàn)。
已有研究認為,社會公眾在技術(shù)使用和體驗過程中形成對技術(shù)的理解和對風險的直觀感受,進而導致不同的認知和信任水平是影響社會公眾接受新興技術(shù)程度的重要因素[10]。從“風險感知一公眾認知一信任水平一技術(shù)接受”的邏輯鏈路來看,社會公眾對自動駕駛風險的感知以及由此形成的認知是自動駕駛技術(shù)系統(tǒng)與社會系統(tǒng)良性互動的“源頭”。
有研究從社會福利、個人收益和技術(shù)倫理三個方面理解新興技術(shù)產(chǎn)生的風險,認為倫理風險對公眾的新興技術(shù)接受度具有重要影響I1。新興技術(shù)倫理風險是指新興技術(shù)因其內(nèi)在復雜性、高度不確定性以及外在因素等多重影響而產(chǎn)生的人與自身、人與人、人與社會、人與自然層面的倫理負效應,表現(xiàn)在社會秩序失調(diào)、人類主體威脅、生態(tài)環(huán)境破壞等方面[12]。自動駕駛倫理風險產(chǎn)生于技術(shù)系統(tǒng)與社會系統(tǒng)各要素的互動耦合過程,在社會放大機制的作用下產(chǎn)生疊加效果,并被公眾感知[13]。社會公眾對自動駕駛相關(guān)風險的認知水平以及由此導致的對自動駕駛技術(shù)的倫理寬容度和容忍度,是制約自動駕駛技術(shù)社會化推廣的重要因素[14]。
認知是人類獲取、加工、存儲和應用相關(guān)知識和信息的過程。通過“認知”,人們可以理解世界、適應環(huán)境并采取行動[15]。知識經(jīng)濟時代,多元創(chuàng)新主體對知識、技術(shù)及其相關(guān)要素的\"認知\"是\"技術(shù)路徑創(chuàng)造過程\"的生成力量。社會公眾對自動駕駛倫理風險認知和決策的機理,就是以技術(shù)本身的不確定性與復雜性作為客觀基礎(chǔ),通過“知識路徑”和“信任機制\"賦予風險以意義和等級的過程[17-I8],該過程同時受到技術(shù)成熟度和自身價值觀及知識水平的制約。技術(shù)的實體性屬性與人類的主觀性解讀共同塑造了自動駕駛倫理風險的全貌[19]。當技術(shù)發(fā)展速度與知識創(chuàng)造速度存在顯著差異,新興技術(shù)的應用與發(fā)展使社會公眾產(chǎn)生不確定性2。這種不確定性表現(xiàn)在因?qū)π屡d技術(shù)的基本知識和信息缺乏了解,人們無法預估其影響并規(guī)劃風險解決方案,從而在主觀上降低對新興技術(shù)的信任水平[21]。
技術(shù)需求主體與技術(shù)供給主體之間的信息不對稱,以及社會公眾的知識體系、價值觀念與技術(shù)現(xiàn)實之間的不匹配,會導致社會公眾的風險認知出現(xiàn)偏差。認知偏差可能表現(xiàn)為全體社會群體價值觀念對現(xiàn)實風險的“錯誤”匹配,也可能指不同社會群體對同一對象超出正常范圍的認知差異。就前者而言,社會公眾對風險的“高估”會招致對新興技術(shù)的抵觸情緒,不利于科技賦能社會發(fā)展;反之,對技術(shù)過度信任也容易產(chǎn)生人類過度依賴自動化智能系統(tǒng)等倫理風險[2]。后者通常源自社會群體間的個體差異[23]。不同的社會個體在知識基礎(chǔ)、動機和情感等方面具有異質(zhì)性,在風險事件的性質(zhì)、媒體宣傳渠道等因素的影響下[24],不同社會個體形成的差異化認知將導致不同的風險決策。當多種顯著不同的風險決策交織,新興技術(shù)的推廣可能引發(fā)社會公眾立場和利益的沖突,倫理風險成為制約技術(shù)產(chǎn)業(yè)化的關(guān)鍵因素。尤其需要指出的是,當公眾認知形成過程中出現(xiàn)突發(fā)性公共事件,輿情卷人風險感知帶來的認知偏差可能導致公眾的非理性行為2]。在數(shù)字經(jīng)濟時代,社會公眾既能夠利用社交媒體參與制造輿論,同時認知形成又會受到輿情演化的影響而反對和限制創(chuàng)新[2],因此突發(fā)性公共事件輿情與公眾認知的復雜互動給政府有效治理帶來了挑戰(zhàn)。
通過梳理現(xiàn)有研究發(fā)現(xiàn),自動駕駛領(lǐng)域的倫理風險主要指人工智能技術(shù)運用在交通運輸場景所引發(fā)的人與人、人與社會、人與機器等關(guān)系的失調(diào),具體表現(xiàn)在自動駕駛行車安全、數(shù)據(jù)保護、算法黑箱、責任主體困境、就業(yè)替代等方面。
首先,行車安全風險。行車安全風險是指汽車在執(zhí)行裝載、運輸?shù)裙δ艿倪^程中,因涉及汽車與行人、其他交通運輸工具、道路交通設(shè)施的交互,對人類駕駛員、道路交通參與者及其財物或外部環(huán)境可能造成的傷害。自動駕駛系統(tǒng)可以通過輔助人類駕駛員改變汽車與外部主體、環(huán)境的交互效率,但無法完全消除行車安全風險。行車安全水平是直接影響社會公眾認知形成的風險因素,因而自動駕駛應致力于盡最大可能避免交通事故的發(fā)生[2]。能夠提供人類駕駛員所能實現(xiàn)的安全水平是對自動駕駛系統(tǒng)的基本要求[28]。
其次,數(shù)據(jù)保護。現(xiàn)有研究關(guān)注到數(shù)據(jù)不正當收集與過度收集、數(shù)據(jù)存儲和流通環(huán)節(jié)中的隱私泄露等數(shù)據(jù)安全風險[29,并認為數(shù)據(jù)標注質(zhì)量、預訓練語料庫代表性、數(shù)據(jù)集時效性等數(shù)據(jù)質(zhì)量風險給生成式人工智能時代的數(shù)據(jù)治理帶來了挑戰(zhàn)[30]。本文中的數(shù)據(jù)保護包含“數(shù)據(jù)記錄\"和“數(shù)據(jù)泄露\"兩個方面。
再次,算法黑箱。算法黑箱是指在算法運行的某個階段所涉及的繁雜技術(shù)導致部分主體無法了解和解釋相關(guān)算法,可能引發(fā)社會恐慌甚至算法監(jiān)管失靈[3]。算法黑箱可能帶來算法歧視風險。由于汽車生產(chǎn)商與消費者存在巨大的利益牽絆,在市場競爭和商業(yè)利益的驅(qū)使下,自動駕駛汽車制造商與算法開發(fā)者可能預設(shè)\"一刀切地堅持車內(nèi)人員安全至上”的算法,這種算法若不能被及時揭示,容易造成對車外人員安全利益的歧視性鎖定[32]。同時,算法黑箱也會導致技術(shù)供給方與需求方之間的信息不對稱,擁有信息優(yōu)勢的汽車廠商可能過分夸大自動駕駛能力,加劇社會公眾的認知偏差。
此外,在責任主體困境方面,算法黑箱還可能通過技術(shù)復雜性和人機關(guān)系失調(diào)兩條路徑導致事故責任主體的歸因、追責困境。從技術(shù)層面看,自動駕駛功能的實現(xiàn)依賴感知系統(tǒng)、決策系統(tǒng)和執(zhí)行系統(tǒng)等多模塊子系統(tǒng)的相互協(xié)作,在算法黑箱的作用下,對復雜的算法體系進行決策追溯更加困難[33]。從人機關(guān)系的角度看,已有研究認為,自動駕駛與人類的關(guān)系可能存在兩種情形:其一是人類通過算法掌握車輛的操控權(quán);其二是自動駕駛汽車是人類的合作伙伴,作為自主道德主體,在科技倫理難題中具有完全的自主權(quán)[34]。前者通常出現(xiàn)在深度學習算法大規(guī)模應用之前。算法是處理和分析數(shù)據(jù)的規(guī)則,是人類表達自身道德選擇、實現(xiàn)技術(shù)價值的手段。但當算法具備自我生成能力后,駕乘人員與自動駕駛系統(tǒng)的關(guān)系可能轉(zhuǎn)向第二種形式。在自動駕駛工具理性和價值理性張力的作用下[7],行車決策所體現(xiàn)的倫理道德究竟是汽車自身的道德選擇還是乘客的道德傾向難以明晰。如果賦予自動駕駛系統(tǒng)獨立的道德責任主體地位和法律責任主體地位,對作為機器的自動駕駛系統(tǒng)進行追責就會產(chǎn)生實施困難,導致自動駕駛領(lǐng)域出現(xiàn)“責任主體空缺”\"懲罰空缺”\"多手問題”①[35]等問題。如果認為自動駕駛系統(tǒng)仍是使用者自身價值的表達載體,那么就必須通過“價值對齊\"等方式確保機器真正成為人類的價值代理[3。當機器決策和人類決策陷入道德一致性困境,人機關(guān)系的失調(diào)將放大社會公眾感知的倫理風險,引發(fā)社會對自動駕駛的信任危機。
最后,在就業(yè)替代方面。智能駕駛汽車的變革性力量不僅體現(xiàn)在單個汽車產(chǎn)品本身,而且體現(xiàn)為連接成網(wǎng)的汽車網(wǎng)絡以及相伴隨的新業(yè)態(tài)。比如,自動駕駛的廣泛應用可能促使傳統(tǒng)駕駛崗位減少和新興崗位涌現(xiàn),對就業(yè)結(jié)構(gòu)和勞動力市場造成沖擊[3,,就業(yè)受影響的群體可能轉(zhuǎn)變既有的風險認知和接受技術(shù)立場。此外,自動駕駛促成交通領(lǐng)域“共享經(jīng)濟”的普適化是一個漫長過程,不同群體和不同區(qū)域在技術(shù)獲得和公平使用方面可能出現(xiàn)“鴻溝\"和分化[38],進而影響社會公眾倫理風險認知的形成。
三、自動駕駛社會實驗分析
自動駕駛是一種社會技術(shù)系統(tǒng),社會公眾的認知和選擇對技術(shù)具有形塑作用?;谧陨愍毺氐闹R水平、體驗經(jīng)歷和價值取向,不同社會群體對自動駕駛技術(shù)及相關(guān)風險的認知具有差異性,在媒體報道、企業(yè)宣傳等機制的作用下形成的“認知偏差”可能導致對自動駕駛技術(shù)和產(chǎn)品不同的寬容度和忍耐度,進而影響甚至制約自動駕駛產(chǎn)業(yè)的發(fā)展方向和路徑。隨著我國自動駕駛從試點示范運營向大規(guī)模商業(yè)化推廣過渡,社會公眾能夠通過親身體驗自動駕駛汽車,直觀感知自動駕駛的技術(shù)成熟度和風險水平,從而免受信息不對稱對公眾倫理風險認知的消極影響。社會實驗是系統(tǒng)性認識自動駕駛社會影響、獲取公眾認知的重要途徑[3。通過對不同社會群體的社會實驗調(diào)查,可以獲取社會公眾對自動駕駛倫理風險認知的一手資料,為提出消解和治理自動駕駛倫理風險的針對性建議提供思路。
(一)社會實驗設(shè)計
考慮到武漢市作為“國家智能網(wǎng)聯(lián)汽車測試示范區(qū)”“智慧城市基礎(chǔ)設(shè)施與智能網(wǎng)聯(lián)汽車協(xié)同發(fā)展試點\"\"交通強國建設(shè)試點\"等多個自動駕駛和智能網(wǎng)聯(lián)汽車先行示范區(qū),其自動駕駛汽車產(chǎn)業(yè)的發(fā)展經(jīng)驗具有典型性、先進性和帶動性,因而作者團隊將研究視野聚焦于武漢市,于2023年開展社會實驗探究自動駕駛乘坐經(jīng)歷對倫理風險認知的影響②。以是否乘坐過L4級別自動駕駛汽車為依據(jù),將受訪群體分為實驗組和對照組③,調(diào)查累計回收有效問卷359份,包含實驗組調(diào)查問卷192份和對照組調(diào)查問卷167份。
結(jié)合前述文獻,本文重點關(guān)注社會公眾對\"行車安全\"“數(shù)據(jù)記錄”\"數(shù)據(jù)泄露\"\"算法歧視\"“責任主體歸因困境”\"人機關(guān)系失調(diào)”“就業(yè)替代\"等倫理問題的認知情況。社會實驗以調(diào)查問卷形式進行,問卷設(shè)計9個與“自動駕駛倫理風險”相關(guān)的陳述性語句,采用李克特5級量表法由受訪者對設(shè)問內(nèi)容進行主觀評分,分值從1到5分別代表從“非常不同意\"到“非常同意”五級認同水平。其中,對“數(shù)據(jù)泄露”“責任主體困境”“人機關(guān)系失調(diào)”“就業(yè)替代”四個問題采取“我擔心\"等“負向設(shè)問\"方式進行提問,其余問題采取“正向設(shè)問”方式進行提問。上述問題中,作者設(shè)置了相關(guān)問題以探究社會公眾對倫理風險的整體認知水平和對風險轉(zhuǎn)移機制的認識(見表1)。
表1自動駕駛倫理風險認知社會實驗調(diào)查問題設(shè)置
(二)實驗結(jié)果分析
在359個受訪對象中,實驗組和對照組受訪者的性別比例均衡,年齡集中分布在19—45周歲,學歷以??坪捅究茷橹鳎鄶?shù)受訪者為企業(yè)普通員工,并且 34.90% 的實驗組受訪
者和 32.33% 的對照組受訪者具有6年以上駕齡, 53.65% 和 16.17% 的實驗組受訪者和對照組受訪者認為自己對自動駕駛有一定的了解。
為了探究實驗組受訪群體與對照組受訪群體在倫理風險認知水平上的差異顯著性,本文首先計算了兩組受訪者在不同問題上的Cohen's d 效應值。計算公式為:
其中, X 為得分均值, s2 為得分方差, N 為樣本量(見表2)。
表2自動駕駛社會實驗倫理風險效應值
根據(jù)Cohen的研究[40],效應值 d=0.2,d=0.5 和 d=0.8 分別對應小、中、大的效應量。由此可以認為,除了“責任主體困境”和“人機關(guān)系失調(diào)”,實驗組和對照組受訪群眾對其他倫理風險的認知水平存在顯著的認知差異,表明通過乘坐自動駕駛汽車,社會公眾得以直觀感受自動駕駛風險,這明顯改變了公眾對自動駕駛的認知。
圖1刻畫了實驗組和對照組受訪群眾對社會實驗問卷每個問題平均得分的對比情況。箱體的高度表示實驗組和對照組受訪群眾對相應問題的認知差異程度,箱體內(nèi)部的標識符號對應的數(shù)值表示全體受訪群眾對該問題的平均得分。在“負向設(shè)問\"的四個問題中,實驗組受訪群眾在“數(shù)據(jù)泄露”“責任主體困境”\"就業(yè)替代\"方面的認同程度低于對照組受訪群眾,因而用虛線箱體繪出;在其他問題上,實驗組受訪群眾的認同程度高于對照組受訪群眾,因而用實線箱體繪出。
圖1顯示,根據(jù)社會公眾的認知水平和差異程度,可以將自動駕駛倫理風險分為四種類型。第一類是實驗組和對照組受訪群眾的認知差異不顯著的倫理風險,包含“人機關(guān)系失調(diào)\"和“責任主體歸因困境”兩個問題。第二類是實驗組和對照組受訪群眾的認知雖然存在顯著差異,但兩組對相關(guān)風險的認同得分都比較低(全體平均得分低于3.6)的倫理風險,如“就業(yè)替代”問題。第三類是實驗組和對照組受訪群眾的認知存在顯著差異,且兩組受訪群眾對相關(guān)表述的認同程度位于居中水平(全體平均得分位于3.8附近)的倫理風險,包含“行車安全”和\"數(shù)據(jù)泄露”兩個問題。第四類是實驗組和對照組受訪群眾的認知存在顯著差異,且兩組受訪群眾對相關(guān)表述的認同程度位于較高水平(全體平均得分高于或等于4.4)的倫理風險,包含“數(shù)據(jù)記錄\"和“算法歧視\"兩個問題。
圖1 自動駕駛倫理社會實驗結(jié)果分析
在第一種類型中,在“人機關(guān)系失調(diào)”方面,雖然實驗組受訪群眾對“自己在未來有可能被人工智能替代”的認同程度高于對照組,但這種差異并不顯著。圖1顯示,實驗組和對照組對“人機關(guān)系失調(diào)”的擔憂程度都很低,說明至少在當前階段,社會公眾認為自動駕駛不會引起“人機關(guān)系失調(diào)”。在“責任主體困境\"方面,實驗組和對照組受訪群眾的效應值檢驗得分為0.18,逼近較小差異的臨界值水平,說明雖然當前的認知差異在統(tǒng)計標準上還不顯著,但經(jīng)過實踐發(fā)展,實驗組和對照組受訪群眾在這一問題上可能出現(xiàn)認知差異。從兩組受訪群眾的差異來看,實驗組受訪群眾更不擔心自動駕駛汽車在發(fā)生交通事故時產(chǎn)生法律責任認定困難。
在第二種類型中,實驗組受訪群眾對“自動駕駛技術(shù)的大規(guī)模應用會引發(fā)失業(yè)等社會問題”的認同程度顯著低于對照組,說明經(jīng)過乘坐自動駕駛汽車,社會公眾對“自動駕駛替代人類司機”這一問題的認知被大幅度改變。不僅如此,實驗組受訪群眾在就業(yè)問題方面的擔憂程度在所有倫理風險中最低,說明社會公眾對自動駕駛給就業(yè)市場帶來的變化呈樂觀態(tài)度。為了驗證該結(jié)論的穩(wěn)健性,作者團隊于2024年面向武漢市的市民群體以及出租車、網(wǎng)約車司機群體開展了關(guān)于“就業(yè)替代\"的專項社會實驗調(diào)查④。結(jié)果顯示,就“自動駕駛技術(shù)對就業(yè)市場的總體影響\"這一問題而言,實驗組市民群體中持有積極態(tài)度、中立態(tài)度、消極態(tài)度的占比分別為 48.65%.42.70%.8.65% ;對照組市民群體的對應比例分別為 32.21% 、53.85%.13.94% ;司機群體的對應比例分別為 50.52%.26.32%.23.16% 由此可見,乘坐過自動駕駛汽車的市民群體和對自動駕駛汽車更為了解的司機群體對自動駕駛汽車的“就業(yè)替
代\"問題確實更為樂觀。
在后續(xù)調(diào)研訪談過程中我們發(fā)現(xiàn),這種現(xiàn)象出現(xiàn)的可能原因首先在于自動駕駛的大規(guī)模普及是一個漫長的過程,技術(shù)產(chǎn)業(yè)化初期僅會對少部分職業(yè)形成替代,同時產(chǎn)業(yè)漸進式發(fā)展特征形成的緩沖期為被替代就業(yè)者的職業(yè)轉(zhuǎn)換提供了可能。其次,對受影響的群體而言,自動駕駛在替代部分工作的同時提供了新的就業(yè)機會,且新的就業(yè)機會能夠明顯改善勞動環(huán)境和工作待遇。
在第三種類型中,對照組和實驗組受訪群眾對“自動駕駛比人類駕駛更安全”的認同得分分別為3.54和3.95,說明無論是從實驗組還是對照組受訪群眾來看,社會公眾在技術(shù)上都對自動駕駛呈現(xiàn)樂觀態(tài)度,而且經(jīng)過乘坐、體驗自動駕駛汽車,社會公眾的支持程度進一步提高,這為我國自動駕駛產(chǎn)業(yè)的進一步推廣奠定了基礎(chǔ)。在\"數(shù)據(jù)泄露\"這一風險認知中,對照組擔憂個人數(shù)據(jù)隱私被泄露的得分為4.05,雖然實驗組受訪群眾經(jīng)過乘坐自動駕駛汽車對數(shù)據(jù)泄露的擔憂程度下降至3.68,但仍處于中高水平,說明在后續(xù)產(chǎn)業(yè)化推廣過程中,數(shù)據(jù)泄露風險應當引起市場主體和監(jiān)管主體的重視。
在第四種類型中,社會公眾對“通過給自動駕駛汽車配備數(shù)據(jù)‘黑匣子'以時刻記錄和存儲行車數(shù)據(jù)”具有極高的認同度,而且實驗組受訪群眾在經(jīng)過體驗自動駕駛汽車后對這一措施更為支持,可見社會公眾對數(shù)據(jù)記錄這一問題具有較高的重視水平,該結(jié)果與受訪群眾對“數(shù)據(jù)泄露”擔憂程度較高的結(jié)論可以相互印證。由此可以推斷,在社會公眾的普遍認知中,行車過程的數(shù)據(jù)應當被妥善記錄,而且數(shù)據(jù)記錄之后的保管問題同樣重要,這要求政府和相關(guān)企業(yè)應當建立完整的數(shù)據(jù)收集、記錄、存儲、處置機制。此外,實驗組和對照組受訪群眾在“自動駕駛應當對所有個體做出一視同仁的決策”這一問題上均呈現(xiàn)較高的認同度,且實驗組受訪群眾的認同程度更高,這說明經(jīng)過對自動駕駛場景的切身體驗,實驗組受訪群眾更加認為自動駕駛能夠處理好公平?jīng)Q策等問題,這對算法治理提出了更高要求。
在對自動駕駛倫理風險的整體認知水平上,對照組和實驗組受訪群眾對“與自動駕駛相關(guān)的法律和倫理問題能夠被很好解決\"的認同程度分別為3.72分和4.06分,兩組均表現(xiàn)出對“法律和倫理風險”的樂觀態(tài)度,這為我國自動駕駛的創(chuàng)新和推廣提供了包容的社會環(huán)境。而在自動駕駛相關(guān)風險的消解上,社會公眾對“社會保險\"等風險轉(zhuǎn)移機制抱有非常高的期待。
四、自動駕駛倫理風險認知偏差的消解機制
對于自動駕駛倫理風險的消解和治理,已有研究做出了諸多探索[13.35.41-42],但針對自動駕駛倫理風險認知偏差消解機制的探討相對較少。正如前文所述,自動駕駛倫理風險來自新興技術(shù)創(chuàng)新和產(chǎn)業(yè)化應用與現(xiàn)有社會秩序和價值觀的“摩擦”與“沖突”,其中社會公眾在體驗和感知自動駕駛技術(shù)的基礎(chǔ)上形成的倫理風險認知是形塑公眾價值觀乃至社會秩序的重要因素,因而消除社會公眾的認知偏差是消解和治理自動駕駛倫理風險的重要方式。
社會實驗調(diào)查結(jié)果表明,通過乘坐自動駕駛汽車形成的直觀感受和認知,能夠有效消解對自動駕駛倫理風險的認知偏差。然而,社會公眾的認知具有動態(tài)性,在自動駕駛汽車進一步產(chǎn)業(yè)化過程中,隨著技術(shù)倫理風險的進一步顯露以及突發(fā)事件的影響,社會公眾對自動駕駛倫理風險的認知方向可能遭受沖擊而“逆轉(zhuǎn)”,成為制約自動駕駛推廣的因素,因而通過制度創(chuàng)新暢通社會公眾形成合理、客觀的風險認知的渠道,對消解自動駕駛倫理風險的認知偏差具有深遠意義。
此外,社會公眾對不同類型的倫理風險的認知水平存在較大差異。比如,對于“人機關(guān)系失調(diào)\"等經(jīng)常出現(xiàn)在高級別自動駕駛系統(tǒng)的風險而言,在自動駕駛起步階段,無論是實驗組還是對照組,對其感知程度均處于較低水平;對于數(shù)據(jù)隱私以及算法歧視和解釋等技術(shù)因素引發(fā)的風險而言,受訪群體表現(xiàn)出較高的關(guān)注度,并對通過技術(shù)手段消解相關(guān)風險存在較高期望;對于“就業(yè)替代\"等長階段演進性社會風險而言,社會公眾則表現(xiàn)出一定的寬容度。因此,整體來看,自動駕駛倫理風險認知偏差的消解需要考慮技術(shù)創(chuàng)新、觀念更新、制度構(gòu)建等多種路徑。
(一)通過技術(shù)創(chuàng)新降低社會公眾感知的風險水平
自動駕駛技術(shù)是社會公眾認知的客觀對象,是決定社會公眾倫理風險認知水平的基礎(chǔ)性因素,通過技術(shù)創(chuàng)新提高自動駕駛系統(tǒng)的\"安全性\"表現(xiàn),能夠有效降低公眾感知到的風險水平,進而形成對自動駕駛技術(shù)倫理風險的理性認知。
比如,數(shù)據(jù)隱私保護要求明晰各利益相關(guān)方在數(shù)據(jù)收集、存儲和處置等全流程中的權(quán)利和義務,在保證用戶知情權(quán)的同時保障用戶對自身數(shù)據(jù)的動態(tài)控制權(quán)。在算法治理方面,針對算法“黑箱化”導致的權(quán)責模糊問題,應在算法開發(fā)階段建立解釋性約束機制,使算法的決策依據(jù)、判斷邏輯能夠被人類理解與驗證。為避免算法價值觀偏離社會共識,需要在技術(shù)設(shè)計初期將社會普遍接受的倫理準則轉(zhuǎn)化為算法可識別的參數(shù),并在系統(tǒng)迭代中引入公眾意見反饋機制。在上述過程中,應建立由技術(shù)供應商、監(jiān)管機構(gòu)乃至關(guān)鍵用戶共同參與的算法審查體系,通過公開算法決策原理、提交倫理影響評估報告等方式形成算法透明度提升與社會信任建構(gòu)的雙向互動機制。
(二)在場景化交互中及時更新社會公眾的風險認知
自動駕駛是集合感知技術(shù)、通信技術(shù)、人工智能技術(shù)、汽車控制技術(shù)等多種技術(shù)的復雜技術(shù)體,感知、決策、執(zhí)行等多環(huán)節(jié)的風險表現(xiàn)都可能影響社會公眾的倫理風險認知水平。與此同時,社會公眾在駕駛方面的認知結(jié)構(gòu)與價值觀基礎(chǔ)通常在傳統(tǒng)駕駛階段形成,可能不適用于自動駕駛等新興技術(shù)。主客觀因素的相互作用容易導致既有社會價值觀與快速發(fā)展的新興技術(shù)“脫節(jié)\"甚至“沖突”。因此,為了調(diào)和技術(shù)動態(tài)演進與公眾認知滯后的結(jié)構(gòu)性矛盾,需要構(gòu)建多方協(xié)同的認知調(diào)適機制。比如,借助示范運營、公眾開放日等場景化實踐,使公眾在真實交通環(huán)境中形成對自動駕駛技術(shù)能力與風險的具象化認知。這種基于感官交互的認知建構(gòu)能夠有效消解自動駕駛的抽象概念在傳播中的信息耗損,進而防止技術(shù)預判與現(xiàn)實圖景的錯位。
(三)通過客觀宣傳與信息校準消弭倫理風險認知偏差
在信息傳播過程中,研發(fā)企業(yè)、新聞媒體、監(jiān)管主體等主體的風險應對策略可能加劇社會公眾的倫理風險認知偏差。比如,極度風險偏好型或功利型自動駕駛研發(fā)企業(yè)更可能采取“擦邊\"宣傳、刻意隱瞞等產(chǎn)品營銷方式,致使社會公眾對自動駕駛產(chǎn)品產(chǎn)生誤解,同時也增加自主系統(tǒng)爆發(fā)風險的概率。此外,與自動駕駛相關(guān)的突發(fā)事件的新聞報道和輿情演化可能引導社會公眾做出“過激”反應,使得在事故場景下的認知占據(jù)主導地位,引發(fā)社會公眾的認知對立和沖突。因此,對于企業(yè)等市場主體而言,保持技術(shù)能力聲明的嚴謹性是市場推廣的前提,因為逾界的營銷宣傳可能使其成為倫理風險的“創(chuàng)生者”,由此誘發(fā)的公眾認知偏差將加劇相關(guān)產(chǎn)品的信任危機,甚至對相關(guān)市場主體形成“反噬”,損害自動駕駛產(chǎn)品商業(yè)化的基礎(chǔ)。對于傳播媒介而言,既要構(gòu)建科學傳播自動駕駛知識的常態(tài)化機制,也要建立突發(fā)輿情事件的解釋性報道機制,避免碎片化信息、誤導性信息對公眾風險感知的扭曲,承擔起知識中介與認知校準的雙重職能。政府等監(jiān)管主體則需要規(guī)范相關(guān)主體的宣傳、傳播行為,避免公眾情緒被突發(fā)事件輿論裹挾而引發(fā)錯誤認知,通過加強輿情監(jiān)測與引導實現(xiàn)對自動駕駛倫理風險的有效治理。
(四)實現(xiàn)技術(shù)系統(tǒng)與社會系統(tǒng)的協(xié)同演進
技術(shù)系統(tǒng)與社會系統(tǒng)的協(xié)同演進,既是自動駕駛的最終目標,也是消解自動駕駛倫理風險認知偏差的必要手段。技術(shù)系統(tǒng)與社會系統(tǒng)協(xié)同演進的形式并非簡單的線性適配,而是一種雙向建構(gòu)的動態(tài)復雜過程。對于技術(shù)創(chuàng)新主體而言,要在研發(fā)過程中遵循“倫理嵌入技術(shù)”的原則,將對倫理道德風險的考量置于技術(shù)創(chuàng)新和產(chǎn)業(yè)化的全過程;對于使用主體而言,要根據(jù)技術(shù)研發(fā)的實際進程及時更新認知并向創(chuàng)新主體和治理主體做出反饋,為自動駕駛的產(chǎn)業(yè)化應用提供適當?shù)陌荻群腿蒎e空間。因此,技術(shù)系統(tǒng)與社會系統(tǒng)的互構(gòu)要求實現(xiàn)創(chuàng)新主體在技術(shù)成熟度曲線上的倫理自覺、社會公眾在風險認知和技術(shù)寬容上的動態(tài)適應之間的協(xié)同進化。這依賴于負責任創(chuàng)新(Responsible Innovation)[43]與適應性治理(AdaptiveGovernance)44l的融合。這種融合機制既可以避免技術(shù)決定論導致的社會主體被裹挾的風險,也能夠克服技術(shù)社會建構(gòu)論可能帶來的創(chuàng)新阻滯效應,為破解新興技術(shù)倫理風險困境提供具有時空適配性的解決方案。
五、結(jié)論與政策建議
基于對自動駕駛倫理風險及其認知機制的理論梳理,本文認為社會公眾對新興技術(shù)的認知水平和由此形成的包容程度為技術(shù)創(chuàng)新和產(chǎn)業(yè)化提供的試錯空間,是支持自動駕駛等新興技術(shù)持續(xù)創(chuàng)新和發(fā)展的關(guān)鍵性社會因素。當社會包容程度低于技術(shù)成熟度閾值時,技術(shù)創(chuàng)新的社會容錯空間將被壓縮,導致新興技術(shù)難以突破“死亡之谷”;反之,若放任技術(shù)“無序擴張”,任其突破社會規(guī)范,則可能引發(fā)技術(shù)和社會規(guī)范的沖突,甚至造成社會價值體系的解構(gòu)。在參與自動駕駛實踐的過程中形成對倫理風險的場景化認知,是影響社會公眾對自動駕駛包容度和接受度的重要機制。
通過在智能網(wǎng)聯(lián)汽車測試示范區(qū)開展社會實驗調(diào)查,本文得出如下結(jié)論。首先,相較于沒有自動駕駛汽車駕乘體驗的群體,乘坐過自動駕駛汽車的社會群體對自動駕駛倫理風險有著更高的包容性,說明在乘坐自動駕駛汽車過程中形成的風險感知和場景化認知是消除自動駕駛認知偏差的有效手段。其次,當前社會公眾對自動駕駛倫理風險的整體認知較為積極,且普遍認同可以通過創(chuàng)新風險轉(zhuǎn)移機制等方式為利益相關(guān)者提供風險保障,這為我國通過擴大自動駕駛運營范圍等方式為社會公眾構(gòu)建場景認知環(huán)境提供了有利條件。最后,實驗組和對照組受訪群眾在不同的倫理風險認知方面存在顯著差異。比如,對于\"數(shù)據(jù)泄露”“算法歧視\"等由技術(shù)引發(fā)的風險,社會公眾有著非常高的關(guān)注度,更容易成為制約自動駕駛產(chǎn)業(yè)發(fā)展的“倫理硬約束”;而對于“就業(yè)替代\"等影響特定群體的倫理風險而言,相關(guān)主體的認知水平會隨實踐發(fā)展而不斷深化,因而公眾往往對其持有更加寬容的態(tài)度,從而風險認知偏差可以在產(chǎn)業(yè)的漸進發(fā)展過程中得以消解。
綜上而言,自動駕駛倫理風險的有效治理與消解,應兼顧技術(shù)發(fā)展的顛覆性與社會價值的包容性,通過技術(shù)系統(tǒng)與社會系統(tǒng)的動態(tài)調(diào)適和協(xié)同,推動技術(shù)進步與倫理規(guī)范的良性互動和共同成長。這一目標的實現(xiàn)既依賴于通過技術(shù)創(chuàng)新提高自動駕駛的安全水平,更依賴于公眾對自動駕駛倫理風險形成正確認知,消除認知偏差。為此,本文提出如下政策建議。
1.著重構(gòu)建以“試點示范”為特色的階段化、遞進式和探索性政策支撐體系,為技術(shù)迭代與社會公眾認知的形成提供彈性發(fā)展空間。比如,在重點地區(qū)和代表性區(qū)域堅持開展開放道路測試、商業(yè)示范運營及產(chǎn)業(yè)化推廣工作,形成可復制、可推廣的經(jīng)驗。根據(jù)技術(shù)現(xiàn)實和社會接受程度適時拓展測試和運營區(qū)域,推動構(gòu)建從區(qū)域試點到全域覆蓋、從場景化探索到全面商業(yè)化落地的發(fā)展格局。
2.注重建設(shè)覆蓋自動駕駛技術(shù)研發(fā)、測試及商業(yè)化運營全流程的倫理指引與審查體系,推動研發(fā)與生產(chǎn)主體將倫理考量內(nèi)嵌于技術(shù)創(chuàng)新與產(chǎn)業(yè)發(fā)展的全生命周期。首先,政府等治理主體可以整合各領(lǐng)域?qū)<液蜕鐣娏α?,適時編寫并發(fā)布反映技術(shù)現(xiàn)實的自動駕駛倫理指引和規(guī)范,為自動駕駛倫理風險治理提供文件指導。其次,通過建設(shè)公眾參與、適度公開和及時反饋等治理機制,將利益相關(guān)者的倫理訴求納入決策框架,確保技術(shù)發(fā)展與社會價值的協(xié)調(diào)統(tǒng)一。同時,應強化自動駕駛倫理風險的預警與評估機制,通過動態(tài)監(jiān)測與科學評估,識別潛在倫理沖突,為政策制定與技術(shù)治理提供前瞻性依據(jù),實現(xiàn)技術(shù)進步與倫理規(guī)范的平衡發(fā)展。
3.為消除公眾對自動駕駛倫理風險的認知偏差,應注重加強自動駕駛方面科普宣傳教育。建議構(gòu)建政府主導、企業(yè)與媒體協(xié)同聯(lián)動的科普宣傳教育機制,通過技術(shù)原理大眾化解讀、應用場景直觀化展示等方式引導社會公眾形成科學理性的風險認知。此外還應注重技術(shù)信息披露規(guī)范建設(shè),約束企業(yè)在商業(yè)化宣傳中的風險弱化傾向,也要規(guī)避因倫理風險的戲劇化渲染所造成新興技術(shù)的社會恐慌??破招麄鲬钥陀^呈現(xiàn)自動駕駛技術(shù)的安全效益與社會價值為目標,培育公眾對技術(shù)迭代過程動態(tài)認知能力,為技術(shù)創(chuàng)新和產(chǎn)業(yè)化發(fā)展營造適度包容的社會環(huán)境。
4.完善自動駕駛公共事件輿情監(jiān)測與引導機制,避免事故場景下的非理性認知引發(fā)社會公眾的認知偏差。自動駕駛作為一種顛覆性技術(shù)創(chuàng)新,產(chǎn)業(yè)應用過程中合理范圍內(nèi)的試錯行為可能在社交網(wǎng)絡的催化下演化成為公共性輿情事件,擠壓新興產(chǎn)業(yè)的容錯和發(fā)展空間。為此政府部門應建立完善的輿情監(jiān)測機制,及時掌握公眾對自動駕駛技術(shù)的認知、態(tài)度和訴求。在出現(xiàn)輿情事件時,政府應通過適當?shù)妮浾撘龑Т胧┗貞鐣P(guān)切,及時澄清不實信息,避免輿情的過度發(fā)酵甚至誤導,幫助社會公眾形成理性認知。
注釋:
① 責任主體空缺是指自動駕駛系統(tǒng)的法律主體地位問題;懲罰空缺是指無法對自動駕駛系統(tǒng)實施法律規(guī)制意義上的懲罰行為;多手問題是指在多元責任主體之間劃分每個主體責任內(nèi)容和程度的困難。見POELIVD,ROYAKKERSL,ZWARTSD.Moral Responsibility and the ProblemofManyHands[M].New York:Routledge,2015.
② 從2022年開始,本文研究團隊啟動關(guān)于智能網(wǎng)聯(lián)汽車的社會實驗調(diào)查。其中,2022年以北京、武漢、陽泉作為實驗組,以天津、鄭州作為對照組,著重關(guān)注設(shè)立智能網(wǎng)聯(lián)汽車示范運營區(qū)的社會公眾技術(shù)接受度的影響;2024年的社會實驗則在就業(yè)層面關(guān)注武漢公眾對自動駕駛的認知情況??紤]到文章研究主題與社會實驗主題的契合性,本文以2023年的社會實驗調(diào)查為主,并以2024年的社會實驗結(jié)果對相關(guān)問題進行輔助說明。
③ 調(diào)研團隊實地、隨機向武漢市民發(fā)放訪談問卷,問卷由受訪者獨立填寫,填寫完成后實時回收。
④ 其中實驗組市民群體、對照組市民群體、司機群體分別回收有效問卷185份、208份、95份。
參考文獻:
[1]中國信通院.自動駕駛戰(zhàn)略與政策觀察政策法規(guī)助力高度自動駕駛加速推進產(chǎn)業(yè)化(2024年)[EB/OL].[2025-05-10].http://www.caict.ac.cn/kxyj/qwfb/ztbg/202412/P020241205497259586610.pdf.
[2]智能網(wǎng)聯(lián)汽車“車路云一體化”應用將試點 [EB/OL].(2024-01-18)[2025-03-21].https://www. gov.cn/lianbo/bumen/202401/content_6926704.htm.
[3]TRISTEL,BAMFORTH K W.Some Social and Psychological Consequences of the Longwall Method of Coal-getting:An Examination ofthe Psychological Situation and Defencesofa Work Group in Relation to the Social Structureand Technological Content of the Work System[J].Human Relations,1951(1).
[4]HUGHES T P.The Social Constructionof Technological Systems:New Directions in the Sociology andHistoryof Technology[C].Cambridge:MITPress, 1987.
[5]HUGHES T P.Networks of Power:Electrification in Western Society,1880-1930[M].Baltimore : JHU press,1993.
[6]ROTOLO D,HICKS D,MARTIN B R.What isanemerging technology?[J].Research Policy,2015 (10).
[7]李磊,魯曉.新興科技的倫理治理:概念、框架與實踐路徑分析[J].自然辯證法研究,2023(9).
[8]喬軍華,楊忠直.技術(shù)創(chuàng)新的社會環(huán)境約束與社會嵌入性風險[J].現(xiàn)代管理科學,2015(5).
[9]SHARIFFA,BONNEFONJF,RAHWANI. Psychological Roadblocks to the Adoption of Selfdriving Vehicles[J].Nature Human Behaviour,2017 (10).
[10]宋艷,陳琳,李琴,等.人工智能倫理風險感知、信任與公眾參與[J].科學學研究,2022(7).
[11]朱旭峰,樓聞佳.公眾的風險感知與新興技術(shù)接受度——面向人臉識別技術(shù)的調(diào)查實驗研究[J].管理世界,2024(10).
[12]安慧影,黃朝峰,李陽.新興技術(shù)倫理風險協(xié)同治理研究[J].科技進步與對策,2024(7).
[13]譚九生,胡健雄.自動駕駛的安全風險及其治理[J].學術(shù)交流,2023(8).
[14]HANSSON SO,BELIN M A,LUNDGREN B.Self-driving Vehicles——An Ethical Overview[J]. Philosophy and Technology,2021,34.
[15]羅伯特·索爾所,奧托·麥克林,金伯利·麥克林.認知心理學[M].邵志芳,李林,徐媛,等譯.上海:上海人民出版社,2019.
[16]NIGHTINGALE P.A Cognitive Modelof Innovation[J]. Research Policy,1998(7).
[17]鄭煌杰.可信的人工智能:技術(shù)倫理風險下AIGC的治理基點[J].科技進步與對策,網(wǎng)絡首發(fā)2024-11-04.
[18]龐禎敬,邵而行.新興技術(shù)風險的社會建構(gòu)機理及治理路徑研究[J].科學學研究,網(wǎng)絡首發(fā)2025-04-03.
[19]蘭立山.技術(shù)治理的倫理風險及其應對之策[J].道德與文明,2023(5).
[20]WIEK A,LANGD J,SIEGRIST M. Qualitative System Analysis as a Means for Sustainable Governance of Emerging Technologies:the Case of Nanotechnology [J]. Journal of Cleaner Production, 2008(8-9).
[21]KOPPENJAN J F M,KLIJN E H.Managing Uncertainties in Networks:A Network Approach to Problem Solving and Decision Making[M].London : Routledge,2004.
[22]段偉文.前沿科技的深層次倫理風險及其應對[J].人民論壇·學術(shù)前沿,2024(1).
[23]張鑫蕊,張海濤,張可欣,等.三元空間視域下重大突發(fā)事件的公眾認知建構(gòu)研究[J].情報科學,2024(11).
[24]譚,張亦慧.突發(fā)事件中的風險認知偏差與應對[J].人民論壇,2011(17).
[25]劉曉晴,鄧春林.輿情卷入風險感知下社交媒體用戶非理性行為生成機理研究[J].圖書情報工作,2024(7).
[26]齊航,王光超,張運勝,等.自動駕駛出行服務的公眾關(guān)切與研究展望——兼評“蘿卜快跑”世界最大規(guī)模無人駕駛商業(yè)化運營[J].交通運輸工程與信息學報,2024(4).
[27]丁芝華.德國自動駕駛立法的邏輯內(nèi)核與體系構(gòu)造[J].河北法學,2023(10).
[28]鄭志峰.論自動駕駛汽車被動接管規(guī)則[J].華東政法大學學報,2023(3).
[29]陳兵.人工智能應用的科技倫理與法治化建設(shè)[J].人民論壇,2024(12).
[30]張欣.生成式人工智能的數(shù)據(jù)風險與治理路徑[J].法律科學(西北政法大學學報),2023(5).
[31]譚九生,范曉韻.算法“黑箱”的成因、風險及其治理[J].湖南科技大學學報(社會科學版),2020(6).
[32]鄭志峰.自動駕駛汽車“電車難題”的倫理困境與立法因應[J].法學,2024(11).
[33]COECKELBERGH M. Artificial Intelligence, Responsibility Attribution,and a Relational Justification of Explainability [J]. Science and Engineering Ethics,2020(4).
[34]陳兵,劉永集.科技倫理與法治因應:自動駕駛的安全發(fā)展[J].學習與實踐,2025(2).
[35]胡明艷,白英慧.自動駕駛汽車道德歸責困境及其消解[J].東北大學學報(社會科學版),2023(5).
[36]付長珍.智能與智慧:人機關(guān)系的倫理前瞻[J].求是學刊,2024(6).
[37]賈開,趙彩蓮.智能駕駛汽車產(chǎn)業(yè)的治理:發(fā)展、規(guī)制與公共政策選擇[J].電子政務,2018(3).
[38]楊燁陽,王元喆,蘇果云.自動駕駛技術(shù)的倫理風險、事故的歸責模式與責任規(guī)避[J].西華師范大學學報(哲學社會科學版),2025(4).
[39]瞿晶晶,王迎春,趙延東.人工智能社會實驗:倫理規(guī)范與運行機制[J].中國軟科學,2022(11)
[40]COHEN J.Statistical Power Analysis for the Behavioral Sciences[M]. London:Routledge,2013.
[41]霍佳鑫,李俠.負責任創(chuàng)新在自動駕駛行業(yè)的嵌入途徑[J].自然辯證法通訊,2022(12).
[42]劉成科,葛燕.走向“有意義的人類控制”自動駕駛汽車的主體懸置與責任錨定[J].山東科技大學學報(社會科學版),2023(1).
[43]HELLSTROEM T. Systemic Innovation and Risk:Technology Assessment and the Challenge of Responsible Innovation [J]. Technology in Society,
Future Research [J]. Government Information Quarterly,2018(2).
[44]MERGEL I,GONG Y,BERTOT J. Agile Government:Systematic Literature Review and
Cognitive Biases in Perceiving Ethical Risks of Autonomous Vehicles: Towards Mitigation Mechanisms
LIU Gang, ZHENG Fengyang, LIU Jie
Abstract: The integration of algorithms into driving systems, progressively replacing human control, may create friction with existing social norms and values. This technological shift potentially triggers ethical concerns including traffic safety,data protection,algorithmic discrimination,and workforce displacement. Divergent interpretations of technological maturity and conflicting value systems may foster cognitive biases in perception of the associated ethical risks across social groups. Such perceptual disparities manifest as divergent levels of public acceptance,potentially delaying autonomous vehicle commercializaiton by influencing industrial policy formulation. Our social experiment reveals that the Chinese public demonstrates notably high tolerance and acceptance rates toward AV technology, indicating a favorable sociotechnical environment for innovation. Crucially, significant percceptual gaps emerged between experimental and control groups in ethical risk perceptions across respondent categories,indicating that the experience of riding in autonomous rides fundamentally shapes ethical risk cognition. Advancing human centered artificial intelligence requires dual-track progress: conducting large - scale demonstration operations and acclerating technological innovation. These initiatives must simultaneously drive technical advancement and address public cognitive biases regarding ethical risks.This co-evolution of technological and social systems emerges as a viable pathway for expediting autonomous vehicles industrilization.
Key words: autonomous vehicles; ethical risks; cognitive biases; demonstration operation
責任編輯:鄧喆