文/鄭智航
隨著互聯(lián)網(wǎng)、大數(shù)據(jù)、云計(jì)算等科學(xué)技術(shù)的發(fā)展,人力、腦力和算力融合得愈來愈緊密,以生活要素?cái)?shù)據(jù)化和機(jī)器自動(dòng)化決策為核心的人工智能算法得到了越來越廣泛的應(yīng)用。人工智能算法使得機(jī)器能夠通過可讀的指令程序,根據(jù)網(wǎng)絡(luò)痕跡、位置信息、消費(fèi)記錄等數(shù)據(jù),對(duì)人的行為進(jìn)行評(píng)價(jià)和預(yù)測(cè)。這種自動(dòng)化決策方式在人員招聘、教育培訓(xùn)、無人駕駛、投資咨詢、司法判決、智能診療、新聞推薦等諸多領(lǐng)域得到了廣泛運(yùn)用,極大地降低了人們的決策成本,提高了工作效率。然而,人工智能算法獨(dú)特的運(yùn)行邏輯導(dǎo)致法律賴以生成與存在的社會(huì)結(jié)構(gòu)性場(chǎng)景發(fā)生了重大變化,加劇了決策者與相對(duì)人之間的“數(shù)字鴻溝”,造成個(gè)人權(quán)利與算法權(quán)力之間的失衡,從而誘發(fā)了一系列的倫理問題。這些問題在一定程度上顛覆了傳統(tǒng)的法律認(rèn)知,增加了傳統(tǒng)法律治理的難度。要想增強(qiáng)人工智能算法法律治理的有效性,克服“人工智能時(shí)代的法律功能危機(jī)”,就必須回到人工智能算法這一基本原點(diǎn),探求人工智能算法倫理危機(jī)產(chǎn)生的結(jié)構(gòu)性因素,并在此基礎(chǔ)上分析既有法律治理手段存在的限度,從而為人工智能算法法律治理的轉(zhuǎn)型升級(jí)探明方向。
人工智能算法獨(dú)特的運(yùn)行邏輯正在深刻地改變著以往的生產(chǎn)方式和生活方式,并反客為主地對(duì)人的行為形成支配關(guān)系。人們可以借助于數(shù)據(jù)操縱與算法來實(shí)現(xiàn)控制人的目的。馬長山認(rèn)為:“掌握了數(shù)據(jù),就意味著掌握了資本和財(cái)富;掌握了算法(Algorithm),就意味著掌握了話語權(quán)和規(guī)制權(quán)?!边@種具有隱蔽性的算法權(quán)力會(huì)給人們帶來系統(tǒng)性的不利后果,消解人的主體地位,侵犯公民的基本權(quán)利,誘發(fā)一系列的倫理危機(jī)。人工智能算法給以強(qiáng)調(diào)個(gè)人幸福和權(quán)利優(yōu)先性為特點(diǎn)的現(xiàn)代倫理帶來了巨大挑戰(zhàn),現(xiàn)代倫理以道德個(gè)人主義目的論方法論原則為指導(dǎo),將個(gè)人幸福置于根本地位。這種方法論要求凸顯人的主體性地位,并用主體性原則來構(gòu)建現(xiàn)代社會(huì)。它將“人為目的”的道德觀和權(quán)利優(yōu)先性理念作為現(xiàn)代社會(huì)正義的基礎(chǔ),將人的外在行為所直接產(chǎn)生的現(xiàn)實(shí)效應(yīng)或?qū)嵸|(zhì)結(jié)果,或者由它帶來的實(shí)際價(jià)值效應(yīng)作為道德評(píng)價(jià)的依據(jù)。主體性、個(gè)體正義觀和實(shí)質(zhì)結(jié)果判斷構(gòu)成了現(xiàn)代倫理的基礎(chǔ)。然而,人工智能算法對(duì)作為現(xiàn)代倫理支撐的主體性原則、社會(huì)正義觀和實(shí)質(zhì)結(jié)果主義提出了嚴(yán)峻挑戰(zhàn)。這種挑戰(zhàn)主要體現(xiàn)為人的主體性地位的消解、群組正義觀代替?zhèn)€人正義觀、人工智能在算法結(jié)果上的標(biāo)簽化效應(yīng)等。
算法自動(dòng)化決策在推動(dòng)社會(huì)進(jìn)步的同時(shí),也帶來一系列的社會(huì)問題和法律問題。人們?cè)噲D通過既有的法律主體性制度來解決這些問題。這種法律主體性制度構(gòu)想體現(xiàn)了進(jìn)一步捍衛(wèi)現(xiàn)代社會(huì)主體性倫理基礎(chǔ)的努力,但是,它難以適應(yīng)人工智能算法運(yùn)行的基本邏輯。這種“生硬”的制度“嫁接”,既難以在法學(xué)理論上實(shí)現(xiàn)邏輯自洽,也難以對(duì)人工智能算法的健康發(fā)展進(jìn)行有效上導(dǎo)。
現(xiàn)代法律主體制度是建立在對(duì)人的哲學(xué)理解基礎(chǔ)上的。它強(qiáng)調(diào)人除了具有認(rèn)知、判斷和選擇等能力以外,還具備道德、良心、良知、倫理等要素。因此,法律主體制度是以人具有獨(dú)立的人格為前提的,并將人作為一個(gè)不證自明的法律目的。運(yùn)用法律主體制度來解決算法誘發(fā)的倫理問題與社會(huì)問題存在諸多障礙。首先,人類設(shè)計(jì)算法和發(fā)明作為算法載體而存在的人工智能體并不是為了創(chuàng)制一個(gè)目的性存在,而是要為人類生活服務(wù)。換言之,算法及作為算法載體而存在的人工智能體始終是一種工具性存在。盡管算法系統(tǒng)經(jīng)歷了從物理系統(tǒng)到仿生神經(jīng)網(wǎng)絡(luò)系統(tǒng)的發(fā)展,并不斷迫近人類的神經(jīng)認(rèn)知系統(tǒng),但是,它“沒有上升到有生命的狀態(tài),不具備生命所要求的能夠利用外界物質(zhì)形成自己的身體和繁殖后代,按照遺傳的特點(diǎn)生長、發(fā)育并在外部環(huán)境發(fā)生變化時(shí)及時(shí)適應(yīng)環(huán)境的能力”。而人自然生命的目的神圣性是法律主體制度建立的基礎(chǔ)。賦予作為算法載體而存在的人工智能法律主體地位,既會(huì)冒犯人的自然生命的目的神圣性,又顛倒了目的與工具的關(guān)系。其次,運(yùn)用法律主體制度規(guī)制算法,無法實(shí)現(xiàn)權(quán)利義務(wù)統(tǒng)一性原則。權(quán)利與義務(wù)相統(tǒng)一原則是現(xiàn)代法律的一項(xiàng)基本原則,也是法律主體理論或制度的核心內(nèi)涵。賦予作為算法載體的人工智能體法律主體地位,是一種授予權(quán)利的行為。但是,既有的法學(xué)理論無法回答人工智能體獨(dú)立承擔(dān)相應(yīng)的法律責(zé)任的問題。最后,算法目前通過深度學(xué)習(xí)難以進(jìn)化出人的自由意志和情感。現(xiàn)代法律主體制度深受康德自由意志學(xué)說影響,并將自由意志和情感作為法律主體的必備要件。隨著科學(xué)技術(shù)的發(fā)展,算法的學(xué)習(xí)能力得到大幅度提高,并形成了一定的語言和思維能力。但是,要想在短期內(nèi)進(jìn)化出反思能力,具有同人類一樣的自由意志與情感,則幾乎不可能。
為了規(guī)制算法權(quán)力,揭開“算法黑箱”,人們愈來愈傾向于運(yùn)用透明性原則,因?yàn)橥该餍栽瓌t能夠彌補(bǔ)決策者與相對(duì)人之間形成的“數(shù)字鴻溝”,避免信息的過度不對(duì)稱導(dǎo)致技術(shù)劣勢(shì)一方依附于技術(shù)強(qiáng)勢(shì)一方,從而演變成數(shù)字經(jīng)濟(jì)時(shí)代的精英統(tǒng)治。算法透明度主要包括算法源代碼的透明性和開放性;公布用于作出相關(guān)算法決策的輸入和輸出過程;以簡(jiǎn)明易懂的方式公開輸入到輸出的中間過程,以便被決策對(duì)象充分知悉并認(rèn)同算法的正當(dāng)合理性等內(nèi)容。它雖然在防止算法技術(shù)異化方面起到了一定的作用,但仍然會(huì)受到算法性質(zhì)、公眾認(rèn)知能力和算法自身的可解釋性等因素的影響。(1)就算法的性質(zhì)而言,各國法院傾向于認(rèn)為它是一種商業(yè)秘密。(2)就公眾的認(rèn)知能力而言,絕大多數(shù)非專業(yè)人士都不具備讀懂算法語言的基本能力。透明性原則的核心是通過公眾的知曉和理解來防止決策的失誤和不公正??炊屠斫鈩t是公眾監(jiān)督的前提。人們依憑看懂和理解的信息,并結(jié)合生活中的常識(shí)判斷,能夠得出一個(gè)較為客觀公允的結(jié)論。然而,算法極強(qiáng)的專業(yè)性和嵌入性,極大地超越了普通人的常識(shí)判斷范圍,絕大多數(shù)非專業(yè)人士根本無法理解算法。換言之,人工智能算法是一個(gè)自我封閉的“孤島”,要想理解算法,就必須具備相應(yīng)的知識(shí)體系和認(rèn)知能力。因此,運(yùn)用透明性原則來規(guī)制算法的效果不會(huì)十分理想。(3)就算法自身的可解釋性而言,它是運(yùn)用透明性原則規(guī)制人工智能算法的前提。某一事物只有具有可解釋性,才既能夠在公眾面前得到有效的開示,又能使專業(yè)技術(shù)人員對(duì)自身行為的正當(dāng)性進(jìn)行有效辯解。從本質(zhì)上講,算法是在特定的網(wǎng)絡(luò)架構(gòu)模式中,通過計(jì)算機(jī)語言進(jìn)行具體編程而組合成一套源代碼系統(tǒng)。簡(jiǎn)單的算法具有可控性,是可以解釋的,但是,復(fù)雜的算法對(duì)于數(shù)據(jù)和硬件設(shè)施的依賴程度會(huì)很高,并且它們?cè)诓粩嗟剡M(jìn)行學(xué)習(xí)和自我進(jìn)化。
在人工智能算法中,數(shù)據(jù)與算法的關(guān)系極為密切,以至于“數(shù)據(jù)喂養(yǎng)著人工智能”成為一個(gè)基本的共識(shí)。計(jì)算機(jī)只有吸收大量的數(shù)據(jù),算法才能運(yùn)行起來,并得到學(xué)習(xí)和進(jìn)化。而算法又能夠?qū)?shù)據(jù)加以轉(zhuǎn)化和控制,從而形成一種“準(zhǔn)公權(quán)力”,這是算法異化的一個(gè)重要原因。因此,人們認(rèn)為運(yùn)用數(shù)據(jù)權(quán)的保護(hù)模式能夠有效地解決人工智能算法的倫理危機(jī)。具體來講,運(yùn)用數(shù)據(jù)權(quán)來約束人工智能算法存在三個(gè)難題。第一,數(shù)據(jù)權(quán)的內(nèi)容和歸屬界定困難。權(quán)利內(nèi)容清晰和歸屬明確是權(quán)利有效行使的前提,而算法運(yùn)用的數(shù)據(jù)非常復(fù)雜。它近似于一個(gè)倉庫,可以分為數(shù)據(jù)運(yùn)營層、數(shù)據(jù)倉庫層和數(shù)據(jù)產(chǎn)品層等層級(jí)。不同的數(shù)據(jù)層對(duì)數(shù)據(jù)的管理和使用方式也不同,相應(yīng)地涉及具體的權(quán)利內(nèi)容也較為模糊。另一方面,平臺(tái)數(shù)據(jù)的權(quán)利主體難以通過對(duì)法律條文和法律教義的分析來明確,也難以基于正當(dāng)性與后果主義的分析來界定,因?yàn)槠脚_(tái)數(shù)據(jù)既可以被認(rèn)為是個(gè)人所有、平臺(tái)所有、個(gè)人與平臺(tái)共有,也可以被認(rèn)為是互聯(lián)網(wǎng)空間的公共數(shù)據(jù)。第二,算法技術(shù)可以繞開數(shù)據(jù)權(quán)主體。隨著算法學(xué)習(xí)能力的不斷增強(qiáng),它愈來愈能夠?qū)A康臒o結(jié)構(gòu)數(shù)據(jù)(包括百度搜索記錄、淘寶購物記錄、手機(jī)全球定位系統(tǒng)即GPS信息等各種電子痕跡)進(jìn)行分析和處理。個(gè)人身份的已識(shí)別或可識(shí)別狀態(tài)往往成為數(shù)據(jù)分析的結(jié)果而不是起點(diǎn)。特別是到了數(shù)據(jù)倉庫層和數(shù)據(jù)產(chǎn)品層,算法所處理的數(shù)據(jù)距離數(shù)據(jù)源中的原始數(shù)據(jù)愈來愈遠(yuǎn),因?yàn)樗惴ㄔ谧罱咏紨?shù)據(jù)的數(shù)據(jù)運(yùn)營層就進(jìn)行了去噪、去重、提臟、業(yè)務(wù)提取、單位統(tǒng)一、砍字段等多項(xiàng)工作。因此,算法技術(shù)繞開了數(shù)據(jù)權(quán)主體,致使“從數(shù)據(jù)是否已包含個(gè)人身份信息入手來規(guī)制算法無法達(dá)到保護(hù)個(gè)人權(quán)益的目的”。第三,數(shù)據(jù)權(quán)是一種以個(gè)人為中心的救濟(jì)模式,難以應(yīng)對(duì)算法權(quán)力的復(fù)雜性。從本質(zhì)上講,運(yùn)用數(shù)據(jù)權(quán)制約算法權(quán)力的思路是一種以單個(gè)的個(gè)體為中心來對(duì)抗“準(zhǔn)公權(quán)力”的思路。這種思路忽視了算法權(quán)力的技術(shù)性和資本性兩大基本特性。
算法權(quán)力的技術(shù)性增加了普通民眾的認(rèn)知難度。算法權(quán)力的資本性,決定了普通民眾難以用數(shù)據(jù)權(quán)來制約算法權(quán)力。算法設(shè)計(jì)者和研發(fā)者往往是一支龐大的專業(yè)團(tuán)隊(duì),并且擁有雄厚的財(cái)力支持。無論是法官還是律師,都難以應(yīng)對(duì)專業(yè)化的算法問題。這種認(rèn)知上和財(cái)力上的懸殊,使個(gè)人數(shù)據(jù)權(quán)難以對(duì)抗日益膨脹的算法權(quán)力。
人工智能算法獨(dú)特的運(yùn)作邏輯致使運(yùn)用法律主體制度、透明性原則和數(shù)據(jù)權(quán)等方式化解人工智能算法的倫理危機(jī)和社會(huì)危機(jī)的思路難以奏效。因此,應(yīng)當(dāng)調(diào)整傳統(tǒng)法律制度的規(guī)制理念,構(gòu)建符合人工智能算法運(yùn)作基本邏輯的規(guī)制路徑。
受效率主導(dǎo)邏輯的支配,算法設(shè)計(jì)者和開發(fā)者往往將注意力集中在吸上甚至迎合用戶上。這種偏好原則可能將用戶鎖定在“信息繭房”中,從而忽視了用戶的數(shù)字福祉(digital well-being)。這種數(shù)字福祉的范圍要大于數(shù)據(jù)權(quán)的范圍,體現(xiàn)在算法及作為算法載體而存在的人工智能體在認(rèn)識(shí)、動(dòng)機(jī)、結(jié)果、組織評(píng)價(jià)等多方面滿足善的要求。它能夠在社會(huì)提出的倫理原則或指導(dǎo)方針與算法設(shè)計(jì)者或開發(fā)者提出的目標(biāo)技術(shù)之間進(jìn)行一種反思性的平衡,并應(yīng)該在特定數(shù)據(jù)技術(shù)的開發(fā)、部署和使用等各個(gè)關(guān)鍵階段都發(fā)揮核心作用。隨著網(wǎng)絡(luò)技術(shù)和算法技術(shù)的發(fā)展,人們愈來愈強(qiáng)調(diào)算法設(shè)計(jì)者和開發(fā)者應(yīng)當(dāng)依循“經(jīng)由設(shè)計(jì)的數(shù)字福祉(digital well-being by design)”理念,將對(duì)用戶數(shù)字福祉的保障和促進(jìn)融入產(chǎn)品和服務(wù)的設(shè)計(jì)中去。這種算法中嵌入數(shù)字福祉的做法在醫(yī)療保健、教育和就業(yè)、治理和社會(huì)發(fā)展、媒體和娛樂等領(lǐng)域愈來愈得到運(yùn)用。特別是數(shù)據(jù)技術(shù)所具有的積極計(jì)算能力,促進(jìn)了道德規(guī)范在算法設(shè)計(jì)過程中的嵌入,因?yàn)樗⒃诜e極心理學(xué)研究的基礎(chǔ)上。
傳統(tǒng)的法律規(guī)制手段還是建立在國家與社會(huì)、公權(quán)力與私權(quán)利的二元結(jié)構(gòu)基礎(chǔ)上的。它強(qiáng)調(diào)國家以自主性為核心的“專斷性權(quán)力”和個(gè)人基本權(quán)利所具有的排除公權(quán)力侵害的防御功能。具體到算法規(guī)制領(lǐng)域,它主要體現(xiàn)為試圖建立一套以結(jié)果責(zé)任認(rèn)定為核心的政府事后監(jiān)管模式和以個(gè)人為中心的權(quán)利救濟(jì)模式。這些方式和手段雖然在一定程度上能夠起到糾正算法偏差的作用,但是對(duì)于嵌入算法技術(shù)過程中的更為隱蔽的算法偏差的作用并不大。這需要我們重新認(rèn)識(shí)國家與社會(huì)、公權(quán)力與私權(quán)利、行政權(quán)力與技術(shù)權(quán)力的關(guān)系,并建立一種“政府—平臺(tái)—商戶(消費(fèi)者)、公權(quán)力—社會(huì)權(quán)力—私權(quán)利的三元結(jié)構(gòu)”。三元結(jié)構(gòu)中的國家與社會(huì)、公權(quán)力與私權(quán)利不再是簡(jiǎn)單的消極對(duì)抗關(guān)系,政府權(quán)力也不應(yīng)該是一種高專斷性權(quán)力。人工智能算法構(gòu)造了一個(gè)信息社會(huì),信息成為權(quán)力的中心,產(chǎn)生一種信息權(quán)力,這種信息權(quán)力制約和阻礙著以科層制為核心的政府權(quán)力的運(yùn)作,并在事實(shí)上改變了政府權(quán)力的運(yùn)作形態(tài)和人們對(duì)權(quán)力的認(rèn)識(shí)。算法平臺(tái)具有的經(jīng)營權(quán)、財(cái)產(chǎn)權(quán)和知識(shí)產(chǎn)權(quán)等一系列私權(quán)利會(huì)在這種信息優(yōu)勢(shì)和技術(shù)優(yōu)勢(shì)下演變?yōu)橐环N“準(zhǔn)公權(quán)力”。政府在算法規(guī)制過程中,也需要借助算法平臺(tái)、程序員和人工智能專家的信息優(yōu)勢(shì)和技術(shù)優(yōu)勢(shì),實(shí)現(xiàn)合作性治理。因此,算法平臺(tái)企業(yè)、程序員和人工智能專家不僅是政府監(jiān)管的對(duì)象,也是政府監(jiān)管的參與者、決策者和執(zhí)行者。國家有關(guān)算法規(guī)制法律規(guī)范的制定和執(zhí)行都離不開他們的積極參與,而且這種參與的深度和力度要遠(yuǎn)遠(yuǎn)超過二元結(jié)構(gòu)中的公眾參與。
人工智能算法法律規(guī)制基本理念的轉(zhuǎn)變必然帶來法律規(guī)制路徑的變化。具體來講,人工智能算法的法律規(guī)制應(yīng)當(dāng)強(qiáng)調(diào)元規(guī)制治理,突出數(shù)據(jù)控制者的自我控制義務(wù);加強(qiáng)政府、平臺(tái)和社會(huì)三方的合作治理,通過第三方參與實(shí)現(xiàn)對(duì)算法的協(xié)同治理;完善算法責(zé)任分擔(dān)機(jī)制,建立算法安全風(fēng)險(xiǎn)的保險(xiǎn)制度;等等。
就算法的元規(guī)制治理而言,應(yīng)當(dāng)強(qiáng)調(diào)通過激勵(lì)機(jī)制來促使數(shù)據(jù)控制者針對(duì)問題進(jìn)行內(nèi)控式的自我規(guī)制。在此過程中,數(shù)據(jù)控制者應(yīng)當(dāng)通過數(shù)據(jù)保護(hù)影響評(píng)估和“經(jīng)由設(shè)計(jì)的數(shù)據(jù)保護(hù)”等方式來履行數(shù)據(jù)保護(hù)義務(wù)。數(shù)據(jù)保護(hù)影響評(píng)估是對(duì)算法進(jìn)行的一種事先規(guī)制。它強(qiáng)調(diào)數(shù)據(jù)控制者對(duì)軟件產(chǎn)品是否符合適用的法規(guī)標(biāo)準(zhǔn)、指南、計(jì)劃、規(guī)格和過程進(jìn)行獨(dú)立評(píng)估。為了強(qiáng)化評(píng)估的作用,只有那些通過專家、公共機(jī)構(gòu)和受算法決策影響的社區(qū)代表審查評(píng)估的算法,才能在一組實(shí)體之間共享或在公共站點(diǎn)上發(fā)布。在具體評(píng)估過程中,不但應(yīng)當(dāng)評(píng)估基于目的使用算法的必要性和相稱性,而且應(yīng)當(dāng)評(píng)估算法可能帶來的侵害自主權(quán)、差別性待遇、財(cái)產(chǎn)損失等風(fēng)險(xiǎn)。算法擁有者應(yīng)當(dāng)根據(jù)評(píng)估結(jié)果提出處理風(fēng)險(xiǎn)的預(yù)想方案。
隨著政府—平臺(tái)—商戶、公權(quán)力—社會(huì)權(quán)力—私權(quán)利三元結(jié)構(gòu)治理理念的確立,除了政府需要改變過去單向度的“命令加控制”的管控方式外,還需要構(gòu)建算法規(guī)制的合作治理路徑。在這種合作治理中,政府監(jiān)管機(jī)構(gòu)應(yīng)當(dāng)通過“提高標(biāo)準(zhǔn)化程度和自動(dòng)化程度”,使用“司法測(cè)試和新技術(shù)”來敦促算法相關(guān)企業(yè)遵守法律法規(guī)和其他內(nèi)控性質(zhì)的規(guī)范。社會(huì)第三方力量應(yīng)當(dāng)提供全自動(dòng)的算法風(fēng)險(xiǎn)分析和控制技術(shù)。算法平臺(tái)和企業(yè)應(yīng)當(dāng)嚴(yán)格履行防范算法風(fēng)險(xiǎn)的義務(wù),不斷調(diào)整信息技術(shù)系統(tǒng),制定個(gè)性化的內(nèi)部算法風(fēng)險(xiǎn)管理流程。
算法系統(tǒng)的復(fù)雜性對(duì)傳統(tǒng)的以因果關(guān)系為基礎(chǔ)的法律責(zé)任體系形成了嚴(yán)峻挑戰(zhàn)。當(dāng)某個(gè)產(chǎn)品匯聚多種算法系統(tǒng)時(shí),要想找到損害結(jié)果與損害行為之間的因果關(guān)系,難度會(huì)更大。在未來相當(dāng)多的情況下,通過傳統(tǒng)產(chǎn)品責(zé)任來解決智能算法及智能系統(tǒng)致人損害問題愈來愈不可能。吳漢東預(yù)測(cè),未來社會(huì)以過錯(cuò)責(zé)任為基礎(chǔ)建立的“風(fēng)險(xiǎn)分配”責(zé)任體系,將在某些領(lǐng)域不復(fù)存在。例如,對(duì)于算法上發(fā)的交通事故的認(rèn)定,歸責(zé)事由只有結(jié)果的“對(duì)與錯(cuò)”,而無主觀上的“故意”或“過失”。倘若讓算法及其智能系統(tǒng)的開發(fā)者或經(jīng)營者承擔(dān)無過錯(cuò)責(zé)任,就勢(shì)必增加產(chǎn)品的生產(chǎn)成本,阻礙算法技術(shù)的發(fā)展。因此,筆者主張逐步建立算法安全風(fēng)險(xiǎn)的保險(xiǎn)機(jī)制。作為算法載體而存在的人工智能體的生產(chǎn)者或所有者應(yīng)當(dāng)購買一定份額的保險(xiǎn),以分擔(dān)算法上發(fā)的安全風(fēng)險(xiǎn)。