亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        人工智能的負外部性及其經(jīng)濟法規(guī)制

        2020-04-27 12:07:02聰,
        關鍵詞:外部性經(jīng)濟法主體

        胡 元 聰, 廖 娟

        (西南政法大學 經(jīng)濟法學院,重慶 401120 )

        一、問題的提出

        2017年7月,國務院印發(fā)的《新一代人工智能發(fā)展規(guī)劃》提出,人工智能是一項引領未來的戰(zhàn)略性技術(shù),旨在以科技創(chuàng)新引領開拓發(fā)展新境界。2019年3月,李克強總理在《政府工作報告》中又明確提出,要“深化大數(shù)據(jù)、人工智能等研發(fā)應用……壯大數(shù)字經(jīng)濟”[1]。因此,可以說人工智能的發(fā)展已經(jīng)進入新階段,成為國際競爭的新焦點和經(jīng)濟發(fā)展的新引擎。美國、日本、歐盟等都在近3年內(nèi)制定并實施了人工智能發(fā)展規(guī)劃。對比之下,我國目前缺乏與人工智能快速發(fā)展完全相配套的法律法規(guī)??萍嫉牟淮_定性加上法律制度的不確定性導致人工智能“?!薄皺C”并存,我們在歡享人工智能發(fā)展給我們帶來的“福利”等正外部性時,也要警惕其給我們帶來的“危機”等負外部性,包括但不限于沖擊現(xiàn)有的社會經(jīng)濟秩序、弱化法律的調(diào)整功能、增加社會管理主體的治理成本等,所以,要注意人工智能演化給現(xiàn)有法律關系帶來的影響[2]。人工智能的良性發(fā)展能帶動制度的進步,反過來合理的制度實現(xiàn)人工智能的價值?;谶@種關系,本文擬從制度層面探討解決人工智能負外部性的可行性方式。諸多負外部性是多種因素共同作用所導致的,而其中不容忽視的因素之一即為法律缺位和制度不足。從經(jīng)濟法視域來看,人工智能市場準入制度、人工智能市場監(jiān)管制度、人工智能信息披露制度和人工智能主體責任制度大都存在不健全的情形。經(jīng)濟法律制度的不健全不但影響對約束人工智能負外部性的規(guī)范,甚至可能進一步加劇人工智能的負外部性。經(jīng)濟法的主要調(diào)整對象(包括市場主體規(guī)制法律關系、市場秩序規(guī)制法律關系、宏觀經(jīng)濟調(diào)控法律關系和經(jīng)濟監(jiān)管法律關系等),決定了其不可能對人工智能負外部性視而不見。因此,圍繞人工智能負外部性的經(jīng)濟法規(guī)制亟需在法治框架下探討以下問題:人工智能負外部性有哪些表現(xiàn)?其制度原因體現(xiàn)在哪些方面?如何完善經(jīng)濟法規(guī)制路徑?本文在人工智能發(fā)展對經(jīng)濟法的需求以及審視經(jīng)濟法存在不足的基礎上,主張完善人工智能市場準入制度、人工智能市場監(jiān)管制度、人工智能信息披露制度和人工智能主體責任制度,以期為解決人工智能負外部性問題提供一些新的思路。

        二、人工智能負外部性的影響及制度因素分析

        1.人工智能及其負外部性的界定

        人工智能(AI)是研究、開發(fā)用于模擬、延伸和擴展人的智能的理論、方法、技術(shù)及應用系統(tǒng)的一門新的技術(shù)科學,是一門涉及計算機、信息科學、系統(tǒng)科學、控制論、語言學、認知學等多學科的綜合性技術(shù)[3]。1956年,“人工智能”這個詞首次出現(xiàn)在達特茅斯會議上,標志著其正式成為一個新的研究領域。關于人工智能的分類,有不同的劃分標準和具體表現(xiàn)。目前科學界一般認為人工智能的發(fā)展可以分為弱人工智能、強人工智能和超級人工智能3個階段;也有的將人工智能分為弱人工智能和強人工智能[4]。弱人工智能是指各種模擬人或動物智能解決各種問題的技術(shù),包括機器人學、專家系統(tǒng)、人工神經(jīng)網(wǎng)絡等。強人工智能是指有自我意識、自主學習能力和自主決策能力的技術(shù)。波斯特姆在美國《連線》上提出所謂的“超級人工智能”,其區(qū)別于當前已經(jīng)廣泛應用的“弱人工智能”。據(jù)相關權(quán)威人士分析,中國人工智能研究在安保、金融、生物醫(yī)學、能源、城市管理、交通管理等領域的應用非常關鍵[5]。在云計算、大數(shù)據(jù)、深度學習的孕育催化下,人工智能模擬和表現(xiàn)了人類的智慧力,并以高于人類的工作速度、優(yōu)于人類的工作精度、勝于人類的工作態(tài)度,協(xié)助人類解決各種各樣的問題[6]。然而,人工智能也同樣給人類帶來了各種棘手的問題,如個人隱私可能被侵犯,人身安全可能難以得到保障等。囿于篇幅和主題,本文主要探討人工智能的負外部性及其經(jīng)濟法解決之道。

        什么是負外部性?不同領域的研究角度不同,其定義也不盡相同。從經(jīng)濟學角度來看,外部性指未被市場交易所體現(xiàn)的額外成本或額外收益。區(qū)別于經(jīng)濟學對負外部性的定義,從法學角度上看,負外部性是指經(jīng)濟主體在行使權(quán)利時,表現(xiàn)為權(quán)利義務不對等以至于利益的失衡。具體而言,負外部性是一個經(jīng)濟主體在行使其權(quán)利時將本應該由自己承擔的義務施加給其他經(jīng)濟主體[7]。最典型的負外部性例子就是環(huán)境污染。一個化工廠將本應該由自己處理的污水隨意排放,無形中給周圍其他主體施加了污水處理義務,造成兩者之間的權(quán)利義務失衡。人工智能負外部性就是以人工智能為中心的市場生產(chǎn)、經(jīng)營主體在行使其權(quán)利時將本應該由自己承擔的義務施加給其他主體,由此引發(fā)的負面影響。人工智能是科技發(fā)展的結(jié)果,也是信息演進的結(jié)果。人工智能作為一項科學技術(shù)本該是中性的。但是,在實際的社會生活中,人工智能研發(fā)者、生產(chǎn)者和銷售者壟斷信息、無視數(shù)據(jù)風險,使得消費者和他們?nèi)咧g的權(quán)利義務失衡,此乃本文探討的人工智能負外部性。歸根結(jié)底,從經(jīng)濟法視域來看,人工智能負外部性是由于準入制度的匱乏、市場監(jiān)管的低效、信息披露的不足和法律責任的模糊所造成的。為此,我們必須建立健全相關的經(jīng)濟法律法規(guī)。通過矯正和抑制上述各個主體的負外部性行為,各自的權(quán)利義務才能在合法范圍內(nèi)重新達到均衡狀態(tài)。

        2.人工智能負外部性的具體影響

        (1)沖擊現(xiàn)有的法律秩序

        美國法理學家博登海默認為,秩序指“在自然進程和社會進程中都存在某種程度的一致性、連續(xù)性和確定性”。社會秩序是建立在一定經(jīng)濟基礎上,以人為中心的動態(tài)平衡的社會狀態(tài),表征社會關系的穩(wěn)定性、進程的連續(xù)性、行為的規(guī)則性以及財產(chǎn)和心理的安全性[8]。人工智能負外部性在這里則體現(xiàn)為沖擊現(xiàn)有社會秩序的有序性、連續(xù)性和確定性,體現(xiàn)在增加法律制度風險和引發(fā)社會道德危機方面,從而加劇了人類社會未來發(fā)展的不確定性。

        第一,挑戰(zhàn)既有法律制度。制度風險指向制度結(jié)局或結(jié)果的風險,人工智能負外部性既沖擊民法、刑法、經(jīng)濟法等正式制度,也沖擊行業(yè)規(guī)范等非正式制度。作為社會秩序現(xiàn)實表現(xiàn)——社會結(jié)構(gòu)功能的功能失調(diào)、反功能、潛功能的存在,預示著制度風險具體表現(xiàn)為功能失調(diào)、反功能和潛功能[9]。進入人工智能時代后,法律制度本身就存在滯后性而不適應新形勢的情形。這就產(chǎn)生了法律制度的不確定風險。 無人駕駛汽車的研發(fā)者、生產(chǎn)者、銷售者目前均享受著國家政策的紅利,但其享受的權(quán)利與承擔的義務相對不匹配,其負外部性正挑戰(zhàn)著我國現(xiàn)有的包括《中華人民共和國道路交通安全法》等在內(nèi)的法律制度[10]。人工智能的負外部性破壞了法律調(diào)整對象的穩(wěn)定性、規(guī)制方法的有效性、主體資格的確定性,進而使多個部門法出現(xiàn)重復規(guī)制或無效規(guī)制情形,由此增加法律制度風險發(fā)生的概率。

        第二,引發(fā)社會道德危機。人與人、人與社會、人與自然之間存在不同維度、不同位階的權(quán)利義務關系,而這來源于人類自身在發(fā)展過程中總結(jié)的善惡標準。人工智能時代,“人機關系”將躍升為新型關系。伴隨著無人駕駛汽車的突然出現(xiàn),空中無人機的普遍存在,以及自動化機器開始在更為復雜的情況下進入日常生活,諸如倫敦、哥本哈根的地鐵系統(tǒng)[11]。而基于此,處于道德兩難困境的倫理學家虛構(gòu)的“失控電車案例”[12]代表了人工智能體道德在現(xiàn)階段承受的全新挑戰(zhàn)。人類社會目前已經(jīng)存在惡意竊取別人隱私、誠信滑坡等顯性問題,而弱人工智能體階段的智能體因不存在顯性道德約束機制和有效的法律約束機制,就更容易被有不良道德的人利用而從事?lián)p害他人利益或者公共利益等沖擊社會秩序的行為。

        (2)弱化法律的調(diào)整功能

        由于資源的稀缺性、機會的不平等性、信息的不完全性和風險的不確定性,初次分配的結(jié)果一般都是不公平的[13]。因此,國家必須通過稅法、財政法等宏觀調(diào)控法來調(diào)整各類經(jīng)濟主體的初次分配結(jié)果,注重對信息主體權(quán)利義務的調(diào)整,進而強化法律對社會治理的調(diào)整。而人工智能的負外部性卻在一定程度上對法律調(diào)整功能產(chǎn)生一定的沖擊,即使這種沖擊不一定產(chǎn)生直接的負面影響。

        第一,弱化法律對初次分配的調(diào)整功能。我國現(xiàn)有的與社會主義市場經(jīng)濟相適應的初次分配制度還不完善,還不能完全適應市場經(jīng)濟的發(fā)展。人工智能的出現(xiàn)或許將使現(xiàn)有初次分配制度更難以發(fā)揮作用。與前幾次工業(yè)革命不同的是,人工智能可能使得人類就業(yè)崗位呈現(xiàn)爆發(fā)性和徹底性的消失態(tài)勢。麥肯錫的一項研究結(jié)論表明,在60%的不同職業(yè)中,會有30%的工作被機器所取代[14]。其另一項報告指出,到2030年機器人將取代8億人的就業(yè),而中國將面臨最大規(guī)模(最多可達1億人)的就業(yè)變遷[15]。因此,人工智能不僅會淘汰“工作崗位”,還會淘汰“工作技能”,故“無論你的領子是什么顏色,機器都會毫不留情”[16]。這就逼迫一些經(jīng)濟主體不僅要和其他經(jīng)濟體競爭,更要和機器人等人工智能競爭。不可否認,人工智能的研發(fā)、推廣及應用會減少人類在駕駛員、保安等職業(yè)領域獲得初次分配的機會,尤其是在重復性、標準化的工作中。而這部分人就業(yè)機會的減少使得其收入相應減少,但是生存成本卻維持不變。原本應由個體承擔生存成本的義務間接轉(zhuǎn)嫁給了整個社會整體,再次分配制度不得不側(cè)重維護這部分個體的權(quán)利而減少其義務。因此,從個體而言,就業(yè)機會的相對減少,生產(chǎn)和消費將可能出現(xiàn)不均;從社會整體而言,經(jīng)濟主體的初次分配將可能更加不公。

        第二,弱化法律對信息主體權(quán)利義務的調(diào)整功能。在生產(chǎn)力發(fā)展進步的過程中,資金力量和人才儲備雄厚的大企業(yè)可能很快即可實現(xiàn)自身的工業(yè)模式轉(zhuǎn)型,并且享受技術(shù)革新的紅利,而中小企業(yè)則可能因為自身實力不足而無力承擔“極高的初創(chuàng)成本”,從而導致行業(yè)壟斷的事實形成[17]。為適當解決信息主體權(quán)利義務嚴重失衡的問題,反壟斷法等經(jīng)濟法律法規(guī)正發(fā)揮著不可或缺的重要作用。在人工智能、海量數(shù)據(jù)與產(chǎn)業(yè)日益深度融合的社會背景之下,數(shù)據(jù)量和準確度也必將成為影響社會分配的重要因素。與人工智能相關的生產(chǎn)者、經(jīng)營者擁有的數(shù)據(jù)量越大,數(shù)據(jù)信息越準確,數(shù)據(jù)更新越快速,那么其越有獲得更多社會初次分配成果的可能性。加之,我國在人工智能領域發(fā)展較早且具有壟斷地位的企業(yè)占據(jù)著社會大部分信息資源,可能使其權(quán)利義務不匹配。在某種程度上,信息優(yōu)勢主體在人工智能信息方面的權(quán)利未變但義務實際上減少,使得權(quán)利與義務更加不匹配。經(jīng)濟主體本來就存在權(quán)利義務不平衡的問題,加上信息失靈的雙重影響,人工智能的發(fā)展或許會繼續(xù)拉大社會分配的差距,從而加劇現(xiàn)有信息主體權(quán)利義務不匹配的主要矛盾,降低法律對其的調(diào)整功能。

        (3)增加社會治理成本

        弗朗西斯·福山認為治理是政府制定和執(zhí)行規(guī)則、提高公共服務的能力[18]。社會治理既包括政府提供的公共產(chǎn)品,又包括社會的自我服務。當代社會治理已突破傳統(tǒng)的線性模式[19],政府主要依靠法律制度來實施社會經(jīng)濟治理,但是包括稅法、反不正當競爭法、反壟斷法等在內(nèi)的經(jīng)濟法律制度大都具有天然的滯后性,無法及時對人工智能時代到來所產(chǎn)生的新現(xiàn)象、新問題做出及時有效的規(guī)制。進一步說,經(jīng)濟法律制度的制定者缺乏對人工智能的及時了解和提前謀局,使得法律不可能快速回應相關的社會治理的現(xiàn)實需要。由此可見,以法律為主要手段的社會治理本身就需要耗費很大成本。人工智能負外部性則增加了政府進行社會治理的成本,具體主要表現(xiàn)為:

        第一,增加社會治理的信息成本。以信息不充分、信息不準確及信息不對稱為主要表現(xiàn)的信息失靈直接增加社會治理決策主體的成本。決策者在對人工智能的信息掌握不充分時只能自行收集信息,這無疑會增加信息成本;當人工智能信息不準確或存在錯誤時,社會治理者則會耗費成本去判斷信息真?zhèn)涡?。當前,信息擁有者可以被劃分?個層次:信息的絕對擁有者、相對擁有者和不擁有信息者。信息絕對擁有者將既有信息看作是自己的私有資產(chǎn),阻礙其他主體對信息的收集和使用,進一步增加了信息劣勢者獲得信息的成本。同時,信息所有者基于隱私權(quán)保護之故也不愿意將自己的信息公之于眾。如此,信息的不對稱導致社會治理主體難以獲得治理對象的有效信息。掌握人工智能優(yōu)勢信息主體權(quán)利義務的失衡或許會進一步加劇信息失靈,由于此類信息失靈,從而會增加社會治理的信息成本。

        第二,挑戰(zhàn)社會的法律治理模式。人工智能以大數(shù)據(jù)為基礎,以深度學習的方式不斷進行自我學習和自我突破。人工智能的出現(xiàn)使得法律的調(diào)整對象變得更加復雜。在某些方面,人工智能已經(jīng)遠遠超過人類的能力,非現(xiàn)有的法律調(diào)整方式可以規(guī)制。以經(jīng)濟法為例,我國當前的《中華人民共和國產(chǎn)品質(zhì)量法》不能完全有效地解決基于人工智能產(chǎn)品產(chǎn)生的法律糾紛。雖然不能把傳統(tǒng)治理模式的不適應和轉(zhuǎn)變看成人工智能的負外部性,但事實上這在某種程度上加劇了人工智能的負外部性。因此,人工智能正挑戰(zhàn)著原有基于法律的社會治理方式、程序和手段。權(quán)利義務不匹配的傳統(tǒng)經(jīng)濟社會治理方式和程序不僅不能有效地解決人工智能負外部性,而且可能使人工智能負外部性愈演愈烈,從而增加潛在的社會治理成本。

        3.人工智能負外部性的經(jīng)濟法檢視

        人工智能在本質(zhì)上是科技發(fā)展的結(jié)果?,F(xiàn)實中不健全的法律制度在某種程度上“誘使”了人工智能負外部性的溢出,引發(fā)了人們對其安全問題的普遍擔憂??疾飕F(xiàn)行有效的經(jīng)濟法律制度,可以發(fā)現(xiàn)只有《中華人民共和國中小企業(yè)促進法》這1部法律對“人工智能”進行了粗略的規(guī)定(第33條)。隨著人工智能對社會經(jīng)濟關系的影響日益深入,以市場主體規(guī)制法律關系、市場秩序規(guī)制法律關系、宏觀調(diào)控法律關系和經(jīng)濟監(jiān)管法律關系等為主要調(diào)整對象的經(jīng)濟法,無疑發(fā)揮著激勵人工智能正外部性與解決人工智能負外部性的關鍵作用。“蓬勃發(fā)展的人工智能產(chǎn)業(yè)尤其需要經(jīng)濟法的有效規(guī)制……對于其消極效應,應加以限制或禁止”[20]。但問題是,現(xiàn)有相對滯后的經(jīng)濟法難以有效解決人工智能的負外部性。所以,有必要從經(jīng)濟法視域來檢視人工智能負外部性產(chǎn)生的具體原因。

        首先,基于經(jīng)濟法立法思維缺陷視角的分析。引起解決人工智能負外部性的經(jīng)濟法供給不足的因素之一即為經(jīng)濟法立法思維的供給不足。反過來,經(jīng)濟法立法思維的缺陷又可能使人工智能負外部性進一步加劇,進而導致人工智能負外部性難以有效地受到現(xiàn)實經(jīng)濟法的規(guī)制?,F(xiàn)行的經(jīng)濟法滲透著單向度和滯后性的立法思維,沒有對將來可能發(fā)生的人工智能問題作出該有的前瞻性和預判性的因應,如當人工智能產(chǎn)品侵害消費者的合法權(quán)益時,人工智能本身是否應承擔法律責任。因此,如果經(jīng)濟法的立法思維跟不上人工智能的發(fā)展速度,必然無法有效解決人工智能負外部性問題,而只會進一步導致分配不公平、信息不平衡、秩序不穩(wěn)定等社會問題。

        其次,基于經(jīng)濟法適用領域視角的分析?,F(xiàn)有經(jīng)濟法不是因人工智能而生,因此不會、也不可能完全適用于規(guī)制人工智能。而問題在于,對人工智能能進行有效規(guī)制的經(jīng)濟法尚處于缺位狀態(tài)。例如:不完善的人工智能市場準入制度使得部分市場主體無法進入人工智能領域,從而導致市場競爭不足,最終會出現(xiàn)社會初次分配不公平的負外部性;不健全的人工智能市場監(jiān)管制度無法適用到人工智能領域,也無法抑制人工智能負外部性;不健全的人工智能信息披露制度,使得原有的信息不對稱的負外部性更加突顯;不清晰的人工智能市場主體責任制度可能導致人工智能相關主體出現(xiàn)系統(tǒng)性規(guī)避責任的情形,如當服務型機器人對第三人侵權(quán)時,不論是機器人、所有者、銷售者、生產(chǎn)者還是研發(fā)者都可能出現(xiàn)相互推諉法律責任的情形。

        三、人工智能負外部性經(jīng)濟法規(guī)制的路徑選擇

        法律作為控制社會的主要手段,對歷史發(fā)展的影響絕對不亞于歷史發(fā)展對法律的影響[21]。對于人工智能的目前現(xiàn)狀來說,立法宜粗不宜細。人工智能涉及眾多社會關系,不可能由某一部具體的法律就可以進行有效的規(guī)制,而只能由多個法律部門共同調(diào)整,最大程度地發(fā)揮各個部門法規(guī)制的邊際效應,保障人工智能朝著有益于人類安全的方向發(fā)展。在鼓勵人工智能發(fā)展的當下,立法應當樹立開新意識,以發(fā)展開放的思維為指導,以中立審慎的態(tài)度持續(xù)推動經(jīng)濟法對人工智能負外部性的規(guī)制進程。從經(jīng)濟法視域來看,當前應該重點完善人工智能的市場準入制度、市場監(jiān)管制度、信息披露制度和主體責任制度。

        1.完善人工智能市場準入制度

        (1)完善人工智能市場準入主體制度

        從市場準入主體制度上抑制人工智能負外部性是一個極具有實踐操作性的路徑選擇。人工智能市場準入主體制度解決了哪些市場主體可以進入該市場的問題,進而可以避免由于不當進入人工智能市場引起的人工智能負外部性強烈沖擊現(xiàn)有法律和社會秩序的情形發(fā)生。從現(xiàn)行的法律來看,市場準入的主體一般是法人、其他組織和個人。對于一般的人工智能市場,只要符合法律的一般性規(guī)定,即法人、其他組織和個人都可以進入。為激勵人工智能的正向發(fā)展,這種人工智能市場準入主要有賴于民商事法律制度的寬泛確認。而對于經(jīng)濟性市場、社會性市場和壟斷市場等特殊人工智能市場,如類腦研發(fā)、高級醫(yī)療智能器械等,立法應該制定更高的市場準入標準(參見表1)[22],以保證現(xiàn)有企業(yè)的正外部性供給即鼓勵公共產(chǎn)品的生產(chǎn)。如此一來,人工智能市場主體資格的明確可以有效地減少“經(jīng)濟人”帶來的道德危機。

        表1 市場準入種類、部門法及具體法律規(guī)制

        人工智能所依賴的大數(shù)據(jù)可分為公共數(shù)據(jù)庫和私人數(shù)據(jù)庫。政府主要承擔公共數(shù)據(jù)庫資料的收集以及接口的完善,一般市場主體都可以進入公共數(shù)據(jù)庫,同時要求使用公共數(shù)據(jù)的主體進行時進行即時電子化登記。涉及國防、金融安全等敏感數(shù)據(jù)的使用時,相關主體需要到實體經(jīng)營所在地獲得許可并且備案,便于人工智能監(jiān)管主體進行常規(guī)檢查和臨時抽查。這樣既可以有效保證一般市場主體在同等條件下進入并進行市場競爭,防止帶來社會初次分配不公,又可以降低社會治理信息成本。

        (2)完善人工智能市場準入范圍制度

        符合國內(nèi)人工智能一般市場準入主體資格的,除非按要求需強制行政許可外,市場主體可以根據(jù)法律規(guī)定自由進入人工智能交易市場,以實現(xiàn)自由交易和人工智能資源共享。對于國內(nèi)經(jīng)濟性市場準入、社會性市場準入和壟斷性市場準入,除非法律有明確禁止性規(guī)定,立法應該允許部分主體先進入適當?shù)娜斯ぶ悄苁袌鲱I域。在法律允許的范圍內(nèi),人工智能市場主體應當積極提供就業(yè)崗位。這樣可以有效解決就業(yè)機會減少帶來的負外部性,進而化解社會分配不公導致的矛盾。

        充分的國際合作為我國有效應對人工智能國際市場的負外部性營造了有利的環(huán)境。人工智能立法不僅要建立科學合理的國內(nèi)市場準入制度,更應該加強國際合作。在國際人工智能市場準入方面,應當盡快完善《中華人民共和國對外貿(mào)易法》等配套法律法規(guī),如《中華人民共和國對外貿(mào)易法》第十六條第四款規(guī)定:“國內(nèi)供應短缺或者為有效保護可能用竭的自然資源,需要限制或者禁止出口的”,應當動態(tài)調(diào)整并且及時公布限制進出口的貨物、技術(shù)項目。我國應當積極加入國際性人工智能協(xié)會,主動參與人工智能市場準入規(guī)則的制定。通過劃定國內(nèi)人工智能一般市場、特殊市場以及國際人工智能市場準入范圍,使得某一個具體的人工智能市場主體能夠準確找到對應的市場領域。這樣,人工智能研發(fā)者、生產(chǎn)者和銷售者既能減少不必要的要素支出,又能從側(cè)面降低人工智能市場負外部性。進而,搶抓人工智能之“機”即激勵其正外部性和轉(zhuǎn)化人工智能之“?!奔唇鉀Q其負外部性。

        (3)完善人工智能市場準入程序制度

        (2)計劃全面引入BEPS第8項至第10項行動計劃成果關于轉(zhuǎn)讓定價的定義。轉(zhuǎn)讓定價是中國在BEPS成果轉(zhuǎn)化中關注的重點,2015年9月17日,國家稅務總局政策法規(guī)司發(fā)布《特別納稅調(diào)整實施辦法(征求意見稿)》,對《特別納稅調(diào)整實施辦法》進行修訂,它包含了與無形資產(chǎn)交易相關的全新章節(jié),其中無形資產(chǎn)的規(guī)定完全對接了BEPS第8項至第10項行動計劃成果相同的寬泛定義,但為適應中國實際情況,某些方面的規(guī)定還是與BEPS報告中的意見有差異。

        要解決人工智能市場準入法律問題,準入程序是關鍵環(huán)節(jié)。人工智能市場準入程序應當根據(jù)人工智能市場的準入范圍而靈活構(gòu)建。除了法律規(guī)定的保留事項之外,應當對我國現(xiàn)行的500項行政審批項目進行仔細篩查與分析。對于其中確需行政審批的人工智能項目,應當繼續(xù)實施強制許可制度;對于不適宜保留的行政許可則可以改為普通登記備案。同時,我國法律應當鼓勵人工智能市場相關主體主動申請備案,例如法律可以對主動備案的市場主體簡化準入程序環(huán)節(jié)并給予政策優(yōu)惠等激勵。一般的人工智能附屬產(chǎn)品可不經(jīng)審批或者登記備案直接推廣使用及自由交易。這樣,主動優(yōu)于被動的準入程序制度就能發(fā)揮其激勵功能,有效抑制人工智能市場主體準入程序中的負外部性。

        涉及社會型、經(jīng)濟型等特殊人工智能市場,我國應當實施特殊強制許可制度。即使符合準入資格的人工智能市場主體,也必須經(jīng)過相關審核主體的最終審核才能進入特殊人工智能市場。同時,嚴格規(guī)范這種類型的人工智能市場主體的準入程序,嚴格禁止不符合法律規(guī)定硬性指標的市場主體進入特殊人工智能市場。同時,寬松的一般準入程序與嚴格的特殊準入程序相輔相成,不可隨意變更。另外,建立健全人工智能市場準入分流程序制度,提高人工智能市場準入制度的規(guī)制效率,也是解決人工智能負外部性的有效路徑之一。

        2.完善人工智能市場監(jiān)管制度

        所謂市場監(jiān)管,是指市場監(jiān)管主體對市場活動主體及其行為進行限制、約束等直接干預活動的總和[23]。我國《“十三五”市場監(jiān)管規(guī)劃》對人工智能市場做出的整體監(jiān)管規(guī)劃,給廣大市場主體一個清晰的信號和穩(wěn)定的預期。綜合監(jiān)管與行業(yè)領域?qū)I(yè)監(jiān)管、社會協(xié)同監(jiān)管分工協(xié)作、優(yōu)勢互補、相互促進的市場監(jiān)管格局對于解決人工智能負外部性具有非常重要的意義。在上述法律監(jiān)管之下,政府應鼓勵企業(yè)在法律允許的范圍內(nèi)發(fā)展人工智能產(chǎn)業(yè),主動內(nèi)化人工智能發(fā)展過程中的負外部性。因為法律監(jiān)管既涉及制度風險的消解和道德危機的化解,又涉及社會治理成本降低和社會公平的維護,所以,我國更應該注重人工智能監(jiān)管體系的建立健全。

        (1)完善人工智能行業(yè)的監(jiān)管制度

        人工智能的飛速發(fā)展給人類社會帶來的負外部性使得我國不得不抓緊進行法律層面的頂層設計。當前,我國對人工智能的法律監(jiān)管是否處于完全空白狀態(tài)呢?如前所述,我國并非完全沒有可以對人工智能進行有效監(jiān)管的法律法規(guī),只是數(shù)量少,而且不具體系性。因此,現(xiàn)實可行的方法之一就是在既有法律法規(guī)基礎上,以人工智能法律監(jiān)管為中心,分行業(yè)有步驟地進行配套法律法規(guī)建設。因為,人工智能已經(jīng)不同程度地深入滲透到不同的行業(yè)領域,而各行業(yè)領域又具有不同的特殊性,所以不可能適用統(tǒng)一的監(jiān)管制度。因此,應當根據(jù)人工智能與行業(yè)耦合程度、風險大小程度、算法成熟程度實行包容審慎性監(jiān)管制度。如在醫(yī)療領域,國家食品藥品監(jiān)督管理局出臺了《醫(yī)療器械分類目錄》以監(jiān)管該領域的人工智能。在一定條件下,全國人民代表大會可以授權(quán)國務院根據(jù)實際情況先行對人工智能進行宏觀性立法,優(yōu)先考慮對人們生活已經(jīng)產(chǎn)生重大影響的人工智能領域,待人工智能監(jiān)管立法條件成熟再正式立法,最終形成法律監(jiān)管合力并實現(xiàn)系統(tǒng)監(jiān)管。

        (2)完善人工智能多元化監(jiān)管制度

        建立具有可操作性的多元化、綜合性預防監(jiān)管體系,有助于降低新型制度風險帶來的人工智能負外部性。綜合性預防監(jiān)管體系需要實行多元化的法律監(jiān)管制度,而監(jiān)管方式又是監(jiān)管制度中不可或缺的重要組成部分?,F(xiàn)有法律監(jiān)管的主要方式涉及取締營業(yè)執(zhí)照或資格、要求繳納保證金、納入負面清單和交納保險等。但現(xiàn)有監(jiān)管方式并不能直接運用到人工智能領域的監(jiān)管。人工智能監(jiān)管制度的主要目的是防范人工智能的風險,而風險主要來自兩個方面:產(chǎn)品本身的風險和制造者的風險。針對制造者產(chǎn)生的風險,可以繼續(xù)沿用傳統(tǒng)的監(jiān)管方式;而對于人工智能產(chǎn)品產(chǎn)生的風險,可以在傳統(tǒng)監(jiān)管方式的基礎上,嘗試性采用預先強制性認證、保險等。例如對于無人駕駛機動車,可將汽車的銷售與責任保險捆綁在一起,保險費則依生產(chǎn)商、汽車類型、所有者或者使用者的情況來定[24]。使用者和保險方則可以對“無人駕駛汽車”這類人工智能產(chǎn)品進行外部性監(jiān)督,這樣就可以在一定程度上解決人工智能負外部性。另外,還需要創(chuàng)新人工智能的監(jiān)管模式,即充分利用人工智能企業(yè)的技術(shù)和數(shù)據(jù)分析優(yōu)勢,積極開展合作,不斷強化事中事后監(jiān)管[25]。還可適當賦予人工智能自治組織自治權(quán),允許人工智能協(xié)會或者行業(yè)組織積極建立統(tǒng)一的監(jiān)管標準和行業(yè)道德標準,從而引導人工智能企業(yè)在符合人類整體利益和道德倫理基礎上,研發(fā)和應用人工智能技術(shù)。

        3.完善人工智能信息披露制度

        法律不僅為私人經(jīng)濟活動,也為國家對經(jīng)濟的干預設定規(guī)范,既提供渠道又施加限制。信息披露制度是經(jīng)濟法規(guī)制人工智能負外部性的重要內(nèi)容。拓寬人工智能的信息披露渠道是人工智能相關者獲取關鍵信息的重要途徑,也是降低人工智能信息失衡負外部性不可或缺的重要一環(huán)。要使人工智能負外部性透明化,健全與人工智能相關的信息披露制度無疑是經(jīng)濟法解決人工智能負外部性必須考慮的關鍵問題。因此,隨著大數(shù)據(jù)的廣泛傳播,我國有必要出臺專門的人工智能企業(yè)信息披露制度。

        (1)確立人工智能信息披露原則

        社會整體利益要求義務主體合法披露人工智能產(chǎn)品的即時信息,即告知社會公眾人工智能產(chǎn)品的操作方法、產(chǎn)品參數(shù)等信息。人工智能信息的披露義務主體必須在信息披露原則的指導下,以合適的方式披露人工智能產(chǎn)品有關信息來保障社會公眾的知情權(quán)。社會公眾一旦有完整準確的人工智能產(chǎn)品信息,那么其就有更多機會監(jiān)督人工智能企業(yè)。人工智能信息披露原則主要包括及時性原則和真實性原則。第一,及時性原則。人工智能信息披露的首要原則就是及時性原則,這根源于人工智能信息的快速傳播。人工智能的特殊性要求相關義務主體披露的信息必須完整及時,以解決人工智能信息不及時的負外部性。在借鑒銀行監(jiān)管的及時性要求時務必明確,只有及時的信息才具有法律監(jiān)管的相關性,因此應該以足夠的頻率和及時性提供信息。第二,真實性原則。人工智能信息披露義務主體應當基于對人類整體安全真實披露涉及的真實數(shù)據(jù)。研發(fā)生產(chǎn)人工智能相關產(chǎn)品的主體都是信息披露義務主體,披露的信息必須與人工智能實際使用的參數(shù)一致,不得虛假記載、誤導和欺騙。同時,政府作為人工智能主要的監(jiān)管主體,務必將人工智能的基礎信息準確告知社會公眾。

        (2)建立人工智能信息分類披露制度

        可以將人工智能相關的產(chǎn)權(quán)信息、研發(fā)信息等按照一定的可以分為一般信息和特殊信息,法律應當明確規(guī)定這兩類信息各自的披露義務主體、披露內(nèi)容和披露程序。信息披露義務人可以定期披露特殊信息,但是對一般信息則必須履行連續(xù)披露義務。比如無人駕駛汽車的智能技術(shù)備案屬于一般信息,生產(chǎn)廠商應當在機動車進入消費市場后連續(xù)披露相關參數(shù)。按照人工智能涉及的信息與社會價值、環(huán)境價值、經(jīng)濟價值的重要性,可以將其分為3層(如表2所示)[26]。按照這3層信息涉及的信息擁有者來設計分類分層的信息披露制度。

        表2 信息分層、信息擁有者及核心價值評判標準

        基礎信息具有廣泛性、全面性的特點,而且?guī)в小肮珯?quán)”色彩,該部分主要由政府、政府組織和非政府組織收集,具有一定公共性。針對第一層信息,政府可以建立公共數(shù)據(jù)庫,明確政府和非政府組織的披露義務。第二層信息的擁有者在一定程度上帶有“經(jīng)濟人”性質(zhì),如算法等關乎商業(yè)秘密的核心信息不必主動向社會公眾披露,但是應當建立嚴密的資料信息庫。第三層信息的披露義務主體是各類營利性組織,允許其保留核心信息,但涉及人工智能使用者的產(chǎn)品參數(shù)、操作方法等應當標注清楚。通過要求不同的信息擁有者從不同程度按照法律法規(guī)的要求進行信息披露,從而達到分層解決人工智能系統(tǒng)信息失衡負外部性的目的。

        4.完善人工智能主體責任制度

        弱人工智能引發(fā)的法律責任是其負外部性所致的最終結(jié)果,實質(zhì)上仍然是人類的法律責任,大部分類似于當前的產(chǎn)品質(zhì)量責任或產(chǎn)品侵權(quán)責任。因此,明確各主體的法律責任是維護社會公平秩序,優(yōu)化社會治理模式的最后一道防守線。強人工智能基于深度學習和大數(shù)據(jù)能獨立做出決定,這使得社會主體很難識別法律責任主體。所以,關于強人工智能的責任分擔問題,我國首先應當借助既有的法律制度,同時前瞻性地對部分內(nèi)容進行調(diào)整以應對人工智能的發(fā)展之需,待到條件成熟后再建立全新的系統(tǒng)的法律規(guī)則體系,從法律責任的分擔規(guī)則上真正解決強人工智能的負外部性。

        (1)完善弱人工智能責任制度

        弱人工智能的責任分擔類似于產(chǎn)品質(zhì)量責任或產(chǎn)品侵權(quán)責任。首先需要明確相關主體的法律責任分擔,以便保障受損消費者的合法權(quán)益和維護人工智能市場的良好秩序。現(xiàn)有的人工智能技術(shù)大部分規(guī)定是依附在具體的實物上,即為實物的構(gòu)成部分,因此可將其法律責任的分擔視作產(chǎn)品質(zhì)量責任的分擔。現(xiàn)行的《中華人民共和國產(chǎn)品質(zhì)量法》大部分是對生產(chǎn)者和銷售者的義務性規(guī)定,該部分規(guī)定可以繼續(xù)適用。在歸責原則上,對生產(chǎn)者仍然可以繼續(xù)適用嚴格產(chǎn)品責任原則,而對銷售者適用過錯責任倒置原則。銷售者在對銷售附有人工智能技術(shù)的產(chǎn)品進行舉證時,法律不應該太嚴苛,只要符合一般人的產(chǎn)品注意義務即可。是否有必要將獨立的研發(fā)主體納入產(chǎn)品責任原則的適用體系中,需要進一步的探究。另外,筆者認為立法上可以考慮將人工智能侵權(quán)作為獨立的侵權(quán)形式補充到《中華人民共和國侵權(quán)責任法》中。若與《中華人民共和國產(chǎn)品質(zhì)量法》重合,則采用特殊法優(yōu)于普通法方式來確定最終適用的法律法規(guī)。在責任的承擔方面,可以繼續(xù)沿用《中華人民共和國民法總則》第一百七十九條的規(guī)定,而違反刑法的,還應當承擔相應的刑事責任。

        (2)建立強人工智能責任制度

        強人工智能雖然并沒有完全出現(xiàn)于當前社會中,也沒有弱人工智能階段的社會關系復雜,但它客觀上形成了部分需要法律調(diào)整的特殊社會關系。因此,對強人工智能發(fā)展過程中可能產(chǎn)生的負外部性,立法者在分配法律責任時,應當堅持下列原則:一是立法者應當保持一定的克制,不宜倉促地出臺法律以免阻礙智能制造的動態(tài)發(fā)展,畢竟人工智能產(chǎn)業(yè)屬于國家發(fā)展戰(zhàn)略而不是一般產(chǎn)業(yè);二是嚴格責任或者連帶責任的適用與否必須在考慮人工智能對經(jīng)濟影響的基礎上進行進一步的論證,即初期應當有所限制,甚至在必要時可以選擇適用產(chǎn)品質(zhì)量責任之發(fā)展風險抗辯制度;三是智能制造網(wǎng)絡的參與者必須可以被識別,這是判斷合適的責任承擔者的前提和基礎[27]。為了人類社會的長遠發(fā)展,立法應當根據(jù)本階段人工智能負外部性的實際情況,可以在法律上將人工智能主體擬制為限制行為能力人以承擔相應的法律責任。這種行為歸責類似于將公司擬制為獨立的法人主體行為。還可以用法律形式為高級階段的人工智能體創(chuàng)設監(jiān)護人(比如使用者)。若發(fā)生人工智能體對監(jiān)護人侵害權(quán)益時,監(jiān)護人是否可以直接適用既有的產(chǎn)品質(zhì)量責任,這有待于深層次探討。如果人工智能體實際發(fā)生對監(jiān)護人以外的第三人侵權(quán)時,先規(guī)定主要由監(jiān)護人承擔法律責任。當監(jiān)護人無力承擔法律責任時,限制或剝奪該人工智能體的自由可能也是一種可行的法律責任承擔方式。這樣就從責任分擔上解決了強人工智能負外部性。

        四、結(jié) 論

        人工智能不僅是科技創(chuàng)新,更是第三次工業(yè)革命核心技術(shù)驅(qū)動力的科技革命。人工智能既給人類社會帶來新機遇也帶來新挑戰(zhàn),因此,人工智能的不確定性導致其“?!薄皺C”并存。發(fā)展人工智能時成果與代價同在,利益與風險并存。弱人工智能應用和產(chǎn)業(yè)已經(jīng)在多個領域取得重大發(fā)展。根據(jù)目前的發(fā)展態(tài)勢,強人工智能時代也可能快速來臨。我們應當以開放的心態(tài)、審慎的態(tài)度正視智能革命時代的到來,在享受其帶來的正外部性時也應當透徹分析和解決人工智能的負外部性。因此,為搶抓人工智能之“機”即激勵其正外部性和轉(zhuǎn)化人工智能之“?!奔唇鉀Q其負外部性,需要完善的經(jīng)濟法進行因應。

        就目前而言,人工智能的負外部性的主要影響體現(xiàn)為沖擊現(xiàn)有法律秩序、弱化制度的調(diào)整功能、增加社會治理主體的信息成本、挑戰(zhàn)既有社會治理模式等。因此,深入了解人工智能負外部性產(chǎn)生的根源,對人工智能負外部性進行經(jīng)濟法檢視及經(jīng)濟法規(guī)制路徑的完善和創(chuàng)新,是當前研究機構(gòu)和實務部門的迫切任務。充分發(fā)揮經(jīng)濟法的激勵功能和約束功能,有助于人工智能負外部性的良性解決。當然,法律方式只是倫理方式、道德方式等眾多對人工智能負外部性規(guī)制手段中的一種,僅僅依靠法律方式既不可取,也不可能全面實現(xiàn)其初衷。因此,為了充分發(fā)揮經(jīng)濟法對人工智能負外部性的規(guī)制功能,法律制度需要和道德、倫理相結(jié)合。另外,經(jīng)濟法對人工智能負外部性的轉(zhuǎn)化過程并非一蹴而就,匆忙立法也非明智之舉。因此,應當尋求理論張力與現(xiàn)實約束下的允執(zhí)厥中,在檢視現(xiàn)有經(jīng)濟法的基礎上,本著中道務實的態(tài)度,因時制宜地重點完善人工智能市場準入制度、市場監(jiān)管制度、信息披露制度以及主體責任制度。人工智能只有在法治軌道上循序發(fā)展,才能確保其安全、可靠、可控并實現(xiàn)基于“人機命運共同體”的符合人類社會根本利益的發(fā)展,也才能實現(xiàn)國家戰(zhàn)略與包容發(fā)展、商業(yè)利益與社會責任、國際競爭與人類安全的平衡與協(xié)調(diào),也才能為以完善的法律制度提升全球人工智能治理制度性話語權(quán)提供中國智慧和中國方案。

        猜你喜歡
        外部性經(jīng)濟法主體
        采暖區(qū)既有建筑節(jié)能改造外部性分析與應用研究
        論自然人破產(chǎn)法的適用主體
        南大法學(2021年3期)2021-08-13 09:22:32
        環(huán)境負外部性的環(huán)境法新解析
        論經(jīng)濟法的憲法性
        法大研究生(2019年1期)2019-11-16 00:37:50
        經(jīng)濟法在我國經(jīng)濟轉(zhuǎn)型中的作用分析
        活力(2019年21期)2019-04-01 12:16:32
        公安高等院校經(jīng)濟法課程教學改革研究
        關于遺產(chǎn)保護主體的思考
        消費者權(quán)益保護法的經(jīng)濟法解讀
        論多元主體的生成
        既有商品住宅節(jié)能改造外部性及其測算研究
        精品人妻一区二区久久| 日本丰满熟妇bbxbbxhd| 亚洲欧美在线播放| 亚洲一区二区三区在线观看蜜桃| 精品乱色一区二区中文字幕 | 日本女优爱爱中文字幕| 久久精品网站免费观看| 欧美饥渴熟妇高潮喷水水| 日本丰满妇人成熟免费中文字幕| 少妇隔壁人妻中文字幕| 国产精品国产三级国产av中文| 午夜成人鲁丝片午夜精品| 91久久久久无码精品露脸| 澳门精品一区二区三区| 多毛小伙内射老太婆| 无码人妻精品一区二区三区下载 | 亚洲熟女一区二区三区| 人妻在线中文字幕| 亚洲av午夜福利一区二区国产| 国产成人av一区二区三区不卡| 又粗又硬又黄又爽的免费视频| 国产精品久久国产三级国电话系列| 亚洲av色香蕉一区二区三区av | 蜜桃视频无码区在线观看| 国产日韩欧美网站| 青青草视频在线免费视频| 边添小泬边狠狠躁视频| 欧美日韩精品一区二区在线观看| 99久久久精品免费| 国产视频激情视频在线观看| 免费黄色影片| 精品视频999| 中文字幕一区二区三区6| 少妇高潮太爽了在线视频| 亚洲综合av在线在线播放| 一区二区三区四区亚洲综合| 国产不卡在线视频观看| 特级av毛片免费观看| 亚洲精品亚洲人成在线播放| 高潮精品熟妇一区二区三区| 亚洲av综合永久无码精品天堂|