亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        公私交融的人工智能法

        2024-04-27 10:54:05陳吉棟
        東方法學 2024年2期

        陳吉棟

        內(nèi)容摘要:人工智能法的事物本質決定了其公私交融特性。事物本質的觀察源于技術不平等與隨之而來的信任關系重塑,其基本內(nèi)涵是主體數(shù)字化、數(shù)據(jù)財產(chǎn)化、財產(chǎn)債權化、權利社會化和責任客觀化。人工智能系統(tǒng)、AI agent 并非法律主體。同意具有公法內(nèi)涵但離不開私法分析,智能合約研究進展不大。權利研究不能支撐人類數(shù)字化生存的公私利益訴求,數(shù)據(jù)賦權說已占主流,但仍未能走出數(shù)據(jù)流通困境。法律責任的研究集中在歸責原則的客觀化與生成式人工智能之服務提供者的義務及過錯判斷上。以風險為基礎的人工智能治理構成人工智能立法的底層邏輯,應注意風險與責任的互動關系。

        關鍵詞:公私交融 數(shù)據(jù) 可計算性 智能合約 同意授權 人工智能風險治理

        中圖分類號:DF0 文獻標識碼:A 文章編號:1674-4039-(2024)02-0063-75

        作為應對人工智能時代新興法律問題的法學學科,人工智能法學與數(shù)據(jù)法學一樣,其前提性命題、基本范疇均獨具特色,這就決定了試圖用傳統(tǒng)線下社會單一部門法理論或制度來解決智能社會中具體法律問題的努力往往會產(chǎn)生只見局部忽視全局的結果,由此便需要尋求契合智能社會本質要求的法律思維邏輯與具體制度設計。〔1"〕2023年,隨著理論研究的深入和立法實踐的倒逼,人工智能法研究在核心議題上的共識逐步呈現(xiàn),其“公私交融”的特征更為鮮明。公私交融深層次的意涵是,人工智能的研發(fā)與應用導致了主體及其利益關系呈現(xiàn)出超越傳統(tǒng)公私法范疇的融合景象。有學者曾表達了人工智能可能導致“私法的消亡”〔2&〕的驚人斷言,與所謂“公法易逝,而私法長存”〔3&〕的警語截然相反,顯示出人工智能與法律關系的復雜性,這層含義涉及公私法劃分乃至法律、技術與其他秩序來源關系的重構,該重構建基于技術之上的不平等與信任關系重塑,在人工智能法的主體、權益、行為等方面均有呈現(xiàn)。本文考察學說,辨別源流,提煉人工智能法公私交融特征的主線。

        一、事物本質與人工智能法公私融合的基本內(nèi)涵

        對于人工智能及智能社會事物本質的認識是困擾人工智能法研究的首要難題?!傲⒎ㄅc法律發(fā)現(xiàn)都是一種制定法規(guī)范與生活事實的調適(Angleichung),一種應然與實存同化、對應的過程。但這里需要由一個令規(guī)范與事實獲得一致的‘第三者(Tertium),亦即在應然與實存之間有一個調和者存在。我們需要一個同時能夠代表特殊與一般,事實與規(guī)范的構造物。這個調和者就是‘法律理由(ratio0iuris),即‘意義,它不僅存在于制定法中,而且也存在于生活事實之中,法律理解意味著在‘意義中產(chǎn)生對應,意味著事物的本質(Natur0der0Sache)。”〔40〕依據(jù)這一論述,人工智能法研究中的事物本質并非一個個涉人工智能案件的事實,而是隱藏在案件事實下的一般規(guī)律,是蘊含在生活實然中的必然。

        對于事物本質的理解決定著人類把握客觀事物的程度。葉竹盛通過援引富勒的程序主義法治觀,提出人工智能蠶食著上述法治理想存在的兩個基本前提。其一,為了實現(xiàn)人有能力理解法律這一前提,克服法律的不確定性一直被視為是當代法學最重要的任務,智能社會對此能起到何種作用尚待觀察。其二,對于人們有能力理解事實這一前提,“智能時代的人們將在事實問題上面臨愈加嚴重的認知難題”。認知事實的困難本身及其所導致的認知自主權的喪失,最終將導致法律自主實現(xiàn)困難。〔57〕不能聚焦事物本質的認知,不僅造成了人工智能法本身研究在理念、規(guī)則上的偏差,也導致了學者對于人工智能法研究的誤解。而在現(xiàn)有條件下推進對于人工智能事物本質的理解,唯有深入實踐且有效利用吸收其他學科的觀察成果分析實踐方有可能。

        認識事物本質不僅決定著法律規(guī)則產(chǎn)生(立法)與個案裁判(司法),也影響著立法理念的產(chǎn)生(法理)。沒有對事物本質的了解,法律理念是無本之木,法律規(guī)則是無源之水,個案裁判也將永失正義之基。既有研究在人工智能法調整對象、屬性、權益關系乃至法律責任分析上的錯誤,多是因對于事物本質認知錯誤所致。對于作為人工智能核心要素數(shù)據(jù)的認知,集中展現(xiàn)了事物本質認知的障礙。數(shù)據(jù)安全法第3條第1款將數(shù)據(jù)界定為以電子或其他方式對信息的記錄。由此,從內(nèi)容與形式區(qū)分的角度界定數(shù)據(jù)成為通說,然而我們討論的數(shù)據(jù)僅指電子形式的數(shù)據(jù),此點可以與歐盟數(shù)據(jù)治理法(Data0Governance0Act)相印證?!?7〕數(shù)據(jù)以“電子形式”存在導致了其獨特的權益內(nèi)容及變動規(guī)律,學理上嘗試引入電子的、非競爭的、可復制的、“不斷產(chǎn)生的”等詞匯描述這一規(guī)律的法律內(nèi)涵;在政策上探索依據(jù)數(shù)據(jù)資源、數(shù)據(jù)資產(chǎn)、數(shù)據(jù)產(chǎn)品與數(shù)據(jù)資本等數(shù)據(jù)生命周期的形態(tài)變化配置主體間的權益?!?7〕這些努力雖為法學研究揭示利益變化與權益配置規(guī)律提供了幫助,但仍未刺破數(shù)據(jù)的事物本質。那么,究竟什么是隱藏在數(shù)據(jù)電子形式背后的事物本質呢? 無疑,數(shù)據(jù)是電子形式的,是在特定系統(tǒng)中記錄并流通的,數(shù)據(jù)的處理(含流通)過程意味著“計算”,計算意味著計算資源的投入并依賴于數(shù)據(jù)的融合。因此可以被計算構成數(shù)據(jù)的本質屬性。正因為可計算屬性而非電子形式?jīng)Q定了當事人之間權利義務關系的法律內(nèi)涵,也恰是可計算性而非生命周期劃分決定了其合約設計與登記制度的規(guī)則設置。然而,作為數(shù)據(jù)本質特征的可計算性仍然停留在數(shù)據(jù)科學研究中,亟待法學研究者深入挖掘。

        可計算性的既有研究可分為三個層次:數(shù)據(jù)客體的可計算性、數(shù)據(jù)產(chǎn)品的可計算性以及作為個人信息判斷標準的算法識別性。作為數(shù)據(jù)科學基本原則的可計算性有廣狹兩義。廣義的可計算性是伴隨著數(shù)據(jù)科學生命周期,從原始數(shù)據(jù)的收集和清理到模型的建立和評估,每一步都依賴于計算;狹義的可計算性則是指算法或模型構建的計算可行性?!?"〕在數(shù)據(jù)科學界定之上,管理學者試圖將可計算性用于描述數(shù)據(jù)產(chǎn)品的特性。在這一層次中,可計算性意指一個數(shù)據(jù)產(chǎn)品被購買方用于清洗、重構、與其他數(shù)據(jù)融合并最終產(chǎn)生新的分析的可能性。如數(shù)據(jù)的維度、顆粒度、觀測量等,指標越多,可計算性越強,價值越高?!?"〕目前尚未看到法學學者對于可計算性的觀察。彭誠信在論述個人信息本質特征時提出“算法識別性”觀點。這一觀點認為,數(shù)字社會中的個人信息不僅要滿足“可識別”的要求,還應圍繞算法技術加以限定,即通過算法識別出的個人信息,才是典型的個人信息權客體。據(jù)此,個人信息應同時滿足識別性和算法性特征,即算法識別性才是個人信息的本質特征?!?0"〕我們姑且將這一特性作為可計算性的第三個層次。

        法教義學在自我中心主義、危機、刺激及令人不安的開放以及日益鞏固的封閉組成的循環(huán)中發(fā)展。〔11'〕面對智能社會的治理需求,積極加入事物本質的討論中,以釋(教)義為體,以社科為用,〔12'〕應該成為人工智能法學研究的明智態(tài)度。人工智能法研究中事物本質雖然所指廣泛,但其基本內(nèi)涵是主體數(shù)字化、數(shù)據(jù)財產(chǎn)化、財產(chǎn)債權化、權利社會化,以及責任客觀化。而這一切又均發(fā)生于技術(體系)所造成的不平等與隨之而來的信任關系重塑。不平等及其結構化構成了一切對于人工智能法事物本質討論的起點。不平等因人工智能技術形成,技術的研發(fā)與應用形成新的生產(chǎn)力、重塑既有生產(chǎn)關系,客觀上也導致了私法關系因利益內(nèi)容的外部性與公共性呈現(xiàn)出社會化趨勢,服務提供者與用戶關系的失衡,中央與地方權力及其運行的變化。這就是人工智能法公私融合的核心內(nèi)容。不平等及其結構化在身份、地域之外,疊加了技術因素,發(fā)生了新的交叉與分層,迫使法律人在萊斯格“架構理論”外,探求新型權利的綜合內(nèi)容與規(guī)制風險等調整路徑的有機融合,這構成了公私融合的主要支撐。因此,正視技術不平等及其結構化,探尋人工智能法理論框架及其規(guī)則發(fā)現(xiàn),公私融合既是討論起點、核心支撐,也是建設歸宿,這超越了公法私法化和私法公法化的討論,顯示出更為恒久的理論魅力。

        二、風險作為法律原則的觀察方法

        基本原則構成了法律規(guī)范體系的基石,尤其是對于人工智能法這樣尚處于演化過程中的法律部門。基本原則作為規(guī)范的類型之一,其發(fā)現(xiàn)本身應在法律理念的指導下完成,在尚無人工智能國家立法的情況下,對于人工智能法的基本原則與應然理念的討論不能分開。因此,及早地發(fā)現(xiàn)其基本原則不僅有利于正確法律理念的產(chǎn)生,也有利于避免立法不能適應科技快速迭代從而影響個案正義。在人工智能地方立法探索中,不乏對產(chǎn)業(yè)發(fā)展原則的規(guī)定,〔13'〕不過這些原則的指導對象是產(chǎn)業(yè)發(fā)展而非人的人工智能研發(fā)與應用行為。受人工智能法被列入國務院立法計劃的影響,〔14'〕學者對于原則的設計方案開始出現(xiàn)。〔15'〕

        人工智能法律規(guī)范范圍的明確有助于對其基本原則的討論。一部法律規(guī)范體系的邊界最終還是由其調整對象決定。因此,發(fā)現(xiàn)界定人工智能法調整對象及其規(guī)范體系的關鍵在于其調整對象的確定———人與人之間因人工智能研發(fā)或應用而產(chǎn)生之事實。 陳亮從界定人工智能之法律內(nèi)涵、規(guī)范本質與立法理念入手,提出以“發(fā)展負責任的人工智能”為其理念追求,同時具備“事前性、系統(tǒng)性和規(guī)制性”特征的數(shù)據(jù)法規(guī)范、網(wǎng)絡法規(guī)范和算法規(guī)制規(guī)范才屬人工智能法律規(guī)范之列?!?6#〕問題在于:第一,沿襲規(guī)范之廣義狹義區(qū)分,新立之規(guī)范與既有規(guī)范的關系應得到平衡,狹義人工智能法規(guī)范設計僅需在既有規(guī)范的空隙中進行,就像并非所有的民法規(guī)范均處于民法典中一樣,也并非一切廣義的人工智能法規(guī)范均須被編纂進形式化的人工智能立法文本中。第二,人工智能規(guī)范設計的重點在于狹義規(guī)則的發(fā)現(xiàn),發(fā)掘人工智能法的公私融合屬性并科學評估其對安全、可信、權利(力)義務設置以及調整方法等的具體影響,才能厘定狹義的人工智能法規(guī)范范圍。

        人工智能法基本原則類型與內(nèi)容是討論的基本內(nèi)容。侯東德明確了人工智能法基本原則的類型:即公平原則,可靠、可控、可信原則,安全和發(fā)展并重原則,合規(guī)性原則等,〔17#〕全面且具有啟發(fā)意義。值得討論的是:第一,立法理念、基本原則與立法目的的關系問題。一般來說,公平、平等、自由是支撐民法的基本價值理念,在這些基本價值的指導下才可能產(chǎn)生法律規(guī)范體系(包括基本原則),而所謂的立法目的是立法者通過立法本身所要實現(xiàn)的短期或近期的目標,比如侯東德所指出的“安全和發(fā)展并重原則”顯屬此列。第二,至于如何看待公平與平等的關系問題。在民法上,公平聚焦于法律行為的內(nèi)容設置,除了特定例外,“自愿即公平”。與此不同,平等主要針對主體地位而言,意即民事主體不得強加意志于他人,但是“有力說”認為民事主體不對他人負有平等對待的義務,所以民法典第4條平等原則的一個基本內(nèi)涵是法律平等保護各種民事主體,除特別法為保護未成年人、老年人等弱者設有特別規(guī)定(民法典第128條)外,國家機關不得在法律保護上實施差別待遇。〔18#〕而侯東德認為人工智能法公平原則的特定內(nèi)涵是地位平等、分配公平、正當?shù)牟顒e對待,〔19#〕這一論述顯然雜糅了公平和平等兩大基本原則的內(nèi)容。那么,到底什么是人工智能法的基本原則,抑或到底什么是討論人工智能法基本原則的方法,遵循前文所指出的考夫曼法律發(fā)現(xiàn)的三階段———法律理念、法律規(guī)范、法律判決,對于人工智能法規(guī)范(基本原則)的討論應該置于法律理念指導之下,而理念的形成取決于對人工智能關系事物本質的理解,如此問題即演變?yōu)槿绾卫斫馊斯ぶ悄芊ǖ氖挛锉举|,目前來看,除了“計算”,這一途徑能且只能是“風險”。

        技術作為人類可以加以利用的資源,創(chuàng)造了我們的經(jīng)濟以及隨之而來的財富和安全?!?0#〕人工智能風險是一種技術風險,“以ChatGPT模型為代表的新一代人工智能仍然易于引發(fā)……人工架空、價值引導數(shù)據(jù)與算法控制等方面的風險”?!?1#〕風險與安全相關,所以安全作為人工智能法基本原則(或價值)并無爭議,安全原則的立法體現(xiàn)在諸如網(wǎng)絡安全法、數(shù)據(jù)安全法等法律規(guī)范中,此處不再贅述。值得注意的是,風險與信任也有莫大關系。物理世界中的信任產(chǎn)生于主體之間生活秩序的連續(xù)性,連續(xù)性本身降低風險產(chǎn)生信任。在前現(xiàn)代社會,連續(xù)性根植于家族、地域等共同體社會關系。然而,建立在時空分離基礎上的現(xiàn)代社會中,人、物、信息的高速流動,社會關系經(jīng)歷了跨時空重構,從而衍生出建立在“脫域”之上的現(xiàn)代信任。“脫域”導致了信息的不完整,打破了傳統(tǒng)社會信任的連續(xù)性,陌生人之間的信任多寄托于對復雜技術系統(tǒng)的信任。這一過程其實也經(jīng)過了功利計算,即信任的產(chǎn)生(及多少)取決于主體對于風險判斷能力(或容忍度)的大小,但這一計算是在前文所提出的結構化不平等體系中完成的。在人工智能時代,“脫域”現(xiàn)象進一步加速,由于缺乏對智能社會交往風險的基本認知,使得數(shù)字信任難以產(chǎn)生。具體來說,在數(shù)字空間中,信息及其象征標志更高速流通,數(shù)據(jù)空間所依賴的復雜智能巨系統(tǒng)遠遠超越專家系統(tǒng),這不僅會導致新型風險的產(chǎn)生,也會加劇人們對交往風險的認知難度。在此意義上,風險不僅影響著信任的產(chǎn)生,也構成數(shù)字信任的基本內(nèi)涵。

        可信原則的基本內(nèi)涵是降低風險,促進交往,實現(xiàn)具體主體之間的具體信任。其規(guī)范重點是,人工智能體及其所處的技術系統(tǒng)的可信。在規(guī)則設計上,一般是賦予系統(tǒng)方以更多的公私法義務,包括安全保護,還包括公法上的評測認證合規(guī)義務。此外,還需要約束前端服務提供者的行為,如有限風險人工智能系統(tǒng)應用者的透明義務,〔22"〕可以說,可信貫穿了人工智能法的全局,在根本上保障了人類對技術的信賴,從而避免了技術與自然、回歸傳統(tǒng)與擁抱智能之間的張力。

        如果從風險的角度觀察既有研究,就安全原則和公平原則的討論主要圍繞特定領域的風險進行展開,這既包括風險義務的分配、風險救濟的責任歸屬,也包括對于風險的治理。關于公平原則的討論主要圍繞反對歧視問題,如在就業(yè)、教育以及超級平臺等具體場景下存在算法歧視、算法剝削等問題?!?3"〕關于安全原則,在具體場景上已有網(wǎng)信安全及信息安全等相應安全治理設計嘗試?!?4"〕這些研究將人工智能法推向中觀甚至微觀的層次。在此基礎上嘗試構建公私法交互的法律體系,兼顧倫理、技術和法律的治理框架。

        可信原則具有融通公私法的規(guī)范內(nèi)涵,與誠實信用原則與信義義務均有關聯(lián)。申言之,可信具有私法上誠實信用原則的基本內(nèi)涵,針對暗黑模式下個體切身利益的保護,在現(xiàn)行法上多通過合同或者權利模式來解決這一問題,但仍需要風險規(guī)制實現(xiàn)對社會公共利益的維護,此時信義義務被適時提出,用來應對結構性不平等背景下主體間風險被大規(guī)模操縱的風險?!?5"〕

        三、主體問題研究脫虛入實

        私法正是自主體制度得以展開,又是以對主體(從終極意義上講以對自然人)的關心和關懷為歸宿。就人工智能法主體制度的基本內(nèi)容來看,雖然也涉及安全與監(jiān)管問題,但究其根本仍然是人與人之間成立的研發(fā)與應用關系。彭誠信用“人可非人—人皆為人—非人可人”來概括私法主體的發(fā)展歷史?!?6"〕鑒于個體與技術(及其利用者)關系所致的結構不平等,人工智能法更應該是閃爍著人文主義光華的“人法”。〔27"〕人工智能意志以及人類對其發(fā)展影響的接受構成了人工智能法主體討論的出發(fā)點也決定了其公私融合的基本面向。

        (一)一般討論

        迄今為止,“人工智能主體否定說”仍是主流學說?!胺穸ㄕf”的典型表述是,法律主體的本質在于自我意識、理性和自由意志,人工智能并不具備獨立自主的意識,無論在公法還是私法上都不可能取得與人平等的主體地位?!?8"〕人工智能不是“人”,也不是“擬制人”,而是人類創(chuàng)作的輔助工具,其執(zhí)行的仍然是人類的意志?!?9"〕這些討論在公私法中都有體現(xiàn)。比如,在刑法上,人工智能體無法產(chǎn)生故意或過失的罪過形態(tài),也不具有刑罰的必要性。在知識產(chǎn)權法上,人工智能生成物歸根到底仍然屬于人類智力勞動成果,人工智能尚不能成為著作權法的主體?!?0#〕“否定說”在域外實踐中頗有支撐?!?1#〕

        “肯定說” 備受詬病, 但其支持者總能從技術不斷迭代及其應用不斷深入的趨勢中找尋正當性?!翱隙ㄕf”的基本理由大致如下:第一,在技術上,人工智能作為獨立智能體的智慧條件已經(jīng)具備;〔32#〕第二,在認知上,人類對智能機器普遍產(chǎn)生了道德情感認知。第三,在解釋路徑上,對立法條文作目的論擴張可對人工智能進行法律授權?!?3#〕毋庸置疑,即便在生成式人工智能掀起發(fā)展狂潮的當下,“肯定說”也未取得優(yōu)勢地位。而且“肯定說”也需要回應人工智能仍然能力較弱不能成為社會主體的基本現(xiàn)實,為人工智能設置監(jiān)管人,從而解決人工智能侵權責任承擔的現(xiàn)實問題?!?4#〕

        組織體法律人格研究構成了法律主體最活躍的部分。在人工智能法主體制度的既有研究中,區(qū)塊鏈去中心化自治組織(DAO)法律性質問題已被提出,域外已有立法實踐,〔35#〕但2023年度少有論文出現(xiàn)?!?6#〕鑒于針對事物本質的紛爭短期內(nèi)難以取得一致,主體問題的討論可能要持續(xù)到實定法作出規(guī)定才能告一段落。在最終意義上,人工智能主體問題取決于人類對于技術發(fā)展水平及其對于社會經(jīng)濟影響深度和廣度的認知與接受程度。

        (二)AI#agent問題被提出

        AI#agent并未引起理論研究上的重視。早在2018年,人工智能譯叢“獨角獸·人工智能”系列叢書開始編譯時主編彭誠信即十分重視AI#agent的翻譯,最后譯者放棄了代理和主體等譯法,選擇了“智能體”這一定譯。〔37#〕但此后,AI#agent未獲得立法和理論研究的重視。究其原因,既有人工智能技術發(fā)展路線的影響,也有研究者認識的問題。

        在技術上,AI#agent并非一個新概念,其隨著人工智能而誕生,尚無統(tǒng)一界定?!?8#〕通常來說,AI#agent指的是一種具備自主決策能力、可以代表用戶執(zhí)行任務、與環(huán)境交互的智能實體或虛擬智能體。它可以基于規(guī)則、知識或學習獨立地感知和理解環(huán)境,并采取適當行動以實現(xiàn)用戶目標。在不同人工智能領域,AI#agent既可能指代某個虛擬系統(tǒng)軟件,也可指代一輛智能網(wǎng)聯(lián)汽車。AI#agent應用場景廣泛,比如,AI#agent可以根據(jù)既往的旅行數(shù)據(jù)(旅行的時間、方式等)、旅行取向(喜歡重游故地抑或另覓新奇)為人類作出旅行安排?!?9#〕

        AI#agent與人工智能系統(tǒng)、數(shù)字人、程序軟件不同。人工智能系統(tǒng)(AI#system)指涉利用計算機科學和人工智能技術構建的系統(tǒng),使其能夠模擬人類智能或執(zhí)行智能任務。人工智能系統(tǒng)可能由單個或多個agent構成。數(shù)字人(digital

        壽步由agent譯法入手進行了法學討論。他認為將AI

        四、法律行為研究進展不大

        如果對于數(shù)字空間及其交往客觀規(guī)律稍加注意, 即會發(fā)現(xiàn)法律行為的研究仍未達到理想的程度。既有的研究中仍然聚焦在智能合約,對于共識、加密、簽名等人機交互背景下的自然意思表示的電子化及其解釋路徑問題挖掘不足,遑論對于技術設施與架構之于主體意思表示影響根本規(guī)律的研究。因此,理論研究相對于可見的數(shù)字交往前景存在不足。

        (一)智能合約法律構造與應用場景

        當前,我國數(shù)據(jù)交易進入快速發(fā)展時期,理想狀態(tài)下鏈上數(shù)字資產(chǎn)交易需要智能合約這一執(zhí)行機制。在智能合約應用場景的研究上,賽錚指出保險智能合約與傳統(tǒng)保險合同的區(qū)別:即“保險智能合約是由代碼編寫而成的合同,其‘成立—有效—執(zhí)行的過程全部由代碼在區(qū)塊鏈中加以實現(xiàn)”。具體來說,“(1)合約成立,即參與締約的雙方或多方當事人商定后將共同合意編寫成一份代碼表示的智能合約;(2)合約有效,即將智能合約內(nèi)容發(fā)布至區(qū)塊鏈,驗證節(jié)點通過后產(chǎn)生新塊,并存儲于區(qū)塊鏈各節(jié)點中;(3)合約執(zhí)行,即存儲于區(qū)塊鏈中的智能合約一旦觸發(fā)執(zhí)行條件,經(jīng)過各節(jié)點驗證通過后便不可逆地自動執(zhí)行合同內(nèi)容”?!?3+〕該文對于智能合約合同屬性的判斷,仍處于既有研究的框架下,但關于合約締約履行過程的分析進一步細化。不過,對于智能合約意思表示的分析必然隨著實踐尤其是技術的變化而變化。因此,區(qū)分智能合約的應用場景變得重要。意思表示的根本問題是自然語言代碼化帶來的解釋規(guī)則變化。隨著技術的發(fā)展,智能合約場景會逐步增多且會引發(fā)組織管理與民事權益等公私法研究落地。不過,其中尤其重要的是,隨著意思表示的電子化,對其主觀構成的分析將成為難題,尤其是在生成式人工智能應用日益深入的背景下。鑒于我國對通證經(jīng)濟的謹慎態(tài)度,〔44+〕現(xiàn)階段更有實際意義的是對數(shù)據(jù)價值利用中的意思表示研究。

        (二)同意授權的公私法內(nèi)涵

        數(shù)據(jù)作為人工智能發(fā)展的基質,構成了人工智能法的核心內(nèi)容?,F(xiàn)階段源于個人信息收集的數(shù)據(jù)生產(chǎn)流通不能擺脫個人信息的二元基因的束縛。數(shù)據(jù)與個人信息的區(qū)分系于“匿名化”(個人信息保護法第4條第1款),但由于實踐中處理者多不能做到嚴格意義上的匿名化,〔45+〕同意規(guī)則仍然發(fā)揮著為個人數(shù)據(jù)處理提供正當性的作用。雖然同意具有公法的屬性,但數(shù)據(jù)流通交易終是在兩方私法主體之間進行,是否以及在多大程度上可以使用民法原則來解釋數(shù)據(jù)保護法中的同意引發(fā)了世界范圍內(nèi)的討論。〔46+〕中共中央、國務院《關于構建數(shù)據(jù)基礎制度更好發(fā)揮數(shù)據(jù)要素作用的意見》(以下簡稱《數(shù)據(jù)二十條》),把這一問題凝練為個人信息數(shù)據(jù)的“確權授權”問題,“授權”是什么? 如何處理同意與授權關系等問題應受到學者重視。

        個人信息處理“知情同意規(guī)則”在程序上保障了信息主體的自決。這種自決當然有其公法意涵,單就民法而言,同意最基本的含義是其代表了信息主體在“知情”情況下對于信息處理行為的“許可”。如果引入“授權”的討論,如何區(qū)分同意和授權的關系,〔47#〕尤其是這種區(qū)分在數(shù)據(jù)價值利用的實踐背景下是否具有正當性與可行性,成為不可回避的問題。

        程嘯區(qū)分了授權與同意的不同規(guī)范內(nèi)涵與效果。他認為,基于個人同意而實施的個人信息處理活動非但可以無條件撤回,而且受到目的、方式和范圍的限制,不可能包含對個人信息后續(xù)全部商業(yè)化利用, 因此要真正實現(xiàn)對個人數(shù)據(jù)的商業(yè)化利用尤其是取得個人數(shù)據(jù)上的穩(wěn)定的財產(chǎn)權,就必須經(jīng)由授權而獲得(達成合意)。而且,同意僅“具有排除處理行為非法性的法律效果,惟有個人授權方可能產(chǎn)生個人數(shù)據(jù)許可使用的權利義務關系的效果”。進一步說,授權屬于民法上的授權,授權的客體是個人數(shù)據(jù)上的財產(chǎn)性權利,被授權人是數(shù)據(jù)處理者,授權的實現(xiàn)路徑是許可數(shù)據(jù)處理者對個人數(shù)據(jù)進行處理。因此,授權的落實需要個人與個人數(shù)據(jù)處理者之間成立個人數(shù)據(jù)許可使用合同。〔48#〕

        不過,在多數(shù)情況下同意的內(nèi)容本身包含對于個人數(shù)據(jù)財產(chǎn)價值進行處理的同意,則在該處理范圍內(nèi)的處理目的與內(nèi)容已經(jīng)為同意所決定,且程嘯所說的個人數(shù)據(jù)的后續(xù)商業(yè)利益利用也仍需同意而非授權所能單獨完成。在此意義上,授權可以構成同意的結果,所謂的“授權”等于且依賴于同意許可,許可依賴協(xié)議,數(shù)據(jù)許可合同產(chǎn)生許可效力?!?9#〕可能更為可取的是,重視同意的權利基礎與法律意涵的公私交融。具體來說,同意處理最為基本的權利基礎建基于公法,信息主體授權本身很難具有獨立性,且作為企業(yè)數(shù)據(jù)權益來源正當性基礎的也非信息主體的授權,因為處理者的財產(chǎn)權益并非信息主體授予,而是后續(xù)其自身生產(chǎn)行為所得。換句話說,其財產(chǎn)權益并非傳來的,而是自身原始形成的。這也是人工智能法公私融合屬性的典型體現(xiàn)。

        彭誠信曾指出,在處理者處理階段,個人信息上仍負載著人格利益,因此處理者仍負擔著多重的義務,這決定了后續(xù)司法介入同意討論的限度及其如何處理兩者關系的難度??傊?,同意規(guī)則及對于該規(guī)則的反思,在本質上是數(shù)據(jù)價值利用正當性與效率的平衡問題。規(guī)則設計要考慮如下兩個現(xiàn)實問題:首先,作為同意效果的授權,即便有其獨立意義,也僅限于匿名之前;其次,在同意機制尚且面臨實施困難的背景下,授權規(guī)則如何適用,拷問著我們的平衡能力。

        五、權利研究的進展與不足

        新興權利構成人工智能法研究的核心內(nèi)容。按照經(jīng)典表述,“利益的正當性評價結果即正當利益,在法律上具體表征為權利,從而溝通利益、正義與權利三者的關系”。〔50#〕法律主體維系其智能社會公私交往產(chǎn)生了新的欲求形態(tài), 新欲求的實現(xiàn)構成了兼及公私面向且處于法律可予評價的利益狀態(tài),利益經(jīng)過正當性評價即構成了法律上的正當權益。這一研究公私法均有涉及,聚焦在數(shù)字人權、數(shù)據(jù)權利的討論,也有少量研究發(fā)現(xiàn)了加密權等值得關注的問題。〔51#〕

        (一)數(shù)字人權與人的尊嚴

        對于數(shù)字人權的研究在推動與反思之間曲折前進。數(shù)字人權是否構成第四代人權以及數(shù)字人權的證成,目前學界仍未達成共識,相關討論仍在積極進行。以張文顯、馬長山為代表的學者旗幟鮮明地提出“無數(shù)字,不人權”的命題,進而提出“數(shù)字公民”的身份確認以及相關權利保障,旨在消解數(shù)字公民的機制性游離,維護數(shù)字社會的公平正義?!?2#〕就規(guī)范基礎而言,一般認為,數(shù)字人權是一種憲法基本權利?!?3#〕究其原因,數(shù)字人權具有防御權、客觀價值秩序以及“結構耦合”等功能,且對“人權條款”與“人格尊嚴”的詮釋進一步展示了憲法是容納數(shù)字人權的主要載體?!?4#〕桂曉偉從數(shù)字人權的人性基礎和法律淵源兩個方面,論證了“數(shù)字人權”之人權屬性,進而對數(shù)字人權的內(nèi)容進行構建,提出數(shù)字人權由“網(wǎng)絡接入權”和“數(shù)據(jù)自主權”兩項衍生人權及其相關特定權利組成,并以防御、尊重、保護和促進機制維系個人、網(wǎng)絡企業(yè)和國家三元結構的良性運作。〔55#〕宋保振關注在數(shù)字鴻溝和數(shù)字紅利差異逐漸拉大的背景下催生出的“數(shù)字弱勢群體”之公平權保障?!?6#〕

        另有反對者提出,“數(shù)字人權”非但不構成“第四代人權”,甚至不宜作為人權的下位概念,因為從社會系統(tǒng)論來看,“數(shù)字”與“人權”的耦合關系是兩者互為環(huán)境、相互激擾,無法融合為整體的“數(shù)字人權”,并且數(shù)字科技與人權倫理具有不可通約性,因此,無需單獨制定“數(shù)字人權”的人權領域法。〔57#〕

        從權利理論上說,數(shù)字人權可能更應該思考的問題是哪些才是人工智能帶來的損害,權利源于人類不正義的經(jīng)驗(不義)?!?8#〕這方面,公私法均有初步成果。人的尊嚴構成了法律的最高價值,智能社會對人的尊嚴至少產(chǎn)生了如下兩個層面的沖擊:〔59#〕第一,智能社會導致人與權利的關系發(fā)生重大變化。在智能社會權利喪失了保障人之根本利益的能力,權利作為個人內(nèi)在價值的正當性基礎,可能被智能科技“架空”。第二,智能社會導致人的尊嚴與法治嚴重脫鉤。智能科技可能使人陷入自主性危機,阻礙了個人成為法律上期許的自由意志主體。這意味著,即使是僅存的尚處于個人支配之下的權利,也可能因不斷強大的智能科技而無法有效實踐———人的行為和后果之間的聯(lián)系被割裂了,個人難以實現(xiàn)自主的塑造,這就是智能社會中人所面臨的自主性危機?!?0+〕葛江虬同樣基于人的尊嚴之考量,對元宇宙框架下數(shù)字空間的人格要素保護的財產(chǎn)法、主體法路徑給予否定性評價,認為這些路徑忽略了侵害人格的本質是侵害人的尊嚴這一事實?!?1#〕

        (二)數(shù)據(jù)產(chǎn)權討論尚未刺破事物本質

        《數(shù)據(jù)二十條》提出了“數(shù)據(jù)資源持有權、數(shù)據(jù)加工使用權、數(shù)據(jù)產(chǎn)品經(jīng)營權等分置的產(chǎn)權運行機制”,引發(fā)了法學者尤其是民法學者介入數(shù)據(jù)權利討論的熱潮。無論對數(shù)據(jù)權益配置提出什么理論方案,都應回答如下幾個問題:即在什么客體上,確認哪些主體的什么權利,通過何種途徑確保權益的變更流通。

        數(shù)據(jù)產(chǎn)權的“三權分置”實質上就是對于企業(yè)數(shù)據(jù)財產(chǎn)權權利內(nèi)容的描述或形象化呈現(xiàn)?!?2#〕權利主體是企業(yè)或者數(shù)據(jù)勞動者,權利客體是數(shù)據(jù)財產(chǎn),其范圍包括原始數(shù)據(jù)、數(shù)據(jù)資源和數(shù)據(jù)產(chǎn)品?!?3#〕數(shù)據(jù)財產(chǎn)權是一種私權、財產(chǎn)權、絕對權,是直接支配和排他的權利?!?4#〕細化排他性的觀點認為,應在數(shù)據(jù)分級分類的基礎上構建起完全支配絕對排他、完全支配無排他性、有限支配有限排他的分級分類確權規(guī)則。〔65#〕然而,既有研究對數(shù)據(jù)財產(chǎn)權的權利內(nèi)容觀點不一:有的認為應包括持有、利用、收益和處分四大權能;〔66"〕有的認為內(nèi)容可分為訪問權、復制權、使用權和處分權;〔67"〕還有的認為,可分為持有控制數(shù)據(jù)、處理利用數(shù)據(jù)、獲取數(shù)據(jù)收益、處分數(shù)據(jù),〔68"〕遭受侵害或者妨礙時的停止侵害、排除妨礙和消除危險請求權?!?9"〕

        數(shù)據(jù)賦權的權利束進路得到了沿襲,〔70"〕這類觀點多依據(jù)霍菲爾德權利分析理論(權利束),區(qū)分數(shù)據(jù)生產(chǎn)、數(shù)據(jù)處理和數(shù)據(jù)治理等行為,在提供者、采集者、存儲者和信息的加工者、分配者、使用者等不同主體之間進行精準確權?!?1"〕如此以數(shù)據(jù)資源持有權、數(shù)據(jù)加工使用權和數(shù)據(jù)產(chǎn)品經(jīng)營權的動態(tài)賦權形式,建立數(shù)據(jù)主體享有的數(shù)據(jù)控制權、數(shù)據(jù)處理權、數(shù)據(jù)處分權和數(shù)據(jù)收益權的權利體系。〔72"〕熊丙萬“財產(chǎn)權標準化”理論可謂是權利束理論的升級,根據(jù)數(shù)據(jù)財產(chǎn)權利人與不同社會交往對象之間的社會關系熟悉度,分別構建相應標準化程度的數(shù)據(jù)財產(chǎn)權樣態(tài)?!?3"〕

        數(shù)據(jù)持有及其保護被認為是解決目前數(shù)據(jù)確權難題的前提問題?!?4"〕在此認識下,數(shù)據(jù)持有是一種事實控制?!?5"〕數(shù)據(jù)持有權則是數(shù)據(jù)產(chǎn)品化過程中不斷動態(tài)發(fā)展的權利。在要素化階段配置分享而非分置的產(chǎn)權,而在數(shù)據(jù)產(chǎn)品化階段配置可分置的穩(wěn)定的持有權?!?6"〕整體上,數(shù)據(jù)持有權可以通過用戶協(xié)議、反壟斷法等獲得保護?!?7"〕

        國家知識產(chǎn)權局開展數(shù)據(jù)知識產(chǎn)權工作地方試點以來,〔78"〕數(shù)據(jù)知識產(chǎn)權的學術討論增多,構成了數(shù)據(jù)賦權的另外一種路線。支持“數(shù)據(jù)知識產(chǎn)權”的學者大多認同“數(shù)據(jù)產(chǎn)權是一種新型財產(chǎn)權”的觀點,并將其客體限縮于滿足一定條件的商業(yè)數(shù)據(jù)集合?!?9"〕知識產(chǎn)權論者多肯認商業(yè)數(shù)據(jù)作為公共物品且具有非競爭性和非損耗性,論證商業(yè)數(shù)據(jù)集的創(chuàng)新性多從主體投入智力勞動、且數(shù)據(jù)集合結構方式具有一定的獨創(chuàng)性單方展開,也有直接將數(shù)據(jù)認定為新型知識產(chǎn)權客體的主張,后者在客體范圍上較前者更廣。

        數(shù)據(jù)知識產(chǎn)權僅具有“有限排他性”且具有權利分置的制度構成。這就決定了其賦權形式可采取“控制—共享”“保護—限制”的二元權利主體構造:賦權之一是數(shù)據(jù)制作者權(有限排他效力的財產(chǎn)權),包括消極權能(禁止權)與積極權能(控制權、開發(fā)權、利用權);賦權之二是數(shù)據(jù)使用者權,即用戶及其他同業(yè)經(jīng)營者的訪問權和攜帶權?!?0"〕有學者進一步論述了數(shù)據(jù)專有權可以按照商標法的實施模式進行規(guī)范構造,權利的取得可以采取注冊取得模式?!?1"〕數(shù)據(jù)知識產(chǎn)權反對者眾多。民法學者認為,數(shù)據(jù)權益與知識產(chǎn)權在權益結構、期限限制、保護理念、權利客體要件存在諸多不同?!?2"〕知識產(chǎn)權學者則認為,現(xiàn)有知識產(chǎn)權制度以及合同、侵權等規(guī)則已經(jīng)為商業(yè)數(shù)據(jù)提供充分保護,無需在立法上賦予新的數(shù)據(jù)權利?!?3#〕

        需要指出,賦權被認為是數(shù)據(jù)流通交易的基礎制度,前述理論探討為國家層面的數(shù)據(jù)立法提供了正反兩方面的理論參考。不過,數(shù)據(jù)賦權并非天然具有正當性。由于(電子)數(shù)據(jù)在系統(tǒng)中記錄,在互聯(lián)網(wǎng)技術架構之上建立的鏈、網(wǎng)、云、端體系內(nèi)實現(xiàn)流通,這決定數(shù)據(jù)的計算無處不在無時不有,在形態(tài)、價值等不斷流變的過程中形成不同主體之間的權利義務關系。因此,《數(shù)據(jù)二十條》中的賦權方案本身并非權利分置的方案,因此所謂的數(shù)據(jù)三權分置本身僅是政策表達并無規(guī)范意義。更為重要的是,對于數(shù)據(jù)排他性的討論以及登記制度設計仍然應采取開放態(tài)度。此外,賦權研究不應忽視資源分配的基本現(xiàn)實(誰掌握著數(shù)據(jù))及其規(guī)律(依靠什么控制數(shù)據(jù)),忽視這一前提,賦權制度的設計可能是不正義的。一個有意思的觀察是,在Web3.0時代,區(qū)塊鏈技術構筑的分布式網(wǎng)絡推動了內(nèi)容價值向個人分配(確權)的進程,但是,“生成式人工智能將會成為Web3.0時代的網(wǎng)絡集權工具”,散落在用戶手中的數(shù)據(jù)資源可能會再次聚集?!?4+〕

        六、生成式人工智能激發(fā)法律責任討論的客觀化趨向

        人工智能研發(fā)、生產(chǎn)與應用風險實現(xiàn)即會產(chǎn)生致害責任承擔問題,“人工智能致害誰擔責”成為經(jīng)典設問與普遍關切。在法律責任的理論研究中,應用主體的義務判斷、致害歸責原則乃至賠償范圍是討論的重點。

        在人工智能致害歸責原則的選擇上,嚴格責任成為趨勢。郭少飛認為,人工智能承擔侵權責任時,一般不論其主觀過錯,該責任應當是一種客觀責任、嚴格責任?!?5#〕袁曾則基于“結構化分析致?lián)p時的狀態(tài)與原因”提出四種不同情況下的歸責原則?!?6#〕

        隨著《生成式人工智能服務管理暫行辦法》的發(fā)布,如何判斷服務提供者的責任成為學者研究的焦點問題。徐偉提出認定生成式人工智能服務提供者過錯的兩個維度:一是對侵權內(nèi)容的“生成”存在過錯;二是對侵權內(nèi)容的“移除”存在過錯。生成維度的過錯判斷取決于服務提供者注意義務的高低。至于生成式人工智能服務提供者是否適用民法典第1195條等條款中規(guī)定的通知移除規(guī)則? 在事實層面, 事后生成式人工智能服務提供者能否以合理的成本和較高的準確度移除某些內(nèi)容應被考慮,法律上不宜對其課以不得再次生成相關內(nèi)容的義務,但這并不意味著服務提供者不負有任何義務。鑒于民法典第1195條對網(wǎng)絡服務提供者提出的是采取“必要措施”的要求,生成式人工智能服務提供者也可能負有對涉嫌侵權的內(nèi)容采取顯著標識等方式來“提醒”用戶等義務。〔87+〕這一解釋方法是否可行仍有待技術、商業(yè)和制度的檢驗。無論是從侵權過錯認定的一般原理,還是從保護受害人權益,抑或從我國將通知移除規(guī)則一體適用于各種網(wǎng)絡服務提供者類型的傳統(tǒng)來看,對生成式人工智能服務提供者課以避免侵權內(nèi)容再次生成的義務似乎仍在制度設計選擇之列。

        隨著生成式大模型研發(fā)與應用的推進, 垂類模型的研發(fā)也進入熱潮,AI+for+Law的理念與實踐獲得了關注,在AI#for#Science之外,讓人看到智能巨變的深度與廣度。積極推動人工智能安全、監(jiān)管的國際合作要求更要交叉的研究,以及對于基本實踐進行融合技術的底層實證分析。更為重要的是,對基礎模型研發(fā)與應用的偏見、數(shù)據(jù)的歸屬以及風險監(jiān)管權力現(xiàn)實需求可能催生人工智能國家主權觀念。

        七、以風險為基礎的人工智能治理

        人工智能治理與安全保護構成了人工智能法的公法面向。伴隨人工智能立法被納入國務院立法議程,國家層面的人工智能立法采用促進法還是治理法,治理法以何種邏輯展開,成為亟待解決的問題。在這樣的背景下,治理入法提上議程,討論開始增多。

        在治理路徑上,總體上包容審慎仍是主流態(tài)度。鈄曉東提出“回應型治理”,從輸入端、運算端、存儲端、輸出端以風險管控、算法透明原則、多層次的數(shù)據(jù)管理保障機制以及技術、標準與法律三元架構的生成內(nèi)容治理機制為應對手段?!?8"〕避免過度依賴傳統(tǒng)以政府為中心的規(guī)制方式,而采取“有效市場”與“有為政府”協(xié)同發(fā)力、過程合規(guī)激勵和結果威懾效應齊彰,深度融合法律邏輯、技術邏輯與產(chǎn)業(yè)邏輯的雙重法律規(guī)制理路。同時還需從風險化解和權益保障入手進行責任松綁和規(guī)制補強,引入安全港規(guī)則及發(fā)展保障基金制度?!?9"〕也有學者提出通過監(jiān)管沙盒實現(xiàn)敏捷型風險治理?!?0%〕安全港制度與沙盒監(jiān)管具有積極意義,但目前沙盒入法的實踐較為分散,且需完善進入沙盒的條件、途徑與出沙盒后的制度設計。此外,在智能社會的秩序來源上,上述觀點均承認在法律之外技術(標準)作用的發(fā)揮。正是由于技術秩序供給作用提升,被規(guī)制者本身承擔著規(guī)制義務,合規(guī)即構成了人工智能法的內(nèi)容,在根本上,這是由法律3.0的基本理念決定的。

        在治理思路上,筆者提出基于風險進行治理的思路。以風險為基礎的人工智能治理將人工智能系統(tǒng)研發(fā)與應用風險的認知作為起點,風險治理與民事責任的溝通作為邏輯終點,如此構建以風險為基礎的人工智能法律治理體系。〔91%〕商建剛提出,應當先構建風險治理的元規(guī)則,即率先提出其中最基本、最具全局影響的規(guī)則為核心,保持多元利益動態(tài)平衡:從協(xié)同共治、提升透明度、保障數(shù)據(jù)質量、倫理先行四個角度進行元規(guī)則構建?!?2+〕以風險為基礎的治理還需要解決如下幾個問題,即人工智能風險到底屬于什么風險,分級治理是理據(jù)為何,落實風險治理的體制機制如何設計,如何處理人工智能風險治理與既有法律規(guī)范如產(chǎn)品質量法的關系等。也有學者反對以風險為基礎的治理,趙精武指出“新興風險治理之必要”存在理論不足和邏輯缺陷:這些新風險本質上并沒有徹底改變既有的法律關系,同樣也沒有突破現(xiàn)有法律規(guī)范的調整范圍?!帮L險立法論”是否屬于當下最佳治理方案仍存疑議。更重要的是,人工智能產(chǎn)業(yè)尚處于發(fā)展階段,過早地進行整體性的產(chǎn)業(yè)規(guī)范可能存在“超前規(guī)制”之嫌。〔93%〕不過,目前來看以風險為基礎的治理仍是一條務實而理性的路徑,不僅由歐盟人工智能法所提出,也被我國深圳經(jīng)濟特區(qū)、上海市人工智能產(chǎn)業(yè)發(fā)展條例所采納。重提風險理論,提倡風險的評估,在本質上是有效平衡人工智能發(fā)展與科學監(jiān)管的途徑。唯一的可議論之處在于是采用風險分級方法還是更為動態(tài)的方法。

        結語

        智能社會的事物本質在根本上決定了人工智能法公私交融的屬性,如何認識公私交融的獨特內(nèi)涵在根本上決定著人工智能法的疆域。鑒于智能社會的快速發(fā)展,在知識發(fā)現(xiàn)上,法學將長期與技術、經(jīng)濟、管理等學科混用基本范疇與方法,“大家都來探險、命名和立法,弄得亂七八糟、糾纏不清”,〔94-〕人工智能法學仍將停留在“包羅萬象,無所不涉”的“雜學”階段?!?5-〕不過,從宏觀到中微觀研究的轉變正在發(fā)生。法學的基本價值追求是恒定的,即維護并促進人的行為自由與尊嚴平等。數(shù)字法學如此,人工智能法學也如此。因此,聚焦給定理想、法律及其現(xiàn)實社會后果的可欲性,而不放大何種原則是唯一客觀正確的爭論,〔96-〕在此實用主義態(tài)度基礎上展開對話,才能完成對人工智能法調整對象與方法公私融合屬性的攝受,進而發(fā)現(xiàn)人工智能法之基本法理,厘定其規(guī)范外延,深化其規(guī)范內(nèi)涵。

        本文系2019年度教育部人文社會科學研究青年基金項目“‘習慣入典的理論與實踐研究”(項目批準號:19YJC820003)、2018年上海市浦江學者支持項目“人工智能的民法典應對”(項目批準號:18PJC052)的階段性研究成果。

        国产剧情福利AV一区二区| 一本久久综合亚洲鲁鲁五月天| 日韩放荡少妇无码视频| 最好看2019高清中文字幕视频| 成熟丰满熟妇高潮xxxxx视频| 亚洲av成人无码网天堂| 久久久久人妻精品一区5555| 美女被内射中出在线观看| 精品人妻一区二区三区四区在线| 99精品国产综合久久久久五月天 | 国产激情无码视频在线播放性色| 亚洲色欲色欲www在线播放| 亚洲精品亚洲人成在线播放| 亚洲成在人线天堂网站| 亚洲处破女av日韩精品中出| 人妻少妇精品无码专区动漫| 午夜毛片午夜女人喷潮视频| 中文字幕精品乱码一区| 成人免费av色资源日日| 和黑人邻居中文字幕在线| 亚洲妇女水蜜桃av网网站| 在线毛片一区二区不卡视频| 少妇勾引视频网站在线观看| 看日本全黄色免费a级| 人人爽人人爱| 成在线人视频免费视频| av天堂网手机在线观看| 亚洲国产精品久久电影欧美| 91久久青青草原线免费| 最新国产主播一区二区| 亚洲综合另类小说色区| 日韩毛片免费无码无毒视频观看| 99热精品国产三级在线观看| 熟女不卡精品久久av| 日本人妻免费在线播放| 久久夜色精品国产| 亚洲 暴爽 AV人人爽日日碰 | 国产男女猛烈无遮挡免费视频网址| 黄色潮片三级三级三级免费| 国内最真实的xxxx人伦| 久久aⅴ无码av免费一区|