亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        論人工智能政策與法律協同治理

        2024-10-30 00:00:00張宇帆
        東方法學 2024年5期

        關鍵詞:人工智能 人工智能法 法政策學 協同治理 評價基準 沖突協調

        中圖分類號:DF0 文獻標識碼:A 文章編號:1674-4039-(2024)05-0187-200

        人工智能深刻影響著時代發(fā)展與人類生活。隨著大量人工智能新范式不斷涌入人類生產生活,如何有效地通過政策、法律手段進行治理,成為人工智能治理的研究方向。黨的二十屆三中全會公報指出“完善推動新一代信息技術、人工智能、航空航天、新能源、新材料、高端裝備、生物醫(yī)藥、量子科技等戰(zhàn)略性產業(yè)發(fā)展政策和治理體系,引導新興產業(yè)健康有序發(fā)展”。國務院2017年發(fā)布的《新一代人工智能發(fā)展規(guī)劃》確立了法律法規(guī)、倫理規(guī)范、政策體系共同促進人工智能發(fā)展的戰(zhàn)略目標,人工智能法草案雖未進入全國人大2024年立法工作計劃,但也邁出了重大一步。在實踐中,人工智能的倫理規(guī)范及倫理法律化已有討論。大量促進與規(guī)制人工智能的政策性文件成為人工智能治理的主流。同時,關于人工智能的立法也在按照分散式立法的模式進行。然而,如何有效統籌政策與法律共同發(fā)揮治理作用卻有所缺位。從法律學科來看,一些學者呼吁盡快在人工智能各應用場景開展立法,通過法律對人工智能進行規(guī)制。從公共政策學科來看,學者們認為人工智能發(fā)展受益于政策調控,政策在人工智能治理中發(fā)揮著無可替代的作用。由于法學和公共政策學分屬兩種不同的學科,法學學者和公共政策學者站在自身的學科立場上各執(zhí)一詞,將二者割裂對立?!吨泄仓醒腙P于全面推進依法治國若干重大問題的決定》提出, 要“促進政策與法律互聯互動”,“把行之有效的政策法定化”。政策作為法律的重要淵源,在法律供給不足的條件下發(fā)揮著重要作用。目前,對政策與法律協同促進人工智能治理的研究幾近于無。基于此,本文以法律的視角,檢視政策在人工智能治理中的效用及機理,并設計政策與法律協同治理的立法機制和實施機制,希冀為人工智能治理以及正在進行的人工智能立法添磚加瓦。

        一、人工智能的治理困境

        隨著第四次工業(yè)革命浪潮的涌來, 人工智能技術的發(fā)展深刻地改變了人類的生產和生活方式。人工智能帶來的沖擊法律與社會倫理、侵犯個人隱私等問題均需要制度進行有效的回應。在《新一代人工智能發(fā)展規(guī)劃》中,提出分三步走實現人工智能法律法規(guī)、倫理規(guī)范和政策體系共同治理。近年來,我國依據這一政策規(guī)劃,制定了一系列政策與法律。然而,理論上政策和法律的割裂性與實踐中政策和法律各行其是致使人工智能治理呈現嚴重的政策依賴性、法律無法因應人工智能新場景的迭代、政策與法律不協同等問題。

        (一)人工智能治理呈現出較強的政策依賴性

        我國關于人工智能的公共政策呈現出繁多的樣態(tài)。人工智能治理的發(fā)展在很大程度上依靠政策驅動或控制。一般而言,往往是中央率先出臺統攝性的政策文件,地方政府根據中央的文件,進一步以政策的形式進行執(zhí)行與落實。這一模式自上而下表現出強大的/HvDSlAsq6CclGihLFeu+w==執(zhí)行力。

        一方面,人工智能治理理念主要由政策確立。黨的十九大以來,國家陸續(xù)出臺了“1+N”政策體系,為人工智能發(fā)展提供政策依據和制度保障。其中,“1”是指2017年國務院發(fā)布的《新一代人工智能發(fā)展規(guī)劃》,這是我國在人工智能領域中首個系統部署的文件,也是面向未來打造我國先發(fā)優(yōu)勢的頂層設計文件。這一文件將人工智能正式上升為國家戰(zhàn)略,提出了面向2030年我國新一代人工智能發(fā)展的指導思想、戰(zhàn)略目標、重點任務和保障措施。這份政策性文件確立了我國人工智能分三步走的戰(zhàn)略目標。為之后的人工智能倫理、政策、法律的制定提供了價值基礎。此外,《關于支持建設新一代人工智能示范應用場景的通知》《關于加快場景創(chuàng)新以人工智能高水平應用促進經濟高質量發(fā)展的指導意見》《新型數據中心發(fā)展三年行動計劃(2021—2023年)》等產業(yè)政策也為我國人工智能產業(yè)發(fā)展提供了制度保障。2020年以后,人工智能進入產業(yè)化新時代,在政策上更加聚焦產業(yè)實踐中出現的重大問題,包括重大場景應用、技術標準化、技術倫理等方面,政策制定的價值基準也由引導發(fā)展向加強治理轉變。

        另一方面,相對完善的政策體系已經建立。我國的人工智能治理政策已形成從中央到地方、從部門到產業(yè)的多層級、多領域的政策體系。截至2024年7月1日,中央和地方政府出臺了100余部數字經濟相關政策。人工智能相關政策大致可分為人工智能產業(yè)政策、人工智能治理政策、人工智能促進政策、人工智能創(chuàng)新發(fā)展試驗區(qū)政策、“十四五”規(guī)劃、綜合政策、三年行動計劃、高質量發(fā)展政策、人才政策等11個類型。政策內容范圍廣泛,覆蓋基礎設施、軟件算法、行業(yè)應用等多個領域??梢钥闯觯斯ぶ悄苷咴絹碓阶⒅貙嶓w經濟的全面影響,并從最初的智能制造領域向全社會多個領域進行拓展。地方政府紛紛依據自身優(yōu)勢和特點,出臺與當地經濟社會發(fā)展相融合的規(guī)劃政策,由上至下的多領域、深層次的政策體系逐步建立。

        (二)法律無法因應人工智能新場景的迭代

        通過法律監(jiān)管防范風險是人工智能治理的最終路徑?!吨腥A人民共和國國民經濟和社會發(fā)展第十四個五年規(guī)劃和2035年遠景目標綱要》也指出,“加強重點領域、新興領域、涉外領域的立法”。近些年,伴隨著人工智能新技術的發(fā)展,中共中央、國務院以及國家網信辦等部門也出臺相應的規(guī)制和管理辦法。在國家層面,雖有數據安全法、網絡安全法和個人信息保護法的有關規(guī)定作為基本的制度框架,但作為人工智能領域基本法的“人工智能法”尚在起草之中。目前,對于人工智能的法律治理,主要集中在這兩個面向。一類是地方性法規(guī),一些省市積極應對各式各樣的人工智能新手段,采取立法措施,有效地進行治理。其中以立法形式呈現的僅有《上海市促進人工智能產業(yè)發(fā)展條例》與《深圳經濟特區(qū)人工智能產業(yè)促進條例》。另一類是部門規(guī)章,我國先后頒布了《互聯網信息服務算法推薦管理規(guī)定》《互聯網信息服務深度合成管理規(guī)定》等部門規(guī)章。國家網信辦為應對ChatGPT等生成式人工智能的出現,出臺了《生成式人工智能服務管理暫行辦法》。這一規(guī)章的頒布,標志著我國邁出了加快人工智能立法的重要一步。然而,人工智能領域隨著技術的迭代更新,應用場景也越來越廣闊,變換速率也日益加快。從區(qū)塊鏈、元宇宙、生成式人工智能、通用人工智能,再到如今熱火朝天的人形機器人、人工智能大模型,無不體現著人工智能應用的廣闊空間。

        法律雖然以其“特有的規(guī)范作用和社會作用對社會生活發(fā)生著深刻的影響”,但也不能陷入“法律萬能主義”的誤區(qū),尤其是在人工智能這樣的新領域。在人工智能治理中,法律也存在一定的局限性。首先,法律僅是調整人工智能領域的眾多方式之一。人工智能也有各類產業(yè)政策、技術標準、行業(yè)倫理等調整方式。在各種調整方式中,法律并非成本最低的方式。法律的作用范圍也不是無限的,亦非在所有問題上都適當。其次,法律對于千變萬化的人工智能領域的涵蓋性與適應性難免會存在一定的局限性。“法之對體系起穩(wěn)定作用的連續(xù)性也常常使法落后于社會觀念的變遷。”人工智能技術更新迭代速度極快,立法難以與技術更新速度保持同步,這可能導致法律規(guī)制難以適應新技術的應用和影響。最后,在相關條件不具備的條件下,法律制定也有一定的困難。即使法律被制定出來,也不可能充分發(fā)揮作用。由于人認識到自己的局限性,所以在設計規(guī)則的時候所考慮的都是所謂常人標準,即以具有中等智力和體力水平的正常人作為規(guī)則可行性的判斷標準。而且,為了形成穩(wěn)定的社會秩序,法律往往還會設置比常人標準更低一些的安全線。從這個意義上講,法律是一種保守的社會力量,不能完全滿足人工智能發(fā)展的需求。

        (三)人工智能治理政策與法律不協調

        “法律與政策的協同實施,是指相關法律和政策在體系上互相獨立,在功能上相互補充配合的狀態(tài)?!闭吲c法律不同特點決定了其在治理體系中的定位。政策以其靈活性、針對性、即時性,在提高人工智能發(fā)展效率、指明發(fā)展方向上有著明顯的優(yōu)勢。但其也存在隨意性、無預測性等不足。法律以其穩(wěn)定性、規(guī)范性和權威性為人們提供確定的指引,在人工智能治理中對人權的保障、路徑指引發(fā)揮著重要作用,但其滯后性與僵化性不利于人工智能的長久發(fā)展。因此,法律與政策在人工智能治理中相輔相成、缺一不可。政策與法律協同治理包括政策與法律相互配合和政策的法律化。而在當前的人工智能治理中,政策與法律并未形成協調有效治理的有機體系。

        一方面,人工智能政策與法律配合度還不夠。從法與政策的關系來看,法追隨政策,是政策的表現。其理想狀態(tài)應是法律和政策相輔相成,共同達到治理dV0YCGFO62pfCI3lxivw+MIFTSrUul50sHCcalt4fzg=的目的。然而,在實踐中,作為人工智能領域調控工具的政策和法律配合度還有提升的空間。這主要體現在人工智能政策與法律的價值目標未達成一致。在人工智能立法中,世界各國均以風險作為治理的基礎。在我國,無論是數據安全法等法律,還是《生成式人工智能服務管理暫行辦法》等部門規(guī)章,均以風險要素為基礎,提出分級監(jiān)管制度和安全審查制度。這樣的立法更多地體現了對國家安全、公共利益以及個人信息保護的安全價值。而在人工智能政策體系中,自從2017年國務院印發(fā)《新一代人工智能發(fā)展規(guī)劃》以來,我國在全要素生產率、促進產業(yè)結構轉型升級、加快企業(yè)數字化、智能化轉型和實現高質量就業(yè)等方面相繼實施了一系列促進人工智能發(fā)展和應用的政策及措施。這些政策以其自身的靈活性,在人工智能產業(yè)治理與發(fā)展中發(fā)揮著重要作用。人工智能政策的促進發(fā)展原則與人工智能立法的防范風險原則在某些情況下還沒有形成充分的配合。由于價值目標未達成一致,法律與政策的治理范圍也各有側重。對于人工智能哪些領域應當立法、哪些領域通過政策治理為宜,尚無定論。以通用式人工智能為例,已有黨和國家的政策以及地方出臺政策對通用式人工智能發(fā)展進行治理。法律界也對通用人工智能立法作出了回應。但通用式人工智能政策與法律的討論似兩條平行線。

        另一方面,人工智能政策法律化機制尚未形成?!罢叩姆苫褪怯辛⒎嗟膰覚C關將有些成熟、穩(wěn)定的政策上升為法律的過程,也稱為政策立法?!痹谌嬉婪ㄖ螄漠斚拢粋€政策想要獲得穩(wěn)定、持久的發(fā)展,離不開必要的法治保障??v觀當前人工智能的規(guī)范體系,相當部分是帶有行政計劃性質的政策文件。這些政策作為目標性的計劃,踐行到一定時期即無法發(fā)生效力。而經過實踐行之有效的模式制度,通過立法加以確認的機制并未形成。尤其在我國人工智能政策種類和層級繁多的現狀下,如何積極促進政策法律化,實現政策法律協同治理,擺脫政策的強烈依賴性,成為當務之急。

        總體而言,人工智能治理中政策與法律在理論與實踐上各行其是,沒有發(fā)揮有效的統合作用,造成了一定程度上治理效率的低下與資源浪費。

        二、人工智能政策與法律協同治理的理論證成

        人工智能科技創(chuàng)新與產業(yè)革命不僅在生產生活中運用廣泛,而且技術快速發(fā)展也帶來了社會運行機制、運作方式的深刻變化。雖然法律制度對于人工智能治理有著穩(wěn)定性的作用,但僅僅依靠立法無法完全解決人工智能科技創(chuàng)新問題。為了更有效率地治理,監(jiān)管部門會更多地運用政策進行引導與調節(jié)。雖然法律與政策分屬于兩個不同的學科,但實踐中二者相互滲透、相互交融?!胺蓷l文本身也是以先在的政策研究和決定為前提的,公共政策是現代社會法律的基礎和依據?!痹诮嬋斯ぶ悄苷吲c法律協同治理機制之前,應從法律學科的視角,用法政策學的方法論,厘清人工智能政策在全面依法治國戰(zhàn)略下的運作機理,為人工智能政策這一治理要素提供充分的理論基礎。

        (一)二者的同質性與互補性是協同治理的前提

        政策與法律是人工智能治理的兩種制度安排。人工智能政策與法律協同治理的前提在于,人工智能政策與法律具有一些自身的特性, 使得政策和法律能夠在共同特性的基礎上實現協同的可能性。從性質上看,二者協同治理的可能性來自政策與法律的同質性和互補性。

        在同質性上,政策和法律都是人工智能治理的手段。一方面,法律與政策在治理目標上一致。法律的作業(yè)模式是規(guī)范模式,即在不同主體之間分配與調整權利(力)義務,以達至公平正義。政策的作業(yè)模式是“目的—決策”模式,即決策者想要達成何種目的,實現這一目的要采取什么樣的手段。在價值上,法律側重于規(guī)范的正當性,政策則追求手段的合目的性。盡管二者達至治理目標的方式不同,但治理的終極目標均在于防范風險與促進發(fā)展。對于政策來說,為適應科技發(fā)展,通常以促進發(fā)展為主,兼顧防范風險。例如,《“十四五”智能制造發(fā)展規(guī)劃》《關于積極推進“互聯網+”行動的指導意見》等政策文件均將融合創(chuàng)新、安全有序等價值納入指導原則。對于法律而言,傳統的網絡安全法等的主要目的在于防范風險。但隨著人們對人工智能認知的完善,促進發(fā)展也逐漸融入法律條文。例如,《生成式人工智能服務管理暫行辦法》的立法目的即“促進生成式人工智能健康發(fā)展和規(guī)范應用,維護國家安全和社會公共利益,保護公民、法人和其他組織的合法權益”。雖然有觀點認為,法律的強制性與監(jiān)管部門權力的擴張性會讓規(guī)范實施天然偏向防范風險的立法目的。但其促進技術發(fā)展的促進型立法條款也“釋放出法律的積極功能,具有明顯的導向作用”。因此,二者在治理的目標上均為防范風險與促進發(fā)展。另一方面,人工智能政策在一些場合發(fā)揮著“試行法”的作用。我國人工智能發(fā)展以及制度調整往往以政策先行,一般由中央出臺統攝性的政策引導,立法機關和地方政府進一步以立法和地方政策的形式對中央政策進行執(zhí)行。我國對人工智能治理的整體制度安排,便是由國務院2017年發(fā)布的《新一代人工智能發(fā)展規(guī)劃》所奠定的。此外,一些政策文件明確表示通過政策探索實踐路徑,并形成“可復制可推廣”的經驗。例如,《國家新一代人工智能創(chuàng)新發(fā)展試驗區(qū)建設工作指引》將政策先行作為原則,并在指導思想中指明“打造一批新一代人工智能創(chuàng)新發(fā)展樣板,探索智能社會建設新路徑,形成一批可復制可推廣的經驗,引領帶動全國人工智能健康發(fā)展”。

        在互補性上,法律通過特定的邏輯結構和盡可能詳盡的內容,給人們以特定的指引。但法律因制定過程長、權威性較高、穩(wěn)定性強等特點,使其一旦制定之后,便無法根據人工智能技術的變遷,及時迅速地作出調整。“法律使規(guī)范性期望穩(wěn)定化的功能遠超調解沖突概念所能把握的內涵?!倍覈捳Z體系中的政策,作為黨和國家實現一定政治、經濟目的而制定的行動指導原則與規(guī)則,具有宏觀性、靈活性、針對性等特征,能適應人工智能產業(yè)的變化不斷作出調整,并對未來的產業(yè)發(fā)展提供相關規(guī)范指引。但其靈活性也容易帶來穩(wěn)定性和權威性的不足。正因為二者在特征上的互補性,所以在人工智能治理中,需要二者之間的協調與轉化。政策與法律的同質性與互補性,為人工智能政策法律協同治理提供了前提與可能。

        (二)二者在我國治理體系中的定位是協同治理的基礎

        黨的二十大報告把“國家治理體系和治理能力現代化深入推進”作為未來五年我國發(fā)展的主要目標任務之一。堅持在法治軌道上推進國家治理體系和治理能力現代化,確立了國家治理的基本命題。作為全面依法治國戰(zhàn)略的頂層設計,《中共中央關于全面推進依法治國若干重大問題的決定》對于政策與法律的關系有著深刻的描述,“完善黨委依法決策機制,發(fā)揮政策和法律的各自優(yōu)勢,促進黨的政策和國家法律互聯互動”,“制定文化產業(yè)促進法,把行之有效的文化經濟政策法定化”。通過這些描述,可以概括我國實踐中政策與法律的兩種關系。

        一種是發(fā)揮各自優(yōu)勢,實現互聯互動。在我國,黨的政策和國家政策也是法律制定的指導與先導。因此,應摒棄將政策與法律割裂的思維,充分發(fā)揮政策在調動新興產業(yè)發(fā)展上的靈活性與實效性以及法律在應對風險上的穩(wěn)定性與強制性,實現政策與法律的互聯互動。尤其是在人工智能這種新技術、新業(yè)態(tài)層出不窮的領域中,更應發(fā)揮這兩種治理工具的協同性。

        另一種是積極促進行之有效的政策法律化。從立法政策學的角度看,“對政策的有益經驗和要求進行總結,并以此為基礎將其轉化為法律,是對社會治理工具進行最優(yōu)化選擇的必然結果”。雖然政策能夠靈活應對實踐中發(fā)生的各種情形,并有針對性地提出解決方案,但其穩(wěn)定性不足與權威性欠缺使其只能適用于完成一定階段的任務。積極促進政策的法律化不僅能夠讓行之有效的政策變成穩(wěn)定和權威的制度,而且讓法律更加體現時代的價值。在我國人工智能的治理中,面對陌生的新事物,人們要有一定的認知過程。為了促進技術的發(fā)展與認識新技術的風險,監(jiān)管部門通常秉持包容審慎的態(tài)度,首先運用政策來進行引導與規(guī)制,以便更好地對其觀察。當這些行政手段達成一定治理效果時,推動政策的法律化便成了必要之舉。

        在推進國家治理體系和治理能力現代化的背景下,推動人工智能政策法律化與人工智能政策法律協同治理構成新時代人工智能領域治理的兩個主要實踐面向。

        (三)法政策學方法論是實現二者協同治理的路徑

        人工智能法律與政策協同治理包含人工智能政策向立法轉化以及政策與法律在實踐中互聯互動的實施機制兩個方面。在法律方法研究中,傳統的法釋義學方法論“集中于探討法律行為以及該法律行為如何適用法律之問題”,對于政策因素并未予以考量。因此,應采用以法律現實主義為基礎的法政策學方法論作為人工智能政策與法律協同治理的研究方法。

        在法律與政策關系上, 法實證主義和分析法學認為法律與政策兩個學科有所聯系又相互獨立,法律“不為輸送給他們的政治內容或它們運轉其間的政治環(huán)境所動”。批判法學與法經濟學認為“法律現象是嵌套在政治現象之中的”。然而,這兩種觀點在20世紀政府市場監(jiān)管職能擴張與福利國家的推行中無法得到有效印證。作為法政策學方法論的指導理論,20世紀上半葉在西方法律文化中出現的美國和斯堪的納維亞法律現實主義對法律與政策的關系給出了更為實踐性的答案,其認為法律與政治應遵循一種交叉模型?!胺芍皇遣糠值嘏c政治遭遇,而非完全嵌入政治之中,法律保持了一定程度的分離?!狈墒且环N獨特的規(guī)范性現象,有著自身運轉的空間和規(guī)則。法律不僅僅是落實于紙面上的封閉規(guī)則體系,而是一種經驗現象,由人類的行為和相關的流行觀念共同構成,是“行動中的法”。

        法政策學是制度設計的學問,它“從法的角度對意思決定理論進行重構、并與現行的實定法體系相聯系,設計出法律制度或者規(guī)則”。法政策方法論的研究目的在于促成政策與法律的協同治理。一方面著眼于使政策能夠適法,并積極地轉化為法律。另一方面使法律能夠適應實踐的需求與時代的變化,積極地吸收政策所體現的價值。最終做到從法律的視角看政策,從政策的視角看法律。這一研究方法立足于法律學科,遵循“目的—手段”的邏輯模式,由政策目標、政策工具、規(guī)制模式與評價基準四個支柱性基礎概念組成,積極促進政策與法律的協同治理與立法轉化。作為在風險社會背景下面向實踐與時代的方法論,法政策學方法論與以風險為基礎的人工智能治理不謀而合。運用法政策學方法論,有效促進人工智能政策與法律的互聯互動,并推動人工智能政策的法律化是人工智能政策與法律協同治理的主題。

        三、人工智能政策與法律協同治理的立法機制

        法政策學方法論認為,法律與政策可以借助政策法律化實現相互連接,從而彌補二者的缺陷,最大限度地發(fā)揮兩種制度安排的優(yōu)勢,實現治理能力。將關涉公民權益、社會發(fā)展的公共政策之內容訴求融入法律,實現符合公共政策治理目的的制度設計,是法政策學所秉持的基本立場與研究進路。從法政策學方法論的作業(yè)模式來看,其遵循“目的—手段”的思維模式,分為法政策目標的設定、法政策手段的選擇、目標與手段的適配、評價基準設置四個步驟。人工智能政策與法律協同治理的立法機制就是將實踐中成熟、穩(wěn)定并在較長時間內調整社會關系的政策內容用明確的法政策目標適配合適的法政策手段,用立法的形式予以確認,從而實現良法善治。

        (一)促進發(fā)展與防范風險是人工智能治理的法政策目標

        2023年4月28日,中共中央政治局會議強調:“要重視通用人工智能發(fā)展,營造創(chuàng)新生態(tài),重視防范風險?!边@一論斷為人工智能治理的法政策目標定下基調。法政策目標通常是一種追求最優(yōu)的法秩序。如何設置法政策目標是政策向法律轉化的首要條件,關乎著立法的價值。法政策目標的核心問題是“法律應當向何種目標發(fā)展”。在立法學中,立法目的是立法者制定整部法律的精神與目標,具有抽象性、開放性與評價性的特點。法政策目標在法律制定中體現為立法目的。人工智能政策向法律轉化的第一步是設定法政策目標。在紛繁復雜的人工智能政策中,不同政策用以調整不同社會關系。總體來說,人工智能政策的法政策目標無外乎促進發(fā)展與防范風險。推動人工智能產業(yè)落地政策和推動人工智能技術創(chuàng)新發(fā)展政策是體現促進發(fā)展目標的代表,例如《廊坊市促進人工智能產業(yè)發(fā)展十三條措施》通過對人工智能產業(yè)建設的“補貼”“獎勵”“引導”等手段,呼應促進人工智能產業(yè)發(fā)展的目標。人工智能政策的防范風險目標體現在一些總體規(guī)劃性政策之中,例如《廣東省新一代人工智能創(chuàng)新發(fā)展行動計劃(2022—2025年)》規(guī)定“實行設計問責和應用監(jiān)督并重的雙層監(jiān)管結構”,“防止人工智能技術濫用與侵犯個人權利”。這些政策中設計的制度與方法無不體現人工智能政策促進發(fā)展與防范風險的法政策目標。

        當促進發(fā)展與防范風險通過黨的政策和治理實踐被確立為法政策目標后, 下一步需運用法政策目標對政策措施進行正當性與真實性分析。法政策目標的正當性,即法政策目標的適用是通過正當程序進行的。以人工智能政策防范風險目標為例,正當性意味著人工智能政策制定的監(jiān)管措施應遵循法律保留原則、符合相關法律法規(guī)、不得在法律法規(guī)之外創(chuàng)設額外的監(jiān)管措施。法政策目標的真實性,即法政策目標是政策措施的真實目的。以人工智能政策促進發(fā)展目標為例,真實性意味著行政機關制定政策的初衷是為了促進人工智能產業(yè)的發(fā)展, 而非借著發(fā)展人工智能產業(yè)的目的進行限制性競爭或地方保護。通過抽象的法政策目標再適用于具體的政策措施,行政措施得以通過價值的檢驗。

        當然,法政策目標也會相互沖突,并隨著人工智能技術的發(fā)展而不斷變化。一方面,法政策目標會相互沖突。政策和法律的規(guī)制目標常常是多元的,在探尋政策措施所蘊含的法政策目標并進行歸納推理后,這些法政策目標往往存在對立與沖突?!案鞣N相互對立無法兼容的政策目標并存于法體系之內,極易損害法律的一致性和安定性等內在品質。”因此,在人工智能政策法律化的過程中,如何處理促進發(fā)展與防范風險這兩種法政策目標成為實現人工智能良善治理的前提。人工智能政策法律化的法政策目標確需在兩種價值之間進行平衡,這種平衡最終表現為法律文本的立法目的排序與個案適用。在當前國際科技競爭加劇的背景下,促進發(fā)展與防范風險這兩種政策目標的平衡基準應表現為在積極推動人工智能產業(yè)發(fā)展的前提下設定風險的底線,即不侵犯國家安全與社會倫理底線以及個人的基本權利。另一方面,隨著人工智能技術的深入發(fā)展,由于信息不充分和認識能力不足帶來的認知局限會不斷得到修正。這時,法政策目標也會隨之進行相應的調整。例如,在人工智能技術發(fā)展初期,人們對人工智能這種未知事物對傳統生產生活模式的沖擊帶有一定的警惕性。因此,人工智能技術發(fā)展初期的立法將防范風險作為第一原則。這深刻體現在網絡安全法、數據安全法等法律法規(guī)的制定中。但隨著人們對人工智能認識的不斷深入,其帶來的產業(yè)發(fā)展與科技革命也極大地促進了生產生活快捷化與便利化。在國際科技競爭中,人工智能也成為新的競爭領域。此刻,人們逐漸認識到發(fā)展人工智能產業(yè)的重要性,促進發(fā)展便成了一種法政策目標。

        總體而言,人工智能政策與法律協同治理立法機制首先應確立促進發(fā)展與防范風險的法政策目標,并用這兩個法政策目標去檢視人工智能政策措施的正當性與真實性。

        (二)充分運用人工智能治理的多種法政策手段

        在人工智能治理中,政策和法律通過制定各式各樣的措施來達成促進發(fā)展與防范風險的政策目標。這些“為達成特定的政策(行政)目的所采取的各種手段和措施的總稱”被稱為法政策手段,也叫作“政策工具”或“行政手段”。在政策目標確定后,立法者可以采取何種手段達成政策目標,是立法過程或者行政監(jiān)管過程的重心。我國學者陳銘祥按照法律與政策調整手段的強制程度,將法政策手段依次分為不予規(guī)定、提供資訊與教育、業(yè)者自律、業(yè)者與政府共律、國家直接規(guī)定五種手段。對于法政策手段的研究,應對各項政策措施采取的手法予以歸納,進而從政策和法律的角度分析各種行政手段的適用實效與方式,為政策法律化提供行政手段選擇的空間。

        在世界各國的人工智能治理實踐中,不同國家選擇了不同強度的政策工具來達成治理目標。歐盟推崇“產業(yè)未強、制度先行”的立法積極主義與保障安全強化監(jiān)管的剛性規(guī)制模式,通過立法來規(guī)制人工智能的風險,以保障國家安全與個人權利為理念頒布帶有強硬監(jiān)管措施的法律法規(guī)。同時,以“分類分級”的方式對風險進行識別與監(jiān)管。例如,歐盟通用數據保護條例秉持“用戶權利至上”的制度理念,建立了嚴密的權利保護規(guī)定與繁雜的合規(guī)體系。2024年年中生效的歐盟人工智能法案也成為世界上首部人工智能基本法。同樣采取這種立法積極主義的還有韓國和新加坡。韓國的國家網絡安全法案擴大了國家的監(jiān)管權,新加坡的《身份信息保護指導規(guī)則》強調保護公民的身份信息。與此相反,美國關于人工智能的立法則采取以激勵創(chuàng)新、審慎監(jiān)管為主的低強度規(guī)制手段。雖然美國各界對于人工智能立法的呼吁很高, 美國商務部也成立了國家人工智能咨詢委員會專門推動人工智能立法。但總體來說,美國仍是通過低強度規(guī)制手段來促進科技的發(fā)展。例如,2023年10月,美國通過《關于安全、穩(wěn)定和可信的人工智能行政令》,這一法令以“軟法”的形式推行人工智能的“敏捷治理”。長期以來,我國對于人工智能的治理都是以監(jiān)管型立法為主,無論是網絡安全法、數據安全法還是《生成式人工智能服務管理暫行辦法》,其所規(guī)定的手段大多為強化企業(yè)的責任,對違反規(guī)定的企業(yè)進行處罰。更有甚者,在行政法沒有細化規(guī)則的情況下,刑法修正案(九)增設了“拒不履行信息網絡安全管理義務罪”。

        通過整理我國人工智能政策與法律文本及實踐措施,根據調整手段的強制性程度,可將人工智能治理手段依次劃分為強制、禁止、許可、激勵、信息告知。首先,強制和禁止是強制性最強的兩種政策手段, 這兩種手段要求或禁止行為主體做出一定的行為。例如,《生成式人工智能服務安全基本要求》規(guī)定,提供者對未成年人提供服務時應限制未成年人單日對話次數與時長。其次,許可意味著企業(yè)在一些人工智能技術或應用場景需取得相應資質或技能才可從事生產生活活動。例如,《生成式人工智能服務管理暫行辦法》第23條規(guī)定:“法律、行政法規(guī)規(guī)定提供生成式人工智能服務應當取得相關行政許可的,提供者應當依法取得許可。”最后,激勵和信息告知帶有一定的指引性質,強制性最弱。激勵多代表行政機關對于人工智能企業(yè)向著某種目標發(fā)展或者從事某種活動的鼓勵。例如,《上海市促進人工智能產業(yè)發(fā)展條例》第31條規(guī)定:“本市統籌各類專項資金,對人工智能基礎研究、技術創(chuàng)新、成果轉化、示范應用、人才引進和重要國際合作交流予以支持?!倍畔⒏嬷獎t意味著企業(yè)在進行某種活動時需要告知相關人一定的風險與提示,使其具有可信賴性。例如,《新一代人工智能倫理規(guī)范》第16條規(guī)定:“保障用戶權益。在產品與服務中使用人工智能技術應明確告知用戶,應標識人工智能產品與服務的功能與局限,保障用戶知情、同意等權利?!边@些手段共同構成我國人工智能治理的規(guī)制手段。

        (三)區(qū)分人工智能領域確定規(guī)制模式

        隨著科技發(fā)展,人工智能應用場景逐漸增多,對傳統的生產生活方式也帶來了挑戰(zhàn)。人工智能治理需區(qū)分不同的人工智能領域以確定相應的規(guī)制模式。規(guī)制模式,是將特定的法政策目標與法政策手段進行匹配。這種匹配通常會形成由多重政策手段共同保障同一政策目標而形成的法律調控模式組合。例如,我國網絡安全法規(guī)定對于網絡相關行業(yè)組織的行為,可以采取行業(yè)自律的形式。當網絡相關行業(yè)組織違反了法律的強制性規(guī)定,主管部門責令改正并予以警告。如若拒不整改或者造成其他嚴重后果,則進而實施財產處罰或制裁。這一種為實現風險防范的政策目標配合一系列連貫的行政手段,構成行政機關慣用的規(guī)制模式組合。這一模式具有很強的實踐性,一旦監(jiān)管部門通過推行自由組合法政策目標搭配行政手段的政策在這一領域被證明行之有效,則這一模式就可以考慮在立法中予以推行,用法律的權威加以固定。

        面對紛繁復雜的社會問題,應該選擇何種政策手段、是否有替代性的政策手段、可否針對同一政策目標重新搭配政策手段達成更有效的治理,成為政策法律化應考慮的要素。在人工智能治理中,這一問題突出表現在促進發(fā)展與防范風險的張力上。如果用立法強制監(jiān)管的方式去實現人工智能治理,反而會抑制產業(yè)的發(fā)展。例如,歐盟通過積極立法的方式去治理人工智能產業(yè),但其并沒有給歐盟帶來人工智能產業(yè)的快速發(fā)展,限制數據流通的法律手段反而阻礙了數據收集與流動,嚴重阻礙企業(yè)的發(fā)展。盡管歐盟歷經三年的時間最終于2024年3月13日通過世界上第一個全面的人工智能法律框架——歐盟人工智能法案,但該法案也受到一些歐盟成員國和大型企業(yè)關于扼殺創(chuàng)新與阻礙國際競爭的質疑。反觀美國采取消極與克制的立法態(tài)度,通過地方自治、行業(yè)規(guī)則和資源倡導等軟性政策調整人工智能產業(yè),使其人工智能產業(yè)的發(fā)展獲得競爭優(yōu)勢。

        回歸我國人工智能立法的視野,政策目標和政策手段的適配帶來兩個需要解決的問題。一是人工智能是否需要立法? 本文認為,在政策法律化的過程中,也會存在某些領域暫時不適應立法或者立法會阻礙產業(yè)的發(fā)展而終止的現象。事實上,并非所有行之有效的政策均需要通過立法予以固定。立法部門努力填補法律空白,將所有領域都納入法律規(guī)制的立法政績觀是片面的。在人工智能眾多領域中,不同領域所適用的法政策目標是不一致的。在一些技術發(fā)展相對完善、已經廣泛進入人類生產生活等被人們所認知的領域,防范技術帶來的風險成為主要的政策目標。例如,人臉識別技術自2014年被研發(fā)以來,迅速在多個場景中得到運用,促進人臉識別發(fā)展的相關政策進入密集出臺期。而促進發(fā)展則是新技術初現階段的政策目標。隨著人臉識別技術在生產生活中的廣泛運用,侵犯個人039be09753cd53f813f62b1f72ef2437隱私等問題逐漸顯現。隨著認識的深入,《App收集使用個人信息最小必要評估規(guī)范》等規(guī)制類的政策也相繼出臺。在運用政策進行調控人臉識別技術的基礎上,最高人民法院《關于審理使用人臉識別技術處理個人信息相關民事案件適用法律若干問題的規(guī)定》《人臉識別技術應用安全管理規(guī)定(試行)(征求意見稿)》等用以防范風險的規(guī)范性法律文件也隨之制定。而對于人工智能新的應用場景,由于技術發(fā)展處于初期,其風險也尚未出現,促進發(fā)展是主要的政策目標。相較于穩(wěn)定的法律,通過靈活的政策措施調節(jié)更具有可行性。因此,在促進發(fā)展與風險防范兩種政策目標的平衡中,如若人類對這一人工智能領域認識相對不足,政策法律化會影響產業(yè)的發(fā)展,在衡量后可選5b82fbd8e7afbfa381b1dff420bd7cea擇不規(guī)范的模式,通過政策的靈活性與時效性繼續(xù)進行調控。二是用何種政策手段進行調控的問題。面對各式各樣的政策手段,應當選取哪種手段或者哪些手段的組合能夠更好地達成政策目標? 這不僅涉及政策與法律的治理手段實施能否帶來實效,而且關乎規(guī)制模式的評價性問題。規(guī)制模式的評價基準是法政策學方法論的最后一步,后文將會提及。對于政策實施能否帶來實效,應考慮政策手段能否達成行政目標以及是否在實踐中有著更為緩和的行政手段組合能夠在達成行政目標的同時更好地實現行政目標之間的平衡。

        (四)設置適當的立法評價基準

        在政策法律化的過程中,法律的評價基準不可或缺。這不僅能夠防止立法者恣意促成政策的法律化,而且能夠通過評價基準的衡量,確保立法品質的提升。同時,社會的發(fā)展也伴隨著法政策目標的轉變與法政策手段的豐富。適時地運用評價基準去考量法律,有利于在科技進步與人類認知提高的過程中不斷更新法政策目標,選擇更為適配的法政策手段,以達成治理的目標。

        日本法政策學研究將評價基準分為一般評價基準和具體評價基準。一般評價基準是“任何法律都應遵守的基礎性價值觀,是法之所以成為法的必要條件,是對立法品質的最基本要求”。平井宜雄指出,效率性和正義性是法律制度設計的兩大核心價值要素。效率性基準是指“沒有浪費地將稀缺的財富分配到各種用途上去”;正義性基準則是指“如何將稀有的財富分割、從誰那里剝奪”。從效率性基準來看,如何更為經濟、更加便捷地達成人工智能的治理目的是一個需要考慮的問題。是采取完全不規(guī)制的市場性決定,還是運用靈活的政策進行輔佐,抑或通過權威性的法律加以規(guī)制? 這一基準告訴我們,在人工智能法律化及立法后的運作中,應適時進行效率性評價,選出更為經濟性的方法用以治理。從正義性基準來看,如何在科技發(fā)展的過程兼顧舊產能與新產能、照顧“數字鴻溝”是人工智能治理中不可回避的問題。這兩種評價基準不是非此即彼的,因此,作為立法者難免受到兩種對立價值觀的“撕扯”,需要衡量法政策目標與法政策手段的適配性,并作出選擇。

        具體評價基準指部門法或者特定法領域應遵循的立法評價基準?!肮ㄒ?guī)制是技術發(fā)展的重要支撐與保護人類社會安全的基本手段?!比斯ぶ悄苤卫砩婕氨O(jiān)管部門對人工智能領域的行政管理,應歸為行政法的范疇。在行政法領域,原田大樹將立法評價基準總結成兩個標準:憲法規(guī)定和行政法的一般原則。一方面,憲法規(guī)定的基本權利條款發(fā)揮基本權利的客觀法功能,提供一套完善的價值準則用以評判。人工智能政策法律化不可違背憲法的人權保障條款,這表現在人工智能不能作為主體等問題面向。另一方面,行政法的一般原則在制度設計上也防止行政機關肆意對人工智能進行規(guī)制。傳統的行政法原則是以依法行政原理展開的,其中包括合法性、合理性、高效便民、程序正當等原則。在行政法治實踐中,行政機關也因應社會的發(fā)展,創(chuàng)制出一些原則。包容審慎監(jiān)管原則便是我國政府在面對新產業(yè)、新業(yè)態(tài)監(jiān)管的原則。“包容審慎監(jiān)管旨在追求效率與安全的動態(tài)平衡,其要求政府給予數字經濟新業(yè)態(tài)必要的發(fā)展時間與試錯空間,并根據公共風險大小進行適時適度干預。”在人工智能政策法律化的過程中,要堅持以包容審慎監(jiān)管原則作為評價基準,對于ChatGPT等新生事物不能因未知而賦予其剛性的監(jiān)管措施。

        在對人工智能政策的法政策目標與法政策手段根據實際情況進行搭配后,應將一般與具體的評價標準進行套用檢驗,以保證制定出良善的法律。同時,也要定期對人工智能法律法規(guī)進行評估,使其根據實踐和人類認識的發(fā)展而更新。綜上所述,以人工智能政策法律化為核心的立法機制是人工智能政策與法律協同治理的關鍵一環(huán),這一環(huán)將政策與法律串聯,并建立起相應的轉化機制。通過法政策目標和法政策手段的適配性構建起新的立法制度,并根據評價基準確保立法的良善性和可行性。

        四、人工智能政策與法律協同治理的實施機制

        人工智能法律與政策協同治理,不僅需要促進行之有效的政策向立法轉化,而且還需要在監(jiān)管過程中促進政策與法律的互聯互動,消解人工智能的治理困境。其中包括人工智能政策備案審查機制、人工智能政策參照適用機制和人工智能法律與政策沖突協調機制。

        (一)建立人工智能政策備案審查機制

        面對多層級、多領域的人工智能政策體系,如何從政策制定層面確保政策制定的科學性與民主性成為政策能否有效施行的關鍵,尤其是在當今人工智能治理嚴重依賴政策的背景下。在國際人工智能競爭中,制定什么樣的政策也影響著人工智能發(fā)展的走向。建立有效的政策備案審查制度不僅能使人工智能政策體系在發(fā)展方向上保持一致性,規(guī)避“政策打架”的情形,而且能夠使單個政策在制定層面上得到控制。

        在我國,人工智能政策的制定歷經政策議程、方案規(guī)劃、公眾參與等流程。然而,對于制定政策的備案與監(jiān)督制度并未有效建立。相較于政策,法律則有相對完善的備案審查機制。通過備案審查,憲法得以有效實施,法制統一的原則得到維護。政策僅有評估機制,這種評估機制更多地著眼于單個政策實施的實效與發(fā)展的走向,并未將其放置于整個政策體系中通盤考慮。為保障人工智能發(fā)展方向的一致性,保持人工智能政策體系共同作用發(fā)揮治理的實效,應參照法律法規(guī)的備案審查制度來建立人工智能政策備案審查制度。通過備案審查制度,保證政策在實施前得到有效監(jiān)督,避免由于政策制定的不當造成科技競爭或生產生活中的問題。

        對于人工智能政策備案審查制度,可由政策制定機關在政策文本成型后向上級主管部門或者同級科技主管部門進行備案,上級主管部門或者同級科技主管部門對該政策進行審查。審查的標準為是否與國家制定的人工智能政策以及上級部門制定的人工智能政策相抵觸。如若抵觸,則應將政策文本退回,責令重新修改。如此一來,可提高政策制定的質量,確保政策體系的一致性,進而促進人工智能的政策治理。

        (二)確立人工智能政策參照適用機制

        由于法律制定無法與人工智能新模式與應用場景相同步,在監(jiān)管部門進行監(jiān)管時,僅僅依靠現有的立法無法達到有效治理。因此,為了對人工智能新場景迭代進行有效監(jiān)管,應確立人工智能政策的參照適用機制。在理論上,傳統的行政法理論將依法行政作為首要原則。依法行政即“行政權的行使必須有法律依據,行政活動不得與法律相抵觸,法律是行政機關的活動準則”。在我國,依法行政之法的范圍通常限于立法法第2條的規(guī)定,即法律、行政法規(guī)、地方性法規(guī)、自治條例和單行條例及國務院部門規(guī)章和地方政府規(guī)章。為確保行政活動的明確性與穩(wěn)定性,政策通常被排除在依法行政原則的范疇之外。然而,由于我國特殊國情與歷史傳統,政策始終活躍在我國行政法治實踐的各個方面。在人工智能監(jiān)管中,監(jiān)管部門也在實踐中積極落實政策的相關規(guī)定。例如,在以往的人臉識別監(jiān)管中,由于個人信息保護法等立法的缺失,監(jiān)管部門也需參照《信息安全技術生物特征識別信息的保護基本要求》《信息安全技術人臉識別數據安全要求》等政策進行綜合研判。

        在人工智能監(jiān)管中參照政策不僅順應實踐WW0733UgE3th+I9mhJ7mMw==上的做法,也符合實質法治觀的要求。縱觀依法行政原則的演進過程,隨著行政任務的擴張,傳統的“依法律行政”也漸進擴展到“依法行政”。這說明依法行政原則之法的范圍也隨著實踐和時代的發(fā)展不斷發(fā)生變化。依法行政原則的范圍也應對政策有所關注。實質法治觀要求規(guī)范的制定需滿足正義性等理念方可適用。政策作為治理規(guī)范體系的一種工具,在理論與實踐發(fā)展中不僅具備了科學性與民主性,而且對黨內法規(guī)、黨政聯合發(fā)文等政策也逐漸建立備案審查制度。因此,在相當程度上滿足實質法治觀的要求。同時,作為法律的非正式淵源,政策在一定程度上也作為法律制定的指導。面對人工智能這種新事物,為了彌補其更新迭代引起的法律規(guī)制滯后,應適時將人工智能政策作為監(jiān)管部門執(zhí)法的參照,在法律尚未出臺時暫時起到規(guī)制的作用。

        (三)設立人工智能法律與政策的沖突協調機制

        在全面依法治國的當下,法律研究者大多認為,當政策與法律發(fā)生沖突時,應摒棄政策、適用法律。這種論斷把法律置于高于政策的位階,一定程度上否定了政策的合法性。一方面,作為新興技術的人工智能更新迭代十分迅速。近年來,區(qū)塊鏈、元宇宙、生成式人工智能、通用式人工智能不斷登場。新技術的治理目標與治理策略也隨著技術的發(fā)展有所變革。人工智能產業(yè)初出茅廬時,法律界多考慮其帶來的風險,用以防范風險為中心的立法對其規(guī)制,以保障國家、社會安全和個人隱私。而在當下,隨著國際科技競爭加劇,人類對人工智能的認識漸趨加深,促進人工智能產業(yè)發(fā)展也逐漸成為國際共識,促進發(fā)展也與防范風險相并列,成為人工智能治理的政策目標之一。另一方面,中國特色社會主義法律體系十分龐大,能夠制定法律規(guī)范的主體也很多。不同立法主體制定的法律與政策沖突時能否簡單地否認政策的合法性? 例如,當國家制定的政策與地方政府制定的地方政府規(guī)章發(fā)生沖突時,應當如何適用?從法律規(guī)范自身來講,有些法律法規(guī)甚至存在上下位法以及內部的沖突。同時,我國的法律清理工作仍在進行之中,一些與時代脫節(jié)的法律規(guī)范未被清理。由此可見,人工智能政策與法律沖突時,不能簡單地摒棄政策。建立人工智能政策與法律沖突協調機制有其必要性。

        人工智能產業(yè)處于高速發(fā)展階段,隨著發(fā)展的推進,現行法與政策的沖突將會更加凸顯,推動人工智能發(fā)展的政策可能會觸碰原先階段制定的法律法規(guī)?!爸挥性诠舱哂|及法律的底線或公共政策需要轉化為立法的場合,方才需要開展有針對性的法政策分析。而既有之實定法是否有效達成了既定之政策目標(立法目的),同樣也屬于立法評價之重要內容?!北疚恼J為,應仿造法律沖突的解決方式,建立人工智能政策與法律沖突協調機制。當人工智能政策與相關法律沖突時,由立法機關會同政策制定主體以及業(yè)內專家進行協商。以促進發(fā)展與防范風險為主要衡量價值,以法律的權威性與政策的前瞻性為基礎,綜合研判法律與政策沖突的原因并提出解決方案。這一機制不僅能夠有效地解決人工智能政策與法律沖突的問題,也能及時地對法律的有關條文進行評估,為修改不適應時代發(fā)展的法律條文提供參考建議。

        結語

        人工智能治理是國家治理體系和治理能力現代化的一個重要內容,也是對于新事物、新業(yè)態(tài)治理的參考樣本。在人工智能治理中,政策與法律發(fā)揮了無可替代的作用。本文雖提出政策與法律協同治理的論題,但除了這兩種由立法機關與監(jiān)管部門制定的法律與政策外,還存在著大量由行業(yè)協會、社會組織等制定的標準、倫理等規(guī)范。如何促進人工智能治理由政策法律協同治理擴展到具有強制力的“硬法”與非強制性的“軟法”協同治理,可以是未來促進人工智能治理的一個研究方向。

        国内露脸中年夫妇交换| 国产自拍视频免费在线| 欧美国产综合欧美视频| 精品久久久久久中文字幕大豆网 | 粗大的内捧猛烈进出小视频| 天美传媒精品1区2区3区| 久久亚洲午夜牛牛影视| 美女被内射很爽的视频网站| 欧美大屁股xxxx高潮喷水 | 国产一区a| 亚洲视频在线视频在线视频| 中文字幕一区二区精品视频| 4hu四虎永久在线观看| 无码 制服 丝袜 国产 另类| 玖玖资源网站最新网站| 精品人无码一区二区三区| 亚洲欧美激情在线一区| 欧美日韩性高爱潮视频| 神马不卡影院在线播放| 东北少妇不戴套对白第一次| 牛鞭伸入女人下身的真视频| yy111111少妇影院| 久久中文字幕暴力一区| 48久久国产精品性色aⅴ人妻| 无码的精品免费不卡在线| 亚洲高清av一区二区| 尤物yw午夜国产精品视频| 无遮挡又黄又刺激又爽的视频 | 精品国产一区二区三广区| 美女国产毛片a区内射| 成全高清在线播放电视剧| 97超级碰碰碰久久久观看| 国产精品一区二区偷拍| 久久精品视频日本免费| 国产高清一区二区三区四区色 | 色综合久久精品亚洲国产| 四虎影视亚洲精品| 亚洲精品国产二区在线观看| 18禁止看的免费污网站| 亚洲黄色电影| 五月婷婷激情六月开心|