亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        用戶權(quán)益保護視角下人工智能侵權(quán)問題研究
        ——商用主體擔(dān)責(zé)倫理探討

        2023-11-13 07:01:07李思啟
        法制博覽 2023年29期
        關(guān)鍵詞:主體人工智能法律

        李思啟

        新疆警察學(xué)院,新疆 克拉瑪依 830000

        基于深度學(xué)習(xí)算法所搭建的人工智能之應(yīng)用已成為現(xiàn)實,有別于以往,這一次的發(fā)展速度非常快,大型語言模型使開放式理解與生成連貫文本成為可能,理論算法開始走向?qū)嶋H應(yīng)用,推動了聊天機器人系統(tǒng)的迭代升級,2023 年ChatGPT(Chat Generative Pre-trained Transformer,是美國OpenAI 公司研發(fā)的聊天機器人程序)的誕生,標志著人工智能算法科技進入了新的階段。[1]算法發(fā)展的驚人速度,使得人們亟需重新審視人工智能的倫理及其所帶來的法律風(fēng)險。

        一、人工智能高速發(fā)展

        人工智能問世60 多年,其應(yīng)用范圍早已拓展至多個領(lǐng)域,影響著人類的思維方式和行為模式?;仡櫲斯ぶ悄馨l(fā)展的歷史,人工智能經(jīng)歷了幾次大起大落。在其發(fā)展的過程中遇到過巨大瓶頸,又在新的理論和新的技術(shù)推動下,奮而前行。

        目前,我們正在進入人工智能的“inside”時代,即人工智能并非簡單的賦能,而是在創(chuàng)造著新的經(jīng)濟結(jié)構(gòu)和社會形態(tài)。[2]人工智能技術(shù),除了在搜索引擎、推薦系統(tǒng)、計算廣告、人臉識別、圖像識別、語音識別、機器翻譯、游戲博弈等領(lǐng)域已大規(guī)模熟練運用外,還在蛋白質(zhì)結(jié)構(gòu)預(yù)測、新藥發(fā)現(xiàn)、國防軍工等領(lǐng)域有了突破性的進展。

        人工智能的發(fā)展速度已然超越預(yù)期,進入了一個新的歷史發(fā)展階段——第三次認知革命,探索人類通過自我認知而形成的主觀世界機制,把這樣的智能賦予機器并改造客觀世界,推動人類智能的外化延伸。

        二、人工智能的應(yīng)用必然帶來風(fēng)險與問題

        根據(jù)研究,人工智能在新生命科學(xué)、類腦神經(jīng)系統(tǒng)、智能醫(yī)療等多個前沿領(lǐng)域取得突破性進展,可預(yù)見其對人類社會勞動力市場分工、經(jīng)濟產(chǎn)業(yè)結(jié)構(gòu)等產(chǎn)生重大的影響和連鎖反應(yīng)。[3]同時,隨著人類能力被機械化和程式化的機器取代以及技術(shù)異化等問題的產(chǎn)生,人工智能的運用必然會帶來一系列技術(shù)風(fēng)險與倫理問題。本文將人工智能的風(fēng)險分為:技術(shù)風(fēng)險、倫理風(fēng)險及法律風(fēng)險三類。

        (一)技術(shù)本身的風(fēng)險

        復(fù)雜網(wǎng)絡(luò)是涵蓋多領(lǐng)域的交叉性學(xué)科,隨著人工智能的發(fā)展,其運用愈發(fā)廣泛,但復(fù)雜網(wǎng)絡(luò)仍然面臨多變的環(huán)境、人為破壞以及自然災(zāi)害等誘發(fā)故障的因素。如果復(fù)雜網(wǎng)絡(luò)系統(tǒng)出現(xiàn)故障,則可能會造成嚴重損害。

        人類很難甚至不可能跟蹤人工智能系統(tǒng)的工作原理并“預(yù)測”它們將如何發(fā)生故障。對于許多較老類型的自動化系統(tǒng),工程師使用詳盡的測試或數(shù)學(xué)分析來“驗證”系統(tǒng)是否在合理的范圍內(nèi)運行。但現(xiàn)代人工智能系統(tǒng)比老一代自動化系統(tǒng)復(fù)雜得多,它們不能像舊系統(tǒng)那樣進行詳盡的測試,因為要測試的可能性路徑實在太多。

        換言之,人類可以通過設(shè)計一套高效、性能優(yōu)越的優(yōu)化方案及一套穩(wěn)定的系統(tǒng)來保證其面臨異常情況時的正常運作,但本身并無法規(guī)避風(fēng)險所發(fā)生的可能。

        (二)人工智能的倫理風(fēng)險

        人工智能在倫理方面逐漸浮現(xiàn)出了諸多負面問題。首先,人工智能算法存在性別、種族等歧視;其次,人工智能存在著弱化人類主體性的特征,開始具備人類語言能力、共情意識和自覺意識,同時沖擊人類就業(yè)市場,由此或?qū)⒁l(fā)群體性的恐慌和社會動蕩;最后,算法濫用會挑戰(zhàn)學(xué)術(shù)規(guī)范,加劇學(xué)術(shù)不端現(xiàn)象,造成教育困境,引發(fā)深層次的教育不公。

        從不同視角看,人工智能帶來的問題不盡相同。這時要先從道德與倫理角度去思考其涉及的問題,例如人工智能的設(shè)計不能擺脫“人是目的”。[4]人工智能發(fā)展如此迅速,極有可能產(chǎn)生一批游離于法律之外的“不道德的人”和“不道德的機器”。謹防出現(xiàn)基于“技術(shù)野蠻”的“寡頭恐怖主義”,應(yīng)當(dāng)盡快出臺人工智能相關(guān)預(yù)防性的、有效的、縝密的倫理應(yīng)對機制和路徑。[4]

        (三)特定知識領(lǐng)域的風(fēng)險

        就以本文所站的法律角度為例,人工智能的發(fā)展還會對法律職業(yè)、法律思維造成巨大的挑戰(zhàn)。從法律職業(yè)方面來說,人工智能的出現(xiàn)可以提高法律行業(yè)的辦公效率,使律師可以更高效地處理專業(yè)的法律問題。但同時,律師作為一門需要具備正確價值觀的職業(yè),是人工智能無法取代的。人工智能只能作為輔助,法律工作者需要有意識地篩選和審核。

        人類特有的無法用機器生成的法律思維和語言有:倫理、文義和技術(shù)。人工智能可以替代通過語言的法律方法,但是仍然無法替代負責(zé)任的判斷或具體情境下的判斷?;诖?,人類仍然可以加強對于人工智能的監(jiān)管,控制其內(nèi)在風(fēng)險,完善相關(guān)法律,掌握法律解釋權(quán),防范人工智能時代出現(xiàn)的法律風(fēng)險。

        三、人工智能商用主體作為被告主體的合理性與必然性

        人工智能侵權(quán)現(xiàn)象的發(fā)生不可避免,但人工智能侵權(quán)行為的侵權(quán)程度不同,是否達到“犯罪”的程度,顯然公權(quán)力對此進行的救濟之必要性與急迫性截然不同。

        本文立意要點為,需要明確當(dāng)基于人工智能算法搭建的軟件對個體造成嚴重侵權(quán)時,應(yīng)當(dāng)允許將商用主體直接作為被告,且舉證責(zé)任倒置。

        (一)方便訴訟的進行

        根據(jù)《中華人民共和國民事訴訟法》第一百二十二條:“起訴必須符合下列條件:……(二)有明確的被告;(三)有具體的訴訟請求和事實、理由;(四)屬于人民法院受理民事訴訟的范圍和受訴人民法院管轄。”起訴必須有明確的被告,以及確定準確的利害關(guān)系。又依據(jù)《最高人民法院關(guān)于人民法院登記立案若干問題的規(guī)定》第四條:“民事起訴狀應(yīng)當(dāng)記明以下事項:……(二)被告的姓名、性別、工作單位、住所等信息,法人或者其他組織的名稱、住所等信息;(三)訴訟請求和所根據(jù)的事實與理由;(四)證據(jù)和證據(jù)來源……”

        實踐中,無論是舉證證明程序與損害之間存在因果關(guān)系,還是尋找適格被告主體信息,對于普通個體,皆會存在困難,使得法律關(guān)系長期處于不穩(wěn)定的狀態(tài)。故而根據(jù)法益衡量原理,有必要通過立法手段對這種“缺失”予以彌補。[5]例如可以模仿諸如《中華人民共和國消費者權(quán)益保護法》中關(guān)于經(jīng)營者與生產(chǎn)者的相關(guān)追責(zé)理論,允許受侵害的主體直接向商用主體(媒介機構(gòu))起訴,且規(guī)定舉證責(zé)任倒置。由商用主體對造成的損害進行賠付,同時賦予商用主體對算法提供者追責(zé)的權(quán)利,這將最大程度上維護社會的整體穩(wěn)定性。

        (二)不破壞現(xiàn)行法律體系的選擇

        從倫理角度思考同樣支持應(yīng)由商用主體進行賠付。計算機代碼本身只是將邏輯通過算法進行轉(zhuǎn)化后所編寫成的文字,其本身并不具有善惡之分,按照法秩序統(tǒng)一性,即不具有可罰性。[6]正如自動手槍可以殺人,但殺人的卻不是槍,而是扣動扳機者。使用計算機代碼進行惡意操作,其可罰性來源并不是“編程”這一行為本身,而是使用代碼時的動機,以及程序編寫好后運行時的目的與造成的結(jié)果。對于人工智能算法所造成的違法行為,對其代碼編寫的本身進行審查顯然過于困難且不切實際,將負責(zé)主體從編寫者轉(zhuǎn)移為商業(yè)使用者,顯然讓法律對行為進行評價的過程更為方便可行。

        基于大陸法系的特點,法需要保持穩(wěn)定性。故而選擇將保護法益的天平向普通用戶傾斜,允許受侵害個體直接向算法的商用主體主張權(quán)利。又或者說,如希望在傳統(tǒng)大陸法學(xué)框架下對人工智能所引發(fā)的法律問題予以規(guī)制,應(yīng)當(dāng)通過賦予受侵害主體直接向人工智能算法的商用主體告訴的權(quán)利。

        (三)經(jīng)濟效率最大化的選擇

        從效率角度思考,選擇人工智能商用主體作為被告的優(yōu)點主要有兩個方面:

        一方面,根據(jù)《中華人民共和國民法典》關(guān)于商事主體登記的相關(guān)規(guī)定,受侵害者尋求救濟時,尋找商用主體的信息顯然更為簡單。這使得面對人工智能侵權(quán)行為的維權(quán)成本不至于過高,有利于社會穩(wěn)定。另一方面,隨著對人工智能的使用越來越頻繁、范圍越來越廣,顯然相同算法所形成的人工智能程序侵權(quán)案件會越來越多。且由于電腦編程本身的可復(fù)制性,人工智能相關(guān)的違法犯罪行為會日漸猖獗。由法院法官逐一確認并追責(zé),即便理論上可行,實際中也會因工作量過大而不切實際。

        從效率角度來講,將犯罪主體確定在不當(dāng)使用人工智能算法的商用主體,顯然更符合效率最大化的原則。同時,站在司法者的角度,也方便法院的審理與追責(zé),以及審判后的執(zhí)行,有助于節(jié)省司法資源。

        四、立法視野下的思考

        人工智能技術(shù)的改進和來自消費者的自下而上的市場壓力有助于使人工智能更安全、更不容易發(fā)生事故,但僅靠這種調(diào)控力度并不足夠。健全立法應(yīng)發(fā)揮至關(guān)重要的作用。有前瞻性的立法有助于減少有侵權(quán)可能的人工智能算法研究,本文結(jié)合相關(guān)的研究,提出以下幾點立法建議:

        (一)建立風(fēng)險事故信息共享機制

        為了使人工智能更安全,需要知道它何時以及如何失敗。在許多近似技術(shù)領(lǐng)域,共享事件報告有助于建立共同的知識基礎(chǔ),幫助行業(yè)和政府跟蹤風(fēng)險并了解其原因。政策制定者應(yīng)該探索不同的方法來鼓勵經(jīng)營者或生產(chǎn)商積極披露人工智能事故的細節(jié)。如政府可以制定事件報告的共同標準,甚至強制要求經(jīng)營者或生產(chǎn)商披露某些類型的事故。

        (二)政府背書的信息安全機制

        對人工智能安全進行審查與測試至關(guān)重要,旨在解決上述提到的問題,以及將人工智能工程塑造為一類更嚴格的學(xué)科領(lǐng)域。如美國2021 年制定的《國防授權(quán)法案》(NDAA),要求美國國家科學(xué)基金會和能源部投資于“值得信賴的AI”研究。

        我國亦應(yīng)當(dāng)注重人工智能標準,制定出人工智能系統(tǒng)事故風(fēng)險的標準。并委托更專業(yè)的監(jiān)管機構(gòu),創(chuàng)建一個國家背書的人工智能測試體系。進而構(gòu)建一個包含標準化數(shù)據(jù)集、代碼和測試環(huán)境的數(shù)字平臺,公共和私人人工智能系統(tǒng)可以在其上對安全性和可靠性進行測試。

        (三)強制責(zé)任保險制度與侵權(quán)救濟基金制度的構(gòu)建

        作為一種科學(xué)趨勢及事物的發(fā)展規(guī)律,我國的人工智能研究與應(yīng)用不可能等到立法健全時再開始。正如前述,法的滯后性也決定了問題的出現(xiàn)一定早于立法。正基于這種特性,有學(xué)者提出了我國應(yīng)當(dāng)構(gòu)建強制責(zé)任保險制度與侵權(quán)救濟基金制度。[7]該制度廣泛應(yīng)用于歐洲國家,即通過強制要求人工智能應(yīng)用主體繳交責(zé)任保險,或者設(shè)立侵權(quán)救濟基金,來為未來可能發(fā)生的侵權(quán)行為提前提供賠償保證。同時,資金的要求無形之中也為人工智能公司的設(shè)立提供了門檻,有利于將風(fēng)險限縮在一定的程度以內(nèi)。

        五、研究意義與局限性

        筆者認為,距離真正意義上的人工智能時代到來還有一定的年頭,且基于法律本身的滯后性,仍有許多未知的問題現(xiàn)在無法預(yù)測。同時大陸法系的邏輯所決定,法學(xué)研究始終無法脫離于滯后因素,但學(xué)者必須盡可能在問題發(fā)生之前去思考,這樣才能在問題出現(xiàn)之時第一時間提供理論依據(jù),且將風(fēng)險造成的破壞限縮在一定程度,進而提供現(xiàn)實意義上的作用。確保即使侵害發(fā)生,也能找到最適格的被告主體進而進行司法救濟,維護社會穩(wěn)定。

        猜你喜歡
        主體人工智能法律
        論自然人破產(chǎn)法的適用主體
        法律解釋與自然法
        法律方法(2021年3期)2021-03-16 05:57:02
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        人工智能與就業(yè)
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        下一幕,人工智能!
        關(guān)于遺產(chǎn)保護主體的思考
        讓人死亡的法律
        山東青年(2016年1期)2016-02-28 14:25:30
        “互助獻血”質(zhì)疑聲背后的法律困惑
        論多元主體的生成
        国产小屁孩cao大人免费视频| 丰满熟女高潮毛茸茸欧洲视频| 国产探花在线精品一区二区| 久久艹影院| 人妻av午夜综合福利视频| av在线不卡一区二区| 亚洲av日韩综合一区久热| 黑人巨大白妞出浆| 国产高潮流白浆免费观看不卡| 国产精品国产三级国产专播| 国产免费观看黄av片| 人妻少妇精品中文字幕av蜜桃| 欧美成人精品三级在线观看| 色狠狠一区二区三区香蕉| 亚洲精品中文字幕不卡在线| 亚洲综合伊人久久综合| 男人的天堂av高清在线| 天堂草原电视剧在线观看图片高清| 日本韩无专砖码高清| 永久免费毛片在线播放| 少妇人妻无奈的跪趴翘起| 女人被狂躁c到高潮视频| 国产熟妇人妻精品一区二区动漫| 2021年国产精品每日更新| 国产小车还是日产的好| 精品日本一区二区三区| 帮老师解开蕾丝奶罩吸乳网站| 精品久久综合亚洲伊人| 按摩师玩弄少妇到高潮hd| 在线观看视频日本一区二区| 亚洲av最新在线网址| 亚洲精品理论电影在线观看| 亚洲福利一区二区不卡| 日本亚洲视频一区二区三区| 亚洲国产av玩弄放荡人妇系列| 国产乱淫视频| 全程国语对白资源在线观看| 亚洲日韩小电影在线观看| 最近中文字幕视频高清| 亚洲天堂无码AV一二三四区| 偷拍一区二区盗摄视频|