亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        人工智能在線內(nèi)容審查對言論自由的影響

        2021-12-30 21:51:52
        科學(xué)咨詢 2021年40期
        關(guān)鍵詞:人工智能內(nèi)容用戶

        齊 琦

        (天津大學(xué)法學(xué)院 天津 300072)

        一、爭議問題

        當(dāng)今網(wǎng)絡(luò)上充斥著各種暴力、色情、謠傳、不道德的話語、甚至是反動(dòng)言論、恐怖活動(dòng)宣傳等,“人工智能”(AI)通常被認(rèn)為是識別和過濾這些不當(dāng)內(nèi)容的工具。伴隨著“爆炸”增長的大數(shù)據(jù),分析和處理這些數(shù)據(jù)的工具也逐漸增多。深度學(xué)習(xí)等人工智能技術(shù)正顯示出巨大的潛力。[1]

        在網(wǎng)絡(luò)輿情監(jiān)管背景下,人工智能內(nèi)容審查技術(shù)已經(jīng)成為一套不斷變化的自動(dòng)檢測和分析內(nèi)容的技術(shù)。各種形式的人工智能被應(yīng)用于排名和推薦系統(tǒng)中,通過計(jì)算迅速做出預(yù)測和決策,從而改變商業(yè)模式,提升產(chǎn)品服務(wù)。人們在享受人工智能內(nèi)容審查便利的同時(shí),這些技術(shù)的使用也逐漸衍生出了一系列的重大問題,那就是人工智能在線內(nèi)容審查應(yīng)用時(shí)所面臨的挑戰(zhàn),以及這些挑戰(zhàn)最終對言論自由權(quán)利會(huì)產(chǎn)生一些不利影響。

        二、域外法律規(guī)定與實(shí)踐

        (一)言論自由是一項(xiàng)基本人權(quán),也是衡量一個(gè)現(xiàn)代民主社會(huì)進(jìn)步性的重要標(biāo)準(zhǔn)

        公民可以按照個(gè)人意愿表達(dá)意見和想法的法定政治權(quán)利,言論自由有時(shí)也被稱作表達(dá)自由,其形式包括口頭和書面,廣義上還包括出版、新聞、著作、繪畫等。公民可以通過文字、圖片、視頻、音頻或多媒體等媒介,在現(xiàn)實(shí)社會(huì)和網(wǎng)絡(luò)虛擬世界發(fā)表、接收信息,而不被政府和其他個(gè)人干涉。言論自由不是毫無邊際的,在不同國家會(huì)受到不同程度的限制,例如發(fā)表違反法律法規(guī)規(guī)定的信息:如侮辱、誹謗等侵犯他人的言論,色情、暴力信息、煽動(dòng)仇恨、煽動(dòng)國家分裂,宣揚(yáng)恐怖組織等會(huì)受到嚴(yán)厲的限制和打擊,而在社會(huì)道德層面,對言論自由提出了更高的“隱形”要求。

        (二)國際人權(quán)法框架

        《世界人權(quán)宣言》第19條和《公民權(quán)利和政治權(quán)利國際公約》以及區(qū)域人權(quán)條約都保障言論自由權(quán)。雖然言論自由權(quán)是一項(xiàng)基本權(quán)利,但它并不是絕對的保障。根據(jù)國際標(biāo)準(zhǔn),特別是《公民權(quán)利和政治權(quán)利國際公約》第19條第3款:對言論自由權(quán)的限制必須嚴(yán)格地加以調(diào)整,不得危及言論自由權(quán)本身。確定一項(xiàng)限制是否經(jīng)過嚴(yán)格調(diào)整的方法通常被表述為一項(xiàng)由三部分組成的測試,限制必須:由法律規(guī)定、追求合法目標(biāo)、符合必要性和相稱性。

        目前沒有任何國際標(biāo)準(zhǔn)明確涉及人工智能內(nèi)容審查和言論自由權(quán)。但是有一套國際標(biāo)準(zhǔn)與人工智能的使用有關(guān):國家不應(yīng)規(guī)定平臺負(fù)有監(jiān)測其傳輸、存儲、自動(dòng)化或以其他方式使用信息的一般義務(wù),用戶應(yīng)有機(jī)會(huì)質(zhì)疑內(nèi)容的屏蔽和過濾行為。

        (三)國家層面

        現(xiàn)有的法律法規(guī)對人工智能在線內(nèi)容審查沒有直接的規(guī)定,但各個(gè)國家不同的網(wǎng)絡(luò)內(nèi)容監(jiān)管和審查的標(biāo)準(zhǔn)為其提供了重要的指引,但這些法律可能不足以解決人工智能在線內(nèi)容審查影響言論自由的各種方式,人工智能在線內(nèi)容審查依然受傳統(tǒng)法律框架的監(jiān)管。

        德國在2018年初公布一項(xiàng)規(guī)范社交媒體的法令,主要針對注冊用戶在200萬以上的網(wǎng)絡(luò)平臺,這些社交媒體公司必須設(shè)立有關(guān)程序,檢查自己網(wǎng)站上被提出投訴的內(nèi)容,并在24小時(shí)之內(nèi)刪除明顯違法的內(nèi)容。違法的個(gè)人可能面臨高達(dá)500萬歐元的罰款,公司如果未能符合監(jiān)管標(biāo)準(zhǔn)將可能面臨高達(dá)5 000萬歐元罰款[2]。歐盟也公布了《公眾信息保護(hù)規(guī)則》(GDPR),制定了有關(guān)法規(guī),所有社交媒體公司在儲存和使用公眾信息方面必須遵守。澳大利亞在2019年4月5號通過了《散播邪惡暴力內(nèi)容法》,違規(guī)的社交媒體公司將面臨制裁,公司技術(shù)主管將可能因此被判長達(dá)3年的監(jiān)禁,和高達(dá)相當(dāng)于該公司全球范圍內(nèi)營業(yè)額10%的罰款[3]。我國《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》,2020年3月1日起正式施行[4],對社交網(wǎng)絡(luò)平臺的“敏感詞”審查力度加大。

        三、人工智能在線審查工具面臨的挑戰(zhàn)

        (一)人工智能在線內(nèi)容審查的方式

        1.審查在線內(nèi)容主要有以下幾種路徑

        (1) 事前審查

        當(dāng)上傳的內(nèi)容被審核時(shí)在正式發(fā)布之前,就已經(jīng)有人工智能內(nèi)容審查工具的“摧毀”,典型的內(nèi)容如過于明顯的色情信息。如果已知發(fā)布內(nèi)容的用戶是曾經(jīng)是規(guī)則破壞者,或者內(nèi)容非常明顯地違反基本審核規(guī)則,那么用戶可能被暗中禁言,發(fā)布的內(nèi)容也可能會(huì)被自動(dòng)隱藏。

        (2) 事后審查

        內(nèi)容正式發(fā)布后被審查的形式,多數(shù)時(shí)候需要人工智能審查和人類審查員共同工作違規(guī)內(nèi)容會(huì)受到標(biāo)記、降級、刪除等。

        2.審查不當(dāng)信息

        主要包括以下幾個(gè)方面:網(wǎng)絡(luò)騷擾或欺凌,包括例如網(wǎng)絡(luò)攻擊、霸凌、仇恨言論和色情暴力信息,這類內(nèi)容常常以圖片、視頻的形式發(fā)布,所以處理難度不大,但經(jīng)常會(huì)“誤傷”,并且,不同平臺的標(biāo)準(zhǔn)不一,有的平臺允許色情信息傳播;煽動(dòng)國家分裂、宣傳恐怖活動(dòng)等信息,這類信息一經(jīng)發(fā)現(xiàn),會(huì)受到政府的嚴(yán)厲打擊。

        (二)人工智能在線審查工具面臨的挑戰(zhàn)

        除了在線內(nèi)容審查的普遍挑戰(zhàn)之外,人工智能特有的一些挑戰(zhàn)是人類審查員不會(huì)面臨的,通??梢詺w因于人工智能系統(tǒng)的性能標(biāo)準(zhǔn)高于人類審查員(對人工智能系統(tǒng)的錯(cuò)誤比人類錯(cuò)誤要求得更嚴(yán)格)。人工智能審查技術(shù)為在線內(nèi)容審查帶來了一些更特別的挑戰(zhàn)。主要存在以下幾點(diǎn):

        1.缺乏專業(yè)的執(zhí)行機(jī)制和法律機(jī)制

        目前有關(guān)人工智能的討論仍局限于技術(shù)層面、倫理層面和責(zé)任等概念。這些框架如果順利執(zhí)行,必須依賴法治的進(jìn)步,目前在人工智能在線審查領(lǐng)域進(jìn)行的大量工作缺乏專業(yè)的執(zhí)行機(jī)制和法律機(jī)制。同時(shí)也缺少相應(yīng)的問責(zé)機(jī)制。

        2.缺少透明度和可解釋性

        許多公司開發(fā)人工智能系統(tǒng)的方式和過程缺乏透明度。研發(fā)產(chǎn)業(yè)保守商業(yè)秘密的規(guī)則,以及算法系統(tǒng)固有的復(fù)雜性共同導(dǎo)致了不透明性。在人工智能內(nèi)容審查產(chǎn)品中,幾種人工智能學(xué)習(xí)技術(shù)可能同時(shí)存在,從隨機(jī)森林和馬爾可夫模型,到支持向量機(jī)和神經(jīng)網(wǎng)絡(luò)。而神經(jīng)網(wǎng)絡(luò)(尤其是深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò))是難以解釋的。雖然神經(jīng)網(wǎng)絡(luò)被設(shè)計(jì)用來復(fù)制人腦學(xué)習(xí),但這些網(wǎng)絡(luò)是太過復(fù)雜,有時(shí)連人工智能開發(fā)人員都無法理解算法如何或?yàn)楹屋敵瞿切靶袨椤薄?/p>

        由于深度學(xué)習(xí)模型的復(fù)雜性,很難做到真正透明、可解釋的模型。但合并人工智能系統(tǒng)的可解釋方法一直是人們關(guān)注的焦點(diǎn)。研究神經(jīng)顯著性技術(shù)可能增加提供圖像和視頻調(diào)節(jié)工具的可解釋性圖像、視頻分析中的重要或顯著的標(biāo)志。這些可以在算法對重要圖像的分類過程中,識別區(qū)域和特性。MIT對網(wǎng)絡(luò)內(nèi)容分析進(jìn)行了進(jìn)一步的研究,旨在深度學(xué)習(xí)模型及其決策行為進(jìn)行解釋。例如對于給定的圖像分類,可以生成跟蹤路徑,突出顯示網(wǎng)絡(luò)中神經(jīng)元最強(qiáng)烈激活的路徑,從而澄清分類過程。這些技術(shù)對于在人工智能審查系統(tǒng)建立信任顯得越來越重要。然而,可解釋的人工智能技術(shù)目前還處于初級階段,還不能廣泛應(yīng)用。

        3.用戶對人工智能工具的要求更嚴(yán)格

        在簡單的任務(wù)上,人工智能系統(tǒng)可以分析和處理的數(shù)據(jù)量遠(yuǎn)遠(yuǎn)大于人類。然而,盡管在更高的準(zhǔn)確性和效率上比人類表現(xiàn)得更好,但用戶對失敗的人工智能系統(tǒng)的能力提出質(zhì)疑。比如,在接連的幾次車禍?zhǔn)录?,公眾對自?dòng)駕駛汽車及其性能的看法發(fā)生了變化,媒體和政府也很快就開始質(zhì)疑并討論自動(dòng)駕駛汽車能否取代人類駕駛,事實(shí)上,與自動(dòng)駕駛汽車相比,人類駕駛汽車每年每公里所造成的嚴(yán)重撞擊次數(shù)更多。這種對人工智能及其能力的高度期望帶來了更大的復(fù)雜性,因?yàn)槿祟悓θ斯ぶ悄芄收系娜萑潭缺葘θ祟惞收系娜萑潭雀?。?dāng)人工智能審查工具出現(xiàn)了難以避免的錯(cuò)誤時(shí),公眾的失望和憤怒心理會(huì)對人工智能審查工具的進(jìn)一步發(fā)展不利。

        (三)人工智能在線審查的技術(shù)挑戰(zhàn)將對言論自由產(chǎn)生負(fù)面影響

        許多人工智能所面臨的技術(shù)挑戰(zhàn)將對用戶的言論自由產(chǎn)生種種負(fù)面影響,主要有以下幾個(gè)方面

        1.世界各地的文化和法律差異

        Facebook、YouTube、微博等在線平臺在全世界范圍內(nèi)擁有數(shù)千萬用戶。每個(gè)平臺都制定了自己的標(biāo)準(zhǔn)或指導(dǎo)方針,引領(lǐng)著在線審查內(nèi)容的方向。平臺應(yīng)用人工智能在線審查工具時(shí),要為每個(gè)國家制定有效的政策,這就需要謹(jǐn)慎對待文化信仰、政治觀點(diǎn)、歷史背景和法律法規(guī)。

        文化差異導(dǎo)致用戶對適當(dāng)內(nèi)容的理解出現(xiàn)了明顯的偏差,同樣的言論在一個(gè)國家是恰當(dāng)?shù)模诹硪粋€(gè)國家變得不當(dāng),如果因此刪除了此項(xiàng)內(nèi)容,這種“一刀切”的做法會(huì)引發(fā)用戶的“寒蟬效應(yīng)”。在法律層面,每個(gè)國家或地區(qū)都擁有自己的內(nèi)容審查機(jī)制,有些國家的審查體制并不精密,不標(biāo)明紅線,容易被任意解釋,從而在社會(huì)中創(chuàng)造出自我審查和過度審查的文化。

        2.難以準(zhǔn)確定位語境

        一個(gè)已經(jīng)發(fā)布的內(nèi)容是否違反了法律,通常取決于機(jī)器學(xué)習(xí)工具在分析中沒有使用語境。機(jī)器學(xué)習(xí)工具的分析中可以包含一些上下文,例如說話人的身份、消息的發(fā)送者和接收者之間的關(guān)系,其他背景,如歷史、政治和文化背景,這些對于一個(gè)人工智能工具來說,無疑增加了學(xué)習(xí)訓(xùn)練的難度。如果把人工智能在線審查應(yīng)用于發(fā)現(xiàn)仇恨歧視性言論中,首先,要找到合適的數(shù)據(jù)來訓(xùn)練人工智能算法。其次,應(yīng)該開發(fā)能夠識別仇恨言論或攻擊性內(nèi)容的程序。此外,還需要阻止那些不斷想出辦法攻破系統(tǒng)的違法違規(guī)發(fā)布者或傳播者[5]。

        僅僅在技術(shù)層面上做到這些還遠(yuǎn)遠(yuǎn)不夠。眾所周知,語言是一門復(fù)雜的藝術(shù),對一個(gè)詞語或句子的適當(dāng)性判斷標(biāo)準(zhǔn)是非常主觀的,一句話里所流露出的情感和深層含義,有時(shí)連人類都難以分辨,戲謔、反諷等言論和真正的不當(dāng)言論的區(qū)分,是人工智能在線內(nèi)容審查需要跨越的門檻,目前,人工智能審查技術(shù)對語境和語用習(xí)慣的分析還不夠敏銳,這會(huì)讓很多不當(dāng)內(nèi)容從它的眼皮下“溜走”。

        3.誤報(bào)和漏報(bào)

        使用算法系統(tǒng)檢測特定類型的語言和行為時(shí),總是會(huì)出現(xiàn)所謂的誤報(bào)(錯(cuò)誤地將某些內(nèi)容歸類為不當(dāng))和漏報(bào)(漏報(bào)了一些本應(yīng)歸類為不當(dāng)?shù)膬?nèi)容)情況。從言論自由的角度來看,如果這些工具被用于標(biāo)記、降級或刪除內(nèi)容,或者將相關(guān)內(nèi)容創(chuàng)作者也作為對象以供進(jìn)一步地審查,則誤報(bào)可能給個(gè)人的言論自由權(quán)帶來重大負(fù)擔(dān),導(dǎo)致無法將仇恨言論、騷擾和其他不當(dāng)?shù)膬?nèi)容與正確、合理、合法的內(nèi)容相區(qū)別,這樣就不利于用戶自由表達(dá)觀點(diǎn)。另一方面,對內(nèi)容的遺漏會(huì)導(dǎo)致對仇恨言論、極端主義以及其他不當(dāng)言論處理失敗,會(huì)對被動(dòng)接收的網(wǎng)絡(luò)用戶造成傷害。[5]

        4.潛在歧視和算法偏差

        在開發(fā)過程中,人工智能算法可以導(dǎo)致有意和無意的偏差。算法偏差可能是由標(biāo)記監(jiān)督學(xué)習(xí)數(shù)據(jù)集(特別是手動(dòng)執(zhí)行時(shí))以及不具有代表性和偏差的數(shù)據(jù)集的過程引起的。此外,訓(xùn)練過程中的反向傳播和參數(shù)選擇都會(huì)導(dǎo)致或增強(qiáng)偏差。受許多復(fù)雜人工智能算法不透明性的影響,解釋偏差來源很困難。在內(nèi)容審查過程中,人類審查員可能會(huì)引入明顯的偏差,導(dǎo)致調(diào)節(jié)過程不一致,每一位審查員對適當(dāng)言論的判斷的都有自己的看法,對他們所受的指導(dǎo)方針也有自己的解釋個(gè)人對有害內(nèi)容的敏感度會(huì)有所不同。

        算法系統(tǒng)有可能在與代表性不足的群體(包括種族和少數(shù)族裔、政治傾向等)相關(guān)的數(shù)據(jù)上表現(xiàn)不佳。這是由于缺乏數(shù)據(jù)和依賴訓(xùn)練數(shù)據(jù)庫:如果數(shù)據(jù)受到現(xiàn)實(shí)社會(huì)的偏見和不平等思想的影響,那么在這些數(shù)據(jù)上訓(xùn)練的模型可能會(huì)反映或放大這些不平等。這會(huì)給社會(huì)和個(gè)人的言論自由帶來嚴(yán)重的風(fēng)險(xiǎn)。因此,必須采取有效的預(yù)防措施,確保識別和減輕無意識偏差的影響,在訓(xùn)練人工智能工具時(shí)使用無偏差、有代表性的數(shù)據(jù)庫,減少潛在的偏差來源。

        四、結(jié)束語

        內(nèi)容控制和審查的應(yīng)用越來越廣泛就越能暴露出人工智能仍處于初級和不完善狀態(tài)的事實(shí)。AI在內(nèi)容審查上面臨著種種技術(shù)挑戰(zhàn),這些挑戰(zhàn)會(huì)直接或間接地影響用戶的言論表達(dá)意愿。因此,在技術(shù)和法律層面,應(yīng)注重提高現(xiàn)有人工智能在線審查的透明度,增強(qiáng)人工智能審查功能的研發(fā)、引入外部監(jiān)督糾正機(jī)制,確保用戶能夠訴諸于補(bǔ)救機(jī)制,從而維護(hù)用戶的言論自由。

        猜你喜歡
        人工智能內(nèi)容用戶
        內(nèi)容回顧溫故知新
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        人工智能與就業(yè)
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        關(guān)注用戶
        商用汽車(2016年11期)2016-12-19 01:20:16
        下一幕,人工智能!
        主要內(nèi)容
        臺聲(2016年2期)2016-09-16 01:06:53
        關(guān)注用戶
        商用汽車(2016年6期)2016-06-29 09:18:54
        關(guān)注用戶
        商用汽車(2016年4期)2016-05-09 01:23:12
        如何獲取一億海外用戶
        人妻丰满熟妇aⅴ无码| 欧美粗大无套gay| 91视频免费国产成人| 国产在线白浆一区二区三区在线| 在线观看国产一区二区av | 亚洲av影院一区二区三区四区| 亚洲天堂一区二区三区视频| 在线观看的a站免费完整版| 天天射综合网天天插天天干| 精品久久久久香蕉网| 草莓视频成人| 国产一级片内射在线视频| 午夜一区二区三区免费观看| 国产玉足榨精视频在线观看| 水蜜桃无码视频在线观看| 亚洲男人堂色偷偷一区| 国产三级自拍视频在线| 亚洲中文字幕久久在线| 国产农村妇女精品一二区| 欧美色五月| 久久精品一区二区三区夜夜| 国产av无码专区亚洲av男同 | 久久国产劲爆内射日本| 白白在线视频免费观看嘛| 丰满熟妇乱子伦| 99久久久无码国产精品动漫| 国产在线观看不卡网址| 蜜臀av毛片一区二区三区| 亚洲av日韩综合一区久热| 成年女人毛片免费视频| 中文字幕巨乱亚洲| av网址不卡免费在线观看| 中文字幕日韩有码在线| 久久久久久国产精品mv| 久久久久亚洲精品天堂| 日本韩国一区二区高清| 日本一二三区在线观看视频| 国产精品久久久久久婷婷| 欧美在线视频免费观看| 亚洲视频不卡免费在线| 先锋影音人妻啪啪va资源网站|