亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        算法無所不在,言論如何自由?

        2020-11-28 07:20:27左亦魯
        現(xiàn)代閱讀 2020年7期
        關(guān)鍵詞:人工智能

        左亦魯

        我們正生活在一個算法社會。與我們生活息息相關(guān)的各種經(jīng)濟和社會決策,很多都在通過算法作出。由此就有了一種說法:“當人們談?wù)摗惴〞r,如果把這個詞換成‘上帝,意思也不會有什么不同。”拋去其中戲謔的成分,這種比喻至少抓住了算法的兩大特點:無處不在和全知全能。

        在一定程度上,算法的確使它的主要擁有者——商業(yè)巨頭們——獲得了一種近乎上帝的權(quán)力。那么,應(yīng)該如何規(guī)制和監(jiān)督算法?圍繞這一問題的戰(zhàn)斗打響的方式出乎很多人意料。按理說,爭論本應(yīng)圍繞如何規(guī)制算法和以何種標準規(guī)制展開,但半路殺出個“程咬金”——言論自由,改變了戰(zhàn)斗的走向和打法。為了抵制規(guī)制,商業(yè)巨頭開始聲稱算法是一種言論,算法的計算和對結(jié)果的呈現(xiàn)是在行使自己的言論自由。以搜索引擎的算法為例,甲公司在搜索結(jié)果中想把你排在什么位置或甚至干脆踢出排名,就相當于甲想“說”什么話,這完全是甲的言論自由。任何對甲算法的干預(規(guī)制)都變成對甲言論自由的侵犯。

        用學者弗蘭克·帕斯奎爾的話說,言論自由已成為算法對抗規(guī)制的一張“萬能牌”。每個試圖規(guī)制算法的嘗試,都必須先通過“算法是不是言論”或“規(guī)制算法是否侵犯言論自由”這道門檻。到目前為止,算法的言論自由主張在美國取得了全部法庭交鋒的勝利。在法律之外,這張萬能牌使算法在政治、輿論和話語權(quán)爭奪中同樣占據(jù)制高點。“言論自由”這一前置問題似乎正成為規(guī)制算法的一道難以逾越的門檻。因此,如何認識言論自由——這道門檻——就顯得尤為重要。算法是言論嗎?或者說,算法應(yīng)受言論自由保護嗎?

        搜索王訴谷歌案

        2003年的搜索王訴谷歌案是一個里程碑,它可被稱為算法規(guī)制第一案,也是算法與言論自由間的張力第一次引起大規(guī)模關(guān)注。通過該案,問題被聚焦和提出,未來爭論的框架和方向大致確定。搜索王案雖然只發(fā)生在美國俄克拉荷馬州的一家地區(qū)法院,但它背后是兩種力量和兩大陣營的集結(jié)和較量。雙方圍繞算法規(guī)制展開的第一場較量,是以言論自由開始并以言論自由的勝利而告終的。

        原告搜索王是一家從事搜索和虛擬主機業(yè)務(wù)的公司,于1997年在俄克拉荷馬州注冊。在2002年,搜索王新推出了一種名為“PRAN”的分支業(yè)務(wù),其商業(yè)模式是幫助客戶把廣告和鏈接打到那些在谷歌網(wǎng)頁排名中排名靠前的網(wǎng)站上去。

        搜索王之所以把谷歌告上法庭,原因有二:第一,谷歌降低了搜索王網(wǎng)站的網(wǎng)頁排名。第二,谷歌徹底刪除了搜索王子業(yè)務(wù)PRAN的網(wǎng)頁排名。搜索王認為,谷歌是在得知PRAN高度依賴網(wǎng)頁排名系統(tǒng)營利后有意為之,而網(wǎng)頁排名上的降序和刪除給自己的生意帶來了“無法估量的損失”。

        谷歌毫不避諱自己確實“有意為之”,但提出3點作為抗辯:一、搜索王和PRAN破壞了網(wǎng)頁排名的公正性;二、谷歌沒有任何義務(wù)把搜索王納入網(wǎng)頁排名,或?qū)⑵渑旁诤笳呦胍奈恢?三、最重要的是,網(wǎng)頁排名代表了谷歌的言論,應(yīng)受言論自由保護。

        最終的判決結(jié)果是,谷歌關(guān)于算法是其言論自由的主張得到了支持。與聯(lián)邦最高法院動輒長篇大論相比,俄克拉荷馬地區(qū)法院的判決十分簡短。特別是在“算法是否屬于言論”的問題上,判決簡單到近乎論斷而非論證。

        法院首先認為谷歌的網(wǎng)頁排名是一種意見,“這種意見關(guān)乎一個特定網(wǎng)站對某一檢索指令響應(yīng)的意義”。這里隱含著一種類比,即把搜索過程類比為人與人之間的問答。在賦予算法言論自由保護的推理中,上述“檢索=問答”的類比或想象是最為關(guān)鍵的一步。這樣一來,算法的“算”搖身一變?yōu)椤罢f”。

        法院還把上述認定推而廣之,“由于每種搜索引擎確定檢索結(jié)果意義的方法都不同,其他搜索引擎也都在表達各自不同的意見”。就像每個人都有權(quán)表達自己的觀點一樣,每個搜索引擎都有權(quán)根據(jù)算法“說”出自己的意見。具體到本案,不管谷歌根據(jù)算法怎么調(diào)整(甚至刪掉)搜索王和PRAN的網(wǎng)頁排名,都等同于谷歌想如何發(fā)表自己的意見,包括搜索王在內(nèi)的任何人當然不能干涉。

        值得注意的是,搜索王案給算法貼上的不僅僅是“言論”的標簽,而是“意見”。這意味著,與“言論”相比,被貼上“意見”標簽讓算法可以享受更多豁免。搜索王一方一直主張,哪怕算法屬于言論,也是虛假和不真實的言論,而不真實的言論同樣不應(yīng)受到保護。但通過把“意見”的身份賦予算法,法院相當于給了算法擁有者一塊“免死金牌”?!暗谝恍拚赶聸]有錯誤的意見?!彼惴ㄗ鳛橐环N主觀的意見,無所謂對錯真假。更進一步,搜索王案法院認為算法是一種具有“公共關(guān)切”屬性的意見。根據(jù)先例,“只要沒有被確證含有錯誤事實信息,涉及公共關(guān)切的意見就受到憲法充分保護”。換言之,舉證責任被轉(zhuǎn)移到了搜索王一邊。只要谷歌的算法沒有被“確證含有錯誤事實信息”,它就是受保護的言論。雙方第一回合交鋒就這樣以算法一方的“完勝”而告終。

        2006年,與搜索王訴谷歌案相似的蘭登訴谷歌案還通過對美國《1996年傳播風化法》(CDA)第230條豁免問題的處理,賦予了算法多一重的保護。長期以來,CDA的230條都被視為美國互聯(lián)網(wǎng)平臺和企業(yè)的“護身符”。在規(guī)制傳統(tǒng)媒體時,法院遵循的是“權(quán)利義務(wù)對等”原則,即媒體或平臺要想享受“發(fā)言者”或“出版者”的權(quán)利去管理或編輯內(nèi)容,就必須同時承擔義務(wù)——對經(jīng)過自己管理和編輯的內(nèi)容負責。報紙就是這一原則最典型的體現(xiàn)。

        但CDA的230條卻在一定程度上豁免了谷歌等平臺的義務(wù)和責任。230條(c)(2)(A)款規(guī)定:“無論是否受到憲法保護,交互式計算機服務(wù)的提供者和用戶采取行動,限制對淫穢、低俗、猥褻、粗鄙、過度暴力、使人不安或其他令人無法接受的材料的接觸時,不應(yīng)承擔責任?!蓖ㄟ^對這一條款的解讀,蘭登案法院認為谷歌等平臺進行內(nèi)容管理(“編輯”)時,無須因編輯行為而承擔責任。這使算法擁有了一種超越報紙的地位,即算法有“發(fā)言者”的權(quán)利卻不用承擔“發(fā)言者”的義務(wù)。這種法律上的優(yōu)待是前所未有的。

        算法受言論自由保護嗎?

        借用歐文·費斯“街角發(fā)言者”經(jīng)典模型,言論自由的主體要件要求站在肥皂箱上的必須是人,而不能是學舌的鸚鵡或一臺錄音機;客體要件則要求,站在箱子上的人說的必須是“話”,而不能是含混不清或意義不明的聲響。對算法是否受言論自由保護的分析,也可以圍繞主體和客體兩個要件展開。

        從言論自由的主體要件看,算法是發(fā)言者嗎?反對者認為,言論自由應(yīng)是“人”的權(quán)利。而支持者認為,人通過算法進行表達。在圍繞“主體要件”的爭論上,算法并不占優(yōu)。因而算法支持者試圖跳出算法主體資格和人格化的爭論,他們轉(zhuǎn)變策略,強調(diào)算法只是人的工具。換言之,算法當然不是人,但算法的背后是人,人需要通過算法和電腦來“說話”。經(jīng)過這種轉(zhuǎn)化,問題從“算法是否是人”變成了“人通過算法進行的表達是否算言論”。對這一關(guān)系中所包含問題的描述是:人創(chuàng)造了算法,而算法生成的結(jié)果是不是屬于言論?

        于是,算法反對者極力淡化“人”的存在,同時突出算法和機器的主動和自主性,而不是所謂隱藏在背后的人——因為背后根本就沒有人。換言之,問題只能是“算法是不是人”或“算法是不是言論自由適格的主體”,而絕不是“人能否通過算法說話”。如吳修銘所說:“程序員擁有編程的第一修正案權(quán)利,并不等于他所編的程序因此也被賦予這一憲法權(quán)利?!痹诜磳φ呖磥?,這里就是在討論“程序有沒有言論自由”,而絕非“程序員有沒有言論自由”,后一種表述是偷換概念。

        但總體而言,在有關(guān)言論自由主體資格的討論中,優(yōu)勢不在算法一邊。無論是理論還是常識,都傾向于認為“算法(或機器、電腦)不是人”從而不能享受言論自由保護。算法支持者更是看到了自己在主體資格問題上的劣勢,他們聰明地回避掉了主體問題,并把爭論逐漸引向了對客體問題——什么是言論——的討論。

        算法是言論嗎?

        接下來考察客體要件,即算法或算法生成的結(jié)果是否屬于“言論”。根據(jù)“街角發(fā)言者”模型,理論上只有同時符合主體和客體兩個要件才能受到言論自由的保護,兩者缺一不可,是并列關(guān)系。但近年來卻出現(xiàn)了這樣一種趨勢:言論自由的保護重點逐漸從保護發(fā)言者轉(zhuǎn)向保護言論。在波士頓第一國民銀行訴貝洛蒂案中,最高法院宣稱:“無論是來自公司、組織、工會還是個人,言論因可以使公眾知情而具有的價值并不依附于言論的來源?!痹诠衤?lián)盟訴聯(lián)邦選舉委員會案中,大法官斯卡利亞進一步闡明了上述立場:“第一修正案寫的是‘言論,而不是‘發(fā)言者?!?/p>

        換言之,伴隨著從“發(fā)言者”向“言論”的轉(zhuǎn)化,主體和客體要件的并列關(guān)系變成了替代關(guān)系。客體要件逐漸成為言論自由關(guān)注的中心。如果說圍繞主體要件的討論總體上是不利于算法的,客體要件的情況則正好相反。言論自由理論和實踐的發(fā)展,是站在算法這邊的。

        具體到算法是否屬于言論,爭議集中在兩點:一是認為算法的結(jié)果本質(zhì)上更接近對信息的計算、匯聚和排列,而不是傳統(tǒng)意義上的說和表達;二是算法、程序和電腦中“非人”因素是否使其喪失言論屬性。

        在搜索王案中,算法的言論自由主張之所以得到法院支持,核心就在于法院認可了“算法選擇≈報紙編輯=報紙說話≈算法說話”這一推理鏈條。在搜索引擎看來,算法對第三方內(nèi)容的抓取、排序和呈現(xiàn)就相當于報紙編輯對稿件的選擇和判斷。谷歌工程師在一些場合中就曾主張,用戶使用谷歌和他們看報紙所追求的目的是一樣的,就是沖著兩者的“編輯判斷”而來。人們看《紐約時報》和《華盛頓郵報》是沖著編輯的眼光、立場和品味;人們在使用谷歌進行搜索時,同樣是因為谷歌算法的品質(zhì)。人們視《紐約時報》刊登的內(nèi)容為《紐約時報》的言論,因為這里面體現(xiàn)了編輯對報道什么內(nèi)容、如何報道,哪些放在頭版,如何設(shè)計配圖、版式和字體等一系列問題判斷,這里面所包含的心血、勞動和主觀因素已經(jīng)足以使這些內(nèi)容變成《紐約時報》自己的言論。同樣,搜索引擎對算法的設(shè)計、編寫、優(yōu)化和運營同樣進行了大量的、主觀的投入,這同樣應(yīng)該讓算法成為“言論”。

        算法面臨的第二個障礙是,程序和電腦所包含的自動、機器和“非人”成分是否會阻卻算法言論屬性的獲得。作為回應(yīng),算法支持者這次拿來“比附”的是電子游戲。在2011年的布朗訴娛樂商人協(xié)會案中,最高法院宣布:“在將憲法適用于不斷變化的技術(shù)時,無論遇到何種挑戰(zhàn),‘言論和新聞自由的基本原則都不應(yīng)隨著新的、不同溝通媒介的出現(xiàn)而改變?!边@意味著,當新的技術(shù)或媒介出現(xiàn)時,不論它是電子游戲還是搜索引擎或算法,保護應(yīng)是常態(tài),而不受保護才是例外。最高法院認為游戲與文學、戲劇和音樂一樣,是傳播和交流觀點的新的媒介。算法支持者緊緊抓著這點,主張搜索引擎在傳播和交流觀點上要比電子游戲明顯得多。既然電子游戲已經(jīng)因此獲得保護,算法同樣應(yīng)被視為言論。

        算法在客體問題上所占據(jù)的優(yōu)勢,很大程度上并不是純粹理論和邏輯的勝利,而是源自現(xiàn)實。換言之,并非言論自由理論傾向于把算法納入保護,而是因為實踐中已經(jīng)有大量非傳統(tǒng)、非典型的表達或行為被視作“言論”,言論自由的歷史就是一部擴張的歷史,言論的內(nèi)容、形式和邊界已被極大地拓展,這種“滑坡效應(yīng)”使得算法很難被阻擋。

        強人工智能的言論

        作為算法言論自由問題的延伸,強人工智能的言論是否應(yīng)受保護同樣值得探討。強人工智能即通用型人工智能(簡稱AGI),它是相對于“專用型人工智能”等形式的弱人工智能而言,即可以勝任人類所有工作的人工智能。《終結(jié)者》和《機器姬》等科幻作品中智能和體力都不遜于甚至優(yōu)于人類的“機器人”可以算作強人工智能的一種。引發(fā)埃隆·馬斯克、霍金和Open AI等組織擔憂的、可能取代人類的,也是強人工智能。

        強人工智能言論自由爭議仍舊圍繞著“人”與“非人”展開。與算法相比,強人工智能在“人”與“非人”間可能更具張力。對絕大多數(shù)人來說,認為谷歌和百度的算法等同于說話是反直覺和反經(jīng)驗的。但當強人工智能到來那一天,一個無論外形、語言和聲音都與人類一模一樣的“機器人”與你交談,盡管其背后仍舊是算法、數(shù)據(jù)、機器和電腦,直覺和經(jīng)驗可能都會告訴你這是一個“人”在“說話”。那么,強人工智能的言論是否應(yīng)受到言論自由保護?

        今天蘋果的Siri、亞馬遜的Alexa、百度的度秘、微軟小冰和谷歌的Allo都已無限接近強人工智能。這些表達無疑要比算法、政治捐款以及很多象征性行為更像“言論”。那么,依照前文邏輯,強人工智能的言論只要能夠被證明對人類是有意義和價值的,就應(yīng)該受到言論自由保護,這將會帶給人類文明怎樣的影響呢?

        (摘自社會科學文獻出版社《超越“街角發(fā)言者”:表達權(quán)的邊緣與中心》)

        猜你喜歡
        人工智能
        我校新增“人工智能”本科專業(yè)
        用“小AI”解決人工智能的“大”煩惱
        汽車零部件(2020年3期)2020-03-27 05:30:20
        當人工智能遇見再制造
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        AI人工智能解疑答問
        人工智能與就業(yè)
        基于人工智能的電力系統(tǒng)自動化控制
        人工智能,來了
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        人工智能來了
        學與玩(2017年12期)2017-02-16 06:51:12
        欧美性xxxx狂欢老少配| 亚洲最新国产av网站| 成视频年人黄网站免费视频| 天天摸日日摸狠狠添| 国产人成亚洲第一网站在线播放 | av影院手机在线观看| 久久99精品国产麻豆不卡| 亚洲色在线视频| 亚洲日本在线中文字幕| 国产嫩草av一区二区三区| 手机看片久久国产免费| 欧美日韩亚洲国产千人斩| 久久久精品国产亚洲av网不卡| 精品亚洲国产成人av色哟哟| 欧美一区二区三区红桃小说| 国内精品一区二区2021在线| 欧美日韩亚洲成人| 男女发生关系视频网站| 在线观看日本一区二区三区四区| 无人高清电视剧在线观看| 国产在线丝袜精品一区免费| 日本一区二区三深夜不卡| 视频在线国产一区二区| 国模欢欢炮交啪啪150| 久久精品性无码一区二区爱爱| 81久久免费精品国产色夜| 领导边摸边吃奶边做爽在线观看| 亚洲综合无码一区二区| 日本国产在线一区二区| 19款日产奇骏车怎么样| 中文字幕被公侵犯的漂亮人妻| 亚洲乱码一区二区三区成人小说| 亚洲精品女人天堂av麻| 狠狠躁18三区二区一区| 乌克兰少妇xxxx做受6| 日本女优中文字幕在线观看| 乱码窝窝久久国产无人精品| 国产福利酱国产一区二区| 亚洲第一免费播放区| 日本国产精品久久一线| 欧洲熟妇色xxxxx欧美老妇伦|