亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        人工智能中的算法是言論嗎?
        ——對人工智能中的算法與言論關(guān)系的理論探討*

        2020-02-21 04:14:02陳道英
        深圳社會科學 2020年2期
        關(guān)鍵詞:言論規(guī)制法律

        陳道英

        對算法的法律規(guī)制是人工智能時代無法回避的法律問題,①鄭戈:《算法的法律與法律的算法》,《中國法律評論》,2018年第2期。而“算法是否是言論”在某種程度上成了算法規(guī)制的前置問題。②左亦魯:《算法與言論—美國的力量與實踐》,《環(huán)球法律評論》,2018年第5期。面對算法黑箱,如果消費者主張知情權(quán),作為服務(wù)提供者的企業(yè)可能會以“算法構(gòu)成商業(yè)秘密”來抗辯;但如果用戶要求服務(wù)提供者改變算法結(jié)果,或者政府要求服務(wù)提供者更改算法以滿足平等的價值要求,那么企業(yè)就可能會以“算法構(gòu)成言論”來抗辯了。應(yīng)該說,對這個問題研究最為深入的應(yīng)屬美國,而美國的主流觀點,無論是理論界還是司法判例均認為算法構(gòu)成言論。對此左亦魯博士撰文(以下簡稱“左文”)進行了詳細的介紹與論述。③左亦魯:《算法與言論—美國的力量與實踐》,《環(huán)球法律評論》,2018年第5期。面對算法黑箱,如果消費者主張知情權(quán),作為服務(wù)提供者的企業(yè)可能會以“算法構(gòu)成商業(yè)秘密”來抗辯;但如果用戶要求服務(wù)提供者改變算法結(jié)果,或者政府要求服務(wù)提供者更改算法以滿足平等的價值要求,那么企業(yè)就可能會以“算法構(gòu)成言論”來抗辯了。盡管目前來看這是一個相當有美國特色的問題,但是正如左博士所言,言論自由是各國都承認的基本人權(quán),在信息資本主義④Julie E. Cohen, The Zombie First Amendment, 56 Wm. & Mary L. Rev. 2015.的時代背景之下,任何一個國家的網(wǎng)絡(luò)服務(wù)提供者都有可能提出類似的主張。⑤左亦魯:《算法與言論—美國的力量與實踐》,《環(huán)球法律評論》,2018年第5期。面對算法黑箱,如果消費者主張知情權(quán),作為服務(wù)提供者的企業(yè)可能會以“算法構(gòu)成商業(yè)秘密”來抗辯;但如果用戶要求服務(wù)提供者改變算法結(jié)果,或者政府要求服務(wù)提供者更改算法以滿足平等的價值要求,那么企業(yè)就可能會以“算法構(gòu)成言論”來抗辯了。因此,我們有必要從理論上厘清算法與言論之間的關(guān)系,從而為“算法的法律”的構(gòu)建提供前提和基礎(chǔ)。在筆者看來,盡管“算法是言論”的觀點在美國得到了眾多支持,然而對這一觀點的論證在邏輯上是混亂的,從而導(dǎo)致結(jié)論無法成立。下面筆者就將以左亦魯博士對美國相關(guān)研究的介紹和分析為線索對算法與言論的關(guān)系進行分析,以論證算法并非言論,它不在言論自由的保護范圍之內(nèi)。

        一、算法,還是算法結(jié)果?

        美國對于算法與言論的討論主要集中在搜索結(jié)果的問題上。①對此,另一篇文章也有介紹。汪慶華:《人工智能的法律規(guī)制路徑:一個框架性的討論》,《現(xiàn)代法學》,2019年第2期。然而,正如有美國學者所指出的,搜索結(jié)果并非算法,而是算法結(jié)果。②Stuart Minor Benjamin, Algorithms and Speech, 161 U. Pa. L. Rev. 2013.在“算法是否言論”的探討中混淆了算法與算法結(jié)果,這是美國的相關(guān)研究所犯下的第一個重大錯誤。

        算法是人工智能的基石,是機器學習的活力之源,然而算法卻并非為人工智能時代所獨有。事實上,算法幾乎貫穿了人類發(fā)展的歷史。1+1=2就是最簡單的算法。只是深度學習的崛起才使得算法具有了特殊的重要性,并逐漸進入了法律的視野。從本質(zhì)而言,算法就是“為實現(xiàn)某個任務(wù)而構(gòu)造的簡單指令集”,③[美]邁克爾·西普塞:《計算理論導(dǎo)引》,段磊、唐常杰等譯,機械工業(yè)出版社,2015年,第114頁。是“為了解決一個特定問題或者達成一個明確的結(jié)果而采取的一系列步驟”。④Nicholas Diakopoulos, 3 Algorithmic Accountability, Digital Journalism, 2015.對于人工智能和機器學習而言,算法是“一種有限、確定、有效的并適合用計算機程序來實現(xiàn)的解決問題的方法”,⑤由于下文將談到的“算法權(quán)力”的存在,算法的法律規(guī)制甚至也不等同于程序或代碼的法律規(guī)制。是“基于指定計算將輸入數(shù)據(jù)轉(zhuǎn)換為期望輸出的編碼過程”。⑥Tarleton Gilespie, The Relevance of Algorithms,in T. Gilespie,P. J. Boczkowski, and K. A. Foot (eds.), Media Technologies: Esays on Communication, Materiality, And Society, The MIT Press, 2014, 167.簡單說來,算法就是一種邏輯運算,我們將數(shù)據(jù)導(dǎo)入算法,算法即輸出結(jié)果。⑦[美]佩德羅·多明戈斯:《終極算法:機器學習和人工智能如何重塑世界》,黃萬萍譯,中信出版社,2017年,第4、9頁。本文對于算法的理解同時得益于東南大學法學院人民法院司法大數(shù)據(jù)研究基地主辦的讀書會,尤其是與楊潔副研究員和張祥副教授(計算機學院)的交流,在此一并表示感謝。

        因此,算法與算法結(jié)果雖然直接相關(guān),但卻仍然存在著本質(zhì)區(qū)別。首先,算法結(jié)果更為直觀,也更接近傳統(tǒng)的法律規(guī)制對象。算法被普遍運用于我們生活的方方面面,因此算法結(jié)果的表現(xiàn)形式也多種多樣。然而無論算法結(jié)果表現(xiàn)為搜索結(jié)果,還是導(dǎo)航路線、商品推薦甚至是法律文書,它都與傳統(tǒng)的法律規(guī)制對象較為接近。從法律方法上來說,算法結(jié)果的規(guī)制大體上可以通過“類推適用”的方法來予以解決。但算法則不具有這種直觀性和相似性。作為隱藏在算法結(jié)果背后的規(guī)則集,算法對于消費者/用戶而言具有不可觸摸性和不可知性。對于算法的法律規(guī)制也很難通過“類推適用”來解決。⑧由于下文將談到的“算法權(quán)力”的存在,算法的法律規(guī)制甚至也不等同于程序或代碼的法律規(guī)制。其次, 算法是更為核心和實質(zhì)的內(nèi)容。算法決定算法結(jié)果。盡管算法結(jié)果在作為“提供給消費者的商品/服務(wù)”的意義上也是重要的,但算法本身才是企業(yè)的核心競爭力之所在。只有掌握了高超的算法,才能運行出滿足消費者需求的算法結(jié)果。是算法,而不是算法結(jié)果與企業(yè)的根本利益直接相連。也正因為此,雖然消費者更傾向于針對算法結(jié)果提出法律上的訴求,例如更改搜索結(jié)果,或者獲得與他人一樣的酒店房間報價,但企業(yè)卻更傾向于針對算法本身主張權(quán)利,如主張算法屬于商業(yè)秘密或言論。再次,算法從某種程度來說是人工智能社會的“法律”,算法結(jié)果則是這些規(guī)則作用的結(jié)果(“法律后果”)。算法與法律具有較高程度的類似性:算法是一種規(guī)則集,而法律也是一種調(diào)整人們行為與社會關(guān)系的、具有強制執(zhí)行力的社會規(guī)則。⑨有學者專門撰文談到了算法與法律的異同。蔣舸:《作為算法的法律》,《清華法學》,2019年第1期。相應(yīng)的,算法也能產(chǎn)生某種與法律類似的效果—影響(規(guī)制)人們的行為。①用馮象教授的話來說,算法構(gòu)成了“硬規(guī)則”,因為人類無法與之討價還價,除了服從之外只有不使用這一算法的服務(wù)一途。當然,算法與法律也具有較大的區(qū)別,這種區(qū)別主要在于算法具有封閉性、不公開性,并且是價值無涉的。②蔣舸:《作為算法的法律》。最后,對于法律而言,更為重要的是對于算法的規(guī)制。算法之所以會進入法律的視野,一方面固然是因為某些算法結(jié)果涉嫌侵犯了消費者/用戶的權(quán)益,如隱私權(quán)、平等權(quán)等,而要改變算法結(jié)果就必須對算法進行調(diào)整,另一方面,也是更重要的,卻是因為“算法權(quán)力”。上文已經(jīng)提到過,算法不具有公開性,因此它表現(xiàn)出了極強的壟斷性、強制性以及封閉性。更重要的是,在大數(shù)據(jù)時代,人甚至成了算法眼中的客體,成為了喂養(yǎng)人工智能產(chǎn)品的大數(shù)據(jù)的生產(chǎn)者。③鄭戈:《算法的法律與法律的算法》。而算法權(quán)力盡管表面上是技術(shù)權(quán)力,實際上背后是資本權(quán)力。④陳鵬:《算法的權(quán)力:應(yīng)用與規(guī)制》,《浙江社會科學》,2019年第4期。如何保證這種權(quán)力的使用符合憲法和法律確立的價值和原則,是我們當下迫切需要解決的問題。

        總之,算法與算法結(jié)果在性質(zhì)上存在重要區(qū)別,“算法結(jié)果是否是言論”的命題與“算法是否是言論”的命題不具有等同性。同時,由于算法結(jié)果的呈現(xiàn)形式和內(nèi)容豐富多變,一個一個去探討算法結(jié)果是否是言論、能否規(guī)制意義不大。只有著眼于算法本身才是解決問題之道。具體到本文的議題,更為重要的是算法是否是言論,而非算法結(jié)果是否屬言論。

        二、美國三種進路的邏輯瑕疵

        根據(jù)左文的介紹,美國在處理搜索結(jié)果是否屬言論的問題上從判例層面而言主要采取了“排序即意見論”和“編輯論”兩種進路。⑤同時,這兩種進路由于都是從言論的本質(zhì)入手,因此都是屬于本質(zhì)主義進路。左亦魯:《算法與言論—美國的力量與實踐》。另外,從理論層面來看,美國第一條修正案從言者利益到聽者利益的保護轉(zhuǎn)向使得人們更傾向于從言論的內(nèi)容和價值來做出言論自由的判斷,主體不再是認定言論的障礙,這也就形成了所謂的“實用主義進路”。這三種進路盡管具體的論證思路不同,但都主張搜索結(jié)果構(gòu)成言論,進而得出結(jié)論認為算法構(gòu)成言論。如上所述,搜索結(jié)果屬于算法結(jié)果,而“算法結(jié)果是否是言論”并不等同于“算法是否是言論”。然而,即使拋開這一重大瑕疵不談,這三種進路也仍然是無法成立的。下面,筆者就將對這三種進路逐一進行分析,并同時探討它們在算法的問題上是否能夠成立。

        (一)排序即意見論在Search King案中,俄克拉荷馬州地區(qū)法院認定網(wǎng)頁排名是一種意見。⑥Search Kingv. Google Tech., Inc., No. CIV-02-1457-M, 2003 WL 21464568 (W.D. Okla. May. 27, 2003),4.從此,排名即意見論產(chǎn)生了重要的影響,甚至有學者認為該進路是搜索引擎在言論自由主張上所有進路中的最優(yōu)解,因為它直接對搜索結(jié)果本身是否構(gòu)成言論作出了判斷。⑦相應(yīng)的,編輯論僅僅說明了搜索結(jié)果具有“言論利益”。Oren Bracha, The Folklore of Informationalism: The Case of Search Engine Speech, 82 Fordham L. Rev. 2014.下面筆者就將對這一進路進行集中分析。

        俄克拉荷馬州地區(qū)法院在Search King案中明確指出算法結(jié)果(網(wǎng)頁排序)是主觀的,它反映了谷歌對于某一網(wǎng)頁相對于用戶搜索要求的相關(guān)性的觀點。①Oren Bracha, The Folklore of Informationalism: The Case of Search Engine Speech.同樣的,有學者認為搜索結(jié)果對于用戶而言除了具有表層含義(denotation),即網(wǎng)頁信息外,還有深層含義(connotation),那就是在特定搜索指令的語境中關(guān)于所列出來的網(wǎng)站(搜索結(jié)果)與用戶的實際要求之間相關(guān)度(relevance)的建議,由此對搜索結(jié)果的排序也就體現(xiàn)了搜索引擎一定的觀點和意見。②Oren Bracha, The Folklore of Informationalism: The Case of Search Engine Speech.既然搜索結(jié)果傳達了搜索引擎的實質(zhì)信息,而這一信息也能夠為用戶有效的接收到,那么還有什么理由認為搜索結(jié)果(網(wǎng)頁排名)不構(gòu)成言論呢?③Stuart Minor Benjamin, Algorithms and Speech.

        然而,排序真的是意見嗎?要回答這個問題,我們就必須先了解搜索引擎的工作原理。

        盡管搜索引擎是響應(yīng)于用戶的搜索指令、并以網(wǎng)頁爬蟲爬取萬維網(wǎng)上所有含有搜索關(guān)鍵詞的網(wǎng)頁信息并呈現(xiàn)于用戶眼前,然而搜索引擎對搜索結(jié)果的呈現(xiàn)卻不是雜亂無章的,而是由每一個搜索引擎獨特的算法決定的排序標準進行的有序呈現(xiàn)—這也就是網(wǎng)頁排名。在Search King案發(fā)生的時代,谷歌所使用的算法就是PageRank。而PageRank最核心的理念就是根據(jù)指向目標網(wǎng)頁的鏈接(包括數(shù)量以及質(zhì)量,例如被更高等級的網(wǎng)頁鏈接)來決定網(wǎng)頁的相關(guān)度和排名。當然,谷歌所使用的算法絕不僅僅只有PageRank,除了鏈接外谷歌還會分析相關(guān)關(guān)鍵字在某個網(wǎng)頁上的出現(xiàn)頻率和顯示位置、網(wǎng)頁的用戶滿意度(在類似搜索中受用戶青睞的程度)等,并且針對使用Term Spam等作弊方法獲得靠前排名的網(wǎng)頁改進算法從而盡量將其移除。④“搜索算法的工作方式”,https://www.google.com/search/howsearchworks/algorithms/,2019年6月14日訪問。

        從以上工作原理出發(fā),筆者認為搜索排序很難說構(gòu)成意見。首先,搜索排序并非主觀的而是客觀的。從谷歌的搜索排序算法工作原理可以發(fā)現(xiàn),其排序是由鏈接數(shù)、高排名網(wǎng)頁鏈接數(shù)、關(guān)鍵詞出現(xiàn)頻率和顯示位置、類似搜索中受用戶青睞度等數(shù)據(jù)決定的。從本質(zhì)來說,搜索排序如同“3+3=6”一樣是由客觀條件觸發(fā)的唯一結(jié)果。相反,言論自由所保護的主觀“意見”必須反應(yīng)言者的價值判斷和主觀心理活動,它是無法由客觀標準和算式導(dǎo)出的。比如張三說:“冬季的星空比夏季的星空更美?!边@就是一個與客觀標準無關(guān)的主觀“意見”。盡管有學者辯稱搜索排名是“描述性的意見”(descriptive opinion),是兼具客觀性和主觀性的,⑤James Grimmelmann, Search Engines, 98 Minn. L. Rev. 2014. 這里所說的描述性意見中的主觀性是指它表達的是雖然并未得到世人公認但是言者自己卻相信的事情,例如播報天氣預(yù)報。然而,播報天氣預(yù)報與搜索結(jié)果仍然是具有重要區(qū)別的:天氣預(yù)報員對于播報內(nèi)容的“相信”具有主觀因素,例如基于對權(quán)威數(shù)據(jù)或?qū)<业男欧?,因而?nèi)在的確信自己播報的內(nèi)容是正確的,但搜索結(jié)果卻不具備這種主觀的“相信”—搜索結(jié)果是由算法決定的,無論谷歌是否“相信”,它都只能呈現(xiàn)那唯一一個由算法所產(chǎn)生的搜索結(jié)果。因此筆者并不贊同Grimmelmann有關(guān)搜索結(jié)果是“描述性意見”的觀點。搜索結(jié)果就是客觀的,不具有主觀性。但是且不論這種觀點能否成立,如同下文將要論述的,即使該觀點成立,該學者所認為的搜索排名中的主觀性也是虛假的。其次,即使承認搜索排序反映了一定的觀點,那也不是谷歌的觀點,而是谷歌所認為的用戶的觀點。無論谷歌的算法如何演進,其核心目的都只有一個—將盡量契合用戶搜索要求的網(wǎng)頁呈現(xiàn)給用戶。而谷歌之所以能夠打敗其他的搜索引擎脫穎而出也在于以PageRank為首的算法能夠更好的做到這一點。從這一角度來說,并非谷歌認為網(wǎng)頁排序與用戶的搜索需求最具有相關(guān)性,而是谷歌通過算法預(yù)測用戶會認同搜索結(jié)果排序與其搜索需求最具有相關(guān)性。谷歌搜索排名算法會依據(jù)用戶滿意度對排名進行調(diào)整就足以說明問題。簡言之,谷歌并沒有自己的觀點,它也不能將自己的觀點強加于用戶。很簡單,如果谷歌將不符合用戶預(yù)期的搜索結(jié)果硬塞給用戶,用戶有很大的可能性會轉(zhuǎn)向其他的搜索引擎。最后,正如有學者指出的,如果排序即意見能夠成立的話,那么幾乎所有的社會、經(jīng)濟活動都將能成立為言論。①Oren Bracha, The Folklore of Informationalism: The Case of Search Engine Speech。東南大學法學院的楊潔副研究員與徐珉川副研究員提醒筆者注意:超市物品在貨架上的擺放順序與谷歌搜索結(jié)果排名具有高度相似性,而前者顯然不能主張構(gòu)成意見。在此對兩位老師表示感謝!如果谷歌能夠主張搜索結(jié)果是它對于某一網(wǎng)頁相對于用戶搜索要求的相關(guān)性的觀點,那超市是不是也能夠主張給商品定高價是它對于商品價格的觀點、理發(fā)師是不是也能夠主張?zhí)旯忸櫩偷念^發(fā)是對顧客發(fā)型的觀點?如此,言論自由將不再有實質(zhì)性的邊界,政府對社會經(jīng)濟活動的規(guī)制也都將受挫。

        而在算法的問題上排名即意見論更是無能為力。俄克拉荷馬州地區(qū)法院在該案中從一開始就將算法與算法結(jié)果區(qū)分開來了:法官們認為算法是客觀的,并不構(gòu)成意見。因此無論排序是否意見,這一進路都無助于直接解決算法是否言為論的問題。

        (二)編輯論谷歌公司(通過Volokh和Falk)主張,搜索引擎公司并非簡單地將搜索結(jié)果放到網(wǎng)頁上,而是要對搜索結(jié)果進行挑選、編排,如同紐約時報對新聞報道進行編輯一樣,因此搜索結(jié)果應(yīng)該受到第一條修正案的保護。②Eugene Volokh & Donald M. Falk, First Amendment Protection for Search Engine Search Results, 23 No. 1 Competition: J. Anti. & Unfair Comp. L. Sec. St. B. Cal. 112 (2014).這一主張也得到了法院的認同。③例如左文中提到的Langdon v. Google, 474 F. Supp. 2d 622, 629 (D. Del. 2007)和Zhang v. Baidu, 10 F. Supp. 3d 433 (S.D.N.Y. 2014).對于谷歌而言,這的確是一種聰明并且有效的訴訟策略。但是編輯論是否足以證明算法(結(jié)果)是言論、甚至搜索結(jié)果是言論呢?筆者認為答案仍然是否定的。

        1.編輯論不能普遍適用于算法結(jié)果。即使編輯論能夠成立,這一進路也只能證明構(gòu)成編輯的算法結(jié)果是言論,而對于其他的算法結(jié)果卻是無能為力的。事實上,能以編輯論辯護的算法結(jié)果只有搜索結(jié)果。然而,除了搜索引擎之外,算法的運用是極為廣泛的,④佩德羅認為算法幾乎涉及我們生活的方方面面、分分秒秒。[美]佩德羅·多明戈斯:《終極算法:機器學習和人工智能如何重塑世界》,第3頁。它們產(chǎn)生的結(jié)果卻往往是編輯論無法為之辯護的。

        2.編輯論更不適用于算法。究其實質(zhì),算法是一套指令集,是一種撰寫程序的方法和思路,它并不會“不可避免的要做出編輯判斷”,也不需要決定哪些內(nèi)容應(yīng)被納入以及“如何和在哪里呈現(xiàn)信息”。算法并不能被類比為編輯,因此編輯論也無法為算法辯護。

        3.搜索引擎也并未進行編輯。首先,谷歌在判例中就經(jīng)常強調(diào)自己對于內(nèi)容生產(chǎn)的抽離來逃脫法律責任。對于由于搜索結(jié)果而產(chǎn)生的侵權(quán)賠償訴訟請求,谷歌通常以侵權(quán)內(nèi)容并非由自己產(chǎn)生、自己只是通過爬蟲來爬取互聯(lián)網(wǎng)上已經(jīng)存在的內(nèi)容為由主張侵權(quán)責任不成立。⑤Oren Bracha, The Folklore of Informationalism: The Case of Search Engine Speech.要言之,谷歌認為自己更接近AT&T這樣的通訊管道,而非內(nèi)容生產(chǎn)者。其次,CDA§230規(guī)定了谷歌這樣的網(wǎng)絡(luò)服務(wù)提供者原則上的責任豁免,而責任的豁免就說明了谷歌與報社在性質(zhì)上存在重大區(qū)別—報社、出版商之所以應(yīng)對并非由自己產(chǎn)生的內(nèi)容承擔法律責任就是因為它們對于自己的記者或作者的作品具有一種“確定的利益”(vested interests),因此將報社、出版商與記者、作者視為一體具有充分理由和基礎(chǔ)。①Jack M. Balkin, The Future of Free Expression in a Digital Age, 36 Pepp. L. Rev. 2009; Jack M. Balkin, Old-School/New-School Speech Regulation, 127 Harv. L. Rev. 2014.CDA§230說明了這種一體化是谷歌所不具備的,從而說明了谷歌所謂的“對內(nèi)容的取舍和編排”至少遠未達到報紙編輯的地步。最后以及最重要的是,報紙的編輯是從內(nèi)容的角度對報道進行取舍和編排,而這種取舍和編排也從另一個層面賦予了報紙新的內(nèi)容(表達)。②Oren Bracha, The Folklore of Informationalism: The Case of Search Engine Speech. Oren Bracha還認為報紙的編輯同時也是對報道內(nèi)容的背書,讀者傾向于將讀到的內(nèi)容視同為報紙的觀點,而這在搜索結(jié)果上也是不成立的。所以即使同是對時事的報道,《紐約時報》也絕不會被人們與《華盛頓郵報》混同,《朝日新聞》與《讀賣新聞》展現(xiàn)的也是兩種截然不同的風格。但是無論谷歌的算法倚重的是怎樣的參數(shù),那都不會是源網(wǎng)頁的內(nèi)容,而只會是鏈接數(shù)、點擊量等與內(nèi)容無關(guān)但卻能為機器所理解的參數(shù);除特例外,③比如,應(yīng)用戶要求移除特定的搜索結(jié)果。Google Spain SL v. Agencia Espanola de Proteccion de Datos, Mario Costeja Gonzalez, 2014 E.C.R. 317.它也不會對爬取到的內(nèi)容進行取舍—只要用戶有足夠的耐心,就能看到所有搜索結(jié)果。因此,搜索結(jié)果與報紙編輯存在重大區(qū)別,不可同日而語。

        (三)實用主義進路實用主義進路認為,只要能產(chǎn)生更多的對人類有價值的信息,這種活動就構(gòu)成言論,不論其主體為何。④左亦魯:《算法與言論—美國的力量與實踐》。必須承認,實用主義進路如果能夠成立,對于論證算法構(gòu)成言論無疑是極為有利的。然而,由于實用主義進路本身存在諸多瑕疵,因此歸根究底這一進路也是無法成立的。

        第一,邏輯上有瑕疵。從邏輯證成的角度來說,正命題成立,反命題不一定成立。即使我們承認言論自由的要義在于更多的對人類有價值的信息,也不能由此推出它的反命題—只要能產(chǎn)生更多的對人類有價值的信息就是言論。例如化石蘊含著巨大的對人類有價值的信息,但化石就并非言論;自動駕駛汽車終端收集的大量數(shù)據(jù)也能產(chǎn)生對人類有價值的信息,但它們是否構(gòu)成言論至少也是存在爭議的。況且,即使言論自由的保護重點發(fā)生了轉(zhuǎn)向,但這也并不意味著“言者的利益”對于言論自由而言就是無足輕重的了。第二,論證過于匆忙。的確,美國現(xiàn)代言論自由表現(xiàn)出了從對言者的保護到對聽者的保護的轉(zhuǎn)向,“更多的言論”也是諸多現(xiàn)代國家言論自由的著眼點。但能否由此得出結(jié)論認為“言論自由對主體資格不作要求”呢?至少,這一學說的倡導(dǎo)者也承認,聯(lián)邦最高法院從未這樣說過。⑤Toni Marie Massaro, Helen L. Norton and Margot E. Kaminski, SIRI-OUSLY 2.0: What Artificial Intelligence Reveals about the First Amendment, 101 Minnesota Law Review, 2017.的確,聯(lián)邦最高法院承認“法人”等法律擬制的“人”享有言論自由,⑥秦前紅、陳道英:《公司法人的言論自由—美國言論自由研究領(lǐng)域中的新課題》,《法商研究》,2005年第3期。但是從“法律擬制的人享有言論自由”到“言論自由對主體資格不作任何要求”也仍然是一個巨大的跨越,需要周密的論證。畢竟,我們不能排除這樣一種可能性:言論自由主體具有權(quán)利主體資格是一個默認的公理,即使在言論自由的保護轉(zhuǎn)向中它也構(gòu)成了言論自由認定的前提條件而無需多言。第三,與司法實踐相悖。實際上,美國的司法實踐顯示“人”的主體性在言論自由的認定上可能是必要的。盡管美國的法院在有關(guān)搜索結(jié)果的案件中未論及主體的問題,但是在討論“數(shù)據(jù)是否構(gòu)成言論”的案件中卻已經(jīng)明確指出:由機器自動產(chǎn)生、沒有人為因素參與其中的數(shù)據(jù)不是言論,因為成立言論需要信息的雙向交流,而在機器自動記錄和產(chǎn)生數(shù)據(jù)的場合卻是不存在作者的,因為機器是無意識的。①Jane Bambauer, Is Data Speech?, 66 Stan. L. Rev., 2014.從這個邏輯出發(fā),對于言論自由的成立而言,“人”的主體性就是必要的。第四,從法理的角度出發(fā),權(quán)利主體資格問題不應(yīng)一帶而過。這一進路倡導(dǎo)者的目的是證明AI享有言論自由,而從法理的角度來看,這一論點與AI的法律主體資格是直接相聯(lián)的。法律應(yīng)如何規(guī)制AI是一個非常復(fù)雜而前沿的問題,②[意大利]烏戈·帕加羅:《誰為機器人的行為負責?》,張卉林、王黎黎譯,上海人民出版社,2018年。如果要證明AI享有憲法權(quán)利,那么就必須解決AI權(quán)利主體資格的問題。相較而言,實用主義進路采取了一種近乎投機取巧的方法,從理論層面而言是存在重大瑕疵的。③需要指出的是,具體到算法是否構(gòu)成言論的問題上,AI享有言論自由卻不是它的大前提。左文也談到,“算法即言論”的支持者指出,算法體現(xiàn)了人的主觀判斷,其實質(zhì)是人借助算法來“說話”。由此,筆者認為主體在算法是否言論的問題上就已經(jīng)不成其為問題。遺憾的是,左文反而以“優(yōu)勢不在算法一方”為由輕易的打發(fā)了這一觀點。第五,高度依賴美國憲法文本。這一進路的倡導(dǎo)者之所以得出“主體在言論自由上不成問題”的結(jié)論,一個非常重要的論據(jù)就是美國的憲法文本:美國憲法第一條修正案僅僅對國會做出了否定性/消極性的規(guī)定(“國會不得指定法律……剝奪言論自由”),而并未對言論自由主體做出任何規(guī)定。④Toni Marie Massaro, Helen L. Norton and Margot E. Kaminski, SIRI-OUSLY 2.0: What Artificial Intelligence Reveals about the First Amendment, 101 Minnesota Law Review, 2017.不能不說,這一結(jié)論即使成立也是高度依賴美國憲法文本的。由于我國憲法第35條明確規(guī)定了“中華人民共和國公民享有言論……的自由?!雹萦袑W者從憲法第33條第3款與第35條關(guān)系的角度論述過外國人是否構(gòu)成第35條規(guī)定的諸項權(quán)利主體的問題。柳建龍:《論基本權(quán)利競合》,《法學家》,2018年第1期。但無論結(jié)論為何都不會阻礙本文觀點的成立。因此,實用主義進路在我國是難以成立的。

        需要指出的是,我們在討論“算法是否言論”時必須分清主體與客體。無論主張算法是否為言論,算法都是客體而不是主體,產(chǎn)生算法的人或機器⑥機器學習能夠把數(shù)據(jù)轉(zhuǎn)換成為算法。[美]佩德羅·多明戈斯:《終極算法:機器學習和人工智能如何重塑世界》,第9頁。才是主體。只有當我們討論的是“算法結(jié)果是否是言論”時,算法才有可能構(gòu)成主體。然而,正如算法即言論的支持者所指出的,至少在當下算法仍然受到了人的極深的影響與控制,因此在這里真正構(gòu)成主體的還是撰寫和控制算法的人。⑦左亦魯:《算法與言論—美國的力量與實踐》。實用主義進路在算法是否為言論的討論上真正具有價值的就只有“只要能產(chǎn)生更多的對人類有價值的信息就是言論”這一論點。上文已經(jīng)指出實用主義推導(dǎo)出這一結(jié)論的過程存在邏輯錯誤,在下文中筆者還將進一步從內(nèi)容上對這一論點進行批判性分析。

        三、限縮主義進路:算法非言論

        上文的分析表明了美國的三種進路都不能證明算法構(gòu)成言論。盡管左亦魯博士認為在算法與言論的關(guān)系問題上本質(zhì)主義基本上是失敗的,⑧左亦魯:《算法與言論—美國的力量與實踐》。但是筆者認為,要回答算法是否言論的問題,從言論的本質(zhì)出發(fā)是唯一能夠得出富有說服力的結(jié)論的路徑。美國的本質(zhì)主義進路之所以未能對算法是否言論的問題做出令人信服的解答,是因為美國對于“言論是什么”的回答本身是存在問題的。美國本質(zhì)主義的代表—表達性進路最大的弊端就在于在第一條修正案擴張主義的背景下將會無限的混同言論與非言論,①左文也指出了美國之所以普遍對算法是否言論作出肯定回答與第一條修正案擴張主義脫不了干系。左亦魯:《算法與言論—美國的力量與實踐》。因為“在人類的每一項行為中都有可能發(fā)現(xiàn)某種表達的核心(some kernel of expression)”。②City of Dallas v. Stanglin, 490 U.S. 19, 25 (1989).根據(jù)左文的觀點,本質(zhì)主義在“算法是否言論”的問題上需要回答兩個子問題:(1)主體是否適格;(2)客體是否適格。③左亦魯:《算法與言論—美國的力量與實踐》。關(guān)于主體問題上文已經(jīng)論述過,此處不再贅述。下面,筆者就將拋開美國的表達性進路,從限縮主義進路出發(fā)就客體是否適格的問題對算法展開分析。④筆者將另撰文對美國的表達式進路存在的問題以及本文所主張的限縮主義進路進行相信闡述,故本文對這一部分將僅做簡要的觀點介紹。

        綜合考慮表達性進路的優(yōu)、缺點以及我國的憲法文本、法律資源,筆者認為在言論自由的規(guī)范領(lǐng)域上應(yīng)采如下觀點為宜。首先,應(yīng)采取“表達性+目的性”雙重審查基準,即在判斷某一活動是否言論時應(yīng)考察:(1)該活動的主要目的是否意圖傳遞某種信息;(2)該信息是否能夠為該活動的受眾有效接收到;(3)政府規(guī)制所影響到的利益是否為言論自由條款所保護的利益,或者該活動是否有助于言論自由條款的制定目的的實現(xiàn)。并且,對于第1點中“主要目的”的判斷應(yīng)以該活動的受眾的判斷為準,第2點中的“有效接收”則要求在信息的傳遞者與接受者之間不能就信息的內(nèi)容發(fā)生重大誤解。其次,應(yīng)堅持言論與非言論的基本區(qū)分,在象征性行為的認定上秉持最小限度原則;當構(gòu)成基本權(quán)利競合的時候,應(yīng)遵循特別法優(yōu)于一般法的原則。最后,更為重要的是,在“言論”的認定上應(yīng)始終保持謹慎的態(tài)度,對其范圍予以適當限縮而不宜擴張。

        而依此限縮主義進路來分析,算法不能構(gòu)成言論。首先,算法欠缺有效的表達性。有效的表達性要求在言者與受眾之間能夠形成信息的回路、發(fā)生信息的有效傳遞與反饋、形成觀點的碰撞與交流。然而在算法與其受眾之間不存在這樣的信息傳遞與交流。上文談到過,算法在某種程度上類似法律。法律具有日常生活意義上的表達性,但不具有限縮主義進路所說的“有效表達性”,因為法律的主要目的不在于交流,而在于規(guī)制;法律調(diào)整人們的行為,決定權(quán)益的分配,但人們對于法律卻只能遵守,除非他(她)決意付出違法所應(yīng)付出的代價。算法同樣如此。算法的主要目的在于實現(xiàn)既定的功能,而非與用戶進行交流;算法同樣調(diào)整人們的行為,決定權(quán)益的分配,用戶對于算法同樣也只能遵守,除非他(她)決意放棄使用這一產(chǎn)品或服務(wù)。我們不會主張法律構(gòu)成言論,算法也同樣不構(gòu)成言論。當用戶甚至可能都不知道算法的存在,當用戶對于算法除了接受別無討價還價的余地,又如何能說在二者之間存在有效的交流呢?算法如果在說話,那也是對專業(yè)人士,對它的締造者和控制者,而不是對它的受眾。其次,算法的規(guī)制與言論自由條款的制定目的無關(guān)。對于言論自由條款的制定目的應(yīng)采取比較寬泛的理解,而不應(yīng)僅僅從政治自由的角度去進行理解。具體而言,筆者認為憲法之所以規(guī)定言論自由是出于一種復(fù)合的目的,它不僅是在于促進民主,同時也意圖促進信息的自由流動、個人的人格自主以及更好的追求真理。但其中,促進民主構(gòu)成了言論自由條款制憲目的的核心內(nèi)容。而政府規(guī)制算法的目的與上述目的均無關(guān)系。算法進入法律的視野是從它違背法律的基本原則、侵犯消費者的權(quán)益開始的。法律之所以要規(guī)制算法,是為了“解決算法所帶來的主體性流失、權(quán)利損害和歧視問題”。⑤鄭戈:《算法的法律與法律的算法》。從這個角度來看,或許在某種程度上,政府對算法的規(guī)制反而能夠促進上述目的的實現(xiàn)。第三,認定算法為言論違反理性人的判斷。限縮主義進路認為,從我國憲法和法律出發(fā),應(yīng)該堅持言論與非言論的基本區(qū)分,秉持謹慎的態(tài)度來界定“言論”。當某一活動在是否應(yīng)被認定為言論上存在較大的疑慮—與普通人的常識相違背、與“理性人”的判斷相左或與司法實踐傳統(tǒng)做法不一致時,就不應(yīng)認定其構(gòu)成言論。雖然理性人的判斷不能完全決定一項活動是否構(gòu)成言論,但是在回答一項并非屬于傳統(tǒng)“言論”范圍的活動是否構(gòu)成言論時,理性人的判斷仍然能夠為我們提供重要指引。認定算法為言論即與普通人的常識相違背,不符合理性人的判斷。第四,即使從促進信息自由流動的角度出發(fā)也不能證明算法是言論。應(yīng)當承認,言論自由的價值除了在于促進民主、增進自我實現(xiàn)與有助追求真理外,也在于促進信息的自由流動。在大數(shù)據(jù)時代,接近(access to)信息的自由甚至可能在更大程度上成為言論自由的要義。①Julie E. Cohen, The Zombie First Amendment, 56 Wm. & Mary L. Rev. 2015.然而,一方面,如上文所分析的,從上述命題并不能倒推證明“能產(chǎn)生更多信息的活動都是言論”;另一方面,言論的本質(zhì)在于信息的雙向流動和有效傳遞,在于言者與受眾之間的觀點碰撞與信息交流,而并不單純等同于“更多的信息”。信息在量上的增加本身意義是有限的。身處于信息時代,現(xiàn)代人的煩惱往往并不是信息太少,而是信息太多。②今天互聯(lián)網(wǎng)的信息量已經(jīng)躍至ZB級別(1ZB=1024 EB, 1EB=1024PB, 1PB=1024TB, 1TB=1024GB)。“更多的信息”只是表象,言論自由真正要求的是在獲得與傳播信息上不受阻擾、通過充分的信息獲得對公共問題的全面真實的認識,從而為觀點的形成與交換奠定基礎(chǔ)。

        四、結(jié)語

        人類社會正處在強人工智能時代到來的前夜。深度學習、神經(jīng)網(wǎng)絡(luò)、無監(jiān)督學習等技術(shù)已經(jīng)并且還將更加劇烈的改變我們的生活乃至社會結(jié)構(gòu)。而算法的法律規(guī)制正是法律對這一系列變革做出的核心回應(yīng)之一。當下我們在法律上對于技術(shù)所做出的每一個回應(yīng)都將成為搭建強人工智能社會的磚石,因此務(wù)必謹慎,并且保持長遠的和全局的眼光。具體到算法是否為言論的問題上,不同的回答在很大程度上決定了政府是否有權(quán)力對算法進行法律規(guī)制。作為最重要的基本人權(quán)之一,言論自由要求對其規(guī)制的法律滿足最為嚴苛的檢驗標準,所以一旦認定算法構(gòu)成言論,也就在很大的程度上排除了政府對算法的規(guī)制。這就相當于承認了由企業(yè)所掌控的算法權(quán)力基本上是不受法律約束的。鑒于算法權(quán)力背后所隱藏的資本暴政以及對“人”的客體性看待,這絕對不是一個明智的決定。言論自由不是資本的言論自由,而是人的言論自由。無論如何,必須以法律約束算法以保證其不違背人性尊嚴、平等權(quán)以及憲法和法律所確立的各項價值與原則的要求。

        猜你喜歡
        言論規(guī)制法律
        重要言論
        重要言論
        主動退市規(guī)制的德國經(jīng)驗與啟示
        南大法學(2021年4期)2021-03-23 07:56:10
        法律解釋與自然法
        法律方法(2021年3期)2021-03-16 05:57:02
        他們的言論
        智族GQ(2019年12期)2019-01-07 09:08:57
        保護與規(guī)制:關(guān)于文學的刑法
        刑法論叢(2018年4期)2018-05-21 00:44:30
        論《反不正當競爭法》的規(guī)制范疇
        法治研究(2016年4期)2016-12-01 03:41:40
        讓人死亡的法律
        山東青年(2016年1期)2016-02-28 14:25:30
        “互助獻血”質(zhì)疑聲背后的法律困惑
        讓法律做主
        浙江人大(2014年5期)2014-03-20 16:20:27
        中文无码一区二区三区在线观看| 好看的国内自拍三级网站| 干出白浆视频在线观看| 国产午夜av秒播在线观看| 中文字幕日本特黄aa毛片| 国产v综合v亚洲欧美大天堂| 国产熟妇一区二区三区网站| 亚洲最大水蜜桃在线观看| 国产成熟人妻换╳╳╳╳| 国产成人啪精品午夜网站| 蜜桃视频高清在线观看| 国产亚洲自拍日本亚洲| 亚洲av最新在线网址| 加勒比无码专区中文字幕| 中文字幕一区二区在线看| 久久久久99精品成人片欧美 | 久久黄色国产精品一区视频| 国产成人一区二区三区| 国产婷婷丁香久久综合| 国产精品又黄又爽又色| 亚洲深深色噜噜狠狠网站| 日出水了特别黄的视频| 中文乱码字幕高清在线观看| 亚洲一区二区懂色av| 免费看又色又爽又黄的国产软件| 亚洲人成网站在线观看播放| 在线观看极品裸体淫片av| 富婆猛男一区二区三区| 疯狂撞击丝袜人妻| 三级国产女主播在线观看| 天堂一区二区三区精品| 国产午夜福利久久精品| 精品2021露脸国产偷人在视频| 亚洲一区二区三区一站| 国产18禁黄网站免费观看| 秋霞午夜无码鲁丝片午夜精品| 国产精品原创永久在线观看 | 亚洲av无码无线在线观看| 久久久www成人免费无遮挡大片| 亚洲高清精品50路| 97超碰国产成人在线|