亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        風險防范下算法的監(jiān)管路徑研究

        2018-04-14 13:55:58張凌寒
        交大法學 2018年4期
        關鍵詞:監(jiān)管算法用戶

        張凌寒

        一、 問題的提出: 假新聞事件凸顯算法監(jiān)管緊迫性

        2016年Facebook遭到社會廣泛指責,認為其造成了假新聞泛濫進而對本屆美國總統(tǒng)選舉產生了巨大影響。[注]Facebook 假新聞影響選舉的指責,從2016年 9 月就開始被多次報道。2016年11 月 11 日,美國《財富》雜志刊文指責 Facebook 稱,盡管 Facebook 沒有散播慫恿選民投票支持特朗普的新聞,但是 Facebook上流傳著關于美國政治虛假的小道消息使得選舉的天平向特朗普傾斜?!逗辗翌D郵報》也放出調查報道稱,Facebook熱門話題板塊上針對希拉里的謠言數量尤為突出,并借此質疑 Facebook 對這類謠言的整治不力?!都~約雜志》也發(fā)文稱,數千萬的 Facebook 用戶都有預謀或者情緒性地分享了針對希拉里的虛假新聞。此外,紐約大學新聞系教授 Jay Rosen、社會學家 Zeynep Tufekci、尼曼新聞實驗室負責人 Joshua Benton 也在近日分別撰文稱,希拉里敗選與 Facebook 上傳播的虛假消息關系密切。參見《美國主流媒體與扎克伯格激辯: Facebook 的假新聞到底幫沒幫特朗普勝選?》,載搜狐網(http://it.sohu.com/20161114/n473138951.shtml,最后訪問時間2018-02-25)。然而,2017年數項研究成果顯示,Facebook上的假新聞數量僅有1%而已。[注]史安斌、王沛楠: 《作為社會抗爭的假新聞——美國大選假新聞現象的闡釋路徑與生成機制》,載《新聞記者》 2017 年第6期,第 4~12頁。原因在于,算法主宰了社交媒體對用戶的新聞投放,其推送標準是用戶的點擊率和轉發(fā)率而非新聞的真實性。因此頗具噱頭的假新聞被用戶高頻點擊或轉發(fā),并進一步被算法推送而廣泛傳播。

        美國大選中的假新聞事件引起了對算法如何進行監(jiān)管的關注和憂慮。算法已經主導和控制了社交媒體上的信息傳播。如《紐約時報》數字版使用“非常前沿和復雜的算法”挑選文章推送,將用戶點擊率提高了38倍。[注]Shan Wang: The New York Times Built a Slack Bot to Help Decide Which Stories to Post to Social Media(AUG. 13, 2015)(http://www.niemanlab.org/2015/08/the-new-york-times-built-a-slack-bot-to-help-decide-which-stories-to-post-to-social-media/,最后訪問時間2017-03-20)。學者們擔心,社交媒體的算法過度利用了用戶偏好數據推送信息,制造了信息“過濾泡沫”,造成用戶接受的觀點越來越極端。[注]Eytan Bakshy, Solomon Messing, and Lada A. Adamic, “Exposure to Ideologically Diverse News and Opinion On Facebook”, 348 (6239) Science 1130-1132 (2015). David Lazer, “The rise of the social algorithm” 348 (6239) Science 1090-1091 (2015).不僅如此,算法通過社交媒體平臺對公眾日常生活產生巨大影響,人們通過搜索引擎獲取知識和商業(yè)信息,通過Facebook、微博社交和獲取新聞,通過評價類的社交媒體知曉餐館評價,通過約會類的社交媒體結識伴侶。算法甚至開始逐漸被用于公共部門管理影響公民權利。如何對算法進行有效的監(jiān)管,是人工智能時代法律制度急需應對的挑戰(zhàn)。

        算法的定義從Tarleton Gillespie的假設開始,即“算法不需要是軟件: 在最廣泛的意義上,它們是基于指定計算將輸入數據轉換為期望輸出的編碼過程。這個過程既指出了一個問題,也指出了解決這個問題的步驟”。[注]Tarleton Gillespie,“The Relevance of Algorithms”, in T. Gillespie, P. J. Boczkowski, and K. A. Foot (eds.), Media Technologies: Essays on Communication, Materiality, And Society (Cambridge Mass.: MIT Press, 2014), pp.167-194.因此,算法是“為了解決一個特定問題或者達成一個明確的結果而采取的一系列步驟”[注]Nicholas Diakopoulos, “Algorithmic Accountability”, 3(3) Digital Journalism 398-415 (2015).。具體到社交媒體算法,算法的目標是獲得和保持用戶的數量,并且盡量提高用戶的參與度。所以,它收集社交媒體用戶數據,預測用戶的偏好進行推薦,而用戶對于推薦內容的刺激和反饋可以為下一步的推薦提供數據。

        本文無意進行人工智能時代法律制度的宏大敘事,而是以社交媒體的算法作為切入點,分析算法技術發(fā)展帶來的監(jiān)管挑戰(zhàn),并梳理現有法律制度對算法發(fā)展應對的缺陷和不足,提出應對人工智能的技術挑戰(zhàn),應以風險防范為目的,對算法同時進行事先與事后監(jiān)管,主體與技術監(jiān)管,以期用法律化解風險。

        二、 現有的算法監(jiān)管路徑: 法律框架與制度假設

        當前,我國并沒有任何直接對算法監(jiān)管的法律規(guī)定。應對算法造成的不利法律后果,我國采取結果監(jiān)管的法律規(guī)制路徑。具體言之,通過事后的內容審查發(fā)現算法造成的不利法律后果,進而將這種不利后果的法律責任分配給開發(fā)者或使用者——網絡平臺。本部分對現有的有關算法的監(jiān)管路徑進行梳理與分析。

        (一) 算法監(jiān)管的法律框架: 結果監(jiān)管下的內容審查與平臺責任

        大數據時代到來后,網絡信息傳播呈指數級增長,算法被廣泛應用。相對于網絡平臺,國家權力在網絡空間影響力日益減弱。為此各國普遍加強了對于網絡信息內容的監(jiān)管,并要求網絡平臺對網絡信息非法內容的傳播承擔平臺責任。

        1. 結果監(jiān)管路徑: 內容審查范圍的擴大

        各國對算法造成的不利后果進行內容審查的范圍近年來普遍擴大。以社交媒體上的假新聞泛濫為例,各國普遍加強了社交媒體的內容審查,不僅對恐怖、色情、仇恨等侵害公共利益的非法內容嚴加監(jiān)管,對誹謗的侵害私權利的內容也加強了監(jiān)管。[注]為加強網絡言論管理,德國聯(lián)邦議會周五通過了新的網絡管理法,新法將于2017年10月正式實施。在此法律下,Facebook等社交媒體未能在24小時內刪除“顯而易見的非法內容”——包括仇恨性言論、誹謗及煽動暴力等,將面臨德國監(jiān)管部門的罰款(http://finance.sina.com.cn/roll/2017-07-01/doc-ifyhryex5667798.shtml,最后訪問時間2017-07-15)。印尼要求社交媒體關閉宣揚極端言論的賬戶。印尼通信部長警告社交媒體不關閉激進內容賬戶將被阻止共享(http://finance.sina.com.cn/roll/2017-07-01/doc-ifyhryex5667798.shtml,最后訪問時間2017-07-12)。

        我國一直重視互聯(lián)網傳播內容的政府監(jiān)管。2000年實施的《互聯(lián)網信息服務管理辦法》作為基礎性法規(guī),規(guī)定了互聯(lián)網信息服務提供者不得制作、復制、發(fā)布、傳播的八項內容, 涵蓋“反對憲法所確定的基本原則的”“危害國家安全”等非法內容,并設定了一個兜底條款 “含有法律、行政法規(guī)禁止的其他內容”。[注]《互聯(lián)網信息服務管理辦法》第 15 條。近一兩年,新規(guī)密集出臺,[注]2016年和2017年,國家互聯(lián)網信息辦公室進入立“法”密集期,“微信十條”“賬號十條”和“約談十條”先后出臺。將內容審查的范圍進一步擴大,如侵害私權利的“侮辱或者誹謗他人,侵害他人合法權益的”,以及模糊的道德性規(guī)定“危害社會公德或者民族優(yōu)秀文化傳統(tǒng)的”等。[注]《互聯(lián)網文化管理暫行規(guī)定》。并且,對內容審查也提出了倡導性要求,如“弘揚社會主義核心價值觀”等。[注]《互聯(lián)網群組信息服務管理規(guī)定》。對算法的監(jiān)管通過事后對內容進行審查的方式進行,審查范圍的擴大也意味著對算法結果監(jiān)管的加強。

        2. 法律責任承擔: 平臺監(jiān)控責任的加強

        在互聯(lián)網發(fā)展早期,如算法造成的不利法律后果,如內容分發(fā)的算法造成了侵害著作權的法律后果,則由網絡平臺承擔民事侵權責任。一般網絡平臺可以主張不提供內容或盡到合理注意義務而通過“避風港”規(guī)則免責,這一原則也被世界多國立法采納。[注]2000年,歐盟發(fā)布《電子商務指令》移植了避風港原則和紅旗標準,其第14條規(guī)定,除用戶受控于平臺或依平臺指令實施的侵權行為外,平臺不知道用戶的行為違法,或在知悉違法行為或事實后刪除該違法信息或采取措施阻止該違法信息的傳輸,不承擔侵權責任?!吨噶睢返?5條明確了平臺原則上不負有積極查找平臺內違法行為和信息的義務,除非基于保護國家安全、國防和公共安全以及為防止、追查、偵破和懲治刑事犯罪的需要而要求采取有針對性、臨時性的監(jiān)控措施?!缎录悠码娮咏灰追ā愤M一步細化了紅旗標準?!缎录悠码娮咏灰追ā返?6條:“僅提供接入、存取服務的網絡服務提供者對站內第三方制作、發(fā)布、傳播或散布的侵權信息,除違反合同特別約定,或違反成文法規(guī)定的監(jiān)管要求,或者是違反成文法或法院的刪除、阻止、限制訪問的要求外,不承擔民事責任和刑事責任?!薄栋臀骶W絡民事基本法》第19條:“除法律另有規(guī)定外,網絡服務提供者僅在接到法院令后,未在規(guī)定時間內刪除或屏蔽侵權信息時,才對站內用戶侵害他人權益的行為承擔侵權責任。”

        早在2000年的《互聯(lián)網信息服務管理辦法》就強調平臺對用戶發(fā)布的不法內容有避免傳播的義務,處理措施包括停止傳輸,保存記錄與向國家有關機關報告。[注]參見《互聯(lián)網信息服務管理辦法》第16條:“互聯(lián)網信息服務提供者發(fā)現其網站傳輸的信息明顯屬于本辦法第十五條所列內容之一的,應當立即停止傳輸,保存有關記錄,并向國家有關機關報告?!彼鼮榫W絡平臺設立了合理注意義務,在其“發(fā)現”不法內容時要及時采取措施,否則網絡平臺要承擔不法信息傳播的責任。近兩年,國家網信辦密集立法并明確提出,對于虛假信息采取“強雙責”的方針——強化網絡平臺的主體責任與社會責任。[注]見《強化網站主體責任正當時》,載中華人民共和國互聯(lián)網信息辦公室官方網站(http://www.cac.gov.cn/2016-12/22/c_1120166441.htm,最后訪問時間 2017-07-15)。不僅要求網絡平臺在明知不法信息的情況下承擔責任,更是將對信息的主動監(jiān)控義務加諸網絡平臺。[注]參見《互聯(lián)網用戶公眾賬號信息服務管理規(guī)定》第7條: 互聯(lián)網直播服務提供者應當落實主體責任,配備與服務規(guī)模相適應的專業(yè)人員,健全信息審核、信息安全管理、值班巡查、應急處置、技術保障等制度。提供互聯(lián)網新聞信息直播服務的,應當設立總編輯?;ヂ?lián)網直播服務提供者應當建立直播內容審核平臺,根據互聯(lián)網直播的內容類別、用戶規(guī)模等實施分級分類管理,對圖文、視頻、音頻等直播內容加注或播報平臺標識信息,對互聯(lián)網新聞信息直播及其互動內容實施先審后發(fā)管理(http://www.cac.gov.cn/2017-09/07/c_1121624269.htm)。參見《互聯(lián)網用戶公眾賬號信息服務管理規(guī)定》第11條:“信息服務提供者應加強對本平臺公眾賬號的監(jiān)測管理,發(fā)現有發(fā)布、傳播違法信息的,應當立即采取消除等處置措施,防止傳播擴散,保存有關記錄,并向有關主管部門報告。”參見《互聯(lián)網跟帖評論服務管理規(guī)定》第8條:“跟帖評論服務提供者對發(fā)布違反法律法規(guī)和國家有關規(guī)定的信息內容的,應當及時采取警示、拒絕發(fā)布、刪除信息、限制功能、暫停更新直至關閉賬號等措施,并保存相關記錄。”(http://www.cac.gov.cn/2017-08/25/c_1121541842.htm)在這種制度框架下,網絡平臺承擔了違法內容造成不利法律后果的民事責任,并且開始逐漸承擔普遍性的信息主動監(jiān)控責任。

        (二) 現有算法監(jiān)管路徑的制度假設

        網絡技術具有較強的專業(yè)性,而網絡信息傳播的法律規(guī)制隱含著立法者對于技術的理解。對于結果進行監(jiān)管的路徑包括內容審查與平臺責任,其隱含著如下制度前提:

        1. 內容審查: 開發(fā)者的“全能性”假設

        對于網絡不法信息傳播的內容審查范圍日趨擴大化,隱含著立法者假設網絡平臺等軟件的開發(fā)者和使用者可以完全控制信息的生產和傳播,并具有對網絡信息審查的“全能”的能力和權限。因此,對不法信息審查的內容范圍不僅局限于違法信息,也包括對私權利侵害的審查,甚至涵蓋對道德標準的審查。例如2017年的阿里云案件,雖然阿里云發(fā)布聲明,稱其作為云服務提供者并沒有權限和能力審查租用網絡空間的用戶數據,但法院仍判定其涉嫌共同侵權。[注]參見2017年阿里云服務器一審敗訴的案件。北京市石景山區(qū)人民法院對阿里云被訴侵權案做出一審判決。法院認定被告阿里云公司構成侵權,需賠償樂動卓越公司經濟損失和合理費用約26萬元。2015年8月,樂動卓越公司發(fā)現某網站提供的《我叫MT暢爽版》涉嫌非法復制其開發(fā)的《我叫MT online》的數據包。樂動卓越公司通過whois域名查詢系統(tǒng)、域名備案系統(tǒng)等,均沒有查到涉案網站經營人的相關信息。但他們發(fā)現《我叫MT暢爽版》的游戲內容存儲于阿里云公司的服務器,并通過該服務器向用戶提供游戲服務。接著,樂動卓越公司兩次致函阿里云,要求其刪除涉嫌侵權內容,并提供服務器租用人的具體信息,阿里云并沒有予以積極回應。樂動卓越公司便以阿里云涉嫌共同侵權為由,向北京市石景山法院提起訴訟,請求法院判令阿里云公司斷開鏈接,停止為《我叫MT暢爽版》游戲繼續(xù)提供服務器租賃服務,并將儲存在其服務器上的《我叫MT暢爽版》游戲數據庫信息提供給樂動卓越公司;賠償經濟損失共計100萬元。隨后阿里云就此事發(fā)布聲明,稱作為云服務器提供商,阿里云無權審查任何用戶數據。法院的理由是,平臺的技術開發(fā)者和使用者有能力知曉非法內容的存在,不能聲稱自己無法控制信息的傳播。因此對造成的社會危害不能夠逃脫責任。同樣的立法精神也體現在了2016年轟動全國的快播案中。[注]2016年9月13日,北京市海淀區(qū)人民法院對深圳快播科技公司及其主管人員王欣等四名被告人涉嫌傳播淫穢物品牟利案進行了一審宣判。深圳市快播科技有限公司成立于2007年12月26日,公司相繼開發(fā)了“快播”服務器軟件和“快播”網頁播放器,卻被控用來大量傳播淫穢色情視頻。本案否定了軟件開發(fā)者“技術中立”地位,強調了軟件開發(fā)者和運行者對用戶上傳內容的監(jiān)管義務。

        2. 平臺責任: 算法的“工具性”假設

        網絡平臺承擔民事責任,以及對內容承擔普遍的主動監(jiān)控義務,隱含著立法者對平臺與算法關系的假設。即算法是網絡平臺的工具,網絡平臺作為算法的開發(fā)者和使用者,從對算法的運行和算法的決策,都具有類似對“工具”的控制能力。例如,對于網絡平臺上的算法進行的新聞分發(fā)和推薦,假設平臺與傳統(tǒng)媒體有相同的管理和控制能力,進而要求網絡平臺新聞服務提供者與傳統(tǒng)媒體一樣承擔看門人的法律責任。[注]參見《互聯(lián)網跟帖評論服務管理規(guī)定》第8條:“跟帖評論服務提供者對發(fā)布違反法律法規(guī)和國家有關規(guī)定的信息內容的,應當及時采取警示、拒絕發(fā)布、刪除信息、限制功能、暫停更新直至關閉賬號等措施,并保存相關記錄。”(http://www.cac.gov.cn/2017-08/25/c_1121541842.htm)

        這種算法工具性假設還意味著,網絡平臺對于算法的運行結果有充分的預測能力。因此監(jiān)管者對于算法產生不利后果的技術原因并不感興趣,無論在算法運行的“黑箱”中發(fā)生了什么,只要在法律對網絡平臺能力假設中此種后果可以被避免,平臺即需要承擔相應的責任。

        通過對算法造成的結果進行監(jiān)管,事后追究責任是傳統(tǒng)的法律規(guī)制手段。由于算法一直被認為是不應公開的商業(yè)秘密,這種監(jiān)管路徑可以避免立法者和司法者介入算法運行的內部結構,陷入司法者并不了解的技術領域。追究事后責任是較為穩(wěn)妥的規(guī)制方法,可以避免司法機構過于依賴專業(yè)知識,而僅僅處理純粹的法律問題。然而,人工智能時代,算法的技術發(fā)展和角色轉變都給傳統(tǒng)監(jiān)管路徑帶來了新的挑戰(zhàn)。

        三、 人工智能時代算法的發(fā)展及其帶來的監(jiān)管挑戰(zhàn)

        人工智能時代,算法迅速發(fā)展出全新特性,超出了公眾對于算法與其開發(fā)者和使用者關系的認知,為傳統(tǒng)的監(jiān)管路徑帶來了巨大挑戰(zhàn)。

        (一) 算法機器深度學習技術: 開發(fā)者“全能性”的否認

        人工智能時代,算法的功能不再局限于處理數據并按照設計的特定目的決策和行動,而是發(fā)展出了利用數據進行機器學習,進行自我深化發(fā)展的功能。機器學習,多層神經網絡等技術的發(fā)展,使得人類愈發(fā)無法了解和還原算法決策的內在運行機制,進而使得已經飽受詬病的“監(jiān)管黑箱”的不透明性進一步深化。

        社交媒體上算法尤其具有代表性。這種算法本質是推薦算法,即用戶不需要提交任何查詢的興趣偏好,系統(tǒng)就可以自動化算法來進行信息推送。比如對于新聞推薦,算法根據文本內容、關鍵詞、用戶的點擊、收藏和轉發(fā)行為獲得用戶的反饋信息進行信息推薦。這種反饋信息包括顯性的評分、評論,也包括隱形的停留時間、點擊次數等。人工神經網絡的研究為社交媒體的推薦算法提供了深度學習完善自身的條件,社交媒體平臺的兩個關鍵特征又為機器學習提供了最佳的機會。第一,社交媒體信息的量級和細節(jié)程度。社交媒體擁有用戶個人的及其與好友互動的大量信息,這些信息不僅細節(jié)豐富,并且與個人用戶的歷史具有對應性。第二,社交媒體為算法提供了可以即時反饋的機制,即算法可以通過用戶的反饋,及時更改調整,探索有助于其優(yōu)化目標的策略。[注]Samuel Albanie, Hillary Shakespeare, and Tom Gunter, “Unknowable Manipulators: Social Network Curator Algorithms”, arXiv preprint arXiv: 1701.04895 (2017).

        機器深度學習使得算法可以自動將各種低層次特征計算為更加抽象的高層特征。例如將色彩選擇,圖片上傳時間,打字速度等抽象為更高層的特征,基于此而發(fā)展更加智能的決策方式。這種深度學習使得算法輸入可以為提取得到的多種特征,輸出可以為目標任務的標簽或者數值,本質上構建了一種復雜的非線性變換。[注]趙鑫: 《深度學習在推薦算法上的應用進展》,中國人工智能學會通訊第7期(http://www.yunzhan365.com/basic/25489680.html,最后訪問時間2017-08-19)。換句話說,算法自動學習向深層架構發(fā)展,它的規(guī)則和運作方式很可能開發(fā)者都無法理解。

        算法的輸出目標一旦被設立,就會自動通過深度學習接近這一目標。大部分深度學習推薦算法將數據變換到一個隱含空間,在這個隱含空間可以計算推薦物品與用戶的相似性,但是很難提供直接的決策理由。[注]Adnan Masood: 《深度神經網絡的灰色區(qū)域: 可解釋性問題》(2015-08-18 08:15,http://www.csdn.net/article/2015-08-17/2825471,最后訪問時間2017-07-20)。例如,Google的AlphaGo項目設計的視頻游戲算法,算法通過學習發(fā)展的策略不僅勝過了頂級的人類玩家,而且通過數據來優(yōu)化自身,最后算法學會了利用游戲設計中的弱點,將對手逼入角落贏得勝利。[注]David Silver, Aja Huang, Chris J Maddison, Arthur Guez, Laurent Sifre, George Van Den Driessche, Julian Schrittwieser, Ioannis Antonoglou, Veda Panneershelvam, Marc Lanctot, et al.,“Mastering the Game of Go with Deep Neural Networks and Tree Search”, 529(7587)Nature 484-489 (2016).然而開發(fā)者并無法具體解釋這一過程是如何達到的。機器學習的發(fā)展使得算法的開發(fā)者和使用者對于算法完全了解和掌控的假設不再成立。算法的不透明性不再僅僅對技術領域之外的人,其內部機制和決策過程甚至對其開發(fā)者和使用者不再完全透明,更遑論“全能性”的掌控。

        (二) 算法自動決策的應用:“工具性”特質的超越

        人工智能時代,算法的角色逐漸超越了網絡平臺的“工具性”角色,而成為信息配置的基本規(guī)則。算法的自動決策逐漸在人類社會中扮演日益重要的角色,開始獨立擁有巨大的資源配置權力。最初, 策展人算法僅僅是左右了社交媒體上的信息流動,決定了用戶的閱讀內容,幫助保險公司和招聘單位決定保險價格和篩選雇員。隨著人工智能的發(fā)展,算法具有智能性,開始主動對用戶實施影響展開操縱行為。如Facebook的“情感蔓延”項目通過控制對50萬名用戶的新聞投放,用積極或消極的語言來表述新聞,來使用戶受其影響而自己發(fā)出積極或者消極的消息。[注]G. S.McNeal, Controversy over Facebook Emotional Manipulation Study Grows and Timeline Becomes More Clear, Forbes(2014, June 30, http:// www.forbes.com/sites/gregorymcneal/2014/06/30/controversy-over-facebook-emotional-manipulation-study-grows-as-timeline-becomes-more-clear/,最后訪問時間2017-05-17)。美國電子隱私信息中心敦促聯(lián)邦貿易委員會要求Facebook公布平臺推送新聞的算法,并對公眾公開算法細節(jié)。[注]Adam DI Kramer, Jamie E Guillory, and Jeffrey T Hancock,“Experimental Evidence of Massive-Scale Emotional Contagion Through Social Networks”,111(24) Proceedings of the National Academy of Sciences 8788-8790 (2014).現在,算法下的自動化決策已經進入許多國家公共部門,在社會保障、醫(yī)療保健、公職人員監(jiān)督和司法系統(tǒng)等領域發(fā)揮重要作用。例如,美國許多法院使用計算機程序來評估重復犯罪的風險,這已被證明是“偏向黑人”。[注]Anupam Chander, “The Racist Algorithm”, 115 Mich. L. Rev. 1023 (2016).甚至在我國的大學食堂,學生家庭情況的識別和貧困生補助工作也得到了算法的技術支持。[注]據報道,中科大采用算法,根據學生的消費頻率、消費金額來識別貧困生并進行隱形資助。而未曾在學校食堂經常用餐卻消費很低的學生也由算法判斷不符合資助標準。參見《暖心!這所大學竟用這種方式,偷偷資助“不舍得吃飯”的學生……》(2017年7月10日, http://www.sohu.com/a/157397381_252526,最后訪問時間2017-08-20)。正如勞倫斯·萊斯格告訴我們,“代碼是一種法則”——系統(tǒng)的架構,使之運營的代碼和算法,將會對自由造成深遠影響。

        由于人工智能技術的專業(yè)性,人們容易認為算法更為客觀并日漸依賴算法的自動決策。算法既會審查并撤下越南戰(zhàn)爭的經典新聞照片,[注]張耀升: 《制造假新聞刪越戰(zhàn)照片政要媒體圍攻Facebook算法》,見搜狐新聞(http://media.sohu.com/20160913/n468359527.shtml,最后訪問時間2017-08-15)。也可能拒絕求職者或者健康保險。用戶暫時仍沒有權利要求算法給出合理解釋,或者說即使有權利算法的開發(fā)者可能也無法給出解釋。尤其值得注意的是,社交媒體上信息流動的規(guī)則由算法控制,而算法由私人公司創(chuàng)設。這些規(guī)則主宰了網絡空間的信息流動,卻不像法律一樣接受公眾的質詢和監(jiān)督。算法的地位早已超越了平臺的“工具”。我們生活在一個算法越來越對公民生活享有裁決權的世界,由源源不絕的數據驅動的算法儼然已成為新的權力代理人。

        具有智能的算法是否應該成為法律主體留待哲學家們討論,但人工智能時代帶來的法律挑戰(zhàn)卻是迫在眉睫的。尤其是在全球各國百舸爭流發(fā)展人工智能的時候,制定相關法律政策既要保護產業(yè)創(chuàng)新機制不受到抑制,又要保護網絡用戶權利不受到過度損害。當前算法技術的發(fā)展亟待法律規(guī)制思路的轉化與具體規(guī)則的完善。

        四、 人工智能時代算法監(jiān)管的完善:風險防范下的雙軌制監(jiān)管路徑

        2016年聯(lián)合國發(fā)布《人工智能政策報告》,表達了對人工智能的關注,針對人工智能技術發(fā)展帶來的各種問題提出了新的思考方式和解決途徑。人工智能時代技術的迅猛發(fā)展并未給法律制度的應對留下足夠的時間。對于當前算法發(fā)展帶來的法律風險和監(jiān)管挑戰(zhàn),匆忙應對的立法難免存在缺陷與不足,而行政法規(guī)與政策則具有較強的靈活性。短期內應對法律風險最為關鍵的是轉化結果監(jiān)管的基本思路,并以此為指導進行基本規(guī)則的設計。

        (一) 算法監(jiān)管基本思路的轉化: 從結果監(jiān)管到風險防范

        由于網絡傳播的特性,算法帶來的不利法律后果往往十分嚴重。一方面,算法在人類社會日益扮演重要角色,其造成的損害往往十分嚴重;另一方面,網絡傳播速度使得算法造成的損害難以挽回,而且這種損害無法用傳統(tǒng)方式進行計算,更無法移轉至加害人。正如王澤鑒先生指出,“對于損害,傳統(tǒng)侵權行為法系采取移轉方式,而現代侵權法系采分散方式,其所關心的基本問題,不是加害人之行為在道德上應否非難,而是加害人是否具有較佳之能力分散風險”。[注]王澤鑒: 《民法學說與判例研究》(第二冊),中國政法大學出版社1998年版,第165頁。因此偏重于結果監(jiān)管往往不能達到預想的目的,對算法監(jiān)管的基本思路應在結果監(jiān)管的同時,更將重點轉移至風險的防范。誠如吳漢東教授所言,“對于現代各國而言,人工智能發(fā)展的政策考量,其實是基于風險的制度選擇和法律安排,我們應通過法律化解風險,通過法律吸納風險,將風險社會置于法治社會的背景之中,即對智能革命時代的法律制度乃至整個社會規(guī)范進行新的建構?!盵注]吳漢東: 《人工智能時代的制度安排與法律規(guī)制》,載《法律科學》2017年第5期。對于算法帶來的風險,除了對結果進行監(jiān)管,更應注重建立一套完整的以風險防范為目的的制度。

        首先,風險防范始于預防。結果監(jiān)管指向內容審查,而對預防性監(jiān)管則必然指向對算法本身進行審查。這就意味著監(jiān)管審查的對象,從單軌的內容監(jiān)管應轉化為內容與算法的雙軌制監(jiān)管。這種監(jiān)管以算法安全為目的,以預防技術產生的負面效應或副作用。算法的研發(fā)與設計應遵循道德標準和設計的規(guī)則、運行階段應充分對用戶公開透明其設計目的和策略議程,以上均應當接受監(jiān)管部門的審查,建立標準審核流程。歸根結底,以算法為審查對象目的在于增強算法對公眾的透明度,以預防風險的發(fā)生。

        其次,算法的風險防范制度,還應建立一套算法的責任制度。平臺責任假設算法作為工具,而技術責任則將算法作為法律客體進行規(guī)制,圍繞算法建立法律責任與倫理責任。以風險防范為目的的責任體系,應從單軌的平臺責任,轉化為平臺責任與技術責任的雙軌責任制。此類責任對應的是用戶的權利,使利害關系人知曉算法的決策過程,既是對算法設計者的制約,也是賦予算法利害關系人免于受到算法不利結果反復損害的權利。算法的開發(fā)者和使用者承擔雙軌制的技術責任和平臺責任,實質上是通過雙軌制對算法造成的責任進行合理的分配。法律這樣分配風險有助于形成人對算法自動化決策的基本信任,而工業(yè)的發(fā)展、科技的研發(fā)等都需要一種信任模式的建立和良性運作。[注]龍衛(wèi)球: 《我國智能制造的法律挑戰(zhàn)與基本對策研究》,載《法學評論》 2016年第6期,第1~13頁。

        最后,算法的風險防范制度,應以算法運行機制為基礎。數據是算法發(fā)揮作用的必備要素,或者說,人工智能的本質就是算法和數據的利用。以社交媒體為例,其算法帶來的風險簡要來說基于社交媒體提供的關鍵資產——數據。這些數據既包括用戶自身提供的內容也包括用戶根據社交媒體的反饋機制產生的數據。對用戶數據收集進行合理程度的保護和限制,這也將會對隱私權保護、機器學習數據來源、用戶操縱行為等產生系列影響,如算法收集的敏感數據數量下降會進而減少機器學習的深化程度和用戶操縱行為的精準程度。

        算法監(jiān)管機制應以風險防范為基本思路,實行包括內容審查與算法審查并重,平臺責任與技術責任并行的雙軌制監(jiān)管思路。同時,應基于算法的運行機制,對算法的生產資源——數據進行管理,對算法造成的消極后果進行風險防范。以下部分將予以詳述。

        (二) 風險防范下監(jiān)管對象的雙軌制: 內容監(jiān)管與算法監(jiān)管

        算法由編程者設計,進而給網站帶來巨大的商業(yè)價值,因此其本質上是具有商業(yè)秘密屬性的智力財產?;诖死砟?,早期各國均不主張對算法進行直接監(jiān)管,而由技術優(yōu)勢而生的先進算法是互聯(lián)網公司在商業(yè)競爭中的法寶。[注]See “Trade Secrets:10 of the Most Famous Examples”: “Google developed a search algorithm and continues to refine it. Some changes are announced but many are not. Google continues to modify its top secret algorithm to keep businesses and people from gaming the system. It is the top search engine today and shows no signs of giving up its place. ”Google公司開發(fā)和不斷改進的排名算法是其在商業(yè)競爭中制勝的主要原因(https://info.vethanlaw.com/blog/trade-secrets-10-of-the-most-famous-examples,最后訪問時間2017-08-20)。尤其計算機程序的復制非常容易且難以證明侵權行為,所以互聯(lián)網公司一直堅持發(fā)布算法可能會造成更多的危害。[注]Maxime Cannesson, and Steven L. Shafer, “All Boxes Are Black”,122 (2) Anesthesia & Analgesia 309-317(2016).算法的直接審查既存在著商業(yè)秘密方面的顧慮,也存在著技術上的壁壘。

        然而,算法已經不僅是導致非法內容的原因,而且已經成為配置資源的規(guī)則的時候,就應該像法律一樣具有公開性和可預測性,接受公眾的審查和質詢。而算法開發(fā)者和使用者主動接受公眾的質詢也是自我澄清和保護的手段。在引言中談到的Facebook在美國大選中受到輿論的廣泛指責,甚至參議員致信要求Facebook澄清“熱門話題”中的新聞是否存在主觀性時,Facebook的創(chuàng)始人扎克伯格不僅撰文駁斥,甚至發(fā)布了一個28頁的內部編輯指南,詳細介紹了編輯者和算法如何在網站上選擇“熱門話題”的過程。[注]Facebook, “Trending Review Guidelines”, Released May 11, 2016 (https://fbnewsroomus.files.wordpress.com/2016/05/full-trending-review-guidelines.pdf,最后訪問時間2017-08-20)。對算法的審查和質詢將成為必然的發(fā)展趨勢。

        1. 算法監(jiān)管的內容和限度

        應對算法的哪些方面進行審查?限度在哪里?算法的審查應以用戶權利的保護為必要限度,不應要求源代碼和算法內部運算透明,否則殊無必要且抑制私營公司的創(chuàng)新效應。算法應該向公眾予以公開的是在編碼決策過程中,設計者設置的算法的目的和政策議程。

        按照設計者設置的算法是否有特定的目的和政策議程,我們可以將算法分為“中性算法”和“定向算法”。[注]Omer Tene, and Jules Polonetsky, “Taming the Golem: Challenges of Ethical Algorithmic Decision Making” (2017).舉個簡單的例子,如果Facebook在設置“熱點新聞”的時候僅僅根據點擊率進行排名,那么這種算法就是中性算法。而如果Facebook的新聞排名算法優(yōu)先推送不利于某個候選人的新聞,就是定向算法。僅僅根據數據進行運算得出結果的算法,即使產生了某些不公平的后果,往往是由于現實社會的偏見造成的。例如,美國著名的約會社交軟件Buzzfeed利用算法對用戶進行自動匹配。由于算法追求更高的匹配成功率,最后匹配的結果絕大部分是將相同種族的人進行匹配推薦。而這并不是由設計者的種族主義偏見造成的,而是人們潛意識地喜歡與自己同一種族的人約會。[注]Katie Notopoulos, “The Dating App That Knows You Secretly Aren’t Into Guys From Other Races”, BUZZ FEED, Jan. 14, 2016 (http://www.buzzfeed.com/katienotopoulos/coffee-meets-bagel-racial-preferences 7l5zKPb2).而如果算法特意設置了政策導向,為了推進種族之間的融合而忽略這一偏好事實,向用戶推薦不同種族的約會對象,這樣的算法就是具有目的的定向算法。尤其需要指出的是,在技術上區(qū)分二者較為容易,但在法律上勢必無法給予二者明確的界定。一個算法是否帶有定向性不是涇渭分明的二分法,而是呈現一個頻譜,即使是中性算法可能也不免受到設計者價值觀的影響,而定向算法的目的性和策略也有強弱之分。

        2. 算法監(jiān)管應建立信息披露義務

        針對算法的監(jiān)管,應為算法的開發(fā)者和使用者建立信息披露義務。當算法的設計目的是為了推進預定義的策略議程,而有針對性地設計策略定向算法時,算法的設計必須遵循道德標準和設計的規(guī)則,應當接受監(jiān)管部門審核,審核內容包括設計目的和策略議程。如果搜索引擎決定清除搜索結果清楚的明顯的偏見和歧視,應該讓用戶知道他們正在看到一個修剪整齊的版本。事實上在具體案件上監(jiān)管部門已經開始實行這一政策。例如,在魏則西事件后,聯(lián)合調查組要求百度采用以信譽度為主要權重的排名算法并落實到位,嚴格限制商業(yè)推廣信息的比例對其逐條加注醒目標識,并予以風險提示。[注]參見《國信辦聯(lián)合調查組結果: 百度競價排名影響魏則西選擇百度: 從6方面整改》(2016-05-09 http://www.guancha.cn/economy/2016_05_09_359617.shtml, 最后訪問時間2017-08-20)。在社交媒體上,算法編輯必須對于用戶來說可見,可審閱和發(fā)布明確聲明。用戶有權知道他們在社交媒體上看到的內容是否政策中立。否則,即使意圖是高尚的,社交媒體也會因沒有充分的透明度而陷入困境。

        算法監(jiān)管的內容、流程,以及加諸互聯(lián)網企業(yè)的強制披露義務,均為專業(yè)性和技術性較強的領域。因此應設立專業(yè)的監(jiān)管部門進行算法監(jiān)管,根據算法的功能進行層次不同的信息披露機制的設計。這種內容與算法的雙軌制監(jiān)管,是建立平臺、數據和算法的監(jiān)管體系的核心制度。現在網絡治理的模式以平臺責任作為起始點,數據和內容作為平臺責任的支撐,其中包括監(jiān)管平臺在數據的收集、使用過程中的責任,也包括平臺在內容發(fā)布和監(jiān)管中的責任?,F行監(jiān)管體系中缺失對于算法的監(jiān)管。算法以數據作為資料生成內容,實際上是網絡治理模式中的核心要素。及時建立對于算法的監(jiān)管審查制度,對平臺責任以及網絡空間治理具有關鍵意義。

        (三) 風險防范下責任承擔的雙軌制: 平臺責任與技術責任

        對算法的責任應從單軌的平臺責任,轉化為平臺責任與技術責任并重的雙軌責任體制。技術責任意指機器倫理,法律責任的設置應圍繞技術的運行,而非不論網絡平臺與算法的關系,一味由平臺承擔責任。在算法的技術發(fā)展下,平臺與算法的關系已遠非“工具”一詞可以概括,故應該對責任承擔的制度設計予以調整。

        1. 技術責任之一: 賦予相對人的算法解釋權

        算法的技術責任即意味著相對人的權利。賦予相對人算法解釋權即是加諸算法開發(fā)者和使用者的技術責任。算法解釋權是指在因算法的機器學習和自動決策而認為自己可能或已經遭受損害的人,并有權要求知曉任何自動個人數據處理的邏輯,可以向算法做出的決定提出異議,并要求算法更正其錯誤。算法解釋權是典型的人工智能時代新型的救濟權利。它與行政相對人請求復議的權利相似,只不過行政復議請求的對象是掌握公權力的政府,而算法解釋權請求的對象是掌握著技術權力的算法設計者和使用者。

        算法日益滲入日常生活不可避免會出現錯誤。例如美國航空公司的一位資深駕駛員稱,由于計算機算法將他與一位愛爾蘭共和軍領導人混淆,使得他先后80次在機場遭到拘禁。[注]見《應建立第三方機構以管控作出糟糕決定的人工智能》,載搜狐網(http://www.sohu.com/a/125322861_465915,最后訪問時間2017-08-21)。而由于人們對于算法客觀性和可靠性的盲目信任,這種對算法決策結果的挑戰(zhàn)和更正尤為艱難。各國逐漸展開了和算法解釋權相關的立法工作。如英國的《數據保護法案》(Data Protection Act)規(guī)定,人們有權對人工智能做出的決定進行挑戰(zhàn)。歐洲2016年通過的新的《歐洲通用數據保護條例》(GDPR)提出,“每個數據主體應該有權知道和獲取通信,特別是關于任何自動個人數據處理中涉及的邏輯,至少是在基于分析的情況下,這種處理的后果”。[注]“Every data subject should ... have the right to know and obtain communication in particular with regard to ... the logic involved in any automatic personal data processing and, at least when based on profiling, the consequences of such processing.” Regulation (EU) 2016/679 of the European Parliament and of the Council of 27 April 2016 on the protection of natural persons with regard to the processing of personal data and on the free movement of such data, and repealing Directive 95/46/EC (General Data Protection Regulation).《歐洲通用數據保護條例》(GDPR)中也提出,“應該采取適當的保障措施,其中應包括數據主體的具體信息和獲得人為干預(而非數據干預)的權利,以表達其觀點,已獲得對此類評估之后達成的決定的解釋,并對決定提出質疑?!盵注]《歐洲通用數據保護條例》(GDPR)中在第71條明確提出了解釋權,表述為被自動決策的人應該具有適當的保護,具體應包括數據主體的特別信息和獲得人類干預,表達自己的觀點,并且有權獲得評估決定的解釋,并對決定提出質疑?!癛ecital 71, a person who has been subject to automated decision-making: should be subject to suitable safeguards, which should include specific information to the data subject and the right to obtain human intervention, to express his or her point of view, to obtain an explanation of the decision reached after such assessment and to challenge the decision.”

        從技術層面來說,有很多研究力量投入到了和決策策略有關的深層神經網絡的理解中,如對隨機擾動技術、[注]Matthew D Zeiler and Rob Fergus,“Visualizing and Understanding Convolutional Networks”, in European Conference on Computer Vision (Springer, 2014), pp.818-833.不變形分析、可視化和維度降低,[注]Aravindh Mahendran and Andrea Vedaldi,“Understanding Deep Image Representations by Inverting Them”, In 2015 IEEE conference on computer vision and pattern recognition (CVPR), IEEE, 2015, pp.5188-5196.但是顯然這種技術上的可解釋性并非法律上的可解釋性所指的“有法律意義的信息”。而對權利人有法律意義的解釋內容可能分為兩個層面: 其一,解釋的對象是系統(tǒng)功能,例如該自動決策系統(tǒng)的邏輯、意義、算法設定的目的和一般功能,包括但不限于系統(tǒng)的需求規(guī)范、決策樹、預定義模型、標準和分類結構等。其二,解釋的對象是具體決策,及特定自動決策的理由、原因、產生決策結果的個人數據,例如每種指標的功能權重,機器定義的特定案例決策規(guī)則,起參考輔助作用的信息等。[注]Bryce Goodman, and Seth Flaxman,“European Union Regulations on Algorithmic Decision-Making and a Right to Explanation”, in 2016 ICML Workshop on Human Interpretability in Machine Learning, New York, NY: ArXiv e-prints.這些信息都可以解釋自動決策產生的原因。舉例而言,很多互聯(lián)網信貸公司借助用戶的社交媒體和購物記錄等信息來對用戶進行信用評級發(fā)放小額信貸。這種自動的信用評分系統(tǒng),用戶可以申請信貸公司或算法提供者解釋算法的功能,和通用的邏輯(比如參與決策的數據類型和特征,以及決策樹的類別),算法的目的和意義(進行信用評分以發(fā)放貸款),和設想的后果(可能影響信用記錄,影響利率)。在第二個層面,用戶可以要求解釋具體決定的邏輯和個人數據的權重,例如用戶的信用評分結果參考了哪些數據以及這些數據在決策樹或者模型中的權重。

        第一個層次的信息類似行政復議中對行政決定的合法性審查,通過對算法的決策基本情況的了解,用戶有權知曉算法是否合法,是否包含歧視因素,等等。而第二個層面的審查類似行政復議中對行政決定的合理性審查,否則,如果一個人被互聯(lián)網信貸公司拒絕,他被告知,算法充分考慮了他的信用記錄、年齡和郵政編碼,但此人仍然不清楚申請被拒的原因,解釋權便形同虛設。雖然歐盟有法律提出相對人應享有“拒絕接受數字化決策,要求人為干預”的權利,但其仍停留在學理討論階段。[注]Ibid.不僅應建立風險防范的事前審查機制,[注]司曉、曹建峰: 《論人工智能的民事責任:以自動駕駛汽車和智能機器人為切入點》,載《法律科學:西北政法大學學報》2017年第 5期,第166~173頁。同時應重視類似算法解釋權等應對損害的事后解決機制,算法解釋權意在如何分配風險以求得全社會利益最大化。

        2. 技術責任之二: 機器倫理的發(fā)展

        算法解釋權的行使面臨著重大限制,原因是各國政府更加傾向于保護科技產業(yè)的發(fā)展而避免發(fā)展技術責任。一直到現在,對于數據控制者必須對用戶披露的信息類型,以及適用于自動化決策的算法訪問權限的限制,尚未在歐洲各地的法院的判例中得到普遍的明確范圍。[注]“for instance, debate in the UK House of Lords concerning the meaning of ‘logic involved’ and ‘trade secrets’ in the 1998 Data Protection Act: Grand Committee on the Data Protection Bill, ‘Official Report of the Grand Committee on the Data Protection Bill [HL] ’(Hansard, 23 February 1998)” (UK Parliament-House of Lords 1998) (http://hansard.millbanksystems.com/grand_committee_report/1998/feb/23/official-report-of-the-grand-committee#S5LV0586P0_19980223_GCR_1,最后訪問時間 2017-08-02)。例如德國數據保護法規(guī)定,數據控制者必須在決策的“評估”中向用戶通報其所考慮的因素,但不必揭示給予每個因素的精確重量(即在自動化決策過程中使用的版權保護算法)。[注]Douwe Korff, “New Challenges to Data Protection Study-Country Report: United Kingdom”(European Commission DG Justice, Freedom and Security 2010), 48(http://papers.ssrn.com/sol3/papers.cfm?abstract_id=1638938,最后訪問時間 2017-07-15)。根據幾位評論家的觀點,[注]Br?utigam and Schmid-Wudy (n 35) 62; Jens Hammersen and Ulrich Eisenried, “Ist Redlining in Deutschland erlaubt? Pl?doyer für eine weite Auslegung des Auskunftsanspruchs” [2014] ZD Zeitschrift für Datenschutz 342.德國SCHUFA59判決[注]Judgment of the German Federal Court Bundesgerichtshof 28 January 2014-VI ZR 156/13. LG Gie?en 6 March 2013-1S 301/12. Also, AG Gie?en 11 October 2014-47 C 206/12.顯示,用戶沒有權力徹底調查自動處理系統(tǒng)(在判例中是信用評分)的準確性,因為基礎公式受到商業(yè)秘密的保護。

        面對算法解釋權的限制,發(fā)展機器倫理作為替代規(guī)則成了必然選擇。解釋權不是在算法決策中實現問責制和透明度的唯一途徑。[注]For additional discussion of transparency and the GDPR, see: Dimitra Kamarinou, Christopher Millard and Jatinder Singh, “Machine Learning with Personal Data”(https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2865811,最后訪問時間2017-08-22)。立法者可能需要通過對算法通過道德審查標準,來防止對用戶的操縱或產生不公平的后果。在敏感性和風險較高的算法決策領域更適用倫理性的審查要求。當然,目前這種方法面臨著許多挑戰(zhàn)。在短期的具體規(guī)則中,可以采用人工篩查的手段,預見性地將算法可能出現的歧視問題等進行解決。算法本質上是“以數學方式或者計算機代碼表達的意見”,設計者很容易將自己的偏見嵌入算法系統(tǒng)中。例如,美國一些法院使用的一個犯罪風險評估算法COMPAS被證明是對黑人造成了系統(tǒng)性歧視。發(fā)展機器倫理要求社會學家、法學家等共同設計倫理框架,在算法設計階段就為算法的研發(fā)和應用提供道德準則。

        以算法解釋權為核心的技術責任必然將成為人工智能時代亟待深入研究的主題。算法解釋權制度中,權利人的資格要求,行使的前提,行使的程序等,以及機器倫理的道德標準等都需深入研究,本文篇幅所限不再展開。需要指出的是,平臺責任與技術責任并非一定涇渭分明,某些情況下可能存在交叉。平臺在很多情況下本身就是算法的開發(fā)者與算法運行的維護者,技術責任的承擔主體可能就是平臺,例如算法解釋和機器倫理的考察可能都指向平臺。例如,上文中提到的Facebook的情感蔓延項目,當Facebook收集較多的用戶數據用情感操縱算法進行處理后,美國FTC要求Facebook平臺公布算法,這同時體現了公權力通過對平臺的監(jiān)管來實現內容和算法的雙重監(jiān)管。然而,平臺責任和技術責任評價對象不同,算法的設計者和使用者也并不必然重合,這兩點決定了平臺責任和技術責任需做出區(qū)分。

        (四) 風險防范下的生產性資源保護: 數據資產收集與使用的限制

        進入人工智能時代,數據的體量和質量決定了算法是否足夠“聰明”。數據對于算法造成的風險防范具有至關重要的作用: 一方面,從數據體量入手,限制數據的收集可以防范算法造成的用戶隱私泄露的風險;另一方面,注重數據收集的質量,可以避免算法以歧視性的數據作為自動決策的依據,造成歧視性后果。需要注意的是,數據的收集以及使用無法回避平臺在數據收集和管理方面的責任。算法監(jiān)管的體系性和有效性,亟待完善數據管理方面的平臺責任制度。

        1. 敏感數據收集的合理限制

        數據的范疇和形式在不斷進行擴張。以社交媒體為例,其數據量大,更新快,且具有難得的多樣性,用戶體量、使用語言、表達方式極為豐富。[注]參見清華大學電子工程系信息認知與系統(tǒng)智能研究所副所長黃永峰于2015年12月23日在清華RONGv2.0系列論壇之 “社會關系網絡與大數據技術”專場上所做的題為《網絡社交媒體的情感認知與計算》的演講(http://www.sohu.com/a/61999021_308467,最后訪問時間2017-08-20)。在人工智能的競爭中,社交媒體平臺成為企業(yè)發(fā)掘個人數據的“金礦”。在這座數據“金礦”中,算法對于數據的分析和利用能力,使得有關個人隱私的敏感數據范疇在不斷擴大。例如,在2016年兩位科學家發(fā)布研究結果,可以通過用戶在Instagram上發(fā)布的照片的內容、配色方案等用算法進行分析,預測用戶的抑郁癥傾向。其預測指標可以實現在醫(yī)生確診前識別抑郁癥患者,診斷準確性甚至優(yōu)于普通醫(yī)師。[注]M. De Choudhury, M. Gamon, S. Counts, & E. Horvitz, “Predicting Depression via Social Media”, Proceedings of the Seventh International AAAI Conference on Weblogs and Social Media (ICWSM)(2013),pp.128-137(https://www.aaai.org/ocs/index.php/ICWSM/ICWSM13/paper/download/6124/6351,最后訪問時間 2017-08-20)。獨立于提供的內容的其他特征,如可以由任何人使用的任何計算機實時捕獲的自然打字模式,也被確定為早期識別微妙的精神運動障礙的可能患者,具有帕金森病或癡呆早期診斷的潛在應用。[注]L.Giancardo, A.Snchez-Ferro, I.Butterworth,C. S. Mendoza, & J. M.Hooker, “Psychomotor Impairment Detection via Finger Interactions with a Computer Keyboard during Natural Typing”, Scientific Reports 5, 9678(2015).

        然而,法律關注和保護的數據仍局限于涉及個人隱私的敏感數據。如可以定位個人的姓名、身份證號碼、銀行卡號密碼等,或者體現個人社會活動的通話記錄、短信記錄、位置信息等。如2017年公安部破獲的販賣公民個人信息達50億條的特大案件,數據形式包括物流信息、交易信息、個人身份等。[注]參見《黑產團伙長期販賣公民信息,泄露數據達 50 億條》:“近期,公安部破獲了一起盜賣公民信息的特大案件,50億條公民信息遭到泄漏,而嫌疑犯被傳是京東網絡安全部員工,與黑客長期相互勾結。據公安部披露,犯罪嫌疑人鄭某鵬利用京東網絡安全部員工這一身份,長期監(jiān)守自盜,與黑客相互勾結,為黑客攻入網站提供重要信息,包括在京東、QQ上的物流信息、交易信息、個人身份等?!?http://www.leagsoft.com/news/p/1864,最后訪問時間2017-09-07)在人工智能高度發(fā)展的時代,非專業(yè)人士無法合理預期個人數據被算法使用的方式和后果,即使可以,也由于生活和網絡的高度融合無法拒絕提供個人數據。這些數據無意識地貢獻了包含著精神健康、身體健康、經濟狀況等敏感的可識別的特征。例如,用戶的精神健康狀態(tài)可以通過其社交媒體發(fā)布的信息被識別和診斷,甚至被醫(yī)療保險公司用來確定用戶的保險費用。在這種情況下,用戶被剝奪了個人決定是否受到診斷的權利,患者衛(wèi)生信息保密的法律也被徹底架空,而這些健康隱私有可能被私營公司購買以確定營銷目標,或者被用來避免高風險的醫(yī)療保險客戶。用戶在使用服務的需要下被裹挾前行,往往并沒有其他選擇權。用戶應被賦予切實存在的選擇權利,比如在社交媒體通過按鍵選擇的方式增加用戶對數據被收集和使用的自主性。

        2. 歧視性數據資產的使用限制

        數據是現實社會的反應,因此很可能包含著現實社會的歧視現狀。算法決策是在用過去預測未來,而過去的歧視可能會在算法中得到鞏固并在未來得到加強,因為錯誤的輸入形成的錯誤輸出作為反饋,進一步加深了錯誤。數據的有效性、準確性,也會影響整個算法決策和預測的準確性。因此,應在對數據資產的管理中,充分認識到數據資產質量的重要性,避免歧視性數據資產的適用。

        例如,2013年,波士頓采取了創(chuàng)新方案解決普通市政道路坑洼問題。Boston Street Bump程序可以使用智能手機運動感應功能,向市政府報告用戶駕駛時遇到的街頭坑洼引起的震動,以確定要修復的街道上的問題。有趣的是,數據中心統(tǒng)計城市的富裕地區(qū)比貧困地區(qū)有更多的坑洞。這是由于智能手機在貧富地區(qū)不均等分配造成的。[注]Phil Simon, “Potholes and Big Data: Crowdsourcing Our Way to Better Government”(https://www.wired.com/insights/2014/03/potholes-big-data-crowdsourcing-way-better-government/,最后訪問時間2017-09-02)。同理,如果將算法應用在犯罪評估、信用貸款、雇傭評估等關切人身利益的場合,歧視性數據資源帶來的群體、種族的利益影響更為巨大。應以風險防范為目標,對數據資產的質量進行充分管理。具體手段應包括建立數據評估機制,數據去噪篩查機制,以及由專業(yè)人士研究如何對數據進行復原。

        人工智能發(fā)展帶來的不僅有法律監(jiān)管的風險和挑戰(zhàn),更有監(jiān)管技術和手段的豐富和提高。許多過去不可能的監(jiān)管措施隨著物聯(lián)網、大數據等技術的發(fā)展都將變?yōu)榭赡?。監(jiān)管的思路轉化為風險防范是關鍵,具體措施的發(fā)展可以留待人工智能和算法技術的發(fā)展來逐步解決。未來風險可控的前提下,人工智能極大地造福于人類的愿景值得期待和憧憬。

        五、 余 論

        從社交媒體的新聞推送開始,本文梳理了傳統(tǒng)的算法監(jiān)管的制度框架及其隱含假設,并介紹了人工智能時代算法通過社交媒體海量數據和機器學習取得的發(fā)展。這些發(fā)展對傳統(tǒng)監(jiān)管路徑提出了巨大挑戰(zhàn)。面對算法發(fā)展帶來的風險,有必要采取預防性的行為和因應性的制度?!胺芍贫鹊膬r值和意義就在于規(guī)范和追尋技術上的可以管理的哪怕是可能性很小或影響范圍很小的風險和災難的每一個細節(jié)?!盵注][德] 烏爾里希·貝克: 《從工業(yè)社會到風險社會——關于人類生存、社會結構和生態(tài)啟蒙等問題的思考(上篇)》,王武龍編譯,《馬克思主義與現實》2003年第3期。對風險進行法律控制是人工智能時代法律對社會發(fā)展做出的積極回應。對于個人數據收集、使用行為的限制,設立具有不同層次的算法強制披露義務以增強算法透明度,創(chuàng)設算法解釋權給利害關系人以救濟,都是在通過不同角度去應對科技發(fā)展帶來的風險。

        本文僅僅是對人工智能時代法律應對風險具體規(guī)則的拋磚引玉,許多具體制度設計仍有待法學學者的深入研究。而在這些研究中有一點應予明確: 現今的制度框架總體來說是有利于科技發(fā)展和進步的,法律的適當滯后并不必然是缺陷。面對科技的發(fā)展,法律應有一種保守克制的態(tài)度,而這種克制態(tài)度的重要體現之一,就是并不必然將所有問題歸咎于人工智能和算法的發(fā)展,而急于對算法發(fā)展進行不必要的限制。對于算法控制的信息流動和進行的自動決策的批判不絕于縷,而這種算法發(fā)展帶來的“黑箱”可能并不是唯一原因。事實上,太陽底下無新事,過去的股票內幕交易,某些行政決策又何嘗不是所謂的“黑箱”呢?相比人的決策,算法決策更不容易受到固有偏見的影響而更加公平客觀。《大數據: 打擊歧視和授權團體的工具》一書中提到了多個案例,展示了企業(yè)、政府和民間社會組織如何利用數據分析來保護和授權弱勢群體,數據驅動的決策可以有效減少歧視,促進公平和機會。[注]Future of Privacy Forum & Anti-Defamation League, Big Data: A Tool for Fighting Discrimination and Empowering Groups, 2014 (https://fpf.org/wp-content/uploads/Big-Data-A-Tool-for-Fighting-Discrimination-and-Empowering-Groups-Report1.pdf).對算法帶來的風險進行法律規(guī)制時,制度達到目的衡量的標準應是現實世界的一般標準,而非人人大同的烏托邦。秉承這一原則,有利于在創(chuàng)制法律制度時,充分衡平科技發(fā)展與權利保護。

        猜你喜歡
        監(jiān)管算法用戶
        基于MapReduce的改進Eclat算法
        Travellng thg World Full—time for Rree
        進位加法的兩種算法
        關注用戶
        商用汽車(2016年11期)2016-12-19 01:20:16
        關注用戶
        商用汽車(2016年6期)2016-06-29 09:18:54
        一種改進的整周模糊度去相關算法
        關注用戶
        商用汽車(2016年4期)2016-05-09 01:23:12
        監(jiān)管
        監(jiān)管和扶持并行
        如何獲取一億海外用戶
        亚洲精品无码成人a片| 高潮精品熟妇一区二区三区| 亚洲av免费手机在线观看| 久久久精品国产sm调教网站| 最近日韩激情中文字幕| 91亚洲色图在线观看| 一本久久精品久久综合| 蜜桃一区二区三区| 亚洲男同志gay 片可播放| 水蜜桃一二二视频在线观看免费| 中文字幕女同人妖熟女| 九色综合九色综合色鬼| 国产精品户露av在线户外直播| 爱v天堂在线观看| 国产精品成人av大片| 国产午夜成人av在线播放| 国产av日韩a∨亚洲av电影| 日本一区二区三区在线| 91成人自拍在线观看| 久久久受www免费人成| 国内精品伊人久久久久av| 自拍av免费在线观看| 国产欧美日韩一区二区加勒比 | 牛鞭伸入女人下身的真视频| 色婷婷色99国产综合精品| 亚洲av午夜福利精品一区不卡| 一二区成人影院电影网| 好爽…又高潮了毛片免费看| 水蜜桃视频在线观看免费18| 精品一区中文字幕在线观看| 亚洲精品suv精品一区二区| 中文字幕一区二区三区四区在线 | 无套中出丰满人妻无码| 亚洲女人被黑人巨大进入| 高清av一区二区三区在线| 蜜桃尤物在线视频免费看| 久久夜色精品国产噜噜亚洲av| 国产精品久久久久孕妇| 亚洲精品一区二区成人精品网站| 亚洲av成人精品日韩在线播放| 亚洲人在线观看|