張 燕
(215500 江蘇正大發(fā)展律師事務所 江蘇 常熟)
人工智能概念在1956年被提出以來,借助互聯(lián)網信息技術、大數(shù)據(jù)和算法的更新顯示,已經具備了類似于人類的思維方式和自我學習能力。Google的圍棋人工智能阿法狗連克李世石、柯潔兩位圍棋世界冠軍后,引發(fā)了各國對于人工智能研發(fā)的極大熱誠,并在短時間內取得了突破性成果。人工智能這一顛覆性技術除了在工業(yè)、金融、服務等領域展現(xiàn)出遠超人類的工作效率和精度,并極有希望成為全球下一個經濟增長點,但其借助于數(shù)據(jù)信息的搜集、分析和處理來達成設定目標的運行模式也引發(fā)了大量學者的關注和思考[1]。其中主要集中在人工智能對于社會倫理、法制結構以及個人隱私乃至國際關系上可能帶來的諸多問題。本文就人工智能在對虛擬數(shù)據(jù)的使用為切入點,探討其中可能出現(xiàn)的各類法律風險,并就如何構建對于虛擬數(shù)據(jù)的法律保護制度提出相應的建議,以降低人工智能在對數(shù)據(jù)的使用過程中對其他法律主體的權利侵犯風險。
人工智能的深度學習方式是以當前互聯(lián)網中以虛擬數(shù)據(jù)形式存在的信息篩選過程。而我們的個人信息、日常習慣、行為記錄、創(chuàng)造作品等歷史活動都構成了供人工智能學習的大數(shù)據(jù)庫,人工智能除了搜集信息來完成自己的任務外,對于搜集信息的方法是否侵犯他人的各項權利則無法識別,由此帶來的一系列權利侵犯風險值得學術界關注。
隨著人工智能以及物聯(lián)網技術的發(fā)展,人工智能在結合物聯(lián)網技術后,可以依照人類設置既定的程式來操控各種監(jiān)測設備,人工智能可以通過自動操控無人機、攝像頭、錄音設備、監(jiān)控設備等來搜集圖片、錄像、音頻等資料。這種情況下,即便被侵權人發(fā)現(xiàn)自己的隱私權受到侵害,往往也因技術原因難以舉證。近年來,運用高科技產品侵犯他人隱私權的案件持續(xù)增長,運用人工智能類似技術來窺探獲取他人隱私已經成為主要手段之一,但由于使用人工智能手段隱蔽性高,不易被發(fā)現(xiàn),因而在侵權人的確定方面十分困難。
當前,人們的身份信息、財產信息等私人信息在政府、銀行、保險等各機構和商家處保存,且絕大多數(shù)是以手機號碼、微信號碼、銀行卡號、QQ號碼等綁定在一起,隨著人們對于手機的依賴性越來越強,只要攜帶手機,人們的日常作息和行動軌跡就已經全部暴露在商家或一些機構手中,我們購買商品的次數(shù)、數(shù)量、種類都會在數(shù)據(jù)交易完成后上傳至云端,商家運用人工智能技術,推算出人們的消費習慣和消費傾向,進而利用手機、電腦中的插件實施廣告精準投放;諸如一些運動手環(huán)/手表則可以記錄人們的心跳、行走步數(shù)、血壓、睡眠時長和質量,并將這些信息通過物聯(lián)網上傳至互聯(lián)網,并由人工智能分析出人們的健康情況、健康需求,再經由手機APP向人們提供保健品的購買選擇[2]。雖然我國在《民法總則》第111條和《網絡安全法》對于個人信息的收集和使用進行了約束,但人工智能在被用于從事對公民大數(shù)據(jù)收集和分析的過程中并不能鑒別取得的個人信息或數(shù)據(jù)是否存在違反法律的行為,而商家利用人工智能實施商業(yè)活動時可能存在數(shù)據(jù)的泄露風險等等一系列問題,都有可能導致侵犯他人的合法權益。
隨著人們在互聯(lián)網上上傳的照片數(shù)量每年以幾何數(shù)字遞增,以及光學設備的不斷更新,以人工智能為核心的人臉識別的圖像抓取和分析技術的精確率已經超過了95%,但與此同時,政府部門、機構或商家在利用人工智能技術采集人們的肖像后在未經處理和權利人同意的情況下在互聯(lián)網上進行公布的行為則可能存在侵犯他人肖像權的風險。如我國一家開發(fā)人工智能人臉識別技術的公司,在海外展會中展示超過數(shù)萬張隨機收集的人臉識別圖示并用于企業(yè)對外技術宣傳,其行為顯然已經侵犯了被拍攝者的肖像權[3]。
除了上述權利之外,諸如自然人的聲音、動作、表情等其他人格權利,也持續(xù)受人工智能技術的威脅,目前很多軟件都可以實現(xiàn)對自然人的聲音、行為特點、特有表情進行模仿,并在未經他人同意的情況下擅自對外宣傳或使用,則有可能會構成對他人人格權的侵害。
在人工智能的核心內涵在于模仿人類搜集、處理和分析信息和數(shù)據(jù)的思維模式。在人工智能所檢索的數(shù)據(jù)庫中,大致分為私人所有的數(shù)據(jù)、企業(yè)組織所有的數(shù)據(jù)以及公共機構所有的數(shù)據(jù)。其中,人工智能選取的有效數(shù)據(jù)越多,人工智能所取得的工作成果也就越有價值。但在這一過程中,顯然需要明確數(shù)據(jù)的取得途徑和所有權人,以保障對他人數(shù)據(jù)的合法使用。我國《民法總則》第127條規(guī)定了虛擬數(shù)據(jù)的新型財產權屬性[4]。因此,在人工智能在利用虛擬數(shù)據(jù)時是否存在濫用和泄露他人數(shù)據(jù)而侵犯他人數(shù)據(jù)財產權顯然需要受相關法律的規(guī)制。這就需要人工智能對算法進行數(shù)據(jù)選取方面的設定,而這又將影響到人工智能分析后所取得的成果質量,目前人工智能在數(shù)據(jù)使用時是否侵犯他人的虛擬數(shù)據(jù)財產權這一問題難以得知,一方面是因為人工智能使用何種數(shù)據(jù),在不限制范圍的情況下,即便程式開發(fā)者可能也無法得知;另一方面,人工智能的算法本身就屬于一種商業(yè)機密,不會因為人工智能侵犯了他人的數(shù)據(jù)財產權就將其進行公布。以上多種原因共同造成了目前個人和企業(yè)組織的虛擬數(shù)據(jù)保護均暴露在侵權風險之下。
人類歷史上的每一次科技革命在帶給人們更加便利生活的同時,也在給社會的和諧和秩序帶來新的挑戰(zhàn)?;ヂ?lián)網技術從出現(xiàn)至今,各種犯罪活動層出不窮,而隨著人工智能的出現(xiàn),既提高了人類社會發(fā)展的效率,也更新了犯罪的方式和手段。部分傳統(tǒng)犯罪形式在新型高科技的改裝下,對人類社會危害程度不斷加深,其損害范圍也從針對單個個體逐漸群體化。
2017年,浙江紹興發(fā)生全國第一起通過人工智能軟件實施大規(guī)模詐騙的案例,該類犯罪共分為四個不同的團伙獨立作案,相互只存在數(shù)據(jù)交易,沒有直接的聯(lián)系,但共同特點是均采用不同的人工智能軟件進行作案。第一個團伙利用軟件自動攻擊服務器并獲取用戶后臺數(shù)據(jù),并將數(shù)據(jù)自動分類賣給下線,下線通過機器人向搜索過關鍵詞的群體定向發(fā)布數(shù)據(jù)信息并尋找買家,買家通過購買又另一團體設計的“撞庫”軟件,能夠自動輸入驗證碼以及回答驗證人工操作而設置的模塊滑動并進行自動圖片識別,進而登陸個人用戶的社交軟件并自動發(fā)布消息實施詐騙[5]。從整個流程來看,每一個環(huán)節(jié)都是以人工智能機器人操作為核心犯罪手段,第一階段的團伙運用人工智能的駭客軟件在無風險的情況下成功獲得公民個人信息超過10億條,而制作“撞庫”軟件的團伙在自己制作的人工智能圖片識別則是通過“深度學習”,在識別圖片和滑動模塊方面成功率超過99%,在團伙落網前,“撞庫”軟件已經完成了259億次圖片識別,最終實施詐騙的團伙則利用機器人收集的聊天記錄和信息定向發(fā)布信息給活躍好友,單筆詐騙金額1000元,總詐騙金額超過了600萬元。有機構測算,我國互聯(lián)網黑色產業(yè)鏈的從業(yè)人數(shù)超過150萬,市場規(guī)模高達千億元[6]。盡管各類商業(yè)機構也在積極開發(fā)人工智能來識別相應的犯罪,但基于“深度學習”的功能同樣能夠在犯罪方式上進行更新。倘若不對人工智能在對虛擬數(shù)據(jù)的提取和使用方面進行法律保護,極有可能在將來的人工智能技術的開發(fā)中讓全部公民都暴露在人工智能犯罪活動的風險下。
在對人工智能的分類標準上有強人工智能和弱人工智能之分,前者主要指的是具備推理和解決問題的具備自我意識的智能機器,而后者則是必須在人類的指令下完成既定的工作的人工智能。隨著人工智能領域的迅速發(fā)展,強人工智能盡管受到人類倫理和道德限制而未能取得進展,但弱人工智能在各領域均取得了重大突破,并且在某些方面已經具備了強人工智能的特點。這就存在人工智能機器在數(shù)據(jù)的選擇上可能自主學習獲取數(shù)據(jù)更快捷、更有效的方法,而網絡中存在的大量指導人們學習制作病毒、駭客技術可能會被人工智能自主學習并運用于數(shù)據(jù)的收集工作,這一點可以從阿法狗與李世石第二次對弈時以壓倒性的優(yōu)勢勝出看出,正是阿法狗在基于搜索網絡數(shù)據(jù)的同時自我對弈,衍生出幾何級的資料庫后,與先前的實力有了天差地別的變化[7]。
不難預見,即便是弱人工智能技術,也有很大可能性會通過神經網絡系統(tǒng)來自我學習并掌握獲取數(shù)據(jù)的所有技能,并在人類不知情的情況下采取非法甚至犯罪的方式進行學習,從而造成嚴重的社會后果。我國最高院和最高檢在關于虛擬數(shù)據(jù)和信息犯罪方面的司法解釋,雖然指出對互聯(lián)網中的虛擬數(shù)據(jù)信息系統(tǒng)應給予必要的保護,但對于網絡數(shù)據(jù)所蘊含的價值保護則沒有做出說明。從上節(jié)中的案例可以看出,人工智能對于數(shù)據(jù)的獲取是定向、專業(yè)、高效的,通過學習如何利用漏洞取得進入數(shù)據(jù)庫,并在極有可能不被發(fā)現(xiàn)的情況下,利用一次網絡攻擊便能獲得大量的個人信息,從而大幅降低犯罪成本。
鑒于人工智能技術可能引發(fā)的法律風險,如何在人工智能廣泛運用的大背景下減少由于對虛擬數(shù)據(jù)的濫用而對社會造成的負面影響,不僅考驗著人工智能產業(yè)的發(fā)展,同樣對構建社會虛擬數(shù)據(jù)保護的法律制度構建提出了嚴峻的挑戰(zhàn)。
由于商業(yè)需要,很多情況下人們在使用各類APP、注冊網站、成為會員的過程中要向商業(yè)機構告知自己的個人信息,以犧牲部分隱私來換取便捷的商業(yè)服務。而多數(shù)不良商家或缺乏職業(yè)道德的員工常常對外低價出售個人信息,并將數(shù)據(jù)上傳至互聯(lián)網中。這類案件在我國已經呈普遍多發(fā)態(tài)勢,且對于掌握人工智能技術的使用者來說,收集這類信息已經輕而易舉。因此,在人工智能對大數(shù)據(jù)的使用過程應當在一般情況下禁止對個人信息的搜集和匹配,即便在出于安全保護、行政行為的運用人工智能使用個人信息,也應盡最大可能的保護個人信息不被上傳或公開,避免他人對個人信息的二次利用。如攝像頭拍攝的人像、錄影機錄制的視頻等等,在必要的運用中都應當對鏡頭或圖片中的人像先進行預處理再上傳或公布,即便必要的使用人工智能對個人虛擬數(shù)據(jù)進行分析時,也應考慮是否違反了保護被采集者“人格尊嚴”的憲法精神。綜合考慮在合理合法的使用人工智能分析和保護個人信息安全之間尋找平衡。
在人們的信息被用做科學研究、政府辦公、商業(yè)分析或公共安全等各類用途時,一般是使用人工智能的一方在未取得他人同意的情況下開展的,個人信息的被使用者也自然無法知道自己個人信息的使用和泄露情況,因而個人信息的安全性和隱私性便不能得到有效保障。為了減少這類信息不對稱情況,除了國家特殊機關外,所有使用個人信息的組織和機構,必須就使用個人信息用于特定用途的原因、目的和方法予以公示,并將使用的人工智能技術的種類、名稱和基本工作原理向社會展示,讓社會中專業(yè)人士和公眾進行監(jiān)督,并對使用過程中可能存在的泄露和濫用風險提出改進意見。
早在1990年,聯(lián)合國就制定了《個人隱私和數(shù)據(jù)保護原則》,并提出數(shù)據(jù)的使用應符合可持續(xù)發(fā)展原則,對于個人信息的收集方式應符合合法和公平的原則,在用做他途時應征得信息權人的同意,并采取嚴格且必要的信息保護措施,防止個人數(shù)據(jù)被可能具有非法目的的第三方獲取并使用[8]。我國《刑法》第253條中也規(guī)定了未經同意獲取公民個人信息、行動軌跡數(shù)量達到一定程度即構成犯罪。但實際情況下,即便許多企業(yè)是基于合法前提取得用戶信息及隱私相關的個人數(shù)據(jù),但其對于數(shù)據(jù)的保護不周、產生個人衍生信息、或以其他形式儲存或轉發(fā)的數(shù)據(jù),都可能導致第三人濫用個人信息從事違法活動,且往往難以舉證。這就需要對相關行業(yè)進行嚴格的規(guī)范,諸如限制使用人工智能對個人的自動定位、通訊記錄、設備信息進行上傳后儲存的行為;也可以通過將上述方式取得的一手信息進行虛擬化處理,以免數(shù)據(jù)被盜取或濫用。