□ 文 靳岳明 王曉萌
算法技術目前被廣泛應用于醫(yī)療、衛(wèi)生、公共交通等領域,在提供便利的同時也產生了諸多風險。市場力量借助其技術優(yōu)勢、數據優(yōu)勢和資本優(yōu)勢,利用算法技術竊取用戶個人數據信息、對數據信息進行篡改和偽造、通過定向的算法技術實行各類歧視等等,大有“通過算法控制社會”之勢。這是國家法律所不能容忍的,必須防范其對國家、社會和個人帶來的重大安全風險,逐步將其從野蠻發(fā)展引向正軌方向。
目前各大購物軟件、搜索引擎統(tǒng)計推薦算法,搜集與處理了海量的用戶信息、瀏覽痕跡等個人隱私數據,但算法并非全部基于合法途徑獲取用戶信息數據。2020年中央網信辦、工信部、公安部、市場監(jiān)管總局組成的App專項治理工作組發(fā)布通告,曝光了81款App違規(guī)搜集兒童信息、人臉識別信息,甚至使用“監(jiān)聽麥克風”、“監(jiān)控個人輸入”等方式竊取用戶個人信息以獲取市場競爭優(yōu)勢,如果不同意App搜集個人信息的用戶使用協(xié)議,就無法使用App的霸王條款更成為了業(yè)界慣例。而目前算法App對于數據的加工處理缺乏相應的技術和法律規(guī)范,以至于App泄露、販賣用戶個人數據的行為屢禁不止,危及公民人身和財產安全。根據《2018網絡黑灰產業(yè)治理研究報告》我國的網絡黑灰產業(yè)已達千億元規(guī)模,我國公安機關在2018-2020三年的“凈網”專項行動中,共偵破侵犯公民個人信息案件1.7萬余起,而這也許只是網絡黑灰產業(yè)犯罪數量的冰山一角。算法擅自搜集用戶隱私信息,不僅侵犯了用戶的隱私權,更可能造成公民信息數據被泄露和濫用。
算法定向推薦機制存在歧視傾向,往往根據用戶個人興趣與偏好,有針對性地向用戶推送信息。2020年10月19日,浙江省消保委點名美團、飛豬等網絡訂房平臺存在大數據“殺熟”情況。不僅酒店房間定價混亂,同樣的產品在同一平臺報價不同,而且針對新老用戶群體,酒店推送的優(yōu)惠信息也有區(qū)別。各大算法平臺根據用戶的個人喜好、消費記錄等信息,有針對性地推薦捆綁產品、標注不同價格,不僅侵犯了消費者的合法權利,也利用算法機制對客戶的消費習慣與方式進行了控制。
AI換臉等新型算法逐漸浮現,伴隨數據自身流動快、難辨別的特征,導致算法犯罪已經逐漸成為社會信息安全的風險漏洞之一。用戶對于算法平臺搜集臉部特征等生物識別信息缺乏警惕性,不法分子可能利用算法技術竊取人臉數據等,將其應用于色情片段、假新聞、詐騙活動之中。這種“深度偽造”行為,不僅造成公民個人身心財產的損害,還可能導致社會的動蕩與不穩(wěn)定。當算法平臺通過特殊算法機制,偽造有影響力人物、事件的內容,可能會在短時間內引發(fā)社會動蕩。由于目前各大算法公司以商業(yè)秘密為由,拒絕算法的公開,也就意味著算法監(jiān)管的國家力量缺失,算法的失控可能會給社會造成極大安全隱患。
算法目前已經逐漸融入公民生活,但由于缺乏監(jiān)管與責任機制,算法平臺仍普遍以“完全逐利”作為算法運作的價值導向,存在侵害公民權益的風險與追責真空。同時,人工智能算法廣泛應用于交通執(zhí)法、犯罪預測、風險管理等多個公共領域,但如果算法決策的結果錯誤,算法平臺是否需要承擔責任、公民是否有足夠的救濟路徑都存在立法真空。另外,對于算法公司搜集到的公民個人數據信息,是否有完善的儲存監(jiān)管機制,確保公民個人信息存儲和使用的準確性,都有待國家通過算法監(jiān)管與責任機制進一步規(guī)范算法的倫理導向與行為模式。
平臺之間的算法設計決策標準不同會導致算法運行結果的錯亂和失序,應當確定算法決策的國家標準和行業(yè)標準,為平臺的算法設計和決策程序提供相對統(tǒng)一的參考和依據。同時應規(guī)范算法采集個人信息的標準,遵循收集范圍有限原則,嚴格限制App通過“前置協(xié)議”收集并使用超出經營目標和范圍的信息,不同類別App只能根據該類別標準規(guī)定的信息收集權限啟動運行,并在用戶使用協(xié)議中予以明確。互聯網企業(yè)可以根據國家和行業(yè)標準,在企業(yè)規(guī)章制度中制定細化的算法設計標準,對算法決策運行中的實際問題、突發(fā)狀況等采取更具針對性的規(guī)范措施。企業(yè)應積極組織算法標準和技術倫理培訓,增強算法設計工作人員的科技倫理意識,引導其遵循算法技術應用標準和倫理準則。此外,建議實行算法標準適用報備機制,由互聯網企業(yè)向相關主管部門書面報告算法標準的適用情況,優(yōu)化算法決策程序,減少因決策結果明顯不合理造成的損害。企業(yè)應積極組織算法標準和技術倫理培訓,增強算法設計工作人員的科技倫理意識,引導其遵循算法技術應用標準和倫理準則。
明確算法設計者、應用者的責任,實施設計問責和應用監(jiān)督的雙重規(guī)制方式。算法設計是算法應用中不可或缺的重要環(huán)節(jié),但是決策結果的實施會更直接地作用于網絡平臺用戶和消費者,因此需要側重于對算法應用者的規(guī)制,規(guī)范其決策結果適用的對象、標準、范圍和限度,防止錯誤決策的濫用。地方性法規(guī)和政府規(guī)章可以根據特定區(qū)域內不同企業(yè)的經營模式、算法決策的適用以及違法程度,在《行政處罰法》規(guī)定的處罰種類和幅度內,制定更為細化和可操作的處罰措施,例如罰款的區(qū)間范圍、行政拘留的期限、責令停產停業(yè)的適用情形等。相關主管部門應定期開展執(zhí)法檢查工作,督促互聯網企業(yè)分析處理個人信息數據庫時,采取加密保護措施防止信息泄露;為公共利益需要公開個人信息,對涉及個人隱私的部分應作匿名化處理。數據存儲平臺應及時更新數據信息,保證信息的準確性,防止不法分子利用算法技術偽造、篡改數據,侵犯公民權利和社會公共利益。
當下我國更傾向于對算法運行已產生的負面結果予以規(guī)制和處罰,但這種“事后”監(jiān)管方式會產生兩種極端化的負面影響:一是損害后果已經發(fā)生且受害人難以尋求救濟;二是互聯網企業(yè)違規(guī)成本低,對于算法決策程序的優(yōu)化將采取更加消極的態(tài)度。針對算法運行可能產生的不利后果,建議網絡行政管理部門采取“事前審查”的方式,設立專門的算法監(jiān)管機構,邀請人工智能和法律領域的專家開展研討分析,及時對算法運行的決策結果進行判斷和預估,特別是在算法決策涉及公眾切身利益,或者可能產生嚴重社會危害風險的情況下,還應當予以重點監(jiān)測和關注。以算法歧視的審查方式為例,不僅要對含有明顯價格歧視、性別歧視和種族歧視等字段進行篩查,還應當進一步檢測數據庫中是否存在隱含的歧視信息。
算法歧視產生的根源在于算法自動化學習的基礎性數據本身存在偏見,而這些歧視性觀念往往產生于人類社會中既存的不平等和錯誤認知,例如亞馬遜公司在招聘時使用的算法篩選系統(tǒng)往往會給予男性應聘者“特別優(yōu)待”。因此算法技術應用主體在編寫算法程序指令時,就應當將隱私保護、信息安全、決策透明等價值理念嵌入算法設計、發(fā)展和決策系統(tǒng),使得算法在初始數據的收集和處理階段就具有客觀性和公平性,保證算法在自主學習的過程中免受異化,才能作出公正合理的決策結果,從根本上解決算法歧視問題。
算法作為國家數字生態(tài)建設基礎性要素之一,廣泛應用在深度學習、基因工程、搜索引擎和交通運輸、食品加工、智能監(jiān)控等領域,關系著國家數據安全與社會安全穩(wěn)定。進入人工智能時代,算法的自主學習功能使其超越了傳統(tǒng)的工具化范疇,在應用過程中以更加隱晦的方式作出帶有偏向性和歧視性的推送,不僅侵害了公民基本權利,還嚴重挑戰(zhàn)了社會基本倫理道德準則。防范算法技術濫用的重大風險業(yè)已成為算法治理研究領域的核心議題,基于此,法律、制度和倫理應主動介入對算法技術的控制,實現算法應用價值的最優(yōu)化。一方面應加強人工智能算法知識的普及,讓社會群體客觀地認知算法技術,提高隱私保護意識,規(guī)避潛在安全風險;另一方面,需要推動數據平臺企業(yè)、相關主管部門、社會群體公眾共同參與,建立算法技術應用問責機制,實施算法決策影響性評估,加強算法源頭控制,從而防范、消除算法技術不當應用對公共秩序、勞動權益及公民隱私等領域造成的社會安全隱患。