艾達·彭斯·德爾·卡斯蒂洛
歐盟委員會的人工智能戰(zhàn)略,側(cè)重于建立“信任”和“卓越”的需要。歐盟委員會認為,最近提出的人工智能法規(guī),將通過解決新技術(shù)的風險來建立對其的信任,而卓越性將來自歐盟成員國的投資和創(chuàng)新??紤]到這兩個因素,歐洲的人工智能應(yīng)用應(yīng)該會加速。
不幸的是,保護歐盟公民的基本權(quán)利似乎淪為了次要考慮;至于保護工人權(quán)利,則似乎根本沒被考慮。
人工智能是歐洲數(shù)字議程的旗艦部分。歐盟委員會表示,其對人工智能的定義,以及作為法規(guī)草案基礎(chǔ)的基于風險的方法,都是根據(jù)公開征詢的結(jié)果得出的。但是,工業(yè)和科技公司在2020年《人工智能白皮書》的受訪者中占了壓倒性多數(shù)。這些企業(yè)將監(jiān)管過程引向有利于其利益的方向。社會,尤其是工會的聲音被淹沒了。
法規(guī)有幾個缺點,其中包括:歐盟委員會基于風險的方法過于狹隘,缺乏補救機制,未能解決涉及人工智能系統(tǒng)的損害責任問題。為解決這一缺陷,一項側(cè)重于就業(yè)環(huán)境中的人工智能的臨時指令,用于保護工人(包括平臺經(jīng)濟中的工人),是一個可能的前進方向。
這一指令應(yīng)該解決幾個關(guān)鍵問題。首先,它應(yīng)該設(shè)定雇主在預(yù)防人工智能風險方面的責任,就像他們有義務(wù)評估職業(yè)健康和安全危害。人工智能風險,包括可能因雇傭關(guān)系的性質(zhì)發(fā)生的管理權(quán)力濫用,以及有關(guān)工人隱私、基本權(quán)利、數(shù)據(jù)保護和整體健康的其他風險。
保護工人隱私和保護數(shù)據(jù)同樣重要。歐盟的通用數(shù)據(jù)保護條例(GDPR)是一個強大的工具。從理論上講,它適用于就業(yè)環(huán)境中的工人數(shù)據(jù)。但在實踐中,工人幾乎不可能對雇主行使GDPR權(quán)利。歐盟應(yīng)該引入額外的規(guī)定,確保他們能夠做到。
使人工智能算法的目的可解釋,也很重要。在這里,企業(yè)的職場透明度規(guī)定不會保護工人;相反,雇主作為算法的用戶,需要考慮部署人工智能可能造成的職場傷害。使用有偏差的值或變量,可能會導(dǎo)致對工人進行畫像,針對特定個人,并根據(jù)估算的“風險水平”對他們進行分類。
另一項重點工作是,確保工人可以行使他們的“解釋權(quán)”。這里的含義是,雇主有義務(wù)在實施算法之前咨詢員工,而不是事后通知。此外,所提供的信息必須使員工能夠理解自動化決策的后果。
新的臨時指令,還應(yīng)保證工作中的所有人機交互都遵守“以人為主”的原則。這包括讓人類擁有最終決定權(quán),并解釋當人類和機器一起行動時,哪些數(shù)據(jù)源負責最終決策。工會應(yīng)被視為“人力”成分的一部分,并與管理者、IT支持團隊和外部顧問一起發(fā)揮積極作用。
此外,歐盟立法者必須禁止算法監(jiān)視工人。目前,監(jiān)控工人受國家法律監(jiān)管,而這些法律通常早于GDPR,沒有覆蓋先進的、侵入性的人員分析行為。人工智能賦能的生物識別、機器學習、語義分析、情感分析和情緒感應(yīng)技術(shù)等工具,可以測量人的生物學、行為、注意力和情緒。這類算法監(jiān)控不是被動掃描工人,而是“刮擦”他們的個人生活,主動構(gòu)建形象,然后做出決定。
最后,工人需要能夠通過了解人工智能來行使代理權(quán)。教他們技術(shù)數(shù)字技能以便他們能夠操作特定系統(tǒng),是不夠的。理解人工智能的作用及其對工作環(huán)境的影響,需要員工知情、接受教育并批判性地參與到技術(shù)中去。
監(jiān)管人工智能系統(tǒng),尤其是被視為高風險的系統(tǒng),不應(yīng)基于其供應(yīng)商的自我評估。歐洲可以成為該領(lǐng)域的全球領(lǐng)導(dǎo)者,培養(yǎng)公眾對這一新興技術(shù)的真正信任和接受,但前提是能有效地保護公民和工人并讓他們參與進來。