馬鐵紅
(西北師范大學 法學院,甘肅 蘭州 730070)
人工智能技術(shù)(Artificial Intelligence,簡稱為AI),是通過技術(shù)手段對人類智商與情商、能力與才能的研究與效仿。目前學界基本一致認為:人工智能是“人類制造出來的機器所呈現(xiàn)出的智能,與自然進化而來的人類智能相對應”。
1956年,“人工智能”這一學科范疇在DARTMOUTH 學會上被首次提出時,僅被視為計算機科學的一個分支。經(jīng)過六十多年的研發(fā),其已經(jīng)從實驗室階段進入到越來越廣泛的實際應用領(lǐng)域,成為人類大腦與社會實踐緊密結(jié)合的復雜技術(shù)系統(tǒng)。機器人、人臉識別、無人駕駛、刷臉支付、AI 換臉等新技術(shù)成果的不斷應用,一次次刷新人類對該項技術(shù)的認知,其對人類的貢獻與作用也日益顯著。人工智能的大規(guī)模運用把人力從簡單、反復或危險的工作中解放出來,在節(jié)約人力資源的同時提高了工作效率,也為人類生活帶來了極大地便捷。但人工智能技術(shù)在應用過程中所產(chǎn)生的風險也不容忽視。
人工智能雖然能夠像人一樣進行思考和行動,但人工智能畢竟不是真正意義上的人,一個具有完全民事行為能力的自然人都有犯錯甚至違法的可能,作為人工制造品的模擬人類思維的人工智能,既可能存在設計或制造方面的瑕疵,在應用中也可能存在無法預知的風險。人工智能應用中的風險是指在人工智能技術(shù)應用過程中對國家、社會或個體可能產(chǎn)生的負面影響。具體而言,主要有以下幾類。
人工智能依賴云計算實現(xiàn)收集、存儲和分析海量數(shù)據(jù),包括個人的基本信息、身份信息、生物信息等,涉及隱私信息被侵犯的可能。在信息化時代,對高質(zhì)量信息數(shù)據(jù)的獲取及控制與反控制已成為經(jīng)營者之間競爭的關(guān)鍵領(lǐng)域。云計算的出現(xiàn)又推動了人工智能技術(shù)發(fā)展,但與此同時,在經(jīng)營者挖掘開發(fā)大數(shù)據(jù)的過程中,對于個人隱私或企業(yè)商業(yè)秘密的侵犯也是人工智能技術(shù)應用中不可忽視的首要風險。人工智能技術(shù)支撐下的電子設備通過記錄使用者的個人信息、使用習慣及偏好,力圖為用戶提供更好的服務及更舒適的用戶體驗,本來是應當提倡的,但現(xiàn)實是:大量使用者的數(shù)據(jù)信息會被收集、匯總并傳輸?shù)皆贫耍坏﹤鬏斚到y(tǒng)出現(xiàn)漏洞,大量的個人隱私或企業(yè)商業(yè)秘密就會被泄露,傳輸過程中信息也有被截獲的可能。大數(shù)據(jù)時代的來臨,意味著個人隱私權(quán)被侵犯的可能性大大增加。
人工智能技術(shù)的運用存在危害人身及信息安全的可能,應考慮以下三個方面。
1.技術(shù)本身的缺陷問題
近年來,人工智能技術(shù)雖然有了突飛猛進的提高,但其在應用中仍然出現(xiàn)危及人身或財產(chǎn)安全的事故。雖然“算法決策”(基于數(shù)據(jù)和算法的智能化認知與決策)因其客觀、高效、精確的優(yōu)點被廣泛運用,但是算法決策,歸責主體難以確定,同樣會危害信息安全。
2.技術(shù)的濫用問題
人工智能技術(shù)具有非常強大的自我學習能力,因此其對數(shù)據(jù)的需求是無窮盡的。為了完善其服務能力和系統(tǒng)性能,算法將極其深入和精細地對數(shù)據(jù)進行挖掘,這就可能對某些受保護信息的安全造成危害。如近年來頻頻出現(xiàn)的“網(wǎng)絡爬蟲”現(xiàn)象就屬于游走在合法與非法收集信息的灰色地帶,“AI 換臉”則涉嫌侵犯他人的民事權(quán)利,甚至涉嫌犯罪。另一方面,人工智能系統(tǒng)也有可能被“黑客”利用,致使受保護信息被破壞。我國刑法中有非法侵入計算機系統(tǒng)罪和破壞計算機信息系統(tǒng)罪的相關(guān)規(guī)定。但其規(guī)定的犯罪主體為自然人。被利用的人工智能系統(tǒng)所實施的上述罪名應當如何定論,依然是立法部門要重點關(guān)注的。
3.技術(shù)開發(fā)者管理問題
人工智能的技術(shù)水平突飛猛進,這對管理者的管理能力、管理水平提出了更高的要求。若人工智能的開發(fā)者對技術(shù)系統(tǒng)的安全監(jiān)管不到位,該系統(tǒng)極易被入侵或利用,危害人身、財產(chǎn)或公共安全。
人工智能技術(shù)被廣泛使用,越來越多地代替人類作出決定和行動,其智能性也越來越高,越來越接近人類。因此,人工智能必定要受到人類社會的法律、倫理道德的約束。根據(jù)現(xiàn)有的發(fā)展速度和規(guī)模,很可能在不久的將來,將會有越來越多的保姆機器人、醫(yī)療機器人、寵物機器人等走進千家萬戶。這些機器人將擁有更高的智能水平,那時我們將如何看待這些高智能體呢?我們是將它們與人類等同看待,還是僅僅視它們?yōu)槔浔臋C器呢?它們與人類所飼養(yǎng)的寵物相比地位又將如何呢?它們能否獲得法律、道德上的主體地位及相應的權(quán)利呢?如何用法律上、道德上的義務來約束它們。
人工智能雖然具有一定的智能性,但其并非生物,不具備邏輯思維能力,因此永遠不可能完全代替人類的情感和思維。無論人工智能技術(shù)發(fā)展到何種水平,都不是該技術(shù)本身的能力,而是人類通過研發(fā)賦予該技術(shù)的能力。作為人類科技發(fā)展的產(chǎn)物,人工智能自身并無善惡之分。分析人工智能的道德風險,其根本原因在于人類設計人工智能的價值取向和運用方向的選擇。從寬泛的角度講,人工智能的所有風險都可以歸入道德風險之列,本文所探討的道德風險僅指人工智能在恪守倫理規(guī)則方面的有限性風險。對人工智能潛在的道德風險進行合理地干預與監(jiān)督,是十分有必要的。
任何新技術(shù)從被發(fā)明出來到進入實際應用階段,都需要經(jīng)歷不斷發(fā)現(xiàn)問題、不斷排除風險、改進與完善的過程。人工智能技術(shù)也是如此,不可能存在沒有風險的人工智能技術(shù),人類只能盡最大努力去防控技術(shù)風險,但不可能徹底消除風險。
作為人工智能開發(fā)、應用、維護者的企業(yè),通過人工智能技術(shù)謀求經(jīng)濟利益最大化、經(jīng)營成本最小化。
人工智能這個新技術(shù)產(chǎn)生之初,政府如同對待其他新技術(shù)一樣,重點是人工智能技術(shù)的安全性、該技術(shù)帶來的工作便捷、產(chǎn)生的經(jīng)濟效益等。
在日常生活中,便捷高效的人工智能提供服務往往很受民眾的青睞,至于人工智能使用中會不會產(chǎn)生相應的風險,很多用戶并未認真考慮過這個問題。
人工智能技術(shù)發(fā)展迅猛,隨之而來的新問題也越來越多,我國政府已經(jīng)將人工智能技術(shù)納入監(jiān)管的視野。自2020 年下半年以來,監(jiān)管部門對平臺企業(yè)濫用人工智能技術(shù)進行“大數(shù)據(jù)殺熟”等不當行為進行了治理與規(guī)范,取得了一定的效果。但還應當將關(guān)于人工智能的規(guī)范化治理立法化、常態(tài)化,這樣才能有效防范風險,更有利于人工智能技術(shù)的良性發(fā)展,造福人類。
針對人工智能的立法理念也應當符合時代特征及新的要求,立法中應當明確規(guī)定人工智能技術(shù)的開發(fā)、使用、維護均應當以人為本,以社會主義核心價值觀為技術(shù)應用的導向,這應當是人工智能立法的宗旨。在這個宗旨指導下的立法,應對人工智能應用中的新問題、新挑戰(zhàn)。
在關(guān)于人工智能的專門法律中,應當規(guī)定人工智能監(jiān)管機構(gòu)及其職權(quán)與責任,明確界定人工智能主體的權(quán)利、義務,確定責任主體應當承擔的責任。
其次,因人工智能技術(shù)涉及到復雜的技術(shù)問題,若立法機關(guān)認為勝任立法工作尚有難度,還可以組織專家聽證會或?qū)⒉糠至⒎?quán)限授予其下屬部委或司法機關(guān)、行政機關(guān)。
再次,完善、充實現(xiàn)有法律、行政法規(guī)及規(guī)章中有關(guān)人工智能的相關(guān)條文、規(guī)定,使之能夠與時俱進,能夠應對實踐中出現(xiàn)的爭議性問題。目前,相關(guān)部門已經(jīng)做出了相應的規(guī)劃,中共中央,國務院在今年9 月22日發(fā)布的《知識產(chǎn)權(quán)強國建設綱要(2021-2035 年)》中就明確提出“加快大數(shù)據(jù)、人工智能、基因技術(shù)等新領(lǐng)域新業(yè)態(tài)知識產(chǎn)權(quán)立法?!?/p>
最后,法律由民意產(chǎn)生,通過立法對人工智能技術(shù)的風險監(jiān)控也應當符合民意,因此在立法中應當廣泛征求意見,尤其是人工智能技術(shù)領(lǐng)域及法律領(lǐng)域?qū)I(yè)人士的意見很有必要。
作為民事活動的基本法,《民法典》的重要性無須贅述,但《民法典》還需要相應的配套性單行法律才能更好的發(fā)揮作用。比如個人信息保護涉及多個不同的法律部門,《民法典》中的相關(guān)規(guī)定為我國個人信息保護制度奠定了基礎,但在具體操作中還存在諸多需要進一步明確的內(nèi)容,出于立法技術(shù)的原因,這些內(nèi)容在《民法典》中就只能做概括性規(guī)定或未進行規(guī)定。例如關(guān)于個人信息的“被遺忘權(quán)”就屬于此類。2016 年4 月歐盟的《通用數(shù)據(jù)保護條例》(簡稱GDPR)第17 條明確提出了被遺忘權(quán),這是該權(quán)利進入立法保護的開始。我國《民法典》第1037 條規(guī)定了自然人對個人信息數(shù)據(jù)的刪除權(quán),但該法條規(guī)定的適用情形屬于“原罪型”模式,并未涉及自然人能否申請屏蔽或刪除涉及其本人的真實但無用或負面的個人信息,而主張行使被遺忘權(quán)的主要目的就是要刪除或屏蔽這類信息。2021 年8 月20 日頒布的《個人信息保護法》第21 條第二款規(guī)定:受托人應當按照約定處理個人信息,不得超出約定的處理目的、處理方式等處理個人信息;委托合同不生效、無效、被撤銷或者終止的,受托人應當將個人信息返還個人信息處理者或者予以刪除,不得保留。該規(guī)定就是對《民法典》中關(guān)于“被遺忘權(quán)”規(guī)定的補充??梢灶A期的是,最高人民法院將會結(jié)合審判實踐出臺相關(guān)司法解釋,對個人信息保護的法律適用中出現(xiàn)的問題進行規(guī)范,與上述立法共同構(gòu)成全方位保護個人信息保護的多元法律體系。今后,將會有諸多涉及人工智能的單行立法逐步出臺,與《民法典》共同為該行業(yè)的健康有序發(fā)展保駕護航。
在現(xiàn)實生活中,由于訴訟成本高、舉證困難等原因,一些涉人工智能類糾紛中的被侵權(quán)人放棄了維權(quán)。查閱此類侵權(quán)案件,會發(fā)現(xiàn)侵權(quán)者較常見的民事責任是賠禮道歉、停止侵害、消除危險、消除影響、恢復名譽以及賠償損失。如果侵權(quán)者違法成本很低,則無異于鼓勵侵權(quán)者繼續(xù)實施侵權(quán)行為,并且會導致更多的侵權(quán)者效仿。因此,在處理人工智能類侵權(quán)案件中,應當對設計開發(fā)者、設備制造者、使用者因故意或重大過失侵害他人人身或財產(chǎn)權(quán)益的行為適用懲罰性賠償,讓此類違法、侵權(quán)者付出相應的代價,提高其違法成本,有效遏制此類行為,并對其他違法者起到警示作用。目前,我國《消費者權(quán)益保護法》、《食品安全法》中設立了懲罰性賠償制度,已經(jīng)有了明顯的社會效果。
在通常的民事訴訟中,基本上適用“誰主張,誰舉證”的證據(jù)規(guī)則。但在人工智能類侵權(quán)的責任認定方面,應采用舉證責任倒置則更為公平。首要原因是人工智能技術(shù)復雜,且出于保護專利及商業(yè)秘密的原因,相關(guān)數(shù)據(jù)被合法的控制在設計者、制造商的手中。在發(fā)生侵權(quán)事故后,因用戶對侵權(quán)產(chǎn)品一無所知,無法對生產(chǎn)商有無過錯做出任何指控,從而導致受害人維權(quán)困難。其次,由于人工智能類侵權(quán)行為具有基于技術(shù)手段的隱蔽性,在此類侵權(quán)案件中,受害人在侵權(quán)商品相關(guān)的技術(shù)、信息方面在均是弱勢的一方,讓受害人負責舉證侵權(quán)人存在過錯是比較困難的,如果讓人工智能的開發(fā)者或設備的生產(chǎn)者承擔舉證責任,將更有利于維護受害人的合法權(quán)益。最后,從促進行業(yè)規(guī)范發(fā)展的角度來看,采取舉證責任倒置在一定程度上也能夠促使人工智能的開發(fā)與制造者采取更為謹慎的態(tài)度進行技術(shù)研發(fā)與應用,在人工智能技術(shù)的安全性、穩(wěn)定性、可靠性方面提高水平。
在信息化的大工業(yè)生產(chǎn)時代,基于人工智能技術(shù)的產(chǎn)品與服務大規(guī)模的開發(fā)出來并投入市場后,一旦發(fā)生侵權(quán)行為,通常是一批人或某些群體的權(quán)益都受到侵害。當某類人工智能侵權(quán)行為的受害者眾多時,若僅靠單個個體通過單個民事訴訟的途徑進行維權(quán),這種力量非常有限且維權(quán)成本高,訴訟風險也大。因此,有必要在人工智能類侵權(quán)糾紛的解決中建立集體訴訟機制。眾多受害人共同委托專業(yè)律師、聘請專家輔助人協(xié)助進行維權(quán),既可以降低訴訟成本,又能夠有效地達到維權(quán)目的,同時也提高了法院的審判效率,收到更好的社會效果。
人工智能技術(shù)當然會帶來一些新的倫理問題,在設計之初就應該預測和評估某個人工智能產(chǎn)品可能引發(fā)的道德風險。我們也可以通過立法強制性要求在人工智能技術(shù)的開發(fā)設計中植入社會公認的倫理道德,讓人工智能所實施的行為符合人類通行的倫理規(guī)則。從這個角度看,現(xiàn)行的人工智能所存在的道德風險實際上是開發(fā)設計者在“預置程序中植入的風險”而非人工智能技術(shù)自身的風險,技術(shù)本身是中立的,技術(shù)自身并不會進行任何道德判斷,設計者對人工智能技術(shù)的“道德預置”決定了人工智能應用中的道德水準及價值取向。例如,現(xiàn)行的交通規(guī)則要求機動車駕駛?cè)嗽诼房凇氨茏屝腥恕?,否則會受到行政處罰。如果在無人駕駛機動車的控制程序中也“植入”在路口“避讓行人”的程序,則無人駕駛車輛在路口不避讓行人的道德風險就可以有效防范,甚至無人駕駛機動車在路口避讓行人方面可能比有人駕駛機動車還規(guī)范、徹底??梢?,通過立法對人工智能技術(shù)應用中的風險進行防控時,重視并監(jiān)督人工智能技術(shù)開發(fā)中鍥入倫理因素是可行且十分必要的,否則,人工智能技術(shù)的應用越廣泛,對人類社會及人類自身帶來的損害將越嚴重。
在人工智能技術(shù)的道德風險監(jiān)控方面,英國在2016 年10 月發(fā)布了《機器人技術(shù)和人工智能》報告。報告起草中召集了人工智能和人工智能機器人領(lǐng)域諸多專家和研究者一同討論了人工智能技術(shù)的發(fā)展將會帶來的道德風險,強調(diào)要讓運用人工智能技術(shù)的決策系統(tǒng)更加透明化;讓算法造成的偏見最小化;對于人工智能的檢驗更加制度化;通過對數(shù)據(jù)使用的限制保護隱私權(quán)。建議我國應當設立人工智能技術(shù)倫理委員會或咨詢小組,為政府在此類決策方面提供意見和建議。
運用人工智能技術(shù)所生產(chǎn)出的產(chǎn)品要想符合社會需求,為人民大眾所需要,就必須具有一定的安全性和可靠性,這樣才能贏得信任。因此必須建立一整套人工智能產(chǎn)品的行業(yè)標準,在產(chǎn)品投放市場以前,要經(jīng)過多次實驗,發(fā)現(xiàn)問題并不斷完善,提高人工智能產(chǎn)品的安全系數(shù),使其符合行業(yè)標準,讓人民群眾在使用人工智能產(chǎn)品的過程中心里更踏實。當人工智能產(chǎn)品不符合行業(yè)標準時,開發(fā)者應當承擔必要的民事或行政責任。2021年8 月20 日,由工業(yè)和信息化部提出、全國汽車標準化技術(shù)委員會歸口的GB/T 40429-2021《汽車駕駛自動化分級》推薦性國家標準由國家市場監(jiān)督管理總局、國家標準化管理委員會批準發(fā)布(國家標準公告2021 年第11 號文),將于2022 年3 月1 日起實施,這是中國自動駕駛行業(yè)標準制定的開端。今后,將會有更多的關(guān)于人工智能的標準不斷出臺。
在運用人工智能技術(shù)進行算法決策的過程中,首先要對算法的開發(fā)者進行規(guī)范,盡量降低算法開發(fā)過程中所加入的主觀因素,使算法結(jié)果更具有客觀性。其次要增加算法過程的透明性,取消算法“黑箱”的存在,提高算法決策結(jié)果的可追溯性。最后還要使算法結(jié)果所造成的道德責任明確。這樣才能使算法的運用更符合社會價值觀念,符合倫理道德標準。同時,政府還應當強制性的要求經(jīng)營者規(guī)范人工智能應用中相關(guān)數(shù)據(jù)的存儲、應用及保密。2021 年9 月 16 日,我國工信部發(fā)布了《關(guān)于加強車聯(lián)網(wǎng)網(wǎng)絡安全和數(shù)據(jù)安全工作的通知》,其中最重要的規(guī)定就是,所有車聯(lián)網(wǎng)系統(tǒng)的相關(guān)網(wǎng)絡日志,并提供監(jiān)管機構(gòu)隨時調(diào)用審查,留存日期不得少于6 個月。表明政府已經(jīng)開始重視并規(guī)范人工智能應用中的數(shù)據(jù)管理問題。
[注釋]
①2018 年5 月25 日,歐聯(lián)頒布《通用數(shù)據(jù)保護 條 例》(General Data Protection Regulation,簡 稱GDPR),其前身是歐盟在1995 年制定的《計算機數(shù)據(jù)保護法》。
②《中華人民共和國民法典》第1037 條:自然人發(fā)現(xiàn)信息處理者違反法律、行政法規(guī)的規(guī)定或者雙方的約定處理其個人信息的,有權(quán)請求信息處理者及時刪除。