黑龍江盛名律師事務(wù)所,黑龍江鶴崗 154211
從實(shí)際情況來看,在人工智能的推進(jìn)之下也產(chǎn)生很多的刑事風(fēng)險(xiǎn),人工智能產(chǎn)品的使用者或開發(fā)者可能通過人工智能相關(guān)技術(shù)進(jìn)行某種犯罪活動(dòng),而這樣的情況對于社會(huì)的安全穩(wěn)定和人們的安居樂業(yè)造成極大的威脅?;诖?,有必要對于人工智能時(shí)代所產(chǎn)生的各類刑事風(fēng)險(xiǎn)和應(yīng)對策略等內(nèi)容進(jìn)行深入探究,希望能夠從根本上有效避免或者降低相關(guān)風(fēng)險(xiǎn)的發(fā)生和危害程度。
首先,通過人工智能技術(shù),會(huì)進(jìn)一步拓寬犯罪危害性的廣度。因?yàn)槿斯ぶ悄芗夹g(shù)所涉及的層面和領(lǐng)域日益廣闊,對人類社會(huì)生活的各個(gè)方面都有效涉及,因此,人工智能技術(shù)的利用者有可能通過相關(guān)技術(shù)在更大程度上和更廣闊的范圍內(nèi)進(jìn)行犯罪活動(dòng),由此導(dǎo)致各類刑事犯罪的危害范圍進(jìn)一步拓展,所涉及的領(lǐng)域和層面急劇擴(kuò)大,甚至有些危害是毀滅性的、不可逆的。其次,人工智能技術(shù)進(jìn)一步加深刑事犯罪的危害性。例如,犯罪分子通過人工智能技術(shù)會(huì)竊取或者破壞商業(yè)核心技術(shù)等等,甚至針對國有企業(yè)的核心機(jī)密進(jìn)行竊取或者毀滅,在這種情況下,就會(huì)導(dǎo)致十分嚴(yán)重的市場競爭失去規(guī)范的問題,進(jìn)而嚴(yán)重限制市場經(jīng)濟(jì)的良性發(fā)展。
在實(shí)踐的過程中,某些犯罪分子通過人工智能技術(shù)可以系統(tǒng)化地掌握大數(shù)據(jù)技術(shù),然后對其進(jìn)行充分應(yīng)用,這樣可以導(dǎo)致大數(shù)據(jù)被濫用或者誤用,不法分子對其進(jìn)行違法操控,會(huì)濫用大數(shù)據(jù),與人工智能產(chǎn)品研發(fā)初衷存在嚴(yán)重的背離,甚至導(dǎo)致數(shù)據(jù)庫的整體信息被完全破壞或者泄露出去,這種新的犯罪形式導(dǎo)致的后果不堪設(shè)想。另外,通過人工智能技術(shù)可以針對各類數(shù)據(jù)信息進(jìn)行歸納、匯總和分析,特別是探究關(guān)鍵性數(shù)據(jù),采用新手段對其進(jìn)行篡改或者毀滅等等,這樣可以導(dǎo)致企業(yè)或者相關(guān)組織內(nèi)部存在重大的安全隱患,有極大的風(fēng)險(xiǎn)因素,甚至對我國的國家安全和信息安全造成極大的威脅。
智能機(jī)器人是人工智能技術(shù)的典型代表,智能機(jī)器人本身缺乏應(yīng)有的辨別力和控制力,如果被不法分子利用,在其違法控制之下,導(dǎo)致十分嚴(yán)重的危害人類和社會(huì)穩(wěn)定的刑事犯罪,這是不能排除的。另外,我國科學(xué)技術(shù)迅猛發(fā)展,在編程、設(shè)計(jì)等相關(guān)方面人工智能機(jī)器人可能有一定的“自由意志”,在這樣的情況下,某些智能機(jī)器人可能違背人類的意愿和控制,通過自身的行動(dòng),對社會(huì)和人類造成毀滅性的危害,而如果出現(xiàn)此類犯罪,所造成的后果是毀滅性的,不可想象的。
首先,為了從根本上有效規(guī)避人工智能技術(shù)可能導(dǎo)致的刑事犯罪,在最大程度上消除或者降低其發(fā)生幾率,就需要在法律層面為其提供應(yīng)有的法律保障,使其在安全邊界范圍之內(nèi)對人工智能進(jìn)行切實(shí)的規(guī)范和約束,通過法律法規(guī)的形式,對違法分子進(jìn)行震懾和警示,以此確保人工智能產(chǎn)品的應(yīng)用更合法合規(guī),具有規(guī)范性和針對性。其次,刑法具備應(yīng)有的權(quán)威性,威懾性和規(guī)范性,對于不法分子可以起到極大的警示作用。針對這樣的情況,在刑法中有針對性地增設(shè)濫用人工智能罪,這樣可以充分杜絕濫用人工智能技術(shù)的不良行為,通過相關(guān)法律法規(guī)的制約,同時(shí)配備相對應(yīng)的監(jiān)管機(jī)制,這樣能夠呈現(xiàn)出良好的管控效果,打造更加高效而且完善的人工智能應(yīng)用法律體系。
人工智能技術(shù)相對來講更為特殊,具備自身的優(yōu)勢和價(jià)值,要在人工智能技術(shù)的運(yùn)用過程中確保相關(guān)使用者具備應(yīng)有的權(quán)利和義務(wù),同時(shí)要針對使用者的使用過程和研發(fā)過程等等進(jìn)行嚴(yán)格的控制,這樣才能充分降低人工智能技術(shù)可能帶來的威脅或者危害等等。首先,針對人工智能產(chǎn)品進(jìn)行研發(fā)的過程中,要確保研發(fā)的相關(guān)步驟環(huán)節(jié)等等,能夠充分體現(xiàn)出人類社會(huì)的法律法規(guī)規(guī)范和價(jià)值體系,確保產(chǎn)品使用者能夠充分遵守社會(huì)規(guī)范。其次,在刑法方面增設(shè)人工智能事故罪,以此杜絕人工智能產(chǎn)品研發(fā)和應(yīng)用過程中所有環(huán)節(jié)都保持安全性,穩(wěn)定性,不能出現(xiàn)數(shù)據(jù)被濫用或者誤用等相關(guān)問題,在最大程度上有效降低事故的發(fā)生幾率。
通過上面的分析,我們能夠充分看出,隨著人工智能時(shí)代的來臨,人工智能技術(shù)的應(yīng)用過程中,可能導(dǎo)致不同程度的刑事風(fēng)險(xiǎn),在這樣的情況下,就需要在刑法層面對其進(jìn)行深入分析,進(jìn)一步采取切實(shí)可行的刑法應(yīng)對策略,規(guī)避各類刑事風(fēng)險(xiǎn),提升人工智能的安全性和穩(wěn)定性,規(guī)避各類風(fēng)險(xiǎn)隱患,確保我國刑法更為健全完善,為人工智能技術(shù)的有效應(yīng)用提供必要的規(guī)范和指導(dǎo)。