劉憲權
人工智能時代的到來必將帶來風險,其中的刑事風險包括可能使得部分傳統(tǒng)犯罪的危害性發(fā)生“量變”,可能會導致新的犯罪形式產(chǎn)生,以及人工智能產(chǎn)品可能因為種種原因脫離人類控制,進而實施嚴重危害社會的犯罪行為。
目前,我國刑法可以從故意犯罪和過失犯罪兩個方面考慮對人工智能研發(fā)者或使用者的行為加以規(guī)制。對于故意利用人工智能技術研發(fā)或使用相應產(chǎn)品實施嚴重危害社會犯罪的,應當將人工智能產(chǎn)品看作行為人實施犯罪的“智能工具”,所有刑事責任應當由人工智能產(chǎn)品的研發(fā)者或使用者承擔。在過失犯罪的情況下,刑事責任的判斷標準是根據(jù)研發(fā)或使用當時的人工智能技術發(fā)展水平,考察研發(fā)者或使用者對危害結果是否負有預見義務。目前,面對人工智能時代的多重刑事風險,我國現(xiàn)行刑法顯得力有不逮,主要包括:無法規(guī)制智能機器人的犯罪行為,對研發(fā)者和使用者故意或過失犯罪的責任追究也均存在一定的缺陷。
面對人工智能時代已經(jīng)或可能出現(xiàn)的刑事風險,需要對刑法進行一定的修正和完善。第一,從源頭防控風險,增設濫用人工智能罪。濫用人工智能行為已觸犯人類社會的安全問題,刑法需要對其加以特別規(guī)制。而刑法以外法律法規(guī)的規(guī)制不足以威懾人工智能產(chǎn)品的研發(fā)者和使用者,無法起到防控作用。第二,確立嚴格責任,增設人工智能事故罪。在研發(fā)人工智能產(chǎn)品的過程中必須將人類社會的法律以及道德等規(guī)范和價值嵌入相應的系統(tǒng)之中,研發(fā)者和使用者需要在研發(fā)和使用過程中履行數(shù)據(jù)保護義務。人類必須能夠完整控制人工智能自主武器系統(tǒng)。第三,智能機器人的行為完全可能成為法律意義上的行為,適時考慮賦予智能機器人刑事責任主體的地位。
(摘自《法商研究》,2018年第1期,第3-11頁。)
*華東政法大學教授[200042]