亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于多通道自注意力機制的刑事案件量刑技術

        2021-12-17 00:56:18蔡怡蕾李尚葉麟張宏莉
        智能計算機與應用 2021年6期
        關鍵詞:機制文本實驗

        蔡怡蕾,李尚,葉麟,張宏莉

        (哈爾濱工業(yè)大學 計算機科學與技術學院,哈爾濱 150001)

        0 引言

        目前司法刑事案件在其審查判決過程中,主要依靠法官等一系列的司法工作者對案件進行審查,并依據(jù)國家律法和案件真實情況對其進行理解和決策分析,從而對案件進行可信、公正地判決。依據(jù)中國對刑事案件判案依據(jù)的有關規(guī)定,在不與《中華人民共和國憲法》等國家級法規(guī)相抵觸的前提下,可參考地方相應的法律法規(guī)進行審判,且法官在案件量刑中擁有一定程度的自由裁量權。因此,會造成針對同一案件,不同的地區(qū)、不同的法官對案件判決的側重點不同的情況,從而導致對案件的量刑有失偏頗。而且近年來刑事案件一審判決數(shù)量顯著增加,而司法工作者人數(shù)反而有縮減趨勢。目前司法判決中的主要矛盾即是日益增長的數(shù)據(jù)與不平衡、不充分的司法人力和司法公正之間的矛盾,如何更好的滿足人民群眾對司法的需求,減輕司法工作人員的繁重負擔是當今司法領域亟需解決的問題。近年來,隨著科技的發(fā)展,人工智能技術日趨完善,利用人工智能技術處理海量數(shù)據(jù),將計算機技術引入司法領域已經(jīng)成為不可阻擋的趨勢,是當下“案多人少”、效率低等問題的有效解決辦法。

        當前司法領域中,“AI+”正處于發(fā)展階段,現(xiàn)有方法還不夠成熟,無法滿足人民群眾對智慧司法的需求?,F(xiàn)如今已有的案件判決中存在著很多高質量的判決案例,且隨著社會的發(fā)展數(shù)據(jù)量不斷增多,這足以為“人工智能+司法”提供良好的數(shù)據(jù)基礎。本文借助歷史案件數(shù)據(jù),采用合適的模型對案件量刑進行學習,使其逐漸承擔法官的案件決策工作,為法官提供決策建議,逐步解放法官,減輕司法工作者工作負擔,使其更加高效、公正的進行司法決策,從而促進司法工作的透明性和可信度的提高。同時,智慧司法可打破非司法工作者與專業(yè)人士之間的壁壘,使法律判決的結果更加可信。

        本文以司法決策為目的,著重研究司法決策中的輔助量刑問題,結合人工智能和領域知識對案件進行剖析,充分發(fā)揮計算機科學與其他學科相結合的優(yōu)勢,努力打造透明、公正的司法量刑,為人民群眾提供公開合法的司法判決,對于維護司法公正,構建法治社會具有重要意義。

        1 相關工作

        早在上世紀五十年代,研究學者就意識到了智慧司法的重要性,提出將法律領域信息化,結合計算機領域知識推出自動檢索和案件判決模型?,F(xiàn)如今,智慧司法主要方向包括案件分類、輔助量刑、證據(jù)推理、法律推理、類案推送、文書編寫、法律問答以及信息檢索與查詢等[1]。

        在刑期預測方面,林等人在強盜罪和恐嚇取財罪2 個罪名的案件中提取出21 個要素標簽,并增加自動提取特征標簽,通過對標簽一系列的分析后,對這2 種罪名進行罪名分類和刑期預測[2];Li等人使用多通道層次注意力神經(jīng)網(wǎng)絡學習案件事實、被告人基本信息以及法律法規(guī)之間的內在聯(lián)系和深層語義,從而構造罪名預測、法律推薦以及刑期預測的統(tǒng)一框架,在評估指標上都達到了新的高度[3];Zhong等人認為法律判決預測中罪名預測、法條推薦、刑期預測、罰款預測等各個子任務之間存在一定的拓撲依賴性,因此將該依賴關系轉化為圖結構,構建包含拓撲關系的多任務學習框架進行司法判決多任務共同預測,從而提高法律判決的可信性和可解釋性[4];Yang等人基于LJP 子任務之間的關系,提出可以基于注意力機制的多角度雙向神經(jīng)網(wǎng)絡,通過前向預測和后向驗證,顯著提高了各子任務的預測準確率[5];Chen等人基于案件罪名進行刑期預測,提出針對罪名的特征篩選機制的深度神經(jīng)網(wǎng)絡模型,該模型可針對多罪名案件進行刑期預測,提高了基于各個罪名的刑期預測以及總刑期預測的準確率[6]。在司法判決預測(LJP)中,還有其它各類子問題,如證據(jù)推理問題中,Vlek等人認為所有案件的判決必須經(jīng)過一系列的證據(jù)推理,為案件準確判決提供堅實基礎,同時結合敘述性和辯論性方法,通過貝葉斯網(wǎng)絡生成不同證據(jù)的概率值,從而還原真實的案件信息[7];Walker等人提供了一個用于建模復雜法律推理的可視框架,該框架基于多謂詞默認邏輯將法律法規(guī)與專家知識進行結合,在規(guī)則推論和證據(jù)評估上發(fā)揮巨大作用[8]。在案件分類問題中,Luo等人基于案件事實的信息構建罪名預測模型框架,提出基于Attention 機制的深度神經(jīng)網(wǎng)絡對案件事實部分和法律法規(guī)部分進行向量表示,并將法律法規(guī)信息融入案件事實,從而實現(xiàn)罪名預測[9];Wang等人根據(jù)法律文本以及案件描述的文本特點,將罪名預測問題劃分為分層多標簽分類問題,將父子標簽進行匹配,從而優(yōu)化案件罪名預測問題[10]。

        近年來,隨著人工智能的發(fā)展,“AI+NLP”問題取得了一系列的突出成果,其中一些基礎神經(jīng)網(wǎng)絡模型得到業(yè)界廣泛認可,如Word2Vec、卷積神經(jīng)網(wǎng)絡以及循環(huán)神經(jīng)網(wǎng)絡等。在此基礎之上,業(yè)界學者對其進行深入研究,并產生了許多具有跨時代意義的研究成果。ELMo(Embeddings from Language Models)模型開辟了多義詞向量的大門,該模型不同于以往單詞與向量之間的一一映射的固定模式,而是考慮到語法和語義的復雜性,結合上下文產生適合當前語言環(huán)境的詞向量[11];BERT 的提出是NLP領域內重要的里程碑,在11 個NLP 任務中取得卓越表現(xiàn),訓練出的Word-Level 向量變成Sentence-Level 的向量,下游具體NLP 任務調用更方便[12];Yang 針對文本結構提出層次注意力機制(Hierarchical Attention Networks,HAN),該注意力機制可以將模型結構拆分為2 部分,分別為句子級別的Attention 結構和單次級別的Attention 結構,在文本分類任務上準確率有大幅度提升[13];Google 團隊與2017 年提出自注意力機制(Self-Attention)在業(yè)界引起極大轟動,解決了RNN 系列注意力機制中存在的參數(shù)多,速度慢等問題,在各個任務上均取得優(yōu)秀表現(xiàn)[14]。

        2 模型

        基于多通道自注意力機制的刑事案件輔助量刑技術模型的基本結構如圖1 所示。該模型將被告人基本信息、案件事實描述與法律條文進行融合,構建刑事案件的輔助量刑模型。本文將該模型的輸入輸出形式化的表示如式(1)(2)所示。

        圖1 基于多通道自注意力機制的刑事案件輔助量刑技術模型基本結構圖Fig.1 The basic structure of criminal case auxiliary sentencing technology model based on multi-channel self-attention mechanism

        其中,Sp為被告人基本信息,包括被告人犯罪歷史、精神狀況等信息;Sa為法律條文知識庫,中國法律條文甚多,其中涉及到量刑的法條主要為《中華人民共和國刑法》,本文主要研究的是刑事案件中的故意傷害罪,但由于案情中所出現(xiàn)的情況較多,可能會涉及到除《中華人民共和國刑法》第二百三十四條以外的其它條文,如針對自首情節(jié)的第六十七條法文、針對未成年人犯故意傷害罪量刑規(guī)定的第十七條條文等;Sf為案件事實描述,該部分含有被告人進行犯罪的原因、實施過程、犯罪性質、犯罪后果、對社會危害程度以及犯罪后悔過態(tài)度等信息,該部分是量刑的主要信息部分;Rt為刑期的判決結果,由于本文采用回歸的方法對刑期進行預測,因此,Rt為向量空間的一個非負實數(shù)。

        利用上述模型進行刑期預測的步驟如下:

        (1)輸入數(shù)據(jù)在經(jīng)過分詞后進行向量化表示,構成詞向量矩陣;

        (2)以被告人基本信息和案件事實描述為輸入,將其輸入至法條提取器中,對法律條文知識庫中的法律條文數(shù)據(jù)進行提取,找出和當前案件可能有關系的前若干條法律條文,并將其作為法律條文部分的輸入,本文中該法條提取器為SVM 分類器;

        (3)將各部分輸入數(shù)據(jù)輸入到Embedding 層,對詞向量進行進一步的調節(jié),為后續(xù)工作提供良好基礎;

        (4)將各部分的輸入通過編碼器進行文檔編碼,鑒于注意力機制在自然語言處理中表現(xiàn)出來的優(yōu)異能力,此部分采用多頭自注意力機制進行文檔編碼處理,被告人基本信息、案件事實描述和法律條文的向量表示分別表示為dp、df和da;

        (5)將法律條文的文檔表示da輸入到文檔聚合器中,將被告人基本信息dp和案件事實描述df聯(lián)合起來形成2 部分的上下文向量表示,并以此作為文檔聚合器注意力機制的Query 部分進行編碼計算形成向量表示dw;

        (6)最后,將文檔聚合器所生成向量dw輸入至多層感知機(MLP)中進行刑期預測回歸計算。

        2.1 法條提取器算法

        法條提取器是根據(jù)被告人基本信息和案件事實描述,在法律條文知識庫中選取其可能依據(jù)的前若干條法律條文,法條提取過程如圖2 所示。

        圖2 法條提取過程圖Fig.2 The process of law extraction

        本文采用TF-IDF 進行文本特征處理,得到文本中每個詞的特征值。在使用SVM 進行文本多分類時,采用OVO 的方法,將多標簽分類問題轉化為多個二分類問題。在OVO 方法中,若要對文本進行n分類,在其中包含n(n-1)/2 個分類器。本文中法律條文知識庫為《中華人民共和國刑法》集合,其中包括有452 條法律法規(guī)。

        2.2 文檔編碼器算法

        本文采用多頭自注意力機制進行文檔編碼,其原因在于:

        (1)自注意力機制比CNN 和RNN 神經(jīng)網(wǎng)絡參數(shù)少,計算復雜度低;

        (2)自注意力機制不同于基于RNN 的注意力機制,其可實現(xiàn)并行計算,速度較快;

        (3)自注意力機制進行計算時采用詞與詞之間直接進行相似度計算的方法,使每兩個單詞之間的距離均為1,解決了RNN 網(wǎng)絡中過長序列導致的長期以來關系削弱的問題;

        (4)多頭注意力機制在自注意力機制的基礎上進行擴展,從以往的一個關注點增至多個關注點,每個頭學習到不同表示空間的特征,側重點各有不同,從而更加全面學習文本信息。

        自注意力機制基本結構如圖3 所示。文本中的每個單詞都要和其它所有詞進行相似度計算,以學習到句子內部關系。在計算相似度時,為防止點積計算結果過大,選取縮放點積的方法對其進行調節(jié),即在點積計算后除以尺度標度,其中dk為詞向量維度;之后對相似度值歸一化為概率分布,其中,并且∈[0,1] ;將權重向量再乘以Value 后再將各向量進行相加,得到最終的Attention值。其公式如式(3)所示。

        圖3 自注意力機制基本模型結構Fig.3 The structure of self-attention mechanism

        其中,Q為Query;K為Key;V為Value。Q,K,V3 個矩陣均是文本詞向量矩陣進行線性變化得到的,其公式(4)、公式(5)和公式(6)如下,其中Q'=K'=V'。

        多頭自注意力機制的基本模型結構如圖4 所示,其本質是構造多個不同自注意力機制,在對不同的注意力機制計算得到結果后,將結果進行拼接,通過線性層的轉化得到最終的注意力值,計算公式如式(7)所示。的注意力結果;W*是權重矩陣;b*為偏置。為使

        圖4 多頭注意力機制基本模型結構Fig.4 The structure of multi-h(huán)ead Attention mechanism

        其中,headi表示多頭自注意力機制的第i個頭每個頭都有各自的側重點,每個自注意力機制的輸入需不同,headi計算公式(8)所示。

        其中,Wi為第i個頭計算所需的權重矩陣,不同的頭進行線性變換所使用的權重矩陣不同,從而使注意力更為廣泛。

        2.3 文檔聚合器算法

        文檔聚合器中使用的方法在自注意力機制的基礎上進行改進,在式(3)Self-Attention 中計算Query時所使用并非法條信息,而是使用被告人基本信息和案件事實描述的上下文向量,由式(9)經(jīng)線性變化得到。Query 的計算方法如式(10)所示。

        其中,dp為被告人基本信息向量表示,df為案件事實描述向量表示。

        3 實驗

        3.1 實驗數(shù)據(jù)

        文本中實驗數(shù)據(jù)均爬取自中國裁判文書網(wǎng)(http:/ /wenshu.court.gov.cn/),本文主要爬取關于故意傷害罪有關裁判文書一審判決書,其中北京市11 003 條,湖北省10 956 條,河南省12 955 條,山東省11 692條。裁判文書格式較為固定,如圖5 所示,方便對裁判文書中被告人基本信息、案件事實描述以及案件判決中罪名、所涉及《中華人民共和國刑法》法條以及刑期進行信息提取。

        圖5 判決文書示例Fig.5 The example of judgment document

        3.2 實驗結果與分析

        3.2.1 部分參數(shù)調節(jié)

        (1)法條提取器參數(shù)調節(jié):使用SVM 進行刑期提取的實驗評判結果見表1,其中刑期預測誤差采用平均絕對誤差(MAE)進行衡量。由實驗結果可知,隨著法條提取條數(shù)的增加,法條的召回率逐漸增加,即分類器對正確標簽識別率增加??紤]到召回率增加到一定程度會使刑期預測的誤差增大,且模型的訓練時間增加,本文中選取7為法條提取數(shù)量;

        表1 法條提取數(shù)量對比實驗結果Tab.1 Comparative experiment on the number of law strips extracted

        (2)文檔編碼器參數(shù)調節(jié):實驗結果見表2,其中刑期預測誤差采用平均絕對誤差(MAE)進行衡量。由此可見,其實驗與理論相一致,刑期預測的誤差隨著頭數(shù)量的增多而有一定程度的增加,但到達一定程度后會呈現(xiàn)下降趨勢,且頭的數(shù)量與每一輪的訓練時間成正比。

        表2 多頭注意力機制中頭的數(shù)量對比實驗Tab.2 The comparative experiment on the number of heads in the multi-h(huán)ead attention mechanism

        3.2.2 刑期預測

        本文中使用的實驗基線模型有以下幾個:

        (1)LSTM-Linear:LSTM-Linear 模型以LSTM網(wǎng)絡對文本進行向量化表示,最后通過全連接層對刑期進行預測;

        (2)BiLSTM-Linear:考慮到文本中某一詞語不僅與前文有關,后續(xù)文本同樣對其有所影響,因此采用Bi-LSTM 模型對文本進行向量化表示,更好的學習到全文特征,之后再采用全連接層對刑期進行預測;

        (3)Fact_Law_Info_NN:Fact_Law_Info_NN 模型即基于多通道自注意力機制的刑事案件量刑模型;

        (4)Fact_Law_NN:為了驗證本文中加入被告人基本信息的有效性,F(xiàn)act_Law_NN 模型在Fact_Law_Info_NN 模型的基礎上減少被告人基本信息通道,其余結構與參數(shù)不變,進行刑期預測。

        本文中所采用的評價指標有以下幾種,其中y為預測值,為真實值:

        (1)平均絕對誤差(MAE),式(11)。

        (2)對稱平均絕對百分比誤差(SMAPE),式(12)。

        (3)精準匹配率(Exact Match,EM),預測值和真實值相等的數(shù)量占總數(shù)量的百分比,∑()為真實值與預測值相等的數(shù)量,式(13)。

        (4)ACC_p%:預測值與真實值誤差在p%以內的比值,式(14)。其中,∑((y≥(1-p%) )∧(y≤(1+p%) ))為預測值y∈[(1-p%),(1+p%) ]的數(shù)量,本文中選取p=10、p=20 以及p=30 這3 個值。

        實驗結果見表3。從實驗結果可見,MAE在Fact_Law_Info_NN 模型上的結果最好,在ACC_10%指標上提升了近5%,F(xiàn)act_Law_Info_NN 的精準匹配率同樣在各個模型中脫穎而出。綜合來看,F(xiàn)act_Law_Info_NN 模型在刑期預測任務上具有最好的表現(xiàn)效果。

        表3 實驗結果Tab.3 The results of experimental

        為了考察不同階段刑期預測的情況,現(xiàn)將刑期分為以下幾段:(1)0~6 個月;(2)6~12 個月;(3)12~36 個月;(4)36~120 個月;(5)120 個月以上。在Fact_Law_Info_NN 模型上對其進行各個階段準確率的實驗。其計算方式如式(15)所示。

        其中,y為預測值;為真實值;Count(y∈[a,b))為y取值在區(qū)間[a,b)的個數(shù)。實驗結果如圖6 所示。

        圖6 刑期分段準確率Fig.6 Accuracy rate of sentence

        由實驗結果可見,刑期在[6,12)和[36,120)區(qū)間的準確率較高,其主要原因如下:

        (1)刑期較低的案件其案件較為簡單,所犯罪行較輕,此時認罪態(tài)度、被害人諒解程度對其影響較大,且法官存在自由裁量權。除此之外,部分人為因素也會導致對于相似案件的判決差別較大;

        (2)刑期較高的案件,往往較為復雜,對于案件的判決影響因素較多,因此相較于中間階段的刑期準確率較低。

        考慮到不同地方法院對案件的判決具有細微差別的量刑方法,因此,將不同省份的數(shù)據(jù)分別單獨提取并采用Fact_Law_Info_NN 模型進行訓練,實驗結果見表4。由實驗結果可見,各個省份的準確率均不同,但大多低于全數(shù)據(jù)集的準確率,其原因主要有以下兩點:

        表4 各省份實驗結果Tab.4 Experimental results of different provinces

        (1)不同的省份在刑事案件量刑中均依據(jù)《中華人民共和國刑法》,但是不同地方根據(jù)當?shù)貙嶋H情況對其在法定范圍內進行調整。同時,法官具有一定的自由裁量權,因此導致不同地方對相似案件的量刑有所不同;

        (2)各個省份的訓練數(shù)據(jù)集較少,當訓練迭代一定輪次后,出現(xiàn)過擬合現(xiàn)象,且此現(xiàn)象的出現(xiàn)較訓練全數(shù)據(jù)集更早,因此其準確率不如全數(shù)據(jù)集的準確率高。

        4 結束語

        本文圍繞刑事案件的輔助量刑進行研究,提出基于多通道自注意力機制的刑事案件輔助量刑模型,通過對被告人基本信息、案件事實描述以及法律法規(guī)的深層次學習,將其結合表示,從而對刑期進行預測。在實驗驗證中,本文所提出模型在MAE、SMAPE、EM以及ACC_10%等測量指標上均具有優(yōu)越性。在MAE指標上,基于多通道自注意力機制的刑事案件輔助判決模型達到最優(yōu),其將誤差降低至4.34,在ACC_10%等指標上,該模型相較于其他模型有所提升。在此基礎上,將刑期進行分段,評估不同階段刑期預測的準確率。同時,本文將各個省份的數(shù)據(jù)分別進行訓練,以驗證不同省份數(shù)據(jù)對于該模型的靈敏度影響。

        猜你喜歡
        機制文本實驗
        記一次有趣的實驗
        在808DA上文本顯示的改善
        做個怪怪長實驗
        基于doc2vec和TF-IDF的相似文本識別
        電子制作(2018年18期)2018-11-14 01:48:06
        自制力是一種很好的篩選機制
        文苑(2018年21期)2018-11-09 01:23:06
        NO與NO2相互轉化實驗的改進
        實踐十號上的19項實驗
        太空探索(2016年5期)2016-07-12 15:17:55
        文本之中·文本之外·文本之上——童話故事《坐井觀天》的教學隱喻
        破除舊機制要分步推進
        注重機制的相互配合
        国产精品久久久久久亚洲av| 成人a在线观看| AⅤ无码精品视频| 日韩人妻一区二区中文字幕| 欧美高清视频手机在在线| 国产精品ⅴ无码大片在线看 | 加勒比精品久久一区二区三区| 色噜噜狠狠色综合中文字幕| 国产三级在线观看不卡| 国产一区高清在线观看| 人妻洗澡被强公日日澡电影 | 国产久视频国内精品999| 国产精品综合色区av| 噜噜中文字幕一区二区| 97精品超碰一区二区三区| 中文字幕第一页亚洲| 二区三区视频在线观看| 国产一区亚洲二区三区| 亚洲日韩av无码中文字幕美国| 97人妻视频妓女网| 一区二区亚洲熟女偷拍| 亚洲精品成人无限看| 亚洲爆乳少妇无码激情| 亚洲国产日韩欧美高清片a| 五月开心六月开心婷婷网| 一区二区三区中文字幕p站| 欧美日韩色另类综合| 国产在线欧美日韩一区二区| 国产亚洲日本精品二区| 免费网站内射红桃视频| 亚洲熟妇无码av不卡在线播放| 人妻丝袜中文字幕久久| 亚洲久悠悠色悠在线播放| 西西午夜无码大胆啪啪国模| vr成人片在线播放网站| 国产精品一区二区av白丝在线| 亚洲综合中文字幕综合| 怡红院a∨人人爰人人爽| 亚洲欧美日韩精品久久亚洲区色播 | 亚洲av无码专区国产乱码4se| 99久久精品费精品国产一区二区|