亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        多網(wǎng)絡(luò)和多頭注意力融合的場景文本識別算法

        2023-08-22 03:46:54賈小云翁佳順劉顏犖
        計算機(jī)時代 2023年8期
        關(guān)鍵詞:字符注意力準(zhǔn)確率

        賈小云,翁佳順,劉顏犖

        (陜西科技大學(xué)電子信息與人工智能學(xué)院,陜西 西安 710021)

        0 引言

        如今大量的文字/文本內(nèi)容被保存在圖片或視頻中。因此需要運用計算機(jī)技術(shù)檢測和識別圖片或視頻中的文字/文本內(nèi)容。例如證件識別[1]、車牌識別[2]以及視頻檢索[3,4]中,都需檢測其中的文字/文本內(nèi)容。

        自然場景中的文本大都以序列的形式出現(xiàn),可以將其理解為序列識別問題。SHI 等人[5]基于CNN 和RNN 提出一種識別圖像中序列對象的卷積循環(huán)神經(jīng)網(wǎng)絡(luò)模型CRNN,該模型主要采用多層雙向長短期記憶網(wǎng)絡(luò)結(jié)構(gòu)[6]BiLSTM 學(xué)習(xí)特征序列的雙向依賴關(guān)系,提取文本序列的上下文關(guān)系特征,并融合上下文關(guān)系特征與文本特征進(jìn)行識別。由于自然場景圖像中的文本存在大量的不規(guī)則、殘缺、模糊和扭曲變形文本,因此自然場景文本識別依舊具有挑戰(zhàn)。Sheng 等人[7]提出的場景文本識別模型,基于Vision Transformer設(shè)計了一個特征圖轉(zhuǎn)換塊,將二維的特征圖像轉(zhuǎn)換為一維的特征序列。Qiao 等人[8]提出場景文本識別模型,在圖像編碼識別的模塊中對序列解碼時應(yīng)用注意力機(jī)制,為每一時刻的解碼序列賦予不用的權(quán)重,提取到更豐富的上下文特征。

        綜上所述,當(dāng)前場景文本識別算法大多忽略了圖像文本的全局的語義特征和文本間的位置特征,而且很少使用多種特征之間的相互聯(lián)系來輔助文本識別,以至于用來編碼的特征之間缺乏相互聯(lián)系,導(dǎo)致文本識別內(nèi)容不準(zhǔn)確。為了解決上述問題,本文提出多網(wǎng)絡(luò)和多頭注意力融合的自然場景文本識別(multi-network convergence and multi-head attention scene text recognition,MCMASTR)算法以增強自然場景下文本內(nèi)容的識別,從而實現(xiàn)對文本內(nèi)容的更加準(zhǔn)確的識別。

        1 多網(wǎng)絡(luò)和多頭注意力融合的場景文本識別算法

        本文提出了一種基于多網(wǎng)絡(luò)融合和多頭注意力機(jī)制的場景文本識別模型,它是一個端到端訓(xùn)練的網(wǎng)絡(luò)模型,包括特征提取模塊MNC、多頭注意力模塊MHA、損失函數(shù)CTC[9]。

        本文設(shè)計的MCMASTR 模型如圖1 所示。首先對于不規(guī)則輸入圖片進(jìn)行預(yù)處理,將輸入圖片統(tǒng)一處理為192×32 大小,然后使用一種多網(wǎng)絡(luò)融合結(jié)構(gòu)的特征提取模塊,從文本圖像中大量提取視覺特征;其次在多頭注意力模塊對輸入的視覺特征進(jìn)行劃分,包括嵌入層、編碼層、分類層,嵌入模塊將視覺特征按49個patch劃分后,將每個patch通過線性映射,映射到一維向量,然后在每個向量中疊加字符類別特征和位置編碼,將50個調(diào)整好的特征向量輸入到編碼模塊中進(jìn)行編碼,將編碼后的向量傳入分類模塊中,生成50 個對齊的一維序列特征,每個特征對應(yīng)文本中的一個字符,輸出50個預(yù)測字符;最終,通過CTC算法根據(jù)多頭注意模塊預(yù)測的字符獲取圖像中的文本內(nèi)容。

        圖1 多網(wǎng)絡(luò)和多頭注意力融合的場景文本識別模型

        1.1 特征提取模塊

        基于多網(wǎng)絡(luò)融合結(jié)構(gòu)的特征提取階段,在每一個卷積層都進(jìn)行兩個以上的網(wǎng)絡(luò)并行融合操作,使得多個網(wǎng)絡(luò)融合為更加魯棒的模型,這些操作旨在不增加網(wǎng)絡(luò)深度的情況下提升模型泛化性,表征能力和感受野信息,從而提取更豐富的視覺特征。特征提取模塊是以改進(jìn)的VGG-16作為骨干網(wǎng)絡(luò)。多網(wǎng)絡(luò)融合結(jié)構(gòu)如圖2所示,將輸入特征圖分成兩個分支,分別用不同尺度的卷積核進(jìn)行卷積,融合卷積后的兩張?zhí)卣鲌D,再將其輸入到三分支的網(wǎng)絡(luò)中,使用不同尺度的卷積核進(jìn)行卷積,再融合卷積后的三張?zhí)卣鲌D,最終生成一張?zhí)卣鲌D。這樣網(wǎng)絡(luò)可以通過多網(wǎng)絡(luò)的融合獲取不同的感受野,為后續(xù)處理提供了豐富的特征信息。

        圖2 多網(wǎng)絡(luò)融合結(jié)構(gòu)

        1.2 多頭注意力模塊

        圖3 詳細(xì)展示了多頭注意力模塊的處理流程,它集成了多個獨立運行的自注意力機(jī)制,而且為每個patch 添加位置編碼信息,使得模型可以在不同的patch子空間中學(xué)習(xí)到相關(guān)信息,針對這些相關(guān)信息實現(xiàn)并行編碼。自注意力機(jī)制針對當(dāng)前patch 的位置的信息編碼時,會將注意力集中到自己所處的位置上并針對重要的信息特征進(jìn)行學(xué)習(xí),快速地提取局部特征之間的內(nèi)部關(guān)系。

        圖3 多頭注意力模塊結(jié)構(gòu)圖

        圖4表示了多頭注意力機(jī)制,其計算流程如下。

        圖4 多頭注意力機(jī)制

        ⑴計算出每個注意力頭對應(yīng),對多頭注意力模型中的8個頭分別使用自注意力機(jī)制的運算過程得到對應(yīng)的結(jié)果,其計算公式如下:

        其中,Q 代表字符查詢向量;K 代表字符匹配向量;V代表字符值向量。從輸入向量中提取得到向量的Q和K 匹配過程中得到的值越大對應(yīng)的V 的權(quán)重越高;dK代表了Q和K的維度,維度越大對應(yīng)的dK越大。

        ⑵使用Concat 操作在channel 維度上進(jìn)行拼接,將拼接的結(jié)果通過WO參數(shù)進(jìn)行融合,得到最終的結(jié)果,其計算公式如下:

        其中,head 表示多頭注意力模塊的第i 個自注意力機(jī)制,Concat表示拼接操作,num為拼接向量的數(shù)量。

        1.2.1 嵌入層

        多頭注意力模塊處理的是包含位置信息與分類信息的二維矩陣向量序列,而特征提取模塊輸入的特征圖是三維矩陣,需要將三維矩陣轉(zhuǎn)化為二維向量,再添加對應(yīng)的位置信息與分類信息,然后輸入到編碼層,其邏輯結(jié)構(gòu)如圖5 所示,其中左邊部分為位置信息,最后一條為分類信息。嵌入層輸出的特征向量是由圖像塊輸入特征、類別向量和位置編碼構(gòu)成嵌入輸入向量z0,其公式如下:

        圖5 特征圖轉(zhuǎn)為序列特征

        1.2.2 編碼層

        編碼層是重復(fù)堆疊多頭注意力和多層感知機(jī)塊。首先將嵌入層的輸出特征傳入歸一化層(Layer Normalization,簡稱LN),經(jīng)過LN后將其傳入多頭注意力模塊,然后經(jīng)過Dropout層,進(jìn)行殘差連接,殘差之后經(jīng)過LN,多層感知機(jī)塊,Dropout之后完成一次編碼。

        多層感知機(jī)塊(MLP Block)是由兩個全連接、GELU激活函數(shù)和兩個Dropout組成。

        編碼塊輸出的特征向量,其計算流程如下。

        ⑴計算出多頭注意力部分的輸出特征:由多頭注意力機(jī)制、層歸一化和跳躍連接構(gòu)成,其計算公式為:

        ⑵計算出多層感知機(jī)部分的輸出特征,由前饋網(wǎng)絡(luò)、層歸一化和跳躍連接構(gòu)成,其計算公式為:

        其中,Zi表示多頭注意力模塊的第i 個特征向量,MLP表示多層感知機(jī),LN表示層歸一化。

        1.3 損失函數(shù)

        本文的損失函數(shù)使用CTC Loss(Connectionist Temporal Class)來定義標(biāo)簽序列的概率,即通過CTC 將字符進(jìn)行轉(zhuǎn)錄達(dá)到預(yù)測文本序列的目的。CTC 的輸入為多頭注意力模塊輸出的預(yù)測序列Y=y1,y2,…,yi,i表示輸入序列的全部長度。

        每個序列在L上的概率分布用表示,用“-”來代表空白字符標(biāo)簽,表示所有經(jīng)過變換后生成標(biāo)簽為的所有路徑的集合;然后映射函數(shù)過濾掉空白和重復(fù)的標(biāo)簽,如“--s-s-t---rraw-berry”映射之后變成strawberry,其條件概率表達(dá)式如下:

        損失函數(shù)表達(dá)式如下:

        其中,x 表示全部訓(xùn)練樣本,li代表數(shù)據(jù)集中真實標(biāo)簽序列,yi代表多頭注意力模塊解碼后預(yù)測得到的序列。

        2 實驗結(jié)果與分析

        2.1 實驗設(shè)置

        實驗所使用的CPU 型號為E5-2666v3,內(nèi)存為128G,使用的圖形處理器型號為NVIDIA Tesla P40,操作系統(tǒng)為Ubuntu,Python 版本為3.9,機(jī)器學(xué)習(xí)框架為Pytorch 1.12。模型在360 萬中文數(shù)據(jù)集和ICPR MTWI 2018數(shù)據(jù)集上進(jìn)行了預(yù)訓(xùn)練,所有圖像大小歸一化為32×192,圖像批處理尺寸為16,初始學(xué)習(xí)率設(shè)置為0.001,使用adam 優(yōu)化器在訓(xùn)練過程中對模型參數(shù)進(jìn)行更新。

        2.1.1 數(shù)據(jù)集

        本次實驗所采用的預(yù)訓(xùn)練集為360萬中文數(shù)據(jù)集和ICPR MTWI 2018數(shù)據(jù)集。360萬中文數(shù)據(jù)集其中有364 萬張圖片,數(shù)據(jù)集按照99:1 劃分為訓(xùn)練集和驗證集兩部分。其圖片是通過對語料庫中的字體、大小、灰度、模糊、透視、拉伸等變化隨機(jī)生成的。ICPR WTMI2018 是中英文混合數(shù)據(jù)集,其中有20000 張圖片,數(shù)據(jù)集按照1:1 劃分為訓(xùn)練集和驗證集兩部分。其中圖片全部來自網(wǎng)絡(luò)圖片,文本內(nèi)容主要為水平、傾斜、模糊和殘缺文本,而且字體種類較多。

        2.1.2 評價指標(biāo)

        自然場景文本識別的評價指標(biāo)一般有兩種,一種是字符識別準(zhǔn)確率(Character recognition accuracy,簡稱CRA),一種是文本識別準(zhǔn)確率(Text recognition accuracy,簡稱TRA)[10]。字符識別準(zhǔn)確率一般表示字符識別正確的個數(shù)占總字符的比例,評價指標(biāo)比較直觀[10],其表達(dá)式為:

        其中,W 表示為識別正確的字符數(shù)量,A 表示所有的字符數(shù)量。

        文本識別準(zhǔn)確率一般使用編輯距離,當(dāng)一個字符需要轉(zhuǎn)換成另一個字符所需要的步驟數(shù)(包括刪除、插入和替換)就稱之為編輯距離[10],其表達(dá)式為:

        其中,其中S 表示總字符的數(shù)量,D、I、R 分別表示刪除、插入、替換的步驟數(shù)[10]。

        2.2 結(jié)果分析

        2.2.1 消融實驗

        為了驗證本文識別算法的性能,實驗選取VGG+BiLSTM為基礎(chǔ)模型,在規(guī)則數(shù)據(jù)集(360萬中文、SVT)和不規(guī)則數(shù)據(jù)集(ICPR MTWI 2018、ICDAR 2015)共四個數(shù)據(jù)集上進(jìn)行消融實驗,其結(jié)果如表1所示。

        表1 規(guī)則與不規(guī)則文本數(shù)據(jù)集消融實驗

        由表1 中的數(shù)據(jù)可得,添加了多網(wǎng)絡(luò)融合結(jié)構(gòu)的特征提取模塊(MCN)后,MCMASTR 與基礎(chǔ)模型在規(guī)則文本和不規(guī)則文本上的平均字符準(zhǔn)確率分別提升了0.7%、2.0%,平均文本準(zhǔn)確率分別提升了0.6%、1.7%,證明了多網(wǎng)融合的可行性,它能提升文本特征提取的效果。而在使用本文提出的多頭注意力模塊(MHA)替換掉基礎(chǔ)模型中的BiLSTM 后與基礎(chǔ)模型相比,MCMASTR 在規(guī)則文本和不規(guī)則文本上的平均字符準(zhǔn)確率分別提升了0.85%、2.0%,平均文本準(zhǔn)確率分別提升了2.6%、2.3%,證明了多頭注意力模塊比BiLSTM 在字符解碼方面有更好的優(yōu)越性。而在使用多頭注意力模塊替換掉基礎(chǔ)模型中的BiLSTM 后同樣使用多網(wǎng)絡(luò)融合結(jié)構(gòu)為基礎(chǔ)模型,與基礎(chǔ)模型相比,MCMASTR 分別提升了1.9%、2.1%的字符準(zhǔn)確率和2.45%、2.5%文本準(zhǔn)確率,證明了多網(wǎng)絡(luò)融合與多頭注意力在字符識別方面有更好的表現(xiàn)。

        圖6 可以得出,實驗中不斷地增加多頭注意力模塊數(shù)量,本文的模型在規(guī)則與不規(guī)則數(shù)據(jù)集上的準(zhǔn)確率在穩(wěn)定提升,但是當(dāng)模塊的數(shù)量達(dá)到六個時模型整體表現(xiàn)最佳,而超過六個模塊后訓(xùn)練時長增加,但是訓(xùn)練速度、準(zhǔn)確率都會下降,也說明單純的增加網(wǎng)絡(luò)深度與模塊數(shù)量不一定取得優(yōu)異的結(jié)果,由于深層網(wǎng)絡(luò)中含有大量非線性變化,每次變化相當(dāng)于丟失了特征的一些原始信息,從而導(dǎo)致層數(shù)越深退化現(xiàn)象越嚴(yán)重,所以如何提高模型的設(shè)計思路、改進(jìn)訓(xùn)練技巧也將成為研究的重點。

        圖6 多頭注意力模塊數(shù)量對比實驗

        2.2.2 對比試驗

        由表2 可知,本文提出的算法在超過一半的標(biāo)準(zhǔn)數(shù)據(jù)集上取得了不錯的效果。本文算法在規(guī)則文本數(shù)據(jù)集SVT 上準(zhǔn)確率能達(dá)91.4%,在不規(guī)則文本數(shù)據(jù)集ICDAR2015 和SVTP 上準(zhǔn)確率分別能達(dá)82.4 和82.7%,均優(yōu)于2019 年Yang M 等人提出的ScRN 算法[14]與2020 年Qiao Z 等人提出的SEED 算法[8]。本文算法在數(shù)據(jù)集ICDAR2013、IIT5k、CUTE80 三個數(shù)據(jù)集上準(zhǔn)確率分別為93.1%、92.3%、84.2%與部分主流算法之間存在一定差距,但是相比于其他算法具有較強的競爭性。

        表2 本文算法與近幾年的主流算法的對比實驗

        圖7 直觀展示了本文方法的識別效果,可以看出在模糊情況、殘缺情況、扭曲變形情況和曝光條件下均能正確識別,而CRNN算法[7]和RARE算法[11]在圖片模糊、粘連、殘缺等情況下無法準(zhǔn)確的預(yù)測和識別圖中的文本內(nèi)容,這證明了多網(wǎng)絡(luò)融合與多頭注意力在字符識別方面有更好的表現(xiàn)。

        圖7 文本識別效果展示

        3 結(jié)束語

        本文提出的算法在規(guī)則文本與不規(guī)則文本數(shù)據(jù)集上都取得了不錯的效果,而且能有效識別模糊、殘缺、扭曲和過度曝光文本,與一般文本識別算法相比,本文方法在自然場景中的實用性更強。

        本文主要研究了自然場景的中英文文本識別,而對于提高模型準(zhǔn)確率、識別速度以及硬件移植將成為未來研究的重點。

        猜你喜歡
        字符注意力準(zhǔn)確率
        尋找更強的字符映射管理器
        讓注意力“飛”回來
        乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
        健康之家(2021年19期)2021-05-23 11:17:39
        不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
        2015—2017 年寧夏各天氣預(yù)報參考產(chǎn)品質(zhì)量檢驗分析
        字符代表幾
        一種USB接口字符液晶控制器設(shè)計
        電子制作(2019年19期)2019-11-23 08:41:50
        消失的殖民村莊和神秘字符
        高速公路車牌識別標(biāo)識站準(zhǔn)確率驗證法
        “揚眼”APP:讓注意力“變現(xiàn)”
        傳媒評論(2017年3期)2017-06-13 09:18:10
        喷潮出白浆视频在线观看| 亚洲成a∨人片在线观看无码| 国精品人妻无码一区免费视频电影| 国产乱国产乱老熟300部视频| 在线亚洲午夜理论av大片| 女性自慰网站免费看ww| 国产精品黄页免费高清在线观看| 青青草在线免费观看在线| 免费国产线观看免费观看 | 久久精品国产色蜜蜜麻豆| 99re在线视频播放| 一区二区三区放荡人妻| 国产福利97精品一区二区| 亚洲精品99久91在线| 国产一区二区三区的区| 久久综合噜噜激激的五月天| 蜜臀av无码人妻精品| 亚洲av无码专区亚洲av| 日本人妻少妇精品视频专区| 男生自撸视频在线观看| 中文字幕一区二区精品视频| 亚洲精品国产av天美传媒| .精品久久久麻豆国产精品| 亚洲性爱区免费视频一区| 国产影片免费一级内射| 疯狂三人交性欧美| 日韩av精品国产av精品| 国产精品毛片久久久久久l| 国产亚洲一区二区三区成人| 美女主播网红视频福利一区二区| 欧美人与动性xxxxx杂性| 97人人超碰国产精品最新o| 国产亚洲精品综合一区| 亚洲精品456在线播放狼人| 国产精品久久久久高潮| 久久香蕉免费国产天天看| 亚洲综合免费在线视频| 白白色发布的在线视频| 国产精品无码av无码| 亚洲中久无码永久在线观看软件| 国产一起色一起爱|