亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        引入注意力機(jī)制的自然場(chǎng)景文本檢測(cè)算法研究

        2019-09-13 03:38:14牛作東李捍東
        關(guān)鍵詞:注意力特征文本

        牛作東 李捍東

        (貴州大學(xué)電氣工程學(xué)院 貴州 貴陽(yáng) 550025)

        0 引 言

        人工智能的興起促進(jìn)著當(dāng)前社會(huì)生產(chǎn)活動(dòng)中各項(xiàng)產(chǎn)業(yè)的革新與發(fā)展,以機(jī)器學(xué)習(xí)、深度學(xué)習(xí)和計(jì)算機(jī)視覺(jué)為代表的人工智能技術(shù)已經(jīng)得到了很大程度的推廣和應(yīng)用。比如:無(wú)人駕駛中的高級(jí)駕駛輔助系統(tǒng)通過(guò)計(jì)算機(jī)視覺(jué)來(lái)實(shí)現(xiàn)對(duì)于動(dòng)態(tài)物體的識(shí)別、偵測(cè)與追蹤;以深度學(xué)習(xí)加強(qiáng)神經(jīng)網(wǎng)絡(luò)訓(xùn)練的阿爾法圍棋已經(jīng)被圍棋界公認(rèn)為超過(guò)了人類(lèi)職業(yè)圍棋頂尖水平。此外,深度學(xué)習(xí)在自然語(yǔ)言處理、語(yǔ)音識(shí)別、人臉識(shí)別、物體檢測(cè)等諸多方面都有了廣泛的應(yīng)用,已經(jīng)成為未來(lái)科技進(jìn)步和發(fā)展的一個(gè)熱點(diǎn)方向。

        自然場(chǎng)景下的物體檢測(cè)問(wèn)題吸引世界各地的專(zhuān)家學(xué)者的關(guān)注和研究,傳統(tǒng)的目標(biāo)檢測(cè)算法主要是基于手工特征的選取和滑動(dòng)窗口的方式來(lái)檢測(cè)目標(biāo)物體,其中最具代表性的算法主要包括VJ、HOG和DPM等。由于手工設(shè)計(jì)目標(biāo)特征,因此帶來(lái)了很多的缺點(diǎn),比如在特定條件下存在著特征值不具有代表性和魯棒性等問(wèn)題,另外通過(guò)滑動(dòng)窗口的方式來(lái)提取目標(biāo)框進(jìn)而進(jìn)行判斷的過(guò)程非復(fù)雜,算法量大,制約著系統(tǒng)的運(yùn)行效率。DPM算法提出之后,取得前所未有的目標(biāo)檢測(cè)效果,同時(shí)也代表著傳統(tǒng)的目標(biāo)檢測(cè)方法已經(jīng)遇到了無(wú)法突破的瓶頸。之后Girshick等[1]提出了R-CNN模型,開(kāi)啟了神經(jīng)網(wǎng)絡(luò)應(yīng)用于目標(biāo)檢測(cè)的先河。隨著2012年Krizhevsky等[2]使用擴(kuò)展了深度的CNN在ImageNet大規(guī)模視覺(jué)識(shí)別挑戰(zhàn)競(jìng)賽(ImageNet Large Scale Visual Recognition Challenge, LSVRC)中取得了當(dāng)時(shí)最佳成績(jī)的分類(lèi)效果,使得CNN越來(lái)越受研究者們的重視。隨后,基于CNN模型的改進(jìn)的算法Fast R-CNN[3]、Faster R-CNN[4]、SSD[5]、YOLO[6]、Retina-Net以及Pyramid Networks等又進(jìn)一步推動(dòng)了基于深度學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)模型在自然場(chǎng)景下目標(biāo)檢測(cè)領(lǐng)域的快速發(fā)展。相對(duì)于傳統(tǒng)的目標(biāo)檢測(cè)方法,深度學(xué)習(xí)目標(biāo)檢測(cè)方法通過(guò)深度神經(jīng)網(wǎng)絡(luò)來(lái)學(xué)習(xí)到的目標(biāo)特征更魯棒,采用Proposal或者直接回歸的方式來(lái)獲得候選目標(biāo)的過(guò)程更加高效。在完成目標(biāo)分類(lèi)的過(guò)程中同樣使用深度網(wǎng)絡(luò)實(shí)現(xiàn)了端到端的方式直接訓(xùn)練模型,從而使得深度學(xué)習(xí)目標(biāo)檢測(cè)方法準(zhǔn)確度高實(shí)時(shí)性好。通用目標(biāo)檢測(cè)算法的基本流程如圖1所示。

        圖1 目標(biāo)檢測(cè)算法基本流程圖

        基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法在用于通用物體檢測(cè)方面取得了很好的效果,但是面對(duì)自然場(chǎng)景下的文本信息的檢測(cè)任務(wù)時(shí)卻存在著許多問(wèn)題,主要原因有:(1) 文本長(zhǎng)寬比不定并且相關(guān)較小,與常規(guī)物體檢測(cè)存在著差異,這個(gè)差異使得在選取候選框的長(zhǎng)寬比時(shí)要做相應(yīng)的處理。(2) 自然場(chǎng)景下的文本普遍存在著水平、傾斜、彎曲等各種不定的形狀和方向,這些差異性較豐富的文體狀態(tài)導(dǎo)致了采用通用的目標(biāo)檢測(cè)算法很難沿著某個(gè)方向或者傾斜角度去完成文本檢測(cè)的任務(wù)。(3) 場(chǎng)景下的文本很容易受到其中某些物體的局部圖像影像影響其文本特征信息。(4) 自然場(chǎng)景下的文本內(nèi)容存在許多藝術(shù)字、手寫(xiě)體等。(5) 自然場(chǎng)景下的文本容易受到自然環(huán)境的干擾,比如背景、光照影響等。針對(duì)上述問(wèn)題,在設(shè)計(jì)文本檢測(cè)算法的時(shí)候需要對(duì)常規(guī)物體檢測(cè)方法進(jìn)行改進(jìn)的方向主要包括特征提取算法、區(qū)域建議網(wǎng)絡(luò)(RPN)對(duì)候選區(qū)域進(jìn)行推薦、多任務(wù)網(wǎng)絡(luò)訓(xùn)練、損失函數(shù)Loss改進(jìn)、非極大值抑制(NMS)、半監(jiān)督學(xué)習(xí)等。因此,自然圖像中的文本檢測(cè)仍然是一項(xiàng)非常具有挑戰(zhàn)性的研究工作,加上受到許多現(xiàn)實(shí)應(yīng)用實(shí)例的驅(qū)動(dòng)影響,比如地理位置和圖像檢索[7]、照片OCR[8]等,此方面的研究工作也具有現(xiàn)實(shí)意義。

        1 自然場(chǎng)景下的文本檢測(cè)算法

        1.1 研究現(xiàn)狀

        自然場(chǎng)景下的文本檢測(cè)方法通常由兩個(gè)主要部分組成,分別是文本檢測(cè)和文本識(shí)別。文本檢測(cè)主要以字邊界框的形式定位圖像中的文本。文本識(shí)別對(duì)裁剪后的單詞或者文字圖像進(jìn)行編碼,生成機(jī)器可解釋的字符序列。本文的研究重點(diǎn)主要放在了文本的檢測(cè)上。本文研究的目標(biāo)檢測(cè)算法中,可以將文本檢測(cè)器分為基于原始檢測(cè)目標(biāo)的分類(lèi)策略和基于目標(biāo)邊界框形狀的分類(lèi)策略,每個(gè)檢測(cè)策略又有各自的特點(diǎn)和不同類(lèi)別的算法。

        基于原始檢測(cè)目標(biāo)的分類(lèi)策略主要有:(1) 基于角色的檢測(cè)算法。其過(guò)程為:首先檢測(cè)單個(gè)字符或文本的一部分;然后將其分組成一個(gè)單詞,以Neumann[9]為代表的研究提出通過(guò)對(duì)極值區(qū)域進(jìn)行分類(lèi)來(lái)定位字符;最后通過(guò)窮舉搜索方法對(duì)檢測(cè)到的字符進(jìn)行分組。(2) 基于字的檢測(cè)方法。它是與一般物體檢測(cè)類(lèi)似的方式直接提取文本,Gomez[10]提出了一個(gè)基于R-CNN的框架,其中候選詞首先由類(lèi)別不可知的提議生成器生成,隨后是隨機(jī)森林分類(lèi)器,再采用用于邊界框回歸的卷積神經(jīng)網(wǎng)絡(luò)來(lái)細(xì)化邊界框。(3) 基于文本行的檢測(cè)算法。該方法首先檢測(cè)文本行,然后再分逐個(gè)分成單詞,Long[11]提出利用文本的對(duì)稱(chēng)特征來(lái)檢測(cè)文本行,然后通過(guò)使用全卷積神經(jīng)網(wǎng)絡(luò)來(lái)定位文本行。

        基于目標(biāo)邊界框形狀的分類(lèi)策略的檢測(cè)方法可以分為兩類(lèi)。第一類(lèi)為水平或接近水平的檢測(cè)方法,這類(lèi)方法專(zhuān)注于檢測(cè)圖像中的水平或接近水平的文本。例如:Yi[12]提出一個(gè)三階段框架,它由邊界聚類(lèi)、筆劃分割和字符串片段分類(lèi)組成;Tian等[13]提出的方法檢測(cè)幾乎水平的文本部分,然后將它們鏈接在一起開(kāi)成單候選區(qū)域;Cao等[14]嘗試使用去模糊技術(shù)來(lái)獲得更強(qiáng)大的檢測(cè)結(jié)果。第二類(lèi)為多方向的檢測(cè)方法。與水平或接近水平檢測(cè)方法相比,多方向的文本檢測(cè)更加穩(wěn)健,因?yàn)樽匀粓?chǎng)景下的文本可以在圖像中處于任意方向。這類(lèi)的主要研究方法有利用檢測(cè)多方向文本的旋轉(zhuǎn)不變特征,首先在特征計(jì)算之前估計(jì)檢測(cè)目標(biāo)的中心、比例、方向信息,然后根據(jù)尺寸變化、顏色自相似性和結(jié)構(gòu)自相似性進(jìn)行鏈級(jí)特征。此外還有基于紋理的紋理分類(lèi)器用于區(qū)分文本和非文本候選區(qū)[17]。文獻(xiàn)[18]提出了四邊形滑動(dòng)窗口、蒙特卡羅方法和平滑Ln損失來(lái)檢測(cè)定向文本,這在檢測(cè)十分復(fù)雜的場(chǎng)景時(shí)是有效的。

        1.2 EAST算法

        本文重點(diǎn)研究了Zhou等[19]提出的EAST(An Efcient and Accurate Scene Text Detector)算法,經(jīng)驗(yàn)證,該算法在準(zhǔn)確性和效率總體方面明顯優(yōu)于其他的方法。在EAST算法中提出了一種快速、準(zhǔn)確的場(chǎng)景文本檢測(cè)流水線,該流水線只有兩個(gè)階段。管道采用完全卷積網(wǎng)絡(luò)(FCN)模型,直接生成字或文本行級(jí)別的預(yù)測(cè),不包括冗余和緩慢的中間步驟。生成的文本預(yù)測(cè),可以是旋轉(zhuǎn)的矩形或四邊形,發(fā)送到非最大抑制以產(chǎn)生最終結(jié)果,算法總體結(jié)構(gòu)如圖2所示。

        圖2 EAST算法結(jié)構(gòu)圖

        (1) EAST算法管道和網(wǎng)絡(luò)設(shè)計(jì) 從EAST算法結(jié)構(gòu)圖可以看出該算法遵循Densebox[20]的總體設(shè)計(jì),將圖像輸入到FCN中,生成多個(gè)像素級(jí)文本分?jǐn)?shù)圖和幾何圖形通道。其中一個(gè)預(yù)測(cè)通道是一個(gè)分?jǐn)?shù)圖,其像素值在[0,1]范圍內(nèi)。其余通道表示從每個(gè)像素的視圖中包含單詞的幾何圖形。分?jǐn)?shù)代表在同一位置預(yù)測(cè)的幾何圖形的可信度。

        在進(jìn)行網(wǎng)絡(luò)設(shè)計(jì)時(shí),為處理文本字體大小以及各個(gè)形態(tài)的特征差異,該算法采用了U形[21]的思想,在保持上采樣分支較小的同時(shí),逐漸合并特征圖,最終形成了一個(gè)既能利用不同層次特性又能保持較小計(jì)算成本的網(wǎng)絡(luò)。

        (2) EAST算法幾何圖形的生成 為不失一般性,該算法只考慮了四邊形的情況,最終生成的幾何圖是RBox或者Quad之一。對(duì)于文本區(qū)域標(biāo)注為四元樣式的數(shù)據(jù)集,首先生成一個(gè)旋轉(zhuǎn)矩形,該矩形覆蓋區(qū)域最小。然后,對(duì)于每個(gè)具有正分?jǐn)?shù)的像素,計(jì)算其到文本框的4個(gè)邊界的距離,并將它們放到RBOX地面真值的4個(gè)通道中。對(duì)于四邊形地真值,8通道幾何圖中每個(gè)帶正分?jǐn)?shù)的像素的值是其從四邊形的4個(gè)頂點(diǎn)的坐標(biāo)偏移,進(jìn)而確定文本區(qū)域。

        2 注意力機(jī)制

        視覺(jué)注意已經(jīng)在各種結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)對(duì)于目標(biāo)檢測(cè)和預(yù)測(cè)任務(wù)中有所應(yīng)用,比如圖像或視頻字幕[20-21]和視覺(jué)問(wèn)題回答[24-26]。它的可行性主要?dú)w功于合理的假設(shè),即人類(lèi)視覺(jué)不會(huì)立即整體處理整個(gè)圖像。相反,人們只在需要的時(shí)間和地點(diǎn)專(zhuān)注于整個(gè)視覺(jué)空間的選擇性部分[27]。具體而言,注意力不是將圖像編碼成靜態(tài)矢量,而是允許圖像特征從手邊的句子上下文演化,從而導(dǎo)致對(duì)雜亂圖像的更豐富和更長(zhǎng)的描述。通過(guò)這種方式,視覺(jué)注意力可以被視為一種動(dòng)態(tài)特征提取機(jī)制,它隨著時(shí)間的推移結(jié)合了上下文定位。

        當(dāng)在描述圖像中檢測(cè)目標(biāo)的特征和信息的圖像處理任務(wù)中加入注意力機(jī)制,注意力模塊需要處理的特征信息包含明確的序列項(xiàng)a={a1,a2,a3,…,aL},ai∈RD,其中L代表特征向量的個(gè)數(shù),D代表的是空間維度。因此所采用的注意力機(jī)制需要計(jì)算出當(dāng)前時(shí)刻t每個(gè)特征向量ai的權(quán)重αt,i,公式如下:

        eti=fatt(ai,ht-1)

        (1)

        (2)

        式中:fatt()代表多層感知機(jī);eti代表中間變量;ht-1代表的是上個(gè)時(shí)刻的隱含狀態(tài);k代表特征向量的下標(biāo)。計(jì)算出權(quán)重后,模型就可以對(duì)輸入的序列a進(jìn)行篩選,得到篩選后的序列項(xiàng)為:

        (3)

        最終由函數(shù)μ來(lái)決定該注意機(jī)制是硬注意力還是軟注意力[28]。

        在圖像檢測(cè)和目標(biāo)識(shí)別的深度學(xué)習(xí)領(lǐng)域,文獻(xiàn)[30]在目標(biāo)檢測(cè)框架中引入與子區(qū)域特征和寬高比特性相關(guān)的注意力特征庫(kù),并生成注意力特征圖對(duì)原始的ROI池化特征進(jìn)行優(yōu)化,模型的檢測(cè)精度和檢測(cè)速度有明顯提升。文獻(xiàn)[28]設(shè)計(jì)了一種的引入注意力機(jī)制的AttenGAN模型,該模型包括一個(gè)生成器和一個(gè)判別器,生成器根據(jù)行人過(guò)去的軌跡概率性地對(duì)未來(lái)進(jìn)行多種可能性預(yù)測(cè)。文獻(xiàn)[31]介紹了一種新的卷積神經(jīng)網(wǎng)絡(luò),稱(chēng)SCA-CNN,它在CNN中結(jié)合了空間注意力和通道方向注意力機(jī)制,并取得了良好的效果。

        3 引入注意力機(jī)制的EAST算法

        3.1 Attention-EAST算法結(jié)構(gòu)

        針對(duì)EAST算法文本檢測(cè)器可處理的最大文本實(shí)例大小與網(wǎng)絡(luò)的接收字段成比例,其限制了網(wǎng)絡(luò)預(yù)測(cè)更長(zhǎng)文本區(qū)域的能力。為了使文本檢測(cè)器PVANet網(wǎng)絡(luò)保證在提取精確的文本特征和位置特征的基礎(chǔ)上,擴(kuò)大目標(biāo)檢測(cè)視野,本文在EAST算法的基礎(chǔ)上引入了注意力機(jī)制,構(gòu)成Attention-EAST算法,該算法的核心框架如圖3所示。

        圖3 Attention-EAST算法結(jié)構(gòu)圖

        在利用PVANet網(wǎng)絡(luò)進(jìn)行下采樣的過(guò)程中,通過(guò)中間的文本特征信息的空間關(guān)系生成空間注意力模塊,其主要功能是用來(lái)捕捉二維空間中對(duì)于目標(biāo)區(qū)判定的重要性信息,每次卷積生成的特征信息為I∈R1×H×W,并經(jīng)過(guò)sigmod函數(shù)激活,其表達(dá)式為:

        WS(I)=σf7×7Pool(I)

        (4)

        式中:f7×7為卷積操作,卷積核為7×7的卷積層。在上采樣的過(guò)程中通過(guò)unpool池化的方式提取特征用于對(duì)目標(biāo)位特征的逼近生成通道注意力模塊,然后經(jīng)過(guò)共享網(wǎng)絡(luò)MLP進(jìn)行調(diào)整,其表達(dá)式為:

        WC(I′)=σMLP(unpool(I))=σW1W0I′

        (5)

        式中:σ為sigmod激活函數(shù);W0∈RC/r×C和W1∈RC×C/r分別為MLP的權(quán)重。最后在特征融合的過(guò)程中,將通道注意力權(quán)重和空間注意力權(quán)重構(gòu)成整個(gè)軟件分支注意力模型,其過(guò)程可表示為:

        I′=(WS(I)+1)⊙I

        (6)

        I″=(WC(I′)+1)⊙I′

        (7)

        式中:⊙為對(duì)應(yīng)矩陣元素相乘,由于每個(gè)模塊最后都需要使用sigmod函數(shù)來(lái)激活,使注意力通道每個(gè)元素值在[0,1]之間,達(dá)到注意力模塊強(qiáng)化有用圖像信息和抑制無(wú)用信息的效果。

        3.2 損失函數(shù)設(shè)計(jì)

        損失函數(shù)可表示為:

        L=Ls+λgLg

        (8)

        式中:Ls和Lg分別表示分?jǐn)?shù)圖和幾何圖形的損失,而λg表示兩個(gè)損失之間的重要性。本文將λg設(shè)為1。為了簡(jiǎn)化訓(xùn)練過(guò)程,本文算法借鑒了文獻(xiàn)[32]中引入的類(lèi)平衡交叉熵:

        (9)

        (10)

        為了使大文本區(qū)域和小文本區(qū)域生成精確的文本幾何預(yù)測(cè),保持回歸損失尺度不變,旋轉(zhuǎn)矩形框RBox回歸部分采用IoU損失函數(shù),因?yàn)樗鼘?duì)不同尺度的對(duì)象是固定,其表達(dá)式為:

        (11)

        (12)

        式中:d1、d2、d3和d4分別表示像素到其對(duì)應(yīng)矩形的上、右、下和左邊界的距離。聯(lián)合區(qū)由以下公式給出:

        (13)

        由此可以輕松計(jì)算交叉或者聯(lián)合區(qū)域。接下來(lái),旋轉(zhuǎn)角損失計(jì)算如下:

        (14)

        Lg=LR+λθLθ

        (15)

        在實(shí)驗(yàn)過(guò)程中本文將λθ設(shè)置成10。由此整個(gè)算法的損失函數(shù)搭建完畢。

        3.3 模型訓(xùn)練

        對(duì)于本文提出的模型按照EAST算法的訓(xùn)練方式采用Adam[21]優(yōu)化器對(duì)網(wǎng)絡(luò)進(jìn)行端到端的訓(xùn)練。為了加快學(xué)習(xí)速度,將原始圖像512×512的訓(xùn)練樣本每次統(tǒng)一打包成24個(gè)進(jìn)行批處理。Adam的學(xué)習(xí)率從1e-3開(kāi)始,每27 300個(gè)小批量下降到十分之一,停在1e-5,對(duì)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,直到性能改善趨于平穩(wěn)。

        4 實(shí)驗(yàn)與分析

        4.1 實(shí)驗(yàn)環(huán)境

        本次實(shí)驗(yàn)是在Ubuntu18.04 LTS操作系統(tǒng)上進(jìn)行,開(kāi)發(fā)語(yǔ)言為Python 3.6,集成開(kāi)發(fā)環(huán)境為Pycharm,深度學(xué)習(xí)框架是GPU版本的TensorFlow。硬件配置CPU為四核八線程的 i7-6700k,其主頻4 GHz,內(nèi)存為32 GB,GPU 為 NVIDIA GTX 1080T,顯存11 GB。

        4.2 實(shí)驗(yàn)結(jié)果

        本次實(shí)驗(yàn)采用的數(shù)據(jù)集為ICDAR挑戰(zhàn)賽所用的數(shù)據(jù)集,該數(shù)據(jù)集也是當(dāng)文本目標(biāo)檢測(cè)算法中比較流行的數(shù)據(jù)集,共有1 500張圖片,其中1 000張圖片用于模型訓(xùn)練,其余圖片用于測(cè)試集。其文本區(qū)域由四邊形的四個(gè)頂點(diǎn)進(jìn)行注釋?zhuān)瑢?duì)應(yīng)于目標(biāo)文本中的四邊幾何圖形。這些圖片均由手機(jī)或相機(jī)隨機(jī)拍攝,因此,場(chǎng)景中的文本信息是任意方向的,而且可能受到自然環(huán)境的影響,這些特征有利于對(duì)文本檢測(cè)算法的估計(jì)檢驗(yàn)。

        本文引入注意力機(jī)制的Attention-EAST算法與EAST算法在處理自然場(chǎng)景下的長(zhǎng)文本的檢測(cè)結(jié)果對(duì)比如圖4所示。

        (a) EAST算法長(zhǎng)文本檢測(cè)效果圖

        (b) 本文算法長(zhǎng)文本檢測(cè)效果圖圖4 長(zhǎng)文本檢測(cè)對(duì)比圖

        可以看出,通過(guò)加入注意力機(jī)制對(duì)于提取文本和方位的特征信息的增強(qiáng),提高了文本檢測(cè)視野,有效改善了對(duì)于長(zhǎng)文本的檢測(cè)效果。同時(shí),本文使用召回率(Recall)、準(zhǔn)確率(Precision)和加權(quán)調(diào)和平均值F-measured三個(gè)指標(biāo)來(lái)評(píng)價(jià)本文算法在ICDAR數(shù)據(jù)集上的訓(xùn)練效果。并選擇了當(dāng)前文本檢測(cè)領(lǐng)域比較有代表性的算法進(jìn)行對(duì)比,包括以R-CNN為框架的文獻(xiàn)[10],以SSD為框架的文獻(xiàn)[15]和以Faster R-CNN為框架的文獻(xiàn)[16],實(shí)驗(yàn)結(jié)果如表1所示。實(shí)驗(yàn)結(jié)果表明,本文提出的引入注意力機(jī)制的方法相比原EAST算法在文本檢測(cè)性能指標(biāo)均有所提升,并且相對(duì)優(yōu)于其他主流的文本檢測(cè)算法。

        表1 各文本檢測(cè)算法實(shí)驗(yàn)結(jié)果對(duì)比數(shù)據(jù)

        為分析引入注意力模塊后在檢測(cè)效率上對(duì)于原EAST算法的影響,在本文的實(shí)驗(yàn)環(huán)境下采用每秒幀率(Frame Per Second,F(xiàn)PS)這一指標(biāo)來(lái)評(píng)價(jià)本文算法和原EAST算法的檢測(cè)效率,表示每秒處理的圖片數(shù)量,將測(cè)試集500張檢測(cè)圖片隨機(jī)分成5份分別進(jìn)行測(cè)試。實(shí)驗(yàn)結(jié)果如表2所示,可以看出加注入注意力模塊后,并沒(méi)有損失原算法的檢測(cè)效率。

        表2 兩種算法文本檢測(cè)效率對(duì)比數(shù)據(jù)(FPS)

        5 結(jié) 語(yǔ)

        本文研究了當(dāng)前計(jì)算機(jī)視覺(jué)領(lǐng)域中文本檢測(cè)的算法,其中針對(duì)EAST算法在對(duì)于文本方向特征提取時(shí)視野受限的問(wèn)題。通過(guò)在主干網(wǎng)絡(luò)PVANet中引入注意力機(jī)制,提出一種Attention-EAST算法,使得訓(xùn)練模型在提取文本目標(biāo)特征時(shí)更加關(guān)注有用信息和抑制無(wú)用信息。實(shí)驗(yàn)證明,該方法有效提升了EAST算法檢測(cè)長(zhǎng)文本的能力,在沒(méi)有損失檢測(cè)效率的同時(shí)提升了檢測(cè)精度。本文研究通過(guò)引入注意力機(jī)制的方法可為自然環(huán)境下的文本檢測(cè)研究領(lǐng)域提供一定的參考。

        猜你喜歡
        注意力特征文本
        讓注意力“飛”回來(lái)
        如何表達(dá)“特征”
        在808DA上文本顯示的改善
        不忠誠(chéng)的四個(gè)特征
        基于doc2vec和TF-IDF的相似文本識(shí)別
        電子制作(2018年18期)2018-11-14 01:48:06
        抓住特征巧觀察
        “揚(yáng)眼”APP:讓注意力“變現(xiàn)”
        A Beautiful Way Of Looking At Things
        文本之中·文本之外·文本之上——童話故事《坐井觀天》的教學(xué)隱喻
        如何快速走進(jìn)文本
        精品免费人伦一区二区三区蜜桃| 欧美又大又硬又粗bbbbb| 久久精品国产亚洲7777| 永久黄网站色视频免费| 欧美亚洲国产丝袜在线| 国产夫妻自偷自拍第一页 | 国产精品久久精品第一页| 99久久er这里只有精品18| 国产亚洲精品国产福利在线观看 | 亚洲av日韩专区在线观看| 激情伊人五月天久久综合| 久久久久99精品国产片| 色偷偷亚洲第一综合网| 久久老熟女一区二区三区福利| 久久97久久97精品免视看| 中文字幕+乱码+中文字幕无忧| 国产三级国产精品三级在专区| 国产一区二区黄色网页| 欧美亚洲熟妇一区二区三区| 日韩精品国产自在久久现线拍| 国产精品久久夜伦鲁鲁| 麻豆91蜜桃传媒在线观看| 亚洲精品无码久久久久秋霞| 2022国内精品免费福利视频| 国产一区二区杨幂在线观看性色| 亚洲欧美综合精品成人网站| 亚洲av片不卡无码久久| 亚洲AV成人无码天堂| 91亚洲国产成人精品一区.| 鸭子tv国产在线永久播放| 91久久国产精品视频| 美女射精视频在线观看| 亚洲欧美v国产一区二区| 97精品伊人久久大香线蕉| 国产精品亚洲综合色区丝瓜| av手机在线观看不卡| 少妇无码吹潮| 一个人免费观看在线视频播放| 中文字幕av素人专区| 妇女bbbb插插插视频| 国产成人精品三级麻豆|