亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        深度學(xué)習(xí)場景文本檢測(cè)方法綜述

        2021-03-23 03:44:10李益紅陳袁宇
        關(guān)鍵詞:后處理字符像素

        李益紅,陳袁宇

        海南大學(xué) 計(jì)算機(jī)與網(wǎng)絡(luò)空間安全學(xué)院,???570228

        自然場景圖像中的文字包含著豐富的語義信息,準(zhǔn)確地提取文字信息對(duì)于機(jī)器場景理解、人工智能發(fā)展、工業(yè)自動(dòng)化生產(chǎn)等行業(yè)有著重要的推動(dòng)作用。因此,對(duì)場景文字檢測(cè)技術(shù)的研究非常重要。近10 年來,廣大研究者進(jìn)行了大量有關(guān)場景文字檢測(cè)方法的相關(guān)研究,并取得了一定成果。場景文字檢測(cè)方法通常可分為傳統(tǒng)場景文字檢測(cè)方法和深度學(xué)習(xí)場景文字檢測(cè)方法兩種[1-2]。由于場景文字的特殊性:(1)自然環(huán)境背景復(fù)雜多變性;(2)文字排列、字體、字號(hào)、長度、尺度等呈現(xiàn)多樣性;(3)光照條件不確定性。傳統(tǒng)場景文字檢測(cè)方法無法有效地解決這些問題。因此,近幾年來,深度學(xué)習(xí)場景文字檢測(cè)算法研究成為場景文字檢測(cè)的研究熱點(diǎn),并取得了突破性的進(jìn)展[3-4]。

        1 深度學(xué)習(xí)場景文本檢測(cè)方法

        1.1 基于回歸的文本檢測(cè)方法

        基于回歸的文本檢測(cè)方法目的是采用深度學(xué)習(xí)框架對(duì)要檢測(cè)的文本目標(biāo)定位坐標(biāo)進(jìn)行回歸。據(jù)檢測(cè)過程、特點(diǎn)不同[5-6],將基于回歸的方法分為自頂向下和自底向上的檢測(cè)方法。

        1.1.1 自頂向下方法

        自頂向下的方法是將文本行視為一種檢測(cè)目標(biāo),利用目標(biāo)檢測(cè)網(wǎng)絡(luò)直接檢測(cè)出文本行的坐標(biāo)。自頂向下方法可以根據(jù)是否預(yù)設(shè)anchor 分為間接回歸與直接回歸方法。

        (1)間接回歸法

        間接回歸法的思路是在特征圖上預(yù)先設(shè)置一系列不同形狀、大小的候選框,利用網(wǎng)絡(luò)學(xué)習(xí)相對(duì)于候選框的偏移的文本框的坐標(biāo),消除錯(cuò)誤的候選框。常用的網(wǎng)絡(luò)框架有 Faster R-CNN[7]、SSD[8]和 YOLOV3[9],其處理流程如圖1所示。

        間接回歸法的的主要研究路線是設(shè)計(jì)適合文本檢測(cè)的候選框和卷積核。針對(duì)正矩形無法很好地描述任意形狀文本的問題,四點(diǎn)多邊形[10]、旋轉(zhuǎn)正矩形[11]、多點(diǎn)多邊形[12]等描述方式被提出,針對(duì)文本行大多為長條狀的觀察,長條狀的滑動(dòng)窗口和卷積核被提出[13-14]。此外,通過循環(huán)神經(jīng)網(wǎng)絡(luò)自適應(yīng)地決定包圍框點(diǎn)的個(gè)數(shù)進(jìn)一步提升了多點(diǎn)多邊形的表示效率[15],基于尺度的區(qū)域建議網(wǎng)絡(luò)技術(shù)解決了建議區(qū)域無法覆蓋多尺度文本行的問題[16]。

        圖1 間接回歸法流程圖

        上述間接回歸方法雖然大多采用了多邊形描述文本框,但是其回歸方式仍然存在顯著差異,多采用正矩形滑動(dòng)窗口,回歸多邊形頂點(diǎn)到矩形中心[12]或頂點(diǎn)[13-14]的距離,也有則直接采用多邊形作為滑動(dòng)窗口,回歸多邊形最小外接矩形中心到多邊形頂點(diǎn)的距離[10]以及旋轉(zhuǎn)正矩形作為滑動(dòng)窗口,通過回歸角度[11]實(shí)現(xiàn)多方向文本檢測(cè)。此外,雖然多邊形滑動(dòng)窗口的方法靈活性強(qiáng),但是需要實(shí)現(xiàn)更多自定義操作,如多邊形iou 計(jì)算和多邊形區(qū)域池化等。因此,大多數(shù)方法仍然是在正矩形的基礎(chǔ)上進(jìn)行回歸。

        (2)直接回歸法

        在2016年首次提出的直接回歸方法是指不需要在特征圖上預(yù)先設(shè)置的一系列候選框,直接將特征圖通過網(wǎng)絡(luò)框架檢測(cè)出文本行的坐標(biāo)[17-18]。常用的網(wǎng)絡(luò)框架有Corner-Net[19]、FCOS[20],其處理流程圖如圖2所示。

        圖2 直接回歸法流程圖

        在最早提出的方法中直接回歸了特征圖錨點(diǎn)到定位框頂點(diǎn)的距離,但是受限于特征圖感受野,對(duì)于長文本任意形狀文本效果不佳。為了避免感受野范圍導(dǎo)致的檢測(cè)失敗,改變回歸目標(biāo)的方法被廣泛使用,有回歸錨點(diǎn)到邊界的距離的方法[21-22],也有回歸錨點(diǎn)到貝塞爾曲線控制點(diǎn)的方法[23]。目前,直接回歸法的主要研究路線是針對(duì)長文本曲線文本等提高檢測(cè)精度。此外,針對(duì)長文本檢測(cè)采用迭代修正提升檢測(cè)精度[24],引入隱式錨點(diǎn)機(jī)制提升準(zhǔn)確率[25]。

        上述直接回歸法為了解決長文本檢測(cè)的問題提出了各種方法,可以看出一個(gè)發(fā)展趨勢(shì)為改進(jìn)回歸目標(biāo)。其中,回歸到最近邊界距離的方法對(duì)小文本,長文本兩端的檢測(cè)效果不理想[21],并且需要復(fù)雜的標(biāo)簽生成過程和后處理過程[22],回歸曲線控制點(diǎn)[23]的方式對(duì)于控制點(diǎn)的坐標(biāo)非常敏感,在文本密集、重疊等情況下曲線變形明顯。除此之外,還有通過注意力機(jī)制提升感受野,提高長文本檢測(cè)的方法。

        間接回歸方式因?yàn)橐肓薬nchor,使得整體框架復(fù)雜,需要針對(duì)場景文字重新設(shè)計(jì)anchor,但其準(zhǔn)確率比直接回歸的方法高。直接回歸的方法整體流程簡單,但是受限于特征圖每個(gè)點(diǎn)的感受野,無法對(duì)長文本進(jìn)行檢測(cè),需要針對(duì)長文本進(jìn)行額外的處理。兩種方法的優(yōu)缺點(diǎn)如表1所示。

        表1 間接回歸和直接回歸的優(yōu)缺點(diǎn)對(duì)比

        1.1.2 自底向上方法

        自底向上方法思路來源于傳統(tǒng)方法的連通區(qū)域,該方法將字符或者文本區(qū)域作為檢測(cè)目標(biāo),使用通用目標(biāo)檢測(cè)框架(Faster R-CNN、YOLO、SSD等)等進(jìn)行檢測(cè),最后通過后處理合成文本行。自底向上方法可分為文本區(qū)域檢測(cè)和字符級(jí)檢測(cè)方法。

        (1)文本區(qū)域檢測(cè)方法

        文本區(qū)域檢測(cè)方式是首先采用通用目標(biāo)檢測(cè)框架檢測(cè)出部分文本行,再采用后處理的方式,得到完整文本行,避免直接回歸長文本。Tian 等人[26]首次提出了Connection Text Proposal Network(CTPN)文本區(qū)域檢測(cè)方法,但該方法后處理算法只能用于水平文本檢測(cè)。文本區(qū)域檢測(cè)方法如圖3所示。

        圖3 文本區(qū)域檢測(cè)方法流程圖

        文本區(qū)域檢測(cè)法的主要研究方向?yàn)樵O(shè)計(jì)合適的后處理算法來適應(yīng)場景文本。針對(duì)多方向的場景文字和密集文本檢測(cè),提出了利用網(wǎng)絡(luò)學(xué)習(xí)檢測(cè)到的文本區(qū)域間連接關(guān)系進(jìn)行后處理的片段連接(Seglink)法[27]和采用最小生成樹算法生成檢測(cè)框,并已經(jīng)公開了商品密集文本數(shù)據(jù)集(DAST1500)的seglink++法[28]。此外,針對(duì)文本字符間距過遠(yuǎn),采用了圖神經(jīng)網(wǎng)絡(luò)對(duì)檢出的文本區(qū)域進(jìn)行聚類[29]。

        對(duì)于文本區(qū)域檢測(cè)方法,最大的問題就是預(yù)處理和后處理的過程十分復(fù)雜,并且針對(duì)不同的應(yīng)用場景,需要不同的后處理方法。但文本區(qū)域檢測(cè)法可以針對(duì)文本字符間距過大等特殊情況進(jìn)行檢測(cè)。

        (2)字符級(jí)檢測(cè)方法

        字符級(jí)檢測(cè)方法是將文本行的最小組成單位字符作為檢測(cè)目標(biāo),有著文本區(qū)域檢測(cè)方法的優(yōu)勢(shì),并且可以更好地檢測(cè)不規(guī)則文本和變形文本,但字符級(jí)檢測(cè)的方法需要解決數(shù)據(jù)集不足的問題,檢測(cè)過程如圖4所示。

        圖4 字符級(jí)檢測(cè)流程圖

        字符檢測(cè)方法的主要研究方向是設(shè)計(jì)合適的弱監(jiān)督訓(xùn)練方法解決訓(xùn)練數(shù)據(jù)不足的問題,而將弱監(jiān)督的檢測(cè)結(jié)果判定為正并且用于訓(xùn)練的標(biāo)準(zhǔn)各不相同,有采用基于字符數(shù)據(jù)集的預(yù)訓(xùn)練模型檢測(cè)文本行標(biāo)注的數(shù)據(jù)集,將置信度高的結(jié)果作為正樣本加入訓(xùn)練[30],以及在此基礎(chǔ)上利用文本行短邊固定的先驗(yàn)知識(shí)修正預(yù)測(cè)框提高精度[31],也有將單個(gè)文本實(shí)例檢出字符數(shù)與標(biāo)注字符數(shù)相同的視為正確結(jié)果用于訓(xùn)練[32]。此外,隨著技術(shù)的發(fā)展,采用字符聚類的后處理[31]和將識(shí)別問題轉(zhuǎn)化為字符分類問題[32],實(shí)現(xiàn)了任意形狀文本檢測(cè)并為場景文字識(shí)別提供了新思路。

        文本區(qū)域檢測(cè)方法對(duì)與背景具有相同模式的文字檢測(cè)可能會(huì)失敗,并且對(duì)于變形文本檢測(cè)效果一般,但是其訓(xùn)練標(biāo)簽很容易得到。字符檢測(cè)的方法由于數(shù)據(jù)集稀少,訓(xùn)練過程復(fù)雜,但由于字符是文本組成的最小單位,因此可以根據(jù)不同的后處理實(shí)現(xiàn)任意形狀文本檢測(cè)。兩者優(yōu)缺點(diǎn)如表2所示。

        表2 文本區(qū)域檢測(cè)和字符檢測(cè)優(yōu)缺點(diǎn)對(duì)比

        自頂向下檢測(cè)方法的優(yōu)點(diǎn)是框架簡單,訓(xùn)練過程相對(duì)簡單,不需要復(fù)雜的后處理、標(biāo)簽生成過程,但是受限于anchor或者感受野,無法直接實(shí)現(xiàn)小文本或長寬比例很大的文本行的檢測(cè)。自底向上的方法優(yōu)點(diǎn)為不需要考慮文本行比例,缺點(diǎn)是后處理過程復(fù)雜。隨著自頂向下方法對(duì)于長文本檢測(cè)的不斷優(yōu)化,自底向上方法目前更偏向解決一些復(fù)雜問題,如招牌文本檢測(cè),自底向上方法中的字符檢測(cè)則可以將文本識(shí)別轉(zhuǎn)換為字符分類任務(wù),拓展了場景文字識(shí)別的思路。

        1.2 基于分割的文本檢測(cè)方法

        基于分割的檢測(cè)方法是通過網(wǎng)絡(luò)檢測(cè)得到文本區(qū)域分割圖,然后采用后處理得到文本框。由于目前文字?jǐn)?shù)據(jù)集通常采用文本行形式標(biāo)注,采用分割檢測(cè)方法將導(dǎo)致訓(xùn)練時(shí)字符間的無關(guān)像素也被標(biāo)注為字符,導(dǎo)致分割結(jié)果中出現(xiàn)相鄰文本行粘連。檢測(cè)過程如圖5 所示。因此,基于分割方法優(yōu)點(diǎn)是其分割結(jié)果包含了文本的方向、位置、長度等信息,不需要額外考慮長文本、變形文本的特性,但其分割初始結(jié)果容易粘連。

        圖5 基于分割的檢測(cè)方法流程以及效果

        近年來,文本行粘連的解決方案有:

        (1)文本中心標(biāo)注,是指通過縮小文本行的方式使得相鄰文本行遠(yuǎn)離,利用文本中心的信息區(qū)分相鄰文本實(shí)例,最后在分割的結(jié)果上進(jìn)行擴(kuò)展得到最終文本行的方法,包括通過將文本行中心固定高度的區(qū)域視為文本中心并采用高斯分布標(biāo)注[33-34],區(qū)分多種不同尺度的中心文本行[35],以及在此基礎(chǔ)上通過嵌入形狀感知提高對(duì)長文本檢測(cè)精度[36]。

        (2)自定義像素間關(guān)系,是指在網(wǎng)絡(luò)輸出分割結(jié)果時(shí),同時(shí)輸出像素間自定義的某種關(guān)系,利用該關(guān)系對(duì)分割結(jié)果進(jìn)行后處理,可以通過在輸出文本區(qū)域的同時(shí)為每個(gè)像素學(xué)習(xí)一個(gè)與周圍八個(gè)像素的連接關(guān)系,最后采用最小面積矩形生成文本框[37]或是為相鄰文本行邊緣像素學(xué)習(xí)一個(gè)排斥關(guān)系用于指導(dǎo)后處理[38]。此外,采用可學(xué)習(xí)的像素聚合網(wǎng)絡(luò)[39](PAN)和可微分二值化操作[40](DB)應(yīng)用于分割網(wǎng)絡(luò)中,實(shí)現(xiàn)了對(duì)重疊文字的檢測(cè)和在分割圖上自適應(yīng)的閾值以簡化后處理。

        (3)半監(jiān)督地?cái)U(kuò)充字符級(jí)別的訓(xùn)練樣本。Baek 等人[5]提出字符級(jí)文本分割方法,該方法首先采用半監(jiān)督學(xué)習(xí)擴(kuò)充字符級(jí),之后采用字符分割的方式解決無關(guān)像素帶來的邊緣問題,并且同時(shí)學(xué)習(xí)了一個(gè)字符間的親密程度來實(shí)現(xiàn)字符的連接。

        以上三種方法中,自定義像素之間關(guān)系成為了近兩年的主流,該方法不同于文本區(qū)域中心標(biāo)注,充分挖掘了不同區(qū)域像素之間的關(guān)系,為后處理提供了可靠的指導(dǎo)。但是該方法需要復(fù)雜的標(biāo)簽生成過程以及相應(yīng)的后處理,總體流程復(fù)雜,并且依賴于自定義關(guān)系的可靠性。

        文本中心標(biāo)注的方式提出最早,該方法雖然有著無法充分利用邊緣文本信息的問題,但是可以使得相鄰文本很明顯地區(qū)分開來,從目前研究來看,該方法仍然是分割檢測(cè)方法的研究熱點(diǎn),并且廣泛應(yīng)用于各類基于分割的文本檢測(cè)算法中,和自定義像素關(guān)系的方法并不沖突。

        字符級(jí)別的分割出發(fā)點(diǎn)與另外兩種不相同,該方法將文本行視為由字符組成的,通過字符分割避免了訓(xùn)練過程中引入字符間無關(guān)像素的問題,和基于檢測(cè)的方法思路類似,從另一種角度解決了粘連。

        1.3 回歸分割混合檢測(cè)方法

        基于回歸的方法存在著感受野無法覆蓋大文本的問題,而基于分割的方法則可以對(duì)全體文本做大致的分割,因此,研究者根據(jù)回歸和分割方法的特點(diǎn),提出了兩者混合的方法,既解決了感受野的問題,又解決了分割邊緣不準(zhǔn)確的問題。

        混合方法的主要研究方向?yàn)槿绾斡行ЫY(jié)合檢測(cè)和分割,以及檢測(cè)和分割本身的研究方向。目前多數(shù)方法采用類似Mask R-CNN的先檢測(cè)后分割的流程,包括通過采用高斯分布填充分割標(biāo)簽的金字塔掩模網(wǎng)絡(luò)[41]和在骨干網(wǎng)絡(luò)中加入了inception 模塊以及可變形卷積提升任意方向文字檢測(cè)效果[42];也可以在檢測(cè)過程中通過設(shè)計(jì)自適應(yīng)的區(qū)域建議網(wǎng)絡(luò)產(chǎn)生候選區(qū)域,在分割過程中對(duì)文本的水平和豎直方向的輪廓進(jìn)行分割,最后融合得到精準(zhǔn)的預(yù)測(cè)結(jié)果來提升檢測(cè)分支性能提高最終效果[43];而針對(duì)場景文字的特點(diǎn),提出了對(duì)分割分支進(jìn)行順序無關(guān)包圍框分解的方法,在Mask R-CNN的基礎(chǔ)上新增用于檢測(cè)文本關(guān)鍵邊的模塊,提升了長文本檢測(cè)效果[44];此外,通過同時(shí)進(jìn)行角點(diǎn)檢測(cè)和語義分割,將分割作為檢測(cè)結(jié)果的評(píng)價(jià)指標(biāo),利用語義分割的結(jié)果為每個(gè)檢測(cè)框打分來得到結(jié)果,通過剔除分割分?jǐn)?shù)過低的檢測(cè)結(jié)果提升了檢測(cè)準(zhǔn)確率[19]。

        綜上所述,回歸分割混合檢測(cè)方法的研究主要關(guān)注在回歸分支和檢測(cè)分支的融合,上面提到的大多數(shù)方法將分割分支作為檢測(cè)結(jié)果的修正手段。因此,基于分割回歸混合方法優(yōu)點(diǎn)是可有效地融合前兩種方法的優(yōu)點(diǎn),實(shí)現(xiàn)更好的檢測(cè)效果,但也導(dǎo)致網(wǎng)絡(luò)框架更復(fù)雜。

        1.4 小結(jié)

        綜上所述,基于間接回歸方法的改進(jìn)主要通過改變檢測(cè)方向產(chǎn)生自適應(yīng)任意形狀文本行的anchor,以及簡化模型等。基于直接回歸方法的改進(jìn)是通過融入注意力或者改變回歸目標(biāo)等方式提升直接回歸法對(duì)長文本的檢測(cè)效果。因此,基于回歸的方法一般通過改變通用目標(biāo)檢測(cè)模型使得適合場景文本檢測(cè),其發(fā)展趨勢(shì)與通用目標(biāo)檢測(cè)相同。基于分割的方法的研究主要通過設(shè)計(jì)合理的后處理算法解決分割文本的粘連問題,其研究方向主要關(guān)注在提取更好的像素間關(guān)系,以及簡化后處理流程等?;诨貧w分割混合方法有效地結(jié)合了兩者優(yōu)點(diǎn),主要思路有:(1)采用通用檢測(cè)框架進(jìn)行檢測(cè),并在檢測(cè)基礎(chǔ)上進(jìn)行文字分割;(2)也有將分割信息作為評(píng)價(jià)指標(biāo)篩選檢測(cè)結(jié)果,提高檢測(cè)準(zhǔn)確率的。

        2 檢測(cè)方法性能評(píng)價(jià)指標(biāo)

        目前,常用的場景文本檢測(cè)算法的性能評(píng)價(jià)指標(biāo)包括:檢測(cè)速度(幀/s)、準(zhǔn)確率(P)、召回率(R)和綜合評(píng)價(jià)指標(biāo)(F)。

        (1)檢測(cè)準(zhǔn)確率(P)

        檢測(cè)準(zhǔn)確率是統(tǒng)計(jì)場景文字圖像通過網(wǎng)絡(luò)框架檢測(cè)后,正確預(yù)測(cè)文本框數(shù)與總預(yù)測(cè)文本框比值,計(jì)算公式如式(1)所示:

        其中,TP為網(wǎng)絡(luò)輸出的正確預(yù)測(cè)數(shù),F(xiàn)P為錯(cuò)誤預(yù)測(cè)數(shù)。正確預(yù)測(cè)與錯(cuò)誤預(yù)測(cè)的判定過程是假設(shè)網(wǎng)絡(luò)對(duì)于一張圖像的檢測(cè)結(jié)果為{(bi,pi)},其中bi為預(yù)測(cè)的包圍框,pi為置信度,i為索引,那么第i個(gè)預(yù)測(cè)在滿足以下條件時(shí)為真:

        ①pi>α,其中α為置信度閾值,一般為0.7。

        即第i個(gè)預(yù)測(cè)在置信度大于置信度閾值且與任意標(biāo)注框IOU值大于IOU閾值的情況下為真,否則為假。

        (2)召回率(R)

        召回率是網(wǎng)絡(luò)輸出的正樣本個(gè)數(shù)與標(biāo)注正樣本個(gè)數(shù)的比值,又稱查全率,計(jì)算公式如式(2)所示:

        表3 常用數(shù)據(jù)集介紹與下載方式

        其中,F(xiàn)N為網(wǎng)絡(luò)未能檢測(cè)到的正樣本,TP+FN為所有標(biāo)注的真實(shí)樣本。

        (3)綜合評(píng)價(jià)指標(biāo)(F)

        綜合評(píng)價(jià)指標(biāo)是準(zhǔn)確率P和召回率R的調(diào)和平均,計(jì)算公式如式(3)所示:

        其中,P是準(zhǔn)確率,R是召回率。

        3 數(shù)據(jù)集

        目前,場景文字檢測(cè)領(lǐng)域有著若干公開數(shù)據(jù)集,常用數(shù)據(jù)集如表3所示。

        4 結(jié)束語

        本文對(duì)近5 年(2016—2020 年)來深度學(xué)習(xí)場景文字檢測(cè)的主流方法進(jìn)行了梳理、分類、歸納,以及分析、評(píng)述了各類方法的優(yōu)缺點(diǎn)?;谝陨匣A(chǔ),提出了未來場景文字檢測(cè)領(lǐng)域的研究趨勢(shì):

        (1)對(duì)準(zhǔn)確度與速度的權(quán)衡

        隨著場景文字檢測(cè)的廣泛應(yīng)用,單純地提升檢測(cè)準(zhǔn)確度已經(jīng)不再是唯一的研究目的,實(shí)時(shí)檢測(cè)將會(huì)是場景文字檢測(cè)研究的另一個(gè)目標(biāo),因此,通過模型剪枝,框架優(yōu)化得到一個(gè)速度、準(zhǔn)確度都很好的模型將是學(xué)術(shù)界和工業(yè)界都關(guān)注的熱點(diǎn)問題。

        (2)對(duì)長文本的檢測(cè)

        自底向上方法對(duì)于長文本的檢測(cè)取決于相應(yīng)的后處理算法,目前該方法更傾向于解決復(fù)雜問題,如招牌識(shí)別這種字符間距大的場景,采用圖神經(jīng)網(wǎng)絡(luò)充分挖掘文本區(qū)域或字符間的關(guān)系是一個(gè)發(fā)展趨勢(shì)。而自頂向下方法則傾向于檢測(cè)流程的簡化,在檢測(cè)長文本的同時(shí)提升對(duì)于小文本任意形狀文本的檢測(cè)效果是發(fā)展趨勢(shì)。

        (3)對(duì)多樣性、有損場景文字的檢測(cè)定位

        由于場景文字的方向、形狀、字體、字號(hào)等呈多樣性,多樣性場景文字檢測(cè)將依然是場景文字檢測(cè)研究的重點(diǎn)。低對(duì)比度、強(qiáng)光暈、模糊、遮擋等有損現(xiàn)象是場景文字圖像中的常見狀況,但還沒有研究者開展以上方面的場景文字檢測(cè)工作,有損場景文字的檢測(cè)定位研究幾乎是一片空白,也缺少相應(yīng)數(shù)據(jù)集支撐,因此,有損場景文字的檢測(cè)定位研究將是下個(gè)待解決的難點(diǎn),在此方面,超分辨率重構(gòu)是一個(gè)可行的研究方向。

        (4)對(duì)檢測(cè)網(wǎng)絡(luò)模型的泛化

        目前,研究者基本上是以公開數(shù)據(jù)集或特定領(lǐng)域(如車牌識(shí)別、拍照翻譯等)為基礎(chǔ)開展場景文字檢測(cè)研究。數(shù)據(jù)集的不完整性,將會(huì)影響檢測(cè)網(wǎng)絡(luò)模型的泛化,導(dǎo)致模型的局限性,在此方向上,可以采用遷移學(xué)習(xí)進(jìn)行模型的遷移。

        (5)多語種文本檢測(cè)

        目前,大多數(shù)場景文字檢測(cè)數(shù)據(jù)集都是單一語種(或少量語種),檢測(cè)方法更多地研究單一語種的檢測(cè)問題,但隨著國際化發(fā)展以及地球村合作,多語種場景文字?jǐn)?shù)據(jù)集的建設(shè)與檢測(cè)將是未來的研究重點(diǎn)與熱點(diǎn)。

        猜你喜歡
        后處理字符像素
        趙運(yùn)哲作品
        藝術(shù)家(2023年8期)2023-11-02 02:05:28
        尋找更強(qiáng)的字符映射管理器
        像素前線之“幻影”2000
        果樹防凍措施及凍后處理
        字符代表幾
        一種USB接口字符液晶控制器設(shè)計(jì)
        電子制作(2019年19期)2019-11-23 08:41:50
        “像素”仙人掌
        乏燃料后處理的大廠夢(mèng)
        能源(2018年10期)2018-12-08 08:02:48
        消失的殖民村莊和神秘字符
        高像素不是全部
        CHIP新電腦(2016年3期)2016-03-10 14:22:03
        www.五月激情| 闺蜜张开腿让我爽了一夜| 999久久久免费精品国产| 日本理论片一区二区三区| 亚洲av色精品国产一区二区三区| 漂亮人妻洗澡被公强 日日躁| 国产顶级熟妇高潮xxxxx| 99福利网| 中文字幕一区二区va| 久久久精品2019中文字幕之3| 欧美精品高清在线xxxx| 蜜桃在线观看视频在线观看| 日韩精品在线视频一二三| 免费国产黄网站在线观看可以下载 | 蜜桃视频一区二区三区在线观看| 北条麻妃在线视频观看| 日韩人妻有码中文字幕| 久久伊人最新网址视频| 亚洲av综合一区二区在线观看| 18分钟处破好疼哭视频在线观看| 视频一区精品自拍| 在线观看国产自拍视频| 精品av熟女一区二区偷窥海滩| 精品久久久久久中文字幕大豆网 | 大尺度无遮挡激烈床震网站 | 人妻少妇av中文字幕乱码| 92精品国产自产在线观看48页| 日韩精品极视频在线观看免费| 亚洲av精品一区二区三区| 少妇高潮喷水正在播放| 亚洲一区日本一区二区| 大奶白浆视频在线观看| 激情内射亚州一区二区三区爱妻| 777久久| 中文字幕色偷偷人妻久久一区| 国语对白嫖老妇胖老太| 国产精品国产三级国av| 中文字幕精品亚洲二区| 大香焦av一区二区三区| 国产黄在线观看免费观看不卡| 亚洲成Av人片不卡无码观看|