亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度學(xué)習(xí)的場景數(shù)字檢出

        2019-03-28 09:09:54
        制造業(yè)自動(dòng)化 2019年3期
        關(guān)鍵詞:文本檢測

        (青島大學(xué) 自動(dòng)化與電氣工程學(xué)院,青島 266071)

        0 引言

        隨著網(wǎng)絡(luò)技術(shù)的發(fā)展,信息量劇增,現(xiàn)已進(jìn)入到大數(shù)據(jù)時(shí)代。網(wǎng)絡(luò)每天會(huì)產(chǎn)生龐大的信息量,面臨的一個(gè)巨大難題就是從海量的信息中提取出對(duì)我們有用的信息。網(wǎng)上的圖片、視頻都包含大量的文本信息,這些信息稱為場景文本信息。場景文字檢出的研究早在21世紀(jì)初就開始了,目的是識(shí)別圖片、視頻中的文字。傳統(tǒng)的方法有基于數(shù)字特征(連通域)的方法[1],支持向量機(jī)( Support Vector Machines)[2],BP神經(jīng)網(wǎng)絡(luò)[3]等,傳統(tǒng)的檢出思路大致分為兩步,先檢測定位文本,再進(jìn)行識(shí)別[4]。現(xiàn)階段一些算法將兩步并作一步,定位與檢測同步進(jìn)行,稱為端對(duì)端檢測,本文采用的YOLO(You Only Look Once)算法,便可以實(shí)現(xiàn)端對(duì)端檢測。許多新型應(yīng)用都需要提取某些場景中的數(shù)字信息,例如:車牌號(hào)的識(shí)別;拍照翻譯、搜題;馬拉松過程中對(duì)運(yùn)動(dòng)員的實(shí)時(shí)監(jiān)測;集裝箱箱號(hào)的識(shí)別等,這已經(jīng)成為計(jì)算機(jī)視覺的熱門研究方向,該研究具有廣闊的應(yīng)用前景。

        1 傳統(tǒng)檢出方法

        傳統(tǒng)的文字檢出,大多是基于字符[5],即先檢測字符,再對(duì)其進(jìn)行組合,比如利用SVM和ANN實(shí)現(xiàn)的字符識(shí)別[6]。傳統(tǒng)的檢出方法一般分兩步,首先要確定文本的位置。常見的方法,是假設(shè)文本之間是連通的,通過對(duì)圖像進(jìn)行二值化,膨脹,腐蝕等處理,將待檢測文本真正連通起來,從而確定待檢出文本的位置。但是如果圖像質(zhì)量不高,背景復(fù)雜,處理起來會(huì)很麻煩。第二步,要檢測文本,需要先分割圖像,將一串字符分割成單個(gè)字符,然后再逐步對(duì)單個(gè)字符進(jìn)行檢測,最后將檢測結(jié)果輸出。

        這種方法的缺點(diǎn)就是在于只適合場景簡單的圖像,對(duì)于復(fù)雜場景下的文本,定位與檢測都有難度。需要對(duì)圖像做細(xì)致的處理,大大增加了工作量。通常現(xiàn)實(shí)場景都是很復(fù)雜的,所以這種方法在實(shí)際應(yīng)用上會(huì)有很大局限。

        2 基于深度學(xué)習(xí)的方法

        近幾年,深度學(xué)習(xí)越來越成熟,出現(xiàn)了很多新算法,在許多領(lǐng)域都取得了不錯(cuò)的成就[7]。本文將圖像分類問題用目標(biāo)檢測算法來解決,目標(biāo)檢測算法主要分為兩類:One-Stage和Two-Stage檢測算法。Two-Stage檢測算法是先產(chǎn)生候選區(qū)域,再對(duì)候選區(qū)域分類,代表算法有R-CNN、Fast-R-CNN和Faster-R-CNN算法。One-Stage算法不需要產(chǎn)生候選區(qū)域,直接進(jìn)行分類,代表算法有SSD和YOLO算法[8]。兩者都是基于深度學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò),但是設(shè)計(jì)思路有些方面有所不同,各有優(yōu)勢。R-CNN系列算法檢測的精準(zhǔn)度比較高,速度略遜一籌,YOLO算法檢測速度較快,但是在精度上不及R-CNN[9]。因?yàn)楸疚氖怯糜跈z測數(shù)字,檢測對(duì)象只是0~9十個(gè)數(shù)字,YOLO算法的精度完全可以滿足,并且速度更快,所以選擇YOLO算法。

        2.1 檢測思路

        區(qū)別于傳統(tǒng)方法,基于深度學(xué)習(xí)的文字檢出,將定位與判斷并作一步,同時(shí)進(jìn)行,實(shí)現(xiàn)端對(duì)端的數(shù)字檢測。

        R-CNN算法,采用的是滑動(dòng)窗口技術(shù),即對(duì)于一張圖像,用一個(gè)小窗口按照規(guī)定的步長在圖像上滑動(dòng),每滑動(dòng)一步,做一次圖像分類,這樣便做到對(duì)整張圖像的檢測。但是,對(duì)于不同的檢測對(duì)象,滑動(dòng)窗口大小的選擇也是問題,而且選擇不同大小的窗口,產(chǎn)生的候選區(qū)域太多,運(yùn)算量太大,從而檢測速度會(huì)降低[10]。Fast-RCNN就此做出了改進(jìn),用卷積層代替原來的全鏈接層,改進(jìn)后運(yùn)算量減小,檢測速度便大大提高。

        區(qū)別R-CNN,YOLO算法采用了一種新穎的思路,沒有采用滑動(dòng)窗口,而是直接將圖像分割成若干個(gè)格子,再通過卷積得到每個(gè)單元格的特征圖,然后每個(gè)單元格各自負(fù)責(zé)預(yù)測中心點(diǎn)落在自己區(qū)域內(nèi)的目標(biāo)。這樣就消除了復(fù)雜的滑動(dòng)窗口的計(jì)算量,所以在檢測速度上要快一些。每個(gè)單元格會(huì)預(yù)測幾個(gè)邊界框和它們的置信度,邊界框的置信度包括兩個(gè)方面,包含檢測目標(biāo)的可能性和邊界框的準(zhǔn)確度。每個(gè)邊界框的預(yù)測值包括五個(gè)元素:(x,y,w,h,c),(x,y)是邊界框的中心坐標(biāo),(w,h)是邊界框的寬和高,c為置信度。

        邊界框類別置信度計(jì)算公式:

        Pr表示邊界框包含目標(biāo)的可能性;IOU表示邊界框的準(zhǔn)確度,即預(yù)測框跟實(shí)際框的并集;Pr(classi|object)表示這個(gè)單元格負(fù)責(zé)預(yù)測的目標(biāo)屬于各個(gè)類別的概率,即各個(gè)邊界框置信度下的條件概率。每個(gè)單元格需要預(yù)測B×5+C個(gè)值,B表示邊界框的數(shù)量,C表示類別數(shù)。

        2.2 神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)

        YOLO從誕生以來,不斷更新完善,網(wǎng)絡(luò)結(jié)構(gòu)也越來越復(fù)雜。YOLOv1由24個(gè)卷基層和2個(gè)全連接層組成,卷基層負(fù)責(zé)獲取特征,全連接層負(fù)責(zé)預(yù)測,卷積層和全連接層采Leaky-ReLU激活函數(shù)[11]。

        YOLOv2采用高分辨率分類器,并且在每個(gè)卷積層后面添加了Batch Normalization層,Batch Normalization可以提高模型的收斂速度。YOLOv1是用全連接層直接對(duì)邊界框進(jìn)行預(yù)測,根據(jù)邊界框預(yù)測的4個(gè)offsets tx,ty,tw,th,用下面的公式計(jì)算邊界框的實(shí)際位置和大?。?/p>

        其中(cx,cy)為cell左上角坐標(biāo),pw和ph是先驗(yàn)框的寬度和長度。

        邊界框相對(duì)整張圖片的位置和大?。?/p>

        其中(W,H)是特征圖的大小。

        YOLOv2采用卷積層和anchor boxes來代替原來全連接層進(jìn)行預(yù)測。YOLOv2的特征提取器,采用一種新的模型,由19個(gè)卷基層和5個(gè)maxpooling層構(gòu)成。YOLOv2的輸入圖片大小要求為416×416,經(jīng)過5個(gè)maxpooling層后,大小變?yōu)?3×13的特征圖。

        YOLOv3采用殘差網(wǎng)絡(luò)和FPN架構(gòu),它的特征提取器是一個(gè)殘差模型,包含了53個(gè)卷積層,網(wǎng)絡(luò)構(gòu)建更深,可以多尺度預(yù)測[12]。此外,基礎(chǔ)分類網(wǎng)絡(luò)和分類器也得到升級(jí),Softmax不適用多標(biāo)簽分類,所以使用多個(gè)獨(dú)立的Logistic分類器替代Softmax。

        YOLOv3的網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

        圖1 OLOv3網(wǎng)絡(luò)結(jié)構(gòu)圖

        場景文字的檢出,文字背景對(duì)檢出干擾很大。相對(duì)來說YOLOv3的檢測速度更快,可以進(jìn)行實(shí)時(shí)檢測,而且背景誤檢率低,所以采用最新的YOLOv3模型。

        3 實(shí)驗(yàn)過程

        3.1 樣本采集

        本文使用自己制作的數(shù)據(jù)集,訓(xùn)練樣本10000張,測試樣本200張。訓(xùn)練數(shù)據(jù)包含圖片和標(biāo)簽兩個(gè)部分,標(biāo)簽部分使用標(biāo)注工具YOLO-mark來制作,標(biāo)簽以文本文件形式保存。樣本圖片的場景包括運(yùn)動(dòng)員的號(hào)碼牌、車牌、超市物價(jià)牌和廣告牌等,各類場景樣本數(shù)量大致相同。此外,YOLO自帶圖像增強(qiáng)功能,實(shí)際上訓(xùn)練時(shí)會(huì)基于角度、飽和度、曝光和色調(diào)產(chǎn)生更多的訓(xùn)練樣本。

        3.2 樣本訓(xùn)練

        本文的訓(xùn)練是在Ubuntu16.04系統(tǒng)下進(jìn)行,在該系統(tǒng)下配置了基于YOLO的開源神經(jīng)網(wǎng)絡(luò)框架-Darknet,用來訓(xùn)練和測試,訓(xùn)練過程的部分參數(shù)如表1所示。Region Avg IOU代表預(yù)測的矩形框和真實(shí)目標(biāo)的交集與并集之比,IOU值越高說明預(yù)測框位置越準(zhǔn)確;Class表示標(biāo)注目標(biāo)分類的準(zhǔn)確率;Obj指標(biāo)的值期望越接近1越好;No Obj指標(biāo)的值期望越接近0越好,但不為0。隨著迭代次數(shù)的增加,各項(xiàng)指標(biāo)均有改善,在迭代了大約15000次后,各項(xiàng)指標(biāo)趨于穩(wěn)定,模型訓(xùn)練時(shí)長約為70小時(shí)。

        表1 訓(xùn)練過程部分參數(shù)

        3.3 樣本測試

        利用迭代20000次后生成的模型,分別選取不同場景下的圖片進(jìn)行進(jìn)行測試,部分測試結(jié)果如圖2所示。

        圖2 部分測試結(jié)果圖

        圖2中圖片的的具體檢測結(jié)果如表2所示。

        表2 測試結(jié)果

        測試結(jié)果表明YOLO算法可以實(shí)現(xiàn)場景中的數(shù)字檢出任務(wù)。檢測速度較快,平均在0.07秒左右即可完成一張圖片的檢出。準(zhǔn)確率較高,幾乎達(dá)到百分百檢出,但當(dāng)圖像中的數(shù)字較小,很模糊的情況下,會(huì)出現(xiàn)漏檢或者誤檢的情況,漏檢的概率高于誤檢概率。針對(duì)這個(gè)問題,可以通過增加訓(xùn)練樣本量加以改善。

        4 結(jié)束語

        針對(duì)傳統(tǒng)方法在場景數(shù)字檢測上,弊端較多。其中圖像預(yù)處理在傳統(tǒng)方法中工作量占比很大,本文采用深度學(xué)習(xí)方法進(jìn)行場景數(shù)字檢測,避免了圖像預(yù)處理的工作,直接檢測給定圖像,減少了工程的工作量。采用深度學(xué)習(xí)方法進(jìn)行場景數(shù)字檢出,將定位文本與識(shí)別并作一步,實(shí)現(xiàn)了端對(duì)端的檢測。實(shí)驗(yàn)結(jié)果表明該方法檢測速度快,準(zhǔn)確率高,具有較高的應(yīng)用價(jià)值。該實(shí)驗(yàn)采用的YOLOv3的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),但是其神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)對(duì)于數(shù)字檢出來說過于復(fù)雜,下一階段研究要在YOLOv3的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)基礎(chǔ)上進(jìn)行改進(jìn),精簡其結(jié)構(gòu),搭建出一種更適合場景數(shù)字檢出的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),進(jìn)一步提升檢測速度和準(zhǔn)確率。

        猜你喜歡
        文本檢測
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        “幾何圖形”檢測題
        “角”檢測題
        初中群文閱讀的文本選擇及組織
        甘肅教育(2020年8期)2020-06-11 06:10:02
        在808DA上文本顯示的改善
        基于doc2vec和TF-IDF的相似文本識(shí)別
        電子制作(2018年18期)2018-11-14 01:48:06
        小波變換在PCB缺陷檢測中的應(yīng)用
        文本之中·文本之外·文本之上——童話故事《坐井觀天》的教學(xué)隱喻
        97精品久久久久中文字幕| 亚洲一区二区三区av天堂| 久久一区二区三区少妇人妻| 最近中文字幕国语免费| 久久婷婷香蕉热狠狠综合| 国产高清在线91福利| 亚洲av少妇一区二区在线观看 | 国产99久久久国产精品免费| 日韩中文字幕有码午夜美女| 欧美内射深喉中文字幕| 性导航app精品视频| 大又黄又粗又爽少妇毛片| 成人免费自拍视频在线观看| 午夜精品一区二区三区的区别| 无码人妻专区免费视频| 日韩精品自拍一区二区| 亚洲成av人综合在线观看| 亚洲熟女综合一区二区三区| 国产精品98视频全部国产| 日韩av水蜜桃一区二区三区| 亚洲精品成人网站在线播放| 妺妺窝人体色www在线图片| 青青青国产免A在线观看| 国产主播性色av福利精品一区| 精品国内在视频线2019| 亚洲一区欧美二区| 大量老肥熟女老女人自拍| 亚洲tv精品一区二区三区| 色先锋av资源中文字幕| 全免费a级毛片免费看| 国产一级黄色片一区二区| 久久狠狠爱亚洲综合影院| 精品亚洲aⅴ在线观看| 午夜视频免费观看一区二区| 亚洲av日韩一区二区| 色五月丁香五月综合五月4438| 亚洲国产cao| 日本一区二区三级免费| 国产免费爽爽视频在线观看| 在线观看av中文字幕不卡| 日本不卡的一区二区三区|