亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于YOLOv3算法的盲道識(shí)別研究

        2022-04-22 06:53:54袁揚(yáng)馬浩文葉云飛管慶勒周琳泰馬高輝
        河南科技 2022年6期
        關(guān)鍵詞:深度學(xué)習(xí)

        袁揚(yáng) 馬浩文 葉云飛 管慶勒 周琳泰 馬高輝

        摘 要:世界衛(wèi)生組織統(tǒng)計(jì)的數(shù)據(jù)顯示,全球失明人數(shù)超過3 600萬,且有逐年遞增的趨勢(shì)。對(duì)于視障人群而言,其出行十分不便,并且現(xiàn)有的盲道識(shí)別算法大多是基于顏色和紋理,檢測(cè)速度較慢,不能很好地解決盲人出行難的問題。為此,本研究提出一種基于YOLOv3網(wǎng)絡(luò)模型的盲道識(shí)別算法。筆者使用LabelImg工具對(duì)收集到的數(shù)據(jù)進(jìn)行標(biāo)注,再將標(biāo)注后的圖片送入模型中進(jìn)行訓(xùn)練,并調(diào)整參數(shù),得到最佳的檢測(cè)模型。試驗(yàn)結(jié)果表明,YOLOv3算法的識(shí)別準(zhǔn)確率達(dá)到98%,為優(yōu)化盲道識(shí)別算法提供了新思路。

        關(guān)鍵詞:YOLOv3;目標(biāo)檢測(cè)算法;盲道識(shí)別;深度學(xué)習(xí)

        中圖分類號(hào):TP212 ? 文獻(xiàn)標(biāo)志碼:A ? ? 文章編號(hào):1003-5168(2022)6-0020-04

        DOI:10.19968/j.cnki.hnkj.1003-5168.2022.06.004

        Research on Blind Track Recognition Based on YOLOv3

        YUAN Yang ? ?MA Haowen ? ?YE Yunfei ? ?GUAN Qingle ? ?ZHOU Lintai ? ?MA Gaohui

        (Tiangong University,Tianjin 300387,China)

        Abstract: According to the statistics of the WHO,the number of blind people worldwide is more than 36 million,and the trend is increasing year by year.For the visually impaired people,their travel is very inconvenient,and most of the existing blind track recognition algorithms are based on color and texture,and the detection speed is slow,which cannot well solve the problem of difficult travel for blind people.To this end,this paper proposes a blind track recognition algorithm based on YOLOv3 network model.The author use the LabelImg tool to label the collected data,and then feed the labeled images into the model training and adjust the parameters to get the best detection model.The experimental results show that the accuracy of YOLOv3 reaches 98%,which provides a new idea for blind track recognition algorithm.

        Keywords:YOLOv3;target detection algorithm;blind track recognition;deep learning

        0 引言

        眼睛是人體的重要器官。人們通過雙眼能夠獲取外界的信息,看到各種各樣的物體。但對(duì)于患有視力障礙的人群來說,其無法獲取周圍的環(huán)境信息,并且很難預(yù)測(cè)和自主處理環(huán)境中存在的各種狀況,在日常生活中很難做到安全出行、快樂出行。為了解決盲人出行難的問題,社會(huì)組織及個(gè)人都在積極尋找為盲人群體出行提供幫助的方法[1-2]。其中,導(dǎo)盲杖因設(shè)計(jì)簡(jiǎn)單、便攜實(shí)用、成本較低,在一段時(shí)間內(nèi)被廣泛使用,但因其感知距離較近,給盲人用戶提供的幫助較為有限;導(dǎo)盲犬因訓(xùn)練周期長(zhǎng)、價(jià)格昂貴、社會(huì)接納度不高,加之其壽命與人類壽命相比要短得多,所以很少有盲人選用導(dǎo)盲犬作為導(dǎo)盲手段[3]。結(jié)合上述盲人輔助器材的優(yōu)點(diǎn)和不足,本研究使用基于YOLOv3[4]模型來識(shí)別盲道,從而可以快速準(zhǔn)確地識(shí)別道路中的盲道。

        1 基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法

        1.1 目標(biāo)檢測(cè)算法介紹

        傳統(tǒng)的目標(biāo)檢測(cè)算法只適用于特征明顯且背景簡(jiǎn)單的場(chǎng)景,但是在實(shí)際應(yīng)用中,背景復(fù)雜多變,物體特征多樣,大大降低了算法識(shí)別的準(zhǔn)確度。2014年,Girshick等人提出了R-CNN網(wǎng)絡(luò)[5],R-CNN網(wǎng)絡(luò)是將Region Proposal與卷積神經(jīng)網(wǎng)絡(luò)結(jié)合起來,其在VOC07測(cè)試集上有明顯的性能提升,平均精準(zhǔn)度(mean Average Precision,mAP)從33.7%(DPM-V5,傳統(tǒng)檢測(cè)的SOTA算法)提升至58.5%。從此,基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法迅速發(fā)展起來。

        1.2 算法類別

        目標(biāo)檢測(cè)一直都是計(jì)算機(jī)視覺領(lǐng)域的核心問題之一[6]??偟膩碚f,基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法最主要的任務(wù)是圖像中目標(biāo)(物體)的識(shí)別和物體的定位(即確認(rèn)位置和大?。?。

        目前,目標(biāo)檢測(cè)算法大致可以分為兩類:one-stage(單階段檢測(cè))和two-stage(雙階段檢測(cè))。兩者的區(qū)別在于是否產(chǎn)生候選框。見圖1。

        two-stage是先生成候選框,再通過卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行分類。因此,two-stage目標(biāo)檢測(cè)算法的識(shí)別準(zhǔn)確率高,但是速度較慢,不能滿足實(shí)時(shí)檢測(cè)的要求,代表算法有Fast R-CNN、MT-CNN、R-CNN等[7-8]。而one-stage則是直接提取特征來預(yù)測(cè)物體的類別和位置,擁有比two-stage更快的檢測(cè)速度,但在檢測(cè)精度和準(zhǔn)確率方面,與two-stage相比要差一些,代表算法有YOLO系列算法、SSD、RetinaNet等。

        1.3 YOLOv3算法介紹

        1.3.1 網(wǎng)絡(luò)結(jié)構(gòu)。YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)中的三個(gè)基本組件是CBL、Res unit、ResX(見圖2)。CBL由Conv、BN和Leaky Rule激活函數(shù)組成;Res unit仿照了ResNet的殘差塊結(jié)構(gòu),由兩層CBL組成,其中add的作用是張量相加,并不擴(kuò)充維度。ResX由一個(gè)CBL和n個(gè)Res unit組成,在該模塊中,CBL層的作用是下采樣,因此經(jīng)過5次Res模塊后,得到的特征圖是608→304→152→76→38→19。Concat的作用是張量拼接,擴(kuò)充維度。

        表1為Darknet-53的網(wǎng)絡(luò)模型,YOLOv3拋棄了FC層(圖中沒有畫出),因此共有52層。

        另外,在整個(gè)YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)中,并沒有使用任何池化層。這是為了降低池化產(chǎn)生的梯度負(fù)面效果,YOLO系列算法直接拋棄了池化層,使用了stride為2的卷積核進(jìn)行下采樣(見圖3)。

        YOLOv3算法生成了三個(gè)feature map:y1、y2、y3。其仿照了Feature Pyramid Network算法的思想,當(dāng)前層的feature map會(huì)對(duì)下一層的feature map進(jìn)行上采樣,再進(jìn)行張量拼接,也就是YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)圖中的Concat函數(shù)。以y2為例,從圖2可以看到,Res4生成的feature map在經(jīng)過5層CBL、1層CBL和1層Conv后,會(huì)與第二個(gè)Res8所生成的feature map進(jìn)行上采樣后再進(jìn)行組合,再經(jīng)過5層CBL、1層CBL和1層Conv最終生成y2。

        在這三個(gè)feature map中,每個(gè)feature map會(huì)采用三個(gè)先驗(yàn)框,因此YOLOv3算法中一共有9個(gè)先驗(yàn)框。值得一提的是,由于輸出的feature map尺寸發(fā)生變化,先驗(yàn)框的尺寸也需要進(jìn)行調(diào)整。對(duì)于這種調(diào)整,YOLOv3算法采用K-means聚類方法。在y1、y2、y3三個(gè)feature map中,feature map尺寸越小則感受野越大。因此,y1的感受野最大,適合檢測(cè)較大的目標(biāo),而y2適合檢測(cè)一般體積的目標(biāo),由于y3的感受野最小,適合檢測(cè)個(gè)體比較小的目標(biāo)。

        1.3.2 邊框預(yù)測(cè)公式。由圖4可以得到預(yù)測(cè)框在feature map上的中心坐標(biāo)和寬高大小。為了方便將預(yù)測(cè)框還原到原圖尺寸,還需要進(jìn)行歸一化處理,公式如式(1)到式(4)所示。

        [bx=[σtx+cx]/W] ? ?(1)

        [by=[σty+cy]/H] ? ?(2)

        [bw=pwetw/W] ? ? ?(3)

        [bh=pheth/H] ? ? ?(4)

        其中,[W]和[H]分別表示feature map的寬和高;[cx]、[cy]分別是grid cell的長(zhǎng)和寬;[pw]和[ph]分別是預(yù)設(shè)的anchor box映射到feature map中的寬和高;[σ ]為sigmoid函數(shù);[tx]、[ty]是預(yù)測(cè)的坐標(biāo)偏移值;[tw]、[t?]是縮放的尺度;最終得到的bx、by、bw、bh四個(gè)量分別代表圖4中粗實(shí)線預(yù)測(cè)框的左上角坐標(biāo)、預(yù)測(cè)框的寬和高。

        2 模型訓(xùn)練與測(cè)試

        2.1 數(shù)據(jù)集準(zhǔn)備與模型訓(xùn)練

        本次訓(xùn)練模型的數(shù)據(jù)集是通過網(wǎng)絡(luò)爬蟲、人工拍攝等多種途徑獲得的,然后使用LabelImg圖片標(biāo)注工具對(duì)獲得的圖像進(jìn)行人工標(biāo)注。將該數(shù)據(jù)集中的圖像分為typhlosolis-strigt、typhlosolis-turn兩類(見圖5)。

        因?yàn)榇蠖鄶?shù)圖片都是人工標(biāo)注的,因此數(shù)量較少。然后將數(shù)據(jù)集按照9∶1的比例劃分為訓(xùn)練集和測(cè)試集。使用Pytorch框架搭建YOLOv3模型進(jìn)行訓(xùn)練,將標(biāo)注后的數(shù)據(jù)集生成的xml格式的文件轉(zhuǎn)換成txt格式的文件,放入訓(xùn)練模型中,修改相關(guān)參數(shù)后進(jìn)行訓(xùn)練,訓(xùn)練完成后對(duì)數(shù)據(jù)集進(jìn)行測(cè)試。

        2.2 模型測(cè)試

        模型測(cè)試的檢測(cè)結(jié)果如圖6所示,可以看出無論是單個(gè)盲道圖片的識(shí)別還是多個(gè)數(shù)量的盲道識(shí)別,匹配率都非常高。在單個(gè)盲道識(shí)別中對(duì)typhlosolis-turn的判斷率高達(dá)98%。并且在多數(shù)量盲道的識(shí)別中,匹配率也非常高。

        3 結(jié)語(yǔ)

        本研究采用YOLOv3目標(biāo)檢測(cè)算法,實(shí)現(xiàn)了盲道識(shí)別,旨在幫助盲人解決出行困難的問題。通過對(duì)數(shù)據(jù)集的標(biāo)注、模型的多次訓(xùn)練,在單個(gè)盲道的識(shí)別準(zhǔn)確率達(dá)到了98%。不同于以往基于顏色和紋理的識(shí)別算法,YOLOv3算法能夠更快速、準(zhǔn)確地識(shí)別盲道。另外,YOLOv3算法的可移植性也更強(qiáng),可以較為簡(jiǎn)單地植入各類嵌入式設(shè)備中。目前YOLOv3算法已經(jīng)較為成熟,相信其能夠?yàn)槊さ雷R(shí)別提供更多的新思路。

        參考文獻(xiàn):

        [1] 謝敬仁,彭霞光.中國(guó)盲人定向行走訓(xùn)練的現(xiàn)狀與發(fā)展對(duì)策[J].中國(guó)特殊教育,2008(12):53-56,40.

        [2] 諶小猛,魯明輝.盲人定向行走輔具的發(fā)展現(xiàn)狀[J].中國(guó)特殊教育,2017(9):15-20.

        [3] 崔逸飛.我國(guó)導(dǎo)盲犬應(yīng)用現(xiàn)狀[J].中國(guó)工作犬業(yè),2016(11):54-56.

        [4] REDMON J,F(xiàn)ARHADI A.YOLOv3:An Incremental Improvement[J].arXiv e-prints,2018.

        [5] GIRSHICK R,DONAHUE J,DARRELL T,et al.Rich Feature Hierarchies for Accurate Object Detection and Semantic Segmentation[J].IEEE Computer Society,2013.

        [6] 方路平,何杭江,周國(guó)民.目標(biāo)檢測(cè)算法研究綜述[J].計(jì)算機(jī)工程與應(yīng)用,2018(13):11-18,33.

        [7] ZHANG K P,ZHANG Z P,LI Z F,et al.Joint Face Detection and Alignment Using Multitask Cascaded Convolutional Networks[J].IEEE Signal Process Lett,2016(10):1499-1503.

        [8] REN S Q,HE K M,GIRSHICK R,et al.Faster R-CNN:Towards Real-Time Object Detection with Region Proposal Networks[J].IEEE Transactions on Pattern Analysis & Machine Intelligence,2017(6):1137-1149.

        猜你喜歡
        深度學(xué)習(xí)
        從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
        面向大數(shù)據(jù)遠(yuǎn)程開放實(shí)驗(yàn)平臺(tái)構(gòu)建研究
        基于自動(dòng)智能分類器的圖書館亂架圖書檢測(cè)
        搭建深度學(xué)習(xí)的三級(jí)階梯
        有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
        電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
        利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
        考試周刊(2016年94期)2016-12-12 12:15:04
        MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
        大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        国产欧美精品区一区二区三区| 日本人妻免费在线播放| 国产在线精品一区二区三区| 国产高清乱理伦片| 91精品国产免费青青碰在线观看| 免费高清日本一区二区| 亚洲精品国产第一综合色吧| 国产av综合影院| 无码成人片一区二区三区| 中文字幕久久熟女人妻av免费| 国产99一区二区三区四区| 少妇无码av无码一区| 午夜tv视频免费国产区4| 亚洲精品一区二区三区蜜臀| 亚洲人不卡另类日韩精品| 丰满人妻熟妇乱又伦精品软件| 欧美精品一级| 中文字幕一区二区三区在线看一区| 色狠狠一区二区三区中文| 最近最新中文字幕| 亚洲成a∨人片在线观看无码| 日韩精品午夜视频在线| 女人下边被添全过视频| 国产香蕉97碰碰视频va碰碰看| 狼色在线精品影视免费播放| 在线观看一区二区三区在线观看| 亚洲午夜精品a区| 亚洲另在线日韩综合色| 狠狠狠色丁香婷婷综合激情| 亚洲综合免费在线视频| 久久久精品视频网站在线观看| 亚洲乱码中文字幕综合| 精品少妇人妻成人一区二区| 日本视频在线播放一区二区| 国产农村熟妇videos| 在线视频制服丝袜中文字幕| 亚洲第一女人天堂av| 国语自产精品视频在线看| 国产suv精品一区二区| 亚洲女同同性少妇熟女| 97人妻视频妓女网|