亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)YOLOv3多尺度的藏族服飾識(shí)別研究

        2022-11-25 04:38:46曾曉莉
        現(xiàn)代計(jì)算機(jī) 2022年17期
        關(guān)鍵詞:特征檢測(cè)模型

        譚 銳,曾曉莉

        (西藏大學(xué)信息科學(xué)技術(shù)學(xué)院,拉薩 850011)

        0 引言

        服裝銷售在電子商務(wù)銷售中占有很大比重,各種材質(zhì)、風(fēng)格、價(jià)位的服裝在各大電商平臺(tái)每天以指數(shù)級(jí)的量在增加,對(duì)終端用戶來說,怎樣在琳瑯滿目的商品中快速選擇到合心意的服裝,需要依賴關(guān)鍵字搜索或者平臺(tái)的推薦系統(tǒng),而這兩種操作都需要首先完成對(duì)服裝的標(biāo)簽分類。人工標(biāo)簽的工作量繁重而且標(biāo)記不準(zhǔn)確。

        在研究當(dāng)前電商的分類系統(tǒng)的基礎(chǔ)上,本文提出開發(fā)一個(gè)快速藏民族識(shí)別模型,對(duì)西藏社會(huì)的維穩(wěn)安全具有重要意義。中國(guó)是一個(gè)多民族國(guó)家,各民族各具特色,在服裝、飾品、裝扮上更是特色分明。怎樣自動(dòng)通過服裝識(shí)別民族,對(duì)我們來說具有重要意義。藏族主要聚集生活在西藏自治區(qū),對(duì)于這個(gè)中國(guó)邊疆地區(qū),結(jié)合行為檢測(cè)等技術(shù)快速識(shí)別藏族服裝,從而識(shí)別藏族人民,對(duì)推進(jìn)西藏邊疆地區(qū)的長(zhǎng)治久安更是意義重大。

        近幾年來,深度學(xué)習(xí)在圖像識(shí)別領(lǐng)域的應(yīng)用越來越廣,越來越深入,基于深度學(xué)習(xí)的圖像識(shí)別技術(shù)的效率遠(yuǎn)遠(yuǎn)高于傳統(tǒng)圖像檢測(cè)識(shí)別效率。

        傳統(tǒng)的圖像檢測(cè)方法,首先需要人工進(jìn)行大量邏輯特征處理和特征設(shè)定,然后根據(jù)人工設(shè)定好的邏輯以及模板進(jìn)行對(duì)應(yīng)的數(shù)據(jù)匹配,這種圖像檢測(cè)方式雖然能起到一定的效果,但是由于特征和邏輯均為人為設(shè)定,導(dǎo)致最終的檢測(cè)和分類效果受到了極大的限制,檢測(cè)的結(jié)果無法跳出人為設(shè)定的框架以及本身的準(zhǔn)確率一直不高[1]。這也是神經(jīng)網(wǎng)絡(luò)興起之前圖像識(shí)別領(lǐng)域遠(yuǎn)遠(yuǎn)沒有現(xiàn)在這般關(guān)注度的主要原因,但神經(jīng)網(wǎng)絡(luò)算法的出現(xiàn),使得圖像識(shí)別在短短幾年內(nèi)興起。神經(jīng)網(wǎng)絡(luò)本身在進(jìn)行圖像識(shí)別的時(shí)候,相對(duì)于傳統(tǒng)圖像識(shí)別就省去了繁重而又復(fù)雜的邏輯設(shè)定和特征標(biāo)注,僅僅只需要將圖片歸類,然后將該類別的特征提取出來傳輸給神經(jīng)網(wǎng)絡(luò),讓其自行學(xué)習(xí),并在學(xué)習(xí)的過程中不斷調(diào)整每一層神經(jīng)網(wǎng)絡(luò)的權(quán)值,使模型在識(shí)別和檢測(cè)方面的準(zhǔn)確率越來越高,這個(gè)權(quán)重調(diào)整的過程即為模型訓(xùn)練的過程,模型最終調(diào)整完成的結(jié)果的好壞決定了最終識(shí)別和檢測(cè)的準(zhǔn)確率的高低[2]。

        服裝檢測(cè)本身屬于目標(biāo)識(shí)別的一種。為了在神經(jīng)網(wǎng)絡(luò)算法中實(shí)現(xiàn)檢測(cè)和識(shí)別的目的,早期的神經(jīng)網(wǎng)絡(luò)主要以faster R-CNN、FPN、MSCNN、OHEM等為主,這些網(wǎng)絡(luò)均為two-stage目標(biāo)檢測(cè)算法,在目標(biāo)檢測(cè)和識(shí)別的時(shí)候分為兩步,第一步先生成Region Proposal,在生成了Region Proposal之后,進(jìn)行第二步,也就是送入分類器進(jìn)行最終的識(shí)別和分類,而這兩步通常由不同的神經(jīng)網(wǎng)絡(luò)算法來完成。兩步識(shí)別的方式使得在檢測(cè)和識(shí)別目標(biāo)時(shí)準(zhǔn)確率相對(duì)較高,但兩步識(shí)別通常也伴隨著另一個(gè)問題,那就是識(shí)別速度的大幅度下降,即便R-CNN后續(xù)推出了fast R-CNN以及faster R-CNN,都只能在一定程度上緩解該問題,其檢測(cè)速度仍然不夠理想。

        由上可以得到一個(gè)結(jié)論,即two-stage目標(biāo)檢測(cè)算法因?yàn)樵谒俣确矫娌徽純?yōu)勢(shì),所以其在即時(shí)識(shí)別這樣需要速度的場(chǎng)景中并不適用。為了解決在該場(chǎng)合下的目標(biāo)檢測(cè)識(shí)別問題,業(yè)界提出并完成了另一類目標(biāo)檢測(cè)識(shí)別算法:one-stage,該算法直接省去生成Region Proposal的這一步驟,直接產(chǎn)生物體的類別概率和位置坐標(biāo)值,經(jīng)過單次檢測(cè)即可直接得到最終的檢測(cè)結(jié)果,因此該算法比two-stage快得多,能夠達(dá)到即時(shí)目標(biāo)檢測(cè)的效果[3],YOLO作為one-stage中的代表算法,在經(jīng)過了不斷的改進(jìn)之后,形成了YOLOv3,已成為即時(shí)目標(biāo)檢測(cè)方面的首選算法[4]。

        1 實(shí)驗(yàn)對(duì)象及方法

        1.1 YOLOv3算法

        YOLOv3算法是Redmon等[5]完成的最后一版基于Darknet53網(wǎng)絡(luò)的算法(后續(xù)的YOLOv4和YOLOv5由Alexey編寫),作為一個(gè)one_stage目標(biāo)檢測(cè)算法,YOLOv3與RetinaNet和SSD檢測(cè)效果相當(dāng),但速度卻比后兩者快了好幾倍。相比于其上一代YOLOv2,作者對(duì)Darknet進(jìn)行了改進(jìn),將網(wǎng)絡(luò)深度擴(kuò)展到了53層,并在imagenet上進(jìn)行了預(yù)訓(xùn)練,因此該主干網(wǎng)絡(luò)也叫做Darknet-53。

        Darknet53的網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示,每個(gè)殘差塊由一個(gè)殘差層、一個(gè)1×1的卷積核和一個(gè)3×3的卷積核構(gòu)成,在3×3卷積核進(jìn)行還原操作之前,先用1×1卷積核進(jìn)行通道收縮,通過矩陣分解的思路來減少參數(shù)量。

        此外,Redmon等[5]還借鑒了DSSD的做法,加入了跳躍連接和上采樣,實(shí)現(xiàn)了高層特征和底層特征融合。和DSSD一樣,使用多尺度的特征圖來預(yù)測(cè)結(jié)果。這帶來兩個(gè)變化:①新的網(wǎng)絡(luò)結(jié)構(gòu)預(yù)測(cè)更多的anchor框;②由于使用了更底層的特征,YOLOv3對(duì)小物體的效果更好。在使用416×416輸出的情況下,YOLOv2預(yù)測(cè)輸出845(13×13×5)個(gè)anchor框。同樣的圖片輸入情況下,每個(gè)cell預(yù)測(cè)3個(gè)anchor框,共有10647(13×13×3+26×26×3+52×52×3)個(gè),是原來的12.6倍。

        在多尺度預(yù)測(cè)方面,YOLOv3采用多個(gè)scale融合的方式,相比于YOLOv2,YOLOv3設(shè)定的是每個(gè)網(wǎng)格單元預(yù)測(cè)3個(gè)box,所以每個(gè)box需要 有(x,y,w,h,confidence)五 個(gè) 基 本 參 數(shù)。YOLOv3輸出了3個(gè)不同尺度的feature map,y1,y2和y3的 深 度 都 是255,邊 長(zhǎng) 的 規(guī) 律 是13∶26∶52[5]。

        YOLOv3用上采樣的方法來實(shí)現(xiàn)這種多尺度的特征圖。共進(jìn)行三次預(yù)測(cè),第一次預(yù)測(cè)比較簡(jiǎn)單,在Darknet-53得到的特征圖上,再通過六個(gè)DBL結(jié)構(gòu)以及一個(gè)卷積層的加工,就可以得到一個(gè)新的特征圖譜,在這個(gè)特征圖譜上進(jìn)行預(yù)測(cè)就可以得到第一次預(yù)測(cè)結(jié)果。上采樣部分主要是在第二次和第三次預(yù)測(cè),總的來說都是先從卷積層輸出結(jié)果,經(jīng)過一個(gè)DBL處理之后,再進(jìn)行一次(2,2)上采樣,然后將上采樣特征與一個(gè)Res8結(jié)構(gòu)輸出的特征進(jìn)行張量鏈接,之后再通過六個(gè)DBL處理以及一個(gè)卷積層,在這個(gè)結(jié)果之上進(jìn)行預(yù)測(cè),得到第二、第三次預(yù)測(cè)結(jié)果。

        1.2 YOLOv3改進(jìn)

        為了使YOLOv3對(duì)中小目標(biāo)的識(shí)別準(zhǔn)確率進(jìn)一步提升,在原有的三個(gè)YOLO層上額外新增一個(gè)YOLO層,即把104×104那一層加入輸出,這個(gè)多出來的YOLO層能夠更加有效地提取藏族服飾的中小目標(biāo),例如發(fā)飾等的特征。將52×52層的輸出結(jié)果進(jìn)行一次上采樣連接到104×104層完成多尺度特征融合,但因?yàn)槎嗔艘粋€(gè)輸出,所以需要根據(jù)數(shù)據(jù)集重新計(jì)算anchors。改進(jìn)后的YOLOv3預(yù)測(cè)框數(shù)量為43095(13×13×3+26×26×3+52×52×3+104×104×3),是改進(jìn)前的4倍。具體改進(jìn)結(jié)構(gòu)如圖2所示。

        1.3 數(shù)據(jù)集構(gòu)成與預(yù)處理

        由于本文數(shù)據(jù)集的特殊性,在互聯(lián)網(wǎng)上難以找到現(xiàn)有的數(shù)據(jù)集,因此采用網(wǎng)上以及外出兩種方式搜集圖片。同時(shí)使用藏族服飾數(shù)據(jù)以及非藏族服飾數(shù)據(jù),非藏族服飾數(shù)據(jù)集來自github上的開源數(shù)據(jù)集(https://github.com/bearpaw/clothing-co-parsing),一共1977張圖像,兩種類別各占一半的數(shù)量,每一張圖像都提供了完整的藏族服飾信息。由于藏族服飾構(gòu)成的數(shù)據(jù)集是通過技術(shù)手段進(jìn)行收集,所以需要進(jìn)行人工二次篩選,將未包含完整服飾特征,以及特征細(xì)節(jié)過于模糊的圖片剔除。

        1.4 藏族服飾特征分析以及數(shù)據(jù)集標(biāo)注

        本文使用Labelimg標(biāo)注工具對(duì)數(shù)據(jù)集進(jìn)行了標(biāo)注(在標(biāo)注時(shí)切換模式至YOLO就可以直接得到txt格式的標(biāo)簽文件),在開始標(biāo)注前將Labelimg的默認(rèn)標(biāo)簽文件修改為自己的標(biāo)簽類別,以防止標(biāo)簽序號(hào)的錯(cuò)誤。

        標(biāo)注工作前的軟件準(zhǔn)備已經(jīng)完成,接下來再開始標(biāo)注前的最后一步,也是最重要的一步,那就是分析藏族服飾的特征部位,只有標(biāo)注在特征部位上才能夠有效地起到識(shí)別藏族服飾的作用。藏裝的構(gòu)成分衣領(lǐng)、衣襟、后身、腰帶等,衣領(lǐng)有兩種,最常見的是交領(lǐng),點(diǎn)驚領(lǐng)直接連左右襟,衣襟在胸前相交,領(lǐng)子也就相交;另一種是直領(lǐng),即在衣服上垂直安領(lǐng),從頸后繞到頸前[6]。通過這些特征就可以對(duì)拉薩地區(qū)的藏族服飾進(jìn)行初步識(shí)別,但是對(duì)于細(xì)小飾品繁多的其他地區(qū)的藏族服飾則顯得有所欠缺[7],所以需要通過改進(jìn)算法結(jié)構(gòu)來有針對(duì)性地提升這些細(xì)小目標(biāo)信息的提取能力。

        最后將已經(jīng)標(biāo)注好的藏族服飾數(shù)據(jù)集劃分為90%的訓(xùn)練集和10%的測(cè)試集,也就是使用788張圖片來進(jìn)行訓(xùn)練,87張圖片來測(cè)試準(zhǔn)確率。

        1.5 YOLOv3模型的訓(xùn)練與模型的選取

        首先從該網(wǎng)址(http://pjreddie.com/media/files/darknet53.conv.74)下載Darknet-53的的預(yù)訓(xùn)練模型參數(shù),預(yù)訓(xùn)練模型能有效提高訓(xùn)練出來的最終模型的識(shí)別成功率,然后對(duì)模型參數(shù)進(jìn)行適當(dāng)?shù)恼{(diào)整,具體如圖3所示。

        2 模型對(duì)比

        2.1 評(píng)價(jià)指標(biāo)

        本文采用mAP這種常用于目標(biāo)檢測(cè)的識(shí)別的參數(shù)作為模型好壞的總評(píng)價(jià)指標(biāo),在mAP之前 應(yīng) 先 說 明IoU、precision、recall、F1-Score、PR曲線以及AP的意義。

        IoU的全稱為交并比,即預(yù)測(cè)邊框與真實(shí)邊框的交集與并集的比值。在目標(biāo)檢測(cè)中,IoU大于設(shè)定的閾值時(shí)即為正樣本,改變閾值會(huì)直接影響檢測(cè)結(jié)果。而這個(gè)機(jī)制又引出了TP、FP、FN、TN這幾個(gè)參數(shù),TP即為IoU>閾值的檢測(cè)結(jié)果數(shù)量;FP即為IoU<閾值的檢測(cè)結(jié)果數(shù)量;FN即為存在目標(biāo)但是未檢測(cè)到目標(biāo)的結(jié)果數(shù)量;TN即為樣本錯(cuò)誤并且未出現(xiàn)檢測(cè)框的結(jié)果的數(shù)量。precision為查準(zhǔn)率,即TP/(TP+FP);recall為召回率,即TP/(TP+FN)。F1-Score又稱F1分?jǐn)?shù),是分類問題的一個(gè)衡量指標(biāo),它是精度和召回率的調(diào)和平均數(shù)。PR曲線是一條分別以Precision和Recall為橫縱坐標(biāo)的曲線,而AP是PR曲線下的面積,mAP則是各類別AP的平均值。

        2.2 改進(jìn)前后模型對(duì)比

        采用兩個(gè)模型分別對(duì)數(shù)據(jù)集進(jìn)行測(cè)試,得到的結(jié)果見表1。從表1可以看出,改進(jìn)的YOLOv3對(duì)應(yīng)的AP相較于YOLOv3有所提高,F(xiàn)P相較于改進(jìn)之前明顯減少,從這幾項(xiàng)數(shù)據(jù)可以看出,改進(jìn)后的模型在識(shí)別的精確度方面有所提高,尤其大幅度地減少了將錯(cuò)誤目標(biāo)識(shí)別為藏族服飾的概率,因此precision相較于改進(jìn)前上升了0.08。同時(shí)以recall下降換取了AP的提高。

        表1 模型測(cè)試結(jié)果

        3 結(jié)語

        本文在YOLOv3的三層YOLO層輸出的基礎(chǔ)上,再添加了一層YOLO層,對(duì)藏族服飾中的小目標(biāo)有著更好的感受力,使其對(duì)藏族服飾的整體特征提取效果變得更好。

        由于本文數(shù)據(jù)集的不足,以及只是對(duì)模型進(jìn)行了初步改進(jìn),導(dǎo)致模型識(shí)別的指標(biāo)提升不夠明顯,但其指明了在識(shí)別藏族服飾方面所遇到的問題以及應(yīng)該去修改的方向,本文結(jié)果能夠?yàn)檫M(jìn)一步提高藏族服飾識(shí)別準(zhǔn)確率提供一個(gè)初步的參考。

        猜你喜歡
        特征檢測(cè)模型
        一半模型
        “不等式”檢測(cè)題
        “一元一次不等式”檢測(cè)題
        “一元一次不等式組”檢測(cè)題
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        如何表達(dá)“特征”
        不忠誠(chéng)的四個(gè)特征
        抓住特征巧觀察
        3D打印中的模型分割與打包
        日韩午夜三级在线视频| 亚洲日韩欧美国产另类综合| 无码人妻精品一区二区三区9厂 | 日韩中文网| 日本一区二区在线播放观看| 久久夜色国产精品噜噜亚洲av| 国产香蕉视频在线播放| 伊在人天堂亚洲香蕉精品区| 日本a在线看| 国产自产自现在线视频地址| 国内久久婷婷六月综合欲色啪| 亚洲精品国产精品国自产| 狠狠色狠狠色综合日日不卡| 亚洲AV日韩Av无码久久| 亚洲成人av一区免费看| 中文字幕在线日亚州9| 亚洲精品国产第一区二区尤物 | 男人和女人高潮免费网站 | 视频二区 无码中出| 亚洲一区二区三区免费网站| 久久亚洲精品成人无码| 熟妇与小伙子matur老熟妇e| 亚洲va精品va国产va| 亚洲综合偷自成人网第页色 | 亚洲综合偷自成人网第页色| 亚洲三区av在线播放| 亚洲精品无码永久中文字幕| 日本不卡在线视频二区三区| 成人国产精品免费网站| 97青草超碰久久国内精品91| 成人国产精品一区二区网站公司 | 蜜桃视频中文字幕一区二区三区| 日本韩国亚洲三级在线| 先锋五月婷婷丁香草草| 国产一区视频在线免费观看| 日本一区二区在线看看| 尤物yw午夜国产精品视频| 男受被做哭激烈娇喘gv视频| 欧美手机在线视频| 偷拍综合在线视频二区日韩| 亚洲av无码一区二区三区不卡|