亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種基于YOLOv5 改進(jìn)的動(dòng)捕Maker 點(diǎn)識(shí)別方法*

        2023-05-12 02:33:20李雅薇朱珈緣馬媛媛
        關(guān)鍵詞:標(biāo)簽卷積特征

        李雅薇 孟 娟 杜 海 朱珈緣 馬媛媛

        (1.大連海洋大學(xué)信息工程學(xué)院 大連 116024)(2.大連理工大學(xué)海岸和近海工程國(guó)家重點(diǎn)實(shí)驗(yàn)室 大連 116024)

        1 引言

        隨著計(jì)算機(jī)水平與科技水平的不斷提高,動(dòng)作捕捉系統(tǒng)越來(lái)越多的出現(xiàn)在人們的日常生活和工作中。如影視游戲動(dòng)畫制作,機(jī)器人運(yùn)動(dòng)操控,虛擬角色互動(dòng),體育訓(xùn)練中捕捉運(yùn)動(dòng)數(shù)據(jù),醫(yī)療康復(fù)訓(xùn)練中的運(yùn)動(dòng)障礙康復(fù),人體實(shí)時(shí)連續(xù)健康監(jiān)測(cè)等方面。目前,比較常見的動(dòng)作捕捉方法主要可以分為兩類:光學(xué)式和慣性式動(dòng)作捕捉方法。本文主要探討的是光學(xué)式動(dòng)作捕捉方法。該系統(tǒng)更多地將光學(xué)球形標(biāo)識(shí)物(Marker點(diǎn))標(biāo)記在運(yùn)動(dòng)的物體上,通過(guò)攝像機(jī)去確定光學(xué)標(biāo)識(shí)物的空間位置進(jìn)而去實(shí)現(xiàn)動(dòng)作捕捉,從而獲取該物體的運(yùn)動(dòng)軌跡。因此,圓形標(biāo)記點(diǎn)的識(shí)別至關(guān)重要,對(duì)圓形標(biāo)記的識(shí)別也就成為了現(xiàn)下熱門的研究方向[1]。雖然目前市場(chǎng)上已有很多相關(guān)的動(dòng)作捕捉系統(tǒng),但基于簡(jiǎn)單特征Marker點(diǎn)的動(dòng)作捕捉系統(tǒng)在復(fù)雜環(huán)境應(yīng)用時(shí),尤其是環(huán)境反光物體較多時(shí),依然存在許多不足,有待完善?,F(xiàn)有的研究大多集中在研究Marker 點(diǎn)3D重建數(shù)據(jù)[2]的精度和應(yīng)用拓展方面,對(duì)于前期抗環(huán)境干擾、識(shí)別精度、速度以及穩(wěn)定性方面仍需提高。識(shí)別的結(jié)果將直接影響到動(dòng)作捕捉系統(tǒng)在后續(xù)動(dòng)作的準(zhǔn)確性,因此該項(xiàng)研究就變得尤為重要[3~6]。那么如何在較為復(fù)雜的背景中快速、準(zhǔn)確、穩(wěn)定地識(shí)別Marker點(diǎn)就成為了現(xiàn)在急需解決的問(wèn)題。

        動(dòng)捕系統(tǒng)一般配備紅外補(bǔ)光燈,在簡(jiǎn)單背景下,目標(biāo)對(duì)比度較高,可在球形物識(shí)別算法中利用圓形特征來(lái)提取目標(biāo),如采用霍夫(Hough)變換檢測(cè)方法。首先對(duì)圖像進(jìn)行圖像增強(qiáng)[7]、邊緣檢測(cè)算子以及圖像閾值化等預(yù)處理操作,再利用Xu 等提出的霍夫變換的基本思想進(jìn)行圓形檢測(cè)[8]。霍夫變換對(duì)于目標(biāo)識(shí)別物體的邊界存在噪聲或者邊緣連接的不夠緊密時(shí)具有很好的魯棒性和容錯(cuò)性。陳令剛等[9]通過(guò)對(duì)圖像進(jìn)行了Canny算子的邊緣檢測(cè)及閾值化處理,在一定程度上提高了在復(fù)雜背景中圖像的識(shí)別率,但前期工作量較大,使用起來(lái)較為復(fù)雜;梁敏健等[10]利用HOG-Gabor 特征融合的方法去獲取特征向量,再利用Softmax 分類器從而實(shí)現(xiàn)對(duì)目標(biāo)體的識(shí)別。在一定程度上提高了對(duì)目標(biāo)物體的識(shí)別準(zhǔn)確率,但是相對(duì)于原模型降低了魯棒性。隨著計(jì)算機(jī)行業(yè)的飛速發(fā)展,雖然傳統(tǒng)的目標(biāo)檢測(cè)方法也在不斷完善改進(jìn),但是仍存在計(jì)算量較大以及操作復(fù)雜難度較高的缺點(diǎn)。

        近幾年隨著卷積神經(jīng)網(wǎng)絡(luò)的快速發(fā)展以及運(yùn)用,基于深度學(xué)習(xí)和機(jī)器學(xué)習(xí)的目標(biāo)檢測(cè)算法映入大眾的眼簾,也逐漸地替代了傳統(tǒng)目標(biāo)檢測(cè)的算法。在交通標(biāo)志識(shí)別、人臉識(shí)別等常用的目標(biāo)識(shí)別中,一般有用到RCNN 算法、SSD 算法、SPP 算法、YOLO 算法等。但在動(dòng)作捕捉系統(tǒng)中,還未進(jìn)行算法的應(yīng)用與優(yōu)化。通過(guò)對(duì)比上述算法的優(yōu)劣發(fā)現(xiàn),所需識(shí)別的圓形目標(biāo)(Marker點(diǎn))較小,可以考慮采用YOLO算法或者SSD算法。隨著YOLO算法的不斷改進(jìn),YOLO 算法也從v1 升級(jí)到了v5。其中YO?LOv3 算法不僅速度快,而且準(zhǔn)確率高,檢測(cè)小物體的能力也得到了很大的提升。鄧天民[11]等通過(guò)改進(jìn)Darknet53 網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)而減少迭代時(shí)的計(jì)算量,使其在檢測(cè)識(shí)別中提高了檢測(cè)速度,但也發(fā)現(xiàn)訓(xùn)練后的模型較大,不適合用于實(shí)際的動(dòng)作捕捉系統(tǒng)中。YOLOv5 算法中的5s 其網(wǎng)絡(luò)最小,AP 精度最低,并且識(shí)別速度可達(dá)到140FPS,線上分析效果可觀,能夠直接對(duì)單個(gè)圖像,批處理圖像,視頻甚至網(wǎng)絡(luò)攝像頭端口輸出進(jìn)行有效推理,嵌入式設(shè)備也可以使用。

        綜上所述,本文針對(duì)動(dòng)作捕捉在復(fù)雜背景下應(yīng)用時(shí)的目標(biāo)識(shí)別問(wèn)題,提出一種半監(jiān)督訓(xùn)練的圓形標(biāo)記點(diǎn)識(shí)別方法,其中包括對(duì)YOLOv5算法的5s網(wǎng)絡(luò)進(jìn)行動(dòng)捕應(yīng)用適應(yīng)性方面的改造(如CSP結(jié)構(gòu)),以在保持計(jì)算負(fù)載不增加的情況下,提高特征提取能力。同時(shí),對(duì)模型進(jìn)行剪枝優(yōu)化,實(shí)現(xiàn)模型輕量化。在最后實(shí)驗(yàn)環(huán)節(jié),本文選用大連理工大學(xué)海岸和近海工程國(guó)家重點(diǎn)實(shí)驗(yàn)室所研制的非接觸式六自由度運(yùn)動(dòng)測(cè)量系統(tǒng)中的數(shù)據(jù)集來(lái)進(jìn)行測(cè)試,以此驗(yàn)證本文改進(jìn)的算法的準(zhǔn)確性和實(shí)用性。

        2 基于半監(jiān)督學(xué)習(xí)的圓形目標(biāo)標(biāo)記

        傳統(tǒng)的機(jī)器學(xué)習(xí)技術(shù)主要分為兩大類:無(wú)監(jiān)督學(xué)習(xí)和監(jiān)督學(xué)習(xí)。無(wú)監(jiān)督學(xué)習(xí)使用的是未標(biāo)記的數(shù)據(jù)集,而監(jiān)督學(xué)習(xí)則是使用已經(jīng)標(biāo)記的數(shù)據(jù)集。但在處理現(xiàn)實(shí)問(wèn)題中,通常需要人工對(duì)數(shù)據(jù)集進(jìn)行標(biāo)記,需要耗費(fèi)大量人工和時(shí)間,且只能得到小部分的帶有標(biāo)記的數(shù)據(jù)集。這就促使了使用標(biāo)記樣本和未標(biāo)記樣本的半監(jiān)督學(xué)習(xí)技術(shù)的迅速發(fā)展。由于數(shù)據(jù)集較大,所以本文選擇使用半監(jiān)督學(xué)習(xí)中的偽標(biāo)簽標(biāo)記法對(duì)數(shù)據(jù)進(jìn)行標(biāo)記。STAC[12]提出了一個(gè)基于Hard Pseudo Label 的半監(jiān)督目標(biāo)檢測(cè)算法,如圖1 可示。首先利用標(biāo)記好的數(shù)據(jù)集訓(xùn)練出一個(gè)Teacher 模型生成偽標(biāo)簽,再將剩余沒(méi)有標(biāo)記的數(shù)據(jù)集輸入到Teacher 網(wǎng)絡(luò)中,得到大量的預(yù)測(cè)結(jié)果目標(biāo)框。這時(shí)利用非極大抑制去消除所生成的冗余目標(biāo)框,最后使用閾值來(lái)挑選高置信度的偽標(biāo)簽。最后利用圖像增強(qiáng)的方法,將偽標(biāo)簽和未標(biāo)記的圖像相結(jié)合,計(jì)算出損失函數(shù)。本實(shí)驗(yàn)收集到數(shù)據(jù)集共有500 張圖片,需要用YOLO-TXT 格式進(jìn)行標(biāo)記。首先利用labelimg 軟件對(duì)小部分?jǐn)?shù)據(jù)進(jìn)行標(biāo)記,即選擇100 張圖像來(lái)進(jìn)行人工標(biāo)記,標(biāo)記結(jié)束后得到有標(biāo)簽的數(shù)據(jù),利用有標(biāo)簽的數(shù)據(jù)進(jìn)行線性訓(xùn)練,得到一個(gè)較理想的模型之后,在無(wú)標(biāo)簽數(shù)據(jù)上進(jìn)行推理,得到偽標(biāo)簽,并使用閾值過(guò)濾掉分?jǐn)?shù)較低的目標(biāo)框,然后利用推理得到的偽標(biāo)簽與人工標(biāo)記的標(biāo)簽進(jìn)行合并,再次送入模型進(jìn)行訓(xùn)練。訓(xùn)練結(jié)束后的模型在測(cè)試集上進(jìn)行評(píng)估,同時(shí)利用此時(shí)的模型重新在偽標(biāo)簽數(shù)據(jù)集上進(jìn)行推理,再重新生成偽標(biāo)簽并進(jìn)行閾值的過(guò)濾,重復(fù)以上過(guò)程直到模型在測(cè)試集中的分?jǐn)?shù)不再上升為止。這樣就大幅度減少了人工標(biāo)注的時(shí)間,同時(shí)也可以得到較好的標(biāo)記數(shù)據(jù)集。

        圖1 STAC半監(jiān)督目標(biāo)檢測(cè)算法示意圖

        3 YOLOv5模型框架

        YOLOv5 模型[13~14]框架如圖2 可示,主體部分由Backbone、Neck、Head 三個(gè)部分組成。按照網(wǎng)絡(luò)深度大小和特征圖寬度大小分為YOLOv5s、YO?LOv5m、YOLOv5l。

        圖2 YOLOv5模型框架

        Backone 是YOLOv5 的骨干結(jié)構(gòu),主要采用的是Focus結(jié)構(gòu),CSPnet結(jié)構(gòu)。Focus結(jié)構(gòu)將輸入的圖像在縱向和橫向間隔切片之后再進(jìn)行拼接,跟在卷積下采樣相比較,F(xiàn)ocus 結(jié)構(gòu)在輸出深度方面提升了4 倍,這樣就可以保留更多的圖像信息。同時(shí)YOLOv5 也借鑒了CSPnet 的設(shè)計(jì)思路,在網(wǎng)絡(luò)中設(shè)計(jì)存在兩種csp 結(jié)構(gòu),一種是應(yīng)用在主干網(wǎng)絡(luò)中的csp1,一種是應(yīng)用在Neck 中的csp2。CSPnet 使用跨階段局部網(wǎng)絡(luò),緩解了以往需要大量推理計(jì)算的問(wèn)題,增強(qiáng)了cnn 的學(xué)習(xí)能力,能夠在輕量化的同時(shí)保持準(zhǔn)確性,主要是通過(guò)將梯度變化從頭到尾的集成到特征圖中,在減少了計(jì)算量的同時(shí)可以保持準(zhǔn)確率。隨著卷積神經(jīng)網(wǎng)絡(luò)Backbone 不斷展示出更強(qiáng)的多尺度表示能力,從而在廣泛的應(yīng)用中實(shí)現(xiàn)一致的性能提升。大多數(shù)現(xiàn)有方法以分層方式表示多尺度特征,這樣就可以在運(yùn)算量較小的情況下去識(shí)別目標(biāo)物。

        Neck 的核心部分為FPN(Feature Pyramid Net?works,特征金字塔)結(jié)構(gòu)和PAN(Path Aggregation Net,路徑聚合網(wǎng)絡(luò))結(jié)構(gòu)。FPN和PAN兩種結(jié)構(gòu)充分的實(shí)現(xiàn)了高層特征與低層特征的融合與互補(bǔ)。其中FPN 結(jié)構(gòu)是將高層的大目標(biāo)的類別特征向低層傳遞,PAN 結(jié)構(gòu)則是將低層的大目標(biāo)的類別、位置特征和小目標(biāo)的類別、位置特征向上傳遞,二者相互補(bǔ)充并克服各自局限性,強(qiáng)化模型特征提取能力。

        傳統(tǒng)的CNN 網(wǎng)絡(luò)只是將最高層特征輸入檢測(cè)層中,這樣就會(huì)導(dǎo)致存在小目標(biāo)特征在多次傳遞后特征丟失,導(dǎo)致識(shí)別不準(zhǔn)確的現(xiàn)象。而在YOLOv5中,Head 作為其檢測(cè)結(jié)構(gòu)部分,其具有三個(gè)檢測(cè)頭部分,分別對(duì)應(yīng)小目標(biāo)檢測(cè)、中目標(biāo)檢測(cè)、大目標(biāo)檢測(cè)。這樣就能有效地克服了特征局限性所帶來(lái)的問(wèn)題。

        4 在運(yùn)動(dòng)捕捉應(yīng)用中進(jìn)行YOLOv5s算法優(yōu)化

        4.1 改進(jìn)CSP結(jié)構(gòu)

        在自然場(chǎng)景中,許多視覺(jué)任務(wù)在多尺度上標(biāo)示特征。在最新的進(jìn)展中,基礎(chǔ)的卷積神經(jīng)網(wǎng)絡(luò)展現(xiàn)了更強(qiáng)的多尺度表示能力,然而大多數(shù)現(xiàn)存的算法中主要是以分層的方式來(lái)表示多尺度特征。Res2net則是通過(guò)在一個(gè)單個(gè)殘差塊內(nèi)構(gòu)造分層的類殘差連接來(lái)實(shí)現(xiàn)多尺度的特征獲取功能,其更加精細(xì)的表示多尺度特征,并且增加每個(gè)網(wǎng)絡(luò)層的感受野。這一特征可以使得動(dòng)捕系統(tǒng)應(yīng)用時(shí),可以更加精準(zhǔn)地獲取目標(biāo)點(diǎn)的特征信息,提高識(shí)別的穩(wěn)定性。

        上文所提到的csp1 中包含residual 組件[15](圖3 所示),這不僅會(huì)導(dǎo)致計(jì)算量較大而且對(duì)于目標(biāo)點(diǎn)的特征信息抓取能力不全面,所以本文提出使用res2net 結(jié)構(gòu)對(duì)resnet[16]結(jié)構(gòu)進(jìn)行替換。Res2net[17]在一個(gè)單個(gè)的殘差塊內(nèi)構(gòu)造分層的殘差類連接,為CNN提出了一種新的以更細(xì)粒度(granular level)去表達(dá)多尺度特征,在此基礎(chǔ)上,再增加每個(gè)網(wǎng)絡(luò)層的感受野(receptive fields)范圍的構(gòu)建模塊Res2net。其主要利用一組更小的卷積核組來(lái)替換3*3 的卷積。具體來(lái)描述,首先需要將特征圖分為幾組,其中一組卷積核首先從一組輸入特征圖上提取特征,再將所輸出的特征與此組輸入特征圖共同作為特征送入到下一組卷積核中。這樣反復(fù)幾次,直到所有輸入的特征圖都被處理。最后將所有的輸出特征連接并通過(guò)1*1 卷積將信息所融合,這樣就可以得到不同尺度的感受野,從而得到了更多的尺度特征。此外,Res2net 的結(jié)構(gòu)還可以保持計(jì)算負(fù)載的負(fù)載不增加,這就對(duì)在多個(gè)尺度上表示特征的許多視覺(jué)任務(wù)中起到非常大的作用。

        圖3 CSP結(jié)構(gòu)圖

        圖4 (a)為CNN 網(wǎng)絡(luò)架構(gòu)的基本組成結(jié)構(gòu),圖4(b)為Res2Net 模塊的基本組成結(jié)構(gòu)。我們可以觀察到,與原模塊相比,新模塊具有更強(qiáng)的多規(guī)模特征提取能力,但計(jì)算負(fù)載量與左側(cè)架構(gòu)相似[18]。右圖展示出了瓶頸塊和Res2Net 模塊之間的區(qū)別。在1×1 卷積之后,本文將特征映射均勻地分割成N組特征映射子集,由xi表示,其中i∈{1,2,…,n}。與輸入特征圖相比,每個(gè)特征子集xi具有相同的空間大小,但具有1/s 的信道數(shù)。除xi外,每個(gè)xi都有相應(yīng)的3×3卷積,由Ki()表示,同時(shí)用yi表示Ki()的輸出。特征子集xi加上Ki?1()的輸出,然后饋入Ki()。為了在增加n 的同時(shí)減少參數(shù),本文省略了xi的3×3卷積。因此,yi可以寫成:

        圖4 CNN和Res2net的基本結(jié)構(gòu)

        這里需要注意,每個(gè)3×3 卷積運(yùn)算符Ki()可能從所有特征分割{xj,j≤i}接收特征信息。每次特征通過(guò)3×3卷積算子分割xj時(shí),輸出結(jié)果可以具有比xj,更大的接收?qǐng)?。由于組合爆炸效應(yīng),Res2Net模塊的輸出包含不同的數(shù)量和不同的接收尺度的組合。

        綜上,本文采用res2net結(jié)構(gòu)來(lái)替換YOLOv5 所使用的resnet 結(jié)構(gòu),其本質(zhì)上就是利用一個(gè)較小的3×3 過(guò)濾器取代了過(guò)濾器組,這樣就可以同時(shí)將不同的過(guò)濾器組以層級(jí)殘差式風(fēng)格連接。這樣不但可以保證在動(dòng)捕應(yīng)用時(shí)地的識(shí)別能力,也不增加其計(jì)算負(fù)載量。

        4.2 檢測(cè)頭部分修改

        由于YOLOv5 對(duì)模型架構(gòu)的修改使用的是yaml 外部配置文件[19]進(jìn)行的,根據(jù)YOLOv5 模型框架圖可知其具有三個(gè)檢測(cè)頭,分別對(duì)應(yīng)小目標(biāo)、中目標(biāo)、大目標(biāo)。在動(dòng)捕系統(tǒng)中,主要將Marker 點(diǎn)附著在運(yùn)動(dòng)的物體上再去進(jìn)行識(shí)別,并通過(guò)重構(gòu)計(jì)算來(lái)獲取運(yùn)動(dòng)物體的軌跡,所以應(yīng)用時(shí)目標(biāo)點(diǎn)均為小目標(biāo)物。根據(jù)這一應(yīng)用特點(diǎn),本文進(jìn)一步對(duì)算法進(jìn)行剪枝操作,在算法中刪除了后兩個(gè)中、大檢測(cè)頭,只保留小目標(biāo)檢測(cè)頭,就可以使模型進(jìn)行輕量化,從而滿足動(dòng)捕對(duì)分析速度的要求。與此同時(shí),模型輕量化可以更加容易地投入生產(chǎn)中,比原算法更適合應(yīng)用于動(dòng)捕系統(tǒng)中目標(biāo)點(diǎn)的識(shí)別。

        5 實(shí)驗(yàn)結(jié)果與分析

        5.1 實(shí)驗(yàn)準(zhǔn)備

        本文采用了由大連理工大學(xué)海岸和近海工程國(guó)家重點(diǎn)實(shí)驗(yàn)室所研制的非接觸式六自由度運(yùn)動(dòng)測(cè)量系統(tǒng)捕獲的數(shù)據(jù)集進(jìn)行試驗(yàn)。數(shù)據(jù)集為五個(gè)小球移動(dòng)過(guò)程中利用高速照相機(jī)所拍攝運(yùn)動(dòng)照片。為了在YOLOv5 中對(duì)數(shù)據(jù)進(jìn)行訓(xùn)練,采用上文所介紹的半監(jiān)督學(xué)習(xí)方法對(duì)圖像進(jìn)行標(biāo)注。為了顯示方便,本文將樣本中所有目標(biāo)標(biāo)記點(diǎn)的圖像位置統(tǒng)一放置在一幅圖像中,其分布如圖5所示。

        圖5 目標(biāo)在圖像中的分布圖

        目標(biāo)框長(zhǎng)寬分布如圖6所示。

        圖6 目標(biāo)框長(zhǎng)寬分布圖

        本實(shí)驗(yàn)的網(wǎng)絡(luò)訓(xùn)練利用騰訊云服務(wù)器訓(xùn)練完成;模型框架為PyTorch;其評(píng)價(jià)指標(biāo):準(zhǔn)確率Preci?sion、召回率Recall、平均精度均值(mAP)、GFLops作為目標(biāo)檢測(cè)模型的評(píng)價(jià)標(biāo)準(zhǔn)。公式如下:

        其中TP 為正類判定為正類,F(xiàn)P 為負(fù)類判定為負(fù)類,TN 是負(fù)類判定負(fù)類。在Precision-Recall 曲線基礎(chǔ)上,通過(guò)計(jì)算每個(gè)recall 值對(duì)應(yīng)的Precision 值得平均,可以獲得一個(gè)數(shù)組形式的評(píng)估即AP,AP計(jì)算公式為

        其中r1,r2…rn 是按升序排列的Precison 插值段第一個(gè)插值處對(duì)應(yīng)的Recall值。

        所有類別的AP即為mAP,mAP計(jì)算公式為

        5.2 訓(xùn)練結(jié)果及對(duì)比分析

        從工程技術(shù)角度來(lái)看,動(dòng)作捕捉系統(tǒng)在本質(zhì)上是一種定位系統(tǒng),通常需要在目標(biāo)物上布置便于獲取運(yùn)動(dòng)信息的定位設(shè)備進(jìn)行追蹤。光學(xué)動(dòng)作捕捉系統(tǒng)主要是由高速攝像機(jī)、紅外補(bǔ)光燈、光學(xué)鏡頭、動(dòng)作捕捉軟件、反光標(biāo)識(shí)點(diǎn)和若干配件組成的。其中的反光標(biāo)識(shí)點(diǎn)(Marker 點(diǎn))就是為我們所要識(shí)別的目標(biāo)物體。圖7 為利用傳統(tǒng)算法圓形度檢測(cè)方法所得出的目標(biāo)物體識(shí)別的分布圖。

        圖7 目標(biāo)物體識(shí)別分布圖

        通過(guò)觀察可以發(fā)現(xiàn)最終的標(biāo)記點(diǎn)軌跡圖中有部分點(diǎn)缺失,這是因?yàn)镸aker 點(diǎn)在運(yùn)動(dòng)過(guò)程中受到背景反光的影響而無(wú)法識(shí)別所產(chǎn)生的“丟幀”現(xiàn)象,這一問(wèn)題所導(dǎo)致的數(shù)據(jù)缺失會(huì)嚴(yán)重影響后續(xù)對(duì)目標(biāo)體運(yùn)動(dòng)的分析。因此,需要降低這種丟數(shù)據(jù)的情況,也就是說(shuō)必須提高目標(biāo)識(shí)別的穩(wěn)定性。

        采用深度學(xué)習(xí)的方式,在訓(xùn)練過(guò)程中,本文使用生成的偽標(biāo)簽數(shù)據(jù)作為訓(xùn)練集,將之前有標(biāo)簽的數(shù)據(jù)集作為驗(yàn)證集,使用teacher model 的權(quán)重當(dāng)做預(yù)訓(xùn)練權(quán)重進(jìn)行遷移學(xué)習(xí),并對(duì)結(jié)果進(jìn)行fine?tune。改進(jìn)的YOLOv5算法的準(zhǔn)確率與回歸率的曲線圖如圖8、圖9所示。

        圖8 算法的準(zhǔn)確率

        圖9 算法的回歸率

        通過(guò)表1 中的對(duì)比數(shù)據(jù)可以清楚看出,通過(guò)對(duì)模型的更改,在替換了res2net 結(jié)構(gòu)之后,模型的準(zhǔn)確率與召回率有了一定的提升,并且GFlops從16.4下降到15.0,下降了1.4。在進(jìn)行剪枝操作后,最終map0.5的值可以達(dá)到0.9961,同時(shí)GFlops也下降到了12.3,整體效果較為理想。將圖7 和圖11 相比較,可看出改進(jìn)后的算法相對(duì)于傳統(tǒng)的識(shí)別方法更加穩(wěn)定,軌跡點(diǎn)丟失較少,基本可以穩(wěn)定追蹤目標(biāo)點(diǎn)。

        表1 改進(jìn)算法與原始算法對(duì)比

        為了再次測(cè)試算法改進(jìn)的準(zhǔn)確性,采取實(shí)驗(yàn)二將Marker點(diǎn)放置在復(fù)雜背景下進(jìn)行運(yùn)動(dòng)測(cè)試,得出的具體測(cè)試結(jié)果數(shù)據(jù)如表2 所示。可以看出通過(guò)對(duì)模型的更改,map0.5 的值達(dá)到了0.9548,同時(shí)精確度提升了0.1484。

        表2 改進(jìn)算法與原始算法對(duì)比

        綜上所述,可以說(shuō)明本文的改進(jìn)方法對(duì)針對(duì)于動(dòng)作捕捉系統(tǒng)中的圓形目標(biāo)識(shí)別有明顯的優(yōu)化效果。

        圖10 改進(jìn)后目標(biāo)物體識(shí)別分布圖

        6 結(jié)語(yǔ)

        本文為了解決動(dòng)作捕捉系統(tǒng)在復(fù)雜背景應(yīng)用時(shí)對(duì)圓形Marker 點(diǎn)識(shí)別穩(wěn)定性較差的問(wèn)題,基于YOLOv5 提出了一種改進(jìn)的Maker點(diǎn)識(shí)別方法。首先通過(guò)利用半監(jiān)督學(xué)習(xí)方法進(jìn)行快速標(biāo)記,之后在算法中選擇res2net 結(jié)構(gòu)和輕量化檢測(cè)頭進(jìn)行改進(jìn)。改進(jìn)后的YOLOv5 算法在所有的數(shù)據(jù)集上進(jìn)行訓(xùn)練測(cè)試對(duì)比原始的算法檢測(cè)精度有了顯著提高,且精度也較高,并在計(jì)算負(fù)載不增加的情況下,使模型更加輕量化,非常適合應(yīng)用在實(shí)踐當(dāng)中。不足之處是對(duì)于本次應(yīng)用的數(shù)據(jù)集,背景是靜態(tài)的,在后續(xù)工作中將在各種環(huán)境中,包括更復(fù)雜的動(dòng)態(tài)背景下,進(jìn)行Marker點(diǎn)的識(shí)別準(zhǔn)確率以及穩(wěn)定性的測(cè)試。

        猜你喜歡
        標(biāo)簽卷積特征
        基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
        如何表達(dá)“特征”
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        不忠誠(chéng)的四個(gè)特征
        無(wú)懼標(biāo)簽 Alfa Romeo Giulia 200HP
        車迷(2018年11期)2018-08-30 03:20:32
        不害怕撕掉標(biāo)簽的人,都活出了真正的漂亮
        海峽姐妹(2018年3期)2018-05-09 08:21:02
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        抓住特征巧觀察
        標(biāo)簽化傷害了誰(shuí)
        基于多進(jìn)制查詢樹的多標(biāo)簽識(shí)別方法
        日韩av免费一区二区| 国产成人精品亚洲午夜| 久久精品国产久精国产69| 亚洲av综合av国一区二区三区 | 蜜桃传媒一区二区亚洲av婷婷| 国产午夜精品一区二区| 正在播放一区| 插入中文字幕在线一区二区三区 | 国产精品一区二区熟女不卡| 比较有韵味的熟妇无码| 毛茸茸性xxxx毛茸茸毛茸茸| 日韩欧美精品有码在线观看| 91九色极品探花内射| 欧美成人精品a∨在线观看| 久久久久久久女国产乱让韩| 综合图区亚洲另类偷窥| 阴唇两边有点白是怎么回事| 免费看av在线网站网址| 亚洲日本三级| 久久久亚洲精品蜜臀av| 97人妻人人揉人人躁九色| 乌克兰粉嫩xxx极品hd| 在线视频中文字幕乱人伦| 国产亚洲一区二区精品| 人人做人人爽人人爱| 精品无码一区二区三区爱欲九九 | 日韩国产自拍视频在线观看| 久久精品国产99国产精品亚洲 | 无遮挡中文毛片免费观看| 少妇人妻av一区二区三区| 国产成人综合美国十次| 成人性生交大片免费看r| 五月激情狠狠开心五月| av网站在线观看大全| 久久亚洲国产成人精品性色| 思思99热| 国产在线视频网友自拍| 久久久久久九九99精品| 久久成年片色大黄全免费网站| 亚洲大片一区二区三区四区| 久久久久亚洲精品无码系列|