亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        立定跳遠(yuǎn)騰空展體特征提取算法的研究

        2023-12-25 03:25:04趙文志王智文郭鑫
        電腦知識與技術(shù) 2023年31期
        關(guān)鍵詞:立定跳遠(yuǎn)圖像分割特征提取

        趙文志 王智文 郭鑫

        摘要:為了解決立定跳遠(yuǎn)騰空展體運動缺乏客觀評價標(biāo)準(zhǔn),文章提出基于背景差分法與最小二乘法的算法對圖像中立定跳遠(yuǎn)騰空展體的姿態(tài)進(jìn)行特征的提取,用其表征立定跳遠(yuǎn)騰空展體的充分性。采用背景差分法對圖像中的立定跳遠(yuǎn)者進(jìn)行分割,用最小二乘法對分割出的人體部分的像素點進(jìn)行擬合二次曲線,再計算出這些像素點到曲線的距離,將這些距離進(jìn)行歸一化,然后求其方差,得到所要提取的特征。對立定跳遠(yuǎn)圖像序列中的每一張圖像進(jìn)行特征的提取并繪制特征值與圖像序列號的關(guān)系圖像,對比圖像序列中展體與未展體的圖像,其特征值差異較大,能準(zhǔn)確識別出充分展體的圖像。因此文章所設(shè)計的算法提取的特征能夠準(zhǔn)確地表征立定跳遠(yuǎn)騰空展體的充分性。

        關(guān)鍵詞:立定跳遠(yuǎn);騰空展體;圖像分割;背景差分法;特征提取

        中圖分類號:TP391? ? ? 文獻(xiàn)標(biāo)識碼:A

        文章編號:1009-3044(2023)31-0018-04

        開放科學(xué)(資源服務(wù))標(biāo)識碼(OSID) :<G:\飛翔打包文件一\電腦2023年第三十一期打包文件\9.01xs202331\Image\image79.jpeg>

        0 引言

        在國內(nèi)除了通過圖像處理的方式對立定跳遠(yuǎn)的成績進(jìn)行測量,在國內(nèi)幾乎沒有人通過圖像處理的方式對立定跳遠(yuǎn)各個環(huán)節(jié)的規(guī)范性進(jìn)行研究。而在國外都是較多地從生物動力學(xué)的角度深入地對立定跳遠(yuǎn)進(jìn)行研究。早在19世紀(jì)60年代,國外已經(jīng)開展了立定跳遠(yuǎn)的生物力學(xué)研究。隨著時間的推移,相關(guān)研究逐漸發(fā)展,包含影響因素、影響機(jī)制、計算方法等內(nèi)容,應(yīng)用的方法有實驗結(jié)果統(tǒng)計、逆動力學(xué)仿真、優(yōu)化控制模擬等[1]。

        騰空展體是立定跳遠(yuǎn)整個動作流程中一個非常重要的環(huán)節(jié),而我們對其只有感性的認(rèn)識,沒有前人對其進(jìn)行理性的分析及用數(shù)據(jù)表征其展體的充分與否。于是本文設(shè)計出基于背景差分法和最小二乘法實現(xiàn)的算法用于提取立定跳遠(yuǎn)騰空展體的特征,實現(xiàn)人們對立定跳遠(yuǎn)騰空展體從感性認(rèn)識到理性的認(rèn)識的跨越。其可應(yīng)用于騰空展體的異常識別,輔助立定跳遠(yuǎn)項目的教學(xué)。

        針對上述問題,本文提出了立定跳遠(yuǎn)騰空展體特征提取算法。通過對側(cè)面拍攝視角下立定跳遠(yuǎn)視頻的逐幀分析,發(fā)現(xiàn)在騰空展體時,人體的姿態(tài)呈反弓狀,髖部充分伸展,雙腿向后伸直。于是采用背景差分法分割出圖像中的人體,然后用最小二乘法對人體部分的像素點擬合曲線,最后通過計算得到這些像素點到曲線歸一化后距離的方差,從而得到立定跳遠(yuǎn)騰空展體的特征。

        1 圖像分割

        1.1 圖像分割算法

        算法的執(zhí)行框架主要是有采集背景圖像(包含背景圖像以及立定跳遠(yuǎn)圖像)、背景差分、閾值分割、形態(tài)學(xué)濾波這四個步驟[2],算法流程執(zhí)行框架圖如圖1所示。

        背景差分法主要用于運動目標(biāo)檢測,分為三個步驟:背景建模,前景檢測,背景更新。其在用于單幅靜態(tài)圖像分割時可做相應(yīng)的簡化[3]。由于立定跳遠(yuǎn)運動從預(yù)備起跳到落地,只有幾秒鐘的時間,時間的跨度小,背景在這一較短的時間段內(nèi),光線等其他因素不會發(fā)生具有較大差異的變化,可以認(rèn)為背景是靜態(tài)的,于是對于背景無須進(jìn)行實時的更新。因此本文的背景差分法背景建模簡單,只需拍攝一張沒有分割對象的背景圖像將其灰度化得到建模后的背景圖像Ib(x,y),如圖2(a) 所示。

        將含有分割對象的圖像灰度化得到Io(x,y)圖2(b) ,將Io(x,y)與Ib(x,y)相減得到差分圖像,用式(1) 來計算。

        [ΔI(x,y)=Io(x,y)-Ib(x,y)]? ? ? ? ? (1)

        圖像ΔI(x,y)如圖2(c) 示。

        得到差分圖像后需要對其進(jìn)行閾值分割,在進(jìn)行閾值分割時需要選取合適的閾值,選擇閾值T太小導(dǎo)致部分背景從圖像中分割出來,選擇閾值T太大會導(dǎo)致將分割對象分割為背景。因此選擇合適的閾值才能夠保證所要分割的對象從圖像中分割出來。閾值分割用式(2) 來計算。

        [IT(x,y)=255,ΔI(x,y)>T0,ΔI(x,y)≤T]? ? ? ? ? (2)

        盡管合適的分割閾值T能保證將研究對象從圖像中分割出來,但有時因為相機(jī)的抖動以及背景在一定時間段內(nèi)由于光線反射等因素發(fā)生變化仍不能防止噪聲的出現(xiàn)。如果不將這些噪聲濾除,將會對后續(xù)的特征提取造成影響,因此需要對閾值分割后的圖像用式(3) 來進(jìn)行進(jìn)一步的形態(tài)學(xué)開運算濾波[4- 6]。

        [I(x,y)=IT(x,y)°B]? ? ? ? ? (3)

        其中,B為結(jié)構(gòu)元素,其大小為5×5且里面的元素都為1,如圖3所示。

        1.2 分割結(jié)果分析

        如圖4展示了分割算法各步驟處理過后的圖像,圖4(a) 為原始的輸入圖像,圖4(b) 為輸入圖像經(jīng)過灰度化后與背景進(jìn)行做差取絕對值得到的差分圖像[7],圖4(c) 為差分圖像經(jīng)過閾值分割后得到的圖像,可以看到在圖4(c) 中含有一部分的噪聲,然后經(jīng)過形態(tài)學(xué)開運算濾波得到圖4(d) ??梢悦黠@地看到,經(jīng)過濾波后,得到了較為純粹的分割圖。

        2 騰空展體特征提取

        2.1 特征提取方法

        把采集到的立定跳遠(yuǎn)視頻分解為圖像序列,對比圖像序列中充分展體與未充分展體的圖像,結(jié)果在未充分展體的圖像中發(fā)現(xiàn):在騰空展體時運動員的胳膊總是與整個身體不在一條直線上,而且小腿也略有彎曲[8-9]。然而在充分展體的圖像中發(fā)現(xiàn):運動員的髖部充分伸展,雙腿向后伸直,身體呈反弓形。因此選擇對圖像中身體部分全部像素點進(jìn)行曲線擬合得出曲線方程y=ax2+bx+c,曲線上的點記為(xi,yi),用式(4) 來計算運動員身體上的像素點(Xi,Yi)到曲線的距離di。

        [di=min{(Xi-xj)2+(Yi-yj)2,j=0,1,2,...,m}] (4)

        為了保證檢測到的不同尺度的立定跳遠(yuǎn)者空中騰空展體的特征值都能在統(tǒng)一的標(biāo)準(zhǔn)下,將di進(jìn)行歸一化處理之后再進(jìn)行特征提取。用式(5) 和式(6) 來歸一化。

        [dimax=max{di,i=0,1,2...,n}]? ? ? ?(5)

        [dnom=didimax]? ? ? ? ?(6)

        再以這些歸一化之后的距離作為樣本,用式(7) 和式(8) 統(tǒng)計其均值[d]與方差S2,最后將S2值作為立定跳遠(yuǎn)騰空展體的特征。

        [d=1ni=1ndi]? ? ? ? ? (7)

        [S2=1ni=1n(dnomi-d)2]? ? ? ?(8)

        方差表征一組數(shù)據(jù)的離散程度,之所以將方差S2作為立定跳遠(yuǎn)騰空展體的特征,是因為在立定跳遠(yuǎn)時身體由蜷縮到展開的過程中,[dimax]是逐漸減小的,因此距離樣本的離散程度也會逐漸減小。身體完全展開時,距離樣本的離散程度也會相應(yīng)地達(dá)到最小值。

        2.2 最小二乘法擬合曲線

        曲線擬合的方法采用最小二乘法,在騰空展體時,身體的姿態(tài)最為接近二次曲線,因此數(shù)學(xué)模型建立為二次曲線,設(shè)曲線方程為y=ax2+bx+c, 然后根據(jù)最小二乘法偏差平方和最小原則,求取系數(shù)a、b、c[10]。其求取過程如下:

        第一步用式(9) 計算偏差平方和。

        [l2=i=1n[yi-(ax2i+bxi+c)]2]? ? ? (9)

        式(9) 兩邊分別對a、b、c的偏導(dǎo)數(shù)得到式(10)? 。

        [-2i=1n[yi-(ax2i+bxi+c)]2=0-2i=1n[yi-(ax2i+bxi+c)]2xi=0-2i=1n[yi-(ax2i+bxi+c)]2x2i=0]? ? ?(10)

        第二步等式化簡得到式(11)? 。

        [cn+bi=1nxi+ai=1nx2i=i=1nyici=1nxi+bi=1nx2i+ai=1nx3i=i=1nxiyici=1nx2i+bi=1nx3i+ai=1nx4i=i=1nx2iyi]? ?(11)

        第三步為方便計算機(jī)編程將線性方程組改為式(12) 的矩陣表示。

        [ni=1nxii=1nx2ii=1nxii=1nx2ii=1nx3ii=1nx2ii=1nx3ii=1nx4i?cba=i=1nyii=1nxiyii=1nx2iyi]? (12)

        第四步將式(12) 轉(zhuǎn)化為式(13) 的范德蒙矩陣。

        [11…1x1x2…xnx21x22…x2n?cba=y1y2…yn]? ? ? ?(13)

        第五步利用式(13) 可求得系數(shù)a、b、c。

        3 實驗結(jié)果分析

        把立定跳遠(yuǎn)圖像序列中的每一幅圖像進(jìn)行分割,然后根據(jù)前面2.2所述的方法對圖像中的人體進(jìn)行二次曲線擬合,擬合效果如圖5(a) 所示,所擬合曲線的方程為y=-0.00301x2+1.343x+152.7。按照式(7) 和式(8) 計算每一幅圖像的S2,圖像的序列數(shù)記為n。 S2與n的關(guān)系圖像分別如圖5(b) 所示。

        通過觀察S2與n的關(guān)系圖像發(fā)現(xiàn),圖像中存在一個最小值,圖5(b) 圖像中的最小值為0.0338。最小值點對應(yīng)的圖像序列數(shù)n所指向的圖像即為立定跳遠(yuǎn)過程中展體狀態(tài)最佳的圖像。在圖3中最低點所對應(yīng)的圖像序列數(shù)12,實驗所使用的圖像序列中的第12幀圖像如1.2中的圖4(a) 所示。

        在立定跳遠(yuǎn)時身體是由蜷縮到展開再到蜷縮的一個過程,圖5(b) 整體趨勢是先下降再上升,所以結(jié)果表明特征值的變化也與身體形態(tài)的變化是一致的。因此關(guān)系圖像最低點所對應(yīng)的圖像序列中的圖像也應(yīng)該是該序列中身體展開到最佳的狀態(tài)。觀察圖4(a) ,髖部充分伸展,雙腿向后伸直,身體呈反弓形。其姿態(tài)完全符合在立定跳遠(yuǎn)時展體的要求。因此算法所提取的特征能夠表征立定跳遠(yuǎn)騰空展體的充分性。

        曲線上存在一些波分與波谷,這是因為在跳遠(yuǎn)的過程中身體上的某些部位產(chǎn)生較大的偏移,比如說在準(zhǔn)備起跳階段,胳膊向前擺,導(dǎo)致相鄰兩幅圖像中身體的像素點的分布由較集中的狀態(tài)轉(zhuǎn)變?yōu)檩^分散的狀態(tài)。在展體完之后的過程中腿部又會由伸直的狀態(tài)轉(zhuǎn)變?yōu)閺澢臓顟B(tài),這也導(dǎo)致了身體上的像素點由較集中的狀態(tài)轉(zhuǎn)變?yōu)檩^分散的狀態(tài)[11]。這說明身體上像素點的集中狀態(tài)處在一個動態(tài)的變化之中。使得S2的值也處在了一個動態(tài)變化之中。因此在圖像中就表現(xiàn)出了波峰波谷。

        4 結(jié)束語

        本文以立定跳遠(yuǎn)運動圖像為研究對象,提出基于背景差分法與最小二乘法實現(xiàn)的立定跳遠(yuǎn)騰空展體特征提取算法。用該算法對一個立定跳遠(yuǎn)圖像序列中的各幅圖像進(jìn)行展體特征的提取,通過繪制圖像序列的特征值曲線,發(fā)現(xiàn)了最低點對應(yīng)圖像序列號所指向的圖像即為展體最充分的圖像。這表明以此算法提取的特征對立定跳遠(yuǎn)充分展體的圖像具有良好的識別效果。與此同時實現(xiàn)了對立定跳遠(yuǎn)騰空展體理性的分析和認(rèn)識,不再單一地從視覺的主觀感受上去分析立定跳遠(yuǎn)騰空展體的好壞。本文分割算法分割結(jié)果的好壞會直接影響特征提取的好壞,采用背景差分法分割背景顏色相同或相近的目標(biāo)時效果不好,不容易把前景分割出來。為了降低算法對背景條件的要求,在后續(xù)的工作會采取深度學(xué)習(xí)中的語義分割模型針對背景差分法存在的不足進(jìn)行算法的優(yōu)化[12-14]。

        參考文獻(xiàn):

        [1] 徐大員.地面角度對立定跳遠(yuǎn)起跳過程的影響[D].大連:大連理工大學(xué),2014.

        [2] RAMYA P,RAJESWARI R.A modified frame difference method using correlation coefficient for background subtraction[J].Procedia Computer Science,2016(93):478-485.

        [3] 賀振東,王耀南,劉潔,等.基于背景差分的高鐵鋼軌表面缺陷圖像分割[J].儀器儀表學(xué)報,2016,37(3):640-649.

        [4] DE NATALE F G B,BOATO G.Detecting morphological filtering of binary images[J].IEEE Transactions on Information Forensics and Security,2017,12(5):1207-1217.

        [5] MARAGOS P,SCHAFER R.Applications of morphological filtering to image analysis and processing[C]//ICASSP '86.IEEE International Conference on Acoustics,Speech,and Signal Processing.IEEE,2003:2067-2070.

        [6] 黃信新,齊德昱,王秀媛.實時圖像輪廓抽取算法研究[J].計算機(jī)應(yīng)用,2001,21(3):3.

        [7] 姚克明,郝大培,錢榮盛,等.一種素色布匹缺陷檢測和分類方法:中國專利,CN107220649A[P/OL].[2020-10-29].https://cprs.patentstar.com.cn/Search/Detail?ANE=4ACA9IBA9IFF9EFH9IBB9ICB9CGC9EDH9HAA9BGF9BFBBHGA.

        [8] CHEN C F,WU H J.The effect of an 8-week rope skipping intervention on standing long jump performance[J].International Journal of Environmental Research and Public Health,2022,19(14):8472.

        [9] SIMPSON T,CRONIN L,ELLISON P,et al.A test of optimal theory on young adolescents’ standing long jump performance and motivation[J].Human Movement Science,2020(72):102651.

        [10] 徐建東.基于最小二乘法擬合的Otsu快速圖像分割方法[J].常州大學(xué)學(xué)報(自然科學(xué)版),2021,33(1):70-76.

        [11] ASHBY B M,HEEGAARD J H.Role of arm motion in the standing long jump[J].Journal of Biomechanics,2002,35(12):1631-1637.

        [12] HESAMIAN M H,JIA W J,HE X J,et al.Deep learning techniques for medical image segmentation:achievements and challenges[J].Journal of Digital Imaging,2019,32(4):582-596.

        [13] GHOSH S,DAS N,DAS I,et al.Understanding deep learning techniques for image segmentation[J].ACM Computing Surveys,2020,52(4):1-35.

        [14] MINAEE S,BOYKOV Y,PORIKLI F,et al.Image segmentation using deep learning:a survey[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2022,44(7):3523-3542.

        【通聯(lián)編輯:謝媛媛】

        猜你喜歡
        立定跳遠(yuǎn)圖像分割特征提取
        基于Daubechies(dbN)的飛行器音頻特征提取
        電子制作(2018年19期)2018-11-14 02:37:08
        Bagging RCSP腦電特征提取算法
        一種改進(jìn)的分水嶺圖像分割算法研究
        科技視界(2016年26期)2016-12-17 16:25:03
        初中體育立定跳遠(yuǎn)教學(xué)與訓(xùn)練研究
        基于LabVIEW雛雞雌雄半自動鑒別系統(tǒng)
        一種圖像超像素的快速生成算法
        基于魯棒性的廣義FCM圖像分割算法
        淺談初中體育立定跳遠(yuǎn)關(guān)鍵動作的訓(xùn)練方法
        體育時空(2016年8期)2016-10-25 20:26:51
        論“摳細(xì)節(jié)”對立定跳遠(yuǎn)教學(xué)的促進(jìn)
        成才之路(2016年14期)2016-06-18 18:10:26
        提高初中生立定跳遠(yuǎn)成績的策略研究
        亚洲精品国产第一区二区| 国产91在线精品福利| 亚洲精品无码mv在线观看| 日韩精品一区二区亚洲av| 亚洲国产成人久久综合一区77| av天堂在线免费播放| 亚洲中文字幕人妻av在线| 人人爽久久涩噜噜噜av| 国产一区二区激情对白在线| 亚洲va欧美va人人爽夜夜嗨| 亚洲精品国产成人久久av盗摄| 蜜桃臀av一区二区三区| 精品国产天堂综合一区在线| 宅男666在线永久免费观看 | 富婆如狼似虎找黑人老外| 亚洲成AV人国产毛片| 人妻少妇粉嫩av专区一| 五月开心婷婷六月综合| 亚洲小说图区综合在线| 国产精品厕所| 久久免费网站91色网站| 精品三级国产一区二区三| 国产精品亚洲综合色区| 日本精品人妻无码77777| 成人无码网www在线观看| 亚洲精品国产综合久久| 国产三级av在线播放| 久久天天躁狠狠躁夜夜爽蜜月| 欧美性xxx久久| 日本本土精品午夜视频| 色偷偷av一区二区三区| 久久久久99精品成人片试看| 国产熟女乱综合一区二区三区| 国产性感午夜天堂av| 亚洲av无码精品无码麻豆| 大肉大捧一进一出好爽视频mba| 国产99re在线观看只有精品| 国产精品,在线点播影院| 亚洲乱码av一区二区蜜桃av| 精品国产yw在线观看| 野花在线无码视频在线播放 |