亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于壓力感知的坐臥姿勢(shì)識(shí)別方法研究*

        2023-02-02 05:07:16趙海文王佳闊齊德瑄郭士杰
        傳感器與微系統(tǒng) 2023年1期
        關(guān)鍵詞:睡姿姿勢(shì)柔性

        趙海文, 王佳闊, 齊德瑄, 郭士杰

        (1.河北工業(yè)大學(xué) 機(jī)械工程學(xué)院,天津 300401; 2.河北省機(jī)器人感知與人機(jī)融合重點(diǎn)實(shí)驗(yàn)室,天津 300401)

        0 引 言

        通常,患者在床上停留的時(shí)間會(huì)較久,患者在床上的坐臥姿勢(shì)會(huì)影響其健康狀況。睡姿是臥姿的主要組成部分,是睡眠質(zhì)量監(jiān)測(cè)的重要指標(biāo)之一,在睡眠階段可通過睡姿診斷睡眠呼吸暫停綜合征(sleep apnea syndrome,SAS)以及心血管疾病等癥狀,對(duì)于醫(yī)療診斷十分關(guān)鍵。在智能無人護(hù)理系統(tǒng)中,利用睡姿和坐姿信息,對(duì)患者的健康監(jiān)測(cè)顯得尤為重要。

        傳統(tǒng)的睡姿識(shí)別系統(tǒng)如,葉蔭球等人[1]提出的通過計(jì)算機(jī)視覺,采用目標(biāo)分割和神經(jīng)網(wǎng)絡(luò)結(jié)合的算法進(jìn)行人體睡姿識(shí)別,該系統(tǒng)受光線影響會(huì)降低識(shí)別準(zhǔn)確率,且使用視頻也會(huì)帶來隱私問題;楊明健等人[2]提出了一種基于OpenPose的姿態(tài)估計(jì)算法,通過對(duì)人體各個(gè)關(guān)節(jié)點(diǎn)的定位來判斷人體姿態(tài),但對(duì)環(huán)境的要求較高。近年來,無束縛睡姿識(shí)別逐漸成為該領(lǐng)域的主要研究方向[3]。張藝超等人[4]提出一種使用多壓電薄膜傳感器采集人體局部細(xì)微震動(dòng)信號(hào)的睡姿識(shí)別方法,該方法識(shí)別精度受信號(hào)去噪效果的影響大,魯棒性差;耿讀艷等人[5]設(shè)計(jì)一種多壓電薄膜傳感器的床墊,制作工藝繁瑣,成本高;任志斌等人[6]使用壓力傳感器,定義睡姿圖像特征,采用粗糙模糊集算法對(duì)圖像特征屬性高效約簡,實(shí)現(xiàn)睡姿類別合理分類,但識(shí)別準(zhǔn)確率有待提高。

        高精度的無束縛識(shí)別是目前姿勢(shì)識(shí)別領(lǐng)域里的主要挑戰(zhàn)。本文利用自主研發(fā)的床單式柔性壓力傳感器設(shè)計(jì)了姿勢(shì)數(shù)據(jù)采集系統(tǒng),根據(jù)英國咨詢服務(wù)和睡眠評(píng)估機(jī)構(gòu)主任克里斯·依季科夫斯基教授的分析結(jié)論,采集了6種睡姿的靜態(tài)數(shù)據(jù),分別為仰臥型、俯臥型、左側(cè)胎兒型、左側(cè)樹干型、右側(cè)胎兒型和右側(cè)樹干型;采集了4種坐姿的靜態(tài)數(shù)據(jù),分別為直腿坐于床上、盤腿坐于床上、雙腿坐于床邊、單腿坐于床邊。將這10種姿勢(shì)分別定義為姿勢(shì)1~姿勢(shì)10,使用了基于卷積神經(jīng)網(wǎng)絡(luò)YOLOv5作為姿勢(shì)識(shí)別方法,并用訓(xùn)練完成的網(wǎng)絡(luò)模型驗(yàn)證了該方法識(shí)別的準(zhǔn)確率。

        1 柔性壓力傳感器與姿勢(shì)數(shù)據(jù)采集系統(tǒng)

        1.1 柔性壓力傳感器

        本文的人體姿勢(shì)壓力分布數(shù)據(jù)均利用大面積床單式柔性壓力傳感器采集獲得,其結(jié)構(gòu)原理如圖1所示。傳感器采用陣列式布局,上下電極層分別有64條和32條平行電極,在空間上相互垂直均布,中間為離子凝膠電解質(zhì)介電層,整個(gè)傳感器形成“夾心”結(jié)構(gòu)。兩個(gè)電極層上的平行電極在相互交錯(cuò)處,形成了一個(gè)電容傳感單元。整個(gè)傳感器分布著64×32共2 048個(gè)電容傳感單元。在壓力作用下,電極層與離子凝膠介電層接觸面積發(fā)生改變,相應(yīng)區(qū)域傳感單元的電容值會(huì)隨之變化,通過檢測(cè)電容值可獲取該區(qū)域的壓力數(shù)據(jù)。

        圖1 柔性壓力傳感器結(jié)構(gòu)

        通過測(cè)試,本文所用的傳感器電容靈敏度約135.9(nF/cm2)/kPa,可感知的壓強(qiáng)范圍為0~50 kPa,兩者關(guān)系于文獻(xiàn)[7]中給出。

        1.2 姿勢(shì)數(shù)據(jù)采集系統(tǒng)

        本文根據(jù)床單式柔性壓力傳感器的結(jié)構(gòu),自主研發(fā)了姿勢(shì)數(shù)據(jù)的采集系統(tǒng)。采集系統(tǒng)由數(shù)據(jù)采集卡、床單式柔性壓力傳感器以及上位機(jī)組成。數(shù)據(jù)采集卡由分壓電路、放大濾波、數(shù)據(jù)處理以及串口通信4個(gè)部分組成。傳感器的檢測(cè)區(qū)域大小為1 900 mm×950 mm,可獲取通常人的坐臥姿勢(shì)數(shù)據(jù)。實(shí)驗(yàn)時(shí),將傳感器置于床褥上,采集卡通過USB連接上位機(jī),受試人員躺在床上,便可實(shí)現(xiàn)無干擾、無束縛的人體姿勢(shì)數(shù)據(jù)采集。圖2所示為姿勢(shì)數(shù)據(jù)采集系統(tǒng)。

        圖2 姿勢(shì)數(shù)據(jù)采集系統(tǒng)

        系統(tǒng)工作過程如下:接入傳感器后,傳感器單元與采樣電容形成分壓電路,將傳感器單元的電容值變化轉(zhuǎn)換為對(duì)應(yīng)的電壓變化;在采集端將采集到的電壓信號(hào)進(jìn)行放大濾波處理;通過ARM架構(gòu)MCU自帶的8位A/D模塊將傳感器輸出的電壓轉(zhuǎn)換為數(shù)字量,進(jìn)行軟件濾波處理并排序;最后通過串行通信按幀(傳感器有64行、32列,共2 048個(gè)電容單元,所有電容單元輸出值按順序排列為1幀數(shù)據(jù))將數(shù)據(jù)傳輸?shù)缴衔粰C(jī)進(jìn)行儲(chǔ)存、處理與展示。

        上位機(jī)將每幀數(shù)據(jù)按順序排列,使傳感器的電容傳感單元與其壓力值坐標(biāo)對(duì)應(yīng),保證圖像顯示時(shí)人體姿勢(shì)的方向和位置與實(shí)際相同,并在圖3(a)采集系統(tǒng)界面中同步顯現(xiàn)出完整的睡姿圖像,為加強(qiáng)系統(tǒng)界面直觀性,系統(tǒng)顯示圖像為RGB圖像。同時(shí),將傳感器的數(shù)據(jù)轉(zhuǎn)換為64×32的矩陣形式。圖3(b)為10種姿勢(shì)的上位機(jī)顯示圖像。

        圖3 上位機(jī)界面

        2 姿勢(shì)圖像預(yù)處理

        2.1 數(shù)據(jù)集制作

        本文實(shí)驗(yàn)遵守倫理原則和《赫爾辛基宣言》,受試者均無身體缺陷,在仔細(xì)閱讀了解本實(shí)驗(yàn)流程和目的后自愿簽署知情同意書,在測(cè)試人員的指引下完成數(shù)據(jù)采集。數(shù)據(jù)采集于30名受試人員,年齡21~40歲,身高155~194 cm,體重45~100 kg(男性25名,女性5名),身體質(zhì)量指數(shù)(body mass index,BMI)為(25.1±7.7)kg/m2。共計(jì)采集“臥”和“坐”10種姿勢(shì),9 000組數(shù)據(jù),其中,臥姿5 400組,坐姿3 600組。圖4為姿勢(shì)1~姿勢(shì)10的采集示例。

        圖4 姿勢(shì)數(shù)據(jù)采集示例

        2.2 數(shù)據(jù)預(yù)處理

        在圖像識(shí)別領(lǐng)域中,圖像質(zhì)量會(huì)影響圖像識(shí)別的準(zhǔn)確率。由于采集到的壓力數(shù)據(jù)為64×32的矩陣數(shù)據(jù),將其轉(zhuǎn)換成灰度圖后,在對(duì)靜態(tài)的壓力圖像進(jìn)行姿勢(shì)分類時(shí),圖像因噪聲和濾波處理導(dǎo)致身體軀干與上肢連接處的不穩(wěn)定性和孤立點(diǎn)都會(huì)導(dǎo)致識(shí)別姿勢(shì)特征的準(zhǔn)確率變低。因此,在對(duì)圖像進(jìn)行標(biāo)注前,需對(duì)姿勢(shì)灰度圖進(jìn)行預(yù)處理以提高識(shí)別準(zhǔn)確率,同時(shí),圖像標(biāo)準(zhǔn)化可降低圖像分類的難度。本文采用了雙線性插值處理,使輪廓邊緣自然過渡。對(duì)雙線性插值處理后的圖像進(jìn)行歸一化,消除受試人員體重差異對(duì)壓力圖像造成的影響,加快神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)收斂。圖5為姿勢(shì)3、姿勢(shì)5、姿勢(shì)7和姿勢(shì)8圖像預(yù)處理的效果對(duì)比。

        圖5 姿勢(shì)圖像預(yù)處理

        預(yù)處理完成后,使用LabelImg標(biāo)注軟件對(duì)數(shù)據(jù)集手動(dòng)框選圖片中的人體姿勢(shì)得到VOC格式文件后,需要將其轉(zhuǎn)化為YOLO格式標(biāo)記文件,具體公式如下所示

        x=(xmin+xmax)/dw

        (1)

        y=(ymin+ymax)/dh

        (2)

        w=(xmax-xmin)/dw

        (3)

        z=(ymax-ymin)/dh

        (4)

        式中xmin,ymin,xmax,ymax為VOC格式文件中所標(biāo)記物體位置的對(duì)角線坐標(biāo),分別表示左上角坐標(biāo)以及右下角坐標(biāo)的值。dw和dh為圖片的寬和高。將已框選好的新數(shù)據(jù)集按類型以8︰2隨機(jī)劃分為訓(xùn)練集和測(cè)試集,為接下來的神經(jīng)網(wǎng)絡(luò)訓(xùn)練作準(zhǔn)備。

        3 實(shí)驗(yàn)過程與結(jié)果

        3.1 算法簡介

        YOLO系列算法是一種基于整個(gè)圖片進(jìn)行預(yù)測(cè),所有的檢測(cè)結(jié)果一次性給出的目標(biāo)檢測(cè)算法。新的YOLOv5算法[8,9]已是高性能的實(shí)現(xiàn)目標(biāo)檢測(cè)的模型之一,基于準(zhǔn)確率和計(jì)算速率的綜合考量[10],本文選取YOLOv5s網(wǎng)絡(luò)模型。

        3.2 模型訓(xùn)練

        實(shí)驗(yàn)使用的計(jì)算機(jī)硬件設(shè)備為:Intel?CoreTMi5—8400 CPU,NVIDIA GeForce GTX 1060 GPU,12GB內(nèi)存。在Windows 10系統(tǒng)上使用PyTorch框架搭建深度學(xué)習(xí)框架。在訓(xùn)練過程中,網(wǎng)絡(luò)模型訓(xùn)練參數(shù)設(shè)置為:批大小(batch size)設(shè)為4,總訓(xùn)練輪次(epoch)為200。

        3.3 實(shí)驗(yàn)結(jié)果

        YOLOv5模型訓(xùn)練完成后,其結(jié)果如圖6所示。

        圖6 YOLOv5訓(xùn)練結(jié)果

        本文選用平均精度均值(mean average precision,mAP)、精度(precision,P)、召回率(recall,R)作為模型的評(píng)估標(biāo)準(zhǔn),來衡量算法檢測(cè)精度。其計(jì)算公式中,TP表示姿勢(shì)被網(wǎng)絡(luò)正確識(shí)別的數(shù)量,FP表示姿勢(shì)被網(wǎng)絡(luò)錯(cuò)誤識(shí)別的數(shù)量,F(xiàn)N表示姿勢(shì)沒有被網(wǎng)絡(luò)識(shí)別出的數(shù)量。

        精度P公式如下所示

        P=TP/(TP+FP)×100%

        (5)

        召回率R公式如下所示

        R=TP/(TP+FN)×100%

        (6)

        平均精度AP(average precision)公式如下所示

        (7)

        mAP公式如下所示

        (8)

        如圖7所示為實(shí)驗(yàn)結(jié)果mAP圖。

        圖7 YOLOv5模型mAP圖

        在訓(xùn)練完成后,在測(cè)試集上得到性能指標(biāo)P為 99.2%,R為98.7 %,mAP為99 %。

        姿勢(shì)識(shí)別效果如圖8所示。

        圖8 姿勢(shì)識(shí)別效果示例

        將本文實(shí)驗(yàn)結(jié)果與近年來國內(nèi)外學(xué)者提出的幾種方法結(jié)果進(jìn)行比較,如表1所示,文獻(xiàn)[11]和文獻(xiàn)[12]的姿勢(shì)分類準(zhǔn)確率較高,但識(shí)別的姿勢(shì)類型較少,多姿勢(shì)識(shí)別的可靠性有待進(jìn)一步驗(yàn)證。文獻(xiàn)[12]準(zhǔn)確率高達(dá)99.7 %,但需要在患者軀干和四肢綁縛加速度傳感器,患者會(huì)感到不適。文獻(xiàn)[13]的稀疏分類算法用32個(gè)特征對(duì)6種睡姿姿勢(shì)來進(jìn)行分類,但準(zhǔn)確率僅有83.2 %。文獻(xiàn)[14]使用了遺傳算法優(yōu)化支持向量機(jī)(support vector machine,SVM)關(guān)鍵參數(shù)的姿勢(shì)識(shí)別方法,準(zhǔn)確率為93.3 %。與上述算法相比,本文算法在多姿勢(shì)識(shí)別情況下準(zhǔn)確率可達(dá)到99.2 %,在識(shí)別姿勢(shì)數(shù)量和準(zhǔn)確率上具有優(yōu)勢(shì)。

        表1 各算法對(duì)比

        因此,在與其他算法進(jìn)行比較后得出結(jié)論,使用YOLOv5算法對(duì)坐臥姿勢(shì)可進(jìn)行可靠識(shí)別。

        4 結(jié)束語

        為使醫(yī)護(hù)人員能及時(shí)掌握患者在病床上的姿勢(shì),利用睡姿和坐姿信息對(duì)患者健康進(jìn)行監(jiān)測(cè),設(shè)計(jì)了一種基于床單式柔性壓力傳感器的姿勢(shì)數(shù)據(jù)采集系統(tǒng),實(shí)現(xiàn)了對(duì)人體姿勢(shì)進(jìn)行無干擾、無束縛的采集與識(shí)別。采集了10種姿勢(shì)數(shù)據(jù),使用基于卷積神經(jīng)網(wǎng)絡(luò)的YOLOv5算法來對(duì)人體姿勢(shì)進(jìn)行識(shí)別。實(shí)驗(yàn)結(jié)果表明:該方法人體識(shí)別準(zhǔn)確率達(dá)到了99.2 %,實(shí)現(xiàn)了人體坐臥姿勢(shì)的精準(zhǔn)識(shí)別,為智能無人護(hù)理系統(tǒng)中實(shí)現(xiàn)姿勢(shì)動(dòng)態(tài)識(shí)別奠定了基礎(chǔ)。

        猜你喜歡
        睡姿姿勢(shì)柔性
        一種柔性拋光打磨頭設(shè)計(jì)
        灌注式半柔性路面研究進(jìn)展(1)——半柔性混合料組成設(shè)計(jì)
        石油瀝青(2021年5期)2021-12-02 03:21:18
        高校學(xué)生管理工作中柔性管理模式應(yīng)用探索
        倒掛在樹上,我的主要姿勢(shì)
        文苑(2020年5期)2020-06-16 03:18:10
        看書的姿勢(shì)
        解鎖咳嗽的正確姿勢(shì)
        從睡姿看性格
        糊涂覺和奇怪的睡姿
        糊涂覺和奇怪的睡姿
        發(fā)言要注意姿勢(shì)
        少妇高潮惨叫久久久久久电影 | 人妻被黑人粗大的猛烈进出| 五月中文字幕| 国产成人丝袜在线无码| 亚洲精品中文字幕一二| 成人免费播放视频777777| 日韩国产成人无码av毛片蜜柚| 亚洲肥老熟妇四十五十路在线| 无码a级毛片免费视频内谢| 视频在线亚洲视频在线| 欧美熟妇另类久久久久久多毛| 无码av天堂一区二区三区| 久久精品国产亚洲av瑜伽| 嗯啊 不要 啊啊在线日韩a| 亚洲一区二区三区色偷偷| 99riav国产精品视频| 亚洲精品午睡沙发系列| 国产成人77亚洲精品www| 久久麻豆精亚洲av品国产蜜臀| 亚洲中文av中文字幕艳妇| 成人av鲁丝片一区二区免费| 在线播放国产一区二区三区| 九九精品国产99精品| 国产女人精品一区二区三区| 日本丰满老妇bbw| 国产av无码专区亚洲av极速版| 精品中文字幕制服中文| 亚洲国产中文字幕九色| 精品国产成人av久久| 2021国产精品国产精华| 手机在线精品视频| 色偷偷亚洲女人的天堂| 日韩精品在线免费视频| 欧美黑人xxxx又粗又长| 久久精品无码一区二区乱片子| 黄片午夜免费观看视频国产| 亚洲一区二区三区中文字幕网| 国产亚洲日韩在线一区二区三区| 提供最新的在線欧美综合一区| 日本高清视频在线一区二区三区| 99久久99久久久精品蜜桃|