亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種姿態(tài)識別增強的VR眼鏡信息顯示方法

        2021-11-10 05:27:28王曉東夏靖波吳耀翔
        電子設計工程 2021年21期
        關鍵詞:設備信息

        王曉東,夏靖波,吳耀翔

        (廈門大學嘉庚學院信息科學與技術學院,福建漳州363105)

        可穿戴設備直接佩戴在人身上或被整合進衣物、配件[1],用于記錄、監(jiān)測人體數據[2-3],也可用于增強人體功能或保護[4]。這種智能設備與人體結合緊密,并且在人體的佩戴位置相對固定,非常適合用于穿戴者的姿態(tài)識別[5-6]。研究表明,在工作環(huán)境下人作業(yè)時能發(fā)揮的操縱力大小,取決于人的作業(yè)姿勢、用力部位、力的作用方向和方式等,只有保持正確的作業(yè)姿勢才能有較高的工作效率[7]。可以推知,可穿戴設備識別的姿態(tài),與穿戴者正在從事的活動、場景具有密切相關性。在工業(yè)生產現場,場景信息的獲取具有重要價值,將有利于實現智能化的數據信息選擇、推送及其他應用。

        尤其是,當前可穿戴的VR 眼鏡設備,在工業(yè)制造領域開始得到推廣應用和普及[8]?;赩R 眼鏡與現實圖像進行畫面疊加和輔助數據顯示,已在汽車維修、航空機務、復雜制造、3D 現場打印等領域嶄露頭角,其優(yōu)勢在于:解放了員工雙手的同時,更高效地使用了互聯(lián)網和數據資源;克服產業(yè)工人個體的遺忘曲線,增強了操作的精準性;實現了管理細節(jié)和大數據采集,保障高危環(huán)境下人身安全等。

        為了進一步提高VR 眼鏡數據顯示的智能化,文中提出結合室內定位技術識別操作人姿態(tài),進而實施佩戴者工服識別并獲取工種場景,然后實現了一種姿態(tài)識別增強的VR 眼鏡信息顯示方法。

        1 方法原理

        1.1 基于室內定位技術的姿態(tài)識別

        人體姿態(tài)識別的傳統(tǒng)方法可以分為兩種,即基于計算機視覺方法和加速度傳感器方法,前者發(fā)展成熟、精度高,但隱私保護不好,后者數據處理復雜、精度差,但是對個人隱私保護好。也有學者提出[9],利用可穿戴設備結合室內定位技術,在保護用戶隱私的同時識別精度提高了40%,證明了可穿戴設備姿態(tài)識別的可行性。文獻[10]提出,基于室內定位技術(如超寬帶、UWB 定位),在人體安裝14 個參考點并計算相對位置的方法實現姿態(tài)計算,將14 個參考點兩兩連接構成91 條矢量,排除其中無意義的,只保留10 條(頭-頸、頸-胸、右肩-右肘、右肘-右手、左肩-左肘,左肘-左手等)矢量,它們之間形成的夾角可用來較為精確地估算人體姿態(tài)。

        基于這種設計,文中主要觀察獲取VR 眼鏡佩戴者的低頭傾角(與垂直方向的夾角β),因此只設定頭部和頸部兩個參考點(并假設不考慮下肢的動作),則簡化得出圖1所示的角度測算結構。方法通過室內定位,對點A(xA,yA,zA)(即佩戴者頭部)、B(xB,yB,zB)(即佩戴者頸部)坐標進行測算,再計算AB連線與垂線夾角β,可知佩戴者低頭傾角,并有:

        圖1 可穿戴設備姿態(tài)示意圖

        定位可以采用TDOA 機制[11-12]。設置M+1 個觀測站,其中有一個主站S0,M個副站Si,其坐標為(xi,yi,zi),i=0,1,…,M。設電磁輻射由目標到達各站的時間為ti,各個副站到達時間與主站到達時間的時間差記為τi,將到達時間差乘光速C,可以得到各個副站到總站的距離差,即Δri=Cτi。

        定位A、B點坐標的計算,分別求解下面方程組解,即可獲得:

        其中za=[x,y,z]T,li=(d2i-d20-Δri2)/2,di=對上述方程進行簡化表示,即為:Gza=h。

        TDOA 可以采用加權最小二乘(WLS)算法、泰勒級數法或Chan 算法求解。采用WLS 算法,令殘差ξ=h-Gza,設權矩陣為W(選取原則視實際具體情況而定),求取za的估計使得殘差的加權值最小,即:

        令(h-Gza)TW(h-Gza)=f(za),對其求za偏導,并令結果等于0,即:

        由此可以得到za=(GTWG)-1GTWh,即為目標位置估計值。

        當信噪比比較高時,TDOA 的測量誤差服從高斯分布,則Chan 算法更加適合[13]。Chan 算法使用兩步最大似然估計來計算目標位置,其優(yōu)點就是計算量小。

        1.2 姿態(tài)支持的圖像理解

        在獲知姿態(tài)后,可以增強對圖像的理解。

        該方法實現姿態(tài)圖像理解支持主要是根據視距與圖像的相關性和先驗知識,利用攝像頭焦距及目標距離,基于先驗知識,就可以推知識別目標在圖像中所處的區(qū)域。

        目標距離計算公式如下:

        其中,f表示焦距,v表示像距,u表示物距,利用式(4)可以計算像的位置。h′表示像的高度,h表示物的高度,m為放大倍數,利用式(5)可以計算像的大小和面積。

        根據VR 眼鏡攝像頭的鏡片焦距,在進行場景識別過程中,對采集圖像進行分割,結合姿態(tài)定位已知區(qū)域,并對其實施識別,分辨場景信息。

        2 基于工服色彩的場景識別實現

        工服是工業(yè)環(huán)境中的必要裝備,具有保護和標識作用[14],其顏色與工種是相關的,也在一定程度上反映了場景信息。下面結合上節(jié)內容介紹基于工服色彩的VR 眼鏡場景識別,利用對VR 眼鏡佩戴航空機務保障人員工服的顏色識別實現相關數據的推送。該文利用這種相關性,實現對應工種信息的推送。

        2.1 VR眼鏡選取

        眼鏡選取瓏璟VR 眼鏡(Lochn@)。該眼鏡基于LCE1801H 光導模組,支持使用MIPI 接口和RGB 接口,分辨率為800×480,模組上位機核心芯片RK3399可以使用雙MIPI 接口、雙ISP,單通道最大支持1 300萬像素。眼鏡可以與Android 移動終端互聯(lián),實現直接通信,且分辨率較高,顯示效果好。

        瓏璟VR 眼鏡實物如圖2所示,該眼鏡與定位器綁定。

        圖2 VR眼鏡實物圖

        2.2 工服圖像分割

        VR 眼鏡佩戴者的視覺關系如圖3所示,其中左圖為平視狀態(tài);右圖為俯視或低頭狀態(tài),扇形面積為VR 眼鏡的視角,θ為VR 眼鏡的視角角度;左圖狀態(tài)視角的中心線與水平線重合,在右圖佩戴者低頭狀態(tài)下,視角中心線與水平線形成夾角,夾角為β。

        圖3 VR眼鏡佩戴者的視覺關系

        則在右圖俯視情況下,眼鏡佩戴者的工服會出現在陰影區(qū)域中(該區(qū)域是視角落在佩戴者身體的部分),則可計算在整個成像中工服出現的圖像比例,該比例記為μ,其計算公式如式(6):

        依據μ,通過式(4)、(5)獲得圖高h,可以將預判的工服圖像按照μ·h的長度分割出來。進一步對獲得的工服圖像進行色彩分析,并將比重最多的顏色作為工服顏色,查表獲得該工服工種對應的數據(依據航空機務保障工服顏色與數據設置定義如表1)。

        表1 工服顏色與數據設置定義表

        2.3 定位系統(tǒng)設計

        姿態(tài)識別室內定位中,UWB 基站使用ST 公司的32 位控制器STM32F103C8T6 作為主控,decaWave 公司的DWM1001 模塊作為UWB 收發(fā)器(收發(fā)器如圖4所示)。

        圖4 UWB收發(fā)器

        該文采用6 個基站,實驗的場景如圖5所示,為一個大約7 m×5 m 的室內環(huán)境,室內的四周為墻體,并在其中圈定出一個直徑為1 m 的圓形區(qū)域進行定位實驗,設定基站A1坐標(0,0,1.3),A2坐標(0,0,1.7),B1坐標為(2,0,1.3),B2坐標為(2,0,1.7),C1坐標為(0,2,1.3),C2坐標為(0,2,1.7),單位為m。

        圖5 實驗場景

        為了提高測試精度,采用基于誤差修正UWB 測距模型和分段參數的BLE 測距模型的融合定位,克服了UWB 精度不足的問題[15]。經測試,改進后的定位方法平均定位誤差可達6.8 cm,基本滿足了該文姿態(tài)識別的應用要求。經過BLE 改進前后單一測試點定位坐標三維散點圖,如圖6所示。

        圖6 定位坐標散點圖

        2.4 系統(tǒng)流程框架

        系統(tǒng)方案流程如圖7所示。

        圖7 應用系統(tǒng)方案流程

        1)場景分析觸發(fā)與綁定。為了啟動識別,采用二維碼標定設備機體。當佩戴者啟動VR 眼鏡開始現場工作后,該眼鏡立即進入“待工”狀態(tài);通過凝視機體(粘貼有二維碼),VR 眼鏡識別出該二維碼,完成“待工”到“工作”狀態(tài)的切換。

        2)姿態(tài)識別探測,獲取包含工服圖像。佩戴者使用眼鏡時,系統(tǒng)持續(xù)測量眼鏡的視覺角度,當低頭角度達到閾值,立即采集此時的一張圖像。

        3)工服圖像獲取。根據VR 眼鏡攝像頭視角,地面高度為視距(1.2~1.8 m),按照2.2 節(jié)方法分割獲得工服圖像,繼而進行圖像色彩分析,得到比重最多的顏色,即為工服色。

        4)數據匹配。預先建立工服顏色與工種數據信息對應關系的數據庫。根據3),采用明氏距離計算RGB 顏色相似度,據此在數據庫中查詢得到與工服最匹配數據。

        5)數據推送呈現。將上述得到的機務工種數據信息,呈現在眼鏡上。

        以紫色工服為例,對模擬發(fā)電機設備進行測試,效果如圖8所示,正確識別工種類型并實現了數據推送顯示。通過綜合測試發(fā)現,該方法切實可行,可以實現不同工服顏色識別和數據推送。但是,由于受定位精度的影響,佩戴/動作習慣不規(guī)范,以及下肢運動的影響未考慮等因素,識別準確性、穩(wěn)定性上還存在一定偏差(識別準確率在42%~65%之間)。未來可以通過增加參考點來識別更復雜的姿態(tài),并采用精度更高的定位算法和設備提升方法效果。

        圖8 工服識別信息推送軟件界面效果圖

        3 結 論

        文中利用可穿戴設備與人體之間的密切關系,基于室內定位技術獲得佩戴者的姿態(tài),進而輔助場景識別,用以增強信息顯示。隨著可穿戴設備的不斷普及,智能化程度越來越高,可以利用的信息也必將更加豐富(如:體征、體態(tài)、情感、習慣等),充分將這些信息與設備、場景相融合,可以進一步提高可穿戴設備的智能化,并改善用戶使用體驗,甚至在工業(yè)流程優(yōu)化中發(fā)揮更重要的作用[16]。

        猜你喜歡
        設備信息
        諧響應分析在設備減振中的應用
        基于VB6.0+Access2010開發(fā)的設備管理信息系統(tǒng)
        基于MPU6050簡單控制設備
        電子制作(2018年11期)2018-08-04 03:26:08
        訂閱信息
        中華手工(2017年2期)2017-06-06 23:00:31
        500kV輸變電設備運行維護探討
        如何在設備采購中節(jié)省成本
        展會信息
        中外會展(2014年4期)2014-11-27 07:46:46
        原來他們都是可穿戴設備
        消費者報道(2014年7期)2014-07-31 11:23:57
        信息
        健康信息
        祝您健康(1987年3期)1987-12-30 09:52:32
        国产免费又色又爽粗视频| 亚洲a∨好看av高清在线观看| 日本一区二区精品色超碰| 国产黑色丝袜在线看片| 老太脱裤子让老头玩xxxxx | 人妻少妇69久久中文字幕| 人与动牲交av免费| 国产不卡一区二区三区免费视| 亚洲AⅤ乱码一区二区三区| 国产69精品麻豆久久| 精品国产精品国产偷麻豆| 亚洲av无码成人黄网站在线观看 | 午夜精品一区二区三区的区别| 国产人成无码视频在线| 国产av在线观看91| 精品香蕉99久久久久网站| 欧美日韩亚洲国产精品| 无码一区二区三区网站| 五月婷婷开心五月播五月| 国产亚洲精品a片久久久| 亚洲免费观看在线视频| 国产一级r片内射免费视频| 亚洲第一区二区精品三区在线| 精品国产三级a∨在线| 91spa国产无码| 人妻在线中文字幕视频| 性色视频加勒比在线观看| 欧美aaaaaa级午夜福利视频| 中文字幕精品久久天堂一区| 亚洲一区免费视频看看| 亚洲无线一二三四区手机| 日韩一线无码av毛片免费| 精品少妇后入一区二区三区| 在线播放av不卡国产日韩| 亚洲色欲综合一区二区三区| 国产久视频| 少妇被爽到高潮喷水免费福利| 天天爽夜夜爱| 精品视频在线观看免费无码| 日韩av天堂综合网久久| 国产成人无码综合亚洲日韩|