亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于視覺增強檢測的車間人員數(shù)字孿生模型快速構建方法

        2021-03-16 08:57:28劉庭煜孫毅鋒孫習武劉曉軍
        計算機集成制造系統(tǒng) 2021年2期
        關鍵詞:特征檢測

        劉庭煜,張 培,劉 洋,孫毅鋒,孫習武,劉曉軍

        (1.東南大學 機械工程學院,江蘇 南京 210096;2.南京理工大學 機械工程學院,江蘇 南京 210094;3.上海航天設備制造總廠有限公司,上海 200245)

        0 引言

        隨著時代的發(fā)展,以互聯(lián)網信息技術和工業(yè)生產不斷融合為代表的智能制造技術發(fā)展迅速。數(shù)字孿生作為將制造信息物理融合的關鍵“粘合劑”逐漸被人們重視,該技術使用數(shù)字化手段,將多維度、多尺度的虛擬化模型與現(xiàn)實物理世界深度融合,使二者相互映射、相互影響。目前,已有不少研究成果采用信息傳感器網絡,將產品設計、生產、制造等全生命周期中的多源數(shù)據融合,構建產品數(shù)字孿生模型[1],并應用到數(shù)字孿生車間[2-3]。

        車間人員數(shù)字孿生技術的研究可以從宏觀和微觀兩個層面展開:宏觀上,忽略人員的具體行為,將人看作運動的質點,主要關注其在車間內的位置、分布和活動軌跡等信息[4];微觀上,重點解讀人員的肢體動作等信息,針對具體工位的具體人員行為特征進行識別與分析[5]。從宏、微觀兩個角度構建生產車間數(shù)字孿生模型,可以實現(xiàn)車間內人員數(shù)量、行為的多維度虛實映射。

        車間是制造活動的執(zhí)行基礎,車間內的工人和制造資源是車間的基本組成單位,將人工智能技術有效地應用到制造車間,是“工業(yè)4.0”和“中國制造2025”等先進制造模式對智能生產和智能工廠的新要求。人作為車間管理五要素(人、機、料、法、環(huán))中的關鍵一環(huán),在車間生產過程中,人員活動具有主觀能動性和高度不確定性。因此,對車間人員的監(jiān)管一直是車間生產活動中較為困難的一環(huán)。在航天某些高危產品作業(yè)車間,出于安全考慮,往往對生產作業(yè)過程中的不同區(qū)域、不同作業(yè)環(huán)節(jié)、不同生產工序的人員數(shù)量和密度分布有著嚴格的要求,局部人員過密可能造成災難性的安全事故,嚴重威脅車間生產人員的人身安全。目前,主流的監(jiān)管方式是使用攝像機全時錄像并安排專員監(jiān)視,但是利用海量監(jiān)控圖像進行實時監(jiān)管容易讓監(jiān)控人員疲于應付,難以實現(xiàn)全局全時高效管控。因此,基于計算機視覺實現(xiàn)人員數(shù)量等宏觀行為的智能管控具有重要的實際意義,既可以保障安全生產,又可以提高生產效率。

        自2012年AlexNet[6]算法在ILSVRC(ImageNet large scale visual recognition challenge)競賽圖像分類子賽道中取得優(yōu)異的成績后,深度學習(deep learning)作為深層神經網絡的代名詞被大家所熟知。隨后幾年,國內外研究者相繼提出了如RCNN[7]、GoogLeNet[8]、ResNet[9]、YOLO[10-13](you only look once)、特征金字塔網絡(Feature Pyramid Networks,F(xiàn)PN)[14]等一系列優(yōu)秀的通用目標檢測框架。然而自2017年至今,卷積神經網絡(Convolutional Neural Networks,CNN)的發(fā)展速度逐漸減慢,之前的文獻大都提出一個又一個全新的主干網絡(backbone),其網絡結構變化多端,檢測效果提升顯著;近年來,研究者提出的基本都是一些“即插即用”的輕量級模塊化結構,如更新數(shù)據增強的方式、在網絡的某兩層之間加入一個小結構、更換一個全新的激活函數(shù)或損失函數(shù)、添加數(shù)據后處理等。

        2017年,Zhang等[15]提出創(chuàng)新性的數(shù)據增強方式,隨機抽取兩張圖片,修改其透明度并按比例疊加在一起,形成一張新的圖片,該圖片的分類結果也按相應比例進行分配。Devries等[16]在此基礎上提出Cutout方式,即用一個固定大小(8×8 pixel或16×16 pixel)的純色(默認黑色)正方形隨機覆蓋在圖片上,使CNN不僅限于局部特征,還會更多地用到整幅圖像的全局信息。2019年Yun等[17]提出的CutMix綜合了上述兩種方法各自的特點,將Cutout被黑色抹去的部分用另一個隨機選取圖片的像素塊進行填充,將所形成的新圖片的分類結果也按一定比例分配。CutMix使神經網絡能夠從一幅圖像的局部視圖上識別出兩個目標,因此定位和分類更加準確,訓練效率明顯提高。

        繼ResNet將殘差連接的概念引入CNN后,與之對應的稠密連接也被證明能夠提升網絡的表達性。2017年Huang等[18]提出的DenseNet借鑒了ResNet的short cut連接,不同的是ResNet只將前后兩層卷積層連接在一起,而DenseNet將所有卷積塊(block)都連在一起,每一個卷積塊的輸入都來自前面所有卷積塊的輸出。這樣做有以下優(yōu)點:①網絡更窄,參數(shù)更少,減少了計算量;②減緩梯度消失,有利于搭建更深的網絡結構;③有正則化效果,抑制過擬合。

        Momenta團隊[19]提出的SENet以大優(yōu)勢奪得了2017年最后一屆ILSVR競賽圖像分類子賽道的冠軍。SENet主要考慮了特征通道之間的關系,其可以在任意卷積位置加入,以此增加通道之間的信息交流,在基本不增加計算量的前提下提高了網絡的識別準確性。

        2019年提出的跨階段局部網絡CSPNet[20]在DenseNet的基礎上進行改進,其將特征圖在兩個方向進行分裂,即一個dense block和一個過渡層,然后由一個跨階段的層次結構將二者合并。通過這種切換、連接和轉換,被傳播的梯度信息產生了較大的差異,大大減少了計算量,提高了前向傳播的速度和準確性。

        鑒于此,針對車間內復雜場景下的目標檢測問題,本文提出一種自適應車間人員識別網絡(Adaptive Rec-network),并基于HITL對過時的權重進行更新,以增強車間人員的檢測效果,為構建車間數(shù)字孿生模型提供數(shù)據支持。

        1 車間人員自適應識別網絡

        本文在Yolov3經典結構的基礎上,結合車間實際使用提出一種Adaptive Rec-network,其核心結構如圖1所示。下面針對各模塊結構及其功能進行詳細闡釋。

        1.1 ResNet殘差網絡

        理論上隨著訓練輪數(shù)的增加,傳統(tǒng)神經網絡的錯誤率會逐漸降低,但實際情況是,到訓練后期,增多輪數(shù)反而會使錯誤率逐步增大,這便是“退化問題”,即深層網絡準確率不如稍淺層網絡的性能。ResNet很好地解決了這一問題,其創(chuàng)新性地提出了抄近道連接(short cut connection),是對當前殘差進行學習而不是對整個得分進行預測,如圖2所示。

        這種針對殘差進行學習的思想便是ResNet的精華。隨著網絡深度的增加,學習越來越難,學習效果開始出現(xiàn)波動。當本輪結果提升時,已有得分繼續(xù)提高;當本輪結果下降時,舍棄本輪結果,繼續(xù)執(zhí)行后續(xù)過程,即負結果全部舍棄,正結果全部保留。因此,ResNet很好地解決了隨著網絡深度的增加,越來越多負結果累加導致錯誤率上升的問題。

        通過引用這種結構,Adaptive Rec-network網絡的深度為118層。圖1上部虛線框的ResNet結構的具體參數(shù)如表1所示。

        表1 ResNet結構參數(shù)

        1.2 特征金字塔網絡

        FPN實現(xiàn)了不同特征層之間的信息交流,使原本僅能使用一次的特征得到充分利用,通過多次預測來增加樣本的精確率和召回率,使模型預測更加準確,其結構如圖3所示。

        從表 1第25行、21行和17行末尾可以看出,參與FPN的3個特征圖的大小分別是17×11,34×22,68×44,F(xiàn)PN的運行機制為:

        (1)直接對17×11的特征圖進行第1次預測,隨后進行上采樣,使用直接復制的方式進行填充,最終放大兩倍變?yōu)?4×22大小。

        (2)將其與第21行的34×22特征圖按位求和,得到新的34×22特征圖,用該特征圖進行第2次預測。

        (3)與第25行68×44的特征圖進行上述重復操作。

        由此,可以重復利用第17行和21行的特征圖進行3次預測,而且特征圖之間進行了直接的信息交流,提高了預測的準確性;另外,特征圖從下到上無卡頓、無等待直接生成,最后3次預測按照并行的方式生成檢測結果,這也提高了網絡的運行速度。

        1.3 SE強化重要特征

        FPN從卷積層和卷積層之間的信息交流為切入點,提高了識別準確度。本文引入SE(squeeze and excitation),表示壓縮和激發(fā)兩個過程,旨在通過卷積層內部不同核之間的信息交流進一步提升識別準確度,具體運行方式如圖4所示。

        圖4清楚地展現(xiàn)了SE模塊如何進行卷積內部信息交流:

        (1)針對大小為W×H×C的卷積U,將其沿厚度方向切分成{u1,u2,…,uc}共C片W×H的核。首先對各片核進行全局平均池化(Global Average Pooling,GAP)操作:

        (1)

        即將每片核的所有數(shù)字相加取平均,最后只得到一個數(shù)字(zc),該數(shù)字在某種程度上代表這一片卷積核的特點。式中用FGAP表示將uc轉換為zc的映射關系。

        (2)將(1)得到的{z1,z2,…,zc}共C個數(shù)字與全連接層相連進行信息交融,然后將結果進行ReLU線性激活:

        tc=δ(ω1·zc)。

        (2)

        式中δ表示線性激活函數(shù)。

        (3)上兩步由多轉為一的過程便是壓縮(squeeze)過程。此時,各通道間可以進行信息交流,下面需要將這種信息映射回去,對卷積的重要特征進行強化激發(fā)(excitation)。

        (4)進行(2)的逆過程,恢復為{s1,s2,…,sc},隨后將結果用Sigmoid非線性激活:

        sc=σ(ω2,δ(ω1·zc))=σ(ω2·tc)。

        (3)

        式中σ表示非線性激活函數(shù)。

        (5)將初始卷積的各核分別乘以與其對應的sc,得到大小為W×H×C的新卷積核V。

        vc=Fscale(uc,sc)=ucsc。

        (4)

        式中Fscale表示將uc,sc轉換為vc的映射關系,由此完成壓縮與激發(fā)。SE模塊的特點是即插即用,雖然中間引入全連接層進行信息交融,但是其先將每一片核的諸多數(shù)字壓縮到1位,再進行全連接運算,幾乎不產生額外的計算量,卻能夠強化卷積內部的重要特征,舍棄無用特征。

        1.4 RPN增強檢測框寬高比

        針對檢測框寬高比,可以直接采用1∶2.5的單一寬高比,然而這種固定寬高比的檢測框顯然不能完全覆蓋車間可能出現(xiàn)的所有情況,造成檢測準確率下降。為此,本文采用K-means++聚類的方法,通過統(tǒng)計分析得出適用于車間數(shù)據集的寬高比和適用于車間數(shù)據集的檢測框大小。

        K-means++聚類方法是經典K-means聚類的優(yōu)化版,其針對經典K-means因初始中心選擇的隨機性導致結果不穩(wěn)定的問題進行改進,一步步擇優(yōu)確定K個初始中心,使最初的K個初始中心相隔較遠,最終使聚類結果穩(wěn)定。K-means++聚類步驟如下:

        步驟1計算數(shù)據集中標簽的寬高比,比值存入csv。

        步驟2從csv中隨機選取一個樣本,作為初始的聚類中心C1。

        步驟4重復步驟3,直到選出所有K個聚類中心。

        步驟5針對csv中每個樣本xi,計算其到當前已有K個聚類中心的距離,并將其分配到與之最近的聚類中心所屬的類。

        步驟7重復步驟5~步驟6,直到所有K個聚類中心的坐標不再變化。

        為了選定最優(yōu)的K值,本文進行了12次實驗,分別令K=1~12,將K-means++統(tǒng)計出的比值映射回數(shù)據集,并進行Avg IOU計算,結果如表2所示。

        表2 選擇最合適的K值

        圖5中橫坐標表示K的不同選值,縱坐標表示與K值相對應的Avg IOU??梢钥吹?,隨著K值變大,曲線變得逐漸平滑,表示神經網絡檢測效果的提升越來越不明顯,K值增大也意味著神經網絡的計算量線性倍增。綜合考慮Avg IOU與計算量,最終選取曲線變平滑的第一個K值,即K=3,寬高比比值如表2第3行所示。

        1.5 錨點框加速搜索

        對于檢測圖片來說,傳統(tǒng)的選擇性搜索(selective search)會采用先驗檢測框在圖片上滑動并裁剪,每張圖片都重復該過程。其實只要圖片大小和滑動步長相同,兩次滑窗劃過的位置和裁剪的區(qū)域完全一樣,就沒有必要每次都進行計算。錨點框(anchor box)從這一點出發(fā),在第一次滑動時就將被裁剪的坐標統(tǒng)一存入一個矩陣中,然后對每張輸入圖片按照矩陣中的坐標直接一次性獲取全部裁剪區(qū)域。

        經過1.4節(jié)已選取出{2∶1,1∶1,1∶2.5}3個寬高比的檢測框,下面需要進一步選擇框的大小,使預測框面積盡量和車間數(shù)據集吻合,以提升檢測準確率。將數(shù)據集中上述3種比值的檢測框分別進行匯總計數(shù),圖6所示的柱狀圖是寬高比為2∶1檢測框的數(shù)量統(tǒng)計情況,圖中橫坐標為框的寬度(單位:pixel),縱坐標為相同寬度檢測框的數(shù)量和。

        由圖6可見,寬高比為2∶1的檢測框在3處柱狀位置(49~65,105~125,217~233)達到數(shù)量的眾值。圖中剩余兩條折線是按照相同方式分別對寬高比1∶1,1∶2.5的檢測框數(shù)量進行統(tǒng)計得到的,為便于區(qū)分直接用折線圖描述。同樣,二者也分別在3個寬度范圍內出現(xiàn)數(shù)量的眾值,下面求解具體錨點框尺寸。

        圖7將圖6中3條曲線的x坐標分別按照0.5,1,2.5的斜率統(tǒng)一放置在相同坐標系下。為了使預測框面積盡量吻合車間數(shù)據集,本文采用3條x·y=S的雙曲線與3種比值的檢測框數(shù)量的峰值區(qū)間擬合,發(fā)現(xiàn)x·y=1 600,x·y=6 400,x·y=25 600可以很好地代表車間數(shù)據集檢測框的面積,分別求解3條雙曲線與3條直線的交點,結果如表3所示。

        由此求解出錨點框的具體數(shù)值。錨點框在1 088×704圖片中的真實大小如圖8所示,從圖中可以看出,經過統(tǒng)計分析求解出的錨點框坐標可以很好地對車間數(shù)據集中的工人進行包圍。

        1.6 人在回路增加網絡的自適應性

        人在回路(Human in the Loop, HITL)的原本意義是:武器操作員在經過第一次指令輸入后,仍有機會進行第二次或不間斷的指令更正。本文對其引申表述為:具備管理員權限的操作人員在發(fā)現(xiàn)權重檢測效果下降后,可以人為干預網絡識別結果,修正后的結果將被視為新的正、負樣本存入服務器,等待在非工作時段網絡自動開啟自我修正程序,達到自動適應車間變化的異步更新效果。作為一個獨立的輔助模塊,HITL存在與否不影響識別網絡的正常工作,只會在必要(管理員干預)的時候于非工作時段訓練識別網絡。HITL的工作機制如圖9所示。

        表3 選擇最合適的K值

        為減輕管理員的工作量,神經網絡在工作時段檢測目標的同時也會自動且不斷地分析其檢測結果。以30幀圖片為周期,幀序列不斷到來,神經網絡不斷檢測,并將檢測框標注在圖片中。Δ=4 pixel是人為設置的超級參數(shù),由于攝像頭固定不動,且人員基本不會保持完全靜止,如果某檢測框的上中心點坐標在一段時間內保在半徑為4 pix的圓內波動,則將被計數(shù),一輪周期結束后,如果某坐標點的出現(xiàn)率達到(包含)60%,則該檢測框極有可能是非人的誤檢對象,本輪結果將存入數(shù)據庫等待管理員定奪。

        HITL的工作界面如圖10所示,主要由圖像、復選框、畫布和提交按鈕組成。HITL程序首先會讀取圖片,并將該圖片的包圍框、上中心點、方框編號相應地標注在圖片上。管理員需判斷圖片中所有檢測框的正負性,如果有正樣本(人員)遺漏,則勾選“添加正樣本”按鈕,然后直接在畫布內框選出所有人員。點擊提交按鈕后,程序自動將該圖片、正負樣本坐標、手動新增的正樣本坐標一并存入數(shù)據庫,同時向計算機寫入指令,就近選擇非工作時段自動執(zhí)行權重更新任務。

        當?shù)綑嘀馗掠媱澋念A設時間點時,訓練開始,每100輪保存一次新權重。結束訓練的條件有3點,滿足任意一點即停止訓練:①損失函數(shù)下降到預設閾值(本文選擇0.25),表示訓練完成;②損失函數(shù)出現(xiàn)震蕩,表示訓練進入瓶頸,無需繼續(xù)訓練;③距離員工上班時間不到40 min,為保證工作時段檢測網絡正常運行,應立即停止。

        訓練結束后,執(zhí)行收尾工作,即刪除訓練中間過程文件、釋放資源、將新權重移至工作目錄并重命名、將舊權重回收至指定目錄下等。等到工作時間點,檢測程序被自動喚醒,新權重上線工作。

        2 實驗驗證

        已有的三階段級聯(lián)卷積神經網絡(3-Stage Cascade Convolutional Neural Networks,3-Stage CCNN)[4]在車間數(shù)據集上的檢測速度為8幀/s,準確率達到79.08%。為了驗證Adaptive Rec-network網絡的效果,本文與3-Stage CCNN一樣,同時在Caltech Pedestrian[21]和本課題組車間生產人員數(shù)據集[4]上設計實驗對效果進行驗證。

        2.1 驗證集對比分析

        Caltech Pedestrian是目前最大的行人檢測數(shù)據集,其由11個文件組成,圖片分辨率為640×480,視頻幀率為30 fps,持續(xù)時長10 h,攝像頭固定在一輛行駛中的轎車上,沿途經過各種街道、鬧市區(qū)、行人密集的場合等。該數(shù)據集最后公開了約250 000幀、2 300位不同行人、350 000個標注框的數(shù)據集。

        火工品生產車間是Adaptive Rec-network的應用場景,采用車間內高度約8m、俯仰角一致的19個攝像頭同步采集車間視頻數(shù)據,預處理后的圖像分辨率為1 088×704,通過人工標注的方式建立車間數(shù)據集。圖片總數(shù)為13 420張,包括30 000多個標注框,數(shù)據集圖片包括不同程度的遮擋和光照變化。

        在使用這兩個數(shù)據集分別對神經網絡進行訓練時,數(shù)據集按照訓練集∶測試集∶驗證集=8∶1∶1的比例進行劃分,數(shù)據集對比如表4所示。

        表4 Caltech數(shù)據集和車間數(shù)據集對比

        下面采用消融實驗,從網絡準確率和檢測速率兩方面對比Adaptive Rec-network網絡和3-Stage CCNN網絡的性能,并分析出現(xiàn)該結果可能的原因。

        2.2 消融實驗驗證自適應網絡的性能

        2.2.1 FPN金字塔層數(shù)設置

        如表1和圖3所示,本文分別將網絡17×11,34×22大小的特征圖上采樣,共進行3次并行預測。為了驗證FPN不同層數(shù)對網絡檢測效果的影響,本文設計了FPN層數(shù)的消融實驗,分別將層數(shù)設置為0,1,2,3層(即網絡并行預測1,2,3,4次),如圖11所示。其實驗結果如表5所示。

        表5 FPN金字塔層數(shù)消融實驗結果

        分析結果,得出如下結論:

        (1)隨著FPN層數(shù)的增加,檢測準確率逐漸上升,上升逐漸變緩;檢測速度逐漸下降,下降逐漸變快。

        (2)因為Caltech數(shù)據集的目標框普遍偏小,大尺度特征圖一般負責小目標檢測,所以FPN層數(shù)越多,大尺度信息利用得越多,在Caltech數(shù)據集上的表現(xiàn)越好,準確率越高;而車間數(shù)據集目標框普遍略大于Caltech數(shù)據集,小尺度特征圖負責大目標檢測,因此0層FPN結構在車間數(shù)據集上的準確率大于Caltech數(shù)據集。隨著層數(shù)的增多,對車間內小目標的檢測準確率逐漸上升,整體準確性呈上升趨勢。

        (3)如前所述,由于Caltech圖片較小,其計算量少,運行速度快,然而隨著FPN層數(shù)的增多,運算量增加,檢測速率降低;車間數(shù)據集圖片的大小約為Caltech的3倍,其計算量大,速率普遍低于前者,隨著FPN層數(shù)的增多,其檢測速率也逐漸下降。

        綜合考慮準確性和檢測速度,本文選擇2層FPN特征融合的方案,其具體結構及連接方式已在1.2節(jié)敘述。同時,注意到3-Stage CCNN在兩個數(shù)據集上的準確率和檢測速度均劣于Adaptive Rec-network網絡,下面從網絡結構的角度解釋該結果。

        3-Stage CCNN的作用機制如圖12所示,其為一種串行運行結構,網絡深度為34層;整體采用3個階段級聯(lián)的方式運行,即前一階段的輸出為后一階段的輸入,將第3階段的輸出作為最后的結果;檢測框采用1∶2.5的固定寬高比,比例單一。而Adaptive Rec-network引入了ResNet結構,網絡深度增加到118層;FPN使3次檢測能夠并行執(zhí)行,特征之間融合能夠提取更多有效的信息;SE則增加了卷積層內部的信息交流;多尺度的錨點框能夠更好地覆蓋車間人員的比例。這些結構上的升級疊加在一起,最終不論在準確率還是檢測速度上,Adaptive Rec-network均優(yōu)于3-Stage CCNN。

        2.2.2 SE模塊效果驗證

        SE模塊作為即插即用的模塊存在于復合卷積單元中,為驗證其對準確率和檢測速率的影響(如圖13),本文將初始復合卷積單元記作origin,將去除SE模塊剩下的復合卷積單元記作beta,分別將上述兩個單元替換進入主體網絡部分,以此測試SE模塊對網絡準確率和運行速度的影響。實驗結果如表6所示。

        表6 SE模塊對網絡準確率和運行速度的影響

        分析表6可知:

        (1)在兩個數(shù)據集上,origin單元比beta單元的準確率高出約1.2%,檢測速度平均慢約0.8幀/s,即提高準確率的同時,速度幾乎不受影響。

        (2)模型尺寸上,origin單元比beta單元大約16 MB。

        2.2.3 人在回路適應性研究

        為檢測基于HITL的Adaptive Rec-network網絡對車間變化的自適應性,筆者從2019年3月起開始進行對比試驗,分別于6,9,12月和2020年7,10月(2020年1~6月受疫情影響未能實驗)共進行了5次適應性實驗,即更新過5次權重。

        (1)月評測數(shù)據集 為了評估網絡準確率,在上述時間內將所有攝像頭按工作時間每小時保留一張車間實時圖片,這些數(shù)據以月為單位進行匯總,并人為標注檢測框,作為月評測數(shù)據集。19個攝像頭的每日工作時間按8∶00~18∶00算,一天190張圖片,每月約5 700張圖片,此即為月評測數(shù)據集的樣本容量。

        (2)評測方式 為了對比執(zhí)行HITL前后的檢測效果,自2019年6月第一次更新權重起,每次評估都將現(xiàn)有的所有權重分別在該月的評測數(shù)據集上進行測試,以此對比新老權重對車間現(xiàn)狀的平均檢測準確率(mAP)。Month-mAP曲線如圖14所示。

        (1)左數(shù)第一個柱狀表示2019年4月中旬,產品訂單發(fā)生改變,車間布局、背景等發(fā)生較大變化。

        (2)左數(shù)第二個柱狀表示北方天氣變冷較早,從9月起,車間員工衣著開始出現(xiàn)變化,由原來的夏常服逐漸變?yōu)槎7?/p>

        (3)左數(shù)第三個柱狀表示2020年上半年,受疫情影響,工廠停工。

        下面對曲線進行分析:

        (1)圖中的最下方折線是最初運行的權重,隨著時間的推移,其整體走勢呈下降趨勢,且上述3次改變對其均造成較大影響,準確率下降較快。

        (2)在圖中左數(shù)第二個柱狀位置,員工工作服出現(xiàn)更替,因為在原本的訓練樣本中并沒有該類衣著數(shù)據,所以對網絡檢測效果產生沖擊,圖中位于該區(qū)間內的3條曲線均有較大下降;然而隨著時間推移到2020年,同樣是9~10月,由于此前已經經過4次HITL的干預,權重已經適應了這種衣著的改變,此時衣著更替并未對網絡效果造成沖擊,曲線正常波動。

        (3)圖中黑色箭頭所指的位置為HITL進行干預之處。權重更新完成后立即上線,檢測效率跳躍式回升到與之前相似的水平;觀察5次HITL的初始準確率,大體趨勢是沿著圖中黑色虛線逐次升高,且每條曲線的下降趨勢逐漸變小,原因是樣本不斷增多,原本無用的特征被舍棄,重要特征的占比逐漸增加,網絡能夠更好地適應車間檢測的要求。

        由此得出結論:HITL可以通過打補丁的方式提升檢測效果,以此補救因訓練樣本片面、樣本量少、環(huán)境變化劇烈而造成的權重過時問題。

        3 結束語

        本文針對車間人員增強檢測的數(shù)字孿生模型快速構建問題,從宏觀層面出發(fā),重點提出車間人員自適應識別網絡Adaptive Rec-network,為獲取人員位置進而構建宏觀層面的數(shù)字孿生模型提供數(shù)據支持,而且設計了實驗,將Adaptive Rec-network與已有3-Stage CCNN網絡進行了對比,結果表明,Adaptive Rec-network不論在準確率上還是速度上均優(yōu)于3-Stage CCNN。然而,該網絡仍然留有改進和提升的空間,今后的研究將把重心放在以下幾個方面:①改進網絡模型,提升檢測效率;②進一步探究網絡如何自適應不同光照,不同背景下的檢測工作,提高神經網絡的魯棒性,使得檢測過程更加智能化。

        猜你喜歡
        特征檢測
        抓住特征巧觀察
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        “幾何圖形”檢測題
        “角”檢測題
        新型冠狀病毒及其流行病學特征認識
        如何表達“特征”
        不忠誠的四個特征
        當代陜西(2019年10期)2019-06-03 10:12:04
        抓住特征巧觀察
        97超碰国产成人在线| 女人的天堂av免费看| 亚洲免费成年女性毛视频| 麻豆精品一区二区三区| 亚洲熟妇丰满多毛xxxx| 日本无遮挡吸乳呻吟视频| 蜜桃一区二区三区在线看| 国产亚洲精品免费专线视频| 亚洲av丰满熟妇在线播放| 天天做天天爱天天爽综合网| 国产美女69视频免费观看| 青青草视频在线免费观看91| 国产自拍视频免费在线| 奇米影视777撸吧| 日本中文字幕不卡在线一区二区| 亚洲一区二区女优视频| 音影先锋中文字幕在线| 中文字幕久久精品一二三区| 无码人妻系列不卡免费视频| 亚洲精品在线一区二区三区| 免费a级毛片18禁网站| 久久av高潮av无码av喷吹| 中文字幕人成人乱码亚洲 | 区一区二区三免费观看视频| 久久久国产乱子伦精品| 少妇被粗大的猛进69视频| 国产精品天干天干在线观蜜臀| 中文字幕一区二区三区日日骚 | 精品久久久久中文字幕APP| 美女性色av一区二区三区| 深夜放纵内射少妇| 老司机在线精品视频网站| 2017天天爽夜夜爽精品视频| 无人视频在线播放免费| 青青青爽在线视频观看| 国产精品无需播放器| 久久99精品免费国产| 西川结衣中文字幕在线| 国产男女猛烈视频在线观看| 国产精品无码久久久久久久久作品| 亚洲综合在不卡在线国产另类|