摘要:為了便于施工危險(xiǎn)區(qū)域人員的自動(dòng)化識(shí)別,提出了一種基于Raspberry Pi的安全帽識(shí)別算法。該算法將攝像頭采集到的原始視頻圖像進(jìn)行濾波、形態(tài)學(xué)等處理,再對(duì)圖像中的安全帽進(jìn)行識(shí)別。對(duì)于彩色安全帽,將原始圖像轉(zhuǎn)換到HSV空間,根據(jù)不同顏色色調(diào)閾值的設(shè)定同時(shí)識(shí)別紅、黃、藍(lán)三種顏色的安全帽,并結(jié)合形狀特征剔除錯(cuò)誤目標(biāo)。對(duì)于白色安全帽,將原始圖像轉(zhuǎn)化成B通道下的灰度圖像,解決了將黃色誤檢為白色的問題。采用V通道直方圖均衡化的方法,提升了昏暗光線條件下的圖像亮度。實(shí)驗(yàn)結(jié)果表明:在無需提前訓(xùn)練的情況下,算法對(duì)于單色安全帽識(shí)別準(zhǔn)確率超過了91%,對(duì)于多色安全帽識(shí)別率超過了90%,為施工危險(xiǎn)區(qū)域的安全隱患排查和作業(yè)管控提供了解決方案。
關(guān)鍵詞:Raspberry Pi;顏色識(shí)別;HSV空間;直方圖均衡化;安全帽
中圖分類號(hào): TP277文獻(xiàn)標(biāo)識(shí)碼: ADOI:10.3969/j.issn.1007-791X.2024.03.0050引言
安全生產(chǎn)以保護(hù)勞動(dòng)者生命安全和職業(yè)健康為核心要求,是一項(xiàng)長(zhǎng)期基本國(guó)策和行業(yè)基本準(zhǔn)則[1],在工程施工領(lǐng)域更是一條需要牢牢守住的底線,其中施工危險(xiǎn)區(qū)域的安全尤為重要。傳統(tǒng)方法中,施工危險(xiǎn)區(qū)域采取圍欄、蓋板等措施或設(shè)置醒目的安全標(biāo)志牌禁止或限制人員的進(jìn)入,但由于一些人員安全意識(shí)薄弱、麻痹大意,也會(huì)造成一定的事故風(fēng)險(xiǎn)。因此,有必要設(shè)計(jì)一套人員自動(dòng)識(shí)別系統(tǒng),能夠?qū)崟r(shí)監(jiān)控施工危險(xiǎn)區(qū)域,當(dāng)人員靠近時(shí)主動(dòng)發(fā)出警報(bào),提醒或驅(qū)離人員,從而避免安全事故的發(fā)生。
對(duì)于所有進(jìn)入施工危險(xiǎn)區(qū)域的人員,安全帽的佩戴是硬性要求,因此安全帽可作為人員識(shí)別的重要標(biāo)志物?,F(xiàn)有的安全帽自動(dòng)識(shí)別系統(tǒng)主要分為以下3類:第一類是以基于傳感器的空間定位技術(shù)為原理,普遍應(yīng)用于智慧工地的安全帽佩戴檢測(cè)系統(tǒng)。吳先俊等人[2]以空間定位技術(shù)為基礎(chǔ),利用智能安全帽系統(tǒng)平臺(tái)將危險(xiǎn)區(qū)域的警報(bào)信息推送給加裝了語音播報(bào)功能的安全帽,對(duì)即將進(jìn)入危險(xiǎn)作業(yè)區(qū)域的人員進(jìn)行了有效預(yù)警。第二類方法是采用“特征+分類器”的機(jī)器學(xué)習(xí)算法對(duì)視頻監(jiān)控中預(yù)警區(qū)域的圖像進(jìn)行處理。李曉宇等人[3]提出了一種基于超像素特征提取與SVM分類相結(jié)合的機(jī)器學(xué)習(xí)算法,用于煤礦環(huán)境下安全帽與背景分割,分割結(jié)果的精確率和召回率均超過了95%。劉曉慧等人[4]將Hu矩作為圖像特征向量,比較了BP神經(jīng)網(wǎng)絡(luò)和SVM兩種方法對(duì)安全帽的分類識(shí)別,得出SVM在時(shí)間和識(shí)別率方面優(yōu)勢(shì)明顯的結(jié)論。第三類則是應(yīng)用深度學(xué)習(xí)算法[5]對(duì)視頻圖像進(jìn)行處理。龐殊楊等人[6]利用深度學(xué)習(xí)算法中改進(jìn)的MTCNN算法,明顯提高了重疊安全帽和部分遮擋安全帽的檢測(cè)率和檢測(cè)速度,但在光線過強(qiáng)或發(fā)生反光時(shí)存在漏檢和誤檢現(xiàn)象。農(nóng)元君等人[7]提出一種適用于嵌入式平臺(tái)的輕量化安全帽實(shí)時(shí)檢測(cè)方法。該方法改進(jìn)了Tiny-YOLOv3算法,顯著提高了識(shí)別準(zhǔn)確率和召回率,雖然滿足了實(shí)時(shí)檢測(cè)的需求,但仍需對(duì)模型進(jìn)行訓(xùn)練和測(cè)試。
基于以上因素,本文以Raspberry Pi為平臺(tái)對(duì)進(jìn)入施工危險(xiǎn)區(qū)域人員的安全帽進(jìn)行識(shí)別,該系統(tǒng)無需對(duì)數(shù)據(jù)進(jìn)行提前訓(xùn)練,對(duì)硬件的配置要求較低,成本較小,適合多點(diǎn)布置。既能滿足實(shí)時(shí)性要求又能精確識(shí)別目標(biāo),為施工危險(xiǎn)區(qū)域的安全隱患排查和施工作業(yè)管控提供了解決方案。
1系統(tǒng)設(shè)計(jì)及實(shí)現(xiàn)
系統(tǒng)采用Raspberry Pi 4B作為控制板,內(nèi)存4G;外設(shè)部分選擇Camera Module V2攝像頭作為圖像采集設(shè)備,通過CSI接口與Raspberry Pi連接;系統(tǒng)裝置兩個(gè)舵機(jī),分別控制攝像頭水平及豎直方向的轉(zhuǎn)動(dòng),從而調(diào)整監(jiān)控范圍;蜂鳴器和LED燈作為輸出設(shè)備,用于發(fā)出報(bào)警信號(hào);系統(tǒng)還外接了鍵盤、鼠標(biāo)和顯示屏,用于程序的編寫以及對(duì)目標(biāo)區(qū)域的監(jiān)控。除此之外,軟件部分安裝了官方系統(tǒng)Raspbian,同時(shí)安裝了OpenCV視覺庫,通過Python語言進(jìn)行編程,來實(shí)現(xiàn)對(duì)人員佩戴安全帽的識(shí)別,如圖1所示。
2安全帽特征提取及識(shí)別
2.1彩色特征提取
與形狀、文本相比,人眼對(duì)顏色的感知范圍更大,感知速度也更快,顏色識(shí)別作為一種有效手段在機(jī)器視覺領(lǐng)域的應(yīng)用也較為廣泛[8-10]。對(duì)于顏色的識(shí)別,首先要將目標(biāo)圖像轉(zhuǎn)化到更接近人眼感知的HSV顏色空間[11]上,所謂HSV顏色空間,即由色調(diào)(Hue)、飽和度(Saturation)、亮度(Value)三個(gè)維度構(gòu)成的顏色空間模型,由A. R. Smith在1978年提出,又稱六角錐體模型,如圖2所示。
其中H表示不同的光譜顏色,取值范圍0°~360°;S表示顏色接近光譜色的程度,取值范圍0~1;V表示顏色的明亮程度,取值范圍0~1。若要將HSV的值存儲(chǔ)在8位內(nèi)存空間中[12],OpenCV對(duì)其進(jìn)行了如下變換:
得到每個(gè)像素點(diǎn)的HSV取值范圍為H∈[0,180],S∈[0,255],V∈[0,255]。在程序中通過設(shè)定相應(yīng)的閾值范圍就能定義要識(shí)別的安全帽顏色。通常安全帽的顏色為紅、黃、藍(lán)、白,以此四種顏色作為識(shí)別的目標(biāo)顏色。由于安全帽顏色為國(guó)標(biāo)規(guī)定的標(biāo)準(zhǔn)色,因此色調(diào)差別不大,每種彩色安全帽選擇了3頂進(jìn)行測(cè)定,在不同環(huán)境及光照條件下,得到各種顏色安全帽的H閾值范圍如表1所示。
標(biāo)準(zhǔn)的紅、黃、藍(lán)三種顏色根據(jù)式(1)轉(zhuǎn)化后的色調(diào)值應(yīng)為0/180、30、120,其中紅色和藍(lán)色均在實(shí)驗(yàn)測(cè)定閾值范圍內(nèi),黃色安全帽色調(diào)非HSV空間標(biāo)準(zhǔn)的黃色,與標(biāo)準(zhǔn)色偏離2.8%~5%,稍偏橘黃色。由于白色的H值位于六棱錐底面的中心處,且在整個(gè)區(qū)間均有分布,因此不能將H值作為識(shí)別白色的參數(shù)。
2.2白色特征提取
對(duì)于白色的提取,應(yīng)將原圖像轉(zhuǎn)換到灰度GRAY通道中,利用Otsu閾值化方法[13]進(jìn)行處理。以一張大小為M×N的圖像為例,圖像中灰度值小于T的像素個(gè)數(shù)為N0,灰度值大于T的像素個(gè)數(shù)為N1,ω0和ω1分別為前景和背景在圖像中所占比例,則有
設(shè)前景和背景的平均灰度分別為μ0和μ1,圖像總平均灰度為μ,類間方差為g,則有
μ=ω0μ0+ω1μ1 ,(3)
g=ω0(μ0-μ)2+ω1(μ1-μ)2,(4)
將式(3)代入式(4)得
g=ω0ω1(μ0-μ1)2,(5)
遍歷所有可能的分割閾值,使式(5)值最大時(shí)的閾值則為Otsu法的目標(biāo)閾值。
2.3形狀特征提取
由于安全帽的形狀大致可分為圓形和橢圓形兩種,為了具有廣泛的代表性,被測(cè)樣本采用了圓形的彩色安全帽和橢圓形的白色安全帽進(jìn)行識(shí)別。首先在二值圖像中提取輪廓,為了避免對(duì)過大、過小的非目標(biāo)輪廓的誤檢,應(yīng)設(shè)定一定的輪廓范圍。
2.3.1橢圓的識(shí)別
對(duì)于橢圓的識(shí)別,利用最小二乘法[14]將輪廓中的點(diǎn)以橢圓方程為模型進(jìn)行擬合,橢圓方程的一般表達(dá)式為
aX2+bXY+cY2+dX+eY+f=0,(6)
其中,b2-4aclt;0,式(6)可以理解為點(diǎn)(x,y)到給定圓錐曲線的代數(shù)距離,將輪廓中的所有點(diǎn)帶入式(6)左側(cè)求代數(shù)距離的最小值,得
令式(7)各階偏導(dǎo)數(shù)為零,即可求出a~f各參數(shù)值,此時(shí)的橢圓方程即為目標(biāo)橢圓。
2.3.2圓形的識(shí)別
對(duì)于圓形的識(shí)別,則是求輪廓的最小包圍圓。即遍歷所有的輪廓點(diǎn),找出位于上、下、左、右的邊緣點(diǎn),記為A、B、C、D,求出包圍此四點(diǎn)的最小圓C1,判斷剩余的點(diǎn)是否超出C1,若不超出則C1為所求。若超出則將距離C1圓心的最遠(yuǎn)點(diǎn)記為E,求出包圍A、B、C、D、E五個(gè)點(diǎn)的最小圓C2,如此迭代,可找到目標(biāo)包圍圓。如圖3所示。與此同時(shí),為了排除其它形狀的干擾,定義圓度參數(shù)
其中,S為輪廓的面積,L為輪廓的周長(zhǎng)且L≠0。設(shè)置圓度K為特定值時(shí),找到的最小包圍圓為最終目標(biāo)。
2.4安全帽識(shí)別
首先讀取攝像頭采集的圖像,然后對(duì)圖像進(jìn)行濾波處理,識(shí)別圖像中是否存在白色安全帽,若存在白色安全帽,則顯示結(jié)果圖像并啟動(dòng)蜂鳴器報(bào)警,LED紅燈閃爍;若不存在白色安全帽,繼續(xù)判斷是否存在彩色安全帽,將圖像轉(zhuǎn)換到HSV顏色空間,設(shè)定各彩色安全帽的閾值范圍,依次判斷是否存在藍(lán)、紅、黃顏色的安全帽,若存在,則將顏色標(biāo)識(shí)參數(shù)存入相應(yīng)的值。與此同時(shí),為了消除前景中的噪聲和實(shí)現(xiàn)分割,對(duì)圖像進(jìn)行腐蝕操作,再進(jìn)行安全帽輪廓的提取,當(dāng)輪廓周長(zhǎng)及圓度符合設(shè)定范圍時(shí),則顯示圖像結(jié)果并發(fā)出報(bào)警;若白色及彩色安全帽均未檢測(cè)到,LED綠燈常亮,循環(huán)讀取下一幀圖像,程序流程如圖4所示。
3實(shí)驗(yàn)及分析
為了使圖像識(shí)別算法具有普遍適用性,選擇了兩種場(chǎng)景進(jìn)行實(shí)驗(yàn)驗(yàn)證。場(chǎng)景一中目標(biāo)距離攝像頭約為3 m,距離較近,視場(chǎng)范圍較窄;場(chǎng)景二中目標(biāo)距離攝像頭約為10 m,距離較遠(yuǎn),視場(chǎng)范圍較寬。實(shí)驗(yàn)設(shè)定安全帽輪廓圓度K的取值范圍為0.4~0.8,設(shè)備支持1 920×1 080圖像每秒25幀的視頻輸出。場(chǎng)景一中安全帽輪廓周長(zhǎng)L的取值范圍為110~500;場(chǎng)景二中安全帽輪廓周長(zhǎng)L的取值范圍為50~150。算法實(shí)現(xiàn)了對(duì)單色安全帽以及對(duì)多色安全帽的同時(shí)識(shí)別,并能夠?qū)崟r(shí)顯示識(shí)別目標(biāo)的顏色、半徑、中心坐標(biāo)、圓度、輪廓周長(zhǎng)和橢圓長(zhǎng)短軸等信息,兩種場(chǎng)景安全帽識(shí)別率如表2、表3所示。
其中單色識(shí)別率P為采集的視頻圖像中只有一種顏色的安全帽時(shí)的識(shí)別情況;多色識(shí)別率為采集圖像中存在兩種、三種或四種顏色的安全帽時(shí),分別對(duì)不同的視頻圖像進(jìn)行特定顏色識(shí)別率的計(jì)算。例如設(shè)置參數(shù)T表示含有紅色安全帽視頻的總幀數(shù),參數(shù)R為識(shí)別到的紅色安全帽幀數(shù),則(R/T)×100%即為紅色安全帽識(shí)別率,用Pr表示,計(jì)算不同視頻中紅色安全帽識(shí)別率的平均值,即為多色情況下紅色安全帽的識(shí)別率Pr,其他顏色識(shí)別率同理可得。實(shí)驗(yàn)采集的視頻樣本時(shí)長(zhǎng)約為1 min,則每個(gè)視頻總幀數(shù)約為1 500幀,對(duì)于每種顏色,分別選擇含有此顏色的兩種、三種和四種顏色安全帽的視頻各一個(gè),則多色識(shí)別率為這三個(gè)視頻特定顏色識(shí)別率的平均值。
算法對(duì)于單色的識(shí)別效果較好,準(zhǔn)確率超過了91%,對(duì)于多個(gè)安全帽識(shí)別中部分遮擋的安全帽也有較好的識(shí)別效果,但總體低于單色識(shí)別;場(chǎng)景二中安全帽距離攝像頭較遠(yuǎn),識(shí)別率普遍低于場(chǎng)景一,但總體差別不大,兩種場(chǎng)景下白色安全帽的識(shí)別效果均較差。除此之外,當(dāng)外界光線發(fā)生變化時(shí),也會(huì)對(duì)識(shí)別結(jié)果產(chǎn)生較大影響,降低識(shí)別準(zhǔn)確率,圖5為部分識(shí)別結(jié)果。
3.1白色安全帽識(shí)別優(yōu)化
由于白、黃兩色安全帽在灰度值上較為接近,容易出現(xiàn)將黃色安全帽誤檢為白色安全帽的情況;又因?yàn)榘咨c背景門窗顏色接近,難以區(qū)分,容易出現(xiàn)誤檢的情況,因此需要從灰度通道及輪廓形狀兩方面入手對(duì)白色安全帽的識(shí)別進(jìn)行優(yōu)化。
3.1.1白色識(shí)別的通道選擇
對(duì)于灰度通道的選擇,通常的方法是將原始圖像直接轉(zhuǎn)換到GRAY灰度空間中,應(yīng)用Otsu法設(shè)定合適的閾值對(duì)白色進(jìn)行識(shí)別。但GRAY灰度空間中白色和黃色的灰度值較為接近,如圖6(b)所示,易出現(xiàn)誤檢,不利于白色的識(shí)別。將原始圖像轉(zhuǎn)換到不同顏色空間中進(jìn)行測(cè)試,得到BGR空間中的B通道能夠?qū)咨c其它顏色較好的區(qū)別開,如圖6(c)所示。因此,選擇通道B作為白色安全帽的識(shí)別通道。
3.1.2白色安全帽的輪廓提取
對(duì)于白色安全帽,算法設(shè)定了在一定周長(zhǎng)范圍內(nèi)進(jìn)行輪廓橢圓擬合,得到橢圓形狀參數(shù)。為了去除背景中長(zhǎng)條形輪廓對(duì)識(shí)別的影響,定義形狀參數(shù)
其中,a為橢圓短軸長(zhǎng)度,b為橢圓長(zhǎng)軸長(zhǎng)度,將E的取值范圍設(shè)置為[1,2],作為形狀識(shí)別條件。除此之外,為了避免對(duì)矩形的誤檢,利用多邊形近似逼近函數(shù)對(duì)背景輪廓進(jìn)行處理,得到輪廓的角點(diǎn)數(shù),由于矩形的角點(diǎn)數(shù)為4,算法中設(shè)置當(dāng)角點(diǎn)數(shù)大于5時(shí)對(duì)輪廓進(jìn)行選擇,由此屏蔽了矩形輪廓的影響,優(yōu)化前后的白色安全帽識(shí)別結(jié)果對(duì)比如圖7所示。
3.2光線變化對(duì)安全帽識(shí)別的影響
在識(shí)別過程中,光線的減少會(huì)導(dǎo)致環(huán)境變暗,使圖像轉(zhuǎn)換到HSV各通道的灰度圖像的梯度減小,輪廓難以識(shí)別,導(dǎo)致目標(biāo)前景的部分丟失,從而影響目標(biāo)識(shí)別的準(zhǔn)確率。為了減小光線變化對(duì)識(shí)別結(jié)果的影響,對(duì)比分析了昏暗和明亮兩種條件下HSV各通道的直方圖如圖8和圖9所示。
根據(jù)直方圖能夠判斷,兩種光照條件下色調(diào)H通道都集中在黃、藍(lán)、紅三種顏色處,驗(yàn)證了彩色閾值范圍的準(zhǔn)確性,但昏暗條件下顏色較為離散;由于白色安全帽和背景飽和度較低,彩色安全帽飽和度較高,因此S通道呈現(xiàn)高、低兩種飽和度趨勢(shì)?;璋岛兔髁羶煞N條件相比,色調(diào)H和飽和度S通道總體數(shù)值接近,區(qū)別不明顯。
對(duì)于亮度通道V,差別則較大?;璋禇l件下的亮度值V分布在10~140范圍內(nèi),亮度峰值為18;明亮條件下的亮度值V分布在30~255范圍內(nèi),亮度峰值為56,約為昏暗條件下的3倍,由此可見,明亮條件下V通道數(shù)值分布范圍大,且亮度值較為均衡。因此,可將昏暗條件下的圖像進(jìn)行V通道均衡化[15]處理,改變其亮度值分布,再用于目標(biāo)識(shí)別。
3.3V通道均衡化處理
傳統(tǒng)的圖像均衡化處理是對(duì)圖像整體進(jìn)行處理,對(duì)于局部圖像的對(duì)比度增強(qiáng)過大,易形成噪點(diǎn),且對(duì)于不同區(qū)域的局部圖像,會(huì)因?yàn)檎{(diào)整后的過亮或過暗而丟失細(xì)節(jié)。因此,需要將對(duì)比度進(jìn)行限制,先將圖像進(jìn)行分塊,再對(duì)分塊的邊界進(jìn)行雙線性插值計(jì)算,最后再做均衡化處理。利用自適應(yīng)均衡化函數(shù)對(duì)算法進(jìn)行改進(jìn),設(shè)置合適的對(duì)比度閾值及圖像分塊大小,得到的識(shí)別結(jié)果如圖10所示。
均衡前圖像光線昏暗,僅識(shí)別出藍(lán)色安全帽;均衡化后V通道的灰度值范圍明顯擴(kuò)大,平均灰度增加,使得圖像整體變亮,亮度均衡效果明顯,能夠準(zhǔn)確識(shí)別出三種顏色的安全帽。應(yīng)用改進(jìn)后的算法對(duì)包含4種顏色安全帽的視頻進(jìn)行實(shí)驗(yàn)測(cè)試,識(shí)別結(jié)果如表4所示。
可以看出,V通道自適應(yīng)均衡化后場(chǎng)景一中4種顏色安全帽識(shí)別率均有提高,多色識(shí)別率超過了90%,且程序運(yùn)行穩(wěn)定,誤檢率較低。程序發(fā)現(xiàn)目標(biāo)后立即點(diǎn)亮LED燈同時(shí)蜂鳴器發(fā)出報(bào)警,解除報(bào)警后程序繼續(xù)循環(huán)運(yùn)行,為施工危險(xiǎn)區(qū)域人員的自動(dòng)化識(shí)別提供了有效途徑。
4結(jié)論
1)算法實(shí)現(xiàn)了單色目標(biāo)及多色目標(biāo)的識(shí)別,其中單色目標(biāo)識(shí)別率超過了91%;優(yōu)化后多目標(biāo)識(shí)別中部分遮擋的安全帽識(shí)別率也超過了90%。
2)針對(duì)白色安全帽的識(shí)別,采用將原圖轉(zhuǎn)換到B通道的方法,解決了將黃色誤檢為白色的問題;針對(duì)光照昏暗條件下識(shí)別率低的問題,采用V通道自適應(yīng)直方圖均衡化的方法,提高了圖像整體亮度,從而提高了目標(biāo)識(shí)別率,優(yōu)化效果明顯。
3)根據(jù)Raspberry Pi系統(tǒng)體積小、接口豐富、適合多點(diǎn)布置等特點(diǎn),創(chuàng)新性地將其用于施工危險(xiǎn)區(qū)域的目標(biāo)識(shí)別。算法無需數(shù)據(jù)集的提前訓(xùn)練,設(shè)置簡(jiǎn)單的參數(shù)后即可使用,為施工區(qū)域安全隱患排查和作業(yè)管控提供了解決方案。
參考文獻(xiàn)
[1] 周明星, 王子成, 劉慧婷. 中國(guó)安全生產(chǎn)政策變遷及其內(nèi)在邏輯—基于間斷均衡模型的實(shí)證分析 [J]." 中國(guó)安全生產(chǎn)科學(xué)技術(shù), 2022, 18(8): 44-49.
ZHOU M X, WANG Z C, LIU H T. Change of work safety policy in China and their internal logic: empirical analysis based on discontinuous equilibrium model[J]." Journal of Safety Science and Technology, 2022, 18(8): 44-49.
[2] 吳先俊, 郭成. 基于智能安全帽的大型水電工程安全智能管控技術(shù) [J]." 人民黃河, 2021, 43(1): 218-220.
WU X J, GUO C. Intelligent safety control""" technology of large hydropower project based on intelligent safety helmet[J]." Yellow River, 2021, 43(1): 218-220.
[3] 李曉宇, 陳偉, 楊維, 等. 基于超像素特征與SVM分類的人員安全帽分割方法 [J]." 煤炭學(xué)報(bào), 2021, 46(6): 2009-2022.
LI X Y, CHEN W, YANG W, et al. Segmentation method for personnel safety helmet based on super-pixel features and SVM classification[J]." Journal of China Coal Society, 2021, 46(6): 2009-2022.
[4] 劉曉慧, 葉西寧. 膚色檢測(cè)和Hu矩在安全帽識(shí)別中的應(yīng)用 [J]." 華東理工大學(xué)學(xué)報(bào)(自然科學(xué)版), 2021, 46(6): 2009-2022.
LIU X H, YE X N. Skin color detection and Hu moments in helmet recognition research[J]." Journal of East China University of Science and Technology (Natural Science Edition), 2021, 46(6): 2009-2022.
[5] 申沖, 劉川, 張滿囤, 等. 基于弱監(jiān)督學(xué)習(xí)的細(xì)節(jié)三維人臉重建 [J]." 燕山大學(xué)學(xué)報(bào), 2023, 47(2): 144-151.
SHEN C, LIU C, ZHANG M T, et al. Detailed 3D face reconstruction based on weakly supervised learning[J]. Journal of Yanshan University, 2023, 47(2): 144-151.
[6] 龐殊楊, 蘆莎. 基于改進(jìn) MTCNN 的多尺度安全帽識(shí)別 [J]." 計(jì)算機(jī)應(yīng)用研究, 2021, 38(6): 1907-1916.
PANG S Y, LU S. Multi-scale safety helmet detection based on improved MTCNN[J]." Application Research of Computers, 2021, 38(6): 1907-1916.
[7] 農(nóng)元君, 王俊杰, 徐曉東, 等. 面向嵌入式平臺(tái)的安全帽實(shí)時(shí)檢測(cè)方法 [J]." 計(jì)算機(jī)工程與應(yīng)用, 2022, 58(9): 161-167.
NONG Y J, WANG J J, XU X D, et al. Real-time hardhats detection method for embedded platform[J]." Computer Engineering and Applications, 2022, 58(9): 161-167.
[8] 趙穎, 李玉雙, 武小榮. 基于舌圖像多特征融合與機(jī)器學(xué)習(xí)的裂紋舌識(shí)別算法 [J]." 燕山大學(xué)學(xué)報(bào), 2022, 46(6): 522-528.
ZHAO Y, LI Y S, WU X R. Crack tongue recognition algorithm based on tongue image multi-features fusion and machine learning[J]." Journal of Yanshan University, 2022, 46(6): 522-528.
[9] 胡正平, 張敏姣, 李淑芳, 等. 智能視頻監(jiān)控系統(tǒng)中行人再識(shí)別技術(shù)研究綜述 [J]." 燕山大學(xué)學(xué)報(bào), 2019, 43(5): 377-393.
HU Z P, ZHANG M J, LI S F, et al. Review of person re-identification technology in intelligent video surveillance system[J]." Journal of Yanshan University, 2019, 43(5): 377-393.
[10] 李艷文, 胡浩波, 丁乙, 等. 一種基于RGB顏色分量的枝干圖像分割方法 [J]." 燕山大學(xué)學(xué)報(bào), 2016, 40(5): 446-450.
LI Y W, HU H B, DING Y, et al. A new method for color segmentation of tree branch image based on relationship of RGB components[J]." Journal of Yanshan University, 2016, 40(5): 446-450.
[11] 李瑞生, 許丹, 翟登輝, 等. 基于HSV特征變換與目標(biāo)檢測(cè)的變壓器呼吸器缺陷智能識(shí)別方法 [J]." 高壓電技術(shù), 2020, 46(9): 3027-3035.
LI R S, XU D, ZHAI D H, et al. Intelligent defect identification method of transformer dehumidifier based on HSV transformation and object detection[J]." High Voltage Engineering, 2020, 46(9): 3027-3035.
[12] 柳林. 基于OpenCV的數(shù)字圖像處理技術(shù) [M]." 杭州:浙江大學(xué)出版社, 2020: 179-180.
LIU L. Digital image processing using OpenCV[M]." Hangzhou: Zhejiang University Press, 2020: 179-180.
[13] BHANDARI A K, GHOSH A, KUMAR I V. A local contrast fusion based 3D Otsu algorithm for multilevel image segmentation [J]." IEEE/CAA Journal of Automatica Sinica, 2020, 7(1): 200-213.
[14] 曾成, 李文霄. 組合導(dǎo)航中磁強(qiáng)計(jì)干擾估計(jì)與補(bǔ)償方法 [J]." 燕山大學(xué)學(xué)報(bào), 2020, 44(1): 49-54.
ZENG C, LI W X. Interference estimation and compensation method of magnetometer in integrated navigation[J]." Journal of Yanshan University, 2020, 44(1): 49-54.
[15] 康爽, 陳長(zhǎng)征, 趙思雨, 等. 自適應(yīng)差異多尺度形態(tài)學(xué)的風(fēng)力機(jī)葉片紅外圖像增強(qiáng)研究 [J]." 中國(guó)機(jī)械工程, 2021, 32(7): 786-792.
KANG S, CHEN C Z, ZHAO S Y, et al. Study on infrared image enhancement of wind turbine blades based on adaptive differential multiscale morphology (ADMM)[J]." China Mechanical Engineering, 2021, 32(7): 786-792.