王小飛,李東方,李玉珩,陳傳通
1.秦皇島煙草機(jī)械有限責(zé)任公司,河北省秦皇島市經(jīng)濟(jì)技術(shù)開(kāi)發(fā)區(qū)龍海道67號(hào) 066000
2.山東中煙工業(yè)有限責(zé)任公司濟(jì)南卷煙廠,濟(jì)南市歷城區(qū)科航路2006號(hào) 250100
片煙原料中經(jīng)?;煊薪饘?、石塊、麻繩、紙片、蟲(chóng)繭、泡沫等雜物,這些雜物若混入煙絲卷制成卷煙,在煙支燃燒時(shí)會(huì)產(chǎn)生異味,影響卷煙感官質(zhì)量,增加加工質(zhì)量風(fēng)險(xiǎn)。因此,片煙雜物檢測(cè)和剔除是卷煙制絲生產(chǎn)中的重要工序之一,其作用在于防止金屬和石塊等重質(zhì)雜物對(duì)后續(xù)工序設(shè)備造成損壞,避免泡沫等輕質(zhì)雜物以及麻繩和蟲(chóng)繭等異物影響卷煙質(zhì)量。目前煙草行業(yè)常用的雜物檢測(cè)及剔除方法主要有風(fēng)選法、激光法和圖像識(shí)別法[1]。風(fēng)選法利用異物與片煙或煙絲懸浮速度不同剔除重質(zhì)雜物,但無(wú)法有效剔除與煙絲質(zhì)量相近的異物。激光法根據(jù)片煙和異物對(duì)激光反射、吸收特性的不同進(jìn)行雜物識(shí)別,但該設(shè)備生產(chǎn)成本較高,不利于推廣應(yīng)用[1-2]。圖像識(shí)別法分為傳統(tǒng)法和基于深度學(xué)習(xí)方法。李陽(yáng)萱[3]利用顏色特征對(duì)煙草異物圖像進(jìn)行檢測(cè),異物剔除率達(dá)到99%;莊珍珍[4]采用區(qū)域生長(zhǎng)邊緣檢測(cè)方法對(duì)煙葉圖像進(jìn)行分割,取得較好的背景分離效果;邵素琳[5]通過(guò)梯度直方圖和灰度共生矩陣提取片煙的關(guān)鍵點(diǎn)和描述符,進(jìn)而提取片煙的顏色及紋理特征識(shí)別片煙類(lèi)別。傳統(tǒng)的圖像識(shí)別法剔除雜物效果較好,但需要人工進(jìn)行參數(shù)調(diào)節(jié),且魯棒性較差,容易受環(huán)境噪聲的影響。隨著深度學(xué)習(xí)方法的發(fā)展,吳亞成[6]將卷積神經(jīng)網(wǎng)絡(luò)嵌入到顏色分類(lèi)器,提高特征提取性能,煙葉除雜精度得到顯著提升。李亞召等[7-8]提出一種基于卷積神經(jīng)網(wǎng)絡(luò)的霉變煙葉識(shí)別方法,通過(guò)構(gòu)建卷積神經(jīng)網(wǎng)絡(luò)模型學(xué)習(xí)正常煙葉和霉變煙葉的特征,再利用收斂后的模型推理并篩選正常煙葉與霉變煙葉,識(shí)別準(zhǔn)確率可達(dá)96.12%。但在實(shí)際應(yīng)用中由于片煙運(yùn)動(dòng)容易造成雜物被遮擋,仍然存在正常片煙被誤判為雜物、雜物漏檢等問(wèn)題。而采用深度學(xué)習(xí)方法利用訓(xùn)練得到的深度神經(jīng)網(wǎng)絡(luò)對(duì)圖像進(jìn)行顯著性目標(biāo)檢測(cè)(Salient Object Detection,SOD)[8],可有效提升檢測(cè)準(zhǔn)確度。顯著性目標(biāo)檢測(cè)可以看作是一個(gè)圖像分割問(wèn)題,即將圖像中的顯著性目標(biāo)區(qū)域從背景中分割出來(lái)[9]。顯著性目標(biāo)檢測(cè)目前廣泛應(yīng)用于計(jì)算機(jī)視覺(jué)任務(wù)中[10-11],如對(duì)高分辨率衛(wèi)星圖像進(jìn)行基于無(wú)監(jiān)督特征學(xué)習(xí)的場(chǎng)景分類(lèi)[12];將無(wú)監(jiān)督學(xué)習(xí)轉(zhuǎn)化為多實(shí)例學(xué)習(xí),實(shí)現(xiàn)圖像目標(biāo)定位和分類(lèi)[13];構(gòu)建測(cè)試視覺(jué)問(wèn)答模型性能的數(shù)據(jù)集[14]等。近年來(lái),顯著性目標(biāo)檢測(cè)在煙草行業(yè)也有大量應(yīng)用,楊威等[15]基于U-Net和超像素分割對(duì)煙株進(jìn)行自動(dòng)提取,平均準(zhǔn)確度達(dá)到93.42%。鐘宇等[16]提出一種基于殘差神經(jīng)網(wǎng)絡(luò)的煙絲類(lèi)型識(shí)別方法,能夠有效識(shí)別葉絲、梗絲、膨脹葉絲、再造煙葉絲等煙絲類(lèi)型,相比基于卷積神經(jīng)網(wǎng)絡(luò)的識(shí)別方法,識(shí)別率、泛化能力與魯棒性均有提升。洪金華等[17]采用自監(jiān)督的k-means++聚類(lèi)方法對(duì)煙蟲(chóng)圖像自動(dòng)生成YOLOv3模型的錨點(diǎn)框,提高了對(duì)煙蟲(chóng)位置、煙絲和煙末的識(shí)別能力。自監(jiān)督學(xué)習(xí)是一種具有特殊監(jiān)督形式的非監(jiān)督學(xué)習(xí)方法[18],由自監(jiān)督任務(wù)而非預(yù)設(shè)先驗(yàn)知識(shí)誘發(fā),其算法能夠自主學(xué)習(xí)檢測(cè)到的顯著物體之間的相互關(guān)系,并通過(guò)自動(dòng)適應(yīng)雜物與正常物體的分界點(diǎn)來(lái)確定真實(shí)雜物。為此,采用深度學(xué)習(xí)顯著性目標(biāo)檢測(cè)與傳統(tǒng)特征聚類(lèi)相結(jié)合的方法,提出一種片煙雜物檢測(cè)方法,并采用狀態(tài)累積的方法對(duì)一定時(shí)間內(nèi)多幀序列的檢測(cè)結(jié)果進(jìn)行像素分析,以期提高片煙雜物檢測(cè)精度,實(shí)現(xiàn)片煙生產(chǎn)流程全自動(dòng)化檢測(cè)。
片煙樣品為濟(jì)南卷煙廠制絲車(chē)間2023年1—4月生產(chǎn)的片煙產(chǎn)品,包含多個(gè)批次。
所使用數(shù)據(jù)均為濟(jì)南卷煙廠細(xì)支卷煙智能生產(chǎn)線監(jiān)控視頻數(shù)據(jù)。將視頻數(shù)據(jù)進(jìn)行圖像提取、篩選、標(biāo)注得到訓(xùn)練數(shù)據(jù),數(shù)據(jù)標(biāo)注過(guò)程見(jiàn)圖1。其中,雜物區(qū)域標(biāo)記為白色,灰度值為255;其他背景區(qū)域標(biāo)記為黑色,灰度值為0。對(duì)原始圖像進(jìn)行處理得到12 000 張標(biāo)注圖像,按照7∶2∶1 的比例將其劃分為訓(xùn)練集、驗(yàn)證集和測(cè)試集。
圖1 數(shù)據(jù)標(biāo)注過(guò)程Fig.1 Data labeling procedure
1.3.1 片煙雜物的顯著性目標(biāo)檢測(cè)
顯著性目標(biāo)檢測(cè)分為稀疏檢測(cè)法和密集檢測(cè)法[19],本文中采用的是基于編-解碼結(jié)構(gòu)的密集檢測(cè)法,其顯著性目標(biāo)檢測(cè)網(wǎng)絡(luò)為嵌套的兩級(jí)U型結(jié)構(gòu),所嵌套的模塊稱(chēng)為殘差U 型塊[20](ReSidual U-blocks,RSU)。由于RSU 中混合了不同大小的感受野,故能夠從不同尺度獲取更多信息。此外,RSU還使用了池化操作,在增加整個(gè)模型深度的情況下不會(huì)增大計(jì)算成本。圖2是一個(gè)深度為7的RSU,其結(jié)構(gòu)包含上采樣和下采樣兩個(gè)階段,各有5層網(wǎng)絡(luò),每層網(wǎng)絡(luò)包含卷積層、批歸一化層和激活層。其中,H、W、C分別代表輸入和輸出的高、寬和通道數(shù),M表示每層輸入輸出通道數(shù)的度量,3×3為卷積層的卷積核大小,d表示擴(kuò)張卷積的擴(kuò)張率[21]。
圖2 殘差U型塊結(jié)構(gòu)Fig.2 Structure of ReSidual U-blocks
顯著性目標(biāo)檢測(cè)網(wǎng)絡(luò)架構(gòu)如圖3所示,采用全卷積神經(jīng)網(wǎng)絡(luò)[22]架構(gòu),每個(gè)藍(lán)色方塊為一個(gè)RSU,每個(gè)RSU包含兩層不改變輸入高、寬的卷積層,下采樣網(wǎng)絡(luò)層數(shù)由高到低依次為5,4,3,2,1,0 層。圖3 中向下箭頭表示下采樣,向上箭頭表示上采樣,向右的細(xì)箭頭表示跳躍連接,就是將兩個(gè)相同高、寬的特征在通道維度上進(jìn)行串聯(lián)操作。顯著性目標(biāo)檢測(cè)網(wǎng)絡(luò)采用嵌套的U 型結(jié)構(gòu),能夠有效提取每一階段的多尺度特征以及聚集階段的多層次特征。
圖3 顯著性目標(biāo)檢測(cè)網(wǎng)絡(luò)架構(gòu)Fig.3 Structure of salient object detection network
因整個(gè)顯著性目標(biāo)檢測(cè)網(wǎng)絡(luò)架構(gòu)建立在RSU上,未使用任何經(jīng)過(guò)預(yù)訓(xùn)練的、適應(yīng)于圖像分類(lèi)的骨干網(wǎng)絡(luò)。因此,構(gòu)建的顯著性目標(biāo)檢測(cè)網(wǎng)絡(luò)模型(以下簡(jiǎn)稱(chēng)兩級(jí)U-Net模型)性能靈活且適應(yīng)性強(qiáng)。兩級(jí)U-Net 模型輸入為三通道的RGB 圖像,輸出為相同分辨率的單通道顯著性圖像。在訓(xùn)練過(guò)程中采用預(yù)訓(xùn)練與監(jiān)督學(xué)習(xí)方式對(duì)網(wǎng)絡(luò)參數(shù)進(jìn)行優(yōu)化,其損失函數(shù)為二值交叉熵:
式中:PS(r,c)和PG(r,c)分別代表高、寬為H、W的圖像坐標(biāo)點(diǎn)(r,c)的模型預(yù)測(cè)值和真實(shí)值。
1.3.2 片煙雜物的自監(jiān)督聚類(lèi)
采用自監(jiān)督學(xué)習(xí)方法可以自適應(yīng)地學(xué)習(xí)顯著性物體之間的分界線。首先提取檢測(cè)到的顯著性物體的特征(圖4a),再采用傳統(tǒng)的K 均值聚類(lèi)方法進(jìn)行聚類(lèi)分析。利用兩級(jí)U-Net 模型對(duì)輸入的片煙圖像進(jìn)行檢測(cè),能夠獲得圖像中各類(lèi)雜物的顯著性目標(biāo)檢測(cè)結(jié)果。如圖4b所示,黑色區(qū)域代表背景,白色區(qū)域代表所檢測(cè)的雜物,其形狀面積與雜物大小和類(lèi)別相關(guān)。根據(jù)模型的輸出結(jié)果,按照白色區(qū)域?qū)υ紙D像進(jìn)行分割,可獲得雜物的目標(biāo)區(qū)域圖像(圖4c),提取這些目標(biāo)區(qū)域的特征即可對(duì)雜物進(jìn)行分類(lèi)識(shí)別。
圖4 顯著性目標(biāo)檢測(cè)及雜物矩形框生成過(guò)程Fig.4 Process of salient object detection and foreign matter rectangle box generation
利用模型的編碼器進(jìn)行目標(biāo)區(qū)域特征提取,編碼器由圖3 左邊虛線框內(nèi)編碼階段各RSU 組成,其輸入大小為1 px×64 px×64 px×3 px。因雜物大小存在差異,目標(biāo)區(qū)域尺寸也各不相同。因此,在將目標(biāo)區(qū)域輸入到編碼器前需要對(duì)不同目標(biāo)區(qū)域進(jìn)行尺寸歸一化,使其滿足編碼器輸入要求。編碼器輸出的1×10×10×512維度的特征圖經(jīng)過(guò)變形得到1×51 200維度的特征向量,對(duì)圖像上n個(gè)顯著性目標(biāo)對(duì)應(yīng)的特征向量進(jìn)行堆疊可得到n×51 200維度的聚類(lèi)特征矩陣。對(duì)特征矩陣進(jìn)行聚類(lèi),k個(gè)類(lèi)別的聚類(lèi)輸出結(jié)果為0~(k-1)個(gè)標(biāo)簽,每種標(biāo)簽對(duì)應(yīng)一種類(lèi)別。根據(jù)緊湊度選擇前m個(gè)類(lèi)別對(duì)應(yīng)目標(biāo)區(qū)域?yàn)殡s物,其余標(biāo)記為正常物體。聚類(lèi)過(guò)程中,選取1 200個(gè)包含橡膠、塑料、尼龍、碎紙片、泡沫等雜物的矩形框進(jìn)行特征提取,獲得1 200×51 200 維度的聚類(lèi)特征矩陣并進(jìn)行聚類(lèi)。
1.3.3 片煙雜物的狀態(tài)判斷
為避免因片煙運(yùn)動(dòng)導(dǎo)致雜物被遮擋而影響檢測(cè)精度,需要對(duì)獲取的目標(biāo)雜物進(jìn)一步分析。首先對(duì)已判斷為雜物的目標(biāo)區(qū)域進(jìn)行篩查,利用矩形框預(yù)測(cè)為雜物的概率及其相互之間的重疊比率(IoU,Intersection over Union)去除冗余框;再計(jì)算篩選后每個(gè)矩形框的中心位置,并統(tǒng)計(jì)此后一段時(shí)間內(nèi)的雜物狀態(tài)。具體步驟為:計(jì)算當(dāng)前幀圖像中目標(biāo)區(qū)域(矩形框)的中心位置,根據(jù)中心位置的個(gè)數(shù)建立位置數(shù)組和狀態(tài)數(shù)組,并將當(dāng)前幀的位置寫(xiě)入位置數(shù)組作為第一個(gè)元素,同時(shí)將對(duì)應(yīng)的狀態(tài)數(shù)組狀態(tài)值置為1。計(jì)算下一幀圖像中矩形框的中心位置,并與存儲(chǔ)在位置數(shù)組中的上一幀中心位置進(jìn)行對(duì)比,可能有3種情況:①矩形框的中心位置與上一幀的中心位置距離小于閾值,此時(shí)將矩形框的中心位置寫(xiě)入位置數(shù)組并將對(duì)應(yīng)的狀態(tài)數(shù)組狀態(tài)值置為1。②矩形框的中心位置與上一幀的任意中心位置距離均大于閾值,此時(shí)新建一個(gè)位置數(shù)組和狀態(tài)數(shù)組,并將矩形框中心位置寫(xiě)入位置數(shù)組,同時(shí)將對(duì)應(yīng)的狀態(tài)數(shù)組狀態(tài)值置為1。③某個(gè)位置數(shù)組在下一幀圖像中沒(méi)有矩形框與之相匹配,此時(shí)根據(jù)位置數(shù)組中上一幀的中心位置以及片煙運(yùn)動(dòng)情況,構(gòu)建一個(gè)虛擬位置寫(xiě)入位置數(shù)組,同時(shí)將對(duì)應(yīng)的狀態(tài)數(shù)組狀態(tài)值置為0。
經(jīng)過(guò)一定時(shí)間序列t后再次對(duì)雜物進(jìn)行判斷。當(dāng)狀態(tài)累積值小于閾值時(shí)物體被認(rèn)為是誤檢雜物,刪除其對(duì)應(yīng)的位置數(shù)組和狀態(tài)數(shù)組;當(dāng)狀態(tài)累積值大于閾值時(shí),對(duì)位置數(shù)組的存儲(chǔ)位置進(jìn)行直線擬合。如果擬合誤差大于閾值,則認(rèn)為此位置數(shù)組對(duì)應(yīng)雜物為誤檢雜物,刪除其對(duì)應(yīng)的位置數(shù)組和狀態(tài)數(shù)組;如果擬合誤差小于閾值,則認(rèn)為此位置數(shù)組對(duì)應(yīng)雜物為真實(shí)雜物,輸出雜物報(bào)警并刪除其對(duì)應(yīng)的位置數(shù)組和狀態(tài)數(shù)組。如圖5所示,圖像中的物體先經(jīng)過(guò)顯著性目標(biāo)檢測(cè)和聚類(lèi)分析后確定為雜物,再經(jīng)過(guò)在一定時(shí)間序列t的狀態(tài)累積后判斷是否為真實(shí)雜物,然后對(duì)新檢測(cè)雜物與已檢測(cè)到雜物進(jìn)行重疊比較,剔除重復(fù)檢測(cè)的雜物。
圖5 雜物檢測(cè)算法流程圖Fig.5 Flow chart of foreign matter detection algorithm
1.4.1 顯著性目標(biāo)檢測(cè)網(wǎng)絡(luò)模型評(píng)估
使用平均IoU 和平均絕對(duì)誤差(Mean Absolute Error,MAE)評(píng)價(jià)顯著性目標(biāo)檢測(cè)網(wǎng)絡(luò)模型的性能,選擇顯著性目標(biāo)檢測(cè)網(wǎng)絡(luò)BASNet[23]和U-Net[24]作為對(duì)比。MAE計(jì)算公式為:
1.4.2 聚類(lèi)效果評(píng)估
在標(biāo)注的數(shù)據(jù)集上對(duì)比不同參數(shù)下聚類(lèi)結(jié)果對(duì)雜物檢測(cè)精度的影響,并以此為標(biāo)準(zhǔn)選取標(biāo)簽m值。采用F1 分?jǐn)?shù)[25]評(píng)價(jià)聚類(lèi)效果,F(xiàn)1 分?jǐn)?shù)越高,說(shuō)明檢測(cè)模型性能越穩(wěn)定。由文獻(xiàn)[26]可知,雜物聚類(lèi)類(lèi)別數(shù)k=10情況下,m取值范圍為1~9。F1分?jǐn)?shù)計(jì)算公式為:
式中:P和R分別代表雜物檢測(cè)的精準(zhǔn)率和召回率,%;F1分?jǐn)?shù)用于評(píng)價(jià)m值對(duì)雜物檢測(cè)效果的影響。
實(shí)驗(yàn)過(guò)程分為模型訓(xùn)練和推理兩部分。其中,訓(xùn)練環(huán)境用于訓(xùn)練顯著性目標(biāo)檢測(cè)網(wǎng)絡(luò),主要算法流程在推理環(huán)境中實(shí)現(xiàn)。在訓(xùn)練環(huán)境中,操作系統(tǒng)為Ubuntu16.04.6,采用2 塊GeForce RTX 2080Ti 顯卡,約20 GB內(nèi)存,訓(xùn)練框架為T(mén)ensorFlow1.4。在實(shí)際檢測(cè)環(huán)境中,操作系統(tǒng)為Ubuntu16.04.6/Windows10,GPU為8 GB顯存的GeForce RTX 2080。訓(xùn)練后模型采用TensorRT 框架進(jìn)行推理優(yōu)化部署,TensorRT 是NVIDIA公司開(kāi)發(fā)的高性能GPU推理C++庫(kù),具有高吞吐量、低延遲和低占用設(shè)備內(nèi)存等優(yōu)點(diǎn),可有效提高深度學(xué)習(xí)模型在推理時(shí)的檢測(cè)速度,實(shí)現(xiàn)算法快速高效部署。
所訓(xùn)練的兩級(jí)U-Net 模型輸入高、寬為320 px×320 px,輸入批次為24,初始化參數(shù)值為預(yù)訓(xùn)練好的參數(shù)。采用Adam 方式優(yōu)化參數(shù),初始學(xué)習(xí)率為0.008,以指數(shù)衰減方式每8 000 步衰減1 次。首先凍結(jié)特征提取階段的網(wǎng)絡(luò)參數(shù),在迭代10 000 步時(shí)開(kāi)放所有網(wǎng)絡(luò)參數(shù),繼續(xù)訓(xùn)練至35 000 步。訓(xùn)練損失函數(shù)值Loss 和步數(shù)Step變化曲線見(jiàn)圖6。訓(xùn)練樣本的真實(shí)值為二值圖像,預(yù)測(cè)顯著圖的像素值在(0,1)范圍,0表示背景,1表示目標(biāo)物體。
圖6 Loss-Step訓(xùn)練曲線Fig.6 Loss-Step training curve
將兩級(jí)U-Net 模型與U-Net 和BASNet 兩種模型的檢測(cè)性能進(jìn)行對(duì)比,結(jié)果見(jiàn)表1??梢?jiàn),兩級(jí)U-Net 模型的檢測(cè)精度均優(yōu)于BASNet和U-Net。在實(shí)際檢測(cè)推理部署時(shí),由于采用了高性能優(yōu)化的TensorRT 框架,兩級(jí)U-Net 模型的檢測(cè)速度明顯優(yōu)于BASNet和U-Net。由圖7可見(jiàn),兩級(jí)U-Net模型的預(yù)測(cè)結(jié)果準(zhǔn)確性顯著高于BASNet 和U-Net,其邊緣也更加精確。
表1 不同顯著性目標(biāo)檢測(cè)模型輸出結(jié)果Tab.1 Output results of different salient object detection models
圖7 不同模型顯著性目標(biāo)檢測(cè)可視化結(jié)果Fig.7 Visualization results of salient object detection
圖8 為不同m值下聚類(lèi)結(jié)果對(duì)雜物檢測(cè)精度的影響??梢?jiàn),m=5 時(shí)檢測(cè)精度最高;當(dāng)m值較小時(shí),聚類(lèi)算法容易將部分與正常物體接近的雜物聚類(lèi)為正常物體,故F1 分?jǐn)?shù)較低;當(dāng)m>5 時(shí),隨著m值增大,聚類(lèi)算法容易將部分正常物體聚類(lèi)為雜物,故F1分?jǐn)?shù)迅速降低。根據(jù)聚類(lèi)結(jié)果的緊湊度可得標(biāo)簽0~4 分別對(duì)應(yīng)橡膠、塑料、尼龍、碎紙片、泡沫雜物,標(biāo)簽5~(k-1)對(duì)應(yīng)正常物體。
圖8 不同m值對(duì)雜物檢測(cè)效果的影響Fig.8 Influence of different m values on effectiveness of foreign matter detection
以生產(chǎn)過(guò)程中的一段測(cè)試視頻為例,將訓(xùn)練好的模型轉(zhuǎn)換為T(mén)ensorRT 框架的引擎文件進(jìn)行部署,設(shè)置當(dāng)一個(gè)疑似雜物連續(xù)出現(xiàn)4幀時(shí)確認(rèn)是雜物,檢測(cè)結(jié)果見(jiàn)圖9??梢?jiàn),在第1幀時(shí)已檢測(cè)出疑似雜物(顯示綠色框),直到第4幀時(shí)被判定為真實(shí)雜物(顯示紅色框)并提示異常信息。
圖9 片煙雜物顯著性目標(biāo)檢測(cè)可視化結(jié)果Fig.9 Visualization results of detection foreign matters in tobacco strips
測(cè)試樣本包含生產(chǎn)中常見(jiàn)雜物尼龍、碎紙片、泡沫、橡膠和塑料各160塊。人工在正常片煙中混入各類(lèi)雜物,挑選8組不同雜物數(shù)量的測(cè)試樣本,采用兩級(jí)U-Net 模型分別對(duì)8 組樣本進(jìn)行識(shí)別,結(jié)果見(jiàn)表2??梢?jiàn),8 組中雜物識(shí)別率最低為92.2%,最高為100%,平均識(shí)別率為96.6%,漏檢率均低于8%。表明兩級(jí)U-Net模型能夠?qū)Ω黝?lèi)雜物進(jìn)行準(zhǔn)確檢測(cè),且魯棒性較高。
表2 片煙雜物識(shí)別測(cè)試結(jié)果Tab.2 Detection results of foreign matter identification
由表3 可見(jiàn),因橡膠與片煙顏色差別較大,在測(cè)試過(guò)程中識(shí)別率達(dá)到100%;泡沫面積較大,混入片煙后形態(tài)明顯,識(shí)別率達(dá)到98.1%;碎紙片與塑料面積較小,識(shí)別率均為95.6%;而尼龍形態(tài)細(xì)長(zhǎng),與片煙較為相似,識(shí)別率較低,為93.8%。
表3 不同類(lèi)別雜物識(shí)別率Tab.3 Identification rates of foreign matters of different kinds
提出了一種基于物體顯著性自監(jiān)督學(xué)習(xí)的片煙雜物檢測(cè)方法。先檢測(cè)出片煙圖像中的顯著性目標(biāo),再對(duì)檢測(cè)目標(biāo)進(jìn)行聚類(lèi)分析并剔除正常物體;然后采用基于時(shí)間序列的狀態(tài)累積檢測(cè)方法確定檢測(cè)雜物的真實(shí)度,提高雜物檢測(cè)的穩(wěn)定性。結(jié)果表明:兩級(jí)U-Net 模型的平均IoU 和MAE 分別為0.90 和0.054,均優(yōu)于對(duì)比的BASNet 和U-Net 模型;片煙雜物平均識(shí)別率達(dá)到96.6%;采用TensorRT 框架進(jìn)行部署,圖像處理時(shí)間為21 ms/張,可以滿足現(xiàn)場(chǎng)檢測(cè)實(shí)時(shí)性要求,為實(shí)現(xiàn)片煙生產(chǎn)全自動(dòng)化雜物分類(lèi)識(shí)別提供支撐。