亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于多特征融合圖像分析技術的羊毛與羊絨鑒別

        2019-03-25 06:58:58邢文宇辛斌杰
        紡織學報 2019年3期
        關鍵詞:輪廓線中軸線羊絨

        邢文宇, 鄧 娜, 辛斌杰, 于 晨

        (1. 上海工程技術大學 電子電氣工程學院, 上海 201620; 2. 上海工程技術大學 服裝學院, 上海 201620)

        在紡織工業(yè)及服裝制造領域,羊毛與羊絨一直是十分重要的紡織材料,但是二者的價格、性能差別顯著。由于羊毛和羊絨的形態(tài)結構、顏色特征較為相似,直接用肉眼進行區(qū)分比較困難,所以市場上會出現(xiàn)用羊毛冒充羊絨的現(xiàn)象;因此,快速、準確、高效地鑒別羊毛和羊絨纖維具有非常重要的現(xiàn)實意義[1]。

        羊毛與羊絨纖維的鑒別主要可分為物理鑒別法、化學鑒別法、生物鑒別法以及圖像法4類[2]。2001年,在用掃描電子顯微鏡(SEM)進行鑒別的基礎上,我國檢驗驗疫機構研發(fā)出計算機輔助檢測系統(tǒng)[3],建立了貝葉斯鑒別模型,鑒別的準確率超過90%;陳國華等[4]對羊絨、羊毛在不同條件下NaOH溶液中的溶解度進行測試分析,研究發(fā)現(xiàn),在溫度為65 ℃、堿質(zhì)量分數(shù)為0.75%的溶液中處理30 min時,二者的堿溶度差異達到最大,并依此進行羊毛、羊絨含量的定量分析;TANG等[5]提出一種基于線粒體脫氧核糖核酸(DNA)的纖維分析方法,通過設計聚合酶鏈式反應引物與探針和纖維的線粒體12S核糖體基因進行特異性反應,實現(xiàn)羊絨與羊毛混合物中各組分的定量分析。以上方法對設備要求較高,實驗較為復雜,因此不能被廣泛應用。此外,目前存在的利用圖像法進行纖維識別,主要采用單一紋理特征提取算法,無法較完善地提取纖維信息,導致識別率較低。

        圖2 羊絨的圖像預處理過程圖Fig.2 Preprocessing diagram of cashmere images. (a) Original image; (b) Gray image; (c) Contrast stretching; (d) Logarithm nonlinear transformation; (e) Histogram equalization

        本文將計算機視覺、數(shù)字圖像處理技術應用于纖維識別,提出了一種基于多特征融合的羊毛與羊絨鑒別方法。該方法主要分為3部分:1)預處理,對采集到的羊絨、羊毛圖像進行預處理操作,得到較為清晰且滿足需求的纖維圖像;2)多特征提取,利用灰度共生矩陣提取纖維圖像的紋理特征,并通過中軸線法提取纖維的直徑形態(tài)特征;3)纖維自動分類識別,依據(jù)所提取的纖維紋理及形態(tài)特征融合成一個多維數(shù)組作為聚類算法的輸入,即可對羊絨、羊毛纖維進行自動分類識別。

        1 圖像預處理

        圖1示出在光學顯微鏡下觀察到的羊絨和羊毛的原始圖像??梢杂^察到二者的形態(tài)結構較為相似,無法直接利用肉眼進行識別,而且在圖像采集過程中,難免會出現(xiàn)一些水泡或其他雜質(zhì),因此,需要通過預處理來得到清晰的纖維圖像,進而更好地進行纖維特征的提取與纖維識別。

        圖1 原始羊絨和羊毛顯微鏡圖像(×400)Fig.1 Original microscope images of cashmere (a) and wool (b) (×400)

        由于實驗需要采集羊絨與羊毛的紋理特征以及直徑形態(tài)特征,考慮到2類特征參數(shù)提取所需要的纖維圖像不同,又因為羊絨與羊毛圖像預處理過程較為相似,因此,本文分別以圖1中羊絨與羊毛的纖維圖像為例提出2類預處理流程,并經(jīng)過大量的纖維圖像進行驗證。

        1.1 第1類纖維圖像預處理過程

        以羊絨圖像為例介紹用于灰度共生矩陣紋理提取的第1類圖像預處理流程,如圖2所示,其對應的原始圖像和增強后圖像的灰度直方圖如圖3所示。

        圖3 原始圖像和增強后圖像的灰度直方圖Fig.3 Gray-level histogram of original image (a) and enhanced image (b)

        首先將原始羊絨圖像進行分割,得到去除背景的單一纖維圖像(見圖2(a))。其次將分割后的彩色纖維圖像轉(zhuǎn)化為圖2(b)所示的灰度圖像,并求解其灰度直方圖(見圖3(a))。然后將灰度圖像通過對比度拉伸、對數(shù)非線性變換以及直方圖均衡等方法進行圖像增強,增強后圖像分別如圖2(c)~(e)所示。從3類增強后的圖像可觀察到灰度直方圖均衡后的圖像增強效果更好,增強后纖維圖像的灰度直方圖如圖3(b)所示,因此,本文實驗將利用直方圖均衡算法增強后的纖維圖像用作灰度共生矩陣的紋理特征參數(shù)提取。

        1.2 第2類纖維圖像預處理過程

        圖4 羊毛的圖像預處理過程圖Fig.4 Preprocessing diagram of wool images. (a) Contrast stretching; (b) Logarithm nonlinear transformation; (c) Histogram equalization; (d) Morphological processing; (e) Subtraction operation; (f) Fiber binary image

        以羊毛圖像為例介紹用于中軸線法提取纖維直徑形態(tài)特征的纖維圖像預處理流程,如圖4所示。

        首先將原始羊毛纖維圖像進行灰度化處理,然后同樣利用對比度拉伸、對數(shù)變換、直方圖均衡化3種方法進行纖維圖像增強處理。從3幅處理后圖像可以看出,對于含有背景的纖維圖像,采用對比度拉伸進行圖像增強時效果最為突出,其灰度直方圖如圖5所示。然后對對比度拉伸后的圖像進行形態(tài)學腐蝕運算處理,并將得到的圖像與增強后的圖像進行減法運算,增強纖維輪廓線特征,同時去除纖維背景,最后對得到的圖像進行二值化處理并去除小的噪聲點,即可得到最終用于水平集中軸線法的二值圖像。

        圖5 對比度拉伸增強后圖像的灰度直方圖Fig.5 Gray histogram of image enhancement

        2 紋理特征參數(shù)提取

        2.1 灰度共生矩陣理論

        本文實驗主要采用灰度共生矩陣算法進行纖維紋理特征參數(shù)的提取。灰度共生矩陣[6-7]是通過研究灰度的空間相關特性來描述紋理的常用方法。假設f(x,y)為M×N的二維數(shù)字圖像矩陣(M×N為圖像分辨率),灰度級別為h,則滿足一定空間關系的灰度共生矩陣為

        P(i,j)=#{(x1,y1),(x2,y2)∈M×N|

        f(x1,y1)=i,f(x2,y2)=j}

        式中:#(X)表示集合X中的元素個數(shù),顯然P為h×h的矩陣;若圖像中像素點(x1,y1)與(x2,y2)間距離為d,二者與坐標橫軸的夾角為θ,則可得到各種間距及角度下的灰度共生矩陣P(i,j,d,θ)。其中:d一般可取1、2、3、4等像素個數(shù)值;θ則一般選取0°、45°、90°、135°。

        通過灰度共生矩陣,可提取纖維圖像的二次統(tǒng)計量作為紋理特征參數(shù),本文主要采用角二階距(能量)、熵、慣性矩、相關4個特征來描述羊毛與羊絨纖維圖像的紋理特征。

        2.2 灰度共生矩陣影響因子

        構造灰度共生矩陣過程中,纖維圖像的灰度級、像素間距以及生成的角度三者的選取都會對灰度共生矩陣的構造產(chǎn)生影響[8-9],因此,首先需要確定實驗最優(yōu)的像素灰度等級、像素間距以及生成角度。為此,根據(jù)采集到的羊絨與羊毛各200幅纖維圖像作為樣本進行相關研究。

        1)生成角度的選擇。為避免纖維紋理信息的丟失,需取0°、45°、90°、135°共4個角度的紋理特征參數(shù)的均值作為實驗所需要的特征參數(shù)。

        2)像素間距的選擇。保持像素灰度等級不變(本文實驗選取灰度等級為16級),依次取像素間距d的值為1、2、3、4、5、6、7、8,計算不同d值時各特征參數(shù)變化趨勢,由文獻[8]可知,d=4時可作為構造灰度共生矩陣的最佳像素間距。

        3)像素灰度等級的選擇。隨著像素灰度等級的增加,羊毛與羊絨的特征參數(shù)較為相近,其變化呈現(xiàn)出的趨勢如圖6所示,其中能量與相關2個特征參數(shù)值分別以實際值的100倍和10倍進行展示。由圖中特征參數(shù)變化曲線可知,當像素灰度等級大于64時,羊毛與羊絨的能量、熵以及相關3個特征參數(shù)逐漸趨于穩(wěn)定。此外,考慮到構造灰度共生矩陣的時長問題,像素灰度等級選擇采用64級。

        圖6 紋理特征變化曲線Fig.6 Texture feature change curves

        3 纖維直徑測量

        纖維直徑的求取過程為:首先將預處理過的羊毛或羊絨纖維二值圖像通過區(qū)域生長分割算法得到纖維的輪廓線;其次通過中軸線算法擬合纖維的中軸線,并求取其切線;然后過中軸線與切線的交點做中軸線的垂線,該垂線與纖維輪廓線相交于2點,求取2交點之間的距離即為纖維的直徑。

        3.1 基于區(qū)域生長的纖維輪廓線提取

        區(qū)域生長[10-11]主要是根據(jù)預先定義的生長準則,把像素或子區(qū)域集合成較大區(qū)域的處理方法。其基本處理方法是以一組“種子”點開始,將與該“種子”點具有相似或相同性質(zhì)的點進行合并,并繼續(xù)向外生長,直至沒有滿足條件的像素點被包括進來為止。區(qū)域生長一般有3 個步驟:1)選擇初始點;2)定義生長準則;3)定義終止條件。

        由于纖維輪廓線不是完全封閉的,因此在利用區(qū)域生長對其進行輪廓線提取時,本文采用了2次區(qū)域生長算法分別進行纖維左右輪廓線的提取,如圖7所示。首先,在纖維二值圖像的左輪廓線上選取種子點(如圖7(a)所示的白色圓形標記區(qū)域)并進行區(qū)域生長,得到纖維左邊輪廓線的區(qū)域生長圖像(如圖7(b)所示),由于纖維內(nèi)部存在與纖維邊緣黏連的部分,所以區(qū)域生長時將會產(chǎn)生除纖維輪廓線之外的干擾點(如圖7(b)所示的白色矩形框標注部分),因此,可將其看作噪聲,并對這些孤立的噪聲點進行去噪處理,得到左邊纖維輪廓線,如圖7(c)所示。然后,將其進行細化處理,便可得到單像素的纖維輪廓線,以減少計算纖維直徑時產(chǎn)生的誤差,如圖7(d)所示。同樣纖維右邊輪廓線的提取也是按照此算法操作。最后,只需要將2次區(qū)域生長提取出來的左右2條輪廓線圖像進行融合,便可得到所需要的纖維輪廓線圖像,如圖8所示。

        圖7 纖維輪廓線提取過程Fig.7 Process images of fiber contour extraction. (a)Seed selection; (b) Region growth; (c)Noise removal; (d)Thinning of contour lines

        圖8 纖維輪廓圖Fig.8 Image of fiber counter

        3.2 基于水平集的纖維中軸線提取

        水平集方法[12-13]的核心思想是把n維描述視為高一維的水平集,將低維的一些計算上升到更高一維。用在纖維中軸線求取時,其精度可達到亞像素級別,同時可得到連續(xù)、光滑的纖維中軸線。

        基于水平集的中軸線提取算法主要包括4個步驟[14],分別為:

        1)利用水平集算法對纖維的二值輪廓圖進行分割處理,得到沿著纖維的等值面和水平值信息。

        2)使用快速匹配算法計算處理后圖像內(nèi)部的所有像素點與纖維邊緣的最短距離,獲得最短距離分布圖。

        3)根據(jù)最短距離分布圖信息,利用同樣的方法計算距離纖維輪廓線最遠的像素點A。同時,再次計算纖維內(nèi)部與點A具有最遠距離的像素點B,以及與點B具有最遠距離的像素點C。

        4)運用梯度下降回溯法以C為起點,沿著纖維的方向依次計算所有的纖維中心點,得到完整的纖維中軸線。

        提取結果如圖9所示。

        圖9 纖維中軸線圖Fig.9 Image of fiber axis

        3.3 基于中軸線的纖維直徑測量

        對于纖維直徑的測量[14],主要是計算過中軸線與其切線相交切點的垂線與纖維2條邊緣相交于2點間的直線距離,其直徑求取算法流程如圖10所示。

        圖10 直徑求取算法流程Fig.10 Flow chart of algorithm

        4 K均值聚類算法的應用

        常用的聚類算法有K均值聚類、層次聚類、自組織映射網(wǎng)絡(SOM)聚類等,考慮到運行時間及準確性問題,本文實驗采用K均值聚類算法[15]對數(shù)據(jù)進行分類識別。K均值聚類算法主要以K為參數(shù),將m個對象分成K個簇,使簇內(nèi)對象具有較高的相似度,而簇間各個對象的相似度較低。

        該算法主要處理過程如下:1)隨機選取K個對象,作為每個簇初始的聚類中心;2)對剩余的每個對象,計算其與各簇中心的距離(主要采用歐氏距離),將其賦給最近的簇;3)重新計算每個簇的平均值;4)以上過程不斷重復迭代,直到準則函數(shù)收斂。

        5 實驗過程與結果分析

        本文實驗樣品為南宮市鷹月絨毛有限公司提供的產(chǎn)自澳大利亞的山羊絨與綿羊毛,且纖維是從不同時間段生產(chǎn)的原毛中隨機抽取的。通過OLYMPUS CX41型光學顯微鏡,以400倍的放大倍數(shù)觀察預先制成的羊毛、羊絨纖維樣本,并通過Pooher PDS50相機進行拍照儲存,分別采集了200幅羊絨與200幅羊毛圖像作為實驗用圖像。

        將采集到的纖維圖像經(jīng)過MatLab 2015b進行預處理后,通過灰度共生矩陣算法提取其能量、熵、慣性矩、相關4個纖維紋理特征,并通過水平集中軸線法測取纖維直徑形態(tài)特征,將這5個特征作為描述纖維的五維數(shù)組,共提取到羊絨與羊毛各200組數(shù)據(jù)。最后,通過K均值聚類算法對400組數(shù)據(jù)進行分類識別。

        當使用單一灰度共生矩陣算法進行纖維特征的采集,并將數(shù)據(jù)利用支持向量機進行神經(jīng)網(wǎng)絡訓練與識別[16],且選取的數(shù)據(jù)集中羊毛與羊絨樣本數(shù)量相近或相等時,其識別率如表1所示,識別率平均值達到了91.93%。而利用本文提出的基于多特征融合算法提取纖維特征并利用K均值聚類算法進行羊毛與羊絨自動分類識別時,其實驗結果如表2所示。可以看出,羊毛與羊絨的識別率達到了95.25%,較傳統(tǒng)方法識別率有所提升。

        表1 單一灰度共生矩陣算法識別率Tab.1 Identification rate of single level co-occurrence matrix algorithm

        表2 本文提出算法的識別率Tab.2 Recognition rate of method proposed

        6 結束語

        本文提出的基于多特征融合的羊毛與羊絨的鑒別方法,對采集到的大量羊毛與羊絨樣本進行預處理后,利用灰度共生矩陣算法與水平集中軸線算法相結合的方法提取纖維的紋理與形態(tài)特征,并利用K均值聚類算法對采集到的纖維特征進行纖維的分類識別。其結果顯示,羊絨與羊毛的根數(shù)識別率達到95.25%,與傳統(tǒng)的識別方法相比,識別率較高,因此,本文方法能夠作為一種識別羊毛與羊絨的方法。但是本文研究僅對普通的羊毛與羊絨進行鑒別,由于纖維種類繁多且在生長過程中容易發(fā)生變異,因此還需要采集更多的羊毛與羊絨纖維樣本補充實驗數(shù)據(jù),進而更好地提高鑒別的精確程度。

        FZXB

        猜你喜歡
        輪廓線中軸線羊絨
        漫畫北京中軸線(三)
        《穿越北京中軸線》簡介
        行走中軸線 尋找城市靈魂
        中國收藏(2023年6期)2023-06-08 21:13:31
        羊絨鼯鼠新物種被發(fā)現(xiàn)
        基于HTML5的凸輪廓線圖解法App教學軟件研究
        “瀾點杯”第二屆羊絨色彩設計大賽暨瀾點羊絨第八屆品質(zhì)日大會
        流行色(2018年5期)2018-08-27 01:01:32
        節(jié)日帽
        多輪廓線的三維形體重構技術研究與實現(xiàn)*
        基于鼻子下輪廓線的鼻尖定位法
        綿羊絨不等于羊絨
        粉嫩极品国产在线观看免费一区| 欧美亚洲色综久久精品国产| 欧美性大战久久久久久久| 2021年最新久久久视精品爱| 吃下面吃胸在线看无码| 国产一区二区三区av香蕉| 亚洲中文字幕乱码第一页| 亚洲 欧美 综合 在线 精品| 特级av毛片免费观看| 久久久久中文字幕精品无码免费| 亚洲视频中文字幕更新| 插入日本少妇一区二区三区| 国产av久久久久精东av| 国产福利酱国产一区二区| 乱人伦人妻中文字幕无码| 亚洲熟女少妇精品久久| 美丽的小蜜桃在线观看| 国产99久久久国产精品免费看| 亚洲色大网站www永久网站| 毛片毛片免费看| 国产噜噜亚洲av一二三区| 日本久久精品福利视频| 激情内射亚洲一区二区三区| 日日碰狠狠添天天爽| 久久国产精彩视频| 女同同成片av免费观看| 无套无码孕妇啪啪| 久久综合久久鬼色| 久久青草国产免费观看| 久久精品亚洲94久久精品| 老师露出两个奶球让我吃奶头| 亚洲国产精品嫩草影院久久| 国色天香精品亚洲精品| 高清不卡日本v二区在线| 久久99精品久久水蜜桃| 麻豆91免费视频| 国产激情久久久久久熟女老人| 麻豆三级视频网站在线观看| 亚洲熟女精品中文字幕| 国产999精品久久久久久| 自拍视频国产在线观看|