邢 樂(lè), 張 杰, 梁惠娥, 李忠健, 劉姣姣
(1. 江南大學(xué) 紡織服裝學(xué)院, 江蘇 無(wú)錫 214122; 2. 江蘇省服飾類非物質(zhì)文化遺產(chǎn)研究基地, 江蘇 無(wú)錫 214122; 3. 香港理工大學(xué) 紡織及制衣學(xué)系, 香港 九龍 999077)
傳統(tǒng)服飾云肩實(shí)物圖像主色的智能檢測(cè)
邢 樂(lè)1,2, 張 杰3, 梁惠娥1,2, 李忠健1, 劉姣姣1,2
(1. 江南大學(xué) 紡織服裝學(xué)院, 江蘇 無(wú)錫 214122; 2. 江蘇省服飾類非物質(zhì)文化遺產(chǎn)研究基地, 江蘇 無(wú)錫 214122; 3. 香港理工大學(xué) 紡織及制衣學(xué)系, 香港 九龍 999077)
為解決獲取傳統(tǒng)服飾實(shí)物圖像色彩耗時(shí)且缺乏準(zhǔn)確性問(wèn)題,以傳統(tǒng)服飾的云肩為例,借助均值漂移(Mean-shift)聚類法,提出了一種檢測(cè)傳統(tǒng)服飾實(shí)物圖像顏色的方法。運(yùn)用單反數(shù)碼相機(jī)進(jìn)行實(shí)物圖像采集;對(duì)所得初始圖像的R、G、B3個(gè)顏色通道進(jìn)行去噪處理;再將圖像RGB顏色空間的特征向量轉(zhuǎn)換至CIE L*a*b*顏色空間中,利用大津法閾值原理(自適應(yīng)閾值算法)分割被測(cè)圖像中云肩實(shí)物與背景;最后采用Mean-shift聚類算法,將被測(cè)圖像的顏色像素分割為若干有效的集群,同時(shí)從這些集群中提取云肩主要色彩。實(shí)驗(yàn)結(jié)果表明,該算法可較為準(zhǔn)確地從云肩圖像中提取主色,且當(dāng)Mean-shift聚類算法的帶寬被設(shè)定為0.05時(shí),分類顏色結(jié)果更為準(zhǔn)確。
云肩; 主色; 均值漂移聚類算法; CIE L*a*b*顏色模型; 顏色檢測(cè)
傳統(tǒng)服飾色彩是中華民族歷史積淀而成的一種獨(dú)特的藝術(shù)現(xiàn)象,是人類豐富的文化遺產(chǎn)。因近年來(lái)傳統(tǒng)文化保護(hù)意識(shí)不斷加強(qiáng),傳統(tǒng)服飾色彩研究成為熱點(diǎn)。已有成果大都集中于探討服飾色彩時(shí)間縱軸的歷史性變化或地域橫軸的族群差異,相關(guān)技術(shù)性研究仍較少。特別是對(duì)傳統(tǒng)服飾實(shí)物圖像顏色辨別大都依賴于肉眼識(shí)別比對(duì),這種方法受到操作環(huán)境與操作者生理、心理等因素的影響,準(zhǔn)確性難以保障。
本文借助計(jì)算機(jī)圖像處理技術(shù),以傳統(tǒng)服飾云肩為例,基于均值漂移(Mean-shift)聚類算法提出一種服飾圖像主色智能檢測(cè)與提取方法,以期為不同類別的服飾圖像色彩識(shí)別與分類提供指導(dǎo)。
云肩是披掛在人體肩部兼具審美與實(shí)用功能的典型漢族民間服飾品,最早出現(xiàn)在隋唐五代時(shí)期石刻宗教人物形象中,為仙人佩戴或舞女樂(lè)伶表現(xiàn)柔美仙化的舞姿穿著[1]。宋至明清很長(zhǎng)的歷史時(shí)期內(nèi),云肩大都為宮廷和貴族婦女的禮服。清末,云肩由宮廷拓展到民間,成為漢族女性婚禮、宴會(huì)、祭祀等場(chǎng)合約定俗成的禮儀服飾[2]。相比其他傳統(tǒng)民間服飾品,云肩裝飾精美,色彩豐富,以此為例研究傳統(tǒng)服飾實(shí)物圖像色彩檢測(cè)具有代表性。
已有研究[3]將云肩色彩歸納為3種,即主色、輔色及裝飾色。一般來(lái)說(shuō),主色指云肩的主體顏色,為拋開(kāi)裝飾以外的面料底色。輔色即輔助用色,多指為滿足服飾整體與局部造型需求,貼邊、鑲邊、滾邊等工藝需求而形成的色彩,以具有調(diào)和作用的黑、藍(lán)、金、銀等色為主,對(duì)云肩整體色彩視覺(jué)屬性影響不顯著;裝飾用色指服裝中刺繡圖案、流蘇等裝飾物的色彩,細(xì)碎繁瑣,塊面比例較少。本文主要探討對(duì)云肩主色即繡片底色的智能提取。圖1示出傳統(tǒng)服飾云肩色彩分類舉例。
圖1 傳統(tǒng)服飾云肩色彩分類舉例Fig.1 Example of Yunjian color classification
對(duì)已有采用色彩聚類的方法從織物或服飾中分離顏色的文獻(xiàn)進(jìn)行了檢索。文獻(xiàn)[4]采用聚類算法K-means來(lái)分離多色織物信息。文獻(xiàn)[5]通過(guò)對(duì)面料質(zhì)地差異性的分析,得到品質(zhì)較高的圖像信息。隨后,轉(zhuǎn)換圖像色彩空間,利用區(qū)域模糊的方法,在CIE L*a*b*顏色空間中分割圖像的顏色,研究結(jié)果表明此方法適用于機(jī)織、針織面料實(shí)物圖像的色彩分割。同樣,在CIE L*a*b*顏色空間中,文獻(xiàn)[6]討論了機(jī)器繡花圖像的顏色分割,采用中值濾波與雙邊濾波的方法平滑處理被測(cè)圖像,并采用Gustafson-Kessel算法聚類分析了圖像顏色,將其結(jié)果與模糊C均值聚類算法、K-means、自組織神經(jīng)網(wǎng)絡(luò)算法、K-medoids等方法進(jìn)行了對(duì)比,實(shí)驗(yàn)結(jié)果表明該算法可在機(jī)器刺繡紋樣圖案中聚類出較高精度的顏色。以上文獻(xiàn)為本文研究提供了思路,但傳統(tǒng)服飾云肩大多數(shù)為手工制作,刺繡紋樣并不規(guī)整,且輔助用色與裝飾色會(huì)對(duì)主體色彩的分割造成干擾,由此可見(jiàn),已有色彩分割方法對(duì)傳統(tǒng)服飾主色的獲取不夠準(zhǔn)確。由此本文提出如圖2所示的檢測(cè)方法與研究框架。
圖2 研究方法與框架Fig.2 Research method framework
第1步,采用單反相機(jī)捕捉傳統(tǒng)服飾云肩實(shí)物圖像;第2步,借鑒已有研究成果,通過(guò)中值濾波法對(duì)獲取子圖像的R、G、B3個(gè)顏色通道去噪;第3步,重建濾波后的圖像,同時(shí)將圖像由RGB顏色空間轉(zhuǎn)換至CIE L*a*b*顏色空間;第4步,對(duì)圖像中云肩主體與背景進(jìn)行大津閾值分割;第5步,采用Mean-shift算法對(duì)圖像顏色像素進(jìn)行聚類分析;最后,通過(guò)手動(dòng)聚類閾值的輸入,從聚類結(jié)果中提取出云肩的主要顏色。
3.1云肩圖像獲取
云肩一般由漢族女性在婚禮上穿著,包裹女性身體,尺寸較大,因此在黑色[L,a,b]=[20,-0.8,-2.4]背景,LED光源、垂直拍攝距離3 m條件下,選用佳能EOS500D數(shù)碼相機(jī)(EF50 mmf/1.4 USM鏡頭),獲取實(shí)物尺寸為90 cm×90 cm的云肩初始圖像。圖3示出獲取的云肩原始JPEG圖像(尺寸為1 991像素×2 010像素)。其次,基于雙線性插值法[7]對(duì)獲取圖像進(jìn)行材質(zhì)影像的插補(bǔ)處理。被測(cè)云肩放置在相同黑色背景下,實(shí)物顏色鮮艷與背景差異較大,該方法對(duì)于實(shí)物與背景顏色劃分清晰的圖像處理效果較好,不僅不會(huì)對(duì)處理圖像造成負(fù)面影響,而且可減少計(jì)算時(shí)間,同時(shí)輸出圖像是原始圖像2倍運(yùn)算的結(jié)果。
3.2云肩圖像過(guò)濾
考古服飾以及服飾傳世品會(huì)因人穿著過(guò)而帶有污跡,因此若要分離色彩,需要利用中值濾波法對(duì)圖像進(jìn)行去噪處理。中值濾波法的主要原理是選擇數(shù)碼圖像中任一像素點(diǎn),與領(lǐng)域范圍內(nèi)周邊像素點(diǎn)逐一比對(duì),并以此測(cè)定該任選像素點(diǎn)可否表示周圍色彩環(huán)境。依次比對(duì)后,與領(lǐng)域內(nèi)灰度差較大的點(diǎn)取該鄰域范圍內(nèi)的中值,由此除去孤立的噪點(diǎn),從而提高圖像的顏色分離精度和質(zhì)量[8-9]。其要點(diǎn)是在定義領(lǐng)域內(nèi)獲取所選樣本的平均值,那么領(lǐng)域范圍的大小,即窗口的尺寸設(shè)定則成為影響被測(cè)圖像品質(zhì)的重要因素。
圖3 被測(cè)云肩初始圖像Fig.3 Original image of measured Yunjian
圖4示出被測(cè)云肩初始圖像與中值濾波后圖像對(duì)比。窗口大小設(shè)置為5像素×5像素,對(duì)子圖像R、G、B3個(gè)顏色通道進(jìn)行中值濾波處理,不僅消除了圖像中的污漬以及云肩散開(kāi)的邊緣線,同時(shí)保留了圖像的有效顏色信息。
圖4 被測(cè)云肩初始圖像與濾波后圖像Fig.4 Original and filtered Yunjian images.(a)Original costume sub-images in R channel; (b)Original costume sub-images in G channel; (c) Original costume sub-images in B channel; (d) Original RGB continuous image; (e)Filtered costume sub-images in R channel; (f)Filtered costume sub-images in G channel; (g)Filtered costume sub-images in B channel; (h) Filtered RGB continuous image
3.3圖像色彩空間轉(zhuǎn)化
RGB顏色空間由R、G、B3個(gè)分量表示,不同分量之間相關(guān)度較高,某個(gè)單獨(dú)分量不能確定顏色信息[10]。人眼視覺(jué)上的色彩區(qū)別度與實(shí)物顏色感知
與CIE L*a*b*色彩空間中2點(diǎn)間的歐氏距離協(xié)調(diào)性與統(tǒng)一性較高,因此需將云肩實(shí)物圖像色彩空間由非均勻線性的RGB顏色空間轉(zhuǎn)為CIE L*a*b*色彩空間,以便在圖像模型分割中通過(guò)高斯函數(shù)的變化度量顏色質(zhì)地的變化[11]。由此,本文實(shí)驗(yàn)借助CIEXYZ顏色空間連接RGB顏色空間和CIE L*a*b*顏色空間,相互轉(zhuǎn)化如下所示。
1)RGB顏色空間轉(zhuǎn)換為CIEXYZ顏色空間:
(1)
式中:X、Y、Z為CIEXYZ顏色空間色度坐標(biāo)值;r、g、b分別代表RGB顏色空間中3個(gè)顏色通道的灰度值。
2)CIEXYZ顏色空間轉(zhuǎn)換到CIE L*a*b*顏色空間:
(2)
(3)
式中,Xn、Yn、Zn為RGB 3個(gè)可參考的刺激值。轉(zhuǎn)換后,L、a、b的閾值分別在0~100、-128 ~+128、-128~+128范圍內(nèi)。
3.4云肩圖像背景分離
首先通過(guò)測(cè)量,確定圖像背景平均的L*a*b*顏色(背景顏色用q表示,其顏色值為(Lc,ac,bc)),然后依照其背景顏色分離出云肩實(shí)物主體圖像。
首先,在CIE L*a*b*顏色空間中,通過(guò)式(4)計(jì)算出檢測(cè)圖像中云肩實(shí)物主體與圖像背景顏色的歐氏距離:
(4)
式中:p為圖像中的1個(gè)像素,其顏色值為(Li,ai,bi)。色彩由黃到藍(lán)色的變化表示距離值d逐漸增大,云肩主體與背景的L*a*b*值反差增大,如圖5(a)所示。由此可見(jiàn),歐式距離d值可用作被測(cè)圖像中實(shí)物與背景分割的有效依據(jù)。
其次,采用大津閾值分割算法[12-13],以所得距離d值為基點(diǎn)來(lái)確定圖像自動(dòng)分割的閾值,分離其云肩主體物(白色像素點(diǎn))與背景(黑色像素點(diǎn),如圖5(b)所示)。
圖5 分割圖像 Fig.5 Segmented image. (a) Transformation image from Euclidean distance; (b) Binary image
3.5聚類云肩色彩
Comaniciu等[14]提出的Mean-shift算法因其數(shù)據(jù)處理計(jì)算量小,流程簡(jiǎn)便,易實(shí)施,并且可保留被測(cè)圖像的主要信息,已被大范圍應(yīng)用在如圖像計(jì)算機(jī)處理等視覺(jué)領(lǐng)域。
假設(shè)一個(gè)循環(huán)的窗口中心點(diǎn)為C,核函數(shù)K(x)的帶寬為h,N為采樣點(diǎn)xi的個(gè)數(shù)(i=1, 2,…,N,xi∈Ω),用核函數(shù)K(x)估計(jì)x點(diǎn)的概率密度,如式(5)所示。
(5)
核函數(shù)K(x-xi)通常由一個(gè)單值函數(shù)或高斯函數(shù)組成,其中高斯函數(shù)如式(6)所示。
(6)
式中c為對(duì)應(yīng)高斯曲線的峰值。均值偏移量會(huì)指向樣本點(diǎn)最密的方向,Mean-shift向量m(x) 隨之也會(huì)移動(dòng)到樣本點(diǎn)比對(duì)點(diǎn)x變化最多的地方,進(jìn)而形成了密度變化的梯度方向。則Mean-shift向量m(x)為
(7)
式中g(shù)(x)=-K′(x),K′(x)為核函數(shù),因此可基于式(7)獲取圖像均值偏移聚類分析。在CIE L*a*b*色彩空間中,利用Mean-shift聚類算法分割云肩的不同差值像素點(diǎn),隨后從聚類結(jié)果中提取出云肩圖像的主色。
已有研究[15]顯示,聚類分割帶寬h值是決定Mean-shift迭代過(guò)程的重要參數(shù),將會(huì)影響聚類結(jié)果的質(zhì)量與分割時(shí)間。在該實(shí)驗(yàn)中,帶寬h值被暫時(shí)設(shè)置為0.05,云肩實(shí)物圖像色彩聚類結(jié)果如圖6顏色均值漂移聚類類別標(biāo)簽所示。
圖6 顏色均值漂移聚類類別標(biāo)簽Fig.6 Mean-shift clustering category label
3.6云肩主體色彩提取
如圖6所示,通過(guò)聚類分割獲取多個(gè)云肩顏色分類集群,其主體色彩依照每個(gè)顏色集群中像素?cái)?shù)量劃分。手動(dòng)輸入預(yù)獲得被測(cè)圖像的主要色彩數(shù)值N,根據(jù)聚類結(jié)果中像素?cái)?shù)量,數(shù)量多的色彩將依次被選擇出來(lái)。圖7示出被測(cè)云肩提取出的4種主體色彩。
圖7 聚類分析結(jié)果Fig.7 Clustering result. (a) Clustering result image of measured Yunjian; (b) Dominant color 1; (c) Dominant color 2; (d) Dominant color 3
4.1中值濾波窗口尺寸
為取得最優(yōu)的圖像濾波處理效果,采用3像素×3像素、5像素×5像素、7像素×7像素3種不同窗口尺寸進(jìn)行中值濾波處理。測(cè)試結(jié)果顯示,濾波中獲得的離散像素點(diǎn)數(shù)量與濾波窗口尺寸呈反比例關(guān)系,隨著濾波窗口數(shù)值增大而降低,聚類分割色彩集群數(shù)量也隨之減少。實(shí)驗(yàn)設(shè)定的濾波窗口尺寸不同,結(jié)果差異性明顯。綜合以上實(shí)驗(yàn),為保留色彩集群的數(shù)量不變,同時(shí)盡量減少在圖像分割結(jié)果中離散的像素點(diǎn)數(shù)量,設(shè)定濾波窗口k的尺寸為5像素×5像素,對(duì)云肩的實(shí)物圖像進(jìn)行過(guò)濾。
4.2帶寬對(duì)Mean-shift聚類效果影響
為得到最佳的色彩聚類結(jié)果,在中值濾波窗口尺寸等參數(shù)一致的條件下,選用不同帶寬值h對(duì)同個(gè)云肩圖像進(jìn)行主色聚類分割測(cè)試,被測(cè)圖像由93 200個(gè)像素點(diǎn)構(gòu)成。首先,將被測(cè)圖像的像素點(diǎn)數(shù)值輸入Mean-shift聚類算法;其次,利用色差公式CMC(1∶c)[16]測(cè)試該實(shí)驗(yàn)智能方法和通過(guò)人眼視覺(jué)比對(duì)而獲取的被測(cè)圖像主體顏色的差異。其中,色差均值△E[17]是色差測(cè)試的一個(gè)重要單位,是指在均勻的顏色感知空間中,人眼能夠識(shí)別到的色差。通過(guò)設(shè)置不同的h值,顏色的聚類數(shù)量、計(jì)算時(shí)間以及CMC(2∶1)色差(△E)均值的變化,結(jié)果如表1所示。
表1 選取不同帶寬h值下計(jì)算時(shí)間和色彩值變化Tab.1 Data change of computation time and △E with different band widths
由表1可知:1)隨Mean-shift聚類帶寬h值的線性增加,實(shí)驗(yàn)計(jì)算時(shí)間逐步減少,但是,當(dāng)帶寬h>0.07時(shí),被測(cè)圖像聚類分割所得顏色子集數(shù)量少于3。當(dāng)帶寬h=0.01時(shí),計(jì)算時(shí)間顯著增加,因此,Mean-shift聚類參數(shù)帶寬h值應(yīng)設(shè)置0.02~0.08之間;2)3個(gè)主體色彩的色差均值△E與帶寬h值首先呈正比例關(guān)系,隨帶寬h值線性增加而遞增,后又逐步減少;3)△E與人眼識(shí)別比對(duì)獲取的顏色相似性表現(xiàn)出反比例關(guān)系。本文實(shí)驗(yàn)為進(jìn)一步保證取得最優(yōu)值,將帶寬h值分別設(shè)定為0.04、0.05、0.07來(lái)計(jì)算△E值,其結(jié)果分別為1.86、1.6、2.28。由此可知,當(dāng)帶寬h值為0.05時(shí),色差△E的和值最小。
綜上所述,本文實(shí)驗(yàn)將Mean-shift聚類的影響參數(shù)帶寬h值設(shè)定為0.05,對(duì)被測(cè)云肩實(shí)物圖像色彩聚類,其結(jié)果最為準(zhǔn)確。
本文探討了從我國(guó)傳統(tǒng)服飾云肩圖像中提取主色的方法。通過(guò)單鏡頭反光相機(jī)獲取云肩實(shí)物初始圖像,并分別對(duì)子圖像R、G、B3個(gè)顏色通道進(jìn)行中值濾波處理。其次,在CIE L*a*b*顏色空間中,利用大津閾值算法(自適應(yīng)閾值算法)與圖像數(shù)字處理技術(shù),分離被測(cè)圖像中云肩的實(shí)物主體與背景。第三,通過(guò)Mean-shift聚類算法對(duì)構(gòu)成被測(cè)圖像的所有像素點(diǎn)進(jìn)行分類,獲取不同像素點(diǎn)數(shù)量的集群,同時(shí)從其集群結(jié)果中提取出云肩圖像的主體色彩。實(shí)驗(yàn)對(duì)影響中值濾波效果的窗口尺寸k以及Mean-shift算法中帶寬h的大小進(jìn)行了討論。當(dāng)k=5和h=0.05時(shí),本文實(shí)驗(yàn)方法從云肩實(shí)物圖像中提取的顏色與實(shí)物圖像比對(duì)獲取的顏色最接近。該實(shí)驗(yàn)驗(yàn)證了本文提出的數(shù)字圖像處理技術(shù),與人眼辨別與手工提取的方法相比,可使我國(guó)傳統(tǒng)服飾實(shí)物圖像顏色的智能提取更有效率。
FZXB
[1] 薛再年,王閃閃,崔榮榮.魯南民間云肩及其制作技藝探究[J].紡織學(xué)報(bào),2013,34(3):109-115.
XUE Zainian, WANG Shanshan, CUI Rongrong. Folk Yunjian in South Shandong and its workmanship[J]. Journal of Textile Research, 2013,34(3):109-115.
[2] 邢樂(lè),梁惠娥,劉水. 民間服飾云肩中人物紋樣的語(yǔ)義考析[J].藝術(shù)設(shè)計(jì)研究,2015,24(1): 54-60.
XING Le, LIANG Hui′e, LIU Shui. Figure patterns of folk costume-Yunjian and its significance[J].Art & Design Research, 2015,24(1): 54-60.
[3] 梁惠娥,邢樂(lè). 中國(guó)最美云肩情思回味之文化[M].鄭州:河南文藝出版社,2013:143-144.
LIANG Hui′e, XING Le. Chinese Traditional Folk Dress Adornments-Yunjian Culture Research[M]. Zhengzhou: Henan Literature & Art Publishing House, 2013:143-144.
[4] ZHANG J, XIN B J, SHEN C C, et al. Novel colour clustering method for interlaced multi-colored dyed yarn woven fabrics[J]. Fibres & Textiles in Eastern Europe, 2015,23(3): 107-114.
[5] ZHENG D. A new method for automatic separation of fabric color[J]. Textile Research Journal, 2015,85(14): 1520-1538.
[6] KUO C F J, JIAN B L, TUNG C P, et al. Automatic machine embroidery image color analysis system, part II: application of the genetic algorithm in search of a repetitive pattern image[J]. Textile Research Journal, 2012,82(11): 1099-1106.
[7] KIRKLAND E J. Advanced Computing in Electron Microscopy[M]. New York: Springer, 2010: 261-263.
[8] BROWNRIGG D. The weighted median filter[J]. Communication Association Computer Machine,1984,27(8):807-818.
[9] 趙高長(zhǎng),張磊,武風(fēng)波.改進(jìn)的中值濾波算法在圖像去噪中的應(yīng)用[J].應(yīng)用光學(xué),2011,32(4):678-682.
ZHAO Gaochang, ZHANG Lei, WU Fengbo. Application of improved median filtering algorithm to image denoising[J]. Journal of Applied Optics, 2011,32(4):678-682.
[10] 盧雨正,高衛(wèi)東. 基于圖像分割的拼色紡織品分色算法[J].紡織學(xué)報(bào),2012,33(9):55-60.
LU Yuzheng, GAO Weidong. Color separation algorithm for mixed dyed textiles based on image segmenta-tion[J].Journal of Textile Research, 2012,33(9):55-60.
[11] PAN R R, GAO W D, LIU J H. Automatic detection of the layout of color yarns for yarn-dyed fabric via a FCM algorithm[J]. Textile Research Journal, 2010,80(12): 1222-1231.
[12] WANG Y, NAVARRO L, ZHANG Y, et al. Intracranial aneurysm phantom segmentation using a 4D lattice Boltzmann method[J]. Computing in Science & Engineering, 2017, 19(4): 56-67.
[13] 邢樂(lè). 近代中原地區(qū)漢族服飾文化流變與其現(xiàn)代傳播研究[D]. 無(wú)錫:江南大學(xué),2016:63-67.
XING Le. Study on evolution and modern communication of Han Nation′s costumes in Neoteric central plains of China[D]. Wuxi: Jiangnan University, 2016:63-67.
[14] TSAI D M, LUO J Y. Mean shift-based defect detection in multicrystalline solar wafer surfaces[J]. Browse Journals & Magazines, Industrial Informatics IEEE Transactions on, 2011,7(1): 125-135.
[15] COMANICIU D, MEER P. Mean shift: a robust approach toward feature space analysis[J].IEEE Trans Pattern Anal Mach Intell, 2002,24: 603-619.
[16] HEGGIE D, WARDMAN R, LUO M. A comparison of the colour differences computed using the CIE94, CMC(1∶c) and BFD(1∶c) formulae[J]. Journal of the Society of Dyers and Colourists, 2008,112(10): 264-269.
[17] ASPLAND J R, DUNLAP K L, DAN R T. Improved methods for colour inventory management in the apparel industry[J]. International Journal of Clothing Science and Technology, 1989,4(2/3): 66-70.
IntelligentinspectionofdominantcolorsforChinesetraditionalfolkYunjian
XING Le1,2, ZHANG Jie3, LIANG Hui′e1,2, LI Zhongjian1, LIU Jiaojiao1,2
(1.CollegeofTextilesandClothing,JiangnanUniversity,Wuxi,Jiangsu214122,China; 2.JiangsuIntangibleCulturalHeritageResearchBase,Wuxi,Jiangsu214122,China; 3.InstituteofTextileandClothing,TheHongKongPolytechnicUniversity,Kowloon,HongKong999077,China)
In order to solve the problems of time-consuming and poor accuracy during the process of achievement colors from the images of traditional costumes, an effective color clustering method was developed for Chinese traditional costumes Yunjian image using Mean-shift clustering algorithm. A digital Single Lens Reflex camera was used to capture the costumes images. The sub-images in the three color channels were filtered by median filter separately. Then the filtered images were segmented based on the background color in the CIE L*a*b*color space, and the object costumes was separated from the background. Finally, the pixels of the costume image were classified into several clusters by Mean shift clustering algorithm, and the dominate colors were extracted from the classification results. The experimental results demonstrate that the proposed method can extract the dominant colors from costumes images with great accuracy especially when the bandwidth of Mean-shift clustering algorithm is set as 0.05.
Yunjian; dominant color; Mean-shift clustering algorithm; CIE L*a*b*color model; color inspection
10.13475/j.fzxb.20160900107
TS 941.1
A
2016-09-01
2017-07-24
中央高校基本科研業(yè)務(wù)費(fèi)專項(xiàng)資金項(xiàng)目(JUSRP51417B)
邢樂(lè)(1987—),女,講師,博士。主要研究方向?yàn)榉椛逝c服裝現(xiàn)代技術(shù)。梁惠娥,通信作者,E-mail:lianghe@jiangnan.edu.cn。