摘 要:針對(duì)傳統(tǒng)稀疏貝葉斯算法中字典列之間較強(qiáng)的相互一致性導(dǎo)致的重構(gòu)性能下降問題,提出了一種基于變分貝葉斯期望最大化的一致受限字典織物圖像重構(gòu)模型(CCD-VBEM)??紤]織物圖像的真實(shí)應(yīng)用場(chǎng)景,采用多層先驗(yàn)的稀疏貝葉斯學(xué)習(xí)(SBL)模型進(jìn)行建模,并通過VBEM方法求解后驗(yàn)分布近似值,從而構(gòu)建SBL-VBEM模型。由于SBL-VBEM模型的重構(gòu)結(jié)果仍然受字典矩陣的相關(guān)性影響,因此通過減少字典列之間的相互一致性來改善重構(gòu)結(jié)果。首先,通過S形函數(shù)的拓?fù)浣Y(jié)構(gòu)獲得收縮因子;然后,在獲取一致受限字典的每次迭代中,利用收縮因子縮小字典矩陣中最大非對(duì)角項(xiàng)的鄰域間隔;最后,將獲取的一致受限字典作為SBL-VBEM模型的輸入,獲得更有效的重構(gòu)織物圖像。對(duì)CCD-VBEM模型在阿里云天池?cái)?shù)據(jù)集上進(jìn)行驗(yàn)證,驗(yàn)證結(jié)果表明,在不同采樣率(0.20~0.40)下,CCD-VBEM模型對(duì)織物圖像的重構(gòu)均獲得最優(yōu)性能。
關(guān)鍵詞:織物圖像;重構(gòu);一致受限字典;變分貝葉斯期望最大化;收縮因子
中圖分類號(hào):TP181
文獻(xiàn)標(biāo)志碼:A
文章編號(hào):1009-265X(2024)09-0117-10
收稿日期:2023-12-13
網(wǎng)絡(luò)出版日期:2024-03-20
基金項(xiàng)目:國(guó)家自然科學(xué)基金項(xiàng)目(U1709219,61601410);浙江省科技廳重點(diǎn)研發(fā)計(jì)劃項(xiàng)目(2021C01047,2022C01079);產(chǎn)業(yè)技術(shù)基礎(chǔ)公共服務(wù)平臺(tái)項(xiàng)目(2021-0174-1-1)
作者簡(jiǎn)介:陳影柔(1999—),女,貴州黔西南州人,碩士研究生,主要從事計(jì)算機(jī)視覺方面的研究。
通信作者:呂文濤,E-mail:alvinlwt@zstu.edu.cn
隨著數(shù)字化轉(zhuǎn)型的發(fā)展,紡織業(yè)逐步數(shù)字化、智能化和自動(dòng)化,人工分揀、人工檢查被優(yōu)秀的計(jì)算機(jī)視覺算法和精密的儀器所替代,實(shí)現(xiàn)高精度、高效率、低成本和低損耗的生產(chǎn)[1-2]。在大數(shù)據(jù)時(shí)代下,圖像數(shù)據(jù)日益增多,然而硬件對(duì)圖像數(shù)據(jù)處理能力終究受限,因此,為了提高智能紡織業(yè)的核心競(jìng)爭(zhēng)力,需要大力提高計(jì)算機(jī)視覺算法軟實(shí)力。在智能紡織工業(yè)生產(chǎn)中,織物圖像的采集、傳輸、存儲(chǔ)、檢測(cè)等環(huán)節(jié)都是不可或缺的,而傳輸作為關(guān)鍵的一環(huán)影響著織物圖像數(shù)據(jù)的處理能力。然而圖像在傳輸過程中總存在壓縮損失??椢飯D像本身的規(guī)則紋理因失真而被破壞[3],會(huì)導(dǎo)致織物缺陷檢測(cè)[4]、織物紋理表征[5]、織物密度檢測(cè)[6]等其他算法的性能受限。為了降低織物圖像在傳輸過程中受到壓縮損失,稀疏表示和稀疏重構(gòu)可以很好地解決了這一問題。
稀疏表示是在織物圖像的傳輸過程中對(duì)圖像進(jìn)行壓縮,稀疏重構(gòu)則是對(duì)壓縮的數(shù)據(jù)進(jìn)行圖像的恢復(fù)。稀疏表示通過測(cè)量矩陣將原始數(shù)據(jù)稀疏化,原始數(shù)據(jù)不僅可以簡(jiǎn)潔地表達(dá),還提取出有效的特征信息。稀疏表示的前提是圖像可以被精確重構(gòu)[7]。稀疏重構(gòu)算法作為稀疏表示的逆問題[8],在計(jì)算機(jī)視覺領(lǐng)域獲得許多成果,例如壓縮感知[9]、圖像處理[10]、圖像去噪[11]、圖像重構(gòu)[12]等。稀疏重構(gòu)通過測(cè)量矩陣將稀疏信號(hào)投影到低維空間進(jìn)行求解,使得原始信號(hào)在不丟失信息的前提下大概率地被重構(gòu)[13]。稀疏重構(gòu)算法最終的重構(gòu)效果取決于產(chǎn)生優(yōu)化過程的重構(gòu)模型。根據(jù)稀疏表示理論,通常將稀疏表示模型表示為:
y=Dω(1)
式中:y∈RM×1表示觀測(cè)信號(hào),D∈RM×N表示測(cè)量矩陣(也稱為字典),ω∈RN×1表示待估計(jì)的稀疏解向量,M與N表示維度。
由于稀疏表示的建模簡(jiǎn)單,稀疏重構(gòu)模型的優(yōu)化方向可以分為以下兩種。一種是通過優(yōu)化字典D來提高重構(gòu)性能[14-17]。Jiang等[14]提出了一種用于人臉和對(duì)象類別識(shí)別的K奇異值分解(K-Singular value decomposition,K-SVD)字典學(xué)習(xí)方法,即引入新的標(biāo)簽一致性約束,并將其與重構(gòu)誤差相結(jié)合,形成統(tǒng)一的目標(biāo)函數(shù),從而獲得良好的重構(gòu)效果。Jing等[15]提出了一種卷積匹配追蹤雙字典算法來檢測(cè)圖案化織物圖像中的缺陷。Zhan等[16]提出了一種區(qū)分共享字典學(xué)習(xí)模型,通過基于低秩約束和相似性約束來優(yōu)化字典,該模型有效地提取了特定類圖像的特征。這些方法側(cè)重于詞典學(xué)習(xí)的優(yōu)化設(shè)計(jì),然而大多數(shù)模型沒有很好地考慮字典矩陣列之間的互相關(guān)性;當(dāng)互相關(guān)性較強(qiáng)時(shí),這可能讓自然圖像的重構(gòu)性能提升總是存在一個(gè)上限。
另一種則是通過求解最優(yōu)稀疏信號(hào)ω來精確重構(gòu)圖像[18-20],求解的方法可以大致分為3種:貝葉斯、貪婪迭代以及最優(yōu)逼近。稀疏貝葉斯學(xué)習(xí)(Sparse Bayesian learning,SBL)[21]作為貝葉斯模型的一種新興技術(shù),具有高稀疏性、強(qiáng)魯棒性以及邏輯的嚴(yán)謹(jǐn)性等特點(diǎn)。SBL通過求解稀疏解向量的后驗(yàn)概率,可以獲得較高的重構(gòu)精度。Wipf等[22]應(yīng)用SBL模型在單個(gè)測(cè)量向量模型中重構(gòu)稀疏信號(hào),其缺點(diǎn)在于重構(gòu)過程收斂較慢導(dǎo)致計(jì)算效率低。針對(duì)此問題,Zhang等[23]提出了塊稀疏貝葉斯學(xué)習(xí)(Block sparse Bayesian learning,BSBL)方法來快速恢復(fù)稀疏系數(shù),該方法主要將信號(hào)視為塊結(jié)構(gòu),從而將信號(hào)劃分為多個(gè)塊進(jìn)行重構(gòu),達(dá)到提高重構(gòu)效率的目的。Serra等[24]將K-SVD字典學(xué)習(xí)式引入SBL模型,以抑制具有簡(jiǎn)單背景的光學(xué)圖像中的噪聲。然而,這些基于SBL的方法直接應(yīng)用于真實(shí)場(chǎng)景時(shí),各方面的重構(gòu)性能受到一定的限制。主要有以下原因:a)這些算法需要真正等效的稀疏字典作為感測(cè)矩陣,并且這些等效字典在重構(gòu)前就需要是已知的;b)由于字典是為特定目標(biāo)精心設(shè)計(jì)的,很難擴(kuò)展到其他對(duì)象,降低了算法的魯棒性;c)在現(xiàn)實(shí)應(yīng)用場(chǎng)景中,稀疏圖像往往具有復(fù)雜的結(jié)構(gòu),SBL方法在后驗(yàn)估計(jì)時(shí),它的計(jì)算復(fù)雜度隨著問題的大小而顯著增加。Fox等[25]通過EM算法與變分貝葉斯理論相結(jié)合設(shè)計(jì)了一種廣義EM算法,即變分貝葉斯期望最大化(Variational Bayesian expectation maximization,VBEM),利用VBEN算法對(duì)模型參數(shù)進(jìn)行簡(jiǎn)化估計(jì),從而得到模型后驗(yàn)分布信息的近似估計(jì),提高算法模型的運(yùn)算效率及魯棒性。近幾年來,學(xué)者們基于VBEM算法衍生出許多重構(gòu)模型[26-27],在圖形重構(gòu)上均取得一定的成果。毛兆華等[3]提出了基于字典學(xué)習(xí)的機(jī)織物圖像的重構(gòu)算法,該算法通過分解機(jī)織物紋理信號(hào)的線性表達(dá)來學(xué)習(xí)字典,字典的線性組合可以在一定的約束下對(duì)機(jī)織物圖像進(jìn)行最優(yōu)的重構(gòu)。
本文提出了一個(gè)基于VBEM的一致受限字典織物圖像重構(gòu)(CCD-VBEM)模型,采用多層先驗(yàn)?zāi)P徒:蚔BEM方法求解后驗(yàn)分布近似值,以構(gòu)建SBL-VBEM模型來降低計(jì)算復(fù)雜度。除此之外,為提高SBL-VBEM模型對(duì)織物圖像的重構(gòu)質(zhì)量,本文在SBL-VBEM模型的基礎(chǔ)上加入一致受限字典優(yōu)化式,以構(gòu)建CCD-VBEM模型。一致受限字典優(yōu)化式提供了一種新的S形函數(shù)拓?fù)浣Y(jié)構(gòu)以獲得收縮因子,并在字典的每次迭代中使用收縮因子縮小字典矩陣中最大非對(duì)角項(xiàng)的鄰域間隔,以此來快速獲得字典矩陣的列之間的較低互相關(guān),這有利于CCD-VBEM模型重構(gòu)更好的稀疏信號(hào)。CCD-VBEM模型進(jìn)一步提高了織物圖像的重構(gòu)精度,減少了織物圖像在傳輸過程中的壓縮失真。本文在公共織物圖像數(shù)據(jù)集進(jìn)行實(shí)驗(yàn),以驗(yàn)證本文提出方法的有效性。
1 稀疏貝葉斯(SBL)的理論基礎(chǔ)
SBL模型建立的本質(zhì)是為了解決稀疏信號(hào)恢復(fù)(Sparse signal recovery,SSR)問題和相關(guān)的壓縮感知問題。單個(gè)測(cè)量向量的情況下,SSR問題包括從M≤N個(gè)有噪聲的測(cè)量向量y∈RM×1中恢復(fù)稀疏信號(hào)ω∈RN×1[28]。SBL的數(shù)學(xué)模型可以表示為:
y=Dω+ζ(2)
式中:D∈RM×N是已知的觀測(cè)矩陣,ζ∈RM×1是觀測(cè)噪聲。
在SBL框架中,假定ζ服從均值為0、方差為的高斯分布,即ζ~N(0,σ2),令θ=σ-2,則測(cè)量向量y的高斯似然函數(shù)的表達(dá)式可以寫成:
類似地,本文假設(shè)ω的項(xiàng)ω是獨(dú)立分布的,并假設(shè)ω服從高斯分布,且均值為0,方差為λ-1,ω的先驗(yàn)分布函數(shù)的表達(dá)式可以寫成:
式中:λ {λ}是控制信號(hào)ω稀疏性的非負(fù)超參數(shù),Ω diag(<λ>,<λ>,···,<λ>),根據(jù)貝葉斯理論,SBL模型的后驗(yàn)概率分布可以表示為:
由于p(y|ω;θ)、p(ω|λ)均服從高斯分布,因此p(ω;λ,θ|y)也服從高斯分布,且均值μ和協(xié)方差矩陣∑可以表示為:
2 基于VBEM的一致受限字典重構(gòu)模型(CCD-VBEM)
2.1 多層先驗(yàn)?zāi)P?/p>
考慮織物圖像的真實(shí)應(yīng)用場(chǎng)景,結(jié)合變分推斷的思想,在SBL的框架上構(gòu)建多層先驗(yàn)的重構(gòu)模型,式(2)可以改寫為:
y=Dω(λ(a,b))+ζ(θ(c,d))(8)
式中:λ為精度參數(shù),a、b分別為形狀參數(shù)和尺度參數(shù)。形狀參數(shù)a是對(duì)上層先驗(yàn)分布的形狀表達(dá)進(jìn)行約束,尺度參數(shù)b則是對(duì)上層先驗(yàn)分布的幅度變化進(jìn)行約束。同理,ζ表示確定性噪聲模型,c、d分別為控制噪聲模型精度參數(shù)θ的形狀參數(shù)和尺度參數(shù)。由此,可以得到多層先驗(yàn)重構(gòu)模型,如圖1所示。
在此多層先驗(yàn)重構(gòu)模型中,指定超參數(shù)λ服從Gamma分布,即:
p(λ)=∏Ni=1p(λ;a,b)=∏Ni=1Gamma(λ|a,b)
=∏Ni=1baΓ(a)λa-1exp(-bλ)(9)
其中Γ(x)=∫∞tx-1e-tdt為Gamma函數(shù)。同理,為了學(xué)習(xí)精度參數(shù)θ,本文假設(shè)θ也服從Gamma分布,即
p(θ)=p(θ;c,d)=Gamma(θ|c,d)
=dcΓ(c)θc-1exp(-dθ)(10)
根據(jù)貝葉斯理論和變分貝葉斯推斷理論,圖1中重構(gòu)模型的后驗(yàn)概率分布可以表示為:
p(ω;λ,θ|y)=p(y|ω;θ)p(ω|λ)p(λ)p(θ)p(y;λ,θ)(11)
因此,p(y;λ,θ)的邊際似然函數(shù)可以表示為:
p(y;λ,θ)=∫p(y|ω;θ)p(ω|λ)p(λ)p(θ)dωdλdθ(12)
2.2 變分貝葉斯期望最大化(VBEM)推理
由于式(12)的求解非常困難,所以根據(jù)變分推斷思想,利用VBEM算法對(duì)模型的后驗(yàn)概率分布進(jìn)行估計(jì),模型的VBEM估計(jì)表達(dá)式為:
p(ω;λ,θ|y)∝Q(ω,λ,θ)=Q(ω)Q(λ)Q(θ)(13)
VBEM算法的目標(biāo)是最大化Q(ω)、Q(λ)以及Q(λ)。VBEM推理分為兩步:VBE-Step和VBM-Step。與EM算法相似,VBEM在對(duì)后驗(yàn)分布信息進(jìn)行估計(jì)時(shí),仍然需要采用交替迭代的策略。通過VBE-Step更新Q(ω),再將新的Q(ω)作為VBM-Step的輸入對(duì)Q(λ)和Q(θ)進(jìn)行更新。VBE-Step和VBM-Step的不斷迭代,直到達(dá)到收斂條件停止更新輸出最終結(jié)果。在織物圖像的實(shí)際應(yīng)用中,VBEM算法比EM算法大大的加快了計(jì)算速率,更加適用于工業(yè)場(chǎng)景。VBE-Step和VBM-Step的具體原理如下。
2.2.1 VBE-Step
更新Q(ω)。忽略與ω?zé)o關(guān)的項(xiàng),則Q(ω)的近似后驗(yàn)分布可由式(14)計(jì)算(<·>表示求期望):
lnQ(ω)∝<lnp(y|ω;θ)p(ω|λ)>
∝<-θ2y-Dω2-12ωTΩω>
∝<-θ2(yTy-2yTDω+ωTDTDω)
-12ωTΩω>
∝-12ωT(<θ>DTD+<Ω>)ω
-<θ>yTDω(14)
顯然,Q(ω)遵循高斯分布,其均值μ和協(xié)方差∑分別表示為:
ω=μ=<θ>∑DTy(15)
∑=(<θ>DTD+<Ω>)-1(16)
2.2.2 VBM-Step
更新Q(λ)。忽略與λ無關(guān)的項(xiàng),則Q(λ)的近似后驗(yàn)分布可由式(17)計(jì)算(<·>表示求期望):
lnQ(λ)∝<lnp(ω|λ)p(λ)>
∝∑Ni=1((a-12)lnλ-(<ω2>2+b)λ)
∝∑Ni=1((a^-1)lnλ-b^λ)(17)
式中:<ω2>=μ+∑;μ表示的第i個(gè)元素;∑表示對(duì)角矩陣中的第i個(gè)元素。令a^=a+12,b^=<ω2>2+b。由式(17)可以得出:
Q(λ)=∏Ni=1Gamma(λ;a^,b^)(18)
<λ>=a^b^(19)
更新Q(θ)。忽略與θ無關(guān)的項(xiàng),則Q(θ)的近似后驗(yàn)分布可由式(20)計(jì)算(<·>表示求期望):
lnQ(θ)∝<lnp(y|ω;θ)p(θ)>
∝(c-1+M2)lnθ-(12<y-Dω2>+d)θ
∝(c^-1)lnθ-d^θ(20)
式中:<y-Dω2>=y-Dμ2+tr(DT∑D)。令c^=c+M2,d^=12<y-Dω2>+d,由式(20)可以得出:
Q(θ)=Gamma(θ;c^,d^)(21)
<θ>=c^d^(22)
根據(jù)式(15)—(16)、式(19)和式(22)的迭代計(jì)算可以估計(jì)出期望最大的稀疏信號(hào)ω。
2.3 一致受限字典
為了讓織物圖像的重構(gòu)性能獲得各方面的提升,本文在SBL-VBEM模型上融入了對(duì)字典的優(yōu)化,使得CCD-VBEM模型的重構(gòu)精度更加精確。CCD-VBEM重構(gòu)模型如圖2所示。
通常,相互一致性用于衡量字典列之間的相關(guān)性。在式(15)—(16)中,字典D的列之間有較低的相互一致性可以獲得更好的重構(gòu)結(jié)果。因此,有必要減小字典D每一列之間的線性相關(guān)性,從而獲得更好的解決方案。格拉姆矩陣是求解線性相關(guān)問題的一個(gè)較好解決方案,矩陣的每一個(gè)元素實(shí)際上是在計(jì)算兩兩特征之間的相關(guān)性。本文考慮使用格拉姆矩陣將字典D的每一列兩兩關(guān)聯(lián),并提出新的規(guī)則約束格拉姆矩陣,以減小字典D的相互一致性。格拉姆矩陣可以表示為G=DTD,則字典D的相互一致性可以表示為:
Ψ{D}=max1≤i,j≤N,i≠j|d|(23)
式中:d=<d,d>。理論上,相互一致性有一個(gè)下限。對(duì)于大小為M×N(M<N)的全秩矩陣,相互一致性由下式作為下限:
Ψ≥(M-NN(M-1))12(24)
本文的優(yōu)化目標(biāo)是使字典D的相互一致性在每次迭代中接近下限[28-29]。多次迭代后可以獲得理想的字典矩陣。文獻(xiàn)[29-30]中提到每次迭代中僅更新最大非對(duì)角項(xiàng),可以大大地加快計(jì)算效率。在本文提出的方法中,基于S形函數(shù)的拓?fù)浣Y(jié)構(gòu)提供了一個(gè)新的收縮因子ρ(0<ρ<1),達(dá)到快速優(yōu)化的目的,其表達(dá)式如下:
ρ=γ11+e-kΨ{D}+ν(25)
式中:γ和k用于控制收斂速度。γ是一個(gè)常數(shù),可以通過實(shí)驗(yàn)確定。ν表示校正偏移量。注意,D的初始化使用隨機(jī)高斯矩陣獲得。
3 實(shí)驗(yàn)
為了評(píng)估CCD-VBEM算法的重構(gòu)性能,本文將CCD-VBEM算法在阿里云天池?cái)?shù)據(jù)集[31]和浙江大學(xué)所提供的ZJU-Leaper數(shù)據(jù)集[32]上進(jìn)行實(shí)驗(yàn),與經(jīng)典的SBL-EM[22]、SBL-VBEM[25]、KSVD-SBL[24]以及BSBL[23]等4種不同模型進(jìn)行實(shí)驗(yàn)對(duì)比,采用圖像質(zhì)量相關(guān)的評(píng)價(jià)指標(biāo)來衡量不同方法的性能。
3.1 CCD-VBEM算法流程
算法1:CCD-VBEM
輸 入:樣本y,字典D(0),超參數(shù)Ω(0)、θ(0)、a、b、c、d,閾值ε、ε,參數(shù)γ、k、ν;
初始化:t、t=0,maxIter、maxIter=5000;
步驟 1:計(jì)算格拉姆矩陣G(t):
G(t)=D(t)TD(t);
步驟 2:利用式(23)找到最大非對(duì)角項(xiàng)(d);
步驟 3:利用式(25)優(yōu)化收縮因子ρ;
步驟 4:更新最大非對(duì)角項(xiàng):
d≥ρ×(d);
步驟 5:使用奇異值分解(SVD)算法降低G(t)的秩:
[U,S,V]=SVD(G(t)),S(M+1:end,M+1:end)=0,G(t+1)=U·S·VT;
步驟 6:對(duì)G(t+1)的列進(jìn)行歸一化,獲得新的字典D(t+1):
D(t+1)T·D(t+1)=G(t+1);
步驟 7:利用式(23)計(jì)算字典D(t+1)的相關(guān)一致性,并通過|Ψ(D(t))-Ψ(D(t+1))|<ε和t>maxIter判斷是否達(dá)到收斂條件,如果到達(dá)收斂條件,令D=D(t+1),且繼續(xù)步驟8;反之回到步4EkkmzDWt0NFmW//Ixj49Q==驟1,且令t=t+1;
步驟 8:利用式(15)和(16)估計(jì)均值μ(t)和協(xié)方差∑(t);
步驟 9:利用式(19)和(22)估計(jì)超參數(shù)<λ>(t)、<θ>(t);
步驟10:通過μ(t)-μ(t-1)2μ(t)2<ε和t>maxIter判斷是否達(dá)到收斂條件,如果到達(dá)收斂條件,令ω=μ(t),結(jié)束算法;反之回到步驟8,且令t=t+1;
輸出:利用稀疏信號(hào)ω輸出重構(gòu)圖像。
3.2 算法參數(shù)設(shè)定
在整個(gè)實(shí)驗(yàn)中,本文為CCD-VBEM算法設(shè)置了必要的參數(shù)值。設(shè)置的參數(shù)值使得算法迭代過程無過擬合現(xiàn)象,參數(shù)a、b、c、d、γ、k和ν的初始值分別設(shè)置為1×10-6、1、1×10-6、1、1.8、0.74和20。在算法1中的閾值參數(shù)ε和ε分別設(shè)置為1×10-6和1×10-5。另外,字典矩陣D采用高斯隨機(jī)矩陣初始化。
3.3 實(shí)驗(yàn)環(huán)境
本文實(shí)驗(yàn)驗(yàn)證程序的運(yùn)行環(huán)境均滿足在Matlab 2016a中編寫,計(jì)算機(jī)配置為2.4 GiHz Intel Xeon Silver的CPU和64 Gi RAM的DELL Workstation 7920T以及 Windows 10操作系統(tǒng)中運(yùn)行。
4 結(jié)果與分析
為驗(yàn)證CCD-VBEM算法對(duì)織物圖像重構(gòu)的有效性,本文設(shè)計(jì)了包括KSVD-SBL、SBL-EM、SBL-VBEM以及BSBL方法在內(nèi)的多組對(duì)照實(shí)驗(yàn),實(shí)驗(yàn)通過圖像質(zhì)量評(píng)價(jià)指標(biāo)峰值信噪比(Peak signal-to-noise ratio,PSNR)和結(jié)構(gòu)相似度(Structural similarity,SSIM)進(jìn)行定量的分析和比較。每種方法采用不同采樣率κ對(duì)圖像進(jìn)行稀疏化,以驗(yàn)證算法的性能。采用不同采樣率κ進(jìn)行多組實(shí)驗(yàn)。κ的取值范圍為0.20~0.40,步長(zhǎng)為0.05。為保證所有方法獲得最佳的結(jié)果,所有的比較方法都是根據(jù)文獻(xiàn)提出的最優(yōu)參數(shù)值來設(shè)置。KSVD-SBL方法是通過對(duì)標(biāo)準(zhǔn)圖像的特征學(xué)習(xí)獲得字典,BSBL方法使用原始的伯努利字典矩陣,并設(shè)置劃分塊數(shù)目為64。
第一組實(shí)驗(yàn)圖像來自阿里云的天池?cái)?shù)據(jù)集,圖像對(duì)象是紡織布匹,圖像為256×256像素。隨機(jī)挑選3張織物圖像進(jìn)行重構(gòu)效果展示。圖3分別展示了不同方法的重構(gòu)圖像(κ=0.30)。從圖3中可以看出,CCD-VBEM算法、KSVD-SBL算法和SBL-EM算法重構(gòu)出來的織物圖像與原圖最為近似,而BSBL方法的重構(gòu)效果相對(duì)較差。造成這樣結(jié)果的原因有兩個(gè):一是BSBL使用塊結(jié)構(gòu)進(jìn)行了更新,以犧牲重構(gòu)精度的方式提高了重構(gòu)效率;二是織物圖像呈現(xiàn)出更加規(guī)則的紋理,而分塊更新破壞了這一規(guī)則。除此之外,為了獲得更為詳細(xì)的重構(gòu)性能數(shù)據(jù),從織物數(shù)據(jù)集中隨機(jī)選取50張圖像作為樣本用不同方法進(jìn)行重構(gòu),重構(gòu)的PSNR和SSIM均值結(jié)果如表1和表2所示。
從表1和表2可以看出,CCD-VBEM方法優(yōu)于所有對(duì)比方法,在不同的采樣率內(nèi)均獲得最高的PSNR和SSIM。采樣率為0.40時(shí),CCD-VBEM方法的PSNR為34.0425 dB;SBL-EM方法的PSNR為34.0359 dB,僅次于CCD-VBEM;而PSNR最低的仍然是BSBL方法,其值為29.1311 dB,相較于CCD-VBEM方法降低了4.9114 dB。相對(duì)于SBL-VBEM算法而言,CCD-VBEM算法的PSNR值和SSIM值都得到了一定的提升,這得益于一致受限字典對(duì)SBL-VBEM模型的優(yōu)化,進(jìn)一步證明了本文提出的方法的有效性。
第二組實(shí)驗(yàn)圖像是由浙江大學(xué)提供的ZJU-Leaper數(shù)據(jù)集,圖像類型共有19種,圖像為512×512像素。隨機(jī)挑選3張織物圖像進(jìn)行重構(gòu)效果展示(κ=0.30),分別是花卉印花1、花卉印花2、紅格子3種類型(對(duì)應(yīng)圖像從上向下排序),如圖4所示。
從圖4可以看出CCD-VBEM算法和SBL-EM算法的重構(gòu)在紋理和印花上做到與原圖最優(yōu)的近似,SBL-VBEM算法和SBL-EM算法在3張織物圖像上也展現(xiàn)了良好的重構(gòu)效果。KSVD-SBL算法對(duì)花卉印花1圖像的紋理重構(gòu)不夠完整,但對(duì)花卉印花2和紅格子圖像上的重構(gòu)效果不弱于SBL-VBEM算法和SBL-EM算法。而BSBL的重構(gòu)造成了嚴(yán)重的失真,幾乎無法辨認(rèn)原圖像的紋理和印花。
為了增強(qiáng)算法的魯棒性,從ZJU-Leaper數(shù)據(jù)集中隨機(jī)選取50張圖像作為樣本進(jìn)行重構(gòu),重構(gòu)的PSNR和SSIM均值結(jié)果如表3和表4所示。從表3和表4可以看出,CCD-VBEM方法在ZJU-Leaper數(shù)據(jù)集上獲得了最佳重構(gòu)性能。采樣率為0.40時(shí),CCD-VBEM方法的PSNR為33.8850 dB。同樣地,SBL-EM方法和SBL-VBEM方法的峰值信噪比僅次于CCD-VBEM方法,說明CCD-VBEM方法的重構(gòu)誤差較小,盡可能地保證不失真。而BSBL方法的PSNR僅為29.4799 dB不適用于織物圖像的重構(gòu),無論是峰值信噪比還是結(jié)構(gòu)相似度都沒有達(dá)到理想的值。CCD-VBEM方法將優(yōu)化后的字典集成在VBEM模型上,進(jìn)一步提升了圖像重構(gòu)的精度,減小誤差,同時(shí)提升了織物圖像重構(gòu)后的結(jié)構(gòu)相似性,盡可能地保證織物紋理的復(fù)原。
此外,本文還進(jìn)行了不同方法之間的重構(gòu)效率對(duì)比,如表5所示。在不同采樣率下,BSBL方法獲得最快重構(gòu)速度,這歸功于它的分塊機(jī)制。而本文提出的CDD-VBEM方法僅次于BSBL方法,且在高采樣率的條件下,重構(gòu)時(shí)間大大縮短,獲得了幾乎接近BSBL方法的重構(gòu)效率。為了更詳細(xì)地分析算法優(yōu)勢(shì),圖5展示了織物圖像重構(gòu)算法在迭代過程中PSNR值的變化。從圖5可知,在對(duì)照實(shí)驗(yàn)中,BSBL收斂最快,迭代約10次完成收斂,但是重構(gòu)精度受限。而本文提出的CCD-VBEM方法約20次完成收斂,且獲得了最優(yōu)重構(gòu)精度。雖然CCD-VBEM方法的模型相較于SBL-VBEM方法的模型多了字典優(yōu)化模塊,但是CCD-VBEM方法比SBL-VBEM方法重構(gòu)效率高,這是因?yàn)镃CD-VBEM方法引入的一致受限字典加快了模型的收斂,使得模型提高重構(gòu)精度的同時(shí)保持了重構(gòu)效率。
5 結(jié)論
本文提出了一種基于VBEM的一致受限字典織物圖像重構(gòu)模型CCD-VBEM。CCD-VBEM模型采用多層先驗(yàn)?zāi)P徒?,并用VBEM方法求解后驗(yàn)分布近似值,以構(gòu)建SBL-VBEM模型來降低計(jì)算復(fù)雜度。除此之外,本文提出了一種新的S形函數(shù)拓?fù)浣Y(jié)構(gòu),該結(jié)構(gòu)計(jì)算獲得收縮因子。CCD-VBEM模型通過收縮因子優(yōu)化SBL-VBEM模型中字典的相互一致性,不僅提升了傳統(tǒng)的SBL-VBEM模型的重構(gòu)精度,還進(jìn)一步加快了重構(gòu)的收斂速度。阿里云天池?cái)?shù)據(jù)集中的織物圖像證明了本文所提方法的有效性。
然而,本文所提方法在重構(gòu)效率仍受到計(jì)算復(fù)雜度的限制。為了進(jìn)一步降低EM算法中E步的計(jì)算復(fù)雜度,需要從廣義近似消息傳遞研究入手,進(jìn)一步提高重構(gòu)精度以及重構(gòu)效率。
參考文獻(xiàn):
[1]靳文哲, 呂文濤, 郭慶, 等. 基于改進(jìn)3E-LDA的織物圖像分類算法[J]. 現(xiàn)代紡織技術(shù), 2024, 32(6):89-96.
JIN Wenzhe, Lü Wentao, GUO Qing, et al. Fabric image classification algorithm based on improved 3E-LDA[J]. Advanced Textile Technology, 2024, 32(6):89-96.
[2]呂文濤, 林琪琪, 鐘佳瑩, 等. 面向織物疵點(diǎn)檢測(cè)的圖像處理技術(shù)研究進(jìn)展[J]. 紡織學(xué)報(bào), 2021, 42(11): 197-206.
Lü Wentao, LIN Qiqi, ZHONG Jiaying, et al. Research progress of image processing technology for fabric defect detection[J]. Journal of Textile Research, 2021, 42(11): 197-206.
[3]毛兆華, 萬(wàn)賢福, 汪軍, 等.基于字典學(xué)習(xí)的機(jī)織物圖像重構(gòu)[J].東華大學(xué)學(xué)報(bào)(自然科學(xué)版),2016,42(1):35-39.
MAO Zhaohua, WAN Xianfu, WANG Jun, et al. Woven fabric image reconstruction based on dictionary learning[J].Journal of Donghua University (Natural Science), 2016,42 (1): 35-39.
[4]付晗, 胡峰, 龔杰, 等. 面向織物疵點(diǎn)檢測(cè)的缺陷重構(gòu)方法 [J]. 紡織學(xué)報(bào), 2023, 4pd2sve16KpvboITqbxVvu/pYWttICl+Qg6mK/Z+LxmE=4(7): 103-109.
FU Han, HU Feng, GONG Jie, et al. Defect reconstruction algorithm for fabric fault detection [J]. Journal of Textile Research, 2023, 44(7): 103-109.
[5]占竹, 王凱, 李立輕, 等. 基于通用學(xué)習(xí)字典的機(jī)織物紋理表征[J]. 棉紡織技術(shù), 2021, 49(1): 34-39.
ZHAN Zhu, WANG Kai, LI Liqing, et al. Woven Fabric Texture Characterization Based on General Dictionary [J]. Cotton Textile Technology, 2021, 49 (1): 34-39.
[6]彭然, 胡立文, 鄧中民. 基于Radon變換和能量曲線的機(jī)織物密度檢測(cè)[J]. 棉紡織技術(shù), 2021, 49(4):16-20.
PENG Ran, HU Liwen, DENG Zhongmin. Detection of Woven Fabric Density Based on Radon Transform and Energy Curve [J]. Cotton Textile Technology, 2021,49 (4): 16-20.
[7]曾艷, 王萌, 邢婷婷, 等. 一種改進(jìn)的壓縮感知彩色圖像重構(gòu)框架[J]. 計(jì)算機(jī)應(yīng)用與軟件, 2023, 40(9): 248-252.
ZENG Yan, WANG Meng, XING Tingting, et al. An improved framework for color image reconstruction based on[J]. Computer Applications and Software, 2023,40 (9): 248-252.
[8]趙東波, 李輝. 基于改進(jìn)平滑L0算法的圖像重構(gòu)[J].信息技術(shù), 2023, 47(9): 103-107.
ZHAO Dongbo, LI Hui. lmage reconstruction based on improved Smoothing L0 algorithm [J]. Information Technology, 2023, 47(9): 103-107.
[9]BABACAN S D, MOLINA R, KATSAGGELOS A K. Bayesian compressive sensing using Laplace priors[J]. IEEE Transactions on Image Processing Society, 2010, 19(1): 53-63.
[10]ZHANG Y, QI X, JIANG Y, et al. Image Reconstruction for low-oversampled staggered SAR based on Sparsity Bayesian learning in the presence of a nonlinear PRI variation strategy[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 1-24.
[11]張睿穎. 稀疏表示圖像去噪算法研究及在海浪反演中的應(yīng)用[D]. 大連: 大連海洋大學(xué), 2023: 8-53.
ZHANG Ruiying. Research on Sparse Representation based Image Denoising Algorithm and Its Application in Wave Inversion [D]. Dalian: Dalian Ocean University, 2023:8-53.
[12]楊孟宇. 基于壓縮感知的高光譜圖像重構(gòu)算法研究[D]. 哈爾濱: 哈爾濱理工大學(xué), 2023: 9-64.
YANG Mengyu. Research on Hyperspectral Image Reconstruction Algorithm Based on Compressed Sensing [D]. Harbin: Harbin University of Science and Technology, 2023: 9-64.
[13]毛璐. 基于稀疏表示的逆問題研究[D]. 西安: 西安石油大學(xué), 2023: 6-54.
MAO Lu. Research on Inverse Problem Based on Sparse Representation [D]. Xi'an: Xi'an Shiyou University, 2023: 6-54.
[14]JIANG Z, LIN Z, DAVIS L S. Label consistent K-SVD: Learning a discriminative dictionary for recognition[J]. IEEE transactions on pattern analysis and machine intelligence, 2013, 35(11): 2651-2664.
[15]JING J, FAN X, LL P. Patterned fabric defect detection via convolutional matching pursuit dual-dictionary[J]. Optical Engineering, 2016, 55(5): 053109.
[16]ZHAN Z, LI L, CHEN X, et al. Discriminative-shared dictionary learning for class-specific fabric texture characterization[J]. Textile Research Journal, 2020, 90(21/22): 2478-2491.
[17]Lü W, ZHOU D, WANG C, et al. A novel discriminative dictionary learning method for image classification[J]. IEICE Transactions on Fundamentals of Electronics, Communications and Computer Sciences, 2023, 106(6): 932-937.
[18]AL-SHOUKAIRI M, SCHNITER P, RAO B D. A GAMP-based low complexity sparse Bayesian learning algorithm[J]. IEEE Transactions on Signal Processing, 2018, 66(2): 294-308.
[19]李德高, 程濤, 許聰, 等. 基于后驗(yàn)信息的壓縮感知圖像重構(gòu)方法[J]. 廣西科技大學(xué)學(xué)報(bào), 2023, 34(4): 12-16.
LI Degao, CHENG Tao, XU Cong, et al. Compressed sensing image reconstruction method based on posterior information [J]. Journal of Guangxi University of Science and Technology, 2023,34 (4): 12-16.
[20]DUAN H, YANG L, FANG J, et al. Fast inverse-free sparse Bayesian learning via relaxed evidence lower bound maximization[J]. IEEE Signal Processing Letters, 2017, 24(6): 774-778.
[21]DONG J, Lü W, ZHOU D, et al. Variational Bayesian and generalized approximate message passing-based Sparse Bayesian learning model for image reconstruction[J]. IEEE Signal Processing Letters, 2022, 29: 2328-2332.
[22]WIPF D P, RAO B D. Sparse Bayesian learning for basis selection[J]. IEEE Transactions on Signal processing, 2004, 52(8): 2153-2164.
[23]ZHANG Z, RAO B D. Recovery of block sparse signals using the framework of block sparse Bayesian learning[C]//IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). IEEE, 2012: 3345-3348.
[24]SERRA J G, TESTA M, MOLINA R, et al. Bayesian K-SVD using fast variational inference[J]. IEEE Transactions on Image Processing, 2017, 26(7): 3344-3359.
[25]FOX C W, ROBERTS S J. A tutorial on variational Bayesian inference[J]. Artificial intelligence review, 2012, 38: 85-95.
[26]蘇挺超, 沈映珊. 基于分層貝葉斯模型的圖像修復(fù)方法[J]. 計(jì)算機(jī)應(yīng)用與軟件, 2023, 40(10): 261-267.
SU Tingchao, SHEN Yingshan. Image inpainting method based on hierarchical bayesian model[J]. Computer Applications and Software, 2023,40 (10): 261-267.
[27]甘宜超. 基于貝葉斯理論的雷達(dá)成像技術(shù)研究[D]. 西安: 西安電子科技大學(xué), 2020: 14-73.
GAN Yichao. Research on Radar Imaging Technology Based on Bayesian Theory [D]. Xi'an: Xidian University, 2020: 14-73.
[28]Lü W, WANG J, YU W, et al. Improvement of semi-random measurement matrix for compressed sensing[J]. IEICE Transactions on Fundamentals of Electronics, Communications and Computer Sciences, 2014, 97(6): 1426-1429.
[29]ELAD M. Optimized projections for compressed sensing[J]. IEEE Transactions on Signal Processing, 2007, 55(12): 5695-5702.
[30]DUARTE-CARVAJALINO J M, SAPIRO G. Learning to sense sparse signals: Simultaneous sensing matrix and sparsifying dictionary optimization[J]. IEEE Transactions on Image Processing, 2009, 18(7): 1395-1408.
[31]TIANCHI A. Smart diagnosis of cloth flaw dataset[EB/OL]. (2020-10-21)[2021-11-05]. https://tianchi.aliyun.com/dataset/dataDetail?dataId=79336.
[32]ZHANG C, FENG S, WANG X, et al. Zju-leaper: A benchmark dataset for fabric defect detection and a comparative study[J]. IEEE Transactions on Artificial Intelligence, 2020, 1(3): 219-232.
A consistent constrained dictionary model based on VBEM for fabric image reconstruction
CHEN Yingrou1, Lü Wentao1, YU Runze2, GUO Qing3, XU Yuzhen3
(1.Key Laboratory of Intelligent Textile and Flexible Interconnection of Zhejiang Province,Zhejiang Sci-Tech University, Hangzhou 310018, China; 2.China Mobile Group Design Institute Co., Ltd., Zhejiang Branch, Hangzhou 310012, China; 3.Zhejiang Technical Innovation Service Center, Hangzhou 310007, China)
Abstract: With the culmination of digital transformation, the textile industry, as an important component of the manufacturing sector, is gradually moving towards the field of intelligent manufacturing. By introducing advanced digital technologies and automation systems, the textile industry can achieve high efficiency and precision in the production process. The application of automation equipment and robots can reduce human errors and labor costs while improving production efficiency. With continuous technological advancements and changing market demands, the textile industry is facing numerous challenges and opportunities. The advent of big data has led to a significant increase in data volume, which poses a significant burden on intelligent manufacturing. Additionally, the increased volume of image data in particular can lead to compression distortion during the transmission process. To address this, compressing images using sparse representation technology can avoid wastage of resources during transmission. Sparse reconstruction, as the inverse problem of sparse representation, is crucial for accurately restoring the sparse-represented image data without losing the original information.
To enhance the core competitiveness of the textile industry, this paper proposed a VBEM (variational Bayesian expectation maximization)-based consistent constrained dictionary (CCD-VBEM) model for fabric image reconstruction. It addressed the problem of decreased reconstruction performance caused by strong inter-column consistency in traditional sparse Bayesian algorithms. Considering the real-world application scenarios of fabric images, a multi-layer prior sparse Bayesian learning (SBL) model was adopted for modeling, and the VBEM method was used to approximate the posterior distribution. This resulted in the construction of the SBL-VBEM model. However, the reconstruction results of the SBL-VBEM model are still affected by the coherence of the dictionary matrix. To improve the reconstruction results, this paper reduced the inter-column consistency of the dictionary matrix.
To achieve this goal, the paper first obtained a shrinkage factor using the topological structure of the sigmoid function. With the shrinkage factor, the neighborhood interval of the largest off-diagonal entry in the dictionary matrix can be reduced at each iteration of obtaining the consistent constrained dictionary. This effectively reduces the inter-column consistency, thereby improving the quality of the reconstruction results. Finally, the obtained consistent constrained dictionary was used as input for the SBL-VBEM model to reconstruct fabric images more effectively. The effectiveness of this approach was validated on the Alibaba Cloud Tianchi dataset. Experimental results demonstrate that the CCD-VBEM method achieves optimal performance in reconstructing fabric images at different sampling rates (0.20-0.40), showcasing the potential of the algorithm in the field of fabric image reconstruction.
Keywords: fabric image; reconstruction; consistent constrained dictionary; variational Bayesian expectation maximization; shrinkage factor