亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于張量鏈分解的低秩張量補(bǔ)全研究

        2021-08-09 09:11:16吳云韜黃龍庭
        武漢工程大學(xué)學(xué)報 2021年4期
        關(guān)鍵詞:三階張量范數(shù)

        豆 蔻,吳云韜*,黃龍庭,陳 里

        1.武漢工程大學(xué)計算機(jī)科學(xué)與工程學(xué)院,湖北 武漢430205;2.武漢理工大學(xué)信息學(xué)院,湖北 武漢430070;3.武漢工程大學(xué)郵電與信息工程學(xué)院,湖北 武漢430074

        張量作為向量和矩陣的高階擴(kuò)展,同時能夠保留數(shù)據(jù)的高維結(jié)構(gòu),適合用來表示自然中具有多維特征的數(shù)據(jù)。張量已經(jīng)在許多領(lǐng)域得到了廣泛的應(yīng)用,包括信號處理[1-2]、計算機(jī)視覺[3-4]、神經(jīng)科學(xué)[5]和機(jī)器學(xué)習(xí)[6]。然而實際采集到的高維數(shù)據(jù)通常是遭到破壞或有部分缺失的,對于這種情況,可以根據(jù)已觀測到的部分?jǐn)?shù)據(jù)來恢復(fù)其缺失部分,這就是張量補(bǔ)全研究。本文研究的低秩張量補(bǔ)全問題是通過張量分解獲得的潛在低秩表達(dá)與數(shù)據(jù)低秩的特性,利用數(shù)據(jù)空間中數(shù)據(jù)的低秩關(guān)聯(lián)結(jié)構(gòu)更有效地預(yù)測缺失部分。

        CANDECOMP/PARAFAC分解[7]和Tucker分解[8]是經(jīng)典的張量分解方法,已經(jīng)有許多基于它們的張量補(bǔ)全算法,例如CP分解加權(quán)法(CP-weighted optimization,CP-WOPT)[9],完全貝葉斯處理(fully Bayesian CP factorization,F(xiàn)BCP)[10]以及張量同時分解和補(bǔ)全方法(simultaneous tensor decomposition and completion,STDC)[11]。但是,由于經(jīng)典張量分解模型的局限性,僅在低維張量補(bǔ)全時才能達(dá)到較高的精度,并且容易因為維度太大參數(shù)過多而遭受“維度詛咒”。近來,已經(jīng)提出了一種基于矩陣乘積狀態(tài)(matrix product state,MPS)模型的張量鏈分解[12],張量鏈分解能夠?qū)⒏唠A張量分解成一組三階張量,具有很高的數(shù)據(jù)壓縮能力和計算效率,本文將基于張量鏈分解研究低秩張量補(bǔ)全問題。

        目前廣泛應(yīng)用的低秩張量框架是將張量每個模展開矩陣的秩作為優(yōu)化目標(biāo),通過求解秩加權(quán)和最小化問題來低秩近似原始張量。由于張量低n-秩最小化模型是一個多項式的非確定性問題(non-deterministic polynomial,NP),需要對秩 函數(shù)進(jìn)行凸松弛,通常的做法是轉(zhuǎn)換成獨立的模展開矩陣的核范數(shù)求解,這樣每次迭代都需要進(jìn)行大量的奇異值分解(singular value decomposition,SVD)計算。盡管最近已經(jīng)提出了許多基于張量鏈分解的張量補(bǔ)全方法,但是與它們對原始數(shù)據(jù)施加低秩約束不同,受Tucker分解核心張量核范數(shù)[13]的啟發(fā),本文在張量鏈核心張量上引入最小化約束,這可以將大規(guī)模張量核范數(shù)問題轉(zhuǎn)換為小型核心張量核范數(shù)問題來解決,基于張量鏈分解的核心張量來解決低秩張量補(bǔ)全問題,并且給出了具體算法流程,最后運用交替方向乘子法(alternating direction of method of multipliers,ADMM)[14]求解,使其在迭代過程中具有穩(wěn)定性能并且計算高效。

        1 張量鏈分解

        采用通用的張量表示方法[15],標(biāo)量用大小寫字母表示,例如x,X,矢量和向量用加粗的小寫字母表示,例如x,矩陣由加粗的大寫字母表示,例如X,張量用手寫體表示,例如X。設(shè)I1,I2,...,IN表示各維度大小,張量X∈ ?I1×I2×…×IN表示一個大小為I1×I2×…×IN的N階張量。X(1),X(2),…,X(N)表示張量序列,其中X(n)表示序列中的第n個張量。張量個元 素 可 以 表 示 為xi1i2…iN或 者 X(i1,i2,…,iN)。表示張量X的模式-n矩陣展開,其反向操作是fold(n)(X),表示將[X](n)恢復(fù)成張量X。

        另外給出張量內(nèi)積和Frobenius范數(shù)定義,兩個相同大小張量X,Y的內(nèi)積定義如下:

        張量X的Frobenius范數(shù)定義如下:

        張量鏈分解[12]將高階張量分解為一組三階張量,這有助于從原始的高階張量獲得低階核心張量。張量X∈?I1×I2×…×IN的張量鏈分解形式可以表示為:

        核心張量G(n)是大小為Rn?1×In×Rn的三階張量,中間階大小In為原始張量對應(yīng)階的維數(shù),剩余兩階的維數(shù)稱為張量鏈分解秩。序列(R0,R1,…,RN)定義為張量鏈分解表達(dá)的秩,為了最終乘積是一個標(biāo)量,還需要秩約束為R0=RN=1的邊界條件。此外對張量中每個元素還有如下分解表達(dá)式:

        其中G(n)(in)∈?Rn?1×Rn是核心張量的模-2切片矩陣,也可以定義為G(n)(:,in,:)。本文中用運算符Ψ表示核心張量生成近似張量的的過程,即X=Ψ[G(n)]。

        2 張量鏈核心張量核范數(shù)最小化方法

        根據(jù)核心張量與原始張量之間的維度大小對應(yīng)關(guān)系,可以得出張量的秩受到其核心張量的秩的約束,意味著如果對核心張量施加低秩約束的同時也對張量自身進(jìn)行了低秩約束,考慮到核心張量較之原始張量有更低的維度,本算法選擇直接把核心張量的秩函數(shù)作為優(yōu)化目標(biāo),因此提出基于張量鏈核心張量的低秩張量補(bǔ)全問題,表達(dá)式為:

        其中X表示經(jīng)過補(bǔ)全算法得到低秩張量,Ω表示所有已知元素的集合,T表示張量中可以觀測到的部分,Ψ[G(n)]表示核心張量生成近似張量的運算。

        然而上述秩函數(shù)問題是一個NP難問題,需要用核心張量的核范數(shù)代替秩正則化進(jìn)行凸松弛。根據(jù)張量核范數(shù)的定義,又考慮到每個三階的核心張量分別有3種模展開方式,結(jié)合這3種模展開矩陣,可以得到核心張量的核范數(shù)定義如下:

        其中||·||?表示核范數(shù)計算,即矩陣所有奇異值 的 和并且αn>0表示各模式矩陣核范數(shù)的加權(quán)。結(jié)合核心張量核范數(shù)的定義以及式(5)的補(bǔ)全模型,將條件中的等式約束轉(zhuǎn)換為用來約束恢復(fù)的張量X與核心張量生成的張量Ψ[G(n)]的近似性,λ是一個用來平衡低秩約束項與近似約束項的參數(shù),由此得到式(5)的松弛模型,如式(7)所示:

        式(7)稱為基于張量鏈分解的核心張量核范數(shù)的低秩張量補(bǔ)全模型(low-rank tensor-train core tensor nuclear norm minimization,LTTCTNNm),接下來展示算法的具體求解方法。

        由于優(yōu)化問題中的變量是相互依賴的,引入輔助張量Mn,i,n=1,…,N,i=1,2,3來使變量分離,從而轉(zhuǎn)化為如式(8)的問題:

        通過將等式約束合并到拉格朗日函數(shù)中,得到式(8)的增廣拉格朗日函數(shù)為:

        其中Yn是拉格朗日乘子張量,運用交替方向乘子法[14],按以下方法迭代更新G(n),Mn,i,X,Yn:

        對于每個G(n),k+1,n=1,…,N,只保留有關(guān)的項之后,有如下優(yōu)化子問題,如式(10)所示:

        對式(10)求導(dǎo),取倒數(shù)為零的極值點可得式(11):

        上述形式是一個經(jīng)典矩陣核范數(shù)最小化問題,可以直接通過奇異值閾值(singular value thresholding,SVT)得到閉式解[16],如式(13)所示:

        更新恢復(fù)的張量X:

        得到如下解:

        張量X包括已經(jīng)觀測到的部分以及由迭代更新的核心張量生成的缺失部分張量表示。

        同時隨著迭代過程自動更新ρ,設(shè)置步長t,ρ=max{tρ,ρmax}。

        3 實驗部分

        通過進(jìn)行仿真實驗來驗證提出算法的性能與并于另外3種算法進(jìn)行對比,對比算法包括高精度低秩張量補(bǔ)全算法(high accuracy low rank tensor completion,HaLRTC)[17],以及另外兩種同樣基于張量鏈分解進(jìn)行的張量補(bǔ)全算法:張量鏈分解加權(quán) 優(yōu) 化 法(tensor train weighted optimization,TTWOPT)[18],張 量 鏈 分 解 隨 機(jī) 梯 度 下 降 法(tensor train stochastic gradientdescent,TTSGD)[19]。本文算法以及對比算法的參數(shù)設(shè)置如下:權(quán)重參數(shù)αn均 為10?1,ρ=max{tρ,ρmax},ρmax=100,t∈[1.1,1.2]尋最優(yōu),對比算法的參數(shù)設(shè)置為程序默認(rèn)值。另外設(shè)置了兩個終止條件,停止誤差設(shè)置為||Xk+1?Xk||/||Xk+1||<10?6,最大迭代次數(shù)maxiter=500。但是根據(jù)TTSGD算法的特點以及其算法默認(rèn)參數(shù)設(shè)置,可以了解到TTSGD至少迭代105次才能達(dá)到與其他算法相近的精確度,為了使實驗看上去具有可對比性,所以將TTSGD迭代次數(shù)設(shè)置為105。實驗主要分為兩個部分:實際圖像恢復(fù)效果和合成數(shù)據(jù)仿真實驗。

        3.1 實際圖像數(shù)據(jù)

        主要進(jìn)行自然彩色圖像的丟失數(shù)據(jù)估計的應(yīng)用,并將實際圖像用于提出算法與對比算法進(jìn)行收斂性與運行時間的對比。對圖像估計恢復(fù)效果的評估主要依據(jù)兩個評估標(biāo)準(zhǔn):相對平方誤差(relative squared error,RSE)和峰值信噪比(peak signal to noise ratio,PSNR),分別用E和P表示。E=||T?X||F/||T||,X是恢復(fù)后的張量,T是原始張量,RSE越小證明恢復(fù)效果越好。P=10log10(2552/S),其 中S=||Treal?X||2F/u(Treal),u(Treal)表示張量中所有元素的數(shù)量,PSNR越大證明實驗恢復(fù)效果越好。圖1為實驗測試的RGB圖像,均為三階張量數(shù)據(jù)。第1個實驗在這4個圖像數(shù)據(jù)上進(jìn)行,設(shè)定缺失率為80%,比較4個算法的實際圖像恢復(fù)效果,圖2每行是不同的圖像,由左到右每列分別是圖像80%缺失效果和本文算法、HaLRTC、TTSGD、TTWOPT算法補(bǔ)全結(jié)果,可以直觀的看到各個算法在實際圖像中補(bǔ)全效果上的差異,可以看出在缺失率較高的時候,肉眼已經(jīng)很難看出原圖的樣子,幾種算法基本都能恢復(fù)出大致的輪廓,但是本文算法與TTWOPT算法明顯視覺效果強(qiáng)于另外兩種算法。從Lena圖中臉部細(xì)節(jié)和House圖中煙囪細(xì)節(jié)來看,本文算法比TTWOPT局部更加清晰。

        圖1 實驗RGB圖像Fig.1 Experimental RGB images

        圖2 每行的不同圖像在80%缺失率時各算法的補(bǔ)全結(jié)果Fig.2 Completion results of each algorithm in case of 80%missing rate of different images

        第二個實驗選取實驗大小為256×256×3圖像Lena作為對象,進(jìn)行了多個對比實驗,包括不同算法的相對平方誤差以及峰值信噪比隨采樣率從低到高變化的情況(圖3),不同算法達(dá)到相同誤差精度10?6需要的迭代次數(shù)以及整個算法運行需要的時間隨采樣率變化的情況[圖4(a,b)]。

        圖3 算法的RSE和PSNR隨采樣率變化的對比:(a)RSE,(b)PSNRFig.3 Comparison of RSE and PSNR of algorithms with different sampling rates:(a)RSE,(b)PSNR

        由圖3可以看出,提出的算法除了在采樣率極低(低于20%)的情況下評估標(biāo)準(zhǔn)RSE和PSNR結(jié)果都是優(yōu)于其余3種算法。接下來為了保證迭代次數(shù)實驗和運行時間實驗的準(zhǔn)確性,根據(jù)TTSGD算法的已知參數(shù)設(shè)置,可以明顯確認(rèn)該算法的在相同的誤差停止條件下,在運行時間和迭代次數(shù)兩方面都是遠(yuǎn)遠(yuǎn)超過其他3種算法的,無需再進(jìn)行這兩方面的對比,因此排除對比算法TTSGD,僅對比本文算法與HaLRTC和TTWOPT3種算法。

        圖4(a)顯示了本文算法與對比算法在收斂性方面的性能對比,在實驗結(jié)果中,橫坐標(biāo)為各種算法的迭代次數(shù),縱坐標(biāo)顯示每步迭代結(jié)果的相對變化值。由此可以看出本文算法迭代速度很快,一般在50次以內(nèi)就收斂了,但是相同條件下也是基于張量鏈分解的TTWOPT算法收斂迭代次數(shù)將近300次。圖4(b)對比了3種算法在不同采樣率下的運行時間,從運行效率的角度看,整體上是采樣率越高耗時越短,計算相對簡單的HaLRTC需要的時間并不長,采樣率較高時本文算法略快于HaLRTC,整體說來差距并不明顯。但是對比運算同樣較復(fù)雜的TTWOPT算法,本文算法在運行時間實驗上表現(xiàn)的性能明顯優(yōu)于TTWOPT算法。

        圖4 (a)圖像缺失率50%時各算法收斂性分析對比,(b)算法運行時間隨采樣率變化的對比Fig.4(a)Convergence analysiscomparison of algorithms at 50%missing rate,(b)comparison of algorithms running time with different sampling rates

        3.2 合成數(shù)據(jù)

        考慮用人工合成數(shù)據(jù)驗證該算法的有效性,首先通過張量鏈分解的方式分別生成四階和三階的2個實驗張量 X∈?50×50×50×50和 Y∈?80×80×80,其中核心張量都獨立服從標(biāo)準(zhǔn)正態(tài)高斯分布,通過對核心張量的運算Ψ[G(n)]得到實驗張量,對合成數(shù)據(jù)采用RSE作為性能評估標(biāo)準(zhǔn)??紤]到實驗的隨機(jī)性,每個實驗數(shù)據(jù)的結(jié)果都是取10次實驗的平均結(jié)果。由圖5(a)和(b)分別給出了算法在四階和三階張量情況下的對比實驗結(jié)果,結(jié)果表明,本文算法除了在采樣率極低的情況(20%以下)性能一般,除此以外表現(xiàn)穩(wěn)定,恢復(fù)精度明顯高于其他3種算法。而較其他3種算法需要千倍以上迭代次數(shù)的TTSGD,由于在本次對比實驗中需要的迭代次數(shù)太多而被提前終止,表現(xiàn)得極其不穩(wěn)定并且精度較差。

        圖5 合成張量數(shù)據(jù)上各算法的RSE隨采樣率變化的對比:(a)四階張量,(b)三階張量Fig.5 Comparison of RSE of each algorithm on synthetic tensors with different sampling rates:(a)fourth-order tensor,(b)third-order tensor

        4 結(jié) 論

        以上對基于張量鏈分解對缺失張量進(jìn)行了低秩張量補(bǔ)全的研究,該算法在張量鏈分解的核心張量上采用了低秩約束方法,并通過凸松弛轉(zhuǎn)換為核心張量核范數(shù)最小化求解,這樣能夠有效降低高階張量的計算規(guī)模。實驗表明,本文方法運行時間更短,迭代收斂更快,補(bǔ)全結(jié)果也比較好,綜合各方面性能均優(yōu)于對比算法。

        猜你喜歡
        三階張量范數(shù)
        三階非線性微分方程周期解的非退化和存在唯一性
        偶數(shù)階張量core逆的性質(zhì)和應(yīng)用
        四元數(shù)張量方程A*NX=B 的通解
        基于加權(quán)核范數(shù)與范數(shù)的魯棒主成分分析
        矩陣酉不變范數(shù)H?lder不等式及其應(yīng)用
        擴(kuò)散張量成像MRI 在CO中毒后遲發(fā)腦病中的應(yīng)用
        三類可降階的三階非線性微分方程
        三階微分方程理論
        一類具有準(zhǔn)齊次核的Hilbert型奇異重積分算子的范數(shù)及應(yīng)用
        工程中張量概念的思考
        河南科技(2014年19期)2014-02-27 14:15:33
        老熟妇仑乱一区二区视頻| 无人区乱码一区二区三区| 国产免费艾彩sm调教视频| 比比资源先锋影音网| 精品日韩欧美| 精品人妻在线一区二区三区在线| 久久精品色福利熟妇丰满人妻91| 国产精品久久久久久无码| 免费超爽大片黄| 国产精品女同二区五区九区| 久久亚洲中文字幕精品二区| 久久精品中文闷骚内射| 综合久久给合久久狠狠狠97色| 亚洲国产日韩在线精品频道| 深夜福利国产精品中文字幕| 无码人妻丰满熟妇区五十路| 中国极品少妇videossexhd| 久久精品国产精品亚洲艾| 中文字幕一区二区av| 亚洲精品久久久久avwww潮水| japanesehd中国产在线看| 久久精品国产亚洲av热一区| 亚洲天堂av中文字幕在线观看| 国产成人av一区二区三区| 一区一级三级在线观看| 久久精品成人一区二区三区蜜臀| 丰满人妻一区二区三区蜜桃| 乱人伦中文无码视频| 国产老妇伦国产熟女老妇高清| 国产自拍一区二区三区| 亚洲一区av在线观看| 亚洲 欧美 综合 另类 中字| 青青草原亚洲在线视频| 亚洲最近中文字幕在线| 午夜精品一区二区三区的区别| 国产精品国产三级国产专播| 自拍偷拍韩国三级视频| 在线观看视频播放| 一国产区在线观看| 一区二区三区黄色一级片| 少妇裸体性生交|