趙 志,許 可,馬燕新,萬(wàn)建偉
(1. 國(guó)防科技大學(xué) 電子科學(xué)學(xué)院, 湖南 長(zhǎng)沙 410073; 2. 國(guó)防科技大學(xué) 氣象海洋學(xué)院, 湖南 長(zhǎng)沙 410073)
隨著點(diǎn)云在自動(dòng)駕駛、機(jī)器人、虛擬現(xiàn)實(shí)和增強(qiáng)現(xiàn)實(shí)等領(lǐng)域的應(yīng)用需求不斷增加,基于深度學(xué)習(xí)的點(diǎn)云網(wǎng)絡(luò)模型得到了廣泛的研究[1-9]。這些成果雖然取得了較為滿意的結(jié)果,但耗時(shí)耗能耗資源的缺陷極大地限制了其在資源有限的移動(dòng)端設(shè)備上的應(yīng)用。所以如何使現(xiàn)有的深度模型真正落地應(yīng)用是值得進(jìn)一步探索的。雖然當(dāng)前一些研究成果[7-9]在推理速度和存儲(chǔ)上的性能有一定提升,但其仍然是基于昂貴的浮點(diǎn)數(shù)運(yùn)算,占用了較多的計(jì)算資源。
網(wǎng)絡(luò)量化作為模型壓縮的一種重要方式,是解決該問(wèn)題的有效途徑,即把高位表示的權(quán)值或者激活值用較低位來(lái)近似表示,將連續(xù)的數(shù)值離散化,主要包括8位、4位、2位和1位量化。尤其對(duì)于1位,即二值量化,只存在兩個(gè)數(shù)值-1(0)或+1,煩瑣的矩陣乘法可以用簡(jiǎn)便的按位XNOR操作和Bitcount操作替代,可以實(shí)現(xiàn)最大的壓縮比,進(jìn)而最大限度地解決網(wǎng)絡(luò)模型耗時(shí)耗存儲(chǔ)的問(wèn)題[10-18]。但二值量化的同時(shí)伴隨的是精度的大幅度下降,如何提升二值量化網(wǎng)絡(luò)模型的精度一直是國(guó)內(nèi)外研究的熱點(diǎn),也是模型量化領(lǐng)域最具挑戰(zhàn)性的問(wèn)題。
當(dāng)前關(guān)于模型二值量化的研究在圖像領(lǐng)域研究較多,而在點(diǎn)云領(lǐng)域研究很少。包括BNN[16]和XNOR[17]在內(nèi)的典型二值量化方法,在二維圖像領(lǐng)域已得到了廣泛的應(yīng)用,表明二值量化具有重要的應(yīng)用價(jià)值。而由于圖像和點(diǎn)云之間存在的根本性差異,圖像網(wǎng)絡(luò)適用的二值量化方法并不能直接移植到點(diǎn)云網(wǎng)絡(luò)上來(lái)。點(diǎn)云網(wǎng)絡(luò)通過(guò)設(shè)計(jì)對(duì)稱函數(shù)(如池化操作)來(lái)聚合點(diǎn)的特征以更好地處理點(diǎn)云的無(wú)序性。而不同于全精度網(wǎng)絡(luò),對(duì)于二值量化來(lái)說(shuō),池化操作較大程度地改變了隱藏層特征的統(tǒng)計(jì)特性,導(dǎo)致特征的可區(qū)分性下降較為明顯。北京航空航天大學(xué)研究團(tuán)隊(duì)[19]提出的BiPointnet是近年來(lái)針對(duì)點(diǎn)云網(wǎng)絡(luò)模型量化壓縮研究的重要成果,通過(guò)設(shè)計(jì)最大熵聚合(entropy maximizing aggregation,EMA)模塊和分層尺度恢復(fù)(layer-wise scale recovery, LSR)模塊,尤其是最大熵聚合改善了池化層操作造成的特征同質(zhì)退化問(wèn)題,有效提升了全局特征的表示能力,較大程度地降低了量化導(dǎo)致的較大尺度變形。
當(dāng)前,點(diǎn)云網(wǎng)絡(luò)模型壓縮的研究剛剛起步,仍存在較多的問(wèn)題亟待解決。二維視覺(jué)模型量化壓縮主要通過(guò)減小量化誤差、減小梯度誤差、改進(jìn)損失函數(shù)以及改變網(wǎng)絡(luò)結(jié)構(gòu)等來(lái)提升性能[20]。目前對(duì)改進(jìn)損失函數(shù)的研究主要包括給原損失函數(shù)添加蒸餾損失項(xiàng)[21-24]或非蒸餾損失項(xiàng)[25-28],其中,蒸餾損失是利用從全精度模型提取的信息來(lái)指導(dǎo)訓(xùn)練量化網(wǎng)絡(luò),可對(duì)中間層或softmax輸出層進(jìn)行蒸餾,而非蒸餾損失如激活分布損失[25]、通道相互作用損失[26]、增量量化損失[27]、損失感知量化[28]等,其中損失感知量化采用擬牛頓算法將與權(quán)重量化相關(guān)的總損失最小化。本文針對(duì)點(diǎn)云網(wǎng)絡(luò)模型二值量化的問(wèn)題,聚焦改善損失函數(shù),首次將知識(shí)蒸餾方法[29-34]引入點(diǎn)云二值量化模型,設(shè)計(jì)點(diǎn)云深度模型壓縮框架,考慮特征聚合問(wèn)題引入了輔助損失項(xiàng),改進(jìn)的損失函數(shù)包括預(yù)測(cè)損失、蒸餾損失和輔助損失項(xiàng)。針對(duì)設(shè)計(jì)的損失項(xiàng)開(kāi)展消融實(shí)驗(yàn),對(duì)點(diǎn)云分類、部件分割以及語(yǔ)義分割不同任務(wù)進(jìn)行對(duì)比實(shí)驗(yàn)。當(dāng)前,用于點(diǎn)云全局特征聚合的最大池化也是大多數(shù)點(diǎn)云網(wǎng)絡(luò)架構(gòu)采取的流行設(shè)計(jì)方法[35],所以考慮算法的擴(kuò)展性,在PointNet++[3]、PointCNN[4]和DGCNN[5]其他主流點(diǎn)云網(wǎng)絡(luò)模型上進(jìn)行拓展實(shí)驗(yàn),以驗(yàn)證算法的有效性。
首先提出新的點(diǎn)云二值量化模型,進(jìn)而分兩個(gè)模塊具體介紹蒸餾損失和輔助損失。
如圖1所示,模型主要包括教師網(wǎng)絡(luò)、學(xué)生網(wǎng)絡(luò)和知識(shí)蒸餾部分,其中教師網(wǎng)絡(luò)即點(diǎn)云全精度網(wǎng)絡(luò),學(xué)生網(wǎng)絡(luò)即點(diǎn)云二值量化網(wǎng)絡(luò),圖中聚合(Aggregation)表示最大池化或最大熵聚合方法。通過(guò)引入全精度網(wǎng)絡(luò)相關(guān)的軟目標(biāo)(Soft Targets)來(lái)誘導(dǎo)量化網(wǎng)絡(luò)的訓(xùn)練,實(shí)現(xiàn)知識(shí)遷移,使得量化網(wǎng)絡(luò)的性能更加接近全精度網(wǎng)絡(luò)的性能。除蒸餾損失外,量化網(wǎng)絡(luò)預(yù)測(cè)值與真實(shí)標(biāo)簽存在預(yù)測(cè)損失;設(shè)計(jì)量化網(wǎng)絡(luò)與全精度網(wǎng)絡(luò)對(duì)應(yīng)池化層輸出誤差為輔助損失項(xiàng),起正則化作用。
圖1 PointNet模型壓縮總體流程Fig.1 Overall flowchart of proposed PointNet model compression
問(wèn)題定義:全精度網(wǎng)絡(luò)模型用f(x;α)表示,其中x是網(wǎng)絡(luò)輸入,α是全精度模型參數(shù);二值量化網(wǎng)絡(luò)模型用q(x;β)表示,其中β是量化模型參數(shù)。通過(guò)知識(shí)蒸餾,最小化目標(biāo)函數(shù),為二值量化網(wǎng)絡(luò)學(xué)習(xí)優(yōu)化的參數(shù)β使得q(x;β)接近f(x;α)的性能。學(xué)習(xí)過(guò)程中蒸餾損失函數(shù)定義為L(zhǎng)KD,其中蒸餾軟目標(biāo)損失項(xiàng)為L(zhǎng)DS,預(yù)測(cè)損失項(xiàng)為L(zhǎng)CE(表示量化預(yù)測(cè)損失項(xiàng)LCES或全精度預(yù)測(cè)損失項(xiàng)LCET),輔助損失項(xiàng)為L(zhǎng)reg。通過(guò)最小化損失函數(shù),使量化模型達(dá)到收斂,減少量化模型預(yù)測(cè)誤差。
訓(xùn)練全精度網(wǎng)絡(luò)學(xué)習(xí)得到的優(yōu)化參數(shù)為:
(1)
全精度網(wǎng)絡(luò)輸出預(yù)測(cè)概率為:
(2)
其中:下標(biāo)f表示全精度網(wǎng)絡(luò);T為溫度超參數(shù),該參數(shù)控制對(duì)軟目標(biāo)的依賴程度,隨著參數(shù)值的增大,軟目標(biāo)的分布更趨均勻。
蒸餾軟目標(biāo)損失為:
log2pq(li=z|xi;β*)]
(3)
其中,Δ表示訓(xùn)練樣本序號(hào)標(biāo)識(shí)集,Z表示標(biāo)簽集,z為類別標(biāo)簽,下標(biāo)q表示量化網(wǎng)絡(luò),β*為量化網(wǎng)絡(luò)學(xué)習(xí)的參數(shù)。
一方面,考慮量化預(yù)測(cè)與全精度預(yù)測(cè)的差異;另一方面,同時(shí)考慮量化預(yù)測(cè)與真實(shí)標(biāo)簽的差異:
(4)
則蒸餾損失為:
LKD=λLDS+(1-λ)LCE
(5)
其中,λ是平衡二者重要性的超參數(shù)。
在分析二值量化網(wǎng)絡(luò)中最大池化對(duì)其性能影響的基礎(chǔ)上,提出正則化輔助損失項(xiàng)。
1.3.1 最大池化對(duì)性能影響分析
從信息熵[19,36-38]角度考慮,信息熵反映了所含信息量的多少或者復(fù)雜程度,經(jīng)過(guò)池化操作后得到的分布的熵越小,特征的可區(qū)分性越低,相反熵越大,所含信息越“多樣化”,特征可鑒別能力越強(qiáng)。
對(duì)全精度進(jìn)行二值量化,考慮條件熵,即在已知全精度變量F下的二值量化變量Q的不確定性:
(6)
使用量化函數(shù)sign進(jìn)行二值量化,有pQ|F=f(q)={0,1},則下式成立:
(7)
可知二值量化后的熵必然小于全精度的熵,量化必然導(dǎo)致特征表達(dá)能力下降,遠(yuǎn)不如全精度特征表達(dá)性能。信息熵的取值范圍為[0,log2m],其中m為類別數(shù)。對(duì)于二值量化而言,m取值為2,熵最大值遠(yuǎn)小于全精度的最大熵值,決定了其特征表征的能力范圍十分有限。
記最大池化操作為φ(·),池化層輸入為Iφ,輸出為R,經(jīng)最大池化輸出與輸入概率質(zhì)量函數(shù)關(guān)系為:
(8)
對(duì)于二值量化,最大池化后特征熵為:
(9)
(10)
故當(dāng)wn=0.5時(shí)取最大值,設(shè)此時(shí)n取值為nopt。當(dāng)wn<0.5時(shí)遞增,正如之前分析的,即使增到最大值,二值量化熵值依然較小,特征表征能力很有限;當(dāng)wn≥0.5時(shí)遞減,隨著n的不斷增大,熵值遞減直至趨于0,最大池化后的特征表征能力也大幅下降。從二維圖像到三維點(diǎn)云,網(wǎng)絡(luò)池化聚合核的尺寸也急劇增大,導(dǎo)致特征可鑒別能力嚴(yán)重下降。
1.3.2 正則損失項(xiàng)
通過(guò)以上分析,為了進(jìn)一步減小最大池化對(duì)二值量化性能的影響,通過(guò)讓量化網(wǎng)絡(luò)的池化層輸出去學(xué)習(xí)全精度網(wǎng)絡(luò)的池化層輸出,進(jìn)而引入誤差正則化項(xiàng)來(lái)優(yōu)化目標(biāo)損失函數(shù),提高量化模型泛化能力。對(duì)于隱藏層,僅學(xué)習(xí)有較大影響的池化層輸出知識(shí)對(duì)計(jì)算代價(jià)要求較低,是可取的。
輔助損失項(xiàng)定義為:
(11)
其中,g(·)表示正則化函數(shù),h表示池化層輸出,下標(biāo)q和f分別表示量化網(wǎng)絡(luò)和全精度網(wǎng)絡(luò),上標(biāo)p標(biāo)識(shí)對(duì)應(yīng)的池化層。
這里,g(·)選取常見(jiàn)正則化項(xiàng)[39-40],作為輔助損失項(xiàng)便于對(duì)比分析,如表1所示。各范數(shù)表達(dá)式依據(jù)上標(biāo)區(qū)分,如上標(biāo)F標(biāo)識(shí)取F-范數(shù)(通常也稱L2范數(shù)),其余符號(hào)標(biāo)識(shí)類同。
表1 正則化項(xiàng)Tab.1 Regularization terms
1.4.1 訓(xùn)練損失函數(shù)
當(dāng)采用預(yù)先訓(xùn)練好的全精度模型作為教師模型時(shí),將第1.2節(jié)和1.3節(jié)設(shè)計(jì)的損失函數(shù)相加作為二值量化網(wǎng)絡(luò)蒸餾訓(xùn)練總的損失函數(shù):
Ltotal1=LKD+η·Lreg
=λ·LDS+(1-λ)·LCE+η·Lreg
(12)
其中,η為衡量蒸餾池化層輸出特征重要性的超參數(shù)。
1.4.2 訓(xùn)練方案
全精度網(wǎng)絡(luò)模型已預(yù)先訓(xùn)練好,網(wǎng)絡(luò)訓(xùn)練采用離線訓(xùn)練的方式,知識(shí)從預(yù)訓(xùn)練的全精度模型轉(zhuǎn)移到二值量化模型,具體見(jiàn)算法1。
算法1 離線蒸餾訓(xùn)練Alg.1 Offline training with knowledge distillation
實(shí)驗(yàn)配置:Intel?CoreTMi5-9400,內(nèi)存16 GB;顯卡NVIDIA GeForce RTX 2080Ti。本文實(shí)驗(yàn)采用點(diǎn)云公開(kāi)數(shù)據(jù)集ModelNet40,包含40個(gè)類別的12 311個(gè)三維形狀。實(shí)驗(yàn)選取4種典型的二值量化算法——BNN、XNOR、IRNET和BiPointnet,算法對(duì)比如表2所示。實(shí)驗(yàn)中各算法標(biāo)識(shí)含義:BNN+MAX為點(diǎn)云網(wǎng)絡(luò)量化采用BNN算法、最大池化;BNN+MAX+KDR為在BNN+MAX的基礎(chǔ)上進(jìn)行知識(shí)蒸餾和輔助正則化(用KDR標(biāo)識(shí));BNN+EMA表示點(diǎn)云網(wǎng)絡(luò)量化采用BNN算法和最大熵聚合(EMA)方法,其中,EMA利用信息熵減少池化特征信息損失;BNN+EMA+KDR表示在BNN+EMA的基礎(chǔ)上進(jìn)行知識(shí)蒸餾和輔助正則化;對(duì)于其他二值量化算法XNOR、IRNET和BiPointnet,其標(biāo)識(shí)含義類似,其中LSR+EMA即為BiPointnet。本實(shí)驗(yàn)所有原算法運(yùn)行結(jié)果與對(duì)應(yīng)改進(jìn)算法基于相同的實(shí)驗(yàn)配置得出。
表2 所選量化算法對(duì)比Tab.2 Selected quantization algorithms comparison
實(shí)驗(yàn)主要驗(yàn)證不同T取值對(duì)蒸餾結(jié)果的影響,其取值為1到10。任選一種正則化項(xiàng)進(jìn)行驗(yàn)證,本實(shí)驗(yàn)選取F-范數(shù),針對(duì)8種算法的具體實(shí)驗(yàn)結(jié)果如圖2所示。
圖2 不同T值的結(jié)果變化曲線Fig.2 Variable curves for various T
綜合分析可以看出,隨著T值的增大,精度整體呈現(xiàn)下降趨勢(shì),較高的精度以大概率集中在[1,3]的T值區(qū)間內(nèi)。當(dāng)T值取1到10時(shí),8種方法各有10個(gè)精度值,有2種算法在T=1時(shí)取到各自最大值,4種算法在T=2時(shí)取到各自最大值,2種算法在T=3時(shí)取到各自最大值,故本實(shí)驗(yàn)統(tǒng)一取T值為2。此實(shí)驗(yàn)結(jié)果符合Hinton在文獻(xiàn)[29]中指出的結(jié)論,當(dāng)學(xué)生網(wǎng)絡(luò)比教師網(wǎng)絡(luò)小得多時(shí)取值較小的T比較大的T更有效。而二值量化網(wǎng)絡(luò)與全精度網(wǎng)絡(luò)相比,位數(shù)極限壓縮至1位,與全浮點(diǎn)數(shù)的網(wǎng)絡(luò)相比小很多,因此選取小的T值效果更好,本實(shí)驗(yàn)選取T的值為2是合理的。
本實(shí)驗(yàn)主要對(duì)比不同正則化項(xiàng)在不同量化方法中的性能,進(jìn)而驗(yàn)證后續(xù)實(shí)驗(yàn)選取何種正則化項(xiàng)。實(shí)驗(yàn)選取T=2,針對(duì)4種方法BNN、XNOR、IRNET和BiPointnet進(jìn)行對(duì)比實(shí)驗(yàn),其中前三種池化聚合為MAX,最后一種聚合方法采取EMA。為了驗(yàn)證正則化項(xiàng)的有效性,在原損失函數(shù)的基礎(chǔ)上,設(shè)計(jì)總損失函數(shù)為:
Ltotal=Lorigin+η·Lreg
(13)
實(shí)驗(yàn)結(jié)果如表3所示,加粗?jǐn)?shù)字分別為同種量化方法不同正則化項(xiàng)中的最高精度??梢钥闯?1-范數(shù)在三種方法中取得了最高精度,且具有明顯比較優(yōu)勢(shì),在對(duì)BiPointnet正則化后精度甚至高達(dá)86.9%,對(duì)XNOR正則化后精度也突破86%,在BNN方法中精度55.8%僅次于無(wú)窮范數(shù)的56.4%。而L1范數(shù)性能最差,正則化提升幅度小,甚至存在低于原精度情況,如對(duì)BiPointnet正則化精度僅為82.6%,低于原精度3.5%,沒(méi)有起到正則化作用。從精度來(lái)看,1-范數(shù)總體上性能優(yōu)于其他類型。圖3為XNOR量化方法添加不同正則化項(xiàng)得到的誤差隨訓(xùn)練次數(shù)變化曲線。可以看出,1-范數(shù)正則化方法具有較好的收斂性能,隨著訓(xùn)練次數(shù)的增加,尤其在訓(xùn)練160次后,相比較于其他范數(shù)其誤差收斂到最小值,獲得最高精度,而L1范數(shù)的正則化性能明顯低于其他范數(shù)。綜上分析,后續(xù)實(shí)驗(yàn)統(tǒng)一選取1-范數(shù)作為損失正則化項(xiàng)。
表3 采取不同正則化項(xiàng)的實(shí)驗(yàn)結(jié)果Tab.3 Experiment results of various regularization terms %
圖3 正則化誤差變化曲線Fig.3 Regularization error variation curves
本實(shí)驗(yàn)依據(jù)選取的二值量化算法BNN、XNOR、IRNET和BiPointnet,選取最大池化或改進(jìn)的最大熵聚合以及是否進(jìn)行知識(shí)蒸餾和正則化,對(duì)8種算法的精度進(jìn)行對(duì)比驗(yàn)證,結(jié)果如表4所示??梢钥闯?在選取最大池化而未進(jìn)行蒸餾正則化的四種算法BNN+MAX、XNOR+MAX、IRNET+MAX和LSR+MAX中,除XNOR外,其他算法精度均大幅小于全精度算法;在進(jìn)行知識(shí)蒸餾和池化正則化后,XNOR算法精度提高了14.6%,其余三種算法精度提升幅度均在雙倍以上,由此可以看出加入本文蒸餾正則化后實(shí)現(xiàn)了算法性能的大幅提升。采用最大熵聚合的四種方法BNN+EMA、XNOR+EMA、IRNET+EMA和LSR+EMA,加入蒸餾正則化后精度分別提高了35.7%、3.6%、10.4%和1.0%,更接近全精度模型精度,尤其是LSR+EMA+KDR將精度提高到了87.1%。
表4 對(duì)比實(shí)驗(yàn)結(jié)果Tab.4 Comparable experiment results
本實(shí)驗(yàn)主要驗(yàn)證兩個(gè)模塊包括知識(shí)蒸餾和輔助正則化的作用效果,分別用LKD和Lreg標(biāo)識(shí)。實(shí)驗(yàn)結(jié)果如表5所示,與原算法相比,兩個(gè)模塊單獨(dú)作用時(shí)精度均有提升,兩個(gè)模塊共同作用時(shí)的算法精度均高于單個(gè)模塊作用時(shí)的精度。使用最大池化,BNN、IRNET、XNOR和LSR四種算法單模塊作用時(shí)精度均大幅提升,知識(shí)蒸餾單獨(dú)作用時(shí)精度分別提升了16.9%、16.8%、12.5%和45.8%,而在正則化單獨(dú)作用時(shí)精度分別提升了29.0%、29.6%、14.3%和50.3%。使用最大熵聚合,四種算法單模塊作用時(shí)精度也有不同程度的提升;BNN算法提升幅度最大,其中知識(shí)蒸餾單獨(dú)作用時(shí)精度提升了34.3%,在正則化單獨(dú)作用時(shí)精度提升了33.9%。綜上可以看出,知識(shí)蒸餾和正則化對(duì)量化模型精度的提升作用非常明顯。
表5 消融實(shí)驗(yàn)結(jié)果Tab.5 Ablation experiment results %
本實(shí)驗(yàn)旨在驗(yàn)證本文所提算法的泛化性能。在PointNet模型實(shí)驗(yàn)基礎(chǔ)上,選取另外典型的3種點(diǎn)云主流骨干網(wǎng)絡(luò)模型PointNet++、PointCNN和DGCNN,選用XNOR和BiPointnet兩種二值量化方法,所得實(shí)驗(yàn)結(jié)果如表6所示。經(jīng)分析得出,相比于XNOR+MAX和LSR+EMA(由于PointCNN采用X-Conv取代最大池化,因此本實(shí)驗(yàn)中未添加池化正則化損失項(xiàng),采取XNOR+KD和LSR+KD),各網(wǎng)絡(luò)的精度均有提升,驗(yàn)證了算法的泛化性能。圖4給出DGCNN在全精度、LSR+EMA和LSR+EMA+KDR三種算法下測(cè)試誤差隨訓(xùn)練次數(shù)變化的曲線,本文算法誤差曲線整體上介于全精度和LSR+EMA誤差曲線之間,說(shuō)明基于知識(shí)蒸餾和輔助損失的方法改善了DGCNN量化精度性能,更接近于全精度網(wǎng)絡(luò)精度。
表6 拓展實(shí)驗(yàn)結(jié)果Tab.6 Extended experiment results
圖4 誤差隨訓(xùn)練次數(shù)變化曲線Fig.4 Variable error curves with training numbers
本實(shí)驗(yàn)通過(guò)時(shí)間復(fù)雜度浮點(diǎn)運(yùn)算次數(shù)(floating point operations,FLOPs)和空間復(fù)雜度參數(shù)量?jī)蓚€(gè)指標(biāo)來(lái)衡量點(diǎn)云深度模型量化壓縮后的性能。本節(jié)主要分析采用所提8種量化方法對(duì)PointNet模型量化后的性能,在其余主流點(diǎn)云深度模型中的量化性能分析與此類似。表7給出了PointNet及其各種量化方法的表現(xiàn)性能,包括單樣本浮點(diǎn)運(yùn)算數(shù)(FLOPs/sample)、加速比、參數(shù)量和壓縮比四項(xiàng)。
表7 復(fù)雜度分析結(jié)果Tab.7 Complexity analysis results
由表7可以分析得出,相比于全精度模型,8種方法平均加速45倍,其中BNN+MAX+KDR、IRNET+MAX+KDR和LSR+MAX+KDR這3種方法加速50倍以上,而加速比最小的XNOR+EMA+KDR也加速了37倍。相比于全精度模型參數(shù)量,除XNOR+MAX+KDR和XNOR+EMA+KDR外,其余6種方法參數(shù)量壓縮均在22倍以上。由于XNOR量化是對(duì)各通道進(jìn)行量化,因而相比于其他方法,參數(shù)量要大,精度也相對(duì)高于BNN和IRNET。相比較而言,LSR+MAX+KDR和LSR+EMA+KDR分別在最大池化(MAX)和最大熵聚合(EMA)的同類方法中性能最優(yōu),保持高精度的同時(shí)具有高加速比和高壓縮比。綜上分析,本文所提點(diǎn)云深度模型加入知識(shí)蒸餾和正則化后,大幅度提高精度的同時(shí),具備了較高的加速和壓縮性能。
針對(duì)三維點(diǎn)云深度學(xué)習(xí)網(wǎng)絡(luò)模型存在的應(yīng)用實(shí)際問(wèn)題,結(jié)合當(dāng)前二值量化模型研究現(xiàn)狀,將知識(shí)蒸餾方法引入點(diǎn)云二值量化模型中,解決了量化精度大幅下降問(wèn)題。同時(shí)考慮相比于二維圖像,三維點(diǎn)云深度學(xué)習(xí)模型有其特殊性,本文在分析池化聚合影響的基礎(chǔ)上,提出了正則化輔助損失函數(shù)項(xiàng),與蒸餾損失項(xiàng)共同構(gòu)成總的損失函數(shù),有效地解決池化對(duì)點(diǎn)云二值量化模型預(yù)測(cè)精度的不利影響。通過(guò)在公共數(shù)據(jù)集上實(shí)驗(yàn),結(jié)果顯示,該算法可以使點(diǎn)云二值量化模型取得更接近全精度模型精度的性能,同時(shí)取得較高的加速比和壓縮比,而且可以較方便地移植到其他主流點(diǎn)云深度學(xué)習(xí)網(wǎng)絡(luò)模型上。