皋婕,季澤華,楊智欽,熊鳳超,陸建峰
(南京理工大學(xué)計(jì)算機(jī)科學(xué)與工程學(xué)院,江蘇 南京 210094)
顯著性目標(biāo)檢測(cè)旨在模擬人類的視覺(jué)系統(tǒng),發(fā)現(xiàn)圖像中的感興趣的目標(biāo),是計(jì)算機(jī)視覺(jué)重要研究?jī)?nèi)容。顯著性概念的提出是受到早期靈長(zhǎng)類動(dòng)物視覺(jué)系統(tǒng)和神經(jīng)元結(jié)構(gòu)的啟發(fā)[1],引入顯著性的概念可以將有限的計(jì)算資源分配給圖像視頻中更重要的部分。因此,顯著性檢測(cè)在視覺(jué)跟蹤[2-3]、語(yǔ)義分割[4],圖像視頻壓縮,圖像檢索等領(lǐng)域中有著重要的應(yīng)用價(jià)值。
早期顯著性檢測(cè)方法,大多數(shù)基于手工特征如強(qiáng)度、顏色、方向的特征[5-7],或這些特征的組合生成顯著圖。隨著近幾年卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)的應(yīng)用越來(lái)越廣泛,基于深度學(xué)習(xí)的顯著目標(biāo)檢測(cè)方法得到大量研究。
此類模型通過(guò)學(xué)習(xí)大量的輸入與輸出之間的非線性映射關(guān)系,避免了顯式的手工特征抽取,具有更強(qiáng)的表達(dá)能力?;诰矸e神經(jīng)網(wǎng)絡(luò)的顯著性檢測(cè)模型表現(xiàn)遠(yuǎn)好于早期的基于手工特征的模型,其中以基于全卷積神經(jīng)網(wǎng)絡(luò)(Fully Convolutional Networks, FCN)的顯著模型為代表[8-9]。
雖然基于彩色圖像的顯著性目標(biāo)檢測(cè)的研究已經(jīng)取得了很大的進(jìn)展,但是在某些場(chǎng)景中,這些已經(jīng)十分成熟的模型會(huì)失效,如目標(biāo)與周圍的環(huán)境具有相近的顏色、紋理,并且沒(méi)有明顯的邊緣,這種情況下彩色圖像提供的信息不足以正確識(shí)別出感興趣的對(duì)象。
高光譜成像技術(shù)為解決此類問(wèn)題提供了新方案,高光譜圖像記錄了每個(gè)目標(biāo)的連續(xù)光譜信息,這是傳統(tǒng)彩色相機(jī)無(wú)法做到的。這些光譜信息提供了場(chǎng)景詳細(xì)的材料信息,為材料成分分析和基于材料的目標(biāo)檢測(cè)提供了基礎(chǔ)。基于高光譜圖像,Liang等人[10]將基于高光譜成像的顯著性物體檢測(cè)概念擴(kuò)展到材料級(jí)別。Liang的方法擴(kuò)展了Itti的視覺(jué)注意模型[1],從高光譜圖像中提取材料信息生成顯著圖以進(jìn)行目標(biāo)檢測(cè)。 這里主要使用三種方法進(jìn)行了擴(kuò)展:一是使用顏色匹配函數(shù)將高光譜圖像轉(zhuǎn)換為三色圖像,而后直接應(yīng)用Itti模型;二是將光譜波段分組來(lái)替換Itti模型中的顏色對(duì);三是使用光譜角距離(Spectral Angle Distance, SAD)和歐幾里德距離(Euclidean Distance, ED)計(jì)算出光譜響應(yīng)及其鄰域之間的差異,得到顯著圖。這些方法使光譜數(shù)據(jù)中的額外信息得到利用。
1,1.1 基于顯著性的視覺(jué)注意力快速場(chǎng)景分析模型
Itti等人提出了一個(gè)基于彩色圖像的顯著性模型,他們首先對(duì)輸入的彩色圖像使用二元高斯金字塔[11]創(chuàng)建了九個(gè)空間比例尺,保證模型特征的多尺度提取。在經(jīng)過(guò)低通濾波后,分別提取顏色、方向、強(qiáng)度特征。R,G,B分別作為圖像輸入的紅色,綠色和藍(lán)色通道,強(qiáng)度函數(shù)I被定義為三個(gè)通道的平均值;顏色函數(shù)有四個(gè),分別為從原始的紅色,綠色和藍(lán)色通道計(jì)算出的紅色,綠色、藍(lán)色以及黃色通道函數(shù);局部方向信息由定向Gabor金字塔得到。隨后對(duì)這三類函數(shù)進(jìn)行中心-周圍差分運(yùn)算以及歸一化,這里的中心-周圍差分運(yùn)算指根據(jù)“中心-周圍”拮抗理論,算出每一個(gè)像素點(diǎn)(作為中心點(diǎn))相對(duì)于周圍的像素點(diǎn)的顯著值,方法是將尺度較大的圖像和尺度較小的圖像進(jìn)行跨尺度減操作,能得到局部中心和周邊背景信息的對(duì)比信息。最后得到42張?zhí)卣鲌D,分別為6張強(qiáng)度圖,12張顏色圖和24張方向圖。為了防止某幾張圖的顯著特征在42張圖的融合過(guò)程中被平均,Itti模型提出一種歸一化運(yùn)算符,在缺少自上而下監(jiān)督的情況下增強(qiáng)波峰較少時(shí)的峰值,抑制波峰較多時(shí)的峰值。在經(jīng)歷此種歸一化后使用線性組合將特征圖融合,得到最終的顯著圖。
1,1.2 高光譜解混
由于傳感器的空間分辨率低以及遠(yuǎn)距離圖像采集,高光譜圖像中總是存在難以分析的混合像元,即單一像元包含多種材質(zhì)。高光譜圖像解把混合的像元分解為一組稱為端元(Endmember)的光譜特征以及它們相應(yīng)的混合比例,即豐度(Abundance)。按照光譜混合方式,高光譜圖像解混可以分為線性光譜混合模型(Linear Spectral Mixture Model, LMM )和非線性光譜混合模型(Nonlinear Spectral Mixture Model, NLMM)。LMM由于其簡(jiǎn)單性和適用性而在混合算法中被廣泛采用?;贚MM的高光譜解混方法大致分為三類:
(1)單純形幾何理論。高光譜數(shù)據(jù)在幾何角度上可以視為單純形(Simplex)基于單純形幾何的解混方法利用高光譜圖像的幾何信息對(duì)數(shù)據(jù)進(jìn)行分解,可以分為基于純像元的方法和非純像元的方法?;诩兿裨姆椒僭O(shè)數(shù)據(jù)集中存在只包含一種材質(zhì)的像元,而非純?cè)椒o(wú)此假設(shè)。
(2)基于統(tǒng)計(jì)理論。在數(shù)據(jù)高度復(fù)雜、材料高度混合的情況下,基于幾何的方法可能不再適合。在這些情況下,提出基于統(tǒng)計(jì)的方法來(lái)替代幾何理論,但統(tǒng)計(jì)方法通常具有更高的計(jì)算復(fù)雜度。代表性的方法有如獨(dú)立成分分析(Independent Components Analysis, ICA)[12-13]、非負(fù)矩陣分解(Nonnegative Matrix Factorization, NMF)[14-15]等。
(3)稀疏回歸理論。稀疏回歸理論假設(shè)高光譜圖像可以通過(guò)預(yù)先已知的若干純光譜特征的線性組合來(lái)表示,那么解混就是在光譜庫(kù)中找到最佳的光譜子集,用以更好地表示高光譜圖像中的混合像元。由于高光譜圖像中的端元數(shù)量與光譜庫(kù)中的數(shù)量相比非常少,解混變成了利用線性稀疏回歸技術(shù)和稀疏性正則化技術(shù)進(jìn)行優(yōu)化的過(guò)程?;谙∈杌貧w的方法要求我們?cè)诮饣烨坝幸粋€(gè)庫(kù),里面包含了待解混圖像中存在的所有端元,因此光譜庫(kù)的構(gòu)建十分關(guān)鍵。
受益于深度學(xué)習(xí)強(qiáng)大學(xué)習(xí)能力,錢(qián)等人提出了一種基于線性光譜混合模型和迭代收縮閾值算法(Iterative Shrinkage Thresholding Algorithm, ISTA)提出了一種基于深度展開(kāi)的深度盲解混算法(Unfolded Blind Neural Network, UBNN)[16]。UBNN把ISTA的迭代算法展開(kāi),形成深度編碼結(jié)構(gòu),然后將端元矩陣以解碼器結(jié)構(gòu)連接,形成編碼器-解碼器結(jié)構(gòu),實(shí)現(xiàn)盲解混,并且取得了較好的解混精度和速度。
1.2.1 整體框架
我們提出深度與手工特征融合的高光譜顯著性檢測(cè)模型,將其簡(jiǎn)稱為HD-Detector(Handcraft and Deep Detector)。首先將高光譜數(shù)據(jù)輸入深度解混網(wǎng)絡(luò)(詳見(jiàn)1.2.2節(jié)),得到若干個(gè)端元的豐度圖。然后根據(jù)解混結(jié)果中的豐度圖來(lái)計(jì)算光譜空間分布,提取顯著性,生成材料特征圖。同時(shí)我們計(jì)算歐幾里得距離以及光譜角距離來(lái)測(cè)量?jī)蓚€(gè)光譜矢量之間的相似性?;谶@兩種距離,我們可以計(jì)算出另外兩個(gè)顯著圖。將上述三幅圖進(jìn)行線性組合,就得到了最終的顯著圖。最后,使用最佳閾值對(duì)圖片進(jìn)行二值化,得到結(jié)果。我們把它命名為深度與手工特征融合基于深度解混的高光譜顯著性檢測(cè)模型
圖1 整體框架圖
1.2.2 深度高光譜圖像解混
首先我們的方法基于LMM(線性混合模型),LMM模型認(rèn)為采集的光譜是端元光譜線性組合產(chǎn)生,以此為前提假設(shè)。假定有p個(gè)波段的高光譜圖像,LMM模型將一個(gè)像元表示為R個(gè)端元以及其對(duì)應(yīng)的豐度。即:
通常每個(gè)像元是由端元矩陣中的幾個(gè)端元組成,即豐度矩陣是稀疏的。范數(shù)是得到稀疏解的重要方式,但L1正則化對(duì)于大小不同的值的處理力度是一樣的,這對(duì)于稀疏問(wèn)題是“不公平”的,稀疏問(wèn)題要抑制接近0的值,保持較大的值,所以我們采用L1/2約束半閾值算法來(lái)產(chǎn)生更強(qiáng)的稀疏性。此外,也已有從幾何角度證明了L1/2與最小值之間關(guān)系密切,即稀疏表示使單純形的值最小化。理論分析和實(shí)驗(yàn)結(jié)果表明,L1/2[17]是比L1更有前途的替代方法。因此,L1/2約束半閾值算法將問(wèn)題建模為:
當(dāng)端元已知時(shí),求解豐度的過(guò)程可以看做是稀疏回歸問(wèn)題,近端梯度算法(Proximal Gradient Decent)是求解這類問(wèn)題的方法。它把問(wèn)題分解為可微分部分和不可微分兩部分,并且對(duì)可微分部分進(jìn)行梯度下降,把得到的結(jié)果用于不可微分部分對(duì)應(yīng)的近端算子投影,得到相應(yīng)的解。采用近端梯度下降算法求解矩陣A,我們可以得到,
上述公式可以進(jìn)一步轉(zhuǎn)化為
圖2 遞歸神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖
圖3 遞歸神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖
用公式4代替公式里的θ,我們的網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示,共三層,每層網(wǎng)絡(luò)的參數(shù)共享,在經(jīng)過(guò)這些層時(shí),同時(shí)學(xué)習(xí)和優(yōu)化公式5里W',S',θ'并經(jīng)過(guò)歸一化以保證ASC約束,即所有端元的豐度值和為1。經(jīng)過(guò)最后一層時(shí),端元矩陣M作為參數(shù)也被學(xué)習(xí)。此方法提供了更稀疏并且更好的解混結(jié)果。
圖4 深度網(wǎng)絡(luò)結(jié)構(gòu)圖
1.2.3 全局材質(zhì)分布特征
根據(jù)解混得到的豐度特征,我們使用材料的光譜空間分布來(lái)計(jì)算顯著性,對(duì)于彩色圖像的顯著性提取告訴我們:顯著對(duì)象的顏色分量?jī)A向于集中在空間域中,但是背景對(duì)象的顏色分量通常分布在整個(gè)圖像上。因此,顏色分量的整體分布方差可用于指示對(duì)象的顯著程度。同樣的,對(duì)于高光譜圖像,具有材料顯著性的對(duì)象的光譜分布傾向于集中在空間域中,因?yàn)楣庾V空間分布本質(zhì)上反映了場(chǎng)景中的材質(zhì)成分,材料出現(xiàn)在圖像上的頻率越低且其空間分布越集中,它就更可能屬于一個(gè)顯著性物體。我們根據(jù)Liang的顯著性提取模型[18],可以得到,端成員mc的空間分布方差可表示為沿x和y維度的方差的組合:
其中Z為歸一化因子:
隨后可以根據(jù)當(dāng)前像元u與圖像中心uc的距離進(jìn)行顯著性加權(quán),來(lái)消除臨近邊界的一些小目標(biāo)光譜的影響。
1.2.4 局部空間結(jié)構(gòu)信息
類似Liang的方法[10],加入了兩個(gè)淺層的、多尺度的、采用了中心-周圍差分計(jì)算的特征。這里的“多尺度”指的就是使用高斯金字塔進(jìn)行尺度變換,這些金字塔逐步對(duì)輸入圖像進(jìn)行低通濾波和二次采樣,生成九張尺度圖,增強(qiáng)了方法的尺度不變性?!爸行?周圍差分計(jì)算”根據(jù)視覺(jué)神經(jīng)元的相關(guān)原理[1],把金字塔中的低層級(jí)圖像的像素點(diǎn)看成“中心”,把高層級(jí)圖像的對(duì)應(yīng)像素點(diǎn)看成“周圍”。然后把高層級(jí)圖像通過(guò)內(nèi)插至與低層級(jí)圖像相同的比例,最后,把兩個(gè)圖像對(duì)應(yīng)像素點(diǎn)的某種特征的值,進(jìn)行逐點(diǎn)相減。這種計(jì)算可以提取中心和周邊背景信息反差對(duì)比強(qiáng)烈的區(qū)域。我們用淺層特征來(lái)捕獲局部信息,假設(shè)有兩個(gè)光譜向量Aj,Ak,我們計(jì)算他的兩種距離:歐幾里得距離以及光譜角距離:
這兩種距離可以反映光譜向量之間的相似度,得到的特征圖反映了局部信息。將淺層特征和深度特征相結(jié)合可以綜合全局和局部的光譜特征,得到圖像完整的光譜空間特征。將1.2.3節(jié)中得到的材料特征圖與歐幾里得距離圖、光譜角距離圖進(jìn)行線性組合,就得到了最終的顯著圖。
1.2.5 顯著目標(biāo)檢測(cè)
為了方便觀察,我們將得到的顯著性圖轉(zhuǎn)化為表示出顯著物體的矩形框。首先我們對(duì)顯著圖進(jìn)行二值化,采用OTSU(大津)算法,此算法由日本學(xué)者大津(OTSU)于1979年提出,使用最大類間方差法來(lái)找到最佳閾值[19]。記T為前景與背景的分割閾值,前景點(diǎn)數(shù)占圖像比例為ω0,平均灰度為u0,背景點(diǎn)數(shù)占圖像比例為ω1,平均灰度為u1。T的值從最小灰度值到最大灰度值遍歷,當(dāng)T使得方差值,即最大時(shí),T即為分割的最佳閾值。以此閾值對(duì)顯著圖進(jìn)行二值化,用矩形框表示出值為1的區(qū)域,即為顯著性物體。
1.3.1 實(shí)驗(yàn)數(shù)據(jù)
我們數(shù)據(jù)集共43張,一部分來(lái)自[18]中的使用的數(shù)據(jù)集,一部分由我們自己采集并標(biāo)注,波段數(shù)從16到81不等。數(shù)據(jù)集包括日常目標(biāo),例如水果,魔方,水漬,花朵、窗戶、車輛等。每個(gè)圖像包含顏色相似但材料不同的混合對(duì)象。圖5展示了一些典型的樣本,例如,圖5中第一行第一張圖片,只有下方的魔方是真實(shí)的,上方的魔方都是打印圖案;第二張展示了真實(shí)水果和真實(shí)水果中的塑料水果,第三張展示了墻壁上的水漬等等。數(shù)據(jù)集標(biāo)注為手動(dòng)矩形框標(biāo)注。
圖5 數(shù)據(jù)集示例(和高光譜圖像對(duì)應(yīng)的彩色圖像)
1.3.2 對(duì)比指標(biāo)
(1)PR曲線:PR曲線是以recall(召回率)為橫坐標(biāo),precision(精準(zhǔn)率)為縱坐標(biāo)繪制的曲線。
我們知道,把正例正確地分類為正例,表示為T(mén)P(True Positive),把正例錯(cuò)誤地分類為負(fù)例,表示為FN(False Negative)。把負(fù)例正確地分類為負(fù)例,表示為T(mén)N(True Negative),把負(fù)例錯(cuò)誤地分類為正例,表示為FP(False Positive)。precision是指分類正確的正樣本個(gè)數(shù)占分類器判定為正樣本的樣本個(gè)數(shù)的比例,recall是指分類正確的正樣本個(gè)數(shù)占真正的正樣本個(gè)數(shù)的比例,即:
只用某個(gè)點(diǎn)對(duì)應(yīng)的精確率和召回率是不能全面地衡量模型的性能,只有通過(guò)P-R曲線的整體表現(xiàn),才能夠?qū)δP瓦M(jìn)行更為全面的評(píng)估。
(2)ROC曲線及AUC值:ROC曲線是以假正例率(False Postive Rate,F(xiàn)PR)為橫軸,是真正例率(True Postive Rate,TPR)縱軸繪制的曲線。
FPR代表分類器預(yù)測(cè)的正類中實(shí)際負(fù)實(shí)例占所有負(fù)實(shí)例的比例;TPR代表分類器預(yù)測(cè)的正類中實(shí)際正實(shí)例占所有正實(shí)例的比例,即:
AUC表示ROC曲線下的面積,主要用于衡量模型的泛化性能,即分類效果的好壞。AUC是衡量二分類模型優(yōu)劣的一種評(píng)價(jià)指標(biāo),表示正例排在負(fù)例前面的概率。AUC越大,模型性能越好
(3)IoU:IoU是交并比(Intersection over Union),適用于在輸出中得出一個(gè)預(yù)測(cè)范圍(bounding box)的任務(wù)。IoU是兩個(gè)區(qū)域重疊的部分除以兩個(gè)區(qū)域的集合部分得出的結(jié)果,用于測(cè)量真實(shí)和預(yù)測(cè)之間的相關(guān)度,相關(guān)度越高,該值越高。
1.3.2 對(duì)比方法
(1)定量分析。我們對(duì)比了Itti、Liang以及我們的方法,Itti模型是最經(jīng)典的彩色顯著性檢測(cè)模型,而Liang的方法是基于高光譜圖像來(lái)做的顯著性檢測(cè)工作,我們將3種方法應(yīng)用于我們的數(shù)據(jù)集上,進(jìn)行了定量實(shí)驗(yàn),得到了PR曲線、ROC曲線、AUC值以及IoU值。
由于顯著圖的取值范圍為[0,255],我們將閾值thresh從0到255遍歷,得到了256組Precision、Recall、Fpr、Tpr、IoU值。256組Precision以及Recall值可以畫(huà)出PR曲線;同樣的,256組Fpr以及Tpr值可以畫(huà)出ROC曲線,計(jì)算曲線下面積可以得到AUC值。而IoU(Intersection over Union)指的“預(yù)測(cè)的邊框”和“真實(shí)的邊框”的交集和并集的比值,可以較好地反映預(yù)測(cè)結(jié)果是否準(zhǔn)確,我們?cè)趯?shí)驗(yàn)中由256組IoU值取平均得到最后的評(píng)價(jià)值。
圖6 PR曲線
圖7 ROC曲線
圖8 AUC值
圖9 IoU值
(2)定性分析。
①深度解混的結(jié)果。我們通過(guò)圖4的網(wǎng)絡(luò)進(jìn)行盲解混,得到端元數(shù)量不等的解混結(jié)果,圖10展示了一些圖片的解混結(jié)果。可以看到第一行的豐度圖區(qū)分了背景、葉子、花朵;第二行的豐度圖區(qū)分了背景、手、黃布;第三行的豐度圖區(qū)分了窗沿、墻壁、窗框、玻璃。
圖10 深度解混結(jié)果示例
②材料顯著性提取。通過(guò)解混得到的豐度圖和端元向量,我們使用光譜的空間分布方差來(lái)提取材料顯著性,得到的材料顯著圖,如圖11所示,這是綜合了全局和局部信息的結(jié)果。
圖11 材料顯著圖示例
③顯著性目標(biāo)檢測(cè)。我們對(duì)比了Itti、Liang以及我們的方法,我們將3種方法應(yīng)用于我們的數(shù)據(jù)集上,得出了對(duì)比結(jié)果。
第一列為彩色圖像,第二列為HD-detector生成的顯著圖,第三列為Itti模型的檢測(cè)結(jié)果,第四列為L(zhǎng)iang的模型的檢測(cè)結(jié)果,第五列為我們的方法的檢測(cè)結(jié)果。
由圖12可以看見(jiàn)在檢測(cè)外形相似,材料組成與背景不同的目標(biāo)時(shí),我們的方法展現(xiàn)了很大的優(yōu)勢(shì)。在第一行的圖像中,中間的魔方為打印出來(lái)的魔方圖案,兩側(cè)為真實(shí)魔方,由于紙質(zhì)圖案顏色和真實(shí)魔方仍有差距,所以Itti模型和Liang的模型都可以識(shí)別出目標(biāo)物體的一部分,但效果誤差較大,而我們的方法可以準(zhǔn)確識(shí)別出紙質(zhì)魔方的輪廓。對(duì)于第二行的真水果和塑料水果圖像,由于顏色和輪廓都十分相近,Itti和Liang的模型都無(wú)法檢測(cè)出正確的目標(biāo)物體,而我們的方法由于對(duì)材料顯著性進(jìn)行了提取,所以準(zhǔn)確識(shí)別出了與周圍環(huán)境材料組成不同的真水果。
圖12 對(duì)比實(shí)驗(yàn)
而對(duì)于目標(biāo)的顏色、形狀與背景差異較大的情況,我們的方法并沒(méi)有很大優(yōu)勢(shì),如第三行的圖像,水杯和后景的顏色差異巨大,所以我們的方法效果并不突出。當(dāng)圖像的材料組成復(fù)雜,紋理輪廓繁雜時(shí),我們的方法展現(xiàn)了優(yōu)勢(shì)。在第四、五行的圖像檢測(cè)中,Itti和Liang的模型檢測(cè)的結(jié)果出現(xiàn)了檢測(cè)結(jié)果是真實(shí)值的一小部分或包含了太多無(wú)關(guān)像元的情況,而我們的方法能較好地從復(fù)雜的場(chǎng)景中識(shí)別出正確的目標(biāo)。
由此可得,我們的方法在定性和定量指標(biāo)上均有出眾的表現(xiàn)。
我們的方法將深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)與基于高光譜圖像的近距離顯著性目標(biāo)檢測(cè)結(jié)合起來(lái)將淺層局部手工特征與深層全局材質(zhì)分布特征結(jié)合,充分利用高光譜圖像含有的大量信息。首先利用深度展開(kāi)技術(shù)進(jìn)行解混并使用光譜空間分布方差提取材質(zhì)分布特征,引入L1/2約束半閾值算法保證更好的稀疏性。然后利用多尺度的中心周圍差分運(yùn)算提取空間結(jié)構(gòu)特征。將深度特征和淺層特征結(jié)合,全局特征與局部特征結(jié)合,更好地提取了圖像的顯著性,更有效地進(jìn)行顯著目標(biāo)檢測(cè)。實(shí)驗(yàn)結(jié)果表明,我們的方法在(1)目標(biāo)和背景輪廓、顏色、紋理相似,但材料組成不同的情況下;(2)圖像的材料組成太復(fù)雜的情況下有出色的效果,有效地檢測(cè)出顯著性目標(biāo)。未來(lái)我們將把深度學(xué)習(xí)技術(shù)引入高光譜近距離顯著性檢測(cè)的整個(gè)過(guò)程,不僅部分應(yīng)用于解混這一步驟,以進(jìn)行更強(qiáng)大的顯著性檢測(cè)。