邱守猛,谷宇章,袁澤強(qiáng)
1.中國科學(xué)院 上海微系統(tǒng)與信息技術(shù)研究所 仿生視覺系統(tǒng)實驗室,上海 200050
2.中國科學(xué)院大學(xué),北京 100049
目標(biāo)跟蹤是計算機(jī)視覺領(lǐng)域中十分重要的研究方向之一。其在安防監(jiān)控、人機(jī)交互、無人駕駛等諸多領(lǐng)域都有著廣闊的應(yīng)用空間。近些年來,隨著深度學(xué)習(xí)技術(shù)的發(fā)展與應(yīng)用,這一領(lǐng)域取得了非常巨大的進(jìn)步。但是,當(dāng)前算法的性能與人們的期望仍然存在著一定的差距。深度信息可以提供目標(biāo)在運(yùn)動時的三維空間狀態(tài)信息,對目標(biāo)狀態(tài)的估計非常有幫助。但基于深度學(xué)習(xí)的模型需要大量的數(shù)據(jù)進(jìn)行訓(xùn)練,而目前可用于RGBD跟蹤器訓(xùn)練的數(shù)據(jù)集非常缺乏,因此無法直接將深度學(xué)習(xí)模型應(yīng)用到RGBD輸入下的跟蹤任務(wù)上來。
目前大多數(shù)基于RGBD的目標(biāo)跟蹤算法都是在后期或者邏輯層面上進(jìn)行融合[1-4],即將RGB圖像和深度圖分別進(jìn)行處理并獲得對應(yīng)的結(jié)果,然后對兩路結(jié)果進(jìn)行融合。或者利用深度信息對RGB支路的跟蹤結(jié)果進(jìn)行約束和修正。Wang等人[1]提出了一種融合多種信息的目標(biāo)跟蹤算法,包含了RGB、深度和光流信息。算法使用光流粗略估計目標(biāo)的位置信息,然后利用RGB和深度信息對目標(biāo)所在位置進(jìn)行精確定位。Shi等人[2]提出了一種基于深度梯度信息融合的目標(biāo)跟蹤算法,算法使用深度圖的梯度信息對目標(biāo)的位置進(jìn)行檢測,并最終將檢測結(jié)果和基于RGB圖像上的跟蹤結(jié)果進(jìn)行融合。Xiao等人[3]提出了一種雙階段跟蹤融合模型,包含了全局匹配模塊和局部匹配模塊,全局匹配模塊同時使用RGB和深度信息對目標(biāo)進(jìn)行定位,如果定位結(jié)果之間的歧義較大,則使用塊匹配方案進(jìn)行進(jìn)一步的精確定位。Zhang等人[4]提出了一種實時的基于RGBD信息融合的目標(biāo)跟蹤算法,算法使用兩個基于KCF[5]的跟蹤器分別在RGB和深度圖上進(jìn)行獨立的跟蹤,最后通過對兩個KCF跟蹤器的輸出加權(quán)獲得最終的跟蹤結(jié)果。
近年來,一些研究者開始嘗試將深度學(xué)習(xí)技術(shù)應(yīng)用到RGBD目標(biāo)跟蹤任務(wù)中來。Zhang等人[6]提出了一種基于孿生神經(jīng)網(wǎng)絡(luò)遮擋注意的RGBD目標(biāo)跟蹤算法,根據(jù)目標(biāo)區(qū)域中深度信息的分布情況來判斷是否出現(xiàn)了遮擋。Zhao等人[7]提出了一種基于SiamRPN++[8]的深度信息融合跟蹤算法,主要包括掩模生成器和基于深度信息的目標(biāo)包圍框微調(diào)模塊。其中掩模生成器利用深度信息對目標(biāo)可能出現(xiàn)的位置進(jìn)行過濾篩選?;谏疃刃畔⒌陌鼑蛭⒄{(diào)模塊使用RGB和深度圖的融合特征對目標(biāo)的狀態(tài)估計結(jié)果進(jìn)行修正,文中使用在RGBD室內(nèi)分物體割數(shù)據(jù)集上微調(diào)的AlexNet[9]預(yù)訓(xùn)練模型提取深度圖特征。但由于訓(xùn)練數(shù)據(jù)集規(guī)模的限制,只能使用如AlexNet較淺的網(wǎng)絡(luò)進(jìn)行微調(diào),無法有效利用更深網(wǎng)絡(luò)來進(jìn)一步提升性能。另外,因為需要對模型重新微調(diào)訓(xùn)練,不夠靈活。
本文提出一種無需重新微調(diào)訓(xùn)練的模型遷移重組算法。通過將不同模型在知識層面進(jìn)行對齊完成模型間的遷移重組,可以方便地將在其他RGBD任務(wù)上訓(xùn)練得到的模型遷移到基于DiMP[10]的跟蹤算法上來。對于不同的跟蹤對象時,不需要重新計算遷移參數(shù)。此外,提出了一種自上而下的深度圖平滑算法,可以有效減輕深度圖不穩(wěn)定帶來的問題。
本文考慮將在其他RGBD任務(wù)上獲得的模型遷移到DiMP跟蹤器上。DiMP系列目標(biāo)跟蹤算法是目前性能非常優(yōu)異的算法,算法首先使用高效的判別器進(jìn)行前背景的分類,完成目標(biāo)位置的大致定位,接著使用IouNet[11]完成目標(biāo)包圍框的精確回歸。算法本身并不針對具體的跟蹤對象而訓(xùn)練,因此在跟蹤前需要根據(jù)跟蹤目標(biāo)進(jìn)行初始化,非常靈活。而模型初始化時的訓(xùn)練過程可以有效應(yīng)對遷移融合后特征變化的影響。需要注意的是,本文中的遷移任務(wù)和常規(guī)的模型遷移問題存在著一定的差異。在本文任務(wù)中,已經(jīng)存在兩個在不同域上訓(xùn)練好的網(wǎng)絡(luò),算法的目的是將兩個模型進(jìn)行重組利用。下面對本文中提出的算法做具體的介紹。
DiMP模型中使用ResNet[12]作為特征提取網(wǎng)絡(luò),這里以常用的ResNet50網(wǎng)絡(luò)為例進(jìn)行本文算法的介紹。考慮任意一個在其他RGBD任務(wù)上訓(xùn)練得到的模型,其使用網(wǎng)絡(luò)M作為特征提取網(wǎng)絡(luò)。由于兩者訓(xùn)練時針對的具體任務(wù)不同,因此學(xué)到的特征表達(dá)方式存在差異,無法將在DiMP中訓(xùn)練得到的ResNet50直接替換網(wǎng)絡(luò)M。但根據(jù)卷積神經(jīng)網(wǎng)絡(luò)的一般理論,淺層一般提取到的是具有共性的低級特征信息,高層提取到的是具有任務(wù)特異性的高級語義信息,因此,如果要利用網(wǎng)絡(luò)M中提取到的RGBD信息,可以在具有共性信息的淺層上進(jìn)行遷移。
不失一般性,下面對在ResNet50結(jié)構(gòu)上的第l層和網(wǎng)絡(luò)M中的第k層上的遷移重組過程進(jìn)行分析。首先將ResNet50和網(wǎng)絡(luò)M分別以第l層和k層為分界點,將模型分解為Rb、Rt和Mb、Mt,其中Rb表示l層及以下的部分,Rt表示l層以上的部分,Mb和Mt的含義類似。經(jīng)過ResNet50的前l(fā)層和RGBD網(wǎng)絡(luò)M的前k層進(jìn)行特征提取后,得到的特征分別為:
其中,Mf中包含了RGB融合深度后的信息,相比于單獨RGB輸入下得到的Rf信息更加豐富。但無法直接將該特征輸入Rt中進(jìn)行目標(biāo)跟蹤任務(wù),因為Rf和Mf來自兩個不同的網(wǎng)絡(luò),其各自對應(yīng)的訓(xùn)練任務(wù)也不同,兩者的特征分布模式并不一致。對此,本文考慮設(shè)計一遷移函數(shù)φ(),通過將遷移函數(shù)作用于Rf,使其在特征屬性、數(shù)值分布上均與Mf保持一致。至此,問題的關(guān)鍵就轉(zhuǎn)化為如何設(shè)計有效的轉(zhuǎn)移函數(shù)φ()。
函數(shù)φ()的一種實現(xiàn)方案是文獻(xiàn)[13]中提出的特征對齊算法。由于該算法與本文提出的算法存在一定的相似之處,因此下面對其進(jìn)行簡要的介紹。假設(shè)Mf∈Rcm×hm×wm,Rf∈Rcr×hr×wr。其中cm(cr)表示特征圖的通道數(shù),hm(hr)和wm(wr)分別表示特征圖的高和寬。在卷積神經(jīng)網(wǎng)絡(luò)中,每一通道上的信息是由同一個卷積核在上一層特征圖上進(jìn)行卷積得到的,因此可以被認(rèn)為包含著同一屬性或語義類別的信息。將Mf和Rf在通道維度上進(jìn)行分解(為了去除特征幅值大小和偏置的影響,這里假設(shè)Mf和Rf已經(jīng)進(jìn)行均值方差歸一化),分別得到:
圖1 加權(quán)重組對齊方案Fig.1 Reorganization alignment algorithm
其中W∈Rcm×cr表示對齊矩陣,對齊后的特征為:
式中*表示矩陣相乘。要使得Rf和Af的分布一致,W可通過下式求得:
但是,上述算法存在一定的問題,由于Mf本身包含的信息比Rf更加豐富,因此上述對齊方式會造成信息的丟失。具體的,考慮圖2中出現(xiàn)的情況。
圖2 特征屬性分布圖Fig.2 Feature attribute distribution map
在圖2中,假設(shè)圖(a)和圖(b)分別對應(yīng)從RGB和RGBD中獲得的特征信息。并且兩路特征在屬性上已經(jīng)進(jìn)行對齊(橫坐標(biāo)a1,a2,…,an分別表示不同的屬性),由于原始輸入不同,因此最終得到的特征在不同屬性上的信息量分布存在著差異(比如利用深度信息,可以獲得更加豐富的物體輪廓信息)。如果直接使用特征對齊的方式進(jìn)行強(qiáng)制對齊,就會破壞由于增加了深度信息導(dǎo)致的特征在不同屬性上信息量分布差異。對于目標(biāo)跟蹤任務(wù),特征遷移和融合的最終目的是通過深度信息來增強(qiáng)特征信息的豐富程度,從而更好地對目標(biāo)狀態(tài)進(jìn)行估計,而不是將特征的分布轉(zhuǎn)化到相同的分布上來,因此文獻(xiàn)[13]中的方法與通過融合深度信息來豐富特征的目的是不一致的。
針對傳統(tǒng)特征對齊方式存在的問題,本文提出了基于知識對齊的遷移方案,該方法不僅解決了傳統(tǒng)方案破壞信息分布的問題,并且計算出的遷移參數(shù)具有普適性,因此對于不同的跟蹤對象,不需要重新計算遷移參數(shù)。
對于卷積神經(jīng)網(wǎng)絡(luò)中的不同卷積核,其代表著從數(shù)據(jù)集中學(xué)到的不同的知識,比如對邊緣或角點特征的提取。由于模型訓(xùn)練完成后參數(shù)就固定下來,因此這一知識非常穩(wěn)定。此外,不同卷積核只是對應(yīng)著不同屬性的特征,和該屬性下特征的分布情況無關(guān)(比如當(dāng)前圖像中存在多少邊緣信息并不影響邊緣提取卷積核的參數(shù)),這就很好地解決了圖2中存在的問題?;诖?,本文提出一種根據(jù)模型知識進(jìn)行特征對齊的算法,假設(shè)Rt和Mt中第一層卷積核的參數(shù)分別為Wr和Wm,對齊矩陣W計算為:
可以看出,對齊矩陣W不在提取到的特征上進(jìn)行計算,而是在兩個不同網(wǎng)絡(luò)的權(quán)重參數(shù)上計算獲得。由于網(wǎng)絡(luò)參數(shù)保持不變,因此對齊參數(shù)只需要計算一次,對不同的跟蹤對象同樣適用,實際應(yīng)用中更加方便。
通過在模型知識上計算對齊矩陣解決了不同模型特征之間的屬性匹配問題,但對齊后的特征在數(shù)值上的分布可能并不一致。為解決這一問題,這里考慮數(shù)值分布的兩個常用指標(biāo),均值和方差。因此特征的數(shù)值分布對齊算法非常簡單,記Rf中每一通道的均值和方差分別為,特征加權(quán)重組后的Af中每一通道的均值和方差分別為。特征分布自適應(yīng)算法計算如下:
可以看出,上式的運(yùn)算和神經(jīng)網(wǎng)絡(luò)中BN(batch normalization)的計算方式十分相似,不同之處在于上式中的均值和方差是根據(jù)利用Rf和Af共同計算獲得。但僅使用某一輸入下的Rf和Af信息不具有代表性,進(jìn)一步,考慮到本文進(jìn)行遷移的網(wǎng)絡(luò)在輸出之前都經(jīng)過BN層,因此這里的均值和方差可以利用l層和k層中BN層中的均值和方差參數(shù)。即當(dāng)網(wǎng)絡(luò)層中存在BN層時,特征分布自適應(yīng)的計算過程如下:
記網(wǎng)絡(luò)M第k層中通道間的相關(guān)性矩陣為Ψ:
其中cij,i,j∈{1,2,…,cm}的計算不是通過計算不同通道之間特征圖的相關(guān)性獲得的,而是通過計算生成特征圖的卷積核之間的相關(guān)性獲得的,由上面的分析可知,基于卷積核(知識)的計算結(jié)果更加準(zhǔn)確和穩(wěn)定。對于生成特征圖的卷積核wi和wj,其相關(guān)性計算為:
V*的正確計算公式為:
至此,兩個模型不同層之間的特征遷移完成。
與RGB圖像不同,由于獲取方式和技術(shù)的原因,深度圖中會存在大量的不準(zhǔn)確值,這在物體的輪廓處尤其明顯。另外,相鄰幀之間的深度信息不夠穩(wěn)定,如圖3所示。特征的不穩(wěn)定會對跟蹤器的性能產(chǎn)生重要影響。對此,本文提出一種簡單高效的深度圖平滑穩(wěn)定算法,可以有效抑制異常值帶來的干擾,并同時增強(qiáng)相鄰幀之間深度圖的連續(xù)性。
圖3 深度圖預(yù)處理Fig.3 Depth map preprocessing
考慮到現(xiàn)實場景中物體的深度具有一定的連續(xù)性,實際處理中并不需要十分精確的深度信息,本文首先將原始深度圖像D進(jìn)行下采樣得到Dd,以加快處理速度。為了抑制圖中的異常值,對下采樣后的圖像進(jìn)行平滑濾波,得到圖像,這里選用簡單的均值濾波。然后根據(jù)與Dd之間的差異計算對異常值的抑制矩陣:
其中,δ為控制抑制程度的超參數(shù)。用上式中得到的抑制矩陣對Dd中的像素進(jìn)行加權(quán)濾波,最后將圖像上采樣到原圖大小。通過圖3可以看出(第一行為未經(jīng)處理的深度圖,第二行為平滑后的深度圖,視頻序列選取VOTRGBD數(shù)據(jù)集[14]中的box_darkroom_noocc_6序列),經(jīng)過本文平滑算法處理后的深度圖相鄰幀之間的不穩(wěn)定峰值噪聲從4 000左右降低至400左右,下降了一個數(shù)量級。
本文提出的算法整體結(jié)構(gòu)如圖4所示。
圖4 本文算法整體流程圖Fig.4 Algorithm flow chart of this article
本文算法運(yùn)行平臺配置:CPU為8核3.00 GHzi7-9700,內(nèi)存16 GB,顯卡為RTX2060,操作系統(tǒng)為Ubuntu 18.04,編程環(huán)境為Python3.6。本文選擇對兩個不同的RGBD網(wǎng)絡(luò)進(jìn)行遷移,以驗證算法的有效性。跟蹤模型選擇DiMP50,其他RGBD任務(wù)上的模型分別選擇用于室內(nèi)物體分割的RedNet[15]和ACNet[16]。上述三個模型都使用ResNet50作為Backbone進(jìn)行特征提取。由于訓(xùn)練任務(wù)的不同,只使用遷移后的特征不能夠滿足跟蹤任務(wù)的需要。對此,本文將遷移后的特征作為RGB特征的補(bǔ)充,將遷移后的特征和原來的RGB特征進(jìn)行簡單的線性加權(quán)融合:
其中,frgbd表示最終的融合特征,η表示融合系數(shù)。
特征遷移時,選擇在網(wǎng)絡(luò)的哪一層進(jìn)行遷移非常重要。對此,這里將ResNet50按照Block進(jìn)行分塊,對不同Block后進(jìn)行遷移的效果進(jìn)行了實驗。如圖5所示,從左至右(a)、(b)、(c)分別表示從ResNet50的第一個Block前、第二個Block前和第三個Block前進(jìn)行遷移(融合系數(shù)選取一致,設(shè)置為0.3),由于Block的第一層為起到維度升降作用的1×1卷積層,只涉及到特征的融合重組,并不涉及特征提取,因此,具體遷移時是在后面卷積核大小為3×3的卷積層。其中紅色標(biāo)注表示響應(yīng)圖上的最大響應(yīng)值(在相同的初始化條件下,認(rèn)為其可以表示特征的可判別性)??梢钥闯觯?dāng)遷移層數(shù)過淺時(圖(a)),由于深度信息還沒有經(jīng)過RGBD網(wǎng)絡(luò)充分的融合和處理,所以最大響應(yīng)值低于在第二個Block層前進(jìn)行遷移。當(dāng)遷移層數(shù)過深時(圖(c)),由于涉及到了具體任務(wù)相關(guān)的信息,而這可能與跟蹤任務(wù)不適配,因此響應(yīng)效果也低于在第二個Block層前進(jìn)行遷移。進(jìn)一步的,對整個數(shù)據(jù)集中所有視頻序列的第一幀判別性進(jìn)行了統(tǒng)計(對第一幀的判別器響應(yīng)圖記錄其峰值信息并求平均),并與文獻(xiàn)[12]中的方法進(jìn)行了對比,結(jié)果如表1所示。
圖5 不同Block層遷移下的第一幀判別器響應(yīng)圖(boxes_humans_room_occ_1序列)Fig.5 Response map at first frame under different block layer transfer learning
表1 不同Block層遷移下判別性統(tǒng)計信息Table 1 Distinguish statistical under different block transfer
通過表1中的結(jié)果可以看出,由于SA[13]特征對齊算法只是讓特征分布趨于一致,并沒有充分利用到深度圖帶來的額外信息,而本文算法在遷移時則充分提取了所有屬性的信息。所以,融合后的效果要優(yōu)于SA中的特征對齊方案。
因此,本文選擇在ResNet50的第一個Block結(jié)束后進(jìn)行遷移。實驗中,融合系數(shù)取0.3。
為驗證本文提出算法的有效性,算法在VOT目標(biāo)競賽中使用的RGBD數(shù)據(jù)集上進(jìn)行驗證。VOTRGBD數(shù)據(jù)集中一共包含80個不同的視頻序列,視頻中的所有RGB和深度圖像都進(jìn)行了對齊。為了考察跟蹤器在不同使用不同方式獲取的深度圖下的泛化能力。其中12個視頻的深度信息是通過Kinect相機(jī)采集獲得的,58個視頻中的深度圖是通過TOF(飛行時間技術(shù))技術(shù)獲得,剩下的10個視頻序列中的深度信息是通過雙目立體視覺來獲得。因此與其他RGBD數(shù)據(jù)集相比,該數(shù)據(jù)集更能有效衡量跟蹤器在不同深度信息輸入下的泛化能力。該數(shù)據(jù)集上使用的評價指標(biāo)為Pr、Re和F。其中Pr是準(zhǔn)確率,Re表示召回率,F(xiàn)是考慮到準(zhǔn)確率和召回率的綜合指標(biāo),其中Pr的計算方式如下:
其中:
式中,Gt表示目標(biāo)狀態(tài)的真值,At(τθ)是跟蹤器預(yù)測的結(jié)果,t表示當(dāng)前的時間幀下,τθ是跟蹤器對結(jié)果的置信度,Np表示預(yù)測結(jié)果不為空的視頻幀數(shù),即At(τθ)≠?。Ω(At(τθ),Gt)表示預(yù)測結(jié)果和真值之間的交并比,計算公式如下:
Re的計算方式如下:
其中:
式中,Ng表示視頻中不存在目標(biāo)的幀數(shù),即Gt≠?。
F的計算方式為:
由于不同的τθ下計算得到的F指標(biāo)會存在差異,為了避免這一參數(shù)變化帶來的影響,計算F指標(biāo)時會自動尋找可以最大化F指標(biāo)的τθ,并將此時的F值作為最終指標(biāo)。
本文算法在VOTRGBD數(shù)據(jù)集上和多種先進(jìn)的跟蹤算法進(jìn)行比較,如AlphaRef[20]、OceanPlus[21]、RPT[22]等。表2為不同算法在VOTRGBD數(shù)據(jù)集上的跟蹤性能表現(xiàn),可以看出,在融合RedNet模型提取的深度特征后,跟蹤性能在Pr、F指標(biāo)上分別提升了11.5%和2.6%,在Re指標(biāo)上有所下降。在融合ACNet模型提取的深度特征后,跟蹤性能在Pr、Re、F指標(biāo)上分別提升了3.0%、1.9%和2.6%。
表2 在VOTRGBD數(shù)據(jù)集上的實驗結(jié)果Table 2 Experimental results on VOTRGBD dataset
為了更加直觀地分析融合深度信息前后(融合模型為RedNet)跟蹤算法在一些具體視頻序列上的性能變化情況,接下來對部分視頻序列上的跟蹤結(jié)果進(jìn)行可視化分析,結(jié)果如圖6所示??梢钥闯?,在跟蹤過程中,當(dāng)在RGB信息中目標(biāo)和背景比較相似(如圖6(a)bag_outside),或者光照條件比較暗時(如圖6(b)box_darkroom_noocc_1、(c)box_darkroom_noocc_3),當(dāng)背景顏色和目標(biāo)顏色相近時,只用RGB信息很難定位到目標(biāo)的具體輪廓信息。而由于深度信息不受光照變化的影響,因此該情境下可以對目標(biāo)定位提供非常重要的幫助。另外,當(dāng)目標(biāo)發(fā)生較大的外觀變化時(圖6(d)boxes_humans_room_occ_1),跟蹤器如果無法快速適應(yīng)變化后的目標(biāo),就會跟蹤失敗,但是如果這時目標(biāo)沒有發(fā)生快速的運(yùn)動,其深度信息依然是相對穩(wěn)定的,因此根據(jù)深度信息依然可以有效地對目標(biāo)進(jìn)行跟蹤。
圖6 在數(shù)據(jù)集VOTRGBD上的定性評測結(jié)果Fig.6 Qualitative evaluation results on VOTRGBD dataset
表3中通過比較使用深度圖預(yù)處理前后(+D表示直接使用深度圖,+D+P表示使用了本文提出的深度圖平滑處理算法)的跟蹤性能可以看出,對深度圖進(jìn)行預(yù)處理后,跟蹤性能有了進(jìn)一步的明顯提升,在F指標(biāo)上相較于基礎(chǔ)算法提升了2.6%,相較于不使用深度圖預(yù)處理的改進(jìn)后算法提升了1.6%。在Pr指標(biāo)上相較于基礎(chǔ)算法提升了11.4%,相較于不使用深度圖預(yù)處理的改進(jìn)后算法提升了9.5%。對于Re指標(biāo),使用深度信息后有所下降,這是因為在單獨RGB圖像輸入時,目標(biāo)的外觀特征在一定時間內(nèi)具有一定的連續(xù)性,當(dāng)因為遮擋等問題暫時造成目標(biāo)丟失時,后面有一定的概率可以恢復(fù)。但當(dāng)RGB和深度信息同時輸入時,目標(biāo)定位錯誤時的深度信息可能和真實的目標(biāo)深度存在著較大的差別,不利于后續(xù)跟蹤的恢復(fù)。
表3 在VOTRGBD數(shù)據(jù)集上的消融實驗Table 3 Ablation study on VOTRGBD dataset
本文提出一種基于模型遷移重組的深度信息融合目標(biāo)跟蹤算法,解決了當(dāng)前由于RGBD跟蹤數(shù)據(jù)集缺乏,無法有效訓(xùn)練基于RGBD的深度學(xué)習(xí)目標(biāo)跟蹤器的問題。相比于傳統(tǒng)基于特征的遷移方法更加穩(wěn)定高效。此外,提出了一種高效的深度圖平滑算法,降低了深度圖中異常值的干擾。在VOTRGBD數(shù)據(jù)集上的實驗結(jié)果表明,使用本文提出的遷移融合算法后,可以豐富特征信息,提升目標(biāo)和背景信息的判別性,最終提高跟蹤性能。但是,不同情景下深度信息對跟蹤器的作用應(yīng)該是不同的,如何在算法中考慮這一因素將會是接下來的研究方向。