林 玲,陳姚節(jié),3,徐 新,郭同歡
(1.武漢科技大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,湖北 武漢 430070;2.智能信息處理與實(shí)時工業(yè)系統(tǒng)湖北省重點(diǎn)實(shí)驗(yàn)室,湖北 武漢 430070;3.冶金工業(yè)過程國家級虛擬仿真實(shí)驗(yàn)教學(xué)中心,湖北 武漢 430070)
手勢識別作為一種重要的交互方式,由于更自然,直觀和易于學(xué)習(xí)的特點(diǎn),在虛擬仿真、手語識別等領(lǐng)域得到了大量應(yīng)用?;谝曈X的手勢識別主要分為三個階段:手勢分割、特征提取和識別。
手勢分割作為手勢識別的基礎(chǔ),對后續(xù)手勢識別工作有著至關(guān)重要的影響。傳統(tǒng)手勢分割利用膚色、輪廓從彩色圖像視頻中分割出手勢,如Bao等[1]提出的利用膚色檢測與背景差分的方法,Rahmat等[2]結(jié)合人手膚色與光照的實(shí)時手勢分割,Dawod等[3]采用自由形式膚色模型進(jìn)行的手勢分割。以上方法進(jìn)行的手勢分割效果較好但易受光照、復(fù)雜背景的影響,影響后續(xù)的手勢識別工作。
手勢特征的提取是手勢識別更為重要的階段。Asaari等[4]根據(jù)提取的手形特征與紋理特征進(jìn)行手勢識別,由于復(fù)雜背景的影響準(zhǔn)確率不高,劉富等[5]借助手形輪廓與幾何特征提高了手勢識別的魯棒性,但要求手勢手指分開,不具有普遍性。
現(xiàn)有的手勢識別大多借助模式分類方法對手勢進(jìn)行識別,如Panwar[6]利用形狀參數(shù)的位編碼序列進(jìn)行手勢分類的方法、楊學(xué)文等[7]利用手勢主方向和類Hausdorff距離模板匹配的手勢識別方法等具有一定局限性,魯棒性較低。近年來動作識別方法的迅速發(fā)展和許多大型數(shù)據(jù)集的引入,使得利用深度神經(jīng)網(wǎng)絡(luò)對動態(tài)手勢進(jìn)行有效識別成為可能。Molchanov等[8]引入了一種將歸一化深度和圖像梯度值結(jié)合起來的3D-CNN的動態(tài)手勢識別方法。而后Molchanov等[9]又提出了一種3D-CNN,融合來自多個傳感器的數(shù)據(jù)流進(jìn)行識別。3D-CNN模型在視頻處理問題上相比于2D-CNN更加有效,但是也會存在時間維度上的運(yùn)動信息的丟失問題。
因此,該文利用Kinect深度信息修復(fù)后的深度圖進(jìn)行手勢精確分割,并由此提取出動態(tài)手勢的運(yùn)動軌跡特征,構(gòu)建一種通過自適應(yīng)權(quán)值分配將動態(tài)手勢的軌跡識別與手勢時空信息識別結(jié)合的雙流網(wǎng)絡(luò)模型,利用該模型中的兩種網(wǎng)絡(luò)對動態(tài)手勢的不同特征的識別優(yōu)勢提高動態(tài)手勢識別率,并采用SKIG數(shù)據(jù)集測試模型識別性能。
實(shí)驗(yàn)發(fā)現(xiàn),當(dāng)手部位置變化較大時就可以通過運(yùn)動信息來識別,那么這些動態(tài)手勢的識別就可以轉(zhuǎn)換為對其空間運(yùn)動軌跡的識別;而當(dāng)手部位置變化較小時,其軌跡不能明顯區(qū)分出各個動態(tài)手勢,此時就需要利用動態(tài)手勢的手形特征的變化進(jìn)行動態(tài)手勢的識別。因此在進(jìn)行手勢識別前,需要對動態(tài)手勢進(jìn)行手勢分割和軌跡的提取。
由于Kinect傳感器獲取的深度圖像中存在大量噪聲以及深度信息缺失導(dǎo)致的空洞,而動態(tài)手勢的識別又依賴于手掌在運(yùn)動過程中的手部形態(tài)與精確位置。因此為避免在進(jìn)行手勢分割時,因深度圖中的噪聲、空洞引起的分割誤差進(jìn)而導(dǎo)致后續(xù)的識別誤差,筆者首先做了文獻(xiàn)[10]中的工作,對采集的深度圖像進(jìn)行初步修復(fù)。利用待修復(fù)像素點(diǎn)周圍時空域的深度數(shù)據(jù),對深度圖中存在的噪聲以及空洞點(diǎn)進(jìn)行修復(fù),保證后續(xù)分割工作中能得到完整的手部形態(tài)和精確的空間位置。
手勢分割的目的是將手部區(qū)域從復(fù)雜背景中分離出來。在基于計(jì)算機(jī)視覺的手勢識別技術(shù)中,復(fù)雜背景下的手勢分割非常困難。特別是在單目視覺情況下,這主要是由于背景各種各樣,環(huán)境因素也不可預(yù)見。
修復(fù)后的深度圖像中手部輪廓完整、沒有明顯的噪聲干擾,因此可以利用深度圖中手掌部分的灰度值與深度圖中其他位置的灰度值的差異來提取手部感興趣區(qū)域輸入網(wǎng)絡(luò)進(jìn)行訓(xùn)練,提高動態(tài)手勢識別準(zhǔn)確性。正常情況下,當(dāng)人位于Kinect設(shè)備的可視區(qū)域內(nèi)做手勢時,手掌部分與Kinect相距最近,灰度值與圖像中其他部分也會有較大差異,如圖1(a)所示。由此可以借助手勢的深度圖像,計(jì)算生成灰度直方圖,如圖1(b)所示?;叶葓D中橫坐標(biāo)表示灰度級,縱坐標(biāo)表示各個灰度值的像素在圖像中出現(xiàn)的次數(shù)。
圖1 深度圖像灰度直方圖示例
通過觀察灰度直方圖分析發(fā)現(xiàn),灰度直方圖中第一個波峰對應(yīng)灰度值即手掌部分對應(yīng)灰度值。為準(zhǔn)確把手掌區(qū)域和手臂、手腕部分區(qū)分開,將在第一個波峰灰度值左右波動3以內(nèi)的像素點(diǎn)保留,其他像素點(diǎn)像素置為255。由此就得到了分割后的手勢圖,如圖2所示。
利用1.1節(jié)分割得到的手勢圖,計(jì)算圖中手部質(zhì)心坐標(biāo)來代表手在圖像坐標(biāo)系下的坐標(biāo)。計(jì)算采集的手部質(zhì)心坐標(biāo)序列中橫坐標(biāo)的最大值xmax、最小值xmin和縱坐標(biāo)的最大值ymax、最小值ymin,給定一個標(biāo)志flag和由實(shí)驗(yàn)得到的質(zhì)心坐標(biāo)波動閾值P=20:
當(dāng)xmax-xmin
圖2 分割后的手勢圖
當(dāng)xmax-xmin≥P或ymax-ymin≥P時,flag=true,可以用軌跡對動態(tài)手勢進(jìn)行識別。此時,為保證軌跡特征具有平移和比例不變性,將手勢的運(yùn)動軌跡,即質(zhì)心坐標(biāo)的變化軌跡,整體平移到圖像中心位置,并生成動態(tài)手勢軌跡圖。具體過程如下:
(1)計(jì)算手勢軌跡所占區(qū)域的中心位置坐標(biāo)(x0,y0)。計(jì)算公式如下:
(1)
(2)由于網(wǎng)絡(luò)的輸入設(shè)置為150×150大小的圖片,故計(jì)算x0、y0與75的差值得到對應(yīng)的軌跡坐標(biāo)平移距離,即可將軌跡整體平移至圖像中心位置。
(3)繪制軌跡序列散點(diǎn)圖,擬合軌跡曲線,生成動態(tài)手勢軌跡圖。
采集8幀深度圖像代表揮手手勢一次來回?cái)[動,經(jīng)分割后的手勢圖如圖3所示。
圖3 代表揮手手勢一次來回?cái)[動的8幀手勢圖
由整個揮手手勢的手勢圖序列中的手部質(zhì)心坐標(biāo)生成軌跡圖的過程如圖4所示。
圖4 揮手手勢軌跡圖生成
CNN是一種前饋神經(jīng)網(wǎng)絡(luò)[11],基本結(jié)構(gòu)包括特征提取層和特征映射層。在圖像以及視頻處理方面,CNN有明顯的優(yōu)勢。相比于靜態(tài)手勢,動態(tài)手勢還包含了時間維度上的運(yùn)動信息,因此必須采用3D-CNN同時學(xué)習(xí)手勢視頻流中的空間特征與時間特征。而一個動態(tài)手勢從開始到完成的持續(xù)時間大約為2~3秒,3D-CNN并不能將動態(tài)手勢視頻中的每一幀都輸入網(wǎng)絡(luò)進(jìn)行學(xué)習(xí),只能選取一定數(shù)量的圖像幀代表該動態(tài)手勢。因此,為防止選取不當(dāng)導(dǎo)致關(guān)鍵幀信息丟失產(chǎn)生的分類錯誤,且鑒于CNN在提取靜態(tài)空間結(jié)構(gòu)的優(yōu)勢,該文采用3D-CNN對動態(tài)手勢進(jìn)行時空信息識別,并采用2D-ResNet融合手勢軌跡信息識別,構(gòu)建自適應(yīng)權(quán)值分配的雙流網(wǎng)絡(luò)模型,實(shí)現(xiàn)動態(tài)手勢的識別。網(wǎng)絡(luò)模型結(jié)構(gòu)如圖5所示。
圖5 融合軌跡識別的雙流模型結(jié)構(gòu)
多模態(tài)識別系統(tǒng)使用多個數(shù)據(jù)流進(jìn)行訓(xùn)練,并在測試期間對多模態(tài)觀測結(jié)果進(jìn)行分類,單模態(tài)識別系統(tǒng)僅使用一個模態(tài)數(shù)據(jù)進(jìn)行訓(xùn)練和測試[12]。該文采用了第三種類型,使用一個3D-CNN模型接收來自多種模態(tài)的數(shù)據(jù)并融合學(xué)習(xí),即利用多模態(tài)數(shù)據(jù)提高單個網(wǎng)絡(luò)的測試性能。在動態(tài)手勢識別系統(tǒng)中可用的模式流通常是空間上和時間上對齊的。例如,運(yùn)動采集設(shè)備采集的深度圖像和RGB圖像以及光流通常是對齊的,即使數(shù)據(jù)以不同的模態(tài)出現(xiàn),但它們代表的語義內(nèi)容是相同的。
該文引用文獻(xiàn)[13]的3DCNN模型框架,構(gòu)建雙卷積池化網(wǎng)絡(luò)。該網(wǎng)絡(luò)利用兩個連續(xù)的卷積層保留并傳遞每個動態(tài)手勢的特征信息,但3D卷積層又是3D-CNN中高時空復(fù)雜性的主要來源,因此在3D卷積核上設(shè)置L2正則,以避免在神經(jīng)網(wǎng)絡(luò)深度有限的前提下,因卷積層密集提取產(chǎn)生過擬合情況。兩次卷積操作后添加池化層操作,在保持特征不變性的條件下有效減少參數(shù)數(shù)量。在每層卷積之后,設(shè)置標(biāo)準(zhǔn)化層實(shí)現(xiàn)數(shù)據(jù)歸一化操作。在3D卷積之后設(shè)計(jì)激活函數(shù),激活函數(shù)產(chǎn)生非線性操作,進(jìn)一步增加神經(jīng)網(wǎng)絡(luò)的復(fù)雜性。由此,利用Kinect同時獲取彩色數(shù)據(jù)與深度數(shù)據(jù)生成圖像,對齊裁剪后再對深度圖進(jìn)行手勢分割,將分割后的手勢圖序列與彩色圖序列都作為3D-CNN的輸入數(shù)據(jù)對網(wǎng)絡(luò)進(jìn)行訓(xùn)練,保證網(wǎng)絡(luò)獲得更高識別精度的同時不會帶來參數(shù)增加的影響。將待識別的手勢序列輸入訓(xùn)練好的該網(wǎng)絡(luò)即可得到手勢的時空信息識別結(jié)果。
由于CNN模型結(jié)構(gòu)會對網(wǎng)絡(luò)的特征表達(dá)能力產(chǎn)生影響,近年來,用于圖像識別的深度網(wǎng)絡(luò)如AlexNet、GoogLeNet[14]、VGGNet[15]、ResNet[16]等被相繼提出。卷積核更小化、網(wǎng)絡(luò)層更深化成為卷積網(wǎng)絡(luò)結(jié)構(gòu)的一大發(fā)展趨勢,這種發(fā)展趨勢使得圖像的識別精度更高,模型的計(jì)算效率更快。在所有深度網(wǎng)絡(luò)模型中,殘差網(wǎng)絡(luò)(ResNet)因獨(dú)特的殘差結(jié)構(gòu),極大地加速了神經(jīng)網(wǎng)絡(luò)的訓(xùn)練,模型的準(zhǔn)確率有比較大的提升,推廣性也非常好,從而得到了廣泛的應(yīng)用。它通過直接將輸入信息繞道傳到輸出,保護(hù)信息的完整性,整個網(wǎng)絡(luò)只需要學(xué)習(xí)輸入、輸出差別的那一部分,簡化學(xué)習(xí)目標(biāo)和難度,一定程度上解決了信息損耗、丟失和梯度消失、梯度爆炸等問題。
引入跳躍連接將目標(biāo)函數(shù)F(x)+x的擬合轉(zhuǎn)變?yōu)闅埐詈瘮?shù)F(x)的擬合,將輸入與擬合殘差疊加代表網(wǎng)絡(luò)輸出,增強(qiáng)了網(wǎng)絡(luò)信息流通,降低了數(shù)據(jù)信息的冗余度。由此,通過訓(xùn)練經(jīng)典的ResNet50網(wǎng)絡(luò)對動態(tài)手勢的軌跡圖進(jìn)行識別就得到了該手勢軌跡識別的結(jié)果。
在經(jīng)過上述工作后,已經(jīng)得到了兩種網(wǎng)絡(luò)的最優(yōu)識別結(jié)果,但由于ResNet網(wǎng)絡(luò)只能對產(chǎn)生軌跡的動態(tài)手勢識別分類,對沒有軌跡變化只存在手形變化的動態(tài)手勢無法識別;而3D-CNN雖然可能丟失動態(tài)手勢時間上的運(yùn)動信息,但對某些動態(tài)手勢仍能通過其時空信息進(jìn)行有效識別。因此這里不宜采用求平均后取概率最大手勢的方法得到雙流網(wǎng)絡(luò)的最終識別結(jié)果,應(yīng)根據(jù)每個手勢樣本的具體情況估計(jì)出網(wǎng)絡(luò)識別結(jié)果的置信度,依據(jù)該置信度計(jì)算權(quán)值,因此該文提出一種自適應(yīng)權(quán)值分配策略為其分配權(quán)值,再由經(jīng)典的加權(quán)平均模型得到識別的最終結(jié)果R。計(jì)算公式如式2所示,其中w為給網(wǎng)絡(luò)賦予的權(quán)值,f為各個網(wǎng)絡(luò)的輸出。
R=wsfs+wefe
(2)
首先根據(jù)1.2中的flag值確定當(dāng)前動態(tài)手勢是否產(chǎn)生軌跡:(1)當(dāng)flag=false時,無法通過軌跡直接將動態(tài)手勢分類,設(shè)置ResNet網(wǎng)絡(luò)權(quán)值為0,3D-CNN的識別結(jié)果即為雙流網(wǎng)絡(luò)的最終結(jié)果;(2)當(dāng)flag=true時,即兩種網(wǎng)絡(luò)都能對動態(tài)手勢進(jìn)行有效識別,此時根據(jù)網(wǎng)絡(luò)識別結(jié)果的置信度為其分配權(quán)值,方法如下。
一類動態(tài)手勢可以用一組特征的組合來代表,每種特征又單獨(dú)形成特征空間,而不同類別的手勢又可能出現(xiàn)相同特征,因此形成了特征重疊的區(qū)域。當(dāng)一個手勢樣本被網(wǎng)絡(luò)識別后,識別結(jié)果中各個類別的概率相差不大時,認(rèn)為該手勢樣本處于特征重疊區(qū)域;而當(dāng)識別結(jié)果中概率相差較大、較為分散時,認(rèn)為該手勢樣本屬于非特征重疊區(qū)域。這樣,就將樣本空間分成了特征重疊區(qū)域和非特征重疊區(qū)域兩部分。
(3)
(4)
由高斯參數(shù)估計(jì)手勢樣本屬于每種手勢類別的后驗(yàn)概率pj(j=1,2,…,J),將它們組成向量P={pj|j=1,2,…,J},其中J為手勢類別數(shù)。這樣,就生成了由后驗(yàn)概率估計(jì)值組成的J維歐氏空間。對每一個特征向量P,都有一個歐氏空間中的點(diǎn)與其對應(yīng)。當(dāng)P越接近P1/J={(p1,p2,…,pJ)|pj=1/J,?j}時,手勢樣本位于特征重疊區(qū)域的可能性越大,對應(yīng)識別網(wǎng)絡(luò)的權(quán)值越小;P越遠(yuǎn)離P1/J時,例如當(dāng)某一pj接近于1,而其他概率接近0時,手勢樣本位于特征重疊區(qū)域的可能性越小,對應(yīng)識別網(wǎng)絡(luò)的權(quán)值越大。對各個網(wǎng)絡(luò)識別結(jié)果都利用上述方法計(jì)算P與P1/J的歐氏距離dn,融合時就可以根據(jù)dn給網(wǎng)絡(luò)分配不同的權(quán)值,而后加權(quán)融合即可得到雙流網(wǎng)絡(luò)的識別結(jié)果。權(quán)值計(jì)算公式如下:
wn=dn(P,P1/J)
(5)
由于加入了ResNet網(wǎng)絡(luò)對動態(tài)手勢軌跡進(jìn)行識別,并且將分割后的手勢深度圖處理后與彩色圖兩種模態(tài)的數(shù)據(jù)同時訓(xùn)練3D卷積網(wǎng)絡(luò),因此該文采用Sheffield Kinect Gesture (SKIG) Dataset[17]RGB-D手勢數(shù)據(jù)集中的10種動態(tài)手勢類型,利用Kinect 2同步獲得彩色數(shù)據(jù)與深度數(shù)據(jù),重新制作數(shù)據(jù)集。數(shù)據(jù)采集由6人完成,每人每種手勢執(zhí)行10次,每種模態(tài)各600個動態(tài)手勢視頻,并按照8∶1∶1的比例將數(shù)據(jù)集隨機(jī)劃分為訓(xùn)練集、驗(yàn)證集、測試集。對除測試集外的深度視頻,按照1.1的手勢分割方法將手掌部分分割出來,然后平均選取8幀圖像代表該動態(tài)手勢。再按照1.2中所提方法從分割后的手勢圖序列中計(jì)算質(zhì)心坐標(biāo)得到軌跡序列并生成軌跡圖。數(shù)據(jù)集樣例如圖6所示。
圖6 數(shù)據(jù)集樣例
為防止網(wǎng)絡(luò)在訓(xùn)練過程中出現(xiàn)過擬合現(xiàn)象,有必要對數(shù)據(jù)集進(jìn)行數(shù)據(jù)擴(kuò)充。分別對ResNet網(wǎng)絡(luò)和3D-CNN的輸入數(shù)據(jù)進(jìn)行擴(kuò)充。對3D-CNN的輸入數(shù)據(jù)采用以下兩種數(shù)據(jù)擴(kuò)充策略:(1)在同一個手勢視頻的完整幀序列中,選用不同的幀作為采集的第一幀,平均采集8幀圖像代表該手勢;(2)將代表一個手勢的8幀圖像進(jìn)行相同方向相同角度的旋轉(zhuǎn)。以上兩種方法擴(kuò)充后共2 160個手勢。對ResNet網(wǎng)絡(luò)的輸入數(shù)據(jù)即動態(tài)手勢軌跡圖進(jìn)行一定比例的放大與縮小,最終動態(tài)手勢軌跡圖包含1 080張。實(shí)驗(yàn)結(jié)果表明,利用數(shù)據(jù)擴(kuò)充后的數(shù)據(jù)集對網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練,增強(qiáng)了網(wǎng)絡(luò)的泛化能力,提高了網(wǎng)絡(luò)的識別率。
該文基于Keras深度學(xué)習(xí)開發(fā)框架,利用GPU并行加速對兩個網(wǎng)絡(luò)單獨(dú)進(jìn)行訓(xùn)練。數(shù)據(jù)集中80%作為訓(xùn)練集,剩余的20%作為驗(yàn)證集,并且將訓(xùn)練集隨機(jī)打亂。在ResNet網(wǎng)絡(luò)中,網(wǎng)絡(luò)的輸入為根據(jù)動態(tài)手勢運(yùn)動軌跡生成的大小為150×150×3的圖像,調(diào)整大小至224×224×3。在3D-CNN中,將采集的代表一個手勢的8幀150×150的圖像序列作為輸入數(shù)據(jù),網(wǎng)絡(luò)每次迭代分批次處理大小為32,并采用Adam方法對網(wǎng)絡(luò)進(jìn)行優(yōu)化。訓(xùn)練周期設(shè)為128,每迭代5個批次就對測試集進(jìn)行一次測試,待網(wǎng)絡(luò)訓(xùn)練至最優(yōu)時,將2個網(wǎng)絡(luò)的識別結(jié)果,在決策級以加權(quán)融合的方式判定所屬的動態(tài)手勢類別。
實(shí)驗(yàn)計(jì)算機(jī)配置為Intel Core i5,內(nèi)存32 GB RAM,環(huán)境配置Windows10+python3.6.8+Tensor-flow1.8.0+CUDA9.0,訓(xùn)練使用顯卡NVIDIA GeForce GTX 980Ti,并采用Kinect 2.0設(shè)備采集手勢數(shù)據(jù)。實(shí)驗(yàn)分為兩部分:
(1)用測試集中60組動態(tài)手勢單獨(dú)測試訓(xùn)練好的兩個網(wǎng)絡(luò)的識別效果。其中,ResNet網(wǎng)絡(luò)對除Come here、Turn around、Pat以外的7種動態(tài)手勢識別進(jìn)行測試,結(jié)果如表1所示;3D-CNN對數(shù)據(jù)集中的10種動態(tài)手勢識別結(jié)果如表2所示。
表1 ResNet網(wǎng)絡(luò)識別結(jié)果
表2 3D-CNN識別結(jié)果
由表1可以看出,Resnet50因其強(qiáng)大的學(xué)習(xí)能力使得在文中自制的軌跡圖像數(shù)據(jù)集上的平均識別率達(dá)到了97.38%。其中,當(dāng)Right-left手勢執(zhí)行不規(guī)范時,軌跡與Wave手勢有一定的相似性,正確率略微低于其他手勢。同時,3D-CNN對數(shù)據(jù)集中10種動態(tài)手勢的平均識別率也達(dá)到了96.67%。其中,Circle、Triangle兩種手勢因手型一致,在只提取8幀代表該動態(tài)手勢的情況下存在誤識別,故正確率低于其他手勢。
(2)對由兩種網(wǎng)絡(luò)構(gòu)成的雙流網(wǎng)絡(luò)模型進(jìn)行測試,并將文中方法與近幾年相關(guān)方法在SKIG數(shù)據(jù)集上的識別準(zhǔn)確率與平均消耗時間進(jìn)行對比,如表3所示。
表3 不同方法在SKIG上的準(zhǔn)確率對比
由表3可以看出,文中方法不僅在SKIG數(shù)據(jù)集上的識別率達(dá)到99.52%,相比于現(xiàn)有識別率最高的方法提升了0.45%,也能較快地識別出動態(tài)手勢。
為避免由于單個3D卷積網(wǎng)絡(luò)特征提取不充分而導(dǎo)致的誤分類,且鑒于CNN在提取靜態(tài)空間結(jié)構(gòu)的優(yōu)勢,引入ResNet網(wǎng)絡(luò)從合成的軌跡圖像中提取動態(tài)手勢運(yùn)動信息,與二模態(tài)訓(xùn)練的3D卷積網(wǎng)絡(luò)構(gòu)成一種更加復(fù)雜的雙流網(wǎng)絡(luò)結(jié)構(gòu)來提高動態(tài)手勢識別的準(zhǔn)確性與魯棒性。實(shí)驗(yàn)結(jié)果表明,與現(xiàn)有的在SKIG數(shù)據(jù)集上的方法相比,該方法的識別率更高、魯棒性更強(qiáng)。雖然提出的雙流網(wǎng)絡(luò)提升了一定的識別率,但識別速度仍需要進(jìn)一步提高。