楊志光 張永林 謝經(jīng)明 陳幼平
1.武漢輕工大學(xué),武漢,4300232.華中科技大學(xué)國(guó)家數(shù)控技術(shù)工程研究中心,武漢,430074
?
基于雙目視覺(jué)和約束條件的行人目標(biāo)定位
楊志光1張永林1謝經(jīng)明2陳幼平2
1.武漢輕工大學(xué),武漢,4300232.華中科技大學(xué)國(guó)家數(shù)控技術(shù)工程研究中心,武漢,430074
針對(duì)行人檢測(cè)中計(jì)算量大、訓(xùn)練分類器耗時(shí)和無(wú)法滿足實(shí)時(shí)性要求等問(wèn)題,提出了一種基于雙目視覺(jué)的行人目標(biāo)定位方法。該方法利用圖像處理技術(shù)獲取候選輪廓,將輪廓的幾何特征作為約束條件來(lái)篩選候選輪廓;利用雙目視覺(jué)獲取輪廓的深度信息后,將深度信息作為約束條件對(duì)候選輪廓進(jìn)行進(jìn)一步篩選。通過(guò)深度信息和幾何信息的共同約束,識(shí)別出行人的頭部輪廓,從而實(shí)現(xiàn)對(duì)行人目標(biāo)的定位。實(shí)驗(yàn)結(jié)果表明,該方法減小了計(jì)算量,提高了檢測(cè)精度。
雙目視覺(jué);圖像處理;行人檢測(cè);目標(biāo)定位
機(jī)器視覺(jué)利用攝像機(jī)代替人眼對(duì)物體進(jìn)行檢測(cè)、跟蹤和識(shí)別[1]。當(dāng)前,獲取實(shí)時(shí)客流量對(duì)地鐵部門提高工作效率有著重要的現(xiàn)實(shí)意義[2]。因此,筆者將機(jī)器視覺(jué)運(yùn)用于客流量統(tǒng)計(jì)系統(tǒng),提出一種基于雙目視覺(jué)的目標(biāo)定位方法,實(shí)現(xiàn)對(duì)行人的檢測(cè)。
傳統(tǒng)行人檢測(cè)技術(shù)易受到行人姿態(tài)、光照、背景、陰影、遮擋等因素的影響[3],使得行人檢測(cè)成為機(jī)器視覺(jué)領(lǐng)域的難點(diǎn)。目前,行人檢測(cè)方法一般分為外觀特征提取和分類器學(xué)習(xí)兩種。外觀特征提取算法又可分為標(biāo)量特征運(yùn)算和矢量特征運(yùn)算。其中,標(biāo)量特征運(yùn)算的速度快、實(shí)時(shí)性好,但易受外部光線因素的影響,魯棒性較差[4];矢量特征運(yùn)算主要考慮特征的梯度向量,魯棒性較好,但計(jì)算量大,難以滿足系統(tǒng)實(shí)時(shí)性的要求。常用的分類學(xué)習(xí)方法有支持向量機(jī)[5]、神經(jīng)網(wǎng)絡(luò)[6]和自適應(yīng)增強(qiáng)算法[7]。基于分類學(xué)習(xí)的檢測(cè)方法具有較好的魯棒性,正確率也較高,但分類器的訓(xùn)練比較耗時(shí),且算法復(fù)雜度較高,難以滿足實(shí)時(shí)監(jiān)控的需求。
本方法的實(shí)際應(yīng)用環(huán)境——地鐵站的光照條件穩(wěn)定,故以標(biāo)量特征運(yùn)算為基礎(chǔ),提出一種基于雙目視覺(jué)的行人定位方法。通過(guò)雙目視覺(jué)系統(tǒng)來(lái)獲取物體相對(duì)于攝像機(jī)的深度信息,利用深度信息排除低于指定高度的目標(biāo),如行李箱、手提袋、寵物等,并增加一個(gè)目標(biāo)輪廓幾何約束,來(lái)排除輪廓較小或者較大的目標(biāo)輪廓。上述兩個(gè)約束的篩選提高了系統(tǒng)對(duì)行人目標(biāo)的辨識(shí)率。故本方法在提高標(biāo)量特征運(yùn)算魯棒性的同時(shí),又保證了系統(tǒng)的實(shí)時(shí)性。
1.1 圖像的獲取與技術(shù)流程圖
筆者利用2個(gè)CCD相機(jī)(采取相互平行的拍攝方式)來(lái)實(shí)現(xiàn)圖像和視頻的采集。目標(biāo)識(shí)別的技術(shù)流程如圖1所示。
圖1 技術(shù)流程圖
1.2 攝像機(jī)的標(biāo)定
攝像機(jī)標(biāo)定過(guò)程涉及4個(gè)坐標(biāo)系:世界坐標(biāo)系、攝像機(jī)坐標(biāo)系、圖像物理坐標(biāo)系和圖像像素坐標(biāo)系[8],它們之間的位置關(guān)系如圖2所示。
圖2 坐標(biāo)系之間的關(guān)系
(1)圖像像素坐標(biāo)系O0UV。該坐標(biāo)系以圖像左上角O0為原點(diǎn),某個(gè)像素的坐標(biāo)(u,v)為該像素在圖像上所對(duì)應(yīng)的列數(shù)與行數(shù),坐標(biāo)軸的單位為像素。
(2)圖像物理坐標(biāo)系O1XY。將攝像機(jī)光軸與攝像機(jī)成像平面的交點(diǎn)作為原點(diǎn)O1(圖像像素坐標(biāo)系的中心位置),坐標(biāo)軸的單位為mm。圖像物理坐標(biāo)系主要用來(lái)描述點(diǎn)在圖像中的物理位置。
(3)攝像機(jī)坐標(biāo)系OcXcYcZc。將攝像機(jī)的光心Oc作為原點(diǎn),攝像機(jī)的光軸作為Zc軸,平面OcXcYc與攝像機(jī)成像平面平行,坐標(biāo)軸的單位為mm。攝像機(jī)光心到成像平面的距離稱為攝像機(jī)的焦距f,f=OcO1。
(4)世界坐標(biāo)系OwXwYwZw。世界坐標(biāo)系用來(lái)描述物體的具體位置,可以根據(jù)實(shí)際要求,設(shè)定世界坐標(biāo)系的原點(diǎn)與方向,坐標(biāo)軸的單位為mm。
略去詳細(xì)的數(shù)學(xué)推導(dǎo),圖像像素坐標(biāo)系與世界坐標(biāo)系之間的轉(zhuǎn)換關(guān)系可表示為
(1)
fx=f/dxfy=f/dy0T=[0 0 0]
其中,單位像素的尺寸(mm×mm)為dx×dy,O1在圖像像素坐標(biāo)系中的坐標(biāo)為(u0,v0)。R和T由攝像機(jī)坐標(biāo)系和世界坐標(biāo)系的相對(duì)位置關(guān)系決定,R為3×3的正交旋轉(zhuǎn)矩陣,T為3×1的平移向量。根據(jù)三角測(cè)量原理,Zc可通過(guò)計(jì)算兩幅圖像的視差得到。fx、fy、u0、v0均只與攝像機(jī)的內(nèi)部結(jié)構(gòu)有關(guān),稱為內(nèi)部參數(shù)。R和T由攝像機(jī)坐標(biāo)系和世界坐標(biāo)系的相對(duì)位置關(guān)系決定,稱為外部參數(shù)。
1.3 幾何信息約束的特征提取
本文以行人為研究對(duì)象,通過(guò)圖像處理,提取行人的外部輪廓,將原來(lái)復(fù)雜的圖像簡(jiǎn)化成便于識(shí)別的特征信息,并利用約束條件,對(duì)圖像中的輪廓進(jìn)行分類、識(shí)別和處理。
1.3.1 運(yùn)動(dòng)物體目標(biāo)提取
本文采用運(yùn)動(dòng)物體目標(biāo)檢測(cè)算法來(lái)識(shí)別行走中的行人。最常見(jiàn)的運(yùn)動(dòng)目標(biāo)檢測(cè)算法有光流法、幀差法、背景減法。背景減法的主要思想是建立一個(gè)背景模型,將視頻中的每幀圖像減去背景模型,得到該幀圖像與背景模型之間的差異,即找出運(yùn)動(dòng)的目標(biāo)[9]。該算法對(duì)背景的穩(wěn)定性要求較高,但算法的復(fù)雜性相對(duì)較低。程序的工作場(chǎng)景為地鐵站,地鐵站內(nèi)的照明條件良好,背景模型的穩(wěn)定性較高。故本文采取背景減法來(lái)檢測(cè)運(yùn)動(dòng)目標(biāo),降低算法的復(fù)雜度,縮短算法的計(jì)算時(shí)間。
本文將運(yùn)動(dòng)物體目標(biāo)提取分為以下幾個(gè)步驟:
(1)根據(jù)算法建立背景模型。由于場(chǎng)景并非靜止不變,故將背景模型按照一定的速率進(jìn)行更新,利用高斯濾波處理背景,提高背景模型的魯棒性[10]。
(2)讀取視頻中的一幀圖像,通過(guò)對(duì)圖像進(jìn)行處理,減弱噪聲對(duì)圖像的影響。
(3)將當(dāng)前幀的圖像減去背景模型,得到只含有運(yùn)動(dòng)目標(biāo)的圖像,并對(duì)其進(jìn)行二值化處理。
(4)為了減小二值化處理后噪聲的干擾,再次利用圖像處理來(lái)優(yōu)化圖像。
1.3.2 幾何信息約束的圖像特征提取
本研究中先采取形態(tài)學(xué)操作來(lái)處理圖像,再用矩形來(lái)標(biāo)記圖像中的每個(gè)輪廓,最后利用幾何約束來(lái)篩選矩形所代表的輪廓。
形態(tài)學(xué)運(yùn)算的基本思想是用具有一定形態(tài)的結(jié)構(gòu)元素找到圖像中的對(duì)應(yīng)形狀,以達(dá)到圖像分割識(shí)別的目的,其基本操作有膨脹、腐蝕、開(kāi)啟和關(guān)閉。在人群擁擠的情況下,若直接對(duì)每個(gè)行人進(jìn)行輪廓提取,則當(dāng)兩個(gè)人挨在一起時(shí),系統(tǒng)會(huì)誤將兩人認(rèn)作一人,從而降低算法的精確度[6]。本文通過(guò)形態(tài)學(xué)處理,簡(jiǎn)化每個(gè)目標(biāo)的基本形狀,提高算法精度。
用于標(biāo)記的矩形為圖像中輪廓的外接矩形,本文通過(guò)外接矩形的參數(shù)來(lái)描述每個(gè)輪廓的相關(guān)信息。輪廓的相關(guān)信息包括輪廓的相對(duì)位置坐標(biāo)和輪廓的相對(duì)大小。本文設(shè)置幾何信息約束,利用幾何信息約束對(duì)目標(biāo)進(jìn)行篩選,將處于規(guī)定面積范圍內(nèi)的輪廓信息提取出來(lái)。目標(biāo)特征提取的流程分為以下幾個(gè)步驟:
(1)對(duì)圖像進(jìn)行形態(tài)學(xué)操作,通過(guò)形態(tài)學(xué)操作來(lái)填補(bǔ)待測(cè)目標(biāo)上的空洞,讓待測(cè)目標(biāo)變得更加完整。
(2)對(duì)圖像進(jìn)行形態(tài)學(xué)腐蝕操作,通過(guò)腐蝕操作減小待測(cè)目標(biāo)之間發(fā)生干涉的可能性。
(3)用外接矩形依次標(biāo)記圖像中的輪廓曲線,記錄外接矩形的相關(guān)參數(shù)。
(4)利用設(shè)置閾值來(lái)篩選外接矩形的大小,進(jìn)而判斷該輪廓曲線是否為行人的頭部輪廓曲線。
1.4 立體匹配
立體匹配是指在不同攝像機(jī)所采集的素材中找到同一目標(biāo)所對(duì)應(yīng)的特征點(diǎn)。在對(duì)圖像特征點(diǎn)進(jìn)行匹配時(shí),需要添加約束準(zhǔn)則,一般采用的約束準(zhǔn)則有:極線約束、唯一性約束、相似性約束、順序性約束。
由于實(shí)際場(chǎng)景中的待匹配輪廓不多,故本文采用順序性約束。左側(cè)攝像機(jī)拍攝的圖像稱為左圖像,右側(cè)攝像機(jī)拍攝的圖像稱為右圖像。順序性約束采取的準(zhǔn)則:用數(shù)字依次標(biāo)記左右圖像中的每個(gè)外接矩形框,標(biāo)記的順序遵循從上到下、從左到右的規(guī)律,左右圖像中標(biāo)記數(shù)字相同的特征點(diǎn)被認(rèn)為是來(lái)自同一目標(biāo)。
1.5 深度信息約束
實(shí)際應(yīng)用場(chǎng)景存在許多除行人以外的物體,如手提袋、行李箱、嬰兒車等,這些物體會(huì)對(duì)系統(tǒng)的精確度造成影響。由于這些物體與行人頭部存在高度上的差別,故本文利用雙目視覺(jué)系統(tǒng)來(lái)計(jì)算圖像中每個(gè)輪廓的深度信息,通過(guò)深度信息對(duì)圖像中的輪廓進(jìn)行篩選,提取處于某一高度范圍內(nèi)的目標(biāo)輪廓。
通過(guò)立體匹配,我們可以得到同一目標(biāo)在左右相機(jī)中的位置坐標(biāo),將該坐標(biāo)代入式(1)進(jìn)行計(jì)算,即可獲取目標(biāo)相對(duì)于相機(jī)安裝位置的深度信息。再用相機(jī)安裝位置的高度減去該目標(biāo)的深度信息,得到該目標(biāo)的實(shí)際高度。設(shè)置深度信息約束,利用深度信息約束對(duì)目標(biāo)高度進(jìn)行篩選,將處于規(guī)定高度范圍內(nèi)的輪廓信息視為行人的頭部輪廓。
本文實(shí)驗(yàn)采用微視公司的MSS2 CCD攝像頭(2個(gè)),通過(guò)相機(jī)拍攝圖像的方式模擬從視頻幀中獲取某幀圖像,以對(duì)算法進(jìn)行初步的驗(yàn)證,最后用實(shí)時(shí)采集視頻的方式來(lái)驗(yàn)證算法的穩(wěn)定性。
本文利用張友正標(biāo)定法[10],選用棋盤平面靶標(biāo),該標(biāo)定板的參數(shù)如下:每個(gè)格子的規(guī)格為15 mm×15 mm。在MATLAB中利用TOOLBOX_calib標(biāo)定工具箱實(shí)現(xiàn)相機(jī)的標(biāo)定。左相機(jī)的內(nèi)參數(shù)矩陣為
右相機(jī)的內(nèi)參數(shù)矩陣為
對(duì)比左右相機(jī)的內(nèi)參數(shù)矩陣可以看出,左右相機(jī)的焦距近似相等。實(shí)驗(yàn)圖像的分辨率(單位為像素)為1280×1024,相機(jī)的主點(diǎn)坐標(biāo)(光心坐標(biāo))的理論值(單位為像素)應(yīng)為(640,512),左右相機(jī)的主點(diǎn)坐標(biāo)的誤差約為30像素。
以下為標(biāo)定相機(jī)所得外參數(shù),其中,旋轉(zhuǎn)矩陣為
平移矩陣為
[-82.34 -1.01 -2.90]T
由于采取的拍攝方式為兩相機(jī)平行拍攝,故外參數(shù)的旋轉(zhuǎn)矩陣?yán)碚撝禐?階單位矩陣,從標(biāo)定結(jié)果上看,該旋轉(zhuǎn)矩陣近似等于3階單位矩陣。平移矩陣中第一個(gè)參數(shù)應(yīng)為兩相機(jī)的安裝距離,另外兩個(gè)參數(shù)應(yīng)為0,即外參數(shù)的理論平移矩陣為[x0 0]T。從標(biāo)定結(jié)果上看,平移矩陣同樣接近理論值,故相機(jī)標(biāo)定的實(shí)驗(yàn)結(jié)果較為理想。
為了測(cè)試算法的性能,在VS2010平臺(tái)下進(jìn)行了算法的測(cè)試。圖3所示為背景模型,圖4為實(shí)時(shí)采集的圖像。
圖3 背景模型 圖4 實(shí)時(shí)采集圖像
由圖5可以看出,通過(guò)背景減法可以提取出場(chǎng)景中的目標(biāo)。由于本文旨在提取行人頭部的輪廓,故通過(guò)提高相機(jī)的曝光量來(lái)減小外界光線對(duì)圖像產(chǎn)生的影響。從圖6可以看出,形態(tài)學(xué)處理后,圖5中的空洞填滿了,并且圖像中的輪廓更加平滑,減小了輪廓之間發(fā)生干涉的可能性。圖7所示為利用canny算子提取的目標(biāo)輪廓,通過(guò)輪廓的外接矩形來(lái)標(biāo)記每一個(gè)輪廓,并用外接矩形的參數(shù)來(lái)描述目標(biāo)輪廓的相關(guān)信息。外接矩形的參數(shù)如表1所示。由表1可以看出,輪廓2的矩形框面積遠(yuǎn)大于其他輪廓。從圖8可以看出,通過(guò)幾何約束的篩選,本方法可以將不符合幾何信息約束條件的輪廓2排除。
圖5 背景減法處理結(jié)果 圖6 形態(tài)學(xué)處理結(jié)果
圖7 提取輪廓邊界結(jié)果 圖8 幾何約束篩選結(jié)果
輪廓矩形框中心坐標(biāo)(像素,像素)矩形框面積(像素2)1(171,113.5)99002(382.5,157)207483(466.5,116.5)136734(409.5,412)13462
通過(guò)立體匹配,我們可以若判斷出同一目標(biāo)在左右圖像中的坐標(biāo),將2個(gè)坐標(biāo)代入式(1)進(jìn)行計(jì)算,獲得目標(biāo)在世界坐標(biāo)系下的相對(duì)位置坐標(biāo),通過(guò)世界坐標(biāo)即可獲取該目標(biāo)的深度信息,如表2所示。
表2 計(jì)算世界坐標(biāo)系下相關(guān)參數(shù)
筆者將世界坐標(biāo)系的原點(diǎn)設(shè)在左相機(jī)的光心處。世界坐標(biāo)系的坐標(biāo)軸方向與相機(jī)坐標(biāo)系的坐標(biāo)軸方向一致,通過(guò)計(jì)算目標(biāo)在世界坐標(biāo)系下的坐標(biāo),獲取目標(biāo)相對(duì)于左相機(jī)安裝位置的位置信息。相機(jī)的安裝高度約是2300 mm,減去3個(gè)行人頭部世界坐標(biāo)的Z軸坐標(biāo)516.8 mm、503.6 mm和582.4 mm,計(jì)算出參與測(cè)試人員的身高為1783.2 mm、1796.4 mm和1717.6 mm。測(cè)試人的實(shí)際身高約為1.78 m、1.81 m和1.70 m,故本方法可以較準(zhǔn)確地獲取目標(biāo)的深度信息。實(shí)驗(yàn)欲提取位于高度為1.75~1.85 m的輪廓信息,故將深度信息約束的范圍設(shè)置為450~550 mm。從圖9可以看出,通過(guò)深度信息的篩選,本方法可以將不符合深度信息約束條件的輪廓4排除。
圖9 深度信息篩選結(jié)果
為了檢測(cè)本方法的穩(wěn)定性,在實(shí)驗(yàn)室內(nèi)對(duì)算法進(jìn)行了測(cè)試,實(shí)時(shí)采集視頻,模板檢測(cè)法與本文檢測(cè)方法的檢測(cè)結(jié)果如表3所示。
表3 兩種方法比較結(jié)果
本文利用2個(gè)相機(jī)同時(shí)觀測(cè)物體時(shí)存在視差的原理來(lái)得到物體的深度信息,通過(guò)深度信息和幾何特征信息的共同約束將行人頭部輪廓從圖像中識(shí)別出來(lái)。通過(guò)對(duì)比實(shí)驗(yàn)可以看出,本方法比模板檢測(cè)法更省時(shí),滿足了實(shí)時(shí)檢測(cè)的要求。但該方法對(duì)只有部分身體位于相機(jī)視場(chǎng)下的行人還存在一定的誤報(bào)。因此,在后續(xù)的研究中,將著重測(cè)試該方法在實(shí)際場(chǎng)合下的有效性,使其更加貼近實(shí)際應(yīng)用。
[1] 關(guān)勝曉.機(jī)器視覺(jué)及其應(yīng)用發(fā)展[J].新型儀器與智能儀表,2005(9):88-92. Guan Shengxiao.Machine Vision and Its Application[J]. New Type of Instrument and Intelligent Instrument,2005(9):88-92.
[2] 劉潤(rùn)莉.地鐵運(yùn)營(yíng)客流量計(jì)算模型研究[D].成都:電子科技大學(xué),2012.
[3] 顧德軍,伍鐵軍.一種基于人頭特征的人數(shù)統(tǒng)計(jì)方法研究[J].機(jī)器制造與自動(dòng)化,2010,39(4):134-138. Gu Dejun, Wu Tiejun. Research of Statistical Method Based on the Number of Head Features[J]. Machine Building & Automation, 2010,39(4):134-138.
[4] 顧騁,錢惟賢,陳錢,等.基于雙目立體視覺(jué)的快速人頭檢測(cè)方法[J].中國(guó)激光,2014,42 (1):1-6. Gu Cheng, Qian Weixian, Chen Qian, et al. Rapid Head Detection Method Based on Binocular Stereo Vision[J]. Chinese Journal of Lasers, 2014,42 (1):1-6.
[5] 陳雙玉,王海輝,吳云韜,等.基于雙目立體視覺(jué)和SVM算法行人檢測(cè)方法[J].華中科技大學(xué)學(xué)報(bào),2015,43(增刊1):140-143. Chen Shuangyu,Wang Haihui,Wu Yuntao,et al. Approach of Pedestrian Detection Based on Binoc-ular Stereo Vision and SVM Algorithm[J]. Journal of Huazhong University of Science and Technology,2015,43(S1):140-143.
[6] Zhao L, Thorpe C E. Stereo and Neural Network-based Pedestrian Detection [J]. IEEE Transactions on Intelligent Transportation Systems, 2000, 1(3): 148-154.
[7] 楊英,劉衛(wèi)國(guó),鐘令,等.基于AdaBoost行人檢測(cè)優(yōu)化算法的研究[J].機(jī)電工程,2014,31(10):1347-1351. Yang Ying,Liu Weiguo,Zhong Ling,et al. Based on AdaBoost Pedestrian Detection Research of Optimization Algorithm[J]. Mechanicaland Electrical Engineering,2014,31(10):1347-1351.
[8] 李鵬,王軍寧.攝像機(jī)標(biāo)定方法綜述[J].山西電子技術(shù),2007(4):78-79. Li Peng,Wang Junning. Overview of Camera Calibration Methods[J].Shanxi Electronic Technology,2007(4):78-79.
[9] 王奎奎,玉振明.融合背景減法和幀差法的運(yùn)動(dòng)目標(biāo)檢測(cè)[J]. 視頻應(yīng)用與工程,2015,39(24):94-99. Wang Kuikui,Yu Zhenming. Moving Object Detection Combining Background Subtraction and Frame Difference[J].Video Application & Project, 2015,39(24):94-99.
[10] Zhang Zhenyou, Deriche R,F(xiàn)augeras O. A Robust Technique for Matching Two Uncalibrated Images through the Recovery of the Unknown Epipolar Geometry[J].Artificial Intelligence,1995,78(1/2):87-119.
(編輯 張 洋)
Target Positioning of Pedestrian Based on Binocular Vision and Constraints
Yang Zhiguang1Zhang Yonglin1Xie Jingming2Chen Youping2
1.Wuhan Polytechnic University,Wuhan,430023 2.National NC System Engineering Research Center, Huazhong University of Science and Technology,Wuhan,430074
When confronting the problems in pedestrian detection such as large amount of calculation, time-consuming of classifier training and unfulfilled real-time requirements, a pedestrian detection method was proposed based on binocular vision. In this method, a lot of candidate contours might be obtained by processing image, and the geometrical characteristics of contours were used as a constraint to filter candidate contours. In the meantime, binocular camera might be used to get depth informations of the candidate contours, and the depth informations were used as a constraint to filter the candidate contours. By the constraints of depth informations and geometrical informations, contours of pedestrians’ heads might be identified and the pedestrians’ localization might get. The experimental results show that the method reduces the amount of calculation, and enhances the detection accuracy.
binocular vision; image processing; pedestrian detection; target positioning
2016-07-29
湖北省科技計(jì)劃資助項(xiàng)目(2014BEC056)
TP216
10.3969/j.issn.1004-132X.2016.23.009
楊志光,男, 1991 年生。武漢輕工大學(xué)機(jī)械工程學(xué)院碩士研究生。主要研究方向?yàn)闄C(jī)器視覺(jué)。張永林,男, 1962 年生。武漢輕工大學(xué)機(jī)械工程學(xué)院教授、博士研究生導(dǎo)師。謝經(jīng)明,男, 1965 年生。華中科技大學(xué)機(jī)械科學(xué)與工程學(xué)院副教授。陳幼平,男, 1957年生。華中科技大學(xué)機(jī)械科學(xué)與工程學(xué)院教授、博士研究生導(dǎo)師。