江波,屈若錕,李彥冬,李誠龍
中國民用航空飛行學(xué)院,廣漢 618307
無人機(jī)具有成本低、靈活性高、操作簡(jiǎn)單、體積小等優(yōu)點(diǎn),可以彌補(bǔ)衛(wèi)星和載人航空遙感技術(shù)的不足,催生了更加多元化的應(yīng)用場(chǎng)景。無人機(jī)影像的智能化分析處理不僅可以快速高效地提取地物信息,還能拓展無人機(jī)的場(chǎng)景理解能力。目標(biāo)檢測(cè)技術(shù)能夠自動(dòng)化識(shí)別和定位圖像中目標(biāo),這種技術(shù)可以增強(qiáng)弱人機(jī)交互下無人機(jī)的感知功能[1],為其自主探測(cè)和飛行提供基礎(chǔ)的技術(shù)支持。
無人機(jī)航拍由于成像視角不同于自然場(chǎng)景圖像,一般有以下特點(diǎn):
1) 背景復(fù)雜。無人機(jī)的拍攝視角和更大的幅寬可以獲取到更豐富的地物信息,但這種無法突顯目標(biāo)的拍攝方式也給檢測(cè)任務(wù)帶來了噪聲干擾。同時(shí),由于無人機(jī)的飛行高度相對(duì)較低,空域環(huán)境較為復(fù)雜,因此遮擋現(xiàn)象在無人機(jī)航拍影像中較為常見,導(dǎo)致無人機(jī)對(duì)目標(biāo)的觀測(cè)往往具有不連續(xù)性和不完整性。
2) 小目標(biāo)。無人機(jī)圖像中的目標(biāo)尺度變化大,且小目標(biāo)的比例遠(yuǎn)高于自然場(chǎng)景圖像。
3) 大視場(chǎng)。大幅寬下的影像往往包含著稀疏不均的目標(biāo)分布,搜索目標(biāo)需要花費(fèi)更高的成本。
4) 旋轉(zhuǎn)。目標(biāo)的朝向是任意的,同一類別目標(biāo)的朝向角度也不相同。
目前的目標(biāo)檢測(cè)任務(wù)主要面向自然場(chǎng)景圖像,在相應(yīng)的應(yīng)用問題,如人臉識(shí)別、行人檢測(cè)等領(lǐng)域已經(jīng)相對(duì)成熟[2]。但由于成像視角不同且缺乏有效樣本的訓(xùn)練,直接將現(xiàn)有算法應(yīng)用于無人機(jī)領(lǐng)域效果較差。因此,研究適用于無人機(jī)的目標(biāo)檢測(cè)算法對(duì)其應(yīng)用有著重大意義[3]。
近年來,基于深度學(xué)習(xí)的無人機(jī)目標(biāo)檢測(cè)方法的研究在學(xué)術(shù)界備受關(guān)注,相關(guān)文獻(xiàn)逐漸增多但對(duì)整體研究現(xiàn)狀總結(jié)的綜述性文獻(xiàn)較少。本文第1節(jié)闡述了基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法研究進(jìn)展;2.1節(jié)介紹了現(xiàn)有的航空影像數(shù)據(jù)集,2.2節(jié)討論了遷移學(xué)習(xí)的主要方式及其效果,2.3節(jié)從無人機(jī)影像的特點(diǎn)出發(fā),分析了相關(guān)的改進(jìn)算法;第3節(jié)總結(jié)了現(xiàn)有無人機(jī)目標(biāo)檢測(cè)算法的不足,并對(duì)未來的發(fā)展方向進(jìn)行了展望。
卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)是最具代表的深度學(xué)習(xí)算法之一,它的網(wǎng)絡(luò)為權(quán)值共享結(jié)構(gòu),與輸入圖像的契合度高,可以更好地完成圖像特征的提取和分類工作[4]。
卷積神經(jīng)網(wǎng)絡(luò)通常由輸入層、卷積層、池化層、全連接層和輸出層組成,如圖1所示。
圖1 卷積神經(jīng)網(wǎng)絡(luò)的典型結(jié)構(gòu)Fig.1 Typical structure of convolutional neural network
卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練目的是損失函數(shù)(Loss Function)的最小化,即預(yù)測(cè)值與真實(shí)標(biāo)記值的誤差最小[5]。對(duì)于分類問題和回歸問題,交叉熵(Cross Entropy Error,CEE)和均方差(Mean Squared Error,MSE)是常見的損失函數(shù),其表達(dá)式為
式中:Y為網(wǎng)絡(luò)模型的預(yù)測(cè)值;T為目標(biāo)的真實(shí)標(biāo)記值。
預(yù)測(cè)值與真實(shí)標(biāo)記值間的誤差通過反向傳播逐層更新網(wǎng)絡(luò)的各層的參數(shù)。對(duì)于第i個(gè)卷積層,其權(quán)值矩陣W和偏移向量b的梯度為
式中:Xi為第i個(gè)卷積層的輸出;Wi為第i個(gè)卷積層的權(quán)值矩陣;bi為第i個(gè)卷積層的偏移向量。
早期的目標(biāo)檢測(cè)利用人工幾何特征來實(shí)現(xiàn)特征表達(dá),如SIFT[6]、HOG[7]等。1998年,Lecun和Bottou[8]提出相對(duì)簡(jiǎn)單的卷積神經(jīng)網(wǎng)絡(luò)模型LeNet-5,利用神經(jīng)網(wǎng)絡(luò)提取的到的特征替代人工提取的特征。AlexNet[9]在網(wǎng)絡(luò)規(guī)模上變得更寬更深,使用了ImageNet[10]提供的大規(guī)模數(shù)據(jù)集和多GPU來訓(xùn)練。
Network In Network[11]和ZFNet[12]在AlexNet的架構(gòu)基礎(chǔ)上分別增加和改進(jìn)了網(wǎng)絡(luò)結(jié)構(gòu),提高了網(wǎng)絡(luò)性能,證明了對(duì)卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的改動(dòng)是可以大膽嘗試的。隨著研究的深入,網(wǎng)絡(luò)結(jié)構(gòu)得到了進(jìn)一步的完善和發(fā)展,表1列出了一些卷積神經(jīng)網(wǎng)絡(luò)的模型參數(shù)。
表1 典型卷積神經(jīng)網(wǎng)絡(luò)的模型參數(shù)對(duì)比Table 1 Comparison of model parameters of typical convolutional neural networks
基于兩階段方法的目標(biāo)檢測(cè)又被稱為基于候選區(qū)域(Region Proposal)的方法。圖2給出了常見的兩階段目標(biāo)檢測(cè)算法結(jié)構(gòu)。
圖2 兩階段目標(biāo)檢測(cè)算法結(jié)構(gòu)圖Fig.2 Structure of two-stage object detection algorithm
2014年Girshick等[18]嘗試在AlexNet的基礎(chǔ)上將Region Proposal和CNN結(jié)合起來,提出了檢測(cè)性能有著大幅提升的R-CNN算法。He等[19]在卷積神經(jīng)網(wǎng)絡(luò)中使用了空間金字塔池化(Spatial Pyramid Pooling,SPP)模塊,解決了輸入固定大小圖片的限制且避免了重復(fù)提取圖像特征。2015年,Grishick[20]在R-CNN和SPP-Net算法結(jié)構(gòu)的基礎(chǔ)上的提出了使用興趣區(qū)域(Region of Interest,ROI)池化的Fast R-CNN,實(shí)現(xiàn)了端到端的檢測(cè)。Ren等[21]提出了Faster R-CNN改進(jìn)了候選區(qū)域的生成方法,使用候選區(qū)域生成網(wǎng)絡(luò)(Region Proposal Network,RPN) 代替了Selective Search算法,實(shí)現(xiàn)了整個(gè)網(wǎng)絡(luò)共享卷積特征,進(jìn)一步提高了檢測(cè)速度。
單階段方法只需對(duì)圖片處理一次就能獲得目標(biāo)的分類和位置信息,運(yùn)行速度較快,可以應(yīng)用于對(duì)實(shí)時(shí)性要求較高的場(chǎng)景。
2015年Redmon等[22]提出YOLO(You Only Look Once)算法,使用一個(gè)單獨(dú)的神經(jīng)網(wǎng)絡(luò),完成從圖片輸入到目標(biāo)位置和類別信息的輸出。2016年Liu等[23]提出了SSD(Single Shot MultiBox Detector)算法,進(jìn)行多尺度特征的提取。圖3為YOLO和SSD算法結(jié)構(gòu)對(duì)比。
圖3 YOLO和SSD算法結(jié)構(gòu)對(duì)比Fig.3 Comparison between YOLO and SSD algorithm structure
無人機(jī)航拍因成像幅寬大、不受地理?xiàng)l件約束等優(yōu)點(diǎn),在工業(yè)巡檢、交通管理、應(yīng)急救援、安防等領(lǐng)域發(fā)揮著重要的作用。目標(biāo)檢測(cè)作為計(jì)算機(jī)視覺中的一項(xiàng)重要技術(shù),正不斷提高無人機(jī)感知能力和圖像數(shù)據(jù)分析能力,促進(jìn)無人機(jī)航拍在民用和軍事領(lǐng)域轉(zhuǎn)化出更多的應(yīng)用。近年來基于深度學(xué)習(xí)的目標(biāo)檢測(cè)方法在無人機(jī)領(lǐng)域也取得了一些重要的研究進(jìn)展。
無人機(jī)航拍圖像自身有著顯著的特點(diǎn),使用自然場(chǎng)景圖像數(shù)據(jù)集(如MSCOCO[24]和VOC[25])來完成前者目標(biāo)檢測(cè)的訓(xùn)練任務(wù)難以取得令人滿意的效果。
一些研究針對(duì)這一問題提出了航空影像數(shù)據(jù)集,相關(guān)圖像數(shù)據(jù)集對(duì)比如表2所示。
表2 不同航空?qǐng)D像數(shù)據(jù)集對(duì)比Table 2 Comparison of different aerial image datasets
UC Merced Land-Use[26]是一個(gè)用于土地利用研究的可見光遙感圖像數(shù)據(jù)集,圖片取自 USGS National Map Urban Area Imagery系列。NWPU VHR-10[27]數(shù)據(jù)集有10個(gè)類別的對(duì)象,這些圖像是從Google Earth和Vaihingen數(shù)據(jù)集裁剪而來的,并且由專家進(jìn)行了類別標(biāo)注。VEDAI[28](Vehicle Detection in Aerial Imagery)數(shù)據(jù)集用于多種類車輛檢測(cè)任務(wù),該數(shù)據(jù)集的航空?qǐng)D像取自猶他州AGRC。UCAS-AOD[29]數(shù)據(jù)集用于航空?qǐng)D像下車輛和飛機(jī)的目標(biāo)檢測(cè),圖像采集于Google Earth,車輛數(shù)據(jù)集共210張圖片,飛機(jī)數(shù)據(jù)集共600張圖片。DOTA[30]數(shù)據(jù)集是一個(gè)用于航空?qǐng)D像中目標(biāo)檢測(cè)的大型數(shù)據(jù)集,圖像的采集來自不同的傳感器和平臺(tái),包含了不同比例、方向和形狀的目標(biāo)對(duì)象。
使用無人機(jī)作為拍攝平臺(tái)而制作的數(shù)據(jù)集出現(xiàn)較晚。Stanford Drone Dataset[31]在2016年被提出,由無人機(jī)拍攝而制作的圖像/視頻數(shù)據(jù)集,為了提高挑戰(zhàn)性,影像采集于校園中目標(biāo)較為擁擠的場(chǎng)景。Okutama Action Dataset[32]同樣使用無人機(jī)拍攝,是一個(gè)用于檢測(cè)人體動(dòng)作的視頻數(shù)據(jù)集。CARPK[33]是一個(gè)停車場(chǎng)數(shù)據(jù)集,包含近9×104輛車,用于無人機(jī)對(duì)車輛的檢測(cè)和計(jì)數(shù)任務(wù)。VisDrone[34]數(shù)據(jù)集包含了不同天氣和光照條件下的288個(gè)視頻和104余張圖像,用于無人機(jī)圖像目標(biāo)檢測(cè)、視頻目標(biāo)檢測(cè)、單目標(biāo)跟蹤和多目標(biāo)跟蹤4種任務(wù)挑戰(zhàn)。DroneVehicle[35]是一個(gè)面向車輛檢測(cè)和車輛計(jì)數(shù)任務(wù)的數(shù)據(jù)集,包含了RGB圖像和紅外圖像,采集還涵蓋了晝夜時(shí)段以及目標(biāo)的遮擋和尺度變化。
數(shù)據(jù)集對(duì)于深度學(xué)習(xí)來說有著至關(guān)重要的作用,然而對(duì)于無人機(jī)影像的目標(biāo)檢測(cè)任務(wù),目前缺少ImageNet、MSCOCO和VOC這些類型的數(shù)據(jù)集。現(xiàn)有的航空影像數(shù)據(jù)集類別數(shù)量和標(biāo)注的目標(biāo)數(shù)量較少,大多數(shù)數(shù)據(jù)集關(guān)注的類別為車輛、飛機(jī)、船舶和建筑,與ImageNet多達(dá)200個(gè)目標(biāo)類別以及近9×105萬個(gè)標(biāo)注數(shù)量相比,這些難以反映真實(shí)世界的復(fù)雜程度;此外,同一目標(biāo)的尺度變化和旋轉(zhuǎn)特性不夠豐富,相比于衛(wèi)星和傳統(tǒng)航空遙感平臺(tái),無人機(jī)有著較高的靈活性,目標(biāo)較為豐富的變化才能貼近無人機(jī)的實(shí)際航拍場(chǎng)景。因此,在采集和制作無人機(jī)影像數(shù)據(jù)集時(shí)應(yīng)作如下考慮:
1) 數(shù)據(jù)集具有較大的規(guī)模。目標(biāo)類別、目標(biāo)標(biāo)注在數(shù)量上要足以支撐基于深度學(xué)習(xí)的方法,類別的選擇除了滿足實(shí)際應(yīng)用還要平衡正負(fù)樣本的比率,從而進(jìn)一步提高無人機(jī)影像目標(biāo)檢測(cè)的技術(shù)水平。
2) 數(shù)據(jù)集應(yīng)具有較好的泛化性,淡化數(shù)據(jù)集本身的特征[36]。使用不同傳感器進(jìn)行航拍,保證相同類別目標(biāo)具有不同的分辨率;拍攝時(shí)段和天氣應(yīng)多樣化,從而確保影像信息之間具有偏差更加貼合實(shí)際。
3) 數(shù)據(jù)集應(yīng)充分表征無人機(jī)影像的特點(diǎn)。背景信息足夠豐富,不能刻意排除模糊、有遮擋或難以分辨的目標(biāo);采集數(shù)據(jù)時(shí)應(yīng)注意同類目標(biāo)的多樣性和相似性,包括尺度和形狀的變化、旋轉(zhuǎn)特性等。
使用遷移學(xué)習(xí)從較為成熟的大規(guī)模數(shù)據(jù)集進(jìn)行相似性學(xué)習(xí)后應(yīng)用于新領(lǐng)域是另一種解決問題的有效方案。
按照文獻(xiàn)[37]對(duì)遷移學(xué)習(xí)的定義,可以將自然場(chǎng)景圖像的數(shù)據(jù)集定義為源域數(shù)據(jù),無人機(jī)影像數(shù)據(jù)集定義為目標(biāo)域數(shù)據(jù),其對(duì)應(yīng)的學(xué)習(xí)任務(wù)分別為源域任務(wù)和目標(biāo)域任務(wù)。遷移學(xué)習(xí)可分為如表3所示的3種類型。自然圖像上訓(xùn)練好的模型應(yīng)用于無人機(jī)影像主要的任務(wù)為不同領(lǐng)域之間知識(shí)的遷移,其源域和目標(biāo)域數(shù)據(jù)有相關(guān)性,學(xué)習(xí)的任務(wù)相同。
表3 遷移學(xué)習(xí)的類型Table 3 Types of transfer learning
對(duì)于深度學(xué)習(xí)而言,遷移學(xué)習(xí)的過程為利用相關(guān)領(lǐng)域的知識(shí)通過深度神經(jīng)網(wǎng)絡(luò)進(jìn)行目標(biāo)域中模型的訓(xùn)練。按照學(xué)習(xí)的方法不同可將深度遷移學(xué)習(xí)分為3類:基于實(shí)例的遷移學(xué)習(xí)、基于特征的遷移學(xué)習(xí)和基于模型的遷移學(xué)習(xí)。
基于實(shí)例的遷移學(xué)習(xí)通過調(diào)整權(quán)重來增加目標(biāo)域有用樣本的權(quán)重,以此補(bǔ)充目標(biāo)域訓(xùn)練數(shù)據(jù),這種方法目前使用較少;基于特征的遷移學(xué)習(xí)通過挖掘源域數(shù)據(jù)中可以覆蓋目標(biāo)域數(shù)據(jù)的部分,實(shí)現(xiàn)不同特征空間之間的知識(shí)遷移,在目標(biāo)檢測(cè)任務(wù)比較常見的是特征提取器的遷移;基于模型的遷移學(xué)習(xí)需要找到源域和目標(biāo)域模型之間可以共享的參數(shù)或知識(shí)。
遷移學(xué)習(xí)在目標(biāo)檢測(cè)領(lǐng)域取得了一些不錯(cuò)的成果。Pan等[38]提出了一種基于遷移學(xué)習(xí)和幾何特征約束的級(jí)聯(lián)CNN網(wǎng)絡(luò)模型,在較少的遙感圖像樣本下實(shí)現(xiàn)了高精度的檢測(cè);Yuan等[39]在大中小3種規(guī)模的數(shù)據(jù)集之間使用兩次遷移學(xué)習(xí),實(shí)現(xiàn)了較高精度的夜間航拍車輛檢測(cè);Wang等[40]使用深度遷移學(xué)習(xí)的方法成功地將在規(guī)模的仿真SAR圖像數(shù)據(jù)集上學(xué)習(xí)到的知識(shí)遷移到實(shí)測(cè)SAR圖像上,提高了數(shù)據(jù)稀缺下目標(biāo)識(shí)別的準(zhǔn)確率。但遷移學(xué)習(xí)的順利進(jìn)行是有條件限制的,需要保證源域和目標(biāo)域之間具有共同點(diǎn),具有一定的相似性和關(guān)聯(lián)性[41-42]。
計(jì)算機(jī)視覺領(lǐng)域中基于深度學(xué)習(xí)的目標(biāo)檢測(cè)方法在自然場(chǎng)景領(lǐng)域取得了巨大的成功,這對(duì)于無人機(jī)目標(biāo)檢測(cè)任務(wù)是值得借鑒和參考的,很多國內(nèi)外研究提出了效果顯著的改進(jìn)算法。本文從無人機(jī)影像的4個(gè)特點(diǎn)出發(fā),分析比較了一些具有代表性的方法,表4給出了部分算法在DOTA數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果,表5為不同算法的優(yōu)缺點(diǎn)對(duì)比。
表4 不同無人機(jī)目標(biāo)檢測(cè)算法在DOTA-v1.0 數(shù)據(jù)集上的有向目標(biāo)檢測(cè)結(jié)果對(duì)比Table 4 Results comparison of OBB task on DOTA-v1.0 dataset of different UAV object detection algorithms
表5 不同無人機(jī)目標(biāo)檢測(cè)算法的優(yōu)缺點(diǎn)對(duì)比Table 5 Comparison of advantages and disadvantages of different UAV object detection algorithms
2.3.1 無人機(jī)影像中的復(fù)雜背景問題
無人機(jī)影像中目標(biāo)密集區(qū)域往往存在著大量形似物體,從而導(dǎo)致檢測(cè)中的漏檢或誤報(bào)增加。此外,無人機(jī)影像背景中大量噪聲信息,還會(huì)使目標(biāo)被弱化或遮擋,難以被連續(xù)和完整地檢測(cè)。
近年來,國內(nèi)外提出了一些效果顯著的改進(jìn)算法來抑制影響背景中的噪聲信息。Audebert等[43]在航拍圖像中利用深度全卷積網(wǎng)絡(luò)對(duì)車輛精確分割,通過連通分量的提取實(shí)現(xiàn)車輛檢測(cè),證明了航拍圖像中語義分割和目標(biāo)檢測(cè)的結(jié)合,可以提高檢測(cè)性能,尤其是在目標(biāo)邊界信息的提取上。Mask R-CNN[44]、MaskLab[45]、HTC[46]等算法兼顧了分割和目標(biāo)檢測(cè),并在2個(gè)任務(wù)上都取得了很好的效果。受此啟發(fā),Li等[47]構(gòu)建了一個(gè)語義分割指導(dǎo)下的RPN(semantic segmentation-guided RPN,sRPN)模塊來抑制航拍圖像中的背景雜波。這個(gè)模塊將多層金字塔特征集成為一個(gè)新的特征后,進(jìn)行空洞空間金字塔池化 (Atrous Spatial Pyramid Pooling,ASPP[48])和卷積運(yùn)算,得到掩膜和語義特征,它們分別可以幫助指導(dǎo)RPN和得到更精準(zhǔn)的回歸結(jié)果。sRPN對(duì)檢測(cè)精度有一定的提升作用,但獲取的特征在尺度上較為稀疏,上下文信息聯(lián)系不夠緊密,容易造成信息丟失。文獻(xiàn)[49]使用改進(jìn)的多尺度空洞卷積來提取特征,擴(kuò)大了對(duì)特征的感受野,提高了復(fù)雜背景下和有遮擋的目標(biāo)檢測(cè)效果。
受人類感知機(jī)制的啟發(fā),注意力機(jī)制被應(yīng)用于深度學(xué)習(xí)中,其目的是聚焦并選擇對(duì)任務(wù)有用的信息。注意力機(jī)制可以使檢測(cè)器對(duì)目標(biāo)進(jìn)行“有區(qū)別”地檢測(cè),提升網(wǎng)絡(luò)模型運(yùn)行的效率。Yang等[50]將注意力機(jī)制引入目標(biāo)檢測(cè)中,提出了SCRDet。使用一個(gè)有監(jiān)督的多維注意力網(wǎng)絡(luò)(Multi-Dimensional Attention Leaner,MDA-NET)來突出目標(biāo)特征,弱化背景特征。該網(wǎng)絡(luò)由像素注意力和通道注意力網(wǎng)絡(luò)兩部分組成,像素注意力網(wǎng)絡(luò)將初始的特征圖進(jìn)行卷積得到帶有前景和背景分?jǐn)?shù)的顯著圖;通道注意力網(wǎng)絡(luò)使用SENet為各特征通道的重要性賦權(quán)。圖4為sRPN和MDA-NET算法結(jié)構(gòu)。
圖4 sRPN和MDA-NET算法結(jié)構(gòu)Fig.4 Structure of sRPN and MDA-NET algorithms
在解決無人機(jī)影像中的復(fù)雜背景問題時(shí),上下文信息可以幫助模型對(duì)目標(biāo)與背景的理解,從而從提取更好的目標(biāo)特征,但上下文信息需要進(jìn)行篩選,通常只有部分信息是對(duì)模型有用的;空洞卷積在增加感受野的同時(shí)保留細(xì)節(jié)信息,為了適應(yīng)無人機(jī)影像中的目標(biāo)分布和遮擋情況,多尺度空洞卷積中提取的特征大小和數(shù)量顯得尤為重要;注意力機(jī)制可以有效過濾背景中的無用信息,不過在無人機(jī)目標(biāo)檢測(cè)這種特定的場(chǎng)景下需要合理地分配權(quán)重,避免小目標(biāo)的漏檢或誤報(bào)。
復(fù)雜背景中目標(biāo)的精細(xì)檢測(cè)算法在交通檢測(cè)和城市規(guī)劃中有著廣泛的應(yīng)用前景[43],隨著交通量的日益增長和城市規(guī)模的不斷擴(kuò)大,航拍影像中非目標(biāo)噪聲也越來越多,同時(shí)由于航拍中難以避免的遮擋問題也會(huì)導(dǎo)致目標(biāo)信息不完整,因此,如何在復(fù)雜的環(huán)境中提取目標(biāo)特征的研究具有重要的應(yīng)用意義。
2.3.2 無人機(jī)影像中的小目標(biāo)問題
無人機(jī)影像中目標(biāo)的尺度范圍大,建筑與行人、山川與動(dòng)物經(jīng)常出現(xiàn)在同一圖片中。小目標(biāo)在圖片中占比極小,提供的分辨率有限,從而造成檢測(cè)困難。
較早的一些研究中,Sevo和Avramovic[51]證明了卷積神經(jīng)網(wǎng)絡(luò)可以有效地融入到航空?qǐng)D像的目標(biāo)檢測(cè)算法中。Sommer等[52]將Fast R-CNN和Faster R-CNN 用于航空?qǐng)D像中的車輛檢測(cè),通過調(diào)整錨定框的大小和特征圖的分辨率,來適應(yīng)小目標(biāo)檢測(cè)。雖然卷積神經(jīng)網(wǎng)絡(luò)具有一定的泛化能力,但網(wǎng)絡(luò)中的卷積和池化操作使特征圖細(xì)節(jié)信息丟失過多,這對(duì)小目標(biāo)檢測(cè)來說是十分不利的。
為了實(shí)現(xiàn)不同尺度的特征提取,提升小目標(biāo)檢測(cè)的性能,Lin等[53]設(shè)計(jì)了一個(gè)特征金字塔網(wǎng)絡(luò)(Feature Pyramid Networks,F(xiàn)PN),實(shí)現(xiàn)了細(xì)節(jié)較多的底層特征和語義信息豐富的頂層特征的融合。FPN算法使用內(nèi)網(wǎng)特征金字塔來代替特征化圖像金字塔,大幅減少了運(yùn)算量,解決了訓(xùn)練與測(cè)試時(shí)間不一致問題,圖5列舉了計(jì)算機(jī)視覺中的一些金字塔結(jié)構(gòu)。Azimi等[54]提出了一種圖像級(jí)聯(lián)網(wǎng)絡(luò)(Image Cascade Network,ICN),使圖像金字塔模型和FPN的結(jié)合成為可能。此外,為了克服固定卷積核對(duì)幾何變換建模的局限性,使用DIN(Deformable Inception Network[14,55])代替在FPN中使特征輸出減少的1x1卷積核,來增強(qiáng)對(duì)小目標(biāo)的定位能力。在DOTA數(shù)據(jù)集上的實(shí)驗(yàn)表明,使用ICN和DIN后mAP均有著明顯提升?;贔PN的方法是高效的,無人機(jī)影像的特點(diǎn)決定了對(duì)其檢測(cè)需要更多的細(xì)節(jié)特征。Yang等[56]將DenseNet中的密集連接用于FPN算法,在自上而下的網(wǎng)絡(luò)中通過橫向連接和密集連接來獲取更高的分辨率特征;Wang等[57]使用改進(jìn)的Inception模塊代替FPN中的橫向連接來加強(qiáng)特征傳播。這些算法在一定程度上提升了小目標(biāo)檢測(cè)的效果,但新的模塊的加入增加了計(jì)算成本,算法的速度難以得到保證,實(shí)驗(yàn)條件下的高性能算法如何應(yīng)用到實(shí)時(shí)性較強(qiáng)的場(chǎng)景中值得進(jìn)一步研究。文獻(xiàn)[58]提出了一個(gè)輕量化的深度殘差網(wǎng)絡(luò)模型(LResnet)將底層特征信息融合到高層中,檢測(cè)速度較FPN有明顯提升。
圖5 計(jì)算機(jī)視覺中的金字塔結(jié)構(gòu)Fig.5 Pyramid structure in computer vision
He[59]和Zhu[60]等對(duì)深度學(xué)習(xí)中的訓(xùn)練問題進(jìn)行了研究:自然場(chǎng)景圖像數(shù)據(jù)集下預(yù)訓(xùn)練好的模型對(duì)無人機(jī)影像的目標(biāo)檢測(cè)幫助有限,但從頭開始的訓(xùn)練又增加了時(shí)間成本。Wang等[61]將預(yù)訓(xùn)練的模型與隨機(jī)初始化訓(xùn)練的輔助網(wǎng)絡(luò)結(jié)合,兼顧了訓(xùn)練時(shí)間成本和定位的精確性。輔助網(wǎng)絡(luò)為標(biāo)準(zhǔn)的預(yù)訓(xùn)練網(wǎng)絡(luò)提供包含準(zhǔn)確輪廓邊緣信息的低層、中層特征,補(bǔ)償在預(yù)訓(xùn)練中準(zhǔn)確輪廓邊緣信息的丟失,使定位更準(zhǔn)確。該算法在UAVDT數(shù)據(jù)集上的檢測(cè)效果較好,提高了精度的同時(shí)保證了速度。在網(wǎng)絡(luò)架構(gòu)中增強(qiáng)預(yù)訓(xùn)練模型的泛化能力是直接有效的方法,并且可以保持原有網(wǎng)絡(luò)模型的特性,但輔助網(wǎng)絡(luò)本身也需要訓(xùn)練增加了運(yùn)行和時(shí)間成本。Yu等[62]將研究重點(diǎn)放在了預(yù)訓(xùn)練數(shù)據(jù)集和任務(wù)數(shù)據(jù)集的關(guān)系處理上,提出了尺度匹配方法,為遠(yuǎn)距離、大背景下小目標(biāo)的目標(biāo)檢測(cè)帶來性能提升。預(yù)先訓(xùn)練的數(shù)據(jù)集足夠大時(shí)能在一定程度上提升檢測(cè)效果,但預(yù)訓(xùn)練數(shù)據(jù)集與指定任務(wù)數(shù)據(jù)集差別很大時(shí),得到的預(yù)訓(xùn)練模型幫助并不大。尺度匹配是一種尺度變換方法,使用于預(yù)訓(xùn)練的數(shù)據(jù)集和檢測(cè)器學(xué)習(xí)的數(shù)據(jù)集之間的特征分布保持一致。實(shí)驗(yàn)以Faster R-CNN-FPN為基準(zhǔn)并在MS COCO中進(jìn)行預(yù)訓(xùn)練,結(jié)果表明該算法可以顯著提升檢測(cè)器性能。
在解決無人機(jī)影像中的小目標(biāo)問題時(shí),特征融合的方法可以結(jié)合多層特征來進(jìn)行預(yù)測(cè),提高對(duì)多尺度目標(biāo)尤其是小目標(biāo)的檢測(cè)效果。根據(jù)不同場(chǎng)景下無人機(jī)目標(biāo)檢測(cè)任務(wù)的需求,具有相應(yīng)特性的CNN模型或模塊與FPN結(jié)合都取得了較好的檢測(cè)效果,但卻增加了時(shí)間成本。輕量化的網(wǎng)絡(luò)模型是一種解決方法,另一種思路則從訓(xùn)練深度學(xué)習(xí)模型的角度出發(fā),在已有數(shù)據(jù)集的情況下改進(jìn)訓(xùn)練質(zhì)量,具有很高的實(shí)際工程適用性。
小目標(biāo)檢測(cè)算法在小人臉檢測(cè)、軍事偵察、交通標(biāo)志檢測(cè)、安防等領(lǐng)域有著廣泛應(yīng)用需求[63]。在無人機(jī)的自主飛行中,應(yīng)對(duì)突發(fā)緊急情況時(shí)主要依賴自身的傳感器和控制器來完成對(duì)起落點(diǎn)的感知和緊急著陸,在較高的飛行高度完成對(duì)地面起落點(diǎn)的識(shí)別和空間定位對(duì)小目標(biāo)檢測(cè)的精度也有著很高的要求。
2.3.3 無人機(jī)影像中的大視場(chǎng)問題
無人機(jī)的探測(cè)范圍較廣,且不受地理因素等限制,因此得到的圖像視場(chǎng)往往很大。大視場(chǎng)下的目標(biāo)檢測(cè)面臨著目標(biāo)分布不均、目標(biāo)稀疏等問題,如車輛總是在道路上密集存在、草原上的羊群也經(jīng)常聚集在某一處、城市里的廣場(chǎng)人群很密集而旁邊的道路上的行人卻相對(duì)稀疏。
直接將卷積檢測(cè)器應(yīng)用于這些圖像所帶來的處理成本很高,滑動(dòng)窗口法雖然可以裁剪圖片,但效率較低,因此很多算法通過減少搜索區(qū)域來提高效率。LaLonde等[64]在研究廣域運(yùn)動(dòng)圖像(Wide Area Motion Imagery,WAMI)下的目標(biāo)檢測(cè)時(shí),提出了一個(gè)兩階段的卷積神經(jīng)網(wǎng)絡(luò),第一階段改進(jìn)了Faster R-CNN中的RPN,使之可以覆蓋更多的潛在對(duì)象;第二階段設(shè)計(jì)了一個(gè)基于神經(jīng)元有效感受域的算法進(jìn)行目標(biāo)檢測(cè),只對(duì)高于設(shè)定閾值的一階段輸出進(jìn)行高分辨率分析。實(shí)驗(yàn)使用WPAFB 2009數(shù)據(jù)集并與其他13種檢測(cè)方法進(jìn)行了對(duì)比,該算法的檢測(cè)效果更好。Yang等[65]針對(duì)航拍圖像下目標(biāo)分布不均勻的問題提出了一個(gè)面向聚集區(qū)域的目標(biāo)檢測(cè)算法。首先,將一個(gè)改進(jìn)的RPN模塊放置在特征提取網(wǎng)絡(luò)的頂部來獲取更大的感受野。第二步對(duì)提取的目標(biāo)聚集區(qū)域進(jìn)行尺度估計(jì),對(duì)于偏移量過大的區(qū)域進(jìn)行填充或分區(qū)操作,處理后的提取區(qū)域需要分別進(jìn)行目標(biāo)檢測(cè)任務(wù)。最后,對(duì)所有檢測(cè)結(jié)果通過NMS(Non Maximum Suppression)操作融合到全局圖片上。在VisDrone、UAVDT和DOTA數(shù)據(jù)集上的實(shí)驗(yàn)表明,該算法檢測(cè)性能和效率均有著顯著提升。
針對(duì)候選區(qū)域生成算法的缺點(diǎn),一些研究將強(qiáng)化學(xué)習(xí)用于大視場(chǎng)圖片的目標(biāo)搜索中,如圖6所示。Gao等[66]將強(qiáng)化學(xué)習(xí)和卷積神經(jīng)網(wǎng)絡(luò)結(jié)合,用于大圖像中小目標(biāo)的檢測(cè)。卷積神經(jīng)網(wǎng)絡(luò)對(duì)圖片進(jìn)行精細(xì)和粗略檢測(cè),所得的結(jié)果與真實(shí)值求差值來計(jì)算精度收益,經(jīng)過回歸生成精度收益圖,指示不同區(qū)域的潛在放大精度增益。強(qiáng)化學(xué)習(xí)的任務(wù)是找到使獎(jiǎng)勵(lì)最大的動(dòng)作,即更加高效地找到圖像中的小目標(biāo)。該算法在一些行人數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn),并未在無人機(jī)影像數(shù)據(jù)集上實(shí)驗(yàn)。Uzkent等[67]的研究與前者類似,但面向的是視場(chǎng)較大的可見光遙感圖像。該算法分別對(duì)圖片進(jìn)行粗略和精細(xì)搜索。兩種搜索都是強(qiáng)化學(xué)習(xí)與卷積深度網(wǎng)絡(luò)結(jié)合的級(jí)聯(lián)算法。在粗略搜索中,先將低分辨率圖片分割為相同大小的子圖片,計(jì)算它們各自放大后的收益。在精細(xì)搜索中,對(duì)粗略搜索模塊選擇的子圖片進(jìn)行進(jìn)一步的搜索空間優(yōu)化,以最終決定要放大哪些子圖片。在xView數(shù)據(jù)集上的實(shí)驗(yàn)表明,該方法提高了運(yùn)行效率2.2倍,同時(shí)減少了對(duì)高分辨率圖像的依賴性約70%。
圖6 強(qiáng)化學(xué)習(xí)在目標(biāo)檢測(cè)中的應(yīng)用Fig.6 Application of reinforcement learning in object detection
在解決無人機(jī)影像中的大視場(chǎng)問題時(shí),首先要考慮的是減少目標(biāo)搜索的成本,常見的方法為區(qū)域特征編碼方法的優(yōu)化,如增加ROI輸出的數(shù)量或增加ROI生成模塊感受野;對(duì)子圖片進(jìn)行檢測(cè)時(shí),目標(biāo)尺度的估計(jì)對(duì)檢測(cè)精度有著較大影響。減少搜索區(qū)域的方法本質(zhì)上還是兩階段的目標(biāo)檢測(cè)方法,需要遍歷整張圖片,效率較低。強(qiáng)化學(xué)習(xí)與CNN的結(jié)合實(shí)現(xiàn)了大視場(chǎng)影像中的自適應(yīng)搜索,增加效率的同時(shí)保證了子圖片檢測(cè)的精度。
無人機(jī)在很多領(lǐng)域中的應(yīng)用需要對(duì)較大的地理空間或場(chǎng)景進(jìn)行監(jiān)測(cè)和數(shù)據(jù)采集,如行人檢測(cè)、遙感測(cè)繪、農(nóng)業(yè)監(jiān)測(cè)等。在大視場(chǎng)影像中進(jìn)行快速準(zhǔn)確的目標(biāo)搜索和檢測(cè)不僅可以減少運(yùn)算時(shí)間、降低對(duì)硬件的要求,還有著重要的現(xiàn)實(shí)意義,克羅地亞搜救隊(duì)在2019年提出了一種基于無人機(jī)航拍影像的搜索方法,用以尋找荒野中的失蹤人員或有用的痕跡信息[68]。
2.3.4 無人機(jī)影像中的旋轉(zhuǎn)問題
無人機(jī)影像中的物體可能在任意位置和方向上出現(xiàn),同一類物體的角度變化也不盡相同。無人機(jī)目標(biāo)檢測(cè)任務(wù)因此變得困難,旋轉(zhuǎn)的物體使位置回歸變得困難,因而大量的目標(biāo)被漏檢。文本檢測(cè)也有著同樣的特點(diǎn),一些改進(jìn)的目標(biāo)檢測(cè)的研究是在文本檢測(cè)的啟發(fā)下進(jìn)行的,近年來有很多創(chuàng)新性的算法來解決目標(biāo)的旋轉(zhuǎn)問題。
常見的檢測(cè)方法按照候選區(qū)域和包圍盒的形式,可分為水平檢測(cè)和旋轉(zhuǎn)檢測(cè),如圖7所示。
圖7 水平檢測(cè)和旋轉(zhuǎn)檢測(cè)Fig.7 Rotated and horizontal object detection
Jiang等[69]改進(jìn)了Faster R-CNN算法,用于檢測(cè)任意方向的文本內(nèi)容:使用兩點(diǎn)坐標(biāo)和盒高來描述包圍盒,通過多尺度的ROI池化來更好的提取水平和豎直方向的特征。該方法提出的包圍盒較好地適應(yīng)了文字檢測(cè),但無人機(jī)影像中的目標(biāo)存在分布密集的情況且旋轉(zhuǎn)角度是任意的,需要新的包圍盒形式來對(duì)其定位。Xu等[70]使用Faster R-CNN算法的分類結(jié)果,對(duì)于回歸預(yù)測(cè),引入旋轉(zhuǎn)因子和水平包圍盒頂點(diǎn)偏移量參數(shù)來對(duì)得到的水平包圍盒進(jìn)行偏移改進(jìn),用四邊形來回歸定位。該算法在DOTA數(shù)據(jù)集上取得了73.39% mAP的結(jié)果,但由于仍是基于水平候選區(qū)域下的檢測(cè),位置回歸的過程存在一些與真實(shí)值不匹配的情況。
Ma等[71]提出了使用旋轉(zhuǎn)的候選區(qū)域來進(jìn)行文本檢測(cè)。在Faster R-CNN算法中引入角度參數(shù),生成帶有角度信息的錨定框,進(jìn)而得到任意方向的候選區(qū)域,并將此稱為RRPN(Rotation Region Proposal Networks),相應(yīng)的RROI(the Rotation Region of Interest)池化過程是將旋轉(zhuǎn)的候選區(qū)域與特征圖關(guān)聯(lián)后再進(jìn)行的池化操作。該方法提升了包圍盒回歸的精度,但由于產(chǎn)生更多的旋轉(zhuǎn)錨定框,計(jì)算量較大。為了避免增加錨點(diǎn)數(shù)量,Ding等[72]使用水平的錨定框,在RPN階段通過全連接學(xué)習(xí)得到旋轉(zhuǎn)ROI。具體來說,在有向包圍盒(Oriented Bounding Box,OBB)注釋的監(jiān)督下,對(duì)RoI進(jìn)行空間變換并學(xué)習(xí)變換參數(shù)(ROI-Transformer,RT)。之后,從旋轉(zhuǎn)ROI中提取旋轉(zhuǎn)不變特征,用于后續(xù)的分類和定位。由于避免了大量旋轉(zhuǎn)錨定框的生成,該算法減少了計(jì)算量,在DOTA和HRSC數(shù)據(jù)集上的檢測(cè)性能也有顯著提升。
Zhou等[73]提出了CenterNet,使用無錨點(diǎn)(Anchor-Free)的回歸方法。用包圍盒的中心點(diǎn)來表示目標(biāo),目標(biāo)的大小尺寸則直接從中心點(diǎn)位置進(jìn)行回歸。Pan等[74]在CenterNet的基礎(chǔ)上增加了旋轉(zhuǎn)角度預(yù)測(cè),提出DRN(Dynamic Refinement Network):根據(jù)物體的形狀和旋轉(zhuǎn)方向來自適應(yīng)調(diào)整感受野,同時(shí)對(duì)目標(biāo)的分類和回歸進(jìn)行動(dòng)態(tài)修正。
同類物體的旋轉(zhuǎn)同時(shí)會(huì)對(duì)目標(biāo)檢測(cè)中的分類任務(wù)造成困擾,Cheng等[75]提出的算法用以解決旋轉(zhuǎn)后帶來的檢測(cè)困難。通過在全連接層或ROI池化層加上正則約束項(xiàng)來優(yōu)化一個(gè)新的目標(biāo)函數(shù),將訓(xùn)練樣本在旋轉(zhuǎn)前后的特征表示緊密地映射在一起,以確保旋轉(zhuǎn)前后相似特征的分享,從而實(shí)現(xiàn)旋轉(zhuǎn)不變性。實(shí)驗(yàn)表明該算法在航拍車輛檢測(cè)和遙感圖像分類任務(wù)上都有著性能提升。
在解決無人機(jī)影像中的旋轉(zhuǎn)問題時(shí),較為直接而簡(jiǎn)便的方法為保持水平的ROI不變,自定義包圍盒的形狀來適應(yīng)目標(biāo)旋轉(zhuǎn)特性;使用旋轉(zhuǎn)的RROI生成的區(qū)域特征與目標(biāo)旋轉(zhuǎn)特性較為匹配,可以有效避免大量的回歸錯(cuò)位,但旋轉(zhuǎn)的錨定框的生成增加了計(jì)算量;通過默認(rèn)的水平錨定框轉(zhuǎn)換得到RROI,避免了計(jì)算量的增加,且仍有著較高的回歸精度。而無錨點(diǎn)的回歸擺脫了錨定框?qū)Π鼑械南拗?,增?qiáng)了模型的實(shí)時(shí)性和精度,不過回歸的穩(wěn)定性需要進(jìn)一步研究。
旋轉(zhuǎn)問題是無人機(jī)航拍目標(biāo)檢測(cè)中的一大瓶頸問題,高精度的旋轉(zhuǎn)檢測(cè)的實(shí)現(xiàn)極大地拓展了無人機(jī)的應(yīng)用場(chǎng)景,特別是航拍影像中密集區(qū)域中目標(biāo)的定位,如停車場(chǎng)的車輛、港口中停泊的艦船、航空港中的航空器以及由此衍生的計(jì)數(shù)任務(wù)[33]。
目前,無人機(jī)目標(biāo)檢測(cè)算法的受關(guān)注程度與日俱增,現(xiàn)有的算法也取得了不錯(cuò)的檢測(cè)效果,但還有很大的改進(jìn)空間。復(fù)雜背景給目標(biāo)檢測(cè)任務(wù)帶來的干擾得到了有效抑制,但現(xiàn)有的算法仍存在虛警和漏檢問題,如果目標(biāo)處于過于密集或大量形似物的環(huán)境中,檢測(cè)效果不太理想;基于兩階段方法的目標(biāo)檢測(cè)算法在分類和回歸的精度上有優(yōu)勢(shì),大部分小目標(biāo)檢測(cè)方法都是基于此來進(jìn)行改進(jìn),加之新模塊和網(wǎng)絡(luò)的引入,使得檢測(cè)速度仍然較慢;多數(shù)算法都是基于現(xiàn)有算法的改進(jìn),很多適用于自然場(chǎng)景下目標(biāo)檢測(cè)方法和思想被保留下來,增加了檢測(cè)的局限性,如錨定框的保留限制了目標(biāo)位置的確定,需要有新的方法來提高定位精度。
針對(duì)上述問題和近幾年的研究趨勢(shì),本文對(duì)無人機(jī)目標(biāo)檢測(cè)未來研究的方向做出如下討論:
1) 在增大感受野的同時(shí),密集地生成不同尺度的特征。無人機(jī)影像的分辨率較高,ASPP可以在保證特征分辨率的同時(shí),增大感受野,但隨著擴(kuò)張率的增長,空洞卷積會(huì)失效。與CNN一樣,空洞卷積的網(wǎng)絡(luò)結(jié)構(gòu)是可以進(jìn)一步優(yōu)化的,從而可以在合理的擴(kuò)張率內(nèi)獲得與無人機(jī)影像相匹配的感受野和尺度分布[76]。
2) 自適應(yīng)地融合特征和生成ROI。無人機(jī)因應(yīng)用場(chǎng)景的不同而獲取不同特性的影像,為了避免有用信息的丟失,在特征融合和生成ROI時(shí)可以給不同的特征層賦權(quán),通過加權(quán)融合得到相應(yīng)的上下文特征和高質(zhì)量的ROI,進(jìn)而提高目標(biāo)檢測(cè)模型的泛化性[77]。
3) 深度學(xué)習(xí)方法與其他方法的結(jié)合。深度學(xué)習(xí)方法在目標(biāo)檢測(cè)領(lǐng)域有著顯著的優(yōu)勢(shì),也取得了極大的成功,其他算法的加入將會(huì)彌補(bǔ)單一方法的局限性:① 數(shù)據(jù)預(yù)處理算法。深度學(xué)習(xí)方法的效果依賴于輸入數(shù)據(jù)的質(zhì)量又無法篩選數(shù)據(jù),可以從數(shù)據(jù)增強(qiáng)和減少數(shù)據(jù)中的冗余特征兩方面出發(fā),來提高深度學(xué)習(xí)模型的計(jì)算效率。② 模 型的優(yōu)化算法。深度學(xué)習(xí)通過調(diào)節(jié)學(xué)習(xí)率可以實(shí)現(xiàn)自適應(yīng)優(yōu)化,但數(shù)據(jù)或樣本規(guī)模較大,或?qū)κ諗啃杂休^高要求時(shí),可以選擇合適的算法來優(yōu)化網(wǎng)絡(luò)的結(jié)構(gòu)和參數(shù),提高檢測(cè)效果。③ 功能性算法。作為數(shù)據(jù)驅(qū)動(dòng)的方法,深度學(xué)習(xí)并不是解決某些特定問題的最佳方案,可以選擇針對(duì)性較強(qiáng)的算法并合理分配權(quán)重,靈活高效完成任務(wù)。
4) 減少進(jìn)行位置回歸時(shí)的限制?;阱^點(diǎn)的回歸中錨定框的設(shè)置需要與待檢測(cè)的目標(biāo)形狀相吻合,但在無人機(jī)影像中,目標(biāo)的形狀和朝向多變,預(yù)設(shè)的錨定框限制了位置回歸。無錨點(diǎn)的方法通過預(yù)測(cè)目標(biāo)關(guān)鍵點(diǎn)來獲得包圍盒,不預(yù)設(shè)目標(biāo)形狀,以一種靈活的方式進(jìn)行位置回歸,更適合無人機(jī)航拍目標(biāo)檢測(cè)任務(wù)。對(duì)于關(guān)鍵點(diǎn)重合而導(dǎo)致的檢測(cè)結(jié)果不穩(wěn)定問題,可以對(duì)關(guān)鍵點(diǎn)進(jìn)行二次預(yù)測(cè)和匹配來提高檢測(cè)的精確性[78]。
本文總結(jié)了深度學(xué)習(xí)在目標(biāo)檢測(cè)領(lǐng)域的研究成果,分析了相關(guān)算法的優(yōu)缺點(diǎn)。對(duì)航空影像數(shù)據(jù)集和遷移學(xué)習(xí)進(jìn)行了詳細(xì)介紹,重點(diǎn)從無人機(jī)影像的特點(diǎn)出發(fā),對(duì)該領(lǐng)域的目標(biāo)檢測(cè)取得的進(jìn)展進(jìn)行了分析,指出了存在的問題和發(fā)展的方向。目前,無人機(jī)技術(shù)正處于快速發(fā)展時(shí)期,無人機(jī)目標(biāo)檢測(cè)具有廣闊的研究前景。