亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于空間交疊主動(dòng)學(xué)習(xí)的無人機(jī)光學(xué)影像桉樹樹冠檢測

        2025-04-10 00:00:00段煉梁波李震羅天嘯黃超群黃國斌
        關(guān)鍵詞:主動(dòng)學(xué)習(xí)

        摘 要:【目的】基于監(jiān)督深度學(xué)習(xí)的遙感影像樹冠檢測逐漸成為森林資源清查和監(jiān)測的重要技術(shù)手段。然而,已有方法需要大量標(biāo)注樣例,導(dǎo)致了高昂的成本和較低的通用性。在該挑戰(zhàn)下,本研究設(shè)計(jì)了一種新的主動(dòng)學(xué)習(xí)方法開展了UAVs光學(xué)影像下端到端的桉樹樹冠識(shí)別。【方法】采用“Teacher-student”交互學(xué)習(xí)模式,在每輪學(xué)習(xí)中通過Teacher模型生成候選偽樣本,基于偽樣本篩選策略得到高價(jià)值的目標(biāo)偽樣本,再將其與已有樣本放入Student模型學(xué)習(xí),之后將Student模型的參數(shù)遷移給Teacher模型。經(jīng)過以上多輪交互學(xué)習(xí),Teacher模型即為所求。特別地,該方法在模型中引入了梯度均衡機(jī)制損失以降低對(duì)易樣本的過度訓(xùn)練,設(shè)計(jì)了新穎的空間交疊度以加強(qiáng)模型對(duì)樹冠遮擋嚴(yán)重和多樹種共存等難偽樣本的學(xué)習(xí)比重,采用了多尺寸網(wǎng)格掩碼等數(shù)據(jù)增強(qiáng)方法提升模型對(duì)桉樹空間分布模式、多光照?qǐng)鼍昂彤惓E臄z視角的適應(yīng)性,顯著減少標(biāo)注工作量并提高模型性能?!窘Y(jié)果】利用大疆Phantom4 Pro V2.0無人機(jī)對(duì)廣西國有高峰林進(jìn)行數(shù)據(jù)采集,形成了8 000張256 pixel×256 pixel影像構(gòu)成的包含幼齡林和近成過熟林標(biāo)注的樣本集。利用該樣本集對(duì)所提方法和其他監(jiān)督學(xué)習(xí)方法及主動(dòng)學(xué)習(xí)方法進(jìn)行對(duì)比分析。結(jié)果表明,所提的主動(dòng)學(xué)習(xí)方法在使用少量樣本的情況下具有比監(jiān)督學(xué)習(xí)方法和最新主動(dòng)學(xué)習(xí)方法更優(yōu)異的性能:在使用26%的數(shù)據(jù)作為樣本時(shí),該方法的F1值為0.8,滿足了樹冠識(shí)別實(shí)用性要求;而當(dāng)樣本增加到34%時(shí),該方法更是取得了0.9的F1值,與全監(jiān)督學(xué)習(xí)性能相當(dāng)?!窘Y(jié)論】提出的主動(dòng)學(xué)習(xí)方法在小樣本約束下能自動(dòng)獲取準(zhǔn)確的樹冠范圍信息,可節(jié)省大量數(shù)據(jù)處理和樣本制作時(shí)間,具有高效、便捷和低成本的優(yōu)勢,對(duì)提升森林監(jiān)測效率和自動(dòng)化水平具有重要意義。

        關(guān)鍵詞:樹冠識(shí)別;主動(dòng)學(xué)習(xí);偽樣本篩選;目標(biāo)檢測

        中圖分類號(hào):S771.8;S792.39 文獻(xiàn)標(biāo)志碼:A 文章編號(hào):1673-923X(2025)03-0010-10

        基金項(xiàng)目:廣西林業(yè)科技推廣示范項(xiàng)目(2023GXLK05);南寧市武鳴區(qū)科學(xué)研究與技術(shù)開發(fā)計(jì)劃項(xiàng)目(20220107);廣西大學(xué)生創(chuàng)新創(chuàng)業(yè)訓(xùn)練計(jì)劃項(xiàng)目(S202410603111)。

        UAVs optical image-based Eucalyptus canopy detection using active learning with spatial overlap indicator

        DUAN Lian1, LIANG Bo2, LI Zhen3, LUO Tianxiao2, HUANG Chaoqun2, HUANG Guobin1

        (1. School of Natural Resources and Surveying, Nanning Normal University, Nanning 530001, Guangxi, China; 2. Guangxi Forest Resources and Environment Monitoring Center, Nanning 530001, Guangxi, China; 3. Management Center of National Dagui Mountain Alligator Lizard Nature Reserve in Guangxi Province, Hezhou 542800, Guangxi, China)

        Abstract:【Objective】Deep learning-based canopy detection from remote sensing imagery is gradually becoming an important technique for forest inventory and monitoring. However, existing methodologies usually require a large number of labeled examples, resulting in high costs for both annotation and sample acquisition, thus limiting their applicability. To address this challenge, a novel active learning method was designed for comprehensive Eucalyptus canopy recognition utilizing UAV optical imagery.【Method】The proposed method employs a “Teacher-student” interactive learning mode. In each learning stage, the Teacher model generates candidate pseudo-samples, and high-value target pseudo-samples are obtained based on a pseudo-sample selecting strategy, then combined with existing labeled samples and input into the Student model for training. Subsequently, the parameters of the Student model are transferred to the Teacher model. After multiple rounds of interactive learning, the teacher model becomes the final model for tree canopy detection applications. Specifically, the method introduces a gradient Harmonized mechanism loss (GHM loss) in the Student model to reduce over-training on easy samples. It also designs a novel spatial overlap indicator to strengthen the model’s learning emphasis on difficult pseudo-samples with severe canopy occlusions and coexistence of multiple tree species. Moreover, the method adopts multi-size grid mask and other data augmentation methods to enhance the model’s adaptability to the spatial distribution patterns of trees, diverse lighting conditions and unconventional photographic angles.These enhancements collectively lead to a significant decrease in labeling workload and a improvement in model performance.【Result】Data collection was conducted on Guangxi Gaofeng forests using the DJI Phantom 4 Pro V2.0 UAVs, resulting in a dataset consisting of 8 000 annotated samples with 256 pixel×256 pixel images of both young and nearly mature forests. This dataset was used to compare our proposed method with other supervised learning and active learning approaches. The results demonstrate that our proposed active learning method outperforms both supervised learning methods and the latest active learning methods when using a limited number of samples. Specifically, with only 26% of the data used as samples, our method achieved an F1 score of 0.8, meeting the practical requirements for tree crown recognition. Furthermore, when the sample size increased to 34%, our method achieved an F1 score of 0.9, which is comparable to the performance of fully supervised learning methods.【Conclusion】The proposed active learning approach enables automatic acquisition of accurate tree crown boundaries under the constraint of limited samples, resulting in significant savings in data processing and sample preparation time. It offers advantages in terms of efficiency, convenience, and cost-effectiveness, thereby playing a crucial role in enhancing forest monitoring efficiency and automation level.

        Keywords: tree canopy recognition; active learning; pseudo sample filtering; object detection

        基于遙感技術(shù)開展森林中特定種類樹冠的識(shí)別與統(tǒng)計(jì),對(duì)于樹木健康管理、森林資產(chǎn)清查和碳儲(chǔ)量估算等應(yīng)用具有重要價(jià)值[1-2]。傳統(tǒng)基于監(jiān)督機(jī)器學(xué)習(xí)和特征工程從遙感影像提取樹冠的工作,往往需要豐富的專家知識(shí)和大量檢驗(yàn)測試,通用性較差[3-4]。為此,利用深度學(xué)習(xí)強(qiáng)大的特征自學(xué)習(xí)能力開展樹冠檢測成為當(dāng)前的流行方法。如Brandt等[5]利用全卷積網(wǎng)絡(luò)從亞米分辨率多光譜衛(wèi)星影像中繪制了西非地區(qū)的樹冠地圖;Weinstein等[6]研究了不同林地環(huán)境下深度學(xué)習(xí)模型識(shí)別樹冠的泛化性能;Osco等[7]探討了不同波段組合對(duì)于卷積網(wǎng)絡(luò)識(shí)別果樹性能的差異;黃彥曉等[4]采用了集成FPN等骨干子網(wǎng)的Faster R-CNN以提升樹冠識(shí)別性能;Roslan等[8]使用GAN模型從低分辨率影像中生成高分辨率影像以提高樹冠檢測精度;奚祥書等[9]基于無人機(jī)多光譜影像利用YOLOv3等模型比較了不同波段組合及不同降維方法下對(duì)銀杏樹單木的識(shí)別效果;曹明蘭等[10]基于深度學(xué)習(xí)的實(shí)例分割代表性算法Mask R-CNN模型,對(duì)無人機(jī)遙感城市行道樹影像進(jìn)行樹冠分割。然而,這些監(jiān)督深度學(xué)習(xí)方法面臨依賴大量標(biāo)注樣本的局限性,應(yīng)用成本高,通用性仍然不強(qiáng)。最新的研究融合LiDAR與影像數(shù)據(jù)[11]或采用GAN方式[12]開展半監(jiān)督學(xué)習(xí)下的樹冠提取,但依然存在噪聲、多源數(shù)據(jù)融合復(fù)雜、GAN超參數(shù)調(diào)優(yōu)煩瑣和對(duì)大量樣本依賴的問題,難以體現(xiàn)深度學(xué)習(xí)“端到端”的學(xué)習(xí)優(yōu)勢。

        主動(dòng)學(xué)習(xí)能在標(biāo)注資源有限的情況下通過自主挑選高價(jià)值偽樣本以加強(qiáng)學(xué)習(xí)效率[13-14]。對(duì)此,本研究引入主動(dòng)學(xué)習(xí)方法在小樣本量情況下開展無人機(jī)光學(xué)影像上的桉樹樹冠檢測。

        1 材料與方法

        1.1 研究區(qū)數(shù)據(jù)集構(gòu)建

        遙感數(shù)據(jù)集采集于2023年5月南寧市北部的廣西國有高峰林場。該林場擁有3.2萬hm2林地,該林區(qū)呈帶狀環(huán)繞南寧市北部的武鳴、賓陽、上林3縣及興寧、青秀、西鄉(xiāng)塘3城區(qū),主要樹種為桉樹、馬尾松、杉木、濕地松和相思等。采集用的大疆Phantom4 Pro V2.0無人機(jī)配備2 000萬像素影像傳感器,拍攝的飛行速度為72 km/h,拍攝高度為200~300 m,設(shè)置的影像重疊率為90%。拍攝得到的無人機(jī)攝影數(shù)據(jù)(圖1)包含POS數(shù)據(jù)以及GPS坐標(biāo)(WGS84),將這些數(shù)據(jù)導(dǎo)入Agisoft Photo Scan軟件進(jìn)行處理生成分辨率為0.05~0.20 m無人機(jī)光學(xué)影像圖,通過分割形成了8 000張256 pixel×256 pixel的數(shù)據(jù)集。每張影像用LabelImg軟件標(biāo)出了幼齡林和近成過熟林的桉樹冠邊界框。其中,幼齡林和近成過熟林樹冠的標(biāo)注框比例各自為11.8%和88.2%。

        1.2 主動(dòng)學(xué)習(xí)基本流程

        主動(dòng)學(xué)習(xí)分為監(jiān)督學(xué)習(xí)和交互學(xué)習(xí)兩大階段,具體流程如下(圖2)。

        步驟1:借助初始已標(biāo)注影像集利用Teacher網(wǎng)絡(luò)開展監(jiān)督學(xué)習(xí),學(xué)習(xí)完成后將其參數(shù)復(fù)制到Student網(wǎng)絡(luò)中,為后續(xù)的學(xué)習(xí)過程奠定基礎(chǔ)。

        步驟2:在第k(k=1,2,…,K)輪交互學(xué)習(xí)中,抽取bk張未標(biāo)注影像,對(duì)其實(shí)施弱數(shù)據(jù)增強(qiáng)后輸入Teacher網(wǎng)絡(luò),以生成偽樣本,再基于偽樣本篩選策略(詳見1.4)選擇出高價(jià)值偽樣本。

        步驟3:對(duì)樣本集(包括了初始樣本和高價(jià)值偽樣本)進(jìn)行強(qiáng)數(shù)據(jù)增強(qiáng)(詳見1.5),以訓(xùn)練Student網(wǎng)絡(luò),從而完成本輪Student網(wǎng)絡(luò)參數(shù)的更新。

        步驟4:通過指數(shù)移動(dòng)平均方法(exponential moving average,EMA)將Student網(wǎng)絡(luò)的參數(shù)適量遷移到Teacher網(wǎng)絡(luò)。

        步驟2~4為一輪交互學(xué)習(xí),執(zhí)行這樣的交互學(xué)習(xí)直到達(dá)到輪數(shù)閾值K或Teacher模型的性能不再發(fā)生較大變化。最終,得到一個(gè)泛化能力強(qiáng)的Teacher模型作為應(yīng)用模型。

        1.3 模型交互學(xué)習(xí)

        1.6 性能評(píng)價(jià)指標(biāo)

        每次模型性能的檢驗(yàn)包含3次測試,3次測試后的性能均值為該檢驗(yàn)的最終結(jié)果。采用IoU閾值為50%時(shí)的平均精度(mAP)、平均召回率(AR)和F1值(F1)作為性能比較指標(biāo)。

        1.7 試驗(yàn)軟硬件平臺(tái)和各超參數(shù)設(shè)置

        試驗(yàn)服務(wù)器采用Ubuntus 16.0操作系統(tǒng),Intel(R) Xeon(R) Silver 4110 CPU@2.1 GHz(32核)處理器,128 GB內(nèi)存,顯卡為4張兩兩“交火”的NVIDIA GeForce GTX 1080 Ti(11 GB顯存),編程環(huán)境為Python 3.8和Pytorch 2.0,安裝并配置了CUDA 11.1.0和cuDNN 8.1.0。

        每次交互學(xué)習(xí)用于Teacher的輸入影像數(shù)bk= 600;兩個(gè)模型使用隨機(jī)梯度下降優(yōu)化器(SGD),初始學(xué)習(xí)率設(shè)為0.005,動(dòng)量參數(shù)設(shè)為0.9,權(quán)值衰減參數(shù)設(shè)為0.000 5,采用了warm up熱身策略。為了減少內(nèi)存占用并加快運(yùn)算速度,采用混合精度計(jì)算損失值。每輪訓(xùn)練總共進(jìn)行800~2 000個(gè)epochs,batch size設(shè)為16。使用g=2.5作為?sup和?semi之間權(quán)衡的超參數(shù)值,β=0.991作為EMA權(quán)重,置信度閾值ρ=0.65來提前濾除低質(zhì)量偽樣本。

        1.8 用于比較的方法

        在監(jiān)督學(xué)習(xí)方面,使用樹冠檢測普遍采用的FF-RCNN(FPN-Faster-RCNN)[4]、YOLOv3[9]和YOLOX[18]等先進(jìn)模型作為比較方法;在主動(dòng)學(xué)習(xí)方面,本研究所提方法TC-AT(Tree Canopy Active Teacher),將與Active Teacher(AT)[16]和Unbiased Teacher(UT)[13]等方法開展比較。

        2 結(jié)果與分析

        2.1 不同方法性能比較

        2.1.1 不同樣本量下的性能比較

        隨機(jī)選擇樣本總量85%作為數(shù)據(jù)集,15%作為測試集。由于需要觀察大量未標(biāo)注數(shù)據(jù)對(duì)半監(jiān)督學(xué)習(xí)模型的影響,數(shù)據(jù)集被進(jìn)一步分割為標(biāo)記集和未標(biāo)記集,在數(shù)據(jù)集中分別選取其總量的2.5%、5%、10%、20%和30%作為標(biāo)記集訓(xùn)練,其余數(shù)據(jù)視為未標(biāo)記集參與主動(dòng)學(xué)習(xí)。使用測試集評(píng)估后的結(jié)果如表1所示。

        分析可知,在不同標(biāo)記數(shù)據(jù)量條件下,AT和UT與TC-AT這3個(gè)主動(dòng)學(xué)習(xí)方法在準(zhǔn)確率、召回率和F1上的性能都明顯優(yōu)于FF-RCNN、YOLOV3和YOLOX這3個(gè)監(jiān)督學(xué)習(xí)。在樣本量較小的情況下,例如當(dāng)樣本量僅為總量的20%時(shí),主動(dòng)學(xué)習(xí)模型的F1值就已經(jīng)接近0.7,顯示出良好的性能。相比之下,監(jiān)督學(xué)習(xí)方法,如FFRCNN或YOLO系列模型,在相同樣本量下的F1值僅在0.35左右,僅為TC-AT方法性能的一半左右。這充分說明,在樣本量有限的情況下,主動(dòng)學(xué)習(xí)模型具有更好的性能表現(xiàn)。當(dāng)標(biāo)記數(shù)量達(dá)到總量30%時(shí),主動(dòng)學(xué)習(xí)下的模型掌握了更多林區(qū)特征,3個(gè)主動(dòng)學(xué)習(xí)方法的3個(gè)指標(biāo)的性能都超過 0.76,其中,TC-AT方法準(zhǔn)確率和F1值甚至都超過了0.81,已經(jīng)達(dá)到了實(shí)用性能水平;但這時(shí)其他深度監(jiān)督學(xué)習(xí)模型性能仍然非常低,3個(gè)性能指標(biāo)值均在0.45以下,離實(shí)用性差距非常大。

        相對(duì)于AT和UT,TC-AT性能更佳,在標(biāo)記數(shù)據(jù)量超過總量5%的情況下,其準(zhǔn)確率和F1值均優(yōu)于AT和UT。隨著標(biāo)記樣本量的逐步增加,AT和UT與TC-AT之間的性能差距逐漸擴(kuò)大。具體來說,當(dāng)樣本量從總數(shù)的5%增長到30%時(shí),TC-AT的mAP高于AT 1%~3%,高于UT 1%~5%。這表明,TC-AT能隨著標(biāo)記數(shù)據(jù)增加能掌握更多有效信息,證明了新的偽樣本篩選策略等改進(jìn)在桉樹樹冠檢測任務(wù)上的優(yōu)越性。

        以上情況表明,主動(dòng)學(xué)習(xí)適合于小樣本下的林區(qū)桉樹樹冠檢測,同時(shí),TC-AT對(duì)已有主動(dòng)學(xué)習(xí)方法的改進(jìn)是有效的。

        2.1.2 全監(jiān)督性能和實(shí)用性性能下的樣本量比較

        應(yīng)用中非常受關(guān)注的是實(shí)現(xiàn)全監(jiān)督性能和實(shí)用性性能所需的最小標(biāo)記數(shù)據(jù)量。利用100%標(biāo)記數(shù)據(jù)集采用FF-RCNN、YOLOv3、YOLOX監(jiān)督學(xué)習(xí)得到的最高mAP分別為0.94、0.92和0.96,召回率分別為0.88、0.85和0.88,F(xiàn)1值分別為0.91、0.87、0.92。據(jù)此,TC-AT以F1≈0.8和F1≈0.9分別為實(shí)用性性能和全監(jiān)督性能,測試了TC-AT和AT達(dá)到這兩個(gè)性能所需的最少標(biāo)記數(shù)據(jù)量,同時(shí)也測試了這兩個(gè)主動(dòng)學(xué)習(xí)方法的性能極限,結(jié)果如表2所示。

        觀察可知,TC-AT方法達(dá)到全監(jiān)督性能時(shí)使用樣本量最少,僅為用全數(shù)據(jù)的34%,比AT方法要少5%(400張樣本),比UT的少7%(560張樣本),更是要比深度監(jiān)督模型使用的樣本少66%(5 480張樣本)。而達(dá)到實(shí)用性F1值時(shí),TC-AT方法僅需26%的樣本量,比AT方法要少6%(480張樣本),比UT的少8%(640張樣本),比樣本使用量最少的監(jiān)督學(xué)習(xí)模型YOLOv3少52%(4 160張)。需要說明的是,由于主動(dòng)學(xué)習(xí)所生成的偽樣本質(zhì)量總是低于全標(biāo)注數(shù)據(jù)集,因此,主動(dòng)學(xué)習(xí)的全監(jiān)督性能很難達(dá)到監(jiān)督深度學(xué)習(xí)模型的性能。但以上情況仍然凸顯了TC-AT在減少樣本標(biāo)注成本和提升了樹冠的檢測效率方面的巨大潛力。

        2.1.3 對(duì)不同年齡桉樹樹種檢測性能的比較

        前述測試表明在保留有10%~30%左右樣本時(shí),主動(dòng)學(xué)習(xí)會(huì)明顯提升其識(shí)別效果并逐漸達(dá)到其最優(yōu)性能,因此在這之后的試驗(yàn)僅比較使用10%~30%樣本時(shí)各模型的性能情況。影像數(shù)據(jù)中,中齡林以上(含中齡林)樹冠較大且形狀相對(duì)規(guī)則,但容易相互遮擋,樣本量大;而幼齡林樹冠較小且形狀不規(guī)則,具有空間分隔空間較大的種植布局方式,但樣本量少,其總體樣例僅為中齡林以上(含中齡林)的1/8。該測試能反映各模型在數(shù)據(jù)不平衡時(shí)對(duì)桉樹樹冠的辨識(shí)性能。

        由表3可知,TC-AT在幼齡林和中齡林以上(含中齡林)的檢測任務(wù)中均表現(xiàn)出最優(yōu)的性能。例如,當(dāng)樣本量為30%時(shí)候,TC-AT在幼齡林和近成過熟林的檢測上比AT分別高出了6%和2.5%,比UT分別高出了8%和5.5%。

        進(jìn)一步分析樣本量變化對(duì)模型性能的影響后發(fā)現(xiàn),隨著樣本量從總數(shù)據(jù)量的10%增加到30%,TC-AT在幼齡林和近成過熟林檢測上的F1值差異相對(duì)較小,大致在10%~18%之間;相比之下,AT的差異量為13%~23%,UT的差異量為12%~29%。這一對(duì)比結(jié)果驗(yàn)證了TC-AT方法在數(shù)據(jù)不平衡情況下能保持穩(wěn)定且優(yōu)異的性能,而AT和UT方法的性能波動(dòng)則較大。

        隨著樣本量從總數(shù)據(jù)量的10%增加到30%,TC-AT在幼齡林和中齡林以上(含中齡林)檢測上的F1值差異量較少,大致在10%~18%,而AT的差異量為13%~23%,UT的差異量為12%~29%。這驗(yàn)證了對(duì)AT方法的改進(jìn)有效緩解了數(shù)據(jù)不平衡情況,對(duì)于不同形態(tài)樹冠的檢測可行性更強(qiáng)。此外,監(jiān)督方式下的FF-RCNN等模型在各樣本量下的F1性能與主動(dòng)學(xué)習(xí)方法相差明顯,不具備與主動(dòng)學(xué)習(xí)方法相抗衡的能力。

        2.2 消融分析

        2.2.1 不同數(shù)據(jù)增強(qiáng)方法對(duì)主動(dòng)學(xué)習(xí)性能的影響

        鑒于本研究受到Active Teacher的啟發(fā),將在當(dāng)前及后續(xù)小節(jié)中,將Active Teacher(AT)納入考量,一并進(jìn)行消融分析。如表4所示,AT-T代表AT應(yīng)用了本文提出的數(shù)據(jù)增強(qiáng)方法,TCAT-S則表示TC-AT采用了與AT相同的數(shù)據(jù)增強(qiáng)手段,而TC-AT-E則指的是TC-AT結(jié)合了旋轉(zhuǎn)(Rotation)、Cutout、光度增強(qiáng)(Color space)、噪聲注入(Noise injection)、錯(cuò)切(Shearing)、 LocalAugment、Mixup等7種其他數(shù)據(jù)增強(qiáng)方式。表中傾斜字體標(biāo)注的數(shù)字表示該列中排名第二的數(shù)據(jù)。

        分析可知,在3種不同的樣本量情況下,所提出的數(shù)據(jù)增強(qiáng)方法取得了兩次最高F1值和一次次優(yōu)F1值;同時(shí),當(dāng)AT采用本研究提出的數(shù)據(jù)增強(qiáng)方法后(即AT-T),其在各樣本量下的性能均超過了原有的AT方法,F(xiàn)1值大約提升了1%。值得一提的是,當(dāng)TC-AT結(jié)合了其他數(shù)據(jù)增強(qiáng)方法(即TC-AT-E)后,其在樣本量為20%~30%時(shí),性能甚至超越了AT方法。這一系列結(jié)果表明,與應(yīng)用場景及樹冠空間布局相適應(yīng)的數(shù)據(jù)增強(qiáng)方法對(duì)提升主動(dòng)學(xué)習(xí)的性能至關(guān)重要。

        2.2.2 不同損失函數(shù)對(duì)主動(dòng)學(xué)習(xí)性能的影響

        表5中,AT-C表示AT和TC-AT一樣使用GHM Loss,TC-AT-L表示TC-AT使用與AT一樣的Cross Entropy Loss。從表7可清晰看到,當(dāng)AT采用與相同的GHM Loss(即AT-C)時(shí),其在不同樣本量下的性能均有所提升。相比之下,當(dāng)TC-AT使用與AT相同的Cross Entropy Loss(即TC-AT-L)時(shí),F(xiàn)1值普遍下降了約1%。這一對(duì)比結(jié)果充分表明,GHM Loss在降低主動(dòng)學(xué)習(xí)中的數(shù)據(jù)不平衡和異常樣本導(dǎo)致的偏差方面具有較好的效果。

        2.2.3 不同偽樣本篩選指標(biāo)對(duì)主動(dòng)學(xué)習(xí)性能的影響

        表6中,AT-N表示AT方法使用本文提出的偽樣本篩選策略,TC-AT-M表示TC-AT使用與AT一樣的偽樣本篩選指標(biāo);TC-AT-M1表示TC-AT僅使用信息豐度和平均難度兩個(gè)指標(biāo),TCAT-M2表示TC-AT僅使用空間交疊度1個(gè)指標(biāo)。

        根據(jù)表6可知,當(dāng)TC-AT方法僅采用AT的偽樣本篩選策略(即TC-AT-M)時(shí),其F1值在不同樣本量下均有所降低。這表明,直接套用AT的篩選策略并不非常適用于林區(qū)樹冠檢測,其可能導(dǎo)致篩選出的偽樣本質(zhì)量不高,進(jìn)而影響模型的性能。然而,當(dāng)AT方法采用本文提出的偽樣本篩選策略后(即AT-N),其性能在各樣本量下均得到了一定的提升。這一結(jié)果證明了該偽樣本篩選策略在甄別高價(jià)值林區(qū)影像上更有效。進(jìn)一步地,嘗試了僅使用空間交疊度作為偽樣本篩選策略的唯一指標(biāo)(即TC-AT-M2)。在大部分情況下,這種策略的性能要優(yōu)于僅使用信息豐度和平均難度兩個(gè)指標(biāo)的情況(即TC-AT-M1)。這表明,空間交疊度能更好地衡量林區(qū)偽樣本的質(zhì)量。綜上,本研究提出的空間交疊度偽樣本篩選指標(biāo)不僅能夠提升偽樣本的多樣性,還能促使模型針對(duì)樹冠重疊的困難樣本進(jìn)行更多學(xué)習(xí)。這一策略的應(yīng)用增強(qiáng)了主動(dòng)學(xué)習(xí)過程的魯棒性,并最終提高了結(jié)果的準(zhǔn)確率。這些發(fā)現(xiàn)為在主動(dòng)學(xué)習(xí)中優(yōu)化偽樣本篩選策略提供了重要的啟示。

        3 討 論

        本研究首次采用了深度主動(dòng)學(xué)習(xí)方法開展桉樹樹冠的檢測。實(shí)驗(yàn)發(fā)現(xiàn),深度主動(dòng)學(xué)習(xí)方法在多種小樣本量下都取得了顯著的性能提升,在準(zhǔn)確率、召回率和F1分?jǐn)?shù)上超過了深度監(jiān)督學(xué)習(xí)方法100%~300%,能夠在只使用30%左右的樣本量下達(dá)到100%的全監(jiān)督性能。這表明,結(jié)合深度學(xué)習(xí)模型的強(qiáng)大特征提取能力和主動(dòng)學(xué)習(xí)的偽樣本篩查策略,能夠以低成本和高效率的方式識(shí)別林區(qū)單木,驗(yàn)證了深度主動(dòng)學(xué)習(xí)方法在林區(qū)桉樹樹冠識(shí)別應(yīng)用上的可行性和可推廣性。

        目標(biāo)檢測往往存在前景物體與背景物體的類別不平衡(class-imbalance)問題,容易導(dǎo)致主動(dòng)學(xué)習(xí)中大量背景類(即帶有大量噪聲的)偽樣本用于訓(xùn)練,影響了最終模型效果。為此,Unbaised teacher(UT)方法引入了監(jiān)督學(xué)習(xí)環(huán)節(jié)以獲得具有一定學(xué)習(xí)能力的初始模型,并提出了一種交互學(xué)習(xí)方式聯(lián)合訓(xùn)練一個(gè)Student模型和一個(gè)逐漸進(jìn)步的Teacher模型。其中,Teacher模型生成偽標(biāo)簽以訓(xùn)練Student模型,Student模型通過EMA不斷更新Teacher模型,在以上兩個(gè)模型的生成和訓(xùn)練中通過不同的數(shù)據(jù)增強(qiáng)方式以提升輸入數(shù)據(jù)的多樣性。Active teacher(AT)方法是在UT方法之上,創(chuàng)新性地引入了3個(gè)偽樣本價(jià)值量指標(biāo),包括難度、信息和多樣性,并利用AutoNorm的方式自動(dòng)合并這3個(gè)指標(biāo),以最大限度地篩選出具有高質(zhì)量偽樣本。

        TC-AT借鑒了AT中的主動(dòng)學(xué)習(xí)流程,包括引入了相同的監(jiān)督學(xué)習(xí)環(huán)節(jié)和使用了同樣的AutoNorm方式以融合多個(gè)偽樣本價(jià)值量指標(biāo)。但TC-AT針對(duì)UAVs林場影像中的多景觀、多尺度、多光照、多傾角和數(shù)據(jù)不平衡等復(fù)雜情況,在以下3個(gè)方面做出了改進(jìn):

        1)采用了新的偽樣本價(jià)值量指標(biāo)—空間交疊度,以替換其原來的多樣性(Diversity)指標(biāo)??臻g交疊度通過計(jì)算預(yù)測結(jié)果中邊界框的交疊平均數(shù),量化了偽樣本上的樹冠郁閉程度,提高模型對(duì)樹冠遮擋嚴(yán)重和多樹種共存等難樣本的學(xué)習(xí)效率。之后,再通過精心比較,將其與其他兩種偽樣本篩選指標(biāo)融合,增強(qiáng)了模型對(duì)此復(fù)雜林區(qū)場景的識(shí)別能力。

        2)使用了梯度均衡機(jī)制損失(GHM loss),而非AT中的焦點(diǎn)損失(Focal loss)。GHM Loss通過調(diào)整不同樣本的梯度模長頻率,減少了對(duì)易樣本的過度訓(xùn)練,降低了異常(光照和場景畸變)樣本對(duì)模型性能的破壞性。

        3)在數(shù)據(jù)增強(qiáng)方面,本研究測試多種數(shù)據(jù)增強(qiáng)方法,并確定了顏色擾動(dòng)(Color jitter)和核過濾(Kernel filters)方法作為弱數(shù)據(jù)增強(qiáng)方法,使用了多尺寸網(wǎng)格掩碼(Grid-mask)、圖縮略(Cut-thumbnail)和樣本混合(Mixed-example)作為強(qiáng)數(shù)據(jù)增強(qiáng)方法。而AT采用水平翻轉(zhuǎn)(Horizontal flip)作為弱數(shù)據(jù)增強(qiáng)方法,水平翻轉(zhuǎn)(Horizontal flip)、顏色擾動(dòng)(Color jitter)、灰度變化、高斯噪聲(Gaussian blur)和剪裁(Cutout)方法作為強(qiáng)數(shù)據(jù)增強(qiáng)方法。相對(duì)來說,本研究的數(shù)據(jù)增強(qiáng)方法較AT的要更復(fù)雜和多樣,提升模型對(duì)桉樹空間分布模式的適應(yīng)能力,增強(qiáng)模型對(duì)多光照?qǐng)鼍昂彤惓E臄z視角的魯棒性。

        本研究方法能夠依據(jù)林區(qū)特征更智能地選擇最具信息量的樣本進(jìn)行標(biāo)注,從而極大減少對(duì)大量數(shù)據(jù)手工標(biāo)注的依賴,降低樹冠檢測的成本和時(shí)間,最大限度地發(fā)揮了有限標(biāo)簽信息的效果,提高了小樣本量下模型的泛化能力。采用真實(shí)數(shù)據(jù)的實(shí)驗(yàn)表明,與現(xiàn)有最優(yōu)秀的主動(dòng)學(xué)習(xí)方法相比,該方法的準(zhǔn)確率、召回率和F1分?jǐn)?shù)在相同小樣本量條件下提高了5%~10%,在達(dá)到相同性能時(shí),使用的樣本量也降低了10%左右。

        本研究提出的主動(dòng)學(xué)習(xí)方法在減少標(biāo)注成本和提升檢測效率方面顯示出巨大應(yīng)用價(jià)值,為開展高效和自動(dòng)化的無人機(jī)光學(xué)影像樹冠檢測在模型學(xué)習(xí)策略和數(shù)據(jù)處理方法上提供了新思路,對(duì)森林資源的快速監(jiān)測和管理具有重要意義。此外,隨著無人機(jī)技術(shù)的不斷發(fā)展和海量影像的不斷生成,該方法在林業(yè)資源調(diào)查、樹木健康管理、碳儲(chǔ)量估算等領(lǐng)域應(yīng)用潛力巨大。

        盡管本研究取得了優(yōu)秀的實(shí)驗(yàn)結(jié)果,但也存在一些局限性。首先,本研究的方法主要針對(duì)桉樹樹冠的檢測,對(duì)于其他樹種的適用性尚未驗(yàn)證。其次,在實(shí)際應(yīng)用中可能會(huì)遇到更多復(fù)雜的場景和挑戰(zhàn),如更多種類樹冠的識(shí)別,以及病蟲害、不同季節(jié)、或受燃燒影響的樹冠識(shí)別等。此外,數(shù)據(jù)集主要來源于特定地理區(qū)域的無人機(jī)影像,可能存在地域性限制,影響模型在不同地區(qū)的樹種、氣候條件和林地結(jié)構(gòu)區(qū)域的適用性。為了進(jìn)一步提高方法的魯棒性和通用性,未來研究將探索將本方法擴(kuò)展到更多樹種和不同地理環(huán)境的樹冠檢測任務(wù)中,并考慮多光譜影像數(shù)據(jù)引入以提高模型的識(shí)別能力。

        主動(dòng)深度學(xué)習(xí)模型的性能高度依賴于訓(xùn)練數(shù)據(jù)的質(zhì)量和數(shù)量。如果初始已標(biāo)注樣本數(shù)據(jù)有限、場景類型單一或影像質(zhì)量不高,或未標(biāo)注數(shù)據(jù)中的異常數(shù)據(jù)比例較高,主動(dòng)學(xué)習(xí)的效果會(huì)大打折扣。而且,主動(dòng)學(xué)習(xí)策略的選擇也對(duì)結(jié)果產(chǎn)生重要影響,不同的樣本選擇策略可能導(dǎo)致模型性能的顯著差異。未來的工作將比較初始樣本、未標(biāo)注數(shù)據(jù)質(zhì)量及其多樣性對(duì)主動(dòng)學(xué)習(xí)樹冠檢測性能的各方面影響,并進(jìn)一步針對(duì)性地探索和優(yōu)化主動(dòng)學(xué)習(xí)策略,提高所選偽樣本的質(zhì)量和代表性,自動(dòng)優(yōu)化不同質(zhì)量數(shù)據(jù)集下的樹冠檢測要求,在更廣泛的實(shí)際應(yīng)用場景中進(jìn)行測試和驗(yàn)證。

        4 結(jié) 論

        本研究提出了一種面向UAVs光學(xué)影像的桉樹樹冠檢測主動(dòng)學(xué)習(xí)方法。該方法針對(duì)林區(qū)環(huán)境特征和各類場景數(shù)據(jù)不均衡的情況,引入梯度均衡機(jī)制損失,設(shè)計(jì)了新的空間交疊度作為偽樣本篩選指標(biāo),明確了樣本混合等數(shù)據(jù)增強(qiáng)方法,避免了大量數(shù)據(jù)的標(biāo)注和煩瑣的特征工程。實(shí)驗(yàn)結(jié)果表明,本研究提出的主動(dòng)學(xué)習(xí)方法在小樣本量下表現(xiàn)出卓越的性能,超越了其他先進(jìn)的監(jiān)督學(xué)習(xí)和主動(dòng)學(xué)習(xí)方法,為少樣本和低成本約束下快速探測大面積區(qū)域的樹冠分布提供了可借鑒的技術(shù)方案。

        參考文獻(xiàn):

        [1] 戴鵬欽,丁麗霞,劉麗娟,等.基于FCN的無人機(jī)可見光影像樹種分類[J].激光與光電子學(xué)進(jìn)展,2020,57(10):10. DAI P Q, DING L X, LIU L J, et al. Tree species identification based on FCN using the visible images obtained from an unmanned aerial vehicle[J]. Laser Optoelectronics Progress,2020,57(10):10.

        [2] SCHIEFER F, KATTENBORN T, FRICK A, et al. Mapping forest tree species in high resolution UAV-based RGB-imagery by means of convolutional neural networks[J]. ISPRS Journal of Photogrammetry and Remote Sensing,2020,170:205-215.

        [3] MAIMAITIJIANG M, SAGANA V, SIDIKE P, et al. Soybean yield prediction from UAV using multimodal data fusion and deep learning[J]. Remote Sensing of Environment,2020,237:111599.

        [4] 黃彥曉,方陸明,黃思琪,等.基于改進(jìn)的Faster R-CNN模型的樹冠提取研究[J].林業(yè)資源管理,2021(1):173-179. HUANG Y X, FANG L M, HUANG S Q, et al. Research on crown extraction based on improved Faster R-CNN model[J]. Forest Resources Management,2021(1):173-179.

        [5] BRANDT M, TUCKER C J, KARIRYAA A, et al. An unexpectedly large count of trees in the west African Sahara and Sahel[J]. Nature,2020,587:78-82.

        [6] WEINSTEIN B G, MARCONI S, BOHLMAN S A, et al. Crosssite learning in deep learning RGB tree crown detection[J]. Ecological Informatics,2020,56:101061.

        [7] OSCO L P, DOS SANTOS DE ARRUDA M, MARCATO JUNIOR J, et al. A convolutional neural network approach for counting and geolocating citrus-trees in UAV multispectral imagery[J]. ISPRS Journal of Photogrammetry and Remote Sensing,2020,160:97-106.

        [8] ROSLAN Z, LONG Z A, ISMAIL R. Individual tree crown detection using GAN and RetinaNet on tropical forest[C]// 2021 15th International Conference on Ubiquitous Information Management and Communication (IMCOM),2021:1-7.

        [9] 奚祥書,夏凱,楊垠暉,等.結(jié)合多光譜影像降維與深度學(xué)習(xí)的城市單木樹冠檢測[J].遙感學(xué)報(bào),2022,26(4):711-721. XI X S, XIA K, YANG Y H, et al. Urban individual tree crown detection research using multispectral image dimensionality reduction with deep learning[J]. National Remote Sensing Bulletin,2022,26(4):711-721.

        [10] 曹明蘭,李亞昆,張力小,等.深度學(xué)習(xí)在無人機(jī)遙感城市行道樹提取中的應(yīng)用[J].中南林業(yè)科技大學(xué)學(xué)報(bào),2023,43(6):79-84,115. CAO M L, LI Y K, ZHANG L X, et al. Application of deep learning in the information extraction of urban street trees by remote sensing of UAV[J]. Journal of Central South University of Forestry Technology,2023,43(6):79-84,115.

        [11] WEINSTEIN B G, MARCONI S, BOHLMAN S, et al. Individual tree-crown detection in RGB imagery using semi-supervised deep learning neural networks[J]. Remote Sensing,2019,11(11): 1309.

        [12] GUO J H, XU Q S, ZENG Y, et al. Nationwide urban tree canopy mapping and coverage assessment in Brazil from high-resolution remote sensing images using deep learning[J]. ISPRS Journal of Photogrammetry and Remote Sensing,2023,198:1-15.

        [13] LIU Y C, MA C Y, HE Z J, et al. Unbiased teacher for semisupervised object detection[J]. arXiv preprint arXiv:2102.09480, 2021.

        [14] YUAN T N, WAN F, FU M Y, et al. Multiple instance active learning for object detection[C]// Computer Vision and Pattern Recognition,2021.

        [15] LI B Y, LIU Y, WANG X G. Gradient harmonized single-stage detector[C]// Association for the Advancement of Artificial Intelligence,2019:8577-8584.

        [16] MI P, LIN J H, ZHOU Y Y, et al. Active teacher for semisupervised object detection[C]// 2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR),2022:14462-14471.

        [17] CHO J W, KIM D, JUNG Y, et al. Mcdal: maximum classifier discrepancy for active learning[J]. arXiv preprint arXiv: 2107,11049,2021.

        [18] GE Z, LIU S T, WANG F, et al. Yolox: exceeding yolo series in 2021[J]. arXiv preprint arXiv:2107.08430,2021.

        [本文編校:吳 毅]

        猜你喜歡
        主動(dòng)學(xué)習(xí)
        淺談《住宅空間設(shè)計(jì)專題》的教學(xué)改革
        幼兒教育中實(shí)施素質(zhì)教育的研究
        成才之路(2016年36期)2016-12-12 14:17:24
        小組合作學(xué)習(xí)在小學(xué)音樂課堂教學(xué)中的運(yùn)用
        如何在美工活動(dòng)中引導(dǎo)幼兒主動(dòng)學(xué)習(xí)
        促進(jìn)小學(xué)生主動(dòng)學(xué)習(xí)
        打造快樂體育課堂引導(dǎo)主動(dòng)體育學(xué)習(xí)
        淺談音樂課堂中的教與學(xué)做到合一
        東方教育(2016年16期)2016-11-25 03:06:31
        化學(xué)教與學(xué)(2016年10期)2016-11-16 13:29:16
        高中生物教學(xué)中學(xué)生主動(dòng)學(xué)習(xí)策略研究
        人間(2016年28期)2016-11-10 22:12:11
        數(shù)字電路課程的翻轉(zhuǎn)課堂教學(xué)及調(diào)研
        国精无码欧精品亚洲一区| 中文资源在线一区二区三区av| 国产一区二区三区四色av| 极品美女一区二区三区免费| 精品香蕉一区二区三区| 国产乱人伦av在线a麻豆| 国产精品无套内射迪丽热巴| 亚洲国产夜色在线观看| 欧美日韩综合在线视频免费看 | 亚洲国产丝袜美女在线| 一区二区三区四区黄色av网站| 日韩精品视频久久一区二区| 成人免费无码视频在线网站| a级国产乱理论片在线观看| 午夜免费福利在线观看| 爆乳午夜福利视频精品| 人妖系列在线免费观看| 强d乱码中文字幕熟女免费| 日产无人区一线二线三线乱码蘑菇 | 性av一区二区三区免费| 无码av中文一区二区三区| 熟女无套内射线观56| 成人免费网站视频www| 欧美综合区| 日本中文字幕一区二区在线观看| 亚洲av成熟国产一区二区 | 超级碰碰色偷偷免费视频| 国产手机在线αⅴ片无码观看| 小13箩利洗澡无码免费视频| 亚洲成av人片极品少妇| 人人爽人人爽人人片av| 91精品福利观看| 日日碰狠狠躁久久躁9| 中文字幕av免费专区| 久久伊人影院| 亚洲AV日韩AV高潮喷潮无码 | 日韩av午夜在线观看| 天堂…在线最新版资源| 亚洲国产精品线路久久| 大红酸枝极品老料颜色| 国产精品久久久在线看|