摘要:農(nóng)作物容易受到自然災(zāi)害影響,導(dǎo)致減產(chǎn)、絕產(chǎn)等后果,給糧食安全造成一定影響。為了對(duì)災(zāi)后受災(zāi)區(qū)域進(jìn)行快速客觀準(zhǔn)確的識(shí)別,本文基于DeepLab v3+網(wǎng)絡(luò)提出農(nóng)作物受災(zāi)區(qū)域分割方法,采用MobileNet v2作為骨干模型,基于多種數(shù)據(jù)增強(qiáng)技術(shù)擴(kuò)充數(shù)據(jù)集,并通過(guò)MobileNet v2、Xception_65和Xception_71三種特征提取網(wǎng)絡(luò)對(duì)比,發(fā)現(xiàn)MobileNet v2的識(shí)別準(zhǔn)確率最高,識(shí)別速度最快,能實(shí)現(xiàn)實(shí)時(shí)分割效果。
關(guān)鍵詞:農(nóng)作物受災(zāi);深度學(xué)習(xí);DeepLab v3+
引言
近年來(lái),我國(guó)農(nóng)業(yè)快速發(fā)展,成為全球糧食生產(chǎn)的關(guān)鍵力量,然而,隨著全球氣候變化加劇,自然災(zāi)害如洪水、干旱和臺(tái)風(fēng)等對(duì)農(nóng)業(yè)造成的威脅愈發(fā)嚴(yán)重,頻繁發(fā)生的極端天氣事件導(dǎo)致糧食減產(chǎn)絕產(chǎn)等后果[1]。面對(duì)這些挑戰(zhàn),我國(guó)出臺(tái)了許多政策,其中《中央財(cái)政農(nóng)業(yè)保險(xiǎn)保費(fèi)補(bǔ)貼管理辦法》[2]第三十七條提到:“鼓勵(lì)各省和承保機(jī)構(gòu)采取有效措施,加強(qiáng)防災(zāi)減損工作”,可見(jiàn)國(guó)家對(duì)農(nóng)業(yè)保險(xiǎn)領(lǐng)域?qū)嵤┻^(guò)程的重視。
隨著計(jì)算機(jī)技術(shù)發(fā)展,深度學(xué)習(xí)[3]在計(jì)算機(jī)視覺(jué)領(lǐng)域受到了研究人員廣泛關(guān)注,與傳統(tǒng)算法相比,深度學(xué)習(xí)方法的識(shí)別率、可靠性更高,同時(shí)基本解決了傳統(tǒng)方法的邊界問(wèn)題。深度學(xué)習(xí)在圖像領(lǐng)域中的主要應(yīng)用包括圖像識(shí)別和分類(lèi)、目標(biāo)檢測(cè)、圖像分割、圖像生成、圖像增強(qiáng)和恢復(fù)、姿態(tài)估計(jì)、視覺(jué)問(wèn)答系統(tǒng)等。本文采用深度學(xué)習(xí)框架對(duì)農(nóng)作物受災(zāi)區(qū)域進(jìn)行圖像分割[4-5],將深度學(xué)習(xí)技術(shù)應(yīng)用于農(nóng)業(yè)實(shí)際問(wèn)題[6-7],提高對(duì)農(nóng)作物受災(zāi)區(qū)域檢測(cè)的客觀性和可回溯性。
本文以玉米、大豆、水稻三種農(nóng)作物在受到自然災(zāi)害如旱澇災(zāi)、風(fēng)災(zāi)影響后的受災(zāi)區(qū)域圖像作為研究對(duì)象,使用DeepLab v3+框架進(jìn)行圖像分割,框架中分別使用MobileNet v2、Xception_65和Xception_71三種特征提取網(wǎng)絡(luò)進(jìn)行對(duì)比實(shí)驗(yàn),研究DeepLab v3+框架在農(nóng)作物受災(zāi)區(qū)域快速識(shí)別的可行性。
1. 數(shù)據(jù)與方法
1.1 數(shù)據(jù)采集及預(yù)處理
農(nóng)作物受災(zāi)區(qū)域圖像數(shù)據(jù)來(lái)源于無(wú)人機(jī)在不同季節(jié)、不同地點(diǎn)、不同光照角度情況下拍照,共取得原始圖像數(shù)據(jù)642張。圖像數(shù)據(jù)集中包括11種圖像分割標(biāo)簽,包括大豆倒伏、玉米倒伏、水稻倒伏、大豆缺苗、玉米缺苗、水稻缺苗、水溝、樹(shù)林、房屋建筑、道路、其他植物。本文是圖像分割實(shí)驗(yàn),除原數(shù)據(jù)集圖像外,還需要對(duì)原始圖像數(shù)據(jù)進(jìn)行手動(dòng)標(biāo)注、生成標(biāo)簽、合成掩碼圖。使用Labelme軟件標(biāo)注、制作與生成分割標(biāo)簽,通過(guò)Python自動(dòng)化腳本生成7c88ea7e54ed20a3787ad9f314d613b6對(duì)應(yīng)掩碼圖。
為防止網(wǎng)絡(luò)訓(xùn)練出現(xiàn)過(guò)擬合現(xiàn)象,必須提供大量的訓(xùn)練數(shù)據(jù)。但是,由于本實(shí)驗(yàn)圖像數(shù)據(jù)無(wú)法在實(shí)驗(yàn)室環(huán)境中簡(jiǎn)單復(fù)現(xiàn)且收集難度較大,所以本文使用自動(dòng)化隨機(jī)圖像增強(qiáng)技術(shù)對(duì)原始數(shù)據(jù)集和對(duì)應(yīng)掩碼圖進(jìn)行同步擴(kuò)充,使用的數(shù)據(jù)增強(qiáng)技術(shù)主要包括旋轉(zhuǎn)、縮放、裁剪,最終得到3萬(wàn)張圖片及對(duì)應(yīng)掩碼圖。部分圖片及其掩碼圖如圖1所示。
1.2 PyTorch與環(huán)境搭建
PyTorch框架提供了靈活的API和豐富的預(yù)構(gòu)建組件,通過(guò)調(diào)用Python的torch標(biāo)準(zhǔn)庫(kù)中各種函數(shù),實(shí)現(xiàn)不同功能。本實(shí)驗(yàn)使用PyTorch框架實(shí)現(xiàn)了DeepLab v3+圖像分割框架,并通過(guò)封裝的方式將不同骨干網(wǎng)絡(luò)各自封裝成類(lèi)。在train.py中可以指定訓(xùn)練中的所有參數(shù),包括預(yù)訓(xùn)練模型路徑、是否使用Cuda、標(biāo)簽種類(lèi)、骨干模型、下采樣倍數(shù)、圖片輸入大小,指定后直接運(yùn)行即可開(kāi)始訓(xùn)練。
深度學(xué)習(xí)是一種基于人工神經(jīng)網(wǎng)絡(luò)的機(jī)器學(xué)習(xí)技術(shù),通過(guò)模擬人腦處理和分析大量數(shù)據(jù)的能力,來(lái)實(shí)現(xiàn)復(fù)雜任務(wù)的學(xué)習(xí)。這一過(guò)程需要大量計(jì)算資源,特別是在處理大規(guī)模數(shù)據(jù)集和復(fù)雜網(wǎng)絡(luò)結(jié)構(gòu)時(shí),GPU(圖形處理單元)扮演了關(guān)鍵角色。與傳統(tǒng)的CPU相比,GPU具有更多的計(jì)算核心,能夠并行處理大量數(shù)據(jù),特別適合進(jìn)行深度學(xué)習(xí)訓(xùn)練中的矩陣運(yùn)算和大規(guī)模數(shù)據(jù)處理。GPU顯著加速了深度學(xué)習(xí)模型的訓(xùn)練過(guò)程,使研究者和開(kāi)發(fā)者能夠在更短的時(shí)間內(nèi)訓(xùn)練出更復(fù)雜、性能更優(yōu)的模型,加快了深度學(xué)習(xí)技術(shù)的發(fā)展和應(yīng)用。本實(shí)驗(yàn)訓(xùn)練的軟硬件配置如表1所示。
2. 結(jié)果與分析
本文使用的圖像分割框架DeepLab v3+網(wǎng)絡(luò)架構(gòu)如圖2所示,主要分為三個(gè)核心部分:深度卷積神經(jīng)網(wǎng)絡(luò)(骨干網(wǎng)絡(luò))、ASPP(空洞)空間金字塔池化模塊、解碼器模塊。該模型在其編碼器部分繼承了DeepLab v3的設(shè)計(jì),并通過(guò)加入空洞卷積和 ASPP模塊來(lái)增強(qiáng)對(duì)環(huán)境上下文的理解和捕捉能力。解碼器部分則采用了上采樣和特征融合技術(shù),用于恢復(fù)圖像的分辨率和提升細(xì)節(jié)表現(xiàn)。通過(guò)這種編解碼機(jī)制和多尺度處理,DeepLab v3+旨在提升語(yǔ)義分割任務(wù)中的準(zhǔn)確性和處理效率。
基于預(yù)處理和數(shù)據(jù)增強(qiáng)后的3萬(wàn)張圖像數(shù)據(jù)集,使用DeepLab v3+框架,分別使用MobileNet v2、Xception_65和Xception_71三種特征提取網(wǎng)絡(luò)進(jìn)行特征提取,使用預(yù)選函數(shù)的形狀調(diào)整學(xué)習(xí)率,初始學(xué)習(xí)率lr_min和lr_max分別為、0.07×e-3、7×e-3,圖像分割訓(xùn)練過(guò)程中的損失函數(shù)如圖3所示。圖中50輪次出現(xiàn)波動(dòng)是由于訓(xùn)練機(jī)器的性能不足,為了在顯存小的情況下正常使用大的batch_size訓(xùn)練,在訓(xùn)練過(guò)程中的50輪次前凍結(jié)了主干網(wǎng)絡(luò),只對(duì)網(wǎng)絡(luò)參數(shù)進(jìn)行微調(diào),50輪次開(kāi)始恢復(fù)正常的batch_size,網(wǎng)絡(luò)的所有參數(shù)開(kāi)始有比較大的改變。
利用驗(yàn)證集對(duì)各個(gè)標(biāo)簽類(lèi)別對(duì)應(yīng)顏色以及最終mIoU評(píng)估結(jié)果如表2所示,表中MIoU以玉米倒伏、水稻倒伏、大豆倒伏、水稻缺苗、玉米缺苗、大豆缺苗的IoU為依據(jù)計(jì)算得出。
根據(jù)表2中過(guò)濾分類(lèi)極值后的評(píng)估結(jié)果,MobileNet v2作為骨干網(wǎng)絡(luò)的訓(xùn)練評(píng)估結(jié)果MIoU,比Xception_65高3%,比Xception_71高14%,并且對(duì)于大部分分割類(lèi)別同樣都有較明顯提升,說(shuō)明MobileNet v2作為骨干網(wǎng)絡(luò)的泛化能力更強(qiáng),并能夠準(zhǔn)確識(shí)別出小目標(biāo)。
3. 結(jié)論和展望
本文以深度學(xué)習(xí)為基礎(chǔ),通過(guò)采集三種農(nóng)作物的受災(zāi)區(qū)域圖像進(jìn)行研究,采用DeepLab v3+圖像分割框架作為主體框架,分別使用MobileNet v2、Xception_65和Xception_71三種骨干網(wǎng)絡(luò)作為特征提取網(wǎng)絡(luò),并進(jìn)行對(duì)比實(shí)驗(yàn)。通過(guò)訓(xùn)練過(guò)程與評(píng)估結(jié)果的對(duì)比,得到結(jié)論為,基于DeepLab v3+框架的農(nóng)作物受災(zāi)區(qū)域分析中,MobileNet v2作為骨干網(wǎng)絡(luò)時(shí)所有分類(lèi)的MIoU都是最優(yōu),且訓(xùn)練分割速度也最快。由此可見(jiàn),MobileNet v2的識(shí)別準(zhǔn)確率最高,識(shí)別速度最快,能實(shí)現(xiàn)實(shí)時(shí)分割效果。
未來(lái)相關(guān)研究應(yīng)當(dāng)著重考慮以下幾個(gè)方面:
首先,研究更高效、更準(zhǔn)確的算法,提高受災(zāi)區(qū)域分析結(jié)果的準(zhǔn)確性和效率。
其次,研究如何更好整合不同源的數(shù)據(jù),如衛(wèi)星遙感源、地面監(jiān)測(cè)源,以提供更全面、更細(xì)致的災(zāi)害評(píng)估。
最后,加強(qiáng)跨領(lǐng)域合作,如氣候科學(xué)、經(jīng)濟(jì)管理學(xué),特別是農(nóng)學(xué)與信息技術(shù)相融合,以提高受災(zāi)分析的預(yù)測(cè)能力、橫向評(píng)估能力。
參考文獻(xiàn):
[1]曾小艷,郭興旭.氣候變化、農(nóng)業(yè)風(fēng)險(xiǎn)與天氣指數(shù)保險(xiǎn)創(chuàng)新[J].農(nóng)村經(jīng)濟(jì)與科技,2017,28(15):209-212.
[2]財(cái)政部關(guān)于印發(fā)《中央財(cái)政農(nóng)業(yè)保險(xiǎn)保費(fèi)補(bǔ)貼管理辦法》的通知(財(cái)金〔2021〕130號(hào))[A/OL].(2021-12-31)[2024-06-03].https://www.gov.cn/gongbao/content/2022/content_5683856.htm.
[3]周飛燕,金林鵬,董軍.卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J].計(jì)算機(jī)學(xué)報(bào),2017,40(6): 1229-1251.
[4]黃鵬,鄭淇,梁超.圖像分割方法綜述[J].武漢大學(xué)學(xué)報(bào)(理學(xué)版),2020,66(6): 519-531.
[5]王秋萍,張志祥,朱旭芳.圖像分割方法綜述[J].信息記錄材料,2019,20(7):12-14.
[6]湯文靜.遙感技術(shù)在農(nóng)業(yè)領(lǐng)域的應(yīng)用研究[J].中國(guó)農(nóng)業(yè)信息,2016(23):112.
[7]鄭二功,田迎芳,陳濤.基于深度學(xué)習(xí)的無(wú)人機(jī)影像玉米倒伏區(qū)域提取[J].河南農(nóng)業(yè)科學(xué),2018,47(8):155-160.
作者簡(jiǎn)介:曲錦旭,碩士研究生,研究實(shí)習(xí)員,研究方向:圖像處理。