摘要:農(nóng)作物容易受到自然災(zāi)害影響,導(dǎo)致減產(chǎn)、絕產(chǎn)等后果,給糧食安全造成一定影響。為了對災(zāi)后受災(zāi)區(qū)域進(jìn)行快速客觀準(zhǔn)確的識別,本文基于DeepLab v3+網(wǎng)絡(luò)提出農(nóng)作物受災(zāi)區(qū)域分割方法,采用MobileNet v2作為骨干模型,基于多種數(shù)據(jù)增強技術(shù)擴充數(shù)據(jù)集,并通過MobileNet v2、Xception_65和Xception_71三種特征提取網(wǎng)絡(luò)對比,發(fā)現(xiàn)MobileNet v2的識別準(zhǔn)確率最高,識別速度最快,能實現(xiàn)實時分割效果。
關(guān)鍵詞:農(nóng)作物受災(zāi);深度學(xué)習(xí);DeepLab v3+
引言
近年來,我國農(nóng)業(yè)快速發(fā)展,成為全球糧食生產(chǎn)的關(guān)鍵力量,然而,隨著全球氣候變化加劇,自然災(zāi)害如洪水、干旱和臺風(fēng)等對農(nóng)業(yè)造成的威脅愈發(fā)嚴(yán)重,頻繁發(fā)生的極端天氣事件導(dǎo)致糧食減產(chǎn)絕產(chǎn)等后果[1]。面對這些挑戰(zhàn),我國出臺了許多政策,其中《中央財政農(nóng)業(yè)保險保費補貼管理辦法》[2]第三十七條提到:“鼓勵各省和承保機構(gòu)采取有效措施,加強防災(zāi)減損工作”,可見國家對農(nóng)業(yè)保險領(lǐng)域?qū)嵤┻^程的重視。
隨著計算機技術(shù)發(fā)展,深度學(xué)習(xí)[3]在計算機視覺領(lǐng)域受到了研究人員廣泛關(guān)注,與傳統(tǒng)算法相比,深度學(xué)習(xí)方法的識別率、可靠性更高,同時基本解決了傳統(tǒng)方法的邊界問題。深度學(xué)習(xí)在圖像領(lǐng)域中的主要應(yīng)用包括圖像識別和分類、目標(biāo)檢測、圖像分割、圖像生成、圖像增強和恢復(fù)、姿態(tài)估計、視覺問答系統(tǒng)等。本文采用深度學(xué)習(xí)框架對農(nóng)作物受災(zāi)區(qū)域進(jìn)行圖像分割[4-5],將深度學(xué)習(xí)技術(shù)應(yīng)用于農(nóng)業(yè)實際問題[6-7],提高對農(nóng)作物受災(zāi)區(qū)域檢測的客觀性和可回溯性。
本文以玉米、大豆、水稻三種農(nóng)作物在受到自然災(zāi)害如旱澇災(zāi)、風(fēng)災(zāi)影響后的受災(zāi)區(qū)域圖像作為研究對象,使用DeepLab v3+框架進(jìn)行圖像分割,框架中分別使用MobileNet v2、Xception_65和Xception_71三種特征提取網(wǎng)絡(luò)進(jìn)行對比實驗,研究DeepLab v3+框架在農(nóng)作物受災(zāi)區(qū)域快速識別的可行性。
1. 數(shù)據(jù)與方法
1.1 數(shù)據(jù)采集及預(yù)處理
農(nóng)作物受災(zāi)區(qū)域圖像數(shù)據(jù)來源于無人機在不同季節(jié)、不同地點、不同光照角度情況下拍照,共取得原始圖像數(shù)據(jù)642張。圖像數(shù)據(jù)集中包括11種圖像分割標(biāo)簽,包括大豆倒伏、玉米倒伏、水稻倒伏、大豆缺苗、玉米缺苗、水稻缺苗、水溝、樹林、房屋建筑、道路、其他植物。本文是圖像分割實驗,除原數(shù)據(jù)集圖像外,還需要對原始圖像數(shù)據(jù)進(jìn)行手動標(biāo)注、生成標(biāo)簽、合成掩碼圖。使用Labelme軟件標(biāo)注、制作與生成分割標(biāo)簽,通過Python自動化腳本生成7c88ea7e54ed20a3787ad9f314d613b6對應(yīng)掩碼圖。
為防止網(wǎng)絡(luò)訓(xùn)練出現(xiàn)過擬合現(xiàn)象,必須提供大量的訓(xùn)練數(shù)據(jù)。但是,由于本實驗圖像數(shù)據(jù)無法在實驗室環(huán)境中簡單復(fù)現(xiàn)且收集難度較大,所以本文使用自動化隨機圖像增強技術(shù)對原始數(shù)據(jù)集和對應(yīng)掩碼圖進(jìn)行同步擴充,使用的數(shù)據(jù)增強技術(shù)主要包括旋轉(zhuǎn)、縮放、裁剪,最終得到3萬張圖片及對應(yīng)掩碼圖。部分圖片及其掩碼圖如圖1所示。
1.2 PyTorch與環(huán)境搭建
PyTorch框架提供了靈活的API和豐富的預(yù)構(gòu)建組件,通過調(diào)用Python的torch標(biāo)準(zhǔn)庫中各種函數(shù),實現(xiàn)不同功能。本實驗使用PyTorch框架實現(xiàn)了DeepLab v3+圖像分割框架,并通過封裝的方式將不同骨干網(wǎng)絡(luò)各自封裝成類。在train.py中可以指定訓(xùn)練中的所有參數(shù),包括預(yù)訓(xùn)練模型路徑、是否使用Cuda、標(biāo)簽種類、骨干模型、下采樣倍數(shù)、圖片輸入大小,指定后直接運行即可開始訓(xùn)練。
深度學(xué)習(xí)是一種基于人工神經(jīng)網(wǎng)絡(luò)的機器學(xué)習(xí)技術(shù),通過模擬人腦處理和分析大量數(shù)據(jù)的能力,來實現(xiàn)復(fù)雜任務(wù)的學(xué)習(xí)。這一過程需要大量計算資源,特別是在處理大規(guī)模數(shù)據(jù)集和復(fù)雜網(wǎng)絡(luò)結(jié)構(gòu)時,GPU(圖形處理單元)扮演了關(guān)鍵角色。與傳統(tǒng)的CPU相比,GPU具有更多的計算核心,能夠并行處理大量數(shù)據(jù),特別適合進(jìn)行深度學(xué)習(xí)訓(xùn)練中的矩陣運算和大規(guī)模數(shù)據(jù)處理。GPU顯著加速了深度學(xué)習(xí)模型的訓(xùn)練過程,使研究者和開發(fā)者能夠在更短的時間內(nèi)訓(xùn)練出更復(fù)雜、性能更優(yōu)的模型,加快了深度學(xué)習(xí)技術(shù)的發(fā)展和應(yīng)用。本實驗訓(xùn)練的軟硬件配置如表1所示。
2. 結(jié)果與分析
本文使用的圖像分割框架DeepLab v3+網(wǎng)絡(luò)架構(gòu)如圖2所示,主要分為三個核心部分:深度卷積神經(jīng)網(wǎng)絡(luò)(骨干網(wǎng)絡(luò))、ASPP(空洞)空間金字塔池化模塊、解碼器模塊。該模型在其編碼器部分繼承了DeepLab v3的設(shè)計,并通過加入空洞卷積和 ASPP模塊來增強對環(huán)境上下文的理解和捕捉能力。解碼器部分則采用了上采樣和特征融合技術(shù),用于恢復(fù)圖像的分辨率和提升細(xì)節(jié)表現(xiàn)。通過這種編解碼機制和多尺度處理,DeepLab v3+旨在提升語義分割任務(wù)中的準(zhǔn)確性和處理效率。
基于預(yù)處理和數(shù)據(jù)增強后的3萬張圖像數(shù)據(jù)集,使用DeepLab v3+框架,分別使用MobileNet v2、Xception_65和Xception_71三種特征提取網(wǎng)絡(luò)進(jìn)行特征提取,使用預(yù)選函數(shù)的形狀調(diào)整學(xué)習(xí)率,初始學(xué)習(xí)率lr_min和lr_max分別為、0.07×e-3、7×e-3,圖像分割訓(xùn)練過程中的損失函數(shù)如圖3所示。圖中50輪次出現(xiàn)波動是由于訓(xùn)練機器的性能不足,為了在顯存小的情況下正常使用大的batch_size訓(xùn)練,在訓(xùn)練過程中的50輪次前凍結(jié)了主干網(wǎng)絡(luò),只對網(wǎng)絡(luò)參數(shù)進(jìn)行微調(diào),50輪次開始恢復(fù)正常的batch_size,網(wǎng)絡(luò)的所有參數(shù)開始有比較大的改變。
利用驗證集對各個標(biāo)簽類別對應(yīng)顏色以及最終mIoU評估結(jié)果如表2所示,表中MIoU以玉米倒伏、水稻倒伏、大豆倒伏、水稻缺苗、玉米缺苗、大豆缺苗的IoU為依據(jù)計算得出。
根據(jù)表2中過濾分類極值后的評估結(jié)果,MobileNet v2作為骨干網(wǎng)絡(luò)的訓(xùn)練評估結(jié)果MIoU,比Xception_65高3%,比Xception_71高14%,并且對于大部分分割類別同樣都有較明顯提升,說明MobileNet v2作為骨干網(wǎng)絡(luò)的泛化能力更強,并能夠準(zhǔn)確識別出小目標(biāo)。
3. 結(jié)論和展望
本文以深度學(xué)習(xí)為基礎(chǔ),通過采集三種農(nóng)作物的受災(zāi)區(qū)域圖像進(jìn)行研究,采用DeepLab v3+圖像分割框架作為主體框架,分別使用MobileNet v2、Xception_65和Xception_71三種骨干網(wǎng)絡(luò)作為特征提取網(wǎng)絡(luò),并進(jìn)行對比實驗。通過訓(xùn)練過程與評估結(jié)果的對比,得到結(jié)論為,基于DeepLab v3+框架的農(nóng)作物受災(zāi)區(qū)域分析中,MobileNet v2作為骨干網(wǎng)絡(luò)時所有分類的MIoU都是最優(yōu),且訓(xùn)練分割速度也最快。由此可見,MobileNet v2的識別準(zhǔn)確率最高,識別速度最快,能實現(xiàn)實時分割效果。
未來相關(guān)研究應(yīng)當(dāng)著重考慮以下幾個方面:
首先,研究更高效、更準(zhǔn)確的算法,提高受災(zāi)區(qū)域分析結(jié)果的準(zhǔn)確性和效率。
其次,研究如何更好整合不同源的數(shù)據(jù),如衛(wèi)星遙感源、地面監(jiān)測源,以提供更全面、更細(xì)致的災(zāi)害評估。
最后,加強跨領(lǐng)域合作,如氣候科學(xué)、經(jīng)濟管理學(xué),特別是農(nóng)學(xué)與信息技術(shù)相融合,以提高受災(zāi)分析的預(yù)測能力、橫向評估能力。
參考文獻(xiàn):
[1]曾小艷,郭興旭.氣候變化、農(nóng)業(yè)風(fēng)險與天氣指數(shù)保險創(chuàng)新[J].農(nóng)村經(jīng)濟與科技,2017,28(15):209-212.
[2]財政部關(guān)于印發(fā)《中央財政農(nóng)業(yè)保險保費補貼管理辦法》的通知(財金〔2021〕130號)[A/OL].(2021-12-31)[2024-06-03].https://www.gov.cn/gongbao/content/2022/content_5683856.htm.
[3]周飛燕,金林鵬,董軍.卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J].計算機學(xué)報,2017,40(6): 1229-1251.
[4]黃鵬,鄭淇,梁超.圖像分割方法綜述[J].武漢大學(xué)學(xué)報(理學(xué)版),2020,66(6): 519-531.
[5]王秋萍,張志祥,朱旭芳.圖像分割方法綜述[J].信息記錄材料,2019,20(7):12-14.
[6]湯文靜.遙感技術(shù)在農(nóng)業(yè)領(lǐng)域的應(yīng)用研究[J].中國農(nóng)業(yè)信息,2016(23):112.
[7]鄭二功,田迎芳,陳濤.基于深度學(xué)習(xí)的無人機影像玉米倒伏區(qū)域提取[J].河南農(nóng)業(yè)科學(xué),2018,47(8):155-160.
作者簡介:曲錦旭,碩士研究生,研究實習(xí)員,研究方向:圖像處理。