黃武彪,欒海軍,李大成
(1.廈門理工學院計算機與信息工程學院,福建廈門 361024;2.長安大學地質工程與測繪學院,陜西西安 710064;3.廈門理工學院數字福建自然災害監(jiān)測大數據研究所,福建廈門 361024;4.太原理工大學礦業(yè)工程學院,山西太原 030024)
森林火災是一種突發(fā)性強、破壞性大、救援困難的自然災害,全球每年平均發(fā)生森林火災數十萬次,森林受災面積達數百公頃[1],對生態(tài)環(huán)境和經濟發(fā)展造成了極大威脅。截止2019年,全國有記錄森林火災2 345次,其中重大火災為8次,特別重大火災為1次,火場總面積為39 705 hm2,受害森林面積為13 505 hm2,傷亡人數為76人,其它損失折款16 219.9萬元[2]。森林火災監(jiān)測,要求及時發(fā)現(xiàn)著火點的位置及其變化、過火面積,并準確評估出火災損失及影響,因此需要具有高時間分辨率和高空間分辨率的遙感影像來進行分析判讀。但在現(xiàn)有傳感器硬件條件限制下,衛(wèi)星遙感數據無法同時滿足高空間分辨率和高時間分辨率的要求[3-4]。因此,很多學者提出時空融合的技術方法來解決遙感傳感器時間分辨率和空間分辨率的矛盾[5-8],將該方法應用于森林火災場景中,便于更加準確、快速得獲得受災區(qū)域高空間和高時間分辨率的遙感影像,為森林火災演化的監(jiān)測和災損評估提供有力支撐。Gao等[9]提出的時空自適應反射率融合模型(Spatial and Temporal Adaptive Reflectance Fusion Model,STARFM),用于融合Landsat影像和MODIS影像得到高時空分辨率的數據,取得了較好的效果,該模型適用于同質地表季節(jié)變化情形。Hilker等[10]在提出了一種針對反射率變化的時空自適應融合模型算法(Spatial TemporalAdaptive Algorithm for mapping Reflectance Change,STA?ARCH),從低分辨率影像的密集時間序列中檢測出變化點,以提高土地覆蓋類型變化時的STARFM性能,適用于地表反射率突發(fā)擾動事件情形。鄔明權等[11]提出基于混合像元分解的方法(Spatial and Temporal Data Fusion Model,STDFM)來融合MODIS和Landsat影像數據,進一步,Zhang等[12]對STDFM方法進行了改進,提出增強型基于混合像元分解的方法(Enhanced spatial and temporal data fusion model,ESTDFM),該模型適用于異質地表季節(jié)變化情形。Zhu等[13]基于STARFM提出了一種增強型時空自適應反射率融合模型(En?hanced Spatial and Temporal Adaptive Reflectance Fusion Model,ESTARFM),引入了一個轉換系數,可以更好地預測異質性地表的反射率的變化。Huang等[14]提出的基于稀疏表示的時空反射率融合模型(SParse?repre?sentation?based SpatioTem?poral reflectance FusionModel,SPSTFM),將稀疏表達理論引入時空融合算法,該模型適用于地表季節(jié)和類別變化情形。除地表反射率參數外,學者們[15-17]對地表溫度參數也進行了時空融合研究。學者們致力于研發(fā)出通用性與魯棒性更優(yōu)的時空融合算法。如,Cheng等[18]提出了一種時空非局部濾波融合模型(Spatial and Temporal Nonlocal Filter?Based Data FusionMethod,STNLFFM),對于異質性地表區(qū)域具有更高的預測精度。Zhao等[19]提出了一種針對復雜地表變化的魯棒性自適應時空數據融合模型(Ro?bust Adaptive Spatial and Temporal Fusion Model,RASTFM),在捕捉地表變化現(xiàn)象時具有更高的準確度和魯棒性。黃波和姜曉璐[20]提出一種增強型空間像元分解時空遙感影像融合算法(Unmixing Enhanced model for Spatial and temporal image fusion,EUSTFM),能夠實現(xiàn)對季節(jié)性變化及復雜的地物類型變化的穩(wěn)定預測,生成具有更高精度的融合影像。
鑒于森林屬于地表相對均質的場景,故本次研究將選用經典的STARFM算法與具有組合優(yōu)勢的基于地物內組分時相變化模型的地表反射率時空融合算法,并綜合使用多種空間分辨率更優(yōu)(≤30m)的國內外傳感器影像,對兩種算法所得時空融合結果優(yōu)化組合,進而應用于2019年3月30日四川涼山州木里縣森林火災遙感動態(tài)監(jiān)測中。
本次研究區(qū)域(如圖1所示)為四川涼山木里縣雅礱江鎮(zhèn)立爾村附近的雅礱江邊海拔約3 800 m的一處森林中,區(qū)域經緯度介于28°32′10″N~28°33′27″N,101°15′02″E~101°16′49″E之間。該區(qū)域位于典型的高山峽谷區(qū),氣候特點為冷熱兩季交替、干濕分明,天氣干燥,日照強,大面積被植被覆蓋,有少部分水及巖石。地形復雜、坡陡谷深,交通、通訊不便?;馂陌l(fā)生時間為2019年3月30日-4月4日。此次火災造成30名消防員犧牲,據中國新聞網2019年4月5日報道,本次火災起火點為一顆位于山脊上的樹齡約80年的云南松,起火原因為雷擊火[21-22]。
圖1 研究區(qū)位置Fig.1 Location of the study area
本次研究所用實驗數據源為MOD09GA、Landsat8 OLI、Sentinel-2及GF-1 WFV影像,具體實驗影像說明見表1,表中所列影像均為本次實驗中所用到的數據。各遙感數據的特征與使用波段如表2所示。
表1 實驗數據說明Table 1 Experimental data
表2 各遙感數據的特征及使用波段Table 2 The characteristics and use bands of various types of remote sensing data
Landsat8 OLI數據和Sentinel-2數據可從USGS(https://earthexplorer.usgs.gov/)免費獲取,MOD09GA數據可從NASA(https://ladsweb.modaps.eosdis.nasa.gov/search/)免費獲取,GF-1 WFV數據可從中國資源衛(wèi)星應用中心陸地觀測衛(wèi)星數據服務平臺(http://218.247.138.119:7777/DSSPlatform/productSearch.html)免費獲取。
在進行時空融合之前,需要對獲取的影像數據使用遙感圖像處理軟件進行預處理。使用ENVI對Land?sat8 OLI影像進行輻射定標和大氣校正,生成反射率數值影像。Sentinel-2影像使用Sen2Cor和SNAP軟件進行大氣校正并轉換成ENVI所能打開的img格式。GF-1WFV影像除進行與Landsat8 OLI相同的預處理外,還需先使用ENVI遙感圖像處理軟件進行幾何糾正,其輻射定標時絕對輻射定標系數在中國資源衛(wèi)星應用中心網站上下載。對于MOD09GA影像需先使用MODIS Reprojection Tool(MRT)重投影至UTM/WGS84坐標系、GeoTIFF格式,并重采樣為10 m、16 m和30 m分辨率。除上述預處理外,還應使用ENVI遙感圖像處理軟件進行各傳感器影像裁剪,確保其研究區(qū)域范圍相同。在本次研究中,均針對各影像的單波段進行研究。
具體研究技術路線圖如圖2所示。主要技術流程闡述如下:
圖2 本研究的技術路線圖Fig.2 Flowchart of the research
(1)對獲取到的MOD09GA、Landsat8 OLI、Sentinel-2、GF-1WFV影像數據進行預處理;
(2)使用STARFM算法與基于地物內組分時相變化模型的地表反射率時空融合算法分別對MOD09GA與Landsat8 OLI、Sentinel-2、GF-1 WFV影像進行融合,以達到結合多源影像的目的,從而生成待預測時刻的中等空間分辨率影像;
(3)基于預測影像計算火災指標因子,進行火災演化趨勢分析。
時空自適應反射率融合模型(STARFM)在使用前需要對來自不同平臺的觀測數據進行幾何配準,并進行大氣校正轉化至地表反射率。STARFM算法的總體流程描述如下[9]。STARFM算法的基本原理是:假定在tk日低分辨率影像數據地表反射率值M(xi,yj,t k)與中高分辨率影像數據地表反射率值L(xi,yj,tk)之間的關系可以表示為
則在t0日的低分辨率影像數據地表反射率值M(xi,yj,t0)與在t0日的中高分辨率影像數據地表反射率預測值L(xi,yj,t0)的關系可以表示為
εk與ε0分別表示觀測到的低分辨率影像數據和中高分辨率影像數據地表反射率之間由于不同的波段寬度和太陽幾何造成的差異。假設在預測日期t0和日期tk時像素(xi,y j)的地面覆蓋類型和系統(tǒng)誤差不變,則ε0=εk,因此
但這僅僅是一種理想情況,它們之間的關系受到以下3方面的影響:1)觀測的低分辨率影像數據在用與高分辨率影像數據相同的空間分辨率考慮時可能包括混合的土地覆蓋類型;2)在預測期間,土地覆蓋可能從一種類型變?yōu)榱硪环N類型;3)土地覆蓋狀態(tài)和太陽幾何雙向反射率分布函數的變化將改變從預測日期t0到日期tk的反射率。
因此,通過引入鄰近像素的附加信息,使用加權函數來計算日期t0時中心像素的地表反射率:
其中ω是搜索窗口的大小是該移動窗口的中心像素。為確保使用來自鄰近像素的正確信息,僅使用來自同一光譜類別的和來自移動窗口內中高分辨率影像數據地表反射率的無云像素來計算反射率。權重Wijk代表每個鄰近像素對中心像素的預測反射率的貢獻程度,從光譜、時間、距離3個方面來確定每個光譜相似像素的最終權重。
本次研究所做改進:上述內容通常針對單一類型中等空間分辨率傳感器,當面向多源數據時,需要對STARFM時空融合模型進行優(yōu)化組合應用。具體優(yōu)化組合策略設計如下:在經典的STARFM算法基礎上,在30 m Landsat衛(wèi)星16天或更長的預測周期內利用多種國內外傳感器影像(空間分辨率≤30 m)進行分段,分段原則為:時間最鄰近及空間分辨率優(yōu)先。上述原則以案例描述為:(1)若引入10 m Sentinel-2可見光影像,該影像在Landsat基期與末期時間段之間(如第5天),則將預測區(qū)間分為兩段(Landsat基期-第5天)、(第6天-第16天);(2)對于每一時間段(包含新的基期和末期兩天),若天數為偶數,對其均分,前半段影像預測由本時間段基期影像完成,后半段影像預測由本時間段末期影像完成,若天數為奇數,前半段(如Landsat基期-第2天)的影像預測由“最鄰近”的Landsat基期影像完成,后半段(如第4天-第5天)的影像預測由“最鄰近”的Sentinel-2影像完成,中間一天(如Landsat基期-第5天時間段,中間一天為第3天)的影像預測依照空間分辨率優(yōu)先原則,由空間分辨率高的傳感器影像(也就是Sentinel-2影像)完成;(3)當引入的傳感器影像更多時,參照上述案例進行擴展即可。各時間分段內,當新的基期或末期影像中高空間分辨率優(yōu)于30 m,需要通過現(xiàn)有商業(yè)遙感軟件進行空間重采樣至30 m,然后進行預測影像生成。
對于相同的土地覆蓋類型的均質像素都具有相同的反射率,并且這些像素的季節(jié)性和雙向反射率變化對于不同的像元大小也應該相同[23]。對于不同分辨率的影像,每種土地覆蓋類型在獲取日期和預測日期之間的變化關系大致相同,即在不同組分之間具有空間尺度不變性。因此,可以將基于獲取日期的低分辨率影像數據和中高分辨率影像數據建立的變化關系映射到中高分辨率遙感影像中,從而預測出待預測時刻的中高分辨率影像。
基于上述前提,提出了基于地物內組分時相變化模型的地表反射率時空融合算法,具體流程如圖3所示。先對中高空間分辨率遙感影像采用迭代自組織數據分析算法(ISODATA)進行非監(jiān)督分類,將其分為多個地物類別,得到不同的地物組分。然后分別對各個地物組分的變化,建立相應時相變化模型進行預測。
圖3 基于地物內組分時相變化模型的地表反射率時空融合算法流程圖Fig.3 Flow chart of Spatiotemporal fusion algorithm of land surface reflectance basedon temporal phase change model of components in surface features
尋找“純像元”的基礎為將非監(jiān)督分類得到的結果聚合到低分辨率影像像元大小,其聚合過程可理解為通過計算聚合前后的分辨率像元的比例n,將非監(jiān)督分類影像自左上開始,組成若干n*n大小的矩陣,并記錄聚合后的行列號。分別計算在每一個n*n矩陣中各組分所占比例,取比例最大的組分作為該像元的類別,并判斷比例值是否大于20%(20%為經驗值,針對不同的分辨率設置不同的閾值),若大于該值,則將該聚合后的像元稱為該地類的一個“純像元”。依次得到各類地物的“純像元”,并找出兩個時間的低分辨率影像中對應組分內部的無云像元是如何變化的,使用差值、比值或變化率建立不同地物組分的時相變化模型。整個過程基于MATLAB軟件實現(xiàn)。
基于地物內組分時相變化模型的地表反射率時空融合算法三類模型依次描述如下。
差值模型:
比值模型:
變化率模型:
式中,M OD09G A_T0表示在T0時刻低分辨率遙感影像的地表反射率值,M O D09 G A_T1表示在T1時刻低分辨率遙感影像的地表反射率值,S entinel_T0表示在T0時刻的中高分辨率遙感影像地表反射率值,pre_Sen?tinel_T1表示預測得到的T1時刻的中高分辨率遙感影像地表反射率值,mean表示對所有的值取平均。
本次研究所做改進:上文所述算法通常針對單一類型中等空間分辨率傳感器,對于多源數據的實施原則可參照2.1節(jié)“優(yōu)化組合策略”,其實施過程相似,但無需“重采樣至30 m”步驟。
在森林火災監(jiān)測中應用遙感影像,需要對使用兩種時空融合算法得到的影像數據計算燃燒面積指數和歸一化燃燒指數。
2.3.1 燃燒面積指數
燃燒面積指數(Burn Area Index(BAI))是采用影像的紅色波段(Red)和近紅外波段(N I R)來增強火燒以后的地表信息,也就是增強火災過火以后圖像上的木炭信號,燃燒區(qū)域的BAI值比較大。計算公式[24]如下:
在ENVI5.3中利用光譜指數計算工具選擇“Burn Area Index”即可計算研究區(qū)燃燒面積指數。
2.3.2 歸一化燃燒指數
歸一化燃燒指數(Normalized Burn Ratio(N B R))是基于近紅外波段(N IR)和短波紅外波段2(SWI R2)來增強較大范圍的火災區(qū)域,燃燒區(qū)域的NB R值比較小,計算公式[25-26]如下:
在ENVI5.3中利用光譜指數計算工具選擇“Normalized Burn Ratio”即可計算研究區(qū)歸一化燃燒指數。
利用STARFM算法和基于地物內組分時相變化模型的地表反射率時空融合算法分別對MOD09GA與Landsat8 OLI、Sentinel-2及GF-1 WFV進行時空融合。根據融合結果(見表3),將預測后的影像與可從其他類型傳感器獲得的同時刻的影像進行目視對比,分析本次實驗所采用的時空融合算法的精度,并對火災發(fā)生前后的火災指標因子進行提取分析。如圖4是3月22日GF-1影像與MOD09GA影像預測3月21日GF-1影像,并與Sentinel-2影像對比,圖5是3月18日Landsat8 OLI影像與MOD09GA影像預測3月26日Landsat8 OLI影像,并與Sentinel-2影像對比,圖6是3月26日Sentinel-2影像與MOD09GA影像預測3月30日Senti?nel-2影像,并與GF-1影像對比。
圖4 使用3月22日GF-1與MODIS影像預測3月21日GF-1影像,并與Sentinel-2影像對比Fig.4 Use GF-1 and MODIS images on March 22 to predict GF-1 image on March 21 and compare with Sentinel-2 images
圖5 3月18日Landsat與MODIS影像預測3月26日Landsat影像,并與Sentinel-2影像對比Fig.5 Use Landsat and MODIS images on March 18 to predict Landsat image on March 26 and compare with Sentinel-2 images
圖6 3月26日Sentinel-2與MODIS影像預測3月30日Sentinel-2影像,并與GF-1影像對比Fig.6 Use Sentinel-2 and MODIS images on March 26 to predict Sentinel-2 image on March 30 and compare with GF-1 images
表3 使用兩種算法的融合結果Table 3 Fusion results based on the two algorithms
兩種算法在不同類型遙感數據融合應用中各有其局限性。將時空融合后的單波段影像進行疊加,得到RGB彩色圖像,如圖4~6所示。基于圖4~6分析:使用STARFM算法對地表變化明顯區(qū)域預測精度差,從圖4(e)可發(fā)現(xiàn)影像左側存在黑色區(qū)域,與實際地表存在明顯差距,說明STARFM算法對GF-1 WFV的預測周邊裸露巖石的效果不是很好;從圖5(e)、圖6(e)與圖5(d)、圖6(d)的山脈、植被、巖石等地區(qū)進行對比可以發(fā)現(xiàn)STARFM對于Landsat8 OLI和Sentinel-2的預測效果較好,但Landsat8 OLI的結果更優(yōu)。基于地物內組分時相變化模型的地表反射率時空融合算法包括3種變化模型,將圖4(f)、圖5(f)和圖6(f)與對應的(d)影像選取山脈、植被、巖石等地區(qū)對比,發(fā)現(xiàn)使用地物組分時相變化差值模型來進行預測時,對Landsat8 OLI、Sentinel-2和GF-1預測效果都比較好;將圖4(g)、圖5(g)和圖6(g)與對應的(d)影像對比,發(fā)現(xiàn)使用地物組分時相變化比值模型進行預測時,圖4(g)、圖5(g)影像圖左側巖石地區(qū)呈現(xiàn)黃色,與真實地表存在明顯差異,因此地物組分時相變化比值模型對GF-1和Landsat8 OLI的周邊預測效果較差,對Sentinel-2的預測效果較好;將圖4(h)、圖5(h)和圖6(h)與對應的(d)影像對比,發(fā)現(xiàn)使用地物組分時相變化的變化率模型進行預測時,圖4(h)影像圖左側裸露巖石呈現(xiàn)明顯差異,因此地物組分時相變化的變化率模型對GF-1預測效果較差,Sentinel-2和Landsat8 OLI預測效果較好。綜合分析,對于Landsat8 OLI的預測可以選用STARFM和地物組分時相變化差值模型,對于Sentinel-2的預測,地物組分時相變化差值模型和變化率模型要好于STARFM和比值模型,對于GF-1的預測,盡量選擇地物組分時相變化差值模型。因此,通過影像對比與分析,基于地物內組分時相變化的差值模型對于上述3種影像均適用,而使用比值模型進行預測的效果都不是很好。
對不同傳感器中等空間分辨率影像與相同時間不同算法預測所得結果進行比對分析,計算相同波段上的影像相關系數,結果如表4所示。表4中,相關系數越大表明算法在該類型傳感器該波段上的預測效果越好。可以看出,對于GF-1 WFV和Sentinel-2,在預測的每個波段,基于地物組分時相變化的差值模型的相關系數最高;對于Landsat8 OLI,在近紅外和短波紅外1兩個波段上,基于地物組分時相變化的變化率模型更優(yōu)。同時,不同的算法在不同傳感器影像的同一波段上的預測效果也不同,具體為:1)對于藍光波段,STARFM、基于地物組分時相變化的比值模型和變化率模型對Sentinel-2的預測效果最好,差值模型對GF-1 WFV的預測效果最優(yōu);2)對于綠光波段,STARFM和基于地物組分時相變化的比值模型對Sentinel-2的預測效果最好,差值模型對GF-1 WFV的預測效果最優(yōu),變化率模型對Landsat8 OLI的預測效果更好;3)對于紅光波段,STARFM、基于地物組分時相變化的差值模型、比值模型和變化率模型分別對Landsat8 OLI、GF-1 WFV、Sentinel-2和Landsat8 OLI的預測效果最好;4)對于近紅外波段,四種算法的預測效果最好的傳感器影像分別為Landsat8 OLI、GF-1 WFV、Landsat8 OLI、Landsat8 OLI;5)對于短波紅外1和2,4種算法在Landsat OLI上的預測效果均最好。對于提取2種火災指標因子所用波段,可選用差值模型進行預測,其對幾個波段均適用,其次是變化率模型,最后是比值模型和STARFM模型。
表4 各波段不同時空融合方法的相關系數Table 4 Correlation coefficients of different fusion methods in each band
對2種時空融合算法所得結果進行優(yōu)化組合,獲取質量更優(yōu)的逐日中等空間分辨率預測影像,進而對預測影像計算火災指標因子,由于GF-1 WFV影像無短波紅外波段,故無法計算歸一化燃燒指數,以“時間最鄰近及空間分辨率優(yōu)先”為原則選取符合條件的Landsat8 OLI/Sentinel-2預測影像作為替代計算該指數。經過計算,如圖7所示是火災發(fā)生前期、中期、后期3個時間的燃燒面積指數變化,圖8所示是火災發(fā)生前期、中期、后期3個時間的歸一化燃燒指數對比。
圖7 火災發(fā)生前期、中期、后期的燃燒面積指數Fig.7 Burn Area Index before,during and after the fire
圖8 火災發(fā)生前期、中期、后期的歸一化燃燒指數Fig.8 Normalized Burn Ratio before,during and after the fire
圖7(a)中植被覆蓋區(qū)域呈現(xiàn)黑色或暗灰色,圖7(c)中植被覆蓋區(qū)域(未發(fā)生火災區(qū)域)呈現(xiàn)黑色,而火災發(fā)生區(qū)域呈現(xiàn)白色,顯著的對比度差異利于確定火災發(fā)生以后的位置和面積;但圖7(b)研究區(qū)呈現(xiàn)黑色,無法看到燃燒區(qū)域,這是由于在火災發(fā)生時有植被燃燒產生的濃煙,而燃燒面積指數計算所使用的紅波段(Red)和近紅外波段(NIR)均無法穿透煙霧,所以對于燃燒面積指數會產生一定的影響。圖8(a)中植被覆蓋區(qū)域呈現(xiàn)白色或淺灰色,圖8(c)中植被覆蓋區(qū)域(未發(fā)生火災區(qū)域)呈現(xiàn)白色或淺灰色,而火災發(fā)生區(qū)域呈現(xiàn)黑色,明顯的黑白對比可確定火災發(fā)生以后的位置和面積;圖8(b)中可以看到火災發(fā)生時零星的燃燒區(qū)域,這是由于歸一化燃燒指數計算所使用的短波紅外波段(SWIR)可以穿透煙霧,GF-1 WFV影像沒有短波紅外波段,這也造成了GF-1在火災指標因子分析中的局限性。從圖7整體來看,未發(fā)生火災區(qū)域仍然保持黑色或暗灰色,而發(fā)生火災區(qū)域變?yōu)榘咨粓D8則與圖7相反,從整體來看未發(fā)生火災區(qū)域仍然保持白色或淺灰色,而發(fā)生火災區(qū)域變?yōu)楹谏?。且總體而言,火災演化進程中NBR的變化更加顯著,BAI效果略差。通過兩種火災指標因子的對比研究,結果表明:基于時空融合影像分析火災演化態(tài)勢時,歸一化燃燒指數計算結果更敏感、更有效。
火災發(fā)生時間為2019年3月30日-2019年4月4日?;陬A測得到的影像并計算NBR,統(tǒng)計過火面積,我們發(fā)現(xiàn):由于2019年3月30日影像獲取時火災還未發(fā)生,故NBR結果中沒有火災區(qū)域;2019年3月31日過火面積約為72 087.96m2;2019年4月1日過火面積約為187 616.86m2;2019年4月2日過火面積約為249 256.77m2;2019年4月3-5日MODIS數據云量太大無法使用,故無預測結果;2019年4月6日過火面積約為335 834.01m2。可以看到從2019年3月31日開始,火災面積逐步擴大,最終過火面積為335 834.01m2,這與官方所公布的結果總體一致。
通過分析發(fā)現(xiàn),結合多類型中高空間分辨率影像(如Landsat8 OLI、Sentinel-2和GF-1影像)、MODIS影像,并針對兩種時空融合算法結果優(yōu)化組合,可彌補單一時空融合方法或使用單一中等空間分辨率影像(如Landsat影像)和MODIS影像時空融合的不足,可獲取更精確、更好的時間和空間分辨率預測影像。但對于實驗存在的問題進行討論:在應用時空融合時,我們發(fā)現(xiàn)在使用較差的預處理后的影像進行融合時,效果比較差,因此,時空融合的2種算法對數據的預處理工作有很高的要求,包括輻射定標、大氣校正等,對于高分系列衛(wèi)星還受到輻射校正和幾何校正精度的影響,因此時空融合結果的精度一定程度上受影像預處理精度的影響;其次,該算法對于輸入的影像數據有很高的要求,要求獲取的影像必須是無云的純凈像素,MODIS影像的時間分辨率雖然比較好,但不可避免的也會出現(xiàn)研究區(qū)被云層覆蓋的情況,如果是薄霧,可使用去云處理,但如果云層較厚,關于去云研究目前還未成熟。因此,在后續(xù)研究中,可以考慮加入雷達影像,利用雷達影像能夠穿透云層,可以看到火災的邊界等信息的特點,探索雷達強度圖像與光學數據的之間的關系,實現(xiàn)兩者的融合,以期得到更好的應用。
本文綜合利用經典的STARFM算法與具有組合優(yōu)勢的基于地物內組分時相變化模型的地表反射率時空融合算法,聯(lián)合使用多種空間分辨率更優(yōu)(≤30m)的傳感器影像(Landsat8 OLI、Sentinel-2、GF-1 WFV)與MODIS影像,以“時間最鄰近及空間分辨率優(yōu)先”為原則對傳統(tǒng)單一中等空間分辨率影像預測周期(如Land?sat影像為16天)進行分段獨立預測,并優(yōu)化組合兩種預測方法的預測結果,進而對四川涼山木里縣3·30森林大火預測結果計算BAI和NBR指數,提取森林火災區(qū)域動態(tài)變化信息。研究結果表明:本文所設計的時空融合策略可彌補單一時空融合方法或使用單一中等空間分辨率影像(如Landsat影像)和MODIS影像時空融合的不足,同時,使用NBR提取火災變化信息效果更優(yōu)。本文所提出的方法在森林火災遙感動態(tài)監(jiān)測場景中具有可行性,具有進一步深入研究的價值與意義。