何顯錦 蒙方鑫
摘要 及時(shí)、精確的養(yǎng)殖用海信息探測(cè)對(duì)于海洋利用開(kāi)發(fā)與管理至關(guān)重要,而傳統(tǒng)機(jī)器學(xué)習(xí)因不能自動(dòng)提取原始信息特征,常導(dǎo)致信息提取精度不高、邊界不完整等問(wèn)題。鑒于此,提出采用DeepLab v3+模型進(jìn)行養(yǎng)殖用海信息提取,重點(diǎn)關(guān)注該模型在高分辨率復(fù)雜影像中養(yǎng)殖用海信息的提取效果。結(jié)果表明,無(wú)論是單一時(shí)相影像還是由多時(shí)相構(gòu)成的拼接影像,DeepLab v3+模型對(duì)養(yǎng)殖用海信息提取的精度均達(dá)到了97%以上,明顯優(yōu)于基于傳統(tǒng)機(jī)器學(xué)習(xí)方法分類精度;在養(yǎng)殖網(wǎng)箱、排筏等非均質(zhì)地物提取細(xì)節(jié)上,DeepLab v3+模型能夠完整提取地物,邊界也較為規(guī)則,可為用海監(jiān)測(cè)與管理提供科學(xué)技術(shù)手段。
關(guān)鍵詞 DeepLabv3+模型;信息提取;養(yǎng)殖用海;欽州灣
中圖分類號(hào) S 951? 文獻(xiàn)標(biāo)識(shí)碼 A
文章編號(hào) 0517-6611(2022)12-0208-06
doi:10.3969/j.issn.0517-6611.2022.12.053
開(kāi)放科學(xué)(資源服務(wù))標(biāo)識(shí)碼(OSID):
Extraction of Aquaculture Sea from High-Resolution Remote Sensing Imagery Based on DeepLabv3+ Model
HE Xian-jin1,2,MENG Fang-xin3
(1.Key Laboratory of Environment Change and Resource Use in Beibu Gulf,Ministry of Education(Nanning Normal University),Nanning,Guangxi 530001;2.Guangxi Key Laboratory of Earth Surface Processes and Intelligent Simulation,Nanning,Guangxi 530001;3.School of Geography and Planning,Nanning Normal University,Nanning,Guangxi 530001)
Abstract Timely and accurate detection of aquaculture sea information was essential for the utilization and management of marine.However,traditional machine learning cannot automatically extract the original information features of objects,leading to low precision and incomplete boundaries of extracted objects.A method to extract aquaculture sea information was proposed by DeepLab v3+ model.The extraction effects of this model in high-resolution complex images were mainly researched.The results indicated that the accuracy of the DeepLab v3+ model for extracting marine information for aquaculture reached more than 97% for both a single-phase image and a mosaic image composed of multiple time phases.The classification accuracy was obviously better than that of the Maximum Likelihood Classification in ENVI. For the extraction of aquaculture cages and rafts,DeepLab v3+ model could completely extract these objects with regular boundaries.This research provided methodological guidance for sea monitoring and management.
Key words DeepLabv3+ model;Information extraction;Aquaculture sea;Qinzhou Bay
廣西壯族自治區(qū)北部灣經(jīng)濟(jì)區(qū)是繼珠江三角經(jīng)濟(jì)區(qū)、長(zhǎng)江三角經(jīng)濟(jì)區(qū)、環(huán)渤海經(jīng)濟(jì)區(qū)之后的又一個(gè)具有重大發(fā)展意義的國(guó)際區(qū)域經(jīng)濟(jì)合作區(qū)。隨著北部灣經(jīng)濟(jì)區(qū)的快速發(fā)展,海域使用也發(fā)生了翻天覆地的變化,在獲取經(jīng)濟(jì)效益的同時(shí),也將對(duì)周?chē)纳鷳B(tài)環(huán)境安全產(chǎn)生重要影響[1]。及時(shí)、準(zhǔn)確發(fā)現(xiàn)獲取海域使用動(dòng)態(tài)變化信息,不但直接影響海域管理部門(mén)對(duì)海域使用的有效執(zhí)法監(jiān)察和行政管理,也為海域資源的可持續(xù)利用與發(fā)展提供決策支持。然而,由于整個(gè)經(jīng)濟(jì)區(qū)的海域范圍廣、面積大,人工解譯獲取信息速度慢,而傳統(tǒng)的機(jī)器學(xué)習(xí)方法由于不能自動(dòng)提取原始特征信息,導(dǎo)致獲取信息精度不夠高,無(wú)法更好地為沿海開(kāi)發(fā)利用提供技術(shù)支撐與服務(wù)。
近年來(lái),隨著科技的迅速發(fā)展,深度學(xué)習(xí)在影像識(shí)別、人工智能等方面發(fā)揮著越來(lái)越重要的作用。深度學(xué)習(xí)作為機(jī)器學(xué)習(xí)中的一個(gè)新興領(lǐng)域,可通過(guò)逐層特征提取的方法、逐層學(xué)習(xí)輸入數(shù)據(jù)的方式,使得數(shù)據(jù)分類或預(yù)測(cè)的問(wèn)題更加容易實(shí)現(xiàn),并且可以從少數(shù)樣本中集中學(xué)習(xí)數(shù)據(jù)集的本質(zhì)特征,還可以通過(guò)學(xué)習(xí)深層非線性的網(wǎng)絡(luò)結(jié)構(gòu),實(shí)現(xiàn)對(duì)復(fù)雜函數(shù)的逼近[2]。深度學(xué)習(xí)從大類上可以歸入神經(jīng)網(wǎng)絡(luò),通常由多層神經(jīng)網(wǎng)絡(luò)構(gòu)成。其中,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是目前深度學(xué)習(xí)技術(shù)領(lǐng)域中最具有代表性的神經(jīng)網(wǎng)絡(luò)之一,可以通過(guò)一系列方法,成功將數(shù)據(jù)量龐大的圖像識(shí)別問(wèn)題不斷降維,最終使其能夠被訓(xùn)練[3]。CNN能夠自動(dòng)獲取特征信息,具備更強(qiáng)的泛化能力,相對(duì)傳統(tǒng)機(jī)器學(xué)習(xí)方法能夠處理更復(fù)雜的分類問(wèn)題,極大地提高了分類精度[4];另一種深度學(xué)習(xí)方法全卷積神經(jīng)網(wǎng)絡(luò)(Fully Convolutional Networks,F(xiàn)CN),則是通過(guò)去除CNN的全連接層,將傳統(tǒng)CNN中的全連接層轉(zhuǎn)化成一個(gè)個(gè)的卷積層以及添加上采樣操作恢復(fù)影像尺寸的方式,在減輕網(wǎng)絡(luò)復(fù)雜度的同時(shí)實(shí)現(xiàn)了影像的像素級(jí)分類[5-6]。但為了得到更深層次的語(yǔ)義信息,F(xiàn)CN分類方法采用池化層擴(kuò)大感受野,不可避免地造成空間信息的損失[7]。基于此,眾多更先進(jìn)的深度學(xué)習(xí)網(wǎng)絡(luò)模型應(yīng)運(yùn)而生,如SegNet[6]、U-Net[8]、DeepLab系列[9]。DeepLab v3因其清晰的網(wǎng)絡(luò)結(jié)構(gòu)和利用并行空洞卷積所捕獲多尺度信息的特點(diǎn),在影像信息解譯提取方面得到了廣泛應(yīng)用[4]。例如,司海飛等[10]提出一種新的輕量化網(wǎng)絡(luò)結(jié)構(gòu)MobileNetV2結(jié)構(gòu),它替代了DeepLab v3原有的特征提取器,改進(jìn)的DeepLab v3網(wǎng)絡(luò)模型綜合性能更強(qiáng),更適合對(duì)分割性能要求較高的快速分割網(wǎng)絡(luò);韓玲等[11]利用DeepLab v3提取高分辨率遙感影像道路,結(jié)果顯示該模型能夠較好地提取高分辨率遙感影像中的道路邊緣特征,相比其他道路提取方法具有更高的提取精度和更加完整的道路信息,正確率可達(dá)到93%以上;何紅術(shù)等[12]提出改進(jìn)的U-Net網(wǎng)絡(luò)語(yǔ)義分割方法,借鑒經(jīng)典U-Net網(wǎng)絡(luò)的解編碼結(jié)構(gòu)對(duì)網(wǎng)絡(luò)進(jìn)行改進(jìn),改進(jìn)后的U-Net網(wǎng)絡(luò)結(jié)構(gòu)在mIoU、精準(zhǔn)率和Kappa系數(shù)指標(biāo)上均高于SegNet和經(jīng)典U-Net網(wǎng)絡(luò);蔡博文等[13]利用深度卷積神經(jīng)網(wǎng)絡(luò)對(duì)影像特征進(jìn)行提取,并根據(jù)其鄰域關(guān)系構(gòu)建概率圖學(xué)習(xí)模型,進(jìn)一步引入高階語(yǔ)義信息對(duì)特征進(jìn)行優(yōu)化,實(shí)現(xiàn)不透水面的精確提取。
盡管深度學(xué)習(xí)在各個(gè)領(lǐng)域的應(yīng)用不斷深入,但是對(duì)于用海信息提取的研究較少,且提取的對(duì)象多為均質(zhì)地物[14]。鑒于此,筆者利用深度學(xué)習(xí)模型,對(duì)養(yǎng)殖用海中的網(wǎng)箱、浮筏等非均質(zhì)地物進(jìn)行提取,闡明深度學(xué)習(xí)方法在海域信息提取應(yīng)用過(guò)程,并通過(guò)對(duì)傳統(tǒng)機(jī)器學(xué)習(xí)方法,說(shuō)明深度學(xué)習(xí)方法所具有的優(yōu)勢(shì),為高精度監(jiān)測(cè)北部灣海域使用狀況提供一套科學(xué)有效的方法。
1 材料與方法
1.1 研究區(qū)概況
欽州灣位于北部灣頂部,廣西沿岸中段,東鄰欽州市欽州港區(qū),西鄰防城港市企沙半島,北與欽州市欽南區(qū)接壤,南臨北部灣,灣口門(mén)寬約為29 km,縱深約為39 km,海灣面積約為380 km2。欽州灣是廣西的傳統(tǒng)大蠔養(yǎng)殖基地,近年來(lái)養(yǎng)殖區(qū)域面積不斷擴(kuò)大,大蠔養(yǎng)殖也得到爆炸式增長(zhǎng)[15]。欽州灣頂部為茅尾海,是以欽江、茅嶺江為主要入灣徑流的河口海濱區(qū)。東南部為三娘灣海域,有大風(fēng)江淡水匯入,其特點(diǎn)是島嶼棋布、淺灘眾多,創(chuàng)造了適宜多種海洋生物生存的不同環(huán)境。由于有欽江、茅嶺江淡水匯入,因此餌料充足、魚(yú)類資源豐富,并且欽州灣年均水溫21.3 ℃,處于最適合生蠔生長(zhǎng)的水溫(15~25 ℃)范圍內(nèi)[16]。同時(shí),灣內(nèi)自然災(zāi)害較少,貼合生蠔養(yǎng)殖要求的無(wú)臺(tái)風(fēng)、無(wú)污染條件。
1.2 數(shù)據(jù)來(lái)源 該研究所用數(shù)據(jù)主要為影像數(shù)據(jù),通過(guò)谷歌地球引擎平臺(tái)獲取了2期空間分辨率為0.5 m的欽州灣海域遙感影像。其中,2011年影像為同一時(shí)相影像,2019年影像則由多個(gè)時(shí)相影像拼接而成(圖1)。另外,該研究利用與影像相匹配的欽州灣海域矢量數(shù)據(jù),裁剪出欽州灣海域,這樣可以減少其他地物對(duì)目標(biāo)地物信息提取的干擾。
1.3 研究方法
1.3.1 基于DeepLab v3+模型的影像語(yǔ)義分割
1.3.1.1 模型介紹。
Deeplab語(yǔ)義分割網(wǎng)絡(luò)在2015年被提出,該模型是給輸入的圖像在像素級(jí)別進(jìn)行語(yǔ)義標(biāo)簽的分配[5]。目前,Deeplab經(jīng)歷了v1、v2、v3以及v3+的不斷發(fā)展,其性能更是得到了不斷地完善[17]。DeepLab v3+最大的特征就是引入了空洞卷積,在不損失信息的情況下,加大了感受野,讓每個(gè)卷積輸出都包含較大范圍的信息。同時(shí),模型為了融合多尺度信息,引入了語(yǔ)義分割常用的encoder-decoder形式[9]。DeepLab v3+結(jié)合了空洞空間金字塔池化(ASPP)和多比例的帶孔卷積級(jí)聯(lián)或并行來(lái)捕獲多尺度背景兩者的優(yōu)點(diǎn),在沒(méi)有添加任何后端處理的情況下在PASCAL VOC 2012數(shù)據(jù)集上驗(yàn)證可達(dá)到89% mIoU[9]。該研究采用最新的DeepLab v3+模型進(jìn)行欽州灣海域使用狀況的信息提取,模型架構(gòu)如圖2所示。
首先,輸入的圖片經(jīng)過(guò)主干DCNN深度卷積神經(jīng)網(wǎng)絡(luò)之后的結(jié)果被分為2部分,一部分直接傳入Decoder,另一部分經(jīng)過(guò)并行的Atrous Convolution,分別用不同rate的Atrous Convolution進(jìn)行特征提取、進(jìn)行合并,再進(jìn)行1×1卷積壓縮特征;其次,對(duì)于解碼器Decoder部分,其輸入有2部分,一部分是DCNN的輸出,另外一部分是DCNN經(jīng)過(guò)并行空洞卷積輸出后的結(jié)果,接著將編碼器的輸出結(jié)果上采樣4倍,然后與resnet中下采樣前的Conv2特征Concat一起,再進(jìn)行3×3的卷積,最后上采樣4倍使其分辨率和低層級(jí)的Feature一致;最后,把獲得的特征重新映射到圖中的每一個(gè)像素點(diǎn),用于每一個(gè)像素點(diǎn)的分類,最終輸出Prediction圖像。
1.3.1.2 樣本獲取。(1)樣本影像裁剪。由于該試驗(yàn)的研究區(qū)范圍較大,影像尺寸達(dá)到了50 000像素×50 000像素以上,所以不能直接將研究區(qū)作為標(biāo)注對(duì)象,需要將影像進(jìn)行切片處理。為了提高標(biāo)注精度,將兩景研究區(qū)影像切片為621像素×922像素大小的共4 000多張影像,并將其導(dǎo)出為.jpg格式。切成更小尺寸的圖像是為了在標(biāo)注階段能夠更好地識(shí)別地物信息,減小錯(cuò)分概率。
(2)樣本選取與標(biāo)注?;谏弦徊角衅玫降挠跋?,還需要通過(guò)目視解譯的方法將包含目標(biāo)地物的圖像選取出來(lái),經(jīng)過(guò)篩選后,最終得到了共542張圖像質(zhì)量較好、具有較高識(shí)別度的圖像;隨后用Labelme工具進(jìn)行語(yǔ)義分割樣本的標(biāo)注,將圖像標(biāo)注為養(yǎng)殖排筏與背景2類。這些樣本在訓(xùn)練前需要經(jīng)過(guò)鏡像翻轉(zhuǎn)、圖像旋轉(zhuǎn)等以獲取更多的訓(xùn)練樣本。
1.3.1.3 數(shù)據(jù)處理。訓(xùn)練前,首先將Labelme軟件標(biāo)注生成的json格式文件轉(zhuǎn)換為VOC格式,方便后續(xù)進(jìn)一步轉(zhuǎn)換成DeepLab v3+模型訓(xùn)練所需的灰度圖;隨后利用build_voc2012_data.py文件將灰度圖轉(zhuǎn)換成tfrec7ord格式,同時(shí)添加對(duì)養(yǎng)殖排筏數(shù)據(jù)集的描述,最后進(jìn)行數(shù)據(jù)集的訓(xùn)練。
訓(xùn)練時(shí),引用預(yù)訓(xùn)練模型Xception65_coco_voc_trainval,調(diào)整迭代訓(xùn)練次數(shù)(training_number_of_steps)為30 000,圖片訓(xùn)練尺寸(train_crop_size)為513,訓(xùn)練批數(shù)(train_batch_size)為1。另外,面對(duì)訓(xùn)練數(shù)據(jù)不足的情況,可以借鑒茍杰松等[15]訓(xùn)練過(guò)程通過(guò)增添數(shù)據(jù)增強(qiáng)模塊,即通過(guò)隨步長(zhǎng)隨機(jī)縮放、鏡像翻轉(zhuǎn)、圖像旋轉(zhuǎn)、非等比例縮放等多種方式來(lái)增加訓(xùn)練數(shù)據(jù)量,以防止樣本不足帶來(lái)的過(guò)擬合,提升模型泛化能力和魯棒性。訓(xùn)練結(jié)束后,導(dǎo)出生成.dp格式預(yù)測(cè)模型文件。
預(yù)測(cè)時(shí),直接調(diào)用.pb格式模型文件對(duì)圖片進(jìn)預(yù)測(cè)??紤]設(shè)備限制與數(shù)據(jù)處理效率,并不能將整幅影像一次性導(dǎo)入進(jìn)行預(yù)測(cè)。需將50 000像素×50 000像素的影像切割為500像素×500像素的共10 000張小尺寸圖像,再將小尺寸圖像放入預(yù)測(cè)模型中循環(huán)遍歷,生成的預(yù)測(cè)圖保存在列表中,最后再將預(yù)測(cè)好的圖像進(jìn)行拼接,最終生成一幅與原圖尺寸一致的圖像。
1.3.2 基于最大似然法的養(yǎng)殖用海識(shí)別
1.3.2.1 算法選取。
在ENVI軟件中監(jiān)督分類常用的方法有最大似然法(Maximum Likelihood Classification,MLC)、最小距離法、馬氏距離法、平行六面體法、神經(jīng)網(wǎng)絡(luò)法以及支持向量機(jī)法等[18-19]。在影像信息提取研究中,ENVI監(jiān)督分類利用最大似然法能夠?qū)崿F(xiàn)較高的信息提取精度,應(yīng)用較為廣泛[20]。該分類算法是求出每一個(gè)像元對(duì)于各類別的歸屬概率,把該像元?jiǎng)澐值綒w屬概率最大的類別中去。它的判別規(guī)則是假設(shè)某待分類像元X滿足如下公式:
D=ln(αi)-[0.5 ln(|Covi|)-[0.5(X-Mi)T(Covi-1)(X-Mi)](1)
式中,D、i、X分別為加權(quán)距離、某一特征類型和像元的測(cè)量矢量;Mi、Covi、ai分別為類別i的樣本均值、協(xié)方差矩陣和待分像元屬于類別i的概率。
1.3.2.2 ROI的選取與分離度指標(biāo)的關(guān)系。
根據(jù)地物在影像上的分布情況,在ENVI中選擇繪制感興趣區(qū)域(region of interest,簡(jiǎn)稱ROI),并將地物分為2類,即養(yǎng)殖魚(yú)、蠔等排筏與背景。ROI選擇完畢之后還要對(duì)其進(jìn)行分離精度評(píng)價(jià),即在ENVI中對(duì)每個(gè)興趣區(qū)計(jì)算Transformed距離和Jef-friesMatusita距離,分離度閾值是0~2。在該試驗(yàn)中,依據(jù)可分離值的大小來(lái)判斷選取ROI樣本的精度情況。當(dāng)分離值大于1.9,說(shuō)明2類地物樣本之間可以很好地被區(qū)分開(kāi);當(dāng)分離值小于1.8時(shí)說(shuō)明2類地物樣本之間無(wú)法很好地區(qū)別開(kāi),應(yīng)當(dāng)修改原樣本并重新選擇,當(dāng)可分離值小于1時(shí),說(shuō)明2類樣本幾乎無(wú)法區(qū)分開(kāi),應(yīng)該考慮將2類地物視為同種類型的地物并將其合并。該試驗(yàn)中,將欽州灣2011與2019年2期影像進(jìn)行養(yǎng)殖用海面積的分類,得到2011年養(yǎng)殖用海與背景的分離度為1.923,具有比較好的分離性;2019年的分離度僅為1.806,達(dá)不到很好的分離效果。由此可知,利用最大似然法對(duì)影像分類時(shí),拼接影像獲取的分離度較非拼接影像更低。
1.3.3 精度評(píng)價(jià)方法。
影像分類精度評(píng)價(jià)方法主要包括整體精度評(píng)價(jià)和制圖精度評(píng)價(jià)。整體分類精度評(píng)價(jià)是對(duì)分類精度高低的檢驗(yàn),常用的檢驗(yàn)方法有2種:一是在影像上隨機(jī)選取一定比例的驗(yàn)證樣本與分類結(jié)果進(jìn)行對(duì)比;二是將分類結(jié)果與實(shí)際養(yǎng)殖用海的面積進(jìn)行對(duì)比。該研究主要采用第2種,其中采用的分類精度指標(biāo)包括總體精度(Overall Accuracy)和Kappa系數(shù)。制圖精度是分類器將整個(gè)影像的像元正確分為A類的像元數(shù)(對(duì)角線值)與A類真實(shí)參考總數(shù)(混淆矩陣中A類列的總和)的比率。
2 結(jié)果與分析
2.1 預(yù)測(cè)結(jié)果分析
圖3展示了使用2種方法對(duì)2011年單一時(shí)相影像與2019年多時(shí)相拼接影像的預(yù)測(cè)結(jié)果。從圖3可以看出,在非拼接的2011年影像上,基于MLC方法的總體預(yù)測(cè)質(zhì)量較好,但在影像中部以及頂部等河網(wǎng)縱橫交錯(cuò)、地物分布復(fù)雜的區(qū)域不能對(duì)目標(biāo)地物實(shí)現(xiàn)準(zhǔn)確識(shí)別(圖3a)。對(duì)于2019年的拼接影像,研究區(qū)右下角、中部、頂部的部分水域被錯(cuò)分為養(yǎng)殖排筏,中部有大部分養(yǎng)殖排筏沒(méi)有被準(zhǔn)確提取,導(dǎo)致了圖上的空白(圖3b)。然而,DeepLab v3+模型提取的結(jié)果與實(shí)地養(yǎng)殖分布情況相吻合,總體上明顯優(yōu)于采用MLC方法提取的結(jié)果。
圖4展示了2種方法在2019年多時(shí)相拼接影像上的分類結(jié)果部分細(xì)節(jié)。從圖4可以發(fā)現(xiàn),利用MLC方法對(duì)2019年的影像進(jìn)行預(yù)測(cè)時(shí),圖中大部分區(qū)域都產(chǎn)生了噪聲點(diǎn),在影像拼接處更是將多種“異物同譜”的目標(biāo)分為一類,在細(xì)節(jié)處不能將養(yǎng)殖排筏完整地提取出來(lái),而DeepLab v3+模型提取的結(jié)果,邊界清晰,地物完整。
圖5展示了2種方法在養(yǎng)殖排筏細(xì)節(jié)紋理特征識(shí)別上的差異。從圖5可以發(fā)現(xiàn),利用MLC方法不能將養(yǎng)殖排筏作為一個(gè)整體提取出來(lái),只提取了網(wǎng)格線(圖5a),忽略了其中的水域。而DeepLab v3+模型在紋理特征細(xì)節(jié)處的識(shí)別較為準(zhǔn)確,能夠很好地識(shí)別出目標(biāo)輪廓,并將網(wǎng)格和其中水域作為一個(gè)整體提取。
表1為2種方法提取精度對(duì)比。從表1可以看出,DeepLabv3+模型的Kappa系數(shù)與總體精度均優(yōu)于最大似然法。在2011年非拼接影像信息提取中,DeepLab v3+模型比最大似然法的總體精度高0.98%,兩者差異較小,而在2019年多時(shí)相拼接影像識(shí)別上,前者為92.62%,后者僅89.46%,兩者相差3.16%。另外,DeepLab v3+模型在制圖精度上也優(yōu)于最大似然法,且在識(shí)別復(fù)雜拼接影像時(shí)依舊能夠表現(xiàn)出較高的分類精度。
2.2 敏感性分析
在卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練過(guò)程中,迭代訓(xùn)練次數(shù)是一個(gè)重要參數(shù),對(duì)模型精度有顯著影響。圖6展示了不
同迭代訓(xùn)練次數(shù)下模型預(yù)測(cè)精度情況。從圖6可以看出,隨
著訓(xùn)練次數(shù)的不斷增加,模型預(yù)測(cè)精度(mIoU值)也逐漸提高。當(dāng)訓(xùn)練次數(shù)達(dá)到30 000次以上時(shí),模型的預(yù)測(cè)精度趨于平緩,到達(dá)
50 000次時(shí),模型的精度與30 000次相比僅相差0.60%。由此可知,在樣本數(shù)一定的情況下,模型的精度超過(guò)50 000次后將不會(huì)再有明顯的提升。分析可知,在不改變初始學(xué)習(xí)率、train_batch_size以及output_stride時(shí),該模型的預(yù)測(cè)精度與迭代訓(xùn)練次數(shù)成正相關(guān)關(guān)系。
2.3 養(yǎng)殖用海變化結(jié)果分析
圖7展示了近10年間養(yǎng)殖用海的時(shí)空變化分布狀況。養(yǎng)殖用海面積在近10年間呈現(xiàn)出爆炸式的增長(zhǎng),養(yǎng)殖用海的分布格局也由起初位于中部的集群分布拓展至整個(gè)欽州灣甚至北部的欽江和茅嶺江的入??趨^(qū)域,呈現(xiàn)出了中心擴(kuò)散的趨勢(shì),也從側(cè)面彰顯了廣西海洋經(jīng)濟(jì)在可持續(xù)發(fā)展“十三五”規(guī)劃中取得的巨大進(jìn)步。
提取面積與實(shí)際面積對(duì)比。從表2可知,欽州灣養(yǎng)殖用海的凈面積由2011年的718 hm2增長(zhǎng)到了2019年的1 924 hm2,是2011年的近2.7倍,相比2011年同比增長(zhǎng)了168.23%。隨著2011年欽州市委市政
府將欽州大蠔列為重點(diǎn)扶持的特色產(chǎn)業(yè),市財(cái)政每年在大蠔養(yǎng)殖項(xiàng)目上的扶持經(jīng)費(fèi)高達(dá)數(shù)百萬(wàn)元。另外,隨著養(yǎng)殖技術(shù)的不斷進(jìn)步,“浮筏吊養(yǎng)”逐漸取代了“灘涂插養(yǎng)”的傳統(tǒng)養(yǎng)殖方式,極大提高了欽州大蠔的產(chǎn)量。
3 結(jié)論
該研究以2期谷歌地球引擎獲取的高分辨率影像為數(shù)據(jù)源,采用了DeepLab v3+模型進(jìn)行了欽州灣養(yǎng)殖用海信息提取。試驗(yàn)結(jié)果表明,該模型在高分辨率、多時(shí)相拼接影像上的總體識(shí)別精度和紋理特征細(xì)節(jié)識(shí)別方面均顯著優(yōu)于傳統(tǒng)機(jī)器學(xué)習(xí)方法。DeepLab v3+模型提取總體精度達(dá)到了97%以上,能夠很好地識(shí)別出養(yǎng)殖網(wǎng)箱、排筏輪廓,可將網(wǎng)格和其中水域作為一個(gè)整體提取。另外,通過(guò)用海變化分析發(fā)現(xiàn),近10年間,欽州灣海域養(yǎng)殖用海爆發(fā)式增長(zhǎng),面積增長(zhǎng)接近2倍。該研究可為海域使用監(jiān)測(cè)提供科學(xué)技術(shù)支持,對(duì)海洋開(kāi)發(fā)與管理具有重要意義。
參考文獻(xiàn)
[1]
何顯錦,范航清,胡寶清.近十年廣西海洋經(jīng)濟(jì)可持續(xù)發(fā)展能力評(píng)價(jià)[J].海洋開(kāi)發(fā)與管理,2013,30(8):107-112.
[2] 郭麗麗,丁世飛.深度學(xué)習(xí)研究進(jìn)展[J].計(jì)算機(jī)科學(xué),2015,42(5):28-33.
[3] 周飛燕,金林鵬,董軍.卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J].計(jì)算機(jī)學(xué)報(bào),2017,40(6):1229-1251.
[4] 葉沅鑫,譚鑫,孫苗苗,等.基于增強(qiáng)DeepLabV3網(wǎng)絡(luò)的高分辨率遙感影像分類[J].測(cè)繪通報(bào),2021(4):40-44.
[5] LONG J,SHELHAMER E,DARRELL T.Fully convolutional networks for semantic segmentation[J].IEEE transactions on pattern analysis and machine intelligence,2017,39(4):640-651.
[6] BADRINARAYANAN V,KENDALL A,CIPOLLA R.SegNet:A deep convolutional encoder-decoder architecture for image segmentation[J].IEEE transactions on pattern analysis and machine intelligence,2017,39(12):2481-2495.
[7] 李欣,唐文莉,楊博.利用深度殘差網(wǎng)絡(luò)的高分遙感影像語(yǔ)義分割[J].應(yīng)用科學(xué)學(xué)報(bào),2019,37(2):282-290.
[8] RONNEBERGER O,F(xiàn)ISCHER P,BROX T.U-Net:Convolutional networks for biomedical image segmentation[C]//International conference on medical image computing and computer-assisted intervention.Cham:Springer,2015.
[9] CHEN L C,PAPANDREOU G,KOKKINOS I,et al.DeepLab:Semantic image segmentation with Deep Convolutional Nets,Atrous Convolution,and fully connected CRFs[J].IEEE transactions on pattern analysis and machine intelligence,2018,40(4):834-848.
[10] 司海飛,史震,胡興柳,等.基于DeepLab V3模型的圖像語(yǔ)義分割速度優(yōu)化研究[J].計(jì)算機(jī)工程與應(yīng)用,2020,56(24):137-143.
[11] 韓玲,楊朝輝,李良志,等.利用Deeplab v3提取高分辨率遙感影像道路[J].遙感信息,2021,36(1):22-28.
[12] 何紅術(shù),黃曉霞,李紅旮,等.基于改進(jìn)U-Net網(wǎng)絡(luò)的高分遙感影像水體提取[J].地球信息科學(xué)學(xué)報(bào),2020,22(10):2010-2022.
[13] 蔡博文,王樹(shù)根,王磊,等.基于深度學(xué)習(xí)模型的城市高分辨率遙感影像不透水面提取[J].地球信息科學(xué)學(xué)報(bào),2019,21(9):1420-1429.
[14] 茍杰松,蔣怡,李宗南,等.基于Deeplabv3+模型的成都平原水產(chǎn)養(yǎng)殖水體信息提取[J].中國(guó)農(nóng)機(jī)化學(xué)報(bào),2021,42(3):105-112.
[15] 張廣平,張晨曉.欽州灣大蠔養(yǎng)殖區(qū)環(huán)境健康評(píng)價(jià)[J].海洋開(kāi)發(fā)與管理,2020,37(3):41-46.
[16] 勞齊斌,劉國(guó)強(qiáng),高勁松,等.欽州灣養(yǎng)殖區(qū)營(yíng)養(yǎng)鹽分布特征及富營(yíng)養(yǎng)化狀況研究[J].海洋環(huán)境科學(xué),2021,40(3):407-416.
[17] CHEN L C,PAPANDREOU G,SCHROFF F,et al.Rethinking atrous convolution for semantic image segmentation[EB/OL].(2017-06-17)[2021-01-17].https://arxiv.org/pdf/1706.05587v3.pdf.
[18] 秦先祥,余旺盛,王鵬,等.基于復(fù)值卷積神經(jīng)網(wǎng)絡(luò)樣本精選的極化SAR圖像弱監(jiān)督分類方法[J].雷達(dá)學(xué)報(bào),2020,9(3):525-538.
[19] 柳秀山,彭煒?shù)h,蔡君.支持向量機(jī)的高分辨率光學(xué)遙感影像道路提取研究[J].激光雜志,2021,42(4):72-75.
[20] 徐文斌,林寧,盧文虎,等.基于最大似然法的釣魚(yú)島航空遙感監(jiān)視監(jiān)測(cè)信息提取[J].海洋通報(bào),2013,32(5):548-552.