亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于神經(jīng)網(wǎng)絡(luò)的遙感圖像變化檢測(cè)系統(tǒng)

        2024-09-27 00:00:00王祥張志鑫牟浩東劉天航張玉松張玉柱
        人民長(zhǎng)江 2024年9期

        摘要:變化檢測(cè)是計(jì)算機(jī)視覺(jué)領(lǐng)域極具研究?jī)r(jià)值的技術(shù)分支。為提高長(zhǎng)江沿岸生產(chǎn)建設(shè)活動(dòng)的監(jiān)管效率,以影像配準(zhǔn)為基礎(chǔ),結(jié)合自注意力與特征信息提取,提出了長(zhǎng)江沿岸建筑物變化檢測(cè)系統(tǒng)。該系統(tǒng)集影像處理、影像配準(zhǔn)、變化檢測(cè)為一體,實(shí)現(xiàn)了全流程自動(dòng)化處理的功能。結(jié)果表明:① 設(shè)計(jì)的系統(tǒng)在影像配準(zhǔn)上將精度誤差控制在2個(gè)像素內(nèi),達(dá)到了像素級(jí)精度。② 該系統(tǒng)在變化檢測(cè)測(cè)試數(shù)據(jù)集上的F1值取得了優(yōu)于75%的結(jié)果,證明該系統(tǒng)的精度較高。研究成果也可應(yīng)用于大型水庫(kù)岸線保護(hù)監(jiān)測(cè)等場(chǎng)景中,提升庫(kù)區(qū)治理管理的效率。

        關(guān) 鍵 詞:遙感圖像; 人工智能; 影像配準(zhǔn); 變化檢測(cè); 岸線監(jiān)測(cè)

        中圖法分類號(hào): TP183

        文獻(xiàn)標(biāo)志碼: A

        DOI:10.16232/j.cnki.1001-4179.2024.09.031

        0 引 言

        近年來(lái),隨著社會(huì)經(jīng)濟(jì)的快速發(fā)展,人類活動(dòng)日益增多,土地利用與生產(chǎn)建設(shè)需求愈發(fā)強(qiáng)烈,隨之帶來(lái)的監(jiān)管難度越來(lái)越大。因此,發(fā)展土地利用監(jiān)測(cè)技術(shù),及時(shí)準(zhǔn)確掌握地表建筑物變化對(duì)國(guó)家經(jīng)濟(jì)建設(shè)、生態(tài)建設(shè)和可持續(xù)發(fā)展起著至關(guān)重要的作用。

        互聯(lián)網(wǎng)、人工智能、遙感大數(shù)據(jù)等現(xiàn)代新興技術(shù)發(fā)展迅速,驅(qū)動(dòng)遙感智能監(jiān)測(cè)、監(jiān)控技術(shù)迅速崛起。深度學(xué)習(xí)等人工智能技術(shù)的引入進(jìn)一步促進(jìn)了遙感領(lǐng)域的蓬勃發(fā)展。依托人工智能、計(jì)算機(jī)視覺(jué)的相關(guān)研究,一大批基于遙感影像的智能應(yīng)用如遙感圖像配準(zhǔn)、變化檢測(cè)等取得了巨大的進(jìn)步[1-2]。

        遙感圖像配準(zhǔn)算法分為手動(dòng)、自動(dòng)、半自動(dòng)3種不同方式,可見(jiàn)光傳感器圖像通常使用基于特征的圖像配準(zhǔn)算法。該算法需要提取穩(wěn)定一致的特征,在遙感圖像中,河流、湖泊、道路、標(biāo)志性建筑物在不同成像分辨率和成像模式下均能保持穩(wěn)定,且可以輕易區(qū)分。傳統(tǒng)的圖像配準(zhǔn)算法通常采用基于SIFT、SURF、FAST等特征點(diǎn)描述子的特征點(diǎn)提取方法,這些描述符提取簡(jiǎn)單,易于使用,但對(duì)于圖像源的差異變化不敏感,魯棒性不強(qiáng)。而隨著卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展,基于卷積神經(jīng)網(wǎng)絡(luò)的特征提取與配準(zhǔn)方法開(kāi)始逐漸應(yīng)用于圖像配準(zhǔn)中,如Alexey等[3]提出通用特征學(xué)習(xí)方法訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò),增強(qiáng)了特征的泛化屬性與魯棒性,在匹配任務(wù)中優(yōu)于SIFT描述子;Yang等[4]使用預(yù)訓(xùn)練的VGG網(wǎng)絡(luò)提取特征,在遙感領(lǐng)域取得了較好的效果;Ma等[5]提出基于DocUNet的配準(zhǔn)方法,使用兩層堆疊的Unet進(jìn)行特征學(xué)習(xí)。然而,現(xiàn)有研究所使用的數(shù)據(jù)集尺寸較?。▽?、高均小于1 000像素),無(wú)法適應(yīng)如高分二號(hào)遙感圖像等大尺寸數(shù)據(jù)的輸入,因而限制了這些方法的實(shí)際場(chǎng)景使用。

        近些年來(lái),基于深度學(xué)習(xí)的多時(shí)相遙感圖像變化檢測(cè)方法也取得了長(zhǎng)足的發(fā)展,它基于多層結(jié)構(gòu)組成的模型能夠?qū)W習(xí)具有多個(gè)抽象級(jí)別范圍的數(shù)據(jù)樣本的表示層次[6-7]。從方法上來(lái)說(shuō),應(yīng)用于變化檢測(cè)的深度學(xué)習(xí)方法可以分為4類:全監(jiān)督、半監(jiān)督、無(wú)監(jiān)督和遷移學(xué)習(xí)。全監(jiān)督方法通過(guò)從標(biāo)記的訓(xùn)練數(shù)據(jù)集中學(xué)習(xí)輸入圖像與二值變化結(jié)果的映射關(guān)系來(lái)獲得一個(gè)精度較高的模型[8-9];半監(jiān)督與無(wú)監(jiān)督方法主要用來(lái)處理大量可用于變化檢測(cè)的成對(duì)數(shù)據(jù)無(wú)標(biāo)注的問(wèn)題[10-11];遷移學(xué)習(xí)則支持使用一種數(shù)據(jù)類型的訓(xùn)練模型去推理另一種數(shù)據(jù)類型的輸出。以此3種方法為基礎(chǔ),模型一般選擇孿生結(jié)構(gòu)或基于U-Net結(jié)構(gòu)處理數(shù)據(jù)[12-13],生成特征,輸出結(jié)果。

        然而,基于深度學(xué)習(xí)的變化檢測(cè)方法都是針對(duì)已經(jīng)預(yù)處理與配對(duì)完成的遙感影像,針對(duì)大尺寸影像的端到端變化檢測(cè)的研究還處于起步階段。當(dāng)前各類針對(duì)遙感圖像的處理模型,不論是基于傳統(tǒng)方法還是基于深度學(xué)習(xí)方法,都只關(guān)注某一角度的問(wèn)題。如果想要實(shí)現(xiàn)端到端一步到位地處理原始輸入圖像,并獲取帶有準(zhǔn)確地理位置信息的最終變化檢測(cè)結(jié)果,必須花費(fèi)大量的時(shí)間進(jìn)行模型篩選匹配、參數(shù)調(diào)優(yōu)、中間流程數(shù)據(jù)處理等工作,不利于各類模型的落地應(yīng)用。

        針對(duì)上述問(wèn)題,本文建立了端到端的遙感圖像變化檢測(cè)系統(tǒng),以長(zhǎng)江沿岸建筑物為研究對(duì)象,實(shí)現(xiàn)了集影像預(yù)處理、影像配準(zhǔn)與變化檢測(cè)的全流程自動(dòng)化的功能。此外,在圖像配準(zhǔn)部分,將網(wǎng)格配準(zhǔn)法與深度學(xué)習(xí)的方法結(jié)合,提出了適用于大尺寸遙感圖像配準(zhǔn)的深度學(xué)習(xí)方法,以期提升河湖岸線動(dòng)態(tài)監(jiān)測(cè)的效率。

        1 遙感圖像變化檢測(cè)系統(tǒng)原理

        本文提出的遙感圖像變化檢測(cè)系統(tǒng)整體框架如圖1所示,整個(gè)系統(tǒng)共分為3個(gè)部分:影像預(yù)處理、影像配準(zhǔn)和變化檢測(cè)。各部分以依次級(jí)聯(lián)的方式形成端到端的處理流程,有效地提高了系統(tǒng)的處理效率。首先,系統(tǒng)以L1級(jí)遙感影像對(duì)作為輸入,經(jīng)過(guò)影像預(yù)處理得到用于影像配準(zhǔn)的影像對(duì);其次,該影像對(duì)通過(guò)網(wǎng)格配準(zhǔn)、圖像裁剪輸出地理位置信息精準(zhǔn)匹配、滿足變化檢測(cè)模型輸入尺寸要求的影像對(duì);最后,針對(duì)每一個(gè)裁剪的影像對(duì)輸入到變化檢測(cè)模型后產(chǎn)生的輸出結(jié)果,按照裁剪方式拼接回原圖即可得到二值化的變化檢測(cè)結(jié)果。

        1.1 影像預(yù)處理

        該模型將兩個(gè)包含MSS與PAN遙感圖像的壓縮文件作為整個(gè)系統(tǒng)的輸入,經(jīng)過(guò)解壓、正射校正、圖像融合這3個(gè)步驟的處理后生成一對(duì)遙感圖像作為后續(xù)操作的輸入。

        其中,正射校正通過(guò)在圖像中選取地面控制點(diǎn),利用原來(lái)已經(jīng)獲取的該圖像范圍內(nèi)的數(shù)字高程模型(DEM)數(shù)據(jù),對(duì)圖像同時(shí)進(jìn)行傾斜修正和投影差修正,將影像重采樣成正射影像[14]。本文使用的GF2數(shù)據(jù)中包含兩類數(shù)據(jù)源:① 低分辨率的多光譜MSS圖像,分辨率為3.2 m;② 高分辨率單波段PAN圖像,分辨率為0.8 m。在經(jīng)過(guò)正射校正后,這兩類數(shù)據(jù)源的分辨率分別被調(diào)整為4.0 m與0.8 m。

        圖像融合操作是將低分辨率的多光譜圖像與高分辨率的單波段圖像重采樣生成一幅高分辨率多光譜圖像[15]。使用Gram-Schmidt Pan Sharpening(GS)方法來(lái)完成此操作,GS改進(jìn)了PCA中信息過(guò)分集中的問(wèn)題,不受波段限制,可較好地保持空間紋理信息,尤其是能高保真保持光譜特征。這個(gè)方法將分辨率為4.0 m的MSS圖像與分辨率為0.8 m的PAN圖像融合為分辨率為0.8 m的重采樣結(jié)果圖像,具體過(guò)程如下:

        (1) 將多光譜影像的每個(gè)波段視為一個(gè)向量,將全色影像視為一個(gè)參考向量。

        (2) 將全色影像的參考向量與第一個(gè)多光譜波段向量進(jìn)行內(nèi)積運(yùn)算,得到一個(gè)標(biāo)量。

        (3) 將這個(gè)標(biāo)量乘以第一個(gè)多光譜波段向量,得到一個(gè)新的向量。

        (4) 將新的向量從多光譜影像中減去,得到一個(gè)新的多光譜波段向量。

        (5) 重復(fù)以上步驟,將全色影像的參考向量與剩余的多光譜波段向量進(jìn)行內(nèi)積運(yùn)算,并將得到的標(biāo)量乘以相應(yīng)的多光譜波段向量,然后從多光譜影像中減去,得到新的多光譜波段向量。

        重復(fù)以上步驟,直到處理完所有的多光譜波段向量,即可得到全色波段和多光譜波段融合后的影像。圖像預(yù)處理前后的輸入與輸出結(jié)果如圖2所示。

        1.2 影像配準(zhǔn)

        影像配準(zhǔn)是變化檢測(cè)模型的前提與基礎(chǔ)。為適應(yīng)遙感圖像分辨率高、圖像尺寸大的特點(diǎn),本文提出基于網(wǎng)格的深度學(xué)習(xí)圖像配準(zhǔn)方法,在滿足遙感圖像數(shù)據(jù)輸入需求的同時(shí)利用深度學(xué)習(xí)網(wǎng)絡(luò)改善模型性能[16]。

        影像配準(zhǔn)的整體結(jié)構(gòu)可分為特征點(diǎn)提取、特征點(diǎn)匹配、單應(yīng)性矩陣計(jì)算、圖像變換等4個(gè)部分。整體流程如圖3所示。

        首先使用SuperPoint深度學(xué)習(xí)網(wǎng)絡(luò)代替?zhèn)鹘y(tǒng)的SIFT特征提取器,對(duì)圖像的特征點(diǎn)進(jìn)行提取[17]。SuperPoint網(wǎng)絡(luò)分為編碼器與解碼器兩部分,其中解碼器又分為特征點(diǎn)提取與描述符計(jì)算2個(gè)子網(wǎng)絡(luò),子網(wǎng)絡(luò)共享編碼器特征,分別輸出特征點(diǎn)位置及其描述符。

        其次,將得到的兩組特征點(diǎn)集合及其描述符輸入SuperGlue深度學(xué)習(xí)網(wǎng)絡(luò)進(jìn)行特征點(diǎn)匹配[18],SuperGlue網(wǎng)絡(luò)將特征信息映射到高維空間,通過(guò)圖神經(jīng)網(wǎng)絡(luò)中交替的自注意力與交叉注意力模塊創(chuàng)建更強(qiáng)的描述信息,隨后使用Sinkhorn算法獲得匹配得分矩陣,對(duì)不能匹配的特征點(diǎn)進(jìn)行剔除。

        最后,由于圖像對(duì)之間的仿射變換可以由單應(yīng)性矩陣獲得,使用RANSAC(隨機(jī)一致性采樣)算法通過(guò)所得的特征點(diǎn)對(duì)擬合單應(yīng)性矩陣[19]。RANSAC算法是從一組含有噪聲的數(shù)據(jù)中正確估計(jì)數(shù)學(xué)模型參數(shù)的迭代算法。RANSAC算法首先選擇出可以估計(jì)模型的最小數(shù)據(jù)集,隨機(jī)截取特征點(diǎn)子集計(jì)算數(shù)據(jù)模型(即擬合單應(yīng)性矩陣結(jié)果),隨后將其他特征點(diǎn)代入模型,評(píng)估剩余的特征點(diǎn)是否符合所得模型,以內(nèi)點(diǎn)(即符合模型的特征點(diǎn)數(shù)量)作為模型評(píng)價(jià)指標(biāo),重復(fù)上述過(guò)程直至迭代結(jié)束并選擇最優(yōu)結(jié)果。得到最優(yōu)單應(yīng)性矩陣后,通過(guò)單應(yīng)性矩陣與原始圖像矩陣相乘,即可對(duì)原始圖像進(jìn)行變換,獲得配準(zhǔn)結(jié)果。

        在配準(zhǔn)流程中,為適應(yīng)高分2號(hào)遙感圖像分辨率高、尺寸大的特點(diǎn),首先對(duì)圖像進(jìn)行縮放并使用SuperGlue算法進(jìn)行粗配準(zhǔn),粗配準(zhǔn)誤差控制在20個(gè)像素以內(nèi)。隨后,使用網(wǎng)格法將一組景圖像按區(qū)域進(jìn)行劃分,區(qū)域大小為1024×1024,圖像尺寸不足的部分以0像素進(jìn)行填充,以進(jìn)行逐區(qū)域的圖像配準(zhǔn)。在經(jīng)過(guò)區(qū)域的特征點(diǎn)匹配后,將特征點(diǎn)對(duì)映射到景圖像并存儲(chǔ),最終以景圖像的特征點(diǎn)對(duì)集合進(jìn)行單應(yīng)性矩陣的擬合。本文提出的圖像配準(zhǔn)算法在一景高分2號(hào)遙感圖像上達(dá)到了2個(gè)像素以內(nèi)的誤差。

        1.3 變化檢測(cè)

        為適應(yīng)變化檢測(cè)模型需求,將配準(zhǔn)所得圖像進(jìn)行裁剪。同時(shí),為防止圖像中的部分建筑因裁剪而無(wú)法被檢測(cè),導(dǎo)致模型精度降低,在裁剪過(guò)程中加入了20%的區(qū)域重疊。

        該模型的變化檢測(cè)部分將剪裁為固定大小的一組圖像對(duì)作為輸入,每對(duì)輸入是同一位置不同時(shí)間拍攝的經(jīng)過(guò)一系列預(yù)處理的遙感視角圖像,其對(duì)應(yīng)結(jié)果為一張與輸入圖像對(duì)大小相同的二值圖,1表示對(duì)應(yīng)像素位置發(fā)生了變化,0表示未變化。為了完成上述任務(wù),使用一種雙時(shí)圖像轉(zhuǎn)換模塊,通過(guò)高效建模上下文時(shí)空域信息,生成更加準(zhǔn)確的變化檢測(cè)結(jié)果。

        在模型內(nèi)部,將輸入圖像對(duì)表示為幾個(gè)令牌,并使用轉(zhuǎn)換編碼器在基于令牌的緊湊時(shí)空中建模上下文,然后將學(xué)習(xí)到豐富信息的令牌通過(guò)轉(zhuǎn)換解碼器反饋給像元間隔以精煉原始特征[20]。

        整個(gè)變化檢測(cè)模型的結(jié)構(gòu)如圖4所示。

        模型通過(guò)主干網(wǎng)絡(luò)的卷積模塊,得到每個(gè)輸入圖像的特征圖,然后將它們送入特征增強(qiáng)部分生成增強(qiáng)的雙時(shí)態(tài)特征。最后,將得到的雙時(shí)態(tài)特征送入預(yù)測(cè)頭以產(chǎn)生像素級(jí)的變化檢測(cè)預(yù)測(cè)結(jié)果。整個(gè)網(wǎng)絡(luò)有3個(gè)主要組成部分:第一是孿生語(yǔ)義標(biāo)記器,將像素分組并為每個(gè)時(shí)間輸入生成一個(gè)緊湊的語(yǔ)義令牌集;第二部分是變換編碼器,對(duì)基于令牌的時(shí)空中的語(yǔ)義概念進(jìn)行上下文建模;最后一個(gè)部分是孿生變換解碼器,將對(duì)應(yīng)的語(yǔ)義標(biāo)記投影回像元間隔,得到每個(gè)時(shí)態(tài)的精細(xì)化特征圖。

        在獲取到每張輸入圖像的特征圖后,對(duì)于其上的每個(gè)像素點(diǎn),使用逐點(diǎn)卷積得到L個(gè)語(yǔ)義組,每個(gè)組表示一個(gè)語(yǔ)義概念。然后通過(guò)對(duì)每個(gè)語(yǔ)義組沿長(zhǎng)寬維度使用歸一化指數(shù)函數(shù)進(jìn)行操作后獲取到空間注意力圖,并在最后計(jì)算其加權(quán)平均值,獲取到語(yǔ)義令牌集,公式如下:

        Ti=(S(C(Xi,K)))TXi(1)

        式中:Xi表示輸入圖像;i為圖像序號(hào);C(·)表示可學(xué)習(xí)的內(nèi)核K∈Rc×l的點(diǎn)卷積;S(·)是針對(duì)點(diǎn)卷積結(jié)果的指數(shù)歸一化操作;Ti是最終得到的令牌集。

        獲得語(yǔ)義令牌集后,使用自注意力[21]的方式更新特征,每一個(gè)自注意力層包含3個(gè)輸入:查詢Q,鍵K,值V。對(duì)于第l層的自注意力計(jì)算,使用如下公式生成上述值:

        Q=Tl-1Wq(2)

        K=Tl-1Wk(3)

        V=Tl-1Wv(4)

        式中:Wq、Wk、Wv為可學(xué)習(xí)參數(shù),Tl-1為上一個(gè)自注意力層輸出,每一個(gè)自注意力頭的計(jì)算公式為

        At(Q,K,V)=S(QKTd)V(5)

        式中:d為特征向量長(zhǎng)度。

        最后的解碼器部分負(fù)責(zé)將表示概念的令牌集投影回像元間隔,以獲得像素級(jí)別的特征。

        2 數(shù)據(jù)集

        2.1 數(shù)據(jù)集標(biāo)注

        參考數(shù)據(jù)集標(biāo)注軟件LabelMe[22]及相關(guān)軟件,使用適用于變化檢測(cè)數(shù)據(jù)集標(biāo)注的自制標(biāo)注軟件Labelme_cd進(jìn)行樣本標(biāo)注(圖5)。該軟件基于Python語(yǔ)言的PyQt框架開(kāi)發(fā),通過(guò)多窗口同步標(biāo)注的方式實(shí)現(xiàn)了一組變化圖像中變化區(qū)域的聯(lián)合標(biāo)注。

        2.2 變化檢測(cè)數(shù)據(jù)集

        基于高分2號(hào)衛(wèi)星遙感圖像,共標(biāo)注大小為512×512的變化檢測(cè)數(shù)據(jù)集5 000對(duì),并生成了相關(guān)掩模結(jié)果,以.png格式保存,部分?jǐn)?shù)據(jù)樣例如圖6所示。

        本文選擇的圖像時(shí)間從2016年到2022年不等,時(shí)間跨度從2 a到6 a不等,整個(gè)數(shù)據(jù)集中變化實(shí)例像素分布如圖7所示。

        3 結(jié)果分析

        3.1 影像配準(zhǔn)結(jié)果

        第i行第j列像素的影像配準(zhǔn)效果使用下述公式進(jìn)行衡量:

        TEST(i,j)=P(i,j)×h(6)

        Error=1M1NMi=1Nj=1(Norm(GT(i,j),TEST(i,j)))(7)

        式中:N表示圖像數(shù)量;M表示圖像中控制點(diǎn)數(shù)量;Norm表示2-范數(shù);GT表示真實(shí)結(jié)果;P表示待配準(zhǔn)圖像控制點(diǎn);h表示單應(yīng)性矩陣。

        該公式表示取全部圖像的全部控制點(diǎn)對(duì),將其中一組圖像的控制點(diǎn)對(duì)按照?qǐng)D3所述配準(zhǔn)流程進(jìn)行變化,將所得結(jié)果與另一組圖像的控制點(diǎn)計(jì)算平均歐氏距離,作為最終的衡量指標(biāo)。

        本文共選取了3景圖像150對(duì)控制點(diǎn)進(jìn)行指標(biāo)計(jì)算,分別計(jì)算粗配準(zhǔn)與最終配準(zhǔn)精度,結(jié)果如表1~2所列。

        可以看到,最終配準(zhǔn)結(jié)果相較于粗配準(zhǔn)誤差減少了90%以上,平均相對(duì)誤差在4.5×10-5左右,使得遙感景圖像配準(zhǔn)精度在2個(gè)像素以內(nèi)。配準(zhǔn)的樣例影像如圖8所示。

        3.2 變化檢測(cè)結(jié)果

        變化檢測(cè)通常使用3個(gè)指標(biāo)來(lái)度量模型的整體精度,即Precision、Recall和F1-score。Precision是正確預(yù)測(cè)的變化像素個(gè)數(shù)占所有預(yù)測(cè)的變化像素個(gè)數(shù)比例;Recall是正確預(yù)測(cè)的變化像素個(gè)數(shù)占標(biāo)注的變化像素個(gè)數(shù)比例;F1-score是對(duì)于變化檢測(cè)結(jié)果的總體評(píng)估,其公式如下:

        Precision=TPTP+FP(8)

        Recall=TPTP+FN(9)

        F1-score=2×Precision×RecallPrecision+Recall(10)

        其中,TP為正確預(yù)測(cè)正類樣本數(shù),TN為正確預(yù)測(cè)負(fù)類樣本數(shù),F(xiàn)P錯(cuò)誤預(yù)測(cè)正類樣本數(shù),F(xiàn)N為錯(cuò)誤預(yù)測(cè)為負(fù)類樣本數(shù)。最終,變化檢測(cè)模型在提出的數(shù)據(jù)集上的測(cè)試指標(biāo)如表3所列。可以看出,本文提出的變化檢測(cè)模型在訓(xùn)練集上F1值達(dá)到了接近90%的效果,在測(cè)試集上F1值取得了優(yōu)于75%的效果,模型整體精度較好。

        以一對(duì)大小為2048×2048的遙感圖像作為輸入,最終的變化檢測(cè)結(jié)果如圖9所示。

        4 結(jié) 論

        本次研究基于長(zhǎng)江沿岸遙感影像,設(shè)計(jì)并實(shí)現(xiàn)了包含影像預(yù)處理、影像配準(zhǔn)、變化檢測(cè)的長(zhǎng)江流域沿岸建筑物變換檢測(cè)系統(tǒng),以監(jiān)控長(zhǎng)江沿岸大型工程建設(shè)的合理化、規(guī)范化,為長(zhǎng)江流域岸線保護(hù)監(jiān)測(cè)工作提供技術(shù)支撐,提高管理效率。實(shí)例研究表明,本文所提方法中影像配準(zhǔn)方法的誤差在2個(gè)像素以內(nèi),變化檢測(cè)模型的F1值在測(cè)試集上達(dá)到了優(yōu)于75%的效果。此外,該系統(tǒng)還可以進(jìn)一步與數(shù)字孿生技術(shù)結(jié)合,為國(guó)家用地規(guī)劃與建設(shè)保駕護(hù)航。

        隨著云計(jì)算、大數(shù)據(jù)、人工智能、虛擬現(xiàn)實(shí)與分布式計(jì)算的創(chuàng)新與發(fā)展,未來(lái)將更多地將新技術(shù)與本文所提出的變化檢測(cè)系統(tǒng)進(jìn)行融合,進(jìn)一步優(yōu)化系統(tǒng)效率,擴(kuò)展應(yīng)用范圍[23],強(qiáng)化技術(shù)應(yīng)用廣度與深度,為全面實(shí)施“共抓大保護(hù),不搞大開(kāi)發(fā)”戰(zhàn)略提供決策支持。

        參考文獻(xiàn):

        [1] 隆星宇,李輝,白雪山,等.基于深度學(xué)習(xí)的人工滑坡隱患自動(dòng)識(shí)別新方法[J].人民長(zhǎng)江,2023,54(7):113-120.

        [2] ZHOU K,ZHANG Z,GAO C,et al.Rotated feature network formultiorientation object detection of remote-sensing images[J].IEEE Geoscience and Remote Sensing Letters,2020,18(1):33-37.

        [3] ALEXEY D,F(xiàn)ISCHER P,TOBIAS J,et al.Discriminative unsupervised feature learning with exemplar convolutional neural networks[J].IEEE TPAMI,2016,38(9):1734-1747.

        [4] YANG Z,DAN T,YANG Y.Multi-temporal remote sensing image registration using deep convolutional features[J].IEEE Access,2018,6:38544-38555.

        [5] MA K,SHU Z,BAI X,et al.Docunet:document image unwarping via a stacked u-net[C]∥Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2018:4700-4709.

        [6] LECUN Y,BENGIO Y,HINTON G.Deep learning[J].Nature,2015,521:436-444.

        [7] GONG M,YANG H,ZHENG P.Feature learning and change feature classification based on deep learning for ternary change detection in SAR images[J].ISPRS Journal of Photogrammetry and Remote Sensing,2017,129:212-225.

        [8] DAUDT R C,LE SAUX B,BOULCH A,et al.Urban change detection for multispectral earth observation using convolutional neural networks[C]∥IGARSS 2018-2018 IEEE International Geoscience and Remote Sensing Symposium.IEEE,2018:2115-2118.

        [9] LEBEDEV M A,VIZILTER Y V,VYGOLOV O V,et al.Change detection in remote sensing images using conditional adversarial networks[J].The International Archives of the Photogrammetry,Remote Sensing and Spatial Information Sciences,2018,42:565-571.

        [10]SAKURADA K,SHIBUYA M,WANG W.Weakly supervised silhouette-based semantic scene change detection[C]∥2020 IEEE International Conference on Robotics and Automation (ICRA).IEEE,2020:6861-6867.

        [11]ZHENG Z,MA A,ZHANG L,et al.Change is everywhere:Single-temporal supervised object change detection in remote sensing imagery[C]∥Proceedings of the IEEE/CVF International Conference on Computer Vision,2021:15193-15202.

        [12]ZAGORUYKO S,KOMODAKIS N.Learning to compare image patches via convolutional neural networks[C]∥Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2015:4353-4361.

        [13]DAUDT R C,LE S B,BOULCH A.Fully convolutional siamese networks for change detection[C]∥2018 25th IEEE International Conference on Image Processing (ICIP).IEEE,2018:4063-4067.

        [14]李俊杰,傅俏燕.DEM對(duì)高景衛(wèi)星影像正射校正的影響分析[J].地理空間信息,2021,19(9):50-52,60,7.

        [15]張智華,余錦佩,李軍偉,等.高分二號(hào)遙感影像融合方法比較分析[J].江西測(cè)繪,2022(4):31-34.

        [16]李維,王瑞,鄧傳斌.基于SURF算子的遙感圖像配準(zhǔn)方法研究[J].單片機(jī)與嵌入式系統(tǒng)應(yīng)用,2023,23(6):61-64,69.

        [17]DE T D,MALISIEWICZ T,RABINOVICH A.Superpoint:self-supervised interest point detection and description[C]∥Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops,2018:224-236.

        [18]SARLIN P E,DE T D,MALISIEWICZ T,et al.Superglue:learning feature matching with graph neural networks[C]∥Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition,2020:4938-4947.

        [19]FISCHLER M A,BOLLES R C.Random sample consensus:a paradigm for model fitting with applications to image analysis and automated cartography[J].Communications of the ACM,1981,24(6):381-395.

        [20]CHEN H,QI Z,SHI Z.Remote sensing image change detection with transformers[J].IEEE Transactions on Geoscience and Remote Sensing,2021,60:1-14.

        [21]VASWANI A,SHAZEER N,PARMAR N,et al.Attention is all you need[C]∥31st Annual Conterence on Neural Information Processing Systems,Long Beach,CA USA,2017,30:5998-6008.

        [22]RUSSELL B C,TORRALBA A,MURPHY K P,et al.LabelMe:a database and web-based tool for image annotation[J].International Journal of Computer Vision,2008,77:157-173.

        [23]祁蘭蘭,王金亮,農(nóng)蘭萍,等.基于GF-1衛(wèi)星數(shù)據(jù)的洱海干季水質(zhì)時(shí)空變化監(jiān)測(cè)[J].人民長(zhǎng)江,2021,52(9):24-31.

        (編輯:郭甜甜)

        Change detection system of remote sensing images based on neural network

        WANG Xiang1,ZHANG Zhixin2,3,4,MOU Haodong5,LIU Tianhang5,ZHANG Yusong1,ZHANG Yuzhu1

        (1.China Yangtze Power Co.,Ltd.,Wuhan 443000,China; 2.Network & Information Center,Changjiang Water Resources Commission,Wuhan 430010,China; 3.Center of Technology Innovation for Digital Enablement of River Basin Management,Wuhan 430010,China; 4.Smart Changjiang Innovation Team of Changjiang Water Resources Commission,Wuhan 430010,China; 5.School of Artificial Intelligence and Automation,Huazhong University of Science and Technology,Wuhan 430074,China)

        Abstract:

        Change detection is a highly valuable research branch in the field of computer vision.In order to improve the monitoring efficiency of production and construction activities along the Changjaing River,a building change detection system along the Chanjiang River was proposed on the basis of image registration,combined with self-attention and feature extraction.It integrated image processing,image registration and change detection,achieving automatic operation across overall processes.The results show that the designed system minimizes the registration accuracy error within two pixels,achieving pixel-level accuracy.Moreover,the system achieves a result of more than 75% in terms of F1 score on the proposed change detection test dataset,demonstrating its high accuracy.The research can be further applied in the shoreline management of large reservoirs,improving the efficiency of governance of reservoirs.

        Key words:

        remote sensing images; artificial intelligence; image registration; change detection; shoreline mornitoring

        日本精品极品视频在线| 日日碰狠狠添天天爽| 无码人妻丰满熟妇片毛片 | 久久中文字幕av一区二区不卡| 色综合久久中文综合网亚洲| 亚洲中文字幕久久无码精品| 成人区人妻精品一区二区不卡网站| 40分钟永久免费又黄又粗| 日韩女优视频网站一区二区三区| 亚洲av无码一区二区一二区| 99久久亚洲精品无码毛片| 人妻av一区二区三区av免费| 亚洲视频在线免费观看一区二区| 少妇高潮太爽了在线看| 国产高清在线精品一区二区三区 | AV无码专区亚洲AVL在线观看| 各类熟女熟妇激情自拍| 亚洲香蕉成人av网站在线观看| 亚洲av成人无码网天堂| 青青草极品视频在线播放| 亚洲国产精品国自拍av| 日韩精品久久久久久久电影蜜臀| 无码少妇一级AV便在线观看| 日本av一区二区播放| 激情在线一区二区三区视频| 色吊丝中文字幕| 国产精品成人午夜久久| 青青草精品在线免费观看| 美国少妇性xxxx另类| 99精品视频在线观看| 国产粉嫩美女一区二区三| 国产亚洲精品品视频在线| 国产无套内射久久久国产| 国产一区二区牛影视| 国产91大片在线观看| 国产欧美日韩中文久久| 亚洲av男人的天堂在线观看| 欧美日韩亚洲国产无线码| 91亚洲国产成人精品一区.| 东京热人妻无码一区二区av| 国产精品亚洲一区二区杨幂|