亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于人工智能的無(wú)人機(jī)測(cè)繪遙感圖像信息提取方法

        2023-12-18 05:54:08陳立娜
        電子設(shè)計(jì)工程 2023年24期
        關(guān)鍵詞:測(cè)繪特征信息

        陳立娜,李 真,宋 輝

        (國(guó)網(wǎng)河南省電力公司內(nèi)鄉(xiāng)縣供電公司,河南內(nèi)鄉(xiāng) 474350)

        無(wú)人機(jī)測(cè)繪遙感是當(dāng)前遙感技術(shù)發(fā)展的一個(gè)重要方向,它在實(shí)時(shí)性、針對(duì)性和靈活性等方面具有很大的優(yōu)勢(shì),是獲取遙感資料的一個(gè)重要方法。但是在實(shí)際應(yīng)用中,不能很好地提取出一些細(xì)節(jié)特征。因此,對(duì)無(wú)人機(jī)測(cè)繪遙感圖像信息進(jìn)行提取具有重要意義。

        劉強(qiáng)[1]等提出卷積神經(jīng)網(wǎng)絡(luò)模型方法,采用基于分類(lèi)的方法對(duì)各個(gè)像素進(jìn)行分類(lèi),在像素水平上的提取精確度可能會(huì)很高,但是也很容易忽視像素與像素之間的相互關(guān)系。由于實(shí)際場(chǎng)景的復(fù)雜性和多樣性,使用該方法常常會(huì)受到目標(biāo)對(duì)象大量變化、目標(biāo)遮擋和重疊、目標(biāo)缺乏高識(shí)別特性以及光照變化等原因,使得提取模型缺乏泛化能力。鄭蓉珍[2]等提出將無(wú)人機(jī)影像與數(shù)字地表模型相融合,利用最大似然法提高圖像識(shí)別準(zhǔn)確率。然而該方法已經(jīng)無(wú)法適應(yīng)高分辨率圖像的要求。為此,提出了基于人工智能的無(wú)人機(jī)測(cè)繪遙感圖像信息提取方法。

        1 圖像信息提取模型構(gòu)建

        利用無(wú)人機(jī)測(cè)繪與遙感技術(shù)對(duì)多幅無(wú)人機(jī)測(cè)繪遙感圖像進(jìn)行了采集,將所獲得的圖像信息分成若干個(gè)圖像信息,這些圖像信息均為同一像素。利用聚類(lèi)方法,將小圖像信息中的背景信息劃分為亮色裸地、暗色裸地、綠色植被和枯萎植被四種類(lèi)型。指數(shù)NDVI 的表達(dá)公式為:

        式中,I表示圖像紅外波段反射值;R表示標(biāo)準(zhǔn)紅光波段反射值。當(dāng)利用該指數(shù)計(jì)算獲取植被面積[3]占小幅圖像總面積之比大于5%時(shí),認(rèn)為該圖像背景信息是植被,否則是裸地。

        選擇有目標(biāo)的小幅圖像數(shù)據(jù)與無(wú)目標(biāo)的小圖像數(shù)據(jù)相結(jié)合,構(gòu)成一個(gè)圖像數(shù)據(jù)對(duì),從而構(gòu)成多個(gè)圖像數(shù)據(jù)對(duì)。在此基礎(chǔ)上,將圖像數(shù)據(jù)集分為四個(gè)集合:亮色裸地影像數(shù)據(jù)集、暗色裸地影像數(shù)據(jù)集、綠色植被影像數(shù)據(jù)集和枯萎植被影像數(shù)據(jù)集[4]。

        在四組圖像數(shù)據(jù)集合中,分別對(duì)各小圖像數(shù)據(jù)建立學(xué)習(xí)樣點(diǎn),由此構(gòu)成學(xué)習(xí)樣本對(duì)。根據(jù)學(xué)習(xí)樣本對(duì)訓(xùn)練結(jié)果構(gòu)建基于機(jī)器學(xué)習(xí)算法的目標(biāo)提取模型,如圖1 所示。

        圖1 基于機(jī)器學(xué)習(xí)算法的目標(biāo)提取模型

        由圖1 可知,將原無(wú)人機(jī)遙感影像分割為一組n×n尺寸的遙感圖像,在此基礎(chǔ)上繪制一幅標(biāo)簽圖像,并將每幅圖像與其相應(yīng)的標(biāo)簽圖像作為訓(xùn)練數(shù)據(jù)。在上述構(gòu)建的模型中,需要使用2×2 的最大池化函數(shù)max pooling[5]?;跈C(jī)器學(xué)習(xí)的方法,在無(wú)人機(jī)測(cè)繪遙感影像的數(shù)據(jù)抽取中采用了以下卷積過(guò)程:

        過(guò)程1:對(duì)64 個(gè)卷積核進(jìn)行兩次卷積,并執(zhí)行一次池化層處理;

        過(guò)程2:對(duì)128 個(gè)卷積核進(jìn)行兩次卷積,并執(zhí)行一次池化層處理;

        過(guò)程3:對(duì)256 個(gè)卷積核進(jìn)行三次卷積,并執(zhí)行一次池化層處理;

        過(guò)程4:對(duì)512 卷積核進(jìn)行三次卷積,并執(zhí)行一次池化層處理;

        過(guò)程5:采用三階全連接層Fc-layer,并由softmax分類(lèi)器進(jìn)行處理。

        經(jīng)過(guò)卷積處理后,判斷模型輸出的提取準(zhǔn)確度是否達(dá)到閾值,如果沒(méi)有達(dá)到,則需對(duì)圖像數(shù)據(jù)進(jìn)行降維處理,并繼續(xù)更新圖像信息集[6-8];如果達(dá)到,則訓(xùn)練完成,得到圖像信息提取結(jié)果。

        2 遙感圖像信息提取過(guò)程

        基于人工智能的無(wú)人機(jī)測(cè)繪遙感圖像信息提取方法包括以下步驟。

        步驟1:圖像特征融合

        1)利用RGB 三通道圖像進(jìn)行卷積操作,獲得了尺寸為0.5n×0.5n、2n×2n的RGB 三通道圖像[9];

        2)將2n×2n的RGB三通道圖像進(jìn)行端對(duì)端訓(xùn)練,并經(jīng)過(guò)圖像分割處理后,獲得2n×2n的分類(lèi)概率特征圖,并進(jìn)行卷積運(yùn)算,獲得尺寸為n×n的概率特征圖[10];

        3)將0.5n×0.5n的RGB 三通道圖像進(jìn)行端對(duì)端訓(xùn)練,并經(jīng)過(guò)圖像分割處理后,獲得0.5n×0.5n的分類(lèi)概率特征圖,并進(jìn)行卷積運(yùn)算,獲得尺寸為n×n的概率特征圖[11];

        4)將n×n的遙感圖像RGB 經(jīng)端到端訓(xùn)練后,可獲得具有n×n遙感圖像的分類(lèi)概率特征圖[12]。

        結(jié)合上述內(nèi)容,設(shè)計(jì)詳細(xì)圖像特征融合過(guò)程,如圖2 所示。

        圖2 圖像特征融合過(guò)程

        由圖2 可知,將以上所得的三個(gè)大小均為n×n的概率特征圖進(jìn)行統(tǒng)計(jì)學(xué)尺度的圖像特征融合[13],從而得到了目標(biāo)提取模型輸出特征圖。

        步驟2:卷積過(guò)程中的權(quán)值共享

        為了實(shí)時(shí)更新機(jī)器學(xué)習(xí)的判別參數(shù),需要對(duì)卷積過(guò)程進(jìn)行權(quán)值共享。在共享時(shí),需要測(cè)試各個(gè)性能指標(biāo)的取值,形成目標(biāo)相對(duì)優(yōu)屬度矩陣[14]。

        在共享過(guò)程中,需要測(cè)試各個(gè)性能目標(biāo)的取值,基于此構(gòu)成目標(biāo)特征值矩陣,如式(2)所示:

        式(2)中,zij表示第j個(gè)參數(shù)被采集時(shí)第i個(gè)性能目標(biāo)的取值。

        為了準(zhǔn)確分析,應(yīng)采用適當(dāng)?shù)膬?yōu)屬度計(jì)算方法對(duì)目標(biāo)值進(jìn)行標(biāo)準(zhǔn)化處理,將式(2)轉(zhuǎn)化為無(wú)量綱的目標(biāo)相對(duì)優(yōu)屬度矩陣,標(biāo)準(zhǔn)化處理公式為:

        經(jīng)過(guò)標(biāo)準(zhǔn)化處理后,得到目標(biāo)相對(duì)優(yōu)屬度矩陣為:

        式(4)在客觀層面上體現(xiàn)出了各個(gè)參數(shù)對(duì)目標(biāo)的影響,根據(jù)獲取的目標(biāo)相對(duì)優(yōu)屬度矩陣,安全共享卷積過(guò)程中的權(quán)值。

        步驟3:模型訓(xùn)練

        在獲取共享權(quán)值情況下,采用人工智能的機(jī)器學(xué)習(xí)算法進(jìn)行模型訓(xùn)練。通過(guò)訓(xùn)練得到遙感影像和相應(yīng)的標(biāo)記圖像[15],通過(guò)機(jī)器學(xué)習(xí)模型的訓(xùn)練,使得機(jī)器學(xué)習(xí)和識(shí)別過(guò)程之間的關(guān)系趨于均衡。

        步驟4:信息提取

        首先,在n×n幅遙感圖像上添加訓(xùn)練數(shù)據(jù),將其輸入到所構(gòu)造的圖像特征融合處理[16]過(guò)程中;然后,將輸出與n×n大小的遙感圖像進(jìn)行卷積運(yùn)算,并將其作為判別目標(biāo)的輸入內(nèi)容;最后,在確定判別目標(biāo)后,得到一個(gè)介于0 和1 之間的輸出值。如果期望輸出為0,則判別該信息下所對(duì)應(yīng)的圖像是假圖像;如果期望輸出為1,則判別該信息下所對(duì)應(yīng)的圖像是真圖像。

        在機(jī)器學(xué)習(xí)模型中,通常采用模型復(fù)雜度懲罰項(xiàng)η來(lái)衡量其空間容量,η數(shù)值的大小與泛化性能通常是成比例的,它被定義為:

        式中,k表示樣本總數(shù)量;c表示機(jī)器學(xué)習(xí)模型的維數(shù);c值越大,η值也就越大,反之,則越小。因此,在機(jī)器學(xué)習(xí)模型維數(shù)一定的情況下,增加訓(xùn)練樣本數(shù)量,能夠避免提取模型在提取信息過(guò)程中出現(xiàn)過(guò)擬合現(xiàn)象。

        3 實(shí) 驗(yàn)

        3.1 實(shí)驗(yàn)區(qū)域與數(shù)據(jù)

        為了驗(yàn)證基于人工智能的無(wú)人機(jī)測(cè)繪遙感圖像信息提取方法的有效性,實(shí)驗(yàn)區(qū)域?yàn)槟吵鞘心车貐^(qū)的焦化工廠,位于礦區(qū)詳查區(qū)的西南部,面積約1.60平方公里,高程在1 150~1 210 m 之間,該地區(qū)的地形中西部較高,西北部較低。

        無(wú)人機(jī)測(cè)繪遙感圖像是在2021 年5 月6 日9:00時(shí)拍攝的,天氣晴但有霧,使用某公司制造的eBee Ag 固定翼無(wú)人機(jī)。無(wú)人機(jī)能夠迅速、高效地產(chǎn)生地形圖、正射影像圖、地面數(shù)字模型等數(shù)據(jù)。機(jī)身搭載索尼DSC-WX220 相機(jī),該相機(jī)的鏡頭是索尼的G 鏡頭,它的焦距是4.50~43.5 mm。選取的地物目標(biāo)圖像如圖3 所示。

        圖3 地物目標(biāo)標(biāo)注結(jié)果

        以圖3 所示的目標(biāo)標(biāo)注結(jié)果為研究對(duì)象進(jìn)行實(shí)驗(yàn)驗(yàn)證分析。

        3.2 實(shí)驗(yàn)指標(biāo)

        使用整體像素精度評(píng)估不同信息提取方法下遙感圖像目標(biāo)識(shí)別精度,公式為:

        式中,a、b表示目標(biāo)類(lèi)別;n表示被預(yù)測(cè)成不同類(lèi)的像元數(shù)量;m表示目標(biāo)類(lèi)型數(shù)量。

        3.3 實(shí)驗(yàn)結(jié)果與分析

        在提取遙感圖像信息過(guò)程中,不僅要考慮所收集的圖像數(shù)據(jù),而且需將圖像失真問(wèn)題納入其中。因此,分別使用文獻(xiàn)[1]方法、文獻(xiàn)[2]方法和所提方法,對(duì)比分析無(wú)人機(jī)測(cè)繪遙感圖像提取結(jié)果,如圖4所示。

        圖4 三種方法的圖像提取結(jié)果對(duì)比分析

        由圖4 可知,文獻(xiàn)[1]方法和文獻(xiàn)[2]方法提取的圖像并不全面,導(dǎo)致部分信息丟失,而所提方法提取的圖像全面,且與圖3 所示選取區(qū)域一致,能夠獲取全部圖像信息。

        基于此,分別使用這三種方法對(duì)比分析圖像信息提取的精度和提取過(guò)程的損失情況,如表1 所示。

        表1 三種方法的信息提取精度和損失情況對(duì)比分析

        由表1 可知,文獻(xiàn)[1]方法和文獻(xiàn)[2]方法圖像信息提取精度最高分別為0.70 和0.56,損失程度最高分別為0.52 和0.39。而所提方法提取精度最高為0.93,損失程度最高為0.22。由此可知,所提方法信息提取精度高的同時(shí)損失程度低。

        4 結(jié)束語(yǔ)

        該文提出了一種基于人工智能的無(wú)人機(jī)測(cè)繪遙感圖像信息提取方法,該方法相比于現(xiàn)有的提取方法,提取精度高且損失程度低,可以滿(mǎn)足當(dāng)前實(shí)際需要,通過(guò)使用人工智能方法識(shí)別的圖像和人類(lèi)視覺(jué)效果更接近。在今后的遙感圖像質(zhì)量評(píng)估中,可以從以下方面進(jìn)行:同一區(qū)域內(nèi)不同時(shí)期的遙感圖像,其數(shù)據(jù)自身具有一定的時(shí)間序列性。因此,可以將時(shí)間信息引入到圖像質(zhì)量評(píng)估模式中,以實(shí)現(xiàn)將不同時(shí)期所收集到的數(shù)據(jù)進(jìn)行整合,進(jìn)而優(yōu)化提取方法。

        猜你喜歡
        測(cè)繪特征信息
        如何表達(dá)“特征”
        浙江省第一測(cè)繪院
        工程測(cè)繪中GNSS測(cè)繪技術(shù)的應(yīng)用
        不忠誠(chéng)的四個(gè)特征
        04 無(wú)人機(jī)測(cè)繪應(yīng)用創(chuàng)新受青睞
        抓住特征巧觀察
        訂閱信息
        中華手工(2017年2期)2017-06-06 23:00:31
        無(wú)人機(jī)在地形測(cè)繪中的應(yīng)用
        電子制作(2017年9期)2017-04-17 03:01:00
        展會(huì)信息
        線性代數(shù)的應(yīng)用特征
        河南科技(2014年23期)2014-02-27 14:19:15
        亚洲高清精品50路| 国产精品ⅴ无码大片在线看| 亚洲av无码一区二区三区在线| www.久久av.com| 亚洲hd高清在线一区二区| 一边摸一边抽搐一进一出口述 | 国产精品国产三级国产专播| 内射中出无码护士在线| 国产精品伦人视频免费看| 亚洲女人毛茸茸的视频| 欧洲熟妇色xxxx欧美老妇性| 国产成人亚洲精品无码h在线| 精品久久久久久午夜| 亚洲综合久久精品少妇av| 成人a级视频在线播放| 精品少妇ay一区二区三区| 国产激情久久久久久熟女老人| 亚洲av在线观看播放| 国产午夜福利在线观看红一片 | 免费a级毛片无码| 久久久久国产一级毛片高清版A| 内射中出后入内射极品女神视频| 香蕉视频在线观看亚洲| 自慰无码一区二区三区| 欧洲国产成人精品91铁牛tv| 你懂的视频在线看播放| 亚洲tv精品一区二区三区| 国产中文欧美日韩在线| 亚洲AV成人无码久久精品四虎| 九九久久精品一区二区三区av| 成人试看120秒体验区| 久久亚洲国产精品成人av秋霞 | 久久这里只有精品黄色| 亚洲天堂成人av在线观看| a级毛片无码免费真人| 亚洲国产精品自拍一区| 被暴雨淋湿爆乳少妇正在播放| 久久精品中文字幕有码| 日本怡春院一区二区三区| 亚洲av美女在线播放啊| 丝袜美腿一区在线观看|