亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        面向?qū)ο蠛蚐VM結(jié)合的無人機(jī)數(shù)據(jù)建筑物提取

        2017-04-17 01:18:26王旭東段福洲屈新原李丹余攀鋒
        自然資源遙感 2017年1期
        關(guān)鍵詞:測(cè)量點(diǎn)建筑物精度

        王旭東, 段福洲, 屈新原, 李丹, 余攀鋒

        (1.首都師范大學(xué)資源環(huán)境與旅游學(xué)院,北京 100048; 2.三維信息獲取與應(yīng)用教育部重點(diǎn)實(shí)驗(yàn)室,北京 100048; 3.武漢天地星圖科技有限公司,武漢 430014)

        面向?qū)ο蠛蚐VM結(jié)合的無人機(jī)數(shù)據(jù)建筑物提取

        王旭東1,2, 段福洲1,2, 屈新原1,2, 李丹1,2, 余攀鋒3

        (1.首都師范大學(xué)資源環(huán)境與旅游學(xué)院,北京 100048; 2.三維信息獲取與應(yīng)用教育部重點(diǎn)實(shí)驗(yàn)室,北京 100048; 3.武漢天地星圖科技有限公司,武漢 430014)

        建筑物提取時(shí)結(jié)合歸一化數(shù)字表面模型(nDSM)的高度信息可以提高其提取精度。通常高度信息由LiDAR數(shù)據(jù)生成高精度3D點(diǎn)云獲得。但由于獲取成本較高,尋找替代LiDAR點(diǎn)云生成高度信息的數(shù)據(jù)至關(guān)重要,為此該文探討攝影測(cè)量點(diǎn)云生成nDSM用于建筑物提取的可適用性。采用無人機(jī)影像作為單一數(shù)據(jù)源,選取漢旺鎮(zhèn)和林扒鎮(zhèn)2個(gè)研究區(qū)進(jìn)行實(shí)驗(yàn),利用面向?qū)ο蠹夹g(shù)與支持向量機(jī)(SVM)相結(jié)合的方法進(jìn)行建筑物提取。首先,采用Pix4D Mapper生成攝影測(cè)量點(diǎn)云,通過基于不規(guī)則三角網(wǎng)加密濾波方法和反距離加權(quán)法插值生成nDSM影像; 其次,對(duì)無人機(jī)RGB影像進(jìn)行分割,選取9種屬性特征( 2種高度屬性和7種光譜屬性)作為建筑物的識(shí)別屬性; 最后,利用SVM分類器進(jìn)行建筑物提取,采用形態(tài)學(xué)濾波方法進(jìn)行后處理。研究結(jié)果表明,漢旺研究區(qū)提取的完整率為85.5%,正確率為83.9%; 林扒研究區(qū)提取的完整率為92.5%,正確率為78.6%。攝影測(cè)量點(diǎn)云生成的nDSM在建筑物提取應(yīng)用中適用性較好,可以有效提高建筑物的提取精度,并且大大降低了成本。

        無人機(jī)影像; Pix4D Mapper; 攝影測(cè)量點(diǎn)云; nDSM; 面向?qū)ο螅?支持向量機(jī)(SVM); 建筑物提取

        0 引言

        隨著現(xiàn)代化建設(shè)的高速發(fā)展,建筑物信息在城市規(guī)劃與災(zāi)害應(yīng)急領(lǐng)域具有重要的意義,例如地理信息系統(tǒng)的數(shù)據(jù)庫更新、專題圖制作、城市監(jiān)測(cè)、3D城市建模、災(zāi)害損失評(píng)估與管理以及土地利用變化評(píng)估等[1-3]。利用遙感技術(shù)快速、精確地提取建筑物信息具有較強(qiáng)的現(xiàn)實(shí)意義。

        傳統(tǒng)建筑物提取方法主要是利用航空影像進(jìn)行目視解譯,耗費(fèi)大量人力、物力,提取效率較低。近年來,隨著影像空間分辨率的提高,高空間分辨率影像相比于中低空間分辨率影像具有更為豐富的專題信息; LiDAR(light detection and ranging)技術(shù)也逐漸成熟,其可以生成提取建筑物需要的關(guān)鍵高度信息[4]。國內(nèi)外學(xué)者利用高空間分辨率遙感影像和LiDAR數(shù)據(jù)進(jìn)行建筑物提取,已取得了豐碩的研究成果[5-10]。Gerke等[11]和Ke等[12]的研究證實(shí),在基于高空間分辨率遙感數(shù)據(jù)的地物提取中,影像光譜信息和高度信息的結(jié)合使用所獲取的建筑物提取精度要高于單獨(dú)使用光譜信息或者高度信息,而這些研究中的高度信息通常是由LiDAR點(diǎn)云數(shù)據(jù)經(jīng)過處理生成的。

        無人機(jī)遙感平臺(tái)作為新的遙感平臺(tái),具有高時(shí)效、便捷等特性,獲取的影像具有高空間分辨率、高重疊度的特征,已成功應(yīng)用于災(zāi)害應(yīng)急和地物信息提取[13-15],在高效率建筑物提取方面具備很大的潛力。隨著多視立體密集匹配算法的發(fā)展,多航帶、高重疊度的無人機(jī)影像能夠生成更密集和更完整的3D攝影測(cè)量點(diǎn)云。然而,利用無人機(jī)影像生成的攝影測(cè)量點(diǎn)云,進(jìn)而派生出的高度信息在建筑物提取上的適用性,以及能否提高建筑物提取的精度,還有待驗(yàn)證。

        高空間分辨率影像光譜特征明顯,但同物異譜和異物同譜的現(xiàn)象普遍存在?;谙袼氐姆椒▽?duì)高空間分辨率影像進(jìn)行地物提取會(huì)產(chǎn)生椒鹽效應(yīng),并且只能利用影像的光譜信息及其派生的紋理信息; 而面向?qū)ο蟮姆椒軌驅(qū)⒂跋穹指畛梢幌盗型|(zhì)區(qū)域,把這些同質(zhì)區(qū)域作為一個(gè)對(duì)象處理,除影像光譜信息、紋理信息外,還可以利用形狀信息和幾何信息等,已被廣泛應(yīng)用于地物提取[16-17]。已有研究證明,對(duì)于高空間分辨率影像,采用面向?qū)ο蠓椒ǖ奶崛【雀哂诨谙袼氐姆椒╗18]。因此,針對(duì)高空間分辨率的無人機(jī)影像,采用面向?qū)ο蟮姆椒ㄟM(jìn)行建筑物提取,并在分類特征中加入高度信息,以探討攝影測(cè)量點(diǎn)云派生的高度信息在建筑物提取上的適用性,并檢驗(yàn)其能否提高建筑物的提取精度。

        選取四川省綿竹市漢旺鎮(zhèn)和河南省鄧州市林扒鎮(zhèn)2個(gè)地區(qū)作為研究區(qū),以高空間分辨率無人機(jī)航空影像作為單一數(shù)據(jù)源。利用無人機(jī)影像的多航帶、高重疊度特點(diǎn),從不同攝影角度對(duì)同一地物拍攝多幅影像,基于計(jì)算機(jī)視覺的運(yùn)動(dòng)恢復(fù)結(jié)構(gòu)(structure from motion, SfM)算法和多視立體(multi-view stereo, MVS)密集匹配算法,對(duì)影像進(jìn)行3D重建,生成3D攝影測(cè)量點(diǎn)云[19],結(jié)合GPS數(shù)據(jù),生成歸一化數(shù)字表面模型(normalized digital surface model,nDSM)高度信息,采用面向?qū)ο蠹夹g(shù)和支持向量機(jī)(support vector machine,SVM)分類器相結(jié)合的方法進(jìn)行建筑物提取,探討攝影測(cè)量點(diǎn)云生成的高度信息用于建筑物提取的適用性。

        1 研究區(qū)概況及數(shù)據(jù)源

        1.1 研究區(qū)概況

        漢旺鎮(zhèn)位于四川盆地西北部(N31°24′7.909″~31°24′22.872″,E104°10′49.747″~104°11′7.499″),面積約53 590 m2,屬亞熱帶季風(fēng)性濕潤氣候區(qū)。該區(qū)內(nèi)有大量安置住房,建筑物密度較小。林扒鎮(zhèn)位于河南省南陽盆地西南邊緣(N32°33′50.172″~32°34′12.458″,E111°54′8.217″~111°54′42.426″),面積約48 959 m2,屬大陸性季風(fēng)性半濕潤氣候區(qū)。該區(qū)內(nèi)建筑物密度較大,且西南部林木密度也較大,部分建筑物被樹木覆蓋或被樹木陰影遮擋,且建筑物灰度值低。2個(gè)研究區(qū)如圖 1所示。

        (a) 漢旺研究區(qū) (b) 林扒研究區(qū)

        圖1 研究區(qū)概況及參考圖

        Fig.1 Location map of study areas with reference polygons

        1.2 數(shù)據(jù)源

        數(shù)據(jù)源為漢旺鎮(zhèn)與林扒鎮(zhèn)無人機(jī)拍攝遙感影像,獲取時(shí)間分別為2009年5月和2010年9月。采用的拍攝系統(tǒng)為Sky-01C中型無人機(jī)平臺(tái),載荷為佳能5D Mark Ⅱ全面幅單反相機(jī),35 mm光圈鏡頭,有效像素為2 110萬。用于驗(yàn)證的建筑物多邊形是對(duì)正射影像目視解譯結(jié)果進(jìn)行數(shù)字化獲得。漢旺和林扒研究區(qū)建筑物對(duì)象總數(shù)分別為74個(gè)和76個(gè)。

        2 研究方法

        研究方法共分為4個(gè)步驟如圖2所示。

        圖2 技術(shù)流程圖

        Fig.2 Technology flowchart of building extraction procedure

        2.1 無人機(jī)影像預(yù)處理

        采用SfM算法和MVS密集匹配方法對(duì)無人機(jī)影像進(jìn)行處理,生成攝影測(cè)量點(diǎn)云,然后基于不規(guī)則三角網(wǎng)加密的濾波方法進(jìn)行點(diǎn)云濾波,進(jìn)而插值計(jì)算生成數(shù)字表面模型(digital surface model, DSM)、數(shù)字高程模型(digital elevation model, DEM)和歸一化數(shù)字表面模型nDSM。其中,DSM是包含地物(房屋、樹木等)高程的柵格模型,DEM是剔除地物(房屋、樹木等)高程,僅包含地面高程的柵格模型。

        首先使用Pix4D Mapper數(shù)字?jǐn)z影測(cè)量軟件進(jìn)行空中三角加密,生成攝影測(cè)量點(diǎn)云及正射影像。使用TerraScan內(nèi)置的基于不規(guī)則三角網(wǎng)加密濾波方法進(jìn)行點(diǎn)云濾波[20-22],得到地面點(diǎn)云。利用生成的原始攝影測(cè)量點(diǎn)云以及經(jīng)過濾波之后生成的地面點(diǎn)云,通過ArcGIS反距離加權(quán)法(inverse distance weighted, IDW)插值運(yùn)算,分別生成與正射影像具有相同空間分辨率的DSM和DEM。通過DSM與DEM進(jìn)行相減計(jì)算得到nDSM高度信息(圖 3)。

        (a) 漢旺研究區(qū)(b) 林扒研究區(qū)

        圖3 研究區(qū)nDSM影像

        Fig.3 nDSM images of study areas

        2.2 建筑物提取

        面向?qū)ο蠓椒ㄌ崛〗ㄖ锇?個(gè)步驟: ①通過圖像分割算法創(chuàng)建圖像對(duì)象; ②基于圖像對(duì)象的分類特征選?。?③基于分類特征進(jìn)行分類。

        2.2.1 圖像分割

        采用eCognition 8.9軟件中的多尺度分割方法來實(shí)現(xiàn)影像分割。多尺度分割方法是一種自下而上的分割技術(shù)。 首先從一個(gè)像素對(duì)象開始,隨后基于異質(zhì)性的最小增長(zhǎng)率合并對(duì)象周圍的像素,經(jīng)過多次迭代運(yùn)算,最終生成較大的對(duì)象[12, 23]。

        分割參數(shù)主要考慮以下4個(gè)方面[12, 24]: ①波段權(quán)重; ②顏色(或形狀)權(quán)重 ; ③緊致度(或平滑度)權(quán)重; ④尺度。其中,波段權(quán)重根據(jù)波段的重要性來確定; 顏色權(quán)重關(guān)系到分割時(shí)影像光譜值在整個(gè)均質(zhì)度中相對(duì)于形狀所占比重; 緊致度權(quán)重決定了分割對(duì)象的形狀特征; 尺度參數(shù)關(guān)系分割對(duì)象的大小,最終影響分類結(jié)果。

        利用無人機(jī)RGB影像進(jìn)行分割,經(jīng)過反復(fù)試驗(yàn),分割參數(shù)設(shè)置如表 1所示。

        表1 分割參數(shù)設(shè)置

        2.2.2 分類特征選取

        面向?qū)ο蠓椒ㄖ?,分割?duì)象包含多種特征,例如幾何特征、光譜特征等。無人機(jī)影像的波段少,光譜信息不豐富,而攝影測(cè)量點(diǎn)云可以生成高度信息,可以利用高度信息區(qū)分有高度的建筑物與其他地物類別。而植被同樣為具有高度特征的地物類別,但其光譜特征明顯,可通過光譜亮度、對(duì)比度及植被指數(shù)等進(jìn)行區(qū)分。

        2.2.2.1幾何特征

        1)nDSM高度信息(Height)作為幾何特征用來區(qū)分有高度特征的地物。由于建筑物形狀不規(guī)則,使用多尺度分割方法進(jìn)行影像分割,分割后的建筑物多邊形不規(guī)則,故長(zhǎng)度、寬度和周長(zhǎng)等幾何特征在建筑物提取上都不如高度特征明顯。

        2)高度標(biāo)準(zhǔn)差(height standard deviation,HSTD)同樣用來區(qū)分高度對(duì)象,由于建筑物的高度較一致,標(biāo)準(zhǔn)差較?。?而植被由于有樹干和枝葉,高度可能不一致,標(biāo)準(zhǔn)差相對(duì)較大[25]。

        2.2.2.2光譜特征

        光譜特征除了選取影像的紅光、綠光和藍(lán)光3個(gè)波段DN值外,還選取了綠度、亮度、紅綠植被指數(shù)以及綠光波段對(duì)比度4種特征。

        1)綠度(green radio,GR)由于植被的綠光波段DN值通常比紅光和藍(lán)光波段要高,可以采用綠度檢測(cè)植被。綠度定義為

        (1)

        式中Green,Red和Blue分別為影像綠光、紅光和藍(lán)光波段DN值。

        2)亮度(brightness,BRT)取紅光、綠光和藍(lán)光3個(gè)波段的亮度平均值,由于樹木反射率低,亮度通常比其他地物更低。

        3)紅綠植被指數(shù)(green red vegetation index,GRVI)和歸一化植被指數(shù)(normalized different vegetation index,NDVI)利用近紅外波段和紅光波段類似,GRVI采用綠光波段代替近紅外波段。GRVI值域?yàn)?-1,1),其中綠色植被的GRVI值大于0。計(jì)算公式為

        (2)

        4)綠光波段對(duì)比度(band green contrast,BGC)來源于灰度共生矩陣,表示綠光波段光譜的異質(zhì)性,用來度量局部方差值。由于樹木具有葉子和枝干,在灰度共生矩陣中,樹木通常比建筑物具有更大的對(duì)比度[26]。

        2.2.3 SVM分類

        采用SVM算法進(jìn)行分類,SVM為監(jiān)督型機(jī)器學(xué)習(xí)算法,最早由Cortes和Vapnik提出,在小樣本、非線性情況下,具有較好的泛化性能[27-29]。SVM的核心思想就是把學(xué)習(xí)樣本非線性映射到高維特征空間,在高維特征空間構(gòu)造線性判別函數(shù),將原樣本空間中非線性可分的問題轉(zhuǎn)化為在高維特征空間線性可分的問題[30]。本文選取LibSVM軟件包進(jìn)行SVM分類,基于徑向基核函數(shù)(radial basis function, RBF),采用網(wǎng)格劃分法尋找最優(yōu)參數(shù)(懲罰系數(shù)c與核函數(shù)半徑g),進(jìn)而建立模型。

        SVM還需要選取訓(xùn)練樣本進(jìn)行學(xué)習(xí)。首先對(duì)各類地物進(jìn)行目視解譯,按照均勻采樣的原則勾畫地物多邊形; 其次,對(duì)多邊形和多尺度分割的分割結(jié)果進(jìn)行相交,相交后的多邊形對(duì)象作為樣本集,按照分層采樣的思想從每類樣本中隨機(jī)選出2/3的樣本作為訓(xùn)練樣本,通過目視解譯在漢旺和林扒研究區(qū)分別選取的每類地物個(gè)數(shù)見表2。

        表2 各類地物的樣本個(gè)數(shù)

        2.3 建筑物提取后處理

        SVM分類的建筑物提取結(jié)果通常會(huì)出現(xiàn)類別錯(cuò)分現(xiàn)象,或者多尺度分割時(shí)產(chǎn)生的碎屑多邊形在分類過程中沒有被消除掉,因此需要進(jìn)行后處理。處理時(shí)首先根據(jù)研究區(qū)建筑物高度實(shí)地考察結(jié)果設(shè)定高度閾值。漢旺研究區(qū)由于有安置住房,建筑物高度較低,閾值設(shè)定為1.5 m,林扒研究區(qū)屬于城鎮(zhèn)區(qū)域,閾值設(shè)定為3 m。SVM分類中出現(xiàn)的小于閾值高度的錯(cuò)分類別,通過二值化予以剔除。剔除錯(cuò)分之后利用形態(tài)學(xué)濾波去除建筑物圖像中的碎屑多邊形。

        2.4 精度評(píng)價(jià)方法

        雖然建立混淆矩陣和計(jì)算Kappa系數(shù)常被作為地物分類的精度評(píng)價(jià)方法,而對(duì)于建筑物提取通常只需區(qū)分目標(biāo)提取類別,因此可根據(jù)提取的面積,采用建筑物提取的完整率(生產(chǎn)者精度)和正確率(用戶精度)進(jìn)行評(píng)價(jià)[31]。完整率是指正確提取的建筑物面積占參考數(shù)據(jù)中建筑物總面積的比例,從另一側(cè)面則反映了有多少面積的建筑物區(qū)域沒能被提取出來; 正確率是指正確提取的建筑物面積占提取結(jié)果中建筑物總面積的比例,也可反映有多少面積不是建筑物卻誤認(rèn)為是建筑物而被提取出來[3]。

        3 結(jié)果與分析

        從攝影測(cè)量點(diǎn)云的生成精度、點(diǎn)云生成的高度信息在分類特征中的權(quán)重分析、高度信息對(duì)提高建筑物提取精度的定量評(píng)估3個(gè)方面探討攝影測(cè)量點(diǎn)云用于建筑物提取的有效性。

        3.1 點(diǎn)云生成精度

        攝影測(cè)量點(diǎn)云是通過Pix4D Mapper生成,其自動(dòng)生成空三精度報(bào)告,用于快速評(píng)估點(diǎn)云質(zhì)量。其中漢旺和林扒研究區(qū)光束法平差的中誤差值分別為0.28 像元和0.14 像元。證明Pix4D Mapper生成的點(diǎn)云質(zhì)量可以滿足精度要求。

        3.2 高度信息的權(quán)重分析

        除了需要說明點(diǎn)云的生成質(zhì)量外,還需要考慮高度信息在所選特征屬性中占的權(quán)重大小。選用內(nèi)置在LibSVM軟件包的F-score工具進(jìn)行權(quán)重分析,權(quán)重值越高表明該特征在分類過程中的作用越大[32](圖 4)。其中,漢旺和林扒研究區(qū)高度特征的屬性權(quán)重排名分別為第二和第三位。漢旺研究區(qū)權(quán)重值最高的為綠度,是用于識(shí)別植被,排在第二位的為高度特征,是提取建筑物的重要特征: 林扒研究區(qū)權(quán)重值排在前兩位的為綠度和紅綠植被指數(shù),這2種特征都主要用于識(shí)別植被,第三位為高度特征,表明高度特征對(duì)提取建筑物作用最大。通過權(quán)重分析得出,攝影測(cè)量點(diǎn)云生成的高度信息對(duì)建筑物提取是適用的。

        (a) 漢旺研究區(qū) (b) 林扒研究區(qū)

        圖4 研究區(qū)特征權(quán)重值

        Fig.4 Feature importance for two study areas

        3.3 提取精度評(píng)價(jià)

        驗(yàn)證攝影測(cè)量點(diǎn)云對(duì)建筑物提取的適用性,最重要的是定量分析攝影測(cè)量點(diǎn)云生成的高度信息能否顯著提高建筑物的提取精度。提取結(jié)果見圖 5。

        (a) 漢旺研究區(qū) (b) 林扒研究區(qū)

        圖5 研究區(qū)提取結(jié)果

        Fig.5 Building extraction results in two sites

        根據(jù)2.4節(jié)中所述精度評(píng)價(jià)方法,分別對(duì)高度信息參與和未參與特征選取及后處理的建筑物提取結(jié)果進(jìn)行定量評(píng)價(jià)(表3)。通過對(duì)比發(fā)現(xiàn): ①在漢旺研究區(qū),高度信息的參與使完整率提高了7.6%,正確率提高了41.8%; ②在林扒研究區(qū),由于高度信息的參與使完整率提高了3.8%,正確率提高了15.5%。結(jié)果表明攝影測(cè)量點(diǎn)云生成的高度信息可以顯著提高建筑物提取精度。

        表3 建筑物提取精度評(píng)價(jià)

        4 結(jié)論

        本文基于無人機(jī)影像作為單一數(shù)據(jù)源,采用面向?qū)ο蠓椒?,結(jié)合SVM分類器,進(jìn)行建筑物提取,研究表明:

        1) 采用無人機(jī)影像作為單一數(shù)據(jù)源,并且應(yīng)用Pix4D Mapper軟件生成攝影測(cè)量點(diǎn)云,獲得地物高度信息,可取得較好的提取效果,這表明攝影測(cè)量點(diǎn)云生成的高度信息可有效提高建筑物提取精度。單一數(shù)據(jù)源可以最大程度地降低數(shù)據(jù)獲取成本,并保持?jǐn)?shù)據(jù)的一致性。

        2) 研究區(qū)中的建筑物復(fù)雜多樣,房屋密集,采用面向?qū)ο蠓椒?,結(jié)合SVM分類器,對(duì)2個(gè)不同特點(diǎn)的研究區(qū)進(jìn)行建筑物提取,都可以取得較高的提取精度,表明該方法具有較好的可移植性和魯棒性。

        3) nDSM的生成精度取決于匹配和濾波算法,因此本文研究受限于匹配精度和濾波效果。后續(xù)研究可以加強(qiáng)匹配和濾波算法的改進(jìn),進(jìn)一步提高建筑物的提取精度。

        [1] Ahmadi S,Zoej M J V,Ebadi H,et al.Automatic urban building boundary extraction from high resolution aerial images using an innovative model of active contours[J].International Journal of Applied Earth Observation and Geoinformation,2010,12(3):150-157.

        [2] Turker M,Koc-San D.Building extraction from high-resolution optical spaceborne images using the integration of support vector machine(SVM) classification,Hough transformation and perceptual grouping[J].International Journal of Applied Earth Observation and Geoinformation,2015,34:58-69.

        [3] 馮甜甜,龔健雅.基于LiDAR數(shù)據(jù)的建筑物自動(dòng)提取方法的比較[J].測(cè)繪通報(bào),2011(2):21-23,47. Feng T T,Gong J Y.Comparison of automatic building extraction methods based on LiDAR data[J].Bulletin of Surveying and Mapping,2011(2):21-23,47.

        [4] Brunn A,Weidner U.Extracting buildings from digital surface models[J].International Archives of Photogrammetry and Remote Sensing,1997,32(3):27-34.

        [5] Awrangjeb M,Ravanbakhsh M,Fraser C S.Automatic detection of residential buildings using LIDAR data and multispectral imagery[J].ISPRS Journal of Photogrammetry and Remote Sensing,2010,65(5):457-467.

        [6] Sohn G,Dowman I.Data fusion of high-resolution satellite imagery and LiDAR data for automatic building extraction[J].ISPRS Journal of Photogrammetry and Remote Sensing,2007,62(1):43-63.

        [7] Rottensteiner F,Trinder J,Clode S,et al.Building detection by fusion of airborne laser scanner data and multi-spectral images:Performance evaluation and sensitivity analysis[J].ISPRS Journal of Photogrammetry and Remote Sensing,2007,62(2):135-149.

        [8] Kabolizade M,Ebadi H,Ahmadi S.An improved snake model for automatic extraction of buildings from urban aerial images and LiDAR data[J].Computers,Environment and Urban Systems,2010,34(5):435-441.

        [9] Wei Y Z,Yao W,Wu J W,et al.Adaboost-based feature relevance assessment in fusing lidar and image data for classification of trees and vehicles in urban scenes[J].ISPRS Annals of Photogrammetry,Remote Sensing and Spatial Information Sciences,2012,I-7(7):323-328.

        [10]Grigillo D,Kanjir U.Urban object extraction from digital surface model and digital aerial images[J].ISPRS Annals of Photogrammetry,Remote Sensing and Spatial Information Sciences,2012,I-3(3):215-220.

        [11]Gerke M,Xiao J.Fusion of airborne laserscanning point clouds and images for supervised and unsupervised scene classification[J].ISPRS Journal of Photogrammetry and Remote Sensing,2014,87:78-92.

        [12]Ke Y H,Quackenbush L J,Im J.Synergistic use of QuickBird multispectral imagery and LIDAR data for object-based forest species classification[J].Remote Sensing of Environment,2010,114(6):1141-1154.

        [13]汪小欽,王苗苗,王紹強(qiáng),等.基于可見光波段無人機(jī)遙感的植被信息提取[J].農(nóng)業(yè)工程學(xué)報(bào),2015,31(5):152-159. Wang X Q,Wang M M,Wang S Q,et al.Extraction of vegetation information from visible unmanned aerial vehicle images[J].Transactions of the Chinese Society of Agricultural Engineering,2015,31(5):152-159.

        [14]何少林,徐京華,張帥毅.面向?qū)ο蟮亩喑叨葻o人機(jī)影像土地利用信息提取[J].國土資源遙感,2013,25(2):107-112.doi:10.6046/gtzyyg.2013.02.19. He S L,Xu J H,Zhang S Y.Land use classification of object-oriented multi-scale by UAV image[J].Remote Sensing for Land and Resources,2013,25(2):107-112.doi:10.6046/gtzyyg.2013.02.19.

        [15]雷添杰,李長(zhǎng)春,何孝瑩.無人機(jī)航空遙感系統(tǒng)在災(zāi)害應(yīng)急救援中的應(yīng)用[J].自然災(zāi)害學(xué)報(bào),2011,20(1):178-183. Lei T J,Li C C,He X Y.Application of aerial remote sensing of pilotless aircraft to disaster emergency rescue[J].Journal of Natural Disasters,2011,21(1):178-183.

        [16]劉海飛,常慶瑞,李粉玲.高分辨率影像城區(qū)建筑物提取研究[J].西北農(nóng)林科技大學(xué)學(xué)報(bào):自然科學(xué)版,201,413(10):221-227,234. Liu H F,Chang Q R,Li F L.Urban building extraction from high-resolution multi-spectral image with object-oriented classification[J].Journal of Northwest A&F University:Natural Science Edition,2013,41(10):221-227,234.

        [17]Blaschke T,Hay G J,Kelly M,et al.Geographic object-based image analysis-towards a new paradigm[J].ISPRS Journal of Photogrammetry and Remote Sensing,2014,87(100):180-191.

        [18]Khoshelham K,Nardinocchi C,Frontoni E,et al.Performance evaluation of automated approaches to building detection in multi-source aerial data[J].ISPRS Journal of Photogrammetry and Remote Sensing,2010,65(1):123-133.

        [19]Dandois J P,Ellis E C.High spatial resolution three-dimensional mapping of vegetation spectral dynamics using computer vision[J].Remote Sensing of Environment,2013,136:259-276.

        [20]Sithole G,Vosselman G.Experimental comparison of filter algorithms for bare-earth extraction from airborne laser scanning point clouds[J].ISPRS Journal of Photogrammetry and Remote Sensing,2004,59(1/2):85-101.

        [21]黃先鋒,李卉,王瀟,等.機(jī)載LiDAR數(shù)據(jù)濾波方法評(píng)述[J].測(cè)繪學(xué)報(bào),2009,38(5):466-469. Huang X F,Li H,Wang X,et al.Filter algorithms of airborne LiDAR data:Review and prospects[J].Acta Geodaetica et Cartographica Sinica,2009,38(5):466-469.

        [22]黃金浪.基于TerraScan的LiDAR數(shù)據(jù)處理[J].測(cè)繪通報(bào),2007(10):13-16. Huang J L.LiDAR data processing based on TerraScan[J].Bulletin of Surveying and Mapping,2007(10):13-16.

        [23]Baatz M,Sch?pe A.Multiresolution segmentation:An optimization approach for high quality multi-scale image segmentation[J].Angewandte Geographische Informationsverarbeitung XII,2000,58(3/4):12-23.

        [24]Li D,Ke Y H,Gong H L,et al.Object-based urban tree species classification using bi-temporal WorldView-2 and WorldView-3 images[J].Remote Sensing,2015,7(12):16917-16937.

        [25]Dash J,Steinle E,Singh R P,et al.Automatic building extraction from laser scanning data:An input tool for disaster management[J].Advances in Space Research,2004,33(3):317-322.

        [26]Rau J Y,Jhan J P,Hsu Y C.Analysis of oblique aerial images for land cover and point cloud classification in an urban environment[J].IEEE Transactions on Geoscience and Remote Sensing,2015,53(3):1304-1319.

        [27]Van Der Linden S,Janz A,Waske B,et al.Classifying segmented hyperspectral data from a heterogeneous urban environment using support vector machines[J].Journal of Applied Remote Sensing,2007,1(1):013543.

        [28]Waske B,Benediktsson J A,rnason K,et al.Mapping of hyperspectral AVIRIS data using machine-learning algorithms[J].Canadian Journal of Remote Sensing,2009,35(S1):S106-S116.

        [29]Tigges J,Lakes T,Hostert P.Urban vegetation classification:Benefits of multitemporal RapidEye satellite data[J].Remote Sensing of Environment,2013,136:66-75.

        [30]梅建新.基于支持向量機(jī)的高分辨率遙感影像的目標(biāo)檢測(cè)研究[D].武漢:武漢大學(xué),2004. Mei J X.Study on Object Detection for High Resolution Remote Sensing Images Based on Support Vector Machines[D].Wuhan:Wuhan University,2004.

        [31]Rutzinger M,Rottensteiner F,Pfeifer N.A comparison of evaluation techniques for building extraction from airborne laser scanning[J].IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing,2009,2(1):11-20.

        [32]Chen Y W,Lin C J.Combining SVMs with Various Feature Selection Strategies[M] // Guyon I,Nikravesh M,Gunn S,et al,eds.Feature Extraction.Berlin Heidelberg:Springer,2006:315-324.

        (責(zé)任編輯: 陳理)

        Building extraction based on UAV imagery data with the synergistic use of objected-based method and SVM classifier

        WANG Xudong1,2, DUAN Fuzhou1,2, QU Xinyuan1,2, LI Dan1,2, YU Panfeng3

        (1.CollegeofResourcesEnvironmentandTourism,CapitalNormalUniversity,Beijing100048,China; 2.KeyLabof3DInformationAcquisitionandApplicationofMinistryofEducation,Beijing100048,China; 3.WuhanWorldStarChartTechnologyCo.,Ltd,Wuhan430014,China)

        Height information created by LiDAR data is generally used for building extraction. LiDAR data can produce highly accurate, reliable 3D point clouds of ground objects. However, LiDAR data is expensive. In view of such a situation, this study aims to extract buildings solely using UAV imagery data. The height information used is created by point clouds derived from UAV stereo pairs through dense matching algorithm. In this study, UAV imagery was used as a single remote sensing data source and building extraction was carried out by the integration of objected-based method and SVM classification. In the preprocessing period, Pix4D Mapper was used for aerial triangulation and photogrammetric point clouds generation. Then, an objected-based method that utilized spectral information and geometric features was developed, the object height was derived from photogrammetric point clouds to assist in the detection of the building. Finally, the building boundaries were extracted through SVM classifier. In the post-processing procedure, morphological operations were applied to remove small objects from building images. To validate the photogrammetric point cloud usefulness, experiments were conducted on UAV imagery data, covering the selected test areas in Hanwang Town of Sichuan Province and Linpa Town of Henan Province. The building extraction accuracy was accessed on the test areas, and building detection completeness of Hanwang test area is 85.5%, detection correction is 83.9%; building detection completeness of Linpa test area is 92.5%, detection correction is 78.6%. The results show that nDSM derived from photogrammetric point clouds can be used for building extraction, and can improve the detection accuracy of the building.

        UAV imagery data; Pix4D Mapper; photogrammetric point clouds; nDSM; objected-based; SVM; building extraction

        10.6046/gtzyyg.2017.01.15

        王旭東,段福洲,屈新原,等.面向?qū)ο蠛蚐VM結(jié)合的無人機(jī)數(shù)據(jù)建筑物提取[J].國土資源遙感,2017,29(1):97-103.(Wang X D,Duan F Z,Qu X Y,et al.Building extraction based on UAV imagery data with the synergistic use of objected-based method and SVM classifier[J].Remote Sensing for Land and Resources,2017,29(1):97-103.)

        2015-09-18;

        2016-01-06

        王旭東(1990- ),男,碩士,主要從事無人機(jī)影像處理和三維建模研究。Email: wangxudong1304@163.com。

        TP 751.1

        A

        1001-070X(2017)01-0097-07

        猜你喜歡
        測(cè)量點(diǎn)建筑物精度
        飛機(jī)部件數(shù)字化調(diào)姿定位測(cè)量點(diǎn)的優(yōu)選與構(gòu)造算法
        鄰近既有建筑物全套管回轉(zhuǎn)鉆機(jī)拔樁技術(shù)
        淺析沖壓件測(cè)量點(diǎn)的規(guī)劃
        模具制造(2019年10期)2020-01-06 09:13:08
        描寫建筑物的詞語
        基于CAD模型的三坐標(biāo)測(cè)量機(jī)測(cè)量點(diǎn)分布規(guī)劃
        PM2.5空中探測(cè)器的設(shè)計(jì)
        基于DSPIC33F微處理器的采集精度的提高
        電子制作(2018年11期)2018-08-04 03:25:38
        GPS/GLONASS/BDS組合PPP精度分析
        火柴游戲
        改進(jìn)的Goldschmidt雙精度浮點(diǎn)除法器
        欧美日本国产三级在线| 国产人妖乱国产精品人妖| 亚洲精品久久一区二区三区777| 美女自卫慰黄网站| 亚洲日本国产乱码va在线观看| 中文字幕人乱码中文字幕乱码在线 | 国产精品综合色区av| 夜晚黄色福利国产精品| 亚洲熟妇无码一区二区三区导航| 男人无码视频在线观看| 国精品无码一区二区三区在线蜜臀| 国产91中文| 精品少妇人妻久久免费| 偷拍夫妻视频一区二区| 国产精品ⅴ无码大片在线看| 国产91色在线|亚洲| 高清成人在线视频播放| 久久99精品久久久久久琪琪| 亚洲va中文字幕无码| 精品一区二区三区在线视频观看| 亚洲精品综合中文字幕组合| 精品久久久bbbb人妻| 国语对白做受xxxxx在线中国| 国产一区二区在线观看我不卡 | 亚洲青涩在线不卡av| 日本一区二区三区视频免费观看| 亚洲日韩国产一区二区三区在线| 精品无码AⅤ片| 看中文字幕一区二区三区| 精品卡一卡二卡3卡高清乱码| 色狠狠一区二区三区香蕉| 中国产无码一区二区三区| 精品人妻av一区二区三区麻豆| 亚洲国产精品ⅴa在线观看| 色综合久久无码中文字幕app| 亚洲视频在线免费观看一区二区 | 成人a级视频在线观看| 亚洲欧美性另类春色| 麻豆成人久久精品一区| 亚洲图片日本视频免费| 亚洲综合免费|