Yun ZHANG
新不倫瑞克大學(xué)大地測量與地球空間信息工程系,加拿大高級地球空間信息圖像處理實(shí)驗(yàn)室,加拿大 新不倫瑞克省,弗雷德里克頓,E3B5A3
攝影測量已有170多年的歷史。它經(jīng)歷了四個(gè)主要的發(fā)展階段,即地面和氣球攝影測量、模擬攝影測量、解析攝影測量和數(shù)字?jǐn)z影測量。這四個(gè)主要階段與攝影術(shù)、飛機(jī)、計(jì)算機(jī)和電子器件(數(shù)碼相機(jī)和數(shù)碼掃描儀)的技術(shù)發(fā)明有直接關(guān)系[1]。
Daguerre和Niepce早在1839年就發(fā)明了攝影術(shù),之后便開始了早期的地面和氣球攝影測量。Pulfrich于1901年發(fā)明了航空立體攝影測量, Orel于1908年研發(fā)了第一臺光學(xué)機(jī)械立體測繪儀,隨后便開始了模擬攝影測量。在解析攝影測量方面,第一個(gè)研究成果出現(xiàn)于20世紀(jì)50年代,該成果利用平差理論和計(jì)算機(jī)程序來解決一些攝影測量問題。然而直到20世紀(jì)60年代后期,第一個(gè)可操作的解析攝影測量計(jì)算機(jī)程序才得以實(shí)現(xiàn)。至于數(shù)字?jǐn)z影測量(用數(shù)字影像代替硬拷貝照片),有關(guān)系統(tǒng)試驗(yàn)的最初報(bào)道在20世紀(jì)80年代已經(jīng)出現(xiàn),然后經(jīng)過90年代的進(jìn)一步改進(jìn)、完善和鞏固,在2000年開始了攝影測量的全數(shù)字化時(shí)代[2]。
“遙感”一詞最初出現(xiàn)于1960年,它反映了從使用飛機(jī)到使用衛(wèi)星進(jìn)行地球影像采集的過渡,也反映了從幾何信息處理到光譜信息處理的轉(zhuǎn)化。第一張衛(wèi)星照片是一張由美國攝影偵察衛(wèi)星于1960年拍攝的黑白照片[3]。12年后,美國于1972年發(fā)射了第一顆民用地球觀測衛(wèi)星Landsat-1,該衛(wèi)星提供了60 m分辨率的4波段多光譜影像。1999年第一顆高分辨率商業(yè)衛(wèi)星IKONOS成功發(fā)射,該衛(wèi)星同時(shí)拍攝4 m分辨率的4波段多光譜影像以及1 m分辨率的1波段全色影像。至今多光譜影像的分辨率已經(jīng)增加到1.24 m,全色影像的分辨率已增加到0.31 m;同時(shí)光譜波段也已從4個(gè)波段增加到16個(gè)波段。
由于航空和衛(wèi)星影像的空間分辨率及光譜分辨率的提高,影像采集復(fù)雜性的增加(例如,最低點(diǎn)和非最低點(diǎn)(nadir and off-nadir),中心投影和線性投影等的變化)及精度要求的提高,使用“靜態(tài)的”圖像處理技術(shù)來處理變化的遙感影像面臨越來越多挑戰(zhàn)。傳感器的幾何差異,空間分辨率或光譜分辨率的不同,視角的差別及地形起伏的不同,都會(huì)影響到圖像處理的結(jié)果。因此,為了有效地處理現(xiàn)代航攝和衛(wèi)星遙感影像,所開發(fā)的算法及軟件需要具有一定的“智能”,能夠識別影像的變化并能給予適當(dāng)?shù)难a(bǔ)償處理。另一方面由于數(shù)字傳感器和數(shù)字影像的飛速增長,巧妙利用數(shù)碼相機(jī)和數(shù)字影像來開發(fā)創(chuàng)新性應(yīng)用的可能性大大增加。它既能增加信息量又能改善用戶體驗(yàn)。
可以說現(xiàn)在正處于智能攝影測量和智能遙感的階段。當(dāng)下的算法需要有一定的“智能”以便有效地處理各種遙感影像,達(dá)到良好穩(wěn)定的結(jié)果。我們的方法也需要有創(chuàng)意以便充分地利用現(xiàn)有的相機(jī)和影像進(jìn)行創(chuàng)新性的應(yīng)用。
本文將介紹一些由加拿大高級地球空間信息圖像處理實(shí)驗(yàn)室(CRC-AGIP實(shí)驗(yàn)室)以及加拿大的新不倫瑞克大學(xué)(UNB)大地測量與地球空間信息工程系(GGE)開發(fā)的智能攝影測量和遙感影像處理技術(shù)。這些技術(shù)可以從某些角度展示出克服影像差異問題的一些方法,以實(shí)現(xiàn)穩(wěn)定高精度的處理結(jié)果;也可以給出一些實(shí)例以展示如何創(chuàng)新性地使用相機(jī)和影像來實(shí)現(xiàn)創(chuàng)新性應(yīng)用,從而增強(qiáng)信息容量和改善用戶體驗(yàn)。
超過70%的光學(xué)地球觀測衛(wèi)星和許多現(xiàn)代航空數(shù)字相機(jī)能夠同時(shí)拍攝低分辨率多光譜(MS)影像和高分辨率全色(Pan)影像[4]。在不同的傳感器MS波段的數(shù)量和Pan影像的光譜帶寬經(jīng)常有變化,另外季節(jié)性差異和地域性差異也會(huì)導(dǎo)致影像信息的差異。如果使用“靜態(tài)的”Pan銳化方法,這些差異經(jīng)常導(dǎo)致不同的Pan銳化結(jié)果。因此開發(fā)出“智能的”Pan銳化算法以便能識別影像的差異非常重要,無論傳感器、季節(jié)和地區(qū)的差異如何,它都可以全自動(dòng)地產(chǎn)生穩(wěn)定的高質(zhì)量的Pan銳化結(jié)果。
為了在融合過程中確定影像的差異,筆者開發(fā)了UNB-PanSharp算法。該算法利用最小二乘法來找到MS和Pan波段之間的最佳擬合信息,然后利用此信息來調(diào)節(jié)影像處理參數(shù),以達(dá)到Pan銳化的最佳效果[5]。UNB PanSharp是一個(gè)面向影像的Pan銳化方法,因?yàn)樗谌诤线^程中,對每組Pan和MS影像都根據(jù)其影像信息進(jìn)行分別處理。無論傳感器、季節(jié)和區(qū)域差異如何,它都能持續(xù)穩(wěn)定地獲得良好的融合效果。
然而,其他流行的Pan銳化算法,基本上是“靜態(tài)的”方法。它們要么使用一組適合于某個(gè)特定傳感器的融合參數(shù)集(Gram Schmidt及其類似方法),要么使用一組均勻分布于特定MS波段之間的融合參數(shù)集(HPF、IHS、PCA、Brovey和小波)來融合所有的遙感影像。因此它們有時(shí)能獲得良好的融合效果,有時(shí)則不能[6]。圖1和圖2顯示了UNB-PanSharp融合結(jié)果、Gram Schmidt融合結(jié)果以及它們之間的質(zhì)量差異。Gram Schmidt是最好的一種“靜態(tài)”Pan銳化方法。
實(shí)驗(yàn)室研究結(jié)果證明,UNB PanSharp可以準(zhǔn)確地保存MS影像的顏色和Pan影像的空間信息,獲得保真的、無損失的融合結(jié)果。同時(shí),Pan銳化后的彩色影像的信噪比(SNR)優(yōu)于用高分辨率MS傳感器直接采集的高分辨率彩色影像[7]。這也說明了為什么現(xiàn)代高分辨率衛(wèi)星,不直接用高分辨率MS傳感器,而采用高分辨率Pan和低分辨率MS傳感器來采集高分辨率彩色影像。
圖1 原始WorldView-2 Pan影像用作Pan銳化的輸入(子集)Fig.1 Subset of original WorldView-2 Pan image used as an input for pan-sharpening
注:UNB PanSharp、ENVI Gram Schmidt(GS1)和ESRI Gram Schmidt(GS2)的Pan銳化結(jié)果,以及它們之間的質(zhì)量差別。圖2 WorldView-2 MS不同波段的彩色影像Fig.2 Subset of original WorldView-2 MS color image
由于其卓越的融合質(zhì)量和一步完成的全自動(dòng)處理,UNB-PanSharp被PCI Geomatics,DigitalGlobe,NASA等全球領(lǐng)先的工業(yè)、政府和學(xué)術(shù)機(jī)構(gòu)所使用。伊士曼柯達(dá)是DigitalGlobe的高分辨率衛(wèi)星相機(jī)的制造商,它擁有一個(gè)影像融合專利,對本公司衛(wèi)星相機(jī)的影像進(jìn)行全面銳化。然而DigitalGlobe選擇了UNB-PanSharp,對其衛(wèi)星影像進(jìn)行全面銳化,而不使用伊士曼柯達(dá)的融合技術(shù)。由于其國際性影響,UNB PanSharp于2006年被國際大學(xué)技術(shù)經(jīng)理人協(xié)會(huì)選為國際大學(xué)杰出技術(shù)之一,并且錄入“從研究到實(shí)現(xiàn)的技術(shù)轉(zhuǎn)讓100例”。其他被選入該100例的技術(shù)來自麻省理工學(xué)院、耶魯大學(xué)、斯坦福大學(xué)、哥倫比亞大學(xué)和布朗大學(xué)等著名大學(xué)。
“一張圖片勝過千言萬語”,使用衛(wèi)星影像進(jìn)行制圖和導(dǎo)航可以明顯地增加可感知的信息,衛(wèi)星圖像遠(yuǎn)遠(yuǎn)超出傳統(tǒng)的線圖,它也可以顯著地改善用戶體驗(yàn),為了有效地利用影像進(jìn)行制圖和導(dǎo)航,加拿大新不倫瑞克大學(xué)大地測量與地球空間信息工程系于2000年啟動(dòng)了衛(wèi)星影像在線制圖和街景技術(shù)的研究和開發(fā)。
衛(wèi)星影像在線制圖。筆者的研究小組于2001年初展開了衛(wèi)星影像在線制圖的深入研發(fā)。2002年為加拿大弗雷德里克頓市社區(qū)和學(xué)校開發(fā)了一個(gè)在線衛(wèi)星影像制圖系統(tǒng)(圖3)。使用該系統(tǒng),用戶可以選擇一個(gè)目的地,然后從當(dāng)前位置“飛”到目的地(圖3中的Leo Hayes高中)。用戶也可以顯示全屏視圖,以便放大、縮小和平移全屏影像。從2002年到2006年,在谷歌采用高分辨率衛(wèi)星影像在線制圖之前,這個(gè)系統(tǒng)已被廣泛地使用于弗雷德里克頓當(dāng)?shù)厣鐓^(qū),早在谷歌開始引入衛(wèi)星影像在線制圖的3年之前,我們的衛(wèi)星影像在線制圖系統(tǒng)就已經(jīng)出版。
圖3 2002年發(fā)布的GGE衛(wèi)星影像在線制圖系統(tǒng)的功能之一Fig.3 One function of the online satellite image mapping system developed in GGE which was released in 2002
街景技術(shù)。在Y.C.Lee教授的倡導(dǎo)和領(lǐng)導(dǎo)下,GGE的一個(gè)研究小組開發(fā)了一個(gè)街景技術(shù)并于2001年發(fā)表了該技術(shù)[8]。該研究旨在于為城市地理信息系統(tǒng)創(chuàng)建一個(gè)街道全景以便用戶利用照片進(jìn)行更直觀的城市導(dǎo)航,該技術(shù)也可以給用戶提供一個(gè)虛擬的城市旅游景觀。圖4和圖5顯示了其基本原理、街景影像和用于拍攝街道全景圖的攝像機(jī)。
注:圖為加拿大弗雷德里克頓市政廳交叉口地區(qū),上圖為2001年的GGE街景技術(shù);下圖為Google地圖今天的街景。圖4 街景技術(shù)和街景影像Fig.4 Street view technologies and images
注:右上為GGE在2001年發(fā)表的街景相機(jī),中間為Google使用的街景相機(jī)[9](照片來源:Levitz 2012),右下為2007年斯坦福大學(xué)開發(fā)的和Google早期使用的街景相機(jī)(照片來源:Gannes 2015)。圖5 街景相機(jī)Fig.5 Street view cameras
GGE的街景技術(shù)是為傳統(tǒng)地理信息系統(tǒng)(GIS)開發(fā)的,因?yàn)樵?000年在線制圖技術(shù)和系統(tǒng)還處于起步階段,未得到廣泛使用。通過街景圖像,地理信息系統(tǒng)的用戶可以很直觀地看到相關(guān)的內(nèi)容,以幫助更好地理解系統(tǒng)中的信息。這有助于用戶進(jìn)行定位并了解所在地區(qū)的環(huán)境。6年之后,斯坦福大學(xué)于2007年推出了街景技術(shù)(圖5右下),這一技術(shù)被Google收購并用于谷歌地圖[10]。
從圖4和圖5可以看出,谷歌的街景全景圖與GGE的街景全景圖非常相似,Google的街景相機(jī)也與GGE的街景相機(jī)非常相似。唯一的區(qū)別是GGE使用一個(gè)數(shù)碼相機(jī),通過旋轉(zhuǎn)相機(jī)來拍攝多張照片,然后鑲嵌成全景圖像;而斯坦福和Google使用一組相機(jī),一次同時(shí)拍攝多張照片,然后鑲嵌成全景圖像。
此外GGE的街景技術(shù)使用了第二臺相機(jī)來拍攝立體像對(圖4和圖5)。第二張照片是用于創(chuàng)建3D深度,以測量從相機(jī)到圖像中目標(biāo)物的距離;也就是說用戶可以通過點(diǎn)擊鼠標(biāo)來獲得距離。近年來Google和其他公司正在使用類似的概念,來拍攝全景立體像對,為虛擬現(xiàn)實(shí)(VR)技術(shù)提供3D內(nèi)容。
約90%的高分辨率(1 m或更高)光學(xué)衛(wèi)星,同時(shí)拍攝低分辨率的MS影像(圖6(a))和高分辨率的Pan影像(圖6(b))。由于Pan和MS傳感器共用一個(gè)望遠(yuǎn)鏡鏡頭,Pan和MS傳感器的光軸不可平行。Pan和MS傳感器之間有一個(gè)非常小的視角差,導(dǎo)致Pan和MS影像之間有很小的時(shí)間差異。因此所有移動(dòng)物體都被拍攝在影像的兩個(gè)稍微不同的位置(見圖6(c)(d))。
這個(gè)位置偏移導(dǎo)致影像融合中的配準(zhǔn)問題(圖6(d))。但是筆者的研究小組利用它進(jìn)行運(yùn)動(dòng)目標(biāo)檢測和移動(dòng)信息提取。然而由于時(shí)間的延遲很小、像素的尺寸接近移動(dòng)車輛的尺寸、加上地形的高程差異引入的影像偏移,進(jìn)行準(zhǔn)確地移動(dòng)信息檢測,具有非常高的挑戰(zhàn)性。
筆者的研究團(tuán)隊(duì)于2006年成功地開發(fā)了一套新的算法和計(jì)算機(jī)軟件。它能準(zhǔn)確地探測運(yùn)動(dòng)物體并計(jì)算出移動(dòng)速度。該算法包含一個(gè)改良的傳感器模型,一個(gè)新的汽車探測方法和一個(gè)新的速度計(jì)方法[11]。傳感器的視角,地形的高程差以及Pan和MS影像之間的分辨率差異,都被考慮到速度計(jì)算的程序中。
試驗(yàn)結(jié)果表明,用QuickBird Pan(0.7 m)和MS(2.8 m)影像進(jìn)行速度探測,其精度可以達(dá)到±20 km/h,盡管影像的分辨率有限(圖7)。用GeoEye-1影像(Pan 0.5 m,MS 2 m,飛行高度680 km)進(jìn)行速度探測,其精度可達(dá)到±10 km/h。
該研究成果發(fā)表于2008年美國攝影測量工程與遙感雜志(PE&RS)[12]。并于2009年被ASPRS評選為應(yīng)用論文John I.Davidson學(xué)會(huì)主席獎(jiǎng)第一名。
影像分割是影像分類中的一個(gè)關(guān)鍵過程?;趯ο蟮挠跋穹诸愂歉叻直媛蔬b感影像分類的主流方法。然而,諸如eCognition之類的最新影像分割技術(shù)仍然嚴(yán)重依賴于操作者的經(jīng)驗(yàn)來達(dá)到適當(dāng)分割結(jié)果。操作者需要通過反復(fù)試驗(yàn)才能找到一組合適的分割參數(shù)。然而反復(fù)試驗(yàn)是一個(gè)非常耗時(shí)的過程,操作人員的經(jīng)驗(yàn)也很大程度地影響分割的準(zhǔn)確性。
為了克服這個(gè)問題,CRC-AGIP實(shí)驗(yàn)室在2005年開發(fā)了一個(gè)突破性的、基于模糊分析的有監(jiān)督分割(FbSS)算法[13]。該算法隨后被開發(fā)成一個(gè)有監(jiān)督的分割軟件包[14]。此算法利用模糊邏輯的方法,通過計(jì)算機(jī)訓(xùn)練和模糊邏輯分析(圖8)來找到一組最佳的分割參數(shù)。該軟件包可以集成到eCognition中以快速地實(shí)現(xiàn)優(yōu)化的分割結(jié)果(圖9),無需操作員的反復(fù)試驗(yàn)。
該軟件具有易于使用、快速準(zhǔn)確的性能,它不需要用戶具有操作經(jīng)驗(yàn)。通過簡單的培訓(xùn),普通操作者就能生產(chǎn)覆蓋整個(gè)影像的令人信服的分割結(jié)果。
在數(shù)字?jǐn)z影測量中,影像匹配是必不可少一步。三維重建、變化檢測、計(jì)算機(jī)視覺和模式識別都需要影像匹配。準(zhǔn)確的影像匹配取決于能否找到密集、準(zhǔn)確和均勻分布的特征匹配點(diǎn)。盡管已有大量的影像匹配算法,如何在大面積光滑區(qū)域中找到密集而準(zhǔn)確的匹配點(diǎn)仍然是最先進(jìn)算法的難點(diǎn)。因此,平滑區(qū)域的影像匹配仍然是一個(gè)非常具有挑戰(zhàn)性的問題。
為了解決這個(gè)影像匹配問題,CRC-AGIP實(shí)驗(yàn)室在2008年開發(fā)了一種新的算法:基于控制網(wǎng)絡(luò)的匹配算法。該算法首先找到像對中最突出的幾個(gè)匹配點(diǎn),即“超級點(diǎn)”。然后利用這些“超級點(diǎn)”在兩幅影像中建立一個(gè)匹配控制網(wǎng)絡(luò)。在該網(wǎng)絡(luò)的基礎(chǔ)上不斷地搜索并擴(kuò)展新的匹配點(diǎn),直到覆蓋整個(gè)影像像對,包括影像的平滑區(qū)域(圖10)。
注:黃圈為移動(dòng)物體,紅圈為靜態(tài)物體。圖6 移動(dòng)物體在MS和Pan影像中的位置差異Fig.6 Position difference of moving objects in MS and Pan images
圖7 在QuickBird Pan和MS影像中確定車輛位置的挑戰(zhàn)Fig.7 Challenge in determining vehicle’s position in QuickBird Pan and MS images
圖8 基于模糊分析的有監(jiān)督分割過程Fig.8 Process of the fuzzy-based supervised segmentation
圖9 基于模糊分析的有監(jiān)督分割、在eCognition環(huán)境中的街道分割示例Fig.9 Example of street segmentation obtained using the parameters identified by the Fuzzy-based supervised segmentation software in the eCognition environment
在森林區(qū)域中的特征點(diǎn)匹配,影像像對:QuickBird MS(2.8 m)圖10 基于控制網(wǎng)絡(luò)的匹配算法Fig.10 Feature points matched by the control network based matching technique
對各種遙感影像進(jìn)行的試驗(yàn)表明,該算法可以在影像中的任何區(qū)域成功地找到匹配點(diǎn),包括平滑區(qū)域;但是不包括發(fā)生了變化的區(qū)域(如水域等)。因?yàn)榭刂凭W(wǎng)絡(luò)可以指導(dǎo)匹配點(diǎn)的搜索,該算法比傳統(tǒng)的匹配方法快,顯著地提高了匹配搜索的效率。
變化檢測是遙感中最重要的應(yīng)用之一。變化檢測的準(zhǔn)確性在很大程度上取決于影像配準(zhǔn)的精度。然而,用于變化檢測的影像是從不同的視角拍攝的,特別是高分辨率影像準(zhǔn)確配準(zhǔn)的難度非常大。在地表高程物體存在的地區(qū)(如城市地區(qū)),這一困難更加突出。另外如果影像是由不同類型的相機(jī)拍攝的,即線性投影衛(wèi)星相機(jī)和中心投影機(jī)載相機(jī),用它們進(jìn)行變化檢測的挑戰(zhàn)性更大。因此,絕大多數(shù)發(fā)表的文章僅使用最低點(diǎn)(nadir)影像進(jìn)行變化檢測或者選擇平坦區(qū)域進(jìn)行變化檢測。
然而,95%以上的高分辨率衛(wèi)星影像具有5°到30°的偏最低點(diǎn)(off-nadir)拍攝角度。對于中心投影航空照片,只有一個(gè)影像點(diǎn)具有最低點(diǎn)視角,而其他影像區(qū)域都具有不同的視角。因此,95%以上的高分辨率遙感影像不能被有效地用于變化檢測。
為了克服這一問題,CRC-AGIP實(shí)驗(yàn)室開發(fā)了一個(gè)分塊匹配(Patch-Wise CoRegistration,PWCR)算法。PWCR算法首先使用分割技術(shù)將一幅影像(稱為基礎(chǔ)影像)分割為片段/塊(patches)(圖11(a)),然后根據(jù)從影像像對(或從數(shù)字表面模型)導(dǎo)出的3D信息,以及根據(jù)兩幅影像的有理多項(xiàng)式系數(shù)(RPC),將每個(gè)單獨(dú)的分割塊從基礎(chǔ)影像投影到目標(biāo)影像(圖11(b)(c))。通過這種方式,每個(gè)地物塊(patch)可以從基礎(chǔ)影像投影到目標(biāo)影像以消除高程差帶來的匹準(zhǔn)誤差。因此,基礎(chǔ)影像中的每個(gè)分割塊可以被準(zhǔn)確地投影到其在目標(biāo)影像中的位置,實(shí)現(xiàn)準(zhǔn)確的分塊配準(zhǔn)。然后,使用變化檢測算法來比較相應(yīng)的分割塊內(nèi)的光譜信息,以找到變化的分割塊。由于配準(zhǔn)精度的顯著提高(在有地表高程物存在的地區(qū),配準(zhǔn)精度比傳統(tǒng)的配準(zhǔn)方法提高80%),城市地區(qū)的變化檢測結(jié)果達(dá)到了90%以上的精確度[15](圖12)。
圖11 分塊匹配(PWCR)的結(jié)果Fig.11 Results of patch-wise co-registration (PWCR)
由于其潛在的廣泛影響,該變化檢測技術(shù)引起了加拿大主要媒體和研究基金委員會(huì)的關(guān)注。加拿大國際廣播電臺,加拿大國家級新聞報(bào)刊《環(huán)球郵報(bào)》,加拿大自然科學(xué)與工程研究基金委員會(huì)(NSERC)和加拿大創(chuàng)新基金委員會(huì)(CFI)都報(bào)道了該研究成果。
當(dāng)前正處于一個(gè)大數(shù)據(jù)時(shí)代,星載、機(jī)載和地面像機(jī)等各種遙感像機(jī),正在被廣泛地應(yīng)用于世界各地,以不同的方式采集不同的影像并用于不同的應(yīng)用場合。傳統(tǒng)的攝影測量與遙感技術(shù)在解決遙感影像的基礎(chǔ)問題中仍然起著重要的作用。但是,由于影像的幾何和光譜復(fù)雜性的顯著增加以及影像的多樣化,傳統(tǒng)技術(shù)已經(jīng)遠(yuǎn)不能滿足今天需求。因此開發(fā)具有一定“智能性”的新算法和新技術(shù)是必不可缺的,以便能識別和處理影像的差異,達(dá)到穩(wěn)定的高質(zhì)量結(jié)果。此外,創(chuàng)造性地或“巧妙地”利用現(xiàn)有數(shù)碼相機(jī)和影像來開發(fā)創(chuàng)新性應(yīng)用,也是一個(gè)必然的趨勢。
圖12 基于PWCR的變化檢測Fig.12 PWCR based change detection
參考文獻(xiàn):
[1] SCHENK T.Introduction to Photogrammetry[G].Neil Ave,Columbus,OH:The Ohio State University,2005.
[2] GRUEN A.Digital Photogrammetric Imaging-Past,Present and Future[R].Federal:The Swiss Federal Institutes of Technology (ETH),2009.
[3] BAUMANN P R.History of Remote Sensing,Satellite Imagery,Part Ⅱ[G].New York,NY:State University of New York,2009.
[4] ZHANG Yun.Ten years of Technology Advancement in Remote Sensing and The Research in the CRC-AGIP Lab in GGE[J].Geomatica,2010,64(2):173-189.
[5] ZHANG Y.Highlight Article:Understanding Image Fusion[J].Photogrammetric Engineering and Remote Sensing,2004,70(6):657-661.
[6] ZHANG Yun,MISHRA R.From UNB PanSharp to Fuze Go—the Success Behind the Pansharpening Algorithm[J].International Journal of Image and Data Fusion,2014,5(1):39-53.
[7] ZHANG Yun,ROSHAN A,JABARI S,et al.Understanding the Quality of Pansharpening:A Lab Study[J].Photogrammetric Engineering & Remote Sensing,2016,82(10):747-755.
[8] RAWLINSON S,LEE Y C,ZHANG Y.Development of a Software Prototype for the Geo-referencing and Visualization of Non-metric TERRESTRIAL Photography in a GIS Environment[C]∥Proceedings of the 23rh to 27th ASPRS 2001 Annual Conference.St.Louis,Missouri:ASPRS,2001.
[9] LEVITZ S.Putting the North on the Map:Google Recruits Northerners for Help with Maps[M].[S.l.]:The Canadian Press,2012.
[10] GANNES L.Ten Years of Google Maps,F(xiàn)rom Slashdot to Ground Truth[EB/OL].[2015-02-08].https:∥www.recode.net/2015/2/8/11558788/ten-years-of-google-maps-from-slashdot-to-ground-truth.
[11] XIONG Zhen,ZHANG Yun.A Novel Interest Point Matching Algorithm for High Resolution Satellite Images[J].IEEE Transactions on Geoscience and Remote Sensing,2009,47(12):4189-4200.
[12] XIONG Zhen,ZHANG Yun.An Initial Study on Vehicle Information Extraction from Single Pass of Satellite QuickBird Imagery[J].Photogrammetric Engineering and Remote Sensing,2008,74(11):1401-1412.
[13] ZHANG Yun,MAXWELL T.A Fuzzy Logic Approach to Optimization of Segmentation of Object-Oriented Classification[C]∥Proceedings of SPIE 50th Annual Meeting-Optics & Photonics 2005.San Diego,California,USA:SPIE,2005.
[14] TONG Hengjian,MAXWELL T,ZHANG Yun,et al.A Supervised and Fuzzy-based Approach to Determine Optimal Multi-resolution Image Segmentation Parameters[J].Photogrammetric Engineering & Remote Sensing,2012,78(10):1029-1044.
[15] JABARI S,ZHANG Yun.RPC-Based Coregistration of VHR Imagery for Urban Change Detection[J].Photogrammetric Engineering & Remote Sensing,2016,82(7):521-534.