亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于空洞空間卷積網絡的點衍射干涉圖像相位解包技術

        2024-02-29 12:01:54王同盟
        光學精密工程 2024年2期
        關鍵詞:方法

        王同盟, 高 芬*, 李 兵

        (1. 西安工業(yè)大學 光電工程學院, 陜西 西安 710032;2. 西安交通大學 機械制造系統(tǒng)工程國家重點實驗室, 陜西 西安 710049)

        1 引 言

        隨著光刻技術由深紫外向極紫外領域發(fā)展,人們對光刻物鏡提出了更高的檢測精度要求,其所用球面、非球面的檢測精度要求達到0.1~1 nm均方根(Root Mean Square,RMS)的水平[1-2]。點衍射干涉測量法利用微米尺寸針孔衍射產生的超高精度球面波前作為參考面,構成干涉測量系統(tǒng),由于其不受傳統(tǒng)干涉測量中標準參考鏡本身面形精度的限制,理論上可以達到亞納米級檢測精度,為光刻領域的超精面形檢測開辟了新途徑。

        點衍射干涉測量中主流的相位提取方法是相移法[3],即通過使用壓電陶瓷相移器件(Piezoelectric Transducer, PZT)帶動被測件多次移動,采集多幅干涉圖,進而通過多步相移算法[4]實現(xiàn)相位提取。因在計算機進行相位提取處理時,反正切運算是必要的步驟,經該步驟相位將被限制在[-π,π]的范圍內,這種導致相位不連續(xù)的現(xiàn)象被稱為相位包裹,后續(xù)還需要對包裹相位進行解包裹處理才能復原出待測面形。為了解決這一問題,國內外學者已提出了許多相位解包方法,主要有兩類:路徑跟蹤類算法和路徑無關類算法。路徑跟蹤類算法是由局部向全局逐步展開,將被包裹的相位通過路徑積分沿合適的路徑還原,典型算法是Goldstein 分枝切割法(Branch Cut Algorithm, BCM)[5]和質量導向算法[6],這類算法的解包性能與路徑密切相關,需要大量的計算和存儲空間,并且迭代次數較多,計算速度較慢。此外,算法的收斂性以及對于圖像噪聲的魯棒性也需要進一步提高。路徑無關類算法是運用各類算法對圖像進行最小二乘求解,最常見方法有快速傅里葉變換法(Fast Fourier Transform,F(xiàn)FT)、離散余弦變換法(Discrete Cosine Transform,DCT)[7]法等,這類算法可以處理一幀的干涉條紋圖像直接得到解包結果,但誤差較大,很難得到精確的相位信息。

        同時,點衍射干涉圖像具有以下特點:雖然采集到的干涉條紋信息都比較穩(wěn)定,但與其他干涉條紋不同的是點衍射本身性質使得干涉條紋圖像光強分布[8]符合一階貝塞爾函數分布的規(guī)律,即越靠近中心光斑光強越強,距離越遠光強越弱,得到的圖像光強分布不均勻,利用上述幾種常用解包方法可能并不能夠達到理想的解包精度,并且受實驗環(huán)境限制,干涉圖像對空氣擾動、溫濕度變化等環(huán)境干擾極為敏感,不可避免會帶有環(huán)境噪聲,同時,還可能因為人為操作不當造成激光光束入射小孔沒有對準,引入非對準誤差。因此如何在盡量減小各種誤差干擾的情況下完成高精度的相位解包是亟待解決的一個問題。雖然目前已存在的相位解包算法已經可以比較好得處理傳統(tǒng)干涉測量的包裹相位,但對于點衍射干涉圖像的解包精度仍需提高,因此,研究適用于點衍射干涉圖像的高精度解包算法是必然需求。

        近年來,深度學習技術在圖像領域發(fā)展迅速,在圖像分割處理[9]、去噪[10]、生物醫(yī)學[11]、光學檢測[12]等研究中均取得了良好效果,尤其是深度學習中的神經網絡技術通過提取圖像不同層次的特征,對圖像像元進行分類預測,結果比許多圖像處理傳統(tǒng)算法更加優(yōu)秀。在干涉圖像處理領域,Spoorthi G. E 等[13]設計了一種名為PhaseNet 的神經網絡用于相位解包,并使用通用的仿真數據進行訓練,結果表明其可以在高噪聲情況下取得良好結果;Zhang JunChao 等[14]將Seg-Net 用到干涉條紋圖像的解包裹里,測試結果的平均像素分類準確率和平均均方根誤差(Root Mean Square Error, RMSE)分別達到了90.04% 和0.003 4 rad;KaiQiang Wang[15]使用U-Net 對高混疊欠采樣的火焰和細胞包裹相位進行解包,與傳統(tǒng)方法相比優(yōu)勢明顯;Teng Zhang等[16]使用DeeplabV3+網絡對泰曼-格林干涉儀和散斑干涉儀采集的條紋圖像進行處理,證明了深度學習方法在解包精度和抗干擾性上表現(xiàn)優(yōu)異;在對點衍射干涉圖像的處理上,Zhuo Zhao等[17]先使用殘差自編碼器對包裹相位進行解包仿真了其正確性,后又設計了一種超列卷積[18]的方法對單幀條紋圖像直接進行解包,并進行了仿真和干涉實驗驗證,但其精度仍有不足。

        基于上述研究背景,本文將深度學習技術引入小孔點衍射干涉測量中,設計了一種結合空洞卷積金字塔[19]的自編碼器結構,將相位解包任務看作類語義分割的像素級分類任務,利用網絡模型預測被包裹相位的條紋階次,最后將被包裹相位與其所在的條紋階次的2π 倍相加,完成相位解包,此外對于被誤分類的像素點,基于二分類訓練的方法對其行誤差校正進一步提高分類精度。仿真和實際干涉圖處理結果均表明所提出的方法可以獲得高精度的解包相位且具有很高的時間效率。

        2 原 理

        2.1 解包原理

        在時域相移算法中,包裹相位的提取一般通過用N步相移算法計算得到,該算法在固定的相移量下進行N步相移,采集多幅干涉圖像,設Ii(x,y)表示采集的第i幀圖像;第i步相移引入的相移量為δi=(i-1)π/2,i=1,2,…,N;I0(x,y)表示干涉圖背景強度;γ(x,y)表示條紋對比度;φ(x,y)是待提取相位,則有:

        待提取的相位通過公式(2)求得,由于在求解后相位會存在2π 的跳變,對被包裹的相位進行展開才能得到被測物的絕對相位。

        根據相位解包算法,絕對相位?(x,y)和包裹相位φ(x,y)之間的關系可描述為公式(3):

        其中,k(x,y)表示像素點所在的條紋階次,確定階次后只需加上相應相位階次的2π 倍即可。

        2.2 空洞空間卷積神經網絡的構建

        神經網絡的任務是確定每一個包裹相位的像素點所在的階次,因此本文將相位解包看作為一個像素級分類任務,每個包裹相位所在的階次k(x,y)作為輸出。提出了一種結合空洞空間卷積池化金字塔(Atrous Spatial Pyramid Pooling,ASPP)的卷積神經網絡(Convolutional Neural Networks, CNN)來完成任務,其結構如圖1所示。

        圖1 ASPP-CNN 神經網絡結構Fig.1 Neural network structure of ASPP-CNN

        相位解包任務中,最需要注意的是每個周期的包裹相位邊界關系特征,因此在所提出的方法中CNN 采用了編碼-解碼器結構,多尺度特征融合等方法提高分類準確率。使用的輸入包裹相位圖像為128×128 pixel,通道數為1,網絡主要有卷積層、池化層、上采樣層組成,在編碼-解碼器結構中卷積核的大小為3×3 用來提取圖像的特征,并對圖像進行邊界擴充以保證卷積后輸出與輸入大小一致,卷積后進行批標準化(Batch Normalization,BN)操作,對參數進行歸一化,保證網絡訓練的穩(wěn)定性,激活函數選擇Relu 函數。以兩層卷積層為一組加入一個殘差結構以解決多次訓練導致的網絡退化問題,殘差結構的輸出與兩次卷積的輸出進行疊加。最大池化層會對圖像進行下采樣,以便對圖像更深度的特征進行提取。解碼器部分則會通過上采樣逐步恢復圖像尺寸,由于相位階次的分類對每個像素的分類精度都有要求,因此殘差塊與卷積層的疊加結果會經過一次1×1 卷積調整通道數后作為最后像素分類的低尺度特征依據進行保留。最終疊加的特征圖像會輸入到空洞空間卷積池化金字塔結構中進行全局特征提取并通過Softmax 層輸出預測像素值。對輸入圖像用不同擴張系數的空洞卷積進行運算得到不同感受野尺度的特征圖,然后將每張?zhí)卣鲌D并聯(lián)疊加用1×1 大小卷積核調整通道數使不同尺度的特征關系聯(lián)系起來,實現(xiàn)可控的多尺度特征提取。

        空洞空間卷積池化金字塔,如圖2 所示,是對傳統(tǒng)池化操作的改進。它首先是基于空洞卷積的,空洞卷積雖然被叫做卷積但它不只有卷積的功能,空洞卷積核在計算時會對參數之間進行填充空值,相當于卷積核變大但不會增加參數數量,卷積核尺寸變大會使卷積操作具有更大的感受野,使輸出的特征圖像更好地保留不同尺度的全局特征。

        圖2 空洞空間卷積金字塔結構Fig.2 Structure of ASPP

        2.3 訓練和驗證

        為了使神經網絡達到最優(yōu)效果,需要建立合適的數據集對其進行訓練,數據集樣本的豐富程度對訓練效果的優(yōu)劣起決定性作用。為提高深度學習算法對干涉條紋圖像處理的能力,本研究的數據集由兩部分組成:一部分是仿真圖像,另一部分則由實驗平臺采集而來,仿真面形函數如表1 所示。

        表1 仿真數據集的函數Tab.1 Unctions and parameters of simulated datasets

        本研究使用表1 中的四個數學函數生成相位數據,并通過公式(1)中條紋圖的強度分布方程以及小孔入射面上的高斯場分布初始化背景光強得到相應的干涉圖集。為了提高訓練效果,本文還引入高斯噪聲和椒鹽噪聲產生了不同質量的圖像,借助這些豐富多樣化的數據集,可以對網絡模型進行高精度訓練。

        得到多步相移干涉條紋圖像后,通過相移法計算得到包裹相位圖像,這里為了確保分類精度,使用7 步相移方法,相移算法如公式(4)所示:

        神經網絡的訓練及測試過程如圖3 所示。

        圖3 神經網絡的訓練及測試過程Fig.3 Training and testing process of neural networks

        訓練前共生成和采集分辨率128×128 pixel的數據25 000 對,分成train 數據(23 000 對數據)和test 數據(2 000 對數據)兩部分,其中train_in和test_in 中存放包裹相位,train_gt 和test_gt 中存放條紋階次圖。訓練時將train_in 數據集中的數據作為輸入,神經網絡得到的預測相位階次像素值與對應的train_gt 中的真實相位階次值進行比較,損失函數使用均方根誤差RMSE,根據公式(5)計算出預測值與真值之間的損失:

        其中:Loss 表示每一個神經網絡輸出與真值的RMSE,m表示像素的個數;kt(x,y)表示真值;kp(x,y)表示神經網絡的輸出。

        網絡會根據損失使用自適應矩估計(Adam)優(yōu)化器對模型參數進行更新,為了加快訓練速度的同時保證訓練的穩(wěn)定性,采取動態(tài)學習率衰減機制,會根據訓練狀態(tài)調整學習率,具體調整策略為每5 個Epoch 學習率變?yōu)樵瓉淼?.85 倍,初始學習率設置為0.01,迭代訓練輪數Epoch 設置為120,每一輪Epoch 訓練結束后都會使用test 數據集對模型進行測試,同時記錄訓練損失與測試損失,保留損失值最小的模型參數。

        圖4 為訓練過程的損失函數曲線,橫軸表示迭代的次數,縱軸表示損失值,可以看出神經網絡在迭代訓練大約100 輪后收斂,最小損失RMSE 低于0.01。

        圖4 損失函數曲線Fig.4 Loss function curve

        訓練完成后,使用模擬數據對模型性能進行測試,圖5 和圖6 分別使用球面仿真數據和隨機曲面仿真數據來驗證其性能。結果表明,本文所提出的解包方法在整體上有較高的精度,但在某些邊緣仍然誤差較大,球面解包結果殘差的平均值為0.07 rad,最大殘差值為0.94,隨機曲面解包結果殘差的平均值為0.09 rad,最大殘差差值為1.07。

        圖5 球面數據的解包結果Fig.5 Unwrapping results of sphere

        圖6 隨機曲面數據的解包結果Fig.6 Unwrapping results of random surface data

        這些誤差較大的點會對最終的面形擬合結果造成影響,為此本文提出了一種優(yōu)化殘差、提高解包精度方法。首先,由于相位階次k(x,y)是整數,而神經網絡的輸出可能不為整,所以將Output 的值先取整,但此操作可能會將某些像素點誤分類到其他階次,造成更大的誤差。第二步,將那些誤分類的像素點正確歸類看作二分類問題,所提出的神經網絡模型仍然可以完成此項任務,只需將那些被誤分類的圖像重新設為訓練輸入Input,并設置相應的真值,重新訓練即可,此時神經網絡模型的任務變?yōu)樽詈髮D像中的連通區(qū)域進行標記。最后根據標記結果對有誤分類點的連通區(qū)域進行修正,修正后的球面和隨機曲面解包圖像和殘差如圖7 所示??梢钥吹剑涍^優(yōu)化后,球面仿真數據的誤差為0,隨機曲面仿真數據的誤差可減少至10-6rad,可以忽略不計。

        圖7 優(yōu)化后的球面和隨機曲面解包結果及殘差Fig.7 Optimized unwrapping results and errors of spherical and random surfaces

        在點衍射干涉測量系統(tǒng)的實際應用中,環(huán)境干擾使得干涉圖像出現(xiàn)噪聲是難以避免的,為了驗證所提出方法對環(huán)境噪聲的魯棒性,分別在球面和隨機曲面仿真數據上分別引入百分比為0.35 和0.25 的椒鹽噪聲來模擬環(huán)境噪聲,從圖8中可以看出該方法對有噪聲干擾的包裹相位處理仍然非常精確,RMSE 值分別為0.024 8 rad 和>0.029 6 rad。

        圖8 引入環(huán)境噪聲后的包裹相位數據及解包結果Fig.8 Wrapped phase data with simulated environmental noise and unwrapping result

        3 實驗與討論

        為了進一步驗證所提出方法的有效性,本文基于點衍射相移干涉實驗平臺,采集實際點衍射相移干涉圖像進行處理,并將所提出方法的結果與專業(yè)的干涉圖像處理軟件及其他方法結果進行對比,驗證所提方法相位解包精度、面形擬合精度及時間效率。

        3.1 實驗平臺

        搭建的點衍射干涉測量系統(tǒng)如圖9 所示,系統(tǒng)通過2.5 μm 小孔衍射產生球面參考波前,被測件為口徑D=50 mm,曲率半徑R=500 mm 的球面反射鏡。

        圖9 點衍射干涉測量實驗系統(tǒng)Fig.9 Point diffraction interferometry system

        系統(tǒng)由氦氖激光器發(fā)出的激光光束經過衰減片后被擴束器準直入射到顯微鏡物鏡。顯微物鏡將光束聚焦至小孔衍射板上的小孔后產生衍射光。衍射光沿中心光軸被分為兩部分:一部分作為參考光路,另一部分作為測試光路。在測試光路中,PZT 被固定在一個五維調整架上,被測件被固定在PZT 上,部分衍射光到達被測件后經被測件反射回小孔基板,經鍍有鉻膜的小孔基板表面再次反射后進入參考光路,進入參考光路的測試光與參考光發(fā)生干涉后經準直鏡和成像鏡頭被電耦合元件(Charge Coupled Device ,CCD)接收,在CCD 上產生干涉圖像。CCD 和PZT 都直接連接到上位機上,PZT 可以由上位機控制,帶動被測件進行移動,獲得不同相移量的干涉圖像。

        為了獲得高精度的相位提取結果,這里采用7 步相移算法,所采集到的相對相移量為π/2 的7幀相移干涉圖像如圖10 所示。可以看出,干涉條紋圖像有一些噪點并且符合點衍射光強分布規(guī)律,后續(xù)使用ESDI 公司商業(yè)化干涉圖像處理軟件(Intelliwave6.5)進行處理,將處理結果與所提出方法及其他經典深度學習方法解包及面形擬合結果進行比較。

        3.2 處理結果精度對比

        將采集到的干涉圖預處理提取圓域后運用公式(4)進行相位提取,得到包裹相位圖像如圖11(a)所示,圖11(b)為使用本文所提深度學習方法對包裹相位圖像進行解包的解包相位,圖11(c)為解包相位經36 項澤尼克擬合后復原的待測面形2D 圖。圖12 給出了利用ESDI 專業(yè)干涉圖像處理軟件處理后得到的2D 面形結果,軟件處理中選用內置的7A 相移算法進行相位提取、枝切法(BCM)進行解包、36 項澤尼克多項式進行擬合,將軟件所給出的數值作為真值比較。

        圖11 包裹相位和基于ASPP-CNN 方法解包得到的解包及其2D 面形擬合結果Fig.11 Wrapped phase and unwrapped phase by ASPP-CNN method and 2D surface shape

        圖12 ESDI 干涉圖像處理軟件獲得的面形與PV,RMS 值Fig.12 Surface shape, PV and RMS values obtained by ESDI interferogram analysis software

        為了更直觀地展示出本文方法的優(yōu)越性,圖13 給出了幾種不同解包方法對圖10 的解包處理結果及面形擬合結果,圖13(a)列為本文所提方法、FFT 法以及U-Net 和DeepLabv3+神經網絡、枝切法解包5 種解包方法結果對比,圖13(b)列為5 種不同方法的解包結果經36 項澤尼克多項式擬合所得的面形對比,圖13(c)列為面形差值。其中選用了與專業(yè)軟件一致的枝切法,將其處理結果作為真值。

        比較圖11 和圖12 可以看出:本文所提深度學習法解包復原得到的面形與專業(yè)圖像處理軟件處理結果接近,面形吻合度高,二者峰谷(Peak-to-Veally,PV)和RMS 測量結果均非常接近。由圖13 可以看出,F(xiàn)FT 方法雖然可以在僅有一幀干涉條紋圖像的情況下處理圖像,但精度并不高,差距非常大,與專業(yè)干涉圖像處理結果比較,其PV 差值達到了0.528λ;而U-Net 得到的解包結果雖然整體上完成了解包,但在中間小部分區(qū)域以及邊緣區(qū)域誤差較大,最終的面形擬合結果也顯示其與真值的PV 差值有0.029λ,RMS差值為0.006 3λ,DeepLabv3+處理的結果則精度略高,PV 差值為0.020 2λ,RMS 差值為0.004 8λ,但Deeplabv3+的網絡結構過于復雜,訓練成本與時間效率與本文提出方法相比都更高,且最終處理結果精度也差于本文方法。

        表2 列出了這五種方法的PV,RMS,RMSE值及處理時間,所提出方法處理速度最快,且與專業(yè)軟件所得結果的PV 差值僅為0.012 1λ,RMS差值僅為0.004 2λ,由此驗證本文所提方法具有較高精度,且在時間效率上有顯著優(yōu)勢。

        表2 不同方法的PV,RMS 值及處理時間Tab.2 PV, RMS values, and processing time of different methods

        根據面形殘差圖像可以發(fā)現(xiàn)較大的差值出現(xiàn)在邊緣位置,原因是在對圖像進行預處理時,所采用方法為霍夫變換圓域提取算法[20]自動選取圓域,而專業(yè)圖像處理軟件的圓域需要手動提取,只能盡可能和所提取的圓域一致,并不能保證完全相同。

        4 結 論

        本文提出了一種基于神經網絡的高精度點衍射干涉圖像相位解包方法,首先構建了適用于點衍射干涉圖像的CNN 網絡,該網絡集成了編碼-解碼器結構、ASPP 結構等以完成高精度的相位解包。此外,還構建了多樣化面形數據集來提高網絡訓練效果,并設計了針對誤分類點的優(yōu)化方法,顯著提升神經網絡處理精度。仿真結果表明,本文所提出的方法能夠實現(xiàn)與真值差異基本為0 的解包結果。將該方法應用于點衍射干涉測量系統(tǒng)并進行實驗驗證,結果表明,所得到的結果與專業(yè)干涉圖像處理軟件具有較高一致性(RMSE=0.022 2 rad,PV 差值為0.012 1λ,RMS差值為0.004 2λ),同時時間效率也遠快于傳統(tǒng)方法。仿真和實驗均證明該方法具有適用性強、高精度、時間效率高的特性,并可為一類相移壓包圖像的高精度解包提供有效手段,具有普適性。

        在使用本文所提出的方法時需要注意其存在以下問題:由于神經網絡結構限制,無法對不同分辨率圖像進行一致處理。因此,今后的工作將重點研究單幀條紋圖像的相位恢復問題以及動態(tài)分辨率圖像的一次性相位恢復技術。

        猜你喜歡
        方法
        中醫(yī)特有的急救方法
        中老年保健(2021年9期)2021-08-24 03:52:04
        高中數學教學改革的方法
        河北畫報(2021年2期)2021-05-25 02:07:46
        化學反應多變幻 “虛擬”方法幫大忙
        變快的方法
        兒童繪本(2020年5期)2020-04-07 17:46:30
        學習方法
        可能是方法不對
        用對方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        最有效的簡單方法
        山東青年(2016年1期)2016-02-28 14:25:23
        四大方法 教你不再“坐以待病”!
        Coco薇(2015年1期)2015-08-13 02:47:34
        賺錢方法
        精品国产乱码一区二区三区在线| 欧美freesex黑人又粗又大| 久久国产精品二区99| av黄片免费在线观看| 国产精品一区久久综合| 丰满少妇被粗大猛烈进人高清| 亚洲国产综合精品 在线 一区| 亚洲人成网站久久久综合 | 97精品国产一区二区三区| 久久精品亚洲中文字幕无码网站| av狼人婷婷久久亚洲综合| 日本特殊按摩在线观看| 无码专区人妻系列日韩精品 | 日本免费大片一区二区| 久久久久人妻精品一区蜜桃| 精品国产国产AV一区二区| 毛片色片av色在线观看| 亚洲视频网站大全免费看| 熟妇丰满多毛的大隂户| 一级一级毛片无码免费视频| 国产一区二区三区在线观看蜜桃| 国产一区二区三区日韩精品| 内谢少妇xxxxx8老少交| 亚洲精品美女自拍偷拍| 国产影院一区二区在线| 又紧又大又爽精品一区二区| 又黄又爽的成人免费视频| 国产av一区二区凹凸精品| 伊人久久大香线蕉av色婷婷色| 亚洲av日韩精品久久久久久久| 亚洲男人天堂2017| 日本高清一区二区三区色| 亚洲国产精品一区二区成人片国内| 色欲av自慰一区二区三区| 91精品91久久久久久| 少妇激情高潮视频网站| 国产99在线 | 亚洲| 久久久久久人妻精品一区百度网盘| 一区二区免费国产a在亚洲 | 在线视频你懂的国产福利| 国产成人久久精品二区三区|