亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于元學(xué)習的雙目深度估計在線適應(yīng)算法

        2023-08-04 13:57:04張振宇
        自動化學(xué)報 2023年7期
        關(guān)鍵詞:深度效果方法

        張振宇 楊 健

        深度估計是視覺場景理解中的基礎(chǔ)性問題,并且越來越多地受到計算機視覺和機器人研究領(lǐng)域的關(guān)注.近年來,一些基于深度學(xué)習的RGB 自動深度估計方法陸續(xù)提出,取得了令人印象深刻的效果[1-7].在這些研究工作中,深度神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練需要依賴深度真值作為監(jiān)督信息,可供訓(xùn)練的深度真值越多則效果越好.然而,在現(xiàn)實場景中進行數(shù)據(jù)收集需要對應(yīng)的硬件平臺和設(shè)備(例如汽車和雷達),且使其在不同環(huán)境中工作相當長的時間.因此,數(shù)據(jù)收集通常需要昂貴的財力和時間開銷,這制約了以上監(jiān)督學(xué)習方法的實際應(yīng)用.為了避免開銷較大的數(shù)據(jù)收集和人工標注過程,一些自監(jiān)督(也稱為無監(jiān)督)深度估計方法相繼提出[8-11].值得一提的是,盡管沒有精確的深度真值,這些方法仍能通過圖像重構(gòu)誤差訓(xùn)練模型,獲得與監(jiān)督學(xué)習方法接近的結(jié)果.

        盡管上文提到的自監(jiān)督方法獲得了相當好的結(jié)果,其在現(xiàn)實場景中的使用仍然受到制約.原因在于這些方法均在封閉世界假設(shè)下進行設(shè)計和評估,這意味著訓(xùn)練和測試數(shù)據(jù)處于同一個數(shù)據(jù)集,或者二者的環(huán)境表觀差異很小.當模型在全新的場景中工作時,由于數(shù)據(jù)域轉(zhuǎn)移的影響,方法的結(jié)果將大打折扣.因此,為了增強方法的實際應(yīng)用效果,用于深度估計的深度神經(jīng)網(wǎng)絡(luò)模型需要考量開放世界的設(shè)定,即可用的視覺數(shù)據(jù)是在連續(xù)變化的環(huán)境中被采集的數(shù)據(jù)流.以自動駕駛場景為例,模型需要連續(xù)適應(yīng)于變化的環(huán)境(如城市、鄉(xiāng)村和高速公路場景等)以及光線場景(如黑夜、黃昏和白晝等).也就是說,深度神經(jīng)網(wǎng)絡(luò)模型需要具有在線適應(yīng)的能力.

        根據(jù)以上的分析和動機,本文提出了一種基于元學(xué)習的雙目深度估計方法,用于需要快速在線適應(yīng)的開放世界場景.方法的框架在圖1 中展示.首先,一種新的在線元學(xué)習適應(yīng)算法(Online metalearning with adaptation,OMLA)得以提出,用于模型的快速在線學(xué)習.具體地,為了處理源域數(shù)據(jù)(即訓(xùn)練數(shù)據(jù))和目標視頻數(shù)據(jù)之間的域轉(zhuǎn)移問題,模型通過調(diào)整源域和目標域的批歸一化(Batch normalization,BN)層統(tǒng)計量,使域間特征分布對齊.該方法受啟發(fā)于文獻[12-13],本文對其進行改進,使該方法適用于在線學(xué)習場景.然后,特征對齊過程與元學(xué)習算法相結(jié)合,利用先前時刻的模型反饋選擇能夠快速適應(yīng)未來場景的網(wǎng)絡(luò)超參數(shù).此外,本文提出了一種新的基于元學(xué)習的預(yù)訓(xùn)練方法(元預(yù)訓(xùn)練).具體地,在使用OMLA 算法進行一段視頻的在線適應(yīng)過程后,模型評估其在未來幀上的表現(xiàn),并以此為反饋更新初始參數(shù).由此,模型獲得了適用于OMLA 算法進行快速在線學(xué)習的初始參數(shù).

        圖1 本文提出的基于元學(xué)習的深度估計在線適應(yīng)算法框架Fig.1 The proposed meta-learning framework for online stereo adaptation

        本文的主要貢獻總結(jié)如下: 1) 提出了一種新的基于元學(xué)習的在線適應(yīng)算法,用于在線視頻流的雙目深度估計.該方法與特征對齊過程相輔相成: 元學(xué)習算法有助于更新特征對齊動量以提升模型的適應(yīng)能力;特征對齊則更好地支持元學(xué)習算法進行優(yōu)化過程的快速收斂.2) 提出了一種基于元學(xué)習的預(yù)訓(xùn)練方法,利用OMLA 算法使模型獲得適用于快速在線學(xué)習和收斂的參數(shù)以及特征對齊動量.3) 在KITTI 數(shù)據(jù)集[14]上的實驗表明,本文提出的OMLA 算法與預(yù)訓(xùn)練方法均有助于在線深度估計效果的提升,其效果超越了當前最佳的在線深度估計適應(yīng)算法[15].

        1 相關(guān)工作

        1.1 深度估計

        隨著深度卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展,近年來涌現(xiàn)了許多基于監(jiān)督學(xué)習的深度估計方法[1-4,16-17],這些方法需要依賴深度真值訓(xùn)練網(wǎng)絡(luò)模型.一些大規(guī)模數(shù)據(jù)集,例如NYU[18]、KITTI[14,19]等為深度估計任務(wù)提供了支持,一些合成數(shù)據(jù)庫的提出(例如Synthia[20])使得深度估計的遷移學(xué)習成為可能.

        為了避免耗費較高的數(shù)據(jù)收集和標注過程,自監(jiān)督的深度估計方法[8-10]得以陸續(xù)提出.例如,Godard 等[9]利用雙目一致性損失函數(shù)使自監(jiān)督訓(xùn)練成為可能.其他相關(guān)工作主要包括結(jié)合相機位姿估計的方法[21]、利用對抗學(xué)習的方法[10,22]、基于視覺里程計的方法[17]以及結(jié)合圖像超分辨的技術(shù)[11].最新的研究主要關(guān)注高效深度估計網(wǎng)絡(luò)的設(shè)計[6]和雷達點云的補全[7].然而,以上方法僅適用于封閉世界設(shè)定下的深度估計,缺少對開放世界問題的研究.

        1.2 域適應(yīng)問題

        域適應(yīng)是經(jīng)典的機器學(xué)習問題,近年來逐漸為計算機視覺和機器人領(lǐng)域所關(guān)注[23].近期基于深度學(xué)習的方法主要通過以下策略減輕域轉(zhuǎn)移造成的影響: 分布對齊損失函數(shù)[24-25]、對抗生成網(wǎng)絡(luò)[26-28]和域?qū)R層[13,29-31].在機器人領(lǐng)域,域適應(yīng)方法主要用于機器人抓握[12,27]、可行駛區(qū)域分割[31]以及基于目標定位的機器人控制問題[32-33].

        與絕大多數(shù)先前工作采用離線設(shè)定(即源域與目標域數(shù)據(jù)在訓(xùn)練過程中是可以全部獲取的)不同的是,近期一些域適應(yīng)算法開始研究在線學(xué)習設(shè)定下的問題,即目標域數(shù)據(jù)以序列化形式獲得且其分布不斷改變,相關(guān)工作如文獻[12,30-31].一些工作研究了針對深度估計問題的域適應(yīng)方法[32-35].Tonioni 等[15]首先利用在線數(shù)據(jù)流進行了相關(guān)嘗試.文獻[35]利用元學(xué)習方法增強了深度估計模型的在線收斂速度.然而,以上兩種在線深度估計方法并未清晰地對域轉(zhuǎn)移進行建模,也未使用任何策略以減弱源域和目標域數(shù)據(jù)差別帶來的影響.與其不同的是,本文方法具體地討論了在線深度估計中的域轉(zhuǎn)移問題,并給出了合理且新穎的解決方案.

        1.3 元學(xué)習算法

        元學(xué)習的目標是使模型利用先前學(xué)習的經(jīng)驗,學(xué)會如何在未來的問題中進行高質(zhì)量學(xué)習.在文獻[36-39] 中,元學(xué)習被用于獲得在新數(shù)據(jù)域和類別上的快速泛化能力.在遷移學(xué)習應(yīng)用中,文獻[38]利用元學(xué)習方法,使主網(wǎng)絡(luò)模型引導(dǎo)學(xué)生網(wǎng)絡(luò)合理地微調(diào)參數(shù).Park 等在文獻[39] 中提出了一種離線元學(xué)習方法,使網(wǎng)絡(luò)獲得較好的在線跟蹤能力.本文方法受啟發(fā)于文獻[39],與其不同的是,本文方法提出了適用于在線場景的元學(xué)習方法,在引導(dǎo)模型獲得合理初值的同時,使模型在線學(xué)習超參數(shù)以加速收斂.

        2 基于元學(xué)習的深度估計在線適應(yīng)方法

        本節(jié)詳細介紹了本文提出的基于元學(xué)習的在線深度估計與適應(yīng)方法.為方便形式化討論,假定源域是由N個雙目視頻序列組成的數(shù)據(jù)集,這些數(shù)據(jù)集使用同一個經(jīng)標定后的雙目相機采集.首先,使用該源域數(shù)據(jù)集訓(xùn)練參數(shù)為θ的神經(jīng)網(wǎng)絡(luò)模型 Φ,使模型獲得雙目深度估計能力.然后,模型需要在目標域視頻VT上進行預(yù)測,該視頻由不同的雙目相機在新的環(huán)境中采集,且視頻幀為數(shù)據(jù)流形式.本文方法的目標是在線調(diào)整網(wǎng)絡(luò)參數(shù)θ(即在線適應(yīng)),使其在目標域連續(xù)變化的視頻中逐漸獲得更精確的場景深度圖.

        一種基本的用于在線適應(yīng)的方法為: 在當前時刻計算當前幀的自監(jiān)督損失,并通過梯度下降更新整個網(wǎng)絡(luò)參數(shù).盡管這種方法非常簡潔,但其存在明顯的缺點,如其對于域轉(zhuǎn)移是非常敏感的,且僅關(guān)注于當前幀的做法可能會對模型更新過程帶來不良影響,例如場景突變導(dǎo)致的模型漂移會減緩收斂速度.為了避免這些問題,本節(jié)提出了兩種互補策略: 特征分布對齊和在線元學(xué)習適應(yīng)算法(見圖2).具體地,使用批歸一化層的統(tǒng)計量對域轉(zhuǎn)移進行建模,并以此為基礎(chǔ)進行源域和目標域的特征分布對齊(見第2.1 節(jié)).該過程在前饋中的網(wǎng)絡(luò)淺層進行,僅需要非常有限的計算開銷.此外,使用基于元學(xué)習的優(yōu)化器更新模型,使模型獲得對未來幀的快速收斂能力(見第2.2 節(jié)).由此,在在線適應(yīng)過程中,特征對齊能夠應(yīng)對不同域數(shù)據(jù)的表觀特征差異,元學(xué)習優(yōu)化器則可處理高階表征的轉(zhuǎn)移問題.此外,基于元學(xué)習的預(yù)訓(xùn)練策略被用于獲得模型初始參數(shù)θ0,使模型獲得針對數(shù)據(jù)流的快速適應(yīng)能力(見第2.3 節(jié)).訓(xùn)練和更新模型使用的自監(jiān)督深度估計損失函數(shù)在第2.4 節(jié)中介紹.

        圖2 本文提出的在線元學(xué)習適應(yīng)方法Fig.2 The proposed online meta-learning with adaptation (OMLA) method

        2.1 在線特征分布對齊的域適應(yīng)算法

        考慮一個包含批歸一化層的神經(jīng)網(wǎng)絡(luò)模型 Φ,根據(jù)文獻[12-13,30]的研究,域適應(yīng)可以通過更新BN 層統(tǒng)計量實現(xiàn).在本文問題設(shè)定下,模型無法獲得全部目標域數(shù)據(jù)以計算真實的目標域統(tǒng)計量,但是由于數(shù)據(jù)流的存在,可以隨時間漸進地更新統(tǒng)計量使其逼近真實值.受此啟發(fā),本文提出一種針對BN 統(tǒng)計量的在線更新策略,通過目標域數(shù)據(jù)流逐漸更新BN 統(tǒng)計量,使目標域模型特征分布逐漸對齊.與文獻[13,30] 的封閉世界方法不同的是,本文方法無需目標域的全部數(shù)據(jù),適用于數(shù)據(jù)流可用的開放世界問題.為簡潔起見,此處僅討論單個BN 層的情況,但相關(guān)操作可部署至網(wǎng)絡(luò)任意BN 層.首先,模型在源域S進行訓(xùn)練后,可以獲得對應(yīng)的BN 層統(tǒng)計量Bs(μs,).然后,模型按照以下過程在目標域視頻流中更新統(tǒng)計量.在t0時刻,將統(tǒng)計量初始化BoBs.在t時刻,將先前時刻的BN 統(tǒng)計量Bt-1(μt-1,)對齊至Bt.假設(shè)特征向量由m個樣本{x1,···,xm}得到,則首先計算當前時刻BN 統(tǒng)計量的觀測值

        給定動量參數(shù)atR,以及t-1 時刻更新后的統(tǒng)計量Bt-1(μt-1,),則t時刻更新后的統(tǒng)計量為

        該更新后的統(tǒng)計量更接近當前場景統(tǒng)計量的真實值.對該BN 層給定輸入x,則此時輸出特征為

        其中,γ和β為BN 層仿射變換參數(shù),?R 為極小常量以保持數(shù)值穩(wěn)定.事實上,動量at對特征分布對齊至關(guān)重要,其決定了該BN 層適應(yīng)于當前幀的程度.因此,與文獻[12]中手動設(shè)定方法不同的是,本文采用元學(xué)習方法自動地獲得合適的動量at值,使其更好地引導(dǎo)BN 統(tǒng)計量更新和特征分布對齊.為簡潔起見,在下文中,at表示所有BN 層動量的組合.

        2.2 在線元學(xué)習適應(yīng)算法

        本節(jié)介紹所提出的在線元學(xué)習適應(yīng)算法.假設(shè)目標域雙目視頻序列為V其長度為T,其中,It為t時刻圖像對.當模型在視頻V上進行在線適應(yīng)時,使用算法1 進行參數(shù)更新.

        算法1.在線元學(xué)習適應(yīng)算法

        算法1 的動機在于: 對每個時刻t,網(wǎng)絡(luò)自適應(yīng)學(xué)習并獲得用以更新參數(shù)的學(xué)習率.對于算法初始化,首先定義網(wǎng)絡(luò)參數(shù)θ0,BN 統(tǒng)計量B0,網(wǎng)絡(luò)參數(shù)的初始學(xué)習率λ0,以及元學(xué)習率λ*.對每個網(wǎng)絡(luò)參數(shù)均設(shè)定對應(yīng)的學(xué)習率,因此,λ0和λ*與網(wǎng)絡(luò)參數(shù)θ維度相同.第3 行表示在t時刻,給定當前網(wǎng)絡(luò)參數(shù)θt,輸入圖像對It,則預(yù)測的深度圖為Dt(dr,dl)Φ((θt,at,Bt),It).此處dl和dr分別定義左圖像與右圖像對應(yīng)的深度圖.在前饋過程中,算法使用第2.1 節(jié)中描述的特征分布對齊算法,動量為at.統(tǒng)計量Bt+1儲存至下一時刻使用.第4 行表示預(yù)測的深度圖由損失函數(shù)L(Dt,It) 進行評估.注意到學(xué)習率λt-1為t時刻損失Lt的參數(shù),因此,在t時刻前饋完成后,通過損失Lt求解針對λt-1的梯度,并以元學(xué)習率λ*進行梯度下降即可獲得針對t時刻用于更新參數(shù)的學(xué)習率λt.以上過程在第6 行表示.由此,算法基于上一時刻的網(wǎng)絡(luò)參數(shù)學(xué)習率λt-1和當前時刻損失Lt,得到了更適合于當前時刻場景的λt用于參數(shù)更新.最后,在第7 行和第8 行,算法基于λt對網(wǎng)絡(luò)參數(shù)θt和動量at進行梯度下降更新.通過該算法,每一時刻當新的場景輸入模型后,優(yōu)化器以先前時刻學(xué)習率為經(jīng)驗,以當前時刻的自監(jiān)督損失為引導(dǎo)獲得適用于當前時刻的參數(shù)學(xué)習率,使網(wǎng)絡(luò)中每個參數(shù)均得到合理更新,幫助模型快速適應(yīng)于當前場景.在OMLA 過程結(jié)束后,模型獲得θT+1,aT+1,BT+1和λT.

        2.3 基于元學(xué)習的模型預(yù)訓(xùn)練方法

        算法2.基于元學(xué)習的模型預(yù)訓(xùn)練方法

        2.4 深度估計損失函數(shù)

        本節(jié)介紹在算法1和算法2 中使用的自監(jiān)督深度估計損失函數(shù).與文獻[9] 相同的是,模型以雙目圖像Il,Ir為輸入并獲得對應(yīng)的視差圖dl,dr.使用扭轉(zhuǎn)操作fw,通過視差圖dl從右圖像重構(gòu)左圖像:

        對稱地,可用相同的方法從左圖像獲得右圖像的重構(gòu)結(jié)果.計算兩個重構(gòu)圖像與原圖像的誤差可以反映深度預(yù)測的效果.最終的損失函數(shù)由L1重構(gòu)誤差和基于結(jié)構(gòu)相似性(Structural similarity index,SSIM)的自重構(gòu)誤差LSSIM(參見文獻[9])組成:

        使用上述損失函數(shù)進行訓(xùn)練,模型能夠無監(jiān)督地獲得深度估計能力,進行在線適應(yīng)過程時也無需深度真值.

        3 相關(guān)實驗

        3.1 評估方法和標準

        1) 在線適應(yīng)效果的評估方法.在線學(xué)習或適應(yīng)過程中,視頻幀被序列化地輸入模型.對每個視頻幀,模型均進行深度估計和參數(shù)更新.需要強調(diào)的是,在實驗中為了合理地評估模型效果,在模型獲得預(yù)測結(jié)果后立即進行評估,然后進行參數(shù)更新.在整個視頻輸入完畢后,計算針對該視頻的平均效果以評估模型在該視頻上的整體表現(xiàn),同時計算最后20% 視頻幀的平均效果以評估模型在最后階段是否已經(jīng)較好地收斂.

        2) 評估準則.本文采用與文獻[1,9,40]相同的評估準則.設(shè)P為測試視頻中具有深度真值的像素點總數(shù),di分別為在像素i處的預(yù)測結(jié)果和深度真值,則評估準則如下:

        3.2 數(shù)據(jù)庫與部署細節(jié)

        本文實驗以包含視頻序列的自動駕駛合成數(shù)據(jù)庫為源域數(shù)據(jù)庫,在該數(shù)據(jù)庫上進行預(yù)訓(xùn)練.以現(xiàn)實駕駛場景為目標域數(shù)據(jù)庫,在該數(shù)據(jù)庫上進行在線適應(yīng)和評估.所使用的數(shù)據(jù)庫如下:

        1) Synthia[20]為一個城市駕駛場景的合成數(shù)據(jù)庫.其包含5 個不同場景和季節(jié)的雙目視頻流.本文使用春季場景中模擬汽車以前置攝像頭記錄的視頻流,共包含4 000 對雙目圖像,并在該數(shù)據(jù)上進行預(yù)訓(xùn)練過程.

        2) Scene Flow Driving[41]為一個駕駛場景的合成視頻數(shù)據(jù)庫.其包含不同的相機設(shè)定、車速和行駛方向.本文選擇汽車前進場景中所有的視頻數(shù)據(jù),共2 000 對雙目圖像.

        3) KITTI[14]為現(xiàn)實行車場景數(shù)據(jù)庫.本文選擇文獻[1] 提供的子集(簡稱Eigen 子集)為目標域數(shù)據(jù).該子集包含32 個不同的訓(xùn)練場景以及28 個不同的測試場景.實驗中以28 個測試視頻進行在線適應(yīng)和評估.

        本文以Pytorch[42]平臺部署方法,以一塊Nividia P40 GPU 進行訓(xùn)練和測試.在實驗中,每個網(wǎng)絡(luò)模型均在卷積層后包含BN 層[43],以進行特征分布對齊.在合成數(shù)據(jù)集上的預(yù)訓(xùn)練過程中,首先以10-4為學(xué)習率進行100 個周期的訓(xùn)練,然后利用算法2 進行10 個周期的元預(yù)訓(xùn)練過程.此處設(shè)定λ10-4,λmeta10-5,K8,視頻長度T8,t′5.在目標視頻的在線適應(yīng)過程中,使用OMLA 算法(即算法1),元學(xué)習率設(shè)置為λ*10-7,特征分布對齊方法僅在編碼網(wǎng)絡(luò)的BN 層中進行.所有的訓(xùn)練和測試過程使用Adam 優(yōu)化器[44].

        3.3 實驗結(jié)果與分析

        3.3.1 算法消融實驗

        為了驗證本文算法的有效性,本節(jié)選擇在常用的雙目深度估計框架(在文獻[9]中提出)上進行算法消融實驗.值得一提的是,盡管該框架最初是作為單目深度估計方法而提出的,但隨后在文獻[9-10]中成功用于雙目深度估計.除特別說明,所有模型均在Synthia 數(shù)據(jù)集上進行預(yù)訓(xùn)練,并且在Eigen子集的測試集視頻上進行在線適應(yīng)和評估.每個視頻序列被單獨評估效果,即均從Synthia 數(shù)據(jù)集預(yù)訓(xùn)練得到的初始網(wǎng)絡(luò)參數(shù)開始在線適應(yīng)過程.最終的效果得分為所有視頻幀的平均得分.

        相關(guān)的實驗結(jié)果在表1 中展示.其中,基準方法表示僅使用一般梯度下降法的在線適應(yīng)模型,在線特征分布對齊表示僅使用第2.1 節(jié)中方法,且采用基準方法進行在線適應(yīng)的模型.標準預(yù)訓(xùn)練方法表示不使用第2.3 節(jié)中元預(yù)訓(xùn)練方法,僅采用一般訓(xùn)練方法的模型.首先可以觀察到,不使用預(yù)訓(xùn)練過程的模型難以直接在目標域視頻流上取得令人滿意的效果,而使用基準方法對效果的提升也相當有限.這證明了僅在源域訓(xùn)練時,或者數(shù)據(jù)間存在域轉(zhuǎn)移時會導(dǎo)致算法效果的顯著下降.當模型使用在線特征分布對齊方法后,其效果有明顯提升,這表明其能夠較好地處理在線適應(yīng)過程中的域轉(zhuǎn)移問題.使用OMLA 算法使結(jié)果進一步提升.同時,使用元預(yù)訓(xùn)練方法的模型,其在線適應(yīng)效果均好于使用標準預(yù)訓(xùn)練方法的模型.這些結(jié)果證明了本文元學(xué)習算法的有效性.

        表1 KITTI Eigen 測試集的算法消融實驗 (僅評估 50 m 之內(nèi)的深度估計效果)Table 1 Ablation study on KITTI Eigen test set (the results are evaluated within 50 m)

        3.3.2 不同網(wǎng)絡(luò)模型和數(shù)據(jù)庫的實驗

        為了進一步驗證本文方法的有效性,本節(jié)首先在3 種網(wǎng)絡(luò)框架下進行對比實驗,分別為: DispNet[41],MADNet[15]和ResNet[9].實驗主要比較了基準方法和OMLA+元預(yù)訓(xùn)練算法的效果,其中基準方法在源域上進行標準預(yù)訓(xùn)練過程.同時,為了驗證本文方法在不同數(shù)據(jù)庫上的普適性,本節(jié)分別在Synthia和Scene Flow Driving 數(shù)據(jù)庫上進行預(yù)訓(xùn)練以比較效果.相關(guān)實驗結(jié)果在表2 中展示.可以看到,在每個網(wǎng)絡(luò)模型中,OMLA 算法均取得了明顯的提升.這證明了本文方法在小型網(wǎng)絡(luò)(如DispNet和MADNet)中仍能取得良好效果.在兩個數(shù)據(jù)庫上,OMLA 算法均帶來了提升,證明了其在數(shù)據(jù)庫間的普適性.表2 中同時比較了算法的運行時間,以幀速率 (幀/s)為指標.可以看到,OMLA 算法由于需要額外的梯度回傳過程,因此相比于基準方法,其幀速率降低了大約20%.然而,考慮到取得的效果提升,該運行時間是可以接受的.

        表2 不同網(wǎng)絡(luò)模型和數(shù)據(jù)庫上的結(jié)果對比Table 2 Comparison on different network architectures and datasets

        3.3.3與理想模型和當前最佳方法的比較

        本部分通過實驗比較本文提出的算法與理想模型(即利用目標域數(shù)據(jù)訓(xùn)練的模型)的在線適應(yīng)效果.實驗中的網(wǎng)絡(luò)模型均為以ResNet 構(gòu)建的模型[9].為訓(xùn)練理想模型,首先將模型在KITTI Eigen訓(xùn)練子集上進行預(yù)訓(xùn)練.這樣一來,當模型用于目標域數(shù)據(jù),即KITTI Eigen 測試子集時,不會受到域轉(zhuǎn)移問題的影響.對于理想模型的分析,采用了兩種做法: 1)在目標域上不進行在線適應(yīng)和模型更新;2)在目標域以基準方法進行在線適應(yīng)和模型更新.同時,實驗比較了L2A 算法[35],該算法為當前雙目深度估計領(lǐng)域最佳的在線適應(yīng)方法.相關(guān)結(jié)果在表3中展示,除OMLA+元預(yù)訓(xùn)練方法外,其余模型均采用標準預(yù)訓(xùn)練方法.可以看到,當模型在目標域進行預(yù)訓(xùn)練后,基準方法無法增強在線適應(yīng)的效果.進一步地,相比于在目標域預(yù)訓(xùn)練的理想模型,盡管存在域轉(zhuǎn)移問題,OMLA 算法獲得了有競爭力的在線適應(yīng)效果.相比于L2A 算法,盡管其使用基準方法進行在線適應(yīng),幀速率略高于OMLA算法,但OMLA 算法的準確度較之獲得了明顯提升,這證明了處理在線適應(yīng)過程中域轉(zhuǎn)移問題的重要性,也進一步驗證了本文方法的效果.以上結(jié)果表明,盡管模型在訓(xùn)練過程中從未接觸真實世界數(shù)據(jù),其仍然可以利用本文的在線適應(yīng)方法獲得針對目標場景的快速收斂能力,并逐漸預(yù)測精準的場景深度圖.

        表3與理想模型和當前最優(yōu)方法的比較 (僅比較實際深度值小于50 m 的像素點)Table 3 Comparison with ideal models and state-of-the-art method (Results are only evaluated within 50 m)

        為了進一步分析本文方法,圖3 展示了不同模型的深度估計視覺效果.為了評估不同模型的在線適應(yīng)效果隨時間的變化,此處展示了視頻初始、中段和末段時刻的深度估計效果.可以看到,理想模型在3 個時期的效果均是良好的,這是由于理想模型在目標域進行訓(xùn)練,因此不存在域轉(zhuǎn)移問題,模型的在線適應(yīng)效果可以得到保證.L2A 算法也取得了不錯的效果,但其問題也較為明顯,例如在初始階段無法預(yù)測出道路樹木、交通標志桿的深度,在中段和后段依然存在大目標(如大型標志牌、大貨車)的深度不準確、丟失等問題.相比之下,本文方法在視頻初期預(yù)測效果有限,但在中段和末段幀上的表現(xiàn)較好,接近理想模型和深度真值.這是由于在視頻開始階段,模型仍然受到場景差異的影響而難以獲得準確的預(yù)測結(jié)果.當進行一段時間的在線適應(yīng)后,本文方法使模型較好地收斂至當前視頻場景,因而預(yù)測效果獲得了明顯提升.以上的視覺效果展示較好地說明了本文方法對模型在線適應(yīng)效果的提升.

        圖3 在KITTI Eigen 測試集中3 個不同視頻序列上的效果 (為了展示模型的在線適應(yīng)效果隨時間的變化,此處展示了視頻初始,中段和末段時刻的深度估計效果)Fig.3 Performance on three different videos of KITTI Eigen test (We illustrated predictions of initial,medium,and last frames)

        4 結(jié)束語

        本文研究了深度估計模型的在線適應(yīng)問題,并提出了一種新的在線元學(xué)習適應(yīng)算法OMLA.該算法適用于需要深度估計網(wǎng)絡(luò)模型快速收斂和適應(yīng)于目標視頻流的在線序列化學(xué)習場景.在公開數(shù)據(jù)集上的大量實驗表明,相對于一般的梯度下降算法,本文方法較好地處理了域轉(zhuǎn)移問題,并通過元學(xué)習方法充分利用每一時刻的學(xué)習反饋,有助于提升深度估計模型的在線適應(yīng)效果.與當前最好的方法相比,本文方法取得了明顯提升;與理想模型相比,本文方法獲得了接近的并有競爭力的效果.

        猜你喜歡
        深度效果方法
        按摩效果確有理論依據(jù)
        深度理解一元一次方程
        迅速制造慢門虛化效果
        深度觀察
        深度觀察
        深度觀察
        抓住“瞬間性”效果
        中華詩詞(2018年11期)2018-03-26 06:41:34
        可能是方法不對
        模擬百種唇妝效果
        Coco薇(2016年8期)2016-10-09 02:11:50
        用對方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        在线观看免费人成视频色9| 一区二区三区国产精品麻豆| 中文字幕成人乱码熟女精品国50| 亚洲日韩国产欧美一区二区三区| 亚洲av无码成人精品区在线观看 | 亚洲av无码国产精品草莓在线| 熟妇人妻中文av无码| 4hu44四虎www在线影院麻豆 | 国产熟女露脸大叫高潮| 国产精品高清网站| 无码国产69精品久久久孕妇| 精品综合久久久久久8888 | 在线观看亚洲av每日更新影片 | 无码少妇一区二区浪潮av| 国产免费网站看v片元遮挡| 亚洲一区二区三区精品久久| 亚洲av丰满熟妇在线播放| 精产国品一二三产区m553麻豆| 日韩一二三四精品免费| 日日噜噜噜夜夜狠狠久久蜜桃| 国产精品毛片va一区二区三区| 亚洲av日韩av无码av| 丰满少妇人妻无码超清| 亚洲av综合色区一区二区| 国产无遮挡又黄又爽免费网站| 四虎精品免费永久在线| av男人的天堂手机免费网站| 一本色道无码不卡在线观看| 无码任你躁久久久久久| 欧美亚洲h在线一区二区| 91九色国产老熟女视频| 丰满少妇被粗大的猛烈进出视频| 国产成人精品三级麻豆 | 一区二区三区精品偷拍| 亚洲综合另类小说色区| 亚洲学生妹高清av| 岛国视频在线无码| 国产免费观看久久黄av麻豆| 乱人伦人妻中文字幕无码| 91精品久久久久含羞草| av在线播放中文专区|