亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于流模型的三維點(diǎn)云生成方法

        2021-11-28 10:53:41楊天宇譚臺哲王俊鍇
        電腦知識與技術(shù) 2021年30期
        關(guān)鍵詞:深度學(xué)習(xí)

        楊天宇 譚臺哲 王俊鍇

        摘要:隨著三維點(diǎn)云數(shù)據(jù)在計(jì)算機(jī)視覺任務(wù)的逐漸流行,合成或重建高分辨率、高保真點(diǎn)云的能力變得至關(guān)重要。雖然深度學(xué)習(xí)模型最近在點(diǎn)云識別和點(diǎn)云分類任務(wù)中取得了成功,但點(diǎn)云生成任務(wù)還困難重重。本文提出了一種基于流模型的點(diǎn)云生成模型,使用深度學(xué)習(xí)技術(shù)訓(xùn)練好該模型之后,只需要從簡單的高斯分布隨機(jī)采樣數(shù)據(jù),然后通過我們的模型就可以產(chǎn)生全新的高質(zhì)量的點(diǎn)云形狀?;谖覀兡P蜕傻狞c(diǎn)云的質(zhì)量比大多數(shù)現(xiàn)存的模型都要好,可以為其他一些任務(wù)提供很好的先驗(yàn)點(diǎn)云,比如三維重建、點(diǎn)云補(bǔ)全任務(wù)。

        關(guān)鍵詞:點(diǎn)云;生成模型;流模型 ;深度學(xué)習(xí);先驗(yàn)點(diǎn)云

        中圖分類號:TP18? ? ? 文獻(xiàn)標(biāo)識碼:A

        文章編號:1009-3044(2021)30-0033-04

        開放科學(xué)(資源服務(wù))標(biāo)識碼(OSID):

        3D Point Cloud Generation Method Based on Flow Model

        TAN Tai-zhe, YANG Tian-yu, Wang Jun-kai

        (School of computers science, Guangdong University of Technology, Guangzhou 510006, China)

        Abstract: With the gradual popularity of 3D point cloud in computer vision tasks, the ability of high-fidelity point cloud to be synthesized or reconstructed gradually. Although the deep learning model has recently proposed a stream model-based point cloud generation model in point cloud recognition and point cloud classification tasks, after training the model using deep learning technology, it only needs to randomly sample data from a simple Gaussian distribution. Then we can generate a new estimated point cloud shape through our model. The quality of the point cloud generated based on our model is better than most existing models. It can provide a good prior point cloud for some other tasks, such as 3D reconstruction, and point cloud completion tasks.

        Key words: point cloud; generative model; flow based model; deep learning; prior point cloud

        1 引言

        隨著點(diǎn)云在自動駕駛、三維建模,考古與文物保護(hù)等任務(wù)的流行,研究點(diǎn)云成為了一種趨勢。目前點(diǎn)云分類任務(wù)和點(diǎn)云目標(biāo)檢測任務(wù)已經(jīng)取得了不錯的成績,然而,點(diǎn)云生成任務(wù)還比較少的研究。Diego等人在2019年提出了tree-GAN模型[8],運(yùn)用GAN來做點(diǎn)云生成,但是訓(xùn)練起來非常困難,不能生成指定的點(diǎn)云。P Mandikal在2019年的WACV通過編碼器-解碼器結(jié)構(gòu)的網(wǎng)絡(luò)生成稀疏的點(diǎn)云,但是其在密集點(diǎn)云的生成任務(wù)表現(xiàn)不佳。自從基于流模型的GLOW提出后,研究人員們視線再一次關(guān)注到流生成模型。來自康奈爾大學(xué)和英偉達(dá)的研究人員在2019ICCV提出了三維點(diǎn)云生成模型PointFlow,使得更多的研究人員關(guān)注到基于流模型三維點(diǎn)云的生成任務(wù)。

        2 生成模型

        所謂生成模型,就是給定訓(xùn)練數(shù)據(jù),我們要生成與該數(shù)據(jù)分布相同的新樣本。假設(shè)訓(xùn)練數(shù)據(jù)服從分布,生成樣本服從分布,生成模型的作用就是使得這兩個分布 和盡可能的相似。所以生成模型的本質(zhì)就是希望用一個我們知道的概率模型來擬合給定的訓(xùn)練樣本,即我們能夠?qū)懗鲆粋€帶參數(shù)θ的分布。深度神經(jīng)網(wǎng)絡(luò)作為萬能的函數(shù)擬合器,卻不能夠隨意擬合一個概率分布,因?yàn)楦怕史植加小胺秦?fù)”和“歸一化”的要求。為了解決這個問題,研究學(xué)者們提出了四種生成模型:自回歸模型、變分編碼器、對抗生成網(wǎng)絡(luò)、流模型。

        2.1 自回歸模型

        自回歸模型在PixelCNN和PixelRNN上展示了很不錯的實(shí)驗(yàn)效果,但是由于是按照像素點(diǎn)去生成圖像導(dǎo)致計(jì)算成本高,在可并行性上受限,在處理大型數(shù)據(jù)如大型圖像或視頻是具有一定麻煩的。

        2.2 變分自編碼器(VAE)

        VAE是在自編碼器的基礎(chǔ)上讓圖像編碼的潛在向量服從高斯分布從而實(shí)現(xiàn)圖像的生成,優(yōu)化了數(shù)據(jù)對數(shù)似然的下界,VAE在圖像生成上是可并行的,但是VAE存在著生成圖像模糊的問題。VAE的優(yōu)勢在于小樣本學(xué)習(xí),他專注于從給定集合中生成新的樣本[3]。

        2.3 生成對抗網(wǎng)絡(luò)(GAN)

        GAN拋棄具體的密度分布模型,只要樣本的特征。通過博弈來訓(xùn)練一個分布函數(shù)得到符合的很好的樣本特征。GAN在圖像生成任務(wù)中比較有優(yōu)勢,在很多GAN的拓展工作中也取得了很大的提高。但是GAN生成的樣本多樣性不足以及訓(xùn)練過程不穩(wěn)定是GAN普遍存在的問題,同時GAN沒有潛在空間編碼器,從而缺乏對數(shù)據(jù)的全面支持。

        2.4 流模型

        在使用深度學(xué)習(xí)訓(xùn)練網(wǎng)絡(luò)的時候,似然對數(shù)函數(shù)就作為損失函數(shù),而黑盒常微分方程(ODE)求解器可用于估計(jì)連續(xù)歸一化流的輸出和輸入梯度[2]。

        基于流的生成模型總結(jié)一下具有以下優(yōu)點(diǎn):

        a)精確的潛在變量推斷和對數(shù)似然評估,在VAE中編碼后只能推理出對應(yīng)于數(shù)據(jù)點(diǎn)的潛在變量的近似值。在像Glow這樣的可逆生成模型中,可以在沒有近似的情況下實(shí)現(xiàn)潛在變量的精確的推理,還可以優(yōu)化數(shù)據(jù)的精確對數(shù)似然,而不是其下限[5]。

        b)高效的推理和合成,自回歸模型如PixelCNN,也是可逆的,然而這樣的模型合成難以實(shí)現(xiàn)并行化,并且通常在并行硬件上效率低下。而基于流的生成模型如Glow和RealNVP都能有效實(shí)現(xiàn)推理與合成的并行化。

        c)自回歸模型的隱藏層有未知的邊際分布,使其執(zhí)行有效的數(shù)據(jù)操作上很困難;由于GAN沒有編碼器,所以很難表征完整的數(shù)據(jù)分布。基于流的模型能夠?qū)W習(xí)高維數(shù)據(jù)中的復(fù)雜依賴關(guān)系,并學(xué)習(xí)語義上有意義的潛在空間,實(shí)時生成大量合成樣本。

        3 流模型在點(diǎn)云生成的應(yīng)用

        流模型現(xiàn)在已經(jīng)很成熟的應(yīng)用在圖像生成任務(wù)上,并且效果也還不錯比如OpenAI在2018的NeurIPS提出的GLOW模型[5]。而將流模型運(yùn)用在點(diǎn)云生成任務(wù)上的研究相對比較少。來自康奈爾大學(xué)和英偉達(dá)的研究人員在2019ICCV提出了一種基于流模型的三維點(diǎn)云生成模型PointFlow,這是流模型第一次應(yīng)用在點(diǎn)云生成任務(wù)[3]。PointFlow通過為分布的分布建模,分別建立物體形狀的分布和給定物體的點(diǎn)云的分布,以此來完成對于物體點(diǎn)云的生成任務(wù)。為了生成點(diǎn)云,作者對分布的分布進(jìn)行建模,也就是說不僅需要為形狀分布進(jìn)行建模,同時需要對特定形狀下的點(diǎn)云進(jìn)行建模。研究人員通過先驗(yàn)分布點(diǎn)的可逆參數(shù)化變換代替了直接對點(diǎn)云分布的建模。這意味著在給定模型的情況下,首先從通用的高斯先驗(yàn)中進(jìn)行采樣,而后基于參數(shù)變換將他們移動到與目標(biāo)形狀對應(yīng)的新位置,使得參數(shù)化的變化和變量的分布都可以利用這一模型進(jìn)行描述。更重要的是,這種模型還帶來了更強(qiáng)大的表達(dá)能力。在可以估計(jì)概率密度、提升變分下限的同時,還可以避免由GANs帶來的復(fù)雜訓(xùn)練。但是PointFlow有著它的缺點(diǎn),一是訓(xùn)練時間非常久;二是對于稀疏的點(diǎn)云,生成效果不是很好。

        基于PointFlow的不足,我們提出了一種改進(jìn)的模型。我們同樣使用連續(xù)歸一化流來為給定形狀下點(diǎn)的分布進(jìn)行建模。連續(xù)歸一化流可以視為三維歐式空間中的向量場,它可以通過對某一通用的先驗(yàn)分布進(jìn)行轉(zhuǎn)換(例如高斯分布)推導(dǎo)出點(diǎn)云的分布。連續(xù)歸一化流是一系列可逆的映射,可以將已知的初始化分布映射到更為復(fù)雜的分布上去。

        3.1 點(diǎn)云生成過程

        我們的目標(biāo)是生成點(diǎn)云,根據(jù)圖1將我們的模型網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)如圖2。首先,從高斯分布里面隨機(jī)采樣M個數(shù)據(jù)y1,y2,…,yM。每個數(shù)據(jù)表示一個點(diǎn)云,并且他們各自包含有對應(yīng)點(diǎn)云的x軸、y軸和z軸坐標(biāo)。然后將這M個點(diǎn)云通過可逆的網(wǎng)絡(luò)g,網(wǎng)絡(luò)g就會移動這些點(diǎn)云位置,從而獲得新的點(diǎn)云。因?yàn)橥粋€類別的點(diǎn)云會有不同的形狀,比如飛機(jī)這個類別就有客機(jī),戰(zhàn)斗機(jī)等等,所以為了使我們的模型產(chǎn)生不同形狀的點(diǎn)云,我們使用一個高維度的隱變量S來控制生成點(diǎn)云的形狀。我們從高斯分布里面隨機(jī)采樣數(shù)據(jù)(采樣的數(shù)據(jù)維度和S相同),然后將采樣的數(shù)據(jù)送入可逆的網(wǎng)絡(luò)f,這樣就可以獲得一個S。接著將S送入網(wǎng)絡(luò)g就可以生成不同形狀的點(diǎn)云。

        3.2 網(wǎng)絡(luò)訓(xùn)練過程

        根據(jù)圖2可知訓(xùn)練的過程和點(diǎn)云生成的過程是逆向的。我們想要從熟知的高斯分布生成點(diǎn)云,而點(diǎn)云所處的分布非常復(fù)雜且我們還不知道表達(dá)式。這時,我們借助于數(shù)據(jù)集的點(diǎn)云,從點(diǎn)云采樣數(shù)據(jù),然后逆向通過可逆網(wǎng)絡(luò)g和可逆網(wǎng)絡(luò)f,只要這樣產(chǎn)生的分布和高斯分布一樣,則可逆網(wǎng)絡(luò)g和可逆網(wǎng)絡(luò)f訓(xùn)練完成。如圖3,訓(xùn)練過程我們分成2個分支,分支1(圖2的上部分):首先把從數(shù)據(jù)集獲得的點(diǎn)云數(shù)據(jù)采樣M個點(diǎn)。將這M個點(diǎn)通過一個編碼器獲得隱變量S,然后將S喂入可逆網(wǎng)絡(luò)f-1產(chǎn)生S`,f-1訓(xùn)練目標(biāo)是使得S`和從高斯分布采樣得到的高維向量盡量接近。分支2(圖3的下部分):可逆網(wǎng)絡(luò)g-1的訓(xùn)練目標(biāo)是將之前從數(shù)據(jù)集點(diǎn)云數(shù)據(jù)采樣的M個點(diǎn)移動到新的位置,使得他們和從高斯分布采樣的點(diǎn)的位置盡可能的接近。受到圖像分類任務(wù)的啟示,我們對從數(shù)據(jù)集點(diǎn)云數(shù)據(jù)采樣的M個點(diǎn)進(jìn)行數(shù)據(jù)增強(qiáng),具體來說就是對每個采樣到的點(diǎn)隨機(jī)加一下噪聲擾動。得益于流模型的可逆性帶來的似然計(jì)算,我們的網(wǎng)絡(luò)可以端到端穩(wěn)定地訓(xùn)練。訓(xùn)練結(jié)束后,我們就可以獲得編碼器、可逆網(wǎng)絡(luò)f-1和可逆網(wǎng)絡(luò)g-1的參數(shù)。

        4 實(shí)驗(yàn)

        與大多數(shù)做點(diǎn)云生成的任務(wù)一樣,我們使用ShapeNet核心數(shù)據(jù)集中的三種不同類別(飛機(jī)、椅子和汽車)進(jìn)行實(shí)驗(yàn),每個類別分別訓(xùn)練。在模型訓(xùn)練階段,我們隨機(jī)從點(diǎn)云形狀采樣2048個點(diǎn)作為訓(xùn)練樣本,使用2張2080ti GPU進(jìn)行訓(xùn)練。一共訓(xùn)練了15000個輪次。

        4.1 實(shí)驗(yàn)結(jié)果

        圖4展示了基于我們模型的點(diǎn)云生成的大致過程。最左邊是從高斯分布隨機(jī)采樣的點(diǎn)云,最右邊是我們模型最終生成的點(diǎn)云。從左往右展示了點(diǎn)云的生成過程。上面的是汽車,中間是椅子,下面的是飛機(jī)。

        圖5展示的是從我們模型生成的一些新樣本。第一行飛機(jī),第二行汽車,第三行椅子。從圖中我們知道,模型可以生成不同形狀的點(diǎn)云,比如飛機(jī)類別,可以生成客機(jī)或者戰(zhàn)斗機(jī),機(jī)翼的大小和方向也不同,尾翼形狀也各異。再看椅子類別,或是生成靠背的椅子,或是生成沙發(fā),或是不帶扶手,或是帶扶手的。椅子的凳腳也是各種樣式。

        4.2 模型評估

        我們使用由Lopez-Paz和Oquab[7]提出的1-NNA來評估我們的模型性能。1-NNA的理想分?jǐn)?shù)為50%。為了計(jì)算1-NNA,可以使用兩種不同的距離度量,倒角距離(CD)和運(yùn)土距離(EMD)來測量點(diǎn)云之間的相似度。1-NNA的生成結(jié)果如表1所示。

        從表1我們可以看出,我們的模型是全面優(yōu)于的r-GAN,在飛機(jī)和椅子類別上,也優(yōu)于PointFlow。在汽車類別中,我們略差于PointFlow,但是優(yōu)于r-GAN。

        5 結(jié)語

        在本文中,我們介紹了一種基于流模型的點(diǎn)云生成框架。通過實(shí)驗(yàn)證明,我們只需要使用簡單的高斯分布采樣,讓樣本通過我們的模型之后就可以產(chǎn)生高質(zhì)量的樣本。我們提出的基于流模型的點(diǎn)云生成模型性能比其他的方法效果好很多,甚至逼近目前最先進(jìn)的方法。未來的工作我們考慮將我們的模型應(yīng)用在單個圖像重建點(diǎn)云。

        參考文獻(xiàn):

        [1] Chen T Q, Rubanova Y, Bettencourt J, et al. Neural ordinary differential equations. In Advances in neural information processing systems, pp. 6571–6583, 2018.

        [2] Tian Qi Chen, Yulia Rubanova, Jesse Bettencourt, and David K Duvenaud. Neural ordinary differential equations.In NeurIPS, 2018.

        [3] Yang G D,Huang X,Hao Z K,et al.PointFlow:3D point cloud generation with continuous normalizing flows[C]//2019 IEEE/CVF International Conference on Computer Vision (ICCV).October 27 - November 2,2019,Seoul,Korea (South).IEEE,2019:4540-4549.

        [4] Valsesia, Diego, Fracastoro, Giulia, Magli, Enrico. Learning Localized Generative Models for 3D Point Clouds via Graph Convolution,In ICCV019.

        [5] Kingma D P, Dhariwal P. Glow: Generative flow with invertible 1x1 convolutions. In Advances in Neural Information Processing Systems, 2018: 10215-10224.

        [6] Panos Achlioptas, Olga Diamanti, Ioannis Mitliagkas, and Leonidas Guibas. Learning representations and generative models for 3d point clouds. In ICML, 2018.

        [7] Lopez-Paz D,Oquab M.Revisiting classifier two-sample tests[EB/OL].2016:arXiv:1610.06545[stat.ML].https://arxiv.org/abs/1610.06545

        [8] Shu D,Park S W,Kwon J.3D point cloud generative adversarial network based on tree structured graph convolutions[C]//2019 IEEE/CVF International Conference on Computer Vision (ICCV).October 27 - November 2,2019,Seoul,Korea (South).IEEE,2019:3858-3867.

        【通聯(lián)編輯:唐一東】

        猜你喜歡
        深度學(xué)習(xí)
        從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
        面向大數(shù)據(jù)遠(yuǎn)程開放實(shí)驗(yàn)平臺構(gòu)建研究
        基于自動智能分類器的圖書館亂架圖書檢測
        搭建深度學(xué)習(xí)的三級階梯
        有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
        電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識別研究
        利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
        考試周刊(2016年94期)2016-12-12 12:15:04
        MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
        大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        国产精品兄妹在线观看麻豆| 无码中文字幕在线DVD| 亚洲综合色区无码专区| 亚洲天堂av另类在线播放| 亚洲av网站在线观看一页| 亚洲av无码成人网站在线观看| 狠狠爱无码一区二区三区| 国产精品女同学| 免费播放成人大片视频| 亚洲精品成人av在线| 无码中文字幕加勒比一本二本| 中文字幕偷拍亚洲九色| 午夜男女靠比视频免费| 国产成年女人毛片80s网站| 激情内射亚洲一区二区三区爱妻| 亚洲av中文无码乱人伦在线咪咕 | 久久人妻公开中文字幕| 日本丰满少妇高潮呻吟| 中文字幕在线乱码亚洲| 久久久久久九九99精品| 自拍偷自拍亚洲精品播放| 国产成人自拍视频在线免费| 免费观看人妻av网站| 亚洲av无码专区在线播放| 四虎精品成人免费观看| 国产精品久久国产三级国| 日本饥渴人妻欲求不满| 67194熟妇在线永久免费观看| 日韩一区二区不卡av| 精品国产三区在线观看| 国产欧美亚洲精品第一页| 精品久久无码中文字幕| 久久麻豆精亚洲av品国产精品| 久久一本日韩精品中文字幕屁孩| 亚洲熟妇无码八av在线播放| 正在播放淫亚洲| 少妇人妻无一区二区三区| 亚洲日韩欧美一区、二区| 大香视频伊人精品75| 国产一级一厂片内射视频播放| 妺妺窝人体色777777|