亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        柱面全景視頻拼接算法

        2019-09-17 08:27:40李曉禹陳杰
        電子技術(shù)與軟件工程 2019年16期
        關(guān)鍵詞:柱面投影攝像頭

        文/李曉禹 陳杰

        視頻拼接技術(shù)將多路具有重疊區(qū)域的小視野視頻拼接為一路完整大視野場(chǎng)景,有效地解決了單個(gè)攝像頭視野局限性的問(wèn)題,在虛擬現(xiàn)實(shí)、智能監(jiān)控等領(lǐng)域有著廣泛的應(yīng)用。

        視頻圖像是由每秒若干幀的靜態(tài)圖像組成的,所以視頻拼接的本質(zhì)是圖像拼接,而圖像配準(zhǔn)又是圖像拼接最核心的一步,通常使用的方法是基于圖像特征的配準(zhǔn)。David G.Lowe 提出的尺度不變特征算子SIFT[1,2]在圖像拼接中被經(jīng)常使用,但是SIFT 算法的計(jì)算速度較慢,無(wú)法滿足視頻實(shí)時(shí)性的要求,不適合應(yīng)用于實(shí)時(shí)視頻的拼接。文獻(xiàn)[3]在SIFT 算法基礎(chǔ)上,提出了一種改進(jìn)的尺度不變特征—SURF( Speeded Up Robust Features)。文獻(xiàn)[4]研究表明:SURF算法提高了特征檢測(cè)的速度,同時(shí)與SIFT 算法性能基本相同。但是視頻拼接與圖像拼接又有著很大的不同,最大的不同是視頻拼接需要有良好的實(shí)時(shí)性。文獻(xiàn)[5]和[6]雖然對(duì)SURF算法進(jìn)行了改進(jìn),但是拼接速度仍然達(dá)不到實(shí)時(shí)性的要求。因此,SURF 雖然速度較快,但是為了能將其應(yīng)用在實(shí)時(shí)視頻拼接中仍需要改進(jìn),文中采用一種改進(jìn)的SURF 算法來(lái)進(jìn)行圖像配準(zhǔn)。

        文中采用的視頻拼接流程是:實(shí)時(shí)地采集視頻圖像幀,以30幀/s 的速率提取視頻幀,提取模板幀,對(duì)模板幀多路視頻圖像利用改進(jìn)的SURF進(jìn)行配準(zhǔn)以確定變換矩陣,利用這個(gè)變換矩陣對(duì)后續(xù)的每一幀圖像進(jìn)行融合,形成一個(gè)大視角的圖像,最后將這些圖像以視頻的形式輸出。

        1 柱面圖像全景拼接算法

        圖像拼接算法在圖像正畸之后的下一個(gè)步驟是圖像配準(zhǔn)。圖像配準(zhǔn)是為了使圖像間相互重疊部分對(duì)齊,將待拼接圖像轉(zhuǎn)換到參考圖像的坐標(biāo)系,構(gòu)成完整的圖像,它是整個(gè)圖像拼接中的核心部分。圖像配準(zhǔn)包括三個(gè)方面,即特征提取、特征匹配和確定變換矩陣。

        1.1 特征點(diǎn)提取

        本文首先要提取模板幀圖像的特征并進(jìn)行匹配。為了加快匹配過(guò)程,SURF 在特征矢量中增加了一個(gè)新的變量,即特征點(diǎn)的拉普拉斯屬性,這兩類特征點(diǎn)具有不同的屬性,在匹配時(shí)只需對(duì)同類的特征點(diǎn)進(jìn)行匹配,這樣會(huì)大大地提高匹配速度和精度。圖像中兩個(gè)特征點(diǎn)之間相似性的度量一般采用歐氏距離等距離函數(shù)進(jìn)行度量,通過(guò)相似性的度量就可以得到待配準(zhǔn)圖像間的潛在匹配點(diǎn)對(duì)。這其實(shí)是一個(gè)距離檢索問(wèn)題,如果用窮舉法則浪費(fèi)太多時(shí)間。由于用標(biāo)準(zhǔn)的K-d 樹時(shí),數(shù)據(jù)集的維數(shù)不應(yīng)該超過(guò)20[7],而改進(jìn)的SURF的維數(shù)為16,所以采用K-d 樹進(jìn)行特征匹配。

        通常使用比值匹配法,即將其中的一幅圖像作為樣本,在樣本的特征點(diǎn)中尋找在另外一幅圖像中與它距離最近的特征點(diǎn)和次近特征點(diǎn),然后計(jì)算這兩個(gè)特征點(diǎn)與樣本點(diǎn)之間歐氏距離的比值。對(duì)于比值小于某一閾值范圍內(nèi)的特征點(diǎn),則認(rèn)為是正確匹配的特征點(diǎn)。

        原有的SURF 算法是對(duì)整個(gè)圖像區(qū)域提取特征點(diǎn),然后在整個(gè)圖像范圍內(nèi)進(jìn)行特征匹配,由于實(shí)際環(huán)境中兩個(gè)攝像頭拍攝的畫面必然會(huì)有重疊區(qū)域的存在,所以只需在重疊部分進(jìn)行特征點(diǎn)提取就可以,這樣的好處是可以減少特征提取的時(shí)間,進(jìn)而減少匹配的時(shí)間并能減少誤匹配。

        由于提取的特征點(diǎn)存在誤匹配,本文根據(jù)相鄰兩個(gè)攝像頭之間重疊區(qū)域的大小對(duì)匹配的特征點(diǎn)進(jìn)行高效篩選。篩選算法如下:設(shè)圖像的寬度為Width,重疊區(qū)域比例為factor,那么重疊區(qū)域的寬度為factor*Width,左邊圖像的特征點(diǎn)為leftPoints,右邊圖像的特征點(diǎn)為RightPoints,那么篩選算法如下:如果,leftPoints的cols值大于factor*Width,小于Width,該匹配點(diǎn)保留,否則丟棄;如果,RightPoints的cols值小于(1-factor)*Width,大于0,該匹配點(diǎn)保留,否則丟棄。該算法對(duì)重疊區(qū)域的之外的匹配特征點(diǎn)對(duì)剔除,提高了特征匹配的精準(zhǔn)度。避免了重疊區(qū)域之外的誤匹配特征點(diǎn)對(duì),同時(shí)減少了程序的耗時(shí)。

        1.2 柱面投影

        在平面上提取的經(jīng)過(guò)篩選的高度匹配特征點(diǎn)進(jìn)行柱面投影變換,以便準(zhǔn)確計(jì)算兩幅圖像在后期融合時(shí)需要的變換量。

        如圖1所示,兩個(gè)攝像頭環(huán)形排列,每個(gè)攝像頭拍攝到的畫面為前方實(shí)線,圖像拼接就是將兩張圖像按照重疊區(qū)域融合,但是由于圖中兩個(gè)攝像頭朝向不同,使得拍攝畫面不滿足視覺一致性。因此考慮將圖像投影到柱面,即攝像頭前方弧線上,投影后的圖像重疊區(qū)域在柱面重合,具有較好視覺一致性。而且柱面圖像容易展開為矩形圖像,可直接用于圖像處理。圖1 (b)中點(diǎn)O 為攝像頭所在位置,前方矩形為拍攝畫面,柱面投影就是將其投影到紅色圓柱上。

        既然投影后的圖像具有較好的視覺一致性,因此先對(duì)圖像進(jìn)行柱面投影然后再拼接。源圖像Img上一點(diǎn)被映射到Imgcyl上的點(diǎn)。圖1(c)是圖1(b)的俯視圖,其中,Img 的寬AB和攝像頭的視角∠AOB均已知,分別是W和α,那么攝像頭的焦距f = W/(2×tan (α/2)),的寬度W′ = f×α。因?yàn)?,PB = x,所以∠AOC = β = arctan ((x -W/2)=f),所以同樣的,圖1(d)是圖1(b)截面圖,其中,Img的高為H,PR = y,并且△PQO ~△ P′Q′O,所以可以得到P′R′ 值。坐標(biāo)變換公式(2)如下:

        根據(jù)上面的坐標(biāo)變換公式,可以得到平面上匹配的特征點(diǎn)投影到柱面上的坐標(biāo)。

        1.3 確定變換量

        經(jīng)過(guò)柱面投影后的高度匹配特征點(diǎn)集用來(lái)進(jìn)行圖像對(duì)齊融合。本算法的圖像對(duì)齊融合操作很簡(jiǎn)單,只需要利用匹配的特征點(diǎn)集計(jì)算出圖像之間的平移量,然后將源圖像平移到目標(biāo)圖像上即可。1&1圖像拼接平移量的計(jì)算方法是取所有匹配特征點(diǎn)平移量的平均值作為圖像的平移量,計(jì)算公式為(3):

        其中,Wt是目標(biāo)圖像寬度,Pi,x是目標(biāo)圖像上的特征點(diǎn),P'i,x是源圖像上的對(duì)應(yīng)特征點(diǎn),N是匹配的特征點(diǎn)數(shù)量,diffx是x方向平移量,diffy是y方向平移量。

        圖像拼接結(jié)果Ires可由源圖像I′src和I′tar按照公式(4)平移拼接得到:

        其中,left = I′tar(x, y) - diffx,Xfactor=(xleft)/|diffx|。圖像融合過(guò)程簡(jiǎn)單的說(shuō)就是,左側(cè)區(qū)域取自左圖,右側(cè)區(qū)域取自右圖,中間重疊區(qū)域?yàn)樽髨D右圖線性融合。以上是1&1圖像拼接的平移量計(jì)算。在多路攝像頭視頻拼接之前,采用公式(3)事先計(jì)算好多路攝像頭視頻幀兩兩之間的變換矩陣(1&1平移量),以8路攝像頭為例,后續(xù)2&2,4&4圖像拼接的平移量計(jì)算需在前次(1&1)拼接變化矩陣的基礎(chǔ)上累加。并將每次的平移量保存起來(lái),用于后續(xù)視頻幀圖像的拼接融合。

        1.4 模板幀融合

        計(jì)算好圖像之間的平移量之后,就可以對(duì)其進(jìn)行融合。兩幅融合之前需要對(duì)基于平面坐標(biāo)的圖像進(jìn)行柱面投影。

        在進(jìn)行柱面全景圖的拼接過(guò)程中,為了保持實(shí)際場(chǎng)景中的空間約束關(guān)系和實(shí)際場(chǎng)景的視覺一致性,需將拍攝得到的反映各自投影平面的重疊圖像序列映射到一個(gè)標(biāo)準(zhǔn)的柱面坐標(biāo)空間上即柱面投影,采用上述公式(2)可以得到源圖像Img的柱面投影圖像Imgcyl。對(duì)每路攝像頭圖像進(jìn)行柱面投影,得到柱面圖像序列,再進(jìn)行拼接得到柱面全景圖。

        柱面投影后的圖像具有視覺一致性,可以用來(lái)做圖像對(duì)齊和融合,具體方法為:取左邊的圖像為目標(biāo)圖像,右邊的圖像為源圖像,源圖像在平移量的作用下,可以與目標(biāo)圖像完美融合。

        1.5 后續(xù)視頻幀拼接

        后續(xù)視頻幀圖像融合過(guò)程中所需的攝像頭參數(shù)和畸變系統(tǒng)、圖像平移量在模板幀處理中就已得到,所以在后續(xù)視頻幀的融合過(guò)程中免于進(jìn)行攝像頭標(biāo)定、特征檢測(cè)和匹配以及平移量計(jì)算,這對(duì)算法速度的提升起到很大作用。

        另外,柱面投影變換和圖像融合過(guò)程都可以使用GPU 的CUDA平臺(tái)并行加速(CUDA是NVIDIA推出的通用并行計(jì)算架構(gòu),支持對(duì)圖像進(jìn)行并行運(yùn)算處理)。所以后續(xù)視頻幀的處理速度快,可以做到實(shí)時(shí)拼接。實(shí)驗(yàn)結(jié)果表明,在NVIDIA 1080Ti GPU上運(yùn)行該算法,可以實(shí)時(shí)地生成無(wú)縫清晰的全景視頻。

        猜你喜歡
        柱面投影攝像頭
        浙江首試公路非現(xiàn)場(chǎng)執(zhí)法新型攝像頭
        攝像頭連接器可提供360°視角圖像
        解變分不等式的一種二次投影算法
        基于最大相關(guān)熵的簇稀疏仿射投影算法
        找投影
        基于單攝像頭的柱面拼接
        找投影
        Maple動(dòng)畫功能在高等數(shù)學(xué)教學(xué)中的應(yīng)用示例(Ⅱ)
        矩形孔徑柱面鏡面形擬合基底多項(xiàng)式研究
        奔馳360°攝像頭系統(tǒng)介紹
        黄 色 成 年 人 网 站免费| 爽爽精品dvd蜜桃成熟时电影院| 成人精品综合免费视频| 色欲AV成人无码精品无码| 国产一区二区三区不卡在线播放| 精品人妻一区二区三区久久| 成人爽a毛片在线视频| 亚洲国产欧美日韩一区二区| 少妇高潮太爽了免费网站| 日韩少妇人妻中文字幕| 欧美人与物videos另类| 国产成人亚洲综合无码精品| 精品黄色一区二区三区| 亚洲2022国产成人精品无码区| 无码精品人妻一区二区三区人妻斩 | 久久男人av资源网站无码| 在线丝袜欧美日韩制服| 一本大道久久a久久综合精品| 亚洲熟妇丰满多毛xxxx| 国产成人av一区二区三区无码| 久久精品国产亚洲av麻豆四虎| 天堂蜜桃视频在线观看| 国产精品久久久久久久妇| 啪啪无码人妻丰满熟妇| 麻豆av毛片在线观看| 亚洲av无码一区二区一二区| 免费夜色污私人影院在线观看| 色优网久久国产精品| 久久精品一区二区三区蜜桃| 亚洲裸男gv网站| 久久久久亚洲AV无码专| 国内精品女同一区二区三区| 日本熟妇人妻xxxx| 亚洲国产精品久久久久秋霞1| 久久久2019精品视频中文字幕| 精品在线视频在线视频在线视频| 亚洲人成人网站在线观看| 欧美日本道免费二区三区| 日本一区二区三区综合视频| 内射人妻少妇无码一本一道 | 国产精久久一区二区三区|