亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于離線標(biāo)定的快速圖像拼接算法

        2021-10-15 05:04:42于國(guó)棟王春陽蘭孝野徐鵬宇劉曉辰李忠琦
        液晶與顯示 2021年10期
        關(guān)鍵詞:特征提取融合

        于國(guó)棟, 王春陽, 蘭孝野, 徐鵬宇, 張 月, 劉曉辰, 李忠琦

        (中國(guó)人民解放軍63869部隊(duì),吉林 白城 137001)

        1 引 言

        對(duì)于一些大視場(chǎng)、大場(chǎng)景,特別是近些年比較熱門的360°全視場(chǎng)監(jiān)控等應(yīng)用,由于單個(gè)攝像機(jī)的視場(chǎng)和功能限制,通常難以夠覆蓋完整的角度。一般對(duì)大視場(chǎng)范圍的圖像采集或者全景視頻監(jiān)控有兩種解決方式,一種是使用廣角攝像頭;另一種是使用多臺(tái)固定的攝像機(jī)覆蓋完整的監(jiān)控范圍,然后再經(jīng)過圖像拼接獲取完整的監(jiān)控區(qū)域[1]。但是由于受相機(jī)功能和價(jià)格的限制,廣角攝像機(jī)往往難以被采用。為此,需要尋找一種在大視角拍攝情況下,能快速獲取高質(zhì)量畫質(zhì)的圖像采集技術(shù)。

        圖像拼接是將在同一時(shí)間和地點(diǎn)拍攝的幾張具有一定重合區(qū)域的照片拼接成一張全景圖像的技術(shù),是計(jì)算機(jī)視覺和圖形學(xué)領(lǐng)域的研究課題之一。全景圖像拼接技術(shù)廣泛應(yīng)用于安防監(jiān)控、戰(zhàn)場(chǎng)態(tài)勢(shì)感知、虛擬現(xiàn)實(shí)技術(shù)和醫(yī)學(xué)圖像等多種領(lǐng)域[1-2]。傳統(tǒng)圖像拼接過程一般包含圖像預(yù)處理、圖像配準(zhǔn)、圖像映射和圖像融合等幾個(gè)步驟[3]。

        傳統(tǒng)的圖像拼接算法是基于輸入的每一幀圖像進(jìn)行特征提取和計(jì)算配準(zhǔn)的拼接方法。具體步驟是先提取特征點(diǎn),然后再進(jìn)行特征匹配與融合等步驟。但是對(duì)于實(shí)時(shí)的圖像拼接場(chǎng)景,傳統(tǒng)方法需要消耗大量的空間和時(shí)間,因此若是對(duì)每一幀圖像都進(jìn)行特征提取和匹配,無法滿足實(shí)時(shí)拼接的要求,容易出現(xiàn)鬼影等問題。泊松圖像融合算法,雖然融合效果較好,但計(jì)算量較大。此外還有基于最佳縫合線和相關(guān)的改進(jìn)算法,但是都無法滿足實(shí)時(shí)拼接的要求。傳統(tǒng)的圖像融合算法中,基于多分率的圖像融合算法是在RGB三個(gè)通道上做拉普拉斯金字塔并實(shí)現(xiàn)融合,計(jì)算量大。

        本文提出了一種基于YUV色彩空間的拉普拉斯金字塔的快速圖像融合算法,解決適用于多攝像頭合成全景視頻拼接難題。系統(tǒng)由多臺(tái)安放在固定位置的相機(jī)組成,具有固定的重合面積,并且使用相同的外部觸發(fā),對(duì)實(shí)時(shí)采集到的圖像進(jìn)行拼接。考慮到實(shí)際應(yīng)用場(chǎng)景中相機(jī)的角度、位置和重疊的區(qū)域固定,所以采用離線標(biāo)定,在離線標(biāo)定階段就計(jì)算出相機(jī)的映射關(guān)系,然后保存到本地。在每次拼接時(shí)加載映射矩陣,無需再重復(fù)進(jìn)行特征提取和匹配,可以省去拼接過程中大量的前期工作,直接進(jìn)入圖像拼接、融合步驟。

        2 離線標(biāo)定

        2.1 SIFT特征匹配

        離線標(biāo)定的第一階段是對(duì)待拼接的圖像進(jìn)行特征提取和配準(zhǔn)。常用的特征提取算法中,基于尺度不變的有SIFT算法[4]和SURF等算法[5-6],這些算法各有優(yōu)缺點(diǎn)。由于在實(shí)際應(yīng)用中使用離線標(biāo)定方法,所以無需關(guān)注在離線標(biāo)定階段中特征提取和全局配準(zhǔn)所消耗的時(shí)間,因此選用效果最好的SIFT算法[7]。

        假設(shè)Ri和Sk是一對(duì)配準(zhǔn)點(diǎn)的SFIT描述符,SIFT特征向量為128維,即包含128個(gè)數(shù)據(jù)[8],其中Ri=(ri1,ri2,…,ri128),Sk=(sk1,sk2,…,sk128),則Ri和Sk的歐氏距離計(jì)算公式如下:

        (1)

        2.2 單應(yīng)性矩陣計(jì)算

        在攝像機(jī)數(shù)學(xué)模型中,一個(gè)三維空間中的點(diǎn)P=[X,Y,Z,1]T映射到攝像機(jī)二維平面上的點(diǎn)p=[x,y,1]T滿足以下關(guān)系:

        p=MP,

        (2)

        假設(shè)兩個(gè)攝像機(jī)的相機(jī)映射矩陣分別為M1和M2,T通過這兩個(gè)相機(jī)拍攝的圖像中有相同點(diǎn)P,而點(diǎn)P在兩幅圖像中的齊次坐標(biāo)分別為p1和p2,則有下列公式成立:

        (3)

        (4)

        這樣,攝像機(jī)中相應(yīng)點(diǎn)的變換就可以用一個(gè)3×3的單應(yīng)性矩陣H表示。兩幅圖像之間的單應(yīng)性矩陣H可以表示成如下形式:

        (5)

        H為非奇異矩陣,因此對(duì)于點(diǎn)p1、p2用非齊次坐標(biāo)代替齊次坐標(biāo),設(shè)p1和p2的非齊次坐標(biāo)為p1=[x1,y1,1]T和p2=[x2,y2,1]T,則二維投影變換的關(guān)系可表示為:

        (6)

        (7)

        由于一對(duì)匹配點(diǎn)只能確定2個(gè)線性方程,因此理論上需要至少4對(duì)匹配點(diǎn)才可以求出投影變換矩陣H。對(duì)于實(shí)際工程中有n個(gè)點(diǎn)對(duì)(n>4)時(shí),最終可利用最小二乘法計(jì)算出投影變換矩陣M。

        3 快速圖像融合算法

        3.1 傳統(tǒng)的的拉普拉斯金字塔圖像融合算法

        圖像融合是將圖像配準(zhǔn)之后的待拼接圖像在空間上進(jìn)行疊加。圖像融合直接影響拼接后圖像的質(zhì)量。傳統(tǒng)的圖像融合算法,例如加權(quán)平均融合計(jì)算量小,可用于快速圖像拼接,但融合效果較差,容易出現(xiàn)鬼影等問題[8-12]。泊松圖像融合算法雖然融合效果較好,但計(jì)算量較大。此外還有基于最佳縫合線和相關(guān)的改進(jìn)算法,但是都無法滿足實(shí)時(shí)拼接的要求。傳統(tǒng)的圖像融合算法中,基于多分率的圖像融合算法是在RGB三個(gè)通道上做拉普拉斯金字塔并實(shí)現(xiàn)融合,計(jì)算量大。

        本文采用一種改進(jìn)的多分率圖像融合方法,提出在YUV色彩空間中進(jìn)行拉普拉斯金字塔圖像融合。該方法可以減少大量的計(jì)算,并且圖像融合效果較佳。

        (1)首先構(gòu)造高斯金字塔,將原始圖像作為金字塔的最底層圖像G0,使用高斯卷積核對(duì)圖像進(jìn)行卷積,然后再下采樣得到上一層圖像G1。重復(fù)進(jìn)行卷積核下采樣操作i次即可獲取第i層圖像Gi,迭代多次,即可形成圖像高斯金字塔。

        Gi+1=DOWN(Gi+1?g3×3),

        (8)

        其中g(shù)3×3是高斯卷積核。DOWN表示下采樣計(jì)算。

        (2)構(gòu)造拉普拉斯金字塔,在構(gòu)建高斯金字塔的過程中,持續(xù)的卷積核下采樣會(huì)造成圖像高頻信息的丟失,所以使用拉普拉斯金字塔來保存圖像的高頻信息。將上一層的高斯金字塔圖像進(jìn)行上采樣后再進(jìn)行卷積操作,使用該層的高斯金字塔圖像減去卷積后的圖像即可得到當(dāng)前層的拉普拉斯金字塔圖像。

        拉普拉斯金字塔中第i層圖像:

        Li=Gi-UP(Gi+1)?g3×3,

        (9)

        其中:Li是拉普拉斯金字塔中第i層的圖像,Gi是高斯金字塔中第i層的圖像,UP表示上采樣計(jì)算。

        (3)融合后恢復(fù)圖像,處理的過程需要對(duì)每一層金字塔融合。處理的過程從上到下,最終獲得原始圖像。

        完成每一層的圖像融合之后,要根據(jù)融合后的拉普拉斯金字塔重構(gòu)高斯金字塔,并最終得到實(shí)際融合后的圖像,計(jì)算公式如下:

        Gi=Li+DOWN(Gi+1)?g3×3.

        (10)

        3.2 改進(jìn)的拉普拉斯金字塔圖像融合算法

        (1)色彩空間轉(zhuǎn)換

        RGB和YUV色彩空間的互相轉(zhuǎn)換公式如下:

        (11)

        (12)

        (2)處理Y通道

        在YUV色彩空間中,Y通道表示像素點(diǎn)的亮度信息并反映圖像中灰度值的動(dòng)態(tài)范圍。YUV色彩空間將亮度和顏色分開,Y部分指標(biāo)是融合后圖像的亮度信息,UV通道表示顏色信息。在圖像融合中,高對(duì)比度的區(qū)域應(yīng)給更高的權(quán)重,所以拉普拉斯金字塔可以很好地保留高對(duì)比度的區(qū)域。

        拉普拉斯圖像融合,其實(shí)就是權(quán)重融合,本文從兩個(gè)方面考慮權(quán)重、對(duì)比度因子和顏色深度因子。

        對(duì)比度因子公式如下:

        C(i,j)k=|Yk(i+1,j)+Yk(i-1,j)+Yk(i,j+1)+Yk(i,j-1)-4Y(i,j)|,

        (13)

        其中:Yk(i,j)是第k層中坐標(biāo)為(i,j)的Y通道值。

        顏色深度因子Ek(i,j)公式如下:

        Ek(i,j)=|Uk(i,j)×Vk(i,j)+ε|,

        (14)

        其中:Uk(i,j)和Vk(i,j)分別表示第i層輸入圖像在坐標(biāo)(i,j)(i,j)處的U通道和V通道的值,ε是一個(gè)很小的值,避免權(quán)重為0。

        最終的實(shí)際權(quán)重為:

        Wk(i,j)=Ck(i,j)×Ek(i,j),

        (15)

        使用這個(gè)權(quán)重來完成圖像融合,最終可得到融合后的Y通道圖像。

        (3)處理UV通道

        (16)

        (17)

        根據(jù)上述公式獲取融合后UV通道的值,即相同像素點(diǎn)位置,選擇兩個(gè)中較大值的U和V。最后將融合后的YUV色彩空間圖像轉(zhuǎn)換為RGB色彩空間的圖像即可。

        4 實(shí)驗(yàn)驗(yàn)證

        為驗(yàn)證文章方法的有效性,在場(chǎng)區(qū)生活區(qū)選取一個(gè)寬闊場(chǎng)地驗(yàn)證實(shí)際拼圖效果。本文選用的圖像獲取設(shè)備為華為Mate20,該手機(jī)內(nèi)置鏡頭為徠卡三攝鏡頭,采用“廣角+超廣角+5倍長(zhǎng)焦距”的組合。其中,廣角鏡頭1 200萬像素(f/1.8光圈,等效焦距27 mm),超廣角1 600萬像素(f/2.2光圈,等效焦距17 mm),長(zhǎng)焦鏡頭800萬像素(f/2.4光圈,等效焦距52 mm)。程序運(yùn)行環(huán)境Visual Studio,算法實(shí)現(xiàn)工具OpenCV4.1.0,操作系統(tǒng)是Windows10,CPU配置為Corei7-8750,2.20GHz。

        在拍攝場(chǎng)景前,隨機(jī)選取兩個(gè)拍攝位置,相距大約5 m,拍攝圖像并保存。

        圖像處理分兩個(gè)階段:離線標(biāo)定階段和實(shí)時(shí)拼接階段。這兩個(gè)階段的主要任務(wù)和工作如下:

        (1)離線標(biāo)定階段

        離線標(biāo)定階段主要包括特征提取、特征匹配和單應(yīng)性矩陣的計(jì)算。

        離線標(biāo)定階段的任務(wù)是提取特征點(diǎn)和進(jìn)行特征匹配,最終根據(jù)匹配的結(jié)果計(jì)算出單應(yīng)性矩陣。該矩陣在實(shí)時(shí)拼圖時(shí)加載,直接用于圖像映射,可節(jié)省大量的特征提取和配準(zhǔn)時(shí)間。

        (2)實(shí)時(shí)拼接階段

        實(shí)時(shí)拼接階段包括加載單應(yīng)性矩陣計(jì)算和圖像融合。

        圖1 待拼接圖像Fig.1 Diagram of images to be spliced

        圖1為待拼接的兩張圖像,分別取全景圖像的左右兩部分,經(jīng)特征匹配和校準(zhǔn)后,得到配準(zhǔn)的特征點(diǎn)。如圖2所示,綠色圓圈表示SIFT特征提取和配準(zhǔn)后得到的特征點(diǎn)。使用這些配準(zhǔn)的特征點(diǎn)計(jì)算得到透視變換矩陣為:

        (18)

        圖2 SIFT算法特征配準(zhǔn)結(jié)果Fig.2 Result of SIFT algorithm feature registration

        新建兩張空?qǐng)DL和R,高度與原圖相等,寬度是原圖的兩倍,將待拼接的左圖拷貝到圖L中 待拼接的右圖經(jīng)單應(yīng)性矩陣計(jì)算后投影到圖R中,得到對(duì)齊后的圖像,如圖3所示。圖4為加權(quán)平均融合算法得到的結(jié)果,從拼接效果可以看出,使用SIFT特征提取和配準(zhǔn)之后的特征點(diǎn)計(jì)算得到的單應(yīng)性矩陣可以使圖像獲得較好的對(duì)齊效果。

        圖3 圖像對(duì)齊Fig.3 Diagram of image alignment

        圖4 加權(quán)平均融合算法Fig.4 Diagram of weighted average fusion algorithm

        雖然使用該單應(yīng)性矩陣有較好的圖像對(duì)齊效果,但是也存在一定的缺點(diǎn),經(jīng)過矩陣運(yùn)算對(duì)齊后的圖像,其右側(cè)相對(duì)于原圖缺少了一部分。產(chǎn)生這種情況的主要原因?yàn)椋河覀?cè)的點(diǎn)經(jīng)過單應(yīng)性矩陣計(jì)算后其坐標(biāo)超出目標(biāo)圖像矩陣的范圍,導(dǎo)致超出范圍的這部分被拋棄了。在實(shí)際應(yīng)用中,如果圖像側(cè)邊不重要,可以忽略。但如果側(cè)邊圖像有必要保留,可通過修改單應(yīng)性矩陣的方式保留該部分圖像信息。

        單應(yīng)性矩陣公式如下:

        (19)

        圖像對(duì)齊后,分別采用加權(quán)平均算法、改進(jìn)的漸入漸出算法、傳統(tǒng)拉普拉斯金字塔融合算法和本文算法,對(duì)圖像進(jìn)行融合處理,其效果如圖4~7所示。相對(duì)于使用加權(quán)平均融合算法,無論是傳統(tǒng)的拉普拉斯圖像融合還是本文算法都有更好的融合效果。加權(quán)平均融合算法和改進(jìn)的漸入漸出算法在一些細(xì)微之處無法將兩幅圖像中的同一個(gè)物體融為一體,而是當(dāng)作兩個(gè)物體同時(shí)保留在圖像上,融合效果較差,而拉普拉斯算法卻可以識(shí)別并做了很好的融合。

        使用3個(gè)不同大小的融合區(qū)域(320×1 440,430×1 440,730×1 440)進(jìn)行多次融合取處理時(shí)長(zhǎng)的平均值,比較3種算法的融合速度。如表1所示,加權(quán)平均融合算法雖然有較快的處理速度,但是融合效果不佳。改進(jìn)的漸入漸出圖像融合方法相對(duì)于加權(quán)平均融合算法圖像拼接效果更好,但是也會(huì)帶來更復(fù)雜的計(jì)算。傳統(tǒng)拉普拉斯算法和本文算法處理效果幾乎一致,但是處理效率差別較大,本文算法的處理時(shí)間明顯快于傳統(tǒng)拉普拉斯金字塔融合算法,處理時(shí)間提高了近3倍。

        圖5 改進(jìn)漸入漸出圖像融合算法Fig.5 Diagram of improved gradual in gradual out image

        圖6 RGB色彩空間拉普拉斯融合Fig.6 Diagram of Laplace fusion in RGB color space

        圖7 YUV色彩空間拉普拉斯融合Fig.7 Diagram of Laplacian fusion in YUV color space

        可見,相比于傳統(tǒng)拉普拉斯金字塔融合算法,本文方法在不降低處理質(zhì)量的前提下,處理速度更快,效率更高,處理海量高清圖像時(shí),更能體現(xiàn)本文算法的優(yōu)越性。

        表1 本文算法與傳統(tǒng)拉普拉斯金字塔融合算法處理速度對(duì)比結(jié)果Tab.1 Results of speed comparison between the two algorithms (s)

        5 結(jié) 論

        快速圖像拼接中采用離線標(biāo)定的方法可節(jié)省大量計(jì)算時(shí)間。在傳統(tǒng)拉普拉斯金字塔圖像融合基礎(chǔ)上,提出基于YUV色彩空間的拉普拉斯金字塔圖像融合,將圖像亮度和顏色分離,只對(duì)Y通道做拉普拉斯金字塔圖像融合,相對(duì)傳統(tǒng)拉普拉斯圖像融合速度提升了近3倍,簡(jiǎn)化了實(shí)現(xiàn)過程,也同樣可以獲取較好的圖像融合效果。

        猜你喜歡
        特征提取融合
        特征提取和最小二乘支持向量機(jī)的水下目標(biāo)識(shí)別
        一次函數(shù)“四融合”
        村企黨建聯(lián)建融合共贏
        融合菜
        從創(chuàng)新出發(fā),與高考數(shù)列相遇、融合
        寬窄融合便攜箱IPFS500
        《融合》
        基于Gazebo仿真環(huán)境的ORB特征提取與比對(duì)的研究
        電子制作(2019年15期)2019-08-27 01:12:00
        基于Daubechies(dbN)的飛行器音頻特征提取
        電子制作(2018年19期)2018-11-14 02:37:08
        Bagging RCSP腦電特征提取算法
        精品国产精品久久一区免费式| 熟妇人妻不卡中文字幕| 高清亚洲成av人片乱码色午夜| 国产一区二区长腿丝袜高跟鞋| 国产99在线 | 亚洲| 中文字幕在线亚洲日韩6页手机版| 东京热加勒比日韩精品| 久久一区二区三区少妇人妻| 狠狠人妻久久久久久综合蜜桃| 欧美日韩久久久精品a片| 久久精品国产久精国产69| 国产老熟女伦老熟妇露脸| 亚洲精品白浆高清久久久久久| 亚洲精品国产精品国自产观看| 成人国产精品免费网站| 精品亚洲国产日韩av一二三四区| av免费不卡国产观看| 熟妇五十路六十路息与子| 一区二区三区四区亚洲综合| 中文字幕丰满人妻av| 一本一本久久aa综合精品| 国产午夜亚洲精品不卡福利| 在线视频播放观看免费| 亚洲国产婷婷香蕉久久久久久| 亚洲中文字幕无码久久| 亚洲国产剧情在线精品视| 伊人久久大香线蕉av不变影院 | 熟女少妇内射日韩亚洲| 国产精品黄网站免费观看| 亚洲视频在线视频在线视频| 国产成人综合久久久久久| 中文字幕乱码免费视频| 国产午夜精品久久久久九九| 中文字幕在线乱码av| 一本色道无码道在线观看| 亚洲AV无码一区二区三区ba| 中文乱码字幕人妻熟女人妻| 亚洲av一二三区成人影片| 亚洲精品国产精品国自产观看| 亚洲中文字幕无线乱码va | 欧美丰满熟妇bbbbbb|