亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        眼底圖像中利用血管分叉點進(jìn)行特征匹配的研究

        2025-07-20 00:00:00殷若城
        電腦知識與技術(shù) 2025年18期
        關(guān)鍵詞:特征提取

        摘要:醫(yī)學(xué)圖像是臨床診斷的關(guān)鍵依據(jù),在醫(yī)學(xué)研究與應(yīng)用中具有重要價值。眼底圖像是醫(yī)學(xué)圖像的重要分支,可以通過眼底儀拍攝人體視網(wǎng)膜獲得。然而,受限于眼底相機固有的視場限制,單幅眼底圖像通常僅能捕獲視網(wǎng)膜的部分區(qū)域信息。為了獲得完整的眼底信息便于醫(yī)師的臨床診斷,需要對拍攝的多幅同一眼球的眼底圖像進(jìn)行配準(zhǔn)。文章研究了經(jīng)典的SIFT、SURF算法,并針對眼底圖像特性,提出了一種基于血管結(jié)構(gòu)特征的匹配方法,旨在為提升后續(xù)眼底圖像配準(zhǔn)精度提供理論與方法參考。

        關(guān)鍵詞:眼底圖像配準(zhǔn);血管分叉點;SURF;特征提?。惶卣鼽c匹配

        中圖分類號:TP3" "文獻(xiàn)標(biāo)識碼:A

        文章編號:1009-3044(2025)18-0102-04

        開放科學(xué)(資源服務(wù)) 標(biāo)識碼(OSID)

        0 引言

        信息技術(shù)的飛速進(jìn)步推動了計算機技術(shù)在醫(yī)療診斷領(lǐng)域的廣泛應(yīng)用。醫(yī)學(xué)影像為疾病診斷提供了豐富的科學(xué)依據(jù),其處理與分析技術(shù)已成為醫(yī)學(xué)影像學(xué)的核心組成部分。眼科醫(yī)師通過觀察和分析獲取的眼底醫(yī)學(xué)影像,進(jìn)而對與視網(wǎng)膜有關(guān)的疾病做出及時有效的臨床診斷。例如高血壓性視網(wǎng)膜病變就是一種典型的醫(yī)學(xué)病癥實例,其初期表現(xiàn)為眼底血管中的動脈硬化,是高血壓的重要早期指標(biāo)之一。

        為獲取全面的眼底信息,需采用圖像配準(zhǔn)技術(shù),將同一視網(wǎng)膜在不同視角下獲取的多幅圖像融合成一幅寬視場圖像,從而實現(xiàn)眼底圖像的自動配準(zhǔn)。本文旨在比較經(jīng)典的SIFT、SURF特征提取算法與一種基于血管分叉點(利用八鄰域分析檢測) 的特征點提取及匹配方法在眼底圖像中的性能。

        1 SIFT特征點提取與匹配

        1999年,David.Lowe提出了尺度不變特征SIFT算法,在2004年他又對該算法進(jìn)行了改進(jìn)[1],該特征提取方法在圖像配準(zhǔn)領(lǐng)域應(yīng)用十分廣泛。其提取的特征點滿足旋轉(zhuǎn)不變性、縮放不變性和局部不變性,對于亮度、噪聲等影響因素也能保持很強的穩(wěn)定性,實現(xiàn)原理是在圖像的尺度空間內(nèi),通過高斯差分來檢測圖像的極值點,對極值點進(jìn)行特征描述后,構(gòu)建特征向量,得到特征點,再從特征點中找到匹配的特征點對用于圖像配準(zhǔn)。實現(xiàn)過程可以分為以下四步:

        1)圖像尺度空間建立

        尺度空間理論是在多尺度方法的基礎(chǔ)上,對一維信號尺度空間進(jìn)行定義,構(gòu)建圖像一維的尺度空間。在一維空間的基礎(chǔ)上,對圖像的二維空間進(jìn)行拓展,通過連續(xù)信號[I(x,y)]的高斯卷積,將不同尺度空間內(nèi)的信號進(jìn)行差分后形成差分尺度空間,尺度空間高斯差分函數(shù)公式如下:

        [L(x,y,σ)=G(x,y,σ)I(x,y)] (1)

        式(1)中,[?]表示卷積過程,[G(x,y,σ)]為尺度空間高斯核函數(shù),公式如下:

        [G(x,y,σ)=12πσ2exp(-x2+y22σ2)] (2)

        式(2)中,[σ]為高斯拉普拉斯算子(LOG) 用于檢測該尺度空間的特征尺度。通過高斯差分(DoG) 近似高斯拉普拉斯算子(LoG) ,并在不同尺度上構(gòu)建高斯金字塔,從而建立DOG尺度空間。

        2)SIFT關(guān)鍵點檢測

        DOG尺度空間中存在著局部極值也可以稱其為斑點,即為檢測到的SIFT關(guān)鍵點。通過比較采樣點同一尺度空間和上下相鄰尺度空間的26個(同尺度8個,上下各9個) 鄰域像素點,當(dāng)采樣點大于所有26個相鄰點時,則判定該采樣點為極值點,即SIFT關(guān)鍵點。利用以采樣點為原點的高斯尺度空間核函數(shù)[G(x,y,σ)]進(jìn)行泰勒二次展開式曲面擬合,展開公式如下:

        [D(X)=D+?DT?XΔX+12ΔXT?2D?X2ΔX] (3)

        X為采樣得到的極值點,對X求導(dǎo)后函數(shù)在極值點的導(dǎo)數(shù)為0,求得極值點相對于采樣極值點的偏移量[ΔX],公式如下:

        [ΔX=-?2D-1?D?x2?D?x] (4)

        多次迭代后得到極值點[X],將式(4)代入式(3)后得到泰勒展開公式如下:

        [D(X)=D+12?DT?X] (5)

        當(dāng)[D(X)]位于閾值區(qū)間[0.01,0.05]內(nèi)時,判定其為穩(wěn)定的SIFT關(guān)鍵點并保留下來。這樣找到的SIFT關(guān)鍵點中包含圖像邊緣處的點,該類極值點難以定位且對噪聲極其敏感,故也需要將其剔除。

        3)SIFT特征描述子

        SIFT特征描述是通過SIFT關(guān)鍵點鄰域內(nèi)像素梯度特性,確定特征點的主方向。每個極值點[L(x,y)]梯度的模[m(x,y)]與方向幅角[θ(x,y)]表示公式如下:

        [m(x,y)=(L(x+1,y)-L(x-1,y))2+(L(x,y+1)-L(x,y-1))2] (6)

        [θ(x,y)=tan-1(L(x,y+1)-L(x,y-1))/L(x+1,y)-L(x-1,y)] (7)

        通過直方圖對鄰域內(nèi)極值點的梯度值和幅角值進(jìn)行統(tǒng)計,確定在直方圖最高峰處為關(guān)鍵點的方向。以關(guān)鍵點為中心選取16×16的鄰域窗口,并將其劃分為4×4的子區(qū)域,每個子區(qū)域統(tǒng)計8個方向的梯度,從而形成128維特征向量,對向量進(jìn)行歸一化后得到SIFT特征描述子。

        4)SIFT特征點匹配

        在對SIFT關(guān)鍵點進(jìn)行特征描述后,將兩幅圖像上的特征點進(jìn)行匹配。特征點的匹配,一般采用最近鄰法,并通過最近鄰與次近鄰距離比進(jìn)行篩選,將滿足條件的點擬定為匹配的SIFT特征點對[2]。對眼底圖像進(jìn)行SIFT特征提取后,初始匹配結(jié)果如圖1所示。

        從圖1中可以看出,通過SIFT算法對眼底圖像進(jìn)行特征點提取匹配后發(fā)現(xiàn),SIFT特征點對于對比度低的眼底圖像匹配得到的特征點對太少,在后續(xù)使用匹配的特征點對來計算圖像配準(zhǔn)變換模型時,由于用來計算的特征點對數(shù)量不足,使得變換模型參數(shù)不夠準(zhǔn)確,影響最終的配準(zhǔn)結(jié)果。

        2 SURF特征點提取與匹配

        2006年,Bay等人[3]針對SIFT特征點在計算速度和效率上無法滿足實時性的這一問題,對SIFT算法進(jìn)行了改進(jìn),提出了快速魯棒特征(SURF) 算法,與SIFT算法相比,SURF算法通過采用積分圖像和盒狀濾波器近似高斯二階導(dǎo)數(shù),實現(xiàn)了尺度不變特征的快速檢測與描述。其具體實現(xiàn)步驟如下:

        1)積分圖像

        SURF算法將圖像與二階高斯微分模板進(jìn)行卷積濾波后,對得到的積分圖像進(jìn)行加減操作。定義源圖像I上任意一點[x',y']處的圖像灰度值為[I(x',y')],將該點處對應(yīng)的對角線矩形區(qū)域內(nèi)灰度值相加求和,表達(dá)公式如下:

        [IZ(x,y)=i=0i?x'j=0j?y'I(x',y')] (8)

        式(8)中,[IZ(x,y)]為在[(x',y')]點處的積分圖像數(shù)值。

        2)圖像尺度空間建立

        圖像[I]中任意像素點定義為[x,y],在尺度[σ]上的Hessian矩陣[H(x,σ)]表示公式如下:

        [H(x,σ)=Lxx(x,σ)Lxy(x,σ)Lxy(x,σ)Lyy(x,σ)] (9)

        式(9)中,[Lxx(x,σ)]是二階高斯微分與圖像對應(yīng)的像素點(x,y)在X方向上的卷積結(jié)果,同理求得[Lxy(x,σ)],[Lyy(x,σ)]。

        將高斯二階微分圖形模板轉(zhuǎn)化成9×9的盒子濾波器模板,旋轉(zhuǎn)該模型發(fā)現(xiàn),當(dāng)圖像旋轉(zhuǎn)奇數(shù)倍的[π/4]時,檢測到的特征點有較少的重復(fù);當(dāng)旋轉(zhuǎn)偶數(shù)倍[π/4]時,重復(fù)率明顯增高。通過旋轉(zhuǎn)濾波器方向,對矩形區(qū)域中的白色,灰度,黑色區(qū)域分別填充1, 0,[-1]。

        3)SURF特征描述子

        SURF算法通過積分圖像與盒子濾波器進(jìn)行卷積后構(gòu)建空間金字塔,使其特征點具有尺度不變特性[4]。將每個特征點分配一個主方向,在4×4的鄰域范圍內(nèi)尋找x,y兩個方向上的Haar小波響應(yīng)值,用64維的特征向量來描述特征點。通過降低特征向量維度以及重構(gòu)尺度空間金字塔的方式,實現(xiàn)了對SIFT算法時間運行復(fù)雜度上的優(yōu)化和改進(jìn)。

        同樣的,對眼底圖像進(jìn)行SURF特征點的提取和初始匹配,結(jié)果如圖2所示。

        從圖2中可以看出,SURF算法提取得到的特征點對布局相對集中,無法很好地描述整幅圖像的結(jié)構(gòu)信息,因此在后續(xù)使用圖像配準(zhǔn)變換模型對圖像進(jìn)行拼接時,得到的配準(zhǔn)結(jié)果也會較差。

        3 基于血管分叉點的特征提取與匹配

        本文中使用的眼底圖像對比度低,而傳統(tǒng)的特征點提取算法難以保證提取到的眼底圖像特征點數(shù)量以及準(zhǔn)確度。因此根據(jù)眼底圖像的特點,從眼底圖像上提取血管樹,在血管中心線上尋找血管分叉點,并通過對分叉點進(jìn)行SURF特征描述后,實現(xiàn)對眼底圖像特征點的提取,為后續(xù)特征點的匹配打下基礎(chǔ)。算法主要步驟如下:

        1)血管樹的提取

        本文主要通過二值化對眼底圖像進(jìn)行初始化處理后,進(jìn)行血管樹的提取。取RGB眼底彩色圖像綠色通道上的灰度圖像進(jìn)行二值化處理,結(jié)合眼底血管特性,血管中心通常是較暗或較亮的條紋,因此梯度方向垂直于血管,因此本論文從空間平面角度出發(fā),將空間平面每15°進(jìn)行血管劃分,設(shè)置血管檢測濾波器,然后將提取的12幅眼底圖像的像素點進(jìn)行整合,本文具體實現(xiàn)方法如下:

        血管邊緣一般為三個像素點,定義一個7×7的模板,將模板依次旋轉(zhuǎn)15°,共旋轉(zhuǎn)12次,旋轉(zhuǎn)的模板與眼底圖像依次進(jìn)行卷積。對于圖像上任意一點[m],將其模板區(qū)域內(nèi)的像素與定義的模板進(jìn)行卷積,將模板區(qū)域內(nèi)所有像素點卷積值的總和與設(shè)定的閾值進(jìn)行比較,當(dāng)該點處的值小于閾值時,則將其認(rèn)定為血管樹上像素點,否則判定其為背景點。計算公式如下:

        [P=i=0Nmi] (10)

        式(10)中,N為模板區(qū)域內(nèi)的像素點數(shù),mi為m點處模板區(qū)域內(nèi)每個像素點對應(yīng)的卷積值。

        [b=0" "Plt;V1" "P≥V] (11)

        將各個像素點對應(yīng)的值與設(shè)定的閾值V進(jìn)行對比,b為分割后像素點對應(yīng)的二值化的值,0為分割出來的血管像素點,1為眼底圖像背景像素點。

        對FIRE眼底圖像數(shù)據(jù)庫中的圖像進(jìn)行血管樹的提取,各角度下提取效果及最終提取血管樹效果如圖3和圖4所示。

        在得到了具有寬度的血管樹之后,利用血管邊緣的梯度、散度信息,將具有方向的梯度矢量轉(zhuǎn)變?yōu)樯⒍葮?biāo)量值,通過將像素點鄰域范圍內(nèi)的散度值和與閾值進(jìn)行比較,提取出眼底血管中心線。分別沿著水平和垂直方向?qū)G(x,y)]圖像內(nèi)像素點進(jìn)行梯度化處理,得到兩個方向上的梯度矢量[M,N],對該點處的梯度矢量進(jìn)行歸一化處理公式如下:

        [M'=MM2+N2N'=NM2+N2] (12)

        在此基礎(chǔ)上,根據(jù)眼底血管的不同方向,將梯度矢量轉(zhuǎn)化成散度標(biāo)量,并附加上角度旋轉(zhuǎn)來獲取不同角度下的血管中心線。公式如下:

        [Pi=dM'dxcosθ+dN'dysinθ] (13)

        式(13)中,Pi為單個圖像像素點的散度,將其周圍領(lǐng)域內(nèi)像素點散度相加,該像素點在鄰域內(nèi)的散度和SG(x,v)計算公式如下:

        [SG(x,v)=i=1nPi] (14)

        式(14)中,[n]表示鄰域內(nèi)像素點數(shù)。計算得到圖像中所有像素點的散度標(biāo)量值之后,通過設(shè)定的閾值將血管中心線提取出來,公式如下:

        [I(x,y)∈0" "if" SG(x,y)≥t1" "if" SG(x,y)lt;t] (15)

        式(15)中,t是中心線處設(shè)定的閾值,通過多次實驗對比,本文中閾值大小[5]設(shè)定為0.8。將散度值大于閾值的像素點確定為血管中心線上的點,再通過數(shù)學(xué)形態(tài)學(xué)上的腐蝕、膨脹和去骨刺等操作,將血管中心線圖像上出現(xiàn)的骨刺、邊緣骨骼等去掉,方便后續(xù)眼底圖像特征點的尋找。

        2)血管分叉點提取

        在提取得到血管中心線二值化圖像后,需要提取血管中線上的血管分叉點。

        本文采用文獻(xiàn)[5]中的八鄰域模板定義,以P點為中心將其周圍八個像素點確定為連接點,由于血管分叉點分布特征需要滿足其周圍至少具有三個鄰域點,總共會出現(xiàn)[C38]=56種情況,找出16種滿足血管分叉點分布形態(tài)的情況,如圖5所示。

        文獻(xiàn)[5]中定義的血管分叉點八鄰域模板能夠很好的實現(xiàn)血管分叉點的提取,但其對于分叉點的特征描述,通過角度以及長度信息對分叉點局部特征進(jìn)行描述,構(gòu)建了32維的特征向量。在降低特征向量維度的情況下,加快了分叉點特征描述時間,但其對于分叉點局部特征信息描述不夠詳細(xì),使得一些細(xì)小血管上的分叉點特征描述不夠完善,造成了分叉特征點的誤匹配以及漏匹配。針對這一問題,本文對其特征點的特征描述進(jìn)行了改進(jìn),通過使用滿足尺度不變特性,且在計算效率上足夠高效的SURF特征描述子對分叉點進(jìn)行特征描述,得到分叉特征點,再通過歐式距離比較兩組特征向量,得到初始匹配的分叉特征點,如圖6所示。

        對初始匹配的血管分叉點通過歐式距離進(jìn)行提純后,剔除誤匹配點對,得到匹配的分叉特征點,如圖7所示。

        從圖7中可以看出,找到的血管分叉特征點遍布眼底圖像的重疊區(qū)域,能夠很好地描述整幅眼底圖像的結(jié)構(gòu)特征,匹配的特征點數(shù)量足夠多,且保持尺度不變特性,能夠很好地滿足眼底圖像配準(zhǔn)過程中的投影變換。

        4 總結(jié)

        從實驗結(jié)果來看,經(jīng)典的SIFT算法對于對比度低的眼底圖像提取到的匹配特征點數(shù)量太少,這使得最終的拼接結(jié)果較差;SURF算法通過對SIFT算法的改進(jìn),由于尺度空間金字塔構(gòu)建方式的不同,能夠找到較多的特征點對,但從圖2中可以看出,使用SURF算法找到的特征點對過于集中,無法很好地滿足圖像的全局配準(zhǔn),且由于其對特征點的灰度差異值敏感,對于部分對比度過低的眼底圖像,其特征點提取數(shù)量也較少,穩(wěn)定性較差。

        本文通過分割眼底圖像血管樹,在血管中心線上通過定義的八鄰域模板找出血管分叉點,并將血管分叉點作為特征匹配點,通過對分叉點進(jìn)行SURF特征描述,在SURF特征描述子本身滿足尺度不變、旋轉(zhuǎn)縮放不變特性的同時,提取到的分叉點匹配特征點對數(shù)足夠多,從圖7中也可以看出,特征點分布在眼底圖像全局,能夠很好地表示整幅眼底圖像結(jié)構(gòu),后續(xù)可通過匹配的特征點實現(xiàn)同一病患不同角度眼底圖像的配準(zhǔn)拼接,從而便于醫(yī)師的臨床診斷。但本文在對血管分割準(zhǔn)確性的依賴,以及嚴(yán)重病變圖像的性能方面,缺乏廣泛的量化評估指標(biāo),在后續(xù)的實驗中,會繼續(xù)探索基于深度學(xué)習(xí)[6]的分叉點特征檢測器、描述子與其他最新方法進(jìn)行廣泛的量化比較,從而將本文方法更好地應(yīng)用于特定的臨床任務(wù)。

        參考文獻(xiàn):

        [1] LOWE D G.Distinctive image features from scale-invariant keypoints[J].International Journal of Computer Vision,2004,60(2):91-110.

        [2] 寇元超,張?zhí)K楠,古佳堯.改進(jìn)的SIFT算法在醫(yī)學(xué)圖像匹配中的應(yīng)用[J].山西電子技術(shù),2025(2):7-9.

        [3] BAY H,TUYTELAARS T,VAN GOOL L.SURF:speeded up robust features[C]//Computer Vision-ECCV 2006.Berlin,Heidelberg:Springer,2006:404-417.

        [4] 陳丹華.彩色眼底視網(wǎng)膜圖像配準(zhǔn)算法研究[D].桂林:廣西師范大學(xué),2019.

        [5] HANG Y L,ZHANG X F,SHAO Y Q,et al.Retinal image registration based on the feature of bifurcation point[C]//2017 10th International Congress on Image and Signal Processing,BioMedical Engineering and Informatics (CISP-BMEI).October 14-16,2017.Shanghai.IEEE,2017:1-6.

        [6] 何夏蘭.基于深度學(xué)習(xí)的視網(wǎng)膜眼底圖像分割與病變分類研究[D].南京:南京林業(yè)大學(xué),2024.

        【通聯(lián)編輯:朱寶貴】

        猜你喜歡
        特征提取
        特征提取和最小二乘支持向量機的水下目標(biāo)識別
        基于Gazebo仿真環(huán)境的ORB特征提取與比對的研究
        電子制作(2019年15期)2019-08-27 01:12:00
        基于Daubechies(dbN)的飛行器音頻特征提取
        電子制作(2018年19期)2018-11-14 02:37:08
        基于DNN的低資源語音識別特征提取技術(shù)
        Bagging RCSP腦電特征提取算法
        一種基于LBP 特征提取和稀疏表示的肝病識別算法
        基于DSP的直線特征提取算法
        基于改進(jìn)WLD的紋理特征提取方法
        計算機工程(2015年4期)2015-07-05 08:28:02
        淺析零件圖像的特征提取和識別方法
        機電信息(2015年3期)2015-02-27 15:54:46
        基于CATIA的橡皮囊成形零件的特征提取
        av在线天堂国产一区| 熟女熟妇伦av网站| 国偷自产av一区二区三区| 无码国产日韩精品一区二区| 亚洲人av毛片一区二区| 国产精品熟女少妇不卡| 久久亚洲精品成人av无码网站 | 第一九区另类中文字幕| 国产精品久久久久久久久久红粉| 大胸少妇午夜三级| 中文字幕乱码熟女人妻水蜜桃| 人妻被黑人粗大的猛烈进出| 亚洲婷婷丁香激情| 免费在线av一区二区| 97人妻精品一区二区三区男同| 国产精品一卡二卡三卡| 精品亚洲欧美无人区乱码| 性一乱一搞一交一伦一性 | 综合色区亚洲熟妇另类| 亚洲午夜精品久久久久久人妖| 国产精品无需播放器| 日韩在线精品视频观看| 亚洲高清中文字幕视频| 久久精品国产色蜜蜜麻豆| 亚洲人成网站在线观看播放| 色琪琪一区二区三区亚洲区 | www.av在线.com| 国产精品自拍首页在线观看| 亚洲不卡av一区二区三区四区| 亚洲av综合一区二区在线观看| 精品国产乱码久久久久久1区2区| 久久久久这里只有精品网| 杨幂二区三区免费视频| 亚洲天堂av三区四区不卡| 国产精品久久一区二区三区| 三级全黄的视频在线观看| 日本九州不卡久久精品一区| 亚洲中文字幕无码一久久区| 五月婷婷激情小说| 亚洲专区一区二区三区四区五区| 久久综网色亚洲美女亚洲av |