亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        面向圖數(shù)轉(zhuǎn)化的曲線提取與細(xì)化神經(jīng)網(wǎng)絡(luò)

        2024-04-22 00:46:46周其當(dāng)劉春曉呂金龍馮才博
        關(guān)鍵詞:特征

        周其當(dāng),劉春曉,呂金龍,馮才博

        1.浙江工商大學(xué)信息與電子工程學(xué)院,杭州 310018;2.浙江工商大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,杭州 310018

        0 引言

        曲線圖是數(shù)據(jù)呈現(xiàn)的重要形式,但是在沒有原始數(shù)據(jù)的情況下難以查詢其中蘊(yùn)含的具體數(shù)值,這給數(shù)據(jù)重用、聚合與分析造成很多不便。學(xué)術(shù)研究和科研調(diào)查所需要的很多數(shù)據(jù)資料是以圖表的形態(tài)呈現(xiàn)的,當(dāng)需要用到圖表中的原始數(shù)據(jù)做進(jìn)一步分析計(jì)算的時(shí)候,難以高效準(zhǔn)確地提取圖表中的數(shù)據(jù)就成了科研與學(xué)術(shù)進(jìn)步的一大障礙。

        對(duì)于圖數(shù)轉(zhuǎn)化,現(xiàn)在有很多像Engauge Digitizer、OriginLab、GetData Graph Digitizer 和Graph Digitizer Scout 等圖數(shù)轉(zhuǎn)化軟件,但是它們都需要大量的人工輔助操作。1)用戶通過鼠標(biāo)選取曲線上的像素點(diǎn),軟件會(huì)選出與之顏色相似的像素來提取曲線。然而,當(dāng)曲線圖中其他元素的顏色與曲線顏色相似時(shí),將會(huì)選中其他元素,干擾曲線提取。2)由于曲線具有一定的寬度,同一個(gè)X 軸坐標(biāo)對(duì)應(yīng)曲線上的多個(gè)像素點(diǎn),難以判斷待測(cè)點(diǎn)的具體位置,這給圖數(shù)轉(zhuǎn)化的準(zhǔn)確度帶來了一定的挑戰(zhàn)。曲線細(xì)化方法可以減小曲線線寬對(duì)圖數(shù)轉(zhuǎn)化造成的誤差。ZS(zhang-suen)曲線細(xì)化方法(Zhang 和Suen,1984)對(duì)曲線圖中曲線的細(xì)化結(jié)果為曲線的中心線。據(jù)觀察,曲線圖中的曲線在極值點(diǎn)附近的細(xì)化結(jié)果會(huì)更靠近端點(diǎn),在兩極值點(diǎn)中間的曲線細(xì)化結(jié)果則表現(xiàn)出不規(guī)則的特點(diǎn)。由于Zhang和Suen提出的曲線細(xì)化方法并不具備自適應(yīng)細(xì)化曲線的能力,所以準(zhǔn)確度較低。3)輸入坐標(biāo)軸上的坐標(biāo)標(biāo)簽的最大值并用鼠標(biāo)標(biāo)記最大值和零點(diǎn)的位置,建立起坐標(biāo)軸坐標(biāo)與像素坐標(biāo)的變換關(guān)系公式。由于用戶鼠標(biāo)點(diǎn)擊的位置會(huì)有一定的偏差,無法精確地標(biāo)記最大值和零點(diǎn)的位置,這進(jìn)一步增加了圖數(shù)轉(zhuǎn)化的誤差??傊?,上述圖數(shù)轉(zhuǎn)化軟件需要大量的人工操作,費(fèi)時(shí)費(fèi)力且準(zhǔn)確度難以保證。全自動(dòng)高精度的圖數(shù)轉(zhuǎn)化技術(shù)和軟件屬于目前的技術(shù)空白,相關(guān)核心算法亟待研發(fā)。

        對(duì)于曲線提取方面,考慮到曲線提取是圖數(shù)轉(zhuǎn)換的關(guān)鍵一步,它跟邊緣檢測(cè)方法具有較高的相關(guān)性,在此對(duì)現(xiàn)有邊緣檢測(cè)方法在曲線提取中的應(yīng)用展開討論。現(xiàn)有的邊緣檢測(cè)方法可以分為圖像處理和深度學(xué)習(xí)兩種方法。基于圖像處理的傳統(tǒng)邊緣檢測(cè)方法通常使用低層次視覺信息來獲取邊緣,如Canny 算子(Canny,1986)使用了顏色和對(duì)比度等信息。然而,它們?nèi)菀资艿角€圖中的背景色、網(wǎng)格線、曲線顏色和線寬以及坐標(biāo)軸尺度等復(fù)雜非數(shù)據(jù)因素的干擾,做不到只提取用戶關(guān)心的曲線,所以還需要使用基于霍夫變換的直線檢測(cè)方法去除網(wǎng)格線,或需要設(shè)計(jì)基于像素遍歷的坐標(biāo)軸去除等啟發(fā)式規(guī)則,甚至需要通過大量繁雜的實(shí)驗(yàn)來微調(diào)眾多參數(shù)或閾值才能達(dá)到一定的曲線提取效果。操作過程復(fù)雜,準(zhǔn)確度較低且運(yùn)行速度慢。

        目前,基于深度學(xué)習(xí)的邊緣檢測(cè)方法已經(jīng)突破了傳統(tǒng)邊緣檢測(cè)方法的限制,通過大量的訓(xùn)練數(shù)據(jù)學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)模型參數(shù),借助圖像的深層語義信息自適應(yīng)地提取出用戶關(guān)心的曲線。雖然神經(jīng)網(wǎng)絡(luò)模型中的卷積層和池化層增加了不同尺度的語義信息,但是池化操作會(huì)導(dǎo)致邊界模糊。Xie 和Tu(2015)提出的HED(holistically-nested edge detection)通過深監(jiān)督學(xué)習(xí)豐富的層次特征,加強(qiáng)邊緣特征的提取性能。U-Net(Ronneberger 等,2015)在全卷積神經(jīng)網(wǎng)絡(luò)的解碼器和編碼器相應(yīng)層之間添加跳躍連接,豐富了特征的位置信息。為了解決HED 計(jì)算量大和準(zhǔn)確度不高的問題,Liu等人(2017)提出的RCF(richer convolutional features for edge detection)利用側(cè)結(jié)構(gòu)引導(dǎo)把Simonyan 和Zisserman(2015)的VGG(visual geometry group network)的部分特征堆疊起來,從而獲得更加豐富的特征信息,大幅度提高了邊緣檢測(cè)的性能。為了使網(wǎng)絡(luò)更容易收斂,He 等人(2019)在RCF 的基礎(chǔ)上提出了雙向級(jí)聯(lián)結(jié)構(gòu)引導(dǎo)每一部分網(wǎng)絡(luò)的訓(xùn)練。由于RCF 的側(cè)結(jié)構(gòu)引導(dǎo)中含有多次插值得到的上采樣層,模糊了邊緣特征,使網(wǎng)絡(luò)的性能受到了一定的限制。Soria 等人(2020)提出的DexiNed(dense extreme inception network)中的上采樣層主要由卷積層和反卷積層組成,這使得上采樣的特征更加清晰。Deng 和Liu(2020)提出了一種端到端的邊緣檢測(cè)方法,有效地利用多尺度和多層次特征,進(jìn)一步豐富特征信息。受到傳統(tǒng)邊緣檢測(cè)算子的啟發(fā),Su 等人(2021)提出的PiDiNet(pixel difference networks for efficient edge detection)引入了基于圖像處理的傳統(tǒng)邊緣檢測(cè)方法,提高了邊緣檢測(cè)的準(zhǔn)確度,但是它的邊界依然較模糊。Pu等人(2022)提出的EDTER(edge detection with Transformer)使用了計(jì)算量巨大的ViT(vision Transformer)。受到這些方法的啟發(fā),本文提出了基于側(cè)結(jié)構(gòu)引導(dǎo)與拉普拉斯卷積的曲線提取神經(jīng)網(wǎng)絡(luò)(side structure guidance and Laplace convolution based curve extraction neural network,SLCENet),它的側(cè)結(jié)構(gòu)引導(dǎo)和拉普拉斯模塊有效地保留了清晰的曲線邊緣,并利用深監(jiān)督(Lee 等,2014)進(jìn)一步加強(qiáng)了曲線提取的性能。

        本文的主要貢獻(xiàn)如下:1)提出基于曲線提取與細(xì)化神經(jīng)網(wǎng)絡(luò)的圖數(shù)轉(zhuǎn)化算法,實(shí)現(xiàn)全自動(dòng)高精度的圖數(shù)轉(zhuǎn)化,并大大提高了圖數(shù)轉(zhuǎn)化的速度;2)提出基于側(cè)結(jié)構(gòu)引導(dǎo)與拉普拉斯卷積的曲線提取神經(jīng)網(wǎng)絡(luò)SLCENet,在保證準(zhǔn)確度和魯棒性的同時(shí),兼具運(yùn)行速度快和計(jì)算量小的特點(diǎn);3)提出基于曲線走勢(shì)特征和多層感知機(jī)的曲線細(xì)化方法(curve trend features and MLP based curve thinning method,CMCT),實(shí)現(xiàn)高精度的曲線細(xì)化。

        1 本文算法

        1.1 整體技術(shù)框架

        本文提出了一種基于曲線提取與細(xì)化神經(jīng)網(wǎng)絡(luò)的圖數(shù)轉(zhuǎn)化算法,圖1 是整體框架,曲線圖首先通過基于側(cè)結(jié)構(gòu)引導(dǎo)與拉普拉斯卷積的曲線提取神經(jīng)網(wǎng)絡(luò)SLCENet 提取曲線,然后用基于曲線走勢(shì)特征和多層感知機(jī)的曲線細(xì)化方法CMCT 細(xì)化曲線,利用PaddleOCR(Paddle optical character recognition)(Li等,2022)識(shí)別X坐標(biāo)軸上的坐標(biāo)標(biāo)簽及其X像素坐標(biāo)位置,并建立變換關(guān)系式,具體為

        圖1 整體框架Fig.1 Overview of our technical framework

        利用PaddleOCR 識(shí)別Y坐標(biāo)軸上的坐標(biāo)標(biāo)簽及其Y像素坐標(biāo)位置,并建立變換關(guān)系式,具體為

        最后通過坐標(biāo)變換完成圖數(shù)轉(zhuǎn)化。

        1.2 曲線提取網(wǎng)絡(luò)SLCENet

        1.2.1 網(wǎng)絡(luò)結(jié)構(gòu)

        基于深度學(xué)習(xí)的邊緣檢測(cè)方法通常需要多個(gè)卷積層和池化層,這雖然增加了不同尺度的語義信息,但是多個(gè)池化操作會(huì)導(dǎo)致邊界模糊。另外,側(cè)結(jié)構(gòu)引導(dǎo)中的每一層網(wǎng)絡(luò)也不可能學(xué)習(xí)到跟曲線掩膜圖GT完全一樣的特征。為了解決上述問題,本文設(shè)計(jì)了基于側(cè)結(jié)構(gòu)引導(dǎo)與拉普拉斯卷積的曲線提取神經(jīng)網(wǎng)絡(luò)SLCENet,以修改過的ResNet(deep residual network)(He 等,2016)作為骨干網(wǎng)絡(luò),通過側(cè)結(jié)構(gòu)引導(dǎo)和拉普拉斯模塊來加強(qiáng)曲線提取性能,并且約束每一層網(wǎng)絡(luò)的輸出,使每一層網(wǎng)絡(luò)更好地學(xué)習(xí)到曲線掩膜圖中的特征。

        SLCENet 如圖2 所示,先通過80 個(gè)卷積核把輸入的3通道圖像變?yōu)?0個(gè)通道的特征。側(cè)結(jié)構(gòu)引導(dǎo)包含4個(gè)不同的尺度,每個(gè)尺度的主干網(wǎng)絡(luò)由4個(gè)殘差塊組成。每個(gè)殘差塊由depth-wise 卷積、ReLU(rectified linear unit)、卷積和殘差組成。本文在側(cè)結(jié)構(gòu)引導(dǎo)中設(shè)計(jì)了能進(jìn)一步豐富多尺度曲線信息的多尺度膨脹模塊(multi-scale dilation module,MDM)、減少特征圖中噪點(diǎn)的降噪模塊(noise reduction module,NRM)和加強(qiáng)曲線細(xì)節(jié)提取性能的拉普拉斯模塊(Laplace module,LM)。側(cè)結(jié)構(gòu)引導(dǎo)中的曲線特征P1,P2,P3,P4通過反卷積放大到輸入圖像的尺寸并堆疊起來,再通過1 個(gè)卷積核降維和Sigmoid 歸一化得到曲線掩膜圖E1。曲線特征P1,P2,P3,P4分別通過雙線性插值放大到輸入圖像的尺寸,然后通過Sigmoid 歸一化得到曲線掩膜圖E2,E3,E4,E5。曲線掩膜圖E1,E2,E3,E4,E5都與GT做監(jiān)督,使每一層網(wǎng)絡(luò)更好地學(xué)習(xí)到GT中的細(xì)節(jié)。

        圖2 SLCENet網(wǎng)絡(luò)架構(gòu)圖Fig.2 SLCENet architecture((a)entire architecture;(b)LM;(c)NRM;(d)MDM)

        如圖2(a)所示,拉普拉斯模塊首先通過反卷積將特征放大到輸入圖像的尺寸,再通過拉普拉斯卷積得到特征LA1。由于曲線邊緣的梯度較大,拉普拉斯模塊使用圖像插值縮放前后的像素差獲取圖像邊緣,來提高曲線邊緣的清晰度。通過1 個(gè)卷積核把3 通道的輸入圖像變?yōu)? 個(gè)通道的特征LA2,并用雙線性插值縮小到輸入圖像尺寸的1/2 再放大到原尺寸得到特征LA3,輸入圖像的邊緣梯度LA4=|LA2-LA3|。如果LA4>θ,加入該處的拉普拉斯卷積特征LA=LA1(LA4>θ),能加強(qiáng)曲線提取的性能。

        1.2.2 損失函數(shù)

        本文對(duì)曲線掩膜圖E1,E2,E3,E4,E5使用了深監(jiān)督。一般來說,曲線掩膜圖中曲線的像素?cái)?shù)量遠(yuǎn)遠(yuǎn)小于非曲線的像素?cái)?shù)量,所以本文使用了帶權(quán)重的交叉熵?fù)p失(周志華,2016)平衡損失函數(shù)對(duì)曲線和非曲線像素的懲罰。對(duì)于曲線掩膜圖Ej中第i個(gè)像素的值來說,它的損失函數(shù)為

        式中,GTi表示GT中第i個(gè)像素的值,γ表示GT中值為0的像素占所有像素的比例,λ是一個(gè)超參數(shù)。網(wǎng)絡(luò)總的損失函數(shù)為

        1.3 曲線細(xì)化方法CMCT

        為了減小曲線線寬對(duì)圖數(shù)轉(zhuǎn)化的誤差,并綜合考慮計(jì)算復(fù)雜度和準(zhǔn)確度,設(shè)計(jì)了10 個(gè)能夠反映曲線走勢(shì)的特征,提出了基于曲線走勢(shì)特征和多層感知機(jī)的曲線細(xì)化方法CMCT,實(shí)現(xiàn)了高精度的曲線細(xì)化目標(biāo)。

        本文的多層感知機(jī)包含5 個(gè)隱藏層,每層都含有200個(gè)連接點(diǎn)。曲線掩膜圖E1通過二值化操作得到曲線二值圖M,再把待測(cè)點(diǎn)m的X坐標(biāo)軸坐標(biāo)通過公式變換成X像素坐標(biāo)Xm。如圖3 所示,曲線二值圖M中第Xm列曲線上下邊緣的Y像素坐標(biāo)差為Hm,曲線二值圖M中第Xm列曲線上邊緣與真實(shí)位置的Y像素坐標(biāo)GTym的差為GTm,多層感知機(jī)學(xué)習(xí)的目標(biāo)A=GTm/Hm。

        圖3 曲線細(xì)化目標(biāo)參數(shù)Fig.3 Curve thinning target parameters

        10個(gè)曲線走勢(shì)特征含義如圖4所示,具體計(jì)算為

        圖4 曲線走勢(shì)特征參數(shù)Fig.4 Parameters of curve trend feature

        2 實(shí)驗(yàn)結(jié)果與分析

        2.1 數(shù)據(jù)集

        本文制作了一個(gè)曲線圖圖數(shù)轉(zhuǎn)化數(shù)據(jù)集,包含曲線上關(guān)鍵點(diǎn)的坐標(biāo)軸坐標(biāo)、曲線圖和曲線掩膜圖。首先隨機(jī)生成關(guān)鍵點(diǎn)坐標(biāo),然后在matplotlib 中設(shè)置背景色、網(wǎng)格線、曲線線寬和曲線顏色等變量都為隨機(jī)值,畫出曲線圖。接下來在matplotlib 中關(guān)閉網(wǎng)格線和坐標(biāo)軸等干擾,畫出無干擾的曲線圖并通過上下遍歷曲線邊緣,得到曲線掩膜圖。

        數(shù)據(jù)集中的一組數(shù)據(jù)如表1 和圖5 所示,表1 中的第2列是關(guān)鍵點(diǎn)的X坐標(biāo)軸坐標(biāo),第3列是關(guān)鍵點(diǎn)的Y坐標(biāo)軸坐標(biāo)。

        表1 關(guān)鍵點(diǎn)數(shù)據(jù)示例Table 1 Example of key point data

        圖5 數(shù)據(jù)集示例Fig.5 One example of our dataset((a)curve image;(b)curve mask)

        2.2 評(píng)價(jià)指標(biāo)

        評(píng)價(jià)指標(biāo)分為曲線提取和圖數(shù)轉(zhuǎn)化兩部分。對(duì)于曲線提取部分,F(xiàn)-measure(Sokolova 等,2006)是精度P和召回率R(Sahiner 等,1997)的諧波平均值,具體為

        式中,本文的β=1。

        使用全局最優(yōu)閾值指標(biāo)(optimal dataset scale,ODS)和局部最優(yōu)閾值指標(biāo)(optimal image scale,OIS)來評(píng)價(jià)曲線提取的準(zhǔn)確度。ODS是對(duì)所有的測(cè)試圖像共同使用0 到255 中的一個(gè)閾值進(jìn)行二值化操作,求得最大的平均Fβ。OIS 是對(duì)每幅測(cè)試圖像分別使用0到255中的一個(gè)閾值進(jìn)行二值化操作,求得最大的平均Fβ。

        對(duì)于圖數(shù)轉(zhuǎn)化部分,使用歸一化均值誤差(normalized mean error,NME)和歸一化平方誤差(mormalized square error,NSE)來評(píng)價(jià)圖數(shù)轉(zhuǎn)化的準(zhǔn)確度,計(jì)算為

        2.3 模型訓(xùn)練

        本文模型使用NVIDIA RTX 3090 在PyTorch 框架中訓(xùn)練的。在訓(xùn)練階段使用了2 000幅圖像,輸入圖像尺寸為640 × 480 像素,樣本批處理大小為9,λ=0.86,θ=0.04。使用零填充來使輸出特征與輸入特征的大小一致;在拉普拉斯模塊中,使用對(duì)稱填充來使輸出特征與輸入特征的大小一致。本文選擇Adam(Kingma 和Ba,2017)作為優(yōu)化器,初始學(xué)習(xí)率設(shè)置為0.005,每經(jīng)過10 輪下降到原來的30%,總共訓(xùn)練150輪。

        2.4 實(shí)驗(yàn)結(jié)果

        為了驗(yàn)證本文算法的準(zhǔn)確性和快速性,與現(xiàn)有方法進(jìn)行比較。

        2.4.1 可視化比較

        圖6 展示了在受到JPEG 壓縮攻擊的曲線圖中SLCENet 和現(xiàn)有方法曲線提取的可視化比較。Engauge Digitizer 在圖數(shù)轉(zhuǎn)化中得到了廣泛的應(yīng)用,但是由于使用了啟發(fā)式規(guī)則和人工交互輔助的現(xiàn)有方法,當(dāng)圖像內(nèi)容對(duì)比度低、干擾多時(shí),難以獲取清晰的曲線掩膜圖。HED、RCF 和DexiNed 則難以實(shí)現(xiàn)曲線提取。另外,PiDiNet 等現(xiàn)有方法難以去除網(wǎng)格線等干擾,時(shí)常出現(xiàn)無法完全去除網(wǎng)格線或去除了部分曲線的情況。而SLCENet能自適應(yīng)提取清晰的曲線掩膜圖,尤其是在去除網(wǎng)格線和坐標(biāo)軸等干擾中表現(xiàn)出較好的性能。

        圖6 曲線提取效果的視覺比較Fig.6 Visual comparison of curve extraction effects((a)curve image;(b)curve mask;(c)Engauge Digitizer;(d)HED;(e)RCF;(f)DexiNed;(g)PiDiNet;(h)SLCENet)

        2.4.2 指標(biāo)比較

        本文測(cè)得了1 000 幅曲線圖的ODS、OIS 和算法運(yùn)行耗時(shí)(Time)指標(biāo)來評(píng)價(jià)曲線提取的性能,其中,ODS和OIS越高越好,Time越低越好。

        表2 展示了SLCENet 和現(xiàn)有方法的曲線提取性能指標(biāo)比較。根據(jù)實(shí)驗(yàn)結(jié)果可得,SLCENet 的ODS和OIS 都遠(yuǎn)超現(xiàn)有方法。雖然運(yùn)行速度不及HED、RCF 和DexiNed,但是它們的曲線提取效果太差,難以滿足用戶需求。在兼顧曲線提取準(zhǔn)確度和運(yùn)行速度的情況下,SLCENet達(dá)到了最好的性能。

        表2 曲線提取性能指標(biāo)比較Table 2 Comparison of curve extraction performance

        為了更進(jìn)一步說明SLCENet優(yōu)越的曲線提取性能,用加入了JPEG 壓縮、圖像縮放和添加噪聲等攻擊類型生成的曲線圖進(jìn)行實(shí)驗(yàn),如表3所示。

        表3 攻擊數(shù)據(jù)集曲線提取性能指標(biāo)比較Table 3 Comparison of curve extraction performance for attack datasets

        本文測(cè)得了1 000 幅曲線圖的NME、NSE 和Time 指標(biāo)來評(píng)價(jià)圖數(shù)轉(zhuǎn)化的性能,表4 展示了本文算法與現(xiàn)有方法圖數(shù)轉(zhuǎn)化性能指標(biāo)的比較。根據(jù)實(shí)驗(yàn)結(jié)果可得本文算法的NME、NSE 和Time 指標(biāo)都要優(yōu)于現(xiàn)有方法,運(yùn)行速度更是超過了第2 名的OriginLab 90倍以上。

        表4 圖數(shù)轉(zhuǎn)化性能指標(biāo)比較Table 4 Comparison of curve-to-data conversion performance

        2.4.3 消融實(shí)驗(yàn)

        首先使用修改過的ResNet 作為比較的基本模型,然后依次加入側(cè)結(jié)構(gòu)引導(dǎo)、深監(jiān)督、拉普拉斯模塊和CMCT,來驗(yàn)證這些模塊對(duì)算法性能的影響。

        對(duì)于曲線提取部分如圖7 所示,ResNet 難以實(shí)現(xiàn)曲線提??;側(cè)結(jié)構(gòu)引導(dǎo)能使網(wǎng)絡(luò)更加有效地融合多尺度信息,學(xué)習(xí)到更加清晰的曲線特征;深監(jiān)督則能使每一層網(wǎng)絡(luò)更好地學(xué)習(xí)到曲線掩膜圖中的細(xì)節(jié),進(jìn)一步提高曲線提取的準(zhǔn)確度;拉普拉斯模塊保留了曲線的細(xì)節(jié),使曲線掩膜圖更加清晰。

        圖7 曲線提取消融實(shí)驗(yàn)的視覺比較Fig.7 Visual comparison of curve extraction ablation experiment((a)curve image;(b)curve mask;(c)ResNet;(d)ResNet+side structure guidance;(e)ResNet+side structure guidance+deep supervision;(f)ResNet+side structure guidance+deep supervision+Laplace module)

        曲線提取消融實(shí)驗(yàn)結(jié)果如表5 所示,在ODS 指標(biāo)上,相比ResNet,加入側(cè)結(jié)構(gòu)引導(dǎo)能提高0.749 的準(zhǔn)確度,加入深監(jiān)督能再提高0.03 的準(zhǔn)確度,加入拉普拉斯模塊還能再提高0.054的準(zhǔn)確度。

        表5 曲線提取消融實(shí)驗(yàn)性能指標(biāo)比較Table 5 Comparison of curve extraction performance for ablation experiment

        對(duì)于圖數(shù)轉(zhuǎn)化部分如表6 所示,其中NME 和NSE 越低越好。相比ZS 曲線細(xì)化算法,CMCT 實(shí)現(xiàn)了高精度的曲線細(xì)化目標(biāo),大大減小了曲線線寬對(duì)圖數(shù)轉(zhuǎn)化造成的誤差。

        表6 曲線細(xì)化性能指標(biāo)比較Table 6 Comparison of curve thinning performance

        為了更好地說明本文CMCT 曲線細(xì)化方法的有效性,制作了曲線細(xì)化效果可視化圖。如圖8 所示,左下角小圖為橙色小框部分的放大圖,黑線是有一定寬度的原始曲線,紅線是ZS 曲線細(xì)化算法的可視化結(jié)果,藍(lán)線是本文CMCT的可視化結(jié)果。

        圖8 曲線細(xì)化效果的視覺比較Fig.8 Visual comparison of curve thinning effects

        SLCENet 模型占用內(nèi)存僅約17 MB,以輕量化的模型實(shí)現(xiàn)了較高的準(zhǔn)確度。為了使CMCT 也能兼顧準(zhǔn)確度和空間復(fù)雜度,本文使用了random forest(Breiman,2001),linear regression(Guo 等,2023),KNN(k-nearest neighbor)(Liao 等,2023),AdaBoost(adaptive boosting)(Chelmis 和Qi,2021),GBRT(gradient boost regression tree)(Gu 等,2015),Bagging(Li和Tian,2021),extra-trees(Sciavicco 和Stan,2020),decision tree(Lee 等,2022)來訓(xùn)練CMCT。實(shí)驗(yàn)結(jié)果如表7 所示,其中,NME、NSE、Parameters 和Time 都是越低越好。如果僅考慮圖數(shù)轉(zhuǎn)化的準(zhǔn)確度,decision tree表現(xiàn)出最好的性能,但是綜合考慮圖數(shù)轉(zhuǎn)化的準(zhǔn)確度、空間復(fù)雜度和運(yùn)行速度,本文最終選擇了多層感知機(jī)。

        表7 不同機(jī)器學(xué)習(xí)模型的曲線細(xì)化性能指標(biāo)比較Table 7 Comparison of curve thinning performance with different machine learning models

        大量的實(shí)驗(yàn)結(jié)果和指標(biāo)都表明,本文算法以輕量化的模型實(shí)現(xiàn)了高精度的曲線提取與圖數(shù)轉(zhuǎn)化,擺脫了圖數(shù)轉(zhuǎn)化需要大量人工交互輔助的限制。

        4 結(jié)論

        針對(duì)曲線圖難以轉(zhuǎn)化為原始數(shù)據(jù)的問題,本文提出了一個(gè)基于曲線提取與細(xì)化神經(jīng)網(wǎng)絡(luò)的圖數(shù)轉(zhuǎn)化算法。首先,本文提出了基于側(cè)結(jié)構(gòu)引導(dǎo)與拉普拉斯卷積的曲線提取神經(jīng)網(wǎng)絡(luò)SLCENet,以輕量化的模型解決了現(xiàn)有的曲線提取算法中池化操作會(huì)導(dǎo)致邊界模糊的問題,提高了曲線提取的準(zhǔn)確度。其次,為了減小曲線線寬對(duì)圖數(shù)轉(zhuǎn)化造成的誤差,并綜合考慮計(jì)算復(fù)雜度和準(zhǔn)確度,本文設(shè)計(jì)了10 個(gè)能夠反映曲線走勢(shì)的特征,提出了基于曲線走勢(shì)特征和多層感知機(jī)的曲線細(xì)化方法CMCT,實(shí)現(xiàn)了高精度的曲線細(xì)化。最后,利用PaddleOCR 識(shí)別坐標(biāo)軸上的坐標(biāo)標(biāo)簽,并建立起坐標(biāo)軸坐標(biāo)與像素坐標(biāo)的變換關(guān)系,通過坐標(biāo)變換完成圖數(shù)轉(zhuǎn)化。實(shí)驗(yàn)結(jié)果證明本文算法在準(zhǔn)確度和運(yùn)行速度上都要遠(yuǎn)遠(yuǎn)超過現(xiàn)有方法,更是擺脫了圖數(shù)轉(zhuǎn)化需要大量人工交互輔助的限制,提高了曲線圖數(shù)據(jù)的重用效率。

        對(duì)于JPEG 壓縮、圖像縮放和添加噪聲等攻擊類型生成的曲線圖,盡管本文的曲線提取和細(xì)化方法表現(xiàn)出較高的準(zhǔn)確度,但是PaddleOCR 不能準(zhǔn)確識(shí)別出該類曲線圖中坐標(biāo)軸上的坐標(biāo)標(biāo)簽,給坐標(biāo)轉(zhuǎn)換的準(zhǔn)確度帶來了一定的影響。

        猜你喜歡
        特征
        抓住特征巧觀察
        離散型隨機(jī)變量的分布列與數(shù)字特征
        具有兩個(gè)P’維非線性不可約特征標(biāo)的非可解群
        月震特征及與地震的對(duì)比
        如何表達(dá)“特征”
        被k(2≤k≤16)整除的正整數(shù)的特征
        不忠誠(chéng)的四個(gè)特征
        詈語的文化蘊(yùn)含與現(xiàn)代特征
        新聞傳播(2018年11期)2018-08-29 08:15:24
        抓住特征巧觀察
        基于特征篩選的模型選擇
        日韩精品夜色二区91久久久| 综合网在线视频| 91综合久久婷婷久久| 日本啪啪视频一区二区| 波多野结衣av一区二区全免费观看| 欧美a级情欲片在线观看免费| 国产高级黄区18勿进一区二区| 宅男久久精品国产亚洲av麻豆| 精品国产黄一区二区三区| 先锋五月婷婷丁香草草| 精品国产制服丝袜高跟| 超碰性爱| 日韩精品一区二区免费| 国产伦精品免编号公布| yeyecao亚洲性夜夜综合久久| 午夜视频福利一区二区三区| 天堂蜜桃视频在线观看| 天天爽夜夜爱| 国产欧美精品一区二区三区–老狼| 国产精品一区二区久久精品蜜臀| 日本午夜理论片在线观看| 免费无遮挡禁18污污网站| 国产美女免费国产| 日本不卡一区二区三区在线| 黄色av一区二区在线观看| 亚洲男人的天堂在线aⅴ视频 | 永久免费看黄在线观看| 久久99精品久久久久久清纯| 丰满熟妇乱又伦| 久久久国产不卡一区二区| 亚洲av手机在线播放| 久久国产加勒比精品无码| 亚洲色欲在线播放一区| 国产熟女乱综合一区二区三区| 国产亚洲av另类一区二区三区| 三级特黄60分钟在线观看| 精品午夜一区二区三区久久| 白嫩少妇高潮喷水av| 国产又粗又猛又黄又爽无遮挡| 思思久久99er热只有频精品66| 国产精品日本一区二区三区|