亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于Fire-MCANet的火焰檢測(cè)模型

        2024-06-03 00:00:00祝巧巧嚴(yán)云洋冷志超董可葉翔王盤龍
        軟件工程 2024年4期
        關(guān)鍵詞:特征提取深度學(xué)習(xí)

        摘 要:針對(duì)火焰檢測(cè)參數(shù)量和計(jì)算量較大及準(zhǔn)確度較低的問(wèn)題,提出一種基于Fire-MCANet(Fire-MaxConvolution Activate Networks)的火焰檢測(cè)模型。該模型首先構(gòu)建一種MCA(Max Convolution Activate)模塊,使用大卷積核獲取感受野,提高特征提取的能力;其次構(gòu)建主干網(wǎng)絡(luò)MCANet Block,在提升感受野的同時(shí),降低模型的參數(shù)量和計(jì)算量;最后引入CA(Coordinate Attention)注意力機(jī)制獲取火焰的位置信息。實(shí)驗(yàn)結(jié)果表明,基于Fire-MCANet的火焰模型的檢測(cè)準(zhǔn)確率達(dá)到95.75%,計(jì)算量?jī)H有2.13 GMac;其網(wǎng)絡(luò)模型的結(jié)構(gòu)比ConvNeXt網(wǎng)絡(luò)更加輕量化,檢測(cè)效果也更好。

        關(guān)鍵詞:火焰檢測(cè);深度學(xué)習(xí);CA注意力機(jī)制;特征提取

        中圖分類號(hào):TP391 文獻(xiàn)標(biāo)志碼:A

        0 引言(Introduction)

        火災(zāi)是一種常見的災(zāi)害,可能會(huì)造成巨大的財(cái)產(chǎn)損失和人員傷亡。在許多場(chǎng)景中,如化工廠、倉(cāng)庫(kù)和公共建筑等,火焰檢測(cè)的重要性不言而喻?;鹧鏅z測(cè)技術(shù)旨在幫助人們及早發(fā)現(xiàn)火災(zāi),以便及時(shí)采取措施進(jìn)行滅火和人員疏散,最大限度地降低火災(zāi)造成的人員傷亡和財(cái)產(chǎn)損失,保護(hù)人們的生命財(cái)產(chǎn)安全。目前,火焰檢測(cè)的主流方法有兩種,即基于傳統(tǒng)機(jī)器學(xué)習(xí)的方法和基于深度學(xué)習(xí)的方法?;趥鹘y(tǒng)機(jī)器學(xué)習(xí)的方法如支持向量機(jī)(SVM)[1]、決策樹[2]等,通過(guò)提取手動(dòng)設(shè)計(jì)的特征檢測(cè)火焰。基于深度學(xué)習(xí)的方法有卷積神經(jīng)網(wǎng)絡(luò)(CNN)[3]、YOLO系列[4]等深度學(xué)習(xí)模型。卷積神經(jīng)網(wǎng)絡(luò)通過(guò)端到端的學(xué)習(xí)從圖像或視頻數(shù)據(jù)中學(xué)習(xí)火焰的特征表示,但其性能和計(jì)算復(fù)雜度較高。通常,火災(zāi)事故發(fā)生初期的火焰檢測(cè)目標(biāo)尺寸較小,使得模型很難準(zhǔn)確地提取到火焰的特征,并且當(dāng)前模型對(duì)火焰檢測(cè)的準(zhǔn)確率較低。

        1 相關(guān)研究(Related research)

        火焰是一種非剛性的物體,其形狀和尺寸會(huì)隨著燃燒條件的改變而不斷變化,給火焰檢測(cè)的研究帶來(lái)了困難。馬慶祿等[5]提出了一種基于紅外熱成像的公路隧道火災(zāi)初期火焰檢測(cè)方法,利用溫度閾值獲取疑似火焰區(qū)域;HOSSEINI[6]等提出一種高效卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)UFS-Net,用于檢測(cè)視頻幀中的火焰和煙霧,采用基于深度學(xué)習(xí)的火焰檢測(cè)方法提取火焰特征,提升了發(fā)現(xiàn)剛出現(xiàn)火焰的速度,在保證速度的前提下,也擁有很好的識(shí)別能力。但是,上述改進(jìn)模型不能很好地解決火焰在不同場(chǎng)景下的漏檢、誤檢問(wèn)題。本文針對(duì)這些問(wèn)題提出一種基于Fire-MCANet的火焰檢測(cè)模型,該模型能夠提高火焰檢測(cè)精度并降低模型計(jì)算的復(fù)雜度。

        2Fire-MCANet火焰檢測(cè)模型(Fire-MCANetflame detection model)

        2.1ConvNeXt網(wǎng)絡(luò)

        ConvNeXt[7]是一種基于卷積神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)框架,常被用于圖像分類和目標(biāo)檢測(cè)任務(wù)的網(wǎng)絡(luò)結(jié)構(gòu),與其他經(jīng)典的CNN(Convolutional Neural Networks)結(jié)構(gòu)相比,具有更高的準(zhǔn)確性和更少的參數(shù)量。ConvNeXt的網(wǎng)絡(luò)結(jié)構(gòu)主要由以下幾個(gè)部分組成:Input(輸入層)、Convolution(卷積層)、LayerNorm(歸一化層)、ConvNeXt Block (卷積連接塊)、Downsample(下采樣層)、Globle Avg Pooling(全局平均池化層)和Linear(線性層)。輸入層接收?qǐng)D像,并將其轉(zhuǎn)化為特征圖。歸一化層對(duì)網(wǎng)絡(luò)的每個(gè)神經(jīng)元輸出進(jìn)行歸一化,使得網(wǎng)絡(luò)中的每一層的輸出都具有相似的分布。卷積連接塊是ConvNeXt網(wǎng)絡(luò)的基本模塊。下采樣層對(duì)特征圖進(jìn)行縮放。全局平均池化層用于對(duì)特征圖進(jìn)行降維,將其轉(zhuǎn)換為一維向量,以便進(jìn)行檢測(cè)任務(wù)。線性層對(duì)特征向量進(jìn)行處理,輸出最終的檢測(cè)結(jié)果。ConvNeXt的網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

        卷積連接塊由Depthwise Convolution(分組卷積)、歸一化層、Gaussian Error Linear Units(GELU 激活函數(shù))、卷積層、Layer Scale(縮放層)、Drop path(正則化)和Concat(拼接)組成。卷積連接塊首先將輸入的特征圖進(jìn)行分組,其次對(duì)每個(gè)分組內(nèi)的特征圖進(jìn)行卷積操作,提取不同組之間的特征關(guān)系。分組卷積之后,對(duì)每個(gè)分組內(nèi)的特征圖進(jìn)行卷積核大小為1×1的卷積操作。先使用卷積核大小為1×1的卷積進(jìn)行通道數(shù)的升維,再使用卷積核大小為1×1的卷積對(duì)特征圖進(jìn)行降維操作,在保證特征提取能力的同時(shí),降低了計(jì)算復(fù)雜度。將得到的特征圖與輸入特征圖進(jìn)行殘差連接[8],得到最終的輸出特征圖。ConvNeXt Block模塊如圖2所示,圖2中的k 代表卷積核大小;s 代表卷積核在圖像窗口上每次平移的間隔,即步長(zhǎng)。

        歸一化層和卷積層是下采樣層的關(guān)鍵組件。歸一化層用于下采樣的初步處理,具有抗噪性和位置不變性的特點(diǎn),能夠?qū)斎胩卣鬟M(jìn)行平移、旋轉(zhuǎn)和縮放等變換,并保持不變性。卷積層是下采樣的另一個(gè)關(guān)鍵組成部分,它通過(guò)卷積操作進(jìn)一步處理特征圖。卷積層可以通過(guò)不同的卷積核提取多個(gè)不同方向和尺度的特征,從而捕捉更豐富的語(yǔ)義信息。下采樣在深度學(xué)習(xí)中起著重要的作用,通過(guò)縮小輸入特征圖的尺寸,實(shí)現(xiàn)對(duì)特征的降維和提取更高層次的抽象特征。下采樣層的主要目的是減少參數(shù)量和計(jì)算量,以及增強(qiáng)模型對(duì)整體結(jié)構(gòu)的感知能力。下采樣層的結(jié)構(gòu)如圖3所示。

        2.2 MCA模塊

        在火災(zāi)檢測(cè)中,為了獲取較好的特征提取能力,本文提出了一種MCA模塊。該模塊通過(guò)組合不同卷積的卷積核和激活函數(shù),進(jìn)行特征提取和非線性變換,以實(shí)現(xiàn)強(qiáng)大的模型表達(dá)能力和性能。GELU激活函數(shù)是一種高性能的神經(jīng)網(wǎng)絡(luò)激活函數(shù),它的非線性變化是一種符合預(yù)期的隨機(jī)正則變換方式,具有比傳統(tǒng)的ReLU(Rectified Linear Unit)[9]等函數(shù)更平滑和連續(xù)的性質(zhì),它可以引入更強(qiáng)的非線性能力,幫助模型更好地捕捉數(shù)據(jù)中的復(fù)雜模式和關(guān)系。通過(guò)在卷積核大小為1×1的卷積層后應(yīng)用GELU激活函數(shù),可以引入更多的非線性變換,增強(qiáng)模型的表達(dá)能力。使用具有較大的感受野的11×11的大卷積核[10],能夠捕捉更大范圍的上下文信息,從而獲取更豐富的火焰特征。左側(cè)最下面的卷積核大小為1×1的卷積層被用于維度變換,即通過(guò)調(diào)整通道的數(shù)量改變特征的維度,幫助模型在特征空間中進(jìn)行更好的整合和組合。在左側(cè)最后一次卷積得到的結(jié)果與通過(guò)右側(cè)卷積核大小為1×1的卷積層的結(jié)果相乘(Product)的步驟中,可以進(jìn)一步整合特征信息,提供更豐富的特征表達(dá)。

        MCA模塊使用大卷積核、GELU激活函數(shù)和卷積核大小為1×1的卷積層的組合,旨在提高模型的表達(dá)能力、捕捉更大范圍的上下文信息、引入更強(qiáng)的非線性能力,以及整合和調(diào)整特征維度。MCA模塊如圖4所示。

        2.3 MCANet Block模塊

        本文參考ConvNeXt設(shè)計(jì)了主干網(wǎng)絡(luò)MCANet Block結(jié)構(gòu)。為了使模型獲取更大的感受野,能夠更好地進(jìn)行特征提取,本文使用MCA模塊代替ConvNeXt Block中用于升維的1×1卷積。MCANet Block的網(wǎng)絡(luò)結(jié)構(gòu)由分組卷積、歸一化層、MCA模塊、卷積層、GELU激活函數(shù)、縮放層和正則化層拼接而成。MCANet Block的分組卷積在不改變特征圖大小的情況下,對(duì)輸入特征進(jìn)行空間信息的提取和壓縮。MCA模塊可以提取更豐富的空間和通道特征信息,從而提高模型的表現(xiàn)能力,卷積層可以降低模型的參數(shù)量和計(jì)算量,從而提高模型的計(jì)算和內(nèi)存效率。MCA模塊的使用提高了模型的魯棒性和泛化能力。該模塊進(jìn)一步增強(qiáng)了網(wǎng)絡(luò)的表達(dá)能力和泛化能力,同時(shí)能防止網(wǎng)絡(luò)模型過(guò)擬合,提升模型的性能。MCANetBlock模塊如圖5所示。

        2.4 加入CA(Coordinate Attention)注意力機(jī)制

        在火焰檢測(cè)中,可應(yīng)用注意力機(jī)制提高火焰檢測(cè)模型對(duì)火焰區(qū)域的感知能力和關(guān)注能力,增強(qiáng)火焰區(qū)域的特征表示和檢測(cè)準(zhǔn)確性。Coordinate Attention[11]是一種基于坐標(biāo)的注意力機(jī)制,用于在卷積神經(jīng)網(wǎng)絡(luò)中引入對(duì)位置信息的關(guān)注,它通過(guò)學(xué)習(xí)和應(yīng)用輸入數(shù)據(jù)的空間坐標(biāo)信息,提供了一種有效的方式用于捕捉位置相關(guān)的特征和模式。傳統(tǒng)的注意力機(jī)制主要關(guān)注通道之間的特征,而Coordinate Attention注意力機(jī)制則專注于特征圖中的空間位置,它通過(guò)將坐標(biāo)信息與特征進(jìn)行融合,使網(wǎng)絡(luò)能夠更好地理解和利用不同位置的特征差異。CA注意力機(jī)制包括Residual(殘差邊)、Global Avg Pooling(全局平均池化)、Convolution(卷積層)、Concat、BatchNorm(歸一化層)、Non-linear(非線性層)、Sigmoid激活函數(shù)和Re-weight(重新加權(quán))。

        Coordinate Attention的引入可以提升模型的性能,增強(qiáng)模型對(duì)位置信息的感知能力。Coordinate Attention注意力機(jī)制模塊如圖6所示。

        火焰是一種非剛性物體且擴(kuò)散速度極快,因此對(duì)其檢測(cè)的精度和速度的要求較高。ConvNeXt是一種基于卷積神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)框架,在檢測(cè)目標(biāo)較大且清晰時(shí),檢測(cè)效果較好,但是在一些特殊環(huán)境下,例如圖片模糊、光照不足和目標(biāo)重疊情況下,檢測(cè)目標(biāo)容易丟失而造成誤檢。在火焰檢測(cè)中,不僅需要檢測(cè)算法處理低清晰度圖片,及時(shí)且快速地檢測(cè)小目標(biāo)圖像,還要在訓(xùn)練時(shí)避免模型的訓(xùn)練時(shí)間過(guò)長(zhǎng)及解決過(guò)擬合問(wèn)題。

        首先構(gòu)建MCA模塊替換ConvNeXt Block中卷積核大小為1×1的卷積塊,其次采用主干網(wǎng)絡(luò)MCANet Block和融入Coordinate Attention注意力機(jī)制,構(gòu)成基于Fire-MCANet的火焰檢測(cè)模型。Fire-MCANet是一種基于卷積神經(jīng)網(wǎng)絡(luò)的火焰檢測(cè)模型。Fire-MCANet網(wǎng)絡(luò)的整體架構(gòu)遵循ConvNeXt的結(jié)構(gòu)。該模型應(yīng)用于火焰檢測(cè),不僅增強(qiáng)了火焰的特征提取能力,而且提高了目標(biāo)檢測(cè)的準(zhǔn)確性和魯棒性。Fire-MCANet網(wǎng)絡(luò)結(jié)構(gòu)如圖7所示。

        3 實(shí)驗(yàn)結(jié)果及分析(Experimental results and analysis)

        3.1 實(shí)驗(yàn)環(huán)境

        實(shí)驗(yàn)環(huán)境如表1所示。

        本文使用的實(shí)驗(yàn)數(shù)據(jù)集由訓(xùn)練集和測(cè)試集兩個(gè)部分組成。

        數(shù)據(jù)集來(lái)源于網(wǎng)絡(luò)上收集的不同類型、不同場(chǎng)景下的圖片和PASCAL VOC數(shù)據(jù)集。將收集的火焰圖片和非火焰圖片按照7∶3的比例,分別創(chuàng)建訓(xùn)練集和驗(yàn)證集。圖8為實(shí)驗(yàn)使用的數(shù)據(jù)樣例,其中圖8(a)至圖8(c)為訓(xùn)練時(shí)使用的火焰圖片;圖8(d)至圖8(f)為訓(xùn)練時(shí)使用的非火焰圖片。

        3.2 模型評(píng)價(jià)

        本文將準(zhǔn)確率(Accuracy,Acc)、精確率(Precision,Pre)、召回率(Recall,Rec)、參數(shù)量(Params)和計(jì)算量(Flops)作為模型性能的評(píng)價(jià)指標(biāo)。

        準(zhǔn)確率是預(yù)測(cè)正火的樣本數(shù)占正火焰圖樣本的比例,準(zhǔn)確率越高,代表網(wǎng)絡(luò)模型分類越好,計(jì)算方法如公式(1):

        精確率是預(yù)測(cè)正樣本數(shù)占所有預(yù)測(cè)正火的比例,計(jì)算方法如公式(2):

        召回率是所有預(yù)測(cè)正值中火焰正確預(yù)測(cè)的占比,計(jì)算方法如公式(3):

        其中:TP(True Positive)表示真陽(yáng)性,TF(False Positive)表示假陽(yáng)性。

        模型的參數(shù)量和計(jì)算量是衡量一個(gè)網(wǎng)絡(luò)復(fù)雜度的重要指標(biāo)。在保持檢測(cè)精度較高的前提下,模型參數(shù)量越小,對(duì)設(shè)備的要求也就越低;模型計(jì)算量越少,網(wǎng)絡(luò)復(fù)雜度也越低。但在實(shí)驗(yàn)中,不同的計(jì)算代碼結(jié)構(gòu)可能會(huì)導(dǎo)致參數(shù)量和計(jì)算量的計(jì)算結(jié)果存在誤差。因此,在對(duì)比實(shí)驗(yàn)中需要使用相同的計(jì)算代碼結(jié)構(gòu)計(jì)算參數(shù)量和計(jì)算量,確保結(jié)果的準(zhǔn)確性。

        3.3 實(shí)驗(yàn)對(duì)比

        使用3組實(shí)驗(yàn),分析了本文提出的改進(jìn)方法對(duì)模型性能的影響,每組實(shí)驗(yàn)訓(xùn)練的參數(shù)一致。通過(guò)消融實(shí)驗(yàn),能夠驗(yàn)證和對(duì)比改進(jìn)模型后的性能,消融實(shí)驗(yàn)結(jié)果如表2所示。ConvNeXt_1表示將ConvNeXt Block中用于升維的卷積層替換成MCA模塊;ConvNeXt_2表示引入了Coordinate Attention注意力機(jī)制;ConvNeXt_3 表示使用MCA 模塊和引入CoordinateAttention注意力構(gòu)建的MCANet結(jié)構(gòu)。

        實(shí)驗(yàn)以ConvNeXt作為對(duì)照組,ConvNeXt_1 在將原ConvNeXt Block網(wǎng)絡(luò)中用于升維的卷積層替換為MCA模塊后,精確率提升了2.35百分點(diǎn);ConvNeXt_2通過(guò)引入CoordinateAttention注意力機(jī)制,使模型更加關(guān)注火焰的特征,模型的準(zhǔn)確率提升了3.91百分點(diǎn),同時(shí)Flops也降低了0.79 GMac;ConvNeXt_3使用了MCA模塊創(chuàng)建的MCANet結(jié)構(gòu),并引入Coordinate Attention注意力機(jī)制,不僅降低了模型的參數(shù)量和計(jì)算量,而且模型的特征提取能力也得到提升;在降低模型計(jì)算量的基礎(chǔ)上,使模型更加關(guān)注火焰的特征提取,準(zhǔn)確率也提升了3.39百分點(diǎn)。

        為了進(jìn)一步驗(yàn)證本文提出的基于Fire-MCANet的火焰檢測(cè)模型的檢測(cè)性能,將模型與DenseNet[12]、Swin Transformer[13]、Faster R-CNN[14]、ConvNeXt等主流目標(biāo)檢測(cè)模型進(jìn)行對(duì)比實(shí)驗(yàn)。采用指標(biāo)Accuracy、Precision和Recall對(duì)每個(gè)模型進(jìn)行評(píng)估,基于Fire-MCANet的火焰檢測(cè)模型的計(jì)算量和參數(shù)量有了大幅度的下降,同時(shí)準(zhǔn)確率相比其他網(wǎng)絡(luò)模型有很大程度的提高,各模型的實(shí)驗(yàn)結(jié)果對(duì)比如表3所示。

        實(shí)驗(yàn)表明,本文提出的基于Fire-MCANet的火焰檢測(cè)模型,不僅可以大幅度降低模型的參數(shù)量和計(jì)算量,而且能夠提升檢測(cè)的準(zhǔn)確率和精確率。DenseNet模型的檢測(cè)精確率相對(duì)較低。Swin Transformer模型的檢測(cè)準(zhǔn)確率相對(duì)較高,但是檢測(cè)精確率和召回率不能滿足應(yīng)用要求。Faster R-CNN 和ConvNeXt模型在火焰檢測(cè)中性能表現(xiàn)相對(duì)較好,但是各方面的指標(biāo)都有提升空間。Fire-MCANet模型的參數(shù)量和計(jì)算量都大幅度降低,同時(shí)檢測(cè)準(zhǔn)確率高達(dá)95.75%。

        4 結(jié)論(Conclusion)

        本文通過(guò)深度學(xué)習(xí)的方法,實(shí)現(xiàn)在提高準(zhǔn)確率的同時(shí),降低模型的參數(shù)量和計(jì)算量,提高模型的整體性能。對(duì)模型的改進(jìn)主要是通過(guò)MCA模塊中大卷積核獲取更大的感受野;通過(guò)MCANet Block整體提升模型感受野,同時(shí)有效地降低了模型的參數(shù)量;使用CA注意力機(jī)制讓模型關(guān)注到不同位置的信息,從而更好地捕捉到空間位置之間的關(guān)系和通道位置信息。未來(lái),需要進(jìn)一步優(yōu)化模型,提高模型對(duì)小目標(biāo)的檢測(cè)性能,并進(jìn)一步提高模型在復(fù)雜場(chǎng)景下的檢測(cè)速度和精度。

        參考文獻(xiàn)(References)

        [1] 劉濱,劉春,邵必飛,等. 基于增強(qiáng)支持向量機(jī)的電力隧道多狀態(tài)全過(guò)程監(jiān)控方法[J]. 計(jì)算技術(shù)與自動(dòng)化,2023,42 (4):41-46.

        [2] 劉偉,謝林柏,彭力. 一種改進(jìn)的增量型隨機(jī)權(quán)神經(jīng)網(wǎng)絡(luò)及應(yīng)用[J]. 計(jì)算機(jī)與數(shù)字工程,2023,51(7):1681-1686.

        [3] 馬曉樂(lè),王志海,胡紹海. 基于多形態(tài)學(xué)成分分析的圖像融合[J]. 同濟(jì)大學(xué)學(xué)報(bào)(自然科學(xué)版),2024,52(1):10-17.

        [4] 梁金幸,趙鑒福,周亞同,等. 基于改進(jìn)YOLOv5s網(wǎng)絡(luò)模型的火災(zāi)圖像識(shí)別方法 [J]. 傳感器與微系統(tǒng),2024,43(1):157-161.

        [5] 馬慶祿,馬戀,孔國(guó)英,等. 基于紅外熱成像的隧道火焰檢測(cè)技術(shù)研究[J]. 火災(zāi)科學(xué),2022,31(4):244-251.

        [6] HOSSEINI A,HASHEMZADEH M,F(xiàn)ARAJZADEH N.UFS-Net:a unified flame and smoke detection method forearly detection of fire in video surveillance applications usingCNNs[J]. Journal of computational science,2022,61:101638.

        [7] LIU Z,MAO H Z,WU C Y,et al. A ConvNet for the2020s[C]∥IEEE. Proceedings of the IEEE:2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway:IEEE,2022:11966-11976.

        [8] 凡遵林,王浩,管乃洋,等. 單幀紅外圖像弱小目標(biāo)檢測(cè)研究綜述[J]. 紅外技術(shù),2023,45(11):1133-1140.

        [9] LI Y Z,YUAN Y. Convergence analysis of two-layer neuralnetworks with ReLU activation[C]∥Proceedings of the31st International Conference on Neural Information ProcessingSystems. New York:ACM,2017:597-607.

        [10] KRIZHEVSKY A,SUTSKEVER I,HINTON G E. ImageNetclassification with deep convolutional neural networks[J]. Communications of the ACM,2017,60(6):84-90.

        [11] ZHANG Z L,JIN Q Y,WANG L N,et al. Video-basedfire smoke detection using temporal-spatial saliency features[J]. Procedia computer science,2022,198(C):493-498.

        [12] HUANG G,LIU Z,VAN DER MAATEN L,et al. Denselyconnected convolutional networks[C]∥IEEE. Proceedings ofthe IEEE:2017 IEEE Conference on Computer Vision andPattern Recognition. Piscataway:IEEE,2017:2261-2269.

        [13] LIU Z,LIN Y T,CAO Y,et al. Swin Transformer:hierarchicalVision Transformer using Shifted Windows[C]∥IEEE. Proceedings of the IEEE:2021 IEEE/CVF InternationalConference on Computer Vision. Piscataway:IEEE,2021:9992-10002.

        [14] REN S Q,HE K M,GIRSHICK R,et al. Faster R-CNN:towards real-time object detection with region proposalnetworks[J]. IEEE Transactions on pattern analysis andmachine intelligence,2017,39(6):1137-1149.

        作者簡(jiǎn)介:

        祝巧巧(1998-),女,碩士生。研究領(lǐng)域:數(shù)字圖像處理,目標(biāo)檢測(cè)。

        嚴(yán)云洋(1967-),男,博士,教授。研究領(lǐng)域:數(shù)字圖像處理,模式識(shí)別。本文通信作者。

        冷志超(1998-),男,碩士生。研究領(lǐng)域:數(shù)字圖像處理,目標(biāo)檢測(cè)。

        董 可(1999-),男,碩士生。研究領(lǐng)域:數(shù)字圖像處理,目標(biāo)檢測(cè)。

        葉 翔(1998-),男,碩士生。研究領(lǐng)域:數(shù)字圖像處理,目標(biāo)檢測(cè)。

        王盤龍(2000-),男,碩士生。研究領(lǐng)域:數(shù)字圖像處理,目標(biāo)檢測(cè)。

        猜你喜歡
        特征提取深度學(xué)習(xí)
        特征提取和最小二乘支持向量機(jī)的水下目標(biāo)識(shí)別
        基于Gazebo仿真環(huán)境的ORB特征提取與比對(duì)的研究
        電子制作(2019年15期)2019-08-27 01:12:00
        基于Daubechies(dbN)的飛行器音頻特征提取
        電子制作(2018年19期)2018-11-14 02:37:08
        Bagging RCSP腦電特征提取算法
        有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
        電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
        MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
        大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
        軟件工程(2016年8期)2016-10-25 15:47:34
        男男受被攻做哭娇喘声视频| 人妻少妇中文字幕,久久精品| 久久久精品中文字幕麻豆发布 | 中文字幕午夜精品久久久| 国产偷国产偷精品高清尤物| 欧美日韩中文国产一区| 美女熟妇67194免费入口| 国产成人亚洲系列毛片| 日韩av无码一区二区三区不卡| 国产精品国产三级国产av′| 国产亚洲精品性爱视频| 国产成人精品久久二区二区91| 精品国产综合区久久久久久| 女人夜夜春高潮爽a∨片传媒 | 成年女人18毛片毛片免费| 亚洲一区二区三区99| 免费看美女被靠的网站| 久久88综合| 中文亚洲第一av一区二区| 中文字幕一区二区三区四区五区 | 久久久久88色偷偷| 亚洲精品国精品久久99热一| 国产西西裸体一级黄色大片| 在线观看国产成人自拍视频| 久久超碰97人人做人人爱| 无码精品一区二区免费AV| 国产精品亚洲最新地址| 免费人成在线观看视频高潮| 亚洲国产成人精品无码区99| 亚洲大尺度动作在线观看一区 | 风韵丰满妇啪啪区老老熟女杏吧 | 久久夜色精品国产九色| 欧美黑人巨大videos精品| 末发育娇小性色xxxxx视频| 制服丝袜人妻中出第一页| 亚洲无精品一区二区在线观看| 欧美成人片在线观看| 国产精品白浆一区二区免费看| 日本高清成人一区二区三区| 婷婷丁香五月激情综合| 欧美精品区|