亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        嵌入壓縮—激勵(lì)機(jī)制ResNet的民族藥植物圖像識(shí)別

        2023-03-08 10:56:50杜建強(qiáng)朱彥陳馮振乾
        軟件導(dǎo)刊 2023年2期
        關(guān)鍵詞:圖像識(shí)別集上特征提取

        周 婷,杜建強(qiáng),朱彥陳,馮振乾

        (江西中醫(yī)藥大學(xué) 計(jì)算機(jī)學(xué)院,江西 南昌 330004)

        0 引言

        中國(guó)擁有世界上最豐富的藥用植物資源,對(duì)藥用植物的發(fā)掘、使用和栽培有著悠久的歷史[1]。民族藥是傳統(tǒng)醫(yī)藥的重要組成部分,包括藏藥、蒙藥、維藥、彝藥、傣藥、壯藥、瑤藥、苗藥等在內(nèi)的藥品數(shù)量達(dá)8000 余種[2],在防病治病和衛(wèi)生保健事業(yè)中發(fā)揮著重要作用。在實(shí)際應(yīng)用中,民族藥主要依靠專業(yè)人員的感官和經(jīng)驗(yàn)進(jìn)行識(shí)別,這種人工識(shí)別方法工作繁瑣、效率低,且具有一定的主觀性,常會(huì)有誤判現(xiàn)象。因此,探索一種智能化、高效率、高準(zhǔn)確性的方法實(shí)現(xiàn)對(duì)民族藥的自動(dòng)識(shí)別具有重要現(xiàn)實(shí)意義。

        圖像識(shí)別是計(jì)算機(jī)視覺(jué)領(lǐng)域的一個(gè)重要分支,其包含的特征提取和圖像分類技術(shù)有助于民族藥的識(shí)別。在傳統(tǒng)機(jī)器學(xué)習(xí)中,研究人員提出局部二值模式(Local Binary Pattern,LBP)[3]、尺度不變特征變換(Scale-Invariant Feature Transform,SIFT)[4]、基于FAST 角點(diǎn)的特征點(diǎn)檢測(cè)(Oriented Fast and Rotated Brief,ORB)[5]和Gabor 濾波[6]等方法對(duì)圖像進(jìn)行特征提取。而圖像分類通常使用支持向量機(jī)(Support Vector Machine,SVM)[7]、隨機(jī)森林(Random Forest,RF)[8]、K 近鄰(K-Nearest Neighbor,KNN)[9]和反向傳播神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network,BPNN)[10]等方法。然而,傳統(tǒng)的圖像識(shí)別方法依賴人為設(shè)計(jì)特征,無(wú)法提取到圖像的高級(jí)語(yǔ)義特征[11]。

        近年來(lái),深度學(xué)習(xí)技術(shù)在圖像識(shí)別中廣泛應(yīng)用,其能很好地將底層特征映射到高層領(lǐng)域,得到更加本質(zhì)的特征表 示。自2012 年以后,AlexNet[12]、VGGNet[13]、GoogLeNet[14]、ResNet[15]等經(jīng)典神經(jīng)網(wǎng)絡(luò)模型被相繼提出,許多研究者開(kāi)始將卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)應(yīng)用于植物圖像識(shí)別中。例如,Lee 等[16]采用反卷積網(wǎng)絡(luò)從44 種植物圖像中學(xué)習(xí)識(shí)別特征,證明了通過(guò)CNN 學(xué)習(xí)特征優(yōu)于傳統(tǒng)的手動(dòng)提取特征;馮海林等[17]使用AlexNet 等4 個(gè)網(wǎng)絡(luò)模型在大數(shù)據(jù)集ImageNet[18]上進(jìn)行預(yù)訓(xùn)練,遷移到目標(biāo)樹(shù)種數(shù)據(jù)集上,將訓(xùn)練得到的4個(gè)CNN 集成得到最終模型,較大提升了復(fù)雜背景的樹(shù)種圖像識(shí)別精度;何欣等[19]在ResNet18 網(wǎng)絡(luò)基礎(chǔ)上引入多卷積以提升網(wǎng)絡(luò)的特征提取能力,對(duì)一般程度葡萄葉片病害的識(shí)別準(zhǔn)確率較高,對(duì)嚴(yán)重程度的病害識(shí)別率有所下降,模型的魯棒性尚不夠;Zhu 等[20]提出一種改進(jìn)的深度卷積神經(jīng)網(wǎng)絡(luò)用于對(duì)植物葉片特征的識(shí)別,將原始圖像分割成子圖像加載到網(wǎng)絡(luò)中,獲得了較高的識(shí)別率,但對(duì)于復(fù)雜環(huán)境中小物體進(jìn)行檢測(cè)和分類的效果則不如簡(jiǎn)單背景;張帥等[21]通過(guò)構(gòu)建8 層CNN 對(duì)簡(jiǎn)單背景和復(fù)雜背景的植物葉片圖像進(jìn)行識(shí)別,發(fā)現(xiàn)對(duì)簡(jiǎn)單背景下的圖像識(shí)別效果較好,但復(fù)雜背景下的識(shí)別率較低。

        目前,利用深度學(xué)習(xí)技術(shù)對(duì)民族藥圖像進(jìn)行識(shí)別分類尚有許多亟需解決的問(wèn)題。一方面,民族藥分布廣泛、生長(zhǎng)環(huán)境特殊、品種稀缺等原因給民族藥植物圖片的采集增加了難度,數(shù)據(jù)集樣本量較少,易導(dǎo)致網(wǎng)絡(luò)過(guò)擬合;另一方面,所采集到的民族藥植物圖像大多具有土壤、石頭、雜草、枯葉等不能表征類別的無(wú)效區(qū)域,加大了圖像特征提取的難度。為解決上述問(wèn)題,本文自建民族藥植物圖像數(shù)據(jù)集,結(jié)合民族藥植物圖像數(shù)據(jù)的特點(diǎn),提出嵌入壓縮—激勵(lì)(Squeeze and Excitation,SE)機(jī)制的ResNet 結(jié)合遷移學(xué)習(xí)的圖像識(shí)別方法(SE-ResNet34-Transfer)。該方法在ResNet34 網(wǎng)絡(luò)的淺層部分引入SE 機(jī)制,實(shí)現(xiàn)淺層細(xì)粒度特征與深層高級(jí)語(yǔ)義特征的融合,有效提升模型在背景復(fù)雜圖像中的特征表現(xiàn)力;同時(shí)采用模型參數(shù)遷移對(duì)網(wǎng)絡(luò)微調(diào)訓(xùn)練的方式,減少小樣本數(shù)據(jù)集對(duì)網(wǎng)絡(luò)性能的影響;最后通過(guò)多個(gè)數(shù)據(jù)集上的多組比較實(shí)驗(yàn),證明了該方法的有效性。

        1 相關(guān)方法

        1.1 ResNet

        ResNet 的核心為殘差塊,加入的殘差連接直接將輸入信息通過(guò)跳躍結(jié)構(gòu)傳給輸出,一定程度上保留了信息的完整性,提高了網(wǎng)絡(luò)的映射能力,從而緩解CNN 中由于層數(shù)增加導(dǎo)致梯度消失的網(wǎng)絡(luò)退化問(wèn)題。假設(shè)x為網(wǎng)絡(luò)輸入,H(x)為對(duì)應(yīng)的輸出,當(dāng)輸入維度與輸出維度一致時(shí),殘差連接可以表示為H(x)=F(x) +x,轉(zhuǎn)化為學(xué)習(xí)的殘差函數(shù)F(x)=H(x) -x,若殘差為0,存在恒等映射H(x)=x,即通過(guò)擬合殘差擬合恒等映射關(guān)系。

        圖1 為ResNet 中的一個(gè)殘差塊。對(duì)于輸入樣本x,通過(guò)網(wǎng)絡(luò)層后得到的輸出為:

        式中,W、W1、W2表示權(quán)重,δ表示ReLU 激活函數(shù)[22]。

        將該輸出與原始輸入x相加,得到網(wǎng)絡(luò)的最終輸出為:

        式中,y為網(wǎng)絡(luò)的輸出向量,F(xiàn)(x,W)為待學(xué)習(xí)的殘差映射。

        Fig.1 ResNet residual module圖1 ResNet殘差模塊

        公式(3)為殘差塊在反向傳播時(shí)的梯度計(jì)算表達(dá)式,在梯度計(jì)算中每個(gè)導(dǎo)數(shù)值加1,一定程度上解決了由于網(wǎng)絡(luò)深度增加,誤差反向傳播過(guò)程中導(dǎo)數(shù)連乘后的梯度值逐漸增大或減小,最終出現(xiàn)的梯度爆炸或彌散問(wèn)題,使網(wǎng)絡(luò)有效地進(jìn)行反向傳播。

        1.2 SE機(jī)制

        SENet[23]中提出一種能夠使網(wǎng)絡(luò)對(duì)特征進(jìn)行校準(zhǔn)的SE 機(jī)制,其通過(guò)學(xué)習(xí)卷積中不同特征通道的重要性賦予各通道不同的權(quán)重,即關(guān)注信息量大的有效通道特征,抑制不重要的通道特征,進(jìn)而提升網(wǎng)絡(luò)模型的特征表現(xiàn)力。如圖2 所示,SE 模塊主要包含壓縮(Squeeze)和激勵(lì)(Excitation)兩個(gè)模塊,假設(shè)卷積得到的特征圖大小為W×H×C,W和H分別表示特征圖的寬和長(zhǎng),C表示通道數(shù)。

        Fig.2 SE module圖2 SE模塊

        首先對(duì)特征圖在空間維度W×H上進(jìn)行壓縮操作得到1 × 1 ×C的向量,即通過(guò)一個(gè)全局平均池化(Global Average Pooling)得到通道級(jí)的全局特征,壓縮模塊的公式為:

        式中,zc表示壓縮操作輸出特征圖,uc表示輸入特征圖,F(xiàn)sq表示壓縮函數(shù)。

        然后對(duì)全局特征進(jìn)行激勵(lì)操作,即通過(guò)兩個(gè)全連接層學(xué)習(xí)特征通道之間的相關(guān)性,進(jìn)行權(quán)重分配,生成的通道權(quán)重維度為1 × 1 ×C,激勵(lì)模塊的公式為:

        式中,sc表示激勵(lì)操作生成的權(quán)重,δ表示ReLU 函數(shù),σ表 示sigmoid 函 數(shù),F(xiàn)ex表示激勵(lì)函數(shù),;r表示壓縮比例,以減少網(wǎng)絡(luò)參數(shù)量,提高泛化能力。

        最后經(jīng)過(guò)Scale 操作,將得到的各通道權(quán)重值與原特征圖對(duì)應(yīng)通道的二維矩陣相乘,得到最終特征輸出,計(jì)算公式為:

        2 本文模型

        ResNet 含有的殘差塊結(jié)構(gòu)在一定程度上能夠解決隨著網(wǎng)絡(luò)層數(shù)加深而導(dǎo)致的網(wǎng)絡(luò)退化問(wèn)題,常用ResNet 包括ResNet18、ResNet34、ResNet50。本文以ResNet34 網(wǎng)絡(luò)結(jié)構(gòu)為基礎(chǔ),提出SE-ResNet34-Transfer 模型,結(jié)構(gòu)如圖3 所示,其主要由遷移學(xué)習(xí)模塊和嵌入SE 機(jī)制的網(wǎng)絡(luò)模型構(gòu)成。

        2.1 模型的遷移學(xué)習(xí)

        民族藥植物圖像樣本量少,不利于網(wǎng)絡(luò)對(duì)特征的提取,且容易出現(xiàn)過(guò)擬合現(xiàn)象。遷移學(xué)習(xí)(Transfer Learning)是指將相關(guān)源領(lǐng)域中的有用信息遷移應(yīng)用到目標(biāo)領(lǐng)域中,從而解決目標(biāo)領(lǐng)域的學(xué)習(xí)任務(wù)[24],對(duì)于圖像識(shí)別研究中存在訓(xùn)練成本高、數(shù)據(jù)集小等問(wèn)題,是一種有效的解決方法。

        模型的遷移學(xué)習(xí)模塊如圖3(a)所示。首先在ImageNet(包含1400 多萬(wàn)張標(biāo)記的圖片)大規(guī)模圖像數(shù)據(jù)集上對(duì)ResNet34 權(quán)重進(jìn)行預(yù)訓(xùn)練,提取與目標(biāo)領(lǐng)域具有一定共性的特征(邊緣、紋理、色彩等),然后將訓(xùn)練好的權(quán)重參數(shù)遷移至目標(biāo)領(lǐng)域中,重構(gòu)Full Connection(FC)層的輸出類別數(shù),最后進(jìn)行參數(shù)微調(diào)(finetune)訓(xùn)練。

        2.2 嵌入SE機(jī)制的網(wǎng)絡(luò)模型

        民族藥植物圖像背景復(fù)雜,通常存在雜草、石頭、土壤等不能表征其類別的無(wú)效區(qū)域,這些干擾因素會(huì)影響網(wǎng)絡(luò)對(duì)圖像的特征提取。為了解決這個(gè)問(wèn)題,在ResNet34網(wǎng)絡(luò)中引入改進(jìn)的SE機(jī)制,SE-ResNet34網(wǎng)絡(luò)模型如圖3(b)中所示。

        Fig.3 SE-ResNet34-Transfer model圖3 SE-ResNet34-Transfer模型

        2.2.1 嵌入策略

        CNN 中淺層更加關(guān)注圖像的細(xì)粒度特征,高層則可以獲得圖像的整體性信息。民族藥植物圖像中通常存在一些無(wú)效信息,為提高模型識(shí)別率,本文選擇在ResNet34 網(wǎng)絡(luò)第一層卷積層之后引入SE 機(jī)制,目的是在存在較多背景信息時(shí)提高有效特征的重要度,同時(shí)抑制無(wú)效特征,幫助網(wǎng)絡(luò)對(duì)特征進(jìn)行校準(zhǔn)。

        民族藥植物圖像背景復(fù)雜,每個(gè)部分都可能包含圖像特征信息。在傳統(tǒng)的ResNet34 中,第一層卷積之后運(yùn)用了最大池化技術(shù),對(duì)圖像的背景信息有一定丟失。為了使網(wǎng)絡(luò)能夠保留更多圖像背景信息,去除卷積層之后的最大池化層,采用SE 機(jī)制中的平均池化技術(shù)替換最大池化技術(shù)。同時(shí)為了減少網(wǎng)絡(luò)參數(shù)量,提高泛化能力,采用文獻(xiàn)[25]中的設(shè)置將壓縮系數(shù)設(shè)定為4。

        2.2.2 激活函數(shù)

        “新生兒睪丸扭轉(zhuǎn)短時(shí)間內(nèi)即可發(fā)生壞死,同時(shí)可能會(huì)引起全身炎癥反應(yīng)及影響另一側(cè)睪丸,必須急診手術(shù),需緊急轉(zhuǎn)到一師醫(yī)院救治……”陳正副院長(zhǎng)在詢問(wèn)患兒病情后,立即與一起參加義診的一師醫(yī)院小兒外科援疆專家錢(qián)云忠主任和泌尿外科方家杰副主任進(jìn)行實(shí)時(shí)會(huì)診,同時(shí)將患兒的檢查結(jié)果和相關(guān)資料通過(guò)微信傳給了其后方醫(yī)院——浙江大學(xué)醫(yī)學(xué)院附屬兒童醫(yī)院的泌尿外科專家徐珊主任,在返程的車上共同商討和制定了周詳?shù)氖中g(shù)方案,指導(dǎo)趙主任立即進(jìn)行手術(shù)前相關(guān)檢查并聯(lián)系120中心馬上進(jìn)行新生兒轉(zhuǎn)運(yùn),爭(zhēng)取為搶救患兒節(jié)省時(shí)間。

        傳統(tǒng)SE 機(jī)制中,在對(duì)全局特征進(jìn)行激勵(lì)操作時(shí),使用sigmoid 作為計(jì)算權(quán)重的激活函數(shù),sigmoid 函數(shù)需要進(jìn)行指數(shù)運(yùn)算,計(jì)算量大,且由圖4 可以看出,sigmoid 函數(shù)在零附近激活性較好,而在接近飽和區(qū)時(shí)變化非常緩慢,不利于深層網(wǎng)絡(luò)的訓(xùn)練。

        Fig.4 Curves of sigmoid and h-sigmoid functions圖4 sigmoid和h-sigmoid函數(shù)曲線

        為了解決這兩個(gè)問(wèn)題,本文使用h-sigmoid 函數(shù)近似代替sigmoid 函數(shù),h-sigmoid 函數(shù)沒(méi)有指數(shù)運(yùn)算,能夠減少時(shí)間消耗,提高網(wǎng)絡(luò)特征提取精度,h-sigmoid 激活函數(shù)計(jì)算公式為:

        h-sigmoid 函數(shù)在ReLU 函數(shù)的基礎(chǔ)上采用3 個(gè)線段擬合整個(gè)sigmoid 函數(shù),將原本平滑的sigmoid 函數(shù)變得近似平滑。當(dāng)輸入值小于3 時(shí),一部分神經(jīng)元失活,使得網(wǎng)絡(luò)更加稀疏,減少了參數(shù)間的相互依存,緩解了過(guò)擬合問(wèn)題;當(dāng)輸入值大于3 時(shí),神經(jīng)元的輸出變?yōu)楣潭ㄖ?,能夠減少計(jì)算帶來(lái)的精度損失。

        3 實(shí)驗(yàn)設(shè)計(jì)與結(jié)果分析

        3.1 實(shí)驗(yàn)數(shù)據(jù)集

        為證明本文模型的有效性和通用性,設(shè)計(jì)實(shí)驗(yàn)分別在自建的民族藥植物圖像數(shù)據(jù)集、公開(kāi)的植物圖像數(shù)據(jù)集Oxford 102 flowers 和非植物圖像數(shù)據(jù)集CIFAR-10 上驗(yàn)證網(wǎng)絡(luò)模型性能。其中民族藥植物圖像數(shù)據(jù)集通過(guò)人工拍攝與網(wǎng)絡(luò)爬取相結(jié)合的方式構(gòu)建。自建民族藥植物圖像數(shù)據(jù)集的一部分來(lái)自于江西中醫(yī)藥大學(xué)中藥資源與民族藥研究中心赴各地采集的圖片,另一部分在中國(guó)植物圖像數(shù)據(jù)庫(kù)、中國(guó)科學(xué)院植物主題數(shù)據(jù)庫(kù)上爬取獲得,之后由研究中心的民族藥專家進(jìn)行數(shù)據(jù)篩查和圖像標(biāo)注,最后從中選取15 類較為常見(jiàn)的藏藥植物,命名為T(mén)ibetanMP 數(shù)據(jù)集。TibetanMP 數(shù)據(jù)集中每類藏藥圖像數(shù)量為200~1500張不等,共有8018 張圖像,并按照7∶3 的比例劃分訓(xùn)練集和測(cè)試集。TibetanMP 數(shù)據(jù)集具體類別信息見(jiàn)表1。

        Table 1 Number of categories in the TibetanMP dataset表1 TibetanMP數(shù)據(jù)集各類別數(shù)量

        Oxford 102 flowers 是由牛津大學(xué)發(fā)布的圖像數(shù)據(jù)集,包含102 類英國(guó)常見(jiàn)花卉,每個(gè)類別包含40~258 張圖像,共8189 張圖像,具有較大的比例、姿勢(shì)和光線變化,因此常在多類別復(fù)雜植物識(shí)別中作為模型驗(yàn)證數(shù)據(jù)集。

        CIFAR-10 是廣泛應(yīng)用于機(jī)器視覺(jué)領(lǐng)域圖像分類任務(wù)中的經(jīng)典數(shù)據(jù)集,由10 類32×32 的彩色圖像組成,每個(gè)類別有10000 張圖像,訓(xùn)練集包含50000 張圖像,測(cè)試集包含10000張圖像。

        3.2 實(shí)驗(yàn)設(shè)置

        本文所有實(shí)驗(yàn)均在單個(gè)圖形處理單元(GPU)模式下進(jìn)行,參數(shù)為NVIDIA VGPU,8.19GB 顯存,20GB 內(nèi)存,選用Python 編程語(yǔ)言,Pytorch 深度學(xué)習(xí)框架。

        為了確保模型在各個(gè)數(shù)據(jù)集上的識(shí)別精度達(dá)到最優(yōu),需要分別對(duì)3 個(gè)數(shù)據(jù)集進(jìn)行參數(shù)預(yù)設(shè)。TibetanMP 數(shù)據(jù)集的參數(shù)通過(guò)微調(diào)優(yōu)化得到;Oxford 102 flowers 數(shù)據(jù)集與TibetanMP 數(shù)據(jù)集的數(shù)據(jù)類型相似,前者單個(gè)類別樣本較少,因此設(shè)置更小的批處理大小,其他參數(shù)一致;CIFAR-10 數(shù)據(jù)集使用文獻(xiàn)[26]中的配置參數(shù)。

        在TibetanMP 數(shù)據(jù)集中,網(wǎng)絡(luò)的批處理大?。╞atch size)設(shè)置為16,迭代次數(shù)設(shè)置為100。模型使用Adam(Adaptive Moment Estimation,Adam)作為優(yōu)化器(optimizer),其學(xué)習(xí)率(Learning Rate,Ir)設(shè)置為0.0001。在Oxford 102 flowers 數(shù)據(jù)集中,網(wǎng)絡(luò)的批處理大小設(shè)置為8,其他參數(shù)設(shè)置與TibetanMP 相同。在CIFAR-10 數(shù)據(jù)集上,模型訓(xùn)練采用隨機(jī)梯度下降(Stochastic Gradient Descent,SGD)優(yōu)化算法,動(dòng)量(momentum)設(shè)置為0.99,權(quán)重衰減(weight decay)為0.0001,初始學(xué)習(xí)率設(shè)置為0.001,每次訓(xùn)練圖片批處理大小為64張,迭代次數(shù)為200。

        3.2.2 損失函數(shù)

        本文所有實(shí)驗(yàn)均采用交叉熵函數(shù)作為網(wǎng)絡(luò)模型的損失函數(shù),表示為:

        式中,xclass表示真實(shí)標(biāo)簽值,j表示分類的類別,xj表示預(yù)測(cè)值。

        3.2.3 評(píng)價(jià)指標(biāo)

        采用準(zhǔn)確率(accuracy)作為評(píng)價(jià)指標(biāo),accuracy 越大,模型具有越高的識(shí)別精度,計(jì)算公式為:

        式中,ti為第i類圖像分類正確的數(shù)量,n為圖像類別總數(shù),num為測(cè)試集圖像的總數(shù)量。

        3.3 實(shí)驗(yàn)結(jié)果與分析

        3.3.1 遷移學(xué)習(xí)及ResNet層數(shù)比較實(shí)驗(yàn)

        為了驗(yàn)證遷移學(xué)習(xí)在本文小樣本數(shù)據(jù)集上的有效性,同時(shí)確定后續(xù)實(shí)驗(yàn)采用的ResNet 層數(shù),本文在ResNet18、ResNet34 和ResNet50 網(wǎng)絡(luò)中進(jìn)行遷移學(xué)習(xí)比較實(shí)驗(yàn)。各網(wǎng)絡(luò)模型在TibetanMP 數(shù)據(jù)集上的結(jié)果見(jiàn)表2??梢钥闯觯琑esNet18、ResNet34 和ResNet50 網(wǎng)絡(luò)在引入遷移學(xué)習(xí)后,在TibetanMP 數(shù)據(jù)集上的識(shí)別效果有不錯(cuò)提升,表明了遷移學(xué)習(xí)的有效性。隨著網(wǎng)絡(luò)層數(shù)的增加,模型識(shí)別的效果越來(lái)越好,在ResNet34-Transfer 和ResNet50-Transfer 上分別達(dá)到了95.07%和95.91%的準(zhǔn)確率。但由于遷移學(xué)習(xí)是本文模型中對(duì)網(wǎng)絡(luò)訓(xùn)練時(shí)間影響最大的因素,結(jié)合網(wǎng)絡(luò)訓(xùn)練時(shí)間成本和參數(shù)量,ResNet34-Transfer 模型相較ResNet50-Transfer 的訓(xùn)練時(shí)間和參數(shù)量分別降低了46.7和0.03 × 106,最終確定本文后續(xù)實(shí)驗(yàn)采用ResNet34-Transfer模型。

        3.3.2 模型在不同數(shù)據(jù)集上的比較實(shí)驗(yàn)

        為了驗(yàn)證引入SE 機(jī)制能夠提高網(wǎng)絡(luò)的圖像特征提取能力,以ResNet34-Transfer 為基準(zhǔn),分別在TibetanMP 數(shù)據(jù)集、Oxford 102 flowers 數(shù)據(jù)集和CIFAR-10 數(shù)據(jù)集上進(jìn)行比較實(shí)驗(yàn),驗(yàn)證SE-ResNet34-Transfer 的有效性。實(shí)驗(yàn)結(jié)果見(jiàn)表3。

        Table 2 Experiment result of transfer learning and ResNet layers表2 遷移學(xué)習(xí)及ResNet層數(shù)實(shí)驗(yàn)結(jié)果

        Table 3 SE-ResNet-Transfer effectiveness experiment results表3 SE-ResNet-Transfer有效性實(shí)驗(yàn)結(jié)果

        可以看出,SE-ResNet34-Transfer 模型在Oxford 102 flowers 和CIFAR-10 數(shù)據(jù)集上均獲得了更高的準(zhǔn)確率,相較ResNet34-Transfer 分別提高了0.25%和5.43%,表明本文方法能有效提升網(wǎng)絡(luò)的圖像特征提取能力,具有良好的泛化能力。本文方法在TibetanMP 數(shù)據(jù)集上也取得了較高的識(shí)別準(zhǔn)確率,相比ResNet34-Transfer 提高了1.26%,表明了其對(duì)背景復(fù)雜圖像識(shí)別中特征提取的有效性。

        為進(jìn)一步探究ResNet34-Transfer 和SE-ResNet34-Transfer 模型在TibetanMP、Oxford 102 flowers 和CIFAR-10數(shù)據(jù)集上的表現(xiàn),圖5 分別展示了這兩種模型在各個(gè)數(shù)據(jù)集上的訓(xùn)練結(jié)果,其中左邊為測(cè)試準(zhǔn)確率對(duì)比圖,右邊為訓(xùn)練誤差對(duì)比圖。

        如圖5(a)所示,在TibetanMP 數(shù)據(jù)集上,改進(jìn)的SEResNet34-Transfer 模型相比ResNet34-Transfer 具有更優(yōu)的收斂精度和更低的訓(xùn)練誤差;如圖5(b)所示,在Oxford 102 flowers 數(shù)據(jù)集上,兩個(gè)模型的訓(xùn)練表現(xiàn)區(qū)別不大,但ResNet34-Transfer 的收斂速度略快,主要是由于Oxford 102 flowers 數(shù)據(jù)集樣本較小,圖像較清晰簡(jiǎn)單,易于訓(xùn)練,而引入SE 機(jī)制增加了模型的參數(shù)量,使得收斂速度略慢,但總體看來(lái),SE-ResNet34-Transfer 取得了更好的識(shí)別效果;如圖5(c)所示,在CIFAR-10 數(shù)據(jù)集上,SE-ResNet34-Transfer 模型相較ResNet34-Transfer 具有更高的識(shí)別精度和更低的訓(xùn)練誤差,進(jìn)一步驗(yàn)證了本文模型的準(zhǔn)確性和有效性。

        3.3.3 與主流CNN圖像識(shí)別模型的比較實(shí)驗(yàn)

        Fig.5 ResNet34-Transfer and SE-ResNet34-Transfer training results comparison圖5 ResNet34-Transfer與SE-ResNet34-Transfer訓(xùn)練結(jié)果比較

        將SE-ResNet34-Transfer 與其他主流CNN 圖像識(shí)別模型進(jìn)行比較,進(jìn)一步驗(yàn)證SE-ResNet34-Transfer 的分類性能。選取AlexNet、VGG16、GoogleNet、MobileNet 作為對(duì)照模型,分別在3 個(gè)數(shù)據(jù)集上對(duì)上述CNN 網(wǎng)絡(luò)模型進(jìn)行比較實(shí)驗(yàn),結(jié)果見(jiàn)表4。其中,CIFAR-10 數(shù)據(jù)集上由于圖片大小為32×32,而AlexNet 要求圖片的輸入為224×224,因而此處沒(méi)有對(duì)比AlexNet-Transfer 模型的實(shí)驗(yàn)??梢钥闯觯诓捎猛瑯舆w移學(xué)習(xí)方式的前提下,SE-ResNet34-Transfer 模型相較其他CNN 圖像識(shí)別模型在3 個(gè)數(shù)據(jù)集上均取得了最好結(jié)果。在TibetanMP 數(shù)據(jù)集上,本文模型分類效果最佳,識(shí)別精度達(dá)到96.33%,表明嵌入SE 機(jī)制的ResNet結(jié)合遷移學(xué)習(xí)的圖像識(shí)別方法能夠有效提高網(wǎng)絡(luò)的圖像特征提取能力。

        Table 4 Experimental results of each image recognition model表4 各圖像識(shí)別模型實(shí)驗(yàn)結(jié)果

        4 結(jié)語(yǔ)

        為了推動(dòng)民族藥智能化發(fā)展,解決民族藥植物圖像數(shù)據(jù)集稀缺、樣本量少和圖像特征提取困難等問(wèn)題,本文自建TibetanMP 數(shù)據(jù)集,并提出一種嵌入SE 機(jī)制的ResNet 結(jié)合遷移學(xué)習(xí)的圖像識(shí)別方法。該方法利用遷移學(xué)習(xí)提高網(wǎng)絡(luò)在小樣本數(shù)據(jù)集上的識(shí)別率,通過(guò)引入SE 機(jī)制提高網(wǎng)絡(luò)對(duì)復(fù)雜背景圖像的特征提取能力,最終在TibetanMP數(shù)據(jù)集上進(jìn)行微調(diào),取得了可觀的測(cè)試精度,較好地解決了樣本量較少、背景復(fù)雜的民族藥植物圖像識(shí)別問(wèn)題,為相關(guān)研究者提供了可靠的技術(shù)支持。同時(shí),在兩個(gè)公開(kāi)圖像數(shù)據(jù)集上的對(duì)比實(shí)驗(yàn)結(jié)果表明,與其他主流CNN 圖像識(shí)別模型相比,SE-ResNet34-Transfer 獲得了更高的準(zhǔn)確率,。然而民族藥種類繁雜,本文方法仍具有一定的局限性,在未來(lái)的研究工作中,將從長(zhǎng)尾分布數(shù)據(jù)背景下的圖片分類問(wèn)題出發(fā),提高測(cè)試精度,并考慮調(diào)整遷移學(xué)習(xí)策略,繼續(xù)優(yōu)化現(xiàn)有模型。

        猜你喜歡
        圖像識(shí)別集上特征提取
        Cookie-Cutter集上的Gibbs測(cè)度
        鏈完備偏序集上廣義向量均衡問(wèn)題解映射的保序性
        基于Resnet-50的貓狗圖像識(shí)別
        電子制作(2019年16期)2019-09-27 09:34:50
        高速公路圖像識(shí)別技術(shù)應(yīng)用探討
        基于Daubechies(dbN)的飛行器音頻特征提取
        電子制作(2018年19期)2018-11-14 02:37:08
        圖像識(shí)別在物聯(lián)網(wǎng)上的應(yīng)用
        電子制作(2018年19期)2018-11-14 02:37:04
        圖像識(shí)別在水質(zhì)檢測(cè)中的應(yīng)用
        電子制作(2018年14期)2018-08-21 01:38:16
        復(fù)扇形指標(biāo)集上的分布混沌
        Bagging RCSP腦電特征提取算法
        基于MED和循環(huán)域解調(diào)的多故障特征提取
        最近中文字幕一区二区三区| 国产色a在线观看| 国产成人精选在线不卡| 精品一区二区三区中文字幕在线| 久久一区二区三区老熟女| 国产亚洲一区二区在线观看| 色悠久久久久综合欧美99| 美女视频很黄很a免费国产| 亚洲六月丁香色婷婷综合久久| 人妻 丝袜美腿 中文字幕| 亚洲精品字幕在线观看| 无码av免费精品一区二区三区| av在线一区二区三区不卡| 国产一区二区三区四区三区| 永久免费av无码网站性色av| 亚洲熟妇中文字幕日产无码| 亚洲av乱码一区二区三区人人| 24小时日本在线视频资源| 男女扒开双腿猛进入免费看污| 亚洲av熟女天堂系列| 国产一区二区三区仙踪林| 精品国产一区av天美传媒| 国产片AV在线永久免费观看| 国产伦一区二区三区久久| 人人澡人人妻人人爽人人蜜桃麻豆| 国内精品久久久久久中文字幕| 一区欧美在线动漫| 免费看黄视频亚洲网站| 久久久久亚洲av成人无码| 欧洲中文字幕| 永久免费看黄在线观看| 午夜精品久久久久久久| 色窝窝免费播放视频在线| 精品亚洲人伦一区二区三区| 日本人妖熟女另类二区| 色屁屁www影院免费观看入口| 日本久久精品免费播放| 日韩av一区二区三区高清| 国产真实乱对白精彩| 加勒比无码专区中文字幕| 亚洲一区中文字幕一区|