亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        LU-ReNet植物葉片分割與計(jì)數(shù)模型

        2022-03-01 13:13:12王以松魏昆鵬彭啟文王運(yùn)乾
        關(guān)鍵詞:植物特征模型

        鄒 龍,王以松,2+,魏昆鵬,彭啟文,王 瑋,王運(yùn)乾

        (1.貴州大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,貴州 貴陽 550025;2.貴州大學(xué) 公共大數(shù)據(jù)國家重點(diǎn)實(shí)驗(yàn)室, 貴州 貴陽 550025;3.中國移動(dòng)通信集團(tuán) 設(shè)計(jì)院有限公司,河南 鄭州 450003)

        0 引 言

        植物表型對(duì)于研究植物生態(tài)至關(guān)重要,它是提高植物抗病性和生產(chǎn)力的重要環(huán)節(jié)。傳統(tǒng)的人工植物表型鑒定主要包括人工測(cè)量和判斷植物的關(guān)鍵性狀,最近,研究人員通過對(duì)植物葉片進(jìn)行分割和識(shí)別來自動(dòng)識(shí)別植物表型。文獻(xiàn)[1]提出了一種基于RGB顏色空間的帶限定條件的GMR(RSTR-GMT)閾值分割算法。Giuffrida等[2]利用Resnet50網(wǎng)絡(luò)結(jié)構(gòu)對(duì)多模二維圖像中的蓮座植物葉片進(jìn)行端到端的分割與計(jì)數(shù);Aich等[3]利用深度卷積與反卷積網(wǎng)絡(luò)對(duì)蓮座植物區(qū)域進(jìn)行分割與葉片計(jì)數(shù)。文獻(xiàn)[4]提出一種基于級(jí)聯(lián)卷積神經(jīng)網(wǎng)絡(luò)的作物病害葉片圖像分割方法對(duì)病斑區(qū)域進(jìn)行精確分割;文獻(xiàn)[5]采用編碼器-解碼器結(jié)構(gòu),同時(shí)引入并聯(lián)的空洞卷積核使得算法具有更強(qiáng)的泛化性。針對(duì)植物圖像特點(diǎn),提高植物葉片分割與計(jì)數(shù)精度。Wang等[6]針對(duì)植物葉片分割數(shù)據(jù)集小的問題,數(shù)據(jù)集標(biāo)簽制作從而擴(kuò)充數(shù)據(jù)集,構(gòu)建全卷積神經(jīng)網(wǎng)絡(luò)完成葉片圖像分割。文獻(xiàn)[7]使用對(duì)數(shù)邏輯函數(shù)代替softmax多分類預(yù)測(cè)函數(shù),將分割任務(wù)轉(zhuǎn)化為適合于植物葉片分割的二分類問題同時(shí)改善網(wǎng)絡(luò)整體的收斂性,提高了分割精度。這些神經(jīng)網(wǎng)絡(luò)在進(jìn)行采樣為了更具特征的價(jià)值會(huì)丟失部分細(xì)節(jié)信息并且這個(gè)過程是不可逆的,通過上采樣只能補(bǔ)全少部分信息,并且沒有考慮到局部或者全局的上下文依賴關(guān)系,這對(duì)包含復(fù)雜背景信息的植物圖像分割是不利的。

        本文針對(duì)上述神經(jīng)網(wǎng)絡(luò)缺點(diǎn)和植物圖像分割任務(wù)中面臨圖像目標(biāo)信息復(fù)雜的情況,提出了一種植物葉片分割與計(jì)數(shù)模型,該模型利用Xception[8]結(jié)構(gòu)與CoordConv[9]結(jié)構(gòu)改進(jìn)模型編碼器,結(jié)合改進(jìn)的ReNet[10]模型共同構(gòu)成模型編碼器并且參照Unet模型結(jié)構(gòu)將CNN(convolution neural network)和RNN(recurrent neural network)結(jié)合在一起以降低模型計(jì)算量并提高分割精度同時(shí)通過共享特征,利用同一個(gè)網(wǎng)絡(luò)在完成植物葉片分割的基礎(chǔ)上對(duì)植物葉片數(shù)進(jìn)行預(yù)測(cè)。為了驗(yàn)證本文提出方法的性能,在2017CVPPP的A1、A2、A3這3個(gè)基準(zhǔn)數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)驗(yàn)證其性能。實(shí)驗(yàn)結(jié)果表明,本文方法在2017CVPPP數(shù)據(jù)集上的分割各項(xiàng)表現(xiàn)要好于大部分最新算法,并且能夠有效降低模型計(jì)算量。平均F1-score為0.95,分別比Unet模型、FCN模型、DCDN(2017)模型高0.01、0.1、0.016;平均前景-背景Dice(FBD%)為95.54%,分別比Unet模型、FCN模型、基于正交變換的植物分割方法[11](2020)高1.03%、11.02%、1.3%。

        1 LU-ReNet

        1.1 LU-ReNet模型

        本文考慮到內(nèi)存限制,旨在不影響模型性能的情況下盡量減少計(jì)算開銷,整個(gè)LU-ReNet結(jié)構(gòu)如圖1所示。首先參考Unet模型的經(jīng)典結(jié)構(gòu),將本文所提出方法按照U型結(jié)構(gòu)主要分為編碼器、解碼器和跳躍連接3個(gè)部分。編碼器降采樣操作降低運(yùn)算量、增大卷積核感受野、降低過擬合風(fēng)險(xiǎn);解碼器通過跳躍連接接收編碼器中多個(gè)降采樣結(jié)果并與自身高級(jí)語義特征圖實(shí)現(xiàn)多尺度融合,豐富上下文信息。而編碼器部分又分為CNN模塊和RNN模塊,在CNN模塊中,先將Unet編碼器部分替換為可移植性強(qiáng)的VGG16以減少網(wǎng)絡(luò)參數(shù),然后為了進(jìn)一步降低模型計(jì)算量只保留VGG16中的前7個(gè)卷積層、2個(gè)池化層、6個(gè)BN(BatchNorm)層和7個(gè)ReLU層,同時(shí)減少解碼器中上采樣階段對(duì)應(yīng)的卷積層數(shù)目。又考慮到一味減少模型計(jì)算量可能導(dǎo)致網(wǎng)絡(luò)深度不足最終影響模型特征提取器能力,并且因?yàn)閄ception采用空間相關(guān)性和跨通道相關(guān)性的方式處理數(shù)據(jù)并且被證明能夠提升分類精度,故使用Xception module來增加網(wǎng)絡(luò)寬度以彌補(bǔ)網(wǎng)絡(luò)深度的不足,從而改善LU-ReNet分割精度。

        圖1 LU-ReNet整體結(jié)構(gòu)

        其次,CoordConv的作者Rosanne Liu[12]提出這種簡(jiǎn)單的改變保留了卷積學(xué)習(xí)相對(duì)較少的參數(shù)和高效計(jì)算這兩種特點(diǎn)并且能夠克服CNN變換兩種空間表征(笛卡爾空間坐標(biāo)和one-hot像素空間坐標(biāo))時(shí)的缺陷,它可以幫助卷積知道過濾器在哪,但如果坐標(biāo)的權(quán)重變?yōu)榱?,CoordConv就變?yōu)榱似胀ǖ木矸e,如圖2所示。

        圖2 CoordConv與普通卷積

        但Rosanne Liu指出在圖像分割網(wǎng)絡(luò)中使用CoordConv替換普通卷積只能輕微地提升分割效果。為了讓編碼器盡可能提取更多的特征并且使CNN與RNN更好地結(jié)合,本文認(rèn)為CoordConv不但能記住過濾器的位置,當(dāng)它與ReNet模塊結(jié)合在一起時(shí),由于RNN本身拓?fù)浣Y(jié)構(gòu)的特點(diǎn),使得坐標(biāo)信息能夠被長(zhǎng)時(shí)間記住并且通過在ReNet模塊的橫向掃描和縱向掃描得到的特征圖混合時(shí)起作用,而且坐標(biāo)信息能夠隨特征圖被傳入上采樣階段,能提高上采樣層恢復(fù)特征圖分辨率的效率。所以本文改進(jìn)CoordConv,在特征圖進(jìn)入卷積層前將坐標(biāo)信息x,y,r作為添加信息與特征圖一同送入卷積層。x,y是平面二維坐標(biāo)信息,將x和y坐標(biāo)縮放到[-1,1]范圍內(nèi),其中特征圖中心點(diǎn)被定義為原點(diǎn);r是距離中心原點(diǎn)的歐幾里得距離,其范圍縮小到[0,1],用來作為CNN模塊與RNN模塊結(jié)合的工具之一。

        隨后,在編碼器的RNN模塊中,受用于目標(biāo)識(shí)別 ReNet網(wǎng)絡(luò)利用RNN的結(jié)構(gòu)特性使其對(duì)前一層特征圖進(jìn)行4個(gè)方向(從左到右、從右到左、從上到下、從下到上,為敘述方便后文簡(jiǎn)述為橫向和縱向)掃描啟發(fā),基于ReNet模型并對(duì)其進(jìn)行改進(jìn)使其用于圖像分割。首先將圖像劃分為多個(gè)不重疊的patch,然后利用兩個(gè)RNNs水平掃描圖像;隨后又利用兩個(gè)RNNs豎直掃描圖像,每一個(gè)RNN將patch拉直以后的向量作為輸入,然后更新其hidden state,沿著輸入圖像的每一個(gè)column進(jìn)行,像這樣在水平和豎直的掃描完成后,將這個(gè)hidden state在每一個(gè)位置組合起來,得到一個(gè)混合的特征圖,整個(gè)過程如式(1),式(2)

        (1)

        (2)

        RNN具有時(shí)間“記憶”功能,CoordConv能夠傳入位置信息,相比于池化操作,CoordConv+ReNet模塊這對(duì)組合能夠在盡可能不丟失信息的同時(shí)有助于在每一層提取輸入圖像的更緊湊的特征表示并且在ReNet模塊中的橫向連接可以模擬Unet模型中編碼器的最大池化引起的特征之間的局部競(jìng)爭(zhēng),使得ReNet模塊在編解碼結(jié)構(gòu)中有著獨(dú)特的優(yōu)勢(shì)。

        ReNet神經(jīng)網(wǎng)絡(luò)模型使用ReNet模塊來代替卷積+池化的組合,但本文認(rèn)為這不意味著在LU-ReNet模型中不需要能夠減小特征圖維度、降低計(jì)算量的池化過程,所以本文使用ReNet模塊+卷積+池化的組合共同構(gòu)建編碼器模塊,如圖3所示。

        圖3 LU-ReNet結(jié)構(gòu)模型

        考慮到GRU[12](gate recurrent unit)與LSTM(long-short term memory)都是為了解決長(zhǎng)短時(shí)記憶和反向傳播中的梯度等問題,其輸入輸出結(jié)構(gòu)與普通RNN相似并且GRU內(nèi)部比LSTM少了一個(gè)“門控”裝置,它的參數(shù)更少,但它卻能達(dá)到與LSTM相當(dāng)?shù)男Ч軌蛱岣哂?xùn)練效率。所以選擇使用GRU作為構(gòu)建ReNet模塊的基礎(chǔ),一共構(gòu)建兩個(gè)ReNet模塊,前后兩次分別對(duì)各自輸入特征圖進(jìn)行橫向和縱向的掃描,接著將掃描得到的兩個(gè)特征圖混合在一起并且patch設(shè)置為(1,1),用以保留更多地局部信息,保證編碼器提取到更加豐富的特征同時(shí)能夠降低模型計(jì)算量。

        在LU-ReNet解碼器部分中,解碼器除了卷積層數(shù)目與編碼器卷積層數(shù)目對(duì)應(yīng),各層參數(shù)經(jīng)過多次實(shí)驗(yàn)后設(shè)置如圖3所示;解碼器接收第二個(gè)ReNet模塊處理之后的特征圖,并像Unet結(jié)構(gòu)一樣通過跳躍連接接收從編碼器中卷積+池化組合產(chǎn)生的不同尺度的特征圖然后將其與自身特征圖按通道組合實(shí)現(xiàn)多尺度融合,并對(duì)組合后的特征圖上采樣,不斷重復(fù)此過程至特征圖尺寸恢復(fù)至原圖大小。

        LU-ReNet 模型中的葉片計(jì)數(shù)器如圖1、圖4所示。葉片計(jì)數(shù)器由簡(jiǎn)單的CNN構(gòu)成,利用共享特征對(duì)第二個(gè)ReNet模塊的輸出使用一個(gè)1*1的卷積作為葉片計(jì)數(shù)器的入口,然后緊接著使用4組3*3的卷積+ReLU組合和3個(gè)2*2的最大池化層,最后在一個(gè)全連接層后使用一個(gè)sigmoid層完成葉片計(jì)數(shù)功能。

        圖4 葉片計(jì)數(shù)預(yù)測(cè)分支網(wǎng)絡(luò)

        1.2 LU-ReNet模型與相關(guān)經(jīng)典模型參數(shù)比較

        本文提出的LU-ReNet模型盡可能減少模型參數(shù)并提升分割效果。計(jì)算采用CoordConv的卷積(帶坐標(biāo)卷積)參數(shù)與普通卷積類似,區(qū)別在于每次特征圖在送入卷積層之前會(huì)添加3個(gè)坐標(biāo)通道信息。一個(gè)Unet卷積層參數(shù)計(jì)算公式為

        totaluc=K2*Ci*C0+C1

        (3)

        其中,K為卷積核大小,Ci為輸入channel數(shù),C0為輸出的channel數(shù),C1為偏置項(xiàng)的參數(shù),一般情況下偏置項(xiàng)參數(shù)等于輸出的channel數(shù)并且偏置項(xiàng)參數(shù)不會(huì)影響總參數(shù)量的數(shù)量級(jí)。帶坐標(biāo)的卷積層參數(shù)計(jì)算公式為

        totalcc=K2*(3+Ci)*C0+C1

        (4)

        而BN層需要學(xué)習(xí)平移因子和縮放因子,它的參數(shù)計(jì)算公式為

        totalbn=2*Ci

        (5)

        其中,Ci表示輸入的channel數(shù)。從以上公式,加入帶坐標(biāo)的卷積會(huì)增加參數(shù),但增加的計(jì)算量不會(huì)對(duì)整個(gè)模型計(jì)算量造成太大影響。而本文提出的LU-ReNet模型相比FCN與Unet,參數(shù)更少,其關(guān)鍵因素在于使用兩個(gè)GRU分別構(gòu)成的兩個(gè)ReNet代替了VGG16編碼器中的3個(gè)池化層,和解碼器中的3個(gè)上采樣層。GRU的參數(shù)計(jì)算公式為

        totalgru=3*((xdim+hdim)*hdim+hdim)

        (6)

        其中,xdim表示輸入數(shù)據(jù)維度,hdim表示神經(jīng)元的個(gè)數(shù)。所以,各模型參數(shù)比較見表1。

        表1 相關(guān)模型參數(shù)量比較

        為了方便比較,表1按照參數(shù)量大小將各模型從左到右排列,帶CoordConv的LU-ReNet模型比不帶CoordConv的LU-ReNet模型參數(shù)量大,但比傳統(tǒng)模型參數(shù)量小。表1中可看出Unet的參數(shù)大概是本文方法的6倍,F(xiàn)CN的參數(shù)大概是本文方法的1.5倍,顯然LU-ReNet模型大大降低了計(jì)算量,減少內(nèi)存消耗。

        2 數(shù)據(jù)集和評(píng)估標(biāo)準(zhǔn)

        2.1 實(shí)驗(yàn)數(shù)據(jù)集

        實(shí)驗(yàn)數(shù)據(jù)集采用2017CVPPP中A1、A2和A3這3類基準(zhǔn)數(shù)據(jù)集。A1是野生擬南芥植物組成的RGB圖像;A2是由4個(gè)不同的擬南芥突變體組成的RGB圖像,并且這些突變體具有不同形狀和不同大小的葉子;A3包含煙草植物的圖像。由于這些數(shù)據(jù)集采用不同的實(shí)驗(yàn)設(shè)置,因此植物的基因型、背景外觀和成分各不相同。每個(gè)數(shù)據(jù)集中的圖像具有不同的維度大小。從A1中的圖像530*500像素到A3中的圖像2448*2048像素不等。不同的復(fù)雜性如由于水的存在引起的反射、圖像的分辨率不同,葉片的遮擋情況、植物和植物葉片不同大小,不同形狀和不同突變體的存在、背景變化、場(chǎng)景焦點(diǎn)、異類物體的存在、苔蘚的存在、葉片顏色變化、陰影遮擋和葉毛等種種復(fù)雜情況都被包含到數(shù)據(jù)集中。圖5中3組圖片分別來自A1、A2和A3數(shù)據(jù)集的不同復(fù)雜度的數(shù)字植物圖像和其真實(shí)標(biāo)簽。

        2.2 評(píng)估標(biāo)準(zhǔn)

        評(píng)價(jià)分割精度和葉片精度的主要指標(biāo)包括:①前景-背景Dice(FBD%),它是根據(jù)真實(shí)標(biāo)簽被用來確定分割的植物區(qū)域的劃分;②召回率(Recall),通常它是用來找出在分割植物區(qū)域中真實(shí)標(biāo)簽的得分;③F1-score,它是精確度和召回率的調(diào)和平均值;④計(jì)數(shù)差分的絕對(duì)值 (|Dic|), 它主要用于計(jì)算葉片數(shù)預(yù)測(cè)和真實(shí)標(biāo)簽之間的差異,同時(shí)能夠反映葉片數(shù)預(yù)測(cè)任務(wù)完成的平均性能。召回率和F1-score的計(jì)算公式在式(7)~式(8)給出,通過在測(cè)量真實(shí)標(biāo)簽與預(yù)測(cè)結(jié)果重合度得到FBD%,式(7)給出計(jì)算過程

        (7)

        (8)

        其中,TP為真陽性,它表示正確分割植物葉片的像素?cái)?shù);FP為假陽性,它表示錯(cuò)誤分割植物葉片的像素?cái)?shù);FN為假陰性,它表示未分割為植物葉片的像素?cái)?shù)

        圖5 A1、A2、A3數(shù)據(jù)集中的原始圖像與真實(shí)標(biāo)簽

        (9)

        其中,pgt表示真實(shí)標(biāo)簽,psr表示預(yù)測(cè)結(jié)果。精確度、召回率和F1-score的值越接近于1,表明分割準(zhǔn)確度高。FBD%越接近100%表示分割準(zhǔn)確度高。而 |Dic| 的值越接近于0,表明葉片數(shù)預(yù)測(cè)越準(zhǔn)確。

        3 實(shí)驗(yàn)結(jié)果與分析

        該模型利用所描述的分割方案將輸入圖像中的植物葉片分割出來同時(shí)利用特征共享,預(yù)測(cè)葉片數(shù)。為了排除其它干擾因素,本文中所有實(shí)驗(yàn)均采用相同的優(yōu)化算法和數(shù)據(jù)擴(kuò)充方法。以p=0.5對(duì)訓(xùn)練數(shù)據(jù)集進(jìn)行鏡像翻轉(zhuǎn)和水平翻轉(zhuǎn)。采取90度、180度和270度對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行旋轉(zhuǎn)。訓(xùn)練過程采用Adam優(yōu)化器,批訓(xùn)練尺寸為1,總共訓(xùn)練100個(gè)epochs,使用早停訓(xùn)練方法。基于PyTorch深度學(xué)習(xí)框架設(shè)計(jì)實(shí)驗(yàn),運(yùn)行環(huán)境為Intel(R) Xeon(R) E5-2650的CPU和Intel(R) Core i7-8700的CPU,NVIDIA Tesla P40 GPU和AMD Radeon R5 430。

        圖6顯示使用相關(guān)經(jīng)典算法對(duì)同一單個(gè)植物圖像進(jìn)行葉片分割的結(jié)果對(duì)比??梢钥闯?,Unet作為圖像分割經(jīng)典模型,在植物葉片分割上存在“輪廓”不清晰問題,F(xiàn)CN模型的結(jié)果圖顯示了它存在“斑點(diǎn)”問題、葉片輪廓不清晰和莖缺失的缺點(diǎn)。本文方法分割結(jié)果更接近人工標(biāo)簽。事實(shí)上,網(wǎng)絡(luò)的收斂時(shí)間和網(wǎng)絡(luò)的計(jì)算量也排在各網(wǎng)絡(luò)收斂時(shí)間與計(jì)算量的前列,這主要得益于網(wǎng)絡(luò)中的ReNet模塊。

        圖6 分割結(jié)果對(duì)照

        為驗(yàn)證CoordConv在本文網(wǎng)絡(luò)中作用,對(duì)沒有經(jīng)過Xception module擴(kuò)展寬度的LU-ReNet模型采用控制變量法,在實(shí)驗(yàn)數(shù)據(jù)集均采用A1基準(zhǔn)數(shù)據(jù)集并且其它實(shí)驗(yàn)條件設(shè)置都不變的情況下,按照LU-ReNet模型編碼器中卷積是否為帶坐標(biāo)卷積分為兩個(gè)對(duì)比實(shí)驗(yàn),同時(shí)為驗(yàn)證CoordConv+ReNet模塊組合能否提高網(wǎng)絡(luò)性能,將在上述的LU-ReNet模型中,使用兩組普通卷積+池化+上采樣的組合替代ReNet模塊。結(jié)果見表2。

        由于Rosanne Liu在其論文中表明在分割網(wǎng)絡(luò)中將CoordConv替換普通卷積,其效果不會(huì)有提升,故為了避免

        表2 CoordConv與ReNet模塊在不同條件下的實(shí)驗(yàn)結(jié)果

        重復(fù)未設(shè)置相應(yīng)實(shí)驗(yàn)。表2中沒有ReNet模塊的相應(yīng)模型分割性能比兩種LU-ReNet模型差,說明LU-Renet不僅能降低計(jì)算量,還能提升分割效果;使用帶CoordConv的LU-ReNet模型在評(píng)價(jià)指標(biāo)FBD%、Recall和F1-score上分別比普通卷積的LU-ReNet模型高0.18%、0.01、0.03。此結(jié)果表明,在LU-ReNet模型中,CoordConv卷積模式在保留普通卷積模式優(yōu)點(diǎn)的情況下,能夠與ReNet模塊一起并將坐標(biāo)信息隨特征圖傳遞給上采樣階段,從而在一定程度上幫助上采樣層更好地恢復(fù)特征圖分辨率,提高模型性能。

        除在對(duì)比實(shí)驗(yàn)中表現(xiàn)最出色的DCDN網(wǎng)絡(luò)外,本文方法在A1、A2和A3這3個(gè)數(shù)據(jù)集中的多項(xiàng)指標(biāo)均達(dá)到最佳,并且在未達(dá)到最佳的指標(biāo)上,也能得到最好的分?jǐn)?shù)之一,見表3。本文方法結(jié)果雖然在A1、A2基準(zhǔn)數(shù)據(jù)集上沒有明顯提升,其得分卻已經(jīng)達(dá)到最佳。并且在A3基準(zhǔn)數(shù)據(jù)集上,本文方法好于在A1、A2數(shù)據(jù)集上表現(xiàn)不錯(cuò)的DCDN網(wǎng)絡(luò)。而DCDN網(wǎng)絡(luò)在A3數(shù)據(jù)集上效果存在較大下降,也表明了DCDN網(wǎng)絡(luò)泛化性的欠缺。本文方法在A3數(shù)據(jù)集上性能較其它方法不僅有較大提升,同時(shí)其效果能夠像在A1、A2數(shù)據(jù)集上達(dá)到高性能,這表明本文方法能夠適應(yīng)不同數(shù)據(jù)集,擁有更好的泛化性。而對(duì)于最新的基于正交變換的植物分割方法,LU-ReNet網(wǎng)絡(luò)除了在A3數(shù)據(jù)集Precision指標(biāo)上低0.06,其余方面都更好。

        表3 不同數(shù)據(jù)集的測(cè)試集評(píng)價(jià)

        LU-ReNet網(wǎng)絡(luò)在對(duì)植物圖像完成葉片分割的同時(shí)利用特征共享,在同一個(gè)網(wǎng)絡(luò)模型中同時(shí)實(shí)現(xiàn)對(duì)植物葉片的分割與計(jì)數(shù)。本文方法在A1、A2、A3數(shù)據(jù)集上的 |Dic| 分別為0.90、1.52和3.33。

        4 結(jié)束語

        植物圖像中的目標(biāo)植物通常具有大小不一、光線不同、多方向、多遮擋和背景復(fù)雜的特點(diǎn),對(duì)分割提出了更高要求。本文為了使模型適應(yīng)植物圖像葉片分割任務(wù),結(jié)合Xception module、帶坐標(biāo)卷積、RNN和CNN來對(duì)植物圖像葉片分割神經(jīng)網(wǎng)絡(luò)進(jìn)行改進(jìn),同時(shí)通過特征共享對(duì)葉片數(shù)量進(jìn)行預(yù)測(cè),提高了植物葉片分割精度。提出模型在2017CVPPP的A1、A2和A3基準(zhǔn)數(shù)據(jù)集上對(duì)葉片分割的平均前背景Dice、平均召回率、平均F1-score分別到達(dá)了95.54%、0.95和0.95。后續(xù)工作中,我們將基于多任務(wù)學(xué)習(xí)技術(shù),進(jìn)一步提高葉片分割正確率,同時(shí)在此基礎(chǔ)上實(shí)現(xiàn)植物葉片的實(shí)例分割。

        猜你喜歡
        植物特征模型
        一半模型
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        如何表達(dá)“特征”
        不忠誠的四個(gè)特征
        抓住特征巧觀察
        哦,不怕,不怕
        將植物穿身上
        3D打印中的模型分割與打包
        植物罷工啦?
        国产麻豆一精品一AV一免费软件| 97人伦影院a级毛片| 日韩精品久久久肉伦网站| 国产精品第一二三区久久蜜芽 | 蜜桃视频免费在线视频| 美女免费观看一区二区三区| 亚洲国产美女精品久久久久∴| 中文字幕乱码免费视频| 人妻人妻少妇在线系列| 极品精品视频在线观看| 日韩精品无码一区二区三区四区 | 99在线国产视频| 毛片成人18毛片免费看| 一色桃子中文字幕人妻熟女作品 | 国产精品污www一区二区三区| 国产欧美日本亚洲精品一4区| 91精品亚洲熟妇少妇| 男人扒开女人双腿猛进视频| 四房播播在线电影| 国产亚洲精品日韩香蕉网| 亚洲精品中文字幕一二三四 | 精品人妻久久一区二区三区| 美女av一区二区三区| 99热这里只有精品69| 久久亚洲春色中文字幕久久久综合 | 蜜桃在线观看免费高清完整版| 久久精品国产亚洲av成人文字| 亚洲av无码专区在线播放| 日本欧美国产精品| 少妇一级内射精品免费| 日本护士xxxxhd少妇| 无码手机线免费观看| 久99久精品免费视频热77| 亚洲日本中文字幕乱码在线| 久久精品国产久精国产果冻传媒| 首页动漫亚洲欧美日韩| 冲田杏梨av天堂一区二区三区| 国产欧美在线观看不卡| av片在线观看免费| 国产成人AⅤ| 久久精品国产亚洲av天|