覃學(xué)標(biāo) 黃冬梅,2 宋 巍 賀 琪 杜艷玲 徐慧芳
(1.上海海洋大學(xué)信息學(xué)院, 上海 201306; 2.上海電力大學(xué)電子與信息工程學(xué)院, 上海 200090)
在漁業(yè)養(yǎng)殖過(guò)程中,需要定期地對(duì)魚(yú)的生長(zhǎng)狀況進(jìn)行監(jiān)測(cè)[1-2]。受成本、安全和對(duì)生物體毀壞等因素的影響,依靠人工觀測(cè)以獲得魚(yú)類(lèi)的體長(zhǎng)等生物學(xué)信息比較困難[3]。利用各種遠(yuǎn)程可操控的潛水設(shè)備替代人工觀測(cè)是良好的解決方案,通過(guò)這些設(shè)備可以大范圍地收集魚(yú)類(lèi)在水下活動(dòng)的圖像[4]。但要獲得所需要的生物學(xué)信息,仍然需要進(jìn)行大量的人工處理[5]。近幾年,基于機(jī)器學(xué)習(xí)的圖像處理方法獲得較快發(fā)展,如何利用這些方法對(duì)潛水設(shè)備收集到的魚(yú)類(lèi)圖像進(jìn)行處理,是當(dāng)前研究的熱點(diǎn)[6-11]。
將魚(yú)類(lèi)目標(biāo)從圖像背景中分割出來(lái)是提取魚(yú)類(lèi)生物學(xué)信息的關(guān)鍵步驟,其分割精度決定信息提取的準(zhǔn)確程度。國(guó)內(nèi)外諸多學(xué)者開(kāi)展魚(yú)類(lèi)圖像分割相關(guān)的研究,王帥等[12]提出改進(jìn)K-means聚類(lèi)算法的金魚(yú)陰影去除及圖像分割方法,用于分析魚(yú)類(lèi)的行為。馬兆敏等[13]使用閾值方法對(duì)金魚(yú)圖像進(jìn)行分割。ZHOU等[14]依據(jù)邊緣拐角和骨架形狀對(duì)重疊的魚(yú)類(lèi)圖像進(jìn)行分割。雖然上述魚(yú)類(lèi)圖像分割方法獲得了較高精度,但其原理是對(duì)整幅圖像進(jìn)行分割,無(wú)法對(duì)多條魚(yú)逐一進(jìn)行分割。
基于深度學(xué)習(xí)的圖像分割方法可以對(duì)多目標(biāo)進(jìn)行分割,目前被廣泛地應(yīng)用于各類(lèi)圖像分割任務(wù)中。RONNERBERGER等[15]提出的U-Net模型在醫(yī)學(xué)圖像上獲得較好的分割效果。CHEN等[16]提出的DeepLabv3模型廣泛應(yīng)用于遙感圖像的分割[17]。對(duì)于魚(yú)類(lèi)圖像,YU等[18]基于Mask R-CNN開(kāi)展魚(yú)類(lèi)圖像分割研究,用于測(cè)量魚(yú)的體長(zhǎng)。SALEH等[19]基于ResNet-50開(kāi)展魚(yú)類(lèi)圖像分割研究。LARADJI等[20]通過(guò)在ResNet-38網(wǎng)絡(luò)上添加類(lèi)同分支的方式,進(jìn)一步提高魚(yú)類(lèi)圖像的分割精度。ISLAM等[21]基于VGG-16網(wǎng)絡(luò)開(kāi)展魚(yú)類(lèi)圖像分割研究。基于深度學(xué)習(xí)的魚(yú)類(lèi)圖像分割方法獲得了較高的精度,但當(dāng)前的研究主要是基于海中采集的數(shù)據(jù)開(kāi)展實(shí)驗(yàn),海中水下圖像比較清晰,魚(yú)的體型較小,較少出現(xiàn)相互遮擋以及截?cái)嗟那闆r。在養(yǎng)殖條件下,水下圖像比較模糊,由于魚(yú)的體型較大,存在較多相互遮擋以及截?cái)嗟那闆r。運(yùn)用深度學(xué)習(xí)方法對(duì)這類(lèi)圖像進(jìn)行分割時(shí),易出現(xiàn)較多錯(cuò)檢漏檢的問(wèn)題,分割精度較低。
本文提出基于目標(biāo)檢測(cè)及邊緣支持的魚(yú)類(lèi)圖像分割方法。應(yīng)用目標(biāo)檢測(cè)的方法將魚(yú)類(lèi)目標(biāo)界定在一定區(qū)域內(nèi),將整幅圖像分割轉(zhuǎn)化為區(qū)域分割,避免整幅圖像分割過(guò)程中因遮擋或截?cái)鄮?lái)的噪聲干擾;運(yùn)用邊緣支持對(duì)區(qū)域內(nèi)的魚(yú)類(lèi)圖像進(jìn)行分割,以提高模型對(duì)模糊水下魚(yú)類(lèi)圖像的適用性。
使用GoPro RX0水下攝像機(jī)在室外水深1 m的養(yǎng)殖池中采集數(shù)據(jù)。采集時(shí)間為2020年5—6月13:00—16:00,圖像分辨率為1 920像素×1 080像素,幀速率為50 f/s。受渾濁水體的影響,所采集的圖像較模糊。將視頻每10幀輸出1幅圖像,從中取出具有一條或多條完整輪廓的魚(yú)圖像,得到3 595幅魚(yú)類(lèi)圖像。按比例7∶3將數(shù)據(jù)劃分為訓(xùn)練集 2 517 幅圖像和測(cè)試集1 078幅圖像。使用標(biāo)注軟件LabelImg將圖像中的魚(yú)、魚(yú)頭和魚(yú)尾標(biāo)注為“fish”、“head”和“tail”。其中“fish”定義為肉眼可辨別為魚(yú)的目標(biāo),截?cái)嗷蛘趽醯哪繕?biāo)均進(jìn)行標(biāo)注;“head”定義為肉眼可辨別為魚(yú)頭的目標(biāo),范圍從魚(yú)嘴到魚(yú)顎的部分,大部分截?cái)嗷蛘趽醯哪繕?biāo)不進(jìn)行標(biāo)注;“tail”定義為肉眼可辨別為魚(yú)尾的目標(biāo),范圍從魚(yú)肛門(mén)到尾鰭夾角的部分,大部分截?cái)嗷蛘趽醯哪繕?biāo)不進(jìn)行標(biāo)注,如圖1所示。
圖1 LabelImg標(biāo)注效果Fig.1 LabelImg annotation
訓(xùn)練圖像分割模型需要目標(biāo)的掩碼作為標(biāo)注信息,使用Labelme對(duì)數(shù)據(jù)集進(jìn)一步進(jìn)行標(biāo)注。標(biāo)注對(duì)象為圖中具有完整輪廓的“fish”類(lèi)目標(biāo),大部分截?cái)嗷蛘趽醯哪繕?biāo)不進(jìn)行標(biāo)注。數(shù)據(jù)經(jīng)過(guò)清洗,圖中至少有一條具有完整輪廓的魚(yú),如出現(xiàn)多條具有完整輪廓的魚(yú),均對(duì)其進(jìn)行標(biāo)注,如圖2所示。
圖2 Labelme標(biāo)注效果Fig.2 Labelme annotation
本文方法分為目標(biāo)檢測(cè)和圖像分割兩部分。首先對(duì)魚(yú)、魚(yú)頭和魚(yú)尾進(jìn)行目標(biāo)檢測(cè),依據(jù)檢測(cè)結(jié)果對(duì)圖像中具有完整輪廓的魚(yú)類(lèi)目標(biāo)進(jìn)行提取,然后在此區(qū)域內(nèi)運(yùn)用邊緣支持的方法對(duì)圖像中的魚(yú)進(jìn)行分割,框架如圖3所示。
圖3 圖像處理方法框架Fig.3 Framework of proposed method
提取魚(yú)類(lèi)的生物學(xué)信息要求目標(biāo)具有完整性,需要對(duì)遮擋或截?cái)嗟聂~(yú)進(jìn)行排除。另外,在圖像存在較多截?cái)嗷蛘趽醯那闆r下,對(duì)圖像中所有的目標(biāo)進(jìn)行分割會(huì)產(chǎn)生較多的噪聲點(diǎn),影響分割精度。基于以上兩點(diǎn),本文方法應(yīng)用目標(biāo)檢測(cè)方法對(duì)圖像中具有完整輪廓的魚(yú)類(lèi)目標(biāo)進(jìn)行提取,并對(duì)不完整的目標(biāo)進(jìn)行排除。
YOLO模型在魚(yú)類(lèi)檢測(cè)上取得了較好的檢測(cè)效果,本文選擇其作為魚(yú)類(lèi)目標(biāo)檢測(cè)器[22-24]。假設(shè)一條完整的魚(yú)類(lèi)目標(biāo)應(yīng)該具有可檢測(cè)到的魚(yú)頭和魚(yú)尾,據(jù)此分別對(duì)圖像中的魚(yú)、魚(yú)頭和魚(yú)尾進(jìn)行檢測(cè),記輸出的檢測(cè)框?yàn)锽fish、Bhead和Btail。若結(jié)果中包含遮擋或截?cái)嗟哪繕?biāo),需要對(duì)其進(jìn)行排除。當(dāng)魚(yú)頭和魚(yú)尾的檢測(cè)結(jié)果相較于魚(yú)的檢測(cè)結(jié)果誤差小于圖像長(zhǎng)寬之和的1%時(shí),判定這條魚(yú)可檢測(cè)到魚(yú)頭和魚(yú)尾,是一條完整的魚(yú)類(lèi)目標(biāo)。計(jì)算公式為
(1)
式中W——圖像長(zhǎng)H——圖像寬
xfish——魚(yú)檢測(cè)框Bfish左上角x坐標(biāo)
yfish——魚(yú)檢測(cè)框Bfish左上角y坐標(biāo)
wfish——魚(yú)檢測(cè)框Bfish長(zhǎng)
hfish——魚(yú)檢測(cè)框Bfish寬
xhead——魚(yú)檢測(cè)框Bhead左上角x坐標(biāo)
yhead——魚(yú)檢測(cè)框Bhead左上角y坐標(biāo)
whead——魚(yú)檢測(cè)框Bhead長(zhǎng)
hhead——魚(yú)檢測(cè)框Bhead寬
xtail——魚(yú)檢測(cè)框Btail左上角x坐標(biāo)
ytail——魚(yú)檢測(cè)框Btail左上角y坐標(biāo)
wtail——魚(yú)檢測(cè)框Btail長(zhǎng)
htail——魚(yú)檢測(cè)框Btail寬
運(yùn)用式(1)對(duì)圖像中具有完整輪廓的魚(yú)進(jìn)行提取后,在此區(qū)域內(nèi)對(duì)其進(jìn)行分割。養(yǎng)殖條件下的水下魚(yú)類(lèi)圖像比較模糊,其邊緣特征不明顯,輸入基于深度學(xué)習(xí)的圖像分割網(wǎng)絡(luò)后,特征圖經(jīng)過(guò)多層卷積和池化操作后,邊緣信息在深層網(wǎng)絡(luò)中逐步減弱。為了加強(qiáng)邊緣信息在深層網(wǎng)絡(luò)中傳遞,本文方法將模糊水下圖像的邊緣特征值加入主干網(wǎng)絡(luò)中,使得邊緣特征在深層網(wǎng)絡(luò)中得到補(bǔ)充,增強(qiáng)模型對(duì)模糊水下圖像的適用性。本文方法使用ResNet作為主干網(wǎng)絡(luò),輸入圖像尺寸為513像素×513像素,模型輸出結(jié)果的魚(yú)體目標(biāo)表示為255,背景表示為0。為了增加邊緣信息的傳遞,在主干網(wǎng)絡(luò)中添加2個(gè)邊緣支持分支,如圖4所示。
圖4 邊緣支持結(jié)構(gòu)示意圖Fig.4 Diagram of edge support structure
2.2.1邊緣矩陣的計(jì)算
邊緣支持需要邊緣矩陣作為輸入,計(jì)算邊緣的算子主要有Roberts、Sobel、Prewitt、Canny等[25-27],其中,Canny算子具有較強(qiáng)的邊緣提取能力,本文將其作為邊緣矩陣的求解方法。其原理是通過(guò)計(jì)算像素點(diǎn)在不同方向上的梯度,設(shè)定雙閾值獲得邊緣點(diǎn)。假定輸入1幅圖像,通過(guò)Canny算子獲得邊緣矩陣為
C=Canny(Iinput)
(2)
式中Iinput——輸入圖像C——邊緣矩陣將邊緣矩陣加入主干網(wǎng)絡(luò)中表示為
Li=Li-1+C(i=1,2,…)
(3)
式中Li——前饋網(wǎng)絡(luò)中第i層輸出矩陣
為了便于計(jì)算,將雙閾值中的最小邊緣閾值設(shè)為0,通過(guò)調(diào)節(jié)最大邊緣閾值c獲得邊緣矩陣。
2.2.2歸一化
邊緣矩陣用0和255表示,0代表背景,255代表邊緣點(diǎn)。一般情況下,輸入圖像使用255進(jìn)行歸一化,而邊緣點(diǎn)的值為255,如使用255對(duì)其進(jìn)行歸一化將導(dǎo)致該點(diǎn)權(quán)重過(guò)大。為了避免對(duì)參數(shù)值產(chǎn)生過(guò)大影響,本文使用255的n倍數(shù)對(duì)邊緣點(diǎn)進(jìn)行歸一化。
在第1節(jié)建立的數(shù)據(jù)集上開(kāi)展實(shí)驗(yàn)。為驗(yàn)證本文方法的效果,分別與Mask R-CNN模型、U-Net模型和DeepLabv3模型進(jìn)行對(duì)比。通過(guò)消融實(shí)驗(yàn)對(duì)本文方法中起重要作用的參數(shù)進(jìn)行分析,以確定較優(yōu)參數(shù)組合。
為了測(cè)試本文方法在不同主干網(wǎng)絡(luò)上的分割效果,分別使用VGG-16、ResNet-50和ResNet-101作為主干網(wǎng)絡(luò)進(jìn)行實(shí)驗(yàn)。VGG-16網(wǎng)絡(luò)的訓(xùn)練參數(shù)為:輸入尺寸224像素×224像素,激活函數(shù)為Sigmoid,損失函數(shù)為CrossEntropyLoss,學(xué)習(xí)率0.001,Batch size設(shè)為8,訓(xùn)練300輪。ResNet-50和ResNet-101模型的訓(xùn)練參數(shù)設(shè)為:輸入尺寸513像素×513像素,激活函數(shù)為ReLU,損失函數(shù)為CrossEntropyLoss,學(xué)習(xí)率0.001,Batch size設(shè)為4,訓(xùn)練300輪。邊緣支持的參數(shù)設(shè)置為2個(gè)支持分支,邊緣最大閾值c=12,歸一化倍數(shù)n=3。目標(biāo)檢測(cè)模型YOLO的訓(xùn)練參數(shù)為:輸入尺寸640像素×640像素,激活函數(shù)為Mish,損失函數(shù)為FocalLoss,學(xué)習(xí)率0.001,Batch size設(shè)為32,訓(xùn)練20 000輪。對(duì)比模型Mask R-CNN[18]、U-Net[15]和DeepLabv3[16]的訓(xùn)練參數(shù),使用文獻(xiàn)中的預(yù)設(shè)值,訓(xùn)練至收斂。實(shí)驗(yàn)環(huán)境為處理器AMD 1950X 3.4 GHz,內(nèi)存 32 GB,顯卡GTX-1080Ti,操作系統(tǒng)Ubuntu 16.04,編程語(yǔ)言Python 3.7。
使用像素交并比(IOU)和單幅圖像分割時(shí)間對(duì)模型的分割效果進(jìn)行評(píng)價(jià)。
表1為Mask R-CNN、U-Net、DeepLabv3模型和本文方法在VGG-16、ResNet-50、ResNet-101主干網(wǎng)絡(luò)上分割結(jié)果對(duì)比。從表1可以看出,本文方法在ResNet-101上的像素交并比為85.66%,VGG-16和ResNet-50的像素交并比也高于其他對(duì)比模型,說(shuō)明本文方法可以較好地對(duì)魚(yú)類(lèi)圖像進(jìn)行分割。由于VGG-16的網(wǎng)絡(luò)層數(shù)較少,其分割精度較低;ResNet-101的網(wǎng)絡(luò)較深,其分割精度較高,說(shuō)明主干網(wǎng)絡(luò)越深模型的分割精度越高。在運(yùn)行時(shí)間上,Mask R-CNN模型單幅圖像分割時(shí)間較長(zhǎng),達(dá)2 s;U-Net模型耗時(shí)最短,為0.19 s;本文方法+ResNet-101的分割時(shí)間為0.61 s,長(zhǎng)于U-Net模型,但短于Mask R-CNN模型。運(yùn)行時(shí)間雖然不能滿(mǎn)足實(shí)時(shí)分割的生產(chǎn)需求,但可以應(yīng)用于靜態(tài)魚(yú)類(lèi)圖像的分割。
表1 實(shí)驗(yàn)結(jié)果對(duì)比Tab.1 Comparison of experimental results
圖5為Mask R-CNN、U-Net、DeepLabv3模型和本文方法在VGG-16、ResNet-50、ResNet-101主干網(wǎng)絡(luò)上分割結(jié)果圖。從圖5可以看出,Mask R-CNN模型由于其用于分割計(jì)算的分支網(wǎng)絡(luò)層數(shù)較少,出現(xiàn)較多錯(cuò)檢漏檢的像素點(diǎn)。U-Net和DeepLabv3模型對(duì)整幅圖像進(jìn)行分割,亦出現(xiàn)較多錯(cuò)檢漏檢的像素點(diǎn)。本文方法在網(wǎng)絡(luò)層數(shù)較少的VGG-16上分割結(jié)果較差,存在一定程度的錯(cuò)檢漏檢點(diǎn)?;赗esNet-101的模型分割結(jié)果較好,得到接近于標(biāo)簽的高精度分割效果。
圖5 不同模型分割結(jié)果對(duì)比Fig.5 Comparison of segmentation results of different models
3.4.1消融實(shí)驗(yàn)
表2為目標(biāo)檢測(cè)和邊緣支持消融實(shí)驗(yàn)結(jié)果。從表2可以看出,在未加入目標(biāo)檢測(cè)和邊緣支持前,模型的像素交并比僅為69.81%。加入目標(biāo)檢測(cè)之后,像素交并比為83.62%,提升13.81個(gè)百分點(diǎn),說(shuō)明基于目標(biāo)檢測(cè)的完整輪廓提取對(duì)提高模型的分割精度具有較明顯提升作用。加入邊緣支持后,像素交并比進(jìn)一步提高2.04個(gè)百分點(diǎn)至85.66%,說(shuō)明邊緣支持對(duì)模型的分割精度也具有提升作用。在運(yùn)行時(shí)間上,加入目標(biāo)檢測(cè)和邊緣支持后,單幅圖像分割時(shí)間增加了0.18 s,未產(chǎn)生較大影響。
表2 消融實(shí)驗(yàn)結(jié)果Tab.2 Ablation experiment
3.4.2邊緣支持分支的數(shù)量
表3為邊緣閾值c=12、歸一化倍數(shù)n=3時(shí),不同邊緣支持分支數(shù)量的分割精度。從表3可以看出,不添加邊緣支持分支時(shí),IOU為83.62%;添加2個(gè)邊緣支持分支后,IOU提高至85.66%;而當(dāng)支持分支數(shù)量為4時(shí),IOU出現(xiàn)了下降。說(shuō)明邊緣支持分支數(shù)量對(duì)模型的分割精度具有直接影響,在本文數(shù)據(jù)中,添加邊緣支持分支數(shù)量為2時(shí),分割效果較好。
表3 不同邊緣支持分支數(shù)量的交并比Tab.3 IOU of different edge supported
3.4.3邊緣閾值
圖6為邊緣閾值c分別為6、9、12、15時(shí)的特征圖。從圖6可以看出,不同閾值所產(chǎn)生的邊緣量差距較大。當(dāng)c=6時(shí),干擾點(diǎn)較多;而當(dāng)c=15時(shí),邊緣點(diǎn)較少。
圖6 不同邊緣閾值的特征圖Fig.6 Characteristic diagrams of different thresholds
表4為邊緣支持分支數(shù)量為2、歸一化倍數(shù)n=3時(shí),不同邊緣閾值的交并比。從表4可以看出,當(dāng)c=6時(shí),IOU較低;而當(dāng)c=15時(shí),IOU降低。說(shuō)明邊緣閾值對(duì)模型的分割精度產(chǎn)生較大影響,較小或較大的閾值均達(dá)不到提高分割精度的目的。在本文數(shù)據(jù)中,邊緣閾值c=12時(shí),分割效果較好。
表4 不同邊緣閾值的交并比Tab.4 IOU of different thresholds
3.4.4邊緣矩陣的歸一化倍數(shù)
表5為邊緣支持分支數(shù)量為2、邊緣閾值c=12時(shí),不同歸一化倍數(shù)n的交并比。從表5可以看出,當(dāng)n=1時(shí),IOU較低;當(dāng)n=3時(shí),IOU較高;而當(dāng)n=5時(shí),IOU出現(xiàn)了下降。說(shuō)明邊緣矩陣的歸一化倍數(shù)對(duì)模型的分割精度同樣具有影響,邊緣矩陣的歸一化倍數(shù)較低時(shí)所起作用較小,較高則達(dá)不到提高精度的目的。在本文數(shù)據(jù)中,歸一化倍數(shù)n=3時(shí),分割效果較好。
表5 不同歸一化倍數(shù)的交并比Tab.5 IOU of different multiples
與U-Net和DeepLabv3模型相比,本文方法的交并比分別高11.36個(gè)百分點(diǎn)和9.45個(gè)百分點(diǎn)。U-Net和DeepLabv3模型是以整幅圖像作為對(duì)象進(jìn)行分割,受遮擋或截?cái)嗲闆r的影響,其分割結(jié)果中出現(xiàn)較多錯(cuò)檢漏檢的像素點(diǎn)。本文應(yīng)用目標(biāo)檢測(cè)的方法對(duì)圖像中具有完整輪廓的魚(yú)類(lèi)目標(biāo)進(jìn)行提取,避免整幅圖像分割因遮擋或截?cái)鄮?lái)的噪聲干擾。消融實(shí)驗(yàn)結(jié)果也顯示,與未加入目標(biāo)檢測(cè)算法相比,應(yīng)用目標(biāo)檢測(cè)后模型的分割精度提高13.81個(gè)百分點(diǎn),說(shuō)明應(yīng)用目標(biāo)檢測(cè)可以有效地提高模型的分割效果。
本文方法類(lèi)似于Mask R-CNN模型的分割原理,分割過(guò)程分為目標(biāo)檢測(cè)和圖像分割兩部分。Mask R-CNN使用Faster R-CNN作為檢測(cè)器,確定目標(biāo)后外接一個(gè)分支對(duì)區(qū)域內(nèi)的目標(biāo)進(jìn)行分割,但其分割分支的網(wǎng)絡(luò)層數(shù)較小,分割精度較低。本文方法使用YOLO模型作為檢測(cè)器,檢測(cè)精度較高。在分割部分,運(yùn)用邊緣支持的深層網(wǎng)絡(luò),使得本文方法的分割精度比Mask R-CNN模型的分割精度高14.24個(gè)百分點(diǎn)。
為了加強(qiáng)邊緣信息在深層網(wǎng)絡(luò)中傳遞,本文方法將邊緣的特征值加入主干網(wǎng)絡(luò)中,使得模型對(duì)模糊水下圖像具有適用性,分割精度進(jìn)一步提高2.04個(gè)百分點(diǎn)。邊緣支持分支的數(shù)量、邊緣閾值以及邊緣矩陣的歸一化倍數(shù)等參數(shù)的選擇對(duì)模型的分割精度有影響。邊緣支持分支數(shù)量為2、邊緣閾值c=12、歸一化倍數(shù)n=3為最優(yōu)參數(shù)組合。
(1)提出基于目標(biāo)檢測(cè)及邊緣支持的魚(yú)類(lèi)圖像分割方法,交并比為85.66%,獲得較好的分割效果,可以應(yīng)用于靜態(tài)魚(yú)類(lèi)圖像的分割。
(2)應(yīng)用目標(biāo)檢測(cè)方法對(duì)圖像中具有完整輪廓的魚(yú)進(jìn)行提取,可以避免整幅圖像分割因遮擋或截?cái)鄮?lái)的噪聲干擾。與未加入目標(biāo)檢測(cè)算法相比,分割精度提高13.81個(gè)百分點(diǎn)。
(3)應(yīng)用邊緣支持的魚(yú)類(lèi)圖像分割方法使得模型對(duì)較模糊水下圖像具有較好適用性,模型的分割精度在應(yīng)用目標(biāo)檢測(cè)的基礎(chǔ)上進(jìn)一步提高2.04個(gè)百分點(diǎn)。
農(nóng)業(yè)機(jī)械學(xué)報(bào)2023年1期