摘" 要: 針對(duì)紡錘形魚(yú)類(lèi)圖像分割任務(wù)中存在的邊緣不清、特征模糊等問(wèn)題,提出一種基于多特征增強(qiáng)融合的紡錘形魚(yú)類(lèi)圖像分割網(wǎng)絡(luò)KoiU?Net。該網(wǎng)絡(luò)在經(jīng)典的U?Net模型基礎(chǔ)上,設(shè)計(jì)了多尺度特征交叉感知模塊和多尺度特征融合模塊來(lái)增強(qiáng)對(duì)紡錘形魚(yú)類(lèi)特征的處理能力,以應(yīng)對(duì)紡錘形魚(yú)類(lèi)圖像分割中存在的邊緣模糊、特征復(fù)雜的問(wèn)題。同時(shí),設(shè)計(jì)了多尺度上采樣模塊以提取更精細(xì)的特征信息。在紡錘形魚(yú)類(lèi)圖像數(shù)據(jù)集上的實(shí)驗(yàn)表明,相較于原始U?Net等其他分割網(wǎng)絡(luò),KoiU?Net取得了平均98.63%的分割精度的顯著提升。各設(shè)計(jì)模塊的有效性也通過(guò)消融實(shí)驗(yàn)得以驗(yàn)證,尤其是多尺度特征交叉感知模塊對(duì)提升分割性能具有關(guān)鍵作用。該研究為進(jìn)一步實(shí)現(xiàn)紡錘形魚(yú)類(lèi)生長(zhǎng)狀態(tài)監(jiān)測(cè)提供了有效的技術(shù)支撐,為該領(lǐng)域的進(jìn)一步發(fā)展奠定了基礎(chǔ)。
關(guān)鍵詞: 深度學(xué)習(xí); 圖像分割; 分割精度; 紡錘形魚(yú); U?Net; 多尺度特征融合
中圖分類(lèi)號(hào): TN911.73?34; TP391.4"""""""""""""""""" 文獻(xiàn)標(biāo)識(shí)碼: A""""""""""""""" 文章編號(hào): 1004?373X(2024)09?0053?06
0" 引" 言
國(guó)務(wù)院新聞辦公室2023年10月發(fā)布的《中國(guó)的遠(yuǎn)洋漁業(yè)發(fā)展》白皮書(shū)顯示,中國(guó)是世界水產(chǎn)養(yǎng)殖產(chǎn)量最高的國(guó)家,全球的水產(chǎn)養(yǎng)殖產(chǎn)品約40%來(lái)自中國(guó)[1]。據(jù)《2022年中國(guó)漁業(yè)統(tǒng)計(jì)年鑒》統(tǒng)計(jì),我國(guó)淡水養(yǎng)殖魚(yú)類(lèi)產(chǎn)量2 640.28萬(wàn)噸,其中草魚(yú)、鰱魚(yú)和鳙魚(yú)是三種產(chǎn)量最大的魚(yú)[2],這三種魚(yú)均屬于紡錘形魚(yú)類(lèi)。
監(jiān)測(cè)紡錘形魚(yú)類(lèi)體長(zhǎng)是養(yǎng)殖的重要環(huán)節(jié),良好的圖像分割效果對(duì)深入剖析魚(yú)類(lèi)特征至關(guān)重要。傳統(tǒng)的圖像分割方法主要依賴(lài)于圖像的顏色、紋理等基本特征進(jìn)行分割,例如文獻(xiàn)[3]改進(jìn)了K?means聚類(lèi)算法用于魚(yú)類(lèi)圖像分割行為分析,文獻(xiàn)[4]則基于邊緣拐角和骨架形狀對(duì)重疊的魚(yú)類(lèi)圖像進(jìn)行分割。然而,在復(fù)雜背景下這些方法存在局限性,分割結(jié)果往往無(wú)效。隨著近幾年信息技術(shù)的快速發(fā)展[5?8],深度學(xué)習(xí)方法在圖像分割中得到廣泛應(yīng)用,文獻(xiàn)[9]提出了基于目標(biāo)檢測(cè)和邊緣支持的魚(yú)類(lèi)圖像分割方法,首先通過(guò)目標(biāo)檢測(cè)獲取完整的魚(yú)類(lèi)輪廓信息,然后使用Canny邊緣支持的分割網(wǎng)絡(luò)進(jìn)行處理,有效解決了養(yǎng)殖條件下魚(yú)類(lèi)圖像分割精度較低的問(wèn)題。文獻(xiàn)[10]提出了改進(jìn)的輕量版SOLOv2實(shí)例分割網(wǎng)絡(luò)框架,有效地提高了模型的分割能力。然而,在養(yǎng)殖條件下,由于水下圖像模糊、魚(yú)的體型較大和相互遮擋情況較多,運(yùn)用深度學(xué)習(xí)方法進(jìn)行圖像分割仍然面臨著錯(cuò)檢、漏檢的問(wèn)題,分割精度有待進(jìn)一步提高。因此,如何進(jìn)一步提高在養(yǎng)殖條件下的魚(yú)類(lèi)圖像分割精度仍然是一個(gè)重要的研究方向。
本文針對(duì)基于深度學(xué)習(xí)的網(wǎng)絡(luò)模型在養(yǎng)殖環(huán)境下紡錘形魚(yú)類(lèi)分割任務(wù)中遇到的邊緣不清、特征模糊等問(wèn)題[11],提出一種基于多特征增強(qiáng)融合的紡錘形魚(yú)分割網(wǎng)絡(luò)KoiU?Net。該網(wǎng)絡(luò)利用多尺度特征交叉感知模塊和多尺度特征融合模塊對(duì)經(jīng)典的U?Net模型[12]進(jìn)行改進(jìn),并在上采樣階段設(shè)計(jì)了多路上采樣方法進(jìn)行上采樣操作,以提升模型性能和精度。本文所提出的方法有很高的應(yīng)用價(jià)值,可以有效解決養(yǎng)殖環(huán)境下紡錘形魚(yú)類(lèi)分割任務(wù)中遇到的問(wèn)題,同時(shí)對(duì)于圖像分割領(lǐng)域的研究也有一定的參考意義。
1" KoiU?Net網(wǎng)絡(luò)整體架構(gòu)
本文對(duì)U?Net網(wǎng)絡(luò)的下采樣、上采樣和跳層連接部分進(jìn)行改進(jìn),提出基于多特征增強(qiáng)融合的紡錘形魚(yú)分割網(wǎng)絡(luò)KoiU?Net。KoiU?Net基于U?Net的工作方式[13],提出了多尺度特征交叉感知模塊(Multiscale Feature Cross Perceptron,MFCP)和多尺度特征融合模塊(Multiscale Feature Fusion, MFF)來(lái)處理下采樣過(guò)程產(chǎn)生的多尺度特征,KoiU?Net相比于U?Net標(biāo)準(zhǔn)的架構(gòu)增強(qiáng)了對(duì)特征的處理能力。同時(shí),KoiU?Net在上采樣階段,使用新設(shè)計(jì)的多尺度上采樣模塊(Multiscale Upsampling, MU)方式替換普通的反卷積等上采樣操作,進(jìn)而逐步完善最終的分割結(jié)果。
KoiU?Net網(wǎng)絡(luò)的整體架構(gòu)如圖1所示,整體可被分為下采樣、跳層連接和上采樣三個(gè)部分。下采樣負(fù)責(zé)提取特征圖,上采樣負(fù)責(zé)將特征圖恢復(fù)成最終的掩碼,跳層連接負(fù)責(zé)上下采樣中的特征連接。跳層連接部分,KoiU?Net設(shè)計(jì)了多尺度特征交叉感知模塊來(lái)改善標(biāo)準(zhǔn)的連接,通過(guò)感知操作抑制無(wú)用特征,增強(qiáng)紡錘形魚(yú)類(lèi)特征的傳遞,并在最終尾部的連接上設(shè)計(jì)了多尺度特征融合模塊,再經(jīng)過(guò)空洞空間金字塔池化模塊ASPP[14]將所有下采樣階段的特征級(jí)聯(lián),再Concat到最后的輸出層中,提高分割精讀。KoiU?Net網(wǎng)絡(luò)使用ASPP可以更有效地提取全局信息,加強(qiáng)特征的流動(dòng)。
2" KoiU?Net網(wǎng)絡(luò)的實(shí)現(xiàn)
2.1" 多尺度特征交叉感知模塊MFCP
MFCP模塊處理機(jī)制如圖2所示。MFCP是一種用于改善跳層連接傳遞的特征信息的模塊,其主要目的是通過(guò)利用各級(jí)特征之間的關(guān)系來(lái)強(qiáng)化特征的表達(dá),從而提高模型的性能。MFCP通過(guò)多頭特征注意力的處理來(lái)實(shí)現(xiàn)特征的交叉感知。
MFCP接收來(lái)自從不同深度的網(wǎng)絡(luò)層或不同卷積層中得到的不同尺度的特征。為了增強(qiáng)特征表達(dá),MFCP模塊會(huì)將每?jī)蓚€(gè)不同尺度的特征進(jìn)行交叉感知處理。MFCP采用多頭特征注意力的方式,能夠捕捉輸入特征之間的關(guān)系,并使得每個(gè)特征都能夠受益于其他特征的信息。通過(guò)對(duì)輸入特征進(jìn)行加權(quán)求和,得到經(jīng)過(guò)交叉感知后的特征表示。經(jīng)過(guò)多頭特征注意力處理后,MFCP將得到新的特征表示作為輸出。這些特征表示已經(jīng)受益于不同尺度特征之間的交叉感知,從而增強(qiáng)了特征的表達(dá)能力。
2.2" 多尺度特征融合模塊MFF
MFF模塊處理機(jī)制如圖3所示。MFF用來(lái)完成對(duì)高層語(yǔ)義信息的多尺度特征信息提取。輸入的特征首先使用1×1的卷積生成三路特征,第一路、第二路被用來(lái)計(jì)算像素相關(guān)性,使用高斯方法進(jìn)行計(jì)算。
[ei=gauss(x1?x2)i=1Ngauss(x1?x2)] (1)
[Out=i=1N(ei)+xi] (2)
高斯加權(quán)的目的是根據(jù)像素之間的空間距離來(lái)調(diào)整它們?cè)谙嚓P(guān)性計(jì)算中的貢獻(xiàn),從而更好地捕捉特征之間的關(guān)聯(lián)性,而后與未經(jīng)處理的原始特征結(jié)合,通過(guò)四層相同的結(jié)構(gòu),輸出最終的特征圖。
整個(gè)MFF模塊的目標(biāo)是充分利用不同尺度的特征信息,并且通過(guò)相關(guān)性計(jì)算來(lái)捕捉特征之間的關(guān)聯(lián)性,從而增強(qiáng)模型的表達(dá)能力和泛化性能。
2.3" 多尺度上采樣模塊MU
MU模塊處理機(jī)制如圖4所示。MU是為了克服傳統(tǒng)的簡(jiǎn)單反卷積上采樣的問(wèn)題而提出的一種改進(jìn)模塊。MU通過(guò)一種類(lèi)似于編解碼架構(gòu)的兩個(gè)神經(jīng)網(wǎng)絡(luò)處理特征圖,從而能夠更好地利用特征信息并自適應(yīng)地強(qiáng)調(diào)重要特征,最終將處理后的特征圖結(jié)合在一起進(jìn)行上采樣,得到最終的輸出。
MU接收輸入的特征圖,這些特征圖通常是從低層網(wǎng)絡(luò)或者其他模塊中得到的。首先,輸入特征經(jīng)過(guò)一個(gè)1×1的卷積操作,生成三個(gè)不同的特征圖,即三路特征。將生成的三路特征分別輸入到編碼網(wǎng)絡(luò)中進(jìn)行處理,捕捉特征的高級(jí)表示,解碼網(wǎng)絡(luò)負(fù)責(zé)將編碼網(wǎng)絡(luò)的輸出進(jìn)行逆向操作,對(duì)特征進(jìn)行解碼和恢復(fù),從而實(shí)現(xiàn)特征的重建。融合后的特征圖經(jīng)過(guò)上采樣操作,使用反卷積將特征圖的空間尺寸放大到與原始輸入相同的大小。
2.4" 損失函數(shù)
本文的損失函數(shù)采用融合SoftIoU和二值交叉熵的方式。二值交叉熵?fù)p失函數(shù)(BCE)通常用于二分類(lèi)問(wèn)題,它度量了模型預(yù)測(cè)與真實(shí)標(biāo)簽之間的差異。對(duì)于像素級(jí)別的分割任務(wù),可以將每個(gè)像素點(diǎn)看作一個(gè)獨(dú)立的二分類(lèi)問(wèn)題,用于衡量像素點(diǎn)的分類(lèi)效果。
IoU(Intersection over Union)常用于衡量目標(biāo)檢測(cè)或分割任務(wù)中預(yù)測(cè)邊界框或分割掩碼與真實(shí)邊界框或分割掩碼之間的重疊程度。它計(jì)算預(yù)測(cè)區(qū)域與真實(shí)區(qū)域的交集面積與并集面積之比。對(duì)于像素級(jí)別的分割任務(wù),SoftIoU是IoU的一個(gè)變體,它使用軟性估計(jì)將像素的分類(lèi)輸出轉(zhuǎn)化為一種模糊的分割掩碼且考慮了預(yù)測(cè)的不確定性。這樣可以減少標(biāo)簽噪聲或邊界不清晰等問(wèn)題對(duì)模型訓(xùn)練的影響,使得模型具有更好的魯棒性。
[L=λLBCE+(1-λ)LIoU] (3)
[LBCE(y,y)=-1Ni=1N[yilog(yi)+(1-yi)log(1-yi)]] (4)
[LIoU(y,y)=1-i=1N(2yiyi+ε)/(yi+yi+ε)N] (5)
式中:[N]是樣本數(shù);[yi]是第[i]個(gè)樣本的真實(shí)標(biāo)簽,取值為0或1;[yi]是第[i]個(gè)樣本的預(yù)測(cè)值,取值范圍為[0,1];[ε]是一個(gè)小正數(shù),用于避免除數(shù)為零的情況。
融合損失函數(shù)可以提高對(duì)罕見(jiàn)類(lèi)別和邊界區(qū)域的關(guān)注度,使得模型更全面地覆蓋各個(gè)類(lèi)別。SoftIoU損失函數(shù)允許模型對(duì)于紡錘形魚(yú)邊界區(qū)域進(jìn)行模糊預(yù)測(cè),從而提高了模型對(duì)于紡錘形魚(yú)邊界不清晰區(qū)域的分割效果,同時(shí)它考慮了預(yù)測(cè)的不確定性,使得模型在不確定的區(qū)域更加魯棒,減少了標(biāo)簽噪聲的影響。通過(guò)結(jié)合二值交叉熵和SoftIoU損失函數(shù),可以使模型在像素級(jí)別的分割任務(wù)中更加魯棒和準(zhǔn)確,從而提高目標(biāo)檢測(cè)或語(yǔ)義分割等任務(wù)的性能。
3" 實(shí)驗(yàn)結(jié)果與分析
3.1" 實(shí)驗(yàn)總體情況介紹
實(shí)驗(yàn)環(huán)境使用的操作系統(tǒng)為Windows 10專(zhuān)業(yè)版,深度學(xué)習(xí)框架為PyTorch 1.12.1,硬件配置中CPU為11th Gen Intel[?] CoreTM i9?11900@2.50 GHz,運(yùn)行內(nèi)存為32.0 GB;GPU為NVIDIA GeForce RTX 3080。本文使用的數(shù)據(jù)集為A Large?Scale Dataset for Fish Segmentation and Classification。該數(shù)據(jù)集包含從土耳其伊茲密爾一家超市收集的9種不同的海鮮類(lèi)型,數(shù)據(jù)集包括鍍金頭鯛、紅鯛、鱸魚(yú)、紅鯔魚(yú)、竹莢魚(yú)、黑海鯡魚(yú)、條紋紅鯔魚(yú)、鱒魚(yú)、蝦等海鮮圖像樣本。本文選取數(shù)據(jù)集內(nèi)的紡錘形魚(yú)類(lèi)作為樣本進(jìn)行訓(xùn)練,并將樣本分為3個(gè)部分:75%用于訓(xùn)練;12.5%用于驗(yàn)證;12.5%用于測(cè)試,使用五折交叉驗(yàn)證,隨機(jī)劃分5次進(jìn)行訓(xùn)練和驗(yàn)證。數(shù)據(jù)集樣本示例如圖5所示。
3.2" 評(píng)價(jià)指標(biāo)
為了更好地評(píng)估網(wǎng)絡(luò)對(duì)紡錘形魚(yú)類(lèi)的分割效果,采用以下評(píng)估指標(biāo):PA(Pixel Accuracy)代表像素準(zhǔn)確率,即標(biāo)注正確的像素占像素總數(shù)的百分比;mIoU(Mean Intersection over Union)代表平均交并比,即正例的交并比與反例的交并比的平均值;Dice系數(shù)是一種用來(lái)評(píng)估兩個(gè)樣本相似性的度量函數(shù),取值在0~1之間,值越大表明越相似。TP=[pii]表示真正例,即分割預(yù)測(cè)為正例,標(biāo)注也為正例的像素;FP=[pji]表示假正例,表示將其他類(lèi)[j]預(yù)測(cè)為正確類(lèi)[i];FN=[pij]表示假負(fù)例,即分割預(yù)測(cè)為反例,標(biāo)注是正例的像素;TN=[pjj]表示真反類(lèi),即分割預(yù)測(cè)為反例,標(biāo)注也為反例的像素。PA和mIoU的計(jì)算式如式(6)、式(7)所示。
[PA=TP+TNTP+TN+FP+FN] (6)
[mIoU=1k+1 i=0kpijj=0kpij+j=0kpji-pii] (7)
Dice系數(shù)的定義如式(8)所示:
[Dice=2X?YX+Y] (8)
式中:[X]和[Y]分別表示[X]和[Y]的元素個(gè)數(shù);[X?Y]表示[X]和[Y]交集元素的個(gè)數(shù)。
3.3" 實(shí)驗(yàn)結(jié)果分析
3.3.1" 訓(xùn)練過(guò)程分析
訓(xùn)練過(guò)程中學(xué)習(xí)率和損失的變化情況如圖6、圖7所示,在訓(xùn)練過(guò)程中學(xué)習(xí)率下降較快,表明模型具有較快的收斂速度。
在驗(yàn)證集上的情況如圖8所示。其與訓(xùn)練過(guò)程中l(wèi)oss的變化相符合,在后期的訓(xùn)練過(guò)程中始終保持在0.94左右,說(shuō)明了其優(yōu)秀的表現(xiàn),能準(zhǔn)確分割出背景和魚(yú)身。
3.3.2" 測(cè)試集分割結(jié)果
在測(cè)試集上經(jīng)過(guò)五折交叉驗(yàn)證的結(jié)果如表1所示。由表1可知,KoiU?Net在劃分的不同批次的測(cè)試集都有著較為穩(wěn)定的表現(xiàn),說(shuō)明KoiU?Net在多種紡錘形魚(yú)的分割任務(wù)上魯棒性較強(qiáng),且平均準(zhǔn)確率達(dá)到了98.63%。
3.3.3" 可視化分析
為了深入探究KoiU?Net的效果,本節(jié)進(jìn)行了可視化分析。由圖9可知,KoiU?Net對(duì)于紡錘形魚(yú)類(lèi)圖像分割的邊緣處理的較好,能準(zhǔn)確去除背景區(qū)域。
圖10為復(fù)雜背景下網(wǎng)絡(luò)對(duì)紡錘形魚(yú)類(lèi)的分割效果。由圖10可知,KoiU?Net對(duì)于紡錘形魚(yú)類(lèi)圖像分割的泛化能力較好,能準(zhǔn)確分割出紡錘形魚(yú)類(lèi)區(qū)域。
3.4" 消融實(shí)驗(yàn)
3.4.1" 模型消融實(shí)驗(yàn)
為驗(yàn)證KoiU?Net網(wǎng)絡(luò)模型對(duì)模型性能提升的有效性,本節(jié)將對(duì)KoiU?Net網(wǎng)絡(luò)模型中的各個(gè)模塊進(jìn)行消融探究,以驗(yàn)證不同模塊對(duì)本文方法帶來(lái)的影響。結(jié)果如表2所示,表中的各項(xiàng)參數(shù)含義如下:
Base:基線(xiàn)模型,采用ResNet101編碼器和普通的上采樣模塊,并使用ASPP將編碼器的特征圖連接至最后的輸出層;MU:采用新設(shè)計(jì)的MU多尺度上采樣模塊;MFF:使用新設(shè)計(jì)的MFF連接編碼器的最后一層;MFCP:使用新設(shè)計(jì)的MFCP連接編解碼器。
由表2分析可知,各個(gè)改進(jìn)方法對(duì)網(wǎng)絡(luò)性能都有一定的提升效果,MFCP是性能提升的主要來(lái)源,相較于其他設(shè)置下,加入MFCP的對(duì)照組提升較大,PA、Dice和mIoU分別提高4.28%、6.92%和8.23%。加入了所有改進(jìn)模塊后,PA、Dice和mIoU分別提高9.26%、14.76%和13.33%。整體性能相較于典型U?Net提升了近10%,實(shí)驗(yàn)結(jié)果充分證明了KoiU?Net網(wǎng)絡(luò)模型的有效性和先進(jìn)性。
3.4.2" 融合損失函數(shù)消融實(shí)驗(yàn)
本小節(jié)分別采用BCE、IoU和融合損失函數(shù)訓(xùn)練KoiU?Net網(wǎng)絡(luò)模型,Base與3.4.1節(jié)的含義相同,KoiU?Net代表3.4.1節(jié)中的Base+MU+MFF+MFCP,實(shí)驗(yàn)結(jié)果如表3所示。
在Base模型和KoiU?Net網(wǎng)絡(luò)模型上的消融實(shí)驗(yàn)都充分證明了融合損失函數(shù)能夠幫助KoiU?Net網(wǎng)絡(luò)模型學(xué)習(xí)到更充分的特征表示,性能提升也較為明顯。
3.5" 對(duì)比實(shí)驗(yàn)
為了評(píng)估KoiU?Net網(wǎng)絡(luò)在不同方法中的優(yōu)越性,本節(jié)選取常用的語(yǔ)義分割模型和KoiU?Net網(wǎng)絡(luò)模型進(jìn)行對(duì)比,通過(guò)在測(cè)試集上的分割效果對(duì)比,表明KoiU?Net網(wǎng)絡(luò)模型和不同深度學(xué)習(xí)方法之間的差異性。對(duì)比實(shí)驗(yàn)指標(biāo)見(jiàn)表4。
由表3、表4可知,KoiU?Net網(wǎng)絡(luò)的各項(xiàng)指標(biāo)對(duì)比其他網(wǎng)絡(luò)均有5%~10%左右的提升。性能的提升往往伴隨著較大的時(shí)間代價(jià),例如表現(xiàn)較好的U?Net++,其推理時(shí)間達(dá)到了35.84 ms;表現(xiàn)次優(yōu)的TransU?Net采用Transformer架構(gòu)作為編碼器,其推理時(shí)間達(dá)到了39.95 ms;實(shí)驗(yàn)數(shù)據(jù)表明,相比于其他圖像分割的架構(gòu),KoiU?Net更適用于紡錘形魚(yú)類(lèi)的分割,在紡錘形魚(yú)類(lèi)圖像分割性能上更具優(yōu)勢(shì)。實(shí)驗(yàn)結(jié)果驗(yàn)證了KoiU?Net能夠更精準(zhǔn)地分割出魚(yú)身,同時(shí)在各項(xiàng)性能上表現(xiàn)均較好,其推理時(shí)間為29.50 ms,本文方法不失為一種優(yōu)秀的分割方法。
4" 結(jié)" 語(yǔ)
本文針對(duì)紡錘形魚(yú)類(lèi)圖像分割任務(wù)中存在的邊緣不清、特征模糊的難點(diǎn),提出一種全新的分割網(wǎng)絡(luò)KoiU?Net。該網(wǎng)絡(luò)在U?Net模型基礎(chǔ)上,設(shè)計(jì)了多尺度特征交叉感知模塊MFCP、多尺度特征融合模塊MFF以及多尺度上采樣模塊MU,以增強(qiáng)模型對(duì)復(fù)雜紡錘形魚(yú)類(lèi)特征的表達(dá)和利用能力,提升紡錘形魚(yú)類(lèi)圖像分割的精度。在數(shù)據(jù)集上的大量實(shí)驗(yàn)表明,KoiU?Net相較于U?Net、PSPNet等其他分割模型,取得了平均準(zhǔn)確率為98.63%的分割精度。同時(shí),設(shè)計(jì)的模塊經(jīng)過(guò)消融實(shí)驗(yàn)也證明了其效果,尤其是多尺度特征交叉感知模塊MFCP對(duì)分割性能提升作用最大。與其他分割網(wǎng)絡(luò)相比,KoiU?Net在取得更精準(zhǔn)分割的同時(shí),推理時(shí)間上的代價(jià)也較小。本研究表明,KoiU?Net網(wǎng)絡(luò)結(jié)構(gòu)能夠有效地輔助紡錘形魚(yú)類(lèi)的生長(zhǎng)狀態(tài)測(cè)量,為水產(chǎn)養(yǎng)殖過(guò)程中魚(yú)類(lèi)生長(zhǎng)監(jiān)測(cè)提供了可靠的技術(shù)手段,也為其他類(lèi)似的生物體分割任務(wù)提供了借鑒??傮w而言,KoiU?Net是一種針對(duì)紡錘形魚(yú)類(lèi)分割任務(wù)設(shè)計(jì)的高效網(wǎng)絡(luò)結(jié)構(gòu),其在該領(lǐng)域應(yīng)用中展現(xiàn)出的卓越性能表明其具備廣闊的工程應(yīng)用前景。
注:本文通訊作者為孟娟。
參考文獻(xiàn)
[1] 中華人民共和國(guó)國(guó)務(wù)院新聞辦公室.中國(guó)的遠(yuǎn)洋漁業(yè)發(fā)展[N].人民日?qǐng)?bào),2023?10?25(014).
[2] 農(nóng)業(yè)農(nóng)村部漁業(yè)漁政管理局.2022中國(guó)漁業(yè)統(tǒng)計(jì)年鑒[M].北京:中國(guó)農(nóng)業(yè)出版社,2022.
[3] 王帥,劉世晶,唐榮,等.基于改進(jìn)K?means聚類(lèi)算法的金魚(yú)陰影去除及圖像分割方法[J].漁業(yè)現(xiàn)代化,2019,46(2):54?60.
[4] ZHOU C, LIN K, XU D M, et al. Method for segmentation of overlapping fish images in aquaculture [J]. International journal of agricultural and biological engineering, 2019, 12(6): 135?142.
[5] JIAO L, ZHANG R, LIU F, et al. New generation deep learning for video object detection: A survey [J]. IEEE transactions on neural networks and learning systems, 2022, 33(8): 3195?3215.
[6] VILLON S, MOUILLOT D, CHAUMONT M, et al. A deep learning method for accurate and fast identification of coral reef fishes in underwater images [J]. Ecological informatics, 2018, 48: 238?244.
[7] WANG J, LIU X P. Medical image recognition and segmentation of pathological slices of gastric cancer based on Deeplab v3+ neural network [J]. Computer methods and programs in biomedicine, 2021, 207: 106210.
[8] CAO Z, SIMON T, WEI S E, et al. Realtime multi?person 2D pose estimation using part affinity fields [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2017: 7291?7299.
[9] 覃學(xué)標(biāo),黃冬梅,宋巍,等.基于目標(biāo)檢測(cè)及邊緣支持的魚(yú)類(lèi)圖像分割方法[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2023,54(1):280?286.
[10] 何佳琦,周思藝,唐曉萌,等.基于改進(jìn)的輕量版SOLOv2紅鰭東方鲀實(shí)例分割方法[J].華中農(nóng)業(yè)大學(xué)學(xué)報(bào),2023,42(3):71?79.
[11] 范偉亞.基于深度學(xué)習(xí)的海洋魚(yú)類(lèi)圖像識(shí)別與應(yīng)用[D].重慶:重慶師范大學(xué),2019.
[12] BACCOUCH W, OUESLATI S, SOLAIMAN B, et al. A comparative study of CNN and U?Net performance for automatic segmentation of medical images: Application to cardiac MRI [J]. Procedia computer science, 2023, 219: 1089?1096.
[13] AGHALARI M, AGHAGOLZADEH A, EZOJI M. Brain tumor image segmentation via asymmetric/symmetric UNet based on two?pathway?residual blocks [J]. Biomedical signal processing and control, 2021, 69: 102841.
[14] CHEN L C, ZHU Y K, PAPANDREOU G, et al. Encoder?decoder with atrous separable convolution for semantic image segmentation [C]// Proceedings of the European Conference on Computer Vision (ECCV). Heidelberg, Germany: Springer, 2018: 801?818.
KoiU?Net: A fusiform fish image segmentation method
based on multi?feature enhancement fusion
ZHU Jiayuan1, MENG Juan1, DU Hai2, MA Yuanyuan1, CAO Jingwen1
(1. College of Information Engineering, Dalian Ocean University, Dalian 116023, China;
2. State Key Laboratory of Coastal and Offshore Engineering, Dalian University of Technology, Dalian 116024, China)
Abstract: In view of the blurred edges and vague features in the fusiform fish image segmentation task, a multi?feature enhancement and fusion based fusiform fish image segmentation network KoiU?Net is proposed. On the basis of the classical U?Net model, a multi?scale feature cross perception module and a multi?scale feature fusion module are designed to enhance the processing capability of fusiform fish features, so as to cope with the problems of blurred edges and complex features in the segmentation of fusiform fish image. The multi?scale upsampling module is designed to extract finer feature information. Experiments on the fusiform fish image dataset show that the KoiU?Net achieves significant improvement in segmentation accuracy, averaging 98.63%, in comparison with the other segmentation networks such as the original U?Net. The effectiveness of each design module is also verified by ablation experiments, and the multi?scale feature cross perception module plays a key role in improving the segmentation performance. This study provides effective technical support for further implementation of fusiform fish growth state monitoring and lays the foundation for the further development in this field.
Keywords: deep learning; image segmentation; segmentation accuracy; fusiform fish; U?Net; multi?scale feature fusion
DOI:10.16652/j.issn.1004?373x.2024.09.010
引用格式:朱珈緣,孟娟,杜海,等.KoiU?Net:基于多特征增強(qiáng)融合的紡錘形魚(yú)類(lèi)圖像分割方法[J].現(xiàn)代電子技術(shù),2024,47(9):53?58.
收稿日期:2023?11?24" """""""""修回日期:2023?12?18
朱珈緣,等:KoiU?Net:基于多特征增強(qiáng)融合的紡錘形魚(yú)類(lèi)圖像分割方法
朱珈緣,等:KoiU?Net:基于多特征增強(qiáng)融合的紡錘形魚(yú)類(lèi)圖像分割方法
作者簡(jiǎn)介:朱珈緣(1997—),女,遼寧康平人,碩士研究生,主要研究方向?yàn)橛?jì)算機(jī)視覺(jué)、圖像分割。
孟" 娟(1981—),女,山東龍口人,博士,副教授,主要研究方向?yàn)樾畔⑻幚怼?/p>
杜" 海(1980—),男,河北石家莊人,博士,高級(jí)工程師,主要研究方向?yàn)楹Q蠊こ讨械姆墙佑|式測(cè)量技術(shù)。
馬媛媛(1997—),女,寧夏賀蘭人,碩士研究生,主要研究方向?yàn)橛?jì)算機(jī)視覺(jué)。
曹靜雯(1998—),女,福建福州人,碩士研究生,主要研究方向?yàn)槟P蛪嚎s。