亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于目標(biāo)檢測(cè)及邊緣支持的魚(yú)類(lèi)圖像分割方法

        2023-03-07 07:21:04覃學(xué)標(biāo)黃冬梅杜艷玲徐慧芳
        關(guān)鍵詞:檢測(cè)方法模型

        覃學(xué)標(biāo) 黃冬梅,2 宋 巍 賀 琪 杜艷玲 徐慧芳

        (1.上海海洋大學(xué)信息學(xué)院, 上海 201306; 2.上海電力大學(xué)電子與信息工程學(xué)院, 上海 200090)

        0 引言

        在漁業(yè)養(yǎng)殖過(guò)程中,需要定期地對(duì)魚(yú)的生長(zhǎng)狀況進(jìn)行監(jiān)測(cè)[1-2]。受成本、安全和對(duì)生物體毀壞等因素的影響,依靠人工觀測(cè)以獲得魚(yú)類(lèi)的體長(zhǎng)等生物學(xué)信息比較困難[3]。利用各種遠(yuǎn)程可操控的潛水設(shè)備替代人工觀測(cè)是良好的解決方案,通過(guò)這些設(shè)備可以大范圍地收集魚(yú)類(lèi)在水下活動(dòng)的圖像[4]。但要獲得所需要的生物學(xué)信息,仍然需要進(jìn)行大量的人工處理[5]。近幾年,基于機(jī)器學(xué)習(xí)的圖像處理方法獲得較快發(fā)展,如何利用這些方法對(duì)潛水設(shè)備收集到的魚(yú)類(lèi)圖像進(jìn)行處理,是當(dāng)前研究的熱點(diǎn)[6-11]。

        將魚(yú)類(lèi)目標(biāo)從圖像背景中分割出來(lái)是提取魚(yú)類(lèi)生物學(xué)信息的關(guān)鍵步驟,其分割精度決定信息提取的準(zhǔn)確程度。國(guó)內(nèi)外諸多學(xué)者開(kāi)展魚(yú)類(lèi)圖像分割相關(guān)的研究,王帥等[12]提出改進(jìn)K-means聚類(lèi)算法的金魚(yú)陰影去除及圖像分割方法,用于分析魚(yú)類(lèi)的行為。馬兆敏等[13]使用閾值方法對(duì)金魚(yú)圖像進(jìn)行分割。ZHOU等[14]依據(jù)邊緣拐角和骨架形狀對(duì)重疊的魚(yú)類(lèi)圖像進(jìn)行分割。雖然上述魚(yú)類(lèi)圖像分割方法獲得了較高精度,但其原理是對(duì)整幅圖像進(jìn)行分割,無(wú)法對(duì)多條魚(yú)逐一進(jìn)行分割。

        基于深度學(xué)習(xí)的圖像分割方法可以對(duì)多目標(biāo)進(jìn)行分割,目前被廣泛地應(yīng)用于各類(lèi)圖像分割任務(wù)中。RONNERBERGER等[15]提出的U-Net模型在醫(yī)學(xué)圖像上獲得較好的分割效果。CHEN等[16]提出的DeepLabv3模型廣泛應(yīng)用于遙感圖像的分割[17]。對(duì)于魚(yú)類(lèi)圖像,YU等[18]基于Mask R-CNN開(kāi)展魚(yú)類(lèi)圖像分割研究,用于測(cè)量魚(yú)的體長(zhǎng)。SALEH等[19]基于ResNet-50開(kāi)展魚(yú)類(lèi)圖像分割研究。LARADJI等[20]通過(guò)在ResNet-38網(wǎng)絡(luò)上添加類(lèi)同分支的方式,進(jìn)一步提高魚(yú)類(lèi)圖像的分割精度。ISLAM等[21]基于VGG-16網(wǎng)絡(luò)開(kāi)展魚(yú)類(lèi)圖像分割研究。基于深度學(xué)習(xí)的魚(yú)類(lèi)圖像分割方法獲得了較高的精度,但當(dāng)前的研究主要是基于海中采集的數(shù)據(jù)開(kāi)展實(shí)驗(yàn),海中水下圖像比較清晰,魚(yú)的體型較小,較少出現(xiàn)相互遮擋以及截?cái)嗟那闆r。在養(yǎng)殖條件下,水下圖像比較模糊,由于魚(yú)的體型較大,存在較多相互遮擋以及截?cái)嗟那闆r。運(yùn)用深度學(xué)習(xí)方法對(duì)這類(lèi)圖像進(jìn)行分割時(shí),易出現(xiàn)較多錯(cuò)檢漏檢的問(wèn)題,分割精度較低。

        本文提出基于目標(biāo)檢測(cè)及邊緣支持的魚(yú)類(lèi)圖像分割方法。應(yīng)用目標(biāo)檢測(cè)的方法將魚(yú)類(lèi)目標(biāo)界定在一定區(qū)域內(nèi),將整幅圖像分割轉(zhuǎn)化為區(qū)域分割,避免整幅圖像分割過(guò)程中因遮擋或截?cái)鄮?lái)的噪聲干擾;運(yùn)用邊緣支持對(duì)區(qū)域內(nèi)的魚(yú)類(lèi)圖像進(jìn)行分割,以提高模型對(duì)模糊水下魚(yú)類(lèi)圖像的適用性。

        1 數(shù)據(jù)集構(gòu)建與標(biāo)注

        使用GoPro RX0水下攝像機(jī)在室外水深1 m的養(yǎng)殖池中采集數(shù)據(jù)。采集時(shí)間為2020年5—6月13:00—16:00,圖像分辨率為1 920像素×1 080像素,幀速率為50 f/s。受渾濁水體的影響,所采集的圖像較模糊。將視頻每10幀輸出1幅圖像,從中取出具有一條或多條完整輪廓的魚(yú)圖像,得到3 595幅魚(yú)類(lèi)圖像。按比例7∶3將數(shù)據(jù)劃分為訓(xùn)練集 2 517 幅圖像和測(cè)試集1 078幅圖像。使用標(biāo)注軟件LabelImg將圖像中的魚(yú)、魚(yú)頭和魚(yú)尾標(biāo)注為“fish”、“head”和“tail”。其中“fish”定義為肉眼可辨別為魚(yú)的目標(biāo),截?cái)嗷蛘趽醯哪繕?biāo)均進(jìn)行標(biāo)注;“head”定義為肉眼可辨別為魚(yú)頭的目標(biāo),范圍從魚(yú)嘴到魚(yú)顎的部分,大部分截?cái)嗷蛘趽醯哪繕?biāo)不進(jìn)行標(biāo)注;“tail”定義為肉眼可辨別為魚(yú)尾的目標(biāo),范圍從魚(yú)肛門(mén)到尾鰭夾角的部分,大部分截?cái)嗷蛘趽醯哪繕?biāo)不進(jìn)行標(biāo)注,如圖1所示。

        圖1 LabelImg標(biāo)注效果Fig.1 LabelImg annotation

        訓(xùn)練圖像分割模型需要目標(biāo)的掩碼作為標(biāo)注信息,使用Labelme對(duì)數(shù)據(jù)集進(jìn)一步進(jìn)行標(biāo)注。標(biāo)注對(duì)象為圖中具有完整輪廓的“fish”類(lèi)目標(biāo),大部分截?cái)嗷蛘趽醯哪繕?biāo)不進(jìn)行標(biāo)注。數(shù)據(jù)經(jīng)過(guò)清洗,圖中至少有一條具有完整輪廓的魚(yú),如出現(xiàn)多條具有完整輪廓的魚(yú),均對(duì)其進(jìn)行標(biāo)注,如圖2所示。

        圖2 Labelme標(biāo)注效果Fig.2 Labelme annotation

        2 圖像分割方法

        本文方法分為目標(biāo)檢測(cè)和圖像分割兩部分。首先對(duì)魚(yú)、魚(yú)頭和魚(yú)尾進(jìn)行目標(biāo)檢測(cè),依據(jù)檢測(cè)結(jié)果對(duì)圖像中具有完整輪廓的魚(yú)類(lèi)目標(biāo)進(jìn)行提取,然后在此區(qū)域內(nèi)運(yùn)用邊緣支持的方法對(duì)圖像中的魚(yú)進(jìn)行分割,框架如圖3所示。

        圖3 圖像處理方法框架Fig.3 Framework of proposed method

        2.1 基于目標(biāo)檢測(cè)的完整輪廓提取

        提取魚(yú)類(lèi)的生物學(xué)信息要求目標(biāo)具有完整性,需要對(duì)遮擋或截?cái)嗟聂~(yú)進(jìn)行排除。另外,在圖像存在較多截?cái)嗷蛘趽醯那闆r下,對(duì)圖像中所有的目標(biāo)進(jìn)行分割會(huì)產(chǎn)生較多的噪聲點(diǎn),影響分割精度。基于以上兩點(diǎn),本文方法應(yīng)用目標(biāo)檢測(cè)方法對(duì)圖像中具有完整輪廓的魚(yú)類(lèi)目標(biāo)進(jìn)行提取,并對(duì)不完整的目標(biāo)進(jìn)行排除。

        YOLO模型在魚(yú)類(lèi)檢測(cè)上取得了較好的檢測(cè)效果,本文選擇其作為魚(yú)類(lèi)目標(biāo)檢測(cè)器[22-24]。假設(shè)一條完整的魚(yú)類(lèi)目標(biāo)應(yīng)該具有可檢測(cè)到的魚(yú)頭和魚(yú)尾,據(jù)此分別對(duì)圖像中的魚(yú)、魚(yú)頭和魚(yú)尾進(jìn)行檢測(cè),記輸出的檢測(cè)框?yàn)锽fish、Bhead和Btail。若結(jié)果中包含遮擋或截?cái)嗟哪繕?biāo),需要對(duì)其進(jìn)行排除。當(dāng)魚(yú)頭和魚(yú)尾的檢測(cè)結(jié)果相較于魚(yú)的檢測(cè)結(jié)果誤差小于圖像長(zhǎng)寬之和的1%時(shí),判定這條魚(yú)可檢測(cè)到魚(yú)頭和魚(yú)尾,是一條完整的魚(yú)類(lèi)目標(biāo)。計(jì)算公式為

        (1)

        式中W——圖像長(zhǎng)H——圖像寬

        xfish——魚(yú)檢測(cè)框Bfish左上角x坐標(biāo)

        yfish——魚(yú)檢測(cè)框Bfish左上角y坐標(biāo)

        wfish——魚(yú)檢測(cè)框Bfish長(zhǎng)

        hfish——魚(yú)檢測(cè)框Bfish寬

        xhead——魚(yú)檢測(cè)框Bhead左上角x坐標(biāo)

        yhead——魚(yú)檢測(cè)框Bhead左上角y坐標(biāo)

        whead——魚(yú)檢測(cè)框Bhead長(zhǎng)

        hhead——魚(yú)檢測(cè)框Bhead寬

        xtail——魚(yú)檢測(cè)框Btail左上角x坐標(biāo)

        ytail——魚(yú)檢測(cè)框Btail左上角y坐標(biāo)

        wtail——魚(yú)檢測(cè)框Btail長(zhǎng)

        htail——魚(yú)檢測(cè)框Btail寬

        2.2 邊緣支持的魚(yú)類(lèi)圖像分割

        運(yùn)用式(1)對(duì)圖像中具有完整輪廓的魚(yú)進(jìn)行提取后,在此區(qū)域內(nèi)對(duì)其進(jìn)行分割。養(yǎng)殖條件下的水下魚(yú)類(lèi)圖像比較模糊,其邊緣特征不明顯,輸入基于深度學(xué)習(xí)的圖像分割網(wǎng)絡(luò)后,特征圖經(jīng)過(guò)多層卷積和池化操作后,邊緣信息在深層網(wǎng)絡(luò)中逐步減弱。為了加強(qiáng)邊緣信息在深層網(wǎng)絡(luò)中傳遞,本文方法將模糊水下圖像的邊緣特征值加入主干網(wǎng)絡(luò)中,使得邊緣特征在深層網(wǎng)絡(luò)中得到補(bǔ)充,增強(qiáng)模型對(duì)模糊水下圖像的適用性。本文方法使用ResNet作為主干網(wǎng)絡(luò),輸入圖像尺寸為513像素×513像素,模型輸出結(jié)果的魚(yú)體目標(biāo)表示為255,背景表示為0。為了增加邊緣信息的傳遞,在主干網(wǎng)絡(luò)中添加2個(gè)邊緣支持分支,如圖4所示。

        圖4 邊緣支持結(jié)構(gòu)示意圖Fig.4 Diagram of edge support structure

        2.2.1邊緣矩陣的計(jì)算

        邊緣支持需要邊緣矩陣作為輸入,計(jì)算邊緣的算子主要有Roberts、Sobel、Prewitt、Canny等[25-27],其中,Canny算子具有較強(qiáng)的邊緣提取能力,本文將其作為邊緣矩陣的求解方法。其原理是通過(guò)計(jì)算像素點(diǎn)在不同方向上的梯度,設(shè)定雙閾值獲得邊緣點(diǎn)。假定輸入1幅圖像,通過(guò)Canny算子獲得邊緣矩陣為

        C=Canny(Iinput)

        (2)

        式中Iinput——輸入圖像C——邊緣矩陣將邊緣矩陣加入主干網(wǎng)絡(luò)中表示為

        Li=Li-1+C(i=1,2,…)

        (3)

        式中Li——前饋網(wǎng)絡(luò)中第i層輸出矩陣

        為了便于計(jì)算,將雙閾值中的最小邊緣閾值設(shè)為0,通過(guò)調(diào)節(jié)最大邊緣閾值c獲得邊緣矩陣。

        2.2.2歸一化

        邊緣矩陣用0和255表示,0代表背景,255代表邊緣點(diǎn)。一般情況下,輸入圖像使用255進(jìn)行歸一化,而邊緣點(diǎn)的值為255,如使用255對(duì)其進(jìn)行歸一化將導(dǎo)致該點(diǎn)權(quán)重過(guò)大。為了避免對(duì)參數(shù)值產(chǎn)生過(guò)大影響,本文使用255的n倍數(shù)對(duì)邊緣點(diǎn)進(jìn)行歸一化。

        3 實(shí)驗(yàn)與結(jié)果分析

        在第1節(jié)建立的數(shù)據(jù)集上開(kāi)展實(shí)驗(yàn)。為驗(yàn)證本文方法的效果,分別與Mask R-CNN模型、U-Net模型和DeepLabv3模型進(jìn)行對(duì)比。通過(guò)消融實(shí)驗(yàn)對(duì)本文方法中起重要作用的參數(shù)進(jìn)行分析,以確定較優(yōu)參數(shù)組合。

        3.1 訓(xùn)練設(shè)置

        為了測(cè)試本文方法在不同主干網(wǎng)絡(luò)上的分割效果,分別使用VGG-16、ResNet-50和ResNet-101作為主干網(wǎng)絡(luò)進(jìn)行實(shí)驗(yàn)。VGG-16網(wǎng)絡(luò)的訓(xùn)練參數(shù)為:輸入尺寸224像素×224像素,激活函數(shù)為Sigmoid,損失函數(shù)為CrossEntropyLoss,學(xué)習(xí)率0.001,Batch size設(shè)為8,訓(xùn)練300輪。ResNet-50和ResNet-101模型的訓(xùn)練參數(shù)設(shè)為:輸入尺寸513像素×513像素,激活函數(shù)為ReLU,損失函數(shù)為CrossEntropyLoss,學(xué)習(xí)率0.001,Batch size設(shè)為4,訓(xùn)練300輪。邊緣支持的參數(shù)設(shè)置為2個(gè)支持分支,邊緣最大閾值c=12,歸一化倍數(shù)n=3。目標(biāo)檢測(cè)模型YOLO的訓(xùn)練參數(shù)為:輸入尺寸640像素×640像素,激活函數(shù)為Mish,損失函數(shù)為FocalLoss,學(xué)習(xí)率0.001,Batch size設(shè)為32,訓(xùn)練20 000輪。對(duì)比模型Mask R-CNN[18]、U-Net[15]和DeepLabv3[16]的訓(xùn)練參數(shù),使用文獻(xiàn)中的預(yù)設(shè)值,訓(xùn)練至收斂。實(shí)驗(yàn)環(huán)境為處理器AMD 1950X 3.4 GHz,內(nèi)存 32 GB,顯卡GTX-1080Ti,操作系統(tǒng)Ubuntu 16.04,編程語(yǔ)言Python 3.7。

        3.2 評(píng)價(jià)指標(biāo)

        使用像素交并比(IOU)和單幅圖像分割時(shí)間對(duì)模型的分割效果進(jìn)行評(píng)價(jià)。

        3.3 實(shí)驗(yàn)結(jié)果

        表1為Mask R-CNN、U-Net、DeepLabv3模型和本文方法在VGG-16、ResNet-50、ResNet-101主干網(wǎng)絡(luò)上分割結(jié)果對(duì)比。從表1可以看出,本文方法在ResNet-101上的像素交并比為85.66%,VGG-16和ResNet-50的像素交并比也高于其他對(duì)比模型,說(shuō)明本文方法可以較好地對(duì)魚(yú)類(lèi)圖像進(jìn)行分割。由于VGG-16的網(wǎng)絡(luò)層數(shù)較少,其分割精度較低;ResNet-101的網(wǎng)絡(luò)較深,其分割精度較高,說(shuō)明主干網(wǎng)絡(luò)越深模型的分割精度越高。在運(yùn)行時(shí)間上,Mask R-CNN模型單幅圖像分割時(shí)間較長(zhǎng),達(dá)2 s;U-Net模型耗時(shí)最短,為0.19 s;本文方法+ResNet-101的分割時(shí)間為0.61 s,長(zhǎng)于U-Net模型,但短于Mask R-CNN模型。運(yùn)行時(shí)間雖然不能滿(mǎn)足實(shí)時(shí)分割的生產(chǎn)需求,但可以應(yīng)用于靜態(tài)魚(yú)類(lèi)圖像的分割。

        表1 實(shí)驗(yàn)結(jié)果對(duì)比Tab.1 Comparison of experimental results

        圖5為Mask R-CNN、U-Net、DeepLabv3模型和本文方法在VGG-16、ResNet-50、ResNet-101主干網(wǎng)絡(luò)上分割結(jié)果圖。從圖5可以看出,Mask R-CNN模型由于其用于分割計(jì)算的分支網(wǎng)絡(luò)層數(shù)較少,出現(xiàn)較多錯(cuò)檢漏檢的像素點(diǎn)。U-Net和DeepLabv3模型對(duì)整幅圖像進(jìn)行分割,亦出現(xiàn)較多錯(cuò)檢漏檢的像素點(diǎn)。本文方法在網(wǎng)絡(luò)層數(shù)較少的VGG-16上分割結(jié)果較差,存在一定程度的錯(cuò)檢漏檢點(diǎn)?;赗esNet-101的模型分割結(jié)果較好,得到接近于標(biāo)簽的高精度分割效果。

        圖5 不同模型分割結(jié)果對(duì)比Fig.5 Comparison of segmentation results of different models

        3.4 結(jié)果分析

        3.4.1消融實(shí)驗(yàn)

        表2為目標(biāo)檢測(cè)和邊緣支持消融實(shí)驗(yàn)結(jié)果。從表2可以看出,在未加入目標(biāo)檢測(cè)和邊緣支持前,模型的像素交并比僅為69.81%。加入目標(biāo)檢測(cè)之后,像素交并比為83.62%,提升13.81個(gè)百分點(diǎn),說(shuō)明基于目標(biāo)檢測(cè)的完整輪廓提取對(duì)提高模型的分割精度具有較明顯提升作用。加入邊緣支持后,像素交并比進(jìn)一步提高2.04個(gè)百分點(diǎn)至85.66%,說(shuō)明邊緣支持對(duì)模型的分割精度也具有提升作用。在運(yùn)行時(shí)間上,加入目標(biāo)檢測(cè)和邊緣支持后,單幅圖像分割時(shí)間增加了0.18 s,未產(chǎn)生較大影響。

        表2 消融實(shí)驗(yàn)結(jié)果Tab.2 Ablation experiment

        3.4.2邊緣支持分支的數(shù)量

        表3為邊緣閾值c=12、歸一化倍數(shù)n=3時(shí),不同邊緣支持分支數(shù)量的分割精度。從表3可以看出,不添加邊緣支持分支時(shí),IOU為83.62%;添加2個(gè)邊緣支持分支后,IOU提高至85.66%;而當(dāng)支持分支數(shù)量為4時(shí),IOU出現(xiàn)了下降。說(shuō)明邊緣支持分支數(shù)量對(duì)模型的分割精度具有直接影響,在本文數(shù)據(jù)中,添加邊緣支持分支數(shù)量為2時(shí),分割效果較好。

        表3 不同邊緣支持分支數(shù)量的交并比Tab.3 IOU of different edge supported

        3.4.3邊緣閾值

        圖6為邊緣閾值c分別為6、9、12、15時(shí)的特征圖。從圖6可以看出,不同閾值所產(chǎn)生的邊緣量差距較大。當(dāng)c=6時(shí),干擾點(diǎn)較多;而當(dāng)c=15時(shí),邊緣點(diǎn)較少。

        圖6 不同邊緣閾值的特征圖Fig.6 Characteristic diagrams of different thresholds

        表4為邊緣支持分支數(shù)量為2、歸一化倍數(shù)n=3時(shí),不同邊緣閾值的交并比。從表4可以看出,當(dāng)c=6時(shí),IOU較低;而當(dāng)c=15時(shí),IOU降低。說(shuō)明邊緣閾值對(duì)模型的分割精度產(chǎn)生較大影響,較小或較大的閾值均達(dá)不到提高分割精度的目的。在本文數(shù)據(jù)中,邊緣閾值c=12時(shí),分割效果較好。

        表4 不同邊緣閾值的交并比Tab.4 IOU of different thresholds

        3.4.4邊緣矩陣的歸一化倍數(shù)

        表5為邊緣支持分支數(shù)量為2、邊緣閾值c=12時(shí),不同歸一化倍數(shù)n的交并比。從表5可以看出,當(dāng)n=1時(shí),IOU較低;當(dāng)n=3時(shí),IOU較高;而當(dāng)n=5時(shí),IOU出現(xiàn)了下降。說(shuō)明邊緣矩陣的歸一化倍數(shù)對(duì)模型的分割精度同樣具有影響,邊緣矩陣的歸一化倍數(shù)較低時(shí)所起作用較小,較高則達(dá)不到提高精度的目的。在本文數(shù)據(jù)中,歸一化倍數(shù)n=3時(shí),分割效果較好。

        表5 不同歸一化倍數(shù)的交并比Tab.5 IOU of different multiples

        4 討論

        與U-Net和DeepLabv3模型相比,本文方法的交并比分別高11.36個(gè)百分點(diǎn)和9.45個(gè)百分點(diǎn)。U-Net和DeepLabv3模型是以整幅圖像作為對(duì)象進(jìn)行分割,受遮擋或截?cái)嗲闆r的影響,其分割結(jié)果中出現(xiàn)較多錯(cuò)檢漏檢的像素點(diǎn)。本文應(yīng)用目標(biāo)檢測(cè)的方法對(duì)圖像中具有完整輪廓的魚(yú)類(lèi)目標(biāo)進(jìn)行提取,避免整幅圖像分割因遮擋或截?cái)鄮?lái)的噪聲干擾。消融實(shí)驗(yàn)結(jié)果也顯示,與未加入目標(biāo)檢測(cè)算法相比,應(yīng)用目標(biāo)檢測(cè)后模型的分割精度提高13.81個(gè)百分點(diǎn),說(shuō)明應(yīng)用目標(biāo)檢測(cè)可以有效地提高模型的分割效果。

        本文方法類(lèi)似于Mask R-CNN模型的分割原理,分割過(guò)程分為目標(biāo)檢測(cè)和圖像分割兩部分。Mask R-CNN使用Faster R-CNN作為檢測(cè)器,確定目標(biāo)后外接一個(gè)分支對(duì)區(qū)域內(nèi)的目標(biāo)進(jìn)行分割,但其分割分支的網(wǎng)絡(luò)層數(shù)較小,分割精度較低。本文方法使用YOLO模型作為檢測(cè)器,檢測(cè)精度較高。在分割部分,運(yùn)用邊緣支持的深層網(wǎng)絡(luò),使得本文方法的分割精度比Mask R-CNN模型的分割精度高14.24個(gè)百分點(diǎn)。

        為了加強(qiáng)邊緣信息在深層網(wǎng)絡(luò)中傳遞,本文方法將邊緣的特征值加入主干網(wǎng)絡(luò)中,使得模型對(duì)模糊水下圖像具有適用性,分割精度進(jìn)一步提高2.04個(gè)百分點(diǎn)。邊緣支持分支的數(shù)量、邊緣閾值以及邊緣矩陣的歸一化倍數(shù)等參數(shù)的選擇對(duì)模型的分割精度有影響。邊緣支持分支數(shù)量為2、邊緣閾值c=12、歸一化倍數(shù)n=3為最優(yōu)參數(shù)組合。

        5 結(jié)論

        (1)提出基于目標(biāo)檢測(cè)及邊緣支持的魚(yú)類(lèi)圖像分割方法,交并比為85.66%,獲得較好的分割效果,可以應(yīng)用于靜態(tài)魚(yú)類(lèi)圖像的分割。

        (2)應(yīng)用目標(biāo)檢測(cè)方法對(duì)圖像中具有完整輪廓的魚(yú)進(jìn)行提取,可以避免整幅圖像分割因遮擋或截?cái)鄮?lái)的噪聲干擾。與未加入目標(biāo)檢測(cè)算法相比,分割精度提高13.81個(gè)百分點(diǎn)。

        (3)應(yīng)用邊緣支持的魚(yú)類(lèi)圖像分割方法使得模型對(duì)較模糊水下圖像具有較好適用性,模型的分割精度在應(yīng)用目標(biāo)檢測(cè)的基礎(chǔ)上進(jìn)一步提高2.04個(gè)百分點(diǎn)。

        猜你喜歡
        檢測(cè)方法模型
        一半模型
        “不等式”檢測(cè)題
        “一元一次不等式”檢測(cè)題
        “一元一次不等式組”檢測(cè)題
        重要模型『一線(xiàn)三等角』
        重尾非線(xiàn)性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        可能是方法不對(duì)
        3D打印中的模型分割與打包
        小波變換在PCB缺陷檢測(cè)中的應(yīng)用
        用對(duì)方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        精品国产一区二区三区三| 精品久久久久久777米琪桃花| 玩弄放荡人妻少妇系列| 久久成年片色大黄全免费网站| 好看午夜一鲁一鲁一鲁| 日本按摩偷拍在线观看| 亚洲最大免费福利视频网| gv天堂gv无码男同在线观看 | 中文字幕人妻丝袜乱一区三区| 在线中文字幕有码中文| 亚洲AV秘 无码一区二区久久| 国产精品久久婷婷六月| 精品极品视频在线观看| 少妇被又大又粗又爽毛片久久黑人 | 一本久道在线视频播放| 手机在线亚洲精品网站| 又粗又大又硬毛片免费看| 中文字幕精品无码一区二区| 欧美1区二区三区公司| 国产女主播视频一区二区三区| 一区二区三区在线观看人妖| 免费久久久一本精品久久区| 亚洲一区二区三区播放| 日本亚洲欧美在线观看| 精品国产污黄网站在线观看| 亚洲成av人片一区二区密柚| 亚洲一线二线三线写真| 91视频香蕉| 国产精品日日摸夜夜添夜夜添| 一个人午夜观看在线中文字幕| 美女不带套日出白浆免费视频 | 国产欧美日本亚洲精品一5区| 成人国产精品三上悠亚久久| 天天躁日日躁狠狠躁av麻豆| 一本大道无码av天堂| 亚洲成AV人片无码不卡| 青青草视频网站免费看| 中文字幕 亚洲精品 第1页| 亚洲色欲色欲www在线播放| 久久99久久99精品观看| 亚洲综合在线观看一区二区三区|