亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度可分離卷積網(wǎng)絡(luò)的粘連魚體識(shí)別方法

        2021-11-25 13:20:14李道亮曹新凱李文升田港陸段青玲
        關(guān)鍵詞:魚群魚體集上

        張 璐,李道亮,曹新凱,李文升,田港陸,段青玲※

        (1. 中國(guó)農(nóng)業(yè)大學(xué)國(guó)家數(shù)字漁業(yè)創(chuàng)新中心,北京100083;2.中國(guó)農(nóng)業(yè)大學(xué)信息與電氣工程學(xué)院,北京 100083;3. 中國(guó)農(nóng)業(yè)大學(xué)北京市農(nóng)業(yè)物聯(lián)網(wǎng)工程技術(shù)研究中心,北京 100083;4. 萊州明波水產(chǎn)有限公司,萊州261400)

        0 引 言

        中國(guó)是漁業(yè)大國(guó),水產(chǎn)品產(chǎn)量以水產(chǎn)養(yǎng)殖為主。2019年全年養(yǎng)殖水產(chǎn)品產(chǎn)量達(dá)5 079萬(wàn)t,占水產(chǎn)品總產(chǎn)量的78.38%[1]。隨著人工智能技術(shù)的發(fā)展,水產(chǎn)養(yǎng)殖也朝著自動(dòng)化、智能化的模式轉(zhuǎn)變[2-4]。計(jì)算機(jī)視覺技術(shù)因其具有簡(jiǎn)單、無(wú)損、高效等特點(diǎn),成為提升現(xiàn)代水產(chǎn)養(yǎng)殖技術(shù)的重要手段[5-7]。在水產(chǎn)養(yǎng)殖中,養(yǎng)殖魚類生活在三維水體中,且由于其頻繁游動(dòng),導(dǎo)致圖像中魚體形狀呈現(xiàn)不規(guī)則、魚體之間存在復(fù)雜多樣粘連的特點(diǎn)[8]。因此,準(zhǔn)確識(shí)別出圖像中的魚體目標(biāo)是進(jìn)行后續(xù)圖像處理的關(guān)鍵,是實(shí)現(xiàn)多種基本水產(chǎn)養(yǎng)殖操作自動(dòng)化的基礎(chǔ)。本研究對(duì)粘連魚體目標(biāo)進(jìn)行識(shí)別研究,對(duì)于水產(chǎn)養(yǎng)殖中的魚群計(jì)數(shù)、養(yǎng)殖密度估算等具有重要應(yīng)用價(jià)值。

        目前粘連目標(biāo)識(shí)別研究多采用基于圖像特征閾值的方法,即先采用圖像處理技術(shù)分割出目標(biāo)連通區(qū)域,再提取出目標(biāo)連通區(qū)域的特征,通過(guò)設(shè)定特征閾值的方式判定該目標(biāo)連通區(qū)域是否粘連[9]。Duan等[10-11]分別采用連通區(qū)域圓形度和連通區(qū)域面積作為粘連目標(biāo)識(shí)別特征,人工設(shè)定特征閾值,實(shí)現(xiàn)了粘連魚卵的識(shí)別,在此基礎(chǔ)上進(jìn)行粘連魚卵分割和魚卵計(jì)數(shù)研究。韓書慶等[12]采用連通區(qū)域復(fù)雜度和連通區(qū)域面積作為粘連區(qū)域判斷的依據(jù),通過(guò)試驗(yàn)確定特征閾值,實(shí)現(xiàn)了粘連豬體區(qū)域的識(shí)別,在此基礎(chǔ)上分割出粘連豬體。勞鳳丹等[13]采用目標(biāo)邊界復(fù)雜度和連通區(qū)域面積作為粘連目標(biāo)識(shí)別的特征,通過(guò)模型學(xué)習(xí)訓(xùn)練確定特征閾值,實(shí)現(xiàn)了復(fù)雜環(huán)境下粘連蛋雞的識(shí)別,在此基礎(chǔ)上進(jìn)行蛋雞計(jì)數(shù)。在該類粘連目標(biāo)識(shí)別方法中,特征的選取、特征閾值的確定都依賴于人工或者多次試驗(yàn),具有一定的主觀性。并且,當(dāng)應(yīng)用目標(biāo)改變時(shí),特征、特征閾值可能需要重新確定,因而算法的普適性較差。

        以卷積神經(jīng)網(wǎng)絡(luò)為代表的深度學(xué)習(xí)目標(biāo)識(shí)別方法通過(guò)提取特征,學(xué)習(xí)數(shù)據(jù)規(guī)律,構(gòu)建目標(biāo)分類模型,實(shí)現(xiàn)目標(biāo)的自動(dòng)識(shí)別[14-16],目前在水產(chǎn)養(yǎng)殖領(lǐng)域已有一些研究與應(yīng)用[17-19]。Taheri-Garavand等[20]利用基于卷積神經(jīng)網(wǎng)絡(luò)的VGG16結(jié)構(gòu)對(duì)鯉魚圖像進(jìn)行特征自動(dòng)提取,通過(guò)分類器對(duì)圖像進(jìn)行分類,實(shí)現(xiàn)了鯉魚新鮮度的自動(dòng)識(shí)別。Tamou等[21]采用基于卷積神經(jīng)網(wǎng)絡(luò)的AlexNet結(jié)構(gòu)自動(dòng)提取魚類圖像特征,采用支持向量機(jī)分類器對(duì)魚類圖像進(jìn)行分類,實(shí)現(xiàn)了水下活魚的識(shí)別。Rauf等[22]提出了一種32層的卷積神經(jīng)網(wǎng)絡(luò)模型,自動(dòng)提取魚體圖像特征,實(shí)現(xiàn)了魚類品種的識(shí)別。可見,深度學(xué)習(xí)技術(shù)在目標(biāo)識(shí)別領(lǐng)域已有一定應(yīng)用[23-25],但尚未應(yīng)用于粘連目標(biāo)識(shí)別中。

        綜上,本研究將深度學(xué)習(xí)技術(shù)應(yīng)用于粘連魚體目標(biāo)識(shí)別上,以解決目前粘連目標(biāo)識(shí)別方法精度低、普適性差等問(wèn)題。與傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)相比,深度可分離卷積網(wǎng)絡(luò)在保證相同卷積特征提取效果的基礎(chǔ)上,具有較低的計(jì)算復(fù)雜度,能夠進(jìn)一步滿足實(shí)際生產(chǎn)中粘連魚體自動(dòng)化、實(shí)時(shí)、準(zhǔn)確識(shí)別的需求。因此,本研究引入深度可分離卷積網(wǎng)絡(luò)代替?zhèn)鹘y(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)構(gòu)建粘連魚體識(shí)別模型,提出了基于深度可分離卷積網(wǎng)絡(luò)的粘連魚體識(shí)別模型。首先采集魚群圖像數(shù)據(jù),采用圖像處理技術(shù)分割出魚體連通區(qū)域圖像,構(gòu)建粘連魚體識(shí)別數(shù)據(jù)集;其次構(gòu)建基于深度可分離卷積網(wǎng)絡(luò)的粘連魚體識(shí)別模型,采用遷移學(xué)習(xí)方法訓(xùn)練模型;最后基于已訓(xùn)練模型實(shí)現(xiàn)粘連魚體的識(shí)別。本研究識(shí)別方法可自動(dòng)識(shí)別出粘連魚體,為實(shí)現(xiàn)水產(chǎn)養(yǎng)殖自動(dòng)化、智能化提供支持。

        1 材料與方法

        1.1 魚群圖像采集

        本研究在中國(guó)農(nóng)業(yè)大學(xué)國(guó)家數(shù)字漁業(yè)創(chuàng)新中心搭建圖像采集平臺(tái),采集魚群圖像數(shù)據(jù),平臺(tái)示意圖如圖1a所示。平臺(tái)包括的硬件設(shè)備有:魚缸1個(gè)(長(zhǎng)×寬×高為1 m×1 m×1 m)、增氧機(jī)4臺(tái)(WP-3300A,松寶,中山市松寶電器有限公司,中國(guó))、攝像頭1個(gè)(??低?T86FWDV2-I3S,800萬(wàn)像素,4 mm焦距)、計(jì)算機(jī)1臺(tái)(64位Windows 10操作系統(tǒng),Intel(R) Core(TM) i5-4590 CPU @ 3.3 GHz,8 GB內(nèi)存)等。采用支架將攝像頭固定在魚缸正上方,距離水面1.5 m,通過(guò)網(wǎng)線連接攝像頭與計(jì)算機(jī)。

        采集到的魚群視頻數(shù)據(jù)被傳送到計(jì)算機(jī)中存儲(chǔ)。從采集到的魚群視頻數(shù)據(jù)中截取視頻幀,獲得魚群圖像(圖1b)。試驗(yàn)采集的魚群圖像為紅-綠-藍(lán)(Red-Green-Blue,RGB)彩色圖像,圖像分辨率為3 840×2 160像素,圖像格式為.jpg格式,共4 000張。

        1.2 魚體圖像預(yù)處理與數(shù)據(jù)集構(gòu)建

        由于魚群集聚的特性,在一張魚群圖像中會(huì)存在多個(gè)魚體連通區(qū)域。粘連魚體識(shí)別是指識(shí)別出該連通區(qū)域中的目標(biāo)魚體是否粘連。因此,從魚群圖像中分割出目標(biāo)魚體,獲取魚體連通區(qū)域圖像是進(jìn)行粘連魚體識(shí)別的基礎(chǔ)。本研究首先對(duì)目標(biāo)魚體進(jìn)行增強(qiáng)處理,再分割出魚體連通區(qū)域圖像,構(gòu)建粘連魚體識(shí)別數(shù)據(jù)集(圖2)。

        首先,對(duì)魚群圖像進(jìn)行顏色空間轉(zhuǎn)換、顏色分量提取和中值濾波處理,以增強(qiáng)圖像對(duì)比度。由于原始魚群圖像中魚體目標(biāo)在色調(diào)-飽和度-明度(Hue-Saturation-Value,HSV)顏色空間(圖3a)中的明度(Value,V)分量圖像(圖3b)中與背景具有明顯的顏色反差。因此,提取HSV空間的V分量圖像[26]作為魚群圖像處理的初始圖像。在提取V分量圖像時(shí),分辨率的閾值上限和閾值下限分別設(shè)置為100像素和225像素。在此基礎(chǔ)上,對(duì)圖像進(jìn)行中值濾波處理,濾波核的尺寸為3像素,獲得中值濾波圖像(圖3c)。

        其次,從背景中分割出目標(biāo)魚體。由于本研究采集的魚群圖像來(lái)自同一試驗(yàn)平臺(tái),所有圖像具有相同的背景,因此采用背景差分法[10]實(shí)現(xiàn)目標(biāo)魚體的分割,分割結(jié)果如圖3d所示。

        最后,通過(guò)開運(yùn)算、閉運(yùn)算、小面積去除和空洞填充[10]去除圖像中孤立的小點(diǎn)、毛刺等噪聲(圖3e)以及填充魚體表面的空洞,獲得魚體連通區(qū)域圖像(圖3f)。開、閉運(yùn)算中采用的正方形結(jié)構(gòu)元素的尺寸為3×3像素,小面積去除中面積閾值設(shè)置為300像素,空洞填充采用Python軟件OpenCV庫(kù)的Floodfill函數(shù)實(shí)現(xiàn)。

        由圖3f可知,經(jīng)過(guò)預(yù)處理后,該魚群圖像中含有11個(gè)魚體連通區(qū)域圖像,為本研究粘連魚體識(shí)別數(shù)據(jù)集貢獻(xiàn)了11個(gè)樣本。由于卷積神經(jīng)網(wǎng)絡(luò)處理三通道圖像,而分割出的魚體連通區(qū)域圖像為二值圖像,因此需要獲取魚體連通區(qū)域圖像的RGB圖像。本研究采用Python軟件Pillow庫(kù)的Image.crop函數(shù)在原魚群圖像中切割出魚體連通區(qū)域圖像的RGB圖像,構(gòu)成粘連魚體識(shí)別數(shù)據(jù)集,共27 836張。水產(chǎn)養(yǎng)殖中魚群養(yǎng)殖密度較大,多條魚之間出現(xiàn)相互接觸的情況,并且由于其生活在三維水體中,俯視魚群時(shí),不同水體層中的魚體會(huì)出現(xiàn)重疊的情況。上述情況導(dǎo)致圖像中的魚體是連接在一起的,則這類圖像稱為粘連魚體圖像。當(dāng)圖像中只有一條魚時(shí),該圖像稱為非粘連魚體圖像?;谏鲜龆x,人工標(biāo)注粘連魚體識(shí)別數(shù)據(jù)集,則獲得粘連魚體圖像9 105張,非粘連魚體圖像18 731張。

        1.3 粘連魚體識(shí)別模型

        1.3.1 基于深度可分離卷積網(wǎng)絡(luò)的粘連魚體識(shí)別模型構(gòu)建

        MobileNet是一種基于深度可分離卷積的輕量級(jí)深度神經(jīng)網(wǎng)絡(luò),具有較低的參數(shù)量和計(jì)算量,可應(yīng)用于手機(jī)等智能終端[27]。因此,本研究選用該網(wǎng)絡(luò)構(gòu)建分類模型,識(shí)別出粘連魚體和非粘連魚體。本研究提出了一種粘連魚體識(shí)別模型的網(wǎng)絡(luò)結(jié)構(gòu),如圖4所示。該模型由輸入層、卷積層、池化層和全連接層構(gòu)成。其中,卷積層由1個(gè)傳統(tǒng)卷積和13個(gè)深度可分離卷積塊構(gòu)成,傳統(tǒng)卷積由32個(gè)3×3步長(zhǎng)為2的卷積核、批量規(guī)范化和激活函數(shù)構(gòu)成,深度可分離卷積塊由卷積核尺寸為3×3的深度可分離卷積、卷積核尺寸為1×1的傳統(tǒng)卷積、批量規(guī)范化和激活函數(shù)構(gòu)成。

        首先將粘連魚體圖像的尺寸縮放至224×224像素作為模型輸入圖像;其次采用卷積核尺寸為3×3像素的傳統(tǒng)卷積對(duì)輸入圖像進(jìn)行特征提?。辉偻ㄟ^(guò)深度可分離卷積進(jìn)行特征提取,并采用卷積核尺寸為1×1像素的傳統(tǒng)卷積進(jìn)行通道處理,這一過(guò)程重復(fù)多次;然后通過(guò)平均池化層實(shí)現(xiàn)特征圖的壓縮降維;最后通過(guò)全連接層對(duì)卷積層和池化層提取的高維圖像特征進(jìn)行降維平鋪,將結(jié)果輸入到Softmax分類器中實(shí)現(xiàn)粘連魚體和非粘連魚體的識(shí)別。

        深度可分離卷積將傳統(tǒng)的卷積操作分為深度卷積操作和傳統(tǒng)卷積操作,以此減少卷積操作的參數(shù)量和計(jì)算量。假設(shè)輸入特征圖尺寸為DF×DF像素,輸入通道數(shù)為M個(gè),卷積核尺寸為DK×DK像素,輸出通道數(shù)為N個(gè),則傳統(tǒng)卷積的計(jì)算量R1和深度可分離卷積的計(jì)算量R2的數(shù)學(xué)表達(dá)式分別如式(1)和式(2)所示:

        深度可分離卷積與傳統(tǒng)卷積的計(jì)算量比如式(3)所示:

        由式(3)可知,深度可分離卷積計(jì)算量的減少與輸出通道數(shù)和使用的卷積核尺寸相關(guān)。例如,當(dāng)卷積核尺寸為3×3像素,輸出通道數(shù)為64個(gè)時(shí),深度可分離卷積比傳統(tǒng)卷積減少了約8~9倍的計(jì)算量。

        在MobileNet中應(yīng)用深度可分離卷積時(shí)加入了批量規(guī)范化(Batch Normalization, BN),并使用了修正線性單元(Rectified Linear Unit,ReLU)中的ReLU6作為激活函數(shù),其結(jié)構(gòu)如圖5所示。

        引入BN是為了在模型訓(xùn)練過(guò)程中動(dòng)態(tài)調(diào)整一個(gè)批量數(shù)據(jù)的均值和標(biāo)準(zhǔn)差,以保證網(wǎng)絡(luò)容量、加快網(wǎng)絡(luò)訓(xùn)練速度、提高網(wǎng)絡(luò)泛化能力。其具體計(jì)算步驟如下:

        假設(shè)輸入數(shù)據(jù)為X=X1…m,xi表示輸入的第i個(gè)數(shù)據(jù),共輸入m個(gè)數(shù)據(jù),輸出數(shù)據(jù)為yi,此批量數(shù)據(jù)X的均值和方差分別為μx和σx2,其計(jì)算如式(4)和式(5)所示:

        進(jìn)行數(shù)據(jù)歸一化得到x?i和yi的值分別如式(6)和式(7)所示:

        式中x?i為對(duì)xi進(jìn)行歸一化后得到的值,ε為防止除0引入的極小量,γ為尺度因子,β為平移因子。

        激活函數(shù)采用ReLU6函數(shù)。假設(shè)a表示輸入特征值,則ReLU在a>0的區(qū)域使用a進(jìn)行線性激活,有可能造成激活后的值太大,影響模型的穩(wěn)定性,為抵消ReLU函數(shù)的線性增長(zhǎng)部分,使用了ReLU6函數(shù),其計(jì)算如式(8)所示:

        1.3.2 基于遷移學(xué)習(xí)的粘連魚體識(shí)別模型訓(xùn)練

        深度學(xué)習(xí)模型的訓(xùn)練階段分為2種策略,一種是在搭建的模型上從頭開始訓(xùn)練,另一種是通過(guò)預(yù)訓(xùn)練模型進(jìn)行訓(xùn)練,即遷移學(xué)習(xí)。遷移學(xué)習(xí)減少了構(gòu)建深度學(xué)習(xí)模型所需的訓(xùn)練數(shù)據(jù)、計(jì)算力,能夠很好地解決小數(shù)據(jù)集容易在復(fù)雜網(wǎng)絡(luò)上的過(guò)擬合問(wèn)題[28]。因此,本研究運(yùn)用遷移學(xué)習(xí)思想,充分利用MobileNet網(wǎng)絡(luò)模型在ImageNet數(shù)據(jù)集上學(xué)習(xí)到的大量知識(shí),將其用于粘連魚體圖像分類識(shí)別問(wèn)題。

        遷移學(xué)習(xí)包含2種訓(xùn)練機(jī)制,其一,凍結(jié)卷積層,只對(duì)全連接層進(jìn)行訓(xùn)練;其二,對(duì)所有層進(jìn)行訓(xùn)練。基于這2種訓(xùn)練機(jī)制,本研究采用了下述2種方式訓(xùn)練粘連魚體識(shí)別模型,基于試驗(yàn)結(jié)果,選擇出效果較好的一種遷移學(xué)習(xí)訓(xùn)練方式。訓(xùn)練方式1:凍結(jié)全部卷積層,只對(duì)全連接層進(jìn)行粗略訓(xùn)練。訓(xùn)練方式2:首先凍結(jié)全部卷積層,只對(duì)全連接層進(jìn)行粗略訓(xùn)練,其次解凍卷積層,對(duì)所有層進(jìn)行精調(diào)訓(xùn)練。

        1.4 參數(shù)設(shè)置及評(píng)價(jià)與試驗(yàn)環(huán)境

        1.4.1 參數(shù)設(shè)置及評(píng)價(jià)

        本研究粘連魚體識(shí)別圖像數(shù)據(jù)集共27 836張,隨機(jī)選擇90%用于訓(xùn)練,10%用于測(cè)試,即訓(xùn)練集包含25 052張圖像,測(cè)試集包含2 784張圖像。訓(xùn)練集中包含用于模型訓(xùn)練的圖像和模型驗(yàn)證的圖像,兩者比例為9:1。

        綜合考慮硬件設(shè)備性能及訓(xùn)練效果,試驗(yàn)每批次送入網(wǎng)絡(luò)中的訓(xùn)練和測(cè)試圖像都是4幅,即批尺寸設(shè)置為4,動(dòng)量參數(shù)設(shè)置為0.9,迭代次數(shù)為100。采用Adam優(yōu)化算法[29],分別設(shè)置初始學(xué)習(xí)率為0.01、0.001和0.000 1,基于試驗(yàn)結(jié)果選擇出效果較好的學(xué)習(xí)率。損失函數(shù)采用交叉熵?fù)p失函數(shù)的損失值(loss value,Vloss)[30],計(jì)算如式(9)所示:

        式中y?jc表示第j個(gè)魚體圖像屬于第c類的真實(shí)概率;yjc表示第j個(gè)魚體圖像屬于第c類的預(yù)測(cè)概率;n表示魚體圖像的總數(shù)量。

        采用準(zhǔn)確率(Accuracy)作為評(píng)價(jià)指標(biāo),其計(jì)算如式(10)所示:

        式中t表示正確識(shí)別的魚體圖像數(shù)量。

        為了進(jìn)一步驗(yàn)證本研究提出的基于深度可分離卷積網(wǎng)絡(luò)的粘連魚體識(shí)別方法的優(yōu)越性,將其與基于支持向量機(jī)(Support Vector Machine,SVM)和基于反向傳遞神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network,BPNN)的機(jī)器學(xué)習(xí)識(shí)別方法進(jìn)行了對(duì)比試驗(yàn)。SVM和BPNN識(shí)別

        方法中采用目前常用的粘連目標(biāo)識(shí)別特征連通區(qū)域面積A和連通區(qū)域復(fù)雜度C作為模型分類特征。連通區(qū)域復(fù)雜度的計(jì)算如式(11)所示:

        式中P表示連通區(qū)域周長(zhǎng)。

        1.4.2 試驗(yàn)環(huán)境

        本研究試驗(yàn)的硬件環(huán)境:操作系統(tǒng)為64位Windows 10,中央處理器(Central Processing Unit,CPU)為Intel(R)Core(TM) i5-9300H,主頻為2.4 GHz,內(nèi)存為8 GB,圖形處理器(Graphics Processing Unit,GPU)為NVIDIA GeForce GTX 1660Ti;軟件配置:運(yùn)算平臺(tái)為Cuda Toolkit 10.0.130,深度神經(jīng)網(wǎng)絡(luò)的GPU加速庫(kù)為Cudnn 10.0,編程語(yǔ)言為Python,深度學(xué)習(xí)庫(kù)為Keras 2.1.5 和Tensorflow-gpu 1.13.2。SVM方法基于Python軟件中的機(jī)器學(xué)習(xí)庫(kù)Scikit-learn(Sklearn)實(shí)現(xiàn),BPNN方法基于Python軟件中的深度學(xué)習(xí)庫(kù)Keras實(shí)現(xiàn)。

        2 結(jié)果與分析

        2.1 粘連魚體識(shí)別模型驗(yàn)證結(jié)果

        本研究提出了一個(gè)基于深度可分離卷積網(wǎng)絡(luò)的粘連魚體識(shí)別模型,實(shí)現(xiàn)了粘連魚體的識(shí)別。在模型訓(xùn)練過(guò)程中,分別采用了2種不同的遷移學(xué)習(xí)訓(xùn)練方式(訓(xùn)練方式1和訓(xùn)練方式2),設(shè)置了3種不同的常見學(xué)習(xí)率(0.01、0.001和0.000 1),以選出較好的遷移學(xué)習(xí)訓(xùn)練方式和學(xué)習(xí)率。采用不同遷移學(xué)習(xí)訓(xùn)練方式和不同學(xué)習(xí)率在訓(xùn)練集和驗(yàn)證集上的訓(xùn)練和驗(yàn)證結(jié)果如表1所示。

        由表1可知,在2種遷移學(xué)習(xí)訓(xùn)練方式和3種學(xué)習(xí)率的組合下,基于深度可分離卷積網(wǎng)絡(luò)的粘連魚體識(shí)別方法在訓(xùn)練集和驗(yàn)證集上的準(zhǔn)確率均較高,表明了該方法的有效性,能夠準(zhǔn)確識(shí)別出粘連魚體。當(dāng)采用遷移學(xué)習(xí)訓(xùn)練方式2在學(xué)習(xí)率為0.000 1時(shí),基于深度可分離卷積網(wǎng)絡(luò)的粘連魚體識(shí)別方法在訓(xùn)練集上的準(zhǔn)確率為100%,在驗(yàn)證集上的準(zhǔn)確率為99.60%,優(yōu)于其他訓(xùn)練方式與學(xué)習(xí)率的組合,取得最好的結(jié)果,因此最終確定為本研究方法。

        表1 基于深度可分離卷積網(wǎng)絡(luò)的粘連魚體識(shí)別模型訓(xùn)練和驗(yàn)證結(jié)果Table 1 Training and validation results of recognition model for adhesive fish based on depthwise separable convolution network

        2.1.1 不同遷移學(xué)習(xí)訓(xùn)練方式試驗(yàn)結(jié)果對(duì)比

        遷移學(xué)習(xí)中基于預(yù)訓(xùn)練模型,采取不同的訓(xùn)練方式對(duì)于模型的收斂速度和準(zhǔn)確率均有一定影響。采用2種不同遷移學(xué)習(xí)訓(xùn)練方式在學(xué)習(xí)率為0.000 1時(shí)分別得到的損失值曲線和準(zhǔn)確率曲線如圖6所示。當(dāng)遷移學(xué)習(xí)采用訓(xùn)練方式1時(shí),模型的收斂速度很慢。完成100次訓(xùn)練后,模型在訓(xùn)練集上獲得的最小損失值為0.243,最大準(zhǔn)確率為91.33%,模型在驗(yàn)證集上獲得的最小損失值為0.301,最大準(zhǔn)確率為88.38%。損失值較大,準(zhǔn)確率較低,且2個(gè)指標(biāo)在訓(xùn)練集和驗(yàn)證集上獲得的值相差較大。當(dāng)遷移學(xué)習(xí)采用訓(xùn)練方式2時(shí),在粗略訓(xùn)練階段,模型在訓(xùn)練集上獲得的最小損失值為0.245,最大準(zhǔn)確率為91.22%,模型在驗(yàn)證集上獲得的最小損失值為0.453,最大準(zhǔn)確率為83.23%,該階段損失值較大,準(zhǔn)確率較低。在精調(diào)訓(xùn)練階段,模型在訓(xùn)練集上獲得的最小損失值為0,最大準(zhǔn)確率為100%,模型在驗(yàn)證集上獲得的最小損失值為0.032,最大準(zhǔn)確率為99.60%,該階段損失值大幅度降低,準(zhǔn)確率大幅度提升。上述結(jié)果表明,進(jìn)行遷移學(xué)習(xí)時(shí),精調(diào)階段的訓(xùn)練有助于模型快速收斂。

        2.1.2 不同學(xué)習(xí)率試驗(yàn)結(jié)果對(duì)比

        學(xué)習(xí)率是深度學(xué)習(xí)模型訓(xùn)練過(guò)程中的重要超參數(shù),表示每次更新參數(shù)的幅度。合適的學(xué)習(xí)率可以加快模型訓(xùn)練收斂速度。采用遷移學(xué)習(xí)訓(xùn)練方式2在不同學(xué)習(xí)率下分別得到的訓(xùn)練集和驗(yàn)證集的損失值曲線和準(zhǔn)確率曲線圖,如圖7所示。當(dāng)學(xué)習(xí)率設(shè)置為0.01時(shí),在粗略訓(xùn)練階段,模型在訓(xùn)練集上獲得的最小損失值為1.275,最大準(zhǔn)確率為91.34%,在驗(yàn)證集上獲得的最小損失值為0.896,最大準(zhǔn)確率為92.93%,在精調(diào)訓(xùn)練階段,模型在訓(xùn)練集上獲得的最小損失值為5.254,最大準(zhǔn)確率為67.41%,在驗(yàn)證集上獲得的最小損失值為5.130,最大準(zhǔn)確率為68.17%。由此可見,在該學(xué)習(xí)率下,模型在訓(xùn)練集和驗(yàn)證集上的損失值和準(zhǔn)確率均沒有收斂到一個(gè)較好的值。并且,在進(jìn)入遷移學(xué)習(xí)的精調(diào)階段后,在粗略訓(xùn)練的基礎(chǔ)上,損失值大幅度上升,而準(zhǔn)確率大幅度下降。原因在于,過(guò)大的學(xué)習(xí)率引起損失值梯度爆炸,參數(shù)更新過(guò)快,破壞了遷移學(xué)習(xí)中原本訓(xùn)練好的權(quán)重信息,使遷移學(xué)習(xí)失去了意義。當(dāng)學(xué)習(xí)率設(shè)置為0.001時(shí),模型在訓(xùn)練集上獲得的最小損失值為0,最大準(zhǔn)確率為100%,在驗(yàn)證集上獲得的最小損失值為0.028,最大準(zhǔn)確率為99.44%。當(dāng)學(xué)習(xí)率設(shè)置為0.000 1時(shí),模型在訓(xùn)練集上獲得的最小損失值為0,最大準(zhǔn)確率為100%,在驗(yàn)證集上獲得的最小損失值為0.032,最大準(zhǔn)確率為99.60%。由圖7可以看出,在這2個(gè)學(xué)習(xí)率下,模型在訓(xùn)練集和驗(yàn)證集上的損失值和準(zhǔn)確率均快速收斂并趨于平穩(wěn),且當(dāng)學(xué)習(xí)率為0.000 1時(shí),模型的性能最好。

        2.2 識(shí)別模型試驗(yàn)結(jié)果對(duì)比

        將本研究提出的基于深度可分離卷積網(wǎng)絡(luò)的粘連魚體識(shí)別方法與基于SVM和基于BPNN的機(jī)器學(xué)習(xí)識(shí)別方法進(jìn)行了對(duì)比,試驗(yàn)設(shè)置和結(jié)果如表2所示。由表2可知,本研究提出的粘連魚體識(shí)別方法在測(cè)試集上的識(shí)別準(zhǔn)確率為99.32%,相較于基于SVM的93.86%和BPNN的67.03%,分別提高了5.46個(gè)百分點(diǎn)和32.29個(gè)百分點(diǎn)。由此可見,本研究方法的性能優(yōu)于基于SVM和BPNN的機(jī)器學(xué)習(xí)識(shí)別方法。原因在于上述2種機(jī)器學(xué)習(xí)識(shí)別方法依賴于手動(dòng)提取特征,難以基于實(shí)際數(shù)據(jù)和具體對(duì)象進(jìn)行特征的自適應(yīng)調(diào)整。

        表2 識(shí)別模型對(duì)比試驗(yàn)的參數(shù)設(shè)置和結(jié)果Table 2 Parameter settings and results of comparative experiments for recognition models

        綜上,本研究提出的基于深度可分離卷積網(wǎng)絡(luò)的粘連魚體識(shí)別方法在訓(xùn)練集、驗(yàn)證集和測(cè)試集上均取得很高的準(zhǔn)確率,驗(yàn)證了本研究方法的有效性;與基于SVM和BPNN的機(jī)器學(xué)習(xí)識(shí)別方法相比,準(zhǔn)確率均有提升,表明了本研究方法的優(yōu)越性。本研究方法實(shí)現(xiàn)了粘連魚體的準(zhǔn)確識(shí)別,對(duì)于提升水產(chǎn)養(yǎng)殖自動(dòng)化、智能化具有重要意義。

        3 結(jié) 論

        針對(duì)目前粘連魚體識(shí)別方法準(zhǔn)確率低、普適性差等問(wèn)題,本研究提出了一種基于深度可分離卷積網(wǎng)絡(luò)的粘連魚體識(shí)別方法。該方法是進(jìn)行后續(xù)魚體圖像處理的關(guān)鍵,對(duì)于及時(shí)準(zhǔn)確地進(jìn)行水產(chǎn)養(yǎng)殖中的密度估算、魚群計(jì)數(shù),實(shí)現(xiàn)漁業(yè)自動(dòng)化、智能化具有重要意義。主要結(jié)論如下:

        1)在學(xué)習(xí)率分別為0.01、0.001和0.000 1時(shí),粗略訓(xùn)練與精調(diào)訓(xùn)練相結(jié)合的遷移學(xué)習(xí)訓(xùn)練方式獲得的驗(yàn)證準(zhǔn)確率分別為92.93%、99.44%和99.60%,僅采用對(duì)全連接層進(jìn)行粗略訓(xùn)練的遷移學(xué)習(xí)訓(xùn)練方式獲得的驗(yàn)證準(zhǔn)確率分為91.41%、92.01%和88.38%,前者的訓(xùn)練效果更好。

        2)當(dāng)采用對(duì)全連接層進(jìn)行粗略訓(xùn)練和對(duì)所有層進(jìn)行精調(diào)訓(xùn)練相結(jié)合的遷移學(xué)習(xí)訓(xùn)練方式,在學(xué)習(xí)率為0.000 1時(shí),模型快速收斂并取得最好的訓(xùn)練準(zhǔn)確率、驗(yàn)證準(zhǔn)確率和測(cè)試準(zhǔn)確率,分別為100%、99.60%和99.32%,識(shí)別效果最好。

        3)與基于支持向量機(jī)(Support Vector Machine,SVM)和基于反向傳遞神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network,BPNN)的機(jī)器學(xué)習(xí)識(shí)別方法對(duì)比,識(shí)別準(zhǔn)確率分別提高了5.46個(gè)百分點(diǎn)和32.29個(gè)百分點(diǎn),表明本研究提出的方法能夠根據(jù)實(shí)際數(shù)據(jù)和具體識(shí)別對(duì)象進(jìn)行特征的自適應(yīng)調(diào)整,更加準(zhǔn)確地實(shí)現(xiàn)粘連魚體的識(shí)別。

        猜你喜歡
        魚群魚體集上
        軸流泵內(nèi)魚體的運(yùn)動(dòng)行為與撞擊損傷分析
        淡水魚水平往復(fù)振動(dòng)頭尾定向輸送方法
        Cookie-Cutter集上的Gibbs測(cè)度
        淡水魚腹背定向裝置設(shè)計(jì)及試驗(yàn)
        鏈完備偏序集上廣義向量均衡問(wèn)題解映射的保序性
        復(fù)扇形指標(biāo)集上的分布混沌
        魚群漩渦
        中外文摘(2017年19期)2017-10-10 08:28:41
        基于改進(jìn)魚群優(yōu)化支持向量機(jī)的短期風(fēng)電功率預(yù)測(cè)
        基于人工魚群算法的光伏陣列多峰MPPT控制策略
        多子群并行人工魚群算法的改進(jìn)研究
        精品久久久无码中文字幕| 亚洲一区二区三区四区精品在线| 日本熟妇美熟bbw| 亚洲av无码片在线观看| 中文字幕日产人妻久久| 中文字幕专区一区二区| 一本色道久久hezyo无码| 无码av免费一区二区三区试看| 伊人久久大香线蕉在观看| 色av色婷婷18人妻久久久| 一边摸一边做爽的视频17国产| 久热这里只有精品视频6| 久久久久亚洲精品天堂| 久久精品天堂一区二区| 成人欧美一区二区三区在线 | 国产在线观看91一区二区三区| 少妇无码av无码一区| 中字无码av电影在线观看网站 | 少妇久久一区二区三区| 久久99精品久久久久婷婷| 麻豆国产人妻欲求不满谁演的| 精品久久杨幂国产杨幂| 午夜视频在线观看国产19| 97日日碰曰曰摸日日澡| 日韩毛片在线| 国产一区二区精品久久呦| 国产亚洲欧美精品永久| 在教室伦流澡到高潮hgl视频| 亚州毛色毛片免费观看| 亚洲国产精品av麻豆网站| 99国产精品自在自在久久| 亚洲一区综合精品狠狠爱| 亚洲第一页在线观看视频网站| 亚洲国产精品无码aaa片| 久久国产精久久精产国| 漂亮的小少妇诱惑内射系列| 亚洲av综合av一区| 老师粉嫩小泬喷水视频90| 亚洲精品成人av一区二区| av天堂网手机在线观看| 人妻哺乳奶头奶水|