亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于L(2+1)D的養(yǎng)殖魚類攝食狀態(tài)下活躍程度識(shí)別方法

        2024-09-20 00:00:00唐曉萌繆新穎
        現(xiàn)代電子技術(shù) 2024年8期
        關(guān)鍵詞:圖像預(yù)處理卷積神經(jīng)網(wǎng)絡(luò)特征提取

        摘" 要: 魚類行為的活躍程度是魚類行為研究中的關(guān)鍵指標(biāo),可為水產(chǎn)養(yǎng)殖過程提供有用的基礎(chǔ)數(shù)據(jù)。然而現(xiàn)有的計(jì)算機(jī)視覺方法在活躍程度識(shí)別的應(yīng)用中依賴于大量存儲(chǔ)和計(jì)算資源,在實(shí)際場(chǎng)景中實(shí)用性較差。為了解決這些問題,提出一種魚類攝食活動(dòng)識(shí)別模型——L(2+1)D,將3D卷積分解為2D大空間卷積和1D時(shí)間卷積,使用少量的大型卷積核來增加感受野,實(shí)現(xiàn)更強(qiáng)大的特征提取效果。將空間卷積和時(shí)間卷積串聯(lián)成用于時(shí)空特征學(xué)習(xí)的時(shí)空模塊,并減少時(shí)空模塊數(shù)量,達(dá)到減少參數(shù)數(shù)量的同時(shí)提高準(zhǔn)確性的效果。實(shí)驗(yàn)結(jié)果表明,所提方法可以在實(shí)際水產(chǎn)養(yǎng)殖中準(zhǔn)確識(shí)別魚群的活躍程度,準(zhǔn)確率可達(dá)到65.02%,并更適合部署在資源受限的設(shè)備或現(xiàn)場(chǎng)。

        關(guān)鍵詞: 魚類活躍程度; 卷積神經(jīng)網(wǎng)絡(luò); 圖像預(yù)處理; 特征提取; 時(shí)空特征學(xué)習(xí); 行為量化

        中圖分類號(hào): TN957.52?34" " " " " " " " " " " " "文獻(xiàn)標(biāo)識(shí)碼: A" " " " " " " " " " " "文章編號(hào): 1004?373X(2024)08?0155?05

        Method for identifying activity level of cultivated fish under feeding state based on L(2+1)D

        TANG Xiaomeng1, MIAO Xinying1, 2

        (1. Information Engineering College, Dalian Ocean University, Dalian 116023, China;

        2. Key Laboratory of Environment Controlled Aquaculture, Ministry of Education, Dalian 116023, China)

        Abstract: The activity level of fish behavior is a key indicator in the fish behavior research, providing useful basic data for aquaculture processes. The existing methods based on computer vision rely on a large amount of storage and computing resources in the application of activity level recognition, which has poor practicality in practical scenarios. To address these limitations, a fish feeding activity recognition model named L(2+1)D is proposed. 3D convolution is decomposed into 2D large spatial convolution and 1D temporal convolution. A small number of large convolutional kernels are used to increase receptive fields, so as to realize a more powerful feature extraction effect. The spatial convolution and temporal convolution are concatenated into spatiotemporal modules for feature extraction, and the number of spatiotemporal modules is reduced, achieve the effect of reducing the number of parameters while improving accuracy. The experimental results show that the proposed method can accurately identify the activity level of fish schools in actual aquaculture, with an accuracy rate of 65.02%, and is more suitable for deployment in resource limited equipment or sites.

        Keywords: fish activity level; convolutional neural network; image preprocessing; feature extraction; spatiotemporal features learning; behavioral quantification

        0" 引" 言

        隨著我國水產(chǎn)養(yǎng)殖產(chǎn)量穩(wěn)步增長,實(shí)現(xiàn)水產(chǎn)養(yǎng)殖智能化、自動(dòng)化、數(shù)字化是水產(chǎn)養(yǎng)殖可持續(xù)發(fā)展的必然趨勢(shì)。其中,魚類活躍程度識(shí)別在實(shí)際場(chǎng)景中扮演著重要的角色,具有多方面的意義和應(yīng)用[1]。魚類攝食狀態(tài)下活躍程度的識(shí)別對(duì)于魚類養(yǎng)殖和捕撈具有重要的意義。在養(yǎng)殖過程中,了解魚類的攝食狀態(tài)和活躍程度可以幫助養(yǎng)殖者調(diào)整飼料的投放量和時(shí)間,以保證魚類的健康和生長[2]。在捕撈過程中,了解魚類的活躍程度可以幫助漁民選擇更有效的捕撈方法和工具,提高捕撈效率和收益。此外,魚類攝食狀態(tài)下活躍程度的識(shí)別還可以幫助科學(xué)家研究魚類的行為和生態(tài)習(xí)性,為保護(hù)和管理水生生物資源提供重要的參考依據(jù)[3]。

        目前,魚類在攝食狀態(tài)下的活躍程度識(shí)別仍然主要依賴養(yǎng)殖者的經(jīng)驗(yàn)。使用人工直接觀測(cè)魚類行為來辨別魚類攝食強(qiáng)弱的方法,在養(yǎng)殖中具有應(yīng)用局限性[4],比如:費(fèi)時(shí)費(fèi)力、觀察結(jié)果難以參數(shù)化。這可能導(dǎo)致飼喂不足或過度飼喂。攝食不足可能會(huì)影響魚類的生長速度,降低肌肉轉(zhuǎn)化率,影響生產(chǎn)效率,極端情況會(huì)導(dǎo)致同類之間出現(xiàn)搶食行為和相互攻擊現(xiàn)象[5]。另一方面,過度喂養(yǎng)可能會(huì)導(dǎo)致食物浪費(fèi),提高養(yǎng)殖成本[6]。而且殘留在水中的飼料會(huì)產(chǎn)生氨氮和有害的硝酸鹽化合物,這些化合物會(huì)影響魚類的健康生長、污染水質(zhì)環(huán)境,進(jìn)而影響可持續(xù)發(fā)展[7]。

        在早期階段,傳統(tǒng)手工方法是常用且有效的方法,但需要依賴人的專業(yè)知識(shí)提取目標(biāo)特征,包括背景模型[8]、幀差分方法[9]、光流技術(shù)[10]。這些方法會(huì)受到水面反射噪聲的擾動(dòng)或超參數(shù)輕微波動(dòng)的影響,導(dǎo)致網(wǎng)絡(luò)不穩(wěn)定[11]。計(jì)算機(jī)視覺與深度學(xué)習(xí)技術(shù)的深度融合以快速、高效、非入侵、無需人工干預(yù)等特點(diǎn),為魚類活躍程度識(shí)別方法提供一種潛在的解決方案[12]。因此,本文提出了一種基于深度學(xué)習(xí)的養(yǎng)殖魚類在攝食狀態(tài)下活躍程度識(shí)別方法,旨在探究養(yǎng)殖魚類攝食狀態(tài)下活躍程度與水花信號(hào)特征之間的關(guān)系;同時(shí),探索一種客觀、精準(zhǔn)、實(shí)時(shí)、有效的魚類活躍程度識(shí)別方法,為攝食狀態(tài)的行為分析、攝食量化評(píng)估提供基礎(chǔ)數(shù)據(jù)。該識(shí)別方法成為飼料智能投喂研究課題的一項(xiàng)重要研究內(nèi)容,為養(yǎng)殖魚類活躍程度研究在現(xiàn)實(shí)方面的應(yīng)用提供一種新的思路[13]。

        1" 圖像數(shù)據(jù)采集與預(yù)處理

        1.1" 圖像采集

        本研究在大連海洋大學(xué)水產(chǎn)養(yǎng)殖設(shè)施與裝備工程研究中心進(jìn)行,采用4套循環(huán)水綜合實(shí)驗(yàn)系統(tǒng),每個(gè)系統(tǒng)有3個(gè)養(yǎng)殖桶,養(yǎng)殖桶直徑為0.93 m,桶高為1 m,取水量為0.8 m3/h。實(shí)驗(yàn)以褐點(diǎn)石斑魚為研究對(duì)象,平均規(guī)格為100 g。在119尾試驗(yàn)魚背部肌肉注射電子芯片標(biāo)記,追蹤每個(gè)個(gè)體的生長信息。水產(chǎn)養(yǎng)殖系統(tǒng)自動(dòng)排放污染物并補(bǔ)充水,水源為經(jīng)過沉淀的天然海水。蓋住養(yǎng)殖桶的頂部以遮擋光線,光源為全光譜LED燈。燈的開關(guān)是自動(dòng)控制的,攝像系統(tǒng)采用定點(diǎn)俯拍。攝像頭距離水面0.5 m,可以清晰捕捉到全水面圖像,并記錄下投餌前1 min到餌料吃完后1 min的完整視頻。在一個(gè)喂魚期,共采集70個(gè)完整的喂魚視頻進(jìn)行剪輯,分辨率為480×270像素。整個(gè)系統(tǒng)在第16車間E6養(yǎng)殖池,池塘大小為6.7 m×6.7 m×1.2 m,水深約1 m。將照相機(jī)放置于培養(yǎng)池上方1.5 m處,整個(gè)系統(tǒng)如圖1所示。

        1.2" 建立數(shù)據(jù)集

        從采集的視頻數(shù)據(jù)中捕獲視頻幀,獲得魚群圖像以構(gòu)建本文的數(shù)據(jù)集。由于視頻每秒有24幀,并且為了避免構(gòu)造的數(shù)據(jù)集中的相似圖像問題,通過每4幀拍攝圖像來獲得魚群圖像。此外,與魚群圖像相似度較高的圖像被手動(dòng)消除。所獲得的魚群圖像為紅綠藍(lán)(RGB)jpg格式,大小為2 560×1 920。根據(jù)魚類活動(dòng)程度將視頻分為強(qiáng)攝食狀態(tài)(186個(gè)短視頻)、弱攝食狀態(tài)(217個(gè)短視頻)和無攝食狀態(tài)(216個(gè)短視頻)3個(gè)不同的類別。整個(gè)數(shù)據(jù)集按照2∶1的比例分為訓(xùn)練集和驗(yàn)證集,具體分布如表1所示。

        2" 基于卷積神經(jīng)網(wǎng)絡(luò)的魚類活躍程度識(shí)別模型的實(shí)現(xiàn)

        2.1" 識(shí)別魚類活躍程度模型總體設(shè)計(jì)

        為判斷魚類在攝食狀態(tài)下的活躍程度,本文提出了一種基于L(2+1)D的魚類在攝食狀態(tài)下活躍程度的識(shí)別方法,以實(shí)現(xiàn)水產(chǎn)養(yǎng)殖中的魚類行為分析、按需攝食。將數(shù)據(jù)集的視頻信號(hào)作為輸入信息送入網(wǎng)絡(luò),首先進(jìn)行切幀、隨即裁剪等圖像預(yù)處理操作,輸出的圖像進(jìn)入計(jì)算機(jī)視覺模型,將特征圖先后進(jìn)行空間上和時(shí)間上的特征提取,通過計(jì)算得到行為量化結(jié)果,采用Softmax函數(shù)取得概率最大值來判斷魚類活躍程度的類別,即無攝食、強(qiáng)攝食和弱攝食三種狀態(tài)。魚類活躍程度實(shí)驗(yàn)框圖如圖2所示。

        2.2" 數(shù)據(jù)集預(yù)處理

        由于數(shù)據(jù)集中魚群圖像背景復(fù)雜、光照不均勻、亮度和色調(diào)都有一些變化,因此在喂食圖像中存在大量的魚和魚之間的顯著重疊。通過對(duì)魚群圖像進(jìn)行預(yù)處理,增強(qiáng)了數(shù)據(jù)樣本的多樣性,提高了模型的性能。首先,從采集到的視頻數(shù)據(jù)中獲取視頻幀,構(gòu)建魚群圖像的數(shù)據(jù)集,總共73 474幅RGB幀圖像,具體分為:用于無喂食狀態(tài)的22 888個(gè)圖像、用于強(qiáng)喂食狀態(tài)的23 728個(gè)圖像以及用于弱喂食狀態(tài)的26 858個(gè)圖像。其次,對(duì)魚群圖像進(jìn)行隨機(jī)寬高比裁剪,將圖像隨機(jī)裁剪成不同的大小和寬高比。

        在此前提下,通過改變旋轉(zhuǎn)角度和旋轉(zhuǎn)中心點(diǎn)對(duì)圖像進(jìn)行隨機(jī)旋轉(zhuǎn),再將旋轉(zhuǎn)圖像修剪為統(tǒng)一大小。最后,魚群圖像在亮度、對(duì)比度、飽和度和色調(diào)方面被隨機(jī)改變,達(dá)到數(shù)據(jù)增強(qiáng)的目的,增加了訓(xùn)練樣本的多樣性,從而提高模型的泛化能力和魯棒性。

        三種攝食行為的RGB幀圖像如圖3所示。

        2.3" L(2+1)D識(shí)別模型

        在真實(shí)高密度水養(yǎng)殖場(chǎng)景下,魚類大多具有集群行為,以不同的狀態(tài)分布運(yùn)動(dòng)。本文中魚群圖像特征提取是通過提取水面上的代表性信息來描述整個(gè)圖像,用其作為識(shí)別魚群活躍程度的基礎(chǔ)。本文提出的L(2+1)D模型是一種在R(2+1)D網(wǎng)絡(luò)基礎(chǔ)上改進(jìn)的魚類活躍程度識(shí)別模型,將3D卷積分開成2D空間卷積和1D時(shí)間卷積,并將增加空間卷積核尺寸和調(diào)整輸入時(shí)間幀數(shù)的方法應(yīng)用在水下視頻特征提取中,2D空間卷積在空間維度上對(duì)圖像進(jìn)行特征提取。L(2+1)D網(wǎng)絡(luò)的總體結(jié)構(gòu)如圖4所示。

        針對(duì)分類任務(wù)需要上下文信息、3×3卷積核的感受野小且提取特征過少的問題,首先,在特征提取的骨干網(wǎng)絡(luò)中改變空間卷積核的尺寸,將原有的3×3卷積核增大到25×25,同時(shí)通過重參數(shù)化將尺寸為5×5的小卷積核提取的特征與大卷積核提取的特征相融合,給模型提供了足夠大的感受野和更好地聚合空間信息的能力,使模型在特征提取時(shí)更加準(zhǔn)確,進(jìn)而提升識(shí)別精度。其次,由于2D卷積僅僅考慮到視頻空間維度的信息,而沒有考慮到時(shí)間維度的幀間運(yùn)動(dòng)信息,本研究提出的模型在關(guān)注空間信息的同時(shí)也考慮到視頻信號(hào)的時(shí)間信息,并在時(shí)間維度上改變幀間間隔,即使用快速刷新時(shí)間分辨率來有效地對(duì)快速變化的運(yùn)動(dòng)進(jìn)行建模,以便于網(wǎng)絡(luò)能看見更多的水花信息,有利于魚類活躍程度的識(shí)別。最后,減少時(shí)空模塊的數(shù)量,即減少2D空間卷積和1D時(shí)間卷積層數(shù),從而大幅度減少參數(shù)量,實(shí)現(xiàn)了模型輕量化,達(dá)到了數(shù)據(jù)處理即時(shí)性效果,提高了模型方法應(yīng)用的便捷性和實(shí)用性。

        在原有模型中,卷積神經(jīng)網(wǎng)絡(luò)大多通過堆疊較小的卷積來增大感受野,這會(huì)導(dǎo)致每個(gè)輸出所包含信息的范圍較小,而通過增大卷積核尺寸增加有效感受野,可包含更多的上下文信息,提高特征提取的能力。通過實(shí)驗(yàn)獲得最佳效果,達(dá)到了精準(zhǔn)識(shí)別魚類活躍程度的效果。該模型設(shè)計(jì)更易于優(yōu)化,提高了實(shí)際應(yīng)用場(chǎng)景下的識(shí)別速度。

        2.4" 行為量化結(jié)果

        在模型提取出圖像中顯著特征的基礎(chǔ)上,進(jìn)行行為量化結(jié)果分析。當(dāng)餌料投入養(yǎng)殖水池,魚類表現(xiàn)活躍且在水面處有強(qiáng)烈水花,從而判斷為魚類強(qiáng)烈攝食狀態(tài);當(dāng)魚類表現(xiàn)平靜且水面處有微弱水花時(shí),可判斷為魚類微弱攝食狀態(tài);當(dāng)餌料投入養(yǎng)殖水池后,魚類無反應(yīng)且水面處無水花,可判斷為魚類無攝食行為。隨著投喂次數(shù)增加,記錄攝食反應(yīng)時(shí)間和活躍程度持續(xù)之間的變化,確定飽食投喂次數(shù),從而確定魚群飽食量。

        3" 實(shí)驗(yàn)過程

        實(shí)驗(yàn)使用A100顯卡,通過Anaconda環(huán)境管理器安裝相關(guān)工具包,在Pycharm編譯器上實(shí)現(xiàn)Python代碼編譯,同時(shí)在PyTorch 1.10架構(gòu)上進(jìn)行模型的訓(xùn)練和測(cè)試。

        3.1" 模型訓(xùn)練

        在訓(xùn)練階段,首先將預(yù)處理后的魚群圖像輸入至L(2+1)D網(wǎng)絡(luò),在2D空間卷積和1D時(shí)間卷積上分別提取魚群圖像特征和時(shí)序信息,并在卷積層之間增加BN層,在卷積層之后,對(duì)特征圖進(jìn)行歸一化,從而加速網(wǎng)絡(luò)學(xué)習(xí),進(jìn)一步提高模型性能;其次,將提取的特征傳入2個(gè)3×3卷積核;最后,通過計(jì)算損失函數(shù)等指標(biāo)不斷優(yōu)化模型參數(shù),直至訓(xùn)練出最優(yōu)辨識(shí)模型。

        對(duì)比模型的試驗(yàn)結(jié)果,分析各改進(jìn)模塊的有效性,具體設(shè)計(jì)如下:

        1) 對(duì)每個(gè)模型均訓(xùn)練130輪,設(shè)置相同的初始學(xué)習(xí)率、損失函數(shù)等超參數(shù),具體參數(shù)設(shè)計(jì)如表2所示。

        2) 從每個(gè)模型訓(xùn)練生成的權(quán)重集合中選取最優(yōu)的權(quán)重文件,根據(jù)評(píng)估指標(biāo)比較改進(jìn)模型的提升程度。

        在推理階段,利用得到的最優(yōu)魚群攝食活躍程度識(shí)別模型對(duì)測(cè)試集中的圖像進(jìn)行測(cè)試,對(duì)魚群攝食狀態(tài)下的活躍程度圖像進(jìn)行識(shí)別,識(shí)別結(jié)果分別為強(qiáng)攝食狀態(tài)、弱攝食狀態(tài)和無攝食狀態(tài)。

        3.2" 模型評(píng)估

        3.2.1" 評(píng)估指標(biāo)

        使用不同的評(píng)價(jià)指標(biāo)可以客觀、準(zhǔn)確地評(píng)估網(wǎng)絡(luò)的檢測(cè)性能,綜合魚類活躍程度識(shí)別速度快、準(zhǔn)確率高、適應(yīng)水下環(huán)境能力強(qiáng)、部署模型靈活的要求,本研究從不同角度對(duì)模型識(shí)別效果進(jìn)行評(píng)價(jià),評(píng)價(jià)指標(biāo)為模型參數(shù)量(Params)、識(shí)別準(zhǔn)確率(Accuracy)。準(zhǔn)確率是正確和錯(cuò)誤預(yù)測(cè)的類實(shí)例的總和(TP+TN)與總實(shí)例(TP+FP+FN+TN)的比率,公式如下:

        [Accuracy=TP+TNTP+FP+TN+FN]

        3.2.2" 消融實(shí)驗(yàn)

        為評(píng)估提出的方法在不同模塊情況下的有效性,主要進(jìn)行了不同卷積核尺寸和不同卷積核個(gè)數(shù)的實(shí)驗(yàn)。通過增減時(shí)空模塊數(shù)量和改變空間卷積核大小,設(shè)計(jì)4種實(shí)驗(yàn)方案,分別是兩層的17×17、兩層25×25、三層17×17和三層25×25的空間卷積核。由消融實(shí)驗(yàn)結(jié)果可得,卷積核尺寸越大,準(zhǔn)確率越高。在魚群攝食行為數(shù)據(jù)集上驗(yàn)證了訓(xùn)練策略對(duì)算法識(shí)別性能的影響,如表3所示,在兩層空間卷積核尺寸為25×25的情況下,實(shí)驗(yàn)取得最佳效果。

        3.2.3" 對(duì)比試驗(yàn)

        為評(píng)估本文提出方法的性能,在魚群攝食行為識(shí)別數(shù)據(jù)集上將消融實(shí)驗(yàn)結(jié)果最優(yōu)方法與3種基準(zhǔn)分類方法進(jìn)行比較。在L(2+1)D訓(xùn)練過程中,原始圖像縮小至265×265,作為L(2+1)D的輸入。再進(jìn)行數(shù)據(jù)增強(qiáng),用于擴(kuò)大樣本數(shù)量,如隨機(jī)水平翻轉(zhuǎn),隨機(jī)旋轉(zhuǎn),具有亮度、對(duì)比度、飽和度的顏色抖動(dòng)。最后,使用Pytorch框架進(jìn)行了攝食行為識(shí)別算法訓(xùn)練。如表4所示,本文提出的模型在ResNet50、ResNet101的2D網(wǎng)絡(luò)基礎(chǔ)上準(zhǔn)確率分別提升了30.27%、26.33%,在R(2+1)D基礎(chǔ)上提升了23.27%。此外,在參數(shù)量方面也大幅度減少,在原模型R(2+1)D的基礎(chǔ)上減少29.98×106,便于實(shí)際應(yīng)用的部署和實(shí)現(xiàn)。

        4" 結(jié)" 論

        本文提出了一個(gè)不同的時(shí)空卷積來識(shí)別魚群攝食行為時(shí)的活躍狀態(tài),共分為三種行為狀態(tài),包括無攝食狀態(tài)、弱攝食狀態(tài)和強(qiáng)攝食狀態(tài)。該方法對(duì)養(yǎng)殖者制定最佳攝食決策、提高養(yǎng)殖效率和促進(jìn)魚類健康生長具有重要意義。此外,為了更有效地捕捉空間信息,設(shè)計(jì)了一種由大卷積核組成的新型骨干結(jié)構(gòu),即L(2+1)D。其中時(shí)空模塊的空間卷積核增大,進(jìn)一步優(yōu)化了特征提取,使魚群攝食識(shí)別更加準(zhǔn)確。本文提出的時(shí)空模塊可以很容易地取代標(biāo)準(zhǔn)卷積核,在參數(shù)量大幅度減少的情況下精度有所提升。在真實(shí)的魚類攝食視頻數(shù)據(jù)集上進(jìn)行測(cè)試,識(shí)別準(zhǔn)確率達(dá)65.02%,實(shí)驗(yàn)證明了所提方法的有效性和泛化能力。因此,所提出的方法適合于部署在資源受限的設(shè)備或?qū)崟r(shí)應(yīng)用中,并能根據(jù)魚類的攝食需求動(dòng)態(tài)調(diào)整投喂量,有效控制投喂量,降低養(yǎng)殖費(fèi)用,保證魚類健康生長,為實(shí)現(xiàn)智能魚類行為分析和智能水產(chǎn)養(yǎng)殖提供了實(shí)踐指導(dǎo)。未來的工作將探索一個(gè)在此基礎(chǔ)上優(yōu)化的基于時(shí)空數(shù)據(jù)視頻分析的模型,進(jìn)一步細(xì)化魚群的行為狀態(tài)。

        注:本文通訊作者為繆新穎。

        參考文獻(xiàn)

        [1] 楊玲.基于機(jī)器視覺的工廠化魚群攝食行為智能分析方法研究[D].北京:中國農(nóng)業(yè)大學(xué),2022.

        [2] 何佳,黃志濤,宋協(xié)法,等.基于計(jì)算機(jī)視覺技術(shù)的水產(chǎn)養(yǎng)殖中魚類行為識(shí)別與量化研究進(jìn)展[J].漁業(yè)現(xiàn)代化,2019,46(3):7?14.

        [3] 陳彩文.基于計(jì)算機(jī)視覺的魚群攝食行為分析研究[D].太原:太原理工大學(xué),2017.

        [4] YANG L, LIU Y, YU H, et al. Computer vision models in intelligent aquaculture with emphasis on fish detection and behavior analysis: a review [J]. Archives of computational methods in engineering, 2021, 28(4): 2785?2816.

        [5] YANG L, YU H H, CHENG Y L, et al. A dual attention network based on efficientNet?B2 for shortterm fish school feeding behavior analysis in aquaculture [J]. Computers and electronics in agriculture, 2021, 187: 106316.

        [6] TRAN D, WANG H, TORRESANI L, et al. A closer look at spatiotemporal convolutions for action recognition [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Salt Lake City, UT, USA: IEEE, 2018: 6450?6459.

        [7] THU T, VO E, KO H, et al. Overview of smart aquaculture system: focusing on applications of machine learning and computer vision [J]. Electronics, 2021, 10(22): 1?26.

        [8] UBINA N, CHENG S C, CHANG C C, et al. Evaluating fish feeding intensity in aquaculture with convolutional neural networks [J]. Aquacultural engineering, 2021, 94: 102178.

        [9] QIU Z, YAO T, MEI T. Learning spatio?temporal representation with pseudo?3D residual networks [C]// IEEE International Conference on Computer Vision. Venice, Italy: IEEE, 2017: 5534?5542.

        [10] WEI D, BAO E, WEN Y, et al. Behavioral spatial?temporal characteristics?based appetite assessment for fish school in recirculating aquaculture systems [J]. Aquaculture, 2021, 545: 737215.

        [11] WAGEEH Y, MOHAMED H E D, FADL A, et al. YOLO fish detection with Euclidean tracking in fish farms [J]. Journal of ambient intelligence and humanized computing, 2021, 12(1): 5?12.

        [12] BARRETO M O, REY P S, YANG Y, et al. Emerging indicators of fish welfare in aquaculture [J]. Reviews in aquaculture, 2022, 14(1): 343?361.

        [13] ZHANG L, WANG J, DUAN Q. Estimation for fish mass using image analysis and neural network [J]. Computers and electronics in agriculture, 2020, 173: 105439.

        作者簡介:唐曉萌(1997—),女,滿族,遼寧鐵嶺人,碩士,研究方向?yàn)榛谏疃葘W(xué)習(xí)的計(jì)算機(jī)視覺。

        繆新穎(1977—),女,滿族,河北承德人,博士研究生,教授,研究方向?yàn)橹悄芸刂?、?shù)據(jù)挖掘。

        猜你喜歡
        圖像預(yù)處理卷積神經(jīng)網(wǎng)絡(luò)特征提取
        基于Daubechies(dbN)的飛行器音頻特征提取
        電子制作(2018年19期)2018-11-14 02:37:08
        Bagging RCSP腦電特征提取算法
        基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識(shí)別算法
        基于LabVIEW雛雞雌雄半自動(dòng)鑒別系統(tǒng)
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        表格圖像特征目標(biāo)識(shí)別技術(shù)的研究
        科技視界(2016年23期)2016-11-04 23:14:15
        基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
        軟件工程(2016年8期)2016-10-25 15:47:34
        基于MATLAB的圖片中字符的分割與識(shí)別
        基于卷積神經(jīng)網(wǎng)絡(luò)的樹葉識(shí)別的算法的研究
        基于投影法檢測(cè)光學(xué)元件面形的圖形處理算法
        暖暖视频在线观看免费| 久久精品亚洲精品国产区| 亚洲欧美成人a∨| 娇柔白嫩呻吟人妻尤物| 在线无码免费看黄网站| 国产精品久久av高潮呻吟| 亚洲国产精品日本无码网站| 亚洲欧美牲交| 无码人妻品一区二区三区精99 | 97人人模人人爽人人喊电影| 国产精品视频久久久久| 一本一道AⅤ无码中文字幕| 在线小黄片视频免费播放| 色婷婷一区二区三区四区成人网 | 国产在线无码一区二区三区| 乱人伦人妻中文字幕不卡| 国产三区三区三区看三区| 国产色在线 | 日韩| 精品无码久久久久久久动漫| 视频网站在线观看不卡| 少妇精品偷拍高潮少妇在线观看| 日韩 无码 偷拍 中文字幕| 免费无码毛片一区二区三区a片 | 日本av一区二区三区视频| 高潮抽搐潮喷毛片在线播放| 97精品伊人久久大香线蕉| 国产免费午夜福利蜜芽无码| 亚洲写真成人午夜亚洲美女| 久久不见久久见中文字幕免费| 99精品一区二区三区免费视频| 国产精品日本中文在线| 婚外情长久的相处之道| 国产亚洲精品成人aa片新蒲金| 中日av乱码一区二区三区乱码 | 91热久久免费频精品99| 无码无套少妇毛多18p| 人人妻人人澡人人爽曰本| 国产精品亚洲美女av网站| 日产国产亚洲精品系列| 99麻豆久久久国产精品免费| 国产一品道av在线一二三区|