亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于計算機視覺的魚類智能投喂方法研究進展

        2025-08-15 00:00:00何雨霜王琢肖進田滿洲呂程輝張俊峰
        中國農(nóng)機化學(xué)報 2025年7期
        關(guān)鍵詞:紋理魚類準確率

        中圖分類號:S126 文獻標識碼:A 文章編號:2095-5553(2025)07-0198-08

        Abstract:Feedingisoneofthemain tasks inaquaculture,andhowtoreducethecostoffeedingisthekeypointof maximizing theprofitsofaquaculture.Usingcomputer vision technologytomonitor the feeding behaviorof fishand quantifythe intensityoffish feding desirecan realize automatic feeding on demand,reduce feed waste,and improve feed utilization.This paperreviews theresearch progressoffour kindsoffish intellgentfeeding methods based oncomputer vision,such as food detection,optical flow method,texture and deep learning,and analyzes theadvantages and disadvantagesof each method.Bait detectionmethodissimpleandeasytoimplement,butitisdificulttoidentify theresidualbaitacurately.Opticalflowmethodcancapturefishmovementinformationefectively,butitis easilyaffected by environment and light. Texture and otherfeature methodsuse more types offeatures and more efective information, buttheyare not suitable for high-densityculture.Deep learning method has high recognitionaccuracy,strong robustness, largecalculation amount,and high requirements for equipment computing power.Basedon this,three research directions of large-scale data set,efficient lightweight depth model and “Internet of Things +,, intelligent feeding are proposed. It provides reference for further improving the maturity and practicability of intelligent feding method.

        Keywords:fish;computer vision;feeding behavior;feed detection;optical flow;deep learning;intelligent feeding

        0 引言

        我國是世界第一水產(chǎn)養(yǎng)殖大國,水產(chǎn)養(yǎng)殖產(chǎn)量連續(xù)多年排名世界首位。根據(jù)《中國漁業(yè)統(tǒng)計年鑒》顯示,2023年,全國水產(chǎn)養(yǎng)殖面積為 7624.60khm2 ,水產(chǎn)品總產(chǎn)量為 71161.7kt 。其中,養(yǎng)殖產(chǎn)量為 58096.1kt ,同比增長 4.39% 。漁業(yè)已成為我國農(nóng)業(yè)的重要組成部分,對發(fā)展國民經(jīng)濟有著重要的意義。2022年發(fā)布的“十四五\"漁業(yè)規(guī)劃中強調(diào),限制野生捕撈量和減少漁船數(shù)量依然是未來的工作重心。在此前提下,要達到水產(chǎn)品總產(chǎn)量提升至 69000kt 的目標,意味著水產(chǎn)養(yǎng)殖將成為主要的產(chǎn)量增長來源,其重要性更加凸顯。

        魚類作為人們獲取動物蛋白的優(yōu)質(zhì)來源,養(yǎng)殖產(chǎn)量占比常年高達 50% 以上,是水產(chǎn)業(yè)的主要產(chǎn)品。隨著水產(chǎn)養(yǎng)殖業(yè)的發(fā)展,魚類福利化養(yǎng)殖受到越來越多的關(guān)注,制定科學(xué)合理的投喂策略和投餌量是其中的關(guān)鍵一環(huán)[1]。在魚類養(yǎng)殖過程中,餌料投喂不足容易引起魚相互搶食、碰撞,導(dǎo)致魚體受傷,易受病害感染,魚類生長緩慢[2.3];餌料投喂過量時,除浪費餌料、增加養(yǎng)殖成本外,過量殘留的餌料還會造成水環(huán)境污染[4,5]。傳統(tǒng)的人工投喂方式一定程度上能滿足魚類的福利需求,但此方法依賴于人工經(jīng)驗,主觀性較強,數(shù)據(jù)類的經(jīng)驗難以量化總結(jié),故人工成本高。機器投喂以定時定量的方式居多,能有效減少人工成本,但忽略了環(huán)境因素變化對魚群攝食欲望造成的影響,容易出現(xiàn)投喂不足或過量的情況。

        計算機視覺技術(shù)模擬人類工作過程,對拍攝的視頻或者圖片進行分析處理,獲取相關(guān)信息予以反饋,具備無損、快速、可靠等優(yōu)點,在魚類智能投喂研究中得到廣泛應(yīng)用[67]。理想情況下,計算機通過水上或水下攝像機觀測魚類攝食行為,并判斷魚群攝食強度,為投餌決策提供依據(jù)。

        本文總結(jié)近年來的相關(guān)研究,將現(xiàn)有的基于計算機視覺的魚類智能投喂方法分為4種類型:基于餌料檢測、基于光流法、基于紋理等特征和基于深度學(xué)習,詳細闡述每種方法的代表性研究,對不同方法之間存在的優(yōu)缺點進行概括,并提出未來研究方向。

        1 研究進展

        1.1基于餌料檢測的智能投喂方法

        餌料檢測是一種常用的評估魚類攝食欲望強度的方法,通過圖像采集裝置獲取餌料圖像,計算得出殘餌信息,當殘餌數(shù)量較多時,魚類攝食欲望較弱,反之則較強,根據(jù)飼養(yǎng)情況結(jié)合經(jīng)驗設(shè)置合適的閾值,即可通過檢測殘餌數(shù)量控制投餌機的啟停。王吉祥8使用幀差法計算攝食期間相鄰兩幀的浮餌像素差值以量化魚群攝食活性ECVFAI,并建立最小二乘支持向量機模型識別及統(tǒng)計浮餌數(shù)量,通過模糊控制原理,以剩余浮餌量和魚群攝食活性作為輸入、輸出投餌時間,從而實現(xiàn)對投餌量的控制,在為期一個月的中華鱘養(yǎng)殖對比試驗中得出,相同養(yǎng)殖條件下,該自動投飼方法的餌料系數(shù)為0.15,低于人工投飼的0.2。為有效識別殘餌和糞便,穆春華等9根據(jù)兩者在形狀和灰度分布上的差異,提取平均灰度、周長平方面積比、逆差距、凸殼面積比、骨架數(shù)和對比度6個特征用于支持向量機和決策樹分類,并在大西洋鮭魚循環(huán)水養(yǎng)殖基地開展試驗,通過安裝在集污器進水口上方的攝像頭獲取殘餌視頻,結(jié)果顯示,改進離散方式后的決策樹算法識別準確率高,殘餌識別率達98.52% ,實時性更好,運行時間僅為 0.017ms ,更適合于殘餌識別。Atoum等[1°針對高密度養(yǎng)殖池中的魚類攝食活動檢測,開發(fā)了一種全自動系統(tǒng),該系統(tǒng)采取兩階段法對更容易被識別的最優(yōu)局部區(qū)域進行殘餌檢測。

        上述方法均基于水面圖像開展,適用于羅非魚、鱸魚、草魚、鯽魚等多喜食浮性飼料的品種。而一部分魚類更喜食沉性飼料,如養(yǎng)殖大西洋鮭常采用緩沉性膨化飼料[11],這一類魚更適用基于水下攝像機的餌料檢測方法。Parsonage等[12]在覓食的大西洋鮭魚下方和餌料下沉路徑內(nèi)放置水下攝像機,從而實現(xiàn)對網(wǎng)箱底部的殘餌檢測并自動觸發(fā)餌料浪費事件報警。Li等[13]提出一種基于自適應(yīng)直方圖的閾值檢測方法以解決水下圖像照明不均勻問題,該方法采用期望最大化(EM)算法來學(xué)習高斯混合模型(GMM)的參數(shù),并使用改進的Otsu算法計算閾值,通過掩碼中心像素與閾值的比較得到二進制檢測結(jié)果,在4種不同水濁度和光照不均度的水下測試環(huán)境中,該方法的召回率均大于 80% ,最高達 95.9% ,假陽性率低于 2.7% 。

        1.2基于光流法的智能投喂方法

        光流是空間運動物體在觀測成像面上像素運動的瞬時速度,包含目標運動信息。光流法是目前常用的運動目標檢測方法之一。趙健等[14]以羅非魚為試驗對象,利用Lucas—Kanad光流法提取由魚群攝食活動引起的水面反光區(qū)域變化特征,提出一種基于改進動能模型的魚類攝食活動強度評估方法,試驗結(jié)果表明,在高密度、多點投喂的循環(huán)水養(yǎng)殖系統(tǒng)(RAS)中,該方法的仿真結(jié)果能較好地描述不同腸胃飽滿指數(shù)的羅非魚的攝食活動強度變化,即隨著投喂次數(shù)的增加,攝食活動強度呈梯度下降趨勢。類似地,Ye等[15]也提出利用光流法對RAS中羅非魚的攝食活動強度進行評估,該方法采取Lucas—Kanad光流法提取魚群的速度和轉(zhuǎn)彎角度行為特征,利用信息熵對魚群速度和轉(zhuǎn)彎角度的統(tǒng)計聯(lián)合直方圖進行無序程度衡量,以此評估魚群的攝食強度。唐宸等[16]提出一種基于光流法的魚群攝食狀態(tài)細粒度分類算法,使用光流法提取相鄰兩幀的幀間運動特征,并構(gòu)建一個由5層全連接層所組成的幀間運動特征分類網(wǎng)絡(luò),基于投票策略對大西洋鮭魚群攝食狀態(tài)進行未攝食、弱攝食和強攝食3種類別的細粒度分類,投票閥值設(shè)置為 50% 時,視頻準確率達 98.7% ;投票閾值設(shè)置為 80% 時,視頻準確率達 91.4% 。

        僅使用單一的光流特征來量化魚群攝食強度存在一定的局限和誤差。對于這一問題,研究人員在基于光流法獲取的魚體運動特征基礎(chǔ)上,結(jié)合圖像紋理特征,共同量化魚群攝食行為。陳志鵬等[17]利用Lucas—Kanade光流法提取魚群的運動方向矢量并計算得出魚群運動方向熵,選取能量、逆差距、對比度和熵4個圖像紋理特征,基于以上特征訓(xùn)練SVM分類器實現(xiàn)魚群攝食狀態(tài)變化的檢測,為便于圖像數(shù)據(jù)采集,選取魚體體色艷麗的觀賞彩鯉作為試驗對象,結(jié)果表明,相比于基于形狀和紋理特征的檢測方法,該方法的檢測準確率更高,達 97% ,提升了 4.5% 。黃志濤等[18]以大西洋鮭為研究對象,利用自適應(yīng)背景差分法和Lucas—Kanade光流法提取魚體的速度和轉(zhuǎn)角特征,并結(jié)合能量、熵、對比度、相關(guān)性和逆差距5個圖像紋理特征進行魚群攝食活動強度量化,識別準確率為 94.17% ,比單一圖像紋理特征取得的最好結(jié)果高 6.42% 。

        1.3基于紋理、形狀、顏色、面積等特征的智能投喂方法

        在魚群投喂過程中,魚群的搶食行為容易導(dǎo)致水面出現(xiàn)波紋抖動、反光和餌料粘連等情況,魚群圖像的紋理、形狀、顏色和面積等特征也會隨之發(fā)生變化。紋理是一種反映圖像中同質(zhì)現(xiàn)象的視覺特征,包含物體表面結(jié)構(gòu)組織排列屬性和它們與周圍環(huán)境的聯(lián)系[19]。在非攝食期間,魚群一般呈聚集狀態(tài)在水底游動,行為較為統(tǒng)一且單調(diào),紋理相對簡單平滑。在攝食期間,魚群做無序游動,競食激烈,往往會在水面激起水花,紋理比較復(fù)雜粗糙。形狀特征是一種全局或者局部的特征,用于描述物體的形狀,常見的形狀特征可以分為兩類:一類是描述物體邊界形狀的輪廓特征,一類是描述物體內(nèi)部形狀的區(qū)域特征[20]。顏色特征是一種全局特征,描述了圖像或圖像區(qū)域內(nèi)所對應(yīng)景物的表面性質(zhì)。目標魚群面積一定程度上能夠反映魚群的攝食規(guī)律和攝食活性,開始投喂餌料時,魚群處于較為饑餓狀態(tài),攝食欲望強,會迅速游向水面的投餌覆蓋區(qū)并聚集在一起,魚群面積由小變大,隨著攝食結(jié)束,魚群處于飽腹狀態(tài),攝食欲望降低,向四周分散開或游入水底,魚群面積由大變小。

        Sadoul等[21]通過觀察分析虹魚魚群進食前后面積和擴散程度的變化情況,并使用魚群分散指數(shù)和魚群活動指數(shù)量化魚群活躍程度。王勇平等[22]采用最小二乘橢圓擬合算法對池塘養(yǎng)殖魚群進食面積進行量化分析,得出目標魚群面積參數(shù)變化趨勢,從而判斷魚群進食的充分性。胡利永等[23]將魚群聚集區(qū)域和水花區(qū)域作為特征區(qū)域,利用圖像邊緣檢測和閾值分割技術(shù)提取并繪制隨時間變化的特征區(qū)域面積比率曲線圖,然后通過三段函數(shù)對曲線反映的投餌規(guī)律進行近似擬合,從而建立投餌量的計算模型,并根據(jù)魚群面積比率變化量設(shè)計一種分階段下料的投餌方案,針對鱸魚和小黃魚的4組試驗結(jié)果表明,使用該方案進行投喂的餌料利用率更高,最低為 86.11% ,最高達91.13% ;而傳統(tǒng)定時定量勻速下料方法的餌料利用率僅為 80.00%~85.33% 。賈成功等24根據(jù)目標魚群面積和目標魚群密集度跟時間的關(guān)系所反映的魚群攝食規(guī)律構(gòu)建智能投餌系統(tǒng)。

        鏡鯉作為中國水產(chǎn)委員會審定的適合在中國推廣的優(yōu)良水產(chǎn)養(yǎng)殖品種,具有鱗片少、生長速度快、含肉率高、肉質(zhì)好的優(yōu)點,常作為智能投餌方法研究的試驗對象。陳彩文等[25]利用均值背景和背景減法提取出前景目標魚群,再使用灰度共生矩陣(GLCM)提取出逆差距、相關(guān)性、能量和對比度4個紋理特征,其中,使用對比度量化得到的魚群攝食活動強度與傳統(tǒng)面積法的相關(guān)性最好,線性決定系數(shù)達0.8942,可以有效表征鏡鯉魚群攝食活動強度。在此研究基礎(chǔ)上,陳彩文等[26]進一步結(jié)合灰度差分統(tǒng)計法和高斯馬爾科夫隨機場模型提取出的9個特征,總計13個鏡鯉魚群紋理特征用于SVM分類器訓(xùn)練,準確率達 96.5% ,運行時間39.04s,使用主成分分析法(PCA)對特征降維后,準確率小幅下降至 93.5% ,但運行時間大幅度縮短至0.63s 。類似地,袁超等[27]使用KPCA算法對提取出的顏色和紋理總計40個特征進行融合降維后,SVM分類器的準確率由 98.19% 小幅下降至 95.82% ,識別速度大幅提升,耗時由23.9s縮短至 0.93s 。張重陽等[28]融合了圖像顏色、形狀和紋理3種特征,并構(gòu)建一個3層的BP網(wǎng)絡(luò)進行訓(xùn)練識別,與SVM和KNN模型進行對比試驗,在自行采集的鏡鯉魚群攝食圖像數(shù)據(jù)上的結(jié)果顯示,BP網(wǎng)絡(luò)檢測耗時較長,但取得了較高的準確率,達 97.1% ,比單一紋理特征方法的準確率高出 4.1% ,比基于形狀及紋理特征方法的準確率高出 1.4% 。陳明等[29]同樣采用圖像顏色、形狀和紋理3種特征,提出基于Relief和XGBoost的魚群攝食特征選擇算法,篩選出二階矩、周長和紋理熵3個攝食評價因子,通過加權(quán)融合后的特征對攝食活動強度進行識別,在鏡鯉攝食圖像數(shù)據(jù)集上的識別準確率為98.89% ,與傳統(tǒng)面積法相比,決定系數(shù)達0.9043。相較于單一形狀、單一顏色和單一紋理方法,特征融合的方法實現(xiàn)了不同特征之間的信息互補,使得特征更具代表性和廣泛性,從而提高攝食活動強度的相關(guān)性和識別準確率。目前,大多數(shù)設(shè)施水產(chǎn)養(yǎng)殖基地現(xiàn)場都存在光照不足或不均勻的問題。為此,周超等[30]提出使用近紅外工業(yè)相機進行圖像采集,然后利用GLCM提取對比度、能量和相關(guān)性等5個攝食圖像紋理特征訓(xùn)練SVM,實現(xiàn)鏡鯉魚群弱、一般、中和強4類攝食強度評估,準確率達 87.78% 。

        1.4基于深度學(xué)習的智能投喂方法

        深度學(xué)習作為人工智能核心技術(shù),是自前最熱門的機器學(xué)習方法,在多種不同類型的任務(wù)中取得廣泛的成功[31-33]。近年來,深度學(xué)習技術(shù)的發(fā)展為智能投喂研究提供了新的視角和方法,基于深度學(xué)習的智能投喂方法逐漸成為研究熱點。Maloy等34提出了雙流循環(huán)網(wǎng)絡(luò)(DSRN)用于水下鮭魚攝食行為的識別,該網(wǎng)絡(luò)由二維卷積空間網(wǎng)絡(luò)、3D卷積運動網(wǎng)絡(luò)和LSTM網(wǎng)絡(luò)3部分組成,兩種卷積網(wǎng)絡(luò)分別用于提取魚群視頻的空間特征信息和運動特征信息,再使用LSTM網(wǎng)絡(luò)對整個視頻序列進行攝食和非攝食的二分類,在與空間網(wǎng)絡(luò)及空間循環(huán)網(wǎng)絡(luò)(SRN)的試驗對比中取得了最好的結(jié)果,分類準確率達 80% ,這表明空間和運動特征的時序處理可以有效地提升分類性能。但DSRN網(wǎng)絡(luò)結(jié)構(gòu)較為復(fù)雜,3D卷積和殘差網(wǎng)絡(luò)的使用大幅度地增加了模型參數(shù)量,導(dǎo)致模型訓(xùn)練困難,對設(shè)備的算力要求較高。為此,針對真實工廠化養(yǎng)殖環(huán)境下大西洋鮭的攝食行為分類問題,張佳林等[35]同樣基于水下機器視覺,構(gòu)建了變分貝葉斯卷積神經(jīng)網(wǎng)絡(luò)(VAE一CNN),通過變分自動編碼器逐幀提取視頻圖像的高斯均值和高斯方差向量,再分別按列組合得到相應(yīng)的高斯矩陣,從而實現(xiàn)視頻圖像到兩通道特征圖的轉(zhuǎn)換,最后使用CNN對特征圖進行分類,與CNN、VAE—SVM和VAE—BP方法相比,該方法以較少的參數(shù)量取得較好的分類結(jié)果,準確率達89% ,召回率達 90% 。

        對于一些喜食浮性飼料的品種,利用水上攝像頭觀察養(yǎng)殖水面的變化情況可以更直觀地獲悉魚類的行為狀態(tài)。朱明等[36基于MobileNetV3—Small輕量級神經(jīng)網(wǎng)絡(luò)對鱸魚的攝食狀態(tài)進行饑餓和非饑餓分類,準確率達 99.6% ,平均分類速率為39.21幀/s,并在室外真實圈養(yǎng)環(huán)境下與人工經(jīng)驗投喂法進行試驗對比,該方法的餌料利用率更高,餌料系數(shù)為1.44,僅為對照組的 52.2% ,鱸魚的生長速率更快,質(zhì)量增加率為5.56% ,比人工投喂提高 2.68% 。徐立鴻等[37]對長期卷積循環(huán)網(wǎng)絡(luò)LRCN進行改進,引入通道注意力機制SE模塊,使用結(jié)構(gòu)更簡單、效果更好的雙層門控遞歸單元(GRU)替代原始的單層LSTM網(wǎng)絡(luò),從而構(gòu)建SE一LRCN視頻分類模型,實現(xiàn)對開放式草魚、鯽魚混合養(yǎng)殖池塘魚群未攝食、弱攝食和強攝食3種攝食狀態(tài)的分類,在驗證集上的分類準確率為 97% F1 值為94.8% ,比改進前的LRCN模型分別提高 12%.12.4% 。為避免傳統(tǒng)視覺方法易受光照、水質(zhì)條件的影響,降低模型復(fù)雜度,黃平等[38]利用深度相機采集魚群攝食圖像,基于距離特征完成魚群目標前景和背景分離,將魚群深度距離信息線性轉(zhuǎn)換為HSV顏色信息,并設(shè)計了僅有三層卷積層的SimpleCNN模型對鯉魚進行強、中、弱、無4種攝食行為分類,權(quán)重空間大小僅 7.03MB ,訓(xùn)練速度提升3倍以上,準確率達 97.81% ,優(yōu)于VGG19、ResNet50、MobileNet和DenseNet201模型。將深度學(xué)習與其他方法相結(jié)合也是一種常用的提升模型性能的方法。劉世晶等[39將光流法和深度學(xué)習方法相結(jié)合,提出一種基于光流能量值和分塊描述的圖像光流特征構(gòu)建方法,利用該特征對改進RNN網(wǎng)絡(luò)進行訓(xùn)練,實現(xiàn)草魚強、中、弱3類攝食狀態(tài)的分類,綜合準確率為 91% .召回率為 92.2% 。

        深度較深的網(wǎng)絡(luò)模型一般性能較好,但參數(shù)量多,不利于模型在移動端部署。孫龍清等[40]選取生長速度快、適應(yīng)性強、經(jīng)濟價值較高的斑石鯛作為研究對象,提出ResNet34—CA模型,該模型在ResNet34模型基礎(chǔ)上進行改進,使用深度可分離卷積代替?zhèn)鹘y(tǒng)卷積,并引入坐標注意力機制,在相同網(wǎng)絡(luò)參數(shù)訓(xùn)練下,ResNet34—CA模型在5種不同飽腹程度的分類任務(wù)中取得 93.4% 的準確率,比AlexNet、VGGl6、MobileNetV2和GoogleLeNet模型分別提升 7.6% 、 3.8%.5.0% 和4.2% ,與原模型ResNet34相比,ResNet34—CA模型參數(shù)量減少 46.7% ,準確率提升 3.4% 。馮雙星等[41]提出一種基于輕量型S3D算法的魚群攝食強度檢測模型,識別金強、中、弱、無4類攝食強度狀態(tài)的準確率可達92.68% ,比C3D算法提高 9.75% ,比 R2+1D 算法提高14.63% ,參數(shù)量僅 9.15M,F(xiàn)LOPs 僅4.78G,均比C3D和 R2+1D 算法降低 70% 以上,結(jié)果表明,S3D算法兼顧效率和準確性,可以有效地識別魚群攝食行為,在此基礎(chǔ)上,結(jié)合時序動作檢測方法,開發(fā)了基于PyQt5的金尊攝食強度實時識別系統(tǒng),在19段魚群攝食視頻測試數(shù)據(jù)上的平均識別正確率為 79.67% 。

        上述方法在深度學(xué)習的加持下,均取得較好的效果。但計算機視覺技術(shù)對圖像數(shù)據(jù)的要求高,在真實養(yǎng)殖環(huán)境下,光照不足、光照不均勻、水體渾濁、雜物遮擋等常見現(xiàn)象都會對模型性能造成嚴重影響,難以達到研究中取得的成效[42,43]。為解決視覺單模態(tài)魚類行為識別精度低的問題,多模態(tài)融合研究成為近期熱點。胥婧雯等[44]提出了基于視覺和聲音特征多級融合的魚類行為識別模型U—FusionNet—ResNet5O+SENet,采用ResNet50模型提取視覺模態(tài)特征,基于 MFCC+ ResNet50模型提取聲音模態(tài)特征,設(shè)計U形對稱架構(gòu)將不同階段的模態(tài)特征通過跳躍連接(Skip-Concat)操作進行融合,最后引入SENet通道注意力機制實現(xiàn)對許氏平攝食和游泳2類行為的識別,為驗證模型的有效性,對實驗室環(huán)境下自行采集的多模態(tài)數(shù)據(jù)進行加噪處理,對比試驗結(jié)果表明,該方法的準確率、 F1 值、召回率分別達到 93.71%.93.43%.92.56% ,比單模態(tài)的ResNet50視覺模型和 MFCC+ResNet50 聲音模型的識別準確率分別提高 8.62%.13.01% 。胡學(xué)龍等[45]在聲音和視覺的基礎(chǔ)上,引入了同樣具備攝食強度信息的水質(zhì)特征,提出一種基于聲音、視覺、水質(zhì)多模態(tài)融合的魚類攝食強度識別算法Fish—MulT,利用多模態(tài)轉(zhuǎn)移模塊(MMTM和自適應(yīng)權(quán)重方法對3種模態(tài)進行融合得到融合模態(tài),并使用融合模態(tài)優(yōu)化MuIT算法,將跨模態(tài)Transformer的數(shù)量減少 50% ,在金魚強、中、弱、無4種攝食強度識別試驗結(jié)果表明,3種模態(tài)融合的Fish—MulT算法識別準確率達 95.36% ,比單模態(tài)視覺模型SlowFast、單模態(tài)聲音模型GFCC + ResNet50和單模態(tài)水質(zhì)模型Functionfitting分別提高 3.61% 、21.65% 和 68.56% ,相較于MulT算法,該算法準確率提高 2.06% ,參數(shù)量減少 38% ,識別速度提升 15.72% 。

        2 對比與討論

        基于計算機視覺的方法通過監(jiān)測、分析魚群行為和殘余餌料等狀態(tài)特征,以判斷魚群攝食欲望強度,從而實現(xiàn)餌料的最優(yōu)投放控制。與人工投喂相比,該方法具備客觀、快速、可靠、準確等優(yōu)點,避免養(yǎng)殖人員主觀經(jīng)驗影響,可以有效地提高投喂效率和餌料利用率,減輕勞動強度,降低飼料成本,是實現(xiàn)智慧漁業(yè)的關(guān)鍵核心技術(shù)之一。4種基于計算機視覺的魚類智能投喂方法的優(yōu)缺點如表1所示。

        表1不同方法的優(yōu)缺點比較 Tab.1 Comparison of advantages and disadvantages of different methods

        餌料檢測方法通過檢測水面或水下殘留餌料數(shù)量評估魚類攝食欲望強度,對魚類品種、攝食方式等無特殊要求,適用于網(wǎng)箱和池塘設(shè)施化養(yǎng)殖。相比于光流法和深度學(xué)習方法,此類方法較簡單、計算量較小、識別速度更快,利用傳統(tǒng)的計算機視覺技術(shù)即可實現(xiàn)。但水面浮餌易出現(xiàn)的粘連、水花遮擋等現(xiàn)象,水下殘餌對餌料牢固性和下沉速度的要求,以及水的光學(xué)特性導(dǎo)致的成像距離短和質(zhì)量差[46等問題,對該方法的準確性和可靠性造成了嚴重影響。

        光流法以整個魚群為研究對象,無須預(yù)先了解場景信息,通過檢測目標像素在連續(xù)兩幀圖像中的變化情況即可獲得魚群運動特征。與餌料檢測方法相比,光流比殘餌攜帶的有效特征更豐富,如魚群運動速度、運動方向矢量等,因此,光流法的可靠性更高,往往能取得更好的識別效果。但該方法對光線敏感,當目標靜止時,外部的光線變化也會被錯誤地識別為光流[47]

        基于紋理、形狀、顏色、面積等特征的智能投喂方法以魚類自身特征變化及攝食時引起的水面特征變化作為評估攝食欲望強度的依據(jù)。相比于光流法,該方法使用的特征種類更多,有效信息豐富,也更易實現(xiàn)。攝食過程中,魚群運動復(fù)雜,導(dǎo)致環(huán)境變化較大,圖像紋理等特征也隨之變化。在低密度養(yǎng)殖魚群場景下,僅依賴光流法提取的運動特征容易受光照和環(huán)境擾動影響產(chǎn)生誤判。而僅使用紋理、形狀等特征在高密度養(yǎng)殖場景下容易將魚群正常游泳行為錯誤識別為攝食行為。因此,通過特征加權(quán)融合的方式將2種方法結(jié)合使用,實現(xiàn)不同特征優(yōu)勢互補,進一步提升特征有效性,使得模型抗干擾能力更強,檢測性能也更優(yōu)。

        基于深度學(xué)習的方法主要指基于深度神經(jīng)網(wǎng)絡(luò)開展的智能投餌研究。與其他3種方法相比,深度學(xué)習模型具備強大的特征學(xué)習和建模能力,避免復(fù)雜的特征工程,減少人工設(shè)計特征造成的誤差,因此,具備更高的魯棒性和識別準確率。但深度學(xué)習模型設(shè)計復(fù)雜,數(shù)據(jù)依賴性高,計算量大,對硬件算力要求高,便攜性差,大多不適用于移動設(shè)備。

        3展望

        深度學(xué)習在基于計算機視覺的魚類智能投喂研究領(lǐng)域里表現(xiàn)優(yōu)異,受到越來越多學(xué)者的青睞,是未來的主流研究方向。隨著光學(xué)設(shè)備、計算設(shè)備和數(shù)據(jù)處理方法的發(fā)展與應(yīng)用,計算機視覺方法的準確性將得到進一步的提高。但是,大部分研究都是在理想的實驗室環(huán)境下進行的。在實際養(yǎng)殖場景下,不同品種魚類的習性和運動特性不同,水質(zhì)及自然環(huán)境復(fù)雜多變,對計算機視覺方法處理復(fù)雜問題的能力提出更加嚴峻的挑戰(zhàn),其可靠性和魯棒性有待考量。在未來的研究中,可以嘗試從3個方面進行突破,以進一步提升智能投喂方法的成熟度和實用性。

        1)建立大規(guī)模數(shù)據(jù)集。深度學(xué)習對數(shù)據(jù)體量要求大、質(zhì)量要求高,目前鮮有公開可用的魚類攝食數(shù)據(jù)集,往往需要學(xué)者自行采集。但采集標準不一致,缺少模型基準線(baseline),難以實現(xiàn)科學(xué)客觀的模型性能比較,這不僅增大了研究工作量,也不利于模型的優(yōu)化發(fā)展。在未來的工作中,以政府、高校和水產(chǎn)科研院所等單位為主體,聯(lián)合養(yǎng)殖企業(yè),選取鏡鯉、大西洋鮭、羅非魚等常見研究品種,以典型的池塘養(yǎng)殖和設(shè)施化養(yǎng)殖模式建造養(yǎng)殖試驗基地,制訂統(tǒng)一規(guī)范化的圖像采集和處理標準,實現(xiàn)魚群攝食前、中、后3個時期水面及水下攝食情況的全面記錄,資源共享,以建立規(guī)模化、統(tǒng)一化、標準化的魚類攝食公開數(shù)據(jù)集為最終目標。

        2)構(gòu)建高效輕量級智能投喂深度模型。以深度學(xué)習為代表的各種智能投喂方法研究雖然取得不錯的效果,但大部分研究還停留在實驗室階段,依賴于高算力的計算機設(shè)備,離實際生產(chǎn)使用還有很長一段距離。為進一步促進智能投喂方法落地應(yīng)用,可以嘗試開展微型機器學(xué)習(TinyML)研究,設(shè)計可部署在嵌入式設(shè)備上的智能投喂深度模型。通過將現(xiàn)有的TensorFlowLiteMicro、CMSIS—NN或MCUNet等微控制器的深度學(xué)習推理框架應(yīng)用于魚群自動投喂決策任務(wù)中,在資源受限的微控制器上實現(xiàn)低資源消耗、低功耗的機器學(xué)習算法。

        3)“物聯(lián)網(wǎng) + ”智能投喂。光照、水溫、鹽度及養(yǎng)殖密度等環(huán)境因素的變化都會對魚類攝食欲望產(chǎn)生一定影響,利用特征融合技術(shù)對物聯(lián)網(wǎng)傳感器實時采集的魚群攝食圖像、音頻、水環(huán)境和大氣環(huán)境信息進行多模態(tài)融合,提升特征豐富度?;诙嗄B(tài)融合特征建立魚類投喂深度學(xué)習模型并將其部署在物聯(lián)網(wǎng)云端,以實時感知和分析魚類生長現(xiàn)狀,自主決策最佳投餌量、投餌時間及投餌時長等關(guān)鍵投餌參數(shù),并對投餌設(shè)備進行自動化遠程控制,從而實現(xiàn)“物聯(lián)網(wǎng) + \"智能投喂,為養(yǎng)殖管理提供科學(xué)、客觀、合理、準確的指導(dǎo)。

        參考文獻

        [1]李賢,劉鷹.水產(chǎn)養(yǎng)殖中魚類福利學(xué)研究進展[J].漁業(yè)現(xiàn)代化,2014,41(1):40-45.LiXian,Liu Ying.Current research advances on fishwelfarein aquaculture[J].FisheryModernization,2014,41(1):40—45.

        [2]RuohonenK,Vielma J,Grove DJ.Effects of feedingfrequency on growth and food utilisation of rainbow trout(Oncorhynchus mykiss) fed low-fat herring ordrypellets [J].Aquaculture,1998, 165(1-2) : 111-121

        [3]李笑天,劉寶良,費凡,等.投喂策略對水產(chǎn)動物生長生理及行為特征影響研究進展[J].漁業(yè)現(xiàn)代化,2020,47(2):7-15.Li Xiaotian,Liu Baoliang,F(xiàn)ei Fan,et al. Advancesin research on effects of feeding strategies on growthphysiology andbehavioral characteristicsofaquaticanimals[J].Fishery Modernization,2020,47(2):7-15.

        [4]李琪,劉鑒毅,孫艷秋,等.投喂策略對多紋錢蝶魚幼魚生長的影響[J].海洋科學(xué),2022,46(3):93-102.Li Qi,Liu Jianyi, Sun Yanqiu,et al.Efectsof feeding strategiesonthe growth of Selenotoca multifasciata [J]. MarineSciences,2022,46(3):93-102.

        [5] Zhang Y,Lu R,Qin C,et al. Precision nutritionalregulation and aquaculture [J]. Aquaculture Reports,2020(18):100496.

        [6]鄭金存,趙峰,林勇,等,基于近紅外深度圖的游泳型魚類攝食強度實時測量[J].上海海洋大學(xué)學(xué)報,2021,30(6):1067-1078.Zheng Jincun,Zhao Feng,Lin Yong,et al.Evaluation offish feeding intensity in aquaculture based on near-infrared depth image [J]. Journal of Shanghai OceanUniversity,2021,30(6):1067—1078.

        [7]陳雨琦,馮德軍,桂福坤,等.采用機器視覺和傅里葉頻譜特征的循環(huán)水養(yǎng)殖魚類攝食狀態(tài)判別[J].農(nóng)業(yè)工程學(xué)報,2021,37(14):155—162.Chen Yuqi,F(xiàn)eng Dejun,Gui Fukun,et al. Discriminationof the feeding status of recirculating aquaculture fishvia machine vision and reflective corrugated Fourierspectrum [J]. Transactions of the Chinese Society ofAgricultural Engineering,2021,37(14):155—162.

        [8]王吉祥.基于嵌入式機器視覺的浮餌自動投放裝置研制[D].鎮(zhèn)江:江蘇大學(xué),2016.

        [9]穆春華,范良忠,劉鷹.基于計算機視覺的循環(huán)水養(yǎng)殖系統(tǒng)殘餌識別研究[J].漁業(yè)現(xiàn)代化,2015,42(2):33-37.Mu Chunhua,F(xiàn)an Liangzhong,Liu Ying.Research ontheresidualfeeds recognitionof recirculatingaquaculture systems based on computer vision [J].Fishery Modernization,2015,42(2):33-37.

        [10]Atoum Y, Srivastava S, Liu X. Automatic feedingcontrol for dense aquaculture fish tanks [J]. IEEESignal ProcessingLetters,2015,22(8):1089—1093.

        [11]劉淑蘭,孫國祥,李杰,等.投喂頻率對大西洋鮭生長和生理指標的影響[J].水產(chǎn)科學(xué),2019,38(3):341—346.Liu Shulan,Sun Guoxiang,Li Jie,et al.Effects offeeding frequency on growth and some physiologicalindices in Atlantic salmon Salmo salar [J]. FisheriesScience,2019,38(3):341-346.

        [12] Parsonage K D,Petrell R J. Accuracy of a machine-visionpellet detection system [J]. Aquacultural Engineering,2003,29(3—4):109—123.

        [13]LiD,Xu L,Liu H. Detection of uneaten fish foodpeletsin unaerwater images Ior aquacuiture LJ」.Aquacultural Engineering,2017,78: 85-94 :

        [14]趙建,朱松明,葉章穎,等.循環(huán)水養(yǎng)殖游泳型魚類攝食活動強度評估方法研究[J].農(nóng)業(yè)機械學(xué)報,2016,47(8):288-293.Zhao Jian, Zhu Songming, Ye Zhangying, et al.Assessing method for feeding activity of swimmingfishesinRAS[J]. Transactionsof theChineseSociety forAgricultural Machinery,2016,47(8):288-293.

        [15]YeZ,ZhaoJ,HanZ,etal.Behavioralcharacteristics and statistics-based imaging techniques inthe assessment and optimization of tilapia feeding ina recirculating aquaculture system [J]. Transactions ofthe ASABE,2016,59(1):345-355.

        [16]唐宸,徐立鴻,劉世晶.基于光流法的魚群攝食狀態(tài)細粒度分類算法[J].農(nóng)業(yè)工程學(xué)報,2021,37(9):238-244.Tang Chen, Xu Lihong, Liu Shijing. Fine-grainedclasification algorithm of fish feeding state based onoptical flow method [J].Transactions of the ChineseSociety of Agricultural Engineering,2021,37(9):238-244.

        [17]陳志鵬,陳明.基于光流法與圖像紋理特征的魚群攝食行為檢測[J].南方農(nóng)業(yè)學(xué)報,2019,50(5):1141—1148.Chen Zhipeng,Chen Ming. Detection of shoal feedingbehavior based on opticalflow methods andimagetexture [J]. Journal of Southern Agriculture,2019,50(5):1141—1148.

        [18]黃志濤,何佳,宋協(xié)法.基于魚體運動特征和圖像紋理特征的魚類攝食行為識別與量化[J].中國海洋大學(xué)學(xué)報(自然科學(xué)版),2022,52(1):32-41.Huang Zhitao, He Jia,Song Xiefa. Recognition andquantification of fish feeding behavior based on motionfeature of fish body and image texture [J]. Periodical ofOcean University of China,2022,52(1): 32-41

        [19]劉麗,匡綱要.圖像紋理特征提取方法綜述[J].中國圖象圖形學(xué)報,2009,14(4):622—635.Liu Li,Kuang Gangyao.Overview of image texturefeature extraction methods [J]. Journal of Image andGraphics,2009,14(4): 622-635 :

        [20]余前帆.《計算機科學(xué)技術(shù)名詞》(第三版)正式公布[J].中國科技術(shù)語,2019,21(2):10.

        [21] Sadoul B,Mengues P E,F(xiàn)riggens N C,et al.Anew method for measuring group behaviours of fish shoalsfromrecordedvideostakeninnearaquacultureconditions [J]. Aquaculture,2014,430:179—187.

        [22]王勇平,聶余滿,謝成軍,等.基于機器視覺的養(yǎng)殖魚群智能投餌系統(tǒng)設(shè)計與研究[J].儀表技術(shù),2015(1):1-4 :Wang Yongping,Nie Yuman, Xie Chengjun,et al.Design and research of intelligent feeding system forfarmed fish based on machine vision [J]. InstrumentationTechnology,2015(1): 1-4

        [23]胡利永,魏玉艷,鄭堤,等.基于機器視覺技術(shù)的智能投餌方法研究[J]:熱帶海洋學(xué)報,2015,34(4):90—95.Hu Liyong,WeiYuyan,Zheng Di,et al.Researchon intelligent bait casting method based on machine visiontechnology [J]. Journal of Tropical Oceanography, 2015,34(4):90-95.

        [24]賈成功,張學(xué)良,陳俊華,等.基于魚群攝食規(guī)律的投餌系統(tǒng)研究[J].機械工程師,2017(8):22—25,28.Jia Chenggong, Zhang Xueliang,Chen Junhua,et al.Research on bait casting system based on feeding rule offish[J].Mechanical Engineer,2017(8):22-25,28.

        [25]陳彩文,杜永貴,周超,等.基于圖像紋理特征的養(yǎng)殖魚群攝食活動強度評估[J].農(nóng)業(yè)工程學(xué)報,2017,33(5):232—237.Chen Caiwen,Du Yonggui, Zhou Chao,et al. Evaluationof feeding activity of shoal based on image texture [J].Transactions of the Chinese Society of AgriculturalEngineering,2017,33(5):232-237.

        [26]陳彩文,杜永貴,周超,等.基于支持向量機的魚群攝食行為識別技術(shù)[J].江蘇農(nóng)業(yè)科學(xué),2018,46(7):226-229.

        [27]袁超,朱瑞金.基于KPCA的多特征融合的支持向量機魚群攝食行為檢測研究[J].水產(chǎn)養(yǎng)殖,2020,41(12):17—21.Yuan Chao,Zhu Ruijin. Research on fish school feedingbehaviordetectionbasedonKPCAmulti-featurefusionsupportvectormachine[J].JournalofAquaculture,2020,41(12):17—21.

        [28]張重陽,陳明,馮國富,等.基于多特征融合與機器學(xué)習的魚類攝食行為的檢測[J].湖南農(nóng)業(yè)大學(xué)學(xué)報(自然科學(xué)版),2019,45(1):97—102.Zhang Chongyang, Chen Ming, Feng Guofu, etal.Detection method of fish feeding behavior based onthe multi-feature fusion and the machine learning [J].Journalof Hunan Agricultural University (Natural Sciences),2019,45(1):97—102.

        [29]陳明,張重陽,馮國富,等.基于特征加權(quán)融合的魚類攝食活動強度評估方法[J].農(nóng)業(yè)機械學(xué)報,2020,51(2):245—253.Chen Ming, Zhang Chongyang,F(xiàn)eng Guofu,et al.Intensity assessment method of fish feeding activitiesbased on feature weighted fusion [J]. Transactions of theChinese Society for Agricultural Machinery,2O2o,51(2):245—253.

        [30]周超,徐大明,吝凱,等.基于近紅外機器視覺的魚類攝食強度評估方法研究[J].智慧農(nóng)業(yè),2019,1(1):76—84.Zhou Chao,Xu Daming,Lin Kai,et al. Evaluation offishfeeding activity in aquaculture based onnearinfrared machine vision [J]. Smart Agriculture,2019,1(1):76-84.

        [31]朱逢樂,嚴霜,孫霖,等.基于深度學(xué)習多源數(shù)據(jù)融合的(9):195-204.ZhuFengle, YanShuang, SunLin, etal.Estimation method of lettuce phenotypic parametersusing deep learning multi-source data fusion[J].Transactions of the Chinese Society of AgriculturalEngineering,2022,38(9):195-204.

        [32]張璐,李道亮,曹新凱,等.基于深度可分離卷積網(wǎng)絡(luò)的粘連魚體識別方法[J].農(nóng)業(yè)工程學(xué)報,2021,37(17):160—167.Zhang Lu, Li Daoliang, Cao Xinkai, etal.Recognition method for adhesive fishbased ondepthwise separable convolution network[J].Transactions of the Chinese Society of AgriculturalEngineering,2021,37(17):160—167.

        [33]李東升,胡文澤,蘭玉彬,等.深度學(xué)習在雜草識別領(lǐng)域的研究現(xiàn)狀與展望[J].中國農(nóng)機化學(xué)報,2022,43(9):137—144.Li Dongsheng, Hu Wenze, Lan Yubin, et al.Research status and prospect of deep learninginweed recognition [J]. Journal of ChineseAgricultural Mechanization,2022,43(9):137-144.

        [34]Maloy H, Aamodt A, Misimi E. A spatio-temporal recurrent network for salmon feedingaction recognition from underwater videos inaquaculture [J]. Computers and Electronics inAgriculture,2019,167:105087.

        [35]張佳林,徐立鴻,劉世晶.基于水下機器視覺的大西洋鮭攝食行為分類[J].農(nóng)業(yè)工程學(xué)報,2020,36(13):158—164.Zhang Jialin,Xu Lihong,Liu Shijing. Classification ofAtlanticsalmon feeding behavior based onunderwater machine vision [J].Transactions oftheChinese Society of Agricultural Engineering,2020,36(13):158—164.

        [36]朱明,張鎮(zhèn)府,黃凰,等.基于輕量級神經(jīng)網(wǎng)絡(luò)MobileNetV3—Small 的鱸魚攝食狀態(tài)分類[J].農(nóng)業(yè)工程學(xué)報,2021,37(19):165—172.ZhuMing, Zhang Zhenfu, Huang Huang,et al.Classificationofperchingestingconditionusinglightweight neural network MobileNetV3—Small [J].Transactions of the Chinese Society ofAgriculturalEngineering,2021,37(19):165—172.

        [37]徐立鴻,黃薪,劉世晶.基于改進LRCN的魚群攝食強度分類模型[J].農(nóng)業(yè)機械學(xué)報,2022,53(10):236—241.Xu Lihong,Huang Xin,Liu Shijing. Recognition of fishfeeding intensitybasedonimprovedLRCN[J].Transactions of the Chinese Society for AgriculturalMachinery,2022,53(10): 236-241 :

        [38]黃平,鄭金存,龐毅.基于深度學(xué)習的魚類攝食狀態(tài)識別算法[J].電子設(shè)計工程,2023,31(18):1—5.

        [39]劉世晶,涂雪瀅,錢程,等.基于幀間光流特征和改進RNN的草魚攝食狀態(tài)分類[J].水生生物學(xué)報,2022,46(6):914-921.LiuShijing, TuXueying,QianCheng,etal.Feeding state classification of grass carp based on opticalflow and improved RNN[J]. Acta Hydrobiologica Sinica,2022,46(6):914-921.

        [40]孫龍清,王新龍,王泊寧,等.基于ResNet—CA的魚群飽腹程度識別方法[J].農(nóng)業(yè)機械學(xué)報,2022,53(S2):219—225,277.Sun Longqing,Wang Xinlong,Wang Boning,et al.Identification method of fish satiation level based onResNet—CA[J].Transactions of the Chinese Society forAgricultural Machinery,2022,53(S2):219-225,277.

        [41]馮雙星,王丁弘,潘良,等.基于輕量型S3D算法的魚類攝食強度識別系統(tǒng)設(shè)計與試驗[J].漁業(yè)現(xiàn)代化,2023,50(3):79-86.Feng Shuangxing, Wang Dinghong, Pan Liang, et al.Implementation of fish feeding intensity identification systemusinglight-weightS3Dalgorithm[J].FisheryModernization,2023,50(3):79—86.

        [42]曹曉慧,劉晃.養(yǎng)殖魚類攝食行為的特征提取研究與應(yīng)用進展[J].漁業(yè)現(xiàn)代化,2021,48(2):1—8.Cao Xiaohui, Liu Huang. Advances in the studyand application of feature extraction in feeding behaviorof cultured fish[J].Fishery Modernization,2021,48(2): 1-8 :

        [43] Mohanty S P, Hughes D P, Salathé M. Using deeplearning for image-based plant disease detection [J].Frontiers in Plant Science,20l6,7:1419.

        [44]胥婧雯,于紅,張鵬,等.基于聲音與視覺特征多級融合的魚類行為識別模型U—FusionNet—ResNet5O+SENet[J].大連海洋大學(xué)學(xué)報,2023,38(2):348-356.Xu Jingwen,Yu Hong,Zhang Peng, et al.A fishbehavior recognition model based on multi-level fusion ofsound and vision U—fusionNet—ResNet50 + SENet [J].Journal of Dalian Ocean University,2023,38(2):348-356.

        [45]胡學(xué)龍,朱文韜,楊信廷,等.基于水質(zhì)一聲音一視覺融合的循環(huán)水養(yǎng)殖魚類攝食強度識別[J].農(nóng)業(yè)工程學(xué)報,2023,39(10):141—150.Hu Xuelong, Zhu Wentao, Yang Xinting, et al.Identificationoffeedingintensityinrecirculatingaquaculturefishusingwater quality-sound-visionfusion [J]. Transactions of the Chinese Society ofAgriculturalEngineering,2023,39(10):141—150.

        [46]陳沖.水的光學(xué)特性及其對水下成像的影響分析[J].內(nèi)燃機與配件,2017(6):146—147.

        [47]張重陽,陳明.基于計算機視覺的魚類攝食行為研究現(xiàn)狀及展望「1].江蘇農(nóng)業(yè)科學(xué).2020.48(24),31-36.

        猜你喜歡
        紋理魚類準確率
        上海海洋大學(xué)解碼魚類胚胎中的新生轉(zhuǎn)錄本
        基于LPQ和NLBP的特征融合算法及其應(yīng)用
        蝴蝶和飛蛾
        基于改進MobileNetV2的煙絲種類識別
        下咽癌 FS-T2WI 序列紋理特征與Ki-67表達水平的相關(guān)性研究
        遷徙大軍的定位密碼
        基于遷移學(xué)習與注意力機制的花生葉部病害識別算法
        犬類可精準識別帕金森患者
        AI預(yù)測點球方向比守門員準
        基于YOLOv3與圖譜的 樂器板材評估
        樂器(2025年6期)2025-07-20 00:00:00
        中文字幕国产欧美| 久久午夜精品人妻一区二区三区| 无码无在线观看| 一区二区三区蜜桃在线视频| 国产高清女主播在线观看| 人人妻人人添人人爽欧美一区| 天码人妻一区二区三区| 少妇人妻真实偷人精品视频| 韩国三级中文字幕hd久久精品| 色婷婷资源网| 国产69口爆吞精在线视频喝尿 | 无码人妻精品一区二区三区下载| 亚洲 高清 成人 动漫| 麻豆91免费视频| 国产chinese在线视频| 久久久精品网站免费观看| 精品卡一卡二乱码新区| 国产精品女人呻吟在线观看| 俄罗斯老熟妇色xxxx| 大地资源网更新免费播放视频| 91精品久久久久含羞草| 开心五月激动心情五月| 日本一区二区三区视频免费在线| 国产在线无码一区二区三区视频| 无码精品人妻一区二区三区av | 国产如狼似虎富婆找强壮黑人| 亚洲国产成人va在线观看天堂 | 亚洲av熟女天堂系列| 亚洲中文乱码在线观看| 日本区一区二区三视频| 日日日日做夜夜夜夜做无码| 久久精品视频在线看99| 狠狠躁夜夜躁人人爽天天不卡 | 亚洲一二三区免费视频| 成人免费无码视频在线网站| 97久久人人超碰超碰窝窝| 99精品免费视频| 人成视频在线观看免费播放| 成人国产一区二区三区av| 亚洲av无码国产精品色午夜软件| 国产成人啪精品视频免费软件 |