GenderDetectionMethodforCrabsSeedlingsBasedonEnhancedYOLOv8sModel
LI Xian,MA Ming,HUZhi-gangetal(ScholofMchanicalEnginering,WuhanLightIndustry University,Wuhan,Hubei0496) AbstractInespsetoteproblmofuceardierentiatiobetwenalesndealesuringthsdingsageofiverabfi cientaccuracyinmanalclasificatioofaleandfemaleinvrabsdling.Tisticleproposametdfordetetigtederf rivercrabsedingasedonanimprovedOLO8odel.eiprovementmetodisasflow:fistlyeplacethfourthlayeCfodule inthebackboneetworkwithCfGAM(globalatentionchanism,GAM)module,djust hewightoffatureiforatioandducete lossoffeaturefoatiodingtassidlyplacealdarysfciiheU(edtef sequentialevideceforintersetooveruiov)boundysfuctiotohaethancroxualityduringtepreditoprosd improvetheodel’sneralzatiobilityfiallearestigoriteplatiousaplingtodineadetwokisplacdih CARAFE(contentawarereassemblyoffeatures)upsaplingmetodichivesteodellargereceptivefeldndimproesitsfo ance.The experimental results sow that the accuracy,recall,and average precision of the improved model are98. 4% ,91. 1% ,and 96. 1% , respctivelyhcre3..d2.9prenaeoterthaeigialodel.eulsicatethaslityoflnga chine vision to the clasification of male and female crab seedlings and the effectiveness of the improved method.
Key wordsCrab seedlings;YOLOv8s;WIoU;GAM;CRAFF
近年來,隨著人工智能技術(shù)的不斷進(jìn)步,越來越多的行業(yè)為了追求高質(zhì)量發(fā)展,將傳統(tǒng)技術(shù)與人工智能技術(shù)進(jìn)行結(jié)合[1-2]。機(jī)器視覺技術(shù)作為一種視覺檢測方法以其非接觸性、精確性、快速性、智能化等多個優(yōu)點(diǎn)在農(nóng)業(yè)生產(chǎn)領(lǐng)域有了廣泛的運(yùn)用[3-4]。河蟹養(yǎng)殖作為養(yǎng)殖業(yè)中重要的組成部分,其養(yǎng)殖技術(shù)也隨著人工智能技術(shù)的發(fā)展不斷改進(jìn)[5]。因河蟹本身特殊的身體結(jié)構(gòu)及市場價值,使得河蟹養(yǎng)殖演變出不同的養(yǎng)殖方法?,F(xiàn)有的養(yǎng)殖方法有混養(yǎng)法和雌雄分養(yǎng)法[6-7],混養(yǎng)法即將所有蟹苗置于同一池塘中養(yǎng)殖,而河蟹雌雄分養(yǎng)法的不同之處在于需要在放苗階段將雌雄河蟹區(qū)分開來,置于不同的池塘中養(yǎng)殖。雌雄分養(yǎng)法能在一定程度上降低養(yǎng)殖成本,提高產(chǎn)出量,獲得更高經(jīng)濟(jì)效益[8-10]?,F(xiàn)有的雌雄蟹苗分類工作完全依賴人工,在面對大量需要分類的蟹苗時,使用機(jī)器視覺技術(shù)對蟹苗進(jìn)行識別判斷并分類可以有效降低人工成本,提高準(zhǔn)確率。
機(jī)器視覺發(fā)展于20世紀(jì)50年代對二維圖像識別與理解的研究[1],經(jīng)過數(shù)十年的不斷發(fā)展,如今的機(jī)器視覺已經(jīng)實(shí)現(xiàn)了目標(biāo)檢測、人臉識別、目標(biāo)跟蹤等多種強(qiáng)大的功能[12]?,F(xiàn)階段的目標(biāo)檢測算法主要分為雙階段檢測算法和單階段檢測算法。雙階段檢測算法包括 、Fast R-CNN[14]、FasterR-CNN[15]等,該類算將檢測過程分為2步,有較高的檢測精度,但檢測速度較慢。單階段檢測算法包括
,YOLO[7]算法以及其他系列算法,該類算法檢測速度較快,相比于雙階段檢測算法適合完成實(shí)時檢測任務(wù)[18-20]。
相較以往的YOLOv5模型,YOLOv8在原有基礎(chǔ)上進(jìn)行了部分的改進(jìn)。 ① 將Backbone和Neck部分原有的C3模塊替換為梯度更豐富的C2f模塊,同時保證了模型的輕量化;② 對YOLOv5原有Neck部分中的上采樣結(jié)構(gòu)進(jìn)行了修改,刪除了其上采樣階段前 1×1 的卷積結(jié)構(gòu),使得Backbone層的輸入在進(jìn)入Neck層后直接進(jìn)行上采樣操作; ③ 將Head部分中的耦合頭結(jié)構(gòu)替換成解耦頭結(jié)構(gòu),同時改進(jìn)錨框預(yù)測設(shè)計(jì)方式,將原有結(jié)構(gòu)中使用有錨節(jié)點(diǎn)Anchor-Based檢測方式替換為無錨節(jié)點(diǎn)Anchor-Free檢測方式。
該研究擬將機(jī)器視覺運(yùn)用于河蟹雌雄分養(yǎng)法中的放苗階段,使用機(jī)器視覺目標(biāo)檢測的方法對蟹苗進(jìn)行雌雄區(qū)分,同時提出一種基于YOLOv8網(wǎng)絡(luò)模型的改進(jìn)方法。改進(jìn)方法如下:首先,在Backbone部分引入GAM注意力機(jī)制,將其第四層C2f模塊替換為C2f-GAM模塊,降低特征信息在傳遞過程中的損失;其次,將YOLOv8模型的CIoU損失函數(shù)替換為WIoU損失函數(shù),增強(qiáng)模型的泛化能力;最后,在將Head部分的最近鄰插值上采樣方法替換為CARAFE上采樣方法,擴(kuò)大模型的感受域,提高模型的性能。試驗(yàn)結(jié)果表明,在河蟹幼苗雌雄區(qū)分任務(wù)中,改進(jìn)后的模型比YOLOv8原始模型檢測效果更好。
1YOLOv8卷積神經(jīng)網(wǎng)絡(luò)
YOLOv8是由Ultralytics在2023年1月發(fā)布的一種典型的One stage目標(biāo)檢測算法,是一款基于傳統(tǒng)的YOLO(YouOnlyLookOnce)目標(biāo)檢測算法的改進(jìn)版本。相對以往的YOLO版本,YOLOv8通過一系列改進(jìn),目標(biāo)檢測性能有了全面的提升。YOLOv8的主要框架分為Input、Backbone、Neck、Head4個部分[21] 。
針對不同的目標(biāo)檢測場景,YOLOv8提供了 這5個不同版本的的模型,這些模型在網(wǎng)絡(luò)深度和檢測精度上依次增加[22]。根據(jù)該研究所述的目標(biāo)檢測場景,所選模型需要在保證檢測精度的同時,仍需要較好的檢測速度,因此選擇YOLOv8s版本進(jìn)行試驗(yàn)。其模型結(jié)構(gòu)見圖1。
2改進(jìn)方法
2.1引入GAM注意力機(jī)制機(jī)器視覺模型中的注意力機(jī)制使得模型可以調(diào)節(jié)來自不同通道的權(quán)重,讓模型可以將更多的注意力聚焦在一些重要的通道,從而提高模型的檢測效率和準(zhǔn)確性[23-24]。合適的注意力機(jī)制有助于模型更好地完成目標(biāo)檢測任務(wù)。因此,為了提高模型的性能,人們不斷地對注意力機(jī)制進(jìn)行改進(jìn),Liu等[25]在2021年提出了一種提高深度神經(jīng)網(wǎng)絡(luò)性能的全局注意力機(jī)制(globalattentionmech-anism,GAM)。
GAM注意力機(jī)制由通道注意力模塊和空間注意力模塊組成,原理如圖2\~4所示
通道注意力模塊通過3D排列來保持檢測目標(biāo)的三維信息,并通過多層感知機(jī)制(multi layerperception,MLP)來放大通道間的交互,其側(cè)重點(diǎn)在于檢測自標(biāo)的內(nèi)容信息??臻g注意力模塊使用卷積操作來融合空間信息,并采用通道隨機(jī)分組來減少參數(shù),其側(cè)重點(diǎn)在于檢測目標(biāo)的位置信息[26]。其計(jì)算方法如下:
通道注意力模塊和空間注意力模塊組合使用,加強(qiáng)了模型在通道維度和空間維度的交互,使檢測輸出能更加聚焦于重點(diǎn)信息,提升模型的檢測精度。該機(jī)制主要作用于從復(fù)雜背景中放大局部特征,提取關(guān)鍵信息,對于完成識別細(xì)小特征的任務(wù)有較好的幫助。在該研究的河蟹幼苗雌雄區(qū)分任務(wù)中,河蟹性別區(qū)分的關(guān)鍵點(diǎn)在于其腹部紋路的細(xì)小區(qū)別,該部分的特征識別完全決定了識別的結(jié)果。在YOLOv8的Backbone部分中,負(fù)責(zé)特征融合、提取特征信息的C2f模塊在向下輸出特征信息的過程中會丟失部分特征信息。為了降低這一部分特征信息的損失,調(diào)整特征提取過程中的權(quán)重,將GAM注意力機(jī)制引人YOLOv8模型的Backbone部分,將Backbone部分的第四層C2f模塊替換成C2f-GAM模塊。其具體結(jié)構(gòu)改進(jìn)見圖5。
2.2WIoU損失函數(shù)IoU(Intersectionoverunion)損失函數(shù)即交并比損失函數(shù),其反映預(yù)測框與真實(shí)框之間重疊度。IoU的計(jì)算方法如式(3)所示,即預(yù)測框和真實(shí)框的交集面積除以它們的并集面積,交并比原理見圖6。
式中:A為預(yù)測框面積; B 為真實(shí)框面積
YOLOv8的原始模型采用CIoU(compatibleintersectionoverunion)損失函數(shù)[27],其可以衡量預(yù)測框與真實(shí)框之間重疊度以及預(yù)測框和真實(shí)框的位置和大小,同時計(jì)算2個邊界框之間的相似度。其計(jì)算式如下:
式中: α 為權(quán)重函數(shù),用于平衡參數(shù); 為縱橫比度量函數(shù),用于衡量高寬比一致性。
計(jì)算表達(dá)見圖7。
Note: w , h ,and (x,y) in the figure represent the width,height,and center coordinates of the predicted box, respectively; ,
, (2
respectively represent thewidth,height dimensions, and center coordinates of the predicted box and the real box;
and
respectively represent the width and height dimensions of theintersection box generated by the predicted box and the real box;
and
respectively represent the minimum border widthandheightdimensions.
WIoU損失函數(shù)是IoU損失函數(shù)的改進(jìn)版本[28],WIoU去除了CIoU中的縱橫比懲罰項(xiàng),同時平衡高質(zhì)量和低質(zhì)量錨框?qū)τ谀P突貧w的影響,增強(qiáng)模型的泛化能力,提高模型的整體性能,因此該研究采用WIoU替換原始模型的CIoU損失函數(shù)以對模型損失函數(shù)進(jìn)行改進(jìn)。
WIoU(WiseIoU)共有WIoUv1、WIoUv2、WIoUv3這3個版本,WIoUv1根據(jù)距離度量構(gòu)建了距離注意力,具有兩層注意力機(jī)制,其計(jì)算式如下:
式中: 為距離損失;
為損失函數(shù);上標(biāo)
表示分離操作,它用于防止產(chǎn)生阻礙收斂的梯度。
WIoU 借鑒了FocalLoss的設(shè)計(jì)理念,設(shè)計(jì)了一種針對交叉熵的逐步聚焦機(jī)制,其有效降低了易分類樣本對總損失值的影響。這使得模型在訓(xùn)練時能更多的聚焦于困難樣本,提高了模型在分類任務(wù)上的性能。WIoU
構(gòu)造了單調(diào)聚焦系數(shù)和,
和
,由于增加了聚焦系數(shù)
1],在模型訓(xùn)練過程中,梯度增益隨著
的減小而減小,導(dǎo)致模型在訓(xùn)練后期的收斂速度有所放緩。因此,引入
均值作為歸一化因子。其計(jì)算式如下:
WIoU v3 在WIoUv1的基礎(chǔ)上設(shè)計(jì)了具有動態(tài)非單調(diào)的聚焦機(jī)制,利用該機(jī)制實(shí)現(xiàn)梯度增益分配策略。其利用 β 構(gòu)造了一個非單調(diào)聚焦系數(shù),為異常值較大的錨框分配較溫和的梯度增益,其可以有效抑制低質(zhì)量樣本產(chǎn)生較大的負(fù)面影響。其計(jì)算式如下:
式中 表示離群度,用來描述錨框質(zhì)量;
為
的均值; r
表示梯度增益,由超參數(shù) α,Δ 控制。
WIoU損失函數(shù)可以提高預(yù)測過程中的錨框質(zhì)量,提高模型的泛化能力。該研究分別使用WIoUv1、WIoUv2、WIoUv3替換YOLOv8模型中的CIoU損失函數(shù),對訓(xùn)練結(jié)果進(jìn)行比較,得到較適用WIoU模塊,以優(yōu)化模型的性能。比較結(jié)果見表1。
比較結(jié)果表明,使用WIoUv1模塊在準(zhǔn)確率、召回率、平均精度均值上的性能要優(yōu)于WIoUv2和WIoUv3,因此該研究選擇使用WIoUv1模塊替換原始模型的CIoU模塊。
2.3CRAFE上采樣方法上采樣方法是一種圖像處理方法,常用于計(jì)算機(jī)視覺中。在目標(biāo)檢測模型中,使用上采樣方法可以將提取到的特征圖進(jìn)行放大,使其獲得更大的分辨率,有助于模型后續(xù)對于該特征圖的處理和分析,提高模型的性能[29]。YOLOv8原始模型中使用的上采樣方法為最近鄰插值上采樣方法(nearestneighbor interpolation),其原理為對提取特征圖的相鄰部分像素進(jìn)行簡單的插值計(jì)算,放大分辨率,以獲取較大的特征圖。該方法僅基于像素的空間位置確定上采樣核,沒有利用特征圖的語義信息,感知域較小,容易丟失部分特征信息。因此,Wang等[30]提出了一種全新的算法———CARAFE(content-aware reassembly of features)上采樣算法[30]。該算法利用其中的核預(yù)測模塊和內(nèi)容感知模塊進(jìn)行上采樣,擁有較大的感受域的同時,還能將上采樣核與將要輸出的特征圖進(jìn)行信息重組,使得最后輸出的特征圖有更多的關(guān)鍵特征信息。
該研究河蟹幼苗雌雄區(qū)分任務(wù)中使用的河蟹均為發(fā)育成熟度為扣蟹的蟹苗,此階段的蟹苗在形態(tài)上會因?yàn)槌墒煸缤淼牟煌兴鶇^(qū)別,導(dǎo)致同類別蟹苗的腹部紋路也存在一定的差異。模型在訓(xùn)練時,針對類別相同的對象會提取出多個不同的特征信息,使用簡單的最近鄰插值上采樣方法處理時會在丟失一部分有用的特征信息,從而降低模型的性能。所以該研究將YOLOv8原始模型中的最近鄰插值上采樣方替換為CARAFE上采樣算法。
CARAFE上采樣算法由核預(yù)測模塊(kernel prediction onmodule)和內(nèi)容感知模塊(contentawarereassemblymodule)組成,其原理如圖8所示。圖中, 分別為輸人特征圖
的高、寬、長。
為降維后的通道數(shù), σ 為上采樣倍率,
為重組核大小
為重組特征圖,
表示以位置 l 為中心k×k 的子區(qū)域,即
的鄰域。
為
上與 N 相對應(yīng)大小相同的源位置。在核預(yù)測模塊中,首先使用通道壓縮器將形狀為H× W× C 特征圖的通道數(shù)進(jìn)行壓縮,得到形狀為
的特征圖,然后通過卷積核大小為
的內(nèi)容編碼器,得到重組核,使得輸出通道數(shù)為
,再將其通道在空間維度上展開,得到形狀為
的上采樣核。最后進(jìn)行歸一化處理,使其權(quán)重和為1,得到預(yù)輸出特征圖。在內(nèi)容感知重組模塊中,將預(yù)輸出特征圖映射回輸入特征圖,取其中大小為
的區(qū)域與經(jīng)過提取后的 N 區(qū)域作點(diǎn)積,最后得到大小為 σ H×σ W× C 的輸出特征圖。
3試驗(yàn)數(shù)據(jù)及方法
3.1樣本數(shù)據(jù)集由于現(xiàn)階段將機(jī)器視覺目標(biāo)檢測使用在蟹苗檢測方面的相關(guān)研究較少,蟹苗的公開數(shù)據(jù)集難以獲取,為了保證試驗(yàn)數(shù)據(jù)集的數(shù)量以及質(zhì)量,該研究對蟹苗在扣蟹階段腹部的外顯特征進(jìn)行拍攝。數(shù)據(jù)集中的蟹種均為中華絨螯蟹,使用蟹苗數(shù)量600只,蟹苗質(zhì)量為180~240只/kg,蟹苗雌雄比例約為 1:1 。最終收集數(shù)據(jù)集共1962張,其中雌蟹1008張,雄蟹954張,數(shù)據(jù)集分辨率均為4096x3072px,保存圖片格式為JPG。試驗(yàn)數(shù)據(jù)集按8:2的比例隨機(jī)劃分訓(xùn)練數(shù)據(jù)集(1570張)和驗(yàn)證數(shù)據(jù)集(392張)。
河蟹在扣蟹階段成熟度不足,很難通過體型、螯部形狀等其他方式進(jìn)行雌雄的區(qū)分,而在扣蟹階段,河蟹在腹部上的雌雄分化已經(jīng)完成,因此該研究對于蟹苗雌雄的區(qū)分方法均為觀察其腹部紋路特征。雌雄河蟹腹部示例見圖9:雌性河蟹的腹部紋路較寬大,形狀較圓,而雄性河蟹的腹部紋路較狹窄,形狀較尖。
在訓(xùn)練模型前,還需要對數(shù)據(jù)集進(jìn)行標(biāo)注,該研究使用的標(biāo)注工具為Labelimg。其標(biāo)注標(biāo)簽示例見圖10。標(biāo)注信息以xml文件格式保存,后續(xù)在訓(xùn)練前將其轉(zhuǎn)換為YOLOv8模型可識別的txt格式文件。標(biāo)注標(biāo)簽類別見表2。
3.2評價指標(biāo)該研究通過以下常用的3種系數(shù)作為模型性能的評價標(biāo)準(zhǔn),分別為精度(Precision, P ),召回率(Recall,R ),平均精度均值(meanAveragePrecision,mAP),其具體計(jì)算式如下:
式中: T 和 F 表示樣本實(shí)際的正反性; N 和 P 表示樣本預(yù)測結(jié)果的正反性。在該研究中,TP表示雌性河蟹被正確識別量;FN表示雌性河蟹被錯誤識別量;FP表示雄性河蟹被錯誤識別量;AP表示雌性或雄性的平均識別精度; m 表示河蟹性別共需分類的類別數(shù);i表示當(dāng)前類別的序列號。
3.3試驗(yàn)設(shè)備及參數(shù)試驗(yàn)設(shè)備的硬件配置為 12th GenCorei5-12400FCPU,NVIDIARTX4060TiGPU16G顯卡,操作系統(tǒng)為Windows10,64位,Python3.8版本,Pytorch2.0.0框架,Cuda11.8版本。訓(xùn)練參數(shù)見表3。
4試驗(yàn)結(jié)果與分析
為了驗(yàn)證前述改進(jìn)方法的有效性,該研究對每種改進(jìn)方法所得模型的訓(xùn)練結(jié)果進(jìn)行了直接比較,具體對比結(jié)果如表4所示。
對比表4初始模型A和改進(jìn)模型B的訓(xùn)練結(jié)果可見,改進(jìn)模型B的準(zhǔn)確度雖然沒有發(fā)生變化,但召回率和平均精度均值分別提高了2.5百分點(diǎn)和1.7百分點(diǎn),表明在Back-bone部分的C2f層引人GAM注意力機(jī)制模塊是有效的。模型C中損失函數(shù)的改進(jìn)是建立在模型B基礎(chǔ)上的,將模型B中的損失函數(shù)由原來的CIoU改為WIoUv1,提高模型在目標(biāo)檢測任務(wù)中的泛化能力。訓(xùn)練結(jié)果見表4,模型C對比模型B,在召回率上沒有明顯的變化,準(zhǔn)確率和平均精度均值分別提高了2.6百分點(diǎn)和1.0百分點(diǎn)。模型D在模型C的基礎(chǔ)上,對Head部分進(jìn)行一定的改進(jìn),將原有的兩層最近鄰插值上采樣模塊改為兩層CARAFE上采樣模塊,擴(kuò)大模型在上采樣過程中的感受域,提高了模型的性能。對比結(jié)果可知,模型D在準(zhǔn)確度、召回率、平均精度均值上均有一定提高,分別提高了0.6百分點(diǎn)、0.5百分點(diǎn)、0.2百分點(diǎn)。
表4對比試驗(yàn)
綜合試驗(yàn)結(jié)果和上述試驗(yàn)分析,該研究所述的改進(jìn)模型D對比原始模型A在準(zhǔn)確度、召回率、平均精度均值上分別提高了3.2百分點(diǎn)、3.2百分點(diǎn)、2.9百分點(diǎn)。為了進(jìn)一步驗(yàn)證該研究改進(jìn)的模型D在檢測性能上的提升,該研究將原始模型A和改進(jìn)模型D訓(xùn)練過程中的平均精度均值變化曲線進(jìn)行了比較分析。比較結(jié)果見圖11。
兩模型平均精度均值變化曲線如圖所示,在訓(xùn)練初期,模型D平均精度均值略低于模型A。隨著訓(xùn)練輪次的增加,兩模型的平均精度均值穩(wěn)步提升,在訓(xùn)練輪次達(dá)到90輪時,模型D的平均精度均值超過模型A。在訓(xùn)練后期,訓(xùn)練輪次在100\~200輪時,模型D的平均精度均值一直處于超過水平。結(jié)果表明,經(jīng)過改進(jìn)后的模型D在檢測性能上要優(yōu)于改進(jìn)前的模型A,改進(jìn)方法提高了模型的檢測能力。
為了進(jìn)一步驗(yàn)證改進(jìn)后的模型D在檢測任務(wù)中的檢測性能優(yōu)于改進(jìn)前的模型A,該研究將兩模型在檢測任務(wù)中的檢測效果圖進(jìn)行直接對比,對比結(jié)果見圖12。
從圖12可以看出,初始模型A在一部分檢測任務(wù)中對于蟹苗腹部紋路信息的判斷存在失誤,從而出現(xiàn)錯檢的情況,表明初始模型A在檢測過程中對于物體細(xì)節(jié)特征的檢測識別存在一定的不足,檢測效果有提升的空間。相比之下,改進(jìn)后的模型D在相同的檢測任務(wù)中,可以正確完成分類任務(wù)。
5結(jié)論
該研究針對河蟹幼苗階段雌雄分化不明顯,人工對河蟹幼苗雌雄分類準(zhǔn)確率不足的問題,提出一種基于改進(jìn)YOLOv8模型的河蟹幼苗雌雄檢測方法。模型改進(jìn)方法如下: ① 在Backbone部分引入GAM注意力機(jī)制,將第四層的C2f注意力機(jī)制替換為C2f-GAM; ② 將原始模型中的CIoU損失函數(shù)替換為WIov1損失函數(shù): ③ 在Head部分,用CARAFE上采樣方法替換原有的最近鄰插值上采樣方法。試驗(yàn)結(jié)果表明,改進(jìn)后的模型準(zhǔn)確率、召回率、平均精度均值分別為 98.4,91.1%.96.1% ,相比原始模型分別提升了3.2百分點(diǎn)、3.2百分點(diǎn)、2.9百分點(diǎn)。以上結(jié)果表明,改進(jìn)后的模型可以滿足河蟹養(yǎng)殖過程中對河蟹幼苗雌雄分類的需求,同時也證明了改進(jìn)方法的有效性。
參考文獻(xiàn)
[1]何玉長,方坤.人工智能與實(shí)體經(jīng)濟(jì)融合的理論闡釋[J].學(xué)術(shù)月刊,2018,50(5) :56-67.
[2]胡俊,杜傳忠.人工智能推動產(chǎn)業(yè)轉(zhuǎn)型升級的機(jī)制、路徑及對策[J].經(jīng)濟(jì)縱橫,2020(3):94-101.
[3]仇裕淇,黃振楠,阮昭,等.機(jī)器視覺技術(shù)在農(nóng)業(yè)生產(chǎn)智能化中的應(yīng)用綜述[J].機(jī)械研究與應(yīng)用,2019,32(2):202-206.
[4]朱云,凌志剛,張雨強(qiáng).機(jī)器視覺技術(shù)研究進(jìn)展及展望[J].圖學(xué)學(xué)報(bào),2020,41(6):871-890.
[5]王怡平,趙乃剛.中國的河蟹養(yǎng)殖及其發(fā)展前景[J].水生生物學(xué)報(bào),1999,23(6):735-740.
[6]樊祥國.我國河蟹養(yǎng)殖的現(xiàn)狀和發(fā)展對策[J].中國漁業(yè)經(jīng)濟(jì)研究,2000(4):14-15.
[7]冷碩穎.河蟹雌雄分塘養(yǎng)殖技術(shù)[J].科學(xué)養(yǎng)魚,2024(2):38-39.
[8]王一娟,陳曉蘭,王瑞祥.河蟹雌雄分養(yǎng)+“六月黃\"養(yǎng)殖模式畝效益超萬元[J].科學(xué)養(yǎng)魚,2024(3):35-36.
[9]HEJ,WU X G,LI JY,et al.Comparison of the cultureperformance andprofitability of wild-caught and captive pond-reared Chinese mitten crab(Eriocheirsinensis)juvenilesreared ingrow-out ponds:Implicationsforseed selection and genetic selection programs[J]. Aquaculture,2O14,434:48-56.
[10]趙恒亮.池塘養(yǎng)殖條件下中華絨螯蟹長江、黃河和遼河3個地理種群成蟹形態(tài)學(xué)、養(yǎng)殖性能和營養(yǎng)品質(zhì)的比較研究[D].上海:上海海洋大學(xué),2016.