龐利民
(寧波大龍農(nóng)業(yè)科技有限公司,浙江 寧波 315000)
蔬菜病蟲(chóng)害是影響蔬菜生產(chǎn)的重要因素,傳統(tǒng)的病蟲(chóng)害檢測(cè)方法主要依靠人工觀察和經(jīng)驗(yàn)判斷,具有效率低下、精度不高等缺點(diǎn)。隨著圖像識(shí)別技術(shù)的發(fā)展,利用基于深度卷積神經(jīng)網(wǎng)絡(luò)的蔬菜病蟲(chóng)害識(shí)別方法[1],可有效提高識(shí)別效率和準(zhǔn)確性。結(jié)合RGB 和HSV 顏色空間信息,通過(guò)訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型對(duì)病蟲(chóng)害圖像進(jìn)行自動(dòng)分類(lèi),收集蔬菜病蟲(chóng)害RGB 格式的原始圖像后,進(jìn)行降噪、增強(qiáng)、轉(zhuǎn)換等方式預(yù)處理,并計(jì)算RGB 圖像的顯著性圖[2],利用閾值化技術(shù)得到二值圖像,實(shí)現(xiàn)蔬菜表型病蟲(chóng)害的識(shí)別。
基于圖像識(shí)別的蔬菜表型特征的病蟲(chóng)害識(shí)別技術(shù)主要利用圖像處理和機(jī)器學(xué)習(xí)算法,對(duì)蔬菜葉片、果實(shí)等部位進(jìn)行特征提取和分類(lèi)識(shí)別,主要分為圖像收集、圖像預(yù)處理、特征提取、分類(lèi)識(shí)別和后處理等步驟。
圖像預(yù)處理是病蟲(chóng)害識(shí)別的基礎(chǔ)步驟,主要通過(guò)降噪、增強(qiáng)、轉(zhuǎn)換等方式改善圖像質(zhì)量,提高后續(xù)處理的精度和穩(wěn)定性。特征提取是從預(yù)處理后的圖像中提取出與病蟲(chóng)害相關(guān)的表型特征,如顏色、形狀、紋理等。分類(lèi)識(shí)別是利用機(jī)器學(xué)習(xí)算法對(duì)提取的特征進(jìn)行分類(lèi)和識(shí)別,從而確定病蟲(chóng)害的種類(lèi)和嚴(yán)重程度。后處理是對(duì)分類(lèi)識(shí)別的結(jié)果進(jìn)行進(jìn)一步的處理和分析,如數(shù)據(jù)可視化、結(jié)果評(píng)估等。
圖像預(yù)處理的去噪算法主要包括以下5 種。
1)Wiener 濾波算法。Wiener 濾波器是一種基于頻域的濾波器,通過(guò)最小化噪聲功率譜來(lái)去除噪聲,Wiener 濾波器在去除噪聲的同時(shí)盡量保留圖像的細(xì)節(jié)。
2)高斯濾波算法。高斯濾波器是一種線(xiàn)性平滑濾波器,通過(guò)使用高斯函數(shù)對(duì)圖像進(jìn)行卷積來(lái)去除噪聲,高斯濾波器在去除噪聲的同時(shí)能夠保持圖像的平滑。
3)雙邊濾波算法。雙邊濾波器是一種非線(xiàn)性平滑濾波器,在保持圖像邊緣清晰的同時(shí)去除噪聲。雙邊濾波器通過(guò)將像素點(diǎn)的值設(shè)置為鄰域內(nèi)像素點(diǎn)的加權(quán)平均值來(lái)去除噪聲,其中權(quán)重的計(jì)算考慮了像素間的空間距離和灰度差異。
4)自適應(yīng)濾波算法。自適應(yīng)濾波器能夠根據(jù)圖像的局部特性自適應(yīng)地調(diào)整濾波器的參數(shù),以達(dá)到更好的去噪效果。常見(jiàn)的自適應(yīng)濾波器包括自適應(yīng)Wiener 濾波器和自適應(yīng)中值濾波器等。
5)基于深度學(xué)習(xí)的去噪算法[3]。近年來(lái),基于深度學(xué)習(xí)的圖像去噪算法取得了很大的進(jìn)展,這些算法通過(guò)訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)來(lái)學(xué)習(xí)圖像去噪的映射關(guān)系,能夠在去除噪聲的同時(shí)較好地保留圖像的細(xì)節(jié)和紋理。
本研究采用Wiener 濾波算法,適合在蔬菜表型特征病蟲(chóng)害的識(shí)別。如式(1)所示。
式中:y(n)表示輸出信號(hào),X(n)表示輸入信號(hào),H(m)表示濾波器的沖擊響應(yīng)。
為了確定最佳的濾波器系數(shù),Wiener 濾波器利用了最小均方誤差MSE 準(zhǔn)則,即最小化輸出信號(hào)與期望信號(hào)之間的誤差平方和。通過(guò)求解最優(yōu)濾波器的系數(shù),可以使得輸出的均方誤差最小[4]。
為了更好地表示蔬菜病蟲(chóng)害的特征信息,本研究采用了多種特征提取方法。利用顏色衰減技術(shù)從原始RGB 圖像中提取出具有代表性的顏色特征,這一過(guò)程有助于減少冗余信息,突出蔬菜病蟲(chóng)害特征的顏色差異。此外,將原始RGB 圖像轉(zhuǎn)換為HSV 顏色空間,進(jìn)一步提取出與人類(lèi)視覺(jué)感知相近的顏色特征。同時(shí),通過(guò)計(jì)算各顏色在整張圖像中的比例,提取出更具有代表性的顏色信息。
使用K-means 方法對(duì)HSV 圖像進(jìn)行聚類(lèi),將HSV圖像轉(zhuǎn)換為K-means 算法可以處理的格式,K-means算法是一種無(wú)監(jiān)督的機(jī)器學(xué)習(xí)算法,用于將數(shù)據(jù)點(diǎn)聚類(lèi)成K 個(gè)不同的組。在此場(chǎng)景中,使用K-means 算法將HSV 圖像中的像素聚類(lèi)成若干顏色近似區(qū)域。計(jì)算RGB 圖像的顯著性圖包括以下幾個(gè)步驟。
1)計(jì)算區(qū)域間的距離和面積。在完成聚類(lèi)后,需要計(jì)算區(qū)域間的距離和面積。對(duì)于區(qū)域內(nèi)的像素點(diǎn),需要計(jì)算像素點(diǎn)之間的空間距離Ds,以及任意其他區(qū)域的面積A(ri)。
2)計(jì)算RGB 顏色空間距離。RGB 顏色空間距離是衡量2 個(gè)像素顏色差異的重要指標(biāo)。在RGB 顏色空間中,顏色差異可以通過(guò)比較像素值的差異來(lái)度量。Dr表示2 個(gè)區(qū)域的RGB 顏色空間距離[5]。
3)計(jì)算顯著性值S。每個(gè)區(qū)域的顯著性值S見(jiàn)式(2)。式(2)是基于顏色和空間信息的加權(quán)函數(shù),用于衡量一個(gè)區(qū)域相對(duì)于其他區(qū)域的顯著性。
根據(jù)K-means 方法將HSV 圖像聚類(lèi)成若干顏色近似區(qū)域,并根據(jù)式(2)計(jì)算在衰減的RGB 圖像的對(duì)應(yīng)區(qū)域內(nèi)計(jì)算各區(qū)域的顯著性值S。
式中:rk為當(dāng)前區(qū)域,ri為任意其它區(qū)域,Ds為2 個(gè)區(qū)域中心點(diǎn)的空間距離,A(ri)為任意其他區(qū)域的面積,Dr為2 個(gè)區(qū)域的RGB 顏色空間距離。ε的取值區(qū)間為0.3~0.5。
Dr(r1,r2)的計(jì)算公式詳見(jiàn)式(3)。
式中:p(cm,n)為第m 個(gè)區(qū)域中第n 種顏色所占的比例,D(c1,i,c2,j)為2 種顏色在衰減后的RGB 顏色空間中的距離,n1、n2分別為r1、r2區(qū)域中顏色的總數(shù)。
通過(guò)以上步驟,可以計(jì)算出RGB 圖像的顯著性圖[6]。顯著性圖是一種反映不同區(qū)域顯著性的圖像,有助于突出圖像中的重要信息,提高圖像識(shí)別的準(zhǔn)確性和效率。在后續(xù)的圖像處理和分析中,顯著性圖可以作為重要的特征輸入到深度卷積神經(jīng)網(wǎng)絡(luò)中進(jìn)行訓(xùn)練和分類(lèi)。
深度卷積神經(jīng)網(wǎng)絡(luò)(CNN)是一種深度學(xué)習(xí)的算法模型,廣泛應(yīng)用于計(jì)算機(jī)視覺(jué)領(lǐng)域。本研究采用CNN 作為主要的分類(lèi)模型,通過(guò)訓(xùn)練學(xué)習(xí)從輸入的蔬菜病蟲(chóng)害圖像中提取出有價(jià)值的特征信息。
具體而言,構(gòu)建一個(gè)包含多個(gè)卷積層、池化層和全連接層的神經(jīng)網(wǎng)絡(luò)模型。在訓(xùn)練過(guò)程中,將前面提取的特征輸入到神經(jīng)網(wǎng)絡(luò)中進(jìn)行學(xué)習(xí)分類(lèi)。通過(guò)反向傳播算法不斷調(diào)整網(wǎng)絡(luò)參數(shù)優(yōu)化模型的分類(lèi)性能,同時(shí)采用交叉驗(yàn)證等技術(shù)防止過(guò)擬合現(xiàn)象的發(fā)生,進(jìn)一步提高模型的泛化能力。
蔬菜圖像數(shù)據(jù)的準(zhǔn)備對(duì)卷積神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)模型訓(xùn)練有著重要影響,當(dāng)樣本數(shù)據(jù)數(shù)量不足的時(shí),會(huì)嚴(yán)重影響模型訓(xùn)練或者導(dǎo)致訓(xùn)練的模型泛化程度不夠,識(shí)別率與準(zhǔn)確率不高。通過(guò)基于標(biāo)準(zhǔn)化方法和基于生成對(duì)抗網(wǎng)絡(luò)的深度學(xué)習(xí)方法進(jìn)行蔬菜長(zhǎng)勢(shì)與病蟲(chóng)害數(shù)據(jù)集的增強(qiáng)。蔬菜數(shù)據(jù)增強(qiáng)標(biāo)準(zhǔn)化方法如圖1所示。
圖1 蔬菜數(shù)據(jù)增強(qiáng)標(biāo)準(zhǔn)化方法
基于生成對(duì)抗網(wǎng)絡(luò)的深度學(xué)習(xí)方法進(jìn)行蔬菜病害數(shù)據(jù)增強(qiáng),對(duì)生成的數(shù)據(jù)進(jìn)行分類(lèi),該網(wǎng)絡(luò)有利于對(duì)數(shù)據(jù)的學(xué)習(xí),并且實(shí)現(xiàn)數(shù)據(jù)增強(qiáng),即數(shù)據(jù)處理和分類(lèi)器訓(xùn)練可以在內(nèi)存中同步處理,不需要另外的數(shù)據(jù)存儲(chǔ)空間。
在病蟲(chóng)害識(shí)別和程度分析上采用了VGG 模型作為基礎(chǔ)模型,并使用預(yù)訓(xùn)練和參數(shù)微調(diào)的方式來(lái)加速網(wǎng)絡(luò)收斂。
VGG 模型是一種卷積神經(jīng)網(wǎng)絡(luò)模型,VGG 模型首先從蔬菜圖像中提取特征,然后通過(guò)分類(lèi)器對(duì)這些特征進(jìn)行分類(lèi),以確定是否存在病蟲(chóng)害以及其種類(lèi)。
為了提高模型的泛化能力,采用預(yù)訓(xùn)練和參數(shù)微調(diào)的方法,在大型圖像數(shù)據(jù)集上訓(xùn)練模型,然后將其用作其他任務(wù)的初始化模型,再使用特定任務(wù)的訓(xùn)練數(shù)據(jù)對(duì)模型進(jìn)行微小的調(diào)整,使其更適合該任務(wù)。
為了訓(xùn)練高效的蔬菜病蟲(chóng)害識(shí)別模型,采用合適的優(yōu)化方法來(lái)更新網(wǎng)絡(luò)參數(shù)并最小化分類(lèi)誤差,算法包括梯度下降、隨機(jī)梯度下降、Adam 等。根據(jù)試驗(yàn)效果選擇合適的優(yōu)化器以及調(diào)整超參數(shù)(如學(xué)習(xí)率等)來(lái)提高模型的訓(xùn)練效果。在訓(xùn)練過(guò)程中,采用批歸一化技術(shù)加速訓(xùn)練進(jìn)程并提高模型的泛化能力,同時(shí)采用早停法防止過(guò)擬合現(xiàn)象的發(fā)生,提高模型的性能。
二值圖像所指代區(qū)域作為初始區(qū)域,以GrabCut算法經(jīng)分4 次迭代分割所述二值圖像所指代的RGB 圖像區(qū)域,獲得蔬菜病蟲(chóng)葉片目標(biāo)。
基于二值圖像分割病蟲(chóng)害目標(biāo)的方法主要包括以下幾個(gè)步驟。
1)預(yù)處理和閾值化。預(yù)處理原始RGB 圖像,包括降噪、歸一化等操作,以提高圖像質(zhì)量。利用閾值化技術(shù)將圖像轉(zhuǎn)換為二值圖像,以便于后續(xù)的區(qū)域提取和分割。
2)提取初始區(qū)域。在二值圖像中,以通過(guò)形態(tài)學(xué)操作、區(qū)域增長(zhǎng)算法等技術(shù)將連通的病蟲(chóng)害目標(biāo)區(qū)域作為初始區(qū)域。
3)GrabCut 算法迭代分割。使用GrabCut 算法對(duì)初始區(qū)域進(jìn)行迭代分割,以獲得更精確的病蟲(chóng)害目標(biāo)。GrabCut 算法是一種圖像分割算法,通過(guò)迭代優(yōu)化一個(gè)能量函數(shù)來(lái)獲取最優(yōu)的分割結(jié)果。
4)迭代次數(shù)控制。GrabCut 算法經(jīng)過(guò)至多4 次迭代來(lái)分割初始區(qū)域。在每次迭代中,算法會(huì)根據(jù)圖像的特征和先驗(yàn)知識(shí)來(lái)更新分割邊界,直到達(dá)到預(yù)定的迭代次數(shù)或滿(mǎn)足收斂條件。
5)后處理和提取。對(duì)分割得到的病蟲(chóng)害目標(biāo)進(jìn)行后處理,如去除噪聲、平滑邊界等,以提高目標(biāo)的準(zhǔn)確性和完整性。根據(jù)處理后的結(jié)果提取出害蟲(chóng)或蔬菜葉片目標(biāo),并進(jìn)行必要的特征提取和分類(lèi)識(shí)別。
通過(guò)以上步驟,基于二值圖像分割病蟲(chóng)害目標(biāo)的方法能夠有效地從原始RGB 圖像中提取出病蟲(chóng)害目標(biāo),為后續(xù)的識(shí)別和分類(lèi)提供準(zhǔn)確可靠的特征信息。這種方法能夠降低誤判率,提高識(shí)別精度,為農(nóng)業(yè)病蟲(chóng)害監(jiān)測(cè)和防治提供有力的技術(shù)支持。
基于圖像識(shí)別的蔬菜表型特征的病蟲(chóng)害識(shí)別技術(shù)為現(xiàn)代農(nóng)業(yè)發(fā)展提供了有力支持,具有廣闊的應(yīng)用前景和發(fā)展空間?;趫D像識(shí)別的蔬菜表型特征的病蟲(chóng)害識(shí)別技術(shù)可以應(yīng)用于各種類(lèi)型的蔬菜生產(chǎn)中,如葉菜類(lèi)、根莖類(lèi)、果菜類(lèi)等。通過(guò)應(yīng)用該技術(shù),可以實(shí)現(xiàn)對(duì)蔬菜生長(zhǎng)過(guò)程的實(shí)時(shí)監(jiān)測(cè)和記錄,對(duì)不同生長(zhǎng)階段的各種病蟲(chóng)害風(fēng)險(xiǎn)進(jìn)行預(yù)測(cè)和預(yù)警,提前采取防治措施,減少病蟲(chóng)害的發(fā)生和擴(kuò)散。同時(shí),該技術(shù)還可以為蔬菜生產(chǎn)提供科學(xué)依據(jù),優(yōu)化生產(chǎn)管理,結(jié)合大數(shù)據(jù)和人工智能技術(shù),實(shí)現(xiàn)病蟲(chóng)害防治方案的智能化推薦和決策支持,提高蔬菜的產(chǎn)量和質(zhì)量。隨著技術(shù)的不斷進(jìn)步和應(yīng)用領(lǐng)域的拓展,該技術(shù)將為農(nóng)業(yè)生產(chǎn)帶來(lái)更多創(chuàng)新和價(jià)值。
基于圖像識(shí)別的蔬菜表型特征的病蟲(chóng)害識(shí)別技術(shù)具有以下幾種優(yōu)勢(shì)。1)自動(dòng)化程度高,可減少人工成本。2)檢測(cè)精度高,可避免傳統(tǒng)檢測(cè)方法中的人為誤差和漏檢問(wèn)題。3)可實(shí)現(xiàn)實(shí)時(shí)監(jiān)測(cè)和預(yù)警,有利于提前采取防治措施。4)可優(yōu)化生產(chǎn)管理,提高蔬菜的產(chǎn)量和質(zhì)量。
然而,該技術(shù)也存在一定的局限性,對(duì)于復(fù)雜背景或光照不均的圖像處理效果較差。對(duì)于不同品種、不同生長(zhǎng)環(huán)境的蔬菜可能需要進(jìn)行特定的訓(xùn)練和學(xué)習(xí),對(duì)于一些特殊或罕見(jiàn)的病蟲(chóng)害種類(lèi)可能會(huì)出現(xiàn)誤判或無(wú)法識(shí)別的情況。隨著人工智能和計(jì)算機(jī)視覺(jué)技術(shù)的不斷發(fā)展,基于圖像識(shí)別的蔬菜表型特征的病蟲(chóng)害識(shí)別技術(shù)將進(jìn)一步優(yōu)化和完善,提高識(shí)別精度和速度,通過(guò)改進(jìn)算法和優(yōu)化模型,提高病蟲(chóng)害識(shí)別的準(zhǔn)確度和處理速度。實(shí)現(xiàn)多模態(tài)信息融合,將圖像信息與氣象、土壤等其他類(lèi)型的數(shù)據(jù)進(jìn)行融合,進(jìn)一步提高識(shí)別準(zhǔn)確度。
基于圖像識(shí)別的蔬菜表型特征的病蟲(chóng)害識(shí)別技術(shù)是一種高效、準(zhǔn)確的蔬菜病蟲(chóng)害檢測(cè)方法。該技術(shù)通過(guò)自動(dòng)化地提取和分類(lèi)蔬菜表型特征,能夠快速、準(zhǔn)確地檢測(cè)和識(shí)別蔬菜病蟲(chóng)害的種類(lèi)和發(fā)生程度,為及時(shí)采取防治措施提供科學(xué)依據(jù)。該技術(shù)的應(yīng)用有利于提高蔬菜生產(chǎn)效率、質(zhì)量和安全性,促進(jìn)農(nóng)業(yè)可持續(xù)發(fā)展。該技術(shù)還有望在智能農(nóng)業(yè)、精準(zhǔn)農(nóng)業(yè)等領(lǐng)域得到更廣泛的應(yīng)用和發(fā)展,是現(xiàn)代農(nóng)業(yè)信息技術(shù)的重要組成部分。