張 萌,鐘 南,劉瑩瑩
?
基于生豬外形特征圖像的瘦肉率估測(cè)方法
張 萌1,2,鐘 南1※,劉瑩瑩1
(1. 華南農(nóng)業(yè)大學(xué)工程學(xué)院/教育部南方農(nóng)業(yè)機(jī)械與裝備關(guān)鍵技術(shù)重點(diǎn)實(shí)驗(yàn)室/廣東省食品質(zhì)量安全重點(diǎn)實(shí)驗(yàn)室,廣州 510642;2. 安徽省農(nóng)業(yè)科學(xué)院農(nóng)業(yè)經(jīng)濟(jì)與信息研究所,合肥 230031)
為實(shí)現(xiàn)生豬瘦肉率的快速無(wú)損檢測(cè),以機(jī)器視覺(jué)為主要技術(shù),通過(guò)生豬的外形特征圖像進(jìn)行瘦肉率估測(cè),為飼養(yǎng)者與收購(gòu)者提供生豬品級(jí)的決策依據(jù)。采用MATLAB為開(kāi)發(fā)工具,通過(guò)圖形用戶(hù)界面(graphical user interface,GUI)實(shí)現(xiàn)軟件操作界面,以生豬的側(cè)面及背面圖像為研究對(duì)象,利用圖像處理技術(shù)從目標(biāo)中提取體長(zhǎng)、體高、胸深、腹長(zhǎng)、臀寬、腰寬等數(shù)據(jù),以這些體尺的比例(胸深體高比、臀寬體長(zhǎng)比、臀寬腰寬比、腹長(zhǎng)體長(zhǎng)比)為參數(shù),通過(guò)徑向基函數(shù)(radial basis function,RBF)神經(jīng)網(wǎng)絡(luò)進(jìn)行瘦肉率估測(cè)。該文分別對(duì)7組生豬外形圖像進(jìn)行處理,4項(xiàng)比例指標(biāo)的平均估測(cè)準(zhǔn)確率分別為92.90%、92.44%、95.17%、96.51%,瘦肉率的平均估測(cè)準(zhǔn)確率為94.35%。結(jié)果表明,該文所構(gòu)造的基于生豬外形特征圖像的瘦肉率估測(cè)方法工作效率高,成本低,可用于估測(cè)生豬瘦肉率。
機(jī)器視覺(jué);圖像分割;模型;瘦肉率;活體豬;RBF神經(jīng)網(wǎng)絡(luò)
隨著人民生活水平的提高,養(yǎng)豬生產(chǎn)發(fā)生了從數(shù)量型到質(zhì)量型的轉(zhuǎn)變,檢測(cè)機(jī)構(gòu)、生產(chǎn)企業(yè)和消費(fèi)者對(duì)生豬品級(jí)的要求逐漸提高,而瘦肉率是生豬品級(jí)最重要的指標(biāo)之一,各國(guó)也是根據(jù)胴體瘦肉率的不同將豬胴體劃分為不同等級(jí)[1]。對(duì)于生豬屠宰行業(yè)和部分食品加工行業(yè)來(lái)說(shuō),擁有一套可以快速無(wú)損檢測(cè)生豬瘦肉率的方法十分必要。
目前,國(guó)內(nèi)外對(duì)瘦肉率的評(píng)測(cè)大概分為兩種:一種是在屠宰線上進(jìn)行,將豬胴體的皮、脂、肉、骨分離,稱(chēng)質(zhì)量后計(jì)算其百分比[2],這種方法耗時(shí)耗力,操作過(guò)程復(fù)雜;第二種是使用背膘測(cè)定儀、瘦肉率測(cè)定儀等儀器設(shè)備進(jìn)行無(wú)損檢測(cè)[3]。這類(lèi)設(shè)備價(jià)格昂貴,實(shí)際操作時(shí)需要逐一檢測(cè),不適合中小型企業(yè)使用。
國(guó)內(nèi)還有以人工感官為依據(jù),憑借專(zhuān)家經(jīng)驗(yàn),根據(jù)生豬的外形特征對(duì)生豬品級(jí)進(jìn)行評(píng)定。這種方法雖然過(guò)程簡(jiǎn)單,但受主觀意識(shí)影響大,可重復(fù)性差,相關(guān)專(zhuān)家的培訓(xùn)也存在一定的難度。機(jī)器視覺(jué)技術(shù)以代替人工感官為目的[4],用計(jì)算機(jī)技術(shù)模擬人的視覺(jué),從目標(biāo)圖像中提取所需要的特征信息,并對(duì)信息進(jìn)行分析決策,將人 的感官數(shù)據(jù)化、標(biāo)準(zhǔn)化、智能化[5],解決了人工感覺(jué)受主觀意識(shí)影響的問(wèn)題,具有信息量大、檢測(cè)速度快等特點(diǎn)[6]。國(guó)外對(duì)于機(jī)器視覺(jué)在豬肉品質(zhì)檢測(cè)方面的應(yīng)用,主要集中在分割后豬肉的紋理檢測(cè),無(wú)法獲得瘦肉率、屠宰率等全局指標(biāo)[7]。
本文以MATLAB為開(kāi)發(fā)工具,通過(guò)工具中的GUI功能編寫(xiě)操作界面,利用圖像處理技術(shù)從目標(biāo)圖像中提取系統(tǒng)所需的特征參數(shù),用實(shí)測(cè)數(shù)據(jù)庫(kù)訓(xùn)練RBF神經(jīng)網(wǎng)絡(luò),通過(guò)訓(xùn)練好的網(wǎng)絡(luò)估測(cè)出對(duì)應(yīng)目標(biāo)的瘦肉率。以機(jī)器視覺(jué)代替人工感官,從而解決人工感官方法中出現(xiàn)的受主觀意識(shí)影響、可重復(fù)性差等問(wèn)題,為高效率、低成本估測(cè)活體豬瘦肉率提供方法指導(dǎo)。
1.1 系統(tǒng)界面設(shè)計(jì)
MATLAB(matrix laboratory,矩陣實(shí)驗(yàn)室)是一款用于矩陣數(shù)值計(jì)算的軟件,軟件中很多運(yùn)算都是通過(guò)矩陣的形式進(jìn)行的。MATLAB擁有專(zhuān)業(yè)的圖像處理工具箱(image processing toolbox)和神經(jīng)網(wǎng)絡(luò)工具箱(neural network toolbox)[8],工具箱內(nèi)包含大量?jī)?nèi)建函數(shù),可以簡(jiǎn)單實(shí)現(xiàn)大多數(shù)固定和成熟的算法。本研究以MATLAB為開(kāi)發(fā)軟件,通過(guò)圖形用戶(hù)界面(graphical user interface,GUI)功能實(shí)現(xiàn)的操作界面如圖1。
操作界面包括基本操作模塊、形態(tài)學(xué)操作模塊、圖像顯示模塊和數(shù)據(jù)顯示模塊?;静僮靼▓D像輸入、圖像預(yù)處理、圖像分割、智能分割優(yōu)化、特征提取、數(shù)據(jù)預(yù)測(cè)和清空選項(xiàng)。形態(tài)學(xué)可選操作主要是形態(tài)學(xué)的各項(xiàng)操作,當(dāng)用戶(hù)對(duì)智能分割優(yōu)化效果不滿(mǎn)意時(shí),可以自由選擇結(jié)構(gòu)元素大小和具體形態(tài)學(xué)運(yùn)算操作,直到達(dá)到滿(mǎn)意的分割效果為止。數(shù)據(jù)顯示包括從圖像中提取的側(cè)面體長(zhǎng)、背面體長(zhǎng)、體高、胸深、腹長(zhǎng)、臀寬和腰寬7項(xiàng)體尺指標(biāo),通過(guò)計(jì)算得到的胸深體高比、臀寬體長(zhǎng)比、臀寬腰寬比和腹長(zhǎng)體長(zhǎng)比4項(xiàng)比例指標(biāo),以及系統(tǒng)預(yù)測(cè)的瘦肉率等數(shù)據(jù)指標(biāo)。所有的指標(biāo)數(shù)據(jù)都設(shè)置有一定的范圍,當(dāng)檢測(cè)的指標(biāo)超出這個(gè)范圍,即判定為系統(tǒng)故障或檢測(cè)目標(biāo)異常,檢測(cè)狀態(tài)顯示為“異常”,當(dāng)檢測(cè)指標(biāo)均在范圍內(nèi)時(shí),則檢測(cè)狀態(tài)顯示為“正?!薄D像顯示模塊包括原始圖像和分割圖像,通過(guò)這個(gè)模塊可以判斷圖像處理模塊是否正常工作,同時(shí)檢測(cè)圖像的分割效果,為用戶(hù)提供判斷依據(jù)。
圖1 圖形處理界面
1.2 數(shù)據(jù)采集
挑選123頭皖北地區(qū)商品豬(安徽省東升食品有限公司提供)作為試驗(yàn)材料,品種均為外三元(杜長(zhǎng)大,杜大長(zhǎng)),年齡均為6個(gè)月左右。將樣品豬逐一趕到鐵質(zhì)固定欄內(nèi),使之自然站立,為了避免對(duì)活體豬造成外界刺激,用皮尺緊貼固定欄外側(cè)進(jìn)行體尺測(cè)量[5],得到側(cè)面體長(zhǎng)、背面體長(zhǎng)、體高、胸深、腹長(zhǎng)、臀寬、腰寬7項(xiàng)體尺指標(biāo),并在屠宰后使用分割稱(chēng)質(zhì)量的方法計(jì)算得出瘦肉率。
為了與圖像處理中特征提取的方法相一致,所有數(shù)據(jù)均取關(guān)鍵點(diǎn)的直線距離,而非沿輪廓的曲線距離,具體測(cè)量方法如下:側(cè)面體長(zhǎng)是指鼻后端到后臀部的水平距離;背面體長(zhǎng)是指豬頸部中點(diǎn)到后臀部中點(diǎn)的距離;體高是指背部最高點(diǎn)到前足最低點(diǎn)的垂直距離;胸深是指前足與腹部交界處到背部最高點(diǎn)的垂直距離;腹長(zhǎng)是指前足與腹部交界處到后足與腹部交界處的水平距離;根據(jù)生豬外形的固有特性,臀寬是指背部最大體寬;腰寬是指除去頭頸部和尾部外的最小體寬[9]。體尺測(cè)量參數(shù)示意如圖2。
圖像采集工具選用Sony WX350相機(jī),影像尺寸設(shè)置為S:2.5 M,采用程序自動(dòng)曝光模式進(jìn)行拍攝,圖像格式為JPG,并在后期將所有圖像的分辨率統(tǒng)一處理為1 024×768像素?;铙w豬在不同形態(tài)下,外形特征會(huì)有所差異,但是系統(tǒng)所選用的特征參數(shù)不用考慮細(xì)節(jié)差異,只有活體豬在蜷縮狀態(tài)下才會(huì)產(chǎn)生較大誤差[10],而活體豬在自然站立或行走時(shí)不會(huì)出現(xiàn)蜷縮的狀態(tài)[11]。為了避免豬體蜷縮所造成的數(shù)據(jù)誤差和固定欄對(duì)采集照片的遮擋,在豬棚內(nèi),任生豬靠墻壁自由行走,使用相機(jī)采集側(cè)面圖像;在活體豬行走時(shí),在其正上方采集背面圖像[12]。本研究從123頭樣本豬中隨機(jī)挑選7頭作為拍攝對(duì)象,一共采集了7組圖像。
圖2 體尺測(cè)量參數(shù)示意圖
活體豬經(jīng)沐浴、擊暈、放血、去頭蹄、取內(nèi)臟、分割成二分體后,將肉、脂、骨、皮等分割并分別稱(chēng)質(zhì)量,計(jì)算瘦肉占總質(zhì)量的百分比[13-14],即
式中LMP是瘦肉率(%),LM是瘦肉的總質(zhì)量(kg),Total是豬體總質(zhì)量(kg)。用沒(méi)有采集圖像的116頭豬對(duì)應(yīng)的數(shù)據(jù)建立數(shù)據(jù)庫(kù),進(jìn)行試驗(yàn)分析[15],從而建立關(guān)系模型,116組實(shí)測(cè)數(shù)據(jù)的統(tǒng)計(jì)結(jié)果如表1。
表1 實(shí)測(cè)值的基本統(tǒng)計(jì)
1.3 數(shù)據(jù)分析
不同的焦距、物距會(huì)使圖像存在不同的比例尺度,為了避免這些因素,本研究不使用具體的長(zhǎng)度、面積等參數(shù),而是選用它們的比例值。系統(tǒng)選取胸深體高比、臀寬體長(zhǎng)比、臀寬腰寬比和腹長(zhǎng)體長(zhǎng)比4項(xiàng)比例值作為外形特征參數(shù)[16-17],并通過(guò)SPSS軟件分析這些外形特征與瘦肉率之間的關(guān)系,可得瘦肉率與外形特征之間存在關(guān)系模型:
式中cbr是胸深體高比,hbr是臀寬體長(zhǎng)比,hwr是臀寬腰寬比,bbr是腹長(zhǎng)體長(zhǎng)比。分析結(jié)果表明,瘦肉率與胸深體高比、臀寬體長(zhǎng)比、臀寬腰寬比成正比關(guān)系,與腹長(zhǎng)體長(zhǎng)比成反比關(guān)系。
1.4 圖像處理與特征提取
圖像處理流程如圖3。
圖3 不同圖像處理階段比較
1.4.1 圖像預(yù)處理
系統(tǒng)中的圖像處理均是對(duì)圖像的灰度值進(jìn)行運(yùn)算,灰度值的大小只代表像素點(diǎn)的亮度強(qiáng)弱,與彩色因素?zé)o關(guān),故先將采集的彩色圖像轉(zhuǎn)換為灰度圖像。采集到的圖像中難免存在一些影響分割的噪聲,需要進(jìn)行相關(guān)操作減弱噪聲[18],故采用雙邊濾波和直方圖均衡化2種方法進(jìn)行圖像平滑。
圖像濾波是指將目標(biāo)點(diǎn)與其鄰域內(nèi)的其他點(diǎn)進(jìn)行各類(lèi)運(yùn)算,將運(yùn)算的結(jié)果替代原點(diǎn)的灰度值,以此來(lái)改善圖像質(zhì)量的方法。雙邊濾波是一種保邊去噪的濾波器,運(yùn)算過(guò)程由2個(gè)函數(shù)組成,一個(gè)函數(shù)的濾波器系數(shù)是由幾何空間的距離決定,另一個(gè)函數(shù)的濾波器系數(shù)由像素的差值決定[19]。輸出像素為
式中(,)為輸入像素的位置,(,)為鄰域像素的位置,為鄰域像素的值,權(quán)重系數(shù)由定義域核和值域核的乘積決定
(4)
對(duì)比度反映了圖像中亮區(qū)域和暗區(qū)域的層次感,調(diào)節(jié)對(duì)比度實(shí)際上就是在保持亮度不變的前提下,擴(kuò)大或縮小亮點(diǎn)與暗點(diǎn)的差距,直方圖均衡化是比較常見(jiàn)的一種間接增強(qiáng)方法。直方圖均衡化是一種點(diǎn)運(yùn)算,通過(guò)對(duì)原始圖像中每一個(gè)像素點(diǎn)進(jìn)行運(yùn)算,進(jìn)而得到處理后的圖像[20]。主要思想是將灰度值重新進(jìn)行分配,以實(shí)現(xiàn)最大程度上的均勻分布。首先統(tǒng)計(jì)原始圖像的灰度值分布情況,得直方圖,然后通過(guò)直方圖計(jì)算累計(jì)分布曲線[21],將累計(jì)分布函數(shù)作為變換函數(shù)對(duì)圖像進(jìn)行修正處理。
1.4.2 圖像分割和輪廓提取
圖像預(yù)處理的目的就是讓圖像更易于分割,本研究采用最大類(lèi)間方差法對(duì)圖像進(jìn)行閾值分割[22]。由于預(yù)處理無(wú)法消除所有噪聲,閾值分割可能出現(xiàn)誤分割區(qū)域,本研究采用形態(tài)學(xué)圖像處理對(duì)分割后的圖像進(jìn)行修正[23]。形態(tài)學(xué)操作包括膨脹和腐蝕兩個(gè)基本算子,先膨脹后腐蝕的操作叫開(kāi)運(yùn)算,它可以消除細(xì)小物體、分離相近物體;先腐蝕后膨脹的操作叫閉運(yùn)算,它可以填充細(xì)小空間、連接相近物體[24]。本研究對(duì)分割后的圖像先使用閉運(yùn)算處理連通狹窄區(qū)域,再使用開(kāi)運(yùn)算填充噪聲造成的孔洞。系統(tǒng)中圖像的分辨率為1 024×768像素,根據(jù)實(shí)際情況,形態(tài)學(xué)處理過(guò)程選擇10×10像素的圓盤(pán)型結(jié)構(gòu)元素處理圖像,先進(jìn)行閉運(yùn)算處理,再進(jìn)行開(kāi)運(yùn)算處理。
為了更好地找出關(guān)鍵點(diǎn),還需要提取生豬的外形輪廓,通過(guò)對(duì)二值圖像進(jìn)行Canny邊緣檢測(cè)可以實(shí)現(xiàn)。Canny邊緣檢測(cè)器在圖像中每一點(diǎn)計(jì)算局部梯度和邊緣方向,根據(jù)這些信息找出邊緣點(diǎn),即梯度方向上強(qiáng)度局部最大的點(diǎn)[25]。
1.4.3 關(guān)鍵點(diǎn)檢測(cè)
根據(jù)關(guān)系模型,需要從圖像中提取側(cè)面體長(zhǎng)、背面體長(zhǎng)、體高、胸深、腹長(zhǎng)、臀寬、腰寬7個(gè)體尺特征,為了提取這些特征值,對(duì)應(yīng)需要找到圖中17個(gè)關(guān)鍵點(diǎn)。圖3中,點(diǎn)1、5、6、7、8、10、11在圖像中均為凹點(diǎn),可以通過(guò)角點(diǎn)檢測(cè)獲得;點(diǎn)2、3、4可以通過(guò)二值圖像的最小外接矩陣獲得,分別為側(cè)面圖像中的最右、最高和最低點(diǎn);點(diǎn)9為點(diǎn)7到點(diǎn)8線段的中間點(diǎn),點(diǎn)12為點(diǎn)10到點(diǎn)11線段的中間點(diǎn);通過(guò)點(diǎn)9、12的坐標(biāo)和豬體輪廓線確定質(zhì)點(diǎn)17的坐標(biāo),經(jīng)過(guò)點(diǎn)9、17、12的線段為豬體的中軸線;點(diǎn)13、14為中軸線后半段到豬體輪廓線的最小距離點(diǎn),點(diǎn)15、16為中軸線后半段到豬體輪廓線的最大距離點(diǎn)[26]。
分別對(duì)側(cè)面、背面輪廓圖進(jìn)行角點(diǎn)檢測(cè),本研究選用一種Harris的改進(jìn)算法[27]。像素點(diǎn)在軸方向和軸方向上的一階導(dǎo)數(shù)分別為、,定義角點(diǎn)函數(shù)為
計(jì)算出所有點(diǎn)的角點(diǎn)函數(shù)值后,尋找一定鄰域內(nèi)最大角點(diǎn)值大于零的點(diǎn),并列為候補(bǔ)點(diǎn),并將候補(bǔ)點(diǎn)按坐標(biāo)值的大小從小往大排列。根據(jù)生豬外形的特殊性,將候補(bǔ)點(diǎn)聚集在外形圖像中的凹邊緣上[28]。同時(shí),根據(jù)圖像具體情況設(shè)定一個(gè)距離閾值,當(dāng)兩個(gè)候補(bǔ)點(diǎn)的距離小于時(shí),判斷這兩個(gè)點(diǎn)屬于同一組的特征點(diǎn),否則判斷為下一組的特征點(diǎn)[29]。對(duì)每個(gè)特征點(diǎn)組內(nèi)的坐標(biāo)值進(jìn)行比較,坐標(biāo)值最大的點(diǎn)即為所求點(diǎn)。通過(guò)角點(diǎn)檢測(cè),可以得到點(diǎn)1、5、6、7、8、10、11共7個(gè)所需關(guān)鍵點(diǎn)的位置。
通過(guò)點(diǎn)7和點(diǎn)8的坐標(biāo),可以確定其中間點(diǎn)9;通過(guò)點(diǎn)10和點(diǎn)11的坐標(biāo),可以確定其中間點(diǎn)12;通過(guò)點(diǎn)9、點(diǎn)12和質(zhì)點(diǎn)17可以得到豬體的中軸線。從而確定豬體輪廓線到中軸線后半段上的最小距離點(diǎn)13、14,以及最大距離點(diǎn)15、16,具體算法[26]如下:
1)通過(guò)點(diǎn)17和點(diǎn)12的直線一般式為
式中-表示直線斜率,當(dāng)=0時(shí),直線平行于軸,此時(shí)-為在軸上的截距,()為直線上的任一點(diǎn)坐標(biāo)值,通過(guò)點(diǎn)17和點(diǎn)12的坐標(biāo)值可以獲得、、的值,進(jìn)而獲得后半段中軸線的一般式。
2)豬體輪廓線到后半段中軸線的距離為
式中()為點(diǎn)17到點(diǎn)12在軸上坐標(biāo)區(qū)間內(nèi)豬體輪廓線上的任一點(diǎn),為輪廓線上的點(diǎn)到后半段中軸線上的距離。通過(guò)公式(7)求得的最小值,從而得到點(diǎn)13和點(diǎn)14的坐標(biāo)值。
3)同理,通過(guò)公式(7)求得的最大值,從而得到點(diǎn)15和點(diǎn)16的坐標(biāo)值。
通過(guò)計(jì)算關(guān)鍵點(diǎn)之間的距離,可得到7個(gè)體尺特征,具體如下:點(diǎn)1到點(diǎn)2在軸上的水平距離為側(cè)面體長(zhǎng);點(diǎn)9到點(diǎn)17的距離,加上點(diǎn)17到點(diǎn)12的距離為背面體長(zhǎng);點(diǎn)3到點(diǎn)4在軸上的垂直距離為體高;點(diǎn)3到點(diǎn)5在軸上的垂直距離為胸深;點(diǎn)5到點(diǎn)6在軸上的水平距離為腹長(zhǎng);點(diǎn)15到中軸線上的距離,加上點(diǎn)16到中軸線上的距離為臀寬;點(diǎn)13到中軸線上的距離,加上點(diǎn)14到中軸線上的距離為腰寬。
1.5 RBF網(wǎng)絡(luò)預(yù)測(cè)
從用于分析關(guān)系模型的116組數(shù)據(jù)中隨機(jī)選取100組數(shù)據(jù)作為訓(xùn)練樣本,剩余的16組數(shù)據(jù)作為驗(yàn)證樣本[30],將胸深體高比、臀寬體長(zhǎng)比、臀寬腰寬比和腹長(zhǎng)體長(zhǎng)比4個(gè)參數(shù)作為輸入信號(hào),將瘦肉率作為輸出信號(hào),隱含層傳遞函數(shù)選取高斯函數(shù),輸出層傳遞函數(shù)選取線性函數(shù),在該試驗(yàn)中分布密度為0.2時(shí)網(wǎng)絡(luò)誤差最小,確定參數(shù)后訓(xùn)練RBF神經(jīng)網(wǎng)絡(luò)[31],驗(yàn)證樣本的實(shí)際值與預(yù)測(cè)值的曲線擬合如圖4。
從圖4中可以看出,16個(gè)驗(yàn)證樣本的預(yù)測(cè)值與實(shí)際值的誤差較小,平均誤差僅為0.31%,最大、最小誤差分別為0.47%和0.07%,說(shuō)明通過(guò)RBF神經(jīng)網(wǎng)絡(luò)建立的關(guān)系模型可以應(yīng)用于預(yù)測(cè)瘦肉率。
圖4 RBF神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)結(jié)果
2.1 圖像提取特征
分別對(duì)7組圖像數(shù)據(jù)進(jìn)行處理,提取胸深體高比、臀寬體長(zhǎng)比、臀寬腰寬比和腹長(zhǎng)體長(zhǎng)比4項(xiàng)比例值,與實(shí)測(cè)數(shù)據(jù)作比較,預(yù)測(cè)準(zhǔn)確率為
式中Acc是準(zhǔn)確率(%),Pre是預(yù)測(cè)值,Mea是實(shí)測(cè)值,結(jié)果如表2。
表2 實(shí)測(cè)預(yù)測(cè)數(shù)值比較
鑒于活體豬的活動(dòng)性,其身體狀態(tài)無(wú)法預(yù)測(cè),采集到的圖像也存在一定程度的身體扭曲,故通過(guò)圖像處理提取到的特征值與實(shí)測(cè)值難免存在少量誤差。由上表可知,通過(guò)圖像處理技術(shù)從生豬外形圖像中提取的特征參數(shù)具有較高的準(zhǔn)確率,胸深體高比、臀寬體長(zhǎng)比、臀寬腰寬比和腹長(zhǎng)體長(zhǎng)比的平均預(yù)測(cè)準(zhǔn)確率分別達(dá)到了92.90%、92.44%、95.17%和96.51%,基本滿(mǎn)足系統(tǒng)需求。
2.2 瘦肉率估測(cè)
以圖像提取的7組參數(shù)為輸入信號(hào),通過(guò)基于實(shí)測(cè)數(shù)據(jù)訓(xùn)練的RBF神經(jīng)網(wǎng)絡(luò)模型估測(cè)瘦肉率,準(zhǔn)確率的計(jì)算仍然使用公式(8),則輸出值與實(shí)測(cè)瘦肉率的比較如表3。
表3 基于圖像提取特征的RBF網(wǎng)絡(luò)預(yù)測(cè)瘦肉率
由上表可知,以圖像中提取的特征值為參數(shù),通過(guò)RBF網(wǎng)絡(luò)模型可以成功預(yù)測(cè)出相應(yīng)的瘦肉率,平均估測(cè)準(zhǔn)確率達(dá)到了94.35%,最大、最小誤差分別為6.56%和3.57%。鑒于豬體特征的復(fù)雜性,其關(guān)系模型不是嚴(yán)格的線性關(guān)系,在特征提取及網(wǎng)絡(luò)預(yù)測(cè)環(huán)節(jié)均存在一定的誤差,但系統(tǒng)仍然得到了較高的預(yù)測(cè)準(zhǔn)確率。
本文以MATLAB為開(kāi)發(fā)工具,以圖像處理和RBF神經(jīng)網(wǎng)絡(luò)為主要技術(shù),設(shè)計(jì)了一套基于生豬外形特征的瘦肉率估測(cè)方法。以胸深體高比、臀寬體長(zhǎng)比、臀寬腰寬比和腹長(zhǎng)體長(zhǎng)比4項(xiàng)比例特征為參數(shù),通過(guò)分析實(shí)測(cè)數(shù)據(jù)找出參數(shù)與瘦肉率之間的關(guān)系(2=0.989),立相應(yīng)的RBF神經(jīng)網(wǎng)絡(luò)模型。針對(duì)生豬外形復(fù)雜、采集圖像噪聲偏多的特點(diǎn),對(duì)側(cè)面和背面圖像進(jìn)行預(yù)處理、分割、關(guān)鍵點(diǎn)定位等操作,通過(guò)關(guān)鍵點(diǎn)之間的關(guān)系提取所需的特征值。通過(guò)試驗(yàn)驗(yàn)證,該方法對(duì)生豬瘦肉率的估測(cè)準(zhǔn)確率為94.35%,最大、最小誤差分別為6.56%和3.57%。該方法檢測(cè)效果較好,設(shè)計(jì)成本較低,可以為實(shí)際應(yīng)用提供技術(shù)支持和參考。
本文所用方法雖然可以通過(guò)外形特征圖像較準(zhǔn)確小地估測(cè)出生豬瘦肉率,但鑒于不同地區(qū)、不同品種的豬體均存在不同,同時(shí)活體豬存在不可預(yù)測(cè)的活動(dòng)性,系統(tǒng)的魯棒性仍然不夠理想。今后需進(jìn)一步分析外形特征與瘦肉率之間的關(guān)系,并考慮生豬因活動(dòng)性而產(chǎn)生的參數(shù)誤差,不斷優(yōu)化關(guān)系模型及圖像處理算法,同時(shí)提高試驗(yàn)樣本的數(shù)量,進(jìn)一步提高系統(tǒng)的準(zhǔn)確率及魯棒性。
[1] Doeschlwilson A B, Green D M, Fisher A V, et al. The relationship between body dimensions of living pigs and their carcass composition[J]. Meat Science, 2005, 70(2): 229-240.
[2] 羅明,朱礪. 屠宰加工線上瘦肉型豬胴體瘦肉率估測(cè)方法的研究[J]. 四川農(nóng)業(yè)大學(xué)學(xué)報(bào),2002,20(2):153-155. Luo Ming, Zhu Li. Study on estimating lean percent of carcass in slaughterhouse[J]. Journal of Sichuan Agricultural University, 2002, 20(2): 153-155. (in Chinese with English abstract)
[3] 成芳,廖宜濤,馬君偉. 豬肉品質(zhì)無(wú)損檢測(cè)研究進(jìn)展[J]. 浙江大學(xué)學(xué)報(bào)(農(nóng)業(yè)與生命科學(xué)版),2010,36(2):199-206. Cheng Fang, Liao Yitao, Ma Junwei. Research development on nondestructive determination of pork quality[J]. Journal of Zhejiang University Agriculture & Life Sciences, 2010, 36(2): 199-206. (in Chinese with English abstract)
[4] Einarsson E, Eythorsdottir E, Smith C R, et al. The ability of video image analysis to predict lean meat yield and EUROP score of lamb carcasses[J]. Animal, 2014, 8(7): 1-8.
[5] Chen Y R, Chao K, Kim M S. Machine vision technology for agricultural applications[J]. Computers and Electronics in Agriculture, 2002, 36(2/3): 173-191.
[6] 劉艷國(guó). 圖像處理技術(shù)在活體豬等級(jí)評(píng)定中的應(yīng)用[D]. 北京:中國(guó)農(nóng)業(yè)大學(xué),2005. Liu Yanguo. Application of Image Processing Techniques on Synthesis Evaluation of Living Pig[D]. Beijing: China Agricultural University, 2005. (in Chinese with English abstract)
[7] Faucitano L, Huff P, Teusher F, et al. Application of computer image analysis to measure pork marbling characteristics[J]. Meat Science, 2005, 69(3): 537-543.
[8] 鄭麗敏,田立軍,朱虹,等. 基于MATLAB的BP神經(jīng)網(wǎng)絡(luò)在豬等級(jí)評(píng)定中的應(yīng)用研究[J]. 計(jì)算機(jī)應(yīng)用研究,2008,25(6):1642-1644. Zheng Limin, Tian Lijun, Zhu Hong, et al. Study on pork grade evaluation of BP neural network based on MATLAB[J]. Application Research of Computers, 2008, 25(6): 1642-1644. (in Chinese with English abstract)
[9] 郭浩,馬欽,張勝利,等. 基于三維重建的動(dòng)物體尺獲取原型系統(tǒng)[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2014,45(5):227-232, 246. Guo Hao, Ma Qin, Zhang Shengli, et al. Prototype system of shape measurements of animal based on 3D reconstruction[J]. Transactions of the Chinese Society for Agricultural Machinery, 2014, 45(5): 227-232, 246. (in Chinese with English abstract)
[10] Wu J H, Tillett R, McFarlane N, et al. Extracting the three-dimensional shape of live pigs using stereo photogrammetry[J]. Computers and Electronics in Agriculture, 2004, 44(3): 203-222.
[11] 李卓,杜曉冬,毛濤濤,等. 基于深度圖像的豬體尺檢測(cè)系統(tǒng)[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2016,47(3):311-318. Li Zhuo, Du Xiaodong, Mao Taotao, et al. Pig dimension detection system based on depth image[J]. Transactions of the Chinese Society for Agricultural Machinery, 2016, 47(3): 311-318. (in Chinese with English abstract)
[12] 王海文,尹艷輝,劉艷國(guó). 應(yīng)用BP神經(jīng)網(wǎng)絡(luò)進(jìn)行活體豬 綜合評(píng)定[J]. 微電子學(xué)與計(jì)算機(jī),2006,23(12):118-119, 1. Wang Haiwen, Yin Yanhui, Liu Yanguo. Apply BP neural network on synthesis evaluation of living pig[J]. Microelectronics & Computer, 2006, 23(12): 118-119, 1. (in Chinese with English abstract)
[13] 李卓,毛濤濤,劉同海,等. 基于機(jī)器視覺(jué)的豬體質(zhì)量估測(cè)模型比較與優(yōu)化[J]. 農(nóng)業(yè)工程學(xué)報(bào),2015,31(2):155-161. Li Zhuo, Mao Taotao, Liu Tonghai, et al. Comparison and optimization of pig mass estimation models based on machine vision[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2015, 31(2): 155-161. (in Chinese with English abstract)
[14] Kashiha M, Bahr C, Ott S, et al. Automatic weight estimation of individual pigs using image analysis[J]. Computers and Electronics in Agriculture, 2014, 107(9): 38-44.
[15] Doeschlwilson A B, Whittemore C T, Knap P W, et al. Using visual image analysis to describe pig growth in terms of size and shape[J]. Animal Science, 2004, 79(4): 415-427.
[16] 李業(yè)國(guó),湯曉艷,高峰,等. 中國(guó)商品豬胴體瘦肉率預(yù)測(cè)模型的建立[J]. 西北農(nóng)林科技大學(xué)學(xué)報(bào): 自然科學(xué)版,2006,34(10):27-31. Li Yeguo, Shang Xiaoyan, Gao Feng, et al. Establishment of prediction model of the lean percentage of swine carcasses in China[J]. Journal of Northwest a&F University: Natural Science Edition, 2006, 34(10): 27-31. (in Chinese with English abstract)
[17] 于鉑. 基于圖像處理技術(shù)的豬肉無(wú)損定級(jí)系統(tǒng)[D]. 北京:中國(guó)農(nóng)業(yè)大學(xué),2005. Yu Bo. The System for Evaluating Pork Carcass Grading Impersonally by Digital Image Processing Techniques[D]. Beijing: China Agricultural University, 2005. (in Chinese with English abstract)
[18] Lu J, Tan J, Shatadal P, et al. Evaluation of pork color by using computer vision[J]. Meat Science, 2000, 56(1): 57-60.
[19] Akar S A. Determination of optimal parameters for bilateral filter in brain MR image denoising[J]. Applied soft computing, 2016, 43: 87-96.
[20] Subbiah J, Kranzler G A, Ray N, et al. Computer vision segmentation of the longissimusdorsi for beef quality grading[J]. Transactions of the ASAE, 2004, 47(4): 1261-1268.
[21] Tan J. Meat quality evaluation by computer vision[J]. Journal of Food Engineering, 2004, 61(1): 27-35.
[22] 李?lèi)?,楊艷麗,劉凱,等. 基于機(jī)器視覺(jué)的紅掌檢測(cè)分級(jí)方法[J]. 農(nóng)業(yè)工程學(xué)報(bào),2013,29(24):196-203. Li Kai, Yang Yanli, Liu Kai, et al. Determination and grading of Anthurium based on machine vision[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2013, 29(24): 196-203. (in Chinese with English abstract)
[23] 郭浩,王鵬,馬欽,等. 基于深度圖像的奶牛體型評(píng)定指標(biāo)獲取技術(shù)[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2013,44(增刊1):273-276. Guo Hao, Wang Peng, Ma Qin, et al. Acquisition of appraisal traits for dairy cow based on depth image[J]. Transactions of the Chinese Society for Agricultural Machinery, 2013, 44(Supp. 1): 273-276. (in Chinese with English abstract)
[24] 周竹,黃懿,李小昱,等. 基于機(jī)器視覺(jué)的馬鈴薯自動(dòng)分級(jí)方法[J]. 農(nóng)業(yè)工程學(xué)報(bào),2012,28(7):178-183. Zhou Zhu, Huang Yi, Li Xiaoyu, et al. Automatic detecting and grading method of potatoes based on machine vision[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2012, 28(7): 178-183. (in Chinese with English abstract)
[25] 吳鳳和. 基于計(jì)算機(jī)視覺(jué)測(cè)量技術(shù)的圖像輪廓提取方法研究[J]. 計(jì)量學(xué)報(bào),2007,28(1):18-22. Wu Fenghe. A study on contour extraction method in computer vision measurement technology[J]. ACTA MetrologocaSinica, 2007, 28(1): 18-22. (in Chinese with English abstract)
[26] 劉同海,滕光輝,付為森,等. 基于機(jī)器視覺(jué)的豬體體尺測(cè)點(diǎn)提取算法與應(yīng)用[J]. 農(nóng)業(yè)工程學(xué)報(bào),2013,29(2):161-168. Liu Tonghai, TengGuanghui, Fu Weisen, et al. Extraction algorithms and applications of pig body size measurement points based on computer vision[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2013, 29(2): 161-168. (in Chinese with English abstract)
[27] 劉富,侯濤,欒慧,等. 掌紋輪廓特征點(diǎn)提取新方法[J]. 吉林大學(xué)學(xué)報(bào): 工學(xué)版,2007,37(4):897-900. Liu Fu, Hou Tao, Luan Hui, et al. New method to detect contour characteristic points of palmprint[J]. Journal of Jilin University: Engineering and Technolngy Edition, 2007, 37(4): 897-900. (in Chinese with English abstract)
[28] 錢(qián)文光,林小竹. 基于輪廓尖銳度的圖像角點(diǎn)檢測(cè)算法[J]. 計(jì)算機(jī)工程,2008,34(6):202-204. Qian Wenguang, Lin Xiaozhu. Detection algorithm of image corner based on contour sharp degree[J]. Computer Engineering, 2008, 34(6): 202-204. (in Chinese with English abstract)
[29]鄭軍,劉正文,馬兆瑞,等. 基于最小誤差逼近的輪廓特征點(diǎn)提取[J]. 清華大學(xué)學(xué)報(bào): 自然科學(xué)版,2008,48(2):165-168. Zheng Jun, Liu Zhengwen, Ma Zhaorui, et al. Extraction of outline feature points based on the minimum approach error[J]. Journal of Tsinghua University: Science and Technology, 2008, 48(2): 165-168. (in Chinese with English abstract)
[30] Ling P P, Ruzhitsky V N. Machinevision techniques for measuring the canopy of tomato seedling[J]. Journal of Agricultural Engineering Research, 1996, 65(2): 85-95.
[31] 季剛,姚艷,江雙五. 基于徑向基神經(jīng)網(wǎng)絡(luò)的月降水量預(yù)測(cè)模型研究[J]. 計(jì)算機(jī)技術(shù)與發(fā)展,2013,23(12):186-189. Ji Gang, Yao Yan, Jiang Shuangwu. Research on monthly rainfall forecast model based on RBF neural network[J]. Computer Technology and Development, 2013, 23(12): 186-189. (in Chinese with English abstract)
Estimation method of pig lean meat percentage based on image of pig shape characteristics
Zhang Meng1,2, Zhong Nan1※, Liu Yingying1
(1.(),510642,; 2.230031,)
Lean meat percentage (LMP) is an important indicator of pig quality, playing an important role in pig breeding and sale. At present, methods for detection of LMP are mostly destructive,, by way of segmentation, weighing and calculation. However, advanced ultrasound equipment is expensive, and most individual farmers are unable to afford the cost. For slaughtering and food processing industries, it is very necessary to develop a rapid nondestructive LMP detection method. In this study, machine vision technology was applied to estimate LMP through external physical characteristics of pigs, so as to provide decision-making basis of pigs’ quality for breeders and buyers. Therefore, technology should have a capacity of processing a large amount of vision information and high detection speed, and use a nondestructive detection method capable of acquiring global indexes. With MATLAB as a development tool, in this study, we realized the software interface through the Graphical User Interface (GUI), and selected the side image and back image of pigs as research objects. Different focal lengths and object distances would result in different ratio scales of images. To avoid these factors, ratios of parameters were selected rather than specific length, area and so on. Firstly, 116 sets of measured data were collected and analyzed. The results showed that the ratio of chest depth to body height, the ratio of hip width to body length, the ratio of hip width to waist width and the ratio of abdomen length to body length had certain relations with the LMP. Secondly, with 100 sets of measured data as training samples and remaining 16 sets of measured data as test samples, a prediction model based on radial basis function(RBF) neural network was built. The results showed that the average error of the test samples was 0.31%, and the maximum and minimum errors were respectively 0.47% and 0.07%. The precision and rate of the network all fulfilled the requirement. Then, seven groups of pig images were photographed, and after image gray processing and preprocessing by a series of weighted formulas, binaryzation by Otsu method, and secondary image denoising by morphological operations, and outline shapes were extracted. Based on Harris algorithm and inherent external physical characteristics of living pigs, we extract body length, body height, chest depth, abdomen length, hip width, waist width and other characteristic parameters. Finally, the calculated parameters were used as the input in the model to obtain corresponding LMP values which were compared with the measured data to verify feasibility of the method. In this study, seven groups of pig shape images were processed, respectively. The average estimated accuracy rates of the four ratios were 92.90%, 92.44 %, 95.17% and 96.51%, respectively. The average estimated accuracy rate of LMP reached 94.35%, and the maximum and minimum errors were 6.56% and 3.57%, respectively. The results showed that the new assessment method based on shape characteristics could be used for estimation of LMP of pigs with low cost and high efficiency. Furthermore, the future development trends of machine vision on nondestructive test of livestock were proposed since it prevents from the animal stress and anthropozoonosis.
computer vision; image segmentation; models; lean meat percentage; living pig; RBF neural network
10.11975/j.issn.1002-6819.2017.12.040
TP391
A
1002-6819(2017)-12-0308-07
2016-11-11
2017-02-15
廣東省科技計(jì)劃項(xiàng)目(2012A020602039);廣州市產(chǎn)學(xué)研協(xié)同創(chuàng)新重大專(zhuān)項(xiàng)(201508010013)
張萌,男,安徽亳州人,研究方向?yàn)槟J阶R(shí)別、圖像處理。 Email:zhangmengchn@163.com
鐘南,女,湖北公安人,教授,博士生導(dǎo)師,研究方向?yàn)橹悄軝z測(cè)技術(shù)。Email:zhongnan@scau.edu.cn
張 萌,鐘 南,劉瑩瑩.基于生豬外形特征圖像的瘦肉率估測(cè)方法[J]. 農(nóng)業(yè)工程學(xué)報(bào),2017,33(12):308-314. doi:10.11975/j.issn.1002-6819.2017.12.040 http://www.tcsae.org
Zhang Meng, Zhong Nan, Liu Yingying. Estimation method of pig lean meat percentage based on image of pig shape characteristics[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2017, 33(12): 308-314. (in Chinese with English abstract) doi:10.11975/j.issn.1002-6819.2017.12.040 http://www.tcsae.org
農(nóng)業(yè)工程學(xué)報(bào)2017年12期