亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于種蛋圖像血線特征和深度置信網(wǎng)絡(luò)的早期雞胚雌雄識(shí)別

        2018-04-16 01:00:39祝志慧王巧華馬美湖
        關(guān)鍵詞:特征信息模型

        祝志慧,湯 勇,洪 琪,黃 飄,王巧華,馬美湖

        (1. 華中農(nóng)業(yè)大學(xué)工學(xué)院,武漢 430070;2. 農(nóng)業(yè)部長(zhǎng)江中下游農(nóng)業(yè)裝備重點(diǎn)實(shí)驗(yàn)室,武漢 430070;3. 華中農(nóng)業(yè)大學(xué)食品科學(xué)技術(shù)學(xué)院,武漢 430070)

        0 引 言

        家禽繁育中,雞育種目標(biāo)一直都實(shí)行蛋肉兼用的培育方向,而現(xiàn)有商業(yè)品系則要求專門化——蛋用或肉用。雞種蛋的孵化周期約為21 d,是一個(gè)耗時(shí)耗能的過(guò)程[1]。若在種蛋孵化過(guò)程中或孵化早期鑒定出胚蛋的性別,不僅可以減少孵化過(guò)程中的經(jīng)濟(jì)成本而且還可以降低孵化后的產(chǎn)品浪費(fèi)。種蛋雌雄鑒別后可以進(jìn)行分類生產(chǎn),根據(jù)蛋品與肉品的市場(chǎng)需求進(jìn)行有計(jì)劃的孵化養(yǎng)殖,滿足市場(chǎng)需求,實(shí)現(xiàn)經(jīng)濟(jì)效率的最大化。傳統(tǒng)的種蛋性別鑒別方法是通過(guò)種蛋外形特征,但是這種方法的主觀性太強(qiáng)、受蛋形的影響較大;另外,雖然在孵化后期利用激素法對(duì)16-18日齡雞胚的性別鑒定方法準(zhǔn)確率高,但是發(fā)育到16日齡的雞胚已接近出雛期并已完全分化,對(duì)這些雞胚的處理是有悖于社會(huì)倫理、殘忍的一件事情[2]。所以,亟需找到一種兼顧禽業(yè)生產(chǎn)與社會(huì)倫理、且快速準(zhǔn)確鑒別雞種蛋孵化早期胚胎雌雄的方法。

        目前,雞種蛋孵化早期的性別鑒定主要分為蛋殼外鑒定和蛋內(nèi)容物的鑒定。嚴(yán)鯤鵬[3]觀察雞蛋的外形表明橢球形種蛋孵出的都是雄雞,接近球形種蛋孵化出的都是雌雞,而介于兩者之間的種蛋不易區(qū)分雌雄。唐劍林等[4]根據(jù)不同性別雞胚血管分布的不同規(guī)律,雄胚主血管明顯,血管較粗,分布均勻;雌胚血管纖細(xì)、粗細(xì)均勻、分支較多、呈不規(guī)則狀,對(duì)種蛋胚胎進(jìn)行雌雄鑒別。通過(guò)蛋外形與血線形態(tài)的方式進(jìn)行性別識(shí)別,分析因素太過(guò)于單一,獲取的發(fā)育信息不夠全面,容易受被測(cè)因素自身的影響。Turkyilmaz等[5]利用PCR方法篩選的PCR產(chǎn)物通過(guò)瓊脂糖凝膠電泳顯示,雄性有一個(gè)單一的條帶(256堿基對(duì)),雌性有如預(yù)期一樣的額外的第二頻帶(415堿基對(duì))。美國(guó)Embrex公司申請(qǐng)的專利[6-7]通過(guò)檢測(cè)雞胚尿囊液中雌激素含量來(lái)鑒別雞胚雌雄。Steiner等[8]從雞蛋中提取少量的胚層細(xì)胞,基于傅里葉變換紅外光譜(FT-IR)測(cè)定雄性和雌性胚胎的DNA含量差異在2%左右。潘磊慶等[1]通過(guò)高光譜獲取胚胎發(fā)育的胚相、理化等全部信息,提取感興趣區(qū)域的光譜數(shù)據(jù)建立模型進(jìn)行種蛋雌雄判別。PCR、激素方法操作步驟多,并且需要提取內(nèi)涵物,容易損壞胚胎,并且其成本也相對(duì)較高;紅外光譜和高光譜信息數(shù)據(jù)量過(guò)于龐大,處理速度較慢。而機(jī)器視覺(jué)獲取的種蛋圖像進(jìn)行后期處理能獲得足夠的紋理信息建立判別模型,且響應(yīng)速度快。近年來(lái),隨著計(jì)算機(jī)運(yùn)算速度的不斷提高和機(jī)器視覺(jué)技術(shù)在農(nóng)產(chǎn)品品質(zhì)檢測(cè)領(lǐng)域的廣泛應(yīng)用,本文利用機(jī)器視覺(jué)技術(shù)和圖像處理技術(shù)探討種蛋孵化早期雞胚雌雄識(shí)別的可行性。

        1 材料與方法

        1.1 試驗(yàn)材料

        本研究的 180枚同一批次種蛋樣品均來(lái)源于荊州峪口禽業(yè)有限公司,品種為京粉1號(hào)。雞種蛋在5%新潔爾滅溶液中浸泡3 min進(jìn)行消毒處理,分別編號(hào)1—180,晾干后放入孵化箱中。其中,孵化溫度和相對(duì)濕度分別為37.8 ℃和63.5%,自動(dòng)翻蛋時(shí)間間隔為2 h/次,采集孵化第 3、4、5、6、8、10天的圖像。為了準(zhǔn)確獲得種蛋雞胚雌雄性別信息,于孵化的第15天對(duì)種蛋進(jìn)行破壞性解剖,人工識(shí)別性別,以此作為后期判別模型的鑒定依據(jù)。孵化后期胚胎發(fā)育趨近于成熟,各種組織器官已發(fā)育完整。雌雄胚胎組織的區(qū)別在于:雌性胚胎右側(cè)卵巢退化,使得卵巢兩側(cè)發(fā)育不平衡;而雄性胚胎兩側(cè)的睪丸發(fā)育對(duì)稱[9],可通過(guò)解剖后肉眼觀察到雄性睪丸和雌性卵巢的形態(tài)變化來(lái)區(qū)分胚蛋性別,如圖1所示。

        圖1 雞胚雌雄形態(tài)圖Fig.1 Male and female morphology diagram of chicken embryo

        1.2 機(jī)器視覺(jué)圖像采集系統(tǒng)

        雞胚雌雄識(shí)別機(jī)器視覺(jué)圖像采集系統(tǒng)如圖2所示。

        圖2 機(jī)器視覺(jué)圖像采集系統(tǒng)Fig.2 Image acquisition system of machine vision

        由圖 2可知,本文的圖像采集系統(tǒng)主要由工業(yè)相機(jī)(Basler,Aca1600-20uc)、光照系統(tǒng)和計(jì)算機(jī)構(gòu)成。光照系統(tǒng)被分為上下兩部分,上半部分為暗室部分,內(nèi)壁用黑紙平鋪,中間用載物平臺(tái)隔開(kāi),載物平臺(tái)中間開(kāi)一個(gè)透光孔,且透光孔上端還有橢球槽,用于種蛋樣品的固定;下半部分為光源部分,根據(jù)試驗(yàn)需要,參照深圳市振野蛋品智能設(shè)備股份有限公司的雞蛋品質(zhì)檢測(cè)系統(tǒng),選擇一個(gè)功率為1W的LED燈(ZYG- L627-1W),安裝在光照系統(tǒng)底部。圖像采集系統(tǒng)的物距為218 mm,待檢測(cè)雞蛋橫向靜置2 min,且橫向放置在載物平臺(tái)上,通過(guò)載物平臺(tái)下的光源透射,利用工業(yè)相機(jī)獲取圖像并通過(guò)USB數(shù)據(jù)線傳送至計(jì)算機(jī)。

        1.3 圖像處理

        圖 3為種蛋胚胎在不同孵化時(shí)間的機(jī)器視覺(jué)圖像。在孵化的第3天(圖3a),血線開(kāi)始出現(xiàn),還未完全展開(kāi);在孵化的第4天(圖3b),血線完全呈現(xiàn)在機(jī)器視覺(jué)視野范圍內(nèi),沒(méi)有出現(xiàn)不完整的狀態(tài);從孵化的第 5天(圖3c)開(kāi)始,部分血線不在機(jī)器視覺(jué)的視野范圍內(nèi),且還有部分血線已經(jīng)進(jìn)入氣室端。根據(jù)血線的清晰度以及機(jī)器視覺(jué)視野范圍內(nèi)的血線完整度原則,最終確定利用孵化第4天的圖像進(jìn)行后續(xù)分析。

        圖3 不同孵化時(shí)期種蛋胚胎發(fā)育形態(tài)圖Fig.3 Hatching eggs embryos diagram of different hatching periods

        采用圖像處理技術(shù)對(duì)雞胚蛋圖像進(jìn)行預(yù)處理。如圖4所示,對(duì)原始圖像,獲取R、G、B這3個(gè)分量圖像,因B分量中種蛋區(qū)域細(xì)節(jié)信息基本丟失,所以本研究不提取B分量信息來(lái)分析。G分量包含的圖像信息豐富,通過(guò)中值濾波去除椒鹽噪聲。R分量中的亮部正好是種蛋區(qū)域,為了準(zhǔn)確定位種蛋區(qū)域,則需要消除背景信息的影響,主要是消除與種蛋相鄰的部分由于光照產(chǎn)生的較亮區(qū)域。對(duì)此,可采用二分法逐步獲取固定閾值 15,二值化R分量并與中值濾波圖像相乘提取感興趣區(qū)域(region of interest,ROI)[10]。為了增強(qiáng)圖像質(zhì)量和可辨識(shí)度,本研究采用限制對(duì)比度自適應(yīng)直方圖均衡化(CLAHE),CLAHE算法[11]可以通過(guò)增強(qiáng)局部區(qū)域的對(duì)比度,從而增強(qiáng)圖像局部細(xì)節(jié)的可視性,與此同時(shí)還能抑制部分噪音的產(chǎn)生[12]。利用圖像反色將ROI區(qū)域中的血線變亮,通過(guò)高帽變換(top-hat)[13]減低帽變換(bottom-hat)基本凸顯血線區(qū)域,進(jìn)一步利用Otsu閾值分割[14]去除部分噪聲,提取血線區(qū)域?;诖蟛糠值脑肼暼匀淮嬖冢捎冒诉B通域去除較小的噪點(diǎn),血線完全凸顯。為了保證圖像紋理信息的真實(shí)性,需要對(duì)圖像進(jìn)行映射。

        1.4 特征提取

        1.4.1方向梯度直方圖

        方向梯度直方圖(histogram of oriented gradients,HOG)的核心思想是:所檢測(cè)的局部物體外形能夠被光強(qiáng)梯度或邊緣方向的分布所描述,它通過(guò)計(jì)算和統(tǒng)計(jì)圖像局部區(qū)域的梯度方向直方圖來(lái)構(gòu)成特征[15]。HOG特征的提取過(guò)程如下[16]:

        圖4 雞種蛋圖像處理Fig.4 Chicken hatching egg image processing

        1)圖像歸一化。將顏色空間統(tǒng)一轉(zhuǎn)換到灰度圖像,并且將灰度值轉(zhuǎn)換到0~1范圍。

        2)圖像梯度計(jì)算。分別計(jì)算圖像水平和豎直方向的梯度,并計(jì)算每個(gè)像素的梯度方向和梯度幅值。

        3)圖像分塊。將圖像劃分為許多塊,塊與塊之間可以重疊,每個(gè)塊內(nèi)存在許多細(xì)小單元,每個(gè)單元由多個(gè)像素點(diǎn)組成。

        4)單元梯度方向直方圖計(jì)算。將每個(gè)單元中的梯度方向分為若干個(gè)梯度方向級(jí),計(jì)算其梯度方向直方圖。

        5)塊內(nèi)直方圖歸一化。將每個(gè)塊內(nèi)的直方圖串聯(lián)成一個(gè)塊梯度方向直方圖,并進(jìn)行塊內(nèi)歸一化。

        6)HOG特征向量提取。經(jīng)過(guò)上述步驟,對(duì)有重疊部分塊的直方圖歸一化,將所有塊的特征向量進(jìn)行組合,即將每一塊內(nèi)歸一化后的梯度方向直方圖串聯(lián),作為圖像的HOG特征向量。

        1.4.2主成分分析降維

        由于HOG特征向量維度過(guò)大,因此本文采用主成分分析(principal component analysis,PCA)對(duì)其進(jìn)行降維。其目的用較少的新變量(即主成分)去解釋原始資料中的大部分變異[17]。主成分分析是一種基于卡洛南-洛伊(Karhunen-Loeve,K-L)正交變換的無(wú)監(jiān)督線性特征提取算法,K-L變換是在滿足最小均方誤差的前提下的最優(yōu)變換,大大降低了HOG特征向量的維數(shù)。

        1.4.3灰度共生矩陣

        由于圖像紋理是由灰度分布在空間位置上反復(fù)出現(xiàn)而形成的,因而圖像的灰度就具有一定的空間相關(guān)性,而灰度共生矩陣則是利用這種特性來(lái)描述紋理的一種方法,其能反映出種蛋的圖像信息,尤其是血線區(qū)域的灰度在方向、空間間隔和變化幅度上的綜合信息,從而能分析圖像的局部特征和排列規(guī)則[18]。

        為了更直觀地以灰度共生矩陣描述紋理特征,通常用能量、對(duì)比度、相關(guān)性、熵和均勻度 5個(gè)標(biāo)量來(lái)表征圖像紋理的特征。

        1.5 建立孵化早期雞胚雌雄識(shí)別模型

        試驗(yàn)中,有雌、雄樣本各90枚。從雌、雄樣本中各隨機(jī)挑選60枚組成模型的訓(xùn)練集(樣本120枚),剩余雌、雄樣本各30枚組成模型的測(cè)試集(樣本60枚)。為充分比較不同的建模方法對(duì)預(yù)測(cè)性能的影響,運(yùn)用了支持向量機(jī)(support vector machine,SVM)、反向傳遞(back propagation,BP)神經(jīng)網(wǎng)絡(luò)和深度置信網(wǎng)絡(luò)(deep belief networks,DBN)對(duì)數(shù)據(jù)進(jìn)行建模分析。

        當(dāng)人工神經(jīng)網(wǎng)絡(luò)超過(guò)5層時(shí),BP學(xué)習(xí)算法無(wú)法有效傳遞誤差,梯度會(huì)在誤差反向傳播時(shí)越來(lái)越稀疏,導(dǎo)致誤差校正信號(hào)越來(lái)越低,近乎為0,進(jìn)而使得算法陷入局部極值[19]。深度學(xué)習(xí)同樣采用的是多隱層網(wǎng)絡(luò),因此其核心就在于解決梯度擴(kuò)散問(wèn)題,其中應(yīng)用最廣泛的深度學(xué)習(xí)網(wǎng)絡(luò)之一就是深度置信網(wǎng)絡(luò)(DBN)。

        自下而上的非監(jiān)督學(xué)習(xí)在DBN網(wǎng)絡(luò)中被稱作受限玻爾茲曼機(jī)(restricted boltzmann machine,RBM)[20-21],RBM訓(xùn)練參數(shù)的方法不同于BP神經(jīng)網(wǎng)絡(luò),其主要結(jié)構(gòu)形式是圖5所示的無(wú)向連接形式。

        圖5 受限玻爾茲曼機(jī)示意圖Fig.5 Illustrative diagram of restricted boltzmann machine

        RBM的結(jié)構(gòu)形式讓可見(jiàn)層和隱層之間無(wú)向連接,并且各層內(nèi)部無(wú)連接。其目的是在所有假設(shè)模型有相等先驗(yàn)概率條件下,輸出極大似然假設(shè),其中引入了Hopfield提出的能量函數(shù)E,對(duì)于可見(jiàn)層構(gòu)成的向量v,隱層構(gòu)成的向量h,有可見(jiàn)層與隱層之間的權(quán)重w和2層各自的偏置系數(shù)a、b,因此能量函數(shù)如式(1)所示。

        式中,i、j表示神經(jīng)元,θ =(wij,ai,bj)是 RBM 的參數(shù),wij表示可見(jiàn)節(jié)點(diǎn)vi與隱層節(jié)點(diǎn)hj之間的連接權(quán)值,ai和 bj分別表示 vi和 hj的偏置值。聯(lián)合配置能量,引入聯(lián)合概率p描述可見(jiàn)層和隱層之間的向量概率關(guān)系

        為求得極大似然函數(shù) P(v),對(duì) h求邊緣分布得到似然函數(shù)

        通過(guò)最大化P(v)求得損失函數(shù)L:

        式(4)N表示訓(xùn)練樣本個(gè)數(shù)。當(dāng)能量趨于穩(wěn)態(tài)時(shí),根據(jù)可見(jiàn)層數(shù)據(jù)v求隱層數(shù)據(jù)h,通過(guò)h來(lái)重構(gòu)可見(jiàn)向量v1,再根據(jù)v1生成新的隱層向量h1。依此可再求得新的向量v2和h2,其求解條件概率為:

        最后利用對(duì)比散度(CD-k,contrastive divergence)[22]算法,通過(guò)多次Gibbs分布抽樣實(shí)現(xiàn)對(duì)樣本的近似,即可將 2次重構(gòu)的參數(shù)的差異近似作為網(wǎng)絡(luò)參數(shù)的訓(xùn)練梯度:

        利用以上梯度,通過(guò)多次迭代即可完成對(duì)RBM網(wǎng)絡(luò)參數(shù)的更新,將多個(gè)RBM結(jié)構(gòu)依次疊加,在DBN的最后一層設(shè)置BP網(wǎng)絡(luò),接收RBM的輸出特征向量作為它的輸入特征向量。然后將其中的前饋傳播權(quán)重w和偏置系數(shù)a、b作為BP神經(jīng)網(wǎng)絡(luò)的初始參數(shù)值,再利用反向傳播算法進(jìn)行參數(shù)微調(diào),基于這種訓(xùn)練模式的網(wǎng)絡(luò)結(jié)構(gòu)就是DBN網(wǎng)絡(luò)[23]。

        2 結(jié)果與分析

        2.1 特征參數(shù)的選擇

        1)全信息特征

        對(duì)于種蛋圖像,保證血線完整的情況下,利用固定的像素坐標(biāo)范圍裁剪圖像,可獲取 350×350像素大小的血線區(qū)域,選取整數(shù)倍的關(guān)系,設(shè)定單元格大小為35×35像素,塊內(nèi)存在2×2個(gè)單元格,塊移動(dòng)步長(zhǎng)為35個(gè)像素單位,每個(gè)單元格內(nèi)直方圖為 9維,因此可獲取最終的HOG特征向量長(zhǎng)度為2 916維。二維梯度信息常規(guī)處理是卷積網(wǎng)絡(luò),根據(jù)梯度信息,人眼可分辨的種蛋性別特征較少,應(yīng)用卷積網(wǎng)絡(luò),需要提取細(xì)粒度的特征,會(huì)加大運(yùn)算復(fù)雜度,所以需要對(duì)圖像進(jìn)行放縮。由于前幾層對(duì)于粗粒度的提取使得樣本丟失過(guò)多特征,應(yīng)用卷積網(wǎng)絡(luò)難以保證學(xué)習(xí)到有用的信息。因此可利用降采樣的方式代替卷積前幾層的操作,提取細(xì)粒度特征,此時(shí)樣本維度并不大,可以直接使用全連接,將原圖降采樣至35×35大小,即1 225維。此處自定義完成圖像處理后并降采樣的圖像所有特征為全信息特征。

        2)簡(jiǎn)化特征

        HOG直方圖提取的全信息經(jīng)過(guò) PCA降維,如圖 6所示,取累計(jì)貢獻(xiàn)率達(dá)到 90%的主成分?jǐn)?shù)作為降維后的特征,最終得到降維后的HOG特征長(zhǎng)度為91維。

        圖6 HOG特征累計(jì)貢獻(xiàn)率Fig.6 Cumulative contribution rate of HOG features

        灰度共生矩陣包含5維向量,HOG特征經(jīng)主成分分析降維后包含91維向量,因此PCA降維特征與灰度共生矩陣特征組合的簡(jiǎn)化特征向量有96維。

        2.2 DBN模型的參數(shù)優(yōu)化

        對(duì)于特征區(qū)分度不高的輸入向量,機(jī)器學(xué)習(xí)模型很容易過(guò)擬合,尤其是神經(jīng)網(wǎng)絡(luò),DBN網(wǎng)絡(luò)也不例外。直接將全信息特征作為輸入特征會(huì)引入很多噪音,網(wǎng)絡(luò)訓(xùn)練難度大,并且導(dǎo)致網(wǎng)絡(luò)收斂速度過(guò)慢。

        1)改善過(guò)擬合。本研究采用 Hinton等[24]提出的dropout算法,利用輸入樣本進(jìn)行權(quán)值更新,令隱含節(jié)點(diǎn)以一定的概率隨機(jī)出現(xiàn),從而阻止某些特征僅僅在特定情況下才有效果的情況。通過(guò)這種模型平均的方式實(shí)現(xiàn)對(duì)模型過(guò)擬合的改善。

        2)加快收斂速度。由于采用激勵(lì)函數(shù)是sigmoid函數(shù),當(dāng)函數(shù)值趨近于0和1時(shí),函數(shù)梯度將趨近于0,此時(shí)網(wǎng)絡(luò)訓(xùn)練將陷入停滯狀態(tài),為加快收斂速度,對(duì)此本文將均方誤差損失函數(shù)調(diào)整為不受函數(shù)值影響的交叉熵函數(shù)L[25]:

        式(7)中,x表示樣本,n表示樣本總數(shù),y和d分別表示網(wǎng)絡(luò)的實(shí)際輸出和期望輸出。

        3)避免局部收斂。網(wǎng)絡(luò)的訓(xùn)練實(shí)質(zhì)上是對(duì)參數(shù)的優(yōu)化,避免局部收斂。本研究采用隨機(jī)梯度下降算法[26](stochastic gradient descent,SGD),每次只隨機(jī)取部分樣本集進(jìn)行訓(xùn)練,防止網(wǎng)絡(luò)陷入局部收斂。

        2.3 建模與驗(yàn)證

        2.3.1建模參數(shù)設(shè)定

        本文利用BP神經(jīng)網(wǎng)絡(luò)、SVM和DBN網(wǎng)絡(luò)3個(gè)算法,分別對(duì)簡(jiǎn)化特征和全信息特征進(jìn)行訓(xùn)練建模。運(yùn)用MATLAB R2012a版本軟件,SVM模型采用libsvm-faruto加強(qiáng)工具箱[27],DBN模型采用Deep Learn Toolbox工具箱[28],BPNN模型采用軟件內(nèi)嵌的 Neural Network Toolbox工具箱。

        1)簡(jiǎn)化特征

        簡(jiǎn)化特征向量維96維。對(duì)于BP神經(jīng)網(wǎng)絡(luò),其隱層的節(jié)點(diǎn)數(shù)m依據(jù)經(jīng)驗(yàn)公式(8)來(lái)確定:

        其中n為輸入向量維度,隱層節(jié)點(diǎn)數(shù)為7,BP的學(xué)習(xí)速率為0.001,動(dòng)量為0.9。DBN網(wǎng)絡(luò)雖然是深度網(wǎng)絡(luò),但依然可以設(shè)置 2個(gè)隱層,經(jīng)過(guò)多次訓(xùn)練調(diào)參,設(shè)定各層節(jié)點(diǎn)數(shù)分別為50和26,dropout比例設(shè)為0,學(xué)習(xí)速率為1,動(dòng)量為0.9,網(wǎng)絡(luò)迭代次數(shù)設(shè)為1 000代。BP網(wǎng)絡(luò)和DBN網(wǎng)絡(luò)的輸出層節(jié)點(diǎn)數(shù)均為1,輸出值“0”和“1”分別代表雌性和雄性。SVM采用RBF核函數(shù),并利用交叉驗(yàn)證的方式尋參,得到最優(yōu)參數(shù)gamma值為0.000 98,cost值為16。

        2)全信息特征

        對(duì)于全信息特征,BP神經(jīng)網(wǎng)絡(luò)由于其淺層網(wǎng)絡(luò)的特性,只設(shè)定單隱層,依據(jù)公式(8)求得節(jié)點(diǎn)數(shù)為10,BP的學(xué)習(xí)速率為0.001,動(dòng)量為0.9。DBN網(wǎng)絡(luò)作為深度網(wǎng)絡(luò),可以設(shè)置多層網(wǎng)絡(luò)逐層提取圖像特征,經(jīng)過(guò)多次訓(xùn)練調(diào)參,設(shè)置5個(gè)隱層,各層節(jié)點(diǎn)數(shù)為900、625、400、225、100,dropout比例為0.3,學(xué)習(xí)速率為 1,動(dòng)量為 0.9,網(wǎng)絡(luò)迭代次數(shù)為10 000代,RBM訓(xùn)練次數(shù)為500。BP網(wǎng)絡(luò)和DBN網(wǎng)絡(luò)的輸出層節(jié)點(diǎn)數(shù)均為1,輸出值“0”和“1”分別代表雌性和雄性。SVM采用RBF核函數(shù),并利用交叉驗(yàn)證的方式尋參,得到最優(yōu)參數(shù) gamma值為0.000 98,cost值為16。模型參數(shù)設(shè)置如表1所示。

        2.3.2模型驗(yàn)證

        為了分析不同圖像特征信息對(duì)雌雄識(shí)別模型的影響,提取圖像特征得到簡(jiǎn)化特征和全信息特征,利用 3種機(jī)器學(xué)習(xí)方法分別驗(yàn)證,3種模型判別準(zhǔn)確率結(jié)果如表2所示。DBN模型和SVM模型的訓(xùn)練集準(zhǔn)確率優(yōu)于BP模型,均為100%;對(duì)測(cè)試集而言,BP模型的簡(jiǎn)化特征和全信息特征的判別綜合準(zhǔn)確率分別為 51.67%和58.33%。SVM模型簡(jiǎn)化特征和全信息特征的判別綜合準(zhǔn)確率分別為60%和63.33%。DBN模型簡(jiǎn)化特征和全信息特征的判別綜合準(zhǔn)確率分別為58.33%和83.33%?;谌畔⑻卣鞯?3種模型綜合準(zhǔn)確率均優(yōu)于對(duì)應(yīng)的簡(jiǎn)化特征的3種模型綜合準(zhǔn)確率,基于全信息特征的DBN模型測(cè)試集雄性準(zhǔn)確率為76.67%,雌性準(zhǔn)確率為90%,綜合準(zhǔn)確率為83.33%,明顯優(yōu)于基于簡(jiǎn)化特征的DBN模型綜合準(zhǔn)確率58.33%。表明圖像不同特征信息對(duì)模型準(zhǔn)確率有一定影響。

        表1 模型參數(shù)設(shè)定Table 1 Model parameters setting

        表2 雞胚簡(jiǎn)化特征與全信息特征雌性鑒定模型判別結(jié)果Table 2 Discriminant results of male and female identification models of simplified features and full information features for chicken embryos

        從表 2結(jié)果發(fā)現(xiàn),SVM 模型的訓(xùn)練集準(zhǔn)確率為100%,測(cè)試集識(shí)別綜合準(zhǔn)確率最高才達(dá)到 63.33%;BP模型訓(xùn)練集準(zhǔn)確率為 80%以上,測(cè)試集識(shí)別綜合準(zhǔn)確率最高才達(dá)到58.33%;表明SVM和BP模型出現(xiàn)過(guò)擬合現(xiàn)象。對(duì)于DBN,由于加入dropout算法,相比于SVM和BP的過(guò)擬合會(huì)有所緩解,同時(shí)用受限玻爾茲曼機(jī)進(jìn)行權(quán)值初始化,降低局部收斂概率,改善了模型的過(guò)擬合。

        以測(cè)試樣本平均運(yùn)行時(shí)間值作為模型的判別時(shí)間。由表3可知:針對(duì)同一輸入特征的3種模型,其簡(jiǎn)化特征的SVM模型、BP模型、DBN模型的判別時(shí)間分別為0.006 1、0.007 7、0.0227 s,即TSVM

        表3 模型測(cè)試集判別時(shí)間Table 3 Discriminant time of model test set

        表 3中,基于全信息特征的 DBN模型判別時(shí)間7.835 0 s遠(yuǎn)長(zhǎng)于其他模型的判別時(shí)間,表明輸入的特征維數(shù)越多,相應(yīng)模型的判別時(shí)間會(huì)越長(zhǎng);同時(shí)也與模型的復(fù)雜程度有關(guān),隨著隱層數(shù)和隱層數(shù)節(jié)點(diǎn)的增多,神經(jīng)網(wǎng)絡(luò)越復(fù)雜,導(dǎo)致運(yùn)行速度降低,即模型的判別時(shí)間延長(zhǎng)。

        3 結(jié) 論

        1)本研究構(gòu)建了雞胚雌雄識(shí)別的機(jī)器視覺(jué)圖像采集系統(tǒng),采集不同孵化時(shí)間段的種蛋胚胎發(fā)育形態(tài)圖,根據(jù)血線的清晰度以及機(jī)器視覺(jué)視野范圍內(nèi)的血線完整度原則,確定孵化第4天的圖像最適合用于雞胚雌雄的識(shí)別。

        2)根據(jù)全信息特征和簡(jiǎn)化特征,分別構(gòu)建支持向量機(jī)(SVM)、反向傳遞(BP)神經(jīng)網(wǎng)絡(luò)、深度置信網(wǎng)絡(luò)(DBN)3種雞胚雌雄性別識(shí)別模型,通過(guò)模型準(zhǔn)確率和判別時(shí)間比較,基于HOG全信息特征的DBN模型準(zhǔn)確率最佳,但判別時(shí)間最長(zhǎng)。其中,綜合準(zhǔn)確率為83.33%(雄性樣本判別正確率為76.67%,雌性樣本判別準(zhǔn)確率為90%);判別時(shí)間為7.835 0 s。

        3)本文研究表明,機(jī)器視覺(jué)對(duì)孵化早期雞胚雌雄的識(shí)別有一定效果。但是從結(jié)果來(lái)看,全信息特征中的噪音對(duì)于模型依舊存在著干擾,降低了雞胚雌雄識(shí)別的準(zhǔn)確率,并且判別時(shí)間較長(zhǎng)。在以后的研究中,需要使用更為有效的去噪方法,盡可能消除噪音對(duì)圖像信息的影響,同時(shí)也要充分保留圖像信息,以提高鑒別精度和縮短判別時(shí)間。

        [參考文獻(xiàn)]

        [1] 潘磊慶,張偉,于敏莉,等. 基于高光譜圖像的雞種蛋孵化早期胚胎性別鑒定[J]. 農(nóng)業(yè)工程學(xué)報(bào),2016,32(1):181-186.Pan Leiqing, Zhang Wei, Yu Minli, et al. Gender determination of early chicken hatching eggs embryos by hyperspectral imaging[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2016, 32(1): 181-186. (in Chinese with English abstract)

        [2] 王健,漠縱泉,肖小珺,等. 雞胚性別鑒定:家禽科學(xué)研究的新視點(diǎn)[J]. 中國(guó)家禽,2003,25(14):23-33.

        [3] 嚴(yán)鯤鵬. 雞蛋的雌雄鑒別[J]. 當(dāng)代畜禽養(yǎng)殖業(yè),1999(12):32.

        [4] 唐劍林,周玉蘭. 雞胚早期雌雄鑒別[J]. 貴州畜牧獸醫(yī),2001,25(5):29.

        [5] Turkyilmaz M K, Karagenc L, F?dan E. Sexing of newly-hatched chicks using DNA isolated from chorio-allantoic membrane samples by polymerase chain reaction in Denizli chicken[J]. British Poultry Science, 2010,51(4): 525-529.

        [6] Phelps P V. Method of Sorting Birds in Ovo: US, US 6506570 B1[P]. 2003-01-14.

        [7] Gore A K, Bryan T E. Method for Localizing Allantoic Fluid of Avian Eggs: US, US6510811[P]. 2003-01-28.

        [8] Steiner G, Bartels T, Stelling A, et al. Gender determination of fertilized unincubated chicken eggs by infrared spectroscopic imaging[J]. Analytical & Bioanalytical Chemistry, 2011, 400(9): 2775.

        [9] 俸艷萍. 雞的性比及性分化早期胚胎性別差異表達(dá)基因研究[D]. 武漢:華中農(nóng)業(yè)大學(xué),2007.Feng Yanping. On the Sex Ratio of Chicken and Sexual Differentially Expressed Genes in Chicken Embryos During Early Sexual Differentiation[D]. Wuhan: Huazhong Agricultural University, 2007. (in Chinese with English abstract)

        [10] 雷建鋒,汪偉. 基于OpenCV的圖像閾值分割研究與實(shí)現(xiàn)[J]. 現(xiàn)代電子技術(shù),2013,26(24):73-76.Lei Jianfeng, Wang Wei. Research and implementation of image threshold segmentation based on Open CV[J]. Modern Electronics Technique, 2013, 26(24): 73-76. (in Chinese with English abstract)

        [11] Liu H, Yan B, Lv M, et al. Adaptive CLAHE image enhancement using imaging environment self-perception[C]//Man–Machine–Environment System Engineering – Proceedings of the 17th International Conference on MMESE.Jinggangshan, China, 2018: 343-350.

        [12] Zuiderveld K. Contrast Limited Adaptive Histogram Equalization[M]// Graphics gems IV. Academic Press Professional,Inc. 1994: 474-485.

        [13] Kushol R, Kabir M H, Salekin M S, et al. Contrast Enhancement by Top-Hat and Bottom-Hat Transform with Optimal Structuring Element: Application to Retinal Vessel Segmentation[C]// International Conference Image Analysis and Recognition. Springer, Cham, 2017: 553-540.

        [14] 謝鵬鶴. 圖像閾值分割算法研究[D]. 湘潭:湘潭大學(xué),2012.Xie Penghe. The Study on the Image Thresholding Segmentation Algorithm[D]. Xiangtan: Xiangtan University, 2012. (in Chinese with English abstract)

        [15] Davis M, Sahin F. HOG feature human detection system[C]//IEEE International Conference on Systems, Man, and Cybernetics, 2017: 2878-2883.

        [16] 慕春雷. 基于HOG特征的人臉識(shí)別系統(tǒng)研究[D]. 成都:電子科技大學(xué),2013.Mu Chunlei. The Research of Face Recognition System Based on HOG Feature[D]. Chengdu: University of Electronic Science and Technology of China, 2013. (in Chinese with English abstract)

        [17] 李林,吳躍,葉茂. 一種基于HOG-PCA的高效圖像分類方法[J]. 計(jì)算機(jī)應(yīng)用研究,2013,30(11):3476-3479.Li Lin, Wu Yue, Ye Mao. Effective image classification method based on HOG-PCA[J]. Application Research of Computers, 2013, 30(11): 3476-3479. (in Chinese with English abstract)

        [18] 遲強(qiáng). 基于高光譜圖像技術(shù)對(duì)牛肉品質(zhì)無(wú)損檢測(cè)的研究 [D]. 哈爾濱:東北農(nóng)業(yè)大學(xué),2015.Chi Qiang. The Research Based on Hyperspectral Image Technology on the Nondestructive Examination for Beef Quality[D]. Harbin: College of Electric and Information,2015. (in Chinese with English abstract)

        [19] Heaton J. Ian Goodfellow and Yoshua Bengio and Aaron Courville: Deep learning[J]. Genetic Programming &Evolvable Machines, 2017: 1-3.

        [20] 周樹(shù)森. 基于深度置信網(wǎng)絡(luò)的分類方法[M]. 北京:清華大學(xué)出版社,2016.

        [21] 李飛,高曉光,萬(wàn)開(kāi)方. 基于權(quán)值動(dòng)量的 RBM 加速學(xué)習(xí)算法研究[J]. 自動(dòng)化學(xué)報(bào),2017,43(7):1142-1159.Li Fei, Gao Xiaoguang, Wan Kaifang. Research on RBM accelerating learning algorithm with weight momentum[J].Acta Automatica Sinica, 2017, 43(7): 1142-1159. (in Chinese with English abstract)

        [22] 高琰,陳白帆,晁緒耀,等. 基于對(duì)比散度-受限玻爾茲曼機(jī)深度學(xué)習(xí)的產(chǎn)品評(píng)論情感分析[J]. 計(jì)算機(jī)應(yīng)用,2016,36(4):1045-1049.Gao Yan, Chen Baifan, Chao Xuyao, et al. Sentiment analysis of product reviews based on contrastive divergencerestricted Boltzmann machine deep learning[J]. Journal of Computer Applications, 2016, 36(4): 1045-1049. (in Chinese with English abstract)

        [23] Lecun Y, Bengio Y, Hinton G. Deep learning[J]. Nature,2015, 521(7553): 436-444.

        [24] Hinton G E, Srivastava N, Krizhevsky A, et al. Improving neural networks by preventing co-adaptation of feature detectors[J]. Computer Science, 2012, 3(4): 212-223.

        [25] 蔡滿軍,程曉燕,喬剛. 一種改進(jìn)BP網(wǎng)絡(luò)學(xué)習(xí)算法[J]. 計(jì)算機(jī)仿真,2009,26(7):172-174.Cai Manjun, Cheng Xiaoyan, Qiao Gang. An improved learning algorithm for BP network[J]. Computer Simulation,2009, 26(7): 172-174. (in Chinese with English abstract)

        [26] Zinkevich M, Weimer M, Smola A J, et al. Parallelized stochastic gradient descent[J]. Advances in Neural Information Processing Systems, 2010, 23(23): 2595-2603.[27] Chang C C, Lin C J. LIBSVM: A library for support vector machines[J]. Acm Transactions on Intelligent Systems &Technology, 2011, 2(3): 1-27.

        [28] Palm R B. Prediction as a Candidate for Learning Deep Hierarchical Models of Data[D]. Kongens Lyngby: Technical University of Denmark, 2012.

        猜你喜歡
        特征信息模型
        一半模型
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        如何表達(dá)“特征”
        不忠誠(chéng)的四個(gè)特征
        抓住特征巧觀察
        訂閱信息
        中華手工(2017年2期)2017-06-06 23:00:31
        3D打印中的模型分割與打包
        展會(huì)信息
        線性代數(shù)的應(yīng)用特征
        河南科技(2014年23期)2014-02-27 14:19:15
        日批视频免费在线观看| 午夜精品久久久久久久99老熟妇| 色777狠狠狠综合| 亚洲国产一区二区三区亚瑟| 国产亚洲精选美女久久久久 | 青青草在线这里只有精品| 国产一区二区白浆在线观看| 亚洲国产精品高清一区| 国产无遮挡又黄又爽在线观看 | 门卫又粗又大又长好爽| 老熟妇高潮喷了╳╳╳| 18禁国产美女白浆在线| 久久精品中文字幕有码| 国产 麻豆 日韩 欧美 久久| 91日韩高清在线观看播放| 97精品国产91久久久久久久 | 欧美人与动牲猛交xxxxbbbb | 久久99精品久久久66| 精品少妇后入一区二区三区| 永久免费看黄网站性色| 性猛交ⅹxxx富婆视频| 久久久久国产一区二区三区| 久久99热精品这里久久精品| 亚洲综合网中文字幕在线| 国产婷婷成人久久av免费| 波多野结衣的av一区二区三区| 国产呦精品系列在线播放| 日韩精品极品视频在线免费| 虎白女粉嫩粉嫩的18在线观看| 国产七十六+老熟妇| 大地资源中文第三页| 中文字幕第一页亚洲观看| 熟女乱乱熟女乱乱亚洲| 亚洲gay片在线gv网站| 精品乱码久久久久久久| 真人男女做爰无遮挡免费视频| 国产精品性一区二区三区| 91精品人妻一区二区三区水蜜桃| 国产人妻大战黑人20p| 日韩中文字幕中文有码| 国产成人久久精品二区三区|