亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        應(yīng)用輪廓變化信息的實(shí)驗(yàn)鼠行為識(shí)別

        2014-06-02 06:40:14洪留榮
        計(jì)算機(jī)工程 2014年3期
        關(guān)鍵詞:實(shí)驗(yàn)鼠關(guān)鍵幀直方圖

        洪留榮

        ?

        應(yīng)用輪廓變化信息的實(shí)驗(yàn)鼠行為識(shí)別

        洪留榮

        (商丘師范學(xué)院計(jì)算機(jī)學(xué)院,河南 商丘 476000)

        實(shí)驗(yàn)鼠行為分析數(shù)據(jù)是神經(jīng)學(xué)、生理學(xué)、藥物學(xué)等學(xué)科實(shí)驗(yàn)數(shù)據(jù)的重要部分。針對(duì)實(shí)驗(yàn)鼠缺少肢體運(yùn)動(dòng)信息的特點(diǎn),提出一種實(shí)驗(yàn)鼠多行為分析方法。提取實(shí)驗(yàn)鼠輪廓的幀間變化信息,同時(shí)考慮變化信息與實(shí)驗(yàn)鼠本身的位置關(guān)系,對(duì)行為視頻形成系列輪廓變化幀。在訓(xùn)練階段,通過Pillar K-means聚類算法從系列幀中提取80個(gè)關(guān)鍵幀,并把每一個(gè)訓(xùn)練行為視頻用對(duì)應(yīng)關(guān)鍵幀頻數(shù)的直方圖表示。在測(cè)試階段,測(cè)試視頻用最近鄰法確定每一幀對(duì)應(yīng)的關(guān)鍵幀,形成相應(yīng)的關(guān)鍵幀直方圖,從而把分類問題變成一個(gè)直方圖相似性問題,再應(yīng)用卡方距離進(jìn)行分類。實(shí)驗(yàn)結(jié)果表明,該方法對(duì)8種行為的分類準(zhǔn)確率最高達(dá)到100%,最低達(dá)到95%。

        行為分析;實(shí)驗(yàn)鼠;相似性;變化信息;Pillar K-means算法;關(guān)鍵幀

        1 概述

        在神經(jīng)科學(xué)、生物科學(xué)、藥物開發(fā)等領(lǐng)域的研究中,實(shí)驗(yàn)鼠是常用的實(shí)驗(yàn)動(dòng)物,對(duì)它們的行為進(jìn)行定量分析是獲取基礎(chǔ)實(shí)驗(yàn)數(shù)據(jù)的重要內(nèi)容。在行為分析這一領(lǐng)域,針對(duì)人的行為分析已經(jīng)做了大量工作,并取得了很多優(yōu)秀成果[1],與實(shí)驗(yàn)鼠行為分析不同的是,人的肢體為其行為分析提供了大量信息,而實(shí)驗(yàn)鼠幾乎難以提取這些信息。

        目前,實(shí)驗(yàn)鼠的行為分析主要靠人工進(jìn)行,費(fèi)時(shí)費(fèi)力。更重要的是由于人的干擾影響了實(shí)驗(yàn)鼠的真實(shí)行為,從而造成實(shí)驗(yàn)數(shù)據(jù)偏差,而應(yīng)用視頻進(jìn)行實(shí)驗(yàn)鼠行為分析可以避免以上不足[2]。因此,近幾年國(guó)內(nèi)外相關(guān)企業(yè)和科研人員進(jìn)行了較為深入的研究。

        文獻(xiàn)[3]利用輪廓曲率和譜系聚類算法對(duì)大鼠的體態(tài)進(jìn)行識(shí)別。文獻(xiàn)[4]通過對(duì)小白鼠的體態(tài)分析其行為。

        對(duì)實(shí)驗(yàn)箱老鼠的行為,許多研究者提出一些自動(dòng)分析系統(tǒng),如文獻(xiàn)[5]提出老鼠行為結(jié)構(gòu)的自動(dòng)分析系統(tǒng),文 獻(xiàn)[6-7]介紹的自動(dòng)實(shí)驗(yàn)箱監(jiān)視系統(tǒng)等,大部分都依賴像紅外線光束等做一些簡(jiǎn)單的監(jiān)測(cè)。這些基于傳感器的自動(dòng)分析方法能夠有效地監(jiān)視動(dòng)物的行為和行為發(fā)生的條件,但只局限于研究者所感興趣部分行為,即使是應(yīng)用轉(zhuǎn)發(fā)器技術(shù)的商業(yè)系統(tǒng)也是如此。文獻(xiàn)[8]通過運(yùn)動(dòng)和功率頻譜分析來識(shí)別靜止、修飾和運(yùn)動(dòng)3種行為。

        總體上目前研究主要限于對(duì)實(shí)驗(yàn)鼠的跟蹤,在此基礎(chǔ)上,分析其速度、位置、區(qū)域、運(yùn)動(dòng)時(shí)間等參數(shù)或者是研究其興趣的幾種行為[9-10]。而對(duì)于動(dòng)物行為譜中重要的行為,如懸掛、微動(dòng)、行走、吃、喝水、修飾、直立和休息等行為研究較少,通過對(duì)文獻(xiàn)的查閱,只有文獻(xiàn)[11]對(duì)多種行為進(jìn)行了綜合研究。它主要應(yīng)用人的視覺機(jī)制,并結(jié)合一般的位置與速度特征完成實(shí)驗(yàn)鼠8種行為的分析,由于其采用了多尺度和多方向Gobar濾波提取特征,并采用了分層處理,算法的時(shí)間復(fù)雜性較高,正確率也不滿足實(shí)際需求[11]。

        輪廓(silhouette)是計(jì)算機(jī)視覺系統(tǒng)中提取特征的重要信息來源之一,許多文獻(xiàn)從輪廓信息中提取特征。文獻(xiàn)[12]用幀間不同的能量圖進(jìn)行步態(tài)識(shí)別。文獻(xiàn)[13]應(yīng)用輪廓開發(fā)出了人類行為的一種表示方法用于人的行為識(shí)別。文獻(xiàn)[14]應(yīng)用輪廓邊界信息面積與寬度,通過傅里葉變換描述人的姿態(tài)特征,以識(shí)別人的姿態(tài)。

        本文應(yīng)用視頻輪廓幀差信息,針對(duì)實(shí)驗(yàn)鼠行為譜中的8種行為進(jìn)行分析識(shí)別。本文方法與其他方法的不同之處在于本文利用視頻輪廓幀差信息來提取關(guān)鍵幀,并提出一種行為描述子,把一種行為視頻用關(guān)鍵幀直方圖表示,從而只須用簡(jiǎn)單的直方圖匹配方法就可以進(jìn)行行為分類。

        2 分析方法框架以及特征抽取

        研究實(shí)驗(yàn)鼠行為一般把實(shí)驗(yàn)鼠置于一個(gè)特制的實(shí)驗(yàn)箱中,本文稱為行為分析實(shí)驗(yàn)箱。實(shí)驗(yàn)箱內(nèi)部環(huán)境比較穩(wěn)定,實(shí)驗(yàn)鼠的顏色也比較特殊,一般是黑色、灰色和白色3種。如圖1所示,視頻錄入時(shí)攝像機(jī)固定,以視頻系列幀作為輸入。

        圖1 實(shí)驗(yàn)鼠行為分析實(shí)驗(yàn)箱

        通過對(duì)實(shí)驗(yàn)鼠視頻幀的分析,發(fā)現(xiàn)實(shí)驗(yàn)鼠一種行為的輪廓幀間差與另一種行為的輪廓幀間差相差較大,可以作為行為分析的一種顯著性判別特征。利用這種特征,應(yīng)用Pillar K-means算法提取出不同行為的關(guān)鍵幀,應(yīng)用這些關(guān)鍵幀構(gòu)建直方圖,形成行為描述子,并作為樣本數(shù)據(jù)。對(duì)待識(shí)別行為視頻,應(yīng)用最近鄰法確定其對(duì)應(yīng)的關(guān)鍵幀,并構(gòu)建行為描述子,然后應(yīng)用卡方距離作為待識(shí)別行為與樣本行為的相似性測(cè)度,給出分類。

        總體上講,本文方法的框架分為2個(gè)部分:在訓(xùn)練階段,從視頻中獲取實(shí)驗(yàn)鼠輪廓,提取幀差信息,并考慮到這些信息與實(shí)驗(yàn)鼠位置之間的關(guān)系,根據(jù)這些信息提取關(guān)鍵幀,給出樣本視頻的行為描述子。在分類階段,除行為描述子的算法和計(jì)算相似性不同外,其余都與訓(xùn)練階段相同。在這個(gè)階段,根據(jù)抽取的行為描述子與樣本行為描述子進(jìn)行相似性計(jì)算,然后確定待測(cè)行為類型,如圖2所示。

        圖2 實(shí)驗(yàn)鼠行為分析總體框架

        2.1 實(shí)驗(yàn)鼠輪廓的提取

        行為分析實(shí)驗(yàn)箱內(nèi)部背景比較穩(wěn)定,實(shí)驗(yàn)鼠顏色比較固定,主要通過實(shí)驗(yàn)鼠本身圖像的灰度值,經(jīng)2個(gè)閾值二值化,計(jì)算公式如式(1)所示,然后尋找面積最大的塊作為實(shí)驗(yàn)鼠的輪廓:

        其中,表示一個(gè)像素的灰度值;1和2為2個(gè)閾值。

        這種方法在前期開發(fā)的鼠跟蹤實(shí)驗(yàn)箱中證明效果非常好,提取輪廓的正確率為99.7%。圖3是實(shí)驗(yàn)鼠喝水與微動(dòng)2種行為的部分輪廓示例。

        圖3 實(shí)驗(yàn)鼠的一組輪廓實(shí)例

        2.2 特征的抽取

        在實(shí)驗(yàn)中發(fā)現(xiàn),輪廓的幀間變化為實(shí)驗(yàn)鼠行為分析提供了重要的信息。比如行走,幀之間的變化在一段時(shí)間內(nèi)位于實(shí)驗(yàn)鼠行走方向上的前后2個(gè)方向,直立時(shí)在一段時(shí)間內(nèi)上或下交叉變化,而且這種變化有一定的規(guī)律,考慮到行為對(duì)象本身的身體大部分不提供對(duì)行為分類有意義的信息,如果利用這些信息還可能給分析帶來干擾。因此,本文只利用行為對(duì)象幀間變化信息進(jìn)行行為分析。

        圖4 3種行為部分原始幀圖像及其幀差圖像

        視頻可以看成是一系列的幀,從這些系列幀中提取實(shí)驗(yàn)鼠的輪廓最大邊界框圖像作為下一步抽取特征的幀。幀間差能反應(yīng)運(yùn)動(dòng)信息,但如果間隔幀數(shù)少,變化的信息量就少,一般來說可以加大時(shí)間軸上間隔的數(shù)量(>1)來加大運(yùn)動(dòng)的信息量。

        本文中把一個(gè)視頻系列中在時(shí)間軸上間隔為的幀定義為1,2,…,F(為幀的個(gè)數(shù)),其幀間差定義為D1,D2,…,DF-1。

        這些變化信息只是相對(duì)于整個(gè)幀而言,并沒有突出它們相對(duì)于實(shí)驗(yàn)鼠前一幀整個(gè)輪廓之間的運(yùn)動(dòng)關(guān)系,因此,本文提取FF(=1,2,…,-)中實(shí)驗(yàn)鼠邊界框的共同邊界框內(nèi)圖像作為幀間差圖像。這種做法有3個(gè)好處:(1)能有效利用實(shí)驗(yàn)鼠的運(yùn)行變化信息;(2)可以突出幀間變化相對(duì)于實(shí)驗(yàn)鼠的位置信息;(3)避免同樣的行為由于實(shí)驗(yàn)鼠運(yùn)動(dòng)位置不同產(chǎn)生的差異。

        F幀中實(shí)驗(yàn)鼠邊界框的左上角點(diǎn)、右下角點(diǎn)在原始幀中坐標(biāo)分別為pre、pre、pre、pre。F幀中對(duì)應(yīng)的坐標(biāo)分別為next、next、next、next,則輪廓幀間差圖像的左上角點(diǎn)和右下角點(diǎn)在原始幀中的坐標(biāo)可簡(jiǎn)單地由式(2)計(jì)算:

        根據(jù)上述方法得到的幀差圖像大小隨著實(shí)驗(yàn)鼠形狀大小的變化而變化,為處理方便,把它們歸一化為′大小的圖像,本文中取60′30像素,這些圖像將作為提取關(guān)鍵幀的對(duì)象。圖4中各幀差圖像中的白色點(diǎn)表示了運(yùn)行信息,同時(shí)也包含了這些運(yùn)動(dòng)信息與實(shí)驗(yàn)鼠對(duì)象之間的關(guān)系信息。

        把包括這些信息的圖像幀轉(zhuǎn)換成一維矢量,對(duì)于′大小的圖像,該矢量長(zhǎng)度為′。所有行為類型的訓(xùn)練視頻得到的這些特征矢量用于K-means聚類以獲取每一個(gè)行為的關(guān)鍵幀。

        2.3 關(guān)鍵幀的提取

        從視頻中提取的基于輪廓的幀間差圖像矢量如果全部作為樣本,會(huì)增加冗余信息,同時(shí)也加重分類的計(jì)算負(fù)擔(dān),通常的做法是根據(jù)這些樣本提取關(guān)鍵幀作為以后分類的依據(jù)[15-16]。K-means算法可以有效、快速地對(duì)大數(shù)據(jù)進(jìn)行聚 類[17-18],但由于選擇初始聚類中心的隨機(jī)性,算法難以達(dá)到全局最優(yōu),常常只達(dá)到一個(gè)局部最優(yōu),從而使分類結(jié)果產(chǎn)生錯(cuò)誤,對(duì)有良好區(qū)分度的數(shù)據(jù)集用K-means進(jìn)行分類,可以產(chǎn)生60%以上的錯(cuò)誤率[17-19]。因此,在對(duì)幀差圖像進(jìn)行聚類前,用Pillar算法[17]對(duì)初始聚類中心進(jìn)行分析計(jì)算,Pillar算法根據(jù)承受屋頂分布不均壓力的柱子彼此之間要“盡可能地分離遠(yuǎn)”這一原則,把待分類數(shù)據(jù)看成屋頂壓力分布,聚類初始中心看成為柱子位置。應(yīng)用這一建筑學(xué)上的原理為K-means算法確定初始聚類中心,其算法步驟見文獻(xiàn)[17]。

        通過這種K-means算法,把所有訓(xùn)練視頻,即第1節(jié)提到的8種動(dòng)物譜行為中的每一個(gè)視頻應(yīng)用2.2節(jié)形成的矢量進(jìn)行聚類,形成80個(gè)關(guān)鍵幀,把這個(gè)關(guān)鍵幀作為待分類時(shí)應(yīng)用的樣本數(shù)據(jù)。

        2.4 行為描述子

        在所有參與訓(xùn)練的視頻幀中,對(duì)于每一類行為中的一個(gè)輪廓幀差圖像,根據(jù)分類情況,每一個(gè)行為視頻可確定其所在關(guān)鍵幀。對(duì)訓(xùn)練的一個(gè)行為視頻,統(tǒng)計(jì)出它對(duì)應(yīng)于每個(gè)關(guān)鍵幀的個(gè)數(shù),形成一個(gè)關(guān)于關(guān)鍵幀的直方圖,把這個(gè)直方圖作為一個(gè)行為的描述子。

        圖5為喝水與懸掛2個(gè)視頻的實(shí)例,其中,為關(guān)鍵幀編號(hào),為關(guān)鍵幀個(gè)數(shù)。這樣,一個(gè)行為視頻就變成了一個(gè)關(guān)鍵幀頻數(shù)的分布。如果待分類視頻也用這樣的行為描述子進(jìn)行行為描述,那么分類問題就是一個(gè)判別直方圖相似的問題。

        圖5 2個(gè)視頻行為描述子

        2.5 行為分類

        對(duì)于一個(gè)待分類視頻,根據(jù)2.1節(jié)所述形成系列輪廓幀差圖像,并轉(zhuǎn)換成系列一維矢量,對(duì)于每一個(gè)幀差圖像,應(yīng)用最近鄰法確定它對(duì)應(yīng)的關(guān)鍵幀,然后計(jì)算該行為視頻的直方圖,令為。應(yīng)用距離判別與樣本直方圖的相似性。

        其中,=1,2,…,8。

        最終分類為:

        即最小時(shí)對(duì)應(yīng)的作為最終的分類結(jié)果。

        3 實(shí)驗(yàn)結(jié)果與參數(shù)獲取

        3.1 實(shí)驗(yàn)結(jié)果

        本文實(shí)驗(yàn)均在Jhang提供的實(shí)驗(yàn)鼠視頻數(shù)據(jù)庫(kù)[11]基礎(chǔ)之上完成,實(shí)驗(yàn)數(shù)據(jù)庫(kù)以及開發(fā)的軟件可從http://cbcl.mit. edu/softwaredatasets/mouse/上下載,共8種行為。

        每個(gè)行為隨機(jī)選擇20個(gè)視頻作為訓(xùn)練數(shù)據(jù),聚類后得到80個(gè)關(guān)鍵幀,實(shí)驗(yàn)所用參數(shù)為:=3,=80,′60′30。

        具體的分類結(jié)果如表1所示。這些參數(shù)均是在實(shí)驗(yàn)中通過對(duì)比得到的。實(shí)驗(yàn)在Matlab7.0中完成,為比較結(jié)果,給出了文獻(xiàn)[11]中的結(jié)果,見表2。同時(shí)用Jhang提供的軟件進(jìn)行了用相同的實(shí)驗(yàn)視頻進(jìn)行對(duì)比,結(jié)果見表3,3個(gè)表中的加粗?jǐn)?shù)值表示正確識(shí)別率。

        表1 本文方法得到的實(shí)驗(yàn)結(jié)果

        表2 文獻(xiàn)[11]中的實(shí)驗(yàn)結(jié)果

        表3 文獻(xiàn)[11]軟件得到的實(shí)驗(yàn)結(jié)果

        通過對(duì)比,本文算法有效地提高了精度。通過考慮位置后的輪廓差提取特征,對(duì)同一種視頻行為而言,均集中于某幾個(gè)關(guān)鍵幀,見圖5。這說明,這種特征提取方法對(duì)不同行為具有很好的判別性,從而可有效地提高分類效果。另一方面,把訓(xùn)練視頻的關(guān)鍵幀直方圖均作為樣本,盡量地包含了不同行為視頻直方圖的不同情況。對(duì)一些誤識(shí)別,比如修飾與微動(dòng),主要是由于部分輪廓差比較相似,導(dǎo)致了部分關(guān)鍵幀分類錯(cuò)誤。

        對(duì)比表3與表2,實(shí)驗(yàn)結(jié)果基本一致,一些數(shù)據(jù)有差異主要是由于訓(xùn)練和測(cè)試的視頻及數(shù)量不一樣。

        在文獻(xiàn)[11]中,應(yīng)用視皮層原理提取實(shí)驗(yàn)鼠運(yùn)動(dòng)速度和方向作為特征,而這2種特征數(shù)據(jù)在某2類行為中的相似性較大,比較行走與微動(dòng),造成了分類困難。

        3.2 參數(shù)的獲取

        在實(shí)驗(yàn)中根據(jù)行為分類的總體錯(cuò)誤率最小來選定最佳參數(shù),歸一化大小′為20′20~80′80,行、列分別每次增加10作對(duì)比;聚類數(shù)為30~100,每次增加5作對(duì)比;為1~5,每次加1,這些參數(shù)每次變化組合,對(duì)視頻進(jìn)行測(cè)試,以錯(cuò)誤率作對(duì)比,錯(cuò)誤率最小的參數(shù)組合作為最終參數(shù),即本文實(shí)驗(yàn)參數(shù)。圖6~圖8分別為實(shí)驗(yàn)比較分析時(shí)參數(shù)變化時(shí)的實(shí)例圖。其中,圖6的實(shí)驗(yàn)參數(shù)為=3,=80;圖7的實(shí)驗(yàn)參數(shù)為′=60′30,=8;圖8的實(shí)驗(yàn)參數(shù)為′=60′30,=3。

        圖6 歸一化大小變化時(shí)的錯(cuò)誤率

        圖7 幀間隔變化時(shí)的錯(cuò)誤率

        圖8 聚類數(shù)k變化時(shí)的錯(cuò)誤率

        4 結(jié)束語(yǔ)

        本文將實(shí)驗(yàn)鼠行為發(fā)生時(shí)視頻幀間的變化信息及其相對(duì)于實(shí)驗(yàn)鼠對(duì)象的位置信息作為特征抽取的對(duì)象,利用K-means算法提取關(guān)鍵幀,在使用之前通過Pillar算法進(jìn)行了初始化聚類中心的處理。把關(guān)鍵幀的頻數(shù)分布直方圖作為一個(gè)視頻行為描述子,使分類問題變成一個(gè)判別直方圖相似性問題。從直方圖的分布來看,利用輪廓幀間變化信息可以很好地提取物體的運(yùn)動(dòng)信息,并具有較高的行為判別性。下一步將對(duì)此方法加以改進(jìn),使其可以應(yīng)用于長(zhǎng)視頻中不同行為之間的分割。

        [1] Poppe R. A Survey on Vision-based Human Action Recogni- tion[J]. Image and Vision Computing, 2010, 28(6): 976-990.

        [2] Auwerx J. The European Dimension for the Mouse Genome Mutagenesis Program[J]. Nature Genetics, 2004, 36(11): 925-927.

        [3] 張 敏, 張恒義, 鄭筱祥. 基于輪廓曲率和譜系聚類的大鼠體態(tài)自動(dòng)識(shí)別[J]. 浙江大學(xué)學(xué)報(bào), 2006, 40(3): 107-114.

        [4] 陸 鋮. 基于視頻的動(dòng)物行為智能分析系統(tǒng)關(guān)鍵技術(shù)研 究[D]. 西安: 西北農(nóng)林科技大學(xué)信息學(xué)院, 2008.

        [5] Goulding E H. A Robust Automated System Elucidates Mouse Home Cage Behavioral Structure[J]. Proceedings of the National Academy of Sciences of the United States of America, 2008, 105(52): 20575-20582.

        [6] Van de Weerd. Validation of a New System for the Automatic Registration of Behaviour in Mice and Rats[J]. Journal of Behavioural Processes, 2001, 53(1): 11-20.

        [7] Osechas O. Ratpack: Wearable Sensor Networks for Animal Observation[C]//Proc. of the 30th Annual International IEEE Engineering in Medicine and Biology Conference. Vancouver,Canada: [s. n.], 2008: 538-541.

        [8] Campbell S. Segmentation and Behavioral Classification of Mice Using Digital Video[C]//Proc. of the 4th International Conference on Methods and Techniques in Behavioral Research. Amsterdam, Holland: [s. n.], 2002: 27-30.

        [9] Idaku I, Shogo K. Automatic Scratching Pattern Detection for Laboratory Mice Using High-speed Video Images[J]. IEEE Transactions on Automation Science and Engineering, 2008, 5(1): 176-182.

        [10] Idaku I, Yuman N. Real-time and Long-time Quanti?cation of Behavior of Laboratory Mice Scratching[C]//Proc. of the 3rd Annual IEEE Conference on Automation Science and Engineering. Scottsdale, USA: [s. n.], 2007: 628-633.

        [11] Hueihan J. Automated Home-cage Behavioural Phenotyping of Mice[J]. Nature Communications, 2010, 25(9):1-9.

        [12]Chen Changhong, Liang Jimin. Frame Difference Energy Image for Gait Recognition with Incomplete Silhouettes[J]. Pattern Recognition Letters, 2009, 30(11): 977-984.

        [13] Wu Di, Shao Ling. Silhouette Analysis-based Action Recog- nition via Exploiting Human Poses[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2013, 23(2):236-243.

        [14] 鄧甜甜, 王智靈. 基于輪廓圖像空頻域特征的人體姿態(tài)分層識(shí)別算法[J]. 模式識(shí)別與人工智能, 2011, 24(3): 411-416.

        [15] Kim S. Optimal Keyframe Selection Algorithm for Three- dimensional Reconstruction in Uncalibrated Multiple Images[J]. Society of Photo-optical Instrumentation Engineers, 2008, 47(5): 188-195.

        [16] Naveed E, Bin T. Adaptive Key Frame Extraction for Video Summarization Using an Aggregation Mechanism[J]. Journal of Visual Communication and Image Representation, 2012, 23(7): 1031-1040.

        [17]Barakbah A R, Helen A. Optimized K-means: An Algorithm of Initial Centroids Optimization for K-means[C]//Proc. of a Seminar on Soft Computing Intelligent System and Information Technology. Surabaya, Indonesia: [s. n.], 2005: 102-107.

        [18] Barakbah A R. A Pillar Algorithm for K-means Optimization by Distance Maximization for Initial Centroid Designation [C]//Proc. of IEEE Symposium on Computational Intelligence and Data Mining. Nashville, USA: [s. n.], 2009: 61-68.

        [19] Barakbah A R, Yasushi K. A New Approach for Image Segmentation Using Pillar-kmeans Algorithm[J]. International Journal of Information and Communication Engineering, 2010, 6(2): 83-87.

        編輯 任吉慧

        Laboratory Mice Action Recognition Using Silhouette Difference Information

        HONG Liu-rong

        (School of Computer, Shangqiu Normal University, Shangqiu 476000, China)

        Mice action data is an important part of the experimental data in neurology, physiological pharmacology, etc. A method is proposed on multi actions analysis of mice in this paper for lacking the limbs information. The inter-frame difference of mice silhouette are extracted while the relation between the difference and the position of mice silhouette is taken into consideration, then sequential silhouette difference frames are obtained from action videos. In training phase, the 80 key frames are extracted using Pillar K-means algorithm, each video is presented by the key frames and a histogram on frequency of key frame is obtained. In test phase, the histogram of each video is determined using its key frames by nearestneighbour algorithm. So, a classification problem is transformed into the similarities problem. Actions are classified by2distances. Experimental results show thatthe correct rate of the proposed method is a maximum of 100%, and the lowest of 95%.

        action analysis; laboratory mice; similarity; difference information; Pillar K-means algorithm; key frame

        1000-3428(2014)03-0213-05

        A

        TP391

        安徽省自然科學(xué)基金資助項(xiàng)目(KJ2011A251)。

        洪留榮(1969-),男,副教授,主研方向:模式識(shí)別,數(shù)字圖像處理。

        2013-01-22

        2013-04-02 E-mail:sqhongliurong@126.com

        10.3969/j.issn.1000-3428.2014.03.045

        猜你喜歡
        實(shí)驗(yàn)鼠關(guān)鍵幀直方圖
        統(tǒng)計(jì)頻率分布直方圖的備考全攻略
        符合差分隱私的流數(shù)據(jù)統(tǒng)計(jì)直方圖發(fā)布
        吃夜宵可能讓人越來越笨
        婦女生活(2019年9期)2019-09-24 02:07:52
        用直方圖控制畫面影調(diào)
        基于改進(jìn)關(guān)鍵幀選擇的RGB-D SLAM算法
        基于相關(guān)系數(shù)的道路監(jiān)控視頻關(guān)鍵幀提取算法
        愛吃咸與基因有關(guān)
        基于聚散熵及運(yùn)動(dòng)目標(biāo)檢測(cè)的監(jiān)控視頻關(guān)鍵幀提取
        基于直方圖平移和互補(bǔ)嵌入的可逆水印方案
        吃高脂食物喝點(diǎn)柚子汁
        天天躁日日躁狠狠躁欧美老妇小说| 成在线人免费视频播放| 青青草成人免费播放视频| 日韩亚洲中文有码视频| 色哟哟亚洲色精一区二区| 国产成人a人亚洲精品无码| 久青草国产在线观看| 人妻丰满少妇一二三区| 风骚人妻一区二区三区| 日韩精品人妻中文字幕有码| 亚洲色大成网站www久久九| 91精品国产福利尤物免费| 日本一区二区日韩在线| 久久熟妇少妇亚洲精品| 麻豆精品久久久久久久99蜜桃| 中文字幕精品久久久久人妻红杏1| 久久香蕉成人免费大片| 久久一日本道色综合久久大香| 中国老太老肥熟女视频| 亚洲第一黄色免费网站| 国产肉体xxxx裸体137大胆| 国产一线二线三线女| 91av国产视频| 亚洲视频在线视频在线视频 | 色翁荡熄又大又硬又粗又动态图| 久久99国产精品久久99果冻传媒| 久久精品久久久久观看99水蜜桃| bbbbbxxxxx欧美性| 精品国产一区二区av麻豆不卡| 激情五月开心五月麻豆| 国产人妻精品无码av在线| 波多野结衣在线播放一区| 中文字幕人成乱码中文| 亚洲av色影在线| 国色天香精品一卡2卡3卡4| 老男人久久青草AV高清| 一区二区亚洲精美视频| 国产狂喷水潮免费网站www| 麻豆影视视频高清在线观看| av大片在线无码免费| 精品一区二区三区四区少妇|