亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于SSD目標檢測框架的烏龜常見病癥識別方法

        2020-04-27 11:01:08王曼韜劉江川彭帥波
        沈陽農業(yè)大學學報 2020年2期
        關鍵詞:烏龜病癥卷積

        鮑 烈,王曼韜,劉江川,彭 珍,彭帥波

        (四川農業(yè)大學 信息工程學院/四川省農業(yè)信息工程重點實驗室,四川 雅安 625000)

        白眼病、中耳炎、爛甲病是烏龜最常見的疾病,其中爛甲?。ㄓ址Q作腐甲病)是其生命最大的威脅。爛甲病的主要病因是烏龜?shù)凝敿资艿侥p后,細菌的入侵,導致龜甲受到感染并腐爛。大多為機械性損傷,比如在野外捕捉時或運輸?shù)倪^程中被硬物擦傷,或者是從高處跌落導致龜殼破損。爛甲病的傳染性極高,所以一旦有爛甲病的出現(xiàn),必須要有及時的防治措施,否則將會損失慘重[1],如何及時的發(fā)現(xiàn)患病烏龜是一個非常值得研究的課題。在深度學習發(fā)展起來之前,利用圖像處理對動物疾病進行檢測一般使用傳統(tǒng)機器學習算法,比如K最近鄰、支持向量機[2]、隨機森林[3]等分類算法,但這些方法精度不夠高且只能夠判斷出目標是否患病,無法精確定位患病處。而隨著計算機技術的快速發(fā)展,最近幾年日漸火熱且效果極佳的深度學習圖像處理技術也逐漸應用于動植物病癥識別[4-5]。在植物病蟲害方面,王獻鋒等[6]提出一種基于環(huán)境信息和深度信念網絡的棉花病蟲害預測模型,利用RBM(3層限制玻爾茲曼機網絡)將環(huán)境信息數(shù)據(jù)轉換到與病蟲害發(fā)生相關的新的特征空間,利用BP網絡對最后1層輸出的特征向量對近6年棉花的棉鈴蟲、棉蚜蟲、紅蜘蛛和黃萎病、枯萎病進行預測;張建華等[7]將病害棉花圖像從RGB顏色空間轉換到HSI和L*a*b*顏色空間,應用Otsu算法對H分量、a*分量和b*分量進行閾值分割,通過H+a*+b*分量與原始圖像的交集提取棉花病斑區(qū)域,利用顏色矩和灰度共生矩陣分別提取病斑的顏色和紋理特征,并結合粗糙集理論和BP神經網絡,實現(xiàn)特征向量的優(yōu)選和棉花病害的識別。在人或動物病癥識別方面,傅裕等[8]采用卷積神經網絡遷移學習實現(xiàn)疾病類型的分類并針對小樣本量皮膚鏡圖像,結合皮膚學診斷原理和機器學習建模實現(xiàn)特定疾病類型診斷,針對有限樣本且復雜的皮膚組織病理圖像,運用圖像分割和機器學習建模實現(xiàn)病理圖像自動區(qū)域標注;SHIN等[9]利用遷移學習[10]檢測CT圖像中的腹部淋巴結,并且對CT圖像中間質性肺病進行分類;李航等[11]提出一種皮膚鏡圖像自動評估的新框架,在大規(guī)模自然圖像數(shù)據(jù)集上預訓練一個深度為152層的殘差神經網絡(Res-152),用來提取皮膚病變圖像的深度卷積層特征,并對其使用均值池化得到特征向量,然后利用支持向量機(SVM)對提取的黑色素瘤特征進行分類。SSD[12-13]、YOLO[14-15]和Faster R-CNN[16]是目前最具有代表性的目標檢測框架且都適用,但兩步檢測器Faster RCNN速度較慢,參數(shù)量較大,YOLO作為一步檢測器,速度非???,但犧牲了很多精度。由于爛甲病具有很強的傳染性,如果不能及時發(fā)現(xiàn),不僅水質受到污染,還會造成烏龜大量死亡,所以本研究選擇以SSD作為檢測算法,在速度滿足需求的同時能夠保證較高的精度。SSD是一步檢測器中很具代表性的框架,近來對其的改進層出不窮,例如:FSSD、DSSD、ESSD[17-19]等。本研究以烏龜作為研究對象,選取烏龜常見的白眼病、爛甲病、中耳炎3種病癥作為檢測病癥,并結合Focal Loss和精簡的SSD檢測模型,識別烏龜?shù)某R姴“Y。輕量級的一步目標檢測器SSD以VGG16為特征提取網絡,對于300×300的輸入圖片,在VOC2007上可以達到74.3%的mAP,而對于512×512的輸入,可以達到76.9%的mAP,并且在速度上優(yōu)于Faster RCNN以及YOLO。它在COCO[20]數(shù)據(jù)集上的mAP甚至達到了基于候選區(qū)域的重量級框架Faster R-CNN,并且與此同時還保證了檢測速度,以59fps遙遙領先于Faster R-CNN,甚至比實時目標檢測框架YOLO的21 fps更快。運用深度學習目標檢測技術,設計更加實用、快速的算法,實現(xiàn)對烏龜3種常見病癥的快速檢測。

        1 材料與方法

        1.1 材料

        本研究把對烏龜常見疾病的檢測當作三分類問題處理,數(shù)據(jù)集的組成如表1,通過數(shù)據(jù)增廣來壯大數(shù)據(jù)集,增廣方式為隨機裁剪、隨機翻轉和鏡像。圖1為所檢測的烏龜?shù)?種常見病癥的部分樣本圖片。

        1.2 圖像標注方法

        本研究使用目標檢測標注工具labelImg進行標注,標注一共分為3種類型,相對應于烏龜?shù)?種常見病癥,3 類標簽分別是:wed(白眼?。琤ad(爛甲?。?,OM(中耳炎)。

        1.3 環(huán)境部署與模型訓練

        試驗環(huán)境部署在64位的Windows10系統(tǒng),采用TensorFlow[21]深度學習框架,訓練過程在 GTX1060 GPU上進行,訓練階段采用動量為0.9的隨機梯度下降算法進行優(yōu)化。共訓練200000次,batch size設置為4,設置初始學習率為0.001,每5000次進行學習率衰減,衰減系數(shù)為0.1。

        表1 不同病癥的數(shù)據(jù)包含圖片數(shù)量Table 1 The number of turtle disease images

        圖1 3種常見病癥圖像樣本Figure 1 Image samples of three common diseases

        1.4 精簡的SSD目標檢測框架

        SSD(single shot multiBox detector)是當前較為優(yōu)秀的目標檢測算法,它結合YOLO的回歸思想以及Faster-RCNN中的Anchor boxes機制,加入RPN特征金字塔,能進行多尺度目標檢測。它需要圖像以及圖像中每個物體的ground truth作為其網絡的輸入,經過卷積層提取特征,生成特征圖,不同尺寸的幾個特征圖的每一個位置都會生成不同縱橫比的默認框。每個默認框,對于所有的目標類別都預測其偏移值以及置信度,然后將這些默認框與ground truth進行匹配,例如,對貓匹配兩個默認框,對狗匹配一個默認框。這3個框為正樣本,其他為負樣本。預測時,直接預測每個默認框的偏移以及對每個類別相應的得分,最后通過NMS(非極大值抑制)得到最終的結果。本研究簡化其網絡結構同時采用可分卷積,大大縮減了模型參數(shù)量。圖2是經典SSD300與本研究所采用的精簡SSD300網絡結構的對比。

        1.5 可分離卷積

        可分離卷積將標準卷積方式分解為兩步:深度卷積和點卷積[22]。深度卷積只對輸入的每個通道單獨地做卷積,點卷積則是對深度卷積的輸出進行線性連接。假設輸入的特征圖維度是Di×Di×M,標準卷積核的維度是Dk×Dk×M,深度卷積核的維度為 Dk×Dk×1,點卷積核的維度為 1×1×M,輸出了 N 個維度為 Df×Df×M 的特征圖。所以可以得出可分離卷積的計算量與標準卷積的計算量之比為:

        由式(1)可知,當Dk取3時,可以得到標準卷積的8到9倍的計算量縮減。圖3為標準卷積過程和可分卷積過程的對比(M,N為通道數(shù),D為卷積核的尺寸)。

        1.6 先驗默認框的選取

        在眾多的兩步檢測器以及一些一步檢測器中,大多都是按照經驗來設定anchor box的大小和比例 (比如Faster R-CNN),在訓練的過程中網絡會調整anchor box的大小,但是如果能在訓練開始之前就能通過某些方式找到合適尺寸和縱橫比的anchor box,能夠幫助網絡更好的進行預測。所以本研究利用k-means先對訓練集的bounding boxes進行聚類,從而在訓練開始之前就找到更加合適的anchor box。

        但是如果采用標準的k-means(即用歐式距離來衡量差異),在box的尺寸比較大的時候其誤差也更大,為減少誤差與anchor box的相關性,結合IOU,用1減去bounding boxes與聚類中心的IOU分數(shù)作為兩者之間的距離,即使用了以下的距離函數(shù):

        本研究嘗試用 k=(0,1,2,3,4,5,6,7,8,9,10,11,12) 分別對數(shù)據(jù)集的 bounding boxes進行聚類。由圖 4 可知,當k<3時平均IOU漲幅很快,k>3時圖像越趨于平滑,再加上衡量召回率和模型復雜度之后,選擇k=3進行聚類。

        最終得出了最佳的3個默認框的長寬比,分別是(42.0∶21.0),(21.0∶23.0),(18.0∶38.0),取縱橫比為 2,1,1/2。 從常理上也可以理解,因為白眼病和中耳炎的框多是正方形的,而腐甲病則形狀種類較多。圖5為默認框的劃分。

        圖2 經典SSD300與精簡SSD300網絡結構對比Figure 2 Comparison between the classic SSD300 and the simplified SSD300

        圖3 標準卷積過程和可分卷積過程的對比Figure 3 Standard convolution and the separable convolution

        1.7 Focal Loss

        目標檢測的算法主要可以分為兩大類:two-stage detector和 one-stage detector。前者是指類似 Faster RCNN系列,RFCN[23]這樣需要region proposal的檢測算法,這類算法可以達到很高的準確率,但是速度較慢。雖然可以通過減少proposal的數(shù)量或降低輸入圖像的分辨率等方式達到提速,但是速度并沒有質的提升。后者是指類似YOLO,SSD這樣不需要region proposal,直接回歸的檢測算法,這類算法速度很快,但是準確率不如前者,其原因是樣本的類別不均衡(負樣本數(shù)量太大,占了總LOSS的大部分且容易分類)。FocalLoss[24]能夠減少易分樣本的權重,讓網絡把更多的注意力放在錯分(難分)的樣本上,這樣能極大地提高模型的能力。本研究運用FocalLoss訓練SSD檢測器,試驗表明模型精度提升明顯。

        圖4 默認框聚類Figure 4 Bounding boxes clustering

        圖5 默認框示例Figure 5 Bounding boxes example

        2 結果與分析

        2.1 模型評估

        不同檢測模型與默認框縱橫比的比較如表2(基于本研究數(shù)據(jù)集),圖6為不同模型的PR曲線圖。由表2可知,模型Ours-2將深度可分離卷積網絡作為基礎特征提取器,相比基于VGG16的SSD300目標檢測框架,參數(shù)量減少531.3 MB,單張圖像檢測時間提高了4.11s。圖6a中模型Ours-2的PR曲線高于其他兩組模型,則模型Ours-2性能優(yōu)于Ours-1和Ours-3。圖6b是模型Ours-2與原SSD以及YOLO的PR曲線,可以看出,Ours-2與SSD的PR曲線相差不大,并且優(yōu)于YOLO,但Ours-2卻減少了大量的參數(shù)。這說明,在烏龜病癥數(shù)據(jù)集上,特征提取網絡結構的改變對精度并未造成較大的損失,但是速度上的提升卻是驚人的。

        2.2 檢測結果與誤差分析

        檢測結果如圖 7,其中 wed:white eye disease(白眼?。?,bad:bad nail disease(爛甲病),OM:Otitis media(中耳炎)。由圖7可知,本模型能夠將3種病癥檢測出來,并且有較高的精確度。由表2可知,本模型比經典的SSD300參數(shù)減少531.3MB,速度比SSD300快4.11s,雖然mAP和精度會有所下降,但是相比于速度的提升和計算量的降低,完全在可以接受的范圍。

        表2 不同模型的比較Table 2 Comparison between different detection models

        圖6 不同模型的PR曲線Figure 6 Precision-Recall curves of different models

        3 討論與結論

        本研究的創(chuàng)新點在于將深度學習技術應用到了烏龜?shù)牟“Y識別上,并且精簡SSD300網絡模型,使得其更加快速,更加實用,避免了計算資源的過多浪費。存在的不足之處是在減少參數(shù)量的同時不可避免的降低了一定的精確度,這是可以通過繼續(xù)深入的研究來避免的,后續(xù)研究工作可以圍繞多尺度特征融合展開,并且可以結合當前應用火熱的細粒度分析,來達到提升模型精確度的目的。此外,本研究算法還可以嘗試應用于其他類似的動植物病癥。

        本研究收集并制作針對于烏龜常見3種病癥 (白眼病、爛甲病、中耳炎)的目標檢測數(shù)據(jù)集。不同于劉顏等[25]結合SSD檢測框架和Mobilenet輕量型網絡從而達到縮減模型訓練時間的目的,以及鄧壯來等[26]刪減原SSD網絡結構,犧牲大量精度來達到縮減參數(shù)量,提高檢測速度的目的,本研究結合可分離卷積精簡SSD模型的結構,節(jié)省運算量和參數(shù)量,在保證精度的同時提高檢測速度。針對烏龜常見狀態(tài)的尺寸大小,通過聚類算法設計專門用于本研究的默認框寬高比。結合retina_net中提出的Focal Loss,使得框架能夠減少易分樣本的權重,從而更加專注于難分樣本,提高模型的能力。本研究結果表明,相比于SSD300原模型,本研究模型參數(shù)減少531.3MB,速度提升4.11s,平均查準率卻僅僅降低1.48%。這極大程度地提高了模型的檢測速度。

        圖7 測試結果Figure 7 The result of test

        猜你喜歡
        烏龜病癥卷積
        腰痛這個僅次于感冒的第二大常見病癥怎么處理
        祝您健康(2022年6期)2022-06-10 01:37:18
        基于3D-Winograd的快速卷積算法設計及FPGA實現(xiàn)
        炙甘草湯,適用于哪些病癥
        中老年保健(2021年9期)2021-08-24 03:51:00
        青春期病癥
        學生天地(2020年3期)2020-08-25 09:04:06
        烏龜胖胖
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        小烏龜
        基于傅里葉域卷積表示的目標跟蹤算法
        烏龜
        和烏龜賽跑
        国产乱人伦av在线无码| 国产色视频一区二区三区不卡| 亚洲人成网站色7799| 好男人日本社区www| 亚洲tv精品一区二区三区| 国产精品一级黄色大片| 亚洲av不卡免费在线| 亚洲一区 日韩精品 中文字幕 | 被黑人做的白浆直流在线播放| 国产精品综合色区av| 丰满人妻中文字幕一区三区| 天天躁日日躁狠狠躁欧美老妇| 亚洲第一网站免费视频| 女同av免费在线播放| 国产人妖网站在线视频| 看黄a大片日本真人视频直播| 日韩AV无码一区二区三区不卡毛片| 日韩精品国产一区在线| 丰满少妇按摩被扣逼高潮| 国产又爽又粗又猛的视频| 久久福利青草精品资源| 日本一道本加勒比东京热| 免费观看mv大片高清| 亚洲xxxx做受欧美| 欧美—iGAO视频网| 久久亚洲中文字幕精品熟| 午夜福利av无码一区二区| 日韩精品久久久一区 | 国内精品人妻无码久久久影院94| 经典亚洲一区二区三区| 一区二区和激情视频| 女女女女bbbbbb毛片在线| 小13箩利洗澡无码免费视频| 国产av剧情久久精品久久| 亚洲精品国产suv一区88| 亚洲成人欧美| 日韩av一区二区无卡| 四虎影视久久久免费观看| 亚洲一区二区三区偷拍女厕 | 亚洲男女视频一区二区| 亚洲国产精品成人久久久|