亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        自適應(yīng)聚焦損失的圖像目標(biāo)檢測(cè)算法

        2021-12-12 02:51:30肖振久孔祥旭宗佳旭楊玥瑩
        關(guān)鍵詞:類別損失樣本

        肖振久,孔祥旭,宗佳旭,楊玥瑩

        遼寧工程技術(shù)大學(xué) 軟件學(xué)院,遼寧 葫蘆島 125105

        現(xiàn)代目標(biāo)檢測(cè)算法是基于卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)開發(fā)的,主要分為兩類:兩階段目標(biāo)檢測(cè)算法[1]和單階段目標(biāo)檢測(cè)算法[2]。兩階段目標(biāo)檢測(cè)算法中,在第一階段預(yù)先生成目標(biāo)候選框提高了檢測(cè)精度,例如在目前具有挑戰(zhàn)性的PASCAL VOC[3]和COCO基準(zhǔn)[4]上,但是降低了目標(biāo)檢測(cè)的速度。相比之下,單階段目標(biāo)檢測(cè)算法跳過了生成目標(biāo)候選框的步驟,為了實(shí)現(xiàn)在圖像全局檢索目標(biāo),單階段目標(biāo)檢測(cè)算法在每個(gè)空間位置都使用了一組密集的固定采樣網(wǎng)格,例如多個(gè)“錨框”[5],單階段目標(biāo)檢測(cè)算法提高了檢測(cè)速度,但是檢測(cè)精度較差。類別不平衡被認(rèn)為是這種檢測(cè)精度差距的來源。兩階段方法通過根據(jù)第一階段的候選框生成來過濾大部分的負(fù)樣本避免了正負(fù)樣本不平衡問題(例如RPN[5]、Selective Search[6]、Edge Boxes[7]和DeepMask[8])。并在第二階段,使用正負(fù)樣本固定比率[9]或在線困難樣本挖掘(Online Hard Example Mining,OHEM)[10]等方法,最終平衡訓(xùn)練數(shù)據(jù)。盡管兩階段目標(biāo)檢測(cè)算法取得了成功,但受到檢測(cè)速度的制約,不能在實(shí)際生活中得到廣泛應(yīng)用。

        對(duì)于單階段目標(biāo)檢測(cè)算法來說,因?yàn)槠錂z測(cè)速度更快,具有更大的實(shí)用性,實(shí)現(xiàn)高精度檢測(cè)成為當(dāng)前最需要解決的問題,問題所面臨的難點(diǎn)在于:在單階段目標(biāo)檢測(cè)算法中,卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練大量的采樣區(qū)域時(shí),會(huì)導(dǎo)致正樣本數(shù)量較少而負(fù)樣本數(shù)量較多,同時(shí)數(shù)據(jù)集中背景部分占了整個(gè)圖像的大部分,其中大多數(shù)很容易分類。這意味著隨著訓(xùn)練的進(jìn)行,模型傾向于由簡(jiǎn)單樣本主導(dǎo),這些樣本會(huì)稀釋模型在訓(xùn)練過程中的有效梯度并對(duì)參數(shù)的更新貢獻(xiàn)很小。為解決上述問題,可以利用聚焦損失函數(shù)來聚焦于對(duì)訓(xùn)練過程貢獻(xiàn)大的樣本,作為解決類別不平衡問題和提高目標(biāo)檢測(cè)算法精度的杠桿。早期的單階段目標(biāo)檢測(cè)算法使用的是靜態(tài)損失函數(shù),損失函數(shù)的超參數(shù)在模型訓(xùn)練時(shí)沒有改變。為緩解正負(fù)樣本不平衡問題,在RetinaNet[11]中,提出了一個(gè)新的損失函數(shù)Focal Loss。引入加權(quán)因子α來平衡正負(fù)樣本,根據(jù)不同正負(fù)樣本的相對(duì)頻率對(duì)損失進(jìn)行加權(quán)。除此之外,還引入了調(diào)制因子γ來控制訓(xùn)練數(shù)據(jù)中難易樣本的不平衡。

        對(duì)于正負(fù)樣本和難易樣本的不平衡問題,F(xiàn)ocal Loss通過修改交叉熵?fù)p失函數(shù)來解決這個(gè)問題。然而,F(xiàn)ocal Loss采用了兩個(gè)超參數(shù),需要進(jìn)行大量的調(diào)整。它是一種靜態(tài)損失,不適應(yīng)數(shù)據(jù)分布的變化,從而不能隨著訓(xùn)練過程的變化而變化。為解決上述問題,本文在Focal Loss基礎(chǔ)上提出一種新的自適應(yīng)聚焦損失函數(shù),即Adaptive Focal Loss(AFL)。AFL是為數(shù)據(jù)不平衡的情況設(shè)計(jì)的,對(duì)原有Focal Loss中的超參數(shù)α和γ分別做出了改進(jìn),一方面提出了能夠自適應(yīng)動(dòng)態(tài)平衡正負(fù)樣本的加權(quán)因子,該加權(quán)因子可以根據(jù)不同批次正負(fù)樣本的數(shù)量分別對(duì)正負(fù)樣本進(jìn)行加權(quán),實(shí)現(xiàn)了隨著訓(xùn)練自適應(yīng)改變正負(fù)樣本的權(quán)重,動(dòng)態(tài)地平衡正負(fù)樣本。另一方面提出了能夠自適應(yīng)地懲罰簡(jiǎn)單樣本,而不減少困難樣本損失的調(diào)制因子,讓損失函數(shù)聚焦在困難樣本的訓(xùn)練,該調(diào)制因子可以隨著訓(xùn)練進(jìn)度動(dòng)態(tài)設(shè)置不同樣本的權(quán)重來將模型集中在困難樣本上,并減少無數(shù)容易降低模型性能的樣本的負(fù)面影響。

        1 相關(guān)工作

        1.1 基于CNN的目標(biāo)檢測(cè)

        利用CNN檢測(cè)物體的想法可以追溯到1998年,當(dāng)時(shí)Lecun等[12]將最初的CNN分類方法擴(kuò)展到檢測(cè)圖像中物體的能力。這種網(wǎng)絡(luò)變換后來被稱為全卷積網(wǎng)絡(luò)(Fully Convolutional Network,F(xiàn)CN)[13],它隱式地模擬了網(wǎng)絡(luò)結(jié)構(gòu)中的滑動(dòng)窗口。特別是在2012年Krizhevsky等[14]完成了AlexNet之后,目標(biāo)檢測(cè)算法的準(zhǔn)確性有了很大的提高,深度神經(jīng)網(wǎng)絡(luò)開始主導(dǎo)計(jì)算機(jī)視覺中的目標(biāo)檢測(cè)和其他各種任務(wù)。隨著神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的發(fā)展,目標(biāo)檢測(cè)算法也在不斷進(jìn)步,逐漸分為兩個(gè)主要方向:兩階段目標(biāo)檢測(cè)算法和單階段目標(biāo)檢測(cè)算法。

        應(yīng)用于經(jīng)典目標(biāo)檢測(cè)方法的兩階段框架由來已久。兩階段目標(biāo)檢測(cè)算法將此框架應(yīng)用到CNN架構(gòu)中。R-CNN[9]率先在第一階段使用CNN作為特征提取器,然后在第二階段使用支持向量機(jī)(Support Vector Machine,SVM)進(jìn)行分類任務(wù)。之后,F(xiàn)ast R-CNN[15]在第二階段對(duì)分類器升級(jí)為卷積神經(jīng)網(wǎng)絡(luò),大大提高了分類的準(zhǔn)確性。Faster R-CNN[5]創(chuàng)造性地提出了候選框機(jī)制,使目標(biāo)檢測(cè)系統(tǒng)成為一個(gè)完整的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),隨后文獻(xiàn)[16]對(duì)這種結(jié)構(gòu)提出了許多的擴(kuò)展。

        單階段目標(biāo)檢測(cè)算法通常在卷積神經(jīng)網(wǎng)絡(luò)中完成特征提取、目標(biāo)定位和目標(biāo)分類。OverFeat[17]是最早的單階段目標(biāo)檢測(cè)算法之一。SSD[2,18]和YOLO[19-21]對(duì)許多想法進(jìn)行了研究,例如錨框和兩階段目標(biāo)檢測(cè)算法的特征金字塔。最近的工作RetinaNet[11],因其出色的結(jié)構(gòu)和高效率而受到了廣泛的關(guān)注。

        1.2 目標(biāo)檢測(cè)類的不平衡問題

        目標(biāo)檢測(cè)中的不平衡問題受到了廣泛的關(guān)注,特別是類別不平衡[22]。對(duì)于兩階段目標(biāo)檢測(cè)算法,由于候選框機(jī)制[5],通過一些常見的采樣方發(fā)[5,10]可以更好地解決此問題。盡管這些采樣方法可以應(yīng)用于單階段目標(biāo)檢測(cè)算法,但是由于在訓(xùn)練過程中容易分類的背景樣本占主導(dǎo)地位,它們的效率仍然不高[11]。為了提高訓(xùn)練效率,提出了多種挖掘難負(fù)樣本的方法[2,10]。另一個(gè)有影響的方法是修改損失函數(shù),Bulo等[23]提出了的損失函數(shù),即Loss Max Pooling,來消除長尾分布的數(shù)據(jù)集對(duì)訓(xùn)練的影響。Liu等[2]將加權(quán)因子α平衡整合到交叉熵?fù)p失中,根據(jù)不同類別的頻率來對(duì)損失加權(quán)。Lin等[11]提出的Focal Loss降低了簡(jiǎn)單負(fù)樣本的權(quán)重,而困難樣本則不受影響。上述方法認(rèn)為,由于從次要類中學(xué)到的特征較差,次要類的樣本應(yīng)該比主要類的樣本有更高的損失。Focal Loss降低負(fù)樣本和簡(jiǎn)單樣本的損失權(quán)重來解決正負(fù)樣本和難易樣本不平衡,Huber損失[24]降低誤差較大的困難樣本的損失權(quán)重來減少離群值的貢獻(xiàn)。最近的工作“梯度協(xié)調(diào)機(jī)制”[25]也考慮了困難樣本的危害性,但它基于梯度的統(tǒng)計(jì)分布,而不是損失的統(tǒng)計(jì)分布。同時(shí),如文獻(xiàn)[25]中所述,梯度的最佳分布尚不清楚。在本文中,還是考慮了重塑損失函數(shù)的想法,隨著訓(xùn)練的進(jìn)行自適應(yīng)的對(duì)難易樣本進(jìn)行加權(quán)并動(dòng)態(tài)的對(duì)正負(fù)樣本加權(quán)。

        1.3 目標(biāo)檢測(cè)的損失函數(shù)

        損失函數(shù)作為每個(gè)目標(biāo)檢測(cè)算法的一個(gè)關(guān)鍵部分,通常由兩部分組成,一部分用于目標(biāo)分類的損失函數(shù),另一部分用于目標(biāo)位置回歸。對(duì)于分類損失,通常使用Softmax交叉熵?fù)p失函數(shù)[17-18,20]或Sigmoid交叉熵?fù)p失函數(shù)[11]。

        Softmax交叉熵?fù)p失函數(shù)定義如下:

        式中,p是一個(gè)向量,表示網(wǎng)絡(luò)用于多類預(yù)測(cè)的估計(jì)概率,y也是一個(gè)獨(dú)熱真實(shí)標(biāo)簽向量。因?yàn)閥是獨(dú)熱標(biāo)簽,所以定義pcorrect為真實(shí)類的預(yù)測(cè)概率。p的元素是pi,由Softmax操作生成:

        Sigmoid交叉熵?fù)p失函數(shù)定義如下:

        式中,p是類別的預(yù)測(cè)概率,由Sigmoid函數(shù)生成:

        對(duì)于目標(biāo)位置回歸損失函數(shù),通常使用L2損失函數(shù)[19],平滑L2損失函數(shù)[2]或類似的平滑L1損失函數(shù)[18]?;貧w損失函數(shù)的修正不是本文的目的,本文遵循Retina-Net[11]采用平滑的L1損失函數(shù)。

        2 自適應(yīng)聚焦損失

        2.1 Focal Loss損失函數(shù)

        在目標(biāo)檢測(cè)中單階段目標(biāo)檢測(cè)運(yùn)行速度較快,但是受數(shù)據(jù)集中難易樣本和正負(fù)樣本的影響較大,其精度低于兩階段目標(biāo)檢測(cè)。為解決上述問題,Lin等[11]提出了Focal Loss損失函數(shù)。Focal Loss是應(yīng)用在傳統(tǒng)的Sigmoid交叉熵?fù)p失函數(shù)式(4)上建立的,為了便于說明,網(wǎng)絡(luò)分配給正樣本或負(fù)樣本的概率可以統(tǒng)一為pcorrect:

        通過上述公式可將Sigmoid交叉熵?fù)p失函數(shù)式(4)簡(jiǎn)化為:

        Focal Loss最主要的貢獻(xiàn)是損失可以用動(dòng)態(tài)因子ω進(jìn)行加權(quán),該動(dòng)態(tài)因子的定義使網(wǎng)絡(luò)中的難易樣本得以平衡:

        式中,動(dòng)態(tài)因子ω由兩個(gè)變量pcorrect和γ來決定,前者是模型估計(jì)真實(shí)標(biāo)簽的預(yù)測(cè)概率值,后者是調(diào)制因子。其中pcorrect的范圍是[0,1],用于量化樣本的分類難度。γ的范圍是[0,∞)用于調(diào)節(jié)難易樣本數(shù)量不平衡。對(duì)于簡(jiǎn)單正樣本,當(dāng)pcorrect足夠大時(shí)(pcorrect?0.5),則對(duì)應(yīng)的樣本分類較好,通過增大γ,會(huì)減小,減輕了損失的權(quán)重,降低簡(jiǎn)單正樣本對(duì)損失的影響。相反,當(dāng)pcorrect較小時(shí)(pcorrect?0.5),通過增大γ,會(huì)減小,減輕了損失的權(quán)重,降低簡(jiǎn)單負(fù)樣本對(duì)損失的影響。

        除了減少困難樣本和簡(jiǎn)單樣本之間的不平衡,F(xiàn)ocal Loss還集成了一個(gè)加權(quán)因子αc,用于解決正樣本和負(fù)樣本之間的類別不平衡:

        式中,α是正樣本的加權(quán)因子,而1-α是負(fù)樣本的加權(quán)因子,α可以通過不同正負(fù)樣本相對(duì)的頻率來設(shè)置。α的取值范圍是[0,1],如果正樣本的數(shù)量大于負(fù)樣本的數(shù)量,那么α應(yīng)該小于0.5,保護(hù)樣本少的類,而多懲罰樣本多的類。最后,F(xiàn)ocal Loss可以定義為:

        直觀上看,F(xiàn)ocal Loss通過控制αc解決了正負(fù)樣本不平衡的問題,通過控制γ解決了目標(biāo)檢測(cè)中難易樣本不平衡的問題。但是式(10)所示αc和γ被設(shè)置為兩個(gè)超參數(shù),在求解目標(biāo)檢測(cè)模型最優(yōu)化問題的時(shí)候,需要對(duì)損失函數(shù)進(jìn)行大量的實(shí)驗(yàn),這無疑大量消耗了計(jì)算機(jī)的時(shí)間資源和空間資源。根據(jù)Lin等[11]通過大量實(shí)驗(yàn)的經(jīng)驗(yàn)當(dāng)α取0.25,γ取2時(shí)實(shí)驗(yàn)效果最佳。本文為解決上述問題,在Focal Loss的基礎(chǔ)上引入了自適應(yīng)的加權(quán)因子和自適應(yīng)的調(diào)制因子,使現(xiàn)有的模型可以自適應(yīng)地去適合各類不同的數(shù)據(jù)集。

        2.2 自適應(yīng)的加權(quán)因子

        在單階段目標(biāo)檢測(cè)算法中通常會(huì)產(chǎn)生高達(dá)10萬的候選目標(biāo),其中只有少數(shù)正樣本,正負(fù)樣本數(shù)量出現(xiàn)明顯差別。為了解決正負(fù)樣本不平衡的問題,Lin等[11]在Focal Loss中加入了加權(quán)因子α(式(9)),可以用作調(diào)節(jié)正負(fù)樣本數(shù)量,更大的α賦予數(shù)量少的正樣本,讓損失函數(shù)不受負(fù)樣本數(shù)量過多的影響。但是加權(quán)因子α在Focal Loss中的值的選擇,很大程度上依賴于研究人員的先驗(yàn)經(jīng)驗(yàn),為了有效處理正負(fù)樣本不平衡的問題,以及無需手動(dòng)調(diào)節(jié)超參數(shù)α來平衡正負(fù)樣本,Wang等[26]提出W-CEL函數(shù)是一種動(dòng)態(tài)平衡正負(fù)樣本問題的方法,并得到了廣泛的應(yīng)用。不同于最初的Focal Loss中α的定義,本文將改進(jìn)了α定義為與W-CEL函數(shù)類似的加權(quán)因子如下:

        式中,P定義一個(gè)批量標(biāo)簽中為“1”的總數(shù),N為“0”的總數(shù)。y表示標(biāo)簽的每個(gè)元素。通過每個(gè)標(biāo)簽中“0”和“1”的統(tǒng)計(jì)量,可以自適應(yīng)每批量的正負(fù)樣本來動(dòng)態(tài)平衡。因此AFL加入自適應(yīng)的加權(quán)因子α定義如下:

        2.3 自適應(yīng)的調(diào)制因子

        在Focal loss損失函數(shù)中,動(dòng)態(tài)因子ω或調(diào)制因子γ將直接影響神經(jīng)網(wǎng)絡(luò)梯度下降的過程,修改調(diào)制因子γ來修正模型對(duì)不同樣本的關(guān)注情況。通過式(10)可以得出網(wǎng)絡(luò)變量net的導(dǎo)數(shù)可以揭示權(quán)重ω在導(dǎo)數(shù)中保持不變。

        式中,當(dāng)γ選擇的數(shù)值過高時(shí),例如γ等于5,F(xiàn)ocal Loss將聚焦在表現(xiàn)不佳的樣本,但是忽視了良好樣本的訓(xùn)練,最終將造成模型整體精度偏低。當(dāng)γ選擇數(shù)值過低時(shí),例如γ等于0,F(xiàn)ocal Loss損失將退化成交叉熵?fù)p失,則通過損失無法動(dòng)態(tài)地平衡不同樣本。在復(fù)雜的任務(wù)上,尤其是當(dāng)數(shù)據(jù)不平衡時(shí),使用定值的調(diào)制因子將使網(wǎng)絡(luò)無法學(xué)習(xí)問題,網(wǎng)絡(luò)很容易被占優(yōu)勢(shì)的數(shù)據(jù)淹沒。

        本文提出的自適應(yīng)的調(diào)制因子可以在訓(xùn)練過程中按照模型不同階段的需求,進(jìn)行不同的調(diào)節(jié),克服了Focal Loss選擇固定γ的限制。從而也避免了在訓(xùn)練后期所有樣本表現(xiàn)良好的情況下,因?yàn)閾p失值過低造成提前收斂,使網(wǎng)絡(luò)不能達(dá)到最優(yōu)值。在模型訓(xùn)練初期,因存在樣本不平衡的問題導(dǎo)致模型對(duì)不同類別的樣本預(yù)測(cè)存在偏差,此時(shí)不同類別樣本在模型中預(yù)測(cè)值的期望也各不相同,針對(duì)期望值較小的類別,希望增加訓(xùn)練樣本的權(quán)重,使模型在訓(xùn)練的過程中可以均衡訓(xùn)練各種不同的樣本量的樣本。本文決定根據(jù)真實(shí)標(biāo)簽的預(yù)測(cè)概率pcorrect對(duì)訓(xùn)練進(jìn)度進(jìn)行建模。如式(14)所示,計(jì)算了在不同階段各類真實(shí)標(biāo)簽的期望概率。

        式中,pcorrect的期望概率可以通過計(jì)算訓(xùn)練批次的pcorrect上的平均值來近似。在小批量訓(xùn)練的情況下,建議使用指數(shù)平滑法。在實(shí)驗(yàn)中,通過=0.95·old+0.05·new平滑可以使AFL的效果達(dá)到最優(yōu)。

        由上文可知,在各批次中期望概率為p?correct,并且希望當(dāng)面對(duì)期望概率較低的類別時(shí)網(wǎng)絡(luò)獲取較大的注意力,隨著期望概率的增加其關(guān)注度逐漸降低,由此定義了自適應(yīng)的調(diào)制因子γ,如下式所示:

        圖1 不同算法的權(quán)重變化情況Fig.1 Weight changes of different algorithms

        如式(16)所示,為AFL最終表現(xiàn)形式,如果將AFL算法應(yīng)用于實(shí)際問題,需要定義聚焦的損失函數(shù)L和定義的計(jì)算策略。對(duì)于單目標(biāo)分類,損失函數(shù)應(yīng)該是式(1)中的Softmax交叉熵?fù)p失函數(shù)LCE(softmax),利用計(jì)算γ可以通過式(15)來完成。所需的應(yīng)使用指數(shù)平滑效果最好。

        在多目標(biāo)分類的情況下,損失函數(shù)應(yīng)該是式(7)中的Sigmoid交叉熵?fù)p失函數(shù)LCE(sigmoid)。利用計(jì)算γ可以通過式(15)來完成。的計(jì)算比單目標(biāo)分類的更復(fù)雜一些。當(dāng)一個(gè)類別處于正類的情況下,概率pcorrect被定義為p,當(dāng)一個(gè)類別處于非正類的情況下,概率pcorrect被定義為1-p。計(jì)算的最佳方法取決于要解決的問題,并不像簡(jiǎn)單的平均pcorrect那么容易。由于在多目標(biāo)分類任務(wù)中,對(duì)于單個(gè)樣本中通常只有少數(shù)類別同時(shí)處于正類,因此pcorrect的平均值將由負(fù)類占主導(dǎo)地位。

        AFL通過對(duì)Focal Loss的改進(jìn),參數(shù)α和γ解決了不平衡問題的兩個(gè)方面,并在學(xué)習(xí)模型中取得了良好的性能。最重要的是,AFL將更適合于具有挑戰(zhàn)數(shù)據(jù)庫中不平衡的問題。

        3 實(shí)驗(yàn)結(jié)果與分析

        3.1 實(shí)驗(yàn)環(huán)境和參數(shù)設(shè)置

        實(shí)驗(yàn)仿真在Pytorch1.4框架,訓(xùn)練及測(cè)試的計(jì)算機(jī)硬件配置CPU為Intel XeonE5-2620 V4,GPU為NVDIA GeForce GTX 1080Ti,操作系統(tǒng)為Ubuntu16.04下進(jìn)行的。

        改進(jìn)的Focal Loss通過600×600輸入的訓(xùn)練和測(cè)試,批量大小設(shè)為64,共進(jìn)行了60 000次迭代并采用了熱身策略來提高學(xué)習(xí)速度。初始學(xué)習(xí)率設(shè)為0.01,權(quán)重衰減值設(shè)為0.000 5,在網(wǎng)絡(luò)迭代20 000次后學(xué)習(xí)率設(shè)為0.001,網(wǎng)絡(luò)迭代50 000次后學(xué)習(xí)率設(shè)為0.000 1。本文相關(guān)實(shí)驗(yàn)都采用了與上述相同的設(shè)置并在相同的訓(xùn)練集上進(jìn)行訓(xùn)練。首先,訓(xùn)練了原始Focal Loss算法。在實(shí)驗(yàn)中,設(shè)置Focal Loss[11]中建議的α=0.25,γ=2。然后對(duì)本文提出的AFL進(jìn)行了消融性實(shí)驗(yàn),完成了改進(jìn)的Focal Loss算法的訓(xùn)練和測(cè)試。

        3.2 實(shí)驗(yàn)數(shù)據(jù)集和評(píng)價(jià)標(biāo)準(zhǔn)

        在本文中,關(guān)于改進(jìn)的Focal Loss算法都是在標(biāo)準(zhǔn)化數(shù)據(jù)集為PASCAL VOC2007和VOC2012[3]上實(shí)現(xiàn)的。模型訓(xùn)練階段,使用VOC2007訓(xùn)練驗(yàn)證集和VOC2012訓(xùn)練驗(yàn)證集進(jìn)行訓(xùn)練,測(cè)試階段對(duì)VOC2007測(cè)試集和VOC2012測(cè)試集分別進(jìn)行測(cè)試。VOC數(shù)據(jù)集由20個(gè)對(duì)象類別組成,帶有注釋的真實(shí)標(biāo)簽位置和每個(gè)圖像的相應(yīng)類別信息。

        準(zhǔn)確性是指目標(biāo)檢測(cè)算法對(duì)于不同種類目標(biāo)的檢測(cè)準(zhǔn)確率,是考察目標(biāo)檢測(cè)算法優(yōu)劣的一項(xiàng)重要指標(biāo)。為了評(píng)價(jià)目標(biāo)檢測(cè)算法的準(zhǔn)確性最常用的指標(biāo)是通過計(jì)算模型在測(cè)試集上的平均準(zhǔn)確率(AP)和所有類別的平均準(zhǔn)確率均值(mAP)來評(píng)價(jià)模型的好壞。AP就是精確率(precision)/召回率(recall)曲線下面的面積,計(jì)算公式如下式所示:

        式中,p表示precision,r表示recall,p是一個(gè)以r為參數(shù)的函數(shù)。TP(True Positive)表示被模型預(yù)測(cè)為正值的正樣本,F(xiàn)P(False Positive)表示被模型預(yù)測(cè)為負(fù)值的正樣本,F(xiàn)N(False Negative)表示被模型預(yù)測(cè)為負(fù)值的負(fù)樣本。mAP是各個(gè)類別AP的平均值,值越高表示模型在全部類別中檢測(cè)的綜合性能越高。

        3.3 消融性實(shí)驗(yàn)

        本文通過引入自適應(yīng)的加權(quán)因子和自適應(yīng)的調(diào)制因子,解決了Focal Loss中依賴人工調(diào)節(jié)超參數(shù)的問題,提高了模型的訓(xùn)練效率。為驗(yàn)證本文算法的有效性,通過在Focal Loss損失函數(shù)中分別添加自適應(yīng)的加權(quán)因子和自適應(yīng)的調(diào)制因子,為本文算法做了消融性實(shí)驗(yàn),在訓(xùn)練階段,通過判斷目標(biāo)預(yù)測(cè)值是否小于某一閾值來計(jì)算目標(biāo)損失,使用0.5閾值來訓(xùn)練網(wǎng)絡(luò)。并在VOC2007數(shù)據(jù)集上做了相應(yīng)的測(cè)試,其實(shí)驗(yàn)結(jié)果使用0.5的閾值對(duì)20類對(duì)象的平均準(zhǔn)確率均值(mAP)如表1所示。

        表1 不同算法在VOC2007數(shù)據(jù)集的實(shí)驗(yàn)結(jié)果Table 1 Experimental results of different algorithms on VOC2007 dataset

        通過實(shí)驗(yàn)可知,添加自適應(yīng)的加權(quán)因子和添加自適應(yīng)的調(diào)制因子對(duì)模型均有不同程度的提高,并且使用添加自適應(yīng)的加權(quán)因子和添加自適應(yīng)的調(diào)制因子的AFL模型相比原始Focal Loss訓(xùn)練的模型提升了3.45個(gè)百分點(diǎn)。究其原因,AFL可以根據(jù)不同的訓(xùn)練數(shù)據(jù)動(dòng)態(tài)的調(diào)整正負(fù)樣本之間的關(guān)系和難易樣本之間的關(guān)系,可以使訓(xùn)練數(shù)據(jù)得到更有效的利用。

        3.4 VOC2007測(cè)試集的實(shí)驗(yàn)結(jié)果及分析

        為了評(píng)估本文的AFL算法在目標(biāo)檢測(cè)中的有益影響,在VOC2007的20個(gè)類別上比較了AFL和原始的Focal Loss的AP值。實(shí)驗(yàn)結(jié)果如表2可知,F(xiàn)ocal Loss和AFL結(jié)果對(duì)比,各類AP值提高了1~6個(gè)百分點(diǎn)。表明了模型在VOC2007測(cè)試集上,其中鳥、盆栽等類別為訓(xùn)練數(shù)據(jù)中較難訓(xùn)練的樣本,因?yàn)槠鋽?shù)據(jù)量少,且目標(biāo)尺寸相對(duì)較小,故在神經(jīng)網(wǎng)絡(luò)的訓(xùn)練中對(duì)模型參數(shù)的影響較小。相比Focal Loss,AFL通過自適應(yīng)的調(diào)制因子可以更好地聚焦在困難樣本的訓(xùn)練上,并隨訓(xùn)練進(jìn)度改變實(shí)時(shí)修改模型對(duì)不同樣本的關(guān)注度,故AFL在困難樣本的識(shí)別上要優(yōu)于Focal Loss。另外,AFL通過建立自適應(yīng)的加權(quán)因子,相比Focal Loss可以更好地適應(yīng)數(shù)據(jù)中不同程度的正負(fù)樣本,通過上述兩處改進(jìn),AFL的整體效果優(yōu)于Focal Loss。

        表2 不同算法各類的AP值對(duì)比情況Table 2 Comparison of AP values of different algorithms%

        3.5 VOC2012測(cè)試集的實(shí)驗(yàn)結(jié)果及分析

        為證明AFL的泛化性和有效性,除了在VOC2007數(shù)據(jù)集測(cè)試,本文繼續(xù)測(cè)試了模型在VOC2012數(shù)據(jù)集上的mAP值,其實(shí)驗(yàn)結(jié)果如表3所示。其中AFL添加了自適應(yīng)的加權(quán)因子和自適應(yīng)的調(diào)制因子,由表3可知AFL算法在數(shù)據(jù)集VOC2012的測(cè)試效果依然優(yōu)于Focal Loss,其結(jié)果提升了1.87個(gè)百分點(diǎn)。由此可知本文所建立的算法模型具有良好的泛化性,在多個(gè)不同的數(shù)據(jù)集上均可取得較好的結(jié)果。

        表3 不同算法在VOC2012數(shù)據(jù)集的實(shí)驗(yàn)結(jié)果Table 3 Experimental results of different algorithms on VOC2012 dataset

        為了進(jìn)一步直觀地評(píng)估本文的算法,提供了AFL與原始的Focal Loss進(jìn)行了定性比較。圖2顯示了原始的Focal Loss和AFL在VOC2012測(cè)試集上的檢測(cè)目標(biāo)比較,不同顏色的盒子代表不同的類別。將置信度閾值設(shè)置為0.5。其中圖2(a)、(c)為Focal Loss檢測(cè)結(jié)果圖,(b)、(d)為AFL檢測(cè)結(jié)果圖。觀察對(duì)比可以看出,AFL比原始Focal Loss性能更好。減少了對(duì)目標(biāo)檢測(cè)中對(duì)象的遺漏,降低了對(duì)目標(biāo)檢測(cè)過程中的錯(cuò)誤率,具有更強(qiáng)的檢測(cè)和識(shí)別物體的能力。并且發(fā)現(xiàn)對(duì)于小目標(biāo)的檢測(cè)也有優(yōu)異的效果。這些改進(jìn)是由于本文提出的針對(duì)正負(fù)樣本和難易樣本更平衡的AFL損失函數(shù),使得訓(xùn)練過程更平滑地收斂到更好的模型。

        圖2 不同算法在VOC2012數(shù)據(jù)集的效果圖Fig.2 Effect of different algorithms on VOC2012 dataset

        3.6 與其他先進(jìn)目標(biāo)檢測(cè)算法的性能比較

        為了驗(yàn)證和評(píng)估本文提出的方法的性能,對(duì)本文提出的AFL算法與其他先進(jìn)的目標(biāo)檢測(cè)算法進(jìn)行了比較。很容易從各自的文獻(xiàn)獲得SSD[2]、Faster R-CNN[5]、R-FCN[16]、DSSD[18]、YOLOv2[20]、YOLOv2+[20]、R-SSD[27]、RUN2WAY[28]和RUN3WAY[28]的性能。所有的模型首先用VOC2007訓(xùn)練驗(yàn)證集和VOC2012訓(xùn)練驗(yàn)證集進(jìn)行訓(xùn)練,然后用VOC2007測(cè)試集進(jìn)行測(cè)試。表4顯示了實(shí)驗(yàn)結(jié)果,與Faster R-CNN[5]和R-FCN[16]相比,AFL提高了4.3個(gè)百分點(diǎn)和0.2個(gè)百分點(diǎn)。與YOLOv2[20]和YOLOv2+[20]相比,AFL提高了3.9個(gè)百分點(diǎn)和2.1個(gè)百分點(diǎn)。與SSD[2]、DSSD[18]和R-SSD[27]相比,AFL分別提高了3.6個(gè)百分點(diǎn)、2.1個(gè)百分點(diǎn)和2.2個(gè)百分點(diǎn)。與RUN2WAY[28]和RUN3WAY[28]相比,AFL提高了2.1個(gè)百分點(diǎn)和1.5個(gè)百分點(diǎn)。從表中可以看出AFL性能最好。

        表4 VOC2007測(cè)試數(shù)據(jù)集在不同算法的比較Table 4 Comparison of different algorithms on VOC2007 test dataset

        4 結(jié)束語

        Focal Loss損失函數(shù)減少了正負(fù)樣本不平衡和難易樣本不平衡的影響,但仍然依賴于手動(dòng)調(diào)節(jié)超參數(shù)α平衡和為任務(wù)選擇一個(gè)調(diào)制因子γ,常數(shù)α和γ不能使正負(fù)樣本的平衡和聚焦困難樣本適應(yīng)當(dāng)前的訓(xùn)練進(jìn)度。本文提出了克服這一問題的方法,通過計(jì)算依賴于訓(xùn)練進(jìn)度的γ能夠在訓(xùn)練過程中轉(zhuǎn)移其聚焦的損失來有效地進(jìn)行困難樣本挖掘,以及通過計(jì)算每批次正負(fù)類樣本來改進(jìn)了加權(quán)因子α的定義從而實(shí)現(xiàn)自適應(yīng)的動(dòng)態(tài)平衡正負(fù)樣本。最后在VOC2007測(cè)試集和VOC2012測(cè)試集進(jìn)行了一系列的實(shí)驗(yàn),并對(duì)AFL與原始的Focal Loss進(jìn)行了性能的比較。結(jié)果表明,AFL優(yōu)于原始的Focal Loss,并且發(fā)現(xiàn)對(duì)小目標(biāo)的檢測(cè)也有不錯(cuò)的結(jié)果。后續(xù)將進(jìn)一步研究對(duì)提高小目標(biāo)檢測(cè)精度的方法,以及對(duì)在更復(fù)雜的數(shù)據(jù)集上有效提高目標(biāo)檢測(cè)精度的方法。

        猜你喜歡
        類別損失樣本
        少問一句,損失千金
        胖胖損失了多少元
        用樣本估計(jì)總體復(fù)習(xí)點(diǎn)撥
        玉米抽穗前倒伏怎么辦?怎么減少損失?
        推動(dòng)醫(yī)改的“直銷樣本”
        隨機(jī)微分方程的樣本Lyapunov二次型估計(jì)
        村企共贏的樣本
        服務(wù)類別
        新校長(2016年8期)2016-01-10 06:43:59
        一般自由碰撞的最大動(dòng)能損失
        論類別股東會(huì)
        商事法論集(2014年1期)2014-06-27 01:20:42
        久久久亚洲欧洲日产国码aⅴ | 国产精品午睡沙发系列 | 国产成人无码精品久久二区三区| 人妻av鲁丝一区二区三区| 人妻少妇精品专区性色av| 久久久亚洲经典视频| 日韩亚洲欧美精品| 亚洲二区三区在线播放| 中文字幕av人妻少妇一区二区 | 少妇人妻综合久久中文字幕| 精品水蜜桃久久久久久久| 国产精品永久免费视频| 自拍欧美日韩| 久久99精品波多结衣一区| 日本高清长片一区二区| 亚洲国产中文字幕在线视频综合| 一边做一边喷17p亚洲乱妇50p| 久久97精品久久久久久久不卡 | 午夜男女爽爽爽在线视频| 日韩在线精品国产成人| 日日骚一区二区三区中文字幕 | 中文字幕有码人妻在线| 亚洲av中文无码乱人伦在线咪咕| 日韩少妇激情一区二区| 精品人无码一区二区三区| 日韩毛片久久91| 人妖啪啪综合av一区| 中文字幕中文有码在线| 熟女人妻在线视频| 亚洲欧美日韩中文v在线| 国产小视频一区二区三区| 久久少妇高潮免费观看| 手机免费在线观看av网址| 狠狠色噜噜狠狠狠狠7777米奇| 丰满多毛少妇做爰视频| 扒开双腿操女人逼的免费视频| av新型国产在线资源| 蜜桃视频在线免费观看| 欧美野外疯狂做受xxxx高潮| 国产成人亚洲欧美三区综合| 久久久精品亚洲人与狗|