亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        改進(jìn)損失函數(shù)的地基云狀目標(biāo)檢測(cè)算法

        2022-01-25 18:54:48王勝春
        關(guān)鍵詞:先驗(yàn)邊界損失

        王勝春,陳 陽(yáng)

        湖南師范大學(xué) 信息科學(xué)與工程學(xué)院,長(zhǎng)沙 410081

        地面氣象測(cè)報(bào)是氣象工作的基礎(chǔ)項(xiàng)目,其中地基云狀的觀測(cè)尤為重要。連續(xù)地觀察和測(cè)定云狀的變化,對(duì)于分析天氣轉(zhuǎn)變、科學(xué)研究和氣象服務(wù)有著重要意義。但是,目前地基云狀的觀測(cè)仍然存在著許多挑戰(zhàn)。首先,不同云狀之間有很多相同的特征,以蔽光高層云和雨層云為例,兩種云狀非常相似,業(yè)余人員甚至無(wú)法辨認(rèn)。其次,云存在著空間分布的不均勻性和隨時(shí)間變化的脈動(dòng)性,按照云的高度、結(jié)構(gòu)特點(diǎn)和外形特征,云可分為三族,十屬,二十九類,類別繁雜,變化多端?,F(xiàn)在氣象站一般采用全天空成像儀拍攝云狀,云狀的精標(biāo)主要依賴經(jīng)驗(yàn)豐富的觀測(cè)員。但是,人工觀測(cè)存在情緒干擾和主觀意識(shí),且很難形成一個(gè)統(tǒng)一的標(biāo)準(zhǔn)。因此,地基云狀的自動(dòng)化識(shí)別是氣象工作的一個(gè)重要方向,部署深度學(xué)習(xí)算法、研發(fā)自動(dòng)化觀測(cè)儀器代替甚至超過(guò)人工觀測(cè)是氣象工作的一個(gè)重要目標(biāo)。

        地基云狀的觀測(cè)和識(shí)別作為氣象領(lǐng)域的一個(gè)熱點(diǎn)問(wèn)題,有很多學(xué)者對(duì)其進(jìn)行了研究,特別是應(yīng)用計(jì)算機(jī)算法對(duì)地基云狀進(jìn)行識(shí)別已經(jīng)成為了研究趨勢(shì)。Alireza等[1]在形態(tài)的基礎(chǔ)上將云按照低云、中云、高云進(jìn)一步做了劃分,并使用了神經(jīng)網(wǎng)絡(luò)和支持向量機(jī)算法對(duì)全天空地面圖像進(jìn)行云自動(dòng)分類,但其使用的數(shù)據(jù)集圖片只有250張,模型缺乏一定的泛化能力。魯高宇等[2]使用了一種融合局部特征和全局特征的云圖特征提取算法,并設(shè)計(jì)了基于K均值算法的神經(jīng)網(wǎng)絡(luò)模型,有效地提高了云圖識(shí)別的精度,但是其對(duì)于一張圖片中的多類別云狀識(shí)別較差。李晨溪等[3]通過(guò)提取ESS模型標(biāo)度特征進(jìn)行典型地基云狀識(shí)別,提取了云圖的標(biāo)度指數(shù)特征,并選用了支持向量機(jī)作為分類器對(duì)5種云圖進(jìn)行分類,測(cè)試樣本分類準(zhǔn)確率達(dá)到了90%,但是其使用的分類算法不同于目標(biāo)檢測(cè)算法,只能識(shí)別云狀的類別,云狀的位置、面積等關(guān)鍵因素?zé)o從得知。

        目標(biāo)檢測(cè)[4-6]作為深度學(xué)習(xí)的一個(gè)重要分支,發(fā)展非常迅速,熱度一直很高。目前,基于深度學(xué)習(xí)的目標(biāo)檢測(cè)主要有兩類主流的算法。第一類算法準(zhǔn)確率較高。2015年發(fā)布的Fast R-CNN[7],使用了一個(gè)卷積神經(jīng)網(wǎng)絡(luò)作為圖像特征提取器,并使用了Smooth L1 Loss作為邊界框損失函數(shù),但是網(wǎng)絡(luò)的選擇性搜索(selective search)模塊速度較慢。之后的Faster R-CNN[8]使用了區(qū)域候選網(wǎng)絡(luò)(RPN)生成的待檢測(cè)區(qū)域,檢測(cè)時(shí)間從2 s縮減到了10 ms,mAP也提升了3.2%。再之后的Mask R-CNN[9]是對(duì)Faster R-CNN的直接擴(kuò)展,精度高于后者,而且增加了實(shí)例分割的分支。另一類算法速度較快。2015年發(fā)表的YOLOv1[10](you only look once),它將目標(biāo)位置檢測(cè)與目標(biāo)分類這兩個(gè)階段合二為一,速度超過(guò)了之前的算法,但由于其特征提取器與損失函數(shù)存在缺陷,所以定位不夠準(zhǔn)確。針對(duì)YOLO的不足,Liu等[11]提出的SSD(single shot multibox detector)使用了分層特征提取器,速度依然很快且對(duì)小目標(biāo)的檢測(cè)效果更好。2018年Redmon等[12]提出YOLOv3算法,進(jìn)一步提升了速度和準(zhǔn)確度,在coco數(shù)據(jù)集上速度能達(dá)到30 frame/s,它的檢測(cè)速度比Fast R-CNN快100倍。

        目標(biāo)檢測(cè)算法中的邊界框損失函數(shù)也一直在迭代和發(fā)展。2016年提出的IoU[13](intersection over union)將邊界框四個(gè)點(diǎn)的位置信息看成一個(gè)整體進(jìn)行訓(xùn)練與回歸,但是在預(yù)測(cè)框和目標(biāo)框不相交時(shí)無(wú)法繼續(xù)優(yōu)化。針對(duì)IoU的不足,Rezatofighi等[14]在2019年提出了GIoU(generalized IoU loss)具有尺度不變性,使YOLOv1準(zhǔn)確率漲了2個(gè)百分點(diǎn),但是當(dāng)目標(biāo)框包含預(yù)測(cè)框時(shí)無(wú)法區(qū)別兩者的位置關(guān)系。在2020年的AAAI大會(huì)上,Zheng等[15]提出了DIoU loss(distance IoU loss),優(yōu)化了兩個(gè)框之間的距離,收斂更快,回歸更準(zhǔn)確。

        本文改進(jìn)了目標(biāo)檢測(cè)算法中的邊界框損失函數(shù),提出了新的損失函數(shù)UIoU(unify IoU loss)。因?yàn)閅OLOv3速度較快、精度較高,方便應(yīng)用于工業(yè)生產(chǎn),很好地迎合了云狀識(shí)別中實(shí)時(shí)性和效率高的要求,所以本文使用了UIoU-YOLOv3算法對(duì)地基云狀進(jìn)行識(shí)別。訓(xùn)練和測(cè)試數(shù)據(jù)集來(lái)源于攝像頭實(shí)時(shí)拍攝的高清全天空地基云圖數(shù)據(jù),對(duì)數(shù)據(jù)進(jìn)行了篩選和標(biāo)注。對(duì)三組實(shí)驗(yàn)進(jìn)行了討論和驗(yàn)證:先在原YOLOv3算法上進(jìn)行實(shí)驗(yàn),再將邊界框回歸損失函數(shù)替換成DIoU,最后使用UIoUYOLOv3進(jìn)行實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果表明,改進(jìn)后的YOLOv3算法在地基云狀識(shí)別中有了明顯的提升。

        1 YOLOv3算法

        YOLOv3的特征提取網(wǎng)絡(luò)Darknet-53使用了全卷積網(wǎng)絡(luò)(fully convolutional network)[16],包含大量大小為3×3和1×1的卷積核,其中,3×3的卷積增加channel,而1×1的卷積在于壓縮3×3卷積后的特征表示。其次,Darknet-53借鑒了殘差網(wǎng)絡(luò)ResNet[17]的思想在網(wǎng)絡(luò)中融入了1,2,8,8,4個(gè)殘差模塊(Residual Block),網(wǎng)絡(luò)結(jié)構(gòu)可以更深且避免了梯度消失等問(wèn)題。

        另外,網(wǎng)絡(luò)使用了類似于特征金字塔網(wǎng)絡(luò)(feature pyramid netword)[18]的概念從3個(gè)不同的尺度(13×13、26×26、52×52)提取特征,將早期layer的特征與深層layer的特征融合在了一起,因此它在檢測(cè)大目標(biāo)和小目標(biāo)方面都有很好的性能。小尺度的特征圖感受野更大,提供了較深的語(yǔ)義信息,大尺度的特征圖則提供了較細(xì)粒度的目標(biāo)信息。YOLOv3通過(guò)向上采樣調(diào)整了更深一層的特征圖,不同尺度的特征圖將具有相同的尺寸,并將9組anchor box(先驗(yàn)框)按面積從小到大的順序分配給了三個(gè)尺度的特征圖,再對(duì)每個(gè)anchor box進(jìn)行置信度回歸,最后保留大于置信度閾值的預(yù)測(cè)框。YOLOv3的網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

        圖1 YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 Network structure of YOLOv3

        YOLOv3的損失函數(shù)由三部分組成:置信度損失項(xiàng)、分類損失項(xiàng)和邊界框坐標(biāo)損失項(xiàng)。其中,置信度損失公式如下:

        公式包括兩部分:預(yù)測(cè)框內(nèi)有目標(biāo)物和沒(méi)有目標(biāo)物。公式中融入了交叉熵,表示預(yù)測(cè)框內(nèi)含有真實(shí)目標(biāo)的概率值,表示真實(shí)值,λnoobj是一個(gè)權(quán)重值,用來(lái)控制沒(méi)有物體時(shí)損失的貢獻(xiàn)量。

        分類損失公式如下:

        坐標(biāo)(coord)損失公式如下:

        公式(3)為中心坐標(biāo)損失,公式(4)為寬高坐標(biāo)損失。λcoord表示坐標(biāo)損失權(quán)重,用來(lái)協(xié)調(diào)不同尺度的先驗(yàn)框?qū)p失的貢獻(xiàn)值。整個(gè)損失函數(shù)表示:第[i][j]個(gè)先驗(yàn)框負(fù)責(zé)檢測(cè)某一個(gè)目標(biāo),以這個(gè)先驗(yàn)框?yàn)榛鶞?zhǔn)回歸進(jìn)行尺度變換,然后產(chǎn)生bounding box,使用均方誤差(MSE)將bounding box與標(biāo)注框比較計(jì)算得到中心和寬高坐標(biāo)誤差。但以MSE誤差作為損失函數(shù)存在以下缺點(diǎn):誤差越小并不代表兩個(gè)框的重合度越高;損失對(duì)目標(biāo)框尺度太敏感,沒(méi)有一個(gè)可以衡量其尺度的參數(shù),不具有尺度不變性。公式(4)中的開平方處理就是為了緩解目標(biāo)框尺度對(duì)損失產(chǎn)生的影響。

        2 UIoU邊界框回歸損失函數(shù)

        目標(biāo)定位是目標(biāo)檢測(cè)的一個(gè)關(guān)鍵任務(wù),邊界框回歸損失函數(shù)是目標(biāo)定位的一個(gè)關(guān)鍵因素,直接影響到回歸的準(zhǔn)確率。目前最常使用的邊界框損失函數(shù)是IoU Loss,公式如下:

        其中,B代表預(yù)測(cè)框,Bgt代表目標(biāo)框。從公式來(lái)看,如果B和Bgt沒(méi)有交集,分子為0,損失函數(shù)一直等于1。所以IoU損失僅在邊界框有重疊的情況下起作用。DIoU解決了這一問(wèn)題,DIoU的圖像如圖2所示,DIoU的計(jì)算見(jiàn)公式(6):

        圖2 DIoUFig.2 DIoU

        式中,bgt表示目標(biāo)框中心點(diǎn),b表示預(yù)測(cè)框中心點(diǎn),ρ表示兩點(diǎn)之間的距離,灰色虛線框代表覆蓋目標(biāo)框與預(yù)測(cè)框的最小框,c表示最小框的對(duì)角線長(zhǎng)度。在兩個(gè)框的中心點(diǎn)距離不斷縮減的過(guò)程中,能夠使得邊界框的收斂速度更快。當(dāng)兩個(gè)框不重疊的時(shí)候,預(yù)測(cè)框會(huì)不斷往目標(biāo)框的方向靠近,直到兩個(gè)框的中心點(diǎn)重合;在兩個(gè)框存在包含關(guān)系的情況下邊界框回歸速度也很快。

        但是DIoU沒(méi)有考慮到預(yù)測(cè)框的長(zhǎng)寬比和目標(biāo)框之間長(zhǎng)寬比的一致性,容易出現(xiàn)“偽對(duì)齊”的情況。基于這一點(diǎn),本文提出了新的邊界框回歸損失函數(shù)UIoU(Unify IoU Loss):

        UIoU比DIoU多了兩個(gè)參數(shù)和α和v,其中α是用來(lái)平衡比例的系數(shù),v將預(yù)測(cè)框和目標(biāo)框的長(zhǎng)寬比融入sigmoid函數(shù)的變量中,一方面可以對(duì)值閾值化以防過(guò)度震蕩,另一方面用來(lái)衡量?jī)蓚€(gè)框之間長(zhǎng)寬比的一致性。因?yàn)樵黾恿诉@個(gè)懲罰項(xiàng),預(yù)測(cè)框會(huì)不斷地變換長(zhǎng)寬比,盡可能與目標(biāo)框一致,然后往目標(biāo)框的方向移動(dòng)。α和v的公式如下:

        其中,w1、w代表目標(biāo)框和預(yù)測(cè)框的長(zhǎng),h1、h代表目標(biāo)框和預(yù)測(cè)框的寬。UIoU求導(dǎo)公式如下:

        預(yù)測(cè)框在不同位置下三個(gè)損失函數(shù)的數(shù)值及其變化情況如圖3所示。

        圖3 IoU、DIoU與UIoU數(shù)值變化Fig.3 Variation of IoU,DIoU and UIoU

        圖3中黑色框代表預(yù)測(cè)框,紅色框代表真實(shí)框。圖3(a),當(dāng)兩個(gè)框沒(méi)有重疊時(shí),IoU損失為0,因?yàn)镈IoU和UIoU分別增加了中心點(diǎn)距離和長(zhǎng)寬比的懲罰項(xiàng),所以兩者損失不為0。圖3(b)和圖3(c),真實(shí)框完全包含預(yù)測(cè)框?qū)е翴oU沒(méi)有變化。圖3(d),兩個(gè)框的中心點(diǎn)重合,DIoU退化成IoU,因?yàn)閮蓚€(gè)框的長(zhǎng)寬比不一致,UIoU可以繼續(xù)發(fā)揮作用,其收斂的精度更高。

        3 對(duì)云狀數(shù)據(jù)集進(jìn)行K-means聚類

        先驗(yàn)框的大小直接影響算法的回歸速度和準(zhǔn)確率。YOLOv3根據(jù)coco數(shù)據(jù)集設(shè)定了9種先驗(yàn)框的尺寸,但是考慮到地基云狀數(shù)據(jù)集的目標(biāo)尺寸和coco數(shù)據(jù)集差異較大,需要重新設(shè)計(jì)先驗(yàn)框尺寸。不同于依賴人的先驗(yàn)知識(shí)設(shè)定尺寸,通過(guò)使用K-means[19-20]聚類算法對(duì)地基云狀數(shù)據(jù)集中所有的目標(biāo)框進(jìn)行聚類,產(chǎn)生不同數(shù)量的先驗(yàn)框,可以使錨框與目標(biāo)邊界框更加匹配,從而提高檢測(cè)速度與精度。不同聚類數(shù)目對(duì)應(yīng)的平均交并比和歸一化后的先驗(yàn)框尺寸分布如圖4和圖5所示。

        圖4 聚類數(shù)目與平均交并比Fig.4 Number of clustering and average IoU

        圖5 先驗(yàn)框尺寸分布Fig.5 Distribution of anchor box

        考慮到計(jì)算效率與準(zhǔn)確率的平衡,同時(shí)為了使產(chǎn)生的先驗(yàn)錨框平均分配到3個(gè)預(yù)測(cè)尺度,選擇產(chǎn)生9個(gè)先驗(yàn)錨框。在圖5中,紅色三角形為聚類尺寸,將歸一化數(shù)值進(jìn)行還原,最終確定的先驗(yàn)錨框尺寸有以下9組:(16,32)、(32,20)、(23,60)、(52,39)、(40,67)、(55,113)、(116,143)、(245,262)、(105,55)。

        4 實(shí)驗(yàn)結(jié)果與分析

        4.1 地基云狀數(shù)據(jù)集

        本文使用的數(shù)據(jù)集來(lái)自高清攝像頭實(shí)時(shí)拍攝的1 254張地基云狀魚眼圖,按照1比9的比例劃分測(cè)試集和訓(xùn)練集。數(shù)據(jù)集的類別是3種云狀,分別是Cidens(密卷云)、Cuhum(淡積云)、Actra(透光高積云)。圖6為云狀數(shù)據(jù)集樣例。

        圖6 云狀數(shù)據(jù)集樣例Fig.6 Sample of nephogram datasets

        數(shù)據(jù)集采用labelImg標(biāo)注并制作成VOC格式方便訓(xùn)練。標(biāo)注工作由人工執(zhí)行,如圖7所示。使用labelImg將魚眼圖中的云框出來(lái)并打上對(duì)應(yīng)的云狀標(biāo)簽,保存之后就可以在路徑中生成對(duì)應(yīng)的xml文件,文件中包含標(biāo)注框的類別、具體坐標(biāo)、圖片名稱等信息。

        圖7 labelImg標(biāo)注Fig.7 Using labelImg to annotate

        4.2 模型訓(xùn)練

        本文中,模型訓(xùn)練與測(cè)試在Ubuntu18.04環(huán)境下進(jìn)行,使用NVIDIA GeForce GTX 1080Ti顯卡。采用Darknet[21]框架進(jìn)行訓(xùn)練,網(wǎng)絡(luò)的訓(xùn)練參數(shù)設(shè)置如下:采用Multistep學(xué)習(xí)策略,初始學(xué)習(xí)率為0.001,max_batchs設(shè)為12 000,decay為0.000 5,訓(xùn)練時(shí)batch size為64,使用SGD優(yōu)化算法,momentum為0.9。實(shí)驗(yàn)采用AP50和mAP50作為評(píng)價(jià)指標(biāo),指標(biāo)的計(jì)算需要用到準(zhǔn)確率Precision和召回率Recall兩個(gè)概念:

        TP(true positives):數(shù)據(jù)集中實(shí)際被檢測(cè)到的目標(biāo)個(gè)數(shù)。

        FP(false positives):檢測(cè)模型誤檢測(cè)的目標(biāo)個(gè)數(shù)。

        FN(false negatives):檢測(cè)模型漏檢測(cè)的目標(biāo)個(gè)數(shù)。

        以Recall為橫軸、Precision為縱軸構(gòu)建P-R圖,AP50的計(jì)算公式如下:

        即AP50表示IoU閾值為0.5時(shí)P-R曲線與坐標(biāo)軸所圍成的面積。同時(shí),將全部類別目標(biāo)的平均精度mAP50表示為:

        其中,N表示目標(biāo)類別數(shù),AP50i表示IoU閾值為0.5時(shí)每個(gè)目標(biāo)類別的平均精度。

        YOLOv3和UIoU-YOLOv3的Avg IOU對(duì)比曲線如圖8所示,地基云狀數(shù)據(jù)集訓(xùn)練過(guò)程中UIoU-YOLOv3的損失變化曲線如圖9所示。

        圖8 云狀數(shù)據(jù)集Avg IOU曲線對(duì)比Fig.8 Avg IOU curve comparison of nephogram datasets

        圖9 云狀數(shù)據(jù)集UIoU-YOLOv3損失變化曲線Fig.9 UIoU-YOLOv3 loss curve of nephogram datasets

        PASCAL VOC數(shù)據(jù)集作為標(biāo)準(zhǔn)數(shù)據(jù)集,不僅能衡量目標(biāo)檢測(cè)算法的分類識(shí)別能力,而且促進(jìn)了目標(biāo)檢測(cè)相關(guān)領(lǐng)域的發(fā)展。為驗(yàn)證本文模型的準(zhǔn)確性,在VOC2007上對(duì)模型進(jìn)行了訓(xùn)練和評(píng)估,其中訓(xùn)練集和測(cè)試集分別包含7 172和1 794張圖片。與云狀實(shí)驗(yàn)在同一實(shí)驗(yàn)環(huán)境下進(jìn)行訓(xùn)練與測(cè)試,因?yàn)閿?shù)據(jù)集較大,所以max_batchs修改為50 200。Avg IOU對(duì)比曲線和損失變化曲線如圖10、11所示。

        圖10 VOC數(shù)據(jù)集Avg IOU曲線對(duì)比Fig.10 Avg IOU curve comparison of VOC datasets

        4.3 實(shí)驗(yàn)結(jié)果與分析

        3種模型在云狀數(shù)據(jù)集和VOC數(shù)據(jù)集上的AP50和mAP50數(shù)值分別見(jiàn)表1和表2。

        如表1所示,UIoU-YOLOv3在云狀數(shù)據(jù)集上的mAP50數(shù)值分別較YOLOv3和DIoU-YOLOv3提升了2.56個(gè)百分點(diǎn)和1.25個(gè)百分點(diǎn)。如表2所示,在VOC2007數(shù)據(jù)集上,提升數(shù)值為3.4個(gè)百分點(diǎn)和2.08個(gè)百分點(diǎn)。圖9和圖11是UIoU-YOLOv3在兩個(gè)數(shù)據(jù)集上的訓(xùn)練損失曲線,整體上呈下降趨勢(shì),最后趨于穩(wěn)定,說(shuō)明神經(jīng)網(wǎng)絡(luò)訓(xùn)練效果較好。Avg IOU表示訓(xùn)練過(guò)程中預(yù)測(cè)框與標(biāo)注框的平均交并比,可以很好地反映預(yù)測(cè)框的回歸準(zhǔn)確率,它的期望數(shù)值為1。通過(guò)分析圖9和圖11兩個(gè)數(shù)據(jù)集上的Avg IOU對(duì)比曲線可知:UIoU-YOLOv3相比于YOLOv3在訓(xùn)練時(shí)的Avg IOU曲線震蕩范圍更小、上升得更快更穩(wěn)定,最后回歸的數(shù)值也更高。因此,UIoU-YOLOv3訓(xùn)練時(shí)預(yù)測(cè)框與目標(biāo)框的重合度更高,邊界框回歸更加準(zhǔn)確。綜上所述,在地基云狀數(shù)據(jù)集和VOC數(shù)據(jù)集上,本文提出的UIoU邊界框損失函數(shù)是一種有效提升模型性能的方案。

        圖11 VOC數(shù)據(jù)集UIoU-YOLOv3損失變化曲線Fig.11 UIoU-YOLOv3 loss curve of VOC datasets

        表1 云狀數(shù)據(jù)集各類別AP50和mAP50Table 1 AP50 and mAP50 of nephogram datasets%

        表2 VOC數(shù)據(jù)集mAP50Table 2 mAP50 of VOC datasets

        此外,為了更加直觀地感受不同算法之間的檢測(cè)區(qū)別,本文選取了一些檢測(cè)圖像進(jìn)行對(duì)比分析,如圖12。

        圖12 YOLOv3和UIoU-YOLOv3檢測(cè)結(jié)果對(duì)比圖Fig.12 Comparison diagram of YOLOv3 and UIoU-YOLOv3 detection results

        對(duì)于圖12(a)、(b)中大面積的云狀,YOLOv3僅回歸出了一個(gè)檢測(cè)框,容易出現(xiàn)漏檢的錯(cuò)誤,而UIoUYOLOv3回歸出了多個(gè)分類準(zhǔn)確的檢測(cè)框,框出的目標(biāo)物范圍更大更準(zhǔn)確;對(duì)于圖12(c)、(d)中小塊的云狀,UIoU-YOLOv3可以識(shí)別出YOLOv3識(shí)別不出的目標(biāo)物,檢測(cè)效果更佳。

        5 結(jié)束語(yǔ)

        本文在DIoU的基礎(chǔ)上提出了新的邊界框回歸損失函數(shù)UIoU,并將其應(yīng)用于YOLOv3上,代替原算法的邊界框MSE損失;使用K-means聚類算法對(duì)云狀數(shù)據(jù)集中所有已標(biāo)注過(guò)的目標(biāo)邊界框進(jìn)行聚類,重新設(shè)計(jì)了先驗(yàn)框尺寸。經(jīng)過(guò)實(shí)驗(yàn)驗(yàn)證,改進(jìn)后的YOLOv3算法在精度上相比于原算法確有提升,而且比較穩(wěn)定。

        本文提出的UIoU損失函數(shù)只在YOLOv3上進(jìn)行了可行性實(shí)驗(yàn)驗(yàn)證,下一步將在其他目標(biāo)檢測(cè)算法上進(jìn)行應(yīng)用與分析。此外,對(duì)模型結(jié)構(gòu)進(jìn)行探索與調(diào)整也是本文的下一步研究方向。

        猜你喜歡
        先驗(yàn)邊界損失
        少問(wèn)一句,損失千金
        拓展閱讀的邊界
        胖胖損失了多少元
        基于無(wú)噪圖像塊先驗(yàn)的MRI低秩分解去噪算法研究
        玉米抽穗前倒伏怎么辦?怎么減少損失?
        論中立的幫助行為之可罰邊界
        基于自適應(yīng)塊組割先驗(yàn)的噪聲圖像超分辨率重建
        基于平滑先驗(yàn)法的被動(dòng)聲信號(hào)趨勢(shì)項(xiàng)消除
        一般自由碰撞的最大動(dòng)能損失
        先驗(yàn)的廢話與功能的進(jìn)路
        欧洲熟妇色 欧美| 亚洲天堂av在线免费观看| 亚洲国产高清一区av| 精品亚洲麻豆1区2区3区| 欧美激情肉欲高潮视频| 国产成人午夜精华液| 精品国产高清a毛片无毒不卡| 香蕉网站在线| 久久精品国产亚洲AⅤ无码剧情 | 国产精品久久1024| 国产精品不卡免费版在线观看| 亚洲天码一区二区三区| 少妇久久久久久被弄高潮| 97午夜理论片影院在线播放| 亚洲欧美日韩在线观看一区二区三区 | 国产精品老女人亚洲av无| 亚洲成年国产一区二区| 内射合集对白在线| 蜜臀av无码精品人妻色欲| 亚洲精品免费专区| 爆乳午夜福利视频精品| 亚洲国语对白在线观看| 国产偷国产偷亚洲综合av| 久久亚洲av成人无码电影a片| 国产sm调教视频在线观看| 无码毛片高潮一级一免费| 亚洲国产av一区二区三| 一区二区三区四区黄色av网站| 放荡的少妇2欧美版| 97精品国产手机| 欧美午夜精品久久久久久浪潮| 日本熟妇精品一区二区三区| 精品一区二区三区a桃蜜| 亚洲大尺度无码无码专区| 久久精品女人天堂av| 亚洲国产成人精品激情| 国产成人亚洲精品一区二区三区| 国产色视频一区二区三区不卡| 国产成人精品a视频| 性欧美暴力猛交69hd| 国产精品三级一区二区按摩|