亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        YOLOv5用于太陽(yáng)電池缺陷檢測(cè)優(yōu)化研究

        2024-12-13 00:00:00李玉娟周界龍麥耀華吳紹航高彥艷李陽(yáng)
        太陽(yáng)能學(xué)報(bào) 2024年11期
        關(guān)鍵詞:深度學(xué)習(xí)

        摘 要:在新能源應(yīng)用技術(shù)中,太陽(yáng)電池表面缺陷檢測(cè)是至關(guān)重要的技術(shù)環(huán)節(jié)。該文研究并提出一種基于YOLOv5算法的優(yōu)化模型,可對(duì)靜態(tài)圖片進(jìn)行檢測(cè)也可用于實(shí)時(shí)視頻中。將坐標(biāo)注意力機(jī)制(CA)加入到Y(jié)OLOv5的主干網(wǎng)絡(luò)部分。再將頸部網(wǎng)絡(luò)部分的特征融合部分優(yōu)化為BiFPN結(jié)構(gòu)。最后,為解決正負(fù)樣本數(shù)量失衡問(wèn)題,開(kāi)啟Focal Loss,并將其優(yōu)化為Varifocal Loss。將此優(yōu)化算法應(yīng)用在PVEL-AD數(shù)據(jù)集上,并將mAP@0.5作為驗(yàn)證標(biāo)準(zhǔn)。驗(yàn)證結(jié)果表明,該研究所使用算法的檢測(cè)精度達(dá)到86.24%,相較于未優(yōu)化的原始算法提升5.64%。

        關(guān)鍵詞:目標(biāo)檢測(cè);卷積神經(jīng)網(wǎng)絡(luò);深度學(xué)習(xí);太陽(yáng)電池;YOLOv5

        中圖分類號(hào):TP391" " " " " " " 文獻(xiàn)標(biāo)志碼:A

        0 引 言

        工業(yè)科技的不斷發(fā)展,資源的消耗逐漸增加,隨之而來(lái)的環(huán)境問(wèn)題與日俱增。利用太陽(yáng)能作為能源可有效解決這一系列問(wèn)題。在生產(chǎn)和使用過(guò)程中太陽(yáng)電池會(huì)出現(xiàn)表面缺陷,影響太陽(yáng)電池能量轉(zhuǎn)化效率或完全失去作用,所以檢測(cè)太陽(yáng)電池表面缺陷非常重要。有些缺陷十分細(xì)微,單靠人眼識(shí)別會(huì)有一定的難度,且會(huì)浪費(fèi)大量時(shí)間。目標(biāo)檢測(cè)算法可離開(kāi)人工輔助,自動(dòng)識(shí)別目標(biāo)種類和位置信息,并應(yīng)用在靜態(tài)圖片以及實(shí)時(shí)視頻中?,F(xiàn)階段的目標(biāo)檢測(cè)算法主要分成兩大類:多階段檢測(cè)算法,代表的算法有:R-CNN[1]、Fast R-CNN[2]、Faster R-CNN[3]、SPP-net[4]等;單階段檢測(cè)算法,代表算法有:Ssd[5]、YOLO[6]、YOLOv2[7]、YOLOv3[8]、YOLOv4[9]、YOLOv5、RetinaNet[10]等。2020年4月Alexey Bochkovskiy等提出YOLOv4,被認(rèn)為是當(dāng)時(shí)最強(qiáng)的實(shí)時(shí)對(duì)象檢測(cè)模型之一。2020年6月,Ultralytics發(fā)布YOLOv5的第一個(gè)正式版本,它的檢測(cè)效果與YOLOv4不相上下,但檢測(cè)速度有所提高。因此本文使用YOLOv5的YOLOv5l模型進(jìn)行研究,算法作者所公開(kāi)的源代碼網(wǎng)址為:https://github.com/ultralytics/yolov5,目前還未發(fā)表正式論文。

        2022年陶志勇等[11]提出一種T-VGG網(wǎng)絡(luò)檢測(cè)模型,通過(guò)融合注意力機(jī)制和Ghost卷積層,實(shí)現(xiàn)對(duì)太陽(yáng)電池缺陷的高速準(zhǔn)確檢測(cè);周穎等[12]提出一種多尺度卷積神經(jīng)網(wǎng)絡(luò)模型,通過(guò)引入SE-Inception并設(shè)計(jì)3種不同尺寸的卷積神經(jīng)網(wǎng)絡(luò)模型,實(shí)現(xiàn)了高Kappa系數(shù)的算法,且明顯提高模型的分類準(zhǔn)確性;李瓊等[13]基于Mask-RCNN利用遷移學(xué)習(xí)策略,提出一種光伏組件的鳥(niǎo)糞缺陷檢測(cè)模型,該算法有較高的準(zhǔn)確性;2023年陳艾東等[14]引入CBAM attention[15],并采用K-均值聚類算法[16]訓(xùn)練目標(biāo)錨點(diǎn),修改損失函數(shù)為Distance-IoU Loss[17]的方法提出一種新的Faster R-CNN算法,針對(duì)PVEL-AD數(shù)據(jù)集中最常見(jiàn)的3種缺陷有十分準(zhǔn)確的檢測(cè)效果,但對(duì)于太陽(yáng)電池來(lái)說(shuō)其他缺陷也同樣重要,所以本文增加檢測(cè)另外兩種常見(jiàn)的缺陷檢測(cè),并針對(duì)數(shù)據(jù)集對(duì)算法進(jìn)行優(yōu)化。

        1 YOLOv5算法結(jié)構(gòu)

        YOLOv5主要由4個(gè)部分組成:輸入端、主干網(wǎng)絡(luò)、頸部網(wǎng)絡(luò)和輸出端。根據(jù)模型深度和寬度不同,從大到小可分為以下5個(gè)模型:YOLOv5x、YOLOv5l、YOLOv5m、YOLOv5s、YOLOv5n。YOLOv5的網(wǎng)絡(luò)整體結(jié)構(gòu)如圖1所示。

        1.1 輸入端

        被檢對(duì)象的圖像信息由輸入端進(jìn)入網(wǎng)絡(luò),進(jìn)行數(shù)據(jù)增強(qiáng)處理和自適應(yīng)錨框計(jì)算。

        1.2 主干網(wǎng)絡(luò)

        圖像信息經(jīng)過(guò)輸入端的處理之后進(jìn)入主干網(wǎng)絡(luò)部分,主要由Conv、C3和SPPF這3個(gè)模塊來(lái)完成圖像特征提取。如圖2a所示,Conv模塊主要為卷積[18]操作。如圖2b所示,主干網(wǎng)絡(luò)部分的C3模塊將輸入信息沿著通道方向分成兩部分,分別進(jìn)行不同數(shù)量的卷積操作,然后將兩部分輸出進(jìn)行拼接,再進(jìn)行一次卷積。這樣的操作有效減少了計(jì)算量,且提高了計(jì)算速度。最后進(jìn)入到SPPF模塊中對(duì)特征圖進(jìn)行串行池化,提高了前向計(jì)算和反向計(jì)算的速度。SPPF模塊的結(jié)構(gòu)如圖2c所示。

        1.3 頸部網(wǎng)絡(luò)

        如圖1中頸部網(wǎng)絡(luò)模塊所示,YOLOv5頸部采用了特征金字塔網(wǎng)絡(luò)(feature pyramid network, FPN)[19]和路徑聚合網(wǎng)絡(luò)(path aggregation network, PAN)[20]進(jìn)行特征融合。越高層的特征,其語(yǔ)義信息更明顯;越低層的特征,其位置信息更明顯。FPN結(jié)構(gòu)將高層特征與低層特征進(jìn)行融合,加強(qiáng)語(yǔ)義特征。PAN結(jié)構(gòu)則是將低層特征與高層特征進(jìn)行融合,加強(qiáng)位置特征。FPN+PAN這種結(jié)構(gòu)加強(qiáng)了語(yǔ)義特征和位置特征的提取效果。圖3為頸部的C3模塊,與主干網(wǎng)絡(luò)中的C3有所差別。

        1.4 輸出端

        YOLOv5的輸出端采用Complete-IoU Loss[17]作為邊界框損失函數(shù),將預(yù)測(cè)框與真實(shí)框的中心點(diǎn)距離、重合面積以及寬高比都作為評(píng)判標(biāo)準(zhǔn)。有效加強(qiáng)了模型的精度。

        2 YOLOv5檢測(cè)算法的優(yōu)化研究

        2.1 本文實(shí)現(xiàn)算法優(yōu)化的基本思路

        經(jīng)過(guò)對(duì)PVEL-AD數(shù)據(jù)集的分析,發(fā)現(xiàn)顏色信息貢獻(xiàn)不大,應(yīng)主要加強(qiáng)對(duì)于缺陷的位置信息和形狀信息的提取以及細(xì)節(jié)方面的保留,并需要解決數(shù)據(jù)正負(fù)樣本不均的問(wèn)題。本文主要通過(guò)以下3個(gè)方面對(duì)模型進(jìn)行優(yōu)化:

        第一,引入雙向特征金字塔模型(bidirectional feature pyramid network, BiFPN)[21]結(jié)構(gòu)替換原本的FPN+PAN結(jié)構(gòu)。加強(qiáng)模型對(duì)于缺陷細(xì)節(jié)的融合以及位置信息的提取。

        第二,在主干網(wǎng)絡(luò)部分增加注意力機(jī)制,使在特征提取時(shí)讓貢獻(xiàn)較大的信息擁有更高的權(quán)重,加強(qiáng)細(xì)節(jié)的提取以及與頸部網(wǎng)絡(luò)部分的融合效果。

        第三,開(kāi)啟Focal Loss[10],減小正負(fù)樣本數(shù)量失衡問(wèn)題,并引入方差焦點(diǎn)損失Varifocal Loss[22]替換原本的Focal Loss,解決正樣本在損失函數(shù)中的占比被削減的問(wèn)題。

        2.2 主干網(wǎng)絡(luò)優(yōu)化

        主干網(wǎng)絡(luò)部分主要進(jìn)行的工作是對(duì)輸入圖像進(jìn)行特征提取,不同層的特征圖所包含的通道以及像素點(diǎn)所提取的特征不盡相同,對(duì)結(jié)果判斷的貢獻(xiàn)也有所差別。本文引入坐標(biāo)注意力機(jī)制(coordinate attention, CA)[23],網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示。不同于SENet[24],SENet只關(guān)注通道信息的貢獻(xiàn),CA會(huì)同時(shí)關(guān)注通道信息和像素信息,并根據(jù)貢獻(xiàn)不同加上不同的權(quán)重,使貢獻(xiàn)較大的信息在結(jié)果判斷中起到更大的作用。注意力機(jī)制在不同位置添加會(huì)有不同的結(jié)果。經(jīng)過(guò)實(shí)驗(yàn)將CA添加到Bottleneck部分的C3部分,檢測(cè)結(jié)果有明顯的提升效果,此時(shí)優(yōu)化后的網(wǎng)絡(luò)結(jié)構(gòu)如圖5所示。

        2.3 頸部網(wǎng)絡(luò)的優(yōu)化

        本文引入BiFPN結(jié)構(gòu)替換原來(lái)的FPN+PAN結(jié)構(gòu)。如圖6a所示,F(xiàn)PN結(jié)構(gòu)將高層特征進(jìn)行上采樣操作之后,與低層特征進(jìn)行融合,加強(qiáng)語(yǔ)義信息傳遞和細(xì)節(jié)信息。如圖6b所示,PANet結(jié)構(gòu)則是在FPN后將低層特征與高層特征進(jìn)行融合,加強(qiáng)FPN缺少的位置信息傳遞。由于在進(jìn)行特征融合的時(shí)候,每一層特征所攜帶的信息的貢獻(xiàn)不同,且PAN所融合的特征是通過(guò)FPN處理過(guò)后的特征,相比于主干網(wǎng)絡(luò)部分直接輸出的特征會(huì)丟失一些重要的細(xì)節(jié)。如圖6c所示,BiFPN在相同level的神經(jīng)元之間進(jìn)行了連接,將主干網(wǎng)絡(luò)所輸出的特征直接加到特征融合的結(jié)構(gòu)中,進(jìn)行特征融合,這樣可保留低層特征圖的很多細(xì)節(jié)信息,本文僅將主干網(wǎng)絡(luò)部分的第3層C3CA所輸出的特征圖加入到特征融合部分,且將每個(gè)分支在進(jìn)行Concat前加可優(yōu)化的權(quán)重。優(yōu)化后的網(wǎng)絡(luò)如圖7所示。

        2.4 Focal Loss優(yōu)化

        目標(biāo)檢測(cè)時(shí),輸入的每一張照片都會(huì)產(chǎn)生很多的候選框,而大部分的候選框都不包含目標(biāo),因而會(huì)生成大量的負(fù)樣本,使數(shù)據(jù)集中正負(fù)樣本數(shù)量失衡,使分類結(jié)果偏向于負(fù)樣本類別。

        將不包含目標(biāo)框的樣本作為負(fù)樣本,包含目標(biāo)框的樣本作為正樣本,交叉熵?fù)p失函數(shù)如式(1)所示。

        [LCE=(p, y)=-lg(p), y=1-lg(1-p), y=0] (1)

        所有樣本的損失函數(shù)整合起來(lái)如式(2)所示。

        [LCE=-1Nyi=1mlg(p)+yi=0nlg(1-p)] (2)

        式中:[m]——正樣本數(shù)量;[n]——負(fù)樣本數(shù)量;[N=m+n];[p]——預(yù)測(cè)概率的大??;y、[yi]——真實(shí)的標(biāo)簽。當(dāng)[n?m]時(shí),負(fù)樣本數(shù)量過(guò)大會(huì)導(dǎo)致?lián)p失函數(shù)大部分被負(fù)樣本所占據(jù),模型的訓(xùn)練會(huì)更加傾向于樣本數(shù)更多的分類,使模型方向遠(yuǎn)離期望。為解決這種問(wèn)題,本文引入Focal Loss函數(shù)。Focal Loss函數(shù)如式(3)所示。

        [Lfl(p,y)=-α(1-p)γlg(p)," " " nbsp; " " y=1-(1-α)pγlg(1-p)," " " 其他] (3)

        式中:[α]——平衡正負(fù)樣本的權(quán)重;[γ]——可調(diào)的因子,且[γgt;0]。

        令:

        [pt=p," " " " " "y=11-p," " " 其他] (4)

        權(quán)重因子:

        [αt=α," " " " " "y=11-α," " " 其他] (5)

        將式(3)Focal Loss統(tǒng)一為:

        [Lfl=-αt(1-pt)γlg(pt)] (6)

        式(1)交叉熵?fù)p失函數(shù)為:

        [LCE(pt)=-lg(pt)] (7)

        觀察[pt]可知,[pt]越大分類越準(zhǔn)確。

        對(duì)比式(6)和式(7),F(xiàn)ocal Loss與交叉熵兩者相差一個(gè)權(quán)重[αt(1-pt)γ],相當(dāng)于減少了數(shù)量較多的易分類的負(fù)樣本在損失函數(shù)中的權(quán)重。

        然而Focal Loss是平等對(duì)待正負(fù)樣本的,正樣本的權(quán)重也會(huì)以同樣的方式減少。

        為解決此問(wèn)題,引入Varifocal Loss,如式(8)所示。

        [LVf(p,q)=-qqlg(p)+(1-q)lg(1-p)," " qgt;0-αpλlg(1-p)," " " " " " " " " " " " " " "q=0 ] (8)

        式中:[q]——目標(biāo)分?jǐn)?shù),對(duì)于前景點(diǎn)來(lái)說(shuō),[q]為真實(shí)框與候選框的IoU,而對(duì)于背景點(diǎn)來(lái)說(shuō),[q=0]。通過(guò)超參數(shù)[γ]縮放損失,如式(8)所示,Varifocal Loss只減小了[q=0]時(shí)所貢獻(xiàn)的損失,未減少[qgt;0]時(shí)貢獻(xiàn)的損失,且評(píng)分標(biāo)準(zhǔn)并非只考慮預(yù)測(cè)概率的大小,對(duì)于具有較高的IoU的高質(zhì)量框,在損失函數(shù)中會(huì)占據(jù)更大的比例。

        2.5 改進(jìn)后的模型結(jié)構(gòu)

        將CA加入到主干網(wǎng)絡(luò)部分的C3中,將頸部網(wǎng)絡(luò)部分的特種融合部分從FPN+PAN結(jié)構(gòu)修改為BiFPN結(jié)構(gòu),F(xiàn)ocal Loss改為Varifocal Loss后的改進(jìn)完成的網(wǎng)絡(luò)結(jié)構(gòu)如圖8所示。

        圖片從輸入端輸入到模型中,會(huì)先將數(shù)據(jù)進(jìn)行數(shù)據(jù)增強(qiáng),并進(jìn)行自適應(yīng)錨框計(jì)算。然后將圖片傳入到主干網(wǎng)絡(luò)部分中,同樣先經(jīng)過(guò)兩次卷積操作,而后將輸入信息輸入到與原始的C3模塊不同的C3CA模塊中,沿著通道方向分成兩部分,分別進(jìn)行不同數(shù)量的卷積操作,將其中一部分的卷積過(guò)程中的Bottleneck部分加入CA,再將兩部分輸出融合。信息傳入到頸部網(wǎng)絡(luò)部分時(shí),與原本的頸部網(wǎng)絡(luò)結(jié)構(gòu)不同,改進(jìn)后的模型會(huì)將主干網(wǎng)絡(luò)的第3個(gè)C3CA模塊的輸出的特征圖直接送到下采樣部分進(jìn)行特征融合,并將特征圖在Concat前增加可優(yōu)化的權(quán)重,以此保留未被過(guò)多處理過(guò)的細(xì)節(jié)信息。最后將信息傳入到輸出端并進(jìn)行預(yù)測(cè)。

        3 實(shí)驗(yàn)及結(jié)果分析

        3.1 實(shí)驗(yàn)環(huán)境

        本文的實(shí)驗(yàn)環(huán)境:實(shí)驗(yàn)室服務(wù)器NVIDIA GeForce RTX 3090,顯存為24 G,pytorch深度學(xué)習(xí)框架,GPU加速軟件為CUDA Version11.7。

        3.2 實(shí)驗(yàn)數(shù)據(jù)集

        本文的數(shù)據(jù)集使用河北工業(yè)大學(xué)、北京航空航天大學(xué)聯(lián)合發(fā)布的PVEL-AD數(shù)據(jù)集[25],又稱EL2021數(shù)據(jù)集。它是世界上最大的太陽(yáng)電池缺陷檢測(cè)數(shù)據(jù)集,包含36543張具有各種內(nèi)部缺陷和異構(gòu)背景的近紅外圖像。其中,包含1類無(wú)異常圖像和具有12個(gè)不同類別的異常缺陷圖像,例如裂紋(線狀和星狀)、斷柵、黑芯、未對(duì)準(zhǔn)、粗線、劃痕、碎片、斷角和材料缺陷等。此外,此數(shù)據(jù)集為12種類型的缺陷提供了40000個(gè)以上的真實(shí)標(biāo)注框用于缺陷檢測(cè),本文僅檢測(cè)其中5種常見(jiàn)的缺陷,包括線性裂紋、星型裂紋、斷柵、粗線、黑芯,如圖9所示。

        通過(guò)對(duì)圖片進(jìn)行水平翻轉(zhuǎn),將數(shù)據(jù)集數(shù)量增加至8100張。按照8∶1∶1比例隨機(jī)劃分為訓(xùn)練集、驗(yàn)證集和測(cè)試集,并進(jìn)行訓(xùn)練及測(cè)試。具體數(shù)值如表1所示。

        3.3 檢驗(yàn)標(biāo)準(zhǔn)

        本文使用mAP@0.5作為檢驗(yàn)標(biāo)準(zhǔn),表示當(dāng)IoU超過(guò)閾值0.5時(shí),每一個(gè)類別的平均精度(average precision, AP)的平均值。AP是指將召回率(Recall)作為橫坐標(biāo)與將精確率(Precision)作為縱坐標(biāo)所畫出的點(diǎn)連接線下的面積,Recall如式(9)所示。

        [R=TPTP+FN] (9)

        Precision如式(10)所示。

        [P=TPTP+FP] (10)

        式中:[TP](True Positives)——檢測(cè)正確的正樣本;[FN](False Negatives)——正樣本被分成了負(fù)樣本;[FP](False Positives)——檢測(cè)錯(cuò)誤的正樣本。本文所設(shè)置的置信度閾值為0.5,表示當(dāng)預(yù)測(cè)框的置信度達(dá)到0.5時(shí),認(rèn)為預(yù)測(cè)框內(nèi)的物體為正樣本。

        3.4 實(shí)驗(yàn)參數(shù)

        本文采用的YOLOv5超參數(shù)設(shè)置如表2所示。

        其中Epoch表示所有訓(xùn)練樣本進(jìn)行一次前向計(jì)算和反向傳播的過(guò)程。Batch-size表示每個(gè)訓(xùn)練迭代中用于更新模型參數(shù)的樣本數(shù)量。Patience指當(dāng)達(dá)到規(guī)定的訓(xùn)練輪次時(shí),模型在驗(yàn)證集上的mAP@0.5∶0.95檢測(cè)結(jié)果較之前最高的結(jié)果還未上升,將停止訓(xùn)練。Img-size用于表示圖像的尺寸。Learning-rate用于調(diào)節(jié)模型在每次參數(shù)更新時(shí)的步長(zhǎng)大小,較大會(huì)加快收斂速度,但可能會(huì)引發(fā)震蕩,較小會(huì)減慢速度,但會(huì)增加穩(wěn)定性。Mosaic是一種數(shù)據(jù)增強(qiáng)的方法,將多個(gè)原始圖像進(jìn)行拼接形成一個(gè)新的圖像,并將新的圖像作為訓(xùn)練樣本。本實(shí)驗(yàn)將Mosaic數(shù)據(jù)增強(qiáng)關(guān)閉,開(kāi)啟時(shí)會(huì)小幅度降低模型檢測(cè)效果。

        3.5 實(shí)驗(yàn)結(jié)果分析

        3.5.1 消融實(shí)驗(yàn)

        為直觀地顯示各優(yōu)化對(duì)于模型效果的影響,采用消融實(shí)驗(yàn)進(jìn)行驗(yàn)證,分別使用原本的YOLOv5l算法、加入CA后的算法YOLOv5l-C、修改了頸部后的算法YOLOv5l-B、開(kāi)啟Focal Loss并優(yōu)化為Varifocal Loss之后的算法YOLOv5-V,以及分別使用兩種優(yōu)化方式結(jié)合的算法YOLOv5l-CB、YOLOv5l-CV、YOLOv5l-BV和3種方法結(jié)合后的算法YOLOv5-CBV,對(duì)劃分方式相同的數(shù)據(jù)集進(jìn)行訓(xùn)練以及測(cè)試。實(shí)驗(yàn)結(jié)果如表3所示。

        本文將CA分別加入到主干網(wǎng)絡(luò)的第1、2、3層的C3模塊之后以及C3模塊中,檢測(cè)結(jié)果表明將CA加入到C3模塊中時(shí),模型提升效果最明顯,結(jié)果如表3中YOLOv5l-C所示,在mAP@0.5(%)上提升3.56%。將BiFPN網(wǎng)絡(luò)引入頸部網(wǎng)絡(luò)的特征融合部分,經(jīng)測(cè)試將第3層的C3所輸出的特征圖同時(shí)加入到上采樣和下采樣部分,并在Concat前增加可優(yōu)化的權(quán)重的效果最好,結(jié)果如表3中YOLOv5l-B所示,在mAP@0.5(%)上提升2.13%。開(kāi)啟Focal Loss函數(shù),經(jīng)測(cè)試開(kāi)啟Focal Loss會(huì)輕微降低模型的檢測(cè)效果,結(jié)果如表4所示,將Focal Loss改進(jìn)為Varifocal Loss函數(shù),結(jié)果如表3中YOLOv5l-V所示,在mAP@0.5(%)上提升3.54%。將3種改進(jìn)方式進(jìn)行兩兩結(jié)合,結(jié)果表示YOLOv5l-CB對(duì)比YOLOv5l-C提升0.25%,對(duì)比YOLOv5l-B提升1.68%,對(duì)比最原始的YOLOv5l提升3.81%。YOLOv5l-CV對(duì)比YOLOv5l-C提升0.43%,對(duì)比YOLOv5l-V提升0.45%,對(duì)比最原始的YOLOv5l

        提升3.99%。YOLOv5l-BV對(duì)比YOLOv5l-B提升2.45%,對(duì)比YOLOv5l-V提升1.04%,對(duì)比最原始的YOLOv5l提升4.58%。將3種改進(jìn)方式進(jìn)行融合,YOLOv5l-CBV在mAP@0.5(%)上比YOLOv5l-CB提升1.83%,比YOLOv5l-CV提升1.65%,比YOLOv5l-BV提升1.06%,比最原始的YOLOv5l提升5.64%,說(shuō)明每一種方法的優(yōu)化,對(duì)于太陽(yáng)電池表面缺陷的檢測(cè)都有性能上的提升。且模型大小無(wú)明顯增加。顯示出本文的算法所訓(xùn)練出的模型,更適合太陽(yáng)電池表面缺陷的檢測(cè)。

        3.5.2 對(duì)比實(shí)驗(yàn)

        為進(jìn)一步體現(xiàn)本文方法的有效性,將本文最終的方法分別與YOLOv5-Focal Loss、YOLOv5-Mosaic、YOLOv5s、YOLOv5m、YOLOv4、YOLOv3、Ssd、Faster R-CNN算法在劃分方式相同的數(shù)據(jù)集上進(jìn)行對(duì)比實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表4所示。

        對(duì)比表4中的實(shí)驗(yàn)結(jié)果可發(fā)現(xiàn),開(kāi)啟Focal Loss函數(shù)和Mosaic數(shù)據(jù)增強(qiáng)會(huì)降低模型的檢測(cè)精度,本文所提出的YOLOv5l-CBV在PVEL-AD數(shù)據(jù)集上的檢測(cè)效果有所提升,mAP@0.5為86.24%,相比其他主流的檢測(cè)模型,有更好的精度,且體積大小顯示模型大小適中。

        為更直觀顯示檢測(cè)結(jié)果,將原圖與YOLOv5l模型檢測(cè)結(jié)果和改進(jìn)后的YOLOv5l-CBV的檢測(cè)結(jié)果進(jìn)行對(duì)比,如圖10所示。

        數(shù)據(jù)集中有很多非常小的裂紋缺陷,以及一些模糊的粗線缺陷,這些缺陷在檢測(cè)中就經(jīng)常會(huì)被忽略,通過(guò)對(duì)比圖10b和圖10c可看出,對(duì)于較小以及模糊的缺陷,YOLOv5l-CBV比YOLOv5l有更好的檢測(cè)效果,說(shuō)明改進(jìn)后的算法在細(xì)節(jié)上的保留有較大的提升,可對(duì)細(xì)微的信息有較精確的檢測(cè)。

        4 結(jié) 論

        本文在YOLOv5算法的基礎(chǔ)上向主干網(wǎng)絡(luò)部分中加入注意力機(jī)制,特征融合部分改為BiFPN結(jié)構(gòu),開(kāi)啟Focal Loss并將其修改為Varifocal Loss等方式對(duì)模型進(jìn)行了優(yōu)化。有效減少了原始算法對(duì)小模糊缺陷的漏檢問(wèn)題,以及正負(fù)樣本不均的問(wèn)題,在數(shù)據(jù)集PVEL-AD數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果證明,優(yōu)化后的模型YOLOv5l-CBV在mAP@0.5(%)上的結(jié)果達(dá)到86.24%,對(duì)比最原始的YOLOv5l在mAP@0.5(%)上的80.60%提升5.64%,改進(jìn)后的模型和其他主流模型相比有更高的精度,且并未明顯增加模型大小。

        [參考文獻(xiàn)]

        [1] GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]//2014 IEEE Conference on Computer Vision and Pattern Recognition. Columbus, OH, USA, 2014: 580-587.

        [2] GIRSHICK R. Fast R-CNN[C]//2015 IEEE International Conference on Computer Vision (ICCV). Santiago, Chile, 2015: 1440-1448.

        [3] REN S Q, HE K M, GIRSHICK R, et al. Faster R-CNN: towards real-time object detection with region proposal networks[J]. IEEE transactions on pattern analysis and machine intelligence, 2017, 39(6): 1137-1149.

        [4] HE K M, ZHANG X Y, REN S Q, et al. Spatial pyramid pooling in deep convolutional networks for visual recognition[J]. IEEE transactions on pattern analysis and machine intelligence, 2015, 37(9): 1904-1916.

        [5] LIU W, ANGUELOV D, ERHAN D, et al. SSD: single shot MultiBox detector[M]//LEIBE B, MATAS J, SEBE N, et al, eds. Computer Vision–ECCV 2016. Cham: Springer International Publishing, 2016: 21-37.

        [6] REDMON J, DIVVALA S, GIRSHICK R, et al. You only look once: unified, real-time object detection[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas, NV, USA, 2016: 779-788.

        [7] REDMON J, FARHADI A. YOLO9000: better, faster, stronger[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Honolulu, HI, USA, 2017: 6517-6525.

        [8] REDMON J, FARHADI A. YOLOv3: an incremental improvement[J]. arXiv preprint arXiv:180402767, 2018.

        [9] BOCHKOVSKIY A, WANG C Y, LIAO H Y M. YOLOv4: optimal speed and accuracy of object detection[EB/OL]. 2020: 2004.10934.http://arxiv.org/abs/2004.10 934v1

        [10] LIN T Y, GOYAL P, GIRSHICK R, et al. Focal loss for dense object detection[C]//2017 IEEE International Conference on Computer Vision (ICCV). Venice, Italy, 2017: 2999-3007.

        [11] 陶志勇, 杜福廷, 任曉奎, 等. 基于T-VGG的太陽(yáng)電池片缺陷檢測(cè)[J]. 太陽(yáng)能學(xué)報(bào), 2022, 43(7): 145-151.

        TAO Z Y, DU F T, REN X K, et al. Defect detection of solar cells based on T-VGG[J]. Acta energiae solaris sinica, 2022, 43(7): 145-151.

        [12] 周穎, 葉紅, 王彤, 等. 基于多尺度CNN的光伏組件缺陷識(shí)別[J]. 太陽(yáng)能學(xué)報(bào), 2022, 43(2): 211-216.

        ZHOU Y, YE H, WANG T, et al. Photovoltaic module defect identification based on mulit-scale convolution neural network[J]. Acta energiae solaris sinica, 2022, 43(2): 211-216.

        [13] 李瓊, 吳文寶, 劉斌, 等. 基于遷移學(xué)習(xí)的光伏組件鳥(niǎo)糞覆蓋檢測(cè)[J]. 太陽(yáng)能學(xué)報(bào), 2022, 43(2): 233-237.

        LI Q, WU W B, LIU B, et al. Bird droppings coverage detection of photovoltaic module based on transfer learning[J]. Acta energiae solaris sinica, 2022, 43(2): 233-237.

        [14] CHEN A D, LI X, JING H Y, et al. Anomaly detection algorithm for photovoltaic cells based on lightweight multi-channel spatial attention mechanism[J]. Energies, 2023, 16(4): 1619.

        [15] WOO S, PARK J, LEE J Y, et al. CBAM: convolutional block attention module[M]//Computer Vision-ECCV 2018. Cham: Springer International Publishing, 2018: 3-19.

        [16] HARTIGAN J A, WONG M A. Algorithm AS 136: a K-means clustering algorithm[J]. Applied statistics, 1979, 28(1): 100.

        [17] ZHENG Z H, WANG P, LIU W, et al. Distance-IoU loss: faster and better learning for bounding box regression[J]. Proceedings of the AAAI conference on artificial intelligence, 2020, 34(7): 12993-13000.

        [18] ZEILER M D, FERGUS R. Visualizing and understanding convolutional networks[M]//Computer Vision–ECCV 2014. Cham: Springer International Publishing, 2014: 818-833.

        [19] LIN T Y, DOLLáR P, GIRSHICK R, et al. Feature pyramid networks for object detection[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Honolulu, HI, USA, 2017: 936-944.

        [20] LI H C, XIONG P F, AN J, et al. Pyramid attention network for semantic segmentation[EB/OL]. 2018: 1805.10180.http://arxiv.org/abs/1805.10180v3

        [21] TAN M X, PANG R M, LE Q V. EfficientDet: scalable and efficient object detection[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Seattle, WA, USA, 2020: 10778-10787.

        [22] ZHANG H Y, WANG Y, DAYOUB F, et al. VarifocalNet: an IoU-aware dense object detector[C]//2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Nashville, TN, USA, 2021: 8510-8519.

        [23] HOU Q B, ZHOU D Q, FENG J S. Coordinate attention for efficient mobile network design[C]//2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Nashville, TN, USA, 2021: 13708-13717.

        [24] HU J, SHEN L, SUN G. Squeeze-and-excitation networks[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, UT, USA, 2018: 7132-7141.

        [25] SU B Y, ZHOU Z, CHEN H Y. PVEL-AD: a large-scale open-world dataset for photovoltaic cell anomaly detection[J]. IEEE transactions on industrial informatics, 2023, 19(1): 404-413.

        YOLOv5 IS USED IN OPTIMIZATION OF SURFACE DEFECT

        DETECTION OF SOLAR CELLS

        Li Yujuan1,2,Zhou Jielong3,Mai Yaohua2,4,Wu Shaohang2,4,Gao Yanyan2,4,Li Yang1

        (1. Faculty of Intelligent Manufacturing, Wuyi University, Jiangmen 529020, China;

        2. Guangdong Mellow Energy Co., Ltd., Guangzhou 510630, China ;

        3. Guangzhou Beihuan Intelligent Transportation Technology Co., Ltd., Guangzhou 510030, China;

        4. Institute of New Energy Technology, Jinan University, Guangzhou 510632, China)

        Abstract:In the field of new energy application technology, surface defect detection of solar cells is a crucial technical component. An optimized model based on the YOLOv5 algorithm is researched and proposed, which can detect static images and be used in real-time video. The model incorporates coordinate attention (CA) into the backbone network of YOLOv5 and optimizes the feature fusion part of the neck network using BiFPN structure. Furthermore, to address the issue of imbalanced positive and negative samples, Focal Loss is employed and optimized to Varifocal Loss. This optimized algorithm is applied to the PVEL-AD dataset, with mAP@0.5 used as the validation metric. The validation results demonstrate that the algorithm achieves a detection accuracy of 86.24%, which represents a 5.64% improvement compared to the unoptimized original algorithm.

        Keywords:object detection; convolutional neural networks; deep learning; solar cells; YOLOv5

        猜你喜歡
        深度學(xué)習(xí)
        從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
        面向大數(shù)據(jù)遠(yuǎn)程開(kāi)放實(shí)驗(yàn)平臺(tái)構(gòu)建研究
        基于自動(dòng)智能分類器的圖書館亂架圖書檢測(cè)
        搭建深度學(xué)習(xí)的三級(jí)階梯
        有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
        電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
        利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
        考試周刊(2016年94期)2016-12-12 12:15:04
        MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
        大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        国产欧美高清在线观看| 吃下面吃胸在线看无码| 亚洲综合精品一区二区三区| 男人天堂亚洲天堂av| 国产精品99无码一区二区| 丰满爆乳一区二区三区| 亚洲精品无amm毛片| 中文字幕av日韩精品一区二区 | 国产美女黄性色av网站| 顶级高清嫩模一区二区| 美腿丝袜在线一区二区| 18国产精品白浆在线观看免费| 牲欲强的熟妇农村老妇女| 中文字幕亚洲精品第1页| 亚洲国产精品av麻豆一区| 又黄又爽又色视频| 午夜男女爽爽爽在线视频| 精品国产一区二区三区亚洲人| 口爆吞精美臀国产在线| 少妇久久久久久被弄高潮| 97久久天天综合色天天综合色hd | 日韩精品无码av中文无码版| 国产精品原创永久在线观看| 国产麻豆剧传媒精品国产av| 久久精品夜色国产亚洲av| 亚洲国产成人91| 精品人妻一区二区三区av| 久久午夜av一区二区三区| 久久久噜噜噜www成人网| 97久久综合区小说区图片专区| 蜜桃夜夜爽天天爽三区麻豆av| 国产二区交换配乱婬| 99久久er这里只有精品18| 国产高清a| 91国产自拍精品视频| а√天堂资源官网在线资源| 国产亚洲亚洲精品777| 亚洲综合精品一区二区三区| 亚洲成av人片不卡无码| 亚洲色大网站www永久网站| 亚洲人成网站www|