關(guān)鍵詞:女褲結(jié)構(gòu)特征;YOLOv8;女褲制版;款式圖識(shí)別;相似款式圖匹配中圖分類號(hào):TS941.71 文獻(xiàn)標(biāo)志碼:A 文章編號(hào):1673-3851(2025)07-0507-08引用格式:,.基于YOLOv8的女褲結(jié)構(gòu)特征識(shí)別方法[J].學(xué)報(bào)(自然科學(xué)),2025,53(4) :507-514.Reference Format: LI Meng, CHEN Minzhi.A structural feature recognition method of women's pantsbased onYOLOv8[J]. Journal of Zhejiang Sci-Tech University,2025,53(4) :507-514.
Abstract: To facilitate the matching of clothing style sketches and the swift generation of template maps,so as to improve the pattern-making efficiency of apparel enterprises,a YOLOv8-based method for identifying structural features of women's pants was proposed. This method matches similar style sketches by recognizing the structural features of women's pants. According to patern-making rules for women's pants,a clasification system for structural features was established, encompassing six key modules: silhouette,waist structure, hip structure,crotch structure, placket,and pockets,which were further subdivided into 23 categories.These structural features were then encoded according to the classification system to obtain category labels. Taking mannequin-based style sketches as the research object, samples of women's pants were drawn. By formulating and unifying sample annotation rules,a dataset suitable for structural feature recognition was created. The enhanced dataset of style sketches was recognized using YOLOv8,and the model was applied to match similar style sketches and rapidly generate pattern drawings. The results indicate that this method can effectively classify the structural features of women's pants,with an overall classification accuracy of 97.8% and a mean average precision of 99.0% . It provides an effective approach for the recognition and application of garment structural features.
Key words: structural characteristics of women' s pants; YOLOv8;women's pants plate making pattern recognition; similar style sketch matching
0 引言
傳統(tǒng)的服裝制版需要制版師人工分析款式圖信息并繪制樣板圖,容易受主觀判斷的影響,造成款式特征誤判、款式圖到樣板圖的轉(zhuǎn)換差異大以及生產(chǎn)效率低等問題[1]。依據(jù)款式圖與樣板圖之間的對(duì)應(yīng)關(guān)系,利用服裝款式圖的全局與局部特征對(duì)款式圖進(jìn)行識(shí)別,能實(shí)現(xiàn)款式圖的自動(dòng)分類以及相似款式的檢索,完成樣板的自動(dòng)轉(zhuǎn)化,從而提高服裝企業(yè)的生產(chǎn)效率。
近年來,利用深度學(xué)習(xí)技術(shù)進(jìn)行服裝圖像的特征提取和識(shí)別分類等相關(guān)研究得到了廣泛關(guān)注針對(duì)服裝局部特征風(fēng)格難以識(shí)別的問題,Yue等[3]提出一種基于服裝圖像和設(shè)計(jì)問題圖的聯(lián)合組成的卷積神經(jīng)網(wǎng)絡(luò)模型,實(shí)現(xiàn)了不同款式的服裝風(fēng)格的識(shí)別。吳歡等4]采用CaffeNet卷積神經(jīng)網(wǎng)絡(luò)模型解決了廓形相似、類別相同的女褲款式圖難以識(shí)別的問題,提高了服裝廓形的識(shí)別準(zhǔn)確率。江慧等[5]通過構(gòu)建服裝款式的風(fēng)格特征模型,實(shí)現(xiàn)了服裝風(fēng)格的款式相似度計(jì)算。目前對(duì)款式圖的識(shí)別側(cè)重于色彩、紋理與風(fēng)格等[6-7全局特征的分類,而服裝樣板如褲子還需要考慮省道、門襟等細(xì)部特征。
針對(duì)上述問題,本文提出了一種基于YOLOv8的女褲結(jié)構(gòu)特征識(shí)別方法。該方法將相似款式圖的匹配轉(zhuǎn)化為對(duì)款式圖中結(jié)構(gòu)特征的識(shí)別。參照女褲制版知識(shí),選定款式圖中需要識(shí)別的結(jié)構(gòu)特征共有23個(gè),并設(shè)計(jì)類別標(biāo)簽,為構(gòu)建數(shù)據(jù)集提供依據(jù);通過繪制人臺(tái)式款式圖和制定標(biāo)注規(guī)則,構(gòu)建了女褲數(shù)據(jù)集;選擇YOLOv8作為識(shí)別實(shí)驗(yàn)的模型,實(shí)現(xiàn)了女褲結(jié)構(gòu)特征的準(zhǔn)確識(shí)別;最后將模型輸出的結(jié)構(gòu)特征類別標(biāo)簽,與數(shù)據(jù)庫中類別標(biāo)簽對(duì)應(yīng)的款式圖進(jìn)行匹配,檢索出相似款式圖,并依據(jù)款式圖與樣板圖的對(duì)應(yīng)關(guān)系,調(diào)用并修改樣板圖得到目標(biāo)樣板,實(shí)現(xiàn)樣板的快速生成。由于該模型能夠快速定位和識(shí)別圖像中的細(xì)節(jié)特征,因而能提高服裝結(jié)構(gòu)特征識(shí)別技術(shù)在服裝檢索系統(tǒng)中的應(yīng)用價(jià)值。
1女褲款式圖結(jié)構(gòu)特征
1. 1 結(jié)構(gòu)特征分類
本文以女褲人臺(tái)式款式圖為研究對(duì)象,其結(jié)構(gòu)特征主要描述制版規(guī)則的款式信息,不考慮服裝面料材質(zhì)、色彩和花邊等具有裝飾性的細(xì)節(jié)。參考女褲制版方法[8],繪制基礎(chǔ)框架,再繪制局部細(xì)節(jié)的模式,總結(jié)出對(duì)款式圖需要識(shí)別的結(jié)構(gòu)特征,包括褲長(zhǎng)、廓形、腰部結(jié)構(gòu)、臀部結(jié)構(gòu)、襠部結(jié)構(gòu)和內(nèi)部細(xì)節(jié)等6個(gè)模塊,具體的分類體系如圖1所示。本文統(tǒng)一將長(zhǎng)褲作為研究對(duì)象,故不對(duì)褲長(zhǎng)進(jìn)行分類。廓形可歸納為直筒褲、錐形褲、闊腿褲、喇叭褲、緊身褲和蘿下褲;腰部結(jié)構(gòu)的設(shè)計(jì)通常是腰位的變化和腰下造型設(shè)計(jì),其中腰位分為高腰、中腰和低腰3類,褲裝腰部的省道和褶裯只是工藝的不同,故腰下造型可分為省道(褶裯)、較多褶櫚、無褶裯。臀部結(jié)構(gòu)按照臀圍松量大小分為合體臀、較寬松臀、寬松臀;襠部結(jié)構(gòu)主要考慮襠部位置,可分為常規(guī)襠位、低襠位;內(nèi)部細(xì)節(jié)設(shè)計(jì)有門襟和口袋(腰部口袋),門襟包括有門襟和無門襟,口袋分為貼袋、挖袋和插袋和無袋等4類。經(jīng)過15名專家評(píng)定所設(shè)計(jì)的分類體系涵蓋了現(xiàn)有的大部分女褲款式。
1. 2 標(biāo)簽設(shè)計(jì)
對(duì)款式圖中的特征進(jìn)行標(biāo)簽設(shè)計(jì)是將繁雜信息簡(jiǎn)單化表達(dá),有利于更好地歸納款式結(jié)構(gòu)特征以及構(gòu)建款式圖數(shù)據(jù)集。依據(jù)女褲結(jié)構(gòu)特征識(shí)別體系,本文共設(shè)計(jì)了7類標(biāo)簽,每類標(biāo)簽又包含了不同類別,編碼結(jié)果如表1所示。將每個(gè)類別按照字母與數(shù)字組合的方式進(jìn)行編碼,以便于后續(xù)樣本標(biāo)注和數(shù)據(jù)整理。
2 識(shí)別實(shí)驗(yàn)
2.1 模型選擇與搭建
本文采用YOLOv8作為女褲結(jié)構(gòu)特征識(shí)別的模型。該模型僅進(jìn)行一次前向傳播就可以同時(shí)實(shí)現(xiàn)標(biāo)定框的位置預(yù)測(cè)和類別預(yù)測(cè),常用于目標(biāo)檢測(cè)、實(shí)例分割和關(guān)鍵點(diǎn)檢測(cè)等任務(wù)。與FasterR-CNN、SSD、低版本YOLO相比,YOLOv8具有更高的檢測(cè)精度、更快的檢測(cè)速度、更輕量化以及更廣泛的應(yīng)用場(chǎng)景等優(yōu)點(diǎn)[9]。同時(shí),YOLOv8適用于背景信息簡(jiǎn)單的黑白人臺(tái)式款式圖的深度學(xué)習(xí),能夠快速識(shí)別圖像中的底層特征和細(xì)節(jié)特征。
YOLOv8結(jié)構(gòu)主要由輸入端(Input)、主干網(wǎng)絡(luò)(Backbone)、頸部(Neck)和檢測(cè)頭(Head)等4個(gè)模塊組成[10]。用于女褲結(jié)構(gòu)特征識(shí)別的YOLOv8結(jié)構(gòu)如圖2所示。其中主干網(wǎng)絡(luò)的初始端由兩個(gè) 3× 3的卷積核的Conv模塊提取款式圖的初步特征,C2f擴(kuò)大網(wǎng)絡(luò)感受野并增強(qiáng)網(wǎng)絡(luò)深度,SPPF模塊使用快速的空間金字塔池化操作,以提取更全面的特征信息并減少冗余的計(jì)算;Neck模塊采用上采樣、下采樣調(diào)整圖像尺寸和Concat操作,以實(shí)現(xiàn)不同尺度的特征信息融合,并將結(jié)果輸人Head網(wǎng)絡(luò);Head部分的3個(gè)檢測(cè)頭,負(fù)責(zé)檢測(cè)大、中、小尺寸的目標(biāo)特征,并采用2個(gè)任務(wù)分支對(duì)圖像進(jìn)行分類和回歸預(yù)測(cè),輸出圖像的類別信息和標(biāo)定框的位置信息。
2.2 數(shù)據(jù)集構(gòu)建
2.2.1 數(shù)據(jù)集準(zhǔn)備
為了準(zhǔn)確地判別女褲的廓形和臀圍松量,本文選用“人臺(tái)式\"款式圖[11作為研究對(duì)象,它能直觀地反映女褲的著裝效果以及服裝與人臺(tái)間的關(guān)系。按照160/66A標(biāo)準(zhǔn)女體下裝人臺(tái)的尺寸和關(guān)鍵圍度數(shù)據(jù),將人臺(tái)進(jìn)行等比例縮小實(shí)現(xiàn)二維平面轉(zhuǎn)化,減少多余線條對(duì)款式圖特征提取時(shí)的干擾。收集服裝企業(yè)和相關(guān)網(wǎng)站的女褲款式圖,參照這些圖像和分類體系,利用CoreldrawX8繪圖軟件在二維人臺(tái)底圖上繪制2500余張女褲款式圖,獲得了款式多樣的女褲數(shù)據(jù)集。其中每種廓形的款式圖各416張,其余特征數(shù)量最少為402張,數(shù)量最多為1378張。采用數(shù)據(jù)增強(qiáng)處理數(shù)據(jù),擴(kuò)充數(shù)據(jù)集,并通過數(shù)據(jù)調(diào)節(jié)改善數(shù)據(jù)集中同一特征不同類別分布不均問題,提高模型泛化能力。數(shù)據(jù)增強(qiáng)包括圖像的明暗變化、隨機(jī)旋轉(zhuǎn)、垂直翻轉(zhuǎn)、加入椒鹽噪聲和高斯模糊等,圖像增強(qiáng)后的效果如圖3所示。增強(qiáng)后的數(shù)據(jù)集有款式圖18016張,不同類別的結(jié)構(gòu)特征數(shù)量分布相對(duì)平衡。
2.2.2 數(shù)據(jù)集的標(biāo)注
依據(jù)女褲結(jié)構(gòu)特征的類別標(biāo)簽,運(yùn)用Labelimg對(duì)數(shù)據(jù)集進(jìn)行標(biāo)注,并采用txt文檔記錄結(jié)構(gòu)特征的標(biāo)注框類型及二維坐標(biāo)信息。女褲款式圖中省道口袋等特征相對(duì)直觀,而臀圍松量大小和廓形不能直觀地判斷,需要參考腰下褶裯和臀部至大腿中部的輪廓線內(nèi)凹外展的程度進(jìn)行判斷??钍綀D標(biāo)注示例如圖4所示。為了規(guī)范和統(tǒng)一數(shù)據(jù)集,本文制定了標(biāo)注規(guī)則,具體如下。
a)對(duì)于口袋和腰下造型等左右對(duì)稱的特征,標(biāo)注時(shí)不區(qū)分左右,僅標(biāo)注一邊;同時(shí)為了標(biāo)注界面清晰,腰下造型僅標(biāo)注左邊,腰部口袋僅標(biāo)注右邊。
b)腰位以人臺(tái)腰圍線為參照進(jìn)行類別判斷,腰位的標(biāo)注需包含褲子的腰部和人臺(tái)的腰圍線。
c)臀部結(jié)構(gòu)以褲裝與人體臀圍線和大腿之間的距離為判斷依據(jù),標(biāo)注時(shí)需包含部分褲子和人臺(tái)的側(cè)輪廓。d)襠位的判斷以人臺(tái)襠部和褲子的內(nèi)側(cè)縫線的交點(diǎn)為參照,標(biāo)注時(shí)需將兩者進(jìn)行整體標(biāo)注。e)有門襟時(shí)需要標(biāo)注門襟的整體結(jié)構(gòu),無門襟時(shí)以前中線為參照按門襟一般所在位置標(biāo)注。
2.3 YOLOv8實(shí)驗(yàn)
2.3.1 環(huán)境與參數(shù)設(shè)置
本文的實(shí)驗(yàn)硬件環(huán)境為Windows11系統(tǒng),GPU為NvidiaRTX4060,硬盤512GBSSD,并以Pytorch為框架,Cuda為訓(xùn)練環(huán)境。模型訓(xùn)練過程的具體參數(shù)值如表2所示,YOLOv8輸入的女褲款式圖經(jīng)過輸入端的縮放、裁剪、歸一化等預(yù)處理操作后圖像分辨率為 640×640 像素,共訓(xùn)練200 個(gè)epoch。
2.3.2 模型訓(xùn)練
將數(shù)據(jù)集按照8:2的比例進(jìn)行劃分,其中訓(xùn)練集14413張,驗(yàn)證集3603張。訓(xùn)練集用來確定模型的學(xué)習(xí)參數(shù),驗(yàn)證集主要用來測(cè)試和評(píng)估模型性能。模型從訓(xùn)練集中隨機(jī)選取參加訓(xùn)練的圖像,并輸入卷積層提取特征,通過移動(dòng)感受野對(duì)圖像不斷進(jìn)行卷積和最大池化,再經(jīng)過特征融合后獲得不同語義的特征圖,最后由全連接層輸出結(jié)構(gòu)特征的類別標(biāo)簽和標(biāo)定框位置。YOLOv8采用BCE二元交叉熵作為分類損失函數(shù),如式(1)所示,通過比較模型輸出的概率值和真實(shí)的標(biāo)簽值來評(píng)估模型的表現(xiàn)?;貧w損失采用CIOULoss十DFL結(jié)合計(jì)算邊框回歸,該損失函數(shù)以交叉熵的形式讓網(wǎng)絡(luò)更快地聚焦到目標(biāo)位置,具體如式(2)—(3)所示:
其中: L 表示模型的分類損失, N 為樣本數(shù)量, xi 為模型的預(yù)測(cè)概率, yi 為真實(shí)的標(biāo)簽值。
(1-f2)log(s(1-zij))]
其中: b 為邊界框的數(shù)量, J 為離散區(qū)間數(shù)量, f 為真實(shí)與預(yù)測(cè)邊界框的差值, s 為 sigmoid 函數(shù), z 為預(yù)測(cè)邊界框的位置分布; IoU 為真實(shí)框與預(yù)測(cè)框的交并比, d 為兩個(gè)邊界框中心點(diǎn)的歐氏距離, c 為邊界框?qū)蔷€的長(zhǎng)度, w 和 υ 分別為與長(zhǎng)寬比相關(guān)的權(quán)重和度量。
2.3.3 模型應(yīng)用
本文通過YOLOv8女褲結(jié)構(gòu)特征識(shí)別實(shí)驗(yàn),完成相似款式圖的檢索以及樣板的快速生成,具體方法如圖5所示。將女褲人臺(tái)式款式圖作為結(jié)構(gòu)特征識(shí)別網(wǎng)絡(luò)模型的輸入,識(shí)別輸出為結(jié)構(gòu)特征編碼,即類別標(biāo)簽。結(jié)構(gòu)特征編碼通過匹配模型,與數(shù)據(jù)庫中款式圖對(duì)應(yīng)的結(jié)構(gòu)特征編碼進(jìn)行匹配,快速檢索出具有相同結(jié)構(gòu)特征的款式圖,完成相似款式圖的匹配;數(shù)據(jù)庫中的女褲款式圖與結(jié)構(gòu)圖是對(duì)應(yīng)的數(shù)據(jù),通過匹配的款式圖,調(diào)用并修改對(duì)應(yīng)的樣板圖,得到目標(biāo)樣板。
2. 4 結(jié)果分析
為驗(yàn)證YOLOv8模型在女褲結(jié)構(gòu)特征識(shí)別分類任務(wù)中的整體準(zhǔn)確率,對(duì)訓(xùn)練好的模型進(jìn)行多指標(biāo)的評(píng)估。圖6為模型訓(xùn)練時(shí)的損失函數(shù)曲線圖,從圖中可知隨著訓(xùn)練輪數(shù)增加模型的定位、分類損失數(shù)值越小,模型識(shí)別效果越好。圖7為模型訓(xùn)練的平均精度均值(mAP)曲線,當(dāng)模型的IoU設(shè)置為0.5,訓(xùn)練次數(shù)達(dá)到100時(shí),所有結(jié)構(gòu)特征的mAP曲線在 99% 附近趨于穩(wěn)定,得到mAP值為99.0% ,且在訓(xùn)練過程中沒有過擬合或欠擬合現(xiàn)象。
將驗(yàn)證集在訓(xùn)練好的模型中進(jìn)行測(cè)試,采用混淆矩陣、精確率(Precision)、召回率(Recall)和 F1 值作為YOLOv8模型評(píng)估指標(biāo),其中 F1 是精確率和召回率的調(diào)和平均數(shù)。精確率、召回率和 F1 數(shù)值越接近1,證明模型的識(shí)別效果越好[12]。圖8為驗(yàn)證集測(cè)試后得到的混淆矩陣,混淆矩陣的行和列分別表示模型預(yù)測(cè)的類別和實(shí)際的類別,對(duì)角線表示正確識(shí)別的樣本數(shù)量,顏色越深則該類別預(yù)測(cè)正確的數(shù)量越多。從圖8中可以看出:可視化的混淆矩陣不僅能計(jì)算所有類別預(yù)測(cè)的正確數(shù)量和錯(cuò)誤數(shù)量,還能反映各類別的數(shù)量差異情況;如,喇叭褲A4的總數(shù)量為600,其中預(yù)測(cè)的正確數(shù)量為586,錯(cuò)誤數(shù)量為14,并且廓形的各個(gè)類別的總數(shù)量分布相對(duì)均衡,均在610范圍浮動(dòng)。
模型在女褲結(jié)構(gòu)特征中的檢測(cè)準(zhǔn)確率對(duì)比如圖9所示。從圖9中可知:模型識(shí)別準(zhǔn)確率最高為99.5% ,最低為 77.9% ;其中廓形、腰位的準(zhǔn)確率最高均在 94.0% 以上,而腰下造型和臀部結(jié)構(gòu)的準(zhǔn)確率較低分別為 83.2%.79.6% ,其他特征則居中。從數(shù)據(jù)集中各特征的分布數(shù)量發(fā)現(xiàn),數(shù)據(jù)集多少并不是影響類別識(shí)別準(zhǔn)確率的主要原因。在女褲結(jié)構(gòu)特征識(shí)別過程中,腰部省道或褶櫚有一部分會(huì)被褲子口袋遮擋,造成圖像識(shí)別困難;臀圍松量需要依據(jù)與人體臀部以及大腿中部的偏移程度來衡量,人臺(tái)底圖的存在會(huì)對(duì)臀部結(jié)構(gòu)的識(shí)別形成干擾。側(cè)縫口袋遮擋了部分臀圍線,同樣也降低了圖像識(shí)別的準(zhǔn)確率。通過驗(yàn)證集計(jì)算出模型的總體精確率為97.8% ,召回率為 98.3% , F1 值為0.98,表明模型不僅適用于外輪廓的識(shí)別,還具備對(duì)內(nèi)部細(xì)節(jié)特征良好的識(shí)別能力。部分遮擋的特征信息影響了模型的特征識(shí)別準(zhǔn)確率。
采用YOLOv8對(duì)女褲結(jié)構(gòu)特征識(shí)別的結(jié)果如表3所示,從表中可以看出,模型對(duì)各個(gè)特征的識(shí)別準(zhǔn)確率較高,其中廓形的識(shí)別準(zhǔn)確率最高。通過YOLOv8的深度學(xué)習(xí)方法可以實(shí)現(xiàn)對(duì)女褲結(jié)構(gòu)特征的準(zhǔn)確識(shí)別。
3結(jié)論
本文提出了一種基于YOLOv8的服裝結(jié)構(gòu)特征識(shí)別方法,并將女褲款式圖的匹配轉(zhuǎn)化為對(duì)結(jié)構(gòu)特征的識(shí)別,實(shí)現(xiàn)相似款式圖的匹配和樣板的快速生成。主要結(jié)論如下:
a)結(jié)合制版師繪制樣板圖的方法建立女褲結(jié)構(gòu)特征分類體系,并對(duì)這些結(jié)構(gòu)特征設(shè)計(jì)分類標(biāo)簽,提高了數(shù)據(jù)讀取和分類效率。
b)利用人臺(tái)為底圖建立女褲人臺(tái)式款式圖樣本庫,通過數(shù)據(jù)增強(qiáng)方法擴(kuò)充數(shù)據(jù)集,提高了模型的泛化能力;基于YOLOv8的深度學(xué)習(xí)方法對(duì)數(shù)據(jù)集展開訓(xùn)練,采用混淆矩陣對(duì)驗(yàn)證集的測(cè)試結(jié)果進(jìn)行可視化,訓(xùn)練后模型的總體精確率為 97.8% , mAP 值達(dá)到 99.0% ,其中廓形識(shí)別精度最高,表明模型能夠自動(dòng)實(shí)現(xiàn)對(duì)服裝款式結(jié)構(gòu)特征的識(shí)別和分類。
本文提出的女褲結(jié)構(gòu)特征識(shí)別方法在服裝款式圖檢索和服裝制版系統(tǒng)中有一定的應(yīng)用前景,但針對(duì)款式圖被遮擋、信息不全等問題,模型的識(shí)別準(zhǔn)確率還有待提高。后續(xù)研究將進(jìn)一步提高模型對(duì)較復(fù)雜的圖像的識(shí)別能力,如考慮增加分割線,對(duì)女褲結(jié)構(gòu)特征進(jìn)行更細(xì)致的分類,進(jìn)而拓展其在服裝款式圖檢索系統(tǒng)中的應(yīng)用。
參考文獻(xiàn):
[1]李濤,杜磊,黃振華,等.服裝款式圖識(shí)別與樣板轉(zhuǎn)換技術(shù)研究進(jìn)展[J].紡織學(xué)報(bào),2020,41(8):145-151.
[2]陳巧紅,陳翊,孫麒,等.服裝圖像分類技術(shù)綜述[J].學(xué)報(bào)(自然科學(xué)版),2019,41(5):631-64.
[3] Yue X D, Zhang C,F(xiàn)ujita H,et al. Clothing fashion stylerecognition with design issue graph[J]. Appl Intell,2o21,51(6):3548-3560.
[4]吳歡,丁笑君,李秦曼,等.采用卷積神經(jīng)網(wǎng)絡(luò)CaffeNet模型的女褲廓形分類[J].紡織學(xué)報(bào),2019,40(4):117-121.
[5]江慧,馬彪.基于服裝風(fēng)格的款式相似度算法[J].紡織學(xué)報(bào),2021,42(11):129-136.
[6]劉蓉,謝紅.基于改進(jìn)的AlexNet網(wǎng)絡(luò)的服裝廓形識(shí)別[J].北京服裝學(xué)院學(xué)報(bào)(自然科學(xué)版),20,43(3):64-69.
[7]夏明,宋婧,姜朝陽,等.基于連衣裙結(jié)構(gòu)特征匹配的款式識(shí)別技術(shù)[J].紡織學(xué)報(bào),2020,41(7):141-146.
[8]張文斌.服裝結(jié)構(gòu)設(shè)計(jì)[M].北京:中國紡織出版社,2006:70-74.
[9]李海源,黃?。赮OLOv8的無人機(jī)紅外航拍目標(biāo)檢測(cè)方法[J/OL]. 激光雜志:1-9(2024-07-14)[2024-11-11]. http://kns.cnki. net/kcms/detail/50.1085. TN. 20240710.200.006.html.
[10]張恩召,李磊,汪建華,等.基于改進(jìn)YOLOv8的船板焊縫質(zhì)量檢測(cè)方法[J].陜西科技大學(xué)學(xué)報(bào),2024,42(6):172-179.
[11]周幸子.連衣裙款式圖的識(shí)別和樣板的自動(dòng)生成研究[D].上海:東華大學(xué),2021:5-7.
[12]范博淦,王淑青,陳開元.基于改進(jìn)YOLOv8的航拍無人機(jī)小目標(biāo)檢測(cè)模型[J/OL].計(jì)算機(jī)應(yīng)用.(2024-10-17)[2024-11-02].https://link.cnki. net/urlid/51.1307.tp. 20241017.1040. 004.
(責(zé)任編輯:張會(huì)?。?/p>