亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于卷積神經(jīng)網(wǎng)絡(luò)的面料檢索系統(tǒng)

        2023-09-14 09:31:48彪,毋
        關(guān)鍵詞:特征模型

        王 彪,毋 濤

        (西安工程大學(xué) 計(jì)算機(jī)科學(xué)學(xué)院,陜西 西安 710600)

        0 引 言

        近些年來(lái),隨著互聯(lián)網(wǎng)經(jīng)濟(jì)的快速發(fā)展,電子商業(yè)也進(jìn)入了蓬勃發(fā)展的階段,消費(fèi)者對(duì)于以紡織面料為原材料的商品,如服裝、鞋等的需求量大大增加。面料生產(chǎn)企業(yè)為了能滿(mǎn)足市場(chǎng)需求,不得不研究生產(chǎn)新的面料,這樣也就導(dǎo)致市場(chǎng)上的面料種類(lèi)越來(lái)越多,從而給面料生產(chǎn)企業(yè)帶來(lái)了一個(gè)新的問(wèn)題,即如何從種類(lèi)繁雜的面料中快速、精準(zhǔn)地檢索到目標(biāo)面料[1]。

        傳統(tǒng)的紡織企業(yè)在進(jìn)行面料檢索時(shí),一般都是采取人工的方式進(jìn)行。該方式不僅費(fèi)時(shí)費(fèi)力,檢索結(jié)果還附帶主觀性的影響,不能達(dá)到用戶(hù)對(duì)檢索速度和準(zhǔn)確度的要求[2]。市場(chǎng)上雖然存在成熟的圖像檢索方法和系統(tǒng),但是由于面料圖像的特殊性,并不適用于面料圖像的檢索需求,需要進(jìn)行較大的改進(jìn)。

        在圖像檢索領(lǐng)域,主要存在兩種技術(shù):基于文本的圖像檢索(Text-Based Image Retrieval,TBIR)和基于內(nèi)容的圖像檢索(Content-Based Image Retrieval,CBIR)[3-6]。TBIR,需要人為地對(duì)圖像進(jìn)行文本標(biāo)注,具有效率低、查找不準(zhǔn)的缺點(diǎn)。CBIR,提取圖像的淺層視覺(jué)特征或深層語(yǔ)義特征,結(jié)合相似度度量方法,從數(shù)據(jù)庫(kù)中檢索出最為相似的top-k張圖片,這是目前國(guó)內(nèi)外研究的熱點(diǎn)[7]。徐佳等人[8]提出一種基于全局和局部相位特征相融合的圖像檢索算法。王妙[9]提出基于深度學(xué)習(xí)的印花織物圖像檢索系統(tǒng)設(shè)計(jì),采用哈希算法的粗檢索和卷積神經(jīng)網(wǎng)絡(luò)的細(xì)致檢索相結(jié)合的分級(jí)檢索,在提高精度的基礎(chǔ)上進(jìn)一步提高了速度。Xia等人[10]提出的CNNH通過(guò)對(duì)相似度矩陣進(jìn)行分解,得到樣本的哈希碼,再利用卷積神經(jīng)網(wǎng)絡(luò)對(duì)哈希碼進(jìn)行擬合。Lai等人[11]提出DNNH。該方法對(duì)網(wǎng)絡(luò)結(jié)構(gòu)做了針對(duì)性的設(shè)計(jì):用部分連接取代全連接,引入分段量化函數(shù)。Zhang等人[12]提出的DRSCH用加權(quán)的漢明距離代替普通的漢明距離,這種方法可以提高計(jì)算距離的效率和精度,但是時(shí)間復(fù)雜度也會(huì)增加。Lin等人[13]在AlexNet的F7和F8之間加入一個(gè)全連接層,基于由粗到細(xì)的策略,利用學(xué)習(xí)到的類(lèi)哈希二進(jìn)制碼和F7層特征,實(shí)現(xiàn)圖片檢索。該方法降低了特征匹配的計(jì)算量,加速了檢索速度,但是不能保證哈希碼相似的圖像在語(yǔ)義上也相似,因此檢索精度不高。何彬等人[1]提出了一種基于InceptionV3遷移學(xué)習(xí)的面料圖像特征提取算法。該算法在Inception中加入哈希編碼層,并優(yōu)化了損失函數(shù),將模型輸出的哈希編碼作為面料圖像的特征向量,采用分級(jí)檢索的策略進(jìn)行檢索。該方法雖然在精度和時(shí)間上優(yōu)于一般的檢索算法,但是由于采用的暴力檢索策略,在速度上仍有較大的提升空間。劉瑞昊等[7]通過(guò)改進(jìn)LresNet50E-IR網(wǎng)絡(luò)結(jié)構(gòu),將其遷移學(xué)習(xí)到面料檢索上,結(jié)合faiss進(jìn)行面料圖像檢索可以取得很好的效果。但是算法采用的損失函數(shù)只能限制模型具有較好的分類(lèi)效果,不能保證相似的面料圖像的特征也相似。

        該文主要針對(duì)目前面料圖像檢索領(lǐng)域存在的“找料慢”“找料難”等問(wèn)題[14],通過(guò)結(jié)合深度學(xué)習(xí)和faiss向量檢索解決以上問(wèn)題,為紡織企業(yè)提供高效的面料管理策略。

        1 面料檢索系統(tǒng)框架

        1.1 檢索系統(tǒng)模塊

        面料圖像的檢索是以紡織企業(yè)的實(shí)際需求為依據(jù),利用卷積神經(jīng)網(wǎng)絡(luò)對(duì)面料圖像進(jìn)行特征學(xué)習(xí)、表示和匹配,從面料數(shù)據(jù)庫(kù)中檢索出相似面料圖像。系統(tǒng)分為模型訓(xùn)練、構(gòu)建面料特征數(shù)據(jù)庫(kù)和面料檢索3個(gè)模塊。模型訓(xùn)練是對(duì)VGG16[15]網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行微調(diào),同時(shí)優(yōu)化損失函數(shù),以企業(yè)提供的面料作為訓(xùn)練數(shù)據(jù)訓(xùn)練模型參數(shù),以表達(dá)面料圖像的特征;構(gòu)建面料特征數(shù)據(jù)庫(kù)是用訓(xùn)練好的模型提取面料特征,以向量的形式保存下來(lái);面料檢索是將待檢索的面料和數(shù)據(jù)庫(kù)中圖像進(jìn)行相似度匹配,排序輸出檢索結(jié)果。

        1.2 檢索整體流程

        基于CNN的面料檢索系統(tǒng)框架結(jié)構(gòu)如圖1所示。

        圖1 面料檢索整體框架流程

        該系統(tǒng)首先以企業(yè)提供的面料為訓(xùn)練集對(duì)模型進(jìn)行訓(xùn)練,得到提取面料特征的模型,對(duì)所有的面料圖形進(jìn)行特征提取,將特征向量保存在本地作為特征向量庫(kù);然后將待檢索的面料送到檢索系統(tǒng)中,提取其特征,以余弦相似度作為特征向量之間相似度的度量,將相似度最高的top-k檢索結(jié)果返回,完成一次檢索過(guò)程。

        2 相關(guān)工作

        2.1 準(zhǔn)備數(shù)據(jù)集

        企業(yè)提供真實(shí)的面料樣本,通過(guò)圖像采集設(shè)備獲得每一張面料的圖像,一共有37 002張,部分面料圖像見(jiàn)圖2。根據(jù)不同紡織機(jī)機(jī)型,對(duì)面料進(jìn)行批量的歸類(lèi),一共分為10類(lèi),分別是12E、14E、16E、18E、20E、22E、24E、26E、28E、36E。按照8∶2的比例,將數(shù)據(jù)集劃分為訓(xùn)練集和測(cè)試集,其大小分別是29 602和7 400。

        圖2 部分面料

        在模型訓(xùn)練階段,考慮到檢索情景的多樣性,提高模型的泛化能力,使檢索系統(tǒng)具有較強(qiáng)的魯棒性,對(duì)訓(xùn)練集進(jìn)行隨機(jī)水平翻轉(zhuǎn)、隨機(jī)顏色抖動(dòng)等數(shù)據(jù)增強(qiáng)操作。

        2.2 模型選擇

        面料特征的提取是整個(gè)面料檢索系統(tǒng)最核心的環(huán)節(jié)。優(yōu)秀的模型提取出的特征向量可以很好的表示圖像,也是后續(xù)進(jìn)行特征匹配的關(guān)鍵,所以模型選擇至關(guān)重要[7]。

        2.2.1 VGG16網(wǎng)絡(luò)結(jié)構(gòu)

        VGG網(wǎng)絡(luò)是2014年ImageNet大規(guī)模圖像識(shí)別大賽的亞軍,VGG16是其中的一類(lèi)模型,常用于圖像分類(lèi)、目標(biāo)檢測(cè)和圖像分割等任務(wù),其結(jié)構(gòu)如圖3所示。VGG16一共有16層,包括卷積層、池化層和全連接層。

        圖3 VGG16網(wǎng)絡(luò)結(jié)構(gòu)

        VGG16在卷積層采用3×3的小卷積核,減少了參數(shù)量,同時(shí)加快了模型的訓(xùn)練速度。在每個(gè)卷積層之后使用ReLU激活函數(shù)對(duì)特征圖進(jìn)行非線性映射以提高模型的表征能力。

        池化層的池化窗口大小為2×2,步長(zhǎng)為2,在不減少特征圖數(shù)量的前提下,縮小了特征圖的尺寸,壓縮了參數(shù)量。

        網(wǎng)絡(luò)最后是3層全連接層,融合了卷積層提取的局部特征,表達(dá)了輸入圖像的全局特征。

        2.2.2 改進(jìn)VGG16

        雖然使用3×3的卷積核減少了參數(shù)量,但是模型還是很復(fù)雜,有可能會(huì)出現(xiàn)過(guò)擬合的問(wèn)題;在檢索過(guò)程中計(jì)算兩個(gè)面料的特征向量的相似度時(shí),由于特征向量維度過(guò)高,帶來(lái)較大的計(jì)算量;交叉熵?fù)p失函數(shù)是用來(lái)分類(lèi)的損失函數(shù),只能保證模型能夠?qū)D像進(jìn)行正確的分類(lèi),不能讓模型學(xué)習(xí)相似的面料圖像的特征向量也相似。本面料檢索系統(tǒng)以VGG16為基礎(chǔ)網(wǎng)絡(luò),遷移學(xué)習(xí)其網(wǎng)絡(luò)結(jié)構(gòu),對(duì)其做出以下改進(jìn):為了避免模型發(fā)生過(guò)擬合,提高模型的泛化能力,在卷積層之后,激活層之前加入BN層;為了減少檢索過(guò)程中向量相似度計(jì)算的計(jì)算量,修改classifier部分的layer3的輸出神經(jīng)元數(shù)量為128個(gè);為了使模型學(xué)習(xí)到相似面料圖像的特征向量也相似,對(duì)損失函數(shù)進(jìn)行優(yōu)化:在原來(lái)分類(lèi)損失函數(shù)的基礎(chǔ)上加入相似度損失函數(shù)similarity。要計(jì)算相似度損失函數(shù),首先要構(gòu)建兩個(gè)相似度矩陣A和B,然后再計(jì)算A和B對(duì)應(yīng)位置元素差的平方和的均值。A和B,以及相似度損失函數(shù)的計(jì)算公式見(jiàn)式(1)、(3)、(4)。

        (1)

        式中,aij表示第i個(gè)特征向量xi和第j個(gè)特征向量xj的余弦相似度,計(jì)算公式見(jiàn)式(2)。

        (2)

        (3)

        式中,bij僅有0和1兩種取值。0表示向量xi和向量xj不屬于同一種類(lèi)別,即不相似;1表示兩個(gè)特征向量屬于同一種類(lèi)別,即相似。

        (4)

        式中,n表示特征向量的數(shù)目。

        2.3 模型訓(xùn)練

        準(zhǔn)備數(shù)據(jù)集、選擇模型和構(gòu)建損失函數(shù)這些前期工作做好后,下一步是訓(xùn)練模型。訓(xùn)練參數(shù)設(shè)置見(jiàn)表1。

        表1 模型訓(xùn)練參數(shù)

        在迭代80個(gè)epoch后,訓(xùn)練集和測(cè)試集的損失和準(zhǔn)確率都已基本收斂,將此時(shí)的網(wǎng)絡(luò)保存到本地作為構(gòu)建特征數(shù)據(jù)庫(kù)和檢索時(shí)提取面料特征的模型。

        2.4 基于faiss的圖像檢索

        faiss是Meta(原Facebook)AI團(tuán)隊(duì)為了解決海量稠密向量的檢索問(wèn)題,結(jié)合高效相似度檢索和聚類(lèi)方法,提出的一種開(kāi)源的相似度檢索庫(kù)[16]。例如,從給定的面料圖像庫(kù)中檢索出與待檢索的面料圖像相似度最高的前K張圖像,稱(chēng)為K近鄰檢索[17]。本研究借助faiss向量檢索工具,為每一張面料圖像的特征向量綁定一個(gè)唯一的索引,在損失極小的精度的情況下,大大提高了檢索的速度。

        3 對(duì)比實(shí)驗(yàn)

        為證明文中方法的可行性,與多種圖像檢索算法進(jìn)行對(duì)比。多特征融合方法結(jié)合了圖像的形狀、顏色和紋理3種特征,檢索效果要優(yōu)于單一的特征[18]。Inception_HashOP[1]通過(guò)在倒數(shù)第2層加入哈希編碼層并優(yōu)化損失函數(shù),采取分級(jí)檢索的策略進(jìn)行圖像檢索。VGG19[15]相比于VGG16在結(jié)構(gòu)上沒(méi)有太大的區(qū)別,只是比VGG16多了三層卷積層。

        3.1 評(píng)價(jià)指標(biāo)

        要比較這幾種算法的性能,首先要確定統(tǒng)一的評(píng)價(jià)指標(biāo)。該文采用圖像檢索領(lǐng)域常用的平均查準(zhǔn)率(mAP)和檢索一張面料平均消耗的時(shí)間T作為算法性能的評(píng)估指標(biāo)。

        查準(zhǔn)率(Precision)是指一張面料圖像經(jīng)過(guò)檢索,檢索結(jié)果列表中與該圖像相似的數(shù)量在檢索結(jié)果列表中所占的比例[19]。Precision的計(jì)算公式見(jiàn)式(5)。

        (5)

        式中,TP是指檢索到的相關(guān)面料,FP是指檢索到的不相關(guān)面料。

        平均查準(zhǔn)率(Average Precision,AP)表示一張面料圖像經(jīng)過(guò)檢索之后,檢索結(jié)果列表中,每個(gè)召回率點(diǎn)上的查準(zhǔn)率的均值。計(jì)算公式見(jiàn)式(6)。

        (6)

        式中,ri是指第i召回點(diǎn),R表示檢索結(jié)果中與檢索面料相似的個(gè)數(shù),P(ri)表示第i個(gè)召回點(diǎn)的查準(zhǔn)率。

        平均查準(zhǔn)率均值(mAP)是多張查詢(xún)面料的平均查準(zhǔn)率的均值[20]。計(jì)算公式見(jiàn)式(7)。

        (7)

        式中,APi表示第i個(gè)查詢(xún)面料的平均查準(zhǔn)率,n表示查詢(xún)面料的個(gè)數(shù)。

        3.2 實(shí)驗(yàn)環(huán)境

        模型訓(xùn)練是在服務(wù)器上進(jìn)行。服務(wù)器CPU(E5-2678 v3)運(yùn)行內(nèi)存122 GB,GPU(RTX3090)顯存為24 GB,使用Pytorch深度學(xué)習(xí)框架。

        3.3 實(shí)驗(yàn)過(guò)程

        從測(cè)試集中隨機(jī)抽取100張面料圖像,其余作為構(gòu)建特征數(shù)據(jù)庫(kù)的面料圖像。當(dāng)輸入一張要查詢(xún)面料圖像,經(jīng)過(guò)改進(jìn)的vgg16模型提取查詢(xún)面料圖像128維的特征向量,計(jì)算其與特征數(shù)據(jù)庫(kù)中的每一個(gè)面料的特征向量的余弦相似度,按相似度從高到低排序輸出,然后根據(jù)輸出結(jié)果計(jì)算平均查準(zhǔn)率均值mAP。具體流程見(jiàn)圖4。

        圖4 實(shí)驗(yàn)流程

        3.4 實(shí)驗(yàn)結(jié)果

        表2展示了各種算法在mAP和檢索時(shí)間上的對(duì)比??梢钥闯鲈撐奶岢龅姆椒o(wú)論是在平均查找率均值方面,還是在檢索速度上都具有巨大的優(yōu)勢(shì)。其中,雖然Inception_HashOP和文中方法在mAP上相差不多,但是由于其在特征向量相似度計(jì)算時(shí)采取的是暴力遍歷的方法,所以其檢索速度遠(yuǎn)遠(yuǎn)低于文中方法;VGG19由于提取的特征向量維度較高,所以檢索速度最低。

        表2 不同算法對(duì)比

        綜上,提出的研究方法在企業(yè)面料數(shù)據(jù)集上同時(shí)具備檢索速度快和檢索精度高的特點(diǎn),具有良好的檢索性能。

        4 檢索系統(tǒng)

        4.1 系統(tǒng)框架設(shè)計(jì)

        面料圖像檢索系統(tǒng)基于web技術(shù),主要由四個(gè)模塊組成,分別是前端模塊、后端模塊、算法模塊和數(shù)據(jù)庫(kù)模塊。如圖5所示。其中前端模塊主要負(fù)責(zé)面料圖像的上傳、接受/處理請(qǐng)求和展示面料圖像檢索的結(jié)果,后端模塊主要負(fù)責(zé)整個(gè)面料圖像檢索系統(tǒng)的圖像數(shù)據(jù)的輸入與輸出,算法模塊主要負(fù)責(zé)對(duì)查詢(xún)的面料圖像的檢索,面料圖像特征數(shù)據(jù)庫(kù)保存在MySql數(shù)據(jù)庫(kù)中,數(shù)據(jù)庫(kù)模塊主要由Redis構(gòu)成,主要負(fù)責(zé)存儲(chǔ)面料圖像及其相對(duì)應(yīng)的id,便于前端模塊的檢索結(jié)果的展示。檢索流程為:第1步,用戶(hù)通過(guò)前端頁(yè)面將待檢索的面料圖像上傳至前端;第2步,前端將面料圖像傳輸至后端;第3步,由后端對(duì)面料圖像進(jìn)行相關(guān)處理,將其輸入至算法模塊中;第4步,算法模塊將檢索結(jié)果的面料圖像id返回至后端模塊;第5步,后端將算法模塊返回的檢索結(jié)果id輸入數(shù)據(jù)庫(kù)模塊;第6步,數(shù)據(jù)庫(kù)將圖片路由返回給后端;第7步,后端將圖片路由和id返回給前端;第8步,前端模塊接收后端模塊返回的面料圖像檢索結(jié)果id和相對(duì)應(yīng)的圖片路由后,顯示給用戶(hù)。

        圖5 系統(tǒng)框架

        4.2 系統(tǒng)實(shí)現(xiàn)

        在面料檢索的檢索頁(yè)面中,點(diǎn)擊上傳按鈕上傳要查詢(xún)的面料圖像,點(diǎn)擊檢索按鈕,經(jīng)過(guò)系統(tǒng)檢索后,根據(jù)輸入的檢索數(shù)量N,系統(tǒng)的前端頁(yè)面展示出N張最相似的面料的圖像、id以及和查詢(xún)面料的相似度。檢索結(jié)果如圖6所示。

        圖6 檢索結(jié)果

        5 結(jié)束語(yǔ)

        該文提出一種基于卷積神經(jīng)網(wǎng)絡(luò)的面料檢索系統(tǒng),解決了企業(yè)面料檢索速度慢、精度低的難題。通過(guò)微調(diào)VGG16網(wǎng)絡(luò)結(jié)構(gòu),遷移學(xué)習(xí)到面料數(shù)據(jù)集上,利用CNN強(qiáng)大的表征能力,同時(shí)借助向量檢索工具faiss進(jìn)行特征向量檢索,使得檢索系統(tǒng)具有很好的性能。系統(tǒng)在面料圖像上的mAP可達(dá)到0.892,檢索時(shí)間僅為0.012秒,均優(yōu)于以往的算法。該方法存在的缺點(diǎn)是,模型訓(xùn)練時(shí)間耗時(shí)長(zhǎng),當(dāng)面料數(shù)據(jù)集更新時(shí)需要重新訓(xùn)練模型。因此,接下來(lái)可在現(xiàn)研究基礎(chǔ)上進(jìn)一步優(yōu)化網(wǎng)絡(luò),降低模型訓(xùn)練的時(shí)間,提高檢索系統(tǒng)的實(shí)用性。

        猜你喜歡
        特征模型
        一半模型
        抓住特征巧觀察
        重要模型『一線三等角』
        新型冠狀病毒及其流行病學(xué)特征認(rèn)識(shí)
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        如何表達(dá)“特征”
        不忠誠(chéng)的四個(gè)特征
        抓住特征巧觀察
        3D打印中的模型分割與打包
        FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
        中文字幕av久久激情亚洲精品 | 免费现黄频在线观看国产| 亚洲成在人线电影天堂色| 一区二区亚洲精美视频| 永久免费视频网站在线| 无码成人一区二区| 国产曰批免费视频播放免费s| 日本一区二区在线资源| 国产亚洲91精品色在线| 精品区2区3区4区产品乱码9| 日日摸夜夜添夜夜添无码免费视频| 久久久久亚洲AV无码去区首| 成人免费av高清在线| 国产精品成人免费视频一区 | 亚洲一区中文字幕视频| 免费观看成人欧美www色| 成人综合网亚洲伊人| 欧美日韩一区二区三区视频在线观看| 国产精品综合女同人妖| a级毛片免费观看在线播放| 国产精品香蕉在线观看| 中文字幕乱码中文乱码毛片| 一区二区三区四区草逼福利视频| 中文字幕乱码一区av久久不卡| 天天天综合网| 日韩av一区二区三区在线观看| 天堂网站一区二区三区| 欧洲人妻丰满av无码久久不卡| 欧美激情中文字幕在线一区二区| 亚洲中文字幕综合网站| 亚洲妇熟xxxx妇色黄| 久久国产精品久久精品国产| 成年人视频在线播放视频| 99人中文字幕亚洲区三| 亚洲国产另类精品| 久久久久久99精品| 蜜桃夜夜爽天天爽三区麻豆av| 国产超碰人人做人人爽av大片| 亚洲精品日韩自慰喷水白浆| 极品视频一区二区三区在线观看| 国产精品天天看天天狠|