亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        面向云服務(wù)平臺的產(chǎn)品感性評價及標注模型

        2021-04-12 09:31:42蘇兆婧余隋懷初建杰段曉賽
        計算機集成制造系統(tǒng) 2021年3期
        關(guān)鍵詞:語義分類產(chǎn)品

        蘇兆婧,余隋懷,初建杰,段曉賽,宮 靜

        (西北工業(yè)大學(xué)工業(yè)設(shè)計與人機工效工信部重點實驗室,陜西 西安 710072)

        0 引言

        產(chǎn)品設(shè)計活動始于收集并分析消費者需求[1]。隨著產(chǎn)品技術(shù)性能的同質(zhì)化,設(shè)計出滿足消費者感性需求的產(chǎn)品尤為重要[2]。一個成熟的產(chǎn)品設(shè)計方案的誕生是一個復(fù)雜、反復(fù)迭代的過程,其間需要不斷對設(shè)計方案進行評價及修改。面對新的機遇與挑戰(zhàn),大數(shù)據(jù)、云制造、云計算和物聯(lián)網(wǎng)等新興技術(shù)呈現(xiàn)出與設(shè)計服務(wù)產(chǎn)業(yè)相融合的趨勢[3]。因此,如何對設(shè)計云服務(wù)平臺下的大量方案及其感性語義進行快速、有效、準確的評價及標注,已成為設(shè)計決策研究領(lǐng)域的核心問題之一。

        目前,國內(nèi)外學(xué)者對于感性評價方法的研究主要集中在以下3個方面:

        (1)基于主觀評價的方法

        傅業(yè)燾等[4]采用語義差分(Semantic Differential,SD)調(diào)查問卷的方式邀請20名被試者對16個電話機樣本進行感性風(fēng)格評價,構(gòu)建了面向風(fēng)格意象的產(chǎn)品族外形基因建模與設(shè)計系統(tǒng)。蘇建寧等[5]將6名工業(yè)設(shè)計教師以45個汽車產(chǎn)品樣本的語義差分評價結(jié)果作為先驗知識,并構(gòu)建其多目標進化系統(tǒng)。Kwong等[6]搜集了84名受訪者對于8個電熨斗樣本的感性評價,進而制定多目標優(yōu)化模型并使用非支配排序遺傳算法-II進行求解(Non-dominated Sorting Genetic Algorithms,NSGA-II)。Guo[7]等搜集了36名受試者對16個樣本的評價數(shù)據(jù),利用BP 神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network,BPNN)識別關(guān)鍵設(shè)計因素與情感維度之間的定量關(guān)系,同時基于遺傳算法進行近似優(yōu)化設(shè)計。

        (2)通過測量生理信號的方式進行感性評價

        Guo等[8]基于腦電數(shù)據(jù)和事件相關(guān)電位(Event Related Potentials,ERPs)理論,衡量消費者對產(chǎn)品外觀的情感偏好。Hsu等[9]通過分析眼動數(shù)據(jù)預(yù)測人們對產(chǎn)品方案的感性評價。Shi等[10]將感性評價和功能性磁共振成像(functional Magnetic Resonance Imaging,f MRI)相結(jié)合,探索感性工學(xué)與腦認知科學(xué)交叉融合的前景。

        (3)利用計算機技術(shù)實現(xiàn)感性評價

        王亞輝等[11]提出了基于ResNet的人工智能設(shè)計決策模型,以最大限度消除決策者決策偏好的影響。朱斌等[12]提出一種基于卷積神經(jīng)網(wǎng)絡(luò)VGG-16的產(chǎn)品意象識別方法。Chanyachatchawan[13]提出一種基于語言表示的感性工學(xué)數(shù)據(jù)建模方法。Chou等[14]利用單詞計算技術(shù)(Computing With Words,CWW)進行感性評估。Jiao等[15]通過將在線產(chǎn)品信息與用戶評論相結(jié)合,提出一種基于自然語言處理(Natural Language Processing,NLP)技術(shù)的感性評價方法。在計算機技術(shù)的支撐下,利用文本挖掘技術(shù)[2,16]、BP神經(jīng)網(wǎng)絡(luò)[17]等進行感性評價的方法也成為近幾年研究的熱點之一。

        基于主觀評價的方法獲得的結(jié)果質(zhì)量較高,但需要依靠用戶積極參與研究。因此,大多數(shù)現(xiàn)有研究都是在相對較小的操作規(guī)模下進行的,無法消除評價過程中個體評價標準的差異。通過測量生理信號的方式進行感性評價的方法在一定程度上受到實驗場地和實驗設(shè)備的限制。隨著計算機技術(shù)的發(fā)展,利用NLP技術(shù)從互聯(lián)網(wǎng)產(chǎn)品評論中挖掘信息引起了人們的廣泛關(guān)注。這些模型不受實驗設(shè)備和受訪者人數(shù)的限制,同時還具有自動化和系統(tǒng)化的優(yōu)點。然而,這些方法不能提取一些特殊字符(如表情符號)所表達的情感,也無法兼容多國語言。

        因此,本研究聚焦產(chǎn)品圖像本身,利用深度學(xué)習(xí)技術(shù)消除評價過程中的個體差異,同時最大限度地節(jié)約人力、設(shè)備及時間成本,并實現(xiàn)快速、有效及準確的感性評價,是本文研究的主要目的。隨著近年來深度學(xué)習(xí)技術(shù)的飛速發(fā)展,相繼提出各種目標檢測算法[18],其中以YOLO(you only look once)[19]和SSD(single shot multi box detector)[20]為代表的基于回歸的檢測方法能較好地平衡檢測速度與精度問題。同時,DFL-CNN(learning a discriminative filter bank within a convolutional neural network)[21]算法專注于細粒度分類領(lǐng)域,因此,相較于普通深度卷積神經(jīng)網(wǎng)絡(luò),DFL-CNN 能夠在弱監(jiān)督的條件下更為精準地實現(xiàn)對產(chǎn)品感性語義的自動評價。

        1 問題描述與模型構(gòu)建

        目前,對設(shè)計方案的感性意象評價絕大多數(shù)采用語義差分法[4]和李克特量表法[22]設(shè)計問卷,然后根據(jù)問卷調(diào)查的結(jié)果進行數(shù)據(jù)分析,繼而獲取對該產(chǎn)品的感性意向評價得分。問卷調(diào)查易受到評價者評價標準的不同、調(diào)查者干擾以及評價環(huán)境的影響,因此降低了評價結(jié)果的可靠性。

        1.1 基于darknet-53的YOLOv3算法

        YOLOv3[23]網(wǎng)絡(luò)由YOLO[19]和YOLOv2[24]發(fā)展而來,與Faster R-CNN[25]相比,YOLO網(wǎng)絡(luò)無需候選區(qū)域,然后再在其上做分類回歸,YOLO 僅使用一個卷積神經(jīng)網(wǎng)絡(luò)直接預(yù)測不同目標的類別與位置,大大提高了檢測速度。

        YOLO的檢測模型如圖1所示,網(wǎng)絡(luò)將訓(xùn)練集中每個圖像劃分成S×S個網(wǎng)格,若目標物體的中心落在這個網(wǎng)格中,則該網(wǎng)格就負責(zé)預(yù)測這一目標。每個網(wǎng)格負責(zé)預(yù)測B個邊界框及其置信度(confidence),以及C個類別的條件概率。置信度反映了該網(wǎng)格內(nèi)是否包含目標物體,以及包含目標物體的情況下其位置的準確性,其計算公式如式(1)所示:

        當目標位于網(wǎng)格中時,Pr(object)=1,否則Pr(object)=0。用于表示預(yù)測邊界框與真實邊界框之間的交并比。當多個邊界框檢測到同一目標時,YOLO使用非極大值抑制(Non-Maximum Suppression,NMS)的方法來選擇最佳邊界框。

        雖然與Faster R-CNN 相比,YOLO 擁有更快的檢測速度,但它具有較大的檢測誤差,為解決該問題,YOLOv2借鑒Faster R-CNN,引入了“錨框”的思想,使用k-means聚類生成合適的先驗邊界框。YOLOv2改進了網(wǎng)絡(luò)結(jié)構(gòu),使用卷積層替換YOLO中的全連接層作為輸出層,同時引入了批歸一化、高分辨率分類器、維度聚類、直接位置預(yù)測、細粒度特征以及多尺度訓(xùn)練,其相較于YOLO大大提高了檢測精度。YOLOv3是YOLOv2的改進版,它使用更好的基礎(chǔ)分類網(wǎng)絡(luò)(Darknet-53)以及多尺度預(yù)測來檢測最終目標,其網(wǎng)絡(luò)結(jié)構(gòu)比YOLOv2 更復(fù)雜。YOLOv3能夠預(yù)測不同尺度的邊界框,多尺度預(yù)測使得YOLOv3比YOLOv2更為有效地檢測小目標。其網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。

        YOLO卷積層負責(zé)輸出檢測結(jié)果,包括目標的中心位置坐標(x,y),以及目標的寬w和高h,分別記為tx,ty,tw,th,以及置信度和類別,這種檢測分別在3個尺度上進行,分別為13×13,26×26和52×52,通道數(shù)為3。若目標中心在網(wǎng)格中相對于圖像左上角有偏移(cx,cy),并且錨點框具有高度pw和寬度ph,則修正后的邊界框如式(2)~式(5)所示:

        如圖3所示,通過對置信度設(shè)置閾值,過濾掉低分的預(yù)測框,然后對剩余預(yù)測框進行非極大值抑制處理,得到網(wǎng)絡(luò)最終的預(yù)測結(jié)果。

        YOLOv3訓(xùn)練時僅對一個物體分配一個錨點框,如果錨點框中被認為沒有包含目標物體,則使其在損失函數(shù)中不起作用,YOLOv3在訓(xùn)練過程中使用二元交叉熵作為損失函數(shù),為所有單元格預(yù)測值和真實值的均方差,損失函數(shù)共由邊界框損失、置信度損失和分類損失3部分組成,可以表示為式(6):

        式中邊界框損失由中心坐標的誤差和邊界框?qū)捙c高的誤差構(gòu)成,可以描述為式(7):

        1.2 基于VGG-16的DFL-CNN算法

        細粒度圖像分類(fine-grained categorization),又被稱作子類別圖像分類(sub-category recognition),是近年來計算機視覺、模式識別等領(lǐng)域一個非常熱門的研究課題[26]。其目的是對粗粒度的大類別進行更細致的子類劃分。細粒度圖像的類別精度更加細致,類間差異更加細微,往往只能借助于微小的局部差異才能區(qū)分出不同的類別。而設(shè)計方案的感性意象評價同樣是針對同類產(chǎn)品進行更加細致的子類劃分,因此專注于細粒度圖像分類的算法相較于普通卷積神經(jīng)網(wǎng)絡(luò)能更好的實現(xiàn)這一過程,但目前未見有研究將二者結(jié)合。

        當前的細粒度方法可大致分為定位分類子網(wǎng)絡(luò)[27](localization-calssification subnetworks)和端到端特征編碼[28](end-to-end feature encoding)兩類。第一類方法由定位網(wǎng)絡(luò)輔助的分類網(wǎng)絡(luò)組成,這些方法背后的共同動機是首先找到相應(yīng)的部分,然后比較其外觀;第二類方法通過對卷積特征映射的高階統(tǒng)計量進行編碼,增強CNN 的中層學(xué)習(xí)能力。DFL-CNN[21]的主要貢獻在于設(shè)計了在CNN框架中以端到端的方式,不需要額外的部分或邊框注釋,即可捕獲特定種類辨別性塊,是一種專注于分類的網(wǎng)絡(luò)。

        如圖4所示,一張圖片在經(jīng)過卷積神經(jīng)網(wǎng)絡(luò)提取特征后可以看作W×H×C大小的特征圖,將1×1×C的卷積核當作判別性區(qū)域檢測器,其輸出的每個通道是一張熱力圖,響應(yīng)強度最大的區(qū)域即顯著性區(qū)域,如圖5 所示為網(wǎng)絡(luò)的整體結(jié)構(gòu)。

        如圖5所示,左路是一個正常完成的VGG-16。中路在VGG的卷積層4-x之后接入1×1的濾波器組。如果有M個類,每個類規(guī)定有K個特征庫,則濾波器組的輸出即為W×H×KM。經(jīng)過全局最大池化(Global Max Pooling,GMP)之后,變?yōu)?×1×KM,后接全連接層得到未歸一化的概率值。右路中的跨通道池化操作(如圖6)能夠使得中路中的KM維的庫按順序?qū)?yīng)M個類別和每個類別的K個庫,最后將三路的概率值按權(quán)重相加,經(jīng)過交叉熵損失函數(shù)進行訓(xùn)練。

        1.3 基于YOLOv3和DFL-CNN 的產(chǎn)品感性語義自動標注模型構(gòu)建

        YOLOv3將目標檢測問題轉(zhuǎn)換為回歸問題,能夠端到端地實現(xiàn)目標定位,其檢測速度能夠達到實時分析的要求。DFL-CNN 實現(xiàn)了在弱監(jiān)督的條件下較為精準的目標細粒度分類。本文通過基于Darknet-53的YOLOv3算法實現(xiàn)對產(chǎn)品類別的定位和自動標注,隨后將標注后的產(chǎn)品圖片送入DFLCNN網(wǎng)絡(luò),以最大限度地消除產(chǎn)品渲染背景或周圍環(huán)境的影響,并根據(jù)分類任務(wù)性質(zhì)的不同,改進其損失函數(shù)賦權(quán),從而實現(xiàn)更為精準的產(chǎn)品造型語義評價。本文的主要技術(shù)路線如圖7所示。

        2 產(chǎn)品感性語義自動標注及人工智能設(shè)計評價模型的實驗驗證

        本文基于Python編程語言實現(xiàn),運用Pytorch作為深度學(xué)習(xí)編程框架,訓(xùn)練分兩個模塊進行。首先以部分COCO2017數(shù)據(jù)集作為產(chǎn)品種類識別及標注部分的基礎(chǔ)數(shù)據(jù)集,待模型訓(xùn)練完成后將其參數(shù)(權(quán)重和偏置)應(yīng)用至產(chǎn)品感性語義自動標注過程中來驗證基于DFL-CNN的產(chǎn)品感性語義自動標注模型性能。

        2.1 數(shù)據(jù)準備及其預(yù)處理

        對深度學(xué)習(xí)任務(wù)而言,實驗數(shù)據(jù)集是其基礎(chǔ)條件。本文利用腳本從Microsoft COCO2017數(shù)據(jù)集的80個分類中提取出了有關(guān)工業(yè)設(shè)計家電產(chǎn)品的5個分類,并利用麻省理工學(xué)院計算機科學(xué)和人工智能實驗室(Computer Science and Artificial Intelligence Laboratory,CSAIL)研發(fā)的開源圖像標注工具Labelme對吹風(fēng)機類別進行數(shù)據(jù)集擴充,擴充后的類別名稱、訓(xùn)練集和驗證集分別對應(yīng)的正樣本圖像個數(shù)以及目標個數(shù)如表1所示。提取后的數(shù)據(jù)集能夠滿足產(chǎn)品種類識別及標注的要求。

        本次提取共獲得10 485例訓(xùn)練集樣本圖像和459例驗證集樣本圖像,其中包括部分單張圖像包含多個以及多種目標的樣本圖像。

        表1 數(shù)據(jù)集類別統(tǒng)計

        工業(yè)設(shè)計產(chǎn)品效果圖或?qū)嵨镎掌话爿^為清晰、無遮擋或少遮擋,因此,為更好地實現(xiàn)以吹風(fēng)機為例的工業(yè)設(shè)計產(chǎn)品感性語義的自動標注,本實驗采用網(wǎng)絡(luò)爬蟲的方式完成吹風(fēng)機產(chǎn)品感性語義標注數(shù)據(jù)集的初步構(gòu)建,以清晰且無遮擋的吹風(fēng)機設(shè)計案例為主。為進一步排除產(chǎn)品朝向及擺放角度對其感性語義造成的影響,本實驗采用水平翻轉(zhuǎn)、旋轉(zhuǎn)進行數(shù)據(jù)增強,增強后的數(shù)據(jù)集圖片共1 472張,并將其中的258張劃分為測試集,其余為訓(xùn)練集。

        為增強評價模型的權(quán)威性,產(chǎn)品感性語義標簽均來自于具有8年以上工業(yè)設(shè)計經(jīng)驗的設(shè)計師親自標注。各分類下的樣本數(shù)量如表2所示。

        表2 各分類下的樣本數(shù)量

        2.2 實驗過程及結(jié)果驗證

        2.2.1 基于Yolov3的產(chǎn)品類別自動標注模型

        梯度下降是應(yīng)用最廣泛,也是效果最好的優(yōu)化算法之一,并且也是目前為止優(yōu)化神經(jīng)網(wǎng)絡(luò)最常用的方法。按照能否自動調(diào)節(jié)學(xué)習(xí)率,梯度下降法可分為自適應(yīng)方法和非自適應(yīng)方法,其中:應(yīng)用較為廣泛的自適應(yīng)方法有RMSProp和Adam 等;非自適應(yīng)方法有隨機梯度下降法(Stochastic Gradient Descent,SGD)和動量法(SGD with Momentum)等。在基于YOLOv3的產(chǎn)品種類識別及檢測模塊中,通過比較訓(xùn)練時間、訓(xùn)練穩(wěn)定性及收斂速度,最終選用動量法為YOLOv3網(wǎng)絡(luò)的優(yōu)化算法。

        進行模型訓(xùn)練時,需根據(jù)實際要求制作指引文件,將訓(xùn)練集和驗證集圖片分別放在兩個文件夾,并將文件名分別存入訓(xùn)練和驗證文本中,同時保證標記圖和原圖一一對應(yīng)且文件名相同;將數(shù)據(jù)集標注格式由json轉(zhuǎn)換為txt格式并修改訓(xùn)練腳本,在數(shù)據(jù)集配置文件中加入個人數(shù)據(jù)集描述配置;綜合考慮樣本特征和硬件情況,合理設(shè)置訓(xùn)練參數(shù),主要修改訓(xùn)練步數(shù)、學(xué)習(xí)率、批處理參數(shù)、預(yù)訓(xùn)練模型和文件路徑等,具體的參數(shù)設(shè)置如表3所示。

        表3 基于YOLOv3的產(chǎn)品類別自動標注模型訓(xùn)練參數(shù)設(shè)置

        網(wǎng)絡(luò)加載在ImageNet上預(yù)訓(xùn)練好的模型參數(shù)(darknet53.conv.74)的基礎(chǔ)上繼續(xù)訓(xùn)練。修改訓(xùn)練腳本,可視化在訓(xùn)練集和驗證集的batch0上的輸出如圖8所示。

        訓(xùn)練完成后,利用第三方庫matplotlib對訓(xùn)練模型進行可視化和評估,其各項指標的可視化如圖9所示,其中,橫坐標為整個訓(xùn)練集被訓(xùn)練算法遍歷的次數(shù)(epoch)。達到預(yù)期要求后,將訓(xùn)練后的模型導(dǎo)出,應(yīng)用至產(chǎn)品感性語義的自動標注的數(shù)據(jù)預(yù)處理階段。

        為進一步測試該模型的性能,隨機下載100張包含汽車、飛機、沙發(fā)、座椅和自行車的網(wǎng)絡(luò)圖片進行測試,部分檢測結(jié)果如圖10所示。因此,該模型能夠很好地完成針對工業(yè)設(shè)計產(chǎn)品的目標定位及檢測工作,能夠滿足下一步網(wǎng)絡(luò)的訓(xùn)練需求。

        2.2.2 基于DFL-CNN 的產(chǎn)品感性語義自動標注模型

        早期基于卷積神經(jīng)網(wǎng)絡(luò)的細粒度分類模型通常需要額外的邊界框注釋,而過多的邊界框限制了卷積神經(jīng)網(wǎng)絡(luò)中層的學(xué)習(xí)潛力,端到端的特征編碼在細粒度分類問題上具有良好的性能,并且具有相對緊湊的網(wǎng)格架構(gòu)。因此,基于DFL-CNN 的產(chǎn)品感性語義自動標注模型僅需將分屬不同類別的圖片置于不同文件夾內(nèi)即可進行訓(xùn)練,在進行模型訓(xùn)練時,綜合考慮樣本數(shù)量和硬件情況,進行多次參數(shù)調(diào)整后,最終的網(wǎng)絡(luò)參數(shù)設(shè)置如表4所示。

        訓(xùn)練過程選用交叉熵作為損失函數(shù),其權(quán)重設(shè)置如表5所示,在“輕便-穩(wěn)重”分類下,其感性意象受產(chǎn)品整體影響較大,但在“圓潤-硬朗”分類下,其感性意象大多受產(chǎn)品局部拐角處造型的影響,因此,根據(jù)分類任務(wù)性質(zhì)的不同,對DFLCNN 模型的損失函數(shù)賦權(quán)改進如下:

        訓(xùn)練過程中每迭代5次可視化輸出10個最佳判別性區(qū)域,圖11即為在圓潤-硬朗分類下隨機兩個樣本在不同迭代次數(shù)(epoch)下所輸出的最佳判別性區(qū)域響應(yīng)圖(方框部分)。如圖11所示,最佳判別性區(qū)域由分散逐漸向吹風(fēng)機尾部拐角處集中。因此,該模型能夠較好地模擬人眼視覺,從整幅圖像中提取影響分類效果的最佳判別性區(qū)域。

        表4 基于DFL-CNN的產(chǎn)品感性語義自動標注模型訓(xùn)練參數(shù)設(shè)置

        表5 損失函數(shù)權(quán)重設(shè)置

        訓(xùn)練過程中每遍歷兩次,輸出在測試集上的準確率并將其可視化,在兩個分類下準確率的可視化結(jié)果如圖12所示。

        將YOLOv3及DFL-CNN 網(wǎng)絡(luò)的訓(xùn)練結(jié)果進行封裝,使得模型能夠一次性端到端地實現(xiàn)設(shè)計方案評價及標注過程,網(wǎng)絡(luò)輸入和輸出如表6所示。

        表6 網(wǎng)絡(luò)輸入和輸出

        3 討論

        為進一步驗證基于YOLOv3和DFL-CNN 的產(chǎn)品感性語義自動標注及人工智能設(shè)計評價模型的有效性,在原數(shù)據(jù)集的基礎(chǔ)上,分別采用不經(jīng)過YOLOv3的DFL-CNN以及DFL-CNN的基礎(chǔ)網(wǎng)絡(luò)VGG-16進行對比實驗,實驗參數(shù)設(shè)置保持與2.2節(jié)中一致,訓(xùn)練過程如圖13所示,訓(xùn)練完成后在兩個分類上的準確率如表7所示。

        表7 對比實驗數(shù)據(jù)結(jié)果 %

        通過對比實驗,本研究提出的基于YOLOv3和DFL-CNN的網(wǎng)絡(luò)結(jié)構(gòu)的優(yōu)勢主要體現(xiàn)在以下幾個方面:

        (1)訓(xùn)練過程 在訓(xùn)練過程中引入個性化權(quán)重賦值。設(shè)計人員了解分類任務(wù)的基本屬性后,能夠根據(jù)分類任務(wù)性質(zhì)的不同設(shè)置訓(xùn)練過程中的權(quán)重賦值。

        (2)收斂速度 訓(xùn)練過程中的收斂速度優(yōu)于其他兩種算法結(jié)構(gòu)。由圖13可知,本文所提模型在輕便-穩(wěn)重分類下經(jīng)過20次迭代之后曲線變化趨于穩(wěn)定,在圓潤-硬朗分類下經(jīng)過25次迭代后曲線趨于穩(wěn)定狀態(tài)。沒有經(jīng)過YOLOv3的DFL-CNN 算法經(jīng)過40次迭代后逐漸趨于穩(wěn)定。而普通卷積神經(jīng)網(wǎng)絡(luò)VGG-16在訓(xùn)練時直至最后曲線仍有一定波動,收斂速度較慢。

        (3)訓(xùn)練結(jié)果 由表7可知,基于YOLOv3和DFL-CNN的網(wǎng)絡(luò)結(jié)構(gòu)在兩個分類上的準確率分別達到了95.349%和97.287%,均高于其他兩種算法結(jié)構(gòu)。本研究所提模型能夠在完成產(chǎn)品感性語義標注的同時對其所屬類別進行標注,適用于工業(yè)設(shè)計云服務(wù)平臺中大規(guī)模、多種類產(chǎn)品的自動評價及標注任務(wù)。

        模型訓(xùn)練完成后,在單個GTX 1070 GPU 上單次運行該模型所需時間約為0.31 s,實現(xiàn)了毫秒級的設(shè)計方案評價效率及95%以上的評價精度。

        4 結(jié)束語

        本文提出一種基于YOLOv3和DFL-CNN 的產(chǎn)品感性語義自動標注及人工智能設(shè)計評價模型,實現(xiàn)了毫秒級的設(shè)計方案評價效率以及95%以上的評價精度。將設(shè)計評價問題轉(zhuǎn)換為計算機視覺的識別及分類任務(wù),消除了設(shè)計評價過程中因評價者標準、調(diào)查者干擾及評價環(huán)境對其結(jié)果產(chǎn)生的影響,將網(wǎng)絡(luò)封裝后內(nèi)嵌入工業(yè)設(shè)計云服務(wù)平臺,其輸出結(jié)果可以作為設(shè)計方案評價的一種參考。后續(xù)研究主要集中在以下方面:構(gòu)建專屬于工業(yè)設(shè)計產(chǎn)品的識別及檢測數(shù)據(jù)集;嘗試基于候選區(qū)域的目標檢測模型Faster R-CNN、基于強監(jiān)督的細粒度分類識別網(wǎng)絡(luò)Part-based R-CNN、Pose Normalized CNN 等以及基于注意力機制的細粒度分類網(wǎng)絡(luò)RA-CNN等;對提出的模型作進一步優(yōu)化和改進,使其逐漸成為通用和完善的設(shè)計產(chǎn)品方案評價模型。

        猜你喜歡
        語義分類產(chǎn)品
        分類算一算
        語言與語義
        分類討論求坐標
        數(shù)據(jù)分析中的分類討論
        教你一招:數(shù)的分類
        “上”與“下”語義的不對稱性及其認知闡釋
        2015產(chǎn)品LOOKBOOK直擊
        Coco薇(2015年1期)2015-08-13 02:23:50
        認知范疇模糊與語義模糊
        語義分析與漢俄副名組合
        新產(chǎn)品
        玩具(2009年10期)2009-11-04 02:33:14
        日韩亚洲av无码一区二区三区| 在线观看一区二区三区视频| 免费人成网站在线视频| 性欧美长视频免费观看不卡| 亚洲 精品 综合 精品 自拍| 亚洲阿v天堂网2021| 91青青草免费在线视频| 精品欧美久久99久久久另类专区| 国产精品一区二区久久精品蜜臀 | 午夜内射中出视频| 无码av免费一区二区三区试看| 国产白丝网站精品污在线入口| 中文字幕久久熟女人妻av免费| 午夜少妇高潮在线观看| 国产办公室沙发系列高清| 国产精品久久久久久妇女6080| 国内精品久久久久国产盗摄 | 18禁黄久久久aaa片| 日日摸日日碰人妻无码老牲| 男女啦啦啦视频在线观看 | 国产后入又长又硬| 亚洲午夜精品久久久久久人妖| 亚洲熟妇网| 极品新娘高清在线观看| 国产大屁股视频免费区| 欧美性开放bbw| 国产呦系列视频网站在线观看| 国产精品国产自产拍高清| 国产va免费精品高清在线观看| 国产精品公开免费视频| 亚洲av有码精品天堂| 熟女人妻中文字幕av| 婷婷五月综合丁香在线| 无码免费午夜福利片在线| 免费国产一区二区视频| 免费人妻精品一区二区三区| 亚洲毛片在线播放| 午夜视频手机在线免费观看| 四虎影视久久久免费观看| 在教室伦流澡到高潮hnp视频| 亚洲av影院一区二区三区四区|