亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        需求驅(qū)動的云平臺產(chǎn)品關(guān)鍵設(shè)計特征識別方法

        2022-01-06 14:29:54蘇兆婧余隋懷初建杰于明玖黃悅欣
        計算機集成制造系統(tǒng) 2021年12期
        關(guān)鍵詞:特征文本用戶

        蘇兆婧 ,余隋懷 ,初建杰 ,于明玖,宮 靜,黃悅欣

        (西北工業(yè)大學(xué) 工業(yè)設(shè)計與人機工效工信部重點實驗室,陜西 西安 710072)

        0 引言

        服務(wù)化和信息化是當前設(shè)計制造業(yè)發(fā)展的兩大趨勢[1-2],云設(shè)計服務(wù)平臺在為用戶帶來大量服務(wù)的同時,也產(chǎn)生了服務(wù)與用戶需求的匹配問題:對于一些來自于傳統(tǒng)行業(yè)的用戶來說,讓其清楚地描述需求并不是一件容易的事情。用戶只會為設(shè)計師提供一個他們心中的“美好愿景”,或簡單實現(xiàn)方法。對于設(shè)計師而言,這種單純依靠對用戶提交材料進行需求提取與分析的方法,顯然不能對所有需求進行精確定位。因此,如何獲取用戶潛在需求,利用平臺中的海量資源和服務(wù),為用戶提供所需的滿意設(shè)計服務(wù),是目前云設(shè)計制造平臺亟待解決的關(guān)鍵問題。

        目前,國內(nèi)外學(xué)者對需求驅(qū)動的設(shè)計特征識別進行了卓有成效的研究,宮華萍等[3]提出一種結(jié)合層次分析法、逼近理想解排序多屬性決策法和猶豫二元語義變量的改進質(zhì)量功能展開(Quality Function Deployment, QFD)模型,以評價用戶需求與質(zhì)量特性的關(guān)系。張付英等[4]集成層次性分析法和卡諾模型提出了面向產(chǎn)品可持續(xù)設(shè)計的關(guān)鍵模塊識別方法。WU等[5]將模糊Kano模型與模糊層次分析法(Fuzzy Analytic Hierarchy Process, FAHP)相結(jié)合,用于在產(chǎn)品設(shè)計過程中確定用戶吸引力因素的優(yōu)先級。PEDERSEN等[6]使用田口質(zhì)量損失函數(shù)提供一種早期需求獲取方式,將獲得的量化用戶需求信息轉(zhuǎn)化為對設(shè)計團隊有用的信息。LIVERANI等[7]將QFD和六西格瑪(Design For Six Sigma, DFSS)應(yīng)用于多功能風(fēng)扇的創(chuàng)新設(shè)計中,用于識別在增材設(shè)計中與客戶需求有關(guān)的技術(shù)響應(yīng)。

        隨著近年計算機技術(shù)的蓬勃發(fā)展,也出現(xiàn)了一些從客戶評論中提取用戶需求的模型,如李玉博[8]利用文本挖掘技術(shù)中基于詞頻-逆文本頻率(Term Frequency-Inverse Document Frequency,TF-IDF)算法抽取用戶在線評論的關(guān)鍵詞,對采集到的用戶需求信息進行識別和表達,以實現(xiàn)用戶需求信息向產(chǎn)品功能特征的轉(zhuǎn)化。ANH等[9]利用TextRank算法,從在線客戶評論中提取用戶需求,并將其表示為適合設(shè)計師的形式。用戶自然語言描述的文本信息通常不可避免地存在一些不規(guī)范的描述或歧義,為進一步精確提取自然語言描述中所包含的有用信息,文獻[10]利用雙向長短時記憶(Bi-directional Long Short-Term Memory,Bi-LSTM)神經(jīng)網(wǎng)絡(luò)層的輸出,即每一個標簽的預(yù)測分值作為條件隨機場(Conditional Random Fields,CRF)建立有監(jiān)督的命名實體識別(Named Entity Recognition,NER)模型,從而快速并較為準確地對自然語言描述中的特定領(lǐng)域信息進行提取,對用戶文本的智能化分析與挖掘起著重要作用。

        綜上所述,需求驅(qū)動的設(shè)計特征識別技術(shù)大致分為兩大類:針對特定產(chǎn)品的用戶需求獲取方式[11-12]和利用計算機技術(shù)從文本信息中挖掘產(chǎn)品用戶需求的方式[13-15]。當今世界已處于知識經(jīng)濟時代,全球以電子方式存儲的數(shù)據(jù)信息正在飛速增長,傳統(tǒng)需求獲取方式例如QFD和DFSS[16]雖然能夠提供較為精準的結(jié)果,但其時效性不足,無法對這些數(shù)據(jù)進行及時、有效的分析處理。近年,利用自然語言處理(Natural Language Processing,NLP)技術(shù)從產(chǎn)品評論中挖掘信息引起了人們的廣泛關(guān)注?;赥F-IDF和TextRank等無監(jiān)督的文本挖掘算法雖然能夠自動地從文本中進行關(guān)鍵詞提取,但由于其未經(jīng)算法訓(xùn)練,提取出的結(jié)果包含過多噪聲,因此需要人工二次處理。有監(jiān)督的NER訓(xùn)練模型能夠較好地解決這一問題。目前,許多學(xué)者在生物、醫(yī)學(xué)領(lǐng)域命名實體識別領(lǐng)域展開了一些研究[17-19],設(shè)計領(lǐng)域命名實體的識別尚未得到關(guān)注。

        眾多云設(shè)計交易平臺、電商平臺等提供了龐大的語料庫,為設(shè)計領(lǐng)域中文NER提供了龐大的數(shù)據(jù)支持。因此,本研究嘗試通過建立中文NER模型來對用戶最為關(guān)注的設(shè)計特征進行自動識別,這也是NER任務(wù)在設(shè)計領(lǐng)域的第一次嘗試。在龐大的語料庫支撐下,經(jīng)算法訓(xùn)練,能夠在用戶提交的非結(jié)構(gòu)化文本數(shù)據(jù)中自動為設(shè)計師捕獲有效設(shè)計信息。同時,由于特征選擇算法能夠從高維數(shù)據(jù)中識別關(guān)鍵特征,本研究利用智能算法構(gòu)建產(chǎn)品隱性設(shè)計特征發(fā)現(xiàn)系統(tǒng),從而避免在產(chǎn)品設(shè)計過程中的重心偏置、關(guān)鍵設(shè)計特征遺漏等現(xiàn)象。

        1 問題描述與模型構(gòu)建

        顯性產(chǎn)品設(shè)計特征是指用戶易于察覺、易于表述的最為明顯的關(guān)鍵設(shè)計特征。本研究從用戶反饋和產(chǎn)品描述出發(fā),以基于轉(zhuǎn)換器的雙向編碼表征(Bidirectional Encoder Representations from Transformers,BERT)預(yù)訓(xùn)練語言模型[20]為基礎(chǔ),建立softmax輸出層,通過訓(xùn)練特定領(lǐng)域中文NER模型,實現(xiàn)從用戶非結(jié)構(gòu)化文本中為設(shè)計師自動獲取簡潔、具體的顯性產(chǎn)品設(shè)計特征的目的。

        隱性產(chǎn)品設(shè)計特征是指用戶不易察覺,但對其最終滿意度產(chǎn)生一定影響的產(chǎn)品關(guān)鍵設(shè)計特征。針對設(shè)計特征高維度、設(shè)計特征之間冗余性強的特點,提出一種知識遷移思想,本研究將特征選擇算法隨機Lasso[21]引入問題研究中,構(gòu)造產(chǎn)品關(guān)鍵隱性設(shè)計特征識別模型。

        1.1 基于BERT的顯性設(shè)計特征識別方法

        1.1.1 BERT網(wǎng)絡(luò)架構(gòu)

        BERT是一種基于微調(diào)的多層雙向Transformer編碼器,由多個Transformer層疊加組成[20]。不同于以往基于循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)的Seq2Seq模型框架,Transformer在編碼器和解碼器中大量使用了多頭自注意力機制(Multi-headed self-attention),同時借鑒了殘差網(wǎng)絡(luò)[22]結(jié)構(gòu),將輸入值與輸出值相結(jié)合,如圖1所示[23]。多頭自注意力機制計算如式(1)~式(3)所示:

        (1)

        MultiHead(Q,K,V)=Concat(head1,head2,…,headh)Wo,

        (2)

        (3)

        1.1.2 輸入特征處理

        BERT的輸入是一個線性序列,支持單句文本和句對文本,句首用符號[CLS]表示,句尾用符號[SEP]表示,如果是句對,句子之間添加符號[SEP],如圖2所示。輸入特征由詞嵌入(token embedding)、段嵌入(segment embedding)和位置嵌入(position embedding)三部分組成,分別表示單詞信息、句子信息和位置信息。

        1.1.3 預(yù)訓(xùn)練

        BERT采用遮蔽語言模型(Masked Language Model, MLM)和“下一句預(yù)測”(Next Sentence Prediction, NSP)兩種策略,以用于模型預(yù)訓(xùn)練。MLM是指在訓(xùn)練時從輸入語料上隨機遮蔽掉一些單詞,然后通過上下文預(yù)測該單詞。相比傳統(tǒng)從左到右的語言模型只能單向預(yù)測目標函數(shù),MLM可以從任意方向預(yù)測被掩蓋的單詞,從而可以預(yù)訓(xùn)練深度雙向Transformer。在確定要遮蔽掉的單詞之后,80%的時候會直接替換為[Mask],10%的時候?qū)⑵涮鎿Q為其他任意單詞,10%的時候會保留原始樣貌。

        NSP的任務(wù)是判斷句子B是否是句子A的下文。若是,則輸出“是下一句”,否則輸出“不是下一句”。訓(xùn)練數(shù)據(jù)的生成方式是從平行語料庫中隨機抽取連續(xù)的兩句話,其中50%的句子對中,句子B是句子A的下文,即符合上下句關(guān)系,另外50%的句子B是隨機從預(yù)料中提取的,它們不符合上下句關(guān)系。該關(guān)系保存在圖2中的[CLS]符號中。

        1.1.4 任務(wù)微調(diào)

        在海量單預(yù)料上訓(xùn)練完BERT之后,便可以將其應(yīng)用到NLP的各個任務(wù)中,只需在BERT的基礎(chǔ)上添加一個輸出層便可完成對特定任務(wù)的微調(diào)。對于本研究中的NER任務(wù),判斷一個句子中的單詞是不是產(chǎn)品名稱、產(chǎn)品結(jié)構(gòu)、功能屬性、外觀屬性或是非命名實體,系統(tǒng)接收標記好的文本序列,在每個時間片輸出一個概率,最后通過Softmax預(yù)測單詞或短語的實體類別。

        1.1.5 評價指標

        對NER系統(tǒng)的發(fā)展來說,系統(tǒng)的全面評估必不可少,許多系統(tǒng)被要求根據(jù)其標注文本的能力來對系統(tǒng)進行排序。實驗評價指標體系由準確率(Precision)、召回率(Recall)以及綜合評價指標F1值(F1Measure)構(gòu)成[24]。

        1.2 基于隨機Lasso的隱性設(shè)計特征識別方法

        隨機Lasso算法突破了Lasso算法的一個重要局限:它只能選擇一組高度相關(guān)的重要變量中的一個或幾個,其他系數(shù)都壓縮為0。隨機Lasso算法最終選出高度相關(guān)變量中的大部分,甚至全部。利用隨機Lasso進行特征選擇主要分為兩步,在每個步驟中,Bootstrap法產(chǎn)生的每一個Bootstrap 樣本能夠產(chǎn)生與從相同分布中生成的數(shù)據(jù)集相類似的擾動,具體地:

        (1)計算所有系數(shù)的重要性度量

        步驟1利用Bootstrap方法,從原始訓(xùn)練數(shù)據(jù)集中有放回地抽取B個樣本量為n的樣本。

        步驟3依照式(4)計算特征Xi的重要性度量Ij,其中j∈{1,2,…,p},Cj為特征Xi在B個Bootstrap樣本中被選取的次數(shù)。

        (4)

        (2)特征選擇

        步驟4與步驟1相同,從原始訓(xùn)練數(shù)據(jù)集中有放回地抽取B個樣本量為n的Bootstrap樣本。

        (5)

        2 實驗驗證

        本研究基于Python編程語言,分兩個模塊進行:①設(shè)計領(lǐng)域中文NER模塊,即產(chǎn)品顯性設(shè)計特征識別模塊,以Pytorch作為深度學(xué)習(xí)框架;②特征選擇模塊,即產(chǎn)品隱性設(shè)計特征識別模塊,該模塊運用機器學(xué)習(xí)庫Scikit-learn編程實現(xiàn)。

        2.1 數(shù)據(jù)準備及其預(yù)處理

        無論是對于深度學(xué)習(xí)任務(wù)還是機器學(xué)習(xí)任務(wù),實驗數(shù)據(jù)集準備是其基礎(chǔ)條件[25]。

        2.1.1 工業(yè)設(shè)計NER語料庫構(gòu)建

        在工業(yè)設(shè)計領(lǐng)域NER語料庫的構(gòu)建過程中,使用了輕量級爬蟲框架Scrapy,在某電商網(wǎng)站上爬取銷量在前的熱門產(chǎn)品評論。利用Scrapy框架爬取產(chǎn)品評論的整體流程如圖3所示。

        Scrapy框架包括引擎、調(diào)度器、下載器、爬蟲、項目管道、下載器中間件、爬蟲中間件、調(diào)度中間件。其中:引擎用來控制整個系統(tǒng)的數(shù)據(jù)處理流程,并進行事務(wù)處理的觸發(fā);調(diào)度器用來接收引擎發(fā)來的請求,壓入隊列中,并在引擎再次請求的時候返回;下載器用于下載網(wǎng)頁內(nèi)容,并將網(wǎng)頁內(nèi)容返回給爬蟲(Spider);爬蟲用于從特定網(wǎng)頁中提取自己需要的信息;項目管道負責(zé)數(shù)據(jù)的存儲和過濾;下載器中間件位于Scrapy引擎和下載器之間的框架,處理Scrapy引擎與下載器之間的請求及響應(yīng);爬蟲中間件介于Scrapy引擎和爬蟲之間的框架,主要工作是處理蜘蛛的響應(yīng)輸入和請求輸出;調(diào)度中間件介于Scrapy引擎和爬蟲之間的框架,用于處理蜘蛛的響應(yīng)輸入和請求輸出。

        本實驗以4種產(chǎn)品為例,爬取并初步構(gòu)建產(chǎn)品領(lǐng)域中文NER語料庫共243 958字,將其中的209 079字劃分為訓(xùn)練集,18 453字劃分為驗證集,16 426字為測試集,部分原始語料如圖4所示,語料庫基本信息如表1所示。

        表1 產(chǎn)品領(lǐng)域命名實體識別語料庫基本信息

        根據(jù)對語料庫的初步觀察和分析,結(jié)合領(lǐng)域?qū)<抑R以及主流領(lǐng)域文獻[26-27]中名實體類別的數(shù)目。本文定義了以下5種產(chǎn)品領(lǐng)域命名實體類別:產(chǎn)品名稱、產(chǎn)品結(jié)構(gòu)、功能屬性、外觀屬性以及非命名實體。實體分類及示例如表2所示。

        表2 產(chǎn)品領(lǐng)域命名實體分類

        語料庫的標注問題是NER任務(wù)需要解決的第一個問題。需要對一個序列的每一個元素標注一個標簽。一般來說,一個序列指的是一個句子,而一個元素指的是句子中的一個詞。目前較為流行的方法有BIO、BIOES、BMES等,本研究采用BIO標注方法,即將每個元素標注為“B-X”、“I-X”或者“O”。其中:“B-X”表示該元素所在的片段屬于X類型并且該元素在該片段的開頭,“I-X”表示該元素所在的片段屬于X類型并且該元素在該片段的中間位置,“O”表示不屬于任何類型。本研究采用的標簽集如表3所示。

        表3 標簽集

        所有語料均由人工獨立標注完成,工作量大,耗時較久,因此數(shù)據(jù)規(guī)模并不是很大。在標注過程中,借助了一款輕量級文本標注工具:YEDDA[28]的幫助來加快標注速度,語料標注過程如圖5所示。

        通過編寫腳本進行語料格式轉(zhuǎn)換,標注后以及最終得到語料數(shù)據(jù)集的具體形式如圖6所示。表4詳細記錄了Design-NER數(shù)據(jù)集的詳細信息。

        表4 Design-NER數(shù)據(jù)集

        2.1.2 產(chǎn)品設(shè)計特征數(shù)據(jù)集構(gòu)建

        為有效識別設(shè)計師和用戶不易察覺,但影響產(chǎn)品用戶滿意度的關(guān)鍵隱性設(shè)計特征,避免在產(chǎn)品設(shè)計過程中的重心偏置、關(guān)鍵設(shè)計特征遺漏等現(xiàn)象。本研究以吹風(fēng)機產(chǎn)品為例,構(gòu)建其產(chǎn)品設(shè)計特征數(shù)據(jù)集,特征選擇數(shù)據(jù)集共涉及23款熱門產(chǎn)品的29個設(shè)計特征,部分產(chǎn)品及其特征如表5所示。

        如表5所示,搜集到的數(shù)據(jù)存在部分缺失現(xiàn)象,且數(shù)據(jù)類型存在非數(shù)值型變量。在機器學(xué)習(xí)和數(shù)據(jù)挖掘中所得到的數(shù)據(jù),幾乎不可能是完美的,很多特征對建模來說意義非凡,因此,經(jīng)常出現(xiàn)重要的特征缺失值很多,但又不能直接舍棄特征字段的情況。此外,大多數(shù)算法只能夠處理數(shù)值型數(shù)據(jù),不能處理文字,故需將數(shù)據(jù)進行編碼,即將文字型轉(zhuǎn)換為數(shù)值型變量。將數(shù)據(jù)格式轉(zhuǎn)換為CSV格式后,需要對獲得的數(shù)據(jù)進行多步預(yù)處理操作,預(yù)處理步驟如圖7所示。

        表5 產(chǎn)品設(shè)計特征數(shù)據(jù)集

        本研究使用眾數(shù)來填補過熱保護變量,使用均值填補重量和電源線長兩項變量。此外,在機器學(xué)習(xí)中,大多數(shù)算法只能處理數(shù)值型數(shù)據(jù),因此,必須對數(shù)據(jù)進行編碼,即將文字型數(shù)據(jù)轉(zhuǎn)換為數(shù)值型。數(shù)據(jù)集中智能功能、按鈕排布方式等屬于名義變量,不同變量取值間相互獨立,不存在數(shù)值關(guān)系,不能計算,故無法簡單地將其按照有序變量的[0,1]編碼方式對其進行編碼,即有智能功能編碼為0,無智能功能編碼為1。諸如此類的名義變量,只有使用獨熱(One-Hot)編碼,將特征轉(zhuǎn)換為啞變量的方式來處理,才能盡量向算法傳達最準確的信息,如圖8所示。

        2.2 實驗過程及結(jié)果驗證

        2.2.1 基于BERT的設(shè)計領(lǐng)域命名實體識別

        進行模型訓(xùn)練時,需根據(jù)實際要求將訓(xùn)練集、驗證集、測試集數(shù)據(jù)分別放入指定位置,并在數(shù)據(jù)集配置文件中加入個人數(shù)據(jù)集描述配置。實驗開發(fā)環(huán)境為Ubuntu16.04,基于Titan X GPU進行模型訓(xùn)練。綜合考慮樣本數(shù)量和硬件情況,同時為了防止模型過擬合,采用了早期停止訓(xùn)練策略,在進行多次參數(shù)調(diào)整后,網(wǎng)絡(luò)參數(shù)確定如表6所示。

        表6 網(wǎng)絡(luò)參數(shù)設(shè)置

        迭代11次后,模型在驗證集中的F1分數(shù)已經(jīng)3次沒有呈現(xiàn)上升趨勢,同時在驗證集上的loss值為0.02,即達到訓(xùn)練終止條件。此時,在訓(xùn)練集、驗證集、測試集上均可以實現(xiàn)較好的性能,其精確率、召回率、F1分數(shù)如表7所示。

        表7 實驗結(jié)果

        模型在線測試的結(jié)果如圖9所示。由圖可知,該模型能夠在云服務(wù)平臺訂單量較大,用戶語言較繁瑣時自動地從非結(jié)構(gòu)化語言文本中識別出用戶的顯性設(shè)計需求,實時地轉(zhuǎn)換為產(chǎn)品類別、結(jié)構(gòu)、功能屬性、外觀和材質(zhì)等設(shè)計語言,進一步提升需求與服務(wù)的匹配效率。

        2.2.2 基于隨機Lasso的產(chǎn)品關(guān)鍵隱性設(shè)計特征識別

        對于產(chǎn)品關(guān)鍵隱性設(shè)計特征識別模塊,本研究提出一種知識遷移思想,利用網(wǎng)絡(luò)平臺海量數(shù)據(jù)來識別用戶不易察覺但能夠?qū)ζ錆M意度產(chǎn)生一定影響的產(chǎn)品設(shè)計特征,該模塊實驗軟件配置如表8所示。

        表8 實驗軟件配置

        綜合考慮評價得分與銷量,將標簽定義為Label=10[Score-int(Score)]+1e-5salesvolume,經(jīng)特征選擇算法隨機Lasso運算,得到各設(shè)計特征及其重要度權(quán)重如表9所示。

        表9 特征及其重要度權(quán)重

        由表9可知,在本研究所采用的吹風(fēng)機示例中,影響其銷量及用戶滿意度的關(guān)鍵產(chǎn)品設(shè)計特征為:產(chǎn)品高度、有無智能功能、造型簡約度、有無水離子功能等。由此可見,普通用戶所能表達的信息量有限,在這種情況下,運用知識遷移思想,對其需求進一步補充尤為重要。在當前大數(shù)據(jù)環(huán)境下,利用智能算法構(gòu)建產(chǎn)品關(guān)鍵隱性設(shè)計特征發(fā)現(xiàn)系統(tǒng),考慮設(shè)計特征的先后主次、設(shè)計成本和效率的問題,有助于設(shè)計人員在設(shè)計過程中關(guān)注關(guān)鍵設(shè)計參數(shù)和信息,并根據(jù)它們與產(chǎn)品功能、用戶滿意度的密切關(guān)系,快速獲得設(shè)計方案。

        3 討論

        為檢驗BERT 模型對傳統(tǒng)詞向量表示方法的提升效果,基于原始數(shù)據(jù)集進行Bi-LSTM+CRF與BERT模型的對比實驗,實驗結(jié)果如表10所示??梢钥闯?,對比無遷移的Bi-LSTM+CRF模型,使用BERT 預(yù)訓(xùn)練模型進行知識遷移的方法,F(xiàn)1值整體提高了2.93%。該模型將自然語言編碼成字嵌入、詞嵌入和位置嵌入,同時輸入基于Transformer結(jié)構(gòu)構(gòu)造的雙向編碼器網(wǎng)絡(luò),充分考慮上下文信息對實體的影響,能夠滿足產(chǎn)品領(lǐng)域命名實體識別任務(wù)的一般需求。

        表10 對比實驗結(jié)果

        同時,采用Lasso算法構(gòu)建產(chǎn)品關(guān)鍵隱性設(shè)計特征識別模型,在相同參數(shù)取值下,重要度權(quán)重除產(chǎn)品最大功率,產(chǎn)品長度、寬度、重量、造型簡約度、價格外,其余系數(shù)均被壓縮為零。相較于Lasso算法,所提方法能夠為設(shè)計者提供更為詳細的產(chǎn)品設(shè)計特征重要度權(quán)重參數(shù)。因此,能夠在設(shè)計過程中根據(jù)成本等客觀條件的限制靈活考慮設(shè)計特征的數(shù)量及其重要度。在客觀條件允許的情況下,盡可能地減小設(shè)計結(jié)果與用戶滿意之間的偏差。

        此外,本研究也存在一定的局限性與可提升空間。作為基于智能算法構(gòu)建的產(chǎn)品關(guān)鍵設(shè)計特征識別系統(tǒng)的第一次探索性嘗試,受人力等資源的限制,本研究僅以代表性家電產(chǎn)品為例進行挖掘。經(jīng)實驗證明,本文所提研究方法可行。因此,在人力、財力、時間等條件充裕的情況下,盡可能地增加研究樣本數(shù)量使其涵蓋更為廣泛的產(chǎn)品種類能夠使本文的研究更具說服力,這同時也是后續(xù)研究的關(guān)注點之一。

        4 結(jié)束語

        本文提出一種基于BERT和隨機Lasso的產(chǎn)品關(guān)鍵設(shè)計特征識別方法。以特定領(lǐng)域命名實體識別任務(wù)的形式實現(xiàn)了產(chǎn)品關(guān)鍵顯性設(shè)計特征的自動獲取,這將推動自然語言處理技術(shù)在處理設(shè)計領(lǐng)域文本的發(fā)展,實現(xiàn)機器代替設(shè)計師從用戶反饋數(shù)據(jù)中抽取關(guān)鍵設(shè)計特征的工作。同時,提出知識遷移思想,借助大數(shù)據(jù)的優(yōu)勢,利用智能算法構(gòu)建產(chǎn)品關(guān)鍵隱性設(shè)計特征發(fā)現(xiàn)系統(tǒng),為今后的研究提供了新思路。未來將考慮增加研究樣本數(shù)量,使其能夠涵蓋更為廣泛的產(chǎn)品種類,以及知識抽取的其他兩個方面:實體關(guān)系抽取(Relation Extraction,RE)和屬性抽取(Attribute Extraction,AE)。

        猜你喜歡
        特征文本用戶
        如何表達“特征”
        在808DA上文本顯示的改善
        不忠誠的四個特征
        當代陜西(2019年10期)2019-06-03 10:12:04
        基于doc2vec和TF-IDF的相似文本識別
        電子制作(2018年18期)2018-11-14 01:48:06
        抓住特征巧觀察
        關(guān)注用戶
        商用汽車(2016年11期)2016-12-19 01:20:16
        關(guān)注用戶
        商用汽車(2016年6期)2016-06-29 09:18:54
        關(guān)注用戶
        商用汽車(2016年4期)2016-05-09 01:23:12
        文本之中·文本之外·文本之上——童話故事《坐井觀天》的教學(xué)隱喻
        如何獲取一億海外用戶
        欧美亚洲日韩国产人成在线播放| 亚洲色图在线免费视频| 亚洲精品乱码久久久久久不卡| 精品人妻无码一区二区三区蜜桃一 | 人妻1024手机看片你懂的| 美女视频黄是免费| 香蕉久久福利院| 久久久久久一级毛片免费无遮挡| 我的极品小姨在线观看| 五月色丁香婷婷网蜜臀av| 老熟女高潮一区二区三区| 日本特黄a级高清免费大片| 精品一区2区3区4区| 婷婷五月深深久久精品| 久久久久亚洲av无码专区网站| 欧美日本国产亚洲网站免费一区二区| 亚洲午夜精品第一区二区| 亚洲av无码专区亚洲av网站| 日本大片免费观看完整视频| 亚洲人成在线播放a偷伦| 国产白浆一区二区在线| 久久久无码精品亚洲日韩按摩| 1769国产精品短视频| 中文字幕久区久久中文字幕| 精品高朝久久久久9999| 国精无码欧精品亚洲一区| 国产老妇伦国产熟女老妇高清| 蜜桃成熟时日本一区二区| 大学生高潮无套内谢视频| 国产剧情国产精品一区| 蜜臀av国内精品久久久人妻| 精品一区二区av天堂色偷偷| 亚洲精品无码久久久久秋霞| 国产成人精品三上悠亚久久| 亚洲中文字幕一区二区三区多人| 久久精品国产只有精品96 | 亚洲成a∨人片在线观看无码| 日本女优五十路中文字幕| 欧美丰满熟妇bbb久久久| 美女视频一区| 丰满人妻一区二区三区精品高清|