亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        智能交互的物體識別增量學習技術(shù)綜述

        2017-05-16 06:59:57李雪蔣樹強
        智能系統(tǒng)學報 2017年2期
        關(guān)鍵詞:模態(tài)智能信息

        李雪,蔣樹強

        (1.山東科技大學 計算機科學與工程學院,山東 青島 266590; 2. 中國科學院計算技術(shù)研究所 智能信息處理重點實驗室,北京 100190)

        智能交互的物體識別增量學習技術(shù)綜述

        李雪1,2,蔣樹強2

        (1.山東科技大學 計算機科學與工程學院,山東 青島 266590; 2. 中國科學院計算技術(shù)研究所 智能信息處理重點實驗室,北京 100190)

        智能交互系統(tǒng)是研究人與計算機之間進行交流與通信,使計算機能夠在最大程度上完成交互者的某個指令的一個領(lǐng)域。其發(fā)展的目標是實現(xiàn)人機交互的自主性、安全性和友好性。增量學習是實現(xiàn)這個發(fā)展目標的一個途徑。本文對智能交互系統(tǒng)的任務(wù)、背景和獲取信息來源進行簡要介紹,主要對增量學習領(lǐng)域的已有工作進行綜述。增量學習是指一個學習系統(tǒng)能不斷地從新樣本中學習新的知識,非常類似于人類自身的學習模式。它使智能交互系統(tǒng)擁有自我學習,提高交互體驗的能力。文中對主要的增量學習算法的基本原理和特點進行了闡述,分析各自的優(yōu)點和不足,并對進一步的研究方向進行展望。

        人工智能;人機交互;計算機視覺;物體識別;機器學習;多模態(tài);機器人;交互學習

        智能交互系統(tǒng)最為重要的一項任務(wù)就是捕獲和理解外界環(huán)境信息,從而完成交互方任務(wù)。近年來,由于人工智能和機器人學等相關(guān)領(lǐng)域技術(shù)的進步,智能交互系統(tǒng)得到了廣泛的關(guān)注,高性能智能交互系統(tǒng)的實現(xiàn)也更加現(xiàn)實。智能交互系統(tǒng)感知外界環(huán)境比人類困難得多,而準確感知外界環(huán)境可以提高智能交互系統(tǒng)的交互性能,因此許多智能交互系統(tǒng)相關(guān)的工作探索了提高對外界環(huán)境感知性能的問題,主要的思想策略包括多模態(tài)信息融合和增量學習兩個方面。多模態(tài)的信息融合可以使智能系統(tǒng)增加對外界環(huán)境的確定性,同時,不斷變化的外界環(huán)境要求智能系統(tǒng)擁有不斷自我學習的能力。通過交互不斷學習外界信息也使智能系統(tǒng)的性能得以不斷提升。在計算機視覺、智能交互系統(tǒng)等領(lǐng)域,增量學習都已引起了廣泛的關(guān)注。本文基于智能交互系統(tǒng)的物體識別,對增量學習的進展進行綜述。首先,對智能交互系統(tǒng)的研究背景和現(xiàn)狀進行簡要介紹,在此基礎(chǔ)上,對增量學習主要算法進行綜合對比與分析。最后討論了增量學習可擴展和待解決的問題,以及進一步的研究方向。

        1 智能交互系統(tǒng)對環(huán)境的感知

        對于人類來說,我們可以精確地感知周圍環(huán)境變化并作出相應(yīng)的反應(yīng),但對于計算機來說,獲取并分析周圍環(huán)境信息,同時通過模仿人類行為來實現(xiàn)與人的交互,這是一個極具挑戰(zhàn)性的任務(wù)。它包括場景理解、活動分類、運動分析、物體識別、自然語言理解、語音合成等方面。每個方面都可作為一個獨立研究的任務(wù)。

        準確感知外部環(huán)境可以使智能交互系統(tǒng)提高任務(wù)的完成度、完成的準確度和交互者對交互體驗的滿意度。多模態(tài)的外部信息,信息中較多的干擾和噪聲,外界環(huán)境的復雜多變,都對智能系統(tǒng)建立對外部環(huán)境的準確感知提出了挑戰(zhàn)。

        為了增強交互系統(tǒng)對外部環(huán)境的感知性能,兩個方面的相關(guān)工作被廣泛研究:1)多模態(tài)信息融合;2)通過交互增量學習,自我改進。

        2 多模態(tài)輸入與信息融合

        人類為了精確感知周圍環(huán)境,往往會結(jié)合多種感知信息,如視覺、聽覺、觸覺等。認知科學的研究表明通過結(jié)合感官信息,人類可以增強對環(huán)境的感知。因此在多模態(tài)信息輸入的智能交互系統(tǒng)中,互補的輸入模式給系統(tǒng)提供了冗余的信息,而冗余輸入模式增加了系統(tǒng)融合信息的準確性,降低系統(tǒng)對外界環(huán)境的不確定性,增加對環(huán)境感知的可靠性,從嘈雜的信息中產(chǎn)生一個單一的整體狀態(tài)[1-3]。

        2.1 自然語言理解

        智能交互系統(tǒng)常常需要通過理解自然語言來對交互者的語言進行分析,從而獲取到對方的指令。自然語言處理是計算機科學領(lǐng)域與人工智能領(lǐng)域中的一個重要方向。它研究能實現(xiàn)人與計算機之間用自然語言進行有效通信的各種理論和方法。自然語言處理是一門融語言學、計算機科學、數(shù)學于一體的科學。其常用的方法有:1)關(guān)鍵詞匹配;2)使用有標注的語料庫;3)語義分析。在文獻[4]中,該系統(tǒng)使用關(guān)鍵詞匹配技術(shù)實現(xiàn)自然語言理解,并假設(shè)相應(yīng)的單詞有某種特定的序列。文獻[5]和文獻[6]使用語義分析技術(shù)實現(xiàn)對自然語言的理解和分析。文獻[5]的語言模型從現(xiàn)有的語料庫[7]中訓練得到, 而文獻[6]通過系統(tǒng)與交互者對話的過程不斷獲得語料,并逐步學習,不斷改進其語言模型。

        2.2 計算機視覺

        由于獲取外界信息的另一個主要渠道是視覺,所以計算機視覺是當前人機交互中一個非?;钴S的領(lǐng)域。這一學科的基本假設(shè)是:可以通過計算的方式來模擬人類的視覺機制。如圖1所示,智能系統(tǒng)模擬人類視覺機制的過程主要包括兩個方面:1)智能系統(tǒng)要有能力將外部視覺信息轉(zhuǎn)化為智能系統(tǒng)的內(nèi)部表示;2)從外部環(huán)境獲取到的視覺信息到語義方面的文字需要一個可用的映射。

        圖1 計算機模擬人類視覺機制Fig.1 Computer simulation of human visual mechanism

        第1個方面主要要求智能系統(tǒng)可以從圖像中提取出有判別能力的特征。圖像特征基本包括兩種:手工設(shè)計的淺層特征和使用深度模型提取的深度特征。 SIFT[8]、FPFH (fast point features histogram)[9]和ensembles of shape features[10]等都屬于手工設(shè)計的淺層特征。這種特征對圖像變化如圖像旋轉(zhuǎn)、尺度變化等具有不變性。但是淺層特征只能捕捉到一部分圖像信息[11]。與此相反的是,由于近年來深度學習模型(如卷積神經(jīng)網(wǎng)絡(luò)[12])方面的進步,由深度學習模型提取的深度特征可以捕獲圖像語義等更高層面的信息,具有更強的區(qū)分能力。因此,在計算機視覺方面,深度特征被廣泛使用。

        智能系統(tǒng)模擬人類視覺機制的另一個要求是可以對圖像特征進行分類識別。在圖像識別方面存在一系列的分類、聚類算法,如決策樹、SVM、混合高斯模型等。

        2.3 多模態(tài)信息融合

        自然語言理解和計算機視覺是智能交互系統(tǒng)獲取外界信息的兩個主要途徑。單一模態(tài)信息使智能系統(tǒng)難以對外界環(huán)境產(chǎn)成一個準確的認識,多模態(tài)信息融合可以增加系統(tǒng)對環(huán)境信息的確認度,通過多模態(tài)信息融合,智能系統(tǒng)擺脫了單一模態(tài)的限制,使人機交互更加智能。當前已經(jīng)有很多工作關(guān)注于多模態(tài)融合這一方面的研究[13-20]。

        2.4 多模態(tài)信息融合與增量學習

        多模態(tài)信息融合幫助智能交互系統(tǒng)最大程度上地利用了可獲取的外部信息,消除了單一模態(tài)中噪聲帶來的不一致性,從而可以準確地感知和理解外部環(huán)境。

        對外部環(huán)境信息的準確感知使得智能交互系統(tǒng)在交互的過程中產(chǎn)生合情合理的語言或行為,這有助于提升系統(tǒng)的交互性能,得到更加良好的用戶體驗,如表1所示。

        表1 智能交互系統(tǒng)主要交互方式

        優(yōu)秀的交互性能和良好的用戶體驗使得智能系統(tǒng)可以從交互者處得到正確并且及時的反饋,這為智能系統(tǒng)在交互中進行增量學習打下了堅實的基礎(chǔ)。

        3 通過交互學習

        由于外界環(huán)境復雜多變,智能交互系統(tǒng)無法在訓練前獲取到所有可能情形的全部有效信息作為訓練數(shù)據(jù)(如圖2所示,應(yīng)用環(huán)境中的“書籍”在訓練環(huán)境中出現(xiàn)過,屬于舊類別的新實例,而“香蕉”則未曾在訓練環(huán)境中出現(xiàn),屬于新類別。智能系統(tǒng)無法識別這兩種未經(jīng)學習的物體)。這就要求智能系統(tǒng)擁有自我學習的能力,可以在交互的過程中獲得新的信息,學習到新的知識。

        圖2 實際環(huán)境的復雜多變和非增量方法的局限性Fig.2 The complex of environment and the limitation of constant model

        多模態(tài)的交互引導多模態(tài)的學習,反過來多模態(tài)的學習又會改善多模態(tài)的交互。這是一個相互促進,共同提高的過程。

        3.1 從交互中學習新知識的機器人

        當前已經(jīng)有許多相關(guān)工作展開了關(guān)于智能系統(tǒng)通過交互進行增量學習的研究[21-25]。

        多方社交智能機器人在酒吧中使用自然語言與客人對話,根據(jù)客人的需要為他們提供相應(yīng)的飲品[26]。它的學習任務(wù)在于引導一個多方互動對話,其目標為:當機器人的視野中同時出現(xiàn)多位客人時,以社會可接受的行為來盡可能為客人提供正確的飲品。

        室內(nèi)路線說明機器人[27]基于預(yù)定義的室內(nèi)地圖通過語音和手勢向交互者提供方向引導他們到達相應(yīng)的位置。它的學習任務(wù)是通過交互不斷學習進入,維持和解除與它面前的人進行交互的恰當時機。

        移動機器人[28]被用來獲取物體和相關(guān)屬性的新知識。它的任務(wù)包括發(fā)現(xiàn)未知的物品,詢問物品的外形并獲取相關(guān)的新知識。其學習任務(wù)為通過交互者獲得新物品的物理外形描述,以此來擴充其知識庫。

        3.2 智能交互系統(tǒng)自我學習的策略

        智能交互系統(tǒng)自我學習的能力需要通過某種探索和學習新知識的策略來實現(xiàn)。

        增量學習是近年來備受關(guān)注的一種學習新知識的策略,旨在利用新數(shù)據(jù)來不斷更新原有模型,使學習具有延續(xù)性,從而實現(xiàn)增量式的學習。

        增量學習使智能交互系統(tǒng)可以進行持續(xù)性的學習,外部環(huán)境和交互者充當“老師”的角色,而系統(tǒng)則通過多模態(tài)的交互不斷獲得并學習新信息。

        4 增量學習

        4.1 增量學習的背景

        由于真實的交互環(huán)境是開放并且復雜多變的[29],在訓練模型之前無法獲取到所有可能情形的有效信息作為訓練數(shù)據(jù)。除此之外,數(shù)據(jù)標簽的獲取也需要耗費大量人力、物力、財力和時間。最為重要的一點是,新的物體類別不斷產(chǎn)生,已有物體類別的新實例不斷出現(xiàn),甚至有的物體類別的意義不斷遷移變化,這都在數(shù)據(jù)方面要求智能系統(tǒng)需要具有不斷學習的能力。另一方面,自我學習的能力可以使智能系統(tǒng)在獲得新數(shù)據(jù)時隨時學習,不需要重新訓練全部數(shù)據(jù)[30]。這又在模型方面要求智能系統(tǒng)需要具有不斷學習的能力。

        4.2 增量學習的現(xiàn)狀

        學習新數(shù)據(jù)基本可以分為兩種策略:一種是拋棄原有模型,在現(xiàn)有數(shù)據(jù)上學習新知識;另一種是基于原有模型,在此基礎(chǔ)上繼續(xù)學習新知識。這兩種策略可以引出著名的穩(wěn)定性-可塑性定理(stability-plasticity dilemma)[31]。

        這個定理指出,一個完全穩(wěn)定的模型可以保存已經(jīng)學到的知識不忘記,但無法學習到新的知識;而一個完全可塑的模型可以學習新知識,但無法保存以前學到的知識(如圖3所示)。而優(yōu)秀的增量學習方法就是在可塑性和穩(wěn)定性之間尋找一個合理的權(quán)衡。

        圖3 穩(wěn)定性-可塑性定理Fig.3 Stability-plasticity dilemma

        文獻[32]提出真正的增量學習應(yīng)該滿足4個條件,如圖4。

        圖4 增量學習的條件Fig.4 The conditions of incremental learning

        1)可以學習舊類別的新數(shù)據(jù)?!皶备拍钤谟柧毉h(huán)境已經(jīng)出現(xiàn)過,應(yīng)用環(huán)境中的“書籍”是舊類別的新實例。

        2)可以學習新類別?!跋憬丁备拍钤谟柧毉h(huán)境未出現(xiàn)過,應(yīng)用環(huán)境中的“香蕉”屬于新類別。

        3)在學習新知識時,舊的訓練數(shù)據(jù)不是必須的。增量學習時只使用應(yīng)用環(huán)境中的新數(shù)據(jù)(“書籍”)和新類別(“香蕉”)作為訓練數(shù)據(jù),而不需要已經(jīng)學過的“罐”、“蘋果”和“杯子”數(shù)據(jù)。

        4)學習新知識后,不會忘記已經(jīng)學到的舊知識。在應(yīng)用環(huán)境中仍能識別以前在訓練環(huán)境中學到的舊概念:“罐”、“蘋果”、“杯子”和“書籍”概念的舊實例。

        當前有許多增量學習方面的工作并不嚴格滿足以上4個條件。

        4.3 拋棄原有模型

        對于學習新數(shù)據(jù)的第1種策略:拋棄原有模型,在現(xiàn)有數(shù)據(jù)上學習新知識。這種完全可塑的策略面臨的最大問題是災(zāi)難性的遺忘(catastrophic forgetting)。它在現(xiàn)有新數(shù)據(jù)上學習知識,可以學到新的數(shù)據(jù)和類別,并且可以不需要原來的訓練數(shù)據(jù),滿足增量學習的前3個條件。但它拋棄原有模型,則會導致舊知識的遺忘,不能滿足第4個條件。神經(jīng)網(wǎng)絡(luò)常常使用這種策略的模型,例如多層感知機、徑向基函數(shù)網(wǎng)絡(luò),小波網(wǎng)絡(luò)和Kohonen網(wǎng)絡(luò)。

        4.4 基于原有模型繼續(xù)學習

        對于學習新數(shù)據(jù)的第2種策略:基于原有模型,在此基礎(chǔ)上繼續(xù)學習新知識。這種策略也常因關(guān)注于不同的方面而不能完全滿足增量學習的4個條件。

        根據(jù)增量學習算法學習的內(nèi)容來看,新數(shù)據(jù)主要來源于兩個方面:1)數(shù)據(jù)來源于已經(jīng)學習過的類別,是舊類別的新實例;2)數(shù)據(jù)來源于沒有學習過的類別,是新類別的數(shù)據(jù)。

        4.4.1 學習舊類別的新實例

        學習舊類別的新實例這一任務(wù)在某種程度上與遷移學習有些相似之處但又有不同,如表2。

        表2 增量學習與遷移學習的比較

        Table 2 Comparison between transfer learning and incremental learning

        類別相同點不同點遷移學習增量學習將已學習的知識轉(zhuǎn)移到新的任務(wù)訓練集領(lǐng)域與測試集領(lǐng)域不同;新領(lǐng)域的數(shù)據(jù)未經(jīng)過學習訓練集領(lǐng)域與測試集領(lǐng)域相同;新數(shù)據(jù)經(jīng)過學習

        遷移學習的任務(wù)是將某一領(lǐng)域?qū)W到的特征或信息應(yīng)用到另一個不同但相似的領(lǐng)域上,如文獻[33]。增量學習舊類別新實例的目標是利用現(xiàn)有的特征在相同任務(wù)(需要識別的類別不變)但規(guī)模擴大的數(shù)據(jù)集上學習新的知識。

        文獻[34]修改了原SVM目標函數(shù)中的損失項,使修改后的SVM可以在原模型的基礎(chǔ)上修改分類面,實現(xiàn)增量學習舊類別新實例;文獻[35]提出了一個基于SVM框架增量學習的精確解,即每增加一個訓練樣本或減少一個樣本都會對Lagrange系數(shù)和支持向量產(chǎn)生影響,以此來調(diào)整分界面;文獻[36]介紹了HME(hierarchical mixture of experts)框架, 這種框架在特征空間的不同區(qū)域訓練了多個分類器,將各個分類器的輸出通過一個網(wǎng)絡(luò)進行加權(quán)得到最終結(jié)果,它利用線性最小二乘法(linear least squares)和加權(quán)線性最小二乘法(weighted linear least squares)通過遞歸來增量的更新每個數(shù)據(jù)點的參數(shù),從而實現(xiàn)增量式的在線學習;文獻[37]每次從候選訓練數(shù)據(jù)集中選取一部分新的信息,并把選取出的新數(shù)據(jù)添加到當前數(shù)據(jù)集中;文獻[38]擴展了文獻[37]的增量學習方法,通過對候選訓練數(shù)據(jù)集進行無監(jiān)督的聚類,每次選出最有信息量的一部分數(shù)據(jù)加入當前訓練數(shù)據(jù)中;文獻[39]提出了一種結(jié)構(gòu)學習算法,它使用數(shù)據(jù)集中的一小部分作為訓練數(shù)據(jù)來建立一個具有最優(yōu)隱藏層節(jié)點數(shù)目的前饋網(wǎng)絡(luò),該方法以訓練數(shù)據(jù)集中較少的一部分數(shù)據(jù)作為初始的訓練數(shù)據(jù),通過有效的選擇訓練數(shù)據(jù),最終產(chǎn)生一個最少但對所有數(shù)據(jù)有效的訓練集。

        這些增量學習方法更加關(guān)注于學習舊類別的新實例,它們都無法完全滿足增量學習的4個條件。首先,這些方法無法學習新類別的數(shù)據(jù)。其次,有些方法在增量學習的同時必須使用部分或全部原始數(shù)據(jù)。

        4.4.2 學習新類別的數(shù)據(jù)

        與學習舊類別的新實例相比,學習新類別明顯更加具有挑戰(zhàn)性。

        這個任務(wù)的目標是利用現(xiàn)有的特征在更加復雜的任務(wù)(需要識別的類別增加)并且規(guī)模擴大的數(shù)據(jù)集上學習新的知識。

        對遷移學習的關(guān)注使得更多的研究工作注重于使用更少的數(shù)據(jù)來學得泛化性能更好的模型。由此轉(zhuǎn)化到學習新類別方面的兩個較為典型的研究領(lǐng)域為:one-shot learning 和 zero-shot learning。文獻[40]提出了一種貝葉斯遷移學習方法,這種增量學習方法可以使用少量新數(shù)據(jù)學習到新類別。文獻[41]提出了一種基于多模型的知識遷移算法,這種增量學習方法可以依靠已經(jīng)學習的類別使用少量新數(shù)據(jù)來有效的學習新類別。通過求解一個凸優(yōu)化問題,該方法自動選擇利用哪一部分舊知識傳遞多少信息最為有效并確保在可用訓練集上達到最小誤差。文獻[42]通過使用屬性分類器來實現(xiàn)zero-shot learning的目標。

        文獻[43]指出,在其之前的大多數(shù)增量學習的工作都專注于二分類問題,這篇文章提出了一個多類分類的方法,在保存已學到的知識的基礎(chǔ)上把當前的N類分類器轉(zhuǎn)化為一個N+1類分類器;文獻[44]提出了一種具有層級關(guān)系的增量學習模型NCMF(nearestclassmeanforestclassifier)。這種方法以層級關(guān)系來組織概念,使得學習新類別時可以更新局部節(jié)點來達到增量的目的。文獻[45]結(jié)合SVM算法最大分類間隔的策略和半監(jiān)督學習算法低密度分隔符技術(shù),來增加新的分界面以此識別新類別。

        這些增量學習方法更加關(guān)注于學習新類別,它們對舊類別的新實例的學習效果尚未得到驗證,同時有些方法在學習新數(shù)據(jù)的同時必須使用部分或全部原始數(shù)據(jù),無法完全滿足增量學習的4個條件。

        表3 增量學習算法對比分析

        Table 3 Comparative analysis of incremental learning algorithms

        算法新類別舊類別新實例不需要原始數(shù)據(jù)實現(xiàn)技術(shù)文獻[32]√√√多模型組合文獻[34]√√調(diào)整模型參數(shù)文獻[35]√√調(diào)整模型參數(shù)文獻[36]√√多模型組合文獻[38]√選取有效數(shù)據(jù)文獻[39]√選取有效數(shù)據(jù)文獻[40]√√調(diào)整模型參數(shù)文獻[41]√√多模型組合文獻[42]√√多模型組合文獻[43]√調(diào)整模型參數(shù)文獻[44]√√調(diào)整模型參數(shù)文獻[45]√調(diào)整模型參數(shù)文獻[46]√√√多模型組合文獻[47]√√√調(diào)整模型參數(shù)文獻[48]√√調(diào)整模型參數(shù)文獻[49]√√調(diào)整模型參數(shù)文獻[50]√√調(diào)整模型參數(shù)文獻[51]√調(diào)整模型參數(shù)

        4.4.3 實現(xiàn)增量學習的3種技術(shù)

        總體來說增量學習算法使用的技術(shù)可以總結(jié)為3類[32](圖5):

        1)選擇最有信息量的數(shù)據(jù);

        2)使用多模型集合實現(xiàn)模型的加強;

        3)改變模型的參數(shù)或結(jié)構(gòu)。

        圖5 增量學習的3種技術(shù)Fig.5 Three techniques of incremental learning

        其中第1類方法往往用于實現(xiàn)舊類別新實例的增量,并且需要使用部分或全部原始數(shù)據(jù)。其目的是在一段信息流中選取最有效的數(shù)據(jù),使用最少的數(shù)據(jù)完成學習任務(wù)。這種方法無法實現(xiàn)真正的增量學習。而第2類方法可以實現(xiàn)完全的增量學習。文獻[46]提出了一種基于分類器集合的算法,該算法為與學習過的實例差別較大的新數(shù)據(jù)建立新的決策集群,每個集群以無監(jiān)督的方式在特征空間中學習一個不同的超矩形部分,這個部分與要學習的目標類別相對應(yīng)。但是這個方法對閾值的選取,訓練數(shù)據(jù)中的噪聲和訓練數(shù)據(jù)學習的順序都十分敏感;文獻[47]提出了一種基于再生希爾伯特空間的增量學習算法。但是它需要數(shù)據(jù)分布的一個先驗知識,這對于增量學習任務(wù)本身來說并不容易獲得;文獻[32]受Adaboost的啟發(fā),提出了一個由分類器集合構(gòu)成的增量模型。這個算法的核心在于維護一個訓練數(shù)據(jù)的分布,使得分類錯誤的數(shù)據(jù)更容易被采樣,以此學習一個新的分類器加入集合中,而在增量學習的過程中,錯誤率較高的數(shù)據(jù)則恰恰是尚未見過或?qū)W習過的數(shù)據(jù)。但第3類方法需要訓練多個模型進行組合,計算代價大大增加,而且隨著增量學習的進行,不斷增加的基模型也是一個未解決的問題。

        4.4.4 通過改變模型參數(shù)實現(xiàn)增量學習

        因此我們更為關(guān)注第3種方法:通過調(diào)整模型參數(shù)實現(xiàn)增量學習的單一模型。

        文獻[34]修改了原SVM目標函數(shù)中的損失項,使修改后的SVM可以修改原模型的分類面,并且在不需要原始數(shù)據(jù)的前提下,近似實現(xiàn)全局數(shù)據(jù)(新數(shù)據(jù)和已經(jīng)學習過的舊數(shù)據(jù))上的損失最小化。SVM使用支撐向量來描述分界面,并將支撐向量作為參數(shù)存儲在模型中。該方法利用支撐向量來代替原始數(shù)據(jù),同時通過權(quán)重使支撐向量可以更好的模擬原始數(shù)據(jù)。文獻[35]提出的C&P 算法實現(xiàn)了SVM框架下增量學習的一個精確解。訓練SVM相當于求解一個二次規(guī)劃,二次規(guī)劃的系數(shù)個數(shù)與訓練數(shù)據(jù)個數(shù)相同。增量學習時,每增加一個訓練數(shù)據(jù),可以迭代求解一個新的系數(shù)。C&P算法的關(guān)鍵在于,每增加一個實例, 都要求學習過的所有數(shù)據(jù)全部滿足KKT條件,來求解一個確定的增量模型。此后,許多研究基于C&P 算法,逐漸展開了兩方面的工作:一方面的工作專注于算法本身,文獻[48]提出了該算法的擴展版本,每次迭代更新參數(shù)時可以同時處理多個數(shù)據(jù);另一方面的工作使用C&P 算法解決其他問題。文獻[49]和文獻[50]使用該算法實現(xiàn)了單類SVM的增量學習問題。

        與文獻[51]中修改損失項的方法相似的是,文獻[43]修改了SVM目標函數(shù)的正則項,在增加新的分界面的同時,控制已有分界面的變化。該方法通過建立新的分界面學習到新類別,同時通過控制已學到的分界面的變化,確保學到的知識不會受新類別的影響而丟失。文獻[45]借鑒SVM中最大分類間隔和半監(jiān)督學習中低密度分隔符的思想,在所有低密度分隔符中選取一個分界面使得模型的經(jīng)驗損失,結(jié)構(gòu)損失和增廣損失(新類別的損失)整體最小。文獻[51]將卷積神經(jīng)網(wǎng)絡(luò)組織成層級樹形結(jié)構(gòu),每個節(jié)點由一些相似類別的聚類構(gòu)成,該方法通過樹形結(jié)構(gòu)使得模型更新時只需要調(diào)整模型局部,并可以嚴格控制模型調(diào)整范圍,增添新節(jié)點時此方法通過克隆原有節(jié)點進行調(diào)整,使得已學到的知識不會被遺忘。

        這些通過修改原模型參數(shù)而實現(xiàn)增量學習的算法也沒有完全滿足增量學習的4個條件,它們都解決了災(zāi)難性遺忘的問題,但都更加側(cè)重于學習舊類別新實例或者新類別中的某一方面,有些方法也沒有解決需要原始數(shù)據(jù)的問題。

        5 增量學習未來研究方向展望

        目前,增量學習在智能交互、物體識別等許多方面都得到了廣泛的研究,但由于應(yīng)用環(huán)境遠比訓練環(huán)境更加復雜多變,離智能交互系統(tǒng)真正走出實驗室,進入真實應(yīng)用場景還有一段距離。本文將對增量學習未來的研究方向進行展望。

        5.1 面向大規(guī)模數(shù)據(jù)集的增量學習

        近年來,隨著信息技術(shù)的發(fā)展,數(shù)據(jù)呈現(xiàn)爆炸式增長的趨勢,這使得模型的訓練和更新都變得更加困難并且耗時。

        在面向大規(guī)模數(shù)據(jù)集時,增量學習的優(yōu)點尤為突出。一方面,在訓練數(shù)據(jù)規(guī)模擴大的同時,訓練需要的時間和計算能力都隨之增加。當新數(shù)據(jù)或新類別出現(xiàn)時,非增量的離線方法需要重新訓練已經(jīng)學習過的數(shù)據(jù),這會導致資源的浪費。而增量學習方法則可以在原始模型的基礎(chǔ)上繼續(xù)學習,不需要重新訓練所有數(shù)據(jù)。另一方面,非增量方法重新訓練全部數(shù)據(jù),這也就意味著全部的或絕大部分的數(shù)據(jù)或都必須保留,當數(shù)據(jù)量非常龐大時,數(shù)據(jù)的存儲也是一個問題。而增量學習不需要原始數(shù)據(jù),所以不需要考慮數(shù)據(jù)存儲的問題。

        5.2 面向深度學習的增量學習

        深度學習技術(shù)被大量應(yīng)用到圖像、視頻、文本等多媒體相關(guān)的任務(wù)上。一方面,深度網(wǎng)絡(luò)可以直接完成圖像分類,物體識別等任務(wù)。另一方面,這些任務(wù)所產(chǎn)生的標簽又可以應(yīng)用到圖像檢索相關(guān)的任務(wù)中。深度網(wǎng)絡(luò)又可以間接地擴展到其他任務(wù)中去。所有這些任務(wù)的真實場景中,數(shù)據(jù)及其標記的總是以增量的方式進行收集的。因此在數(shù)據(jù)方面來說,面向深度學習的增量學習是合理的。

        深度學習技術(shù)在圖像分類任務(wù)中的應(yīng)用取得了快速的進步,它的性能迅速提升。當前限制深度神經(jīng)網(wǎng)絡(luò)性能進一步提升的一個可能性是網(wǎng)絡(luò)容量。因此,一個可能的解決方案是增加網(wǎng)絡(luò)容量[51]。但是這個方案面臨著兩個困難:一方面,大網(wǎng)絡(luò)的訓練難度可能成倍增長;另一方面,如何增加網(wǎng)絡(luò)容量還不明確。因此,應(yīng)該更加謹慎地增加網(wǎng)絡(luò)容量,提升網(wǎng)絡(luò)能力。而增量學習則為逐步的、增量的改善網(wǎng)絡(luò)提供了一種可能性,當前已經(jīng)有一些相關(guān)的工作對這種可能性展開了一定的研究[39,52-54]。因此在模型方面來說,面向深度學習的增量學習也是合理的。

        5.3 聲圖文融合的多模態(tài)增量學習

        基于智能交互的增量學習系統(tǒng)通過多模態(tài)交互進行增量學習。由此看來,增量學習的內(nèi)容也應(yīng)當是多模態(tài)的。

        智能系統(tǒng)通過多模態(tài)交互進行增量學習,反過來,增量學習的結(jié)果也會提升多模態(tài)交互的性能。

        聽覺、視覺和文字是智能交互系統(tǒng)感知外界環(huán)境信息最主要的3種形式。通過聲圖文融合的增量學習方式,可以使智能交互系統(tǒng)逐步全面地適應(yīng)不斷變化的外界環(huán)境。

        5.4 知識條目和識別能力的增量學習

        現(xiàn)在的大部分研究工作更加關(guān)注于獨立的視覺概念的識別或是單純知識條目的增加構(gòu)建。但實際生活中不同的概念之間具有或隱性或顯性的關(guān)系,物體也擁有不同的屬性。這些概念和屬性可以構(gòu)成關(guān)于交互物體、交互者和外界環(huán)境的知識條目。人類可以基于這些額外的關(guān)系或?qū)傩孕畔W習到更多的知識。智能交互系統(tǒng)也應(yīng)該利用這些信息進行更全面的學習,對周圍環(huán)境或任務(wù)目標得到一個更加全面的認識。

        另一個值得關(guān)注的方面是,智能交互系統(tǒng)應(yīng)該能夠系統(tǒng)并有效地組織已學習到的知識。文獻[55]指出,將小規(guī)模的信息加入到已經(jīng)組織好的大規(guī)模信息中是人類感知,學習,和組織信息等過程中十分重要的部分。因此,智能交互系統(tǒng)應(yīng)該擁有一個合理的學習機制,并可以自動在學習到的知識間建立合理有效的聯(lián)系。

        6 結(jié)束語

        目前,增量學習在智能交互、物體識別等許多方面都得到了廣泛的研究,由于應(yīng)用環(huán)境遠比訓練環(huán)境更加復雜多變,它更加注重于解決自動學習,改善應(yīng)用效果的問題。這說明智能交互系統(tǒng)從實驗環(huán)境逐漸開始走向真實的應(yīng)用場景。

        由于不同任務(wù)關(guān)注方面各不相同,大多數(shù)研究工作都無法完全滿足增量學習的定義。但真實場景的復雜多變是單一任務(wù)目標無法模擬的,若要智能交互系統(tǒng)真正走向現(xiàn)實,需要綜合解決增量學習4個方面的問題,這是增量學習算法本身的發(fā)展趨勢。

        同時也應(yīng)該結(jié)合不同的任務(wù),實現(xiàn)適用于不同場景、不同側(cè)重點的智能增量學習系統(tǒng)。根據(jù)任務(wù)本身設(shè)計不同的策略實現(xiàn)個性化的應(yīng)用。這是從應(yīng)用場景來看的增量學習發(fā)展趨勢。

        當這些發(fā)展趨勢真正變?yōu)楝F(xiàn)實的時候,智能交互系統(tǒng)有望真正走進人類社會,為我們的日常生活帶來更多幫助,安全、便捷和高效地輔助我們完成更多任務(wù)。

        [1]ERNST M O, BüLTHOFF H H. Merging the senses into a robust percept[J]. Trends in cognitive sciences, 2004, 8(4): 162-169.

        [2]CORRADINI A, MEHTA M, BERNSEN N O, et al. Multimodal input fusion in human-computer interaction[J]. NATO Science Series Sub Series III Computer and Systems Sciences, 2005, 198: 223.

        [3]NODA K, ARIE H, SUGA Y, et al. Multimodal integration learning of robot behavior using deep neural networks[J]. Robotics and autonomous systems, 2014, 62(6): 721-736.

        [4]MERI?LI C, KLEE S D, PAPARIAN J, et al. An interactive approach for situated task specification through verbal instructions[C]//Proceedings of the 2014 international conference on Autonomous agents and multi-agent systems. Paris, France: International Foundation for Autonomous Agents and Multiagent Systems, 2014: 1069-1076.

        [5]CANTRELL R, BENTON J, TALAMADUPULA K, et al. Tell me when and why to do it! Run-time planner model updates via natural language instruction[C]//Proceedings of the 2012 IEEE International Conference on Human-Robot Interaction. Boston, MA: IEEE, 2012: 471-478.

        [6]THOMASON J, ZHANG S Q, MOONEY R, et al. Learning to interpret natural language commands through human-robot dialog[C]//Proceedings of the 24th international conference on Artificial Intelligence. Buenos Aires, Argentina: AAAI Press, 2015.

        [7]EBERHARD K M, NICHOLSON H, SANDRA K, et al. The Indiana “Cooperative Remote Search Task”(CReST) corpus[C]//Proceedings of the 2010 International Conference on Language Resources and Evaluation. Valletta, Malta: LREC, 2010.

        [8]LOWE D G. Distinctive image features from scale-invariant keypoints[J]. International journal of computer vision, 2004, 60(2): 91-110.

        [9]MORISSET B, RUSU R B, SUNDARESAN A, et al. Leaving flatland: toward real-time 3D navigation[C]//Proceedings of the 2009 IEEE International Conference on Robotics and Automation. Kobe: IEEE, 2009: 3786-3793.

        [10]HINTERSTOISSER S, HOLZER S, CAGNIART C, et al. Multimodal templates for real-time detection of texture-less objects in heavily cluttered scenes[C]//Proceedings of the 2011 IEEE International Conference on Computer Vision. Barcelona: IEEE, 2011: 858-865.

        [11]WANG Anran, LU Jiwen, CAI Jianfei, et al. Large-margin multi-modal deep learning for RGB-D object recognition[J]. IEEE transactions on multimedia, 2015, 17(11): 1887-1898.

        [12]LECUN Y, BOSER B, DENKER J S, et al. Backpropagation applied to handwritten zip code recognition[J]. Neural computation, 1989, 1(4): 541-551.

        [13]THOMASON J, SINAPOV J, SVETLIK M, et al. Learning multi-modal grounded linguistic semantics by playing I spy[C]//Proceedings of the 25th International Joint Conference on Artificial Intelligence. New York, 2016.

        [14]LIU C S, CHAI J Y. Learning to mediate perceptual differences in situated human-robot dialogue[C]//Proceedings of the Twenty-Ninth American Association Conference on Artificial Intelligence. Austin, Texas: AAAI Press, 2015: 2288-2294.

        [15]PARDE N, HAIR A, PAPAKOSTAS M, et al. Grounding the meaning of words through vision and interactive gameplay[J]. Proceedings of the 24th International Conference on Artificial Intelligence. Buenos Aires, Argentina: AAAI Press, 2015.

        [16]MATUSZEK C, FITZGERALD N, ZETTLEMOYER L, et al. A joint model of language and perception for grounded attribute learning[C]//Proceedings of the 29th International Conference on Machine Learning. Edinburgh, Scotland, 2012.

        [17]趙鵬, 陳浩, 劉慧婷, 等. 一種基于圖的多模態(tài)隨機游走重排序算法[J]. 哈爾濱工程大學學報, 2016, 37(10): 1387-1393. ZHAO Peng, CHEN Hao, LIU Huiting, et al. A multimodal graph-based re-ranking through random walk algrithm[J]. Journal of Harbin Engineering University, 2016, 37(10): 1387-1393.

        [18]段喜萍, 劉家鋒, 王建華, 等. 多模態(tài)特征聯(lián)合稀疏表示的視頻目標跟蹤[J]. 哈爾濱工程大學學報, 2015, 36(12): 1609-1613. DUAN Xiping, LIU Jiafeng, WANG Jianhua, et al. Visual target tracking via multi-cue joint sparse representation[J]. Journal of Harbin Engineering University, 2015, 36(12): 1609-1613.

        [19]FISHER J W, DARRELL T. Signal level fusion for multimodal perceptual user interface[C]//Proceedings of the 2001 Workshop on Perceptive User Interfaces. New York, NY, USA: ACM, 2001: 1-7.

        [20]JOHNSTON M, BANGALORE S. Finite-state multimodal parsing and understanding[C]//Proceedings of the 18th conference on Computational linguistics. Saarbrücken, Germany: ACM, 2000: 369-375.

        [21]BETTERIDGE J, CARLSON A, HONG S A, et al. Toward never ending language learning[C]//Proceedings of the American Association for Artificial Intelligence. 2009: 1-2.

        [22]CHERNOVA S, THOMAZ A L. Robot learning from human teachers[M]. San Rafael, CA, USA: IEEE, 2014.

        [23]MATUSZEK C, BO L F, ZETTLEMOYER L, et al. Learning from unscripted deictic gesture and language for human-robot interactions[C]//Proceedings of the 28th American Association Conference on Artificial Intelligence. Québec City, Québec, Canada: AAAI Press, 2014: 2556-2563.

        [25]顧海巍, 樊紹巍, 金明河, 等. 基于靈巧手觸覺信息的未知物體類人探索策略[J]. 哈爾濱工程大學學報, 2016, 37(10): 1400-1407. GU Haiwei, FAN Shaowei, JIN Minghe, et al. An anthropomorphic exploration strategy of unknown object based on haptic information of dexterous robot hand[J]. Journal of Harbin Engineering University, 2016, 37(10): 1400-1407.

        [26]KEIZER S, FOSTER M E, WANG Z R, et al. Machine learning for social multiparty human-robot interaction[J]. ACM transactions on interactive intelligent systems (TIIS), 2014, 4(3): 14.

        [27]BOHUS D, SAW C W, HORVITZ E. Directions robot: In-the-wild experiences and lessons learned[C]//Proceedings of the 2014 International Conference on Autonomous Agents and Multi-agent Systems. Richland, SC, 2014: 637-644.

        [28]KRAUSE E A, ZILLICH M, WILLIAMS T E, et al. Learning to recognize novel objects in one shot through human-robot interactions in natural language dialogues[C]//Proceedings of the 28th American Association Conference on Artificial Intelligence. Québec City, Québec, Canada: AAAI Press, 2014: 2796-2802.

        [29]MENSINK T, VERBEEK J J, PERRONNIN F, et al. Distance-based image classification: generalizing to new classes at near-zero cost[J]. IEEE transactions on pattern analysis and machine intelligence, 2013, 35(11): 2624-2637.

        [30]IBA W, WOGULIS J, LANGLEY P A T. Trading off simplicity and coverage in incremental concept learning[C]//Proceedings of the Fifth International Conference on Machine Learning. Ann Arbor: University of Michigan, 1988: 73.

        [31]GROSSBERG S. Nonlinear neural networks: Principles, mechanisms, and architectures[J]. Neural networks, 1988, 1(1): 17-61.

        [32]POLIKAR R, UPDA L, UPDA S S, et al. Learn++: An incremental learning algorithm for supervised neural networks[J]. IEEE transactions on systems, man, and cybernetics, part C (Applications and reviews), 2001, 31(4): 497-508.

        [33]賈剛, 王宗義. 混合遷移學習方法在醫(yī)學圖像檢索中的應(yīng)用[J]. 哈爾濱工程大學學報, 2015, 36(7): 938-942. JIA Gang, WANG Zongyi. The application of mixed migration learning in medical image retrieval[J]. Journal of Harbin Engineering University, 2015, 36(7): 938-942.

        [34]RüPING S. Incremental learning with support vector machines[C]//Proceedings of the 2011 IEEE International Conference on Data Mining. Washington, DC, USA: IEEE, 2001: 641.

        [35]CAUWENBERGHS G, POGGIO T. Incremental and decremental support vector machine learning[C]//Proceedings of the 13th International Conference on Advances in neural information processing systems. Cambridge, MA, USA: MIT Press, 2000, 13: 409.

        [36]JORDAN M I, JACOBS R A. Hierarchical mixtures of experts and the EM algorithm[J]. Neural computation, 1994, 6(2): 181-214.

        [37]WANG E H C, KUH A. A smart algorithm for incremental learning[C]//Proceedings of the 1992 IEEE International Joint Conference on Neural Networks. Baltimore: IEEE, 1992, 3: 121-126.

        [38]ENGELBRECHT A P, CLOETE I. Incremental learning using sensitivity analysis[C]//Proceedings of the 1999 International Joint Conference on Neural Networks. Washington DC: IEEE, 1999.

        [39]ZHANG B T. An incremental learning algorithm that optimizes network size and sample size in one trial[C]//Proceedings of the 1994 IEEE World Congress on Computational Intelligence. Orlando, FL, USA: IEEE, 1994, 1: 215-220.

        [40]LI F F, FERGUS R, PERONA P. One-shot learning of object categories[J]. IEEE transactions on pattern analysis and machine intelligence, 2006, 28(4): 594-611.

        [41]TOMMASI T, ORABONA F, CAPUTO B. Learning categories from few examples with multi model knowledge transfer[J]. IEEE transactions on pattern analysis and machine intelligence, 2014, 36(5): 928-941.

        [42]LAMPERT C H, NICKISCH H, HARMELING S. Learning to detect unseen object classes by between-class attribute transfer[C]//Proceedings of the 2009 IEEE Conference on Computer Vision and Pattern Recognition. Miami, FL: IEEE, 2009: 951-958.

        [43]KUZBORSKIJ I, ORABONA F, CAPUTO B. From N to N+1: Multiclass transfer incremental learning[C]//Proceedings of the 2013 IEEE Conference on Computer Vision and Pattern Recognition. Portland, OR: IEEE, 2013: 3358-3365.

        [44]RISTIN M, GUILLAUMIN M, GALL J, et al. Incremental learning of NCM forests for large-scale image classification[C]//Proceedings of the 2014 IEEE Conference on Computer Vision and Pattern Recognition. Columbus, OH: IEEE, 2014: 3654-3661.

        [45]DA Qing, YU Yang, ZHOU Zhihua. Learning with augmented class by exploiting unlabeled data[C]//Proceedings of the 28th American Association Conference on Artificial Intelligence. Québec, Canada: AAAI Press, 2014: 1760-1766.

        [46]CARPENTER G A, GROSSBERG S, REYNOLDS J H. ARTMAP: Supervised real-time learning and classification of nonstationary data by a self-organizing neural network[J]. Neural networks, 1991, 4(5): 565-588.

        [47]VIJAYAKUMAR S, OGAWA H. RKHS-based functional analysis for exact incremental learning[J]. Neurocomputing, 1999, 29(1/2/3): 85-113.

        [48]KARASUYAMA M, TAKEUCHI I. Multiple incremental decremental learning of support vector machines[J]. IEEE transactions on neural networks archive, 2010, 21(7): 1048-1059.

        [49]GRETTON A, DESOBRY F. On-line one-class support vector machines. an application to signal segmentation[C]//Proceedings of the 2003 IEEE International Conference on Acoustics, Speech, and Signal Processing. Hong Kong, China: IEEE, 2003.

        [50]LASKOV P, GEHL C, KRüGER S, et al. Incremental support vector learning: Analysis, implementation and applications[J]. The Journal of machine learning research archive, 2006, 7: 1909-1936.

        [51]XIAO Tianjun, ZHANG Jiaxing, YANG Kuiyuan, et al. Error-driven incremental learning in deep convolutional neural network for large-scale image classification[C]//Proceedings of the 22nd ACM international conference on Multimedia. New York, NY: ACM, 2014: 177-186.

        [52]LOMONACO V, MALTONI D. Comparing incremental learning strategies for convolutional neural networks[M]//SCHWENKER F, ABBAS H, EL GAYAR N, et al, eds. Artificial Neural Networks in Pattern Recognition. ANNPR 2016. Lecture Notes in Computer Science. Cham: Springer, 2016.

        [53]GRIPPO L. Convergent on-line algorithms for supervised learning in neural networks[J]. IEEE transactions on neural networks, 2000, 11(6): 1284-1299.

        [54]FU Limin, HSU H H, PRINCIPE J C. Incremental backpropagation learning networks[J]. IEEE transactions on neural networks, 1996, 7(3): 757-761.

        [55]GOBET F, LANE P C R, CROKER S, et al. Chunking mechanisms in human learning[J]. Trends in cognitive sciences, 2001, 5(6): 236-243.

        李雪,女,1992年生,碩士研究生,主要研究方向為智能信息處理與機器學習。

        蔣樹強,男,1977年生,博士生導師,主要研究方向為圖像/視頻等多媒體信息的分析、理解與檢索技術(shù)。IEEE和CCF高級會員,獲得2008年度北京市科技新星計劃支持,2012年度中國科學院盧嘉錫青年人才獎,2012年度中國計算機學會科學技術(shù)獎,2013年度中國科學院青年科學家國際合作獎,獲2013年度國家自然科學基金優(yōu)秀青年科學基金支持,入選2014年度中組部萬人計劃青年拔尖人才計劃。 發(fā)表學術(shù)論文100余篇,授權(quán)專利10項。

        Incremental learning and object recognition systembased on intelligent HCI: a survey

        LI Xue1, JIANG Shuqiang2

        (1. College of Information Science and Engineering, Shandong University of Science and Technology, Qingdao 266590, China; 2. Key Laboratory of Intelligent Information Processing, Institute of Computing Technology, Chinese Academy of Sciences, Beijing 100190, China)

        Intelligent HCI systems focus on the interaction between computers and humans and study whether computers are able to apprehend human instructions. Moreover, this study aims to make the interaction more independent and interactive. To some extent, incremental learning is a way to realize this goal. This study briefly introduces the tasks, background, and information source of intelligent HCI systems; in addition, it focuses on the summary of incremental learning. Similar to the learning mechanism of humans, incremental learning involves acquiring new knowledge on a continuous basis. This allows for the intelligent HCI systems to have the ability of self-growth. This study surveys the works that focus on incremental learning, including the mechanisms and their respective advantages and disadvantages, and highlights the future research directions.

        artificial intelligence; human-computer interaction; computer vision; object recognition; machine learning; multimodality; robotics; interactive learning

        2017-01-09.

        日期:2017-04-19.

        國家“973”計劃項目(2012CB316400).

        蔣樹強.E-mail: :sqjiang@ict.ac.cn.

        10.11992/tis.201701006

        http://kns.cnki.net/kcms/detail/23.1538.TP.20170419.1448.002.html

        TP391

        A

        1673-4785(2017)02-0140-10

        李雪,蔣樹強. 智能交互的物體識別增量學習技術(shù)綜述[J]. 智能系統(tǒng)學報, 2017, 12(2): 140-149.

        英文引用格式:LI Xue, JIANG Shuqiang. Incremental learning and object recognition system based on intelligent HCI: a survey[J]. CAAI transactions on intelligent systems, 2017, 12(2): 140-149.

        猜你喜歡
        模態(tài)智能信息
        智能前沿
        文苑(2018年23期)2018-12-14 01:06:06
        智能前沿
        文苑(2018年19期)2018-11-09 01:30:14
        智能前沿
        文苑(2018年17期)2018-11-09 01:29:26
        智能前沿
        文苑(2018年21期)2018-11-09 01:22:32
        訂閱信息
        中華手工(2017年2期)2017-06-06 23:00:31
        國內(nèi)多模態(tài)教學研究回顧與展望
        基于HHT和Prony算法的電力系統(tǒng)低頻振蕩模態(tài)識別
        展會信息
        中外會展(2014年4期)2014-11-27 07:46:46
        由單個模態(tài)構(gòu)造對稱簡支梁的抗彎剛度
        計算物理(2014年2期)2014-03-11 17:01:39
        多模態(tài)話語模態(tài)的協(xié)同及在外語教學中的體現(xiàn)
        外語學刊(2010年2期)2010-01-22 03:31:03
        日韩国产精品一本一区馆/在线| 免费毛片a线观看| 亚洲熟妇丰满大屁股熟妇| 亚洲阿v天堂2018在线观看| 一区二区三区视频免费观看在线| 国产一级二级三级在线观看视频| 亚洲精品www久久久| 午夜精品久久久| 能看的网站中文字幕不卡av| h视频在线播放观看视频| 久久久久无码精品国产app| 人妻少妇精品无码专区| 欧美人与动牲交a欧美精品| 国产精品系列亚洲第一| 日本女优久久精品观看| 欧美牲交a欧美牲交aⅴ| 精品无码专区久久久水蜜桃| 亚洲欧美国产精品久久久| 中文文精品字幕一区二区| 音影先锋中文字幕在线| 亚洲一区 日韩精品 中文字幕| 国产亚洲欧美日韩综合综合二区| 色窝窝手在线视频| 国产黄色一区二区在线看| 女女女女女裸体处开bbb| 激情综合欧美| 一个人的视频免费播放在线观看| 午夜被窝精品国产亚洲av香蕉| 国产真实偷乱视频| 蜜桃在线播放免费一区二区三区 | 中文字幕一区二区在线看| 中文有码无码人妻在线| 成人欧美一区二区三区a片| 四虎国产精品成人影院| 黄色一区二区三区大全观看| 中文无码熟妇人妻av在线| 亚洲另类欧美综合久久图片区 | 一区二区高清视频免费在线观看| 人妻av无码一区二区三区| 欧美中文字幕在线| 亚洲熟女一区二区三区不卡|