亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        有限訓(xùn)練樣本下基于深度領(lǐng)域自適應(yīng)的機器人物體抓取

        2018-10-24 07:46:06王宗偉
        電子設(shè)計工程 2018年20期
        關(guān)鍵詞:實驗方法模型

        王宗偉

        (1.中國科學(xué)院上海微系統(tǒng)與信息技術(shù)研究所上海200050;2.上??萍即髮W(xué)上海201210;3.中國科學(xué)院大學(xué)北京100049)

        在受限環(huán)境下,給定一個或多個物體作為輸入,機器人旨在尋求最大化抓取成功概率的機器爪配置。但是,因為待抓取物體的形狀各異、擺放姿態(tài)不同、周圍感知環(huán)境類似光照條件的變化等因素的干擾使該問題非常具有挑戰(zhàn)性。近年來,視覺感知的方法[1-8]在機器人抓取問題上正在吸引越來越多的注意。簡單地說,這些方法從訓(xùn)練樣本中學(xué)習(xí)一個預(yù)測抓取角度和位置的模型。因為每個物體的抓取角度并不唯一,人工標(biāo)注這些樣本將耗費大量時間和人力。此外,人工也不可能將所有可能的抓取角度都標(biāo)注出來。一種替代方法是通過機器人物理實驗[5]或者仿真的方法[9]來收集樣本。這種方法可以半自動化,節(jié)省了大量的人力,但對于未曾出現(xiàn)在訓(xùn)練集里的樣本,抓取成功率會下降很多。

        為了克服上文提到的問題,本文引入深度領(lǐng)域自適應(yīng)(deep domain adaptation)的方法將在已經(jīng)標(biāo)注的外部數(shù)據(jù)集上學(xué)到的抓取知識遷移到待抓取的新物體上。為描述方便起見,在本文中,我們稱已經(jīng)被標(biāo)注的大量樣本集叫做“源域”(source domain),被標(biāo)注的待抓取物體組成的少量樣本集叫做“目標(biāo)域”(target domain)。

        1 相關(guān)研究

        1.1 抓取規(guī)劃(Grasp Planning)

        機器人抓取是物體操縱領(lǐng)域研究最為廣泛的一個課題。一般來說,目前抓取的方法可以分為兩種,一種是幾何驅(qū)動的,另一種是數(shù)據(jù)驅(qū)動的。其中幾何驅(qū)動方法在早期的研究中較為常見。給定待抓取物體的三維模型,幾何驅(qū)動的模型使用解析方法計算最合適的抓取配置[10]。這種方法的難點在于怎樣理解給定場景下物體姿態(tài)的幾何特性。為了與數(shù)據(jù)庫中的物體模型進行匹配,點云注冊是必須的。然而,感知物體姿態(tài)本身就是一個很難的課題,而且對于不在數(shù)據(jù)庫中的新物體,還需要為其新建一個三維模型。

        另一條路線是使用機器學(xué)習(xí)技術(shù)學(xué)習(xí)一個從圖片或者深度信號到抓取配置的映射。相比于人工設(shè)計的特征,深度神經(jīng)網(wǎng)絡(luò)能夠?qū)W習(xí)到更加復(fù)雜、更抽象的表征[11],使用深度學(xué)習(xí)技術(shù)能夠大幅提高抓取性能。自然地,機器學(xué)習(xí)方法都需要大量的訓(xùn)練樣本,如引言所述,收集到大量樣本很困難。其中文獻[5]利用機器人真實抓取實驗獲取了4萬多的樣本,但樣本分布很不均衡,負(fù)樣本個數(shù)明顯多于正樣本。

        1.2 領(lǐng)域自適應(yīng)(Domain Adaptation)學(xué)習(xí)

        給 定 source domain和 target domain,source domain擁有大量已經(jīng)標(biāo)注的數(shù)據(jù),target domain擁有較少的或者沒有標(biāo)注數(shù)據(jù),source domain和target domain分布不同。領(lǐng)域自適應(yīng)學(xué)習(xí)應(yīng)意在縮小二者分布上的差異、最大化二者之間的共有特性,并將在source domain學(xué)到的知識遷移到target domain,達到提升模型在target domain上性能的目的[12-15]。領(lǐng)域自適應(yīng)學(xué)習(xí)在計算機視覺領(lǐng)域已經(jīng)被研究多年,近來隨著深度學(xué)習(xí)的發(fā)展,deep domain adaptation方法的性能最優(yōu),已被廣泛應(yīng)用。然而本文是第一次將deepdomain adaptation方法引入機器人抓取問題上,并針對機器人抓取問題提出了新的目標(biāo)函數(shù)。

        2 方法

        本部分首先回顧機器人抓取問題的定義,然后為了減少過擬合的風(fēng)險,我們用softmax分類器替換多個二分類器,最后我們將深度領(lǐng)域自適應(yīng)方法引入到機器人抓取問題上。

        2.1 機器人抓取問題回顧

        依據(jù)文獻[5],機器人抓取仿真的定義如下:給定一張圖片,對于其中的特定物體,預(yù)測其最可能成功的抓取角度θ。因為θ是連續(xù)的,自然地這是一個回歸問題。但是回歸θ很困難,原因如下:1)因為抓取速度的問題,很難采樣足夠多的、窮盡所有角度的樣本;2)對一個特定物體而言也存在著多種抓取角度。為了簡化這個問題,θ被平均分成K個區(qū)間,具體來說,圖像中的物體首先被裁剪出來然后被送到一個卷積神經(jīng)網(wǎng)絡(luò)中(CNN)去,在這個網(wǎng)絡(luò)的最后一層輸出,我們估計一個K維的概率向量,其中第k維表示這個物體能夠在θk抓取成功的概率。

        2.2 softmax角度回歸

        一次成功的物體抓取依賴于3個因素:精準(zhǔn)的物體定位、正確的抓取角度預(yù)測和精密的機器爪。假定物體定位和機器爪都是理想的,那么預(yù)測一個合適的抓取角度變成了問題的核心。在我們的實驗中,我們發(fā)現(xiàn)通過上述描述的目標(biāo)函數(shù)訓(xùn)練的模型經(jīng)常給出錯誤的角度預(yù)測。原因在于公式(2)假定一個物體存在多個抓取可能并試圖訓(xùn)練多個,比如K個二值分類器,但在只有少量訓(xùn)練樣本的情況下,每個分類器只能分得1/K的樣本,因此模型很容易陷入過擬合。

        為了解決這個問題,我們用一個多分類器softmax替代多個二值分類器。盡管一個物體可能存在多個合適的抓取角度,但我們限制一個物體只有一個最合適的抓取角度。這樣做的好處是所有的訓(xùn)練樣本都是softmax分類器的輸入,降低了過擬合的風(fēng)險。用softmax回歸抓取角度的目標(biāo)函數(shù)如下:

        2.3 領(lǐng)域自適應(yīng)機器人抓取

        依賴于學(xué)習(xí)的模型通常需要大量的訓(xùn)練數(shù)據(jù),深度學(xué)習(xí)對數(shù)據(jù)的需求尤為明顯。對機器人抓取來說,在實際中,我們很容易從收集到大量公共數(shù)據(jù),然而對我們要抓取的物體來說,手頭數(shù)據(jù)一般不足。只用我們自己的待抓取物體或者使用公共數(shù)據(jù)作為訓(xùn)練集都不是最優(yōu)的選擇。原因是前者會導(dǎo)致訓(xùn)練的模型在訓(xùn)練集上嚴(yán)重過擬合,泛化性能不佳,而因為數(shù)據(jù)分布上的差異,后者得到的模型在待抓取物體上性能會下降很多。為了充分利用公共數(shù)據(jù)和我們自己收集的數(shù)據(jù),我們引入深度領(lǐng)域自適應(yīng)的方法。

        2.3.1 source domain與target domain的差異

        在有關(guān)domain adaptation的研究中,最大平均差異(maximum mean discrepancy,MMD)經(jīng)常被用來度量source domain與target domain之間的差異。MMD計算source data與target data在特征空間上各自均值之間的歐式距離。為了降低特征維度,像文獻[17]那樣,我們在網(wǎng)絡(luò)的最后一層之上添加一層特征適應(yīng)層(feature adaptation layer,fc_adapt)。給定兩個抓取角度相同的物體,我們強制訓(xùn)練的模型預(yù)測相同的抓取角度,不管他們來自哪個域?,F(xiàn)在我們正式定義angle-wise MMD損失函數(shù)如下:

        2.3.2 保留target domain的判別能力

        文獻[18]表明當(dāng)神經(jīng)網(wǎng)絡(luò)由淺入深時,學(xué)到的特征會從一般變的越來越跟任務(wù)相關(guān)。在我們的設(shè)計中,fc_adapt是倒數(shù)第二層,因此source domain和target domain在這一層不共享參數(shù),他們在這一層的特征分別用fc_adapt_s和fc_adapt_t表示。這樣一來,fc_adapt_t保留了target domain的判別能力。

        遵循以上兩條原則,我們設(shè)計的網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

        圖1 網(wǎng)絡(luò)結(jié)構(gòu)圖

        2.4 目標(biāo)函數(shù)

        訓(xùn)練過程分為兩個階段,第一階段與文獻[5]相同,公式(2)作為我們的目標(biāo)函數(shù),訓(xùn)練過程是在source數(shù)據(jù)集上完成的。訓(xùn)練的模型用于機器人抓取實驗的物體定位。一旦我們得到了準(zhǔn)備的物體定位,抓取成功就依賴角度預(yù)測了。領(lǐng)域自適應(yīng)下抓取角度預(yù)測的目標(biāo)函數(shù)如下:

        其中λ是一個超參數(shù),它控制著兩個域之間的混合程度以及我們希望目標(biāo)域在多大程度上保存它自身的區(qū)分度與判別能力。

        3 實驗

        3.1 訓(xùn)練集

        我們使用文獻[5]公開的數(shù)據(jù)集作為源數(shù)據(jù)集,自己收集的作為目標(biāo)數(shù)據(jù)集。將訓(xùn)練、驗證和測試樣本合并后,源數(shù)據(jù)集總共有6266個正樣本和44301個負(fù)樣本。目標(biāo)數(shù)據(jù)集共有5064個正樣本,其中4078個被用于訓(xùn)練,剩下的作為測試集。所有圖像的大小被調(diào)整到227×227,而且都減去均值(104,117,124)。需要注意的是當(dāng)我們采用公式(5)作為我們的目標(biāo)函數(shù)時,只有正樣本參與模型訓(xùn)練。

        3.2 訓(xùn)練和評估設(shè)置

        這部分比較deep domain adaptation方法與其他基礎(chǔ)實驗在測試集上的性能。我們考慮了4種基礎(chǔ)實驗:source only(只用source data訓(xùn)練),target only(只用target data訓(xùn)練),mixed(將source data與target data混在一起訓(xùn)練),finetune(先在source data上預(yù)訓(xùn)練,再在target data上微調(diào))。這4個實驗全部使用公式(3)作為目標(biāo)函數(shù)。

        實驗全都基于Tensorflow實現(xiàn)。在所有的實驗中,學(xué)習(xí)率都設(shè)定為2.5e-3,K=18,也即是我們將180度平均分成18個區(qū)間。SGD優(yōu)化器被采用,batch size為144我們依據(jù)模型在測試集上的最好表現(xiàn)來選取fc_adapt的維度,最終其維度被設(shè)定為128。給定測試樣例,我們依據(jù)如下標(biāo)準(zhǔn)如下度量模型性能:‖θ?-θ‖1≤1。其中θ?是模型預(yù)測的角度,θ是標(biāo)定真實角度。因為機器爪的精度原因,誤差在10度內(nèi)都是可以被接受的。

        實驗結(jié)果如表1所示。從中可以看出domain adaptation的性能最佳,超過target only2.84個百分點。

        表1 各方法測試結(jié)果

        4 結(jié)論

        本文將domain adaptation方法引入到機器人抓取領(lǐng)域,并提出將多個二分類器用一個多分類器替代的方案。該方案一是有效減少了模型過擬合的風(fēng)險,二是可以充分利用公共數(shù)據(jù)和我們自己采集的數(shù)據(jù),將在source domain學(xué)到的抓取知識遷移到target domain,實驗結(jié)果證實了該方案可以提高機器人抓取的成功率。

        猜你喜歡
        實驗方法模型
        一半模型
        記一次有趣的實驗
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        做個怪怪長實驗
        可能是方法不對
        3D打印中的模型分割與打包
        NO與NO2相互轉(zhuǎn)化實驗的改進
        實踐十號上的19項實驗
        太空探索(2016年5期)2016-07-12 15:17:55
        用對方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        亚洲一区二区三区偷拍女厕| 精品2021露脸国产偷人在视频| 久久精品99久久香蕉国产| 国产一区二区在线视频| 亚洲va国产va天堂va久久| 久久久日韩精品一区二区三区| 一区二区三区乱码在线 | 欧洲 | 无码精品人妻一区二区三区影院| 竹菊影视欧美日韩一区二区三区四区五区 | 亚洲国产精品日韩专区av| 在线观看人成网站深夜免费| 国产高潮流白浆免费观看不卡| 少妇三级欧美久久| 久久精品成人91一区二区| 魔鬼身材极品女神在线| 成年毛片18成年毛片| 久久精品国产亚洲av成人擦边| 丝袜美腿诱惑一二三区| 人妖系列在线免费观看| 亚洲中文字幕一区高清在线 | 在线观看午夜视频一区二区| 一区二区三区国产精品乱码| 中文字幕一区二区中文| 亚洲精品白浆高清久久久久久| 成在线人av免费无码高潮喷水| 久久久久久好爽爽久久| 1000部夫妻午夜免费| 久久久久久人妻一区二区三区| 国产va免费精品观看| 日本午夜国产精彩| 国产呦系列呦交| 亚洲中文字幕人成乱码在线| 国产爆乳美女娇喘呻吟| 在线观看免费无码专区| 日韩av无码一区二区三区不卡| 色诱视频在线观看| 欧美最猛性xxxxx免费| 国产免费资源高清小视频在线观看 | 伊人久久一区二区三区无码| 国产自产c区| 亚洲伊人久久综合精品|