亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度學(xué)習(xí)的分揀機器人目標智能定位仿真研究

        2021-09-08 02:51:44黎明
        新型工業(yè)化 2021年6期
        關(guān)鍵詞:深度

        黎明

        (廣東理工學(xué)院,廣東 肇慶 526100)

        0 引言

        機器人通過圖像識別技術(shù),可以準確定位視覺系統(tǒng),屬于高科技發(fā)展成果。在工業(yè)化生產(chǎn)中,機器人屬于重要智能設(shè)備,目標定位為重點運行部分。當工件輪廓簡單時,工業(yè)生產(chǎn)朝著復(fù)雜化、多樣化方向發(fā)展,研究面臨問題多?;谥悄芗夹g(shù)支持,可以獲取較多新成果[1]。在過程應(yīng)用中,通過地圖好特征、機器人系統(tǒng)狀態(tài)地圖,建設(shè)動態(tài)化模型,以此實現(xiàn)數(shù)據(jù)預(yù)測、更新與關(guān)聯(lián)。在更新信息時,注重傳輸目標狀態(tài)量均值,簡化計算復(fù)雜度。按照相關(guān)實驗結(jié)果顯示,此種方法具備較強穩(wěn)定性,然而應(yīng)用效率低下。上位系統(tǒng)主要是應(yīng)用可編輯邏輯控制器和高性能的觸摸屏,控制中間層的機器人控制系統(tǒng)和外圍包裝輔助系統(tǒng),下層為近期奇人系統(tǒng)控制方式,主要是應(yīng)用一拖二方式實現(xiàn)。其中一套系統(tǒng)當中具備工業(yè)機器視覺系統(tǒng),能夠?qū)膳_機器人系統(tǒng)實施控制,確保工作高精度和高速。伺服系統(tǒng)主要是應(yīng)用CAT網(wǎng)絡(luò),全面確保運行高效性[2]。針對機器人目標定位,屬于重要運行操作,且研究成果面臨準確性不足問題。按照深度學(xué)習(xí)機制,掌握分揀機器人定位方法。

        1 基于深度學(xué)習(xí)的分揀機器人目標智能定位

        1.1 分割工作環(huán)境

        為了準確定位機器人,注重分割機器人工作環(huán)境。機器人運行期間,獲取環(huán)境圖像。通過圖像分割法,能夠?qū)C器人工作環(huán)境予以分割。當前,在選用分割方式時,以單色圖像為主,應(yīng)用到灰度圖像分割處理中,劃分不同顏色空間與分量。通過標準方法,注重組合結(jié)果優(yōu)化,獲取分割結(jié)果。

        工作環(huán)境分割操作時,通過冪次變換法,可以加強圖像對比度。以冪次變換方法,能夠拉伸圖像暗灰位置,增加圖像細節(jié)度,價錢圖像亮度[3]。按照亮度分量均值,合理選擇數(shù)值。當均值較低時,則表示圖像亮度越低,此時可以拉伸圖像。

        圖像序列分割流程中,應(yīng)當明確閾值。利用最大類間方差法,在分割圖像時,將其作為閾值分割依據(jù)。最大類間方差法,能夠強化圖像分割效果。通過圖像灰度直方圖、目標、類間方差比值,掌握圖像分割閾值。通常而言,在獲取閾值時,需要應(yīng)用最大化類間方差,在分割操作時,遵循以下步驟:機器人運行期間,工作環(huán)境圖像灰度為[1,2,…,L],灰度級i像素數(shù)量為ni;總數(shù)量N=n1+n2+…n3+nL,表達式如下:

        以圖像灰度值為閾值,劃分為A0、A1類別,則A0灰度范圍為[1,2,…,t];A1灰度級范圍為[1,2,…,L]。通過上述分析可知,A0、A1概率表達式如下:

        通過(4)式,計算最佳分割閾值,以此分割機器人工作環(huán)境圖像,確保目標定位準確性。

        1.2 分揀機器人目標定位

        按照上文分析,在目標定位時,能夠他準確參考依據(jù)。深度學(xué)習(xí),是一種多層次結(jié)構(gòu)模型,針對初始化模型權(quán)值,能夠開展逐層監(jiān)督訓(xùn)練,同時在訓(xùn)練過程中,可以避免出現(xiàn)局部最優(yōu),改進整個模型訓(xùn)練結(jié)果。深度學(xué)習(xí)中,首層:輸入指紋向量,最終層次:輸出坐標向量。中間層為隱藏層。針對第m'層、第m'+1層參數(shù),需要應(yīng)用(Wm',bm')描述。其中,Wm'—連接權(quán)值,bm'—偏移量。

        假設(shè)第m'層激活向量為:

        在(6)式中,f—sigmoid函數(shù)。

        由于分揀機器人工作環(huán)境干擾因子多,極易受到噪聲影響。為了降低噪聲影響,需要提升定位效率。深度學(xué)習(xí)網(wǎng)絡(luò)中,針對訓(xùn)練部分,應(yīng)當注重降噪處理。對于目標樣本,在統(tǒng)一位置進行采樣,合理劃分樣本集合組別,簡化采樣過程。為了確保不同采樣點具備不同直方圖,應(yīng)當確保采樣點間距大于預(yù)設(shè)最小閾值。對隨機對應(yīng)點間剛體變換矩陣進行計算,確保其達到迭代次數(shù)。當滿足設(shè)定次數(shù)時,則結(jié)束粗配準;若沒有滿足設(shè)定次數(shù),則計算隨機對應(yīng)點間剛體變換矩陣。當采樣數(shù)量相同時,選取參考點較少,使采樣難度降低[4]。指紋樣本內(nèi),包含較多噪聲因子。在相同參考點,多采樣測量,可以確保定位結(jié)構(gòu)準確性。將Si,j,作為第i組、第j個樣本,通過平均值,掌握第i組樣本估計值。

        在(7)式中,s—樣本指紋向量。選取指紋樣本均值,作為樣本噪音處理結(jié)果。

        根據(jù)稀疏自動編碼器,進行深度學(xué)習(xí)網(wǎng)絡(luò)訓(xùn)練,通過3層神經(jīng)網(wǎng)絡(luò)法,獲取層次權(quán)值、偏移量。將訓(xùn)練權(quán)值、偏移量,作為不同層次參數(shù)初始值。

        通過稀疏自動編碼器訓(xùn)練時,可以發(fā)揮出結(jié)構(gòu)降噪作用,保留指紋特征信息。

        針對其他層,目標函數(shù)表達:

        在分揀機器人運行期間,也面臨較多現(xiàn)實問題。按照隱藏層節(jié)點,限制處理稀疏因素。對于稀疏性限制,即隱藏層節(jié)點激活占比,可以防止訓(xùn)練結(jié)果出現(xiàn)恒等情況。利用激活率,表達隱藏層節(jié)點激活比例。

        開展逐層監(jiān)督訓(xùn)練時,無法劃分輸入樣本。為了保障樣本分類效果,確保目標定位準確性。應(yīng)用自動編碼器時,需要應(yīng)用softmax分類器。針對頂層編碼層,圍繞輸出數(shù)據(jù),進行softmax回歸處理。利用法向傳播器,可以實現(xiàn)深度學(xué)習(xí),開展網(wǎng)絡(luò)參數(shù)訓(xùn)練,確保定位結(jié)果輸出準確性。

        注重分類層權(quán)重值、隱藏層權(quán)重值調(diào)整,訓(xùn)練目標函數(shù)表達:

        在(11)公式中,—函數(shù)最大時,深度學(xué)習(xí)網(wǎng)絡(luò)參數(shù)取值;y—分類器的輸入數(shù)據(jù)預(yù)測值;β1…βh—懲罰函數(shù)權(quán)重值;F1…Fh—懲罰函數(shù)。

        采用(11)公式計算,可以掌握網(wǎng)絡(luò)最佳參數(shù),利用分類器,對各類輸入數(shù)據(jù)信息預(yù)測,獲得目標定位結(jié)果,保障分揀機器人運行效益。

        2 實驗結(jié)果與分析

        基于深度學(xué)習(xí),分揀機器人進行智能定位時,為了保證定位方法效果,開展一系列實驗操作。實驗計算配置如下:中央處理器內(nèi)存為12G。選擇某加工廠分揀機器人,聯(lián)合計算機系統(tǒng)[5]?;趯嶒炛笜?,對技術(shù)方法進行驗證。第一,定位準確性;第二,定位耗時。圖1為實驗結(jié)果圖:

        圖1 實驗結(jié)果準確性

        定位準確率,能夠?qū)C器人定位精度進行判斷?;趫D1內(nèi)容可知,分揀機器人智能定位方法準確率比較高,均超過89%。機器人運行過程中,注重目標定位,利用彩色圖像、空間序列、類間方差法,確保機器人工作環(huán)境分隔合理性,以此加強機器人定位精度。

        通過分析結(jié)果可知,隨著實驗次數(shù)持續(xù)增加,相應(yīng)加大定位耗時波動,此種方法的可靠性不足。按照深度學(xué)習(xí)機制,在分揀機器人運行期間,應(yīng)當注重智能定位處理,對工作環(huán)境影響因素進行分析,全面提升定位效率?;谏疃葘W(xué)習(xí)網(wǎng)絡(luò),選擇適宜訓(xùn)練內(nèi)容,合理融入降噪訓(xùn)練,規(guī)避定位噪聲,控制定位時間消耗。采用以上操作方法,對分揀機器人定位效率、精度予以驗證,應(yīng)用優(yōu)勢顯著[6]。

        3 結(jié)語

        綜上所述,機器人目標定位,屬于基礎(chǔ)性能指標,也成為了基礎(chǔ)功能。在當前研究成果中,性能不足與缺陷比較常見,采用深度學(xué)習(xí)機制,準確定位分揀機器人,推廣應(yīng)用智能定位方法。機器人運行期間,注重工作環(huán)境圖像分割,在目標定位時,可以提供準確化參考依據(jù)。通過深度學(xué)習(xí)算法、逐層訓(xùn)練方式,掌握最佳訓(xùn)練參數(shù)。頂層設(shè)置分類器,確保目標定位準備。利用試驗結(jié)果可以看出,本文所提出的方法具備可實踐性、魯棒性優(yōu)勢。

        猜你喜歡
        深度
        深度理解不等關(guān)系
        四增四減 深度推進
        深度理解一元一次方程
        深度觀察
        深度觀察
        深度觀察
        深度觀察
        芻議深度報道的深度與“文”度
        新聞傳播(2016年10期)2016-09-26 12:14:59
        提升深度報道量與質(zhì)
        新聞傳播(2015年10期)2015-07-18 11:05:40
        微小提議 深度思考
        日本激情一区二区三区| 尤物视频一区二区| 国产成人永久在线播放| 又黄又爽又色又刺激的视频| 夜色阁亚洲一区二区三区| 天堂AV无码AV毛片毛| 亚洲av网一区二区三区成人| 国产一品二品三区在线观看| 日韩一区二区三区人妻免费观看| 亚洲综合激情另类小说区| 天天天天躁天天爱天天碰| 免费a级毛片出奶水| 91亚洲人成手机在线观看| 久久久久AV成人无码网站| 国产精品又湿又黄九九九久久嫩草| 少妇连续高潮爽到抽搐| 亚洲色成人网站www永久| 最近在线更新8中文字幕免费| 91av手机在线观看| 91精品国产免费青青碰在线观看 | 一区二区三区观看在线视频| 久久精品国产亚洲av麻豆会员| 和外国人做人爱视频| 小12箩利洗澡无码视频网站| 亚洲中文字幕第一第二页| 人妻夜夜爽天天爽三区丁香花| 亚洲欧洲成人精品香蕉网| 双乳被一左一右吃着动态图| 黄视频国产| 一本大道综合久久丝袜精品 | 亚洲国产精品区在线观看| 亚洲人成色7777在线观看不卡| 欧美日本亚洲国产一区二区| 少妇一区二区三区乱码| 丝袜av乱码字幕三级人妻| 日韩av激情在线观看| 99久久久无码国产精品9| 久久精品国产亚洲av蜜桃av| 免费人成视频网站在线不卡| 国产av夜夜欢一区二区三区| 国产av一区二区三区日韩|