亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種弱監(jiān)督查詢圖像分割方法研究

        2022-08-18 01:56:40
        無線互聯(lián)科技 2022年11期
        關(guān)鍵詞:中心點語句損失

        劉 富

        (西華大學(xué),四川 成都 610039)

        0 引言

        給出查詢語句,查詢圖像分割(Referring Image Segmentation)要求分割出符合語句描述的目標(biāo)。 如對于查詢語句“Person sitting on the chair”,該方法僅會分割出坐在椅子上的人,而將其余目標(biāo)視為背景。 由于語言具有良好的交互性,該方法在監(jiān)控、機(jī)器人等領(lǐng)域具有較大的潛在應(yīng)用價值。

        Hu 等[1]分別使用VGG,LSTM 網(wǎng)絡(luò)提取視覺與語言信息[2-3],并通過級聯(lián)完成跨模態(tài)信息融合后直接預(yù)測分割區(qū)域。 針對Hu 等[1]提出的不足,后續(xù)的研究大多從視覺、語言特征的提取以及二者的結(jié)合策略這三個角度探索更為準(zhǔn)確的分割方法。 Liu 等[4]認(rèn)為當(dāng)查詢語句過長時,語言特征無法保留各個詞的信息,因此采用了逐詞的級聯(lián)策略。 在上述方法中,網(wǎng)絡(luò)為提取視覺信息會進(jìn)行大尺度的下采樣,這會導(dǎo)致圖像中細(xì)節(jié)信息的丟失,因此Ye 等[5]在改進(jìn)視覺、語言結(jié)合策略的同時提出了多級的方法。 不同于上述單階段的分割方法,Yu 等[6]使用注意力機(jī)制提取語句中的關(guān)鍵信息并將其與視覺信息級聯(lián)以進(jìn)行對語言所描述目標(biāo)的檢測。 檢測到目標(biāo)后,便可在檢測框內(nèi)分割出語言所描述目標(biāo)。

        為了學(xué)習(xí)目標(biāo)與語句的對應(yīng)關(guān)系,查詢圖像分割需要大量的訓(xùn)練數(shù)據(jù),然而像素級標(biāo)簽的制作極為煩瑣。 為了解決該問題,本文提出了一種僅使用語言所描述目標(biāo)中心點的分割方法。

        在強(qiáng)監(jiān)督情形下,語言所描述目標(biāo)區(qū)域與背景像素數(shù)量相當(dāng),因此可直接使用交叉熵?fù)p失。 然而在中心點監(jiān)督下,由于中心點所占像素過少,若直接使用交叉熵?fù)p失,網(wǎng)絡(luò)會將所有像素預(yù)測為背景,因此需考慮平衡前后景損失。 考慮到目標(biāo)中心點與其周圍像素具有較高的特征相似性,那么網(wǎng)絡(luò)將周圍像素預(yù)測為前景的可能性較大,然而標(biāo)簽卻將它們視為背景,因此,若是能降低周圍像素的損失,便能引導(dǎo)網(wǎng)絡(luò)分割出覆蓋整個目標(biāo)的區(qū)域。 基于此,本文設(shè)計了自適應(yīng)目標(biāo)損失衰減項,該項通過計算中心點與其周圍像素的余弦相似性以降低周圍像素?fù)p失。

        引入自適應(yīng)目標(biāo)損失衰減項后,網(wǎng)絡(luò)能夠預(yù)測出語言所描述目標(biāo)的大致位置及形狀,然而對于彼此靠近的同類物體,所得分割區(qū)域趨向于覆蓋多個目標(biāo)。為劃分毗鄰的目標(biāo),本文在圖像中語言所描述的不同目標(biāo)間構(gòu)造了成對損失,其核心思想在于不同目標(biāo)的分割區(qū)域不應(yīng)當(dāng)重疊,網(wǎng)絡(luò)框架圖如圖1 所示,圖中Concat表示視覺特征X、語言特征ht及空間位置信息S的級聯(lián),L1表示含自適應(yīng)目標(biāo)損失衰減項的分割損失,L2表示針對不同查詢目標(biāo)的成對損失,用以阻止網(wǎng)絡(luò)將單一像素分配給多個目標(biāo)。

        圖1 網(wǎng)絡(luò)框架

        1 弱監(jiān)督查詢圖像分割

        1.1 自適應(yīng)目標(biāo)損失衰減項

        查詢圖像分割須同時處理視覺信息與語言信息。視覺部分,使用卷積神經(jīng)網(wǎng)絡(luò),如ResNet,提取特征X,X =Wθ(I),X∈?Cl×H×W,其中I表示輸入圖片,Wθ表示卷積網(wǎng)絡(luò)參數(shù),Cl,H,W分別表示特征通道數(shù)、高以及寬。 語言部分,對于語句S,使用LSTM 提取隱狀態(tài)(hidden state)H ={h1,h2,...,ht}[3],其中hi,i∈{1,2,...,t} 表示處理第i個詞后的隱狀態(tài),t表示詞的數(shù)量。 整條語句信息選擇LSTM 最終隱狀態(tài)ht,ht∈?Cl。 此外,查詢語句中的方位詞,如“l(fā)eft”“bottom”等為待分割目標(biāo)提供了準(zhǔn)確的位置信息,因此網(wǎng)絡(luò)需增加空間位置信息E,E∈?8×H×W,用以準(zhǔn)確匹配語言。其以圖像中心為原點構(gòu)建坐標(biāo)系并分配坐標(biāo),之后便可構(gòu)建分割損失。

        式(1)中,yi^表示中心點標(biāo)簽,yi表示網(wǎng)絡(luò)預(yù)測像素,i是語言查詢目標(biāo)的概率。 (1- ai) 為自適應(yīng)目標(biāo)損失衰減項,表示像素i與中心點像素視覺特征的余弦相似性,引入該項的原因是,對于中心點周圍像素,與中心點屬于同一個目標(biāo)且位置相近,則其對應(yīng)視覺特征與中心點應(yīng)當(dāng)具有較高的相似性,而對應(yīng)級聯(lián)的語言特征又完全相同。 在該條件下,網(wǎng)絡(luò)會將中心點周圍像素同樣預(yù)測為前景,但所給標(biāo)簽卻將之視為背景,這不利于網(wǎng)絡(luò)的收斂同時也將導(dǎo)致預(yù)測區(qū)域僅覆蓋目標(biāo)中心點。 引入該項后,對于中心點,分割損失保持不變,而對于非中心點,其分割損失為交叉熵?fù)p失與(1-ai) 的積。 該情況下,對于中心點周圍像素,與中心點的余弦相似性ai較大,則(1- ai) 值較小,即使網(wǎng)絡(luò)將這些像素預(yù)測為前景也不會產(chǎn)生較大的損失,有利于分割區(qū)域向中心點周圍擴(kuò)散。 對于遠(yuǎn)離中心點的像素,(1- ai) 值較大,不會影響背景的準(zhǔn)確識別。 在中心點監(jiān)督下,背景像素遠(yuǎn)遠(yuǎn)多于中心點,會導(dǎo)致網(wǎng)絡(luò)將所有像素預(yù)測為背景。 因此,本文增加超參數(shù)λ用以降低背景損失在總體損失中的比重。 式(2) 中Xc,Xi分別表示目標(biāo)中心點及第i個像素的視覺特征。 式(3)表示預(yù)測層,其中‖表示視覺特征X、語言特征ht及位置信息E的級聯(lián),Wc表示預(yù)測層參數(shù),σ表示sigmoid激活函數(shù),y表示分割區(qū)域,y∈?H×W。

        自適應(yīng)目標(biāo)損失衰減有利于預(yù)測區(qū)域由目標(biāo)中心點向目標(biāo)周圍擴(kuò)散,然而,當(dāng)多個同類別目標(biāo)彼此靠近時,這樣的擴(kuò)散會導(dǎo)致預(yù)測區(qū)域覆蓋其他目標(biāo)。 因此,本文設(shè)計了成對損失用以輔助臨近目標(biāo)的劃分,核心思想是針對不同目標(biāo)的查詢分割區(qū)域不應(yīng)當(dāng)產(chǎn)生重疊。

        1.2 成對損失

        記同一幅圖像中針對不同目標(biāo)的查詢語句分別為Sa,Sb,其對應(yīng)的分割結(jié)果為ya,yb;記ya,yb中大于0.5(表示前景) 且重疊的區(qū)域為O,則成對損失可表述為:

        式(4)中,| O|表示重疊前景區(qū)域的像素總數(shù);m表示成對損失懲罰系數(shù),用于控制成對損失比重。 該成對損失將迫使網(wǎng)絡(luò)僅能將單個像素視為某一個目標(biāo)的區(qū)域,緩解區(qū)域不正常擴(kuò)散的問題。

        結(jié)合分割損失L1,成對損失L2便可構(gòu)造網(wǎng)絡(luò)總損失:

        2 實驗結(jié)果及分析

        本文在UNC 數(shù)據(jù)集上進(jìn)行實驗,共包含19 994 幅圖片,對應(yīng)142 090 條查詢語句;其中120 624 條用于訓(xùn)練,10 834 條用于驗證(val),5 657 條用于測試集A(testA),5 059 條用于測試集B(testB)。 兩測試集的差別在于testB 中查詢語句不包含人,而testA 包含。 這樣的切分策略有助于準(zhǔn)確評估查詢圖像分割方法在不同場景下的性能。 度量指標(biāo)選擇IoU,該值越高表示分割性能越好。

        2.1 實驗細(xì)節(jié)

        本方法視覺特征提取網(wǎng)絡(luò)選擇ResNet,并且使用經(jīng)ImageNet 預(yù)訓(xùn)練后的參數(shù)。 語言特征提取選擇LSTM 并隨機(jī)初始化。 背景像素比重λ設(shè)置為0.05,該值由中心點像素在圖像中的比例所決定。 成對損失懲罰系數(shù)m設(shè)置為1。 優(yōu)化器選擇Adam Optimizer 并設(shè)置初始學(xué)習(xí)率為0.000 4,batch_size 設(shè)置為8。 網(wǎng)絡(luò)在訓(xùn)練集上共迭代10 次,并且每迭代3 次學(xué)習(xí)率降低為當(dāng)前值的10%。 圖像在輸入網(wǎng)絡(luò)前調(diào)整為“320×320”大小并保留原圖像縱橫比。 測試時,與強(qiáng)監(jiān)督方法相同,使用條件隨機(jī)細(xì)化分割區(qū)域[4]。 特別注明的是本方法在測試時僅需要圖像及對應(yīng)查詢語句。

        2.2 實驗結(jié)果

        2.2.1 定量分析

        UNC 數(shù)據(jù)集下的實驗結(jié)果如表1 所示,其中C 表示僅使用交叉熵?fù)p失及前后景平衡項λ;“C+S”表示在算法C 的基礎(chǔ)上引入自適應(yīng)目標(biāo)損失衰減項,即公式(1);“C+S+P”則表示引入衰減項及成對損失,即公式(5)。 可以看出,相較于算法C,“C+S”在三個子集下的測試精度分割分別提高了2.17%,1.57%,2.34%,表明目標(biāo)損失衰減能夠引導(dǎo)預(yù)測區(qū)域由目標(biāo)中心點向整體擴(kuò)散。 引入成對損失“C+S+P”,網(wǎng)絡(luò)能夠更為準(zhǔn)確地劃分臨近目標(biāo),測試精度得到進(jìn)一步提升。

        表1 各方法在UNC 數(shù)據(jù)集下的分割性能(IoU)

        2.2.2 定性分析

        實驗主觀結(jié)果如圖2 所示, 圖像下方文字表示查詢語句,其中(b)(c)中白色區(qū)域分別表示算法C 及本文所提方法“C+S+P”所得分割區(qū)域;(d)表示測試標(biāo)簽,分割區(qū)域與測試標(biāo)簽的重合度越高表示分割性能越好。 可以看出,算法C 未分割出左側(cè)大象的嘴部,僅得到目標(biāo)的大致方位。 而“C+S+P”通過自適應(yīng)地降低中心點周圍像素?fù)p失,有效地擴(kuò)散了分割區(qū)域,因此覆蓋程度更高。 這表明本文所提方法能夠僅在語言所描述目標(biāo)中心的監(jiān)督下得到較為準(zhǔn)確的結(jié)果。

        圖2 UNC 驗證集下測試結(jié)果

        2.3 結(jié)論

        本文提出了一種僅使用語言所描述目標(biāo)中心點的弱監(jiān)督查詢圖像分割方法,通過引入自適應(yīng)目標(biāo)損失衰減項及成對損失,能夠引導(dǎo)網(wǎng)絡(luò)分割區(qū)域由中心點至目標(biāo)整體正確擴(kuò)散,進(jìn)而得到覆蓋度更高的預(yù)測區(qū)域。 考慮到視覺特征、語言特征直接級聯(lián)的方式無法充分評估二者關(guān)聯(lián),未來將在多模態(tài)信息的結(jié)合策略上做進(jìn)一步改進(jìn)。

        猜你喜歡
        中心點語句損失
        少問一句,損失千金
        胖胖損失了多少元
        重點:語句銜接
        Scratch 3.9更新了什么?
        電腦報(2020年12期)2020-06-30 19:56:42
        如何設(shè)置造型中心點?
        電腦報(2019年4期)2019-09-10 07:22:44
        玉米抽穗前倒伏怎么辦?怎么減少損失?
        精彩語句
        漢字藝術(shù)結(jié)構(gòu)解析(二)中心點處筆畫應(yīng)緊奏
        一般自由碰撞的最大動能損失
        尋找視覺中心點
        大眾攝影(2015年9期)2015-09-06 17:05:41
        少妇被粗大的猛进出69影院 | 国产精品原创av片国产日韩| 久久婷婷夜色精品国产| 亚洲一区二区免费在线观看视频| 久久不见久久见免费影院国语| 欧美大香线蕉线伊人久久| 日本一道dvd在线中文字幕| 亚洲97成人精品久久久| 性无码一区二区三区在线观看| 国产成人精品日本亚洲| 丰满人妻无套中出中文字幕| 亚洲国产一区二区,毛片| 国产精品天干天干| 亚洲人成亚洲精品| 国内精品视频成人一区二区| 综合久久精品亚洲天堂| 国产精品扒开腿做爽爽爽视频| 中文字幕亚洲无线码| 精品人妻av一区二区三区不卡| 国产精品日韩av一区二区三区| 亚洲热线99精品视频| 正在播放亚洲一区| 一区二区三区精品婷婷| 嫩草伊人久久精品少妇av| 久久99精品国产麻豆| 波多野结衣一区二区三区免费视频 | 欧美专区在线| 国内精品嫩模av私拍在线观看| 337p日本欧洲亚洲大胆色噜噜| 国产成人综合色在线观看网站| 成人无码网www在线观看| 亚洲成人精品在线一区二区| 亚洲精品久久一区二区三区777| 国产午夜视频在永久在线观看| 91蜜桃精品一区二区三区毛片| 国产亚洲精品久久午夜玫瑰园| 国产精品igao视频| 国产亚洲精品性爱视频| 日本一区二区在线高清| 男人激烈吮乳吃奶视频免费| 老汉tv永久视频福利在线观看 |