亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        圖像數(shù)據(jù)增強技術(shù)研究綜述

        2021-05-25 05:27:18朱曉慧錢麗萍
        軟件導(dǎo)刊 2021年5期
        關(guān)鍵詞:方法模型

        朱曉慧,錢麗萍,傅 偉

        (北京建筑大學電氣與信息工程學院,北京 100044)

        0 引言

        基于數(shù)據(jù)驅(qū)動的人工智能時代已出現(xiàn)一個明顯趨勢——那些具有豐富、廉價數(shù)據(jù)的領(lǐng)域更容易孕育出AI 技術(shù)。但目前眾多領(lǐng)域現(xiàn)有數(shù)據(jù)集大都存在規(guī)模較小、分布不均衡且采集、標注困難等突出問題,可以說數(shù)據(jù)的匱乏或昂貴往往是阻礙人工智能發(fā)展的直接原因。為解決這一問題,數(shù)據(jù)增強技術(shù)應(yīng)運而生。數(shù)據(jù)增強的主要挑戰(zhàn)是如何將現(xiàn)存的小規(guī)模數(shù)據(jù)集經(jīng)由變化或?qū)W習,使數(shù)據(jù)擁有“自我繁殖”的能力,從而產(chǎn)生足量、合理且均衡的擴增數(shù)據(jù)。因此,國內(nèi)外專家學者對其進行了大量研究,如今數(shù)據(jù)增強技術(shù)在醫(yī)學影像、視頻影音及自然語言處理等領(lǐng)域都有著廣闊的應(yīng)用前景。

        目前,國內(nèi)針對數(shù)據(jù)增強技術(shù)進行全面綜述的文獻較少。文獻[1]對基于深度神經(jīng)網(wǎng)絡(luò)的少樣本學習方法進行全面總結(jié),將數(shù)據(jù)增強作為其中一類方法進行介紹,但缺乏重點性和全面性;文獻[2]對基于生成對抗網(wǎng)絡(luò)的數(shù)據(jù)增強方法進行綜述,但只介紹了數(shù)據(jù)增強中的生成對抗網(wǎng)絡(luò)技術(shù),同樣不夠全面。本文則對不同種類的數(shù)據(jù)增強技術(shù)進行全面調(diào)研,重點分析所采用的典型策略。根據(jù)數(shù)據(jù)增強方式的不同,將現(xiàn)有數(shù)據(jù)增強技術(shù)分為有監(jiān)督和無監(jiān)督兩大類,對這兩個類別的研究分別進行討論,并將每個類別作進一步細分,對各個子類別進行具體介紹,最后闡述各種數(shù)據(jù)增強技術(shù)在圖像領(lǐng)域的應(yīng)用。

        1 數(shù)據(jù)增強及其典型分類

        1.1 數(shù)據(jù)增強

        數(shù)據(jù)增強也稱為數(shù)據(jù)擴增,是一種擴充數(shù)據(jù)規(guī)模的有效方法。該技術(shù)的發(fā)展主要具有以下3 方面重要意義:

        (1)豐富數(shù)據(jù)集本身。將不斷發(fā)展的數(shù)據(jù)增強技術(shù)應(yīng)用于各種數(shù)據(jù)集上,很好地解決了目前數(shù)據(jù)集存在的規(guī)模小、質(zhì)量差、不均衡且難以獲取等問題,從數(shù)量和性能方面豐富了數(shù)據(jù)集本身,這是數(shù)據(jù)增強對數(shù)據(jù)集起到的最直接的作用。

        (2)提升相應(yīng)分類檢測系統(tǒng)性能。通過數(shù)據(jù)增強獲得大量結(jié)構(gòu)合理、種類多樣的數(shù)據(jù),很好地滿足了深度學習模型對數(shù)據(jù)集數(shù)量和質(zhì)量的高要求,減少了網(wǎng)絡(luò)過擬合現(xiàn)象,從而得到泛化性能好的網(wǎng)絡(luò)模型,對相應(yīng)分類器、檢測器等準確率的提升具有一定促進作用。

        (3)拓展延伸價值。數(shù)據(jù)增強技術(shù)不斷發(fā)展,現(xiàn)已廣泛應(yīng)用于眾多領(lǐng)域。在數(shù)據(jù)至上的時代,從數(shù)據(jù)角度推動多個行業(yè)發(fā)展,這是數(shù)據(jù)增強技術(shù)帶來的附加延伸價值,具有深遠的意義。

        1.2 典型分類

        現(xiàn)有數(shù)據(jù)增強技術(shù)按照不同標準可劃分為不同種類。其中較為典型的分類包括:根據(jù)數(shù)據(jù)集處理階段分類、根據(jù)數(shù)據(jù)增強方式分類以及根據(jù)數(shù)據(jù)增強應(yīng)用領(lǐng)域分類,具體如圖1 所示。

        Fig.1 Typical classification of data enhancement methods圖1 數(shù)據(jù)增強方法典型分類

        2 有監(jiān)督數(shù)據(jù)增強

        2.1 單樣本數(shù)據(jù)增強

        2.1.1 幾何變換類

        幾何變換類主要從圖像數(shù)據(jù)形態(tài)出發(fā)進行數(shù)據(jù)增強,包括翻轉(zhuǎn)、旋轉(zhuǎn)、裁剪、縮放變形以及仿射等操作。

        (1)翻轉(zhuǎn)(Flip)。包括水平翻轉(zhuǎn)和垂直翻轉(zhuǎn),將圖像的左右(或上下)部分以圖像垂直(或水平)中軸線為中心進行鏡像對換,顯然該操作可以簡單地增加樣本數(shù)量。

        (2)旋轉(zhuǎn)(Rotation)。旋轉(zhuǎn)操作是對翻轉(zhuǎn)的進一步提升,一般以圖像中心為旋轉(zhuǎn)中心進行隨機旋轉(zhuǎn)(有正負角度約束),以此獲得更多形態(tài)的圖像數(shù)據(jù)。

        (3)裁剪(Crop)。隨機定義感興趣區(qū)域,截取該區(qū)域圖像并調(diào)整為原始圖像尺寸。該操作相當于增加隨機擾動,可獲取大批量的新數(shù)據(jù)。隨機裁剪幾乎是所有深度學習框架訓練都會采用的數(shù)據(jù)增強方法,在LeNet、AlexNet 及VGG 等經(jīng)典深度學習網(wǎng)絡(luò)訓練中均有所涉及。

        (4)縮放變形(Zoom)。按照設(shè)定的比例縮小或放大圖像數(shù)據(jù),但該操作會改變圖像大小,存在失真問題,但全卷積網(wǎng)絡(luò)對于尺度沒有嚴格要求。

        (5)仿射。仿射類操作包括視覺變換操作和分段仿射操作,前者通過對圖像應(yīng)用隨機的四點透視變換加以實現(xiàn),后者則通過移動圖像中點網(wǎng)格上的點及點周圍區(qū)域加以實現(xiàn)。

        上述方法都屬于幾何變換類數(shù)據(jù)增強方法,以此擴增數(shù)據(jù)最為簡單、常用。但過多地使用這些變換方法會導(dǎo)致擴增的數(shù)據(jù)樣本較為單一,且會產(chǎn)生大量無實際應(yīng)用價值的數(shù)據(jù)樣本,因此研究者們又從其他角度出發(fā)提出很多變換方法。

        2.1.2 顏色變換類

        上述幾何變換類操作沒有改變圖像本身內(nèi)容,只是選擇圖像的一部分或?qū)ο袼剡M行了重布置,因此在增強樣本的多樣性方面存在欠缺。若通過改變圖像本身的內(nèi)容實現(xiàn)增強,則屬于顏色變換類數(shù)據(jù)增強,常見操作包括噪聲、模糊、顏色變換、隨機擦除以及超像素法等。

        (1)噪聲。基于噪聲的數(shù)據(jù)增強是指在原始圖片基礎(chǔ)上隨機疊加一些噪聲,主要包括高斯噪聲、CoarseDropout、SimplexNoiseAlpha 以及FrequencyNoiseAlpha 等。其中,添加高斯噪聲是最簡單、常用的方法,其通過對圖像添加符合高斯分布的噪聲來實現(xiàn);CoarseDropout 方法則相對復(fù)雜,其通過在位置隨機且面積大小可選定的矩形區(qū)域上丟失部分信息實現(xiàn)轉(zhuǎn)換;SimplexNoiseAlpha 方法是在產(chǎn)生連續(xù)單一噪聲的掩模后,將掩模與源圖像進行混合;Frequency?NoiseAlpha 方法是在頻域中用隨機指數(shù)對噪聲映射進行加權(quán)后,再向空間域進行轉(zhuǎn)換。

        (2)模糊。該操作通過減少各像素點值的差異實現(xiàn)像素的平滑化,主要包括簡單、常見的高斯模糊,以及根據(jù)扭曲場平滑度與強度逐一移動局部像素點實現(xiàn)模糊效果的ElasticTransformation 方法。

        (3)顏色變換。顏色變換是指通過多種方法實現(xiàn)圖像視覺角度可見的明顯改變,包括向HSV 空間每個像素添加或減少V 值來改變色調(diào)飽和度的HSV 對比度轉(zhuǎn)換法、將圖片從RGB 顏色空間轉(zhuǎn)換到另一顏色空間增加或減少顏色參數(shù)后再返回RGB 顏色空間的RGB 顏色擾動法、按給定概率值將部分或全部通道像素值從v 設(shè)置為255-v 的轉(zhuǎn)換法,以及將圖像從RGB 轉(zhuǎn)換為灰度空間再借由某一通道與原圖混合的GrayScale 法。

        (4)隨機擦除。顧名思義,該方法就是對圖片上隨機選取的一塊區(qū)域進行圖像信息擦除操作。

        (5)超像素法。從像素角度出發(fā),在最大分辨率處生成圖像的若干超像素并調(diào)整到原始大小,再將原始圖像中所有超像素區(qū)域按一定比例替換為超像素,其他區(qū)域不變。

        上述為顏色變換類的數(shù)據(jù)增強方法,該方法一定程度上增加了數(shù)據(jù)樣本的多樣性與變化性。文獻[3]采用顏色變換方法對從千島湖海參養(yǎng)殖場采集的數(shù)據(jù)進行數(shù)據(jù)增強,提高了模型識別的準確率;文獻[4]使用色彩增強方法對CompCars 數(shù)據(jù)集進行增強處理;文獻[5]利用增強模型對道路圖像進行顏色空間轉(zhuǎn)換,得到突出車道線的高對比度增強圖像。顏色變換類數(shù)據(jù)增強方法在各領(lǐng)域研究中應(yīng)用較為廣泛,也取得了比較突出的成果。

        2.2 多樣本數(shù)據(jù)增強

        2.2.1 SMOTE

        SMOTE 通過人工合成新樣本處理樣本不平衡問題,該方法基于插值,可以有針對性地為小樣本類合成新樣本。其作為多樣本數(shù)據(jù)增強方法的一種得到了有效應(yīng)用,并在不斷優(yōu)化完善的過程中涌現(xiàn)出大量改進方法。針對SMOTE 在合成少數(shù)類新樣本時存在的不足,文獻[6]提出一種改進的SMOTE 算法GA-SMOTE,將遺傳算法與SMOTE 相結(jié)合,通過選擇算子對少數(shù)類樣本進行有區(qū)別的選擇,并使用交叉、變異算子控制合成樣本質(zhì)量。該改進方法不僅能出色地實現(xiàn)新樣本的整體合成,還能有效提高分類器性能。文獻[7]介紹SMOTE 算法在處理不平衡數(shù)據(jù)集過程中,存在采樣有效性不足、模糊正負類邊界、影響原始數(shù)據(jù)分布等缺陷。之后以此為基礎(chǔ),提出KM-SMOTE 和RM-SMOTE 兩種優(yōu)化策略。文獻[8]在SMOTE 算法及其改進版本BSMOTE 兩個具有代表性方法的基礎(chǔ)上,提出DBSMOTE 算法進行新的少數(shù)類樣本生成。該方法以邊界樣本及其最鄰近多數(shù)類樣本的中點作為新樣本合成來源,在拓寬少數(shù)類分類邊界的同時,降低了生成噪聲數(shù)據(jù)的可能性。

        1.1.1 試驗材料 2017年5月9日在浙江省杭州市臨安區(qū)浙江農(nóng)林大學平山試驗基地種植徐薯22.每個小區(qū)面積3.6 m2,扦插60株,3次重復(fù).8月5日開始采收,測定小區(qū)內(nèi)的甘薯葉和葉柄,間隔10 d再進行一次采收,至8月25日,共采收3次;采收的甘薯葉片葉柄在45 ℃烘干至恒質(zhì)量,粉碎,過90目篩,低溫保存待測.

        2.2.2 SamplePairing

        SamplePairing 方法主要用于數(shù)據(jù)增強,其核心原理簡單,即隨機從原訓練集中抽取兩張不同類別的圖片,將其分別經(jīng)過如翻轉(zhuǎn)、移動等基礎(chǔ)數(shù)據(jù)增強操作后,采用像素取平均值的方式疊加合成新數(shù)據(jù)樣本,并選擇原數(shù)據(jù)樣本標簽中的一種作為新數(shù)據(jù)標簽。SamplePairing 是一種高效的數(shù)據(jù)增強手段,滿足奧卡姆剃刀原理,經(jīng)其處理后的訓練集規(guī)??捎蒒 擴增為N*N。但該方法因可能引入不同標簽樣本而導(dǎo)致訓練誤差明顯增加,且可解釋性不強、缺少理論支撐,故對其的應(yīng)用研究相對較少。

        2.2.3 Mixup

        Mixup 是基于鄰域風險最小化原則的數(shù)據(jù)增強方法,其使用線性插值得到新樣本數(shù)據(jù),是對SamplePairing 的進一步延伸,也是一種對圖像進行混類增強的算法,可將不同類別的圖像混合以擴增訓練數(shù)據(jù)。目前采用Mixup 方法進行數(shù)據(jù)增強的研究已有很多,如文獻[9]從對抗訓練角度解釋了Mixup 工作機制,既證明了其有效性,又提出在其基礎(chǔ)上改進的方案系列;文獻[10]通過對Mixup 的深入分析,確定其“manifold intrusion”的局限性,并針對此問題提出一種新穎的自適應(yīng)版本Mixup,對原方法進行了一定改進;文獻[11]也對Mixup 方法進行了介紹與應(yīng)用,由其訓練的模型都具有很好的泛化能力。大量實驗結(jié)果表明,Mix?up 可以改進深度學習模型在ImageNet 數(shù)據(jù)集、CIFAR 數(shù)據(jù)集、語音數(shù)據(jù)集和表格數(shù)據(jù)集中的泛化誤差,減少模型對已損壞標簽的記憶,增強模型對對抗樣本的魯棒性和穩(wěn)定性。盡管有著較好的改進效果,但Mixup 在偏差與方差平衡方面尚未有較好的解釋。

        3 無監(jiān)督數(shù)據(jù)增強

        傳統(tǒng)數(shù)據(jù)增強方法大多是有監(jiān)督形式,但這類方法完全由使用者定義,不是所有任務(wù)都適合。故為了獲得更好的訓練模型,無監(jiān)督方式引起了人們關(guān)注,目前主要從生成新數(shù)據(jù)和學習增強策略兩個方向進行探究。

        3.1 生成新數(shù)據(jù)

        通過模型學習數(shù)據(jù)分布,隨機生成與訓練數(shù)據(jù)集分布一致的數(shù)據(jù)是無監(jiān)督數(shù)據(jù)增強方法的重要組成部分。為了實現(xiàn)這種方式,生成對抗網(wǎng)絡(luò)(Generative Adversarial Networks,GAN)因具有強大的學習與生成能力受到了部分專家學者關(guān)注[12]。生成對抗網(wǎng)絡(luò)思想的誕生是受到博弈論中二人零和博弈的啟發(fā),通過兩個參與者的對抗互相提升,其中包含兩個模型:生成模型G 和判別模型D。具體網(wǎng)絡(luò)模型結(jié)構(gòu)如圖2 所示。

        Fig.2 Generative adversarial network model圖2 生成對抗網(wǎng)絡(luò)模型

        GAN 模型相比于FVBNs 模型能夠并行生成樣本,而不需要逐維產(chǎn)生;相比于玻爾茲曼機、非線性ICA 等生成模型對生成器的限制較少,能夠收斂到納什平衡,從而生成高質(zhì)量的數(shù)據(jù)樣本。正因具有這些優(yōu)點,GAN 在數(shù)據(jù)增強領(lǐng)域已得到廣泛應(yīng)用。如文獻[13]提出使用生成對抗網(wǎng)絡(luò)進行數(shù)據(jù)增強以解決不平衡數(shù)據(jù)問題,其生成的圖像樣本具有較好的多樣性;文獻[14]將生成對抗網(wǎng)絡(luò)應(yīng)用于生物領(lǐng)域癌癥數(shù)據(jù)樣本的生成,實現(xiàn)訓練集樣本規(guī)模的擴增,相比傳統(tǒng)方法提高了識別準確率。生成對抗網(wǎng)絡(luò)的應(yīng)用使數(shù)據(jù)增強領(lǐng)域迎來了突破性發(fā)展。

        3.2 學習增強策略

        作為無監(jiān)督數(shù)據(jù)增強的另一類研究方向,學習增強策略不需要人工干預(yù),而是通過模型自主學習出適合當前任務(wù)的數(shù)據(jù)增強方法,其中以近年來提出的AutoAugment 和PBA(Population Based Augmentation)方法最具代表性與創(chuàng)新性。

        4 圖像領(lǐng)域應(yīng)用及性能分析

        4.1 醫(yī)學圖像

        由于醫(yī)學數(shù)據(jù)本身的隱私性、復(fù)雜性以及添加專家標注的困難性,探究恰當、有效的數(shù)據(jù)增強方法是十分必要的。目前數(shù)據(jù)增強技術(shù)已被應(yīng)用于肝臟組織CT、腦部MRI及胸部X 射線等醫(yī)學圖像增強。

        文獻[18]利用DCGAN 成功生成肝臟病變組織CT 圖像,并與經(jīng)典數(shù)據(jù)增強方法進行比較,實驗結(jié)果表明,利用GAN 生成的圖像對數(shù)據(jù)集進行增強能夠?qū)⒎诸悳蚀_率提升7%;文獻[19]在肺結(jié)節(jié)病變組織生成過程中,使用DC?GAN 生成真實性較高的結(jié)節(jié)圖像;同樣,文獻[20]針對肺結(jié)節(jié)病變問題,也提出使用DCGAN 進行數(shù)據(jù)增強,該方法不僅克服了隨機剪裁、圖像縮放等操作造成的圖像尺寸與病變位置變化的問題,而且還能生成質(zhì)量高、形狀多樣的肺結(jié)節(jié)圖像,且該方法生成速度更快、成本更低。針對腦部MRI 圖像樣本數(shù)量少的問題,文獻[21]通過具有跳躍連接結(jié)構(gòu)的自編碼器對腦部MRI 圖像進行降噪處理,并采用DCGAN 生成圖像,在病理特征和圖像質(zhì)量兩方面都與真實圖像具有較高相似度;文獻[22]采用左右翻轉(zhuǎn)和旋轉(zhuǎn)方法對MRI 圖像進行增強,然后將增強后的數(shù)據(jù)樣本用于醫(yī)學圖像分割領(lǐng)域,極大地提高了分割精度。另外,文獻[23]運用改進的GAN 方法擴充胸部X 射線數(shù)據(jù)集,并通過圖靈測試驗證其有效性;文獻[24]運用GAN 增強胸部X 射線圖像數(shù)據(jù)集,并將其應(yīng)用于卷積神經(jīng)網(wǎng)絡(luò)訓練,可實現(xiàn)對心血管異常的分類,相較于傳統(tǒng)數(shù)據(jù)增強方法,用GAN 進行數(shù)據(jù)增強能實現(xiàn)更高的分類準確率。數(shù)據(jù)增強在醫(yī)學領(lǐng)域的具體應(yīng)用遠不止這些,但由此足以看出數(shù)據(jù)增強在該領(lǐng)域運用的廣泛性和必要性。

        醫(yī)學圖像數(shù)據(jù)增強匯總分析如表1 所示,可看出目前生成對抗網(wǎng)絡(luò)數(shù)據(jù)增強在醫(yī)學領(lǐng)域應(yīng)用較多,且效果很好。

        4.2 人臉表情圖像

        人臉表情識別方法使得計算機能夠感知人類情感,如今在計算機視覺、模式識別、心理學及認知科學等領(lǐng)域都得到了廣泛應(yīng)用。然而,現(xiàn)有的人臉表情數(shù)據(jù)庫規(guī)模較小且數(shù)據(jù)量不均衡。為解決該問題,文獻[25]采用添加噪聲、裁剪等傳統(tǒng)方法合成新樣本,為識別系統(tǒng)的訓練提供大量數(shù)據(jù);文獻[26]比較了分別采用調(diào)整大小、裁剪、添加噪聲及調(diào)整對比度等單一方法取得的效果,還分析了結(jié)合使用這些技術(shù)實現(xiàn)的性能提升;文獻[27]的模型中也引入圖像隨機翻轉(zhuǎn)、旋轉(zhuǎn)和裁剪等數(shù)據(jù)增強方法以克服小數(shù)據(jù)問題。

        傳統(tǒng)針對圖像識別任務(wù)的數(shù)據(jù)增強方法,如進行幾何或像素顏色變換存在圖像相似度過高的問題,無法增加圖像特征的多樣性。因此,文獻[28]提出一種基于約束性循環(huán)一致生成對抗網(wǎng)絡(luò)(CCycleGAN)的方法,從本質(zhì)上擴展人臉表情數(shù)據(jù)集;文獻[29]提出的StarGAN 模型架構(gòu)有效解決了現(xiàn)有方法在處理兩個以上域時擴展性和魯棒性有限的問題,實現(xiàn)了僅依靠單個模型對多個域中圖像轉(zhuǎn)換生成的目標。基于此,文獻[30]提出一種靜態(tài)圖像數(shù)據(jù)增強方法,通過修改StarGAN 模型的重構(gòu)誤差構(gòu)造新目標函數(shù),利用生成器生成同一個人的不同面部表情,以更好地實現(xiàn)多種人臉表情圖像風格之間的轉(zhuǎn)換。人臉表情圖像數(shù)據(jù)增強匯總分析如表2 所示。

        Table 1 Summary analysis of medical image data enhancement表1 醫(yī)學圖像數(shù)據(jù)增強匯總分析

        Table 2 Summary analysis of facial expression image data enhancement表2 人臉表情圖像數(shù)據(jù)增強匯總分析

        4.3 行人監(jiān)控安防圖像

        在自動駕駛、智能監(jiān)控、行人分析和智能機器人等領(lǐng)域,行人檢測技術(shù)是其中的關(guān)鍵環(huán)節(jié)。目前基于深度學習的行人檢測方法都需要在大量有標注數(shù)據(jù)的情況下進行訓練才能取得理想效果。如文獻[31]使用隨機顏色失真、隨機擴展、隨機裁剪、隨機插值調(diào)整圖片大小、水平翻轉(zhuǎn)等傳統(tǒng)方法增加訓練量,以提高行人檢測模型的準確率。然而行人樣本圖像的生成不僅需要行人圖像自身足夠真實,還要能夠與背景環(huán)境自然融合,鑒于這兩點要求,若直接采用普通生成式模型將難以滿足實際需求;文獻[32]提出一種新穎的自動化生成帶標注行人數(shù)據(jù)的方法——PSGAN,其是第一個把生成對抗網(wǎng)絡(luò)用于行人或物體檢測類任務(wù)的數(shù)據(jù)增強模型,可提高檢測準確率;文獻[33]提出基于生成對抗網(wǎng)絡(luò)的鐵路周界行人樣本生成算法,生成圖像與原圖像基本相似,有較好的泛化性能且能更好地兼顧環(huán)境;文獻[34]為解決行人數(shù)據(jù)集規(guī)模小的問題,也提出基于GAN 的數(shù)據(jù)增強方案。行人樣本圖像數(shù)據(jù)增強匯總分析如表3 所示。

        Table 3 Summary analysis of pedestrian sample image data enhancement表3 行人樣本圖像數(shù)據(jù)增強匯總分析

        4.4 討論

        無論是醫(yī)學還是行人安防等領(lǐng)域圖像,數(shù)據(jù)增強方法本質(zhì)上都是相似的:傳統(tǒng)直觀的方法是對不同信號進行裁剪、拼接、交換、旋轉(zhuǎn)、拉伸等,基于深度學習模型的方法主要是生成與原數(shù)據(jù)相似的數(shù)據(jù)。有監(jiān)督增強方法大多應(yīng)用于各領(lǐng)域的分類檢測任務(wù),而無監(jiān)督增強方法既在分類檢測任務(wù)中有所應(yīng)用,也在獨立數(shù)據(jù)樣本生成任務(wù)中有所涉及。但無論在哪個領(lǐng)域,只要選取適合的數(shù)據(jù)增強方法,均能起到一定的效果。

        5 結(jié)語

        本文綜述了數(shù)據(jù)增強技術(shù)采用的主要方法及其應(yīng)用研究,具體從有監(jiān)督和無監(jiān)督兩方面進行介紹,并介紹了數(shù)據(jù)增強技術(shù)在圖像領(lǐng)域的應(yīng)用。數(shù)據(jù)增強技術(shù)作為快速解決數(shù)據(jù)不平衡或數(shù)據(jù)缺失問題的一種強有力的工具,展現(xiàn)出極大的價值和潛力。數(shù)據(jù)增強方法作為緩解圖像數(shù)據(jù)集不足等問題的有效措施已得到較廣泛的應(yīng)用,對具體方法的選擇與已有數(shù)據(jù)及任務(wù)目標息息相關(guān)。在后續(xù)研究中,如何通過分析已有數(shù)據(jù)及要完成任務(wù),選擇更合適或運用更恰當?shù)臄?shù)據(jù)增強方法成為研究者們需要進一步探究的問題。

        猜你喜歡
        方法模型
        一半模型
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        學習方法
        可能是方法不對
        3D打印中的模型分割與打包
        用對方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
        四大方法 教你不再“坐以待病”!
        Coco薇(2015年1期)2015-08-13 02:47:34
        賺錢方法
        开心婷婷五月激情综合社区| 国产亚洲美女精品久久久2020 | 无码在线观看123| 国产精品人妻一码二码尿失禁 | 亚洲国产成人久久三区| 亚洲国产另类精品| 国产精品美女久久久浪潮av| 亚洲AⅤ精品一区二区三区| 成年女人片免费视频播放A| 精品人妻av区二区三区| 91精品国产在热久久| 四虎影视久久久免费观看| 三年在线观看免费大全下载 | 日本成本人片免费网站| 中国国语毛片免费观看视频| 亚洲国产AV无码男人的天堂| 欧美性爱一区二区三区无a| 亚洲春色视频在线观看| 日本按摩偷拍在线观看| 精品无码人妻夜人多侵犯18| 免费a级毛片无码| 人体内射精一区二区三区| 久久久久一| 亚洲专区路线一路线二网| 精品国产品香蕉在线| 风韵多水的老熟妇| 国产一级农村无码| 伊人亚洲综合影院首页| 最新国产激情视频在线观看| 久久久久99精品成人片直播| 日日躁夜夜躁狠狠躁超碰97| 在线无码国产精品亚洲а∨| 精品少妇白浆一二三区| 国产免费观看久久黄av麻豆| 久久99国产精品久久99果冻传媒 | 久久免费国产精品| 精品国产你懂的在线观看| 亚洲av老熟女一区二区三区| 亚洲一区二区三区影院| 2021av在线| 亚洲色拍拍噜噜噜最新网站|