亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于卷積神經(jīng)網(wǎng)絡(luò)的極光圖像分類

        2018-06-27 09:09:20王菲楊秋菊
        極地研究 2018年2期
        關(guān)鍵詞:極光正確率神經(jīng)元

        王菲 楊秋菊

        (陜西師范大學(xué), 陜西 西安 710119)

        0 引言

        極光是由太陽風(fēng)中的高能帶電粒子在極區(qū)電離層沿著磁力線方向映射時(shí)激發(fā)的瞬態(tài)發(fā)光現(xiàn)象。由于極光形態(tài)與地磁活動(dòng)的內(nèi)在聯(lián)系, 極光圖像對(duì)反演地球磁層結(jié)構(gòu)和預(yù)測(cè)空間天氣變換規(guī)律研究具有重要指導(dǎo)意義, 因此對(duì)極光進(jìn)行準(zhǔn)確分類成為日地物理學(xué)研究不可缺少的部分[1-2]。

        1964年, Akasofu[3]已經(jīng)開始對(duì)極光形態(tài)的探索。他揭示了極光運(yùn)動(dòng)形態(tài)與亞暴之間的聯(lián)系,這一發(fā)現(xiàn)隨后為極光亞暴的研究提供了理論依據(jù)。1986年, Meng等[4]根據(jù)地磁活動(dòng)將正午極光分為平靜擴(kuò)張的正午極光卵、小的離散塊狀、午后明亮的孤立弧狀、午后和傍晚擴(kuò)張亮弧、午后活躍多重弧等5類。1999年, 胡紅橋等[1]分析了中山站1995和1997年的4類極光事件, 統(tǒng)計(jì)了冕狀、帶狀、極光浪涌、向日極光弧等各種極光形態(tài)的分布情況。2015年, Partamies等[5]采用芬蘭和瑞典全天空大型實(shí)驗(yàn)站拍攝的極光數(shù)據(jù), 用當(dāng)?shù)仉娂髦笖?shù)描述亞暴發(fā)展的不同階段, 預(yù)測(cè)大約1/3的極光結(jié)構(gòu)是弧狀極光, 由此推斷極光弧是極光最主要的結(jié)構(gòu)形式。

        極光的探索從未停止, 每年新增的極光觀測(cè)圖像數(shù)據(jù)高達(dá)幾百萬幅[2]。以黃河站越冬觀測(cè)為例, 從2003年12月起, 每年12月至次年2月期間全天空成像儀(All Sky Imager, ASI) CCD相機(jī)都會(huì)在世界時(shí)03:00—15:00 UTC(磁地方時(shí)06:00—18:00 MLT)對(duì)三波段極光進(jìn)行高達(dá)1 200多小時(shí)的全天連續(xù)觀測(cè)。面對(duì)海量的極光觀測(cè)數(shù)據(jù), 完全依靠研究人員肉眼觀察和手工標(biāo)記的分類機(jī)制在準(zhǔn)確性上很難得到保證, 復(fù)雜冗余的工作量加上人的主觀經(jīng)驗(yàn)也難以進(jìn)行推廣和延伸。隨著計(jì)算機(jī)視覺識(shí)別領(lǐng)域的發(fā)展, 讓機(jī)器自動(dòng)完成圖像識(shí)別、分類具有重要意義。計(jì)算機(jī)圖像處理和模式識(shí)別技術(shù)對(duì)極光結(jié)構(gòu)的分析處理和自動(dòng)分類方式正在成為取代人工肉眼識(shí)別的一種新手段。

        2001年, Syrj?suo等[6]首次實(shí)現(xiàn)對(duì)大型數(shù)據(jù)庫(kù)中的極光事件進(jìn)行自動(dòng)定位和分類。2004年,他們將加拿大CANOPUS項(xiàng)目的全天空極光圖像進(jìn)行分析總結(jié), 提出用計(jì)算機(jī)視覺的方式對(duì)極光圖像自動(dòng)分類, 根據(jù)極光形態(tài)分成弧型、斑塊型、歐米伽型和南北結(jié)構(gòu)型4大類典型的類別[7]。2011年, 王倩[8]結(jié)合局部二元模式提出使用基于空間紋理的全天空極光圖像表征方法, 表征極光圖像的全局形狀和局部紋理, 并基于這一表征方法,將黃河站越冬觀測(cè)的日側(cè)極光圖像分為弧狀、帷幔冕狀、輻射冕狀和熱點(diǎn)狀4大類, 實(shí)現(xiàn)了極光圖像自動(dòng)分類。2013年, 韓冰等[9]在潛在狄利克雷分配模型(Latent Dirichlet Allocation, LDA)的基礎(chǔ)上運(yùn)用譜殘差方法對(duì)這4大類極光分類機(jī)制進(jìn)行驗(yàn)證, 通過一種融合顯著信息的LDA方法對(duì)極光圖像進(jìn)行特征表示, 進(jìn)一步提升了分類正確率。2012年, Syrj?suo和Partamies[10]比較了極光圖像的不同數(shù)值特征對(duì)檢測(cè)極光存在與否的效果,得出采用監(jiān)督學(xué)習(xí)和局部亮度不變特性時(shí)取得最好分類結(jié)果。2014年, Rao等[11]根據(jù)彩色極光圖像對(duì)抗尺度不變特征變換(Opponent Scale Invariant Feature Transform, Opponent SIFT)將拍攝到的全天空?qǐng)D像分為有極光、無極光和云團(tuán)狀,這種分類機(jī)制不僅減少運(yùn)算數(shù)據(jù)量, 也促進(jìn)連接磁微動(dòng)和極光活動(dòng)的統(tǒng)計(jì)模型建立, 能更好地預(yù)測(cè)極光活動(dòng)。2016年, 楊秋菊等[12]借助韋伯局部描述符(Weber Local Descriptor, WLD)表征全天空極光圖像的紋理和亮度等形態(tài)特征, 驗(yàn)證了Hu等[13]的分類結(jié)果。

        以上極光自動(dòng)分類的機(jī)制都是采用傳統(tǒng)模式識(shí)別方法, 通過精心設(shè)計(jì)特征描述子表征極光圖像形態(tài)信息, 然后選擇合適的分類器對(duì)極光圖像進(jìn)行自動(dòng)分類。近幾年隨著人工智能的發(fā)展, 深度學(xué)習(xí)幾乎已成為計(jì)算機(jī)視覺研究的標(biāo)配, 在人臉識(shí)別、圖像分類等眾多領(lǐng)域取得了顯著成功。2012年, Krizhevsky等[14]訓(xùn)練了一個(gè)深度卷積神經(jīng)網(wǎng)絡(luò), 摘得了大規(guī)模視覺識(shí)別挑戰(zhàn)賽(ImageNet Large Scale Visual Recognition Challenge, LSVRC)的桂冠, 成功將ImageNet數(shù)據(jù)集Top 5分類錯(cuò)誤率降低到15.3%, 與第二名拉開10%的差距。2013年起, 百度、360先后成立深度學(xué)習(xí)研究院。2015年螞蟻金服展現(xiàn)Smile to Pay掃臉技術(shù), 將人臉辨認(rèn)應(yīng)用于金融認(rèn)證。2016年DeepMind團(tuán)隊(duì)推出的人工智能程序阿爾法圍棋(AlphaGo)第一次亮相并橫掃歐洲, AlphaGo通過深度學(xué)習(xí)進(jìn)行價(jià)值評(píng)估和策略評(píng)估, 完勝職業(yè)棋手[15]。2017年百度人工智能機(jī)器人“小度”在人臉識(shí)別任務(wù)中擊敗世界記憶大師。深度學(xué)習(xí)在學(xué)術(shù)研究和工業(yè)應(yīng)用等方面都占據(jù)越來越重要的地位。卷積神經(jīng)網(wǎng)絡(luò)之父LeCun等[16]將深度學(xué)習(xí)定義為一種把原始數(shù)據(jù)通過非線性映射轉(zhuǎn)變成為更高層次、更抽象表達(dá)的特征學(xué)習(xí)方式。本方法的優(yōu)勢(shì)在于卷積神經(jīng)網(wǎng)絡(luò)具有良好的容錯(cuò)性和并行處理能力; 它不需要過多的前端處理, 在性能上好于人工設(shè)計(jì)的預(yù)處理過程。相對(duì)于傳統(tǒng)方法中手工特征提取的機(jī)制, 卷積網(wǎng)絡(luò)對(duì)特征具有自學(xué)習(xí)能力。網(wǎng)絡(luò)中用計(jì)算機(jī)模擬人的思維, 從訓(xùn)練數(shù)據(jù)自動(dòng)學(xué)習(xí)特征, 用特征提取和分類的聯(lián)合反饋實(shí)現(xiàn)對(duì)圖像的識(shí)別。因此, 本文針對(duì)極光形態(tài)結(jié)構(gòu)研究提出一種基于卷積神經(jīng)網(wǎng)絡(luò)的極光圖像分類機(jī)制, 將原始極光圖像的像素矩陣直接輸入網(wǎng)絡(luò), 利用卷積神經(jīng)網(wǎng)絡(luò)自動(dòng)獲取極光圖像的底層邊緣特征和高層語義特征, 網(wǎng)絡(luò)輸出圖像的類別, 從而實(shí)現(xiàn)“端到端”的全自動(dòng)極光圖像分類[17]。

        1 基于卷積神經(jīng)網(wǎng)絡(luò)的ASI極光圖像表征方法

        卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是深度學(xué)習(xí)中一個(gè)重要的分支, 在圖像分類和模式識(shí)別領(lǐng)域中具有廣闊的應(yīng)用前景。在生物神經(jīng)網(wǎng)絡(luò)中, 神經(jīng)元與其他神經(jīng)元相連, 當(dāng)它“興奮”時(shí), 就會(huì)向相連的神經(jīng)元發(fā)送化學(xué)物質(zhì),從而改變這些神經(jīng)元內(nèi)的電位; 當(dāng)某個(gè)神經(jīng)元電位超過“閾值”, 就會(huì)被激活, 即“興奮”起來, 向其他神經(jīng)元發(fā)送化學(xué)物質(zhì)。1943年, McCulloch和Pitt模擬生物提出人工神經(jīng)網(wǎng)絡(luò)(Neural Network, NN)[18]。圖1a為神經(jīng)網(wǎng)絡(luò)中最基本的感知單元神經(jīng)元模型, 在模型中神經(jīng)元接到來自n個(gè)其他神經(jīng)元傳遞的信號(hào), 這些輸入信號(hào)通過帶權(quán)重的連接進(jìn)行傳遞, 神經(jīng)元接收到的總輸入值將與神經(jīng)元的閾值進(jìn)行比較, 然后通過激活函數(shù)處理以產(chǎn)生神經(jīng)元的輸出[19]。卷積神經(jīng)網(wǎng)絡(luò)是改進(jìn)的人工神經(jīng)網(wǎng)絡(luò)。1980年, 日本學(xué)者Fukushima[20]首次提出理論模型Neocognitron是卷積神經(jīng)網(wǎng)絡(luò)的早期研究。卷積神經(jīng)網(wǎng)絡(luò)最重要的兩個(gè)優(yōu)勢(shì)是局部感知和權(quán)值共享[21]。圖1b為卷積神經(jīng)網(wǎng)絡(luò)局部感知模擬圖。局部感知相當(dāng)于眼睛聚焦在某一點(diǎn), 即感受野僅與前一層部分神經(jīng)元相連, 將感受野的局部感知組合, 得到整張圖的特征信息; 同一特征映射面上的神經(jīng)元共用一個(gè)卷積權(quán)值模板進(jìn)行卷積運(yùn)算, 減少權(quán)值參數(shù)的同時(shí)降低了網(wǎng)絡(luò)的復(fù)雜性。通過卷積運(yùn)算由淺入深的提取圖像不同層次的特征, 使網(wǎng)絡(luò)自主學(xué)習(xí), 調(diào)節(jié)卷積核的參數(shù), 獲取合適的分類特征。此次實(shí)驗(yàn)將Alexnet模型[14]應(yīng)用到極光圖像的分類上,用遷移學(xué)習(xí)[22]訓(xùn)練出適合極光數(shù)據(jù)的權(quán)值。該網(wǎng)絡(luò)一共分為8層, 包括5個(gè)卷積層和3個(gè)全連接層, 在每層后包含激勵(lì)函數(shù)(Rectified Linear Units, RELU), 部分卷積層中有局部響應(yīng)歸一化(Local Response Normalization, LRN)和最大采樣(Max- pooling)處理。

        圖1 神經(jīng)元模型和局部感知模型Fig.1. Neuron model and local perception model

        1.1 卷積層

        卷積層是特征提取過程, 應(yīng)用卷積核對(duì)原始圖像進(jìn)行卷積運(yùn)算就是對(duì)圖像的局部區(qū)域進(jìn)行一次前饋計(jì)算。不同的卷積核提取不同的特征, 卷積核的數(shù)目越多, 提取的特征就越抽象。將輸入圖片與卷積核運(yùn)算的結(jié)果加上一個(gè)偏置輸入給激勵(lì)函數(shù)RELU, 最后得到卷積層的輸出結(jié)果特征圖(Feature Map)。第l層的第j個(gè)特征圖可表示為

        1.2 池化層

        池化層將對(duì)卷積層得到的Feature Map進(jìn)行小鄰域內(nèi)采樣得到更抽象的特征, 相當(dāng)于合并相似特征[16]。在網(wǎng)絡(luò)中經(jīng)過池化(pooling)運(yùn)算, 特征圖的數(shù)目不變, 尺寸會(huì)變小。實(shí)驗(yàn)中卷積網(wǎng)絡(luò)采用Max-pooling方式, 通過計(jì)算圖像采樣區(qū)域的最大值對(duì)特征進(jìn)行約減, 不僅降低數(shù)據(jù)維度,還能在很大程度上避免過擬合。根據(jù)文獻(xiàn)[23], 選用Max-pooling能保留圖像的紋理信息從而減小卷積層參數(shù)誤差造成估計(jì)均值的偏移。池化過程的示意圖如圖2所示。Max-pooling選出每個(gè)采樣區(qū)域的最大值作為輸出。

        圖2 池化操作示意圖Fig.2. Pooling operation process

        1.3 全連接層

        全連接層相當(dāng)于多層感知機(jī)的隱含層。神經(jīng)元節(jié)點(diǎn)與前一層的每個(gè)神經(jīng)元連接, 本層神經(jīng)元節(jié)點(diǎn)間不連接。通過連接線上的權(quán)值進(jìn)行前向傳播, 加權(quán)組合得到下一層神經(jīng)元節(jié)點(diǎn)的輸入[24]。

        1.4 Softmax分類器

        卷積網(wǎng)絡(luò)對(duì)圖像形態(tài)進(jìn)行表征, 圖像分類的另一個(gè)關(guān)鍵是輸出層設(shè)計(jì)。在這一層將卷積網(wǎng)絡(luò)提取的特征輸入分類器, 分類器輸出樣本標(biāo)簽的統(tǒng)計(jì)概率。實(shí)驗(yàn)中采用了非線性分類能力強(qiáng)的Softmax分類器, 此分類器針對(duì)有且只有一個(gè)分類標(biāo)簽的樣本。假設(shè)輸入特征記為x(i), 樣本標(biāo)簽記為y(i), 那么假設(shè)函數(shù)Hθ(x)和邏輯回歸代價(jià)函數(shù)形式分別如下[25]:

        式中,θ1,θ2,…,θk是模型的可學(xué)習(xí)參數(shù),為歸一化項(xiàng)。

        Softmax邏輯回歸代價(jià)函數(shù)的數(shù)學(xué)表達(dá)式為

        其中,是一個(gè)指示性函數(shù), 即當(dāng)大括號(hào)中的值為真時(shí), 該函數(shù)的結(jié)果就為1, 否則其結(jié)果為0。

        1.5 訓(xùn)練算法

        為了在訓(xùn)練中學(xué)習(xí)到樣本的普遍性特征而不只依賴某些特定的訓(xùn)練集, Srivastava等[26]提出Dropout策略: 隨機(jī)讓網(wǎng)絡(luò)的某些節(jié)點(diǎn)以一定概率p輸出置零。由于隨機(jī)讓隱層的神經(jīng)元不工作, 所以工作的神經(jīng)元必須提取最本質(zhì)的特征。這樣能提高網(wǎng)絡(luò)的泛化能力, 在一定程度上避免過擬合。

        網(wǎng)絡(luò)參數(shù)更新采用隨機(jī)梯度下降法(Stochastic Gradient Descent, SGD), 用動(dòng)量(Momentum)保留之前的更新方向, 同時(shí)利用當(dāng)前批次(Batch)的梯度微調(diào)最終的更新方向。訓(xùn)練集樣本分為n個(gè)Batch, 遍歷完一個(gè)Batch, 更新一次網(wǎng)絡(luò)參數(shù)。參數(shù)更新公式如下:

        全省共投入各類治理資金約112億元,完成工程2000余項(xiàng),大量退化山體和礦山地質(zhì)環(huán)境問題得到有效治理。圖為威海華夏城廢棄礦山退化山體整治前后對(duì)比。

        其中,ωi是當(dāng)前參數(shù),ωi+1是更新后的參數(shù),ε是動(dòng)量,η是學(xué)習(xí)速率,是第i個(gè)Batch中誤差對(duì)偏導(dǎo)的平均值。

        2 ASI極光圖像自動(dòng)分類

        2.1 數(shù)據(jù)預(yù)處理

        數(shù)據(jù)采用我國(guó)2003—2009年黃河站三波段極光全天空CCD成像觀測(cè)系統(tǒng)557.7 nm波段的越冬極光觀測(cè)數(shù)據(jù)。對(duì)原始圖像進(jìn)行了減暗電流、旋轉(zhuǎn)(逆時(shí)針旋轉(zhuǎn)61.1°圖像磁正北方向朝上)、灰度拉伸、剪裁等操作[8]。分類機(jī)制選用Hu等[13]提出的弧狀、帷幔冕狀、輻射冕狀和熱點(diǎn)狀極光圖像。對(duì)2003年38 044幅確定類型的極光圖像進(jìn)行人工標(biāo)記, 作為數(shù)據(jù)集2(dataset2); 對(duì)dataset2按時(shí)間順序每隔50 s采樣抽出8 001幅典型極光數(shù)據(jù)作為數(shù)據(jù)集1(dataset1); 2004—2009年311 575幅未知類型越冬觀測(cè)數(shù)據(jù)作為數(shù)據(jù)集3(dataset3)。數(shù)據(jù)集中各類極光數(shù)量見表1。

        表1 實(shí)驗(yàn)數(shù)據(jù)集類別詳情Table 1. Category details of experimental dataset

        2.2 網(wǎng)絡(luò)模型

        卷積神經(jīng)網(wǎng)絡(luò)模型如圖3所示。輸入網(wǎng)絡(luò)的極光圖像像素大小為256×256, 經(jīng)網(wǎng)絡(luò)裁剪(resize)大小為227×227, 每個(gè)卷積層中包含激勵(lì)函數(shù)RELU, 池化層核大小為3×3。卷積層C1層經(jīng)過96個(gè)大小為11×11的濾波器卷積運(yùn)算后再經(jīng)過一個(gè)激勵(lì)函數(shù)加上C1層的偏置系數(shù), 對(duì)結(jié)果進(jìn)行歸一化處理得到特征圖大小為55×55。接著進(jìn)入池化層S1下采樣得到96個(gè)大小為27×27的特征圖, 這是第一次特征提取階段。第二次特征提取階段與第一次類似, 經(jīng)過5×5大小的卷積核和池化層S2得到256個(gè)大小為13×13的特征圖。卷積層C3和C4通過384個(gè)大小為3×3的卷積核進(jìn)行濾波, 中間沒有池化層與歸一化層。卷積層C5將大小為3×3濾波器提取特征送入池化層S5降維得到大小為6×6的256個(gè)特征圖。全連接層將卷積提取的特征展開成4 096個(gè)一維特征向量,最后一個(gè)全連接層F8的輸出被送到一個(gè)4類的Softmax分類器中。實(shí)際輸出值與預(yù)期輸出值之間的誤差值不斷反向傳播更新網(wǎng)絡(luò)權(quán)值, 直到網(wǎng)絡(luò)收斂得到最小損失停止訓(xùn)練, 分類器輸出分類正確率。分類正確率(accuracy)評(píng)價(jià)準(zhǔn)則為

        其中,tp表示測(cè)試樣本中每一類識(shí)別結(jié)果與樣本標(biāo)簽一致的目標(biāo)數(shù),n表示該類的測(cè)試樣本總數(shù)。

        圖3 卷積神經(jīng)網(wǎng)絡(luò)模型. C: 卷積層; S: 池化層; F: 全連接層Fig.3. Convolutional Neural Network Model. C: convolutional layer; S: pooling layer; F: fully connected layer

        2.3 參數(shù)設(shè)置

        實(shí)驗(yàn)在Linux系統(tǒng)下的終端運(yùn)行, 計(jì)算機(jī)CPU為3.4 GHz的Intel i7-6700, 內(nèi)存為16 GB,極光圖像卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練, 一個(gè)Batch大小為10, 動(dòng)量為0.9, 初始學(xué)習(xí)速率為0.000 01, 每迭代40 000次學(xué)習(xí)速率下降到原來的1/10。

        2.4 實(shí)驗(yàn)結(jié)果

        由表2和圖4可以看出, 在dataset1數(shù)據(jù)集(圖4a)中當(dāng)訓(xùn)練集-測(cè)試集比例為1︰9時(shí), 分類正確率最低, loss值先降低后升高。這是由于樣本數(shù)量過低, 特征維度少出現(xiàn)了欠擬合現(xiàn)象。故調(diào)整訓(xùn)練集-測(cè)試集比例增加特征維度, 隨著訓(xùn)練樣本數(shù)量增加, 測(cè)試集的分類正確率逐步提高,損失值降低。樣本為8︰2時(shí), 樣本分類正確率最高且收斂速度明顯低于其他樣本比例, 因其有大量數(shù)據(jù), 需要更長(zhǎng)的時(shí)間學(xué)習(xí)樣本特征。

        對(duì)比實(shí)驗(yàn)dataset2(圖4b)中各比例樣本收斂速度保持一致, 隨訓(xùn)練集數(shù)目增加, 正確率平穩(wěn)上升,loss值逐漸降低。對(duì)比在兩個(gè)數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果,dataset2在整個(gè)測(cè)試過程中相對(duì)平穩(wěn), 因其樣本數(shù)量較大具有完善的極光形態(tài)信息。所以dataset2呈現(xiàn)更高的極光分類正確率, 能較好的表征極光形態(tài)。

        表2 數(shù)據(jù)集1和數(shù)據(jù)集2分類正確率Table 2. The accuracy rate of aurora dataset1 and dataset2

        圖4 極光測(cè)試損失曲線.a)數(shù)據(jù)集1, b)數(shù)據(jù)集2Fig.4. The test loss curve of aurora. a)dataset1, b)dataset2

        結(jié)合圖5所示4種極光類型的分類正確率, 弧狀的正確率最高, 輻射冕狀和熱點(diǎn)狀的極光圖像正確率較低。從極光形態(tài)特征上看弧狀極光是東西向的條帶狀, 結(jié)構(gòu)簡(jiǎn)單易于區(qū)分。相對(duì)而言, 熱點(diǎn)極光呈現(xiàn)放射束狀、點(diǎn)狀和不規(guī)則塊狀的亮斑等多種形態(tài),其形態(tài)比較復(fù)雜, 多種混合態(tài)難以區(qū)分辨別, 易導(dǎo)致網(wǎng)絡(luò)出現(xiàn)分類偏差。從樣本數(shù)量(表1)分析可能的原因是各類極光圖像樣本不均衡, 弧狀極光樣本數(shù)量遠(yuǎn)大于其他3類, 帷幔冕狀數(shù)量次之, 熱點(diǎn)狀極光訓(xùn)練樣本數(shù)量最少, 而當(dāng)訓(xùn)練樣本不夠時(shí), 深度網(wǎng)絡(luò)未充分學(xué)習(xí)到圖像特征從而降低了分類正確率。

        圖6的a—e圖為卷積層(Convolutional Layer,conv) conv1—conv5響應(yīng)特征圖, 從圖中可以看出每個(gè)卷積層提取的特征各不相同。圖6a中能看到清晰的極光輪廓, 這一層特征是以全局為主,每張小圖代表一個(gè)卷積核, conv1層響應(yīng)由96個(gè)卷積特征圖構(gòu)成。當(dāng)網(wǎng)絡(luò)層數(shù)加深, 極光輪廓模糊特征細(xì)化, 篩選出更抽象的局部特征。這種從低層全局特征到高層局部抽象特征的提取方式對(duì)樣本具有很好的分辨能力。

        圖5 4種形態(tài)極光分類正確率曲線. a)數(shù)據(jù)集1, b)數(shù)據(jù)集2Fig.5. The test accuracy rate curve of four types of aurora. a)dataset1, b)dataset2

        圖6 卷積層響應(yīng)特征圖Fig.6. The convolutional layer response feature map

        3 2004—2009年黃河站越冬觀測(cè)ASI極光圖像類型分布規(guī)律

        上述分類實(shí)驗(yàn)所用數(shù)據(jù)集dataset1來自同一年的越冬數(shù)據(jù), 為了探究每一種類型極光發(fā)生的分布規(guī)律, 排除同一年份上極光觀測(cè)圖像的過擬合因素。采用半監(jiān)督的方式, 分別使用2003年越冬觀測(cè)19 d中確定類型的38 044幅極光數(shù)據(jù)(dataset2)和從中抽取的8 001幅典型極光數(shù)據(jù)(dataset1)訓(xùn)練好的權(quán)重參數(shù)模型對(duì)2004—2009年中5年的越冬觀測(cè)數(shù)據(jù)(dataset3)進(jìn)行預(yù)測(cè)。按時(shí)間區(qū)域劃分, 統(tǒng)計(jì)各個(gè)時(shí)段10 min內(nèi)發(fā)生的極光類型及其占該時(shí)段發(fā)生極光總數(shù)的比例。以下分別是兩個(gè)數(shù)據(jù)集預(yù)測(cè)出的極光發(fā)生時(shí)間和類型的分布規(guī)律圖。

        Hu等[27]在557.7 nm波段極光觀測(cè)中表明日側(cè)極光主要分布在5個(gè)活動(dòng)區(qū), 即黎明區(qū)(Da,06:00—07:30 MLT)、午前(W, 07:30—10:00 MLT)、正午間隙區(qū)(M, 10:00—13:00 MLT)、午后(H, 13:00—15:30 MLT)、黃昏側(cè)(Du, 15:30—17:00 MLT)。在圖7中, 第一行為4個(gè)類型所有圖像在極光卵不同區(qū)域的的分布圖, 日側(cè)極光分布呈現(xiàn)雙峰結(jié)構(gòu),即上午09:00 MLT和下午15:00 MLT高峰[28]。后4行為各類極光分布規(guī)律: (1)從圖中可以看到M區(qū)極光圖像的數(shù)量最少, 符合衛(wèi)星觀測(cè)所謂正午空白區(qū), 由于該區(qū)內(nèi)極光強(qiáng)度較弱, 圖像主要分布在午前和午后; (2)弧狀極光的發(fā)生率最高, 主要分布在午后, 正午發(fā)生率最低, 是午前午后不對(duì)稱雙峰分界點(diǎn); (3)輻射冕狀極光的峰值集中在正午附近, 分布在M區(qū)的帷幔冕狀極光發(fā)生率較高;(4)熱點(diǎn)極光的整體發(fā)生率較低, 主要集中在午后;午前極光形態(tài)由較寬的弧狀極光向冕狀極光演變;午后極光形態(tài)表現(xiàn)為冕狀極光向較窄的極光弧的演變; 黃昏側(cè)各類極光的分布比較平穩(wěn)。以上分布規(guī)律與胡澤駿等[2]在黃河站極光觀測(cè)規(guī)律吻合。

        圖7 極光類型分布規(guī)律(基于2003—2009年的數(shù)據(jù)集1和數(shù)據(jù)集2)Fig.7. The auroral type distribution based on dataset1 and dataset2 from 2003 to 2009

        對(duì)比本文基于數(shù)據(jù)集dataset1和dataset2所預(yù)測(cè)的極光類型分布規(guī)律, 兩個(gè)數(shù)據(jù)集對(duì)未知圖像的預(yù)測(cè)的結(jié)果基本一致, 在各個(gè)類型的極光分布上有些許差別, 主要的偏差來源于午后對(duì)弧狀和冕狀的劃分上。這是由于這一階段處于弧狀和冕狀的過渡階段, 形態(tài)劃分的界限比較模糊, 數(shù)據(jù)集dataset2更大, 在訓(xùn)練階段進(jìn)行了更充分的學(xué)習(xí),相對(duì)dataset1在極光的連續(xù)性上更好, 能充分提取極光變化的動(dòng)態(tài)特征??傮w來講, 兩個(gè)數(shù)據(jù)集對(duì)極光分布規(guī)律的預(yù)測(cè)與文獻(xiàn)[12]的結(jié)論一致。

        4 結(jié)論與展望

        基于深度學(xué)習(xí)算法本文提出了一種用卷積神經(jīng)網(wǎng)絡(luò)模型自動(dòng)提取極光形態(tài)特征、用Softmax分類器對(duì)極光圖像進(jìn)行自動(dòng)分類的極光圖像分類方法, 實(shí)驗(yàn)中將分類器輸出的分類結(jié)果與人工標(biāo)記分類標(biāo)記進(jìn)行了驗(yàn)證。由于極光形態(tài)復(fù)雜, 特征動(dòng)態(tài)多變, 針對(duì)極光識(shí)別這一問題,目前尚未有明確的極光分類機(jī)制。本文所用卷積神經(jīng)網(wǎng)絡(luò)采用的是有監(jiān)督分類機(jī)制、監(jiān)督學(xué)習(xí)樣本中包含標(biāo)簽和特征等先驗(yàn)知識(shí)、能預(yù)先確定分類的類別。相對(duì)于無監(jiān)督學(xué)習(xí), 有監(jiān)督分類機(jī)制樣本可控, 通過反復(fù)訓(xùn)練樣本, 提高分類精度[29]。本文樣本標(biāo)簽來源于文獻(xiàn)[13]的分類機(jī)制。將實(shí)驗(yàn)中得到的分類結(jié)果與樣本標(biāo)簽對(duì)比, 正確率與現(xiàn)有結(jié)論十分接近, 驗(yàn)證了此次實(shí)驗(yàn)特征提取方法的有效性。

        不足之處在于本文的分類機(jī)制對(duì)于形態(tài)復(fù)雜的熱點(diǎn)極光的分類性能較差, 由于深度學(xué)習(xí)算法需要大量的訓(xùn)練數(shù)據(jù), 少量數(shù)據(jù)無法將網(wǎng)絡(luò)參數(shù)訓(xùn)練充分。如何對(duì)少量的數(shù)據(jù)進(jìn)行數(shù)據(jù)增強(qiáng)來擴(kuò)充訓(xùn)練樣本以及采用多尺度特征融合來提高極光的分類正確率是下一步需要研究的問題。

        1 胡紅橋, 劉瑞源, 王敬芳, 等. 南極中山站極光形態(tài)的統(tǒng)計(jì)特征[J]. 極地研究, 1999, 11(1): 11—21.

        2 胡澤駿, 楊惠根, 艾勇, 等. 日側(cè)極光卵的可見光多波段觀測(cè)特征——中國(guó)北極黃河站首次極光觀測(cè)初步分析[J]. 極地研究,2005, 17(2): 107—114.

        3 AKASOFU S I. The development of the auroral substorm[J]. Planetary and Space Science, 1964, 12(4): 273—282.

        4 MENG C I, LUNDIN R. Auroral morphology of the midday oval[J]. Journal of Geophysical Research: Space Physics, 1986, 91(A2):1572—1584.

        5 PARTAMIES N, JUUSOLA L, WHITER D, et al. Substorm evolution of auroral structures[J]. Journal of Geophysical Research: Space Physics, 2015, 120(7): 5958—5972.

        6 SYRJ?SUO M T, KAURISTIE K, PULKKINEN T I. A search engine for auroral forms[J]. Advances in Space Research, 2001, 28(11):1611—1616.

        7 SYRJ?SUO M T, DONOVAN E F. Diurnal auroral occurrence statistics obtained via machine vision[J]. Annales Geophysicae, 2004,22(4): 1103—1113.

        8 王倩. 日側(cè)全天空極光圖像分類及動(dòng)態(tài)過程分析方法研究[D]. 西安: 西安電子科技大學(xué), 2011: 1—43.

        9 韓冰, 楊辰, 高新波. 融合顯著信息的LDA極光圖像分類[J]. 軟件學(xué)報(bào), 2013, 24(11): 2758—2766.

        10 SYRJ?SUO M, PARTAMIES N. Numeric image features for detection of aurora[J]. IEEE Geoscience and Remote Sensing Letters,2012, 9(2): 176—179.

        11 RAO J, PARTAMIES N, AMARIUTEI O, et al. Automatic auroral detection in color all-sky camera images[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2014, 7(12): 4717—4725.

        12 楊秋菊, 胡澤駿. 一種基于形態(tài)特征的極光自動(dòng)分類方法[J]. 中國(guó)科學(xué): 地球科學(xué), 2017, 47(2): 252—260.

        13 HU Z J, YANG H, HUANG D, et al. Synoptic distribution of dayside aurora: Multiple-wavelength all-sky observation at Yellow River Station in Ny-?lesund, Svalbard[J]. Journal of Atmospheric and Solar-Terrestrial Physics, 2009, 71(8-9): 794—804.

        14 KRIZHEVSKY A, SUTSKEVER I, HINTON G E. ImageNet classification with deep convolutional neural networks[C]//Proceedings of the 26th Annual Conference on Neural Information Processing Systems 2012. Lake Tahoe, Nevada, USA: Neural Information Processing Systems 2012: 1097—1105.

        15 SILVER D, HUANG A, MADDISON C J, et al. Mastering the game of Go with deep neural networks and tree search[J]. Nature, 2016,529(7587): 484—489.

        16 LECUN Y, BENGIO Y, HINTON G. Deep learning[J]. Nature, 2015, 521(7553): 436—444.

        17 ZEILER M D, FERGUS R. Visualizing and understanding convolutional networks[C]//Proceedings of the 13th European Conference on Computer Vision. Cham: Springer, 2014: 818—833.

        18 ABRAHAM T H. (Physio)logical circuits: the intellectual origins of the McCulloch-Pitts neural networks[J]. Journal of the History of the Behavioral Sciences, 2002, 38(1): 3—25.

        19 周志華. 機(jī)器學(xué)習(xí)[M]. 北京: 清華大學(xué)出版社, 2016: 99—98.

        20 FUKUSHIMA K. Neocognitron: A self-organizing neural network model for a mechanism of pattern recognition unaffected by shift in position[J]. Biological Cybernetics, 1980, 36(4): 193—202.

        21 LECUN Y, KAVUKCUOGLU K, FARABET C. Convolutional networks and applications in vision[C]//Proceedings of IEEE International Symposium on Circuits and Systems. Paris, France: IEEE, 2010: 253—256.

        22 AYTAR Y, ZISSERMAN A. Tabula rasa: Model transfer for object category detection[C]//Proceedings of International Conference on Computer Vision. Barcelona, Spain: IEEE, 2011: 2252—2259.

        23 BOUREAU Y L, BACH F, LECUN Y, et al. Learning mid-level features for recognition[C]//Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition. San Francisco, CA, USA: IEEE, 2010: 2559—2566.

        24 王華利, 鄒俊忠, 張見, 等. 基于深度卷積神經(jīng)網(wǎng)絡(luò)的快速圖像分類算法[J]. 計(jì)算機(jī)工程與應(yīng)用, 2017, 53(13): 181—188.

        25 付秀麗, 黎玲萍, 毛克彪, 等. 基于卷積神經(jīng)網(wǎng)絡(luò)模型的遙感圖像分類[J]. 高技術(shù)通訊, 2017, 27(3): 203—212.

        26 SRIVASTAVA N, HINTON G, KRIZHEVSKY A, et al. Dropout: a simple way to prevent neural networks from overfitting[J]. The Journal of Machine Learning Research, 2014, 15: 1929—1958.

        27 HU Z J, YANG H G, HAN D S, et al. Dayside auroral emissions controlled by IMF: A survey for dayside auroral excitation at 557.7 and 630.0 nm in Ny-?lesund, Svalbard[J]. Journal of Geophysical Research: Space Physics, 2012, 117(A2): A02201.

        28 HU Z J, EBIHARA Y, YANG H G, et al. Hemispheric asymmetry of the structure of dayside auroral oval[J]. Geophysical Research Letters, 2014, 41(24): 8696—8703.

        29 GOODFELLOW I, BENGIO Y, COURVILLE A. 深度學(xué)習(xí)[M]. 趙申劍, 黎彧君, 符天凡, 等譯. 北京: 人民郵電出版社, 2017: 88—91.

        猜你喜歡
        極光正確率神經(jīng)元
        《從光子到神經(jīng)元》書評(píng)
        自然雜志(2021年6期)2021-12-23 08:24:46
        基于U-net的紫外極光觀測(cè)極光卵形態(tài)提取
        門診分診服務(wù)態(tài)度與正確率對(duì)護(hù)患關(guān)系的影響
        神奇的極光
        躍動(dòng)的神經(jīng)元——波蘭Brain Embassy聯(lián)合辦公
        極光之上的來客
        生意
        品管圈活動(dòng)在提高介入手術(shù)安全核查正確率中的應(yīng)用
        生意
        神奇的極光
        国产精品性色av麻豆| 亚洲综合偷自成人网第页色| 亚洲一区二区三区免费av在线| 日本免费视频一区二区三区| 亚洲成av人在线观看网址| 亚洲成色www久久网站夜月| 成人永久福利在线观看不卡| 亚洲综合精品一区二区| 国产精品久久精品第一页| 精品国产av最大网站| 亚洲高清视频在线播放| 久久久精品国产av麻豆樱花 | 久久国产精品偷任你爽任你| 久久av无码精品人妻出轨| 亚洲AV秘 无套一区二区三区| 亚洲国产精品久久久婷婷| 久久久免费精品re6| 欧美一片二片午夜福利在线快 | 亚洲精品人成中文毛片| 亚洲精品无码久久久久秋霞| 国产激情视频在线观看首页| 青青草久久久亚洲一区| 国产精品 无码专区| 国产三级在线观看免费| 色综合久久久久综合一本到桃花网| 亚洲精品中文字幕导航| 亚洲日韩一区精品射精| 日韩二三区| 蜜桃视频一区二区三区| 久久久久九九精品影院| 亚洲美国产亚洲av| 激情五月婷婷久久综合| 蜜臀av一区二区三区免费观看| 全球中文成人在线| 东京热加勒比在线观看| 一区二区三区精品免费| 日本乱偷人妻中文字幕| 98在线视频噜噜噜国产| 国产超碰在线91观看| 亚州性无码不卡免费视频| 性夜影院爽黄a爽在线看香蕉|