亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于觀測與視頻數(shù)據(jù)的機(jī)場能見度預(yù)測研究

        2024-01-13 08:36:56王新龍梁艷玲劉雪宇
        長治學(xué)院學(xué)報 2023年5期
        關(guān)鍵詞:模型

        王新龍,梁艷玲,劉雪宇

        (1.長治學(xué)院 計(jì)算機(jī)系,山西 長治 046011;2.山西旅游職業(yè)學(xué)院 計(jì)算機(jī)科學(xué)系,山西 太原 030031;3.太原理工大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院(大數(shù)據(jù)學(xué)院),山西 太原 030024)

        1 引言

        在實(shí)踐中,我們通常以能見度作為在氣象、公路行車、飛機(jī)飛行中等領(lǐng)域中衡量大氣透明程度和空氣質(zhì)量好壞的一個重要指標(biāo)。在航空領(lǐng)域,習(xí)慣用跑道能見度反映機(jī)場附近霧和霾的大小,它被定義為從跑道的一端到目標(biāo)物體的最大距離。一般情況下,當(dāng)機(jī)場能見度只有400 m 左右時,會禁止航班起降。當(dāng)機(jī)場能見度只有600-800 m 左右時,航班雖然可以正常起降,但出于安全考慮,機(jī)場會采取臨時控制航班流量的措施,拉大航班起飛間隔,但容易造成航班延誤。因此,能見度預(yù)測將直接影響交通運(yùn)輸?shù)陌踩托剩蔀榻煌ü芾聿块T和航空公司十分關(guān)注的問題[1,2]。

        目前,已經(jīng)有學(xué)者基于AMOS(Aerodome Meteorological Observation System)觀測數(shù)據(jù)對能見度進(jìn)行預(yù)測,例如,李俊敏等[3]利用BP 神經(jīng)網(wǎng)絡(luò),通過選取氣壓、風(fēng)速等特征對能見度進(jìn)行預(yù)測;王雅雪等[4]利用主成分分析、多分類多元回歸模型等方法對能見度進(jìn)行預(yù)測。然而,目前基于AMOS 觀測數(shù)據(jù)對能見度進(jìn)行預(yù)測僅僅考慮了特征變量對能見度的影響,并無考慮特征之間的相關(guān)性并融合相關(guān)特征,因此準(zhǔn)確率較低,難以滿足實(shí)際需求。

        另一方面,測量能見度需要大量設(shè)備儀器進(jìn)行測算,例如激光能見度儀等,若使用儀器測算對機(jī)場進(jìn)行全覆蓋將耗資巨大,同時儀器還存在對團(tuán)霧檢測精度不高、探測的范圍很小以及維護(hù)成本高等問題,從而在無設(shè)備區(qū)域易出現(xiàn)安全隱患,可能導(dǎo)致嚴(yán)重后果。近年來,基于視頻進(jìn)行能見度的測量引起廣泛研究,宋梓庚等[5]提出了利用VGG 深度學(xué)習(xí)模型對能見度進(jìn)行預(yù)測,RMSE 達(dá)到了14.5 km;千月欣等人[6]利用Squeezeenet 遷移學(xué)習(xí)模型對能見度進(jìn)行預(yù)測,RMSE 達(dá)到85.012 m。然而,目前基于深度學(xué)習(xí)的視頻能見度預(yù)測方法中,盡管可以對視頻中每秒的能見度進(jìn)行預(yù)測,但是由于這些方法大多數(shù)只選取少量數(shù)據(jù)中某些固有的特征,沒有很好地利用無監(jiān)督的數(shù)據(jù),估計(jì)精度不高,難以實(shí)際使用。

        基于上述問題,文章通過機(jī)場觀測、機(jī)場監(jiān)控視頻兩類數(shù)據(jù),利用數(shù)據(jù)分析方法、深度學(xué)習(xí)算法和機(jī)器學(xué)習(xí)算法等技術(shù)構(gòu)建模型,對機(jī)場的可見度進(jìn)行預(yù)測。具體分為兩部分:(1)地面的氣象因素往往能反映出霧的大小,根據(jù)AMOS 機(jī)場觀測數(shù)據(jù),選取合適的特征建立能見度與地面氣象觀測(溫度、濕度和風(fēng)速等)之間的關(guān)系并導(dǎo)出關(guān)系式。(2)大部分現(xiàn)實(shí)場景中,地面的氣象因素信息往往很難獲得,通過機(jī)場監(jiān)控視頻數(shù)據(jù)和能見度數(shù)據(jù),構(gòu)建基于視頻數(shù)據(jù)的能見度估計(jì)深度學(xué)習(xí)模型,并對估計(jì)的能見度進(jìn)行精度評估。

        2 基于AMOS 觀測數(shù)據(jù)的能見度預(yù)測模型

        AMOS 觀測數(shù)據(jù)涵蓋氣壓、燈光、溫度和濕度等特征以及相應(yīng)的能見度信息,通過該數(shù)據(jù)類型建立預(yù)測模型來描述能見度與地面氣象觀測之間的關(guān)系,并導(dǎo)出具體的關(guān)系式。由于篩選與問題目標(biāo)具有強(qiáng)相關(guān)的輸入變量對于建立模型和解決實(shí)際問題非常重要,且原始的機(jī)場AMOS 觀測數(shù)據(jù)(HIS 格式)包含很多特征,所以需要對特征進(jìn)行篩選。文章首先將數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化,隨后通過分析各變量之間的相關(guān)性,篩選出與能見度相關(guān)的特征,同時利用因子分析使得各特征之間的相關(guān)性變低。最后利用回歸分析方法,探尋能見度與地面氣象之間的關(guān)系。

        2.1 數(shù)據(jù)預(yù)處理

        數(shù)據(jù)標(biāo)準(zhǔn)化(歸一化)處理是數(shù)據(jù)挖掘的一項(xiàng)基礎(chǔ)工作。不同評價指標(biāo)往往具有不同的量綱,數(shù)值間的差別可能很大,不進(jìn)行預(yù)處理可能會影響數(shù)據(jù)分析的結(jié)果。為了消除指標(biāo)之間量綱和取值范圍差異的影響,需要進(jìn)行標(biāo)準(zhǔn)化處理,將數(shù)據(jù)按照比例進(jìn)行縮放,使之落入一個特定的區(qū)域,便于進(jìn)行綜合分析。文章采用了Z-score 標(biāo)準(zhǔn)化方式對數(shù)據(jù)進(jìn)行了處理。Z-score 是對某一原始數(shù)據(jù)進(jìn)行轉(zhuǎn)換,成為一個標(biāo)準(zhǔn)數(shù)據(jù),該標(biāo)準(zhǔn)處理的數(shù)據(jù)均值為0,標(biāo)準(zhǔn)差為1。Z-score 標(biāo)準(zhǔn)化的計(jì)算公式如下:

        2.2 特征篩選

        在機(jī)場能見度預(yù)測的研究中,有多個環(huán)境因素可能影響機(jī)場的能見度。基于氣象學(xué)知識,文章選取了2019 年12 月16 日以及2020 年3 月13日兩天的數(shù)據(jù)作為實(shí)驗(yàn)對象,初步篩選出與能見度相關(guān)的10 個特征,包括本站氣壓、飛機(jī)著陸地區(qū)最高點(diǎn)氣壓、修正海平面氣壓、溫度、相對濕度、露點(diǎn)溫度、燈光數(shù)據(jù)、2 分鐘平均風(fēng)速、2 分鐘平均風(fēng)向、2 分鐘平均垂直風(fēng)速。表1 給出了10 個屬性及其對應(yīng)的英文縮寫。

        表1 初步篩選后與能見度相關(guān)數(shù)據(jù)屬性及其對應(yīng)的英文縮寫

        基于協(xié)方差矩陣的特征進(jìn)行篩選。在統(tǒng)計(jì)學(xué)中,方差是用來度量單個隨機(jī)變量的離散程度,而協(xié)方差則一般用來刻畫兩個隨機(jī)變量的相似程度。通常,方差的計(jì)算公式為:

        協(xié)方差的計(jì)算公式為:

        根據(jù)方差的定義,給定多個隨機(jī)變量,計(jì)算隨機(jī)變量的方差和兩兩之間的協(xié)方差。利用以上方法,文章首先構(gòu)建上述10 個特征變量。由式(3)和(4)可得,各變量之間的協(xié)方差矩陣為:

        通過協(xié)方差矩陣可分析各變量與能見度之間的相關(guān)性,進(jìn)而得到如下結(jié)論。

        PAINS(本站氣壓)、QFE(飛機(jī)著陸地區(qū)最高點(diǎn)氣壓)和QNH(修正海平面氣壓)之間的協(xié)方差均為1,故根據(jù)實(shí)際意義可僅保留QNH(修正海平面氣壓)。露點(diǎn)溫度與MOR 協(xié)方差小于0.1,即露點(diǎn)溫度與能見度之間的相關(guān)性較弱,故不做考慮。

        因此,通過協(xié)方差矩陣的分析可得,與能見度相關(guān)性較強(qiáng)的有7 個變量,包括修正海平面氣壓、溫度、相對濕度、燈光數(shù)據(jù)、2 分鐘平均風(fēng)速、2 分鐘平均風(fēng)向和2 分鐘平均垂直風(fēng)速。表2 展示了氣象光學(xué)視程(MOR)、跑道視程(RVR)和篩選后的7 個變量的部分?jǐn)?shù)據(jù)。

        表2 氣象光學(xué)視程(MOR)、跑道視程(RVR)和篩選后的的7 個變量的部分?jǐn)?shù)據(jù)

        2.3 因子分析

        本小節(jié)主要考慮各變量之間的相關(guān)性。由圖1 中的協(xié)方差矩陣可得,WS2A(2 分鐘平均風(fēng)速)、WD2A(2 分鐘平均風(fēng)向)和CW2A(2分鐘平均垂直風(fēng)速)的相關(guān)性較高,通過降維的方法進(jìn)一步減少變量。本小節(jié)采用因子分析方法[7]對三個變量進(jìn)行降維,得到了兩個相對獨(dú)立的變量。

        圖1 協(xié)方差矩陣圖

        因子分析的思想是通過變量的相關(guān)系數(shù)矩陣,獲得能控制所有變量的少數(shù)幾個隨機(jī)變量,并能用其描述多個變量間的相關(guān)關(guān)系。該方法要求原有變量之間要具有比較強(qiáng)的相關(guān)性。由于WS2A、WD2A、CW2A 三個變量之間的相關(guān)性很高,可以采用該方法進(jìn)行降維。文章采用R 型因子分析進(jìn)行分析,該因子模型為:

        其中F1,F(xiàn)2,…,F(xiàn)m為公共因子,ε 為Xi的特殊因子。其矩陣形式可表示為:

        下面對WS2A、WD2A、CW2A 三個變量進(jìn)行因子分析。假設(shè)其公因子為風(fēng)速和風(fēng)向,然后對三個變量進(jìn)行Z-score 標(biāo)準(zhǔn)化處理,最后利用因子分析模型可得兩個公因子與三個變量之間的關(guān)系。根據(jù)因子分析,兩個公因子可表示為標(biāo)準(zhǔn)化后變量的線性組合:

        2.4 回歸分析

        利用上述篩選好的特征變量,構(gòu)建最終針對能見度的預(yù)測模型?;貧w分析可以對各變量進(jìn)行擬合,主要用于預(yù)測輸入變量(自變量)和輸出變量(因變量)之間的關(guān)系[8]?;貧w模型表示從輸入變量到輸出變量之間映射的函數(shù)[9]。因此,回歸問題的學(xué)習(xí)等價于函數(shù)擬合,是監(jiān)督學(xué)習(xí)的一個重要問題?;貧w問題可以分為學(xué)習(xí)和預(yù)測兩個過程(如圖2 所示)。首先給定一個訓(xùn)練數(shù)據(jù)集:

        圖2 回歸問題示意圖

        Xi∈Rn,i=1,2,…,N是輸入,yi∈R是對應(yīng)的輸出。學(xué)習(xí)系統(tǒng)基于訓(xùn)練數(shù)據(jù)構(gòu)建一個模型,即函數(shù)Yi=F(Xi)。根據(jù)新的輸入XN+1,預(yù)測系統(tǒng)所依據(jù)的學(xué)習(xí)模型Yi=F(Xi)。

        依據(jù)上述模型可確定相應(yīng)的預(yù)測值yN+1。文章采用線性回歸的方法對數(shù)據(jù)進(jìn)行擬合,其線性回歸模型定義為:

        其中W 是所要求的參數(shù),X 是輸入的數(shù)據(jù)矩陣,Y 為數(shù)據(jù)集標(biāo)簽,具體公式為:

        這里Xi(j)表示數(shù)據(jù)集第i個樣本的第j個屬性值,數(shù)據(jù)集一共有N個數(shù)據(jù),n個屬性。因?yàn)榭紤]常數(shù)項(xiàng),所以在數(shù)據(jù)矩陣X的第一列全為1。線性回歸模型的目標(biāo)是尋找一組參數(shù)W,使得Y=XW盡可能地逼近真實(shí)值。

        下面對能見度進(jìn)行回歸分析,構(gòu)建能見度與各特征變量之間的關(guān)系。首先對6 個自變量和一個因變量組成的數(shù)據(jù)集進(jìn)行Z-score 標(biāo)準(zhǔn)化處理;然后采用均方誤差作為損失函數(shù)進(jìn)行線性回歸。根據(jù)實(shí)驗(yàn)可得,各變量的回歸系數(shù)分別為-0.164,0.569,0.609,0.031,-0.838 和0.796,且 常 數(shù) 項(xiàng)為-0.001。因此能見度與各地面氣象觀測之間的關(guān)系可表示:

        由表3 可得,該回歸模型預(yù)測能力良好,均方誤差(MSE)、均方根誤差(RMSE)、平均絕對誤差(MAE)分別達(dá)到了0.0685、0.2617、0.2172。三種反應(yīng)預(yù)測值誤差實(shí)際情況的指標(biāo)均證明了該回歸模型具有良好的預(yù)測能力。另外擬合優(yōu)度R2為0.934。擬合優(yōu)度是指回歸直線對觀測值的擬合程度。R2最大值為1,R2的值越接近1,說明回歸模型對觀測值的擬合程度越好,反之,R2的值越小,說明回歸模型對觀測值的擬合程度越差。因此,實(shí)驗(yàn)結(jié)果表明回歸模型(12)的預(yù)測與擬合程度良好。

        表3 線性回歸模型性能

        雖然擬合優(yōu)度R2度量了回歸模型與樣本觀察值之間擬合程度,但是R2本身卻不能反映回歸系數(shù)是否在統(tǒng)計(jì)上是顯著的。因此,需要對該模型回歸系數(shù)的顯著性進(jìn)行檢驗(yàn)。文章采用了驗(yàn)證模型顯著性的F檢驗(yàn)。假設(shè)模型為:

        原假設(shè)和備擇假設(shè)分別為:

        這里ESS、RSS 分別為回歸平方和、殘差平方和。自由度為k,n-k-1,其中為自變量個數(shù),為樣本數(shù)。Yi,表Y^i示,Y第 個因變量表示i=1,2,…,n回歸模型對應(yīng)的預(yù)測值,Y所有因變量的平均值。給定顯著性水平α=0.01,n=5755,k=6,將相關(guān)數(shù)值對應(yīng)臨界值表可以得到臨界值Fα(k,n-k-1)=2.805。

        由計(jì)算得知F統(tǒng)計(jì)量為20.739,F(xiàn)>Fα(k,n-k-1),拒絕原假設(shè),因此原方程總體上的線性關(guān)系顯著成立。

        3 基于視頻數(shù)據(jù)的能見度預(yù)測模型

        3.1 視頻數(shù)據(jù)預(yù)處理

        為了采用深度學(xué)習(xí)模型對視頻數(shù)據(jù)進(jìn)行分析,需要進(jìn)行如下的數(shù)據(jù)預(yù)處理:(1)缺失值、異常值等處理;(2)將視頻數(shù)據(jù)轉(zhuǎn)化為圖片數(shù)據(jù);(3)給圖片數(shù)據(jù)賦予相應(yīng)的能見度MOR 值,將其作為標(biāo)簽。具體步驟如下。

        文章選取2020 年3 月13 日從00:00 到11:48時間段的兩個場景的視頻數(shù)據(jù)。圖3(a)是場景一的截取圖片,圖3(b)是場景二的截取圖片,其中00:00 到08:00 時段具有能見度標(biāo)簽。將此部分作為強(qiáng)監(jiān)督數(shù)據(jù)集,其他部分作為無監(jiān)督數(shù)據(jù)集。通過Python 將視頻數(shù)據(jù)轉(zhuǎn)換為圖片數(shù)據(jù)。對視頻進(jìn)行分幀,按照每秒一張截取圖片,將圖片保存?zhèn)溆谩?/p>

        圖3 不同場景下的視頻圖片

        給定圖片對應(yīng)的能見度值。機(jī)場AMOS 觀測數(shù)據(jù)中每隔15 秒記錄一個能見度MOR 值,但是圖片按照每秒進(jìn)行截取,因此將強(qiáng)監(jiān)督數(shù)據(jù)集中每15 張圖賦予一個MOR 值作為15 張圖片的能見度值,如30-44 秒間的15 張圖片的MOR 值均為3000(30 秒時的MOR 觀測數(shù)據(jù))。這種方法不僅利用了大量無標(biāo)簽數(shù)據(jù),同時考慮了時間關(guān)系,便于網(wǎng)絡(luò)收斂與提高精度。

        考慮到能見度MOR 的增量以最少50 為量級,為方便計(jì)算將MOR 值都除以50,并將其作為標(biāo)簽。同時,在預(yù)測時得到的值也需乘以50 作為最終的預(yù)測值。在增快了網(wǎng)絡(luò)收斂速度的同時增加了回歸的精度。

        確定標(biāo)簽后,將數(shù)據(jù)集以一定比例分為訓(xùn)練集、驗(yàn)證集和測試集。

        3.2 深度殘差回歸網(wǎng)絡(luò)架構(gòu)設(shè)計(jì)

        在深度學(xué)習(xí)中,一般神經(jīng)網(wǎng)絡(luò)的每一層都用來提取特征,深度越深,在不同層次上提取的信息就越多。但網(wǎng)絡(luò)的深化通常會出現(xiàn)梯度消失和梯度爆炸,使得深化網(wǎng)絡(luò)性能會變得更差。殘差網(wǎng)絡(luò)(Resnet)是何凱明在2015 年提出的一種網(wǎng)絡(luò)結(jié)構(gòu),它由多個殘差塊組成,且殘差塊使用跳躍連接。殘差網(wǎng)絡(luò)通過殘差設(shè)計(jì)解決了網(wǎng)絡(luò)深化帶來的性能下降和梯度問題[10]。圖4 展示了一個殘差塊結(jié)構(gòu),其中x表示輸入,F(xiàn)(x)表示殘差塊在第二層激活函數(shù)之前的輸出,即F(x)=W2σ(W1x),其中W1和W2表示卷積層1和卷積層2 的權(quán)重,σ表示 ReLU 激活函數(shù)。最后殘差塊的輸出是σ(F(x)+x)。

        圖4 殘差塊

        文章的深度學(xué)習(xí)模型主干選擇Resnet50。該網(wǎng)絡(luò)包括 50 個卷積層,每一個卷積層后接一個ReLU 和 池化層。每三個卷積層之間接一個跳躍連接。Resnet50 經(jīng)過了4 個殘差塊,每一個殘差塊中分別有3、4、6、3 個Bottleneck。

        在該深度學(xué)習(xí)模型中,采用隨機(jī)梯度下降法(SGD)進(jìn)行更新。SGD 算法是從樣本中隨機(jī)抽取一組數(shù)據(jù),訓(xùn)練后按梯度更新一次權(quán)重,然后再抽取一組數(shù)據(jù),再更新一次權(quán)重。假設(shè)模型函數(shù)與目標(biāo)函數(shù)分別為:

        令一個樣本的目標(biāo)函數(shù)為:

        則目標(biāo)函數(shù)的偏導(dǎo)為:

        參數(shù)更新為:

        其中x(i)表示第i個樣本,y(i)為x(i)對應(yīng)的函數(shù)值,i=1,2,…,m,θj為參數(shù),xj是樣本的第j個分量,j=0,1,…,n,α為學(xué)習(xí)率。

        由于Resnet50 最后一層Softmax 用來做分類,利用Softmax 層之前的框架來提取圖像特征,把提取到的特征值作為輸入向量,能見度作為輸出。對特征值進(jìn)行線性回歸,得到能見度MOR 的預(yù)測結(jié)果。應(yīng)用此手段,深度殘差回歸網(wǎng)絡(luò)利用Resnet50 網(wǎng)絡(luò)架構(gòu)提取圖像特征,利用回歸作為預(yù)測輸出,將單一的分類結(jié)果替換為線性預(yù)測值,達(dá)到能見度預(yù)測的目的。

        3.3 基于視頻數(shù)據(jù)能見度預(yù)測的實(shí)驗(yàn)及結(jié)果

        在訓(xùn)練模型方面,為了驗(yàn)證標(biāo)簽和模型的準(zhǔn)確性,挑選具有真實(shí)觀測的MOR 值的圖像作為測試集。表4 給出了文章所采用數(shù)據(jù)集的劃分方式。

        表4 數(shù)據(jù)集概況

        本實(shí)驗(yàn)采用搭載了4 個NVIDIA Tesla V100 GPU 的服務(wù)器,在PyTorch1.1.0 框架下搭建神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練。使用SGD 梯度下降方法,學(xué)習(xí)率為0.001。圖片壓縮到224*224,衰減率為0.2,且衰減間隔為20。以batch size 為128 訓(xùn)練了80個epoch。具體訓(xùn)練步驟如下。

        (1)在強(qiáng)監(jiān)督數(shù)據(jù)集上以上述參數(shù)進(jìn)行訓(xùn)練,得到初步能見度預(yù)測模型;

        (2)將弱標(biāo)簽數(shù)據(jù)集中的圖片放到初步能見度預(yù)測模型進(jìn)行預(yù)測,得到弱標(biāo)簽?;旌蟽煞N數(shù)據(jù)集,重新以8∶1 ∶1 的比例劃分訓(xùn)練集驗(yàn)證集與測試集進(jìn)行訓(xùn)練,得到最終模型。

        (3)在模型評估階段,本小節(jié)采用MAE 誤差作為評價指標(biāo),表5 描述了測試集的具體評價情況。

        表5 模型評價結(jié)果

        從表5 可以看出:(1)對于強(qiáng)監(jiān)督模型來說,本模型通過引入上下幀數(shù)據(jù)的標(biāo)簽信息作為參考,在增大數(shù)據(jù)量的同時修正了標(biāo)簽,在測試集上使平均絕對誤差達(dá)到了10.3 m,具有優(yōu)秀的性能。(2)對于弱標(biāo)簽圖像來說,通過加入偽標(biāo)簽,大幅度增大訓(xùn)練數(shù)據(jù)量,在與強(qiáng)監(jiān)督模型相同的場景1 中將平均絕對誤差降低2.2 m。在場景2 中也具有較好的表現(xiàn)。(3)文章同時將兩種模型對部分測試集的預(yù)測和真實(shí)值的結(jié)果進(jìn)行可視化用于定性判斷,如圖5 所示。筆者將強(qiáng)標(biāo)簽訓(xùn)練集訓(xùn)練得到的模型定義為模型1,將弱標(biāo)簽訓(xùn)練集訓(xùn)練得到的模型定義為模型2。從圖5 中可以直觀的看出深度學(xué)習(xí)模型在測試集中的預(yù)測結(jié)果與真實(shí)值極為接近,預(yù)測效果良好,模型性能優(yōu)越。

        圖5 深度學(xué)習(xí)模型預(yù)測能見度與真實(shí)值比較

        4 討論與結(jié)論

        文章針對機(jī)場能見度預(yù)測困難、設(shè)備成本高等問題,分別通過AMOS 觀測數(shù)據(jù)以及監(jiān)控視頻數(shù)據(jù)兩種方式,構(gòu)建模型對能見度進(jìn)行預(yù)測。

        首先,文章對AMOS 數(shù)據(jù)進(jìn)行整合與分析,自主創(chuàng)建了兩項(xiàng)指標(biāo),并結(jié)合已有指標(biāo)進(jìn)行多項(xiàng)式回歸得到表達(dá)式。該表達(dá)式通過假設(shè)檢驗(yàn)證明了有效性,線性回歸精度已經(jīng)達(dá)到一個可觀值在實(shí)際應(yīng)用中可以對能見度進(jìn)行可靠的預(yù)測。但是由于缺乏特征之間更具體的關(guān)系,只能進(jìn)行線性擬合,未考慮表達(dá)式的真實(shí)結(jié)構(gòu),未來嘗試對表達(dá)式進(jìn)行基于真實(shí)現(xiàn)實(shí)意義的解析。

        其次,文章通過對機(jī)場監(jiān)控視頻進(jìn)行創(chuàng)新性的處理,按照每秒對視頻進(jìn)行畫面抽取并賦予標(biāo)簽后,結(jié)合前一秒圖像與后一秒圖像對標(biāo)簽進(jìn)行調(diào)整。將單個視頻擴(kuò)增到萬級圖像數(shù)據(jù)量的同時保留了視頻連續(xù)信息。提出了深度殘差回歸網(wǎng)絡(luò)提取特征并回歸預(yù)測,突破了傳統(tǒng)方法提取固有特征的限制,將平均絕對誤差(MAE)降低至10.22 m。同時將視頻中沒有標(biāo)簽的部分進(jìn)行預(yù)測,并與有標(biāo)簽數(shù)據(jù)混合重新劃分訓(xùn)練集測試集進(jìn)行再訓(xùn)練,進(jìn)一步提升模型性能,將平均絕對誤差降低至8.11 m。該模型以極低的平均絕對誤差證明了該模型對視頻數(shù)據(jù)中變化的場景均有較好的能見度預(yù)測能力。但是由于文章采用數(shù)據(jù)的時間段為凌晨零點(diǎn)至早上八點(diǎn),可見度范圍在50 m至1100 m,數(shù)據(jù)跨度較低,只能對未給標(biāo)簽的數(shù)據(jù)近似預(yù)測,無法完整的對各種情況下(如霧氣較小的中午時間段等)的能見度進(jìn)行準(zhǔn)確的預(yù)測。未來嘗試搜集全時間段數(shù)據(jù),構(gòu)建完整的能見度預(yù)測模型。

        綜上所述,文章在兩種數(shù)據(jù)下構(gòu)建的模型均對能見度具有較好的預(yù)測效果,并對未來機(jī)場能見度預(yù)測的實(shí)際應(yīng)用有著重大意義。

        猜你喜歡
        模型
        一半模型
        一種去中心化的域名服務(wù)本地化模型
        適用于BDS-3 PPP的隨機(jī)模型
        提煉模型 突破難點(diǎn)
        函數(shù)模型及應(yīng)用
        p150Glued在帕金森病模型中的表達(dá)及分布
        函數(shù)模型及應(yīng)用
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        3D打印中的模型分割與打包
        亚洲美女国产精品久久久久久久久| 天堂资源中文最新版在线一区| 日本大片在线看黄a∨免费| 91人妻无码成人精品一区91| 中文字幕一区二区人妻在线不卡| 一区二区三区国产在线视频| 97在线观看视频| 亚洲天堂第一区| 国产一级一片内射在线| 日韩av一区二区观看| 偷偷色噜狠狠狠狠的777米奇| 无码国产亚洲日韩国精品视频一区二区三区| 99久久国语露脸国产精品| 亚洲女同免费在线观看| 久久久久久久久毛片精品| 中文字幕影片免费在线观看| 久久精品国产久精国产69| 亚洲精品国产av日韩专区| 亚洲成a人片在线观看无码3d| 亚洲影院天堂中文av色| 男女上床视频在线观看| 丝袜美腿福利一区二区| 亚洲国产精品第一区二区| 国产成人午夜福利在线小电影| 中文字幕亚洲视频三区| 日本中文字幕一区二区有码在线| 丰满少妇大力进入av亚洲| 国产精品亚洲综合色区韩国| 精品人妻在线一区二区三区在线| 亚洲人成网线在线播放va蜜芽| 香蕉人妻av久久久久天天| 亚洲av综合色区久久精品天堂| 国产香蕉一区二区三区在线视频 | 精品国产人妻一区二区三区| 999精品免费视频观看| 国家一级内射高清视频| 国产精品人妻一区二区三区四| 免费一级毛片在线播放不收费| 日本精品人妻一区二区三区| 天堂网站一区二区三区| av蓝导航精品导航|