亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        結(jié)合Inception模塊的卷積神經(jīng)網(wǎng)絡(luò)圖像分類方法

        2020-05-28 09:36:21齊廣華何明祥
        軟件導(dǎo)刊 2020年3期
        關(guān)鍵詞:圖像分類卷積神經(jīng)網(wǎng)絡(luò)

        齊廣華 何明祥

        摘 要:針對(duì)現(xiàn)有卷積神經(jīng)網(wǎng)絡(luò)模型參數(shù)量大、訓(xùn)練時(shí)間長(zhǎng)的問(wèn)題,提出了一種結(jié)合VGG模型和Inception模塊特點(diǎn)的網(wǎng)絡(luò)模型。該模型通過(guò)結(jié)合兩種經(jīng)典模型的特點(diǎn),增加網(wǎng)絡(luò)模型的寬度和深度,使用較小的卷積核和較多的非線性激活,在減少參數(shù)量的同時(shí)增加了網(wǎng)絡(luò)特征提取能力,同時(shí)利用全局平均池化層替代全連接層,避免全連接層參數(shù)過(guò)多容易導(dǎo)致的過(guò)擬合問(wèn)題。在MNIST和CIFAR-10數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,該方法在MNIST數(shù)據(jù)集上的準(zhǔn)確率達(dá)到了99.76%,在CIFAR-10數(shù)據(jù)集上的準(zhǔn)確率相比傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)模型提高了6%左右。

        關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò); Inception模塊; 全局平均池化; 卷積核; 圖像分類

        DOI:10. 11907/rjdk. 192501

        中圖分類號(hào):TP301 ? 文獻(xiàn)標(biāo)識(shí)碼:A??????????????? 文章編號(hào):1672-7800(2020)003-0079-04

        Convolutional Neural Network Image Classification Method Combined

        with Inception Module

        QI Guang-hua, HE Ming-xiang

        (College of Computer Science and Engineering, Shandong University of Science and Technology, Qingdao 266590, China)

        Abstract: Aiming at the problem that the existing convolutional neural network model has large parameters and long training time, we propose a network model combining VGG model and inception module. By combining the characteristics of the two classical models, the model increases the width and depth of the network model, uses a smaller convolution kernel and more nonlinear activation, and increases the network feature extraction ability while reducing the parameter quantity. The average pooling layer replaces the fully connected layer, avoiding the over-fitting problem that is easily caused by too many parameters of the full-connected layer. Experimental results on the MNIST and CIFAR-10 datasets show that the accuracy of this method on the MNIST dataset is 99.76%. The accuracy on the CIFAR-10 dataset is about 6% higher than the traditional convolutional neural network model.

        Key Words: convolutional neural network; inception module; global average pooling; convolution kernel; image classification

        0 引言

        智能化信息時(shí)代的到來(lái),使得人工智能與機(jī)器學(xué)習(xí)技術(shù)得到了飛速發(fā)展。卷積神經(jīng)網(wǎng)絡(luò)[1](Convolution Neural Network,CNN)作為深度學(xué)習(xí)最常用的模型之一,由于具有良好的特征提取能力和泛化能力,在圖像處理、目標(biāo)跟蹤與檢測(cè)、自然語(yǔ)言處理、場(chǎng)景分類、人臉識(shí)別、音頻檢索、醫(yī)療診斷等諸多領(lǐng)域獲得了巨大成功。

        隨著如LeNet-5[2],AlexNet,VGGNet[3]等一系列經(jīng)典CNN模型的提出,模型的深度和復(fù)雜度也隨之增加,網(wǎng)絡(luò)模型的參數(shù)也變得龐大,模型運(yùn)行也消耗了更多時(shí)間。文獻(xiàn)[4]討論了在特定復(fù)雜度和時(shí)間中,CNN模型的深度、特征數(shù)、卷積核等因素平衡問(wèn)題。通過(guò)增加卷積層數(shù)量增加網(wǎng)絡(luò)深度,使得模型在分類任務(wù)上更有優(yōu)勢(shì);文獻(xiàn)[5]、文獻(xiàn)[6]的研究表明,CNN模型中從卷積層到全連接層存在大量冗余參數(shù),并且全連接層的參數(shù)量約占90%。剔除不重要的參數(shù)節(jié)點(diǎn)以及卷積核,可以達(dá)到精簡(jiǎn)網(wǎng)絡(luò)結(jié)構(gòu)的目的,減少參數(shù)進(jìn)而有效緩解過(guò)擬合現(xiàn)象[7]的發(fā)生,同時(shí)減少網(wǎng)絡(luò)訓(xùn)練時(shí)間,提升網(wǎng)絡(luò)模型的健壯性;文獻(xiàn)[8]提出了Inception模塊,利用3種類型的卷積操作(1×1,3×3,5×5),增加了CNN深度,同時(shí)減少了參數(shù),提升了計(jì)算資源利用率。

        基于以上背景,本文提出結(jié)合Inception模塊的卷積神經(jīng)網(wǎng)絡(luò)圖像分類方法,利用若干個(gè)較小的卷積核替代一個(gè)較大的卷積核,通過(guò)增加卷積層獲取深層次信息,同時(shí)讓幾種類型的卷積核并聯(lián)提取圖像特征,增加了網(wǎng)絡(luò)深度、寬度并減少了參數(shù),同時(shí)提升了算法效率。本文利用全局平均池化層(Global Average Pooling[9])替換全連接層以防止過(guò)擬合,采用批歸一化[10](Batch Normalization,BN)操作加速收斂過(guò)程,增強(qiáng)模型學(xué)習(xí)能力。

        1 卷積神經(jīng)網(wǎng)絡(luò)模型

        1.1 VGG-Net

        VGG-Net在 ILSVRC-2014中的優(yōu)秀表現(xiàn),證明增加網(wǎng)絡(luò)深度可以影響網(wǎng)絡(luò)模型最終性能。VGG-Net的一個(gè)改進(jìn)是利用幾個(gè)連續(xù)的小卷積核替代AlexNet中的較大卷積核。在給定的相同感受野[11]下,由于小卷積核的代價(jià)較小,卷積核的堆疊也增加了非線性激活次數(shù),以進(jìn)行更深層的特征學(xué)習(xí),因此利用連續(xù)的小卷積核[12]是更優(yōu)選擇。例如在VGG中使用3個(gè)3×3卷積核代替1個(gè)7×7卷積核,7×7的參數(shù)為49個(gè),3個(gè)3×3的參數(shù)是27個(gè)。這樣保證在具有相同感受野的條件下,提升網(wǎng)絡(luò)深度,同時(shí)使用3次非線性函數(shù)而不是1次,這樣增加了函數(shù)判別能力,減少了參數(shù)數(shù)量,在一定程度上提升了神經(jīng)網(wǎng)絡(luò)效果。

        1.2 Inception模塊

        VGG-Net的泛化性能非常好,常用于圖像特征抽取和目標(biāo)檢測(cè)候選框生成等。VGG的最大問(wèn)題就在于參數(shù)數(shù)量,簡(jiǎn)單地堆疊較大卷積層非常消耗計(jì)算資源,VGG-19 基本上是參數(shù)量最多的卷積網(wǎng)絡(luò)架構(gòu)。由于信息位置的巨大差異,為卷積操作選擇合適的卷積核大小較為困難。信息分布全局性好的圖像偏好較大的卷積核,信息分布比較局部的圖像偏好較小的卷積核。非常深的網(wǎng)絡(luò)更容易過(guò)擬合,將梯度更新傳輸?shù)秸麄€(gè)網(wǎng)絡(luò)很困難。為了使網(wǎng)絡(luò)變寬,而不是更深,Inception模塊由此而生。它沒(méi)有像 VGG-Net 那樣大量使用全連接網(wǎng)絡(luò),因此參數(shù)量非常小。

        GoogLeNet最大的特點(diǎn)是使用了Inception模塊,如圖1所示,利用 1×1、3×3 或 5×5 等不同的卷積運(yùn)算與池化操作獲得輸入圖像的不同信息,并行處理這些運(yùn)算并結(jié)合所有結(jié)果將獲得更好的圖像特征。同時(shí),為了降低計(jì)算成本,在3×3和5×5卷積層之前添加相較于3×3和5×5卷積廉價(jià)很多的 1×1 卷積層,以限制輸入信道數(shù)量。

        2 卷積神經(jīng)網(wǎng)絡(luò)改進(jìn)方法

        2.1 模型寬度與深度

        使用VGG16模型的前三層卷積,即3×3卷積核和2×2池化層的組合,卷積層使用大小相同的卷積核對(duì)圖像進(jìn)行特征提取,緊跟的池化層將處理過(guò)的圖像進(jìn)行高度和寬度壓縮,達(dá)到縮小圖像的目的。通過(guò)增加卷積池化層不斷加深網(wǎng)絡(luò)結(jié)構(gòu),進(jìn)而增強(qiáng)圖像特征提取能力。

        利用Inception模塊,設(shè)計(jì)一種具有優(yōu)良局部拓?fù)浣Y(jié)構(gòu)的網(wǎng)絡(luò),即對(duì)輸入圖像并行地執(zhí)行多個(gè)卷積運(yùn)算或池化操作,并將所有輸出結(jié)果拼接為一個(gè)非常深的特征圖。由于1×1、3×3 或 5×5 等不同的卷積運(yùn)算與池化操作可以獲得輸入圖像的不同信息,并行處理這些運(yùn)算并結(jié)合所有結(jié)果以獲得更好的圖像表征。在同一層級(jí)上運(yùn)行該具備多個(gè)尺寸的濾波器,增加了網(wǎng)絡(luò)寬度。

        2.2 GAP

        在卷積神經(jīng)網(wǎng)絡(luò)初期,通過(guò)卷積池化層后總是需要接一個(gè)或幾個(gè)全連接層,最后輸入到Softmax層進(jìn)行分類。其特征是全連接層的參數(shù)非常多,使模型本身變得非常臃腫。Lin等[8]提出使用GAP替代全連接層的思路,該方法取代了擁有大量參數(shù)的全連接層,直接實(shí)現(xiàn)了參數(shù)降維。GAP在結(jié)構(gòu)上對(duì)整個(gè)網(wǎng)絡(luò)作正則化進(jìn)而防止過(guò)擬合,允許輸入任意大小的圖像,重新整合空間特征信息,進(jìn)而使算法擁有更強(qiáng)的魯棒性。

        2.3 自適應(yīng)學(xué)習(xí)率

        在機(jī)器學(xué)習(xí)中,為了得到最優(yōu)權(quán)值,需要構(gòu)建利用代價(jià)損失函數(shù),并選用合適的優(yōu)化算法得到最小函數(shù)損失值。本文選用隨機(jī)梯度下降算法[13](Stochastic Gradient Descent,SGD)和Adam學(xué)習(xí)率自適應(yīng)算法[14]相結(jié)合的方式更新學(xué)習(xí)速率。

        SGD算法在計(jì)算下降最快的方向時(shí),每次只隨機(jī)選擇一個(gè)樣本更新模型參數(shù),而不是掃描全部樣本集。因此加快了迭代速度,計(jì)算量也有所降低,并且可以進(jìn)行在線更新。SGD相關(guān)公式如下:

        式中,θ代表參數(shù)權(quán)值,▽?duì)?代表梯度,J(θ)代表?yè)p失函數(shù),α表示學(xué)習(xí)率。如果學(xué)習(xí)率過(guò)小,算法需要經(jīng)過(guò)較多的迭代次數(shù)才能找到最優(yōu)解,收斂速度會(huì)大幅度下降,更有可能陷入局部最優(yōu)解。如果學(xué)習(xí)率過(guò)大,雖然會(huì)加快訓(xùn)練速度,但也加大了跳過(guò)最優(yōu)解的幾率,可能出現(xiàn)在最優(yōu)解兩側(cè)來(lái)回跳躍的情況反而找不到最優(yōu)解。由此可以看出,學(xué)習(xí)率是決定梯度下降算法是否有效的關(guān)鍵因素。

        SGD能夠收斂于最優(yōu)解,但是相對(duì)而言它可能花費(fèi)的時(shí)間更長(zhǎng),并且容易陷入局部極小值點(diǎn),甚至鞍點(diǎn)。為了使學(xué)習(xí)率更好地適應(yīng)SGD,本文選擇Adam算法作為自適應(yīng)學(xué)習(xí)速率SGD優(yōu)化算法。該算法利用梯度的一階矩陣和二階矩陣動(dòng)態(tài)調(diào)整參數(shù)學(xué)習(xí)率、校正后的學(xué)習(xí)率,使每一次迭代都有一個(gè)確定范圍,并且使參數(shù)更新比較平穩(wěn)。θ 參數(shù)更新如式(2)所示。

        式中,[v]和[m]分別是對(duì)代價(jià)函數(shù)求梯度的一階矩陣及二階矩陣。

        2.4 改進(jìn)模型

        改進(jìn)后的網(wǎng)絡(luò)模型如圖2所示。設(shè)F0(X)=X+η為第一層輸入,F(xiàn)i(X)為第i層輸出,*為卷積操作,Wi和bi 分別表示卷積層的權(quán)重與偏置。

        第一層使用Inception模塊,使用包括1×1、3×3、2個(gè)3×3共3種不同尺度大小的卷積核增加網(wǎng)絡(luò)寬度,提取更多特征,此外還執(zhí)行最大池化,所有子層的輸出最后會(huì)被級(jí)聯(lián)起來(lái),并傳送至下一個(gè)模塊。針對(duì)數(shù)據(jù)集較小的情況,決定將層數(shù)降為32層,每種尺度大小的卷積核個(gè)數(shù)為8個(gè)。其中,W11=3×3×8,W12=3×3×8,W13=1×1×8,W14=1×1×8。

        第二層使用VGG網(wǎng)絡(luò)的3個(gè)卷積池化層,利用Conv+BN+ReLU+maxpool組合,64、128和256個(gè)3×3卷積核的卷積層以及2×2池化層,不斷縮小圖像高度和寬度,提高了網(wǎng)絡(luò)深度,學(xué)習(xí)了更深層的更多特征。使用ReLU[15]激活函數(shù),避免梯度消失;增加BN操作進(jìn)行歸一化,加快網(wǎng)絡(luò)訓(xùn)練。各層輸出表示為:

        第三層使用全局平均池化層替代全連接層,有效減少了參數(shù)數(shù)量,可以很好地減輕過(guò)擬合發(fā)生。

        3 實(shí)驗(yàn)結(jié)果與分析

        3.1 實(shí)驗(yàn)平臺(tái)與數(shù)據(jù)

        實(shí)驗(yàn)選取的數(shù)據(jù)集為手寫(xiě)數(shù)字識(shí)別數(shù)據(jù)集MNIST和一般物體圖像數(shù)據(jù)集CIFAR-10。本文實(shí)驗(yàn)主要在Intel(R)Core(TM)i5-6300HQ CPU2.30 GHz+Nvidia GeForce GTX960M GPU+8G內(nèi)存配置的服務(wù)器上進(jìn)行,另外采用基于Python語(yǔ)言的TensorFlow4.2深度學(xué)習(xí)框架對(duì)不同數(shù)據(jù)庫(kù)進(jìn)行訓(xùn)練與測(cè)試。

        3.2 實(shí)驗(yàn)結(jié)果對(duì)比

        3.2.1 MNIST數(shù)據(jù)集實(shí)驗(yàn)分析

        MNIST數(shù)據(jù)集包含訓(xùn)練樣本60 000個(gè),測(cè)試樣本??? 10 000個(gè)的手寫(xiě)數(shù)字圖像,其中每張圖像大小為28×28。設(shè)置epoch為100,batch 為200,每個(gè)epoch需要訓(xùn)練100次,總迭代訓(xùn)練次數(shù)為10 000次。卷積層步長(zhǎng)設(shè)置為1,池化層步長(zhǎng)設(shè)置為2,用反向傳播算法調(diào)整網(wǎng)絡(luò)權(quán)值,用交叉熵函數(shù)衡量訓(xùn)練損失,利用自適應(yīng)學(xué)習(xí)率對(duì)訓(xùn)練集樣本進(jìn)行學(xué)習(xí)提取,采用Adam優(yōu)化算法進(jìn)行網(wǎng)絡(luò)訓(xùn)練,訓(xùn)練結(jié)果如表1所示。經(jīng)過(guò) 100 次迭代準(zhǔn)確率已達(dá)到 99.64%,參數(shù)總數(shù)相比也有大幅度減少。

        為了進(jìn)一步驗(yàn)證模型有效性,與近幾年手寫(xiě)字符識(shí)別方法進(jìn)行對(duì)比,實(shí)驗(yàn)結(jié)果如表2所示。文獻(xiàn)[16]通過(guò)減少全連接層參數(shù),識(shí)別準(zhǔn)確率為99.29%;文獻(xiàn)[17]通過(guò)融合卷積神經(jīng)網(wǎng)絡(luò)使準(zhǔn)確率達(dá)到99.10%;文獻(xiàn)[18]通過(guò)PCA和K-臨近算法使識(shí)別準(zhǔn)確率達(dá)到99.40%;文獻(xiàn)[19]在隱藏層設(shè)置SVM輔助分類器提高學(xué)習(xí)效率,使識(shí)別準(zhǔn)確率達(dá)到99.61%;文獻(xiàn)[20]通過(guò)改進(jìn)的LeNet-5模型準(zhǔn)確率達(dá)到99.36%。如表2所示,本文方法識(shí)別準(zhǔn)確率高于其它文獻(xiàn)方法,降低了手寫(xiě)數(shù)字識(shí)別錯(cuò)誤率。

        3.2.2 CIFAR-10數(shù)據(jù)集實(shí)驗(yàn)結(jié)果分析

        網(wǎng)絡(luò)模型泛化能力越強(qiáng),表明模型普適性越強(qiáng),對(duì)未知數(shù)據(jù)集的處理能力就越強(qiáng);否則,模型泛化能力越差。為了進(jìn)一步驗(yàn)證模型有效性,模型繼續(xù)在CIFAR-10數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)。CIFAR-10數(shù)據(jù)集由50 000個(gè)訓(xùn)練圖像和10 000個(gè)測(cè)試圖像組成,共10個(gè)類,每個(gè)類有6 000個(gè)彩色圖像,每張彩色圖像大小為32×32。

        用本文提出的模型在數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),與傳統(tǒng)CNN模型進(jìn)行對(duì)比,實(shí)驗(yàn)結(jié)果如表3所示。

        表3列出了本文改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)模型在數(shù)據(jù)集上的測(cè)試結(jié)果,通過(guò)圖4改進(jìn)模型與傳統(tǒng)CNN模型的損失值對(duì)比,可以直觀地看出本文模型在圖像分類識(shí)別上的優(yōu)勢(shì),從側(cè)面展示了改進(jìn)模型在不同圖像識(shí)別環(huán)境中具有一定適應(yīng)能力。

        4 結(jié)語(yǔ)

        本文根據(jù)VGGNet和Inception模塊,提出了一種卷積神經(jīng)網(wǎng)絡(luò)模型,通過(guò)加大網(wǎng)絡(luò)寬度和深度增強(qiáng)特征提取能力,通過(guò)對(duì)每層輸入進(jìn)行Batch Normalization,用Relu激活函數(shù)、SGD自適應(yīng)學(xué)習(xí)率算法和Adam優(yōu)化算法加快學(xué)習(xí)速度,卷積核疊加和全局平均池化層減少了參數(shù)數(shù)量,最后輸入到Softmax層中進(jìn)行分類。本文在MNIST數(shù)據(jù)集和CIFAR-10數(shù)據(jù)集上與一些傳統(tǒng)CNN模型進(jìn)行了對(duì)比實(shí)驗(yàn),結(jié)果表明,本文網(wǎng)絡(luò)模型在兩個(gè)數(shù)據(jù)集上的準(zhǔn)確率相對(duì)更高,擁有更好的魯棒性和泛化能力。同時(shí),由于實(shí)驗(yàn)中所使用的數(shù)據(jù)集較小,訓(xùn)練樣本數(shù)量和種類限制對(duì)實(shí)驗(yàn)結(jié)果有一定影響。因此下一步工作中,將擴(kuò)大數(shù)據(jù)集以驗(yàn)證本模型在圖像分類中的有效性。

        參考文獻(xiàn):

        [1]LECUN Y, BOSER B E, DENKER J S, et al. Handwritten digit recognition with a back-propagation network[C]. Advances in neural information processing systems, 1990:396-404.

        [2]LECUN Y, BOTTOU L, BENGIO Y, et al. Gradient-based learning applied to document recognition[J]. Proceedings of the IEEE, 1998, 86(11): 2278-2324.

        [3]SIMONYAN K,ZISSERMAN A. Very deep convolutional networks for large-scale image recognition[C]. International Conference on Learning Representations, 2015.

        [4]HE K M, SUN J. Convolutional neural networks at constrained time cost[C]. Proceedings of Computer Vision and Pattern Recognition, 2015:5353-5360.

        [5]HU H, PENG R,TAI Y W, et al. Network trimming: a data-driven neuron pruning approach towards efficient deep architectures[DB/OL]. https://arxiv.org/abs/1607.03250.

        [6]JIN Y, KUWASHIMA S, KURITA T, Fast and accurate image super resolution by deep CNN with skip connection and network in network[C]. International Conference on Neural Information Processing, 2017:217-225.

        [7]GONG Y, LIU L, YANG M, et al. Compressing deep convolutional networks using vector quantization[DB/OL]. https://arxiv.org/abs/1607.03250.

        [8]SZEGEDY C,LIU W,JIA Y Q,et al. Going deeper with convolutions[C].Proceedings of IEEE Conference on Computer Vision and Pattern Recognition,2015:1-9.

        [9]LIN M, CHEN Q, YAN S. Network in network[DB/OL]. https://arxiv.org/abs/1607.03250.

        [10]YU N, JIAO P, ZHENG Y. Handwritten digits recognition base on improved LeNet5[C]. The 27th Chinese Control and Decision Conference, 2015:4871-4875.

        [11]SPRINGENBERG T,DOSOVITSKIY A,BROX T, et al. Striving for simplicity: the all convolutional net[C]. Proceedings of International Conference on Learning Represenation Workshop Track,2015.

        [12]SZEGEDY C,VANHOUCKE V,IOFFE S,et al. Rethinking the inception architecture for computer vision[C]. Proceeding of IEEE Conference on Computer Vision and Pattern Recognition,2016:2818-2826.

        [13]王功鵬,段萌,牛常勇. 基于卷積神經(jīng)網(wǎng)絡(luò)的隨機(jī)梯度下降算法[J]. 計(jì)算機(jī)工程與設(shè)計(jì),2018,39(2):441-445,462.

        [14]張爍,張榮. 基于卷積神經(jīng)網(wǎng)絡(luò)模型的手寫(xiě)數(shù)字辨識(shí)算法研究[J]. 計(jì)算機(jī)應(yīng)用與軟件,2019,36(8):172-176,261.

        [15]OSHEA K, NASH R. An introduction to convolutional neural networks[DB/OL]. https://arxiv.org/abs/1607.03250,2015.

        [16]YANG Z,MOCZULSKI M,DENIL M, et al. Deep fried convnets[C].? Proceedings of the IEEE International Conference on Computer Vision,2015:1476-1483.

        [17]陳玄,朱榮,王中元. 基于融合卷積神經(jīng)網(wǎng)絡(luò)模型的手寫(xiě)數(shù)字識(shí)別[J]. 計(jì)算機(jī)工程, 2017(11):187-192.

        [18]顧潘龍,史麗紅. 基于PCA及k-鄰近算法的復(fù)雜環(huán)境數(shù)字手寫(xiě)體識(shí)別[J]. 電子技術(shù),2018, 47(10):44-48.

        [19]LEE C Y, XIE S, GALLAGHER P, et al. Deeply-supervised nets[C].? Artificial Intelligence and Statistics, 2015:562-570.

        [20]王秀席,王茂寧,張建偉,等. 基于改進(jìn)的卷積神經(jīng)網(wǎng)絡(luò)LeNet-5的車型識(shí)別方法[J]. 計(jì)算機(jī)應(yīng)用研究, 2018, 35(7): 301-304.

        (責(zé)任編輯:孫 娟)

        收稿日期:2019-11-14

        作者簡(jiǎn)介:齊廣華(1993-),男,山東科技大學(xué)計(jì)算機(jī)科學(xué)與工程學(xué)院碩士研究生,研究方向?yàn)橹悄苄畔⑻幚砑夹g(shù);何明祥(1969-),男,山東科技大學(xué)計(jì)算機(jī)科學(xué)與工程學(xué)院副教授,研究方向?yàn)閿?shù)據(jù)庫(kù)系統(tǒng)、信息處理、人工智能、數(shù)字礦山。本文通訊作者:齊廣華。

        猜你喜歡
        圖像分類卷積神經(jīng)網(wǎng)絡(luò)
        基于數(shù)據(jù)挖掘的圖像分類算法
        基于卷積神經(jīng)網(wǎng)絡(luò)溫室智能大棚監(jiān)控系統(tǒng)的研究
        基于云計(jì)算的圖像分類算法
        基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識(shí)別算法
        基于錨點(diǎn)建圖的半監(jiān)督分類在遙感圖像中的應(yīng)用
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        一種基于引導(dǎo)濾波和MNF的高光譜遙感圖像分類方法
        基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
        軟件工程(2016年8期)2016-10-25 15:47:34
        基于最大似然法的南京市土地利用類型分類研究
        商(2016年22期)2016-07-08 14:32:30
        基于卷積神經(jīng)網(wǎng)絡(luò)的樹(shù)葉識(shí)別的算法的研究
        国产成人精品午夜二三区波多野| 最新国产成人综合在线观看| 亚洲精彩视频一区二区| 国产精品中文第一字幕| 国产成版人性视频免费版| 亚洲av一区二区三区色多多| 97午夜理论片影院在线播放| 久久久窝窝午夜精品| 美女露屁股无内裤视频| 亚洲最大在线视频一区二区| 色欲色欲天天天www亚洲伊| 日韩A∨精品久久久久| 偷拍av一区二区三区| 亚洲高清在线天堂精品| 日韩欧美人妻一区二区三区 | 成人无码区免费a片www| 国产日韩欧美视频成人| 亚洲婷婷久久播66性av| 人妻仑乱a级毛片免费看| 成 人 网 站 免 费 av| 亚洲欧洲日产国码无码av野外| 老岳肥屁熟女四五十路| www国产亚洲精品久久麻豆| a级毛片内射免费视频| 久久dvd| 国产精品一区二区三区四区亚洲| 亚洲av无码一区二区三区鸳鸯影院| 亚洲国产精品毛片av不卡在线 | 亚洲中文字幕第一第二页| 99久久国产精品网站| 国产精品igao视频| 国产免费破外女真实出血视频| 日韩在线精品在线观看| av免费在线播放观看| 亚洲va欧美va日韩va成人网| 国产98在线 | 免费| 亚洲国产精品午夜一区| 免费一区二区在线观看视频在线| 狠色人妻丝袜中文字幕| 免费a级毛片无码av| 亚洲国产成人AV人片久久网站|