亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于自組織映射的卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)研究

        2023-04-29 00:00:00趙義愛
        無線互聯(lián)科技 2023年10期

        摘要:輔助駕駛和自動駕駛技術(shù)將對人類的生活方式帶來巨大影響,而交通標(biāo)志識別技術(shù)則是其中至關(guān)重要的一環(huán)。為了進(jìn)一步完善交通標(biāo)志識別理論,文章提出了一種融合自組織映射的卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)。自組織映射能將圖像樣本量化至拓?fù)淇臻g中,從而對微小的變化提供降維和不變性處理。該方法與卷積神經(jīng)網(wǎng)絡(luò)相結(jié)合,能充分利用卷積神經(jīng)網(wǎng)絡(luò)對平移、旋轉(zhuǎn)、縮放和形變的部分不變性能,從而提高該架構(gòu)的效率和準(zhǔn)確度。經(jīng)過初步測試,本系統(tǒng)在200個(gè)測試樣本中表現(xiàn)出98.5%的準(zhǔn)確率,取得了顯著的成效。

        關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò);交通標(biāo)志識別;自組織映射;深度學(xué)習(xí)

        中圖分類號:TP183

        文獻(xiàn)標(biāo)志碼:A

        0 引言

        輔助駕駛和自動駕駛技術(shù)需要快速準(zhǔn)確地從圖像中檢測交通標(biāo)志。交通標(biāo)志識別主要依賴于圖像視覺信息,如標(biāo)志的形狀、大小和顏色等1。然而,傳統(tǒng)的識別算法在實(shí)時(shí)測試中面臨著照明強(qiáng)度、攝像頭角度、障礙物等問題。此外,實(shí)現(xiàn)多目標(biāo)檢測也是目前技術(shù)面臨的困難之一2。

        雖然深度學(xué)習(xí)作為一種機(jī)器學(xué)習(xí)方法很早就被提出,但近年來隨著計(jì)算機(jī)硬件和神經(jīng)網(wǎng)絡(luò)架構(gòu)的不斷發(fā)展,深度學(xué)習(xí)才開始進(jìn)入發(fā)展黃金時(shí)期3。卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)是一種重要的深度學(xué)習(xí)架構(gòu),可以實(shí)現(xiàn)對人臉或其他圖像的學(xué)習(xí)和識別4,在人臉識別5、自動駕駛汽車6和智能醫(yī)療7等領(lǐng)域得到廣泛應(yīng)用。當(dāng)采用CNN模型時(shí),并不需要太多的數(shù)據(jù)預(yù)處理任務(wù),它主要是通過卷積完成圖像特征的提取,同時(shí)不會丟失重要信息,在降維的同時(shí)也保留了與特征相關(guān)的信息8-9。

        因此,本研究系統(tǒng)性地研究了基于自組織映射(Self-organizing Map, SOM)的CNN網(wǎng)絡(luò)架構(gòu)來實(shí)現(xiàn)交通標(biāo)志識別。主要包括3個(gè)方面:對交通標(biāo)志數(shù)據(jù)集進(jìn)行分析和預(yù)處理、介紹CNN在圖像識別中的應(yīng)用以及提出SOM-CNN架構(gòu)并進(jìn)行數(shù)據(jù)集地訓(xùn)練和測試。實(shí)驗(yàn)結(jié)果表明,本研究工作具有一定的發(fā)展?jié)摿Α?/p>

        1 針對交通標(biāo)志識別的CNN架構(gòu)

        1.1 CNN的典型結(jié)構(gòu)

        典型的CNN由多個(gè)層組成,主要包含卷積層和池化層,如圖1所示10。其中,卷積層包含有多個(gè)面,每個(gè)面都具有固定的特征檢測器,與前一層的局部窗口做卷積。池化層在卷積層后面,用于進(jìn)行局部平均和下采樣操作,減少數(shù)據(jù)量,同時(shí)保留重要特征。在交通標(biāo)志識別任務(wù)中,CNN已被證明可以有效地識別交通標(biāo)志的形狀、顏色、符號等。該模型的成功應(yīng)用主要是因?yàn)槠渚矸e層可以學(xué)習(xí)低級特征,例如邊緣和角點(diǎn)等,然后在池化層中進(jìn)一步提取和減少特征,最終在全連接層中組合這些特征,形成對交通標(biāo)志的分類和識別。此外,通過使用反向傳播梯度下降法進(jìn)行訓(xùn)練,可以進(jìn)一步優(yōu)化網(wǎng)絡(luò)中的連接策略,從而減少網(wǎng)絡(luò)中的權(quán)重?cái)?shù)量,提高模型的精度和效率。

        1.2 SOM-CNN

        為了進(jìn)一步提高CNN架構(gòu)的效率和精度,本文引入了SOM來優(yōu)化整個(gè)系統(tǒng),提出了SOM-CNN架構(gòu),如圖2所示。該方法能將圖像樣本投影到量化的低維空間的SOM上,實(shí)現(xiàn)局部圖像采樣和部分光照不變性技術(shù)的使用。具體研究工作包括:

        (1)對于集中訓(xùn)練的圖像,在整個(gè)圖像上設(shè)置固定大小的窗口(例如5×5),并在每一步提取局部圖像樣本,其中每步中窗口移動4個(gè)像素點(diǎn);

        (2)SOM的3個(gè)維度可以被認(rèn)為是3個(gè)特征,在前一階段的向量上進(jìn)行訓(xùn)練時(shí),SOM將25維輸入向量量化為125個(gè)拓?fù)渲担?/p>

        (3)在訓(xùn)練集和測試集中的所有圖像上都會出現(xiàn)與(1)中相同的窗口。局部圖像樣本在每個(gè)步驟都通過SOM,從而在SOM創(chuàng)建的輸出空間中創(chuàng)建新

        的訓(xùn)練和測試集。此時(shí),每個(gè)輸入圖像由3個(gè)映射表示,每個(gè)映射對應(yīng)于SOM中的維度。這些映射的大小等于輸入圖像的大小除以步長;

        (4)采用新創(chuàng)建的訓(xùn)練集訓(xùn)練CNN網(wǎng)絡(luò)。

        2 實(shí)驗(yàn)設(shè)計(jì)和結(jié)果

        2.1 實(shí)驗(yàn)設(shè)計(jì)

        本實(shí)驗(yàn)采用了比利時(shí)交通標(biāo)志數(shù)據(jù)集(Belgium Traffic Signs Dataset),該數(shù)據(jù)集包括警示標(biāo)志、優(yōu)先通行標(biāo)志、禁止通行標(biāo)志、強(qiáng)制通行標(biāo)志、停車路牌、指定通行標(biāo)志等6大類,訓(xùn)練和測試數(shù)據(jù)文件夾包含62個(gè)子文件夾,所有圖像的格式均為ppm。因此,本實(shí)驗(yàn)的任務(wù)是將給定圖像分類為表示交通標(biāo)志面板的62個(gè)類別之一。

        實(shí)驗(yàn)環(huán)境搭建基于Python的Tensorflow。Python是一種常用的編程語言,在機(jī)器學(xué)習(xí)中廣泛使用。本實(shí)驗(yàn)使用的Python模塊包含一個(gè)名為scikit-learn tool的模塊,該模塊集成了大量用于監(jiān)督和非監(jiān)督問題的機(jī)器學(xué)習(xí)算法。Tensorflow則是一個(gè)多用途開源庫,可以在Python,C++,Java,Scala,R等多種編程語言中使用,并可以在Unix,Windows,iOS和Android等平臺上運(yùn)行。Keras是TensorFlow的官方高級API,用于提供開發(fā)接口,其模型制作簡單,支持卷積神經(jīng)網(wǎng)絡(luò)和遞歸神經(jīng)網(wǎng)絡(luò)以及兩者的組合,支持任意連接方案(包括多輸入和多輸出訓(xùn)練)。

        2.2 實(shí)驗(yàn)結(jié)果

        經(jīng)過多組實(shí)驗(yàn),本文利用SOM-CNN模型對交通標(biāo)志進(jìn)行分類識別。每次實(shí)驗(yàn)分別具有200張訓(xùn)練圖像,200張測試圖像,并且訓(xùn)練和測試集之間沒有重疊。為了比較訓(xùn)練和執(zhí)行時(shí)間,本實(shí)驗(yàn)使用了NVIDIA GeForce RTX 2060和3080進(jìn)行對比實(shí)驗(yàn),如表1所示。

        實(shí)驗(yàn)表明,該模型對交通標(biāo)志識別效果良好。在多次實(shí)驗(yàn)中,平均每200張測試圖像種有3張被錯(cuò)誤分類,其正確率約為98.5%,表現(xiàn)出很好的分類效果。

        3 結(jié)語

        交通標(biāo)志檢測通常基于機(jī)器學(xué)習(xí)方法,而深度神經(jīng)網(wǎng)絡(luò)的出現(xiàn)進(jìn)一步提升了其分類精度。深度神經(jīng)網(wǎng)絡(luò)基于許多簡單互連的神經(jīng)元,可以從大量數(shù)據(jù)中提取有意義的特征以解決復(fù)雜的分類問題。為了進(jìn)一步提高交通標(biāo)志識別的準(zhǔn)確率,文章結(jié)合現(xiàn)有理論開發(fā)了SOM-CNN架構(gòu),并對交通標(biāo)志數(shù)據(jù)集進(jìn)行了分類,取得了良好的效果。盡管其準(zhǔn)確率與主流方法相比尚有差距,但其高效性使其具有一定的發(fā)展?jié)摿?。未來,研究人員可以通過改進(jìn)結(jié)構(gòu)來進(jìn)一步提高SOM-CNN模型的效率和精度,并擴(kuò)展模型以檢測其他對象,如行人、動物和其他復(fù)雜障礙物,以期在實(shí)際應(yīng)用中取得更好的效果。

        參考文獻(xiàn)

        [1]SAADNA Y,BEHLOUL A.An overview of traffic sign detection and classification methods[J].International Journal of Multimedia Information Retrieval,2017(6):193-210.

        [2]HE Z,NAN F,LI X,et al.Traffic sign recognition by combining global and local features based on semi‐supervised classification[J].IET Intelligent Transport Systems,2020(5):323-330.

        [3]LECUN Y,BENGIO Y,HINTON G.Deep learning[J].Nature,2015(521):436-444.

        [4]ALZUBAIDI L,ZHANG J,HUMAIDI A J,et al.Review of deep learning: concepts, CNN architectures, challenges, applications, future directions[J].Journal of Big Data,2021(8):71-74.

        [5]KASAR M M,BHATTACHARYYA D,KIM T H.Face recognition using neural network: a review[J].International Journal of Security and Its Applications,2016(3):81-100.

        [6]ALAM A,PRAVEEN S.A review of automatic driving system by recognizing road signs using digital image processing[J].Journal of Informatics Electrical and Electronics Engineering (JIEEE),2021(2):1-9.

        [7]SINGH S P,WANG L,GUPTA S,et al.3D deep learning on medical images: a review[J].Sensors,2020(18):5097.

        [8]LI Z,LIU F,YANG W,et al.A survey of convolutional neural networks: analysis, applications, and prospects[J].IEEE Transactions on Neural Networks and Learning Systems,2021(4):1-21.

        [9]HINTON G E.To recognize shapes, first learn to generate images[J].Progress in Brain Research,2007(165):535-547.

        [10]HAJI S H,ABDULAZEEZ A M.Comparison of optimization techniques based on gradient descent algorithm: a review[J].PalArch’s Journal of Archaeology of Egypt/Egyptology,2021(4):2715-2743.

        (編輯 王雪芬)

        Research on convolutional neural network architecture based on self-organizing map

        Zhao Yi’ai

        (Zhengzhou University of Industrial Technology, Zhengzhou 451100, China)

        Abstract: Assisted driving and automatic driving technologies are poised to greatly impact human lifestyle, with traffic sign recognition technology representing a pivotal aspect thereof. To refine the theoretical underpinnings of traffic sign recognition, a convolutional neural network framework combined with self-organizing map algorithm is proposed. And, self-organizing map algorithm can quantize image samples into topological space, thus providing dimensionality reduction and invariance processing for small changes in image samples. This method, combined with the partial invariant performance of convolution neural network for translation, rotation, scaling and deformation, improves the efficiency and accuracy of this architecture. The experimental results show that the accuracy of proposed system is 98.5% in 200 test samples, representing a highly promising outcome.

        Key words: convolution neural network; traffic sign recognition; self-organizing map; deep learning

        人与人性恔配视频免费| 国语憿情少妇无码av| 国产大全一区二区三区| 中文字幕人妻少妇伦伦| 亚洲图片日本视频免费| 精品性影院一区二区三区内射| 亚洲中文字幕日产喷水| 亚洲一区二区三区在线视频| 国产三级在线观看完整版| 成年午夜无码av片在线观看| 妺妺窝人体色www聚色窝| 免费国产不卡在线观看| 国产乡下妇女做爰| 毛片在线播放a| 亚州五十路伊人网| 91盗摄偷拍一区二区三区| 青青草国产精品一区二区| 国产剧情国产精品一区| 久久av一区二区三区下| 东北熟妇露脸25分钟| 亚洲人成色7777在线观看| 亚洲无毛片| 日本在线播放不卡免费一区二区| 国产91清纯白嫩初高中在线观看| 污污内射在线观看一区二区少妇| 无夜精品久久久久久| 午夜视频一区二区在线观看| 国产精品天干天干综合网| 一本大道东京热无码| 少妇高潮惨叫久久久久电影| 好看的日韩精品视频在线 | 99热精品成人免费观看| 青青草最新在线视频观看| 无码人妻久久久一区二区三区| 国产免费丝袜调教视频| 欧美激情精品久久999| 国产精品一区二区三区在线观看| 综合色区亚洲熟妇另类| 四虎在线播放免费永久视频| 日韩一级精品亚洲一区二区精品| 国产av一区二区三区无码野战|