亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于eIQ 的中藥材圖像識別系統(tǒng)的設(shè)計與實現(xiàn)

        2023-11-10 11:25:30韓德強(qiáng)李宗耀楊淇善高雪園
        電子技術(shù)應(yīng)用 2023年10期
        關(guān)鍵詞:模型

        韓德強(qiáng),李宗耀,楊淇善,高雪園

        (北京工業(yè)大學(xué) 信息學(xué)部,北京 100124)

        0 引言

        中醫(yī)作為中華民族原創(chuàng)的醫(yī)學(xué)科學(xué),在我國有著悠久的歷史,是我國醫(yī)藥寶庫中的重要組成部分。目前,中醫(yī)在心腦血管疾病、糖尿病等重大慢性病的防控及重大傳染性疾病的臨床研究都取得積極進(jìn)展,在此次新冠疫情的治療與防護(hù)中更是發(fā)揮了不可替代的作用[1]。而中藥則是中醫(yī)中最常見的治療手段。傳統(tǒng)的中藥材識別主要依靠經(jīng)驗豐富的醫(yī)生,通過眼看、手摸、鼻聞、口嘗、水試、火試等方法來識別出每種中藥材的真?zhèn)蝺?yōu)劣。

        目前,中藥材的智能識別主要依靠復(fù)雜的深度神經(jīng)網(wǎng)絡(luò)實現(xiàn)。其中,吳沖等利用人工智能和機(jī)器視覺技術(shù)設(shè)計出一種檢測貝母、山楂及半夏飲片質(zhì)量方法[2]。張志光通過向YOLO4 目標(biāo)檢測算法中加入Non-local 注意力機(jī)制和RFB(Receptive Field Block,增強(qiáng)感受野)模塊來提升算法在復(fù)雜背景和不同尺度下中藥飲片的識別性能[3]。徐飛等通過強(qiáng)化特征提取改進(jìn)的AlexNet 模型對5 類中草藥葉片進(jìn)行訓(xùn)練并通過增廣數(shù)據(jù)集,提高了中草藥圖像分類的準(zhǔn)確率[4]。李鑫利用Faster-RCNN 算法對黃芪、白術(shù)、白芷、白芨、西洋參五種藥材進(jìn)行訓(xùn)練并搭建了中藥飲片圖像識別模型[5]。

        由于借助神經(jīng)網(wǎng)絡(luò)實現(xiàn)中藥材識別需要大量的矩陣運(yùn)算、存儲空間和功耗,因此大多依賴圖形處理器(Graphic Processing Unit,GPU)或服務(wù)器實現(xiàn),不但成本較高,而且在實際使用中非常不便。然而微控制器(Microcontroller Unit,MCU)卻具有體積小、功耗低、成本低以及高實時性的優(yōu)勢。并且隨著輕量級神經(jīng)網(wǎng)絡(luò)模型和擁有高性能、高主頻且包含有算力擴(kuò)展的Cortex-M7 內(nèi)核的MCU 的出現(xiàn),使得在MCU 平臺上實現(xiàn)中藥材識別變?yōu)榱丝赡堋?/p>

        本文針對目前在MCU 平臺無法實現(xiàn)復(fù)雜深度神經(jīng)網(wǎng)絡(luò)的應(yīng)用和中藥材圖像數(shù)據(jù)集不足的問題,提出了在MCU 平臺實現(xiàn)基于MobileNetV3 模型的中藥材圖像識別系統(tǒng)。借助eIQ 機(jī)器學(xué)習(xí)軟件開發(fā)環(huán)境構(gòu)建Mobile-NetV3-Small 模型,通過采用Hard-swish 激活函數(shù)、Adam優(yōu)化器等,修改模型參數(shù)完成對中藥材數(shù)據(jù)集的訓(xùn)練與驗證,并對模型進(jìn)行量化和壓縮操作,將最終生成的模型文件部署至i.MX RT1060 開發(fā)板上,實現(xiàn)對中藥材的識別。

        1 中藥材圖像識別模型的構(gòu)建

        1.1 MobileNetV3 模型研究

        卷積神經(jīng)網(wǎng)絡(luò)發(fā)展迅速,已經(jīng)從最初的AlexNet、VGGNet,發(fā)展到GoogleNet、ResNet等,隨著性能的不斷提升,網(wǎng)絡(luò)的大小與深度也是不斷增加的。由于MCU計算資源有限,許多復(fù)雜的網(wǎng)絡(luò)模型無法直接應(yīng)用到MCU 平臺。輕量級網(wǎng)絡(luò)相對于重量級網(wǎng)絡(luò)的最大特點就是參數(shù)少、計算量小、推理時間短。而Google 設(shè)計提出的MobileNetV3 模型[6-8]更是其中的代表,通過結(jié)合深度可分離卷積(Depthwise Separable Convolutions,DSC)、線性瓶頸的逆殘差結(jié)構(gòu)和輕量級注意力模型,更進(jìn)一步地減少了模型的參數(shù)量和推理時間。Mobile-NetV3 模型基本網(wǎng)絡(luò)單元如圖1 所示。根據(jù)資源利用率的高低,MobileNetV3 可分為MobileNetV3-Small 和MobileNetV3-Large 兩種不同復(fù)雜度架構(gòu)的模型。

        1.2 網(wǎng)絡(luò)模型的優(yōu)化

        1.2.1 激活函數(shù)

        卷積神經(jīng)網(wǎng)絡(luò)的計算方式大多為線性運(yùn)算。為了增加神經(jīng)網(wǎng)絡(luò)模型的非線性,提高識別精度,減少Swish函數(shù)在MCU 平臺上消耗的計算資源,MobileNetV3 對原Swish 函數(shù)進(jìn)行了修改,使用ReLU6 函數(shù)替換其中的Sigmoid 函數(shù),并生成一個Swish 函數(shù)的近似函數(shù),稱為Swish 的硬件版本,即Hard-Swish,其函數(shù)圖像如圖2所示。

        圖2 Hard-Swish 函數(shù)圖像

        1.2.2 Adam 優(yōu)化器

        Adam 優(yōu)化器是深度學(xué)習(xí)中最流行的優(yōu)化器之一,通過訓(xùn)練數(shù)據(jù)迭代地更新神經(jīng)網(wǎng)絡(luò)權(quán)重。通過整合自適應(yīng)梯度(Adaptive Gradient,AdaGrad)和均方根傳播(Root Mean Square prop,RMSProp)兩個傳統(tǒng)優(yōu)化算法的優(yōu)點,利用梯度的一階矩估計(First Moment Estimation,梯度的均值)和二階矩估計(Second Moment Estimation,梯度的未中心化的方差)計算更新步長。不僅可以動態(tài)地進(jìn)行學(xué)習(xí)率的調(diào)節(jié),而且函數(shù)的改變不會受到梯度伸縮變化的干擾。

        1.2.3 平均池化

        MCU 的資源和計算能力十分有限,無法滿足復(fù)雜的神經(jīng)網(wǎng)絡(luò)模型的應(yīng)用。因此,必須對模型進(jìn)行特征提煉,以減少模型的參數(shù)量和計算時間。通過平均池化(Global Average Pooling,GAP)減小三維張量的空間維度,可以有效代替全連接層實現(xiàn)降維。不但能夠防止過擬合的產(chǎn)生,最重要的就是極大地減少了模型的參數(shù)量。如圖3 所示,通過pool 2D 將尺寸為1×4×4×432 的張量減小至1×1×1×432。

        圖3 Global Average Pooling2d

        2 數(shù)據(jù)采集與處理

        2.1 中藥材數(shù)據(jù)集的建立

        利用卷積神經(jīng)網(wǎng)絡(luò)實現(xiàn)中藥材的識別,需要大量的圖片才能保證測試數(shù)據(jù)具有足夠的泛化能力,同時還可以有效防止過擬合的產(chǎn)生。但目前對于中藥材識別缺少公開的、大規(guī)模的數(shù)據(jù)集,因此本次實驗所使用的數(shù)據(jù)集主要通過網(wǎng)絡(luò)下載和實際拍攝兩種方式獲取圖片,共收集30 個類別,11 844 張圖片,表1 是30 種中藥材的數(shù)據(jù)集樣本分布。對數(shù)據(jù)集中的所有圖片逐一處理,將背景模糊的圖片進(jìn)行替換和刪除,并將所有圖片大小統(tǒng)一為128×128。圖4 表示的是該數(shù)據(jù)集中的部分藥材圖片。

        2.2 實驗環(huán)境配置與參數(shù)設(shè)定

        NXP 公司的eIQ 機(jī)器學(xué)習(xí)軟件開發(fā)環(huán)境是用來簡化機(jī)器學(xué)習(xí)開發(fā)流程并將神經(jīng)網(wǎng)絡(luò)模型部署到MCU 上的軟件平臺。其主要包含了一套完整的工作流程工具、推理引擎(Inference Engines,IE)、神經(jīng)網(wǎng)絡(luò)(Neural Netwok,NN)編譯器以及硬件抽象層(Hardware Abstract Layer,HAL)等。

        i.MX RT1060 是NXP 公司設(shè)計的、基于高性能ARM Cortex-M7 內(nèi)核的、運(yùn)行頻率為600 MHz 的“跨界”MCU,其可以實現(xiàn)快速響應(yīng),并通過集成的DC-DC 轉(zhuǎn)換器實現(xiàn)較低的動態(tài)功耗。同時提供了面向圖形用戶界面(Graphical User Interface,GUI)和增強(qiáng)人機(jī)界面(Human Machine Interface,HMI)的視頻功能,主要包括:2D圖形加速引擎、并行攝像頭傳感器接口以及液晶顯示器(Liquid Crystal Display,LCD)控制器等。

        在i.MX RT1060 平臺上實現(xiàn)中藥材識別的流程如圖5 所示。在eIQ 機(jī)器學(xué)習(xí)軟件開發(fā)環(huán)境中,將導(dǎo)入的中藥材數(shù)據(jù)集以8:2 的比例劃分訓(xùn)練集和驗證集。使用MobileNetV3 網(wǎng)絡(luò)模型作為卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)結(jié)構(gòu),并在訓(xùn)練開始之前確定模型參數(shù),如:權(quán)重初始化、圖像輸入尺寸、學(xué)習(xí)率和Alpha 值等,如表2 所示。

        表2 模型訓(xùn)練參數(shù)

        圖5 i.MX RT1060 平臺上實現(xiàn)中藥材識別流程

        2.3 數(shù)據(jù)增強(qiáng)

        為了提高M(jìn)obileNetV3 網(wǎng)絡(luò)訓(xùn)練的泛化能力,提高中藥材圖片的數(shù)量和多樣性。在本次實驗的訓(xùn)練過程中,訓(xùn)練集選擇使用eIQ 機(jī)器學(xué)習(xí)軟件開發(fā)環(huán)境提供的9 種數(shù)據(jù)增強(qiáng)的方法進(jìn)行處理,主要包括:水平/垂直翻轉(zhuǎn)、旋轉(zhuǎn)、隨機(jī)模糊,隨機(jī)亮度、隨機(jī)對比度、色調(diào)飽和度調(diào)整、高斯噪聲、隨機(jī)Gamma。

        3 模型的轉(zhuǎn)換與部署

        TensorFlow Lite for Microcontrollers (TFLm)[9-10]是eIQ 機(jī)器學(xué)習(xí)軟件開發(fā)環(huán)境支持的推理引擎之一。相比于TensorFlow,TFLm 有著更高的性能和更好的內(nèi)存利用率,適合在資源有限的MCU 中使用。將訓(xùn)練好的MobileNetV3 模型量化為int 8 類型后導(dǎo)出,最終生成TFLm 推理引擎支持的.tflite 文件。

        4 實驗結(jié)果及分析

        本文將30 類中藥材數(shù)據(jù)集導(dǎo)入eIQ 機(jī)器學(xué)習(xí)軟件開發(fā)環(huán)境中,經(jīng)過27 輪的模型訓(xùn)練后,得到了Accuracy函數(shù)值最大、Loss 函數(shù)值最小的神經(jīng)網(wǎng)絡(luò)模型。將訓(xùn)練好的模型經(jīng)過量化操作后,部署在i.MXRT1060 平臺上。為方便實際應(yīng)用場景下,更好地顯示待識別的中藥材名稱,本文通過在i.MX RT1060 開發(fā)板上外接OV7725 攝像頭和4.3 英寸LCD 顯示屏,分別實現(xiàn)中藥材的實物拍攝以及中藥材名稱的顯示,并對中藥材進(jìn)行了實際拍攝識別測試。

        在模型訓(xùn)練階段,訓(xùn)練時間共228 s,訓(xùn)練集精度為79.8%,驗證集精度為86.79%。訓(xùn)練過程如圖6 所示,分別為MobileNetV3 網(wǎng)絡(luò)模型在訓(xùn)練過程中Accuracy 和Loss 函數(shù)值的變化趨勢。

        圖6 Accuracy 和Loss 函數(shù)值的函數(shù)變化

        由圖6 可知,經(jīng)過前15 輪Epoch 的訓(xùn)練,Accuracy 函數(shù)值升高到93.4%、Loss 函數(shù)值降低至0.198,效果均比較理想。在第16 輪Epoch 訓(xùn)練開始之前,修改Augmentation Settings 參數(shù)值,加入數(shù)據(jù)增強(qiáng),Accuracy 和Loss函數(shù)值均有明顯變化。又經(jīng)過11 輪Epoch 的訓(xùn)練,Accuracy 函數(shù)值從66.7%上升至79.8%;Loss 函數(shù)值從1.11下降至0.612 并趨于穩(wěn)定。

        圖7 是30 類中藥材的驗證集精度直方圖。由圖可知,只有當(dāng)歸、佛手、高麗參、葫蘆巴和蓮子五種藥材的的驗證集精度不足80%,其余25 種藥材的驗證精度均可以達(dá)到80%以上。并且,冬蟲夏草、枸杞、雞骨草和西紅花的驗證精度可以超過95%,另外還有10 種藥材的驗證精度超過90%。

        圖7 驗證集精度直方圖

        在實際測試部分,將中藥材放置在攝像頭下,識別結(jié)果通過LCD 屏幕顯示,如圖8 所示??梢钥闯觯M(jìn)行實際測試的藥材均能準(zhǔn)確識別。綜上可知,本文利用MobileNetV3-small 模型可以較好地實現(xiàn)在i.MX RT1060 上的中藥材圖像識別,具有較高的實際應(yīng)用價值。

        圖8 實物拍攝圖

        5 結(jié)論

        近年來,人工智能在嵌入式設(shè)備上取得了快速發(fā)展,為此本文使用輕量級模型基于MCU 平臺對中藥材識別問題進(jìn)行研究。利用eIQ 機(jī)器學(xué)習(xí)軟件開發(fā)環(huán)境搭建了一種基于MobileNetV3 模型的中藥材圖像識別系統(tǒng)。通過調(diào)整模型參數(shù)的方式,利用Hard-Swish 激活函數(shù)以及Adam 優(yōu)化器等對數(shù)據(jù)集進(jìn)行訓(xùn)練與驗證,并將訓(xùn)練好的模型文件部署至i.MX RT1060 開發(fā)平臺從而實現(xiàn)對中藥材的識別。實驗結(jié)果表明本實驗所使用的方法在30 類中藥材中的驗證精度可以達(dá)到86.79%,說明了該方案具有很好的可行性。但是對于像當(dāng)歸和葫蘆巴等特征不清晰的藥材,未來還需要對實驗做進(jìn)一步修改。

        猜你喜歡
        模型
        一半模型
        一種去中心化的域名服務(wù)本地化模型
        適用于BDS-3 PPP的隨機(jī)模型
        提煉模型 突破難點
        函數(shù)模型及應(yīng)用
        p150Glued在帕金森病模型中的表達(dá)及分布
        函數(shù)模型及應(yīng)用
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        3D打印中的模型分割與打包
        亚洲男人免费视频网站| 欧美视频九九一区二区| 四虎成人精品国产永久免费| 日本成人精品一区二区三区| 久久久99精品成人片| 一区二区三区在线 | 欧| 国产自产精品露脸刺激91在线| 青青草免费在线手机视频| 中国老熟女露脸老女人| 乱人妻中文字幕| 99热这里只有精品国产99热门精品| 中文字幕色视频在线播放| 国产在线91精品观看| 香港三级日本三级a视频| 成人欧美一区二区三区白人| 亚洲国产日韩综一区二区在性色| 嫩呦国产一区二区三区av| 久久久久亚洲av成人网人人网站| 五月天久久国产你懂的| 亚洲中文字幕高清视频| 亚洲人不卡另类日韩精品| 精品国产午夜理论片不卡| 亚洲AV综合A∨一区二区| 中文字幕色一区二区三区页不卡| 精品亚洲成a人在线观看 | 日韩精品一区二区免费| 一区二区三区av波多野结衣| 亚洲人成综合网站在线| 天堂av中文在线官网| 精品含羞草免费视频观看| 亚洲av日韩av综合| 国产极品视觉盛宴在线观看| 日本va中文字幕亚洲久伊人| 国产啪亚洲国产精品无码| 国产精品11p| 一区二区三区观看在线视频| 亚洲综合天堂av网站在线观看| 少妇白浆高潮无码免费区| 久久AⅤ无码精品色午麻豆| 国内精品亚洲成av人片| 亚洲av无码成人专区片在线观看 |