亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        利用嵌入式機(jī)器學(xué)習(xí)TinyML技術(shù)的口罩檢測裝置

        2024-09-14 00:00:00鄭漢芃陳飛龍董俊佳曹云龍
        物聯(lián)網(wǎng)技術(shù) 2024年3期
        關(guān)鍵詞:低功耗串口嵌入式

        摘 要:針對目前市面上口罩檢測裝置價格昂貴且技術(shù)復(fù)雜的現(xiàn)狀,設(shè)計了一款基于嵌入式機(jī)器學(xué)習(xí)TinyML技術(shù)的口罩檢測裝置。該裝置由M5Stack UnitV2的AI攝像頭結(jié)合M5Stack Core2開發(fā)套件構(gòu)成,通過M5Stack UnitV2的攝像頭設(shè)備檢測是否規(guī)范佩戴口罩,通過串口通信的方式在M5Stack Core2上顯示口罩分類圖像并發(fā)出聲音提醒人們,M5Stack Core2采用M5Stack的UiFlow圖像化編程平臺編寫口罩檢測的Blockly程序。在多種場合多次對不同人臉和不同口罩佩戴情況進(jìn)行測試,結(jié)果表明:該裝置功耗低、運(yùn)行穩(wěn)定、可靠,在保證準(zhǔn)確率的情況下大大降低了成本,具有較高的應(yīng)用價值。本文對口罩檢測裝置的研究有助于政府在流行病傳播期及時對人們進(jìn)行管控,降低感染的風(fēng)險。

        關(guān)鍵詞:TinyML技術(shù);M5Stack UnitV2;M5Stack Core2;UiFlow圖像化編程;顯示圖像;聲音提醒

        中圖分類號:TP714 文獻(xiàn)標(biāo)識碼:A 文章編號:2095-1302(2024)03-00-04

        0 引 言

        新冠肺炎疫情等流行病的爆發(fā)改變了人們的生活方式,嚴(yán)重危害了人們的生命安全。佩戴口罩被證實(shí)為預(yù)防此類傳染病最有效且最直接的方法[1]??谡秩四槞z測屬于比較新的研究領(lǐng)域,受到了社會的廣泛關(guān)注,但市面上大多數(shù)口罩檢測裝置都存在著一些缺點(diǎn),例如技術(shù)復(fù)雜、功能冗余、價格昂貴、功耗大、體積大、安全性低[2-3]。因此需要設(shè)計一款體積小巧、低成本、低功耗、安全性高且技術(shù)簡單的口罩檢測裝置。

        目前國內(nèi)對于口罩識別系統(tǒng)的研究也取得了較大的突破。齊曼等[4]以STM32F103 單片機(jī)作為核心處理裝置,通過OpenMV與STM32F103進(jìn)行串口通信、建立聯(lián)系,在TFT顯示屏顯示口罩佩戴情況,若未佩戴口罩則通過蜂鳴器與指示燈進(jìn)行報警。張欣怡等[5]設(shè)計了一種改進(jìn)的YOLOv5s算法,對特征融合的neck層進(jìn)行了改進(jìn),更換了卷積的方案,在確保推理速度的前提下,提高了準(zhǔn)確率,降低了模型權(quán)重文件內(nèi)存以及對硬件環(huán)境的依賴。趙元龍等[6]提出了基于YOLOv7與DeepSORT的一種佩戴口罩的行人跟蹤算法,能夠通過跟蹤判斷行人是否佩戴口罩。上述方法雖然速度快、精度高,但是代碼框架繁瑣、模型訓(xùn)練框架較為復(fù)雜、功能冗余并且對嵌入式設(shè)備的要求較高。因此本文設(shè)計了一款利用嵌入式機(jī)器學(xué)習(xí)TinyML技術(shù)的口罩檢測裝置。

        邊緣計算和物聯(lián)網(wǎng)為在網(wǎng)絡(luò)資源受限的嵌入式設(shè)備上使用機(jī)械學(xué)習(xí)技術(shù)提供了新的機(jī)會[7]。在機(jī)器學(xué)習(xí)的未來,隨著物聯(lián)網(wǎng)(IoT)的不斷發(fā)展,TinyML將是一項(xiàng)重要的技術(shù)[8]。

        TinyML技術(shù)旨在將過剩的傳統(tǒng)高端系統(tǒng)轉(zhuǎn)移到低端客戶端,設(shè)計能夠適用于M5Stack UnitV2等低功耗和嵌入式設(shè)備的模型,它是能夠在資源受限的微控制器上實(shí)現(xiàn)低功耗與低資源占用的機(jī)器學(xué)習(xí)算法[9]。本設(shè)計所用的設(shè)備都是低功耗的邊緣設(shè)備,小巧方便。M5Stack的AI模型訓(xùn)練服務(wù)V-Training可以很方便地搭建自定義識別模型,使用UIFlow 編寫人臉檢測的Blockly程序,程序簡單清晰,不僅可以顯示口罩分類圖像,還可以發(fā)出語音提醒,滿足口罩檢測的需求,具有較高的實(shí)用意義與市場價值。

        1 裝置總體方案

        該裝置由M5Stack Core2核心控制器以及M5Stack UnitV2的AI攝像頭設(shè)備兩部分構(gòu)成。核心控制器內(nèi)置鋰電池,配備電源管理芯片,可以為核心控制器的主控芯片與攝像頭設(shè)備供電;核心控制器需對攝像頭設(shè)備進(jìn)行初始化,初始化完成后攝像頭設(shè)備開始工作,攝像頭設(shè)備檢測到人臉信息會不斷輸出識別樣本數(shù)據(jù),通過串口將數(shù)據(jù)發(fā)送給核心控制器;核心控制器接收到數(shù)據(jù)信息以后,對數(shù)據(jù)進(jìn)行處理,在屏幕上顯示口罩佩戴類別的圖像,并發(fā)出聲音。裝置總體方案如圖1所示。

        2 裝置硬件方案

        該裝置的硬件部分包括兩部分:M5Stack Core2核心控制器模塊、M5Stack UnitV2的AI攝像頭模塊。

        2.1 核心控制器模塊

        M5Stack Core2的核心主控配備ESP32-D0WDQ6-V3,具有2個可以單獨(dú)控制的Xtensa? 32-bit LX6處理器,主頻高達(dá)240 MHz,支持WiFi功能,板載16 MB FLASH與

        8 MB的PSRAM,具有功耗低、工作速度快、便于開發(fā)、配置強(qiáng)勁等特點(diǎn)。M5Stack Core2還包括:正面搭載一塊2.0寸一體化電容式觸摸屏,可以很清晰地顯示口罩識別種類,便于人機(jī)交互;電源部分搭載AXP192電源管理芯片,可有效控制機(jī)身功耗,實(shí)現(xiàn)低功耗、長續(xù)航;機(jī)身還配備了揚(yáng)聲器,為了保證獲得更高質(zhì)量的聲音效果,采用I2S數(shù)字音頻接口的功放芯片,能有效防止信號失真,可以控制揚(yáng)聲器播放本地或云端的音頻文件,并調(diào)整音調(diào)、節(jié)拍和聲道,檢測到人臉以后根據(jù)口罩佩戴種類可以發(fā)出不同的提示音;串口通信可與AI攝像頭模塊建立連接,互相傳發(fā)數(shù)據(jù),根據(jù)接收的數(shù)據(jù)傳達(dá)下一步的指令。M5Stack Core2的部分示意圖如圖2所示。

        2.2 AI攝像頭模塊

        AI圖像識別技術(shù)配備上包括智能化處理的軟件和設(shè)施,可以在沒有人為干擾的情況下,自動地進(jìn)行數(shù)據(jù)分析處理、深度學(xué)習(xí)和串聯(lián)系統(tǒng)協(xié)調(diào)工作[10]。UnitV2是一款高效率的AI識別模塊,采用Sigmstar SSD202D(集成雙核處理器)控制核心,集成128 MB-DDR3內(nèi)存、512 MB NAND FLASH以及1080P攝像頭,內(nèi)嵌Linux操作系統(tǒng),集成豐富的軟硬件資源與開發(fā)工具,并且體積只有拇指大小。此外UnitV2內(nèi)部還集成了由M5Stack開發(fā)的基礎(chǔ)AI識別服務(wù),內(nèi)置多種識別功能,可快速幫助我們構(gòu)建AI識別應(yīng)用[11]。該設(shè)備具有體積小、成本低、高性能、資源豐富、功能強(qiáng)大的特點(diǎn)。利用該裝置的識別功能,可以快速幫我們檢測到人臉,當(dāng)檢測到目標(biāo)時,會通過底部串口不斷輸出識別樣本的數(shù)據(jù),與核心處理器模塊建立串口通信,可以快速傳輸識別數(shù)據(jù)。M5Stack UnitV2的原理框圖如圖3所示。

        3 裝置軟件方案

        系統(tǒng)主要依靠軟件實(shí)現(xiàn)對人臉佩戴口罩進(jìn)行識別、顯示口罩佩戴類別、發(fā)出聲音提醒。

        3.1 口罩?jǐn)?shù)據(jù)集的獲取

        本文使用的口罩?jǐn)?shù)據(jù)集主要來自于互聯(lián)網(wǎng)平臺開源的數(shù)據(jù)集。為了確??煽啃?,另外拍攝了一部分口罩圖片。數(shù)據(jù)集包含了不同場景下人們佩戴口罩的情況,按照1∶1的比例被劃分為戴口罩(with_mask)和不帶口罩(without_mask)兩個標(biāo)簽類別,用于在模型訓(xùn)練之前將分辨率低、口罩顏色過于鮮艷以及背景過于繁雜的圖片去除。數(shù)據(jù)集圖片示例如圖4所示。

        3.2 模型訓(xùn)練

        本文使用M5Stack的V-Training在線AI模型訓(xùn)練服務(wù)平臺訓(xùn)練模型,通過此平臺可以輕松構(gòu)建自定義識別模型。

        首先將收集好的口罩?jǐn)?shù)據(jù)集導(dǎo)入項(xiàng)目工程中,通過文本形式批量導(dǎo)入標(biāo)簽,標(biāo)簽有with_mask和without_mask兩種,手動完成對圖片的框選并導(dǎo)入標(biāo)簽,上傳標(biāo)記好的素材并選擇高效率訓(xùn)練模式進(jìn)行模型訓(xùn)練,迭代次數(shù)為100輪。訓(xùn)練完成后可以獲取到模型文件以及損失曲線,損失曲線包含dfl-loss和qfl-loss兩條曲線,QFL(Quanlity Focal Loss)和DFL(Distribution Focal Loss)為兩個損失函數(shù),其中QFL的加入強(qiáng)迫classification score(分類分?jǐn)?shù))和localization quality(定位質(zhì)量評估因子)兩者有了更高的相關(guān)性,從而避免高質(zhì)量錯誤類別檢測的出現(xiàn);DFL的加入能夠使得邊緣分布預(yù)測,在清晰的邊界區(qū)域尖銳,而在較模糊的位置處預(yù)測出較平緩的分布。QFL的計算公式如式(1)所示,DFL的計算公式如式(2)所示,損失曲線如圖5所示。

        (1)

        (2)

        式中:y為0~1的質(zhì)量標(biāo)簽;σ為類別輸出概率;S(i)與S(i+1)對應(yīng)y附近兩個預(yù)測值y(i)、y(i+1)的概率。

        3.3 模型部署

        M5Stack UnitV2內(nèi)置了一張有線網(wǎng)卡,通過TypeC接口連接PC端,就可與UnitV2建立起網(wǎng)絡(luò)連接;使用Web界面上傳訓(xùn)練好的模型壓縮文件,在識別功能的預(yù)覽網(wǎng)頁就可以使用模型,查看識別效果;在識別的過程中,UnitV2會不斷地輸出樣本識別數(shù)據(jù),數(shù)據(jù)以JSON格式輸出。模型運(yùn)行效果如圖6、圖7所示,串口數(shù)據(jù)位于運(yùn)行效果圖右下角Result處。

        3.4 M5Stack Core2程序框架

        首先要對AI攝像頭模塊進(jìn)行初始化操作,本裝置須完成口罩識別任務(wù),因此初始化時選擇Object Recognition;其次要完成對串口的配置,由于M5Stack UnitV2串口的波特率為115 200 b/s,要保證兩者正常通信,M5Stack Core2需要設(shè)置相同的波特率[12],讀取數(shù)據(jù)時需要判斷是否有數(shù)據(jù)輸入,沒有數(shù)據(jù)輸入則顯示數(shù)據(jù)接收異常的信息,若接收正常則讀取口罩佩戴的類別信息,根據(jù)口罩佩戴的情況顯示對應(yīng)的圖片,并發(fā)出對應(yīng)的提示語音。具體流程見圖8所示。

        3.5 核心程序

        UiFlow編寫的Blockly程序如圖9所示,Python程序如圖10所示。以下程序?yàn)镻ython代碼的核心程序:

        while True:

        if uart1.any():

        object2 = (json.loads((uart1.read())))['obj']

        #此處將str類型轉(zhuǎn)化為了字典類型

        for i in object2:

        label0.set_text(str(i['type']))

        type2 = i['type']

        if str(type2) == 'with_mask':

        #需要將type2進(jìn)行轉(zhuǎn)化,轉(zhuǎn)化為str類型

        image1.set_hidden(True) #顯示佩戴口罩圖片

        image0.set_hidden(False)

        speaker.playWAV(\"res/yes.wav\")

        #發(fā)出口罩佩戴規(guī)范,可以進(jìn)入的語音

        else:

        image1.set_hidden(False)

        image0.set_hidden(True)#顯示未佩戴圖片

        speaker.playWAV(\"res/no.wav\")

        #發(fā)出語音提醒佩戴口罩

        else:

        label0.set_text('Accept data exception')

        wait_ms(2)

        4 裝置效果測試

        模型部署完成后,用電纜線將核心控制器設(shè)備與AI攝像頭設(shè)備的引腳進(jìn)行連接,開始裝置的測試,在佩戴口罩與未佩戴口罩的數(shù)據(jù)中,隨機(jī)抽取5組數(shù)據(jù)進(jìn)行測試,測試結(jié)果見表1所列。

        10名測試人員中僅有1人識別錯誤,正確率為90%。為了防止偶然性,驗(yàn)證系統(tǒng)的穩(wěn)定性以及準(zhǔn)確率,進(jìn)行了多次測試驗(yàn)證,總體成功率約為90%;同時證明測試速度快,穩(wěn)定性與準(zhǔn)確性較高,低功耗的性能使該口罩檢測裝置可以長時間工作,具有強(qiáng)續(xù)航的能力。

        5 結(jié) 語

        如今口罩檢測技術(shù)日益成熟,但是基于TinyML技術(shù)的較少,因此基于TinyML的口罩檢測裝置的開發(fā)是很有意義的。本文利用M5Stack Core2與M5Stack UnitV2兩款低功耗的邊緣設(shè)備設(shè)計了一款口罩檢測裝置,對裝置的總體方案設(shè)計以及軟硬件結(jié)構(gòu)做出了詳細(xì)的介紹,對該裝置進(jìn)行了測試,并得到了理想的效果;在能正確識別口罩種類的情況下,還添加了口罩類別的圖像顯示、語音提示以及觸摸屏人機(jī)交互等功能,使得該裝置更加智能化。利用嵌入式機(jī)器學(xué)習(xí)TinyML技術(shù)的口罩檢測裝置運(yùn)行穩(wěn)定、可靠,功耗小,在達(dá)到理想的精確率的情況下,大大降低了成本,對于流行病的管控有重要意義,具有很高的實(shí)用價值。

        注:本文通訊作者為陳飛龍。

        參考文獻(xiàn)

        [1]金映谷,張濤,楊亞寧,等.基于MobileNet V2的口罩佩戴識別研究[J].大連民族大學(xué)學(xué)報,2021,23(5):404-409.

        [2]陳秋.市場嘗鮮戴口罩人臉識別[N].經(jīng)濟(jì)觀察報,2020-07-27(019).

        [3]沈澤.應(yīng)用場景日漸繁榮 發(fā)展前景更為廣闊—2021年人臉識別市場發(fā)展現(xiàn)狀與趨勢解析[J].中國安防,2021,16(3):60-63.

        [4]齊曼,胡乃瑞,安天洋,等.基于STM32的口罩識別及無接觸測溫系統(tǒng)的實(shí)現(xiàn)[J].工業(yè)控制計算機(jī),2022,35(3):128-130.

        [5]張欣怡,張飛,郝斌,等.基于改進(jìn)YOLOv5的口罩佩戴檢測算法[J].計算機(jī)工程,2023,49(8):265-274.

        [6]趙元龍,單玉剛,袁杰.改進(jìn)YOLOv7與DeepSORT的佩戴口罩行人跟蹤[J].計算機(jī)工程與應(yīng)用,2023,59(6):221-230.

        [7] PARTHA P R. A review on TinyML: state-of-the-art and prospects [J]. Journal of King Saud University-Computer and Information Sciences,2022,34(4):1595-1623.

        [8] ABATE C J,禾沐.機(jī)器學(xué)習(xí)的未來—Daniel Situnayake訪談[J].單片機(jī)與嵌入式系統(tǒng)應(yīng)用,2021,21(6):1-3.

        [9] ABATE C J,君謙.什么是tinyML?[J].單片機(jī)與嵌入式系統(tǒng)應(yīng)用,2021,21(8):1-3.

        [10]關(guān)健榮.圖像識別技術(shù)在“AI+安防”服務(wù)實(shí)戰(zhàn)中的應(yīng)用[J].無線互聯(lián)科技,2022,19(10):81-83.

        [11]錢玉娟. AI“戰(zhàn)疫”[J].中國中小企業(yè),2020,27(5):30-32.

        [12]白文峰,張秋實(shí),李忠健.串行通信中波特率的設(shè)置問題[J].工業(yè)控制計算機(jī),2007,20(4):76-77.

        作者簡介:鄭漢(2002—),男,本科生,研究方向?yàn)榍度胧较到y(tǒng)開發(fā)。

        陳飛龍(1990—),男,博士,講師,研究方向?yàn)榍度胧较到y(tǒng)開發(fā)、3D語音增強(qiáng)、聲音事件定位與檢測等。

        猜你喜歡
        低功耗串口嵌入式
        一種高速低功耗比較器設(shè)計
        淺談AB PLC串口跟RFID傳感器的通訊應(yīng)用
        搭建基于Qt的嵌入式開發(fā)平臺
        嵌入式軟PLC在電鍍生產(chǎn)流程控制系統(tǒng)中的應(yīng)用
        USB接口的多串口數(shù)據(jù)并行接收方法探索
        基于藍(lán)牙串口適配器的GPS接收機(jī)與AutoCAD的實(shí)時無線通信
        地礦測繪(2015年3期)2015-12-22 06:27:26
        Altera加入嵌入式視覺聯(lián)盟
        基于并行控制的FPGA多串口拓展實(shí)現(xiàn)
        倍福 CX8091嵌入式控制器
        自動化博覽(2014年4期)2014-02-28 22:31:15
        ADI推出三款超低功耗多通道ADC
        国产一区亚洲欧美成人| 日韩一区二区三区久久精品| 日本精品一区二区三区在线观看 | 精品久久久久久无码人妻热| 性高朝久久久久久久| 无码国产精品第100页| 美腿丝袜av在线播放| 国产一区二区三区精品毛片| 中文字幕在线看精品乱码 | 日韩一区二区中文天堂| 97在线视频人妻无码| 欧洲熟妇色xxxx欧美老妇多毛| 亚洲免费人成在线视频观看| 国产福利片无码区在线观看| 日本一区二区日韩在线| 国产毛片av最新视频| 亚洲av美国av产亚洲av图片| 亚洲综合色自拍一区| 人妻精品一区二区三区视频| 国产av一区仑乱久久精品| 亚洲女av中文字幕一区二区| 少妇被又大又粗又爽毛片久久黑人| 18成人片黄网站www| 久久久国产精品樱花网站| 男女激情床上视频网站| 久久精品国产亚洲av网站| 国产玉足榨精视频在线观看| 久久精品国产视频在热| 2021国产成人精品国产| 青青青伊人色综合久久| 久久久亚洲av成人乱码| 体验区试看120秒啪啪免费| www国产亚洲精品久久网站| 91在线在线啪永久地址| 亚洲中文字幕诱惑第一页| 开心久久婷婷综合中文字幕| 韩日午夜在线资源一区二区 | 免费va国产高清大片在线| 日本久久久| 国产区高清在线一区二区三区| 免费亚洲老熟熟女熟女熟女|