亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)單點(diǎn)多盒檢測器的麻醉復(fù)蘇目標(biāo)檢測方法

        2024-01-09 02:48:10羅榮昊程志友汪傳建劉思乾汪真天
        計算機(jī)應(yīng)用 2023年12期
        關(guān)鍵詞:精確度主干注意力

        羅榮昊,程志友,汪傳建,劉思乾,汪真天

        基于改進(jìn)單點(diǎn)多盒檢測器的麻醉復(fù)蘇目標(biāo)檢測方法

        羅榮昊,程志友,汪傳建*,劉思乾,汪真天

        (安徽大學(xué) 互聯(lián)網(wǎng)學(xué)院,合肥 230039)(?通信作者電子郵箱wcj_si@ahu.edu.cn)

        麻醉復(fù)蘇目標(biāo)檢測模型常被用于幫助醫(yī)護(hù)人員檢測麻醉病人的復(fù)蘇。病人復(fù)蘇時面部動作的目標(biāo)較小且幅度不明顯,而現(xiàn)有的單點(diǎn)多盒檢測器(SSD)難以準(zhǔn)確實(shí)時地檢測病人的面部微動作特征。針對原有模型檢測速度低、容易出現(xiàn)漏檢的問題,提出一種基于改進(jìn)SSD的麻醉復(fù)蘇目標(biāo)檢測方法。首先,將原始SSD的主干網(wǎng)絡(luò)VGG(Visual Geometry Group)16更換為輕量級的主干網(wǎng)絡(luò)MobileNetV2,并把標(biāo)準(zhǔn)卷積替換成深度可分離卷積;同時,通過對病人照片的特征提取采用先升維再降維的計算方式減少計算量,從而提高模型的檢測速度;其次,將SSD提取的不同尺度特征層中融入坐標(biāo)注意力(CA)機(jī)制,并通過對通道和位置信息加權(quán)的方式提升特征圖提取關(guān)鍵信息的能力,優(yōu)化網(wǎng)絡(luò)的定位分類表現(xiàn);最后,閉眼數(shù)據(jù)集CEW(Closed Eyes in the Wild)、自然標(biāo)記人臉數(shù)據(jù)集LFW(Labeled Faces in the Wild)和醫(yī)院麻醉病患面部數(shù)據(jù)集HAPF(Hospital Anesthesia Patient Facial)這3個數(shù)據(jù)集上進(jìn)行對比實(shí)驗。實(shí)驗結(jié)果表明,所提模型的平均精度均值(mAP)達(dá)到了95.23%,檢測照片的速度為每秒24幀,相較于原始SSD模型的mAP提升了1.39個百分點(diǎn),檢測速度提升了140%。因此,所提模型在麻醉復(fù)蘇檢測中具有實(shí)時準(zhǔn)確檢測的效果,能夠輔助醫(yī)護(hù)人員進(jìn)行蘇醒判定。

        麻醉復(fù)蘇;面部特征識別;單點(diǎn)多盒檢測器;MobileNetV2;注意力機(jī)制

        0 引言

        麻醉復(fù)蘇室(PostAnesthesia Care Unit, PACU)是為全麻手術(shù)患者從麻醉狀態(tài)到完全意識清醒提供相關(guān)護(hù)理監(jiān)測操作的場所。目前多數(shù)醫(yī)院的全麻患者術(shù)后多轉(zhuǎn)入PACU,在此進(jìn)行拔管、復(fù)蘇等護(hù)理操作的同時被嚴(yán)密監(jiān)測生命體征,需要投入大量的人力物力。由于麻醉藥物的作用,全麻手術(shù)后處于蘇醒監(jiān)測期的病人會感到不適,加上身體機(jī)能未能恢復(fù)完全,很容易造成循環(huán)和呼吸系統(tǒng)的并發(fā)癥問題,對術(shù)后恢復(fù)產(chǎn)生不良影響。麻醉或手術(shù)都會對患者產(chǎn)生生理功能上的障礙,特別是較高的手術(shù)侵入性會導(dǎo)致較高程度的應(yīng)激反應(yīng),這與術(shù)后麻醉并發(fā)癥相關(guān)[1-4]。手術(shù)后并發(fā)癥會使病人的復(fù)蘇質(zhì)量惡化,同時給醫(yī)院增加負(fù)擔(dān)[5-7]。郭清厚等[8]指出,對PACU的病人采取有效的管理辦法能夠提前發(fā)現(xiàn)手術(shù)和麻醉相關(guān)并發(fā)癥,促進(jìn)麻醉復(fù)蘇。

        現(xiàn)階段麻醉復(fù)蘇監(jiān)測主要依靠有經(jīng)驗的專業(yè)護(hù)士定期監(jiān)視病人的身體狀態(tài)。隨著醫(yī)學(xué)技術(shù)的發(fā)展和外科手術(shù)適應(yīng)癥范圍的擴(kuò)大,人們對手術(shù)治療的需求日益增長;但由于醫(yī)療資源緊張、人力監(jiān)控主觀性較強(qiáng)、專業(yè)性要求高等原因,傳統(tǒng)監(jiān)測方法容易產(chǎn)生疏忽誤判等情況,耗時且效率低,在當(dāng)前復(fù)雜繁多的復(fù)蘇室環(huán)境已無法滿足醫(yī)院的需求。

        麻醉病人蘇醒的前兆特征有睜眼、張口和吞咽等微動作,可以由攝像機(jī)采集病人的面部圖像,通過檢測病人的眨眼、嘴巴開合判斷病人是否屬于蘇醒狀態(tài)。Soukupová等[9]提出眼睛縱橫比(Eye Aspect Ratio, EAR)的概念,通過定位眼睛的12個關(guān)鍵點(diǎn)計算縱橫比,設(shè)定一個閾值判定眼睛的狀態(tài)。Nousias等[10]采用DeepLabv3+分割采集圖像中的雙眼虹膜和眼瞼,計算每只眼睛的眼瞼之間的距離和相應(yīng)的虹膜直徑,然后經(jīng)過自適應(yīng)閾值處理,識別眨眼并確定它的類型。De La Cruz等[11]提出一種基于長期遞歸卷積網(wǎng)絡(luò)的眨眼檢測方法Eye LRCN(Eye Long-term Recurrent Convolutional Network),采用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)對眼睛圖像提取特征,結(jié)合雙向遞歸神經(jīng)網(wǎng)絡(luò)執(zhí)行序列學(xué)習(xí)和眨眼檢測。Chen等[12]通過多任務(wù)級聯(lián)CNN(Multi-Task CNN,MTCNN)實(shí)現(xiàn)人臉關(guān)鍵點(diǎn)的定位,再用VGG(Visual Geometry Group)16進(jìn)行眼睛狀態(tài)的分類識別。 Wang等[13]通過深度CNN(Deep CNN, DCNN)提取眼睛的虹膜和瞳孔像素,再用結(jié)合了Unet和Squeezenet特點(diǎn)的像素級高效CNN進(jìn)行分類。Prinsen等[14]使用基于區(qū)域的更快CNN(Faster Region-based CNN,F(xiàn)aster R-CNN)算法對預(yù)先訓(xùn)練的殘差網(wǎng)絡(luò)(Residual Network,ResNet)進(jìn)行微調(diào),再用CNN定位評估兒童的眼睛圖像。以上方法盡管有不錯的效果,但大多數(shù)方法網(wǎng)絡(luò)模型較大、檢測速度較慢,不符合麻醉病人復(fù)蘇這一應(yīng)用場景。

        針對麻醉病人復(fù)蘇檢測的具體問題,方法的時效性和準(zhǔn)確度是關(guān)鍵。本文提出一種基于改進(jìn)單點(diǎn)多盒檢測器(Single Shot multibox Detector, SSD)[15]的麻醉復(fù)蘇目標(biāo)檢測方法。本文采用基礎(chǔ)模型SSD檢測麻醉病人面部微動作變化,即通過檢測病人的眼睛睜閉、嘴巴開合判定病人是否有自我蘇醒意識;由于實(shí)際檢測的圖像中可能存在特征圖像尺度較小、背景復(fù)雜等因素,本文改進(jìn)SSD,更換了輕量級的主干網(wǎng)絡(luò),融合了注意力模塊,在降低計算量、維持高效、準(zhǔn)確的前提下,提高檢測精度。

        1 SSD結(jié)構(gòu)

        SSD是經(jīng)典的多尺度單目標(biāo)檢測算法模型,用VGG[16]作為主干特征提取網(wǎng)絡(luò),SSD的結(jié)構(gòu)如圖1所示。SSD通過主干網(wǎng)絡(luò)抽取6張從大到小的特征圖,預(yù)先在每個尺度的特征圖上設(shè)置不同長寬比的錨框,根據(jù)不同尺度的物體大?。ㄐ∧繕?biāo)對應(yīng)淺層特征圖、大目標(biāo)對應(yīng)深度特征圖)進(jìn)行檢測,并使用自定義的非極大抑制(Non-Maximum Suppression,NMS)去除重復(fù)的預(yù)測框,保留最好的結(jié)果。SSD是最早采用淺層網(wǎng)絡(luò)探測小目標(biāo)、深度網(wǎng)絡(luò)探測大目標(biāo)的多尺度預(yù)測方法。淺層網(wǎng)絡(luò)雖然幾何信息豐富,定位也較準(zhǔn)確,但感受野小,表達(dá)語義信息的能力不強(qiáng);深度網(wǎng)絡(luò)的感受野更大,語義信息豐富,但分辨率較低,顯示幾何信息的能力更弱,所以SSD在實(shí)際檢測時會出現(xiàn)較嚴(yán)重的遺漏、錯誤現(xiàn)象。另外,SSD作為一種單階段的深度學(xué)習(xí)目標(biāo)檢測算法,在高精確度的情況下檢測速度也較高,但是模型參數(shù)量大,對硬件算力要求高,在麻醉復(fù)蘇檢測的應(yīng)用中不滿足實(shí)時性的要求。

        2 改進(jìn)SSD

        為了改善SSD存在復(fù)雜目標(biāo)檢測困難、定位不準(zhǔn)確的問題,進(jìn)一步提高SSD的檢測速度以滿足麻醉復(fù)蘇檢測的需求,首先將主干網(wǎng)絡(luò)VGG替換成輕量級網(wǎng)絡(luò)MobileNetV2[17],在不降低精確度的前提下,極大地減少參數(shù)量和運(yùn)算量,提升檢測速度;其次在原始的模型中融入了注意力機(jī)制模塊,將SSD提取的6個尺度不同的特征層輸入注意力機(jī)制模型,增強(qiáng)特征圖提取關(guān)鍵信息的能力,優(yōu)化網(wǎng)絡(luò)定位分類的表現(xiàn)。改進(jìn)后的SSD的結(jié)構(gòu)如圖2所示。

        2.1 主干網(wǎng)絡(luò)替換

        使用MobileNetV2替換SSD主干網(wǎng)絡(luò)VGG,通過對比目標(biāo)大小與檢測單元大小,調(diào)整主干網(wǎng)絡(luò)特征抽取層的大小,由原本的38×38改為19×19,通道數(shù)減少至96,在不降低精確度的情況下減少了計算量。MobileNetV2采用線性激活函數(shù)(Linear)避免特征丟失,同時堆疊基于深度可分離的卷積塊即將通道、空間相關(guān)性完全分離,用深度可分離卷積代替?zhèn)鹘y(tǒng)卷積,對輸入的特征圖先進(jìn)行升維,使用卷積得到更多的特征信息,再降維輸出。圖3為MobileNetV2的卷積結(jié)構(gòu)。

        圖2 改進(jìn)的SSD結(jié)構(gòu)

        圖3 MobileNetV2卷積結(jié)構(gòu)

        由于MobileNetv2結(jié)構(gòu)采用了大量的深度可分離卷積結(jié)構(gòu)提取特征,對模型的精確度影響較小且參數(shù)量較少,使計算量下降明顯,因此,更換模型的主干網(wǎng)絡(luò)不僅保證了精確度,也提升了計算速度,符合麻醉復(fù)蘇實(shí)時檢測的條件。

        2.2 深度可分離卷積

        深度可分離卷積主要將傳統(tǒng)卷積提取特征的運(yùn)算過程替換為逐通道卷積(DepthWise convolution,DW)和逐點(diǎn)卷積(PointWise convolution,PW),聯(lián)合這兩個部分進(jìn)行語義特征提取。結(jié)構(gòu)如圖4所示。

        圖4 深度可分離卷積

        傳統(tǒng)卷積的參數(shù)量為:

        深度可分離卷積的參數(shù)量為:

        其中:為卷積核的長和寬,為輸入的通道數(shù),為卷積核的具體個數(shù)。

        以RGB 3通道的一個圖像為例,經(jīng)過一個卷積層輸出4個特征圖,它們的大小與輸入圖像一樣;再計算傳統(tǒng)卷積的卷積層參數(shù)為108,替換為深度可分離卷積參數(shù)量為39,約為原來的1/3。減少深度可分離卷積的參數(shù)量,極大地降低了計算量,從而提高了模型特征檢測的速度。

        2.3 注意力機(jī)制引入

        人類視覺的本能特性就是看到物體的時候,不自覺地會將注意力放置在關(guān)鍵信息上,同時忽略其他信息。這種注意力的機(jī)制會提高提取特征的效率,而計算機(jī)視覺想要模擬人類視覺的這種能力就需要引入注意力機(jī)制。注意力機(jī)制的核心是讓網(wǎng)絡(luò)聚焦到更需要關(guān)注的地方。面對圖像處理任務(wù),使CNN自適應(yīng)地注意重要的物體是關(guān)鍵。

        根據(jù)加權(quán)的方式不同,注意力機(jī)制通??煞譃榭臻g域注意力、通道域注意力和混合域注意力等。擠壓-激勵網(wǎng)絡(luò)(Squeezeand-Excitation Network, SE-Net)[18]是一種通過對各通道分別進(jìn)行全局平均池化計算各通道重要性,并賦予不同權(quán)重的常用通道域注意力機(jī)制。高效通道注意力的DCNN(Efficient Channel Attention for deep convolutional neural Network, ECA-Net)[19]是SE-Net的改進(jìn)版,通過使用一維卷積替代原SE-Net模塊中的全連接層,減少計算量和運(yùn)算量,提高跨通道互動的覆蓋率。通道注意力對提升模型的效果顯著,但通常忽略了產(chǎn)生空間選擇性注意力圖像的位置信息。

        坐標(biāo)注意力(Coordinate Attention, CA)機(jī)制[20]是一種將位置信息嵌入通道注意力的移動網(wǎng)絡(luò)注意力機(jī)制。它使移動網(wǎng)絡(luò)在增加感受野的前提下,避免了一大筆計算開銷。CA模塊的結(jié)構(gòu)如圖5所示。

        圖5 CA模塊的結(jié)構(gòu)

        CA將通道注意力分解為沿寬度和高度兩個方向分別進(jìn)行全局池化,獲得在寬度和高度兩個方向的特征圖,優(yōu)點(diǎn)是可以沿著一個空間方向捕獲長程依賴,沿著另一個空間方向保留精確的位置信息。將生成的特征圖分別編碼,形成一對方向感知和位置敏感的特征圖,它們可以互補(bǔ)地應(yīng)用于輸入特征圖,增強(qiáng)感興趣的目標(biāo)表示,提高模型的定位準(zhǔn)確性。

        3 實(shí)驗與結(jié)果分析

        3.1 實(shí)驗環(huán)境與數(shù)據(jù)集

        本次實(shí)驗的硬件環(huán)境為:顯卡為NVIDIA GeForce RTX 3090, CUDA(Compute Unified Device Architecture)版本為 CUDA11.3, Python 3.8.13,深度學(xué)習(xí)框架為PyTorch 1.11.0。

        實(shí)驗的數(shù)據(jù)集選用CEW(Closed Eyes in the Wild)公開數(shù)據(jù)集[21]全部1 192張閉眼照片、LFW(Labeled Faces in the Wild)數(shù)據(jù)集[22]1 100張睜眼照片和安徽省立醫(yī)院拍攝采集的1 000張患者面部照片,共計3 292張照片。如圖6所示,用labelimg軟件對選取的數(shù)據(jù)集進(jìn)行VOC(Visual Object Classes)格式的四分類標(biāo)注,分別為:睜眼、閉眼、張嘴和閉嘴。再將數(shù)據(jù)集按照8∶1∶1分成訓(xùn)練集、測試集和驗證集。

        圖6 數(shù)據(jù)集圖像標(biāo)注

        3.2 遷移學(xué)習(xí)策略

        本文使用遷移學(xué)習(xí)方法[23]訓(xùn)練網(wǎng)絡(luò),主干網(wǎng)絡(luò)MobileNetV2的18層為特征提取層,先凍結(jié)主干網(wǎng)絡(luò),使用在公開數(shù)據(jù)集上預(yù)訓(xùn)練好的權(quán)重對后續(xù)網(wǎng)絡(luò)粗略訓(xùn)練,僅對模型微調(diào),提取適應(yīng)檢測特征;再解凍特征提取層,進(jìn)行完全訓(xùn)練,模型所有的參數(shù)都發(fā)生改變。通過上述方法,在縮短模型訓(xùn)練時間的同時,也能在數(shù)據(jù)集較少的情況下提高模型泛化能力。

        3.3 訓(xùn)練過程

        模型一共訓(xùn)練300個epoch,其中前50個epoch為主干網(wǎng)絡(luò)的凍結(jié)訓(xùn)練,后250個epoch為解凍之后全部一起訓(xùn)練,訓(xùn)練的結(jié)果如圖7所示。損失函數(shù)在第250個epoch后的訓(xùn)練集和驗證集中逐漸收斂并穩(wěn)定下來。

        圖7 網(wǎng)絡(luò)訓(xùn)練結(jié)果

        3.4 檢測結(jié)果

        使用本文模型檢測測試數(shù)據(jù)集,模型檢測睜眼、閉眼、張嘴和閉嘴的精確度分別是97.15%、97.35%、98.25%和95.45%。檢測結(jié)果表明改進(jìn)后的模型可以準(zhǔn)確識別人面部微動作的變化。

        模型實(shí)際用攝像頭預(yù)測的結(jié)果如圖8所示。由圖8可見,模型預(yù)測結(jié)果中定位框和置信度都較準(zhǔn)確。圖8(b)在眼睛微睜的狀態(tài)下仍然判定為睜眼的行為,考慮到麻醉病人復(fù)蘇這一特定應(yīng)用場景,病人的眼睛由完全閉合到微睜這一狀態(tài)的改變本身就是蘇醒的前兆行為,所以在數(shù)據(jù)集制作時,把微睜的狀態(tài)標(biāo)注為睜眼狀態(tài)。從檢測結(jié)果可知,模型能準(zhǔn)確地識別眼睛的狀態(tài)。

        圖8 實(shí)際預(yù)測結(jié)果

        4 模型評估

        4.1 評價指標(biāo)

        本文采用目標(biāo)檢測常見的評價指標(biāo)平均精確度均值(mean Average Precision, mAP)進(jìn)行對比。平均精確度(Average Precision ,AP)由精確度(Precision)/召回率(Recall)曲線與坐標(biāo)軸圍成的面積計算,反映模型在該類別下的精確度;mAP是所有類別的AP求均值,反映模型在所有類別下的精確度。具體計算公式如下:

        其中:(True Positive)表示預(yù)測正確的正樣本數(shù);(False Positive)表示預(yù)測錯誤的正樣本數(shù);(False Negative)表示將正樣本預(yù)測錯誤為負(fù)樣本的數(shù)量。

        模型除了需要滿足一定的精度要求外,也要滿足實(shí)時性的要求,具有工程應(yīng)用的能力,所以模型參數(shù)量和圖片每秒傳輸幀數(shù)(Frame Per Second, FPS)也是模型需要對比的指標(biāo)。

        4.2 對比實(shí)驗

        分別對SSD[15]、CA-SSD(Coordinate Attention -Single Shot multibox Detector)、MobileNetV2-SSD(MobileNetV2-Single Shot multibox Detector)和本文模型在自制的數(shù)據(jù)集上訓(xùn)練相同的epoch,針對人臉狀態(tài)的四分類識別效果進(jìn)行對比實(shí)驗,得出每一類的AP和mAP。其中:SSD表示主干網(wǎng)絡(luò)為VGG的原模型,CA-SSD表示在原模型的基礎(chǔ)上在6個回歸預(yù)測層上引入CA的模型,MobileNetV2-SSD是將主干特征提取網(wǎng)絡(luò)更換為MobileNetV2的模型。實(shí)驗結(jié)果如表1所示。

        表1不同模型的檢測精確度對比 單位:%

        Tab.1 Comparison of detection precision of different models unit:%

        相較于SSD,本文模型的mAP提高了1.39個百分點(diǎn),同時每一類的識別精確度都有提升。相較于CA-SSD,本文模型的mAP提高了0.2個百分點(diǎn),對嘴巴狀態(tài)的識別精確度有所提高,而對于眼睛狀態(tài)識別精確度有所降低,這是因為在小尺度的檢測下,網(wǎng)絡(luò)提取特征層越深則效果越好。相較于MobileNetV2-SSD,本文模型的mAP提高了0.24個百分點(diǎn)。另外,對比CA-SSD與SSD、本文模型和MobileNetV2-SSD可以看出,加入CA模塊對于模型整體精確度的提高有正向作用。SSD與CA-SSD對比、本文模型與MobileNetV2-SSD對比,這兩組對比結(jié)果可以看出,更換了更輕量級的主干網(wǎng)絡(luò)可以提高模型的精確度??傮w地,本文模型在人臉各部位的狀態(tài)識別中有最好的檢測性能,可以滿足麻醉病人復(fù)蘇這一應(yīng)用場景下的檢測要求。

        為了驗證本文模型在精確度提升的同時檢測速度也滿足實(shí)時性的要求,進(jìn)行對比實(shí)驗,實(shí)驗結(jié)果如表2所示。SSD雖然有較高的性能,但是模型較大,不符合現(xiàn)代化工程應(yīng)用輕便的需求。將主干網(wǎng)絡(luò)更換為MobileNetV2后,模型大小約為原來的1/6,準(zhǔn)確率也相應(yīng)提高,本文模型在加入CA模塊后達(dá)到了最高性能。從表2中看出,更換為輕量級網(wǎng)絡(luò)的MobileNetV2-SSD和本文模型顯卡上的檢測速度分別為81 frame/s、74 frame/s,相較于SSD和CA-SSD的檢測速度153 frame/s、125 frame/s,降低至原來的1/2。在處理器上,MobileNetV2-SSD和本文模型檢測速度分別達(dá)到了25 frame/s和24 frame/s,約為SSD和CA-SSD的2.5倍。說明了基于深度可分離卷積的MobileNetV2在顯卡上并不能完全適配,得到絕對的計算加速。這驗證了網(wǎng)絡(luò)計算的速度不僅取決于計算量,還取決于諸如存儲器訪問成本和平臺特性的其他因素[24]。由于一般視頻流為25 frame/s,所以本文模型在對目標(biāo)檢測精確度提升的同時,也達(dá)到了實(shí)時性的要求。

        表2不同模型的大小和檢測速度對比

        Tab.2 Comparison of size and detection speed of different models

        綜合上述分析可知,本文模型比SSD的睜眼檢測精確度提升了1.27個百分點(diǎn);閉眼檢測精確度提升了0.94個百分點(diǎn);張嘴檢測精確度提升最高,為1.87個百分點(diǎn);閉嘴檢測精確度提升了1.48個百分點(diǎn),AP提升1.39個百分點(diǎn);可以更精確地識別病人的面部特征。本文模型參數(shù)減少至原始SSD參數(shù)量的1/6,檢測速度是原始SSD的2.4倍,即檢測速度提升了140%,對病人的面部特征的檢測更實(shí)時。

        4.3 數(shù)據(jù)分析

        在臨床醫(yī)學(xué)中靈敏度(sensitivity)和平均對數(shù)漏檢率(Log-Average Miss Rate, LAMR)更具有實(shí)際參考價值。靈敏度指在所有的正樣本中模型預(yù)測對的比重,與模型的評價指標(biāo)召回率Recall等同,靈敏度越大,模型的檢測越準(zhǔn);平均對數(shù)漏檢率指計算每張圖片誤檢數(shù)(False Positives Per Image,F(xiàn)PPI)和漏檢率(Miss Rate,MR)同時衡量模型性能。MR的計算如式(5)所示:

        通過繪制MR-FPPI(Miss Rate- False Positives Per Image)曲線,取9個FPPI值下的平均漏檢率,記為MR-2,其中9個點(diǎn)是在對數(shù)區(qū)間[10-2,102]上的均勻采樣。MR-2表示在指定誤檢率的情況下檢測器的漏檢率。MR-2越低,表示模型漏檢率越低,檢測性能越好。對模型的實(shí)驗結(jié)果數(shù)據(jù)進(jìn)行計算比較,結(jié)果如圖9、表3所示。

        由圖9可見,模型的優(yōu)劣順序為本文模型、CA-SSD、SSD和MobileNetV2-SSD。本文模型檢測閉眼的靈敏度比原始SSD略低,是由于更換了主干網(wǎng)絡(luò)的輕量化網(wǎng)絡(luò)模型對小尺度特征圖檢測不全面;在對睜眼、張嘴和閉嘴的檢測中,本文模型的靈敏度均為最高值、覆蓋最全面,綜合評估本文模型具有更好的靈敏度。

        圖9 不同模型的靈敏度對比

        表3不同模型的平均對數(shù)漏檢率對比

        Tab.3 Comparison of log-average miss rate of different models

        由表3可見,本文模型在每個分類檢測的平均對數(shù)漏檢率都為最低值,檢測性能最好。

        綜上分析可知,本文模型具有更優(yōu)的靈敏度和極低的平均對數(shù)漏檢率,可以準(zhǔn)確地檢測麻醉病人復(fù)蘇期的面部特征,對麻醉病人檢測識別的遺漏少,這對麻醉復(fù)蘇檢測識別具有較大的實(shí)際意義。

        4.4 麻醉復(fù)蘇判定方法

        根據(jù)本文模型檢測的結(jié)果,先檢測每幀圖像中病人的面部特征,再引入是否復(fù)蘇的邏輯算法進(jìn)行麻醉復(fù)蘇檢測。設(shè)定一個蘇醒狀態(tài)評價值由式(6)計算:

        測試集選用的病人照片為235張,分為兩類(清醒和昏迷),其中清醒的照片為100張,昏迷的照片為135張。對檢測結(jié)果繪制受試者特征曲線(Receiver Operating Characteristic curve, ROC),如圖10所示。

        圖10 受試者特征曲線

        ROC的曲線下面積(Area Under Curve, AUC)值為0.88,驗證了本文模型的有效性及面部特征對麻醉復(fù)蘇判定具有較高的預(yù)測價值。

        5 結(jié)語

        本文提出一種基于改進(jìn)SSD的麻醉復(fù)蘇目標(biāo)檢測方法。將SSD的主干網(wǎng)絡(luò)VGG16更換為MobileNetV2,減少了特征提取網(wǎng)絡(luò)模塊的參數(shù)量,在保證模型精確度的情況下提高檢測速度;引入注意力模塊,通過注意力機(jī)制模塊,使模型將更多的關(guān)注點(diǎn)放在關(guān)鍵信息,增強(qiáng)模型對目標(biāo)的識別能力。在醫(yī)院麻醉病患面部數(shù)據(jù)集HAPF上驗證了本文方法的可行性。實(shí)驗結(jié)果表明,本文模型(CA+MobileNetV2-SSD)具有較高的精確度和實(shí)時性,同時也滿足移動計算設(shè)備的應(yīng)用需求,具有實(shí)際工程應(yīng)用的潛能。下一步,將圍繞實(shí)際應(yīng)用場景進(jìn)行針對性的研究優(yōu)化。

        [1] DESBOROUGH J P. The stress response to trauma and surgery[J]. British Journal of Anaesthesia,2000,85(1):109-117.

        [2] DOBSON G P. Addressing the global burden of trauma in major surgery[EB/OL].[2022-12-20]. doi:10.3389/fsurg.2015.00043.

        [3] CUSACK B , BUGGY D J . Anaesthesia, analgesia, and the surgical stress response[J]. BJA Education, 2020,20(9): 321-328.

        [4] HIROSE M, OKUTANI H, HASHIMOTO K, et al. Intraoperative assessment of surgical stress response using nociception monitor under general anesthesia and postoperative complications: a narrative review[J]. Journal of Clinical Medicine, 2022,11(20): No. 6080.

        [5] PENSON D F. Re: relationship between occurrence of surgical complications and hospital finances[J]. The Journal of Urology, 2013, 190(6): 2211-2213.

        [6] DOBSON G P . Trauma of major surgery: a global problem that is not going away [J]. International Journal of Surgery, 2020, 81:47-54.

        [7] LUDBROOK G L. The hidden pandemic: the cost of postoperative complications [J]. Current Anesthesiology Reports, 2021, 12(1):1-9.

        [8] 郭清厚,鐘嬈霞,莫玉林.靶向預(yù)控護(hù)理在全麻手術(shù)患者復(fù)蘇期躁動管理中的應(yīng)用[J].齊魯護(hù)理雜志,2019,25(6):92-94.(GUO Q H, ZHONG R X, MO Y L. Application of targeted pre-control nursing in restlessness management of patients undergoing general anesthesia surgery during recovery [J]. Journal of Qilu Nursing, 2019, 25(6): 92-94.)

        [9] SOUKUPOVá T, CECH J. Real-time eye blink detection using facial landmarks [EB/OL].[2022-12-20]. https://vision.fe.uni-lj.si/cvww2016/proceedings/papers/05.pdf.

        [10] NOUSIAS G, PANAGIOTOPOULOU E-K, DELIBASIS K, et al. Video-based eye blink identification and classification[J]. IEEE Journal of Biomedical and Health Informatics, 2022, 26(7): 3284-3293.

        [11] DE LA CRUZ G, LIRA M, LUACES O, et al. Eye-LRCN: a long-term recurrent convolutional network for eye blink completeness detection[J/OL]. IEEE Transactions on Neural Networks and Learning Systems, 2022[2022-11-29]. https://ieeexplore.ieee.org/abstract/document/9885029.

        [12] CHEN Y, ZHAO D, HE G. Deep learning-based fatigue detection for online learners[C]// Proceedings of the 2022 5th International Conference on Pattern Recognition and Artificial Intelligence. Piscataway: IEEE, 2022 : 924-927.

        [13] WANG Z, CHAI J, XIA S. Realtime and accurate 3D eye gaze capture with DCNN-based iris and pupil segmentation [J]. IEEE Transactions on Visualization and Computer Graphics, 2021,27(1):190-203.

        [14] PRINSEN V, JOUVET P, OMAR S A, et al. Automatic eye localization for hospitalized infants and children using convolutional neural networks [J]. International Journal of Medical Informatics, 2021, 146: 104344.

        [15] LIU W,ANGUELOV D,ERHAN D,et al. SSD:single shot multibox detector [C]// Proceedings of the 2016 European Conference on Computer Vision,LNCS 9905. Cham: Springer,2016: 21-37.

        [16] SIMONYAN K , ZISSERMAN A . Very deep convolutional networks for large-scale image recognition[EB/OL].[2022-12-20]. https://arxiv.org/pdf/1409.1556.pdf.

        [17] SANDLER M , HOWARD A , ZHU M , et al. MobileNetV2: inverted residuals and linear bottlenecks [C]// Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2018:4510-4520.

        [18] HU J , SHEN L , ALBANIE S , et al. Squeeze-and-excitation networks.[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2020, 42(8):2011-2023.

        [19] WANG Q , WU B , ZHU P , et al. ECA-Net: efficient channel attention for deep convolutional neural networks[C]// Proceedings of the 2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2020 :11531-11539.

        [20] HOU Q , ZHOU D , FENG J . Coordinate attention for efficient mobile network design[C]// Proceedings of the 2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE,2021 :13708-13717.

        [21] ZHAO L, WANG Z, ZHANG G,et al.Eye state recognition based on deep integrated neural network and transfer learning[J].Multimedia Tools and Applications, 2018, 77(15):19415-19438.

        [22] HUANG G B, MATTAR M, BERG T,et al.Labeled faces in the wild: a database for studying face recognition in unconstrained environments [EB/OL].[2022-12-22].https://inria.hal.science/inria-00321923/document.

        [23] TAN C, SUN F, KONG T, et al. A survey on deep transfer learning [C]// Proceedings of the 2018 International Conference on Artificial Neural Networks and Machine Learning. Cham: Springer, 2018:270-279.

        [24] MA N, ZHANG X., ZHENG H T,et al. ShuffleNet v2: practical guidelines for efficient cnn architecture design [C]// Proceedings of the 2018 European Conference on Computer Vision. Cham:Springer, 2018 :122-138.

        Anesthesia resuscitation object detection method based on improved single shot multibox detector

        LUO Ronghao, CHENG Zhiyou, WANG Chuanjian*, LIU Siqian, WANG Zhentian

        (,,230039,)

        The target detection model of anesthesia resuscitation is often used to help medical staff to perform resuscitation detection on anesthetized patients. The targets of facial actions during patient resuscitation are small and are not obvious, and the existing Single Shot multibox Detector (SSD) is difficult to accurately detect the facial micro-action features of patients in real time. Aiming at the problem that the original model has low detection speed and is easy to have missed detection, an anesthesia resuscitation object detection method based on improved SSD was proposed. Firstly, the backbone network VGG (Visual Geometry Group)16 of the original SSD was replaced by the lightweight backbone network MobileNetV2, and the standard convolutions were replaced by the depthwise separable convolutions. At the same time, the calculation method of first increasing and then reducing the dimension of the extracted features from patient photos was used to reduce computational cost, thereby improving detection speed of the model. Secondly, the Coordinate Attention (CA) mechanism was integrated into the feature layers with different scales extracted by the SSD, and the ability of the feature map to extract key information was improved by weighting the channel and location information, so that the network positioning and classification performance was optimized. Finally, comparative experiments were carried out on three datasets:CEW(Closed Eyes in the Wild), LFW(Labeled Faces in the Wild), and HAPF(Hospital Anesthesia Patient Facial). Experimental results show that the mean Average Precision (AP) of the proposed model reaches 95.23%, and the detection rate of photos is 24 frames per second, which are 1.39 percentage points higher and 140% higher than those of the original SSD model respectively. Therefore, the improved model has the effect of real-time accurate detection in anesthesia resuscitation detection, and can assist medical staff in resuscitation detection.

        anesthesia resuscitation; facial feature recognition; Single Shot multibox Detector (SSD); MobileNetV2; attention mechanism

        This work is partially supported by National Natural Science Foundation of China (82272225).

        LUO Ronghao, born in 1997, M. S. candidate. His research interests include object detection, micro-action recognition.

        CHENG Zhiyou, born in 1972, Ph. D., professor. His research interests include analysis and control of power quality.

        WANG Chuanjian, born in 1977, Ph. D., professor. His research interests include computer vision, medical artificial intelligence.

        LIU Siqian, born in 1997, M. S. candidate. His research interests include object detection.

        WANG Zhentian, born in 1999, M. S. candidate. His research interests include object detection, optical character recognition.

        TP391.41

        A

        1001-9081(2023)12-3941-06

        10.11772/j.issn.1001-9081.2022121917

        2023?01?04;

        2023?04?05;

        2023?04?06。

        國家自然科學(xué)基金資助項目(82272225)。

        羅榮昊(1997—),男,安徽滁州人,碩士研究生,主要研究方向:目標(biāo)檢測、微動作識別;程志友(1972—),男,安徽安慶人,教授,博士,主要研究方向:電能質(zhì)量分析與控制;汪傳建(1977—),男,安徽安慶人,教授,博士,CCF會員,主要研究方向:計算機(jī)視覺、醫(yī)學(xué)人工智能;劉思乾(1997—),男,安徽巢湖人,碩士研究生,主要研究方向:目標(biāo)檢測;汪真天(1999—),男,安徽銅陵人,碩士研究生,主要研究方向:目標(biāo)檢測、光學(xué)文字識別。

        猜你喜歡
        精確度主干注意力
        全球首條1.2T超高速下一代互聯(lián)網(wǎng)主干通路
        軍事文摘(2024年2期)2024-01-10 01:58:34
        讓注意力“飛”回來
        抓主干,簡化簡單句
        二代支架時代數(shù)據(jù)中糖尿病對無保護(hù)左主干患者不同血運(yùn)重建術(shù)預(yù)后的影響
        研究核心素養(yǎng)呈現(xiàn)特征提高復(fù)習(xí)教學(xué)精確度
        “硬核”定位系統(tǒng)入駐兗礦集團(tuán),精確度以厘米計算
        高齡無保護(hù)左主干病變患者血運(yùn)重建術(shù)的長期預(yù)后
        “揚(yáng)眼”APP:讓注意力“變現(xiàn)”
        傳媒評論(2017年3期)2017-06-13 09:18:10
        A Beautiful Way Of Looking At Things
        近似數(shù)1.8和1.80相同嗎
        亚洲第一页综合图片自拍| 亚洲性感毛片在线视频| 一区二区三区国产高清视频| 永久黄网站色视频免费看| 亚洲级αv无码毛片久久精品| 精品一区二区三区影片| 美女丝袜诱惑在线播放蜜桃| 日本真人边吃奶边做爽动态图| 精品亚洲成a人在线观看青青| 高清国产美女一级a毛片在线| 亚洲中字永久一区二区三区| 久久不见久久见免费视频6| 人人妻人人澡人人爽久久av| 亚洲欧洲日产国码久在线观看| 亚洲女同高清精品一区二区99| 亚洲 欧美 综合 在线 精品| 婷婷午夜天| 亚洲高清国产品国语在线观看 | 一本大道久久a久久综合| 免费黄网站永久地址进入| 亚洲国产精品日本无码网站| 国产精品va在线观看无码| 国产成人久久精品77777综合| 一区视频免费观看播放| 人妻少妇无码精品视频区 | 国产成年无码久久久免费| 亚洲精品中文字幕乱码无线| 少妇做爰免费视频了| 996久久国产精品线观看| 日本肥老熟妇在线观看| 在线视频中文字幕一区二区三区| 激情影院内射美女| 女的把腿张开男的猛戳出浆| 亚洲av综合日韩精品久久| 少妇伦子伦精品无吗| 国产免费久久精品国产传媒| 在线视频一区二区在线观看| 亚洲精品国产第一综合色吧| 亚洲乱亚洲乱少妇无码99p| 中文字幕有码在线视频| 国产亚洲91精品色在线|