亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        EfficientNet在陰虛證眼象識別中的應(yīng)用研究

        2020-06-04 12:06:58孫旭豪傅中添嚴玲周作建
        中醫(yī)藥信息 2020年3期
        關(guān)鍵詞:特征提取特征模型

        孫旭豪,傅中添,嚴玲,周作建

        (南京中醫(yī)藥大學(xué)人工智能與信息技術(shù)學(xué)院,江蘇 南京 210023)

        望診是中醫(yī)診斷最常用的方法之一,而目診在其中占有十分重要的地位。所謂目診,即通過有目的性的觀察患者眼睛各部位的神色、形態(tài)等的變化,來了解人體的健康狀況,推斷病機。傳統(tǒng)的目診法通過醫(yī)生肉眼觀察眼象,易受光線、角度等環(huán)境因素影響,使得目診結(jié)果易產(chǎn)生偏差;且醫(yī)生的診斷主要是基于其醫(yī)療實踐經(jīng)驗的積累,往往會受到主觀因素的影響,沒有有效的量化手段,缺乏客觀評價依據(jù)。不同地域、流派的中醫(yī)師對于辨證均具有各自獨到的見解,即使是對同一種癥狀也往往會出現(xiàn)不同的診斷結(jié)果,這給包括目診在內(nèi)的中醫(yī)臨床診斷、科學(xué)研究等工作帶來許多不便[1]。

        近幾年,對中醫(yī)客觀化的需求愈發(fā)凸顯。通過對患者癥狀以及中醫(yī)辨證模型的量化,達到用數(shù)學(xué)方法模擬中醫(yī)診斷過程的目的,類似的思路目前已廣泛應(yīng)用于以舌診為代表的望診客觀化研究中。闞紅星等通過色差校正、K均值聚類等算法分離出舌圖像中的舌質(zhì)區(qū)域與舌苔區(qū)域,提取顏色、裂紋等特征值,并使用隨機森林構(gòu)建舌圖像的2型糖尿病識別模型[2]。許家佗等對207名大學(xué)生的面部圖像在RGB、HIS、L*a*b*等顏色空間中進行顏色特征分析,得出了健康與亞健康人群在局部面色上具有顯著差異的結(jié)論[3]。

        然而,目前針對中醫(yī)辨證客觀化的研究還處于薄弱階段,國內(nèi)尚無基于目診辨證客觀化的研究。針對這種情況,本文提出了一種通過open-cv將圖像切割并增強后輸入基于EfficientNet[4]構(gòu)建的卷積神經(jīng)網(wǎng)絡(luò)提取陰虛證特征并進行分類,完成針對陰虛證的眼象識別。

        1 相關(guān)知識

        1.1 Retinex算法

        Retinex算法常用于消除圖像色彩偏差,強化圖像特征。Retinex由retina(視網(wǎng)膜)以及cortex(皮層)兩個單詞組成,意為人類肉眼所感知到的顏色是外界不同波長的光線被視網(wǎng)膜接受后經(jīng)由大腦皮層的處理產(chǎn)生的,因此物體的顏色是由物體反射不同波長光線的能力而不是反射光強度所決定的,不會受到外界光線的波長及強度的影響。因此Retinex算法可以對光照不均衡的圖像進行自適應(yīng)的增強,對圖像特征進行全方位的強化。

        1.2 卷積神經(jīng)網(wǎng)絡(luò)

        2 圖像預(yù)處理

        2.1 圖像分割

        由于原始圖像中不僅記錄了眼象數(shù)據(jù),還包含有眼象儀支架以及眼睛周圍部分等無關(guān)圖像數(shù)據(jù)(如圖1),會對模型的特征提取造成干擾。因此本文應(yīng)用了一種針對眼象的圖像定位方法。

        圖1 原始圖像

        2.1.1 白平衡處理

        在大多數(shù)情況下由于不同色溫的光源影響,導(dǎo)致圖像的色調(diào)會隨之出現(xiàn)一定程度的偏差。人類的肉眼可以自動調(diào)節(jié)這種偏差,使得圖像更接近其原本的色調(diào)。而圖像白平衡(White Balance)算法則模擬了該過程。本文所用白平衡算法將圖像轉(zhuǎn)到L*a*b色彩空間,再將每個像素的a、b色值根據(jù)整幅圖像a、b色值的均值進行調(diào)整。L*a*b色彩空間基于肉眼對顏色的感知建立,擁有比RGB、CMYK更為廣闊的色域,能夠表示人眼所能感知到的所有顏色。具體公式如下:

        (1)

        (2)

        其中Ix,y,l、Ix,y,a、Ix,y,b分別為圖片第x行第y列像素的明度、a色值以及b色值(如圖2)。

        圖2 白平衡處理后的圖像

        2.1.2 輪廓檢測

        將糾正偏差后的圖像轉(zhuǎn)到HSV色彩空間后采用OTSU閾值二值化處理,根據(jù)灰度將圖像分為背景和目標,再進行輪廓檢測(如圖3)。

        圖3 輪廓檢測結(jié)果

        2.2 Retinex圖像增強

        由于所得圖像中虹膜部位顏色普遍偏深,反映到RGB色彩空間中表現(xiàn)為虹膜部位R、G、B三通道色值均趨于0,不利于后續(xù)的特征提取。

        Retinex理論認為物體的顏色是由物體對不同波長光線(即顏色)的反射能力而不是由反射光決定的,即:

        S(x,y)=R(x,y)*L(x,y)

        (3)

        其中S(x,y)為反射光線,L(x,y)為環(huán)境光,而R(x,y)就是攜帶著物體信息的反射分量。

        本文使用基于Retinex理論的MSRCP算法[6],即多尺度且?guī)в猩时Wo的Retinex,公式如下,其中I為圖像中任一像素,σ1、σ2、σ3為高斯模糊的3種尺度,s1、s2表示像素的兩種剪切尺度,其效果可以顯著增強圖像特征(如圖4)。

        (4)

        圖4 MSRCP處理效果

        3 模型構(gòu)建

        3.1 數(shù)據(jù)集擴充

        神經(jīng)網(wǎng)絡(luò)對特征的學(xué)習(xí)需要大量經(jīng)過人工標記的訓(xùn)練以及測試樣本,如用于人臉識別的LFW數(shù)據(jù)集中包含了超過5 000人的總計13 000張面部圖片,而用于視覺對象識別的ImageNet數(shù)據(jù)集更是擁有1 000個類別的超過120萬張高分辨率圖片,數(shù)據(jù)集的收集和標注是一個龐大的工程。在大多數(shù)情況下,數(shù)據(jù)集的規(guī)模是無法滿足深度神經(jīng)網(wǎng)絡(luò)的訓(xùn)練要求的,因而會出現(xiàn)過擬合(Overfitting)的現(xiàn)象,即神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)到了在訓(xùn)練數(shù)據(jù)中完全沒有意義的特征,導(dǎo)致模型在訓(xùn)練集上的表現(xiàn)遠遠超過在測試集上的表現(xiàn),網(wǎng)絡(luò)模型不具有魯棒性。本文使用多種數(shù)據(jù)增強方法擴大數(shù)據(jù)集,在抗過擬合的同時可以增強模型在各種數(shù)據(jù)采集環(huán)境下的抗干擾能力。

        3.1.1 仿射

        仿射變換是指對一個向量進行一定的平移運動以及線性變換,在保留向量原有特征的前提下轉(zhuǎn)化為另一個向量的過程。對圖像中任意像素點的變換可表示為:

        (5)

        仿射變換根據(jù)變換矩陣的不同可分解為平移、縮放、旋轉(zhuǎn)、錯切等基本變換手段,可以在不破壞圖像原有特征的情況下將圖像的觀測角度從正面變?yōu)閭?cè)面,從而降低識別模型對觀測角度的敏感度。本文將輸入圖像沿順時針或逆時針隨機旋轉(zhuǎn)0°~20°,水平及垂直旋轉(zhuǎn),橫向及縱向隨機縮放0.8~1.2倍,將數(shù)據(jù)集擴充了1 024倍。

        3.1.2 高斯噪聲

        本文使用高斯擾動對圖像的紅色(R)、綠色(G)、藍色(B)通道分別加上一個均值為0、標準差為16的高斯噪聲,模擬在不同光線環(huán)境下的觀測。擾動效果如圖(2)。此種方法可以降低模型對光線以及圖像質(zhì)量的敏感度。

        圖5 高斯擾動結(jié)果

        3.2 數(shù)據(jù)預(yù)處理

        在訓(xùn)練模型之前需要對原始數(shù)據(jù)進行預(yù)先處理,消除無關(guān)信息,強化有用信息,使模型能夠更容易地學(xué)習(xí)到圖像特征。

        3.2.1 圖像縮放

        由于在預(yù)處理階段已經(jīng)將圖像進行分割處理,所得圖像長寬不一致,不利于模型的訓(xùn)練以及數(shù)據(jù)遷移,需要將圖片統(tǒng)一縮放為300×300的尺寸。定義Z為縮放矩陣,M為原矩陣,則:

        Zx,y=(1-u)×(1-v)×Mi,j
        +(1-u)×v×Mi,j+1
        +u×(1-v)×Mi+1,j
        +u×v×Mi+1,j+1

        (6)

        其中:

        i+u=300(i∈N)
        j+v=300(j∈N)

        (7)

        3.2.2 白化

        圖像中像素與像素之間的相關(guān)性和兩者之間的距離呈正相關(guān),同一片區(qū)域內(nèi)的像素通常擁有相似的信息,用作訓(xùn)練數(shù)據(jù)是冗余的,而圖像白化(Whitening)可以降低數(shù)據(jù)之間的相關(guān)性,使數(shù)據(jù)所包含的特征更加集中,增加特征提取網(wǎng)絡(luò)的訓(xùn)練速度[7]。

        (8)

        其中Xrotate為原數(shù)據(jù)在主成分軸上的投影。

        3.3 構(gòu)建網(wǎng)絡(luò)

        本文采用EfficientNet卷積神經(jīng)網(wǎng)絡(luò)作為特征提取模型。該模型在ImageNet數(shù)據(jù)集上獲得了84.4%的Top-1精度和97.1%的Top-5精度,超越了此前表現(xiàn)最好的GPipe,并且參數(shù)量減少了8.4倍,速度快了6.1倍(如表1)。

        表1 模型性能對比

        3.3.1 模型尺寸的選擇

        EfficientNet模型重新思考了在原有網(wǎng)絡(luò)結(jié)構(gòu)基礎(chǔ)上進一步增加模型精度的方法:增加網(wǎng)絡(luò)的深度、寬度以及分辨率。單獨增加其中任意一項都會提高網(wǎng)絡(luò)的精度,但是這一項參數(shù)的不斷增加又會導(dǎo)致參數(shù)增長的精度回報率降低,于是在模型最大參數(shù)量不變的情況下找出深度、寬度、分辨率的最優(yōu)組合就變成了如下的優(yōu)化問題:

        (9)

        EfficientNet根據(jù)不同尺寸的圖像構(gòu)建了8個模型,本文根據(jù)眼象圖片的尺寸選擇EfficientNet-B3。

        3.3.2 基線模型

        EfficientNet模型縮放的高效性嚴重依賴于其基線模型,因此基線模型的選擇是構(gòu)建EfficientNet的重要一環(huán)。Mingxing Tan等人并沒有使用MobileNets等現(xiàn)有的高性能模型,而是通過網(wǎng)絡(luò)結(jié)構(gòu)搜索[14-16]自動構(gòu)建了基線模型EfficientNet-B0,令后續(xù)的模型縮放能夠?qū)⒕茸畲蠡?/p>

        3.4 全局平均池化

        傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)在獲得圖像Feather Map后會接全連接層,而全連接層的參數(shù)量會占據(jù)整個模型參數(shù)量的90%以上,大大降低了模型訓(xùn)練速度,而且過度密集的參數(shù)會使過擬合更易發(fā)生。因此本文將EfficientNet輸出的Feather Map后接全局平均池化層,取矩陣中每一層特征映射的平均值組成一維向量,相當(dāng)于將全連接層中的展開卷積層以及對特征映射分類的過程合二為一,通過這種手段適當(dāng)降低模型的擬合能力,以提高模型泛化能力,削弱過擬合現(xiàn)象;剔除了全連接層黑箱的特征,直接賦予了每個通道實際意義。值得一提的是,全局平均池化忽略了每一層特征映射的大小,從而賦予了網(wǎng)絡(luò)可以接受任意大小圖像輸入的能力。

        4 模型訓(xùn)練

        4.1 遷移學(xué)習(xí)

        為了能加快模型的學(xué)習(xí)速度,本實驗使用遷移學(xué)習(xí),將已經(jīng)在ImageNet數(shù)據(jù)集上訓(xùn)練好的EfficientNet參數(shù)作為特征提取模型的初始參數(shù),從而繼承模型從ImageNet數(shù)據(jù)集上學(xué)習(xí)到的特征提取能力,再在此基礎(chǔ)上進行微調(diào)(fine tune)。ImageNet數(shù)據(jù)集的1 000個分類涵蓋了幾乎所有常見物品,且數(shù)據(jù)量十分龐大,可以賦予模型極強的特征提取能力以及泛化能力。該方法不僅可以節(jié)省大量的訓(xùn)練時間和計算資源,更可以一定程度上削弱過擬合現(xiàn)象,使模型擁有比隨機初始化參數(shù)更好的表現(xiàn)[13]。

        4.2 超參數(shù)的選擇

        特征提取模型共有3個超參數(shù)(Hyper-parameters),分別為學(xué)習(xí)率、批尺寸以及amsgrad(是否使用Adam[17]算法的AMSGrad[18]變種)。AMSGrad算法針對Adam算法收斂性證明的缺陷,對Adam的更新規(guī)則作出了一些改進,在某些應(yīng)用場景下?lián)碛谐^Adam算法的收斂速度。本文采用正交實驗法對這3個超參數(shù)進行考量,建立3因素2水平正交實驗因素表(見表2),使用眼象數(shù)據(jù)集對不同超參數(shù)組合下模型的綜合性能進行評估。對于每組參數(shù)迭代20次,以驗證準確率作為性能指標確定最佳超參數(shù)組合。

        表2 正交因素水平

        4.3 不同超參數(shù)的性能評估

        本文根據(jù)表2的正交因素水平設(shè)計了8組實驗(如表3),第3組超參數(shù)取得了最佳性能。因此采用學(xué)習(xí)率為1e-3,批尺寸為128,Amsgrad優(yōu)化器的方案(迭代過程如圖6)。

        圖6 損失值優(yōu)化過程

        表3 超參數(shù)正交實驗結(jié)果

        4.4 模型驗證

        本文使用Python的深度學(xué)習(xí)庫Keras構(gòu)建陰虛證眼象識別模型,通過EfficientNet模型遷移學(xué)習(xí),設(shè)置學(xué)習(xí)率1e-3,批尺寸128,采用Amsgrad優(yōu)化器及交叉熵損失函數(shù),模擬中醫(yī)目診對眼象圖片的陰虛證特征提取以及分類。使用驗證數(shù)據(jù)集對該模型的陰虛證候識別準確度進行驗證,得到了90.01%的準確率。

        5 結(jié)論

        本研究首次嘗試使用圖像識別技術(shù)以及EfficientNet,對目圖像進行特征提取以及證候識別,并取得了較好的結(jié)果。這表明通過深度學(xué)習(xí)實現(xiàn)中醫(yī)辨證客觀化的技術(shù)路線是可行的,填補了目前在目診以及辨證客觀化研究領(lǐng)域的不足。

        目前通過深度學(xué)習(xí)實現(xiàn)中醫(yī)辨證客觀化的研究尚處于初級階段,下一步的研究目標將不僅限于目診的客觀化,而是舌診、目診、面診的綜合客觀化研究,同時擴充數(shù)據(jù)集,進一步提高模型精度。

        猜你喜歡
        特征提取特征模型
        一半模型
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        如何表達“特征”
        基于Gazebo仿真環(huán)境的ORB特征提取與比對的研究
        電子制作(2019年15期)2019-08-27 01:12:00
        不忠誠的四個特征
        抓住特征巧觀察
        一種基于LBP 特征提取和稀疏表示的肝病識別算法
        3D打印中的模型分割與打包
        基于MED和循環(huán)域解調(diào)的多故障特征提取
        中文字幕人妻伦伦| 亚洲中文字幕日本日韩| 无色码中文字幕一本久道久| 国产V日韩V亚洲欧美久久| 精品人伦一区二区三区蜜桃麻豆| 人妻少妇偷人精品久久人妻| 精品国产一区二区三区不卡在线| 中文字幕欧美人妻精品一区| 欧美国产亚洲日韩在线二区| 日韩精品极品在线观看视频| 国产三级久久精品三级91| 人妻丰满熟妇av无码区不卡 | 日韩中文字幕一区在线| 亚洲精品久久久久一区二区| 成人精品一区二区三区中文字幕 | 国产精品18久久久久久首页| 中文字幕乱码一区在线观看 | 内谢少妇xxxxx8老少交| 国产精品每日更新在线观看| 久久精品伊人久久精品伊人| 久爱www人成免费网站| 欧美性猛交xxxx乱大交丰满| 国产亚洲无码1024| 国产精品白浆一区二区免费看| 国产精品兄妹在线观看麻豆| 中文字幕在线亚洲日韩6页手机版| 天堂av在线免费播放| 一区二区三区免费看日本| 国产丝袜在线精品丝袜| 国产成人av在线影院无毒| 国产二区中文字幕在线观看| 国产精品久久久久久福利| 夜色阁亚洲一区二区三区| 手机在线免费看av网站| 精品国产一区二区三区色搞| 日本乱人伦在线观看| 欧美亚洲另类国产18p| 久久丝袜熟女av一区二区| 亚洲av片一区二区三区| 福利视频一二区| 男女啪啪在线视频网站|