亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        卷積神經(jīng)網(wǎng)絡(luò)在識(shí)別等速運(yùn)動(dòng)配合程度中的應(yīng)用

        2020-06-11 10:40:58陳邵文崔丹妮夏晴夏文濤江潔清沈憶文
        法醫(yī)學(xué)雜志 2020年2期
        關(guān)鍵詞:模型

        陳邵文,崔丹妮,夏晴,夏文濤,江潔清,沈憶文

        (1.復(fù)旦大學(xué)基礎(chǔ)醫(yī)學(xué)院法醫(yī)學(xué)系,上海 200032;2.復(fù)旦大學(xué)生物醫(yī)學(xué)研究院,上海 200032;3.司法鑒定科學(xué)研究院 上海市法醫(yī)學(xué)重點(diǎn)實(shí)驗(yàn)室 司法部司法鑒定重點(diǎn)實(shí)驗(yàn)室 上海市司法鑒定專業(yè)技術(shù)服務(wù)平臺(tái),上海 200063)

        法醫(yī)臨床學(xué)鑒定常涉及對(duì)肌力的評(píng)估,其結(jié)果可反映肢體運(yùn)動(dòng)功能,并與后續(xù)責(zé)任劃分、賠償?shù)人痉ㄟ^(guò)程密切相關(guān)。得出正確鑒定意見(jiàn)的前提是被鑒定人配合檢查,在測(cè)試過(guò)程中發(fā)揮最大努力[1]。但由于害怕疼痛或二次傷害,誤解檢測(cè)程序及指示,存在緊張、焦慮、抑郁或從損傷中獲益的心理因素,被鑒定人可能不會(huì)自主發(fā)揮全力,甚至偽裝、夸大傷情[2-4]。因此在法醫(yī)學(xué)鑒定實(shí)踐中,明確被鑒定人的配合程度至關(guān)重要。

        目前檢測(cè)肌力主要采用傳統(tǒng)的徒手檢查法,精確性較差,難以判定受試者的配合情況。等速肌力測(cè)試與訓(xùn)練技術(shù)(即“等速技術(shù)”)是在預(yù)先設(shè)定的恒定角速度下評(píng)估肢體功能、提供康復(fù)鍛煉的一種技術(shù),廣泛應(yīng)用于運(yùn)動(dòng)與康復(fù)醫(yī)學(xué)領(lǐng)域,能客觀、定量、安全地檢測(cè)肌力[5-6]。同時(shí),等速運(yùn)動(dòng)過(guò)程中屈伸肌力矩值隨時(shí)間變化的力矩-時(shí)間圖,在受試者配合與偽裝膝關(guān)節(jié)運(yùn)動(dòng)時(shí)可分別呈現(xiàn)不同的圖像類型,具有區(qū)分受試者配合程度的潛力[7]。

        卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)是受動(dòng)物視覺(jué)皮層結(jié)構(gòu)啟發(fā)而形成的一類深度學(xué)習(xí)模型,具有局部連接、權(quán)值共享、池化和多層結(jié)構(gòu)的特點(diǎn)[8]。CNN最主要的組成部分是交替連接的卷積層(convolutional layer)和池化層(pooling layer),其中卷積層通過(guò)卷積操作提取圖像局部特征,而池化層則合并語(yǔ)義上相似的特征,從而降低維數(shù)及運(yùn)算量[8-9]。1990年,LECUN等[10]首先提出了梯度反向傳播算法訓(xùn)練的CNN模型,用于手寫體郵政編碼數(shù)字的識(shí)別。2012年,KRIZHEVSKY等[11]將深度CNN用于大規(guī)模圖像分類,在ImageNet競(jìng)賽中取得了驚人的分類效果。目前CNN已在計(jì)算機(jī)視覺(jué)領(lǐng)域占據(jù)主導(dǎo)地位,并廣泛應(yīng)用于各領(lǐng)域的研究。在法醫(yī)學(xué)中,已經(jīng)開(kāi)發(fā)CNN模型作為骨齡評(píng)估[12]、文身檢測(cè)[13]、人臉識(shí)別[14]、牙齒分類[15]等研究的輔助工具,為案件偵查及有關(guān)鑒定提供可靠證據(jù)。CNN具有強(qiáng)大的圖像分類能力,能自動(dòng)、自適應(yīng)地提取并學(xué)習(xí)輸入圖像各個(gè)層次的特征,最終輸出分類結(jié)果。本研究嘗試開(kāi)發(fā)CNN模型用于區(qū)分不同用力程度下的等速力矩-時(shí)間圖,以期在法醫(yī)臨床學(xué)鑒定中輔助判斷被鑒定人的配合情況。

        1 對(duì)象與方法

        1.1 研究對(duì)象

        2018年9月—2019年1月共測(cè)試了200名健康青年受試者,其中男性92名,女性108名,年齡19~29歲,平均年齡23.3歲。受試者均無(wú)膝關(guān)節(jié)損傷與疾病史,下肢肌力及各關(guān)節(jié)活動(dòng)度正常,未參加過(guò)專業(yè)肢體力量訓(xùn)練,未使用過(guò)任何等速肌力測(cè)試儀器。受試者均在測(cè)試前詳細(xì)了解實(shí)驗(yàn)背景及可能風(fēng)險(xiǎn),自主決定參與實(shí)驗(yàn),并簽署知情同意書。

        1.2 測(cè)試儀器

        等速測(cè)試采用瑞士CMV AG公司生產(chǎn)的CONTREX Biomechanical Test and Training系統(tǒng),每次測(cè)試前均采用常規(guī)系統(tǒng)校準(zhǔn)。CNN模型運(yùn)行環(huán)境為具有4塊NVIDIA TITAN Xp GPU的Linux服務(wù)器。

        1.3 測(cè)試方法

        實(shí)驗(yàn)開(kāi)始前,向受試者詳細(xì)說(shuō)明實(shí)驗(yàn)流程與動(dòng)作,再按儀器說(shuō)明將受試者正確固定在測(cè)試椅上。測(cè)試內(nèi)容為30°/s及60°/s角速度下等速向心右側(cè)膝關(guān)節(jié)全力和半力屈伸往復(fù)運(yùn)動(dòng),測(cè)試次數(shù)為兩次,間隔時(shí)間約45 min。全力指受試者完全配合運(yùn)動(dòng)時(shí)所能施加的最大肌力,半力指受試者自我感知的50%最大肌力,用以模擬偽裝控力的情況。

        測(cè)試流程:受試者首先于30°/s角速度下測(cè)試。執(zhí)行5~10次右側(cè)膝關(guān)節(jié)亞最大肌力屈伸往復(fù)運(yùn)動(dòng)作為熱身。休息1min后,進(jìn)行5次全力屈伸往復(fù)運(yùn)動(dòng)。再休息1 min后,進(jìn)行5次半力屈伸往復(fù)運(yùn)動(dòng)。休息2 min后,于60°/s角速度下再次進(jìn)行熱身、全力及半力運(yùn)動(dòng),屈伸次數(shù)及動(dòng)作均與30°/s下一致。測(cè)試結(jié)束后受試者離開(kāi)測(cè)試椅,充分休息45min后再次固定準(zhǔn)備,重復(fù)上述測(cè)試內(nèi)容。

        1.4 CNN訓(xùn)練

        應(yīng)用 Keras(https://github.com/fchollet/keras/)構(gòu)建CNN模型(Keras是使用Python語(yǔ)言編寫的神經(jīng)網(wǎng)絡(luò)框架,可實(shí)現(xiàn)深度學(xué)習(xí)模型的設(shè)計(jì)與調(diào)整,代碼來(lái)自開(kāi)源平臺(tái)GitHub)。損失函數(shù)采用AdamOptimizer進(jìn)行優(yōu)化[16]。CNN屬于有監(jiān)督的機(jī)器學(xué)習(xí)方式,在訓(xùn)練前先根據(jù)測(cè)試時(shí)的具體情況對(duì)每張圖像標(biāo)記類別為0(配合)或1(偽裝)。本研究的CNN模型結(jié)構(gòu)如圖1所示,輸入大小為32×32的RGB圖像,框架主要由2個(gè)卷積層、2個(gè)池化層以及全連接層構(gòu)成。其中第一個(gè)卷積層含20個(gè)卷積核,卷積核大小為5×5;第二個(gè)卷積層含40個(gè)卷積核,卷積核大小為4×4;每個(gè)卷積層均用線性整流函數(shù)(rectified linear unit,ReLU)激活。池化層均采用最大池化策略,窗口為2×2,步長(zhǎng)為2。在全連接層中所有神經(jīng)元完全連接,使用softmax函數(shù)獲取預(yù)測(cè)結(jié)果0或1。

        圖1 鑒別等速力矩-時(shí)間圖的CNN模型結(jié)構(gòu)Fig.1 Structure of CNN model for identifying isokinetic moment of force-time diagrams

        將200名受試者隨機(jī)分為訓(xùn)練集(140名)和測(cè)試集(60名)。用訓(xùn)練集中的力矩-時(shí)間圖訓(xùn)練CNN模型,再用訓(xùn)練好的模型預(yù)測(cè)測(cè)試集的圖形類別,從準(zhǔn)確率(accuracy)、精確度(precision)和召回率(recall)3個(gè)方面評(píng)估模型效力。本研究將偽裝定義為陽(yáng)性,準(zhǔn)確率指所有圖像中被正確分類的比例;精確度(半力)指所有預(yù)測(cè)結(jié)果為陽(yáng)性的圖像中被正確預(yù)測(cè)的偽裝圖像比例;召回率(半力)也稱為靈敏度(sensitivity),描述模型檢出偽裝圖像的能力,指所有偽裝圖像中被正確預(yù)測(cè)為陽(yáng)性的比例。此外,計(jì)算針對(duì)全力配合圖像(陰性結(jié)果)的預(yù)測(cè)精確度和召回率。精確度(全力)指所有預(yù)測(cè)結(jié)果為陰性的圖像中被正確預(yù)測(cè)的配合圖像比例;召回率(全力)等同于模型特異性(specificity),衡量模型正確判定配合圖像的能力,指所有配合圖像中被正確預(yù)測(cè)為陰性的比例。為排除樣本異質(zhì)性產(chǎn)生的誤差,共進(jìn)行3次隨機(jī)取樣與模型開(kāi)發(fā)。

        2 結(jié) 果

        受試者5次屈伸往復(fù)運(yùn)動(dòng)產(chǎn)生的力矩-時(shí)間示意圖如圖2所示。第一次屈伸的圖形由于起始于靜止?fàn)顟B(tài)而不具有代表性,最后一次可能存在疲勞等因素的干擾,因此僅分別截取中間3次屈伸運(yùn)動(dòng)產(chǎn)生的圖像[17-18]。

        圖2 等速膝關(guān)節(jié)運(yùn)動(dòng)力矩-時(shí)間圖Fig.2 Isokinetic moment of force-time diagram of knee exercise

        圖3展示了配合與偽裝等速膝關(guān)節(jié)屈伸運(yùn)動(dòng)力矩-時(shí)間圖的常見(jiàn)形狀。全力配合測(cè)試時(shí)產(chǎn)生的圖像曲線形狀較平滑、規(guī)則,呈現(xiàn)為單一的波峰。半力偽裝測(cè)試產(chǎn)生的圖像曲線形狀不規(guī)則,失去本應(yīng)呈現(xiàn)的單一“尖峰”,代之以更加低平的形狀或出現(xiàn)若干雜峰。

        圖3 不同配合程度下常見(jiàn)的等速膝關(guān)節(jié)運(yùn)動(dòng)力矩-時(shí)間圖像形狀Fig.3 Common shapes of isokinetic knee exercises moment of force-time diagrams under different levels of efforts

        每名受試者于30°/s及60°/s角速度下各重復(fù)兩次測(cè)試,可收集全力及半力等速力矩-時(shí)間圖各12張,故200名受試者一共收集4800張力矩-時(shí)間圖(全力及半力條件各2 400張)。訓(xùn)練集140名受試者提供3360張力矩-時(shí)間圖,測(cè)試集60名受試者提供1440張力矩-時(shí)間圖。訓(xùn)練集中所有圖像完整訓(xùn)練模型一次即為一“代”,訓(xùn)練過(guò)程中的準(zhǔn)確率隨迭代次數(shù)的增加而不斷升高,迭代4000次后準(zhǔn)確率穩(wěn)定在高值,故認(rèn)定此時(shí)的模型已經(jīng)過(guò)充分訓(xùn)練。預(yù)測(cè)結(jié)果如表1所示,充分訓(xùn)練后的3個(gè)CNN模型對(duì)測(cè)試集所有圖像的分類準(zhǔn)確率為90.49%~92.08%。召回率(半力)即模型預(yù)測(cè)靈敏度為89.31%~90.14%,召回率(全力)即模型預(yù)測(cè)特異性為91.67%~94.86%。精確度(半力)為91.47%~94.56%,精確度(全力)為89.55%~90.33%。

        表1 CNN模型對(duì)全力及半力等速力矩-時(shí)間圖的區(qū)分結(jié)果Tab.1 The results of CNN models for identifying isokinetic moment of force-time diagrams under maximal effort and half the effort (%)

        3 討 論

        應(yīng)用等速技術(shù)判定配合程度的依據(jù),在于偽裝肌力檢測(cè)結(jié)果與配合相比更弱、變異性更大。反映在力矩-時(shí)間圖上,表現(xiàn)為全力配合的曲線具有更加平滑、規(guī)則的外觀,膝關(guān)節(jié)屈伸往復(fù)運(yùn)動(dòng)產(chǎn)生的連續(xù)性曲線具有非常相似的形狀,總是在關(guān)節(jié)達(dá)到最佳用力角度時(shí)產(chǎn)生峰力矩,在單峰前后曲線平穩(wěn)下降;而偽裝條件下由于刻意控制力量,曲線的形狀和幅度與全力配合時(shí)相比更加不一致,甚至若干波峰呈現(xiàn)不規(guī)則鋸齒狀[2,17,19]。肉眼觀察曲線的操作簡(jiǎn)便,但不足以分辨受試者的配合程度[4]。這是因?yàn)橐曈X(jué)評(píng)估涉及檢測(cè)人員之間及其內(nèi)部的變異性。分類結(jié)果受到主觀影響,準(zhǔn)確率與經(jīng)驗(yàn)有關(guān),經(jīng)驗(yàn)較少者正確率也相應(yīng)更低。由于圖形變異性的界定標(biāo)準(zhǔn)存在爭(zhēng)議,檢測(cè)人員可能傾向于將更多的圖形歸類為正常與異常的中間地帶[17-19]。此外,大量的分類工作加重了鑒定人員的工作負(fù)擔(dān),使其更易疲勞,產(chǎn)生負(fù)面影響。因此,本研究引入CNN模型,希望通過(guò)對(duì)大量等速力矩-時(shí)間圖的學(xué)習(xí)總結(jié)規(guī)律,達(dá)到鑒別配合與偽裝用力的目的。

        CNN可以自動(dòng)提取圖像特征,訓(xùn)練過(guò)程不受疲勞影響,分類結(jié)果更加客觀、可靠。在實(shí)際應(yīng)用中操作簡(jiǎn)便、效率高,只需輸入力矩-時(shí)間圖即能得出分類結(jié)果。對(duì)于缺乏經(jīng)驗(yàn)者,可把分類結(jié)果作為參考,有助于提高鑒定準(zhǔn)確性。本研究中訓(xùn)練階段的學(xué)習(xí)率為1×10-4,迭代次數(shù)達(dá)4 000次時(shí)準(zhǔn)確率已穩(wěn)定于高值,故選取此時(shí)的模型用于圖像預(yù)測(cè)。盡管訓(xùn)練集的圖像數(shù)有限,本研究最終3次隨機(jī)取樣訓(xùn)練的CNN模型分類準(zhǔn)確率分別為91.11%、90.49%和92.08%(表1),均高于90%,只有少量圖像被錯(cuò)誤分類,可以達(dá)到具有3年以上等速經(jīng)驗(yàn)的臨床專家平均區(qū)分水平[17],這表明該CNN模型在識(shí)別全力和半力等速力矩-時(shí)間圖像方面初步取得較好的效果。該模型預(yù)測(cè)的靈敏度數(shù)值相對(duì)較低,特異性相對(duì)較高(表1),表明該模型對(duì)測(cè)試集中配合圖像的識(shí)別效果更好,有很少的配合圖像被錯(cuò)誤地預(yù)測(cè)為偽裝,而有相對(duì)更多的偽裝圖像被錯(cuò)誤地預(yù)測(cè)為配合。

        本研究以健康青年為對(duì)象,因其依從性高,沒(méi)有損傷、疾病等因素的干擾,更易獲得具有代表性的圖像[20]。同時(shí),有研究[7]證實(shí),膝關(guān)節(jié)附近損傷者的傷側(cè)與健側(cè)肢體在全力配合時(shí)產(chǎn)生的等速力矩-時(shí)間圖類型相同,均與偽裝圖形具有較大區(qū)別。因此,應(yīng)用健康受試者等速力矩-時(shí)間圖建立的CNN模型對(duì)于這類損傷者理應(yīng)具有適用性。測(cè)試中的偽裝條件設(shè)置為自我感知的50%全力,這一用力程度常用于模擬偽裝,其力矩圖形與全力相比具有較明顯的差異[2,19]。選擇30°/s和60°/s的速度條件同樣基于先前的研究,適用于健康人群及膝關(guān)節(jié)損傷者的肌力檢測(cè),并可獲取典型的等速曲線[1,7,17,21]。由于這兩種角速度下的力矩-時(shí)間圖類型相同,故圖像分析時(shí)不考慮速度條件,僅對(duì)受試者的努力程度進(jìn)行分類。本研究為兩次相同的重復(fù)性測(cè)試,執(zhí)行標(biāo)準(zhǔn)化流程,預(yù)先向受試者說(shuō)明實(shí)驗(yàn)步驟,正式測(cè)試前進(jìn)行適度熱身,并在測(cè)試過(guò)程中給予口頭鼓勵(lì),從而削弱了可能出現(xiàn)的學(xué)習(xí)效應(yīng)、不熟悉實(shí)驗(yàn)操作或心理因素等對(duì)檢測(cè)結(jié)果的干擾[1-2]。

        詐癱鑒別是法醫(yī)臨床學(xué)中極富挑戰(zhàn)性的難題,等速技術(shù)動(dòng)態(tài)、客觀、安全的特性為之提供了新的解決思路?;谌梭w對(duì)肌肉離心運(yùn)動(dòng)控制力較向心運(yùn)動(dòng)更弱的生理特性,許多研究采用等速相關(guān)參數(shù)DEC區(qū)分努力程度,DEC指標(biāo)準(zhǔn)運(yùn)動(dòng)范圍內(nèi)兩個(gè)不同測(cè)試速度下離心-向心力矩之比的差值,已經(jīng)被證實(shí)能夠識(shí)別受試者的亞最大偽裝肌力[22-23]。也有研究從圖像中提取參數(shù)作為鑒別指標(biāo),例如ALMOSNINO等[1-2]應(yīng)用描述力矩曲線形狀相似性的互相關(guān)函數(shù)和量化曲線幅度差異的均方根差值百分比來(lái)制定決策方案,有助于明確受試者在測(cè)試時(shí)發(fā)揮全力。值得注意的是,上述方法需要計(jì)算額外參數(shù),可靠性尚需進(jìn)一步論證。同時(shí),這些參數(shù)存在個(gè)體異質(zhì)性,基于特定健康人群測(cè)試結(jié)果所計(jì)算的臨界值無(wú)法直接用于其他群體,更不能用于傷者。

        本研究引入深度學(xué)習(xí)的概念,建立的CNN模型對(duì)全力配合與半力偽裝的力矩-時(shí)間圖的分類準(zhǔn)確率在90%以上,有助于鑒定人員發(fā)現(xiàn)偽裝現(xiàn)象,但仍然存在誤判的可能。造成少數(shù)圖像分類錯(cuò)誤的原因主要包括以下幾點(diǎn):首先,部分受試者力量較弱或存在注意力發(fā)散、疲勞等影響因素,配合運(yùn)動(dòng)時(shí)無(wú)法始終維持全力,在力矩-時(shí)間圖中形成非特異性雜峰。其次,本研究采用的CNN模型要求輸入圖像具有相同的長(zhǎng)寬比,原本峰值偏低的偽裝圖像經(jīng)過(guò)拉伸后,可能呈現(xiàn)類似配合圖像的形狀。此外,鑒定所用的力矩-時(shí)間圖同時(shí)包含膝關(guān)節(jié)屈肌和伸肌運(yùn)動(dòng)的部分,受到重力輔助的影響,屈肌運(yùn)動(dòng)比伸肌更難維持最大肌力,變異性更大,可能干擾分類效果[24]。在法醫(yī)學(xué)鑒定中,將受試者的最大用力錯(cuò)誤地歸類為偽裝會(huì)造成嚴(yán)重的后果。因此,在今后的研究中,還需不斷完善CNN模型,改進(jìn)實(shí)驗(yàn)方案,增加訓(xùn)練集圖像數(shù)目,從而進(jìn)一步提高分類準(zhǔn)確性。

        猜你喜歡
        模型
        一半模型
        一種去中心化的域名服務(wù)本地化模型
        適用于BDS-3 PPP的隨機(jī)模型
        提煉模型 突破難點(diǎn)
        函數(shù)模型及應(yīng)用
        p150Glued在帕金森病模型中的表達(dá)及分布
        函數(shù)模型及應(yīng)用
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        3D打印中的模型分割與打包
        亚洲a无码综合a国产av中文| 连续高潮喷水无码| 成人免费丝袜美腿视频| sm免费人成虐漫画网站| 人妻体内射精一区二区三区| 中文国产日韩欧美二视频| 伊人久久一区二区三区无码| 少妇放荡的呻吟干柴烈火动漫| 亚洲第一看片| 性色av手机在线观看| 国产区女主播一区在线| 波多野结衣的av一区二区三区| 又大又粗弄得我出好多水| 亚洲欧美成人久久综合中文网| 青青草好吊色在线观看| 色偷偷亚洲第一成人综合网址| 少妇极品熟妇人妻无码| 白白青青视频在线免费观看| 日本久久精品福利视频| 亚洲国产精品无码专区| 日韩国产精品一区二区Hd| 秀人网嫩模李梓熙大尺度| 精品一区二区三区蜜桃麻豆| 亚洲av福利无码无一区二区| 狠狠久久精品中文字幕无码| 在线播放偷拍一区二区| 香蕉成人伊视频在线观看| 夜夜躁狠狠躁2021| 一本大道久久a久久综合| 最新日本久久中文字幕| 真人抽搐一进一出视频| av蓝导航精品导航| AV中文码一区二区三区| 日本一二三四区在线观看| 国产aⅴ无码专区亚洲av麻豆| 国产成人精品三级麻豆| 一区二区三区av资源网| 2018天天躁夜夜躁狠狠躁| 国产精品区一区第一页| 一区二区特别黄色大片| 一本一道久久精品综合|