摘要:基于面部視頻的心跳檢測(cè)能夠提升面部識(shí)別技術(shù)的可信度,在軍事領(lǐng)域中具有對(duì)抗面部偽裝、判斷真假人目標(biāo)、鑒定偽造視頻等應(yīng)用潛力。然而,現(xiàn)有基于視頻的心跳檢測(cè)算法存在運(yùn)算量較大的問(wèn)題,限制了其在低運(yùn)算能力條件下的實(shí)時(shí)應(yīng)用。本文分析了算法原理和關(guān)鍵步驟的時(shí)延,并提出了兩種低運(yùn)算量的基于插值運(yùn)算的算法,分別是RGB-FFT算法和RGB-ICA-FFT算法。經(jīng)過(guò)測(cè)試,在幀速率為5 fps的情況下,插值RGB-FFT算法的運(yùn)算量最小;插值RGB-ICA-FFT算法在精度上與幀速率為15 fps的RGB-ICA-FFT算法相當(dāng),但運(yùn)算量低61%。
關(guān)鍵詞:心跳檢測(cè);人臉識(shí)別;獨(dú)立成分分析
中圖分類(lèi)號(hào):TP391.41文獻(xiàn)標(biāo)識(shí)碼: ADOI:10.3969/j.issn.1007-791X.2024.03.0060引言
隨著社會(huì)的發(fā)展,面部識(shí)別技術(shù)在各個(gè)領(lǐng)域得到了廣泛的應(yīng)用[1],例如安保工作中的人臉識(shí)別功能以及無(wú)人機(jī)通過(guò)面部識(shí)別實(shí)現(xiàn)精確狙殺等。據(jù)報(bào)道,在俄烏沖突中,烏克蘭軍隊(duì)已經(jīng)應(yīng)用無(wú)人機(jī)面部識(shí)別技術(shù)對(duì)俄羅斯軍隊(duì)的高級(jí)指揮員進(jìn)行精準(zhǔn)狙殺。由此可見(jiàn),為了提升面部識(shí)別技術(shù)的可信度,加入特定的生理特征識(shí)別是一種非常有效的方法。美國(guó)軍方已經(jīng)開(kāi)發(fā)了基于心跳特征的遠(yuǎn)程身份識(shí)別系統(tǒng)[2],該系統(tǒng)能夠有效克服面部偽裝帶來(lái)的干擾。因此,基于面部視頻獲取心跳數(shù)據(jù)成為了增強(qiáng)面部識(shí)別技術(shù)的一個(gè)重要研究方向。
在偵查領(lǐng)域,利用攝像頭和基于面部的心跳檢測(cè)算法,通過(guò)心跳信息是否存在,可以判定目標(biāo)是否為假人模型。另外,基于面部視頻獲取心跳信息,可以對(duì)Deepfake技術(shù)制作的偽造視頻進(jìn)行鑒別[3]。
G. Balakrishnan通過(guò)觀察垂直頭部運(yùn)動(dòng)來(lái)檢測(cè)心率[4],但是需要被測(cè)量者保持靜止。,限制了實(shí)際應(yīng)用場(chǎng)景。H. Y. Wu通過(guò)放大幀之間的微小變化來(lái)顯示脈搏引起的面部顏色變化[5],但該方法無(wú)法進(jìn)行準(zhǔn)確的數(shù)值測(cè)量。W. Verkruysse等發(fā)現(xiàn)在彩色視頻中可以檢測(cè)到光電體積描記信號(hào)(Photo Plethysmo Graphy, PPG)[6]。該信號(hào)可以在面部和額頭皮膚的彩色視頻的紅、綠、藍(lán)通道中檢測(cè)到,其中綠色通道中信號(hào)最強(qiáng)。然而,這種光信號(hào)容易受到環(huán)境光和運(yùn)動(dòng)引起的干擾,導(dǎo)致結(jié)果不夠準(zhǔn)確。M. Z. Poh等人發(fā)現(xiàn),通過(guò)在RGB三通道上應(yīng)用盲源分離算法,如獨(dú)立分量分析(Independent Component Analysis, ICA),可以將獨(dú)立的源信號(hào)從混合顏色信號(hào)中分離出來(lái),從而更好地提取心跳信號(hào)[7]。王一丁等人引入了多特征區(qū)域,并利用ICA算法在多個(gè)區(qū)域進(jìn)行計(jì)算,以降低光照不均勻的影響,但這也增加了計(jì)算量[8]。楊雯在心跳檢測(cè)中引入卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN),提高了心跳測(cè)量的精度,但是CNN網(wǎng)絡(luò)不適合在嵌入式系統(tǒng)實(shí)現(xiàn)[9]。現(xiàn)有的視頻心跳算法主要致力于提高精度,但這往往導(dǎo)致算法的運(yùn)算量增大,限制了其在實(shí)際應(yīng)用場(chǎng)景中的使用。
在利用面部視頻獲取心跳前,需要確定面部范圍,文獻(xiàn)[10]提出融合紋理特征、顏色特征、形狀特征三類(lèi)特征的AdaBoost算法,該算法與深度學(xué)習(xí)模型相識(shí)別效果相似。文獻(xiàn)[11-13]提出在AdaBoost算法的基礎(chǔ)上,使用Haar-like小波特征和積分圖方法進(jìn)行人臉檢測(cè),并對(duì)AdaBoost訓(xùn)練出的強(qiáng)分類(lèi)器進(jìn)行級(jí)聯(lián),最終形成了OpenCV的Haar分類(lèi)器算法。
根據(jù)市場(chǎng)上30倍光學(xué)變焦鏡頭的焦距范圍為0.98~300 mm的情況,以距離人臉100 m處為例,假設(shè)焦距為45 mm(水平視角為6°),則攝像頭可以用4 000個(gè)像素覆蓋寬度為10.4 m的區(qū)域。假設(shè)人臉寬度為0.21 m,因此整張人臉約由4 800個(gè)像素組成,在這樣條件下,本文提出了適合低運(yùn)算能力條件的低運(yùn)算量的RGB-FFT算法和RGB-ICA-FFT算法。
1低運(yùn)算量的面部心跳檢測(cè)算法
1.1基本原理
皮膚內(nèi)的血液容積會(huì)在心臟的作用下呈搏動(dòng)性變化。當(dāng)心臟收縮時(shí)外周血容量最多,綠色光吸收量也最大,反射的綠光強(qiáng)度就最??;而在心臟舒張時(shí),反射到綠光強(qiáng)度最大。除了綠光變化外,紅色變化不如綠光強(qiáng)烈,但也會(huì)有變化,心臟收縮時(shí),反射的紅光強(qiáng)度大;心臟舒張時(shí),反射的紅光強(qiáng)度小。心跳會(huì)造成人臉?lè)秶募t色、綠色的變化。通過(guò)分析面部的紅綠色的變化,就能得到心跳信號(hào)。
1.1.1人臉檢測(cè)及序列生成
本算法使用OpenCV的cv2.CascadeClassifier加載haarcascade_frontalface_default.xml進(jìn)行人臉?lè)秶拇_定。OpenCV的Haar分類(lèi)器算法的要點(diǎn):Haar-like特征;利用積分圖(Integral Image)對(duì)Haar-like特征求值;AdaBoost算法訓(xùn)練強(qiáng)分類(lèi)器;使用篩選式級(jí)聯(lián)把強(qiáng)分類(lèi)器級(jí)聯(lián)。
在使用分類(lèi)器前,將抓取的幀,轉(zhuǎn)變?yōu)榛叶刃盘?hào),用來(lái)降低處理量。
分類(lèi)器反饋了人臉?lè)秶?。根?jù)分類(lèi)器反饋的人臉?lè)秶?,繼續(xù)對(duì)人臉?lè)秶M(jìn)行一定比例的縮小,用來(lái)降低人臉附近像素的影響。
攝像頭以幀速率頻率生成圖像幀。對(duì)于每一個(gè)圖像幀,確定面部范圍,對(duì)面部范圍的所有像素點(diǎn)求出空間均值,得到3個(gè)值,分別代表紅綠藍(lán)的3種顏色的強(qiáng)度,強(qiáng)度范圍在0~255之間。
如果幀速率F=15 fps,在時(shí)間周期T=30 s內(nèi),就會(huì)得到T·F=450組紅綠藍(lán)數(shù)據(jù),這些數(shù)據(jù)形成RGB序列,為了便于人眼區(qū)分,圖1顯示了RGB序列中的3 s時(shí)長(zhǎng)部分。
對(duì)RGB序列進(jìn)行預(yù)處理:分別利用3個(gè)時(shí)間序列的各自的均值,將RGB值的時(shí)間序列轉(zhuǎn)變?yōu)?均值序列。例如紅色序列的轉(zhuǎn)換公式為R′t=Rt-μR,(1)其中,R′t代表紅色0均值序列,Rt代表原始紅色序列,μR代表紅色序列在時(shí)間周期內(nèi)的平均值。RGB序列去均值后的R′G′B′,為了便于人眼區(qū)分,圖2顯示了R′G′B′序列中的3 s時(shí)長(zhǎng)部分。
1.1.2RGB-FFT算法
對(duì)R′G′B′直接進(jìn)行FFT,得到3個(gè)FFT結(jié)果。在0.8~4 Hz范圍內(nèi),某一個(gè)信號(hào)的最大能量的頻點(diǎn),認(rèn)為是心跳頻率,本文后面簡(jiǎn)稱(chēng)心率。以X軸為頻率,Y軸為對(duì)數(shù)坐標(biāo)的頻率能量,做出圖3,為了便于人眼區(qū)分,圖3顯示了0.8~2 Hz部分。在圖中得到的心跳頻率為1.2 Hz,也就是心跳72次/min。面部的顏色除了包括心跳信息外,還有光源信號(hào)、環(huán)境信號(hào)造成的影響,因此效果較差。
1.1.3RGB-ICA-FFT算法
為了消除光源信號(hào)、環(huán)境信號(hào)的影響,采用ICA算法,對(duì)算法處理后的信號(hào),進(jìn)行FFT獲取心跳頻率,效果較好,但是運(yùn)算量大。
ICA算法描述:攝像頭存在色彩校正處理,使得攝像頭的光譜響應(yīng),類(lèi)似人眼的光譜響應(yīng),根據(jù)文獻(xiàn)[12],一般使用的攝像頭,光譜響應(yīng)如圖4所示。
由于攝像頭RGB光譜響應(yīng)有重疊,因此心跳造成的人臉?lè)秶牡木G色、紅色變化,按照?qǐng)D4的響應(yīng)曲線(xiàn),被攝像頭按不同的權(quán)重記錄在RGB的3個(gè)信道中。RGB的3個(gè)信道,還記錄了心跳外因素,例如光源、環(huán)境反射造成的變化。
心跳、光源、環(huán)境反射是統(tǒng)計(jì)獨(dú)立的,可以假定為非高斯信號(hào)。這些因素造成了人臉區(qū)域的顏色變化。顏色變化被RGB傳感器得到,生成這些因素混合作用后的RGB信號(hào),根據(jù)大數(shù)定理,RGB信號(hào)在統(tǒng)計(jì)上具有高斯性。因此可以利用ICA算法,獲得3個(gè)獨(dú)立成分信號(hào)。
在進(jìn)行ICA算法前,需要對(duì)R′G′B′去相關(guān)性處理。以窗口時(shí)長(zhǎng)30 s,F(xiàn)=15 fps為例:
計(jì)算協(xié)方差矩陣
為了從X中恢復(fù)出獨(dú)立的非高斯信號(hào),首先定義非高斯性評(píng)估函數(shù)f(u)、評(píng)估函數(shù)的一階導(dǎo)數(shù)g(u)、評(píng)估函數(shù)的二階導(dǎo)數(shù)g′(u):
為了恢復(fù)出3個(gè)獨(dú)立成分信號(hào)S,設(shè)W為3×3矩陣:W=[w1 w2 w3],w1,w2,w3為3維列向量,則S=WTX,其中,w1,w2,w3的偽代碼解法如下(1450表示全1的450維列向量):
其中,p=1,2,3,Wp初始化為隨機(jī)值,Wp未收斂,恢復(fù)出來(lái)的3個(gè)獨(dú)立成分信號(hào)S的時(shí)間序列如圖6,注意到ICA算法的特性,并不知道哪一個(gè)信號(hào)是心跳信號(hào)。為了便于人眼區(qū)分,圖6顯示了序列中的3 s時(shí)長(zhǎng)部分。
對(duì)經(jīng)過(guò)ICA算法得到3個(gè)獨(dú)立成分信號(hào)的時(shí)間序列進(jìn)行FFT計(jì)算,得到3個(gè)FFT結(jié)果。由于心跳范圍在40~240次/min之間,因此將在0.8~4 Hz范圍內(nèi),某一個(gè)信號(hào)的最大能量的頻點(diǎn),認(rèn)為是心跳頻率。以X軸為頻率,Y軸為對(duì)數(shù)坐標(biāo)的頻率能量,做出圖7,為了便于人眼區(qū)分,圖7顯示了0.8~2 Hz部分,得到的心跳頻率為1.2 Hz,也就是心跳72次/min。從圖中可以看出3個(gè)信號(hào)的頻譜強(qiáng)度相對(duì)于圖3有了明顯區(qū)分。
1.2運(yùn)算量分析
在i5-8265U@1.60GHz,8G內(nèi)存下,關(guān)鍵算法步驟的耗時(shí)統(tǒng)計(jì)如表1所示。
人臉檢測(cè)需要每幀進(jìn)行一次,而ICA、FFT算法每秒調(diào)用一次,就可以滿(mǎn)足心跳檢測(cè)的實(shí)時(shí)需求。基于此,以表1的算法耗時(shí)的最大值進(jìn)行分析,不同算法的耗時(shí)如表2所示。
從1.1基本原理描述中,可以預(yù)估在F=15 fps、RGB-ICA-FFT算法效果最好,但運(yùn)算量最大;F=5 fps的RGB-FFT效果最差,但運(yùn)算量最小。根據(jù)表2,降低運(yùn)算量的關(guān)鍵在于降低幀速率。
1.3算法流程
基于1.2節(jié)的算法耗時(shí)分析,采用F=5 fps可以降低算法耗時(shí),因此低運(yùn)算量算法使用F=5 fps,算法由2個(gè)線(xiàn)程組成。
第1個(gè)線(xiàn)程完成人臉?lè)秶鷥?nèi)像素均值的計(jì)算,執(zhí)行周期為每幀執(zhí)行一次,具體流程如算法線(xiàn)程1所示:
算法線(xiàn)程1:人臉?lè)秶鷥?nèi)均值計(jì)算(每幀一次)
1) 從攝像機(jī)中取得一幀圖像;
2) 確定人臉?lè)秶?/p>
3) 對(duì)人臉?lè)秶鷥?nèi)像素進(jìn)行計(jì)算,取得人臉?lè)秶鷥?nèi)的RGB均值;
4) 返回第1)步。
第2個(gè)線(xiàn)程完成心跳的提取,執(zhí)行周期為每秒執(zhí)行一次。對(duì)R′G′B′序列進(jìn)行2倍插值后,采用RGB-ICA-FFT或RGB-FFT算法進(jìn)行分析,分別用5a)和5b)表示,具體流程如算法線(xiàn)程2所示:
算法線(xiàn)程2:心跳提?。棵胍淮危?/p>
1) 判斷是否獲得窗口時(shí)間(例如30 s)內(nèi)各個(gè)幀的RGB均值;
2) 如果窗口時(shí)間長(zhǎng)度不夠,返回第1)步;
3) 如果窗口時(shí)間滿(mǎn)足,對(duì)一段時(shí)間的RGB序列去均值,轉(zhuǎn)變?yōu)榫禐?的R′G′B′序列;
4) 對(duì)R′G′B′序列進(jìn)行2倍插值;
5a) RGB-ICA-FFT算法:對(duì)R′G′B′利用ICA算法獲得3個(gè)獨(dú)立成分信號(hào);對(duì)3個(gè)獨(dú)立成分信號(hào)進(jìn)行FFT;或
5b) RGB-FFT算法:對(duì)R′G′B′序列進(jìn)行FFT;
6) 在心跳頻率范圍內(nèi),找到某1個(gè)信號(hào)的最大能量所在的頻點(diǎn),認(rèn)為這個(gè)頻點(diǎn)就是心跳;
7) 返回第1)步。
2低運(yùn)算量算法的測(cè)試
對(duì)1.3節(jié)描述的低運(yùn)算量算法,采用同一個(gè)錄像進(jìn)行測(cè)試。錄像采用F=15 fps進(jìn)行錄制,時(shí)長(zhǎng)為67 s,心跳實(shí)際范圍在70~75之間。為了模擬F=5 fps的情況,對(duì)錄像幀每3幀提取1幀進(jìn)行分析。
2.1插值RGB-FFT和插值RGB-ICA-FFT對(duì)比在F=5 fps情況下,進(jìn)行2倍線(xiàn)性插值后,采用RGB-FFT、RGB-ICA-FFT算法的效果如圖8和圖9所示。
根據(jù)表3可知,在F=5 fps的情況下,采用RGB-ICA-FFT算法,運(yùn)算量比RGB-FFT提高26.9%,但是心跳結(jié)果的標(biāo)準(zhǔn)差表明,插值RGB-ICA-FFT算法效果更好。需要注意的是,如果運(yùn)算量非常緊張,采用插值RGB-FFT算法得到的心跳均值也有一定的參考價(jià)值。
2.2RGB-ICA-FFT不同插值算法的比較
在算法線(xiàn)程2的步驟4中,對(duì)抽樣得到F=5 fps的錄像幀,采用不同的插值算法,進(jìn)行2倍的插值其均值、標(biāo)準(zhǔn)差如表4所示。
1) 采用線(xiàn)性插值,分析的心跳結(jié)果如圖10所示。
2) 采用二階插值,使得時(shí)間序列的一次導(dǎo)數(shù)連續(xù),分析的心跳結(jié)果如圖11所示。
3) 采用三階插值,使得時(shí)間序列的一次、二次導(dǎo)數(shù)連續(xù),分析的心跳結(jié)果如圖12所示。
4) 作為比較,采用F=15 fps,進(jìn)行RGB-ICA算法的結(jié)果如圖13所示。
5) 作為比較,采用F=5 fps,不進(jìn)行插值,RGB-ICA算法的結(jié)果如圖14所示。
表4表明,在F=5 fps插值RGB-ICA-FFT情況下,對(duì)RGB序列進(jìn)行線(xiàn)性插值、二次插值、三次插值比不進(jìn)行插值有明顯改善,其中二次插值效果最好,甚至比F=15 fps的不插值RGB-ICA-FFT算法效果還要好,原因在于插值就相當(dāng)于進(jìn)行了低通濾波,消除了一些噪聲。根據(jù)表2,不插值F=15 fps的運(yùn)算量比插值F=5 fps的運(yùn)算量大156.9%左右。
3結(jié)論與展望
本文針對(duì)現(xiàn)有心跳檢測(cè)算法運(yùn)算量大的缺點(diǎn),提出了運(yùn)算量低的實(shí)時(shí)檢測(cè)心跳算法:插值RGB-FFT算法和插值RGB-ICA-FFT算法。
經(jīng)過(guò)測(cè)試對(duì)比,得到結(jié)論如下:
1) F=5 fps的插值RGB-FFT算法,可以得到心跳的均值,此時(shí)運(yùn)算量最低,心跳標(biāo)準(zhǔn)差較大;
2) F=5 fps的插值RGB-ICA-FFT算法,效果比插值RGB-FFT明顯改善,獲得與F=15 fps的RGB-ICA-FFT算法類(lèi)似的精度,可以用來(lái)準(zhǔn)確計(jì)算心跳頻率;
3) 優(yōu)選F=5 fps的二階插值RGB-ICA-FFT算法,在準(zhǔn)確性和運(yùn)算量達(dá)到平衡。
由于運(yùn)算量的降低,對(duì)視頻流中出現(xiàn)的多張人臉可以實(shí)時(shí)進(jìn)行分析,利用心跳結(jié)果,能夠分辨出真假人目標(biāo)、發(fā)現(xiàn)心跳異常人員;同時(shí)降低運(yùn)算量也意味降低功耗,延長(zhǎng)了無(wú)人機(jī)等遠(yuǎn)端偵查設(shè)備的工作時(shí)間。
本文的算法不足之處在于,需要基于30 s的窗口數(shù)據(jù)才能分析心跳,這樣降低了算法反應(yīng)速度,后續(xù)建議優(yōu)化算法來(lái)降低窗口的長(zhǎng)度。在利用心跳特征進(jìn)行身份識(shí)別方面,需要進(jìn)一步分析和收集心跳的特征。
參考文獻(xiàn)
[1] 劉豐, 于洋, 郭璇, 等. 無(wú)人機(jī)自主著艦技術(shù)研究 [J]. 燕山大學(xué)學(xué)報(bào), 2022, 46(4): 353-361.
LIU F, YU Y, GUO X, et al. Research on autonomous landing technology of UAV [J]. Journal of Yanshan University, 2022, 46(4): 353-361.
[2] MIT Technology Review.The Pentagon has a laser that can identify people from a distance—by their heartbeat[EB/OL].(2019-06-27)[2023-11-24].https://www.technologyreview.com/2019/06/27/238884/the-pentagon-has-a-laser-that-can-identify-people-from-a-distanceby-their-heartbeat/.
[3] CIFTCI U A, DEMIR I, YIN L. Fakecatcher: detection of synthetic portrait videos using biological signals[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2021,31(5):574-577.
[4] BALAKRISHNAN G, DURAND F, GUTTAG J. Detecting pulse from head motions in video[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition," Portland,USA, 2013: 3430-3437.
[5] WU H Y, RUBINSTEIN M, SHIH E, et al. Eulerian video magnification for revealing subtle changes in the world[J]. ACM Transactions on Graphics, 2012, 31(4):1-8.
[6] WIM V, VERKRUYSSE L, NELSON J, et al. Remote plethysmographic imaging using ambient light [J]. Optics Express, 2008,16 (26): 21434-45.
[7] POH M Z, MCDUFF D J, PICARD R W. Non-contact, automated cardiac pulse measurements using video imaging and blind source separation[J]. Optics Express, 2010, 18(10): 10762-10774.
[8] 王一丁, 李飛虎. 多特征區(qū)域FastICA的非接觸式心率檢測(cè)[J]. 計(jì)算機(jī)系統(tǒng)應(yīng)用, 2020, 30(1): 154-161.
WANG Y D, LI F H. Non-contact heart rate detection of multi-feature area FastICA [J]. Computer Systems amp; Applications, 2020, 30(1): 154-161.
[9] 楊雯. 基于人臉視頻的非接觸式心測(cè)量算法的研究與實(shí)現(xiàn) [D]. 北京:北京郵電大學(xué), 2019.
YANG W. Research and implementation of non-contact heart rate measurement algorithm based on face video [D]. Beijing:Beijing University of Posts and Telecommunications, 2019.
[10] 趙穎, 李玉雙, 武小榮. 基于舌圖像多特征融合與機(jī)器學(xué)習(xí)的裂紋舌識(shí)別算法 [J]. 燕山大學(xué)學(xué)報(bào), 2022, 46(6): 522-528.
ZHAO Y, LI Y S, WU X R. Crack tongue recognition algorithm based on tongue image multi-features fusion and machine learning [J]. Journal of Yanshan University, 2022, 46(6): 522-528.
[11] ALI S, RAHIM M S M, ANISI Y, et al. A general review of human face detection including a study of neural networks and haar feature-based cascade classifier in face detection[C]//2014 International Symposium on Biometrics and Security Technologies, Kuala Lumpur, Malaysia, 2014: 73-78.
[12] VIOLA P A, JONES M J. Rapid object detection using a boosted cascade of simple features[C]//Proceedings of the 2001 IEEE Computer Society Conference on Computer Vision and Pattern Recognition,Kauai,USA,2001:511-518.
[13] LIENHART R, KURANOV A, PISAREVSKY V. Empirical analysis of detection cascades of boosted classifiers for rapid object detection[C]//Pattern Recognition: 25th DAGM Symposium,Magdeburg, Germany, 2003: 297-304.
[14] PAGNUTTI M, RYAN R E, CAZENAVETTE G, et al. Laying the foundation to use Raspberry Pi 3 V2 camera module imagery for scientific and engineering purposes [J]. Journal of Electronic Imaging, 2017, 26(1):013014.
Low-Computation heartbeat detection based on facial video
Abstract: Heartbeat detection based on facial videos can enhance the credibility of facial recognition technology, enabling applications in military domains such as countering facial disguises, distinguishing between real and fake targets, and identifying forged videos. However, existing video-based heartbeat detection algorithms suffer from high computational complexity, limiting their real-time applicability under low computational capabilities. In this paper, the algorithm principles and the time delay of key steps are analyzed, and two low-complexity algorithms based on interpolation are proposed:the RGB-FFT algorithm and the RGB-ICA-FFT algorithm. Through testing, it is found that the interpolated RGB-FFT algorithm has the lowest computational complexity at a frame rate of 5 fps. The interpolated RGB-ICA-FFT algorithm achieves comparable accuracy to the RGB-ICA-FFT algorithm at a frame rate of 15 fps, but with a 61% reduction in computational complexity.
Keywords: heartbeat detection; face recognition;independent component analysis