亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于特征融合的行人重識(shí)別算法

        2020-05-30 03:21:36錢華明王帥帥王晨宇
        應(yīng)用科技 2020年2期
        關(guān)鍵詞:集上識(shí)別率直方圖

        錢華明,王帥帥,王晨宇

        哈爾濱工程大學(xué) 自動(dòng)化學(xué)院,黑龍江 哈爾濱 150001

        行人重識(shí)別是指利用計(jì)算機(jī)視覺(jué)技術(shù)來(lái)判斷攝像機(jī)拍攝的不同行人圖像或視頻中同一身份行人的處理過(guò)程。當(dāng)前行人重識(shí)別主要包括特征表示和相似度計(jì)算2 個(gè)階段。研究發(fā)現(xiàn),當(dāng)前監(jiān)控視頻中的行人圖像在尺度、視角和光照不同時(shí)有很大的變化[1],這些變化導(dǎo)致即使是同一個(gè)行人的圖像仍然有較大的差別。如何更好地描述行人的特征成為行人重識(shí)別技術(shù)關(guān)鍵的一步。

        在特征表達(dá)方面,文獻(xiàn)[2]采用整體特征進(jìn)行重識(shí)別,并在數(shù)據(jù)集上得到驗(yàn)證;L.Bazzani 等[3]采用了顏色特征進(jìn)行識(shí)別,并隨機(jī)選取了視頻幀來(lái)處理多幀圖像,準(zhǔn)確率有了很大提高;文獻(xiàn)[4]把圖像的空間直方圖作為整體特征,將HOG 特征作為局部特征,然后將二者進(jìn)行融合;Liu Chunxiao等[5]將加博變換(Gabor)特征和局部二值模式(local binary patterns,LBP)等綜合起來(lái)表述行人圖像;文獻(xiàn)[6]提出的局部對(duì)稱積累特征提升了視角變化的魯棒性;隨著深度學(xué)習(xí)的的發(fā)展,文獻(xiàn)[7]對(duì)圖像采用深度學(xué)習(xí)的方法來(lái)提取行人特征,極大提高了行人重識(shí)別的精度。

        針對(duì)現(xiàn)有重識(shí)別算法存在的不足,本文采用新的特征融合算法來(lái)進(jìn)行重識(shí)別。同時(shí)為了提高較大數(shù)據(jù)量下行人檢測(cè)的效率,提出了先進(jìn)行預(yù)識(shí)別的策略。因?yàn)槭褂脝蝹€(gè)特征不能很好地描述行人,多種特征結(jié)合才能提高識(shí)別效果?,F(xiàn)擬采用多個(gè)特征融合的方法,使用新的特征融合策略,將低級(jí)特征與中級(jí)特征結(jié)合在一起,然后進(jìn)行相似度計(jì)算,得到最終識(shí)別結(jié)果。

        1 圖像預(yù)處理

        在實(shí)際監(jiān)控視頻中,不同監(jiān)控?cái)z像頭拍攝參數(shù)不同、環(huán)境條件和光照條件也有很大的改變等,這導(dǎo)致即使是同一個(gè)人,在不同的監(jiān)控設(shè)備上拍的照片會(huì)有很大的差別,這給重識(shí)別精度帶來(lái)了影響。為了更準(zhǔn)確的檢測(cè),本文采用的行人圖像尺寸都設(shè)為128 pix×48 pix(簡(jiǎn)寫為128×48)。然后使用Retina-Cortex(Retinex)算法[8]對(duì)檢測(cè)的行人圖片進(jìn)行處理。本文采取帶色彩恢復(fù)的多尺度視網(wǎng)膜增強(qiáng)(multi-scale retinex with color restoration,MSRCR)算法來(lái)處理圖片。此算法可以增強(qiáng)顏色特征,并且使圖像顏色不失真。本文使用5 和20這2 種尺度。圖1 為算法處理前的圖像,圖2 為增強(qiáng)后的圖像,可以看出:經(jīng)過(guò)圖像增強(qiáng)處理后,行人圖像的顏色更加鮮明,圖像更加清晰,視覺(jué)效果得到提升。

        圖1 處理前行人圖像

        圖2 處理后行人圖像

        2 行人重識(shí)別算法改進(jìn)

        2.1 特征選擇

        為了精確地識(shí)別出目標(biāo)行人,同時(shí)使用中級(jí)顏色特征CN 和一些低級(jí)特征綜合描述行人。其中低級(jí)特征包括整體特征和局部特征,整體特征即對(duì)整個(gè)行人圖像進(jìn)行特征提取,能夠得到圖像的整體信息。行人圖像因拍攝環(huán)境、亮度、光照等因素不同,特別是在人流量大的車站、商場(chǎng)等,行人很容易受到遮擋、變形的影響,這種情況下無(wú)法提取圖像的整體信息,導(dǎo)致特征匹配誤差很大。為了解決這個(gè)問(wèn)題,本文選取一些局部特征得到行人圖像的局部信息,減小行人因遮擋、形變帶來(lái)的誤差。

        整體特征:經(jīng)過(guò)研究,本文選取HSV 顏色特征和HOG 特征來(lái)提取行人的整體特征。它們?cè)趫D像領(lǐng)域有很多的應(yīng)用,HSV 特征能夠較好地表示行人外觀的顏色特征,可以彌補(bǔ)光照變化產(chǎn)生的不足[9];HOG 特征保證了即使行人有一些細(xì)微的身體動(dòng)作但不影響檢測(cè)結(jié)果,在與行人有關(guān)的識(shí)別中得到了很多應(yīng)用。

        局部特征:SILTP 特征是對(duì)傳統(tǒng)LBP 特征的優(yōu)化[10],SILTP 特征改進(jìn)了傳統(tǒng)LBP 特征對(duì)圖像噪聲敏感的缺點(diǎn),使之不僅有尺度不變性,同時(shí)減小了圖像噪聲。

        CN 顏色特征屬于低緯度的中級(jí)特征,對(duì)遮擋、光照等有魯棒性。它生成一個(gè)顏色命名空間,使我們可以使用簡(jiǎn)單的語(yǔ)義屬性來(lái)判斷顏色。

        2.2 HSV 空間非線性量化

        為了提高行人的檢測(cè)效率,提出了預(yù)識(shí)別的方法,分別檢測(cè)目標(biāo)圖像的上身與下身衣服顏色,再將符合條件的圖像進(jìn)行更深一步的檢測(cè)。

        語(yǔ)義屬性屬于中級(jí)特征,在解決行人重識(shí)別問(wèn)題中有很強(qiáng)的判別性。本設(shè)計(jì)擬采用簡(jiǎn)單的語(yǔ)義屬性進(jìn)行行人預(yù)識(shí)別,用來(lái)提高較大數(shù)據(jù)量下行人重識(shí)別的檢測(cè)效率。

        傳統(tǒng)的CN 特征是采用概率潛語(yǔ)義分析(probabilistic latent semantic analysis, PLSA)算法在一些圖片上進(jìn)行學(xué)習(xí)得到的,算法較復(fù)雜且不易實(shí)現(xiàn)。本文通過(guò)計(jì)算顏色直方圖表述行人特征。首先將行人圖像的顏色量化到常用的9 種具有代表性的顏色,然后計(jì)算目標(biāo)的顏色直方圖。

        本文采用了一種非線性量化方法。針對(duì)HSV 色彩空間的特點(diǎn),將HSV 空間劃分為黑、灰、白、紅、黃、藍(lán)、綠、青、紫等9 種基本顏色。為了更好地從HSV 空間劃分出上述9 種顏色各自所屬的顏色區(qū)域,采用產(chǎn)生式顏色表構(gòu)建方法,如表1 為顏色對(duì)照表的一部分。根據(jù)實(shí)際需要,把HSV 空間劃分成紅、黃、綠、青、藍(lán)、紫、黑、灰、白9 種顏色,并用不同的數(shù)值將其標(biāo)記,一個(gè)編碼對(duì)應(yīng)一種顏色,結(jié)果如表2 所示。

        表1 顏色對(duì)照表(V=40-45)

        表2 顏色標(biāo)記

        然后按照以下步驟操作:

        1)使用亮色分離策略分割HSV 顏色空間,按照明度V分量值的大小分成多個(gè)色盤Vi(i=1,2,…,m);

        通過(guò)上述3 個(gè)步驟即可確定出每種顏色各自的H、S、V這3 個(gè)分量的取值范圍。當(dāng)V≤40 時(shí),亮度太低,無(wú)論色調(diào)H和飽和度S的值如何變,該區(qū)域都因?yàn)榱炼忍统尸F(xiàn)黑色;40<V≤220 且飽和度滿足S<35 時(shí),將該區(qū)域設(shè)為灰色;當(dāng)V>220 且飽和度滿足S<25 時(shí),該區(qū)域視為白色。進(jìn)行人為標(biāo)記得到如表1 所示的顏色對(duì)照表。通過(guò)顏色對(duì)照表就可以得到HSV 空間的一個(gè)像素點(diǎn)到9 種顏色的映射,即將一個(gè)點(diǎn)映射成為一個(gè)9 維向量,利用此映射就可以對(duì)圖像進(jìn)行編碼。

        從表1 可知,每個(gè)色環(huán)的H值并不連續(xù),有些中間區(qū)域用人眼也很難確定屬于某種顏色。本文采取模糊量化的策略,分別計(jì)算與兩端相鄰顏色的匹配率,就能夠估計(jì)該區(qū)域?qū)儆诟黝伾惖母怕?,然后進(jìn)行顏色直方圖計(jì)算。

        通過(guò)查表,可以將一個(gè)像素點(diǎn)n同C個(gè)顏色類別進(jìn)行關(guān)聯(lián):u(n)={u1(n),u2(n),…,uC(n)},u(n)是像素點(diǎn)n屬于各個(gè)顏色類別的隸屬度向量,可以看出該向量可以較好地對(duì)行人進(jìn)行描述,同時(shí)可以作為一種語(yǔ)義特征進(jìn)行索引。圖3~5分別為行人圖像、Plsa 算法處理后圖像和本實(shí)驗(yàn)算法處理后圖像。

        圖3 行人圖像

        圖4 Plsa 算法處理圖像

        圖5 HSV 非線性量化算法處理圖像

        2.3 行人預(yù)識(shí)別

        本文根據(jù)行人上、下半身的主顏色信息進(jìn)行行人預(yù)識(shí)別。首先選取如圖6 所示的行人區(qū)域,通過(guò)遍歷A、B 區(qū)域內(nèi)的各個(gè)像素點(diǎn)來(lái)得到其在HSV 空間的3 個(gè)分量值,然后根據(jù)表1 采用的量化策略,計(jì)算Ci的總體數(shù)量,得到主顏色,完成了2 個(gè)區(qū)域主顏色的識(shí)別。

        圖6 行人預(yù)識(shí)別分區(qū)示例

        本文提出的行人預(yù)識(shí)別步驟如下:

        1)計(jì)算模板圖像A、B 部分的主顏色,分別記為QA、QB。

        2)計(jì)算待檢測(cè)行人上身的主顏色,記為TA,當(dāng)TA=QA時(shí),說(shuō)明2 張圖像的上身區(qū)域主顏色一致,繼續(xù)執(zhí)行步驟3)來(lái)計(jì)算下身區(qū)域;否則執(zhí)行步驟4)。

        3)計(jì)算下身區(qū)域B 的主顏色,記為TB。與模板圖像的主顏色進(jìn)行比較,如果TB=QB,說(shuō)明2 張圖像B 區(qū)域顏色一致,我們將該圖像設(shè)為待選擇目標(biāo)。

        4)下一幀圖像輸入,返回步驟2)重新識(shí)別新圖像。

        行人預(yù)識(shí)別步驟流程如圖7 所示。

        圖7 行人預(yù)識(shí)別步驟流程

        2.4 特征提取及融合

        由于環(huán)境、光照、姿勢(shì)等因素的影響,單一特征不能很好地表述行人,因此本文將多種特征進(jìn)行融合[11]來(lái)解決行人姿態(tài)變化、光照變化等產(chǎn)生的影響。我們采用直接串聯(lián)的方式對(duì)提取的特征進(jìn)行融合。假設(shè)t1、t2、t3、t4分別表示提取到的特征矩陣。則將它們?nèi)诤虾蟮奶卣鳛門=[t1t2t3t4]。

        首先采用現(xiàn)有算法提取HOG 整體特征[12]。同時(shí)本文選擇使用滑動(dòng)窗口法來(lái)提取圖像的局部特征和HSV 顏色特征。首先將每一張行人圖像按照大小水平分割分為30 個(gè)區(qū)域,每一塊尺寸為8×48,我們采用8 pix×8 pix(簡(jiǎn)寫為8×8)的窗口在行人圖像上依次滑動(dòng)。將步長(zhǎng)定為4,得到10 個(gè)重疊塊。

        在文獻(xiàn)[6]中我們得知當(dāng)bin 取10 時(shí),效果最差,是由于bin 為10 時(shí)誤差很大;當(dāng)bin 取40 時(shí),會(huì)因?yàn)閎in 太大發(fā)生過(guò)擬合;當(dāng)bin 為25 時(shí),效果最好。因此我們選擇bin=25 來(lái)進(jìn)行實(shí)驗(yàn)。我們對(duì)每個(gè)塊分別提取9 個(gè)維度的CN 空間特征,其中每個(gè)維度分成25 個(gè)bin,最后得到225 維的CN顏色特征直方圖。提取HSV 空間特征,HSV 特征有H、S、V3 個(gè)通道,將每個(gè)通道分為8 個(gè)bin,得到一個(gè)512 維的顏色直方圖。

        直方圖提取完成后,計(jì)算得到每個(gè)塊的直方圖的維度為225 維的CN 特征加上512 維的HSV特征,再加上162 維的紋理特征,得到一個(gè)899 維的特征。我們將對(duì)應(yīng)的維度相加,把區(qū)域中9 個(gè)899 維的直方圖合為1 個(gè)。同時(shí)行人圖像經(jīng)常存在著尺度變化,為了能夠更準(zhǔn)確地表述圖像,本文對(duì)行人圖像進(jìn)行2 次縮小采樣。分別縮小2 倍和4 倍。同時(shí)在HOG 特征中也按照相應(yīng)的倍數(shù)變化。這樣總共進(jìn)行了3 個(gè)尺度大小的直方圖提取和區(qū)域劃分,如圖8 所示。原圖像尺寸為128×48,2 次縮小后分別變成64×24 和32×12 的大小,n×n從8×8 縮小后變?yōu)?×2 和4×4。

        父親說(shuō),祖父早年離開(kāi)家鄉(xiāng),遠(yuǎn)赴南洋經(jīng)商,但他一直保持著中國(guó)的傳統(tǒng),時(shí)時(shí)告誡子女要做一個(gè)堂堂正正的中國(guó)人。對(duì)于祖父的遺訓(xùn),父親似乎一點(diǎn)也不敢怠慢,終其一生,他都奉為圭臬。

        圖8 直方圖提取

        分別提取HSV、CN 等特征后,經(jīng)過(guò)計(jì)算,每張行人圖像的特征維度共899×(30+9+5)=39 556維,為了提高效率,使用主成分分析法(principal component analysis,PCA)對(duì)高維度特征進(jìn)行降維。最后進(jìn)行特征融合。

        2.5 度量學(xué)習(xí)算法

        在得到了圖像的融合特征后,我們要計(jì)算每個(gè)待檢測(cè)圖像與原圖像的相似度,并對(duì)結(jié)果進(jìn)行排序來(lái)找到目標(biāo)圖像。度量學(xué)習(xí)可以很好地完成這個(gè)任務(wù)。

        2.5.1 最大間隔近鄰算法

        最大間隔近鄰算法( large margin nearest neighbor,LMNN)主要思想是建立一個(gè)k近鄰的邊界,如果不同類別進(jìn)入該邊界,將對(duì)其處罰[13],形式如下

        式中xi、xj、xl為不同的類。我們的主要目標(biāo)是將相同樣本的長(zhǎng)度減小,將不同樣本的長(zhǎng)度變大;就是將類內(nèi)目標(biāo)拉在一起,推開(kāi)類間的目標(biāo)。對(duì)于拉近類間的距離,有

        對(duì)于拉開(kāi)類間的的距離,其公式為

        式中:[*]+=max(z,0)函數(shù),yil表示類別標(biāo)簽,當(dāng)xi與xl類別不同時(shí)為0,相同時(shí)為1。

        因此對(duì)于式(1)、(2)處理后,得到最后的度量函數(shù):

        式中u為權(quán)值系數(shù),u∈[0, 1]。

        交叉二次元判別分析(cross-view quadratic discriminant analysis, XQDA)方法是對(duì)KISSME 算法延伸得到的,主要采用高斯模型推導(dǎo)出馬氏距離[14]。這個(gè)方法不僅降低了特征維度,考慮了距離度量,同時(shí)保持了簡(jiǎn)單原則。

        通過(guò)使用貝葉斯規(guī)則和對(duì)數(shù)似然比檢驗(yàn),決策函數(shù)可以簡(jiǎn)化為

        式中:ΣE=WEΣtW,Σt=WtΣtW分別是2 種不同的類別樣本的協(xié)方差矩陣。

        定義其子空間W,同時(shí)為了能夠更好地把樣本分開(kāi),采用了以下的優(yōu)化方案:

        即最后的優(yōu)化公式,使其獲得了最大的子空間W。對(duì)于這個(gè)度量學(xué)習(xí)方法,不僅對(duì)特征進(jìn)行了降維,同時(shí)還進(jìn)行了度量學(xué)習(xí)。

        3 實(shí)驗(yàn)結(jié)果分析

        3.1 數(shù)據(jù)集與評(píng)價(jià)指標(biāo)

        本文選用了3 個(gè)數(shù)據(jù)集來(lái)測(cè)試新的特征融合算法,分別是iLIDS、VIPer、3DPeS 數(shù)據(jù)集,這幾個(gè)數(shù)據(jù)集都不同程度地存在光照變化,行人環(huán)境變化、相機(jī)視角不同的問(wèn)題,適合用來(lái)驗(yàn)證本文提出的特征融合算法。同時(shí)為了提高檢測(cè)的準(zhǔn)確性,本文將實(shí)際采集的30 對(duì)行人數(shù)據(jù)放入這3 個(gè)數(shù)據(jù)集中進(jìn)行實(shí)驗(yàn)。

        由于拍攝環(huán)境不同,不同的數(shù)據(jù)集差別也很大。iLIDS 數(shù)據(jù)集中的行人圖像來(lái)自機(jī)場(chǎng),由于行人很多,所以很多行人圖像受到不同程度的遮擋;VIPer 數(shù)據(jù)集中圖像的光照變化和行人姿態(tài)變化較大;3DPeS 數(shù)據(jù)集在視角方面有很大的差別。

        在行人重識(shí)別算法測(cè)試中,累計(jì)匹配曲線(cumulative match characteristic, CMC)曲線經(jīng)常被用來(lái)描述算法的性能[15]。其中第一匹配率最為重要,它是指在行人圖像庫(kù)中第一次就出現(xiàn)目標(biāo)行人圖像的概率。它的大小直接決定著算法性能的好壞。本文也采用這種曲線來(lái)衡量算法性能。

        本文的實(shí)驗(yàn)測(cè)試是在Microsoft Visual Studio 17.0 和OpenCV3.4.1 工具上進(jìn)行的。

        實(shí)驗(yàn)時(shí),為了得到更好的效果,選用不同樣本數(shù)據(jù)集進(jìn)行多次測(cè)試,最后計(jì)算多次的實(shí)驗(yàn)結(jié)果取平均值,得到最終的識(shí)別率。

        3.2 融合特征有效性分析

        3.2.1 融合特征有效性分析

        在VIPeR 數(shù)據(jù)集上分別使用單一HSV 特征、CN 和SILTP 特征、HOG 和HSV 特征及本文融合的特征進(jìn)行行人相似性度量,此處選取最大間隔近鄰算法(LMNN)進(jìn)行測(cè)試。測(cè)試結(jié)果如圖9所示。

        圖9 不同特征CMC 曲線

        由圖9 可知,當(dāng)只有一種特征時(shí),效果最差;當(dāng)采用2 種特征時(shí),識(shí)別率得到了提升;當(dāng)使用多種特征結(jié)合的時(shí)候識(shí)別率更好。驗(yàn)證了本算法的有效性。

        3.2.2 融合特征適用性分析

        為了更好地驗(yàn)證新的融合特征的效果,把新融合特征與LMNN 和XQDA 算法使用的原特征在多個(gè)數(shù)據(jù)集進(jìn)行比較。其中A代表LMNN 算法原本使用的特征,B代表XQDA 算法原本的特征,M代表本文融合的新的特征。

        隨機(jī)從iLIDS 數(shù)據(jù)集中選取60 個(gè)行人圖片用來(lái)測(cè)試,然后在剩下的每個(gè)行人的圖片中隨機(jī)選取一張組成測(cè)試集,再隨機(jī)選取一張組成訓(xùn)練集。同理,在另外2 個(gè)行人數(shù)據(jù)集也進(jìn)行實(shí)驗(yàn)。

        由表3 可知,在iLIDS 數(shù)據(jù)集測(cè)試時(shí),當(dāng)使用LMNN 度量算法時(shí),本文采用新的融合算法得到的特征Rank1 比原特征的識(shí)別率高了2.4%,Rank5高了5.5%,Rank10 和Rank20 也有提升。同時(shí),由表中數(shù)據(jù)可以看出,當(dāng)使用VIPeR 數(shù)據(jù)集和3DPes數(shù)據(jù)集測(cè)試時(shí),本文采用的新特征的識(shí)別率都要高于原來(lái)的特征提取方法。說(shuō)明了本文提取的特征的有效性。

        表3 LMNN 在不同數(shù)據(jù)集上的性能比較

        使用XQDA 度量算法時(shí),在iLIDS 數(shù)據(jù)集上的Rank1 比原特征識(shí)別率高了3.6%,Rank5 高了4.4%,Rank10 和Rank20 也有明顯的提升。如表4所示。同理,在另外2 個(gè)數(shù)據(jù)集上的測(cè)試結(jié)果也表明識(shí)別率得到了提高。

        表4 XQDA 算法在不同數(shù)據(jù)集上的性能比較

        如圖10 對(duì)比了選用的2 個(gè)度量學(xué)習(xí)算法的識(shí)別率??梢钥闯?,在3 個(gè)數(shù)據(jù)集上XQDA 算法的識(shí)別率都高于LMNN 算法,可知本文提出的新的融合特征結(jié)合XQDA 算法,識(shí)別率更高。

        圖10 LMNN 與XQDA 在各數(shù)據(jù)集上的CMC 曲線

        上面的實(shí)驗(yàn)表明了在本文提出的行人重識(shí)別算法在行人圖像光照變化、行人姿態(tài)變化和遮擋等情況都有良好的效果,體現(xiàn)了本算法的有效性和適用性。

        4 結(jié)論

        1)針對(duì)行人衣著顏色特征提出了行人預(yù)識(shí)別的策略,采用了新的HSV 空間非線性量化策略構(gòu)建顏色命名空間,能夠更快地去除無(wú)關(guān)行人圖像,在待檢測(cè)圖像數(shù)據(jù)量比較大時(shí)能夠提高檢測(cè)效率,有利于進(jìn)行實(shí)際應(yīng)用。

        2)采用中級(jí)CN 特征和低級(jí)的全局特征、局部特征相結(jié)合的方法,融合得到的新特征更好地描述行人圖像,解決了行人圖像因光照、視角變化等影響識(shí)別率的問(wèn)題。使用2 種度量學(xué)習(xí)算法在3 個(gè)數(shù)據(jù)集上進(jìn)行了相似度計(jì)算,在使用LMNN算法時(shí),平均Rank1 識(shí)別率提高了2.4%;使用XQDA 算法時(shí),平均Rank1 識(shí)別率提高了3.3%,從準(zhǔn)確率角度講,XQDA 算法更適合本文融合的新特征。

        實(shí)驗(yàn)結(jié)果表明了該算法能夠提高重識(shí)別精度,并適用于多種場(chǎng)合。在后續(xù)的研究中,將把行人重識(shí)別與行人檢測(cè)、跟蹤相結(jié)合,構(gòu)建一個(gè)完整的行人重識(shí)別系統(tǒng)進(jìn)行實(shí)際應(yīng)用。

        猜你喜歡
        集上識(shí)別率直方圖
        統(tǒng)計(jì)頻率分布直方圖的備考全攻略
        符合差分隱私的流數(shù)據(jù)統(tǒng)計(jì)直方圖發(fā)布
        Cookie-Cutter集上的Gibbs測(cè)度
        基于類圖像處理與向量化的大數(shù)據(jù)腳本攻擊智能檢測(cè)
        鏈完備偏序集上廣義向量均衡問(wèn)題解映射的保序性
        基于真耳分析的助聽(tīng)器配戴者言語(yǔ)可懂度指數(shù)與言語(yǔ)識(shí)別率的關(guān)系
        用直方圖控制畫面影調(diào)
        提升高速公路MTC二次抓拍車牌識(shí)別率方案研究
        復(fù)扇形指標(biāo)集上的分布混沌
        高速公路機(jī)電日常維護(hù)中車牌識(shí)別率分析系統(tǒng)的應(yīng)用
        国产亚洲人成在线观看| 国产日韩欧美911在线观看| 91精品国产综合久久青草| 音影先锋色天堂av电影妓女久久| 久久青青草视频免费观看| 一区二区三区国产精品麻豆| 帅小伙自慰videogay男男| 国产后入又长又硬| 吃奶摸下的激烈视频| 在线精品国产一区二区| 91精品国产综合久久青草| 成人一区二区三区蜜桃| 丝袜美腿制服诱惑一区二区| 色偷偷久久久精品亚洲| 久久99精品国产麻豆宅宅| 四虎精品成人免费观看| 一区二区三区在线免费av| 亚洲tv精品一区二区三区| 55夜色66夜色国产精品视频| 亚洲国产综合人成综合网站 | 亚洲一区二区成人在线视频| 国产精品久色婷婷不卡| 成人麻豆日韩在无码视频| 50岁熟妇大白屁股真爽| 亚洲AⅤ无码国精品中文字慕| 一区=区三区国产视频| 色爱情人网站| 亚洲日韩国产精品乱-久| 一本一本久久a久久| 日韩精品综合在线视频| 亚洲成av人片不卡无码| 九一九色国产| 爽妇网国产精品| 亚洲天堂av大片暖暖| 国产欧美高清在线观看| 午夜一区欧美二区高清三区| 精品国产一区二区三区AV小说| 全程国语对白资源在线观看| 免费一区二区高清不卡av| 日日摸天天摸人人看| 午夜影视啪啪免费体验区入口|