亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于人臉卡口數(shù)據(jù)的行人共現(xiàn)關(guān)系圖譜構(gòu)建①

        2022-06-29 07:48:22屈詩琪劉宇寧范冰冰

        屈詩琪, 劉宇寧, 范冰冰

        (華南師范大學(xué) 計算機(jī)學(xué)院, 廣州 510631)

        1 引言

        隨著人臉識別技術(shù)的不斷突破和完善, 可以提取到人臉在不同光影、姿態(tài)、表情和成像條件下的魯棒的特征, 進(jìn)而通過人的臉部特征信息進(jìn)行身份識別, 因此大范圍地部署人臉卡口是現(xiàn)在安防領(lǐng)域的重要發(fā)展目標(biāo). 人臉卡口即智能人臉抓拍攝像機(jī), 主要部署在非機(jī)動車道, 比如一些重要的道路的人行道或者一些場所的出入口上, 只關(guān)注行人信息, 可以有效地采集經(jīng)過的行人人臉圖片, 形成人臉圖像庫. 由此, 當(dāng)鎖定某個案件嫌疑人時, 可以實現(xiàn)人臉檢索功能, 得出嫌疑人被拍到的圖片、地點和時間信息, 大致可以還原該人的行動軌跡; 還可以實現(xiàn)實時人臉比對功能, 當(dāng)人臉被抓拍到時, 實時比對布控庫中的人臉, 抓捕在逃人員等.

        但在偵察團(tuán)伙犯罪案件時, 對人臉卡口數(shù)據(jù)已經(jīng)不滿足只能實現(xiàn)人臉檢索、人臉比對和人臉驗證等功能. 如何從這樣一個海量的未知人員人臉圖像庫獲得更深層的信息, 比如除了獲取嫌疑人的個人信息之外,還想知道與嫌疑人有密切來往關(guān)系的人有哪些, 即構(gòu)建嫌疑人社交網(wǎng)絡(luò), 這將會是公共安全領(lǐng)域關(guān)注的熱點問題. 人的社交一般分為虛擬和現(xiàn)實, 虛擬比如手機(jī)通話、微信等的社交軟件, 這一類數(shù)據(jù)可以通過網(wǎng)絡(luò)監(jiān)管獲取. 但現(xiàn)實的社交是比較難獲取的, 現(xiàn)有的方法主要還是靠人工操作, 通過調(diào)取海量的監(jiān)控視頻進(jìn)行反復(fù)查看才能建立行人之間的關(guān)系, 效率低下. 利用人臉卡口數(shù)據(jù), 自動構(gòu)建行人共現(xiàn)關(guān)系圖譜, 能夠給解決這一類問題提供思路和線索.

        隨著多媒體技術(shù)的快速發(fā)展, 圖像、視頻等多媒體數(shù)據(jù)的大量涌現(xiàn), 基于圖像和視頻信息的社交關(guān)系理解研究也在進(jìn)一步發(fā)展. Wu 等人[1]通過人們的相冊集發(fā)現(xiàn)人們現(xiàn)實的社交關(guān)系, 其中根據(jù)個體在同一張照片的次數(shù)和距離來判定關(guān)系的緊密程度建立無向加權(quán)圖, 再使用一種圖聚類算法, 來檢測社交集群; 周麗麗[2]將影視視頻關(guān)鍵幀作為事務(wù), 使用FP-Growth 對其進(jìn)行頻繁項集挖掘來判定兩個人物之間有無關(guān)系,當(dāng)共同出現(xiàn)次數(shù)超過閾值則存在關(guān)系, 以此構(gòu)建人物關(guān)系網(wǎng)絡(luò); 周檬[3]利用DBSCAN 進(jìn)行人臉聚類, 再通過統(tǒng)計監(jiān)控視頻關(guān)鍵幀中行人與行人間的共現(xiàn)關(guān)系、人與攝像頭的出現(xiàn)關(guān)系構(gòu)建視頻圖譜.

        在大多社交關(guān)系的研究中, 缺乏人物節(jié)點(關(guān)系圖上的頂點)識別的具體論述, 使用的聚類算法沒有經(jīng)過比較并對其進(jìn)行有效性驗證. 人臉卡口的人臉類別數(shù)量相對于相冊集或者影視劇中的實驗數(shù)據(jù)集更為復(fù)雜多樣, 作為關(guān)系網(wǎng)絡(luò)構(gòu)建的基礎(chǔ), 準(zhǔn)確地進(jìn)行人物節(jié)點識別才能構(gòu)建可用的行人共現(xiàn)關(guān)系圖譜; 在目前研究人物之間的社交關(guān)系中, 其中關(guān)系存在判定, 即有無關(guān)系, 主要是基于共現(xiàn)的方法, 關(guān)系程度則取決于共現(xiàn)頻度. 對此, 本文基于行人節(jié)點識別和共現(xiàn)關(guān)系抽取兩個方面完成行人共現(xiàn)關(guān)系圖譜的構(gòu)建流程: 首先提出基于Chinese Whispers 的行人節(jié)點識別的算法, 在此基礎(chǔ)上使用Faiss 加速鄰接邊的構(gòu)建, 提高行人節(jié)點識別效率, 并與其他算法做比較驗證了其優(yōu)越性. 其次, 在共現(xiàn)頻次的基礎(chǔ)上增加其置信度來挖掘行人的關(guān)系, 最后以圖形界面的形式展示圖譜.

        2 相關(guān)知識

        2.1 人臉聚類評價方法

        使用有標(biāo)簽的人臉數(shù)據(jù)集并根據(jù)兩種聚類評價指標(biāo)對聚類結(jié)果進(jìn)行評價: 1)采用scikit-learn 庫中的聚類效果評價指標(biāo): 同質(zhì)性(homogeneity): 每個集群只包含單個類的成員; 完整性(completeness): 同類的所有成員都分配在同一集群中; 同質(zhì)性和完整性的加權(quán)平均F-measure. 以人臉聚類為例, 同質(zhì)性即同一個類中是否都是同一個人的照片, 完整性即是否將一個人的所有照片都聚集在一個類中. 2)采用文獻(xiàn)[4]中的成對準(zhǔn)確率P_pairwise, 成對召回率R_pairwise指標(biāo). 如式(1)、式(2)所示:

        其中,TP表示同一個人的人臉被正確地聚在同一類中的對數(shù);FP表示不是同一個人的人臉被錯誤地聚在同一個類中的對數(shù);TN表示不是同一個人的人被正確地聚到不同的類中;FN表示同一個人的人臉被錯誤地聚到不同的類中. 其中, 成對F均值度量F_pairwise:

        2.2 DBSCAN

        DBSCAN (density-based spatial clustering of applications with noise)是一種很典型的密度聚類算法,這類密度聚類算法一般假定類別可以通過樣本分布的緊密程度決定. 算法通過參數(shù)(Eps,MinPts)用來描述樣本分布緊密程度, 其中,Eps描述任意樣本的鄰域距離閾值(距離度量一般使用歐式距離、曼哈頓距離等),MinPts描述了任意樣本的Eps鄰域中樣本個數(shù)的閾值. (Eps,MinPts)參數(shù)是影響聚類效果的兩個很重要的參數(shù),Eps過小會導(dǎo)致原本是一個類簇卻被分割成多個小的類簇,Eps過大會導(dǎo)致不是一個類簇的多個距離相近的簇聚成一個大簇.MinPts越大, 形成類簇的條件就越苛刻, 那么樣本集的噪聲點就越多, 當(dāng)MinPts=1 時,樣本集中就沒有噪聲點, 所有的樣本都能在類簇中.

        2.3 Approximate Rank Order

        Approximate Rank Order[4]聚類是根據(jù)Rank Order[5]聚類改進(jìn)的. 與絕對距離(比如歐氏距離)不同, Rank Order 聚類發(fā)現(xiàn)了來自同一個人的兩個臉往往有許多共享的鄰居, 但是來自不同人的兩個臉的鄰居通常差別很大這一特點, 提出一個新的人臉相似度量方法Rank Order 距離, 它通過比較兩個樣本之間的鄰域結(jié)構(gòu)得到樣本之間的相似度. 后來, 為了使其能應(yīng)用在大規(guī)模人臉數(shù)據(jù)中, 提高聚類效率, Approximate Rank Order 算法重新定義距離的度量方式, 不需要計算每個人臉的所有最近鄰而是k個最近鄰, 從而得出人臉之間的非對稱秩序距離之后, 就可以逐步地將低于距離閾值threshold 的人臉合并為一個類簇.k和threshold是該算法的兩個需要指定的參數(shù).k是選取每個人臉最近鄰的數(shù)量, 而且Approximate Rank Order 使用FLANN庫的隨機(jī)k-d tree 算法求出每個人臉圖片的k個最近鄰圖片排序, 聚類的效率顯著地提高.

        3 行人共現(xiàn)關(guān)系圖譜構(gòu)建

        人臉卡口主要采集經(jīng)過的行人的人臉圖像、被抓拍到的時間戳以及卡口自身的編號, 其中卡口的編號就代表行人被抓拍時的位置信息. 基于人臉卡口的行人共現(xiàn)關(guān)系圖譜構(gòu)建的整體流程如圖1 所示, 其中最主要的兩個步驟: 一是基于聚類的行人節(jié)點識別, 由于人臉卡口中出現(xiàn)的人是未知的, 沒有模板人臉庫讓其去一一對應(yīng)來標(biāo)明行人的身份, 所以使用基于聚類的方法標(biāo)注人臉卡口中的人臉圖像, 從而得到圖譜中的行人節(jié)點; 二是行人共現(xiàn)關(guān)系抽取, 通過人臉卡口數(shù)據(jù)的特性, 定義共現(xiàn)關(guān)系的有無和共現(xiàn)關(guān)系的強(qiáng)度來共同抽取行人間的共現(xiàn)關(guān)系, 從而得到圖譜中節(jié)點之間的邊.

        圖1 行人共現(xiàn)關(guān)系圖譜構(gòu)建流程

        3.1 基于聚類的行人節(jié)點識別

        基于聚類的行人節(jié)點識別, 也可稱作人臉聚類, 旨在把相似的人臉圖像歸為一類, 即把屬于同一個人的人臉打上同一個標(biāo)簽[6], 如圖2 所示. 人臉聚類效果的好壞主要取決人臉特征的提取(人臉的向量表示)和聚類算法的選擇[7], 人臉特征的提取要保證具有高精度的可分性, 這里使用目前效果較好的CNN+ArcFace Loss方法提取人臉特征向量. 適用于人臉聚類的聚類算法是不需要預(yù)先設(shè)定類別的數(shù)量的, 如傳統(tǒng)的K-means就不行, 因為我們對人臉卡口數(shù)據(jù)集是沒有預(yù)先的認(rèn)識, 其具體包含多少個類別是未知的. 文獻(xiàn)[3]使用CNN+ArcFace Loss 方法提取人臉特征, 直接使用DBSCAN作為人臉聚類算法, 標(biāo)識監(jiān)控視頻中出現(xiàn)的行人; 文獻(xiàn)[8]使用FaceNet 提取人臉特征, 在LFW 數(shù)據(jù)集上驗證了DBSCAN 相較于其他聚類方法(如譜聚類和Rank Order); 文獻(xiàn)[9]使用附加間隔Softmax 提取人臉特征,分別在LFW 和LFW+模糊視頻上實驗結(jié)果都證明Approximate Rank Order 比DBSCAN 更加適合處理較大規(guī)模的復(fù)雜人臉數(shù)據(jù); 文獻(xiàn)[10]使用Chinese Whispers對人臉聚類獲取同一個人的人臉圖像, 結(jié)合人臉質(zhì)量評估算法從而達(dá)到在一段視頻中人臉圖像去重的目的.可見, 適用于人臉聚類的聚類算法是需要根據(jù)人臉特征提取算法和人臉數(shù)據(jù)擇優(yōu)選擇的, 常用來做人臉聚類的算法主要是DBSCAN, Approximate Rank Order和Chinese Whispers.

        圖2 行人節(jié)點識別

        3.1.1 Chinese Whispers 算法

        Chinese Whispers[11]最早是被用在自然語言處理如文本聚類中, 后來也廣泛應(yīng)用于人臉聚類, 它不需要預(yù)先設(shè)定類別數(shù)量, 是一種可以自動查找類別個數(shù)的高效圖形聚類算法. 該算法分為兩個步驟: 第一步是構(gòu)建無向加權(quán)圖G=(V,E). 把數(shù)據(jù)集中的每一個樣本當(dāng)作圖上的一個點v_i∈V, 并且初始化每一個節(jié)點的類別屬性為當(dāng)前節(jié)點順序編號. 接著就是構(gòu)造無向圖的邊, 當(dāng)節(jié)點v_i和v_j(其中v_i

        該算法需要事先定義兩個超參數(shù)threshold 和iterations. threshold 是節(jié)點之間的相似度閾值, 只有大于這個閾值, 節(jié)點與節(jié)點之間才有邊, 消息才得以互相傳遞. 形式上, 該算法并不會收斂, 所以要指定iterations迭代次數(shù), 但是對于加權(quán)圖, 只需要幾次迭代就能達(dá)到穩(wěn)定狀態(tài). 它的不足之處在于因為其隨機(jī)性(對小圖來說從哪個節(jié)點開始迭代很重要), 所以對于處理小圖具有不確定性, 但是在大圖中這種不確定性將會消失, 適合處理稍大數(shù)據(jù)的聚類.

        3.1.2 改進(jìn)的基于Chinese Whispers 的行人節(jié)點識別

        雖然原始的Chinese Whispers 算法是適合處理稍大數(shù)據(jù)的聚類, 但是由于人臉特征向量512 維是高維向量, 算法需要計算不同節(jié)點之間的相似度, 其時間復(fù)雜度為O(n2), 當(dāng)處理大規(guī)模人臉聚類時, 會導(dǎo)致算法的第一步驟即圖的初始化緩慢. 文獻(xiàn)[7]使用增量聚類的思想提出基于Chinese Whispers 的人臉動態(tài)聚類, 其時間效率雖然稍有提高, 但是準(zhǔn)確率都稍有下降, 并且對于類別數(shù)較多的數(shù)據(jù)集, 時間提升效果不明顯. 本文使用Faiss (Facebook AI similarity search)[12,13]加速圖中節(jié)點的邊的構(gòu)建, 把判斷兩節(jié)點是否相似問題, 轉(zhuǎn)化為對節(jié)點的限定半徑鄰居查詢問題, 提高聚類速度.Faiss 為稠密向量提供高效相似度搜索, 是目前最為成熟的近似鄰搜索庫. Faiss 提供了許多不同應(yīng)用場景下的索引供選擇, 由于Chinese Whispers 算法需要計算每個樣本節(jié)點之間的相似度, 即余弦相似度, 提取的人臉特征是經(jīng)過L2 范數(shù)歸一化的, 人臉特征余弦相似度的值等同于人臉特征內(nèi)積的值, 所以選擇Faiss 中的IndexFlatIP 為人臉特征構(gòu)建索引. 其中詳細(xì)的行人節(jié)點識別步驟如算法1 所示.

        算法1. 改進(jìn)的基于Chinese Whispers 的行人節(jié)點識別算法輸入: 行人人臉圖像數(shù)據(jù)集D, 相似度閾值t, 迭代次數(shù)iterations輸出: 行人身份標(biāo)簽列表labels 1) 使用CNN+ArcFace Loss 提取數(shù)據(jù)集D 中所有人臉圖像的人臉特征, 保存到feats;2) 根據(jù)feats 構(gòu)建Faiss 中的IndexFlatIP 特征索引;3) 使用特征索引, 一次性查詢所有人臉特征feats 的限定半徑t 鄰域的最近鄰居, 保存到res;4) 構(gòu)造節(jié)點列表nodes, 初始化每個節(jié)點的label 為0 到len(feats)–1;5) 根據(jù)res 構(gòu)造邊列表edges, 其中邊的權(quán)重為兩個節(jié)點的余弦相似度;6) 根據(jù)nodes 和edges 完成對無向圖G 的初始化;7) n=0;8) while n

        3.1.3 實驗

        (1) 實驗環(huán)境與數(shù)據(jù)集: 實驗在CentOS 7 系統(tǒng),CPU 為Intel(R) Xeon(R) CPU E5-2650 v4 @ 2.20 GHz,內(nèi)存為128 GB 的服務(wù)器上進(jìn)行. 使用LFW[14]和CASIAWebFace[15]數(shù)據(jù)集的部分?jǐn)?shù)據(jù). 其中LFW 數(shù)據(jù)據(jù)分布很不均勻, 大多數(shù)人只有1 張圖像, 所以只選取LFW 中有2 張及以上的數(shù)據(jù)集. CASIA-WebFace 的圖片比較多,由于實驗室設(shè)備的限制, 只選取了一部分?jǐn)?shù)據(jù)集, 如表1.

        表1 實驗數(shù)據(jù)集

        (2)人臉特征提取: 使用RetinaFace[16]人臉檢測算法對兩個數(shù)據(jù)集進(jìn)行數(shù)據(jù)清洗, 刪除無法檢測到人臉的圖片. 接著使用RetinaFace 進(jìn)行人臉檢測, 由于有些圖片中可能不止一人出現(xiàn), 對這些圖片僅選擇中心坐標(biāo)的人臉作為目標(biāo)對應(yīng)其標(biāo)簽. 為了更好地提取人臉特征, 對RetinaFace 人臉檢測算法得到的人臉5 個關(guān)鍵點進(jìn)行仿射變換擺正人臉位置, 再使用CNN+ArcFace Loss方法[17]提取512 維人臉特征.

        (3)實驗結(jié)果與分析: 在人臉聚類中, 我們往往會更加在意聚類評價指標(biāo)中的同質(zhì)性和準(zhǔn)確性, 因為如果某一個人臉的聚簇中出現(xiàn)大量別人的人臉, 人臉聚類結(jié)果的應(yīng)用就會失去它的意義, 所以本文實驗結(jié)果中的F-measure 和F_pairwise都是在同質(zhì)性和準(zhǔn)確率大的情況下取它們的最大值.

        如表2 所示, 在LFW 數(shù)據(jù)集的表現(xiàn)上, 4 個算法聚類效果差距不大, 但是Chinese Whisper 的得分最高,并且簇數(shù)是最接近真值的, 且經(jīng)過改進(jìn)的Chinese Whispers 與原始Chinese Whispers 算法的結(jié)果是一樣的, 時間效率卻提高了不少.

        表2 在LFW 子集(真實簇數(shù)=1680)上的實驗結(jié)果對比

        但是在CASIA-WebFace 數(shù)據(jù)集的表現(xiàn)上差距就顯現(xiàn)出來了, CASIA-WebFace 數(shù)據(jù)集中的圖片相較于LFW 數(shù)據(jù)集, 同一個人的照片時間跨度更大、造型差異大、模糊度高等, 人臉聚類的難度比LFW 數(shù)據(jù)集大很多. 如表3 所示, Chinese Whispers 算法的表現(xiàn)最好,兩個平均度量指標(biāo)得分最高, 且聚類簇數(shù)最接近真實簇數(shù), 說明其人臉聚類的魯棒性, 更適應(yīng)稍復(fù)雜的人臉數(shù)據(jù), 而且經(jīng)過改進(jìn)后的Chinese Whispers 使得其可以應(yīng)用在大規(guī)模的數(shù)據(jù)集上. 繼續(xù)對我們的方法的實驗結(jié)果進(jìn)行詳細(xì)分析, 7257 個聚簇中有5015 個孤立點, 這5012 個孤立節(jié)點是在圖上沒有鄰接邊的點, 即跟樣本集中的所有樣本的相似度都小于相似度閾值. 這些孤立節(jié)點大多是數(shù)據(jù)集采集時的錯誤標(biāo)記或是遮擋、模糊等原因無法正確人臉識別. 去掉孤立節(jié)點之后, 完整性和成對召回率提高,F-measure 得分0.98,F_pairwise得分0.96. 所以, 將其應(yīng)用在人臉卡口數(shù)據(jù)上的聚類效果應(yīng)該會更好.

        表3 在CAISA-WebFace 子集(真實簇數(shù)=1727)上的實驗結(jié)果對比

        3.2 行人共現(xiàn)關(guān)系抽取

        行人共現(xiàn)關(guān)系抽取算法基于前面已有的基于Chinese Whispers 的行人節(jié)點識別方法, 對每張臉進(jìn)行聚類, 將屬于同一人的人臉分配同樣的編號, 即id_label,作為不同行人的身份辨識. 當(dāng)行人節(jié)點識別完成后, 本文涉及到的數(shù)據(jù)存儲字段如表4 所示. id 表示抓拍到的人臉編號, id_label 是聚類之后的編號, 相同身份的行人的id_label 與id 是一對多的關(guān)系. 人臉圖片使用SeaweedFS[18]存儲, 使用fid 存儲圖片鏈接, 極大地減少了存儲空間, 且直接通過http 協(xié)議訪問該鏈接, 能夠提高圖片的訪問速度.

        表4 存儲字段描述

        在文獻(xiàn)計量研究領(lǐng)域中, 共同出現(xiàn)的特征項之間存在著某種關(guān)聯(lián), 關(guān)聯(lián)程度可以使用共現(xiàn)頻次來評估.所以, 在圖像或視頻的社交關(guān)系挖掘中, 也是在共現(xiàn)的基礎(chǔ)上發(fā)現(xiàn)社交關(guān)系的, 大都是統(tǒng)計圖像或視頻關(guān)鍵幀中的共現(xiàn)次數(shù). 人臉卡口數(shù)據(jù)與圖像和視頻數(shù)據(jù)不同, 共現(xiàn)不是體現(xiàn)在一同出現(xiàn)在一個畫面中, 而是體現(xiàn)在一定時間間隔內(nèi)被同一個人臉攝像機(jī)抓拍到. 當(dāng)基于人臉卡口的行人共現(xiàn)關(guān)系網(wǎng)絡(luò)G=(V,E), 關(guān)系如公式(4)所示:

        其中,support(i,j)是行人i,j共同出現(xiàn)的次數(shù),sup_min是設(shè)置的共現(xiàn)關(guān)系的最低閾值,Eij=1 表示行人i,j之間有邊連接, 即認(rèn)為i,j之間有關(guān)系. 反之, 則認(rèn)為i,j之間無邊連接, 即i,j之間無關(guān)系. 一般情況下, 我們把只共現(xiàn)一次視為偶然情況, 所以sup_min要大于或等于2.

        行人對之間的關(guān)聯(lián)程度除了用共現(xiàn)頻次來表示以外, 本文引入Apriori 關(guān)聯(lián)規(guī)則算法中置信度概念[19]來計算共現(xiàn)關(guān)系的置信度, 如式(5)所示:

        其中,confidence(i?j)得到的是i出現(xiàn), 則j也一同出現(xiàn)的概率, 反映了在i方面, 認(rèn)為j的重要程度. 我們還可以得到其平均置信度, 如式(6)所示:

        其中,confidence(j?i)是式(5) 中i,j互換位置的結(jié)果. 使用置信度來體現(xiàn)行人對之間的關(guān)聯(lián)緊密程度更具有說服力, 比如當(dāng)行人a, b 分別被拍到了2 次, 且他們也正好共現(xiàn)了2 次, 那么他們共現(xiàn)的置信度就是1;而行人c, d 分別被拍到了10 次和15 次, 共現(xiàn)了3 次,那么他們共現(xiàn)的置信度是0.25. 如果僅根據(jù)共現(xiàn)頻次,c 和d 之間的關(guān)聯(lián)程度要大于a 和b, 但是從現(xiàn)實角度,我們會認(rèn)為a 和b 的關(guān)聯(lián)程度要大于c 和d. 所以, 人臉卡口中行人對滿足最小支持度和最小置信度的共現(xiàn)關(guān)系, 被認(rèn)為是強(qiáng)關(guān)聯(lián)關(guān)系, 其中共現(xiàn)關(guān)系抽取的詳細(xì)步驟如算法2 所示.

        算法2. 行人共現(xiàn)關(guān)系抽取算法輸入: 人臉卡口數(shù)據(jù)集D, 卡口列表L, 時間間隔t, 最小支持度sup_min, 最小置信度conf_min輸出: 共現(xiàn)關(guān)系結(jié)果集合R 1)掃描人臉卡口數(shù)據(jù)集, 統(tǒng)計每一個ID 出現(xiàn)的總次數(shù), 保存到字典id_to_counts;2) for L_i in L:3) S 為在L_i 被抓拍的人臉集4) 對S 中出現(xiàn)的人臉按照時間戳從小到大排序5) for Sk in S[0:]:6) Sj in [k+1:]:7) if (T_Sj – T_Sk > t): break;8) //在時間間隔內(nèi)9) if (IDk > IDj): 交換IDk 和IDj 10) R[(IDk, IDj)] +=1//記錄一次共現(xiàn)11) 把R 中記錄的共現(xiàn)次數(shù)小于sup_min 的行人對過濾掉;12) for R_i in R:

        13) 根據(jù)id_to_count 分別計算R_i 中行人對的置信度conf1, conf2;14) if (avg(conf1, conf2)

        3.3 實體、關(guān)系存儲

        選擇Neo4j 作為圖譜的圖數(shù)據(jù)庫存儲, Neo4j 能夠高效地存儲節(jié)點、關(guān)系和屬性, 同時, Neo4j 支持Cypher查詢語言, 關(guān)系查詢靈活高效, 支持增刪改查功能. 基于人臉卡口數(shù)據(jù)的行人共現(xiàn)關(guān)系圖譜的實體和關(guān)系存儲的屬性如表5 所示.

        表5 Neo4j 存儲描述

        表5 中, 行人節(jié)點的id_label 作為唯一性約束,img_url 是該ID 行人人臉圖像, paths 是一個列表, 存儲了該行人的(kakou_id, timestamp), 即行動軌跡. 關(guān)系屬性中的conf 是共現(xiàn)置信度, times 是共現(xiàn)頻數(shù).

        4 圖譜可視化

        根據(jù)公開的人臉數(shù)據(jù)集LFW 和CASIA-WebFace隨機(jī)+人為制造了人臉卡口數(shù)據(jù)集作為樣例, 構(gòu)建行人共現(xiàn)圖譜. 最后, 采用Web 頁面作為前端展示頁面, 使用D3.js 作為前端展示框架, 借助D3.js 的力學(xué)導(dǎo)向圖,將數(shù)據(jù)以網(wǎng)絡(luò)的形式展現(xiàn). 如圖3 所示, 展示了數(shù)據(jù)集中部分?jǐn)?shù)據(jù), 生動地反映行人之間的共現(xiàn)關(guān)系, 其中節(jié)點之間邊的長度取決于共現(xiàn)關(guān)系的置信度的大小, 置信度越高, 節(jié)點相距就越近, 更能顯示緊密的關(guān)系.

        圖3 基于人臉卡口數(shù)據(jù)的行人共現(xiàn)關(guān)系圖譜展示界面

        5 結(jié)論

        本文針對偵察團(tuán)伙犯罪案件時人臉卡口數(shù)據(jù)應(yīng)用的局限性以及對人的現(xiàn)實社交關(guān)系難以辨認(rèn)的問題,實現(xiàn)了一種基于人臉卡口數(shù)據(jù)的行人共現(xiàn)關(guān)系圖譜的構(gòu)建流程. 該流程首先使用Faiss 加速Chinese Whispers算法中初始圖的鄰接邊的構(gòu)建, 使其能夠完成大規(guī)模人臉聚類的任務(wù), 得到人臉卡口數(shù)據(jù)這一未知人員庫中行人的潛在身份id, 然后再根據(jù)人臉卡口記錄挖掘行人的共現(xiàn)關(guān)系, 通過共現(xiàn)頻次和置信度來體現(xiàn)關(guān)系強(qiáng)度, 最后使用前端框架展示圖譜交互式界面.

        日韩美女av二区三区四区| 蜜桃无码一区二区三区| 精品国产18久久久久久| 无码在线观看123| 国产女主播大秀在线观看| 亚洲综合国产成人丁香五月激情| 亚洲国产成人无码av在线影院| 99福利在线| 国产一区二区三区资源在线观看| 麻神在线观看免费观看| 国产草草影院ccyycom| 青青视频一区| 成年人视频在线播放视频| 日韩精品乱码中文字幕| 一二三四日本中文在线| 国产免费资源高清小视频在线观看| 亚洲中文字幕黄色小视频| 亚洲av乱码二区三区涩涩屋 | 亚洲 自拍 另类 欧美 综合 | 久久亚洲av成人无码国产| 俺去俺来也在线www色官网| 99久久综合精品五月天| 色综久久综合桃花网国产精品| 国产午夜在线视频观看| 国产一区二区精品久久| 亚洲三级香港三级久久| 蜜桃成熟时日本一区二区| 色一情一乱一伦麻豆| 亚洲人成人影院在线观看 | 91精品福利一区二区三区| 亚洲av永久无码精品古装片| √天堂中文官网8在线| 大白屁股流白浆一区二区三区| 很黄很色的女同视频一区二区 | 在线综合亚洲欧洲综合网站| 国产欧美曰韩一区二区三区| 久久成人精品国产免费网站| 久久国产成人精品国产成人亚洲| 99久热re在线精品99 6热视频| 亚洲福利av一区二区| 亚洲国产精品不卡av在线|