亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        面向智慧監(jiān)控的視覺感知與理解專題序言

        2021-11-12 01:57:02高新波王楠楠梁榮華鄭偉詩盧策吾宋一哲韓軍功
        西安電子科技大學學報 2021年5期
        關鍵詞:檢測方法

        高新波,王楠楠,梁榮華,鄭偉詩,徐 邁,盧策吾,宋一哲,韓軍功

        (1.重慶郵電大學 計算機科學與技術學院,重慶 400065;2.西安電子科技大學 綜合業(yè)務網理論及關鍵技術國家重點實驗室,陜西 西安 710071;3.浙江工業(yè)大學 計算機科學與技術學院,浙江 杭州 310014;4.中山大學 數(shù)據(jù)科學與計算機學院,廣東 廣州 510275;5.北京航空航天大學 電子信息工程學院,北京 100191;6.上海交通大學 計算機科學與工程系,上海 200030;7.薩里大學 SketchX Lab,英格蘭薩里郡吉爾福德,GU2 7XH;8.亞伯大學 計算機科學,英國威爾士,SY23 3FL)

        基于人工智能推動平安城市建設已經成為公共安全的著力點和落腳點。2017年國務院印發(fā)了《新一代人工智能發(fā)展規(guī)劃》,對人工智能在公共安全領域的深度應用高度重視。2019年國務院發(fā)布《國務院辦公廳關于印發(fā)國務院2019年立法工作計劃的通知》,其中包含由公安部起草的《公共安全視頻圖像信息系統(tǒng)管理條例》。因此,基于智能信息處理算法的智慧監(jiān)控已經成為當前及未來國際高新技術競爭的焦點。

        隨著視頻監(jiān)控部署規(guī)模越來越大,監(jiān)控設備的多樣性和場景的復雜性給監(jiān)控視頻的分析與理解帶來很大的挑戰(zhàn),主要表現(xiàn)為視覺場景“看不清”、視覺要素“找不到”、視覺內容“看不懂”。因此,探索研究針對監(jiān)控視頻與圖像的智能信息處理算法,為維護社會穩(wěn)定與公共安全提供面向智慧監(jiān)控的視覺感知與理解技術,具有十分重要的意義。

        在這樣的背景下,《西安電子科技大學學報》組織了“面向智慧監(jiān)控的視覺感知與理解技術與進展”專題。經過嚴格評審,最終錄用了24篇學術論文,包括了視覺清晰化、視覺合成與增強、場景分割與分析、身份檢測與識別、目標檢測與追蹤、行人重識別等方面。這里分別介紹如下。

        在視頻/圖像超分辨重建方面,論文《一種多尺度三維卷積的視頻超分辨率方法》提出了基于多尺度三維卷積的視頻超分辨率模型。該模型輸入連續(xù)的多幀視頻圖像,輸出中間幀的超分辨率重建結果,包括多尺度特征提取、特征融合以及高分辨率重建三個模塊。Vid4數(shù)據(jù)集上3倍和4倍超分辨率放大的實驗結果表明,與其他已有方法相比,該方法可有效提升峰值信噪比和結構相似性性能,取得較好的視覺效果。論文《一種自適應權重學習的輕量超分辨率重建網絡》提出了一種基于自適應權重學習的輕量化超分辨率重建網絡。該網絡首先利用注意力分支和無注意力分支分別獲取相應信息,再通過自適應權重融合分支進行整合,使網絡在參數(shù)量與性能之間達到相對平衡。在標準數(shù)據(jù)集上的實驗證明本文所提出方法的重建性能優(yōu)于同類先進方法。

        在視覺合成與增強方面,論文《一種生成對抗網絡的遙感圖像去云方法》提出了一種端到端生成對抗網絡模型對遙感圖像去云,可以從含有云層的遙感圖像中恢復出清晰的原始圖像。實驗結果表明,該方法在定量指標(峰值信噪比和結構相似性)和運行時間上均優(yōu)于現(xiàn)有的去云方法,并且在參數(shù)量一致的條件下,計算量GFLOPs最低,具有更低的算法復雜度。此外,該方法得到的遙感圖像細節(jié)信息更豐富,顏色幾乎沒有失真,具有更好的主觀視覺效果。論文《維度情感模型下的表情圖像生成及應用》針對訓練數(shù)據(jù)包含表情類別有限且訓練數(shù)據(jù)規(guī)模不均衡的問題,提出了Arousal-Valence維度情感空間中基于生成對抗網絡的表情圖像生成方法AV-GAN,用于生成更多樣且均衡的表情識別訓練數(shù)據(jù)。該方法使用標記分布表示表情圖像,通過引入身份控制和表情控制模塊,以及對抗學習方法實現(xiàn)在Arousal-Valence空間中隨機采樣和生成表情圖像。在Oulu-CASIA數(shù)據(jù)庫上的評估實驗顯示,使用本文方法對訓練數(shù)據(jù)進行數(shù)據(jù)增強,可比使用原訓練數(shù)據(jù)的表情識別準確率提升6.5%,證明了該方法能有效地提升非均衡訓練數(shù)據(jù)的表情識別準確率。

        在場景分割與分析方面,論文《改進DeeplabV3+的火焰分割與火情分析方法》提出一種改進DeeplabV3+的火焰分割與火情分析方法。首先在DeeplabV3+的解碼器部分增加低層特征來源,將其與高層特征融合后采用2倍上采樣逐步恢復圖像尺寸,保留更多的細節(jié)信息,實現(xiàn)更加準確的火焰分割;然后將火焰視頻每幀分割得到的像素數(shù)組成火勢發(fā)展序列,基于關鍵點對序列進行分段和線性擬合,獲取火勢發(fā)展的關鍵趨勢。實驗結果表明,所提方法可以在對火焰進行準確分割的基礎上,有效地分析火情發(fā)展態(tài)勢,為火情的檢測與控制提供有效的幫助。論文《采用神經網絡架構搜索的遙感影像分割方法》針對分割高分辨率遙感影像需人工設計網絡架構,過度依賴專家經驗,耗時費力,且網絡泛化能力較差等問題,提出一種資源平衡型部分通道采樣的神經網絡架構搜索方法。首先,在網絡架構參數(shù)中添加資源平衡項,提升搜索算法穩(wěn)定性,同時減小剪枝過程中產生的更新不平衡和離散化誤差;其次,選擇部分通道進行搜索空間的混合操作,以節(jié)省計算資源,提升搜索效率,緩解網絡過擬合;最后,根據(jù)高分辨率遙感影像地物復雜、分布離散及空間范圍廣等特點,引入Gumbel-Softmax Trick方法從非連續(xù)概率分布進行采樣,以提高采樣效率。實驗結果表明,新方法能高效地自動搜索出分割高分辨率遙感影像的網絡架構,具有分割精度高、計算資源占用率低的特點。

        在身份檢測與識別方面,論文《采用元學習的多場景教室學生姿態(tài)檢測方法》針對不同教學場景圖像的數(shù)據(jù)分布差異較大造成的跨域偏移問題,提出了一種采用元學習的多場景學生姿態(tài)檢測方法。該方法設計了姿態(tài)檢測元模型和一種參數(shù)可學習的域適應優(yōu)化器,通過離線學習和在線學習相結合的方式,實現(xiàn)特定教學場景姿態(tài)檢測模型的快速域適應。實驗結果表明,該方法在多場景姿態(tài)檢測數(shù)據(jù)集上的綜合檢測精度要優(yōu)于目前主流的目標檢測模型,對有標簽圖像較少的新場景也有較好的域適應效果。論文《一種復雜監(jiān)控場景下的人體檢測算法》針對現(xiàn)有人體檢測算法存在著準確率不高、模型泛化能力不強等顯著問題,基于特征圖像金字塔和多尺度感受野理論,設計了一種檢測網絡的特征融合方式和特征圖的生成策略,依靠輕量級的特征圖像金字塔技術,并結合數(shù)據(jù)增強、錨點框匹配策略和遮擋損失函數(shù)等優(yōu)化方法,進而提出了一種基于深度神經網絡的人體檢測算法EFIPNet。算法的有效性驗證表明,新設計的高效人體檢測算法可以有效地提高人體目標的檢測精度,實現(xiàn)復雜監(jiān)控場景下的人體精確和實時檢測。論文《一種LSTM與CNN相結合的步態(tài)識別方法》針對視頻行人運動過程中拍攝視角、外觀變化等因素對步態(tài)識別的影響,著眼于步態(tài)信息的三維性,提出一種長短時記憶網絡與卷積神經網絡相結合的步態(tài)識別方法。采用三維人體姿態(tài)估計提取視頻行人的關節(jié)姿態(tài)信息,構建關節(jié)運動約束矩陣和關節(jié)動作特征矩陣表征關節(jié)運動約束及人體結構約束的時序特性和關節(jié)位移的空間特性;設計了長短時記憶網絡和卷積神經網絡雙路并行的深度網絡學習運動約束矩陣和動作特征矩陣中的步態(tài)時空特征。在公開的多視角步態(tài)數(shù)據(jù)庫CASIA-B中對網絡模型進行了訓練檢驗,結果表明新方法不但省略了行人檢測、追蹤等預處理步驟,在視角跨度±36°范圍內獲得了80%以上的識別率。論文《一種利用背景光流特征的虛假人臉檢測方法》提出一種利用背景光流特征的真虛假人臉檢測方法。該方法聚焦真實人臉背景與虛假人臉背景之間的運動差異性,設計人臉外多個背景對比區(qū)域的分割方法、歸一化方法,分析人臉外對比區(qū)域的光流及其角度分布,構造光流角度的分布相似性測算函數(shù),測算判別多個背景對比區(qū)的運動狀況,通過評估對比區(qū)的運動一致性實施檢測虛假人臉檢測。新方法在公開數(shù)據(jù)集ReplayAttack和CASIA-FASD中的測試準確率分別為97.87%和90.95%,可有效甄別含背景區(qū)手持照片視頻的虛假人臉攻擊。論文《采用空洞卷積的多尺度融合草圖識別模型》針對現(xiàn)有的基于深度學習的草圖識別方法大多將普通卷積作為草圖特征提取的主要手段,而忽略了草圖對象的稀疏性特點,提出了一種通過空洞卷積實現(xiàn)草圖特征提取的草圖識別模型。該模型將空洞卷積和普通卷積融合,利用空洞卷積不增加卷積核有效單元數(shù)量即可擴大感受野的特性,實現(xiàn)對草圖結構特征的初步提取。實驗結果表明,該模型在TU-Berlin SKetch數(shù)據(jù)集取得了72.6%的識別準確率,相較于目前主流的草圖識別方法,效果更加明顯。論文《一種基于局部表征的面部表情識別算法》提出一種基于局部表征的表情識別算法。為提取面部的局部特征,該文首先根據(jù)獲取的人臉68個特征點將整體面部圖像劃分成43個子區(qū)域,隨后選擇肌肉運動區(qū)域與面部顯著器官所覆蓋的8個局部候選區(qū)域作為卷積神經網絡的輸入。為均衡局部候選區(qū)域的特征,EAU-CNN采用8個并行的特征提取分支,每個分支支配不同維全連接層。分支的輸出按照注意力自適應地連接,以突出不同局部候選區(qū)域的重要程度。最后經Softmax函數(shù),將表情分為中性、憤怒、厭惡、驚訝、高興、悲傷和恐懼七類。該文在CK+、JAFFE、自定義大型FED數(shù)據(jù)集上對算法進行了評估實驗,所提算法平均準確率分別為99.85%、96.61%、98.29%,該評價指標超過S-Patches算法6.01%、10.17%、6.09%,結果表明局部表征能夠提升表情識別性能。

        在目標檢測與跟蹤方面,論文《注意力機制的多尺度單目標跟蹤算法》提出了基于注意力機制的多尺度單目標跟蹤算法。這種算法使用Inception網絡非對稱卷積思想,在增加多尺度卷積核的同時減少參數(shù)量;非對稱卷積可以有效地結合局部特征和全局特征,提高跟蹤的魯棒性。在實驗部分,該算法在OTB-100數(shù)據(jù)集與其他先進的跟蹤算法進行對比,在準確率和成功率方面相較ATOM算法分別有0.9%和0.8%的提升,提升了精度,同時在目標丟失后更容易找回目標。論文《一種小型四軸飛行器目標跟蹤控制算法》,為了提高利用四軸飛行器單目攝像頭傳回的圖片幀執(zhí)行目標跟蹤任務時的實時性和穩(wěn)定性,提出一種基于注意力模型的圖片幀預處理和基于反饋控制的四軸飛行器姿態(tài)調整的算法。實驗結果表明,所提出的目標跟蹤算法在圖像處理實時性和飛行器飛行穩(wěn)定性兩方面都有提升。所提出的算法可為四軸飛行器圖像處理應用提供有力的技術支持。論文《一種深度融合機制的遙感圖像目標檢測技術》提出一種深度融合機制的遙感圖像目標檢測技術。該技術基于深度卷積神經網絡,將多尺度、注意力機制與寬度學習三者融合,用于遙感圖像目標檢測技術。實驗結果證明,與當前先進的方法相比,該算法能夠有效解決遙感圖像目標檢測中速度慢、精度低、易丟失小目標等問題,提升目標檢測的準確率。論文《一種利用貝葉斯優(yōu)化的彈道目標微動分類網絡》針對在人工選擇適合彈道目標微動分類的神經網絡超參數(shù)和結構需要人力經驗和大量的計算時間,而且得到的參數(shù)不能保證為最優(yōu)的問題,提出用貝葉斯優(yōu)化算法來自動獲取卷積神經網絡超參數(shù)和最優(yōu)結構的方法,以提高神經網絡對微動特征的分類性能。實驗結果表明,貝葉斯優(yōu)化算法能夠較快地完成對卷積神經網絡的參數(shù)優(yōu)化,并且得到的卷積神經網絡模型具有良好的識別效果和魯棒性。論文《響應差異約束的相關濾波無人機目標跟蹤算法》針對無人機視頻中跟蹤目標易受到形變、背景雜亂等問題的困擾,提出一種新穎的基于響應差異約束的相關濾波無人機目標跟蹤算法。該方法根據(jù)濾波器在前后幀間變化的一致性,建模不同濾波器基于同一訓練樣本的響應差異,建立目標函數(shù)的約束機制,準確學習目標的外觀變化,提升濾波器的魯棒性;同時引入輔助變量構建優(yōu)化函數(shù),采用交替求解算法將計算目標問題轉化為求濾波器和輔助變量的最優(yōu)解。實驗結果表明,所提算法在跟蹤準確度和成功率兩個指標上均好于其他算法,且在無人機視角復雜環(huán)境下,對光照變化、形變、遮擋和運動模糊等挑戰(zhàn)性屬性均具有良好的魯棒性,同時平均速度達到21.7幀/秒,能夠滿足無人機目標跟蹤的實時性需求。論文《改進YOLOv3的快速遙感機場區(qū)域目標檢測》,為了取得快速且精確的檢測效果,自主構建了更加符合具體任務的數(shù)據(jù)集;以一步回歸全局檢測方法的代表網絡YOLOv3為基礎框架,針對數(shù)據(jù)集中類別分布不均衡問題,提出使用生成的方法用生成對抗網絡進行有針對性的數(shù)據(jù)擴充,以獲得具有領域變換特性、類數(shù)據(jù)分布更為均衡的數(shù)據(jù)集。實驗表明,相比原網絡,改進網絡帶來了 4.98% 的多類目標平均檢測精確率以及8.33%的平均交并比的提升,分別達到了 89.07% 的多類目標平均檢測精度以及61.97%的平均交并比。此外,改進網絡的平均檢測時間為0.062 5 s,相比類似檢測率的RetinaNet-101網絡速度約快5.3倍,體現(xiàn)了該網絡的有效性以及對具體任務的實用性。論文《空間可靠性和相關濾波器聯(lián)合學習的跟蹤算法》針對基于背景感知的相關濾波跟蹤算法中裁剪矩陣的使用缺乏對空間不同位置可靠性的學習,可能會導致背景信息對濾波器的學習占據(jù)主導地位的問題,將空間可靠性的學習引入相關濾波算法中,通過交替方向法與濾波器進行聯(lián)合迭代求解,加強了濾波器對空間可靠性區(qū)域的學習,增強了濾波器的對目標與背景的判別力。此外,為優(yōu)化模型更新策略,提出了一種基于感知哈希算法的自適應模型更新方法,提升了濾波器學習的有效性。所提出的算法在標準視覺跟蹤數(shù)據(jù)集上進行了全面評估,驗證了該算法在性能上的有效性以及實時性。論文《面向高速公路的車輛視頻監(jiān)控分析系統(tǒng)》提出一套面向高速公路的車輛視頻監(jiān)控分析系統(tǒng)。通過對監(jiān)控視頻流中的車輛進行檢測和跟蹤,進一步實現(xiàn)高速公路相關車輛監(jiān)測應用。該系統(tǒng)提出了基于雙向金字塔多尺度融合的輕量級車輛檢測跟蹤算法。該算法基于YOLOv3在主干網絡上使用輕量級網絡EfficientNet,并且利用雙向特征金字塔網絡(BiFPN)進行多尺度特征融合,使得算法在保證檢測實時性的同時提升檢測準確度。實驗結果表明,本文提出的算法檢測精度達97.11%,高于原始YOLOv3檢測算法13.74%,并且結合DeepSORT模型在車輛跟蹤上以31幀每秒的幀速度實時運行。同時,該車輛監(jiān)測系統(tǒng)可在車流量統(tǒng)計、交通異常事件檢測領域進行多路實時監(jiān)測,具有實際應用價值。

        在行人重實別方面,論文《利用混合雙通路神經網絡的跨模態(tài)行人重識別》提出了一種基于混合雙通路神經網絡的跨模態(tài)行人重識別方法。該方法深入分析了混合雙通路神經網絡中模態(tài)共享參數(shù)層和模態(tài)特有非共享參數(shù)層對跨模態(tài)行人重識別模型的影響,同時充分利用了不同模態(tài)數(shù)據(jù)類內特征分布的一致性約束和類間相關性系數(shù)在不同模態(tài)間的一致性約束來提升模型精度;針對所設計的整體神經網絡架構,該方法有效采用了混合自適應學習率調整的模型訓練策略來提升模型的特征學習能力;最后,通過大量實驗分析驗證了所提方法的有效性,并且該方法在當前可見光—紅外圖像行人重識別兩個標準數(shù)據(jù)集(SYSU-MM01和RegDB)上都取得了非常先進的識別精度。論文《聯(lián)合DD-GAN和全局特征的井下人員重識別方法》為解決礦井下光線暗淡、光照不均勻,現(xiàn)有常規(guī)行人重識別方法不能滿足井下人員重識別的問題,提出一種聯(lián)合雙鑒別式生成對抗網絡和全局特征的井下人員重識別方法。實驗證明,本文方法可實現(xiàn)煤礦巷道低照度場景下精準的人員重識別任務。

        除上述技術討論外,還有幾篇論文討論了視頻、圖像表征與檢索技術等相關內容。

        論文《深度非對稱壓縮型哈希算法》針對圖像檢索中很多深度監(jiān)督哈希算法不能有效地利用大型數(shù)據(jù)集監(jiān)督信息和困難樣本的問題,提出了一種端到端的非對稱壓縮型哈希算法。該算法將網絡的輸出空間分為查詢集與數(shù)據(jù)庫集,構造數(shù)據(jù)監(jiān)督矩陣,并采用非對稱的方式使全局監(jiān)督信息得到有效的利用。同時,在損失函數(shù)中對同類哈希碼聚攏程度與不同類哈希碼的分離程度進行顯式的約束,提高訓練過程中模型對困難樣本的判別能力。實驗結果表明,提出算法可以學習到更加判別緊湊的哈希碼,在檢索精度上要優(yōu)于目前主流的算法。

        論文《基于自監(jiān)督學習的視頻表征方法綜述》根據(jù)輔助任務采用的信息不同,從時序、時空和多模態(tài)信息三個方面,對近三年基于自監(jiān)督學習的視頻表征方法進行分析和總結。然后,從動作識別和視頻檢索下游任務對比實驗結果,分析基于自監(jiān)督學習的視頻表征模型的優(yōu)劣。最后,總結了存在的問題并對其發(fā)展進行展望。

        我們相信讀者可以從以上的學術論文中發(fā)現(xiàn)很多有益的思路和解決問題的方法,并借此機會非常感謝所有作者的貢獻以及所有評審者的辛勤付出。是大家的無私奉獻和辛勤努力,使得編委團隊成功編輯了這一期專題。

        編委簡介

        高新波,重慶郵電大學教授,博士生導師,國家“萬人計劃”科技創(chuàng)新領軍人才、新世紀百千萬人才工程國家級人選、國家杰出青年科學基金獲得者,享受國務院政府特殊津貼專家。主要從事人工智能、機器學習、圖像處理、計算機視覺和模式識別等領域的研究工作,提出了基于三元空間融合的異質圖像合成與識別算法,以及與人眼視覺感知相吻合的圖像質量客觀評價模型,即將物理空間、信息空間和物理空間相結合構建以人為中心的視覺計算模型。在該領域發(fā)表高質量的學術論文600余篇,其中在重要國際學術期刊和會議上發(fā)表論文200余篇,Google Scholar統(tǒng)計引用17 000余次,2014~2018年連續(xù) 五年入選愛思唯爾發(fā)布的計算機科學領域中國高被引學者(Most Cited Chinese Researchers)榜單。申請國家發(fā)明專利100余項,授權50余項,獲得軟件著作權12項。主持包括國家杰出青年科學基金項目、國家自然科學基金重點項目、面上項目、教育部重點項目、陜西省重點科技攻關項目在內的縱向研究課題20余項,此外還 與MSRA、Intel中國研究中心(ICRC)、Samsung電子等機構開展國際合作研究。獲國家自然科學二等獎(2016)、陜西省科學技術獎一等獎3項(2009,2011,2015)、教育部自然科學二等獎1項(2013)、陜西省高??萍歼M步一等獎3項(2008,2009,2013)。

        E-mail:gaoxb@cqupt.edu.cn

        王楠楠,西安電子科技大學教授,博士生導師,國家優(yōu)秀青年基金獲得者,綜合業(yè)務網理論及關鍵技術國家重點實驗室智能信息處理中心主任。主要研究方向為計算機視覺、模式識別和圖像處理。在IEEE TPAMI、IJCV、IEEE TNNLS、IEEE TCyber等著名期刊和ICML、NeurIPS、CVPR、ICCV、ECCV等主流國際/國內會議上發(fā)表論文100余篇,授權國家發(fā)明專利30余項,軟件著作權3項,在申請專利15項,入選中國科協(xié)青年人才托舉工程,獲教育部自然科學一等獎、陜西省科學技術獎一等獎、中國圖象圖形學學會自然科學二等獎、陜西青年科技獎、中國人工智能學會優(yōu)秀博士學位論文、陜西省優(yōu)秀博士學位論文等獎項。目前擔任中國電子學會青年科學家俱樂部會員,VALSE執(zhí)行領域主席委員會副主席、常務領域主席(http://valser.org/),中國圖象圖形學學會學術工委委員、青年工作委員會執(zhí)行委員,中國計算機學會人工智能專委會委員、多媒體專委會委員,中國人工智能學會模式識別專委會委員,中國圖象圖形學學會多媒體專委會委員、遙感圖像專委會委員,陜西省電子學會圖象圖形工程專委會委員。

        E-mail:nnwang@xidian.edu.cn

        梁榮華,浙江工業(yè)大學教授,計算機科學與技術學院、軟件學院院長,博士生導師。主要研究多源異構數(shù)據(jù)的可視表達與理解,研究從數(shù)據(jù)采集的科學儀器,到數(shù)據(jù)的處理,進而到可視分析理解,突破普通用戶理解和識別生物特征數(shù)據(jù)的瓶頸。主持了國家重點研發(fā)計劃項目(首席科學家)、國家自然科學基金重大科研儀器項目、國家自然科學基金重點項目等,發(fā)表論文80余篇,包括IEEE TPAMI、TKDE、TVCG、TIFS、TMM、TCYB、TIM、AAAI、IJCAI等領域頂級期刊和會議,以第一完成人獲得浙江省科技進步一等獎、中國專利優(yōu)秀獎、教育部科技進步二等獎和浙江省科學技術二等獎等。獲得國家“萬人計劃”科技創(chuàng)新領軍人才、科技部中青年科技創(chuàng)新領軍人才、教育部“新世紀優(yōu)秀人才”支持計劃、浙江省有突出貢獻的中青年專家、浙江省杰出青年科學基金等。

        E-mail:rhliang@zjut.edu.cn

        鄭偉詩,中山大學教授,機器智能與先進計算教育部重點實驗室副主任,數(shù)據(jù)科學與計算機學院智能科學與技術研究所副所長,中山大學百人計劃(2011年)廣東省引進創(chuàng)新科研團隊計算科學科研團隊核心成員。研究方向是機器視覺與智能學習,主要面向以人為中心的圖像識別領域(包括人臉識別、行人再標識和行為識別),著重發(fā)展相關的機器學習方法和理論;并最近側重研究高性能大規(guī)模機器學習算法,以解決應用領域中的大規(guī)模圖像識別問題。發(fā)表論文90余篇,其中已在國際頂級和權威雜志,包括IEEE TPAMI、IEEE TNN、IEEE TIP、IEEE TSMC-B、Pattern Recognition和計算機視覺國際頂級學術會議和人工智能國際計算機頂級學術會議ICCV、CVPR、IJCAI、AAAI發(fā)表論文近50余篇,在其他雜志和會議上發(fā)表論文十多篇?,F(xiàn)/將主持國家基金、廣州市珠江新星支持計劃、廣東省自然科學杰出青年基金等10項科研基金。

        E-mail:wszheng@ieee.org

        徐邁,北京航空航天大學教授,博士生導師,國家自然科學基金優(yōu)秀青年基金獲得者、教育部青年長江學者,中國圖像圖形學學會青工委副主任。2016年獲教育部霍英東青年基金資助,2017年獲人工智能學會技術發(fā)明一等獎(第二完成人),2018年獲中國電子學會優(yōu)秀科技工作者,2019年獲國家優(yōu)秀青年基金,2020年獲北京市杰出青年基金、教育部技術發(fā)明一等獎(第一完成人),2021年獲中國計算機學會杰出演講者榮譽。研究興趣為圖像處理、計算機視覺與人工智能以及在視頻壓縮與通信、生物醫(yī)學工程領域的應用。學術方面:近五年,在IJCV、IEEE TPAMI、JSAC、TIP、TMI、JSTSP、TCSVT等國際頂級期刊及CVPR、ICCV、ECCV、AAAI、DCC、ACM MM等頂級會議上發(fā)表論文100余篇(均為SCI/EI檢索),其中SCI檢索60余篇(JCR1區(qū)50余篇,IEEE期刊論文40余篇),谷歌引用3千余次,SCI他引千余次,多篇論文入選ESI高被引論文/熱點論文。獲IEEE視頻處理領域頂級期刊IEEE TCSVT最佳論文獎提名1次,獲IEEE國際會議最佳論文獎3次,會議最佳論文提名1項。作為負責人承擔項目10余項,包括國家自然科學基金首批原創(chuàng)探索項目、優(yōu)青項目、2項面上項目、青年項目、軍委科技委創(chuàng)新特區(qū)項目、863項目(3項)。擔任圖像處理領域頂級期刊IEEE TIP編委(Associate Editor)、IEEE TMM編委(Associate Editor)、信號處理領域權威期刊IEEE J-STSP的首席客座編委(Lead Guest Editor)。2013年起承擔本科生“數(shù)字圖像處理”及研究生“機器學習”、“科技論文寫作”教學工作,2014年獲北京航空航天大學“我愛我?guī)煛笔呀處煪劇V笇У谋究粕@北航“金質獎章”/“沈元獎章”2人(北航本科生最高榮譽),北航優(yōu)秀本科畢業(yè)設計3人次。指導的研究生獲中國電子學會優(yōu)秀碩士論文獎3項(含提名獎1項),北航“研究生十佳”5人(北航研究生最高榮譽)、提名1人,北航優(yōu)秀碩士畢業(yè)論文3人,國家獎學金9人。

        E-mail:MaiXu@buaa.edu.cn

        盧策吾,上海交通大學教授,2019年度求是杰出青年學者獎獲得者。主要從事計算機視覺與智能機器人的研究,在圖像主結構表征、視覺關系學習以及人體行為姿態(tài)理解等關鍵問題上取得多項突破,有諸多創(chuàng)新貢獻。多項成果在智能安防,機器人,無人車等重要領域得到應用。在CVPR/ICCV/PAMI等頂會頂刊發(fā)表論文60多篇,根據(jù)google scholar申請人論文被引用近3000次;獲得Symposium on Non-Photorealistic Animation and Rendering NPAR 2012最佳論文獎(為十年來第一個華人機構獲獎)。擔任國際AI學術會議CVM 2018大會程序主席,國際計算機視覺頂級會議CVPR2020 Area Chair(區(qū)域主席)。盧策吾為“AI青年科學家聯(lián)盟”創(chuàng)始成員之一,并擔任執(zhí)行理事。

        E-mail:lu-cw@cs.sjtu.edu.cn

        宋一哲,英國薩里大學教授,CVSSP SketchX 實驗室主任。在頂級會議(CVPR、ICCV、ECCV、SIGGRAPHE Asia、ICML、BMVC)和期刊(IJCV、TIP、TVCG、TCSVT)上發(fā)表論文多篇(截至2021年7月,21篇CVPR、11篇ICCV、4篇ECCV、2篇SIGGRAPH Asia、1篇ICML),包括2015年英國機器視覺會議的最佳論文獎。2021年英國機器視覺會議(BMVC)的項目主席,定期擔任旗艦計算機視覺和機器學習會議的區(qū)域主席(AC),最近擔任CVPR′22和ICCV′21的區(qū)域主席,目前是《計算機科學前沿——計算機視覺》的副主編(AE),曾擔任過神經計算領域的AE(IF:5.190)。IEEE高級成員、高等教育學院(HEA)院士以及EPSRC審查學院的正式成員。

        E-mail:y.song@surrey.ac.uk

        韓軍功,英國阿伯里斯特威斯大學計算機科學系的全職教授和主席。研究興趣包括計算機視覺、人工智能和機器學習,在多媒體內容識別,計算機視覺,機器學習等方向發(fā)表SCI雜志論文100余篇,總影響因子超過350。其研究成果40余次發(fā)表在本領域頂級期刊(e.g.,IJCV)及主流 IEEE 匯刊(e.g.,IEEE T-IP 16)。此外,在計算機 CCF-A類會議發(fā)表論文40余篇(e.g.,NeurIPS,ICML,CVPR,ICCV,ACM MM,AAAI,etc.)。文章Google總引用率超過4 500次,一作單篇最高引1 470次(IEEE TCYB 2013-2019引用率,下載率雙第一),10篇論文被 Web of Science 收錄為高被引論文,1篇論文被選為熱點論文。擔任Elsevier Neurocomputing(IF 4.1)雜志,Springer Multimedia Tools and Applications(IF 2.1)雜志和IET Computer Vision(IF 1.6)雜志副主編以及4個本領域著名雜志(IEEE Transactions on Neural Network and Learning System,IEEE Transactions on Cybernetics等)的特約客座編委;同時還是IEEE Industry DSP Technology的常務委員會委員,IEEE Multimedia Communications 的技術委員會委員。

        E-mail:jungonghan77@gmail.com

        猜你喜歡
        檢測方法
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        “幾何圖形”檢測題
        “角”檢測題
        學習方法
        可能是方法不對
        小波變換在PCB缺陷檢測中的應用
        用對方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        四大方法 教你不再“坐以待病”!
        Coco薇(2015年1期)2015-08-13 02:47:34
        日韩av高清在线观看| 蜜桃视频在线免费视频| 国产在线无码一区二区三区视频| 国偷自产一区二区免费视频| 人妻夜夜爽天天爽三区麻豆AV网站| 亚洲国产日韩欧美高清片a| 久久久精品国产老熟女| 日本免费视频| 最近日本免费观看高清视频| 国产成人美女AV| 国产自拍在线视频观看| 香蕉视频在线观看亚洲| 五级黄高潮片90分钟视频| 国模精品二区| 亚洲第一页在线观看视频网站| 久久久精品视频网站在线观看| 亚洲一区 日韩精品 中文字幕| 国产三级在线视频播放| 国产一区二区三区蜜桃av| 男女裸体做爰视频高清| 国产亚洲精品久久久ai换| 精品无码AV无码免费专区| 中文字幕一区二区三区在线看一区 | www国产亚洲精品| 国产色秀视频在线播放| 亚洲av不卡电影在线网址最新| 情头一男一女高冷男女| 亚洲人成网站色7799| 236宅宅理论片免费| 午夜无码无遮挡在线视频| 成人一区二区三区国产| 疯狂的欧美乱大交| 国产亚洲亚洲精品777| 亚洲中文字幕国产综合| 在线日本看片免费人成视久网| 伊人久久大香线蕉综合网站| 久久久久久久妓女精品免费影院| 久久精品国产亚洲av夜夜| 帅小伙自慰videogay男男| 好大好硬好爽免费视频| 无码啪啪人妻|