亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        機(jī)器視覺(jué)在軍事領(lǐng)域的應(yīng)用現(xiàn)狀及發(fā)展趨勢(shì)

        2022-11-19 01:52:40宮黎明
        遙測(cè)遙控 2022年6期
        關(guān)鍵詞:軍事機(jī)器傳感器

        陳 靜,宮黎明

        機(jī)器視覺(jué)在軍事領(lǐng)域的應(yīng)用現(xiàn)狀及發(fā)展趨勢(shì)

        陳 靜,宮黎明

        (中國(guó)人民解放軍93160部隊(duì) 北京 100076)

        機(jī)器視覺(jué)技術(shù)憑借其非接觸測(cè)量、實(shí)時(shí)性好、可持續(xù)工作等優(yōu)點(diǎn),在軍事領(lǐng)域中有著廣闊的應(yīng)用前景。在對(duì)機(jī)器視覺(jué)光學(xué)照明系統(tǒng)、成像系統(tǒng)、視覺(jué)信息處理系統(tǒng)等關(guān)鍵技術(shù)進(jìn)行概述的基礎(chǔ)上,詳細(xì)分析了機(jī)器視覺(jué)技術(shù)在軍事領(lǐng)域進(jìn)行典型目標(biāo)物識(shí)別、人員識(shí)別、裝備缺陷檢測(cè)等典型場(chǎng)景以及典型軍事裝備上的應(yīng)用現(xiàn)狀。在此基礎(chǔ)上,指出了機(jī)器視覺(jué)在軍事領(lǐng)域的應(yīng)用,仍然存在視覺(jué)傳感器硬件系統(tǒng)難以適應(yīng)極端環(huán)境、復(fù)雜的軍事目標(biāo)適應(yīng)性不足、目標(biāo)識(shí)別的實(shí)時(shí)性難以保證、多傳感器融合獲取軍事目標(biāo)信息能力缺乏等問(wèn)題。同時(shí),對(duì)機(jī)器視覺(jué)技術(shù)在軍事領(lǐng)域應(yīng)用的未來(lái)發(fā)展趨勢(shì)進(jìn)行了展望,研究分析結(jié)果可為機(jī)器視覺(jué)在軍事領(lǐng)域的進(jìn)一步實(shí)用化提供參考。

        機(jī)器視覺(jué);軍事裝備;目標(biāo)識(shí)別;缺陷檢測(cè)

        引 言

        機(jī)器視覺(jué)是建立在計(jì)算機(jī)視覺(jué)理論工程化基礎(chǔ)上的一門(mén)學(xué)科,主要利用計(jì)算機(jī)來(lái)模擬人或再現(xiàn)與人類(lèi)視覺(jué)有關(guān)的某些智能行為,從客觀事物的圖像中提取信息進(jìn)行處理并加以理解,從而高效精準(zhǔn)地完成復(fù)雜環(huán)境辨識(shí)與判斷等相關(guān)任務(wù)[1]。機(jī)器視覺(jué)涉及到光學(xué)成像、視覺(jué)信息處理、人工智能、機(jī)電一體化等相關(guān)技術(shù)[2],具有高實(shí)時(shí)性、準(zhǔn)確性及智能化的特點(diǎn),在生產(chǎn)生活中有著廣闊的應(yīng)用前景[3]。近年來(lái),機(jī)器視覺(jué)已逐步在汽車(chē)制造、食品檢測(cè)、交通、軍事、紡織加工等多個(gè)領(lǐng)域得到應(yīng)用,市場(chǎng)規(guī)模不斷擴(kuò)大[4]。

        《中國(guó)工程技術(shù)2035發(fā)展戰(zhàn)略》中明確指出了發(fā)展包含圖像信息在內(nèi)的智能傳感及互聯(lián)互通網(wǎng)絡(luò)的重要性[5],鼓勵(lì)相關(guān)技術(shù)基礎(chǔ)理論的突破并與工程實(shí)際進(jìn)行有機(jī)融合。特別是伴隨著軍事信息化時(shí)代的到來(lái),《中華人民共和國(guó)國(guó)民經(jīng)濟(jì)和社會(huì)發(fā)展第十四個(gè)五年規(guī)劃和2035年遠(yuǎn)景目標(biāo)綱要》中明確提出,“堅(jiān)持以機(jī)械化為基礎(chǔ)、信息化為主導(dǎo)、智能化為方向,推動(dòng)機(jī)械化信息化智能化融合發(fā)展,在推進(jìn)智能化進(jìn)程中發(fā)展高度發(fā)達(dá)的機(jī)械化和更高水平的信息化,引領(lǐng)國(guó)防和軍隊(duì)現(xiàn)代化轉(zhuǎn)型升級(jí)”。為此,將先進(jìn)的工程技術(shù)應(yīng)用于軍事裝備,大力提升其智能化水平,對(duì)于提升作戰(zhàn)能力具有重要意義。其中,機(jī)器視覺(jué)技術(shù)作為信息化的重要技術(shù)手段之一,對(duì)于提升武器裝備的打擊精度、拓展裝備適用范圍、提高部隊(duì)作戰(zhàn)能力具有重要意義[6, 7]。

        從20世紀(jì)70年代開(kāi)始,國(guó)外科研人員便開(kāi)始探索模式識(shí)別與圖像處理技術(shù)在軍事領(lǐng)域的應(yīng)用[8]。隨著視覺(jué)傳感器硬件系統(tǒng)的不斷更新及相關(guān)算法不斷取得突破,機(jī)器視覺(jué)技術(shù)在武器裝備及戰(zhàn)場(chǎng)環(huán)境中的應(yīng)用效果不斷凸顯,應(yīng)用范圍不斷擴(kuò)大。我國(guó)從上個(gè)世紀(jì)末也開(kāi)展了軍事領(lǐng)域機(jī)器視覺(jué)相關(guān)技術(shù)的研究,在復(fù)雜環(huán)境下的目標(biāo)物及人員識(shí)別、裝備缺陷檢測(cè)等方面取得了一系列的研究成果,提升了部隊(duì)在戰(zhàn)場(chǎng)上的感知與決策能力。特別是近年來(lái),隨著計(jì)算機(jī)科學(xué)、控制科學(xué)、儀器科學(xué)等學(xué)科的飛速發(fā)展與多學(xué)科交叉融合的不斷深入,機(jī)器視覺(jué)相關(guān)技術(shù)發(fā)展迅猛,我軍的作戰(zhàn)水平得到快速提升。

        本文圍繞機(jī)器視覺(jué)技術(shù)特點(diǎn)以及在軍事領(lǐng)域不同方向的應(yīng)用,對(duì)相關(guān)研究成果進(jìn)行了綜述,并提出了機(jī)器視覺(jué)在軍事領(lǐng)域應(yīng)用過(guò)程中所存在的突出問(wèn)題。在此基礎(chǔ)上,對(duì)未來(lái)發(fā)展趨勢(shì)進(jìn)行了分析。分析成果可為基于機(jī)器視覺(jué)的軍事裝備的發(fā)展及作戰(zhàn)指揮提供一定的參考。

        1 機(jī)器視覺(jué)技術(shù)概述

        機(jī)器視覺(jué)技術(shù)是用電子設(shè)備模仿人的視覺(jué)功能,從環(huán)境的圖像中提取信息并進(jìn)行處理。機(jī)器視覺(jué)技術(shù)主要包括目標(biāo)取像、分析數(shù)據(jù)、輸出結(jié)果這三部分,該過(guò)程往往需要多個(gè)機(jī)器視覺(jué)系統(tǒng)協(xié)作完成。一般來(lái)說(shuō),機(jī)器視覺(jué)系統(tǒng)由光學(xué)照明系統(tǒng)、成像系統(tǒng)、視覺(jué)信息處理系統(tǒng)等組成[9]。

        1.1 光學(xué)照明系統(tǒng)

        光學(xué)照明系統(tǒng)將特定光源以特定方式照射到被測(cè)物體,以在取像時(shí)突出被測(cè)目標(biāo)的特定特征并抑制非必要特征。正確運(yùn)用光學(xué)照明系統(tǒng)能夠更好地將目標(biāo)與背景分離,以降低圖像的分析難度。最常見(jiàn)的照明方式為日光照明,例如,長(zhǎng)春理工大學(xué)呂家祺[10]提出了一種基于混合式聚光方法的日光照明系統(tǒng),該系統(tǒng)采用雙拋物面聚光模塊和無(wú)漏光導(dǎo)光板實(shí)現(xiàn)聚光,并建立了相應(yīng)的數(shù)學(xué)模型,從而為建筑提供更均勻的輻照度。然而,日光照明系統(tǒng)并不適用夜晚等日光不足的場(chǎng)景,常常需要增加輔助照明方式。部分學(xué)者以發(fā)光二極管LED為基礎(chǔ)建立了照明系統(tǒng)。與日光相比,LED具有耗能少、體積小、壽命長(zhǎng)等優(yōu)點(diǎn),但其仍然存在照明不均等問(wèn)題。為此,黃從高[11]提出了一種基于多級(jí)配光組合的窄光束均勻照明系統(tǒng)。該系統(tǒng)首先依據(jù)光學(xué)原理設(shè)計(jì)出用于初級(jí)聚光的復(fù)合拋物面聚光器,在此基礎(chǔ)上,采用菲涅爾透鏡控制LED等光的溢散,而后通過(guò)非透鏡實(shí)現(xiàn)光線的均勻輸出。周壹義[12]通過(guò)在光源點(diǎn)與目標(biāo)平面之間建立能量對(duì)應(yīng)關(guān)系,設(shè)計(jì)了自由曲面透鏡和反射器,實(shí)現(xiàn)了平面光照的均勻分布,如圖1所示。在軍事領(lǐng)域中,將LED燈作為光源容易暴露自身,為此,許多學(xué)者針對(duì)隱蔽性更高的紅外線照明系統(tǒng)進(jìn)行了研究。張建忠[13]研究了數(shù)字微鏡器件DMD(Digtial Micromirror Devices)對(duì)紅外光的調(diào)制特性,依據(jù)衍射原理計(jì)算出不同波段下光束經(jīng)調(diào)制后的光強(qiáng)分布,從而設(shè)計(jì)了相應(yīng)的照明系統(tǒng),并抑制了雜光,最終能夠完美地將DMD的工作波段從可見(jiàn)光延伸到紅外波段,實(shí)現(xiàn)對(duì)目標(biāo)的照明。針對(duì)飛機(jī)探測(cè)等遠(yuǎn)距離照明要求,孫盈[14]利用Dammann光柵分束器與開(kāi)普勒望遠(yuǎn)鏡相結(jié)合的方式構(gòu)建了照明光學(xué)系統(tǒng),該光學(xué)照明系統(tǒng)可實(shí)現(xiàn)對(duì)8 m~60 m距離內(nèi)的目標(biāo)進(jìn)行照明,并形成相應(yīng)的圖像。此外,許多學(xué)者對(duì)光源的顏色展開(kāi)了研究,例如在文獻(xiàn)[15]中,李俊采用藍(lán)色光能夠較好地分辨出紅色瓶蓋與白色字,便于后續(xù)的文字識(shí)別。VRIESENGA等[16]通過(guò)改變光源的顏色來(lái)提高圖像的對(duì)比度,如圖2所示。雖然光學(xué)照明系統(tǒng)已經(jīng)有了許多研究,然而在軍事應(yīng)用時(shí)的環(huán)境是復(fù)雜多變的,現(xiàn)有的光學(xué)照明系統(tǒng)通用性較差,需要根據(jù)不同的背景、目標(biāo)等選擇不同的照明強(qiáng)度、顏色、照射方案等以達(dá)到目標(biāo)和背景的最佳分割效果。為此,需要提出新型照明方式,并具有更好的通用性。

        圖1 實(shí)現(xiàn)照度均勻的透鏡設(shè)計(jì)示意圖

        1.2 成像系統(tǒng)

        成像系統(tǒng)是機(jī)器視覺(jué)技術(shù)中“視”的部分,包括鏡頭、工業(yè)相機(jī)、圖像采集卡等相關(guān)設(shè)備。

        鏡頭相當(dāng)于眼睛中的晶狀體,其作用是將目標(biāo)的光圖像匯聚于光敏陣上。按照等效焦距可將鏡頭分為廣角鏡頭、中焦距鏡頭、長(zhǎng)焦距鏡頭;按功能可將鏡頭分為變焦距鏡頭、定焦距鏡頭、定光圈鏡頭等。在選擇鏡頭時(shí),需要考慮焦距、工作距離、畸變[17]等因素,選取合適的焦距能夠獲得真實(shí)反映目標(biāo)物體大小形狀的圖片。同時(shí),選擇鏡頭時(shí)需要考慮鏡頭光敏面陣可接受的光源波長(zhǎng),以保證鏡頭對(duì)光線具有很好的透過(guò)性。

        圖2 改變光源顏色提高圖像對(duì)比度

        工業(yè)相機(jī)是一個(gè)光電轉(zhuǎn)換器件,它將所接收到的光輻射轉(zhuǎn)變?yōu)橐曨l/數(shù)字電信號(hào)。光電轉(zhuǎn)換器件包括光電轉(zhuǎn)換、外圍電路、圖像輸出接口等部分。按照相機(jī)內(nèi)傳感器的不同,相機(jī)可分為面陣式與線陣式兩類(lèi)。面陣相機(jī)能一次性獲得目標(biāo)和背景的整幅圖像,應(yīng)用面較廣,經(jīng)常應(yīng)用于目標(biāo)的面積、形狀和尺寸等測(cè)量。線陣相機(jī)呈線性獲取目標(biāo)圖像,長(zhǎng)度很長(zhǎng),但寬度卻只有幾個(gè)像素,能夠使高掃描頻率和高分辨率成為可能。面陣相機(jī)主要應(yīng)用于工業(yè)、醫(yī)療等領(lǐng)域,最典型的應(yīng)用是檢測(cè)連續(xù)材料的缺陷。因此,在選擇工業(yè)相機(jī)時(shí)需要考慮光電轉(zhuǎn)換模塊以及響應(yīng)速度等因素。

        圖像采集卡能夠?qū)⒉杉膱D片轉(zhuǎn)化為數(shù)字信息進(jìn)行存儲(chǔ),通過(guò)與相機(jī)協(xié)作實(shí)時(shí)完成圖像數(shù)據(jù)的高速采集與讀取等任務(wù),針對(duì)不同的相機(jī),圖像采集卡的選擇也不盡相同。

        1.3 視覺(jué)信息處理系統(tǒng)

        視覺(jué)信息處理系統(tǒng)是機(jī)器視覺(jué)系統(tǒng)的關(guān)鍵部分。在獲得目標(biāo)圖像后,通過(guò)對(duì)圖像進(jìn)行處理、分析和識(shí)別,從而實(shí)現(xiàn)對(duì)特定目標(biāo)的準(zhǔn)確辨識(shí)。視覺(jué)信息處理系統(tǒng)可以分為圖像預(yù)處理和特征分析理解兩部分。

        圖像預(yù)處理包括圖像增強(qiáng)、平滑、分割、去噪、配接等過(guò)程,主要用于提高圖像質(zhì)量,便于后續(xù)圖像處理。由于各種干擾,初步獲取的圖像常常含有高斯、泊松等多種噪聲,存在圖像模糊等現(xiàn)象,因此需要對(duì)圖像去噪來(lái)改善圖像質(zhì)量。常用的去噪方法一般可分為空間域去噪法與變換域去噪法[18]。

        圖像特征分析常常先對(duì)圖像進(jìn)行分割,然后從分割的圖像中提取形狀等關(guān)鍵特征[19, 20],最后引入模式匹配[21]、深度學(xué)習(xí)[22]等方法實(shí)現(xiàn)目標(biāo)的分類(lèi)與檢測(cè)。圖像分割具體指:根據(jù)目標(biāo)的特性將圖像劃分為多個(gè)具有特征的區(qū)域,從而便于確定目標(biāo)的位置以及所占區(qū)域的大小,常見(jiàn)的圖像分割方法包括閾值分割方法[23]、區(qū)域分割方法[24]、基于邊緣的分割方法[25]、基于神經(jīng)網(wǎng)絡(luò)的語(yǔ)義分割方法[26]等。在圖像分割后,對(duì)圖像進(jìn)行特征提取,常用的圖像特征有:形狀特征、紋理特征、顏色特征等。在提取完特征,引入分類(lèi)算法,如圖3所示的支持向量機(jī)分類(lèi)算法,通過(guò)模式匹配[27]、深度學(xué)習(xí)等方法對(duì)特征進(jìn)行分類(lèi),從而完成圖像的處理與識(shí)別。

        圖3 基于支持向量機(jī)的視覺(jué)分類(lèi)算法

        將深度學(xué)習(xí)算法引用到視覺(jué)處理中以增加識(shí)別速度與識(shí)別準(zhǔn)確率是現(xiàn)階段研究的熱點(diǎn)。例如,大連科技學(xué)院秦放等[28]針對(duì)特種車(chē)輛的識(shí)別問(wèn)題,基于深度學(xué)習(xí)算法建立了多模態(tài)融合圖像識(shí)別方法。該方法基于Inception V3深度網(wǎng)絡(luò)結(jié)構(gòu)(如圖4所示)建立了多模態(tài)識(shí)別框架,經(jīng)過(guò)實(shí)驗(yàn),特種車(chē)輛的識(shí)別準(zhǔn)確度提高到了97%,可應(yīng)用于特種車(chē)輛緊急避讓等。蘭州財(cái)經(jīng)大學(xué)邊柯登[29]基于深度卷積神經(jīng)網(wǎng)絡(luò)建立了玉米常見(jiàn)病害圖像識(shí)別算法,網(wǎng)絡(luò)結(jié)構(gòu)如圖5所示。該算法對(duì)數(shù)據(jù)量要求較小、識(shí)別率高且能夠適應(yīng)復(fù)雜環(huán)境下的任務(wù),能夠識(shí)別出玉米大斑病、玉米銹病和玉米褐斑病這三種玉米常見(jiàn)病害,以減少玉米病害可能性。上述方法均具有較好的可移植性,具有進(jìn)一步應(yīng)用于軍事領(lǐng)域的可能性。

        圖4 Inception V3網(wǎng)絡(luò)結(jié)構(gòu)

        圖5 基于深度學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

        2 機(jī)器視覺(jué)在軍事領(lǐng)域的應(yīng)用現(xiàn)狀

        2.1 機(jī)器視覺(jué)的典型應(yīng)用場(chǎng)景

        2.1.1 典型目標(biāo)物的識(shí)別

        機(jī)器視覺(jué)技術(shù)能夠應(yīng)用于海面可疑艦船、飛機(jī)跑道等特定軍事目標(biāo)的識(shí)別,對(duì)保障航空航海等方面的安全有著重要的意義。

        部分學(xué)者基于機(jī)器視覺(jué)技術(shù)建立了海面船只檢測(cè)系統(tǒng)[30, 31],該系統(tǒng)能夠依據(jù)各船只的特征進(jìn)行識(shí)別,跟蹤航行艦船并獲取航行信息,輔助海軍維護(hù)海上秩序,極大提高國(guó)土安全。在海面上,傳統(tǒng)光學(xué)遙感圖像檢測(cè)海面船艦?zāi)繕?biāo)容易受海島、云霧、海浪等復(fù)雜背景的干擾,從而導(dǎo)致檢測(cè)失敗。針對(duì)此問(wèn)題,國(guó)防科技大學(xué)趙浩光等[32]基于多尺度視覺(jué)顯著性圖提出了一種適用于復(fù)雜背景的艦船目標(biāo)檢測(cè)方法,原理圖如圖6所示。該算法針對(duì)目標(biāo)尺度多變的問(wèn)題,提出新的方案分離目標(biāo)和背景像素點(diǎn),有效解決了復(fù)雜背景對(duì)船只檢測(cè)的影響,經(jīng)試驗(yàn),檢測(cè)成功率達(dá)到93%。

        圖6 基于多尺度視覺(jué)顯著性圖的艦船目標(biāo)檢測(cè)方法

        飛機(jī)軌道的定位也是機(jī)器視覺(jué)技術(shù)的主要應(yīng)用領(lǐng)域,通過(guò)對(duì)各類(lèi)跑道的準(zhǔn)確辨識(shí),可以輔助飛機(jī)更加精準(zhǔn)地完成飛行任務(wù)。例如,中國(guó)民航大學(xué)智能信號(hào)與圖像處理重點(diǎn)實(shí)驗(yàn)室韓萍等[33],針對(duì)現(xiàn)有跑道檢測(cè)方法算法復(fù)雜、難以進(jìn)行實(shí)時(shí)檢測(cè)的問(wèn)題,提出了一種基于機(jī)器視覺(jué)技術(shù)與局部二值模式特征分類(lèi)算法的跑道實(shí)時(shí)檢測(cè)方法。該方法利用傳感器數(shù)據(jù)和地形數(shù)據(jù)生成跑道特征,并實(shí)時(shí)進(jìn)行圖像采集,通過(guò)將采集到的圖像與模板進(jìn)行匹配,從而完成跑道區(qū)域的檢測(cè)。檢測(cè)過(guò)程如圖7所示,該方法匹配精度高、實(shí)時(shí)性好,較現(xiàn)有跑道檢測(cè)方法能夠節(jié)省87.7%的時(shí)間。在飛機(jī)著陸時(shí),常常會(huì)遇到雷達(dá)等傳感設(shè)備失靈的問(wèn)題導(dǎo)致著陸失敗。針對(duì)此問(wèn)題,卡塞薩特大學(xué)Senpheng等[34]提出一種基于計(jì)算機(jī)視覺(jué)的固定翼無(wú)人機(jī)(UAV)自動(dòng)著陸輔助系統(tǒng),該系統(tǒng)結(jié)合現(xiàn)有的軌道檢測(cè)算法,實(shí)現(xiàn)了無(wú)人機(jī)的探測(cè)以及軌道的實(shí)時(shí)定位。海軍裝備部的劉佳銘[35]提出一種基于機(jī)械視覺(jué)技術(shù)的艦載機(jī)空間定位方案,該方法能夠使航母艦載機(jī)在起飛前實(shí)時(shí)準(zhǔn)確地獲得其在甲板上的空間位置,對(duì)提升艦載機(jī)的出動(dòng)率與成功率有重要意義。此外,空軍工程大學(xué)Wang等[36]將機(jī)器視覺(jué)技術(shù)應(yīng)用于空中加油任務(wù)中,提出了一種基于單目視覺(jué)檢測(cè)的自定位方法,解決了兩架飛機(jī)間難以快速、準(zhǔn)確地對(duì)準(zhǔn)空中加油口的問(wèn)題,通過(guò)該方法能夠準(zhǔn)確、安全地對(duì)油孔進(jìn)行檢測(cè)以及3D定位。此外,部分學(xué)者將機(jī)器識(shí)別技術(shù)應(yīng)用于戰(zhàn)場(chǎng)中偽裝目標(biāo)[37]、動(dòng)態(tài)目標(biāo)[38]的識(shí)別,并取得了一定的研究成果。

        圖7 飛機(jī)跑道檢測(cè)過(guò)程

        2.1.2 人員的識(shí)別

        利用機(jī)器視覺(jué)了解并獲取軍事區(qū)域重要人員的信息,不僅能夠全面、實(shí)時(shí)地掌握相關(guān)區(qū)域人員的活動(dòng)情況,還能夠減少軍事活動(dòng)中人員的任務(wù)參與度,對(duì)國(guó)家安全、我軍士兵生命安全有著重要意義。

        拉夫堡大學(xué)Irhebhude等[39]提出了一種基于機(jī)器視覺(jué)的對(duì)陸軍、海軍和空軍人員的自動(dòng)識(shí)別和分類(lèi)系統(tǒng)。該系統(tǒng)首先通過(guò)支持向量機(jī)對(duì)不同兵種的制服、帽子和徽章的特征進(jìn)行分類(lèi)并集成到一個(gè)系統(tǒng)中,然后通過(guò)視覺(jué)識(shí)別技術(shù)機(jī)對(duì)陸軍、海軍和空軍進(jìn)行識(shí)別。該系統(tǒng)能夠正確區(qū)分?jǐn)澄疑矸荩捎糜诩訌?qiáng)軍事基地或設(shè)施的安全。查羅塔爾科技大學(xué)Patoliya等[40]在一款間諜機(jī)器人上增加了視覺(jué)系統(tǒng),能夠?qū)崿F(xiàn)對(duì)戰(zhàn)區(qū)或邊境地區(qū)人類(lèi)活動(dòng)的檢測(cè),同時(shí)能夠在軍事武裝介入戰(zhàn)區(qū)之前了解該區(qū)域的情況,從而保證人員的安全。SRM大學(xué)Sathishkumar等[41]同樣研制了一款帶有視覺(jué)功能的間諜機(jī)器人,該機(jī)器人能夠代替士兵在復(fù)雜環(huán)境中監(jiān)測(cè)和識(shí)別人員信息,同時(shí)配有紅外照明,能夠在完全黑暗的情況下進(jìn)行偵察,對(duì)打擊不法分子、維護(hù)國(guó)家安全具有重要意義。此外,許多專(zhuān)家學(xué)者都對(duì)不同工況下的人員識(shí)別方法展開(kāi)了研究,取得了一定的研究成果[42-45]。綜上所述,機(jī)器視覺(jué)對(duì)不同人員的識(shí)別在國(guó)防安全應(yīng)用中發(fā)揮出至關(guān)重要的作用。

        2.1.3 裝備缺陷的檢測(cè)

        通過(guò)機(jī)器視覺(jué)技術(shù)對(duì)各類(lèi)軍事裝備進(jìn)行缺陷檢測(cè),能夠大幅度降低人工檢測(cè)時(shí)的主觀性差異,更加準(zhǔn)確、可靠、客觀地檢測(cè)槍械、彈藥、裝備等是否存在缺陷,不僅能夠提高檢測(cè)精度、提高生產(chǎn)效率和自動(dòng)化程度,同時(shí)能夠應(yīng)用于人工視覺(jué)難以完成檢測(cè)任務(wù)的場(chǎng)景,對(duì)提升武器裝備安全性能有著重要意義。

        在對(duì)槍械、彈藥等武器裝備進(jìn)行檢測(cè)時(shí),人工檢測(cè)的方式存在工作量大、檢測(cè)效率低、主觀性差異大等問(wèn)題,而采用機(jī)器視覺(jué)技術(shù)可以高效地進(jìn)行精確檢測(cè)。例如,長(zhǎng)春理工大學(xué)劉立欣等[46]基于零交叉算子和邊緣檢測(cè)方法對(duì)槍械內(nèi)膛疵病圖像進(jìn)行檢測(cè),具有邊緣定位準(zhǔn)確、運(yùn)算速度快的優(yōu)點(diǎn),有利于圖像的分析和處理,在實(shí)際應(yīng)用中展示出了良好效果。王百榮等[47]將視覺(jué)識(shí)別技術(shù)應(yīng)用于炮彈檢測(cè)中,設(shè)計(jì)了一種基于X射線的無(wú)損炮彈檢測(cè)識(shí)別系統(tǒng),并通過(guò)實(shí)物驗(yàn)證了方法的有效性。解放軍軍械工程學(xué)院史進(jìn)偉等[48]建立了基于機(jī)器視覺(jué)與BP神經(jīng)網(wǎng)絡(luò)的炮彈外觀缺陷檢測(cè)系統(tǒng),系統(tǒng)檢測(cè)流程如圖8所示,該系統(tǒng)自動(dòng)對(duì)槍彈外觀進(jìn)行取像、分割,并最終對(duì)外觀有缺陷的槍彈進(jìn)行識(shí)別與分類(lèi),經(jīng)過(guò)實(shí)物驗(yàn)證正確識(shí)別率達(dá)91.7%,表現(xiàn)出較好的準(zhǔn)確性和魯棒性。此外,其他學(xué)者也基于機(jī)器視覺(jué)技術(shù)對(duì)不同彈藥的檢測(cè)展開(kāi)了研究[49,50],如圖9所示為基于缺陷識(shí)別算法的一種彈芯的檢測(cè)過(guò)程。除了武器裝備外,機(jī)器視覺(jué)技術(shù)還應(yīng)用到了由于頻繁使用而易于疲勞的裝備檢測(cè)當(dāng)中。例如,上海民航職業(yè)技術(shù)學(xué)院邵欣桐等[51]提出了一種基于機(jī)器視覺(jué)的智能輪胎快速檢查的方法,該方法將機(jī)器視覺(jué)引入到飛機(jī)輪胎檢查的工作中,針對(duì)飛機(jī)輪胎出現(xiàn)的胎面異常擦傷、胎面點(diǎn)狀磨皮、胎面扎傷、胎面污染腐蝕均有較好的效果,解決了傳統(tǒng)人工方式進(jìn)行飛機(jī)輪胎檢查遇到的經(jīng)驗(yàn)不足、光線較差、檢查位置過(guò)于隱蔽、機(jī)輪損傷不易發(fā)現(xiàn)等缺點(diǎn)。

        圖8 基于BP神經(jīng)網(wǎng)絡(luò)的炮彈外觀檢測(cè)原理圖

        圖9 基于缺陷識(shí)別算法的彈芯檢測(cè)原理圖

        2.2 機(jī)器視覺(jué)在典型武器裝備中的應(yīng)用

        2.2.1 陸地裝備中的應(yīng)用

        在陸軍裝備中,機(jī)器視覺(jué)主要用在火炮、導(dǎo)彈及無(wú)人車(chē)輛等裝備中。機(jī)器視覺(jué)能夠提高火炮、導(dǎo)彈的精度,提高無(wú)人車(chē)輛的自動(dòng)化及智能化程度,因此具有廣闊的應(yīng)用前景。海軍工程大學(xué)Li等[52]將機(jī)器視覺(jué)引入到火炮的瞄準(zhǔn)過(guò)程中,通過(guò)對(duì)目標(biāo)的識(shí)別和定位,有效提高了炮兵系統(tǒng)校準(zhǔn)目標(biāo)時(shí)的效率。在導(dǎo)彈方面,針對(duì)因GPS等衛(wèi)星信號(hào)出現(xiàn)干擾而導(dǎo)致導(dǎo)彈定位失效的問(wèn)題,海軍航空工程學(xué)院寇昆湖等[53]通過(guò)將視覺(jué)識(shí)別技術(shù)引入到飛航導(dǎo)彈中,實(shí)現(xiàn)了定位誤差的快速實(shí)時(shí)修正,使飛航導(dǎo)彈在無(wú)衛(wèi)星導(dǎo)航下能夠進(jìn)行精確打擊。導(dǎo)航巡航模型如圖10所示,該模型通過(guò)放置于導(dǎo)彈前端的視覺(jué)設(shè)備實(shí)時(shí)觀測(cè)導(dǎo)彈相對(duì)于被測(cè)地表的位置和姿態(tài),從而進(jìn)行誤差的快速修正。同時(shí),因?yàn)槠渚哂蟹椒ㄔ砗?jiǎn)單、所需裝置較少、易于工程實(shí)現(xiàn)的優(yōu)點(diǎn),能夠顯著提升高速運(yùn)動(dòng)下飛航導(dǎo)彈的性能。在無(wú)人車(chē)輛領(lǐng)域,美國(guó)陸軍研究了機(jī)器視覺(jué)技術(shù)在機(jī)器人和無(wú)人駕駛車(chē)輛中的使用,并提出在未來(lái)會(huì)開(kāi)發(fā)配備有機(jī)器視覺(jué)的美國(guó)陸軍未來(lái)裝甲系統(tǒng)[54]。與此同時(shí),美國(guó)國(guó)防高級(jí)研究計(jì)劃署開(kāi)發(fā)了配有智能攝像頭的無(wú)人駕駛車(chē)輛,使其能夠在戰(zhàn)場(chǎng)環(huán)境進(jìn)行信息的獲取,從而提高無(wú)人駕駛車(chē)輛獲取信息的能力[55]。

        圖10 基于前置攝像頭的導(dǎo)彈巡航模型

        2.2.2 空中裝備中的應(yīng)用

        在空中裝備中,機(jī)器視覺(jué)主要應(yīng)用在飛行員頭盔、無(wú)人機(jī)等裝備中。在飛行員頭盔方面,瑞典國(guó)防研究局Stephen等[56]將機(jī)器視覺(jué)技術(shù)與飛行員的頭盔結(jié)合起來(lái),極大地?cái)U(kuò)展了飛行員的視野,并且在快速飛行中能夠輔助飛行員完成瞄準(zhǔn)等任務(wù),從而保證空中作戰(zhàn)的優(yōu)勢(shì),掌握作戰(zhàn)主動(dòng)權(quán)。Deng等[57]將機(jī)器視覺(jué)引入到飛機(jī)靠泊中,在飛機(jī)停泊過(guò)程中實(shí)時(shí)對(duì)位置進(jìn)行修正,保證了??康臏?zhǔn)確性,極大的提高了飛機(jī)停泊的效率及準(zhǔn)確性。對(duì)于無(wú)人飛行器,機(jī)器視覺(jué)技術(shù)的應(yīng)用能夠極大地減輕人員操作負(fù)擔(dān),輕松完成戰(zhàn)區(qū)偵察任務(wù)。考慮到飛行器在著陸時(shí),由于缺乏關(guān)于著陸場(chǎng)信息及可能受到外部大氣擾動(dòng)作用而導(dǎo)致的飛行器極易著陸失敗的問(wèn)題,部分學(xué)者[58, 59]將機(jī)器視覺(jué)技術(shù)應(yīng)用到無(wú)人飛行器上,使其能夠在強(qiáng)風(fēng)等復(fù)雜環(huán)境下安全、精確地著陸。因此,機(jī)器視覺(jué)技術(shù)能夠提升飛行員及飛行裝備的作戰(zhàn)能力,對(duì)于提升空軍戰(zhàn)斗力有著重要意義。

        2.2.3 水下裝備中的應(yīng)用

        將機(jī)器視覺(jué)技術(shù)應(yīng)用于水下裝備,可提升水下裝備在完成水下水雷排除、有毒廢除處理等任務(wù)時(shí)的自主能力,能夠在人員投入較少的情況下高質(zhì)量地完成高相關(guān)任務(wù)。

        在水下裝備方面,機(jī)器視覺(jué)主要應(yīng)用在水下排雷機(jī)器人、水下檢測(cè)裝備和水下無(wú)人推進(jìn)器中。由于受水中能見(jiàn)度、阻力等因素的影響,工作人員難以分別水雷的種類(lèi),此時(shí)就需要帶有視覺(jué)的水下機(jī)器人進(jìn)行作業(yè)。為此,中國(guó)科學(xué)院沈陽(yáng)自動(dòng)化研究所苗錫奎等[60]將視覺(jué)技術(shù)應(yīng)用到水下排雷機(jī)器人中,使其能夠高效準(zhǔn)確地識(shí)別出水雷的種類(lèi),從而完成排雷工作。在水下無(wú)人推進(jìn)器方面,通過(guò)引入視覺(jué)識(shí)別技術(shù),能夠顯著提高水下機(jī)器人的定位精度和在復(fù)雜環(huán)境下的定位能力[61]。在水下檢測(cè)裝備方面,利用視覺(jué)技術(shù)代替人工識(shí)別的方式進(jìn)行水下定位與檢測(cè),能夠擴(kuò)寬獲取信息的寬度和廣度,保證信息的實(shí)時(shí)性[62,63]。例如,Kakani等[64]通過(guò)將機(jī)器視覺(jué)引入水下探索裝備,實(shí)現(xiàn)對(duì)海洋生物的實(shí)時(shí)跟蹤,完成對(duì)海洋的探索。

        3 現(xiàn)階段存在的問(wèn)題

        盡管機(jī)器視覺(jué)相關(guān)技術(shù)取得巨大的進(jìn)展,但目前的應(yīng)用主要集中在交通、農(nóng)業(yè)、工業(yè)等領(lǐng)域。由于軍事領(lǐng)域常見(jiàn)的應(yīng)用環(huán)境復(fù)雜多變,對(duì)各類(lèi)算法的實(shí)時(shí)性要求較高,機(jī)器人視覺(jué)在軍事領(lǐng)域的大規(guī)模工程應(yīng)用還相對(duì)較少,機(jī)器視覺(jué)的應(yīng)用仍然存在以下問(wèn)題。

        3.1 視覺(jué)傳感器硬件系統(tǒng)對(duì)極端環(huán)境適應(yīng)性有待提高

        機(jī)器視覺(jué)的應(yīng)用效果高度依賴(lài)于視覺(jué)傳感器的硬件性能。現(xiàn)有視覺(jué)傳感器種類(lèi)繁多,但大多為通用型傳感器,傳感器的性能面向工業(yè)、農(nóng)業(yè)等場(chǎng)合,具有應(yīng)用范圍廣、適用性強(qiáng)等特點(diǎn)。然而,對(duì)于軍事場(chǎng)合而言,野外環(huán)境包含高溫?zé)釒Лh(huán)境、高海拔高原環(huán)境、極低溫嚴(yán)寒環(huán)境等極端環(huán)境,這就要求視覺(jué)傳感器能夠在上述環(huán)境下進(jìn)行正常作業(yè)。而現(xiàn)有傳感器難以滿(mǎn)足極限環(huán)境下的作業(yè)要求。例如,視覺(jué)傳感器(FUWEI,F(xiàn)V-SJ2016PM-12S-WBN)工作溫度為0~50 ℃,濕度為20%~95%RH,那么其在嚴(yán)寒環(huán)境或極端干燥的沙漠環(huán)境下則難以正常應(yīng)用。為此,亟需研發(fā)能夠適應(yīng)極端環(huán)境的視覺(jué)傳感器,使其能夠滿(mǎn)足軍事應(yīng)用需求。

        此外,針對(duì)不同的應(yīng)用目標(biāo),還應(yīng)研發(fā)不同類(lèi)型的系列化視覺(jué)傳感器。例如,在某些戰(zhàn)場(chǎng)環(huán)境下,對(duì)于視覺(jué)傳感器的精度并沒(méi)有過(guò)高要求,但對(duì)于運(yùn)行的可靠性、抗干擾能力有很高的要求;在某些情況下,對(duì)于分辨率或幀率有更高的要求;而有些戰(zhàn)場(chǎng)環(huán)境視野開(kāi)闊、縱深較大,對(duì)于視覺(jué)傳感器的要求又有不同?,F(xiàn)有視覺(jué)傳感器的技術(shù)開(kāi)發(fā)大多集中在有效像素或最大分辨率的提升,缺乏針對(duì)軍事領(lǐng)域的系列化產(chǎn)品。

        3.2 圖像獲取能力難以適應(yīng)復(fù)雜的軍事目標(biāo)環(huán)境

        軍事領(lǐng)域應(yīng)用場(chǎng)景復(fù)雜多變,這對(duì)于視覺(jué)識(shí)別的準(zhǔn)確性提出了更高的要求。一方面,在戰(zhàn)場(chǎng)環(huán)境中,視覺(jué)傳感器的視野內(nèi)大多同時(shí)存在不同的人或物而非單一對(duì)象,且可能存在因遮擋導(dǎo)致的視野受阻或因煙塵而導(dǎo)致的視野受限等問(wèn)題,這都不利于機(jī)器視覺(jué)的大范圍應(yīng)用;另一方面,視野內(nèi)可能存在多個(gè)人或物處于高速運(yùn)動(dòng)情況下,在較短時(shí)間內(nèi)準(zhǔn)確捕捉目標(biāo)物的典型特性并進(jìn)行準(zhǔn)確分析較為復(fù)雜,這就使得通過(guò)機(jī)器視覺(jué)實(shí)現(xiàn)環(huán)境識(shí)別的難度較大。

        隨著科技的發(fā)展,雖然GloogLeNet深度網(wǎng)絡(luò)結(jié)構(gòu)、ResNet殘差網(wǎng)絡(luò)、DenseNet前饋網(wǎng)絡(luò)模型等智能算法已經(jīng)應(yīng)用于機(jī)器視覺(jué)當(dāng)中,并在不斷提高復(fù)雜環(huán)境下的視覺(jué)識(shí)別的準(zhǔn)確性,但是現(xiàn)有智能識(shí)別算法主要集中在日常生活領(lǐng)域,例如人臉識(shí)別、商標(biāo)檢測(cè)等,其往往需要大規(guī)模的數(shù)據(jù)樣本進(jìn)行學(xué)習(xí),才能夠獲得較好的識(shí)別效果。然而,軍事目標(biāo)環(huán)境的樣本往往很少,且不具有通用性。因此,如何根據(jù)常規(guī)目標(biāo)的少量樣本圖像進(jìn)行學(xué)習(xí),從而使算法具有泛化能力和穩(wěn)健性,在復(fù)雜的軍事目標(biāo)環(huán)境下完成多個(gè)目標(biāo)的識(shí)別,是有待解決的問(wèn)題。

        此外,機(jī)器視覺(jué)需要依靠照明系統(tǒng)、成像系統(tǒng)獲取圖像信息。然而,目前沒(méi)有普適的機(jī)器視覺(jué)照明方案,往往需要針對(duì)具體的應(yīng)用環(huán)境對(duì)照明方案進(jìn)行調(diào)整。對(duì)于軍事環(huán)境而言,往往存在光線昏暗甚至是夜間的作業(yè)場(chǎng)景,但由于使用需求不便于設(shè)置照明設(shè)置,或由于環(huán)境受限無(wú)法給足充分的照明,這就使得機(jī)器視覺(jué)所采集的圖像效果大打折扣,無(wú)法準(zhǔn)確地對(duì)圖像信息進(jìn)行判斷。另一方面,跨介質(zhì)的視覺(jué)處理也是機(jī)器視覺(jué)在軍事領(lǐng)域應(yīng)用的一大難點(diǎn)。在某些情況下,戰(zhàn)場(chǎng)環(huán)境不是單一介質(zhì),可能存在多種不同的介質(zhì),如何在不同介質(zhì)間實(shí)現(xiàn)圖像的準(zhǔn)確提取與判斷也是需要考慮的問(wèn)題。例如,某些情況下,需要從水中對(duì)陸地的場(chǎng)景進(jìn)行識(shí)別與判斷,但跨介質(zhì)很容易導(dǎo)致判斷失真或失效。為此,需要對(duì)相關(guān)問(wèn)題進(jìn)行深入研究。

        3.3 圖像處理速度難以滿(mǎn)足軍事上實(shí)時(shí)性要求

        戰(zhàn)場(chǎng)信息瞬息萬(wàn)變,軍事活動(dòng)中要?jiǎng)討B(tài)、實(shí)時(shí)、全面地掌握軍事目標(biāo)的信息,這就對(duì)圖像處理的實(shí)時(shí)性提出了很高的要求。一方面,為了針對(duì)動(dòng)態(tài)環(huán)境提高環(huán)境識(shí)別的準(zhǔn)確性,需要快速高效地對(duì)大量的圖像和視頻進(jìn)行有效處理,及時(shí)提取有效信息,實(shí)時(shí)地掌握軍事目標(biāo)的動(dòng)態(tài)信息,因此要求視覺(jué)處理算法必須具有較快的計(jì)算速度,否則會(huì)導(dǎo)致系統(tǒng)明顯的時(shí)滯,難以提高實(shí)時(shí)掌握動(dòng)態(tài)信息。另一方面,機(jī)器視覺(jué)處理算法應(yīng)具有很強(qiáng)的抗干擾能力,即在戰(zhàn)場(chǎng)環(huán)境中存在干擾信號(hào)的情況下,也能夠保證快速對(duì)圖像進(jìn)行準(zhǔn)確處理,使得圖像處理的結(jié)果準(zhǔn)確和不失真,并將結(jié)果反饋給指揮系統(tǒng)。

        此外,對(duì)于基于機(jī)器視覺(jué)的武器裝備無(wú)損檢測(cè)等應(yīng)用場(chǎng)合,雖然對(duì)于實(shí)時(shí)性的要求低于戰(zhàn)場(chǎng)環(huán)境的要求,但由于部分武器裝備數(shù)量及種類(lèi)繁多,檢測(cè)速度仍然難以滿(mǎn)足工業(yè)化生產(chǎn)線上及檢修過(guò)程中對(duì)于損傷高效檢測(cè)的需求,基于機(jī)器視覺(jué)的無(wú)損檢測(cè)方法的檢測(cè)效率仍然有待于提高。

        3.4 多傳感器融合獲取軍事目標(biāo)信息能力缺乏

        在戰(zhàn)場(chǎng)復(fù)雜環(huán)境下,單一視覺(jué)傳感器的視野范圍與成像模式無(wú)法適應(yīng)復(fù)雜多變的場(chǎng)景。為獲取更加可靠、準(zhǔn)確的數(shù)據(jù)結(jié)果,需要通過(guò)融合多個(gè)視覺(jué)傳感器來(lái)解決單一視覺(jué)傳感器采集數(shù)據(jù)結(jié)果受限的問(wèn)題。與單傳感器相比,多傳感器融合在監(jiān)測(cè)、跟蹤和識(shí)別目標(biāo)方面能夠提高系統(tǒng)的可靠性,增強(qiáng)數(shù)據(jù)的可信度,同時(shí)提高數(shù)據(jù)的精度。然而,多個(gè)視覺(jué)傳感器所采集的信息在融合過(guò)程中存在數(shù)據(jù)量大、冗余信息多、特征空間維度高等問(wèn)題,數(shù)據(jù)的處理難度大幅增大。然而,現(xiàn)有多視覺(jué)傳感器的信息融合算法仍然有待進(jìn)一步提高,針對(duì)復(fù)雜場(chǎng)景下的多信息處理速度還需加強(qiáng)。

        此外,除了多個(gè)視覺(jué)傳感器進(jìn)行信息的高效融合外,還需要考慮不同類(lèi)型傳感器的融合。例如,對(duì)于排雷排爆機(jī)器人,其除了安裝視覺(jué)傳感器外,可能還安裝有激光測(cè)距儀、加速度傳感器等不同類(lèi)型的傳感器,機(jī)器人對(duì)于路徑的規(guī)劃需要基于多個(gè)不同類(lèi)型的傳感器進(jìn)行綜合判斷分析。然而,現(xiàn)有對(duì)多信息的高效融合與精準(zhǔn)決策技術(shù)還有待于進(jìn)一步突破,導(dǎo)致機(jī)器人難以在復(fù)雜環(huán)境下自主進(jìn)行精準(zhǔn)決策。

        4 未來(lái)發(fā)展趨勢(shì)

        4.1 研發(fā)具有耐高溫、抗嚴(yán)寒、耐腐蝕的視覺(jué)傳感器硬件系統(tǒng)

        針對(duì)高溫、高寒等極端戰(zhàn)場(chǎng)作戰(zhàn)環(huán)境,應(yīng)突破具有極端環(huán)境適應(yīng)性的材料研發(fā)、具有高穩(wěn)定性的結(jié)構(gòu)設(shè)計(jì)、具有高可靠性的微小型零件高精密加工工藝等關(guān)鍵技術(shù),防止在極端條件下因材料性能發(fā)生變化、傳感器精密結(jié)構(gòu)失穩(wěn)或感知器件受損而導(dǎo)致視覺(jué)傳感器功能失效。同時(shí),對(duì)視覺(jué)傳感器硬件系統(tǒng)極端環(huán)境下不確定因素下的可靠性、疲勞特性、使用壽命等性能進(jìn)行建模分析,通過(guò)優(yōu)化改進(jìn)不斷提高影響系統(tǒng)的綜合性能。為降低成本,針對(duì)軍事領(lǐng)域的視覺(jué)傳感器硬件系統(tǒng)應(yīng)在性能上各有側(cè)重,除了對(duì)于高溫、嚴(yán)寒、存在腐蝕性氣體或液體等不同環(huán)境具有差異化的硬件系統(tǒng)外,在功能方面也應(yīng)具有不同的針對(duì)性。例如,對(duì)于野外背景單一但嚴(yán)寒的高原環(huán)境,視覺(jué)傳感器硬件系統(tǒng)對(duì)于復(fù)雜環(huán)境的辨識(shí)能力要求低于對(duì)于極端環(huán)境的可靠性要求。通過(guò)上述研究,最終形成系列化產(chǎn)品。

        此外,機(jī)器視覺(jué)系統(tǒng)將向小型化、高穩(wěn)定性、高集成度的嵌入式機(jī)器視覺(jué)系統(tǒng)方向發(fā)展。隨著嵌入式微處理器功能增強(qiáng)以及存儲(chǔ)器集成度增加,小型化、集成化產(chǎn)品是機(jī)器視覺(jué)技術(shù)發(fā)展的重要方向,嵌入式的機(jī)器視覺(jué)系統(tǒng)可以植入到任何地方,能夠更隱蔽和高效地獲取軍事目標(biāo)信息。將嵌入式系統(tǒng)與機(jī)器視覺(jué)結(jié)合,能夠突破機(jī)器視覺(jué)系統(tǒng)體積對(duì)于應(yīng)用的限制,進(jìn)一步拓展機(jī)器視覺(jué)技術(shù)在軍事領(lǐng)域的應(yīng)用。

        4.2 雜亂、動(dòng)態(tài)及光線不足環(huán)境下實(shí)現(xiàn)視覺(jué)圖像高實(shí)時(shí)性的精準(zhǔn)獲取

        基于面向軍事領(lǐng)域的不同類(lèi)型的視覺(jué)傳感器硬件系統(tǒng),進(jìn)一步對(duì)視覺(jué)處理算法進(jìn)行研究,利用機(jī)器學(xué)習(xí)、人工智能等算法,突破背景復(fù)雜環(huán)境下的特征精確辨識(shí)與提取、動(dòng)態(tài)高速目標(biāo)及光線不足條件下的特征分析等關(guān)鍵技術(shù),使得機(jī)器視覺(jué)能夠在野外復(fù)雜環(huán)境下實(shí)現(xiàn)對(duì)圖像信息的捕捉與提取,滿(mǎn)足機(jī)器視覺(jué)技術(shù)在各類(lèi)不同場(chǎng)景下對(duì)人或物的信息提取。

        此外,機(jī)器視覺(jué)的軍事應(yīng)用正向著立體成像方向發(fā)展。二維機(jī)器視覺(jué)系統(tǒng)將客觀存在的立體成像技術(shù)空間壓縮至二維空間,其性能容易受到環(huán)境光、目標(biāo)偽裝等因素的干擾,無(wú)法滿(mǎn)足獲取軍事目標(biāo)信息的需求。目前的立體成像技術(shù)視覺(jué)軍事應(yīng)用主要集中于模擬訓(xùn)練領(lǐng)域,隨著立體成像技術(shù)和傳感器技術(shù)的成熟,從戰(zhàn)場(chǎng)可視化、三維戰(zhàn)術(shù)地圖、目標(biāo)立體識(shí)別、三維重構(gòu)到立體成像打印,三維技術(shù)在軍事的各領(lǐng)域都有廣闊的應(yīng)用空間,立體成像技術(shù)的軍事應(yīng)用將更加豐富,范圍更加廣泛。

        同時(shí),機(jī)器視覺(jué)技術(shù)正向著圖像高速處理的方向發(fā)展。軍事領(lǐng)域的特殊性意味著對(duì)機(jī)器視覺(jué)技術(shù)有著更高的要求,對(duì)于作戰(zhàn)領(lǐng)域,其環(huán)境復(fù)雜多變。針對(duì)軍用視覺(jué)系統(tǒng)分析數(shù)據(jù)量大、實(shí)時(shí)性要求高的需求,將不斷通過(guò)改進(jìn)處理算法、提升硬件水平,開(kāi)發(fā)高效的機(jī)器視覺(jué)系統(tǒng),使其分析和處理速度滿(mǎn)足軍事行動(dòng)的需求。

        4.3 復(fù)雜環(huán)境下多傳感器信息高效融合與精準(zhǔn)決策

        在軍事活動(dòng)中,常常需要配有視覺(jué)識(shí)別技術(shù)的裝備在高溫、高壓、嚴(yán)寒、多遮蔽物、多干擾物、濃霧、黑暗等的復(fù)雜乃至極端環(huán)境下進(jìn)行工作,為此需要進(jìn)一步突破多傳感器融合技術(shù),消除單一傳感獲取數(shù)據(jù)不準(zhǔn)確的問(wèn)題,從而獲得更加準(zhǔn)確、更加智能的結(jié)果。同時(shí),針對(duì)不同環(huán)境特點(diǎn)、不同目標(biāo)建立新的多信息融合與解耦方法,解決采集信息之間互相耦合、數(shù)據(jù)海量以及信息之間相互影響而限制感知能力和精度等問(wèn)題,從而高效準(zhǔn)確地獲取目標(biāo)圖像,滿(mǎn)足機(jī)器視覺(jué)技術(shù)在各類(lèi)不同場(chǎng)景下對(duì)人或物的信息提取。

        此外,軍事裝備需要配有機(jī)器視覺(jué)技術(shù)的決策系統(tǒng)。軍事領(lǐng)域的有用訊息往往稍縱即逝,針對(duì)軍用裝備對(duì)安全性、實(shí)時(shí)性等特殊要求,將不斷開(kāi)發(fā)、改進(jìn)與裝備及視覺(jué)系統(tǒng)匹配的決策算法,使其能夠在初期進(jìn)行初步判斷,以保證任務(wù)的順利完成。

        5 結(jié)束語(yǔ)

        隨著科技的發(fā)展,機(jī)器視覺(jué)技術(shù)已經(jīng)在軍事領(lǐng)域得到了廣泛的應(yīng)用,在火炮的輔助瞄準(zhǔn)、可疑人員識(shí)別、自動(dòng)化無(wú)人裝備的環(huán)境監(jiān)測(cè)等領(lǐng)域表現(xiàn)出了良好的應(yīng)用效果。該技術(shù)能夠不斷提升武器裝備的作戰(zhàn)能力與智能化水平,同時(shí)減少人員投入、提高作戰(zhàn)效率。在未來(lái),機(jī)器視覺(jué)技術(shù)將進(jìn)一步向著具有耐高溫、抗嚴(yán)寒、耐腐蝕的視覺(jué)傳感器硬件系統(tǒng)發(fā)展,在雜亂、動(dòng)態(tài)及光線不足環(huán)境下實(shí)現(xiàn)視覺(jué)圖像高實(shí)時(shí)性的精準(zhǔn)獲取,并朝著在復(fù)雜環(huán)境下多傳感器信息高效融合與精準(zhǔn)決策的方向發(fā)展,在提升軍隊(duì)?wèi)?zhàn)斗力、維護(hù)國(guó)家安全方面起到越來(lái)越重要的作用。

        [1] 張五一, 趙強(qiáng)松, 王東云. 機(jī)器視覺(jué)的現(xiàn)狀及發(fā)展趨勢(shì)[J]. 中原工學(xué)院學(xué)報(bào), 2008, 19(1): 9–12, 15.

        ZHANG Wuyi, ZHAO Qiangsong, WANG Dongyun. Current situation and development trend of machine vision[J]. Journal of Zhongyuan Institute of Technology, 2008, 19(1): 9–12, 15.

        [2] 宋春華, 彭泫知. 機(jī)器視覺(jué)研究與發(fā)展綜述[J]. 裝備制造技術(shù), 2019, (6): 213–216.

        SONG Chunhua, PENG Xuanzhi. Review of machine vision research and development[J]. Equipment Manufacturing Technology, 2019, (6): 213–216.

        [3] 尹仕斌, 任永杰, 劉濤, 等. 機(jī)器視覺(jué)技術(shù)在現(xiàn)代汽車(chē)制造中的應(yīng)用綜述[J]. 光學(xué)學(xué)報(bào), 2018, 437(8): 11–22.

        YIN Shibin, REN Yongjie, LIU Tao, et al. Overview of the application of machine vision technology in modern automobile manufacturing [J]. Journal of Optics, 2018, 437(8): 11–22.

        [4] 朱云, 凌志剛, 張雨強(qiáng). 機(jī)器視覺(jué)技術(shù)研究進(jìn)展及展望[J]. 圖學(xué)學(xué)報(bào), 2020, 41(6): 871–890.

        ZHU Yun, LING Zhigang, ZHANG Yuqiang. Research progress and Prospect of machine vision technology[J]. Journal of Graphics, 2020, 41(6): 871–890.

        [5] “中國(guó)工程科技2035發(fā)展戰(zhàn)略研究”項(xiàng)目組. 中國(guó)工程科技2035發(fā)展戰(zhàn)略[M]. 北京: 科學(xué)出版社, 2019.

        [6] 秦亞航, 蘇建歡, 余榮川. 機(jī)器視覺(jué)技術(shù)的發(fā)展及其應(yīng)用[J]. 科技視界, 2016,(25): 153–154.

        QIN Yahang, SU Jianhuan, YU Rongchuan. Development and application of machine vision technology[J]. Science and Technology Horizon, 2016,(25): 153–154.

        [7] 黃少羅, 張建新, 卜昭鋒. 機(jī)器視覺(jué)技術(shù)軍事應(yīng)用文獻(xiàn)綜述[J]. 兵工自動(dòng)化, 2019, 38(2): 16–21.

        HUANG Shaoluo, ZHANG Jianxin, BU Zhaofeng. Literature review of military application of machine vision technology[J]. Ordnance automation, 2019, 38(2): 16–21.

        [8] FU K, ROSENFELD A. Pattern-recognition and image-processing[J]. IEEE Transactions on Computers, 1976, 25(12): 1336–1346.

        [9] STEGER C, ULRICH M, WIEDEMANN C. 機(jī)器視覺(jué)算法與應(yīng)用(第2版)[M]. 北京: 清華大學(xué)出版社, 2019.

        [10] 呂家祺. 基于混合式聚光方法的日光照明系統(tǒng)[D]. 長(zhǎng)春: 長(zhǎng)春理工大學(xué), 2021.

        [11] 黃從高. 面光源均勻照明系統(tǒng)設(shè)計(jì)與實(shí)驗(yàn)研究[D]. 杭州: 杭州電子科技大學(xué), 2021.

        [12] 周壹義. 大功率LED照明系統(tǒng)的二次光學(xué)設(shè)計(jì)研究[D]. 廣州: 華南理工大學(xué), 2012.

        [13] 張建忠. 紅外雙波段視景仿真器光學(xué)系統(tǒng)的研究[D]. 長(zhǎng)春: 中國(guó)科學(xué)院研究生院(長(zhǎng)春光學(xué)精密機(jī)械與物理研究所), 2013.

        [14] 孫盈. 非掃描成像激光雷達(dá)達(dá)曼光柵陣列照明性能研究[D]. 哈爾濱: 哈爾濱工業(yè)大學(xué), 2009.

        [15] 李俊. 機(jī)器視覺(jué)照明光源關(guān)鍵技術(shù)研究[D]. 天津: 天津理工大學(xué), 2007.

        [16] VRIESENGA M, HEALEY G, PELEG K, et al. Controlling illumination color to enhance objectdiscriminability[C]// IEEE Conference on Computer Vision and Pattern Recognition, 1992.

        [17] 張?jiān)? 吳曉君, 馬廷武, 等. 基于機(jī)器視覺(jué)的零件圖像采集及識(shí)別的研究[J]. 電子工程師, 2006, 32(4): 29–31, 65.

        ZHANG Yun, WU Xiaojun, MA Tingwu, et al. Research on part image acquisition and recognition based on machine vision [J]. Electronic Engineer, 2006, 32 (4): 29–31, 65.

        [18] RAJNI, ANUTAM. Image denoising techniques-An overview[J]. International Journal of Computer Applications, 2014, 86(16): 13–17.

        [19] ANNABY M H, FOUDA Y M, RUSHDI M A. Improved normalized cross-correlation for defect detection in printed-circuit boards[J]. IEEE Transactions on Semiconductor Manufacturing, 2019, 32(2): 199–211.

        [20] 郭智杰, 王明泉, 張俊生, 等. 基于機(jī)器視覺(jué)的輪轂在線識(shí)別分類(lèi)技術(shù)研究[J]. 測(cè)試技術(shù)學(xué)報(bào), 2019, 33(3): 233–237.

        GUO Zhijie, WANG Mingquan, ZHANG Junsheng, et al. Research on on-line recognition and classification technology of wheel hub based on machine vision[J]. Journal of Testing Technology, 2019, 33(3): 233–237.

        [21] ZHOU X, WANG Y, XIAO C, et al. Automatedvisual inspection of glass bottle bottom with saliencydetection and template matching[J]. IEEE Transactions on Instrumentation and Measurement, 2019, 68(11): 4253–4267.

        [22] DING R, DAI L, LI G, et al. TDD-Net: A tiny defect detection network for printed circuit boards[J]. CAAI Transactions on Intelligence Technology, 2019, 4(2): 110–116.

        [23] YUAN X, WU L, PENG Q J. An improved otsu method using the weighted object variance for defect detection[J]. Applied Surface Science, 2015, 349: 472–484.

        [24] ZHU L J, GAO Y, YEZZI A, et al. Automatic segmentation of the left atrium from MR images via variational region growing with a moments-based shape prior[J]. IEEE Transactions on Image Processing, 2013, 22(12): 5111–5122.

        [25] FERRARI V, FEVRIER L, JURIE F, et al. Groups of adjacent contour segments for object detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2008, 30(1): 36–51.

        [26] GIRSHICK R, DONAHUE J, DARRELL T, et al. Region-based convolutional networks for accurate object detection and segmentation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2016, 38(1): 142–158.

        [27] ZHOU X, WANG Y, XIAO C, et al. Automatedvisual inspection of glass bottle bottom with saliencydetection and template matching[J]. IEEE Transactions on Instrumentation and Measurement, 2019, 68(11):4253–4267.

        [28] 秦放, 曾維佳, 羅佳偉, 等. 基于深度學(xué)習(xí)的多模態(tài)融合圖像識(shí)別研究[J]. 信息技術(shù), 2022(4): 29–34.

        QIN Fang, ZENG Weijia, LUO Jiawei, et al. Research on multi-modal fusion image recognition based on deep learning[J]. Information Technology, 2022(4): 29–34.

        [29] 邊柯橙. 基于深度學(xué)習(xí)的玉米常見(jiàn)病害圖像識(shí)別研究及應(yīng)用[D]. 蘭州: 蘭州財(cái)經(jīng)大學(xué), 2021.

        [30] LIU Jian, GAO Wei. Maritime target detection and tracking[C]//2019 IEEE 2nd International Conference on Automation, Electronics and Electrical Engineering (AUTEEE), 2019.

        [31] ZHANG M , CHOI J, DANIILIDIS K, et al. VAIS: A dataset for recognizing maritime imagery in the visible and infrared spectrums[C]//2015 IEEE Conference on Computer Vision and Pattern Recognition Workshops(CVPRW), 2015.

        [32] 趙浩光, 王平, 董超, 等. 結(jié)合多尺度視覺(jué)顯著性的艦船目標(biāo)檢測(cè)[J]. 光學(xué)精密工程, 2020, 28(6): 1395–1403.

        ZHAO Haoguang, WANG Ping, DONG Chao, et al. Ship target detection combined with multi-scale visual saliency[J]. Optical precision engineering, 2020, 28(6): 1395–1403.

        [33] 韓萍, 萬(wàn)義爽, 劉亞芳, 等. LBP特征分類(lèi)的極化SAR圖像機(jī)場(chǎng)跑道檢測(cè)[J]. 中國(guó)圖象圖形學(xué)報(bào), 2021, 26(4): 9.

        HAN Ping, WAN Yishuang, LIU Yafang, et al. Airport runway detection based on LBP featureclassification in PolSAR images[J]. Journal of image and graphics, 2021, 26(4): 9.

        [34] SENPHENG M, RUCHANURUCKS M. Automatic landing assistant system based on stripe lines on runway using computer vision[C]//2015 International Conference on Science and Technology(TICST), 2015.

        [35] 劉佳銘. 基于視覺(jué)測(cè)量的艦載機(jī)空間定位方法[J]. 中國(guó)艦船研究, 2019, 14(5):152–158.

        LIU Jiaming. Spatial positioning method of shipborne aircraft based on visual measurement[J]. China Ship Research, 2019, 14(5): 152–158.

        [36] WANG X, KONG X, ZHI J, et al. Real-time drogue recognition and 3D locating for UAV autonomous aerial refueling based on monocular machine vision[J]. Chinese Journal of Aeronautics, 2015, 28(6): 1667–1675.

        [37] HUA X, WANG X, WANG D, et al. Military object real-time detection technology combined with visual salience and psychology[J]. Electronics, 2018, 7(10): 216.

        [38] 常川, 劉科成. 基于機(jī)載機(jī)器視覺(jué)的無(wú)人機(jī)自主目標(biāo)跟蹤研究[J]. 網(wǎng)絡(luò)安全技術(shù)與應(yīng)用, 2019, (7): 47–51.

        CHANG Chuan, LIU Kecheng. Research on autonomous target tracking of UAV based on airborne vision[J]. Network Security Technology And Application, 2019, (7): 47–51.

        [39] IRHEBHUDE M, EDIRISINGHE E. Military personnel recognition system using texture, colour, and surf features[C]// Automatic Target Recognition, 2014.

        [40] PATOLIYA J, MEHTA H, PATEL H. Arduino controlled war field spy robot using night vision wireless camera and android application[C]//2015 5th Nirma University International Conference on Engineering(NUiCONE), 2015.

        [41] SATHISHKUMAR K, MARISELVAMA K. War field spying robot with wireless camera using brain robot interface[J]. International Journal of Engineering Development and Research, 2015, 3(1): 422–427.

        [42] MAHESHWARI T, KUMAR U, NAGPAL C, et al. Capturing the spied image-video data using a flexi-controlled spy-robot[C]// Third International Conference on Image Information Processing, 2016.

        [43] MA M. Simulation of intelligent unmanned aerial vehicle(UAV) for military surveillance[C]// 2013 International Conference on Advanced Computer Science and Information Systems(ICACSIS), 2013.

        [44] YLMAZER B, SOLAK S. Cloud computing based masked face recognition application[C]// 2020 Innovations in Intelligent Systems and Applications Conference(ASYU), Istanbul, Turkey, 2020.

        [45] VOYNICHKA I, MEGHERBI D. Analysis of the effects of image transformation, template selection, and partial information on face recognition with time-varying expressions for homeland security applications[C]//2013 IEEE International Conference on Technologies for Homeland Security(HST), 2013.

        [46] 劉立欣, 王文生, 劉廣利. 槍械內(nèi)膛疵病圖像的邊緣檢測(cè)算法[J]. 兵工學(xué)報(bào), 2005(1): 105–107.

        LIU Lixin, WANG Wensheng, LIU Guangli. Edge detection algorithm of gun bore defect image[J]. Journal of Ordnance Engineering, 2005: 105–107.

        [47] 王百榮, 張國(guó)華, 蔣以山. X射線無(wú)損檢測(cè)在炮彈識(shí)別中的應(yīng)用[J]. 核電子學(xué)與探測(cè)技術(shù), 2006, 26(1): 14–15.

        WANG Bairong, ZHANG Guohua, JIANG Yishan. Application of X-ray in shell nondestructive testing[J]. Nuclear Electronics and Detection Technology, 2006, 26(1): 14–15.

        [48] 史進(jìn)偉, 郭朝勇, 劉紅寧. 基于機(jī)器視覺(jué)的槍彈外觀缺陷檢測(cè)系統(tǒng)研究[J]. 組合機(jī)床與自動(dòng)化加工技術(shù), 2013, (4): 59–64.

        SHI Jinwei, GUO Chaoyong, LIU Hongning. Research on bullet appearance defect detection system based on machine vision[J]. Modular machine tools and automatic processing technology, 2013, (4): 59–64.

        [49] 張亞軍, 齊杏林, 董成基. 基于機(jī)器視覺(jué)的槍彈鋼芯自動(dòng)檢測(cè)系統(tǒng)[J]. 兵工自動(dòng)化, 2012, 31(7): 8–11.

        ZHANG Yajun, QI Xinglin, DONG Chengji. Automatic detection system of bullet steel core based on machine vision[J]. Ordnance Automation, 2012, 31(7): 8–11.

        [50] 柳革命, 劉鵬. 基于機(jī)器視覺(jué)的彈殼多尺寸測(cè)量[J]. 工業(yè)控制計(jì)算機(jī), 2016, 29(4): 60–61.

        LIU Geming, LIU Peng. Multi dimension measurement of cartridge case based on machine vision[J]. Industrial Control Computer, 2016, 29(4): 60–61.

        [51] 邵欣桐, 劉省賢. 基于機(jī)器視覺(jué)的飛機(jī)輪胎檢查技術(shù)研究[J]. 科學(xué)技術(shù)創(chuàng)新, 2020, (35): 18–20.

        SHAO Xintong, LIU Shengxian. Research on aircraft tire inspection technology based on machine vision[J]. Science and Technology Innovation, 2020, (35): 18–20.

        [52] LI X, MING Y, HUANG S. Design of target recognition system based on machine vision[C]//2010 International Conference on Computational Intelligence and Software Engineering, 2010.

        [53] 寇昆湖, 張友安, 柳愛(ài)利. 視覺(jué)輔助飛航導(dǎo)彈INS定位誤差快速修正方法[J]. 系統(tǒng)工程與電子技術(shù), 2013, 35(2): 397–401.

        KOU Kunhu, ZHANG Youan, LIU Aili. Fast correction method of INS positioning error of vision assisted cruise missile[J]. Systems Engineering and Electronic Technology, 2013, 35(2): 397–401.

        [54] WILSON J R. Machine vision[J]. Military & Aerospace Electronics, 2001, 12(8): 14.

        [55] KELLER J. Artificial intelligence and machine vision for unmanned vehicle smart cameras is aim of DARPA mind's eye program[J]. Military & Aerospace Electronics, 2010, 21(5): 36–39.

        [56] STEPHEN D, CONNELL O, MARTIN C, et al. Eye tracking-based target designation in simulated close range air combat[C]//Proceedings of the Human Factors and Ergonomics Society Annual Meeting, 2012.

        [57] DENG L, ZHANG Z, XIANG W, et al. Machinevision-based method and system for aircraft docking guidance and aircraft type identification: EP20150828078[P]. 2017-07-26.

        [58] MILLER A, MILLER B. Stochastic control of light UAV at landing with the aid of bearing-only servations[C]//Eighth International Conference on Machine Vision, 2015.

        [59] DENG C, WANG S W. Machine vision-based unmanned aerial vehicle positioned landing method and ystem: CN105388908A[P]. 2016-03-09.

        [60] 苗錫奎, 朱楓, 許以軍, 等. 基于視覺(jué)的水雷目標(biāo)識(shí)別方法研究[J]. 海洋工程, 2012, 30(4): 154–160.

        MIAO Xikui, ZHU Feng, XU Yijun, et al. Mine object recognition method research of AUV based on vision[J]. The Ocean Engineering, 2012, 30(4): 154–160.

        [61] 高明. 基于視覺(jué)和慣性導(dǎo)航的水下機(jī)器人組合定位設(shè)計(jì)[D]. 杭州: 浙江大學(xué), 2014.

        [62] 陳元杰, 朱康武, 葛耀崢, 等.基于雙目視覺(jué)的水下定位系統(tǒng)[J]. 機(jī)電工程, 2011, 28(5): 567–573.

        CHEN Yuanjie, ZHU Kangwu, GE Yaozheng, et al. Binocular vision based locating system for underwater inspection[J]. Journal of Mechanical & Electrical Engineering, 2011, 28(5): 567–573.

        [63] 史言彬.基于單目視覺(jué)的水下目標(biāo)識(shí)別和定位方法研究[D]. 哈爾濱: 哈爾濱工程大學(xué), 2016.

        [64] KATIJA K, ROBERTS P L D, DANIELS J, et al. Visual tracking of deepwater animals using machine learning-controlled robotic underwater vehicles[C]// 2021 IEEE Winter Conference on Applications of Computer Vision(WACV), 2021.

        Application status and development trend of machine vision in military field

        CHEN Jing, GONG Liming

        (Unit 93160 of the People's Liberation Army, Beijing 100076, China)

        With the advantages of non-contact measurement, good real-time and sustainable work, machine vision technology has broad application prospects in the military field. Based on the overview of key technologies, such as machine vision optical lighting system, imaging system and visual information processing system, the application status of machine vision technology in typical scenes, such as typical target recognition, personnel identification, equipment defect detection, and typical military equipment in military field were analyzed in this paper. On this basis, the problems that still exist in the application of machine vision in the military field, such as the visual sensor hardware system is difficult to adapt to the extreme environment, the adaptability of complex military targets is insufficient, the real-time performance of target recognition is difficult to ensure, and the ability of multi-sensor fusion to obtain military target information is insufficient, all those were pointed out in detail. Then the future development trend of machine vision technology in military field was prospected. The results of this study can be used as a reference for the further practical application of machine vision in the military field.

        Machine vision; Military equipment; Target recognition; Anomaly detection

        Website: ycyk.brit.com.cn Email: ycyk704@163.com

        TP391

        A

        CN11-1780(2022)06-0124-12

        10.12347/j.ycyk.20211115001

        陳靜, 宮黎明.機(jī)器視覺(jué)在軍事領(lǐng)域的應(yīng)用現(xiàn)狀及發(fā)展趨勢(shì)[J]. 遙測(cè)遙控, 2022, 43(6): 124–135.

        10.12347/j.ycyk.20211115001

        : CHEN Jing, GONG Liming. Application status and development trend of machine vision in military field[J]. Journal of Telemetry, Tracking and Command, 2022, 43(6): 124–135.

        2021-11-15

        2022-06-28

        陳 靜 1988年生,本科,工程師,主要研究方向?yàn)闄C(jī)械設(shè)計(jì)制造及其自動(dòng)化。

        宮黎明 1981年生,碩士,工程師,主要研究方向?yàn)橛?jì)算機(jī)科學(xué)與技術(shù)。

        (本文編輯:傅 杰)

        猜你喜歡
        軍事機(jī)器傳感器
        機(jī)器狗
        機(jī)器狗
        康奈爾大學(xué)制造出可拉伸傳感器
        簡(jiǎn)述傳感器在物聯(lián)網(wǎng)中的應(yīng)用
        電子制作(2019年22期)2020-01-14 03:16:52
        “傳感器新聞”會(huì)帶來(lái)什么
        跟蹤導(dǎo)練(三)2
        未來(lái)機(jī)器城
        電影(2018年8期)2018-09-21 08:00:06
        無(wú)敵機(jī)器蛛
        軍事幽默:局
        軍事文摘(2009年9期)2009-07-30 09:40:44
        軍事
        一本久道综合在线无码人妻| 日韩精品免费观看在线| 一区二区三区日韩精品视频| 天天爽夜夜爽人人爽| 久久久久国产一区二区三区| 国产高潮流白浆免费观看不卡 | 国产特黄级aaaaa片免| 亚洲av无码之日韩精品| 国产成品精品午夜视频| 亚洲熟女av在线观看| 又大又粗欧美黑人aaaaa片| 国产在线无码一区二区三区| 欧美在线观看www| 日韩av免费一区二区| 精品成在人线av无码免费看| 成在人线av无码免费| 91自国产精品中文字幕| 偷拍一区二区三区四区视频| 亚洲成av人片在www| 久久久久久久久久久熟女AV| 日产精品一区二区在线| 青青手机在线观看视频| 麻麻张开腿让我爽了一夜| 久久国产成人午夜av影院| 中文字幕东京热一区二区人妻少妇 | 丰满熟妇人妻av无码区| 加勒比久久综合久久伊人爱| 欧美大屁股xxxx高跟欧美黑人| 免费一区二区三区久久| 熟女丝袜美腿亚洲一区二区三区| 亚洲免费国产中文字幕久久久| 久久精品国产亚洲av四虎| 国产精品午夜波多野结衣性色| 日本免费精品免费视频| 久久精品国产自在天天线| 亚洲国产精品无码久久电影| 亚洲一区二区三区成人在线| 手机看片久久第一人妻| 久久人人爽人人爽人人av| 国内精品久久久久国产盗摄| 国语对白精品在线观看|