亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        透過薄散射介質(zhì)的目標(biāo)事件分類方法

        2023-06-13 06:06:56楊泊鈺
        液晶與顯示 2023年6期
        關(guān)鍵詞:散斑手寫亮度

        楊泊鈺,柯 鈞

        (北京理工大學(xué) 光電學(xué)院,北京 100081)

        1 引 言

        不同于光在自由空間中的傳播,當(dāng)攜帶有目標(biāo)信息的光線通過散射介質(zhì)(如云、煙霧、生物介質(zhì)等)時(shí),介質(zhì)的內(nèi)在不均勻性將會(huì)引起光線的散射,進(jìn)而導(dǎo)致波前畸變。此時(shí),探測器會(huì)檢測到復(fù)雜的散射圖像,使人眼無法直觀地獲得目標(biāo)信息。該現(xiàn)象在日常生產(chǎn)生活、科學(xué)研究與安全保障中經(jīng)常出現(xiàn),影響了人們對物體的觀測,因此,如何通過散射介質(zhì)獲得目標(biāo)信息成為一個(gè)重要而充滿挑戰(zhàn)的問題。

        透過散射介質(zhì)成像在生物醫(yī)學(xué)技術(shù)、天文現(xiàn)象觀察、日常生活應(yīng)用中均有著廣泛的應(yīng)用需求。不同領(lǐng)域的研究人員也提出了多種方法,如自適應(yīng)光學(xué)技術(shù)(Adaptive Optics)[1]、波前整形技術(shù)(Wavefront Shaping)[2-6]、相關(guān)成像技術(shù)(Correlation Imaging)[7-11]以及最近新興的神經(jīng)網(wǎng)絡(luò)技術(shù)(Neural Networks)[12-13]等。自適應(yīng)光學(xué)技術(shù)利用可變形鏡可以近乎完美地校正低階像差,但其成像條件也較為苛刻,需要有一個(gè)明亮的點(diǎn)光源或者高對比度初始圖像。波前整形技術(shù)可以做到透過高散射介質(zhì)成像,其成像過程需要大量的光學(xué)目標(biāo)估算。相關(guān)成像技術(shù)是基于記憶效應(yīng)理論[14-15]在沒有散射介質(zhì)、目標(biāo)物體或光源詳細(xì)信息的條件下可做到無創(chuàng)成像,但其成像質(zhì)量與選取的初值聯(lián)系緊密。同時(shí),其在成像精確性以及成像速度上還有很大的提升空間。隨著近年來神經(jīng)網(wǎng)絡(luò)的發(fā)展,深度網(wǎng)絡(luò)被應(yīng)用于計(jì)算機(jī)視覺的各個(gè)任務(wù)之中,也包括由散斑重建目標(biāo)信息,但所用的數(shù)據(jù)仍然是在較理想情況下由傳統(tǒng)相機(jī)采集的散斑圖,對成像條件要求較高[12]。

        在如上提到的成像技術(shù)應(yīng)用場景中,均需要質(zhì)量較好的散斑圖像,但在實(shí)際應(yīng)用過程中,散射介質(zhì)或(和)目標(biāo)物體為運(yùn)動(dòng)狀態(tài)的情況在所難免。同時(shí),當(dāng)針對于低亮度環(huán)境下的運(yùn)動(dòng)目標(biāo)時(shí),傳統(tǒng)相機(jī)拍攝到的散斑效果更差?,F(xiàn)有的算法效果,即使是功能強(qiáng)大的神經(jīng)網(wǎng)絡(luò)算法,也對此大打折扣甚至無法工作。但是,隨著視覺傳感器的發(fā)展,用于散射介質(zhì)成像的傳感器也有了更多選擇,其中,事件相機(jī)憑借其高動(dòng)態(tài)范圍、低延遲和高時(shí)間分辨率等優(yōu)點(diǎn)在低亮度、運(yùn)動(dòng)散斑采集方面具有巨大的潛力。

        不同于傳統(tǒng)相機(jī),事件相機(jī)是新興的一種視覺傳感器。其每個(gè)像素獨(dú)立工作,基于異步事件驅(qū)動(dòng),只處理亮度變化信息。工作時(shí)檢測每個(gè)像素的亮度變化是否超過提前設(shè)定的閾值并輸出事件流。事件流包括像素坐標(biāo)、時(shí)間戳以及極性信息[16-18]。事件相機(jī)的動(dòng)態(tài)范圍可達(dá)140 dB,輸出的事件時(shí)間分辨率是微秒級別。得益于其高動(dòng)態(tài)范圍、高時(shí)間分辨率和低延遲等特點(diǎn),相較于傳統(tǒng)相機(jī)在檢測運(yùn)動(dòng)目標(biāo)上具有明顯的優(yōu)勢。

        目前,事件相機(jī)有眾多的應(yīng)用場景,包括目標(biāo)跟蹤/檢測[19]、光流估計(jì)[20]、HDR 圖像重建[21]等。在激光散斑工作方面,2021 年,Edmund Y.Lam[22]等人使用事件相機(jī)代替DLSA,比較了事件傳感器與傳統(tǒng)CMOS 傳感器在分析動(dòng)態(tài)散斑方面的性能。由于事件傳感器只有在場景中有運(yùn)動(dòng)時(shí)才有輸出,因此事件傳感器節(jié)省了數(shù)據(jù)使用量,降低了算法復(fù)雜度。在極端條件下,由于嚴(yán)重的運(yùn)動(dòng)模糊,基于普通強(qiáng)度的傳感器無法捕獲聚焦圖像,而事件傳感器仍然可以捕獲具有高時(shí)間分辨率的事物并指示正確的動(dòng)態(tài)級別。同年,Edmund Y.Lam[23]等人提出一種基于事件的激光散斑相關(guān)技術(shù)用于微運(yùn)動(dòng)檢測。實(shí)驗(yàn)結(jié)果表明了其提出的方法在正常場景和高速場景下的可行性。

        雖然以上工作驗(yàn)證了事件相機(jī)應(yīng)用在激光散斑工作中的可行性,但并沒有進(jìn)一步涉及較為復(fù)雜的運(yùn)動(dòng)目標(biāo)信息。同時(shí),由于缺少動(dòng)態(tài)散斑相關(guān)事件數(shù)據(jù),事件相機(jī)在透過散射介質(zhì)的目標(biāo)探測任務(wù)中,特別是涉及到需要大量數(shù)據(jù)訓(xùn)練的神經(jīng)網(wǎng)絡(luò)工作中受到很大阻礙。為此,本文借助V2E算法從多組傳統(tǒng)灰度散斑中模擬產(chǎn)生相應(yīng)的事件流,進(jìn)而制作為“事件散斑”數(shù)據(jù)集,將其送入神經(jīng)網(wǎng)絡(luò)進(jìn)行目標(biāo)分類訓(xùn)練,分析原始運(yùn)動(dòng)的手寫數(shù)字目標(biāo)信息,最終獲得了90%以上的十分類精確率。

        2 基于神經(jīng)網(wǎng)絡(luò)的事件流生成

        2.1 事件相機(jī)工作原理

        傳統(tǒng)相機(jī)以固定的速率捕獲圖像,對整幅圖像進(jìn)行輸出;而事件相機(jī)異步測量每個(gè)像素的亮度變化,并輸出編碼亮度變化的時(shí)間、位置和符號的事件流[15-17]。因此,事件相機(jī)的輸出是數(shù)字“事件”或“尖峰”的可變數(shù)據(jù)序列。每個(gè)事件都表示對應(yīng)像素在對應(yīng)時(shí)間點(diǎn)上對數(shù)亮度發(fā)生的變化,事件相機(jī)的輸出操作如圖1 所示。

        圖1 事件相機(jī)輸出操作示意圖Fig.1 Schematic diagram of the event camera output operation

        事件相機(jī)的每個(gè)像素獨(dú)立工作,對連續(xù)的對數(shù)亮度信號L(logI)的變化做出響應(yīng)。每個(gè)像素每次發(fā)送事件后會(huì)記錄當(dāng)前對數(shù)亮度的強(qiáng)度,當(dāng)該像素u的對數(shù)亮度強(qiáng)度在時(shí)刻tk變化超過設(shè)定的閾值C時(shí),事件相機(jī)便輸出事件。生成事件的公式如式(1)所示:

        輸出事件為像素信息u(x,y,t,p),其中x、y表示該像素的坐標(biāo),t表示該事件觸發(fā)的時(shí)間戳,p∈{-1,1}表示極性信息。當(dāng)亮度增加時(shí)輸出ON事件,p=1;亮度減少時(shí)輸出OFF 事件,p=-1。

        相較于傳統(tǒng)相機(jī),事件相機(jī)的優(yōu)點(diǎn)包括高動(dòng)態(tài)范圍(可達(dá)140 dB)、高時(shí)間分辨率(可達(dá)μs 量級)、低功耗、高像素帶寬(可達(dá)kHz 量級)。同時(shí),由于其工作原理,事件相機(jī)還減少了運(yùn)動(dòng)模糊的出現(xiàn)。憑借獨(dú)特的工作方式及明顯的優(yōu)勢,事件相機(jī)與神經(jīng)網(wǎng)絡(luò)相結(jié)合已應(yīng)用于多種領(lǐng)域。但是,神經(jīng)網(wǎng)絡(luò)的訓(xùn)練需要大量的事件數(shù)據(jù)集。雖然已有一些實(shí)采的事件數(shù)據(jù)集[24],但其數(shù)量仍遠(yuǎn)少于傳統(tǒng)相機(jī)數(shù)據(jù)集。據(jù)我們所知,更是沒有透過薄散射介質(zhì)的目標(biāo)事件數(shù)據(jù)集。因此,由灰度數(shù)據(jù)制備事件數(shù)據(jù)成為了一種獲得事件數(shù)據(jù)集的重要方式。

        2.2 V2E 算法

        目前已出現(xiàn)多種事件數(shù)據(jù)模擬生成方式。早期Katz 等人[25]提出借助廉價(jià)的高幀率(125 幀/s)USB 相機(jī)結(jié)合PC 機(jī)的事件傳感器的模擬方法,從傳統(tǒng)的強(qiáng)度圖像中模擬生成事件流數(shù)據(jù)。但相較于使用事件相機(jī),該方法對PC 負(fù)載要求較高,實(shí)際使用時(shí)模擬生成速度有限。ESIM 事件相機(jī)模擬器[26]并非直接使用相鄰強(qiáng)度幀之間的差異生成事件流,而是提出自適應(yīng)渲染方案,根據(jù)視覺信號的預(yù)測動(dòng)態(tài)調(diào)整采樣率,可用于從合成視頻或者圖像數(shù)據(jù)集中生成所需的事件數(shù)據(jù),數(shù)據(jù)生成質(zhì)量與效率也均有提高。Rpg_vid2e[27]是ESIM 的一個(gè)拓展,它首先將視頻插幀處理,之后對于每個(gè)像素,其連續(xù)的強(qiáng)度信號在時(shí)間上通過高幀率視頻幀之間的線性插值近似,當(dāng)強(qiáng)度變化幅度超過設(shè)定的閾值時(shí)便產(chǎn)生事件。但是,這兩種方法針對的是不存在時(shí)間噪聲、泄露的DVS (Dynamic Vision Sensor)事件和均勻分布的閾值失配情況,而這種情況并不適用于真實(shí)相機(jī)。新出現(xiàn)的V2E 算法[28]彌補(bǔ)了上述缺陷。V2E考慮了事件閾值適配、有限強(qiáng)度相關(guān)帶寬和強(qiáng)度相關(guān)噪聲等,使其可生成覆蓋一系列光照條件的事件數(shù)據(jù)。為了使生成的散斑事件流更真實(shí)可靠,本文采用的是最新的V2E 算法。V2E 生成事件流數(shù)據(jù)過程如圖2 所示。

        圖2 V2E 工作流程圖Fig.2 V2E workflow diagram

        V2E 算法首先將時(shí)間T內(nèi)的彩色視頻轉(zhuǎn)換為M個(gè)亮度幀:Is=其中,每一幀都與一個(gè)時(shí)間戳ti(0=t1<..<ti<..<tM=T)相關(guān)聯(lián)?;叶纫曨l幀的像素值作為亮度值處理,之后將視頻幀縮放到指定尺寸。得到指定分辨率的視頻幀后,借助Super-SloMo 視頻插幀網(wǎng)絡(luò)[29]對其進(jìn)行插幀以提高時(shí)間分辨率。為了使插幀效果更好,V2E 算法在Adobe240FPS[30]數(shù)據(jù)集上將RGB 幀轉(zhuǎn)換為亮度幀后重新訓(xùn)練了Super-SloMo。從亮度幀中生成事件的方法是基于Katz等人的工作[25,31]。由于事件相機(jī)輸出依據(jù)的是對數(shù)亮度的變化,而標(biāo)準(zhǔn)的數(shù)字視頻通常是線性表示強(qiáng)度,所以需要建立亮度I(0~255)與對數(shù)強(qiáng)度L之間的映射。對于亮度值I<20 的像素,采用強(qiáng)度到對數(shù)強(qiáng)度的線性映射。

        為了模擬真實(shí)事件相機(jī)的有限模擬帶寬,V2E 算法通過使用隨強(qiáng)度值單調(diào)增加的濾波帶寬模擬該影響,即濾波器的帶寬與亮度值I成正比(防止帶寬為0,存在一個(gè)加性常數(shù)限制其最小值)。每個(gè)像素存在一個(gè)記憶亮度值Lm,新的低通濾波亮度值為LlP,進(jìn)而通過ΔL=Llp-Lm來產(chǎn)生正、負(fù)事件,若ΔL是閾值的倍數(shù)則產(chǎn)生多個(gè)事件。同時(shí),記憶亮度值也進(jìn)行更新。真實(shí)事件相機(jī)的閾值隨高斯分布變化,因此,在模擬生成事件數(shù)據(jù)前便仿造相應(yīng)高斯分布變化存儲(chǔ)了正負(fù)閾值二維數(shù)組以供后續(xù)使用。同時(shí),V2E 算法添加了熱噪聲事件、泄漏事件和時(shí)間噪聲。

        2.3 事件散斑生成

        采用以上方法得到的事件流并不方便直接用于后續(xù)目標(biāo)分類工作,需要對事件流進(jìn)行處理。目前應(yīng)用較廣的處理方法有事件幀/2D 直方圖[32-33]、體素網(wǎng)格[34-35]、3D 點(diǎn)集[36-37]等方式。本文將其制作為“事件散斑”。首先對獲得的事件流數(shù)據(jù)進(jìn)行去噪處理,針對每一組運(yùn)動(dòng)目標(biāo)采集的事件流以固定時(shí)長分割,對該時(shí)間段內(nèi)的每一個(gè)觸發(fā)事件進(jìn)行判斷,查詢其同一行相鄰位置是否有其他事件觸發(fā)。若有則保留該事件,若沒有則刪除該事件,對所有觸發(fā)事件重復(fù)執(zhí)行此步驟。

        在得到去噪后的事件流后,將事件序列進(jìn)行分割。之后將分割出的序列內(nèi)所有事件在一幅畫面上進(jìn)行累加,制作一張事件幀。在累加過程中利用事件的極性p與時(shí)間戳t,使用體素網(wǎng)格[38-39]的方法對事件進(jìn)行歸一化的處理。具體如下:

        將每個(gè)手寫數(shù)字目標(biāo)對應(yīng)的事件流分割為3段事件流,各自在畫面上進(jìn)行累加,制作為3 張事件幀。在累加過程中利用事件的極性p與時(shí)間戳t,對事件進(jìn)行類似于歸一化的處理,歸一化事件時(shí)間戳公式如式(2)所示:

        進(jìn)行如上操作的目的是,使不同時(shí)間觸發(fā)的事件在事件幀中的影響不同,兩種極性p可以表示兩種亮度變化。經(jīng)過歸一化處理后,如果每一個(gè)運(yùn)動(dòng)的目標(biāo)對應(yīng)采集的事件流為N,隨后分割成的3 個(gè)子序列為Sd,對應(yīng)制作為3 張事件幀,每一事件幀的計(jì)算公式如式(3)所示:

        其中:i對應(yīng)每一個(gè)事件的序號,(x,y)為觸發(fā)事件的坐標(biāo),p為該事件的極性,S為事件子序列,d為事件子序列的序號(當(dāng)制作第一個(gè)子序列時(shí)d=0,第二個(gè)子序列時(shí)d=1,第三個(gè)子序列時(shí)d=2)。采用如上方法制成所需的事件幀,即事件散斑。

        2.4 分類網(wǎng)絡(luò)

        本文采用的分類網(wǎng)絡(luò)基于ResNet101[40]。ResNet的出現(xiàn)主要針對網(wǎng)絡(luò)加深后產(chǎn)生的梯度消失或梯度爆炸的問題。該退化問題會(huì)阻礙網(wǎng)絡(luò)的收斂,影響測試結(jié)果。ResNet有多種變形,但結(jié)構(gòu)特點(diǎn)相同,主要包括輸入部分、中間卷積部分和輸出部分。ResNet101 的具體結(jié)構(gòu)如圖3 所示。

        圖3 ResNet101 結(jié)構(gòu)圖Fig.3 ResNet101 block diagram

        ResNet 網(wǎng)絡(luò)的輸入部分由卷積層和池化層組成。其中卷積層的核為7,步進(jìn)值為2。池化層的核為3,步進(jìn)值為2。采用卷積層和池化層配合的目的是減小輸入圖像的尺寸同時(shí)增加通道數(shù),降低運(yùn)算所需的存儲(chǔ)。中間卷積部分有4 層,分別由多個(gè)bottleneck 結(jié)構(gòu)構(gòu)成。bottleneck 的輸入數(shù)據(jù)分成兩路,一路經(jīng)過1×1 卷積、3×3 卷積和1×1 卷積,另一路直接與前者輸出結(jié)果相加,經(jīng)過激活函數(shù)Relu 向后輸出。其中,1×1 卷積的存在不僅起到對通道數(shù)升維和降維的作用,還在保持原有特征圖大小的情況下實(shí)現(xiàn)多個(gè)特征圖的線性組合,同時(shí)大幅降低了運(yùn)算復(fù)雜度。ResNet 的輸出部分通過全局自適應(yīng)平均池化將特征圖尺寸變?yōu)?×1,輸出2 048 類初始分類結(jié)果,之后由全連接層輸出手寫數(shù)字目標(biāo)的十分類結(jié)果。

        3 實(shí)驗(yàn)結(jié)果

        本文利用灰度相機(jī)采集所得散斑圖模擬產(chǎn)生事件數(shù)據(jù)。目標(biāo)為MNIST 手寫數(shù)字?jǐn)?shù)據(jù)集[41],其中包含0~9 的手寫數(shù)字。對于每一個(gè)手寫數(shù)字目標(biāo),通過向左、向上兩次移動(dòng),采集3 幅(512×512)清晰灰度散斑圖像。將3 幅存在相對位移的灰度散斑送入V2E,生成該運(yùn)動(dòng)手寫數(shù)字目標(biāo)的事件流,其中正負(fù)閾值C大小設(shè)定為0.15,其余參數(shù)默認(rèn)不變。實(shí)驗(yàn)共制備4 200 組手寫數(shù)字目標(biāo)的事件流數(shù)據(jù),轉(zhuǎn)換結(jié)果如圖4 所示。

        圖4 事件流轉(zhuǎn)換結(jié)果示意圖Fig.4 Diagram of the result of the event stream transformation

        V2E 的一個(gè)明顯特點(diǎn)是會(huì)模擬真實(shí)情況在事件數(shù)據(jù)中添加噪聲。我們對比了無噪聲與有噪聲的事件散斑,結(jié)果如圖5 所示。對于特定的一個(gè)運(yùn)動(dòng)數(shù)字目標(biāo),V2E 產(chǎn)生的噪聲事件數(shù)約為3萬個(gè)(總事件數(shù)約為23 萬)。更真實(shí)的添加噪聲的事件散斑由于受到噪聲的影響相較于沒有噪聲影響的事件散斑表現(xiàn)效果較差(為了方便觀察,將圖像灰度值進(jìn)行了歸一化處理)。

        圖5 事件散斑添加噪聲前后對比圖Fig.5 Event speckles before and after noise added

        得到上述事件流數(shù)據(jù)后,我們通過2.3 節(jié)中所描述的方法將其處理為事件散斑。圖6 是手寫數(shù)字目標(biāo)對應(yīng)的灰度散斑及事件散斑。

        圖6 手寫數(shù)字目標(biāo)對應(yīng)的灰度散斑及事件散斑Fig.6 Handwritten digit targets corresponding to grayscale speckles and event speckles

        對于目標(biāo)識別部分,在利用V2E 算法將這些灰度散斑圖像制作為初始事件流后,接著利用體素網(wǎng)格方法,將初始事件流以不同的切片方法制作為兩類512×512的事件散斑(每類均為4 200組數(shù)據(jù))。在第一類中,我們將一個(gè)數(shù)字目標(biāo)的所有事件流制作為一張事件幀,即單通道事件幀。在第二類事件散斑中,我們將一個(gè)數(shù)字目標(biāo)的事件流劃分為3 部分,制作為3 張事件幀,即三通道事件幀。針對兩類事件散斑進(jìn)行兩組實(shí)驗(yàn),分別送入ResNet101 網(wǎng)絡(luò)中。網(wǎng)絡(luò)開頭添加卷積層使單通道事件幀與三通道事件幀來適配網(wǎng)絡(luò)輸入,之后輸入事件散斑分別經(jīng)過網(wǎng)絡(luò)的輸入部分、中間卷積部分、輸出部分與全連接層得到十分類結(jié)果。對于每個(gè)目標(biāo),神經(jīng)網(wǎng)絡(luò)輸出其0~9 的類別概率大小,例如,對手寫數(shù)字“0”的十分類輸出結(jié)果為[16.255,-2.349,0.088,-4.748,-3.426,-0.199,1.053,-1.930,-2.360,-2.920],可以看到網(wǎng)絡(luò)判斷該目標(biāo)為“0”的概率最大,因此該目標(biāo)分類正確。同時(shí),我們提取了輸入部分降采樣得到的特征圖,如圖7 所示。

        圖7 輸入散斑及降采樣特征圖Fig.7 Input speckle and downsampling characteristic maps

        利用4 000 組數(shù)據(jù)進(jìn)行網(wǎng)絡(luò)訓(xùn)練,200 組數(shù)據(jù)用于測試。實(shí)驗(yàn)在Linux 操作系統(tǒng)下進(jìn)行,其中CPU 為Intel(R)Core(TM)i9-10900X,GPU 為NVIDIA GeForce RTX 3090,采用Pytorch 作為深度學(xué)習(xí)框架,調(diào)整初始學(xué)習(xí)率為0.001,批處理大小為16。我們調(diào)用torchvision的預(yù)訓(xùn)練ResNet101模型,優(yōu)化算法采用隨機(jī)梯度下降,權(quán)重衰減為0.000 5,在此基礎(chǔ)上運(yùn)行300 輪訓(xùn)練。

        通過訓(xùn)練得到的手寫數(shù)字目標(biāo)十分類結(jié)果如表1 所示。單通道事件散斑、三通道事件散斑的十分類精確率分別為92.71%和94.27%。制作單通道事件散斑時(shí),時(shí)間戳歸一化僅以事件流開頭為依據(jù),這就導(dǎo)致長事件流中開頭部分事件所占權(quán)重較小而結(jié)尾處權(quán)重較大。盡管在一幀事件散斑中包含有所有事件數(shù)據(jù),但分類效果仍會(huì)受到影響。而制作三通道散斑是以事件流開頭,中間、結(jié)尾為依據(jù)分別制作3 幀事件幀,事件流劃分更細(xì)致,得到的分類效果更高。同時(shí),V2E 算法制作事件流過程中網(wǎng)絡(luò)效果、噪聲等因素也會(huì)影響事件流生成的效果。未來可通過真實(shí)事件相機(jī)采集復(fù)雜目標(biāo)進(jìn)行分析,同樣可調(diào)整神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)達(dá)到更好的原始目標(biāo)恢復(fù)效果。以上實(shí)驗(yàn)結(jié)果表明,由事件數(shù)據(jù)制成的事件散斑仍可較好地保留向左、向上運(yùn)動(dòng)的手寫數(shù)字目標(biāo)的0~9 類別信息,在目標(biāo)分類任務(wù)上有較好的表現(xiàn)。在未來透過薄散射介質(zhì)的目標(biāo)事件分析工作中,可以進(jìn)一步拓展運(yùn)動(dòng)目標(biāo)種類及運(yùn)動(dòng)方式。

        表1 手寫數(shù)字十分類結(jié)果Tab.1 Ten-class classification results of handwritten digits

        4 結(jié) 論

        本文通過實(shí)際采集運(yùn)動(dòng)手寫數(shù)字目標(biāo)生成的灰度散斑,由V2E 算法生成灰度散斑對應(yīng)的事件流,將模擬事件流制作為事件散斑送入殘差網(wǎng)絡(luò)進(jìn)行十分類任務(wù),達(dá)到了94.27%的精確率。實(shí)驗(yàn)結(jié)果表明,事件散斑較好地保留了原始運(yùn)動(dòng)目標(biāo)的類別信息,證明了事件散斑在保留原始運(yùn)動(dòng)目標(biāo)信息上的可行性,進(jìn)而表現(xiàn)出事件相機(jī)在透過散射介質(zhì)成像方面的巨大發(fā)展?jié)摿?。同時(shí),本文工作也存在繼續(xù)探索的方向,例如拓展運(yùn)動(dòng)目標(biāo)的種類、采用更復(fù)雜的運(yùn)動(dòng)方式以及分析不同種類的噪聲對事件散斑質(zhì)量及運(yùn)動(dòng)目標(biāo)檢測的影響等。

        猜你喜歡
        散斑手寫亮度
        手寫比敲鍵盤更有助于學(xué)習(xí)和記憶
        我手寫我心
        激光顯示中的彩色散斑測量研究
        激光投影顯示散斑抑制方法研究
        抓住身邊事吾手寫吾心
        亮度調(diào)色多面手
        基于集成學(xué)習(xí)的MINIST手寫數(shù)字識別
        電子制作(2018年18期)2018-11-14 01:48:08
        用于檢驗(yàn)散斑協(xié)方差矩陣估計(jì)性能的白化度評價(jià)方法
        亮度一樣嗎?
        基于斬波調(diào)制的LED亮度控制
        熟女少妇av一区二区三区| 精品国产午夜福利在线观看| 国产福利小视频在线观看| 91国语对白在线观看| 在线精品国产亚洲av蜜桃| 中文字幕人妻被公上司喝醉| 欧美第五页| 日本a一区二区三区在线| 日本av一区二区三区在线| 成人午夜福利视频镇东影视| 一区一级三级在线观看 | 日本一区二三区在线中文| 国产成人av一区二区三区不卡| 边啃奶头边躁狠狠躁| 91视频爱爱| 日韩女优一区二区在线观看 | 高潮内射双龙视频| 乱中年女人伦av| 国产优质女主播在线观看| 精品国产三级a在线观看不卡| 国产精品r级最新在线观看| 毛片毛片免费看| 国产一区二区在三区在线观看| 国产成人av无码精品| 99久久久无码国产精品试看| 99亚洲乱人伦精品| 国产黄色一区二区在线看| 国产熟妇另类久久久久| 久久久精品3d动漫一区二区三区| 国产目拍亚洲精品二区| 国产av无码专区亚洲av麻豆| 亚洲旡码a∨一区二区三区| 久久国产精品免费一区六九堂 | 亚洲国产av导航第一福利网| 日韩国产有码在线观看视频| 在线观看一区二区三区在线观看| 欧美乱人伦人妻中文字幕| 亚洲国产午夜精品乱码| 国产三级视频在线观看国产| 国产精品麻豆va在线播放| 国产av国片精品|