亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度學習的視頻圖像壓縮編碼方法優(yōu)化

        2018-01-10 13:53:47姜濤李婷婷
        科技傳播 2017年22期
        關鍵詞:深度學習

        姜濤+李婷婷

        摘 要 隨著互聯(lián)網無線通信技術的不斷發(fā)展,人們可以通過觀看互聯(lián)網視頻、瀏覽圖像信息等方式進行學習,但在這個過程當中,難免會遇到圖像或視頻所需的打開方式不被當前移動設備所支持的情況。本文對視頻圖像壓縮編碼原理進行了簡單的介紹,并提出了一種新型的JND壓縮編碼模型,也通過實驗證明了在所需壓縮編碼時間與解壓成功率方面,該模型都比傳統(tǒng)MDLVQ模型具備更高的實用可行性。

        關鍵詞 深度學習;視頻圖像;壓縮編碼;方法優(yōu)化

        中圖分類號 TP3-05 文獻標識碼 A 文章編號 1674-6708(2017)199-0161-02

        科技手段的日益更新,使得我們可以輕輕松松做到足不出戶就能知曉天下事,也正是在這樣的社會背景之下,越來越多的人傾向于通過網絡的方式獲取信息來進行深度學習。但卻經常因為“視頻所需播放軟件與移動設備安裝格式不符”或“不具有該圖像的瀏覽權限”等問題的發(fā)生,而無法獲取相應的信息。根據我們已掌握的數據顯示,接近三成的網絡視頻和圖像都是因為壓縮編碼環(huán)節(jié)所使用的方式,與移動設備所使用的解壓方式不符,才造成不具備瀏覽權限等問題的發(fā)生。為了從根本上開放網絡學習空間,本文聯(lián)系視頻圖像壓縮編碼原理提出了一種JND編碼模型,并對其可行性進行了實驗研究。

        1 基于深度學習的視頻圖像壓縮

        所謂深度學習,就是通過對數據的分析,運用機器理論來進行表征學習的一種基于人工網絡基礎上的研究形式[1-2]。而視頻圖像壓縮編碼原理,簡單來說就是將所占空間較大的原視頻圖像,通過特定的技術壓縮成所占空間較小的視頻圖像模塊,再對該模塊進行加密編碼,以防止在傳播過程中被人惡意解壓,通常情況下我國以國際電聯(lián)的H.261標準進行編碼。

        2 建立深度學習的視頻圖像壓縮編碼JND模型

        為了更好的開放網絡學習空間,幫助用戶進行深度學習,減少不具備視頻圖像瀏覽權限等情況的發(fā)生,本文在視頻圖像壓縮編碼原理的基礎上,建立了新型JND壓縮編碼模型,并對其中基本組成進行了如下分析。

        2.1 Retinxe理論模型

        Retinxe理論又被稱之為視頻圖像信號增強技術,它的主要目的就是為了更加凸顯出局部像素的特征性。而隨著Retinxe理論模型的應用,一些所占空間小、清晰程度低的視頻圖像,在被壓縮編碼之前已經通過主機對其局部像素的特征性進行了保留。該過程的主要計算遵循如下公式:

        其中W表示視頻數據塊所占的空間,S表示原視頻圖像所占空間,N代表局部像素清晰度,n期待視頻圖像塊大小,d表示實際視頻圖像塊大小。

        2.2 MSRCG算法

        MSRCG算法是在Retinxe理論模型的基礎上,對視頻圖像進行照度分量估測,并對估測出的數值進行色彩恒常性和細節(jié)銳化度分析,將分析結果返回至主機中,然后多次重復上述過程,能夠得到一個數據集,再由主機對數據集中所有數據進行分析,選擇一個最優(yōu)解作為該視頻或圖像的壓縮編碼原則。

        2.3 建立JND編碼模型

        通過Retinxe理論模型的建立和MSRCG算法的建立,保證了JND編碼模型的理論基礎[3]。為了該模型的穩(wěn)定運行,通常情況下,我們還會對上述兩種算法所確定的壓縮編碼原則進行檢驗,如若經過檢驗確認無誤,則主機才會采取此原則對原視頻或圖像進行壓縮編碼,其檢驗流程所遵循的公式如下:

        至此也就完成了整個JND壓縮編碼模型的建立。

        3 實驗數據分析

        為了更好的突出JND壓縮編碼模型與傳統(tǒng)MDLVQ模型之間的區(qū)別,本文從所需壓縮編碼時間與解壓成功率方面對兩者進行了對比,已驗證本文所提出的分布式調度模型是具有真實可行性的。本文對100個視頻或圖像從壓縮編碼到解壓的全過程進行了實驗,并對實驗中的各項數據進行了記錄。

        3.1 JND模型與傳統(tǒng)MDLVQ模型所需壓縮編碼時間對比

        將100個實驗對象隨機分配為兩組,一組使用JND模型進行壓縮編碼,另一組使用MDLVQ模型進行壓縮編碼,分別對兩組所用的時間進行了記錄,并繪制了如下表格。

        通過表1中的數據我們可以發(fā)現(xiàn),在對相同數量的視頻或圖像進行壓縮時,JND模型所需的時間始終少于MDLVQ模型。

        3.2 JND模型與傳統(tǒng)MDLVQ模型解壓成功率對比

        通過上述實驗我們可以發(fā)現(xiàn)JND模型不論是在所需壓縮編碼時間還是解壓成功率方面都比MDLVQ模型具備更大的優(yōu)勢,因此未來值得大力推廣。

        4 結論

        為了建設更好的網絡學習氛圍,我國將加大力度對視頻圖像的壓縮編碼方法進行優(yōu)化,以幫助更多的用戶能夠通過網絡進行深度學習,根據本文所進行的實驗,可以說明JND壓縮編碼模型是具有極大實用可行性的,未來將加深對該模型的研究,從整體上對其進行優(yōu)化和完善。

        參考文獻

        [1]李祖賀,樊養(yǎng)余,王鳳琴.YUV空間中基于稀疏自動編碼器的無監(jiān)督特征學習[J].電子與信息學報,2016,38(1):29-37.

        [2]李平,俞俊,李黎,等.一種基于深度學習的視頻摘要在線生成方法, A video summary is generated based on the depth of online learning:,CN 104113789 B[P].2017.

        [3]趙永威,李婷,藺博宇.基于深度學習編碼模型的圖像分類方法[J].四川大學學報(工程科學版),2017,49(1):213-220.endprint

        猜你喜歡
        深度學習
        從合坐走向合學:淺議新學習模式的構建
        面向大數據遠程開放實驗平臺構建研究
        基于自動智能分類器的圖書館亂架圖書檢測
        搭建深度學習的三級階梯
        有體驗的學習才是有意義的學習
        電子商務中基于深度學習的虛假交易識別研究
        利用網絡技術促進學生深度學習的幾大策略
        考試周刊(2016年94期)2016-12-12 12:15:04
        MOOC與翻轉課堂融合的深度學習場域建構
        大數據技術在反恐怖主義中的應用展望
        深度學習算法應用于巖石圖像處理的可行性研究
        軟件導刊(2016年9期)2016-11-07 22:20:49
        色婷婷日日躁夜夜躁| 国产精品高清网站| 妺妺窝人体色www聚色窝| 欧美喷潮久久久xxxxx| 亚洲日韩成人无码不卡网站| 久久综合亚洲鲁鲁五月天| 国产又黄又硬又粗| 亚洲国产精品久久亚洲精品| 亚洲欧美在线视频| 日本人妻高清免费v片| 西西少妇一区二区三区精品| 二区视频在线免费观看| 亚洲最大av网站在线观看| 曰韩无码二三区中文字幕| 精品视频入口| 亚洲视频在线中文字幕乱码| 精品亚洲一区二区三区在线播放| 精品国产三级a在线观看不卡| 天天噜日日噜狠狠噜免费| 亚洲AV无码不卡无码国产| 亚洲国产精一区二区三区性色| 国内揄拍国内精品人妻久久 | 日本免费a级毛一片| 日韩欧美中文字幕公布| 国产99视频一区二区三区| 一边摸一边做爽的视频17国产| 天天躁狠狠躁狠狠躁夜夜躁| 波多野结衣亚洲一区二区三区| 天堂女人av一区二区| 久久在一区二区三区视频免费观看| 中文字幕人妻被公上司喝醉| 亚洲AV秘 无码一区二区三区臀| 久久久9色精品国产一区二区三区 国产三级黄色片子看曰逼大片 | 人妻少妇精品无码专区| 国产亚洲精品久久久久久久久动漫| 国产在线白浆一区二区三区在线 | 一本色道久久综合狠狠躁中文| 国产成人大片在线播放| 大地资源在线影视播放| 免费黄色电影在线观看| 网红极品女神精品视频在线|