亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        人工智能在教育視頻中的應用分析與設計

        2020-04-10 11:02:33王萍
        電化教育研究 2020年3期
        關鍵詞:應用設計人工智能

        [摘? ?要] 視頻是教育領域重要的學習資源形式,基于人工智能技術的教育視頻分析與創(chuàng)新應用是推動教育人工智能落地的重要方式,但目前還處于研究與實踐的探索階段。文章分析了人工智能對教育視頻的支持功能,在此基礎上探討了人工智能在教育視頻中的具體應用場景,構建了基于人工智能的教育視頻應用設計原則與框架,并進行了案例實現(xiàn)。研究表明:基于人工智能技術的教育視頻應用有助于增強互動學習,支持多模態(tài)學習分析,優(yōu)化視頻游戲設計,促進智慧課堂與智慧校園建設。對人工智能在教育視頻中的應用研究與實踐將推進教育教學創(chuàng)新,推動人工智能與教育的深度融合。

        [關鍵詞] 教育視頻; 人工智能; 視頻分析; 應用設計

        [中圖分類號] G434? ? ? ? ? ? [文獻標志碼] A

        [作者簡介] 王萍(1975—),女,河南安陽人。副教授,博士,主要從事在線學習和學習分析研究。E-mail:pingwang @shisu.edu.cn。

        一、引? ?言

        人工智能技術正在對教育領域產生革命性影響,探索人工智能與教育的融合應用方式是當前教育人工智能發(fā)展道路上的關鍵環(huán)節(jié)。人工智能技術處理的主要數據類型包括文本、語音、圖像、視頻等,其中視頻信息是維度最多、信息量最大的數據類型,也是當前信息環(huán)境下應用最廣泛的媒體格式。視頻數據記載著物理世界與虛擬空間的影音信息,分析理解視頻大數據是我們理解世界的重要方式。伴隨著計算能力的有效提升、核心算法的突破以及海量大數據的支撐,利用人工智能技術對視頻進行分析處理正在步入快速發(fā)展時期。

        在教育領域,視頻一直是重要的學習資源。近年隨著慕課、移動學習等的發(fā)展,以短視頻為代表的學習資源豐富了視頻資源應用。同時,在智慧課堂和智慧校園的建設和發(fā)展中,實時監(jiān)控視頻等也日益普及,視頻已廣泛應用于線上和線下的教育活動中。教育視頻數據量的快速增長與應用場景的豐富,使得依靠傳統(tǒng)的人工方式對視頻進行管理和分析不再可行,需要借助人工智能技術推動教育視頻的自動分析與創(chuàng)新應用。因此,對人工智能在教育視頻中的應用分析,是值得深入探索的研究領域,將有助于推動人工智能技術在教育領域的落地,也將推動教育視頻的價值提升。

        二、相關研究

        (一)基于人工智能的視頻分析

        基于人工智能的視頻分析使用機器學習、深度學習等方法解析視頻,目標是使計算機能自動提取視頻數據中的信息與語義,達到以類似人的視覺功能進行視頻的理解,是人工智能領域中計算機視覺研究的重要內容。基于人工智能的視頻分析力求解決三類主要技術問題:首先是分類和識別問題,即如何從視頻中識別內容的種類;其次是檢測和跟蹤問題,即不但要識別出視頻中的目標,還要識別出目標的位置并實時跟蹤;最后是語義問題,即結構化問題,如何將非結構化的視頻組織成可供計算機和人理解的結構化信息。當前,深度學習算法在計算機視覺問題上表現(xiàn)出優(yōu)異性能,加速著智能化視頻分析技術的進展。

        (二)人工智能在教育視頻中的已有研究

        視頻一直是教育領域內重要的教育資源形式。在教育技術的發(fā)展過程中,跟隨信息技術的發(fā)展,教育視頻也經歷了一個不斷演進的過程。20世紀70年代開始,以電視教學為主要媒體的遠距離教育開始突破傳統(tǒng)教育在時空上的限制,電視教材成為早期的教育視頻資源。20世紀90年代后,計算機技術的發(fā)展與普及推動了以數字信號為代表的多媒體課件和數字視頻的廣泛應用,視頻資源的制作成本與周期有效降低。近年,隨著慕課等在線學習以及移動學習的快速發(fā)展,教育視頻在創(chuàng)作方式與應用形式上更為靈活,支持著混合學習、翻轉課堂等多種教育模式的創(chuàng)新。教育發(fā)展的過程,也是教育視頻在制作方式、應用特點、互動形式、表現(xiàn)能力、應用模式上不斷進步的過程。

        當前,視頻已經成為學生獲取知識技能的主要形式,視頻學習資源在信息化教育進程中具有巨大的應用價值[1]。教育視頻數據量的快速增長與應用場景的豐富,促使研究者探索更為有效的方法對視頻進行分析。如何利用人工智能技術分析教育視頻并應用于教育教學過程開始得到研究者關注。表1總結了已有的主要代表性研究。

        與當前快速發(fā)展的人工智能技術與深度學習算法相比,雖然視頻一直是教育中重要的資源,但目前基于人工智能的教育視頻研究整體上還處于探索階段,主要集中在對學習過程監(jiān)控視頻的分析方面,通過對面部或身體的分析來探索對于學習過程有意義的研究內容。在目前的研究中,還缺少對教育視頻應用的全面系統(tǒng)分析,缺少對教育視頻應用的設計原則與方法的思考。因此,探索人工智能在教育視頻中應用的主要方式,探索如何設計基于人工智能的教育視頻應用,還有待于進一步深入。

        三、人工智能在教育視頻中應用的理論基礎

        (一)多媒體學習認知理論

        梅耶的多媒體學習理論是建立在堅實的理論基礎和可靠的實證經驗基礎上的科學體系[11]。梅耶認為,“按照人的心理工作方式設計的多媒體信息比沒有按照人的心理工作方式設計的多媒體信息更可能產生有意義學習”。視頻學習是一種典型的多媒體學習方式,多媒體學習認知理論的三個基本假設——雙通道假設、有限容量假設、主動加工假設對教育視頻的智能化應用提供了理論指導,見表2。

        (二)注意力機制

        注意力是指人的心理活動指向和集中于某種事物的能力。認知心理學將注意力看作一種內部的信息加工機制,通過這種機制,實現(xiàn)對刺激選擇的控制和相對行為的調節(jié)[12]。視覺注意力機制是人類視覺所特有的大腦信號處理機制。人類視覺對全局畫面掃描后,將注意力集中于重點關注區(qū)域,即注意力焦點,并對該區(qū)域投入更多注意力資源,以獲取更多的關注目標的細節(jié)信息。這是人類在長期進化中形成的一種生存機制,使人類能夠利用有限的注意力資源從大量信息中快速篩選出高價值信息。人類視覺注意力機制極大地提高了視覺信息處理的效率與準確性[13]。

        人工智能領域中的注意力機制是模擬人腦注意力機制提出的深度學習模型,本質上與人類的選擇性視覺注意力機制類似,借鑒了人類的注意力思維方式。注意力機制模型通過模擬人腦的注意力特性,從全局分析視頻內容,使模型的注意力落在整個視頻的有效區(qū)域,降低無關信息對視頻內容識別的干擾,從而識別并分析對當前任務目標更關鍵的信息。

        (三)視覺計算理論

        視頻是人類視覺的內容,視覺本質是一個信息處理任務。對于視覺的研究可以從基于生物視覺機制和基于計算模型兩個角度分析。從基于生物視覺機制的研究來看,需要探索生物視覺的產生、結構和機制。計算模型則是在生物視覺機制基礎上,通過挖掘影響人類視覺決策的客觀因素,構建相對應的計算模型來對視覺進行理解分析。

        視覺計算將視覺問題形式化為可計算的視覺信息處理問題,是連接計算機科學與認知神經科學的橋梁,是視覺認知和信息計算的有效手段。生物視覺機制的研究和對視覺機理規(guī)律的認識為視覺計算模型提供良好的生理學和心理學參照,視覺計算模型也為視覺機理的正確性和有效性提供驗證的平臺,能有力推動視覺認知機理的發(fā)展。

        (四)類腦計算

        人工智能的發(fā)展目標是構建像人腦一樣能夠自主學習和進化、具有類人通用智能水平的智能系統(tǒng)[14]。類腦計算是受腦功能、腦神經機制和認知行為機制啟發(fā)的一種計算架構,以計算建模為手段,通過神經形態(tài)計算的模式和軟硬件的協(xié)同實現(xiàn)機器智能。

        視頻不僅依賴于人類視覺感官的刺激,更是人腦思維的過程。視頻相比于文字、圖像等具有復雜的時空動態(tài)模式,只有人腦才能有效理解。腦與神經科學的進展為人工智能借鑒腦信息處理機制提供了必要的基礎,推動著類腦計算的發(fā)展,其目標是構建具有視覺、聽覺、觸覺、語言處理、知識推理等認知能力的智能體。

        四、人工智能對教育視頻分析的支持功能

        基于人工智能的視頻分析通過對視頻的理解與處理,實現(xiàn)對視頻功能的價值挖掘與價值提升。從對教育視頻分析的支持角度來看,可以從內容理解、智能編輯、智能創(chuàng)作與內容管理等方面分析。

        (一)教育視頻的內容理解

        視頻內容理解是智能視頻分析的基礎功能。隨著視頻分類、人臉識別、動作識別等視頻關鍵技術的發(fā)展,內容理解的準確度越來越高。對視頻內容的不同層次的分析,包括感知理解、認知理解和情緒理解。

        感知理解包括從人臉、動作、圖像、語音等方面理解視頻內容,實現(xiàn)對視頻低級語義信息的感知。由于深度學習開始逐步接近人類的水平,人臉識別等感知理解已經能達到較高水平,感知智能也是當前人工智能發(fā)展聚焦的主要層面。在教育領域,基于人臉識別的教學過程監(jiān)測和學習分析,通過對學習過程的視頻理解來評估學習者課堂注意力[4]、參與度[8]、異常行為等方面[9],從而對課堂環(huán)境氣氛與質量進行評估[5-7]。

        認知理解是比感知理解更高級的智能層面,它在感知理解的基礎上,對視頻進行知識推理,實現(xiàn)高層語義理解。目前,認知理解還在探索和發(fā)展中,成熟的應用還相對較少。

        視頻內容理解的更深層次是情緒理解,目標是能夠自動地對視頻里的人物情感表達進行估計與分類,為人機之間的情感交互提供可能性。情緒對學習具有重要影響作用,學習者情感的準確識別是判斷學習者學習狀態(tài)的重要手段[15]。當前對于情緒的感知主要有基于面對面的直接觀察、基于傳感器的生理信號以及基于視頻的面部和行為分析等方法。相對于其他情緒感知方式,如需要有與學習者面對面的環(huán)境,需要有生理傳感器進行心率、脈搏監(jiān)測等,視頻感知則只需要攝像頭即可完成。Bosch等基于對學習者面部表情和肢體動作的視頻監(jiān)測分析,使用機器學習方法對學習者情感進行了分類與分析,證明了基于視頻情緒理解的有效性[2]。在教育游戲、在線學習等學習環(huán)境下,基于視頻分析的情緒理解與干預將在學習分析、學習支持方面發(fā)揮越來越重要的作用。

        (二)教育視頻的智能編輯

        視頻的智能編輯是在視頻理解的基礎上,利用人工智能技術實現(xiàn)視頻內容的摘要生成、自動標簽等功能。在大規(guī)模在線學習日益發(fā)展和普及的環(huán)境下,視頻的智能編輯將助力在線學習中視頻資源的自動化處理,提高學習資源的制作效率與管理效率。

        慕課、在線學習網站等教育視頻數據的急劇增加,為學習者的瀏覽、檢索等帶來了困難,自動化智能生成視頻摘要是解決此類問題的一個有效途徑。視頻摘要技術根據視頻內容智能提取最能代表視頻的片段作為視頻的摘要概括,學習者可以通過視頻摘要快速瀏覽視頻,選擇感興趣的學習內容,提高資源檢索效率。

        視頻標簽是對視頻進行分類和管理的有效手段。傳統(tǒng)的人工標注是由人工觀看、手工分類并進行標注,存在成本高且受主觀認知影響等問題。智能視頻標注可以通過分類、識別等技術和算法,分析視頻中的多模態(tài)信息,快速地自動生成標簽信息,從而可以高效地對教育視頻進行分類,并為視頻搜索、視頻推薦等服務提供有效信息。

        (三)教育視頻的內容生成與增強

        如何使人工智能能夠模擬人類,進行獨創(chuàng)性的內容生產,并不斷通過學習提高自身創(chuàng)造水平,是人工智能發(fā)展過程中希望達到的一個重要目標。視頻的智能創(chuàng)作系統(tǒng)可以通過基于大數據所獲取的視頻、音頻、圖像、文字等信息,經過分析后,自動生成一個視頻。這極大地降低了視頻制作時所需的人力物力,并可以使視頻創(chuàng)作更加豐富化。由于教育類視頻科學性、嚴謹性的要求,當前直接通過智能創(chuàng)作方式生成教育視頻的應用還較少。隨著教育大數據與自動化知識圖譜構建等基礎資源與支撐技術的發(fā)展,將會推動教育視頻的智能創(chuàng)作方式。

        視頻內容增強可以從畫質、內容、互動等角度提升教育視頻質量。通過增強畫面效果與清晰度,去除馬賽克、偽影,提升教育視頻的畫質質量;通過自動化的內容增強,如表情處理、特效增強、生成特定風格化的視頻等,提升教育視頻的內容質量;通過與虛擬現(xiàn)實,增強現(xiàn)實等技術的結合,有效增強內容的沉浸性,提高內容創(chuàng)作的豐富性,提升教育視頻的互動質量。

        (四)教育視頻的內容管理

        教育視頻具有嚴格的版權要求和內容要求,對教育視頻進行內容監(jiān)控是大數據環(huán)境下視頻管理的重要內容。隨著視頻數量的快速增長,傳統(tǒng)的人工審核方式效率低下,很難滿足快速、準確地審核海量視頻內容的需求。利用人工智能技術來提升視頻數據的審核效率與精準度是一個有效方式。如谷歌在YouTube部署的人工智能系統(tǒng),可以在無人類協(xié)助的情況下,分析大量視頻片段,解讀不適的視頻剪輯,并屏蔽這些內容。在線學習網站中大量的視頻必須通過嚴格的審核以保證教育視頻的嚴肅性,智能審核可以作為審核過程中的有效輔助手段。

        教育領域中的視頻一般都強調知識版權,將人工智能應用于視頻版權保護的工作中,機器和人工結合,可以極大地提高版權保護工作的效率和準確率。視頻版權保護也被稱為視頻指紋或視頻DNA,通過算法自動提取視頻中的圖像、音頻等特征,產生唯一特征代表該視頻文件,保護視頻版權,從而應用于原創(chuàng)識別、過濾侵權視頻、視頻去重、視頻溯源等方面,構建教育領域內視頻資源的良好管理機制。

        五、基于人工智能的教育視頻應用分析

        人工智能對教育視頻分析的支持功能推動了對教育視頻的理解、編輯、創(chuàng)作和管理,在此基礎上,我們可以設計新的學習模式與教育應用,使人工智能更好地服務教育。

        (一)構建增強互動學習模式

        智能化視頻分析通過對教育視頻內容的理解,可以使用恰當的方式為視頻應用提供更豐富的交互方式,實現(xiàn)多維交互的及時性,從而為設計增強互動的學習模式提供條件。

        1. 情境化學習

        人工智能能夠通過對學習者所觀看的視頻場景的實時智能理解與分析,從學習資源庫中自動為學習者提供基于當前學習上下文的實時信息和學習內容,提供有效的增強情境學習,如圖1所示。

        傳統(tǒng)的學習者在視頻學習時大多是被動的、單向的,如果對視頻里的某部分內容有疑問或希望查詢并深入學習,則還需要離開視頻去翻看其他教學資料。情境化學習支持可以對教育視頻中的內容進行自動識別、理解與分析,結合學習者畫像分析,從資源庫中選出適當的場景化內容,如學習資源、社交服務等,在視頻學習的同時提供給學習者。學習者在觀看視頻的過程中可以直接與視頻內容互動,瀏覽輔助的學習資源或進行社交互動。在互動方式上,可以設計Video in和Video out方式,其中Video in方式將學習資源與視頻內容完全融合,作為視頻的一部分呈現(xiàn);Video out方式則通過浮層技術,在原視頻的畫面之上進行呈現(xiàn)。通過這些方式,將更大程度地擴展視頻學習功能。

        2. 沉浸式學習

        智能化視頻分析技術與增強現(xiàn)實(Augmented Reality,AR)技術相結合,可以通過手勢識別、即時定位與地圖構建(Simultaneous Localization And Mapping,SLAM)等技術,優(yōu)化學習內容呈現(xiàn)方式。在視頻學習中,學習者根據學習內容,可以通過相關動作或手勢調出相應的AR資源以輔助視頻學習;或者基于SLAM對教育視頻場景的三維結構進行定位和重建,在視頻中融入虛擬的AR資源。這些都提供了更自然的沉浸式學習環(huán)境,圖2描述了基于智能視頻分析的沉浸式學習方式。

        (二)支持多模態(tài)學習分析

        學習過程是一個跨媒體環(huán)境下的多模態(tài)信息融合的復雜過程。隨著學習方式的靈活性與學習數據的多樣化,為學習分析帶來了多模態(tài)數據環(huán)境基礎[16]。大數據分析、人臉識別、語音識別、云計算、表情識別、體態(tài)識別技術的成熟和應用,強化了多模態(tài)信息的可用性[17]。在多模態(tài)學習分析中,視頻是一種重要的媒體類型,并且視頻本身具有多維度特征,對視頻的智能分析是多模態(tài)學習分析的重要部分。

        1. 學習數據的多模態(tài)分析

        學習過程中的數據包括視頻、文本、交互等多模態(tài),視頻是其中一類重要的模態(tài)。在多模態(tài)數據中,每個模態(tài)均為其他模態(tài)提供了一定的信息,各模態(tài)之間存在著一定的關聯(lián)性。多模態(tài)學習分析的優(yōu)勢體現(xiàn)在進行分析時能綜合利用多個模態(tài)之間的信息,挖掘它們之間的潛在聯(lián)系。曹曉明[8]等進行了基于多模態(tài)學習數據的學習參與度分析,在研究中,面部視頻、腦電波、學習日志作為學習分析的不同模態(tài)構成了多模態(tài)數據集,使用卷積神經網絡進行了分析,驗證了基于多模態(tài)的學習參與度識別方法優(yōu)于單模態(tài)方法。

        2. 視頻的多模態(tài)分析

        傳統(tǒng)的學習分析一般只考慮了將視頻作為一個獨立模態(tài)進行分析,多模態(tài)視頻分析是使用機器學習方法對視頻中各項內容及其關聯(lián)關系進行發(fā)掘,從視覺模態(tài)、聲音模態(tài)、文本模態(tài)、時序模態(tài)等方面對視頻進行分析。只有對多個模態(tài)的數據成分進行融合,才能夠完整地表達視頻中所蘊含的語義信息。Ochoa等分析了學生的視頻,包括視頻中的計算器使用、學習者姿勢的視覺模態(tài)、學習者運動的時序模態(tài)、聲音模態(tài)等多模態(tài)數據,以此預測他們解決數學問題的成功程度和專業(yè)水平[18]。多模態(tài)的內容分析提供給視頻數據一個更加全面的描述,可以更進一步理解視頻語義,從而設計視頻推薦、視頻檢索等學習支持功能。

        (三)優(yōu)化視頻游戲設計

        視頻游戲是具有一定劇情的、按照所設計的腳本進行制作的視頻,是可進行操作并與之互動的一種游戲。在視頻游戲中,個體與視頻設備互動并產生視覺及聽覺上的反饋。在大多數游戲中,游戲角色和行為等通常是提前封裝好的,而智能技術則使自主的角色動作成為可能,從而有效提高游戲的質量。美國Affectiva公司將情緒理解融入視頻游戲設計中,開發(fā)了Nevermind視頻游戲[19]。該游戲使用網絡攝像頭跟蹤游戲者面部表情,分析游戲者的情感和感受,從而根據游戲者的恐懼級別來自動調整游戲難度。

        在教育視頻游戲的應用中,智能要素的設計還較少,在未來的視頻游戲設計中,可以從游戲內部機制、游戲交互性、游戲視覺性、游戲創(chuàng)造性等方面入手,將人工智能元素融入游戲的設計與開發(fā)中,擴展視頻游戲的智能性和教育性,優(yōu)化教育視頻游戲內容與機制,如圖3所示。

        在游戲內容自動生成方面,人工智能可以根據視頻游戲過程中學習者的實際表現(xiàn),并通過視頻面部分析學習者的情緒、專注度等要素,基于視頻游戲上下文自動生成適應性內容和游戲場景。通過機器學習算法手段創(chuàng)建游戲內容,從而適應游戲者,創(chuàng)作新的游戲體驗,在游戲開發(fā)實踐和游戲技術研究中日益重要[20]。

        在游戲難度規(guī)則與路徑的自適應機制上,教育游戲應該包括能夠根據學生的具體需求進行自我調整的游戲級別。根據視頻游戲進程和游戲者分析,人工智能算法自動調整游戲難度,自動優(yōu)化游戲路徑。Park等通過深度卷積對抗生成網絡在基于游戲的學習環(huán)境中生成新的水平和關卡,支持中學生學習計算機科學的概念和實踐[10]。

        (四)加強智慧課堂與智慧校園建設

        智慧課堂與智慧校園的目標是利用人工智能、物聯(lián)網、大數據、云計算等技術實現(xiàn)課堂教學與校園管理的信息化、智能化,構建支持智慧教學活動與校園管理的課堂教學環(huán)境與校園環(huán)境。在建設過程中,智能視頻分析將發(fā)揮越來越重要的作用。

        在智慧課堂中具有多種類型的視覺應用,如智能監(jiān)控的學習行為捕捉、視頻學習資源的使用、基于虛擬現(xiàn)實與增強現(xiàn)實的視覺強化等,智能視頻分析是推動智慧課堂建設的一種有效方式。通過人工智能可以實時自動化地對智慧課堂中的視頻場景內容進行分析、理解、描述以及預測推理,進行教學檢測與多模態(tài)學習分析,增強互動學習場景,為學習提供有效的支持。在智慧校園的建設中,智能視頻分析有助于自動識別師生群體行為,全面感知校園物理環(huán)境,推動數字校園向智能校園演進,構建技術賦能的智能化教學環(huán)境,提供智慧教學服務。如通過對大數據的實時監(jiān)控數據進行分析處理,實時監(jiān)控校內場所、校門、校園邊界等,及時發(fā)現(xiàn)校園異常行為,處理校園輿情,實現(xiàn)人像可視化、管控高效化、管理精細化,構建立體化、可視化和可控化的智慧校園環(huán)境。

        六、基于人工智能的教育視頻應用設計

        (一)設計原則

        教育人工智能應用是教育的產品,是人工智能的產品,在設計中應圍繞服務教育和促進學習的核心目標,也要重視人工智能前進道路上可能存在的技術性、安全性、倫理性等問題。我國在2019年6月發(fā)布了《新一代人工智能治理原則——發(fā)展負責任的人工智能》,強調發(fā)展“負責任”的人工智能,負責任是指從基礎研究、應用研究到產品和服務的全面負責任。阿西洛馬人工智能原則從科研問題、倫理價值和長期問題三個方面提出了人工智能發(fā)展的23條準則,共同保障人類未來倫理、利益和安全。杜靜等歸納了智能教育倫理需遵循的問責、隱私、平等、透明、不傷害、非獨立、預警與穩(wěn)定八個原則。[21]

        結合教育人工智能的特點與人工智能的普適原則,我們給出了教育視頻應用的設計原則,見表3。

        (二)設計框架與案例實現(xiàn)

        在教育視頻應用的建設路徑上,我們給出了基于人工智能的教育視頻應用的設計框架,如圖4所示。其中,基礎層構建教育視頻應用的硬件基礎與資源基礎,從算力和數據方面提供支撐;引擎層構建教育視頻應用的算法支持。在此基礎上,進行教育視頻應用的設計與實現(xiàn)。

        在理論分析和設計框架的指導下,我們進行了一個教育視頻應用案例的實現(xiàn)與分析。案例在基礎層和引擎層選用了阿里云服務和人工智能視頻分析支持,有效降低了技術門檻。案例中主要進行應用層的教育功能設計。

        1. 功能設計

        (1)進行視頻多模態(tài)內容理解:基于視頻理解功能的支持,實現(xiàn)了對視頻的內容、語音、圖像的多模態(tài)內容分析,并自動生成視頻標簽、視頻摘要、文本識別、語音識別。如圖5所示。

        (2)進行情境化學習設計:在此基礎上,結合視頻文本與標簽內容,為視頻添加支持增強互動的情境學習資源,實現(xiàn)情境化學習支持。本案例中的情境化資源為增強視頻與百科解答。

        2. 案例分析

        (1)智能化視頻分析的有效應用需要大數據的支持,如視頻理解中的人物標簽、情境性資源等需在數據訓練基礎上,從數據資源庫中選取。但由于當前尚缺少教育類的大規(guī)模視頻資源庫與標簽庫,所以在人物標簽與情境性互動資源的自動處理上還不足。

        (2)根據對試用者的訪談分析,案例存在的一個問題是情境化資源的交互方式。雖然在視頻中實現(xiàn)了該功能,但是交互內容的呈現(xiàn)方式與控制方式還不足。因此,教育人工智能的應用設計中要充分考慮功能性與教育性的關系,功能的設計與開發(fā)要圍繞學習與教育的目標展開。

        (三)總結與思考

        結合對教育視頻應用設計與具體案例實現(xiàn)的分析,我們認為,智能化教育視頻應用將是人工智能在教育領域落地的重要形式,但當前還需要我們在多方面進行探索與積累,應當特別重視的是教育應用的設計、教育數據集的建設、開源平臺的應用。

        1. 滿足教學需求是目標與核心

        基于人工智能的教育視頻研究的最終目標是實現(xiàn)創(chuàng)新的多種教育領域應用。在實踐中,要結合基礎層、引擎層的具體支持和特點,結合教育實際需求、應用場景和教學目標,圍繞學習內容和學習者來展開。用戶、目標、問題和場景是在進行教育系統(tǒng)設計時需要特別注意考慮的要素[22]。

        2. 加強建設教育數據集是關鍵和基礎

        大數據是新一代人工智能快速發(fā)展的基石。以深度學習為核心的人工智能算法需要大規(guī)模數據進行訓練才能得到更好效果,需要持續(xù)完善的數據資源體系支撐。在教育領域,隨著慕課、移動學習、微視頻等教學模式和資源的發(fā)展,視頻在未來的教與學中會承擔更多的任務,使用視頻的場景也會越來越多。開發(fā)精準的智能應用需要有更大、更高質量的數據作為訓練支撐,構建數據基礎層是教育視頻應用需要關注的關鍵問題,具體包括視頻數據集、標簽數據集、知識圖譜等的建設與完善。在知識圖譜建設方面,也需要擴展現(xiàn)有的基于文本的方式,從文本、圖像、視頻等多模態(tài)數據中抽取知識,構建跨媒體知識圖譜。

        3. 研究使用開源框架與開放平臺是有效方式與路徑

        在教育領域,機器學習、深度學習等技術對教育領域人員具有一定門檻,應用開源框架與開放平臺是教育人工智能研究與實踐的有效方式。開源框架與開放平臺服務具有靈活性、易用性等特點,提供了模塊化、通用、靈活的軟件環(huán)境與生態(tài)合作平臺。在視頻應用上,它們提供了完善的視頻分析功能支持,極大降低了人工智能技術在教育領域實踐的門檻。教育領域開發(fā)者只需要關注高層結構,無須注意底層問題,從而可以高效地開發(fā)和視頻相關的人工智能應用系統(tǒng),打造智能教育服務生態(tài)。

        七、結? ?語

        視頻分析有其獨特的挑戰(zhàn),是計算機科學、自動化科學、認知心理學、行為心理學、腦科學、神經心理學等多學科的融合研究。人工智能推動了視頻分析領域的進步,隨著大數據的完善、智能算法的發(fā)展、便捷服務的支持、落地場景的豐富,教育視頻領域將迎來廣闊的發(fā)展和應用空間。

        教育人工智能是教育變革的重要趨勢,視頻分析是人工智能領域的重要方向,也是教育領域內人工智能應用的重要場景。對學習者來說,智能視頻應用提供了更好的交互式、場景化學習環(huán)境和個人學習行為分析,能促進學習者參與學習、理解學習、互動學習。對于教師來說,智能視頻應用能夠優(yōu)化教學資源,更有效地設計教學活動。對于教育研究者來說,智能視頻分析與應用提供了新的研究問題和研究情境。當前人工智能在教育視頻領域的研究還處于探索的初期階段,未來研究可從視頻學習分析、視頻游戲、視頻互動學習等方向深入。通過人工智能與教育視頻的研究與實踐,加速推進教育教學創(chuàng)新,探索教育新模式,開發(fā)教育新產品,推動教育向智能化、融合化、個性化與開放性的方向發(fā)展。

        [參考文獻]

        [1] 孫田琳子, 沈書生.面向理解的視頻學習資源內容設計框架[J]. 電化教育研究, 2019,40(9):43-49,58.

        [2] BOSCH N, D'MELLO S K, OCUMPAUGH J, et al. Using video to automatically detect learner affect in computer-enabled classrooms[J]. ACM transactions on interactive intelligent systems, 2016, 6(2): 1-26.

        [3] HUANG D A, LIM J J, LI F F, et al. Unsupervised visual-linguistic reference resolution in instructional videos[C]// IEEE Conference on Computer Vision and Pattern Recognition. Honolulu: IEEE, 2017:1032-1041.

        [4] 陳濤, 鄧圓. 技術如何引領學習? ——美國密涅瓦大學推行主動式學習策略及啟示[J]. 開放教育研究,2018,24(4):53-62.

        [5] RACA M, DILLENBOURG P. Holistic analysis of the classroom[C]// ACM Workshop on Multimodal Learning Analytics Workshop and Grand Challenge. New York: ACM, 2014,13-20.

        [6] 吳秀娟. 當課堂教學遇見人工智能[J]. 湖南教育(C版),2018(6):12-13.

        [7] JAMES A, KASHYAP M, CHUA Y, et al. Inferring the climate in classrooms from audio and video recordings: a machine learning approach[C]// IEEE International Conference on Teaching, Assessment, and Learning for Engineering. Piscataway: IEEE,2018,983-988.

        [8] 曹曉明,張永和,潘萌,朱姍,閆海亮.人工智能視域下的學習參與度識別方法研究——基于一項多模態(tài)數據融合的深度學習實驗分析[J].遠程教育雜志,2019,37(1):32-44.

        [9] BOSCH N, D'MELLO S. Automatic detection of mind wandering from video in the lab and in the classroom[EB/OL].(2019-04-02)[2019-06-25].https://ieeexplore.ieee.org/document/8680698.

        [10] PARK K, MOTT B W, MIN W, et al. Generating educational game levels with multistep deep convolutional generative adversarial networks[C]// IEEE Conference on Games. London: IEEE, 2019,1-8.

        [11] 王建中,曾娜,鄭旭東. 理查德·梅耶多媒體學習的理論基礎[J]. 現(xiàn)代遠程教育研究, 2013(2):15-24.

        [12] KAHNEMAN D. Attention and effort[M]. Englewood Cliffs, NJ: Prentice-Hall,1973.

        [13] 張俊林. 深度學習中的注意力模型[EB/OL]. (2018-06-02) [2019-07-02]. https://zhuanlan.zhihu.com/p/37601161.

        [14] 曾毅,劉成林,譚鐵牛.類腦智能研究的回顧與展望[J].計算機學報, 2016,39(1):212-222.

        [15] 徐振國,張冠文,孟祥增,等.基于深度學習的學習者情感識別與應用[J]. 電化教育研究, 2019,40(2):87-94.

        [16] 鐘薇,李若晨,馬曉玲,吳永和.學習分析技術發(fā)展趨向——多模態(tài)數據環(huán)境下的研究與探索[J].中國遠程教育,2018(11):41-49,79-80.

        [17] 田陽,陳鵬,黃榮懷,曾海軍.面向混合學習的多模態(tài)交互分析機制及優(yōu)化策略[J].電化教育研究,2019,40(9):67-74.

        [18] OCHOA X, CHILUIZA K, MENDEZ G, et al. Expertise estimation based on simple multimodal features[C]//The 15th ACM on International Conference on Multimodal Interaction. New York: ACM, 2013: 583-590.

        [19] NEVERMIND. Nevermindgame [EB/OL]. (2017-12-01) [2019-09-02]. https://nevermindgame.com/tech/.

        [20] SUMMERVILLE A, SNODGRASS S, GUZDIAL M, et al. Procedural content generation via machine learning (PCGML) [J].IEEE transactions on games, 2018,10(3):257-270.

        [21] 杜靜,黃榮懷,李政璇,周偉,田陽. 智能教育時代下人工智能倫理的內涵與建構原則[J]. 電化教育研究, 2019,40(7):21-29.

        [22] 石磊. 開源人工智能系統(tǒng)TensorFlow的教育應用[J].現(xiàn)代教育技術,2018, 28(1):93-99.

        猜你喜歡
        應用設計人工智能
        我校新增“人工智能”本科專業(yè)
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        人工智能與就業(yè)
        IT經理世界(2018年20期)2018-10-24 02:38:24
        數讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        超濾膜系統(tǒng)在垃圾滲濾液處理中的應用與設計
        項目教學法在《基礎會計》教學中的應用
        商情(2016年40期)2016-11-28 11:47:00
        下一幕,人工智能!
        南風窗(2016年19期)2016-09-21 16:51:29
        下一幕,人工智能!
        南風窗(2016年19期)2016-09-21 04:56:22
        分層教學模式在初中信息技術中的應用設計
        考試周刊(2016年61期)2016-08-16 06:45:23
        民間美術在現(xiàn)代設計中的應用
        青年文學家(2015年6期)2016-05-09 13:44:25
        农村欧美丰满熟妇xxxx| 日本一级淫片免费啪啪| 久久综合久中文字幕青草| 亚洲中文字幕人成乱码在线 | 中文字幕人妻丝袜成熟乱| 日韩字幕无线乱码免费| 亚洲av手机在线网站| 午夜免费福利小电影| 国产在线精品欧美日韩电影| 国产高清在线精品一区αpp| 一道本中文字幕在线播放| 久久精品国产亚洲av高清三区 | 在线观看的a站免费完整版| 国产人成视频在线视频| 97人人模人人爽人人少妇| 国产一区日韩二区欧美三区| 熟女白浆精品一区二区 | 免费国产黄片视频在线观看| 亚洲一区二区三区天堂av| 日本人妻免费一区二区三区| 精品视频无码一区二区三区 | 久久久久久中文字幕有精品| 色婷婷综合一区二区精品久久| 加勒比日韩视频在线观看| 国内精品久久久久国产盗摄| 国产精品久久久久久无码| 日韩不卡av高清中文字幕 | 午夜男女爽爽爽在线视频| 国产69精品一区二区三区 | 国产精久久一区二区三区| 亚洲aⅴ无码成人网站国产app| 久久99精品久久久久久国产人妖| 日本免费播放一区二区| 人妻少妇-嫩草影院| 乱人伦中文无码视频| 精精国产xxx在线视频app| 国产精品视频一区二区久久| 草草影院发布页| 亚洲精品无码专区在线| 99久久精品国产自在首页| 国产午夜福利在线观看中文字幕|