亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        人工智能技術發(fā)展概述

        2017-05-30 12:01:41俞祝良
        南京信息工程大學學報 2017年3期
        關鍵詞:深度學習神經(jīng)網(wǎng)絡人工智能

        俞祝良

        摘要

        近年來,以深度學習為核心的人工智能技術,取得了一系列重大突破.本文將就人工智能的產(chǎn)業(yè)化熱潮,主要研究流派及發(fā)展歷史,以深度學習為核心的成功應用,以及存在的一些問題和今后的可能研究方向做一個介紹.

        關鍵詞人工智能;深度學習;神經(jīng)網(wǎng)絡

        中圖分類號TP18

        文獻標志碼A

        0引言

        從1956年達特茅斯會議首次定義“人工智能”(Artificial Intelligence,AI)開始,AI研究已經(jīng)歷了幾次歷史浮沉.在一次又一次的高潮和低谷的交替中,不可否認,AI無論是在理論還是在實踐上都取得了扎實的進步,人類對于智能的理解進一步加深.尤其是近期以深度學習(Deep Learning,DL)為代表的AI技術取得了突破性的進展,從而在全世界范圍內又掀起了一個AI研究熱潮.與以往不同的是,這次的研究熱潮同時伴隨著AI商業(yè)化浪潮,實驗室成果很快就進入工業(yè)界,甚至工業(yè)界在這股熱潮中也站在了學術研究的前沿,這在以往的技術發(fā)展史上是非常罕見的.

        2015年7月,人工智能被寫入《國務院關于積極推進“互聯(lián)網(wǎng)+”行動的指導意見》;2016年3月,人工智能一詞被寫入“十三五”規(guī)劃綱要;2016年5月,國家發(fā)展改革委員會等四部門聯(lián)合下發(fā)《“互聯(lián)網(wǎng)+”人工智能三年行動實施方案》;李克強總理的政府工作報告中也提到了人工智能產(chǎn)業(yè)發(fā)展;中國科學技術部“科技創(chuàng)新2030—重大項目”近期或將新增“人工智能20”,人工智能將進一步上升為國家戰(zhàn)略.這充分可以看出我國對AI的重視程度.2017年,中國工程院院刊信息與電子工程學部分刊《信息與電子工程前沿(英文)》出版了“Artificial Intelligence 20”專題,潘云鶴等多位院士及專家學者對AI20所涉及的大數(shù)據(jù)智能、群體智能、跨媒體智能、混合增強智能和自主智能等進行了深度闡述.

        面對人工智能熱潮,我們該如何理解,看待其進步?又如何了解其功能和限制?已經(jīng)有不少書籍[1]和論文[2]討論了上述問題,本文將從人工智能的產(chǎn)業(yè)化浪潮、學術流派和研究方法,以深度神經(jīng)網(wǎng)絡為主的AI發(fā)展歷史、近期成果和存在問題等諸多方面對人工智能做一個的介紹,希望能對讀者了解AI有所幫助.

        注1達特茅斯會議上定義的人工智能是指用計算機模擬人的邏輯思維,實際上這個定義比較適合基于符號邏輯的演繹系統(tǒng)(符號學派),如專家系統(tǒng)等.但人類還有歸納總結能力(聯(lián)結學派).嚴格來講,這不包括在狹義的人工智能當中,所以神經(jīng)網(wǎng)絡、模糊邏輯和遺傳算法等結合另立了“計算智能”.為了便于表述,我們文中采用了廣義上的人工智能,這個概念和“機器智能”[1]一致,包含了一切機器具有的智能.

        1人工智能商業(yè)化浪潮

        20世紀末,當以神經(jīng)網(wǎng)絡為主流的AI研究又一次跌入低谷的時候,加拿大多倫多大學的Hinton教授等還是堅守陣地,辛勤耕耘,并在2006年獲得了突破[34].2012年他和兩位學生成立“深度神經(jīng)網(wǎng)絡研究”(DNN Research)公司,數(shù)個月后被Google收購,從此Hinton教授身兼多倫多大學教授和Google研究者的雙重身份.Google隨后斥資4億美元收購人工智能初創(chuàng)的前沿人工智能企業(yè)DeepMind.另外,Google還收購了烏克蘭面部識別技術開發(fā)商Viewdle.

        緊隨Hinton教授的步伐,紐約大學Yann LeCun教授,2013 年底被聘請為Facebook人工智能研究院的總管;斯坦福大學吳恩達(Andrew Ng)教授,2014年被百度聘任為首席科學家負責“百度大腦”的計劃(2017年已經(jīng)辭職);斯坦福大學李飛飛教授(FeiFei Li)成為谷歌云計算部門的負責人之一.這些現(xiàn)象一方面說明人工智能現(xiàn)在受工業(yè)界的歡迎程度,同時也說明了人工智能目前的發(fā)展趨勢是學術研究和企業(yè)開發(fā)的快速深度結合.

        為了迎合AI的發(fā)展熱潮,大量的開源學習平臺不斷問世,賈揚清的Caffe、Google的TensorFlow、Facebook的FBLearner Flow、Tesla領銜的OpenAI以及百度深度機器學習開源平臺等,都為AI的研究和產(chǎn)業(yè)開發(fā)起到了巨大的推動作用.當然還有很多其他工業(yè)巨頭的產(chǎn)品,例如IBM的沃森系統(tǒng)、微軟的同聲翻譯等.

        科技發(fā)展,人才為本.AI也不例外,企業(yè)對于AI人才的搶奪更是趨于白熱化.目前AI領域,尤其是深度學習領域面臨缺乏專家的困境.由于這個領域剛剛開始發(fā)展,所以專家,即使是博士畢業(yè)生都特別少.吳恩達教授曾總結深度學習領域人才匱乏的幾個原因:首先是數(shù)據(jù),獲取解決某些領域的問題的數(shù)據(jù)常常非常困難;其次是計算基礎和架構工具,包括計算機硬件和軟件,入門不易;最后是這個領域的工程師培養(yǎng)時間長.為了解決上述問題,工業(yè)界的科技巨頭,如Google、Facebook、Twitter、百度等紛紛通過收購深度學習領域的初創(chuàng)公司來招攬人才.其中最為典型的是Google,它通過不斷收購深度學習領域的公司,搶到一批世界一流專家.總而言之,人工智能產(chǎn)業(yè)的發(fā)展,使得其相關領域的人才成為稀缺之寶,這對該領域的研究人員來講,既是機遇,也是挑戰(zhàn).

        2人工智能的主要研究學派

        人類的智能主要包括歸納總結和邏輯演繹兩大類.我們大量的感知處理,如視聽覺、身體感知處理等都是下意識的,屬于歸納總結智能.而數(shù)學推導、邏輯推理等都是基于公理系統(tǒng)的符號演繹方法.由于在發(fā)展過程中,對于智能的理解的不同,漸漸形成了幾個經(jīng)典學派.每個學派從不同的角度看待問題,提出解決方案.比如最為主要的兩個學派:符號學派和聯(lián)結學派,前者從哲學、邏輯學和心理學出發(fā),將學習視為逆向演繹,使用預先存在的知識來解決問題,大多數(shù)專家系統(tǒng)使用符號學派的方法;后者專注于通過神經(jīng)元之間的連接來推導表示知識,該學派聚焦于物理學和神經(jīng)科學,并相信大腦的逆向工程,他們用反向傳播算法來訓練人工神經(jīng)網(wǎng)絡以獲取結果[5].其他學派,如進化學派在遺傳學和進化生物學的基礎上得出結論,貝葉斯學派注重統(tǒng)計學和概率推理,類推學派更多是關注心理學和數(shù)學優(yōu)化來推斷相似性判斷.

        雖然上述主流學派各自都取得了很大的成就,但是其各自采用的研究方法都遇到了諸多困難,而且這些學派對于AI的研究思路和方法難以形成一個統(tǒng)一的框架.為了更好地理解AI的本質,本文擬采用文獻[1,5]中的觀點來介紹人工智能的主流研究方法.

        基于對于“機器智能是由什么決定”這個問題的回答,人工智能領域70多年的發(fā)展形成了3大主流的研究方法:結構模擬、功能模擬和行為模擬.這3種研究方法之間缺乏一種內在的聯(lián)系,使得人們普遍認為AI理論不成體系.為了解決上述問題,文獻[1,5]提出了第4類方法,即機制模擬.

        21結構模擬

        近代科學強調“結構決定論”,認為只要系統(tǒng)的結構清楚了,功能也就認識清楚了.最先提出來的智能模擬就是結構模擬的思路,其代表性的成果有神經(jīng)元的MP模型[6]、多層感知器MLP模型[7]和人工神經(jīng)網(wǎng)絡[8]等.在機械系統(tǒng)的研究中非常有用的結構決定論,在智能系統(tǒng)的研究中卻存在很多問題.結構只是硬件基礎,不能完全確定系統(tǒng)的智能行為.正如現(xiàn)在對于單個神經(jīng)元的生理活動機制已經(jīng)研究得非常深入,但是大量的神經(jīng)元連接在一起所呈現(xiàn)的智能行為目前的理解還是非常膚淺.作為結構模擬的主流成功方法,人工神經(jīng)網(wǎng)絡具有非常突出的優(yōu)點:1)人工神經(jīng)網(wǎng)絡具有比較規(guī)范的結構;2)系統(tǒng)具有大量可以調節(jié)的參數(shù),自由度大,可以實現(xiàn)非常多樣的系統(tǒng);3)網(wǎng)絡具有并行處理的機制;4)信息分布存儲,提供了優(yōu)良的記憶和聯(lián)想能力;5)系統(tǒng)具有很強的自適應能力和高度的容錯能力.當然人工神經(jīng)網(wǎng)絡也具有很多弱點和局限性:1)人的智能系統(tǒng)不僅結構復雜,而且機制深奧,不是現(xiàn)在的人工神經(jīng)網(wǎng)絡所能完全模擬的;2)人工神經(jīng)網(wǎng)絡能做到的規(guī)模和人腦相比還是太??;3)神經(jīng)元的工作機理過度簡化,難以保證系統(tǒng)能最終模擬人腦.另外,人工神經(jīng)網(wǎng)絡將一切智能都歸為數(shù)值計算,在未能回答任何問題是否都可以形式化或者數(shù)值化這個問題之前,這種數(shù)值化計算能否完全模擬人類智能還是一個問題.

        22功能模擬

        面對結構模擬所存在的問題,另外一類觀點認為,人工智能的研究無需去理會智能的具體結構,只要能夠模擬智力功能即可,這就是“功能主導論”下的功能模擬思路.實際上,功能模擬的最典型代表就是傳統(tǒng)的人工智能,如專家系統(tǒng)[9]是其最成功的應用.功能模擬也常常被稱為符號主義、邏輯主義、心理學派.符號主義認為人工智能源于數(shù)理邏輯.數(shù)理邏輯在20世紀30年代開始應用于描述智能行為,并在計算機上實現(xiàn)邏輯演繹系統(tǒng).后來符號主義者進一步發(fā)展為啟發(fā)式算法—專家系統(tǒng)—知識工程理論和技術.這方面的研究一開始取得了不少成績,但是一直被批評為難以解決實際問題.直到專家系統(tǒng)出現(xiàn),為工業(yè)、經(jīng)濟和社會領域帶來了成功的方案,如第一個專家系統(tǒng)DENDRAL[9]用于質譜儀分析有機化合物的分子結構,MYCIN醫(yī)療專家系統(tǒng)[10]用于抗生素藥物治療等.符號主義曾經(jīng)在人工智能領域中一枝獨秀,為人工智能發(fā)展做出了極大貢獻,我國吳文俊院士關于幾何定理機械化證明就是其中一項非常重要的成果.當然,功能模擬也具有明顯的缺點:系統(tǒng)的智能水平與獲得的知識水平有很大的關系.而且很多知識獲取困難,專家知識充滿矛盾和偏面,再加上現(xiàn)有邏輯理論的局限性等,使得功能模擬在發(fā)展過程中也困難重重.

        23行為模擬

        在功能模擬和結構模擬都暴露了各自的缺陷后,20世紀90年代,開始出現(xiàn)了行為模擬的思路,即“行為表現(xiàn)論”.該觀點認為,無論采用什么樣的結構和具有什么樣的功能,只要系統(tǒng)能表現(xiàn)出智能行為(在外界刺激時能夠產(chǎn)生恰當?shù)男袨轫憫?,就等于模擬了智能系統(tǒng).在這個研究方法中,首先是機器感知,然后針對感知信息做模式分類,最后是對感知判斷結果做出的模擬智能的行為,這也被稱為感知動作系統(tǒng).這方面的典型應用是Brooks完成的模擬六腳蟲的爬行機器人等系統(tǒng)[11].感知動作系統(tǒng)涉及到一個重要問題:隨著任務環(huán)境的變化,系統(tǒng)如何能自主學習并擴充從感知到動作之間的映射知識?這當然就是一個機器學習問題.行為模擬也具有明顯的缺點:只有那些能用行為表現(xiàn)的智能才能被模擬,可是很多智能過程無法用行為直接表達.

        24機制模擬

        結構模擬、功能模擬和行為模擬都具有先天不足,而且這3大方法之間缺乏理論上的統(tǒng)一性.后來的研究發(fā)現(xiàn),智能的生成機制才是智能系統(tǒng)的核心.機制模擬方法認為,無論對什么問題、環(huán)境和目標,智能系統(tǒng)的生成機制必然要獲得“問題、約束條件、預設目標”等信息,然后提取和建立相關知識,進而在目標控制下,利用上述信息和知識演繹出求解問題的策略,并轉化為相應的智能行為作用于問題,并解決問題[1,5].這可以概括為一種“信息—知識—智能轉換過程”.根據(jù)這個觀點,結構模擬可以認為是“信息—經(jīng)驗知識—經(jīng)驗策略轉換過程”,功能模擬是“信息—規(guī)范知識—規(guī)范策略轉換過程”,行為模擬可以認為是“信息—常識知識—常識策略轉換過程”.因此,結構模擬、功能模擬和行為模擬三者都是平行的,而機制模擬和諧地統(tǒng)一了上述3種模擬方法,成為了一個統(tǒng)一的理論.

        在AI發(fā)展過程中,上述多個方法各自都出現(xiàn)過自己的發(fā)展巔峰和低谷時期.目前的AI熱潮則源于結構模擬方法方面的突破,即由于解決了深度神經(jīng)網(wǎng)絡的訓練問題,加上大數(shù)據(jù)的高性能計算平臺(云計算、GPU等)變成現(xiàn)實,使得深度神經(jīng)網(wǎng)絡的表達能力得到了充分的發(fā)揮,對AI的發(fā)展起到了推波助瀾的作用.本文將進一步以深度學習為主介紹其發(fā)展和成功案例.

        3神經(jīng)網(wǎng)絡發(fā)展過程及深度學習的興起

        讓機器具有智能,是人類一直的夢想,但是實質性的進展卻是在20世紀50年代開始的.在McCulloch和Pitts的神經(jīng)元計算模型工作[6]基礎上,康奈爾大學Rosenblatt提出了感知器(Perceptron)模型[7].在感知器研究中,Rosenblatt受到Hebb工作的啟發(fā),提出一套算法來精確定義網(wǎng)絡的學習規(guī)則,這也是首個具有自組織自學習能力的模型.Hebb認為知識和學習在大腦中主要是通過神經(jīng)元間突觸的形成與變化來實現(xiàn)的.感知器通過調整針對輸入值的權重,利用一個非常簡單直觀的學習方法,從輸入數(shù)據(jù)上實現(xiàn)學習功能.Rosenblatt還用定制硬件的方法實現(xiàn)了感知器,展示出它可以用來學習并對20×20像素輸入中的簡單形狀進行正確分類.自此,機器學習問世了.感知器不僅是日后許多新的神經(jīng)網(wǎng)絡模型的始祖,還為20世紀60年代帶來人工智能的第一個熱潮.這股熱潮同時迎來了激烈的批評.1969年,Minsky和Papert在名為《感知器》的書中提出了強烈的批判.他們認為單層的感知器網(wǎng)絡無法解決非線性可分問題(如異或門、XOR問題).另外,網(wǎng)絡模型所需的計算量也超出了當時計算機的能力.學術界普遍認為這本書對人工智能步入第一個冬天起到了推波助瀾的作用——人工智能進入泡沫幻滅期,相關資助和出版都遭凍結.

        Minsky和Paper關于感知器的分析證明用單個感知器無法解決XOR問題,指出必需要多層感知器網(wǎng)絡(所謂的多層神經(jīng)網(wǎng)絡)才可以完成任務,而且Rosenblatt的學習算法對多層網(wǎng)絡無用.這個問題最終的解決方案就是著名的反向傳播算法[1213],該方法讓研究者廣泛理解了應該如何訓練多層神經(jīng)網(wǎng)絡來解決復雜學習問題,其中包括非線性可分問題.通過在神經(jīng)網(wǎng)絡里增加一個或者多個隱層,可以使得多層神經(jīng)網(wǎng)絡具有非常強的解決復雜問題的能力.更有趣的發(fā)現(xiàn)是數(shù)學能證明多層前饋神經(jīng)網(wǎng)絡是普適模擬器(Universal Approximator).本質上,多層結構使得神經(jīng)網(wǎng)絡能夠在理論上執(zhí)行任何函數(shù)表達,當然包括XOR(異或)問題[1415].Minsky提出的計算量問題也很快得到了解決,傳統(tǒng)的感知器用所謂“梯度下降”的算法糾錯時,其運算量和神經(jīng)元數(shù)目的平方成正比,在Rumelhart和Hinton等[13]合作的論文中,系統(tǒng)地提出了應用反向傳播算法,把糾錯的運算量下降到只和神經(jīng)元數(shù)目成正比.Hinton和其博士后Yann LeCun于1989年采用美國郵政系統(tǒng)提供的近萬個手寫數(shù)字的樣本來訓練神經(jīng)網(wǎng)絡系統(tǒng),在獨立的測試樣本中錯誤率低至5%,達到實用水準[16].隨后Yann LeCun等進一步運用“卷積神經(jīng)網(wǎng)絡” (Convoluted Neural Networks) 的技術[17],開發(fā)出商業(yè)軟件,用于讀取銀行支票上的手寫數(shù)字,獲得了巨大的成功.神經(jīng)網(wǎng)絡掀起了第二次熱潮.

        但是很快研究者發(fā)現(xiàn)了反向傳播算法具有本質缺陷——梯度消失(Vanishing Gradient Problem)[18],也就是說,神經(jīng)網(wǎng)絡的代價函數(shù) (Cost Function)的誤差從輸出層向輸入層反向傳播時,梯度衰減極快,學習速度變得極慢,甚至無法學習,神經(jīng)網(wǎng)絡很容易停滯于局部最優(yōu)解.這使得理論上可以學習任意函數(shù)的多層神經(jīng)網(wǎng)絡在實用中無法實現(xiàn).同時,多層網(wǎng)絡由于具有較多的參數(shù),學習自由度大,算法訓練時會出現(xiàn)過度擬合(Overfitting)問題,使得學習過程中表現(xiàn)良好的網(wǎng)絡的泛化誤差很大,無法真正應用.在多層網(wǎng)絡遭遇上述重大問題的時候,貝爾實驗室的Vapnik提出了支持向量機 (Support Vector Machine,SVM) 的算法[19],通過使用所謂“核機制”(Kernel Trick) 的非線性映射,使得本來線性不可分的樣本映射到線性可分的高維特征空間中.從20世紀90年代初開始,SVM在圖像和語音識別上找到了廣泛的應用.由于其理論完備、機理簡單受到了研究者的追捧.在多方面的作用下,神經(jīng)網(wǎng)絡的研究再一次進入了冬天.

        從上述分析可以看出,神經(jīng)網(wǎng)絡研究再一次進入冬天有其本質性的問題,如梯度消失、過擬合和計算量大等.在這個冬天中,有些研究者如Hinton等依然相信問題能獲得解決,并堅守這塊陣地.經(jīng)過多年的努力,最終迎來了神經(jīng)網(wǎng)絡的復興,并且開啟了深度學習的大門.在神經(jīng)網(wǎng)絡的訓練上,無監(jiān)督學習被引入到了網(wǎng)絡的初始化中.在文獻[3]中,Hinton等利用限制玻爾茲曼機(RBM)對神經(jīng)網(wǎng)絡實現(xiàn)了無監(jiān)督訓練(Unsupervised Training).RBM從輸入數(shù)據(jù)中通過無監(jiān)督訓練發(fā)現(xiàn)重要特征,對神經(jīng)網(wǎng)絡的權重進行有效的初始化,然后將多層RBM 疊加在一起形成深度網(wǎng)絡,再對整體網(wǎng)絡用反向傳播算法進行微調,取得了很好的效果.另外在文獻[20]中提出用一種“修正線性單元”(REctified Linear Unit,RELU)的轉換函數(shù)來替代傳統(tǒng)神經(jīng)單元的非線性轉換函數(shù).RELU函數(shù)簡單,而且其導數(shù)為常數(shù),輸入小于零時為0,大于零時為1,不存在傳統(tǒng)轉換函數(shù)在反向傳播計算中的梯度消失問題.基于無監(jiān)督學習的初始化和RELU函數(shù)的采用,很好地解決了多層網(wǎng)絡的訓練問題.

        為了解決多層網(wǎng)絡訓練中的過擬合問題,Hinton等在文獻[21]中提出一種稱為丟棄(Dropout)的算法,在每次訓練中,以一定的比例,在訓練中忽略這部分神經(jīng)元.該算法可以使得網(wǎng)絡變得更魯棒,避免過度擬合.另外,由于大數(shù)據(jù)變成了現(xiàn)實,將大數(shù)據(jù)用于訓練,也是解決過擬合的一個重要的途徑.例如現(xiàn)在的ImageNet數(shù)據(jù)庫,就可以提供高達千萬張圖片用于訓練.大數(shù)據(jù)成了深度學習發(fā)展的一個重要基礎.

        當多層神經(jīng)網(wǎng)絡的訓練和過擬合得到了解決后,理論上我們可以利用非常深的網(wǎng)絡來學習實現(xiàn)任意復雜的函數(shù).現(xiàn)在的深度網(wǎng)絡往往具有百萬到數(shù)億的學習參數(shù),而且為了實現(xiàn)這樣的網(wǎng)絡訓練,往往需要海量的數(shù)據(jù),計算量自然更成為了一個問題.幸運的是,隨著云計算的普及,大量的計算資源可以被使用.而且斯坦福大學的吳恩達等[22],通過用GPU實現(xiàn)大規(guī)模學習,實現(xiàn)了數(shù)十倍到數(shù)百倍的速度提升.從此人類迎來了神經(jīng)網(wǎng)絡的大復興,并且打開了深度學習的大門.關于深度學習更完整的論文資料請參考文獻[23].

        如果認為深度學習的提出僅僅是由于算法的改進和計算能力的增強,那是我們對深度學習的本質還認識地不夠深刻.實際上,深度學習的提出和現(xiàn)在取得的突飛猛進的進展,有其更加重要而深刻的思想變化.在腦科學研究中發(fā)現(xiàn),大腦具有不同的功能區(qū)域專門負責同一類任務,例如視覺圖像識別、語音信號處理和文字處理等.因此科學家為不同的任務開發(fā)不同的算法,如Gabor濾波器、SIFT特征提取算子、馬爾科夫隨機場等來提取信號的特征,最終用于模仿大腦功能.但文獻[2425]中的研究表明,大腦實際上是一臺通用學習機器(Universal Learning Machine),同樣的學習機制可以用于完全不同的任務,不同的腦功能區(qū)可以轉換,而且轉換過程中能自動學習特征,大腦的神經(jīng)網(wǎng)絡具有極強的可塑性.大腦學習算法的普適性和可塑性一直激勵著計算機科學家不懈地努力探索.歷史性的突破發(fā)生在2006年,Hinton等[4]突破深度學習的技術瓶頸,進而引領深度學習的熱潮.更有意思的是通過深度學習獲得的特征居然和大腦的視覺處理過程非常相似,從而證明深度學習從某個方面已經(jīng)對大腦的學習機制做了很好的模仿,從數(shù)據(jù)中學習到功能[26].

        4深度學習促進的人工智能發(fā)展

        深度學習提出至今,已經(jīng)在各類應用上取得了巨大的進展.尤其是基于深度學習的AlphaGo系統(tǒng)一舉擊敗韓國圍棋手李世石以后,人們都對以深度學習為主的AI研究充滿了期待.事實上,現(xiàn)在幾乎每天都可以看到AI取得各類突破的報道.感興趣的讀者可以在網(wǎng)上找到各種最新的進展報道.本文將選擇其中幾個主要的進展進行簡單介紹.

        深度學習在實際應用中的成功案例首推圖像識別.2009年,普林斯頓大學建立了第一個超大型圖像數(shù)據(jù)庫供計算機視覺研究者使用[27],隨后在以ImageNet為基礎的大型圖像識別競賽“ImageNet Large Scale Visual Recognition Challenge 2012”中,Hinton團隊將深度學習應用到ImageNet圖像識別問題上,正確率穩(wěn)居第一,并且性能遙遙領先第二名團隊.這標志著深度學習在圖像識別領域大幅度超越其他技術,成為AI技術突破點.隨后以深度學習為主的圖像分析處理方法層出不窮,如深度殘余學習(Deep Residual Learning)方法等.目前基于深度學習的圖像識別功能已經(jīng)超越了人類.

        另外,Kaggle網(wǎng)站舉辦了一場在衛(wèi)星圖像上進行場景特征檢測的比賽,數(shù)據(jù)集由英國國防科學與技術實驗室(DSTL)提供.衛(wèi)星領域產(chǎn)生的大量的圖像數(shù)據(jù),非常適合用深度學習方法去處理,而且最終的競賽結果發(fā)現(xiàn),深度學習方法取得了非常優(yōu)秀的性能.在圖像理解方法上,深度學習方法結合遞歸神經(jīng)網(wǎng)絡(RNN),就可以實現(xiàn)對圖像的自然語言層面的理解.斯坦福大學李飛飛團隊結合了卷積網(wǎng)絡和遞歸網(wǎng)絡實現(xiàn)了圖片標題的自動生成.

        語言是人機交流的一種重要途徑,攻克語音識別是AI必須面對的問題之一.最先開始在語音識別上取得成功的深度學習方法是Hinton等在文獻[28]中的方法,該方法用RBM對神經(jīng)網(wǎng)絡進行預訓練,再用深度神經(jīng)網(wǎng)絡模型(DNN)識別語音.在Google的一個基準測試中,單詞錯誤率降低到123%.文獻[29]用RNN/LSTM 等技術在音位錯誤率測試中優(yōu)于同期的所有其他技術.AI在語音識別上的成功是繼圖像識別之后的又一個技術突破點.

        疾病診斷,一直是醫(yī)生的專利,也是一個神秘的專業(yè)領域.現(xiàn)在通過深度學習,我們可以讓機器到達醫(yī)學專家的診斷水平.文獻[30]中報道了利用深度學習診斷皮膚癌的工作.我們知道皮膚癌是人類最常見的惡性腫瘤,目前主要是通過視覺診斷的.該文使用深度卷積神經(jīng)網(wǎng)絡進行皮膚病變分類,該網(wǎng)絡僅使用圖像和疾病標簽作為輸入,學會正確分類.他們在兩個二分類任務:角質形成細胞癌(Keratinocyte Carcinomas)和良性脂溢性角化?。˙enign Seborrheic Keratoses)、惡性黑色素瘤和普通的痣上進行了測試,發(fā)現(xiàn)深度卷積神經(jīng)網(wǎng)絡在這兩個任務上的表現(xiàn)都達到了所有測試的專家的水平,這證明了在皮膚癌診斷問題上,機器達到了皮膚科專業(yè)醫(yī)生的水平.最新的文獻[31]中報道,科學家使用能夠自學習的AI技術,讓計算機在預測心臟病的發(fā)作上擊敗了人類醫(yī)生.該技術一旦投入使用,這一新的診療手段每年將拯救數(shù)以千計甚至百萬計的生命.

        除此以外,深度學習在游戲方面也取得了突破.最為世人所稱道的是AlphaGo[32]對局李世石的比賽,AlphaGo以壓倒性的勝利贏了人類頂級棋手,其中很多精妙的招式讓人嘆為觀止.到底是深度學習算法已經(jīng)像人類一樣具有了創(chuàng)造力還是神經(jīng)元參數(shù)、適當?shù)乃惴ńY合CPU的計算蠻力下的成功,值得人們深思.Google的DeepMind團隊開發(fā)的深度Q網(wǎng)絡(DQN)在49種Atari像素游戲中,29種達到乃至超過人類職業(yè)選手的水平[33].

        機器具有強大的計算能力、存儲空間和檢索速度,如果說機器在邏輯思維上能模仿并擊敗人類是合情合理的.那么說機器能學會藝術鑒賞,則將令人難以置信.實際上,文獻[34]中報道了深度學習已經(jīng)可以分辨不同藝術作品的內容和風格,并且學會把一幅作品的藝術風格應用到其他作品中去.Google的AI實驗室成功實現(xiàn)讓機器學習小說的敘述和文字用法,甚至句子的構造.這意味著深度學習可以量化很多人類獨有的一些模糊的判決能力,有些感覺人類本身也不清楚如何解釋,甚至只是停留在感覺層面,如藝術風格、文采特色以及棋類游戲中的棋面優(yōu)勢等.這些本來只可言傳,不可意會的概念居然被機器學會了.到底是機器學習厲害,還是這些虛幻的概念后面其實有個雖然非常復雜,但是明確可以獲得的函數(shù)在支配,而深度學習只是用其蠻力去把這些函數(shù)反映到了數(shù)億冰冷的參數(shù)中去?

        5人工智能發(fā)展面臨的主要問題和新的研究方向

        AI概念提出以后,迅速發(fā)展成為一門廣受關注的交叉和前沿學科,在很多方面取得了豐碩成果.尤其是近來深度學習的發(fā)展,更是將AI研究推向一個新的高潮.深度學習的成功故事每天都在上演,似乎深度學習是無所不能的.所以,人們對AI產(chǎn)生濃厚興趣,產(chǎn)業(yè)界首先布局,大量資本與并購的涌入并加速AI技術與應用的結合,蔓延升溫.那么,拋開商業(yè)因素,AI在技術上是否還存在什么問題?它今后的發(fā)展方向是什么?

        深度學習技術和早年的多層神經(jīng)網(wǎng)絡相比,理論上的突破其實不大.深度學習現(xiàn)存一個根本的缺陷,就是缺乏完善的理論支撐,對于其結果缺乏解釋,包括網(wǎng)絡的設計、參數(shù)的設置和取得的效果.尋找理論上的深入解釋,是深度學習發(fā)展必須解決的一個重要問題.

        目前深度學習一般需要大數(shù)據(jù)支持,但并不是所有的應用都具備大數(shù)據(jù)條件的.結合傳統(tǒng)知識表達和數(shù)據(jù)驅動知識學習,可以解決很多迫切的現(xiàn)實問題.這也是今后發(fā)展的一個重要方向.

        還有,深度學習在訓練網(wǎng)絡中需要大量有標記的數(shù)據(jù)去學習輸入和輸出的映射關系,這樣獲得的模型往往無法將其泛化到與訓練時不同條件的數(shù)據(jù)集上.而現(xiàn)實應用中,我們遇到的數(shù)據(jù)集常常會包含很多新場景,許多數(shù)據(jù)是模型在訓練過程中沒出現(xiàn)過的,因此學習得到的模型可能無法很好地預測結果.將學習得到的知識遷移到新的條件和環(huán)境的能力通常被稱為遷移學習,這是今后一個重要的研究方向.如果我們將遷移學習做到極限,僅僅從少數(shù)幾個甚至零個樣本中學習(如一次和零次學習),將能解決更多實際問題.執(zhí)行一次和零次學習的模型是機器學習中最難的問題之一,可這對我們人類而言卻不是那么困難的.這是AI發(fā)展一個值得深入研究的問題.

        另外有一個非常值得進一步思考的問題:是否非得要采用深度神經(jīng)網(wǎng)絡進行學習?如果所考慮問題的數(shù)據(jù)和目標之間的函數(shù)關系比較簡單,那么我們完全可以用淺度的網(wǎng)絡進行建模學習.但是如果這個函數(shù)的確比較復雜,是否一定要用深度網(wǎng)絡呢?針對這個問題,南京大學周志華教授等提出一種基于樹的方法,叫“深度森林”[35],來挑戰(zhàn)深度學習.在設置可類比的情況下,深度森林取得了和深度神經(jīng)網(wǎng)絡相當甚至更好的結果,而且更容易訓練,小數(shù)據(jù)也能運行.更重要的是相比深度神經(jīng)網(wǎng)絡,基于樹的方法不會存在那么困難的理論分析問題.他們的方法為在許多任務中使用深度神經(jīng)網(wǎng)絡之外的方法打開了一扇門.

        6結論

        到目前為止,人工智能的研究依然還處于初級階段,距離最終的目標還有很長的路要走.深度學習方法取得了巨大的進展,但是沒有堅實的理論基礎,無法實現(xiàn)對系統(tǒng)和性能的透徹理解和預測.還有很多的問題擺在我們面前,如遷移學習、小樣本學習、增強學習等,這些都是人工智能研究急需解決的問題.雖然人工智能在很多方面已經(jīng)趕超人類,但是本質上離真正的智能還是有很大的距離,這也是我們進一步期待和努力的方向.

        參考文獻

        References

        [1]李蕾,王小捷.機器智能[M].北京:清華大學出版社,2016

        LI Lei,WANG Xiaojie.Machine intelligence[M].Beijing:Tsinghua University Press,2016

        [2]顧險峰.人工智能的歷史回顧和發(fā)展現(xiàn)狀[J].自然雜志,2016,38(3):157166

        GU Xianfeng.Historical review and current development of artificial intelligence[J].Chinese Journal of Nature,2016,38(3):157166

        [3]Hinton G,Osindero S,Teh Y W.A fast learning algorithm for deep belief nets[J].Neural Computation,2006,18(7):15271554

        [4]Hinton G,Salakhutdinov R R.Reducing the dimensionality of data with neural networks[J].Science,2006,313(5786):504507

        [5]鐘義信.高等人工智能原理:觀念、方法、模型、理論[M].北京:科學出版社,2014

        ZHONG Yixin.Principles of advanced artificial intelligence:Concepts,methods,models and theories[M].Beijing:Science Press,2014

        [6]McCulloch W S,Pitts W.A logical calculus of the ideas immanent in nervous activity[J].Bulletin of Mathematical Biology,1990,52(1/2):99115

        [7]Rosenblatt F.The perceptron:A probabilistic model for information storage and organization in the brain[J].Psychological Review,1958,65(6):386408

        [8]Haykin S.Neural networks:A comprehensive foundation[M].Upper Saddle River,NJ:Prentice Hall,2004

        [9]Lindsay R K,Buchanan B G,F(xiàn)eigenbaum E A,et al.DENDRAL:A case study of the first expert system for scientific hypothesis formation [J].Artificial Intelligence,1993,61(2):209261

        [10]Shortliffe E H.Mycin:A rulebased computer program for advising physicians regarding antimicrobial therapy selection[D].Stanford:Stanford University,1975

        [11]Brooks R A.Intelligence without representation[J].Artificial Intelligence,1991,47(1/2/3):139159

        [12]Rumelhart D E,Hinton G,Williams R J.Learning internal representations by error propagation[J].Readings in Cognitive Science,1988,1:399421

        [13]Rumelhart D E,Hinton G,Williams R J.Learning representations by backpropagating errors[J].Nature,1986,323(6088):533536

        [14]Hornik K.Approximation capabilities of multilayer feedforward networks[J].Neural Networks,1991,4(2):251257

        [15]Csji B C.Approximation with artificial neural networks[D].Budapest,Hungary:Faculty of Sciences,Etvs Lornd University,2001

        [16]LeCun Y,Boser B,Denker J S,et al.Backpropagation applied to handwritten zip code recognition[J].Neural Computation,1989,1(4):541551

        [17]LeCun Y,Bottou L,Bengio Y,et al.Gradientbased learning applied to document recognition[J].Proceedings of IEEE,1998,86(11):22782324

        [18]Hochreiter S.The vanishing gradient problem during learning recurrent neural nets and problem solutions[J].International Journal of Uncertainty,F(xiàn)uzziness and KnowledgeBased Systems,1998,6(2):107116

        [19]Vapnik V.The nature of statistical learning theory[M].New York:Springer,1999

        [20]Glorot X,Bordes A,Bengio Y.Deep sparse rectifier networks[J].Journal of Machine Learning Research,2011(15):315323

        [21]Hinton G,Srivastava N,Krizhevsky A,et al.Improving neural networks by preventing coadaptation of feature detectors[J].Computer Science,2012,3(4):212223

        [22]Raina R,Madhavan A,Ng A Y.Largescale deep unsupervised learning using graphics processors[C]∥Proceedings of the 26th Annual International Conference on Machine Learning,2009:873880

        [23]GitHub,Inc.Deeplearningpapersreadingroadmap [EB/OL].[20170428].https:∥github.com/songrotek/DeepLearningPapersReadingRoadmap

        [24]Sharma J,Angelucci A,Sur M.Induction of visual orientation modules in auditory cortex[J].Nature,2000,404(6780):841847

        [25]Vuillerme N,Cuisinier R.Sensory supplementation through tongue electrotactile stimulation to preserve head stabilization in space in the absence of vision[J].Investigative Ophthalmology & Visual Science,2009,50(1):476481

        [26]LeCun Y,Bengio Y,Hinton G.Deep learning[J].Nature,2015,521(7553):436444

        [27]Deng J,Dong W,Socher R,et al.ImageNet:A largescale hierarchical image database[C]∥IEEE Conference on Computer Vision and Pattern Recognition,2009:248255

        [28]Hinton G,Deng L,Yu D,et al.Deep Neural Networks for acoustic modeling in speech recognition:The shared views of four research groups[J].IEEE Signal Processing Magazine,2012,29(6):8297

        [29]Graves A,Mohamed A,Hinton G.Speech recognition with deep recurrent neural networks[C]∥IEEE International Conference on Acoustics,Speech and Signal Processing,2013,DOI:101109/ICASSP.20136638947

        [30]Esteva A,Kuprel B,Novoa R A,et al.Dermatologistlevel classification of skin cancer with deep neural networks[J].Nature,2017,542(7639):115

        [31]Hutson M.Selftaught artificial intelligence beats doctors at predicting heart attacks[EB/OL].Science,20170414[20170428].http:∥www.sciencemag.org/news/2017/04/selftaughtartificialintelligencebeatsdoctorspredictingheartattacks

        [32]Silver D,Huang A,Maddison C J,et al.Mastering the game of Go with deep neural networks and tree search[J].Nature,2016,529(7587):484489

        [33]Mnih V,Kavukcuoglu K,Silver D,et al.Humanlevel control through deep reinforcement learning[J].Nature,2015,518(7540):529533

        [34]Gatys L A,Ecker A S,Bethge M.A neural algorithm of artistic style[J].arXiv,2015,arXiv:150806576 v1

        [35]Zhou Z H,F(xiàn)eng J.Deep forest:Towards an alternative to deep neural networks[J].arXiv,2017,arXiv:170208835v1

        AbstractRecently,the artificial intelligence(AI),especially with the deep learning techniques,has achieved great success in various applications.This paper gives an overview on the artificial intelligence,including aspects of its commercialized development,the many tribes of AI with origin and history,successful stories based on deep learning,as well as the remaining challenges and possible development trends in future.

        Key wordsartificial intelligence(AI);deep learning;neural network

        猜你喜歡
        深度學習神經(jīng)網(wǎng)絡人工智能
        神經(jīng)網(wǎng)絡抑制無線通信干擾探究
        電子制作(2019年19期)2019-11-23 08:42:00
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        人工智能與就業(yè)
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        MOOC與翻轉課堂融合的深度學習場域建構
        大數(shù)據(jù)技術在反恐怖主義中的應用展望
        深度學習算法應用于巖石圖像處理的可行性研究
        軟件導刊(2016年9期)2016-11-07 22:20:49
        基于深度卷積網(wǎng)絡的人臉年齡分析算法與實現(xiàn)
        軟件工程(2016年8期)2016-10-25 15:47:34
        下一幕,人工智能!
        南風窗(2016年19期)2016-09-21 16:51:29
        基于神經(jīng)網(wǎng)絡的拉矯機控制模型建立
        重型機械(2016年1期)2016-03-01 03:42:04
        久久精品国产亚洲av日韩精品| 在线播放真实国产乱子伦| 美女av一区二区三区| 国产男女猛烈视频在线观看 | 无码毛片aaa在线| 国产麻豆一精品一AV一免费软件| 亚洲欧美日韩高清一区二区三区 | 丰满少妇被爽的高潮喷水呻吟| 国产乱人精品视频av麻豆网站| 亚洲av乱码一区二区三区林ゆな| 亚洲处破女av日韩精品| 日韩黑人欧美在线视频观看| 亚洲女同同性少妇熟女| 久久精品亚洲成在人线av| 精品日本一区二区三区| 亚洲午夜无码毛片av久久| 亚洲字幕av一区二区三区四区| 巨熟乳波霸若妻在线播放| 无码Av在线一区二区三区| 亚洲av粉色一区二区三区| 亚洲精品国产av成拍色拍| 久久精品人人做人人爱爱| 亚洲日韩av无码| 国产在线网址| 亚洲天堂中文字幕君一二三四| 久久久精品国产老熟女| 日韩欧美在线综合网另类| 久久无码av三级| 中文字幕一区韩国三级| 羞涩色进入亚洲一区二区av| 18禁止进入1000部高潮网站| 老熟女高潮一区二区三区| 在线观看精品国产福利片87| 日本熟妇中出高潮视频| 在线天堂www中文| 精品视频999| 厕所极品偷拍一区二区三区视频| 丝袜美腿视频一区二区| 国产成人无码一区二区在线播放 | 亚洲精品中文字幕不卡在线| 一本色道久久综合亚州精品|