2017全國(guó)雙創(chuàng)活動(dòng)周在上海拉開帷幕,百度創(chuàng)始人李彥宏作為“雙創(chuàng)”領(lǐng)袖代表在啟動(dòng)儀式上致辭。在發(fā)言中,“人工智能忠實(shí)粉絲”的他除了介紹了AI技術(shù)對(duì)于創(chuàng)新創(chuàng)業(yè)的推動(dòng)作用外,還提到了一些神秘字符——
9月15日,2017年全國(guó)大眾創(chuàng)業(yè)萬(wàn)眾創(chuàng)新活動(dòng)周在上海舉行,百度創(chuàng)始人李彥宏作為企業(yè)家代表進(jìn)行發(fā)言。
今年活動(dòng)周的主題是“雙創(chuàng)促升級(jí),壯大新動(dòng)能”,在描繪“雙創(chuàng)”升級(jí)之路時(shí),李彥宏表示,近年來(lái)互聯(lián)網(wǎng)的人口紅利已經(jīng)逐漸釋放殆盡,但一個(gè)比互聯(lián)網(wǎng)規(guī)模和影響都更大的新浪潮,正在撲面而來(lái),就是人工智能。
李彥宏在發(fā)言中提到:技術(shù)在人工智能時(shí)代起到的作用非常大,而且技術(shù)進(jìn)步的速度也很快……過去幾年,深度學(xué)習(xí)從DNN,到RNN,到CNN,再到GAN,不停地在升級(jí)換代,觸發(fā)新的創(chuàng)新。
掐指一算,這段話里一共出現(xiàn)了7個(gè)N。人工智能技術(shù)雖然現(xiàn)在已經(jīng)不是新概念,但這些N究竟是什么意思?DNN(深度神經(jīng)網(wǎng)絡(luò))、RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))、CNN(卷積神經(jīng)網(wǎng)絡(luò))、GAN(生成式對(duì)抗網(wǎng)絡(luò))究竟代表了什么技術(shù),為何最近人工智能技術(shù)會(huì)飛速發(fā)展,結(jié)合到人工智能的未來(lái)又將會(huì)如何呢?
李彥宏說(shuō)道DNN、RNN、CNN、GAN其實(shí)都是深度學(xué)習(xí)的內(nèi)容。這些名詞聽上去高深莫測(cè)。其實(shí)道理并不復(fù)雜——
DNN是啥?
所謂神經(jīng)網(wǎng)絡(luò)其實(shí)這個(gè)詞是后來(lái)的,最早這個(gè)東西叫感知機(jī),就是有一個(gè)輸入層,一個(gè)隱含層,一個(gè)輸出層。通過算法迭代完成一個(gè)解。
但是只有一層是處理不了復(fù)雜函數(shù)的,于是后來(lái)就發(fā)明了多層感知機(jī),有多個(gè)隱含層,然后有算法讓各個(gè)層的各個(gè)節(jié)點(diǎn)互相聯(lián)通。
這種聯(lián)通很像人體中的神經(jīng),于是這種多層的感知機(jī)就有了名字,叫神經(jīng)網(wǎng)絡(luò)。
理論上,隱含層當(dāng)然是越多越好,但是科學(xué)家在使用中發(fā)現(xiàn)層數(shù)多了往往是局部最優(yōu)。
就好比你下象棋,多層數(shù)的神經(jīng)網(wǎng)絡(luò),算了很多步,計(jì)算怎么把對(duì)方的馬吃了,然后選了最佳一步棋。但是下棋是殺死對(duì)方的帥啊,吃掉馬能占據(jù)子力優(yōu)勢(shì),但是并不一定贏啊。
為了吃掉對(duì)方馬的最優(yōu)步,不一定是贏棋的最優(yōu)步,這個(gè)問題不解決,層數(shù)多了反而不好用。
同時(shí)層數(shù)多了,訓(xùn)練數(shù)據(jù)的有效性就弱了,整體學(xué)習(xí)的效率也就不行了。
這個(gè)難題一直到2006年才解決,然后DNN(深度神經(jīng)網(wǎng)絡(luò))就流行了。
DNN引出的CNN
DNN已經(jīng)可以實(shí)用,但是DNN的問題是參數(shù)太多,每個(gè)點(diǎn)連接產(chǎn)生的數(shù)據(jù)量太大,雖然有算法改良還是容易陷入局部最優(yōu),而現(xiàn)實(shí)中有些東西是固定,不需要一層層地去學(xué)習(xí)計(jì)算。
于是,科學(xué)家就提出一個(gè)叫“卷積核”的東西,用這個(gè)東西來(lái)降低參數(shù)量,參數(shù)量少了,計(jì)算效率就提升了,而且陷入局部最優(yōu)解的概率也就下來(lái)了,深度計(jì)算就好用了。
時(shí)間問題引出的RNN
全部連接的DNN存在一個(gè)問題,就是沒法按照時(shí)間序列的變化建立模型。但是人工智能深度學(xué)習(xí)的東西可不是靜態(tài)的。
語(yǔ)音識(shí)別是動(dòng)態(tài)的,手寫也是動(dòng)態(tài)的,需要解決時(shí)間序列的問題,于是就有了RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))。在DNN的基礎(chǔ)上發(fā)展出時(shí)間戳,發(fā)展出長(zhǎng)短時(shí)記憶單元,可以有解決時(shí)間序列的應(yīng)用,這就是RNN。
以假亂真的GAN
GAN(生成式對(duì)抗網(wǎng)絡(luò))是給生成模型用的,機(jī)器出來(lái)的語(yǔ)言,圖像能夠以假亂真,需要一個(gè)標(biāo)準(zhǔn),需要一個(gè)判定模型。譬如要模擬生成一張畫,就有一個(gè)生成畫的模型,有一張事實(shí)存在的畫,有一個(gè)判定生成的畫,與事實(shí)存在的畫差異的模型。
首先固定生成模型,反復(fù)訓(xùn)練判斷模型,讓判斷模型學(xué)會(huì)判斷,判斷模型學(xué)習(xí)好了,就可以訓(xùn)練生成模型,最終讓生成模型生成的東西能以假亂真。
我們聽到百度度秘能模仿人說(shuō)話,就是這種技術(shù)在起作用。
在李彥宏看來(lái),隨著人工智能技術(shù)的進(jìn)一步開放共享,它也將更好地賦能產(chǎn)業(yè)、完善生態(tài)、助力創(chuàng)新創(chuàng)業(yè)。在人工智能實(shí)際應(yīng)用中,李彥宏說(shuō)的DNN、CNN、RNN、GAN是混在一起用的。度秘看到你,識(shí)別你的面孔需要CNN,聽取你的語(yǔ)音需要RNN,回答你生成語(yǔ)言需要GAN。
而在包括人工智能技術(shù)這些新動(dòng)能發(fā)展起來(lái)之后,現(xiàn)代社會(huì)中簡(jiǎn)單的勞動(dòng)都可以被取而代之了。endprint