2017全國雙創(chuàng)活動周在上海拉開帷幕,百度創(chuàng)始人李彥宏作為“雙創(chuàng)”領(lǐng)袖代表在啟動儀式上致辭。在發(fā)言中,“人工智能忠實(shí)粉絲”的他除了介紹了AI技術(shù)對于創(chuàng)新創(chuàng)業(yè)的推動作用外,還提到了一些神秘字符——
9月15日,2017年全國大眾創(chuàng)業(yè)萬眾創(chuàng)新活動周在上海舉行,百度創(chuàng)始人李彥宏作為企業(yè)家代表進(jìn)行發(fā)言。
今年活動周的主題是“雙創(chuàng)促升級,壯大新動能”,在描繪“雙創(chuàng)”升級之路時,李彥宏表示,近年來互聯(lián)網(wǎng)的人口紅利已經(jīng)逐漸釋放殆盡,但一個比互聯(lián)網(wǎng)規(guī)模和影響都更大的新浪潮,正在撲面而來,就是人工智能。
李彥宏在發(fā)言中提到:技術(shù)在人工智能時代起到的作用非常大,而且技術(shù)進(jìn)步的速度也很快……過去幾年,深度學(xué)習(xí)從DNN,到RNN,到CNN,再到GAN,不停地在升級換代,觸發(fā)新的創(chuàng)新。
掐指一算,這段話里一共出現(xiàn)了7個N。人工智能技術(shù)雖然現(xiàn)在已經(jīng)不是新概念,但這些N究竟是什么意思?DNN(深度神經(jīng)網(wǎng)絡(luò))、RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))、CNN(卷積神經(jīng)網(wǎng)絡(luò))、GAN(生成式對抗網(wǎng)絡(luò))究竟代表了什么技術(shù),為何最近人工智能技術(shù)會飛速發(fā)展,結(jié)合到人工智能的未來又將會如何呢?
李彥宏說道DNN、RNN、CNN、GAN其實(shí)都是深度學(xué)習(xí)的內(nèi)容。這些名詞聽上去高深莫測。其實(shí)道理并不復(fù)雜——
DNN是啥?
所謂神經(jīng)網(wǎng)絡(luò)其實(shí)這個詞是后來的,最早這個東西叫感知機(jī),就是有一個輸入層,一個隱含層,一個輸出層。通過算法迭代完成一個解。
但是只有一層是處理不了復(fù)雜函數(shù)的,于是后來就發(fā)明了多層感知機(jī),有多個隱含層,然后有算法讓各個層的各個節(jié)點(diǎn)互相聯(lián)通。
這種聯(lián)通很像人體中的神經(jīng),于是這種多層的感知機(jī)就有了名字,叫神經(jīng)網(wǎng)絡(luò)。
理論上,隱含層當(dāng)然是越多越好,但是科學(xué)家在使用中發(fā)現(xiàn)層數(shù)多了往往是局部最優(yōu)。
就好比你下象棋,多層數(shù)的神經(jīng)網(wǎng)絡(luò),算了很多步,計(jì)算怎么把對方的馬吃了,然后選了最佳一步棋。但是下棋是殺死對方的帥啊,吃掉馬能占據(jù)子力優(yōu)勢,但是并不一定贏啊。
為了吃掉對方馬的最優(yōu)步,不一定是贏棋的最優(yōu)步,這個問題不解決,層數(shù)多了反而不好用。
同時層數(shù)多了,訓(xùn)練數(shù)據(jù)的有效性就弱了,整體學(xué)習(xí)的效率也就不行了。
這個難題一直到2006年才解決,然后DNN(深度神經(jīng)網(wǎng)絡(luò))就流行了。
DNN引出的CNN
DNN已經(jīng)可以實(shí)用,但是DNN的問題是參數(shù)太多,每個點(diǎn)連接產(chǎn)生的數(shù)據(jù)量太大,雖然有算法改良還是容易陷入局部最優(yōu),而現(xiàn)實(shí)中有些東西是固定,不需要一層層地去學(xué)習(xí)計(jì)算。
于是,科學(xué)家就提出一個叫“卷積核”的東西,用這個東西來降低參數(shù)量,參數(shù)量少了,計(jì)算效率就提升了,而且陷入局部最優(yōu)解的概率也就下來了,深度計(jì)算就好用了。
時間問題引出的RNN
全部連接的DNN存在一個問題,就是沒法按照時間序列的變化建立模型。但是人工智能深度學(xué)習(xí)的東西可不是靜態(tài)的。
語音識別是動態(tài)的,手寫也是動態(tài)的,需要解決時間序列的問題,于是就有了RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))。在DNN的基礎(chǔ)上發(fā)展出時間戳,發(fā)展出長短時記憶單元,可以有解決時間序列的應(yīng)用,這就是RNN。
以假亂真的GAN
GAN(生成式對抗網(wǎng)絡(luò))是給生成模型用的,機(jī)器出來的語言,圖像能夠以假亂真,需要一個標(biāo)準(zhǔn),需要一個判定模型。譬如要模擬生成一張畫,就有一個生成畫的模型,有一張事實(shí)存在的畫,有一個判定生成的畫,與事實(shí)存在的畫差異的模型。
首先固定生成模型,反復(fù)訓(xùn)練判斷模型,讓判斷模型學(xué)會判斷,判斷模型學(xué)習(xí)好了,就可以訓(xùn)練生成模型,最終讓生成模型生成的東西能以假亂真。
我們聽到百度度秘能模仿人說話,就是這種技術(shù)在起作用。
在李彥宏看來,隨著人工智能技術(shù)的進(jìn)一步開放共享,它也將更好地賦能產(chǎn)業(yè)、完善生態(tài)、助力創(chuàng)新創(chuàng)業(yè)。在人工智能實(shí)際應(yīng)用中,李彥宏說的DNN、CNN、RNN、GAN是混在一起用的。度秘看到你,識別你的面孔需要CNN,聽取你的語音需要RNN,回答你生成語言需要GAN。
而在包括人工智能技術(shù)這些新動能發(fā)展起來之后,現(xiàn)代社會中簡單的勞動都可以被取而代之了。endprint