梯度爆炸和梯度消失的原因 從RNN到LSTM,性能良好的神經(jīng)網(wǎng)絡(luò)到底是如何工作的?
從RNN到LSTM,性能良好的神經(jīng)網(wǎng)絡(luò)到底是如何工作的?RNN(遞歸神經(jīng)網(wǎng)絡(luò)),顧名思義,以先前的輸出(隱藏狀態(tài))作為輸入,形成一個(gè)循環(huán)。(RNN擴(kuò)展,圖像源:colah.github.io文件)上面
從RNN到LSTM,性能良好的神經(jīng)網(wǎng)絡(luò)到底是如何工作的?
RNN(遞歸神經(jīng)網(wǎng)絡(luò)),顧名思義,以先前的輸出(隱藏狀態(tài))作為輸入,形成一個(gè)循環(huán)。
(RNN擴(kuò)展,圖像源:colah.github.io文件)
上面的展開圖清楚地顯示了RNN的結(jié)構(gòu)。不難發(fā)現(xiàn)RNN的結(jié)構(gòu)與序列化數(shù)據(jù)是一致的。實(shí)際上,RNN實(shí)際上主要用于處理序列化數(shù)據(jù)。
基本上,不使用原始RNN,而是使用RNN的變體。
rnu的梯度和梯度可以通過Gru的梯度和梯度來減輕。
(一般是sigmoid層)建模輸入、輸出和遺忘。
(圖片來源:中新網(wǎng)/@左上角的藍(lán)色是輸入門,右上角的綠色是輸出門,底部的紅色是遺忘門。
是否存在通用的神經(jīng)網(wǎng)絡(luò)模型,可以處理圖像,語音以及NLP?
對于目前的深度學(xué)習(xí)模型,雖然深度學(xué)習(xí)的目標(biāo)之一是設(shè)計(jì)能夠處理各種任務(wù)的算法,但是深度學(xué)習(xí)的應(yīng)用還需要一定的專業(yè)化,目前還沒有通用的神經(jīng)網(wǎng)絡(luò)處理模型。然而,每一種模式也在相互學(xué)習(xí)、相互融合、共同提高。例如,一些創(chuàng)新可以同時(shí)改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)和遞歸神經(jīng)網(wǎng)絡(luò),如批量標(biāo)準(zhǔn)化和關(guān)注度。一般模型需要在將來提出。
圖像和視頻處理,計(jì)算機(jī)視覺,最流行的是CNN,卷積神經(jīng)網(wǎng)絡(luò),它的變形和發(fā)展,CNN適合處理空間數(shù)據(jù),廣泛應(yīng)用于計(jì)算機(jī)視覺領(lǐng)域。例如,alexnet、vggnet、googlenet、RESNET等都有自己的特點(diǎn)。將上述模型應(yīng)用于圖像分類識(shí)別中。在圖像分割、目標(biāo)檢測等方面,提出了更有針對性的模型,并得到了廣泛的應(yīng)用。
語音處理,2012年之前,最先進(jìn)的語音識(shí)別系統(tǒng)是隱馬爾可夫模型(HMM)和高斯混合模型(GMM)的結(jié)合。目前最流行的是深度學(xué)習(xí)RNN遞歸神經(jīng)網(wǎng)絡(luò),其長、短期記憶網(wǎng)絡(luò)LSTM、Gru、雙向RNN、層次RNN等。
除了傳統(tǒng)的自然語言處理方法外,目前的自然語言處理深度學(xué)習(xí)模型也經(jīng)歷了幾個(gè)發(fā)展階段,如基于CNN的模型、基于RNN的模型、基于注意的模型、基于變壓器的模型等。不同的任務(wù)場景有不同的模型和策略來解決一些問題。
人腦是怎么防止梯度消失和梯度爆炸的?
大腦中有近900億個(gè)神經(jīng)元。如此龐大的網(wǎng)絡(luò)如何防止梯度消失和梯度爆炸?我認(rèn)為,因?yàn)榇竽X不能一次激活所有的神經(jīng)元,所以它把結(jié)果儲(chǔ)存在遠(yuǎn)離大腦的地方。
人腦是如何工作的?
你給大腦一個(gè)圖像,同時(shí)激活整個(gè)大腦嗎?顯然不是。大腦被分割了。然而,在遙遠(yuǎn)的地方存儲(chǔ)信息只是人腦算法的一小部分,這與動(dòng)物和人類驚人的識(shí)別能力無關(guān)。我認(rèn)為更多的是關(guān)于短期記憶的儲(chǔ)存(在它變成長期記憶之前)。
現(xiàn)在人們普遍認(rèn)為人腦沒有DNN這樣的梯度返回機(jī)制。。。對生物學(xué)稍有了解就會(huì)發(fā)現(xiàn)神經(jīng)元的傳遞是單向的。但是我們能有兩個(gè)神經(jīng)元,一個(gè)前饋一個(gè)反饋嗎?目前的研究還沒有發(fā)現(xiàn)。。。一般認(rèn)為這一環(huán)節(jié)是一個(gè)循環(huán)結(jié)構(gòu)(RNN)。其次,新生動(dòng)物的比率可能不需要學(xué)習(xí)掌握很多基本的信息處理能力。例如,牛、羊和馬生來就是要走路的。結(jié)果表明,它們的基因是預(yù)先編程的,具有一些基本的能力,如行走、運(yùn)動(dòng)和視覺,這是我們通過反向傳播訓(xùn)練模型實(shí)現(xiàn)的。人類出生的原因看不清楚?,F(xiàn)有的解釋是,人類在出生時(shí)并沒有完全發(fā)育,否則嬰兒的頭太大,無法順利分娩。然而,大腦中肯定有一種機(jī)制來返回錯(cuò)誤并改變突觸重量。
為什么現(xiàn)在人工智能這么熱,是因?yàn)槟硞€(gè)技術(shù)獲得突破性進(jìn)展了嗎?
不僅僅是AI現(xiàn)在如此火爆,歷史上也曾一度火爆。
人們總是高估短時(shí)間內(nèi)能取得的成就,卻低估了長時(shí)間內(nèi)能取得的成就。這是人類社會(huì)的本性,而且一直如此。1956年達(dá)特茅斯會(huì)議提出了人工智能的概念。當(dāng)時(shí),科學(xué)家們信心滿滿,希望讓人工智能在十年內(nèi)解決人類智能能夠解決的問題。當(dāng)時(shí)的一位大牛認(rèn)為,讓機(jī)器看到和理解事物是一項(xiàng)非常簡單的任務(wù),讓他的博士生在一個(gè)月內(nèi)解決機(jī)器視覺的問題。當(dāng)然,我們知道,這個(gè)問題到現(xiàn)在還沒有解決。
人工智能是一個(gè)極其重要的領(lǐng)域。正因?yàn)槿绱?,人們對它的看法總是徘徊在幾個(gè)極端之間。上世紀(jì)60年代,人們對解決自然語言問題充滿了熱情,希望用幾年時(shí)間創(chuàng)造出一個(gè)通用的翻譯器,讓人們相互理解,讓巴別塔不再是廢墟。但在投入了大量人力物力后,研究人員卻一敗涂地。于是,人工智能的熱潮迅速退去。在接下來的十年里,整個(gè)領(lǐng)域變得悲觀起來,持續(xù)了十多年的“人工智能之冬”開始了。
然而,許多研究人員仍在研究它——畢竟,人工智能太有吸引力了。20世紀(jì)90年代以來,一些新的思想被應(yīng)用,人工智能領(lǐng)域逐漸活躍起來。但最大的變化應(yīng)該是2006年提出的“深度學(xué)習(xí)”方法。該方法以神經(jīng)網(wǎng)絡(luò)為基礎(chǔ),模擬人腦的學(xué)習(xí)方法,構(gòu)造多層機(jī)器學(xué)習(xí)模型。
最重要的是,這種方法具有很強(qiáng)的通用性,使機(jī)器能夠“學(xué)習(xí)”如何理解現(xiàn)實(shí)世界中的對象。因此,人們在圖像識(shí)別、機(jī)器翻譯、作文、寫作等領(lǐng)域進(jìn)行了深入的學(xué)習(xí)嘗試,其中自然語言處理有著良好的發(fā)展勢頭。
如果在人工智能的發(fā)展中有任何突破性的技術(shù),深度學(xué)習(xí)應(yīng)該是其中之一。然而,這一領(lǐng)域的普及不僅僅是由深度學(xué)習(xí)推動(dòng)的,計(jì)算機(jī)工具的普及、計(jì)算能力的提高和互聯(lián)網(wǎng)的發(fā)展都是促成當(dāng)今人工智能發(fā)展的重要因素。