梯度爆炸的主要原因 深度學(xué)習(xí)中的梯度消失和梯度爆炸是什么?有哪些方法可以解決?
深度學(xué)習(xí)中的梯度消失和梯度爆炸是什么?有哪些方法可以解決?梯度消失的根源-深層神經(jīng)網(wǎng)絡(luò)和反向傳播。目前,神經(jīng)網(wǎng)絡(luò)的優(yōu)化方法都是基于bp算法的思想,即根據(jù)損失函數(shù)計(jì)算的誤差,采用梯度bp算法來(lái)指導(dǎo)深度網(wǎng)
深度學(xué)習(xí)中的梯度消失和梯度爆炸是什么?有哪些方法可以解決?
梯度消失的根源-深層神經(jīng)網(wǎng)絡(luò)和反向傳播。目前,神經(jīng)網(wǎng)絡(luò)的優(yōu)化方法都是基于bp算法的思想,即根據(jù)損失函數(shù)計(jì)算的誤差,采用梯度bp算法來(lái)指導(dǎo)深度網(wǎng)絡(luò)權(quán)值的更新和優(yōu)化。
梯度消失和梯度爆炸。在兩種情況下,梯度消失經(jīng)常發(fā)生,一種是在深網(wǎng)絡(luò)中,另一種是使用不適當(dāng)?shù)膿p失函數(shù),如sigmoid。梯度爆炸通常發(fā)生在深度網(wǎng)絡(luò)初始值和權(quán)重過(guò)大時(shí)。神經(jīng)網(wǎng)絡(luò)的反向傳播是將函數(shù)的偏導(dǎo)數(shù)逐層相乘。因此,當(dāng)神經(jīng)網(wǎng)絡(luò)的層很深時(shí),最后一層的偏差會(huì)因?yàn)槌艘栽S多小于1的偏導(dǎo)數(shù)而變得越來(lái)越小,最后趨于0,導(dǎo)致淺層的權(quán)值不更新,即梯度消失。由于梯度爆炸的初始權(quán)值過(guò)大,前一層的變化比后一層快,導(dǎo)致權(quán)值增加和溢出,導(dǎo)致Nan值的產(chǎn)生。
使用sigmoid激活函數(shù)時(shí),梯度消失問(wèn)題更常見(jiàn),而梯度爆炸問(wèn)題只發(fā)生在非常窄的范圍內(nèi)。
解決梯度消失問(wèn)題的方法:添加BN層、使用不同的激活函數(shù)(relu)、使用剩余結(jié)構(gòu)、使用LSTM網(wǎng)絡(luò)結(jié)構(gòu)等
解決梯度爆炸問(wèn)題的方法:添加BN層、使用不同的激活函數(shù)、梯度剪切(限制梯度范圍),權(quán)重正則化,使用LSTM網(wǎng)絡(luò),重新設(shè)計(jì)網(wǎng)絡(luò)模型(減少層,學(xué)習(xí))率,批量大?。?/p>
歡迎討論
人腦是怎么防止梯度消失和梯度爆炸的?
大腦中有近900億個(gè)神經(jīng)元。如此龐大的網(wǎng)絡(luò)如何防止梯度消失和梯度爆炸?我認(rèn)為,因?yàn)榇竽X不能一次激活所有的神經(jīng)元,所以它把結(jié)果儲(chǔ)存在遠(yuǎn)離大腦的地方。
人腦是如何工作的?
你給大腦一個(gè)圖像,同時(shí)激活整個(gè)大腦嗎?顯然不是。大腦被分割了。然而,在遙遠(yuǎn)的地方存儲(chǔ)信息只是人腦算法的一小部分,這與動(dòng)物和人類驚人的識(shí)別能力無(wú)關(guān)。我認(rèn)為更多的是關(guān)于短期記憶的儲(chǔ)存(在它變成長(zhǎng)期記憶之前)。
現(xiàn)在人們普遍認(rèn)為人腦沒(méi)有DNN這樣的梯度返回機(jī)制。。。對(duì)生物學(xué)稍有了解就會(huì)發(fā)現(xiàn)神經(jīng)元的傳遞是單向的。但是我們能有兩個(gè)神經(jīng)元,一個(gè)前饋一個(gè)反饋嗎?目前的研究還沒(méi)有發(fā)現(xiàn)。。。一般認(rèn)為這一環(huán)節(jié)是一個(gè)循環(huán)結(jié)構(gòu)(RNN)。其次,新生動(dòng)物的比率可能不需要學(xué)習(xí)掌握很多基本的信息處理能力。例如,牛、羊和馬生來(lái)就是要走路的。結(jié)果表明,它們的基因是預(yù)先編程的,具有一些基本的能力,如行走、運(yùn)動(dòng)和視覺(jué),這是我們通過(guò)反向傳播訓(xùn)練模型實(shí)現(xiàn)的。人類出生的原因看不清楚?,F(xiàn)有的解釋是,人類在出生時(shí)并沒(méi)有完全發(fā)育,否則嬰兒的頭太大,無(wú)法順利分娩。然而,大腦中肯定有一種機(jī)制來(lái)返回錯(cuò)誤并改變突觸重量。
是否存在通用的神經(jīng)網(wǎng)絡(luò)模型,可以處理圖像,語(yǔ)音以及NLP?
對(duì)于目前的深度學(xué)習(xí)模型,雖然深度學(xué)習(xí)的目標(biāo)之一是設(shè)計(jì)能夠處理各種任務(wù)的算法,但是深度學(xué)習(xí)的應(yīng)用還需要一定的專業(yè)化,目前還沒(méi)有通用的神經(jīng)網(wǎng)絡(luò)處理模型。然而,每一種模式也在相互學(xué)習(xí)、相互融合、共同提高。例如,一些創(chuàng)新可以同時(shí)改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)和遞歸神經(jīng)網(wǎng)絡(luò),如批量標(biāo)準(zhǔn)化和關(guān)注度。一般模型需要在將來(lái)提出。
圖像和視頻處理,計(jì)算機(jī)視覺(jué),最流行的是CNN,卷積神經(jīng)網(wǎng)絡(luò),它的變形和發(fā)展,CNN適合處理空間數(shù)據(jù),廣泛應(yīng)用于計(jì)算機(jī)視覺(jué)領(lǐng)域。例如,alexnet、vggnet、googlenet、RESNET等都有自己的特點(diǎn)。將上述模型應(yīng)用于圖像分類識(shí)別中。在圖像分割、目標(biāo)檢測(cè)等方面,提出了更有針對(duì)性的模型,并得到了廣泛的應(yīng)用。
語(yǔ)音處理,2012年之前,最先進(jìn)的語(yǔ)音識(shí)別系統(tǒng)是隱馬爾可夫模型(HMM)和高斯混合模型(GMM)的結(jié)合。目前最流行的是深度學(xué)習(xí)RNN遞歸神經(jīng)網(wǎng)絡(luò),其長(zhǎng)、短期記憶網(wǎng)絡(luò)LSTM、Gru、雙向RNN、層次RNN等。
除了傳統(tǒng)的自然語(yǔ)言處理方法外,目前的自然語(yǔ)言處理深度學(xué)習(xí)模型也經(jīng)歷了幾個(gè)發(fā)展階段,如基于CNN的模型、基于RNN的模型、基于注意的模型、基于變壓器的模型等。不同的任務(wù)場(chǎng)景有不同的模型和策略來(lái)解決一些問(wèn)題。
王者榮耀S14上單英雄梯度排行公布,達(dá)摩、花木蘭墊底,你怎么看?
感謝收看。欲知更多關(guān)于王者榮耀的信息,請(qǐng)關(guān)注王大哥。如果答案有幫助,請(qǐng)關(guān)注小編。如果您有不同意見(jiàn),請(qǐng)?jiān)谠u(píng)論區(qū)留言。祝大家新年快樂(lè),豬年快樂(lè)!