神經(jīng)網(wǎng)絡(luò)擬合非線性函數(shù) 如何評價「神經(jīng)網(wǎng)絡(luò)本質(zhì)不過是初中生都會的復(fù)合函數(shù)」?
如何評價「神經(jīng)網(wǎng)絡(luò)本質(zhì)不過是初中生都會的復(fù)合函數(shù)」?如果說本質(zhì)是很簡單的事情,至少聽起來很簡單。計算機(jī)的本質(zhì)只是門電路的開關(guān),程序的本質(zhì)只是01組合,火箭發(fā)射的本質(zhì)只是軌道擬合,生命體的本質(zhì)只是一堆蛋
如何評價「神經(jīng)網(wǎng)絡(luò)本質(zhì)不過是初中生都會的復(fù)合函數(shù)」?
如果說本質(zhì)是很簡單的事情,至少聽起來很簡單。
計算機(jī)的本質(zhì)只是門電路的開關(guān),程序的本質(zhì)只是01組合,火箭發(fā)射的本質(zhì)只是軌道擬合,生命體的本質(zhì)只是一堆蛋白質(zhì),思維的本質(zhì)只是電信號,等等。如果追根溯源,人的本質(zhì)就像一堆原子。
許多東西無法分解為可見,因為它們的價值就在組合的這一部分。神經(jīng)網(wǎng)絡(luò)的本質(zhì)確實是一個復(fù)合函數(shù),因為加權(quán)是乘法,偏移是加法,激活是函數(shù)運算。這些都很簡單。即使外部激活函數(shù)稍微復(fù)雜一些,它仍然可以被寫出來。但是,需要提出神經(jīng)網(wǎng)絡(luò)的反向傳播,否則神經(jīng)網(wǎng)絡(luò)無法優(yōu)化;全連通網(wǎng)絡(luò)的參數(shù)個數(shù)過大,無法增加深度,因此需要提出CNN、RESNET、dropout、pool,并在此基礎(chǔ)上實現(xiàn)它們的反向傳播算法,這些理論是經(jīng)過嚴(yán)格的數(shù)據(jù)邏輯驗證后提出的。
當(dāng)然,任何人都可以做復(fù)合功能,但他們做不到。最后兩個月的課足夠?qū)W習(xí)了,但是學(xué)習(xí)這些東西能提出神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)嗎?你學(xué)完高等數(shù)學(xué)后能寫一篇約洛嗎?不要老是談?wù)摼A。只有真正理解的人才有資格談?wù)摫举|(zhì)。人們甚至不知道神經(jīng)網(wǎng)絡(luò)的本質(zhì)。聽起來像是土木科學(xué)說地球是平的。
為什么matlab的BP神經(jīng)網(wǎng)絡(luò)曲線擬合的時候沒問題,預(yù)測的時候誤差這么大?
這是由于神經(jīng)網(wǎng)絡(luò)的特性造成的,與MATLAB無關(guān)。
一方面,如果您的網(wǎng)絡(luò)層選擇的神經(jīng)元數(shù)和層數(shù)不合適,會導(dǎo)致此結(jié)果;
另一方面,如果您的訓(xùn)練樣本選擇不正確,或者數(shù)據(jù)表達(dá)過快,也會導(dǎo)致此問題。
在前一方面,根據(jù)經(jīng)驗,后者可以制成參數(shù)可調(diào)的神經(jīng)元。
深度神經(jīng)網(wǎng)絡(luò)是否夸張地過擬合了?
這不可能是一樣的。
1. 過度裝配可分為許多情況。一是現(xiàn)在的情況太多了。這種神經(jīng)網(wǎng)絡(luò)能對許多情況給出正確的答案。即使它是過度安裝,你也無法證明它。此外,即使它能工作和排氣,也沒有壞處。
2. 是否過擬合與我們的神經(jīng)網(wǎng)絡(luò)模型和訓(xùn)練集有關(guān)。當(dāng)二者的組合過擬合時,它在訓(xùn)練集上運行良好,在驗證集上也會出現(xiàn)問題?,F(xiàn)在有一些方法可以對訓(xùn)練集的數(shù)據(jù)進(jìn)行預(yù)處理、多次輸入和多次訓(xùn)練。
3. 目前,過度擬合的問題是不可避免的。培訓(xùn)本身就是一種適應(yīng)過程。如果未來在數(shù)學(xué)原理或應(yīng)用這方面有質(zhì)的突破,可能有解決的機(jī)會。
既然使用神經(jīng)網(wǎng)絡(luò)也可以解決分類問題,那SVM、決策樹這些算法還有什么意義呢?
這取決于數(shù)據(jù)量和樣本數(shù)。不同的樣本數(shù)和特征數(shù)據(jù)適合不同的算法。像神經(jīng)網(wǎng)絡(luò)這樣的深度學(xué)習(xí)算法需要訓(xùn)練大量的數(shù)據(jù)集來建立更好的預(yù)測模型。許多大型互聯(lián)網(wǎng)公司更喜歡深度學(xué)習(xí)算法,因為他們獲得的用戶數(shù)據(jù)是數(shù)以億計的海量數(shù)據(jù),這更適合于卷積神經(jīng)網(wǎng)絡(luò)等深度學(xué)習(xí)算法。
如果樣本數(shù)量較少,則更適合使用SVM、決策樹和其他機(jī)器學(xué)習(xí)算法。如果你有一個大的數(shù)據(jù)集,你可以考慮使用卷積神經(jīng)網(wǎng)絡(luò)和其他深度學(xué)習(xí)算法。
以下是一個圖表,用于說明根據(jù)樣本數(shù)量和數(shù)據(jù)集大小選擇的任何機(jī)器學(xué)習(xí)算法。
如果你認(rèn)為它對你有幫助,你可以多表揚,也可以關(guān)注它。謝謝您!