卖逼视频免费看片|狼人就干网中文字慕|成人av影院导航|人妻少妇精品无码专区二区妖婧|亚洲丝袜视频玖玖|一区二区免费中文|日本高清无码一区|国产91无码小说|国产黄片子视频91sese日韩|免费高清无码成人网站入口

神經(jīng)網(wǎng)絡(luò)擬合非線性函數(shù) 如何評價「神經(jīng)網(wǎng)絡(luò)本質(zhì)不過是初中生都會的復(fù)合函數(shù)」?

如何評價「神經(jīng)網(wǎng)絡(luò)本質(zhì)不過是初中生都會的復(fù)合函數(shù)」?如果說本質(zhì)是很簡單的事情,至少聽起來很簡單。計算機(jī)的本質(zhì)只是門電路的開關(guān),程序的本質(zhì)只是01組合,火箭發(fā)射的本質(zhì)只是軌道擬合,生命體的本質(zhì)只是一堆蛋

如何評價「神經(jīng)網(wǎng)絡(luò)本質(zhì)不過是初中生都會的復(fù)合函數(shù)」?

如果說本質(zhì)是很簡單的事情,至少聽起來很簡單。

計算機(jī)的本質(zhì)只是門電路的開關(guān),程序的本質(zhì)只是01組合,火箭發(fā)射的本質(zhì)只是軌道擬合,生命體的本質(zhì)只是一堆蛋白質(zhì),思維的本質(zhì)只是電信號,等等。如果追根溯源,人的本質(zhì)就像一堆原子。

許多東西無法分解為可見,因為它們的價值就在組合的這一部分。神經(jīng)網(wǎng)絡(luò)的本質(zhì)確實是一個復(fù)合函數(shù),因為加權(quán)是乘法,偏移是加法,激活是函數(shù)運算。這些都很簡單。即使外部激活函數(shù)稍微復(fù)雜一些,它仍然可以被寫出來。但是,需要提出神經(jīng)網(wǎng)絡(luò)的反向傳播,否則神經(jīng)網(wǎng)絡(luò)無法優(yōu)化;全連通網(wǎng)絡(luò)的參數(shù)個數(shù)過大,無法增加深度,因此需要提出CNN、RESNET、dropout、pool,并在此基礎(chǔ)上實現(xiàn)它們的反向傳播算法,這些理論是經(jīng)過嚴(yán)格的數(shù)據(jù)邏輯驗證后提出的。

當(dāng)然,任何人都可以做復(fù)合功能,但他們做不到。最后兩個月的課足夠?qū)W習(xí)了,但是學(xué)習(xí)這些東西能提出神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)嗎?你學(xué)完高等數(shù)學(xué)后能寫一篇約洛嗎?不要老是談?wù)摼A。只有真正理解的人才有資格談?wù)摫举|(zhì)。人們甚至不知道神經(jīng)網(wǎng)絡(luò)的本質(zhì)。聽起來像是土木科學(xué)說地球是平的。

為什么matlab的BP神經(jīng)網(wǎng)絡(luò)曲線擬合的時候沒問題,預(yù)測的時候誤差這么大?

這是由于神經(jīng)網(wǎng)絡(luò)的特性造成的,與MATLAB無關(guān)。

一方面,如果您的網(wǎng)絡(luò)層選擇的神經(jīng)元數(shù)和層數(shù)不合適,會導(dǎo)致此結(jié)果;

另一方面,如果您的訓(xùn)練樣本選擇不正確,或者數(shù)據(jù)表達(dá)過快,也會導(dǎo)致此問題。

在前一方面,根據(jù)經(jīng)驗,后者可以制成參數(shù)可調(diào)的神經(jīng)元。

深度神經(jīng)網(wǎng)絡(luò)是否夸張地過擬合了?

這不可能是一樣的。

1. 過度裝配可分為許多情況。一是現(xiàn)在的情況太多了。這種神經(jīng)網(wǎng)絡(luò)能對許多情況給出正確的答案。即使它是過度安裝,你也無法證明它。此外,即使它能工作和排氣,也沒有壞處。

2. 是否過擬合與我們的神經(jīng)網(wǎng)絡(luò)模型和訓(xùn)練集有關(guān)。當(dāng)二者的組合過擬合時,它在訓(xùn)練集上運行良好,在驗證集上也會出現(xiàn)問題?,F(xiàn)在有一些方法可以對訓(xùn)練集的數(shù)據(jù)進(jìn)行預(yù)處理、多次輸入和多次訓(xùn)練。

3. 目前,過度擬合的問題是不可避免的。培訓(xùn)本身就是一種適應(yīng)過程。如果未來在數(shù)學(xué)原理或應(yīng)用這方面有質(zhì)的突破,可能有解決的機(jī)會。

既然使用神經(jīng)網(wǎng)絡(luò)也可以解決分類問題,那SVM、決策樹這些算法還有什么意義呢?

這取決于數(shù)據(jù)量和樣本數(shù)。不同的樣本數(shù)和特征數(shù)據(jù)適合不同的算法。像神經(jīng)網(wǎng)絡(luò)這樣的深度學(xué)習(xí)算法需要訓(xùn)練大量的數(shù)據(jù)集來建立更好的預(yù)測模型。許多大型互聯(lián)網(wǎng)公司更喜歡深度學(xué)習(xí)算法,因為他們獲得的用戶數(shù)據(jù)是數(shù)以億計的海量數(shù)據(jù),這更適合于卷積神經(jīng)網(wǎng)絡(luò)等深度學(xué)習(xí)算法。

如果樣本數(shù)量較少,則更適合使用SVM、決策樹和其他機(jī)器學(xué)習(xí)算法。如果你有一個大的數(shù)據(jù)集,你可以考慮使用卷積神經(jīng)網(wǎng)絡(luò)和其他深度學(xué)習(xí)算法。

以下是一個圖表,用于說明根據(jù)樣本數(shù)量和數(shù)據(jù)集大小選擇的任何機(jī)器學(xué)習(xí)算法。

如果你認(rèn)為它對你有幫助,你可以多表揚,也可以關(guān)注它。謝謝您!