神經網絡需要的數據量 既然使用神經網絡也可以解決分類問題,那SVM、決策樹這些算法還有什么意義呢?
既然使用神經網絡也可以解決分類問題,那SVM、決策樹這些算法還有什么意義呢?這取決于數據量和樣本數。不同的樣本數和特征數據適合不同的算法。像神經網絡這樣的深度學習算法需要訓練大量的數據集來建立更好的預
既然使用神經網絡也可以解決分類問題,那SVM、決策樹這些算法還有什么意義呢?
這取決于數據量和樣本數。不同的樣本數和特征數據適合不同的算法。像神經網絡這樣的深度學習算法需要訓練大量的數據集來建立更好的預測模型。許多大型互聯(lián)網公司更喜歡深度學習算法,因為他們獲得的用戶數據是數以億計的海量數據,這更適合于卷積神經網絡等深度學習算法。
如果樣本數量較少,則更適合使用SVM、決策樹和其他機器學習算法。如果你有一個大的數據集,你可以考慮使用卷積神經網絡和其他深度學習算法。
以下是一個圖表,用于說明根據樣本數量和數據集大小選擇的任何機器學習算法。
如果你認為它對你有幫助,你可以多表揚,也可以關注它。謝謝您
用同一數據集訓練神經網絡,每次訓練結果不一樣,有時正確率很高,有時很低,為什么?
其實這個問題的實質是,如果我們用機器學習算法對數據集上的數據模型進行一次訓練,保存模型,然后用同樣的算法和同樣的數據集以及數據排序對其進行再次訓練,那么第一個模型和第二個模型是一樣的嗎?
這可能是因為神經網絡用增益或權重的隨機值初始化,然后每個模擬在訓練階段有不同的起點。如果您希望始終保持相同的初始權重,可以嘗試為初始權重修復種子以消除問題。
如果我們深入研究這個問題,我們可以根據ml算法的“確定性”來對其進行分類。當從同一個數據集進行訓練時:
一個是總是生成相同的模型,并且記錄以相同的順序呈現(xiàn);
另一個是總是生成不同的模型,并且記錄順序不同。
在實踐中,大多數是“不確定的”。模型變化的原因可能是機器學習算法本身存在隨機游走、不同權值的隨機初始化、不同分量的概率分布抽樣來分配優(yōu)化函數。
雖然模型的“不確定性”可能會對單個訓練結果造成干擾,但我們也可以用“不確定性”來確認模型的穩(wěn)定性,如決策樹、支持向量機(SVM)、神經網絡等,最終可以通過多次迭代來確認模型的穩(wěn)定性。