決策樹算法的應(yīng)用場(chǎng)景 決策樹樹算法目前的應(yīng)用場(chǎng)景有哪些?
決策樹樹算法目前的應(yīng)用場(chǎng)景有哪些?這兩個(gè)應(yīng)用場(chǎng)景不太一樣, kd樹在k近鄰優(yōu)化搜索時(shí)用的比較多. 如果非要找不同, 比較典型的應(yīng)該就是: kd樹在建樹的過程中會(huì)重復(fù)使用各維特征, 而決策樹一般每維度特
決策樹樹算法目前的應(yīng)用場(chǎng)景有哪些?
這兩個(gè)應(yīng)用場(chǎng)景不太一樣, kd樹在k近鄰優(yōu)化搜索時(shí)用的比較多. 如果非要找不同, 比較典型的應(yīng)該就是: kd樹在建樹的過程中會(huì)重復(fù)使用各維特征, 而決策樹一般每維度特征只會(huì)被用一次.(連續(xù)特征值是可以重復(fù)使用的,如C4.5)
既然使用神經(jīng)網(wǎng)絡(luò)也可以解決分類問題,那SVM、決策樹這些算法還有什么意義呢?
要看你的數(shù)據(jù)量和樣本數(shù)量,不同的樣本數(shù)量和特征數(shù)據(jù)量適合采用的算法都不一樣。神經(jīng)網(wǎng)絡(luò)等深度學(xué)習(xí)算法需要訓(xùn)練很大的數(shù)據(jù)集才能構(gòu)建比較好的預(yù)測(cè)模型。很多互聯(lián)網(wǎng)大公司比較喜歡深度學(xué)習(xí)算法是他們獲得的用戶數(shù)據(jù)都是數(shù)以億計(jì)的海量數(shù)據(jù),這是比較適合卷積神經(jīng)網(wǎng)絡(luò)等深度學(xué)習(xí)算法。
如果你的樣本數(shù)量很少,比較合適的是使用SVM,決策樹等機(jī)器學(xué)習(xí)算法,如果你的數(shù)據(jù)集比較大,可以考慮使用卷積神經(jīng)網(wǎng)絡(luò)等深度學(xué)習(xí)算法。
這有一個(gè)圖,就是說(shuō)明任何根據(jù)樣本數(shù)量和數(shù)據(jù)集大小來(lái)選擇機(jī)器學(xué)習(xí)算法的。
如果覺得對(duì)您有幫助,可以多多點(diǎn)贊哦,也可以隨手點(diǎn)個(gè)關(guān)注哦,謝謝!