卖逼视频免费看片|狼人就干网中文字慕|成人av影院导航|人妻少妇精品无码专区二区妖婧|亚洲丝袜视频玖玖|一区二区免费中文|日本高清无码一区|国产91无码小说|国产黄片子视频91sese日韩|免费高清无码成人网站入口

深度神經(jīng)網(wǎng)絡(luò)原理 深度神經(jīng)網(wǎng)絡(luò)是否夸張地過擬合了?

深度神經(jīng)網(wǎng)絡(luò)是否夸張地過擬合了?這不可能是一樣的。1. 過度裝配可分為許多情況。一是現(xiàn)在的情況太多了。這種神經(jīng)網(wǎng)絡(luò)能對許多情況給出正確的答案。即使它是過度安裝,你也無法證明它。此外,即使它能工作和排氣

深度神經(jīng)網(wǎng)絡(luò)是否夸張地過擬合了?

這不可能是一樣的。

1. 過度裝配可分為許多情況。一是現(xiàn)在的情況太多了。這種神經(jīng)網(wǎng)絡(luò)能對許多情況給出正確的答案。即使它是過度安裝,你也無法證明它。此外,即使它能工作和排氣,也沒有壞處。

2. 是否過擬合與我們的神經(jīng)網(wǎng)絡(luò)模型和訓(xùn)練集有關(guān)。當(dāng)二者的組合過擬合時(shí),它在訓(xùn)練集上運(yùn)行良好,在驗(yàn)證集上也會(huì)出現(xiàn)問題。現(xiàn)在有一些方法可以對訓(xùn)練集的數(shù)據(jù)進(jìn)行預(yù)處理、多次輸入和多次訓(xùn)練。

3. 目前,過度擬合的問題是不可避免的。培訓(xùn)本身就是一種適應(yīng)過程。如果未來在數(shù)學(xué)原理或應(yīng)用這方面有質(zhì)的突破,可能有解決的機(jī)會(huì)。

既然使用神經(jīng)網(wǎng)絡(luò)也可以解決分類問題,那SVM、決策樹這些算法還有什么意義呢?

這取決于數(shù)據(jù)量和樣本數(shù)。不同的樣本數(shù)和特征數(shù)據(jù)適合不同的算法。像神經(jīng)網(wǎng)絡(luò)這樣的深度學(xué)習(xí)算法需要訓(xùn)練大量的數(shù)據(jù)集來建立更好的預(yù)測模型。許多大型互聯(lián)網(wǎng)公司更喜歡深度學(xué)習(xí)算法,因?yàn)樗麄儷@得的用戶數(shù)據(jù)是數(shù)以億計(jì)的海量數(shù)據(jù),這更適合于卷積神經(jīng)網(wǎng)絡(luò)等深度學(xué)習(xí)算法。

如果樣本數(shù)量較少,則更適合使用SVM、決策樹和其他機(jī)器學(xué)習(xí)算法。如果你有一個(gè)大的數(shù)據(jù)集,你可以考慮使用卷積神經(jīng)網(wǎng)絡(luò)和其他深度學(xué)習(xí)算法。

以下是一個(gè)圖表,用于說明根據(jù)樣本數(shù)量和數(shù)據(jù)集大小選擇的任何機(jī)器學(xué)習(xí)算法。

如果你認(rèn)為它對你有幫助,你可以多表揚(yáng),也可以關(guān)注它。謝謝您

深度學(xué)習(xí)和普通的機(jī)器學(xué)習(xí)有什么區(qū)別?

一張圖片顯示了這種關(guān)系。機(jī)器學(xué)習(xí)是人工智能的重要領(lǐng)域之一,而深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)分支。深度學(xué)習(xí)之所以近年來流行起來,是因?yàn)樗黄屏藗鹘y(tǒng)機(jī)器學(xué)習(xí)無法解決的一些問題。

機(jī)器學(xué)習(xí)的意義在于代替人工完成重復(fù)性工作,識(shí)別出統(tǒng)一的規(guī)則(模式)。但是對于傳統(tǒng)的機(jī)器學(xué)習(xí)來說,特征提取的難度不小(特征可以是像素、位置、方向等)。特征的準(zhǔn)確性將在很大程度上決定大多數(shù)機(jī)器學(xué)習(xí)算法的性能。為了使特征準(zhǔn)確,在特征工程部分需要大量的人力來調(diào)整和改進(jìn)特征。完成這一系列工作的前提是,數(shù)據(jù)集中所包含的信息量是充分的,并且易于識(shí)別。如果不滿足這一前提,傳統(tǒng)的機(jī)器學(xué)習(xí)算法將在信息的雜亂中失去其性能。深度學(xué)習(xí)的應(yīng)用正是基于這個(gè)問題。它的深層神經(jīng)網(wǎng)絡(luò)使它能夠在雜波中學(xué)習(xí),自動(dòng)發(fā)現(xiàn)與任務(wù)相關(guān)的特征(可以看作是自發(fā)學(xué)習(xí)的特征工程),并提取高級(jí)特征,從而大大減少了特征工程部分任務(wù)所花費(fèi)的時(shí)間。

另一個(gè)明顯的區(qū)別是他們對數(shù)據(jù)集大小的偏好。傳統(tǒng)的機(jī)器學(xué)習(xí)在處理規(guī)則完備的小規(guī)模數(shù)據(jù)時(shí)表現(xiàn)出良好的性能,而深度學(xué)習(xí)則表現(xiàn)不好。隨著數(shù)據(jù)集規(guī)模的不斷擴(kuò)大,深度學(xué)習(xí)的效果會(huì)逐漸顯現(xiàn)出來,并變得越來越好。對比如下圖所示。

請教大牛神經(jīng)網(wǎng)絡(luò)的過擬合問題?

可以通過直接減少hidden layer、hidden unit而不是加正則化來解決神經(jīng)網(wǎng)絡(luò)過擬合嗎?

簡單的答案是肯定的。復(fù)雜的答案是不確定的(見下文)。

這個(gè)概念。

(圖片作者:chabacano,許可證:CC by sa 4.0)

從圖像中可以明顯看出,過度擬合的曲線過于曲折(復(fù)雜),對現(xiàn)有數(shù)據(jù)擬合得非常好,但它不能很好地描述數(shù)據(jù)的規(guī)律,因此面對新數(shù)據(jù),我們不得不停下來。

從上面我們得到一個(gè)直覺,過度擬合的模型往往比正確的模型更復(fù)雜。

。您所說的“直接減少隱藏層和隱藏單元的數(shù)量”使網(wǎng)絡(luò)更薄、更窄正是簡化模型的方法。這個(gè)想法沒有問題。

但是,我們可能必須嘗試找出它是否有效。因?yàn)椋话銇碚f,更復(fù)雜的網(wǎng)絡(luò)可能更有表現(xiàn)力。

一般來說,神經(jīng)網(wǎng)絡(luò)仍然是一個(gè)黑匣子。有時(shí),正則化的效果更好,有時(shí)則不然。一些問題可能是復(fù)雜的網(wǎng)絡(luò)工作得很好,另一些問題可能是深度和狹窄的網(wǎng)絡(luò)工作得很好,另一些問題可能是薄而寬的網(wǎng)絡(luò)工作得很好,或者一些問題可能是簡單的網(wǎng)絡(luò)工作得很好。

具體來說,為了解決過擬合問題,除了簡化模型(即您稱之為“直接減少隱藏層、隱藏層、隱藏層”)外,還存在漏項(xiàng)(在某種意義上,我們可以看到模型的某些部分由于簡化模型的繞道而無法工作),以及人為增加稀疏性限制(稀疏性和簡化之間存在模糊關(guān)系)或盡快停止訓(xùn)練。