bp神經(jīng)網(wǎng)絡(luò)過擬合解決方法 BP神經(jīng)網(wǎng)絡(luò)輸入層神經(jīng)元個(gè)數(shù)是越多越好嗎?
BP神經(jīng)網(wǎng)絡(luò)輸入層神經(jīng)元個(gè)數(shù)是越多越好嗎?對(duì)于非線性擬合,隱層一般為1-2層;至于隱層神經(jīng)元的個(gè)數(shù),越多越好,過多可能出現(xiàn)過擬合現(xiàn)象,如果您想嘗試,也可以參考一些經(jīng)驗(yàn)公式。深度神經(jīng)網(wǎng)絡(luò)是否夸張地過擬合
BP神經(jīng)網(wǎng)絡(luò)輸入層神經(jīng)元個(gè)數(shù)是越多越好嗎?
對(duì)于非線性擬合,隱層一般為1-2層;至于隱層神經(jīng)元的個(gè)數(shù),越多越好,過多可能出現(xiàn)過擬合現(xiàn)象,如果您想嘗試,也可以參考一些經(jīng)驗(yàn)公式。
深度神經(jīng)網(wǎng)絡(luò)是否夸張地過擬合了?
這不可能是一樣的。
1. 過度裝配可分為許多情況。一是現(xiàn)在的情況太多了。這種神經(jīng)網(wǎng)絡(luò)能對(duì)許多情況給出正確的答案。即使它是過度安裝,你也無法證明它。此外,即使它能工作和排氣,也沒有壞處。
2. 是否過擬合與我們的神經(jīng)網(wǎng)絡(luò)模型和訓(xùn)練集有關(guān)。當(dāng)二者的組合過擬合時(shí),它在訓(xùn)練集上運(yùn)行良好,在驗(yàn)證集上也會(huì)出現(xiàn)問題。現(xiàn)在有一些方法可以對(duì)訓(xùn)練集的數(shù)據(jù)進(jìn)行預(yù)處理、多次輸入和多次訓(xùn)練。
3. 目前,過度擬合的問題是不可避免的。培訓(xùn)本身就是一種適應(yīng)過程。如果未來在數(shù)學(xué)原理或應(yīng)用這方面有質(zhì)的突破,可能有解決的機(jī)會(huì)。
BP神經(jīng)網(wǎng)絡(luò)是不是隱含層節(jié)點(diǎn)數(shù)越多越好,還是只要最優(yōu)就行?
在BP網(wǎng)絡(luò)中,隱層節(jié)點(diǎn)的選取非常重要,它不僅對(duì)神經(jīng)網(wǎng)絡(luò)模型的性能有很大的影響,而且是訓(xùn)練中“過擬合”的直接原因。然而,理論上還沒有一種科學(xué)、通用的方法來確定隱層節(jié)點(diǎn)的個(gè)數(shù)。目前,文獻(xiàn)中提出的確定隱層節(jié)點(diǎn)個(gè)數(shù)的計(jì)算公式大多針對(duì)訓(xùn)練樣本數(shù)目任意的情況,大多針對(duì)最不利的情況,在一般工程實(shí)踐中難以滿足,不宜采用。實(shí)際上,各種計(jì)算公式得到的隱層節(jié)點(diǎn)數(shù)有時(shí)會(huì)相差數(shù)倍甚至數(shù)百倍。為了盡可能避免訓(xùn)練中的“過擬合”現(xiàn)象,保證足夠高的網(wǎng)絡(luò)性能和泛化能力,確定隱層節(jié)點(diǎn)數(shù)的最基本原則是在滿足精度要求的前提下盡量選擇緊湊的結(jié)構(gòu),即,選擇盡可能少的隱藏層節(jié)點(diǎn)。研究表明,隱層節(jié)點(diǎn)數(shù)不僅與輸入/輸出層節(jié)點(diǎn)數(shù)有關(guān),還與待解決問題的復(fù)雜性、傳遞函數(shù)的類型和樣本數(shù)據(jù)的特征有關(guān)。在確定隱層節(jié)點(diǎn)數(shù)時(shí),必須滿足以下條件:(1)隱層節(jié)點(diǎn)數(shù)必須小于n-1(其中n為訓(xùn)練樣本數(shù)),否則,網(wǎng)絡(luò)模型的系統(tǒng)誤差與訓(xùn)練樣本的特性無關(guān),趨于零,即,該網(wǎng)絡(luò)模型沒有泛化能力,沒有實(shí)用價(jià)值。同樣,可以推斷輸入層中的節(jié)點(diǎn)(變量)數(shù)量必須小于n-1。(2) 訓(xùn)練樣本數(shù)必須大于網(wǎng)絡(luò)模型的連接權(quán)重,一般為2-10倍。否則,必須將樣本分成若干部分,采用“輪流訓(xùn)練”的方法得到可靠的神經(jīng)網(wǎng)絡(luò)模型。總之,如果隱層節(jié)點(diǎn)數(shù)量太少,網(wǎng)絡(luò)可能根本無法訓(xùn)練,或者網(wǎng)絡(luò)性能很差;如果隱層節(jié)點(diǎn)數(shù)量太多,雖然可以減少網(wǎng)絡(luò)的系統(tǒng)誤差,但一方面,網(wǎng)絡(luò)訓(xùn)練時(shí)間會(huì)延長;另一方面,訓(xùn)練時(shí)間會(huì)變長容易陷入局部極小而得不到最好,這也是訓(xùn)練中“過度擬合”的內(nèi)在原因。因此,在綜合考慮網(wǎng)絡(luò)結(jié)構(gòu)的復(fù)雜性和誤差大小的基礎(chǔ)上,采用節(jié)點(diǎn)刪除法和擴(kuò)展法確定合理的隱層節(jié)點(diǎn)數(shù)。
請教大牛神經(jīng)網(wǎng)絡(luò)的過擬合問題?
你的問題很模糊。你想知道神經(jīng)網(wǎng)絡(luò)的過擬合是什么樣的嗎?為什么會(huì)有過擬合。對(duì)于第一個(gè)問題,神經(jīng)網(wǎng)絡(luò)的過擬合類似于支持向量機(jī)、高斯混合模型等建模方法的過擬合,說明訓(xùn)練數(shù)據(jù)集的建模效果很好,而測試數(shù)據(jù)集的建模效果很差,由于強(qiáng)學(xué)習(xí)能力是預(yù)測模型中的噪聲會(huì)湮滅有用信息,導(dǎo)致泛化能力差。對(duì)于第二個(gè)問題,產(chǎn)生上述現(xiàn)象的主要原因是隱層節(jié)點(diǎn)過多(隱層節(jié)點(diǎn)越多,學(xué)習(xí)能力越強(qiáng)),這使得預(yù)測模型在訓(xùn)練過程中挖掘訓(xùn)練數(shù)據(jù)集中的噪聲,即噪聲會(huì)湮滅有用信息。因此,在使用神經(jīng)網(wǎng)絡(luò)建模時(shí),必須處理模型過擬合的問題。一方面,我們可以增加樣本數(shù)據(jù)集,另一方面,我們可以使用交叉驗(yàn)證來選擇適當(dāng)數(shù)量的隱層節(jié)點(diǎn),在精度和泛化能力之間做出權(quán)衡。最常用的方法是加入正則化項(xiàng),在一定程度上可以防止模型過擬合的問題。(機(jī)器學(xué)習(xí)算法和python學(xué)習(xí))