bp神經(jīng)網(wǎng)絡(luò)能干什么 神經(jīng)網(wǎng)絡(luò)的BP算法?
神經(jīng)網(wǎng)絡(luò)的BP算法?是的,所有的樣品都要計數(shù)。根據(jù)排序結(jié)果提取樣本,代入BP算法進(jìn)行權(quán)值調(diào)整。還有一些算法是隨機的。每個樣本的順序是不同的,但所有樣本仍然需要參與。唯一可能的區(qū)別是,在標(biāo)準(zhǔn)的BP算法中
神經(jīng)網(wǎng)絡(luò)的BP算法?
是的,所有的樣品都要計數(shù)。根據(jù)排序結(jié)果提取樣本,代入BP算法進(jìn)行權(quán)值調(diào)整。還有一些算法是隨機的。每個樣本的順序是不同的,但所有樣本仍然需要參與。唯一可能的區(qū)別是,在標(biāo)準(zhǔn)的BP算法中,每個輸入樣本必須返回誤差并調(diào)整權(quán)重。這種對每個樣本進(jìn)行輪換訓(xùn)練的方法稱為“單樣本訓(xùn)練”。由于單樣本訓(xùn)練遵循“部門主義”的原則,只對每個樣本產(chǎn)生的誤差進(jìn)行調(diào)整,難免顧此失彼,增加了訓(xùn)練次數(shù),導(dǎo)致收斂速度慢。因此,有另一種方法,即在輸入所有樣本后計算網(wǎng)絡(luò)的總誤差,然后根據(jù)總誤差調(diào)整權(quán)值。這種累積誤差的批處理方法稱為“批訓(xùn)練”或“周期訓(xùn)練”。當(dāng)樣本數(shù)較大時,分批訓(xùn)練的收斂速度比單樣本訓(xùn)練的收斂速度快。