卷積神經(jīng)網(wǎng)絡算法 cnn卷積神經(jīng)網(wǎng)絡中的卷積核怎么確定?
cnn卷積神經(jīng)網(wǎng)絡中的卷積核怎么確定?從模型中學習卷積參數(shù),手動確定卷積核的大小和數(shù)目。二維卷積核的大小通常是奇數(shù),例如1*1、3*3、5*5、7*7。卷積核數(shù)是網(wǎng)絡中的信道數(shù)。常用的是128 256
cnn卷積神經(jīng)網(wǎng)絡中的卷積核怎么確定?
從模型中學習卷積參數(shù),手動確定卷積核的大小和數(shù)目。二維卷積核的大小通常是奇數(shù),例如1*1、3*3、5*5、7*7。卷積核數(shù)是網(wǎng)絡中的信道數(shù)。常用的是128 256 512,需要根據(jù)具體任務來確定。
另外,近年來,神經(jīng)網(wǎng)絡的自動搜索結構非常流行。最著名的是Google的nasnet,它使用一些啟發(fā)式遍歷來尋找特定數(shù)據(jù)集的最佳網(wǎng)絡結構。卷積神經(jīng)網(wǎng)絡結構
2。卷積神經(jīng)網(wǎng)絡的發(fā)展歷史
3。反向誤差傳播
用訓練集對卷積神經(jīng)網(wǎng)絡(CNN)進行訓練時,最終使卷積神經(jīng)網(wǎng)絡的前向性更好,計算損失函數(shù),然后根據(jù)鏈導數(shù)規(guī)則更新CNN的權值參數(shù)。這是調整各層網(wǎng)絡和卷積核的特征抽取器的參數(shù)(各層的特征和功能不同)。
訓練是為了使整個卷積神經(jīng)網(wǎng)絡的特征提取效果更好(越來越適合于訓練集),所以訓練后的卷積神經(jīng)網(wǎng)絡可以提取訓練集的特征。
運行測試集的目的是測試特征提取器的能力。此時,通過訓練集對CNN各層的參數(shù)進行訓練,可以提取出相似訓練集的參數(shù)(圖像、聲音、文本)。此時,我們需要再次運行測試集來測試CNN的特征提取能力。
數(shù)據(jù)集:機器學習任務中使用的一組數(shù)據(jù),每個數(shù)據(jù)集稱為一個樣本。反映樣品在某一方面的性能或性質的項目或屬性稱為特征。
訓練集:訓練過程中使用的數(shù)據(jù)集,其中每個訓練樣本稱為訓練樣本。從數(shù)據(jù)中學習模型的過程稱為學習(訓練)。
測試集:學習模型后,將其用于預測的過程稱為測試,使用的數(shù)據(jù)集稱為測試集,每個樣本稱為測試樣本。
卷積神經(jīng)網(wǎng)絡作為特征提取器,用訓練集訓練好的神經(jīng)網(wǎng)絡可以提取訓練集的特征嗎?還是只能提取測試集的?
我們通??吹降木矸e濾波器原理圖是這樣的:
這實際上是卷積濾波器的“展平”或“展平”。例如,上圖中的粉紅色卷積濾波器是3x3x3,即長3,寬3,深3。然而,在圖中,它是在兩個維度中繪制的-深度被省略。
.由于卷積濾波器的深度與輸入圖像的深度相同,所以原理圖中沒有繪制深度。如果同時繪制深度,效果如下:
(圖片來源:mlnotebook)
如上所述,卷積濾波器的深度與輸入圖像的深度相同,即3。
順便說一下,輸入圖像深度是3,因為輸入圖像是彩色圖像,深度是3,分別是R、G和b值。
(圖片來源:mlnotebook)
總之,卷積濾波器的深度應該與輸入數(shù)據(jù)的深度一致。
如何理解卷積神經(jīng)網(wǎng)絡里卷積過濾器的深度問題?
卷積神經(jīng)網(wǎng)絡通過用戶設計的損失融合(分類往往是交叉的)計算實際標簽和預測標簽之間的差異,使用梯度反向傳播最小化損失,并更新卷積核參數(shù)以生成新的預測值。重復此過程,直到培訓結束。