pca降維后的數(shù)據(jù)怎么理解 【人臉識(shí)別】用pca降維 fisher分類(lèi)器 yale數(shù)據(jù)集,用matlab實(shí)現(xiàn)?
【人臉識(shí)別】用pca降維 fisher分類(lèi)器 yale數(shù)據(jù)集,用matlab實(shí)現(xiàn)?您不清楚流程,不知道需要什么幫助。耶魯數(shù)據(jù)不知道存在哪些功能。如果主成分分析降到二維,這個(gè)特征空間描述是否足以區(qū)分不同
【人臉識(shí)別】用pca降維 fisher分類(lèi)器 yale數(shù)據(jù)集,用matlab實(shí)現(xiàn)?
您不清楚流程,不知道需要什么幫助。
耶魯數(shù)據(jù)不知道存在哪些功能。如果主成分分析降到二維,這個(gè)特征空間描述是否足以區(qū)分不同的人臉?我從來(lái)沒(méi)有用過(guò)它,只是一個(gè)簡(jiǎn)單的問(wèn)題從來(lái)沒(méi)有用過(guò)。似乎與PCA和LDA有一定關(guān)系。這似乎是一種映射降維。它似乎是一個(gè)非常簡(jiǎn)單的分類(lèi)器。這樣的分類(lèi)器效果好不好。(如果你看你的二維特征空間,這似乎不是問(wèn)題。)如果是二維人臉識(shí)別,我們可以先考慮子圖像分割,然后創(chuàng)建子圖像權(quán)重系數(shù)矩,然后子圖像矩陣取高特征值,或者用DCT矩陣取大特征,利用特征值和權(quán)矩生成特征空間。然后利用模糊神經(jīng)網(wǎng)絡(luò)對(duì)數(shù)據(jù)進(jìn)行訓(xùn)練,得到識(shí)別系統(tǒng)?;蛘吣阋部梢杂肂P遺傳算法,學(xué)校使用的ORL數(shù)據(jù)庫(kù)似乎有90分以上的識(shí)別率。
PCACOV函數(shù)的輸入?yún)?shù)是數(shù)據(jù)的協(xié)方差矩陣。它是一個(gè)方陣。2、計(jì)算出矩陣對(duì)應(yīng)的協(xié)方差矩陣,然后調(diào)用PCACOV函數(shù);3、程序中的特征值按從大到小的順序排列,也可以根據(jù)索引找到相應(yīng)的特征向量。
請(qǐng)教如何用pcacov對(duì)矩陣進(jìn)行降維處理?
K-L變換是離散變換的縮寫(xiě),也稱(chēng)為主成分變換(PCA)。
多光譜圖像X的線性組合,利用K-L變換矩陣a產(chǎn)生一組新的多光譜圖像y,表達(dá)式為:y=ax,其中X為變換前多光譜空間的像素向量;y為變換前霍德主成分空間的像素向量;a是變換矩陣,是X空間協(xié)方差矩陣∑X的特征向量矩陣的轉(zhuǎn)置矩陣,從幾何角度看,變換后的主分量空間坐標(biāo)系相對(duì)于原多光譜空間坐標(biāo)系旋轉(zhuǎn)一個(gè)角度,新坐標(biāo)系的坐標(biāo)軸必須指向數(shù)據(jù)信息量大的方向。就新譜帶的主成分而言,它們包含了不同的信息,并呈現(xiàn)出下降的趨勢(shì)。我建議大家看一下張崢、王艷萍、薛貴祥等主編的《數(shù)字圖像處理與機(jī)器視覺(jué)》第十章。