簡便計算公式大全 層次分析法采用特征根的方法計算出特征向量后,經(jīng)歸一化后就是權(quán)重向量。什么叫歸一化?歸一化需要如何處?
層次分析法采用特征根的方法計算出特征向量后,經(jīng)歸一化后就是權(quán)重向量。什么叫歸一化?歸一化需要如何處?標準化相對簡單,因為特征向量的和不一定是1,所以我們需要將特征向量除以這些向量的和,新的數(shù)字就是權(quán)重
層次分析法采用特征根的方法計算出特征向量后,經(jīng)歸一化后就是權(quán)重向量。什么叫歸一化?歸一化需要如何處?
標準化相對簡單,因為特征向量的和不一定是1,所以我們需要將特征向量除以這些向量的和,新的數(shù)字就是權(quán)重向量。例如:得到的特征向量是(0.6853 0.2213 0.0933),它們的和是0.9999,而不是1,所以需要對它們進行規(guī)格化。分別為6853/0.9999、0.2213/0.9999、0.0933/0.9999。然后四舍五入,最后的數(shù)字是(0.68540.22130.0933),這些值的和是1,所以稱為歸一化。
單位特征向量怎么求?
根據(jù)定義,ax=Cx:A是矩陣,C是特征值,X是特征向量。
矩陣a乘以X表示向量X的變換(旋轉(zhuǎn)或拉伸)(線性變換),此變換的效果是常數(shù)C乘以向量X(僅拉伸)。
通常,找到特征值和特征向量就是找出矩陣只能拉伸哪些向量(當(dāng)然是特征向量),以及矩陣可以拉伸多少(特征值大小)。
在實際中,大型矩陣的特征值不能用特征多項式來計算,這需要耗費大量的資源。然而,對于高階多項式來說,精確的“符號形式”的根很難計算和表達。Abel-rufeni定理證明了高階(5階或更高階)多項式的根不能用n次方單式的根來簡化。
多項式的根估計有有效的算法,但是特征值的小誤差會導(dǎo)致特征向量的大誤差。求特征多項式零點即特征值的一般算法是迭代法。最簡單的方法是冪法:取一個隨機向量V,計算一系列單位向量。
特征向量的簡單求法?
1. 求矩陣的特征值:| a-λe |=0
2。對于每個特征值λ,求系統(tǒng)A1,A2,…,as
3的基本解。屬于特征值λ的a的特征向量是A1,A2,…,as的非零線性組合