em算法詳細(xì)例子及推導(dǎo) 怎么通俗易懂地解釋EM算法并且舉個(gè)例子?
怎么通俗易懂地解釋EM算法并且舉個(gè)例子?在統(tǒng)計(jì)計(jì)算中,最大期望算法是尋找概率模型中參數(shù)的最大似然估計(jì)或最大后驗(yàn)估計(jì),其中概率模型依賴于不可觀測(cè)的隱變量。在機(jī)器學(xué)習(xí)和計(jì)算機(jī)視覺(jué)的數(shù)據(jù)聚類領(lǐng)域中,最大期望
怎么通俗易懂地解釋EM算法并且舉個(gè)例子?
在統(tǒng)計(jì)計(jì)算中,最大期望算法是尋找概率模型中參數(shù)的最大似然估計(jì)或最大后驗(yàn)估計(jì),其中概率模型依賴于不可觀測(cè)的隱變量。在機(jī)器學(xué)習(xí)和計(jì)算機(jī)視覺(jué)的數(shù)據(jù)聚類領(lǐng)域中,最大期望是常用的。最大期望算法分為兩步:第一步是計(jì)算期望值(E),利用已有的隱變量估計(jì)值計(jì)算隱變量的最大似然估計(jì);第二步是最大化(m),通過(guò)最大化得到的最大似然值計(jì)算參數(shù)值在步驟E中,在步驟m中找到的參數(shù)的估計(jì)值用于下一步驟E,并且該過(guò)程交替進(jìn)行。一般來(lái)說(shuō),EM的算法流程如下:
em算法怎么做聚類?
舉一個(gè)k-means的例子:我們想把一些數(shù)據(jù)分成n類,但是我們不知道這些數(shù)據(jù)的分布,也不知道每個(gè)簇的分布。首先,隨機(jī)初始化多個(gè)聚類中心(EM參數(shù)初始化)。我們假設(shè)這些聚類中心是真實(shí)的聚類,然后根據(jù)距離確定每個(gè)樣本的屬性。(步驟e)3。我們根據(jù)每個(gè)樣本的屬性更新聚類中心。第e步是確定隱變量的值,第m步是使似然函數(shù)最大化,使隱變量最有可能向我們的數(shù)據(jù)分布。