Aplikace EM-algoritmu
Applications of EM-algorithm
bakalářská práce (OBHÁJENO)

Zobrazit/ otevřít
Trvalý odkaz
http://hdl.handle.net/20.500.11956/50240Identifikátory
SIS: 90852
Kolekce
- Kvalifikační práce [11267]
Autor
Vedoucí práce
Oponent práce
Kulich, Michal
Fakulta / součást
Matematicko-fyzikální fakulta
Obor
Obecná matematika
Katedra / ústav / klinika
Katedra pravděpodobnosti a matematické statistiky
Datum obhajoby
5. 9. 2011
Nakladatel
Univerzita Karlova, Matematicko-fyzikální fakultaJazyk
Čeština
Známka
Dobře
Klíčová slova (česky)
EM algoritmus, problém neúplných dat, metoda maximální věrohodnostiKlíčová slova (anglicky)
EM algorithm, incomplete data problem, maximum likelihood methodEM algoritmus je velmi cenným nástrojem pro výpocty statistických problému, kde nám nejsou k dispozici všechna data. Jedná se o iteracní algoritmus, který v prvním kroku hledá odhady chybejících hodnot na základe podoby parametru z predchozí iterace a zadaných dat. Ciní tak pres podmínené strední hodnoty. V další fázi metodami maximální verohodnosti hledá odhad parametru maximalizující logaritmickou verohodnostní funkci, který predá do další iterace. Tento postup je opakován až do bodu, kdy jsou prírustky funkce mezi iteracemi tak malé, že se ukoncení postupu na výsledku závažneji neprojeví. Duležitou charakteristikou je monotónní konvergence za znacne obecných podmínek, ale ta na druhou stranu nepatrí mezi nejrychlejší, a proto je mnohokrát zapotrebí velkého množtví iterací.
EM algorithm is a very valuable tool in solving statistical problems, where the data presented is incomplete. It is an iterative algorithm, which in its first step estimates the missing data based on the parameter estimate from the last iteration and the given data and it does so by using the conditional expectation. In the second step it uses the maximum likelihood estimation to find the value that maximizes the logarithmic likelihood function and passes it along to the next iteration. This is repeated until the point, where the value increment of the logarithmic likelihood function is small enough to stop the algorithm without significant errors. A very important characteristic of this algorithm is its monotone convergence and that it does so under fairly general conditions. However the convergence itself is not very fast, and therefore at times requires a great number of iterations.