Zobrazit minimální záznam

Stochastic Dynamic Programming Problems: Theory and Applications.
Úlohy stochastického dynamického programování: teorie a aplikace
dc.contributor.advisorSladký, Karel
dc.creatorLendel, Gabriel
dc.date.accessioned2017-05-07T22:21:19Z
dc.date.available2017-05-07T22:21:19Z
dc.date.issued2012
dc.identifier.urihttp://hdl.handle.net/20.500.11956/46656
dc.description.abstractNázov práce: Úlohy stochastického dynamického programování: teorie a aplikace Autor: Gabriel Lendel Katedra: Katedra pravděpodobnosti a matematické statistiky Vedúci diplomovej práce: Ing. Karel Sladký CSc. e-mail vedúceho: sladky@utia.cas.cz Abstrakt: V predloženej práci študujeme riadené Markovove ret'azce s ohodnotením, ktoré umožňujú modelovat' dynamické systémy, ktorých správanie je čiastočne ná- hodné a čiastočne pod kontrolou. Zaoberáme sa zostavením iteračných postupov, kto- rých cielom je nájst' riadenie systému tak, aby bolo optimálne alebo skoro optimálne vzhl'adom k zvolenému kritériu. Konkrétne v práci skúmame hlavne úlohu nájdenia riadenia, ktoré je optimálne vzhl'adom k celkovému očakávanému diskontovanému výnosu alebo priemernému očakávanému výnosu, či pre diskrétne alebo spojité sys- témy. Študujeme algoritmy iterujúce riadenie (policy iteration) a aproximatívne algo- ritmy iterujúce hodnotu (value iteration). Pre vybrané postupy uvádzame numerickú analýzu konkrétnych problémov. Kl'účové slová: Stochastické dynamické programovanie, riadené Markovove ret'azce s ohodnotením, policy iteration, value iterationcs_CZ
dc.description.abstractTitle: Stochastic Dynamic Programming Problems: Theory and Applications Author: Gabriel Lendel Department: Department of Probability and Mathematical Statistics Supervisor: Ing. Karel Sladký CSc. Supervisor's e-mail address: sladky@utia.cas.cz Abstract: In the present work we study Markov decision processes which provide a mathematical framework for modeling decision-making in situations where outcomes are partly random and partly under the control of a decision maker. We study iterative procedures for finding policy that is optimal or nearly optimal with respect to the selec- ted criteria. Specifically, we mainly examine the task of finding a policy that is optimal with respect to the total expected discounted reward or the average expected reward for discrete or continuous systems. In the work we study policy iteration algorithms and aproximative value iteration algorithms. We give numerical analysis of specific problems. Keywords: Stochastic dynamic programming, Markov decision process, policy ite- ration, value iterationen_US
dc.languageSlovenčinacs_CZ
dc.language.isosk_SK
dc.publisherUniverzita Karlova, Matematicko-fyzikální fakultacs_CZ
dc.subjectstochastické dynamické programovaniecs_CZ
dc.subjectriadené Markovove reťazce s ohodnotenímcs_CZ
dc.subjectpolicy iterationcs_CZ
dc.subjectvalue iterationcs_CZ
dc.subjectstochastic dynamic programmingen_US
dc.subjectMarkov decision processesen_US
dc.subjectpolicy iterationen_US
dc.subjectvalue iterationen_US
dc.titleÚlohy stochastického dynamického programování: teorie a aplikacesk_SK
dc.typediplomová prácecs_CZ
dcterms.created2012
dcterms.dateAccepted2012-01-24
dc.description.departmentDepartment of Probability and Mathematical Statisticsen_US
dc.description.departmentKatedra pravděpodobnosti a matematické statistikycs_CZ
dc.description.facultyFaculty of Mathematics and Physicsen_US
dc.description.facultyMatematicko-fyzikální fakultacs_CZ
dc.identifier.repId76880
dc.title.translatedStochastic Dynamic Programming Problems: Theory and Applications.en_US
dc.title.translatedÚlohy stochastického dynamického programování: teorie a aplikacecs_CZ
dc.contributor.refereeLachout, Petr
dc.identifier.aleph001427117
thesis.degree.nameMgr.
thesis.degree.levelnavazující magisterskécs_CZ
thesis.degree.disciplineProbability, mathematical statistics and econometricsen_US
thesis.degree.disciplinePravděpodobnost, matematická statistika a ekonometriecs_CZ
thesis.degree.programMathematicsen_US
thesis.degree.programMatematikacs_CZ
uk.thesis.typediplomová prácecs_CZ
uk.taxonomy.organization-csMatematicko-fyzikální fakulta::Katedra pravděpodobnosti a matematické statistikycs_CZ
uk.taxonomy.organization-enFaculty of Mathematics and Physics::Department of Probability and Mathematical Statisticsen_US
uk.faculty-name.csMatematicko-fyzikální fakultacs_CZ
uk.faculty-name.enFaculty of Mathematics and Physicsen_US
uk.faculty-abbr.csMFFcs_CZ
uk.degree-discipline.csPravděpodobnost, matematická statistika a ekonometriecs_CZ
uk.degree-discipline.enProbability, mathematical statistics and econometricsen_US
uk.degree-program.csMatematikacs_CZ
uk.degree-program.enMathematicsen_US
thesis.grade.csVýborněcs_CZ
thesis.grade.enExcellenten_US
uk.abstract.csNázov práce: Úlohy stochastického dynamického programování: teorie a aplikace Autor: Gabriel Lendel Katedra: Katedra pravděpodobnosti a matematické statistiky Vedúci diplomovej práce: Ing. Karel Sladký CSc. e-mail vedúceho: sladky@utia.cas.cz Abstrakt: V predloženej práci študujeme riadené Markovove ret'azce s ohodnotením, ktoré umožňujú modelovat' dynamické systémy, ktorých správanie je čiastočne ná- hodné a čiastočne pod kontrolou. Zaoberáme sa zostavením iteračných postupov, kto- rých cielom je nájst' riadenie systému tak, aby bolo optimálne alebo skoro optimálne vzhl'adom k zvolenému kritériu. Konkrétne v práci skúmame hlavne úlohu nájdenia riadenia, ktoré je optimálne vzhl'adom k celkovému očakávanému diskontovanému výnosu alebo priemernému očakávanému výnosu, či pre diskrétne alebo spojité sys- témy. Študujeme algoritmy iterujúce riadenie (policy iteration) a aproximatívne algo- ritmy iterujúce hodnotu (value iteration). Pre vybrané postupy uvádzame numerickú analýzu konkrétnych problémov. Kl'účové slová: Stochastické dynamické programovanie, riadené Markovove ret'azce s ohodnotením, policy iteration, value iterationcs_CZ
uk.abstract.enTitle: Stochastic Dynamic Programming Problems: Theory and Applications Author: Gabriel Lendel Department: Department of Probability and Mathematical Statistics Supervisor: Ing. Karel Sladký CSc. Supervisor's e-mail address: sladky@utia.cas.cz Abstract: In the present work we study Markov decision processes which provide a mathematical framework for modeling decision-making in situations where outcomes are partly random and partly under the control of a decision maker. We study iterative procedures for finding policy that is optimal or nearly optimal with respect to the selec- ted criteria. Specifically, we mainly examine the task of finding a policy that is optimal with respect to the total expected discounted reward or the average expected reward for discrete or continuous systems. In the work we study policy iteration algorithms and aproximative value iteration algorithms. We give numerical analysis of specific problems. Keywords: Stochastic dynamic programming, Markov decision process, policy ite- ration, value iterationen_US
uk.file-availabilityV
uk.publication.placePrahacs_CZ
uk.grantorUniverzita Karlova, Matematicko-fyzikální fakulta, Katedra pravděpodobnosti a matematické statistikycs_CZ
dc.identifier.lisID990014271170106986


Soubory tohoto záznamu

Thumbnail
Thumbnail
Thumbnail
Thumbnail
Thumbnail
Thumbnail
Thumbnail

Tento záznam se objevuje v následujících sbírkách

Zobrazit minimální záznam


© 2017 Univerzita Karlova, Ústřední knihovna, Ovocný trh 560/5, 116 36 Praha 1; email: admin-repozitar [at] cuni.cz

Za dodržení všech ustanovení autorského zákona jsou zodpovědné jednotlivé složky Univerzity Karlovy. / Each constituent part of Charles University is responsible for adherence to all provisions of the copyright law.

Upozornění / Notice: Získané informace nemohou být použity k výdělečným účelům nebo vydávány za studijní, vědeckou nebo jinou tvůrčí činnost jiné osoby než autora. / Any retrieved information shall not be used for any commercial purposes or claimed as results of studying, scientific or any other creative activities of any person other than the author.

DSpace software copyright © 2002-2015  DuraSpace
Theme by 
@mire NV