dc.contributor.advisor | Kopa, Miloš | |
dc.creator | Vondráček, Jakub | |
dc.date.accessioned | 2023-07-24T15:12:52Z | |
dc.date.available | 2023-07-24T15:12:52Z | |
dc.date.issued | 2023 | |
dc.identifier.uri | http://hdl.handle.net/20.500.11956/182211 | |
dc.description.abstract | This thesis deals with multistage stochastic programs and explores the dependence of the obtained objective value on the chosen structure of the scenario tree. In particular, the scenario trees are built using the moment matching method, a multistage mean-CVaR model is formulated and a reinforcement learning agent is trained on a set of historical financial data to choose the best scenario tree structure for the mean-CVaR model. For this purpose, we implemented a custom reinforcement learning environment. Further an inclusion of a penalty term in the reward obtained by the agent is proposed to avoid scenario trees that are too complex. The reinforcement learning agent is then evaluated against an agent that chooses the scenario tree structure at random and outperforms the random agent. Further the structure of scenario trees chosen by the reinforcement learning agent is analyzed. 1 | en_US |
dc.description.abstract | Tato práce se zabývá vícestupňovými stochastickými programy a zkoumá závislost hodnoty účelové funkce na struktuře vybraného scénářového stromu. Scénářové stromy jsou tvořeny moment matching metodou, je formulován mean-CVaR model a dále na historických finančních datech je natrénován agent pomocí hlubokého zpětnovazebního učení za účelem volby co nejlepší možné struktury scénářového stromu pro mean-CVaR model. Pro tento účel jsme naimplementovali vlastní prostředí pro trénování zpětnovazeb- ního agenta. Dále jsme navrhli přidání penalizace do odměny agenta za účelem penalizace stromů s moc složitou strukturou. Zpětnovazebního agenta jsme potom porovnali s agen- tem, který volí strukturu stromu náhodně a ukázali jsme, že zpětnovazební agent dosa- huje lepších výsledků. Dále jsme analyzovali strukturu stromů zvolených zpětnovazebním agentem. 1 | cs_CZ |
dc.language | English | cs_CZ |
dc.language.iso | en_US | |
dc.publisher | Univerzita Karlova, Matematicko-fyzikální fakulta | cs_CZ |
dc.subject | Stochastic optimization|Multistage problem|Reinforcement learning | en_US |
dc.subject | Stochastická optimalizace|Vícestupňová úloha|Zpětnovazební učení | cs_CZ |
dc.title | Optimal choice of scenario tree using Reinforcement learning | en_US |
dc.type | diplomová práce | cs_CZ |
dcterms.created | 2023 | |
dcterms.dateAccepted | 2023-06-15 | |
dc.description.department | Katedra pravděpodobnosti a matematické statistiky | cs_CZ |
dc.description.department | Department of Probability and Mathematical Statistics | en_US |
dc.description.faculty | Faculty of Mathematics and Physics | en_US |
dc.description.faculty | Matematicko-fyzikální fakulta | cs_CZ |
dc.identifier.repId | 234642 | |
dc.title.translated | Optimální volba scénářového stromu za použití zpětnovazebního učení | cs_CZ |
dc.contributor.referee | Branda, Martin | |
thesis.degree.name | Mgr. | |
thesis.degree.level | navazující magisterské | cs_CZ |
thesis.degree.discipline | Pravděpodobnost, matematická statistika a ekonometrie | cs_CZ |
thesis.degree.discipline | Probability, Mathematical Statistics and Econometrics | en_US |
thesis.degree.program | Pravděpodobnost, matematická statistika a ekonometrie | cs_CZ |
thesis.degree.program | Probability, Mathematical Statistics and Econometrics | en_US |
uk.thesis.type | diplomová práce | cs_CZ |
uk.taxonomy.organization-cs | Matematicko-fyzikální fakulta::Katedra pravděpodobnosti a matematické statistiky | cs_CZ |
uk.taxonomy.organization-en | Faculty of Mathematics and Physics::Department of Probability and Mathematical Statistics | en_US |
uk.faculty-name.cs | Matematicko-fyzikální fakulta | cs_CZ |
uk.faculty-name.en | Faculty of Mathematics and Physics | en_US |
uk.faculty-abbr.cs | MFF | cs_CZ |
uk.degree-discipline.cs | Pravděpodobnost, matematická statistika a ekonometrie | cs_CZ |
uk.degree-discipline.en | Probability, Mathematical Statistics and Econometrics | en_US |
uk.degree-program.cs | Pravděpodobnost, matematická statistika a ekonometrie | cs_CZ |
uk.degree-program.en | Probability, Mathematical Statistics and Econometrics | en_US |
thesis.grade.cs | Výborně | cs_CZ |
thesis.grade.en | Excellent | en_US |
uk.abstract.cs | Tato práce se zabývá vícestupňovými stochastickými programy a zkoumá závislost hodnoty účelové funkce na struktuře vybraného scénářového stromu. Scénářové stromy jsou tvořeny moment matching metodou, je formulován mean-CVaR model a dále na historických finančních datech je natrénován agent pomocí hlubokého zpětnovazebního učení za účelem volby co nejlepší možné struktury scénářového stromu pro mean-CVaR model. Pro tento účel jsme naimplementovali vlastní prostředí pro trénování zpětnovazeb- ního agenta. Dále jsme navrhli přidání penalizace do odměny agenta za účelem penalizace stromů s moc složitou strukturou. Zpětnovazebního agenta jsme potom porovnali s agen- tem, který volí strukturu stromu náhodně a ukázali jsme, že zpětnovazební agent dosa- huje lepších výsledků. Dále jsme analyzovali strukturu stromů zvolených zpětnovazebním agentem. 1 | cs_CZ |
uk.abstract.en | This thesis deals with multistage stochastic programs and explores the dependence of the obtained objective value on the chosen structure of the scenario tree. In particular, the scenario trees are built using the moment matching method, a multistage mean-CVaR model is formulated and a reinforcement learning agent is trained on a set of historical financial data to choose the best scenario tree structure for the mean-CVaR model. For this purpose, we implemented a custom reinforcement learning environment. Further an inclusion of a penalty term in the reward obtained by the agent is proposed to avoid scenario trees that are too complex. The reinforcement learning agent is then evaluated against an agent that chooses the scenario tree structure at random and outperforms the random agent. Further the structure of scenario trees chosen by the reinforcement learning agent is analyzed. 1 | en_US |
uk.file-availability | V | |
uk.grantor | Univerzita Karlova, Matematicko-fyzikální fakulta, Katedra pravděpodobnosti a matematické statistiky | cs_CZ |
thesis.grade.code | 1 | |
dc.contributor.consultant | Kozmík, Karel | |
uk.publication-place | Praha | cs_CZ |
uk.thesis.defenceStatus | O | |