dc.contributor.advisor | Branda, Martin | |
dc.creator | Jelínková, Marie | |
dc.date.accessioned | 2022-10-04T17:35:44Z | |
dc.date.available | 2022-10-04T17:35:44Z | |
dc.date.issued | 2022 | |
dc.identifier.uri | http://hdl.handle.net/20.500.11956/175756 | |
dc.description.abstract | The aim of this thesis is solving minimization problems where the objective function is a sum of a differentiable (yet possibly non-convex) and general convex function. We focus on methods of stochastic and projected gradient descent from machine learning. By combining those two approaches we introduce an algorithm for solving such problems. The work is composed in a gradual manner where we firstly define necessary concepts needed for describing RSPG algorithm. Then we proceed to show the convergence of the algorithm for both convex and non-convex objective functions. A short numerical study is also included at the end. 1 | en_US |
dc.description.abstract | Tato práce se zabývá hledáním minima účelové funkce, která je součtem diferenco- vatelné (možno i nekonvexní) a obecné konvexní funkce. Zaměřili jsme se na metody stochastického a projektovaného gradientového sestupu ze strojového učení. Představu- jeme metodu kombinující oba přístupy. Postupně zavedeme potřebné pojmy a představíme RSPG algoritmus schopný řešit daný problém. Dokážeme jeho konvergenci pro konvexní i nekonvexní funkce. Součástí práce je i krátká numerická studie. 1 | cs_CZ |
dc.language | Čeština | cs_CZ |
dc.language.iso | cs_CZ | |
dc.publisher | Univerzita Karlova, Matematicko-fyzikální fakulta | cs_CZ |
dc.subject | machine|learning|optimization|stochastic|gradient|projection | en_US |
dc.subject | strojové|učení|optimalizace|stochastický|gradient|projekce | cs_CZ |
dc.title | Konvergence stochastického gradientu v úlohách strojového učení | cs_CZ |
dc.type | bakalářská práce | cs_CZ |
dcterms.created | 2022 | |
dcterms.dateAccepted | 2022-09-07 | |
dc.description.department | Department of Probability and Mathematical Statistics | en_US |
dc.description.department | Katedra pravděpodobnosti a matematické statistiky | cs_CZ |
dc.description.faculty | Matematicko-fyzikální fakulta | cs_CZ |
dc.description.faculty | Faculty of Mathematics and Physics | en_US |
dc.identifier.repId | 236391 | |
dc.title.translated | Convergence of stochastic gradient descent in machine learning problems | en_US |
dc.contributor.referee | Kozmík, Karel | |
thesis.degree.name | Bc. | |
thesis.degree.level | bakalářské | cs_CZ |
thesis.degree.discipline | General Mathematics | en_US |
thesis.degree.discipline | Obecná matematika | cs_CZ |
thesis.degree.program | General Mathematics | en_US |
thesis.degree.program | Obecná matematika | cs_CZ |
uk.thesis.type | bakalářská práce | cs_CZ |
uk.taxonomy.organization-cs | Matematicko-fyzikální fakulta::Katedra pravděpodobnosti a matematické statistiky | cs_CZ |
uk.taxonomy.organization-en | Faculty of Mathematics and Physics::Department of Probability and Mathematical Statistics | en_US |
uk.faculty-name.cs | Matematicko-fyzikální fakulta | cs_CZ |
uk.faculty-name.en | Faculty of Mathematics and Physics | en_US |
uk.faculty-abbr.cs | MFF | cs_CZ |
uk.degree-discipline.cs | Obecná matematika | cs_CZ |
uk.degree-discipline.en | General Mathematics | en_US |
uk.degree-program.cs | Obecná matematika | cs_CZ |
uk.degree-program.en | General Mathematics | en_US |
thesis.grade.cs | Výborně | cs_CZ |
thesis.grade.en | Excellent | en_US |
uk.abstract.cs | Tato práce se zabývá hledáním minima účelové funkce, která je součtem diferenco- vatelné (možno i nekonvexní) a obecné konvexní funkce. Zaměřili jsme se na metody stochastického a projektovaného gradientového sestupu ze strojového učení. Představu- jeme metodu kombinující oba přístupy. Postupně zavedeme potřebné pojmy a představíme RSPG algoritmus schopný řešit daný problém. Dokážeme jeho konvergenci pro konvexní i nekonvexní funkce. Součástí práce je i krátká numerická studie. 1 | cs_CZ |
uk.abstract.en | The aim of this thesis is solving minimization problems where the objective function is a sum of a differentiable (yet possibly non-convex) and general convex function. We focus on methods of stochastic and projected gradient descent from machine learning. By combining those two approaches we introduce an algorithm for solving such problems. The work is composed in a gradual manner where we firstly define necessary concepts needed for describing RSPG algorithm. Then we proceed to show the convergence of the algorithm for both convex and non-convex objective functions. A short numerical study is also included at the end. 1 | en_US |
uk.file-availability | V | |
uk.grantor | Univerzita Karlova, Matematicko-fyzikální fakulta, Katedra pravděpodobnosti a matematické statistiky | cs_CZ |
thesis.grade.code | 1 | |
uk.publication-place | Praha | cs_CZ |
uk.thesis.defenceStatus | O | |