dc.contributor.advisor | Pešta, Michal | |
dc.creator | Raab, Petr | |
dc.date.accessioned | 2024-11-29T17:41:01Z | |
dc.date.available | 2024-11-29T17:41:01Z | |
dc.date.issued | 2024 | |
dc.identifier.uri | http://hdl.handle.net/20.500.11956/190572 | |
dc.description.abstract | Práce se zabývá neuronovými sítěmi a modelem hlubokého učení, kdy se autor snaží na neuronové sítě dívat jako na statistický model podobný zobecněným lineárním modelům. Po představení tohoto modelu a zavedení značení se práce věnuje schopnosti neuronových sítí aproximovat spojité funkce, kdy je předveden důkaz věty o univerzalitě. Následně jsou zkoumány asymptotické vlastnosti neuronových sítí, pomocí sítového odhadu je také dokázána jejich konzistence a asymptotická normalita. Právě tyto dvě vlastnosti jsou objektem zkoumání v simulační studii na generovaných datech. 1 | cs_CZ |
dc.description.abstract | The work deals with neural networks and deep learning models, where the author attempts to view neural networks as a statistical model similar to generalized linear models. After introducing this model and introducing the notation, the work focuses on the ability of neural networks to approximate continuous functions, with a proof of the universality theorem presented. Subsequently, the asymptotic properties of neural networks are examined, and using network estimation, their consistency and asymptotic normality are also proven. These two properties are precisely the subject of investigation in a simulation study on generated data. 1 | en_US |
dc.language | Čeština | cs_CZ |
dc.language.iso | cs_CZ | |
dc.publisher | Univerzita Karlova, Matematicko-fyzikální fakulta | cs_CZ |
dc.subject | universality theorems|consistency theorems|neural networks|deep learning|asymptotic behavior|sieve estimator | en_US |
dc.subject | věty o univerzalitě|věty o konzistenci|neuronové sítě|hluboké učení|asymptotické chování|sítový odhad | cs_CZ |
dc.title | Věty o univerzalitě a konzistenci neuronových sítí | cs_CZ |
dc.type | diplomová práce | cs_CZ |
dcterms.created | 2024 | |
dcterms.dateAccepted | 2024-06-10 | |
dc.description.department | Department of Probability and Mathematical Statistics | en_US |
dc.description.department | Katedra pravděpodobnosti a matematické statistiky | cs_CZ |
dc.description.faculty | Matematicko-fyzikální fakulta | cs_CZ |
dc.description.faculty | Faculty of Mathematics and Physics | en_US |
dc.identifier.repId | 269723 | |
dc.title.translated | Universality and consistency theorems for neural networks | en_US |
dc.contributor.referee | Hlubinka, Daniel | |
thesis.degree.name | Mgr. | |
thesis.degree.level | navazující magisterské | cs_CZ |
thesis.degree.discipline | Probability, Mathematical Statistics and Econometrics with specialisation in Econometrics | en_US |
thesis.degree.discipline | Pravděpodobnost, matematická statistika a ekonometrie se specializací Ekonometrie | cs_CZ |
thesis.degree.program | Probability, Mathematical Statistics and Econometrics | en_US |
thesis.degree.program | Pravděpodobnost, matematická statistika a ekonometrie | cs_CZ |
uk.thesis.type | diplomová práce | cs_CZ |
uk.taxonomy.organization-cs | Matematicko-fyzikální fakulta::Katedra pravděpodobnosti a matematické statistiky | cs_CZ |
uk.taxonomy.organization-en | Faculty of Mathematics and Physics::Department of Probability and Mathematical Statistics | en_US |
uk.faculty-name.cs | Matematicko-fyzikální fakulta | cs_CZ |
uk.faculty-name.en | Faculty of Mathematics and Physics | en_US |
uk.faculty-abbr.cs | MFF | cs_CZ |
uk.degree-discipline.cs | Pravděpodobnost, matematická statistika a ekonometrie se specializací Ekonometrie | cs_CZ |
uk.degree-discipline.en | Probability, Mathematical Statistics and Econometrics with specialisation in Econometrics | en_US |
uk.degree-program.cs | Pravděpodobnost, matematická statistika a ekonometrie | cs_CZ |
uk.degree-program.en | Probability, Mathematical Statistics and Econometrics | en_US |
thesis.grade.cs | Velmi dobře | cs_CZ |
thesis.grade.en | Very good | en_US |
uk.abstract.cs | Práce se zabývá neuronovými sítěmi a modelem hlubokého učení, kdy se autor snaží na neuronové sítě dívat jako na statistický model podobný zobecněným lineárním modelům. Po představení tohoto modelu a zavedení značení se práce věnuje schopnosti neuronových sítí aproximovat spojité funkce, kdy je předveden důkaz věty o univerzalitě. Následně jsou zkoumány asymptotické vlastnosti neuronových sítí, pomocí sítového odhadu je také dokázána jejich konzistence a asymptotická normalita. Právě tyto dvě vlastnosti jsou objektem zkoumání v simulační studii na generovaných datech. 1 | cs_CZ |
uk.abstract.en | The work deals with neural networks and deep learning models, where the author attempts to view neural networks as a statistical model similar to generalized linear models. After introducing this model and introducing the notation, the work focuses on the ability of neural networks to approximate continuous functions, with a proof of the universality theorem presented. Subsequently, the asymptotic properties of neural networks are examined, and using network estimation, their consistency and asymptotic normality are also proven. These two properties are precisely the subject of investigation in a simulation study on generated data. 1 | en_US |
uk.file-availability | V | |
uk.grantor | Univerzita Karlova, Matematicko-fyzikální fakulta, Katedra pravděpodobnosti a matematické statistiky | cs_CZ |
thesis.grade.code | 2 | |
uk.publication-place | Praha | cs_CZ |
uk.thesis.defenceStatus | O | |