Zobrazit minimální záznam

Vytváření matoucích vzorů ve strojovém učení
dc.contributor.advisorPilát, Martin
dc.creatorČervíčková, Věra
dc.date.accessioned2024-01-05T14:13:02Z
dc.date.available2024-01-05T14:13:02Z
dc.date.issued2023
dc.identifier.urihttp://hdl.handle.net/20.500.11956/186967
dc.description.abstractTato práce zkoumá nepřátelské vzory ve strojovém učení, konkrétně v oboru klasifikace obrazu. Nejmodernější modely hlubokého učení dokáží rozpoznat vzory lépe než člověk. Nicméně pokud k obrazům přidáme vhodně zvolený šum, můžeme výrazně snížit přesnost daných modelů. Tato práce zkoumá různé metody útoků i obran proti nepřátelským vzorům. Jednu ze současným obran jsme si vybrali, abychom navrhli útok, který ji porazí. Náš útok využívá evoluční algoritmy. Výsledky našich experimentů ukazují, že nepřátelské vzory vytvořené evolucí a vzory vytvořené se znalostí gradientu se výrazně liší. V neposlední řadě zkoumáme, jak jsou naše nepřátelské vstupy přenositelné mezi různými neuronovými sítěmi. 1cs_CZ
dc.description.abstractThis thesis examines adversarial examples in machine learning, specifically in the im- age classification domain. State-of-the-art deep learning models are able to recognize patterns better than humans. However, we can significantly reduce the model's accu- racy by adding imperceptible, yet intentionally harmful noise. This work investigates various methods of creating adversarial images as well as techniques that aim to defend deep learning models against these malicious inputs. We choose one of the contemporary defenses and design an attack that utilizes evolutionary algorithms to deceive it. Our experiments show an interesting difference between adversarial images created by evolu- tion and images created with the knowledge of gradients. Last but not least, we test the transferability of our created samples between various deep learning models. 1en_US
dc.languageEnglishcs_CZ
dc.language.isoen_US
dc.publisherUniverzita Karlova, Matematicko-fyzikální fakultacs_CZ
dc.subjectNepřátelské vzory|Hluboké učení|Klasifikace obrazu|Evoluční algoritmycs_CZ
dc.subjectAdversarial examples|{Deep Learning}|{Image classification}|{Evolutionary Algorithmsen_US
dc.titleCreating Adversarial Examples in Machine Learningen_US
dc.typerigorózní prácecs_CZ
dcterms.created2023
dcterms.dateAccepted2023-11-08
dc.description.departmentDepartment of Theoretical Computer Science and Mathematical Logicen_US
dc.description.departmentKatedra teoretické informatiky a matematické logikycs_CZ
dc.description.facultyFaculty of Mathematics and Physicsen_US
dc.description.facultyMatematicko-fyzikální fakultacs_CZ
dc.identifier.repId261030
dc.title.translatedVytváření matoucích vzorů ve strojovém učenícs_CZ
thesis.degree.nameRNDr.
thesis.degree.levelrigorózní řízenícs_CZ
thesis.degree.disciplineTheoretical Computer Scienceen_US
thesis.degree.disciplineTeoretická informatikacs_CZ
thesis.degree.programComputer Scienceen_US
thesis.degree.programInformatikacs_CZ
uk.thesis.typerigorózní prácecs_CZ
uk.taxonomy.organization-csMatematicko-fyzikální fakulta::Katedra teoretické informatiky a matematické logikycs_CZ
uk.taxonomy.organization-enFaculty of Mathematics and Physics::Department of Theoretical Computer Science and Mathematical Logicen_US
uk.faculty-name.csMatematicko-fyzikální fakultacs_CZ
uk.faculty-name.enFaculty of Mathematics and Physicsen_US
uk.faculty-abbr.csMFFcs_CZ
uk.degree-discipline.csTeoretická informatikacs_CZ
uk.degree-discipline.enTheoretical Computer Scienceen_US
uk.degree-program.csInformatikacs_CZ
uk.degree-program.enComputer Scienceen_US
thesis.grade.csUznánocs_CZ
thesis.grade.enRecognizeden_US
uk.abstract.csTato práce zkoumá nepřátelské vzory ve strojovém učení, konkrétně v oboru klasifikace obrazu. Nejmodernější modely hlubokého učení dokáží rozpoznat vzory lépe než člověk. Nicméně pokud k obrazům přidáme vhodně zvolený šum, můžeme výrazně snížit přesnost daných modelů. Tato práce zkoumá různé metody útoků i obran proti nepřátelským vzorům. Jednu ze současným obran jsme si vybrali, abychom navrhli útok, který ji porazí. Náš útok využívá evoluční algoritmy. Výsledky našich experimentů ukazují, že nepřátelské vzory vytvořené evolucí a vzory vytvořené se znalostí gradientu se výrazně liší. V neposlední řadě zkoumáme, jak jsou naše nepřátelské vstupy přenositelné mezi různými neuronovými sítěmi. 1cs_CZ
uk.abstract.enThis thesis examines adversarial examples in machine learning, specifically in the im- age classification domain. State-of-the-art deep learning models are able to recognize patterns better than humans. However, we can significantly reduce the model's accu- racy by adding imperceptible, yet intentionally harmful noise. This work investigates various methods of creating adversarial images as well as techniques that aim to defend deep learning models against these malicious inputs. We choose one of the contemporary defenses and design an attack that utilizes evolutionary algorithms to deceive it. Our experiments show an interesting difference between adversarial images created by evolu- tion and images created with the knowledge of gradients. Last but not least, we test the transferability of our created samples between various deep learning models. 1en_US
uk.file-availabilityV
uk.grantorUniverzita Karlova, Matematicko-fyzikální fakulta, Katedra teoretické informatiky a matematické logikycs_CZ
thesis.grade.codeU
uk.publication-placePrahacs_CZ
uk.thesis.defenceStatusU


Soubory tohoto záznamu

Thumbnail
Thumbnail
Thumbnail
Thumbnail
Thumbnail

Tento záznam se objevuje v následujících sbírkách

Zobrazit minimální záznam


© 2017 Univerzita Karlova, Ústřední knihovna, Ovocný trh 560/5, 116 36 Praha 1; email: admin-repozitar [at] cuni.cz

Za dodržení všech ustanovení autorského zákona jsou zodpovědné jednotlivé složky Univerzity Karlovy. / Each constituent part of Charles University is responsible for adherence to all provisions of the copyright law.

Upozornění / Notice: Získané informace nemohou být použity k výdělečným účelům nebo vydávány za studijní, vědeckou nebo jinou tvůrčí činnost jiné osoby než autora. / Any retrieved information shall not be used for any commercial purposes or claimed as results of studying, scientific or any other creative activities of any person other than the author.

DSpace software copyright © 2002-2015  DuraSpace
Theme by 
@mire NV