Zobrazit minimální záznam

Textové šifry jako nástroj pro lepší pochopení modelů Transformer
dc.contributor.advisorLibovický, Jindřich
dc.creatorProvazník, Jan
dc.date.accessioned2024-11-29T06:11:04Z
dc.date.available2024-11-29T06:11:04Z
dc.date.issued2024
dc.identifier.urihttp://hdl.handle.net/20.500.11956/192072
dc.description.abstractArchitektura Transformer je velmi popula ́rnı ́, takz ̌e mu ̊z ̌e by ́t potencia ́lne ̌ vy ́znamne ́ interpretovat, co ovlivn ̌uje jejı ́ vy ́kon. Testujeme hypote ́zu, z ̌e mo- del se pr ̌i pra ́ci s textem spole ́ha ́ na jeho lingvisticke ́ vlastnosti. Abychom eli- minovali vliv kultury na vy ́znam, pouz ̌ı ́va ́me u ́lohu pracujı ́cı ́ na u ́rovni znaku ̊ s Transformer modelem ByT5. Dotre ́nujeme ByT5-small na des ̌ifrova ́nı ́ ve ̌t zas ̌ifrovany ́ch pomocı ́ textovy ́ch s ̌ifer (Vigene ̀re, Enigma). Anotujeme eva- luac ̌nı ́ dataset ve ̌t pomocı ́ publikovany ́ch na 'stroju ̊ pro NLP. Na evaluac ̌nı ́m datasetu zkouma ́me vztahy mezi lingvisticky ́mi vlastnostmi a c ̌etnostı ́ chyb dotre ́novane ́ho ByT5 pr ̌i des ̌ifrova ́nı ́ ve ̌t. Analyzujeme korelace, tre ́nujeme ML modely na predikci c ̌etnosti chyb ve ̌ty z jijı ́ch lingvisticky ́ch vlastnostı ́ a interpretujeme du ̊lez ̌itost vlastnostı ́ pomocı ́ SHAP. Nacha ́zı ́me male ́ signifi- kantnı ́ korelace, ale predikce c ̌etnosti chyb z vlastnostı ́ selha ́va ́. Dospı ́va ́me k za ́ve ̌ru, z ̌e identifikovane ́ vlastnosti neposkytujı ́ vhled do vy ́konu Transfor- meru ̊.cs_CZ
dc.description.abstractThe Transformer architecture is very popular, so it is potentially im- pactful to interpret what influences its performance. We test the hypothesis that the model relies on the linguistic properties of a text when working with it. We remove interference with cultural aspects of meaning by using a character-level task with the ByT5 Transformer model. We train ByT5 to decipher sentences encrypted with text ciphers (Vigenère, Enigma). We annotate a sentence dataset with linguistic properties with published NLP tools. On this dataset, we study the relationships between the linguistic properties and the fine-tuned ByT5 decipherment error rate. We analyze correlations, train ML models to predict error rates from the properties and interpret them with SHAP. We find small significant correlations but can- not predict error rates from the properties. We conclude the properties we identified do not give much insight into the performance of the Transformer.en_US
dc.languageEnglishcs_CZ
dc.language.isoen_US
dc.publisherUniverzita Karlova, Matematicko-fyzikální fakultacs_CZ
dc.subjectTransformer|interpretability|NLP|deep learning|ciphersen_US
dc.subjectTransformer|interpretovatelnost|NLP|deep learning|šifrycs_CZ
dc.titleTextual Ciphers as a Tool for Better Understanding the Transformersen_US
dc.typebakalářská prácecs_CZ
dcterms.created2024
dcterms.dateAccepted2024-06-28
dc.description.departmentInstitute of Formal and Applied Linguisticsen_US
dc.description.departmentÚstav formální a aplikované lingvistikycs_CZ
dc.description.facultyMatematicko-fyzikální fakultacs_CZ
dc.description.facultyFaculty of Mathematics and Physicsen_US
dc.identifier.repId262108
dc.title.translatedTextové šifry jako nástroj pro lepší pochopení modelů Transformercs_CZ
dc.contributor.refereeKasner, Zdeněk
thesis.degree.nameBc.
thesis.degree.levelbakalářskécs_CZ
thesis.degree.disciplineComputer Science with specialisation in Artificial Intelligenceen_US
thesis.degree.disciplineInformatika se specializací Umělá inteligencecs_CZ
thesis.degree.programComputer Scienceen_US
thesis.degree.programInformatikacs_CZ
uk.thesis.typebakalářská prácecs_CZ
uk.taxonomy.organization-csMatematicko-fyzikální fakulta::Ústav formální a aplikované lingvistikycs_CZ
uk.taxonomy.organization-enFaculty of Mathematics and Physics::Institute of Formal and Applied Linguisticsen_US
uk.faculty-name.csMatematicko-fyzikální fakultacs_CZ
uk.faculty-name.enFaculty of Mathematics and Physicsen_US
uk.faculty-abbr.csMFFcs_CZ
uk.degree-discipline.csInformatika se specializací Umělá inteligencecs_CZ
uk.degree-discipline.enComputer Science with specialisation in Artificial Intelligenceen_US
uk.degree-program.csInformatikacs_CZ
uk.degree-program.enComputer Scienceen_US
thesis.grade.csVýborněcs_CZ
thesis.grade.enExcellenten_US
uk.abstract.csArchitektura Transformer je velmi popula ́rnı ́, takz ̌e mu ̊z ̌e by ́t potencia ́lne ̌ vy ́znamne ́ interpretovat, co ovlivn ̌uje jejı ́ vy ́kon. Testujeme hypote ́zu, z ̌e mo- del se pr ̌i pra ́ci s textem spole ́ha ́ na jeho lingvisticke ́ vlastnosti. Abychom eli- minovali vliv kultury na vy ́znam, pouz ̌ı ́va ́me u ́lohu pracujı ́cı ́ na u ́rovni znaku ̊ s Transformer modelem ByT5. Dotre ́nujeme ByT5-small na des ̌ifrova ́nı ́ ve ̌t zas ̌ifrovany ́ch pomocı ́ textovy ́ch s ̌ifer (Vigene ̀re, Enigma). Anotujeme eva- luac ̌nı ́ dataset ve ̌t pomocı ́ publikovany ́ch na 'stroju ̊ pro NLP. Na evaluac ̌nı ́m datasetu zkouma ́me vztahy mezi lingvisticky ́mi vlastnostmi a c ̌etnostı ́ chyb dotre ́novane ́ho ByT5 pr ̌i des ̌ifrova ́nı ́ ve ̌t. Analyzujeme korelace, tre ́nujeme ML modely na predikci c ̌etnosti chyb ve ̌ty z jijı ́ch lingvisticky ́ch vlastnostı ́ a interpretujeme du ̊lez ̌itost vlastnostı ́ pomocı ́ SHAP. Nacha ́zı ́me male ́ signifi- kantnı ́ korelace, ale predikce c ̌etnosti chyb z vlastnostı ́ selha ́va ́. Dospı ́va ́me k za ́ve ̌ru, z ̌e identifikovane ́ vlastnosti neposkytujı ́ vhled do vy ́konu Transfor- meru ̊.cs_CZ
uk.abstract.enThe Transformer architecture is very popular, so it is potentially im- pactful to interpret what influences its performance. We test the hypothesis that the model relies on the linguistic properties of a text when working with it. We remove interference with cultural aspects of meaning by using a character-level task with the ByT5 Transformer model. We train ByT5 to decipher sentences encrypted with text ciphers (Vigenère, Enigma). We annotate a sentence dataset with linguistic properties with published NLP tools. On this dataset, we study the relationships between the linguistic properties and the fine-tuned ByT5 decipherment error rate. We analyze correlations, train ML models to predict error rates from the properties and interpret them with SHAP. We find small significant correlations but can- not predict error rates from the properties. We conclude the properties we identified do not give much insight into the performance of the Transformer.en_US
uk.file-availabilityV
uk.grantorUniverzita Karlova, Matematicko-fyzikální fakulta, Ústav formální a aplikované lingvistikycs_CZ
thesis.grade.code1
uk.publication-placePrahacs_CZ
uk.thesis.defenceStatusO


Soubory tohoto záznamu

Thumbnail
Thumbnail
Thumbnail
Thumbnail
Thumbnail
Thumbnail
Thumbnail

Tento záznam se objevuje v následujících sbírkách

Zobrazit minimální záznam


© 2017 Univerzita Karlova, Ústřední knihovna, Ovocný trh 560/5, 116 36 Praha 1; email: admin-repozitar [at] cuni.cz

Za dodržení všech ustanovení autorského zákona jsou zodpovědné jednotlivé složky Univerzity Karlovy. / Each constituent part of Charles University is responsible for adherence to all provisions of the copyright law.

Upozornění / Notice: Získané informace nemohou být použity k výdělečným účelům nebo vydávány za studijní, vědeckou nebo jinou tvůrčí činnost jiné osoby než autora. / Any retrieved information shall not be used for any commercial purposes or claimed as results of studying, scientific or any other creative activities of any person other than the author.

DSpace software copyright © 2002-2015  DuraSpace
Theme by 
@mire NV