dc.contributor.advisor | Lokoč, Jakub | |
dc.creator | Hajko, Jakub | |
dc.date.accessioned | 2024-11-29T05:51:05Z | |
dc.date.available | 2024-11-29T05:51:05Z | |
dc.date.issued | 2024 | |
dc.identifier.uri | http://hdl.handle.net/20.500.11956/192878 | |
dc.description.abstract | S rostoucí produkcí multimédií se zvyšuje také poptávka po efektivních metodách jejich vyhledávání. Jedním z klíčových úkolů v této oblasti je vyhledávání konkrétních položek ve velkých nestrukturovaných kolekcích obrázků pomocí textových dotazů. V posledních letech tomuto oboru dominují hluboké neuronové sítě, které jsou trénovány na mapování obrázků a textu do joint-embedding prostoru. V rámci našeho výzkumu jsme porovnali výkon několika předtrénovaných sítí, včetně CLIP, OpenCLIP, ALIGN a BLIP2, na různých datasetech. Kromě toho jsme zkoumali, jak množství informací obsažených v textových dotazech ovlivňuje výkon modelů. Hodnotili jsme také konzistenci vnímání podobnosti mezi obrázky modely a lidskými posudky. Naše zjištění ukazují, že modely OpenCLIP se osvědčují jako velmi účinné při vyhledávání konkrétních položek pomocí dotazů a dobře se shodují s lidským vnímáním podobnosti. Dále jsme zjistili, že podrobnější informace v textových dotazech zlepšují výkon modelů. | cs_CZ |
dc.description.abstract | As the production of multimedia continues to grow, the demand for effective multi- media retrieval methods increases. One critical task in this domain is known-item search within large unstructured collections of images using text queries. In recent years, this field has been dominated by deep networks trained to map both images and text in joint- embedding space. We evaluated multiple pre-trained networks, including CLIP, Open- CLIPs, ALIGN, and BLIP2, comparing their performance across various datasets. Addi- tionally, we investigated how the amount of information provided within the text queries influences model performance. We also assessed the consistency of models' perceived image-image similarity with human judgments. Our findings indicate that OpenCLIP models excel in known-item search with queries and align well with human perception of similarity. Furthermore, we observed that providing more detailed information in text queries enhances model performance. | en_US |
dc.language | English | cs_CZ |
dc.language.iso | en_US | |
dc.publisher | Univerzita Karlova, Matematicko-fyzikální fakulta | cs_CZ |
dc.subject | Deep network|Image search|Comparative study | en_US |
dc.subject | Hluboká síť|Hledání v obrázcích|Srovnávací studie | cs_CZ |
dc.title | Comparison of joint-embedding deep networks for known-item search in image datasets | en_US |
dc.type | bakalářská práce | cs_CZ |
dcterms.created | 2024 | |
dcterms.dateAccepted | 2024-09-05 | |
dc.description.department | Department of Software Engineering | en_US |
dc.description.department | Katedra softwarového inženýrství | cs_CZ |
dc.description.faculty | Matematicko-fyzikální fakulta | cs_CZ |
dc.description.faculty | Faculty of Mathematics and Physics | en_US |
dc.identifier.repId | 270527 | |
dc.title.translated | Srovnání joint-embedding hlubokých sítí pro úlohu hledání známého obrázku | cs_CZ |
dc.contributor.referee | Peška, Ladislav | |
thesis.degree.name | Bc. | |
thesis.degree.level | bakalářské | cs_CZ |
thesis.degree.discipline | Computer Science with specialisation in Artificial Intelligence | en_US |
thesis.degree.discipline | Informatika se specializací Umělá inteligence | cs_CZ |
thesis.degree.program | Computer Science | en_US |
thesis.degree.program | Informatika | cs_CZ |
uk.thesis.type | bakalářská práce | cs_CZ |
uk.taxonomy.organization-cs | Matematicko-fyzikální fakulta::Katedra softwarového inženýrství | cs_CZ |
uk.taxonomy.organization-en | Faculty of Mathematics and Physics::Department of Software Engineering | en_US |
uk.faculty-name.cs | Matematicko-fyzikální fakulta | cs_CZ |
uk.faculty-name.en | Faculty of Mathematics and Physics | en_US |
uk.faculty-abbr.cs | MFF | cs_CZ |
uk.degree-discipline.cs | Informatika se specializací Umělá inteligence | cs_CZ |
uk.degree-discipline.en | Computer Science with specialisation in Artificial Intelligence | en_US |
uk.degree-program.cs | Informatika | cs_CZ |
uk.degree-program.en | Computer Science | en_US |
thesis.grade.cs | Výborně | cs_CZ |
thesis.grade.en | Excellent | en_US |
uk.abstract.cs | S rostoucí produkcí multimédií se zvyšuje také poptávka po efektivních metodách jejich vyhledávání. Jedním z klíčových úkolů v této oblasti je vyhledávání konkrétních položek ve velkých nestrukturovaných kolekcích obrázků pomocí textových dotazů. V posledních letech tomuto oboru dominují hluboké neuronové sítě, které jsou trénovány na mapování obrázků a textu do joint-embedding prostoru. V rámci našeho výzkumu jsme porovnali výkon několika předtrénovaných sítí, včetně CLIP, OpenCLIP, ALIGN a BLIP2, na různých datasetech. Kromě toho jsme zkoumali, jak množství informací obsažených v textových dotazech ovlivňuje výkon modelů. Hodnotili jsme také konzistenci vnímání podobnosti mezi obrázky modely a lidskými posudky. Naše zjištění ukazují, že modely OpenCLIP se osvědčují jako velmi účinné při vyhledávání konkrétních položek pomocí dotazů a dobře se shodují s lidským vnímáním podobnosti. Dále jsme zjistili, že podrobnější informace v textových dotazech zlepšují výkon modelů. | cs_CZ |
uk.abstract.en | As the production of multimedia continues to grow, the demand for effective multi- media retrieval methods increases. One critical task in this domain is known-item search within large unstructured collections of images using text queries. In recent years, this field has been dominated by deep networks trained to map both images and text in joint- embedding space. We evaluated multiple pre-trained networks, including CLIP, Open- CLIPs, ALIGN, and BLIP2, comparing their performance across various datasets. Addi- tionally, we investigated how the amount of information provided within the text queries influences model performance. We also assessed the consistency of models' perceived image-image similarity with human judgments. Our findings indicate that OpenCLIP models excel in known-item search with queries and align well with human perception of similarity. Furthermore, we observed that providing more detailed information in text queries enhances model performance. | en_US |
uk.file-availability | V | |
uk.grantor | Univerzita Karlova, Matematicko-fyzikální fakulta, Katedra softwarového inženýrství | cs_CZ |
thesis.grade.code | 1 | |
uk.publication-place | Praha | cs_CZ |
uk.thesis.defenceStatus | O | |