Zobrazit minimální záznam

Biologically Plausible Learning with Memory



dc.contributor.advisorŠochman Jan
dc.contributor.authorJakub Dorfman
dc.date.accessioned2025-06-14T23:02:07Z
dc.date.available2025-06-14T23:02:07Z
dc.date.issued2025-06-14
dc.identifierKOS-1243879584805
dc.identifier.urihttp://hdl.handle.net/10467/123583
dc.description.abstractOnline Continual learning (OCL) je pro-blém, ve kterém modely strojového učení fungují dobře jen pokud se umí dobře učit postupně z proudu dat, která nejsou ná-hodně zamíchaná a rovnoměrně rozdělená. OCL to dělá rozdělením datové sady na několik úkolů, z nichž každý má nějakou část tříd. Tyto úkoly se pak dávají mo-delu jeden po druhém, předstírající proud příkladů, končící s datasetem. Největším problémem v OCL je cata-strophic forgetting(katastrofální zapomí-nání). Ten se vykazuje tím, že model, který je naučen běžným způsobem, si ne-může dobře pamatovat předchozí úkoly a nedokáže je pak dobře řešit. Tahle práce k tomu přidává tři pod-mínky, které normálně nejsou povinné: (i) velikost batchů je jedna, (ii) omezená veli-kost paměti, a (iii) žádné informace o tom, kdy se úkoly mění nebo jaký je právě ak-tivní úkol. Ve studii se řeší tři metody GSS, ER a DER++. Jsou porovány podle toho, jak si pamatují data, jak promíchávají stream dat a jak se snaží zabránit zapomínaní. Výsledkem experimentů je poznatek, že žádná z metod to nedělá úplně dobře. Všechny mají problém správně namíchat zapamatovaná data tak, aby stream při-pomínal náhodné rozdělení. Na zlepšení těchto problémů jsou navr-ženy tři nová řešení: zaprvé metoda na mí-chání zapamatovaných exemplářů do stre-amu dat, zadruhé strategie na vytváření úkolů, které jsou více závislé, a nakonec nápad jak využít předtrénovaný model, aby to celé fungovalo líp.cze
dc.description.abstractOnline Continual Learning (OCL) introduces a setting where machine learning models succeed only when they can learn sequentially from a non-independent and identically distributed (i.i.d) stream of data. OCL ensures this by splitting a dataset into different tasks, each containing a subset of the classes, and feeding them to the model as a continuous stream until the entire dataset is processed. The most prominent problem in OCL is catastrophic forgettingthe models failure to retain performance on earlier tasks. This thesis adds three challenging constraints to OCL: (i) batch size of one, (ii) finite memory size, and (iii) a task-free policy where models dont know when tasks change or what the current task is. Through an empirical study of the methods GSS, ER and DER++ a comparison is made of how they manage their memory, how they transform the stream of data and how they they try to mitigate catastrophic forgetting. The study concludes, that neither of the methods are completely successful in solving the problem that has been set, as they all fail in the way of mixing the remembered data correctly to create an i.i.d. stream. To address this, three novel solutions are proposed: a method for mixing memorized samples, a strategy for creating more dependent tasks, and an inquiry into using pre-trained models for improved performance.eng
dc.publisherČeské vysoké učení technické v Praze. Vypočetní a informační centrum.cze
dc.publisherCzech Technical University in Prague. Computing and Information Centre.eng
dc.rightsA university thesis is a work protected by the Copyright Act. Extracts, copies and transcripts of the thesis are allowed for personal use only and at one?s own expense. The use of thesis should be in compliance with the Copyright Act http://www.mkcr.cz/assets/autorske-pravo/01-3982006.pdf and the citation ethics http://knihovny.cvut.cz/vychova/vskp.htmleng
dc.rightsVysokoškolská závěrečná práce je dílo chráněné autorským zákonem. Je možné pořizovat z něj na své náklady a pro svoji osobní potřebu výpisy, opisy a rozmnoženiny. Jeho využití musí být v souladu s autorským zákonem http://www.mkcr.cz/assets/autorske-pravo/01-3982006.pdf a citační etikou http://knihovny.cvut.cz/vychova/vskp.htmlcze
dc.subjectBakalářská Prácecze
dc.subjectStrojové Učenícze
dc.subjectOnline Continual Learningcze
dc.subjectBachleor Thesiseng
dc.subjectMachine Learningeng
dc.subjectOnline Continual Learningeng
dc.titleBiologicky věrohodné učení s pamětícze
dc.titleBiologically Plausible Learning with Memoryeng
dc.typebakalářská prácecze
dc.typebachelor thesiseng
dc.contributor.refereeZimmermann Karel
theses.degree.disciplineZáklady umělé inteligence a počítačových vědcze
theses.degree.grantorkatedra kybernetikycze
theses.degree.programmeOtevřená informatikacze


Soubory tohoto záznamu





Tento záznam se objevuje v následujících kolekcích

Zobrazit minimální záznam