ČVUT DSpace
  • Search DSpace
  • Čeština
  • Login
  • Čeština
  • Čeština
View Item 
  •   ČVUT DSpace
  • Czech Technical University in Prague
  • Faculty of Electrical Engineering
  • Department of Cybernetics
  • Bachelor Theses - 13133
  • View Item
  • Czech Technical University in Prague
  • Faculty of Electrical Engineering
  • Department of Cybernetics
  • Bachelor Theses - 13133
  • View Item
JavaScript is disabled for your browser. Some features of this site may not work without it.

Biologicky věrohodné učení s pamětí

Biologically Plausible Learning with Memory

Type of document
bakalářská práce
bachelor thesis
Author
Jakub Dorfman
Supervisor
Šochman Jan
Opponent
Zimmermann Karel
Field of study
Základy umělé inteligence a počítačových věd
Study program
Otevřená informatika
Institutions assigning rank
katedra kybernetiky



Rights
A university thesis is a work protected by the Copyright Act. Extracts, copies and transcripts of the thesis are allowed for personal use only and at one?s own expense. The use of thesis should be in compliance with the Copyright Act http://www.mkcr.cz/assets/autorske-pravo/01-3982006.pdf and the citation ethics http://knihovny.cvut.cz/vychova/vskp.html
Vysokoškolská závěrečná práce je dílo chráněné autorským zákonem. Je možné pořizovat z něj na své náklady a pro svoji osobní potřebu výpisy, opisy a rozmnoženiny. Jeho využití musí být v souladu s autorským zákonem http://www.mkcr.cz/assets/autorske-pravo/01-3982006.pdf a citační etikou http://knihovny.cvut.cz/vychova/vskp.html
Metadata
Show full item record
Abstract
Online Continual learning (OCL) je pro-blém, ve kterém modely strojového učení fungují dobře jen pokud se umí dobře učit postupně z proudu dat, která nejsou ná-hodně zamíchaná a rovnoměrně rozdělená. OCL to dělá rozdělením datové sady na několik úkolů, z nichž každý má nějakou část tříd. Tyto úkoly se pak dávají mo-delu jeden po druhém, předstírající proud příkladů, končící s datasetem. Největším problémem v OCL je cata-strophic forgetting(katastrofální zapomí-nání). Ten se vykazuje tím, že model, který je naučen běžným způsobem, si ne-může dobře pamatovat předchozí úkoly a nedokáže je pak dobře řešit. Tahle práce k tomu přidává tři pod-mínky, které normálně nejsou povinné: (i) velikost batchů je jedna, (ii) omezená veli-kost paměti, a (iii) žádné informace o tom, kdy se úkoly mění nebo jaký je právě ak-tivní úkol. Ve studii se řeší tři metody GSS, ER a DER++. Jsou porovány podle toho, jak si pamatují data, jak promíchávají stream dat a jak se snaží zabránit zapomínaní. Výsledkem experimentů je poznatek, že žádná z metod to nedělá úplně dobře. Všechny mají problém správně namíchat zapamatovaná data tak, aby stream při-pomínal náhodné rozdělení. Na zlepšení těchto problémů jsou navr-ženy tři nová řešení: zaprvé metoda na mí-chání zapamatovaných exemplářů do stre-amu dat, zadruhé strategie na vytváření úkolů, které jsou více závislé, a nakonec nápad jak využít předtrénovaný model, aby to celé fungovalo líp.
 
Online Continual Learning (OCL) introduces a setting where machine learning models succeed only when they can learn sequentially from a non-independent and identically distributed (i.i.d) stream of data. OCL ensures this by splitting a dataset into different tasks, each containing a subset of the classes, and feeding them to the model as a continuous stream until the entire dataset is processed. The most prominent problem in OCL is catastrophic forgettingthe models failure to retain performance on earlier tasks. This thesis adds three challenging constraints to OCL: (i) batch size of one, (ii) finite memory size, and (iii) a task-free policy where models dont know when tasks change or what the current task is. Through an empirical study of the methods GSS, ER and DER++ a comparison is made of how they manage their memory, how they transform the stream of data and how they they try to mitigate catastrophic forgetting. The study concludes, that neither of the methods are completely successful in solving the problem that has been set, as they all fail in the way of mixing the remembered data correctly to create an i.i.d. stream. To address this, three novel solutions are proposed: a method for mixing memorized samples, a strategy for creating more dependent tasks, and an inquiry into using pre-trained models for improved performance.
 
URI
http://hdl.handle.net/10467/123583
View/Open
PLNY_TEXT (1.753Mb)
PRILOHA (3.815Mb)
POSUDEK (865.3Kb)
POSUDEK (259.3Kb)
Collections
  • Bakalářské práce - 13133 [851]

České vysoké učení technické v Praze copyright © 2016 

DSpace software copyright © 2002-2016  Duraspace

Contact Us | Send Feedback
Theme by 
@mire NV
 

 

Useful links

CTU in PragueCentral library of CTUAbout CTU Digital LibraryResourcesStudy and library skillsResearch support

Browse

All of DSpaceCommunities & CollectionsBy Issue DateAuthorsTitlesSubjectsThis CollectionBy Issue DateAuthorsTitlesSubjects

My Account

Login

České vysoké učení technické v Praze copyright © 2016 

DSpace software copyright © 2002-2016  Duraspace

Contact Us | Send Feedback
Theme by 
@mire NV