ČVUT DSpace
  • Prohledat DSpace
  • English
  • Přihlásit se
  • English
  • English
Zobrazit záznam 
  •   ČVUT DSpace
  • České vysoké učení technické v Praze
  • Fakulta elektrotechnická
  • katedra kybernetiky
  • Bakalářské práce - 13133
  • Zobrazit záznam
  • České vysoké učení technické v Praze
  • Fakulta elektrotechnická
  • katedra kybernetiky
  • Bakalářské práce - 13133
  • Zobrazit záznam
JavaScript is disabled for your browser. Some features of this site may not work without it.

Biologicky věrohodné učení s pamětí

Biologically Plausible Learning with Memory

Typ dokumentu
bakalářská práce
bachelor thesis
Autor
Jakub Dorfman
Vedoucí práce
Šochman Jan
Oponent práce
Zimmermann Karel
Studijní obor
Základy umělé inteligence a počítačových věd
Studijní program
Otevřená informatika
Instituce přidělující hodnost
katedra kybernetiky



Práva
A university thesis is a work protected by the Copyright Act. Extracts, copies and transcripts of the thesis are allowed for personal use only and at one?s own expense. The use of thesis should be in compliance with the Copyright Act http://www.mkcr.cz/assets/autorske-pravo/01-3982006.pdf and the citation ethics http://knihovny.cvut.cz/vychova/vskp.html
Vysokoškolská závěrečná práce je dílo chráněné autorským zákonem. Je možné pořizovat z něj na své náklady a pro svoji osobní potřebu výpisy, opisy a rozmnoženiny. Jeho využití musí být v souladu s autorským zákonem http://www.mkcr.cz/assets/autorske-pravo/01-3982006.pdf a citační etikou http://knihovny.cvut.cz/vychova/vskp.html
Metadata
Zobrazit celý záznam
Abstrakt
Online Continual learning (OCL) je pro-blém, ve kterém modely strojového učení fungují dobře jen pokud se umí dobře učit postupně z proudu dat, která nejsou ná-hodně zamíchaná a rovnoměrně rozdělená. OCL to dělá rozdělením datové sady na několik úkolů, z nichž každý má nějakou část tříd. Tyto úkoly se pak dávají mo-delu jeden po druhém, předstírající proud příkladů, končící s datasetem. Největším problémem v OCL je cata-strophic forgetting(katastrofální zapomí-nání). Ten se vykazuje tím, že model, který je naučen běžným způsobem, si ne-může dobře pamatovat předchozí úkoly a nedokáže je pak dobře řešit. Tahle práce k tomu přidává tři pod-mínky, které normálně nejsou povinné: (i) velikost batchů je jedna, (ii) omezená veli-kost paměti, a (iii) žádné informace o tom, kdy se úkoly mění nebo jaký je právě ak-tivní úkol. Ve studii se řeší tři metody GSS, ER a DER++. Jsou porovány podle toho, jak si pamatují data, jak promíchávají stream dat a jak se snaží zabránit zapomínaní. Výsledkem experimentů je poznatek, že žádná z metod to nedělá úplně dobře. Všechny mají problém správně namíchat zapamatovaná data tak, aby stream při-pomínal náhodné rozdělení. Na zlepšení těchto problémů jsou navr-ženy tři nová řešení: zaprvé metoda na mí-chání zapamatovaných exemplářů do stre-amu dat, zadruhé strategie na vytváření úkolů, které jsou více závislé, a nakonec nápad jak využít předtrénovaný model, aby to celé fungovalo líp.
 
Online Continual Learning (OCL) introduces a setting where machine learning models succeed only when they can learn sequentially from a non-independent and identically distributed (i.i.d) stream of data. OCL ensures this by splitting a dataset into different tasks, each containing a subset of the classes, and feeding them to the model as a continuous stream until the entire dataset is processed. The most prominent problem in OCL is catastrophic forgettingthe models failure to retain performance on earlier tasks. This thesis adds three challenging constraints to OCL: (i) batch size of one, (ii) finite memory size, and (iii) a task-free policy where models dont know when tasks change or what the current task is. Through an empirical study of the methods GSS, ER and DER++ a comparison is made of how they manage their memory, how they transform the stream of data and how they they try to mitigate catastrophic forgetting. The study concludes, that neither of the methods are completely successful in solving the problem that has been set, as they all fail in the way of mixing the remembered data correctly to create an i.i.d. stream. To address this, three novel solutions are proposed: a method for mixing memorized samples, a strategy for creating more dependent tasks, and an inquiry into using pre-trained models for improved performance.
 
URI
http://hdl.handle.net/10467/123583
Zobrazit/otevřít
PLNY_TEXT (1.753Mb)
PRILOHA (3.815Mb)
POSUDEK (865.3Kb)
POSUDEK (259.3Kb)
Kolekce
  • Bakalářské práce - 13133 [851]

České vysoké učení technické v Praze copyright © 2016 

DSpace software copyright © 2002-2016  Duraspace

Kontaktujte nás | Vyjádření názoru
Theme by 
@mire NV
 

 

Užitečné odkazy

ČVUT v PrazeÚstřední knihovna ČVUTO digitální knihovně ČVUTInformační zdrojePodpora studiaPodpora publikování

Procházet

Vše v DSpaceKomunity a kolekceDle data publikováníAutořiNázvyKlíčová slovaTato kolekceDle data publikováníAutořiNázvyKlíčová slova

Můj účet

Přihlásit se

České vysoké učení technické v Praze copyright © 2016 

DSpace software copyright © 2002-2016  Duraspace

Kontaktujte nás | Vyjádření názoru
Theme by 
@mire NV