Zobrazit minimální záznam

Deep reinforcement learning in complex structured environments



dc.contributor.advisorLisý Viliam
dc.contributor.authorVolný Adam
dc.date.accessioned2018-06-11T07:26:25Z
dc.date.available2018-06-11T07:26:25Z
dc.date.issued2018-06-07
dc.identifierKOS-773337375205
dc.identifier.urihttp://hdl.handle.net/10467/76484
dc.description.abstractVytváření obecných agentů schopných naučit se užitečné rozhodovací strategie v prostředích reálného světa je obtížný úkol. Posilované učení je oblast, která se snaží tento problém vyřešit. Poskytuje obecný, rigorózně definovaný framework, ve kterém lze navrhovat algoritmy pro řešení problémů. Komplexní prostředí reálného světa mívají strukturu, které lze využít. Lidé jsou v tomto ohledu vyjímečně schopní. Protože různá prostředí mívají různou strukturu, vytváření agentů schopných tuto strukturu objevit a využít jí, bez předchozích znalostí o daném prostředí, je stále nevyřešený problém posilovaného učení. Hierarchické posilované učení je podobor, který se zabývá nalezením a využitím hierarchické struktury prostředí. V této práci implementujeme a studujeme dvě metody hierarchického posilovaného učení, Strategic Attentive Writer a FeUdal Networks. Představíme modifikaci modelu FeUdal Networks a ukážeme, že funguje lépe, než původní model v komplexním prostředí, navrženém na míru pro testování hierarchických agentů.cze
dc.description.abstractCreating general agents capable of learning useful policies in real-world environments is a difficult task. Reinforcement learning is the field that aims to solve this problem. It provides a general, rigorously defined framework within which algorithms can be designed to solve various problems. Complex real-world environments tend to have a structure that can be exploited. Humans are extremely proficient at this. Because the structure can vary dramatically between environments, creating agents capable of discovering and exploiting such structure without prior knowledge about the environment is a long-standing and unsolved problem in reinforcement learning. Hierarchical reinforcement learning is a sub-field focused specifically on finding and exploiting a hierarchical structure in the environment. In this work, we implement and study two hierarchical reinforcement learning methods, Strategic Attentive Writer and FeUdal Networks. We propose a modification of the FeUdal Networks model and show that it performs better than the original model on a complex, customly designed environment.eng
dc.language.isoENG
dc.publisherČeské vysoké učení technické v Praze. Vypočetní a informační centrum.cze
dc.publisherCzech Technical University in Prague. Computing and Information Centre.eng
dc.rightsA university thesis is a work protected by the Copyright Act. Extracts, copies and transcripts of the thesis are allowed for personal use only and at one?s own expense. The use of thesis should be in compliance with the Copyright Act http://www.mkcr.cz/assets/autorske-pravo/01-3982006.pdf and the citation ethics http://knihovny.cvut.cz/vychova/vskp.htmleng
dc.rightsVysokoškolská závěrečná práce je dílo chráněné autorským zákonem. Je možné pořizovat z něj na své náklady a pro svoji osobní potřebu výpisy, opisy a rozmnoženiny. Jeho využití musí být v souladu s autorským zákonem http://www.mkcr.cz/assets/autorske-pravo/01-3982006.pdf a citační etikou http://knihovny.cvut.cz/vychova/vskp.htmlcze
dc.subjectHierarchické posilované učení,hloubkové učení,umělé neuronové sítě,makro akce,optionscze
dc.subjectHierarchical reinforcement learning,deep learning,artificial neural networks,macro-actions,optionseng
dc.titleHluboké posilované učení ve složitých strukturovaných prostředíchcze
dc.titleDeep reinforcement learning in complex structured environmentseng
dc.typediplomová prácecze
dc.typemaster thesiseng
dc.date.accepted
dc.contributor.refereeDrchal Jan
theses.degree.disciplineUmělá inteligencecze
theses.degree.grantorkatedra počítačůcze
theses.degree.programmeOtevřená informatikacze


Soubory tohoto záznamu





Tento záznam se objevuje v následujících kolekcích

Zobrazit minimální záznam