Zobrazit minimální záznam

Learning to play real-time strategy games from demonstration using decentralized MAS



dc.contributor.advisorČertický Michal
dc.contributor.authorMalý Jan
dc.date.accessioned2017-06-07T16:12:31Z
dc.date.available2017-06-07T16:12:31Z
dc.date.issued2017-05-26
dc.identifierKOS-695599633405
dc.identifier.urihttp://hdl.handle.net/10467/70113
dc.description.abstractPřes úsilí vynaložené na výzkum Umělé Inteligence, boti do strategických her reálného času nedokáží ohrozit profesionální lidské hráče. Stále je tu spousta výzev, které výzkumníci musí překonat, aby AI mohla prazit experty. V této práci se zabíváme třemi výzvami: adaptivním plánováním, integrací doménové znalosti a integrací AI technik do jednotné architektury. Představujeme použití techniky Inverse Reinforcement Learning jako způsobu, jak se naučit dělat rozhodnutí na základě pozorování her hraných hráči. Abychom mohli integrovat Inverse Reinforcement Learning společně s dalšími technikami vyžadovanými pro realizaci kompletního bota, postavili jsme naší AI na nové jednotné architektůře v podobě vysoce decentralizovaného Multi-agentního systému. Potom, co jsme použili malou množinu ukázek her, náš bot se by shopný naučit strategii, která dokáže v některých scénářích porazit zabudovanou AI. Bot také vykazuje schopnost uzpůsobit své chování situaci. Náš přístup demonstruje nový způsob jak s minimem doménových znalostí vyvíjet bota, který bude výzvou pro lidské hráče.cze
dc.description.abstractDespite the amount of effort put in Artificial Intelligence research, bots for real-time strategy games present no threat for professional human players. There are still many challenges to overcome by researchers to develop AI able to beat experts. In this work, we deal with three challenges: adaptive planning, domain knowledge integration and integration of AI techniques to unified architecture. We introduce the usage of Inverse Reinforcement Learning as a new approach for decision-making based on the observation human gameplay. To be able to integrate Inverse Reinforcement Learning with other techniques needed for the complete bot, we build our AI on new unified architecture in the form of a highly decentralized Multi-agent system. After using a small set of replays, our bot was able to learn strategy which beats built-in AI in some scenarios. The bot also shows the ability to adapt its behavior to the situation. The approach presents a novel way of developing challenging bots with little to none domain expert knowledge.eng
dc.language.isoENG
dc.publisherČeské vysoké učení technické v Praze. Vypočetní a informační centrum.cze
dc.publisherCzech Technical University in Prague. Computing and Information Centre.eng
dc.rightsA university thesis is a work protected by the Copyright Act. Extracts, copies and transcripts of the thesis are allowed for personal use only and at one?s own expense. The use of thesis should be in compliance with the Copyright Act http://www.mkcr.cz/assets/autorske-pravo/01-3982006.pdf and the citation ethics http://knihovny.cvut.cz/vychova/vskp.htmleng
dc.rightsVysokoškolská závěrečná práce je dílo chráněné autorským zákonem. Je možné pořizovat z něj na své náklady a pro svoji osobní potřebu výpisy, opisy a rozmnoženiny. Jeho využití musí být v souladu s autorským zákonem http://www.mkcr.cz/assets/autorske-pravo/01-3982006.pdf a citační etikou http://knihovny.cvut.cz/vychova/vskp.htmlcze
dc.subjectInverse Reinforcement Learning ,Multiagentní system ,strategie reálného času ,botcze
dc.subjectInverse Reinforcement Learning ,Multi-agent system ,real-time strategy game ,boteng
dc.titleUčení se hraní strategických her reálného času z demonstrací s využitím decentralizovaného MAScze
dc.titleLearning to play real-time strategy games from demonstration using decentralized MASeng
dc.typediplomová prácecze
dc.typemaster thesiseng
dc.date.accepted
dc.contributor.refereeSynnaeve Gabriel
theses.degree.disciplineUmělá inteligencecze
theses.degree.grantorkatedra počítačůcze
theses.degree.programmeOtevřená informatikacze


Soubory tohoto záznamu





Tento záznam se objevuje v následujících kolekcích

Zobrazit minimální záznam