Show simple item record

Symbolic Regression for Reinforcement Learning in Continuous Spaces



dc.contributor.advisorŠtěpánková Olga
dc.contributor.authorEduard Alibekov
dc.date.accessioned2021-10-26T08:19:13Z
dc.date.available2021-10-26T08:19:13Z
dc.date.issued2021-09-17
dc.identifierKOS-591608539105
dc.identifier.urihttp://hdl.handle.net/10467/98283
dc.description.abstractAlgoritmy posilovaného učení (RL) umí optimálně řešit problémy dynamického rozhodování a řízení např. v technických disciplínách, ekonomice, medicíně a umělé inteligenci. Ani nejnovější metody RL ale dosud nepřekročily hranici mezi malými prostory diskrétních stavů a spojitými prostory. K reprezentaci užitkové funkce a řídící strategie využívají tyto algoritmy numerické funkční aproximátory, např. ve formě RBF funkcí nebo neuronových sítí. I když numerické aproximátory jsou dobře prostudovanou oblastí, výběr vhodného aproximátoru a jeho architektury je velmi obtížným krokem, který vyžaduje ladění metodou pokus-omyl. Navíc, numerické aproximátory díky své structuře skoro vždy obsahují tzv. artefakty, které mohou uškodit kvalitě řízení kontrolovaného systému.cze
dc.description.abstractReinforcement Learning (RL) algorithms can optimally solve dynamic decision and control problems in engineering, economics, medicine, artificial intelligence, and other disciplines. However, state-of-the-art RL methods still have not solved the transition from a small set of discrete states to fully continuous spaces. They have to rely on numerical function approximators, such as radial basis functions or neural networks, to represent the value function or policy mappings. While these numerical approximators are well-developed, the choice of a suitable architecture is a difficult step that requires significant trial-and-error tuning. Moreover, numerical approximators frequently exhibit uncontrollable surface artifacts that damage the overall performance of the controlled system.eng
dc.publisherČeské vysoké učení technické v Praze. Vypočetní a informační centrum.cze
dc.publisherCzech Technical University in Prague. Computing and Information Centre.eng
dc.rightsA university thesis is a work protected by the Copyright Act. Extracts, copies and transcripts of the thesis are allowed for personal use only and at one?s own expense. The use of thesis should be in compliance with the Copyright Act http://www.mkcr.cz/assets/autorske-pravo/01-3982006.pdf and the citation ethics http://knihovny.cvut.cz/vychova/vskp.htmleng
dc.rightsVysokoškolská závěrečná práce je dílo chráněné autorským zákonem. Je možné pořizovat z něj na své náklady a pro svoji osobní potřebu výpisy, opisy a rozmnoženiny. Jeho využití musí být v souladu s autorským zákonem http://www.mkcr.cz/assets/autorske-pravo/01-3982006.pdf a citační etikou http://knihovny.cvut.cz/vychova/vskp.htmlcze
dc.subjectposilované učenícze
dc.subjectoptimální řízenícze
dc.subjectapproximace funkcícze
dc.subjectevoluční optimalizacecze
dc.subjectsymbolická regresecze
dc.subjectautonomní systémycze
dc.subjectreinforcement learningeng
dc.subjectoptimal controleng
dc.subjectfunction approximationeng
dc.subjectevolutionary optimizationeng
dc.subjectsymbolic regressioneng
dc.subjectroboticseng
dc.subjectautonomous systemseng
dc.titleSymbolická regrese pro posilováné učení ve spojitých prostorechcze
dc.titleSymbolic Regression for Reinforcement Learning in Continuous Spaceseng
dc.typedisertační prácecze
dc.typedoctoral thesiseng
dc.contributor.refereeLažanský Jiří
theses.degree.disciplineUmělá inteligence a biokybernetikacze
theses.degree.grantorkatedra kybernetikycze
theses.degree.programmeElektrotechnika a informatikacze


Files in this item


This item appears in the following Collection(s)

Show simple item record