ČVUT DSpace
  • Prohledat DSpace
  • English
  • Přihlásit se
  • English
  • English
Zobrazit záznam 
  •   ČVUT DSpace
  • České vysoké učení technické v Praze
  • Fakulta elektrotechnická
  • katedra počítačů
  • Diplomové práce - 13136
  • Zobrazit záznam
  • České vysoké učení technické v Praze
  • Fakulta elektrotechnická
  • katedra počítačů
  • Diplomové práce - 13136
  • Zobrazit záznam
JavaScript is disabled for your browser. Some features of this site may not work without it.

Distribuční posilované učení za rizika

Risk-Averse Distributional Reinforcement Learning

Typ dokumentu
diplomová práce
master thesis
Autor
Stanko Silvestr
Vedoucí práce
Macek Karel
Oponent práce
Kulich Miroslav
Studijní obor
Umělá inteligence
Studijní program
Otevřená informatika
Instituce přidělující hodnost
katedra počítačů



Práva
A university thesis is a work protected by the Copyright Act. Extracts, copies and transcripts of the thesis are allowed for personal use only and at one?s own expense. The use of thesis should be in compliance with the Copyright Act http://www.mkcr.cz/assets/autorske-pravo/01-3982006.pdf and the citation ethics http://knihovny.cvut.cz/vychova/vskp.html
Vysokoškolská závěrečná práce je dílo chráněné autorským zákonem. Je možné pořizovat z něj na své náklady a pro svoji osobní potřebu výpisy, opisy a rozmnoženiny. Jeho využití musí být v souladu s autorským zákonem http://www.mkcr.cz/assets/autorske-pravo/01-3982006.pdf a citační etikou http://knihovny.cvut.cz/vychova/vskp.html
Metadata
Zobrazit celý záznam
Abstrakt
Podmíněná hodnota v riziku (Conditional Value-at-Risk, CVaR) je známá míra rizika používaná ve finančním sektoru po dekády. CVaR je zároveň ekvivalentní s robustností, důležitou komponentou bezpečnosti Umělé Inteligence. V této diplomové práci se soustředíme na optimalizaci CVaRu v kontextu posilovaného učení, větví strojového učení která nabývá na popularitě díky své obecnosti a potenciálu. Naším prvním originálním příspěvkem je rozšíření algoritmu Iterace užitkové funkce CVaRu (CVaR Value Iteration), využívající distribučního charakteru CVaRu. Navrhovaný způsob výpočtu snižuje výpočetní složitost algoritmu z polynomiální na lineární, což formálně dokážeme pro spojitá pravděpodobnostní rozdělení. Na základě tohoto nového způsobu výpočtu formulujeme Monte Carlo verzi Iterace užitkové funkce CVaRu, kterou nazýváme Q-učení CVaRu. Dále navrhujeme distribuční algoritmus vylepšení strategie (policy improvement), dokážeme jeho správnost a použijeme ho jako heuristiku pro extrakci optimální strategie z Q-učení CVaRu. Závěrem, abychom ukázali praktičnost a použitelnost algoritmu na velkých stavových prostorech, navrhujeme přibližnou metodu Q-učení CVaRu. Toho docílíme přeformulováním iterace Temporální Diference na ztrátovou funkci, kterou později použijeme v kontextu hlubokého učení. Všechny navržené metody jsou experimentálně ověřeny. Iterace užitkové funkce CVaRu a Q-učení CVaRu na 2D prostředí citlivém na riziko, přibližné Q-učení CVaRu na náročnějším vizuálním prostředí. Všechny testované přístupy jsou schopny naučit se strategie citlivé k riziku, a to včetně algoritmu hlubokého Q-učení CVaRu, který se naučí vyhýbat se riziku pouze z obrazové informace - pixelů.
 
Conditional Value-at-Risk (CVaR) is a well-known measure of risk that has been used for decades in the financial sector and has been directly equated to robustness, an important component of Artificial Intelligence (AI) safety. In this thesis we focus on optimizing CVaR in the context of Reinforcement Learning, a branch of Machine Learning that has brought significant attention to AI due to its generality and potential. As a first original contribution, we extend the CVaR Value Iteration algorithm by utilizing the distributional nature of the CVaR objective. The proposed extension reduces computational complexity of the original algorithm from polynomial to linear and we prove it is equivalent to the said algorithm for continuous distributions. Secondly, based on the improved procedure, we propose a sampling version of CVaR Value Iteration we call CVaR Q-learning. We also derive a distributional policy improvement algorithm, prove its validity, and later use it as a heuristic for extracting the optimal policy from the converged CVaR Q-learning algorithm. Finally, to show the scalability of our method, we propose an approximate Q-learning algorithm by reformulating the CVaR Temporal Difference update rule as a loss function which we later use in a deep learning context. All proposed methods are experimentally analyzed, using a risk-sensitive gridworld environment for CVaR Value Iteration and Q-learning and a challenging visual environment for the approximate CVaR Q-learning algorithm. All trained agents are able to learn risk-sensitive policies, including the Deep CVaR Q-learning agent which learns how to avoid risk from raw pixels.
 
URI
http://hdl.handle.net/10467/76432
Zobrazit/otevřít
PLNY_TEXT (2.607Mb)
PRILOHA (21.45Mb)
POSUDEK (576.2Kb)
POSUDEK (216.0Kb)
Kolekce
  • Diplomové práce - 13136 [966]

České vysoké učení technické v Praze copyright © 2016 

DSpace software copyright © 2002-2016  Duraspace

Kontaktujte nás | Vyjádření názoru
Theme by 
@mire NV
 

 

Užitečné odkazy

ČVUT v PrazeÚstřední knihovna ČVUTO digitální knihovně ČVUTInformační zdrojePodpora studiaPodpora publikování

Procházet

Vše v DSpaceKomunity a kolekceDle data publikováníAutořiNázvyKlíčová slovaTato kolekceDle data publikováníAutořiNázvyKlíčová slova

Můj účet

Přihlásit se

České vysoké učení technické v Praze copyright © 2016 

DSpace software copyright © 2002-2016  Duraspace

Kontaktujte nás | Vyjádření názoru
Theme by 
@mire NV