ČVUT DSpace
  • Prohledat DSpace
  • English
  • Přihlásit se
  • English
  • English
Zobrazit záznam 
  •   ČVUT DSpace
  • České vysoké učení technické v Praze
  • Fakulta elektrotechnická
  • katedra kybernetiky
  • Bakalářské práce - 13133
  • Zobrazit záznam
  • České vysoké učení technické v Praze
  • Fakulta elektrotechnická
  • katedra kybernetiky
  • Bakalářské práce - 13133
  • Zobrazit záznam
JavaScript is disabled for your browser. Some features of this site may not work without it.

Ovládání robota při interakci s těžkým terénem pomocí zpětnovazebného učení

Controlling a Robot in Difficult Terrain Interaction Tasks with Reinforcement Learning

Typ dokumentu
bakalářská práce
bachelor thesis
Autor
David Korčák
Vedoucí práce
Zimmermann Karel
Oponent práce
Dantu Swati
Studijní obor
Základy umělé inteligence a počítačových věd
Studijní program
Otevřená informatika
Instituce přidělující hodnost
katedra kybernetiky



Práva
A university thesis is a work protected by the Copyright Act. Extracts, copies and transcripts of the thesis are allowed for personal use only and at one?s own expense. The use of thesis should be in compliance with the Copyright Act http://www.mkcr.cz/assets/autorske-pravo/01-3982006.pdf and the citation ethics http://knihovny.cvut.cz/vychova/vskp.html
Vysokoškolská závěrečná práce je dílo chráněné autorským zákonem. Je možné pořizovat z něj na své náklady a pro svoji osobní potřebu výpisy, opisy a rozmnoženiny. Jeho využití musí být v souladu s autorským zákonem http://www.mkcr.cz/assets/autorske-pravo/01-3982006.pdf a citační etikou http://knihovny.cvut.cz/vychova/vskp.html
Metadata
Zobrazit celý záznam
Abstrakt
Tato práce představuje řešení problému mezibodové navigace robota MARV na krátkou vzdálenost v obtížném terénu pomocí strojově naučené metody. Robot MARV je vybaven čtyřmi nezávisle rotujícími pásy, tzv. flippery, které zvyšují jeho mobilitu v náročném terénu. Schopnost nastavovat flippery a lépe se přizpůsobovat terénu zatím nebyla naplno využita existujícími metodami, které selhávají při překonávání vysokých překážek a nerovností. Navržená metoda využívá hlubokého posilovaného učení, kde řízení robota provádí model neuronové sítě s povědomím okolního prostředí, což umožňuje efektivně využívat všechny dostupné ovládací prvky robota včetně řízení flipperů. Pro natrénování modelu formulujeme úlohu jako problém posilovaného učení. Definujeme množinu trénovacích prostředí s různými vlastnostmi terénu jako formu randomizace trénovací domény, čímž umožňujeme modelu naučit se obecnou strategii použitelnou napříč různými terény. Pro urychlení učení implementujeme vlastní paralelizovanou simulaci běžící na GPU provádějící až 10 000 iterací za sekundu. Na této simulaci stavíme plně GPU-akcelerovanou trénovací smyčku. Pomocí algoritmu PPO trénujeme modely schopné řízení robota již po několika desítkách minut učení, podpořené automatickým nastavením hyperparametrů inspirovaným přístupem AutoRL. Ukazujeme, že tyto modely zvládají navigaci v různých prostředích včetně výjezdu po schodech a objíždění jinak nepřekonatelných překážek. Rovněž demonstrujeme, že tyto modely dokáží generalizovat i na prostředí, se kterými se při učení nesetkaly, a to i za přítomnosti silného šumu. Pro získání robustního a výkonného modelu provádíme ensembling naučených modelů průměrováním a demonstrujeme jak zlepšení úspěšnosti, tak i robustnosti, a snížení počtu katastrofických selhání způsobených řízením robota.
 
This thesis presents a learning-based solution to the problem of short range point-to-point navigation of the MARV robot in difficult terrain conditions. The robot is equipped with four independent articulating tracks, so-called flippers, enhancing its mobility in challenging terrains. The ability of the flippers to articulate and better adapt to the terrain has not been fully utilized by existing methods, limiting their deployment potential. The proposed solution is based on a learned, environmentally-aware neural network-based control policy, enabling effective utilization of all available control elements, including the articulation of the flippers. To learn the neural network, we formulate the problem as a reinforcement learning task. We define a set of training environments with different terrain characteristics as a form of domain randomization, learning a general policy usable across various terrains. To facilitate fast and efficient training, we implement a custom, GPU-parallelized simulation performing up to 10 000 timesteps per second. We incorporate the simulation into a fully GPU-accelerated learning pipeline. Using the PPO algorithm, we train capable policies within tens of minutes, aided by automated hyperparameter discovery inspired by the AutoRL approach. We show that our policies are able to navigate various terrains, including ascending stairs and driving around otherwise untraversable obstacles with high success rates. We also demonstrate that the policies are able to generalize to previously unseen environments with different terrain characteristics than those used during training, even in the presence of high-magnitude noise. To obtain a robust, high-performing policy, we ensemble the learned policies by averaging and demonstrate improved success rates, robustness, and decrease in control-induced catastrophic failures.
 
URI
http://hdl.handle.net/10467/123572
Zobrazit/otevřít
PLNY_TEXT (36.85Mb)
PRILOHA (14.22Mb)
POSUDEK (115.4Kb)
POSUDEK (283.4Kb)
Kolekce
  • Bakalářské práce - 13133 [854]

České vysoké učení technické v Praze copyright © 2016 

DSpace software copyright © 2002-2016  Duraspace

Kontaktujte nás | Vyjádření názoru
Theme by 
@mire NV
 

 

Užitečné odkazy

ČVUT v PrazeÚstřední knihovna ČVUTO digitální knihovně ČVUTInformační zdrojePodpora studiaPodpora publikování

Procházet

Vše v DSpaceKomunity a kolekceDle data publikováníAutořiNázvyKlíčová slovaTato kolekceDle data publikováníAutořiNázvyKlíčová slova

Můj účet

Přihlásit se

České vysoké učení technické v Praze copyright © 2016 

DSpace software copyright © 2002-2016  Duraspace

Kontaktujte nás | Vyjádření názoru
Theme by 
@mire NV