Zobrazit minimální záznam

Distributed training of neural networks



dc.contributor.advisorPevný Tomáš
dc.contributor.authorPetr Tománek
dc.date.accessioned2021-09-01T22:51:35Z
dc.date.available2021-09-01T22:51:35Z
dc.date.issued2021-09-01
dc.identifierKOS-960815825405
dc.identifier.urihttp://hdl.handle.net/10467/97057
dc.description.abstractCílem této práce je prozkoumat a porovnat nejmodernější řešení pro distribuovanou metodu největšího spádu. Práce se zaměřuje na vylepšení metody největšího spádu (SGD), která je využita napříč strojovým učením. Na základě provedené řešerše jsou vybrány algoritmy, které jsou dále popsány a implementovány v programovacím jazyce Julia. Pro účely analýzy jsou využita data z bezpečnostní domény nejen s velkým počtem parametrů modelu, ale především i velikostí trénovacích dat. Tato data jsou využita ve formě hierarchického více-instančního modelu. Na těchto datech je následně provedena analýza. V rámci práce vznikly implementace distribuovaných algoritmů metody největšího spádu, které dosahují lepších výsledků než nejmodernější řešení, vzhledem k rychlosti zpracování.cze
dc.description.abstractThe goal of this thesis was to explore and compare the state-of-the-art methods of distributed gradient descent. This thesis focuses on improving the stochastic gradient descent method, that is being applied across Machine Learning. Based on the research we have selected algorithms, that are described and implemented in the Julia programming language. The data for purposes of analysis is selected from the domain of cybersecurity with not only a huge number of model parameters but especially a huge amount of training data. The analysis is performed on these datasets. Multiple distributed algorithms of Stochastic Gradient Descent were implemented as part of this thesis, that achieves better results than state-of-the-art methods in regard to processing time.eng
dc.publisherČeské vysoké učení technické v Praze. Vypočetní a informační centrum.cze
dc.publisherCzech Technical University in Prague. Computing and Information Centre.eng
dc.rightsA university thesis is a work protected by the Copyright Act. Extracts, copies and transcripts of the thesis are allowed for personal use only and at one?s own expense. The use of thesis should be in compliance with the Copyright Act http://www.mkcr.cz/assets/autorske-pravo/01-3982006.pdf and the citation ethics http://knihovny.cvut.cz/vychova/vskp.htmleng
dc.rightsVysokoškolská závěrečná práce je dílo chráněné autorským zákonem. Je možné pořizovat z něj na své náklady a pro svoji osobní potřebu výpisy, opisy a rozmnoženiny. Jeho využití musí být v souladu s autorským zákonem http://www.mkcr.cz/assets/autorske-pravo/01-3982006.pdf a citační etikou http://knihovny.cvut.cz/vychova/vskp.htmlcze
dc.subjectSGDcze
dc.subjectMetoda největšího spáducze
dc.subjectdistribované procesovánícze
dc.subjectStrojové učenícze
dc.subjectHluboké učenícze
dc.subjectSGDeng
dc.subjectStochastic gradient descenteng
dc.subjectdistributed processingeng
dc.subjectMachine learningeng
dc.subjectDeep learningeng
dc.titleDistribuované učení neuronových sítícze
dc.titleDistributed training of neural networkseng
dc.typediplomová prácecze
dc.typemaster thesiseng
dc.contributor.refereeOberhuber Tomáš
theses.degree.disciplineSoftwarové inženýrstvícze
theses.degree.grantorkatedra počítačůcze
theses.degree.programmeOtevřená informatikacze


Soubory tohoto záznamu





Tento záznam se objevuje v následujících kolekcích

Zobrazit minimální záznam