Zobrazit minimální záznam

Estimating Sparse Parameterization of Neural Networks



dc.contributor.advisorŠmídl Václav
dc.contributor.authorLukáš Kulička
dc.date.accessioned2022-06-08T11:51:43Z
dc.date.available2022-06-08T11:51:43Z
dc.date.issued2022-05-27
dc.identifierKOS-1197737410005
dc.identifier.urihttp://hdl.handle.net/10467/101374
dc.description.abstract: Diplomová práce se zabývá metodami odhadu řídké parametrizace neuronových sítí, jimiž je možné prořezávat přeparametrizované neuronové sítě a snížit tak jejich komplexitu ve snaze odhalit pouze relevantní parametry, čímž lze zvýšit celkovou interpretabilitu modelu. V rámci práce jsou popsány klasické a variační způsoby, jakými lze tyto parametrizace odhadovat. K tomu převážně poslouží přehled speciálních apriorních distribucí, zde označovaných jako utahující se apriorna, díky kterým dokážeme do modelu vnést informaci o preferenci řídké parametrizace. Variačními metodami poté lze aproximovat aposteriorní distribuci parametrů modelu. Pomocí této aposteriorní distribuce je možné lépe kvantifikovat neurčitost těchto parametrů. Na závěr práce jsou tyto metody aplikovány na různé modely včetně lineární a logistické regrese, neuronových sítí a multi-instančního učení. Experimenty jsou prováděny jak na syntetických, tak reálných datech.cze
dc.description.abstractThe Master's thesis deals with methods for estimating sparse parameterization of neural networks, which can be used to prune overparameterized neural networks and reduce their complexity in an attempt to reveal only relevant parameters, thus increasing the overall interpretability of the model. In this thesis, the classical and the variational methods, which allow these parameterizations to be estimated, are described. This is achieved by reviewing special prior distributions, here referred to as shrinkage priors, which allow us to incorporate our preferences about sparse parameterizations into the model. Variational methods then help us to approximate the posterior distribution for model parameters. Using this posterior distribution, it is possible to better quantify the uncertainty of the parameters. Finally, the methods are applied to various models, including linear and logistic regression, neural networks, and are also utilized in the concept of multi-instance learning. The experiments are carried out on both synthetic and real data.eng
dc.publisherČeské vysoké učení technické v Praze. Vypočetní a informační centrum.cze
dc.publisherCzech Technical University in Prague. Computing and Information Centre.eng
dc.rightsA university thesis is a work protected by the Copyright Act. Extracts, copies and transcripts of the thesis are allowed for personal use only and at one?s own expense. The use of thesis should be in compliance with the Copyright Act http://www.mkcr.cz/assets/autorske-pravo/01-3982006.pdf and the citation ethics http://knihovny.cvut.cz/vychova/vskp.htmleng
dc.rightsVysokoškolská závěrečná práce je dílo chráněné autorským zákonem. Je možné pořizovat z něj na své náklady a pro svoji osobní potřebu výpisy, opisy a rozmnoženiny. Jeho využití musí být v souladu s autorským zákonem http://www.mkcr.cz/assets/autorske-pravo/01-3982006.pdf a citační etikou http://knihovny.cvut.cz/vychova/vskp.htmlcze
dc.subjectBayesovské metodycze
dc.subjectmulti-instanční učenícze
dc.subjectneuronové sítěcze
dc.subjectřídkostcze
dc.subjectutahující se apriornacze
dc.subjectBayesovské metodyeng
dc.subjectmulti-instanční učeníeng
dc.subjectneuronové sítěeng
dc.subjectřídkosteng
dc.subjectutahující se apriornaeng
dc.titleMetody odhadu řídké parametrizace neuronových sítícze
dc.titleEstimating Sparse Parameterization of Neural Networkseng
dc.typediplomová prácecze
dc.typemaster thesiseng
dc.contributor.refereeRajmic Pavel
theses.degree.grantorkatedra matematikycze
theses.degree.programmeAplikované matematicko-stochastické metodycze


Soubory tohoto záznamu







Tento záznam se objevuje v následujících kolekcích

Zobrazit minimální záznam