Show simple item record

Relaxed Quantization and Binarization for Neural Networks



dc.contributor.advisorShekhovtsov Oleksandr
dc.contributor.authorMartin Mráz
dc.date.accessioned2022-05-31T22:52:27Z
dc.date.available2022-05-31T22:52:27Z
dc.date.issued2022-05-31
dc.identifierKOS-1062775355505
dc.identifier.urihttp://hdl.handle.net/10467/100861
dc.description.abstractKvantované neuronové sítě (QNNs) pomáhají implementovat rozsáhlé modely na zařízeních s omezenými hardwarovými zdroji. Cílem této práce je porovnat a zlepšit metody pro trénování QNNs, aby se zmenšil rozdíl mezi kvantizovanými a 'full-precision' modely. Diskretizace je obecně nediferencovatelný proces, a proto je nevhodná pro optimalizaci zpětným šířením gradientu chyby. Zavedení stochastičnosti do neuronových sítí tento problém řeší za cenu složitějšího tréninkového procesu. Byly studovány dvě rodiny metod pro trénování QNNs. Obě zavádějí do standardních neuronových sítí stochastickou kvantizaci. Jedna rodina vzorkuje stochastické kvantizované hodnoty během dopředné propagace. Druhá rodina propaguje momenty pravděpodobnostních rozdělení. Navrhujeme zjednodušení metod založených na vzorkování a navrhujeme, že by pravděpodobnostní propagace mohla být použita pro předtrénování sítí. Předtrénování umožňuje využít jinak pomalu se učící binární neuronové sítě na širší škále architektur hlubokých neuronových sítí. Experimenty ověřují funkčnost obou přístupů na datasetech MNIST a CIFAR.cze
dc.description.abstractQuantized neural networks (QNNs) help implement large-scale models on devices with limited hardware resources. This thesis aims to compare and improve methods for training QNNs, so the gap between quantized and full-precision models closes. Discretization is generally a non-differentiable procedure and, therefore, unsuitable for gradient-based backpropagation. The introduction of stochasticity to the network solves this issue for the price of a more complex training process. Two families of methods were studied to train QNNs. Both introduce stochastic quantization into the standard NNs. One family samples stochastic quantized values in the forward pass. The other family propagates moments of probability distributions. We propose simplifications to sampling-based methods and suggest that probabilistic propagation can be used for pre-training. Pre-training enables the otherwise slow learning binary NNs to be used on a broader range of deep NN architectures. Experiments validate the functionality of both approaches on the MNIST and CIFAR datasets.eng
dc.publisherČeské vysoké učení technické v Praze. Vypočetní a informační centrum.cze
dc.publisherCzech Technical University in Prague. Computing and Information Centre.eng
dc.rightsA university thesis is a work protected by the Copyright Act. Extracts, copies and transcripts of the thesis are allowed for personal use only and at one?s own expense. The use of thesis should be in compliance with the Copyright Act http://www.mkcr.cz/assets/autorske-pravo/01-3982006.pdf and the citation ethics http://knihovny.cvut.cz/vychova/vskp.htmleng
dc.rightsVysokoškolská závěrečná práce je dílo chráněné autorským zákonem. Je možné pořizovat z něj na své náklady a pro svoji osobní potřebu výpisy, opisy a rozmnoženiny. Jeho využití musí být v souladu s autorským zákonem http://www.mkcr.cz/assets/autorske-pravo/01-3982006.pdf a citační etikou http://knihovny.cvut.cz/vychova/vskp.htmlcze
dc.subjectkvantizované neuronové sítěcze
dc.subjectstochastické neuronové sítěcze
dc.subjectuvolněná kvantizacecze
dc.subjectpravděpodobnostní učenícze
dc.subjectbinární neuronové sítěcze
dc.subjectquantized neural networkseng
dc.subjectstochastic neural networkseng
dc.subjectrelaxed quantizationeng
dc.subjectprobabilistic learningeng
dc.subjectbinary neural networkseng
dc.titleUvolněná kvantizace a binarizace neuronových sítícze
dc.titleRelaxed Quantization and Binarization for Neural Networkseng
dc.typebakalářská prácecze
dc.typebachelor thesiseng
dc.contributor.refereeAzayev Teymur
theses.degree.grantorkatedra kybernetikycze
theses.degree.programmeKybernetika a robotikacze


Files in this item




This item appears in the following Collection(s)

Show simple item record