Zobrazit minimální záznam

The Study of Linear Self-Attention Mechanism in Transformer



dc.contributor.advisorKovalenko Alexander
dc.contributor.authorUladzislau Yorsh
dc.date.accessioned2022-06-04T22:53:00Z
dc.date.available2022-06-04T22:53:00Z
dc.date.issued2022-06-04
dc.identifierKOS-1179143753005
dc.identifier.urihttp://hdl.handle.net/10467/101224
dc.description.abstractVzhledem k tomu, že kvadratická složitost mechanizmu vnímaní architektury Transformer způsobuje velké náklady na zpracování dlouhých posloupností, cílem dané práce je prozkoumat lineární varianty architektury a implementovat několik nových metod.cze
dc.description.abstractAs the quadratic complexity of an attention mechanism in the Transformer architecture places a high demand on processing long sequences, the goal of this research is to explore possibilities of linear attention in Transformer-like architecture and implement new methods.eng
dc.publisherČeské vysoké učení technické v Praze. Vypočetní a informační centrum.cze
dc.publisherCzech Technical University in Prague. Computing and Information Centre.eng
dc.rightsA university thesis is a work protected by the Copyright Act. Extracts, copies and transcripts of the thesis are allowed for personal use only and at one?s own expense. The use of thesis should be in compliance with the Copyright Act http://www.mkcr.cz/assets/autorske-pravo/01-3982006.pdf and the citation ethics http://knihovny.cvut.cz/vychova/vskp.htmleng
dc.rightsVysokoškolská závěrečná práce je dílo chráněné autorským zákonem. Je možné pořizovat z něj na své náklady a pro svoji osobní potřebu výpisy, opisy a rozmnoženiny. Jeho využití musí být v souladu s autorským zákonem http://www.mkcr.cz/assets/autorske-pravo/01-3982006.pdf a citační etikou http://knihovny.cvut.cz/vychova/vskp.htmlcze
dc.subjecthluboké učenícze
dc.subjectzpracování přirozeného jazykacze
dc.subjecttransformercze
dc.subjectvnímanícze
dc.subjectneuronové sítěcze
dc.subjectdeep learningeng
dc.subjectnatural language processingeng
dc.subjecttransformereng
dc.subjectattentioneng
dc.subjectneural networkseng
dc.titleStudium lineárního self-attention mechanismu v transformerechcze
dc.titleThe Study of Linear Self-Attention Mechanism in Transformereng
dc.typediplomová prácecze
dc.typemaster thesiseng
dc.contributor.refereeKordík Pavel
theses.degree.disciplineZnalostní inženýrstvícze
theses.degree.grantorkatedra aplikované matematikycze
theses.degree.programmeInformatikacze


Soubory tohoto záznamu




Tento záznam se objevuje v následujících kolekcích

Zobrazit minimální záznam