Zobrazit minimální záznam

Parallel Joint Direct and Transposed Sparse Matrix-Vector Multiplication



dc.contributor.advisorŠimeček Ivan
dc.contributor.authorClaudio Kozický
dc.date.accessioned2019-06-11T14:48:59Z
dc.date.available2019-06-11T14:48:59Z
dc.date.issued2019-06-09
dc.identifierKOS-862365811005
dc.identifier.urihttp://hdl.handle.net/10467/82592
dc.description.abstractTato práce se zabývá tím, jak sloučit násobení řídké matice vektorem a násobení transponované matice vektorem do jediné operace, která se jmenuje spojené násobení řídké matice vektorem (SpMMTV). Dále se zabývá paralelizací této sloučené operace. Paralelní SpMMTV lze využít ke zrychlení metody bikonjugovaných gradientů, což je iterativní algoritmus pro řešení rozsáhlých řídkých soustav lineárních rovnic. Práce zkoumá stávající formáty pro ukládání řídkých matic a stávající přístupy paralelního SpMMTV. Je vyvinuta a podrobně popsána implementace SpMMTV pro vícejádrové procesory na systémech se sdílenou pamětí. U vyvinutých implementací jsou diskutovány možnosti optimalizace. Některé z diskutovaných optimalizací jsou rovněž implementovány. Jsou porovnány výkonnosti výsledných implementací SpMMTV a srovnány s implementací založenou na knihovně Intel Math Kernel Library.cze
dc.description.abstractThis thesis focuses on investigating approaches to combining sparse matrix-vector multiplication and transposed sparse matrix-vector multiplication into a single operation called joint direct and transposed sparse matrix-vector multiplication (SpMMTV). It also focuses on parallelising this joint operation. A parallel SpMMTV operation can be used to speed up the biconjugate gradient method, which is an iterative algorithm for solving large sparse systems of linear equations. Existing sparse matrix storage formats and existing approaches to parallel SpMMTV are examined in this thesis. Parallel SpMMTV implementations for CPUs on shared memory systems are developed and throughly described. Optimisations of these implementations are discussed and some of them are implemented. The resulting performance of developed SpMMTV implementations is compared with an implementation based on the Intel Math Kernel Library.eng
dc.publisherČeské vysoké učení technické v Praze. Vypočetní a informační centrum.cze
dc.publisherCzech Technical University in Prague. Computing and Information Centre.eng
dc.rightsA university thesis is a work protected by the Copyright Act. Extracts, copies and transcripts of the thesis are allowed for personal use only and at one?s own expense. The use of thesis should be in compliance with the Copyright Act http://www.mkcr.cz/assets/autorske-pravo/01-3982006.pdf and the citation ethics http://knihovny.cvut.cz/vychova/vskp.htmleng
dc.rightsVysokoškolská závěrečná práce je dílo chráněné autorským zákonem. Je možné pořizovat z něj na své náklady a pro svoji osobní potřebu výpisy, opisy a rozmnoženiny. Jeho využití musí být v souladu s autorským zákonem http://www.mkcr.cz/assets/autorske-pravo/01-3982006.pdf a citační etikou http://knihovny.cvut.cz/vychova/vskp.htmlcze
dc.subjectmetoda bikonjugovaných gradientůcze
dc.subjectnásobení řídké matice vektoremcze
dc.subjectOpenMPcze
dc.subjectparalelizacecze
dc.subjectřídká maticecze
dc.subjectbiconjugate gradient methodeng
dc.subjectOpenMPeng
dc.subjectparallelisationeng
dc.subjectsparse matrixeng
dc.subjectsparse matrix-vector multiplicationeng
dc.titleParalelní spojené násobení řídké matice vektoremcze
dc.titleParallel Joint Direct and Transposed Sparse Matrix-Vector Multiplicationeng
dc.typediplomová prácecze
dc.typemaster thesiseng
dc.contributor.refereeLangr Daniel
theses.degree.disciplineSystémové programovánícze
theses.degree.grantorkatedra teoretické informatikycze
theses.degree.programmeInformatikacze


Soubory tohoto záznamu




Tento záznam se objevuje v následujících kolekcích

Zobrazit minimální záznam