Paralelní spojené násobení řídké matice vektorem
Parallel Joint Direct and Transposed Sparse Matrix-Vector Multiplication
Typ dokumentu
diplomová prácemaster thesis
Autor
Claudio Kozický
Vedoucí práce
Šimeček Ivan
Oponent práce
Langr Daniel
Studijní obor
Systémové programováníStudijní program
InformatikaInstituce přidělující hodnost
katedra teoretické informatikyPráva
A university thesis is a work protected by the Copyright Act. Extracts, copies and transcripts of the thesis are allowed for personal use only and at one?s own expense. The use of thesis should be in compliance with the Copyright Act http://www.mkcr.cz/assets/autorske-pravo/01-3982006.pdf and the citation ethics http://knihovny.cvut.cz/vychova/vskp.htmlVysokoškolská závěrečná práce je dílo chráněné autorským zákonem. Je možné pořizovat z něj na své náklady a pro svoji osobní potřebu výpisy, opisy a rozmnoženiny. Jeho využití musí být v souladu s autorským zákonem http://www.mkcr.cz/assets/autorske-pravo/01-3982006.pdf a citační etikou http://knihovny.cvut.cz/vychova/vskp.html
Metadata
Zobrazit celý záznamAbstrakt
Tato práce se zabývá tím, jak sloučit násobení řídké matice vektorem a násobení transponované matice vektorem do jediné operace, která se jmenuje spojené násobení řídké matice vektorem (SpMMTV). Dále se zabývá paralelizací této sloučené operace. Paralelní SpMMTV lze využít ke zrychlení metody bikonjugovaných gradientů, což je iterativní algoritmus pro řešení rozsáhlých řídkých soustav lineárních rovnic. Práce zkoumá stávající formáty pro ukládání řídkých matic a stávající přístupy paralelního SpMMTV. Je vyvinuta a podrobně popsána implementace SpMMTV pro vícejádrové procesory na systémech se sdílenou pamětí. U vyvinutých implementací jsou diskutovány možnosti optimalizace. Některé z diskutovaných optimalizací jsou rovněž implementovány. Jsou porovnány výkonnosti výsledných implementací SpMMTV a srovnány s implementací založenou na knihovně Intel Math Kernel Library. This thesis focuses on investigating approaches to combining sparse matrix-vector multiplication and transposed sparse matrix-vector multiplication into a single operation called joint direct and transposed sparse matrix-vector multiplication (SpMMTV). It also focuses on parallelising this joint operation. A parallel SpMMTV operation can be used to speed up the biconjugate gradient method, which is an iterative algorithm for solving large sparse systems of linear equations. Existing sparse matrix storage formats and existing approaches to parallel SpMMTV are examined in this thesis. Parallel SpMMTV implementations for CPUs on shared memory systems are developed and throughly described. Optimisations of these implementations are discussed and some of them are implemented. The resulting performance of developed SpMMTV implementations is compared with an implementation based on the Intel Math Kernel Library.
Kolekce
- Diplomové práce - 18101 [208]