Soukromí strojového učení: analýza a implementace model-extrahujících útoků
Machine learning privacy: analysis and implementation of model extraction attacks
Typ dokumentu
diplomová prácemaster thesis
Autor
Vít Karafiát
Vedoucí práce
Rigaki Maria
Oponent práce
Babayeva Elnaz
Studijní obor
Kybernetická bezpečnostStudijní program
Otevřená informatikaInstituce přidělující hodnost
katedra počítačůPráva
A university thesis is a work protected by the Copyright Act. Extracts, copies and transcripts of the thesis are allowed for personal use only and at one?s own expense. The use of thesis should be in compliance with the Copyright Act http://www.mkcr.cz/assets/autorske-pravo/01-3982006.pdf and the citation ethics http://knihovny.cvut.cz/vychova/vskp.htmlVysokoškolská závěrečná práce je dílo chráněné autorským zákonem. Je možné pořizovat z něj na své náklady a pro svoji osobní potřebu výpisy, opisy a rozmnoženiny. Jeho využití musí být v souladu s autorským zákonem http://www.mkcr.cz/assets/autorske-pravo/01-3982006.pdf a citační etikou http://knihovny.cvut.cz/vychova/vskp.html
Metadata
Zobrazit celý záznamAbstrakt
Rostoucí popularita a značná vylep-šení ve strojovém učení měla za důsle-dek vytvoření nového typu útoku, zva-ných model-extrahující. Model-extrahujícíútoky jsou útoky na soukromí, jejichž cí-lem je získání informací o daném modelunebo dokonce ukradení jeho funckionality.Tyto typy útoků jsou četně zkoumány, jenicméně velice obtížné provést srovnánímezi konkrétními výzkumy. V této prácipředstavujeme MET, který implementujemodel-extrahující útoky a umožňuje jejichtestování a experimentaci s libovlnými mo-dely a datasety. Za použití tohoto nástrojejsme provedli komplexní srovnání imple-mentovaných útoků s cílem vypozorovat,jak fungují v ruzných scénářích. Naše vý-sledky ukazují, že u scénářů, kde je pouzeblack-box přístup k modelu, útoky fun-gují podobně. Na základě těchto výsledkůjsme navrhuli a implementaovali vylepšeníněkterých z těchto útoků, co se týče jejichrychlosti i výkonu. The rise in popularity and the largeamount of improvements done to MachineLearning (ML) resulted in the emergenceof a new type of attack called model ex-traction attack. Model extraction attacksare privacy attacks, which aim to extractinformation about a victim model or evensteal its functionality. These types of at-tacks are being heavily researched, how-ever, it is very hard to perform compar-isons between the proposed papers. Inthis work, we present MET, which im-plements state-of-the-art model extrac-tion attacks on arbitrary ML models anddatasets. Using the tool, we performeda comprehensive comparison between theimplemented attacks to see how they per-for under different settings. Our resultsshow that in the case of black-box scenar-ios, the attacks perform similarly. Basedon the results, we propose and implementimprovements for some of the attacks bothin terms of speed and performance.
Kolekce
- Diplomové práce - 13136 [833]