Ofenzivní aplikace strojového učení v kybernetické bezpečnosti
Offensive Applications of Machine Learning in Cybersecurity
Typ dokumentu
disertační prácedoctoral thesis
Autor
Maria Rigaki
Vedoucí práce
García Sebastián
Oponent práce
Pierazzi Fabio
Studijní obor
Informatika - Katedra počítačůStudijní program
InformatikaInstituce přidělující hodnost
katedra počítačůPráva
A university thesis is a work protected by the Copyright Act. Extracts, copies and transcripts of the thesis are allowed for personal use only and at one?s own expense. The use of thesis should be in compliance with the Copyright Act http://www.mkcr.cz/assets/autorske-pravo/01-3982006.pdf and the citation ethics http://knihovny.cvut.cz/vychova/vskp.htmlVysokoškolská závěrečná práce je dílo chráněné autorským zákonem. Je možné pořizovat z něj na své náklady a pro svoji osobní potřebu výpisy, opisy a rozmnoženiny. Jeho využití musí být v souladu s autorským zákonem http://www.mkcr.cz/assets/autorske-pravo/01-3982006.pdf a citační etikou http://knihovny.cvut.cz/vychova/vskp.html
Metadata
Zobrazit celý záznamAbstrakt
S rostoucím využitím umělé intelligence (AI) a strojového učení v kritických systémech kybernetické bezpečnosti roste i riziko jejich zneužití útočníky. Tato disertační práce se zabývá ofenzivními aplikacemi těchto technologií, konkrétně způsoby, jak mohou útočníci obcházet detekci malwaru a používat velké jazykové modely (LLM) jako autonomní plánovací agenty v síťové bezpečnosti.První část zkoumá obcházení statických malware klasifikátorů pomocí technik extrakce modelu. Využitím aktivního učení a transfer learningu jsou konstruovány náhradní (surrogátní) modely, které aproximují chování cílových detektorů fungujících jako černé skříňky, a to při omezeném počtu dotazů. Tyto modely pak slouží k tvorbě adversariálního malwaru, který zůstává funkční a zároveň se vyhýbá detekci. Představujeme algoritmus MEME, který efektivně spojuje extrakci modelu a generování adversariálních vzorků. Evaluace ukazují, že MEME umožňuje útočníkům vytvářet malware s minimem dotazů na cílový model. Druhá část disertace se zabývá ofenzivním využitím velkých jazykových modelů jako autonomních agentů v simulovaných síťových prostředích. Je navržena architektura ReAct+, která umožňuje předtrénovaným jazykovým modelům provádět vícekrokové plánování a realizovat realistické útoky v adversariálních simulacích. Pro překonání omezení cloudových řešení byl dále vyvinut model Hackphyr model s volně přístupnými parametry, optimalizovaný pomocí metody fine-tuning pro lokální využití při zachování konkurenceschopného výkonu. Tato agentní řešení jsou testována ve dvou simulačních prostředích NetSecGame a Microsoft CyberBattleSim a jejich chování je analyzováno ve srovnání s tradičními agenty využívající posilované učení a známými útočnými strategiemi. Výsledky potvrzují, že velké jazykové modely jsou schopny efektivně plnit rozhodovací úlohy v kontextu kybernetické bezpečnosti. Spojením praktických ofenzivních technik s důrazem na reálnou aplikovatelnost a omezení přispívá tato disertační práce k hlubšímu porozumění nově se objevujícím hrozbám v oblasti kybernetické bezpečnosti využívající AI. As artificial intelligence and machine learning become deeply embedded in security-critical systems, their dual-use nature raises questions about how these technologies can be used by adversaries. This thesis explores the offensive applications of machine learning and artificial intelligence in cybersecurity, focusing on how adversaries can exploit such technologies to evade detection and execute complex attacks. It addresses two complementary challenges: the evasion of malware detection systems and the use of large language models (LLMs) as autonomous planning agents in network security environments.The first part of the thesis investigates the evasion of static malware machine learning classifiers and antivirus engines through model extraction attacks. By leveraging active learning and transfer learning, surrogate models are constructed to approximate black-box target detectors under budget-constrained queries. These surrogates are then used to generate evasive malware samples that maintain functionality while bypassing detection. We introduce MEME, a novel algorithm that unifies model extraction and malware evasion into a single, efficient algorithm. We evaluate the ability of the surrogate models and MEME to evade several malware classifiers and AV products and demonstrate that attackers can produce evasive malware using query-efficient strategies. The second part of the thesis examines the offensive use of LLMs as autonomous agents in simulated network environments. We present an extension of the ReAct~\cite{yao2023react} agentic architecture (ReAct+), which enables pre-trained LLMs to perform multi-step planning and execute realistic attack sequences in adversarial simulations. To address the limitations of cloud-based models, we develop Hackphyr, a fine-tuned open-weight model capable of running locally with competitive performance. We evaluate these LLM-based agents in two security environments, NetSecGame and Microsoft CyberBattleSim, and analyze their behavior against traditional RL agents and known attack patterns. Our findings demonstrate the viability of LLMs in decision-making tasks in the cybersecurity domain. By combining practical offensive techniques with a focus on real-world applicability and limitations, this thesis aims to deepen the understanding of emerging threats in AI-driven cybersecurity.
Zobrazit/ otevřít
Kolekce
- Disertační práce - 13000 [748]