Reducing the Surface for Adversarial Attacks in Malware Detectors
Redukování prostoru pro adversariální útoky v detektorech malwaru
Authors
Supervisors
Reviewers
Editors
Other contributors
Journal Title
Journal ISSN
Volume Title
Publisher
České vysoké učení technické v Praze
Czech Technical University in Prague
Czech Technical University in Prague
Date
Abstract
Adversariální útoky představují významný problém při detekci malwaru, protože umožňují triviálními úpravami již detekovaného malwaru znovu vytvořit nedetekovatelný malware a způsobit chybnou klasifikaci v modelech strojového učení, a to i ve scénářích black-box. Cílem této práce je prostudovat obranné techniky a implementovat nástroj, který dokáže zmírnit dopad těchto útoků pomocí předzpracování vzorků, aby se minimalizovala útočná plocha potřebná k vytvoření adversariálních vzorků. Naše technika byla podrobena důkladnému testování proti řadě generátorů protivníků. Výsledky tohoto testování prokázaly účinnost našeho přístupu, přičemž u několika vybraných generátorů došlo k pozoruhodnému snížení míry vyhýbání se detekci na nula procent. Toho bylo dosaženo bez jakéhokoli negativního dopadu na přesnost detekce běžného malwaru.
Adversarial attacks pose a significant problem in malware detection because they allow trivial modifications to already detected malware to recreate undetectable malware and cause misclassification in machine learning models, even in black-box scenarios. The goal of this work is to study defensive techniques and implement a tool that can mitigate the impact of these attacks by preprocessing samples to minimize the attack surface needed to create adversarial samples. Our technique has been subjected to rigorous testing against a number of adversarial generators. The results of this testing have demonstrated the efficacy of our approach, with a notable reduction in the evasion rate of detection for a select few generators to zero percent. This has been achieved without any adverse impact on the detection accuracy of common malware.
Adversarial attacks pose a significant problem in malware detection because they allow trivial modifications to already detected malware to recreate undetectable malware and cause misclassification in machine learning models, even in black-box scenarios. The goal of this work is to study defensive techniques and implement a tool that can mitigate the impact of these attacks by preprocessing samples to minimize the attack surface needed to create adversarial samples. Our technique has been subjected to rigorous testing against a number of adversarial generators. The results of this testing have demonstrated the efficacy of our approach, with a notable reduction in the evasion rate of detection for a select few generators to zero percent. This has been achieved without any adverse impact on the detection accuracy of common malware.