Vysvětlitelnost neuronových sítí
Explainable neural networks
Typ dokumentu
diplomová prácemaster thesis
Autor
Vojtěch Drahý
Vedoucí práce
Mařík Radek
Oponent práce
Drchal Jan
Studijní obor
Kybernetická bezpečnostStudijní program
Otevřená informatikaInstituce přidělující hodnost
katedra počítačůPráva
A university thesis is a work protected by the Copyright Act. Extracts, copies and transcripts of the thesis are allowed for personal use only and at one?s own expense. The use of thesis should be in compliance with the Copyright Act http://www.mkcr.cz/assets/autorske-pravo/01-3982006.pdf and the citation ethics http://knihovny.cvut.cz/vychova/vskp.htmlVysokoškolská závěrečná práce je dílo chráněné autorským zákonem. Je možné pořizovat z něj na své náklady a pro svoji osobní potřebu výpisy, opisy a rozmnoženiny. Jeho využití musí být v souladu s autorským zákonem http://www.mkcr.cz/assets/autorske-pravo/01-3982006.pdf a citační etikou http://knihovny.cvut.cz/vychova/vskp.html
Metadata
Zobrazit celý záznamAbstrakt
Často diskutovaným problémem ve strojovém učení je vysvětlitelnost neuronových sítí. Neuronové sítě zaznamenaly v posledních letech masivní rozvoj – používají se v široké škále úloh, od rozpoznávání obrazu přes zpracování jazyka až po marketing. Lidé však vnímají neuronové sítě jako černé skříňky, které mají uvnitř nějaké vstupy, nějaké výstupy a spoustu neznámých. Tento problém neznámého, špatně uchopeného a lidsky nepochopitelného chování ztěžuje jejich uplatnění v oborech, jako je medicína nebo kritická infrastruktura. V těchto oborech není důležité jen říct výsledek, ale ještě důležitější je umět jej zdůvodnit a popsat způsob, jakým k němu došlo. Proto je nutné neuronové sítě prozkoumat a učinit je vysvětlitelnými a interpretovatelnými. Vysvětlitelnost říká, které části vstupních dat jsou pro model důležité a které části modelu je zpracovávají. Interpretovatelnost na základě závěrů vysvětlitelnosti má za cíl vytvořit lidsky srozumitelný souhrn aspektů řešeného problému z pohledu neuronové sítě. Tato práce představuje přehled různých přístupů k řešení vysvětlitelnosti neuronových sítí. Dále je zde uvedena úloha z oblasti kritické infrastruktury v materiálovém inženýrství. Práce si klade za cíl pomocí neuronových sítí a jejich vysvětlitelnosti provést prvotní prozkoumání zadané úlohy, zjistit aspekty aplikace strojového učení a z dosažených výsledků navrhnout směr dalšího postupu. The explainability of neural networks is an often discussed issue in machine learning. Neural networks have experienced massive development in recent years - they are used in a wide range of tasks, from image recognition to language processing to marketing. However, people perceive neural networks as black boxes that have some inputs, some outputs, and a lot of unknowns inside. This problem of unknown, poorly grasped and humanly incomprehensible behaviour makes applying them in fields such as medicine or critical infrastructure difficult. Apart from obtaining the result, in these fields, is even more important to be able to justify it and describe the way in which it came about. Therefore, it is necessary to investigate neural networks and make them explainable and interpretable. Explainability tells which parts of the input data are important to the model and which parts of the model process them. Interpretability based on the conclusions of explainability aims to create a humanly understandable summary of the aspects of the solved problem from the point of view of the neural network. This work presents an overview of different approaches to solving the explainability of neural networks. Furthermore, a task from the critical infrastructure field in materials engineering is presented here. The work aims to use neural networks and their explainability to conduct an initial investigation of the given task, to find out the aspects of machine learning application and propose the direction of the further procedure from the results achieved.
Kolekce
- Diplomové práce - 13136 [833]