Rozpoznání akce pomocí neuronové sítě optimalizované pro běh na edge zařízení
Lightweight Parameter-efficient Neural Network for Action Recognition on Edge Device
dc.contributor.advisor | Vítek Stanislav | |
dc.contributor.author | Tomáš Zámostný | |
dc.date.accessioned | 2024-06-19T09:53:29Z | |
dc.date.available | 2024-06-19T09:53:29Z | |
dc.date.issued | 2024-06-18 | |
dc.identifier | KOS-1240440699005 | |
dc.identifier.uri | http://hdl.handle.net/10467/115674 | |
dc.description.abstract | Umělá inteligence hraje v IoT klíčovou roli, konkrétně při zpracování rozpoznávání lidské činnosti (HAR). Vývoj v tomto směru se zaměřuje na automatizaci HAR. Vznikající trend ve vývoji automatizace systémů HAR. Účinnost těchto systémů však do značné míry závisí na robustních algoritmech hlubokého neuronového učení a zdokonalených hardwarových technologiích. Vision transformers vykazují v oblasti počítačového vidění naprosto dominantní výkon. Navíc zvyšují výkonnost pomocí metod, jako je parameter-efficient transfer-learning (PETL) s rozsáhlými předtrénovanými modely. Bohužel tyto modely založené na transformers mají společnou nevýhodu v tom, že mají mnoho parametrů a zabírají velké množství paměti, což způsobuje, že je obtížné je nasadit na okrajová zařízení jako lehké konvoluční neuronové sítě (CNN). Mým úkolem je vyvinout model schopný rozpoznávaní akcí, a nasadit jej na okrajové zařízení v reálném čase s nízkorozpočtovým tréninkem. V práci navrhuji nejlepší kompromis mezi výkonem a počtem parametrů. Model vznikl na základě architektury MobileViT která byla vyvinuta výzkumníky společnosti Apple. MobileViT je výkonný při extrakci a učení prostorových funkcí. Mým zadaným požadavkem je zpracování videa – musím být schopen zachytit pohyb mezi snímky. Architekturu jsem přepracoval vložením adaptérů (ST-Adapters). Upravuji model na navazující úlohu (downstream task), MobileViT je předtrénovaný a zmrazený. Adaptéry pomáhají zavést do modelu zkreslení související s obrazem a extrahovat časové prvky z videa. Navržený model je dostatečně malý, aby mohl být nasazen na okrajových zařízeních. Model dosáhl slibného výkonu s přesností 74,94 % na datasetu Kinetics-400, přičemž využil pouze 5,3M parametrů. Během trénování bylo aktualizováno pouze 15 % parametrů. Model dále vykazuje dobré skvělé výsledky na Jetson Nano, s predikcí 16,45 snímků za sekundu na zařízení Jetson Nano s využitím 2,58 GB RAM a přesností predikce 71,07 %. | cze |
dc.description.abstract | AI becoming plays a crucial role in IoT, specifically in processing Human activity recognition (HAR). Development driven in this direction focuses on the automation of HAR. The emerging trend in the development of automation HAR systems. However, the effectiveness of these systems relies heavily on robust deep-learning algorithms and improved hardware technologies. Vision transformers show absolute dominance performance in computer vision. Moreover, enhancing performance by using methods such as parameter-efficient transfer-learning with large-scale pre-trained models. Unfortunately, these transformer-based models have the common drawback of having many parameters and a large memory footprint, causing them to be difficult to deploy on edge devices as lightweight convolutional neural networks. My challenge is to develop a model able HAR deployable on edge device in real time with low budget training. In the thesis, I propose the best trade-off between performance and number of parameters. The model emerged from the architecture of MobileViT developed by Apple researchers. MobileViT is powerful in extracting and learning spatial features. My set requirement is process video – I have to be able to capture temporal components. I redevelop the architecture by inserting ST-Adapters. Transforming the model to a downstream task, MobileViT is pretrained and frozen. Adapters help introduce image-related bias into the model and extract temporal features from the video stream. The proposed model is small enough to be deployed on edge devices. The model achieved promising performance with an accuracy of 74.94% on Kinetics-400, utilizing only 5.3M parameters. During training, 15% of the parameters were updated. Furthermore, the model demonstrates an inference speed of 16.45 frames per second on a Jetson Nano device, using 2.58GB RAM, with a prediction accuracy of 71.07%. | eng |
dc.publisher | České vysoké učení technické v Praze. Vypočetní a informační centrum. | cze |
dc.publisher | Czech Technical University in Prague. Computing and Information Centre. | eng |
dc.rights | A university thesis is a work protected by the Copyright Act. Extracts, copies and transcripts of the thesis are allowed for personal use only and at one?s own expense. The use of thesis should be in compliance with the Copyright Act http://www.mkcr.cz/assets/autorske-pravo/01-3982006.pdf and the citation ethics http://knihovny.cvut.cz/vychova/vskp.html | eng |
dc.rights | Vysokoškolská závěrečná práce je dílo chráněné autorským zákonem. Je možné pořizovat z něj na své náklady a pro svoji osobní potřebu výpisy, opisy a rozmnoženiny. Jeho využití musí být v souladu s autorským zákonem http://www.mkcr.cz/assets/autorske-pravo/01-3982006.pdf a citační etikou http://knihovny.cvut.cz/vychova/vskp.html | cze |
dc.subject | Vision Transformers | cze |
dc.subject | Okrajové zařízení | cze |
dc.subject | Dohled | cze |
dc.subject | Rozpoznávání akcí | cze |
dc.subject | Parameter-Efficient Transfer Learning | cze |
dc.subject | Vision Transformers | eng |
dc.subject | Edge Device | eng |
dc.subject | Surveillance | eng |
dc.subject | Action Recognition | eng |
dc.subject | Parameter-Efficient Transfer Learning | eng |
dc.title | Rozpoznání akce pomocí neuronové sítě optimalizované pro běh na edge zařízení | cze |
dc.title | Lightweight Parameter-efficient Neural Network for Action Recognition on Edge Device | eng |
dc.type | diplomová práce | cze |
dc.type | master thesis | eng |
dc.contributor.referee | Fliegel Karel | |
theses.degree.discipline | Komunikační sítě a internet | cze |
theses.degree.grantor | katedra telekomunikační techniky | cze |
theses.degree.programme | Elektronika a komunikace | cze |
Soubory tohoto záznamu
Tento záznam se objevuje v následujících kolekcích
-
Diplomové práce - 13132 [275]