Object visibility annotation according to camera trajectory
Anotace viditelnosti objektů scény podle trajektorie kamery
Authors
Supervisors
Reviewers
Editors
Other contributors
Journal Title
Journal ISSN
Volume Title
Publisher
České vysoké učení technické v Praze
Czech Technical University in Prague
Czech Technical University in Prague
Date
Files
Abstract
Tato bakalářská práce vyvíjí metodu pro trvalou detekci oblastí viditelných kamerami ve virtuálních scénách, což vyústilo ve vývoj pluginu pro editor Unreal Engine 5.3. Tento plugin v reálném čase označuje a vizualizuje oblasti viditelnosti zaznamenané scény, což podporuje design scén s předem definovanými trajektoriemi kamer. Práce porovnává dva přístupy k anotacím viditelnosti: texturové anotace a anotace pomocí point cloud datové struktury. Viditelnost je stanovena na základě interakce paprsků vyslaných z kamery s objektovými plochami, řízených kvazi-náhodnými sekvencemi. Efektivita obou metod byla testována na třech scénách různé velikosti a komplexnosti, přičemž metoda využívající point cloud zpracovala scénu s více než 2.3 miliony objektů bez vlivu na frekvenci snímků, na rozdíl od texturové metody, která se ukázala jako nedostatečná pro reálné časové anotace a byla paměťově náročná. Výsledky ukazují, že point cloud je pro anotace výrazně efektivnější než texturové metody, zejména ve velkých a složitých scénách, což poskytuje cenný nástroj pro návrh scén s předem definovanými trajektoriemi kamer.
This bachelors thesis develops a method for the persistent detection of areas visible to cameras in virtual scenes, resulting in a plugin for the Unreal Engine 5.3 editor. This plugin annotates and visualizes visibility coverage in real-time, supporting the design of scenes with predefined camera trajectories. The work compares two annotation approaches: texture-based and point cloud data structure annotations. Visibility is determined by the interaction of camera-emitted rays with object surfaces, directed by quasi-random sequences. Tested on three scenes of varying complexity, the point cloud method processed over 2.3 million objects without affecting the frame rate, unlike the texture-based method which failed in real-time annotation and was memory-intensive. The findings indicate that point cloud annotations are substantially more effective than texture-based methods, particularly in large and complex scenes, providing a valuable tool for scene design with predefined camera trajectories.
This bachelors thesis develops a method for the persistent detection of areas visible to cameras in virtual scenes, resulting in a plugin for the Unreal Engine 5.3 editor. This plugin annotates and visualizes visibility coverage in real-time, supporting the design of scenes with predefined camera trajectories. The work compares two annotation approaches: texture-based and point cloud data structure annotations. Visibility is determined by the interaction of camera-emitted rays with object surfaces, directed by quasi-random sequences. Tested on three scenes of varying complexity, the point cloud method processed over 2.3 million objects without affecting the frame rate, unlike the texture-based method which failed in real-time annotation and was memory-intensive. The findings indicate that point cloud annotations are substantially more effective than texture-based methods, particularly in large and complex scenes, providing a valuable tool for scene design with predefined camera trajectories.