004 Informatik
Refine
Year of publication
Document Type
- Master's Thesis (77)
- Bachelor Thesis (14)
- Study Thesis (3)
- Preprint (1)
- Working Paper (1)
Keywords
- XML (10)
- Electronic Commerce (5)
- Internet (5)
- Semantic Web (5)
- Softwareentwicklung (4)
- Benutzerfreundlichkeit (3)
- Datenbank (3)
- Framework <Informatik> (3)
- Java (3)
- Kontext (3)
Die nachfolgende Masterarbeit untersucht die Nutzung von DeepFake-Anwendungen bei Personen mit einer Fazialisparese. Dabei handelt es sich um eine Lähmung des Gesichtnervs, wodurch die betroffenden Menschen keine bzw. keine vollständige Mimik im Gesicht haben. Es wird hierbei getestet, ob mithilfe von DeepFake eine möglichst realistische Mimik generiert werden kann. Für die Untersuchung werden zunächst sowohl die theoretischen Grundlagen als auch verschiedene potenzielle Anwendungen vorgestellt. Mithilfe der vorgestellten Anwendungen wird anschließend ein Versuch durchgeführt, in dem die künstliche Intelligenz mit Bildmaterial von Proband:innen trainiert und anschließend manipuliert wird. Die aus dem Versuch resultierenden Ergebnisse werden danach durch eine Umfrage mit Bildern, welche eine originale Mimik zeigen, verglichen. Dadurch soll überprüft werden, wie realistisch die manipulierten Bild- und Videomaterialien sind oder ob die künstliche Intelligenz an eine mögliche Grenze stößt. Abschließend werden weitere Forschungsansätze und Anwendungsmöglichkeiten vorgestellt, in welchem die betrachtete künstliche Intelligenz genutzt werden kann.
Speedrunning in general means to go fast in a video game. This simple concept has an immense impact on the ways players engage with games. The inherent aspect of optimization within this esports niche makes it a good application field of optimization methods. This work gives an overview of speedrunning as an esports discipline. Prior works on this subject are discussed and assessed and relevant nomenclature is introduced. Using this information, routing --- the procedure of planning a speedrun --- is picked up as a graph optimization problem.
Nintendo's iconic game The Legend of Zelda: Ocarina of Time from 1998 is used as a working example to assess previous works and to explore more of this mainly uncharted field of research.To do so, the process of speedrun modeling is conducted as exhaustive as possible within the limits of a work like this. All relevant steps to obtain a faithful model are lined out. This procedure yields a partial game graph with 6764 nodes and approx. 321,022 edges --- some uncertainty included. Current pathfinding techniques are discussed and assessed regarding their applicability to the presented speedrun routing problem. The resulting graph model and algorithmic approaches present a good reference to identify the most promising points of improvement. Challenges, flaws and possible solutions to still standing problems are discussed and assumptions from prior works are assessed. Finally, further tracks of scholarly and community work in this area are suggested and possible extensions to the approach are lined out.
It is shown that speedrun routing is not a trivial shortest path problem that can be solved with conventional methods. Furthermore, it is made clear that different games can have vastly differing routing circumstances. Assumptions of other works have been assessed using a working example and many interesting challenges and fields of further study and research in the field of speedrunning have been identified. Some probabilistic pathfinding methods and current works on AI agents for games pose interesting approaches which can be extended on by utilizing the findings of the presented work. Specialized modeling and optimization techniques have to be employed in order to have a positive effect on the speedrunning community.
This project was done in collaboration with CERN and is part of the detector control system of the ATLAS experiment. The primary goal foresaw the development and testing of the FPGA card for the MOPS-HUB crate with the focus on radiation tolerance. This was accomplished with the approach of designing two different PCBs. The first PCB was created as a fast prototype with the use of a commercial SOM-board. This was also beneficial for confirming that the chosen FPGA is suitable for the MOPS-HUB application. After the successful assembly and test, a second, more complex and foremost radiation tolerant PCB was designed. This was achieved by solely using components of the CERN radiation database.
The second part of this thesis focuses on increasing the distance of TMR registers with a Python script. A method was created for extracting and later parsing a design’s placement
information from Vivado. Furthermore, were system designed and implemented to recognize TMR cells, to find and validate free cells and to finally create a new placement for import into Vivado. These algorithms were tested with a multitude of configurations and the quality, based on the maximum possible frequency of a design, determined.
Bei der Interaktion mit technischen und sozialen Systemen treten für Menschen mit und ohne Beeinträchtigungen Barrieren auf. Die vorliegende Arbeit befasst sich mit der Identifikation dieser Barrieren. Dabei wird der wissenschaftliche Diskurs über die Ursachen von Barrieren als ein mehrdimensionales Handlungsfeld betrachtet. Der Bezug zur Mensch-Computer-Interaktion wird hergestellt und Philosophien zur Umsetzung von Barrierefreiheit im Gestaltungsprozess werden erläutert. Es wird ein grundlegender Vergleich von Barrierefreiheit und Usability gezogen. Der objekt- und subjektbasierte Ansatz zur Identifizierung von Barrieren wird ebenfalls vorgestellt.
Die gewonnenen Erkenntnisse werden im Kontext des ehrenamtlichen Musikvereins Junges Musical Leverkusen e. V. praktisch umgesetzt. Für den Kooperationspartner wird der Service rund um ein Ticketverkaufssystem auf mögliche Barrieren untersucht. Dazu wird die Domäne analytisch dargestellt und anschließend empirisch untersucht. Es werden Interviews mit fünf Personen mit unterschiedlichen Beeinträchtigungen geführt. Aus den daraus resultierenden identifizierten Barrieren werden Gestaltungsempfehlungen abgeleitet und deren Nutzen für den:die Benutzer:in und Umsetzbarkeit für den Kooperationspartner diskutiert.
Design Patterns im Kontext von mHealth-Anwendungen unter besonderer Berücksichtigung von Privacy
(2021)
Gesundheitsapps bzw. mHealth-Apps werden immer häufiger verwendet, um die Gesundheit aufrechtzuerhalten oder das eigene Gesundheitsverhalten zu verbessern. Vor allem die Corona-Pandemie im Jahr 2020 und die damit einhergehenden Kontaktbeschränkungen führten zu einem Anstieg der Nutzerzahlen. Für diese Forschungsarbeit sind Lifestyle-Apps von besonderem Interesse, da sich diese im Gegensatz zu anderen Arten von mHealth-Apps an Konsumenten als Zielgruppe richten.
Zunächst werden Design-Methoden ermittelt, die bei der Gestaltung von mHealth-Lösungen zum Einsatz kommen. Dabei liegt der Fokus auf Persuasive Technology, die darauf abzielt, Verhaltensweisen des Nutzers zu verändern. Es wird geklärt, auf welchen theoretischen Modellen solche Systeme basieren und mit welchen Vorteilen und Risiken die Nutzung von mHealth-Anwendungen verbunden ist. Die in Persuasive Technology vorkommenden Design-Methoden werden kritisch betrachtet, indem überprüft wird, ob mithilfe von Dark Patterns Schwachstellen der menschlichen kognitiven Fähigkeiten und Verhaltensweisen ausgenutzt werden können und ob es dadurch zur Verletzung der Privatsphäre oder zu einer Gefährdung des seelischen Wohlbefinden des Nutzers kommen kann.
Im empirischen Teil wird eine Umfrage durchgeführt, in der Probanden zu der Nutzung von bestimmten mHealth-Apps und dem Abbruch der Nutzung befragt werden. Bei der Umfrage wird ebenfalls erhoben, ob die Nutzung einen positiven oder negativen Eindruck auf mHealth hinterlassen hat und ob sich der Umgang der persönlichen Daten nach der Nutzung verändert hat.
Domänenspezifische Sprachen gewinnen seit einigen Jahren zunehmend an Bedeutung. Xtext ist eine sogenannte \textit{Language Workbench}, mit der solche Sprachen schnell entwickelt werden können. Neben der Sprachinfrastruktur wird eine inzwischen weit fortgeschrittene Integration in die IDE Eclipse erzeugt und es können optional ein Plug-in für IntelliJ und ein Webeditor erstellt werden. Der Ansatz ist dabei, dass der oder die Codegeneratoren direkt mit dem Abstract Syntax Tree arbeiten. In dieser Arbeit wird gezeigt, wie ein Domänenmodell in eine Xtext-Sprache integriert werden kann und wie Test- und Wartbarkeit davon profitieren. Besondere Beachtung finden, gegeben durch das Projektumfeld, die Anforderungen durch Funktionale Sicherheit.
Die Entwicklung der Computergraphik und ihr Einsatz bei der digitalen Architekturrekonstruktion
(2018)
Die digitale 3D-Rekonstruktion von Architektur- und Archäologieobjekten ist eng mit der anwendung der Methoden und Systeme der Computer Graphik verknüpft. Dieser Artikel stellt solche Verbindungen seit den Anfängen der Computergraphik in den 1950er Jahren bis etwa zur Jahrtausendwende dar. Die Entwicklungen von Methoden zur Gewinnung von 3D-Daten, i.e. 3D-Scannverfahren und Photogrammetrie, werden ergänzend kurz betrachtet.
Die neusten Fortschritte im Bereich Real Time Rendering ermög-lichen virtuelle Produktionsabläufe in weiten Teilen der Industrie. Diese Vorgehensweise setzt latenzfreies Arbeiten und eine akkurate Erscheinung voraus. Daher empfiehlt sich die Verwendung von HDR-Rendering für fotorealistische Ergebnisse und Tone Mapping für die passende Darstellung.
Gleichwohl gibt es bisher nur wenige Publikationen, die sich mit echtzeitfähigem Tone Mapping beschäftigen. Zudem tendieren Tone Mapping Operatoren dazu, Farberscheinungseffekte zu erzeugen, die zu einer Diskrepanz zwischen dargestelltem und realem Produkt führen.
Deshalb werden in dieser Thesis sieben Tone Mapping Operatoren bewertet, die unterschiedliche Ansätze zur Farbkorrektur beinhalten. Sie werden als Fragment Shader implementiert, um Echtzeitverarbeitung zu realisieren. Zusätzlich wird ihre Performance und die subjektive Akkuratesse der Ergebnisse gemessen.
Im Ergebnis schneidet der FilmicTMO als global arbeitender Sigmoid-Operator am besten ab und wird für die weitere Verwendung empfohlen.
The amount of data produced and stored in multiple types of distributed data sources is growing steadily. A crucial factor that determines whether data can be analyzed efficiently is the use of adequate visualizations. Almost simultaneously with the ongoing availability of data numerous types of visualization techniques have emerged. Since ordinary business intelligence users typically lack expert visualization knowledge, the selection and creation of visualizations can be a very time- and knowledge-consuming task. To encounter these problems an architecture that aims at supporting ordinary BI users in the selection of adequate visualizations is developed in this thesis. The basic idea is to automatically provide visualization recommendations based on the concrete BI scenario and formalized visualization knowledge. Ontologies that formalize all relevant knowledge play an important role in the developed architecture and are the key to make the knowledge machine-processable.
This study paper introduces different tools, i.e. analytical methods and visualizations, in business intelligence environments. It especially emphasizes the use of OLAP-based technologies as a tradtional kind of data analysis in contrast to as graph analysis and formal concept analysis as rather new approaches in the area of visual analytics.