000 Allgemeines, Informatik, Informationswissenschaft
Refine
Year of publication
Document Type
- Bachelor Thesis (50)
- Master's Thesis (49)
- Article (7)
- Report (6)
- Study Thesis (6)
- Conference Proceeding (3)
- Contribution to a Periodical (2)
- Other (2)
- Working Paper (2)
Has Fulltext
- yes (127)
Keywords
- E-Learning (7)
- Informatik (7)
- Datenbank (5)
- Datenschutz (5)
- Augmented Reality (4)
- Data Mining (4)
- Diabetes mellitus Typ 1 (4)
- Erweiterte Realität <Informatik> (4)
- Gamification (4)
- Agile Softwareentwicklung (3)
Faculty
- Fakultät 10 / Institut für Informatik (66)
- Fakultät 10 / Advanced Media Institute (25)
- Fakultät 10 / Cologne Institute for Digital Ecosystems (7)
- Fakultät 03 / Institut für Informationswissenschaft (6)
- Fakultät 07 / Institut für Medien- und Phototechnik (5)
- Fakultät 07 / Institut für Nachrichtentechnik (4)
- Fakultät 10 / Institut Allgemeiner Maschinenbau (3)
- Fakultät 01 / Institut für Medienforschung und Medienpädagogik (2)
- Fakultät 04 / Schmalenbach Institut für Wirtschaftswissenschaften (2)
- Fakultät 09 / Cologne Institute for Renewable Energy (2)
Diese Arbeit untersucht verschiedene Ansätze, Daten im Google Cloud Firestore zu strukturieren und deren Auswirkungen auf Kosten, Performance sowie Codequalität. Zunächst folgt eine Aufbereitung des aktuellen Stands der Forschung. Darauf folgt die experimentelle Methodik. Hier dient eine prototypische Implementierung der Szenarien als Grundlage. Im Zuge des Experiments werden in unterschiedlichen Disziplinen Daten erhoben und im Anschluss ausgewertet, um empfehlenswerte Lösungen für definierte Anwendungsfälle zu benennen. Am Ende gibt die Arbeit ein kurzes Fazit zu den gewonnenen Erkenntnissen sowie einen Ausblick auf weitere Optimierungspotenziale ab.
Die vorliegende Bachelorarbeit „Konzeptionierung eines Unterstützungsangebotes für Frauen im Informatikstudium an der TH Köln“ soll Frauen, die ein Informatikstudium anfangen oder gerade Informatik studieren, helfen, das Studium einfach und erfolgreich zu bewältigen. Dabei soll für die Hochschule ein verwertbares Konzept erstellt werden, in dem bestimmte Unterstützungspunkte entwickelt und herausgearbeitet werden. Der Fokus liegt dabei auf den Bachelorstudiengängen in Informatik an der Technischen Hochschule Köln am Campus Gummersbach.
Die Arbeit wurde im Zeitraum von Februar bis Mai 2022 in Köln verfasst und umfasst ca. 90 Seiten.
Kategorisierung und Bewertung plattformübergreifender Ansätze für die Auswahl eines Frameworks
(2023)
Die plattformübergreifende Entwicklung ist eine populäre Art der Anwendungsentwicklung, die in der Forschung und Industrie immer weiter an Relevanz gewinnt. Dabei wird eine Codebasis geschrieben, die auf mehreren Betriebssystemen lauffähig ist. Das Ziel dieses Ansatzes ist es unter anderem, die Zeit- und Kosteneffizienz zu optimieren. Es gibt verschiedene Ansätze der plattformübergreifenden Entwicklung. Die einzelnen Frameworks lassen sich wiederum in diese Ansätze einteilen. Durch die steigende Akzeptanz dieser Art der Entwicklung herrscht eine zu große Auswahl an Frameworks, von denen jedes eigene Stärken und Schwächen aufweist. Dies ist ein Problem, da Entwickelnde keine Übersicht und Einordnung der Frameworks für ihre individuellen Bedürfnisse haben. Um diesem Problem entgegen zu wirken, wird in dieser Arbeit ein Verfahren entwickelt, mit dem das passende Framework für die Rahmenbedingungen des jeweiligen Projekts ermittelt werden kann. Dazu werden die Frameworks Kotlin Multiplatform, Flutter, React Native und Vue.js, das zur Umsetzung einer PWA genutzt wird, für eine mobile Anwendung getestet, die auf Android und iOS Geräten laufen soll. Zusätzlich werden 44 Kriterien ermittelt, anhand derer die Frameworks bewertet werden. Mit dem resultierenden Verfahren kann sowohl eine objektive, als auch eine subjektive Auswertung der Frameworks erfolgen, um eine geeignete Auswahl zu treffen.
Smartphones und die Nutzung von mobilen Anwendungen gewinnen aufgrund der stetig voranschreitenden Digitalisierung weiter an Relevanz. Im April 2022 lag die Zahl der genutzten mobilen Endgeräte bei knapp 6 Milliarden, wobei die Hersteller Apple
und Google einen Marktanteil von knapp 99 % einnehmen. Um als Entwickler eine möglichst große Zielgruppe anzusprechen, ist es daher wichtig, die eigene Anwendung auf möglichst vielen Plattformen zur Verfugung stellen zu können. Die native Entwicklung ist einer der am meist verbreitetste Entwicklungsansatz für mobile Anwendungen. Dort werden plattformspezifische Tools sowie native Programmiersprachen verwendet. Hierbei ergeben sich allerdings diverse Herausforderungen für Entwickler entlang des gesamten Entwicklungsprozesses. Neben der nativen Entwicklung existiert der Ansatz von Cross-Plattform. Hierbei handelt es sich um einen Sammelbegriff für verschiedene Ansätze, welche das Ziel verfolgen eine Anwendung durch die Nutzung einer einheitlichen Codebasis auf mehreren Plattformen zur Verfugung zu stellen. Einer dieser Unteransätze ist
Backend-Driven UI, worin die gesamte Anwendung innerhalb eines strukturierten Datenformats beschrieben und serverseitig verwaltet wird. Der Client kann diese Daten dann dynamisch anfragen und zur Laufzeit in native UI überführen. Das Konzept von Backend-Driven UI wird bereits durch Unternehmen wie Airbnb oder SiriusXM eingesetzt, ist hier allerdings stark auf anwendungsbezogene Prozesse zugeschnitten. Es bedarf daher eines Backend-Driven UI Frameworks, welches es Entwicklern ermöglichen soll, mobile Anwendungen, ohne anwendungsspezifische Einschränkungen plattformübergreifend zu entwickeln. Im Rahmen dieser Arbeit wurde daher zunächst eine plattformunabhängige und erweiterbare Architektur eines solchen Frameworks entwickelt und in Form eines ersten Prototyps auf ihre Umsetzbarkeit geprüft. Insgesamt stellt der Prototyp eine mögliche Umsetzung von Backend-Driven UI dar und ist in der Lage erste Anwendungsszenarien abzudecken. Es konnten dennoch Bereiche ermittelt werden, welche im Zuge zukünftiger Entwicklung ausgebaut werden können. Dazu zählt unter anderem das Umsetzen von serverseitig bestimmter Anwendungslogik sowie der Umgang mit Unterschieden im plattformspezifischen Funktionsumfang.
Konzeption einer flexiblen Systemarchitektur zur dynamischen Konfiguration hybrider Lernräume
(2021)
In dieser Arbeit wird eine dynamische Systemarchitektur für die Schaffung hybrider Ökosysteme konzipiert, welche eine flexible und kontextgerechte Konfiguration hybrider Lernräume ermöglichen. Aufgrund der variierenden Definitionen hybrider Lehre und Lernräume sowie der schwachen Abgrenzung zu verwandten Begriffen findet hierfür zunächst eine Konkretisierung eigener Arbeitsdefinitionen statt. Aufbauend auf diesen Begriffsbestimmungen und ausführlichen Literaturrecherchen, werden anschließend sich interdisziplinär überschneidende Kernelemente hybrider Lehre und Lernräume identifiziert sowie in einem Übersichtsmodell zusammengefasst. Durch die Literaturrecherche ersichtliche Charakteristiken des hybriden Paradigmas werden ebenso in
Beziehung gesetzt und zusammenfassend aufgeführt. Auf Basis dieser Übersichten und unter Berücksichtigung weiterer Forschungsergebnisse wird nachfolgend ein Vorgehensmodell kreiert, welches kontextgerechte Designs hybrider Systeme strukturiert ermöglicht. Neben didaktischen, physischen und digitalen Komponenten werden dafür diverse Typen von Lernaktivitäten identifiziert, welche als Ausgangspunkt eine effiziente und praxisorientierte Planung ermöglichen.
Alle erstellten Modelle bilden abschließend die Grundlage der konzipierten Systemarchitektur, in welcher die hybriden Kernkonzepte aus einer technischen Perspektive beleuchtet werden. Das hierdurch repräsentierte Microservice-Websystem beinhaltet neben notwendigen Basis-Services vor allem einen dynamischen Plugin-Mechanismus, welcher die flexible Integration neuer Bestandteile ermöglicht. So kann der Funktionsumfang auf sich wandelnde Anforderungen der Nutzer angepasst werden und die Anwendung mit der Zeit zu einem umfassenden Ökosystem heranwachsen.
Die vorliegende Arbeit beschäftigt sich mit der Gestaltung eines digitalen Assistenzsystemes zur Nutzung von Innovationsräumen. Digitale Assistenten werden bereits schon
seit längerer Zeit eingesetzt, beispielsweise in der Industrie 4.0 (vgl. Perevalova (2022). Innovation stellt derweilen eine Grundlage für wirtschaftlichen und unternehmerischen Erfolg dar (vgl. Schumpeter (1939) und wird durch Innovationsräume (vgl. Klooker u. a. (2019) und Innovationsprozesse wie dem Design Thinking unterstützt. Diese Prozesse werden dabei häufig von Innovation Coaches unterstützt. Der Ansatz des Innovationscoachings wurde von Albers u. a. (2016) beschrieben. Darauf aufbauend identifizierten Niever u. a. (2019) bereits zwölf Kernkompetenzen, die für einen Innovation Coach in Zukunft wichtig sein werden. Ein Problem, was sich dabei darstellt ist, dass diese Coaches häufig durch externe Moderatoren gestellt werden, welche ein Team nicht dauerhaft begleiten. Ohne die Coaches fehlt den Laien auf diesem Gebiet die nötige Methodenkompetenz, um eigenständig und methodisch Innovationen und Kreativität zu fördern. Diese Arbeit versucht daher, das Innovationscoaching mit einem digitalen Assistenten zu verbinden, um die eigenständige Nutzung von Innovationsräumen zu erleichtern und die Effizienz von Innovationsprozessen zu steigern. Dafür konnten zunächst durch die Auswertung von fünf Experteninterviews 63 Aufgaben eines Coaches und Aspekte des Systems identifiziert werden, die bei der Entwicklung eines Assistenzsystems bearbeitet werden sollten. Außerdem konnten 22 technische Kriterien formuliert werden, die bei der Auswahl einer geeigneten Technologie helfen können. Darüber hinaus wurden Lösungsmöglichkeiten für die wichtigsten Aufgaben eines Assistenzsystems aufgezeigt. Diese unterstreichen beispielweise die Relevanz der Forschungsfelder Indoor-Lokalisierung und künstliche Intelligenz. Die Ergebnisse dieser Arbeit sollen dazu beitragen, das Potenzial von digitalen Assistenzsystemen im Kontext von Innovationsprozessen zu verdeutlichen. Dies kann Unternehmen dabei unterstützen, Innovationsprozesse effizienter zu gestalten, unabhängig von Ressourcen oder Fachkräftemangel. In weiteren Forschungen könnte die konkrete Entwicklung des Assistenzsystems fortgeführt werden. Dabei könnte der Fokus auf die Aspekte eines hybriden Meetings gelegt werden oder darauf, wie ein mobiles Assistenzsystem gestaltet werden kann, das in verschiedene Räume mitgenommen werden kann.
In dieser Arbeit wird ein System zur Modellierung von IT-Compliance-Anforderun-gen in einer Graph-Datenbank entwickelt. Dabei werden organisationsinterne Com-pliance-Maßnahmen, ihre Umsetzungsdokumentation und die zwischen ihnen entstehenden Beziehungen berücksichtigt. Anschließend werden die Stärken und Schwächen des Systems anhand einer Erprobung mit Anforderungen an ein fiktives IT-Projekt der deutschen Versicherungsbranche herausgestellt und so die Praxistauglichkeit bewertet. Es wird unter anderem aufgezeigt, wie Compliance- Daten in die Datenbank aufgenommen werden können und welche Unterschiede es zu bisher verbreiteten Prozessen in diesem Gebiet gibt.
Für den erfolgreichen Ausbau der Elektromobilität nimmt die Nutzerakzeptanz eine entscheidende Rolle ein. Neben den Anschaffungskosten, Wirkungsgraden und Reichweiten fällt vor allem der Komfort des Ladevorgangs als entscheidende Einflussgröße ins Gewicht. Zum aktuellen Zeitpunkt beeinflussen eine Reihe an negativen Faktoren (z.B. Ladeinfrastruktur, Preisintransparenz und vielfältige Bezahlsysteme) den Ladekomfort und halten potenzielle Käufer eines Elektroautos letztlich vom Erwerb ab. Im Rahmen dieser Arbeit soll aus unmittelbarer Sicht der Nutzer:innen der derzeitige Stand der Ladeinfrastruktur und das aktuelle Nutzerverhalten sowie potenzielle Erfolgsfaktoren herausgearbeitet werden. Weiterhin werden verschiedene Lösungsvorschläge erprobt, die den Ladekomfort an öffentlichen Ladesäulen erhöhen soll. Dazu wird eine zweitstufige Online-Studie im Zuge des vom Bundesministerium für Wirtschaft und Klimaschutz geförderten Transformationsnetzwerk „TrendAuto2030plus“ koordiniert und von Studierenden des Master-Kurses „Technologie und Innovationsmanagement“ an der TH Köln durchgeführt. Gemessen an der bisherigen Nachfrage ist die Ladeinfrastruktur in Deutschland besser als ihr Ruf. Ein deutliches Bild der Unzufriedenheit zeigt sich derweil in Bezug auf die aktuell vorherrschende Preisintransparenz an öffentlichen Ladestationen. Die Vielfalt der Tarifmodelle und Bezahlsysteme erfordern eine großen Strukturierungs- und Informationsbedarf. Es werden Systeme der Preisanzeige gefragt sein, die der Vielfalt und Dynamik der unterschiedlichen Bezahl- und Tarifmodelle Rechnung tragen und diese transparent und nutzerfreundlich ausweisen.
As a customer, it can be frustrating to face an empty shelf in a store. The market does not always realize that a product has been out of stock for a while, as the item is still listed as in stock in the inventory management system. To address this issue, a camera should be used to check for Out-of-Stock (OOS) situations.
This master thesis evaluates different model configurations of Artificial Neural Networks (ANNs) to determine which one best detects OOS situations in the market using images. To create a dataset, 2,712 photos were taken in six stores. The photos clearly show whether there is a gap on the shelf or if the product is in stock. Based on the pre-trained VGG16 model from Keras, two fully connected layers were implemented, with 36 different ANNs differing in the optimization method and activation function pairings. In total, 216 models were generated in this thesis to investigate the effects of three different optimization methods combined with twelve different activation function pairings. An almost balanced ratio of OOS and in-stock data was used to generate these models.
The evaluation of the generated OOS models shows that the FTRL optimization method achieved the least favorable results and is therefore not suitable for this application. Model configurations using the Adam or SGD optimization methods achieve much better results. Of the top six model configurations, five use the Adam optimization method and one uses SGD. They all achieved an accuracy of at least 93% and were able to predict the Recall for the OOS class with at least 91%.
As the data ratio between OOS and in-stock data did not correspond to reality in the previously generated models, the in-stock images were augmented. Including the augmented images, new OOS models were generated for the top six model configurations. The results of these OOS models show no convergences. This suggests that more epochs in the training phase lead to better results. However, the results of the OOS model using the Adam optimization method and the Sigmoid and ReLU activation functions stand out positively. It achieved the best result with an accuracy of 97.91% and a Recall of the OOS class of 87.82%.
Overall, several OOS models have the potential to increase both market sales and customer satisfaction. In a future study, the OOS models should be installed in the market to evaluate their performance under real conditions. The resulting insights can be used for continuous optimization of the model.
Durch die stetige Weiterentwicklung und die mediale Präsenz der künstlichen Intelligenz findet die Steigerung der Unternehmenssicherheit in Unternehmen besondere Bedeutung. Insbesondere aus dem Umfeld des Machine Learnings sind kontinuierlich Anwendungen zu verzeichnen, die dazu dienen, eine derartige Maßnahme zu unterstützen.
Im Rahmen dieser Arbeit wurde untersucht, ob eine potenzielle Steigerung der Unternehmenssicherheit durch den Einsatz eines Prototyps für die Objekterkennung basierend auf einem YOLOv5-Algorithmus erreicht werden kann. Es wurden Beispielszenarien definiert und die Wirksamkeit dieses Algorithmus bei der Erkennung und Identifizierung in Bezug auf die Sicherheitsanforderungen in einem Unternehmensumfeld evaluiert.
Die Forschungsmethodik umfasste die Entwicklung und den Aufbau des Prototyps, der auf einem YOLOv5-Algorithmus basiert und auf einem Trainingsdatensatz der Objekterkennung trainiert wurde. Der Prototyp wurde anschließend in einer Laborumgebung implementiert und auf seine Fähigkeit getestet, Objekte nach definierten Sicherheitsanforderungen zu erkennen.
Die Implementierung eines solchen Prototyps konnte dazu beitragen, die Sicherheitsmaßnahmen in Unternehmen zu unterstützen, die Sicherheitsreaktion zu beschleunigen und proaktivere Ansätze zur Gefahrenabwehr zu ermöglichen. Aus diesen Ergebnissen sind weitere Forschungen und praktische Anwendungen im Bereich der Unternehmenssicherheit denkbar.
Surrogate-based optimization, nature-inspired metaheuristics, and hybrid combinations have become state of the art in algorithm design for solving real-world optimization problems. Still, it is difficult for practitioners to get an overview that explains their advantages in comparison to a large number of available methods in the scope of optimization. Available taxonomies lack the embedding of current approaches in the larger context of this broad field. This article presents a taxonomy of the field, which explores and matches algorithm strategies by extracting similarities and differences in their search strategies. A particular focus lies on algorithms using surrogates, nature-inspired designs, and those created by automatic algorithm generation. The extracted features of algorithms, their main concepts, and search operators, allow us to create a set of classification indicators to distinguish between a small number of classes. The features allow a deeper understanding of components of the search strategies and further indicate the close connections between the different algorithm designs. We present intuitive analogies to explain the basic principles of the search algorithms, particularly useful for novices in this research field. Furthermore, this taxonomy allows recommendations for the applicability of the corresponding algorithms.
Ground tire rubber (GTR) is a product obtained by grinding worn tire treads before retreading them or via the cryogenic or ambient temperature milling of end-of-life tires (ELTs). The aim of this study is to evaluate if calcium carbonate can be substituted by GTR and, if so, to what extent. Different types of ground tire rubber are incorporated in an EPDM (ethylene–propylene–diene–rubber) model compound as partial or complete substitutes of calcium carbonate. The raw compounds and the vulcanizates are characterized to identify the limits. In general, it is apparent that increasing amounts of GTR and larger particles degrade the mechanical properties. The GTR also influences the vulcanization kinetics by reducing the scorch time up to 50% and vulcanization time up to nearly 80%. This is significant for production processes. The compounds with one-third substitution with the smaller-particle-size GTR show mostly similar or even better properties than the reference.
Academic search systems aid users in finding information covering specific topics of scientific interest and have evolved from early catalog-based library systems to modern web-scale systems. However, evaluating the performance of the underlying retrieval approaches remains a challenge. An increasing amount of requirements for producing accurate retrieval results have to be considered, e.g., close integration of the system’s users. Due to these requirements, small to mid-size academic search systems cannot evaluate their retrieval system in-house. Evaluation infrastructures for shared tasks alleviate this situation. They allow researchers to experiment with retrieval approaches in specific search and recommendation scenarios without building their own infrastructure. In this paper, we elaborate on the benefits and shortcomings of four state-of-the-art evaluation infrastructures on search and recommendation tasks concerning the following requirements: support for online and offline evaluations, domain specificity of shared tasks, and reproducibility of experiments and results. In addition, we introduce an evaluation infrastructure concept design aiming at reducing the shortcomings in shared tasks for search and recommender systems.
This paper introduces CAAI, a novel cognitive architecture for artificial intelligence in cyber-physical production systems. The goal of the architecture is to reduce the implementation effort for the usage of artificial intelligence algorithms. The core of the CAAI is a cognitive module that processes the user’s declarative goals, selects suitable models and algorithms, and creates a configuration for the execution of a processing pipeline on a big data platform. Constant observation and evaluation against performance criteria assess the performance of pipelines for many and different use cases. Based on these evaluations, the pipelines are automatically adapted if necessary. The modular design with well-defined interfaces enables the reusability and extensibility of pipeline components. A big data platform implements this modular design supported by technologies such as Docker, Kubernetes, and Kafka for virtualization and orchestration of the individual components and their communication. The implementation of the architecture is evaluated using a real-world use case. The prototypic implementation is accessible on GitHub and contains a demonstration.
In recent years there have been numerous technical innovations such as CGM systems or insulin pumps that have made life easier for people with type 1 diabetes. However, this also means that more and more information is available. The aim of the present study is to find out more about the daily handling of information. The following research question was asked: What information do people with type 1 diabetes use? To answer this research question, a quantitative online survey of people with type 1 diabetes was conducted by Prof. Dr. Matthias Fank at the Technical University of Cologne. The online survey mainly consisted of 25 closed questions, which were asked on a scale from 0 to 10. The responses of 1,025 people who are at least 18 years old were included in the evaluation. The most important information for type 1 diabetics is the "current value". 67.5% have this on Place 1 placed. Current glucose levels are provided by CGM systems used by 94.2% of people with type 1 diabetes. Quarterly visits to the diabetologist are important and provide important information. 30.8% “completely” agree with this statement on a scale from 0 to 10. Only 2.2% of people with type 1 diabetes are satisfied with their current diabetes management apps. There is a desire for a manufacturer-independent app. The strongest agreement with a value of 10 was chosen by almost a quarter (24.6%) of the people with type 1 diabetes. The study provides an insight into diabetes therapy and shows the need for action.
Heutzutage ist das Internet, wie die sozialen Netzwerke ein fester Bestandteil unserer So nutzen Unternehmen in dem Kommunikationszeitalter die Netzwerke um in diesen Plattformen mit den Nutzern zu kommunizieren. Hierbei ist das Ziel dieser Bachelorarbeit zu untersuchen in wie weit man eine Erweiterung entwickeln kann um diese Ziele zu erreichen.
Dabei soll im Rahmen dieser Arbeit eine prototypische Implementierung stattfinden, um die Entwicklung eines Multichannel Social Media Marketingtools basierend auf Atlassian Produkten zu ermöglichen.
Die Arbeit gibt zunächst einen Überblick der wichtigsten Grundlagen. Danach wird mit einer Analyse die Anforderungen an den Prototypen erhebt und ausgewertet , sowie eine Marktanalyse durchgeführt. Darauf folgt die Konzeption, wie die Implementierung des Prototyps, was im Anschluss mit einem Test für die Gebrauchstauglichkeit ergänzt wird.
Untersuchung der Yosys Hardwaresynthese von der internen Datenstruktur RTLIL bis zur Netzliste
(2023)
Das Ziel dieser Arbeit ist die Beantwortung der Frage "Wie funktioniert Synthese?". Yosys ist ein offenes Synthesewerkzeug, welches untersucht wurde, um diese Frage zu beantworten. Yosys implementiert eine Datenstruktur RTLIL, mit der ein Entwurf in allen Synthesephasen dargestellt wird. Yosys ist modular aufgebaut, was dem Nutzer ermöglicht, das Programm zu erweitern. Die Synthese in Yosys ist auf Pässe unterteilt, die jeweils eine bestimmte Aufgabe erfüllen. Im Rahmen der Arbeit wurde die Datenstruktur und die Passes im einzelnen analysiert. Es wurde auch untersucht, wie in Yosys Erweiterungen zu implementieren sind. Die Analyse hat gezeigt, dass ein wichtiger Teil der Synthese die Umwandlung von Prozessen in eine RTL-Beschreibung darstellt. Im Rahmen der Synthese werden die, von einem Frontend vorläufig erzeugten RTL-Komponenten, umgewandelt. Der letzte Schritt der Synthese ist das Technologiemapping, welches die umgewandelten Komponente auf die verwendete Hardware anpasst.
Cloud Computing ist der zentrale Faktor zur Beschleunigung der Digitalisierung in Deutschland und wird in den kommenden Jahren eine wichtige Rolle in jedem deutschen Unternehmen spielen. Für Unternehmen wird es dabei um die Umsetzung von
Cloud-Strategien und die praktische Einbindung in die täglichen Betriebsprozesse gehen. Zusätzlich müssen Unternehmen ihre bestehende Datenlandschaft in moderne Architekturen zum Datenmanagement in die Cloud migrieren. Dabei können Unternehmen auf eine Vielzahl an unterschiedlichen unternehmensweiten Datenarchitekturen
zurückgreifen. Die vorliegende Masterarbeit gibt eine Einführung in die aktuelle Entwicklung von Cloud Computing und erläutert, mit Data Fabric, Data Lakehouse und Data Mesh, drei unternehmensweite Datenarchitekturen für die Cloud. Data Fabric, Data Lakehouse und Data Mesh bilden dabei aktuell die modernsten Konzepte für unternehmensweite Datenarchitekturen. Zusätzlich werden ein Data Lakehouse und ein Data Mesh in einer ausgewählten Cloud-Umgebungen entworfen, prototypisch aufgebaut und praktisch analysiert. Ziel der Masterarbeit ist es, die unternehmensweiten Datenarchitekturen in der Cloud zu erläutern, konkrete technologische Architekturen zu entwerfen und entsprechende Hinweise zu Aufwandstreibern in Unternehmen zu identifizieren.
Architektur für ein Qualitätsmanagementsystem zur Verbesserung der Relevanz von Suchergebnissen
(2023)
Die Suchfunktion ist in vielen Softwareprodukten eine wichtige Komponente, die häufig zur Navigation in der Anwendung dient. Gerade, wenn große Datenmengen bereitgestellt werden, wie es bei Streamingdiensten (Netflix, Spotify) oder bei E-Commerce-Plattformen (Amazon, Zalando) der Fall ist, ist es wichtig, dass die Suchergebnisse für den Nutzer relevant sind. Eine für den Nutzer effektive Navigation mit der Suchfunktion ist nur möglich, wenn die Suchergebnisse eine ausreichend große Relevanz für den Nutzer bieten. Die Organisationen, welche die oben genannten Dienste betreiben, versuchen daher, die Relevanz ihrer Suchergebnisse zu optimieren. Eine Optimierung auf Relevanz ist zwar für eine spezielle Suche einfach, jedoch können dabei häufig Seiteneffekte auftreten, welche die Relevanz über alle Suchen verschlechtern. In einem E-Commerce-Shop kann das Einfiihren des Synonyms „Birne -> Glühbirne" dafür sorgen, dass Nutzer, die Gliihbirnen kaufen wollen und nach „Birne" suchen nun auch Gliihbirnen finden. Falls Nutzer aber das Obst Birne kaufen möchten, sind die Ergebnisse für diese Gruppe irrelevant. Bei einer Optimierung der Relevanz über alle Suchen können Qualitätsmanagementsysteme unterstützen. Ein Qualitätsmanagementsystem fiir die Relevanz von Suchergebnissen muss nicht nur fachliche und technische, sondern auch organisatorische Anforderungen beachten, um die Optimierungspotenziale vollständig auszuschöpfen. Diese Arbeit erläutert diese Anforderungen und stellt eine Architektur für ein Qualitätsmanagementsystem vor. Die Architektur wird hinsichtlich der Erfüllung der erläuterten Anforderungen analysiert. Desweiteren werden die Vor- und Nachteile fiir die jeweiligen Architekturentscheidungen unter Betrachtung der Anforderungen diskutiert. Das Ziel der Arbeit ist es, die Architektur entsprechend zu erläutern, sodass eine Organisation diese für sich angepasst implementieren kann.
In den letzten Jahren gab es zahlreiche technische Innovationen wie CGM Systeme oder Insulin- pumpen, die das Leben von Menschen mit Typ-1-Diabetes erleichtert haben. Dies führt aber auch dazu, dass immer mehr Informationen zur Verfügung stehen. Das Ziel der vorliegenden Studie ist es, mehr über den täglichen Umgang mit Informationen zu erfahren. Dazu wurde die folgende Forschungsfrage gestellt: Welche Informationen nutzen Menschen mit Typ-1-Diabetes?
Um diese Forschungsfrage zu beantworten, wurde eine quantitative Online-Befragung von Men- schen mit Typ-1-Diabetes von Prof. Dr. Matthias Fank an der Technischen Hochschule Köln durch- geführt. Die Online-Befragung bestand überwiegend aus 25 geschlossenen Fragen, die auf einer Skala von 0 bis 10 gestellt wurden. In die Auswertung gingen die Antworten von 1.025 Personen, die mindestens 18 Jahre alt sind, ein.
Die wichtigste Information für Typ-1-Diabetiker ist der “aktuelle Wert“. Diesen haben 67,5% auf
Platz 1 gesetzt. Der aktuelle Glukosewert wird durch CGM-Systeme bereitgestellt, die von 94,2% der Menschen mit Typ-1-Diabetes genutzt werden. Quartalsbesuche beim Diabetologen sind wichtig und liefern wichtige Informationen. Dieser Aussage stimmen 30,8% auf einer Skala von 0 bis 10 „voll und ganz“ zu.
Nur 2,2% der Menschen mit Typ-1-Diabetes sind mit ihren derzeitigen Apps für die Diabetestherapie zufrieden. Der Wunsch nach einer herstellerunabhängigen App ist vorhanden. Die stärkste Zustim- mung mit einem Wert von 10 haben fast ein Viertel (24,6%) der Menschen mit Typ-1-Diabetes ge- wählt. Die Studie gibt einen Einblick in die Diabetestherapie und zeigt Handlungsbedarf auf.
Die Digitalisierung hat Auswirkung auf die Entwicklung von Produkten. Die Teams werden agiler, die Kunden haben als Eigentümer eines Produktes Mitspracherecht und bestimmen gemeinsamen mit den Entwicklern, welche Features als Nächstes aus dem vordefinierten Backlog in dem nächsten Sprint als Inkrement eingebaut und ausgeliefert werden. Durch die enge Zusammenarbeit werden die Release-Zyklen eines Produktes kürzer und es werden mehr Features als in der Vergangenheit bei nicht agilen Methoden deployt. Durch die kurzen Release-Zyklen werden viele unterschiedlichen Versionen ausgerollt. Dies hat zur Folge, dass Fehler, die vorher durch das Testen nicht entdeckt worden sind, auf einer produktiven Umgebung ausgerollt werden. Hat der Fehler eine starke Auswirkung auf die Benutzung der Anwendung, dann besteht die Möglichkeit, die Änderung manuell durchzuführen. Diese muss beim nächsten Release eingebaut werden. Wenn die Release-Zyklen länger werden, birgt es die Gefahr, dass viele manuelle Änderungen in der Zeit entstehen. Der ausgerollte Zustand entspricht nach einer bestimmten Zeit nicht mehr dem eingecheckten Zustand im Git-Repository. An der Stelle bietet der GitOps-Ansatz eine mögliche Abhilfe, um den ausgerollten Ist-Zustand durch regelmäßiges Pullen so nah wie möglich an dem im Repository eingecheckten Soll-Zustand zu halten.
Aufgrund der voranschreitenden Digitalisierung sind neue Geschäftsmodelle entstanden, wozu unter anderem der Online-Handel (Electronic Commerce, E-Commerce) gehört. Dieser bietet Flexibilität beim Einkaufen, die verschiedenen Benutzergruppen zugutekommt. Dazu gehören auch Personen mit einer Sehbehinderung oder Erblindung. Allerdings existieren noch einige Hindernisse bzw. Barrieren im Online-Handel, die zu einer negativen Benutzerfreundlichkeit (User Experience, UX) und einer Benachteiligung der genannten Benutzergruppe führen.
Das Ziel der vorliegenden Arbeit ist daher die Untersuchung der digitalen Inklusion von sehbehinderten und blinden Personen im E-Commerce. Anhand einer ausführlichen Literaturrecherche und 16 halbstrukturierten Interviews mit der Zielgruppe wurden bestehende Barrieren im E-Commerce sowie Verbesserungsmöglichkeiten zur Schaffung eines barrierefreien Online-Handels gesammelt. Durch die Analyse eines Fallbeispiels wurden negative Implementierungen veranschaulicht und anhand der zuvor gesammelten Erkenntnisse beseitigt. Dadurch wurde aufgezeigt, wie ein barrierefreies User-Experience-Design für sehbehinderte und blinde Personen im E-Commerce geschaffen werden kann.
In der Arbeit stellte sich heraus, dass viele vorhandene Barrieren im E-Commerce erst durch die Interviews identifiziert werden konnten. Dadurch zeigt sich, dass eine Auseinandersetzung mit der Zielgruppe und eine Einbindung dieser in die Gestaltung und Evaluation von hoher Relevanz ist. Dies gewährleistet, dass Barrieren vermieden oder rechtzeitig entdeckt werden können und das System, Produkt oder die Dienstleistung den Anforderungen der Zielgruppe entspricht. Die Arbeit stellt somit ein erstes Konzept zur Schaffung eines barrierefreien UX-Designs im E-Commerce da. Um die Qualität der Ergebnisse je- doch überprüfen zu können, sind weitere Forschungen notwendig, die sich mit weiteren Benutzerbefragungen und Evaluationen der Verbesserungsmöglichkeiten beschäftigen.
Für EDB, das e-Learning Datenbank Portal der TH Köln, soll im Zuge dieser Arbeit eine Komponente zum Verwalten und Durchführen von Mehrspieler-Livequiz entwickelt werden. Um die Motivation der Nutzer zu erhöhen, soll diese an die unter der Zielgruppe verbreitetsten Nutzertypen des Hexad-Frameworks angepasst werden. Dazu wurde eine Umfrage mit Studierenden der TH Köln durchgeführt. Mithilfe der validen Antworten (N=52) wurde unter anderem die Verteilung der Übereinstimmung mit den sechs Nutzertypen Philanthropist,
Socializer, Free Spitit, Achiever, Player sowie Disruptor ermittelt. Neben der Übereinstimmung mit den Nutzertypen wurden auch verschiedene technische Daten wie Bildschirmauflösungen und verwendete Browser und Betriebssysteme erhoben, welche beim Testen der Anwendung eine optimale Darstellung derselben bei einem möglichst großen Anteil der Zielgruppe bedingen könnten. In mehreren Schritten, von einer Betrachtung etablierter Alternativen bis zur Entwicklung eines Wireframes, wurde eine konzeptuelle
Lösung entwickelt und realisiert. Dabei wurde ein Datenbankschema zur Speicherung der Quiz, Fragen und Antworten mitsamt einer API designt und angelegt. Das Ergebnis ist die Implementation einer Anwendung, welche alle Must-Have und mehrere Nice-To-Have Anforderungen erfüllt. Mit dieser können Quiz mit Fragen und Antworten erstellt, bearbeitet, gelöscht und in Quizräumen von mehreren Personen synchron gelöst werden. Es werden Zwischenergebnisse für die einzelnen Fragen und eine Rangliste mit den Endergebnissen eines Quiz angezeigt. Für eine Weiterentwicklung wurden acht
Verbesserungsansätze erdacht.
Untersuchung der Cross-Plattform-Entwicklung am Beispiel von visueller Darstellung von Messdaten
(2022)
In speziellen Fällen ist es notwendig oder gewünscht, eine Anwendung für unterschiedliche Plattformen wie beispielsweise Webbrowser, PCs, Smartphones und Tablets zu entwickeln um möglicherweise eine breitere Nutzerzahl anzusprechen oder einen plattformunabhängigen Betrieb zu ermöglichen. Dies hat in der Vergangenheit dafür gesorgt, dass der Entwicklungs- aufwand potenziert wurde, da für jede Plattform eigener Quellcode implementiert werden musste. Aufgrund dieser Tatsache ist in Einzelfällen für weniger verbreitete Platt-formen nicht entwickelt worden. Für genau dieses Problem versprechen die Cross-Plattform-Entwicklungsmöglichkeiten eine Lösung, welche in den letzten Jahren durch die Entwicklung entsprechender Frameworks ermöglicht worden ist.
In dieser Arbeit werden unterschiedliche Frameworks untersucht und für eine Auswahl wird eine detaillierte Untersuchung angestellt. Diese erfolgt anhand einer beispielhaften Implementierung zur visuellen Darstellung von Funkversorgungsdaten. Wichtige Punkte bei der Bewertung dieser Untersuchung sind, wie viele Änderungen für die einzelnen Plattformen am Quellcode gemacht werden müssen und wie gut die Unterstützung der einzelnen Frameworks mit Bibliotheken für die konkrete Problemstellung ist.
Das Ziel der vorliegenden Arbeit besteht darin, die Frage zu beantworten wie Yosys Verilog einliest und daraus RTLIL generiert. Mit der Beantwortung dieser Frage, soll die Datenstruktur RTLIL und die Verknüpfung zu einem Verilog Design besser verstanden werden. Dafür wurde das Frontend von Yosys untersucht und die Datenstruktur RTLIL näher eleuchtet. Als Ergebnis konnte festgehalten werden, dass die AstNode Datenstruktur eine wesentliche Rolle bei der Konvertierung von Verilog zu RTLIL spielt, und mit deren Hilfe beim Einlesen ein abstrakter Syntaxbaum gebildet wird. Allein der Typ des Knotens beeinflusst, wie der RTLIL Generator damit umgeht. Weiter ist die Generierung von RTLIL::Cell Objekten als erster Schritt zur Synthese zu verstehen, da sie durch Technologie Mapping reale Komponenten abbilden können
Sinkende Mitgliederzahlen, ein wachsendes Aufgabenspektrum und gefährlichere Einsatzlagen bedingen auch in den Feuerwehren eine Digitalisierung, um die aktiven Feuerwehrangehörigen im Einsatz zu entlasten und zu schützen.
In der vorliegenden Bachelorarbeit werden aktuelle und zukünftige Technologien auf ihre Potenziale und Gefahren als Einsatzmittel für die Feuerwehr analysiert. Neben einer Betrachtung dieser Technologien als Ursache eines Feuerwehreinsatzes werden Unterstützungsmöglichkeiten für die Feuerwehrangehörigen aufgezeigt, die aus der Nutzung fremder Technologien oder einer Eigenbeschaffung resultieren. In der Arbeit werden ausschließlich Technologien fokussiert, die als Entwicklung aus dem Internet der Dinge hervorgehen. Ziel der Arbeit ist es, die Technologien auf ihren Unterstützungscharakter zu analysieren, damit die Einsatzkräfte zielgerichtet entlastet und besser geschützt werden.
Ziel der vorliegenden Arbeit ist es zu beantworten, wie Lehrmethoden durch die Anwendung von Gamification und Nudging verbessert werden können, um so die Motivation der Lernenden und die Anwendbarkeit der Lehrmethoden zu verbessern.
Dazu wird der Einfluss von Gamification auf die menschliche Motivation anhand von etablierten Literaturquellen analysiert.
Weiterführend erfolgt die Betrachtung der menschlichen Fehlbarkeiten und dem damit verbundenen Einsatz von Nudging zur Etablierung eines intendierten normativen Verhaltens.
Aufbauend auf dem Behavior Modell von B. J. Fogg wird im Anschluss daran ein einheitliches Vorgehen in Form eines Canvas entwickelt und beschrieben. Dieses bezieht sowohl den Kontext einer Lehrmethode als auch das aktuelle sowie das intendierte Verhalten einer fest definierten Zielgruppe ein. Ausgehend von dieser Grundlage können mögliche Ansätze für Befähigungen und Motivationen identifiziert und daraus resultierend geeignete Nudging- und Gamification-Ideen im Brainstorming-Verfahren generiert werden.
Die Nutzbarkeit des Canvas wird abschließend anhand von vier exemplarisch ausgewählten Lehrmethoden dargestellt, untersucht und die Ergebnisse reflektiert.
Dabei kann eine schnelle Identifizierung von Nudging- und Gamification-Ideen bezogen auf die betrachteten Lehrmethoden beobachtet werden.
Die Qualität der Ergebnisse gilt es jedoch noch in einer darauf aufbauenden Evaluation zu ermitteln.
In dieser Arbeit wird ein Vorgehensmodell entwickelt um eine Taxonomie für Spielmechaniken aufzubauen. Hierfür werden zwei Vorgehensmodelle miteinander verbunden: eines, das die Extraktion von Spielmechaniken aus Gesellschaftsspielen in verschiedenen Strategien ermöglicht sowie ein weiteres, das ein standardisiertes Vorgehen beschreibt, wie eine Taxonomie aufgebaut werden kann.
Innerhalb des Vorgehensmodell zum Taxonomieaufbau werden die Strategien zur Extraktion von Spielmechaniken zum Aufbau des Domänenverständnisses genutzt. Davon ausgehend werden Kategorien abstrahiert, welche im Nachgang verfeinert und zueinander in Bezug gesetzt werden. Anschließend werden die zusätzlich extrahierten Spielmechaniken in die neu aufgestellte Struktur anhand der identifizierten Kriterien integriert und auf Kohärenz geprüft.
Im vorangegangenen Praxisprojektes »Das Zusammenspiel zwischen Usability und Suchmaschinenoptimierung - Tipps und Methoden für eine verbesserte Sichtbarkeit und Nutzbarkeit von Internetseiten « wurde dem unerfahrenen Content-Erzeuger Grundwissen in der Suchmaschinen- und Usability-Optimierung vermittelt. Ziel dieser wissenschaftlichen Arbeit ist es die vorgestellten Methoden und Techniken des vorangegangenen
Praxisprojektes, am Beispiel der Webseite des Fachbetriebes BSS-Schieh-Schneider technisch umzusetzen und zu bewerten. Der Schwerpunkt des Unternehmens liegt bei der Beratung, Montage und Reparatur von Fenstern, Türen, Rollläden und Markisen. Die Webseiten existieren bereits und geplant ist, die Bereiche Fenster & Türen SEO-Technisch zu verbessern.
Ziel ist die Analyse und die Implementierung eines Datenschutzmanagements, gemäß den geltenden EU-Datenschutzvorschriften, am Beispiel eines mittelständischen Unternehmens. Nach einer Zusammenfassung der wichtigsten theoretischen und rechtlichen Grundlagen, werden geeignete Methoden zur Umsetzung vorgestellt. Anschließend wird der Aufbau des Datenschutzmanagements analysiert und an einem Beispielunternehmen implementiert. Zielgruppe sind in erster Linie Unternehmen, Selbstständige oder Beschäftigte mit Datenschutzaufgaben.
Bildungseinrichtungen haben zunehmende Bedarfe für professionelle digitale Kommunikation. Bei der Auswahl geeigneter Kommunikationstools besteht Bedarf für geeignete Informationen als Entscheidungsgrundlage. Insbesondere Messenger-Kommunikation ist stark im privaten Alltag der Personen integriert. Während Bedarfe für umfangreiche datensichere Kommunikation in bildungsrelevanten Kontexten steigen, mangelt es an Konzepten für datengeschützte (Karaboga et al. 2014; Digitalcourage e.V. o.J.) und Privatsphäre wahrende Unterstützung von Bildungsprozessen durch Software, an verpflichtender Ausbildung für Fachkräfte (Zorn, Tillmann und Kaminski 2014; Imort und Niesyto 2014), sowie an verlässlicher Information für praktikable Software-Alternativen. Der Beitrag skizziert die besonderen Anforderungen von Bildungseinrichtungen bei der Auswahl geeigneter Software am Beispiel von Messenger-Kommunikation. Aus diesen Anforderungen werden Kriterien für benötigte Informationen als Entscheidungsgrundlage für die Softwareauswahl in drei Kategorien vorgestellt: Datenschutz/Privatsphäre, Barrierefreiheit/Barrierearmut, Praktikabilität.
Da bislang keine Kriterien und Good-Practice-Vorschläge vorlagen, wurde eine Studie zur Eruierung der Eigenschaften potenziell geeigneter Messenger-Software erstellt. Hierfür wurden zunächst notwendige Kriterien zu den drei genannten Kategorien definiert und im Anschluss deutsche und bekannte internationale Messenger auf die Datenschutz-Kriterien hin geprüft. Aufgrund der Ergebnisse zur Konformität mit der Datenschutz-Grundverordnung der EU (DSGVO) als Einschlusskriterium wurden die in Frage kommenden Messenger einem Praxistest unterzogen. Dabei wurden teilweise iterativ weitere praxisrelevante Kriterien der Praktikabilität entwickelt.
Neben institutionsinternen Messengern konnten unter den frei erhältlichen anbieterabhängigen Messengern sechs Dienste identifiziert werden, die zumindest bei Nutzenden über 16 Jahren DSGVO-konform genutzt werden können. Zum Zeitpunkt der Veröffentlichung sind dies nur noch fünf: Threema, Wire, SID, Ginlo,Chiffry. Des Weiteren erscheinen anbieterunabhängige Messenger-Systeme, die den internationalen Standard für den Austausch von Chatnachrichten (XMPP) einhalten, als eine sinnvolle Möglichkeit für Bildungseinrichtungen. Hier kann ein eigenes oder beauftragtes Server-Hosting (im Verbund) möglich werden und es lässt sich bei einem IT-Dienstleister eine ntsprechende Vereinbarung zur Auftragsdatenverarbeitung abschließen.
Für den Projektkontext IDiT – nämlich die berufliche Bildung für angehende Kaufleute für Büromanagement an Berufsschulen und an Berufsförderungswerken – werden die Entscheidungen für die Nutzung von „Wire“ und „Threema Work“ erläutert und begründet. Die zugrundeliegenden Überlegungen sind zwar auf den Projektkontext (Anwendung im Berufsförderungswerk Köln) zugeschnitten, aber verallgemeinerbar.
Educational institutions have increasing needs for professional digital communication. When selecting suitable communication tools, there is a need for appropriate information as a basis for decision-making. Messenger communication in particular is strongly integrated into people's private everyday lives. While needs for extensive data-secure communication in educational contexts are increasing, there is a lack of concepts for data-protected and privacy-preserving support of educational processes through software (Karaboga et al 2014; Digitalcourage e.V. n.d.) , as well as for mandatory training for professionals (Zorn, Tillmann, and Kaminski 2014; Imort and Niesyto 2014), and reliable information for viable software alternatives. This paper outlines the specific requirements of educational institutions when selecting suitable software, using messenger communication as an example. From these requirements, criteria for needed information are presented as a basis for software selection decisions in three categories: data protection/privacy, accessibility/low-barrier, practicability. Since no criteria and good practice suggestions were available so far, a study was conducted to elicit the characteristics of potentially suitable messenger software. To this end, the necessary criteria for the three categories mentioned were first defined and then German and well-known international messengers were tested for data protection criteria. Based on the results for conformity with the EU's General Data Protection Regulation (GDPR) as an inclusion criterion, the messengers in question were subjected to a practical test. In the process, additional practicality criteria were developed, in part iteratively.
In addition to institution-internal messengers, six services were identified among the freely available provider-dependent messengers that can be used in a GDPR-compliant manner, at least for users over the age of 16. At the time of publication, this leaves only five: Threema, Wire, SID, Ginlo, Chiffry. Furthermore, provider-independent messenger systems that adhere to the international standard protocol for the exchange of chat messages (XMPP) appear to be a viable option for educational institutions. In-house or commissioned server hosting would then be possible and a corresponding agreement for commissioned data processing can be concluded with an IT service provider.
The decisions to use "Wire" and "Threema Work" in the IDiT project context are explained and justified. The context was vocational training for prospective office management clerks at vocational schools and vocational training centers. Although the underlying considerations are tailored to the project context (application in the Berufsförderungswerk Köln), they can be generalized.
Das Ziel dieser Arbeit war es aufzuzeigen, warum eine elektronische Unterstützung bei politischen Wahlen in Deutschland bislang noch nicht möglich ist. Weder die Nutzung von einem Wahlcomputer im Wahllokal noch eine Stimmabgabe über das Internet vom heimischen PC aus sind möglich. Da die Digitalisierung längst in allen Lebensbereichen Einzug gefunden hat und es selbst einem Kühlschrank möglich ist, per E-Mail Bescheid zu sagen, wenn keine Milch mehr da ist, verwundert es doch schon sehr, dass wir noch immer mit Stift und Unmengen von Papier unsere Volksvertreter wählen. Um dies zu verstehen, werden in dieser Arbeit die gesetzlichen Vorgaben für eine politische Wahl erläutert und deren Bedeutung für elektronisch unterstützte Wahlen aufgezeigt. Dabei liegt das Hauptaugenmerk auf einer Wahlmöglichkeit über das Internet. Es werden mögliche Chancen, Risiken und Anforderungen eines solchen Wahlverfahrens erörtert und gezeigt, warum eine technische Umsetzung so schwer ist und wie eine solche möglicherweise aussehen könnte. Außerdem werden die Themen eines elektronischen Personalausweises, der elektronischen Partizipation und deren Bedeutung für ein Internet-Wahlsystem erläutert sowie ein Blick darauf geworfen, wie andere europäische Länder dieses Thema behandeln.
A test tool for Langton's ant-based algorithms is created. Among other things, it can create test files for the NIST-Statistical-Test-Suite. The test tool is used to investigate the invertibility, ring formation and randomness of 7 created models which are extensions of Langton’s ant. The models are examined to possibly use them as pseudo-random generator (PRG) or block cipher. All models use memories which are based on tori. This property is central, because this is how rings are formed in the first place and in addition the behavior of all models at the physical boundaries of the memory is clearly defined in this way. The different models have special properties which are also investigated. These include variable color sets, discrete convolution, multidimensionality, and the use of multiple ants, which are arranged fractal hierarchically and influence each other. The extensions convolution, multidimensional scalable and multidimensional scalable fractal ant colony are presented here for the first time. It is shown that well-chosen color sets and high-dimensional tori are particularly well suited as a basis for Langton's ant based PRGs. In addition, it is shown that a block cipher can be generated on this basis.
More and more often, spoken information must and should be available in written form. For this purpose, various transcription programs try to support the user with various conveniences when transcribing the source material. A variety of online services go one step further and provide a ready-to-use, automatically generated transcription for a fee. Since the fees can be very expensive for the individual user and the online services may not always be used for privacy reasons, the goal of this work is to implement an open offline alternative. This alternative should be an open source editor based on the open speech-to-text-engine DeepSpeech and should on one hand provide the user with an offline transcription and on the other hand support him in correcting it. To achieve this goal, first the traditional speech recognition and eventually DeepSpeech will be described. This is followed by the conception and implementation of the editor. Since this project is explicitly intended to be an open source project, the last part will take a closer look at the release.
Das Ziel der vorliegenden Arbeit war es, das Potenzial der Blockchain-Technologie für eine dezentrale Energieversorgung aufzuzeigen und abzuwägen. Bislang gibt es nur wenig Forschung und Aufmerksamkeit in diesem Bereich. Die Grundlage für die Ausarbeitung waren praxisnahe Studien und durchgeführte Pilotprojekte von Unternehmen. Die Erkenntnisse zeigen, dass es im Bereich Peer-to-Peer Energiehandel, Labeling und Zertifizierung, Asset Management, Elektromobilität und Netzengpassmanagement zukunftsfähiges Potenzial gibt. Die Blockchain-Technologie bietet eine manipulations-sichere und transparente Dokumentation sowie Automatisierung bestimmter Abläufe. Jedoch müssen dafür regulatorische Rahmenbedingungen angepasst und die Skalierbarkeit gewährleistet werden. Die Bachelorarbeit ist sowohl für Unternehmen im Bereich der energiewirtschaft als auch für private Betreiber von Energieanlagen interessant.
Immer mehr Mobile Augmented Reality Spiele werden entwickelt und gewinnen zunehmend an Beliebtheit. Zugleich können Smartphones überall und zu jeder Zeit für Mobiles Lernen genutzt werden. Diese Masterarbeit beschäftigt sich mit einem auf Mobile Augmented Reality basierenden Serious Game.
Serious Games werden eingesetzt, um Fähigkeiten zu trainieren, Wissen anzueignen oder Einstellungen des Spielers zu ändern. Dabei lernen die Spieler in der Spielwelt Inhalte, die sie in die Realität übertragen und anwenden können. Es wird folgende Forschungsfrage beantwortet: Wie wird der Wissenserwerb eines Serious Game durch den Einsatz von Mobile Augmented Reality beeinflusst. Zum einen werden Theorien über das Lernen durch Serious Games und zum anderen Theorien über Lernen mit Augmented Reality anhand einer Literaturarbeit untersucht und kritisch eingeordnet. Der Vergleich dieser Theorien dient der Identifizierung von wichtigen Elementen für Augmented Reality Serious Games. Dazu wird das Potenzial von Mobile Augmented Reality anhand ihrer Vor- und Nachteile aufgezeigt. Die Ergebnisse dienen einem weiteren Modell, welches die Auswirkungen der Serious Game Elemente und Augmented Reality Elemente auf den Spieler verknüpft. Ebenso werden spezifische Merkmale über den Spieler und dem Kontext des Spiels identifiziert.
Im Anschluss an die Darstellung der einzelnen Serious Games und Mobile Augmented Reality Elemente wird ein Spiel über den Ausbruch des Virus COVID-19 entwickelt. Es werden Informationen über die Pandemie und die gesetzlich vorgeschriebenen Schutzmaßnahmen integriert.
Es wird deutlich, dass sich die Elemente auf den Spieler und sein Spielerlebnis auswirken, als auch einen Einfluss auf den Lerneffekt haben. Dennoch kann nicht einzeln begründet werden, für welchen Zweck bestimmte Elemente eingesetzt werden müssen. Es werden die Bedingungen zusammengefasst, die sich individuell auf das Spielerlebnis und den Lerneffekt auswirken.
This bachelor thesis deals with framework-agnostic design systems in the environment of micro frontends. The properties of micro frontends and design systems are developed individually, to finally get combined. Important disciplines of this research are in particular cybernetics and system thinking, whereby further properties in the relationships between the stakeholders and the design system are highlighted and defined. In addition, based on the highlighted properties, a practically oriented evaluation is prepared, which demonstratively verifies how framework-agnostic design systems can be realized using Svelte and Tailwind CSS. The insights gained from this work can be used for further considerations in other works within the domain, or similar domains. In particular the cybernetic view of systematic design offers potential for further investigations.
Ziel dieser Arbeit ist die Entwicklung eines E-Learning Systems, welches als asynchrones und flexibles Online-Format frei zugänglich ist. Nach einer Zusammenfassung der wichtigsten theoretischen und rechtlichen Schulungsthemen, wird das System konzipiert und prototypisch entwickelt. Die Zielgruppe des Systems sind in erster Linie Einzelpersonen und Arbeitnehmer, welche eine Datenschutzschulung aufgrund von Nachweispflichten des Datenschutzgrundgesetzes benötigen.
Aufbauend auf einer vorherigen Arbeit, die sich mit der Implementierung einer Komponentezum Auslesen mdizinischer Sensordaten mithilfe eines Arduino und eines Raspberry Pi befasst hat, beschäftigt sich diese Arbeit mit der Visualisierung sowie Auswertung der durch das System gesammelten Daten. Das Ziel dieser Arbeit ist es, über einen Zeitraum von etwa drei Monaten mithilfe der Komponente Daten zu sammeln und diese Daten in einem sinnvollen Kontext visuell darzustellen. Zudem sollen diese Daten mithilfe unterschiedlicher Algorithmen des Maschinellen Lernens ausgewertet werden,
um mögliche Muster und Zusammenhänge erkennen zu können. In diesem Kontext konnte die Hypothese aufgestellt werden, dass ein Zusammenhang zwischen der Körpertemperatur und der Sauerstoffsättigung im Blut besteht.
Die Nutzung von Gamification zur Verbesserung der User Experience - Marktanalyse & Designfaktoren
(2020)
User Experience beschreibt die Wahrnehmungen und Reaktionen Benutzender zu einem System. Es umfasst die Gedanken und Emotionen, die Benutzende vor, während und nach der Nutzung eines Systems erfahren. In einer Zeit in der es zahlreiche digitale Systeme und Alternativen auf dem Markt zur Verfügung stehen, können sich voranging Systeme mit einer guten User Experience durchsetzen. Demnach kann User Experience als messbarer Erfolgsfaktor gesehen werden und dieses Verständnis darüber ist erforderlich für das Treffen von Designentscheidungen. Ziel dieser Arbeit ist es Aspekte aus Gamification, die zu einer Verbesserung der User Experience eines Systems beitragen, zu identifizieren und darzustellen. Bei Gamification handelt es sich um einen Gestaltungsprozess, der auf den Erfahrungen und Techniken des Game Designs basiert und die Gefühle und Motivationen von Menschen anspricht. Zur Ermittlung dieser Faktoren wurden mittels Literatur von, unter anderem, Huizinga und Chou relevante Aspekte spielerischen Verhaltens und grundlegende menschliche Motivationen betrachtet. Diese Erkenntnisse wurden zur Analyse der auf, dem Markt befindlichen, Systeme KptnCook und TooGoodToGo angewandt um relevante Design Faktoren zu ermitteln und darzustellen. Es wurde festgestellt, dass User Experience ein dreidimensionales Konstrukt bestehend aus den Faktoren ease-of-use, joy-of-use und purpose-of-use darstellt. Durch die Einbringung von Aspekten aus Gamification in ein System kann dieses gezielt auf die Vermittlung der Faktoren joy-of-use und purpose-of-use gestaltet und optimiert werden. Auf dieser Grundlage ist es empfehlenswert Gamification bei der Gestaltung von Systemen zu beachten um menschlichen Motivationen zur Nutzung eines Systems anzusprechen. Durch die Gestaltung mit Gamification können Benutzererlebnisse angefertigt werden, die unterhaltsam sind und Benutzende zu einer langfristigen Verwendung des Systems motivieren.
Projects in universities challenge the students in terms of organizing the project progress and coordinating team members. In order to cover the content of the courses in more depth and to prepare the students for their future employment the technical university of cologne (Campus Gummersbach) includes various team projects into its curriculum. Procedure models are helpful ways to structure the project tasks and ensure the communication between team members and stakeholders. The course Projectmanagement presents procedure models such as Waterfall Model, V-Model and Scrum that are mostly used in business context and software engineering. An agile procedure model that is not part of the curriculum is called Design Thinking. It is a suitable approach for student projects as it combines the requirement of an open mindset, a creative, experimental working method and an interdisciplinary toolbox. The objective of this thesis is to design a concept for a procedure model that is customized to students' needs. The growing practice of the design thinking method and other agile procedures within the business world, also increases the
importance for students to apply of such models in preperation for professional work. To define the requirements for the recommended procedure model, the first step is to elaborate on the processes and challenges that are currently used in student projects. Then the procedure models Waterfall Model, V-Model and Scrum are presented and evaluated taking into account the students' preferences. Next, Design Thinking is presented structured into three parts: mindset, process and toolbox. The most suitable projects to apply this method are identified in the subsequent analysis. Finally, the most appropriate aspects of the presented procedure models as well as the Design Thinking processes are detected, framed and combined into a new procedure model. The new model is illustrated using a graphical representation and a corresponding explanation. It is clustered into the three fundamental project phases: Planning, Execution and Closure. The Planning phase forms the foundation for a well functioning team and successful project progress. Execution is based on the Design Thinking approach and integrates an iteration-loop formed by the subphases Exploration, Idea Generation, Prototyping, Test and Implementation. The final phase Closure is an incentive for a more creative approach to create final presentations. This model can be developed further and be used for example as a didactic instrument and as a link between the diverse disciplines in interdisciplinary projects across different universities. In this way students learn to apply agile procedures and work in interdisciplinary teams.
In nahezu jedem Rettungsdienstbereich lässt sich ein Anstieg an Notfalleinsätzen und damit einhergehend ein höherer Bedarf an Rettungsmitteln beobachten. Daraus resultieren Einsatzspitzen, die durch den Regelrettungsdienst nicht abgedeckt werden können, und es entsteht eine Unterdeckung. Dies wird auch als Risikofall bezeichnet und birgt die Gefahr, dass ein Rettungsmittel nicht innerhalb der vorgeschriebenen Hilfsfrist am Notfallort eintreffen kann. Um einen potenziellen Risikofall im Vorfeld absehen und einsatztaktische Ausgleichsmaßnahmen innerhalb eines Rettungsdienstbereiches ergreifen zu können, soll deshalb die Einsatznachfrage in stündlicher Auflösung prognostiziert werden. Dazu wurde die Einsatz-Zeit-Reihe 2017 der hochfrequentierten Feuer- und Rettungswache 1 in der Kölner Innenstadt analysiert und ein saisonales ARIMA-Modell sowie ein Erwartungswert-Modell auf die Einsatz-Zeit-Reihe des Folgejahres 2018 angewandt. Gezeigt werden konnte, dass sich die Einsatz-Zeit-Reihe mit einer mittleren absoluten Abweichung von etwas mehr als einem Einsatz prognostizieren lässt. Außerdem konnte mit einer Skalierung der Prognose über die Anzahl einsatzbereiter Rettungs-wagen jeder Risikofall in einem einwöchigen Anwendungstest vorhergesagt werden. Dabei zeigte sich, dass nicht die Prognosegüte in der Stunde der Einsatzspitze relevant ist, sondern die Prognosegüte in der Folgestunde. Die Prognosen haben somit, wenn sie skaliert werden, eine hohe einsatztaktische Relevanz und ermöglichen kurz-fristige Ausgleichsmaßnahmen im Tagesgang.
This thesis proposes four different Augmented Reality (AR) display techniques that can overcome the problem of uncertain tracking errors. Where most other papers focus on limiting the amount of error that a user tracking system generates, this paper pro-poses visualizations that limit their impact instead. For this, four different display techniques have been developed and evaluated using criteria found in related literate. Two of the four proposed solutions consistently ranked better within these criteria. The first, Bending Words, uses a mix between spatially registered information and turn instructions to achieve that result. The second, WIM, mostly relies on context infor-mation of the building instead.
Eine gängige Form der Qualitätskontrolle von Quellcode sind Code Reviews. Der Fokus von Code Reviews liegt allerdings oft auf syntaktischer Analyse, wodurch weniger Zeit für eine semantische Überprüfung bleibt und zusätzliche Kosten verursacht werden. Code Reviews lassen sich zwar teilweise durch "Linter" automatisieren, dennoch können sie nur syntaktische Fehlermuster identifizieren, welche vorher definiert wurden. Zudem kann ein Linter nur darauf hinweisen, dass möglicherweise ein Fehler vorliegt, da die Fehler nicht durch logische Inferenz ermittelt werden. Die vorliegende Arbeit prüft, ob ein Deep Learning Modell den regelbasierten Ansatz von Lintern ablösen und die semantische Ebene erschließen kann. Dazu wurde eine Stichprobe von Java Methoden zusammengestellt und im Anschluss mit einem Supervised Learning Ansatz binär klassifiziert. Da die Analyse von Quellcode der Textanalyse stark ähnelt wird ein gängiger Ansatz für Textklassifikation verwendet. Dadurch kann gezeigt werden, dass eine Präzision von 85% bei der Erkennung von Quellcodeproblemen durch Deep Learning möglich ist.