000 Allgemeines, Informatik, Informationswissenschaft
Refine
Year of publication
Document Type
- Bachelor Thesis (51)
- Master's Thesis (49)
- Article (7)
- Report (6)
- Study Thesis (6)
- Conference Proceeding (3)
- Contribution to a Periodical (2)
- Other (2)
- Working Paper (2)
Has Fulltext
- yes (128)
Keywords
- E-Learning (7)
- Informatik (7)
- Datenbank (5)
- Datenschutz (5)
- Augmented Reality (4)
- Data Mining (4)
- Diabetes mellitus Typ 1 (4)
- Erweiterte Realität <Informatik> (4)
- Gamification (4)
- Agile Softwareentwicklung (3)
Faculty
- Fakultät 10 / Institut für Informatik (67)
- Fakultät 10 / Advanced Media Institute (25)
- Fakultät 10 / Cologne Institute for Digital Ecosystems (7)
- Fakultät 03 / Institut für Informationswissenschaft (6)
- Fakultät 07 / Institut für Medien- und Phototechnik (5)
- Fakultät 07 / Institut für Nachrichtentechnik (4)
- Fakultät 10 / Institut Allgemeiner Maschinenbau (3)
- Fakultät 01 / Institut für Medienforschung und Medienpädagogik (2)
- Fakultät 04 / Schmalenbach Institut für Wirtschaftswissenschaften (2)
- Fakultät 09 / Cologne Institute for Renewable Energy (2)
Die Digitalisierung hat Auswirkung auf die Entwicklung von Produkten. Die Teams werden agiler, die Kunden haben als Eigentümer eines Produktes Mitspracherecht und bestimmen gemeinsamen mit den Entwicklern, welche Features als Nächstes aus dem vordefinierten Backlog in dem nächsten Sprint als Inkrement eingebaut und ausgeliefert werden. Durch die enge Zusammenarbeit werden die Release-Zyklen eines Produktes kürzer und es werden mehr Features als in der Vergangenheit bei nicht agilen Methoden deployt. Durch die kurzen Release-Zyklen werden viele unterschiedlichen Versionen ausgerollt. Dies hat zur Folge, dass Fehler, die vorher durch das Testen nicht entdeckt worden sind, auf einer produktiven Umgebung ausgerollt werden. Hat der Fehler eine starke Auswirkung auf die Benutzung der Anwendung, dann besteht die Möglichkeit, die Änderung manuell durchzuführen. Diese muss beim nächsten Release eingebaut werden. Wenn die Release-Zyklen länger werden, birgt es die Gefahr, dass viele manuelle Änderungen in der Zeit entstehen. Der ausgerollte Zustand entspricht nach einer bestimmten Zeit nicht mehr dem eingecheckten Zustand im Git-Repository. An der Stelle bietet der GitOps-Ansatz eine mögliche Abhilfe, um den ausgerollten Ist-Zustand durch regelmäßiges Pullen so nah wie möglich an dem im Repository eingecheckten Soll-Zustand zu halten.
Virtual Reality (VR), Augmented Reality (AR) und Mixed Reality (MR) stoßen als innovative Technologien inzwischen auf breites öffentliches Interesse. Unter dem neuen Oberbegriff Cross Reality (XR) erreichen Anwendungen von VR, AR als auch MR dabei zusehends eine größere Zielgruppe – sowohl im B2B als auch im B2C-Segment. XR-Technologie ist nicht mehr nur Spezialisten vorbehalten, sondern hält Einzug in Industrie, Kreation und Entertainment: mit 360-Grad-Videos und VR-Games, beim Produktdesign, als Hilfe bei Orientierung im Raum, für Trainingssimulationen und virtuelle Konferenzen. Die Struktur und Entwicklung dieser noch jungen, sich dynamisch entwickelnden Branche untersucht diese Studie. Die XR-Branche in NRW besteht aus 134 Akteuren. Die meisten Unternehmen haben Ihren Sitz in Köln und die wichtigsten Zielbranchen sind Medien/Information/Kommunikation und das Verarbeitende Gewerbe. In der Branche herrscht eine positive Stimmung und eine schnelle Internetverbindung sowie die Verfügbarkeit von technischen Mitarbeitern sind die wichtigsten Standortfaktoren.
Das Ziel der vorliegenden Bachelorarbeit war es, Technologietrends von Enterprise-Resource-Planning (ERP) Systemen zu definieren und anhand eines modernen Produktes vorzustellen. Ein ERP-System unterstützt Unternehmen in der Organisation und Durchführung von sämtlichen Geschäftsprozessen. Zur Untersuchung der wünschenswerten Eigenschaften eines ERP-Systems wurden anhand von Literaturarbeit Anforderungen definiert. Dabei wurde deutlich, dass die Verarbeitung von sämtlichen Geschäftsdaten in Echtzeit einen hohen Stellenwert hat. Hierfür bietet das ERP-System S/4HANA mit verschieden Technologien eine Lösung auf dem Datenbanksystem an. So zeigt ein direkter Performancevergleich zwischen den Datenbanksystemen von S/4HANA und einem aktuellen Konkurrenzprodukt, dass das Verarbeiten von großen Datenmengen in kürzester Zeit möglich ist. Diese Arbeit ist an Fachkreise der Wirtschaftsinformatik und Personengruppen mit Interesse an ERP und Datenbanken Systemen gerichtet.
Die vorliegende Bachelorarbeit in Kooperation mit der Deutsche Sporthochschule Köln hat die Konzeption und Entwicklung eine Software, mit der Daten aus der Fußball-Bundeliga 2011–2012 mit Hilfe einer Heatmap erzeugt werden, zum Inhalt. Die Software soll die Torpositionen vor einem Offensivspiel zu verschiedenen Zeitpunkten des Spieles veranschaulichen.
Bei der Arbeit wurden zwei Cluster-Methoden betrachtet, nämlich die Density-Based Spatial Clustering of Applications with Noise (DBSCAN) und der Kerndichtschätzer (kernel density estimation). DBSCAN ist ein bekannter Cluster-Algorithmus und wurde mit dem Software-Tool WEKA untersucht. Es zeigte sich, dass dieses Verfahren nicht so gut für diese Aufgabenstellung geeignet ist, da einzelnen Cluster nicht so gut unterschieden werden konnten. Der Kerndichtschätzer ist dagegen ein statistisches Verfahren zur Schätzung einer Dichte, der auch in Geoinformationssystemen verwendet wird. Dieses Verfahren ist besser für die Aufgabenstellung geeignet.
Nach der Analyse der Daten im XML-Format wurde der Algorithmus Kerndichtschätzer für die Deutsche Sporthochschule Köln in detr Programmiersprache Java implementiert. Die Software untersucht die Bildung von Clustern bzw. die Torschussdichte mit der Absicht, ein Verhalten oder Muster vor einem Offensivspiel zu erkennen. Sie enthält eine sehr gute Visulisierung der verschiedenen Situationen, die zum Torschuss führten, anhand eines Fußballfeldes
Aufbauend auf einer vorherigen Arbeit, die sich mit der Implementierung einer Komponentezum Auslesen mdizinischer Sensordaten mithilfe eines Arduino und eines Raspberry Pi befasst hat, beschäftigt sich diese Arbeit mit der Visualisierung sowie Auswertung der durch das System gesammelten Daten. Das Ziel dieser Arbeit ist es, über einen Zeitraum von etwa drei Monaten mithilfe der Komponente Daten zu sammeln und diese Daten in einem sinnvollen Kontext visuell darzustellen. Zudem sollen diese Daten mithilfe unterschiedlicher Algorithmen des Maschinellen Lernens ausgewertet werden,
um mögliche Muster und Zusammenhänge erkennen zu können. In diesem Kontext konnte die Hypothese aufgestellt werden, dass ein Zusammenhang zwischen der Körpertemperatur und der Sauerstoffsättigung im Blut besteht.
Visual Inertial SLAM-Algorithmen können in der Augmented Reality für die
Erkennung und das Tracking der Umgebung genutzt werden.
Im Rahmen des Projekts Augmented Reality Campus habe ich das iOS-Open-SourceProjekt VINS-Mobile (Li et al., 2017) auf die Android-Plattform portiert. Den theoretischen Ansatz des zugrundeliegenden Algorithmus stelle ich vor. Im Anschluss an die Dokumentation der Portierung vergleiche ich die beiden Plattformen in mehreren Performance-Untersuchungen. Die Ergebnisse verwende ich, um die Frage zu beantworten, ob die Portierung für den Einsatz im AR Campus-Projekt geeignet ist.
Dabei komme ich zu dem Schluss, dass die Android-Portierung in Funktionsumfang
und Qualität der iOS-Version fast gleichzusetzen ist. Welche Arbeitsschritte bis zur Nutzbarkeit im Projekt AR Campus noch nötig sind, beschreibe ich am Ende der
Arbeit.
This thesis is aimed for finding a solution for non-gaming application of Virtual Reality technology in data visualization and analysis. Starting by reconstructing the concept of Virtual Reality, the paper then describes the principles, concepts and techniques of designing a Virtual Reality application. In the last part of the thesis, a detailed description of how a prototype implemented is presented to provide a preview of how data visualization and analysis and Virtual Reality technology can be combined together in order to enable users to perceive and comprehend data in a possibly better way.
CAPTCHAs (Completely Automated Public Turing test to tell Computers and Humans Apart), auch HIPs (Human Interaction Proof) genannt, sind weit verbreitete Sicherheitsmaßnahmen im World Wide Web, die Online-Dienste vor dem Missbrauch durch automatisierte Programme schützen sollen. Dazu werden die Benutzer aufge-fordert, eine Aufgabe zu lösen, welche von Computern nicht gelöst werden kann, wie beispielsweise das Entziffern von verkrümmten Buchstaben. Durch die immer weiter verbesserten Fähigkeiten der Computerprogramme auf diesen Gebieten, wird es für die Entwickler der HIPs immer anspruchsvoller eine ausreichende Sicherheit zu garantieren. Daraus resultiert ein Zielkonflikt zwischen der Sicherheit und Gebrauchstauglichkeit der HIPs. Da die Sicherheit garantiert werden muss, leidet die Gebrauchstauglichkeit und die Benutzer sind oftmals nicht in der Lage das HIP zu lösen. Dies führte bereits in der Vergangenheit zu einer Abneigung gegenüber diesen Systemen.
In dieser Arbeit wurde überprüft ob diese Abneigung durch die Verwendung von Gamifizierung, also Spielelementen, in einem neu entwickelten HIP verringert werden kann. Zusätzlich sollte geprüft werden, ob anstelle der Tastatur die Sensoren mobiler Endgeräte als Eingabe-medium dienen können.
Dazu wurde durch eine Analyse von durchgeführten Angriffen auf bestehende HIPs sowie Studien zur Gebrauchs-tauglichkeit derselben ein Rahmenwerk erstellt. Dieses Rahmenwerk definiert Anforderungen, die ein sicheres und zugleich benutzerfreundliches HIP erfüllen muss. Anhand dieser Anforderungen wurde ein neues spielbasiertes HIP in Form eines Kugellabyrinths auf Basis von JavaScript und HTML5 implementiert. Der Benutzer muss durch die Neigung des Geräts eine Kugel steuern und diese innerhalb der vorge-gebenen Zeit in das Loch lenken. Die Gebrauchstauglichkeit dieses HIPs konnte durch eine Onlineumfrage bestätigt werden. Dies gilt jedoch nicht für die Sicherheit, welche durch den lesbaren Quellcode stark beeinträchtigt wird. Für diese Schwach-stelle konnte eine Lösung in Form einer Browsererweiterung durch eine Public-Key-Signatur konzipiert werden. Durch diese Erweiterung könnte auf den Einsatz von HIPs in vielen Bereichen verzichtet und andere Webanwendungen sicherer gestaltet werden.
Vergleich von verteilten Datenbanksystemen hinsichtlich ihrer Clusterbildung und Skalierbarkeit
(2017)
Die vorliegende Ausarbeitung geht der Frage nach, wie sich die Datenbankmanagementsysteme MariaDB, MongoDB und Cassandra hinsichtlich ihres Clusteraufbaus,
sowie den damit verbundenen Möglichkeiten der Skalierbarkeit unterscheiden. Dazu werden zunächst Grundlagen zum Aufbau von verteilten Datenbanksystemen, zu den verschiedenen Transaktionskonzepten, sowie zu den möglicherweise auftretenden Probleme vermittelt. Anschließend werden die drei Systeme im Detail untersucht und herausgearbeitet, wie sie genau funktionieren und in welchen Punkten sie sich von einander unterscheiden. Als Abschluss wird ein Fazit gezogen, welches System in verteilten Computerumgebungen
am geeignetsten ist, insofern ein klarer Sieger hervorgeht.
Aufgrund ihrer aktuellen Bedeutung im Zusammenhang des Internet of Things werden in der vorliegenden Arbeit Time Series Databases und Event Stores miteinander vergli-chen. Ziel ist, die Gemeinsamkeiten und Unterschiede der beiden Arten von Datenbank Management Systemen herauszustellen.
Der erste, theoretische Teil des Vergleichs erfolgt anhand der funktionalen Kriterien Speichersystem, Performance und Funktionen sowie der nicht-funktionalen Kriterien Usability und Support. Im zweiten Teil des Vergleichs wird anhand eines konkreten An-wendungsfalls untersucht, ob sich Time Series Databases und Event Stores gleicher-maßen für die Speicherung und in einem zweiten Schritt für die Abfrage von Zeitreihen-daten eignen.
Zumal der theoretische Vergleich Unterschiede zwischen einzelnen Time Series Data-bases und Event Stores in Bezug auf die betrachteten Kriterien erkennen lässt, wird für den praktischen Vergleich unter Berücksichtigung der im konkreten Anwendungsfall gegebenen Anforderungen nur die am besten geeignetste Time Series Database (In-fluxDB) und der am besten geeignetste Event Store (Event Store) ausgewählt. Der prak-tische Vergleich zeigt, dass die Zeitreihendaten im konkreten Anwendungsfall zwar in beiden Arten von Datenbank Management Systemen gespeichert werden können, die Nutzung der auf Zeitreihendaten spezialisierten Time Series Database InfluxDB jedoch offensichtliche Vorteile gegenüber dem Event Store aufweist.
Vergleich verschiedener Lernmethoden neuronaler Netze bei der Analyse von „Social Media“ Inhalten
(2018)
The goal of this bachelor thesis was the comparison of different learning methods in neural networks. The methods were applied to detect hate posts on social media plat-forms like twitter. To achieve this, a supervised Recurrent Neural Network and a self-supervised Word2Vec model were implemented. The results of both implementations show the importance of choosing the correct dataset and a learning method generating significant results. The problems of both implementations were identified and formulated into possible solutions to achieve more accurate predictions in future. This thesis is of high interest for students and developers in the area of sentiment analysis.
Der digitale Schwarzmarkt mit gestohlenen Daten floriert. Alleine im Jahr 2015 wurden über eine halbe Milliarde Datensätze aus Datenbanksystemen entwendet. Viele Unternehmen bemerken den Sicherheitsvorfall selbst nicht oder geben aus Angst vor einem Imageschaden den Vorfall nicht bekannt. Sind die Datenbestände nicht durch effektive Sicherheitsmechanismen vor Datendiebstahl geschützt, können Cyberkriminelle leicht aus den gestohlenen Daten Kapital schlagen. Die Softwarehersteller von Datenbanksystemen bieten für ihre Produkte unterschiedliche Schutzvorkehrungen an. Ziel dieser Ausarbeitung ist es, die Bedrohungen und die Sicherheitsrisiken von Datenbanksystemen aufzuzeigen und daraus die Aspekte der Datenbanksicherheit abzuleiten. Die ausgearbeiteten Sicherheitsaspekte bilden die Grundlage für den Vergleich der Datenbanksicherheit von relationalen Datenbanklösungen. Die anschließende Bewertung dient dem Nachweis und der Überprüfbarkeit der Datenbanksicherheit relationaler Datenbanksysteme.
With Google’s Flutter framework continuing to grow in popularity for companies and developers alike, the need for an understanding of how to utilize the framework in a large-scale context has become more relevant than ever. The purpose of this thesis is to document the crucial steps most development teams using Flutter in a large-scale application will face. Additionally, a fully documented, large-scale reference application was generated so that other developers may use it as an aid when creating their own Flutter projects on a similar scale. Multiple steps were taken to ensure that optimal solutions were chosen for each aspect of the development process. For each of those aspects, a wide range of possible solutions were explored, compared and analysed. Finally, one of the possible solutions was chosen based on a wide range of scientific papers and community-generated sources. Additionally, an interview with an expert in the field was conducted to further validate those decisions. After the application was fully implemented, ten crucial aspects of the development process were identified. Those ten aspects are now explained in detail in this thesis. Ultimately, the knowledge provided by this thesis can act as a map for peers using Flutter in a large-scale context and help them overcome the crossroads they will most likely come to face.
Untersuchung des Potentials Neuronaler Netze für Regelungsprozesse am Beispiel eines Betonverteilers
(2018)
Ziel der Arbeit ist die Entwicklung eines Ansatzes zur Nutzung Neuronaler Netze für die Steuerung eines Betonverteilers. Nach der Erläuterung der Grundlagen Neurona-ler Netze wird ein Netz entworfen und ein Test anhand realistischer Testdaten durch-geführt. Nach einer ausführlichen Beschreibung des Umfelds des Anwendungsfalls (Betonverteiler), sowie der Grundlagen Neuronaler Netze, ihrer Lernverfahren und ihrer Einsatzmöglichkeiten in der Regelungstechnik erfolgt der Entwurf eines Ansatzes zur Konstruktion eines Netzes für den Betonverteiler als Anwendungsfall sowie die Beschreibung der Implementation von Simulationsmodell und neuronalem Netz.
Das Ziel der vorliegenden Bachelorarbeit war es, das In-Memory-Konzept innerhalb einer Oracle Datenbank auf neue Mechanismen, Funktionen und Methoden zu untersuchen. Dazu wurde eine Datenbank erstellt und mit Beispieldaten bestückt. Diese Beispieldaten sind Aktienwerte der DAX-30 Unternehmen, welche durch eine Reihe von Indikatoren aus der technischen Analyse eine komplexe Möglichkeit der Analyse bieten. Die Ergebnisse bestätigen, dass das In-Memory-Konzept neben dem bekannten Spaltenformat eine Reihe von Techniken und Funktionen bietet, welche sich positiv bei der Verarbeitung von Daten durch Data Query Language-Befehle auswirken. Es kommen auch Nachteile, wie der flüchtige Speicher zum Vorschein, dennoch überwiegen die Vorteile stark. Nach einer Reihe von Tests wird deutlich, dass Objekte, die in den In-Memory-Column-Store geladen werden, nur 30 % der Zeit benötigen, um gelesen zu werden. Dies ist für die Verarbeitung von großen und komplexen Daten eine deutliche Verbesserung. Die Bachelorarbeit richtet sich an Studierende der Fachbereiche Informatik und BWL sowie an Interessierte im Bereich Datenbanken.
Untersuchung der Yosys Hardwaresynthese von der internen Datenstruktur RTLIL bis zur Netzliste
(2023)
Das Ziel dieser Arbeit ist die Beantwortung der Frage "Wie funktioniert Synthese?". Yosys ist ein offenes Synthesewerkzeug, welches untersucht wurde, um diese Frage zu beantworten. Yosys implementiert eine Datenstruktur RTLIL, mit der ein Entwurf in allen Synthesephasen dargestellt wird. Yosys ist modular aufgebaut, was dem Nutzer ermöglicht, das Programm zu erweitern. Die Synthese in Yosys ist auf Pässe unterteilt, die jeweils eine bestimmte Aufgabe erfüllen. Im Rahmen der Arbeit wurde die Datenstruktur und die Passes im einzelnen analysiert. Es wurde auch untersucht, wie in Yosys Erweiterungen zu implementieren sind. Die Analyse hat gezeigt, dass ein wichtiger Teil der Synthese die Umwandlung von Prozessen in eine RTL-Beschreibung darstellt. Im Rahmen der Synthese werden die, von einem Frontend vorläufig erzeugten RTL-Komponenten, umgewandelt. Der letzte Schritt der Synthese ist das Technologiemapping, welches die umgewandelten Komponente auf die verwendete Hardware anpasst.
Untersuchung der Cross-Plattform-Entwicklung am Beispiel von visueller Darstellung von Messdaten
(2022)
In speziellen Fällen ist es notwendig oder gewünscht, eine Anwendung für unterschiedliche Plattformen wie beispielsweise Webbrowser, PCs, Smartphones und Tablets zu entwickeln um möglicherweise eine breitere Nutzerzahl anzusprechen oder einen plattformunabhängigen Betrieb zu ermöglichen. Dies hat in der Vergangenheit dafür gesorgt, dass der Entwicklungs- aufwand potenziert wurde, da für jede Plattform eigener Quellcode implementiert werden musste. Aufgrund dieser Tatsache ist in Einzelfällen für weniger verbreitete Platt-formen nicht entwickelt worden. Für genau dieses Problem versprechen die Cross-Plattform-Entwicklungsmöglichkeiten eine Lösung, welche in den letzten Jahren durch die Entwicklung entsprechender Frameworks ermöglicht worden ist.
In dieser Arbeit werden unterschiedliche Frameworks untersucht und für eine Auswahl wird eine detaillierte Untersuchung angestellt. Diese erfolgt anhand einer beispielhaften Implementierung zur visuellen Darstellung von Funkversorgungsdaten. Wichtige Punkte bei der Bewertung dieser Untersuchung sind, wie viele Änderungen für die einzelnen Plattformen am Quellcode gemacht werden müssen und wie gut die Unterstützung der einzelnen Frameworks mit Bibliotheken für die konkrete Problemstellung ist.
Text-Mining auf Basis von SAP HANA am Beispiel von Social-Media-Beiträgen eines Handelsunternehmens
(2018)
Die wesentlichen Hauptthemen, die in der vorliegenden Arbeit miteinander in Zusammenhang stehen, sind die Anwendung von Verfahren im Text-Mining und die IMDB, HANA, des europäischen Softwareherstellers SAP. Hierbei soll die HANA-Technologieplattform als Basis verwendet werden, um ein Text-Mining-Anwendungsfall zu bearbeiten, die die Analyse von Social-Media-Beiträgen vorsieht.
Digital competences are describing a set of skills, which are necessary to use digital devices and tools with an adequate degree of self-determination. With the ubiquitous digitization of our lives and our society it is important for every citizen to have digital competences. Therefor, it is necessary to educate those competences in schools. As one cannot assume teachers to have enough digital competences to well educate the children of todays classes, this master thesis tries to find out: How to shape the process of teaching digital competences to adolescents in German schools, focusing on including multiple parties from diverse backgrounds into the process? At first, the current situation of teaching digital competences in German schools is analyzed by means of a literature review. After the identification of the challenges within the German system, international best practices are examined. Therefor, four countries, which have reached high scores in the International Computer and Information Literacy Study are selected. Australia, the Czech Republic, Denmark and the Republic of Korea are compared and possible chances for Germany identified. As the next step, expert interviews with divers parties, which have direct or indirect relation to the German education system, are held. The goal of the interviews is to generate ideas on how to support the education system by external help. At the end of the thesis the recommended approach of Motivating External People is presented. Several measures, such as teaching or mentoring students in a guest lecturer model; providing IT support for the hard- and software of the schools or creating Open Educational Resources as education material for the teachers are presented and possible third parties are named. As it is not possible to support the education system from the outside without education system internal persons, it is presented, what needs to change within the system to get the approach working. Therefor, not a complex and system changing approach is presented, but a combined top-down and bottom-up process to motivate external people to support.
Zentraler Punkt der Verkehrsproblematik ist die hohe Staubelastung, vor allem im Berufsverkehr. Diese Situation ließe sich durch eine Erhöhung des Besetzungsgrades pro PKW verbessern. Eine Vielzahl der Pendler fährt alleine, obwohl besonders in diesem Kontext viele Personen regelmäßig denselben oder einen ähnlichen Weg fahren und dadurch Fahrgemeinschaften möglich wären. Zur Lösung dieser Problematik wird ein persuasive System namens Route Match zur Unterstützung der Bildung von Fahrgemeinschaften geplant. Im Laufe des Dokumentes werden eine Literaturrecherche, eine Kontextanalyse, zwei empirische Erhebungen und eine Anforderungsspezifizierung für Route Match durchgeführt. Darauf aufbauend wird ein sutainability analysis Framework angewendet und erste Prototypen erstellt. Das Ergebnis sind 138 Requirements, Qualitätsanforderungen und einige Protoypen. Route Match ist eine einfache und kostengünstige Möglichkeit den Autoverkehr zu reduzieren und dadurch die Umwelt positiv zu beeinflussen. Die meisten anderen Ansätze beruhen auf der Entwicklung von neuen Transportmitteln oder dem Ausbau der öffentlichen Verkehrsnetze und des Straßennetzes.
In den letzten Jahren haben sich die öffentlichen Verwaltungen in Deutschland im Zuge von „Open Government” immer weiter gegenüber den Bürgern geöffnet. Durch die Digitalisierung bieten sich vielfältige Möglichkeiten, wie Kommunen ihr Handeln transparent gestalten und gleichzeitig Bürger dazu ermächtigen, sich an politischen Problemlösungsprozessen zu beteiligen. Die fortschreitende Vernetzung der Menschen und das größer werdende Angebot an Daten, mit denen die Verwaltung arbeitet, führt zu großen Herausforderungen und Fragen, zur zukünftigen Politik auf kommunaler Ebene. Aus diesem Grund untersucht diese Thesis die aktuellen Internetkonzepte ausgewählter Kommunen hinsichtlich der Frage, wie die Prinzipien von Open Government bisher umgesetzt wurden. Durch die allgemeine Forschung auf dem Gebiet des Crowdsourcings, der Analyse von Studien und der Durchführung von Interviews mit Experten werden zusätzliche Erkenntnisse gewonnen. Das Ergebnis zeigt, dass die Kommunen sich noch am Anfang der Nutzung digitaler Bürgerbeteiligung stehen. Sowohl die Initiierung von Kollaborationsmodellen findet bislang nur in geringem Maße statt, als auch der Umgang mit offenen Daten, die von der Verwaltung erhoben werden ist wenig erfolgsversprechend: Der eingeschränkte Zugang für eine breite Zielgruppe sowie die fehlende Nutzung der Daten zu Auswertungszwecken sind Beispiele dafür. Zur Adressierung dieser Herausforderungen wurde ein Framework entwickelt, das seinen Schwerpunkt auf die Interaktion zwischen Bürger und Kommune bei der Entwicklung von Lösungen zu öffentlichen Problemen legt. Dadurch soll einerseits alle möglichen Formen der Interaktion zwischen den beiden Akteuren gefördert und andererseits der Wert von offenen Daten als Kommunikationsgrundlage hervorgehoben werden.
In der Masterthesis „Sentiment Analyse von informellen Kurztexten im Unternehmenskontext“ werden Ansätze und Methoden aufgezeigt hat mit denen Unternehmen in der Lage sind die Daten aus sozialen Netzwerken zu speichern, zu verarbeiten und schließlich zu analysieren. Praktisch wurde dies anhand des Beispiels mit Amazons Kundendienst auf Twitter mit Hilfe einer Sentiment Analyse aufgezeigt. Die aus der Theorie und den praktischen Ergebnissen gewonnenen Erkenntnisse über Herausforderungen, Nutzen, sowie Methoden zur Umsetzung sind universell in vielen Unternehmen einsetzbar und können wie aufgezeigt unter anderem zu einer Verbesserung der Kundenzufriedenheit führen. Dabei wurde ein lexikonbasietre Ansatz zur Sentimentanalyse benutzt.
Web browsers use HTTP caches to reduce the amount of data to be transferred over the network and allow Web pages to load faster. Content such as scripts, images, and style sheets, which are static most of the time or shared across multiple websites, are stored and loaded locally when recurring requests ask for cached resources. This behaviour can be exploited if the cache is based on a naive implementation. This paper summarises possible attacks on the browser cache and shows through extensive experiments that even modern web browsers still do not provide enough safeguards to protect their users. Moreover, the available built-in as well as addable cache controls offer rather limited functionality in terms of protection and ease of use. Due to the volatile and inhomogeneous APIs for controlling the cache in modern browsers, the development of enhanced user-centric cache controls remains -until further notice- in the hands of browser manufacturers.
REST became the go to approach when it comes to large scale distributed systems on, or outside the World Wide Web. This paper aims to give a brief overview of what REST is and what its main draws and benefits are. Secondly, I will showcase the implementation of REST using HTTP and why this approach became as popular as it is today. Based on my research I concluded that REST’s advantages in scalability, coupling, performance and its seamless integration with HTTP enabled it to rightfully overtake classic RPC based approaches.
Das Ziel der vorliegenden Arbeit war es, das Potenzial der Blockchain-Technologie für eine dezentrale Energieversorgung aufzuzeigen und abzuwägen. Bislang gibt es nur wenig Forschung und Aufmerksamkeit in diesem Bereich. Die Grundlage für die Ausarbeitung waren praxisnahe Studien und durchgeführte Pilotprojekte von Unternehmen. Die Erkenntnisse zeigen, dass es im Bereich Peer-to-Peer Energiehandel, Labeling und Zertifizierung, Asset Management, Elektromobilität und Netzengpassmanagement zukunftsfähiges Potenzial gibt. Die Blockchain-Technologie bietet eine manipulations-sichere und transparente Dokumentation sowie Automatisierung bestimmter Abläufe. Jedoch müssen dafür regulatorische Rahmenbedingungen angepasst und die Skalierbarkeit gewährleistet werden. Die Bachelorarbeit ist sowohl für Unternehmen im Bereich der energiewirtschaft als auch für private Betreiber von Energieanlagen interessant.
Intelligent use of energy is one of the keys to success for an energy revolution. To meet this challenge, smart meters are suitable tools because INTELLIGENT use of energy means not only to use efficiency technology, but also to determine load shifting potentials and use them accordingly. Especially farms with high power consumption are becoming increasingly concerned about reducing energy costs due to rising energy prices and need a systematic analysis of their operational energy flow. To find solutions for farms, the NaRoTec e.V., the TH Köln, and the Machinery Ring Höxter-Warburg have joined forces with partners and launched the project "Intelligent Energy in Agriculture", which is funded by the state of NRW. The aim of the project is to be able to give individual advice recommendations for energy optimization of agricultural holdings. This will be achieved inter alia through an operational energy audit and current measurements in different operating ranges. To achieve this, smart meters were installed in selected energy-intensive dairy and pig farms. As part of the project, the installed smart meter information about the consumption of various plants and their components were analyzed, regularities and adaptability in loading history identified, and the energy efficiency of the equipment and systems used verified (especially pumps, ventilators, feeding systems). Then recommendations were formulated to shift electricity-intensive processes to times with low electricity costs and high intrinsic power production. The resulting findings will be used as the basis for intelligent energy management in the further course of the project. Overall, efficiency streamlining measures in the field of ventilation and lighting systems, flexible dry feeding systems by decoupling power purchase and consumption, as well as energy savings and related CO2 savings were determined.
Das Praxisprojekt ist eine Fortführung des bereits umgesetzten Informatikprojektes.
Daher wird in den nachfolgenden Kapiteln ausschließlich auf die maßgeblichen Änderungen und Erweiterungen Bezug genommen.
Der Schwerpunkt ist die Konzeption und Umsetzung eines relationalen Datenbanksystems zur Erfassung, Verwaltung und Bearbeitung von leichtathletischen Mehrkampfwettbewerben.
Die Bedienung erfolgt über eine Weboberfläche, die Mithilfe des PHP-Frameworks Laravel an das Datenbanksystem MariaDB angekoppelt ist.
Die wichtigsten Themen im Projekt sind:
• Die Umsetzung und Koordinierung des Mehrbenutzerbetriebs
• Die Umsetzung und Kontrolle der Rechteverwaltung der Benutzer
• Die Möglichkeit zur Erfassung eigener Wettkämpfe bestehend aus beliebig vielen Disziplinen inklusive individueller Formeln zur Punkteberechnung
Die ersten beiden Punkte werden in dieser Ausarbeitung auf einer allgemeinen Ebene behandelt.
This thesis proposes four different Augmented Reality (AR) display techniques that can overcome the problem of uncertain tracking errors. Where most other papers focus on limiting the amount of error that a user tracking system generates, this paper pro-poses visualizations that limit their impact instead. For this, four different display techniques have been developed and evaluated using criteria found in related literate. Two of the four proposed solutions consistently ranked better within these criteria. The first, Bending Words, uses a mix between spatially registered information and turn instructions to achieve that result. The second, WIM, mostly relies on context infor-mation of the building instead.
Ziel der Arbeit war es, den Nutzen der Google Glass im Alltag und ihr Potenzial als AR-Brille ( Augmented Reality ) aufzuzeigen. Mit der Arbeit wurde ein ortsbasierter AR Ansatz vorgestellt, der innerhalb von Gebäuden zum Einsatz kommt. Als Beispielszenario diente die AR-basierte Navigation innerhalb des Gebaudes der TH Köln. Hierbei wurde ein Umgebungsmodell in Form eines Regular Grids konstruiert, welches eine diskrete Positionsbestimmung im Raum erlaubt. Ferner wurden verschiedene Verfahren zur Positionsbestimmung innerhalb von Gebäuden gegen übergestellt und deren Vor- und Nachteile evaluiert. Hierbei wurden die Erkenntnisse gewonnen, dass die Positionsbestimmung mittels LLA Markern die höchste Stabilität, jedoch die geringste Kontinuität aufweist, da Marker zunächst erkannt werden müssen, bevor die Position bestimmt werden kann.
Um einen zuverlässigen kontext-sensitiven Sicherheitsdienst bereitzustellen, ist die Vollständigkeit des zur Bewertung genutzten Sicherheitskontextes von wesentlicher Bedeutung. Der Anwendungskontext leistet dazu einen fundamentalen Beitrag. Aufgrund der fehlenden Interpretationslogik ist allerdings der Anwendungskontext von aussen nicht ermittelbar. Die Integration einer den Sicherheitsdienst unterstützenden Komponente in die Anwendung schafft hierzu auf zweierlei Weise Abhilfe. Sie stellt Anwendungskontextinformationen zur Verfügung und gewährleistet effektiv eine kontext-sensitive Sicherheitsadaption.
In dieser Arbeit wird ein System zur Modellierung von IT-Compliance-Anforderun-gen in einer Graph-Datenbank entwickelt. Dabei werden organisationsinterne Com-pliance-Maßnahmen, ihre Umsetzungsdokumentation und die zwischen ihnen entstehenden Beziehungen berücksichtigt. Anschließend werden die Stärken und Schwächen des Systems anhand einer Erprobung mit Anforderungen an ein fiktives IT-Projekt der deutschen Versicherungsbranche herausgestellt und so die Praxistauglichkeit bewertet. Es wird unter anderem aufgezeigt, wie Compliance- Daten in die Datenbank aufgenommen werden können und welche Unterschiede es zu bisher verbreiteten Prozessen in diesem Gebiet gibt.
Der erste Teil dieser Arbeit gibt einen Überblick über die Themenfelder der modellgetriebenen Softwareentwicklung und der objektrelationalen Abbildung. Durch eine Kombination dieser beiden Themen wird schließlich der Begriff der modellgetriebenen O/R-Mapping-Frameworks definiert und näher erläutert. Im zweiten Teil bestätigt ein Vergleich von drei dieser Frameworks (Bold for Delphi, MDriven sowie Texo mit EclipseLink) die Vor- und Nachteile des modellgetriebenen Ansatzes auch in Bezug auf die Persistenz. Der Vergleich macht außerdem deutlich, was aktuell in der Praxis möglich ist (und was nicht) und in welchem Umfang Standards genutzt werden (insbesondere MDA und UML). Daneben werden auch die Schwächen in diesem Bereich aufgezeigt. Abschließend gibt es eine kurze Bewertung der Frameworks, auch im Hinblick auf mögliche Anwendungsszenarien.
Ein Problem unserer heutigen Informationsgesellschaft ist, dass Ärzte neuen technischen Systemen immer mit großem Argwohn begegnen und dies nicht zu unrecht. Denn immer wieder wird unser Vertrauen in Systeme durch große Missbrauchsskandale erschüttert. Doch sind technische Systeme wie medizinische Semantic Web Anwendungen ein nächster Schritt zu einer verbesserten medizinischen Versorgung.
Deshalb ist das Ziel dieser Arbeit für medizinische Semantic Web Anwendungen Ansätze für Normen und Architekturen zur Schaffung von Vertrauen zu finden. Hierzu wird erst das Vertrauen aus unterschiedlichen Blickwinkeln betrachtet und danach medizinische Semantic Web Anwendungen als sozio-technisches System. Dazu wird der der soziale Kontext des deutschen Gesundheitswesens betrachtet. Zusätzlich wird untersucht wie ein technisches System diesen Kontext verändern könnte.
Aus diesen drei Kategorien werden Normen definiert. Auf diesen Normen aufbauend werden Ansätze für Architekturen formuliert, welche das Vertrauen steigern sollen. Dazu werden schon vorhandene medizinische Ontologien beleuchtet, um den Ansätzen eine Basis zu geben.
Diese Ansätze für Architekturen werden als einzelne Bausteine zu einem größeren Ansatz zusammengefügt. Zuerst wird dieser größere Zusammenhang vorgestellt und danach werden einige Bausteine im Folgenden weiter beschrieben. Unter diese Bausteine fallen Kontrollinstanzen und deren Services sowie Zertifizierungsstellen mit unterschiedlichen Arten von Zertifikaten. Die meisten dieser Bausteine
sind jedoch Agenten mit den verschiedensten Aufgaben, auf welche genauer eingegangen wird. Die Qualität der Ontologien sollen diese einerseits als wichtigen Aspekt des Vertrauens verbessern und überwachen. Andererseits dienen weitere Agenten wiederum der Kommunikation untereinander oder der üblichen Akquisition von Informationen.
DesWeiteren bauen diese Agenten ein Vertrauensnetzwerk untereinander auf. Das Vertrauen zu anderen Agenten wird dabei mit unterschiedlichen Attributen dargestellt und liegt dezentral bei jedem Agenten oder kann ebenfalls von zentralen Services erfragt werden. Ein Austausch der Informationen unter den Agenten ist ebenso möglich. Diese Architektur mit einer Vielzahl von Agenten und das daraus
resultierende Vertrauensnetzwerk soll schließlich ein grundlegendes Vertrauen schaffen, auf welchem medizinische Semantic Web Anwendungen aufbauen können.
Machbarkeitsanalyse über den Aufbau eines Enterprise Data Warehouse auf Basis von Apache Hadoop
(2016)
Die vorliegende Masterthesis liefert eine Einführung in die Themen Data Warehouse, Big Data und Apache Hadoop. Sie präsentiert grundlegende Data-Warehouse-Kon-zepte und überprüft, inwieweit diese mit dem Apache Hadoop Software Framework zu realisieren sind. Hierbei wird sowohl eine technische Überprüfung vorgenommen als auch verschiedene Szenarien veranschaulicht, wie Hadoop inhaltlich sinnvoll in bestehende Systeme integriert werden kann. Inhaltlich wird über das Thema Big Data an die Notwendigkeit einer solchen Überprüfung herangeführt.
Die vorliegende Bachelorarbeit „Konzeptionierung eines Unterstützungsangebotes für Frauen im Informatikstudium an der TH Köln“ soll Frauen, die ein Informatikstudium anfangen oder gerade Informatik studieren, helfen, das Studium einfach und erfolgreich zu bewältigen. Dabei soll für die Hochschule ein verwertbares Konzept erstellt werden, in dem bestimmte Unterstützungspunkte entwickelt und herausgearbeitet werden. Der Fokus liegt dabei auf den Bachelorstudiengängen in Informatik an der Technischen Hochschule Köln am Campus Gummersbach.
Die Arbeit wurde im Zeitraum von Februar bis Mai 2022 in Köln verfasst und umfasst ca. 90 Seiten.
Das eLearning Datenbank Portal der Fachhochschule Köln unterstützt Studierende im Fach Datenbanken und Informationssysteme mit umfangreichen E-Learning-Tools (http://edb.gm.fh-koeln.de). Die Diplomarbeit „Konzeption und Realisierung eines Statistiktools auf Basis von JSP und DOJO“ beschäftigt sich mit der Entwicklung eines Statistiktools, das die Nutzung des eLearning Portals durch die Studenten auswertet und die Nutzungsdaten als Diagramme auf einer Benutzeroberfläche einfach und übersichtlich dargestellt, damit diese von Lehrenden überprüft werden können. Der theoretische Teil der Diplomarbeit ist in zwei Abschnitte aufgeteilt. Der erste Abschnitt beschreibt die Grundlagen von Java Server Pages und die JavaScript-Bibliothek Dojo Toolkit. Es werden deren Eigenschaften und praktische Anwendung ausführlich erläutert. Der zweite Abschnitt befasst sich mit der Entwicklung eines Konzepts zum Statistiktool. Es stehen die Analyse der Nutzungsdaten und der Vergleich zwischen Oracle Application Express (APEX) und Dojo zur Erstellung von Diagrammen in Vordergrund. Im praktischen Teil der Diplomarbeit wird das Konzept umgesetzt und die Implementierung des Statistiktools als JSP-Anwendung mit der Verwendung von Dojo beschrieben.
Das Internet of Things (IoT) ist aktuell eines der trendgebenden Themen der Infor-mationstechnik. Dem Thema werden dabei viele Versprechungen, aber auch Erwar-tungen auf staatlicher, wirtschaftlicher und alltäglicher Ebene zugeordnet. Dabei besteht die Frage, was ist Hype und was ist Realität? Motivation und Zielsetzung dieser Arbeit ist es, dieses Thema zu untersuchen und Aspekte daraus in einem Smart Home System umzusetzen. Klare Zielsetzung ist die lauffähige Ver-sion eines Prototyps zu produzieren. Dieser soll den technischen Durchstich ver-schiedener Werkzeuge, Technologien und Services, als integratives Ziel dieser Arbeit, durchführen. Eine Verknüpfung mit realen Anwendungsfällen ist zur besse-ren Veranschaulichung wünschenswert, aber für die Zielerreichung nicht zwangsläu-fig erforderlich. Gleichzeitig soll der Prototyp ein stabiles Fundament für weitere Entwicklungen auf dessen Basis bereitstellen. Der Einsatz von Technologien im Be-ta-Stadium ist dadurch aber nicht ausgeschlossen, wie der Einsatz des aktuell noch in der Entwicklervorschau befindlichen Android Things zeigt.
Smartphones und die Nutzung von mobilen Anwendungen gewinnen aufgrund der stetig voranschreitenden Digitalisierung weiter an Relevanz. Im April 2022 lag die Zahl der genutzten mobilen Endgeräte bei knapp 6 Milliarden, wobei die Hersteller Apple
und Google einen Marktanteil von knapp 99 % einnehmen. Um als Entwickler eine möglichst große Zielgruppe anzusprechen, ist es daher wichtig, die eigene Anwendung auf möglichst vielen Plattformen zur Verfugung stellen zu können. Die native Entwicklung ist einer der am meist verbreitetste Entwicklungsansatz für mobile Anwendungen. Dort werden plattformspezifische Tools sowie native Programmiersprachen verwendet. Hierbei ergeben sich allerdings diverse Herausforderungen für Entwickler entlang des gesamten Entwicklungsprozesses. Neben der nativen Entwicklung existiert der Ansatz von Cross-Plattform. Hierbei handelt es sich um einen Sammelbegriff für verschiedene Ansätze, welche das Ziel verfolgen eine Anwendung durch die Nutzung einer einheitlichen Codebasis auf mehreren Plattformen zur Verfugung zu stellen. Einer dieser Unteransätze ist
Backend-Driven UI, worin die gesamte Anwendung innerhalb eines strukturierten Datenformats beschrieben und serverseitig verwaltet wird. Der Client kann diese Daten dann dynamisch anfragen und zur Laufzeit in native UI überführen. Das Konzept von Backend-Driven UI wird bereits durch Unternehmen wie Airbnb oder SiriusXM eingesetzt, ist hier allerdings stark auf anwendungsbezogene Prozesse zugeschnitten. Es bedarf daher eines Backend-Driven UI Frameworks, welches es Entwicklern ermöglichen soll, mobile Anwendungen, ohne anwendungsspezifische Einschränkungen plattformübergreifend zu entwickeln. Im Rahmen dieser Arbeit wurde daher zunächst eine plattformunabhängige und erweiterbare Architektur eines solchen Frameworks entwickelt und in Form eines ersten Prototyps auf ihre Umsetzbarkeit geprüft. Insgesamt stellt der Prototyp eine mögliche Umsetzung von Backend-Driven UI dar und ist in der Lage erste Anwendungsszenarien abzudecken. Es konnten dennoch Bereiche ermittelt werden, welche im Zuge zukünftiger Entwicklung ausgebaut werden können. Dazu zählt unter anderem das Umsetzen von serverseitig bestimmter Anwendungslogik sowie der Umgang mit Unterschieden im plattformspezifischen Funktionsumfang.
Immer mehr Mobile Augmented Reality Spiele werden entwickelt und gewinnen zunehmend an Beliebtheit. Zugleich können Smartphones überall und zu jeder Zeit für Mobiles Lernen genutzt werden. Diese Masterarbeit beschäftigt sich mit einem auf Mobile Augmented Reality basierenden Serious Game.
Serious Games werden eingesetzt, um Fähigkeiten zu trainieren, Wissen anzueignen oder Einstellungen des Spielers zu ändern. Dabei lernen die Spieler in der Spielwelt Inhalte, die sie in die Realität übertragen und anwenden können. Es wird folgende Forschungsfrage beantwortet: Wie wird der Wissenserwerb eines Serious Game durch den Einsatz von Mobile Augmented Reality beeinflusst. Zum einen werden Theorien über das Lernen durch Serious Games und zum anderen Theorien über Lernen mit Augmented Reality anhand einer Literaturarbeit untersucht und kritisch eingeordnet. Der Vergleich dieser Theorien dient der Identifizierung von wichtigen Elementen für Augmented Reality Serious Games. Dazu wird das Potenzial von Mobile Augmented Reality anhand ihrer Vor- und Nachteile aufgezeigt. Die Ergebnisse dienen einem weiteren Modell, welches die Auswirkungen der Serious Game Elemente und Augmented Reality Elemente auf den Spieler verknüpft. Ebenso werden spezifische Merkmale über den Spieler und dem Kontext des Spiels identifiziert.
Im Anschluss an die Darstellung der einzelnen Serious Games und Mobile Augmented Reality Elemente wird ein Spiel über den Ausbruch des Virus COVID-19 entwickelt. Es werden Informationen über die Pandemie und die gesetzlich vorgeschriebenen Schutzmaßnahmen integriert.
Es wird deutlich, dass sich die Elemente auf den Spieler und sein Spielerlebnis auswirken, als auch einen Einfluss auf den Lerneffekt haben. Dennoch kann nicht einzeln begründet werden, für welchen Zweck bestimmte Elemente eingesetzt werden müssen. Es werden die Bedingungen zusammengefasst, die sich individuell auf das Spielerlebnis und den Lerneffekt auswirken.
More and more often, spoken information must and should be available in written form. For this purpose, various transcription programs try to support the user with various conveniences when transcribing the source material. A variety of online services go one step further and provide a ready-to-use, automatically generated transcription for a fee. Since the fees can be very expensive for the individual user and the online services may not always be used for privacy reasons, the goal of this work is to implement an open offline alternative. This alternative should be an open source editor based on the open speech-to-text-engine DeepSpeech and should on one hand provide the user with an offline transcription and on the other hand support him in correcting it. To achieve this goal, first the traditional speech recognition and eventually DeepSpeech will be described. This is followed by the conception and implementation of the editor. Since this project is explicitly intended to be an open source project, the last part will take a closer look at the release.
Konzeption einer flexiblen Systemarchitektur zur dynamischen Konfiguration hybrider Lernräume
(2021)
In dieser Arbeit wird eine dynamische Systemarchitektur für die Schaffung hybrider Ökosysteme konzipiert, welche eine flexible und kontextgerechte Konfiguration hybrider Lernräume ermöglichen. Aufgrund der variierenden Definitionen hybrider Lehre und Lernräume sowie der schwachen Abgrenzung zu verwandten Begriffen findet hierfür zunächst eine Konkretisierung eigener Arbeitsdefinitionen statt. Aufbauend auf diesen Begriffsbestimmungen und ausführlichen Literaturrecherchen, werden anschließend sich interdisziplinär überschneidende Kernelemente hybrider Lehre und Lernräume identifiziert sowie in einem Übersichtsmodell zusammengefasst. Durch die Literaturrecherche ersichtliche Charakteristiken des hybriden Paradigmas werden ebenso in
Beziehung gesetzt und zusammenfassend aufgeführt. Auf Basis dieser Übersichten und unter Berücksichtigung weiterer Forschungsergebnisse wird nachfolgend ein Vorgehensmodell kreiert, welches kontextgerechte Designs hybrider Systeme strukturiert ermöglicht. Neben didaktischen, physischen und digitalen Komponenten werden dafür diverse Typen von Lernaktivitäten identifiziert, welche als Ausgangspunkt eine effiziente und praxisorientierte Planung ermöglichen.
Alle erstellten Modelle bilden abschließend die Grundlage der konzipierten Systemarchitektur, in welcher die hybriden Kernkonzepte aus einer technischen Perspektive beleuchtet werden. Das hierdurch repräsentierte Microservice-Websystem beinhaltet neben notwendigen Basis-Services vor allem einen dynamischen Plugin-Mechanismus, welcher die flexible Integration neuer Bestandteile ermöglicht. So kann der Funktionsumfang auf sich wandelnde Anforderungen der Nutzer angepasst werden und die Anwendung mit der Zeit zu einem umfassenden Ökosystem heranwachsen.
Kategorisierung und Bewertung plattformübergreifender Ansätze für die Auswahl eines Frameworks
(2023)
Die plattformübergreifende Entwicklung ist eine populäre Art der Anwendungsentwicklung, die in der Forschung und Industrie immer weiter an Relevanz gewinnt. Dabei wird eine Codebasis geschrieben, die auf mehreren Betriebssystemen lauffähig ist. Das Ziel dieses Ansatzes ist es unter anderem, die Zeit- und Kosteneffizienz zu optimieren. Es gibt verschiedene Ansätze der plattformübergreifenden Entwicklung. Die einzelnen Frameworks lassen sich wiederum in diese Ansätze einteilen. Durch die steigende Akzeptanz dieser Art der Entwicklung herrscht eine zu große Auswahl an Frameworks, von denen jedes eigene Stärken und Schwächen aufweist. Dies ist ein Problem, da Entwickelnde keine Übersicht und Einordnung der Frameworks für ihre individuellen Bedürfnisse haben. Um diesem Problem entgegen zu wirken, wird in dieser Arbeit ein Verfahren entwickelt, mit dem das passende Framework für die Rahmenbedingungen des jeweiligen Projekts ermittelt werden kann. Dazu werden die Frameworks Kotlin Multiplatform, Flutter, React Native und Vue.js, das zur Umsetzung einer PWA genutzt wird, für eine mobile Anwendung getestet, die auf Android und iOS Geräten laufen soll. Zusätzlich werden 44 Kriterien ermittelt, anhand derer die Frameworks bewertet werden. Mit dem resultierenden Verfahren kann sowohl eine objektive, als auch eine subjektive Auswertung der Frameworks erfolgen, um eine geeignete Auswahl zu treffen.
Risk-based authentication (RBA) is an adaptive security measure to strengthen password-based authentication. RBA monitors additional implicit features during password entry such as device or geolocation information, and requests additional authentication factors if a certain risk level is detected. RBA is recommended by the NIST digital identity guidelines, is used by several large online services, and offers protection against security risks such as password database leaks, credential stuffing, insecure passwords and large-scale guessing attacks. Despite its relevance, the procedures used by RBA-instrumented online services are currently not disclosed. Consequently, there is little scientific research about RBA, slowing down progress and deeper understanding, making it harder for end users to understand the security provided by the services they use and trust, and hindering the widespread adoption of RBA.
In this paper, with a series of studies on eight popular online services, we (i) analyze which features and combinations/classifiers are used and are useful in practical instances, (ii) develop a framework and a methodology to measure RBA in the wild, and (iii) survey and discuss the differences in the user interface for RBA. Following this, our work provides a first deeper understanding of practical RBA deployments and helps fostering further research in this direction.
A test tool for Langton's ant-based algorithms is created. Among other things, it can create test files for the NIST-Statistical-Test-Suite. The test tool is used to investigate the invertibility, ring formation and randomness of 7 created models which are extensions of Langton’s ant. The models are examined to possibly use them as pseudo-random generator (PRG) or block cipher. All models use memories which are based on tori. This property is central, because this is how rings are formed in the first place and in addition the behavior of all models at the physical boundaries of the memory is clearly defined in this way. The different models have special properties which are also investigated. These include variable color sets, discrete convolution, multidimensionality, and the use of multiple ants, which are arranged fractal hierarchically and influence each other. The extensions convolution, multidimensional scalable and multidimensional scalable fractal ant colony are presented here for the first time. It is shown that well-chosen color sets and high-dimensional tori are particularly well suited as a basis for Langton's ant based PRGs. In addition, it is shown that a block cipher can be generated on this basis.