Refine
Year of publication
- 2022 (5) (remove)
Document Type
- Bachelor Thesis (3)
- Master's Thesis (2)
Language
- German (5)
Has Fulltext
- yes (5)
Keywords
- Agile Softwareentwicklung (2)
- Atlassian (1)
- Cloud Computing (1)
- Clud Computing (1)
- Data Lake (1)
- Data Lakehouse (1)
- Data Mesh (1)
- Data Ware House (1)
- Data lake (1)
- DevOps (1)
Faculty
- Fakultät 10 / Institut für Informatik (5) (remove)
Sinkende Mitgliederzahlen, ein wachsendes Aufgabenspektrum und gefährlichere Einsatzlagen bedingen auch in den Feuerwehren eine Digitalisierung, um die aktiven Feuerwehrangehörigen im Einsatz zu entlasten und zu schützen.
In der vorliegenden Bachelorarbeit werden aktuelle und zukünftige Technologien auf ihre Potenziale und Gefahren als Einsatzmittel für die Feuerwehr analysiert. Neben einer Betrachtung dieser Technologien als Ursache eines Feuerwehreinsatzes werden Unterstützungsmöglichkeiten für die Feuerwehrangehörigen aufgezeigt, die aus der Nutzung fremder Technologien oder einer Eigenbeschaffung resultieren. In der Arbeit werden ausschließlich Technologien fokussiert, die als Entwicklung aus dem Internet der Dinge hervorgehen. Ziel der Arbeit ist es, die Technologien auf ihren Unterstützungscharakter zu analysieren, damit die Einsatzkräfte zielgerichtet entlastet und besser geschützt werden.
Cloud Computing ist der zentrale Faktor zur Beschleunigung der Digitalisierung in Deutschland und wird in den kommenden Jahren eine wichtige Rolle in jedem deutschen Unternehmen spielen. Für Unternehmen wird es dabei um die Umsetzung von
Cloud-Strategien und die praktische Einbindung in die täglichen Betriebsprozesse gehen. Zusätzlich müssen Unternehmen ihre bestehende Datenlandschaft in moderne Architekturen zum Datenmanagement in die Cloud migrieren. Dabei können Unternehmen auf eine Vielzahl an unterschiedlichen unternehmensweiten Datenarchitekturen
zurückgreifen. Die vorliegende Masterarbeit gibt eine Einführung in die aktuelle Entwicklung von Cloud Computing und erläutert, mit Data Fabric, Data Lakehouse und Data Mesh, drei unternehmensweite Datenarchitekturen für die Cloud. Data Fabric, Data Lakehouse und Data Mesh bilden dabei aktuell die modernsten Konzepte für unternehmensweite Datenarchitekturen. Zusätzlich werden ein Data Lakehouse und ein Data Mesh in einer ausgewählten Cloud-Umgebungen entworfen, prototypisch aufgebaut und praktisch analysiert. Ziel der Masterarbeit ist es, die unternehmensweiten Datenarchitekturen in der Cloud zu erläutern, konkrete technologische Architekturen zu entwerfen und entsprechende Hinweise zu Aufwandstreibern in Unternehmen zu identifizieren.
Die Digitalisierung hat Auswirkung auf die Entwicklung von Produkten. Die Teams werden agiler, die Kunden haben als Eigentümer eines Produktes Mitspracherecht und bestimmen gemeinsamen mit den Entwicklern, welche Features als Nächstes aus dem vordefinierten Backlog in dem nächsten Sprint als Inkrement eingebaut und ausgeliefert werden. Durch die enge Zusammenarbeit werden die Release-Zyklen eines Produktes kürzer und es werden mehr Features als in der Vergangenheit bei nicht agilen Methoden deployt. Durch die kurzen Release-Zyklen werden viele unterschiedlichen Versionen ausgerollt. Dies hat zur Folge, dass Fehler, die vorher durch das Testen nicht entdeckt worden sind, auf einer produktiven Umgebung ausgerollt werden. Hat der Fehler eine starke Auswirkung auf die Benutzung der Anwendung, dann besteht die Möglichkeit, die Änderung manuell durchzuführen. Diese muss beim nächsten Release eingebaut werden. Wenn die Release-Zyklen länger werden, birgt es die Gefahr, dass viele manuelle Änderungen in der Zeit entstehen. Der ausgerollte Zustand entspricht nach einer bestimmten Zeit nicht mehr dem eingecheckten Zustand im Git-Repository. An der Stelle bietet der GitOps-Ansatz eine mögliche Abhilfe, um den ausgerollten Ist-Zustand durch regelmäßiges Pullen so nah wie möglich an dem im Repository eingecheckten Soll-Zustand zu halten.
Für EDB, das e-Learning Datenbank Portal der TH Köln, soll im Zuge dieser Arbeit eine Komponente zum Verwalten und Durchführen von Mehrspieler-Livequiz entwickelt werden. Um die Motivation der Nutzer zu erhöhen, soll diese an die unter der Zielgruppe verbreitetsten Nutzertypen des Hexad-Frameworks angepasst werden. Dazu wurde eine Umfrage mit Studierenden der TH Köln durchgeführt. Mithilfe der validen Antworten (N=52) wurde unter anderem die Verteilung der Übereinstimmung mit den sechs Nutzertypen Philanthropist,
Socializer, Free Spitit, Achiever, Player sowie Disruptor ermittelt. Neben der Übereinstimmung mit den Nutzertypen wurden auch verschiedene technische Daten wie Bildschirmauflösungen und verwendete Browser und Betriebssysteme erhoben, welche beim Testen der Anwendung eine optimale Darstellung derselben bei einem möglichst großen Anteil der Zielgruppe bedingen könnten. In mehreren Schritten, von einer Betrachtung etablierter Alternativen bis zur Entwicklung eines Wireframes, wurde eine konzeptuelle
Lösung entwickelt und realisiert. Dabei wurde ein Datenbankschema zur Speicherung der Quiz, Fragen und Antworten mitsamt einer API designt und angelegt. Das Ergebnis ist die Implementation einer Anwendung, welche alle Must-Have und mehrere Nice-To-Have Anforderungen erfüllt. Mit dieser können Quiz mit Fragen und Antworten erstellt, bearbeitet, gelöscht und in Quizräumen von mehreren Personen synchron gelöst werden. Es werden Zwischenergebnisse für die einzelnen Fragen und eine Rangliste mit den Endergebnissen eines Quiz angezeigt. Für eine Weiterentwicklung wurden acht
Verbesserungsansätze erdacht.
Heutzutage ist das Internet, wie die sozialen Netzwerke ein fester Bestandteil unserer So nutzen Unternehmen in dem Kommunikationszeitalter die Netzwerke um in diesen Plattformen mit den Nutzern zu kommunizieren. Hierbei ist das Ziel dieser Bachelorarbeit zu untersuchen in wie weit man eine Erweiterung entwickeln kann um diese Ziele zu erreichen.
Dabei soll im Rahmen dieser Arbeit eine prototypische Implementierung stattfinden, um die Entwicklung eines Multichannel Social Media Marketingtools basierend auf Atlassian Produkten zu ermöglichen.
Die Arbeit gibt zunächst einen Überblick der wichtigsten Grundlagen. Danach wird mit einer Analyse die Anforderungen an den Prototypen erhebt und ausgewertet , sowie eine Marktanalyse durchgeführt. Darauf folgt die Konzeption, wie die Implementierung des Prototyps, was im Anschluss mit einem Test für die Gebrauchstauglichkeit ergänzt wird.