Refine
Year of publication
Document Type
- Master's Thesis (22)
- Bachelor Thesis (13)
Has Fulltext
- yes (35)
Keywords
- Data Mining (4)
- Big Data (3)
- Datenbank (3)
- Hadoop (3)
- NoSQL-Datenbanksystem (3)
- Agile Softwareentwicklung (2)
- Cloud Computing (2)
- Data Ware House (2)
- Data-Warehouse-Konzept (2)
- E-Learning (2)
Faculty
Die Digitalisierung hat Auswirkung auf die Entwicklung von Produkten. Die Teams werden agiler, die Kunden haben als Eigentümer eines Produktes Mitspracherecht und bestimmen gemeinsamen mit den Entwicklern, welche Features als Nächstes aus dem vordefinierten Backlog in dem nächsten Sprint als Inkrement eingebaut und ausgeliefert werden. Durch die enge Zusammenarbeit werden die Release-Zyklen eines Produktes kürzer und es werden mehr Features als in der Vergangenheit bei nicht agilen Methoden deployt. Durch die kurzen Release-Zyklen werden viele unterschiedlichen Versionen ausgerollt. Dies hat zur Folge, dass Fehler, die vorher durch das Testen nicht entdeckt worden sind, auf einer produktiven Umgebung ausgerollt werden. Hat der Fehler eine starke Auswirkung auf die Benutzung der Anwendung, dann besteht die Möglichkeit, die Änderung manuell durchzuführen. Diese muss beim nächsten Release eingebaut werden. Wenn die Release-Zyklen länger werden, birgt es die Gefahr, dass viele manuelle Änderungen in der Zeit entstehen. Der ausgerollte Zustand entspricht nach einer bestimmten Zeit nicht mehr dem eingecheckten Zustand im Git-Repository. An der Stelle bietet der GitOps-Ansatz eine mögliche Abhilfe, um den ausgerollten Ist-Zustand durch regelmäßiges Pullen so nah wie möglich an dem im Repository eingecheckten Soll-Zustand zu halten.
Die vorliegende Bachelorarbeit in Kooperation mit der Deutsche Sporthochschule Köln hat die Konzeption und Entwicklung eine Software, mit der Daten aus der Fußball-Bundeliga 2011–2012 mit Hilfe einer Heatmap erzeugt werden, zum Inhalt. Die Software soll die Torpositionen vor einem Offensivspiel zu verschiedenen Zeitpunkten des Spieles veranschaulichen.
Bei der Arbeit wurden zwei Cluster-Methoden betrachtet, nämlich die Density-Based Spatial Clustering of Applications with Noise (DBSCAN) und der Kerndichtschätzer (kernel density estimation). DBSCAN ist ein bekannter Cluster-Algorithmus und wurde mit dem Software-Tool WEKA untersucht. Es zeigte sich, dass dieses Verfahren nicht so gut für diese Aufgabenstellung geeignet ist, da einzelnen Cluster nicht so gut unterschieden werden konnten. Der Kerndichtschätzer ist dagegen ein statistisches Verfahren zur Schätzung einer Dichte, der auch in Geoinformationssystemen verwendet wird. Dieses Verfahren ist besser für die Aufgabenstellung geeignet.
Nach der Analyse der Daten im XML-Format wurde der Algorithmus Kerndichtschätzer für die Deutsche Sporthochschule Köln in detr Programmiersprache Java implementiert. Die Software untersucht die Bildung von Clustern bzw. die Torschussdichte mit der Absicht, ein Verhalten oder Muster vor einem Offensivspiel zu erkennen. Sie enthält eine sehr gute Visulisierung der verschiedenen Situationen, die zum Torschuss führten, anhand eines Fußballfeldes
Aufbauend auf einer vorherigen Arbeit, die sich mit der Implementierung einer Komponentezum Auslesen mdizinischer Sensordaten mithilfe eines Arduino und eines Raspberry Pi befasst hat, beschäftigt sich diese Arbeit mit der Visualisierung sowie Auswertung der durch das System gesammelten Daten. Das Ziel dieser Arbeit ist es, über einen Zeitraum von etwa drei Monaten mithilfe der Komponente Daten zu sammeln und diese Daten in einem sinnvollen Kontext visuell darzustellen. Zudem sollen diese Daten mithilfe unterschiedlicher Algorithmen des Maschinellen Lernens ausgewertet werden,
um mögliche Muster und Zusammenhänge erkennen zu können. In diesem Kontext konnte die Hypothese aufgestellt werden, dass ein Zusammenhang zwischen der Körpertemperatur und der Sauerstoffsättigung im Blut besteht.
Aufgrund ihrer aktuellen Bedeutung im Zusammenhang des Internet of Things werden in der vorliegenden Arbeit Time Series Databases und Event Stores miteinander vergli-chen. Ziel ist, die Gemeinsamkeiten und Unterschiede der beiden Arten von Datenbank Management Systemen herauszustellen.
Der erste, theoretische Teil des Vergleichs erfolgt anhand der funktionalen Kriterien Speichersystem, Performance und Funktionen sowie der nicht-funktionalen Kriterien Usability und Support. Im zweiten Teil des Vergleichs wird anhand eines konkreten An-wendungsfalls untersucht, ob sich Time Series Databases und Event Stores gleicher-maßen für die Speicherung und in einem zweiten Schritt für die Abfrage von Zeitreihen-daten eignen.
Zumal der theoretische Vergleich Unterschiede zwischen einzelnen Time Series Data-bases und Event Stores in Bezug auf die betrachteten Kriterien erkennen lässt, wird für den praktischen Vergleich unter Berücksichtigung der im konkreten Anwendungsfall gegebenen Anforderungen nur die am besten geeignetste Time Series Database (In-fluxDB) und der am besten geeignetste Event Store (Event Store) ausgewählt. Der prak-tische Vergleich zeigt, dass die Zeitreihendaten im konkreten Anwendungsfall zwar in beiden Arten von Datenbank Management Systemen gespeichert werden können, die Nutzung der auf Zeitreihendaten spezialisierten Time Series Database InfluxDB jedoch offensichtliche Vorteile gegenüber dem Event Store aufweist.
Das Ziel der vorliegenden Bachelorarbeit war es, das In-Memory-Konzept innerhalb einer Oracle Datenbank auf neue Mechanismen, Funktionen und Methoden zu untersuchen. Dazu wurde eine Datenbank erstellt und mit Beispieldaten bestückt. Diese Beispieldaten sind Aktienwerte der DAX-30 Unternehmen, welche durch eine Reihe von Indikatoren aus der technischen Analyse eine komplexe Möglichkeit der Analyse bieten. Die Ergebnisse bestätigen, dass das In-Memory-Konzept neben dem bekannten Spaltenformat eine Reihe von Techniken und Funktionen bietet, welche sich positiv bei der Verarbeitung von Daten durch Data Query Language-Befehle auswirken. Es kommen auch Nachteile, wie der flüchtige Speicher zum Vorschein, dennoch überwiegen die Vorteile stark. Nach einer Reihe von Tests wird deutlich, dass Objekte, die in den In-Memory-Column-Store geladen werden, nur 30 % der Zeit benötigen, um gelesen zu werden. Dies ist für die Verarbeitung von großen und komplexen Daten eine deutliche Verbesserung. Die Bachelorarbeit richtet sich an Studierende der Fachbereiche Informatik und BWL sowie an Interessierte im Bereich Datenbanken.
In der Masterthesis „Sentiment Analyse von informellen Kurztexten im Unternehmenskontext“ werden Ansätze und Methoden aufgezeigt hat mit denen Unternehmen in der Lage sind die Daten aus sozialen Netzwerken zu speichern, zu verarbeiten und schließlich zu analysieren. Praktisch wurde dies anhand des Beispiels mit Amazons Kundendienst auf Twitter mit Hilfe einer Sentiment Analyse aufgezeigt. Die aus der Theorie und den praktischen Ergebnissen gewonnenen Erkenntnisse über Herausforderungen, Nutzen, sowie Methoden zur Umsetzung sind universell in vielen Unternehmen einsetzbar und können wie aufgezeigt unter anderem zu einer Verbesserung der Kundenzufriedenheit führen. Dabei wurde ein lexikonbasietre Ansatz zur Sentimentanalyse benutzt.
Das Ziel der vorliegenden Arbeit war es, das Potenzial der Blockchain-Technologie für eine dezentrale Energieversorgung aufzuzeigen und abzuwägen. Bislang gibt es nur wenig Forschung und Aufmerksamkeit in diesem Bereich. Die Grundlage für die Ausarbeitung waren praxisnahe Studien und durchgeführte Pilotprojekte von Unternehmen. Die Erkenntnisse zeigen, dass es im Bereich Peer-to-Peer Energiehandel, Labeling und Zertifizierung, Asset Management, Elektromobilität und Netzengpassmanagement zukunftsfähiges Potenzial gibt. Die Blockchain-Technologie bietet eine manipulations-sichere und transparente Dokumentation sowie Automatisierung bestimmter Abläufe. Jedoch müssen dafür regulatorische Rahmenbedingungen angepasst und die Skalierbarkeit gewährleistet werden. Die Bachelorarbeit ist sowohl für Unternehmen im Bereich der energiewirtschaft als auch für private Betreiber von Energieanlagen interessant.
Ziel der Arbeit war es, den Nutzen der Google Glass im Alltag und ihr Potenzial als AR-Brille ( Augmented Reality ) aufzuzeigen. Mit der Arbeit wurde ein ortsbasierter AR Ansatz vorgestellt, der innerhalb von Gebäuden zum Einsatz kommt. Als Beispielszenario diente die AR-basierte Navigation innerhalb des Gebaudes der TH Köln. Hierbei wurde ein Umgebungsmodell in Form eines Regular Grids konstruiert, welches eine diskrete Positionsbestimmung im Raum erlaubt. Ferner wurden verschiedene Verfahren zur Positionsbestimmung innerhalb von Gebäuden gegen übergestellt und deren Vor- und Nachteile evaluiert. Hierbei wurden die Erkenntnisse gewonnen, dass die Positionsbestimmung mittels LLA Markern die höchste Stabilität, jedoch die geringste Kontinuität aufweist, da Marker zunächst erkannt werden müssen, bevor die Position bestimmt werden kann.
Der erste Teil dieser Arbeit gibt einen Überblick über die Themenfelder der modellgetriebenen Softwareentwicklung und der objektrelationalen Abbildung. Durch eine Kombination dieser beiden Themen wird schließlich der Begriff der modellgetriebenen O/R-Mapping-Frameworks definiert und näher erläutert. Im zweiten Teil bestätigt ein Vergleich von drei dieser Frameworks (Bold for Delphi, MDriven sowie Texo mit EclipseLink) die Vor- und Nachteile des modellgetriebenen Ansatzes auch in Bezug auf die Persistenz. Der Vergleich macht außerdem deutlich, was aktuell in der Praxis möglich ist (und was nicht) und in welchem Umfang Standards genutzt werden (insbesondere MDA und UML). Daneben werden auch die Schwächen in diesem Bereich aufgezeigt. Abschließend gibt es eine kurze Bewertung der Frameworks, auch im Hinblick auf mögliche Anwendungsszenarien.