Refine
Year of publication
Document Type
- Master's Thesis (94)
- Bachelor Thesis (37)
- Study Thesis (9)
- Working Paper (1)
Keywords
- Datenbank (9)
- XML (7)
- Informatik (6)
- Agile Softwareentwicklung (5)
- Data-Warehouse-Konzept (5)
- Electronic Commerce (5)
- Internet (5)
- Softwareentwicklung (5)
- Visualisierung (5)
- Data Mining (4)
Faculty
- Fakultät 10 / Institut für Informatik (141) (remove)
Virtuelle Realität ist ein interessantes Gebiet dessen Entwicklung schon seit vielen Jahren vorangetrieben wird. Die neuen Möglichkeiten die sich aufgrund technischer Fortschritte daraus ergeben, sind umwerfend und finden in vielen Bereichen Verwendung. Doch das Potential der VR ist noch viel größer. Dazu passt es auch, das im Laufe der Jahre die Computer immer mehr Einzug in das Leben der Menschen nahmen. Gab es früher noch riesige Geräte, die mit Lochkarten arbeiteten und kaum aufwendige Aufgaben bewältigen konnten, so gibt es heute erheblich schnellere und kleinere Systeme, die zudem auch noch viel leistungsfähiger sind. Von den drastisch gesunkenen Kosten mal ganz abgesehen. Folglich findet auch die breite Öffentlichkeit Zugang zu leistungsfähigen Computersystemen, wodurch bei immer mehr Menschen das Interesse an Virtual Reality geweckt wird. Es ist ein enormer Markt und die Technologie hält immer wieder Einzug in neue Bereiche und ist aus manchen gar nicht mehr hinauszudenken.
This thesis is aimed for finding a solution for non-gaming application of Virtual Reality technology in data visualization and analysis. Starting by reconstructing the concept of Virtual Reality, the paper then describes the principles, concepts and techniques of designing a Virtual Reality application. In the last part of the thesis, a detailed description of how a prototype implemented is presented to provide a preview of how data visualization and analysis and Virtual Reality technology can be combined together in order to enable users to perceive and comprehend data in a possibly better way.
Vergleich von verteilten Datenbanksystemen hinsichtlich ihrer Clusterbildung und Skalierbarkeit
(2017)
Die vorliegende Ausarbeitung geht der Frage nach, wie sich die Datenbankmanagementsysteme MariaDB, MongoDB und Cassandra hinsichtlich ihres Clusteraufbaus,
sowie den damit verbundenen Möglichkeiten der Skalierbarkeit unterscheiden. Dazu werden zunächst Grundlagen zum Aufbau von verteilten Datenbanksystemen, zu den verschiedenen Transaktionskonzepten, sowie zu den möglicherweise auftretenden Probleme vermittelt. Anschließend werden die drei Systeme im Detail untersucht und herausgearbeitet, wie sie genau funktionieren und in welchen Punkten sie sich von einander unterscheiden. Als Abschluss wird ein Fazit gezogen, welches System in verteilten Computerumgebungen
am geeignetsten ist, insofern ein klarer Sieger hervorgeht.
Aufgrund ihrer aktuellen Bedeutung im Zusammenhang des Internet of Things werden in der vorliegenden Arbeit Time Series Databases und Event Stores miteinander vergli-chen. Ziel ist, die Gemeinsamkeiten und Unterschiede der beiden Arten von Datenbank Management Systemen herauszustellen.
Der erste, theoretische Teil des Vergleichs erfolgt anhand der funktionalen Kriterien Speichersystem, Performance und Funktionen sowie der nicht-funktionalen Kriterien Usability und Support. Im zweiten Teil des Vergleichs wird anhand eines konkreten An-wendungsfalls untersucht, ob sich Time Series Databases und Event Stores gleicher-maßen für die Speicherung und in einem zweiten Schritt für die Abfrage von Zeitreihen-daten eignen.
Zumal der theoretische Vergleich Unterschiede zwischen einzelnen Time Series Data-bases und Event Stores in Bezug auf die betrachteten Kriterien erkennen lässt, wird für den praktischen Vergleich unter Berücksichtigung der im konkreten Anwendungsfall gegebenen Anforderungen nur die am besten geeignetste Time Series Database (In-fluxDB) und der am besten geeignetste Event Store (Event Store) ausgewählt. Der prak-tische Vergleich zeigt, dass die Zeitreihendaten im konkreten Anwendungsfall zwar in beiden Arten von Datenbank Management Systemen gespeichert werden können, die Nutzung der auf Zeitreihendaten spezialisierten Time Series Database InfluxDB jedoch offensichtliche Vorteile gegenüber dem Event Store aufweist.
Mit der zunehmenden Bedeutung von Geodaten stellt sich die Frage, welche Indices für welche Anwendungszwecke geeignet sind. Ziel dieser Arbeit ist es, dies am Beispiel von je drei Quadtrees (quadtree, bucket-pr-quadtree, mx-cif quadtree), kd-trees (kd-tree, four-dimensional kd-tree, kdb-tree) und r-trees (guttman r-tree, str-tree, r*-tree) sowohl für statische wie auch dynamische Geodaten zu untersuchen. Als Variante der dynamischen Daten werden zudem Bewegungsdaten betrachtet. Der Vergleich erfolgt sowohl theoretisch, weshalb alle genannten Indices detailliert vorgestellt werden, als auch praktisch. Dazu wurde eine Testumgebung in Java realisiert, die das gezielte Testen von bestimmten Operationen auf den Indices ermöglicht. Als Ergebnis des theoretischen Vergleichs werden verschiedene Charakteristika den Indices zugeordnet, die eine grobe Vorabauswahl ermöglichen. Der praktische Vergleich zeigt anschließend die Resultate differenziert nach Punktgeometrien, Nicht Punktgeometrien und Bewegungsdaten. Als Resultat wird eine generell gute Eignung der r-trees und insbesondere des str-trees dargestellt. Gleichzeitig wird aber auch darauf hingewiesen, dass es Anwendungsszenarien (z.B. langsame I/O) gibt, in denen eine andere Wahl getroffen werden sollte.
Vergleich verschiedener Lernmethoden neuronaler Netze bei der Analyse von „Social Media“ Inhalten
(2018)
The goal of this bachelor thesis was the comparison of different learning methods in neural networks. The methods were applied to detect hate posts on social media plat-forms like twitter. To achieve this, a supervised Recurrent Neural Network and a self-supervised Word2Vec model were implemented. The results of both implementations show the importance of choosing the correct dataset and a learning method generating significant results. The problems of both implementations were identified and formulated into possible solutions to achieve more accurate predictions in future. This thesis is of high interest for students and developers in the area of sentiment analysis.
Der digitale Schwarzmarkt mit gestohlenen Daten floriert. Alleine im Jahr 2015 wurden über eine halbe Milliarde Datensätze aus Datenbanksystemen entwendet. Viele Unternehmen bemerken den Sicherheitsvorfall selbst nicht oder geben aus Angst vor einem Imageschaden den Vorfall nicht bekannt. Sind die Datenbestände nicht durch effektive Sicherheitsmechanismen vor Datendiebstahl geschützt, können Cyberkriminelle leicht aus den gestohlenen Daten Kapital schlagen. Die Softwarehersteller von Datenbanksystemen bieten für ihre Produkte unterschiedliche Schutzvorkehrungen an. Ziel dieser Ausarbeitung ist es, die Bedrohungen und die Sicherheitsrisiken von Datenbanksystemen aufzuzeigen und daraus die Aspekte der Datenbanksicherheit abzuleiten. Die ausgearbeiteten Sicherheitsaspekte bilden die Grundlage für den Vergleich der Datenbanksicherheit von relationalen Datenbanklösungen. Die anschließende Bewertung dient dem Nachweis und der Überprüfbarkeit der Datenbanksicherheit relationaler Datenbanksysteme.
Software muss viele Qualitätsmerkmale erfüllen, z. B. Funktionalität, Zuverlässigkeit, Anpassbarkeit und Wartbarkeit. Wenn Menschen mit der Software arbeiten sollen, so sollte die Software zusätzlich auch „benutzerfreundlich“ sein. In der Fachsprache wird diese Eigenschaft mit Gebrauchstauglichkeit bezeichnet, die auf englisch Usability heißt. Das Charakteristische am Qualitätsmerkmal Usability ist, dass die Anforderungen für dieses Qualitätsmerkmal nicht ohne den Benutzer ermittelt und kontrolliert werden kann, weil Programmierer, Usability-Spezialisten oder der Leiter der Beschaffungsabteilung anderen Zielgruppen angehören als die betroffenen Benutzer. Für die notwendige Benutzerbeteiligung in der Softwareentwicklung gibt es Möglichkeiten wie zum Beispiel Workshops, Befragungen und Beobachtungen. Ein Usability-Laboratorium wird eingesetzt für die Benutzerbeteiligung mittels Beobachtung. Allgemein werden Beobachtungen geschätzt, weil die Benutzer im Regelfall außerstande sind, Ihre Anforderungen an ein System oder die erlebten Probleme mit einem System korrekt und präzise zu beschreiben. Die Beobachtung hilft dieses Kommunikationsproblem in der Softwareentwicklung teilweise zu umgehen. Das Usability-Laboratorium hilft mit seiner technischen Ausstattung die flüchtige Beobachtung mit größerer Präzision festzuhalten und zu analysieren. Durch den technischen Fortschritt sind inzwischen Geräte und Hilfsmittel der Labortechnik auch vor Ort beim Kunden einsetzbar, als ein so genanntes „Mobiles Usability-Laboratorium“. Usability-Laboratorien werden seit über 20 Jahren in der Wirtschaft eingesetzt. Trotz dieser langen Erfahrungszeit wird unter Praktikern wie auch unter Wissenschaftlern oft kontrovers diskutiert, wo die Stärken und Schwächen eines Usability-Laboratoriums liegen, d. h. in welche Richtung sich ein Usability-Laboratorium für die Wirtschaft weiterentwickeln kann und sollte. Die bisherige Diskussion war wenig fruchtbar, weil sie immer nur einzelne Aspekte behandelte, die in der Summe ein widersprüchliches Bild ergibt. Genau dieses Problem löst diese Ausarbeitung. Diese Ausarbeitung untersuchte inwieweit ein Usability-Laboratorium als eine wirtschaftliche und erfolgreiche Dienstleistung für Unternehmen angeboten werden kann. Die Arbeit gibt hierauf konkrete Antworten in Form von Bewertungen und Gestaltungsempfehlungen. Im Interesse einer hohen Generalisierbarkeit der Ergebnisse wurde kein spezielles Usability-Laboratorium als Ausgangspunkt verwendet. Um hier einen ganzheitlichen Beitrag zu liefern, wurde dazu ein neuartiges Untersuchungsschema entwickelt. Dieses besteht aus zwei Phasen mit unterschiedlicher Untersuchungsstruktur. In der ersten Phase wird der Gegenstand aus der Perspektive des Anbieters von Usability-Dienstleistungen untersucht. Seine Sicht ist geprägt aus den drei aufeinander aufbauenden Teilkontexte: Dienstleistung, Usability und Laboratorium. In jeder dieser drei Teilkontexte ist u. a. ein anderes Qualitätsverständnis anzutreffen, welche dann in der zweiten Phase auf ihre Vereinbarkeit untersucht wird. In der zweiten Phase wurde die für den Informatikbereich weitgehend unbekannte, aber im Bereich Dienstleistungsmarketing und Qualitätsmanagement bewährte Dienstleistungsdefinition von Hilke verwendet und diese mit zwei Themenkomplexen kombiniert, in welcher sich ein Usability-Laboratorium primär bewähren muss: Einmal in der Durchführungstauglichkeit und zum Anderem in der Kommunikationstauglichkeit. Zur Kommunikationstauglichkeit gehört besonders die Vermarktung von Usability-Dienstleistungen über ein Usability-Laboratorium. In beiden Phasen wurden viele neuartige Begriffsabgrenzungen und Überblicksdarstellungen erarbeitet, die keine akademische Übung waren, sondern zu einem wesendlichen Teil die Erkenntnisse ausmachten, weil sie bisher unbetrachtete Widersprüche offen legte. Zudem sichert dies eine verständliche Darstellung. Die umfangreiche Untersuchung kam zu teilweise überraschenden Ergebnissen. Auf Basis dieser Ergebnisse wurde ein zukunftsfähiger Laborbegriff entwickelt und ihm den Namen UOA-System gegeben für „Usability Observing and Analyzing System“. Abschließend wurden die Konsequenzen des neuen Paradigma UOA-System erläutert für die Anbieter von Usability-Dienstleistungen und für die Hersteller von Labortechnik in Form von Gestaltungsempfehlungen und Entwicklungsperspektiven.
Untersuchung des Potentials Neuronaler Netze für Regelungsprozesse am Beispiel eines Betonverteilers
(2018)
Ziel der Arbeit ist die Entwicklung eines Ansatzes zur Nutzung Neuronaler Netze für die Steuerung eines Betonverteilers. Nach der Erläuterung der Grundlagen Neurona-ler Netze wird ein Netz entworfen und ein Test anhand realistischer Testdaten durch-geführt. Nach einer ausführlichen Beschreibung des Umfelds des Anwendungsfalls (Betonverteiler), sowie der Grundlagen Neuronaler Netze, ihrer Lernverfahren und ihrer Einsatzmöglichkeiten in der Regelungstechnik erfolgt der Entwurf eines Ansatzes zur Konstruktion eines Netzes für den Betonverteiler als Anwendungsfall sowie die Beschreibung der Implementation von Simulationsmodell und neuronalem Netz.
Das Ziel der vorliegenden Bachelorarbeit war es, das In-Memory-Konzept innerhalb einer Oracle Datenbank auf neue Mechanismen, Funktionen und Methoden zu untersuchen. Dazu wurde eine Datenbank erstellt und mit Beispieldaten bestückt. Diese Beispieldaten sind Aktienwerte der DAX-30 Unternehmen, welche durch eine Reihe von Indikatoren aus der technischen Analyse eine komplexe Möglichkeit der Analyse bieten. Die Ergebnisse bestätigen, dass das In-Memory-Konzept neben dem bekannten Spaltenformat eine Reihe von Techniken und Funktionen bietet, welche sich positiv bei der Verarbeitung von Daten durch Data Query Language-Befehle auswirken. Es kommen auch Nachteile, wie der flüchtige Speicher zum Vorschein, dennoch überwiegen die Vorteile stark. Nach einer Reihe von Tests wird deutlich, dass Objekte, die in den In-Memory-Column-Store geladen werden, nur 30 % der Zeit benötigen, um gelesen zu werden. Dies ist für die Verarbeitung von großen und komplexen Daten eine deutliche Verbesserung. Die Bachelorarbeit richtet sich an Studierende der Fachbereiche Informatik und BWL sowie an Interessierte im Bereich Datenbanken.