Refine
Year of publication
Document Type
- Master's Thesis (93) (remove)
Language
- German (93) (remove)
Has Fulltext
- yes (93)
Keywords
- Datenbank (5)
- Internet (5)
- XML (5)
- Data-Warehouse-Konzept (4)
- Electronic Commerce (4)
- Softwareentwicklung (4)
- Framework <Informatik> (3)
- ORACLE <Datenbanksystem> (3)
- Portal <Internet> (3)
- Semantic Web (3)
Faculty
- Fakultät 10 / Institut für Informatik (93) (remove)
Die Digitalisierung hat Auswirkung auf die Entwicklung von Produkten. Die Teams werden agiler, die Kunden haben als Eigentümer eines Produktes Mitspracherecht und bestimmen gemeinsamen mit den Entwicklern, welche Features als Nächstes aus dem vordefinierten Backlog in dem nächsten Sprint als Inkrement eingebaut und ausgeliefert werden. Durch die enge Zusammenarbeit werden die Release-Zyklen eines Produktes kürzer und es werden mehr Features als in der Vergangenheit bei nicht agilen Methoden deployt. Durch die kurzen Release-Zyklen werden viele unterschiedlichen Versionen ausgerollt. Dies hat zur Folge, dass Fehler, die vorher durch das Testen nicht entdeckt worden sind, auf einer produktiven Umgebung ausgerollt werden. Hat der Fehler eine starke Auswirkung auf die Benutzung der Anwendung, dann besteht die Möglichkeit, die Änderung manuell durchzuführen. Diese muss beim nächsten Release eingebaut werden. Wenn die Release-Zyklen länger werden, birgt es die Gefahr, dass viele manuelle Änderungen in der Zeit entstehen. Der ausgerollte Zustand entspricht nach einer bestimmten Zeit nicht mehr dem eingecheckten Zustand im Git-Repository. An der Stelle bietet der GitOps-Ansatz eine mögliche Abhilfe, um den ausgerollten Ist-Zustand durch regelmäßiges Pullen so nah wie möglich an dem im Repository eingecheckten Soll-Zustand zu halten.
Mit dem Internet hat sich eine Technologie etabliert, die Veränderungen in den unterschiedlichsten Bereichen nach sich gezogen hat. Sie ist im Rahmen der Globalisierung zu sehen und ist einer der Hauptakteure bei der Entstehung der Informationsgesellschaft. International und national agierende Unternehmen besitzen einen entscheiden Marktnachteil, wenn diese Technologie nicht gewinnbringend zur Unterstützung ihrer Geschäftsprozesse und deren globaler Vernetzung eingesetzt wird. Einhergehend mit der Entwicklung des Internets sind zahllose Technologien entstanden. Wo es anfänglich nur möglich war, Informationen als feststehende Inhalte zu präsentieren, können und müssen heutige Internetpräsenzen Informationen anbieten, die Zugriff auf verteilt liegende Informationsquellen besitzen, die sich täglich ändern. So sind Web-Applikationen entstanden, die die modernsten Technologien einsetzen, um Anwendern eine Zugangsmöglichkeit auf Informationsquellen über das Internet zu bieten. In Kapitel 2 werden die Anforderungen an Web-Applikationen und deren zugrunde liegende Architektur beleuchtet. Da zahllose Programmiersprachen für die Entwicklung von Web-Applikationen verfügbar sind, wird in Kapitel 3 eine Auswahl an verfügbaren Technologien vorgestellt. Um die Programmierung von Web-Applikationen zu vereinfachen sind im Laufe der letzten Jahre Web-Frameworks entstanden, die den Entwicklungsprozess stark beschleunigen und eine Art Bausatz anbieten, um die Programmierung zu vereinfachen. Der Schwerpunkt der vorliegenden Arbeit richtet sein Augenmerk auf 2 aktuelle Web-Frameworks, die jeweils theoretisch und praxisbezogen anhand einer Beispielapplikation beleuchtet werden. In Kapitel 4 wird JavaServer Faces als erstes Web-Framework vorgestellt. Ausgehend von einer theoretischen Betrachtung wird ein Web-Shop als Beispielapplikation entwickelt und die damit in Zusammenhang stehenden Entwicklungswerkzeuge betrachtet. Auf Struts, als zweites Web-Framework, wird in Kapitel 5 eingegangen und ähnlich wie in Kapitel 4 zu JavaServer Faces wird nach theoretischer Betrachtung des Web-9 Frameworks eine Benutzerverwaltung als Beispielapplikation entwickelt, die die wesentlichsten Aspekte des Web-Frameworks zeigt. Auch hier werden Entwicklungswerkzeuge vorgestellt, die den Umgang mit Struts unterstützen. Schließlich findet in Kapitel 6 ein Vergleich zwischen JavaServer Faces und Struts statt, der mögliche Vor- und Nachteile des jeweiligen Web-Frameworks aufzeigt.
Virtuelle Realität ist ein interessantes Gebiet dessen Entwicklung schon seit vielen Jahren vorangetrieben wird. Die neuen Möglichkeiten die sich aufgrund technischer Fortschritte daraus ergeben, sind umwerfend und finden in vielen Bereichen Verwendung. Doch das Potential der VR ist noch viel größer. Dazu passt es auch, das im Laufe der Jahre die Computer immer mehr Einzug in das Leben der Menschen nahmen. Gab es früher noch riesige Geräte, die mit Lochkarten arbeiteten und kaum aufwendige Aufgaben bewältigen konnten, so gibt es heute erheblich schnellere und kleinere Systeme, die zudem auch noch viel leistungsfähiger sind. Von den drastisch gesunkenen Kosten mal ganz abgesehen. Folglich findet auch die breite Öffentlichkeit Zugang zu leistungsfähigen Computersystemen, wodurch bei immer mehr Menschen das Interesse an Virtual Reality geweckt wird. Es ist ein enormer Markt und die Technologie hält immer wieder Einzug in neue Bereiche und ist aus manchen gar nicht mehr hinauszudenken.
Aufgrund ihrer aktuellen Bedeutung im Zusammenhang des Internet of Things werden in der vorliegenden Arbeit Time Series Databases und Event Stores miteinander vergli-chen. Ziel ist, die Gemeinsamkeiten und Unterschiede der beiden Arten von Datenbank Management Systemen herauszustellen.
Der erste, theoretische Teil des Vergleichs erfolgt anhand der funktionalen Kriterien Speichersystem, Performance und Funktionen sowie der nicht-funktionalen Kriterien Usability und Support. Im zweiten Teil des Vergleichs wird anhand eines konkreten An-wendungsfalls untersucht, ob sich Time Series Databases und Event Stores gleicher-maßen für die Speicherung und in einem zweiten Schritt für die Abfrage von Zeitreihen-daten eignen.
Zumal der theoretische Vergleich Unterschiede zwischen einzelnen Time Series Data-bases und Event Stores in Bezug auf die betrachteten Kriterien erkennen lässt, wird für den praktischen Vergleich unter Berücksichtigung der im konkreten Anwendungsfall gegebenen Anforderungen nur die am besten geeignetste Time Series Database (In-fluxDB) und der am besten geeignetste Event Store (Event Store) ausgewählt. Der prak-tische Vergleich zeigt, dass die Zeitreihendaten im konkreten Anwendungsfall zwar in beiden Arten von Datenbank Management Systemen gespeichert werden können, die Nutzung der auf Zeitreihendaten spezialisierten Time Series Database InfluxDB jedoch offensichtliche Vorteile gegenüber dem Event Store aufweist.
Mit der zunehmenden Bedeutung von Geodaten stellt sich die Frage, welche Indices für welche Anwendungszwecke geeignet sind. Ziel dieser Arbeit ist es, dies am Beispiel von je drei Quadtrees (quadtree, bucket-pr-quadtree, mx-cif quadtree), kd-trees (kd-tree, four-dimensional kd-tree, kdb-tree) und r-trees (guttman r-tree, str-tree, r*-tree) sowohl für statische wie auch dynamische Geodaten zu untersuchen. Als Variante der dynamischen Daten werden zudem Bewegungsdaten betrachtet. Der Vergleich erfolgt sowohl theoretisch, weshalb alle genannten Indices detailliert vorgestellt werden, als auch praktisch. Dazu wurde eine Testumgebung in Java realisiert, die das gezielte Testen von bestimmten Operationen auf den Indices ermöglicht. Als Ergebnis des theoretischen Vergleichs werden verschiedene Charakteristika den Indices zugeordnet, die eine grobe Vorabauswahl ermöglichen. Der praktische Vergleich zeigt anschließend die Resultate differenziert nach Punktgeometrien, Nicht Punktgeometrien und Bewegungsdaten. Als Resultat wird eine generell gute Eignung der r-trees und insbesondere des str-trees dargestellt. Gleichzeitig wird aber auch darauf hingewiesen, dass es Anwendungsszenarien (z.B. langsame I/O) gibt, in denen eine andere Wahl getroffen werden sollte.
Software muss viele Qualitätsmerkmale erfüllen, z. B. Funktionalität, Zuverlässigkeit, Anpassbarkeit und Wartbarkeit. Wenn Menschen mit der Software arbeiten sollen, so sollte die Software zusätzlich auch „benutzerfreundlich“ sein. In der Fachsprache wird diese Eigenschaft mit Gebrauchstauglichkeit bezeichnet, die auf englisch Usability heißt. Das Charakteristische am Qualitätsmerkmal Usability ist, dass die Anforderungen für dieses Qualitätsmerkmal nicht ohne den Benutzer ermittelt und kontrolliert werden kann, weil Programmierer, Usability-Spezialisten oder der Leiter der Beschaffungsabteilung anderen Zielgruppen angehören als die betroffenen Benutzer. Für die notwendige Benutzerbeteiligung in der Softwareentwicklung gibt es Möglichkeiten wie zum Beispiel Workshops, Befragungen und Beobachtungen. Ein Usability-Laboratorium wird eingesetzt für die Benutzerbeteiligung mittels Beobachtung. Allgemein werden Beobachtungen geschätzt, weil die Benutzer im Regelfall außerstande sind, Ihre Anforderungen an ein System oder die erlebten Probleme mit einem System korrekt und präzise zu beschreiben. Die Beobachtung hilft dieses Kommunikationsproblem in der Softwareentwicklung teilweise zu umgehen. Das Usability-Laboratorium hilft mit seiner technischen Ausstattung die flüchtige Beobachtung mit größerer Präzision festzuhalten und zu analysieren. Durch den technischen Fortschritt sind inzwischen Geräte und Hilfsmittel der Labortechnik auch vor Ort beim Kunden einsetzbar, als ein so genanntes „Mobiles Usability-Laboratorium“. Usability-Laboratorien werden seit über 20 Jahren in der Wirtschaft eingesetzt. Trotz dieser langen Erfahrungszeit wird unter Praktikern wie auch unter Wissenschaftlern oft kontrovers diskutiert, wo die Stärken und Schwächen eines Usability-Laboratoriums liegen, d. h. in welche Richtung sich ein Usability-Laboratorium für die Wirtschaft weiterentwickeln kann und sollte. Die bisherige Diskussion war wenig fruchtbar, weil sie immer nur einzelne Aspekte behandelte, die in der Summe ein widersprüchliches Bild ergibt. Genau dieses Problem löst diese Ausarbeitung. Diese Ausarbeitung untersuchte inwieweit ein Usability-Laboratorium als eine wirtschaftliche und erfolgreiche Dienstleistung für Unternehmen angeboten werden kann. Die Arbeit gibt hierauf konkrete Antworten in Form von Bewertungen und Gestaltungsempfehlungen. Im Interesse einer hohen Generalisierbarkeit der Ergebnisse wurde kein spezielles Usability-Laboratorium als Ausgangspunkt verwendet. Um hier einen ganzheitlichen Beitrag zu liefern, wurde dazu ein neuartiges Untersuchungsschema entwickelt. Dieses besteht aus zwei Phasen mit unterschiedlicher Untersuchungsstruktur. In der ersten Phase wird der Gegenstand aus der Perspektive des Anbieters von Usability-Dienstleistungen untersucht. Seine Sicht ist geprägt aus den drei aufeinander aufbauenden Teilkontexte: Dienstleistung, Usability und Laboratorium. In jeder dieser drei Teilkontexte ist u. a. ein anderes Qualitätsverständnis anzutreffen, welche dann in der zweiten Phase auf ihre Vereinbarkeit untersucht wird. In der zweiten Phase wurde die für den Informatikbereich weitgehend unbekannte, aber im Bereich Dienstleistungsmarketing und Qualitätsmanagement bewährte Dienstleistungsdefinition von Hilke verwendet und diese mit zwei Themenkomplexen kombiniert, in welcher sich ein Usability-Laboratorium primär bewähren muss: Einmal in der Durchführungstauglichkeit und zum Anderem in der Kommunikationstauglichkeit. Zur Kommunikationstauglichkeit gehört besonders die Vermarktung von Usability-Dienstleistungen über ein Usability-Laboratorium. In beiden Phasen wurden viele neuartige Begriffsabgrenzungen und Überblicksdarstellungen erarbeitet, die keine akademische Übung waren, sondern zu einem wesendlichen Teil die Erkenntnisse ausmachten, weil sie bisher unbetrachtete Widersprüche offen legte. Zudem sichert dies eine verständliche Darstellung. Die umfangreiche Untersuchung kam zu teilweise überraschenden Ergebnissen. Auf Basis dieser Ergebnisse wurde ein zukunftsfähiger Laborbegriff entwickelt und ihm den Namen UOA-System gegeben für „Usability Observing and Analyzing System“. Abschließend wurden die Konsequenzen des neuen Paradigma UOA-System erläutert für die Anbieter von Usability-Dienstleistungen und für die Hersteller von Labortechnik in Form von Gestaltungsempfehlungen und Entwicklungsperspektiven.
Untersuchung des Potentials Neuronaler Netze für Regelungsprozesse am Beispiel eines Betonverteilers
(2018)
Ziel der Arbeit ist die Entwicklung eines Ansatzes zur Nutzung Neuronaler Netze für die Steuerung eines Betonverteilers. Nach der Erläuterung der Grundlagen Neurona-ler Netze wird ein Netz entworfen und ein Test anhand realistischer Testdaten durch-geführt. Nach einer ausführlichen Beschreibung des Umfelds des Anwendungsfalls (Betonverteiler), sowie der Grundlagen Neuronaler Netze, ihrer Lernverfahren und ihrer Einsatzmöglichkeiten in der Regelungstechnik erfolgt der Entwurf eines Ansatzes zur Konstruktion eines Netzes für den Betonverteiler als Anwendungsfall sowie die Beschreibung der Implementation von Simulationsmodell und neuronalem Netz.
Das Erstellen von Textzusammenfassungen ist bei Recherchearbeiten die gängigste Praxis, um einem Text seine Kernaussage zu entnehmen. Aus einer Zusammenfassung leitet man die essenzielle Information ab, mit dem Ziel, einen Text einem Themengebiet zuzuordnen. Dem Benutzer hilft hierbei ein software-gestütztes System zur Textzusammenfassung. Texte beinhalten aus Sicht eines Computersystems eine Aneinanderreihung von Wörtern bzw. Sätzen und besitzen demnach keine feste Struktur. Aus den unstrukturierten Daten im Text müssen Wörter extrahiert werden, die den Kerninhalt eines Textes widerspiegeln. Auf Basis der extrahierten Wörter erfolgt die endgültige Zusammenfassung und anschließend die semantische Auszeichnung des Gesamttextes, was der Themengebietszuordnung entspricht. Bewährte Methoden für die Textzusammenfassung sind das statistische Verfahren und das sogenannte Signalwort-Verfahren. Grundlage dafür sind die theoretischen Arbeiten von H. P. Luhn und Edmundson. Als weitere Hilfsmittel dienen statistische Methoden aus dem Text Mining. Für die Zuordnung des Textes zu einem Themengebiet eignen sich die Semantic Web Standards des W3C. Der auf Basis dieser Theorien entwickelte Lösungsweg dient als Standardverfahren für eine software-gestützte Textzusammenfassung. Durch die definierten Standards ist die Software in der Lage, jegliche Textarten aus beliebiger Quelle einzulesen, zusammenzufassen und semantisch auszuzeichnen. Benutzer, deren Aufgabe im Unternehmen darin besteht, Recherchearbeiten zu betreiben, verwenden diese software-gestützte Textzusammenfassung. Durch diese Unterstützung spart der Benutzer bei einer Zusammenfassung von mehreren Textdaten Zeit und Aufwand, da der Vorgang durch die Software automatisch abläuft. Aus Sicht eines Unternehmens liegt das Hauptaugenmerk auf der schnellen Informationsgewinnung aus Texten, was essenziell für eine Weiterverarbeitung der Textdaten ist.