Refine
Year of publication
Document Type
- Master's Thesis (98)
- Bachelor Thesis (43)
- Study Thesis (9)
- Article (2)
- Preprint (1)
- Working Paper (1)
Keywords
- Datenbank (9)
- XML (7)
- Informatik (6)
- Agile Softwareentwicklung (5)
- Data-Warehouse-Konzept (5)
- Electronic Commerce (5)
- Internet (5)
- Semantic Web (5)
- Softwareentwicklung (5)
- Visualisierung (5)
Faculty
- Fakultät 10 / Institut für Informatik (154) (remove)
The amount of data produced and stored in multiple types of distributed data sources is growing steadily. A crucial factor that determines whether data can be analyzed efficiently is the use of adequate visualizations. Almost simultaneously with the ongoing availability of data numerous types of visualization techniques have emerged. Since ordinary business intelligence users typically lack expert visualization knowledge, the selection and creation of visualizations can be a very time- and knowledge-consuming task. To encounter these problems an architecture that aims at supporting ordinary BI users in the selection of adequate visualizations is developed in this thesis. The basic idea is to automatically provide visualization recommendations based on the concrete BI scenario and formalized visualization knowledge. Ontologies that formalize all relevant knowledge play an important role in the developed architecture and are the key to make the knowledge machine-processable.
Diese Arbeit untersucht verschiedene Ansätze, Daten im Google Cloud Firestore zu strukturieren und deren Auswirkungen auf Kosten, Performance sowie Codequalität. Zunächst folgt eine Aufbereitung des aktuellen Stands der Forschung. Darauf folgt die experimentelle Methodik. Hier dient eine prototypische Implementierung der Szenarien als Grundlage. Im Zuge des Experiments werden in unterschiedlichen Disziplinen Daten erhoben und im Anschluss ausgewertet, um empfehlenswerte Lösungen für definierte Anwendungsfälle zu benennen. Am Ende gibt die Arbeit ein kurzes Fazit zu den gewonnenen Erkenntnissen sowie einen Ausblick auf weitere Optimierungspotenziale ab.
An empirical evaluation of using the Swift language as the underlying technology of RESTful APIs
(2016)
The purpose of the current thesis is to determine the appropriateness of using the Swift language as the underlying technology for the development of RESTful APIs in a Linux environment. The current paper describes the process of designing, implementing and testing individual RESTful API components based on Node.js, PHP, Python and Swift and seeks to determine whether Swift is a viable alternative.
The thesis begins by defining a methodology for implementing and testing individual RESTful API components based on Node.js, PHP, Python and Swift. It then proceeds to detail the implementation and testing processes, following with an analytic discussion regarding the advantages and drawbacks of using the Swift language as the underlying technology for RESTful APIs and server-side Linux-based applications in general.
Based on the implementation process and on the results of the previously mentioned evaluation phase, it can be stated that the Swift language is not yet ready to be used in a production environment. However, its rapid evolution and potential for surpassing its competitors in the foreseeable future make it an ideal candidate for implementing RESTful APIs to be used in development environments.
Die Kommunikation via Chat konnte sich in den letzten Jahren neben Kommunikationsmedien wie E-Mail und Telefon in vielen Bereichen des alltäglichen Lebens etablieren. Textbasierter Chat weist jedoch, im Vergleich zu Face-to-Face-Kommunikation, gewisse mediale Einschränkungen auf. Nonverbale Signale wie Gestik und Mimik können, in Ermangelung eines visuellen Kanals, nicht direkt übertragen werden. Trotzdem findet auch im Chat ein Austausch nonverbaler Informationen statt, wie beispielsweise der Einsatz von Emoticons oder Pausen in Gesprächen. Verhaltensweisen bei nonverbaler Kommunikation enthalten Hinweise bezüglich der sozialen Beziehung der Gesprächspartner. Derartige nonverbale Signale können aus Chat-Protokollen extrahiert und analysiert werden. In dieser Arbeit beschäftigen wir uns mit der Analyse nonverbaler Daten aus Chat-Protokollen. Ziel ist die Einschätzung der Stärke einer sozialen Beziehung anhand eines multidimensionalen Analyse-Modells.
Ziel ist die Analyse und die Implementierung eines Datenschutzmanagements, gemäß den geltenden EU-Datenschutzvorschriften, am Beispiel eines mittelständischen Unternehmens. Nach einer Zusammenfassung der wichtigsten theoretischen und rechtlichen Grundlagen, werden geeignete Methoden zur Umsetzung vorgestellt. Anschließend wird der Aufbau des Datenschutzmanagements analysiert und an einem Beispielunternehmen implementiert. Zielgruppe sind in erster Linie Unternehmen, Selbstständige oder Beschäftigte mit Datenschutzaufgaben.
Es wurde ein Vergleich zwischen einer nativen Android-Anwendung und einer Titanium-Anwendung durchgeführt, anhand einen mobilen SQL-Trainers. Die mit Eclipse nativ entwickelte Android-Anwendung und die Titanium-Anwendung (Android und iOS) sind, zumindest mit unserem beispielhaften Funktionsumfang, fast gleichwertig. Die Entwicklung für BlackBerry und Tizen konnte auf Grund der noch nicht ausgereiften Entwicklungsart für diese Plattformen kaum getestet werden, allerdings wird der größere App-Markt mit iOS und Android unterstützt. Die noch nicht ausgereifte Entwicklungsweise für das Tizen-Betriebssystem kann vernachlässigt werden, wenn bedacht wird, dass auf dem Tizen-Betriebssystem native Android-Anwendungen ausgeführt werden können. Außerdem wird Tizen noch auf keinem Smartphone eingesetzt. Die Vorbereitung auf die Erstentwicklung ist durch die noch etwas weniger ausgereifte, aber dennoch sehr professionelle Entwicklungsumgebung beim Titanium SDK etwas zeitaufwändiger als bei der Eclipse-Entwicklungsumgebung. Natürlich sind die nativen und vom Betriebssystemhersteller herausgegebenen Entwicklungsformen der Vorreiter für das Titanium SDK und deshalb auch die sicherere Entwicklungsform, wenn es beispielsweise um Kompatibilität und Hardwarezugriff geht. Das Titanium SDK übersetzt den entwickelten JavaScript-Code in nativen Code der jeweiligen Plattformen mit den jeweiligen Plattform-Elementen. Die angepriesene Zeitersparnis von zwanzig Prozent bei der Entwicklung kann nicht bestätigt werden. Die Entwicklung der Benutzeroberfläche ist aufwändiger als bei der nativen Entwicklungsweise.
Sinkende Mitgliederzahlen, ein wachsendes Aufgabenspektrum und gefährlichere Einsatzlagen bedingen auch in den Feuerwehren eine Digitalisierung, um die aktiven Feuerwehrangehörigen im Einsatz zu entlasten und zu schützen.
In der vorliegenden Bachelorarbeit werden aktuelle und zukünftige Technologien auf ihre Potenziale und Gefahren als Einsatzmittel für die Feuerwehr analysiert. Neben einer Betrachtung dieser Technologien als Ursache eines Feuerwehreinsatzes werden Unterstützungsmöglichkeiten für die Feuerwehrangehörigen aufgezeigt, die aus der Nutzung fremder Technologien oder einer Eigenbeschaffung resultieren. In der Arbeit werden ausschließlich Technologien fokussiert, die als Entwicklung aus dem Internet der Dinge hervorgehen. Ziel der Arbeit ist es, die Technologien auf ihren Unterstützungscharakter zu analysieren, damit die Einsatzkräfte zielgerichtet entlastet und besser geschützt werden.
Im vorangegangenen Praxisprojektes »Das Zusammenspiel zwischen Usability und Suchmaschinenoptimierung - Tipps und Methoden für eine verbesserte Sichtbarkeit und Nutzbarkeit von Internetseiten « wurde dem unerfahrenen Content-Erzeuger Grundwissen in der Suchmaschinen- und Usability-Optimierung vermittelt. Ziel dieser wissenschaftlichen Arbeit ist es die vorgestellten Methoden und Techniken des vorangegangenen
Praxisprojektes, am Beispiel der Webseite des Fachbetriebes BSS-Schieh-Schneider technisch umzusetzen und zu bewerten. Der Schwerpunkt des Unternehmens liegt bei der Beratung, Montage und Reparatur von Fenstern, Türen, Rollläden und Markisen. Die Webseiten existieren bereits und geplant ist, die Bereiche Fenster & Türen SEO-Technisch zu verbessern.
Die vorliegende Diplomarbeit beschäftigt sich ausführlich mit dem Thema Application- Server. Dabei wird speziell auf den Oracle Application-Server (OAS) eingegangen. Dem Leser soll die Architektur des OAS verständlich gemacht werden, sowie ein Überblick über die Einsatzmöglichkeiten gegeben werden. Für die ausführliche Darstellung der einzelnen Themen ist die vorliegende Diplomarbeit in drei Teile eingeteilt. Im ersten Teil dieser Diplomarbeit erhält der Leser eine Einführung in die grundlegenden Begriffe und Technologien, die notwendig sind, um die Funktionsweise eines Application-Server im WWW oder im Intranet verstehen zu können. Dazu werden die technologischen Grundlagen des Internet wie TCP/IP und World Wide Web behandelt. Es folgt ein Einblick in die verschiedenen Netzwerkarchitekturen. Abgeschlossen wird dieser Teil mit einem kurzen Überblick über die Komponentenmodelle CORBA und Enterprise JavaBeans. Im zweiten Teil dieser Diplomarbeit wird der Oracle Application-Server in der Version 4.0.8.1 vorgestellt. Nach einer Einführung in das Thema Application-Server wird die Architektur des OAS beschrieben. Daran anschließend werden die Middleware-Funktionen des OAS behandelt, wie Skalierbarkeit, Datenbankzugriff, Interaktionsmodelle und Sicherheitsaspekte. Zum Abschluss dieses Teils werden dem Leser anhand von Beispielen die Einsatzmöglichkeiten des OAS dargestellt, also welche Arten von Anwendungen auf dem OAS eingesetzt werden können. Im dritten Teil wird die Anwendung "OnlineTicket" beschrieben, die für diese Diplomarbeit entwickelt wurde. Diese Anwendung unterstützt den Vertrieb von Tickets für Veranstaltungen.
Architektur für ein Qualitätsmanagementsystem zur Verbesserung der Relevanz von Suchergebnissen
(2023)
Die Suchfunktion ist in vielen Softwareprodukten eine wichtige Komponente, die häufig zur Navigation in der Anwendung dient. Gerade, wenn große Datenmengen bereitgestellt werden, wie es bei Streamingdiensten (Netflix, Spotify) oder bei E-Commerce-Plattformen (Amazon, Zalando) der Fall ist, ist es wichtig, dass die Suchergebnisse für den Nutzer relevant sind. Eine für den Nutzer effektive Navigation mit der Suchfunktion ist nur möglich, wenn die Suchergebnisse eine ausreichend große Relevanz für den Nutzer bieten. Die Organisationen, welche die oben genannten Dienste betreiben, versuchen daher, die Relevanz ihrer Suchergebnisse zu optimieren. Eine Optimierung auf Relevanz ist zwar für eine spezielle Suche einfach, jedoch können dabei häufig Seiteneffekte auftreten, welche die Relevanz über alle Suchen verschlechtern. In einem E-Commerce-Shop kann das Einfiihren des Synonyms „Birne -> Glühbirne" dafür sorgen, dass Nutzer, die Gliihbirnen kaufen wollen und nach „Birne" suchen nun auch Gliihbirnen finden. Falls Nutzer aber das Obst Birne kaufen möchten, sind die Ergebnisse für diese Gruppe irrelevant. Bei einer Optimierung der Relevanz über alle Suchen können Qualitätsmanagementsysteme unterstützen. Ein Qualitätsmanagementsystem fiir die Relevanz von Suchergebnissen muss nicht nur fachliche und technische, sondern auch organisatorische Anforderungen beachten, um die Optimierungspotenziale vollständig auszuschöpfen. Diese Arbeit erläutert diese Anforderungen und stellt eine Architektur für ein Qualitätsmanagementsystem vor. Die Architektur wird hinsichtlich der Erfüllung der erläuterten Anforderungen analysiert. Desweiteren werden die Vor- und Nachteile fiir die jeweiligen Architekturentscheidungen unter Betrachtung der Anforderungen diskutiert. Das Ziel der Arbeit ist es, die Architektur entsprechend zu erläutern, sodass eine Organisation diese für sich angepasst implementieren kann.
Der Architekturstil REST erlangt in den letzten Jahren immer größere Verbreitung. RPC-orientierte Architekturstile scheinen besonders bei Software-Neuentwicklungen obsolet zu werden. Es existieren viele Gründe, die für eine Verwendung von REST-Architekturen sprechen. Den- noch zeigen sich auch Probleme bei der Entwicklung von REST-konformen Anwendungen. Diese Probleme und jeweils existierende Lösungsansätze werden in dieser Arbeit aufgezeigt. Dabei geht es zum einen um verfügbare Frameworks und technische Spezifikationen und zum anderen um konzeptionelle Lücken im Bereich der Automatisierung von Geschäftsprozessen.
Bewegung als Musikinstrument - Entwicklung eines Prototypen auf Basis von Kinect und Pure Data
(2012)
Es wurden Möglichkeiten der Bewegungsanalyse durch Gamecontroller untersucht und dazu passende Audioerzeuger erstellt. Dazu wurden vier Prototypen erstellt, die auf verschiedenen Analysetechniken basieren. Dazu zählt die Analyse per Webcam, der Sony Playstation Move Controller, und die Microsoft Kinect. Dann habe ich einen Ansatz auf Basis der Kinect weiter-entwickelt. Die Eingabedaten der Kinect wurden über Open Sound Control zu Pure-Data über- ragen. In Pure-Data habe ich ein Instrument erstellt, das durch die geschickte Kombination von Oszillatoren und Filtern einen individuellen und interessanten Klang erzeugt. Dazu wurde ein entsprechendes Kontrollkonzept umgesetzt, welches sich an dem eines Saiteninstrumentes orientiert, dieses Konzept jedoch von der Bewegung der Finger und Hände auf größere Bewe- gungen des ganzen Körpers überträgt. Es wurden Schnittstellen erstellt und diskutiert, mit denen das System via MIDI und Open Sound Control auch an andere Audioerzeuger angeschlossen werden kann. Während der ganzen Entwicklung wurde darauf geachtet, Open-Source-Software zu bevorzugen. Am Ende steht ein elaboriertes System, welches abgesehen von der Hardware völlig frei verfügbar und quelloffen ist.
In dieser Bachelorarbeit wird das Thema Big Data und die damit verbundenen Technologien, sprich NoSQL und Hadoop behandelt. Das Thema wurde bewusst ausgewählt, weil sie zum einen aktuell und zum anderen immer mehr an Bedeutung, aus Sicht der Unternehmen gewinnt. Durch die ständig anwachsenden Daten, die zu 80% in Semistrukturierter Form vorliegen, stößt die IT-Infrastruktur eines Unternehmens schnell an seine Grenzen. Und genau an dieser Stelle sollen die Big Data Technologien, wie „NoSQL“ und „Hadoop“, helfen, die so großen Datenmengen zu verarbeiten, um für das Unternehmen, wertvolle Informationen zu liefern, die bislang nicht ersichtlich waren.
Die Zielsetzung dieser Thesis ist die aktuelle Situation von Blinden und Sehbehinderten in Bezug auf technische Hilfsmittel aufzuzeigen und auf mögliche Defizite und Handlungsbedarf hinzuweisen. Im Vorfeld wurde im Rahmen der Recherche eine Umfrage unter Betroffenen durchgeführt. Die Auswertung der Umfrage sowie eines ausführlichen Interviews ist ein wichtiger Bestandteil. Die Thesis soll IST-Grundlage für weitere Überlegungen, Weiterentwicklungen und Forschungsansätze im Bereich Blindeninformatik sein. Zu Beginn wird die Anatomie und Funktion des menschlichen Sehapparates erläutert. Ein weiterer Schwerpunkt der Thesis ist die geschichtliche Entwicklung von Hilfsmitteln. Anhand wichtiger Meilensteine, wie beispielsweise die Punktschrift, der Thermostift oder die Einführung des DAISY Standards wird die „Useability“ und auch die Akzeptanz in der Gesellschaft betrachtet. Anhand aktueller technischer Hilfsmittel werden Probleme und Lücken im Alltag erörtert. Der Verfasser ist selbst Betroffener und ergänzt die zusammengestellten Informationen durch eigene praxisorientierte Alltagserfahrungen. Im weiteren Verlauf werden neue technische Innovationen wie beispielsweise Touchscreens und Augmented Reality (AR) vorgestellt. Es wird einerseits auf aktuelle Entwicklungen eingegangen und Ausblicke auf zukünftige Anwendungsgebiete aufgezeigt, andererseits aber auch auf Gefahren bei der Verschmelzung von Realität und Virtualität hingewiesen. Abschließend werden die Feststellungen zusammengefasst und Denkanstöße für zukünftige Neu- und Weiterentwicklungen gegeben.
Die Bedeutung der künstlichen Intelligenz (KI) in Computerspielen hat sich in den letzten Jahren bedeutend geändert. Es wird versucht Spielfiguren zu implementieren, die ein reales, menschenähnliches Verhalten aufweisen. Der primäre Grund ist die Erkenntnis, dass eine gute KI von Charakteren zum besseren Verkauf von Computerspielen beiträgt. Die Käufer wünschen reale Charaktere, mit denen sie sich identifizieren können. Der sekundäre Grund ist die Verbesserung der Computertechnik zugunsten einer Entlastung der CPU, die eine gute KI erst ermöglicht hat. Zurückzuführen ist dies auf die Optimierung der CPUs und des Arbeitsspeichers und vor allem aufgrund der Entwicklung leistungsstarker, moderner 3D Graphikkarten. Gerade diese erlauben mehr CPU-Rechenzeit für „Nicht-Grafiktasks“. Aufgrund des oftmals unrealistischen Charakterverhaltens in Computerspielen ist das Ziel der Diplomarbeit, die Entwicklung einer Spielfigur, im Sinne einer phänomenalen Gestalt. Die phänomenale Gestalt entsteht in dem Moment, indem ein Objekt oder ein Charakter reales Leben dermaßen echt abbildet, dass man ein „künstliches“ Bewusstsein wahrnehmen kann. Die Wahrnehmung findet statt, weil der Charakter fähig ist, sein Bewusstsein, sein Verhalten und das Verhalten anderer zu reflektieren.
Cloud Computing ist der zentrale Faktor zur Beschleunigung der Digitalisierung in Deutschland und wird in den kommenden Jahren eine wichtige Rolle in jedem deutschen Unternehmen spielen. Für Unternehmen wird es dabei um die Umsetzung von
Cloud-Strategien und die praktische Einbindung in die täglichen Betriebsprozesse gehen. Zusätzlich müssen Unternehmen ihre bestehende Datenlandschaft in moderne Architekturen zum Datenmanagement in die Cloud migrieren. Dabei können Unternehmen auf eine Vielzahl an unterschiedlichen unternehmensweiten Datenarchitekturen
zurückgreifen. Die vorliegende Masterarbeit gibt eine Einführung in die aktuelle Entwicklung von Cloud Computing und erläutert, mit Data Fabric, Data Lakehouse und Data Mesh, drei unternehmensweite Datenarchitekturen für die Cloud. Data Fabric, Data Lakehouse und Data Mesh bilden dabei aktuell die modernsten Konzepte für unternehmensweite Datenarchitekturen. Zusätzlich werden ein Data Lakehouse und ein Data Mesh in einer ausgewählten Cloud-Umgebungen entworfen, prototypisch aufgebaut und praktisch analysiert. Ziel der Masterarbeit ist es, die unternehmensweiten Datenarchitekturen in der Cloud zu erläutern, konkrete technologische Architekturen zu entwerfen und entsprechende Hinweise zu Aufwandstreibern in Unternehmen zu identifizieren.
Im Mai 2001 wurde JavaServer Faces (JSF) von Sun als Java Specification Request (JSR) 127 vorgestellt. Außer Sun sind an der Entwicklung der JSF Spezifikation unter anderem die Apache Software Foundation, BEA Systems, Borland Software Corporation, IBM, Oracle und Macromedia beteiligt. Seit Dezember 2003 steht die Referenzimplementierung (RI) von Sun als Version 1.0 Beta zur Verfügung. Obwohl die Spezifikation noch nicht ganz abgeschlossen ist und die RI bis zum Final Release noch große Änderungen erfahren wird, zeichnet sich bereits ab, dass hier ein "großer Wurf" gelungen ist. Tool-Hersteller wie auch Anwendungsentwickler bringen JSF großes Interesse entgegen; eine OpenSource-Implementierung der JavaServer Faces ist mit MyFaces1 von SourceForge auch schon zu haben. Dabei gab es JavaServer Faces eigentlich schon, bevor die Entwicklung der Spezifikation begann. Das inzwischen in der Version 2.1.7 vorliegende Framework UIX (User Interface XML) von Oracle versucht schon seit einigen Jahren, eine große Lücke zu füllen. Es ist, genau wie JSF, ein UserInterface-Framework fürs Web. Im Gegensatz zu JSF ist es jedoch schon so ausgereift, dass es in realen Projekten eingesetzt werden kann.