Refine
Year of publication
Document Type
- Master's Thesis (98)
- Bachelor Thesis (43)
- Study Thesis (9)
- Article (2)
- Preprint (1)
- Working Paper (1)
Keywords
- Datenbank (9)
- XML (7)
- Informatik (6)
- Agile Softwareentwicklung (5)
- Data-Warehouse-Konzept (5)
- Electronic Commerce (5)
- Internet (5)
- Semantic Web (5)
- Softwareentwicklung (5)
- Visualisierung (5)
Faculty
- Fakultät 10 / Institut für Informatik (154) (remove)
Jegliches Leben auf der Erde ist auf das Vorhandensein von Wasser angewiesen. Schon seit Beginn der Menschheit war man in mancherlei Hinsicht vom Wasser abhängig: Trinkwasserbeschaffung für Mensch und Tier, Nahrungsversorgung durch Fischfang und Pflanzen, deren Wachstum erst das Wasser ermöglicht, Fortbewegung von Lasten und Menschen auf dem Wasser. Die heutige fortschreitende kulturelle und zivilisa-torische Entwicklung brachte neue Abhängigkeiten: Gewerbe und Industrie benötigen Wasser für den Produktionsablauf, der Wasserbedarf der Haushalte ist mit der weitge-henden Verdrängung manueller Tätigkeiten durch Maschinen um ein Vielfaches ge-stiegen, Volkswirtschaft und Haushalte verlangen nach elektrischer Energie, die zum Teil der Wasserkraft entstammt; schließlich kann die sprunghaft wachsende Erdbevöl-kerung vor allem in den Entwicklungsländern nur mit Hilfe der künstlichen Bewässerung in ausreichendem Maße mit pflanzlichen Produkten versorgt werden. Bevölkerungsdichte, Siedlungsstruktur und Formen der Wassernutzung beeinflussen die Wassernachfrage und stellen verschiedene Ansprüche hinsichtlich der Menge, der zeit-lichen Verteilung und der Güte des Wassers. Es ist jedoch nicht mehr selbstverständlich, dass das Wasser für die Befriedigung der Bedürfnisse der Menschen auf der Erde in ausreichender Menge und Güte zur Verfügung steht. Der heutige Wassermangel hat seine tiefere Ursache in der dauernden Fehleinschätzung der Natur. Um diese besser zu verstehen und damit dem oben erläuterten Problem entgegenzuwirken, befasst sich die physikalische Hydrologie mit dem globalen und lokalen Wasserkreislauf einschließlich der zugrundeliegenden Naturprozesse. Durch Entwicklung von Modellen wird eine Gewinnung von Detailkenntnissen angestrebt. Der Bereich der angewandten Hydrologie hingegen beschäftigt sich mit der Lösung wasserwirtschaftlicher Probleme - der Nutzung des Wassers durch den Menschen. Der Einsatz eines Geografischen Informationssystems (GIS) kann in der Hydrologie durch Visualisierung gesammelter Erfahrungswerte bereits eine Erleichterung der Ent-scheidungsfindung bei speziellen Problemstellungen bewirken. In einem GIS werden meist Funktionen vereinigt, die Methoden unterschiedlicher Systeme sind, wie z.B. Möglichkeiten statistischer Berechnungen, Bearbeitungen von Geometriedaten, Verwaltung von großen Datenbeständen, Darstellung von Karten. Weitere Aspekte eines GIS sind Geometrische Analysen, Flächenverschneidung, Möglichkeiten der Verknüpfung verschiedener Abfragen, Kombination verschiedener Datentypen und Geometrien etc. Diese Aspekte bilden die Grundlage zum Aufbau eines interaktiven räumlichen Informationssystems. Zur Abrundung eines solchen Systems sind jedoch meist weitere Auswertungen und Analysen des Datenmaterials sowie eine Modellbildung nötig, um konkrete, kompetente Entscheidungen über Eingriffe in die Natur unter Berücksichtigung ihrer Auswirkungen zu treffen.
This thesis is aimed for finding a solution for non-gaming application of Virtual Reality technology in data visualization and analysis. Starting by reconstructing the concept of Virtual Reality, the paper then describes the principles, concepts and techniques of designing a Virtual Reality application. In the last part of the thesis, a detailed description of how a prototype implemented is presented to provide a preview of how data visualization and analysis and Virtual Reality technology can be combined together in order to enable users to perceive and comprehend data in a possibly better way.
Die vorliegende Diplomarbeit beschäftigt sich ausführlich mit dem Thema Application- Server. Dabei wird speziell auf den Oracle Application-Server (OAS) eingegangen. Dem Leser soll die Architektur des OAS verständlich gemacht werden, sowie ein Überblick über die Einsatzmöglichkeiten gegeben werden. Für die ausführliche Darstellung der einzelnen Themen ist die vorliegende Diplomarbeit in drei Teile eingeteilt. Im ersten Teil dieser Diplomarbeit erhält der Leser eine Einführung in die grundlegenden Begriffe und Technologien, die notwendig sind, um die Funktionsweise eines Application-Server im WWW oder im Intranet verstehen zu können. Dazu werden die technologischen Grundlagen des Internet wie TCP/IP und World Wide Web behandelt. Es folgt ein Einblick in die verschiedenen Netzwerkarchitekturen. Abgeschlossen wird dieser Teil mit einem kurzen Überblick über die Komponentenmodelle CORBA und Enterprise JavaBeans. Im zweiten Teil dieser Diplomarbeit wird der Oracle Application-Server in der Version 4.0.8.1 vorgestellt. Nach einer Einführung in das Thema Application-Server wird die Architektur des OAS beschrieben. Daran anschließend werden die Middleware-Funktionen des OAS behandelt, wie Skalierbarkeit, Datenbankzugriff, Interaktionsmodelle und Sicherheitsaspekte. Zum Abschluss dieses Teils werden dem Leser anhand von Beispielen die Einsatzmöglichkeiten des OAS dargestellt, also welche Arten von Anwendungen auf dem OAS eingesetzt werden können. Im dritten Teil wird die Anwendung "OnlineTicket" beschrieben, die für diese Diplomarbeit entwickelt wurde. Diese Anwendung unterstützt den Vertrieb von Tickets für Veranstaltungen.
Objectives FHIR (Fast Healthcare Interoperability Resources) is an emerging Stan¬dard for improving interoperability in the domain of health care. Besides offering features for achieving syntactical, semantical and organizational interoperability, it also specifies a RESTful API for searching purposes. The main objective of the following thesis revolves around investigating open challenges and limitations of the so-called FHIR Search Framework.
Methods A variety of operations for searching in FHIR resources, including all search interactions, definitions of search parameters, search parameter types and advanced search concepts are described. Over the course of the thesis, a quality model based on ISO 25010 is established. It serves as the foundation for determining if the FHIR Search Framework is well-suited to cover the Information needs of its users. An analysis of completeness involving the measures defined in the quality model forms the main contribution. The primary discussion of the research questions is concluded by proposing a graph model for determining reachability between FHIR resources, essentially mirroring the chaining and reverse chaining functionality. Using well-known classes for expressiveness in graphs, the thesis assess to which degree a graph search can be formulated with the currently defined capabilities.
Results From a functional perspective the FHIR Search Framework can be considered well-suited. Practical limitations should be minimal, grounded on the fact that extensive coverage of the lowest expressiveness classes, RPQs and 2RPQs, can be achieved. Severe gaps where identified only in the support of C(2)RPQs and Data Path Queries. Additionally, ideas for improving non-functional aspects are introduced to support developers in learning the Standard and testing their implementations.
Conclusion The evaluation of the FHIR Search Framework showed promising re¬sults in terms of functional completeness. Yet, the Standard is still evolving, and certain parts of the Search API are neither well-known nor implemented widely. A discussion is to be held if the specification should cover more sophisticated aspects that result from the gaps which were identified.
Ziel der Diplomarbeit ist die Entwicklung einer datenbankgestützten Anwendungssoftware, deren Aufgabe es ist, das Internetportal der Stadt Hagen hinsichtlich bestimmter Grundfunktionen automatisiert zu überprüfen. Aufgrund der funktionalen Ausrichtung handelt es sich bei dem zu entwickelnden Prototypen um eine Software, die im Bereich Software-Qualitätsmanagement angesiedelt ist und dem sogenannten Black-Box-Verfahren zugeordnet werden kann.
Heutzutage ist das Internet, wie die sozialen Netzwerke ein fester Bestandteil unserer So nutzen Unternehmen in dem Kommunikationszeitalter die Netzwerke um in diesen Plattformen mit den Nutzern zu kommunizieren. Hierbei ist das Ziel dieser Bachelorarbeit zu untersuchen in wie weit man eine Erweiterung entwickeln kann um diese Ziele zu erreichen.
Dabei soll im Rahmen dieser Arbeit eine prototypische Implementierung stattfinden, um die Entwicklung eines Multichannel Social Media Marketingtools basierend auf Atlassian Produkten zu ermöglichen.
Die Arbeit gibt zunächst einen Überblick der wichtigsten Grundlagen. Danach wird mit einer Analyse die Anforderungen an den Prototypen erhebt und ausgewertet , sowie eine Marktanalyse durchgeführt. Darauf folgt die Konzeption, wie die Implementierung des Prototyps, was im Anschluss mit einem Test für die Gebrauchstauglichkeit ergänzt wird.
Cloud Computing hat sich hinsichtlich der Digitalisierung zu einer Basistechnologie entwickelt. Das Marktvolumen der Cloud-Technologie ist in den vergangenen Jahren kontinuierlich gestiegen. Hybride IT-Umgebungen mit Cloud- und On-Premise Anwendungen werden von den Unternehmen zunehmend bevorzugt. Eines der größten Hürden von hybriden Architekturen ist derzeit die Integration von heterogenen Umgebungen, die immer mehr und mehr an Bedeutung gewinnt. Zudem wird mit dem vermehrten Einsatz von Cloud-Services die IT-Infrastruktur der Unternehmen immer komplexer. Mithilfe von hybriden Integrationsplattformen kann diese Herausforderung erfolgreich bewältigt werden. Die vorliegende Ausarbeitung gibt den Unternehmen einen Leitfaden, welche die hybride Integration mithilfe von cloudbasierten Integrationsplattformen meistern können.
Vergleich von verteilten Datenbanksystemen hinsichtlich ihrer Clusterbildung und Skalierbarkeit
(2017)
Die vorliegende Ausarbeitung geht der Frage nach, wie sich die Datenbankmanagementsysteme MariaDB, MongoDB und Cassandra hinsichtlich ihres Clusteraufbaus,
sowie den damit verbundenen Möglichkeiten der Skalierbarkeit unterscheiden. Dazu werden zunächst Grundlagen zum Aufbau von verteilten Datenbanksystemen, zu den verschiedenen Transaktionskonzepten, sowie zu den möglicherweise auftretenden Probleme vermittelt. Anschließend werden die drei Systeme im Detail untersucht und herausgearbeitet, wie sie genau funktionieren und in welchen Punkten sie sich von einander unterscheiden. Als Abschluss wird ein Fazit gezogen, welches System in verteilten Computerumgebungen
am geeignetsten ist, insofern ein klarer Sieger hervorgeht.
As a customer, it can be frustrating to face an empty shelf in a store. The market does not always realize that a product has been out of stock for a while, as the item is still listed as in stock in the inventory management system. To address this issue, a camera should be used to check for Out-of-Stock (OOS) situations.
This master thesis evaluates different model configurations of Artificial Neural Networks (ANNs) to determine which one best detects OOS situations in the market using images. To create a dataset, 2,712 photos were taken in six stores. The photos clearly show whether there is a gap on the shelf or if the product is in stock. Based on the pre-trained VGG16 model from Keras, two fully connected layers were implemented, with 36 different ANNs differing in the optimization method and activation function pairings. In total, 216 models were generated in this thesis to investigate the effects of three different optimization methods combined with twelve different activation function pairings. An almost balanced ratio of OOS and in-stock data was used to generate these models.
The evaluation of the generated OOS models shows that the FTRL optimization method achieved the least favorable results and is therefore not suitable for this application. Model configurations using the Adam or SGD optimization methods achieve much better results. Of the top six model configurations, five use the Adam optimization method and one uses SGD. They all achieved an accuracy of at least 93% and were able to predict the Recall for the OOS class with at least 91%.
As the data ratio between OOS and in-stock data did not correspond to reality in the previously generated models, the in-stock images were augmented. Including the augmented images, new OOS models were generated for the top six model configurations. The results of these OOS models show no convergences. This suggests that more epochs in the training phase lead to better results. However, the results of the OOS model using the Adam optimization method and the Sigmoid and ReLU activation functions stand out positively. It achieved the best result with an accuracy of 97.91% and a Recall of the OOS class of 87.82%.
Overall, several OOS models have the potential to increase both market sales and customer satisfaction. In a future study, the OOS models should be installed in the market to evaluate their performance under real conditions. The resulting insights can be used for continuous optimization of the model.
Das eLearning Datenbank Portal der Fachhochschule Köln unterstützt Studierende im Fach Datenbanken und Informationssysteme mit umfangreichen E-Learning-Tools (http://edb.gm.fh-koeln.de). Die Diplomarbeit „Konzeption und Realisierung eines Statistiktools auf Basis von JSP und DOJO“ beschäftigt sich mit der Entwicklung eines Statistiktools, das die Nutzung des eLearning Portals durch die Studenten auswertet und die Nutzungsdaten als Diagramme auf einer Benutzeroberfläche einfach und übersichtlich dargestellt, damit diese von Lehrenden überprüft werden können. Der theoretische Teil der Diplomarbeit ist in zwei Abschnitte aufgeteilt. Der erste Abschnitt beschreibt die Grundlagen von Java Server Pages und die JavaScript-Bibliothek Dojo Toolkit. Es werden deren Eigenschaften und praktische Anwendung ausführlich erläutert. Der zweite Abschnitt befasst sich mit der Entwicklung eines Konzepts zum Statistiktool. Es stehen die Analyse der Nutzungsdaten und der Vergleich zwischen Oracle Application Express (APEX) und Dojo zur Erstellung von Diagrammen in Vordergrund. Im praktischen Teil der Diplomarbeit wird das Konzept umgesetzt und die Implementierung des Statistiktools als JSP-Anwendung mit der Verwendung von Dojo beschrieben.
Die vorliegende Bachelorarbeit in Kooperation mit der Deutsche Sporthochschule Köln hat die Konzeption und Entwicklung eine Software, mit der Daten aus der Fußball-Bundeliga 2011–2012 mit Hilfe einer Heatmap erzeugt werden, zum Inhalt. Die Software soll die Torpositionen vor einem Offensivspiel zu verschiedenen Zeitpunkten des Spieles veranschaulichen.
Bei der Arbeit wurden zwei Cluster-Methoden betrachtet, nämlich die Density-Based Spatial Clustering of Applications with Noise (DBSCAN) und der Kerndichtschätzer (kernel density estimation). DBSCAN ist ein bekannter Cluster-Algorithmus und wurde mit dem Software-Tool WEKA untersucht. Es zeigte sich, dass dieses Verfahren nicht so gut für diese Aufgabenstellung geeignet ist, da einzelnen Cluster nicht so gut unterschieden werden konnten. Der Kerndichtschätzer ist dagegen ein statistisches Verfahren zur Schätzung einer Dichte, der auch in Geoinformationssystemen verwendet wird. Dieses Verfahren ist besser für die Aufgabenstellung geeignet.
Nach der Analyse der Daten im XML-Format wurde der Algorithmus Kerndichtschätzer für die Deutsche Sporthochschule Köln in detr Programmiersprache Java implementiert. Die Software untersucht die Bildung von Clustern bzw. die Torschussdichte mit der Absicht, ein Verhalten oder Muster vor einem Offensivspiel zu erkennen. Sie enthält eine sehr gute Visulisierung der verschiedenen Situationen, die zum Torschuss führten, anhand eines Fußballfeldes
Die Analyse von Log-Dateien als Spezialfall des Text Mining dient in der Regel dazu Laufzeitfehler oder Angriffe auf ein Systems nachzuvollziehen. Gegen erkannte Fehlerzustände können Maßnahmen ergriffen werden, um diese zu vermeiden. Muster in semi-strukturierten Log-Dateien aus dynamischen Umgebungen zu erkennen ist komplex und erfordert einen mehrstufigen Prozess. Zur Analyse werden die Log-Dateien in einen strukturierten Event-Log (event log) überführt. Diese Arbeit bietet dem Anwender ein Werkzeug, um häufige (frequent) oder seltene (rare) Ereignisse (events), sowie temporale Muster (temporal patterns) in den Daten zu erkennen. Dazu werden verschiedene Techniken des Data-Minig miteinander verbunden. Zentrales Element ist dieser Arbeit das Clustering. Es wird untersucht, ob durch Neuronale Netze mittels unüberwachtem Lernen (Autoencoder) geeignete Repräsentationen (embeddings) von Ereignissen erstellt werden können, um syntaktisch und semantisch ähnliche Instanzen zusammenzufassen. Dies dient zur Klassifikation von Ereignissen, Erkennung von Ausreißern (outlier detection), sowie zur Inferenz einer nachvollziehbaren visuellen Repräsentation (Regular Expressions; Pattern Expressions). Um verborgene Muster in den Daten zu finden werden diese mittels sequenzieller Mustererkennung (Sequential Pattern Mining) und dem auffinden von Episoden (Episode Mining) in einem zweiten Analyseschritt untersucht. Durch das Pattern Mining können alle enthaltenen Muster im einem Event-Log gefunden werden. Der enorme Suchraum erfordert effiziente Algorithmen, um in angemessener Zeit Ergebnisse zu erzielen. Das Clustering dient daher ebenfalls zur Reduktion (pruning) des Suchraums für das Pattern Mining. Um die Menge der Ergebnisse einzuschränken werden verschiedene Strategien auf ihre praktische Tauglichkeit hin untersucht, um neue Erkenntnisse zu erlangen. Zum einen die Mustererkennung mittels verschiedener Kriterien (Constrained Pattern Mining) und zum anderen durch die Nützlichkeit (High Utility Pattern Mining) von Mustern. Interessante temporale Muster können auf anderen Log-Dateien angewendet werden, um diese auf das Vorkommen dieser Muster zu untersuchen.
Die Bachelorarbeit befasst sich mit der Verwendung der NoSQL Datenbank Apache Cassandra. Dabei werden auf der einen Seite die Unterschiede bei Verwendung und Betrieb von Apache Cassandra im Vergleich mit relationalen SQL Datenbanken und auf der anderen Seite die Aspekte Geschwindigkeit, Ausfallsicherheit und Wiederverwendbarkeit untersucht. Die Verwendung und der Betrieb wird dabei durch die Umsetzung eines Datenimports, damit verbunden ist die Erstellung von entsprechenden Datenmodellen, und der Bereitstellung der Daten für die Darstellung von mobilen Statistiken in Form einer Android App untersucht. Für die Untersuchung der Geschwindigkeit, Ausfallsicherheit und Wiederverwendbarkeit werden zusätzlich zu den durch bereits durch die Umsetzung erhaltenen Ergebnissen noch an den jeweiligen Aspekt angepasste Belastungstest durchgeführt.
Die vorliegende Diplomarbeit beschäftigt sich mit dem Web Application Servers in der Version 3.0 von Oracle. Der Web Application Server ist ein Programmpaket für die Entwicklung und Implementation von serverseitigen Anwendungsprogrammen, die über das Internet benutzt werden können. Das entsprechende Anwendungsprogramm wird nur vom Webserver ausgeführt. Für die Ausführung einer mit Hilfe des Web Application Server erstellten Anwendung wird auf der Clientseite nur ein Internetbrowser benötigt. Der Web Application Server wurde speziell daraufhin ausgelegt, daß die mit seiner Hilfe entwickelten Anwendungen ihre Daten aus einer Datenbank beziehen können. Für den Anwendungsentwickler ermöglicht der Web Application Server also Anwendungen für das Internet zu erstellen, wobei der Entwickler auf eine breite Palette von Programmiersprachen zurückgreifen kann. Das sind z.B. Perl, C++, Java und natürlich die für Oracledatenbanken benutzte Sprache PL/SQL. Da der Web Application Server die Internettechnologie, sowie die Datenbanktechnologie berührt, werden in den ersten Abschnitten nicht nur der Nutzen dieser Plattform im Rahmen der Client/Server Architektur gezeigt, sondern auch Grundlagen des Internets und relationaler Datenbanken vorgestellt. Dieses ist notwendig, um die Abläufe von Web Application Server basierten Anwendungen zu verstehen. In den weiteren Kapiteln werden die einzelnen Bauteile des Web Application Server - Programmpaketes vorgestellt. Hierbei wird kurz auf die Installation und Konfiguration der Web Application Server Plattform eingegangen. Anschließend soll das Zusammenspiel der Web Application Server - Elemente mit Hilfe einer Beispielanwendung gezeigt werden.
Diese Diplomarbeit beschreibt eine Softwareentwicklung für ein datenbankgestütztes Informationssystem. Bei der Entwicklung dieses Systems wird ausschließlich frei verfügbare Software eingesetzt. Damit die Leistungsfähigkeit der eingesetzten freie Software besser beurteilt werden kann, wird in der vorliegenden Diplomarbeit beispielhaft eine Komponente einer Kursverwaltungs-Software entwickelt. Die entwickelte Komponente ist Teil des Datenbanksystems ”Kursverwaltung” der Deutschen Unfallhilfe DUH GmbH in Bochum. Diese Firma wurde ausgewählt, da dort im Rahmen einer Neukonzeption ein Datenbanksystem entstehen soll und der Einsatz freier Software favorisiert wird. Zu Beginn der Diplomarbeit wird erläutert, was der Begriff ”freie Software” bzw. ”Open-Source” beinhaltet und welchen Stellenwert diese Softwareprodukte zur Zeit besitzen. Nach diesem allgemeinen Überblick werden spezielle Softwareprodukte für die genannte Softwareentwicklung vorgestellt. Anschließend werden die vorgestellten Produkte zur Entwicklung einer Komponente des Datenbanksystems ”Kursverwaltung” eingesetzt. Schwerpunkt bilden hierbei vorallem die Entwicklung der Datenbank und die Anbindung der relationalen Datenbank an die objektorientiert entwickelte Programmlogik. Dabei wird auch auf die mögliche Generierung von Softwareteilen eingegangen, welches zur Zeit einen Trend in der allgemeinen Softwareentwicklung ausmacht. Die Diplomarbeit wird durch die Implementierung der Beispielkomponente vervollständigt und schließt mit einer Bewertung der Softwareentwicklung mit Open-Source Programmen ab.
Diese Arbeit soll am Beispiel der Konzeption und Entwicklung eines Tippspiels mit Datenbankanbindung aufzeigen, welche Sicherheitsrisiken bei der Entwicklung einer Internetanwendung auftreten und wie Datenmissbrauch und Datenmanipulation weitgehend vermieden werden können. Dabei stehen im besonderen Maße Themen wie Session-Hijacking, SQL-Injection, Metazeichenbehandlung, Validierung und Passwortsicherheit im Vordergrund. Schwachstellen bei der Programmierung werden durch Codebeispiele veranschaulicht und Lösungen zu möglichen Sicherheitslücken aufgezeigt. Letztendlich wird immer ein Restrisiko bestehen bleiben. Das liegt zum einen an dem nicht enden wollenden Ideenreichtum der Angreifer, „Skript-Kiddies“ und Hacker, Schwachstellen in Computersystemen zu finden, aber auch an den Sicherheitslücken der eingesetzten Software und verwendeten Datenbanken und Schnittstellen – vom Betriebssystem des Servers bis hin zum Internet-Browser des Anwenders. Neue Techniken wie zum Beispiel WLAN bergen neue Gefahren und helfen Angreifern dabei, weitere Angriffsmethoden zu entwickeln und sich auf neue Art Zugang zu einem vermeintlich sicheren System zu verschaffen.
Das Internet of Things (IoT) ist aktuell eines der trendgebenden Themen der Infor-mationstechnik. Dem Thema werden dabei viele Versprechungen, aber auch Erwar-tungen auf staatlicher, wirtschaftlicher und alltäglicher Ebene zugeordnet. Dabei besteht die Frage, was ist Hype und was ist Realität? Motivation und Zielsetzung dieser Arbeit ist es, dieses Thema zu untersuchen und Aspekte daraus in einem Smart Home System umzusetzen. Klare Zielsetzung ist die lauffähige Ver-sion eines Prototyps zu produzieren. Dieser soll den technischen Durchstich ver-schiedener Werkzeuge, Technologien und Services, als integratives Ziel dieser Arbeit, durchführen. Eine Verknüpfung mit realen Anwendungsfällen ist zur besse-ren Veranschaulichung wünschenswert, aber für die Zielerreichung nicht zwangsläu-fig erforderlich. Gleichzeitig soll der Prototyp ein stabiles Fundament für weitere Entwicklungen auf dessen Basis bereitstellen. Der Einsatz von Technologien im Be-ta-Stadium ist dadurch aber nicht ausgeschlossen, wie der Einsatz des aktuell noch in der Entwicklervorschau befindlichen Android Things zeigt.
Durch die zunehmende Globalisierung der Märkte und dem damit immer härter werdenden Konkurrenzkampf ist es für ein Unternehmen absolut notwendig, die im Unternehmen vorhandenen Datenmengen optimal zu nutzen. Diese Daten ermöglichen es dem Unternehmen das laufende Geschäft besser zu durchleuchten und zu analysieren, um so die Wettbewerbsfähigkeit zu sichern.
Das Ziel der vorliegenden Arbeit war es, das Potenzial der Blockchain-Technologie für eine dezentrale Energieversorgung aufzuzeigen und abzuwägen. Bislang gibt es nur wenig Forschung und Aufmerksamkeit in diesem Bereich. Die Grundlage für die Ausarbeitung waren praxisnahe Studien und durchgeführte Pilotprojekte von Unternehmen. Die Erkenntnisse zeigen, dass es im Bereich Peer-to-Peer Energiehandel, Labeling und Zertifizierung, Asset Management, Elektromobilität und Netzengpassmanagement zukunftsfähiges Potenzial gibt. Die Blockchain-Technologie bietet eine manipulations-sichere und transparente Dokumentation sowie Automatisierung bestimmter Abläufe. Jedoch müssen dafür regulatorische Rahmenbedingungen angepasst und die Skalierbarkeit gewährleistet werden. Die Bachelorarbeit ist sowohl für Unternehmen im Bereich der energiewirtschaft als auch für private Betreiber von Energieanlagen interessant.
Das Ziel der vorliegenden Bachelorarbeit war es, Technologietrends von Enterprise-Resource-Planning (ERP) Systemen zu definieren und anhand eines modernen Produktes vorzustellen. Ein ERP-System unterstützt Unternehmen in der Organisation und Durchführung von sämtlichen Geschäftsprozessen. Zur Untersuchung der wünschenswerten Eigenschaften eines ERP-Systems wurden anhand von Literaturarbeit Anforderungen definiert. Dabei wurde deutlich, dass die Verarbeitung von sämtlichen Geschäftsdaten in Echtzeit einen hohen Stellenwert hat. Hierfür bietet das ERP-System S/4HANA mit verschieden Technologien eine Lösung auf dem Datenbanksystem an. So zeigt ein direkter Performancevergleich zwischen den Datenbanksystemen von S/4HANA und einem aktuellen Konkurrenzprodukt, dass das Verarbeiten von großen Datenmengen in kürzester Zeit möglich ist. Diese Arbeit ist an Fachkreise der Wirtschaftsinformatik und Personengruppen mit Interesse an ERP und Datenbanken Systemen gerichtet.
Diese Arbeit befasst sich mit der Problematik der Zugriffe auf nachrichtenorientierte Kommunikationsdienste von mobilen Geräten. Da diese Kommunikationsdienste nicht dafür ausgelegt sind via Netzwerk zugänglich zu sein, sondern nur lokal in der gleichen virtuellen Maschine ausgeführt werden können, wird ein zusätzlicher Dienst entwickelt der diesen Zugriff möglich macht. Zusätzlich beinhaltet er die verarbeitende Komponente und fungiert somit als Schnittstelle. Es wird detailliert darauf eingegan- gen wie genau ein Lösungsansatz aussehen könnte, in Rücksichtnahme auf gewählte Softwarekomponenten. Eine Abwägung der jeweiligen Komponenten und Darstellung der Alternativen, sowie eine Diskussion des Problem- sowie Lösungsraums, gehen dem Ganzen voraus. Im Mittelpunkt der Arbeit steht die Verarbeitung der Anfragen und Weiterleitung an bestehende nachrichtenorientierte Systeme mittels Web Services, sowie ihre Darstellung. Somit wird die Funktionalität eines solchen Systems, in diesem Fall Java Message Service, genutzt um eine Kommunikation zwischen diversen Nutzern zu etablieren. Der Gedanke dabei ist, einen Nachrichtenaustausch zwischen diesen, mittels wohl definierter Schnittstellen, zu ermöglichen. Weiterhin wird die Funktion anhand einer prototypischen Implementation demonstriert und ein Ausblick gegeben in wie weit sich dieser Prototyp erweitern lässt um dem Gesamtkonzept zu genügen.
Der Smartphone-Markt gehört zu einem der am stärksten wachsenden Märkte der heutigen Zeit. Zudem erfreuen sich Anwendungen mit soziotechnischen Aspekten wie YouTube und Facebook immer größer werdender Beliebtheit. Genau hier siedelt Your-Sights an. Dabei wurde im Rahmen eines Projekts eine Software für das Smartphone-Betriebssystem Android konzipiert und entwickelt, welche in der Lage ist Touren, bzw. eine Menge von Wegpunkten zu erstellen, wiederzugeben und zu verwalten. Neben obligatorischen GPS-Koordinaten können für jeden Wegpunkt textuelle und visuelle Informationen, in Form von Bildern, erfasst werden. Für die kartografische Darstellung wird auf das OpenStreetMap-Projekt zurückgegriffen. Im Rahmen dieser Bachelor-Thesis wird das Projekt fortgesetzt und auf die Konzeptio-nierung und Entwicklung einer Middleware eingegangen, welche eine Brücke zwischen den Anwendern und einer Datenbank bildet. Letztere dient nicht nur dem Austausch von Touren, sondern ermöglicht auch eine Kommunikation unter den Anwendern. Dabei wurde Wert auf die Evaluation einer adäquaten Kommunikationstechnologie für den Datenaustausch zwischen dem Anwender und der Middleware gelegt. Schließlich erfolgte der Einsatz des Java NIO-Frameworks Netty und die Entwicklung eines Kommunikationsprotokolls. Darüber hinaus wird auf notwendige Änderungen und Erweiterungen der Android-Applikation, als auch eine prototypische Entwicklung des Servers eingegangen.
Die Entwicklung der Computergraphik und ihr Einsatz bei der digitalen Architekturrekonstruktion
(2018)
Die digitale 3D-Rekonstruktion von Architektur- und Archäologieobjekten ist eng mit der anwendung der Methoden und Systeme der Computer Graphik verknüpft. Dieser Artikel stellt solche Verbindungen seit den Anfängen der Computergraphik in den 1950er Jahren bis etwa zur Jahrtausendwende dar. Die Entwicklungen von Methoden zur Gewinnung von 3D-Daten, i.e. 3D-Scannverfahren und Photogrammetrie, werden ergänzend kurz betrachtet.
Bei Low-Code Entwicklungsplattformen handelt es sich um Lösungen zur Entwicklung und Bereitstellung von Software mit geringerem Anteil von Quelltext als in der Anwendungsentwicklung sonst erforderlich. Die Forschungsarbeit prüft, ob Low-Code Entwicklungsplattformen dazu geeignet sind, moderne webbasierte Geschäftsanwendungen umzusetzen. Dabei zeigt die Arbeit auf, wie Programmierparadigmen, Methoden der modellgetriebenen Softwareentwicklung (MDSD) und des Rappid Application Developments (RAD) als Platform-as-a-Service (PaaS) Lösungen zur Anwendungsentwicklung durch Anbieter kombiniert werden. Aktuell offerierte Lösungen werden in einem Marktüberblick hinsichtlich ihrer Funktionalität und Anwendungszielgruppe eingeordnet.
Zur Klärung der Forschungsfrage werden gängige Anforderungen an eine Geschäftsanwendung gesammelt und deren Implementierung durch die prototypische Realisierung eines Anwendungsfalls mit der Low-Code Entwicklungsplattform Oracle Application Express (APEX) validiert. Auf dieser Basis zeigt die Arbeit den tatsächlich erforderlichen Quelltextanteil auf. Dabei werden jedoch auch funktionelle Einschränkungen sowie möglicheorganisatorische Risiken, z.B. durch Vendor Lock-In Effekte, dargestellt.
This study paper introduces different tools, i.e. analytical methods and visualizations, in business intelligence environments. It especially emphasizes the use of OLAP-based technologies as a tradtional kind of data analysis in contrast to as graph analysis and formal concept analysis as rather new approaches in the area of visual analytics.
The amount of data produced and stored in multiple types of distributed data sources is growing steadily. A crucial factor that determines whether data can be analyzed efficiently is the use of adequate visualizations. Almost simultaneously with the ongoing availability of data numerous types of visualization techniques have emerged. Since ordinary business intelligence users typically lack expert visualization knowledge, the selection and creation of visualizations can be a very time- and knowledge-consuming task. To encounter these problems an architecture that aims at supporting ordinary BI users in the selection of adequate visualizations is developed in this thesis. The basic idea is to automatically provide visualization recommendations based on the concrete BI scenario and formalized visualization knowledge. Ontologies that formalize all relevant knowledge play an important role in the developed architecture and are the key to make the knowledge machine-processable.
Es wurde ein Vergleich zwischen einer nativen Android-Anwendung und einer Titanium-Anwendung durchgeführt, anhand einen mobilen SQL-Trainers. Die mit Eclipse nativ entwickelte Android-Anwendung und die Titanium-Anwendung (Android und iOS) sind, zumindest mit unserem beispielhaften Funktionsumfang, fast gleichwertig. Die Entwicklung für BlackBerry und Tizen konnte auf Grund der noch nicht ausgereiften Entwicklungsart für diese Plattformen kaum getestet werden, allerdings wird der größere App-Markt mit iOS und Android unterstützt. Die noch nicht ausgereifte Entwicklungsweise für das Tizen-Betriebssystem kann vernachlässigt werden, wenn bedacht wird, dass auf dem Tizen-Betriebssystem native Android-Anwendungen ausgeführt werden können. Außerdem wird Tizen noch auf keinem Smartphone eingesetzt. Die Vorbereitung auf die Erstentwicklung ist durch die noch etwas weniger ausgereifte, aber dennoch sehr professionelle Entwicklungsumgebung beim Titanium SDK etwas zeitaufwändiger als bei der Eclipse-Entwicklungsumgebung. Natürlich sind die nativen und vom Betriebssystemhersteller herausgegebenen Entwicklungsformen der Vorreiter für das Titanium SDK und deshalb auch die sicherere Entwicklungsform, wenn es beispielsweise um Kompatibilität und Hardwarezugriff geht. Das Titanium SDK übersetzt den entwickelten JavaScript-Code in nativen Code der jeweiligen Plattformen mit den jeweiligen Plattform-Elementen. Die angepriesene Zeitersparnis von zwanzig Prozent bei der Entwicklung kann nicht bestätigt werden. Die Entwicklung der Benutzeroberfläche ist aufwändiger als bei der nativen Entwicklungsweise.
Die vorliegende Bachelorarbeit „Konzeptionierung eines Unterstützungsangebotes für Frauen im Informatikstudium an der TH Köln“ soll Frauen, die ein Informatikstudium anfangen oder gerade Informatik studieren, helfen, das Studium einfach und erfolgreich zu bewältigen. Dabei soll für die Hochschule ein verwertbares Konzept erstellt werden, in dem bestimmte Unterstützungspunkte entwickelt und herausgearbeitet werden. Der Fokus liegt dabei auf den Bachelorstudiengängen in Informatik an der Technischen Hochschule Köln am Campus Gummersbach.
Die Arbeit wurde im Zeitraum von Februar bis Mai 2022 in Köln verfasst und umfasst ca. 90 Seiten.
Die Dynamik des Social Webs motiviert zum Teilen nutzergenerierter Inhalte. Diese entstehen in zahlreichen Social Networks meist unter Missachtung der Schutzziele der IT-Sicherheit: Vertraulichkeit, Verfügbarkeit und Integrität von Nutzerdaten. Betreiber von Web-Anwendungen können Inhalte ihrer Nutzer einsehen, fälschen, löschen oder zu unbekannten Zwecken auswerten und verfügen über Wissen über Kommunikationspartner und -verhalten - ohne, dass sich Benutzer wirksam davor absichern könnten. Von dem im Grundgesetz verankerten Recht auf Privatsphäre ausgehend soll im Rahmen dieser Ausarbeitung eine neuartige Architektur zum Teilen nutzergenerierter Inhalte im Web entwickelt werden, die Benutzeranforderungen an die Erfüllung der Schutzziele der IT-Sicherheit vollständig gewährleistet und darüber hinaus durch eine bewusste Kommunikation dieser Qualität als vertrauenswürdig aufgefasst werden kann. In einem Goal-directed Design-Prozess wird eine Architekturskizze entwickelt, welche die im Prozess erarbeiteten Benutzeranforderungen durch die Bereitstellung zweier Web-Services erfüllt: Der Signed Content Storage adressiert als zuverlässiger und durch den Urheber autorisierter Web-Speicherort signierter, nutzergenerierter Inhalte die Schutzziele Verfügbarkeit und Integrität. In Kombination mit dem Identity Provider, der gesicherte Informationen von Urheber und Teilhabern zur Verfügung stellt, ist ein vertrauliches Teilen von Inhalten im Web möglich. Vertrauenswürdigkeit gewinnt diese Architektur durch konsequente Transparenz, Selbstbeschreibungsfähigkeit, externe Bewertbarkeit und der Dokumentationsfähigkeit von Nutzungserfahrungen.
Architektur für ein Qualitätsmanagementsystem zur Verbesserung der Relevanz von Suchergebnissen
(2023)
Die Suchfunktion ist in vielen Softwareprodukten eine wichtige Komponente, die häufig zur Navigation in der Anwendung dient. Gerade, wenn große Datenmengen bereitgestellt werden, wie es bei Streamingdiensten (Netflix, Spotify) oder bei E-Commerce-Plattformen (Amazon, Zalando) der Fall ist, ist es wichtig, dass die Suchergebnisse für den Nutzer relevant sind. Eine für den Nutzer effektive Navigation mit der Suchfunktion ist nur möglich, wenn die Suchergebnisse eine ausreichend große Relevanz für den Nutzer bieten. Die Organisationen, welche die oben genannten Dienste betreiben, versuchen daher, die Relevanz ihrer Suchergebnisse zu optimieren. Eine Optimierung auf Relevanz ist zwar für eine spezielle Suche einfach, jedoch können dabei häufig Seiteneffekte auftreten, welche die Relevanz über alle Suchen verschlechtern. In einem E-Commerce-Shop kann das Einfiihren des Synonyms „Birne -> Glühbirne" dafür sorgen, dass Nutzer, die Gliihbirnen kaufen wollen und nach „Birne" suchen nun auch Gliihbirnen finden. Falls Nutzer aber das Obst Birne kaufen möchten, sind die Ergebnisse für diese Gruppe irrelevant. Bei einer Optimierung der Relevanz über alle Suchen können Qualitätsmanagementsysteme unterstützen. Ein Qualitätsmanagementsystem fiir die Relevanz von Suchergebnissen muss nicht nur fachliche und technische, sondern auch organisatorische Anforderungen beachten, um die Optimierungspotenziale vollständig auszuschöpfen. Diese Arbeit erläutert diese Anforderungen und stellt eine Architektur für ein Qualitätsmanagementsystem vor. Die Architektur wird hinsichtlich der Erfüllung der erläuterten Anforderungen analysiert. Desweiteren werden die Vor- und Nachteile fiir die jeweiligen Architekturentscheidungen unter Betrachtung der Anforderungen diskutiert. Das Ziel der Arbeit ist es, die Architektur entsprechend zu erläutern, sodass eine Organisation diese für sich angepasst implementieren kann.
Ziel dieser Diplomarbeit ist es, eine Datenbankanwendung für eine öffentliche Stiftung aufzubauen, in der Projektideen erfasst und bewertet werden können. Da bei der Stiftung caesar die Anwendung Oracle Applications eingesetzt wird, werden für die Realisierung der Datenbankanwendung Oracle-Werkzeuge verwendet. Diese werden im Kapitel 5: Entwicklungswerkzeuge und Kapitel 6: Oracle Applications beschrieben.
Mit dem Internet hat sich eine Technologie etabliert, die Veränderungen in den unterschiedlichsten Bereichen nach sich gezogen hat. Sie ist im Rahmen der Globalisierung zu sehen und ist einer der Hauptakteure bei der Entstehung der Informationsgesellschaft. International und national agierende Unternehmen besitzen einen entscheiden Marktnachteil, wenn diese Technologie nicht gewinnbringend zur Unterstützung ihrer Geschäftsprozesse und deren globaler Vernetzung eingesetzt wird. Einhergehend mit der Entwicklung des Internets sind zahllose Technologien entstanden. Wo es anfänglich nur möglich war, Informationen als feststehende Inhalte zu präsentieren, können und müssen heutige Internetpräsenzen Informationen anbieten, die Zugriff auf verteilt liegende Informationsquellen besitzen, die sich täglich ändern. So sind Web-Applikationen entstanden, die die modernsten Technologien einsetzen, um Anwendern eine Zugangsmöglichkeit auf Informationsquellen über das Internet zu bieten. In Kapitel 2 werden die Anforderungen an Web-Applikationen und deren zugrunde liegende Architektur beleuchtet. Da zahllose Programmiersprachen für die Entwicklung von Web-Applikationen verfügbar sind, wird in Kapitel 3 eine Auswahl an verfügbaren Technologien vorgestellt. Um die Programmierung von Web-Applikationen zu vereinfachen sind im Laufe der letzten Jahre Web-Frameworks entstanden, die den Entwicklungsprozess stark beschleunigen und eine Art Bausatz anbieten, um die Programmierung zu vereinfachen. Der Schwerpunkt der vorliegenden Arbeit richtet sein Augenmerk auf 2 aktuelle Web-Frameworks, die jeweils theoretisch und praxisbezogen anhand einer Beispielapplikation beleuchtet werden. In Kapitel 4 wird JavaServer Faces als erstes Web-Framework vorgestellt. Ausgehend von einer theoretischen Betrachtung wird ein Web-Shop als Beispielapplikation entwickelt und die damit in Zusammenhang stehenden Entwicklungswerkzeuge betrachtet. Auf Struts, als zweites Web-Framework, wird in Kapitel 5 eingegangen und ähnlich wie in Kapitel 4 zu JavaServer Faces wird nach theoretischer Betrachtung des Web-9 Frameworks eine Benutzerverwaltung als Beispielapplikation entwickelt, die die wesentlichsten Aspekte des Web-Frameworks zeigt. Auch hier werden Entwicklungswerkzeuge vorgestellt, die den Umgang mit Struts unterstützen. Schließlich findet in Kapitel 6 ein Vergleich zwischen JavaServer Faces und Struts statt, der mögliche Vor- und Nachteile des jeweiligen Web-Frameworks aufzeigt.
Ziel dieser Diplomarbeit ist es zu evaluieren, ob eine effiziente Implementierung von responsiven Webapplikationen zum Zeitpunkt der Erstellung der Arbeit möglich ist. Als technische Grundlage wird hierzu die HTML5-Spezifikation mit dem darin enthaltenen CSS3 und den JavaScript-Programmierschnittstellen herangezogen.
Es wird erläutert, dass unter responsivem Design die Reaktionsfähigkeit des Designs auf die Abrufumgebung, wie zum Beispiel die Größe der Anzeigefläche, zu verstehen ist und mit Hilfe welcher Techniken ein solches Design für Webapplikationen realisiert werden kann. Des Weiteren werden Möglichkeiten zur Performance-Optimierung aufgeführt, wobei festgestellt wird, dass für die Nutzung einer Webanwendung auf mobilen Geräten die Anzahl der Dateien das größte Potenzial zur Optimierung besitzt. Die Möglichkeiten der JavaScript-Programmierschnittstellen in HTML5 zur Umsetzung von Funktionalitäten für Webapplikationen, wie sie bei lokal installierten Anwendungen gebräuchlich sind, werden ebenso erläutert.
Das Fazit dieser Arbeit ist, dass ausreichend Techniken zur Erstellung von responsiven Webapplikationen in HTML5 definiert sind. Lediglich die zum Teil ausstehende Umsetzung dieser Techniken in den einzelnen Browsern verursacht Einschränkungen. Dies wirkt sich gegebenenfalls negativ auf die Effizienz des Umsetzungsprozesses aus. Ebenso kann die übermäßige Optimierung des Layouts und der Performance zu unverhältnismäßigem Aufwand führen.
Aufgrund ihrer aktuellen Bedeutung im Zusammenhang des Internet of Things werden in der vorliegenden Arbeit Time Series Databases und Event Stores miteinander vergli-chen. Ziel ist, die Gemeinsamkeiten und Unterschiede der beiden Arten von Datenbank Management Systemen herauszustellen.
Der erste, theoretische Teil des Vergleichs erfolgt anhand der funktionalen Kriterien Speichersystem, Performance und Funktionen sowie der nicht-funktionalen Kriterien Usability und Support. Im zweiten Teil des Vergleichs wird anhand eines konkreten An-wendungsfalls untersucht, ob sich Time Series Databases und Event Stores gleicher-maßen für die Speicherung und in einem zweiten Schritt für die Abfrage von Zeitreihen-daten eignen.
Zumal der theoretische Vergleich Unterschiede zwischen einzelnen Time Series Data-bases und Event Stores in Bezug auf die betrachteten Kriterien erkennen lässt, wird für den praktischen Vergleich unter Berücksichtigung der im konkreten Anwendungsfall gegebenen Anforderungen nur die am besten geeignetste Time Series Database (In-fluxDB) und der am besten geeignetste Event Store (Event Store) ausgewählt. Der prak-tische Vergleich zeigt, dass die Zeitreihendaten im konkreten Anwendungsfall zwar in beiden Arten von Datenbank Management Systemen gespeichert werden können, die Nutzung der auf Zeitreihendaten spezialisierten Time Series Database InfluxDB jedoch offensichtliche Vorteile gegenüber dem Event Store aufweist.
Aufbauend auf einer vorherigen Arbeit, die sich mit der Implementierung einer Komponentezum Auslesen mdizinischer Sensordaten mithilfe eines Arduino und eines Raspberry Pi befasst hat, beschäftigt sich diese Arbeit mit der Visualisierung sowie Auswertung der durch das System gesammelten Daten. Das Ziel dieser Arbeit ist es, über einen Zeitraum von etwa drei Monaten mithilfe der Komponente Daten zu sammeln und diese Daten in einem sinnvollen Kontext visuell darzustellen. Zudem sollen diese Daten mithilfe unterschiedlicher Algorithmen des Maschinellen Lernens ausgewertet werden,
um mögliche Muster und Zusammenhänge erkennen zu können. In diesem Kontext konnte die Hypothese aufgestellt werden, dass ein Zusammenhang zwischen der Körpertemperatur und der Sauerstoffsättigung im Blut besteht.
Ziel der Arbeit war es, den Nutzen der Google Glass im Alltag und ihr Potenzial als AR-Brille ( Augmented Reality ) aufzuzeigen. Mit der Arbeit wurde ein ortsbasierter AR Ansatz vorgestellt, der innerhalb von Gebäuden zum Einsatz kommt. Als Beispielszenario diente die AR-basierte Navigation innerhalb des Gebaudes der TH Köln. Hierbei wurde ein Umgebungsmodell in Form eines Regular Grids konstruiert, welches eine diskrete Positionsbestimmung im Raum erlaubt. Ferner wurden verschiedene Verfahren zur Positionsbestimmung innerhalb von Gebäuden gegen übergestellt und deren Vor- und Nachteile evaluiert. Hierbei wurden die Erkenntnisse gewonnen, dass die Positionsbestimmung mittels LLA Markern die höchste Stabilität, jedoch die geringste Kontinuität aufweist, da Marker zunächst erkannt werden müssen, bevor die Position bestimmt werden kann.
Academic search systems aid users in finding information covering specific topics of scientific interest and have evolved from early catalog-based library systems to modern web-scale systems. However, evaluating the performance of the underlying retrieval approaches remains a challenge. An increasing amount of requirements for producing accurate retrieval results have to be considered, e.g., close integration of the system’s users. Due to these requirements, small to mid-size academic search systems cannot evaluate their retrieval system in-house. Evaluation infrastructures for shared tasks alleviate this situation. They allow researchers to experiment with retrieval approaches in specific search and recommendation scenarios without building their own infrastructure. In this paper, we elaborate on the benefits and shortcomings of four state-of-the-art evaluation infrastructures on search and recommendation tasks concerning the following requirements: support for online and offline evaluations, domain specificity of shared tasks, and reproducibility of experiments and results. In addition, we introduce an evaluation infrastructure concept design aiming at reducing the shortcomings in shared tasks for search and recommender systems.
Informatik ist eine männerdominierte Wissenschaft, welches sich an den Männeranteilen sowohl im Studium als auch in der Berufswelt bemerkbar macht. Aus diesen und weiteren Gründen trauen sich viele Frauen nicht in das Gebiet Informatik einzusteigen. Der niedrige Frauenanteil ist eine Lücke für die Wissenschaft. Die Qualifikationen von Frauen werden benötigt, um neue Sichtweisen zu bekommen und andere Arbeitsweisen kreieren zu können. Damit die Frauenquote in der Informatik steigt, müssen die Ursachen analysiert und dagegen entsprechende Maßnahmen getroffen werden. Die vielfältigen Seiten des Gebietes müssen enthüllt und mit anderen Wissenschaften verknüpft werden, so dass Frauen auch eigene Interessen darin finden können.
Die Menge an Informationen steigt seit Jahren immer weiter an. Dies lässt sich auch leicht an der Entwicklung der Speichermedien feststellen. So bot die erste 5,25-Zoll Festplatte, eine Seagate ST- 506, lediglich 5 MB Speicherkapazität. Heutige 3,5-Zoll Festplatten verfügen hingegen über bis zu 8 TB Speicherkapazität und werden ebenso ausgenutzt wie ihre Vorgänger aus der Anfangszeit der Magnet-festplatten. Zusätzlich geht die Tendenz dorthin, alle Daten jederzeit zur Verfügung zu haben. Sei es daheim am Rechner, auf der Arbeit oder per Tablet oder Smartphone unterwegs, dank der immer mehr verbreiteten Cloud-Speicher stehen die Daten jederzeit zur Verfügung. Mit dem enormen Zuwachs an Dateien und auch an Dateiformaten wird es jedoch immer schwieriger, diese Masse zu überblicken und bestimmte Inhalte in annehmbarer Zeit wiederzufinden. Beispiels- weise hostet der Internetdienst Flikr die schier unüberschaubare Menge von über 6 Milliarden Bilder. Doch nicht nur die großen Servicedienstleister besitzen große Datenmengen, auch Einzelpersonen haben derweil große Musik- und Bildsammlungen, zumal jedes aktuelle Smartphone über eine Kamera verfügt. Jeder ist somit praktisch zu jeder Zeit in der Lage, ein Foto in hochauflösender Qualität zu schießen und direkt in seine Cloud hochzuladen. Diese Datenmengen manuell zu ordnen, erfordert einen sehr hohen Aufwand, den nicht alle Menschen gewillt sind zu leisten. Vor allem am Smartphone geht dieses Benennen und Einsortieren aufgrund der vorhandenen Technik nicht so leicht von der Hand. In der Praxis sammeln sich die Aufnahmen mit der Zeit immer weiter an und letztlich befinden sich mehrere hundert wenn nicht gar tausend Bilder in einem Ordner, welche sich namentlich meist nur durch eine fort- laufende Nummer unterscheiden. Diesen Umstand Rechnung tragend, treten Metainfor-mationen immer mehr in den Vordergrund. So speichern die zuvor genannten mobilen Alleskönner meist viele informative Daten mit in den Bilddateien ab. Beispielsweise kann dank der eingebauten GPS-Module der Ort der Aufnahme aus den Bildern ausgelesen werden. Die Dienstleister für Cloud-speicher nutzen diese Informationen jedoch nur marginal aus und bieten dem Endanwender kaum Unterstützung bei der Suche nach be- stimmten Inhalten, wie etwa beim OX Drive, der Cloudlösung der Firma Open-Xchange.
Die vorliegende Master Thesis zeigt, wie dieser Cloud-Speicher, welcher in die Hauseigene OX App Suite integriert ist, um sogenannte Smartfeatures erweitert werden kann. Diese Smartfeatures sollen dem Endan-wender helfen, die Daten einfacher – wenn nicht gar automatisch – zu ordnen und somit leichter bestimmte Inhalte wiederzufinden. Kernthema dieser Arbeit ist daher die auto- matische Extraktion von unterschiedlichen Metadaten aus diversen Dateiformaten. Des Weiteren wird gezeigt, wie diese Daten effizient gespeichert und abgefragt werden können. Die Thesis stellt hierzu den Document Store Elasticsearch vor und vergleicht diesen mit seinem Konkurrenten Apache Solr.
Das Erstellen von Textzusammenfassungen ist bei Recherchearbeiten die gängigste Praxis, um einem Text seine Kernaussage zu entnehmen. Aus einer Zusammenfassung leitet man die essenzielle Information ab, mit dem Ziel, einen Text einem Themengebiet zuzuordnen. Dem Benutzer hilft hierbei ein software-gestütztes System zur Textzusammenfassung. Texte beinhalten aus Sicht eines Computersystems eine Aneinanderreihung von Wörtern bzw. Sätzen und besitzen demnach keine feste Struktur. Aus den unstrukturierten Daten im Text müssen Wörter extrahiert werden, die den Kerninhalt eines Textes widerspiegeln. Auf Basis der extrahierten Wörter erfolgt die endgültige Zusammenfassung und anschließend die semantische Auszeichnung des Gesamttextes, was der Themengebietszuordnung entspricht. Bewährte Methoden für die Textzusammenfassung sind das statistische Verfahren und das sogenannte Signalwort-Verfahren. Grundlage dafür sind die theoretischen Arbeiten von H. P. Luhn und Edmundson. Als weitere Hilfsmittel dienen statistische Methoden aus dem Text Mining. Für die Zuordnung des Textes zu einem Themengebiet eignen sich die Semantic Web Standards des W3C. Der auf Basis dieser Theorien entwickelte Lösungsweg dient als Standardverfahren für eine software-gestützte Textzusammenfassung. Durch die definierten Standards ist die Software in der Lage, jegliche Textarten aus beliebiger Quelle einzulesen, zusammenzufassen und semantisch auszuzeichnen. Benutzer, deren Aufgabe im Unternehmen darin besteht, Recherchearbeiten zu betreiben, verwenden diese software-gestützte Textzusammenfassung. Durch diese Unterstützung spart der Benutzer bei einer Zusammenfassung von mehreren Textdaten Zeit und Aufwand, da der Vorgang durch die Software automatisch abläuft. Aus Sicht eines Unternehmens liegt das Hauptaugenmerk auf der schnellen Informationsgewinnung aus Texten, was essenziell für eine Weiterverarbeitung der Textdaten ist.
Bewegung als Musikinstrument - Entwicklung eines Prototypen auf Basis von Kinect und Pure Data
(2012)
Es wurden Möglichkeiten der Bewegungsanalyse durch Gamecontroller untersucht und dazu passende Audioerzeuger erstellt. Dazu wurden vier Prototypen erstellt, die auf verschiedenen Analysetechniken basieren. Dazu zählt die Analyse per Webcam, der Sony Playstation Move Controller, und die Microsoft Kinect. Dann habe ich einen Ansatz auf Basis der Kinect weiter-entwickelt. Die Eingabedaten der Kinect wurden über Open Sound Control zu Pure-Data über- ragen. In Pure-Data habe ich ein Instrument erstellt, das durch die geschickte Kombination von Oszillatoren und Filtern einen individuellen und interessanten Klang erzeugt. Dazu wurde ein entsprechendes Kontrollkonzept umgesetzt, welches sich an dem eines Saiteninstrumentes orientiert, dieses Konzept jedoch von der Bewegung der Finger und Hände auf größere Bewe- gungen des ganzen Körpers überträgt. Es wurden Schnittstellen erstellt und diskutiert, mit denen das System via MIDI und Open Sound Control auch an andere Audioerzeuger angeschlossen werden kann. Während der ganzen Entwicklung wurde darauf geachtet, Open-Source-Software zu bevorzugen. Am Ende steht ein elaboriertes System, welches abgesehen von der Hardware völlig frei verfügbar und quelloffen ist.
Thematisiert werden Graphendatenbanken und die Umsetzung eines bestimmten Typen davon. Für die Umsetzung wird eine Rationale Datenbank genommen und diese in eine Graphdatenbank überführt. Es wird auf die Unterschiedlichen Typen von Graphdatenbanken eingegangen, deren Verwendungszweck und wie diese Typen Unterschieden werden. Die Umsetzung erfolgt mit Neo4j auf dessen Funktionen und Sprache ich eingehen werde. Danach wird auf die Modellierungsart der Graphdatenbank eingegangen und wie diese realisiert wurde.
Die Diplomarbeit „Konzeption und Implementierung eines PL/SQL Trainers auf Basis von JSP und eLML“ beschäftigt sich mit der Erstellung von eLearning Anwendungen, für das Themengebiet PL/SQL, mit speziellem Fokus auf die Programmierung von Datenbanktriggern. Im theoretischen Teil der Arbeit wird das Thema eLML ausführlich behandelt und dabei die Funktionsweise sowie die Hintergrundgeschichte des eLML Frameworks erläutert. Der praktische Teil der Arbeit unterteilt sich in zwei Abschnitte, im Ersten Abschnitt wird beschrieben, wie bestehende Lerneinheiten zum Thema PL/SQL aus dem MS-Power-Point Format in das eLML Format übertragen werden, wobei die praktische Anwendung von eLML dargestellt wird. Im zweiten Abschnitt wird die Konzeption und die Implementierung einer JSP-Webanwendung beschrieben, die eine interaktive Trainingsanwendung für die Programmierung von Triggern mit PL/SQL darstellt.
Im vorangegangenen Praxisprojektes »Das Zusammenspiel zwischen Usability und Suchmaschinenoptimierung - Tipps und Methoden für eine verbesserte Sichtbarkeit und Nutzbarkeit von Internetseiten « wurde dem unerfahrenen Content-Erzeuger Grundwissen in der Suchmaschinen- und Usability-Optimierung vermittelt. Ziel dieser wissenschaftlichen Arbeit ist es die vorgestellten Methoden und Techniken des vorangegangenen
Praxisprojektes, am Beispiel der Webseite des Fachbetriebes BSS-Schieh-Schneider technisch umzusetzen und zu bewerten. Der Schwerpunkt des Unternehmens liegt bei der Beratung, Montage und Reparatur von Fenstern, Türen, Rollläden und Markisen. Die Webseiten existieren bereits und geplant ist, die Bereiche Fenster & Türen SEO-Technisch zu verbessern.
Bei der Entwicklung interaktiver Software werden die Belange der Benutzer oft außer Acht gelassen oder nur unzureichend berücksichtigt. Dies führt dazu, dass das System von den Benutzern nicht akzeptiert wird, es die Benutzer nicht im ausreichenden Maße unterstützt oder, im Ernstfall, die Benutzer ihre Aufgaben nicht vollständig lösen können. Um einen Nährboden für die Entwicklungsprozesse von gebrauchstauglicher Software zu schaffen, muss eine grundlegende Entscheidung getroffen werden. Der Usability Engineering Prozess wird selbst geplant und durchgeführt, oder extern an eine Firma weitergegeben. Diese Arbeit beschäftigt sich mit ersterem und integriert den Usability Engineering- und Softwareentwicklungsprozess in einem Framework mit agilem Vorgehensmodell, welches sich an erfahrene Projektleiter, Projektmanager und Softwareentwickler ohne gefestigtes Wissen im Bereich des Usability Engineerings richtet. Es werden Ziele definiert und mögliche Methoden und Techniken vorgestellt, mit denen diese Ziele erreicht werden können. Da sich das Framework an Softwareentwickler richtet, die einen Usability Enginigeering Prozess integrieren wollen, werden zwar notwendige Ziele der Softwareentwicklung, aber nicht die Methoden und Techniken diese zu erreichen, vorgegeben, um einen etablierten Softwareentwicklungsprozess nicht zu sehr zu beeinflussen.
Für EDB, das e-Learning Datenbank Portal der TH Köln, soll im Zuge dieser Arbeit eine Komponente zum Verwalten und Durchführen von Mehrspieler-Livequiz entwickelt werden. Um die Motivation der Nutzer zu erhöhen, soll diese an die unter der Zielgruppe verbreitetsten Nutzertypen des Hexad-Frameworks angepasst werden. Dazu wurde eine Umfrage mit Studierenden der TH Köln durchgeführt. Mithilfe der validen Antworten (N=52) wurde unter anderem die Verteilung der Übereinstimmung mit den sechs Nutzertypen Philanthropist,
Socializer, Free Spitit, Achiever, Player sowie Disruptor ermittelt. Neben der Übereinstimmung mit den Nutzertypen wurden auch verschiedene technische Daten wie Bildschirmauflösungen und verwendete Browser und Betriebssysteme erhoben, welche beim Testen der Anwendung eine optimale Darstellung derselben bei einem möglichst großen Anteil der Zielgruppe bedingen könnten. In mehreren Schritten, von einer Betrachtung etablierter Alternativen bis zur Entwicklung eines Wireframes, wurde eine konzeptuelle
Lösung entwickelt und realisiert. Dabei wurde ein Datenbankschema zur Speicherung der Quiz, Fragen und Antworten mitsamt einer API designt und angelegt. Das Ergebnis ist die Implementation einer Anwendung, welche alle Must-Have und mehrere Nice-To-Have Anforderungen erfüllt. Mit dieser können Quiz mit Fragen und Antworten erstellt, bearbeitet, gelöscht und in Quizräumen von mehreren Personen synchron gelöst werden. Es werden Zwischenergebnisse für die einzelnen Fragen und eine Rangliste mit den Endergebnissen eines Quiz angezeigt. Für eine Weiterentwicklung wurden acht
Verbesserungsansätze erdacht.
Customer Relationship Management (CRM) ist ein seit einiger Zeit in allen Managementpublikationen heiß diskutiertes Thema. Die Philosophie des CRM stellt den Kunden in den Mittelpunkt der Unternehmensaktivitäten und -prozesse, mit dem Ziel der größtmöglichen Ausschöpfung von Kundenpotentialen und damit einhergehender Umsatzmaximierung. Voraussetzung dafür ist die umfassende Kenntnis der Kundenbedürfnisse und eine daran orientierte Kommunikation mit dem Kunden. Dies Bedingt einen optimalen Überblick über alle zu einem Kunden verfügbaren Daten1. Dieses Ziel kann nur durch das unternehmensweite Zusammenspiel aller relevanter Unternehmensbereiche und -systeme erreicht werden. Das macht die Abkehr von der rein bereichsbezogenen bzw. funktionalen Organisation im Unternehmen, hin zu einem Denken in horizontalen, also abteilungsübergreifenden Geschäftsprozessen, notwendig. Dabei ist es Aufgabe der Informationstechnik, die Prozesse mit den notwendigen Werkzeugen zu unterstützen. Neben der Unterstützung und Verbesserung der Kommunikation zwischen Kunden, Unternehmen und den an den unternehmensinternen Prozessen beteiligten, liegt dabei ein Schwerpunkt in der Ausnutzung bereits vorhandener Daten. Diese schlummern häufig in den unterschiedlichsten Systemen verschiedener Abteilungen entlang der betrieblichen Wertschöpfungskette. Es gilt, die vorhandenen Quellen zu erschließen und in die Unterstützung aller horizontal integrierten Geschäftsprozesse einzubinden.
Aus Filmen wie „Star Trek“ kennen wir „Beamen“. Dort werden komplette Personen durch Beamen auf z.B. Planeten transportiert. Dies hört sich im ersten Moment sehr nach Science-Fiction an, allerdings ist das Beamen von Informationen seit ein paar Jahren sehr real geworden.
Nach einem Grundverständnis für herkömmliche Datenübertragungen wird die Quantenphysik vorgestellt mit ihren grundlegendsten Begriffen. Anschließend wird nun die Quantenteleportation vorgestellt. Einleitend dazu wird zuerst die Quantenverschränkung erklärt, auf der die Teleportation beruht. Es wird erklärt, wie solche Verschränkungen entstehen, um dann den Aufbau einer Teleportation mit den aktuellen Fortschritten vorzustellen sowie Ziele der Quantenteleportation zu beschrieben. Mit deren Hilfe werden Quantencomputern unterstützt.
Das Ziel dieser Arbeit war es aufzuzeigen, warum eine elektronische Unterstützung bei politischen Wahlen in Deutschland bislang noch nicht möglich ist. Weder die Nutzung von einem Wahlcomputer im Wahllokal noch eine Stimmabgabe über das Internet vom heimischen PC aus sind möglich. Da die Digitalisierung längst in allen Lebensbereichen Einzug gefunden hat und es selbst einem Kühlschrank möglich ist, per E-Mail Bescheid zu sagen, wenn keine Milch mehr da ist, verwundert es doch schon sehr, dass wir noch immer mit Stift und Unmengen von Papier unsere Volksvertreter wählen. Um dies zu verstehen, werden in dieser Arbeit die gesetzlichen Vorgaben für eine politische Wahl erläutert und deren Bedeutung für elektronisch unterstützte Wahlen aufgezeigt. Dabei liegt das Hauptaugenmerk auf einer Wahlmöglichkeit über das Internet. Es werden mögliche Chancen, Risiken und Anforderungen eines solchen Wahlverfahrens erörtert und gezeigt, warum eine technische Umsetzung so schwer ist und wie eine solche möglicherweise aussehen könnte. Außerdem werden die Themen eines elektronischen Personalausweises, der elektronischen Partizipation und deren Bedeutung für ein Internet-Wahlsystem erläutert sowie ein Blick darauf geworfen, wie andere europäische Länder dieses Thema behandeln.
An empirical evaluation of using the Swift language as the underlying technology of RESTful APIs
(2016)
The purpose of the current thesis is to determine the appropriateness of using the Swift language as the underlying technology for the development of RESTful APIs in a Linux environment. The current paper describes the process of designing, implementing and testing individual RESTful API components based on Node.js, PHP, Python and Swift and seeks to determine whether Swift is a viable alternative.
The thesis begins by defining a methodology for implementing and testing individual RESTful API components based on Node.js, PHP, Python and Swift. It then proceeds to detail the implementation and testing processes, following with an analytic discussion regarding the advantages and drawbacks of using the Swift language as the underlying technology for RESTful APIs and server-side Linux-based applications in general.
Based on the implementation process and on the results of the previously mentioned evaluation phase, it can be stated that the Swift language is not yet ready to be used in a production environment. However, its rapid evolution and potential for surpassing its competitors in the foreseeable future make it an ideal candidate for implementing RESTful APIs to be used in development environments.
In dieser Arbeit wird ein System zur Modellierung von IT-Compliance-Anforderun-gen in einer Graph-Datenbank entwickelt. Dabei werden organisationsinterne Com-pliance-Maßnahmen, ihre Umsetzungsdokumentation und die zwischen ihnen entstehenden Beziehungen berücksichtigt. Anschließend werden die Stärken und Schwächen des Systems anhand einer Erprobung mit Anforderungen an ein fiktives IT-Projekt der deutschen Versicherungsbranche herausgestellt und so die Praxistauglichkeit bewertet. Es wird unter anderem aufgezeigt, wie Compliance- Daten in die Datenbank aufgenommen werden können und welche Unterschiede es zu bisher verbreiteten Prozessen in diesem Gebiet gibt.
Das Ziel der vorliegenden Bachelorarbeit war es, das In-Memory-Konzept innerhalb einer Oracle Datenbank auf neue Mechanismen, Funktionen und Methoden zu untersuchen. Dazu wurde eine Datenbank erstellt und mit Beispieldaten bestückt. Diese Beispieldaten sind Aktienwerte der DAX-30 Unternehmen, welche durch eine Reihe von Indikatoren aus der technischen Analyse eine komplexe Möglichkeit der Analyse bieten. Die Ergebnisse bestätigen, dass das In-Memory-Konzept neben dem bekannten Spaltenformat eine Reihe von Techniken und Funktionen bietet, welche sich positiv bei der Verarbeitung von Daten durch Data Query Language-Befehle auswirken. Es kommen auch Nachteile, wie der flüchtige Speicher zum Vorschein, dennoch überwiegen die Vorteile stark. Nach einer Reihe von Tests wird deutlich, dass Objekte, die in den In-Memory-Column-Store geladen werden, nur 30 % der Zeit benötigen, um gelesen zu werden. Dies ist für die Verarbeitung von großen und komplexen Daten eine deutliche Verbesserung. Die Bachelorarbeit richtet sich an Studierende der Fachbereiche Informatik und BWL sowie an Interessierte im Bereich Datenbanken.
Aufgrund des Mangels an Softwareprodukten, die Projektmitarbeiter beim örtlich und zeitlich verteilten Arbeiten in Projekten effizient und zufriedenstellend unterstützen, soll ein ToDo-Manager entwickelt werden, der den Bedürfnissen der Benutzer gerecht wird und deren Anforderungen erfüllt. Valide Prototypen basieren auf Anforderungen der Benutzer und spiegeln deren Interaktion mit dem System wider. Die konstruierten Interaktionsentwürfe sollen in Prototypen abgebildet, evaluiert und überarbeitet werden, bis die Aufgaben der Benutzer durch die Dialogschritte abgebildet werden, sodass eine effiziente und zufriedenstellende Bearbeitung ermöglicht wird. Auf der Basis von ermittelten Nutzungsobjekten und Werkzeugen wird die Navigationsstruktur ermittelt sowie der Funktionsumfang des Systems definiert. Das User-Interface Design beschreibt die Entwicklung von Prototypen, die durch Benutzer evaluiert werden. Berücksichtigt werden neben der Interaktion auch gestalterische Aspekte. Die evaluierten Prototypen werden iterativ überarbeitet, damit ein gebrauchstaugliches Modell des ToDo-Managers entsteht. Ziel der Bachelorarbeit ist das Durchführen einer konzeptionellen und konkreten User Interface Design Phase, in denen die Entwicklung eines auf den Anforderungen der Benutzer basierenden demonstrierbaren und interagierbaren Prototypen für einen ToDo-Manager angestrebt wird.
Das Ziel dieser Arbeit ist es, einen generellen Überblick über die Zahlungsmittel und die Entwicklungen des Mobile-Payment zu gewinnen. Mit Hilfe diesen Überblicks und der Analyse des Kundenverhaltens als Grundlage zur Berechnung der monetären Auswirkungen in der Bargeldver- und Entsorgung konnten die Sparpotenziale eine Retailers in der Bargeldversorgung aufgezeigt werden.
Das Wissen nutzbar zu machen steht an zentraler Stelle. Heute wird der Mensch mit Informationsmengen konfrontiert und steht dadurch vor dem Problem einer enormen Informationsflut. In der schnelllebigen Zeit der IT-Technik (Information und Telekommunikation) soll eine innovative Methode die Informationsrecherche zeitlich verkürzen und eine individuell optimale Lösung für den Benutzer gefunden werden. Die gebrauchstaugliche Unterstützung heißt: Eine semantisch-webbasierte Visualisierung zur Unterstützung des Findens innerhalb des Semantic Web. Der Ansatz der Visualisierung liegt darin begründet, dass Menschen hauptsächlich über die Augen wahrnehmen und schnell Zusammenhänge erkennen können. Sogar blinde Menschen nutzen dazu ein mentales System, das visuell räumliches Skizzenblatt (scratch-pad), um Bilder bzw. die Umwelt zu verarbeiten. Der Vorteil liegt darin begründet, dass es einen schnellen direkten Zugriff auf das Arbeitsgedächtnis ermöglicht. Ein Anwendungsszenario im Bereich des Mobilfunks soll als Praxisbeispiel dienen. Bei der Vielzahl der angebotenen Handys mit den homogenen Leistungen findet kaum ein Kunde die Unterscheidungen und es gibt zurzeit keine Möglichkeit unter den Handys benutzungsfreundlich zu differenzieren noch ein optimales Handy zu finden. Am Beispiel von selbst dargestellten Szenarien und einer Evaluation wird erörtert, wie anhand von angenommenen Stakeholder, ein Zusammenspiel der Semantic Web Technologien eine jeweilige Lösung von verfügbaren Informationen aufgefunden und bearbeitet werden kann. Ziel bei der Anwendung ist es, ein Prototypen zu realisieren, dass gebrauchstauglich bei der Visualisierung von großen Datenmassen, auf Grundlage einer Empfehlung von Mobilgeräten in einem Webinterface, unterstützt. Das bereits geschriebene Praxisprojekt-Referat in Form eines Konzepts mit dem Thema: „Graphische Visualisierung von semantischen Daten in einem Webinterface“ dient dabei als Grundlage für diese Bachelorarbeit (siehe Kap. 8.2). Grundlage, Innovationen und Beispiele aus der Praxis sind ausführlich dort beschrieben worden. Dabei wurden die neusten Technologien unter den Kriterien der Häufigkeit in der Praxis, Plattformunabhängigkeit und der Flexibilität betrachtet. Künstlerisch gestalterische Disziplinen, die Produkte graphisch zum Glänzen bringen möchten oder welche, die sich mit den grundlegenden Technologien für semantische Daten sich beschäftigen, bleiben bei dieser Arbeit unbehandelt. Es geht im Schwerpunkt um eine Beantwortung der folgenden Forschungsfrage: Inwieweit sind graphische Repräsentationen vorteilhafter, um Wissen zu vermitteln, in Verhältnis zu textuellen Repräsentationen?
E-Business im Generellen und E-Government im Speziellen haben in den letzten Jahren immer mehr an Bedeutung gewonnen. Die Transformation der Verwaltungsprozesse auf elektronische Medien birgt eine Vielzahl von Potentialen für alle Beteiligten: Einrichtungen der öffentlichen Verwaltung, Bürger und Unternehmen. Dennoch ist es in den letzten Jahren bei solchen Projekten, insbesondere im A2B-Bereich, also der Kommunikation zwischen Verwaltung und Unternehmen, immer wieder zu Problemen gekommen. Das Ziel der Arbeit ist es deshalb die Erfolgsfaktoren von solchen E-Government-Projekten zu identifizieren.
Hierzu werden zunächst die Grundlagen des E-Business erläutert und die Begrifflichkeiten voneinander abgegrenzt. Insbesondere werden die verschiedenen Kategorien von beteiligten Akteuren, die generischen Ziele des E-Business und dessen Einflussfaktoren genannt, um so den Bezugsrahmen des E-Business zu definieren.
Darauf aufbauend werden die Anwendungsbereiche des E-Governments erläutert und die funktionale und strukturelle Unterscheidung der möglichen Szenarien dargestellt.
Im Hauptteil der Arbeit werden anschließend anhand von Literatur-Quellen und aktuellen Studien die sechs Erfolgsfaktoren analysiert, die sich bei der Implementierung von E-Government-Lösungen in der Vergangenheit gezeigt haben. Diese reichen von technischen Faktoren wie der Kompatibilität der Systeme und der Datensicherheit über den richtigen Umgang von Veränderungen mit Hilfe des Change Managements bis hin zu den unterschiedlichen Rollen der beteiligten Akteure.
In den folgenden Abschnitten werden einige Aspekte des E-Governments genauer fokussiert: die verschiedenen Architekturen und Standards, relevante Gesetze und die deutsche E-Government-Strategie sowie der internationale Vergleich von Deutschland im E-Government-Bereich. Dabei wird geprüft, welchen Einfluss diese Aspekte auf die identifizierten Erfolgsfaktoren haben.
Bevor das Fazit die gewonnenen Erkenntnisse zusammen fasst und eine Prognose des E-Governments in Deutschland gibt, werden die beiden Verfahren ELSTER als positives und ELENA als negatives Beispiel für E-Government-Projekte im A2B-Bereich vorgestellt.
Ziel dieser Arbeit ist die Entwicklung eines E-Learning Systems, welches als asynchrones und flexibles Online-Format frei zugänglich ist. Nach einer Zusammenfassung der wichtigsten theoretischen und rechtlichen Schulungsthemen, wird das System konzipiert und prototypisch entwickelt. Die Zielgruppe des Systems sind in erster Linie Einzelpersonen und Arbeitnehmer, welche eine Datenschutzschulung aufgrund von Nachweispflichten des Datenschutzgrundgesetzes benötigen.
Ziel ist die Analyse und die Implementierung eines Datenschutzmanagements, gemäß den geltenden EU-Datenschutzvorschriften, am Beispiel eines mittelständischen Unternehmens. Nach einer Zusammenfassung der wichtigsten theoretischen und rechtlichen Grundlagen, werden geeignete Methoden zur Umsetzung vorgestellt. Anschließend wird der Aufbau des Datenschutzmanagements analysiert und an einem Beispielunternehmen implementiert. Zielgruppe sind in erster Linie Unternehmen, Selbstständige oder Beschäftigte mit Datenschutzaufgaben.
Die Diplomarbeit “Entwicklung von automatischen Installationsroutinen von Services auf Basis von JavaEE” beschreibt den Entwurf und die Entwicklung eines Prototypen, um Services automatisiert auf einem JavaEE- Applikationsserver zu installieren. Zu Beginn werden die Konzepte eines JavaEE-Applikationsservers und der manuelle Installationsvorgang von Services auf diesem erläutert, die bei dem Installationsvorgang auftretenden Probleme dargelegt und analysiert. Im Anschluss daran werden mehrere verfügbare Produkte und eine Eigenentwicklung gegenübergestellt und bewertet. Abschließend werden Problemlösungen für den Installationsprozess erläutert sowie die Implementierung eines Prototypen beschrieben.
Die fortschreitende Verbreitung drahtloser Kommunikationsnetze sowie immer leistungsfähigerer mobiler Computer schafft ein großes Potenzial für ein breites Spektrum innovativer Anwendungen. Kontextsensitive Applikationen adaptieren die Gegebenheiten der jeweiligen Situation des Nutzers, wodurch neuartige, intelligente Anwendungen und Benutzungsschnittstellen möglich werden. Die zunehmende Menge verfügbarer Sensortechniken und die daraus resultierende Vielfalt erfassbarer Kontextinformationen erschweren jedoch vermehrt die Verbreitung dieser Applikationen. Ein Rahmenwerk zur Kontextrepräsentation soll die Entwicklung kontextsensitiver Applikationen ohne Berücksichtigung von Details der Kontexterfassung und -verwaltung ermöglichen. Außerdem sollen Austausch und Wiederverwendbarkeit von Kontextinformationen zwischen Applikationen und Nutzern gestattet werden. In dieser Arbeit wird ein solches Rahmenwerk entwickelt. Zu Beginn steht die Untersuchung von Fragen der Kontextmodellierung, auf deren Grundlage anschließend eine Konzeption erarbeitet wird. Der praktische Teil der Arbeit führt eine Referenzimplementation des Systems durch um zu evaluieren, ob die Konzeption auf Basis aktueller Technologien in die Realität umgesetzt, und als Grundlage für weitere Untersuchungen herangezogen werden kann.
Visual Inertial SLAM-Algorithmen können in der Augmented Reality für die
Erkennung und das Tracking der Umgebung genutzt werden.
Im Rahmen des Projekts Augmented Reality Campus habe ich das iOS-Open-SourceProjekt VINS-Mobile (Li et al., 2017) auf die Android-Plattform portiert. Den theoretischen Ansatz des zugrundeliegenden Algorithmus stelle ich vor. Im Anschluss an die Dokumentation der Portierung vergleiche ich die beiden Plattformen in mehreren Performance-Untersuchungen. Die Ergebnisse verwende ich, um die Frage zu beantworten, ob die Portierung für den Einsatz im AR Campus-Projekt geeignet ist.
Dabei komme ich zu dem Schluss, dass die Android-Portierung in Funktionsumfang
und Qualität der iOS-Version fast gleichzusetzen ist. Welche Arbeitsschritte bis zur Nutzbarkeit im Projekt AR Campus noch nötig sind, beschreibe ich am Ende der
Arbeit.
The topic for the thesis originated from the CAP4ACCESS project run by the European Commission and its partners, which deals towards the sensiti-zation of people and development of tools for awareness about people with movement disabilities. The explorative analysis is never ending and to explore and find interest-ing patterns and the results is a tedious task. Therefore, a scientific approach was very important. To start with, familiarizing the domain and the data sources were done. Thereafter, selection of methodology for data analysis was done which resulted in the use of CRISP-DM methodology. The data sources are the source of blood to the analysis methodology, and as there were two sources of data that is MICROM and OSM Wheelchair History(OWH), it was important to integrate them together to extract relevant datasets. Therefore a functional and technically impure data warehouse was created, from which the datasets are extracted and analysed.The next task was to select appropriate tools for analysis. This task was very important as the data set although was not big data but con-tained a large number of rows. After careful analysis, Apache spark and its machine learning library were utilized for building and testing supervised models. DataFrame API for Python, Pandas, the machine learning library Sci-kit learn provided unsupervised algorithms for analysis, the association rule analysis was performed using WEKA. Tableau[21] and Matplotlib[24] provide attractive visualizations for representation and analysis.
Für Anwendungen, die mit XML-Dokumenten arbeiten, kann es aus der Sicht eines Unternehmens sinnvoll sein, die Daten in einer relationalen Datenbank zu speichern. Sollte die Anwendung von sich aus nur mit nativen XML Datenbanken arbeiten und gar keine Anbindung an relationale Datenbanken vorsehen, sind umfassende Untersuchungen notwendig. Vor allem bei Redaktionssystemen, die für den Produktiv-Betrieb eines Unternehmens essentiell sind, darf es zu keinen Beeinträchtigungen durch die Datenhaltung kommen. Redaktionssysteme arbeiten zudem aufgrund ihrer Funktionsvielfalt mit verschieden strukturierten Dokumenten, an die unterschiedliche Anforderungen bestehen. Es müssen also optimale Strukturen für die einzelnen Dokument-Gruppen gefunden werden. Möglichkeiten XML-Dokumente in einer relationalen Datenbank zu speichern gibt es allerdings viele. Sei es ein nativer XML-Datentyp, ein Mapping auf Relationen oder gar ein hybrides Verfahren. Die Wahl der passenden Struktur wird nicht nur durch die Anwendung, die Nutzer und die Datenbanken beeinflusst, sondern auch durch die Struktur und die Nutzungskontexte der XML-Dokumente. Ziel dieser Arbeit ist es, anhand von ermittelten Kriterien, optimale Strukturen für verschiedenartige XML-Dokumente zu finden. Dazu werden neben dem Redaktionssystem, den Datenbanken und den Daten, auch verschiedene Strukturen untersucht. Abgesehen von den Strukturlösungen sollen die Erkenntnisse in dieser Arbeit dabei helfen, die native XML Datenbank des betroffenen Redaktionssystems durch eine relationale Datenbank zu ersetzen.
Entwicklung einer Suchmaschine unter Verwendung von Oracle 9iAS Portal und Oracle interMedia Text
(2002)
Für effizient geführte Unternehmen ist ein schnelles Zugreifen auf eigene Informationen über Intra- und Internet ohne Frage überlebenswichtig. Viele Firmen haben mit großem Aufwand Text-Dokumente innerhalb von Datenbanken strukturiert abgelegt. Diese Dokumente sind aber oft nur ein kleiner Bruchteil der im Betrieb anfallenden Dokumente. Internet-Seiten, E-mails, Faxe und viele andere Dokumente bleiben außen vor. Teilweise sind die in Datenbanken abgelegte Dokumente auch statisch, sie werden nicht oder nur aufwendig aktualisiert. Mitarbeiter und Öffentlichkeit müssen aber raschen Zugriff auf aktuelle und für Sie abgestimmte Informationen haben. Mitarbeiter sollten die Möglichkeit haben, Dokumente zu bearbeiten und eigene Dokumente für andere Mitarbeiter zur Verfügung zu stellen. Zudem sollte die Öffentlichkeit speziell für Sie aufbereitete Informationen über das Internet erhalten können. Der Zugriff auf unterschiedliche dynamische Dokumente geschieht idealerweise über einen gemeinsamen Gateway und ist plattformunabhängig. Diese Bereitstellung dynamischer Informationen stellt für den Betrieb einen großen Kostenvorteil dar. Ein Werkzeug, das diesen Ansatz verfolgt ist Oracle Portal. Alle Dokumente eines Betriebes werden in einer Oracle-Datenbank browserbasiert verwaltet. Es wird den Mitarbeitern eine einheitliche Oberfläche zur Verfügung gestellt über die sie weltweiten Zugriff auf die Dokumente haben. Eine produktive globale Verflechtung der Informationen wird möglich.
Die Zielsetzung dieser Thesis ist die aktuelle Situation von Blinden und Sehbehinderten in Bezug auf technische Hilfsmittel aufzuzeigen und auf mögliche Defizite und Handlungsbedarf hinzuweisen. Im Vorfeld wurde im Rahmen der Recherche eine Umfrage unter Betroffenen durchgeführt. Die Auswertung der Umfrage sowie eines ausführlichen Interviews ist ein wichtiger Bestandteil. Die Thesis soll IST-Grundlage für weitere Überlegungen, Weiterentwicklungen und Forschungsansätze im Bereich Blindeninformatik sein. Zu Beginn wird die Anatomie und Funktion des menschlichen Sehapparates erläutert. Ein weiterer Schwerpunkt der Thesis ist die geschichtliche Entwicklung von Hilfsmitteln. Anhand wichtiger Meilensteine, wie beispielsweise die Punktschrift, der Thermostift oder die Einführung des DAISY Standards wird die „Useability“ und auch die Akzeptanz in der Gesellschaft betrachtet. Anhand aktueller technischer Hilfsmittel werden Probleme und Lücken im Alltag erörtert. Der Verfasser ist selbst Betroffener und ergänzt die zusammengestellten Informationen durch eigene praxisorientierte Alltagserfahrungen. Im weiteren Verlauf werden neue technische Innovationen wie beispielsweise Touchscreens und Augmented Reality (AR) vorgestellt. Es wird einerseits auf aktuelle Entwicklungen eingegangen und Ausblicke auf zukünftige Anwendungsgebiete aufgezeigt, andererseits aber auch auf Gefahren bei der Verschmelzung von Realität und Virtualität hingewiesen. Abschließend werden die Feststellungen zusammengefasst und Denkanstöße für zukünftige Neu- und Weiterentwicklungen gegeben.
Untersuchung des Potentials Neuronaler Netze für Regelungsprozesse am Beispiel eines Betonverteilers
(2018)
Ziel der Arbeit ist die Entwicklung eines Ansatzes zur Nutzung Neuronaler Netze für die Steuerung eines Betonverteilers. Nach der Erläuterung der Grundlagen Neurona-ler Netze wird ein Netz entworfen und ein Test anhand realistischer Testdaten durch-geführt. Nach einer ausführlichen Beschreibung des Umfelds des Anwendungsfalls (Betonverteiler), sowie der Grundlagen Neuronaler Netze, ihrer Lernverfahren und ihrer Einsatzmöglichkeiten in der Regelungstechnik erfolgt der Entwurf eines Ansatzes zur Konstruktion eines Netzes für den Betonverteiler als Anwendungsfall sowie die Beschreibung der Implementation von Simulationsmodell und neuronalem Netz.
Vergleich verschiedener Lernmethoden neuronaler Netze bei der Analyse von „Social Media“ Inhalten
(2018)
The goal of this bachelor thesis was the comparison of different learning methods in neural networks. The methods were applied to detect hate posts on social media plat-forms like twitter. To achieve this, a supervised Recurrent Neural Network and a self-supervised Word2Vec model were implemented. The results of both implementations show the importance of choosing the correct dataset and a learning method generating significant results. The problems of both implementations were identified and formulated into possible solutions to achieve more accurate predictions in future. This thesis is of high interest for students and developers in the area of sentiment analysis.
Das Ziel der vorliegenden Masterthesis ist es, einen Überblick der verschiedenen Datenbanktypen und Leistungsanalysen zu geben. Die vergleichende Literaturstudie beschäftigt sich mit einem jungen Forschungsfeld und betrachtet insbesondere nichtrelationale NoSQL-Datenbanken, welche in den letzten Jahren immer beliebter geworden sind und einige Vorteile gegenüber relationalen Datenbanken aufweisen. Doch was können die konkreten Datenbankimplementierungen bei unterschiedliche Datenmodellen leisten und welcher Testaufbau bietet sich bei welchen Einsatzanforderungen an? Zu Anfang definiert diese Arbeit Kriterien zur Bewertung von Leistung und untersucht experimentelle Vorgehensweise verschiedener Forscher. Ein wichtiger Fokus liegt darauf, die Vergleichbarkeit der Messmethoden und Ergebnisse einzuschätzen und zu gewährleisten. Neben dem methodischen Vorgehen wird mit dem YCSB-Framework ein wichtiges Werkzeug besprochen, mit dem Leistungsmessungen in NoSQL-Datenbanken implementiert werden können.
Mittelständische Unternehmen erkennen zunehmend die Notwendigkeit einer systematischen Vertriebssteuerung und langfristigen Kundenbindung gerade in der heutigen gesamt- und weltwirtschaftlichen Lage, in der alle Märkte einem harten Konkurrenzdruck unterliegen. Um im aktuell vorliegenden Käufermarkt eine Kundenbindung bzw. –treue zu erlangen, ist die aktive Kundenbetreuung ein absolutes Musskriterium. Genau an diesem Punkt setzt das Customer Relationship Management (CRM) an. Der Kunde rückt zwar in den Mittelpunkt beim CRM, es darf dabei aber nicht die eigene Unternehmung vergessen werden. Der Kerngedanke einer jeden CRM-Lösung ist, die Kosten zu senken sowie den Gewinn der Unternehmung langfristig zu sichern. Um den Kerngedanken zu untermauern, bedient sich eine CRM-Lösung folgender Hilfsmittel, um am Markt eine Steigerung der Wettbewerbsfähigkeit durch eine erhöhte Kundenorientierung zu erlangen: Optimierung der internen Prozessabläufe (auf den Kunden ausgerichtet), Marktpotentialanalyse, automatisches Dokumentenmanagement, Email und CTI-Integration, Besuchplanung, Projektmanagement, verbessertes Service- und Supportangebot sowie ein Termin- und Ressourcenmanagement. Die Einführung einer CRM-Lösung in einem mittelständischen Unternehmen ist ein längerfristiges Projekt. Es reicht nicht aus, eine von den zahlreich vorhandenen CRM-Softwarelösungen zu implementieren, um eine überlebensfähige CRM-Lösung zu besitzen. Eine CRM-Software kann nur so gut sein, wie sich die Unternehmung im Vorfeld eine Strategie und Ziele an ein CRM gesetzt hat. Zusätzlich muss in der gesamten Unternehmung die Begeisterung und Akzeptanz für das CRM geschaffen und aufrecht erhalten werden, da CRM als eine eigenständige Philosophie zu verstehen ist. Nur wenn sich alle Mitarbeiter mit der CRM-Lösung identifizieren und diese aktiv leben, hat die CRM-Lösung Aussicht auf Erfolg.
Die Kommunikation via Chat konnte sich in den letzten Jahren neben Kommunikationsmedien wie E-Mail und Telefon in vielen Bereichen des alltäglichen Lebens etablieren. Textbasierter Chat weist jedoch, im Vergleich zu Face-to-Face-Kommunikation, gewisse mediale Einschränkungen auf. Nonverbale Signale wie Gestik und Mimik können, in Ermangelung eines visuellen Kanals, nicht direkt übertragen werden. Trotzdem findet auch im Chat ein Austausch nonverbaler Informationen statt, wie beispielsweise der Einsatz von Emoticons oder Pausen in Gesprächen. Verhaltensweisen bei nonverbaler Kommunikation enthalten Hinweise bezüglich der sozialen Beziehung der Gesprächspartner. Derartige nonverbale Signale können aus Chat-Protokollen extrahiert und analysiert werden. In dieser Arbeit beschäftigen wir uns mit der Analyse nonverbaler Daten aus Chat-Protokollen. Ziel ist die Einschätzung der Stärke einer sozialen Beziehung anhand eines multidimensionalen Analyse-Modells.
Datenbanken kommen beim Einstieg von Unternehmen in das Inter- oder Intranet eine besondere Bedeutung zu, denn dort sind für den Mitarbeiter bzw. für den Kunden wichtige Informationen vorhanden: Kundenverzeichnisse, Warenwirtschafts- systeme, Rohdaten für Marketinganalysen, Produktkataloge etc. Die einheitliche Einbettung, d.h. Veröffentlichung, dieser Daten war bislang aufgrund der Heterogenität der Betriebssysteme, Datenbanksysteme und der Anwendungen, die mit ihnen arbeiten, oftmals zu aufwendig. Ziel zur Effizienzsteigerung und Wirtschaftlichkeit sollte es jedoch sein, daß alle Mitarbeiter jederzeit Zugriff auf alle Informationen haben, die sie für ihre Aufgaben benötigen, ohne ihren Arbeitsplatz verlassen zu müssen. Dank des World Wide Webs (WWW) und Java ist eine einheitliche Wahl des Betriebssystems heute nicht mehr zwingend, da WWW und Java Anwendungen ermöglichen, die auf beliebigen Rechnern lauffähig sind. Somit lassen sich Informationen im Inter- oder Intranet überall darstellen. Auf der anderen Seite des Informationskanals stehen verschiedenste Arten von Datenbankmanagementsystemen (DBMS), die die benötigten Informationen bereithalten. Dies sind vor allem Adabas, DB2, Informix, MS SQL-Server, Oracle, Sybase, sowie einige kleinere Systeme. Um die Lücke von der Informationsbereithaltung bis hin zur Informations- darstellung zu schließen, hat Sun Microsystems einen Standard definiert, der es Java-Programmen ermöglicht, über das Inter- bzw. Intranet auf relationale DBMS zugreifen zu können. Dieser Standard wird als JDBC (Java Database Connectivity) bezeichet. Hierdurch werden dem Programmierer Klassen, Interfaces und Methoden zur Verfügung gestellt, die ihm den Informationszugriff über das Netz hinweg ermöglichen sollen.
Die Digitalisierung hat Auswirkung auf die Entwicklung von Produkten. Die Teams werden agiler, die Kunden haben als Eigentümer eines Produktes Mitspracherecht und bestimmen gemeinsamen mit den Entwicklern, welche Features als Nächstes aus dem vordefinierten Backlog in dem nächsten Sprint als Inkrement eingebaut und ausgeliefert werden. Durch die enge Zusammenarbeit werden die Release-Zyklen eines Produktes kürzer und es werden mehr Features als in der Vergangenheit bei nicht agilen Methoden deployt. Durch die kurzen Release-Zyklen werden viele unterschiedlichen Versionen ausgerollt. Dies hat zur Folge, dass Fehler, die vorher durch das Testen nicht entdeckt worden sind, auf einer produktiven Umgebung ausgerollt werden. Hat der Fehler eine starke Auswirkung auf die Benutzung der Anwendung, dann besteht die Möglichkeit, die Änderung manuell durchzuführen. Diese muss beim nächsten Release eingebaut werden. Wenn die Release-Zyklen länger werden, birgt es die Gefahr, dass viele manuelle Änderungen in der Zeit entstehen. Der ausgerollte Zustand entspricht nach einer bestimmten Zeit nicht mehr dem eingecheckten Zustand im Git-Repository. An der Stelle bietet der GitOps-Ansatz eine mögliche Abhilfe, um den ausgerollten Ist-Zustand durch regelmäßiges Pullen so nah wie möglich an dem im Repository eingecheckten Soll-Zustand zu halten.
In der Softwareentwicklung setzen sich vermehrt agile Methoden durch, die meist in kleineren Softwareprojekten Anwendung finden. Durch die intensive Einbeziehung des Kunden, Kommunikation innerhalb des Teams und kontinuierlichen Auslieferung soll die Softwarequalität gesteigert werden. So erhält der Kunde ein produktiv einsetzbares Softwareprodukt. Diese Bachelorarbeit gewährt einen Überblick über bekannte agile Prozesse und betrachtet im Detail den Scrum Prozess. Danach wird das Framework Oracle APEX vorgestellt und schließt mit einer Betrachtung zur Eignung der Einführung des Scrum Prozesses innerhalb APEX ab.
Mobile Systeme haben sich fest in den Alltag des Menschen in der westlichen Welt integriert. Sie helfen bei der Erledigung von Aufgaben der Benutzer und versuchen, deren Bedürfnisse bestmöglich zu erfüllen. Um dies zu erreichen, wurden verschiedene Lösungen entwickelt, dazu gehören kontextsensitive Anwendungen, die sich dadurch auszeichnen, dass sie ihr Verhalten nach den Belangen der Benutzer, bestimmt durch die jeweilige Situation, anpassen können. Zur Entwicklung solcher Anwendungen gibt es Rahmenwerke, um Problemen, bedingt durch die Komplexität dieses Bereiches, vorzubeugen und die Entwicklung zu erleichtern. Dabei spielt auch die Fähigkeit dieser Rahmenwerke, mehrere Anwendungen gleichzeitig zu bedienen, gerade bei steigender Popularität von kontextsensitiven Applikationen, eine entscheidende Rolle. Diese Arbeit beschäftigt sich mit der Konzeption und Umsetzung des Multiprozessbetriebes für kontextsensitive Anwendungen auf Basis eines bestehenden Rahmenwerkes. Innerhalb der Arbeit werden Anforderungen für den Multiprozessbetrieb ermittelt, auf deren Basis ein Konzept zur Erweiterung des Rahmenwerkes erstellt wird. Anhand des Konzeptes wird eine Implementierung des Rahmenwerkes auf der Android-Plattform durchgeführt, welche danach mittels der Durchführung eines Testszenarios mit mehreren Anwendungen evaluiert wird.
Informationen beim Eintreten eines Ereignis zu übermitteln, ist die Aufgabe ereignisorienterter Systeme. Für die Entwicklung solcher Systeme, gibt es eine Reihe von Technologien und Standards, welche je nach Plattform oder Anwendungskontext verschiedene Vorteile besitzen. Innerhalb dieser Seminararbeit werden die webbarsierten Systeme betrachtet, in dem auf die Konzepte von Light und Fat Ping, Publish-Subscribe sowie zentrale und dezentrale Architekturen eingegangen wird. Des Weiteren werden die Technologien XMPP, Googles C2DM, Amazon SNS und SQS, Twitter und Apples Push Notification beschrieben. Abschließend werden aus diesen Betrachtungen Merkmalsdimensionen abgleitet, die dabei helfen sollen, geeignete Lösungen in einem Anwendungskontext auszuwählen. Zusätzlich können diese bei der Konzeption von Systemen als Hilfestellung herangezogen werden.
Dublettenerkennung bezeichnet einen Prozess zur Ermittlung ähnlicher oder identischer Datensätze, die sich auf das gleiche Objekt der realen Welt beziehen. Eine besondere Bedeutung hat diese im Rahmen einer Datenbereinigung zum Beispiel nach dem Zusammenführen verschiedener Datenbestände mit möglichen Überlappungen. In diesem Zusammenhang haben sich in den letzten Jahren einige interessante Entwicklungen ergeben. Zum einen steigen die erfassten Datenmengen immer weiter an, so dass Algorithmen an Bedeutung gewinnen, die auch in solchen großen Datenbeständen effizient arbeiten. Zum anderen steigt durch die stärkere Verbreitung von Mehrkernprozessoren und die zunehmende Zentralisierung von IT-Diensten (vgl. Cloud Computing) auch der Bedarf an Lösungen, die in solchen Umgebungen optimal arbeiten und sich gut skalieren lassen. Der hier vorgestellte Lösungsansatz zur Dublettenerkennung kombiniert einen modernen und effizienten Algorithmus mit den Vorzügen einer zentralen und dienstorientierten Architektur.
Diese Arbeit untersucht die Transformation des Point of Sale im Lebensmitteleinzelhandel durch die Implementierung intelligenter Regalsysteme. Angesichts der zunehmenden Digitalisierung im Einzelhandel konzentriert sich die Untersuchung auf die technische Implementierung sowie die ökonomische und ökologische Bewertung dieser innovativen Systeme. Die Forschung wurde durch eine Kombination aus Literaturrecherche, Experteninterviews und Feldforschung durchgeführt. Die Literaturrecherche diente dazu, ein fundiertes Verständnis der technischen Grundlagen und Architekturen intelligenter Regalsysteme zu erlangen, während die Experteninterviews tiefe Einblicke in deren praktische Anwendung und ökonomische Implikationen lieferten. Die Feldforschung, fokussiert auf Supermärkte in der Region Köln, validierte die theoretischen Erkenntnisse und bot praktische Perspektiven auf die Nutzung dieser Technologie. Die Ergebnisse zeigen, dass intelligente Regalsysteme signifikante ökonomische Vorteile bieten, indem sie die Effizienz und Kundenerfahrung verbessern. Allerdings bestehen Herausforderungen bei der Integration in bestehende IT-Infrastrukturen sowie in Bezug auf Datenschutz und Sicherheit. Die ökologische Nachhaltigkeit dieser Systeme wurde kritisch hinterfragt, wobei die Expertenmeinungen variieren. Die Arbeit prognostiziert, dass intelligente Regalsysteme in den nächsten 5-10 Jahren weiterentwickeln und durch Innovationen wie KI, NLP und Blockchain-Technologie erweitert werden. Diese Entwicklungen prägen den Lebensmitteleinzelhandel und bieten ökonomische Vorteile. Die Vorteile für Nachhaltigkeit lassen sich nach einigen Experten
hinterfragen. Diese Studie leistet einen wichtigen Beitrag zur aktuellen Forschung im Bereich der Wirtschaftsinformatik und bietet praktische Einblicke für Akteure im Lebensmitteleinzelhandel. Sie hebt die Bedeutung einer strategischen Herangehensweise bei der Implementierung dieser Technologien hervor und betont die Notwendigkeit, die Balance zwischen technologischen Innovationen und menschlichen Aspekten des Einkaufserlebnisses zu finden. Die Untersuchung lässt einen Trend hinsichtlich der Entwicklung und verbreitung intelligenter Regalsysteme erkennen.
Ziel dieser Arbeit ist die Entwicklung eines Leitfadens für die Anpassung von Webseiten und unternehmensinternen Prozessen an die Vorgaben der neuen Datenschutz-Grund-verordnung. Die Zielgruppen dieses Leitfadens sind in erster Linie Einzelpersonen und Kleinunternehmen, die keine eigene Rechtsabteilung oder Arbeitsgemeinschaften ha-ben, die sich mit der Umsetzung der Datenschutz-Grundverordnung befassen können. Die erarbeiteten Erkenntnisse sind jedoch auch für mittelständische Unternehmen, Ver-eine und gemeinnützige Institutionen interessant.
Nach einer Erläuterung der technischen und rechtlichen Grundlagen, werden die wich-tigsten Neuerungen durch die Verordnung zusammengefasst. Anschließend werden die wesentlichen Probleme der Zielgruppen erläutert, leitfadenartig verschiedene Lösungs-ansätze vorgestellt und ein Fazit zur aktuellen Situation gezogen
Cloud Computing ist der zentrale Faktor zur Beschleunigung der Digitalisierung in Deutschland und wird in den kommenden Jahren eine wichtige Rolle in jedem deutschen Unternehmen spielen. Für Unternehmen wird es dabei um die Umsetzung von
Cloud-Strategien und die praktische Einbindung in die täglichen Betriebsprozesse gehen. Zusätzlich müssen Unternehmen ihre bestehende Datenlandschaft in moderne Architekturen zum Datenmanagement in die Cloud migrieren. Dabei können Unternehmen auf eine Vielzahl an unterschiedlichen unternehmensweiten Datenarchitekturen
zurückgreifen. Die vorliegende Masterarbeit gibt eine Einführung in die aktuelle Entwicklung von Cloud Computing und erläutert, mit Data Fabric, Data Lakehouse und Data Mesh, drei unternehmensweite Datenarchitekturen für die Cloud. Data Fabric, Data Lakehouse und Data Mesh bilden dabei aktuell die modernsten Konzepte für unternehmensweite Datenarchitekturen. Zusätzlich werden ein Data Lakehouse und ein Data Mesh in einer ausgewählten Cloud-Umgebungen entworfen, prototypisch aufgebaut und praktisch analysiert. Ziel der Masterarbeit ist es, die unternehmensweiten Datenarchitekturen in der Cloud zu erläutern, konkrete technologische Architekturen zu entwerfen und entsprechende Hinweise zu Aufwandstreibern in Unternehmen zu identifizieren.
Aufgrund der steigenden Nutzung mobiler Geräte und der Vielzahl persönlicher bzw. geschäftlicher Daten, die auf mobilen Geräte gespeichert und verarbeitet werden, sind mobile Geräte zu einem attraktiven Angriffsziel geworden. Ungeachtet des Schutzbedarfs hat sich die Sicherheitssoftware, wie man sie von stationären Systemen her kennt, auf mobilen Geräten bisher nicht durchsetzen können. Sicherheitsansätze stationärer Systeme können mobile Geräte zwar vor Bedrohungen schützen, jedoch sind diese Ansätze zu ressourcenintensiv für mobile Geräte, deren Rechenleistung und Akkukapazität relativ begrenzt ist. Um den Schutzbedarf mobiler Geräte und deren Anwendungen unter Berücksichtigung der begrenzten Ressourcen zu erfüllen, wird in dieser Arbeit ein Architekturmodell konzipiert, das Anwendungen, abhängig von Bedrohungen, Sicherheitsmaßnahmen bereitstellt. Anders als beim Sicherheitsansatz stationärer Systeme werden nur die Sicherheitsmaßnahmen umgesetzt, die aufgrund der aktuellen Bedrohungen notwendig sind. Ermöglicht wird die adaptive Bereitstellung von Sicherheitsmaßnahmen durch einen in dieser Arbeit vorgestellten Ansatz, der die Ermittlung von Bedrohungen und geeigneter Maßnahmen aus Kontextinformationen und Erfahrungswerten zulässt. Zuletzt wird die Realisierbarkeit des Architekturmodells anhand einer prototypischen Implementierung nachgewiesen.
Die vorliegende Arbeit beschäftigt sich mit dem elektronischen Management von Bewerbungen und Bewerberinformationen im Kontext mittelständischer Unternehmen in Deutschland. Nach einer kurzen Einführung wird der Begriff Web 2.0 sowie die mit diesem einhergehenden Trends und Entwicklungen genauer beschrieben. Nachfolgend werden bestehende marktübliche Systeme für das Management von Bewerbungen miteinander verglichen. Nachdem ein Überblick über das Themenfeld gewonnen wurde, wird der Prozess des Bewerbermanagements selbst, sowie die damit verbundenen Aufgaben im Unternehmen erhoben und analysiert. Eine Befragung der involvierten Mitarbeiter, welche Unterstützung sich diese bei der Durchführung ihrer Aufgaben von einem System wünschen, rundet die Analyse ab. Die Frage, welche Kanäle, Informationsdarstellungen und Controllingmechanismen ein System bieten muss, um maximalen Mehrwert bei der Bewerberansprache und -auswahl bieten zu können, wird in Form eines Grobkonzeptes aufgegriffen. Die dort gesammelten Ideen werden dann in einem weiteren Schritt zusammengeführt, gruppiert und konkreten Modulen zugeordnet. Eine Realisierung ausgewählter Systemkomponenten sowie der Dokumentation des Entwicklungsprozesses schließt den Kernteil ab. Abgeschlossen wird die Arbeit mit einem Ausblick, welche weiteren Entwicklungsschritte möglich sind sowie mit einem Fazit, in dem persönliche Eindrücke während der Bearbeitung des Themas kurz skizziert werden.
Text-Mining auf Basis von SAP HANA am Beispiel von Social-Media-Beiträgen eines Handelsunternehmens
(2018)
Die wesentlichen Hauptthemen, die in der vorliegenden Arbeit miteinander in Zusammenhang stehen, sind die Anwendung von Verfahren im Text-Mining und die IMDB, HANA, des europäischen Softwareherstellers SAP. Hierbei soll die HANA-Technologieplattform als Basis verwendet werden, um ein Text-Mining-Anwendungsfall zu bearbeiten, die die Analyse von Social-Media-Beiträgen vorsieht.
Diese Masterarbeit beschäftigt sich mit der Visualisierung von Leistungs- und sportmedizinischen Daten aus Athletenakten. Nach einer kurzen Einleitung wird zunächst die Aufgabe beschrieben. Hier wird auf die Anforderungen an die zu entwickelnde Komponente eingegangen. Anschließend werden die vorhandenen Leistungs- und sportmedizinischen Daten beschrieben. Dabei wird zunächst die Tabellenstruktur der zugrundeliegenden Datenbank inklusive der XML-Spalten beschrieben.Weiterhin werden die XML-Dateien aufgeführt, in denen die Athletendaten gespeichert werden. Im folgenden Kapitel werden grundlegende Visualisierungstechniken vorgestellt und am Avatar angewendet. Neben den Techniken werden anschließend verschiedene Visualisierungstechnologien beschrieben und eine begründete Auswahl getroffen. Das nächste Kapitel beschreibt neben der Visualisierungstechnologie weitere, verwendete Technologien wie Programmiersprache und Serverarchitektur. Eine Vorstellung der entwickelten Komponenten sowie ein Ausblick und Fazit runden in den letzten beiden Kapiteln die Arbeit ab.
Machbarkeitsanalyse über den Aufbau eines Enterprise Data Warehouse auf Basis von Apache Hadoop
(2016)
Die vorliegende Masterthesis liefert eine Einführung in die Themen Data Warehouse, Big Data und Apache Hadoop. Sie präsentiert grundlegende Data-Warehouse-Kon-zepte und überprüft, inwieweit diese mit dem Apache Hadoop Software Framework zu realisieren sind. Hierbei wird sowohl eine technische Überprüfung vorgenommen als auch verschiedene Szenarien veranschaulicht, wie Hadoop inhaltlich sinnvoll in bestehende Systeme integriert werden kann. Inhaltlich wird über das Thema Big Data an die Notwendigkeit einer solchen Überprüfung herangeführt.
Ziel dieser Diplomarbeit war die Neuentwicklung eines bereits bestehenden Softwareprodukts, welches in einem firmeneigenen Intranet als Backend-System zum Einsatz kommt. Es werden die Konzeptplanung, die verwendeten Technologien und die Phasen der Programmierung bis hin zur Einbindung ins System erläutert. Zur schnellen Orientierung, folgt zuerst eine kurze Kapitelübersicht.
Mit der zunehmenden Bedeutung von Geodaten stellt sich die Frage, welche Indices für welche Anwendungszwecke geeignet sind. Ziel dieser Arbeit ist es, dies am Beispiel von je drei Quadtrees (quadtree, bucket-pr-quadtree, mx-cif quadtree), kd-trees (kd-tree, four-dimensional kd-tree, kdb-tree) und r-trees (guttman r-tree, str-tree, r*-tree) sowohl für statische wie auch dynamische Geodaten zu untersuchen. Als Variante der dynamischen Daten werden zudem Bewegungsdaten betrachtet. Der Vergleich erfolgt sowohl theoretisch, weshalb alle genannten Indices detailliert vorgestellt werden, als auch praktisch. Dazu wurde eine Testumgebung in Java realisiert, die das gezielte Testen von bestimmten Operationen auf den Indices ermöglicht. Als Ergebnis des theoretischen Vergleichs werden verschiedene Charakteristika den Indices zugeordnet, die eine grobe Vorabauswahl ermöglichen. Der praktische Vergleich zeigt anschließend die Resultate differenziert nach Punktgeometrien, Nicht Punktgeometrien und Bewegungsdaten. Als Resultat wird eine generell gute Eignung der r-trees und insbesondere des str-trees dargestellt. Gleichzeitig wird aber auch darauf hingewiesen, dass es Anwendungsszenarien (z.B. langsame I/O) gibt, in denen eine andere Wahl getroffen werden sollte.