E. Data
Refine
Year of publication
Document Type
- Bachelor Thesis (12)
- Master's Thesis (6)
- Article (2)
- Working Paper (2)
Has Fulltext
- yes (22)
Keywords
- Datenschutz (4)
- Big Data (3)
- Barrierefreiheit (2)
- DSGVO (2)
- Digitalisierung (2)
- E-Learning (2)
- Hadoop (2)
- Messenger (2)
- NoSQL-Datenbanksystem (2)
- Oracle 12c (2)
Faculty
- Fakultät 10 / Institut für Informatik (11)
- Fakultät 01 / Institut für Medienforschung und Medienpädagogik (2)
- Fakultät 09 / Cologne Institute for Renewable Energy (2)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (2)
- Fakultät 10 / Advanced Media Institute (2)
- Fakultät 07 / Institut für Nachrichtentechnik (1)
- Fakultät 10 / Cologne Institute for Digital Ecosystems (1)
- Fakultät 12 / Institut für Technologie und Ressourcenmanagement in den Tropen und Subtropen (1)
Diese Arbeit wertet Leistellendaten von zwei Landkreisen aus und untersucht dabei, welche Veränderung hinsichtlich der mittleren Anzahl und Dauer von Rettungsdiensteinsätzen im Zeitraum der COVID-19-Pandemie aufgeteilt nach Stunden- und Tageskategorien besteht. Anschließend werden die Veränderungen von Anzahl und Dauer beider Landkreise verglichen, um diese auf Unterschiede zu prüfen. Da in der aktuellen Literatur unzureichend dargelegt ist, wie Veränderungen des Einsatzanzahl oder -dauer im Rettungsdienst zwischen Kreisen sowie über die Tage und Tagesstunden verteilt sind, trägt diese Untersuchung dazu bei diese Forschungslücke zu schließen. Die statistische Auswertung der Leitstellendaten umfasst mehrere Schritte, sodass zuerst eine Aufbereitung durchgeführt wird, bevor die mittlere Einsatzanzahl und -dauer für vier Zeiträume sowie die prozentuale Veränderung zwischen einem Zeitraum vor und drei Zeiträumen während der Pandemie ermittelt werden. Im Anschluss wird die Veränderung mittels Kruskal-Wallis-Test beziehungsweise Varianzanalyse nach Welch auf Signifikanz überprüft. Abschließend erfolgt ein qualitativer Vergleich zwischen den Kreisen. Die Untersuchung zeigt, dass hinsichtlich Einsatzanzahl und -dauer zu allen drei Zeitraumen in der Pandemie Zu- und Abnahmen auftreten. Die Anzahl nimmt zum ersten Zeitraum in beiden Kreisen überwiegend ab, sowie zum vierten Zeitraum mehrheitlich zu, während zum zweiten Zeitraum im Lahn-Dill-Kreis eine häufigere Abnahme und im Main-Taunus-Kreis eine geringfügig überwiegende Zunahme vorliegt. Die Einsatzdauer unterliegt zum zweiten Zeitraum im Lahn-Dill-Kreis einer überwiegenden Zunahme und im Main-Taunus-Kreis einer überwiegenden Abnahme, während zum dritten sowie vierten Zeitraum in beiden Kreisen einer Steigerung stattfindet. Im Vergleich beider Gebietskörperschaften zeigen bei der Einsatzanzahl die Veränderungen zum zweiten und vierten Zeitraum und bei der Dauer die Veränderungen zum dritten und vierten Zeitraum mit der Mehrheit der Stundenkategorien Gemeinsamkeiten. Das Pandemiegeschehens sowie die nichtpharmazeutischen Interventionen sowie deren Folgen stellen Faktoren für die Veränderung von Einsatzanzahl und -dauer dar. Die geografische Lage sowie die lokale Ausgestaltung von Rettungsdienst und Krankentransport begründen, zusätzlich zu den oben genannten Aspekten, Unterschiede zwischen den Kreisen.
Vergleich von verteilten Datenbanksystemen hinsichtlich ihrer Clusterbildung und Skalierbarkeit
(2017)
Die vorliegende Ausarbeitung geht der Frage nach, wie sich die Datenbankmanagementsysteme MariaDB, MongoDB und Cassandra hinsichtlich ihres Clusteraufbaus,
sowie den damit verbundenen Möglichkeiten der Skalierbarkeit unterscheiden. Dazu werden zunächst Grundlagen zum Aufbau von verteilten Datenbanksystemen, zu den verschiedenen Transaktionskonzepten, sowie zu den möglicherweise auftretenden Probleme vermittelt. Anschließend werden die drei Systeme im Detail untersucht und herausgearbeitet, wie sie genau funktionieren und in welchen Punkten sie sich von einander unterscheiden. Als Abschluss wird ein Fazit gezogen, welches System in verteilten Computerumgebungen
am geeignetsten ist, insofern ein klarer Sieger hervorgeht.
Der digitale Schwarzmarkt mit gestohlenen Daten floriert. Alleine im Jahr 2015 wurden über eine halbe Milliarde Datensätze aus Datenbanksystemen entwendet. Viele Unternehmen bemerken den Sicherheitsvorfall selbst nicht oder geben aus Angst vor einem Imageschaden den Vorfall nicht bekannt. Sind die Datenbestände nicht durch effektive Sicherheitsmechanismen vor Datendiebstahl geschützt, können Cyberkriminelle leicht aus den gestohlenen Daten Kapital schlagen. Die Softwarehersteller von Datenbanksystemen bieten für ihre Produkte unterschiedliche Schutzvorkehrungen an. Ziel dieser Ausarbeitung ist es, die Bedrohungen und die Sicherheitsrisiken von Datenbanksystemen aufzuzeigen und daraus die Aspekte der Datenbanksicherheit abzuleiten. Die ausgearbeiteten Sicherheitsaspekte bilden die Grundlage für den Vergleich der Datenbanksicherheit von relationalen Datenbanklösungen. Die anschließende Bewertung dient dem Nachweis und der Überprüfbarkeit der Datenbanksicherheit relationaler Datenbanksysteme.
Das Ziel der vorliegenden Bachelorarbeit war es, das In-Memory-Konzept innerhalb einer Oracle Datenbank auf neue Mechanismen, Funktionen und Methoden zu untersuchen. Dazu wurde eine Datenbank erstellt und mit Beispieldaten bestückt. Diese Beispieldaten sind Aktienwerte der DAX-30 Unternehmen, welche durch eine Reihe von Indikatoren aus der technischen Analyse eine komplexe Möglichkeit der Analyse bieten. Die Ergebnisse bestätigen, dass das In-Memory-Konzept neben dem bekannten Spaltenformat eine Reihe von Techniken und Funktionen bietet, welche sich positiv bei der Verarbeitung von Daten durch Data Query Language-Befehle auswirken. Es kommen auch Nachteile, wie der flüchtige Speicher zum Vorschein, dennoch überwiegen die Vorteile stark. Nach einer Reihe von Tests wird deutlich, dass Objekte, die in den In-Memory-Column-Store geladen werden, nur 30 % der Zeit benötigen, um gelesen zu werden. Dies ist für die Verarbeitung von großen und komplexen Daten eine deutliche Verbesserung. Die Bachelorarbeit richtet sich an Studierende der Fachbereiche Informatik und BWL sowie an Interessierte im Bereich Datenbanken.
Habitat loss due to land use and land cover change (LUCC) has been identified as the main cause of global environmental change, responsible for biodiversity decline and the deterioration of ecological processes. Habitat loss and fragmentation have been driven by
processes of LUCC such as deforestation, agricultural expansion and intensification, urbanization, and globalization. The objective of this research was to determine the effects of LUCC on the process of habitat loss and the patterns of fragmentation in the surrounding landscape of the Pacuare Reserve (PR) in the Caribbean lowlands of Costa Rica. The PR is a protected area of 800 ha surrounded by an agricultural landscape with a history of over 150 years of bananas monocultures. Landsat satellite images from 1978 to 2020 were used to conduct a temporal analysis of LUCC around the PR. Patterns of change were explored using landscape metrics from the land classification images. To explore potential connectivity routes, the least cost path analysis was used to connect the PR to other protected areas. Overall, forest cover decreased in the study area at a rate of -4.8% per year during the period of 1992-1997. In the year 2001 it reached its lowest cover and then increased at a mean annual rate of 1.6%. A mean overall accuracy of 92% was obtained for the land classification process. A clear fragmentation process was observed, as shown by a decreased in forest mean patch area and largest patch index and by the increase in patch density. Although forest cover increased in the last decade, fragmentation metrics suggest this recover happened in a spatially scattered manner, due to agricultural land abandonment. Connectivity maps showed the importance of forest fragments and of the already established biological corridors for the movement of species to and from the PR, however it also evidenced the lack of connectivity between the coastal forest fragments and further inside the country located protected areas, as well as the need to promote reforestation projects, particularly between fragments of the corridors identified.
A bifacial Photovoltaic (PV) simulation model is created by combining the optical View Factor matrix with electrical output simulation in python to analyse the energy density of bifacial systems. A discretization of the rear side of the bifacial modules allows a further investigation of mismatching and losses due to inhomogeneous radiation distribution. The model is validated, showing a deviation of -1.25 % to previous simulation models and giving hourly resolvedoutput data with a higher accuracy than existing software for bifacial PV systems.
In this study the link between renewable energies and employment in Senegal is analyzed.
The Sustainable Livelihood Approach is used to understand the investigated situation in a holistic view. To successfully implement renewable energies in Senegal and to have a significant impact on the employment market, the governmental framework and the technical education has to improve, to match the needs of the labor market.
Rural communities do not have all the assets to lift themselves out of poverty and disadvantages by the usage of renewable energy. Solar irrigation, off-grid systems and solar devices impact the level of education and the labor force in rural areas in Senegal.
Moreover, access to a reliable energy source improves people’s livelihood in terms
of health, education, income and employment.
The resulting employment effect of adding 20 MW with the solar power plant Senergy 2 can be estimated with 28.686 created jobs (0,54 % of total employment).
Upcoming power projects offer employment opportunities for graduates of the master study renewable energies. Furthermore, the demand of specialized engineers and
technicians in the distribution and project planning sector will rise.
A test tool for Langton's ant-based algorithms is created. Among other things, it can create test files for the NIST-Statistical-Test-Suite. The test tool is used to investigate the invertibility, ring formation and randomness of 7 created models which are extensions of Langton’s ant. The models are examined to possibly use them as pseudo-random generator (PRG) or block cipher. All models use memories which are based on tori. This property is central, because this is how rings are formed in the first place and in addition the behavior of all models at the physical boundaries of the memory is clearly defined in this way. The different models have special properties which are also investigated. These include variable color sets, discrete convolution, multidimensionality, and the use of multiple ants, which are arranged fractal hierarchically and influence each other. The extensions convolution, multidimensional scalable and multidimensional scalable fractal ant colony are presented here for the first time. It is shown that well-chosen color sets and high-dimensional tori are particularly well suited as a basis for Langton's ant based PRGs. In addition, it is shown that a block cipher can be generated on this basis.
The topic for the thesis originated from the CAP4ACCESS project run by the European Commission and its partners, which deals towards the sensiti-zation of people and development of tools for awareness about people with movement disabilities. The explorative analysis is never ending and to explore and find interest-ing patterns and the results is a tedious task. Therefore, a scientific approach was very important. To start with, familiarizing the domain and the data sources were done. Thereafter, selection of methodology for data analysis was done which resulted in the use of CRISP-DM methodology. The data sources are the source of blood to the analysis methodology, and as there were two sources of data that is MICROM and OSM Wheelchair History(OWH), it was important to integrate them together to extract relevant datasets. Therefore a functional and technically impure data warehouse was created, from which the datasets are extracted and analysed.The next task was to select appropriate tools for analysis. This task was very important as the data set although was not big data but con-tained a large number of rows. After careful analysis, Apache spark and its machine learning library were utilized for building and testing supervised models. DataFrame API for Python, Pandas, the machine learning library Sci-kit learn provided unsupervised algorithms for analysis, the association rule analysis was performed using WEKA. Tableau[21] and Matplotlib[24] provide attractive visualizations for representation and analysis.