E. Data
Refine
Year of publication
Document Type
- Bachelor Thesis (12)
- Master's Thesis (6)
- Article (2)
- Working Paper (2)
Has Fulltext
- yes (22)
Keywords
- Datenschutz (4)
- Big Data (3)
- Barrierefreiheit (2)
- DSGVO (2)
- Digitalisierung (2)
- E-Learning (2)
- Hadoop (2)
- Messenger (2)
- NoSQL-Datenbanksystem (2)
- Oracle 12c (2)
Faculty
- Fakultät 10 / Institut für Informatik (11)
- Fakultät 01 / Institut für Medienforschung und Medienpädagogik (2)
- Fakultät 09 / Cologne Institute for Renewable Energy (2)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (2)
- Fakultät 10 / Advanced Media Institute (2)
- Fakultät 07 / Institut für Nachrichtentechnik (1)
- Fakultät 10 / Cologne Institute for Digital Ecosystems (1)
- Fakultät 12 / Institut für Technologie und Ressourcenmanagement in den Tropen und Subtropen (1)
Der digitale Schwarzmarkt mit gestohlenen Daten floriert. Alleine im Jahr 2015 wurden über eine halbe Milliarde Datensätze aus Datenbanksystemen entwendet. Viele Unternehmen bemerken den Sicherheitsvorfall selbst nicht oder geben aus Angst vor einem Imageschaden den Vorfall nicht bekannt. Sind die Datenbestände nicht durch effektive Sicherheitsmechanismen vor Datendiebstahl geschützt, können Cyberkriminelle leicht aus den gestohlenen Daten Kapital schlagen. Die Softwarehersteller von Datenbanksystemen bieten für ihre Produkte unterschiedliche Schutzvorkehrungen an. Ziel dieser Ausarbeitung ist es, die Bedrohungen und die Sicherheitsrisiken von Datenbanksystemen aufzuzeigen und daraus die Aspekte der Datenbanksicherheit abzuleiten. Die ausgearbeiteten Sicherheitsaspekte bilden die Grundlage für den Vergleich der Datenbanksicherheit von relationalen Datenbanklösungen. Die anschließende Bewertung dient dem Nachweis und der Überprüfbarkeit der Datenbanksicherheit relationaler Datenbanksysteme.
In dieser Bachelorarbeit wird das Thema Big Data und die damit verbundenen Technologien, sprich NoSQL und Hadoop behandelt. Das Thema wurde bewusst ausgewählt, weil sie zum einen aktuell und zum anderen immer mehr an Bedeutung, aus Sicht der Unternehmen gewinnt. Durch die ständig anwachsenden Daten, die zu 80% in Semistrukturierter Form vorliegen, stößt die IT-Infrastruktur eines Unternehmens schnell an seine Grenzen. Und genau an dieser Stelle sollen die Big Data Technologien, wie „NoSQL“ und „Hadoop“, helfen, die so großen Datenmengen zu verarbeiten, um für das Unternehmen, wertvolle Informationen zu liefern, die bislang nicht ersichtlich waren.
Im Zusammenhang mit dem Begriff Big Data können nicht nur immer größere Datenmengen verarbeitet werden, sondern auch neue Arten von Datenquellen genutzt werden. Insbesondere Web 2.0-Inhalte bieten dabei vielfältige Potenziale.
So können beispielsweise mit Hilfe einer Sentiment-Analyse Meinungen und Stimmungen zu Produkten und Unternehmen in sozialen Netzwerken beobachtet werden. Diese Infor-mationen sind für sich gesehen bereits wertvoll für viele Unternehmen. Jedoch ist eine effiziente Analyse und Auswertung der Informationen nur in Kombination mit weiteren Unternehmensdaten möglich, die typischerweise in einem Data Warehouse liegen. Diese Arbeit diskutiert die Unter-schiede, Möglichkeiten und Herausforde-rungen diese Kombination zu realisieren. Veranschaulicht wird dies durch einen Show-Case, der eine Ende-zu-Ende-Umsetzung
am Beispiel der Fernsehsendung Tatort zeigt. Dabei werden Zuschauerkommentare
aus Twitter extrahiert, mit einer Sentiment-Analyse bewertet und schließlich in einem Data Warehouse ausgewertet. Dabei können klassische BI-Kennzahlen, wie beispiels- weise Einschaltquoten, Folgen pro Ermittler etc. den Ergebnissen der Sentiment-Analyse gegenübergestellt werden.
In this study the link between renewable energies and employment in Senegal is analyzed.
The Sustainable Livelihood Approach is used to understand the investigated situation in a holistic view. To successfully implement renewable energies in Senegal and to have a significant impact on the employment market, the governmental framework and the technical education has to improve, to match the needs of the labor market.
Rural communities do not have all the assets to lift themselves out of poverty and disadvantages by the usage of renewable energy. Solar irrigation, off-grid systems and solar devices impact the level of education and the labor force in rural areas in Senegal.
Moreover, access to a reliable energy source improves people’s livelihood in terms
of health, education, income and employment.
The resulting employment effect of adding 20 MW with the solar power plant Senergy 2 can be estimated with 28.686 created jobs (0,54 % of total employment).
Upcoming power projects offer employment opportunities for graduates of the master study renewable energies. Furthermore, the demand of specialized engineers and
technicians in the distribution and project planning sector will rise.
A bifacial Photovoltaic (PV) simulation model is created by combining the optical View Factor matrix with electrical output simulation in python to analyse the energy density of bifacial systems. A discretization of the rear side of the bifacial modules allows a further investigation of mismatching and losses due to inhomogeneous radiation distribution. The model is validated, showing a deviation of -1.25 % to previous simulation models and giving hourly resolvedoutput data with a higher accuracy than existing software for bifacial PV systems.
Ziel dieser Arbeit ist die Entwicklung eines Leitfadens für die Anpassung von Webseiten und unternehmensinternen Prozessen an die Vorgaben der neuen Datenschutz-Grund-verordnung. Die Zielgruppen dieses Leitfadens sind in erster Linie Einzelpersonen und Kleinunternehmen, die keine eigene Rechtsabteilung oder Arbeitsgemeinschaften ha-ben, die sich mit der Umsetzung der Datenschutz-Grundverordnung befassen können. Die erarbeiteten Erkenntnisse sind jedoch auch für mittelständische Unternehmen, Ver-eine und gemeinnützige Institutionen interessant.
Nach einer Erläuterung der technischen und rechtlichen Grundlagen, werden die wich-tigsten Neuerungen durch die Verordnung zusammengefasst. Anschließend werden die wesentlichen Probleme der Zielgruppen erläutert, leitfadenartig verschiedene Lösungs-ansätze vorgestellt und ein Fazit zur aktuellen Situation gezogen
Eine gängige Form der Qualitätskontrolle von Quellcode sind Code Reviews. Der Fokus von Code Reviews liegt allerdings oft auf syntaktischer Analyse, wodurch weniger Zeit für eine semantische Überprüfung bleibt und zusätzliche Kosten verursacht werden. Code Reviews lassen sich zwar teilweise durch "Linter" automatisieren, dennoch können sie nur syntaktische Fehlermuster identifizieren, welche vorher definiert wurden. Zudem kann ein Linter nur darauf hinweisen, dass möglicherweise ein Fehler vorliegt, da die Fehler nicht durch logische Inferenz ermittelt werden. Die vorliegende Arbeit prüft, ob ein Deep Learning Modell den regelbasierten Ansatz von Lintern ablösen und die semantische Ebene erschließen kann. Dazu wurde eine Stichprobe von Java Methoden zusammengestellt und im Anschluss mit einem Supervised Learning Ansatz binär klassifiziert. Da die Analyse von Quellcode der Textanalyse stark ähnelt wird ein gängiger Ansatz für Textklassifikation verwendet. Dadurch kann gezeigt werden, dass eine Präzision von 85% bei der Erkennung von Quellcodeproblemen durch Deep Learning möglich ist.
Das Suchen ist eine der, wenn nicht die am häufigsten durchgeführte Tätigkeit im Internet. Täglich werden Suchmaschinen mit Problemen aus aller Welt und aller Domänen befragt, in der Hoffnung, dass das Internet eine Lösung bereitstellt. Neben dem Web der Dokumente, welches überwiegend die großen Suchmaschinenhersteller wie Google und Microsoft durchsuchen, existiert auch das weniger bekannte Web der Daten. In diesem Teil des Internets werden Daten, keine Dokumente, in einem festen Format kodiert.
Dadurch soll die Möglichkeit geschaffen werden, dass nicht nur Menschen, sondern auch Maschinen, diese Daten verarbeiten können. Die Daten enthalten untereinander Verlinkungen, weswegen man auch von Linked Data spricht. Mit der vom W3C standardisierten Abfragesprache SPARQL ist es möglich, diese Daten nach selbst definierten Kriterien abzufragen.
Diese Arbeit befasst sich mit der Entwicklung einer SPARQL Abfrage zur Ermittlung von Sehenswürdigkeiten in Köln. Anhand dieses Anwendungsbeispiels soll beschrieben werden, inwieweit Linked Data in der Lage ist, mit Problemen und Fragestellungen des Alltags umzugehen. Es wird sich zeigen, dass es grundsätzlich möglich ist, derartige Anwendungsszenarien mit Linked Data zu lösen. Ein umfassendes Suchergebnis, welches beispielsweise Reiseführer geben, konnte jedoch nicht erzielt werden. Grund dafür sind hauptsächlich, wie in dieser Arbeit dargelegt wird, inkonsistente Daten. Um diese Beobachtung aufstellen zu können, wurden präzisere Suchkriterien für Sehenswürdigkeiten spezifiziert.Weitere Auffälligkeiten, die während der Entwicklung bemerkt wurden, wurden entsprechend dokumentiert.
A test tool for Langton's ant-based algorithms is created. Among other things, it can create test files for the NIST-Statistical-Test-Suite. The test tool is used to investigate the invertibility, ring formation and randomness of 7 created models which are extensions of Langton’s ant. The models are examined to possibly use them as pseudo-random generator (PRG) or block cipher. All models use memories which are based on tori. This property is central, because this is how rings are formed in the first place and in addition the behavior of all models at the physical boundaries of the memory is clearly defined in this way. The different models have special properties which are also investigated. These include variable color sets, discrete convolution, multidimensionality, and the use of multiple ants, which are arranged fractal hierarchically and influence each other. The extensions convolution, multidimensional scalable and multidimensional scalable fractal ant colony are presented here for the first time. It is shown that well-chosen color sets and high-dimensional tori are particularly well suited as a basis for Langton's ant based PRGs. In addition, it is shown that a block cipher can be generated on this basis.