E. Data
Refine
Year of publication
Document Type
- Bachelor Thesis (12)
- Master's Thesis (6)
- Article (2)
- Working Paper (2)
Has Fulltext
- yes (22)
Keywords
- Datenschutz (4)
- Big Data (3)
- Barrierefreiheit (2)
- DSGVO (2)
- Digitalisierung (2)
- E-Learning (2)
- Hadoop (2)
- Messenger (2)
- NoSQL-Datenbanksystem (2)
- Oracle 12c (2)
Faculty
- Fakultät 10 / Institut für Informatik (11)
- Fakultät 01 / Institut für Medienforschung und Medienpädagogik (2)
- Fakultät 09 / Cologne Institute for Renewable Energy (2)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (2)
- Fakultät 10 / Advanced Media Institute (2)
- Fakultät 07 / Institut für Nachrichtentechnik (1)
- Fakultät 10 / Cologne Institute for Digital Ecosystems (1)
- Fakultät 12 / Institut für Technologie und Ressourcenmanagement in den Tropen und Subtropen (1)
Bildungseinrichtungen haben zunehmende Bedarfe für professionelle digitale Kommunikation. Bei der Auswahl geeigneter Kommunikationstools besteht Bedarf für geeignete Informationen als Entscheidungsgrundlage. Insbesondere Messenger-Kommunikation ist stark im privaten Alltag der Personen integriert. Während Bedarfe für umfangreiche datensichere Kommunikation in bildungsrelevanten Kontexten steigen, mangelt es an Konzepten für datengeschützte (Karaboga et al. 2014; Digitalcourage e.V. o.J.) und Privatsphäre wahrende Unterstützung von Bildungsprozessen durch Software, an verpflichtender Ausbildung für Fachkräfte (Zorn, Tillmann und Kaminski 2014; Imort und Niesyto 2014), sowie an verlässlicher Information für praktikable Software-Alternativen. Der Beitrag skizziert die besonderen Anforderungen von Bildungseinrichtungen bei der Auswahl geeigneter Software am Beispiel von Messenger-Kommunikation. Aus diesen Anforderungen werden Kriterien für benötigte Informationen als Entscheidungsgrundlage für die Softwareauswahl in drei Kategorien vorgestellt: Datenschutz/Privatsphäre, Barrierefreiheit/Barrierearmut, Praktikabilität.
Da bislang keine Kriterien und Good-Practice-Vorschläge vorlagen, wurde eine Studie zur Eruierung der Eigenschaften potenziell geeigneter Messenger-Software erstellt. Hierfür wurden zunächst notwendige Kriterien zu den drei genannten Kategorien definiert und im Anschluss deutsche und bekannte internationale Messenger auf die Datenschutz-Kriterien hin geprüft. Aufgrund der Ergebnisse zur Konformität mit der Datenschutz-Grundverordnung der EU (DSGVO) als Einschlusskriterium wurden die in Frage kommenden Messenger einem Praxistest unterzogen. Dabei wurden teilweise iterativ weitere praxisrelevante Kriterien der Praktikabilität entwickelt.
Neben institutionsinternen Messengern konnten unter den frei erhältlichen anbieterabhängigen Messengern sechs Dienste identifiziert werden, die zumindest bei Nutzenden über 16 Jahren DSGVO-konform genutzt werden können. Zum Zeitpunkt der Veröffentlichung sind dies nur noch fünf: Threema, Wire, SID, Ginlo,Chiffry. Des Weiteren erscheinen anbieterunabhängige Messenger-Systeme, die den internationalen Standard für den Austausch von Chatnachrichten (XMPP) einhalten, als eine sinnvolle Möglichkeit für Bildungseinrichtungen. Hier kann ein eigenes oder beauftragtes Server-Hosting (im Verbund) möglich werden und es lässt sich bei einem IT-Dienstleister eine ntsprechende Vereinbarung zur Auftragsdatenverarbeitung abschließen.
Für den Projektkontext IDiT – nämlich die berufliche Bildung für angehende Kaufleute für Büromanagement an Berufsschulen und an Berufsförderungswerken – werden die Entscheidungen für die Nutzung von „Wire“ und „Threema Work“ erläutert und begründet. Die zugrundeliegenden Überlegungen sind zwar auf den Projektkontext (Anwendung im Berufsförderungswerk Köln) zugeschnitten, aber verallgemeinerbar.
Educational institutions have increasing needs for professional digital communication. When selecting suitable communication tools, there is a need for appropriate information as a basis for decision-making. Messenger communication in particular is strongly integrated into people's private everyday lives. While needs for extensive data-secure communication in educational contexts are increasing, there is a lack of concepts for data-protected and privacy-preserving support of educational processes through software (Karaboga et al 2014; Digitalcourage e.V. n.d.) , as well as for mandatory training for professionals (Zorn, Tillmann, and Kaminski 2014; Imort and Niesyto 2014), and reliable information for viable software alternatives. This paper outlines the specific requirements of educational institutions when selecting suitable software, using messenger communication as an example. From these requirements, criteria for needed information are presented as a basis for software selection decisions in three categories: data protection/privacy, accessibility/low-barrier, practicability. Since no criteria and good practice suggestions were available so far, a study was conducted to elicit the characteristics of potentially suitable messenger software. To this end, the necessary criteria for the three categories mentioned were first defined and then German and well-known international messengers were tested for data protection criteria. Based on the results for conformity with the EU's General Data Protection Regulation (GDPR) as an inclusion criterion, the messengers in question were subjected to a practical test. In the process, additional practicality criteria were developed, in part iteratively.
In addition to institution-internal messengers, six services were identified among the freely available provider-dependent messengers that can be used in a GDPR-compliant manner, at least for users over the age of 16. At the time of publication, this leaves only five: Threema, Wire, SID, Ginlo, Chiffry. Furthermore, provider-independent messenger systems that adhere to the international standard protocol for the exchange of chat messages (XMPP) appear to be a viable option for educational institutions. In-house or commissioned server hosting would then be possible and a corresponding agreement for commissioned data processing can be concluded with an IT service provider.
The decisions to use "Wire" and "Threema Work" in the IDiT project context are explained and justified. The context was vocational training for prospective office management clerks at vocational schools and vocational training centers. Although the underlying considerations are tailored to the project context (application in the Berufsförderungswerk Köln), they can be generalized.
Cloud Computing hat sich hinsichtlich der Digitalisierung zu einer Basistechnologie entwickelt. Das Marktvolumen der Cloud-Technologie ist in den vergangenen Jahren kontinuierlich gestiegen. Hybride IT-Umgebungen mit Cloud- und On-Premise Anwendungen werden von den Unternehmen zunehmend bevorzugt. Eines der größten Hürden von hybriden Architekturen ist derzeit die Integration von heterogenen Umgebungen, die immer mehr und mehr an Bedeutung gewinnt. Zudem wird mit dem vermehrten Einsatz von Cloud-Services die IT-Infrastruktur der Unternehmen immer komplexer. Mithilfe von hybriden Integrationsplattformen kann diese Herausforderung erfolgreich bewältigt werden. Die vorliegende Ausarbeitung gibt den Unternehmen einen Leitfaden, welche die hybride Integration mithilfe von cloudbasierten Integrationsplattformen meistern können.
Vergleich von verteilten Datenbanksystemen hinsichtlich ihrer Clusterbildung und Skalierbarkeit
(2017)
Die vorliegende Ausarbeitung geht der Frage nach, wie sich die Datenbankmanagementsysteme MariaDB, MongoDB und Cassandra hinsichtlich ihres Clusteraufbaus,
sowie den damit verbundenen Möglichkeiten der Skalierbarkeit unterscheiden. Dazu werden zunächst Grundlagen zum Aufbau von verteilten Datenbanksystemen, zu den verschiedenen Transaktionskonzepten, sowie zu den möglicherweise auftretenden Probleme vermittelt. Anschließend werden die drei Systeme im Detail untersucht und herausgearbeitet, wie sie genau funktionieren und in welchen Punkten sie sich von einander unterscheiden. Als Abschluss wird ein Fazit gezogen, welches System in verteilten Computerumgebungen
am geeignetsten ist, insofern ein klarer Sieger hervorgeht.
Die Bachelorarbeit befasst sich mit der Verwendung der NoSQL Datenbank Apache Cassandra. Dabei werden auf der einen Seite die Unterschiede bei Verwendung und Betrieb von Apache Cassandra im Vergleich mit relationalen SQL Datenbanken und auf der anderen Seite die Aspekte Geschwindigkeit, Ausfallsicherheit und Wiederverwendbarkeit untersucht. Die Verwendung und der Betrieb wird dabei durch die Umsetzung eines Datenimports, damit verbunden ist die Erstellung von entsprechenden Datenmodellen, und der Bereitstellung der Daten für die Darstellung von mobilen Statistiken in Form einer Android App untersucht. Für die Untersuchung der Geschwindigkeit, Ausfallsicherheit und Wiederverwendbarkeit werden zusätzlich zu den durch bereits durch die Umsetzung erhaltenen Ergebnissen noch an den jeweiligen Aspekt angepasste Belastungstest durchgeführt.
In nahezu jedem Rettungsdienstbereich lässt sich ein Anstieg an Notfalleinsätzen und damit einhergehend ein höherer Bedarf an Rettungsmitteln beobachten. Daraus resultieren Einsatzspitzen, die durch den Regelrettungsdienst nicht abgedeckt werden können, und es entsteht eine Unterdeckung. Dies wird auch als Risikofall bezeichnet und birgt die Gefahr, dass ein Rettungsmittel nicht innerhalb der vorgeschriebenen Hilfsfrist am Notfallort eintreffen kann. Um einen potenziellen Risikofall im Vorfeld absehen und einsatztaktische Ausgleichsmaßnahmen innerhalb eines Rettungsdienstbereiches ergreifen zu können, soll deshalb die Einsatznachfrage in stündlicher Auflösung prognostiziert werden. Dazu wurde die Einsatz-Zeit-Reihe 2017 der hochfrequentierten Feuer- und Rettungswache 1 in der Kölner Innenstadt analysiert und ein saisonales ARIMA-Modell sowie ein Erwartungswert-Modell auf die Einsatz-Zeit-Reihe des Folgejahres 2018 angewandt. Gezeigt werden konnte, dass sich die Einsatz-Zeit-Reihe mit einer mittleren absoluten Abweichung von etwas mehr als einem Einsatz prognostizieren lässt. Außerdem konnte mit einer Skalierung der Prognose über die Anzahl einsatzbereiter Rettungs-wagen jeder Risikofall in einem einwöchigen Anwendungstest vorhergesagt werden. Dabei zeigte sich, dass nicht die Prognosegüte in der Stunde der Einsatzspitze relevant ist, sondern die Prognosegüte in der Folgestunde. Die Prognosen haben somit, wenn sie skaliert werden, eine hohe einsatztaktische Relevanz und ermöglichen kurz-fristige Ausgleichsmaßnahmen im Tagesgang.
This paper is grounded in the emerging field of web science and shall contribute to its further classification and demarcation by illustrating the current state of »web-native research methods«. It builds upon an initial arraying work of Richard Rogers, who coined the term »Digital Methods« for research with methods that were »born« in the web, and illustrated and organized them in his eponymous book in 2013. This paper attempts to develop a more appropriate illustration of the Digital Methods by following the web’s very own, hypertextual, network-like nature, in particular by construing an ontological representation on the base of the Web Ontology Language (OWL). By virtue of decomposing the book into granular information units and their subsequent reassembly into OWL entities, immediate access to the entire knowledge domain can be provided, and coherencies, interrelations and distinctions between concepts become apparent. The ontology’s structure was induced narrowly along the provided examples of research projects and subsequently clustered in topic groups, of which the three most important ones were (a) the Digital Methods as an arraying space of web-native methodology, (b) a collection of concrete applications of these Digital Methods in research projects, and (c) a hierarchical scheme of traditional sciences with a distinct interest in answering research questions with help of Digital Methods. Subsequently, the ontology was evaluated in three general dimensions: Deriving user stories and scenarios provided means to validate the utilization quality; the accuracy and reliability of the resulting structure was validated with help of a control group of web-native research projects; and process control instruments served as a validator for the ontology’s correctness. Despite the ontology itself, this paper also resulted in a first interpretation of the produced information: Statements about research practise in social science, politics and philosophy were as possible as findings about commonly applied varieties of methods. Concluding, the present paper proposes a process of ontology engineering, an evaluation of the ontology’s value, and an interpretation of the ontology’s content.
Habitat loss due to land use and land cover change (LUCC) has been identified as the main cause of global environmental change, responsible for biodiversity decline and the deterioration of ecological processes. Habitat loss and fragmentation have been driven by
processes of LUCC such as deforestation, agricultural expansion and intensification, urbanization, and globalization. The objective of this research was to determine the effects of LUCC on the process of habitat loss and the patterns of fragmentation in the surrounding landscape of the Pacuare Reserve (PR) in the Caribbean lowlands of Costa Rica. The PR is a protected area of 800 ha surrounded by an agricultural landscape with a history of over 150 years of bananas monocultures. Landsat satellite images from 1978 to 2020 were used to conduct a temporal analysis of LUCC around the PR. Patterns of change were explored using landscape metrics from the land classification images. To explore potential connectivity routes, the least cost path analysis was used to connect the PR to other protected areas. Overall, forest cover decreased in the study area at a rate of -4.8% per year during the period of 1992-1997. In the year 2001 it reached its lowest cover and then increased at a mean annual rate of 1.6%. A mean overall accuracy of 92% was obtained for the land classification process. A clear fragmentation process was observed, as shown by a decreased in forest mean patch area and largest patch index and by the increase in patch density. Although forest cover increased in the last decade, fragmentation metrics suggest this recover happened in a spatially scattered manner, due to agricultural land abandonment. Connectivity maps showed the importance of forest fragments and of the already established biological corridors for the movement of species to and from the PR, however it also evidenced the lack of connectivity between the coastal forest fragments and further inside the country located protected areas, as well as the need to promote reforestation projects, particularly between fragments of the corridors identified.
Das Ziel der vorliegenden Bachelorarbeit war es, das In-Memory-Konzept innerhalb einer Oracle Datenbank auf neue Mechanismen, Funktionen und Methoden zu untersuchen. Dazu wurde eine Datenbank erstellt und mit Beispieldaten bestückt. Diese Beispieldaten sind Aktienwerte der DAX-30 Unternehmen, welche durch eine Reihe von Indikatoren aus der technischen Analyse eine komplexe Möglichkeit der Analyse bieten. Die Ergebnisse bestätigen, dass das In-Memory-Konzept neben dem bekannten Spaltenformat eine Reihe von Techniken und Funktionen bietet, welche sich positiv bei der Verarbeitung von Daten durch Data Query Language-Befehle auswirken. Es kommen auch Nachteile, wie der flüchtige Speicher zum Vorschein, dennoch überwiegen die Vorteile stark. Nach einer Reihe von Tests wird deutlich, dass Objekte, die in den In-Memory-Column-Store geladen werden, nur 30 % der Zeit benötigen, um gelesen zu werden. Dies ist für die Verarbeitung von großen und komplexen Daten eine deutliche Verbesserung. Die Bachelorarbeit richtet sich an Studierende der Fachbereiche Informatik und BWL sowie an Interessierte im Bereich Datenbanken.
Ziel ist die Analyse und die Implementierung eines Datenschutzmanagements, gemäß den geltenden EU-Datenschutzvorschriften, am Beispiel eines mittelständischen Unternehmens. Nach einer Zusammenfassung der wichtigsten theoretischen und rechtlichen Grundlagen, werden geeignete Methoden zur Umsetzung vorgestellt. Anschließend wird der Aufbau des Datenschutzmanagements analysiert und an einem Beispielunternehmen implementiert. Zielgruppe sind in erster Linie Unternehmen, Selbstständige oder Beschäftigte mit Datenschutzaufgaben.