Y Miscellaneous Categories
Refine
Year of publication
Document Type
- Master's Thesis (13)
- Bachelor Thesis (5)
- Report (1)
- Study Thesis (1)
Has Fulltext
- yes (20)
Keywords
- Cloud Computing (3)
- Datenbank (3)
- Informatik (3)
- Agile Softwareentwicklung (2)
- Data Ware House (2)
- Ecosystem services (2)
- Graphdatenbank (2)
- Assessment (1)
- Augmented Reality (1)
- Blue Carbon Potential Index (1)
Diese Arbeit untersucht verschiedene Ansätze, Daten im Google Cloud Firestore zu strukturieren und deren Auswirkungen auf Kosten, Performance sowie Codequalität. Zunächst folgt eine Aufbereitung des aktuellen Stands der Forschung. Darauf folgt die experimentelle Methodik. Hier dient eine prototypische Implementierung der Szenarien als Grundlage. Im Zuge des Experiments werden in unterschiedlichen Disziplinen Daten erhoben und im Anschluss ausgewertet, um empfehlenswerte Lösungen für definierte Anwendungsfälle zu benennen. Am Ende gibt die Arbeit ein kurzes Fazit zu den gewonnenen Erkenntnissen sowie einen Ausblick auf weitere Optimierungspotenziale ab.
In dieser Arbeit wird ein System zur Modellierung von IT-Compliance-Anforderun-gen in einer Graph-Datenbank entwickelt. Dabei werden organisationsinterne Com-pliance-Maßnahmen, ihre Umsetzungsdokumentation und die zwischen ihnen entstehenden Beziehungen berücksichtigt. Anschließend werden die Stärken und Schwächen des Systems anhand einer Erprobung mit Anforderungen an ein fiktives IT-Projekt der deutschen Versicherungsbranche herausgestellt und so die Praxistauglichkeit bewertet. Es wird unter anderem aufgezeigt, wie Compliance- Daten in die Datenbank aufgenommen werden können und welche Unterschiede es zu bisher verbreiteten Prozessen in diesem Gebiet gibt.
Mangrove forests have been studied broadly in the recent three decades for their outstanding ability to sequester carbon in the beneath soil and other beneficial ecosystem services. Endeavors to conserve and regenerate mangrove cover are still increasing worldwide as a mechanism to include them in NDCs and carbon markets. Therefore, decision-makers in the private and public sectors require identify possible areas for conservation and restoration prior to blue carbon project investment. Thus, an integral assessment of potential mangrove carbon reservoirs in a landscape scale, considering environmental and socioeconomic factors was performed. This study was aimed to determine areas with the highest blue carbon sequestration potential in the Gulf of Guayaquil through the construction of a Blue Carbon Potential Index (BCPI) based on Spatial Multicriteria Analysis (SMCA). A narrative integrative literature review was employed to select indicators of mangrove carbon sequestration gains and losses. These indicators were pondered following the Analytical Hierarchy Process (AHP) with the judgments of two experts and reclassified in four potential categories based on their thresholds. Since no consensus was achieved in the indicator importance hierarchization, a comparative of equal weighting method and AHP weighting was implemented. The linear combination rule was used to integrate these factors into a unique-scaled index supported by a geographic Information System (GIS). The results showed that 15.82% and 16.21% of the study area belonged to high and moderate potential of blue carbon sequestration respectively. Moreover, no significant differences were found between the two weighting methods applied. The BCPI provides a comprehensive understanding of spatial distribution of blue carbon potential reservoirs and grants a quantification of this potential to prioritize conservation and restoration areas.
Cloud Computing ist der zentrale Faktor zur Beschleunigung der Digitalisierung in Deutschland und wird in den kommenden Jahren eine wichtige Rolle in jedem deutschen Unternehmen spielen. Für Unternehmen wird es dabei um die Umsetzung von
Cloud-Strategien und die praktische Einbindung in die täglichen Betriebsprozesse gehen. Zusätzlich müssen Unternehmen ihre bestehende Datenlandschaft in moderne Architekturen zum Datenmanagement in die Cloud migrieren. Dabei können Unternehmen auf eine Vielzahl an unterschiedlichen unternehmensweiten Datenarchitekturen
zurückgreifen. Die vorliegende Masterarbeit gibt eine Einführung in die aktuelle Entwicklung von Cloud Computing und erläutert, mit Data Fabric, Data Lakehouse und Data Mesh, drei unternehmensweite Datenarchitekturen für die Cloud. Data Fabric, Data Lakehouse und Data Mesh bilden dabei aktuell die modernsten Konzepte für unternehmensweite Datenarchitekturen. Zusätzlich werden ein Data Lakehouse und ein Data Mesh in einer ausgewählten Cloud-Umgebungen entworfen, prototypisch aufgebaut und praktisch analysiert. Ziel der Masterarbeit ist es, die unternehmensweiten Datenarchitekturen in der Cloud zu erläutern, konkrete technologische Architekturen zu entwerfen und entsprechende Hinweise zu Aufwandstreibern in Unternehmen zu identifizieren.
Architektur für ein Qualitätsmanagementsystem zur Verbesserung der Relevanz von Suchergebnissen
(2023)
Die Suchfunktion ist in vielen Softwareprodukten eine wichtige Komponente, die häufig zur Navigation in der Anwendung dient. Gerade, wenn große Datenmengen bereitgestellt werden, wie es bei Streamingdiensten (Netflix, Spotify) oder bei E-Commerce-Plattformen (Amazon, Zalando) der Fall ist, ist es wichtig, dass die Suchergebnisse für den Nutzer relevant sind. Eine für den Nutzer effektive Navigation mit der Suchfunktion ist nur möglich, wenn die Suchergebnisse eine ausreichend große Relevanz für den Nutzer bieten. Die Organisationen, welche die oben genannten Dienste betreiben, versuchen daher, die Relevanz ihrer Suchergebnisse zu optimieren. Eine Optimierung auf Relevanz ist zwar für eine spezielle Suche einfach, jedoch können dabei häufig Seiteneffekte auftreten, welche die Relevanz über alle Suchen verschlechtern. In einem E-Commerce-Shop kann das Einfiihren des Synonyms „Birne -> Glühbirne" dafür sorgen, dass Nutzer, die Gliihbirnen kaufen wollen und nach „Birne" suchen nun auch Gliihbirnen finden. Falls Nutzer aber das Obst Birne kaufen möchten, sind die Ergebnisse für diese Gruppe irrelevant. Bei einer Optimierung der Relevanz über alle Suchen können Qualitätsmanagementsysteme unterstützen. Ein Qualitätsmanagementsystem fiir die Relevanz von Suchergebnissen muss nicht nur fachliche und technische, sondern auch organisatorische Anforderungen beachten, um die Optimierungspotenziale vollständig auszuschöpfen. Diese Arbeit erläutert diese Anforderungen und stellt eine Architektur für ein Qualitätsmanagementsystem vor. Die Architektur wird hinsichtlich der Erfüllung der erläuterten Anforderungen analysiert. Desweiteren werden die Vor- und Nachteile fiir die jeweiligen Architekturentscheidungen unter Betrachtung der Anforderungen diskutiert. Das Ziel der Arbeit ist es, die Architektur entsprechend zu erläutern, sodass eine Organisation diese für sich angepasst implementieren kann.
Die Digitalisierung hat Auswirkung auf die Entwicklung von Produkten. Die Teams werden agiler, die Kunden haben als Eigentümer eines Produktes Mitspracherecht und bestimmen gemeinsamen mit den Entwicklern, welche Features als Nächstes aus dem vordefinierten Backlog in dem nächsten Sprint als Inkrement eingebaut und ausgeliefert werden. Durch die enge Zusammenarbeit werden die Release-Zyklen eines Produktes kürzer und es werden mehr Features als in der Vergangenheit bei nicht agilen Methoden deployt. Durch die kurzen Release-Zyklen werden viele unterschiedlichen Versionen ausgerollt. Dies hat zur Folge, dass Fehler, die vorher durch das Testen nicht entdeckt worden sind, auf einer produktiven Umgebung ausgerollt werden. Hat der Fehler eine starke Auswirkung auf die Benutzung der Anwendung, dann besteht die Möglichkeit, die Änderung manuell durchzuführen. Diese muss beim nächsten Release eingebaut werden. Wenn die Release-Zyklen länger werden, birgt es die Gefahr, dass viele manuelle Änderungen in der Zeit entstehen. Der ausgerollte Zustand entspricht nach einer bestimmten Zeit nicht mehr dem eingecheckten Zustand im Git-Repository. An der Stelle bietet der GitOps-Ansatz eine mögliche Abhilfe, um den ausgerollten Ist-Zustand durch regelmäßiges Pullen so nah wie möglich an dem im Repository eingecheckten Soll-Zustand zu halten.
This bachelor thesis addresses the issue of how school resilience can be measured and assessed quantitatively. Schools as social infrastructures have a significant value for society. Yet, on a global scale, they, and therefore the respective community as well, are continuously endangered by a variety of threats such as natural disasters or violence and mental abuse affecting students, parents and school staff. However, these threats differ greatly depending on climatic and geographical conditions as well as on the socio-cultural context of the corresponding community. To strengthen school resilience against potential threats and to ensure education continuity despite the occurrence of these disruptions, a methodology is developed to measure and assess school resilience in conjunction with its specific circumstances. Initially, qualitative and quantitative (composite) indicators are identified and categorised with the help of a Systematic Literature Review and Mayring's Qualitative Content Analysis. These are subsequently developed into a Comprehensive Index for School Resilience (CISR). Building on this, a pre-existing assessment methodology, which uses Likert-Scales arranged in questionnaires to assign quantitative values to the composite indicators, is adapted to operationalise the CISR and by an exemplary application at Europaschule Troisdorf, the methodology is adapted to the socio-cultural conditions in Germany using an expert’s operational and contextual knowledge. The results obtained show that the methodologies and techniques described in current international research can, after an appropriate adaptation, successfully be applied to schools in Germany as well. Nevertheless, by identifying research limitations and errors as well as potential improvements, it is evident that further research and development is needed to provide stakeholders with a decision-making tool to strengthen the resilience of schools in the future, such as an exhaustive supplement to the CISR or the integration of more precise quantification methodologies and techniques.
Bei Low-Code Entwicklungsplattformen handelt es sich um Lösungen zur Entwicklung und Bereitstellung von Software mit geringerem Anteil von Quelltext als in der Anwendungsentwicklung sonst erforderlich. Die Forschungsarbeit prüft, ob Low-Code Entwicklungsplattformen dazu geeignet sind, moderne webbasierte Geschäftsanwendungen umzusetzen. Dabei zeigt die Arbeit auf, wie Programmierparadigmen, Methoden der modellgetriebenen Softwareentwicklung (MDSD) und des Rappid Application Developments (RAD) als Platform-as-a-Service (PaaS) Lösungen zur Anwendungsentwicklung durch Anbieter kombiniert werden. Aktuell offerierte Lösungen werden in einem Marktüberblick hinsichtlich ihrer Funktionalität und Anwendungszielgruppe eingeordnet.
Zur Klärung der Forschungsfrage werden gängige Anforderungen an eine Geschäftsanwendung gesammelt und deren Implementierung durch die prototypische Realisierung eines Anwendungsfalls mit der Low-Code Entwicklungsplattform Oracle Application Express (APEX) validiert. Auf dieser Basis zeigt die Arbeit den tatsächlich erforderlichen Quelltextanteil auf. Dabei werden jedoch auch funktionelle Einschränkungen sowie möglicheorganisatorische Risiken, z.B. durch Vendor Lock-In Effekte, dargestellt.
Thematisiert werden Graphendatenbanken und die Umsetzung eines bestimmten Typen davon. Für die Umsetzung wird eine Rationale Datenbank genommen und diese in eine Graphdatenbank überführt. Es wird auf die Unterschiedlichen Typen von Graphdatenbanken eingegangen, deren Verwendungszweck und wie diese Typen Unterschieden werden. Die Umsetzung erfolgt mit Neo4j auf dessen Funktionen und Sprache ich eingehen werde. Danach wird auf die Modellierungsart der Graphdatenbank eingegangen und wie diese realisiert wurde.
Text-Mining auf Basis von SAP HANA am Beispiel von Social-Media-Beiträgen eines Handelsunternehmens
(2018)
Die wesentlichen Hauptthemen, die in der vorliegenden Arbeit miteinander in Zusammenhang stehen, sind die Anwendung von Verfahren im Text-Mining und die IMDB, HANA, des europäischen Softwareherstellers SAP. Hierbei soll die HANA-Technologieplattform als Basis verwendet werden, um ein Text-Mining-Anwendungsfall zu bearbeiten, die die Analyse von Social-Media-Beiträgen vorsieht.
Since the development of eGovernment systems is gaining worldwide momentum, the European Union is constantly increasing its efforts to induce the development of eGovernment systems in its member states. The currently running strategy is the ’eGovernment Action Plan 2016-2020’, which understands itself as a catalyst for developments in the member states.
Despite these ongoing efforts by the European Union regarding eGovernment, stud- ies are repeatedly revealing that the quality and acceptance by the citizens of dig- ital public services are varying heavily within the EU. Being based on the same political guidelines provided by the EU, the national strategies implemented the core principles to different degrees. These different implementation rates, analyzed for Germany, the United Kingdom and Estonia, supplement the holistic analysis of the eGovernment policies, applications and usage in each member state. This gets proven by the connection of this indicator with related studies in the field of eGov- ernment applications and usage within the European Union.
The aim of this thesis is, on the one hand, to quantify differences in the implementa- tion of the ’eGovernment Action Plan 2016-2020’ into national policies in Germany, the UK and Estonia and, on the other hand, establish this indicator as a valuable asset for evaluating and monitoring the eGovernment efforts by the EU member states.
Cloud Computing hat sich hinsichtlich der Digitalisierung zu einer Basistechnologie entwickelt. Das Marktvolumen der Cloud-Technologie ist in den vergangenen Jahren kontinuierlich gestiegen. Hybride IT-Umgebungen mit Cloud- und On-Premise Anwendungen werden von den Unternehmen zunehmend bevorzugt. Eines der größten Hürden von hybriden Architekturen ist derzeit die Integration von heterogenen Umgebungen, die immer mehr und mehr an Bedeutung gewinnt. Zudem wird mit dem vermehrten Einsatz von Cloud-Services die IT-Infrastruktur der Unternehmen immer komplexer. Mithilfe von hybriden Integrationsplattformen kann diese Herausforderung erfolgreich bewältigt werden. Die vorliegende Ausarbeitung gibt den Unternehmen einen Leitfaden, welche die hybride Integration mithilfe von cloudbasierten Integrationsplattformen meistern können.
Water is an eminently important element for societal development. It must be available in sufficient quantity and quality to meet human requirements of consumption, food production and sanitation. The riverine ecosystems are increasingly deteriorated due to human interventions. This leads to changes in the natural flow patterns. The concept of environmental flow started to emerge. Due to the importance of environmental flow in the integrated river basin management, researchers and scientists worldwide have made great efforts towards assessing the environmental flow requirements in river ecosystems. Various tools and techniques were defined. Governmental authorities and water ministries (all over the world including Egypt) have introduced regulations and policies to assure the vitality of environmental flow in river management and water allocation too.
Although different methods are available for the environmental flow assessment, those techniques are not practically applied. Implementing the environmental flow in real world is a challenge, due to the lack of political will and the stakeholder support, the institutional barriers and conflicts of interest, and finally the insufficient resources and capacity in environmental management institutions. It is a multidisciplinary and intersectoral process.
The present study aims to report the importance of environmental flow regarding the inhabitants’ daily life as well as the overall Egyptian socio-economic, political and health status. It demonstrates the methods of applying the Environmental flow concept in Egypt with a focus on social and political aspects, detailing the current situation in Egypt, and clarifying the obstacles that face the implementation process. The data was collected via local people questionnaires, stakeholders’ interviews and field visits. The study proposes solutions to evade the environmental flow implementation obstacles and overcome current challenges. Moreover, the study predicts future issues and offers solutions to avoid their occurrence.
This thesis is aimed for finding a solution for non-gaming application of Virtual Reality technology in data visualization and analysis. Starting by reconstructing the concept of Virtual Reality, the paper then describes the principles, concepts and techniques of designing a Virtual Reality application. In the last part of the thesis, a detailed description of how a prototype implemented is presented to provide a preview of how data visualization and analysis and Virtual Reality technology can be combined together in order to enable users to perceive and comprehend data in a possibly better way.
Jordan is deemed as one of the least water-endowed regions in the world. The acute water shortage, accompanied with changing climatic conditions have necessitated the increasing use of treated wastewater (TWW), predominantly in irrigated agriculture sector. This is especially true with the upper Zarqa River. The ample supply of TWW resources can be found there; paradoxically, the practical implementation of TWW reuse is hindered by the enforcement of irrigation water quality standard, compounding pressure on the dwindling groundwater resources. In light of the large potential source of TWW, this study aims to supply knowledge on maximizing the safe reuse of TWW while minimizing the environmental impacts within the local environment of the upper Zarqa River. A SWOT analysis was conducted to identify the strengths, weaknesses, opportunities, and threats of TWW reuse for agriculture in the local context. In recognition of the projected growth in the treated effluent to more than 135 MCM in the coming ten years, and how it would affect the water use on the study region, several plausible development scenarios were proposed based on expected developments on the ground. Considering the vital role of TWW in sustaining multiple ecosystem services, this study addresses the need to review current standard, encourages managed aquifer recharge with TWW, recommends crops type modification, and enhances knowledge on suitable practices at farm level. Each of these factors is needed in order to deliver a range of ecosystem services to sustain the local rural communities and to advance them in the face of profound challenges, thereby leading to its stability and increased productivity.
Die vorliegende Bachelorarbeit in Kooperation mit der Deutsche Sporthochschule Köln hat die Konzeption und Entwicklung eine Software, mit der Daten aus der Fußball-Bundeliga 2011–2012 mit Hilfe einer Heatmap erzeugt werden, zum Inhalt. Die Software soll die Torpositionen vor einem Offensivspiel zu verschiedenen Zeitpunkten des Spieles veranschaulichen.
Bei der Arbeit wurden zwei Cluster-Methoden betrachtet, nämlich die Density-Based Spatial Clustering of Applications with Noise (DBSCAN) und der Kerndichtschätzer (kernel density estimation). DBSCAN ist ein bekannter Cluster-Algorithmus und wurde mit dem Software-Tool WEKA untersucht. Es zeigte sich, dass dieses Verfahren nicht so gut für diese Aufgabenstellung geeignet ist, da einzelnen Cluster nicht so gut unterschieden werden konnten. Der Kerndichtschätzer ist dagegen ein statistisches Verfahren zur Schätzung einer Dichte, der auch in Geoinformationssystemen verwendet wird. Dieses Verfahren ist besser für die Aufgabenstellung geeignet.
Nach der Analyse der Daten im XML-Format wurde der Algorithmus Kerndichtschätzer für die Deutsche Sporthochschule Köln in detr Programmiersprache Java implementiert. Die Software untersucht die Bildung von Clustern bzw. die Torschussdichte mit der Absicht, ein Verhalten oder Muster vor einem Offensivspiel zu erkennen. Sie enthält eine sehr gute Visulisierung der verschiedenen Situationen, die zum Torschuss führten, anhand eines Fußballfeldes
Ziel der Arbeit war es, den Nutzen der Google Glass im Alltag und ihr Potenzial als AR-Brille ( Augmented Reality ) aufzuzeigen. Mit der Arbeit wurde ein ortsbasierter AR Ansatz vorgestellt, der innerhalb von Gebäuden zum Einsatz kommt. Als Beispielszenario diente die AR-basierte Navigation innerhalb des Gebaudes der TH Köln. Hierbei wurde ein Umgebungsmodell in Form eines Regular Grids konstruiert, welches eine diskrete Positionsbestimmung im Raum erlaubt. Ferner wurden verschiedene Verfahren zur Positionsbestimmung innerhalb von Gebäuden gegen übergestellt und deren Vor- und Nachteile evaluiert. Hierbei wurden die Erkenntnisse gewonnen, dass die Positionsbestimmung mittels LLA Markern die höchste Stabilität, jedoch die geringste Kontinuität aufweist, da Marker zunächst erkannt werden müssen, bevor die Position bestimmt werden kann.
Studierende der Fachhochschule Köln unterscheiden sich in zunehmendem Maße in ihren sozio-kulturellen, bildungsbiografischen und kognitiven Voraussetzungen für einen hochschulischen Bildungsprozess. Lehre zeigt sich vor dem Hintergrund dieser Diversität zunehmend als Herausforderung. Ausgehend vom Ziel, studentisches Lern- und Arbeitsverhalten verstärkt auf Studienerfolg und die Gestaltung von Lehrveranstaltungen auf heterogene Zielgruppen auszurichten, wurde die Studie „Diversity Forschung“ durchgeführt, um Status quo der und Gestaltungsspielräume für Diversity-bezogene Aufmerksamkeit und Verständnis für lehr- und lernrelevante Effekte zu identifizieren. Die Studie wurde mit dem Forschungstypus Innerinstitutionelle Hochschulforschung durchgeführt.
Was kann und was sollte eine Hochschule über ihr Kerngeschäft Studium und Lehre wissen, wie kommt sie zu diesem Wissen und was fängt sie damit an? Innerinstitutionelle Hochschulforschung macht Handlungen und Prozesse im Rahmen von Studium und Lehre in den Strukturen der Hochschule transparent und kann so die institutionelle Selbstaufklärung und das Qualitätsmanagement stützen.
Gegenstand dieses Berichts sind Ansatz, Methoden und Befunde innerinstitutioneller hochschuldidaktischer Forschung an der Fachhochschule Köln. Schwerpunkt ist die Diversität der Lehrenden und Lernenden als Akteursgruppen und -gemeinschaft in Sachen Studium und Lehre. Ausgangspunkt war die Absicht, den Status lehr- und lernrelevanter Diversität zu erkennen, Gestaltungsspielräume für den Umgang mit Diversität auszuloten und Implementationen innovativer Lehrkonzepte für erfolgreiches Studieren mit einem Monitoring-Ansatz zu begleiten.
Weiterer Gegenstand des Berichts sind die Einflüsse dieser Forschung als Selbstbeobachtung auf intendierte Change-Prozesse zur Verbesserung von Studium und Lehre und die Frage, wie Selbstbeobachtungsstrategien als hochschuldidaktische Hochschulforschung weiter elaboriert werden und deren Befunde in die hochschuldidaktische Praxis und die Lehr- und Lernkultur der Fachhochschule Köln gelangen können.
In der Softwareentwicklung setzen sich vermehrt agile Methoden durch, die meist in kleineren Softwareprojekten Anwendung finden. Durch die intensive Einbeziehung des Kunden, Kommunikation innerhalb des Teams und kontinuierlichen Auslieferung soll die Softwarequalität gesteigert werden. So erhält der Kunde ein produktiv einsetzbares Softwareprodukt. Diese Bachelorarbeit gewährt einen Überblick über bekannte agile Prozesse und betrachtet im Detail den Scrum Prozess. Danach wird das Framework Oracle APEX vorgestellt und schließt mit einer Betrachtung zur Eignung der Einführung des Scrum Prozesses innerhalb APEX ab.
Das eLearning Datenbank Portal der Fachhochschule Köln unterstützt Studierende im Fach Datenbanken und Informationssysteme mit umfangreichen E-Learning-Tools (http://edb.gm.fh-koeln.de). Die Diplomarbeit „Konzeption und Realisierung eines Statistiktools auf Basis von JSP und DOJO“ beschäftigt sich mit der Entwicklung eines Statistiktools, das die Nutzung des eLearning Portals durch die Studenten auswertet und die Nutzungsdaten als Diagramme auf einer Benutzeroberfläche einfach und übersichtlich dargestellt, damit diese von Lehrenden überprüft werden können. Der theoretische Teil der Diplomarbeit ist in zwei Abschnitte aufgeteilt. Der erste Abschnitt beschreibt die Grundlagen von Java Server Pages und die JavaScript-Bibliothek Dojo Toolkit. Es werden deren Eigenschaften und praktische Anwendung ausführlich erläutert. Der zweite Abschnitt befasst sich mit der Entwicklung eines Konzepts zum Statistiktool. Es stehen die Analyse der Nutzungsdaten und der Vergleich zwischen Oracle Application Express (APEX) und Dojo zur Erstellung von Diagrammen in Vordergrund. Im praktischen Teil der Diplomarbeit wird das Konzept umgesetzt und die Implementierung des Statistiktools als JSP-Anwendung mit der Verwendung von Dojo beschrieben.