Refine
Year of publication
Document Type
- Master's Thesis (323)
- Article (149)
- Bachelor Thesis (142)
- Conference Proceeding (65)
- Report (53)
- Study Thesis (47)
- Working Paper (47)
- Book (29)
- Part of a Book (27)
- Other (11)
Language
- German (586)
- English (315)
- Multiple languages (2)
- Spanish (1)
Keywords
- Rückversicherung (66)
- Reinsurance (55)
- Versicherung (52)
- Kölner Forschungsstelle Rückversicherung (47)
- Versicherungswirtschaft (44)
- Sozialarbeit (24)
- Soziale Arbeit (20)
- Deutschland (19)
- Germany (19)
- Bibliothek (17)
Faculty
- Fakultät 10 / Institut für Informatik (154)
- Fakultät 03 / Institut für Informationswissenschaft (104)
- Fakultät 04 / Institut für Versicherungswesen (78)
- Fakultät 12 / Institut für Technologie und Ressourcenmanagement in den Tropen und Subtropen (72)
- Fakultät 07 / Institut für Medien- und Phototechnik (68)
- Fakultät 04 / Schmalenbach Institut für Wirtschaftswissenschaften (53)
- Angewandte Naturwissenschaften (F11) (45)
- Fakultät 10 / Advanced Media Institute (35)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (30)
- Fakultät 07 / Institut für Nachrichtentechnik (26)
Das vorliegende Paper fasst die Erkenntnisse zum Einsatz von Kundenbeziehungs-management (engl. Customer Relationship Management (CRM)) und geeignete Tools für junge Unternehmen zusammen.
Es basiert auf der Bachelorarbeit von Herrn Enes Zafer, die von August bis Oktober 2019 von Prof. Dr. Monika Engelen betreut wurde. Neben einer Recherche der grundle-genden Theorie zu Customer Relationship Management wurden zehn CRM Tools an-hand Ihrer Funktionen beurteilt und verglichen.
Der Kerninhalt dieses Papers ist, sowohl ein Verständnis für Kundenbeziehungsma-nagement zu schaffen als auch einen Überblick und Empfehlung von CRM Tools für junge Unternehmen abzuleiten.
Die Nutzung von Online-Videos nimmt immer weiter zu und eröffnet neuen Akteuren den Eintritt in diesen, sich entwickelnden Markt. Mediencluster können diesen Trend nutzen, indem sie versuchen, einige dieser neuen Akteure anzuziehen. Gleichwohl ist die Standortentscheidung von Online-Video-Produzenten bisher kaum untersucht. Um mögliche Webvideo-Cluster zu identifizieren, die Struktur der Branche zu untersuchen und Faktoren für die Standortentscheidung aufzudecken, wurden 2.130 Webvideo-Unternehmen, die deutsch- oder englischsprachige Videos auf YouTube, Facebook, Instagram oder Twitch in Deutschland distribuieren, erfasst und befragt. Die meisten Webvideo-Unternehmen haben ihren Sitz in Berlin, Köln, Hamburg oder München. 60 Prozent der Unternehmen agieren als Einzelunternehmer/in (bzw. als Privatperson) und ein Großteil arbeitet kostendeckend bzw. mit einem Gewinnüberschuss. Die räumliche Nähe zur Kreativ- und Medienwirtschaft und die Verfügbarkeit medientechnischer Mitarbeiter am Standort sowie ein urbanes Umfeld und eine gute Infrastruktur sind die wichtigsten Standortfaktoren für die Webvideo-Unternehmen.
Virtual Reality (VR), Augmented Reality (AR) und Mixed Reality (MR) stoßen als innovative Technologien inzwischen auf breites öffentliches Interesse. Unter dem neuen Oberbegriff Cross Reality (XR) erreichen Anwendungen von VR, AR als auch MR dabei zusehends eine größere Zielgruppe – sowohl im B2B als auch im B2C-Segment. XR-Technologie ist nicht mehr nur Spezialisten vorbehalten, sondern hält Einzug in Industrie, Kreation und Entertainment: mit 360-Grad-Videos und VR-Games, beim Produktdesign, als Hilfe bei Orientierung im Raum, für Trainingssimulationen und virtuelle Konferenzen. Die Struktur und Entwicklung dieser noch jungen, sich dynamisch entwickelnden Branche untersucht diese Studie. Die XR-Branche in NRW besteht aus 134 Akteuren. Die meisten Unternehmen haben Ihren Sitz in Köln und die wichtigsten Zielbranchen sind Medien/Information/Kommunikation und das Verarbeitende Gewerbe. In der Branche herrscht eine positive Stimmung und eine schnelle Internetverbindung sowie die Verfügbarkeit von technischen Mitarbeitern sind die wichtigsten Standortfaktoren.
This is the fifth time that TH Köln has conducted this study to examine the local XR industry´on behalf of Mediencluster NRW GmbH, a subsidiary of Film- und Medienstiftung NRW. Aside from the two surveys on the North Rhine-Westphalian sector, there have now been three studies on the nationwide XR (extended or cross reality) sector in Germany. By this we mean all companies that create products and services in the field of virtual, mixed or augmented reality (but not firms that employ XR as users).
Heutzutage ist das Internet, wie die sozialen Netzwerke ein fester Bestandteil unserer So nutzen Unternehmen in dem Kommunikationszeitalter die Netzwerke um in diesen Plattformen mit den Nutzern zu kommunizieren. Hierbei ist das Ziel dieser Bachelorarbeit zu untersuchen in wie weit man eine Erweiterung entwickeln kann um diese Ziele zu erreichen.
Dabei soll im Rahmen dieser Arbeit eine prototypische Implementierung stattfinden, um die Entwicklung eines Multichannel Social Media Marketingtools basierend auf Atlassian Produkten zu ermöglichen.
Die Arbeit gibt zunächst einen Überblick der wichtigsten Grundlagen. Danach wird mit einer Analyse die Anforderungen an den Prototypen erhebt und ausgewertet , sowie eine Marktanalyse durchgeführt. Darauf folgt die Konzeption, wie die Implementierung des Prototyps, was im Anschluss mit einem Test für die Gebrauchstauglichkeit ergänzt wird.
In this work, we propose a novel data-driven approach to recover missing or corrupted motion capture data, either in the form of 3D skeleton joints or 3D marker trajectories. We construct a knowledge-base that contains prior existing knowledge, which helps us to make it possible to infer missing or corrupted information of the motion capture data. We then build a kd-tree in parallel fashion on the GPU for fast search and retrieval of this already available knowledge in the form of nearest neighbors from the knowledge-base efficiently. We exploit the concept of histograms to organize the data and use an off-the-shelf radix sort algorithm to sort the keys within a single processor of GPU. We query the motion missing joints or markers, and as a result, we fetch a fixed number of nearest neighbors for the given input query motion. We employ an objective function with multiple error terms that substantially recover 3D joints or marker trajectories in parallel on the GPU. We perform comprehensive experiments to evaluate our approach quantitatively and qualitatively on publicly available motion capture datasets, namely CMU and HDM05. From the results, it is observed that the recovery of boxing, jumptwist, run, martial arts, salsa, and acrobatic motion sequences works best, while the recovery of motion sequences of kicking and jumping results in slightly larger errors. However, on average, our approach executes outstanding results. Generally, our approach outperforms all the competing state-of-the-art methods in the most test cases with different action sequences and executes reliable results with minimal errors and without any user interaction.
Cloud Computing hat sich hinsichtlich der Digitalisierung zu einer Basistechnologie entwickelt. Das Marktvolumen der Cloud-Technologie ist in den vergangenen Jahren kontinuierlich gestiegen. Hybride IT-Umgebungen mit Cloud- und On-Premise Anwendungen werden von den Unternehmen zunehmend bevorzugt. Eines der größten Hürden von hybriden Architekturen ist derzeit die Integration von heterogenen Umgebungen, die immer mehr und mehr an Bedeutung gewinnt. Zudem wird mit dem vermehrten Einsatz von Cloud-Services die IT-Infrastruktur der Unternehmen immer komplexer. Mithilfe von hybriden Integrationsplattformen kann diese Herausforderung erfolgreich bewältigt werden. Die vorliegende Ausarbeitung gibt den Unternehmen einen Leitfaden, welche die hybride Integration mithilfe von cloudbasierten Integrationsplattformen meistern können.
Das vorliegende Paper fasst die Erkenntnisse zu Übersicht und praktischen Ansätzen der Ideengenerierung in Innovationsprojekten zusammen.
Es basiert auf der Bachelorarbeit von Malte Woyack, die von Oktober 2017 bis Januar 2018 von Prof. Dr. Monika Engelen betreut wurde. Neben einer Recherche der grundlegenden Theorie wurden die gewonnenen Erkenntnisse in Workshops umgesetzt.
Der Kerninhalt dieses Papers ist sowohl ein Verständnis für die Ansätze der Ideengenerierung zu verdeutlichen, als auch konkrete Schritte zur Ideengenerierung in Workshop-Format aufzuzeigen.
An der Schwelle in ein überwiegend digitales Informationszeitalter stößt das in der „Printwelt“ fest etablierte Publikationsmodell des wissenschaftlichen Zeitschriftenverlages immer mehr an seine Grenzen. Dies ist nicht nur auf das enorme Potenzial der modernen Informations- und Kommunikationstechnologien des 21. Jahrhunderts zurückzuführen, sondern auch auf die zunehmende Konzentration im wissenschaftlichen Verlagswesen, die eine „Krise der wissenschaftlichen Informationsversorgung“ ausgelöst hat. Vor diesem Hintergrund haben sich in den letzten Jahren verschiedene Formen des elektronischen Publizierens herausgebildet, welche die Akteure des wissenschaftlichen Publikationswesens zwingen, sich neu zu positionieren. Dies gilt insbesondere für die wissenschaftlichen Bibliotheken, die ihr klassisches Konzept von Bestandsaufbau, -erschließung und -vermittlung dringend modifizieren müssen. Gleichzeitig bietet die derzeitige Umbruchsituation den Bibliotheken aber auch die Chance, künftig eine aktivere Rolle zu spielen. Das Ziel der vorliegenden Arbeit ist es, die neuen Möglichkeiten, die sich durch die modernen Informations- und Kommunikationstechnologien ergeben, vor allem im Hinblick auf eine Neupositionierung der Bibliotheken im Bereich des wissenschaftlichen Publizierens, auszuloten. Im Mittelpunkt der Analyse stehen dabei die STM-Disziplinen und der wissenschaftliche Zeitschriftenmarkt, weil in diesem Bereich angesichts der zunehmend ausufernden „Zeitschriftenkrise“ der größte Handlungsbedarf besteht.
Online-measurement systems for agricultural and industrial AD plants – A review and practice test
(2014)
Online-measurement systems for AD plants in general are crucial to allow for detailed and comprehensive process monitoring and provide a basis for the development and practical application of process optimisation and control strategies.
Nevertheless, the online measurement of key process variables such as Volatile Fatty Acids (VFA) and Total Alkalinity (TA) has proven to be difficult due to extreme process conditions. High Total Solids (TS) concentrations and extraneous material often damage the sensors or have a strong negative impact on measurement quality and long-term behaviour.
Consequently, there is a need for new robust and accurate online-measurement systems.
The purpose of this paper is to give an overview of existing online-measurement systems, to present the current state of research and to show the results of practice tests at an agricultural and industrial AD plant. It becomes obvious that a broad variety of measurement solutions have been developed over the past few years, but that the main problem is the upscaling from lab-scale to practical application at full-scale AD plants. Results from the practice tests show that an online-measurement of pH, ORP, TS is possible.
Welchen Stellenwert hat philosophische Literatur für Kinder und Jugendliche zu Beginn der Informationsgesellschaft und zum Ende dieses Jahrtausends? Macht es nicht wesentlich mehr Sinn, eine Computerzeitschrift zu abonnieren ? Oder kommt der Philosophie im Zeitalter der Bits und Bytes doch noch eine Bedeutung zu? In unserer immer komplexer werdenden Gesellschaft muß die Entwicklung eines stabilen Ichs ein grundlegendes Erziehungsziel sein. Die Identitätsfindung hat aber ganz unmittelbar etwas damit zu tun, was man als "philosophische Fragestellungen" bezeichnen kann. Soziale und politische Mündigkeit sind nicht losgelöst zu sehen von den Fragen : Wer bin ich ? Welche Werte habe ich? Angesichts der Informationsflut in unserer Mediengesellschaft wird es immer schwieriger, seinen eigenen Standpunkt zu finden. In diesem Zusammenhang ist nicht nur der Zugang zu Information wichtig, sondern auch die Fähigkeit, diese Informationen kritisch zu hinterfragen. Um scheinbar Selbstverständliches und Alltägliches einordnen und seine Bedeutung kritisch bewerten zu können, muß man die Fähigkeit zur Reflexion und Selbstreflexion erworben haben. Damit bewegt man sich aber schon auf dem Gebiet der Philosophie. In der vorliegenden Arbeit wird versucht, in einem theoretischen Teil eine Übersicht über die Geschichte und die verschiedenen Richtungen der Kinderphilosophie zu geben. Anhand eines ausgewählten Beispiels ("Sofies Welt" von Jostein Gaarder) soll dann in einem zweiten Teil ein Bezug zwischen einem literarischen Bestseller aus dem bibliothekarischen Grundbestand und kinderphilosophischen Aspekten hergestellt werden. In einem dritten, praxisnahen Teil möchte ich untersuchen, in welchem Grad der große Verkaufserfolg dieses Buches sich als Bekanntheitsgrad in einer bestimmten Altersgruppe (10. Jahrgangsstufe) widerspiegelt.
Die Koordination von Großschadenslagen mit vielen Verletzten stellt die Verantwortlichen vor eine schwere Aufgabe. Gemeinsam mit anderen Partnern aus Wissenschaft und Industrie bearbeitet die Fachhochschule Köln das orschungsprojekt "Beherrschbarkeit von Katastrophenereignissen durch autonom vernetzte Sensoren (MANET)". Mit dem Ergebnis dieses Projekts soll die Koordination der Einsatzkräfte, der Fahrzeuge und des Materials verbessert werden, mit dem Ziel eine schnellere Patientenversorgung zu gewährleisten. Bisher existieren Prototypen des entwickelten Systems. Dieses wird in realitätsnahen Übungen, in denen Groÿschadenslagen dargestellt werden, von Einsatzkräften verwendet. Um die Anwenderfreundlichkeit des Systems zu ermitteln wurde eine Befragung konzipiert, mit der die Erfahrungen der Anwender nach der Übung ermittelt werden können. Im Vorlauf der Befragungserstellung wurden allgemeine Regeln zur Fragen- und Antwortgestaltung sowie Grundlagen zur Auswertung de niert. Die Befragung wird mithilfe eines elektronischen Befragungssystems durchgeführt, wodurch die Fragen und Antworten besondere Vorgaben zu erfüllen haben. Diese wurden bei der Erstellung der Fragen, zusätzlich zu den allgemeinen Regeln, berücksichtigt. Neben den Fragen wurden für die Befragung Umgebungsbedingungen de niert, die für eine erfolgreiche Durchführung notwendig sind. Gemeinsam mit den Fragen wurden diese Bedingungen in einem Fragebogen zusammengefasst, der den gesamten Ablauf der Befragung vorgibt. Durch diese Vorgabe ist eine Vergleichbarkeit von mehreren Befragungsdurchgängen gewährleistet.
Vergleich von verteilten Datenbanksystemen hinsichtlich ihrer Clusterbildung und Skalierbarkeit
(2017)
Die vorliegende Ausarbeitung geht der Frage nach, wie sich die Datenbankmanagementsysteme MariaDB, MongoDB und Cassandra hinsichtlich ihres Clusteraufbaus,
sowie den damit verbundenen Möglichkeiten der Skalierbarkeit unterscheiden. Dazu werden zunächst Grundlagen zum Aufbau von verteilten Datenbanksystemen, zu den verschiedenen Transaktionskonzepten, sowie zu den möglicherweise auftretenden Probleme vermittelt. Anschließend werden die drei Systeme im Detail untersucht und herausgearbeitet, wie sie genau funktionieren und in welchen Punkten sie sich von einander unterscheiden. Als Abschluss wird ein Fazit gezogen, welches System in verteilten Computerumgebungen
am geeignetsten ist, insofern ein klarer Sieger hervorgeht.
Diskussionen über Gleichwertigkeitsbeschlüsse und bilateral ausgehandelte Abkommen wie z. B. das Covered Agreement zur Regelung des Betriebs von Rückversicherungsgeschäft zwischen der EU und den Vereinigten Staaten könnten für international tätige Versicherungsgruppen zukünftig der Vergangenheit angehören. Als Vereinigung von Versicherungsbehörden aus über 200 Ländern arbeitet die International Association of Insurance Supervisors (IAIS) seit 2013 an der Entwicklung eines risikobasierten, global anwendbaren Kapitalstandards (Insurance Capital Standard – ICS). Übergeordnetes Ziel ist die Schaffung eines übergreifenden Regulierungsrahmens für große international tätige Versicherungsgruppen mit Mindeststandards für die Bewertung von Risiken und daraus resultierenden Anforderungen an die Kapitalausstattung.
Es liegt in der Natur der Sache, dass bei der Entwicklung eines globalen Kapitalstandards die Interessen aus vielen verschiedenen Jurisdiktionen mit unterschiedlichen Systemen aufeinandertreffen (insbesondere trifft die verschiedenen Aufsichtsregime aus Europa und den Vereinigten Staaten aufeinander). Das IAIS hat sich zum Ziel gesetzt, die Interessengruppen zusammen zu bringen und ohne die lokalen Aufsichtsregime in den Jurisdiktionen auszuklammern, einen globalen Mindestkapitalstandard für international tätige Versicherungsgruppen zu entwickeln.
Der ICS wird im Rahmen der Konsolidierungsmethode berechnet und weist daher viele Ähnlichkeiten mit Solvency II auf. Der US Alternativansatz wird im Rahmen der Aggregationsmethode berechnet und soll ähnliche Ergebnisse zur Konsolidierungsmethode liefern.
Am Ende stellt sich für die europäischen (Rück-)Versicherungsunternehmen die Frage, ob man akzeptiert, dass US Ansatz äquivalent zum ICS ist, um das Ziel eines globalen Kapitalstandards als Level Playing Field zu etablieren.
Diskussionen über Gleichwertigkeitsbeschlüsse und bilateral ausgehandelte Abkommen wie z. B. das Covered Agreement zur Regelung des Betriebs von Rückversicherungsgeschäft zwischen der EU und den Vereinigten Staaten könnten für international tätige Versicherungsgruppen zukünftig der Vergangenheit angehören. Als Vereinigung von Versicherungsbehörden aus über 200 Ländern arbeitet die International Association of Insurance Supervisors (IAIS) seit 2013 an der Entwicklung eines risikobasierten, global anwendbaren Kapitalstandards (Insurance Capital Standard – ICS). Übergeordnetes Ziel ist die Schaffung eines übergreifenden Regulierungsrahmens für große international tätige Versicherungsgruppen mit Mindeststandards für die Bewertung von Risiken und daraus resultierenden Anforderungen an die Kapitalausstattung.
Es liegt in der Natur der Sache, dass bei der Entwicklung eines globalen Kapitalstandards die Interessen aus vielen verschiedenen Jurisdiktionen mit unterschiedlichen Systemen aufeinandertreffen (insbesondere trifft die verschiedenen Aufsichtsregime aus Europa und den Vereinigten Staaten aufeinander). Das IAIS hat sich zum Ziel gesetzt, die Interessengruppen zusammen zu bringen und ohne die lokalen Aufsichtsregime in den Jurisdiktionen auszuklammern, einen globalen Mindestkapitalstandard für international tätige Versicherungsgruppen zu entwickeln.
Der ICS wird im Rahmen der Konsolidierungsmethode berechnet und weist daher viele Ähnlichkeiten mit Solvency II auf. Der US Alternativansatz wird im Rahmen der Aggregationsmethode berechnet und soll ähnliche Ergebnisse zur Konsolidierungsmethode liefern.
Am Ende stellt sich für die europäischen (Rück-)Versicherungsunternehmen die Frage, ob man akzeptiert, dass US Ansatz äquivalent zum ICS ist, um das Ziel eines globalen Kapitalstandards als Level Playing Field zu etablieren.
In its Renewables 2022 Report, the International Energy Agency (IEA) projects that the share of renewable energies in the global energy mix will increase from 22.8% in 2015 to 38.1% in 2027. This trend goes hand-in-hand with increasing construction of plants for the generation of renewable energies, leading to increased demand for (re)insurance. Comparable to the development of traditional energy sources, the hedging of current risks is a key element in the further development of renewable energies. According to projections by the IEA, by 2027 most of the energy from renewable sources will be generated using photovoltaics or solar as well as onshore and offshore wind.
Die IEA prognostiziert einen Anstieg des globalen Anteils erneuerbarer Energien am Energiemix von 22,8% in 2015 auf 38,1% in 2027, begleitet von verstärktem (Rück-) Versicherungsbedarf. Sechs Herausforderungen in der Rückversicherung erneuerbarer Energien werden skizziert, darunter komplexe Underwriting-Anforderungen, zunehmende Integration von ESG-Faktoren, Bewertung der Zeichnungspolitik der Zedenten, Mangel an Schadenerfahrung, Naturkatastrophenexposition und die Anpassung von Rückversicherungsformen an die spezifischen Bedürfnisse. Die Zukunft erfordert den Aufbau von Expertise für erneuerbare Energien und eine ganzheitliche Bewertung von Schadensszenarien. Besonders im Offshore Wind Geschäft bleibt ein Druck auf Preise und Bedingungen bestehen.
Web 2.0 als markantes Marketingschlagwort und ein Begriff, der viele Assoziationen und Interpretationsmöglichkeiten zulässt, beschreibt die Entwicklungsphase, die das Internet momentan durchläuft. Verbunden mit zahlreichen Anwendungen und Konzepten wie Wikis, Podcasts, Blogs, Social Tagging, Webplattformen, Social Networks und weiteren wesentlichen Elementen vollzieht sich im Internet eine immer stärkere Demokratisierung, die sich in ihren dezentralen Strukturen und zunehmend partizipierten Nutzern zeigt. Die Nutzer selbst verfügen über immer größer werdende Freiräume sowie Möglichkeiten eigene Inhalte zu publizieren, selbstständig zu kommunizieren, zu diskutieren und Inhalte gemeinsam durch die kollektive Zusammenarbeit zu verändern sowie deren Qualität und Vielfältigkeit zu verstärken. Dies hat maßgeblich die Kommunikation und den Austausch von Informationen im Internet verändert und weiterentwickelt. Auch Weblogs1 positionieren sich zunehmend als Bestandteil dieser sich verändernden Medien- und Informationslandschaft als neu entstandenes Instrument zur Kommunikation, Information und Vernetzung. Dabei stellen die zunächst als verlinkende und navigierende Instrumente entstandenen Weblogs innerhalb des Internets heute eine wichtige Form der Auseinandersetzung mit sowohl privaten als auch öffentlichen Themen dar. Entscheidend ist dabei vor allem die sehr subjektive und authentische Darstellung von persönlichen Erlebnissen, jedoch auch die Reflexion politischer und gesellschaftlicher Neuigkeiten sowie die kritische Auseinandersetzung mit der Medienlandschaft. Besonders die Diskussion über verschiedene sehr breit gefächerte Themenkomplexe sowie der Austausch und die Vernetzung in der so genannten Blogosphäre nehmen dabei einen hohen Stellenwert ein. Wenngleich die Auseinandersetzung mit der eigenen Person vor allem im privaten Bereich auftritt, stellen sich Weblogs im unternehmerischen Bereich zunehmend als wertvolle Instrumente des Marketings und der internen wie externen Kommunikation heraus. Als einfach einzurichtende und leicht handhabende Instrumente werden Weblogs immer stärker in die Ziele und Strategien von Unternehmen mit eingebunden. Aber auch Bibliotheken sind zunehmend auf diesen neuen Bereich des Internets aufmerksam geworden. Anhand eines zunächst einleitenden Kapitels über den Begriff des Web 2.0 im Allgemeinen sowie speziellen Formen und der Darstellung von Weblogs als separat betrachtete Form der Web 2.0-Anwendungen, stellt diese Arbeit die Verwendung von Weblogs in öffentlichen Bibliotheken ins Zentrum der Betrachtung. Neben einer Übersicht über den momentanen Stand von konkreten Anwendungen und der vorliegenden Quellenlage soll eine vergleichende Betrachtung von Beispielen aus Deutschland und den USA anhand einer Analyse konkrete Erkenntnisse verdeutlichen und zeigen, inwieweit Chancen bereits genutzt werden und noch Potenziale bestehen. Abschließend werden diese Ergebnisse in einem eigenständigen Konzept zur Umsetzung einer Bloggingstrategie für öffentliche Bibliotheken dargestellt und in einem Fazit in Zusammenhang mit einem Ausblick auf mögliche, zukünftige Entwicklungen gesetzt.
Due to the present developments of the Internet and its technical components, the skills of the web experts have to be more and more complex and specific. The Internet experts in the creative field are located distributedly around the whole world. As a result, many companies have problems to find the needed experts on site and are dependent on creative cooperations and virtual teams with the help of technical tools. The virtual working place is an important issue, particularly in modern times and the market offers more and more cooperation systems for exactly this purpose: Creative cooperation in distributed working situations. This thesis examines the approaches of creative cooperation and cooperation technologies with an analysis about existing cooperation systems with a creative context. It spans a wide range of tools. On the one hand, there are approaches which offer only straightforward solutions for single design tasks. On the other hand, there are providers which recognised the great need of creative cooperation systems and working at full speed to extend their systems. The examined areas of this work lead to a design process oriented approach with flexible frames and enough space for the creative development of every single user. The cooperation in a creative context stays in the foreground and is the base for future approaches for the web design sector.
As a customer, it can be frustrating to face an empty shelf in a store. The market does not always realize that a product has been out of stock for a while, as the item is still listed as in stock in the inventory management system. To address this issue, a camera should be used to check for Out-of-Stock (OOS) situations.
This master thesis evaluates different model configurations of Artificial Neural Networks (ANNs) to determine which one best detects OOS situations in the market using images. To create a dataset, 2,712 photos were taken in six stores. The photos clearly show whether there is a gap on the shelf or if the product is in stock. Based on the pre-trained VGG16 model from Keras, two fully connected layers were implemented, with 36 different ANNs differing in the optimization method and activation function pairings. In total, 216 models were generated in this thesis to investigate the effects of three different optimization methods combined with twelve different activation function pairings. An almost balanced ratio of OOS and in-stock data was used to generate these models.
The evaluation of the generated OOS models shows that the FTRL optimization method achieved the least favorable results and is therefore not suitable for this application. Model configurations using the Adam or SGD optimization methods achieve much better results. Of the top six model configurations, five use the Adam optimization method and one uses SGD. They all achieved an accuracy of at least 93% and were able to predict the Recall for the OOS class with at least 91%.
As the data ratio between OOS and in-stock data did not correspond to reality in the previously generated models, the in-stock images were augmented. Including the augmented images, new OOS models were generated for the top six model configurations. The results of these OOS models show no convergences. This suggests that more epochs in the training phase lead to better results. However, the results of the OOS model using the Adam optimization method and the Sigmoid and ReLU activation functions stand out positively. It achieved the best result with an accuracy of 97.91% and a Recall of the OOS class of 87.82%.
Overall, several OOS models have the potential to increase both market sales and customer satisfaction. In a future study, the OOS models should be installed in the market to evaluate their performance under real conditions. The resulting insights can be used for continuous optimization of the model.
Diese Diplomarbeit beleuchtet die in Deutschland bisher wenig beachtete Thematik der Hörgeschädigten als Bibliotheksbenutzer. Sie beschreibt die Erscheinungsformen und die Verbreitung der Hörschädigung in Deutschland und ihren negativen Einfluss auf die Lese- und Informationskompetenz der Betroffenen. Das Dienstleistungsangebot für Hörgeschädigte in ausländischen und deutschen Bibliotheken wird detailliert beschrieben und verglichen. Anschließend werden die verschiedenen Dienstleistungen im Einzelnen erläutert und ein möglicher Einsatz in deutschen Bibliotheken diskutiert. Als Ergebnis wird festgehalten, dass es in deutschen Bibliotheken, im Gegensatz zu denen im Ausland, kaum spezielle Angebote für Hörgeschädigte gibt. Bibliotheken müssen gezielt Bestandsaufbau betreiben, technische Hilfsmittel zur Verfügung stellen und Hörgeschädigte in das Veranstaltungsangebot integrieren, um so auch dieser Gruppe Medien- und Informationskompetenz zu vermitteln.
Die vorliegende Masterarbeit behandelt die Bewertung der eingegangenen Unternehmensrisiken im Rahmen der Lebensversicherung und die hiervon abgeleiteten Auswirkungen zur Unternehmenssteuerung.
Dabei wird einerseits die Angemessenheit der sog. „Standardformel“ nach Solvency II überprüft, die in den europäischen Mitgliedsstaaten einen weitestgehend einheitlichen Ansatz bei der Bewertung der Risiken von Versicherungsunternehmen verwendet. Andererseits werden unter ökonomischen Überlegungen versicherungsmathematische Methoden vorgestellt, wie ein Lebensversicherer seine Risiken unternehmensindividueller ermitteln und damit seinen tatsächlichen Risikokapitalbedarf bestimmen kann.
Zur Quantifizierung der Ergebnisse werden die Berechnungsvorgaben der Standardformel für ausgewählte Risikomodule nachgebildet und mit den in dieser Arbeit vorgestellten unternehmensindividuellen Berechnungen verglichen und analysiert. Es zeigt sich, dass trotz der Komplexität des Solvency II-Modells eine noch differenziertere Herangehensweise notwendig ist, damit ein einzelnes Unternehmen seine Risiken adäquat und möglichst individuell bestimmen kann. Zur Gewährleistung einer nicht bestandsgefährdenden Unternehmensfortführung müssen die Versicherungsunternehmen bei Betrachtung ihrer Risiken mithilfe des EU-weiten Aufsichtssystems Solvency II in der Lage sein, die korrekten Rückschlüsse zur Unternehmenssteuerung zu ziehen. Die in dieser Arbeit vorgestellten versicherungsmathematischen Ansätze können dabei den Prozess zur unternehmenseigenen Risiko- und Solvabilitätsbeurteilung (ORSA) unterstützen.
Die Lebensversicherer in Deutschland als institutionelle Investoren haben eine erhebliche Verantwortung für die Absicherung der Menschen im Alter. Aufgrund des anhaltenden schwierigen Zinsumfeldes stehen sie jedoch unter enormen Druck, ihre Leistungsversprechen langfristig einzuhalten zu können.
Der Gesetzgeber führte daher 2011 die Zinszusatzreserve (ZZR) ein, um im Rahmen der sinkenden Kapitalmarktzinsen eine moderate Form der Nachreservierung zu schaffen.
Als die ZZR eingeführt wurde, war allerdings nicht absehbar, dass sich das Niedrigzinsumfeld auf eine so lange Zeit erstrecken würde, wie es nun der Fall ist.
Die bisherige Systematik der ZZR führte in den letzten Jahren zu einem erheblichen Ausmaß und damit verbunden zu einer enormen Belastung für die Lebensversicherer. Bei einer Beibehaltung des Verfahrens könnte sich die ZZR nach Schätzungen der Assekurata Rating Agentur bis zum Jahr 2025 auf beachtliche 200 Milliarden Euro belaufen. Dies würde bedeuten, dass sich der Gesamtaufwand zur Dotierung der ZZR im Vergleich zum Geschäftsjahr 2017 noch verdreifachen würde.
Daher beschäftigt sich die vorliegende Arbeit mit einer Neukalibrierung der ZZR und einer damit verbundenen völlig neuen Berechnungsmethodik.
Die "Methode 2M", die von der Deutschen Aktuarvereinigung e. V. (DAV) entwickelt wurde, wird als möglicher Lösungsweg zur Entlastung der Lebensversicherer detailliert beschrieben und analysiert. Mithilfe aktuarieller Berechnungen werden dabei insbesondere die quantitativen Auswirkungen der Methode 2M im Hinblick auf verschiedene Zinsszenarien bis zum Jahr 2030 aufgezeigt und eine kritische Beurteilung vorgenommen, ob die neue Berechnungsmethodik den gewünschten Erfolg erzielt.
Das eLearning Datenbank Portal der Fachhochschule Köln unterstützt Studierende im Fach Datenbanken und Informationssysteme mit umfangreichen E-Learning-Tools (http://edb.gm.fh-koeln.de). Die Diplomarbeit „Konzeption und Realisierung eines Statistiktools auf Basis von JSP und DOJO“ beschäftigt sich mit der Entwicklung eines Statistiktools, das die Nutzung des eLearning Portals durch die Studenten auswertet und die Nutzungsdaten als Diagramme auf einer Benutzeroberfläche einfach und übersichtlich dargestellt, damit diese von Lehrenden überprüft werden können. Der theoretische Teil der Diplomarbeit ist in zwei Abschnitte aufgeteilt. Der erste Abschnitt beschreibt die Grundlagen von Java Server Pages und die JavaScript-Bibliothek Dojo Toolkit. Es werden deren Eigenschaften und praktische Anwendung ausführlich erläutert. Der zweite Abschnitt befasst sich mit der Entwicklung eines Konzepts zum Statistiktool. Es stehen die Analyse der Nutzungsdaten und der Vergleich zwischen Oracle Application Express (APEX) und Dojo zur Erstellung von Diagrammen in Vordergrund. Im praktischen Teil der Diplomarbeit wird das Konzept umgesetzt und die Implementierung des Statistiktools als JSP-Anwendung mit der Verwendung von Dojo beschrieben.
Die vorliegende Bachelorarbeit in Kooperation mit der Deutsche Sporthochschule Köln hat die Konzeption und Entwicklung eine Software, mit der Daten aus der Fußball-Bundeliga 2011–2012 mit Hilfe einer Heatmap erzeugt werden, zum Inhalt. Die Software soll die Torpositionen vor einem Offensivspiel zu verschiedenen Zeitpunkten des Spieles veranschaulichen.
Bei der Arbeit wurden zwei Cluster-Methoden betrachtet, nämlich die Density-Based Spatial Clustering of Applications with Noise (DBSCAN) und der Kerndichtschätzer (kernel density estimation). DBSCAN ist ein bekannter Cluster-Algorithmus und wurde mit dem Software-Tool WEKA untersucht. Es zeigte sich, dass dieses Verfahren nicht so gut für diese Aufgabenstellung geeignet ist, da einzelnen Cluster nicht so gut unterschieden werden konnten. Der Kerndichtschätzer ist dagegen ein statistisches Verfahren zur Schätzung einer Dichte, der auch in Geoinformationssystemen verwendet wird. Dieses Verfahren ist besser für die Aufgabenstellung geeignet.
Nach der Analyse der Daten im XML-Format wurde der Algorithmus Kerndichtschätzer für die Deutsche Sporthochschule Köln in detr Programmiersprache Java implementiert. Die Software untersucht die Bildung von Clustern bzw. die Torschussdichte mit der Absicht, ein Verhalten oder Muster vor einem Offensivspiel zu erkennen. Sie enthält eine sehr gute Visulisierung der verschiedenen Situationen, die zum Torschuss führten, anhand eines Fußballfeldes
Urbanization processes are one of the main factors for habitat loss and fragmentation, driving global biodiversity loss and species extinction. The neotropical Atlantic forest in Brazil is considered a global key biodiversity hotspot and used to be one of the most extensive forests of the Americas. Due to substantial deforestation over centuries, its landscape was transformed into a mosaic of small forest fragments surrounded by a predominantly agricultural matrix. Urban expansion and rural urbanization have created peri-urban zones, which still can harbor natural habitat remnants,
contributing to biological diversity and thus providing essential ecosystem services to urban and rural areas. The maintenance of such ecosystem services requires an understanding of the ecological processes in the ecosystem. A prerequisite for such an in-depth insight is the quantification of the underlying ecosystem functions. The ecosystem function pest control, a trophic interaction between insectivorous birds and herbivorous arthropods, was quantified in an empirical study using artificial caterpillars as prey models. This technique allows the identification of predator groups and the assessment of their predation rates. A total of 888 plasticine caterpillars were distributed at eight sites in secondary forest fragments surrounding the university campus of the federal university of São Carlos (UFScar) in peri-urban Sorocaba, southeastern Brazil. In sixteen point counts, 72 insect-eating birds, belonging to 19 species, were identified as possible artificial caterpillar attackers. Local habitat variables were measured to describe the forest vegetation structure and the landscape context. The study aimed to assess which structural components of the
forest fragments, together with the recorded bird community variables (abundance, richness, αdiversity), best explain the estimated predation rates by birds. The mean predation rate for birds was 8.25 ± 6.3 % for a reference period of eight days, representing the first quantification of the ecosystem function pest control for the study area. The three treatments of caterpillar placement heights (ground, stem: 0.5 -1.0 m, leaf: 1.5 - 2.0 m) were the best and only estimator to explain bird
predation rates. The little dense understory and ground vegetation might have facilitated the accessibility of artificial caterpillars, especially for carnivorous arthropods and birds. The detected contrast in their foraging and predation patterns suggests that arthropods and birds complement each other in their function of pest control. Bird predation rates were found to be negatively related to the vegetation structure. Thus, more open habitats, with less understory and low tree density, but high canopy cover and including dead trees were correlated with the highest predation rates and also exhibited more specialized forest-dependent bird species. This study confirms the importance of the maintenance of forest fragments in peri-urban areas, even if they are small, to preserve forest-associated birds, to contribute to the biological diversity on a broader scale, and to prevent the loss of ecosystem functions and services, mitigating some of the adverse effects of urbanization. Further investigation of the effect among the three treatments of caterpillar
placement on the predation rates is encouraged, including comparative studies among different habitat types. For future studies, it is recommended to model the avian community variables with the vegetation structure measures to predict habitat preferences of insectivorous birds. Therefore, the sampling of more units and on a bigger scale, including over a more extended period, is necessary to improve the robustness of the results, which could provide the basis for a monetary analysis of the ecosystem service pest control by birds.
Die Analyse von Log-Dateien als Spezialfall des Text Mining dient in der Regel dazu Laufzeitfehler oder Angriffe auf ein Systems nachzuvollziehen. Gegen erkannte Fehlerzustände können Maßnahmen ergriffen werden, um diese zu vermeiden. Muster in semi-strukturierten Log-Dateien aus dynamischen Umgebungen zu erkennen ist komplex und erfordert einen mehrstufigen Prozess. Zur Analyse werden die Log-Dateien in einen strukturierten Event-Log (event log) überführt. Diese Arbeit bietet dem Anwender ein Werkzeug, um häufige (frequent) oder seltene (rare) Ereignisse (events), sowie temporale Muster (temporal patterns) in den Daten zu erkennen. Dazu werden verschiedene Techniken des Data-Minig miteinander verbunden. Zentrales Element ist dieser Arbeit das Clustering. Es wird untersucht, ob durch Neuronale Netze mittels unüberwachtem Lernen (Autoencoder) geeignete Repräsentationen (embeddings) von Ereignissen erstellt werden können, um syntaktisch und semantisch ähnliche Instanzen zusammenzufassen. Dies dient zur Klassifikation von Ereignissen, Erkennung von Ausreißern (outlier detection), sowie zur Inferenz einer nachvollziehbaren visuellen Repräsentation (Regular Expressions; Pattern Expressions). Um verborgene Muster in den Daten zu finden werden diese mittels sequenzieller Mustererkennung (Sequential Pattern Mining) und dem auffinden von Episoden (Episode Mining) in einem zweiten Analyseschritt untersucht. Durch das Pattern Mining können alle enthaltenen Muster im einem Event-Log gefunden werden. Der enorme Suchraum erfordert effiziente Algorithmen, um in angemessener Zeit Ergebnisse zu erzielen. Das Clustering dient daher ebenfalls zur Reduktion (pruning) des Suchraums für das Pattern Mining. Um die Menge der Ergebnisse einzuschränken werden verschiedene Strategien auf ihre praktische Tauglichkeit hin untersucht, um neue Erkenntnisse zu erlangen. Zum einen die Mustererkennung mittels verschiedener Kriterien (Constrained Pattern Mining) und zum anderen durch die Nützlichkeit (High Utility Pattern Mining) von Mustern. Interessante temporale Muster können auf anderen Log-Dateien angewendet werden, um diese auf das Vorkommen dieser Muster zu untersuchen.
Problemstellung: COVID-19 ist nicht nur aufgrund der Folgen der Erkrankung problematisch, sondern auch aufgrund einer ganzen Reihe von Sekundäreffekten. So stellt eine lang andauernde Pandemie eine Dauerbelastung dar, welche sich auf die Psyche des Menschen auswirken kann. Insbesondere Kinder und Jugendliche sind hier auf-grund ihrer besonderen Angewiesenheit auf das häusliche Umfeld besonders vulnerabel. Zeitgleich ist diese Gruppe in bestehenden Krisenplänen bisher nicht oder kaum relevant. Aufgrund der Besonderheit, dass sich Kinder und Jugendliche noch in der Entwicklung befinden und dass, insbesondere für jüngere Kinder, die aktuell seit über einem Jahr bestehende Situation der Pandemie und die damit verbundenen Einschränkungen einen erheblichen Zeitraum darstellt, besteht ebenfalls die Gefahr von kulturellen und sozialen Entwicklungsproblemen. Vor diesem Hintergrund ist auch zu beachten, dass Maßnahmen gegen das Virus, welches die Primärgefahr darstellt, ebenfalls negative Auswirkungen auf Kinder und Jugendliche darstellen und somit zu Sekundärgefahren führen können. Weiterhin ist zu bedenken, dass Fehler in der Pandemiebekämpfung, welche sich nachhaltig negativ auf Kinder und Jugendliche auswirken, in der Zukunft in Form von Problematiken im Erwachsenenalter und, bei entsprechend vielen Betroffe-nen, in der gesamten Gesellschaft sichtbar werden. Um dies zu erforschen, werden zunächst die Fragestellungen bearbeitet, welche Sekundärgefahren und Risiken aufgrund von COVID-19 für Kinder und Jugendliche vorliegen, sowie ob die Vor- und Nachteile der Lockdowns die Vorteile für Kinder und Jugendliche überwiegen. Im Anschluss werden Handlungsempfehlungen gegeben, wie die Gesundheit und das Wohlergehen von Kindern und Jugendlichen in künftig ähnlichen Lagen sichergestellt werden können.
Angewandte Methoden: Um ein möglichst umfassendes Bild über die Lage von Kindern und Jugendlichen in Deutschland zu erhalten, werden Experteninterviews mit Expertinnen und Experten aus unterschiedlichen Fachgebieten und Berufsbereichen durchge-führt. Aufgrund der internationalen Vergleichbarkeit der Problematik werden auch Ex-pertinnen und Experten aus dem internationalen Raum befragt. Dies kann dazu beitragen, Aspekte, welche im nationalen Raum nicht bekannt sind oder nicht als relevant eingeschätzt werden, in diese Arbeit mit einfließen zu lassen. Weiterhin werden Studien und Quellen aus dem nationalen Raum in Form einer Sekundäranalyse betrachtet, um auf die Vor- und Nachteile der Lockdowns Rückschlüsse ziehen zu können. Insbesondere die Unterschiedlichkeit der verschiedenen Studien und Quellen stellte dabei eine große Herausforderung dar. Somit findet eine Anwendung von qualitativen und quanti-tativen Methoden statt, was als Mixed Methods bezeichnet wird.
Wichtigste Ergebnisse: Eine eindeutige Aussage über die Sekundärgefahren für Kinder und Jugendliche gestaltet sich als schwierig, da diese Gefahren unter anderem stark durch das häusliche Umfeld geprägt sind. So scheinen Kinder und Jugendliche aus so-zial schwächeren Familien in einem höheren Maße betroffen zu sein als jene, aus sozial stärkeren Familien. Zusätzlich stellt die Pandemie eine Brennglasfunktion für bereits zu-vor bestehende Problematiken dar. Der Vergleich von Vor- und Nachteilen der Lockdowns für Kinder und Jugendliche zeigt die Unterschiedlichkeit bestehender Studien und Quellen auf, wodurch das Ergebnis dieser Fragestellung primär Indizien darstellt. Die Handlungsempfehlungen, welche ebenfalls ein Ziel dieser Arbeit darstellen, bestehen
auf den vorherigen Ergebnissen aufbauend aus grundsätzlichen Handlungsempfehlungen, dem Einbezug von Kindern und Jugendliche in Pandemiepläne, der Beteiligung von Kindern und Jugendlichen in Entscheidungen bezüglich Krisensituationen sowie der Nachsorge der aktuellen Pandemie.
Anwendungsgebiet und Zielgruppe: Bei dem Anwendungsgebiet handelt es sich zu-nächst um ganz Deutschland, wobei unter Beachtung örtlicher Gegebenheiten auch ein internationaler Anwendungsbezug des Themas besteht. Die Zielgruppe stellen insbesondere Politiker und Entscheider in Behörden dar, welche zuständig für die Formulierung bzw. Fortschreibung von Pandemieplänen und für die Bereitstellung der techni-schen und personellen Ressourcen sind.
Die Blockchain ist nicht nur im Bereich der Finanzwelt angekommen, auch andere Branchen versuchen sich an ihrer Anwendung. In diesem Artikel werden Konzepte und Modelle von Blockchain-Anwendungen außerhalb des Finanzbereichs vorgestellt, indem die zugehörigen Veröffentlichungen referiert und diskutiert werden. Die Anwendungsbereiche variieren aktuell über den Schutz persönlicher Daten bis zur Sicherung und Überwachung von Nahrungsmittelproduktionsketten.
Risk-based authentication (RBA) is an adaptive security measure to strengthen password-based authentication. RBA monitors additional implicit features during password entry such as device or geolocation information, and requests additional authentication factors if a certain risk level is detected. RBA is recommended by the NIST digital identity guidelines, is used by several large online services, and offers protection against security risks such as password database leaks, credential stuffing, insecure passwords and large-scale guessing attacks. Despite its relevance, the procedures used by RBA-instrumented online services are currently not disclosed. Consequently, there is little scientific research about RBA, slowing down progress and deeper understanding, making it harder for end users to understand the security provided by the services they use and trust, and hindering the widespread adoption of RBA.
In this paper, with a series of studies on eight popular online services, we (i) analyze which features and combinations/classifiers are used and are useful in practical instances, (ii) develop a framework and a methodology to measure RBA in the wild, and (iii) survey and discuss the differences in the user interface for RBA. Following this, our work provides a first deeper understanding of practical RBA deployments and helps fostering further research in this direction.
Online services such as social networks, online shops, and search engines deliver different content to users depending on their location, browsing history, or client device. Since these services have a major influence on opinion forming, understanding their behavior from a social science perspective is of greatest importance. In addition, technical aspects of services such as security or privacy are becoming more and more relevant for users, providers, and researchers. Due to the lack of essential data sets, automatic black box testing of online services is currently the only way for researchers to investigate these services in a methodical and reproducible manner. However, automatic black box testing of online services is difficult since many of them try to detect and block automated requests to prevent bots from accessing them.
In this paper, we introduce a testing tool that allows researchers to create and automatically run experiments for exploratory studies of online services. The testing tool performs programmed user interactions in such a manner that it can hardly be distinguished from a human user. To evaluate our tool, we conducted - among other things - a large-scale research study on Risk-based Authentication (RBA), which required human-like behavior from the client. We were able to circumvent the bot detection of the investigated online services with the experiments. As this demonstrates the potential of the presented testing tool, it remains to the responsibility of its users to balance the conflicting interests between researchers and service providers as well as to check whether their research programs remain undetected.
Risikobasierte Authentifizierung (RBA) ist eine adaptive Sicherheitsmaßnahme zur Stärkung passwortbasierter Authentifizierung. Sie zeichnet Merkmale während des Logins auf und fordert zusätzliche Authentifizierung an, wenn sich Ausprägungen dieser Merkmale signifikant von den bisher bekannten unterscheiden. RBA bietet das Potenzial für gebrauchstauglichere Sicherheit. Bisher jedoch wurde RBA noch nicht ausreichend im Bezug auf Usability, Sicherheit und Privatsphäre untersucht. Dieser Extended Abstract legt das geplante Dissertationsvorhaben zur Erforschung von RBA dar. Innerhalb des Vorhabens konnte bereits eine Grundlagenstudie und eine darauf aufbauende Laborstudie durchgeführt werden. Wir präsentieren erste Ergebnisse dieser Studien und geben einen Ausblick auf weitere Schritte.
The southeast of Córdoba province used to be originally covered by hundreds of wetlands that got heavily modified or drained in the last few decades. Since wetlands provide various important ecosystem services (ESS) for human well-being, their degradation created several problems in La Picasa basin, among which floods are the most obvious one. The wise use of wetlands is increasingly acknowledged to be part of nature-based solution approaches reducing disaster risk. However, in the study area these approaches remain a relatively new concept to decision makers and the lack of knowledge on their effectiveness and implementation process poses a serious barrier to their adoption.
To overcome this obstacle, this dissertation applies an ESS perspective on the current problems of La Picasa basin and sets it in a context of socio-ecological system (SES) theory. A comprehensive analysis of (1) the role wetlands have played in the historic development of the SES, (2) important stakeholder dynamics that create opportunities or restrictions for the conservation of wetlands and (3) possible management approaches to inverse negative ESS trade-offs and feedback loops, was performed.
Results demonstrate that the current problems of floods have both natural and anthropogenic causes. In this regard, wetlands hold a vital role in the complex historic interactions between the social and ecological drivers of changes in the water balance. Although a social network between stakeholders exists, several conflicts prevent a proper functioning of a basin-wide integrated management concept based on wetland restoration. Nature-based solution approaches, putting wetlands in the center of attention of future management strategies, were found to hold a high potential to reduce the risk of floods and, as a side-effect boost biodiversity and habitat quality in the study area.
Die vorliegende Arbeit vermittelt eine umfassende Darstellung der wesentlichen Unterschiede von deutschem und spanischem Zivilrecht im Hinblick auf die Rechts- und Geschäftsfähigkeit natürlicher Personen. Neben einer kurzen Zusammenfassung zur Entstehungsgeschichte des BGB werden Fragen zum Beginn und Ende der Rechtsfähigkeit, die Stufen der Geschäftsfähigkeit und Auswirkungen auf Rechtsgeschäfte bei Abgabe fehlerhafter Willenserklärungen behandelt.
Seitdem neue Displaytechniken wie Flüssigkristall- und Plasma-Anzeigen Einzug in den professionellen Fernsehbereich gehalten haben, gewinnen neben den herkömmlichen Qualitätsparametern zusätzliche Parameter wie die Bildqualität bei Bewegtbildwiedergabe enorm an Bedeutung. Um eine qualitative Bewertung für die Bewegtbildwiedergabe durchführen zu können, muss zunächst ein objektives Messverfahren für die Bestimmung der Bewegungsunschärfe entwickelt werden. Zusätzlich müssen diese objektiv gemessenen Ergebnisse auf Korrelation mit dem subjektiven Bildeindruck hin geprüft werden.
Das permanente Angebot und die Nachfrage an Informationen und Daten jeglicher Art wachsen zunehmend. Das Ergebnis einer meist verschachtelten Suche nach bestimmten Zahlen ist jedoch oftmals eine unübersichtliche, tabellarische Aufstellung derer. Zudem ist dagegen die Aufnahme grafischer Informationen erheblich höher und effektiver. Als Ergebnis der Diplomarbeit soll im ersten, theoretisch-wissenschaftlichen Teil eine technische Konzeption für ein intelligentes Visualisierungs-System erarbeitet werden. Im zweiten, praktischen Teil soll anhand der untersuchten Methoden und des entwickelten Konzepts eine Anwendung kreiert werden, welche ausgewählte Methoden zur interaktiven Visualisierung statistischer Daten nutzt.
Der Otterberger Kapitelsaal
(1993)
Die Veröffentlichung stellt einen Abriss zur Geschichte der Kölner Architekturfakultät dar. Außerdem sind von den ca. 200 identifizierten Architekturlehrern 59 Dozenten sowohl durch eine Kurzbiographie als auch durch ihre wichtigsten Bauten bzw. künstlerischen Werke genauer vorgestellt. Als Abspann dient ein historischer Abriss zur Ausbildung von Architekten (von Vitruv bis heute).
Die Bachelorarbeit befasst sich mit der Verwendung der NoSQL Datenbank Apache Cassandra. Dabei werden auf der einen Seite die Unterschiede bei Verwendung und Betrieb von Apache Cassandra im Vergleich mit relationalen SQL Datenbanken und auf der anderen Seite die Aspekte Geschwindigkeit, Ausfallsicherheit und Wiederverwendbarkeit untersucht. Die Verwendung und der Betrieb wird dabei durch die Umsetzung eines Datenimports, damit verbunden ist die Erstellung von entsprechenden Datenmodellen, und der Bereitstellung der Daten für die Darstellung von mobilen Statistiken in Form einer Android App untersucht. Für die Untersuchung der Geschwindigkeit, Ausfallsicherheit und Wiederverwendbarkeit werden zusätzlich zu den durch bereits durch die Umsetzung erhaltenen Ergebnissen noch an den jeweiligen Aspekt angepasste Belastungstest durchgeführt.
Seit den 90er Jahren des letzten Jahrtausends existieren Virtuelle Fachbibliotheken, die im Rahmen des Programms zur überregionalen Literaturversorgung von der DFG gefördert werden und mit der Verbindung von Nachweis und Zugang zu elektronischen und gedruckten wissenschaftlichen Informationen einen wichtigen Beitrag zur Fachinformationsversorgung für nahezu alle Wissenschaftsbereiche leisten. In dieser Arbeit wird überprüft, in wie fern die Virtuelle Fachbibliothek für die Medizin (Medpilot) die Anforderungen, die in der Literatur an eine Virtuelle Fachbibliothek gestellt werden erfüllt und in welcher Form die einzelnen Module umgesetzt wurden. Nach einer ausführlichen Beschreibung und einer Bewertung der einzelnen enthaltenen Module anhand definierter Kriterien werden Unterschiede zu anderen Angeboten aufgezeigt und Verbesserungsvorschläge unterbreitet.
Circular economy (CE) has received considerable interest in recent years as a strategy to resolve some of our modern urban resource challenges, and circular city models often incorporate systems of urban agriculture in their design. Much work has analyzed the benefits of urban agriculture for creating a resilient food system and as a strategy for supporting urban green space and social cohesion, however, the contributions from business models that operate within urban agriculture have not been thoroughly studied. Many urban agriculture businesses often claim high levels of resource recycling and material circularity, though whether a resource efficiency throughout the entire product lifetime (including energy and material footprint for the cultivation equipment) in comparison to current industrial strategies is truly feasible or even possible is still to be debated. This thesis builds upon work that incorporates social dimensions of CE definitions and begins to research whether the potential resource efficiency contradiction can be justified as to make urban agriculture a valid approach for circular city design. This study examined an urban mushroom farm that implements a circular business model. A qualitative summary of the business operations and resource flows were unpacked and sorted into 24 socio-economic contributions based on their interpreted relevance. The interpreted data shows that an urban agriculture business model can contribute to the building blocks of a CE through economic, ecological, social, and spatial contributions. While these contributions can contribute positively to the operationalization of CE, potential trade-offs regarding resource efficiency, use of urban space, and investment priorities need to be considered and addressed to avoid a possible watering down or greenwashing of the CE concept.
„2MN - Module für die multimediale netzbasierte Hochschullehre“ ist ein Verbundprojekt von vier deutschen Hochschulen, gefördert durch das Bundesministerium für Bildung und Forschung. Im Rahmen des Projektes wurde die webbasierte Lernplattform ELAT entwickelt und multimediale Lehrinhalte insbesondere für informationswissenschaftliche Studiengänge erstellt, eingesetzt und evaluiert. Einer der Projektpartner, die Fachhochschule Köln, realisierte die Evaluation im Teilprojekt „2MN-Evaluation“. Neben der Untersuchung von Qualität und Ergonomie der Lehrmodule und der Kontrolle des Lernerfolges sollte insbe-sondere auch ermittelt werden, unter welchen Bedingungen Kurse in andere Hochschulen und Curricula erfolgreich transferiert werden können. Dazu wurden die an der Fachhochschule Darmstadt erstellten Lehrinhalte in den Bereichen „Klassifikation“ und „Indexieren und Thesaurus“ und die Lernplattform ELAT an der Fachhochschule Köln in den Studiengängen des Instituts für Informationswissenschaft in der Lehre eingesetzt und evaluiert. Die Verortung der durch die Lehrmodule abgedeckten Themen unterscheidet sich in beiden Curricula deutlich. Dies spiegelt sich in den Evaluationsergebnissen des Kölner Teilprojektes wider. Für die Frage nach der Übertragbarkeit sowie der medientechnischen Ausgestaltung von e-Learning-Modulen ergeben sich daraus eine Reihe von Konsequenzen, insbesondere in Hinblick auf Organisation, Einbettung, Auswahl und Anpassung von Online-Lehrveranstaltungen und deren Inhalten.
Feasibility Study of Wheel Torque Prediction with a Recurrent Neural Network Using Vehicle Data
(2023)
In this paper, we present a feasibility study on predicting the torque signal of a passenger car with the help of a neural network. In addition, we analyze the possibility of using the proposed model structure for temperature prediction. This was carried out with a neural network, specifically a three-layer long short-term memory (LSTM) network. The data used were real road load data from a Jaguar Land Rover Evoque with a Twinster gearbox from GKN. The torque prediction generated good results with an accuracy of 55% and a root mean squared error (RMSE) of 49 Nm, considering that the data were not generated under laboratory conditions. However, the performance of predicting the temperature signal was not satisfying with a coefficient of determination (R2) score of −1.396 and an RMSE score of 69.4 °C. The prediction of the torque signal with the three-layer LSTM network was successful but the transferability of the network to another signal (temperature) was not proven. The knowledge gained from this investigation can be of importance for the development of virtual sensor technology.
Grasping and manipulation with anthropomorphic robotic and prosthetic hands presents a scientific challenge regarding mechanical design, sensor system, and control. Apart from the mechanical design of such hands, embedding sensors needed for closed-loop control of grasping tasks remains a hard problem due to limited space and required high level of integration of different components. In this paper we present a scalable design model of artificial fingers, which combines mechanical design and embedded electronics with a sophisticated multi-modal sensor system consisting of sensors for sensing normal and shear force, distance, acceleration, temperature, and joint angles. The design is fully parametric, allowing automated scaling of the fingers to arbitrary dimensions in the human hand spectrum. To this end, the electronic parts are composed of interchangeable modules that facilitate the echanical scaling of the fingers and are fully enclosed by the mechanical parts of the finger. The resulting design model allows deriving freely scalable and multimodally sensorised fingers for robotic and prosthetic hands. Four physical demonstrators are assembled and tested to evaluate the approach.
Ziel des Siemens-Fahrgastinformationssystems SiMAP®-FIS ist die Bereitstellung von Technologie zur Information der Fahrgäste von Verkehrsunternehmen über Zugläufe, Ankunftszeiten und besondere Betriebssituationen. Die Informationsdarstellung kann z.B. stationär über Anzeigen an den Bahnsteigen, im Internet oder mobil auf WAP-fähigen Endgeräten wie Mobile Phones oder PDA erfolgen. Die Anzeigen informieren über die in nächster Zeit einfahrenden Züge inkl. Zugziel, Ankunftszeit und ggf. Einfahr-Gleis. Zusätzlich sind aktuelle Sondermeldungen oder Werbetexte darstellbar. Der Praxissemesterbericht gibt einen Überblick über die Systemkomponenten, insbesondere Bereichsrechner, Bedienplätze und Stationsrechner. Schwerpunkt ist die Beschreibung der grundlegenden Software-Konzepte, darunter die plattformübergreifende Kommunikation mit Datentelegrammen auf XML-Basis via TCP/IP-Client/Server-Komponenten. Die namensgebende Siemens Modular Applikation Platform SiMAP® als gemeinsame modulare Software-Basis aller Microsoft-Windows-basierten Systemkomponenten wird mit ihrem objektorientierten Design vorgestellt. Programmiersprache ist C++.