Refine
Year of publication
Document Type
- Master's Thesis (255)
- Bachelor Thesis (130)
- Report (42)
- Study Thesis (31)
- Working Paper (31)
- Conference Proceeding (30)
- Book (27)
- Article (14)
- Part of a Book (9)
- Other (6)
Language
- German (584) (remove)
Has Fulltext
- yes (584) (remove)
Keywords
- Rückversicherung (36)
- Versicherung (27)
- Reinsurance (26)
- Kölner Forschungsstelle Rückversicherung (25)
- Sozialarbeit (23)
- Versicherungswirtschaft (23)
- Deutschland (18)
- Soziale Arbeit (18)
- Bibliothek (17)
- Marketing (15)
Faculty
- Fakultät 10 / Institut für Informatik (143)
- Fakultät 03 / Institut für Informationswissenschaft (98)
- Fakultät 07 / Institut für Medien- und Phototechnik (57)
- Fakultät 04 / Institut für Versicherungswesen (43)
- Fakultät 04 / Schmalenbach Institut für Wirtschaftswissenschaften (23)
- Fakultät 10 / Advanced Media Institute (23)
- Fakultät 03 / Institut für Translation und Mehrsprachige Kommunikation (22)
- Fakultät 10 / Institute for Business Administration and Leadership (19)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (18)
- Fakultät 01 / Institut für Medienforschung und Medienpädagogik (14)
An der Schwelle in ein überwiegend digitales Informationszeitalter stößt das in der „Printwelt“ fest etablierte Publikationsmodell des wissenschaftlichen Zeitschriftenverlages immer mehr an seine Grenzen. Dies ist nicht nur auf das enorme Potenzial der modernen Informations- und Kommunikationstechnologien des 21. Jahrhunderts zurückzuführen, sondern auch auf die zunehmende Konzentration im wissenschaftlichen Verlagswesen, die eine „Krise der wissenschaftlichen Informationsversorgung“ ausgelöst hat. Vor diesem Hintergrund haben sich in den letzten Jahren verschiedene Formen des elektronischen Publizierens herausgebildet, welche die Akteure des wissenschaftlichen Publikationswesens zwingen, sich neu zu positionieren. Dies gilt insbesondere für die wissenschaftlichen Bibliotheken, die ihr klassisches Konzept von Bestandsaufbau, -erschließung und -vermittlung dringend modifizieren müssen. Gleichzeitig bietet die derzeitige Umbruchsituation den Bibliotheken aber auch die Chance, künftig eine aktivere Rolle zu spielen. Das Ziel der vorliegenden Arbeit ist es, die neuen Möglichkeiten, die sich durch die modernen Informations- und Kommunikationstechnologien ergeben, vor allem im Hinblick auf eine Neupositionierung der Bibliotheken im Bereich des wissenschaftlichen Publizierens, auszuloten. Im Mittelpunkt der Analyse stehen dabei die STM-Disziplinen und der wissenschaftliche Zeitschriftenmarkt, weil in diesem Bereich angesichts der zunehmend ausufernden „Zeitschriftenkrise“ der größte Handlungsbedarf besteht.
Welchen Stellenwert hat philosophische Literatur für Kinder und Jugendliche zu Beginn der Informationsgesellschaft und zum Ende dieses Jahrtausends? Macht es nicht wesentlich mehr Sinn, eine Computerzeitschrift zu abonnieren ? Oder kommt der Philosophie im Zeitalter der Bits und Bytes doch noch eine Bedeutung zu? In unserer immer komplexer werdenden Gesellschaft muß die Entwicklung eines stabilen Ichs ein grundlegendes Erziehungsziel sein. Die Identitätsfindung hat aber ganz unmittelbar etwas damit zu tun, was man als "philosophische Fragestellungen" bezeichnen kann. Soziale und politische Mündigkeit sind nicht losgelöst zu sehen von den Fragen : Wer bin ich ? Welche Werte habe ich? Angesichts der Informationsflut in unserer Mediengesellschaft wird es immer schwieriger, seinen eigenen Standpunkt zu finden. In diesem Zusammenhang ist nicht nur der Zugang zu Information wichtig, sondern auch die Fähigkeit, diese Informationen kritisch zu hinterfragen. Um scheinbar Selbstverständliches und Alltägliches einordnen und seine Bedeutung kritisch bewerten zu können, muß man die Fähigkeit zur Reflexion und Selbstreflexion erworben haben. Damit bewegt man sich aber schon auf dem Gebiet der Philosophie. In der vorliegenden Arbeit wird versucht, in einem theoretischen Teil eine Übersicht über die Geschichte und die verschiedenen Richtungen der Kinderphilosophie zu geben. Anhand eines ausgewählten Beispiels ("Sofies Welt" von Jostein Gaarder) soll dann in einem zweiten Teil ein Bezug zwischen einem literarischen Bestseller aus dem bibliothekarischen Grundbestand und kinderphilosophischen Aspekten hergestellt werden. In einem dritten, praxisnahen Teil möchte ich untersuchen, in welchem Grad der große Verkaufserfolg dieses Buches sich als Bekanntheitsgrad in einer bestimmten Altersgruppe (10. Jahrgangsstufe) widerspiegelt.
Die Koordination von Großschadenslagen mit vielen Verletzten stellt die Verantwortlichen vor eine schwere Aufgabe. Gemeinsam mit anderen Partnern aus Wissenschaft und Industrie bearbeitet die Fachhochschule Köln das orschungsprojekt "Beherrschbarkeit von Katastrophenereignissen durch autonom vernetzte Sensoren (MANET)". Mit dem Ergebnis dieses Projekts soll die Koordination der Einsatzkräfte, der Fahrzeuge und des Materials verbessert werden, mit dem Ziel eine schnellere Patientenversorgung zu gewährleisten. Bisher existieren Prototypen des entwickelten Systems. Dieses wird in realitätsnahen Übungen, in denen Groÿschadenslagen dargestellt werden, von Einsatzkräften verwendet. Um die Anwenderfreundlichkeit des Systems zu ermitteln wurde eine Befragung konzipiert, mit der die Erfahrungen der Anwender nach der Übung ermittelt werden können. Im Vorlauf der Befragungserstellung wurden allgemeine Regeln zur Fragen- und Antwortgestaltung sowie Grundlagen zur Auswertung de niert. Die Befragung wird mithilfe eines elektronischen Befragungssystems durchgeführt, wodurch die Fragen und Antworten besondere Vorgaben zu erfüllen haben. Diese wurden bei der Erstellung der Fragen, zusätzlich zu den allgemeinen Regeln, berücksichtigt. Neben den Fragen wurden für die Befragung Umgebungsbedingungen de niert, die für eine erfolgreiche Durchführung notwendig sind. Gemeinsam mit den Fragen wurden diese Bedingungen in einem Fragebogen zusammengefasst, der den gesamten Ablauf der Befragung vorgibt. Durch diese Vorgabe ist eine Vergleichbarkeit von mehreren Befragungsdurchgängen gewährleistet.
Vergleich von verteilten Datenbanksystemen hinsichtlich ihrer Clusterbildung und Skalierbarkeit
(2017)
Die vorliegende Ausarbeitung geht der Frage nach, wie sich die Datenbankmanagementsysteme MariaDB, MongoDB und Cassandra hinsichtlich ihres Clusteraufbaus,
sowie den damit verbundenen Möglichkeiten der Skalierbarkeit unterscheiden. Dazu werden zunächst Grundlagen zum Aufbau von verteilten Datenbanksystemen, zu den verschiedenen Transaktionskonzepten, sowie zu den möglicherweise auftretenden Probleme vermittelt. Anschließend werden die drei Systeme im Detail untersucht und herausgearbeitet, wie sie genau funktionieren und in welchen Punkten sie sich von einander unterscheiden. Als Abschluss wird ein Fazit gezogen, welches System in verteilten Computerumgebungen
am geeignetsten ist, insofern ein klarer Sieger hervorgeht.
Diskussionen über Gleichwertigkeitsbeschlüsse und bilateral ausgehandelte Abkommen wie z. B. das Covered Agreement zur Regelung des Betriebs von Rückversicherungsgeschäft zwischen der EU und den Vereinigten Staaten könnten für international tätige Versicherungsgruppen zukünftig der Vergangenheit angehören. Als Vereinigung von Versicherungsbehörden aus über 200 Ländern arbeitet die International Association of Insurance Supervisors (IAIS) seit 2013 an der Entwicklung eines risikobasierten, global anwendbaren Kapitalstandards (Insurance Capital Standard – ICS). Übergeordnetes Ziel ist die Schaffung eines übergreifenden Regulierungsrahmens für große international tätige Versicherungsgruppen mit Mindeststandards für die Bewertung von Risiken und daraus resultierenden Anforderungen an die Kapitalausstattung.
Es liegt in der Natur der Sache, dass bei der Entwicklung eines globalen Kapitalstandards die Interessen aus vielen verschiedenen Jurisdiktionen mit unterschiedlichen Systemen aufeinandertreffen (insbesondere trifft die verschiedenen Aufsichtsregime aus Europa und den Vereinigten Staaten aufeinander). Das IAIS hat sich zum Ziel gesetzt, die Interessengruppen zusammen zu bringen und ohne die lokalen Aufsichtsregime in den Jurisdiktionen auszuklammern, einen globalen Mindestkapitalstandard für international tätige Versicherungsgruppen zu entwickeln.
Der ICS wird im Rahmen der Konsolidierungsmethode berechnet und weist daher viele Ähnlichkeiten mit Solvency II auf. Der US Alternativansatz wird im Rahmen der Aggregationsmethode berechnet und soll ähnliche Ergebnisse zur Konsolidierungsmethode liefern.
Am Ende stellt sich für die europäischen (Rück-)Versicherungsunternehmen die Frage, ob man akzeptiert, dass US Ansatz äquivalent zum ICS ist, um das Ziel eines globalen Kapitalstandards als Level Playing Field zu etablieren.
Die IEA prognostiziert einen Anstieg des globalen Anteils erneuerbarer Energien am Energiemix von 22,8% in 2015 auf 38,1% in 2027, begleitet von verstärktem (Rück-) Versicherungsbedarf. Sechs Herausforderungen in der Rückversicherung erneuerbarer Energien werden skizziert, darunter komplexe Underwriting-Anforderungen, zunehmende Integration von ESG-Faktoren, Bewertung der Zeichnungspolitik der Zedenten, Mangel an Schadenerfahrung, Naturkatastrophenexposition und die Anpassung von Rückversicherungsformen an die spezifischen Bedürfnisse. Die Zukunft erfordert den Aufbau von Expertise für erneuerbare Energien und eine ganzheitliche Bewertung von Schadensszenarien. Besonders im Offshore Wind Geschäft bleibt ein Druck auf Preise und Bedingungen bestehen.
Web 2.0 als markantes Marketingschlagwort und ein Begriff, der viele Assoziationen und Interpretationsmöglichkeiten zulässt, beschreibt die Entwicklungsphase, die das Internet momentan durchläuft. Verbunden mit zahlreichen Anwendungen und Konzepten wie Wikis, Podcasts, Blogs, Social Tagging, Webplattformen, Social Networks und weiteren wesentlichen Elementen vollzieht sich im Internet eine immer stärkere Demokratisierung, die sich in ihren dezentralen Strukturen und zunehmend partizipierten Nutzern zeigt. Die Nutzer selbst verfügen über immer größer werdende Freiräume sowie Möglichkeiten eigene Inhalte zu publizieren, selbstständig zu kommunizieren, zu diskutieren und Inhalte gemeinsam durch die kollektive Zusammenarbeit zu verändern sowie deren Qualität und Vielfältigkeit zu verstärken. Dies hat maßgeblich die Kommunikation und den Austausch von Informationen im Internet verändert und weiterentwickelt. Auch Weblogs1 positionieren sich zunehmend als Bestandteil dieser sich verändernden Medien- und Informationslandschaft als neu entstandenes Instrument zur Kommunikation, Information und Vernetzung. Dabei stellen die zunächst als verlinkende und navigierende Instrumente entstandenen Weblogs innerhalb des Internets heute eine wichtige Form der Auseinandersetzung mit sowohl privaten als auch öffentlichen Themen dar. Entscheidend ist dabei vor allem die sehr subjektive und authentische Darstellung von persönlichen Erlebnissen, jedoch auch die Reflexion politischer und gesellschaftlicher Neuigkeiten sowie die kritische Auseinandersetzung mit der Medienlandschaft. Besonders die Diskussion über verschiedene sehr breit gefächerte Themenkomplexe sowie der Austausch und die Vernetzung in der so genannten Blogosphäre nehmen dabei einen hohen Stellenwert ein. Wenngleich die Auseinandersetzung mit der eigenen Person vor allem im privaten Bereich auftritt, stellen sich Weblogs im unternehmerischen Bereich zunehmend als wertvolle Instrumente des Marketings und der internen wie externen Kommunikation heraus. Als einfach einzurichtende und leicht handhabende Instrumente werden Weblogs immer stärker in die Ziele und Strategien von Unternehmen mit eingebunden. Aber auch Bibliotheken sind zunehmend auf diesen neuen Bereich des Internets aufmerksam geworden. Anhand eines zunächst einleitenden Kapitels über den Begriff des Web 2.0 im Allgemeinen sowie speziellen Formen und der Darstellung von Weblogs als separat betrachtete Form der Web 2.0-Anwendungen, stellt diese Arbeit die Verwendung von Weblogs in öffentlichen Bibliotheken ins Zentrum der Betrachtung. Neben einer Übersicht über den momentanen Stand von konkreten Anwendungen und der vorliegenden Quellenlage soll eine vergleichende Betrachtung von Beispielen aus Deutschland und den USA anhand einer Analyse konkrete Erkenntnisse verdeutlichen und zeigen, inwieweit Chancen bereits genutzt werden und noch Potenziale bestehen. Abschließend werden diese Ergebnisse in einem eigenständigen Konzept zur Umsetzung einer Bloggingstrategie für öffentliche Bibliotheken dargestellt und in einem Fazit in Zusammenhang mit einem Ausblick auf mögliche, zukünftige Entwicklungen gesetzt.
As a customer, it can be frustrating to face an empty shelf in a store. The market does not always realize that a product has been out of stock for a while, as the item is still listed as in stock in the inventory management system. To address this issue, a camera should be used to check for Out-of-Stock (OOS) situations.
This master thesis evaluates different model configurations of Artificial Neural Networks (ANNs) to determine which one best detects OOS situations in the market using images. To create a dataset, 2,712 photos were taken in six stores. The photos clearly show whether there is a gap on the shelf or if the product is in stock. Based on the pre-trained VGG16 model from Keras, two fully connected layers were implemented, with 36 different ANNs differing in the optimization method and activation function pairings. In total, 216 models were generated in this thesis to investigate the effects of three different optimization methods combined with twelve different activation function pairings. An almost balanced ratio of OOS and in-stock data was used to generate these models.
The evaluation of the generated OOS models shows that the FTRL optimization method achieved the least favorable results and is therefore not suitable for this application. Model configurations using the Adam or SGD optimization methods achieve much better results. Of the top six model configurations, five use the Adam optimization method and one uses SGD. They all achieved an accuracy of at least 93% and were able to predict the Recall for the OOS class with at least 91%.
As the data ratio between OOS and in-stock data did not correspond to reality in the previously generated models, the in-stock images were augmented. Including the augmented images, new OOS models were generated for the top six model configurations. The results of these OOS models show no convergences. This suggests that more epochs in the training phase lead to better results. However, the results of the OOS model using the Adam optimization method and the Sigmoid and ReLU activation functions stand out positively. It achieved the best result with an accuracy of 97.91% and a Recall of the OOS class of 87.82%.
Overall, several OOS models have the potential to increase both market sales and customer satisfaction. In a future study, the OOS models should be installed in the market to evaluate their performance under real conditions. The resulting insights can be used for continuous optimization of the model.
Diese Diplomarbeit beleuchtet die in Deutschland bisher wenig beachtete Thematik der Hörgeschädigten als Bibliotheksbenutzer. Sie beschreibt die Erscheinungsformen und die Verbreitung der Hörschädigung in Deutschland und ihren negativen Einfluss auf die Lese- und Informationskompetenz der Betroffenen. Das Dienstleistungsangebot für Hörgeschädigte in ausländischen und deutschen Bibliotheken wird detailliert beschrieben und verglichen. Anschließend werden die verschiedenen Dienstleistungen im Einzelnen erläutert und ein möglicher Einsatz in deutschen Bibliotheken diskutiert. Als Ergebnis wird festgehalten, dass es in deutschen Bibliotheken, im Gegensatz zu denen im Ausland, kaum spezielle Angebote für Hörgeschädigte gibt. Bibliotheken müssen gezielt Bestandsaufbau betreiben, technische Hilfsmittel zur Verfügung stellen und Hörgeschädigte in das Veranstaltungsangebot integrieren, um so auch dieser Gruppe Medien- und Informationskompetenz zu vermitteln.
Die vorliegende Masterarbeit behandelt die Bewertung der eingegangenen Unternehmensrisiken im Rahmen der Lebensversicherung und die hiervon abgeleiteten Auswirkungen zur Unternehmenssteuerung.
Dabei wird einerseits die Angemessenheit der sog. „Standardformel“ nach Solvency II überprüft, die in den europäischen Mitgliedsstaaten einen weitestgehend einheitlichen Ansatz bei der Bewertung der Risiken von Versicherungsunternehmen verwendet. Andererseits werden unter ökonomischen Überlegungen versicherungsmathematische Methoden vorgestellt, wie ein Lebensversicherer seine Risiken unternehmensindividueller ermitteln und damit seinen tatsächlichen Risikokapitalbedarf bestimmen kann.
Zur Quantifizierung der Ergebnisse werden die Berechnungsvorgaben der Standardformel für ausgewählte Risikomodule nachgebildet und mit den in dieser Arbeit vorgestellten unternehmensindividuellen Berechnungen verglichen und analysiert. Es zeigt sich, dass trotz der Komplexität des Solvency II-Modells eine noch differenziertere Herangehensweise notwendig ist, damit ein einzelnes Unternehmen seine Risiken adäquat und möglichst individuell bestimmen kann. Zur Gewährleistung einer nicht bestandsgefährdenden Unternehmensfortführung müssen die Versicherungsunternehmen bei Betrachtung ihrer Risiken mithilfe des EU-weiten Aufsichtssystems Solvency II in der Lage sein, die korrekten Rückschlüsse zur Unternehmenssteuerung zu ziehen. Die in dieser Arbeit vorgestellten versicherungsmathematischen Ansätze können dabei den Prozess zur unternehmenseigenen Risiko- und Solvabilitätsbeurteilung (ORSA) unterstützen.
Die Lebensversicherer in Deutschland als institutionelle Investoren haben eine erhebliche Verantwortung für die Absicherung der Menschen im Alter. Aufgrund des anhaltenden schwierigen Zinsumfeldes stehen sie jedoch unter enormen Druck, ihre Leistungsversprechen langfristig einzuhalten zu können.
Der Gesetzgeber führte daher 2011 die Zinszusatzreserve (ZZR) ein, um im Rahmen der sinkenden Kapitalmarktzinsen eine moderate Form der Nachreservierung zu schaffen.
Als die ZZR eingeführt wurde, war allerdings nicht absehbar, dass sich das Niedrigzinsumfeld auf eine so lange Zeit erstrecken würde, wie es nun der Fall ist.
Die bisherige Systematik der ZZR führte in den letzten Jahren zu einem erheblichen Ausmaß und damit verbunden zu einer enormen Belastung für die Lebensversicherer. Bei einer Beibehaltung des Verfahrens könnte sich die ZZR nach Schätzungen der Assekurata Rating Agentur bis zum Jahr 2025 auf beachtliche 200 Milliarden Euro belaufen. Dies würde bedeuten, dass sich der Gesamtaufwand zur Dotierung der ZZR im Vergleich zum Geschäftsjahr 2017 noch verdreifachen würde.
Daher beschäftigt sich die vorliegende Arbeit mit einer Neukalibrierung der ZZR und einer damit verbundenen völlig neuen Berechnungsmethodik.
Die "Methode 2M", die von der Deutschen Aktuarvereinigung e. V. (DAV) entwickelt wurde, wird als möglicher Lösungsweg zur Entlastung der Lebensversicherer detailliert beschrieben und analysiert. Mithilfe aktuarieller Berechnungen werden dabei insbesondere die quantitativen Auswirkungen der Methode 2M im Hinblick auf verschiedene Zinsszenarien bis zum Jahr 2030 aufgezeigt und eine kritische Beurteilung vorgenommen, ob die neue Berechnungsmethodik den gewünschten Erfolg erzielt.
Das eLearning Datenbank Portal der Fachhochschule Köln unterstützt Studierende im Fach Datenbanken und Informationssysteme mit umfangreichen E-Learning-Tools (http://edb.gm.fh-koeln.de). Die Diplomarbeit „Konzeption und Realisierung eines Statistiktools auf Basis von JSP und DOJO“ beschäftigt sich mit der Entwicklung eines Statistiktools, das die Nutzung des eLearning Portals durch die Studenten auswertet und die Nutzungsdaten als Diagramme auf einer Benutzeroberfläche einfach und übersichtlich dargestellt, damit diese von Lehrenden überprüft werden können. Der theoretische Teil der Diplomarbeit ist in zwei Abschnitte aufgeteilt. Der erste Abschnitt beschreibt die Grundlagen von Java Server Pages und die JavaScript-Bibliothek Dojo Toolkit. Es werden deren Eigenschaften und praktische Anwendung ausführlich erläutert. Der zweite Abschnitt befasst sich mit der Entwicklung eines Konzepts zum Statistiktool. Es stehen die Analyse der Nutzungsdaten und der Vergleich zwischen Oracle Application Express (APEX) und Dojo zur Erstellung von Diagrammen in Vordergrund. Im praktischen Teil der Diplomarbeit wird das Konzept umgesetzt und die Implementierung des Statistiktools als JSP-Anwendung mit der Verwendung von Dojo beschrieben.
Die vorliegende Bachelorarbeit in Kooperation mit der Deutsche Sporthochschule Köln hat die Konzeption und Entwicklung eine Software, mit der Daten aus der Fußball-Bundeliga 2011–2012 mit Hilfe einer Heatmap erzeugt werden, zum Inhalt. Die Software soll die Torpositionen vor einem Offensivspiel zu verschiedenen Zeitpunkten des Spieles veranschaulichen.
Bei der Arbeit wurden zwei Cluster-Methoden betrachtet, nämlich die Density-Based Spatial Clustering of Applications with Noise (DBSCAN) und der Kerndichtschätzer (kernel density estimation). DBSCAN ist ein bekannter Cluster-Algorithmus und wurde mit dem Software-Tool WEKA untersucht. Es zeigte sich, dass dieses Verfahren nicht so gut für diese Aufgabenstellung geeignet ist, da einzelnen Cluster nicht so gut unterschieden werden konnten. Der Kerndichtschätzer ist dagegen ein statistisches Verfahren zur Schätzung einer Dichte, der auch in Geoinformationssystemen verwendet wird. Dieses Verfahren ist besser für die Aufgabenstellung geeignet.
Nach der Analyse der Daten im XML-Format wurde der Algorithmus Kerndichtschätzer für die Deutsche Sporthochschule Köln in detr Programmiersprache Java implementiert. Die Software untersucht die Bildung von Clustern bzw. die Torschussdichte mit der Absicht, ein Verhalten oder Muster vor einem Offensivspiel zu erkennen. Sie enthält eine sehr gute Visulisierung der verschiedenen Situationen, die zum Torschuss führten, anhand eines Fußballfeldes
Die Analyse von Log-Dateien als Spezialfall des Text Mining dient in der Regel dazu Laufzeitfehler oder Angriffe auf ein Systems nachzuvollziehen. Gegen erkannte Fehlerzustände können Maßnahmen ergriffen werden, um diese zu vermeiden. Muster in semi-strukturierten Log-Dateien aus dynamischen Umgebungen zu erkennen ist komplex und erfordert einen mehrstufigen Prozess. Zur Analyse werden die Log-Dateien in einen strukturierten Event-Log (event log) überführt. Diese Arbeit bietet dem Anwender ein Werkzeug, um häufige (frequent) oder seltene (rare) Ereignisse (events), sowie temporale Muster (temporal patterns) in den Daten zu erkennen. Dazu werden verschiedene Techniken des Data-Minig miteinander verbunden. Zentrales Element ist dieser Arbeit das Clustering. Es wird untersucht, ob durch Neuronale Netze mittels unüberwachtem Lernen (Autoencoder) geeignete Repräsentationen (embeddings) von Ereignissen erstellt werden können, um syntaktisch und semantisch ähnliche Instanzen zusammenzufassen. Dies dient zur Klassifikation von Ereignissen, Erkennung von Ausreißern (outlier detection), sowie zur Inferenz einer nachvollziehbaren visuellen Repräsentation (Regular Expressions; Pattern Expressions). Um verborgene Muster in den Daten zu finden werden diese mittels sequenzieller Mustererkennung (Sequential Pattern Mining) und dem auffinden von Episoden (Episode Mining) in einem zweiten Analyseschritt untersucht. Durch das Pattern Mining können alle enthaltenen Muster im einem Event-Log gefunden werden. Der enorme Suchraum erfordert effiziente Algorithmen, um in angemessener Zeit Ergebnisse zu erzielen. Das Clustering dient daher ebenfalls zur Reduktion (pruning) des Suchraums für das Pattern Mining. Um die Menge der Ergebnisse einzuschränken werden verschiedene Strategien auf ihre praktische Tauglichkeit hin untersucht, um neue Erkenntnisse zu erlangen. Zum einen die Mustererkennung mittels verschiedener Kriterien (Constrained Pattern Mining) und zum anderen durch die Nützlichkeit (High Utility Pattern Mining) von Mustern. Interessante temporale Muster können auf anderen Log-Dateien angewendet werden, um diese auf das Vorkommen dieser Muster zu untersuchen.
Problemstellung: COVID-19 ist nicht nur aufgrund der Folgen der Erkrankung problematisch, sondern auch aufgrund einer ganzen Reihe von Sekundäreffekten. So stellt eine lang andauernde Pandemie eine Dauerbelastung dar, welche sich auf die Psyche des Menschen auswirken kann. Insbesondere Kinder und Jugendliche sind hier auf-grund ihrer besonderen Angewiesenheit auf das häusliche Umfeld besonders vulnerabel. Zeitgleich ist diese Gruppe in bestehenden Krisenplänen bisher nicht oder kaum relevant. Aufgrund der Besonderheit, dass sich Kinder und Jugendliche noch in der Entwicklung befinden und dass, insbesondere für jüngere Kinder, die aktuell seit über einem Jahr bestehende Situation der Pandemie und die damit verbundenen Einschränkungen einen erheblichen Zeitraum darstellt, besteht ebenfalls die Gefahr von kulturellen und sozialen Entwicklungsproblemen. Vor diesem Hintergrund ist auch zu beachten, dass Maßnahmen gegen das Virus, welches die Primärgefahr darstellt, ebenfalls negative Auswirkungen auf Kinder und Jugendliche darstellen und somit zu Sekundärgefahren führen können. Weiterhin ist zu bedenken, dass Fehler in der Pandemiebekämpfung, welche sich nachhaltig negativ auf Kinder und Jugendliche auswirken, in der Zukunft in Form von Problematiken im Erwachsenenalter und, bei entsprechend vielen Betroffe-nen, in der gesamten Gesellschaft sichtbar werden. Um dies zu erforschen, werden zunächst die Fragestellungen bearbeitet, welche Sekundärgefahren und Risiken aufgrund von COVID-19 für Kinder und Jugendliche vorliegen, sowie ob die Vor- und Nachteile der Lockdowns die Vorteile für Kinder und Jugendliche überwiegen. Im Anschluss werden Handlungsempfehlungen gegeben, wie die Gesundheit und das Wohlergehen von Kindern und Jugendlichen in künftig ähnlichen Lagen sichergestellt werden können.
Angewandte Methoden: Um ein möglichst umfassendes Bild über die Lage von Kindern und Jugendlichen in Deutschland zu erhalten, werden Experteninterviews mit Expertinnen und Experten aus unterschiedlichen Fachgebieten und Berufsbereichen durchge-führt. Aufgrund der internationalen Vergleichbarkeit der Problematik werden auch Ex-pertinnen und Experten aus dem internationalen Raum befragt. Dies kann dazu beitragen, Aspekte, welche im nationalen Raum nicht bekannt sind oder nicht als relevant eingeschätzt werden, in diese Arbeit mit einfließen zu lassen. Weiterhin werden Studien und Quellen aus dem nationalen Raum in Form einer Sekundäranalyse betrachtet, um auf die Vor- und Nachteile der Lockdowns Rückschlüsse ziehen zu können. Insbesondere die Unterschiedlichkeit der verschiedenen Studien und Quellen stellte dabei eine große Herausforderung dar. Somit findet eine Anwendung von qualitativen und quanti-tativen Methoden statt, was als Mixed Methods bezeichnet wird.
Wichtigste Ergebnisse: Eine eindeutige Aussage über die Sekundärgefahren für Kinder und Jugendliche gestaltet sich als schwierig, da diese Gefahren unter anderem stark durch das häusliche Umfeld geprägt sind. So scheinen Kinder und Jugendliche aus so-zial schwächeren Familien in einem höheren Maße betroffen zu sein als jene, aus sozial stärkeren Familien. Zusätzlich stellt die Pandemie eine Brennglasfunktion für bereits zu-vor bestehende Problematiken dar. Der Vergleich von Vor- und Nachteilen der Lockdowns für Kinder und Jugendliche zeigt die Unterschiedlichkeit bestehender Studien und Quellen auf, wodurch das Ergebnis dieser Fragestellung primär Indizien darstellt. Die Handlungsempfehlungen, welche ebenfalls ein Ziel dieser Arbeit darstellen, bestehen
auf den vorherigen Ergebnissen aufbauend aus grundsätzlichen Handlungsempfehlungen, dem Einbezug von Kindern und Jugendliche in Pandemiepläne, der Beteiligung von Kindern und Jugendlichen in Entscheidungen bezüglich Krisensituationen sowie der Nachsorge der aktuellen Pandemie.
Anwendungsgebiet und Zielgruppe: Bei dem Anwendungsgebiet handelt es sich zu-nächst um ganz Deutschland, wobei unter Beachtung örtlicher Gegebenheiten auch ein internationaler Anwendungsbezug des Themas besteht. Die Zielgruppe stellen insbesondere Politiker und Entscheider in Behörden dar, welche zuständig für die Formulierung bzw. Fortschreibung von Pandemieplänen und für die Bereitstellung der techni-schen und personellen Ressourcen sind.
Die Blockchain ist nicht nur im Bereich der Finanzwelt angekommen, auch andere Branchen versuchen sich an ihrer Anwendung. In diesem Artikel werden Konzepte und Modelle von Blockchain-Anwendungen außerhalb des Finanzbereichs vorgestellt, indem die zugehörigen Veröffentlichungen referiert und diskutiert werden. Die Anwendungsbereiche variieren aktuell über den Schutz persönlicher Daten bis zur Sicherung und Überwachung von Nahrungsmittelproduktionsketten.
Risikobasierte Authentifizierung (RBA) ist eine adaptive Sicherheitsmaßnahme zur Stärkung passwortbasierter Authentifizierung. Sie zeichnet Merkmale während des Logins auf und fordert zusätzliche Authentifizierung an, wenn sich Ausprägungen dieser Merkmale signifikant von den bisher bekannten unterscheiden. RBA bietet das Potenzial für gebrauchstauglichere Sicherheit. Bisher jedoch wurde RBA noch nicht ausreichend im Bezug auf Usability, Sicherheit und Privatsphäre untersucht. Dieser Extended Abstract legt das geplante Dissertationsvorhaben zur Erforschung von RBA dar. Innerhalb des Vorhabens konnte bereits eine Grundlagenstudie und eine darauf aufbauende Laborstudie durchgeführt werden. Wir präsentieren erste Ergebnisse dieser Studien und geben einen Ausblick auf weitere Schritte.
Die vorliegende Arbeit vermittelt eine umfassende Darstellung der wesentlichen Unterschiede von deutschem und spanischem Zivilrecht im Hinblick auf die Rechts- und Geschäftsfähigkeit natürlicher Personen. Neben einer kurzen Zusammenfassung zur Entstehungsgeschichte des BGB werden Fragen zum Beginn und Ende der Rechtsfähigkeit, die Stufen der Geschäftsfähigkeit und Auswirkungen auf Rechtsgeschäfte bei Abgabe fehlerhafter Willenserklärungen behandelt.
Seitdem neue Displaytechniken wie Flüssigkristall- und Plasma-Anzeigen Einzug in den professionellen Fernsehbereich gehalten haben, gewinnen neben den herkömmlichen Qualitätsparametern zusätzliche Parameter wie die Bildqualität bei Bewegtbildwiedergabe enorm an Bedeutung. Um eine qualitative Bewertung für die Bewegtbildwiedergabe durchführen zu können, muss zunächst ein objektives Messverfahren für die Bestimmung der Bewegungsunschärfe entwickelt werden. Zusätzlich müssen diese objektiv gemessenen Ergebnisse auf Korrelation mit dem subjektiven Bildeindruck hin geprüft werden.