Refine
Year of publication
Document Type
- Bachelor Thesis (142) (remove)
Keywords
- Sozialarbeit (14)
- Soziale Arbeit (9)
- ImageJ (6)
- Android (4)
- Bildverarbeitung (4)
- Gamification (4)
- Geschlecht (4)
- Image Processing (4)
- Informatik (4)
- Usability (4)
Faculty
- Fakultät 10 / Institut für Informatik (43)
- Fakultät 07 / Institut für Medien- und Phototechnik (19)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (12)
- Fakultät 10 / Advanced Media Institute (12)
- Fakultät 01 / Institut für Kindheit, Jugend, Familie und Erwachsene (9)
- Fakultät 03 / Institut für Informationswissenschaft (7)
- Fakultät 03 / Institut für Translation und Mehrsprachige Kommunikation (6)
- Fakultät 07 / Institut für Nachrichtentechnik (6)
- Fakultät 01 / Institut für die Wissenschaft der Sozialen Arbeit (5)
- Fakultät 10 / Cologne Institute for Digital Ecosystems (4)
Ist das Zusammenstellen von Halbzeugen zu einem Produkt schon Design? Oder ist erst die neue Form der endgültige Beweis für Design? Steckt nicht in der Komposition auch Gestaltung? Sind diese Halbzeuge nicht wiederum geformt von anderen? Übertragen auf Inneneinrichtungen: Müsste ein Stuhl nicht auch ein Halbzeug sein, der als Bestandteil den Raum vervollständigt, aber in sich auch wieder aus Halbzeugen besteht? Dieses aufgezeigte Wechselspiel zwischen Halbzeug, genauer Bestandteil, und dessen Eingliederung in eine größere Komposition, die wie beim Stuhl selbst wieder zu einem Bestandteil werden kann, lässt es zu, die gesamte artifizielle Welt als Komposition zu beschreiben. Deren Bestandteile sind wiederum Kompositionen, diese sind auch wieder aus Bestandteilen zusammengesetzt, die selbst immer noch Kompositionen sein können, und so weiter und so fort. Diese Perspektive, welche die artifizielle Welt als Komposition sieht, birgt die Idee des Veränderbaren, des Um-Komponierens in sich, denn wenn jede Komposition zusammengesetzt wurde, braucht es eine Schöpferin oder einen Schöpfer. Jedoch verschwindet dadurch der Anspruch auf eine Natürlichkeit in den Dingen, da sie letzten Endes menschengemacht sind, was eine Verantwortung mit sich bringt. Diesem Artefakt-Komposition-Axiom folgend, löst sich auch jede Ohnmacht gegenüber der artifiziellen Welt auf und der Mensch erlangt die Fähigkeit zurück, diese zu gestalten, nachzustellen, umzustellen, aufzulösen. Grundlage für die Handlungsfähigkeit ist die Kompositionsbetrachtung, die der Gegenstand dieser Arbeit ist. Sie fragt nicht nach dem Ding hinter seiner Erscheinung oder nach Kants „Ding an sich“, sondern formuliert eine neue Beschreibung zwischen dem Wahrgenommenen (Stuhl, Inneneinrichtung etc.) und dem Betrachtenden. Sie versucht, das un-auseinandernehmbare Artefakt in den Fluten von Artefakten zu erfassen und seine Relationen zu begreifen. Damit ist der vorliegende Text eine Versprachlichung dieser Perspektive, eine mögliche Sicht auf die Dinge.
Diese Arbeit beschäftigt sich mit der Realisierung eines Parsers, der mathematische Beweise aus „TeXmacs“ in eine zu erstellende XML-Struktur umwandelt. Die Struktur der XML-Datei wird durch eine ebenfalls zu entwickelnde DTD-Datei vorgegeben. TeXmacs ist ein WYSIWYG-Editor zum Beschreiben von mathematischen Texten. Die Arbeit findet im Rahmen der Forschungsgruppe Naproche statt. Langfristig soll das Ergebnis der Arbeit in Naproche eingesetzt werden, um mathematische Beweise besser auf ihre logischen Aussagen zu überprüfen. Zu klären ist also, ob die logische Abfolge des erfassten TeXmacs-Beweises richtig in eine XMLStruktur umgesetzt wurde und alle dokumentierten Voraussetzungen und Beweisschritte im XML-Dokument syntaktisch richtig sind. Die Anwender, die direkt in TeXmacs mit Beweisen arbeiten, sollen eine Rückmeldung erhalten. Bei einer fehlerhaften Rückmeldung soll auch die Stelle im Beweis gekennzeichnet werden, an der der Fehler aufgetreten ist. Dieser kann so schnellstmöglich korrigiert werden. Tritt keine Fehlermeldung auf, wird auch das als Information ausgegeben. Diese Bachelorarbeit befasst sich mit der Realisierung des ersten Teils: Aus einer von TeXmacs erzeugten SCM-Datei soll mit einem Java-Programm die Struktur des mathematischen Textes ermittelt werden; es soll also eine Trennung von mathematischen Formelanteilen (Formeln, Gleichungen/Ungleichungen, mathematische Symbole, usw.) und beschreibenden Texten durchgeführt werden. Diese Struktur wird mit den Regeln einer DTD in ein XML-Format so umgewandelt, dass das resultierende XML-Dokument von den nachfolgenden Modulen des Naproche-Projekts bearbeitet werden kann.
Heutzutage ist das Internet, wie die sozialen Netzwerke ein fester Bestandteil unserer So nutzen Unternehmen in dem Kommunikationszeitalter die Netzwerke um in diesen Plattformen mit den Nutzern zu kommunizieren. Hierbei ist das Ziel dieser Bachelorarbeit zu untersuchen in wie weit man eine Erweiterung entwickeln kann um diese Ziele zu erreichen.
Dabei soll im Rahmen dieser Arbeit eine prototypische Implementierung stattfinden, um die Entwicklung eines Multichannel Social Media Marketingtools basierend auf Atlassian Produkten zu ermöglichen.
Die Arbeit gibt zunächst einen Überblick der wichtigsten Grundlagen. Danach wird mit einer Analyse die Anforderungen an den Prototypen erhebt und ausgewertet , sowie eine Marktanalyse durchgeführt. Darauf folgt die Konzeption, wie die Implementierung des Prototyps, was im Anschluss mit einem Test für die Gebrauchstauglichkeit ergänzt wird.
Cloud Computing hat sich hinsichtlich der Digitalisierung zu einer Basistechnologie entwickelt. Das Marktvolumen der Cloud-Technologie ist in den vergangenen Jahren kontinuierlich gestiegen. Hybride IT-Umgebungen mit Cloud- und On-Premise Anwendungen werden von den Unternehmen zunehmend bevorzugt. Eines der größten Hürden von hybriden Architekturen ist derzeit die Integration von heterogenen Umgebungen, die immer mehr und mehr an Bedeutung gewinnt. Zudem wird mit dem vermehrten Einsatz von Cloud-Services die IT-Infrastruktur der Unternehmen immer komplexer. Mithilfe von hybriden Integrationsplattformen kann diese Herausforderung erfolgreich bewältigt werden. Die vorliegende Ausarbeitung gibt den Unternehmen einen Leitfaden, welche die hybride Integration mithilfe von cloudbasierten Integrationsplattformen meistern können.
Die Koordination von Großschadenslagen mit vielen Verletzten stellt die Verantwortlichen vor eine schwere Aufgabe. Gemeinsam mit anderen Partnern aus Wissenschaft und Industrie bearbeitet die Fachhochschule Köln das orschungsprojekt "Beherrschbarkeit von Katastrophenereignissen durch autonom vernetzte Sensoren (MANET)". Mit dem Ergebnis dieses Projekts soll die Koordination der Einsatzkräfte, der Fahrzeuge und des Materials verbessert werden, mit dem Ziel eine schnellere Patientenversorgung zu gewährleisten. Bisher existieren Prototypen des entwickelten Systems. Dieses wird in realitätsnahen Übungen, in denen Groÿschadenslagen dargestellt werden, von Einsatzkräften verwendet. Um die Anwenderfreundlichkeit des Systems zu ermitteln wurde eine Befragung konzipiert, mit der die Erfahrungen der Anwender nach der Übung ermittelt werden können. Im Vorlauf der Befragungserstellung wurden allgemeine Regeln zur Fragen- und Antwortgestaltung sowie Grundlagen zur Auswertung de niert. Die Befragung wird mithilfe eines elektronischen Befragungssystems durchgeführt, wodurch die Fragen und Antworten besondere Vorgaben zu erfüllen haben. Diese wurden bei der Erstellung der Fragen, zusätzlich zu den allgemeinen Regeln, berücksichtigt. Neben den Fragen wurden für die Befragung Umgebungsbedingungen de niert, die für eine erfolgreiche Durchführung notwendig sind. Gemeinsam mit den Fragen wurden diese Bedingungen in einem Fragebogen zusammengefasst, der den gesamten Ablauf der Befragung vorgibt. Durch diese Vorgabe ist eine Vergleichbarkeit von mehreren Befragungsdurchgängen gewährleistet.
Vergleich von verteilten Datenbanksystemen hinsichtlich ihrer Clusterbildung und Skalierbarkeit
(2017)
Die vorliegende Ausarbeitung geht der Frage nach, wie sich die Datenbankmanagementsysteme MariaDB, MongoDB und Cassandra hinsichtlich ihres Clusteraufbaus,
sowie den damit verbundenen Möglichkeiten der Skalierbarkeit unterscheiden. Dazu werden zunächst Grundlagen zum Aufbau von verteilten Datenbanksystemen, zu den verschiedenen Transaktionskonzepten, sowie zu den möglicherweise auftretenden Probleme vermittelt. Anschließend werden die drei Systeme im Detail untersucht und herausgearbeitet, wie sie genau funktionieren und in welchen Punkten sie sich von einander unterscheiden. Als Abschluss wird ein Fazit gezogen, welches System in verteilten Computerumgebungen
am geeignetsten ist, insofern ein klarer Sieger hervorgeht.
Die Lebensversicherer in Deutschland als institutionelle Investoren haben eine erhebliche Verantwortung für die Absicherung der Menschen im Alter. Aufgrund des anhaltenden schwierigen Zinsumfeldes stehen sie jedoch unter enormen Druck, ihre Leistungsversprechen langfristig einzuhalten zu können.
Der Gesetzgeber führte daher 2011 die Zinszusatzreserve (ZZR) ein, um im Rahmen der sinkenden Kapitalmarktzinsen eine moderate Form der Nachreservierung zu schaffen.
Als die ZZR eingeführt wurde, war allerdings nicht absehbar, dass sich das Niedrigzinsumfeld auf eine so lange Zeit erstrecken würde, wie es nun der Fall ist.
Die bisherige Systematik der ZZR führte in den letzten Jahren zu einem erheblichen Ausmaß und damit verbunden zu einer enormen Belastung für die Lebensversicherer. Bei einer Beibehaltung des Verfahrens könnte sich die ZZR nach Schätzungen der Assekurata Rating Agentur bis zum Jahr 2025 auf beachtliche 200 Milliarden Euro belaufen. Dies würde bedeuten, dass sich der Gesamtaufwand zur Dotierung der ZZR im Vergleich zum Geschäftsjahr 2017 noch verdreifachen würde.
Daher beschäftigt sich die vorliegende Arbeit mit einer Neukalibrierung der ZZR und einer damit verbundenen völlig neuen Berechnungsmethodik.
Die "Methode 2M", die von der Deutschen Aktuarvereinigung e. V. (DAV) entwickelt wurde, wird als möglicher Lösungsweg zur Entlastung der Lebensversicherer detailliert beschrieben und analysiert. Mithilfe aktuarieller Berechnungen werden dabei insbesondere die quantitativen Auswirkungen der Methode 2M im Hinblick auf verschiedene Zinsszenarien bis zum Jahr 2030 aufgezeigt und eine kritische Beurteilung vorgenommen, ob die neue Berechnungsmethodik den gewünschten Erfolg erzielt.
Die vorliegende Bachelorarbeit in Kooperation mit der Deutsche Sporthochschule Köln hat die Konzeption und Entwicklung eine Software, mit der Daten aus der Fußball-Bundeliga 2011–2012 mit Hilfe einer Heatmap erzeugt werden, zum Inhalt. Die Software soll die Torpositionen vor einem Offensivspiel zu verschiedenen Zeitpunkten des Spieles veranschaulichen.
Bei der Arbeit wurden zwei Cluster-Methoden betrachtet, nämlich die Density-Based Spatial Clustering of Applications with Noise (DBSCAN) und der Kerndichtschätzer (kernel density estimation). DBSCAN ist ein bekannter Cluster-Algorithmus und wurde mit dem Software-Tool WEKA untersucht. Es zeigte sich, dass dieses Verfahren nicht so gut für diese Aufgabenstellung geeignet ist, da einzelnen Cluster nicht so gut unterschieden werden konnten. Der Kerndichtschätzer ist dagegen ein statistisches Verfahren zur Schätzung einer Dichte, der auch in Geoinformationssystemen verwendet wird. Dieses Verfahren ist besser für die Aufgabenstellung geeignet.
Nach der Analyse der Daten im XML-Format wurde der Algorithmus Kerndichtschätzer für die Deutsche Sporthochschule Köln in detr Programmiersprache Java implementiert. Die Software untersucht die Bildung von Clustern bzw. die Torschussdichte mit der Absicht, ein Verhalten oder Muster vor einem Offensivspiel zu erkennen. Sie enthält eine sehr gute Visulisierung der verschiedenen Situationen, die zum Torschuss führten, anhand eines Fußballfeldes
Die vorliegende Arbeit vermittelt eine umfassende Darstellung der wesentlichen Unterschiede von deutschem und spanischem Zivilrecht im Hinblick auf die Rechts- und Geschäftsfähigkeit natürlicher Personen. Neben einer kurzen Zusammenfassung zur Entstehungsgeschichte des BGB werden Fragen zum Beginn und Ende der Rechtsfähigkeit, die Stufen der Geschäftsfähigkeit und Auswirkungen auf Rechtsgeschäfte bei Abgabe fehlerhafter Willenserklärungen behandelt.
Die Bachelorarbeit befasst sich mit der Verwendung der NoSQL Datenbank Apache Cassandra. Dabei werden auf der einen Seite die Unterschiede bei Verwendung und Betrieb von Apache Cassandra im Vergleich mit relationalen SQL Datenbanken und auf der anderen Seite die Aspekte Geschwindigkeit, Ausfallsicherheit und Wiederverwendbarkeit untersucht. Die Verwendung und der Betrieb wird dabei durch die Umsetzung eines Datenimports, damit verbunden ist die Erstellung von entsprechenden Datenmodellen, und der Bereitstellung der Daten für die Darstellung von mobilen Statistiken in Form einer Android App untersucht. Für die Untersuchung der Geschwindigkeit, Ausfallsicherheit und Wiederverwendbarkeit werden zusätzlich zu den durch bereits durch die Umsetzung erhaltenen Ergebnissen noch an den jeweiligen Aspekt angepasste Belastungstest durchgeführt.