Filtern
Erscheinungsjahr
Dokumenttyp
- Masterarbeit/Diplomarbeit (231)
- Bachelorarbeit (99)
- Bericht (29)
- Buch (Monographie) (23)
- Arbeitspapier (20)
- Sonstiges (19)
- Studienarbeit (11)
- Teil eines Buches (Kapitel) (9)
- Wissenschaftlicher Artikel (7)
- Beitrag zu einem Periodikum (5)
Sprache
- Deutsch (458) (entfernen)
Schlagworte
- Sozialarbeit (17)
- Bibliothek (16)
- Deutschland (16)
- Soziale Arbeit (15)
- Öffentliche Bibliothek (14)
- XML (12)
- Datenbank (11)
- Informationskompetenz (11)
- Rückversicherung (10)
- E-Learning (9)
Fakultäten
- Fakultät 03 / Institut für Informationswissenschaft (92)
- Fakultät 10 / Institut für Informatik (89)
- Informatik und Ingenieurwissenschaften (F10) (61)
- Fakultät 07 / Institut für Medien- und Phototechnik (52)
- Angewandte Sozialwissenschaften (F01) (34)
- Wirtschafts- und Rechtswissenschaften (F04) (23)
- Fakultät 03 / Institut für Translation und Mehrsprachige Kommunikation (19)
- Fakultät 07 / Institut für Nachrichtentechnik (10)
- Architektur (F05) (8)
- Anlagen, Energie- und Maschinensysteme (F09) (6)
Die Komplexität der Cybergefahr und die sich entwickelnde Natur des Risikos bringen vielfältige Herausforderungen bei der Gestaltung von Versicherungs-produkten, beim Underwriting, beim Risikomanagement und bei der Kumul-kontrolle mit sich - sowohl für Erst- als auch Rückversicherungsgesellschaften. Eine korrekte Cyberrisikobewertung ist daher unabdingbar und der richtige Ansatz muss stets weiterentwickelt werden. Insbesondere die Vielfältigkeit eines Cyberevents ist hierbei zu berücksichtigen.
In der Cyberversicherung liefert die Vergangenheit keine zuverlässigen Indizien für die Wahrscheinlichkeit eines Schadens; Risiken müssen mit aufwändigen Modellrechnungen simuliert werden. Für die Bewertung von Cyberrisiken könnte die künstliche Intelligenz (KI) von Vorteil sein, um Muster und Wahrscheinlichkeiten im Bereich des Risikotransfers einfacher und effizienter zu analysieren. Einen alternativen Lösungsansatz könnten parametrische Rückversicherungslösungen als Ergänzung zur klassischen Versicherung liefern. So kann eine parametrische Cyberdeckung mit einem definierten Trigger (z.B. mit Hilfe der DSGVO als Trigger) als Auslöser für Schadenzahlungen angeboten werden.
Für eine ausreichende Versicherbarkeit von kleinen und mittelständischen Unternehmen, als auch für größere Industrielösungen könnte eine Risk Pooling Facility geschaffen werden, in welcher sich der traditionelle Rückversiche-rungsmarkt zusammen mit den Insurance Linked Securities Markt die Schadenbelastung teilen. Durch Unterstützung der künstlichen Intelligenz und durch parametrische Trigger (z.B. durch die DSGVO) könnten Schadenverläufe effizienter und zielgerichteter erfolgen.
Durch parametrische Cyberdeckungen könnten Transparenzprobleme bei der Schadenabwicklung verhindert und aufwendige Prüfungen der Rückversicherer reduziert werden. Zudem könnte mit Hilfe einer möglichen KI-Strategie die Bewertungen von Cyberrisiken vereinfacht und effizienter gestaltet werden. Parametrische Cyberlösungen können auch für alternatives Kapital interessant sein, denn auch im NatCat-Bereich sind Vehikel mit solchen Trigger-Lösungen verbreitet.
Bei Gebäuden mit zentraler Wärmeerzeugung treten im Verteilsystem Wärmeverluste auf. Insbesondere bei zirkulierenden Trinkwarmwassersystemen, aber auch bei Heizungsanlagen können diese Verteilverluste einen hohen Anteil am Gesamtwärmeverbrauch ausmachen und somit relevant für die Energieeffizienz einer Anlage sein. Die Ansätze und Angaben zur Quantifizierung der Verteilverluste in den relevanten Regelwerken weichen teils deutlich von Angaben in der Fachliteratur und den wenigen vorliegenden Fallbeispielen ab. Die vorliegende Masterarbeit behandelt das Thema anhand der Analyse eines Fallbeispiels. Das untersuchte Objekt ist ein Mehrfamilienhaus mit einer Zweileiterinstallation. Dabei handelt es sich um ein System, welches die Wärmeversorgung für Heizung und Trinkwasser kombiniert. Durch Vergleich der Wärmemengenzähler in Wohnungen und Heizungskeller sind in der Vergangenheit Verteilverluste von 16,5 kWh/m²a aufgefallen, was 28 Prozent des gesamten Verbrauchs ausmacht.Im Rahmen der Falluntersuchung werden die Verteilverluste der Anlage über eine umfangreiche Datenaufnahme und mithilfe thermodynamischer Berechnungen bestimmt und mit den Zählerdaten abgeglichen. Dieser Berechnung nach betragen die Verteilverluste 14,7 kWh/m²a, wovon die Leitungsverluste den größten Anteil ausmachen. Zur Prüfung der Ansätze der Regelwerke werden diese auf das Objekt angewendet. Eine Vergleichbarkeit ist wegen abweichender Rahmenbedingungen nur bedingt gegeben. Die anhand der Normen ermittelten Werte liegen zum Teil in der Größenordnung der thermodynamischen Berechnung, teils auch deutlich darunter. Der Abgleich mit den Zählerdaten dient auch der Prüfung der thermodynamischen Berechnung. Auf diese Weise sollen fundierte und detaillierte Aussagen über den Einfluss einzelner Parameter und Komponenten des Systems ermöglicht werden. Darüber hinaus ermöglicht es die thermodynamische Berechnung, das Potenzial verschiedener Reduktionsmaßnahmen zu quantifizieren. Hier zeigt sich, dass ein Absenken der Vorlauftemperatur im Fallbeispiel eine effektive Maßnahme darstellt. Beispielsweise bewirkt die Absenkung der Vorlauftemperatur um 5 Kelvin im Fallbeispiel eine Reduktion der Leitungsverluste um circa 16 Prozent, respektive einen um circa 3 Prozent verringerten Gesamtverbrauch. Die ebenfalls modellierte Dämmung der Installationsschächte hingegen lässt bei ungleich höherem Aufwand geringere Einsparungen erwarten. Bei der Bewertung der Ergebnisse ist zu beachten, dass im Untersuchungsobjekt der spezielle Fall eines Zweileitersystems vorliegt. Dennoch können auf Basis der Untersuchung auch allgemeine Erkenntnisse über Verteilverluste gewonnen und Einschätzungen über die normativen Angaben abgeleitet werden. Darüber hinaus wird im Rahmen eines Exkurses die thermische Situation im Installationsschacht einer genaueren Betrachtung unterzogen. Diese ist von Interesse, da die Wärmeverluste hier Einfluss auf Fragen der technischen Hygiene und des sommerlichen Wärmeschutzes ausüben.
Das vorliegende Paper fasst die Erkenntnisse zu Erfolgsfaktoren für Crowdfunding-Kampagnen allgemein und ins besondere für die Plattform Kickstarter zusammen.
Es basiert auf der Bachelorarbeit von Herr Martin Heyduck, der von Oktober 2020 bis Januar 2021 von Prof. Dr. Monika Engelen und Amina Hadzeric betreut wurde. Neben einer Recherche der grundlegenden Theorie und den daraus gewonnenen Erkenntnissen wurden unter Literaturbezug Erfolgsfaktoren definiert und durch ausgewählte Fallstudien von Crowdfunding-Kampagnen validiert.
Dieses Paper soll als Einstieg in das Thema Crowdfunding und die damit verbundenen Ausgestaltungsmöglichkeiten für eine erfolgreiche Kampagne dienen.
Der Einsatz von Gebärden scheitert häufig daran, dass bisher kaum bedarfsgerechte Lernangebote für Eltern mit einem unterstützt kommunizierenden Kind zur Verfügung stehen und das obwohl die digitalen Entwicklungen ein großes Spektrum an medienbasierten Lernarrangements eröffnen. Audiovisuelle Lernvideos könnten hier hilfreich sein, denn sie bieten - ähnlich wie die Gebärdensprachkommunikation - eine simultane Darstellung von auditiven und visuellen Informationen. Des Weiteren sind sie heutzutage in jedem Familienalltag durch mobile Endgeräte präsent und halten für Kinder eine Vielzahl von affektiv-sozialen Erlebnissen bereit, die das Lernen unterstützen.
Aufbauend auf einer vorherigen Arbeit, die sich mit der Implementierung einer Komponentezum Auslesen mdizinischer Sensordaten mithilfe eines Arduino und eines Raspberry Pi befasst hat, beschäftigt sich diese Arbeit mit der Visualisierung sowie Auswertung der durch das System gesammelten Daten. Das Ziel dieser Arbeit ist es, über einen Zeitraum von etwa drei Monaten mithilfe der Komponente Daten zu sammeln und diese Daten in einem sinnvollen Kontext visuell darzustellen. Zudem sollen diese Daten mithilfe unterschiedlicher Algorithmen des Maschinellen Lernens ausgewertet werden,
um mögliche Muster und Zusammenhänge erkennen zu können. In diesem Kontext konnte die Hypothese aufgestellt werden, dass ein Zusammenhang zwischen der Körpertemperatur und der Sauerstoffsättigung im Blut besteht.
Die Nutzung von Gamification zur Verbesserung der User Experience - Marktanalyse & Designfaktoren
(2020)
User Experience beschreibt die Wahrnehmungen und Reaktionen Benutzender zu einem System. Es umfasst die Gedanken und Emotionen, die Benutzende vor, während und nach der Nutzung eines Systems erfahren. In einer Zeit in der es zahlreiche digitale Systeme und Alternativen auf dem Markt zur Verfügung stehen, können sich voranging Systeme mit einer guten User Experience durchsetzen. Demnach kann User Experience als messbarer Erfolgsfaktor gesehen werden und dieses Verständnis darüber ist erforderlich für das Treffen von Designentscheidungen. Ziel dieser Arbeit ist es Aspekte aus Gamification, die zu einer Verbesserung der User Experience eines Systems beitragen, zu identifizieren und darzustellen. Bei Gamification handelt es sich um einen Gestaltungsprozess, der auf den Erfahrungen und Techniken des Game Designs basiert und die Gefühle und Motivationen von Menschen anspricht. Zur Ermittlung dieser Faktoren wurden mittels Literatur von, unter anderem, Huizinga und Chou relevante Aspekte spielerischen Verhaltens und grundlegende menschliche Motivationen betrachtet. Diese Erkenntnisse wurden zur Analyse der auf, dem Markt befindlichen, Systeme KptnCook und TooGoodToGo angewandt um relevante Design Faktoren zu ermitteln und darzustellen. Es wurde festgestellt, dass User Experience ein dreidimensionales Konstrukt bestehend aus den Faktoren ease-of-use, joy-of-use und purpose-of-use darstellt. Durch die Einbringung von Aspekten aus Gamification in ein System kann dieses gezielt auf die Vermittlung der Faktoren joy-of-use und purpose-of-use gestaltet und optimiert werden. Auf dieser Grundlage ist es empfehlenswert Gamification bei der Gestaltung von Systemen zu beachten um menschlichen Motivationen zur Nutzung eines Systems anzusprechen. Durch die Gestaltung mit Gamification können Benutzererlebnisse angefertigt werden, die unterhaltsam sind und Benutzende zu einer langfristigen Verwendung des Systems motivieren.
Projects in universities challenge the students in terms of organizing the project progress and coordinating team members. In order to cover the content of the courses in more depth and to prepare the students for their future employment the technical university of cologne (Campus Gummersbach) includes various team projects into its curriculum. Procedure models are helpful ways to structure the project tasks and ensure the communication between team members and stakeholders. The course Projectmanagement presents procedure models such as Waterfall Model, V-Model and Scrum that are mostly used in business context and software engineering. An agile procedure model that is not part of the curriculum is called Design Thinking. It is a suitable approach for student projects as it combines the requirement of an open mindset, a creative, experimental working method and an interdisciplinary toolbox. The objective of this thesis is to design a concept for a procedure model that is customized to students' needs. The growing practice of the design thinking method and other agile procedures within the business world, also increases the
importance for students to apply of such models in preperation for professional work. To define the requirements for the recommended procedure model, the first step is to elaborate on the processes and challenges that are currently used in student projects. Then the procedure models Waterfall Model, V-Model and Scrum are presented and evaluated taking into account the students' preferences. Next, Design Thinking is presented structured into three parts: mindset, process and toolbox. The most suitable projects to apply this method are identified in the subsequent analysis. Finally, the most appropriate aspects of the presented procedure models as well as the Design Thinking processes are detected, framed and combined into a new procedure model. The new model is illustrated using a graphical representation and a corresponding explanation. It is clustered into the three fundamental project phases: Planning, Execution and Closure. The Planning phase forms the foundation for a well functioning team and successful project progress. Execution is based on the Design Thinking approach and integrates an iteration-loop formed by the subphases Exploration, Idea Generation, Prototyping, Test and Implementation. The final phase Closure is an incentive for a more creative approach to create final presentations. This model can be developed further and be used for example as a didactic instrument and as a link between the diverse disciplines in interdisciplinary projects across different universities. In this way students learn to apply agile procedures and work in interdisciplinary teams.
In nahezu jedem Rettungsdienstbereich lässt sich ein Anstieg an Notfalleinsätzen und damit einhergehend ein höherer Bedarf an Rettungsmitteln beobachten. Daraus resultieren Einsatzspitzen, die durch den Regelrettungsdienst nicht abgedeckt werden können, und es entsteht eine Unterdeckung. Dies wird auch als Risikofall bezeichnet und birgt die Gefahr, dass ein Rettungsmittel nicht innerhalb der vorgeschriebenen Hilfsfrist am Notfallort eintreffen kann. Um einen potenziellen Risikofall im Vorfeld absehen und einsatztaktische Ausgleichsmaßnahmen innerhalb eines Rettungsdienstbereiches ergreifen zu können, soll deshalb die Einsatznachfrage in stündlicher Auflösung prognostiziert werden. Dazu wurde die Einsatz-Zeit-Reihe 2017 der hochfrequentierten Feuer- und Rettungswache 1 in der Kölner Innenstadt analysiert und ein saisonales ARIMA-Modell sowie ein Erwartungswert-Modell auf die Einsatz-Zeit-Reihe des Folgejahres 2018 angewandt. Gezeigt werden konnte, dass sich die Einsatz-Zeit-Reihe mit einer mittleren absoluten Abweichung von etwas mehr als einem Einsatz prognostizieren lässt. Außerdem konnte mit einer Skalierung der Prognose über die Anzahl einsatzbereiter Rettungs-wagen jeder Risikofall in einem einwöchigen Anwendungstest vorhergesagt werden. Dabei zeigte sich, dass nicht die Prognosegüte in der Stunde der Einsatzspitze relevant ist, sondern die Prognosegüte in der Folgestunde. Die Prognosen haben somit, wenn sie skaliert werden, eine hohe einsatztaktische Relevanz und ermöglichen kurz-fristige Ausgleichsmaßnahmen im Tagesgang.
Das vorliegende Praxis Paper ist in zwei Bereiche aufgeteilt. Zunächst wird der Prozess zur Veröffentlichung eines Buchs über Amazon dargestellt, während im zweiten Teil Erkenntnisse über die allgemeinen Grundlagen des erfolgreichen Verkaufs auf Amazon zusammengefasst werden. Es basiert auf der Bachelorarbeit von Herrn Christian Dam-bach, die von Juli 2020 bis Oktober 2020 von Prof. Dr. Monika Engelen betreut wurde.
Nach der Darstellung des Veröffentlichungsprozesses werden im weiteren Verlauf die Möglichkeiten der Suchmaschinenoptimierung auf der Produktseite gezeigt und die Suchmaschinenwerbung über Amazon Marketing Services (AMS) vorgestellt. Neben dem Controlling des Verkaufsverlaufs und des Kampagnenverlaufs, wird zunächst die Einrichtung einer Werbeanzeige erläutert und anschließend die verschiedenen Möglich-keiten der Optimierung dargestellt. Daraus werden dann allgemeine Erfolgsfaktoren für den Verkauf auf Amazon abgeleitet, die, über das Fallbeispiel hinaus, auf jegliche ange-botenen Produkte anwendbar sind.
Kollektive Interessensvertretung in der Sozialen Arbeit: Eine Analyse nach dem Machtressourcenansatz
(2020)
Ausgangspunkt der vorliegenden Arbeit ist die Beobachtung, dass es durch Prozesse der Ökonomisierung und De-Professionalisierung im Sozialsektor zu einer wahrgenommenen Abwertung der professionseigenen Kompetenzen kommt und sich die Arbeitsbedingungen verschlechtern. Es fehlt jedoch die wahrnehmbare Gegenwehr durch die betroffenen Fachkräfte der Sozialen Arbeit. Diesem Widerspruch wird nachgespürt, indem auf ein Analyseinstrument der Gewerkschaftsforschung, den Machtressourcenansatz, zurückgegriffen wird. Mit der Untersuchung der strukturellen, organisatorischen, institutionellen und gesellschaftlichen Machtressourcen - als Grundlage für die kollektive Interessenvertretung von lohnabhängig Beschäftigten - sollen mögliche Besonderheiten aufgedeckt werden, die den beschriebenen Widerspruch erklärbar machen. Hierzu wird im ersten Kapitel der Begriff der kollektiven Interessenvertretung erläutert, indem unterschiedliche Formen von Interessen dargestellt und für die Soziale Arbeit spezifiziert werden. Interessenverbände, und im speziellen Gewerkschaften, werden als Zusammenschlüsse von Interessenträger*innen vorgestellt. Im zweiten Kapitel folgen die Beschreibung der Entwicklung des Machtressourcenansatzes und seiner Heuristik, sowie die Darstellung der vier Dimensionen von Lohnabhängigenmacht. Im dritten Kapitel werden die vier Dimensionen als Analyse-Schema auf die Kontexte Sozialer Arbeit übertragen.