Refine
Year of publication
Document Type
- Master's Thesis (323)
- Article (149)
- Bachelor Thesis (142)
- Conference Proceeding (65)
- Report (53)
- Study Thesis (47)
- Working Paper (47)
- Book (29)
- Part of a Book (27)
- Other (11)
Language
- German (586)
- English (315)
- Multiple languages (2)
- Spanish (1)
Keywords
- Rückversicherung (66)
- Reinsurance (55)
- Versicherung (52)
- Kölner Forschungsstelle Rückversicherung (47)
- Versicherungswirtschaft (44)
- Sozialarbeit (24)
- Soziale Arbeit (20)
- Deutschland (19)
- Germany (19)
- Bibliothek (17)
Faculty
- Fakultät 10 / Institut für Informatik (154)
- Fakultät 03 / Institut für Informationswissenschaft (104)
- Fakultät 04 / Institut für Versicherungswesen (78)
- Fakultät 12 / Institut für Technologie und Ressourcenmanagement in den Tropen und Subtropen (72)
- Fakultät 07 / Institut für Medien- und Phototechnik (68)
- Fakultät 04 / Schmalenbach Institut für Wirtschaftswissenschaften (53)
- Angewandte Naturwissenschaften (F11) (45)
- Fakultät 10 / Advanced Media Institute (35)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (30)
- Fakultät 07 / Institut für Nachrichtentechnik (26)
Water shortage and a rising water demand are prevalent issues on the political agenda worldwide. Available water resources must not only be provided to ensure a domestic and drinking water supply for a steadily increasing population but also for the growing industrial and agricultural sectors. This work outlines how the use of the innovative vacuum multi‐effect membrane distillation contributes to improve the water management efficiency in the following key industry sectors: desalination, drinking water and beverage industry, pharmaceutical, agro and chemical as well as oil and gas industry.
Die Nutzung von Gamification zur Verbesserung der User Experience - Marktanalyse & Designfaktoren
(2020)
User Experience beschreibt die Wahrnehmungen und Reaktionen Benutzender zu einem System. Es umfasst die Gedanken und Emotionen, die Benutzende vor, während und nach der Nutzung eines Systems erfahren. In einer Zeit in der es zahlreiche digitale Systeme und Alternativen auf dem Markt zur Verfügung stehen, können sich voranging Systeme mit einer guten User Experience durchsetzen. Demnach kann User Experience als messbarer Erfolgsfaktor gesehen werden und dieses Verständnis darüber ist erforderlich für das Treffen von Designentscheidungen. Ziel dieser Arbeit ist es Aspekte aus Gamification, die zu einer Verbesserung der User Experience eines Systems beitragen, zu identifizieren und darzustellen. Bei Gamification handelt es sich um einen Gestaltungsprozess, der auf den Erfahrungen und Techniken des Game Designs basiert und die Gefühle und Motivationen von Menschen anspricht. Zur Ermittlung dieser Faktoren wurden mittels Literatur von, unter anderem, Huizinga und Chou relevante Aspekte spielerischen Verhaltens und grundlegende menschliche Motivationen betrachtet. Diese Erkenntnisse wurden zur Analyse der auf, dem Markt befindlichen, Systeme KptnCook und TooGoodToGo angewandt um relevante Design Faktoren zu ermitteln und darzustellen. Es wurde festgestellt, dass User Experience ein dreidimensionales Konstrukt bestehend aus den Faktoren ease-of-use, joy-of-use und purpose-of-use darstellt. Durch die Einbringung von Aspekten aus Gamification in ein System kann dieses gezielt auf die Vermittlung der Faktoren joy-of-use und purpose-of-use gestaltet und optimiert werden. Auf dieser Grundlage ist es empfehlenswert Gamification bei der Gestaltung von Systemen zu beachten um menschlichen Motivationen zur Nutzung eines Systems anzusprechen. Durch die Gestaltung mit Gamification können Benutzererlebnisse angefertigt werden, die unterhaltsam sind und Benutzende zu einer langfristigen Verwendung des Systems motivieren.
Bei AskA-Services handelt es sich um digitale Auskunftsdienste im Internet, die nicht von institutionalisierten Bibliotheken oder organisierten Gruppen von Bibliothekaren betrieben werden. Stattdessen werden sie entweder von nicht-kommerzielle Informationsdienstleistern (z.B. öffentlichen Institutionen, in seltenen Fällen auch Einzelpersonen bzw. kleinen Gruppen von Personen) oder aber von Firmen angeboten, die eine Gewinnabsicht verfolgen. Neben thematisch offenen Services gibt es auch solche, die sich auf bestimmte Themengebiete spezialisiert haben. Die Antworten, die der Kunde erhält, können von realen Personen gegeben oder automatisch erstellt werden. Außerdem können sie rein natürlichsprachig sein, lediglich auf andere Webseiten verweisen oder zusätzlich auch Literatur- oder Linklisten, Bilder, Grafiken, Tabellen o.ä. beinhalten. Grundsätzlich zu unterscheiden sind nicht-kommerzielle und kommerzielle AskA-Services. Letztere können in kostenlose und kostenpflichtige Angebote unterteilt werden. Die ersten nicht-kommerziellen Dienste gingen bereits zwischen 1993 und 1995 online. Dagegen stieg die Zahl der AskA-Services mit Gewinnerzielungsabsicht erst ab 1999 sprunghaft an. Neben theoretischen Ausführungen zur Definition der AskA-Services, ihrer Entwicklung und Typologie werden exemplarisch die AskA-Services AskJeeves.com, Webhelp.com, das MAD Scientist Network, Wer-weiss-was.de und Google Answers vorgestellt.
Im Titel der vorliegenden Arbeit wird bereits herausgestellt, dass eine Architektur von der Konzeption über die prototypische Implementierung bis hin zu einer ersten Validierung betrachtet wird. Dabei soll die Architektur dienstorientiert aufgebaut sein und sich für die Realisierung von Multimediaanwendungen eignen. In dieser Arbeit wird dazu zunächst allgemein in die Thematik der Dienstorientierung eingeführt und die jeweiligen Besonderheiten im Zusammenhang mit Multimediaanwen- dungen dargelegt. Im weiteren Verlauf wird die Architektur prototypisch umgesetzt und auf Grund der Implementierung eines Anwendungsszenarios validiert.
Immer mehr Teilbereiche des Semantic Web sind in den letzten Jahren erfolgreich umgesetzt geworden. Ebenso wird bei der Bearbeitung von komplexen Problemräumen mittlerweile oft auf semantische Modelle zurückgegriffen, um eine flexible Beschreibung der Domäne zu erstellen. Werkzeuge, welche die Entwicklung von Anwendungen, die auf semantischen Modellen basieren, unterstützen, sind bislang jedoch nur in begrenztem Maße verfügbar. Insbesondere die Verarbeitung von verteilten und dynamischen Modellen ist mit keinem der derzeit verfügbaren Produkte vollständig zu realisieren. Diese Arbeit untersucht die Möglichkeiten zur Integration von semantischen Modellen in objektorientierte Programmiersprachen. Es werden bestehende Ansätze analysiert und ein formales Modell der Integration erstellt. Das formale Modell wird in Form eines prototypischen Rahmenwerks in der Programmiersprache Ruby implementiert und validiert.
Das Semantic Web ist einer Erweiterung des aktuellen World Wide Web um eine maschinell verarbeitbare Dimension. In ihr wird es Agenten möglich sein komplexe Aktivitäten für den menschlichen Benutzer durchzuführen und automatisch relevante Informationen im Web zu finden. In dieser Arbeit werden wir die semantische Modellierung von Informationen im Bereich Internetfernsehen behandeln. Wir werden die gänginen Technologien und Methoden erläutern, sowie diese am Beispiel eines Prototypen für den studentischen Internetsender Zucker TV anwenden.
This market research paper has been prepared under the supervision of Prof. Dr. Wolfgang Veit of TH Köln and Prof. Dr. Carol Scovotti of University of Wisconsin-Whitewater in the course of the inter-university cross-border collaboration student research project “Export Opportunity Surveys (EOS)”. This study explores organic black tea export opportunities to the German and US markets.
This market research paper has been prepared under the supervision of Prof. Dr. Wolfgang Veit of TH Köln and Prof. Dr. Carol Scovotti of University of Wisconsin-Whitewater in the course of the inter-university cross-border collaboration student research project “Export Opportunity Surveys (EOS)”. This study explores organic chickpeas export opportunities to the German and US markets.
Soft Skills, zu deutsch "weiche Fähigkeiten", sind die Kompetenzen, die über fachliche Qualifikationen hinausgehen, wie beispielsweise Teamfähigkeit, Kommunikationstalent und Durchsetzungsvermögen. In dieser Arbeit wird der Frage nachgegangen, inwieweit Soft Skills in der Praxis bibliothekarischer Arbeit Beachtung finden. Über welche Persönlichkeitsmerkmale sollten Bibliothekare verfügen? Wie sieht der Berufsalltag in Bibliotheken heute aus? Welche Tätigkeiten werden vorwiegend ausgeübt? Wie ist Stand der technischen Ausstattung? Finden auch Maßnahmen der Personalentwicklung und Mitarbeitermotivation statt? Ergänzend dazu soll festgestellt werden, ob es Unterschiede in der Bewertung je nach Bibliotheksgröße und -typ gibt. Dieser Band behandelt die verschiedenen Formen von Kompetenzen, Fähigkeiten und Kenntnissen sowie ihre Bedeutung für den Alltag bibliothekarischer Arbeit und beschäftigt sich mit den Themen Personalentwicklung und Mitarbeitermotivation, die zunehmend an Bedeutung gewinnen. Die theoretische Darstellung beruht auf Vorarbeiten aus Bibliothekswesen, Betriebswirtschaftslehre und Organisationspsychologie. Um den derzeitigen Stellenwert der Soft Skills im bibliothekarischen Alltag bewerten zu können, beinhaltet die Studie die Ergebnisse einer Umfrage, die unter rund 100 Bibliotheken durchgeführt wurde (Rücklaufquote der Fragebogen: 82%). Das Gesamtergebnis befindet sich in Form von Diagrammen und Tabellen im Anhang. Überdies wird eine Verbindung zwischen Theorie und Praxis hergestellt.
Different methods have been proposed for in situ root-length density (RLD) measurement. One widely employed is the time-consuming sampling of soil cores or monoliths (MO). The profile wall (PW) method is a less precise, but faster and less laborious alternative. However, depth-differentiated functions to convert PW RLD estimates to MO RLD measurements have not yet been reported. In this study, we perform a regression analysis to relate PW results to MO results and determine whether calibration is possible for distinct crop groups (grasses, brassicas and legumes) consisting of pure and mixed stands, and whether soil depth affects this calibration. The methods were applied over two years to all crop groups and their absolute and cumulative RLD were compared using a linear (LR) and multiple linear (MLR) regression. PW RLD was found to highly underestimate MO RLD in absolute values and in highly rooted areas. However, a close agreement between both methods was found for cumulative root-length (RL) when applying MLR, highlighting the influence of soil depth. The level of agreement between methods varied strongly with depth. Therefore, the application of PW as the main RLD estimation method can provide reliable estimates of cumulative root distribution traits of cover crops.
Die Grundlage für das Datenmodell einer Arztpraxis sind alle relevanten Daten, die zum Betrieb einer Arztpraxis notwendig sind. Aktuell werden die Daten mittels einer Praxisverwaltungssoftware (PVS) erfasst, in einem proprietären Datenformat gespeichert und im Weiteren für die Abrechnung aufbereitet. Dabei ist es seit Mai 1989 möglich, dass die Abrechnung per Diskette erstellt wird. Für die Aufbereitung der Daten wurde zuerst der Abrechnungsdatenträger (ADT) und seit dem 1. Juli 1999 ist es Pflicht die Abrechnung über den KV – Datenträger (KVDT) zu verwenden. Damals wurde kein einheitliches Datenmodell eingeführt, welches über den Abrechnungsdatenaustausch hinaus geht. Dadurch ist es nur sehr beschränkt möglich, Daten zwischen den einzelnen Systemen auszutauschen. So ist es für einen Arzt äußerst schwierig auf ein neues PVS – System umzusteigen. Um einen Eindruck über die Vielfalt und Menge der verschiedenen PVS – Systeme zu vermitteln, werden im Folgenden die Anzahl der KVDT – Zulassungen und der Labordatenträger – Zulassungen (LDT–Zulassungen) beschrieben. Zum dritten Quartal 2005 sind 2541 PVS – Systeme von der Kassenärztlichen Bundesvereinigung (KBV) für den gesamten oder Teile des KVDT zugelassen. Des Weiteren sind 742 PVS – System – Hersteller für die Datenübertragung mittels des gesamten oder Teile des Labordatenträgers zugelassen. Seit dem 1. Januar 2004 sind die Ärzte, mit wenigen Ausnahmen, gesetzlich dazu verpflichtet, die Abrechnung elektronisch durchzuführen. Deswegen haben einige Ärzte aus Kostengründen eine Individuallösung konzipiert, die ausschließlich in ihrer Arztpraxis verwendet wird. Aber auch diese Lösungen müssen von der KBV zertifiziert werden. Diese Lösungen werden zu den zugelassenen PVS – Systemen gezählt. Zum dritten Quartal 2005 sind 373 Individuallösungen zugelassen. Die in einer Arztpraxis anfallenden Daten müssen für den geregelten Praxisbetrieb vom PVS – System verwaltet, gespeichert und zum Teil auch zum Datenaustausch nach außen kommuniziert werden. Dabei werden die Daten von jedem Hersteller unterschiedlich erfasst und weiterverarbeitet. Des Weiteren ist die Repräsentation dieser Daten nicht einheitlich und beinhaltet verschiedene Arten von Daten. Diese Daten sind unter anderem Verwaltungsdaten, Abrechnungsinformationen und medizinische Informationen. Die von den Herstellern der Praxisverwaltungssoftware zu Grunde gelegten Datenmodelle sind unabhängig voneinander und nicht standardisiert. Dabei extrahiert jede Praxisverwaltungssoftware die Daten, die es für wichtig hält und repräsentiert diese in einem eigenen Format. Dadurch ergibt sich die Schwierigkeit, dass die Interoperabilität der Systeme sowohl in funktioneller als auch in semantischer Sicht eingeschränkt ist. Die Lösung dieser Probleme ist ein einheitliches Datenmodell mit entsprechender Schnittstelle, die das Ergebnis der vorliegenden Arbeit darstellt.
The whole site of the waste disposal centre Leppe in Lindlar has been modified by the project :metabolon into an authentic learning site for knowledge transfer. Addressing all age groups, the project offers insights into environmental knowledge and explains contexts of resources and material flows. The site conditions allow practical outlooks on future energy systems. Following the meta theme of “lifetime learning”, pupils and students are addressed by different modules, considering their individual learning levels.
Inhalt dieser Arbeit ist die Entwicklung eines Software Agenten, der auf Basis des WWW Wissen akquiriert, extrahiert und dieses so aufbereitet, dass es maschinell weiter zu verarbeiten ist. Eine Task Sprache, die gesammelte Daten entsprechend aufbereitet, soll gefunden, entwickelt und beispielhaft verwendet werden. Diese Task Sprache soll als Meta-Sprache für Roboter so zu verwenden sein, dass sie in einem Roboter in ausführbaren Code umgewandelt wird und dieser die enthaltenen Arbeitsschritte mit vorhandenen Materialien und Arbeitsgeräten durchführen kann.
Im Rahmen dieser Arbeit wurde eine Software auf Basis von Java und ImageJ zur automatischen Auswertung von Prüfkörperperaufnahmen nach PAS 1054 entwickelt. Drei Hauptaspekte standen im Vordergrund: Entwicklung einer benutzerfreundlichen Oberfläche, eine automatische Prüfkörperpererkennung bei Aufnahmen von Modalitäten verschiedener Hersteller, sowie die Implementierung eine Algorithmus zur Messung der SFR (Spatial Frequency Response). Diese Software wurde in eine bereits bestehende Softwarestruktur eingefügt. Außerdem wurde eine Sicherung der Messergebnisse als Textdatei und verschiedene kleine Modifikationen in die bestehende Version implementiert.
This market research paper has been prepared under the supervision of Prof. Dr. Wolfgang Veit of TH Köln and Prof. Dr. Carol Scovotti of University of Wisconsin-Whitewater in the course of the inter-university cross-border collaboration student research project “Export Opportunity Surveys (EOS)”. This study explores organic/fair trade coffee export opportunities to the German and US markets.
Diese Bachelorarbeit erläutert das Vorgehen bei der Erstellung einer Applikation für mobile Endgeräte, die einen dialogorientierten 3D-Charakter darstellt, der auf die Eingaben des Benutzers reagiert. Erläutert wird hierbei auch die historische Entwicklung der Mensch-Maschinen-Kommunikation. Darauf folgt ein Überblick über die, im Bereich der mobilen Endgeräte verfügbare, Hard- und Software sowie deren Architektur. Weitere Teile befassen sich mit den in der Applikation genutzten, selbst erstellten Methoden zur Textanalyse und Antwortgenerierung, sowie der Kombination aller Komponenten zu einem Endprodukt.
As the number and intensity of environmental challenges increase, more faiths have initiated religiously motivated change within their communities or have been involved in cooperation projects with NGOs or GOs dedicated to conservation. Even though a lot of quantitative research had been done on the correlation of religiosity and concern for the environment, no scientific study dealt about the argumentation lines that drive or discourage believers to get involved in environmental conversation. As a basis for the research the Theory of Planned Behavior of Ajzen was modified into a model. By the means of Semi-Standardized Interview guidelines 15 members and leaders of different church communities in Amman were interrogated to retrieve meaning of and cause-effect-chains between the different components of the model. Their answers were coded and analyzed with cross tables to identify interconnections and their tendencies.
The results show that interviewees’ religious convictions about God and the world were the strongest influencer, whereas the community and leaders rarely gave a reason for people to adapt water saving measures. External factors such as governmental, societal, political or economic mostly discouraged people to adapt environmentfriendly behaviors. Approaches by the GIZ have already started catering to those challenges and potentials, however the range of impact did not reach until most of the interviewees.
The rising worldwide energy demand leads to the depletion of fossil fuels reserves and at the same time, it increases the environmental impact caused by emissions of greenhouse gases (GHG).
Utilization of fossil fuels causes not only climate change impacts such as global warming, but also many other environmental problems such as water and soil contamination that pose potential risks to human and animal health.
Furthermore, increasing population growth leads to increased food demand and consumption. This upward trend creates competition between food and bioenergy markets. Hence, the so‐called “food or fuel” discussion is back.
Challenges to counteract deciding between food and fuel that focus on the need to produce sustainable energy, while protecting environment, are the keys to replacing fossil fuels and lowering their greenhouse gas emissions. For this purpose, a completely new strategy with a proper sustainable system to supplying world’s energy demand must be found.
Ein Problem unserer heutigen Informationsgesellschaft ist, dass Ärzte neuen technischen Systemen immer mit großem Argwohn begegnen und dies nicht zu unrecht. Denn immer wieder wird unser Vertrauen in Systeme durch große Missbrauchsskandale erschüttert. Doch sind technische Systeme wie medizinische Semantic Web Anwendungen ein nächster Schritt zu einer verbesserten medizinischen Versorgung.
Deshalb ist das Ziel dieser Arbeit für medizinische Semantic Web Anwendungen Ansätze für Normen und Architekturen zur Schaffung von Vertrauen zu finden. Hierzu wird erst das Vertrauen aus unterschiedlichen Blickwinkeln betrachtet und danach medizinische Semantic Web Anwendungen als sozio-technisches System. Dazu wird der der soziale Kontext des deutschen Gesundheitswesens betrachtet. Zusätzlich wird untersucht wie ein technisches System diesen Kontext verändern könnte.
Aus diesen drei Kategorien werden Normen definiert. Auf diesen Normen aufbauend werden Ansätze für Architekturen formuliert, welche das Vertrauen steigern sollen. Dazu werden schon vorhandene medizinische Ontologien beleuchtet, um den Ansätzen eine Basis zu geben.
Diese Ansätze für Architekturen werden als einzelne Bausteine zu einem größeren Ansatz zusammengefügt. Zuerst wird dieser größere Zusammenhang vorgestellt und danach werden einige Bausteine im Folgenden weiter beschrieben. Unter diese Bausteine fallen Kontrollinstanzen und deren Services sowie Zertifizierungsstellen mit unterschiedlichen Arten von Zertifikaten. Die meisten dieser Bausteine
sind jedoch Agenten mit den verschiedensten Aufgaben, auf welche genauer eingegangen wird. Die Qualität der Ontologien sollen diese einerseits als wichtigen Aspekt des Vertrauens verbessern und überwachen. Andererseits dienen weitere Agenten wiederum der Kommunikation untereinander oder der üblichen Akquisition von Informationen.
DesWeiteren bauen diese Agenten ein Vertrauensnetzwerk untereinander auf. Das Vertrauen zu anderen Agenten wird dabei mit unterschiedlichen Attributen dargestellt und liegt dezentral bei jedem Agenten oder kann ebenfalls von zentralen Services erfragt werden. Ein Austausch der Informationen unter den Agenten ist ebenso möglich. Diese Architektur mit einer Vielzahl von Agenten und das daraus
resultierende Vertrauensnetzwerk soll schließlich ein grundlegendes Vertrauen schaffen, auf welchem medizinische Semantic Web Anwendungen aufbauen können.
Krankenhäuser stellen eine wichtige Kritische Infrastruktur im Bereich des Gesundheitssektors dar, deren Funktionsfähigkeit bei allen Gefahrenlagen erhalten bleiben muss. Durch Interdependenzen mit anderen Kritischen Infrastrukturen, wie der Trinkwasserversorgung, kann ein Ausfall einer der Infrastrukturen zu einer Beeinträchtigung der jeweils anderen führen. Trinkwasser ist für den Menschen lebensnotwendig und muss daher überall in ausreichender Quantität und Qualität bereitgestellt werden (öffentlichen Daseinsvorsorge). Die Trinkwasserversorgung stellt eines der kritischsten Infrastrukturelemente in Krankenhäusern dar, deren Ausfall zu einer Gefährdung der quantitativen und qualitativen Gesundheitsversorgung führt. Die Vergangenheit hat gezeigt, dass Trinkwasserausfälle in Krankenhäusern keine Seltenheit darstellen und zu weitreichenden Beeinträchtigungen führen. Bei Großstörungen bzw. Großschadenslagen oder Katastrophenfällen, ist daher die kommunale Gefahrenabwehr/ der Katastrophenschutz in der Pflicht, zusammen mit anderen Akteuren Krisenmanagement- bzw. Maßnahmenplanungen zu erarbeiten. Dennoch existieren zurzeit fast keine adäquaten Krisenmanagementplanungen für die Herstellung einer Ersatztrinkwasserversorgung für Krankenhäuser. Dies gilt sowohl für die Krankenhäuser im Rahmen der Krankenhausalarm- und Einsatzplanung, als auch die kommunale Gefahrenabwehr bzw. den Katastrophenschutz und Wasserversorgungsunternehmen (WVU).
In dieser Master-Thesis, die im Sommersemester 2018 an der TH Köln erarbeitet wurde, sollte durch eine umfassende Risikoanalyse, unter Zuhilfenahme von Experteninterviews und Dokumentenanalysen das Risiko und die Folgen eines vollständigen Trinkwasserausfalles in einem Krankenhaus dargestellt und der aktuelle Stand der geplanten Bewältigungs- bzw. Krisenmanagementplanungen von Behörden und Organisationen mit Sicherheitsaufgaben (BOS), dem örtlichen WVU und des Krankenhauses für eine solche Schadenslage erhoben werden. Wurden die geplante Krisenmanagementplanungen als unzureichend oder nicht existent identifiziert, so sollten, wenn möglich, Vorschläge für neue Krisenmanagementkonzepte und Kapitel für den Krankenhauseinsatzplan erstellt werden, wofür ungenutzte Ressourcen für die Etablierung einer Ersatztrinkwasserversorgung ermittelt wurden. Die Analyse erfolgte durch eine Einzelfalluntersuchung anhand des Hauptgebäudes des Krankenhauses Merheim in Köln mit dem Szenario einer lokalen Lage, die nicht durch Kontamination des Wassers induziert ist und deren genaue Ursache nicht betrachtet wird. Um mögliche zukünftige Maßnahmen erarbeiten zu können, musste im Rahmen der Analyse der minimale Trinkwasserbedarf des Untersuchungsgebietes bzw. der einzelnen Funktionsbereiche erhoben und Kriterien für die Geeignetheit von Maßnahmen zur Ersatztrinkwasserversorgung erarbeitet werden. Diese Kriterien sind: Vorlaufzeit, Einhaltung der Trinkwasserverordnung, Versorgungskapazität und Verfügbarkeit von Versorgungsquellen. Für die Berechnung der Kritikalität wurde eine eigene Berechnungsmethode erarbeitet, die im Rahmen der Schutzzieldefinition eine Kritikalitätsanalyse ermöglicht, welche die Bedeutung des Gesamtobjektes und der einzelnen Prozessbausteine einbezieht. Das hier hergeleitete Schutzziel lautet: Verhinderung von Todesfällen bei Patienten durch die angenommene Gefahr und durch das ausfallbedingte Unterlassen von Behandlungsmaßahmen, die nicht anderweitig, durch z.B. Abmeldung von der örtlichen Notfallversorgung oder einer Evakuierung und Verlegung der Patienten, kompensierbar sind.
Das übergeordnete Ziel dieser Arbeit ist zusammengefasst die Identifikation der geplanten Maßnahmen zu Ersatztrinkwasserversorgung des Krankenhauses Merheim bzw. ggf. nicht vorhandenen Maßnahmen und somit die Feststellung, ob die Problematik des angenommenen Szenarios von allen Akteuren ausreichend betrachtet wird. Es soll das Bewusstsein für die Notwendigkeit und die Verantwortlichkeiten bzw. Zuständigkeiten von Krisenmanagementplanungen inkl. der Schnittstellenproblematik erhöht werden. Auf Grundlage dieser Arbeit können die Feuerwehr, Hilfsorganisationen, das Technisches Hilfswerk, der Wasserversorger und das Krankenhaus zukünftige Planungen begründen und die Ergebnisse für die Planung einer Ersatztrinkwasserversorgung für das Krankenhaus Merheim nutzen. Das Bundesamt für Bevölkerungsschutz und Katastrophenhilfe, das diese Arbeit ebenfalls betreut hat, möchte diese Arbeit zudem dafür verwenden, weiterführende Konzepte und Leitfäden zu entwickeln.
Hinsichtlich der Erfüllung des Schutzzieles wurde das Krankenhaus Merheim an sich und als Prozessbausteine insbesondere die Intensivstationen als sehr verwundbar identifiziert, was im Rahmen der Analyse zu einem sehr hohen Gesamtrisiko führte. Weitere Prozessbausteine mit sehr hohen Risikowerten sind die Reinstwasseraufbereitungsanlage, die Zentralwäscherei, das Zentrallabor, die Zentralsterilisation und die Anästhesiologie. Durch die sehr hohen Risikowerte und den maximalen Trinkwasserbedarf des Krankenhauses von 150m³/h (eine Ermittlung des minimalen Bedarfes war nicht möglich) lässt sich ein hoher Handlungsbedarf für Krisenmanagementplanungen für den Fall eines Trinkwasserausfalles in dem Krankenhaus ableiten. Die Analyse der Krisenmanagementplanungen hat ergeben, dass keine Maßnahmen zur Krisenbewältigung eines Trinkwasserausfalles im Krankenhaus Merheim existieren. Dies betrifft alle einbezogenen Akteure. Auch eine Einspeisestelle für eine Ersatztrinkwasserversorgung und andere Redundanzsysteme sind im Krankenhaus Merheim nicht vorhanden. Die redundante Ausgestaltung der Trinkwassereinspeisung aus dem öffentlichen Netz in das Privatnetz des Krankenhauses ist dabei nur bei einem Versorgungsausfall auf Seiten des öffentlichen Trinkwassernetzes wirkungsvoll. Eine Ersatztrinkwasserversorgung wäre mit den in der Stadt Köln vorhandenen Ressourcen ausreichend gestaltbar. Verfügbare und geeignete Kapazitäten sind bei der Feuerwehr Köln, privaten Firmen mit Tanklastzügen, der Bundespolizei und Hilfsorganisationen identifiziert worden. Bei den durchgeführten Interviews wurde von fast allen Akteuren eine hohe Relevanz des Themas und der hohe Bedarf an Planungen bestätigt. Jedoch ist durch die bestehende Mangelplanung und der Vernachlässigung von Übungen zur Not- und Ersatztrinkwasserversorgung (z.B. Inbetriebnahme Trinkwassernotbrunnen) davon auszugehen, dass bisher ein mangelndes Problembewusstsein und Unstimmigkeiten bezüglich der Zuständigkeiten bei den verantwortlichen Stellen vorlag. Die Kommune (bzw. hier die Stadt Köln) sollte daher alle Beteiligten zusammenbringen, über die Verantwortlichkeiten bzw. Zuständigkeiten aufklären und einen kooperativen Planungsprozess initiieren. Eine eigene Planung, im Rahmen dieser Arbeit, in Form eines Kapitels für den Krankenhauseinsatzplan und Krisenmanagementplänen für die Gefahrenabwehr bzw. den Wasserversorger konnte durch das Fehlen einer Trinkwassereinspeisestelle in das Krankenhaus nicht erstellt werden. Jedoch war es möglich ein kurzes Kapitel für den Krankenhauseinsatzplan zu erstellen, das auf die weitreichenden Folgen eines Trinkwasserausfalles aufmerksam macht und Anweisungen zum schnelleren Übergang zu einer Evakuierung/Räumung liefert. Durch das so erreichte schnellere Handeln, könnten zumindest viele weitere Folgeschäden bei den Patienten verhindert werden. Überlegungen dahingehend, ob eher präventive oder zur Selbsthilfe befähigende Maßnahmen statt Bewältigungsplanungen in Betracht gezogen werden sollten, sind durchzuführen.
Im Rahmen dieser Bachelorarbeit an der Technischen Hochschule Köln, deren Bearbeitungszeit vom 20.1.2017 bis 24.3.2017 ist, wird durch ein technisches Experiment geprüft, ob diverse Technologien zur 3D-Erfassung und Rekonstruktion geeignet sind Gebäudeinnenräume so zu erkunden, dass die Gefahrenabwehr dadurch einen höheren Nutzen hat, als es bei einer persönlichen oder autonomen Videoerkundung der Fall ist. Dies soll vor allem dann helfen, wenn Gebäude nicht mehr betreten werden sollten, wie es beispielsweise der Fall ist, wenn das Gebäude durch Erdbebenschäden einsturzgefährdet oder mit Gasen kontaminiert ist. 3D-Modelle einer Umgebung haben u.a. den Vorteil, dass problemlos neue Blickwinkel eingenommen, Maße ermittelt und Planungen für Rettungseinsätze oder Evakuierungen effizienter durchgeführt werden können, ohne Bildmaterial aufwendig zu sichten. Zudem können die Ergebnisse für spätere Evaluationen und Trainings genutzt werden. Um diese Geeignetheit festzustellen werden Beurteilungskriterien erarbeitet, die ein potentielles System erfüllen muss. Diese Kriterien sind: Günstig in der Beschaffung, Zeit bis zu einer 3D-Darstellung, leichte Bedienbarkeit, Qualität bzw. Informationsgewinnung aus der Darstellung (Erkennung von Zugängen und Personen), Lieferung von Zusatzinformationen (beispielsweise Maßangaben) und ob das System Online oder Offline funktionsfähig ist. Um diese Kriterien beurteilen zu können, werden Systeme der drei Haupttechnologien in der 3D-Erfassung (Laserscanner GeoSLAM ZEB-REVO, RGB-D-Kamera Microsoft Kinect und FARO Freestyle3D, Fotogrammetrie mit der Software Agisoft PhotoScan) in einem Versuch überprüft. Dabei wird das Labor für Großschadensereignisse der Technischen Hochschule Köln, der angrenzende Flur und das angrenzende Treppenhaus gescannt bzw. erfasst und rekonstruiert, wobei die nötigen Daten ermittelt werden. Dabei stellt sich heraus, dass der FARO Freestyle3D mit seiner RGB-D-Technologie und der Software FARO Scene als einziges System alle Kriterien erfüllt und somit für den Zweck der Erkundung in diesem Kontext geeignet ist. Der Microsoft Kinect Sensor mit der Software FARO Scene hat, durch Fehler in der Rekonstruktion, Schwächen in der Darstellungsqualität. Dies gilt auch für die Kombination aus GeoS-LAM ZEB-REVO/CloudCompare, da hiermit kein Farbscan erstellt werden kann und somit eine Erkennung von Objekten (z.B. geschlossene Türen) erschwert wird. Die Fotogrammetrie dauert mit einer Berechnungsdauer von ca. 38 Stunden zu lange, um in Notfallsituationen einen Nutzen zu bieten und liefert außerdem falsche Maßangaben.
Nicht näher betrachtet wird in dieser Arbeit die (autonome) Erkundung durch Roboter oder Drohnen, die die Geräte transportieren können, Strom- und Datenübertragungsproblematiken, andere ergänzende Sensortechniken und die Erkundung in dunkler Umgebung.
Bei moderner Software kommt es auf verschiedene Faktoren an. Der erste für den Anwender zunächst sichtbare Faktor ist die Bedienungsfreundlichkeit des Produktes. Der zweite wichtige Faktor ist die Verwendbarkeit des Produktes auf verschiedenen Hardwareplattformen. Dies ist vor allem für Programme wichtig, die sich an einen großen Kundenkreis richten, da man nicht davon ausgehen kann, oder sollte, dass überall das gleiche Betriebssystem eingesetzt wird. Des weiteren wird so auch ein Umstieg auf ein anderes System erleichtert. Für das Softwarehaus selber ist die Wartbarkeit des Produktes von entscheidender Bedeutung. Objektorientierte Programmierung bietet hier durch Vererbungstechniken, Datenkapselung und ähnlichem die besten Voraussetzungen. Auch der Einsatz von Entwurfsmustern, also lange bewährten Konzepten objektorientierter Entwicklung, ist hier von Vorteil. Eine Datenbankanbindung ist für fast jede kommerzielle Software notwendig. Hierbei ist es auch von Vorteil sich nicht an eine spezielle Datenbank zu binden. Ein Mittel hierzu ist es die Datenbanksprache SQL und offene Datenbanktreiber wie etwa ODBC zu benutzen. Bei vielen Programmen ist es auch von Vorteil, wenn sie von Anfang an als verteilte Systeme entworfen werden. Verteilte Systeme haben den Vorteil, dass jedes Modul an einem anderen Ort sein kann und entweder über eine ständige oder aber auch eine temporäre Internetverbindung miteinander synchronisiert werden können. In dieser Arbeit werde ich anhand eines Praxisbeispieles beschreiben, wie man all diese Faktoren in ein Softwareprodukt unterbringt, und wie die Entwicklung aussieht.
PubMed stellt mit 21 Mio. Aufsatzzitaten eines der umfangreichsten Informationssysteme in Bereich der Medizin. Durch die Verwendung einer einheitlichen Terminologie (Medical Subject Heading - MeSH) bei der Indizierung von PubMed Inhalten kann die Orientierung in solch großen Datenbeständen optimiert werden. Zwar bietet ein kontrolliertes Vokabular bei der Informationsbeschaffung zahlreiche Vorteile gegenüber einer Freitextsuche doch fällt Nutzern das Abbilden eines Informationsbedarfs auf die verwendete Terminologie oftmals schwer. In dieser Arbeit wird eine Systemunterstützung geschaffen, die den Abbildungsprozess automatisiert indem eine automatische Verschlagwortung textbasierter Inhalte unter Verwendung eines kontrollierten Vokabulars vorgenommen wird. Durch die Verwendung einer einheitliche Terminologie kann so eine konsistente Integration von PubMed Inhalten erreicht werden.
Ghana suffers from frequent power outages, which can be compensated by off-grid energysolutions. Photovoltaic-hybrid systems become more and more important for rural electrificationdue to their potential to offer a clean and cost-effective energy supply. However, uncertainties relatedto the prediction of electrical loads and solar irradiance result in inefficient system control and canlead to an unstable electricity supply, which is vital for the high reliability required for applicationswithin the health sector. Model predictive control (MPC) algorithms present a viable option to tacklethose uncertainties compared to rule-based methods, but strongly rely on the quality of the forecasts.This study tests and evaluates (a) a seasonal autoregressive integrated moving average (SARIMA)algorithm, (b) an incremental linear regression (ILR) algorithm, (c) a long short-term memory (LSTM)model, and (d) a customized statistical approach for electrical load forecasting on real load data of aGhanaian health facility, considering initially limited knowledge of load and pattern changes throughthe implementation of incremental learning. The correlation of the electrical load with exogenousvariables was determined to map out possible enhancements within the algorithms. Results showthat all algorithms show high accuracies with a median normalized root mean square error (nRMSE)<0.1 and differing robustness towards load-shifting events, gradients, and noise. While the SARIMAalgorithm and the linear regression model show extreme error outliers of nRMSE >1, methods viathe LSTM model and the customized statistical approaches perform better with a median nRMSE of0.061 and stable error distribution with a maximum nRMSE of <0.255. The conclusion of this study isa favoring towards the LSTM model and the statistical approach, with regard to MPC applicationswithin photovoltaic-hybrid system solutions in the Ghanaian health sector.
Jordan is deemed as one of the least water-endowed regions in the world. The acute water shortage, accompanied with changing climatic conditions have necessitated the increasing use of treated wastewater (TWW), predominantly in irrigated agriculture sector. This is especially true with the upper Zarqa River. The ample supply of TWW resources can be found there; paradoxically, the practical implementation of TWW reuse is hindered by the enforcement of irrigation water quality standard, compounding pressure on the dwindling groundwater resources. In light of the large potential source of TWW, this study aims to supply knowledge on maximizing the safe reuse of TWW while minimizing the environmental impacts within the local environment of the upper Zarqa River. A SWOT analysis was conducted to identify the strengths, weaknesses, opportunities, and threats of TWW reuse for agriculture in the local context. In recognition of the projected growth in the treated effluent to more than 135 MCM in the coming ten years, and how it would affect the water use on the study region, several plausible development scenarios were proposed based on expected developments on the ground. Considering the vital role of TWW in sustaining multiple ecosystem services, this study addresses the need to review current standard, encourages managed aquifer recharge with TWW, recommends crops type modification, and enhances knowledge on suitable practices at farm level. Each of these factors is needed in order to deliver a range of ecosystem services to sustain the local rural communities and to advance them in the face of profound challenges, thereby leading to its stability and increased productivity.
Dieses Schulungskonzept wurde vor allem von der Erstautorin als praktische Methodensammlung für Einrichtungen und Personen entwickelt, die pflegende Angehörige unterstützen und beraten. Das Konzept integriert zwei Ansätze, nämlich die Gelassenheitsförderung durch Introvision nach Wagner und die Gewaltfreie Kommunikation (GFK) nach Rosenberg.
Pressure injuries remain a serious health complication for patients and nursing staff. Evidence from the past decade has not been analysed through narrative synthesis yet. PubMed, Embase, CINAHL Complete, Web of Science, Cochrane Library, and other reviews/sources were screened. Risk of bias was evaluated using a slightly modified QUIPS tool. Risk factor domains were used to assign (non)statistically independent risk factors. Hence, 67 studies with 679,660 patients were included. In low to moderate risk of bias studies, non-blanchable erythema reliably predicted pressure injury stage 2. Factors influencing mechanical boundary conditions, e.g., higher interface pressure or BMI < 18.5, as well as factors affecting interindividual susceptibility (male sex, older age, anemia, hypoalbuminemia, diabetes, hypotension, low physical activity, existing pressure injuries) and treatment-related aspects, such as length of stay in intensive care units, were identified as possible risk factors for pressure injury development. Health care professionals’ evidence-based knowledge of above-mentioned risk factors is vital to ensure optimal prevention and/or treatment. Openly accessible risk factors, e.g., sex, age, BMI, pre-existing diabetes, and non-blanchable erythema, can serve as yellow flags for pressure injury development. Close communication concerning further risk factors, e.g., anemia, hypoalbuminemia, or low physical activity, may optimize prevention and/or treatment. Further high-quality evidence is warranted.
Pelleted biomass has a low, uniform moisture content and can be handled and stored cheaply and safely. Pellets can be made of industrial waste, food waste, agricultural residues, energy crops, and virgin lumber. Despite their many desirable attributes, they cannot compete with fossil fuel sources because the process of densifying the biomass and the price of the raw materials make pellet production costly.
Leaves collected from street sweeping are generally discarded in landfills, but they can potentially be valorized as a biofuel if they are pelleted. However, the lignin content in leaves is not high enough to ensure the physical stability of the pellets, so they break easily during storage and transportation. In this study, the use of eucalyptus kraft lignin as an additive in tree-leaf pellet production was studied. Results showed that when 2% lignin is added the abrasion resistance can be increased to an acceptable value. Pellets with added lignin fulfilled all requirements of European standards for certification except for ash content. However, as the raw material has no cost, this method can add value or contribute to financing continued sweeping and is an example of a circular economy scenario.
When it comes to web applications and their dynamic content, one seemingly common trouble area is that of layouts. Frequently, web designers resort to frameworks or JavaScript-based solutions to achieve various layouts where the capabilities of Cascading Style Sheets (CSS) fall short. Although the World Wide Web Consortium (W3C) is attempting to address the demand for more robust and concise layout solutions to handle dynamic content with the recent and upcoming specifications, a generic approach to creating layouts using constraint syntax has been proposed and implementations have been created. Yet, the introduction of constraint syntax would change the CSS paradigm in a fundamental way, demanding further analysis to determine the viability of its inclusion in core web standards. This thesis focuses on one particular aspect of the introduction of constraint syntax: how intuitive constraint syntax will be for designers. To this end, an experiment is performed involving participants thinking aloud while reading code snippets. Also, cursor movements are recorded as a proxy for eye movement over the code snippets. The results indicate that, upon first-impression, constraint syntax within CSS is not intuitive for designers.
Existiert das "gläserne" Unternehmen? Sind die letzten Geheimnisse der Konkurrenz bereits gelüftet? Gibt es sichere Entscheidungen durch Allwissenheit? Ist Industriespionage heute überflüssig? Diese Fragen drängen sich mit dem immer weiter wachsenden Angebot an Datenbanken geradezu auf. Anhand der Untersuchung einiger renommierter Datenbanken wird versucht, darauf eine Antwort zu finden. Ausgangspunkt ist die Definition des Begriffs "Firmeninformationen". Bisher wird dieser Begriff offensichtlich je nach Bedarf ausgelegt. Anschließend wird das Feld der Firmeninformationen in seine Bestandteile zerlegt, um zu zeigen, daß dazu nicht nur die einfachen Fakten wie Mitarbeiterzahl oder Umsatz gehören. Im zweiten Kapitel werden die einzelnen Datenbanktypen mit ihren Inhalten vorgestellt. Das dritte Kapitel befaßt sich mit Kriterien, die für die Qualität von Firmeninformationsdatenbanken entscheidend sind. Im Anschluß erfolgt eine Analyse des Datenangebotes. Untersucht wurde das Angebot ausgewählter Datenbanken zu den Unternehmen "Aldi" und "Henkel KGaA".
In dieser Bachelorarbeit wird das Thema Big Data und die damit verbundenen Technologien, sprich NoSQL und Hadoop behandelt. Das Thema wurde bewusst ausgewählt, weil sie zum einen aktuell und zum anderen immer mehr an Bedeutung, aus Sicht der Unternehmen gewinnt. Durch die ständig anwachsenden Daten, die zu 80% in Semistrukturierter Form vorliegen, stößt die IT-Infrastruktur eines Unternehmens schnell an seine Grenzen. Und genau an dieser Stelle sollen die Big Data Technologien, wie „NoSQL“ und „Hadoop“, helfen, die so großen Datenmengen zu verarbeiten, um für das Unternehmen, wertvolle Informationen zu liefern, die bislang nicht ersichtlich waren.
Analytisches Berechnungsmodell ohne empirische Exponentenansätze : Rauchentwicklung bei Bränden
(2002)
Es wird ein analytisches Berechnungsmodell zur Rauchentwicklung über einem Brandherd vorgestellt, das auf der Annahme der Wärme- und Impulserhaltung in der aufsteigenden Rauchsäule basiert, sowie der Kenntnis des Ausbreitungswinkels. Beobachtungen zufolge beträgt der halbe Ausbreitungswinkel etwa 7° bis 8°. Ein Vorteil des Modells gegenüber anderen, meist empirischen "PLume-Formeln" liegt darin, dass erstmals die drei wichtigsten Einflussparameter der Brandrauchausbreitung (Wärmefreisetzungsrate, Brandfläche, Raumhöhe) gemeinsam berücksichtigt werden und es keine versuchsbedingten Gültigkeitsgrenzen gibt.
Um diesen Mangel an Daten zu Cyber-Risiken entgegenzuwirken und um den Status Quo der Datenverfügbarkeit von Cyber-Risiken zu überprüfen, wurde um Rahmen dieser Forschung eine systematische Übersicht angefertigt, um Stakeholder von Cyber-Risiken
eine Datenbank von öffentlich zugänglichen Daten zu Cyber-Risiken und Cybersecurity zur Verfügung zu stellen. Im Fokus dieser Untersuchung standen Datensätze, welche in der akademischen Literatur verwendet wurden.
To compensate the shortage of cyber risk data and offer some indication of the status quo on the data available on cyber risks, the researchers prepared a systematic overview to offer cyber risk stakeholders a database of publicly accessible data on cyber risks and cybersecurity. The study focussed on the data sets used in the academic literature.
Die Bedeutung von Cyber-Versicherungen als Instrument zur finanziellen Absicherung, um die zunehmenden Unternehmensverluste durch Cyber-Risiken abzumildern, nimmt zu. Es mangelt jedoch an standardisierten Wordings und gegenseitigem Verständnis bei Cyberversicherungs-Policen. Mit weniger als einem Drittel der 2017 in den USA ausgezahlten Cyberversicherungsansprüche besteht eine erhebliche Lücke zwischen den Cyber-Risiken, die Unternehmen abdecken müssen, und denen, die tatsächlich durch ihre Cyberversicherungspolicen abgedeckt sind. Im Jahre 2018 wurde von Lloyds of London eine Schätzung mithilfe von Szenario-basierten Modellen durchgeführt, um zu ermitteln, wie groß die Versicherungsschutzlücke im Hinblick auf Cyber-Risiken ist. Man ist dabei zu dem Ergebnis gekommen, dass die Versicherungsschutzlücke ungefähr 90 % beträgt. Der Begriff bezeichnet die Differenz zwischen dem Versicherungsschutz, welcher ökonomisch benötigt wird und dem tatsächlich gekauften.
Diese Forschung befasste sich mit den deutschen Cyber-Versicherern, welche Cyber-Schutz für kleine und mittelständische Unternehmen (KMU) anbieten. Im Rahmen dieser Forschung wurden nur die Ausschlüsse von Cyber-Versicherungen betrachtet. Zusätzliche erweiterbare oder kostenpflichtige Einschlüsse wurden nicht berücksichtigt. Als Grundlage für die Forschung wurde ein Datensatz erstellt, welcher auf Informationen der BaFin basiert. Durch mehrere Segmentierungsstufen wurden 50 Cyber-Versicherer ermittelt, welche Cyber-Schutz für KMUs angeboten haben. Von diesen 50 Cyber-Versicherern konnten 41 Cyber-Bedingungswerke für das Forschungsprojekt herangezogen werden. Im Rahmen der Forschung wurden nun die Bedingungswerke mittels einer induktiven qualitativen Inhaltsanalyse auf die bestehenden Ausschlüsse analysiert. Die Ergebnisse wurden kategorisiert und beschrieben. Innerhalb der Analyse konnten 15 Ausschlusskategorien sowie deren Häufigkeiten in den Cyber-Bedingungen ermittelt werden. Diese Ergebnisse können dazu beitragen, dass Unternehmen eine Vorstellung davon erhalten, was nicht in den Cyber-Versicherungen enthalten sein könnte. Zudem liefern die Beschreibungen eine Informationsgrundlage und tragen so dazu bei, dass der Versicherungsschutz bzw. die Ausschlüsse besser verstanden werden.
Die Bedeutung von Cyber-Versicherungen als Instrument zur finanziellen Absicherung, um die zunehmenden Unternehmensverluste durch Cyber-Risiken abzumildern, nimmt zu. Es mangelt jedoch an standardisierten Wordings und gegenseitigem Verständnis bei Cyberversicherungs-Policen. Mit weniger als einem Drittel der 2017 in den USA ausgezahlten Cyberversicherungsansprüche besteht eine erhebliche Lücke zwischen den Cyber-Risiken, die Unternehmen abdecken müssen, und denen, die tatsächlich durch ihre Cyberversicherungspolicen abgedeckt sind. Im Jahre 2018 wurde von Lloyds of London eine Schätzung mithilfe von Szenario-basierten Modellen durchgeführt, um zu ermitteln, wie groß die Versicherungsschutzlücke im Hinblick auf Cyber-Risiken ist. Man ist dabei zu dem Ergebnis gekommen, dass die Versicherungsschutzlücke ungefähr 90 % beträgt. Der Begriff bezeichnet die Differenz zwischen dem Versicherungsschutz, welcher ökonomisch benötigt wird und dem tatsächlich gekauften.
Diese Forschung befasste sich mit den deutschen Cyber-Versicherern, welche Cyber-Schutz für kleine und mittelständische Unternehmen (KMU) anbieten. Im Rahmen dieser Forschung wurden nur die Ausschlüsse von Cyber-Versicherungen betrachtet. Zusätzliche erweiterbare oder kostenpflichtige Einschlüsse wurden nicht berücksichtigt. Als Grundlage für die Forschung wurde ein Datensatz erstellt, welcher auf Informationen der BaFin basiert. Durch mehrere Segmentierungsstufen wurden 50 Cyber-Versicherer ermittelt, welche Cyber-Schutz für KMUs angeboten haben. Von diesen 50 Cyber-Versicherern konnten 41 Cyber-Bedingungswerke für das Forschungsprojekt herangezogen werden. Im Rahmen der Forschung wurden nun die Bedingungswerke mittels einer induktiven qualitativen Inhaltsanalyse auf die bestehenden Ausschlüsse analysiert. Die Ergebnisse wurden kategorisiert und beschrieben. Innerhalb der Analyse konnten 15 Ausschlusskategorien sowie deren Häufigkeiten in den Cyber-Bedingungen ermittelt werden. Diese Ergebnisse können dazu beitragen, dass Unternehmen eine Vorstellung davon erhalten, was nicht in den Cyber-Versicherungen enthalten sein könnte. Zudem liefern die Beschreibungen eine Informationsgrundlage und tragen so dazu bei, dass der Versicherungsschutz bzw. die Ausschlüsse besser verstanden werden.
Cyber-Risiken, vor allem in Form von Cyber-Kriegsführung und staatlich unterstützten Angriffen, stellen eine große Herausforderung dar. Im Kontext der Versicherung, sollen solche Risiken über Kriegsklausel ausgeschlossen werden. Derzeit gibt es unterschiedliche Herausforderungen wie fehlende klare rechtliche Regelungen, die Unsicherheiten für Versicherer und Versichert darstellen. Die Interviews mit Branchenvertretern zeigen unterschiedliche Meinungen darüber, wie die Versicherungswirtschaft Cyber-Kriegsrisiken wahrnimmt und damit umgeht. Trotz der sich ständig ändernden Natur dieser Bedrohungen besteht weiterhin Bedarf an Forschung und Datenerfassung, um eine gut durchdachte Versicherungslösung zu entwickeln.
Due to their unpredictable nature and sweeping impacts make cyber risks, including cyber warfare and state-sponsored cyber-attacks, present a considerable challenge to many areas of our daily lives. In today’s connected world, the threat of cyber risk is omnipresent. Cyber warfare and state-sponsored cyber-attacks are of particular concern, as they are initiated or supported by governments or state actors. Often, the purpose of such attacks is to compromise critical infrastructure, government systems, businesses, or citizens’ privacy. The impacts can be devastating. They range from financial losses for businesses to theft of intellectual property, disruptions of public order and threats to national security.
Located in the Urubamba mountain range, the Chicón glacier is the third highest tropical glacier of this area and the source of water for the Chicón watershed. Moreover, from this watershed four communities obtain water for human consumption and agriculture, which is their main economic activity. In the last years glacier retreat is evident in the area and threatens the livelihoods of the people because it affects the availability of fresh water.
The general objective of this research is to analyse the perception of people living in this watershed to climate change, disaster risk, and ecosystem-based solutions. The specific objectives are to identify natural hazards and climate change effects in the community, to recognise potential ecosystem services suitable for Ecosystem-based Adaptation (EbA) and Ecosystem-based Disaster Risk Reduction (Eco-DRR), and to assess to which climate change effects and disasters the communities are vulnerable based on their own perception. The methodological steps are based on literature review, expert interviews, questionnaires to the community, a workshop and field observations.
The results show that people perceive changes in the climate such as increase in temperature, less precipitation and shifts of the rainy and the dry season. The climate-related disasters that were identified are Glacier Lake Outburst Flood (GLOF), droughts, frosts and hailstorms. However, GLOFs are not frequent in the area and drought is the hazard that people consider will be more frequent. Additionally, pests were identified as biological hazards. Several ecosystems services can be obtained for EbA and Eco-DRR from forests, especially if native trees such as Qiwiña (Polylepis spp.), Chachacoma (Escallonia resinosa) and Aliso (Alnus jorullensis) are used in ecosystem management. Finally, the hypothesis was partially accepted since people in the study area are to some extent aware of climate change impacts, but only partially understand causes and effects. Further, they recognize most of the ecosystem services that forests provide. Therefore they are starting to implement ecosystem-based solutions in the watershed with the support of external institutions.
Based on the idea of sustainable development, the BioTrade principles and criteria (P&C), based on the idea of sustainable development, have been the essential core guiding the implementation of BioTrade activities since their inception by UNCTAD in 2007. However, after identifying that BioTrade of medicinal plants causes negative impacts on the traditional knowledge related to these plants, the P&C were evaluated in light of the most relevant international agreements that contribute to the safeguarding of this knowledge. The result obtained from the assessment showed that the P&C present many gaps that prevent evaluating the real impact of trade on the traditional knowledge of medicinal plants in Indigenous and local communities. Therefore, in the same framework of the current P&C, the main recommendations contained in the international agreements and the suggestions of specialists in the field have been gathered to create a BioTrade standard that contributes to safeguarding traditional medicinal plant knowledge within a commercial context in any BioTrade initiative where the commercialized product is a sacred or native plant with traditional and cultural value for a community.
Die Diplomarbeit entstand in Zusammenarbeit mit der Firma Pferd Rüggeberg. Die Grundlage kam von der Marketingabteilung, die eine Mutlimediadatenbank (MMDB) erstellen wollte. Die Daten der MMDB sollten zur Grundlage eines Produktkataloges auf CD-Rom, Internet und als Druckvorstufe dienen. Der erste Gedanke war die Erstellung einer völlig unabhängigen Datenbank auf der Basis von ORACLE. Da in der Firma jedoch SAP/R3 eingeführt wurde, kam nach einem Gespräch mit der EDV-Abteilung heraus, daß der Produktkatalog auf der Basis von SAP erstellt werden soll. Ziel der Arbeit ist es, mit den Möglichkeiten die durch SAP gegeben sind, einen Produktkatalog im Internet darzustellen. Die Realisation und die Werkzeuge die vorgestellt werden, befinden sich in der Version SAP 3.1 g.
How Digital Strategy and Management Games Can Facilitate the Practice of Dynamic Decision-Making
(2020)
This paper examines how digital strategy and management games that have been initially designed for entertainment can facilitate the practice of dynamic decision-making. Based on a comparative qualitative analysis of 17 games—organized into categories derived from a conceptual model of decision-making design—this article illustrates two ways in which these games may be useful in supporting the learning of dynamic decision-making in educational practice:
(1) Players must take over the role of a decider and solve situations in which players must pursue different conflicting goals by making a continuous series of decisions on a variety of actions and measures; (2) three of the features of the games are considered to structure players’ practice of decision-making and foster processes of learning through the curation of possible decisions, the offering of lucid feedback and the modification of time. This article also highlights the games’ shortcomings, from an educational perspective, as players’ decisions are restricted by the numbers of choices they can make within the game, and certain choices are rewarded more than others. An educational application of the games must, therefore, entail a critical reflection of players’ limited choices inside a necessarily biased system.
In der vorliegenden Arbeit werden zwei Environment-Shader entwickelt, einer für die Software Maya, der zweite für die im WDR Köln genutzte Grafiksoftware 3Designer. Zur Entwicklung wird der Worflow zur Erstellung virtueller Szenenbilder im WDR Köln berücksichtigt. Dafür wird der Workflow vorgestellt und die Umsetzung in den Shader detailliert erläutert. Als Ergebnis liegt für jedes Programm ein Shader vor, der bewirkt, dass die Reflexion einer Umgebung, die als Kugel vorliegt, auf dem jeweiligen Objekt erkennbar ist.
Das vorliegende Praxis Paper ist in zwei Bereiche aufgeteilt. Zunächst wird der Prozess zur Veröffentlichung eines Buchs über Amazon dargestellt, während im zweiten Teil Erkenntnisse über die allgemeinen Grundlagen des erfolgreichen Verkaufs auf Amazon zusammengefasst werden. Es basiert auf der Bachelorarbeit von Herrn Christian Dam-bach, die von Juli 2020 bis Oktober 2020 von Prof. Dr. Monika Engelen betreut wurde.
Nach der Darstellung des Veröffentlichungsprozesses werden im weiteren Verlauf die Möglichkeiten der Suchmaschinenoptimierung auf der Produktseite gezeigt und die Suchmaschinenwerbung über Amazon Marketing Services (AMS) vorgestellt. Neben dem Controlling des Verkaufsverlaufs und des Kampagnenverlaufs, wird zunächst die Einrichtung einer Werbeanzeige erläutert und anschließend die verschiedenen Möglich-keiten der Optimierung dargestellt. Daraus werden dann allgemeine Erfolgsfaktoren für den Verkauf auf Amazon abgeleitet, die, über das Fallbeispiel hinaus, auf jegliche ange-botenen Produkte anwendbar sind.
Das Projekt Management Audit wurde im Rahmen des Studiengangs Informationswirtschaft der Fachhochschule Köln durchgeführt und über zwei Semester lang (SS 2003; WS 2003/2004) von einer Gruppe von Studenten bearbeitet. Das angestrebte Projektziel beinhaltet Recherche, Auswertung der Recherche und eine daraus folgende eigene Konzeption. Des Weiteren sind Konferenzen, die über das Thema Management Audit stattfinden, ein Anreiz gewesen, über diese Thematik im Projektteam zu reden. Außerdem ermöglicht die erstellte Konzeption Interessierten, sich über dieses Thema zu informieren und es werden Vorschläge bzw. Anreize für ein Management Audit Verfahren in der Praxis gegeben.
Diese Arbeit untersucht verschiedene Ansätze, Daten im Google Cloud Firestore zu strukturieren und deren Auswirkungen auf Kosten, Performance sowie Codequalität. Zunächst folgt eine Aufbereitung des aktuellen Stands der Forschung. Darauf folgt die experimentelle Methodik. Hier dient eine prototypische Implementierung der Szenarien als Grundlage. Im Zuge des Experiments werden in unterschiedlichen Disziplinen Daten erhoben und im Anschluss ausgewertet, um empfehlenswerte Lösungen für definierte Anwendungsfälle zu benennen. Am Ende gibt die Arbeit ein kurzes Fazit zu den gewonnenen Erkenntnissen sowie einen Ausblick auf weitere Optimierungspotenziale ab.
Web browsers use HTTP caches to reduce the amount of data to be transferred over the network and allow Web pages to load faster. Content such as scripts, images, and style sheets, which are static most of the time or shared across multiple websites, are stored and loaded locally when recurring requests ask for cached resources. This behaviour can be exploited if the cache is based on a naive implementation. This paper summarises possible attacks on the browser cache and shows through extensive experiments that even modern web browsers still do not provide enough safeguards to protect their users. Moreover, the available built-in as well as addable cache controls offer rather limited functionality in terms of protection and ease of use. Due to the volatile and inhomogeneous APIs for controlling the cache in modern browsers, the development of enhanced user-centric cache controls remains -until further notice- in the hands of browser manufacturers.
In der Informationsgesellschaft zeigt sich das Berufsfeld des Informationswirtes als erfolgversprechende Tätigkeit mit guten bis sehr guten Beschäftigungschancen. Kern der Arbeit sind zwei empirische Untersuchungen zum Beruf und Arbeitsmarkt für Informationswirte in Deutschland. Eine erste Befragung richtet sich an Informationsfachleute, eine zweite Befragung - durchgeführt vom ifo Institut für Wirtschaftsforschung - an Manager der deutschen Industrie. In mittelfristiger Perspektive haben Informationswirte in der deutschen Industrie gute, im Dienstleistungssektor sehr gute Arbeitsplatzchancen. Gefragt ist ein Fachwissen, das sich aus Informationswissenschaft, Dokumentation, Betriebswirtschaftslehre, Informatik sowie aus Fremdsprachenkenntnissen zusammensetzt.
Dieser Bericht stellt die Ergebnisse einer Expertenbefragung zu dem Themenkomplex "Kindeswohl in Suchtfamilien" dar. Es wurden mit Hilfe eines standardisierten Interviewleitfadens 5 Experten aus der Suchtkrankenhilfe, dem Gesundheitswesen sowie der Kinder- und Jugendhilfe hinsichtlich ihrer Erfahrungen und Vorgehensweise mit einer möglichen Kindeswohlgefährdung in suchtbelasteten Familien befragt. Die Ergebnisse zeigen, dass eine mögliche Kindeswohlgefährdung durch die Fachkräfte teilweise nur sehr schwer zu erfassen ist und ein Aus- und Fortbildungsbedarf bei den Mitarbeitern besteht.
Smartphones und die Nutzung von mobilen Anwendungen gewinnen aufgrund der stetig voranschreitenden Digitalisierung weiter an Relevanz. Im April 2022 lag die Zahl der genutzten mobilen Endgeräte bei knapp 6 Milliarden, wobei die Hersteller Apple
und Google einen Marktanteil von knapp 99 % einnehmen. Um als Entwickler eine möglichst große Zielgruppe anzusprechen, ist es daher wichtig, die eigene Anwendung auf möglichst vielen Plattformen zur Verfugung stellen zu können. Die native Entwicklung ist einer der am meist verbreitetste Entwicklungsansatz für mobile Anwendungen. Dort werden plattformspezifische Tools sowie native Programmiersprachen verwendet. Hierbei ergeben sich allerdings diverse Herausforderungen für Entwickler entlang des gesamten Entwicklungsprozesses. Neben der nativen Entwicklung existiert der Ansatz von Cross-Plattform. Hierbei handelt es sich um einen Sammelbegriff für verschiedene Ansätze, welche das Ziel verfolgen eine Anwendung durch die Nutzung einer einheitlichen Codebasis auf mehreren Plattformen zur Verfugung zu stellen. Einer dieser Unteransätze ist
Backend-Driven UI, worin die gesamte Anwendung innerhalb eines strukturierten Datenformats beschrieben und serverseitig verwaltet wird. Der Client kann diese Daten dann dynamisch anfragen und zur Laufzeit in native UI überführen. Das Konzept von Backend-Driven UI wird bereits durch Unternehmen wie Airbnb oder SiriusXM eingesetzt, ist hier allerdings stark auf anwendungsbezogene Prozesse zugeschnitten. Es bedarf daher eines Backend-Driven UI Frameworks, welches es Entwicklern ermöglichen soll, mobile Anwendungen, ohne anwendungsspezifische Einschränkungen plattformübergreifend zu entwickeln. Im Rahmen dieser Arbeit wurde daher zunächst eine plattformunabhängige und erweiterbare Architektur eines solchen Frameworks entwickelt und in Form eines ersten Prototyps auf ihre Umsetzbarkeit geprüft. Insgesamt stellt der Prototyp eine mögliche Umsetzung von Backend-Driven UI dar und ist in der Lage erste Anwendungsszenarien abzudecken. Es konnten dennoch Bereiche ermittelt werden, welche im Zuge zukünftiger Entwicklung ausgebaut werden können. Dazu zählt unter anderem das Umsetzen von serverseitig bestimmter Anwendungslogik sowie der Umgang mit Unterschieden im plattformspezifischen Funktionsumfang.
Anaerobic Digestion of spent grains: Potential use in small-scale Biogas Digesters in Jos, Nigeria
(2014)
In order to ascertain biogas yield potential and applicability of spent grains (SG)1 in small-scale biogas production, laboratory batch fermentation was performed with various masses of dry and wet SG using sewage sludge (SS)2 and digested maize silage (DMs) 3 as inoculums. Different volumes of biogas and CH4 were measured with higher volumes observed for batch fermentation with DMs in com-parison to those produced by SS. Results from the study reveals minimum biogas yield of 118.10 L/kg
VS and maximum yields of 769.46 L/kg VS, which are indicative of the possible use of SG for domestic biogas production in Jos, Nigeria. The study established the fact that the use of both dry and wet SG results in the yield of a useful amount of biogas having 40 - 60 % CH4 content depending on the inoculum and amount of volatile solids present. Using the parameters of dry matter and volatile solids contents analysed for SG and DMs, it was estimated that a reactor volume of 6.47 m3 would be capable of meeting the daily cooking needs of rural households in Jos, Nigeria.
Der vorliegende Bericht ist das Ergebnis einer Projektarbeit von Studierenden am Institut für Informationswissenschaft der Fachhochschule Köln im Studiengang Bibliothekswesen. Im Rahmen dieser Arbeit untersuchten sieben Studierende während des Sommersemesters 2011 die bibliothekarische Auskunft anhand eines zu diesem Zwecke erstellten Kriterienkatalogs. Die sieben Studierenden testeten die Bibliotheken über vier verschiedene Auskunftskanäle (Chat, Persönliche Auskunft, Telefonische Auskunft und Webformular/E-Mail-Auskunft). Zuerst werden der Kriterienkatalog und dessen Anforderungen sowie der Bewertungsbogen für die Tests vorgestellt. Im folgenden Kapitel steht die Erarbeitung der Testfragen, die zur Bewertung des Auskunftsprozesses gestellt wurden, im Fokus. Es wird eine quantitative Übersicht aller Fragen pro Auskunftskanal und Bibliothekstyp gegeben. Anschließend werden die gestellten Testfragen aufgelistet und erläutert. Zudem werden die Erfahrungen des Pretests sowie die Testphase erläutert. Im nächsten Kapitel erfolgt die Auswertung der gesamten Untersuchung. Die Analysen und Ergebnisse werden jeweils durch Torten- oder Säulendiagramme visualisiert. Fazit und Ausblick runden die Ergebnispräsentation ab. Im Anhang befinden sich eine Auflistung der Auskunftstypen und Bibliothekstypen, das zu Grunde liegende Notenschema, die Auswertungsbögen sowie zwei Erfahrungsberichte der Auskunft jeder Studierenden.
Virtuelle Realität ist ein interessantes Gebiet dessen Entwicklung schon seit vielen Jahren vorangetrieben wird. Die neuen Möglichkeiten die sich aufgrund technischer Fortschritte daraus ergeben, sind umwerfend und finden in vielen Bereichen Verwendung. Doch das Potential der VR ist noch viel größer. Dazu passt es auch, das im Laufe der Jahre die Computer immer mehr Einzug in das Leben der Menschen nahmen. Gab es früher noch riesige Geräte, die mit Lochkarten arbeiteten und kaum aufwendige Aufgaben bewältigen konnten, so gibt es heute erheblich schnellere und kleinere Systeme, die zudem auch noch viel leistungsfähiger sind. Von den drastisch gesunkenen Kosten mal ganz abgesehen. Folglich findet auch die breite Öffentlichkeit Zugang zu leistungsfähigen Computersystemen, wodurch bei immer mehr Menschen das Interesse an Virtual Reality geweckt wird. Es ist ein enormer Markt und die Technologie hält immer wieder Einzug in neue Bereiche und ist aus manchen gar nicht mehr hinauszudenken.
Die neusten Fortschritte im Bereich Real Time Rendering ermög-lichen virtuelle Produktionsabläufe in weiten Teilen der Industrie. Diese Vorgehensweise setzt latenzfreies Arbeiten und eine akkurate Erscheinung voraus. Daher empfiehlt sich die Verwendung von HDR-Rendering für fotorealistische Ergebnisse und Tone Mapping für die passende Darstellung.
Gleichwohl gibt es bisher nur wenige Publikationen, die sich mit echtzeitfähigem Tone Mapping beschäftigen. Zudem tendieren Tone Mapping Operatoren dazu, Farberscheinungseffekte zu erzeugen, die zu einer Diskrepanz zwischen dargestelltem und realem Produkt führen.
Deshalb werden in dieser Thesis sieben Tone Mapping Operatoren bewertet, die unterschiedliche Ansätze zur Farbkorrektur beinhalten. Sie werden als Fragment Shader implementiert, um Echtzeitverarbeitung zu realisieren. Zusätzlich wird ihre Performance und die subjektive Akkuratesse der Ergebnisse gemessen.
Im Ergebnis schneidet der FilmicTMO als global arbeitender Sigmoid-Operator am besten ab und wird für die weitere Verwendung empfohlen.
Statistische Analyse ausgewählter sozioökonomischer Daten in Bezug auf Krankenhausaufenthalte
(2018)
In der vorliegenden Arbeit werden Zusammenhänge zwischen bestimmten sozioökonomischen Merkmalen und Krankenhausaufenthalten behandelt. Hierzu wird zunächst anhand von Sekundärliteratur gezeigt, welche gesundheitsbeinflussenden Faktoren in Deutschland relevant sind und was häufige Ursachen für Krankheiten bzw. Krankenhausaufenthalte sind. Im Zuge dessen wird außerdem kurz auf die Tarifmerkmale der privaten Krankenversicherung sowie auf deren Einfluss auf die Prämienkalkulation eingegangen.
Daraufhin werden Daten des Sozio-oekonomischen Panels (SOEP) des Deutschen Instituts für Wirtschaftsforschung untersucht. Dabei werden einerseits einzelne Merkmale und deren Entwicklung im Laufe der Jahre sowie die Verteilung ausgewählter Merkmale auf bestimmte Personengruppen beobachtet. Andererseits werden auch Korrelationen zwischen bestimmten Merkmalen und Hospitalisierungswahrscheinlichkeiten untersucht.
Den Schwerpunkt dieser Arbeit stellen zwei Klassifikationsmethoden, die lineare und die logitische Regressionsanalyse, dar. Zu diesen werden mathematische Grundlagen dargelegt, um sie daraufhin mithilfe des Programms R auf zuvor selektierte Datensätze anzuwenden. Dadurch werden jeweils Hospitalisierungswahrscheinlichkeiten ermittelt. Abschließend wird ein Bezug zur Versicherungswirtschaft hergestellt und unter anderem untersucht, ob solch eine statistische Analyse für einen Versicherer infrage kommt und welche Herausforderungen und Chancen dies mit sich bringt.
Die Kriterien zur Nachhaltigkeit werden unter der Abkürzung ESG zusammengefasst und sind somit nicht nur auf den reinen Klimawandel begrenzt. Grundsätzlich versteht man unter sogenannten ESG-Kriterien per Definition einen Standard nachhaltiger Investments in den Bereichen Environment/ Umwelt, Social/ gesellschaftliches Engagement und Governance/ Unternehmensführung. (vgl. Haberstock et al., 2019)
Sowohl Erst- und Rückversicherungsunternehmen als auch Retrozessionspartner und Investoren beziehen bei ihrer Geschäftsentscheidung zunehmend Nachhaltigkeitsaspekte mit ein. Sie achten unter anderem auf die Nachhaltigkeit der Kapitalanlagen und die entsprechenden Entscheidungen im Underwriting oder bewerten das soziale Engagement eines Vertragspartners. Deshalb kann sich ein überzeugendes Nachhaltigkeitsprofil auch sukzessive zu einem Wettbewerbsvorteil entwickeln.
Das Kerngeschäft der Rückversicherungsbranche wird immer wieder von neuartigen Risiken und globalen Herausforderungen geprägt.
Eine ESG-konforme Geschäftsausrichtung und eine entsprechende Anpassung im Underwriting stellt den Rückversicherungs- und Retrozessionsmarkt vor neue Herausforderungen, da gewisse ESG-Kriterien eine Hürde für fortlaufende Geschäftstätigkeiten im Underwriting darstellen.
Die Umsetzung einer ESG-konformen Geschäftsausrichtung in der Retrozession geht einher mit der Rekalibrierung des Risikoappetits und mit der Aufnahme von einheitlichen zukünftigen ESG-Ratings, die sowohl zu Vorteilen als auch Nachteilen in der Wettbewerbsfähigkeit führen können.
Vergleicht man die ESG-Faktoren zwischen Retrozedenten und Retrozessionären lässt sich feststellen, dass die ESG-Faktoren für Retrozedenten bei der Kapazitätssuche wichtig sind. Hingegen die Faktoren beim Kapazitätsangebot für Retrozessionäre weniger wichtig sind. Diese Erkenntnis wird dadurch begründet, dass sich Retrozedenten bereits im vorgelagerten Underwriting der eingehenden Risiken mit den ESG-Kriterien beschäftigen müssen und dadurch bereits einen besseren Überblick über diese Faktoren haben. Zudem müssen sich die Retrozedenten im Detail mit den möglichen Retrozessionären und deren ESG-Strategie beschäftigen, damit die ESG-konforme Geschäftsausrichtung gewahrt wird.
Eine ESG-konforme Geschäftsausrichtung und die Berücksichtigung der ESG-Risiken führt zwangsläufig zu einer Anpassung der Geschäftsstrategie, der internen Aufsichtsstrukturen, des Risikomanagements und zu einer Änderung des Pricings von Retrozessionsrisiken.
Today, IT infrastructure represents the central nervous system of every company. Many of the activities of our daily lives are handled via the Internet. There is a lack of an adequately sustainable awareness of the cyber risks to which companies are exposed due to advanced digital networking. This is partly due to the fact that the danger of so-called ‘cyber attacks’ is only partially palpable to many, with attacks going unnoticed in some cases. As a result of major incidents, such as WannaCry and Petya in 2017, or Emotet in 2019, awareness of these risks should be keen, and yet vulnerability remains high due to the often insufficient protections against cyber crime.
Die Gefahr „Cyber“ wird in der Erst- und Rückversicherungswirtschaft als Wachstumssparte weltweit angesehen und entwickelt sich seit den letzten fünf Jahren dynamischer als jede andere Gefahr. Dieses wichtige Thema beschäftigt sowohl Erst- und Rückversicherungsunternehmen
in allen Bereichen. Mit Hilfe von Serviceleistungen (zum Beispiel mit Präventionen, risikogerechten Pricing-Modellen und Schadenbearbeitungen) bietet sich für die
Rückversicherungswirtschaft ein weltweiter Wachstumsmarkt. Die Komplexität der Cyber Gefahr und die sich entwickelnde Natur des Risikos bringen vielfältige Herausforderungen bei der Gestaltung von Versicherungsprodukten, beim Underwriting, beim Risikomanagement und bei der Kumulkontrolle mit sich - sowohl für Erst- als auch Rückversicherungsgesellschaften. Eine korrekte Cyber-Risikobewertung ist daher unabdingbar
und der richtige Ansatz muss stets weiterentwickelt werden. Insbesondere die Vielfältigkeit eines Cyber Events ist hierbei zu berücksichtigen. So können für Erst- und Rückversicherungsunternehmen nicht nur Kosten für Datenverluste entstehen, sondern auch Kosten für Rekonstruktionen der IT-Infrastruktur, Kosten für Netzwerk- und Betriebsunterbrechungen, Kosten für das Krisenmanagement, Kosten für das Reputationsrisiko, als auch Kosten für Haftpflichtansprüche Dritter.
The ‘cyber’ threat is regarded as a growth area in the
primary and reinsurance sectors worldwide and for the past five years has been developing more dynamically than any other hazard. This major topic concerns both primary and reinsurance companies in all areas, whether in property, liability, transport or accident insurance. Services (prevention, risk-based pricing models and claims processing, for example) present a global growth market for the reinsurance industry. The complexity of the cyber threat and the evolving nature of the risk involved present a host of challenges for the design of insurance products, for underwriting, for risk management and for cumulative control – for both primary and reinsurance companies. Correct assessment of cyber risk is therefore indispensable, and the right approach must always be developed further. Special attention needs to be given to the variety of forms a cyber event can take. Thus, primary and reinsurance companies can incur not only the costs of data loss, but also the costs of
reconstructing IT infrastructure, the costs of network and business interruptions, costs of crisis management, costs of reputational risk, and the costs of third-party liability claims.
Die Kriterien zur Nachhaltigkeit werden unter der Abkürzung ESG zusammengefasst und sind somit nicht nur auf den reinen Klimawandel begrenzt. Grundsätzlich versteht man unter sogenannten ESG-Kriterien per Definition einen Standard nachhaltiger Investments in den Bereichen Environment/ Umwelt, Social/ gesellschaftliches Engagement und Governance/ Unternehmensführung. (vgl. Haberstock et al., 2019)
Sowohl Erst- und Rückversicherungsunternehmen als auch Retrozessionspartner und Investoren beziehen bei ihrer Geschäftsentscheidung zunehmend Nachhaltigkeitsaspekte mit ein. Sie achten unter anderem auf die Nachhaltigkeit der Kapitalanlagen und die entsprechenden Entscheidungen im Underwriting oder bewerten das soziale Engagement eines Vertragspartners. Deshalb kann sich ein überzeugendes Nachhaltigkeitsprofil auch sukzessive zu einem Wettbewerbsvorteil entwickeln.
Das Kerngeschäft der Rückversicherungsbranche wird immer wieder von neuartigen Risiken und globalen Herausforderungen geprägt.
Eine ESG-konforme Geschäftsausrichtung und eine entsprechende Anpassung im Underwriting stellt den Rückversicherungs- und Retrozessionsmarkt vor neue Herausforderungen, da gewisse ESG-Kriterien eine Hürde für fortlaufende Geschäftstätigkeiten im Underwriting darstellen.
Die Umsetzung einer ESG-konformen Geschäftsausrichtung in der Retrozession geht einher mit der Rekalibrierung des Risikoappetits und mit der Aufnahme von einheitlichen zukünftigen ESG-Ratings, die sowohl zu Vorteilen als auch Nachteilen in der Wettbewerbsfähigkeit führen können.
Vergleicht man die ESG-Faktoren zwischen Retrozedenten und Retrozessionären lässt sich feststellen, dass die ESG-Faktoren für Retrozedenten bei der Kapazitätssuche wichtig sind. Hingegen die Faktoren beim Kapazitätsangebot für Retrozessionäre weniger wichtig sind. Diese Erkenntnis wird dadurch begründet, dass sich Retrozedenten bereits im vorgelagerten Underwriting der eingehenden Risiken mit den ESG-Kriterien beschäftigen müssen und dadurch bereits einen besseren Überblick über diese Faktoren haben. Zudem müssen sich die Retrozedenten im Detail mit den möglichen Retrozessionären und deren ESG-Strategie beschäftigen, damit die ESG-konforme Geschäftsausrichtung gewahrt wird.
Eine ESG-konforme Geschäftsausrichtung und die Berücksichtigung der ESG-Risiken führt zwangsläufig zu einer Anpassung der Geschäftsstrategie, der internen Aufsichtsstrukturen, des Risikomanagements und zu einer Änderung des Pricings von Retrozessionsrisiken.
Die Forschungsarbeit untersucht den sich verhärtenden Rückversicherungsmarkt und die Relevanz von Captives für Industrieunternehmen. Angesichts von Marktveränderungen wie steigender Inflation, Währungsschwankungen und höheren Schadensbelastungen überdenken Unternehmen ihre Risikomanagementansätze. Captives, insbesondere für mittelständische Unternehmen, gewinnen an Bedeutung. Sie bieten direkten Zugang zum Rückversicherungsmarkt, Unabhängigkeit und flexible Gestaltungsmöglichkeiten. Trotz Vorteilen wie optimierten Deckungsstrukturen und Umgehung von Marktveränderungen existieren Herausforderungen, darunter Kapitalanforderungen und Betriebskosten. Der Trend zu neuen Captives im harten Rückversicherungsmarkt ist nicht eindeutig, aber sie bleiben eine innovative Lösung für das betriebliche Risikomanagement. Traditionelle Rückversicherer bleiben entscheidend für die Branchenstabilität.
Die Komplexität der Cybergefahr und die sich entwickelnde Natur des Risikos bringen vielfältige Herausforderungen bei der Gestaltung von Versicherungs-produkten, beim Underwriting, beim Risikomanagement und bei der Kumul-kontrolle mit sich - sowohl für Erst- als auch Rückversicherungsgesellschaften. Eine korrekte Cyberrisikobewertung ist daher unabdingbar und der richtige Ansatz muss stets weiterentwickelt werden. Insbesondere die Vielfältigkeit eines Cyberevents ist hierbei zu berücksichtigen.
In der Cyberversicherung liefert die Vergangenheit keine zuverlässigen Indizien für die Wahrscheinlichkeit eines Schadens; Risiken müssen mit aufwändigen Modellrechnungen simuliert werden. Für die Bewertung von Cyberrisiken könnte die künstliche Intelligenz (KI) von Vorteil sein, um Muster und Wahrscheinlichkeiten im Bereich des Risikotransfers einfacher und effizienter zu analysieren. Einen alternativen Lösungsansatz könnten parametrische Rückversicherungslösungen als Ergänzung zur klassischen Versicherung liefern. So kann eine parametrische Cyberdeckung mit einem definierten Trigger (z.B. mit Hilfe der DSGVO als Trigger) als Auslöser für Schadenzahlungen angeboten werden.
Für eine ausreichende Versicherbarkeit von kleinen und mittelständischen Unternehmen, als auch für größere Industrielösungen könnte eine Risk Pooling Facility geschaffen werden, in welcher sich der traditionelle Rückversiche-rungsmarkt zusammen mit den Insurance Linked Securities Markt die Schadenbelastung teilen. Durch Unterstützung der künstlichen Intelligenz und durch parametrische Trigger (z.B. durch die DSGVO) könnten Schadenverläufe effizienter und zielgerichteter erfolgen.
Durch parametrische Cyberdeckungen könnten Transparenzprobleme bei der Schadenabwicklung verhindert und aufwendige Prüfungen der Rückversicherer reduziert werden. Zudem könnte mit Hilfe einer möglichen KI-Strategie die Bewertungen von Cyberrisiken vereinfacht und effizienter gestaltet werden. Parametrische Cyberlösungen können auch für alternatives Kapital interessant sein, denn auch im NatCat-Bereich sind Vehikel mit solchen Trigger-Lösungen verbreitet.
Zivile unbemannte Luftfahrtsysteme in der Akutphase internationaler humanitärer Hilfseinsätze
(2019)
Diese Arbeit konstruiert Einsatzbereiche ziviler unbemannter Luftfahrtsysteme in humanitären Hilfseinsätzen unmittelbar nach einer Katastrophe. Die Auswertung der Schnittmenge der technischen Fähigkeitsanalyse mit der – unter Verwendung von Experteninterviews durchgeführten – operativen Bedarfsanalyse des humanitären Sektors stellt die Basis für die Konstruktion der neun Anwendungsbereiche dar. Abschließend werden diese vor einem technischen, rechtlichen sowie ethischen Hintergrund diskutiert und bewertet.
Die Kraftwerksunglücke in Fukushima und Tschernobyl gelten wohl gemeinhin als Inbegriff für die Allgegenwärtigkeit der Gefahr eines kerntechnischen Unfalls mit schwerwiegenden Folgen für Mensch und Umwelt sowie einem tiefen Eingriff in die Wirtschaft und das öffentliche Leben. Kernschmelzen können die unterschiedlichsten Ursachen haben. Plötzlich finden physikalische Prozesse statt, die nicht mehr verhindert, sondern allerhöchstens herausgezögert werden können – die Arbeit der Behörden beginnt. Doch was wäre, wenn die Abstimmung zwischen den Entscheidungsträgern zu lange dauert, wenn die Katastrophenschutzpläne lückenhaft sind, eine rechtzeitige Bevölkerungswarnung ausbleibt, die Verkehrsträger mit der Aufnahme von Menschenmassen völlig überfordert sind oder sich die Aufnahmegebiete im Bereich der radioaktiven Wolke befinden?
Die vorliegende Arbeit befasst sich mit eben diesen Themen und zeigt Problematiken im Evakuierungsablauf auf. Im Verlauf der Arbeit wird anhand des Standes der Wissenschaft und Technik sowie Referenzereignissen und zwei Fallbeispielen ein Evakuierungskonzept entwickelt, das neue Denkansätze in bestehende Konzepte einarbeitet. Die genaue Planung und Konzeptionierung von Evakuierungs- und Notfallmaßnahmen stehen daher unter Betrachtung der Unzulänglichkeiten und Defizite beim Krisenmanagement im Mittelpunkt dieser Arbeit. Unter Berücksichtigung der Empfehlungen der Strahlenschutzkommission, der AG Fukushima, des Bundestages sowie des Bundesamtes für Strahlenschutz werden Evakuierungsrouten entwickelt und die Verkehrsträger Straße, Schiene, Schifffahrt und Luftverkehr auf deren Tauglichkeit und Kapazität geprüft. Zudem wird erläutert, wie eine Zusammenarbeit zwischen den Entscheidungsträgern des Landes und der Katastrophenschutzbehörden in Form eines weisungsbefugten bundeseinheitlichen Führungsstabes gestaltet werden kann.
Nicht zuletzt gilt es, den Weg für ein zukünftig funktionierendes Krisenmanagement im Fall eines kerntechnischen Unfalls zu ebnen, eine fundierte internationale und grenzüberschreitende Planungsgrundlage zu bieten und notwendige Maßnahmen der Behörden und Ministerien für eine effektive Gefahrenabwehr und einen funktionsfähigen Evakuierungsablauf aufzuzeigen.
Die vorliegende Diplomarbeit behandelt die Umsetzung der Datenbankgestützten Web-Applikation IMMOMENT, mit dem Ziel primär anhand der Softwaretechnik aufzuzeigen, in welchen Schritten IMMOMENT nach Anfertigung des Pflichtenheftes umgesetzt wurde. IMMOMENT wurde von der Firma IMMO-DATA AG (Bochum) für die Firma IMMO-CHECK GmbH (Bochum) entwickelt. Ziel war es Sachbearbeitern (z.B. einer Bank) die Möglichkeit zu verschaffen, über ein Immobilien-Objekt schnell und umfassend Informationen in Text und Bild zu bekommen.
Hydroxybenzene, commonly known as phenol, is one of the most important organic commodity chemicals. To produce phenol, the cumene process is the most used process worldwide. A crucial step in this process is the Hock rearrangement, which has a major impact on the overall cumene consumption rate and determines the safety level of the process. The most used catalyst for the cleavage of cumene hydroperoxide (CHP) is sulfuric acid. Besides its strong corrosive property, which increases plant investment costs, it also requires neutralization after the decomposition step to prevent side reactions. In this study, we show that high-temperature-treated Linde Type X (LTX) zeolites exhibit a high activity for the peroxide cleavage step. In addition, the structure–activity relationship responsible for this good performance in the reaction system of the HOCK rearrangement was investigated. XRPD analyses revealed the formation of a new phase after temperature treatment above 900 °C. The Si/Al ratio determined by EDX suggested the formation of extra-framework aluminum, which was confirmed by solid-state NMR analysis. The newly formed extra-framework aluminum was found to be responsible for the high catalytic activity. BET analyses showed that the surface area drops at higher calcination temperatures. This leads to a lower catalytic activity for most known reactions. However, for this study, no decrease in activity has been observed. The newfound material shows extraordinarily high activity as a catalyst in the HOCK cleavage and has the potential to be a heterogeneous alternative to sulfuric acid for this reaction.
The oxidation of cumene and following cleavage of cumene hydroperoxide (CHP) with sulfuric acid (Hock rearrangement) is still, by far, the dominant synthetic route to produce phenol. In 2020, the global phenol market reached a value of 23.3 billion US$ with a projected compound annual growth rate of 3.4% for 2020–2025. From ecological and economical viewpoints, the key step of this process is the cleavage of CHP. One sought-after way to likewise reduce energy consumption and waste production of the process is to substitute sulfuric acid with heterogeneous catalysts. Different types of zeolites, silicon-based clays, heteropoly acids, and ion exchange resins have been investigated and tested in various studies. For every type of these solid acid catalysts, several materials were found that show high yield and selectivity to phenol. In this mini-review, first a brief introduction and overview on the Hock process is given. Next, the mechanism, kinetics, and safety aspects are summarized and discussed. Following, the different types of heterogeneous catalysts and their performance as catalyst in the Hock process are illustrated. Finally, the different approaches to substitute sulfuric acid in the synthetic route to produce phenol are briefly concluded and a short outlook is given.
Konzeption einer flexiblen Systemarchitektur zur dynamischen Konfiguration hybrider Lernräume
(2021)
In dieser Arbeit wird eine dynamische Systemarchitektur für die Schaffung hybrider Ökosysteme konzipiert, welche eine flexible und kontextgerechte Konfiguration hybrider Lernräume ermöglichen. Aufgrund der variierenden Definitionen hybrider Lehre und Lernräume sowie der schwachen Abgrenzung zu verwandten Begriffen findet hierfür zunächst eine Konkretisierung eigener Arbeitsdefinitionen statt. Aufbauend auf diesen Begriffsbestimmungen und ausführlichen Literaturrecherchen, werden anschließend sich interdisziplinär überschneidende Kernelemente hybrider Lehre und Lernräume identifiziert sowie in einem Übersichtsmodell zusammengefasst. Durch die Literaturrecherche ersichtliche Charakteristiken des hybriden Paradigmas werden ebenso in
Beziehung gesetzt und zusammenfassend aufgeführt. Auf Basis dieser Übersichten und unter Berücksichtigung weiterer Forschungsergebnisse wird nachfolgend ein Vorgehensmodell kreiert, welches kontextgerechte Designs hybrider Systeme strukturiert ermöglicht. Neben didaktischen, physischen und digitalen Komponenten werden dafür diverse Typen von Lernaktivitäten identifiziert, welche als Ausgangspunkt eine effiziente und praxisorientierte Planung ermöglichen.
Alle erstellten Modelle bilden abschließend die Grundlage der konzipierten Systemarchitektur, in welcher die hybriden Kernkonzepte aus einer technischen Perspektive beleuchtet werden. Das hierdurch repräsentierte Microservice-Websystem beinhaltet neben notwendigen Basis-Services vor allem einen dynamischen Plugin-Mechanismus, welcher die flexible Integration neuer Bestandteile ermöglicht. So kann der Funktionsumfang auf sich wandelnde Anforderungen der Nutzer angepasst werden und die Anwendung mit der Zeit zu einem umfassenden Ökosystem heranwachsen.
In dieser Diplomarbeit wird die Lösung eines Standardproblems aus dem betrieblichen Umfeld behandelt. Die Aufgabenstellung ist die automatisierte Bereitstellung von Daten, die für die Produktion eines medienunabhängigen Produktkataloges notwendig sind. Ein zentraler Datenbestand soll als Quelle für Printkataloge, CD-ROM- und Internet-Präsentationen dienen.
Abstract
(−)‐Menthol is one of the most popular aroma compounds worldwide. While in the past mostly extracted from mint plants, today (−)‐menthol synthesis from other raw materials is becoming more relevant. Common starting materials for menthol synthesis are m‐cresol, citral and myrcene, but also substrates like menthone, mono‐ and bicyclic terpenes and terpenoids have been used for this purpose in the past. As for many applications (−)‐menthol of high purity is required, asymmetric syntheses and enantiomeric resolution of obtained raw products are applied for menthol production. This review gives an overview on the most important synthetic menthol production processes of the companies Symrise, Takasago and BASF and relevant literature in the field of menthol synthesis with a focus on the last 20 years.
Observational studies and clinical trials have become increasingly important over recent years and play an essential role in advancing medical knowledge. In today’s world of clinical research, it is not possible to imagine trials without the founda-tion of a well-established it-infrastructure. Electronic capture and usage of data is pervasive.
In practice, medical progress requires the ability to integrate data from different systems. An essential factor in enabling different actors, such as institutions and hospitals, to have their systems exchange structured data and make use of the information is the interoperability of the data and systems.
FHIR (Fast Healthcare Interoperable Resources) is a free and easily customizable HL7 platform standard, based on 30 years of experience of HL7. It is focused on providing health-related information and defines a set of capabilities used in the health care process.
This thesis will provide a conceptual approach for working with FHIR, as well as concrete approaches for working with FHIR profiles and for customizing the standard for particular use cases. It will be carried out in cooperation with the Medical Systems R&D, which is a service provider within the University Hospital of Cologne.
The guiding request approach will focus on the evaluation of requirements for clini-cal trials and how clinical research protocols can be represented in an interoperable and machine-parsable format using FHIR.
The quantification of greenhouse gas emissions from aquatic ecosystems requires knowledge about the spatial and temporal dynamics of free gas in sediments. Freezing the sediment in situ offers a promising method for obtaining gas‐bearing sediment samples, unaffected by changes in hydrostatic pressure and sample temperature during core withdrawal and subsequent analysis. This article presents a novel freeze coring technique to preserve the in situ stratigraphy and gas bubble characteristics. Nondestructive X‐ray computed tomography (CT) scans were used to identify and characterize coring disturbances of gravity and freeze cores associated with gassy sediment, as well as the effect of the freezing process on the gas bubble characteristics. Real‐time X‐ray CT scans were conducted to visualize the progression of the freezing process. Additional experiments were conducted to determine the freezing rate to assess the probability of sediment particle/bubble migration, and gas bubble nucleation at the phase transition of pore water to ice. The performance of the freeze coring technique was evaluated under field conditions in Olsberg and Urft Reservoir (Germany). The results demonstrate the capability of the freeze coring technique for the preservation of gas‐bearing sediments and the analysis of gas bubble distribution pattern in both reservoirs. Nevertheless, the obtained cores showed that nearly all gravity and freeze cores show some degree of coring disturbances.
This bachelor thesis addresses the issue of how school resilience can be measured and assessed quantitatively. Schools as social infrastructures have a significant value for society. Yet, on a global scale, they, and therefore the respective community as well, are continuously endangered by a variety of threats such as natural disasters or violence and mental abuse affecting students, parents and school staff. However, these threats differ greatly depending on climatic and geographical conditions as well as on the socio-cultural context of the corresponding community. To strengthen school resilience against potential threats and to ensure education continuity despite the occurrence of these disruptions, a methodology is developed to measure and assess school resilience in conjunction with its specific circumstances. Initially, qualitative and quantitative (composite) indicators are identified and categorised with the help of a Systematic Literature Review and Mayring's Qualitative Content Analysis. These are subsequently developed into a Comprehensive Index for School Resilience (CISR). Building on this, a pre-existing assessment methodology, which uses Likert-Scales arranged in questionnaires to assign quantitative values to the composite indicators, is adapted to operationalise the CISR and by an exemplary application at Europaschule Troisdorf, the methodology is adapted to the socio-cultural conditions in Germany using an expert’s operational and contextual knowledge. The results obtained show that the methodologies and techniques described in current international research can, after an appropriate adaptation, successfully be applied to schools in Germany as well. Nevertheless, by identifying research limitations and errors as well as potential improvements, it is evident that further research and development is needed to provide stakeholders with a decision-making tool to strengthen the resilience of schools in the future, such as an exhaustive supplement to the CISR or the integration of more precise quantification methodologies and techniques.
In dieser Diplomarbeit werden die Chancen und Risiken der Creative Commons Lizen-zen (CCL) für das Management von Non-Governmental Organisations (NGOs) aufge-zeigt und untersucht. Das Konzept der Creative Commons Lizenzen wird zunächst in das Spannungsfeld zwischen „geistigem Eigentum“ und „digitaler Allmende“ eingeordnet und ausführlich vorgestellt. In der Betrachtung des NGO-Managements werden die Sta-keholder der Organisationen spezifiziert. Die theoretischen Erkenntnisse der Arbeit ge-ben zusammen mit den Ergebnissen einer Befragung von vier NGO-Verantwortlichen Hinweise, wie eine NGO die Chancen der CCL nutzen und deren Risiken vermeiden kann. Die vorliegende Arbeit liefert neun Hypothesen über dieses weitgehend uner-forschte Untersuchungsgebiet, die sich aus Theorie und Empirie ableiten und hiermit als vorläufig verifiziert betrachtet werden. Zusammenfassend gelangt die Untersuchung zu dem Ergebnis, dass die Chancen der CCL gegenüber den Risiken überwiegen. Sie stellt aber auch fest, dass eine abschließende Bewertung dieser Faktoren nie losgelöst vom Dialog zwischen der NGO und ihren Stakeholdern erfolgen darf. Deren individuelle Ein-stellung zu einer freien Lizenzierung digitaler Informationsgüter muss die NGO bei der Einführung der CCL stets berücksichtigen. Ferner soll diese Arbeit NGOs und informati-onswissenschaftlich Interessierten Anregungen für den erfolgreichen Umgang mit Infor-mationsgütern und den Einsatz freier Lizenzen geben.
The electricity network is undergoing a change due to reducing costs for renewable energy sources. Subsidy programs for renewable energy sources are changing and the funding available is being reduced. This will have an impact on anaerobic digestion which in some cases may struggle financially. Overfeeding is one of the most common mechanisms of inhibition in the process, and by shifting to intermittent feeding for on-demand production, this change will provide more information about the digestion process and could be used to detect the beginning of inhibition due to overfeeding. This paper discusses the shift towards intermittent production and how this change can be used to monitor the anaerobic digestion process.
Bei der Erfüllung zentraler kommunaler Aufgaben hat die Europäische Union zunehmend an politikfeldübergreifender Bedeutung gewonnen. Die Herausforderung der Kommunen besteht darin, das Prinzip der kommunalen Selbstverwaltung in der Europäischen Union durch dauerhafte Anstrengungen auf der nationalen und europäischen Ebene zu festigen und auszubauen. Der Vertrag von Lissabon hat indirekte Möglichkeiten der Einflussnahme geschaffen. Welche politischen und administrativen Strategien haben Kommunen wie die Stadt Köln bisher entwickelt, um in den Governancestrukturen des EU-Mehrebenenmodells aktiv mitzuwirken? Inwieweit führt der Vertrag von Lissabon zu Anpassungen, damit Kommunen für dieses veränderte System besser ausgestattet sind?
In einer Netzwerkanalyse wird exemplarisch eine Landkarte der Netzwerkpfade zwischen der Stadt Köln und der Europäischen Union nachgezeichnet. Daraus werden Netzwerkstrategien für Kommunen im EU-Mehrebenensystem abgeleitet.
In den Jahren 2015 und 2016 ist im Zuge des starken Anstieges der Flüchtlingszahlen eine Debatte über digitale Medien im Zusammenhang mit Menschen auf und nach der Flucht entstanden. Hinweise darauf sind der „Digitale Flüchtlingsgipfel“, der im Jahr 2016 vom Bundesinnenministerium veranstaltet wurde, oder die Studie „Internet ist gleich mit Essen“ von Nadia Kutscher und Lisa-Marie Kreß.
Innerhalb der vorliegenden explorativen Forschungsarbeit werden aus einer sozialarbeitswissenschaftlichen Perspektive Apps als digitale Medien, die beim Integrationsprozess
von geflüchteten Menschen in Deutschland unterstützen sollen, auf einer inhaltlichen und technisch-funktionalen Ebene analysiert. Mit einer eigens entwickelten Erhebungsmethode werden die Inhalte der Apps mithilfe eines Analyserasters ausgewertet. Als Grundlage für
die Analyse dient das soziologische Modell "Integration als Sozialintegration“ von Friedrich Heckmann. Die fünf Apps „Ankommen“, „Integreat“, „Moin Refugee“, „Welcome App Germany“ und „Welcome to NRW“ wurden aufgrund der vertretenen geografischen Bereiche sowie des Spektrums der Initiatoren aus staatlichen Institutionen, „Willkommensinitiativen“
und Institutionen der Sozialen Arbeit ausgewählt.
Die Forschungsarbeit richtet ihren Blick auf die Inhalte der Apps und deren Gewichtung in Bezug auf die Integrationsdimensionen. Daraus werden Hypothesen entwickelt, wie durch
Inhalte der Apps Mechanismen entstehen, die die Integrationsprozesse zwischen Lenkung und Selbstermächtigung beeinflussen. Dabei wird kritisch reflektiert, inwieweit die Themen
der konstruierten und heterogenen Zielgruppe der geflüchteten Menschen aufgegriffen werden. Aufbauend auf den Untersuchungsergebnissen werden Schlussfolgerungen gezogen, wie Apps zu zielgruppenübergreifenden, digitalen Informationsangeboten für Leistungen und Träger der Sozialen Arbeit weiterentwickelt werden können.
This thesis focuses on the identification of influential users, also known as key opinion leaders, within the social network Instagram. Instagram is a very popular platform to share images with the option to categorise the images by certain tags. It is possible to collect public data from Instagram via the open API of the platform.
This thesis presents a concept to create an automated crawler for this API and col- lect data into a database in order to apply algorithms from graph theory to identify opinion leaders afterwards. The sample topic for this thesis has been veganfood and all associated posts from Instagram have been crawled.
After the user data has been crawled a graph has been created to do further research with common social network analysis tools. The graph contained a total set of more than 26,000 nodes.
To identify opinion leaders from this graph, five di↵erent metrics have been applied, in particular PageRank, Betweenness centrality, Closeness Centrality, Degree and Eigen- vector centrality. After applying the di↵erent algorithms the results have been eval- uated and additionally an marketing expert with focus on social media analysed the results.
This project was able to figured out that it is possible to find opinion leaders by using the PageRank algorithm and that those opinion leaders have a very good value of en- gagement. This indicates that they show a high interaction with other users on their posts. In conclusion the additional research options are discussed to provide a future outlook.
Rauschreduktion in Niedrigdosis-Röntgenbildern, wie sie beispielsweise in der intraoperativen Fluoroskopie erzeugt werden, stellt für die Bildverarbeitung der akquirierten Aufnahmen einen entscheidenden Schlüsselfaktor dar. Für eine visuelle Qualitätsverbesserung wird in dieser Arbeit eine auf einem multiskalaren Ansatz beruhende Rauschreduktion vorgestellt, welche auf der zur nichtlinearen, anisotropen Diffusion verwandten bilateralen Filterung basiert. Hierbei werden insbesondere die bestehenden Verfahren auf die Eigenschaften des im Röntgenbild vorhandenen Rauschens angepasst. Die Leistungsfähigkeit der entwickelten Filterung wird an klinischen Fluoroskopiesequenzen demonstriert.
In dieser Arbeit wird die Segmentierung von Gehirngewebe aus magnet-resonanz-tomographischen Kopfaufnahmen von Ratten mittels Level-Set-Methoden vorgestellt. Dieses so genannte Skull-Stripping stellt einen wichtigen Vorverarbeitungsschritt für quantitative, morphometrische Untersuchungen oder aber Visualisierungsaufgaben dar. Ein kontrastbasierter Segmentierungsalgorithmus wird von einem Pseudo-3DAnsatz in einen echt-dreidimensionalen Segmentierer überführt. Die durch die Level-Set-Funktion beschriebene Kontur wird mittels einer partiellen Differentialgleichung iterativ deformiert und den Grenzen des zu segmentierenden Objektes angenähert. Die Geschwindigkeitsfunktion, welche lokale Kontraste auf der Konturnormalen auswertet und so die Oberflächenentwicklung bestimmt, wird untersucht und das lokale Signal adaptiert. Hierzu wird eine Glättung des Signals eingeführt, die sowohl in Richtung der Konturnormalen als auch parallel dazu wirkt. Zusätzlich wird eine varianzbasierte Kontrastverstärkung des lokalen Signals entwickelt. Daraus resultieren insbesondere in Bildbereichen mit geringem Signal-zu-Rausch-Verhältnis erheblich robustere und exaktere Segmentierungsergebnisse. Diese Leistungsfähigkeit wird an vorliegenden Rattenhirn-MRTs demonstriert.
Der Ausbruch der COVID-19-Pandemie und die zur Bekämpfung des Virus erlassenen Coronaschutzverordnungen verschärfen die Lebenslagen geflüchteter und flüchtender Menschen und erschweren die Arbeit von sozialen Bewegungsakteuren und Organisationen der Sozialen Arbeit, die auf Missstände im Kontext von Flucht und Asyl aufmerksam machen und sich für deren Verbesserung einsetzen. In dieser Arbeit wurde daher der Frage nachgegangen, wie sich zivilgesellschaftliche und sozialarbeiterische Organisationen seit der Pandemie für geflüchtete Menschen und Menschen auf der Flucht einsetzen. Mithilfe von sieben leitfadengestützten Interviews mit Personen aus Lokalgruppen von Seenotrettungsorganisationen, Willkommensinitiativen und Organisationen der Sozialen Arbeit wurde rekonstruiert, wie die befragten Akteure ihre Situationen erleben und auf welche Weise sie sich zu diesen wahrgenommenen Gegebenheiten verhalten und auf sie einwirken. Dabei wurden sowohl fallübergreifende Kategorien identifiziert, wie innerorganisationale Gestaltungsprozesse, die Bedeutung von Vernetzung und Engagementbereitschaft sowie die Wahrnehmung von gesellschaftlichem Klima und politischen bzw. medialen Entwicklungen, als auch fallspezifische Bedingungen und Bewältigungsmuster der jeweiligen Organisationen herausgearbeitet. Ein besonderes Augenmerk wurde schließlich auf das Verhältnis zwischen Fachkräften der Sozialen Arbeit und Aktivist:innen bzw. Engagierten gelegt, da die Beziehung von sozialen Bewegungen und der Sozialen Arbeit insgesamt bisher empirisch unterbelichtet ist
This study explores the potential of robust, strongly basic type I ion exchange resins—specifically, Amberlyst® A26 OH and Lewatit® K 6465—as catalysts for the aldol condensation of citral and acetone, yielding pseudoionone. Emphasis is placed on their long-term stability and commendable performance in continuous operational settings. The aldol reaction, which traditionally is carried out using aqueous sodium hydroxide as the catalyst, holds the potential for enhanced sustainability and reduced waste production through the use of basic ion exchange resins in heterogeneous catalysis. Density Functional Theory (DFT) calculations are employed to investigate catalyst deactivation mechanisms. The result of these calculations indicates that the active sites of Amberlyst® A26 OH are cleaved more easily than the active sites of Lewatit® K 6465. However, the experimental data show a gradual decline in catalytic activity for both resins. Batch experiments reveal Amberlyst® A26 OH’s active sites diminishing, while Lewatit® K 6465 maintains relative consistency. This points to distinct deactivation processes for each catalyst. The constant count of basic sites in Lewatit® K 6465 during the reaction suggests additional factors due to its unique polymer structure. This intriguing observation also highlights an exceptional temperature stability for Lewatit® K 6465 compared to Amberlyst® A26 OH, effectively surmounting one of the prominent challenges associated with the utilization of ion exchange resins in catalytic applications.
Ziel dieser Arbeit ist es, herauszufinden, ob der Parameter der fraktalen Dimension in Zukunft nützlich sein könnte für die computergestützte Auswertung von Mammographien. Dies gilt insbesondere für die Detektion architektonischer Störungen im Brustparenchym, die zuweilen durch den Radiologen schwer ausfindig zu machen sind. Die fraktale Dimension ist deshalb als Parameter so interessant, weil sie auf der Eigenschaft der Selbstähnlichkeit beruht. Eine Selbstähnlichkeit in der Struktur könnte auch das Brustgewebe haben, da Gewebewachstum ein fortlaufender Prozess ist, bei dem sich wiederholend die gleichen Formen herausbilden. Kommt es hier zu pathologischen Veränderungen, so ist dieser Ablauf unterbrochen und die Strukturen verändern sich.
Das vorliegende Paper fasst die Erkenntnisse zum Einsatz von Video Content Marketing auf YouTube für Unternehmen zusammen.
Es basiert auf der Bachelorarbeit von Frau Ilknur Demiröz, die von August 2021 bis November 2021 von Prof. Dr. Monika Engelen und Prof. Dr. Torsten Klein betreut wurde. Neben theoreti-schen Betrachtungen und der Einordnung von YouTube in den Mediamix betrachtet die Bachelorarbeit strukturiert die Einsatzmöglichkeiten und mögliche Zielsetzungen von Video Content Marketing. Anhand einer qualitativen Inhaltsanalyse von Agenturempfehlungen konnten übergreifende Handlungsempfehlungen identifiziert werden.
Dieses Paper dient als Einstieg in das Grundverständnis von Video Content Marketing. Es zeigt die erste Schritte in YouTube für Unternehmen auf und leitet einige relevante Handlungsempfehlungen für Unternehmen ab.
Das vorliegende Paper fasst Ansätze, Modelle und moderne Möglichkeiten der Erfassung der Customer Decision Journey – des Weges eines Kunden zum und mit einem Unternehmen – zusammen.
Es basiert auf der Bachelorarbeit von Herr Habibullah Massoudy, der von Oktober 2020 bis Januar 2021 von Prof. Dr. Monika Engelen und Prof. Dr. Torsten Klein betreut wurde. Neben einer Recherche der grundlegenden Theorie wurden auch Herausforderungen und die Möglichkeiten des Trackings des Journeys betrachtet.
Dieses Paper soll als grundlegender Einstieg in das Thema Customer Decision Journey dienen.
Das vorliegende Praxis Paper stellt die Erkenntnisse aus der Analyse der Social Media Präsenz von deutschen B2B Unternehmen dar.
Die Grundlage liefert das Praxisprojekt von Simon Schiffbauer, welches von April bis Juni 2020 von Prof. Dr. Monika Engelen betreut wurde. In diesem wurden mittels einer Datensammlung die Social Media Nutzung sowie die Aktivitäten der 75 größten deutschen B2B Unternehmen analysiert.
Ziel des Praxis Papers ist es, einen Einblick in die Nutzung und Einbindung der sozialen Medien von B2B Unternehmen zu geben. Der Fokus liegt dabei besonders auf den professionellen Social Media Kanälen Xing, LinkedIn und Kununu und der dortigen Darstellung und Vermarktung der untersuchten Unternehmen. Das Praxis Paper soll auch als Orientierung und Leitfaden zur Gestaltung, Vermark-tung und Nutzung von Social Media für B2B Unternehmen dienen.
The demand for explainable and transparent models increases with the continued success of reinforcement learning. In this article, we explore the potential of generating shallow decision trees (DTs) as simple and transparent surrogate models for opaque deep reinforcement learning (DRL) agents. We investigate three algorithms for generating training data for axis-parallel and oblique DTs with the help of DRL agents (“oracles”) and evaluate these methods on classic control problems from OpenAI Gym. The results show that one of our newly developed algorithms, the iterative training, outperforms traditional sampling algorithms, resulting in well-performing DTs that often even surpass the oracle from which they were trained. Even higher dimensional problems can be solved with surprisingly shallow DTs. We discuss the advantages and disadvantages of different sampling methods and insights into the decision-making process made possible by the transparent nature of DTs. Our work contributes to the development of not only powerful but also explainable RL agents and highlights the potential of DTs as a simple and effective alternative to complex DRL models.
Electroplating generates high volumes of rinse water that is contaminated with heavy metals. This study presents an approach for direct metal recovery and recycling from simulated rinse water, made up of an electroplating electrolyte used in industry, using reverse osmosis (RO). To simulate the real industrial application, the process was examined at various permeate fluxes, ranging from 3.75 to 30 L·m−2·h−1 and hydraulic pressures up to 80 bar. Although permeance decreased significantly with increasing water recovery, rejections of up to 93.8% for boric acid, >99.9% for chromium and 99.6% for sulfate were observed. The final RO retentate contained 8.40 g/L chromium and was directly used in Hull cell electroplating tests. It was possible to deposit cold-hued chromium layers under a wide range of relevant current densities, demonstrating the reusability of the concentrate of the rinsing water obtained by RO.
Die Grundlage für diese Arbeit ist das opensource Roboterkettenfahrzeug SRV1 der Firma Surveyor [www-surveyor]. Im Auslieferungszustand ist es möglich, das Fahrzeug über ein Steuerungsprogramm fernzusteuern. Dies entspricht dem Funktionsumfang eines normalen ferngesteuerten Fahrzeugs, erweitert um eine Kamera, jedoch ohne jegliche Autonomie oder Intelligenz. Da das Fahrzeug auf einem embedded Board aufgebaut ist, welches über eine WLAN Verbindung verfügt, bietet es einen guten Ausgangspunkt für Erweiterungen. Ziel dieser Arbeit ist es eine Grundlage für autonome Fahrten zu schaffen. Als Betriebssystem wird uClinux, ein Linux für embedded Plattformen genutzt. Das Fahrzeug soll um einen zur Orientierung dienenden Kompass erweitert werden. Außerdem kommt ein RFID-Reader zum Einsatz, mit dessen Hilfe werden RFID-Transponder auf einer Teststrecke als künstliche Landmarken zur Positionsbestimmung genutzt. Es wird eine Software für autonome Fahrten entwickelt, die es ermöglicht, durch Verwendung der erweiterten Hardware, den Roboter eigenständig Punkte der Teststrecke anfahren zu lassen. Hierzu ist es erst notwendig alle Hardware im Betriebssystem, beispielsweise durch Treiber verfügbar zu machen.
Serpil Ertik erkundet am Beispiel geflüchteter Menschen mit Behinderung, inwieweit die sozialen Kategorien „Migration“ und „Behinderung“ wechselseitig Einfluss auf den Zugang zu zentralen Lebensbereichen nehmen und welche Barrieren und Herausforderungen sich daraus ergeben. Nach einer Erläuterung der wesentlichen theoretischen Konzepte werden im Kern der Arbeit qualitative Interview mit Fachkräften aus der Geflüchteten- und der Behindertenarbeit und zwei Asylbewerber*innen mit einer Behinderung zur Beantwortung der Ausgangsfrage ausgewertet und auch intersektional analysiert.
Die Untersuchungsergebnisse zeigen deutlich, dass der rechtliche Status der Geflüchteten die Zugangsmöglichkeiten zu zentralen Lebensbereichen deutlich erschwert. Prekäre Lebenssituationen in den Gemeinschaftsunterkünften, fehlende Gesundheitsversorgung, Ausschluss aus Integrationskursen und in der Folge soziale Ausgrenzungen sind die Konsequenz der asylrechtlichen Regelungen. Durch diese strukturellen Diskriminierungen wird ein Behinderungsprozess reproduziert. Sprache und Zuschreibungen der aus der Mehrheitskultur stammenden Mitarbeiter*innen konstituieren weitere Machtverhältnisse und Ausschlüsse von Geflüchteten mit Behinderung. Als Konsequenz führen diese Bedingungen zu einem von Fremdbestimmung und Abhängigkeit geprägten Leben, das in deutlichem Widerspruch zu den Anforderungen der UN-BRK steht.
The main scope of this work is to develop nano-carbon-based mixed matrix celluloseacetate membranes (MMMs) for the potential use in both gas and liquid separation processes. Forthis purpose, a variety of mixed matrix membranes, consisting of cellulose acetate (CA) polymerand carbon nanotubes as additive material were prepared, characterized, and tested. Multi-walledcarbon nanotubes (MWCNTs) were used as filler material and diacetone alcohol (DAA) as solvent.The first main objective towards highly efficient composite membranes was the proper preparationof agglomerate-free MWCNTs dispersions. Rotor-stator system (RS) and ultrasonic sonotrode (USS)were used to achieve the nanofillers’ dispersion. In addition, the first results of the application of thethree-roll mill (TRM) technology in the filler dispersion achieved were promising. The filler material,MWCNTs, was characterized by scanning electron microscopy (SEM) and liquid nitrogen (LN2)adsorption-desorption isotherms at 77 K. The derivatives CA-based mixed matrix membranes werecharacterized by tensile strength and water contact angle measurements, impedance spectroscopy,gas permeability/selectivity measurements, and water permeability tests. The studied membranesprovide remarkable water permeation properties, 12–109 L/m2/h/bar, and also good separationfactors of carbon dioxide and helium separations. Specifically, a separation factor of 87 for 10%He/N2feed concentration and a selectivity value of 55.4 for 10% CO2/CH4feed concentrationwere achieved.
Elaeis guineensis Jacq. or oil palm is a native species of West Africa. Its oils, extracted from the fruit mesocarp and the kernel are widely used in the food industry, industrial applications, and bioenergy production. Due to its versatility, profitability and growing demand, the global oil palm agroindustry raises concerns regarding deforestation, effects in biodiversity, contamination and related to social issues such as labor conditions, poverty, and social conflicts. In Mexico, the establishment and subsequent growth of the oil palm industry was promoted by past government policies and financial support. In Chiapas the current main producer of the country, the expansion can be also attributed to oil palm resilience to floods, hurricanes, and the economic profitability.
The objective of this study is to evaluate the sustainability status of the oil palm production system within Acapetahua and Villa Comaltitlán Municipalities by analyzing the indicators of sustainability. To achieve this, the Evaluation Framework for Natural Resource Management Systems (MESMIS), was adapted to measure the attributes status of productivity, stability, reliability, resilience, self-management, equity, and adaptability, of the different dimensions of sustainability (environmental, social, political, and economic).
It was identified that MESMIS is an appropriate framework to study oil palm system in Acapetahua and Villa Comaltitlán municipalities. The methodology allowed the identification of critical points, and relevant indicators that include land use and vegetation cover changes, oil palm cashflow, good agricultural practices, farmers´ training, level of participation and farmers´ well-being. As a result, it was identified that vegetation and land use changes were principally from pastures land and previous oil palm plantations, and a positive profitability in the last two years. Soil and water conservation practices are implemented, and farmers have received different trainings principally from social mills, but other good agricultural practices and awareness of social problems should be improved, while the social participation evaluation showed a weak status of the political dimension.
In recent years there have been numerous technical innovations such as CGM systems or insulin pumps that have made life easier for people with type 1 diabetes. However, this also means that more and more information is available. The aim of the present study is to find out more about the daily handling of information. The following research question was asked: What information do people with type 1 diabetes use? To answer this research question, a quantitative online survey of people with type 1 diabetes was conducted by Prof. Dr. Matthias Fank at the Technical University of Cologne. The online survey mainly consisted of 25 closed questions, which were asked on a scale from 0 to 10. The responses of 1,025 people who are at least 18 years old were included in the evaluation. The most important information for type 1 diabetics is the "current value". 67.5% have this on Place 1 placed. Current glucose levels are provided by CGM systems used by 94.2% of people with type 1 diabetes. Quarterly visits to the diabetologist are important and provide important information. 30.8% “completely” agree with this statement on a scale from 0 to 10. Only 2.2% of people with type 1 diabetes are satisfied with their current diabetes management apps. There is a desire for a manufacturer-independent app. The strongest agreement with a value of 10 was chosen by almost a quarter (24.6%) of the people with type 1 diabetes. The study provides an insight into diabetes therapy and shows the need for action.