Refine
Year of publication
- 2020 (78) (remove)
Document Type
- Article (30)
- Bachelor Thesis (13)
- Master's Thesis (13)
- Conference Proceeding (7)
- Report (7)
- Study Thesis (6)
- Book (1)
- Working Paper (1)
Keywords
- Rückversicherung (10)
- Reinsurance (8)
- Soziale Arbeit (8)
- Kölner Forschungsstelle Rückversicherung (7)
- Forschungsbericht (6)
- Künstliche Intelligenz (3)
- Versicherung (3)
- Data Mining (2)
- Disaster risk management (2)
- Geschlecht (2)
Faculty
- Fakultät 04 / Institut für Versicherungswesen (12)
- Fakultät 12 / Institut für Technologie und Ressourcenmanagement in den Tropen und Subtropen (11)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (7)
- Angewandte Naturwissenschaften (F11) (5)
- Fakultät 10 / Cologne Institute for Digital Ecosystems (5)
- Fakultät 03 / Institut für Informationswissenschaft (4)
- Fakultät 01 / Institut für Sozialpolitik und Sozialmanagement (3)
- Fakultät 09 / Institut für Technische Gebäudeausrüstung (3)
- Fakultät 10 / Advanced Media Institute (3)
- Fakultät 10 / Institute for Business Administration and Leadership (3)
Editorial
(2020)
One-step preparation of bilayered films from kraft lignin and cellulose acetate to mimic tree bark
(2020)
This contribution presents the development of a dry-cast method for the one-step preparation of bio-based films from wood polymers that mimic the bilayered structure of tree bark, the natural protective layer of the tree. In a simplified view, natural bark can be considered as the superposition of an external homogeneous and non-porous layer (outer bark) and a porous substructure layer (inner bark). This work is a first step for the future development of bio-based biomimetic wood coatings. The film had a bark-like appearance and its total density, bulk density and porosity were similar to values measured in natural bark. Furthermore, the structural characteristics of the studied film, namely specific surface area (BET) and pore size distribution, as well as the performance of the water adsorption ability were investigated and discussed.
This paper introduces CAAI, a novel cognitive architecture for artificial intelligence in cyber-physical production systems. The goal of the architecture is to reduce the implementation effort for the usage of artificial intelligence algorithms. The core of the CAAI is a cognitive module that processes the user’s declarative goals, selects suitable models and algorithms, and creates a configuration for the execution of a processing pipeline on a big data platform. Constant observation and evaluation against performance criteria assess the performance of pipelines for many and different use cases. Based on these evaluations, the pipelines are automatically adapted if necessary. The modular design with well-defined interfaces enables the reusability and extensibility of pipeline components. A big data platform implements this modular design supported by technologies such as Docker, Kubernetes, and Kafka for virtualization and orchestration of the individual components and their communication. The implementation of the architecture is evaluated using a real-world use case. The prototypic implementation is accessible on GitHub and contains a demonstration.
The paper presents results of the modelling of heat transfer at film boiling of a liquid in a porous medium on a vertical heated wall bordering with the porous medium. Such processes are observed at cooling of high-temperature surfaces of heat pipes, microstructural radiators etc. Heating conditions at the wall were the constant wall temperature or heat flux. The outer boundary of the vapor film was in contact with moving or stationary liquid inside the porous medium. An analytical solution was obtained for the problem of fluid flow and heat transfer using the porous medium model in the Darcy–Brinkman and Darcy–Brinkman–Forchheimer approximation. It was shown that heat transfer at film boiling in a porous medium was less intensive than in the absence of a porous medium (free fluid flow) and further decreased with the decreasing permeability of the porous medium. Significant differences were observed in frames of both models: 20% for small Darcy numbers at Da < 2 for the Darcy–Brinkman model, and 80% for the Darcy–Brinkman–Forchheimer model. In the Darcy–Brinkman model, depending on the interaction conditions at the vapor–liquid interface (no mechanical interaction or stationary fluid), a sharp decrease in heat transfer was observed for the Darcy numbers lower than five. The analytical predictions of heat transfer coefficients qualitatively agreed with the data of Cheng and Verma (Int J Heat Mass Transf 24:1151–1160, 1981) though demonstrated lower values of heat transfer coefficients for the conditions of the constant wall temperature and constant wall heat flux.
Stable recombinant mammalian cells are of growing importance in pharmaceutical biotechnology production scenarios for biologics such as monoclonal antibodies, growth and blood factors, cytokines and subunit vaccines. However, the establishment of recombinant producer cells using classical stable transfection of plasmid DNA is hampered by low stable gene transfer efficiencies. Consequently, subsequent selection of transgenic cells and the screening of clonal cell populations are time- and thus cost-intensive. To overcome these limitations, expression cassettes were embedded into transposon-derived donor vectors. Upon the co-transfection with transposase-encoding constructs, elevated vector copy numbers stably integrated into the genomes of the host cells are readily achieved facilitating under stringent selection pressure the establishment of cell pools characterized by sustained and high-yield recombinant protein production. Here, we discuss some aspects of transposon vector technologies, which render these vectors promising candidates for their further utilization in the production of biologics.
Academic search systems aid users in finding information covering specific topics of scientific interest and have evolved from early catalog-based library systems to modern web-scale systems. However, evaluating the performance of the underlying retrieval approaches remains a challenge. An increasing amount of requirements for producing accurate retrieval results have to be considered, e.g., close integration of the system’s users. Due to these requirements, small to mid-size academic search systems cannot evaluate their retrieval system in-house. Evaluation infrastructures for shared tasks alleviate this situation. They allow researchers to experiment with retrieval approaches in specific search and recommendation scenarios without building their own infrastructure. In this paper, we elaborate on the benefits and shortcomings of four state-of-the-art evaluation infrastructures on search and recommendation tasks concerning the following requirements: support for online and offline evaluations, domain specificity of shared tasks, and reproducibility of experiments and results. In addition, we introduce an evaluation infrastructure concept design aiming at reducing the shortcomings in shared tasks for search and recommender systems.
The 13th Annual Meeting of the Sponsoring Group Reinsurance was held 26 June 2020. Due to COVID-19, the event was held online this year. Some 80 representatives of the (re)insurance companies involved in the Sponsoring Group took part in the meeting, along with guests. Offered for the sixth time as part of the Annual Meeting, the Researchers’ Corner gave the seven academic researchers at the Cologne Research Centre for Reinsurance an opportunity to deliver a presentation on the research project each in which each is involved in 2020.
In three sessions – each featuring 2-3 parallel lectures with posters – the most important results of the scientific studies by the Cologne Research Centre for
Reinsurance were presented and discussed. The heterogeneity of the topics
presented by academic staff reflects the dovetailing of Cologne Research Centre with reinsurance practice.
Session 1
a) Manuel Dietmann (M.Sc.): Preventive recovery planning for insurance companies
b) Robert Joniec (M.Sc., FCII, cand. PhD): Capital is fungible, the market is
growing more efficient – But how valid are research results?
c) Jörg Dirks (M.Sc., FCII): Cyber risks in reinsurance – Insurable on a parametric basis through AI?
Session 2
a) Wolfgang Koch (M.Sc., FCII): Trend in sovereign cat pools in emerging and developing economies
b) Fabian Lassen (M.Sc., FCII): Environmental social governance – A look at reinsurers
Session 3
a) Fabian Pütz (M.Sc., PhD): Reinsurance aspects of product recalls in the automobile sector
b) Lihong Wang (M.Sc., FCII): China’s Belt and Road Initiative (BRI) – Its impact
on the global (re)insurance industry
Poster session
a) Fabian Lassen (M.Sc., FCII): Private-public partnership – The solution for the insurability of pandemics?
b) Christian Serries (B.Sc.): Silent Cyber as a challenge for the (re-)
insurance industry
c) Frank Cremer (B.Sc. / FCII): Digital ecosystems – Relevance for reinsurance?
d) Harald Kurtze (B.Sc.): Sharing economy – Impacts for reinsurance?
With the publication series, ‘Proceedings of the Researchers’ Corner’, the Cologne Research Centre for Reinsurance meets the desire for publication of the research results of our scholars together with the accompanying posters and discussions. The titles are reproduced in keeping with the above agenda of the Researchers’ Corner
for the 13th Annual Meeting of the Förderkreis Rückversicherung [Sponsoring Group Reinsurance].
This bachelor thesis addresses the issue of how school resilience can be measured and assessed quantitatively. Schools as social infrastructures have a significant value for society. Yet, on a global scale, they, and therefore the respective community as well, are continuously endangered by a variety of threats such as natural disasters or violence and mental abuse affecting students, parents and school staff. However, these threats differ greatly depending on climatic and geographical conditions as well as on the socio-cultural context of the corresponding community. To strengthen school resilience against potential threats and to ensure education continuity despite the occurrence of these disruptions, a methodology is developed to measure and assess school resilience in conjunction with its specific circumstances. Initially, qualitative and quantitative (composite) indicators are identified and categorised with the help of a Systematic Literature Review and Mayring's Qualitative Content Analysis. These are subsequently developed into a Comprehensive Index for School Resilience (CISR). Building on this, a pre-existing assessment methodology, which uses Likert-Scales arranged in questionnaires to assign quantitative values to the composite indicators, is adapted to operationalise the CISR and by an exemplary application at Europaschule Troisdorf, the methodology is adapted to the socio-cultural conditions in Germany using an expert’s operational and contextual knowledge. The results obtained show that the methodologies and techniques described in current international research can, after an appropriate adaptation, successfully be applied to schools in Germany as well. Nevertheless, by identifying research limitations and errors as well as potential improvements, it is evident that further research and development is needed to provide stakeholders with a decision-making tool to strengthen the resilience of schools in the future, such as an exhaustive supplement to the CISR or the integration of more precise quantification methodologies and techniques.
Emergency management services, such as firefighting, rescue teams and ambulances,are all heavily reliant on road networks. However, even for highly industrialised countries such asGermany, and even for large cities, spatial planning tools are lacking for road network interruptionsof emergency services. Moreover, dependencies of emergency management expand not only onroads but on many other systemic interrelations, such as blockages of bridges. The first challenge thispaper addresses is the development of a novel assessment that captures systemic interrelations ofcritical services and their dependencies explicitly designed to the needs of the emergency services.This aligns with a second challenge: capturing system nodes and areas around road networksand their geographical interrelation. System nodes, road links and city areas are integrated into aspatial grid of tessellated hexagons (also referred to as tiles) with geographical information systems.The hexagonal grid is designed to provide a simple map visualisation for emergency planners andfire brigades. Travel time planning is then optimised for accessing city areas in need by weighingimpaired areas of past events based on operational incidents. The model is developed and testedwith official incident data for the city of Cologne, Germany, and will help emergency managers tobetter device planning of resources based on this novel identification method of critical areas.
In this paper we describe traffic sign recognition with neural networks in the frequency domain. Traffic signs exist in all countries to regulate the traffic of vehicles and pedestrians. Each country has its own set of traffic signs that are more or less similar. They consist of a set of abstract forms, symbols, numbers and letters, which are combined into different signs. Automatic traffic sign recognition is important for driver assistance systems and for autonomous driving. Traffic sign recognition is a subtype of image recognition. The traffic signs are usually recorded by a camera and must be recognized in real time, i.e. assigned to a class. We use neural networks for traffic sign recognition. The special feature of our method is that the traffic sign recognition does not take place in the spatial domain but in the frequency domain. This has advantages because it is possible to significantly reduce the number of neurons and thus the computing effort of the neural network compared to a conventional neural network.
This investigation attempts to understand the eco‐hydrology of, and accordingly suggest an option to manage floodwater for agriculture in, the understudied and data‐sparse ephemeral Baraka River Basin within the hyper‐arid region of Sudan. Reference is made to the major feature of the basin, that is, the Toker Delta spate irrigation scheme. A point‐to‐pixel comparison of gridded and ground‐based data sets is performed to enhance the estimates of rainfall. Analysis of remotely sensed land use/cover data is performed. The results show a significant reduction of the grassland and barren areas explained by a significant expansion of the cropland and open shrubland (invasive mesquite trees) areas in the delta. The cotton sown area is highly dependent on the flooded area and the discharge volume in the delta. However, the area of this major crop has declined since the early 1990s in favour of cultivation of more profitable food crops. Expansion of mesquite in the delta is problematic, taking hold under increased floodwater, and can only be manged by clearance to provide crop cultivation area. There is a great potential for floodwater harvesting during the rainfall season (June to September). A total seasonal runoff volume of around 4.6 and 10.8 billion cubic metres is estimated at 90 and 50% probabilities of exceedance (reliabilities), respectively. Rather than leaving the runoff generated from rainfall events to pass to the Red Sea or be consumed by mesquite trees, a location for runoff harvesting structure in a highly suitable area is proposed. Such a structure will support any policy shifts towards planning and managing the basin water resources for use in irrigating the agricultural scheme.
Die Lebensweltorientierung nach Hans Thiersch stellt wohl eines der geläufigsten Theoriekonzepte im gegen- wärtigen Diskurs der Sozialen Arbeit dar. Mit ihr werden die (primär) bezugswissenschaftlich-entschlüsselten Termini ‚Lebenswelt‘ und ‚Alltag‘ als Orientierungspunkte für die Praxis sowie als Gegenstand für die wissenschaftliche Disziplin Sozialer Arbeit konstatiert; genauer noch: systemintern normativ aufgeladen. Insbe-sondere stützt sich das Theoriekonzept auf gesellschaftskritische Modernisierungserzählungen hinsichtlich spätkapitalistischer Entwicklungslinien und deren Einfluss auf das Individuum, die Gesellschaft und die vermeintlich dazwischenliegende Soziale Arbeit. Die angestrebte UmOrientierung soll die Soziale Arbeit aus ihren über-bürokratisierten und ökonomisierten Methoden- zwängen befreien, eine „ganzheitlichere“, also „professionell richtige“ Begegnung mit den Klient*innen ermöglichen und, im Zuge dessen, das Großprojekt sozialer Gerechtigkeit befördern. Die durchaus weitgefasste Argumentations- und Legitimationsstruktur, welche dem Theoriekonzept innewohnt, geht aus solch einer umfangreichen Integration von (vorerst) fach- fremden Begrifflichkeiten und Sinnzusammenhängen hervor, so dass der Versuch einen gänzlichen Überblick dessen zugewinnen, in diffuser Desorientierung enden kann. So pointiert Thiersch selbst, dass es notwendig sei, die Lebensweltorientierung „schwierig, kantig und sperrig“ zu halten (Thiersch 2015, S. 314). Will sich jene Soziale Arbeit jedoch auf einem dermaßen breiten
Theorieboden begründen, ist es unabdingbar systematisch zu identifizieren, wo sich thematische Schnittmengen, Divergenzen oder Spannungen ergeben. Darüber hinaus
muss sie ersichtlich machen, auf welche Weise diese entsprechend bearbeitet, entkoppelt oder weitergedacht werden. Hält sie Untersuchungen dieser Art nicht Stand, lässt dies semantische Verkürzungen, selbstaffirmative Positionsbestimmungen und ideologische Programmatik ver- muten, welche den wissenschaftlichen Gehalt des Theorie-konzepts in Frage stellen lassen würden. Die vorliegende Arbeit soll als ein kritischer explorations-versuch gelten, welcher das Ziel verfolgt, mögliche Diffusitäten herauszustellen und zu beleuchten. So wird sich insbe-sondere mit dem systematischen Weg auseinandergesetzt, welchen Thiersch einschlägt, um einen vermeintlichen Konnex bezugswissenschaftlicher Theoriebestandteile anzubieten, diesen im Diskurs Sozialen Arbeit brauchbar zu machen und ferner als grundlegendes, ‚orientierungs-würdiges‘ (normativ-aufgeladenes) Zentrum zu setzen.
We examine the impact of the existence on an explicit deposit insurance (DI) scheme and its design features on bilateral cross‐border deposits (CBD) in a gravity model setting. We find that both the absolute quality of a country's DI and its relative quality vis‐à‐vis other countries' DI generally affect depositor behavior. However, during systemic banking crises, cross‐border depositors primarily seek countries with the best DI schemes. Similarly, during the 2008–2009 great financial crisis, the emergency actions taken by the governments, which supply and maintain these safe havens, have led to substantial relocations of CBD. (JEL F34, G18)
At the case study of the city of Cologne and the neighbouring Rhein‐Erft‐Kreis (a county), selected resilience aspects of critical infrastructure (CI) and cascading effects are analysed concerning major river floods. Using a Geographic Information System, the applicability of the approach is demonstrated using open source software and data, augmented by manual entries. This study demonstrates the feasibility and limitations of analysing lifeline features of interest for disaster risk and emergency management such as roads, bridges and electricity supply. By highlighting interdependencies of emergency services with CI such as roads, cascading effects of interconnected paths are shown. The findings indicate that in an extreme event flood scenario over 2,000 km of roads and eight bridges will be exposed to floods in the area of the rivers Rhine and Erft. This places huge demands on disaster and emergency management institutions and people affected and limits their resiliency.
Aufbauend auf einer vorherigen Arbeit, die sich mit der Implementierung einer Komponentezum Auslesen mdizinischer Sensordaten mithilfe eines Arduino und eines Raspberry Pi befasst hat, beschäftigt sich diese Arbeit mit der Visualisierung sowie Auswertung der durch das System gesammelten Daten. Das Ziel dieser Arbeit ist es, über einen Zeitraum von etwa drei Monaten mithilfe der Komponente Daten zu sammeln und diese Daten in einem sinnvollen Kontext visuell darzustellen. Zudem sollen diese Daten mithilfe unterschiedlicher Algorithmen des Maschinellen Lernens ausgewertet werden,
um mögliche Muster und Zusammenhänge erkennen zu können. In diesem Kontext konnte die Hypothese aufgestellt werden, dass ein Zusammenhang zwischen der Körpertemperatur und der Sauerstoffsättigung im Blut besteht.
To realize a reliable and cost-effective application of high-temperature superconductive (HTS) equipment at high-voltage (HV) levels, the influence of thermally induced gas bubbles on the dielectric strength of different solid insulating materials in liquid nitrogen (LN2) was investigated. A heatable copper tape electrode arrangement was developed simulating HTS tapes with insulation in between. AC breakdown measurements were performed without and with forced boiling on insulating papers, polypropylene laminated paper (PPLP) and polyimide (PI) films. Under nucleate boiling the influence of bubbles on the dielectric strength of all materials was not significant. However under film boiling the dielectric strength of the insulating papers decreased to a level comparable to their dielectric strength in air, demonstrating the insufficient impregnation of porous materials under film boiling. For PI there was no degradation at all. PPLP retained about 70% of its basic dielectric strength in LN2.
Eine gängige Form der Qualitätskontrolle von Quellcode sind Code Reviews. Der Fokus von Code Reviews liegt allerdings oft auf syntaktischer Analyse, wodurch weniger Zeit für eine semantische Überprüfung bleibt und zusätzliche Kosten verursacht werden. Code Reviews lassen sich zwar teilweise durch "Linter" automatisieren, dennoch können sie nur syntaktische Fehlermuster identifizieren, welche vorher definiert wurden. Zudem kann ein Linter nur darauf hinweisen, dass möglicherweise ein Fehler vorliegt, da die Fehler nicht durch logische Inferenz ermittelt werden. Die vorliegende Arbeit prüft, ob ein Deep Learning Modell den regelbasierten Ansatz von Lintern ablösen und die semantische Ebene erschließen kann. Dazu wurde eine Stichprobe von Java Methoden zusammengestellt und im Anschluss mit einem Supervised Learning Ansatz binär klassifiziert. Da die Analyse von Quellcode der Textanalyse stark ähnelt wird ein gängiger Ansatz für Textklassifikation verwendet. Dadurch kann gezeigt werden, dass eine Präzision von 85% bei der Erkennung von Quellcodeproblemen durch Deep Learning möglich ist.
In den letzten Jahren haben sich weltweit drei Sovereign Catastrophe Risk Pools entwickelt, welche Klimaversicherungen gegen Naturkatastrophen in Schwellen- und Entwicklungsländern anbieten:
• Caribbean Catastrophe Risk Insurance Facility (CCRIF) in der Karibik
• African Risk Capacity (ARC) in Afrika
• Pacific Catastrophe Risk Insurance Company (PCRIC) im pazifischen Raum
Hintergrund für die Entwicklung dieser Pools ist der geringe fiskalpolitische Spielraum in Schwellen- und Entwicklungsländern. So sind Erhöhungen von Steuereinnahmen oder Kapitalallokationen kaum möglich. Außerdem endet eine
Verschuldung am Kapitalmarkt häufig im Schuldenerlass, wodurch eine Refinanzierung gefährdet werden kann. Schließlich bleiben nur noch Spenden und Hilfsgelder als Maßnahme übrig, welche u.a. durch die G7-Staaten, die Weltbank oder die Weltgesundheitsorganisation zur Verfügung gestellt werden können.
Pelleted biomass has a low, uniform moisture content and can be handled and stored cheaply and safely. Pellets can be made of industrial waste, food waste, agricultural residues, energy crops, and virgin lumber. Despite their many desirable attributes, they cannot compete with fossil fuel sources because the process of densifying the biomass and the price of the raw materials make pellet production costly.
Leaves collected from street sweeping are generally discarded in landfills, but they can potentially be valorized as a biofuel if they are pelleted. However, the lignin content in leaves is not high enough to ensure the physical stability of the pellets, so they break easily during storage and transportation. In this study, the use of eucalyptus kraft lignin as an additive in tree-leaf pellet production was studied. Results showed that when 2% lignin is added the abrasion resistance can be increased to an acceptable value. Pellets with added lignin fulfilled all requirements of European standards for certification except for ash content. However, as the raw material has no cost, this method can add value or contribute to financing continued sweeping and is an example of a circular economy scenario.
The increasing public awareness of business related impacts on environmental and social well-being, be it positive or negative, are nowadays key drivers of corporate success. Internal and external business environments exert pressure and force transparency as well as responsible action in terms of resolving environmental and social impacts. In line with this, Porter and Kramer regard business behaviour that addresses societal needs and challenges, as the “new way to achieve economic success”.
However, whereas some companies “remain trapped in an out-dated approach to value creation” and restrict their CSR commitment to the compliance with governmental regulation, others proactively address stakeholder needs. By addressing these needs, companies can benefit from grasping the opportunity of enhanced cost efficiency and lowered risk or gaining competitive advantages through establishing unique value propositions, in a way that meets stakeholder demands. Apart from that, CSR performance can be seen as powerful tool to successfully influence stakeholder perceptions in terms of reputation, and thus an exceptional source of value creation. In addition to this, organisations can profit from win-win-win situations related to syncretic value creation by means of partnering with stakeholders. This, however, implies expanding the focus of cost- and risk-reduction towards increasing competitiveness through creating mutual benefits for environment, society and the economy alike.
Although a growing number of companies have recognised the advantages coming along with Corporate Social Responsibility engagement, the accompanying efforts have not been sufficiently mature yet. Due to the fact that many organizations apply a rather narrow and out-dated approach to value creation, they fail to achieve a balance between environmental, social and economic objectives. This, in turn, implies a restriction in their ability to exploit the full value creation potential that is related to CSR engagement. But even organisations applying a broader perspective of value creation, struggle to internalise the opportunities. This is mainly due the challenge of balancing and integrating economic and non-economic criteria. At the same time, organizations are facing the challenge of getting support from senior management and staff. Thus, in order to profit from adopting a ‘broad perspective’, firms must build a deep understanding of the benefits resulting from mutual value creation. However, the main challenge remains the systematic and strategy related integration of Corporate Social Responsibility strategies into core business processes. In respect to this, organizations have to take into account that “social and environment performance are almost certainly unique to each organization”. Thus, value creation in terms of CSR has to be understood as a highly complex set of cause-an-effect relationships among mediating variables and situational contingencies, which is too specific to rely on poorly structured and generic approaches.
In brief, organisations seem to struggle establishing an understanding that does not consider environmental, social and economic benefits as mutually exclusive. Notwithstanding, that such an understanding is established the complexity of factors influencing Corporate Social Responsibility impedes to balance between economic and non-economic criteria. Furthermore, organisations have difficulties to strategically integrate, manage and measure environmental and social performance drivers as well as outcome measures.
Risikobasierte Authentifizierung (RBA) ist eine adaptive Sicherheitsmaßnahme zur Stärkung passwortbasierter Authentifizierung. Sie zeichnet Merkmale während des Logins auf und fordert zusätzliche Authentifizierung an, wenn sich Ausprägungen dieser Merkmale signifikant von den bisher bekannten unterscheiden. RBA bietet das Potenzial für gebrauchstauglichere Sicherheit. Bisher jedoch wurde RBA noch nicht ausreichend im Bezug auf Usability, Sicherheit und Privatsphäre untersucht. Dieser Extended Abstract legt das geplante Dissertationsvorhaben zur Erforschung von RBA dar. Innerhalb des Vorhabens konnte bereits eine Grundlagenstudie und eine darauf aufbauende Laborstudie durchgeführt werden. Wir präsentieren erste Ergebnisse dieser Studien und geben einen Ausblick auf weitere Schritte.
Usage of smart home solutions implies generation, processing, and storage of machine and personal data. Recently made public cases of data breaches and misuse increased peoples’ concerns of data security and decreased the trust in secure data handling and smart home technologies. Hence potential benefits are not exploited. It is therefore necessary to analyse how manufacturers can increase their online trust perception.
Requirements of (potential) customers of web based services for HVAC systems are identified using thematic analysis for 23 conducted interviews using online trust perception literature as basis. Manufacturer independent websites are derived as the most important online touch point for customers with manufacturers and products. Determined content and structure measures for online touch points managed by manufacturers derived to positively influence the manufacturer and manufacturer independent touch points regarding perception of trust. The derived trust concept must be evaluated in the following using the defined evaluation plan.
With Google’s Flutter framework continuing to grow in popularity for companies and developers alike, the need for an understanding of how to utilize the framework in a large-scale context has become more relevant than ever. The purpose of this thesis is to document the crucial steps most development teams using Flutter in a large-scale application will face. Additionally, a fully documented, large-scale reference application was generated so that other developers may use it as an aid when creating their own Flutter projects on a similar scale. Multiple steps were taken to ensure that optimal solutions were chosen for each aspect of the development process. For each of those aspects, a wide range of possible solutions were explored, compared and analysed. Finally, one of the possible solutions was chosen based on a wide range of scientific papers and community-generated sources. Additionally, an interview with an expert in the field was conducted to further validate those decisions. After the application was fully implemented, ten crucial aspects of the development process were identified. Those ten aspects are now explained in detail in this thesis. Ultimately, the knowledge provided by this thesis can act as a map for peers using Flutter in a large-scale context and help them overcome the crossroads they will most likely come to face.
Enhancing DPCD in Liquid Products by Mechanical Inactivation Effects: Assessment of Feasibility
(2020)
The enhancement of standard dense phase carbon dioxide (DPCD) pasteurization by additional mechanical effects was assessed in this work. These effects were induced during pasteurization by the sudden depressurization in a narrow minitube. The high flow velocities, moderate pressures (40–80 bar) and low temperatures (25–45 °C) lead to intense degasification and shear stress. The inactivation of the test microorganism Escherichia coli DH5α (E. coli DH5α) was determined before and after depressurization in the minitube, representing entirely chemical DPCD via dissolved CO2 and total inactivation comprising the effects of dissolved CO2 and mechanical effects, respectively. Compared to conventional DPCD pasteurization, which is mostly attributed to chemical effects, the additional mechanical effects increased the inactivation efficiency considerably.
The use of nematic liquid crystal (LC) mixtures for microwave frequency applicationspresents a fundamental drawback: many of these mixtures have not been properly characterizedat these frequencies, and researchers do not have an a priori clear idea of which behavior they canexpect. This work is focused on developing a new procedure for the extraction of the main parametersof a nematic liquid crystal: dielectric permittivity and loss tangent at 11 GHz under differentpolarization voltages; splay elastic constantK11, which allows calculation of the threshold voltage(Vth); and rotational viscosityγ11, which allows calculating the response time of any arbitrary device.These properties will be calculated by using a resonator-based method, which is implementedwith a new topology of substrate integrated transmission line. The LC molecules should be rotated(polarized) by applying an electric field in order to extract the characteristic parameters; thus,the transmission line needs to have two conductors and low electric losses in order to preserve theintegrity of the measurements. This method was applied to a well-known liquid crystal mixture(GT3-23002 from MERCK) obtaining the permittivity and loss tangent versus bias voltage curves,the splay elastic constant, and the rotational viscosity of the mixture. The results validate the viabilityof the proposed method.
The reinsurance market continues to face major challenges – at this point we would like to outline just one of these, by way of example. The renewal of reinsurance contracts effective 1st January 2020 seems to present an-other disappointment for the reinsurance sector. This development is surprising for a substantial hardening of prices and conditions, not only in the retrocession area but also in the primary (corporate) insurance market. As a rule, a price increase in the retrocession sector is initially followed by a price rise in the reinsurance industry, which then ultimately also occurs in the primary (corporate) insurance market. Yet the trend we are currently witnessing seems to have skipped over the reinsurers. This confronts the reinsurance market with the question of whether – and, if so, when – the price adjustments will also take effect in the case of reinsurance contracts. The Cologne Research Centre for Reinsurance analyses the latest developments in the reinsurance market and, where appropriate, monitors these through research pro-jects. In the process, the Cologne Research Centre for Reinsurance links its research activities with practices in the reinsurance sector. Hereby, and facilitated through or-ganisation of the annual Cologne Reinsurance Symposium and the Annual Meeting of the Sponsoring Group Reinsurance [Förderkreis Rückversicherung], a bi-directional transfer of knowledge between theory and practice is pursued. The content of these two scientific events, as well as the completed research projects, are incorporated into scholarship and instruction at the Institute of Insurance Studies, rounding out practice-oriented training in the field of reinsurance. There are seven researchers, two employees responsible for research management and one administrative employee currently on the staff of the Cologne Research Cen-tre for Reinsurance. Thereby, all material and personnel costs are fully financed by third-party funds provided by the Sponsoring Group Reinsurance. Within the scope of its social and environmental responsibility, this year the Cologne Research Centre for Reinsurance dealt with the topics of climate protection, sustaina-bility and equality. Because these topics are at once global, national and individual missions, the Cologne Research Centre for Reinsurance developed ideas and took measures to actively practice climate protection, sustainability and equality. In this ef-fort, great importance was attached to maintaining the level of quality while at the same time pursuing the objectives the Research Centre had set for itself in the above-men-tioned areas. While it is still in its beginnings, our initiative in the field of climate protec-tion and sustainability is manifested particularly in the most sustainable management of resources and travel we can achieve.
We want to thank the Sponsoring Group Reinsurance, the University leadership and administration, ivwKöln [the Institute of Insurance Studies Cologne] and the employees of the Cologne Research Centre for Reinsurance for all their support for the research projects and events of the past year.
Energiesprong (niederländisch für Energiesprung) ist ein innovatives Konzept für die energetische Sanierung von Wohngebäuden, das schnelle Umsetzung, Kostenreduktion, Nachhaltigkeit und Mieterfreundlichkeit verspricht. Energiesprong setzt auf industrielle Vorfertigung von Fassaden- und Dachelementen (serielle Sanierung) und den Einsatz von regenerativen Energien, um den sogenannten NetZero-Standard (entspricht dem Nullenergiehaus) zu erreichen. Ziel ist es, eine für alle Beteiligten attraktive Sanierung zu ermöglichen. Dies wird unter anderem über erheblich verkürzte Montagezeiten und warmmietenneutrale Refinanzierung angestrebt. Die dafür erforderlichen Kostensenkungen werden beim seriellen Sanieren durch die Automatisierung in der Produktion und Skaleneffekte in der Massenfertigung erreicht.
Im Rahmen dieser Arbeit soll das Konzept Energiesprong hinsichtlich der Anwendung auf Mehrfamilienhäuser betrachtet und kritisch hinterfragt werden. Dazu werden zuvorderst die politischen und praktischen Gründe umrissen, die die Notwendigkeit und das Potenzial von innovativen Ansätzen darstellen. Im zweiten Kapitel wird das Energiesprong-Konzept detailliert erläutert; neben den Innovationen im Plan und Bauverfahren werden die Besonderheiten der Gebäudehülle, der Anlagentechnik und des Energiekonzepts beschrieben. Darüber hinaus werden wirtschaftliche Aspekte und die Rolle der verschiedenen Akteure umrissen. Aus der Beschreibung gehen eine Vielzahl an Vorteilen hervor, die Energiesprong gegenüber konventionellen Sanierungsverfahren verspricht. Anschließend werden einige Punkte dieser zentralen Versprechen diskutiert und eine Grundlage für die Entwicklung von Kriterien zukünftiger Evaluationen entwickelt.
Proper satellite-based crop monitoring applications at the farm-level often require near-daily imagery at medium to high spatial resolution. The combination of data from different ongoing satellite missions Sentinel 2 (ESA) and Landsat 7/8 (NASA) provides this unprecedented opportunity at a global scale; however, this is rarely implemented because these procedures are data demanding and computationally intensive. This study developed a robust stream processing for the harmonization of Landsat 7, Landsat 8 and Sentinel 2 in the Google Earth Engine cloud platform, connecting the benefit of coherent data structure, built-in functions and computational power in the Google Cloud. The harmonized surface reflectance images were generated for two agricultural schemes in Bekaa (Lebanon) and Ninh Thuan (Vietnam) during 2018–2019. We evaluated the performance of several pre-processing steps needed for the harmonization including the image co-registration,
Bidirectional Reflectance Distribution Functions correction, topographic correction, and band adjustment. We found that the misregistration between Landsat 8 and Sentinel 2 images varied from 10 m in Ninh Thuan (Vietnam) to 32 m in Bekaa (Lebanon), and posed a great impact on the quality of the final harmonized data set if not treated. Analysis of a pair of overlapped L8-S2 images over the Bekaa region showed that, after the harmonization, all band-to-band spatial correlations were greatly improved. Finally, we demonstrated an application of the dense harmonized data set for crop mapping and monitoring. An harmonic (Fourier) analysis was applied to fit the detected unimodal, bimodal and trimodal shapes in the temporal NDVI patterns during one crop year in Ninh Thuan province. The derived phase and amplitude values of the crop cycles were combined with max-NDVI as an R-G-B false composite image. The final image was able to highlight croplands in bright colors (high phase and amplitude), while the non-crop areas were shown with grey/dark (low phase and amplitude). The harmonized data sets (with 30 m spatial resolution) along with the Google Earth Engine scripts used are provided for public use.
Kollektive Interessensvertretung in der Sozialen Arbeit: Eine Analyse nach dem Machtressourcenansatz
(2020)
Ausgangspunkt der vorliegenden Arbeit ist die Beobachtung, dass es durch Prozesse der Ökonomisierung und De-Professionalisierung im Sozialsektor zu einer wahrgenommenen Abwertung der professionseigenen Kompetenzen kommt und sich die Arbeitsbedingungen verschlechtern. Es fehlt jedoch die wahrnehmbare Gegenwehr durch die betroffenen Fachkräfte der Sozialen Arbeit. Diesem Widerspruch wird nachgespürt, indem auf ein Analyseinstrument der Gewerkschaftsforschung, den Machtressourcenansatz, zurückgegriffen wird. Mit der Untersuchung der strukturellen, organisatorischen, institutionellen und gesellschaftlichen Machtressourcen - als Grundlage für die kollektive Interessenvertretung von lohnabhängig Beschäftigten - sollen mögliche Besonderheiten aufgedeckt werden, die den beschriebenen Widerspruch erklärbar machen. Hierzu wird im ersten Kapitel der Begriff der kollektiven Interessenvertretung erläutert, indem unterschiedliche Formen von Interessen dargestellt und für die Soziale Arbeit spezifiziert werden. Interessenverbände, und im speziellen Gewerkschaften, werden als Zusammenschlüsse von Interessenträger*innen vorgestellt. Im zweiten Kapitel folgen die Beschreibung der Entwicklung des Machtressourcenansatzes und seiner Heuristik, sowie die Darstellung der vier Dimensionen von Lohnabhängigenmacht. Im dritten Kapitel werden die vier Dimensionen als Analyse-Schema auf die Kontexte Sozialer Arbeit übertragen.
Wohnungslosigkeit erweist sich in Deutschland als ein wachsendes soziales Problem. Nicht zuletzt aufgrund der zunehmenden Wohnungsknappheit vor allem in den Ballungszentren stellt dies das aktuelle Hilfesystem vor große Herausforderungen. Die wohnräumliche Exklusion führt für die Betroffenen nicht selten zu gesellschaftlicher bzw. sozialer Exklusion. Dies äußert sich auf verschiedenen Ebenen, beispielsweise durch abwertende oder kriminalisierende Betrachtungsweisen in der medialen Berichterstattung, anderen Formen der Diskriminierung bis hin zu verschiedenen Formen der Gewalt. Würdevoller Wohnraum besitzt eine zentrale Bedeutung als Schutz- und Rückzugsraum sowie als Ort, an dem Autonomie und Identität gelebt werden können. Das in den Menschenrechten verankerte Recht auf Wohnen wird jedoch häufig nur unzureichend oder gar nicht gewährleistet. In dieser Arbeit wird beleuchtet, wie sich die Folgen von Wohnungslosigkeit multidimensional auf die Betreffenden auswirken und welche vielfältigen Bedingungen und Faktoren dies beeinflussen. Die daraus resultierenden Aufgaben für Profession und Disziplin Soziale Arbeit werden in diesem Zusammenhang herausgearbeitet. Es wird diskutiert, inwiefern auch Professions-angehörige durch handlungsleitende Prinzipien zum Teil dazu beitragen, dass das Recht auf Wohnen nur unzureichend gewährleistet wird. Vor diesem Hintergrund wird der ursprünglich aus den USA stammende Housing-First-Ansatz samt seinen Herausforderungen vorgestellt und die Potenziale für die Adressat*innen und nicht zuletzt für die Umsetzung des Rechts auf Wohnen analysiert.
In nahezu jedem Rettungsdienstbereich lässt sich ein Anstieg an Notfalleinsätzen und damit einhergehend ein höherer Bedarf an Rettungsmitteln beobachten. Daraus resultieren Einsatzspitzen, die durch den Regelrettungsdienst nicht abgedeckt werden können, und es entsteht eine Unterdeckung. Dies wird auch als Risikofall bezeichnet und birgt die Gefahr, dass ein Rettungsmittel nicht innerhalb der vorgeschriebenen Hilfsfrist am Notfallort eintreffen kann. Um einen potenziellen Risikofall im Vorfeld absehen und einsatztaktische Ausgleichsmaßnahmen innerhalb eines Rettungsdienstbereiches ergreifen zu können, soll deshalb die Einsatznachfrage in stündlicher Auflösung prognostiziert werden. Dazu wurde die Einsatz-Zeit-Reihe 2017 der hochfrequentierten Feuer- und Rettungswache 1 in der Kölner Innenstadt analysiert und ein saisonales ARIMA-Modell sowie ein Erwartungswert-Modell auf die Einsatz-Zeit-Reihe des Folgejahres 2018 angewandt. Gezeigt werden konnte, dass sich die Einsatz-Zeit-Reihe mit einer mittleren absoluten Abweichung von etwas mehr als einem Einsatz prognostizieren lässt. Außerdem konnte mit einer Skalierung der Prognose über die Anzahl einsatzbereiter Rettungs-wagen jeder Risikofall in einem einwöchigen Anwendungstest vorhergesagt werden. Dabei zeigte sich, dass nicht die Prognosegüte in der Stunde der Einsatzspitze relevant ist, sondern die Prognosegüte in der Folgestunde. Die Prognosen haben somit, wenn sie skaliert werden, eine hohe einsatztaktische Relevanz und ermöglichen kurz-fristige Ausgleichsmaßnahmen im Tagesgang.
Die Nutzung von Gamification zur Verbesserung der User Experience - Marktanalyse & Designfaktoren
(2020)
User Experience beschreibt die Wahrnehmungen und Reaktionen Benutzender zu einem System. Es umfasst die Gedanken und Emotionen, die Benutzende vor, während und nach der Nutzung eines Systems erfahren. In einer Zeit in der es zahlreiche digitale Systeme und Alternativen auf dem Markt zur Verfügung stehen, können sich voranging Systeme mit einer guten User Experience durchsetzen. Demnach kann User Experience als messbarer Erfolgsfaktor gesehen werden und dieses Verständnis darüber ist erforderlich für das Treffen von Designentscheidungen. Ziel dieser Arbeit ist es Aspekte aus Gamification, die zu einer Verbesserung der User Experience eines Systems beitragen, zu identifizieren und darzustellen. Bei Gamification handelt es sich um einen Gestaltungsprozess, der auf den Erfahrungen und Techniken des Game Designs basiert und die Gefühle und Motivationen von Menschen anspricht. Zur Ermittlung dieser Faktoren wurden mittels Literatur von, unter anderem, Huizinga und Chou relevante Aspekte spielerischen Verhaltens und grundlegende menschliche Motivationen betrachtet. Diese Erkenntnisse wurden zur Analyse der auf, dem Markt befindlichen, Systeme KptnCook und TooGoodToGo angewandt um relevante Design Faktoren zu ermitteln und darzustellen. Es wurde festgestellt, dass User Experience ein dreidimensionales Konstrukt bestehend aus den Faktoren ease-of-use, joy-of-use und purpose-of-use darstellt. Durch die Einbringung von Aspekten aus Gamification in ein System kann dieses gezielt auf die Vermittlung der Faktoren joy-of-use und purpose-of-use gestaltet und optimiert werden. Auf dieser Grundlage ist es empfehlenswert Gamification bei der Gestaltung von Systemen zu beachten um menschlichen Motivationen zur Nutzung eines Systems anzusprechen. Durch die Gestaltung mit Gamification können Benutzererlebnisse angefertigt werden, die unterhaltsam sind und Benutzende zu einer langfristigen Verwendung des Systems motivieren.
Campylobacter spp. are one of the most important food-borne pathogens, which are quite susceptible to environmental or technological stressors compared to other zoonotic bacteria. This might be due to the lack of many stress response mechanisms described in other bacteria. Nevertheless, Campylobacter is able to survive in the environment and food products. Although some aspects of the heat stress response in Campylobacter jejuni are already known, information about the stress response in other Campylobacter species are still scarce. In this study, the stress response of Campylobacter coli and Campylobacter lari to elevated temperatures (46°C) was investigated by survival assays and whole transcriptome analysis. None of the strains survived at 46°C for more than 8 h and approximately 20% of the genes of C. coli RM2228 and C. lari RM2100 were differentially expressed. The transcriptomic profiles showed enhanced gene expression of several chaperones like dnaK, groES, groEL, and clpB in both strains, indicating a general involvement in the heat stress response within the Campylobacter species. However, the pronounced differences in the expression pattern between C. coli and C. lari suggest that stress response mechanisms described for one Campylobacter species might be not necessarily transferable to other Campylobacter species.
As Digital Twins gain more traction and their adoption in industry increases, there is a need to integrate such technology with machine learning features to enhance functionality and enable decision making tasks. This has lead to the emergence of a concept known as Digital Triplet; an enhancement of Digital Twin technology through the addition of an ’intelligent activity layer’. This is a relatively new technology in Industrie 4.0 and research efforts are geared towards exploring its applicability, development and testing of means for implementation and quick adoption. This paper presents the design and implementation of a Digital Triplet for a three-floor elevator system. It demonstrates the integration of a machine learning (ML) object detection model and the system Digital Twin. This was done to introduce an additional security feature that enabled the system to make a decision, based on objects detected and take preliminary security measures. The virtual model was designed in Siemens NX and programmed via Total Integrated Automation (TIA) portal software. The corresponding physical model was fabricated and controlled using a Programmable Logic Controller (PLC) S7 1200. A control program was developed to mimic the general operations of a typical elevator system used in a commercial building setting. Communication, between the physical and virtual models, was enabled using the OPC-Unified Architecture (OPC-UA) protocol. Object recognition using “You only look once” (YOLOV3) based machine learning algorithm was incorporated. The Digital Triplet’s functionality was tested, ensuring the virtual system duplicated actual operations of the physical counterpart through the use of sensor data. Performance testing was done to determine the impact of the ML module on the real-time functionality aspect of the system. Experiment results showed the object recognition contributed an average of 1.083s to an overall signal travel time of 1.338 s.
Der Rückversicherungsmarkt steht auch weiterhin vor großen Herausforderungen – an dieser Stelle soll hiervon nur eine exemplarisch angerissen werden.
Die Erneuerung der Rückversicherungsverträge zum 1. Januar 2020 scheint für die Rückversicherung abermals enttäuschend zu verlaufen. Diese Entwicklung überrascht insofern, als dass sowohl im Retrozessionsbereich als auch auf dem (Industrie-)Erstversicherungsmarkt eine substantielle Preis- und Bedingungsverhärtung zu verzeichnen sind.
Im Regelfall folgt auf eine Preissteigerung im Retrozessionsbereich zunächst eine Preiserhöhung in der Rückversicherungsbranche, die dann letztendlich auch auf dem (Industrie-)Erstversicherungsmarkt eintritt. Allerdings scheint die derzeitige Entwicklung die Rückversicherer übersprungen zu haben. Somit steht der Rückversicherungsmarkt vor der Frage, ob und falls ja wann, die Preisanpassungen auch bei den Rückversicherungsverträgen wirksam werden.
Die Kölner Forschungsstelle Rückversicherung analysiert die aktuellen Entwicklungen des Rückversicherungsmarktes und begleitet diese gegebenenfalls durch Forschungsprojekte. Dabei verbindet die Kölner Forschungsstelle Rückversicherung ihre Forschungsaktivitäten mit der Rückversicherungspraxis. Hiermit und mit Hilfe der Durchführung des jährlichen Kölner Rückversicherungs-Symposiums und der Jahrestagung des Förderkreises Rückversicherung wird ein bidirektionaler Wissenstransfer zwischen Theorie und Praxis betrieben.
Die Inhalte dieser beiden wissenschaftlichen Veranstaltungen sowie die bearbeiteten Forschungsprojekte fließen in die Lehre an dem Institut für Versicherungswesen ein und komplettieren so die praxisorientierte Ausbildung in dem Bereich der Rückversicherung.
In der Kölner Forschungsstelle Rückversicherung sind derzeit sieben forschende, zwei für das Wissenschaftsmanagement zuständige Mitarbeiterinnen und Mitarbeiter und eine administrative Mitarbeiterin beschäftigt. Dabei werden sämtliche Personal-, Sach- und Reisekosten vollständig aus Drittmitteln des Förderkreises Rückversicherung finanziert.
In diesem Jahr hat sich die Kölner Forschungsstelle Rückversicherung im Rahmen ihrer sozialen und ökologischen Verantwortung mit den Themen Klimaschutz, Nachhaltigkeit und Gleichberechtigung auseinandergesetzt. Da diese Themen sowohl globale, nationale als auch individuelle Aufgaben sind, hat die Kölner Forschungsstelle Rückversicherung Ideen entwickelt und Maßnahmen ergriffen, um Klimaschutz, Nachhaltigkeit und Gleichberechtigung aktiv zu leben. Große Bedeutung wurde dabei der Wahrung des Qualitätsniveaus bei gleichzeitiger Verfolgung der selbstgesteckten Ziele in oben genannten Bereichen beigemessen. Unsere – noch am Anfang stehende – Initiative in Sachen Klimaschutz und Nachhaltigkeit äußert sich insbesondere in einem möglichst nachhaltigen Ressourcen- und Reisemanagement.
Dem Förderkreis Rückversicherung, der Hochschulleitung und -verwaltung, dem ivwKöln sowie den Mitarbeitern der Kölner Forschungsstelle Rückversicherung gilt unser Dank für die Unterstützung der Forschungsprojekte und Veranstaltungen im vergangenen Jahr.
Der Rückversicherungsmarkt steht auch weiterhin vor großen Herausforderungen – an dieser Stelle soll hiervon nur eine exemplarisch angerissen werden. Die Erneuerung der Rückversicherungsverträge zum 1. Januar 2020 scheint für die Rückversicherung abermals enttäuschend zu verlaufen. Diese Entwicklung überrascht insofern, als dass sowohl im Retrozessionsbereich als auch auf dem (Industrie-)Erstversicherungsmarkt eine substantielle Preis- und Bedingungsverhärtung zu verzeichnen sind.
Im Regelfall folgt auf eine Preissteigerung im Retrozessionsbereich zunächst eine Preiserhöhung in der Rückversicherungsbranche, die dann letztendlich auch auf dem (Industrie-)Erstversicherungsmarkt eintritt. Allerdings scheint die derzeitige Entwicklung die Rückversicherer übersprungen zu haben. Somit steht der Rückver-sicherungsmarkt vor der Frage, ob und falls ja wann, die Preisanpassungen auch bei den Rückversicherungsverträgen wirksam werden. Die Kölner Forschungsstelle Rückversicherung analysiert die aktuellen Entwicklungen des Rückversicherungsmarktes und begleitet diese gegebenenfalls durch Forschungsprojekte. Dabei verbindet die Kölner Forschungsstelle Rückversicherung ihre Forschungsaktivitäten mit der Rückversicherungspraxis. Hiermit und mit Hilfe der Durchführung des jährlichen Kölner Rückversicherungs-Symposiums und der Jahrestagung des Förderkreises Rückversicherung wird ein bidirektionaler Wissen-stransfer zwischen Theorie und Praxis betrieben. Die Inhalte dieser beiden wissenschaftlichen Veranstaltungen sowie die bearbeiteten Forschungsprojekte fließen in die Lehre an dem Institut für Versicherungswesen ein und komplettieren so die praxisorientierte Ausbildung in dem Bereich der Rückversicherung.
In der Kölner Forschungsstelle Rückversicherung sind derzeit sieben forschende, zwei für das Wissenschaftsmanagement zuständige Mitarbeiterinnen und Mitarbeiter und eine administrative Mitarbeiterin beschäftigt. Dabei werden sämtliche Personal-, Sach- und Reisekosten vollständig aus Drittmitteln des Förderkreises Rückversicherung finanziert. In diesem Jahr hat sich die Kölner Forschungsstelle Rückversicherung im Rahmen ihrer sozialen und ökologischen Verantwortung mit den Themen Klimaschutz, Nachhaltigkeit und Gleichberechtigung auseinandergesetzt. Da diese Themen sowohl globale, nationale als auch individuelle Aufgaben sind, hat die Kölner Forschungsstelle Rückversicherung Ideen entwickelt und Maßnahmen ergriffen, um Klimaschutz, Nachhaltigkeit und Gleichberechtigung aktiv zu leben. Große Bedeutung wurde dabei der Wahrung des Qualitätsniveaus bei gleichzeitiger Verfolgung der
selbstgesteckten Ziele in oben genannten Bereichen beigemessen. Unsere – noch am Anfang stehende – Initiative in Sachen Klimaschutz und Nachhaltigkeit äußert sich insbesondere in einem möglichst nachhaltigen Ressourcen- und Reisemanagement. Dem Förderkreis Rückversicherung, der Hochschulleitung und -verwaltung, dem ivwKöln sowie den Mitarbeitern der Kölner Forschungsstelle Rückversicherung gilt unser Dank für die Unterstützung der Forschungsprojekte und Veranstaltungen im vergangenen Jahr.
Ausgangspunkt dieser Untersuchung ist die Analyse des Wissenstransfers von der Wissenschaft in die Praxis der Sozialen Arbeit am Beispiel des Netzwerkbegriffs. Durch die Analyse des Verständnisses von Netzwerken sowie der Nutzung von Netzwerkmetaphern soll der Wissenstransfer nachgezeichnet werden. Die Analyse schließt an den Diskurs der Verwendungsforschung an und versteht Wissenstransfer systemtheoretisch als strukturelle Kopplung zwischen den gesellschaftlichen Funktionssystemen der Sozialen Arbeit und der Wissenschaft. Wissenstransfer ist demnach die Irritation des Hilfesystems durch das Wissenschaftssystem, um Veränderungsprozesse zu initiieren. Dazu wird der wissenschaftliche Diskurs in Hand- und Wörterbüchern zum Thema Netzwerke analysiert und Ergebnissen aus leitfadengestützten Interviews in den Bereichen der Jugendhilfe und Gemeinwesenarbeit gegenübergestellt. Neben der Verwendung des Netzwerkbegriffes werden Netzwerkmetaphern in Wissenschaft und Praxis der Sozialen Arbeit untersucht. Es wird davon ausgegangen, dass Wissenstransfer sich auch in Metaphern manifestiert und Metaphern als Indikator für den Wissenstransfer dienen können.
Im Ergebnis zeigt sich, dass sich die Verwendung des Netzwerkbegriffs in Wissenschaft und Praxis deutlich unterscheidet. Während in der Wissenschaft ein breites Spektrum von unterschiedlichen theoretischen Ansätzen und Begründungszusammenhängen zur Erklärung der Wirkungsweisen von Netzwerken vorliegt, zeigt sich in der Praxis der Sozialen Arbeit eine rudimentäre Rezeption dieser Erkenntnisse.
Starmerella bombicola is known to produce sub‐terminally hydroxylated lactonic sophorolipids (SLs), while Candida kuoi synthesizes acidic open chain SLs with terminally hydroxylated fatty acids. Upon feeding glucose and fatty alcohols both strains form long‐chain nonionic SLs. According to structure elucidation the SLs consist of a hydroxylated fatty acid esterified with fatty alcohol and linked via a glycoside bond to the diacetylated sophorose unit. Palmityl, stearyl, and oleyl alcohols lead to products with lipid chain lengths of C32 or C36. Oleyl alcohol is the preferred substrate leading to 45 g L−1 of the double unsaturated C36 SL with S. bombicola and 20 g L−1 with C. kuoi. Scale up from shake flask to 1.5 L fermentations is possible and 65 g L−1 long‐chain SLs are obtained with S. bombicola within 7 days. Mixed feeding of oleic acid and a variety of fatty alcohols leads to new long‐chain SLs. In the presence of oleic acid the yeasts do not oxidize the fatty alcohol and thus the production of biosurfactants with tailored chain length is possible. The long‐chain SLs show good emulsification ability of water/paraffin oil mixtures at low energy input and reduced interfacial tension significantly.
Practical Applications: Sophorolipids are produced by fermentation on industrial scale focusing on cleaning and detergent applications. Mainly lactonic or anionic open‐chain forms are used today. The new long‐chain SLs presented in this manuscript are accessible with existing production technology and can be produced with high titers from cost‐efficient renewable raw materials. In contrast to the commercial products the long‐chain SLs are more hydrophobic and exhibit a strong emulsification behavior. Therefore they have the potential to broaden the application range of SLs in future. They may be useful as novel emulsifiers for cosmetic creams and lotions, pharmaceutical ointments and food products or may find application in oil spill remediation.
In 2015, the adoption of the 2030 Agenda for Sustainable Development, including the 17 Sustainable Development Goals (SDGs), and the Paris Agreement provided a basis for considerable optimism for the fight against climate change and efforts to promote sustainable development, but their implementation remains an enormous challenge. Finance, in turn, plays a key role in implementation. This thesis thus seeks to provide new insights into the challenge of implementing the Paris Agreement and the 2030 Agenda by examining pertinent financial flows while taking into considering that making use of thematic overlaps between these two agendas can help to leverage synergies, especially if financial flows take adequate account of these overlaps. Since energy plays an essential role in both the goals of the Paris Agreement and the 2030 Agenda (in SDG 7 and beyond it), this thesis focuses on countries’ energy-related national commitments. Against this background, this thesis investigates the question which role energy plays in the Nationally Determined Contributions (NDCs) under the Paris Agreement and to what extent climate finance is considered in the context of the energy system transition. The key finding is that financial flow for renewable energy and energy efficiency improves globally with an unchanged track of non-renewable energy in the post-NDC period.
Mental illnesses in adolescence and young adulthood are steadily increasing. Thus,mental disorders represent an individual and societal challenge and an enormous health economicburden, creating an urgent need for research and action. Mental health problems are omnipresent inthe life of young people and the internet is the first resource, which helps them to understand theirsituation. Young people with migration background often have more difficulties accessing health careservices. Digital technologies offer an ideal opportunity for a low-threshold platform that addressesthe needs of young people. The current project “GeKo:mental” aims to design a multilingual websitefor Cologne-based adolescents and young adults that will enable them to obtain comprehensiveinformation about mental illness and health, treatment options and first contact points. To designthis website, this study aims to find out what kind of health information is needed and how itshould best be presented. Nine focus group discussions with adolescents and young adults withand without migration background (N = 68) were conducted; the focus group discussions took placeat schools, in an association for social youth work and in an cultural association, which is linkedto a mosque in Cologne, Germany. A qualitative content analysis was conducted on the gatheredmaterial. The participants reported concrete challenges and needs. The results will form the basis forthe development and design of a website.
Projects in universities challenge the students in terms of organizing the project progress and coordinating team members. In order to cover the content of the courses in more depth and to prepare the students for their future employment the technical university of cologne (Campus Gummersbach) includes various team projects into its curriculum. Procedure models are helpful ways to structure the project tasks and ensure the communication between team members and stakeholders. The course Projectmanagement presents procedure models such as Waterfall Model, V-Model and Scrum that are mostly used in business context and software engineering. An agile procedure model that is not part of the curriculum is called Design Thinking. It is a suitable approach for student projects as it combines the requirement of an open mindset, a creative, experimental working method and an interdisciplinary toolbox. The objective of this thesis is to design a concept for a procedure model that is customized to students' needs. The growing practice of the design thinking method and other agile procedures within the business world, also increases the
importance for students to apply of such models in preperation for professional work. To define the requirements for the recommended procedure model, the first step is to elaborate on the processes and challenges that are currently used in student projects. Then the procedure models Waterfall Model, V-Model and Scrum are presented and evaluated taking into account the students' preferences. Next, Design Thinking is presented structured into three parts: mindset, process and toolbox. The most suitable projects to apply this method are identified in the subsequent analysis. Finally, the most appropriate aspects of the presented procedure models as well as the Design Thinking processes are detected, framed and combined into a new procedure model. The new model is illustrated using a graphical representation and a corresponding explanation. It is clustered into the three fundamental project phases: Planning, Execution and Closure. The Planning phase forms the foundation for a well functioning team and successful project progress. Execution is based on the Design Thinking approach and integrates an iteration-loop formed by the subphases Exploration, Idea Generation, Prototyping, Test and Implementation. The final phase Closure is an incentive for a more creative approach to create final presentations. This model can be developed further and be used for example as a didactic instrument and as a link between the diverse disciplines in interdisciplinary projects across different universities. In this way students learn to apply agile procedures and work in interdisciplinary teams.
Wärme‐ und Kältespeicher von Gebäuden beruhen auf verschiedenen Konzepten der Wärmeübertragung. Bei thermischen Hybridspeichern befindet sich das Phasen-wechselmaterial (PCM) makroverkapselt in PCM‐Objekten, die im Speicherbehälter positioniert sind und vom Wärmeträgerfluid umströmt werden. Die experimentellen Untersuchungen widmen sich den Belade‐ und Entladeeigenschaften des in Kugeln makroverkapselten PCM. Es wird gezeigt, dass die spezifische Wärmeübertragungs-leistung eines Hybridspeichers unmittelbar von der Größe der Kugeln als auch von der spezifischen Wärmeleitfähigkeit des PCM abhängt.
Das vorliegende Paper beschreibt die im Rahmen von Industrie 4.0 als Einkauf 4.0 be-zeichnete Digitalisierung der Einkaufsfunktion. Neben einer grundlegenden Einführung zu Industrie 4.0 und den Haupttreiber stellt das Paper die Auswirkungen der Digitalisie-rung auf den Einkauf vor.
Es werden generell die Möglichkeiten, Einkaufsfunktionen zu digitalisieren, eine Aus-wahl an Studien zu Kosteneinsparungen und der aktuelle Stand der Umsetzung bei Un-ternehmen dargestellt sowie die Erkenntnisse zum Einsatz von Digitalisierung im Ein-kauf zusammengefasst.
Das Praxis Paper basiert auf der Bachelorarbeit von Johannes Blechmann, die von No-vember 2019 bis Februar 2020 von Prof. Dr. Monika Engelen (TH Köln) und Sven Düs-ter (VOSS Automotive GmbH) betreut wurde.
Das vorliegende Paper fasst die Erkenntnisse zum Einsatz von Influencer Marketing generell und besonders für Startups zusammen.
Es basiert auf der Bachelorarbeit von Herr Bilel Mestiri, der von November 2019 bis Februar 2020 von Prof. Dr. Monika Engelen und Prof. Dr. Christina Werner betreut wurde. Neben einer Recherche der grundlegenden Theorie und den daraus gewonnen Erkenntnissen wurde unter Literaturbezug ein Leitfaden erstellt.
Dieses Paper soll als Einstieg in das Thema Influencer Marketing sowie als Orientierungshilfe für den Einsatz von Influencer Marketing für Startups dienen.
Das vorliegende Praxis Paper ist in zwei Bereiche aufgeteilt. Zunächst wird der Prozess zur Veröffentlichung eines Buchs über Amazon dargestellt, während im zweiten Teil Erkenntnisse über die allgemeinen Grundlagen des erfolgreichen Verkaufs auf Amazon zusammengefasst werden. Es basiert auf der Bachelorarbeit von Herrn Christian Dam-bach, die von Juli 2020 bis Oktober 2020 von Prof. Dr. Monika Engelen betreut wurde.
Nach der Darstellung des Veröffentlichungsprozesses werden im weiteren Verlauf die Möglichkeiten der Suchmaschinenoptimierung auf der Produktseite gezeigt und die Suchmaschinenwerbung über Amazon Marketing Services (AMS) vorgestellt. Neben dem Controlling des Verkaufsverlaufs und des Kampagnenverlaufs, wird zunächst die Einrichtung einer Werbeanzeige erläutert und anschließend die verschiedenen Möglich-keiten der Optimierung dargestellt. Daraus werden dann allgemeine Erfolgsfaktoren für den Verkauf auf Amazon abgeleitet, die, über das Fallbeispiel hinaus, auf jegliche ange-botenen Produkte anwendbar sind.
Diese Veröffentlichung basiert auf einem Vortrag an dem Forschungsinstitut für Privatversicherungsrecht (Leitung Univ.-Prof. Dr. Michael Gruber) der Universität Salzburg am 7. Januar 2020. Zunächst erfolgte ein kurzer Überblick über die – aus juristischer Sicht vielleicht interessanten – Rückversicherungsaspekte von Solvency II. Anschließend wurden die Organisation und Durchführung von Schiedsgerichtsverfahren in der Rückversicherung erläutert sowie deren Vereinbarung in Rückversicherungsverträgen. Als ein fiktives Beispiel für Gerichts- und Schiedsgerichtsverfahren wurde die fehlende Vereinbarung des für die Rückversicherungsvertragsbeziehung geltenden Rechts gewählt. An dieser Fragestellung wurden die unterschiedlichen Vorgehensweisen eines Gerichts beziehungsweise eines Schiedsgerichtsverfahrens diskutiert. Insbesondere wären in den beiden Verfahren diametral entgegengesetzte Entscheidungen zu erwarten. Im Hauptteil des Vortrags wurden dann die Hurricane-Ereignisse Harvey, Irma und Maria („HIM“) in 2017 adressiert: Verlauf, Schäden, jeweilige Besonderheiten, unterschiedliche Kommunikation gegenüber Öffentlichkeit und Investoren durch einzelne Rückversicherer, Auswirkungen auf die Dividendenpolitik und vieles andere mehr. Danach wurde anhand der Schadenereignisse in den Folgejahren und der uneinheitlichen Renewals seit 2017 in Erst- und Rückversicherung sowie Retrozession die These plausibilisiert,dass der Rückversicherungszyklus spätestens seit HIM ausgesetzt ist. Zur Abrundung wurden die – ebenfalls uneinheitlichen – jeweiligen Entwicklungen von traditionaler Rückversicherung und dem Alternative Risk Transfer durch Insurance Linked Securities gegenübergestellt. Die Volatilität der Rückversicherungsmärkte wird die Akteure sicherlich auch weiterhin in Atem halten – und dem Beobachter die Möglichkeit zu Analyse und Kommentierung.
We consider a risk model in discrete time with dividends and capital injections. The goal is to maximise the value of a dividend strategy. We show that the optimal strategy is of barrier type. That is, all capital above a certain threshold is paid as dividend. A second problem adds tax to the dividends but an injection leads to an exemption from tax. We show that the value function fulfils a Bellman equation. As a special case, we consider the case of premia of size one. In this case we show that the optimal strategy is a two barrier strategy. That is, there is a barrier if a next dividend of size one can be paid without tax and a barrier if the next dividend of size one will be taxed. In both models, we illustrate the findings by de Finetti’s example.