Refine
Year of publication
Document Type
- Master's Thesis (323)
- Article (149)
- Bachelor Thesis (142)
- Conference Proceeding (65)
- Report (53)
- Study Thesis (47)
- Working Paper (47)
- Book (29)
- Part of a Book (27)
- Other (11)
Language
- German (586)
- English (315)
- Multiple languages (2)
- Spanish (1)
Keywords
- Rückversicherung (66)
- Reinsurance (55)
- Versicherung (52)
- Kölner Forschungsstelle Rückversicherung (47)
- Versicherungswirtschaft (44)
- Sozialarbeit (24)
- Soziale Arbeit (20)
- Deutschland (19)
- Germany (19)
- Bibliothek (17)
Faculty
- Fakultät 10 / Institut für Informatik (154)
- Fakultät 03 / Institut für Informationswissenschaft (104)
- Fakultät 04 / Institut für Versicherungswesen (78)
- Fakultät 12 / Institut für Technologie und Ressourcenmanagement in den Tropen und Subtropen (72)
- Fakultät 07 / Institut für Medien- und Phototechnik (68)
- Fakultät 04 / Schmalenbach Institut für Wirtschaftswissenschaften (53)
- Angewandte Naturwissenschaften (F11) (45)
- Fakultät 10 / Advanced Media Institute (35)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (30)
- Fakultät 07 / Institut für Nachrichtentechnik (26)
The quantification of greenhouse gas emissions from aquatic ecosystems requires knowledge about the spatial and temporal dynamics of free gas in sediments. Freezing the sediment in situ offers a promising method for obtaining gas‐bearing sediment samples, unaffected by changes in hydrostatic pressure and sample temperature during core withdrawal and subsequent analysis. This article presents a novel freeze coring technique to preserve the in situ stratigraphy and gas bubble characteristics. Nondestructive X‐ray computed tomography (CT) scans were used to identify and characterize coring disturbances of gravity and freeze cores associated with gassy sediment, as well as the effect of the freezing process on the gas bubble characteristics. Real‐time X‐ray CT scans were conducted to visualize the progression of the freezing process. Additional experiments were conducted to determine the freezing rate to assess the probability of sediment particle/bubble migration, and gas bubble nucleation at the phase transition of pore water to ice. The performance of the freeze coring technique was evaluated under field conditions in Olsberg and Urft Reservoir (Germany). The results demonstrate the capability of the freeze coring technique for the preservation of gas‐bearing sediments and the analysis of gas bubble distribution pattern in both reservoirs. Nevertheless, the obtained cores showed that nearly all gravity and freeze cores show some degree of coring disturbances.
Observational studies and clinical trials have become increasingly important over recent years and play an essential role in advancing medical knowledge. In today’s world of clinical research, it is not possible to imagine trials without the founda-tion of a well-established it-infrastructure. Electronic capture and usage of data is pervasive.
In practice, medical progress requires the ability to integrate data from different systems. An essential factor in enabling different actors, such as institutions and hospitals, to have their systems exchange structured data and make use of the information is the interoperability of the data and systems.
FHIR (Fast Healthcare Interoperable Resources) is a free and easily customizable HL7 platform standard, based on 30 years of experience of HL7. It is focused on providing health-related information and defines a set of capabilities used in the health care process.
This thesis will provide a conceptual approach for working with FHIR, as well as concrete approaches for working with FHIR profiles and for customizing the standard for particular use cases. It will be carried out in cooperation with the Medical Systems R&D, which is a service provider within the University Hospital of Cologne.
The guiding request approach will focus on the evaluation of requirements for clini-cal trials and how clinical research protocols can be represented in an interoperable and machine-parsable format using FHIR.
Abstract
(−)‐Menthol is one of the most popular aroma compounds worldwide. While in the past mostly extracted from mint plants, today (−)‐menthol synthesis from other raw materials is becoming more relevant. Common starting materials for menthol synthesis are m‐cresol, citral and myrcene, but also substrates like menthone, mono‐ and bicyclic terpenes and terpenoids have been used for this purpose in the past. As for many applications (−)‐menthol of high purity is required, asymmetric syntheses and enantiomeric resolution of obtained raw products are applied for menthol production. This review gives an overview on the most important synthetic menthol production processes of the companies Symrise, Takasago and BASF and relevant literature in the field of menthol synthesis with a focus on the last 20 years.
In dieser Diplomarbeit wird die Lösung eines Standardproblems aus dem betrieblichen Umfeld behandelt. Die Aufgabenstellung ist die automatisierte Bereitstellung von Daten, die für die Produktion eines medienunabhängigen Produktkataloges notwendig sind. Ein zentraler Datenbestand soll als Quelle für Printkataloge, CD-ROM- und Internet-Präsentationen dienen.
Konzeption einer flexiblen Systemarchitektur zur dynamischen Konfiguration hybrider Lernräume
(2021)
In dieser Arbeit wird eine dynamische Systemarchitektur für die Schaffung hybrider Ökosysteme konzipiert, welche eine flexible und kontextgerechte Konfiguration hybrider Lernräume ermöglichen. Aufgrund der variierenden Definitionen hybrider Lehre und Lernräume sowie der schwachen Abgrenzung zu verwandten Begriffen findet hierfür zunächst eine Konkretisierung eigener Arbeitsdefinitionen statt. Aufbauend auf diesen Begriffsbestimmungen und ausführlichen Literaturrecherchen, werden anschließend sich interdisziplinär überschneidende Kernelemente hybrider Lehre und Lernräume identifiziert sowie in einem Übersichtsmodell zusammengefasst. Durch die Literaturrecherche ersichtliche Charakteristiken des hybriden Paradigmas werden ebenso in
Beziehung gesetzt und zusammenfassend aufgeführt. Auf Basis dieser Übersichten und unter Berücksichtigung weiterer Forschungsergebnisse wird nachfolgend ein Vorgehensmodell kreiert, welches kontextgerechte Designs hybrider Systeme strukturiert ermöglicht. Neben didaktischen, physischen und digitalen Komponenten werden dafür diverse Typen von Lernaktivitäten identifiziert, welche als Ausgangspunkt eine effiziente und praxisorientierte Planung ermöglichen.
Alle erstellten Modelle bilden abschließend die Grundlage der konzipierten Systemarchitektur, in welcher die hybriden Kernkonzepte aus einer technischen Perspektive beleuchtet werden. Das hierdurch repräsentierte Microservice-Websystem beinhaltet neben notwendigen Basis-Services vor allem einen dynamischen Plugin-Mechanismus, welcher die flexible Integration neuer Bestandteile ermöglicht. So kann der Funktionsumfang auf sich wandelnde Anforderungen der Nutzer angepasst werden und die Anwendung mit der Zeit zu einem umfassenden Ökosystem heranwachsen.
The oxidation of cumene and following cleavage of cumene hydroperoxide (CHP) with sulfuric acid (Hock rearrangement) is still, by far, the dominant synthetic route to produce phenol. In 2020, the global phenol market reached a value of 23.3 billion US$ with a projected compound annual growth rate of 3.4% for 2020–2025. From ecological and economical viewpoints, the key step of this process is the cleavage of CHP. One sought-after way to likewise reduce energy consumption and waste production of the process is to substitute sulfuric acid with heterogeneous catalysts. Different types of zeolites, silicon-based clays, heteropoly acids, and ion exchange resins have been investigated and tested in various studies. For every type of these solid acid catalysts, several materials were found that show high yield and selectivity to phenol. In this mini-review, first a brief introduction and overview on the Hock process is given. Next, the mechanism, kinetics, and safety aspects are summarized and discussed. Following, the different types of heterogeneous catalysts and their performance as catalyst in the Hock process are illustrated. Finally, the different approaches to substitute sulfuric acid in the synthetic route to produce phenol are briefly concluded and a short outlook is given.
Hydroxybenzene, commonly known as phenol, is one of the most important organic commodity chemicals. To produce phenol, the cumene process is the most used process worldwide. A crucial step in this process is the Hock rearrangement, which has a major impact on the overall cumene consumption rate and determines the safety level of the process. The most used catalyst for the cleavage of cumene hydroperoxide (CHP) is sulfuric acid. Besides its strong corrosive property, which increases plant investment costs, it also requires neutralization after the decomposition step to prevent side reactions. In this study, we show that high-temperature-treated Linde Type X (LTX) zeolites exhibit a high activity for the peroxide cleavage step. In addition, the structure–activity relationship responsible for this good performance in the reaction system of the HOCK rearrangement was investigated. XRPD analyses revealed the formation of a new phase after temperature treatment above 900 °C. The Si/Al ratio determined by EDX suggested the formation of extra-framework aluminum, which was confirmed by solid-state NMR analysis. The newly formed extra-framework aluminum was found to be responsible for the high catalytic activity. BET analyses showed that the surface area drops at higher calcination temperatures. This leads to a lower catalytic activity for most known reactions. However, for this study, no decrease in activity has been observed. The newfound material shows extraordinarily high activity as a catalyst in the HOCK cleavage and has the potential to be a heterogeneous alternative to sulfuric acid for this reaction.
Die vorliegende Diplomarbeit behandelt die Umsetzung der Datenbankgestützten Web-Applikation IMMOMENT, mit dem Ziel primär anhand der Softwaretechnik aufzuzeigen, in welchen Schritten IMMOMENT nach Anfertigung des Pflichtenheftes umgesetzt wurde. IMMOMENT wurde von der Firma IMMO-DATA AG (Bochum) für die Firma IMMO-CHECK GmbH (Bochum) entwickelt. Ziel war es Sachbearbeitern (z.B. einer Bank) die Möglichkeit zu verschaffen, über ein Immobilien-Objekt schnell und umfassend Informationen in Text und Bild zu bekommen.
Die Kraftwerksunglücke in Fukushima und Tschernobyl gelten wohl gemeinhin als Inbegriff für die Allgegenwärtigkeit der Gefahr eines kerntechnischen Unfalls mit schwerwiegenden Folgen für Mensch und Umwelt sowie einem tiefen Eingriff in die Wirtschaft und das öffentliche Leben. Kernschmelzen können die unterschiedlichsten Ursachen haben. Plötzlich finden physikalische Prozesse statt, die nicht mehr verhindert, sondern allerhöchstens herausgezögert werden können – die Arbeit der Behörden beginnt. Doch was wäre, wenn die Abstimmung zwischen den Entscheidungsträgern zu lange dauert, wenn die Katastrophenschutzpläne lückenhaft sind, eine rechtzeitige Bevölkerungswarnung ausbleibt, die Verkehrsträger mit der Aufnahme von Menschenmassen völlig überfordert sind oder sich die Aufnahmegebiete im Bereich der radioaktiven Wolke befinden?
Die vorliegende Arbeit befasst sich mit eben diesen Themen und zeigt Problematiken im Evakuierungsablauf auf. Im Verlauf der Arbeit wird anhand des Standes der Wissenschaft und Technik sowie Referenzereignissen und zwei Fallbeispielen ein Evakuierungskonzept entwickelt, das neue Denkansätze in bestehende Konzepte einarbeitet. Die genaue Planung und Konzeptionierung von Evakuierungs- und Notfallmaßnahmen stehen daher unter Betrachtung der Unzulänglichkeiten und Defizite beim Krisenmanagement im Mittelpunkt dieser Arbeit. Unter Berücksichtigung der Empfehlungen der Strahlenschutzkommission, der AG Fukushima, des Bundestages sowie des Bundesamtes für Strahlenschutz werden Evakuierungsrouten entwickelt und die Verkehrsträger Straße, Schiene, Schifffahrt und Luftverkehr auf deren Tauglichkeit und Kapazität geprüft. Zudem wird erläutert, wie eine Zusammenarbeit zwischen den Entscheidungsträgern des Landes und der Katastrophenschutzbehörden in Form eines weisungsbefugten bundeseinheitlichen Führungsstabes gestaltet werden kann.
Nicht zuletzt gilt es, den Weg für ein zukünftig funktionierendes Krisenmanagement im Fall eines kerntechnischen Unfalls zu ebnen, eine fundierte internationale und grenzüberschreitende Planungsgrundlage zu bieten und notwendige Maßnahmen der Behörden und Ministerien für eine effektive Gefahrenabwehr und einen funktionsfähigen Evakuierungsablauf aufzuzeigen.
Zivile unbemannte Luftfahrtsysteme in der Akutphase internationaler humanitärer Hilfseinsätze
(2019)
Diese Arbeit konstruiert Einsatzbereiche ziviler unbemannter Luftfahrtsysteme in humanitären Hilfseinsätzen unmittelbar nach einer Katastrophe. Die Auswertung der Schnittmenge der technischen Fähigkeitsanalyse mit der – unter Verwendung von Experteninterviews durchgeführten – operativen Bedarfsanalyse des humanitären Sektors stellt die Basis für die Konstruktion der neun Anwendungsbereiche dar. Abschließend werden diese vor einem technischen, rechtlichen sowie ethischen Hintergrund diskutiert und bewertet.
Die Kriterien zur Nachhaltigkeit werden unter der Abkürzung ESG zusammengefasst und sind somit nicht nur auf den reinen Klimawandel begrenzt. Grundsätzlich versteht man unter sogenannten ESG-Kriterien per Definition einen Standard nachhaltiger Investments in den Bereichen Environment/ Umwelt, Social/ gesellschaftliches Engagement und Governance/ Unternehmensführung. (vgl. Haberstock et al., 2019)
Sowohl Erst- und Rückversicherungsunternehmen als auch Retrozessionspartner und Investoren beziehen bei ihrer Geschäftsentscheidung zunehmend Nachhaltigkeitsaspekte mit ein. Sie achten unter anderem auf die Nachhaltigkeit der Kapitalanlagen und die entsprechenden Entscheidungen im Underwriting oder bewerten das soziale Engagement eines Vertragspartners. Deshalb kann sich ein überzeugendes Nachhaltigkeitsprofil auch sukzessive zu einem Wettbewerbsvorteil entwickeln.
Das Kerngeschäft der Rückversicherungsbranche wird immer wieder von neuartigen Risiken und globalen Herausforderungen geprägt.
Eine ESG-konforme Geschäftsausrichtung und eine entsprechende Anpassung im Underwriting stellt den Rückversicherungs- und Retrozessionsmarkt vor neue Herausforderungen, da gewisse ESG-Kriterien eine Hürde für fortlaufende Geschäftstätigkeiten im Underwriting darstellen.
Die Umsetzung einer ESG-konformen Geschäftsausrichtung in der Retrozession geht einher mit der Rekalibrierung des Risikoappetits und mit der Aufnahme von einheitlichen zukünftigen ESG-Ratings, die sowohl zu Vorteilen als auch Nachteilen in der Wettbewerbsfähigkeit führen können.
Vergleicht man die ESG-Faktoren zwischen Retrozedenten und Retrozessionären lässt sich feststellen, dass die ESG-Faktoren für Retrozedenten bei der Kapazitätssuche wichtig sind. Hingegen die Faktoren beim Kapazitätsangebot für Retrozessionäre weniger wichtig sind. Diese Erkenntnis wird dadurch begründet, dass sich Retrozedenten bereits im vorgelagerten Underwriting der eingehenden Risiken mit den ESG-Kriterien beschäftigen müssen und dadurch bereits einen besseren Überblick über diese Faktoren haben. Zudem müssen sich die Retrozedenten im Detail mit den möglichen Retrozessionären und deren ESG-Strategie beschäftigen, damit die ESG-konforme Geschäftsausrichtung gewahrt wird.
Eine ESG-konforme Geschäftsausrichtung und die Berücksichtigung der ESG-Risiken führt zwangsläufig zu einer Anpassung der Geschäftsstrategie, der internen Aufsichtsstrukturen, des Risikomanagements und zu einer Änderung des Pricings von Retrozessionsrisiken.
Today, IT infrastructure represents the central nervous system of every company. Many of the activities of our daily lives are handled via the Internet. There is a lack of an adequately sustainable awareness of the cyber risks to which companies are exposed due to advanced digital networking. This is partly due to the fact that the danger of so-called ‘cyber attacks’ is only partially palpable to many, with attacks going unnoticed in some cases. As a result of major incidents, such as WannaCry and Petya in 2017, or Emotet in 2019, awareness of these risks should be keen, and yet vulnerability remains high due to the often insufficient protections against cyber crime.
Die Gefahr „Cyber“ wird in der Erst- und Rückversicherungswirtschaft als Wachstumssparte weltweit angesehen und entwickelt sich seit den letzten fünf Jahren dynamischer als jede andere Gefahr. Dieses wichtige Thema beschäftigt sowohl Erst- und Rückversicherungsunternehmen
in allen Bereichen. Mit Hilfe von Serviceleistungen (zum Beispiel mit Präventionen, risikogerechten Pricing-Modellen und Schadenbearbeitungen) bietet sich für die
Rückversicherungswirtschaft ein weltweiter Wachstumsmarkt. Die Komplexität der Cyber Gefahr und die sich entwickelnde Natur des Risikos bringen vielfältige Herausforderungen bei der Gestaltung von Versicherungsprodukten, beim Underwriting, beim Risikomanagement und bei der Kumulkontrolle mit sich - sowohl für Erst- als auch Rückversicherungsgesellschaften. Eine korrekte Cyber-Risikobewertung ist daher unabdingbar
und der richtige Ansatz muss stets weiterentwickelt werden. Insbesondere die Vielfältigkeit eines Cyber Events ist hierbei zu berücksichtigen. So können für Erst- und Rückversicherungsunternehmen nicht nur Kosten für Datenverluste entstehen, sondern auch Kosten für Rekonstruktionen der IT-Infrastruktur, Kosten für Netzwerk- und Betriebsunterbrechungen, Kosten für das Krisenmanagement, Kosten für das Reputationsrisiko, als auch Kosten für Haftpflichtansprüche Dritter.
The ‘cyber’ threat is regarded as a growth area in the
primary and reinsurance sectors worldwide and for the past five years has been developing more dynamically than any other hazard. This major topic concerns both primary and reinsurance companies in all areas, whether in property, liability, transport or accident insurance. Services (prevention, risk-based pricing models and claims processing, for example) present a global growth market for the reinsurance industry. The complexity of the cyber threat and the evolving nature of the risk involved present a host of challenges for the design of insurance products, for underwriting, for risk management and for cumulative control – for both primary and reinsurance companies. Correct assessment of cyber risk is therefore indispensable, and the right approach must always be developed further. Special attention needs to be given to the variety of forms a cyber event can take. Thus, primary and reinsurance companies can incur not only the costs of data loss, but also the costs of
reconstructing IT infrastructure, the costs of network and business interruptions, costs of crisis management, costs of reputational risk, and the costs of third-party liability claims.
Die Kriterien zur Nachhaltigkeit werden unter der Abkürzung ESG zusammengefasst und sind somit nicht nur auf den reinen Klimawandel begrenzt. Grundsätzlich versteht man unter sogenannten ESG-Kriterien per Definition einen Standard nachhaltiger Investments in den Bereichen Environment/ Umwelt, Social/ gesellschaftliches Engagement und Governance/ Unternehmensführung. (vgl. Haberstock et al., 2019)
Sowohl Erst- und Rückversicherungsunternehmen als auch Retrozessionspartner und Investoren beziehen bei ihrer Geschäftsentscheidung zunehmend Nachhaltigkeitsaspekte mit ein. Sie achten unter anderem auf die Nachhaltigkeit der Kapitalanlagen und die entsprechenden Entscheidungen im Underwriting oder bewerten das soziale Engagement eines Vertragspartners. Deshalb kann sich ein überzeugendes Nachhaltigkeitsprofil auch sukzessive zu einem Wettbewerbsvorteil entwickeln.
Das Kerngeschäft der Rückversicherungsbranche wird immer wieder von neuartigen Risiken und globalen Herausforderungen geprägt.
Eine ESG-konforme Geschäftsausrichtung und eine entsprechende Anpassung im Underwriting stellt den Rückversicherungs- und Retrozessionsmarkt vor neue Herausforderungen, da gewisse ESG-Kriterien eine Hürde für fortlaufende Geschäftstätigkeiten im Underwriting darstellen.
Die Umsetzung einer ESG-konformen Geschäftsausrichtung in der Retrozession geht einher mit der Rekalibrierung des Risikoappetits und mit der Aufnahme von einheitlichen zukünftigen ESG-Ratings, die sowohl zu Vorteilen als auch Nachteilen in der Wettbewerbsfähigkeit führen können.
Vergleicht man die ESG-Faktoren zwischen Retrozedenten und Retrozessionären lässt sich feststellen, dass die ESG-Faktoren für Retrozedenten bei der Kapazitätssuche wichtig sind. Hingegen die Faktoren beim Kapazitätsangebot für Retrozessionäre weniger wichtig sind. Diese Erkenntnis wird dadurch begründet, dass sich Retrozedenten bereits im vorgelagerten Underwriting der eingehenden Risiken mit den ESG-Kriterien beschäftigen müssen und dadurch bereits einen besseren Überblick über diese Faktoren haben. Zudem müssen sich die Retrozedenten im Detail mit den möglichen Retrozessionären und deren ESG-Strategie beschäftigen, damit die ESG-konforme Geschäftsausrichtung gewahrt wird.
Eine ESG-konforme Geschäftsausrichtung und die Berücksichtigung der ESG-Risiken führt zwangsläufig zu einer Anpassung der Geschäftsstrategie, der internen Aufsichtsstrukturen, des Risikomanagements und zu einer Änderung des Pricings von Retrozessionsrisiken.
Die Forschungsarbeit untersucht den sich verhärtenden Rückversicherungsmarkt und die Relevanz von Captives für Industrieunternehmen. Angesichts von Marktveränderungen wie steigender Inflation, Währungsschwankungen und höheren Schadensbelastungen überdenken Unternehmen ihre Risikomanagementansätze. Captives, insbesondere für mittelständische Unternehmen, gewinnen an Bedeutung. Sie bieten direkten Zugang zum Rückversicherungsmarkt, Unabhängigkeit und flexible Gestaltungsmöglichkeiten. Trotz Vorteilen wie optimierten Deckungsstrukturen und Umgehung von Marktveränderungen existieren Herausforderungen, darunter Kapitalanforderungen und Betriebskosten. Der Trend zu neuen Captives im harten Rückversicherungsmarkt ist nicht eindeutig, aber sie bleiben eine innovative Lösung für das betriebliche Risikomanagement. Traditionelle Rückversicherer bleiben entscheidend für die Branchenstabilität.
Die Komplexität der Cybergefahr und die sich entwickelnde Natur des Risikos bringen vielfältige Herausforderungen bei der Gestaltung von Versicherungs-produkten, beim Underwriting, beim Risikomanagement und bei der Kumul-kontrolle mit sich - sowohl für Erst- als auch Rückversicherungsgesellschaften. Eine korrekte Cyberrisikobewertung ist daher unabdingbar und der richtige Ansatz muss stets weiterentwickelt werden. Insbesondere die Vielfältigkeit eines Cyberevents ist hierbei zu berücksichtigen.
In der Cyberversicherung liefert die Vergangenheit keine zuverlässigen Indizien für die Wahrscheinlichkeit eines Schadens; Risiken müssen mit aufwändigen Modellrechnungen simuliert werden. Für die Bewertung von Cyberrisiken könnte die künstliche Intelligenz (KI) von Vorteil sein, um Muster und Wahrscheinlichkeiten im Bereich des Risikotransfers einfacher und effizienter zu analysieren. Einen alternativen Lösungsansatz könnten parametrische Rückversicherungslösungen als Ergänzung zur klassischen Versicherung liefern. So kann eine parametrische Cyberdeckung mit einem definierten Trigger (z.B. mit Hilfe der DSGVO als Trigger) als Auslöser für Schadenzahlungen angeboten werden.
Für eine ausreichende Versicherbarkeit von kleinen und mittelständischen Unternehmen, als auch für größere Industrielösungen könnte eine Risk Pooling Facility geschaffen werden, in welcher sich der traditionelle Rückversiche-rungsmarkt zusammen mit den Insurance Linked Securities Markt die Schadenbelastung teilen. Durch Unterstützung der künstlichen Intelligenz und durch parametrische Trigger (z.B. durch die DSGVO) könnten Schadenverläufe effizienter und zielgerichteter erfolgen.
Durch parametrische Cyberdeckungen könnten Transparenzprobleme bei der Schadenabwicklung verhindert und aufwendige Prüfungen der Rückversicherer reduziert werden. Zudem könnte mit Hilfe einer möglichen KI-Strategie die Bewertungen von Cyberrisiken vereinfacht und effizienter gestaltet werden. Parametrische Cyberlösungen können auch für alternatives Kapital interessant sein, denn auch im NatCat-Bereich sind Vehikel mit solchen Trigger-Lösungen verbreitet.
Statistische Analyse ausgewählter sozioökonomischer Daten in Bezug auf Krankenhausaufenthalte
(2018)
In der vorliegenden Arbeit werden Zusammenhänge zwischen bestimmten sozioökonomischen Merkmalen und Krankenhausaufenthalten behandelt. Hierzu wird zunächst anhand von Sekundärliteratur gezeigt, welche gesundheitsbeinflussenden Faktoren in Deutschland relevant sind und was häufige Ursachen für Krankheiten bzw. Krankenhausaufenthalte sind. Im Zuge dessen wird außerdem kurz auf die Tarifmerkmale der privaten Krankenversicherung sowie auf deren Einfluss auf die Prämienkalkulation eingegangen.
Daraufhin werden Daten des Sozio-oekonomischen Panels (SOEP) des Deutschen Instituts für Wirtschaftsforschung untersucht. Dabei werden einerseits einzelne Merkmale und deren Entwicklung im Laufe der Jahre sowie die Verteilung ausgewählter Merkmale auf bestimmte Personengruppen beobachtet. Andererseits werden auch Korrelationen zwischen bestimmten Merkmalen und Hospitalisierungswahrscheinlichkeiten untersucht.
Den Schwerpunkt dieser Arbeit stellen zwei Klassifikationsmethoden, die lineare und die logitische Regressionsanalyse, dar. Zu diesen werden mathematische Grundlagen dargelegt, um sie daraufhin mithilfe des Programms R auf zuvor selektierte Datensätze anzuwenden. Dadurch werden jeweils Hospitalisierungswahrscheinlichkeiten ermittelt. Abschließend wird ein Bezug zur Versicherungswirtschaft hergestellt und unter anderem untersucht, ob solch eine statistische Analyse für einen Versicherer infrage kommt und welche Herausforderungen und Chancen dies mit sich bringt.
Die neusten Fortschritte im Bereich Real Time Rendering ermög-lichen virtuelle Produktionsabläufe in weiten Teilen der Industrie. Diese Vorgehensweise setzt latenzfreies Arbeiten und eine akkurate Erscheinung voraus. Daher empfiehlt sich die Verwendung von HDR-Rendering für fotorealistische Ergebnisse und Tone Mapping für die passende Darstellung.
Gleichwohl gibt es bisher nur wenige Publikationen, die sich mit echtzeitfähigem Tone Mapping beschäftigen. Zudem tendieren Tone Mapping Operatoren dazu, Farberscheinungseffekte zu erzeugen, die zu einer Diskrepanz zwischen dargestelltem und realem Produkt führen.
Deshalb werden in dieser Thesis sieben Tone Mapping Operatoren bewertet, die unterschiedliche Ansätze zur Farbkorrektur beinhalten. Sie werden als Fragment Shader implementiert, um Echtzeitverarbeitung zu realisieren. Zusätzlich wird ihre Performance und die subjektive Akkuratesse der Ergebnisse gemessen.
Im Ergebnis schneidet der FilmicTMO als global arbeitender Sigmoid-Operator am besten ab und wird für die weitere Verwendung empfohlen.
Virtuelle Realität ist ein interessantes Gebiet dessen Entwicklung schon seit vielen Jahren vorangetrieben wird. Die neuen Möglichkeiten die sich aufgrund technischer Fortschritte daraus ergeben, sind umwerfend und finden in vielen Bereichen Verwendung. Doch das Potential der VR ist noch viel größer. Dazu passt es auch, das im Laufe der Jahre die Computer immer mehr Einzug in das Leben der Menschen nahmen. Gab es früher noch riesige Geräte, die mit Lochkarten arbeiteten und kaum aufwendige Aufgaben bewältigen konnten, so gibt es heute erheblich schnellere und kleinere Systeme, die zudem auch noch viel leistungsfähiger sind. Von den drastisch gesunkenen Kosten mal ganz abgesehen. Folglich findet auch die breite Öffentlichkeit Zugang zu leistungsfähigen Computersystemen, wodurch bei immer mehr Menschen das Interesse an Virtual Reality geweckt wird. Es ist ein enormer Markt und die Technologie hält immer wieder Einzug in neue Bereiche und ist aus manchen gar nicht mehr hinauszudenken.
Der vorliegende Bericht ist das Ergebnis einer Projektarbeit von Studierenden am Institut für Informationswissenschaft der Fachhochschule Köln im Studiengang Bibliothekswesen. Im Rahmen dieser Arbeit untersuchten sieben Studierende während des Sommersemesters 2011 die bibliothekarische Auskunft anhand eines zu diesem Zwecke erstellten Kriterienkatalogs. Die sieben Studierenden testeten die Bibliotheken über vier verschiedene Auskunftskanäle (Chat, Persönliche Auskunft, Telefonische Auskunft und Webformular/E-Mail-Auskunft). Zuerst werden der Kriterienkatalog und dessen Anforderungen sowie der Bewertungsbogen für die Tests vorgestellt. Im folgenden Kapitel steht die Erarbeitung der Testfragen, die zur Bewertung des Auskunftsprozesses gestellt wurden, im Fokus. Es wird eine quantitative Übersicht aller Fragen pro Auskunftskanal und Bibliothekstyp gegeben. Anschließend werden die gestellten Testfragen aufgelistet und erläutert. Zudem werden die Erfahrungen des Pretests sowie die Testphase erläutert. Im nächsten Kapitel erfolgt die Auswertung der gesamten Untersuchung. Die Analysen und Ergebnisse werden jeweils durch Torten- oder Säulendiagramme visualisiert. Fazit und Ausblick runden die Ergebnispräsentation ab. Im Anhang befinden sich eine Auflistung der Auskunftstypen und Bibliothekstypen, das zu Grunde liegende Notenschema, die Auswertungsbögen sowie zwei Erfahrungsberichte der Auskunft jeder Studierenden.
Anaerobic Digestion of spent grains: Potential use in small-scale Biogas Digesters in Jos, Nigeria
(2014)
In order to ascertain biogas yield potential and applicability of spent grains (SG)1 in small-scale biogas production, laboratory batch fermentation was performed with various masses of dry and wet SG using sewage sludge (SS)2 and digested maize silage (DMs) 3 as inoculums. Different volumes of biogas and CH4 were measured with higher volumes observed for batch fermentation with DMs in com-parison to those produced by SS. Results from the study reveals minimum biogas yield of 118.10 L/kg
VS and maximum yields of 769.46 L/kg VS, which are indicative of the possible use of SG for domestic biogas production in Jos, Nigeria. The study established the fact that the use of both dry and wet SG results in the yield of a useful amount of biogas having 40 - 60 % CH4 content depending on the inoculum and amount of volatile solids present. Using the parameters of dry matter and volatile solids contents analysed for SG and DMs, it was estimated that a reactor volume of 6.47 m3 would be capable of meeting the daily cooking needs of rural households in Jos, Nigeria.
Smartphones und die Nutzung von mobilen Anwendungen gewinnen aufgrund der stetig voranschreitenden Digitalisierung weiter an Relevanz. Im April 2022 lag die Zahl der genutzten mobilen Endgeräte bei knapp 6 Milliarden, wobei die Hersteller Apple
und Google einen Marktanteil von knapp 99 % einnehmen. Um als Entwickler eine möglichst große Zielgruppe anzusprechen, ist es daher wichtig, die eigene Anwendung auf möglichst vielen Plattformen zur Verfugung stellen zu können. Die native Entwicklung ist einer der am meist verbreitetste Entwicklungsansatz für mobile Anwendungen. Dort werden plattformspezifische Tools sowie native Programmiersprachen verwendet. Hierbei ergeben sich allerdings diverse Herausforderungen für Entwickler entlang des gesamten Entwicklungsprozesses. Neben der nativen Entwicklung existiert der Ansatz von Cross-Plattform. Hierbei handelt es sich um einen Sammelbegriff für verschiedene Ansätze, welche das Ziel verfolgen eine Anwendung durch die Nutzung einer einheitlichen Codebasis auf mehreren Plattformen zur Verfugung zu stellen. Einer dieser Unteransätze ist
Backend-Driven UI, worin die gesamte Anwendung innerhalb eines strukturierten Datenformats beschrieben und serverseitig verwaltet wird. Der Client kann diese Daten dann dynamisch anfragen und zur Laufzeit in native UI überführen. Das Konzept von Backend-Driven UI wird bereits durch Unternehmen wie Airbnb oder SiriusXM eingesetzt, ist hier allerdings stark auf anwendungsbezogene Prozesse zugeschnitten. Es bedarf daher eines Backend-Driven UI Frameworks, welches es Entwicklern ermöglichen soll, mobile Anwendungen, ohne anwendungsspezifische Einschränkungen plattformübergreifend zu entwickeln. Im Rahmen dieser Arbeit wurde daher zunächst eine plattformunabhängige und erweiterbare Architektur eines solchen Frameworks entwickelt und in Form eines ersten Prototyps auf ihre Umsetzbarkeit geprüft. Insgesamt stellt der Prototyp eine mögliche Umsetzung von Backend-Driven UI dar und ist in der Lage erste Anwendungsszenarien abzudecken. Es konnten dennoch Bereiche ermittelt werden, welche im Zuge zukünftiger Entwicklung ausgebaut werden können. Dazu zählt unter anderem das Umsetzen von serverseitig bestimmter Anwendungslogik sowie der Umgang mit Unterschieden im plattformspezifischen Funktionsumfang.
Dieser Bericht stellt die Ergebnisse einer Expertenbefragung zu dem Themenkomplex "Kindeswohl in Suchtfamilien" dar. Es wurden mit Hilfe eines standardisierten Interviewleitfadens 5 Experten aus der Suchtkrankenhilfe, dem Gesundheitswesen sowie der Kinder- und Jugendhilfe hinsichtlich ihrer Erfahrungen und Vorgehensweise mit einer möglichen Kindeswohlgefährdung in suchtbelasteten Familien befragt. Die Ergebnisse zeigen, dass eine mögliche Kindeswohlgefährdung durch die Fachkräfte teilweise nur sehr schwer zu erfassen ist und ein Aus- und Fortbildungsbedarf bei den Mitarbeitern besteht.
In der Informationsgesellschaft zeigt sich das Berufsfeld des Informationswirtes als erfolgversprechende Tätigkeit mit guten bis sehr guten Beschäftigungschancen. Kern der Arbeit sind zwei empirische Untersuchungen zum Beruf und Arbeitsmarkt für Informationswirte in Deutschland. Eine erste Befragung richtet sich an Informationsfachleute, eine zweite Befragung - durchgeführt vom ifo Institut für Wirtschaftsforschung - an Manager der deutschen Industrie. In mittelfristiger Perspektive haben Informationswirte in der deutschen Industrie gute, im Dienstleistungssektor sehr gute Arbeitsplatzchancen. Gefragt ist ein Fachwissen, das sich aus Informationswissenschaft, Dokumentation, Betriebswirtschaftslehre, Informatik sowie aus Fremdsprachenkenntnissen zusammensetzt.
Web browsers use HTTP caches to reduce the amount of data to be transferred over the network and allow Web pages to load faster. Content such as scripts, images, and style sheets, which are static most of the time or shared across multiple websites, are stored and loaded locally when recurring requests ask for cached resources. This behaviour can be exploited if the cache is based on a naive implementation. This paper summarises possible attacks on the browser cache and shows through extensive experiments that even modern web browsers still do not provide enough safeguards to protect their users. Moreover, the available built-in as well as addable cache controls offer rather limited functionality in terms of protection and ease of use. Due to the volatile and inhomogeneous APIs for controlling the cache in modern browsers, the development of enhanced user-centric cache controls remains -until further notice- in the hands of browser manufacturers.
Diese Arbeit untersucht verschiedene Ansätze, Daten im Google Cloud Firestore zu strukturieren und deren Auswirkungen auf Kosten, Performance sowie Codequalität. Zunächst folgt eine Aufbereitung des aktuellen Stands der Forschung. Darauf folgt die experimentelle Methodik. Hier dient eine prototypische Implementierung der Szenarien als Grundlage. Im Zuge des Experiments werden in unterschiedlichen Disziplinen Daten erhoben und im Anschluss ausgewertet, um empfehlenswerte Lösungen für definierte Anwendungsfälle zu benennen. Am Ende gibt die Arbeit ein kurzes Fazit zu den gewonnenen Erkenntnissen sowie einen Ausblick auf weitere Optimierungspotenziale ab.
Das Projekt Management Audit wurde im Rahmen des Studiengangs Informationswirtschaft der Fachhochschule Köln durchgeführt und über zwei Semester lang (SS 2003; WS 2003/2004) von einer Gruppe von Studenten bearbeitet. Das angestrebte Projektziel beinhaltet Recherche, Auswertung der Recherche und eine daraus folgende eigene Konzeption. Des Weiteren sind Konferenzen, die über das Thema Management Audit stattfinden, ein Anreiz gewesen, über diese Thematik im Projektteam zu reden. Außerdem ermöglicht die erstellte Konzeption Interessierten, sich über dieses Thema zu informieren und es werden Vorschläge bzw. Anreize für ein Management Audit Verfahren in der Praxis gegeben.
Das vorliegende Praxis Paper ist in zwei Bereiche aufgeteilt. Zunächst wird der Prozess zur Veröffentlichung eines Buchs über Amazon dargestellt, während im zweiten Teil Erkenntnisse über die allgemeinen Grundlagen des erfolgreichen Verkaufs auf Amazon zusammengefasst werden. Es basiert auf der Bachelorarbeit von Herrn Christian Dam-bach, die von Juli 2020 bis Oktober 2020 von Prof. Dr. Monika Engelen betreut wurde.
Nach der Darstellung des Veröffentlichungsprozesses werden im weiteren Verlauf die Möglichkeiten der Suchmaschinenoptimierung auf der Produktseite gezeigt und die Suchmaschinenwerbung über Amazon Marketing Services (AMS) vorgestellt. Neben dem Controlling des Verkaufsverlaufs und des Kampagnenverlaufs, wird zunächst die Einrichtung einer Werbeanzeige erläutert und anschließend die verschiedenen Möglich-keiten der Optimierung dargestellt. Daraus werden dann allgemeine Erfolgsfaktoren für den Verkauf auf Amazon abgeleitet, die, über das Fallbeispiel hinaus, auf jegliche ange-botenen Produkte anwendbar sind.
In der vorliegenden Arbeit werden zwei Environment-Shader entwickelt, einer für die Software Maya, der zweite für die im WDR Köln genutzte Grafiksoftware 3Designer. Zur Entwicklung wird der Worflow zur Erstellung virtueller Szenenbilder im WDR Köln berücksichtigt. Dafür wird der Workflow vorgestellt und die Umsetzung in den Shader detailliert erläutert. Als Ergebnis liegt für jedes Programm ein Shader vor, der bewirkt, dass die Reflexion einer Umgebung, die als Kugel vorliegt, auf dem jeweiligen Objekt erkennbar ist.
How Digital Strategy and Management Games Can Facilitate the Practice of Dynamic Decision-Making
(2020)
This paper examines how digital strategy and management games that have been initially designed for entertainment can facilitate the practice of dynamic decision-making. Based on a comparative qualitative analysis of 17 games—organized into categories derived from a conceptual model of decision-making design—this article illustrates two ways in which these games may be useful in supporting the learning of dynamic decision-making in educational practice:
(1) Players must take over the role of a decider and solve situations in which players must pursue different conflicting goals by making a continuous series of decisions on a variety of actions and measures; (2) three of the features of the games are considered to structure players’ practice of decision-making and foster processes of learning through the curation of possible decisions, the offering of lucid feedback and the modification of time. This article also highlights the games’ shortcomings, from an educational perspective, as players’ decisions are restricted by the numbers of choices they can make within the game, and certain choices are rewarded more than others. An educational application of the games must, therefore, entail a critical reflection of players’ limited choices inside a necessarily biased system.
Die Diplomarbeit entstand in Zusammenarbeit mit der Firma Pferd Rüggeberg. Die Grundlage kam von der Marketingabteilung, die eine Mutlimediadatenbank (MMDB) erstellen wollte. Die Daten der MMDB sollten zur Grundlage eines Produktkataloges auf CD-Rom, Internet und als Druckvorstufe dienen. Der erste Gedanke war die Erstellung einer völlig unabhängigen Datenbank auf der Basis von ORACLE. Da in der Firma jedoch SAP/R3 eingeführt wurde, kam nach einem Gespräch mit der EDV-Abteilung heraus, daß der Produktkatalog auf der Basis von SAP erstellt werden soll. Ziel der Arbeit ist es, mit den Möglichkeiten die durch SAP gegeben sind, einen Produktkatalog im Internet darzustellen. Die Realisation und die Werkzeuge die vorgestellt werden, befinden sich in der Version SAP 3.1 g.
Based on the idea of sustainable development, the BioTrade principles and criteria (P&C), based on the idea of sustainable development, have been the essential core guiding the implementation of BioTrade activities since their inception by UNCTAD in 2007. However, after identifying that BioTrade of medicinal plants causes negative impacts on the traditional knowledge related to these plants, the P&C were evaluated in light of the most relevant international agreements that contribute to the safeguarding of this knowledge. The result obtained from the assessment showed that the P&C present many gaps that prevent evaluating the real impact of trade on the traditional knowledge of medicinal plants in Indigenous and local communities. Therefore, in the same framework of the current P&C, the main recommendations contained in the international agreements and the suggestions of specialists in the field have been gathered to create a BioTrade standard that contributes to safeguarding traditional medicinal plant knowledge within a commercial context in any BioTrade initiative where the commercialized product is a sacred or native plant with traditional and cultural value for a community.
Located in the Urubamba mountain range, the Chicón glacier is the third highest tropical glacier of this area and the source of water for the Chicón watershed. Moreover, from this watershed four communities obtain water for human consumption and agriculture, which is their main economic activity. In the last years glacier retreat is evident in the area and threatens the livelihoods of the people because it affects the availability of fresh water.
The general objective of this research is to analyse the perception of people living in this watershed to climate change, disaster risk, and ecosystem-based solutions. The specific objectives are to identify natural hazards and climate change effects in the community, to recognise potential ecosystem services suitable for Ecosystem-based Adaptation (EbA) and Ecosystem-based Disaster Risk Reduction (Eco-DRR), and to assess to which climate change effects and disasters the communities are vulnerable based on their own perception. The methodological steps are based on literature review, expert interviews, questionnaires to the community, a workshop and field observations.
The results show that people perceive changes in the climate such as increase in temperature, less precipitation and shifts of the rainy and the dry season. The climate-related disasters that were identified are Glacier Lake Outburst Flood (GLOF), droughts, frosts and hailstorms. However, GLOFs are not frequent in the area and drought is the hazard that people consider will be more frequent. Additionally, pests were identified as biological hazards. Several ecosystems services can be obtained for EbA and Eco-DRR from forests, especially if native trees such as Qiwiña (Polylepis spp.), Chachacoma (Escallonia resinosa) and Aliso (Alnus jorullensis) are used in ecosystem management. Finally, the hypothesis was partially accepted since people in the study area are to some extent aware of climate change impacts, but only partially understand causes and effects. Further, they recognize most of the ecosystem services that forests provide. Therefore they are starting to implement ecosystem-based solutions in the watershed with the support of external institutions.
Um diesen Mangel an Daten zu Cyber-Risiken entgegenzuwirken und um den Status Quo der Datenverfügbarkeit von Cyber-Risiken zu überprüfen, wurde um Rahmen dieser Forschung eine systematische Übersicht angefertigt, um Stakeholder von Cyber-Risiken
eine Datenbank von öffentlich zugänglichen Daten zu Cyber-Risiken und Cybersecurity zur Verfügung zu stellen. Im Fokus dieser Untersuchung standen Datensätze, welche in der akademischen Literatur verwendet wurden.
To compensate the shortage of cyber risk data and offer some indication of the status quo on the data available on cyber risks, the researchers prepared a systematic overview to offer cyber risk stakeholders a database of publicly accessible data on cyber risks and cybersecurity. The study focussed on the data sets used in the academic literature.
Die Bedeutung von Cyber-Versicherungen als Instrument zur finanziellen Absicherung, um die zunehmenden Unternehmensverluste durch Cyber-Risiken abzumildern, nimmt zu. Es mangelt jedoch an standardisierten Wordings und gegenseitigem Verständnis bei Cyberversicherungs-Policen. Mit weniger als einem Drittel der 2017 in den USA ausgezahlten Cyberversicherungsansprüche besteht eine erhebliche Lücke zwischen den Cyber-Risiken, die Unternehmen abdecken müssen, und denen, die tatsächlich durch ihre Cyberversicherungspolicen abgedeckt sind. Im Jahre 2018 wurde von Lloyds of London eine Schätzung mithilfe von Szenario-basierten Modellen durchgeführt, um zu ermitteln, wie groß die Versicherungsschutzlücke im Hinblick auf Cyber-Risiken ist. Man ist dabei zu dem Ergebnis gekommen, dass die Versicherungsschutzlücke ungefähr 90 % beträgt. Der Begriff bezeichnet die Differenz zwischen dem Versicherungsschutz, welcher ökonomisch benötigt wird und dem tatsächlich gekauften.
Diese Forschung befasste sich mit den deutschen Cyber-Versicherern, welche Cyber-Schutz für kleine und mittelständische Unternehmen (KMU) anbieten. Im Rahmen dieser Forschung wurden nur die Ausschlüsse von Cyber-Versicherungen betrachtet. Zusätzliche erweiterbare oder kostenpflichtige Einschlüsse wurden nicht berücksichtigt. Als Grundlage für die Forschung wurde ein Datensatz erstellt, welcher auf Informationen der BaFin basiert. Durch mehrere Segmentierungsstufen wurden 50 Cyber-Versicherer ermittelt, welche Cyber-Schutz für KMUs angeboten haben. Von diesen 50 Cyber-Versicherern konnten 41 Cyber-Bedingungswerke für das Forschungsprojekt herangezogen werden. Im Rahmen der Forschung wurden nun die Bedingungswerke mittels einer induktiven qualitativen Inhaltsanalyse auf die bestehenden Ausschlüsse analysiert. Die Ergebnisse wurden kategorisiert und beschrieben. Innerhalb der Analyse konnten 15 Ausschlusskategorien sowie deren Häufigkeiten in den Cyber-Bedingungen ermittelt werden. Diese Ergebnisse können dazu beitragen, dass Unternehmen eine Vorstellung davon erhalten, was nicht in den Cyber-Versicherungen enthalten sein könnte. Zudem liefern die Beschreibungen eine Informationsgrundlage und tragen so dazu bei, dass der Versicherungsschutz bzw. die Ausschlüsse besser verstanden werden.
Die Bedeutung von Cyber-Versicherungen als Instrument zur finanziellen Absicherung, um die zunehmenden Unternehmensverluste durch Cyber-Risiken abzumildern, nimmt zu. Es mangelt jedoch an standardisierten Wordings und gegenseitigem Verständnis bei Cyberversicherungs-Policen. Mit weniger als einem Drittel der 2017 in den USA ausgezahlten Cyberversicherungsansprüche besteht eine erhebliche Lücke zwischen den Cyber-Risiken, die Unternehmen abdecken müssen, und denen, die tatsächlich durch ihre Cyberversicherungspolicen abgedeckt sind. Im Jahre 2018 wurde von Lloyds of London eine Schätzung mithilfe von Szenario-basierten Modellen durchgeführt, um zu ermitteln, wie groß die Versicherungsschutzlücke im Hinblick auf Cyber-Risiken ist. Man ist dabei zu dem Ergebnis gekommen, dass die Versicherungsschutzlücke ungefähr 90 % beträgt. Der Begriff bezeichnet die Differenz zwischen dem Versicherungsschutz, welcher ökonomisch benötigt wird und dem tatsächlich gekauften.
Diese Forschung befasste sich mit den deutschen Cyber-Versicherern, welche Cyber-Schutz für kleine und mittelständische Unternehmen (KMU) anbieten. Im Rahmen dieser Forschung wurden nur die Ausschlüsse von Cyber-Versicherungen betrachtet. Zusätzliche erweiterbare oder kostenpflichtige Einschlüsse wurden nicht berücksichtigt. Als Grundlage für die Forschung wurde ein Datensatz erstellt, welcher auf Informationen der BaFin basiert. Durch mehrere Segmentierungsstufen wurden 50 Cyber-Versicherer ermittelt, welche Cyber-Schutz für KMUs angeboten haben. Von diesen 50 Cyber-Versicherern konnten 41 Cyber-Bedingungswerke für das Forschungsprojekt herangezogen werden. Im Rahmen der Forschung wurden nun die Bedingungswerke mittels einer induktiven qualitativen Inhaltsanalyse auf die bestehenden Ausschlüsse analysiert. Die Ergebnisse wurden kategorisiert und beschrieben. Innerhalb der Analyse konnten 15 Ausschlusskategorien sowie deren Häufigkeiten in den Cyber-Bedingungen ermittelt werden. Diese Ergebnisse können dazu beitragen, dass Unternehmen eine Vorstellung davon erhalten, was nicht in den Cyber-Versicherungen enthalten sein könnte. Zudem liefern die Beschreibungen eine Informationsgrundlage und tragen so dazu bei, dass der Versicherungsschutz bzw. die Ausschlüsse besser verstanden werden.
Cyber-Risiken, vor allem in Form von Cyber-Kriegsführung und staatlich unterstützten Angriffen, stellen eine große Herausforderung dar. Im Kontext der Versicherung, sollen solche Risiken über Kriegsklausel ausgeschlossen werden. Derzeit gibt es unterschiedliche Herausforderungen wie fehlende klare rechtliche Regelungen, die Unsicherheiten für Versicherer und Versichert darstellen. Die Interviews mit Branchenvertretern zeigen unterschiedliche Meinungen darüber, wie die Versicherungswirtschaft Cyber-Kriegsrisiken wahrnimmt und damit umgeht. Trotz der sich ständig ändernden Natur dieser Bedrohungen besteht weiterhin Bedarf an Forschung und Datenerfassung, um eine gut durchdachte Versicherungslösung zu entwickeln.
Due to their unpredictable nature and sweeping impacts make cyber risks, including cyber warfare and state-sponsored cyber-attacks, present a considerable challenge to many areas of our daily lives. In today’s connected world, the threat of cyber risk is omnipresent. Cyber warfare and state-sponsored cyber-attacks are of particular concern, as they are initiated or supported by governments or state actors. Often, the purpose of such attacks is to compromise critical infrastructure, government systems, businesses, or citizens’ privacy. The impacts can be devastating. They range from financial losses for businesses to theft of intellectual property, disruptions of public order and threats to national security.
Analytisches Berechnungsmodell ohne empirische Exponentenansätze : Rauchentwicklung bei Bränden
(2002)
Es wird ein analytisches Berechnungsmodell zur Rauchentwicklung über einem Brandherd vorgestellt, das auf der Annahme der Wärme- und Impulserhaltung in der aufsteigenden Rauchsäule basiert, sowie der Kenntnis des Ausbreitungswinkels. Beobachtungen zufolge beträgt der halbe Ausbreitungswinkel etwa 7° bis 8°. Ein Vorteil des Modells gegenüber anderen, meist empirischen "PLume-Formeln" liegt darin, dass erstmals die drei wichtigsten Einflussparameter der Brandrauchausbreitung (Wärmefreisetzungsrate, Brandfläche, Raumhöhe) gemeinsam berücksichtigt werden und es keine versuchsbedingten Gültigkeitsgrenzen gibt.
In dieser Bachelorarbeit wird das Thema Big Data und die damit verbundenen Technologien, sprich NoSQL und Hadoop behandelt. Das Thema wurde bewusst ausgewählt, weil sie zum einen aktuell und zum anderen immer mehr an Bedeutung, aus Sicht der Unternehmen gewinnt. Durch die ständig anwachsenden Daten, die zu 80% in Semistrukturierter Form vorliegen, stößt die IT-Infrastruktur eines Unternehmens schnell an seine Grenzen. Und genau an dieser Stelle sollen die Big Data Technologien, wie „NoSQL“ und „Hadoop“, helfen, die so großen Datenmengen zu verarbeiten, um für das Unternehmen, wertvolle Informationen zu liefern, die bislang nicht ersichtlich waren.
Existiert das "gläserne" Unternehmen? Sind die letzten Geheimnisse der Konkurrenz bereits gelüftet? Gibt es sichere Entscheidungen durch Allwissenheit? Ist Industriespionage heute überflüssig? Diese Fragen drängen sich mit dem immer weiter wachsenden Angebot an Datenbanken geradezu auf. Anhand der Untersuchung einiger renommierter Datenbanken wird versucht, darauf eine Antwort zu finden. Ausgangspunkt ist die Definition des Begriffs "Firmeninformationen". Bisher wird dieser Begriff offensichtlich je nach Bedarf ausgelegt. Anschließend wird das Feld der Firmeninformationen in seine Bestandteile zerlegt, um zu zeigen, daß dazu nicht nur die einfachen Fakten wie Mitarbeiterzahl oder Umsatz gehören. Im zweiten Kapitel werden die einzelnen Datenbanktypen mit ihren Inhalten vorgestellt. Das dritte Kapitel befaßt sich mit Kriterien, die für die Qualität von Firmeninformationsdatenbanken entscheidend sind. Im Anschluß erfolgt eine Analyse des Datenangebotes. Untersucht wurde das Angebot ausgewählter Datenbanken zu den Unternehmen "Aldi" und "Henkel KGaA".
When it comes to web applications and their dynamic content, one seemingly common trouble area is that of layouts. Frequently, web designers resort to frameworks or JavaScript-based solutions to achieve various layouts where the capabilities of Cascading Style Sheets (CSS) fall short. Although the World Wide Web Consortium (W3C) is attempting to address the demand for more robust and concise layout solutions to handle dynamic content with the recent and upcoming specifications, a generic approach to creating layouts using constraint syntax has been proposed and implementations have been created. Yet, the introduction of constraint syntax would change the CSS paradigm in a fundamental way, demanding further analysis to determine the viability of its inclusion in core web standards. This thesis focuses on one particular aspect of the introduction of constraint syntax: how intuitive constraint syntax will be for designers. To this end, an experiment is performed involving participants thinking aloud while reading code snippets. Also, cursor movements are recorded as a proxy for eye movement over the code snippets. The results indicate that, upon first-impression, constraint syntax within CSS is not intuitive for designers.
Pelleted biomass has a low, uniform moisture content and can be handled and stored cheaply and safely. Pellets can be made of industrial waste, food waste, agricultural residues, energy crops, and virgin lumber. Despite their many desirable attributes, they cannot compete with fossil fuel sources because the process of densifying the biomass and the price of the raw materials make pellet production costly.
Leaves collected from street sweeping are generally discarded in landfills, but they can potentially be valorized as a biofuel if they are pelleted. However, the lignin content in leaves is not high enough to ensure the physical stability of the pellets, so they break easily during storage and transportation. In this study, the use of eucalyptus kraft lignin as an additive in tree-leaf pellet production was studied. Results showed that when 2% lignin is added the abrasion resistance can be increased to an acceptable value. Pellets with added lignin fulfilled all requirements of European standards for certification except for ash content. However, as the raw material has no cost, this method can add value or contribute to financing continued sweeping and is an example of a circular economy scenario.
Pressure injuries remain a serious health complication for patients and nursing staff. Evidence from the past decade has not been analysed through narrative synthesis yet. PubMed, Embase, CINAHL Complete, Web of Science, Cochrane Library, and other reviews/sources were screened. Risk of bias was evaluated using a slightly modified QUIPS tool. Risk factor domains were used to assign (non)statistically independent risk factors. Hence, 67 studies with 679,660 patients were included. In low to moderate risk of bias studies, non-blanchable erythema reliably predicted pressure injury stage 2. Factors influencing mechanical boundary conditions, e.g., higher interface pressure or BMI < 18.5, as well as factors affecting interindividual susceptibility (male sex, older age, anemia, hypoalbuminemia, diabetes, hypotension, low physical activity, existing pressure injuries) and treatment-related aspects, such as length of stay in intensive care units, were identified as possible risk factors for pressure injury development. Health care professionals’ evidence-based knowledge of above-mentioned risk factors is vital to ensure optimal prevention and/or treatment. Openly accessible risk factors, e.g., sex, age, BMI, pre-existing diabetes, and non-blanchable erythema, can serve as yellow flags for pressure injury development. Close communication concerning further risk factors, e.g., anemia, hypoalbuminemia, or low physical activity, may optimize prevention and/or treatment. Further high-quality evidence is warranted.
Dieses Schulungskonzept wurde vor allem von der Erstautorin als praktische Methodensammlung für Einrichtungen und Personen entwickelt, die pflegende Angehörige unterstützen und beraten. Das Konzept integriert zwei Ansätze, nämlich die Gelassenheitsförderung durch Introvision nach Wagner und die Gewaltfreie Kommunikation (GFK) nach Rosenberg.
Jordan is deemed as one of the least water-endowed regions in the world. The acute water shortage, accompanied with changing climatic conditions have necessitated the increasing use of treated wastewater (TWW), predominantly in irrigated agriculture sector. This is especially true with the upper Zarqa River. The ample supply of TWW resources can be found there; paradoxically, the practical implementation of TWW reuse is hindered by the enforcement of irrigation water quality standard, compounding pressure on the dwindling groundwater resources. In light of the large potential source of TWW, this study aims to supply knowledge on maximizing the safe reuse of TWW while minimizing the environmental impacts within the local environment of the upper Zarqa River. A SWOT analysis was conducted to identify the strengths, weaknesses, opportunities, and threats of TWW reuse for agriculture in the local context. In recognition of the projected growth in the treated effluent to more than 135 MCM in the coming ten years, and how it would affect the water use on the study region, several plausible development scenarios were proposed based on expected developments on the ground. Considering the vital role of TWW in sustaining multiple ecosystem services, this study addresses the need to review current standard, encourages managed aquifer recharge with TWW, recommends crops type modification, and enhances knowledge on suitable practices at farm level. Each of these factors is needed in order to deliver a range of ecosystem services to sustain the local rural communities and to advance them in the face of profound challenges, thereby leading to its stability and increased productivity.
Ghana suffers from frequent power outages, which can be compensated by off-grid energysolutions. Photovoltaic-hybrid systems become more and more important for rural electrificationdue to their potential to offer a clean and cost-effective energy supply. However, uncertainties relatedto the prediction of electrical loads and solar irradiance result in inefficient system control and canlead to an unstable electricity supply, which is vital for the high reliability required for applicationswithin the health sector. Model predictive control (MPC) algorithms present a viable option to tacklethose uncertainties compared to rule-based methods, but strongly rely on the quality of the forecasts.This study tests and evaluates (a) a seasonal autoregressive integrated moving average (SARIMA)algorithm, (b) an incremental linear regression (ILR) algorithm, (c) a long short-term memory (LSTM)model, and (d) a customized statistical approach for electrical load forecasting on real load data of aGhanaian health facility, considering initially limited knowledge of load and pattern changes throughthe implementation of incremental learning. The correlation of the electrical load with exogenousvariables was determined to map out possible enhancements within the algorithms. Results showthat all algorithms show high accuracies with a median normalized root mean square error (nRMSE)<0.1 and differing robustness towards load-shifting events, gradients, and noise. While the SARIMAalgorithm and the linear regression model show extreme error outliers of nRMSE >1, methods viathe LSTM model and the customized statistical approaches perform better with a median nRMSE of0.061 and stable error distribution with a maximum nRMSE of <0.255. The conclusion of this study isa favoring towards the LSTM model and the statistical approach, with regard to MPC applicationswithin photovoltaic-hybrid system solutions in the Ghanaian health sector.
PubMed stellt mit 21 Mio. Aufsatzzitaten eines der umfangreichsten Informationssysteme in Bereich der Medizin. Durch die Verwendung einer einheitlichen Terminologie (Medical Subject Heading - MeSH) bei der Indizierung von PubMed Inhalten kann die Orientierung in solch großen Datenbeständen optimiert werden. Zwar bietet ein kontrolliertes Vokabular bei der Informationsbeschaffung zahlreiche Vorteile gegenüber einer Freitextsuche doch fällt Nutzern das Abbilden eines Informationsbedarfs auf die verwendete Terminologie oftmals schwer. In dieser Arbeit wird eine Systemunterstützung geschaffen, die den Abbildungsprozess automatisiert indem eine automatische Verschlagwortung textbasierter Inhalte unter Verwendung eines kontrollierten Vokabulars vorgenommen wird. Durch die Verwendung einer einheitliche Terminologie kann so eine konsistente Integration von PubMed Inhalten erreicht werden.
Bei moderner Software kommt es auf verschiedene Faktoren an. Der erste für den Anwender zunächst sichtbare Faktor ist die Bedienungsfreundlichkeit des Produktes. Der zweite wichtige Faktor ist die Verwendbarkeit des Produktes auf verschiedenen Hardwareplattformen. Dies ist vor allem für Programme wichtig, die sich an einen großen Kundenkreis richten, da man nicht davon ausgehen kann, oder sollte, dass überall das gleiche Betriebssystem eingesetzt wird. Des weiteren wird so auch ein Umstieg auf ein anderes System erleichtert. Für das Softwarehaus selber ist die Wartbarkeit des Produktes von entscheidender Bedeutung. Objektorientierte Programmierung bietet hier durch Vererbungstechniken, Datenkapselung und ähnlichem die besten Voraussetzungen. Auch der Einsatz von Entwurfsmustern, also lange bewährten Konzepten objektorientierter Entwicklung, ist hier von Vorteil. Eine Datenbankanbindung ist für fast jede kommerzielle Software notwendig. Hierbei ist es auch von Vorteil sich nicht an eine spezielle Datenbank zu binden. Ein Mittel hierzu ist es die Datenbanksprache SQL und offene Datenbanktreiber wie etwa ODBC zu benutzen. Bei vielen Programmen ist es auch von Vorteil, wenn sie von Anfang an als verteilte Systeme entworfen werden. Verteilte Systeme haben den Vorteil, dass jedes Modul an einem anderen Ort sein kann und entweder über eine ständige oder aber auch eine temporäre Internetverbindung miteinander synchronisiert werden können. In dieser Arbeit werde ich anhand eines Praxisbeispieles beschreiben, wie man all diese Faktoren in ein Softwareprodukt unterbringt, und wie die Entwicklung aussieht.
Krankenhäuser stellen eine wichtige Kritische Infrastruktur im Bereich des Gesundheitssektors dar, deren Funktionsfähigkeit bei allen Gefahrenlagen erhalten bleiben muss. Durch Interdependenzen mit anderen Kritischen Infrastrukturen, wie der Trinkwasserversorgung, kann ein Ausfall einer der Infrastrukturen zu einer Beeinträchtigung der jeweils anderen führen. Trinkwasser ist für den Menschen lebensnotwendig und muss daher überall in ausreichender Quantität und Qualität bereitgestellt werden (öffentlichen Daseinsvorsorge). Die Trinkwasserversorgung stellt eines der kritischsten Infrastrukturelemente in Krankenhäusern dar, deren Ausfall zu einer Gefährdung der quantitativen und qualitativen Gesundheitsversorgung führt. Die Vergangenheit hat gezeigt, dass Trinkwasserausfälle in Krankenhäusern keine Seltenheit darstellen und zu weitreichenden Beeinträchtigungen führen. Bei Großstörungen bzw. Großschadenslagen oder Katastrophenfällen, ist daher die kommunale Gefahrenabwehr/ der Katastrophenschutz in der Pflicht, zusammen mit anderen Akteuren Krisenmanagement- bzw. Maßnahmenplanungen zu erarbeiten. Dennoch existieren zurzeit fast keine adäquaten Krisenmanagementplanungen für die Herstellung einer Ersatztrinkwasserversorgung für Krankenhäuser. Dies gilt sowohl für die Krankenhäuser im Rahmen der Krankenhausalarm- und Einsatzplanung, als auch die kommunale Gefahrenabwehr bzw. den Katastrophenschutz und Wasserversorgungsunternehmen (WVU).
In dieser Master-Thesis, die im Sommersemester 2018 an der TH Köln erarbeitet wurde, sollte durch eine umfassende Risikoanalyse, unter Zuhilfenahme von Experteninterviews und Dokumentenanalysen das Risiko und die Folgen eines vollständigen Trinkwasserausfalles in einem Krankenhaus dargestellt und der aktuelle Stand der geplanten Bewältigungs- bzw. Krisenmanagementplanungen von Behörden und Organisationen mit Sicherheitsaufgaben (BOS), dem örtlichen WVU und des Krankenhauses für eine solche Schadenslage erhoben werden. Wurden die geplante Krisenmanagementplanungen als unzureichend oder nicht existent identifiziert, so sollten, wenn möglich, Vorschläge für neue Krisenmanagementkonzepte und Kapitel für den Krankenhauseinsatzplan erstellt werden, wofür ungenutzte Ressourcen für die Etablierung einer Ersatztrinkwasserversorgung ermittelt wurden. Die Analyse erfolgte durch eine Einzelfalluntersuchung anhand des Hauptgebäudes des Krankenhauses Merheim in Köln mit dem Szenario einer lokalen Lage, die nicht durch Kontamination des Wassers induziert ist und deren genaue Ursache nicht betrachtet wird. Um mögliche zukünftige Maßnahmen erarbeiten zu können, musste im Rahmen der Analyse der minimale Trinkwasserbedarf des Untersuchungsgebietes bzw. der einzelnen Funktionsbereiche erhoben und Kriterien für die Geeignetheit von Maßnahmen zur Ersatztrinkwasserversorgung erarbeitet werden. Diese Kriterien sind: Vorlaufzeit, Einhaltung der Trinkwasserverordnung, Versorgungskapazität und Verfügbarkeit von Versorgungsquellen. Für die Berechnung der Kritikalität wurde eine eigene Berechnungsmethode erarbeitet, die im Rahmen der Schutzzieldefinition eine Kritikalitätsanalyse ermöglicht, welche die Bedeutung des Gesamtobjektes und der einzelnen Prozessbausteine einbezieht. Das hier hergeleitete Schutzziel lautet: Verhinderung von Todesfällen bei Patienten durch die angenommene Gefahr und durch das ausfallbedingte Unterlassen von Behandlungsmaßahmen, die nicht anderweitig, durch z.B. Abmeldung von der örtlichen Notfallversorgung oder einer Evakuierung und Verlegung der Patienten, kompensierbar sind.
Das übergeordnete Ziel dieser Arbeit ist zusammengefasst die Identifikation der geplanten Maßnahmen zu Ersatztrinkwasserversorgung des Krankenhauses Merheim bzw. ggf. nicht vorhandenen Maßnahmen und somit die Feststellung, ob die Problematik des angenommenen Szenarios von allen Akteuren ausreichend betrachtet wird. Es soll das Bewusstsein für die Notwendigkeit und die Verantwortlichkeiten bzw. Zuständigkeiten von Krisenmanagementplanungen inkl. der Schnittstellenproblematik erhöht werden. Auf Grundlage dieser Arbeit können die Feuerwehr, Hilfsorganisationen, das Technisches Hilfswerk, der Wasserversorger und das Krankenhaus zukünftige Planungen begründen und die Ergebnisse für die Planung einer Ersatztrinkwasserversorgung für das Krankenhaus Merheim nutzen. Das Bundesamt für Bevölkerungsschutz und Katastrophenhilfe, das diese Arbeit ebenfalls betreut hat, möchte diese Arbeit zudem dafür verwenden, weiterführende Konzepte und Leitfäden zu entwickeln.
Hinsichtlich der Erfüllung des Schutzzieles wurde das Krankenhaus Merheim an sich und als Prozessbausteine insbesondere die Intensivstationen als sehr verwundbar identifiziert, was im Rahmen der Analyse zu einem sehr hohen Gesamtrisiko führte. Weitere Prozessbausteine mit sehr hohen Risikowerten sind die Reinstwasseraufbereitungsanlage, die Zentralwäscherei, das Zentrallabor, die Zentralsterilisation und die Anästhesiologie. Durch die sehr hohen Risikowerte und den maximalen Trinkwasserbedarf des Krankenhauses von 150m³/h (eine Ermittlung des minimalen Bedarfes war nicht möglich) lässt sich ein hoher Handlungsbedarf für Krisenmanagementplanungen für den Fall eines Trinkwasserausfalles in dem Krankenhaus ableiten. Die Analyse der Krisenmanagementplanungen hat ergeben, dass keine Maßnahmen zur Krisenbewältigung eines Trinkwasserausfalles im Krankenhaus Merheim existieren. Dies betrifft alle einbezogenen Akteure. Auch eine Einspeisestelle für eine Ersatztrinkwasserversorgung und andere Redundanzsysteme sind im Krankenhaus Merheim nicht vorhanden. Die redundante Ausgestaltung der Trinkwassereinspeisung aus dem öffentlichen Netz in das Privatnetz des Krankenhauses ist dabei nur bei einem Versorgungsausfall auf Seiten des öffentlichen Trinkwassernetzes wirkungsvoll. Eine Ersatztrinkwasserversorgung wäre mit den in der Stadt Köln vorhandenen Ressourcen ausreichend gestaltbar. Verfügbare und geeignete Kapazitäten sind bei der Feuerwehr Köln, privaten Firmen mit Tanklastzügen, der Bundespolizei und Hilfsorganisationen identifiziert worden. Bei den durchgeführten Interviews wurde von fast allen Akteuren eine hohe Relevanz des Themas und der hohe Bedarf an Planungen bestätigt. Jedoch ist durch die bestehende Mangelplanung und der Vernachlässigung von Übungen zur Not- und Ersatztrinkwasserversorgung (z.B. Inbetriebnahme Trinkwassernotbrunnen) davon auszugehen, dass bisher ein mangelndes Problembewusstsein und Unstimmigkeiten bezüglich der Zuständigkeiten bei den verantwortlichen Stellen vorlag. Die Kommune (bzw. hier die Stadt Köln) sollte daher alle Beteiligten zusammenbringen, über die Verantwortlichkeiten bzw. Zuständigkeiten aufklären und einen kooperativen Planungsprozess initiieren. Eine eigene Planung, im Rahmen dieser Arbeit, in Form eines Kapitels für den Krankenhauseinsatzplan und Krisenmanagementplänen für die Gefahrenabwehr bzw. den Wasserversorger konnte durch das Fehlen einer Trinkwassereinspeisestelle in das Krankenhaus nicht erstellt werden. Jedoch war es möglich ein kurzes Kapitel für den Krankenhauseinsatzplan zu erstellen, das auf die weitreichenden Folgen eines Trinkwasserausfalles aufmerksam macht und Anweisungen zum schnelleren Übergang zu einer Evakuierung/Räumung liefert. Durch das so erreichte schnellere Handeln, könnten zumindest viele weitere Folgeschäden bei den Patienten verhindert werden. Überlegungen dahingehend, ob eher präventive oder zur Selbsthilfe befähigende Maßnahmen statt Bewältigungsplanungen in Betracht gezogen werden sollten, sind durchzuführen.
Im Rahmen dieser Bachelorarbeit an der Technischen Hochschule Köln, deren Bearbeitungszeit vom 20.1.2017 bis 24.3.2017 ist, wird durch ein technisches Experiment geprüft, ob diverse Technologien zur 3D-Erfassung und Rekonstruktion geeignet sind Gebäudeinnenräume so zu erkunden, dass die Gefahrenabwehr dadurch einen höheren Nutzen hat, als es bei einer persönlichen oder autonomen Videoerkundung der Fall ist. Dies soll vor allem dann helfen, wenn Gebäude nicht mehr betreten werden sollten, wie es beispielsweise der Fall ist, wenn das Gebäude durch Erdbebenschäden einsturzgefährdet oder mit Gasen kontaminiert ist. 3D-Modelle einer Umgebung haben u.a. den Vorteil, dass problemlos neue Blickwinkel eingenommen, Maße ermittelt und Planungen für Rettungseinsätze oder Evakuierungen effizienter durchgeführt werden können, ohne Bildmaterial aufwendig zu sichten. Zudem können die Ergebnisse für spätere Evaluationen und Trainings genutzt werden. Um diese Geeignetheit festzustellen werden Beurteilungskriterien erarbeitet, die ein potentielles System erfüllen muss. Diese Kriterien sind: Günstig in der Beschaffung, Zeit bis zu einer 3D-Darstellung, leichte Bedienbarkeit, Qualität bzw. Informationsgewinnung aus der Darstellung (Erkennung von Zugängen und Personen), Lieferung von Zusatzinformationen (beispielsweise Maßangaben) und ob das System Online oder Offline funktionsfähig ist. Um diese Kriterien beurteilen zu können, werden Systeme der drei Haupttechnologien in der 3D-Erfassung (Laserscanner GeoSLAM ZEB-REVO, RGB-D-Kamera Microsoft Kinect und FARO Freestyle3D, Fotogrammetrie mit der Software Agisoft PhotoScan) in einem Versuch überprüft. Dabei wird das Labor für Großschadensereignisse der Technischen Hochschule Köln, der angrenzende Flur und das angrenzende Treppenhaus gescannt bzw. erfasst und rekonstruiert, wobei die nötigen Daten ermittelt werden. Dabei stellt sich heraus, dass der FARO Freestyle3D mit seiner RGB-D-Technologie und der Software FARO Scene als einziges System alle Kriterien erfüllt und somit für den Zweck der Erkundung in diesem Kontext geeignet ist. Der Microsoft Kinect Sensor mit der Software FARO Scene hat, durch Fehler in der Rekonstruktion, Schwächen in der Darstellungsqualität. Dies gilt auch für die Kombination aus GeoS-LAM ZEB-REVO/CloudCompare, da hiermit kein Farbscan erstellt werden kann und somit eine Erkennung von Objekten (z.B. geschlossene Türen) erschwert wird. Die Fotogrammetrie dauert mit einer Berechnungsdauer von ca. 38 Stunden zu lange, um in Notfallsituationen einen Nutzen zu bieten und liefert außerdem falsche Maßangaben.
Nicht näher betrachtet wird in dieser Arbeit die (autonome) Erkundung durch Roboter oder Drohnen, die die Geräte transportieren können, Strom- und Datenübertragungsproblematiken, andere ergänzende Sensortechniken und die Erkundung in dunkler Umgebung.
Ein Problem unserer heutigen Informationsgesellschaft ist, dass Ärzte neuen technischen Systemen immer mit großem Argwohn begegnen und dies nicht zu unrecht. Denn immer wieder wird unser Vertrauen in Systeme durch große Missbrauchsskandale erschüttert. Doch sind technische Systeme wie medizinische Semantic Web Anwendungen ein nächster Schritt zu einer verbesserten medizinischen Versorgung.
Deshalb ist das Ziel dieser Arbeit für medizinische Semantic Web Anwendungen Ansätze für Normen und Architekturen zur Schaffung von Vertrauen zu finden. Hierzu wird erst das Vertrauen aus unterschiedlichen Blickwinkeln betrachtet und danach medizinische Semantic Web Anwendungen als sozio-technisches System. Dazu wird der der soziale Kontext des deutschen Gesundheitswesens betrachtet. Zusätzlich wird untersucht wie ein technisches System diesen Kontext verändern könnte.
Aus diesen drei Kategorien werden Normen definiert. Auf diesen Normen aufbauend werden Ansätze für Architekturen formuliert, welche das Vertrauen steigern sollen. Dazu werden schon vorhandene medizinische Ontologien beleuchtet, um den Ansätzen eine Basis zu geben.
Diese Ansätze für Architekturen werden als einzelne Bausteine zu einem größeren Ansatz zusammengefügt. Zuerst wird dieser größere Zusammenhang vorgestellt und danach werden einige Bausteine im Folgenden weiter beschrieben. Unter diese Bausteine fallen Kontrollinstanzen und deren Services sowie Zertifizierungsstellen mit unterschiedlichen Arten von Zertifikaten. Die meisten dieser Bausteine
sind jedoch Agenten mit den verschiedensten Aufgaben, auf welche genauer eingegangen wird. Die Qualität der Ontologien sollen diese einerseits als wichtigen Aspekt des Vertrauens verbessern und überwachen. Andererseits dienen weitere Agenten wiederum der Kommunikation untereinander oder der üblichen Akquisition von Informationen.
DesWeiteren bauen diese Agenten ein Vertrauensnetzwerk untereinander auf. Das Vertrauen zu anderen Agenten wird dabei mit unterschiedlichen Attributen dargestellt und liegt dezentral bei jedem Agenten oder kann ebenfalls von zentralen Services erfragt werden. Ein Austausch der Informationen unter den Agenten ist ebenso möglich. Diese Architektur mit einer Vielzahl von Agenten und das daraus
resultierende Vertrauensnetzwerk soll schließlich ein grundlegendes Vertrauen schaffen, auf welchem medizinische Semantic Web Anwendungen aufbauen können.
The rising worldwide energy demand leads to the depletion of fossil fuels reserves and at the same time, it increases the environmental impact caused by emissions of greenhouse gases (GHG).
Utilization of fossil fuels causes not only climate change impacts such as global warming, but also many other environmental problems such as water and soil contamination that pose potential risks to human and animal health.
Furthermore, increasing population growth leads to increased food demand and consumption. This upward trend creates competition between food and bioenergy markets. Hence, the so‐called “food or fuel” discussion is back.
Challenges to counteract deciding between food and fuel that focus on the need to produce sustainable energy, while protecting environment, are the keys to replacing fossil fuels and lowering their greenhouse gas emissions. For this purpose, a completely new strategy with a proper sustainable system to supplying world’s energy demand must be found.
As the number and intensity of environmental challenges increase, more faiths have initiated religiously motivated change within their communities or have been involved in cooperation projects with NGOs or GOs dedicated to conservation. Even though a lot of quantitative research had been done on the correlation of religiosity and concern for the environment, no scientific study dealt about the argumentation lines that drive or discourage believers to get involved in environmental conversation. As a basis for the research the Theory of Planned Behavior of Ajzen was modified into a model. By the means of Semi-Standardized Interview guidelines 15 members and leaders of different church communities in Amman were interrogated to retrieve meaning of and cause-effect-chains between the different components of the model. Their answers were coded and analyzed with cross tables to identify interconnections and their tendencies.
The results show that interviewees’ religious convictions about God and the world were the strongest influencer, whereas the community and leaders rarely gave a reason for people to adapt water saving measures. External factors such as governmental, societal, political or economic mostly discouraged people to adapt environmentfriendly behaviors. Approaches by the GIZ have already started catering to those challenges and potentials, however the range of impact did not reach until most of the interviewees.
Diese Bachelorarbeit erläutert das Vorgehen bei der Erstellung einer Applikation für mobile Endgeräte, die einen dialogorientierten 3D-Charakter darstellt, der auf die Eingaben des Benutzers reagiert. Erläutert wird hierbei auch die historische Entwicklung der Mensch-Maschinen-Kommunikation. Darauf folgt ein Überblick über die, im Bereich der mobilen Endgeräte verfügbare, Hard- und Software sowie deren Architektur. Weitere Teile befassen sich mit den in der Applikation genutzten, selbst erstellten Methoden zur Textanalyse und Antwortgenerierung, sowie der Kombination aller Komponenten zu einem Endprodukt.
This market research paper has been prepared under the supervision of Prof. Dr. Wolfgang Veit of TH Köln and Prof. Dr. Carol Scovotti of University of Wisconsin-Whitewater in the course of the inter-university cross-border collaboration student research project “Export Opportunity Surveys (EOS)”. This study explores organic/fair trade coffee export opportunities to the German and US markets.
Im Rahmen dieser Arbeit wurde eine Software auf Basis von Java und ImageJ zur automatischen Auswertung von Prüfkörperperaufnahmen nach PAS 1054 entwickelt. Drei Hauptaspekte standen im Vordergrund: Entwicklung einer benutzerfreundlichen Oberfläche, eine automatische Prüfkörperpererkennung bei Aufnahmen von Modalitäten verschiedener Hersteller, sowie die Implementierung eine Algorithmus zur Messung der SFR (Spatial Frequency Response). Diese Software wurde in eine bereits bestehende Softwarestruktur eingefügt. Außerdem wurde eine Sicherung der Messergebnisse als Textdatei und verschiedene kleine Modifikationen in die bestehende Version implementiert.
Inhalt dieser Arbeit ist die Entwicklung eines Software Agenten, der auf Basis des WWW Wissen akquiriert, extrahiert und dieses so aufbereitet, dass es maschinell weiter zu verarbeiten ist. Eine Task Sprache, die gesammelte Daten entsprechend aufbereitet, soll gefunden, entwickelt und beispielhaft verwendet werden. Diese Task Sprache soll als Meta-Sprache für Roboter so zu verwenden sein, dass sie in einem Roboter in ausführbaren Code umgewandelt wird und dieser die enthaltenen Arbeitsschritte mit vorhandenen Materialien und Arbeitsgeräten durchführen kann.
The whole site of the waste disposal centre Leppe in Lindlar has been modified by the project :metabolon into an authentic learning site for knowledge transfer. Addressing all age groups, the project offers insights into environmental knowledge and explains contexts of resources and material flows. The site conditions allow practical outlooks on future energy systems. Following the meta theme of “lifetime learning”, pupils and students are addressed by different modules, considering their individual learning levels.
Die Grundlage für das Datenmodell einer Arztpraxis sind alle relevanten Daten, die zum Betrieb einer Arztpraxis notwendig sind. Aktuell werden die Daten mittels einer Praxisverwaltungssoftware (PVS) erfasst, in einem proprietären Datenformat gespeichert und im Weiteren für die Abrechnung aufbereitet. Dabei ist es seit Mai 1989 möglich, dass die Abrechnung per Diskette erstellt wird. Für die Aufbereitung der Daten wurde zuerst der Abrechnungsdatenträger (ADT) und seit dem 1. Juli 1999 ist es Pflicht die Abrechnung über den KV – Datenträger (KVDT) zu verwenden. Damals wurde kein einheitliches Datenmodell eingeführt, welches über den Abrechnungsdatenaustausch hinaus geht. Dadurch ist es nur sehr beschränkt möglich, Daten zwischen den einzelnen Systemen auszutauschen. So ist es für einen Arzt äußerst schwierig auf ein neues PVS – System umzusteigen. Um einen Eindruck über die Vielfalt und Menge der verschiedenen PVS – Systeme zu vermitteln, werden im Folgenden die Anzahl der KVDT – Zulassungen und der Labordatenträger – Zulassungen (LDT–Zulassungen) beschrieben. Zum dritten Quartal 2005 sind 2541 PVS – Systeme von der Kassenärztlichen Bundesvereinigung (KBV) für den gesamten oder Teile des KVDT zugelassen. Des Weiteren sind 742 PVS – System – Hersteller für die Datenübertragung mittels des gesamten oder Teile des Labordatenträgers zugelassen. Seit dem 1. Januar 2004 sind die Ärzte, mit wenigen Ausnahmen, gesetzlich dazu verpflichtet, die Abrechnung elektronisch durchzuführen. Deswegen haben einige Ärzte aus Kostengründen eine Individuallösung konzipiert, die ausschließlich in ihrer Arztpraxis verwendet wird. Aber auch diese Lösungen müssen von der KBV zertifiziert werden. Diese Lösungen werden zu den zugelassenen PVS – Systemen gezählt. Zum dritten Quartal 2005 sind 373 Individuallösungen zugelassen. Die in einer Arztpraxis anfallenden Daten müssen für den geregelten Praxisbetrieb vom PVS – System verwaltet, gespeichert und zum Teil auch zum Datenaustausch nach außen kommuniziert werden. Dabei werden die Daten von jedem Hersteller unterschiedlich erfasst und weiterverarbeitet. Des Weiteren ist die Repräsentation dieser Daten nicht einheitlich und beinhaltet verschiedene Arten von Daten. Diese Daten sind unter anderem Verwaltungsdaten, Abrechnungsinformationen und medizinische Informationen. Die von den Herstellern der Praxisverwaltungssoftware zu Grunde gelegten Datenmodelle sind unabhängig voneinander und nicht standardisiert. Dabei extrahiert jede Praxisverwaltungssoftware die Daten, die es für wichtig hält und repräsentiert diese in einem eigenen Format. Dadurch ergibt sich die Schwierigkeit, dass die Interoperabilität der Systeme sowohl in funktioneller als auch in semantischer Sicht eingeschränkt ist. Die Lösung dieser Probleme ist ein einheitliches Datenmodell mit entsprechender Schnittstelle, die das Ergebnis der vorliegenden Arbeit darstellt.
Different methods have been proposed for in situ root-length density (RLD) measurement. One widely employed is the time-consuming sampling of soil cores or monoliths (MO). The profile wall (PW) method is a less precise, but faster and less laborious alternative. However, depth-differentiated functions to convert PW RLD estimates to MO RLD measurements have not yet been reported. In this study, we perform a regression analysis to relate PW results to MO results and determine whether calibration is possible for distinct crop groups (grasses, brassicas and legumes) consisting of pure and mixed stands, and whether soil depth affects this calibration. The methods were applied over two years to all crop groups and their absolute and cumulative RLD were compared using a linear (LR) and multiple linear (MLR) regression. PW RLD was found to highly underestimate MO RLD in absolute values and in highly rooted areas. However, a close agreement between both methods was found for cumulative root-length (RL) when applying MLR, highlighting the influence of soil depth. The level of agreement between methods varied strongly with depth. Therefore, the application of PW as the main RLD estimation method can provide reliable estimates of cumulative root distribution traits of cover crops.
Soft Skills, zu deutsch "weiche Fähigkeiten", sind die Kompetenzen, die über fachliche Qualifikationen hinausgehen, wie beispielsweise Teamfähigkeit, Kommunikationstalent und Durchsetzungsvermögen. In dieser Arbeit wird der Frage nachgegangen, inwieweit Soft Skills in der Praxis bibliothekarischer Arbeit Beachtung finden. Über welche Persönlichkeitsmerkmale sollten Bibliothekare verfügen? Wie sieht der Berufsalltag in Bibliotheken heute aus? Welche Tätigkeiten werden vorwiegend ausgeübt? Wie ist Stand der technischen Ausstattung? Finden auch Maßnahmen der Personalentwicklung und Mitarbeitermotivation statt? Ergänzend dazu soll festgestellt werden, ob es Unterschiede in der Bewertung je nach Bibliotheksgröße und -typ gibt. Dieser Band behandelt die verschiedenen Formen von Kompetenzen, Fähigkeiten und Kenntnissen sowie ihre Bedeutung für den Alltag bibliothekarischer Arbeit und beschäftigt sich mit den Themen Personalentwicklung und Mitarbeitermotivation, die zunehmend an Bedeutung gewinnen. Die theoretische Darstellung beruht auf Vorarbeiten aus Bibliothekswesen, Betriebswirtschaftslehre und Organisationspsychologie. Um den derzeitigen Stellenwert der Soft Skills im bibliothekarischen Alltag bewerten zu können, beinhaltet die Studie die Ergebnisse einer Umfrage, die unter rund 100 Bibliotheken durchgeführt wurde (Rücklaufquote der Fragebogen: 82%). Das Gesamtergebnis befindet sich in Form von Diagrammen und Tabellen im Anhang. Überdies wird eine Verbindung zwischen Theorie und Praxis hergestellt.
This market research paper has been prepared under the supervision of Prof. Dr. Wolfgang Veit of TH Köln and Prof. Dr. Carol Scovotti of University of Wisconsin-Whitewater in the course of the inter-university cross-border collaboration student research project “Export Opportunity Surveys (EOS)”. This study explores organic chickpeas export opportunities to the German and US markets.
This market research paper has been prepared under the supervision of Prof. Dr. Wolfgang Veit of TH Köln and Prof. Dr. Carol Scovotti of University of Wisconsin-Whitewater in the course of the inter-university cross-border collaboration student research project “Export Opportunity Surveys (EOS)”. This study explores organic black tea export opportunities to the German and US markets.
Das Semantic Web ist einer Erweiterung des aktuellen World Wide Web um eine maschinell verarbeitbare Dimension. In ihr wird es Agenten möglich sein komplexe Aktivitäten für den menschlichen Benutzer durchzuführen und automatisch relevante Informationen im Web zu finden. In dieser Arbeit werden wir die semantische Modellierung von Informationen im Bereich Internetfernsehen behandeln. Wir werden die gänginen Technologien und Methoden erläutern, sowie diese am Beispiel eines Prototypen für den studentischen Internetsender Zucker TV anwenden.
Immer mehr Teilbereiche des Semantic Web sind in den letzten Jahren erfolgreich umgesetzt geworden. Ebenso wird bei der Bearbeitung von komplexen Problemräumen mittlerweile oft auf semantische Modelle zurückgegriffen, um eine flexible Beschreibung der Domäne zu erstellen. Werkzeuge, welche die Entwicklung von Anwendungen, die auf semantischen Modellen basieren, unterstützen, sind bislang jedoch nur in begrenztem Maße verfügbar. Insbesondere die Verarbeitung von verteilten und dynamischen Modellen ist mit keinem der derzeit verfügbaren Produkte vollständig zu realisieren. Diese Arbeit untersucht die Möglichkeiten zur Integration von semantischen Modellen in objektorientierte Programmiersprachen. Es werden bestehende Ansätze analysiert und ein formales Modell der Integration erstellt. Das formale Modell wird in Form eines prototypischen Rahmenwerks in der Programmiersprache Ruby implementiert und validiert.
Im Titel der vorliegenden Arbeit wird bereits herausgestellt, dass eine Architektur von der Konzeption über die prototypische Implementierung bis hin zu einer ersten Validierung betrachtet wird. Dabei soll die Architektur dienstorientiert aufgebaut sein und sich für die Realisierung von Multimediaanwendungen eignen. In dieser Arbeit wird dazu zunächst allgemein in die Thematik der Dienstorientierung eingeführt und die jeweiligen Besonderheiten im Zusammenhang mit Multimediaanwen- dungen dargelegt. Im weiteren Verlauf wird die Architektur prototypisch umgesetzt und auf Grund der Implementierung eines Anwendungsszenarios validiert.
Bei AskA-Services handelt es sich um digitale Auskunftsdienste im Internet, die nicht von institutionalisierten Bibliotheken oder organisierten Gruppen von Bibliothekaren betrieben werden. Stattdessen werden sie entweder von nicht-kommerzielle Informationsdienstleistern (z.B. öffentlichen Institutionen, in seltenen Fällen auch Einzelpersonen bzw. kleinen Gruppen von Personen) oder aber von Firmen angeboten, die eine Gewinnabsicht verfolgen. Neben thematisch offenen Services gibt es auch solche, die sich auf bestimmte Themengebiete spezialisiert haben. Die Antworten, die der Kunde erhält, können von realen Personen gegeben oder automatisch erstellt werden. Außerdem können sie rein natürlichsprachig sein, lediglich auf andere Webseiten verweisen oder zusätzlich auch Literatur- oder Linklisten, Bilder, Grafiken, Tabellen o.ä. beinhalten. Grundsätzlich zu unterscheiden sind nicht-kommerzielle und kommerzielle AskA-Services. Letztere können in kostenlose und kostenpflichtige Angebote unterteilt werden. Die ersten nicht-kommerziellen Dienste gingen bereits zwischen 1993 und 1995 online. Dagegen stieg die Zahl der AskA-Services mit Gewinnerzielungsabsicht erst ab 1999 sprunghaft an. Neben theoretischen Ausführungen zur Definition der AskA-Services, ihrer Entwicklung und Typologie werden exemplarisch die AskA-Services AskJeeves.com, Webhelp.com, das MAD Scientist Network, Wer-weiss-was.de und Google Answers vorgestellt.
Die Nutzung von Gamification zur Verbesserung der User Experience - Marktanalyse & Designfaktoren
(2020)
User Experience beschreibt die Wahrnehmungen und Reaktionen Benutzender zu einem System. Es umfasst die Gedanken und Emotionen, die Benutzende vor, während und nach der Nutzung eines Systems erfahren. In einer Zeit in der es zahlreiche digitale Systeme und Alternativen auf dem Markt zur Verfügung stehen, können sich voranging Systeme mit einer guten User Experience durchsetzen. Demnach kann User Experience als messbarer Erfolgsfaktor gesehen werden und dieses Verständnis darüber ist erforderlich für das Treffen von Designentscheidungen. Ziel dieser Arbeit ist es Aspekte aus Gamification, die zu einer Verbesserung der User Experience eines Systems beitragen, zu identifizieren und darzustellen. Bei Gamification handelt es sich um einen Gestaltungsprozess, der auf den Erfahrungen und Techniken des Game Designs basiert und die Gefühle und Motivationen von Menschen anspricht. Zur Ermittlung dieser Faktoren wurden mittels Literatur von, unter anderem, Huizinga und Chou relevante Aspekte spielerischen Verhaltens und grundlegende menschliche Motivationen betrachtet. Diese Erkenntnisse wurden zur Analyse der auf, dem Markt befindlichen, Systeme KptnCook und TooGoodToGo angewandt um relevante Design Faktoren zu ermitteln und darzustellen. Es wurde festgestellt, dass User Experience ein dreidimensionales Konstrukt bestehend aus den Faktoren ease-of-use, joy-of-use und purpose-of-use darstellt. Durch die Einbringung von Aspekten aus Gamification in ein System kann dieses gezielt auf die Vermittlung der Faktoren joy-of-use und purpose-of-use gestaltet und optimiert werden. Auf dieser Grundlage ist es empfehlenswert Gamification bei der Gestaltung von Systemen zu beachten um menschlichen Motivationen zur Nutzung eines Systems anzusprechen. Durch die Gestaltung mit Gamification können Benutzererlebnisse angefertigt werden, die unterhaltsam sind und Benutzende zu einer langfristigen Verwendung des Systems motivieren.
Water shortage and a rising water demand are prevalent issues on the political agenda worldwide. Available water resources must not only be provided to ensure a domestic and drinking water supply for a steadily increasing population but also for the growing industrial and agricultural sectors. This work outlines how the use of the innovative vacuum multi‐effect membrane distillation contributes to improve the water management efficiency in the following key industry sectors: desalination, drinking water and beverage industry, pharmaceutical, agro and chemical as well as oil and gas industry.
In einer szientometrischen bzw. informetrischen Studie werden internationale wie deutschsprachige Zeitschriften der Informations-/Bibliothekswissenschaft und -praxis mittels Zitationsanalyse und Expertenbefragung analysiert. Die zitatenanalytischen Kennwerte umfassen den Impact Factor, die Halbwertszeit, die Zitierfreudigkeit, die relative Häufigkeit von Zeitschriftenselbstreferenzen sowie Soziogramme der einflussreichen Periodika. Der Fragebogen erhebt die Lesehäufigkeit, die Einsetzbarkeit der gelesenen Journale im Tätigkeitsbereich, die Publikationstätigkeit und die Publikationspräferenz sowohl für alle Respondenten als auch für abgrenzbare Gruppen (Praktiker vs. Wissenschaftler, Bibliothekare vs. Dokumentare vs. Informationswissenschaftler, öffentlicher Dienst vs. Informationswirtschaft vs. andere Wirtschaftsunternehmen). 50 informations- und bibliothekswissenschaftliche Periodika werden untersucht, darunter detailliert die deutschsprachigen Zeitschriften "ABI Technik", "Bibliothek. Forschung und Praxis", "Bibliotheksdienst", "BIT Online", "Buch und Bibliothek", "Internationales Symposium für Informationswissenschaft (ISI)", "NfD. Information: Wissenschaft und Praxis", "Password", "ProLibris" (früher: "Mitteilungsblatt der Bibliotheken in NRW"), "VÖB-Mitteilungen" sowie "Zeitschrift für Bibliothekswesen und Bibliographie".
Moderne Verfahren des Information Retrieval verlangen nach aussagekräftigen und detailliert relationierten Dokumentationssprachen. Der selektive Transfer einzelner Modellierungsstrategien aus dem Bereich semantischer Technologien für die Gestaltung und Relationierung bestehender Dokumentationssprachen wird diskutiert. Am Beispiel des Gegenstandsbereichs „Theater“ der Schlagwortnormdatei wird ein hierarchisch strukturiertes Relationeninventar definiert, welches sowohl hinreichend allgemeine als auch zahlreiche spezifische Relationstypen enthält, welche eine detaillierte und damit funktionale Relationierung des Vokabulars ermöglichen. Die Relationierung des Gegenstandsbereichs wird als Ontologie im OWL-Format modelliert. Im Gegensatz zu anderen Ansätzen und Überlegungen zur Schaffung von Relationeninventaren entwickelt der vorgestellte Vorschlag das Relationeninventar aus der Begriffsmenge eines bestehenden Gegenstandsbereichs heraus. Das entwickelte Inventar wird als eine hierarchisch strukturierte Taxonomie gestaltet, was einen Zugewinn an Übersichtlichkeit und Funktionalität bringt.
Die vorliegende Arbeit befasst sich mit dem Berufsbild des wissenschaftlichen Bibliothekars aus historischer Perspektive. In ihr wird in chronologischer Weise die Entwicklung der verschiedenen Anschauungen zu Aspekten wie Ausbildung und Tätigkeitsspektrum beschrieben. Als Untersuchungsmaterial dienen thematisch einschlägige Publikationen von ca. 1800 bis heute. Ein besonderes Augenmerk gilt der Beziehung des Bibliothekswesens zur Wissenschaft sowie dem Selbstverständnis des Bibliothekars in diesem Kontext. Thematisiert wird unter anderem die traditionell „hybride“ Position des Fachreferenten als Mittler zwischen den beiden Sphären; plädiert wird (im Schlussteil) für neue Formen der Kooperation mit den Fachbereichen der Hochschule – unter Wahrung des eigenen Profils.
In dieser Arbeit wird der Frage nachgegangen, inwieweit eine systematische Personalentwicklung auch im Management Öffentlicher Bibliotheken Beachtung findet. Bestehen im deutschen Bibliothekswesen überhaupt ausreichende Kenntnisse über Personalentwicklung? Stehen die Strukturen des öffentlichen Dienstes einer Personalentwicklung, wie sie in der freien Wirtschaft betrieben wird, nicht im Wege? Gerade im Dienstleistungssektor - zu dem Öffentliche Bibliotheken auch zu zählen sind - sind Qualifikation, Motivation und Leistungsbereitschaft des Personals von großer Bedeutung. Wird im Rahmen von Verwaltungsreformen die Chance ergriffen, im Bereich der Personalführung auch Maßnahmen der Personalentwicklung anzuwenden? Und welche Maßnahmen werden in den Bibliotheken tatsächlich umgesetzt?
Mitarbeitermotivation in Start-Ups - Theoretischer Rahmen und praktische Handlungsempfehlungen
(2017)
Das vorliegende Paper fasst die Erkenntnisse zu Möglichkeiten der Mitarbeitermotivation in Start-Ups zusammen.
Es basiert auf der Bachelorarbeit von Herrn William Bork, die von Mai bis Juli 2017 von Prof. Dr. Monika Engelen betreut wurde. Neben einer Recherche der grundlegenden Theorie wurden die gewonnenen Erkenntnisse durch explorative Interviews mit Start-Ups ergänzt.
Der Kerninhalt dieses Papers ist sowohl das Verständnis für die Bedeutung von Arbeitsmotivation zu verdeutlichen als auch konkrete Ansätze zur positiven Beeinflussung der Arbeitsmotivation für Start-Ups aufzuzeigen.
Porous polymer membranes substantially contribute to an acceleration of sustainability transformation based on the energy efficient separation of liquid and gaseous mixtures. This rapid shift toward sustainable industrial processes leads to an increased demand for specifically tailored membranes. In order to predict membrane performance factors like permeability, selectivity and durability, the membrane formation process by film casting and phase inversion needs to be understood further. In recent years, computational models of the membrane formation process have been studied intensely. Their high spatial and temporal resolution allows a detailed quantitative description of phase inversion phenomena. New experimental techniques complement this development, as they provide quantitative data, e.g., on compositional changes of the polymer solution during membrane formation as well as the kinetic progression of the phase separation process. This state-of-the-art review compiles computational and experimental approaches that characterize the phase inversion process. We discuss how this methodological pluralism is necessary for improving the tailoring of membrane parameters, but that it is unlikely to be the way to the ultimate goal of a complete description of the evolution of the membrane structure from the initial demixing to the final solidification. Alternatively, we formulate an approach that includes a database of standardized and harmonized membrane performance data based on previously publicized data, as well as the application of artificial neural networks as a new powerful tool to link membrane production parameters to membrane performance.
This market research paper has been prepared under the supervision of Prof. Dr. Wolfgang Veit of TH Köln and Prof. Dr. Carol Scovotti of University of Wisconsin-Whitewater in the course of the inter-university cross-border collaboration student research project “Export Opportunity Surveys (EOS)”. This study explores organic tofu export opportunities to the German and US markets.
Am Phänomen der weiblichen Sexarbeit entzünden sich in Deutschland immer wieder heftige Debatten, welche vor allem Fragen rund um Geschlecht und Sexualität verhandeln. Häufig werden diese Debatten moralisch aufgeladen und unsachlich geführt, was eine differenzierte Einschätzung der Thematik erschwert. In der vorliegenden Arbeit werden die gegenwärtig dominierenden Perspektiven dahingehend analysiert, welche geschlechtertheoretischen Annahmen ihnen zugrunde liegen und welche Leerstellen und Verkürzungen sie jeweils mit sich bringen. Ausgehend von Andrea Maihofers Ansatz, Geschlecht als hegemonialen Diskurs und gesellschaftlich-kulturelle Existenzweise zu begreifen, wird anschließend dargelegt, wie komplex und widersprüchlich sich das Phänomen der weiblichen Sexarbeit im Kontext der bestehenden Geschlechterordnung darstellt und wie schwierig eine eindeutige und abschließende Beurteilung ist.
Die Analyse und Konzeption der Trinkwassernotversorgung setzt eine interdisziplinäre Zusammenarbeit unter anderem zwischen Gesundheitsämtern, Umweltämtern, Gefahrenabwehrbehörden und Wasserversorgungsunternehmen voraus. Die in dieser Arbeit durchgeführten Methoden gliedern sich in GIS-Analyse (Kritikalitätsanalyse), Beobachtung einer Inbetriebnahme eines Trinkwassernotbrunnens und eines Experteninterviews mit den Stadtwerken Düsseldorf AG und Netzgesellschaft Düsseldorf mbH auf. Es werden Erkenntnisse gewonnen, dass die Trinkwassernotbrunnen im Rahmen der Trink-wassernotversorgung mehr als eine mögliche Variable anstelle einer planbaren Konstante anzusehen sind. Die Anzahl und der Zustand der Trinkwassernotbrunnen sind in der Trinkwassernotversorgung nicht ausreichend. Es wird festgestellt, dass der Status quo wesentliche Lücken in der Konzeption der Trinkwasserversorgung aufweist, die organisatorisch mithilfe von Absprachen zwischen Behörden und Unternehmen und technisch durch beispielsweise Aufbereitungsanlagen gelöst werden können.
The present thesis research was focused on the assessment of hydrological drought in the Tempisque-Bebedero catchment system in Costa Rica as part of the TropiSeca project framework. The study area is in the province of Guanacaste and has an extension of 5449.94 Km2, the region is characterized by a defined wet and dry season resulting in a marked seasonality in precipitation and streamflow regime which provokes frequent periods of water deficits considered as drought.
The main objective of this research is to conduct an analysis on hydrological drought in the study area through the understanding of the behavior of hydrological cycle and its implications for the rice sector by applying different drought indices such as Standardized Precipitation Index (SPI) and Streamflow Drought Index (SDI). From the values obtained in the calculation of drought indices were studied the temporal distribution and spatial distribution based on the characterization of drought periods in terms of frequency, severity, duration, and seasonality.
For the characterization of meteorological drought in the study area an approach based on area average precipitation was implemented to calculate a regional representative SPI for each sub-basin, in contrast, hydrological drought was assessed using only two streamflow gauges data provided by the ICE from 1973 until 2003.
As result, Tempisque showed longer drought periods in comparison with Bebedero whose mean duration was lower but the number of drought events were more frequent. In terms of spatial distribution, it could be found that the upper basin experienced extreme meteorological drought periods at high time scales tied to a severe streamflow deficit probably justified by its low permeability due to geological characteristics that allow a slow movement of groundwater.
Additionally, one of the aims of this thesis was to analyze the existence of correlation between precipitation and streamflow anomalies with rice yield and, to determine the influence of ENSO in climate variability using Sea Surface Temperature indices; in this phase of the research was found that climate patterns in the catchment system exhibited a significant influence by ENSO events with a significance level of 99% (r > 0.7) showing an important dependence of meteorological drought periods presented during the period 1980-2016.
In terms of temporal behavior of rice yield anomalies was revealed moderate correlation coefficients (r < 0.4) in both watersheds due to in most of the cases the response of water deficit did not have significant impact in terms of magnitude as expected; in some periods in which drought period was present categorized as mild-drought, rice yield had a considerable decreasing compared with those in which was categorized as extreme event; these differences can be justified mostly because crop yield depends not only on weather, but also on variety of seed used and its coping capacity to periods of water scarcity, fertilizers, soil moisture, farming techniques, sowing date, temperature, irrigation, use of pesticides etc.
The results of this thesis can be used to motivate future researches in the elaboration of crop models to predict yields based on physiological processes during plant development considering water requirement to take enough measures to mitigate the effects of drought periods. Furthermore, it should be considered to implement a drought monitor system in the area as an important tool of early warning system and as an indicator for the efficient water resources management.
Die TH Köln hat sich in ihrer Transferstrategie 2025 zur Förderung von Existenzgründungen und Entrepreneurship Education positioniert. Für diese Positionierung ist es bedeutsam, den Status Quo der derzeitigen Start-up-Kultur an der TH Köln zu ermitteln. Die vorliegende Studie geht insbesondere den folgenden Fragen nach: Wie viele Studierende sind bereits selbstständig? Wie viele haben Interesse an dem Thema Existenzgründung? Welche Angebote, die die TH Köln bereits zur Verfügung stellt, sind bekannt und welche zusätzlichen Angebote werden gewünscht? Fühlen sich die Studierenden ausreichend informiert und welche Anregungen haben sie zur Etablierung und Förderung der Start-up-Kultur an der TH Köln?
Entrepreneurship im Kontext der Hochschulausbildung gewinnt immer mehr an Bedeutung und muss nachdrücklich im Hochschulalltag adressiert werden, um eine zukunftsfähige, unternehmerische Hochschule Gestalt annehmen zu lassen. Die Einbindung aller Stakeholder in einen Prozess der Bildung von gemeinsamen, transparenten Netzwerken, Fokussierung von Interdisziplinarität und Vermittlung von unternehmerischer Handlungskompetenz sind Eckpfeiler, um die Vision einer unternehmerisch denkenden und handelnden Hochschule Wirklichkeit werden zu lassen. Aufbauend auf der empirischen Erhebung zu Entrepreneurship & Start-up-Kultur an der TH Köln, erfolgte im Wintersemester 2017/18 eine weiterführende Erhebung hinsichtlich der bereits selbstständig tätigen Studierenden der TH Köln. Ziel der Umfrage ist die Untersuchung der Gründungsarten der Studierenden sowie die Erhebung von Informationen zu Finanzierungsarten, Hürden, Gründungsklima und gezielte Unterstützungsmöglichkeiten durch die TH Köln, um die Start-up-Kultur an der TH Köln weiter zu stärken.
Entrepreneurship im Kontext der Hochschulausbildung gewinnt immer mehr an Bedeutung und muss nachdrücklich im Hochschulalltag adressiert werden, um eine zukunftsfähige, unternehmerische Hochschule Gestalt annehmen zu lassen. Die Einbindung aller Stakeholder in einen Prozess der Bildung von gemeinsamen, transparenten Netzwerken, Fokussierung von Interdisziplinarität und Vermittlung von unternehmerischer Handlungskompetenz sind Eckpfeiler, um die Vision einer unternehmerisch denkenden und handelnden Hochschule Wirklichkeit werden zu lassen. Aufbauend auf der empirischen Erhebung zu Entrepreneurship & Start-up-Kultur an der TH Köln, erfolgte im Wintersemester 2017/18 eine weiterführende Erhebung hinsichtlich der bereits selbstständig tätigen Studierenden der TH Köln. Ziel der Umfrage ist die Untersuchung der Gründungsarten der Studierenden sowie die Erhebung von Informationen zu Finanzierungsarten, Hürden, Gründungsklima und gezielte Unterstützungsmöglichkeiten durch die TH Köln, um die Start-up-Kultur an der TH Köln weiter zu stärken.
Die TH Köln hat sich in ihrer Transferstrategie 2025 zur Förderung von Existenzgründungen und Entrepreneurship Education positioniert. Für diese Positionierung ist es bedeutsam, den Status Quo der derzeitigen Start-up-Kultur an der TH Köln zu ermitteln. Die vorliegende Studie geht insbesondere den folgenden Fragen nach: Wie viele Studierende sind bereits selbstständig? Wie viele haben Interesse an dem Thema Existenzgründung? Welche Angebote, die die TH Köln bereits zur Verfügung stellt, sind bekannt und welche zusätzlichen Angebote werden gewünscht? Fühlen sich die Studierenden ausreichend informiert und welche Anregungen haben sie zur Etablierung und Förderung der Start-up-Kultur an der TH Köln?
M&A-Transaktionen werden selten so erfolgreich, wie sie geplant wurden. Dies wirft immer wieder die Frage auf, ob die Entscheidung für die Transaktion eine „gute“, d. h. rationale Entscheidung war und ob der Prozess auf optimale Weise geführt wurde. Im Rahmen der Studie wurden Experten aus 24 DAX-30-Unternehmen zum Thema „Rationalität und Irrationalität im M&A-Prozess“ befragt. Wunsch und Wirklichkeit fallen demnach deutlich auseinander und gerade Faktoren, die die Rationalität in einem Prozess erhöhen sollen, können diese in eine ungewollte Richtung treiben: Wachstumsstrategie, Anreizsysteme, Gremienentscheidungen, Bewertungsmodelle, auch Eigeninteressen der Akteure und Emotionen spielen eine große Rolle. Die Experten bestätigen insbesondere die hohe Relevanz verhaltenstheoretischer Phänomene wie den Planungsfehlschluss, den Herdeneffekt, oder die Selbstüberschätzung im M&A-Prozess.
M&A-Transaktionen werden selten so erfolgreich, wie sie geplant wurden. Dies wirft immer wieder die Frage auf, ob die Entscheidung für die Transaktion eine „gute“, d. h. rationale Entscheidung war und ob der Prozess auf optimale Weise geführt wurde. Im Rahmen der Studie wurden Experten aus 24 DAX-30-Unternehmen zum Thema „Rationalität und Irrationalität im M&A-Prozess“ befragt. Wunsch und Wirklichkeit fallen demnach deutlich auseinander und gerade Faktoren, die die Rationalität in einem Prozess erhöhen sollen, können diese in eine ungewollte Richtung treiben: Wachstumsstrategie, Anreizsysteme, Gremienentscheidungen, Bewertungsmodelle, auch Eigeninteressen der Akteure und Emotionen spielen eine große Rolle. Die Experten bestätigen insbesondere die hohe Relevanz verhaltenstheoretischer Phänomene wie den Planungsfehlschluss, den Herdeneffekt, oder die Selbstüberschätzung im M&A-Prozess.
Das vorliegende Paper beschreibt die im Rahmen von Industrie 4.0 als Einkauf 4.0 be-zeichnete Digitalisierung der Einkaufsfunktion. Neben einer grundlegenden Einführung zu Industrie 4.0 und den Haupttreiber stellt das Paper die Auswirkungen der Digitalisie-rung auf den Einkauf vor.
Es werden generell die Möglichkeiten, Einkaufsfunktionen zu digitalisieren, eine Aus-wahl an Studien zu Kosteneinsparungen und der aktuelle Stand der Umsetzung bei Un-ternehmen dargestellt sowie die Erkenntnisse zum Einsatz von Digitalisierung im Ein-kauf zusammengefasst.
Das Praxis Paper basiert auf der Bachelorarbeit von Johannes Blechmann, die von No-vember 2019 bis Februar 2020 von Prof. Dr. Monika Engelen (TH Köln) und Sven Düs-ter (VOSS Automotive GmbH) betreut wurde.
Ziel dieser Arbeit war es, die Bildqualität verschiedener Endoskopiesysteme bei der Darstellung auf einem LC-Display zu vergleichen und bewerten. Die Ausarbeitung einer standardisierbaren Methodik zur Qualitätserfassung von Bildwiedergabeeigenschaften in der Endoskopie soll rein subjektive Bewertungsverfahren ablösen. Dazu wurden acht unterschiedliche Endoskopiesysteme von sechs Herstellern und der Flachbildschirm „LMD-2140MD“ der Firma SONY untersucht. Den Schwerpunkt der Arbeit stellt die Untersuchung der Farbwiedergabeeigenschaften dieser Systeme dar. Flachbildschirmen besitzen im Vergleich zu konventionellen Röhrenmonitoren veränderte Bildwiedergabeeigenschaften. Es wurden Messungen der Farbabweichung durchgeführt, gerätespezifischer Farbräume erstellt und das Leuchtdichteverhalten der Systemkomponenten untersucht. Die Auswertung der reproduzierbaren Messwerte der Leuchtdichte, der Farbsättigung und des Bunttons stellt objektive Kriterien zur Verbesserung der Bildqualität dar und soll eine farbtreue Darstellung auf LCDisplays ermöglichen.
Informationsversorgung ist zu einem zentralen Thema geworden. Das gilt längst nicht mehr nur für die Wirtschaft. Auch für Privatpersonen wird die Beschaffung von umfassenden und aktuellen Informationen zu alltagspraktischen Fragestellungen immer wichtiger, um am gesellschaftlichen Leben teilzunehmen. Informationen dienen als Basis für richtige Entscheidungen, so daß die Nachfrage nach Informationen stetig ansteigt. Den Öffentlichen Bibliotheken bietet sich in dieser veränderten Gesellschaft die Chance, ihren Standpunkt neu zu definieren, denn sowohl der Informationsbedarf als auch das Informationsangebot steigen weiterhin zunehmend an. Mit konventionellen Mitteln alleine läßt sich diese Aufgabe für die Bibliothek aber nicht mehr länger bewältigen. Zu viele Informationen sind auf herkömmlichem Wege kaum noch erreichbar. Viele sonst schwer zugängliche Informationen bietet mit Sicherheit das Internet, welches von vielen Bibliotheken auch schon genutzt wird. Doch aufgrund der Strukturlosigkeit des Internets ist es oft schon ein Zufall, das zu finden, was man sucht. Auch die Korrektheit des Gefundenen ist im Internet nicht gewährleistet (vgl. Lipka, 1998, S. 107). Durch die Nutzung von Online-Datenbanken könnte die Informationsversorgungspflicht durch die Bibliotheken noch besser wahrgenommen werden. Durch Online-Datenbanken sind ständig aktuelle Informationen aus allen Wissensbereichen verfügbar. Hier werden Informationen angeboten, die auf herkömmlichen Wegen sonst oft kaum zu beschaffen sind. Aufgrund der Eignung von Bibliotheken als Standort für Online-Datenbanken war das Ziel dieser Untersuchung herauszufinden, wie verbreitet die Nutzung von Online-Datenbanken in Öffentlichen Bibliotheken in Deutschland tatsächlich ist, ob in Öffentliche Bibliotheken ein Markt für Online-Datenbanken vorhanden ist und ob durch Bibliotheken die potentiellen Kunden der Datenbankanbieter (Hosts) erreicht werden können.