Refine
Year of publication
Document Type
- Master's Thesis (255) (remove)
Language
- German (255) (remove)
Has Fulltext
- yes (255)
Keywords
- Deutschland (14)
- Öffentliche Bibliothek (13)
- Bibliothek (11)
- Informationskompetenz (8)
- Internet (7)
- Sozialarbeit (7)
- XML (7)
- Datenbank (6)
- E-Learning (5)
- Electronic Commerce (5)
Faculty
- Fakultät 10 / Institut für Informatik (93)
- Fakultät 03 / Institut für Informationswissenschaft (60)
- Fakultät 07 / Institut für Medien- und Phototechnik (37)
- Fakultät 10 / Advanced Media Institute (12)
- Fakultät 07 / Institut für Nachrichtentechnik (6)
- Fakultät 01 / Institut für Medienforschung und Medienpädagogik (5)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (5)
- Fakultät 01 / Institut für interkulturelle Bildung und Entwicklung (4)
- Fakultät 02 / Cologne Institute of Conservation Sciences (4)
- Fakultät 01 / Institut für Kindheit, Jugend, Familie und Erwachsene (3)
Diese Arbeit untersucht verschiedene Ansätze, Daten im Google Cloud Firestore zu strukturieren und deren Auswirkungen auf Kosten, Performance sowie Codequalität. Zunächst folgt eine Aufbereitung des aktuellen Stands der Forschung. Darauf folgt die experimentelle Methodik. Hier dient eine prototypische Implementierung der Szenarien als Grundlage. Im Zuge des Experiments werden in unterschiedlichen Disziplinen Daten erhoben und im Anschluss ausgewertet, um empfehlenswerte Lösungen für definierte Anwendungsfälle zu benennen. Am Ende gibt die Arbeit ein kurzes Fazit zu den gewonnenen Erkenntnissen sowie einen Ausblick auf weitere Optimierungspotenziale ab.
Kategorisierung und Bewertung plattformübergreifender Ansätze für die Auswahl eines Frameworks
(2023)
Die plattformübergreifende Entwicklung ist eine populäre Art der Anwendungsentwicklung, die in der Forschung und Industrie immer weiter an Relevanz gewinnt. Dabei wird eine Codebasis geschrieben, die auf mehreren Betriebssystemen lauffähig ist. Das Ziel dieses Ansatzes ist es unter anderem, die Zeit- und Kosteneffizienz zu optimieren. Es gibt verschiedene Ansätze der plattformübergreifenden Entwicklung. Die einzelnen Frameworks lassen sich wiederum in diese Ansätze einteilen. Durch die steigende Akzeptanz dieser Art der Entwicklung herrscht eine zu große Auswahl an Frameworks, von denen jedes eigene Stärken und Schwächen aufweist. Dies ist ein Problem, da Entwickelnde keine Übersicht und Einordnung der Frameworks für ihre individuellen Bedürfnisse haben. Um diesem Problem entgegen zu wirken, wird in dieser Arbeit ein Verfahren entwickelt, mit dem das passende Framework für die Rahmenbedingungen des jeweiligen Projekts ermittelt werden kann. Dazu werden die Frameworks Kotlin Multiplatform, Flutter, React Native und Vue.js, das zur Umsetzung einer PWA genutzt wird, für eine mobile Anwendung getestet, die auf Android und iOS Geräten laufen soll. Zusätzlich werden 44 Kriterien ermittelt, anhand derer die Frameworks bewertet werden. Mit dem resultierenden Verfahren kann sowohl eine objektive, als auch eine subjektive Auswertung der Frameworks erfolgen, um eine geeignete Auswahl zu treffen.
Smartphones und die Nutzung von mobilen Anwendungen gewinnen aufgrund der stetig voranschreitenden Digitalisierung weiter an Relevanz. Im April 2022 lag die Zahl der genutzten mobilen Endgeräte bei knapp 6 Milliarden, wobei die Hersteller Apple
und Google einen Marktanteil von knapp 99 % einnehmen. Um als Entwickler eine möglichst große Zielgruppe anzusprechen, ist es daher wichtig, die eigene Anwendung auf möglichst vielen Plattformen zur Verfugung stellen zu können. Die native Entwicklung ist einer der am meist verbreitetste Entwicklungsansatz für mobile Anwendungen. Dort werden plattformspezifische Tools sowie native Programmiersprachen verwendet. Hierbei ergeben sich allerdings diverse Herausforderungen für Entwickler entlang des gesamten Entwicklungsprozesses. Neben der nativen Entwicklung existiert der Ansatz von Cross-Plattform. Hierbei handelt es sich um einen Sammelbegriff für verschiedene Ansätze, welche das Ziel verfolgen eine Anwendung durch die Nutzung einer einheitlichen Codebasis auf mehreren Plattformen zur Verfugung zu stellen. Einer dieser Unteransätze ist
Backend-Driven UI, worin die gesamte Anwendung innerhalb eines strukturierten Datenformats beschrieben und serverseitig verwaltet wird. Der Client kann diese Daten dann dynamisch anfragen und zur Laufzeit in native UI überführen. Das Konzept von Backend-Driven UI wird bereits durch Unternehmen wie Airbnb oder SiriusXM eingesetzt, ist hier allerdings stark auf anwendungsbezogene Prozesse zugeschnitten. Es bedarf daher eines Backend-Driven UI Frameworks, welches es Entwicklern ermöglichen soll, mobile Anwendungen, ohne anwendungsspezifische Einschränkungen plattformübergreifend zu entwickeln. Im Rahmen dieser Arbeit wurde daher zunächst eine plattformunabhängige und erweiterbare Architektur eines solchen Frameworks entwickelt und in Form eines ersten Prototyps auf ihre Umsetzbarkeit geprüft. Insgesamt stellt der Prototyp eine mögliche Umsetzung von Backend-Driven UI dar und ist in der Lage erste Anwendungsszenarien abzudecken. Es konnten dennoch Bereiche ermittelt werden, welche im Zuge zukünftiger Entwicklung ausgebaut werden können. Dazu zählt unter anderem das Umsetzen von serverseitig bestimmter Anwendungslogik sowie der Umgang mit Unterschieden im plattformspezifischen Funktionsumfang.
Konzeption einer flexiblen Systemarchitektur zur dynamischen Konfiguration hybrider Lernräume
(2021)
In dieser Arbeit wird eine dynamische Systemarchitektur für die Schaffung hybrider Ökosysteme konzipiert, welche eine flexible und kontextgerechte Konfiguration hybrider Lernräume ermöglichen. Aufgrund der variierenden Definitionen hybrider Lehre und Lernräume sowie der schwachen Abgrenzung zu verwandten Begriffen findet hierfür zunächst eine Konkretisierung eigener Arbeitsdefinitionen statt. Aufbauend auf diesen Begriffsbestimmungen und ausführlichen Literaturrecherchen, werden anschließend sich interdisziplinär überschneidende Kernelemente hybrider Lehre und Lernräume identifiziert sowie in einem Übersichtsmodell zusammengefasst. Durch die Literaturrecherche ersichtliche Charakteristiken des hybriden Paradigmas werden ebenso in
Beziehung gesetzt und zusammenfassend aufgeführt. Auf Basis dieser Übersichten und unter Berücksichtigung weiterer Forschungsergebnisse wird nachfolgend ein Vorgehensmodell kreiert, welches kontextgerechte Designs hybrider Systeme strukturiert ermöglicht. Neben didaktischen, physischen und digitalen Komponenten werden dafür diverse Typen von Lernaktivitäten identifiziert, welche als Ausgangspunkt eine effiziente und praxisorientierte Planung ermöglichen.
Alle erstellten Modelle bilden abschließend die Grundlage der konzipierten Systemarchitektur, in welcher die hybriden Kernkonzepte aus einer technischen Perspektive beleuchtet werden. Das hierdurch repräsentierte Microservice-Websystem beinhaltet neben notwendigen Basis-Services vor allem einen dynamischen Plugin-Mechanismus, welcher die flexible Integration neuer Bestandteile ermöglicht. So kann der Funktionsumfang auf sich wandelnde Anforderungen der Nutzer angepasst werden und die Anwendung mit der Zeit zu einem umfassenden Ökosystem heranwachsen.
Die vorliegende Arbeit beschäftigt sich mit der Gestaltung eines digitalen Assistenzsystemes zur Nutzung von Innovationsräumen. Digitale Assistenten werden bereits schon
seit längerer Zeit eingesetzt, beispielsweise in der Industrie 4.0 (vgl. Perevalova (2022). Innovation stellt derweilen eine Grundlage für wirtschaftlichen und unternehmerischen Erfolg dar (vgl. Schumpeter (1939) und wird durch Innovationsräume (vgl. Klooker u. a. (2019) und Innovationsprozesse wie dem Design Thinking unterstützt. Diese Prozesse werden dabei häufig von Innovation Coaches unterstützt. Der Ansatz des Innovationscoachings wurde von Albers u. a. (2016) beschrieben. Darauf aufbauend identifizierten Niever u. a. (2019) bereits zwölf Kernkompetenzen, die für einen Innovation Coach in Zukunft wichtig sein werden. Ein Problem, was sich dabei darstellt ist, dass diese Coaches häufig durch externe Moderatoren gestellt werden, welche ein Team nicht dauerhaft begleiten. Ohne die Coaches fehlt den Laien auf diesem Gebiet die nötige Methodenkompetenz, um eigenständig und methodisch Innovationen und Kreativität zu fördern. Diese Arbeit versucht daher, das Innovationscoaching mit einem digitalen Assistenten zu verbinden, um die eigenständige Nutzung von Innovationsräumen zu erleichtern und die Effizienz von Innovationsprozessen zu steigern. Dafür konnten zunächst durch die Auswertung von fünf Experteninterviews 63 Aufgaben eines Coaches und Aspekte des Systems identifiziert werden, die bei der Entwicklung eines Assistenzsystems bearbeitet werden sollten. Außerdem konnten 22 technische Kriterien formuliert werden, die bei der Auswahl einer geeigneten Technologie helfen können. Darüber hinaus wurden Lösungsmöglichkeiten für die wichtigsten Aufgaben eines Assistenzsystems aufgezeigt. Diese unterstreichen beispielweise die Relevanz der Forschungsfelder Indoor-Lokalisierung und künstliche Intelligenz. Die Ergebnisse dieser Arbeit sollen dazu beitragen, das Potenzial von digitalen Assistenzsystemen im Kontext von Innovationsprozessen zu verdeutlichen. Dies kann Unternehmen dabei unterstützen, Innovationsprozesse effizienter zu gestalten, unabhängig von Ressourcen oder Fachkräftemangel. In weiteren Forschungen könnte die konkrete Entwicklung des Assistenzsystems fortgeführt werden. Dabei könnte der Fokus auf die Aspekte eines hybriden Meetings gelegt werden oder darauf, wie ein mobiles Assistenzsystem gestaltet werden kann, das in verschiedene Räume mitgenommen werden kann.
In dieser Arbeit wird ein System zur Modellierung von IT-Compliance-Anforderun-gen in einer Graph-Datenbank entwickelt. Dabei werden organisationsinterne Com-pliance-Maßnahmen, ihre Umsetzungsdokumentation und die zwischen ihnen entstehenden Beziehungen berücksichtigt. Anschließend werden die Stärken und Schwächen des Systems anhand einer Erprobung mit Anforderungen an ein fiktives IT-Projekt der deutschen Versicherungsbranche herausgestellt und so die Praxistauglichkeit bewertet. Es wird unter anderem aufgezeigt, wie Compliance- Daten in die Datenbank aufgenommen werden können und welche Unterschiede es zu bisher verbreiteten Prozessen in diesem Gebiet gibt.
Die nachfolgende Masterarbeit untersucht die Nutzung von DeepFake-Anwendungen bei Personen mit einer Fazialisparese. Dabei handelt es sich um eine Lähmung des Gesichtnervs, wodurch die betroffenden Menschen keine bzw. keine vollständige Mimik im Gesicht haben. Es wird hierbei getestet, ob mithilfe von DeepFake eine möglichst realistische Mimik generiert werden kann. Für die Untersuchung werden zunächst sowohl die theoretischen Grundlagen als auch verschiedene potenzielle Anwendungen vorgestellt. Mithilfe der vorgestellten Anwendungen wird anschließend ein Versuch durchgeführt, in dem die künstliche Intelligenz mit Bildmaterial von Proband:innen trainiert und anschließend manipuliert wird. Die aus dem Versuch resultierenden Ergebnisse werden danach durch eine Umfrage mit Bildern, welche eine originale Mimik zeigen, verglichen. Dadurch soll überprüft werden, wie realistisch die manipulierten Bild- und Videomaterialien sind oder ob die künstliche Intelligenz an eine mögliche Grenze stößt. Abschließend werden weitere Forschungsansätze und Anwendungsmöglichkeiten vorgestellt, in welchem die betrachtete künstliche Intelligenz genutzt werden kann.
As a customer, it can be frustrating to face an empty shelf in a store. The market does not always realize that a product has been out of stock for a while, as the item is still listed as in stock in the inventory management system. To address this issue, a camera should be used to check for Out-of-Stock (OOS) situations.
This master thesis evaluates different model configurations of Artificial Neural Networks (ANNs) to determine which one best detects OOS situations in the market using images. To create a dataset, 2,712 photos were taken in six stores. The photos clearly show whether there is a gap on the shelf or if the product is in stock. Based on the pre-trained VGG16 model from Keras, two fully connected layers were implemented, with 36 different ANNs differing in the optimization method and activation function pairings. In total, 216 models were generated in this thesis to investigate the effects of three different optimization methods combined with twelve different activation function pairings. An almost balanced ratio of OOS and in-stock data was used to generate these models.
The evaluation of the generated OOS models shows that the FTRL optimization method achieved the least favorable results and is therefore not suitable for this application. Model configurations using the Adam or SGD optimization methods achieve much better results. Of the top six model configurations, five use the Adam optimization method and one uses SGD. They all achieved an accuracy of at least 93% and were able to predict the Recall for the OOS class with at least 91%.
As the data ratio between OOS and in-stock data did not correspond to reality in the previously generated models, the in-stock images were augmented. Including the augmented images, new OOS models were generated for the top six model configurations. The results of these OOS models show no convergences. This suggests that more epochs in the training phase lead to better results. However, the results of the OOS model using the Adam optimization method and the Sigmoid and ReLU activation functions stand out positively. It achieved the best result with an accuracy of 97.91% and a Recall of the OOS class of 87.82%.
Overall, several OOS models have the potential to increase both market sales and customer satisfaction. In a future study, the OOS models should be installed in the market to evaluate their performance under real conditions. The resulting insights can be used for continuous optimization of the model.
Durch die stetige Weiterentwicklung und die mediale Präsenz der künstlichen Intelligenz findet die Steigerung der Unternehmenssicherheit in Unternehmen besondere Bedeutung. Insbesondere aus dem Umfeld des Machine Learnings sind kontinuierlich Anwendungen zu verzeichnen, die dazu dienen, eine derartige Maßnahme zu unterstützen.
Im Rahmen dieser Arbeit wurde untersucht, ob eine potenzielle Steigerung der Unternehmenssicherheit durch den Einsatz eines Prototyps für die Objekterkennung basierend auf einem YOLOv5-Algorithmus erreicht werden kann. Es wurden Beispielszenarien definiert und die Wirksamkeit dieses Algorithmus bei der Erkennung und Identifizierung in Bezug auf die Sicherheitsanforderungen in einem Unternehmensumfeld evaluiert.
Die Forschungsmethodik umfasste die Entwicklung und den Aufbau des Prototyps, der auf einem YOLOv5-Algorithmus basiert und auf einem Trainingsdatensatz der Objekterkennung trainiert wurde. Der Prototyp wurde anschließend in einer Laborumgebung implementiert und auf seine Fähigkeit getestet, Objekte nach definierten Sicherheitsanforderungen zu erkennen.
Die Implementierung eines solchen Prototyps konnte dazu beitragen, die Sicherheitsmaßnahmen in Unternehmen zu unterstützen, die Sicherheitsreaktion zu beschleunigen und proaktivere Ansätze zur Gefahrenabwehr zu ermöglichen. Aus diesen Ergebnissen sind weitere Forschungen und praktische Anwendungen im Bereich der Unternehmenssicherheit denkbar.
Cloud Computing ist der zentrale Faktor zur Beschleunigung der Digitalisierung in Deutschland und wird in den kommenden Jahren eine wichtige Rolle in jedem deutschen Unternehmen spielen. Für Unternehmen wird es dabei um die Umsetzung von
Cloud-Strategien und die praktische Einbindung in die täglichen Betriebsprozesse gehen. Zusätzlich müssen Unternehmen ihre bestehende Datenlandschaft in moderne Architekturen zum Datenmanagement in die Cloud migrieren. Dabei können Unternehmen auf eine Vielzahl an unterschiedlichen unternehmensweiten Datenarchitekturen
zurückgreifen. Die vorliegende Masterarbeit gibt eine Einführung in die aktuelle Entwicklung von Cloud Computing und erläutert, mit Data Fabric, Data Lakehouse und Data Mesh, drei unternehmensweite Datenarchitekturen für die Cloud. Data Fabric, Data Lakehouse und Data Mesh bilden dabei aktuell die modernsten Konzepte für unternehmensweite Datenarchitekturen. Zusätzlich werden ein Data Lakehouse und ein Data Mesh in einer ausgewählten Cloud-Umgebungen entworfen, prototypisch aufgebaut und praktisch analysiert. Ziel der Masterarbeit ist es, die unternehmensweiten Datenarchitekturen in der Cloud zu erläutern, konkrete technologische Architekturen zu entwerfen und entsprechende Hinweise zu Aufwandstreibern in Unternehmen zu identifizieren.
Architektur für ein Qualitätsmanagementsystem zur Verbesserung der Relevanz von Suchergebnissen
(2023)
Die Suchfunktion ist in vielen Softwareprodukten eine wichtige Komponente, die häufig zur Navigation in der Anwendung dient. Gerade, wenn große Datenmengen bereitgestellt werden, wie es bei Streamingdiensten (Netflix, Spotify) oder bei E-Commerce-Plattformen (Amazon, Zalando) der Fall ist, ist es wichtig, dass die Suchergebnisse für den Nutzer relevant sind. Eine für den Nutzer effektive Navigation mit der Suchfunktion ist nur möglich, wenn die Suchergebnisse eine ausreichend große Relevanz für den Nutzer bieten. Die Organisationen, welche die oben genannten Dienste betreiben, versuchen daher, die Relevanz ihrer Suchergebnisse zu optimieren. Eine Optimierung auf Relevanz ist zwar für eine spezielle Suche einfach, jedoch können dabei häufig Seiteneffekte auftreten, welche die Relevanz über alle Suchen verschlechtern. In einem E-Commerce-Shop kann das Einfiihren des Synonyms „Birne -> Glühbirne" dafür sorgen, dass Nutzer, die Gliihbirnen kaufen wollen und nach „Birne" suchen nun auch Gliihbirnen finden. Falls Nutzer aber das Obst Birne kaufen möchten, sind die Ergebnisse für diese Gruppe irrelevant. Bei einer Optimierung der Relevanz über alle Suchen können Qualitätsmanagementsysteme unterstützen. Ein Qualitätsmanagementsystem fiir die Relevanz von Suchergebnissen muss nicht nur fachliche und technische, sondern auch organisatorische Anforderungen beachten, um die Optimierungspotenziale vollständig auszuschöpfen. Diese Arbeit erläutert diese Anforderungen und stellt eine Architektur für ein Qualitätsmanagementsystem vor. Die Architektur wird hinsichtlich der Erfüllung der erläuterten Anforderungen analysiert. Desweiteren werden die Vor- und Nachteile fiir die jeweiligen Architekturentscheidungen unter Betrachtung der Anforderungen diskutiert. Das Ziel der Arbeit ist es, die Architektur entsprechend zu erläutern, sodass eine Organisation diese für sich angepasst implementieren kann.
Diese Arbeit gibt einer postfundamentalistischen Perspektive auf politisches Handeln in der Sozialen Arbeit in einer qualitativen Erforschung der Fachkräftekampagne ‚#dauerhaftsystemrelevant‘ Raum. Zur theoretischen Rahmung werden in einem ersten Schritt zentrale Diskussionslinien um politisches Handeln in der Sozialen Arbeit dargelegt. Daraufhin eröffnen Theorien politischer Differenz eine kontingenzsensible und hegemoniekritische Perspektive auf Soziale Arbeit, ihr Verhältnis zu Politik und ihr politisches Handeln. Der Forschungsstand errichtet ein Mosaik aus internationalen Forschungserträgen, die das Thema dieser Arbeit tangieren. Es folgen eine inhaltsanalytische Untersuchung von Veröffentlichungen der Fachkräftekampagne ‚#dauerhaftsystemrelevant‘ und Leitfadeninterviews mit Kampagnenaktiven im Hinblick auf Momente politischer Differenz. Es zeichnen sich differenztheoretische Simultaneitäten und Bewegungen in den Kampagnenaktivitäten ab. Die Ergebnisse zeigen politische Differenz als einen Spielraum politischer Handlungen Sozialer Arbeit auf und offerieren diesen so eine postfundamentalistische Analyse- und Diskussionsfolie.
Die Digitalisierung hat Auswirkung auf die Entwicklung von Produkten. Die Teams werden agiler, die Kunden haben als Eigentümer eines Produktes Mitspracherecht und bestimmen gemeinsamen mit den Entwicklern, welche Features als Nächstes aus dem vordefinierten Backlog in dem nächsten Sprint als Inkrement eingebaut und ausgeliefert werden. Durch die enge Zusammenarbeit werden die Release-Zyklen eines Produktes kürzer und es werden mehr Features als in der Vergangenheit bei nicht agilen Methoden deployt. Durch die kurzen Release-Zyklen werden viele unterschiedlichen Versionen ausgerollt. Dies hat zur Folge, dass Fehler, die vorher durch das Testen nicht entdeckt worden sind, auf einer produktiven Umgebung ausgerollt werden. Hat der Fehler eine starke Auswirkung auf die Benutzung der Anwendung, dann besteht die Möglichkeit, die Änderung manuell durchzuführen. Diese muss beim nächsten Release eingebaut werden. Wenn die Release-Zyklen länger werden, birgt es die Gefahr, dass viele manuelle Änderungen in der Zeit entstehen. Der ausgerollte Zustand entspricht nach einer bestimmten Zeit nicht mehr dem eingecheckten Zustand im Git-Repository. An der Stelle bietet der GitOps-Ansatz eine mögliche Abhilfe, um den ausgerollten Ist-Zustand durch regelmäßiges Pullen so nah wie möglich an dem im Repository eingecheckten Soll-Zustand zu halten.
Aufgrund der voranschreitenden Digitalisierung sind neue Geschäftsmodelle entstanden, wozu unter anderem der Online-Handel (Electronic Commerce, E-Commerce) gehört. Dieser bietet Flexibilität beim Einkaufen, die verschiedenen Benutzergruppen zugutekommt. Dazu gehören auch Personen mit einer Sehbehinderung oder Erblindung. Allerdings existieren noch einige Hindernisse bzw. Barrieren im Online-Handel, die zu einer negativen Benutzerfreundlichkeit (User Experience, UX) und einer Benachteiligung der genannten Benutzergruppe führen.
Das Ziel der vorliegenden Arbeit ist daher die Untersuchung der digitalen Inklusion von sehbehinderten und blinden Personen im E-Commerce. Anhand einer ausführlichen Literaturrecherche und 16 halbstrukturierten Interviews mit der Zielgruppe wurden bestehende Barrieren im E-Commerce sowie Verbesserungsmöglichkeiten zur Schaffung eines barrierefreien Online-Handels gesammelt. Durch die Analyse eines Fallbeispiels wurden negative Implementierungen veranschaulicht und anhand der zuvor gesammelten Erkenntnisse beseitigt. Dadurch wurde aufgezeigt, wie ein barrierefreies User-Experience-Design für sehbehinderte und blinde Personen im E-Commerce geschaffen werden kann.
In der Arbeit stellte sich heraus, dass viele vorhandene Barrieren im E-Commerce erst durch die Interviews identifiziert werden konnten. Dadurch zeigt sich, dass eine Auseinandersetzung mit der Zielgruppe und eine Einbindung dieser in die Gestaltung und Evaluation von hoher Relevanz ist. Dies gewährleistet, dass Barrieren vermieden oder rechtzeitig entdeckt werden können und das System, Produkt oder die Dienstleistung den Anforderungen der Zielgruppe entspricht. Die Arbeit stellt somit ein erstes Konzept zur Schaffung eines barrierefreien UX-Designs im E-Commerce da. Um die Qualität der Ergebnisse je- doch überprüfen zu können, sind weitere Forschungen notwendig, die sich mit weiteren Benutzerbefragungen und Evaluationen der Verbesserungsmöglichkeiten beschäftigen.
Diese Thesis befasst sich mit der Frage, in welcher Art und Weise sich das deutsche Feuerwehrwesen verändern und anpassen muss, um den abwehrenden Brandschutz nachhaltig sicherzustellen.
Ausgangspunkt ist die Problemstellung, dass einige Freiwillige Feuerwehren besonders tagsüber und vornehmlich im ländlichen Räumen nicht mehr den gesetzlichen Schutzzielen und Anforderungen entsprechen können. Um dieser Frage nachgehen zu können, ist die Methode des Benchmarkings auf Gefahrenabwehrsysteme adaptiert worden. Da die Forschungen innerhalb des deutschen Feuerwehrwesens nicht zielführend waren, ist das Benchmarking international und organisationsvergleichend ausgerichtet worden. Die Niederlande konnte als Vergleichspartner konstatiert werden, weil diese eine große kulturelle Ähnlichkeit zum deutschen Feuerwehrwesen aufweist und regionalisiert agiert. Das Merkmal der Regionalisierung stellte sich im europäischen Raum als eine vielversprechende Variante der Organisationsgestaltung heraus.
Der Benchmarkingprozess ist morphologisch beibehalten worden. Die Analysen, Vergleiche und Bewertung erfolgten nach Vorbild der Organisationsanalyse nach den Ausführungen von Wenger, Thom und Ritz, welche in das Benchmarking implementiert wurden. Diese Vorgehensweise stellte sich als erfolgreich heraus.
Die Verbesserungs- und Handlungsoptionen für das deutsche Feuerwehrwesen aus dem Benchmarking mit den Niederlanden sind folgende:
• Bündelung und Verknüpfung von Gefahrenabwehraufgaben in
regionalen Strukturen sowie die Regionalisierung der
Feuerwehren
• Anpassung der Schutzziele und Hilfsfristen an
Effizienzkriterien und Risiko unter der Bedingung weiterer
einhergehender Maßnahmen (Wandel von einer
strukturqualitätsorientierten hinzu einer
prozessqualitätsorientierten Philosophie)
o Standardisierung der Ausbildung aller
Feuerwehrdienstleistenden (in Modulen) und I
Intensivierung der ehrenamtlichen Ausbildung
o Festlegen der Staffel als Standardeinheit
o Einführung von Zwischenebenen zwischen
freiwilliger/zufälliger und beruflicher/sicherer
Verfügbarkeit
o Vergütung von arbeitsverhältnisähnlichen Dienstzeiten
o Reduzierung der Fahrzeugvielfalt
o Risikoorientierente und regionalstrukturierte
Fahrzeugvorhaltung
o Objektbezogene Risikoanalyse
o Einführung eines Qualitätsmanagementsystems und eines
standardisierten Controllings
o Transparenz- und Einbindungsstrategie mit der
Öffentlichkeit verfolgen
Weitere Maßnahmen, die sich zwar im heutigen Feuerwehrsystem umsetzen ließen und die Effektivität und Effizienz steigern würden, aber nicht das Problem der nicht erreichbaren Schutzziele beheben könnten, sind Maßnahmen wie die Etablierung des Krisenmanagements, die wissenschaftliche Erschließung des Feuerwehrwesens, die Bündelung rückwärtiger Tätigkeiten oder die Weiterentwicklung des Führungssystems hinsichtlich mehrstufiger Skalierbarkeit sowie wirkungsvoller und interdisziplinärer Zusammenarbeit.
Die hochwertige und umfassende Ausbildung von Führungskräften in der Gefahrenabwehr gilt als ausschlaggebender Punkt für die effektive Bewältigung von Gefahrenlagen. Zur Erreichung dieser Anforderungen wurde im Pilotlehrgang der Bundesakademie für Bevölkerungsschutz und Zivile Verteidigung erstmals die Software „Feuerwehr-Einsatzsimulation“ für die Darstellung von Planübungen bei der Ausbildung von Verbandsführern und Verbandsführerinnen eingesetzt. Ziel der vorliegenden Masterarbeit ist die Evaluierung des neuen Ausbildungskonzeptes im Rahmen einer Pilotstudie, um feststellen zu können, welchen Einfluss die Nutzung einer computergestützten Simulation im Vergleich zu konventionellen Ausbildungskonzepten auf den Lernprozess der angehenden Verbandsführer beziehungsweise Verbandsführerinnen hat. Zur umfassenden Evaluation wird eine Datenerhebung nach dem Mixed-Methods Prinzip mithilfe eines quantitativen Fragebogens, einer qualitativen Gruppendiskussion mit den Teilnehmenden sowie qualitativen Leitfadeninterviews mit den Dozierenden des Pilotlehrganges durchgeführt.
Die Ergebnisse zeigen, dass sowohl die Teilnehmenden als auch die Dozierenden den Einsatz der Software positiv bewerten. Es kann festgestellt werden, dass die Nutzung der Simulation einen positiven Einfluss auf den Lernprozess der Teilnehmenden hat. Begründen lässt sich dieser durch die realistischere Darstellung der Einsatzszenarien, der Erkundung der Einsatzstelle unter realen Bedingungen und dem besseren Feedback durch die Dozierenden, da die getroffenen Maßnahmen in der Simulation umfassend dargestellt werden können. Verbesserungsbedarf besteht bei der Immersion für die Teilnehmenden und einer leichteren Bedienung der Software für die Dozierenden. Der Einsatz einer computergestützten Simulation bei der Ausbildung von Verbandsführern und Verbandführerinnen erfüllt die hohen Anforderungen an eine praxisorientierte Ausbildung. Es ist daher empfehlenswert, eine computergestützte Simulation zur Darstellung von Planübungen für die Ausbildung von Verbandsführern und Verbandsführerinnen einzusetzen.
Die Arbeit richtet sich an die mit der Ausbildung von Verbandsführern bzw. Verbandsführerinnen beauftragten Stellen und deren Dozierenden.
Digitale Medien sind fester Bestandteil der Lebenswelten von Kindern und Jugendlichen. Sie wachsen in eine Medienwelt hinein, in der digitale Technologien allgegenwärtig und selbstverständlich sind. Junge Menschen gelten daher als Digital Natives („Digitale Einge-borene“). Dennoch brauchen sie pädagogische Unterstützung, um souverän mit Medien umgehen zu können. Denn die informell erworbenen Fähigkeiten sind oft nicht ausrei-chend, um als kompetentes Medienhandeln gelten zu können. Dabei lässt sich gerade für die Adressat*innen der stationären Erziehungshilfe ein deutlicher Mehrbedarf in der Ausbil-dung von Medienkompetenz ausmachen, da für sie keine angemessene Medienerziehung in der Herkunftsfamilie vorausgesetzt werden darf. Doch in der stationären Kinder- und Jugendhilfe sind digitale Medien und Medienerziehung bisher eher vernachlässigte Themen.
Mithilfe einer quantitativen Befragung von knapp 200 Fachkräften zur Praxis der Medien-ziehung in Einrichtungen der stationären Erziehungshilfe in Deutschland wird dieses bisher wenig erforschte Feld genauer beleuchtet. Im Fokus stehen dabei die eigene Medienkom-petenz, medienbezogene Einstellungen, Qualifikation und Fortbildungsengagement der Fachkräfte sowie die Rahmenbedingungen der Einrichtung und medienerzieherischen Tä-tigkeiten im Arbeitsalltag. Wie die Analyse zeigt, erkennen die meisten Fachkräfte die Be-deutung der Medienerziehung in stationären Hilfen durchaus an, es besteht jedoch ein ho-her Informations- und Fortbildungsbedarf der Fachkräfte rund um medienpädagogische Themen. Denn nur etwa die Hälfte der Befragten hat im Rahmen ihrer beruflichen Ausbil-dung medienpädagogisches Wissen erworben; ein Großteil hat zudem keine entsprechen-den Fortbildungen absolviert. Fehlende medienpädagogische Konzepte sowie die häufig mangelhafte und veraltete technische Ausstattung in den Einrichtungen erschweren die medienerzieherische Praxis der Fachkräfte zusätzlich.
In dieser Arbeit wird ein Vorgehensmodell entwickelt um eine Taxonomie für Spielmechaniken aufzubauen. Hierfür werden zwei Vorgehensmodelle miteinander verbunden: eines, das die Extraktion von Spielmechaniken aus Gesellschaftsspielen in verschiedenen Strategien ermöglicht sowie ein weiteres, das ein standardisiertes Vorgehen beschreibt, wie eine Taxonomie aufgebaut werden kann.
Innerhalb des Vorgehensmodell zum Taxonomieaufbau werden die Strategien zur Extraktion von Spielmechaniken zum Aufbau des Domänenverständnisses genutzt. Davon ausgehend werden Kategorien abstrahiert, welche im Nachgang verfeinert und zueinander in Bezug gesetzt werden. Anschließend werden die zusätzlich extrahierten Spielmechaniken in die neu aufgestellte Struktur anhand der identifizierten Kriterien integriert und auf Kohärenz geprüft.
Vergangene Ereignisse haben gezeigt, dass es trotz gesetzlicher Vorgaben und technischer Regeln, welche die Notstromversorgung von Krankenhäusern bestimmen, zu Vorfällen mit menschlichen Verlusten als Folge von Stromausfällen kam. Deshalb befasst sich diese Masterthesis mit der Entwicklung einer Bewertungsmethode für die Notfallplanung von deutschen Krankenhäusern im Bereich der Energieversorgung unter Berücksichtigung von technischen und organisatorischen Anforderungen. Sie soll in der Krankenhausalarm- und Einsatzplanung Anwendung finden.
Das Ziel ist es, eine Methode zu entwickeln, welche von Anwender:innen mit unterschiedlicher Ausprägung der Fachexpertise in der Krankenhausalarm- und Einsatzplanung sowie Risikoanalyse genutzt werden kann. Über zwei Scoping Reviews für die Krankenhausalarm- und Einsatzplanung sowie zur Energieversorgung von Krankenhäusern werden bestehende Vorgaben und Konzepte sowie Anforderungen an die Methode ermittelt. Basierend auf diesen Informationen wird ein gestuftes Bewertungsmodell vorgeschlagen. Es setzt sich aus einer Synthese eines Verfahrens des Bundesamts für Bevölkerungsschutz und Katastrophenhilfe zur Vulnerabilitätsanalyse mit Methoden der multikriteriellen Entscheidungsunterstützung (Satisfizierungsverfahren und Analytic Network Process) zusammen. Anhand einer exemplarischen Durchführung erfolgte eine empirische Validierung. Des Weiteren wurden der Praxisbezug und die Anwendbarkeit mit Expert:innen-Gesprächen untersucht.
Als Ergebnis kann festgehalten werden, dass sich das gestufte Bewertungsmodell als Planungsmodell für die Bewertung der Energienotversorgung von Krankenhäusern eignet. Es ist in eine Einsteiger-, Fortgeschrittenen- und Expertenstufe unterteilt, um für alle Anwender:innen unabhängig von ihrer Fachexpertise nutzbar zu sein. Es sind weitere Arbeiten unter enger Einbindung von Krankenhausbetreibenden erforderlich, um anhand des Modells priorisierte Checklisten mit allgemeinen technischen und organisatorischen Anforderungen für die Fortgeschrittenenstufe zu entwickeln. Durch die exemplarische Durchführung hat sich herausgestellt, dass das gestufte Bewertungsmodell zudem zur Identifizierung von Abhängigkeiten und Kritikalität des untersuchten Systems genutzt werden kann.
Als Herausforderung stellte sich die Übertragung des Analytic Network Process zu einem Bewertungs- und Priorisierungssystem der technischen und organisatorischen Anforderungen in Verbindung mit der Vulnerabilität heraus. Die Anwendungsgrenzen werden durch die Stufung des Bewertungsmodells gering gehalten. Es sind jedoch weitere Arbeiten, wie die Erstellung eines Leitfadens, notwendig, um die praktische Umsetzung zu ermöglichen.
Problemstellung: COVID-19 ist nicht nur aufgrund der Folgen der Erkrankung problematisch, sondern auch aufgrund einer ganzen Reihe von Sekundäreffekten. So stellt eine lang andauernde Pandemie eine Dauerbelastung dar, welche sich auf die Psyche des Menschen auswirken kann. Insbesondere Kinder und Jugendliche sind hier auf-grund ihrer besonderen Angewiesenheit auf das häusliche Umfeld besonders vulnerabel. Zeitgleich ist diese Gruppe in bestehenden Krisenplänen bisher nicht oder kaum relevant. Aufgrund der Besonderheit, dass sich Kinder und Jugendliche noch in der Entwicklung befinden und dass, insbesondere für jüngere Kinder, die aktuell seit über einem Jahr bestehende Situation der Pandemie und die damit verbundenen Einschränkungen einen erheblichen Zeitraum darstellt, besteht ebenfalls die Gefahr von kulturellen und sozialen Entwicklungsproblemen. Vor diesem Hintergrund ist auch zu beachten, dass Maßnahmen gegen das Virus, welches die Primärgefahr darstellt, ebenfalls negative Auswirkungen auf Kinder und Jugendliche darstellen und somit zu Sekundärgefahren führen können. Weiterhin ist zu bedenken, dass Fehler in der Pandemiebekämpfung, welche sich nachhaltig negativ auf Kinder und Jugendliche auswirken, in der Zukunft in Form von Problematiken im Erwachsenenalter und, bei entsprechend vielen Betroffe-nen, in der gesamten Gesellschaft sichtbar werden. Um dies zu erforschen, werden zunächst die Fragestellungen bearbeitet, welche Sekundärgefahren und Risiken aufgrund von COVID-19 für Kinder und Jugendliche vorliegen, sowie ob die Vor- und Nachteile der Lockdowns die Vorteile für Kinder und Jugendliche überwiegen. Im Anschluss werden Handlungsempfehlungen gegeben, wie die Gesundheit und das Wohlergehen von Kindern und Jugendlichen in künftig ähnlichen Lagen sichergestellt werden können.
Angewandte Methoden: Um ein möglichst umfassendes Bild über die Lage von Kindern und Jugendlichen in Deutschland zu erhalten, werden Experteninterviews mit Expertinnen und Experten aus unterschiedlichen Fachgebieten und Berufsbereichen durchge-führt. Aufgrund der internationalen Vergleichbarkeit der Problematik werden auch Ex-pertinnen und Experten aus dem internationalen Raum befragt. Dies kann dazu beitragen, Aspekte, welche im nationalen Raum nicht bekannt sind oder nicht als relevant eingeschätzt werden, in diese Arbeit mit einfließen zu lassen. Weiterhin werden Studien und Quellen aus dem nationalen Raum in Form einer Sekundäranalyse betrachtet, um auf die Vor- und Nachteile der Lockdowns Rückschlüsse ziehen zu können. Insbesondere die Unterschiedlichkeit der verschiedenen Studien und Quellen stellte dabei eine große Herausforderung dar. Somit findet eine Anwendung von qualitativen und quanti-tativen Methoden statt, was als Mixed Methods bezeichnet wird.
Wichtigste Ergebnisse: Eine eindeutige Aussage über die Sekundärgefahren für Kinder und Jugendliche gestaltet sich als schwierig, da diese Gefahren unter anderem stark durch das häusliche Umfeld geprägt sind. So scheinen Kinder und Jugendliche aus so-zial schwächeren Familien in einem höheren Maße betroffen zu sein als jene, aus sozial stärkeren Familien. Zusätzlich stellt die Pandemie eine Brennglasfunktion für bereits zu-vor bestehende Problematiken dar. Der Vergleich von Vor- und Nachteilen der Lockdowns für Kinder und Jugendliche zeigt die Unterschiedlichkeit bestehender Studien und Quellen auf, wodurch das Ergebnis dieser Fragestellung primär Indizien darstellt. Die Handlungsempfehlungen, welche ebenfalls ein Ziel dieser Arbeit darstellen, bestehen
auf den vorherigen Ergebnissen aufbauend aus grundsätzlichen Handlungsempfehlungen, dem Einbezug von Kindern und Jugendliche in Pandemiepläne, der Beteiligung von Kindern und Jugendlichen in Entscheidungen bezüglich Krisensituationen sowie der Nachsorge der aktuellen Pandemie.
Anwendungsgebiet und Zielgruppe: Bei dem Anwendungsgebiet handelt es sich zu-nächst um ganz Deutschland, wobei unter Beachtung örtlicher Gegebenheiten auch ein internationaler Anwendungsbezug des Themas besteht. Die Zielgruppe stellen insbesondere Politiker und Entscheider in Behörden dar, welche zuständig für die Formulierung bzw. Fortschreibung von Pandemieplänen und für die Bereitstellung der techni-schen und personellen Ressourcen sind.
Der Ausbruch der COVID-19-Pandemie und die zur Bekämpfung des Virus erlassenen Coronaschutzverordnungen verschärfen die Lebenslagen geflüchteter und flüchtender Menschen und erschweren die Arbeit von sozialen Bewegungsakteuren und Organisationen der Sozialen Arbeit, die auf Missstände im Kontext von Flucht und Asyl aufmerksam machen und sich für deren Verbesserung einsetzen. In dieser Arbeit wurde daher der Frage nachgegangen, wie sich zivilgesellschaftliche und sozialarbeiterische Organisationen seit der Pandemie für geflüchtete Menschen und Menschen auf der Flucht einsetzen. Mithilfe von sieben leitfadengestützten Interviews mit Personen aus Lokalgruppen von Seenotrettungsorganisationen, Willkommensinitiativen und Organisationen der Sozialen Arbeit wurde rekonstruiert, wie die befragten Akteure ihre Situationen erleben und auf welche Weise sie sich zu diesen wahrgenommenen Gegebenheiten verhalten und auf sie einwirken. Dabei wurden sowohl fallübergreifende Kategorien identifiziert, wie innerorganisationale Gestaltungsprozesse, die Bedeutung von Vernetzung und Engagementbereitschaft sowie die Wahrnehmung von gesellschaftlichem Klima und politischen bzw. medialen Entwicklungen, als auch fallspezifische Bedingungen und Bewältigungsmuster der jeweiligen Organisationen herausgearbeitet. Ein besonderes Augenmerk wurde schließlich auf das Verhältnis zwischen Fachkräften der Sozialen Arbeit und Aktivist:innen bzw. Engagierten gelegt, da die Beziehung von sozialen Bewegungen und der Sozialen Arbeit insgesamt bisher empirisch unterbelichtet ist
More and more often, spoken information must and should be available in written form. For this purpose, various transcription programs try to support the user with various conveniences when transcribing the source material. A variety of online services go one step further and provide a ready-to-use, automatically generated transcription for a fee. Since the fees can be very expensive for the individual user and the online services may not always be used for privacy reasons, the goal of this work is to implement an open offline alternative. This alternative should be an open source editor based on the open speech-to-text-engine DeepSpeech and should on one hand provide the user with an offline transcription and on the other hand support him in correcting it. To achieve this goal, first the traditional speech recognition and eventually DeepSpeech will be described. This is followed by the conception and implementation of the editor. Since this project is explicitly intended to be an open source project, the last part will take a closer look at the release.
Immer mehr Mobile Augmented Reality Spiele werden entwickelt und gewinnen zunehmend an Beliebtheit. Zugleich können Smartphones überall und zu jeder Zeit für Mobiles Lernen genutzt werden. Diese Masterarbeit beschäftigt sich mit einem auf Mobile Augmented Reality basierenden Serious Game.
Serious Games werden eingesetzt, um Fähigkeiten zu trainieren, Wissen anzueignen oder Einstellungen des Spielers zu ändern. Dabei lernen die Spieler in der Spielwelt Inhalte, die sie in die Realität übertragen und anwenden können. Es wird folgende Forschungsfrage beantwortet: Wie wird der Wissenserwerb eines Serious Game durch den Einsatz von Mobile Augmented Reality beeinflusst. Zum einen werden Theorien über das Lernen durch Serious Games und zum anderen Theorien über Lernen mit Augmented Reality anhand einer Literaturarbeit untersucht und kritisch eingeordnet. Der Vergleich dieser Theorien dient der Identifizierung von wichtigen Elementen für Augmented Reality Serious Games. Dazu wird das Potenzial von Mobile Augmented Reality anhand ihrer Vor- und Nachteile aufgezeigt. Die Ergebnisse dienen einem weiteren Modell, welches die Auswirkungen der Serious Game Elemente und Augmented Reality Elemente auf den Spieler verknüpft. Ebenso werden spezifische Merkmale über den Spieler und dem Kontext des Spiels identifiziert.
Im Anschluss an die Darstellung der einzelnen Serious Games und Mobile Augmented Reality Elemente wird ein Spiel über den Ausbruch des Virus COVID-19 entwickelt. Es werden Informationen über die Pandemie und die gesetzlich vorgeschriebenen Schutzmaßnahmen integriert.
Es wird deutlich, dass sich die Elemente auf den Spieler und sein Spielerlebnis auswirken, als auch einen Einfluss auf den Lerneffekt haben. Dennoch kann nicht einzeln begründet werden, für welchen Zweck bestimmte Elemente eingesetzt werden müssen. Es werden die Bedingungen zusammengefasst, die sich individuell auf das Spielerlebnis und den Lerneffekt auswirken.
Bei Gebäuden mit zentraler Wärmeerzeugung treten im Verteilsystem Wärmeverluste auf. Insbesondere bei zirkulierenden Trinkwarmwassersystemen, aber auch bei Heizungsanlagen können diese Verteilverluste einen hohen Anteil am Gesamtwärmeverbrauch ausmachen und somit relevant für die Energieeffizienz einer Anlage sein. Die Ansätze und Angaben zur Quantifizierung der Verteilverluste in den relevanten Regelwerken weichen teils deutlich von Angaben in der Fachliteratur und den wenigen vorliegenden Fallbeispielen ab. Die vorliegende Masterarbeit behandelt das Thema anhand der Analyse eines Fallbeispiels. Das untersuchte Objekt ist ein Mehrfamilienhaus mit einer Zweileiterinstallation. Dabei handelt es sich um ein System, welches die Wärmeversorgung für Heizung und Trinkwasser kombiniert. Durch Vergleich der Wärmemengenzähler in Wohnungen und Heizungskeller sind in der Vergangenheit Verteilverluste von 16,5 kWh/m²a aufgefallen, was 28 Prozent des gesamten Verbrauchs ausmacht.Im Rahmen der Falluntersuchung werden die Verteilverluste der Anlage über eine umfangreiche Datenaufnahme und mithilfe thermodynamischer Berechnungen bestimmt und mit den Zählerdaten abgeglichen. Dieser Berechnung nach betragen die Verteilverluste 14,7 kWh/m²a, wovon die Leitungsverluste den größten Anteil ausmachen. Zur Prüfung der Ansätze der Regelwerke werden diese auf das Objekt angewendet. Eine Vergleichbarkeit ist wegen abweichender Rahmenbedingungen nur bedingt gegeben. Die anhand der Normen ermittelten Werte liegen zum Teil in der Größenordnung der thermodynamischen Berechnung, teils auch deutlich darunter. Der Abgleich mit den Zählerdaten dient auch der Prüfung der thermodynamischen Berechnung. Auf diese Weise sollen fundierte und detaillierte Aussagen über den Einfluss einzelner Parameter und Komponenten des Systems ermöglicht werden. Darüber hinaus ermöglicht es die thermodynamische Berechnung, das Potenzial verschiedener Reduktionsmaßnahmen zu quantifizieren. Hier zeigt sich, dass ein Absenken der Vorlauftemperatur im Fallbeispiel eine effektive Maßnahme darstellt. Beispielsweise bewirkt die Absenkung der Vorlauftemperatur um 5 Kelvin im Fallbeispiel eine Reduktion der Leitungsverluste um circa 16 Prozent, respektive einen um circa 3 Prozent verringerten Gesamtverbrauch. Die ebenfalls modellierte Dämmung der Installationsschächte hingegen lässt bei ungleich höherem Aufwand geringere Einsparungen erwarten. Bei der Bewertung der Ergebnisse ist zu beachten, dass im Untersuchungsobjekt der spezielle Fall eines Zweileitersystems vorliegt. Dennoch können auf Basis der Untersuchung auch allgemeine Erkenntnisse über Verteilverluste gewonnen und Einschätzungen über die normativen Angaben abgeleitet werden. Darüber hinaus wird im Rahmen eines Exkurses die thermische Situation im Installationsschacht einer genaueren Betrachtung unterzogen. Diese ist von Interesse, da die Wärmeverluste hier Einfluss auf Fragen der technischen Hygiene und des sommerlichen Wärmeschutzes ausüben.
Der Einsatz von Gebärden scheitert häufig daran, dass bisher kaum bedarfsgerechte Lernangebote für Eltern mit einem unterstützt kommunizierenden Kind zur Verfügung stehen und das obwohl die digitalen Entwicklungen ein großes Spektrum an medienbasierten Lernarrangements eröffnen. Audiovisuelle Lernvideos könnten hier hilfreich sein, denn sie bieten - ähnlich wie die Gebärdensprachkommunikation - eine simultane Darstellung von auditiven und visuellen Informationen. Des Weiteren sind sie heutzutage in jedem Familienalltag durch mobile Endgeräte präsent und halten für Kinder eine Vielzahl von affektiv-sozialen Erlebnissen bereit, die das Lernen unterstützen.
Kinder, die mit Variationen der Geschlechtsmerkmale zur Welt kommen, werden in den ersten Lebensjahren häufig geschlechtsverändernden medizinischen Eingriffen unterzogen. Dabei wird die stellvertretende Einwilligung der Eltern als zulässig erachtet, um den medizinischen
Eingriff zu legitimieren. Diese Maßnahmen stehen jedoch zunehmend in der Kritik und werden als Verstoß gegen die Selbstbestimmung von Kindern und Jugendlichen sowie als Verletzung wesentlicher Grund- und Menschenrechte gewertet. Obwohl sich aktuelle Empfehlungen und
Leitlinien zunehmend an den Rechten und dem Wohl von intergeschlechtlichen Minderjährigen orientieren, ist die Anzahl der geschlechtsverändernden Eingriffe in den letzten Jahren dennoch relativ konstant geblieben. Hieraus ergibt sich ein aktueller Handlungsbedarf. In der vorliegenden Arbeit wird an den Rechten von intergeschlechtlichen Minderjährigen angeknüpft. Dabei liegt der Fokus auf den Selbstbestimmungsrechten von intergeschlechtlichen Kindern und Jugendlichen. In der Literatur ist umstritten, inwiefern Minderjährigen eigene Selbstbestimmungsrechte zustehen und sie diese selbst ausüben können. Im Rahmen der Masterarbeit wird daher zunächst erarbeitet, in welchem Verhältnis Elternrechte und Selbstbestimmungsrechte von intergeschlechtlichen Minderjährigen im aktuellen Familienrecht stehen. Daraus wird abgeleitet, welche Möglichkeiten und Grenzen der Selbstbestimmung und Stellvertretung bei geschlechtsverändernden medizinischen Eingriffen bestehen. Hierbei zeigt sich, dass gerade nicht medizinisch indizierte Eingriffe, die auf eine „Angleichung“ des Geschlechts an bestehende Geschlechternormen ausgerichtet sind, gegen das Kindeswohl sowie Grundrechte verstoßen und Minderjährigen wesentliche Möglichkeiten für eine selbstbestimmte Lebensführung nehmen. Wirksame familienrechtliche Schutzmöglichkeiten bestehen
jedoch nicht. Als Perspektive wird daher ein Gesetzesentwurf des Deutschen Instituts für Menschenrechte auf seinen Schutzgehalt für intergeschlechtliche Minderjährige untersucht. Neben wenigen Kritikpunkten zeigt sich, dass das „Geschlechtervielfaltsgesetz“ zum Schutz und zur Selbstbestimmung intergeschlechtlicher Minderjähriger beitragen könnte. Ergänzend zu einer gesetzlichen
Klarstellung, ist jedoch auch Beratung und Unterstützung für intergeschlechtliche Kinder, Jugendliche und ihre Eltern erforderlich. Aus diesem Grund werden Möglichkeiten der Sozialen Arbeit zur Förderung geschlechtlicher Vielfalt entwickelt und Beratungs- und Unterstützungsansätze dargestellt. Insgesamt zeigt sich jedoch, dass auch ein gesellschaftliches Umdenken
notwendig ist, um intergeschlechtlichen Menschen Selbstbestimmung über ihren Körper und die eigene geschlechtliche Identität zu ermöglichen.
Eine gängige Form der Qualitätskontrolle von Quellcode sind Code Reviews. Der Fokus von Code Reviews liegt allerdings oft auf syntaktischer Analyse, wodurch weniger Zeit für eine semantische Überprüfung bleibt und zusätzliche Kosten verursacht werden. Code Reviews lassen sich zwar teilweise durch "Linter" automatisieren, dennoch können sie nur syntaktische Fehlermuster identifizieren, welche vorher definiert wurden. Zudem kann ein Linter nur darauf hinweisen, dass möglicherweise ein Fehler vorliegt, da die Fehler nicht durch logische Inferenz ermittelt werden. Die vorliegende Arbeit prüft, ob ein Deep Learning Modell den regelbasierten Ansatz von Lintern ablösen und die semantische Ebene erschließen kann. Dazu wurde eine Stichprobe von Java Methoden zusammengestellt und im Anschluss mit einem Supervised Learning Ansatz binär klassifiziert. Da die Analyse von Quellcode der Textanalyse stark ähnelt wird ein gängiger Ansatz für Textklassifikation verwendet. Dadurch kann gezeigt werden, dass eine Präzision von 85% bei der Erkennung von Quellcodeproblemen durch Deep Learning möglich ist.
Die vorliegende Masterarbeit beschäftigt sich mit Strategien der außerstrafrechtlichen Konfliktbear- beitung in linksautonomen Räumen. Ausgehend von der Annahme, dass staatliche Strafe ein Instrument der Herrschaftsausübung darstellt und in Zeiten des
Neoliberalismus die prekär gewordenen Grenzen der gesellschaftlichen Zugehörigkeit durch Kriminalisierung aufrechterhalten werden, sollen Alternativen zum hegemonialen Strafrechtssystem aufgezeigt werden. Das qualitative Forschungsdesign wurde unter Berücksichti-gung der Grundannahmen der Kritischen Kriminologie entwickelt. Durch den Konfliktbegriff wird sich von der Kategorie „Kriminalität“ mit den ihr inhärenten
Zuschreibungen gelöst. Der Forschungsprozess basiert auf der Grounded Theory Methodologie. Auf der Grundlage teilnarrativer Interviews mit Aktivist*innen aus
verschiedenen linksautonomen Räumen in Deutschland wird ein Modell entwickelt, welches den Prozess der selbstbestimmten Bearbeitung von konflikthaften Ereignissen im gewählten Forschungsfeld beschreibt. Dieses zeigt auf, dass eine Aneignung von Konflikten verstärkt durch einen hohen Grad der Verantwortungsübernahme stattfindet. In einem zirkulären Prozess werden hierbei in der Bearbeitung von Konflikten eigene Regeln und Werte entwickelt, welche sich wiederum auf den Umgang mit Konflikten auswirken. Die Ergebnisse der Forschung richten sich primär an Personen, welche in links-autonomen Räumen aktiv sind und dienen einem besseren Verständnis ihrer gelebten Praxis. Durch die kritische Reflexion, unter Berücksichtigung der Grundsätze von Transformative Justice und Community Accountability, werden zudem Perspektiven für eine mögliche Weiterentwicklung linksautonomer Ansätze zum Umgang mit Konflikten aufgezeigt.
Domänenspezifische Sprachen gewinnen seit einigen Jahren zunehmend an Bedeutung. Xtext ist eine sogenannte \textit{Language Workbench}, mit der solche Sprachen schnell entwickelt werden können. Neben der Sprachinfrastruktur wird eine inzwischen weit fortgeschrittene Integration in die IDE Eclipse erzeugt und es können optional ein Plug-in für IntelliJ und ein Webeditor erstellt werden. Der Ansatz ist dabei, dass der oder die Codegeneratoren direkt mit dem Abstract Syntax Tree arbeiten. In dieser Arbeit wird gezeigt, wie ein Domänenmodell in eine Xtext-Sprache integriert werden kann und wie Test- und Wartbarkeit davon profitieren. Besondere Beachtung finden, gegeben durch das Projektumfeld, die Anforderungen durch Funktionale Sicherheit.
Durch das permanente Wachstum der Weltbevölkerung wird der Bedarf von Textilien stetig steigen. Die Produktvielfalt sowie der Konsum der Textilien werden immer größer. Die aktuellen Recyclingtechniken ermöglichen es nicht, den Rohstoffkreislauf für Textilien zu schließen. Dies liegt auch darin begründet, dass derzeit große Mengen der Textilien aus Mischgeweben zwischen Baumwolle und PET bestehen. Die Trennung dieser Komponenten ist jedoch eine Grundvoraussetzung für die Entwicklung eines geschlossenen Rohstoffkreislaufs und stellt gleichzeitig eine große Herausforderung für das Recycling dar. Durch chemische Recyclingverfahren können die Rohstoffe getrennt, aufbereitet und in die Textilproduktion zurückgeführt werden. In dieser Arbeit wird aufgezeigt, wie ein chemischer Recyclingprozess, der einen geschlossenen Rohstoffkreislauf erlaubt, technisch realisiert werden kann. Der Prozess erzeugt eine PET-Fraktion und eine Celluloselösung, die in weiteren Verarbeitungsschritten zu einer Regeneratfaser versponnen wird. In dieser frühen Projektphase werden in dieser Arbeit ebenfalls die Investitionsausgaben und die Herstellungskosten für das Verfahren abgeschätzt.
Die vorliegende Masterarbeit behandelt die Bewertung der eingegangenen Unternehmensrisiken im Rahmen der Lebensversicherung und die hiervon abgeleiteten Auswirkungen zur Unternehmenssteuerung.
Dabei wird einerseits die Angemessenheit der sog. „Standardformel“ nach Solvency II überprüft, die in den europäischen Mitgliedsstaaten einen weitestgehend einheitlichen Ansatz bei der Bewertung der Risiken von Versicherungsunternehmen verwendet. Andererseits werden unter ökonomischen Überlegungen versicherungsmathematische Methoden vorgestellt, wie ein Lebensversicherer seine Risiken unternehmensindividueller ermitteln und damit seinen tatsächlichen Risikokapitalbedarf bestimmen kann.
Zur Quantifizierung der Ergebnisse werden die Berechnungsvorgaben der Standardformel für ausgewählte Risikomodule nachgebildet und mit den in dieser Arbeit vorgestellten unternehmensindividuellen Berechnungen verglichen und analysiert. Es zeigt sich, dass trotz der Komplexität des Solvency II-Modells eine noch differenziertere Herangehensweise notwendig ist, damit ein einzelnes Unternehmen seine Risiken adäquat und möglichst individuell bestimmen kann. Zur Gewährleistung einer nicht bestandsgefährdenden Unternehmensfortführung müssen die Versicherungsunternehmen bei Betrachtung ihrer Risiken mithilfe des EU-weiten Aufsichtssystems Solvency II in der Lage sein, die korrekten Rückschlüsse zur Unternehmenssteuerung zu ziehen. Die in dieser Arbeit vorgestellten versicherungsmathematischen Ansätze können dabei den Prozess zur unternehmenseigenen Risiko- und Solvabilitätsbeurteilung (ORSA) unterstützen.
In dieser Arbeit wird die Frage nach der Zusammensetzung einer aus konservatorischer Sicht unbedenklichen Stempelfarbe untersucht. Es konnten vier Kategorien von Stempelfarben ermittelt werden: die leinölhaltigen, die mineralölhaltigen, die glykol-/glycerolhaltigen und die harzhaltigen. Neun Stempelfarben aus diesen vier Kategorien wurden in einer umfangreichen Testreihe auf ihre Licht- und Klimabeständigkeit, ihre Löse- und Bleichmittelfestigkeit, ihre Wischfestigkeit und ihr Durchschlagvermögen überprüft. Drei rein pigmenthaltige Stempelfarben haben diese Tests bestanden. Von diesen hatte nur die leinölhaltige Stempelfarbe eine gute Dokumentenechtheit. Zudem werden im letzten Kapitel Möglichkeiten zur Entfernung von Stempelfarben auf Papier vorgestellt.
Bei Low-Code Entwicklungsplattformen handelt es sich um Lösungen zur Entwicklung und Bereitstellung von Software mit geringerem Anteil von Quelltext als in der Anwendungsentwicklung sonst erforderlich. Die Forschungsarbeit prüft, ob Low-Code Entwicklungsplattformen dazu geeignet sind, moderne webbasierte Geschäftsanwendungen umzusetzen. Dabei zeigt die Arbeit auf, wie Programmierparadigmen, Methoden der modellgetriebenen Softwareentwicklung (MDSD) und des Rappid Application Developments (RAD) als Platform-as-a-Service (PaaS) Lösungen zur Anwendungsentwicklung durch Anbieter kombiniert werden. Aktuell offerierte Lösungen werden in einem Marktüberblick hinsichtlich ihrer Funktionalität und Anwendungszielgruppe eingeordnet.
Zur Klärung der Forschungsfrage werden gängige Anforderungen an eine Geschäftsanwendung gesammelt und deren Implementierung durch die prototypische Realisierung eines Anwendungsfalls mit der Low-Code Entwicklungsplattform Oracle Application Express (APEX) validiert. Auf dieser Basis zeigt die Arbeit den tatsächlich erforderlichen Quelltextanteil auf. Dabei werden jedoch auch funktionelle Einschränkungen sowie möglicheorganisatorische Risiken, z.B. durch Vendor Lock-In Effekte, dargestellt.
Aufgrund ihrer aktuellen Bedeutung im Zusammenhang des Internet of Things werden in der vorliegenden Arbeit Time Series Databases und Event Stores miteinander vergli-chen. Ziel ist, die Gemeinsamkeiten und Unterschiede der beiden Arten von Datenbank Management Systemen herauszustellen.
Der erste, theoretische Teil des Vergleichs erfolgt anhand der funktionalen Kriterien Speichersystem, Performance und Funktionen sowie der nicht-funktionalen Kriterien Usability und Support. Im zweiten Teil des Vergleichs wird anhand eines konkreten An-wendungsfalls untersucht, ob sich Time Series Databases und Event Stores gleicher-maßen für die Speicherung und in einem zweiten Schritt für die Abfrage von Zeitreihen-daten eignen.
Zumal der theoretische Vergleich Unterschiede zwischen einzelnen Time Series Data-bases und Event Stores in Bezug auf die betrachteten Kriterien erkennen lässt, wird für den praktischen Vergleich unter Berücksichtigung der im konkreten Anwendungsfall gegebenen Anforderungen nur die am besten geeignetste Time Series Database (In-fluxDB) und der am besten geeignetste Event Store (Event Store) ausgewählt. Der prak-tische Vergleich zeigt, dass die Zeitreihendaten im konkreten Anwendungsfall zwar in beiden Arten von Datenbank Management Systemen gespeichert werden können, die Nutzung der auf Zeitreihendaten spezialisierten Time Series Database InfluxDB jedoch offensichtliche Vorteile gegenüber dem Event Store aufweist.
In dieser Arbeit wurde eine Machbarkeitsstudie zur Speicherung von Wasserstoff in Liquid organic hydrogen carriers (LOHCs) anhand eines gewählten Stoffsystems, Dibenzyltoluen, durchgeführt. Die Arbeit umfasst Bilanzierungen und Auslegungen für eine reversible Hydrierung und Dehydrierung in zwei getrennten Anlagen. Eine class 4-Kostenschätzung bildet die Grundlage für eine Wirtschaftlichkeitsberechnung. So konnten die Technologieziele hinsichtlich der Speicherfähigkeiten nicht realisiert werden. Dennoch zeigen die ermittelten Produktionskosten die Wettbewerbsfähigkeit dieses Ansatzes.
Kontakt: Fabian.Piehl@outlook.com
Die Analyse von Log-Dateien als Spezialfall des Text Mining dient in der Regel dazu Laufzeitfehler oder Angriffe auf ein Systems nachzuvollziehen. Gegen erkannte Fehlerzustände können Maßnahmen ergriffen werden, um diese zu vermeiden. Muster in semi-strukturierten Log-Dateien aus dynamischen Umgebungen zu erkennen ist komplex und erfordert einen mehrstufigen Prozess. Zur Analyse werden die Log-Dateien in einen strukturierten Event-Log (event log) überführt. Diese Arbeit bietet dem Anwender ein Werkzeug, um häufige (frequent) oder seltene (rare) Ereignisse (events), sowie temporale Muster (temporal patterns) in den Daten zu erkennen. Dazu werden verschiedene Techniken des Data-Minig miteinander verbunden. Zentrales Element ist dieser Arbeit das Clustering. Es wird untersucht, ob durch Neuronale Netze mittels unüberwachtem Lernen (Autoencoder) geeignete Repräsentationen (embeddings) von Ereignissen erstellt werden können, um syntaktisch und semantisch ähnliche Instanzen zusammenzufassen. Dies dient zur Klassifikation von Ereignissen, Erkennung von Ausreißern (outlier detection), sowie zur Inferenz einer nachvollziehbaren visuellen Repräsentation (Regular Expressions; Pattern Expressions). Um verborgene Muster in den Daten zu finden werden diese mittels sequenzieller Mustererkennung (Sequential Pattern Mining) und dem auffinden von Episoden (Episode Mining) in einem zweiten Analyseschritt untersucht. Durch das Pattern Mining können alle enthaltenen Muster im einem Event-Log gefunden werden. Der enorme Suchraum erfordert effiziente Algorithmen, um in angemessener Zeit Ergebnisse zu erzielen. Das Clustering dient daher ebenfalls zur Reduktion (pruning) des Suchraums für das Pattern Mining. Um die Menge der Ergebnisse einzuschränken werden verschiedene Strategien auf ihre praktische Tauglichkeit hin untersucht, um neue Erkenntnisse zu erlangen. Zum einen die Mustererkennung mittels verschiedener Kriterien (Constrained Pattern Mining) und zum anderen durch die Nützlichkeit (High Utility Pattern Mining) von Mustern. Interessante temporale Muster können auf anderen Log-Dateien angewendet werden, um diese auf das Vorkommen dieser Muster zu untersuchen.
Statistische Analyse ausgewählter sozioökonomischer Daten in Bezug auf Krankenhausaufenthalte
(2018)
In der vorliegenden Arbeit werden Zusammenhänge zwischen bestimmten sozioökonomischen Merkmalen und Krankenhausaufenthalten behandelt. Hierzu wird zunächst anhand von Sekundärliteratur gezeigt, welche gesundheitsbeinflussenden Faktoren in Deutschland relevant sind und was häufige Ursachen für Krankheiten bzw. Krankenhausaufenthalte sind. Im Zuge dessen wird außerdem kurz auf die Tarifmerkmale der privaten Krankenversicherung sowie auf deren Einfluss auf die Prämienkalkulation eingegangen.
Daraufhin werden Daten des Sozio-oekonomischen Panels (SOEP) des Deutschen Instituts für Wirtschaftsforschung untersucht. Dabei werden einerseits einzelne Merkmale und deren Entwicklung im Laufe der Jahre sowie die Verteilung ausgewählter Merkmale auf bestimmte Personengruppen beobachtet. Andererseits werden auch Korrelationen zwischen bestimmten Merkmalen und Hospitalisierungswahrscheinlichkeiten untersucht.
Den Schwerpunkt dieser Arbeit stellen zwei Klassifikationsmethoden, die lineare und die logitische Regressionsanalyse, dar. Zu diesen werden mathematische Grundlagen dargelegt, um sie daraufhin mithilfe des Programms R auf zuvor selektierte Datensätze anzuwenden. Dadurch werden jeweils Hospitalisierungswahrscheinlichkeiten ermittelt. Abschließend wird ein Bezug zur Versicherungswirtschaft hergestellt und unter anderem untersucht, ob solch eine statistische Analyse für einen Versicherer infrage kommt und welche Herausforderungen und Chancen dies mit sich bringt.
Objectives FHIR (Fast Healthcare Interoperability Resources) is an emerging Stan¬dard for improving interoperability in the domain of health care. Besides offering features for achieving syntactical, semantical and organizational interoperability, it also specifies a RESTful API for searching purposes. The main objective of the following thesis revolves around investigating open challenges and limitations of the so-called FHIR Search Framework.
Methods A variety of operations for searching in FHIR resources, including all search interactions, definitions of search parameters, search parameter types and advanced search concepts are described. Over the course of the thesis, a quality model based on ISO 25010 is established. It serves as the foundation for determining if the FHIR Search Framework is well-suited to cover the Information needs of its users. An analysis of completeness involving the measures defined in the quality model forms the main contribution. The primary discussion of the research questions is concluded by proposing a graph model for determining reachability between FHIR resources, essentially mirroring the chaining and reverse chaining functionality. Using well-known classes for expressiveness in graphs, the thesis assess to which degree a graph search can be formulated with the currently defined capabilities.
Results From a functional perspective the FHIR Search Framework can be considered well-suited. Practical limitations should be minimal, grounded on the fact that extensive coverage of the lowest expressiveness classes, RPQs and 2RPQs, can be achieved. Severe gaps where identified only in the support of C(2)RPQs and Data Path Queries. Additionally, ideas for improving non-functional aspects are introduced to support developers in learning the Standard and testing their implementations.
Conclusion The evaluation of the FHIR Search Framework showed promising re¬sults in terms of functional completeness. Yet, the Standard is still evolving, and certain parts of the Search API are neither well-known nor implemented widely. A discussion is to be held if the specification should cover more sophisticated aspects that result from the gaps which were identified.
Die Arbeit widmet sich einem Thema, das zwar nicht ganz neu ist, bisher aber wenig bedeutsam war und durch das Inkrafttreten der DS-GVO nunmehr auf eine in vielen relevanten Bereichen völlig neue rechtliche Grundlage gestellt und hinsichtlich der spezifischen Fragestellung völlig unbearbeitet ist. Die Arbeit gliedert sich in zwei Hauptteile. Im ersten Teil werden die rechtlichen Grundlagen dargestellt und damit die Relevanz des Themas für das Prüfungsverfahren aufgezeigt. Der zweite Teil widmet sich der Anwendung des neuen Datenschutzrechts auf das Prüfungsverfahren und entwickelt dabei konkrete Handlungsempfehlungen, nach denen Prüfungsämter und sonstige mit Prüfungen befasste Einrichtungen die Anforderungen der DS-GVO erfüllen können.
Krankenhäuser stellen eine wichtige Kritische Infrastruktur im Bereich des Gesundheitssektors dar, deren Funktionsfähigkeit bei allen Gefahrenlagen erhalten bleiben muss. Durch Interdependenzen mit anderen Kritischen Infrastrukturen, wie der Trinkwasserversorgung, kann ein Ausfall einer der Infrastrukturen zu einer Beeinträchtigung der jeweils anderen führen. Trinkwasser ist für den Menschen lebensnotwendig und muss daher überall in ausreichender Quantität und Qualität bereitgestellt werden (öffentlichen Daseinsvorsorge). Die Trinkwasserversorgung stellt eines der kritischsten Infrastrukturelemente in Krankenhäusern dar, deren Ausfall zu einer Gefährdung der quantitativen und qualitativen Gesundheitsversorgung führt. Die Vergangenheit hat gezeigt, dass Trinkwasserausfälle in Krankenhäusern keine Seltenheit darstellen und zu weitreichenden Beeinträchtigungen führen. Bei Großstörungen bzw. Großschadenslagen oder Katastrophenfällen, ist daher die kommunale Gefahrenabwehr/ der Katastrophenschutz in der Pflicht, zusammen mit anderen Akteuren Krisenmanagement- bzw. Maßnahmenplanungen zu erarbeiten. Dennoch existieren zurzeit fast keine adäquaten Krisenmanagementplanungen für die Herstellung einer Ersatztrinkwasserversorgung für Krankenhäuser. Dies gilt sowohl für die Krankenhäuser im Rahmen der Krankenhausalarm- und Einsatzplanung, als auch die kommunale Gefahrenabwehr bzw. den Katastrophenschutz und Wasserversorgungsunternehmen (WVU).
In dieser Master-Thesis, die im Sommersemester 2018 an der TH Köln erarbeitet wurde, sollte durch eine umfassende Risikoanalyse, unter Zuhilfenahme von Experteninterviews und Dokumentenanalysen das Risiko und die Folgen eines vollständigen Trinkwasserausfalles in einem Krankenhaus dargestellt und der aktuelle Stand der geplanten Bewältigungs- bzw. Krisenmanagementplanungen von Behörden und Organisationen mit Sicherheitsaufgaben (BOS), dem örtlichen WVU und des Krankenhauses für eine solche Schadenslage erhoben werden. Wurden die geplante Krisenmanagementplanungen als unzureichend oder nicht existent identifiziert, so sollten, wenn möglich, Vorschläge für neue Krisenmanagementkonzepte und Kapitel für den Krankenhauseinsatzplan erstellt werden, wofür ungenutzte Ressourcen für die Etablierung einer Ersatztrinkwasserversorgung ermittelt wurden. Die Analyse erfolgte durch eine Einzelfalluntersuchung anhand des Hauptgebäudes des Krankenhauses Merheim in Köln mit dem Szenario einer lokalen Lage, die nicht durch Kontamination des Wassers induziert ist und deren genaue Ursache nicht betrachtet wird. Um mögliche zukünftige Maßnahmen erarbeiten zu können, musste im Rahmen der Analyse der minimale Trinkwasserbedarf des Untersuchungsgebietes bzw. der einzelnen Funktionsbereiche erhoben und Kriterien für die Geeignetheit von Maßnahmen zur Ersatztrinkwasserversorgung erarbeitet werden. Diese Kriterien sind: Vorlaufzeit, Einhaltung der Trinkwasserverordnung, Versorgungskapazität und Verfügbarkeit von Versorgungsquellen. Für die Berechnung der Kritikalität wurde eine eigene Berechnungsmethode erarbeitet, die im Rahmen der Schutzzieldefinition eine Kritikalitätsanalyse ermöglicht, welche die Bedeutung des Gesamtobjektes und der einzelnen Prozessbausteine einbezieht. Das hier hergeleitete Schutzziel lautet: Verhinderung von Todesfällen bei Patienten durch die angenommene Gefahr und durch das ausfallbedingte Unterlassen von Behandlungsmaßahmen, die nicht anderweitig, durch z.B. Abmeldung von der örtlichen Notfallversorgung oder einer Evakuierung und Verlegung der Patienten, kompensierbar sind.
Das übergeordnete Ziel dieser Arbeit ist zusammengefasst die Identifikation der geplanten Maßnahmen zu Ersatztrinkwasserversorgung des Krankenhauses Merheim bzw. ggf. nicht vorhandenen Maßnahmen und somit die Feststellung, ob die Problematik des angenommenen Szenarios von allen Akteuren ausreichend betrachtet wird. Es soll das Bewusstsein für die Notwendigkeit und die Verantwortlichkeiten bzw. Zuständigkeiten von Krisenmanagementplanungen inkl. der Schnittstellenproblematik erhöht werden. Auf Grundlage dieser Arbeit können die Feuerwehr, Hilfsorganisationen, das Technisches Hilfswerk, der Wasserversorger und das Krankenhaus zukünftige Planungen begründen und die Ergebnisse für die Planung einer Ersatztrinkwasserversorgung für das Krankenhaus Merheim nutzen. Das Bundesamt für Bevölkerungsschutz und Katastrophenhilfe, das diese Arbeit ebenfalls betreut hat, möchte diese Arbeit zudem dafür verwenden, weiterführende Konzepte und Leitfäden zu entwickeln.
Hinsichtlich der Erfüllung des Schutzzieles wurde das Krankenhaus Merheim an sich und als Prozessbausteine insbesondere die Intensivstationen als sehr verwundbar identifiziert, was im Rahmen der Analyse zu einem sehr hohen Gesamtrisiko führte. Weitere Prozessbausteine mit sehr hohen Risikowerten sind die Reinstwasseraufbereitungsanlage, die Zentralwäscherei, das Zentrallabor, die Zentralsterilisation und die Anästhesiologie. Durch die sehr hohen Risikowerte und den maximalen Trinkwasserbedarf des Krankenhauses von 150m³/h (eine Ermittlung des minimalen Bedarfes war nicht möglich) lässt sich ein hoher Handlungsbedarf für Krisenmanagementplanungen für den Fall eines Trinkwasserausfalles in dem Krankenhaus ableiten. Die Analyse der Krisenmanagementplanungen hat ergeben, dass keine Maßnahmen zur Krisenbewältigung eines Trinkwasserausfalles im Krankenhaus Merheim existieren. Dies betrifft alle einbezogenen Akteure. Auch eine Einspeisestelle für eine Ersatztrinkwasserversorgung und andere Redundanzsysteme sind im Krankenhaus Merheim nicht vorhanden. Die redundante Ausgestaltung der Trinkwassereinspeisung aus dem öffentlichen Netz in das Privatnetz des Krankenhauses ist dabei nur bei einem Versorgungsausfall auf Seiten des öffentlichen Trinkwassernetzes wirkungsvoll. Eine Ersatztrinkwasserversorgung wäre mit den in der Stadt Köln vorhandenen Ressourcen ausreichend gestaltbar. Verfügbare und geeignete Kapazitäten sind bei der Feuerwehr Köln, privaten Firmen mit Tanklastzügen, der Bundespolizei und Hilfsorganisationen identifiziert worden. Bei den durchgeführten Interviews wurde von fast allen Akteuren eine hohe Relevanz des Themas und der hohe Bedarf an Planungen bestätigt. Jedoch ist durch die bestehende Mangelplanung und der Vernachlässigung von Übungen zur Not- und Ersatztrinkwasserversorgung (z.B. Inbetriebnahme Trinkwassernotbrunnen) davon auszugehen, dass bisher ein mangelndes Problembewusstsein und Unstimmigkeiten bezüglich der Zuständigkeiten bei den verantwortlichen Stellen vorlag. Die Kommune (bzw. hier die Stadt Köln) sollte daher alle Beteiligten zusammenbringen, über die Verantwortlichkeiten bzw. Zuständigkeiten aufklären und einen kooperativen Planungsprozess initiieren. Eine eigene Planung, im Rahmen dieser Arbeit, in Form eines Kapitels für den Krankenhauseinsatzplan und Krisenmanagementplänen für die Gefahrenabwehr bzw. den Wasserversorger konnte durch das Fehlen einer Trinkwassereinspeisestelle in das Krankenhaus nicht erstellt werden. Jedoch war es möglich ein kurzes Kapitel für den Krankenhauseinsatzplan zu erstellen, das auf die weitreichenden Folgen eines Trinkwasserausfalles aufmerksam macht und Anweisungen zum schnelleren Übergang zu einer Evakuierung/Räumung liefert. Durch das so erreichte schnellere Handeln, könnten zumindest viele weitere Folgeschäden bei den Patienten verhindert werden. Überlegungen dahingehend, ob eher präventive oder zur Selbsthilfe befähigende Maßnahmen statt Bewältigungsplanungen in Betracht gezogen werden sollten, sind durchzuführen.
The objective of this study was to evaluate at the local level in two municipalities of the Northwest Region of Rio de Janeiro State, the perception of smallholder farmers to climate change. Also, part of the study was to identify their measures to adapt, that include the preservation and mitigation of impacts on the regulating and provisioning soil ecosystem services, and their coping capacities to extended drought periods.
Zijad Naddaf fragt danach, wie sich Grenzen und die darin eingelagerte Erzählung von Flucht und Migration durch Praktiken und Diskurse formieren. Vor dem Hintergrund der Flüchtlingszuwanderung und mit Bezug auf Foucault werden Gesamtstrategien der Europäischen Union zur ‚Verteidigung ihrer Gesellschaft‘ diskutiert, unter anderem am Beispiel der Grenzbearbeitungsagentur Frontex konkretisiert sowie das Konstrukt der Europäischen Union als Ordnung herstellendes Dispositiv vorgestellt. Mit Bezug auf solche Formierungen werden die Wege der Fliehenden zu einem Kampffeld, in dem sich sowohl die Autonomie von Migration als auch die beständigen und repressiven Weg- und Raummarkierungen zeigen, die sich bis auf das Meer ausdehnen.
Serpil Ertik erkundet am Beispiel geflüchteter Menschen mit Behinderung, inwieweit die sozialen Kategorien „Migration“ und „Behinderung“ wechselseitig Einfluss auf den Zugang zu zentralen Lebensbereichen nehmen und welche Barrieren und Herausforderungen sich daraus ergeben. Nach einer Erläuterung der wesentlichen theoretischen Konzepte werden im Kern der Arbeit qualitative Interview mit Fachkräften aus der Geflüchteten- und der Behindertenarbeit und zwei Asylbewerber*innen mit einer Behinderung zur Beantwortung der Ausgangsfrage ausgewertet und auch intersektional analysiert.
Die Untersuchungsergebnisse zeigen deutlich, dass der rechtliche Status der Geflüchteten die Zugangsmöglichkeiten zu zentralen Lebensbereichen deutlich erschwert. Prekäre Lebenssituationen in den Gemeinschaftsunterkünften, fehlende Gesundheitsversorgung, Ausschluss aus Integrationskursen und in der Folge soziale Ausgrenzungen sind die Konsequenz der asylrechtlichen Regelungen. Durch diese strukturellen Diskriminierungen wird ein Behinderungsprozess reproduziert. Sprache und Zuschreibungen der aus der Mehrheitskultur stammenden Mitarbeiter*innen konstituieren weitere Machtverhältnisse und Ausschlüsse von Geflüchteten mit Behinderung. Als Konsequenz führen diese Bedingungen zu einem von Fremdbestimmung und Abhängigkeit geprägten Leben, das in deutlichem Widerspruch zu den Anforderungen der UN-BRK steht.
In den letzten Jahren haben sich die öffentlichen Verwaltungen in Deutschland im Zuge von „Open Government” immer weiter gegenüber den Bürgern geöffnet. Durch die Digitalisierung bieten sich vielfältige Möglichkeiten, wie Kommunen ihr Handeln transparent gestalten und gleichzeitig Bürger dazu ermächtigen, sich an politischen Problemlösungsprozessen zu beteiligen. Die fortschreitende Vernetzung der Menschen und das größer werdende Angebot an Daten, mit denen die Verwaltung arbeitet, führt zu großen Herausforderungen und Fragen, zur zukünftigen Politik auf kommunaler Ebene. Aus diesem Grund untersucht diese Thesis die aktuellen Internetkonzepte ausgewählter Kommunen hinsichtlich der Frage, wie die Prinzipien von Open Government bisher umgesetzt wurden. Durch die allgemeine Forschung auf dem Gebiet des Crowdsourcings, der Analyse von Studien und der Durchführung von Interviews mit Experten werden zusätzliche Erkenntnisse gewonnen. Das Ergebnis zeigt, dass die Kommunen sich noch am Anfang der Nutzung digitaler Bürgerbeteiligung stehen. Sowohl die Initiierung von Kollaborationsmodellen findet bislang nur in geringem Maße statt, als auch der Umgang mit offenen Daten, die von der Verwaltung erhoben werden ist wenig erfolgsversprechend: Der eingeschränkte Zugang für eine breite Zielgruppe sowie die fehlende Nutzung der Daten zu Auswertungszwecken sind Beispiele dafür. Zur Adressierung dieser Herausforderungen wurde ein Framework entwickelt, das seinen Schwerpunkt auf die Interaktion zwischen Bürger und Kommune bei der Entwicklung von Lösungen zu öffentlichen Problemen legt. Dadurch soll einerseits alle möglichen Formen der Interaktion zwischen den beiden Akteuren gefördert und andererseits der Wert von offenen Daten als Kommunikationsgrundlage hervorgehoben werden.
Untersuchung des Potentials Neuronaler Netze für Regelungsprozesse am Beispiel eines Betonverteilers
(2018)
Ziel der Arbeit ist die Entwicklung eines Ansatzes zur Nutzung Neuronaler Netze für die Steuerung eines Betonverteilers. Nach der Erläuterung der Grundlagen Neurona-ler Netze wird ein Netz entworfen und ein Test anhand realistischer Testdaten durch-geführt. Nach einer ausführlichen Beschreibung des Umfelds des Anwendungsfalls (Betonverteiler), sowie der Grundlagen Neuronaler Netze, ihrer Lernverfahren und ihrer Einsatzmöglichkeiten in der Regelungstechnik erfolgt der Entwurf eines Ansatzes zur Konstruktion eines Netzes für den Betonverteiler als Anwendungsfall sowie die Beschreibung der Implementation von Simulationsmodell und neuronalem Netz.
Das Internet of Things (IoT) ist aktuell eines der trendgebenden Themen der Infor-mationstechnik. Dem Thema werden dabei viele Versprechungen, aber auch Erwar-tungen auf staatlicher, wirtschaftlicher und alltäglicher Ebene zugeordnet. Dabei besteht die Frage, was ist Hype und was ist Realität? Motivation und Zielsetzung dieser Arbeit ist es, dieses Thema zu untersuchen und Aspekte daraus in einem Smart Home System umzusetzen. Klare Zielsetzung ist die lauffähige Ver-sion eines Prototyps zu produzieren. Dieser soll den technischen Durchstich ver-schiedener Werkzeuge, Technologien und Services, als integratives Ziel dieser Arbeit, durchführen. Eine Verknüpfung mit realen Anwendungsfällen ist zur besse-ren Veranschaulichung wünschenswert, aber für die Zielerreichung nicht zwangsläu-fig erforderlich. Gleichzeitig soll der Prototyp ein stabiles Fundament für weitere Entwicklungen auf dessen Basis bereitstellen. Der Einsatz von Technologien im Be-ta-Stadium ist dadurch aber nicht ausgeschlossen, wie der Einsatz des aktuell noch in der Entwicklervorschau befindlichen Android Things zeigt.
Grundlegend wird in dieser Masterarbeit der Frage nachgegangen, welche Anspruchsvoraussetzungen Versicherte nach der Integration des Gesetzes zur Verbesserung der Hospiz- und Palliativversorgung (HPG) erfüllen müssen, um eine Palliativversorgung zu erhalten. Über die definitorische Unschärfe des Beginns und weiteren Verlaufs des Sterbens werden das Risiko der Ungleichbehandlung aufgezeigt und die Konsequenzen für die Soziale Arbeit abgeleitet.
LA FERDINANDA (in der Mitte des Ozeans...), ein 1981 von Rebecca Horn
bemaltes Glasobjekt ist aufgrund seines Erhaltungszustandes nicht mehr
ausstellungsfähig. Aufbauend auf Untersuchungen zu künstlerischem Kontext,
verwendeten Materialien, Werkprozess und Erhaltungszustand wurde ein
Restaurierungskonzept entwickelt. Den Schwerpunkt der Arbeit stellt die
Konsolidierung des schwach gebundenen Farbauftrages auf dem Glasträger dar.
Hierfür wurden umfangreiche Versuchsreihen angelegt und bewertet. Die besten
Ergebnisse konnten mit einem Konsolidierungsmittel auf Basis des
siliciumorganischen ORMOCER-G in Mischung mit Paraloid B72 erzielt werden.
Die Applikation erfolgte mit einem Dosiergerät.
Zusammenfassung
Ansatz der vorliegenden Arbeit ist es, mit Blick auf den in einer großen Variationsbreite existierenden Brauprozess in Brauereien mit unterschiedlichster jährlicher Produktionsmenge und technologischem Stand, die wesentlichen charakteristischen Teilprozessschritte hinsichtlich Ihrer Bedarfe an den thermischen Energieformen Wärme und Kälte, unter Berücksichtigung der jeweils in den Teilprozessen herrschenden Temperaturniveaus, darzustellen. Dies ist in Kapitel 2 sowohl für die in Trocknungsprozessen vorbehandelten feststofflichen Braukomponente Gerstenmalz und Hopfen, sowie für die mit dem Beginn der Erwärmung von frischem Brauwasser startenden Prozesse des Einmaischens, Läuterns, Kochens, Gärens bis hin zur Reifung des Jungbieres, erfolgt. Zunächst wurde das jeweilige Temperaturniveau der einzelnen Phasen des Brauvorgangs, trotz seiner unterschiedlichen verfahrenstechnischen Realisierung, abgesteckt. In Kapitel 5 wird der rein für den Prozess notwendige Wärme- und Kältebedarf, auf der Basis der wesentlichen Zustandsänderungen des entstehenden Produktes, bestimmt. Dabei liegt bei jedem Prozessschritt entweder ein Wärme- oder ein Kältebedarf vor. Die Teilprozesse bilden eine zeitliche Abfolge innerhalb des Brauprozesses, welche die Vorstufen des Bieres nacheinander durchläuft. Die in den Kapiteln 3 zum Thema Kälte und in Kapitel 4 zum Thema Wärme dargestellten Grundlagen, liefern die Grundlagen für das Verständnis, des Verhaltens eines Systems im Umfeld von thermischer Energie und bilden die thermodynamischen Kenntnisse, die für die Beurteilung des Transportes, der Erzeugung und der Speicherung von Wärme und Kälte ergeben. Die Wärme und Kältebedarfe in ihrer zeitlichen Abfolge ermöglichen uns unabhängig von gängigen technischen Realisierungen in der Praxis noch einmal in Kapitel 6 die Frage zu stellen, in wie weit zunächst für jeden einzelnen Teilprozess Energieeffizienzverbesserungen durch Eingriff in den Prozess möglich sind. Die Frage der Heranführung der Wärme bei Wärmebedarf des Produktes an das Produkt hat in der Entwicklung der Brauereitechnologie sehr verschiedenen konstruktiven Ausführungen der Maischgefäße und der Gefäße für die Würzebehandlung geführt. An dieser Stelle ist der Einfluss von Veränderungen, welche den Transport von Wärme verbessern könnten, auch auf das Produkt zu hinterfragen. Die modernen Ausführungen der Maisch- und Würzepfannen sind auf ein produktschonendes Verfahren ausgelegt. Änderungen im Anlagenpark erfordern von jeder Brauerei einen langerprobten Umgang, um trotz der Veränderungen an diesen Prozesshilfsmitteln, dennoch die geschmackliche Qualität des Bieres nicht unerwünscht zu beeinflussen. Die Rückführung der Verdampfungswärme beim Kochen und teilweise Verdampfen der Würze in der Pfanne, in den Prozess, unter Beibehaltung des höchstmöglichen Temperaturniveaus dieser Wärme, ist ein Beispiel aus Kapitel 6 für die Effizienzsteigerung des Teilprozesses. Stärker in den produktbeeinflussenden Teilprozess des Maischens greift die Wahl zwischen den zwei etablierten Wärmezufuhrverfahren, dem traditionellen Dekoktionsverfahren und dem in letzter Zeit deutlich überwiegenden Infusionsverfahren. Hier liegt mit der Wahl des letzteren Verfahrens, innerhalb des Teilprozesses Maischen ein Effizienzsteigerungspotential in der Praxis.
Die teilprozessübergreifende Kopplung der einzelnen Verfahrensschritte erlaubt den Transport von Wärme und Kälte, zwischen diesen Teilprozessen, unter Berücksichtigung der zeitlichen Versetzung der einzelnen Teilprozesse. Damit lassen sich Wärme- und Kältebedarfe untereinander bedienen, wenn eine Speichervorrichtung für Wärme auf den jeweiligen Temperaturniveaus vorhanden ist. Das Temperaturniveau der thermischen Energien ist, wie bereits in der Theorie in den Kapitel 3 und 4 gesehen, wo großer Bedeutung. Denn es geht bei der Steigerung der Energieeffizienz des Gesamtprozesses um die Erhaltung des Potentials der Wärme und Kälte trotz naturbedingter Einbußen, welche die Übertragung der Wärme aufgrund eines notwendigen Temperaturgefälles mit sich bringt. Die Kopplung der Teilprozesse entlang des Brauprozesses führt nach der Analyse in Kapitel 6 dazu, dass Energiezufuhr von außen am heißesten Ort entlang der Prozesskette erforderlich ist, da an dieser Stelle des Würzekochens und Verdampfens innerhalb des Gesamtprozesses keine Wärme auf diesem Temperaturniveau „ausgeliehen“ werden kann. Als Resultat erhält man, das eine Dampferzeugung zur Wärmebereitstellung mit einer Temperatur oberhalb der Siedetemperatur von 100°C erforderlich ist, sowie Kältebereitstellung für die kühlen Prozessschritte Gären und Reifen, bei denen die Aufrechterhaltung einer Temperatur bei knapp 0°C gegenüber der wärmeren Umgebung über eine längere Zeitdauer erforderlich ist.
Hiermit kommt man zu der zweiten Fragestellung aus der Einleitung, welche Szenarien der Bereitstellung der Energie, ggf. in Form einer Selbstversorgung der Brauerei sinnvoll ist.
Energetisch ist die Erzeugung von Wärme auf einem vergleichsweise moderaten Temperaturniveau von benötigten 120 bis 140°C durch die Verbrennung des Primärenergieträgers Erdgas im Dampferzeuger nicht optimal. Es bietet sich an, das Gas bei der Verbrennung einen guten Teil seiner Exergie in Reinform zur Verfügung stellen zu können, in dem es z.B. in einem Gasmotor mechanische Arbeit leisten darf, die über einen Generator zu elektrischem Strom veredelt wird, und die Wärmebedarfe in der Brauerei aus dem Abgas und dem Kühlwasser des Motors gedeckt werden. Diese Form des gasbetriebenen Blockheizkraftwerkes (BHKW) ist in der Industrie seit einiger Zeit weit verbreitet. Der Strom deckt Bedarfe durch Elektromotorenantriebe, Kälteerzeugung mit Kompressions-Kältemaschinen, Lüftungsventilatoren, Pumpen und Beleuchtung. Überschüssiger Strom kann ggf. an den Stromversorger verkauft werden.
Der Wärmebedarf für den Brauprozess, sowie für die Wärme im Flaschen- und Fassreinigungsprozess, sowie zur Pasteurisierung des Bier (bei Rückgewinnung eines Teils der Wärme auf leicht niedrigerem Temperaturniveau) wird durch eine Wärmebedarfsauslegung des BHKW weitestgehend gedeckt. In der Ausführung des BHKW sollte berücksichtigt sein, dass die Wärme in ausreichender Menge bei höherer Temperatur durch optimale Nutzung des heißen Abgases entnommen wird, um auf jeden Fall den Dampfbedarf in der Würzepfanne zu decken.