Refine
Year of publication
Document Type
- Master's Thesis (255) (remove)
Language
- German (255) (remove)
Has Fulltext
- yes (255) (remove)
Keywords
- Deutschland (14)
- Öffentliche Bibliothek (13)
- Bibliothek (11)
- Informationskompetenz (8)
- Internet (7)
- Sozialarbeit (7)
- XML (7)
- Datenbank (6)
- E-Learning (5)
- Electronic Commerce (5)
Faculty
- Fakultät 10 / Institut für Informatik (93)
- Fakultät 03 / Institut für Informationswissenschaft (60)
- Fakultät 07 / Institut für Medien- und Phototechnik (37)
- Fakultät 10 / Advanced Media Institute (12)
- Fakultät 07 / Institut für Nachrichtentechnik (6)
- Fakultät 01 / Institut für Medienforschung und Medienpädagogik (5)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (5)
- Fakultät 01 / Institut für interkulturelle Bildung und Entwicklung (4)
- Fakultät 02 / Cologne Institute of Conservation Sciences (4)
- Fakultät 01 / Institut für Kindheit, Jugend, Familie und Erwachsene (3)
Diese Arbeit untersucht verschiedene Ansätze, Daten im Google Cloud Firestore zu strukturieren und deren Auswirkungen auf Kosten, Performance sowie Codequalität. Zunächst folgt eine Aufbereitung des aktuellen Stands der Forschung. Darauf folgt die experimentelle Methodik. Hier dient eine prototypische Implementierung der Szenarien als Grundlage. Im Zuge des Experiments werden in unterschiedlichen Disziplinen Daten erhoben und im Anschluss ausgewertet, um empfehlenswerte Lösungen für definierte Anwendungsfälle zu benennen. Am Ende gibt die Arbeit ein kurzes Fazit zu den gewonnenen Erkenntnissen sowie einen Ausblick auf weitere Optimierungspotenziale ab.
Kategorisierung und Bewertung plattformübergreifender Ansätze für die Auswahl eines Frameworks
(2023)
Die plattformübergreifende Entwicklung ist eine populäre Art der Anwendungsentwicklung, die in der Forschung und Industrie immer weiter an Relevanz gewinnt. Dabei wird eine Codebasis geschrieben, die auf mehreren Betriebssystemen lauffähig ist. Das Ziel dieses Ansatzes ist es unter anderem, die Zeit- und Kosteneffizienz zu optimieren. Es gibt verschiedene Ansätze der plattformübergreifenden Entwicklung. Die einzelnen Frameworks lassen sich wiederum in diese Ansätze einteilen. Durch die steigende Akzeptanz dieser Art der Entwicklung herrscht eine zu große Auswahl an Frameworks, von denen jedes eigene Stärken und Schwächen aufweist. Dies ist ein Problem, da Entwickelnde keine Übersicht und Einordnung der Frameworks für ihre individuellen Bedürfnisse haben. Um diesem Problem entgegen zu wirken, wird in dieser Arbeit ein Verfahren entwickelt, mit dem das passende Framework für die Rahmenbedingungen des jeweiligen Projekts ermittelt werden kann. Dazu werden die Frameworks Kotlin Multiplatform, Flutter, React Native und Vue.js, das zur Umsetzung einer PWA genutzt wird, für eine mobile Anwendung getestet, die auf Android und iOS Geräten laufen soll. Zusätzlich werden 44 Kriterien ermittelt, anhand derer die Frameworks bewertet werden. Mit dem resultierenden Verfahren kann sowohl eine objektive, als auch eine subjektive Auswertung der Frameworks erfolgen, um eine geeignete Auswahl zu treffen.
Smartphones und die Nutzung von mobilen Anwendungen gewinnen aufgrund der stetig voranschreitenden Digitalisierung weiter an Relevanz. Im April 2022 lag die Zahl der genutzten mobilen Endgeräte bei knapp 6 Milliarden, wobei die Hersteller Apple
und Google einen Marktanteil von knapp 99 % einnehmen. Um als Entwickler eine möglichst große Zielgruppe anzusprechen, ist es daher wichtig, die eigene Anwendung auf möglichst vielen Plattformen zur Verfugung stellen zu können. Die native Entwicklung ist einer der am meist verbreitetste Entwicklungsansatz für mobile Anwendungen. Dort werden plattformspezifische Tools sowie native Programmiersprachen verwendet. Hierbei ergeben sich allerdings diverse Herausforderungen für Entwickler entlang des gesamten Entwicklungsprozesses. Neben der nativen Entwicklung existiert der Ansatz von Cross-Plattform. Hierbei handelt es sich um einen Sammelbegriff für verschiedene Ansätze, welche das Ziel verfolgen eine Anwendung durch die Nutzung einer einheitlichen Codebasis auf mehreren Plattformen zur Verfugung zu stellen. Einer dieser Unteransätze ist
Backend-Driven UI, worin die gesamte Anwendung innerhalb eines strukturierten Datenformats beschrieben und serverseitig verwaltet wird. Der Client kann diese Daten dann dynamisch anfragen und zur Laufzeit in native UI überführen. Das Konzept von Backend-Driven UI wird bereits durch Unternehmen wie Airbnb oder SiriusXM eingesetzt, ist hier allerdings stark auf anwendungsbezogene Prozesse zugeschnitten. Es bedarf daher eines Backend-Driven UI Frameworks, welches es Entwicklern ermöglichen soll, mobile Anwendungen, ohne anwendungsspezifische Einschränkungen plattformübergreifend zu entwickeln. Im Rahmen dieser Arbeit wurde daher zunächst eine plattformunabhängige und erweiterbare Architektur eines solchen Frameworks entwickelt und in Form eines ersten Prototyps auf ihre Umsetzbarkeit geprüft. Insgesamt stellt der Prototyp eine mögliche Umsetzung von Backend-Driven UI dar und ist in der Lage erste Anwendungsszenarien abzudecken. Es konnten dennoch Bereiche ermittelt werden, welche im Zuge zukünftiger Entwicklung ausgebaut werden können. Dazu zählt unter anderem das Umsetzen von serverseitig bestimmter Anwendungslogik sowie der Umgang mit Unterschieden im plattformspezifischen Funktionsumfang.
Konzeption einer flexiblen Systemarchitektur zur dynamischen Konfiguration hybrider Lernräume
(2021)
In dieser Arbeit wird eine dynamische Systemarchitektur für die Schaffung hybrider Ökosysteme konzipiert, welche eine flexible und kontextgerechte Konfiguration hybrider Lernräume ermöglichen. Aufgrund der variierenden Definitionen hybrider Lehre und Lernräume sowie der schwachen Abgrenzung zu verwandten Begriffen findet hierfür zunächst eine Konkretisierung eigener Arbeitsdefinitionen statt. Aufbauend auf diesen Begriffsbestimmungen und ausführlichen Literaturrecherchen, werden anschließend sich interdisziplinär überschneidende Kernelemente hybrider Lehre und Lernräume identifiziert sowie in einem Übersichtsmodell zusammengefasst. Durch die Literaturrecherche ersichtliche Charakteristiken des hybriden Paradigmas werden ebenso in
Beziehung gesetzt und zusammenfassend aufgeführt. Auf Basis dieser Übersichten und unter Berücksichtigung weiterer Forschungsergebnisse wird nachfolgend ein Vorgehensmodell kreiert, welches kontextgerechte Designs hybrider Systeme strukturiert ermöglicht. Neben didaktischen, physischen und digitalen Komponenten werden dafür diverse Typen von Lernaktivitäten identifiziert, welche als Ausgangspunkt eine effiziente und praxisorientierte Planung ermöglichen.
Alle erstellten Modelle bilden abschließend die Grundlage der konzipierten Systemarchitektur, in welcher die hybriden Kernkonzepte aus einer technischen Perspektive beleuchtet werden. Das hierdurch repräsentierte Microservice-Websystem beinhaltet neben notwendigen Basis-Services vor allem einen dynamischen Plugin-Mechanismus, welcher die flexible Integration neuer Bestandteile ermöglicht. So kann der Funktionsumfang auf sich wandelnde Anforderungen der Nutzer angepasst werden und die Anwendung mit der Zeit zu einem umfassenden Ökosystem heranwachsen.
Die vorliegende Arbeit beschäftigt sich mit der Gestaltung eines digitalen Assistenzsystemes zur Nutzung von Innovationsräumen. Digitale Assistenten werden bereits schon
seit längerer Zeit eingesetzt, beispielsweise in der Industrie 4.0 (vgl. Perevalova (2022). Innovation stellt derweilen eine Grundlage für wirtschaftlichen und unternehmerischen Erfolg dar (vgl. Schumpeter (1939) und wird durch Innovationsräume (vgl. Klooker u. a. (2019) und Innovationsprozesse wie dem Design Thinking unterstützt. Diese Prozesse werden dabei häufig von Innovation Coaches unterstützt. Der Ansatz des Innovationscoachings wurde von Albers u. a. (2016) beschrieben. Darauf aufbauend identifizierten Niever u. a. (2019) bereits zwölf Kernkompetenzen, die für einen Innovation Coach in Zukunft wichtig sein werden. Ein Problem, was sich dabei darstellt ist, dass diese Coaches häufig durch externe Moderatoren gestellt werden, welche ein Team nicht dauerhaft begleiten. Ohne die Coaches fehlt den Laien auf diesem Gebiet die nötige Methodenkompetenz, um eigenständig und methodisch Innovationen und Kreativität zu fördern. Diese Arbeit versucht daher, das Innovationscoaching mit einem digitalen Assistenten zu verbinden, um die eigenständige Nutzung von Innovationsräumen zu erleichtern und die Effizienz von Innovationsprozessen zu steigern. Dafür konnten zunächst durch die Auswertung von fünf Experteninterviews 63 Aufgaben eines Coaches und Aspekte des Systems identifiziert werden, die bei der Entwicklung eines Assistenzsystems bearbeitet werden sollten. Außerdem konnten 22 technische Kriterien formuliert werden, die bei der Auswahl einer geeigneten Technologie helfen können. Darüber hinaus wurden Lösungsmöglichkeiten für die wichtigsten Aufgaben eines Assistenzsystems aufgezeigt. Diese unterstreichen beispielweise die Relevanz der Forschungsfelder Indoor-Lokalisierung und künstliche Intelligenz. Die Ergebnisse dieser Arbeit sollen dazu beitragen, das Potenzial von digitalen Assistenzsystemen im Kontext von Innovationsprozessen zu verdeutlichen. Dies kann Unternehmen dabei unterstützen, Innovationsprozesse effizienter zu gestalten, unabhängig von Ressourcen oder Fachkräftemangel. In weiteren Forschungen könnte die konkrete Entwicklung des Assistenzsystems fortgeführt werden. Dabei könnte der Fokus auf die Aspekte eines hybriden Meetings gelegt werden oder darauf, wie ein mobiles Assistenzsystem gestaltet werden kann, das in verschiedene Räume mitgenommen werden kann.
In dieser Arbeit wird ein System zur Modellierung von IT-Compliance-Anforderun-gen in einer Graph-Datenbank entwickelt. Dabei werden organisationsinterne Com-pliance-Maßnahmen, ihre Umsetzungsdokumentation und die zwischen ihnen entstehenden Beziehungen berücksichtigt. Anschließend werden die Stärken und Schwächen des Systems anhand einer Erprobung mit Anforderungen an ein fiktives IT-Projekt der deutschen Versicherungsbranche herausgestellt und so die Praxistauglichkeit bewertet. Es wird unter anderem aufgezeigt, wie Compliance- Daten in die Datenbank aufgenommen werden können und welche Unterschiede es zu bisher verbreiteten Prozessen in diesem Gebiet gibt.
Die nachfolgende Masterarbeit untersucht die Nutzung von DeepFake-Anwendungen bei Personen mit einer Fazialisparese. Dabei handelt es sich um eine Lähmung des Gesichtnervs, wodurch die betroffenden Menschen keine bzw. keine vollständige Mimik im Gesicht haben. Es wird hierbei getestet, ob mithilfe von DeepFake eine möglichst realistische Mimik generiert werden kann. Für die Untersuchung werden zunächst sowohl die theoretischen Grundlagen als auch verschiedene potenzielle Anwendungen vorgestellt. Mithilfe der vorgestellten Anwendungen wird anschließend ein Versuch durchgeführt, in dem die künstliche Intelligenz mit Bildmaterial von Proband:innen trainiert und anschließend manipuliert wird. Die aus dem Versuch resultierenden Ergebnisse werden danach durch eine Umfrage mit Bildern, welche eine originale Mimik zeigen, verglichen. Dadurch soll überprüft werden, wie realistisch die manipulierten Bild- und Videomaterialien sind oder ob die künstliche Intelligenz an eine mögliche Grenze stößt. Abschließend werden weitere Forschungsansätze und Anwendungsmöglichkeiten vorgestellt, in welchem die betrachtete künstliche Intelligenz genutzt werden kann.
As a customer, it can be frustrating to face an empty shelf in a store. The market does not always realize that a product has been out of stock for a while, as the item is still listed as in stock in the inventory management system. To address this issue, a camera should be used to check for Out-of-Stock (OOS) situations.
This master thesis evaluates different model configurations of Artificial Neural Networks (ANNs) to determine which one best detects OOS situations in the market using images. To create a dataset, 2,712 photos were taken in six stores. The photos clearly show whether there is a gap on the shelf or if the product is in stock. Based on the pre-trained VGG16 model from Keras, two fully connected layers were implemented, with 36 different ANNs differing in the optimization method and activation function pairings. In total, 216 models were generated in this thesis to investigate the effects of three different optimization methods combined with twelve different activation function pairings. An almost balanced ratio of OOS and in-stock data was used to generate these models.
The evaluation of the generated OOS models shows that the FTRL optimization method achieved the least favorable results and is therefore not suitable for this application. Model configurations using the Adam or SGD optimization methods achieve much better results. Of the top six model configurations, five use the Adam optimization method and one uses SGD. They all achieved an accuracy of at least 93% and were able to predict the Recall for the OOS class with at least 91%.
As the data ratio between OOS and in-stock data did not correspond to reality in the previously generated models, the in-stock images were augmented. Including the augmented images, new OOS models were generated for the top six model configurations. The results of these OOS models show no convergences. This suggests that more epochs in the training phase lead to better results. However, the results of the OOS model using the Adam optimization method and the Sigmoid and ReLU activation functions stand out positively. It achieved the best result with an accuracy of 97.91% and a Recall of the OOS class of 87.82%.
Overall, several OOS models have the potential to increase both market sales and customer satisfaction. In a future study, the OOS models should be installed in the market to evaluate their performance under real conditions. The resulting insights can be used for continuous optimization of the model.
Durch die stetige Weiterentwicklung und die mediale Präsenz der künstlichen Intelligenz findet die Steigerung der Unternehmenssicherheit in Unternehmen besondere Bedeutung. Insbesondere aus dem Umfeld des Machine Learnings sind kontinuierlich Anwendungen zu verzeichnen, die dazu dienen, eine derartige Maßnahme zu unterstützen.
Im Rahmen dieser Arbeit wurde untersucht, ob eine potenzielle Steigerung der Unternehmenssicherheit durch den Einsatz eines Prototyps für die Objekterkennung basierend auf einem YOLOv5-Algorithmus erreicht werden kann. Es wurden Beispielszenarien definiert und die Wirksamkeit dieses Algorithmus bei der Erkennung und Identifizierung in Bezug auf die Sicherheitsanforderungen in einem Unternehmensumfeld evaluiert.
Die Forschungsmethodik umfasste die Entwicklung und den Aufbau des Prototyps, der auf einem YOLOv5-Algorithmus basiert und auf einem Trainingsdatensatz der Objekterkennung trainiert wurde. Der Prototyp wurde anschließend in einer Laborumgebung implementiert und auf seine Fähigkeit getestet, Objekte nach definierten Sicherheitsanforderungen zu erkennen.
Die Implementierung eines solchen Prototyps konnte dazu beitragen, die Sicherheitsmaßnahmen in Unternehmen zu unterstützen, die Sicherheitsreaktion zu beschleunigen und proaktivere Ansätze zur Gefahrenabwehr zu ermöglichen. Aus diesen Ergebnissen sind weitere Forschungen und praktische Anwendungen im Bereich der Unternehmenssicherheit denkbar.
Cloud Computing ist der zentrale Faktor zur Beschleunigung der Digitalisierung in Deutschland und wird in den kommenden Jahren eine wichtige Rolle in jedem deutschen Unternehmen spielen. Für Unternehmen wird es dabei um die Umsetzung von
Cloud-Strategien und die praktische Einbindung in die täglichen Betriebsprozesse gehen. Zusätzlich müssen Unternehmen ihre bestehende Datenlandschaft in moderne Architekturen zum Datenmanagement in die Cloud migrieren. Dabei können Unternehmen auf eine Vielzahl an unterschiedlichen unternehmensweiten Datenarchitekturen
zurückgreifen. Die vorliegende Masterarbeit gibt eine Einführung in die aktuelle Entwicklung von Cloud Computing und erläutert, mit Data Fabric, Data Lakehouse und Data Mesh, drei unternehmensweite Datenarchitekturen für die Cloud. Data Fabric, Data Lakehouse und Data Mesh bilden dabei aktuell die modernsten Konzepte für unternehmensweite Datenarchitekturen. Zusätzlich werden ein Data Lakehouse und ein Data Mesh in einer ausgewählten Cloud-Umgebungen entworfen, prototypisch aufgebaut und praktisch analysiert. Ziel der Masterarbeit ist es, die unternehmensweiten Datenarchitekturen in der Cloud zu erläutern, konkrete technologische Architekturen zu entwerfen und entsprechende Hinweise zu Aufwandstreibern in Unternehmen zu identifizieren.
Architektur für ein Qualitätsmanagementsystem zur Verbesserung der Relevanz von Suchergebnissen
(2023)
Die Suchfunktion ist in vielen Softwareprodukten eine wichtige Komponente, die häufig zur Navigation in der Anwendung dient. Gerade, wenn große Datenmengen bereitgestellt werden, wie es bei Streamingdiensten (Netflix, Spotify) oder bei E-Commerce-Plattformen (Amazon, Zalando) der Fall ist, ist es wichtig, dass die Suchergebnisse für den Nutzer relevant sind. Eine für den Nutzer effektive Navigation mit der Suchfunktion ist nur möglich, wenn die Suchergebnisse eine ausreichend große Relevanz für den Nutzer bieten. Die Organisationen, welche die oben genannten Dienste betreiben, versuchen daher, die Relevanz ihrer Suchergebnisse zu optimieren. Eine Optimierung auf Relevanz ist zwar für eine spezielle Suche einfach, jedoch können dabei häufig Seiteneffekte auftreten, welche die Relevanz über alle Suchen verschlechtern. In einem E-Commerce-Shop kann das Einfiihren des Synonyms „Birne -> Glühbirne" dafür sorgen, dass Nutzer, die Gliihbirnen kaufen wollen und nach „Birne" suchen nun auch Gliihbirnen finden. Falls Nutzer aber das Obst Birne kaufen möchten, sind die Ergebnisse für diese Gruppe irrelevant. Bei einer Optimierung der Relevanz über alle Suchen können Qualitätsmanagementsysteme unterstützen. Ein Qualitätsmanagementsystem fiir die Relevanz von Suchergebnissen muss nicht nur fachliche und technische, sondern auch organisatorische Anforderungen beachten, um die Optimierungspotenziale vollständig auszuschöpfen. Diese Arbeit erläutert diese Anforderungen und stellt eine Architektur für ein Qualitätsmanagementsystem vor. Die Architektur wird hinsichtlich der Erfüllung der erläuterten Anforderungen analysiert. Desweiteren werden die Vor- und Nachteile fiir die jeweiligen Architekturentscheidungen unter Betrachtung der Anforderungen diskutiert. Das Ziel der Arbeit ist es, die Architektur entsprechend zu erläutern, sodass eine Organisation diese für sich angepasst implementieren kann.
Diese Arbeit gibt einer postfundamentalistischen Perspektive auf politisches Handeln in der Sozialen Arbeit in einer qualitativen Erforschung der Fachkräftekampagne ‚#dauerhaftsystemrelevant‘ Raum. Zur theoretischen Rahmung werden in einem ersten Schritt zentrale Diskussionslinien um politisches Handeln in der Sozialen Arbeit dargelegt. Daraufhin eröffnen Theorien politischer Differenz eine kontingenzsensible und hegemoniekritische Perspektive auf Soziale Arbeit, ihr Verhältnis zu Politik und ihr politisches Handeln. Der Forschungsstand errichtet ein Mosaik aus internationalen Forschungserträgen, die das Thema dieser Arbeit tangieren. Es folgen eine inhaltsanalytische Untersuchung von Veröffentlichungen der Fachkräftekampagne ‚#dauerhaftsystemrelevant‘ und Leitfadeninterviews mit Kampagnenaktiven im Hinblick auf Momente politischer Differenz. Es zeichnen sich differenztheoretische Simultaneitäten und Bewegungen in den Kampagnenaktivitäten ab. Die Ergebnisse zeigen politische Differenz als einen Spielraum politischer Handlungen Sozialer Arbeit auf und offerieren diesen so eine postfundamentalistische Analyse- und Diskussionsfolie.
Die Digitalisierung hat Auswirkung auf die Entwicklung von Produkten. Die Teams werden agiler, die Kunden haben als Eigentümer eines Produktes Mitspracherecht und bestimmen gemeinsamen mit den Entwicklern, welche Features als Nächstes aus dem vordefinierten Backlog in dem nächsten Sprint als Inkrement eingebaut und ausgeliefert werden. Durch die enge Zusammenarbeit werden die Release-Zyklen eines Produktes kürzer und es werden mehr Features als in der Vergangenheit bei nicht agilen Methoden deployt. Durch die kurzen Release-Zyklen werden viele unterschiedlichen Versionen ausgerollt. Dies hat zur Folge, dass Fehler, die vorher durch das Testen nicht entdeckt worden sind, auf einer produktiven Umgebung ausgerollt werden. Hat der Fehler eine starke Auswirkung auf die Benutzung der Anwendung, dann besteht die Möglichkeit, die Änderung manuell durchzuführen. Diese muss beim nächsten Release eingebaut werden. Wenn die Release-Zyklen länger werden, birgt es die Gefahr, dass viele manuelle Änderungen in der Zeit entstehen. Der ausgerollte Zustand entspricht nach einer bestimmten Zeit nicht mehr dem eingecheckten Zustand im Git-Repository. An der Stelle bietet der GitOps-Ansatz eine mögliche Abhilfe, um den ausgerollten Ist-Zustand durch regelmäßiges Pullen so nah wie möglich an dem im Repository eingecheckten Soll-Zustand zu halten.
Aufgrund der voranschreitenden Digitalisierung sind neue Geschäftsmodelle entstanden, wozu unter anderem der Online-Handel (Electronic Commerce, E-Commerce) gehört. Dieser bietet Flexibilität beim Einkaufen, die verschiedenen Benutzergruppen zugutekommt. Dazu gehören auch Personen mit einer Sehbehinderung oder Erblindung. Allerdings existieren noch einige Hindernisse bzw. Barrieren im Online-Handel, die zu einer negativen Benutzerfreundlichkeit (User Experience, UX) und einer Benachteiligung der genannten Benutzergruppe führen.
Das Ziel der vorliegenden Arbeit ist daher die Untersuchung der digitalen Inklusion von sehbehinderten und blinden Personen im E-Commerce. Anhand einer ausführlichen Literaturrecherche und 16 halbstrukturierten Interviews mit der Zielgruppe wurden bestehende Barrieren im E-Commerce sowie Verbesserungsmöglichkeiten zur Schaffung eines barrierefreien Online-Handels gesammelt. Durch die Analyse eines Fallbeispiels wurden negative Implementierungen veranschaulicht und anhand der zuvor gesammelten Erkenntnisse beseitigt. Dadurch wurde aufgezeigt, wie ein barrierefreies User-Experience-Design für sehbehinderte und blinde Personen im E-Commerce geschaffen werden kann.
In der Arbeit stellte sich heraus, dass viele vorhandene Barrieren im E-Commerce erst durch die Interviews identifiziert werden konnten. Dadurch zeigt sich, dass eine Auseinandersetzung mit der Zielgruppe und eine Einbindung dieser in die Gestaltung und Evaluation von hoher Relevanz ist. Dies gewährleistet, dass Barrieren vermieden oder rechtzeitig entdeckt werden können und das System, Produkt oder die Dienstleistung den Anforderungen der Zielgruppe entspricht. Die Arbeit stellt somit ein erstes Konzept zur Schaffung eines barrierefreien UX-Designs im E-Commerce da. Um die Qualität der Ergebnisse je- doch überprüfen zu können, sind weitere Forschungen notwendig, die sich mit weiteren Benutzerbefragungen und Evaluationen der Verbesserungsmöglichkeiten beschäftigen.
Diese Thesis befasst sich mit der Frage, in welcher Art und Weise sich das deutsche Feuerwehrwesen verändern und anpassen muss, um den abwehrenden Brandschutz nachhaltig sicherzustellen.
Ausgangspunkt ist die Problemstellung, dass einige Freiwillige Feuerwehren besonders tagsüber und vornehmlich im ländlichen Räumen nicht mehr den gesetzlichen Schutzzielen und Anforderungen entsprechen können. Um dieser Frage nachgehen zu können, ist die Methode des Benchmarkings auf Gefahrenabwehrsysteme adaptiert worden. Da die Forschungen innerhalb des deutschen Feuerwehrwesens nicht zielführend waren, ist das Benchmarking international und organisationsvergleichend ausgerichtet worden. Die Niederlande konnte als Vergleichspartner konstatiert werden, weil diese eine große kulturelle Ähnlichkeit zum deutschen Feuerwehrwesen aufweist und regionalisiert agiert. Das Merkmal der Regionalisierung stellte sich im europäischen Raum als eine vielversprechende Variante der Organisationsgestaltung heraus.
Der Benchmarkingprozess ist morphologisch beibehalten worden. Die Analysen, Vergleiche und Bewertung erfolgten nach Vorbild der Organisationsanalyse nach den Ausführungen von Wenger, Thom und Ritz, welche in das Benchmarking implementiert wurden. Diese Vorgehensweise stellte sich als erfolgreich heraus.
Die Verbesserungs- und Handlungsoptionen für das deutsche Feuerwehrwesen aus dem Benchmarking mit den Niederlanden sind folgende:
• Bündelung und Verknüpfung von Gefahrenabwehraufgaben in
regionalen Strukturen sowie die Regionalisierung der
Feuerwehren
• Anpassung der Schutzziele und Hilfsfristen an
Effizienzkriterien und Risiko unter der Bedingung weiterer
einhergehender Maßnahmen (Wandel von einer
strukturqualitätsorientierten hinzu einer
prozessqualitätsorientierten Philosophie)
o Standardisierung der Ausbildung aller
Feuerwehrdienstleistenden (in Modulen) und I
Intensivierung der ehrenamtlichen Ausbildung
o Festlegen der Staffel als Standardeinheit
o Einführung von Zwischenebenen zwischen
freiwilliger/zufälliger und beruflicher/sicherer
Verfügbarkeit
o Vergütung von arbeitsverhältnisähnlichen Dienstzeiten
o Reduzierung der Fahrzeugvielfalt
o Risikoorientierente und regionalstrukturierte
Fahrzeugvorhaltung
o Objektbezogene Risikoanalyse
o Einführung eines Qualitätsmanagementsystems und eines
standardisierten Controllings
o Transparenz- und Einbindungsstrategie mit der
Öffentlichkeit verfolgen
Weitere Maßnahmen, die sich zwar im heutigen Feuerwehrsystem umsetzen ließen und die Effektivität und Effizienz steigern würden, aber nicht das Problem der nicht erreichbaren Schutzziele beheben könnten, sind Maßnahmen wie die Etablierung des Krisenmanagements, die wissenschaftliche Erschließung des Feuerwehrwesens, die Bündelung rückwärtiger Tätigkeiten oder die Weiterentwicklung des Führungssystems hinsichtlich mehrstufiger Skalierbarkeit sowie wirkungsvoller und interdisziplinärer Zusammenarbeit.
Die hochwertige und umfassende Ausbildung von Führungskräften in der Gefahrenabwehr gilt als ausschlaggebender Punkt für die effektive Bewältigung von Gefahrenlagen. Zur Erreichung dieser Anforderungen wurde im Pilotlehrgang der Bundesakademie für Bevölkerungsschutz und Zivile Verteidigung erstmals die Software „Feuerwehr-Einsatzsimulation“ für die Darstellung von Planübungen bei der Ausbildung von Verbandsführern und Verbandsführerinnen eingesetzt. Ziel der vorliegenden Masterarbeit ist die Evaluierung des neuen Ausbildungskonzeptes im Rahmen einer Pilotstudie, um feststellen zu können, welchen Einfluss die Nutzung einer computergestützten Simulation im Vergleich zu konventionellen Ausbildungskonzepten auf den Lernprozess der angehenden Verbandsführer beziehungsweise Verbandsführerinnen hat. Zur umfassenden Evaluation wird eine Datenerhebung nach dem Mixed-Methods Prinzip mithilfe eines quantitativen Fragebogens, einer qualitativen Gruppendiskussion mit den Teilnehmenden sowie qualitativen Leitfadeninterviews mit den Dozierenden des Pilotlehrganges durchgeführt.
Die Ergebnisse zeigen, dass sowohl die Teilnehmenden als auch die Dozierenden den Einsatz der Software positiv bewerten. Es kann festgestellt werden, dass die Nutzung der Simulation einen positiven Einfluss auf den Lernprozess der Teilnehmenden hat. Begründen lässt sich dieser durch die realistischere Darstellung der Einsatzszenarien, der Erkundung der Einsatzstelle unter realen Bedingungen und dem besseren Feedback durch die Dozierenden, da die getroffenen Maßnahmen in der Simulation umfassend dargestellt werden können. Verbesserungsbedarf besteht bei der Immersion für die Teilnehmenden und einer leichteren Bedienung der Software für die Dozierenden. Der Einsatz einer computergestützten Simulation bei der Ausbildung von Verbandsführern und Verbandführerinnen erfüllt die hohen Anforderungen an eine praxisorientierte Ausbildung. Es ist daher empfehlenswert, eine computergestützte Simulation zur Darstellung von Planübungen für die Ausbildung von Verbandsführern und Verbandsführerinnen einzusetzen.
Die Arbeit richtet sich an die mit der Ausbildung von Verbandsführern bzw. Verbandsführerinnen beauftragten Stellen und deren Dozierenden.
Digitale Medien sind fester Bestandteil der Lebenswelten von Kindern und Jugendlichen. Sie wachsen in eine Medienwelt hinein, in der digitale Technologien allgegenwärtig und selbstverständlich sind. Junge Menschen gelten daher als Digital Natives („Digitale Einge-borene“). Dennoch brauchen sie pädagogische Unterstützung, um souverän mit Medien umgehen zu können. Denn die informell erworbenen Fähigkeiten sind oft nicht ausrei-chend, um als kompetentes Medienhandeln gelten zu können. Dabei lässt sich gerade für die Adressat*innen der stationären Erziehungshilfe ein deutlicher Mehrbedarf in der Ausbil-dung von Medienkompetenz ausmachen, da für sie keine angemessene Medienerziehung in der Herkunftsfamilie vorausgesetzt werden darf. Doch in der stationären Kinder- und Jugendhilfe sind digitale Medien und Medienerziehung bisher eher vernachlässigte Themen.
Mithilfe einer quantitativen Befragung von knapp 200 Fachkräften zur Praxis der Medien-ziehung in Einrichtungen der stationären Erziehungshilfe in Deutschland wird dieses bisher wenig erforschte Feld genauer beleuchtet. Im Fokus stehen dabei die eigene Medienkom-petenz, medienbezogene Einstellungen, Qualifikation und Fortbildungsengagement der Fachkräfte sowie die Rahmenbedingungen der Einrichtung und medienerzieherischen Tä-tigkeiten im Arbeitsalltag. Wie die Analyse zeigt, erkennen die meisten Fachkräfte die Be-deutung der Medienerziehung in stationären Hilfen durchaus an, es besteht jedoch ein ho-her Informations- und Fortbildungsbedarf der Fachkräfte rund um medienpädagogische Themen. Denn nur etwa die Hälfte der Befragten hat im Rahmen ihrer beruflichen Ausbil-dung medienpädagogisches Wissen erworben; ein Großteil hat zudem keine entsprechen-den Fortbildungen absolviert. Fehlende medienpädagogische Konzepte sowie die häufig mangelhafte und veraltete technische Ausstattung in den Einrichtungen erschweren die medienerzieherische Praxis der Fachkräfte zusätzlich.
In dieser Arbeit wird ein Vorgehensmodell entwickelt um eine Taxonomie für Spielmechaniken aufzubauen. Hierfür werden zwei Vorgehensmodelle miteinander verbunden: eines, das die Extraktion von Spielmechaniken aus Gesellschaftsspielen in verschiedenen Strategien ermöglicht sowie ein weiteres, das ein standardisiertes Vorgehen beschreibt, wie eine Taxonomie aufgebaut werden kann.
Innerhalb des Vorgehensmodell zum Taxonomieaufbau werden die Strategien zur Extraktion von Spielmechaniken zum Aufbau des Domänenverständnisses genutzt. Davon ausgehend werden Kategorien abstrahiert, welche im Nachgang verfeinert und zueinander in Bezug gesetzt werden. Anschließend werden die zusätzlich extrahierten Spielmechaniken in die neu aufgestellte Struktur anhand der identifizierten Kriterien integriert und auf Kohärenz geprüft.
Vergangene Ereignisse haben gezeigt, dass es trotz gesetzlicher Vorgaben und technischer Regeln, welche die Notstromversorgung von Krankenhäusern bestimmen, zu Vorfällen mit menschlichen Verlusten als Folge von Stromausfällen kam. Deshalb befasst sich diese Masterthesis mit der Entwicklung einer Bewertungsmethode für die Notfallplanung von deutschen Krankenhäusern im Bereich der Energieversorgung unter Berücksichtigung von technischen und organisatorischen Anforderungen. Sie soll in der Krankenhausalarm- und Einsatzplanung Anwendung finden.
Das Ziel ist es, eine Methode zu entwickeln, welche von Anwender:innen mit unterschiedlicher Ausprägung der Fachexpertise in der Krankenhausalarm- und Einsatzplanung sowie Risikoanalyse genutzt werden kann. Über zwei Scoping Reviews für die Krankenhausalarm- und Einsatzplanung sowie zur Energieversorgung von Krankenhäusern werden bestehende Vorgaben und Konzepte sowie Anforderungen an die Methode ermittelt. Basierend auf diesen Informationen wird ein gestuftes Bewertungsmodell vorgeschlagen. Es setzt sich aus einer Synthese eines Verfahrens des Bundesamts für Bevölkerungsschutz und Katastrophenhilfe zur Vulnerabilitätsanalyse mit Methoden der multikriteriellen Entscheidungsunterstützung (Satisfizierungsverfahren und Analytic Network Process) zusammen. Anhand einer exemplarischen Durchführung erfolgte eine empirische Validierung. Des Weiteren wurden der Praxisbezug und die Anwendbarkeit mit Expert:innen-Gesprächen untersucht.
Als Ergebnis kann festgehalten werden, dass sich das gestufte Bewertungsmodell als Planungsmodell für die Bewertung der Energienotversorgung von Krankenhäusern eignet. Es ist in eine Einsteiger-, Fortgeschrittenen- und Expertenstufe unterteilt, um für alle Anwender:innen unabhängig von ihrer Fachexpertise nutzbar zu sein. Es sind weitere Arbeiten unter enger Einbindung von Krankenhausbetreibenden erforderlich, um anhand des Modells priorisierte Checklisten mit allgemeinen technischen und organisatorischen Anforderungen für die Fortgeschrittenenstufe zu entwickeln. Durch die exemplarische Durchführung hat sich herausgestellt, dass das gestufte Bewertungsmodell zudem zur Identifizierung von Abhängigkeiten und Kritikalität des untersuchten Systems genutzt werden kann.
Als Herausforderung stellte sich die Übertragung des Analytic Network Process zu einem Bewertungs- und Priorisierungssystem der technischen und organisatorischen Anforderungen in Verbindung mit der Vulnerabilität heraus. Die Anwendungsgrenzen werden durch die Stufung des Bewertungsmodells gering gehalten. Es sind jedoch weitere Arbeiten, wie die Erstellung eines Leitfadens, notwendig, um die praktische Umsetzung zu ermöglichen.