Refine
Year of publication
Document Type
- Master's Thesis (255)
- Bachelor Thesis (132)
- Report (42)
- Study Thesis (31)
- Working Paper (31)
- Conference Proceeding (30)
- Book (27)
- Article (14)
- Part of a Book (9)
- Other (6)
Language
- German (586) (remove)
Keywords
- Rückversicherung (36)
- Versicherung (27)
- Reinsurance (26)
- Kölner Forschungsstelle Rückversicherung (25)
- Sozialarbeit (23)
- Versicherungswirtschaft (23)
- Soziale Arbeit (19)
- Deutschland (18)
- Bibliothek (17)
- Marketing (15)
Faculty
- Fakultät 10 / Institut für Informatik (144)
- Fakultät 03 / Institut für Informationswissenschaft (98)
- Fakultät 07 / Institut für Medien- und Phototechnik (57)
- Fakultät 04 / Institut für Versicherungswesen (43)
- Fakultät 04 / Schmalenbach Institut für Wirtschaftswissenschaften (23)
- Fakultät 10 / Advanced Media Institute (23)
- Fakultät 03 / Institut für Translation und Mehrsprachige Kommunikation (22)
- Fakultät 10 / Institute for Business Administration and Leadership (19)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (18)
- Fakultät 01 / Institut für Medienforschung und Medienpädagogik (14)
Neben den großen Anbietern digitaler Comics mit elektronischem Kopierschutz (DRM) haben sich auch Anbieter für DRM-freie Comics etabliert. Als Open Source-Alternative zu den Plattformen Ersterer wurde im Rahmen des Praxisprojekts die Software ComicLib als Web-App zur Verwaltung digitaler Comicsammlungen geschaffen. Diese ermöglicht die gemeinsame Verwaltung DRM-geschützter sowie -freier Comics. Letz-tere sind außerdem im Webbrowser lesbar. Die im Rahmen dieser Arbeit entstandene And-roid-App soll eine Open Source-Alternative zu den mobilen Apps der Plattformen der gro-ßen Anbieter sein und ComicLib um eine mobile App zur Offline-Nutzung der Comics erwei-tern. Der erste Prototyp wird im Nachgang des Projekts weiter getestet und verbessert, be-vor die erste stabile Version veröffentlicht wird.
Mit dem Übergang von der elterlichen Sorge zur rechtlichen Betreuung gehen diverse Herausforderungen einher. So müssen Eltern eine erhebliche Veränderung, nicht nur in der Rechtsbeziehung, gestalten. Insbesondere die dabei zu wahrende Selbstbestimmung betreuter Menschen sowie die Verhinderung ersetzender Entscheidungen stehen im Fokus dieser Auseinandersetzung. In der vorliegenden Arbeit werden die spezifischen Herausforderungen für die Beteiligten des Betreuungswesens herausgearbeitet und zudem Rechtspfleger*innen sowie Betreuungsvereine als wesentliche Schnittstellen zwischen rechtlich betreuenden Eltern und dem professionellen Betreuungswesen identifiziert. Theoretische Vorüberlegungen, geleitet von der UN-Behindertenrechtskonvention und dem Paradigma der unterstützen Entscheidungsfindung sowie der primären Maxime der Orientierung an Wohl und Willen des Betreuten, bilden die Grundlage einer empirischen Untersuchung. In leitfadengestützten Expert*inneninterviews mit Rechtspfleger*innen und Mitarbeiter*innen von Betreuungsvereinen wird thematisiert, inwiefern Eltern in diesem Prozess begleitet und unterstützt werden. Es wird deutlich, dass es an Aufklärung und Information von Eltern über die Veränderung in der Rechtsbeziehung im Rahmen des Betreuungsverfahrens mangelt und eine fortlaufende Begleitung in Form von der Bereitstellung entsprechender Erfahrungs- und Wissensbestände durch die Betreuungsvereine weiter auszubauen ist. Die Vermittlung betreuungsrechtlicher Grundkenntnisse sowie die Einführung in methodisches Wissen, beispielsweise der unterstützen Entscheidungsfindung, sind deshalb bedeutsam, weil die daraus entwickelte Haltung von Betreuern eine wesentliche Voraussetzung für die Selbstbestimmung betreuter Menschen darstellt.
In der Masterthesis „Sentiment Analyse von informellen Kurztexten im Unternehmenskontext“ werden Ansätze und Methoden aufgezeigt hat mit denen Unternehmen in der Lage sind die Daten aus sozialen Netzwerken zu speichern, zu verarbeiten und schließlich zu analysieren. Praktisch wurde dies anhand des Beispiels mit Amazons Kundendienst auf Twitter mit Hilfe einer Sentiment Analyse aufgezeigt. Die aus der Theorie und den praktischen Ergebnissen gewonnenen Erkenntnisse über Herausforderungen, Nutzen, sowie Methoden zur Umsetzung sind universell in vielen Unternehmen einsetzbar und können wie aufgezeigt unter anderem zu einer Verbesserung der Kundenzufriedenheit führen. Dabei wurde ein lexikonbasietre Ansatz zur Sentimentanalyse benutzt.
Für einen aktiven Gewässerschutz ist es sinnvoll,
Immissionen aus Kläranlagen und Kanalsystemen
in einem Gesamtkonzept zu betrachten und somit
das Abwasserabflusssystem ganzheitlich zu bewirtschaften.
Schließlich belasten diese Einleitungen
die Gewässer sowohl in hydraulischer wie auch in
stofflicher Hinsicht.
Die gewonnenen Erfahrungen aus fünfjähriger Forschungsarbeit
stellen die Grundlage für einen erfolgreichen
Technologietransfer auf weitere Kanal und
Kläranlagen-Systeme dar. Dies ist ein wesentliches
Ziel des wissenschaftlichen Netzwerkes, das
im Rahmen von :metabolon aufgebaut wird.
Für den erfolgreichen Ausbau der Elektromobilität nimmt die Nutzerakzeptanz eine entscheidende Rolle ein. Neben den Anschaffungskosten, Wirkungsgraden und Reichweiten fällt vor allem der Komfort des Ladevorgangs als entscheidende Einflussgröße ins Gewicht. Zum aktuellen Zeitpunkt beeinflussen eine Reihe an negativen Faktoren (z.B. Ladeinfrastruktur, Preisintransparenz und vielfältige Bezahlsysteme) den Ladekomfort und halten potenzielle Käufer eines Elektroautos letztlich vom Erwerb ab. Im Rahmen dieser Arbeit soll aus unmittelbarer Sicht der Nutzer:innen der derzeitige Stand der Ladeinfrastruktur und das aktuelle Nutzerverhalten sowie potenzielle Erfolgsfaktoren herausgearbeitet werden. Weiterhin werden verschiedene Lösungsvorschläge erprobt, die den Ladekomfort an öffentlichen Ladesäulen erhöhen soll. Dazu wird eine zweitstufige Online-Studie im Zuge des vom Bundesministerium für Wirtschaft und Klimaschutz geförderten Transformationsnetzwerk „TrendAuto2030plus“ koordiniert und von Studierenden des Master-Kurses „Technologie und Innovationsmanagement“ an der TH Köln durchgeführt. Gemessen an der bisherigen Nachfrage ist die Ladeinfrastruktur in Deutschland besser als ihr Ruf. Ein deutliches Bild der Unzufriedenheit zeigt sich derweil in Bezug auf die aktuell vorherrschende Preisintransparenz an öffentlichen Ladestationen. Die Vielfalt der Tarifmodelle und Bezahlsysteme erfordern eine großen Strukturierungs- und Informationsbedarf. Es werden Systeme der Preisanzeige gefragt sein, die der Vielfalt und Dynamik der unterschiedlichen Bezahl- und Tarifmodelle Rechnung tragen und diese transparent und nutzerfreundlich ausweisen.
Das Projekt „IDiT – INCLUDING.DIGITAL.TWINS. Inklusion durch digitale Medien in der beruflichen Bildung“ erforscht, wie Rehabilitand:innen und Auszubildende digitale Expertise und mediale Kompetenzen erwerben können, die für einen erfolgreichen beruflichen (Wieder-)Einstieg unabdinglich sind. Die Integration medienpädagogischer Kompetenzen in Aus- und Fortbildung Lehrender wird bereits geraume Zeit diskutiert und erforscht (vgl. Jahrbuch Medienpädagogik 9, 2012). Dabei lag der Fokus zunächst auf der allgemeinen, schulischen Bildung, mittlerweile gibt es jedoch auch für die berufliche Ausbildung entsprechende Beiträge (vgl. Krämer et al. 2012). Die Sicht der Lehrenden in der beruflichen Ausbildung und Rehabilitation auf medienpädagogische Kompetenzen und Kompetenzmodelle wird bei theoretischen Überlegungen hierzu jedoch nur selten berücksichtigt. Das Projekt IDiT setzt dort an und arbeitet ein bedarfsorientiertes Konzept zur Vermittlung von medienpädagogischer Kompetenz an Lehrende in der beruflichen Rehabilitation aus. Denn für die Vermittlung medialer Kompetenzen braucht es medienkompetente und medienpädagogisch kompetente Lehrende. Doch diese Kompetenzen, in der Form in der sie heute relevant sind1, waren meist kein Bestandteil der professionellen Ausbildung von Lehrpersonen der beruflichen Ausbildung und Rehabilitation.
Die hier vorgeführte Studie erhebt, welche Bedarfe Lehrende in der Berufsausbildung und beruflichen Rehabilitation haben, um digitale Expertise und mediale Kompetenzen an Auszubildende und RehabilitandInnen vermitteln, fördern und stärken zu können.
Sachliche Suchen in bibliothekarischen Online-Katalogen enden häufig mit unbefriedigenden Ergebnissen. Als eine Ursache dafür kann angesehen werden, daß die Gestaltung des Suchprozesses das semantische Umfeld einer Suchanfrage nicht mit einbezieht, daß in Übertragung der Verhältnisse in konventionellen Katalogen am Paradigma des Wort-Matching zwischen Suchwort und Indexat festgehalten wird. Es wird statt dessen das Konzept einer semantischen Umfeldsuche entwickelt und gezeigt, welche Rolle die Verwendung strukturierten Vokabulars dafür spielen kann. Insbesondere wird dargestellt, welche Möglichkeiten Verfahren der wörterbuchgestützten maschinellen Indexierung in diesem Zusammenhang spielen können. Die Ausführungen werden durch Beispiele illustriert.
Evit@ stellt ein Bewertungsinstrument bereit, mit dessen Hilfe qualitative Aussagen über elektronische Informationsmittel möglich werden. Für die erste Phase des Projektes standen offline (insbesondere CD-ROM-) Produkte wegen ihres besonderen Marktanteiles im Vordergrund. Eine Stärke des Verfahrens liegt dabei auf der vergleichenden Produktanalyse und auf einem weitgehend entindividualisierten Ansatz. Entwickelt wurde das Verfahren auf der Basis einer umfangreichen Analyse der überwiegend in der angloamerikanischen Fachliteratur publizierten Kriterien zur Analyse und Bewertung von Informationsmitteln. Das entwickelte Kriteriensystem geht in seiner Differenziertheit über alle bisherigen Ansätze hinaus. Insbesondere eignet sich das Verfahren zur produkttypenbezogenen Gewichtung bei der quantifizierenden Beschreibung aller wesentlichen Eigenschaften und Leistungsmerkmale elektronischer Informationsmittel (z.B. bei Handhabung, Suche und Navigation). Ausgeklammert bleiben dabei bislang die rein inhaltsbezogenen Aspekte. Über eine eigens entwickelte Softwarekomponente kann das Bewertungsergebnis sowohl auf jede einzelne Kategorie bezogen als auch in Form eines kondensierten Endergebnisses dargestellt werden. Diese Ergebnisse können im Sinne eines Qualitätsurteils Hilfestellung für Auswahl und Kaufentscheidungen bieten. Für Produzenten elektronischer Informationsmittel kann das Kriteriensystem darüber hinaus als Checkliste zur Qualitätssicherung eingesetzt werden. Dieser Projektbericht beschreibt den Projektverlauf, die Projektergebnisse und die möglichen Projektfortsetzungen.
Diese Arbeit zeigt ein Verfahren zur automatisierten Auswertung von holographischen Interferogrammen für die Formvermessung auf. Es erlaubt die topographische Form eines Objektes qualitativ anhand dessen holographischen Bildes automatisiert zu erfassen. Eine automatisierte Auswertung ermöglicht den wirtschaftlichen Einsatz der holographischen Interferometrie in der Formvermessung.
Um einen zuverlässigen kontext-sensitiven Sicherheitsdienst bereitzustellen, ist die Vollständigkeit des zur Bewertung genutzten Sicherheitskontextes von wesentlicher Bedeutung. Der Anwendungskontext leistet dazu einen fundamentalen Beitrag. Aufgrund der fehlenden Interpretationslogik ist allerdings der Anwendungskontext von aussen nicht ermittelbar. Die Integration einer den Sicherheitsdienst unterstützenden Komponente in die Anwendung schafft hierzu auf zweierlei Weise Abhilfe. Sie stellt Anwendungskontextinformationen zur Verfügung und gewährleistet effektiv eine kontext-sensitive Sicherheitsadaption.
Interaktive Systeme können ihre Nutzer bei der Erledigung alltäglicher Aufgaben, sowie beim Lernen unterstützen oder dienen der Unterhaltung. Sie können den Nutzer jedoch auch bei der Lösung eines bestimmten Problems unterstützen, wobei es sich hierbei häufig um sehr komplexe Probleme handelt. Diese lassen sich oftmals nicht klar definieren oder werden erst im Laufe der Entwicklung eindeutig identifiziert. Bei der Untersuchung der Probleme muss aufgrund ihrer Komplexität häufig multiperspektivisch vorgegangen werden, um möglichst alle Dimensionen potentieller Lösungen zu berücksichtigen. Eine Entwicklung in multidisziplinären Teams unter Einbeziehung der Kunden und zukünftiger Nutzer ist daher ratsam. Durch die multidisziplinäre Zusammensetzung von Entwicklungsteams können Kommunikations- und Verstädigungsschwierigkeiten auftreten, die sich aus der spezifischen Fachsprache der Domäne und individuellen Denkmustern ergeben. In dieser Arbeit wurde unter Berüksichtigung prozeduraler und kognitionspsychologischer Aspekte ein Ansatz entwickelt, um den Prozess der Problemlösung im Entwicklungsprozess zu unterstützen. Es wurde untersucht, inwieweit die Verwendung von Kreativitätstechniken in einem frühen Stadium des Entwicklungsprozesses zur Verbesserung des Verständnisses über die Aufgabe, sowie der Kommunikation zwischen den beteiligten Personen geeignet ist.
Diese Bachelorarbeit befasst sich mit dem Portal http://www.informationskompetenz.de/, das als Gemeinschaftsprojekt bibliothekarischer Arbeitsgemeinschaften zur Vermittlung von Informationskompetenz der regionalen und überregionalen Kooperation von Bibliotheken in Deutschland dienen soll. Neben einem Glossar, Standards und Erklärungen sowie Präsenzen der beteiligten Bundesländer stellt es insbesondere eine Datenbank zur Sammlung und zum Austausch von Materialien zu diesem Thema bereit. Nach einem Überblick über die Entstehung des Begriffs der Informationskompetenz, seine Entwicklung und aktuelle Tendenzen folgen die Beschreibung des Gesamtportals sowie eine kurze Analyse desselben anhand eines definierten Katalogs inhaltlicher und formaler Kriterien. Daneben ist auch ein kurzer Überblick über die weiteren Komponenten des Portals Bestandteil der Arbeit. Der Schwerpunkt der Arbeit liegt auf der darauffolgenden Analyse und Evaluation der Materialiendatenbank, die ebenfalls unter Anwendung der definierten Kriterien erfolgt. Der Umfang, die Struktur und die Gestaltung der Datenbank stehen bei der Untersuchung im Vordergrund; die Begutachtung erfolgt anhand einer Stichprobe von 20% der zum Zeitpunkt der Bearbeitung in der Datenbank enthaltenen Dokumente. Zudem fließen zur Evaluation der Suchfunktionalitäten auch einzelne ausgewertete Suchanfragen in die Bewertung ein. Von den hier präsentierten Ergebnissen der Evaluation des Portals und der Materialiendatenbank ausgehend werden abschließend potenzielle Perspektiven der Plattform aufgezeigt. Es werden konkrete Entwicklungsmöglichkeiten dargestellt, im Anschluss daran wird die Plattform aber zudem in den bibliothekarischen Gesamtkontext eingeordnet und ihre mögliche zukünftige Rolle skizziert.
In der stationären Kinder- und Jugendhilfe wird der Umgang zwischen Kindern und ihren Eltern oftmals aus kindeswohlbezogenen Gründen an Bestimmungen wie eine Begleitung oder zeitliche oder räumliche Einschränkungen geknüpft. Solche Anordnungen können mithilfe digitaler Medien wie Smartphones immer einfacher umgangen werden. Dieses Phänomen hat in wissenschaftlichen Untersuchungen bislang keine Beachtung gefunden, obgleich die Vermutung naheliegt, dass es negative Auswirkungen für die Klientel und Herausforderungen für die Fachkräfte bedeutet. Das Ziel der Bachelorthesis liegt darin herauszufinden, wie sich die Schnittstelle zwischen digitalen Medien und Umgangsrecht in der Praxis verhält. Um der Forschungsfrage "Welche Bedeutung haben kommunikative Entgrenzungseffekte durch digitale Medien für die Umsetzung von Umgangsbestimmungen und die Praxis von Fachkräften in der stationären Kinder- und Jugendhilfe?" nachzugehen, wurde ein Experteninterview durchgeführt. Dieses wurde mithilfe der Qualitativen Inhaltsanalyse ausgewertet und unter anderem durch John Bowlbys Bindungstheorie gestützt und interpretiert. Zu den zentralen Ergebnissen gehört, dass die unerlaubten Umgangskontakte erhebliche Risiken für die Kinder, die Eltern-Kind-Beziehung sowie die Praxis Sozialer Arbeit bergen. Die Untersuchung zeigt, dass die Ziele der Umgangsbestimmungen kaum erreicht werden können und die Hilfeeinrichtungen ihren Schutzraum verlieren. Zudem wird deutlich, dass Fachkräften kaum Handlungsleitlinien vorliegen und sie den unerlaubten Kontakt nicht verhindern, sondern nur bestmöglich mit den Folgen umgehen können. Dies führt einerseits zu einer Machtlosigkeit auf Seiten der Fachkräfte und andererseits zu einer zunehmenden Wirkungslosigkeit bei der Umsetzung von Umgangsbestimmungen. Die Soziale Arbeit ist angehalten, diese Problematik im Fachdiskurs präsent zu machen, sodass ein bedachter Umgang mit ihr möglich wird, sowie die Theorie und Praxis an diese neuen und veränderten Umstände anzupassen.
Die Bedeutung der künstlichen Intelligenz (KI) in Computerspielen hat sich in den letzten Jahren bedeutend geändert. Es wird versucht Spielfiguren zu implementieren, die ein reales, menschenähnliches Verhalten aufweisen. Der primäre Grund ist die Erkenntnis, dass eine gute KI von Charakteren zum besseren Verkauf von Computerspielen beiträgt. Die Käufer wünschen reale Charaktere, mit denen sie sich identifizieren können. Der sekundäre Grund ist die Verbesserung der Computertechnik zugunsten einer Entlastung der CPU, die eine gute KI erst ermöglicht hat. Zurückzuführen ist dies auf die Optimierung der CPUs und des Arbeitsspeichers und vor allem aufgrund der Entwicklung leistungsstarker, moderner 3D Graphikkarten. Gerade diese erlauben mehr CPU-Rechenzeit für „Nicht-Grafiktasks“. Aufgrund des oftmals unrealistischen Charakterverhaltens in Computerspielen ist das Ziel der Diplomarbeit, die Entwicklung einer Spielfigur, im Sinne einer phänomenalen Gestalt. Die phänomenale Gestalt entsteht in dem Moment, indem ein Objekt oder ein Charakter reales Leben dermaßen echt abbildet, dass man ein „künstliches“ Bewusstsein wahrnehmen kann. Die Wahrnehmung findet statt, weil der Charakter fähig ist, sein Bewusstsein, sein Verhalten und das Verhalten anderer zu reflektieren.
Die vorliegende Diplomarbeit vergleicht drei didaktisch-methodische Modelle von Präsenzveranstaltungen zur Vermittlung von Informationskompetenz an Hochschulbibliotheken. Neben den etablierten Konzepten Benutzerschulung und Teaching Library analysiert sie das von der Universitätsbibliothek Kassel entwickelte innovative Modell Learning Library. Die Arbeit untersucht jeweils die lerntheoretischen Grundlagen, das Verständnis von Informationskompetenz, Ziele und Inhalte, didaktische Prinzipien und Methoden. Abschließend bewertet sie, welches Modell hinsichtlich der Förderung des Lebenslangen Lernens zukunftsträchtig ist.
Wärme‐ und Kältespeicher von Gebäuden beruhen auf verschiedenen Konzepten der Wärmeübertragung. Bei thermischen Hybridspeichern befindet sich das Phasen-wechselmaterial (PCM) makroverkapselt in PCM‐Objekten, die im Speicherbehälter positioniert sind und vom Wärmeträgerfluid umströmt werden. Die experimentellen Untersuchungen widmen sich den Belade‐ und Entladeeigenschaften des in Kugeln makroverkapselten PCM. Es wird gezeigt, dass die spezifische Wärmeübertragungs-leistung eines Hybridspeichers unmittelbar von der Größe der Kugeln als auch von der spezifischen Wärmeleitfähigkeit des PCM abhängt.
Die Dimensionierung von thermischen Speichern in der Gebäudetechnik bezieht sich häufig auf die Trinkwassererwärmung mit der DIN 4708. Dabei werden in der Regel die Bedarfe der Nutzer zur Auslegung herangezogen. Bekannt ist das Summenlinienverfahren und der daraus resultierende Beitrag des Wärmeerzeugers. Bei Pufferspeichern wird dagegen unter-schieden in welcher Kombination von Speicher und Wärmerzeuger dieser eingesetzt werden soll und es kommt häufig zu Größenschätzungen und Auslegungen mit Richtwerten. Daneben bieten zahlreiche Herstellern Auslegungsprogramme, die immer auf den Spitzenbedarf des Gebäudes ausgelegt sind.
In diesem Beitrag wird eine Methode vorgestellt, die den thermischen Speicher als zweiten Wärmeversorger im Gebäude betrachtet, der zusammen mit diesem die Versorgung über-nimmt. Damit wird die Speicherauslegung mit der Wärmeerzeugerleistung verknüpft. Aus-gleichend über eine bestimmte Zeitperiode (24 h) mit Phasen hohen und niedrigen Bedarfs übernehmen der Wärmeerzeuger und der Speicher gemeinsam die Versorgung. Da die Wärmeversorgung eines Gebäudes in erster Linie von der Außenlufttemperatur abhängt, wird hier ein Verfahren auf dieser Basis vorgestellt, welches eine einfache Berechnung des Wärmeinhalts eines Speichers ermöglicht.
Electronic Business
(2006)
”Es gibt nur einen Erfolg - nach seinen eigenen Vorstellungen leben zu können.“ (Christopher Morlay) Erfolgreiches Business beruht auf einem sehr einfachen Grundprinzip: Stellen Sie sich dem Konkurrenzkampf und seinen Sie einfach besser. Provokativ heißt das, dass jedes Unternehmen, dass an die Spitze will, mehr Produkte mit höherer Qualität, in größeren Stückzahlen, in kürzerer Zeit und mit besseren Serviceleistungen als die Konkurrenz anbieten muss. Dabei erzwingt der rasche technologische Fortschritt eine vorausschauende Taktik. Hier nimmt das Internet seit einigen Jahren eine Schlüsselposition ein. Durch das Internet ist eine Informationsgesellschaft entstanden, die von allen Unternehmen eine extrem hohe Flexibilität fordert. Diese Flexibilität muss für jeden Kunden nachvollziehbar und somit transparent sein. Es kann keine Frage mehr sein, ob eine Firma ins eBusiness einsteigt, sondern nur noch wann und wie. Wahrscheinlich bedarf es keiner besonderen Hervorhebung mehr, dass das Thema eBusiness keine reine Nebensache für Spezialisten sein darf. Vielmehr ist es so, dass sich die Unternehmen durch das eBusiness auf Ihre Kernkompetenzen konzentrieren können. Bevor man sich aber genauer mit dem Thema auseinandersetzen kann, muss man sich darüber klar sein, was eBusiness eigentlich ist - und was es nicht ist.
Diese Arbeit stellt drei Masterstudiengänge des Bereichs Library and Information Science an Hochschulen des United Kingdom vor und überprüft sie auf ihre Eignung als weiterführende Qualifikation für die Absolventen des Bachelorstudiengangs „Bibliothekswesen“ der Fachhochschule Köln. Durch Darstellung der europäischen Studienstrukturen seit Beginn des Bologna-Prozesses werden zunächst die Rahmenbedingungen für ein Auslandsstudium verdeutlicht. Als Grundlage für die spätere Beurteilung der Masterstudiengänge wird anschließend der Bachelorstudiengang „Bibliothekswesen“ unter Zuhilfenahme des Modulbuchs und der Prüfungsordnung vorgestellt und ein Profil für die Absolventen entwickelt. Nach einem allgemeinen Überblick über die Hochschulausbildung im United Kingdom und die LIS-Ausbildung im Speziellen, wird der Berufsverband Chartered Institute of Library and Information Professionals und seine Aufgabe im Bereich Akkreditierung vorgestellt. Im Hauptteil werden anhand selbsterstellter Kriterien drei Studiengänge aus England, Wales und Schottland ausgewählt und anhand der Informationen der Internetseiten der Hochschulen beschrieben. Abschließend werden die Studiengänge, ebenfalls mittels selbstgewählter Kriterien, auf ihre Eignung als weiterführende Qualifikation überprüft.
Der immer weiter steigende Bedarf an qualitativ hochwertigen, grafischen Inhal- ten in Computerspielen sorgt dafür, dass neue Wege gefunden werden müssen, um diese mit verfügbaren Ressourcen produzieren zu können. Hier hat sich in einigen Bereichen die Verwendung von prozeduralen Techniken zur computergestützten Ge- nerierung von benötigten Modellen bereits bewährt. Ein Bereich, der aufgrund seiner Komplexität besonders interessant für den Einsatz von prozeduralen Methoden ist und im Bereich der Computerspieleindustrie noch am Anfang steht, ist die Simulation und Erzeugung von virtuellen Städten oder anderen urbanen Strukturen. Ziel dieser Arbeit ist es, ein Systemkonzept zu präsentieren, das auf Grundlage eines erweiterbaren Bedürfnissystems von Personen ein virtuelles Wegenetz erzeugt, das als Folge der Interaktionen der Personen mit der simulierten Welt entsteht. Es soll gezeigt werden, dass einzelne Agenten ohne ein globales Wissen oder eine vorhandene Planungsinstanz nach dem Beispiel von sozialen, staatenbildenen Insekten nur mit- hilfe einer Kommunikation auf Pheromonbasis zu in Computerspielen einsetzbaren Simulationsergebnissen kommen.
Die Dokumentation und Untersuchung von Massenbewegungen ist der entscheidende Schritt, um die Gefahr, die von ihnen ausgeht, zu identifizieren und im nächsten Schritt zu minimieren. Vor allem in Bergregionen kann dies im Extremfall Menschenleben retten.
Folglich untersucht diese Arbeit auf Grund bestehender Gefahr die räumliche Verteilung von Massenbewegungen in den drei iranischen Provinzen Alborz, Qazvin und Teheran.
In Anbetracht der immer weiter wachsenden Städte im erdbeben- und somit massenbewegungsgefährdeten Elbursgebirge wird mittels zweier quantitativer Analysen der isolierte Einfluss von straßen- und schienengebundener Verkehrsinfrastruktur auf Massenbewegungen (in den drei Provinzen) untersucht.
Beide Analysen vergleichen ausschließlich die lokale Häufung von Massenbewegungen mit dem vorhandenen Straßen- und Schienennetz: in der ersten Analyse durch das Vergleichen stattgefundener Massenbewegungen innerhalb von Teilgebieten des untersuchten Gebiets, in der zweiten Analyse werden die Häufungen in verschiedenen Abständen zu Straßen erfasst.
Anknüpfend an die zweite Analyse wird eine Bewertung der Häufigkeiten getätigt.
Es ergeben sich folgende wesentliche Erkenntnisse aus dieser Bachelorarbeit:
• Die Aussagekraft der Analysen kann höchstens so groß sein wie die Richtigkeit, Vollständigkeit und Detailliertheit der zur Verfügung gestellten Datenbanken
• Die verhältnismäßig große Fläche des Untersuchungsgebietes stellt eine hohe Fehlerquelle dar (z.B. durch das große Datenvolumen)
• Eine Anfälligkeitsanalyse auf Grund eines isoliert betrachteten Auslösefaktors ist mit vielen Fehlern und Annahmen behaftet (z.B. muss zunächst einmal angenommen werden, dass Massenbewegungen nicht durch andere Faktoren ausgelöst werden)
• Eine erhöhte Anfälligkeit des Untersuchungsgebietes gegenüber Massenbewegungen innerhalb von 50 m Abstand zu Straßen konnte durch die in dieser Arbeit beschriebenen „Straßenpufferanalyse“ nachgewiesen werden.
Die Analysen sind mit dem Programm ArcGIS durchgeführt. Ihre detaillierte Beschreibung ermöglicht es dem Leser, die Analysen weiterzuführen oder mit anderen Parametern zu wiederholen. Weiterführende Analysen beispielsweise in Form einer Risikokarte verhelfen den Menschen, Sachgüter und die Umwelt z.B. durch nachhaltige Bebauungspläne zu schützen.
Erwachsenenbildungs- und Weiterbildungsprogramme begründen sich auf Zielgruppen- und Bedarfsanalysen. Es geht darum heraus zu finden, welche Zielgruppe welchen Bedarf hat, um daraufhin gezielte Angebote konzipieren zu können. Doch selbst wenn die Zielgruppe, ihre Bedürfnisse, Wünsche und Erwartungen bekannt sind und Ziele für ein Weiterbildungs-programm klar formuliert und kommuniziert wurden, bedeutet das nicht, dass diese Ziele in dieser Form von den Programmteilnehmer/innen verstanden und angenommen sowie in ihrem Arbeitsalltag umgesetzt werden. Diese Studie untersucht inwiefern die Programmziele des LehrendenCoaching-Programms der Fachhochschule Köln in den von neu berufenen Professorinnen und Professoren verfassten Lehrportfolios wieder zufinden sind.
Sinkende Mitgliederzahlen, ein wachsendes Aufgabenspektrum und gefährlichere Einsatzlagen bedingen auch in den Feuerwehren eine Digitalisierung, um die aktiven Feuerwehrangehörigen im Einsatz zu entlasten und zu schützen.
In der vorliegenden Bachelorarbeit werden aktuelle und zukünftige Technologien auf ihre Potenziale und Gefahren als Einsatzmittel für die Feuerwehr analysiert. Neben einer Betrachtung dieser Technologien als Ursache eines Feuerwehreinsatzes werden Unterstützungsmöglichkeiten für die Feuerwehrangehörigen aufgezeigt, die aus der Nutzung fremder Technologien oder einer Eigenbeschaffung resultieren. In der Arbeit werden ausschließlich Technologien fokussiert, die als Entwicklung aus dem Internet der Dinge hervorgehen. Ziel der Arbeit ist es, die Technologien auf ihren Unterstützungscharakter zu analysieren, damit die Einsatzkräfte zielgerichtet entlastet und besser geschützt werden.
Mit Einführung der Deponieverordnung 2005 endete die Deponierung nicht-inerter Stoffe und biologisch aktiver Spezies. Im Zuge ihrer Durchsetzung traten neue Behandlungsmöglichkeiten dieser Stoffströme in das Zentrum der Betrachtung. Zu diesen Behandlungsmethoden zählt die anaerobe biologische Behandlung. Sie findet vor allem bei stark organisch geprägten Stoffströmen mit hohen Wassergehalten Anwendung (Kaltschmitt et al. 2009). Im Zuge der anaeroben Behandlung werden organische Kohlenstoffverbindungen hauptsächlich in CO2 und CH4 umgesetzt. Die anaerobe Behandlung reduziert so den organischen Anteil und das Volumen des Gärsubstrates. Im Gegenzug steigt der Wasseranteil des Gärsubstrates durch die Freisetzung von Zellwasser an. Verbindungen aus Phosphor und Stickstoff verbleiben im Gärsubstrat und machen es damit zu einem geeigneten Düngemittel für die Landwirt-schaft (Möller et al. 2009). Das Material unterliegt der Düngemittelverordnung, durch welche sowohl die Ausbringung als auch die Ansprüche an dessen Beschaffenheit geregelt werden. Um den anfallenden Gärrest für die Landwirtschaft nutzen zu können, muss daher eine Möglichkeit zur mittelfristigen Lagerung geschaffen werden (Raussen et al. 2008). Über das Verhalten im Zeitraum dieser Lagerung gibt es bisher nur wenige Untersuchungen. Grund hierfür ist vor allem die hohe Diversität des Presswassers. Dessen Eigenschaften werden durch die Betriebsparameter der Biogasanlage bestimmt und unterscheiden sich so deutlich von Anlage zu Anlage.
Die hier dargestellten Arbeiten sind Teil eines Forschungsvorhabens zur Untersuchung des Lagerungsverhaltens von Presswasser aus der Vergärungs- und Kompostierungsanlage Leppe. Diese verfügt über zwei Lagerungsbehälter mit einem Fassungsvermögen von je 3.500 m³. Bereits im Zuge der Planung wurde ein anaerober und aerober Betrieb vorgesehen. Neben den drei Rührwerken, mit denen die Durchmischung des Presswassers gewährleistet wird, sind zwei Injektionsbelüfter installiert.
Ziel der Untersuchungen war es, eine Datengrundlage zu schaffen, aufgrund derer über die Betriebsweise der Presswasserspeicher entschieden werden kann.
Bei der Interaktion mit technischen und sozialen Systemen treten für Menschen mit und ohne Beeinträchtigungen Barrieren auf. Die vorliegende Arbeit befasst sich mit der Identifikation dieser Barrieren. Dabei wird der wissenschaftliche Diskurs über die Ursachen von Barrieren als ein mehrdimensionales Handlungsfeld betrachtet. Der Bezug zur Mensch-Computer-Interaktion wird hergestellt und Philosophien zur Umsetzung von Barrierefreiheit im Gestaltungsprozess werden erläutert. Es wird ein grundlegender Vergleich von Barrierefreiheit und Usability gezogen. Der objekt- und subjektbasierte Ansatz zur Identifizierung von Barrieren wird ebenfalls vorgestellt.
Die gewonnenen Erkenntnisse werden im Kontext des ehrenamtlichen Musikvereins Junges Musical Leverkusen e. V. praktisch umgesetzt. Für den Kooperationspartner wird der Service rund um ein Ticketverkaufssystem auf mögliche Barrieren untersucht. Dazu wird die Domäne analytisch dargestellt und anschließend empirisch untersucht. Es werden Interviews mit fünf Personen mit unterschiedlichen Beeinträchtigungen geführt. Aus den daraus resultierenden identifizierten Barrieren werden Gestaltungsempfehlungen abgeleitet und deren Nutzen für den:die Benutzer:in und Umsetzbarkeit für den Kooperationspartner diskutiert.
Bevor mit der Entwicklung eines interaktiven Systems begonnen werden kann, müssen mehrere Technologieentscheidungen getroffen werden. In der Web-Frontend-Entwicklung wird durch die steigende Diversität von standardisierten Technologien und Drittanbieter-Frameworks bzw. Libraries diese Entscheidung erschwert. Für den Kooperationspartner Junges Musical Leverkusen e. V. ist es besonders wichtig, langlebige Software zu entwickeln. Der ehrenamtlich-arbeitende Verein hat eine geringe Ressourcenverfügbarkeit, um Entwicklungsprojekte kontinuierlich zu pflegen. Für ein Ticketverkaufssystem soll nun eine langlebige Technologieentscheidung getroffen werden.
In dieser Arbeit wird der Web Components Standard vorgestellt und auf seine Langlebigkeit untersucht. Dazu werden Standards im Web im Allgemeinen vorgestellt. Unterschiedliche Entscheidungsorgane und Standardisierungsprozesse werden erläutert. Um eine Aussage über die Lebenszeit von Standards in Web Browsern zu treffen, wird ein Paper des Google-Chrome-Teams vorgestellt, aus dem geschlossen werden kann, dass keine allgemeingültige Vorhersage über den Zeitpunkt des Verfalls von Standards getroffen werden kann. Dennoch werden Web Standards in Abhängigkeit von ihrer Verwendung im Web, Sicherheitsproblemen und anderen Faktoren als veraltet markiert.
Der komponenten-getriebene Ansatz von Software-Entwicklung wird vorgestellt, um Web Components im Kontext der Softwareentwicklung zu verstehen. Die Spezifikationen der Webtechnologien für den Web Components Standard werden im Detail vorgestellt, um im weiteren Verlauf der Arbeit Grenzen des Standards zu erörtern. Des Weiteren wird eine Auswahl von Drittanbieter-Frameworks nach einer gekürzten Liste von Metriken verglichen. Konzepte und Prinzipien dieser Frameworks werden erläutert.
Es werden allgemeingültige Konzepte und Prinzipien vorgestellt, die das Thema der Langlebigkeit von Software adressieren. Hierzu zählen Test-Driven Development und Coding Style. Der Diskurs um diese Konzepte wird angerissen. Als Konzept für die Langlebigkeit von Web-Frontendprojekten wird die Bewegung Lean Web vorgestellt.
Es wird damit abgeschlossen, dass die Verwendung des Web Component Standard diskutiert wird. Die Konzepte aus den untersuchten Frameworks und die Prinzipien zur Erreichung einer Langlebigkeit von Software werden in die Diskussion eingebracht. Es wird überprüft, inwieweit eine Bewertung des Standards möglich ist und ob dem Kooperationspartner die Verwendung der Technologie zu empfehlen ist.
Traditionell verwendet die Versicherungsbranche den Ertrag bzw. die Schadenquote zur Bewertung von Vertrags- bzw. Kundenbeziehungen. Die beiden Maßzahlen sind jedoch oft nicht deutlich genug miteinander korreliert und verletzen jeweils wichtige Forderungen, die sich aus einer stringenten Bewertung unter Ertrags- und Risikogesichtspunkten ergeben. In der vorliegenden Arbeit soll eine neue Bewertungsfunktion vorgestellt werden, die einen gewichteten Ertrag, den sogenannten T-Ertrag, als Maßzahl liefert. Gewichtungsfaktor ist dabei das u. a. aus der Informationswissenschaft bekannte Tanimoto(Jaccard)-Distanzmaß. Anhand eines Anwendungsbeispiels aus der Praxis – einer umfangreichen Kundenbewertung für ein deutsches Versicherungsunternehmen – soll verdeutlicht werden, dass der T-Ertrag sowohl mit dem eigentlichen Ertrag als auch der Schadenquote deutlich korreliert ist und damit eine risikoadäquate Ertragsbewertung gewährleistet.
Die Einführung des Neuen Steuerungsmodells (NSM) ist Thema in vielen Gemeinden. Die theoretischen Grundlagen der Verwaltungsreform, die hauptsächlich von der Kommunalen Gemeinschaftsstelle für Verwaltungsvereinfachung (KGSt) erstellt werden, sind einfach vermittelt. Die Umsetzung der Theorie in die Praxis bringt allerdings für die meisten Gemeinden und ihre Ämter Komplikationen mit sich. Aus diesem Grund ist es sinnvoll, daß bereits neu gesteuerte Ämter ihre Erfahrungen austauschen und "Neueinsteigern" zugänglich machen. Durch das Deutsche Bibliotheksinstitut (DBI) und verschiedene bibliothekarische Fachzeitschriften findet bereits seit mehreren Jahren ein reger Austausch zwischen Bibliotheken statt. Dabei werden individuelle Erfahrungen wiedergegeben, die allerdings ohne vorher definierte Untersuchungsgegenstände und -methoden erstellt worden sind. Gegenstand dieser Arbeit ist die Entwicklung eines Untersuchungsschemas, das auf den Analyse-Instrumenten und Erkenntnissen der empirischen Strategieforschung basiert.
In Köln studierende angehende Bibliothekare und Dokumentare wurden im Januar 1998 nach dem Berufsbild "Bibliothekar" befragt. Manche Klischeevorstellungen konnten bestätigt werden, wie z.B. daß Bibliothekare den Beruf wählen, weil sie gerne lesen. Andere - wie die Sicht der Bibliothek als "Refugium" - werden derzeit abgelehnt, da der Umgang mit Menschen als hoch bewertet wird. Insgesamt zeigt sich ein eher gespaltenes Bild: Prinzip und Konturen des gegenwärtigen Wandels im Bibliothekswesen scheinen von den Studierenden zwar wahrgenommen, aber nicht durchgängig verinnerlicht worden zu sein.
Gesamtziel des Projektes LyRA war und ist es, eine Datenbank zur deutschsprachigen Lyrik aufzubauen, die als Informations- und Auskunftssystem die Zuordnung von Autor, Titel, Anfangszeile und Volltext deutschsprachiger Gedichte ermöglicht. Inhaltlich geht es um die Erfassung und Auswertung aller Anthologien, die im Kern deutschsprachige Lyrik enthalten. Technisches Arbeitsziel war zunächst die Entwicklung des Datenmodells, der Entwurf der Datenstrukturen und der Aufbau einer relationalen Datenbank, die sowohl online als auch ofline angeboten werden kann. LyRA ist also ein interdisziplinäres, in mehreren Entwicklungsstufen konzipiertes Forschungsprojekt zur deutschsprachigen Lyrik, das die Bereiche Germanistik, Informationswissenschaft und Informatik miteinander verbindet. Inhaltliche Ziele des Projektes LyRA sind: 1. Aufbau einer Informations- und Auskunftsdatenbank 2. Neue Grundlage für rezeptionsgeschichliche und -ästhetische Forschungen im Zusammenhang mit deutschsprachinger Lyrik
Untersuchungsgegenstand des Berichtes ist die Leistungsmessung in Forschungsbibliotheken am Beispiel der Fraunhofer Gesellschaft und damit eine sehr komplexe Fragestellung, die sich mit den Besonderheiten dieses bibliothekarischen Arbeitsfeldes und seiner Evaluation auseinander setzt. Während es zahlreiche Ansätze in Deutschland und auch international für die Leistungsmessung in öffentlichen und wissenschaftlichen Bibliotheken – hier meist im Sinne von Universitätsbibliotheken verstanden – gibt, ist die Sonderstellung von Forschungsbibliotheken weniger gut untersucht. Alle großen Wissenschaftsorganisationen in Deutschland besitzen unterschiedlich strukturierte Forschungsbibliotheken. Ihre Aufgabe ist es, die Forscher auf dem Weg zur Spitzenforschung in adäquater Weise zu unterstützen und zu begleiten, um so optimale Rahmenbedingungen für die „exzellente“ wissenschaftliche Arbeit zu schaffen. Dabei hat sich jedoch das Umfeld der Bibliotheken in den letzten Jahren dramatisch gewandelt. Neue Publikationswege der Verlagsbranche, sich änderndes Mediennutzungsverhalten der Kunden durch das Internet sowie eine stärker globalisierte und vernetzte Zusammenarbeit der Forscher (e-Science) stellen Bibliotheken vor neue Aufgaben und Herausforderungen. Neue Produkte und Dienstleistungen entstehen, deren Erfolg und / oder Wirkung gemessen werden sollen. Diesem Forschungsprojekt vorausgegangen ist ein umfassendes Kooperationsprojekt mit der Fraunhofer-Gesellschaft im WS 2008/9 und SS 2009 mit dem Titel „Die Forschungsbibliothek der Zukunft“. Zentrale Fragestellung des Berichtes ist die Entwicklung einer zukunftsweisenden Leistungsmessung in den Bibliotheken der Fraunhofer-Forschungsinstitute. Neben allgemeinen Kennzahlen geht es auch darum, welche Besonderheiten zu berücksichtigen sind und wo sich auch die Grenzen der Messbarkeit zeigen. Entwickelt wird ein Vorschlag, mit dem sowohl kleine, als auch große Bibliotheken ihren Beitrag zur Gesamtleistungsdarstellung des Bibliotheksbereichs liefern können, so dass ein abgestuftes Modell verschiedener Methoden in Form einer „Toolbox“ entsteht.
Wie nutzen die Kunden die Bibliothek? : Online-Kundenbefragung der Universitätsbibliothek Bochum
(2011)
Die Universitätsbibliothek Bochum (UB) hat in Zusammenarbeit mit der Fachhochschule Köln / Fakultät für Informations- und Kommunikationswissenschaften in der Zeit vom 20. Januar bis 11. März 2011 eine Online-Befragung aller Studierenden durchgeführt. Ziel der Befragung war, Erkenntnisse darüber zu gewinnen, wie die Bibliothekskunden die Lehr- und Lernplätze schon heute nutzen und in Zukunft gerne nutzen würden. Weitere Schwerpunkte waren die für die Nutzung des Lernortes Bibliothek bevor-zugten Zeiten und welche Wünsche hinsichtlich einer optimalen gewünschten räumlichen Lern- und Arbeitsumgebung bei den Kunden bestehen. Aspekte der Mediennutzung in gedruckter oder elektronischer Form sowie das Kursangebot der Bibliothek zur Informationskompetenz standen ebenso im Fokus des Interesses. Dabei stand die Frage im Vordergrund: Was wünschen die Kunden sich für die Zukunft und welche Hinweise auf strategische Handlungsfelder und Prioritäten können daraus gewonnen werden.
Im Zeitalter der Globalisierung und der die Menschen so vieler verschiedener Nationalitäten weltweit vernetzenden Kommunikationstechnik stellt sich eine Frage immer wieder: In welcher Sprache soll die mittlerweile alltägliche internationale Kommunikation stattfinden? Bedingt durch die Zahl der Sprecher fällt die Entscheidung im globalen Rahmen meist auf eine der drei führenden Weltsprachen Englisch, Spanisch oder Chinesisch. Einem Großteil der Menschen kaum bewusst ist hingegen die Tatsache, dass die „Sprachenfrage“ oft schon auf einer viel niedrigeren Ebene als der globalen gestellt werden muss. Ein eindrucksvolles Beispiel hierfür ist das Königreich Spanien, auf dessen Territorium neben seiner offiziellen Amtssprache Kastilisch sechs weitere eigenständige Sprachen existieren, von denen drei in ihrer jeweiligen Autonomen Gemeinschaft ebenfalls offiziellen Status haben. Der komplexe und zuweilen überaus konfliktreiche sprachpolitische Regelungsbedarf, der mit dem Nebeneinander von Staats- und Regionalsprache in Katalonien und dem Baskenland einhergeht, ist Thema der vorliegenden Arbeit. Nachdem zunächst ein kurzer Blick auf die Sprachpolitik im spanischen Staat in der Vergangenheit und auf Ebene der Zentralmacht geworfen wird, zeigt die vorliegende Arbeit im Anschluss auf, in welchen Bereichen Katalonien und das Baskenland die Stärkung bzw. Wiedereinführung ihrer Regionalsprachen jeweils am intensivsten gefördert und welche konkreten Maßnahmen sie zu diesem Zweck seit der Demokratisierung Spaniens ergriffen haben. Zudem werden die wichtigsten Kritikpunkte an der katalanischen Sprachpolitik dargelegt, um anhand deren extremer Züge beispielhaft auf die Probleme einer zuweilen zu entschlossenen regionalen sprachpolitischen Linie hinzudeuten.
Die vorliegende Bachelorarbeit erforscht, inwiefern sich eine Analyse des Projektes BibChatDe, eines bibliothekarischen Twitterchats, und der im Zuge dessen diskutierten Themen als Grundlage für die Konzeption bibliothekarischer Weiterbildung eignet. Nach einer Beschreibung der Funktionen von Twitter und der Eigenschaften von Twitterchats wird durch eine Analyse der Beteiligung festgestellt, dass das Projekt BibChatDe nach einem Jahr Laufzeit als Erfolg gewertet werden kann. Hinsichtlich der Nachhaltigkeit besteht Optimierungspotenzial, daher werden Handlungsoptionen zur Verbesserung der Nachhaltigkeit aufgezeigt. Nach Erläuterung der Anforderungen an Weiterbildungsinhalte und - formate werden die diskutierten Themen des BibChatDe anhand eines Kategorienschemas analysiert. Das Ergebnis zeigt, dass eine Themenanalyse nur bedingt Anhaltspunkte für die Konzeption bibliothekarischer Weiterbildung liefert. Auf Grundlage der Themenanalyse zusammen mit den Anforderungen an Weiterbildungsinhalte und -formate werden Konzepte für ein digitales Fortbildungsangebot auf Twitter und eine Präsenzveranstaltung erarbeitet.
Im Rahmen eines Forschungsaufenthaltes an der Universidad de Buenos Aires (UBA) wurde in Kooperation mit der Fakultät für Veterinärwissenschaften und dem Zentrum für Interdisziplinäre Wasserforschung (CETA) eine Befragung unter Studierenden und Mitarbeitenden (wissenschaftlichen und Verwaltungsmitarbeitern sowie Professoren) durchgeführt. Diese Befragung befasste sich inhaltlich mit Themen zur Einstellung argentinischer Konsumenten zu nachhaltigen und biologischen Lebensmitteln. Dabei spielte ebenfalls die Wahrnehmung dieser Lebensmittel anhand von Siegeln eine Rolle. Ferner wurden auch Fragen zum Bewusstsein für zertifizierte Produkte gestellt, das ein Präjudiz für ein spezifisches Einkaufsverhalten ist. Die in der Befragung genutzten Siegel erfreuen sich einer gewissen Beliebtheit, wobei sich die tatsächliche Wahrnehmung im Lebensmittelhandel davon unterscheidet und sich keine generelle Kaufbereitschaft der Konsumenten daraus ableiten lässt (siehe hierzu Terlau und Hirsch (2015) oder Padel und Foster (2005)). Interessant sind die Unterschiede zwischen männlichen und weiblichen Befragten in Bezug darauf, was ihnen bei ihren Lebensmitteln persönlich wichtig ist. Dies sind beispielsweise geschlechtsspezifische Ansichten zu Qualität und Frische beim Thema „Fleisch“. Die befragten Konsumenten sind sich hingegen weitgehend darüber einig, dass sie mit biologischen Lebensmitteln eine besondere Qualität verbinden und der Preis kein allgemeines Kaufhindernis darstellt. Dies gilt allerdings nur für Argentinien, während deutsche Konsumenten den Preis sehr wohl als kritischen Aspekt sehen. Verglichen mit dem Preisniveau für konventionelle Produkte ergibt sich jedoch für Konsumenten beider Länder eine ähnliche zusätzliche Zahlungsbereitschaft gegenüber einem konventionellen Produkt, sofern Lebensmittel ein entsprechendes Siegel tragen.
Das steigende Angebot an Datenbanken im Bereich bibliografischer Informationen führt dazu, dass es für Benutzer sehr mühsam und mit einem enormen Zeitaufwand verbunden ist, in allen einzelnen Systemen zu recherchieren, da diese unterschiedliche Benutzeroberflächen und Recherchemöglichkeiten anbieten. Verteilte bibliografische Informationssysteme ermöglichen einen einheitlichen Einstiegspunkt zu heterogenen Systemen. Sie bündeln verschiedene Angebote. In diesem Text wird ein Überblick über diese verteilten Informationssysteme gegeben. Es wird dargestellt, wie eine Suche in einem solchen System abläuft, welche weiteren Funktionen angeboten werden können. Darüber hinaus wird betrachtet, wie verteilte Informationssysteme aufgebaut und vernetzt sind. Die Darstellungen werden verdeutlicht durch praktische Beispiele aus dem Bibliotheks- und Informationswesen. Insbesondere wird auf den KVK, ZACK, die KOBV-Suchmaschine, die Digitale Bibliothek NRW, das DIMDI, vascoda und Renardus eingegangen.
Im Zusammenhang mit dem Begriff Big Data können nicht nur immer größere Datenmengen verarbeitet werden, sondern auch neue Arten von Datenquellen genutzt werden. Insbesondere Web 2.0-Inhalte bieten dabei vielfältige Potenziale.
So können beispielsweise mit Hilfe einer Sentiment-Analyse Meinungen und Stimmungen zu Produkten und Unternehmen in sozialen Netzwerken beobachtet werden. Diese Infor-mationen sind für sich gesehen bereits wertvoll für viele Unternehmen. Jedoch ist eine effiziente Analyse und Auswertung der Informationen nur in Kombination mit weiteren Unternehmensdaten möglich, die typischerweise in einem Data Warehouse liegen. Diese Arbeit diskutiert die Unter-schiede, Möglichkeiten und Herausforde-rungen diese Kombination zu realisieren. Veranschaulicht wird dies durch einen Show-Case, der eine Ende-zu-Ende-Umsetzung
am Beispiel der Fernsehsendung Tatort zeigt. Dabei werden Zuschauerkommentare
aus Twitter extrahiert, mit einer Sentiment-Analyse bewertet und schließlich in einem Data Warehouse ausgewertet. Dabei können klassische BI-Kennzahlen, wie beispiels- weise Einschaltquoten, Folgen pro Ermittler etc. den Ergebnissen der Sentiment-Analyse gegenübergestellt werden.
Durch die stetige Weiterentwicklung und die mediale Präsenz der künstlichen Intelligenz findet die Steigerung der Unternehmenssicherheit in Unternehmen besondere Bedeutung. Insbesondere aus dem Umfeld des Machine Learnings sind kontinuierlich Anwendungen zu verzeichnen, die dazu dienen, eine derartige Maßnahme zu unterstützen.
Im Rahmen dieser Arbeit wurde untersucht, ob eine potenzielle Steigerung der Unternehmenssicherheit durch den Einsatz eines Prototyps für die Objekterkennung basierend auf einem YOLOv5-Algorithmus erreicht werden kann. Es wurden Beispielszenarien definiert und die Wirksamkeit dieses Algorithmus bei der Erkennung und Identifizierung in Bezug auf die Sicherheitsanforderungen in einem Unternehmensumfeld evaluiert.
Die Forschungsmethodik umfasste die Entwicklung und den Aufbau des Prototyps, der auf einem YOLOv5-Algorithmus basiert und auf einem Trainingsdatensatz der Objekterkennung trainiert wurde. Der Prototyp wurde anschließend in einer Laborumgebung implementiert und auf seine Fähigkeit getestet, Objekte nach definierten Sicherheitsanforderungen zu erkennen.
Die Implementierung eines solchen Prototyps konnte dazu beitragen, die Sicherheitsmaßnahmen in Unternehmen zu unterstützen, die Sicherheitsreaktion zu beschleunigen und proaktivere Ansätze zur Gefahrenabwehr zu ermöglichen. Aus diesen Ergebnissen sind weitere Forschungen und praktische Anwendungen im Bereich der Unternehmenssicherheit denkbar.
Obwohl innerhalb des neueren Professionalisierungsdiskurses der Sozialen Arbeit zunehmend das Wissen und Können von Berufspraktiker*innen in der Praxis fokussiert wird, ist das Professionswissen der Sozialen Arbeit ein bislang nur sehr gering beforschtes Feld. Zentral wird hierbei im Diskurs stets thematisiert und diskutiert, welches Wissen professionell handelnde Sozialarbeitende in der Praxis benötigen, wie sich dieses strukturiert und welche Relevanz dabei dem wissenschaftlich fundierten Wissen zukommt. In dieser Bachelorthesis soll daran anknüpfend aufgezeigt werden, wie das Wissen zu den Zusammenhängen zwischen Substanzabhängigkeit, Fluchtmigration und Integrationsprozessen im Aufnahmeland bei Sozialarbeitenden des noch recht jungen Handlungsfeldes substanzabhängiger Geflüchteter in der niedrigschwelligen Suchthilfe verhandelt sowie strukturiert und genutzt wird. Dabei soll ebenfalls untersucht werden, wie die Wissensinhalte Einzug in die Praxis erhalten und welchen Veränderungen sie dort im Arbeitsalltag unterliegen. Hierzu wurden Leitfadeninterviews mit Sozialarbeitenden geführt, welche in verschiedenen Einrichtungen innerhalb der niedrigschwelligen Suchthilfe tätig sind. Eine zentrale Erkenntnis dieser Thesis stellt dabei dar, dass die Sozialarbeitenden grundsätzlich über ausreichendes theoretisches Rahmenwissen verfügen und versuchen dieses in den Praxisalltag zu integrieren, die Gegebenheiten innerhalb eines Handlungsfeldes in verschiedenen Einrichtungen beziehungsweise Städten jedoch ebenso wie die Erfahrungen und Formen der Berührungspunkte mit der Klientel so unterschiedlich ausfallen können, dass theoretisches Wissenschaftswissen nie vollständig auf einen konkreten Einzelfall bezogen werden kann, sondern immer als Hintergrundwissen im oftmals erfahrungsgeleiteten Handeln mitschwingt, was zwangsläufig einer kontinuierlichen Reflexion mit den Grenzen des eigenen Wissens bedarf. Wie dies konkret innerhalb der niedrigschwelligen Suchthilfe im Kontakt mit geflüchteten substanzabhängigen Menschen geschieht, wird innerhalb dieser Thesis abgebildet.
Messverfahren zur Erfassung der potenziellen Ökotoxizität in anaeroben und aeroben Abbauprozessen
(2014)
In der vorliegenden Ausarbeitung werden die etablierten Verfahren zur Bestimmung der Ökotoxizität erläutert, mit dem Ziel weitere Bioaktivitätsparameter zur Charakterisierung der biologischen Prozesse bei der Forschungsgemeinschaft :metabolon zu integrieren.
Die Erfassung der Toxizität beruht bei den vorgestellten Methoden auf der Messung der Lumineszenz, der Sauerstoffverbrauchsrate oder der Zellzahl. In Abhängigkeit von den Eigenschaften der Schadstoffe sowie der biologischen Betriebsbedingungen der Behandlungsstufen ist die Auswahl der bestmöglichen Methode erforderlich.
Das für diese Masterthesis realisiertes Softwaresystem verwendet als Teilkomponente die Softwarelösung IPEE (Internet Pattern Extrakt Engine), die von M.Sc. Andreas Frey entwickelt und in der ursprünglichen Fassung dokumentiert wurde. Diese Kapitel sind aus Gründen des Copyrights, die auf der Software IPEE liegen, nicht in der veröffentlichten Fassung (der Masterthesis) enthalten. Eingeleitet wird die Arbeit mit Aspekten des Entwicklungsstandes des Semantik Web (Web3.0). Es folgt die Begriffsdefinition der Semantik und der semantisch orientierten Verarbeitung. Für die Ablage (Archivierung) und Verarbeitung von Daten für semantisch orientierte verarbeitende Systeme eignet sich die Konzeption der semistrukturierten Daten, die darauf folgend definiert und mit den anderen Konzeptionen - wie strukturiert und nicht strukturiert - in Beziehung gesetzt wird. In den folgenden Kapiteln werden die Komponenten erklärt, die für die Realisierung eines Prototypen zur semantisch orientierten Verarbeitung verantwortlich sind und hauptsächlich auf Aspekte der semantisch orientierten Verarbeitung von Verben fokussiert sind. Von Relevanz sind hierbei Komponenten zur Wort- und Phrasen-Analyse und zur automatischen Recherche von Wörtern aus dem Internet. Da diese Komponenten auf die Realisierung von Pattern-Extraktionsverfahren basieren, wurde die spezielle Softwarelösung IPEE verwendet. Des weiteren werden Komponenten für die Generierung des semantischen Graphen und die Visualisierung anhand von hyperbolischen Bäumen mit Hilfe einer Open Source Software Treebolic Browser beschrieben. Auch wird eine GUI für die Eingabe und Verarbeitung von Sätzen der deutschen Sprache und die Verwaltung eines Bedeutungswörterbuches erklärt. Abschließend erfolgt eine experimentelle Auswertung der semantisch orientierten Verarbeitung.
Unsere heutige Gesellschaft und Wirtschaft sind geprägt von ständiger Veränderung. Ein besonderer Wandel findet vor allem in der Arbeitswelt statt. Es herrscht ein erhöhtes Bedürfnis nach Selbstverwirklichung. Gleichzeitig müssen sich die Unternehmen immer schneller an die sich verändernden Prozesse der zunehmend global ausgerichteten Wirtschaft anpassen. Daraus ergeben sich Flexibilisierungsprozesse, die in der Entstehung neuartiger Berufe, Beschäftigungsmodelle und neuen Formen der Zusammenarbeit resultieren. Ein Phänomen, das sich dabei herausgebildet hat, ist das des „Coworking“ und der „Coworking Spaces“. Ein relativ neues Arbeitssystem, das es Wissensarbeiter ermöglicht, weitgehend voneinander unabhängig und trotzdem gemeinsam an einem institutionalisierten Ort zu arbeiten. Mittlerweile hat sich dieses Modell zu einer globalen Bewegung formiert. Dadurch bildet der Aspekt der internationalen Vernetzung der Coworking Spaces und deren Nutzern den Schwerpunkt dieser Arbeit. Der internationale Gesichtspunkt ist aus verschiedenen Gründen von besonderem Interesse. Zum einen befinden wir uns gegenwärtig durch die fortschreitende Globalisierung und die hohe technologische Entwicklung in einer Welt, die auf fast allen Ebenen miteinander verknüpft ist. Zum anderen ist das Thema Netzwerken ebenfalls ein wichtiger Grundwert des Coworking-Konzepts. Somit befasst sich die vorliegende Arbeit mit der folgenden Fragestellung: Inwiefern besteht unter Coworking Spaces und deren Nutzern Interesse an der internationalen Vernetzung und welche Möglichkeiten wurden dahingehend im Zuge der globalen Coworking-Bewegung entwickelt?
Zielsetzung dieser Abschlussarbeit ist die Eignungsprüfung nichtrelationaler Datenbanksysteme für die Erstellung einer leichtathletischen Mehrkampfdatenbank. Sie ist in fünf Kapitel aufgeteilt.
Im ersten Kapitel wird einleitend auf die Entstehung dieser Arbeit und des zugrundeliegenden Projekts eingegangen.
Im zweiten Kapitel werden die vier großen Hauptgruppen nichtrelationaler Datenbanksysteme grob auf ihre generelle Eignung für die Verwendung und Umsetzung der Mehrkampfdatenbank anhand gegebener Anforderungen bewertet und aussortiert.
Im dritten Kapitel werden die verbliebenen Hauptgruppen eingehender betrachtet und das am besten geeignet erscheinende Gruppe für eine weitergehende Betrachtung ausgewählt.
Im vierten Kapitel werden mögliche Kandidaten aus der im vorherigen Kapitel bestimmten Hauptgruppe für die tatsächliche Umsetzung bewertet. Abschließend wird ein Kandidat für die Umsetzung der Mehrkampfdatenbank bestimmt.
Im fünften Kapitel wird ein Vergleich mit einer relationalen Umsetzung der Mehrkampfdatenbank gezogen, dabei werden verschiedene Datenbankanfragen auf unterschiedlichen Datenmengen
verglichen. Außerdem einzelne Verfahrensweisen zur Abwicklung von Anfragen betrachtet.
In einem abschließenden Fazit werden die Ergebnisse und Erkenntnisse der Arbeit nochmals kurz zusammengefasst.
Das Praxisprojekt ist eine Fortführung des bereits umgesetzten Informatikprojektes.
Daher wird in den nachfolgenden Kapiteln ausschließlich auf die maßgeblichen Änderungen und Erweiterungen Bezug genommen.
Der Schwerpunkt ist die Konzeption und Umsetzung eines relationalen Datenbanksystems zur Erfassung, Verwaltung und Bearbeitung von leichtathletischen Mehrkampfwettbewerben.
Die Bedienung erfolgt über eine Weboberfläche, die Mithilfe des PHP-Frameworks Laravel an das Datenbanksystem MariaDB angekoppelt ist.
Die wichtigsten Themen im Projekt sind:
• Die Umsetzung und Koordinierung des Mehrbenutzerbetriebs
• Die Umsetzung und Kontrolle der Rechteverwaltung der Benutzer
• Die Möglichkeit zur Erfassung eigener Wettkämpfe bestehend aus beliebig vielen Disziplinen inklusive individueller Formeln zur Punkteberechnung
Die ersten beiden Punkte werden in dieser Ausarbeitung auf einer allgemeinen Ebene behandelt.
Im Rahmen dieser Diplomarbeit wurde eine Software entwickelt, welche unter Verwendung der Intel-UMC-Klassen bildgenau MPEG2-Videoelementarströme nach einer gegebenen Schnittliste schneidet. Dazu wird der Videodatenstrom auf Bitstromebene unter Berücksichtigung der GOP´s mit ihren einzelnen Bildern und deren Bildtypen analysiert und verarbeitet. In Situationen, bei denen Referenzbilder für einzelne in den Ausgangsdatenstrom übertragene Bilder verloren gehen, wird eine Neukodierung der betroffenen Umgebung eingeleitet. In allen Fällen wurde sichergestellt, dass das Ausgabevideo konform zur MPEG2-Spezifikation ISO/IEC 12818-2 ist.
Die Einzelfadenverklebung zur Rissschließung in Leinwandbildträgern stellt ein bedeutendes Forschungsfeld dar, dem sich diese Arbeit widmet:
Erstmalig wurden in einem gemeinsamen Kontext uniaxiale Zugprüfungen an freien
Klebstofffilmen, verklebtem Garn und Gewebestreifen neben biaxialen Zugversuchen und multiaxialen Berstdruckprüfungen an Gewebeproben aus Leinen gegenübergestellt. Dazu wurden Rissverklebungen mit einer Auswahl unterschiedlicher Kunstharzdispersionen und Störleim-Modifikationen in überlappenden bzw. Stoß-auf-Stoß-Verbindungen mit und ohne Fadenbrücken angefertigt.
Ziel der Untersuchung war es, die einzelnen Einflussfaktoren bei den verschiedenen Versuchsreihen zu vergleichen und eine geeignete Prüfsystematik für die Klebstoffbewertung zur Rissbehandlung in textilen Bildträgern zu entwickeln.
Es zeigte sich, dass nur die Prüfung mehrerer verklebter Fäden im Gewebeverbund als langfristig sinnvoller Prüfaufbau verfolgt werden sollte. Im Zuge der Verklebungsbetrachtung konnten zudem vielversprechende Klebstoffe und -modifikationen gefunden sowie der zusätzlich verfestigende Effekt von Fadenbrücken an Stoß-auf-Stoß-Verbindungen belegt werden.
Zu entwickeln ist eine graphische Simulation von LEGO® Mindstorms™ Robotern. Die Simulation soll die Möglichkeit bieten, ein virtuelles Robotergrundmodell mit verschiedenen Sensorausstattungen so zu programmieren, wie es auch bei einem echten Modell der Fall wäre. Das real zu erwartende Verhalten dieses Roboters bei Programmausführung soll auf dem Bildschirm in Echtzeit verfolgt werden können, wobei die Bedienung des virtuellen Roboters der des realen Robotermodells nachempfunden sein soll.
Die Gebrauchstauglichkeit eines Produktes hat sich zu einem entscheidenden Qualitätskriterium in der Softwareentwicklung entwickelt. Neben den Nutzern erkennen auch immer mehr Organisationen den Mehrwert von gebrauchstauglichen Produkten, insbesondere die steigende Produktivität, die verbesserte Qualität und den damit verbunden Profit. In Praxis und Wissenschaft wird daher derzeit dem Wunsch nachgegangen, Usability Engineering und Software Engineering zu integrieren. In dieser Arbeit werden Standards der beiden Disziplinen in Bezug auf Aktivitäten und Artefakte analysiert, welche in einem ganzheitlichen Modell zur Integration von Usability Engineering und Software Engineering abgebildet werden sollen. So sollen mögliche Anknüpfungspunkte zwischen Aktivitäten und Artefakten aufgezeigt werden. Ziel ist die Evaluation dieses Modells anhand von Konformitäts- und Rahmenanforderungen, sowie durch eine Expertenbefragung.
Schlüsselsituationen Sozialer Arbeit - Ein neuer Ansatz zur Relationierung von Theorie und Praxis?
(2017)
Von professionell Tätigen in der Sozialen Arbeit wird in der beruflichen, komplexen Praxis erwartet, allgemeine Wissensbestände auf konkrete Situationen beziehen zu können. Theorie und Praxis bereits im Verlauf des Studiums miteinander in Verbindung zu bringen, kann jedoch eine Herausforderung darstellen. Ein Teilaspekt der forschungsleitenden Fragestellung dieser Bachelorarbeit beschäftigt sich zunächst mit der Frage nach dem Beitrag des Bachelorstudiums zur (Heraus-)Bildung eines professionellen Habitus. Eine literaturbasierte Auseinandersetzung mit der Thematik zeigt, ein Studium – mit seinen Lernarrangements und speziell die praktische Studienphase – kann Beiträge leisten, die jene (Heraus-)Bildung unterstützt. Auch das Diskurs- und Reflexionsmodell der „Schlüsselsituationen Sozialer Arbeit“ setzt sich dieses Ziel und strebt die Förderung der Professionalisierung Studierender sowie der gesamten Sozialen Arbeit an. Die „Schlüsselsituationen Sozialer Arbeit“ werden an der TH Köln seit dem Sommersemester 2014 als didaktisches Konzept zur Theorie-Praxis-Relationierung in der theoretischen Begleitung der Studierenden in der Praxisphase herangezogen. Der zweite Teilaspekt der forschungsleitenden Fragestellung wendet sich den Studierenden zu, die mit dem Diskurs- und Reflexionsmodell Erfahrungen machen konnten. In Anlehnung an die Dokumentarische Evaluationsforschung erfolgen drei Gruppendiskussionen mit Studierenden der Sozialen Arbeit im Bachelorstudium, die mit der Dokumentarischen Methode ausgewertet werden. Detaillierter interpretiert werden Passagen, in denen sich Unsicherheiten und Ungewissheiten bei der Arbeit mit dem Reflexionsmodell zeigen und darauf aufbauend handlungsleitende Orientierungen herausgearbeitet.
Resultierend aus dem Wirtschaftwunder nach dem 2. Weltkrieg, hat sich in den frühen sechziger Jahren in der BRD angedeutet, dass die verfügbaren einheimischen Arbeitskräfte nicht ausreichten, die vorhandenen freien Arbeitsplätze auf dem deutschen Arbeitsmarkt zu besetzen (vgl. Mertens, 1977:13ff.). Aufgrund dieses Mangels an Arbeitskräften wurde, neben Verträgen mit zahlreichen anderen Staaten, ein Anwerbeabkommen mit der Türkei geschlossen. Darauf folgend reisten 1961 die ersten türkischen „Gastarbeiter“ in die BRD ein, mit der Vorstellung, sich nur für eine begrenzte Zeit in der BRD aufzuhalten (vgl. Mehrländer, 1986:53). Obwohl eine Mehrzahl der ersten Arbeitskräfte nach einigen Jahren wieder in ihr Heimatland zurückkehrte, hat sich ein Großteil der türkischen Männer und Frauen der ersten Generation für einen weiteren Aufenthalt in Deutschland entschieden (vgl. Mehrländer, 1986:55ff.). Somit war die erste Generation ausschlaggebend für die Lebenswirklichkeiten ihrer mit eingereisten oder in Deutschland geborenen Kinder, die heute die türkischen Männer und Frauen der zweiten Generation ausmachen.
In den letzten Jahren gab es zahlreiche technische Innovationen wie CGM Systeme oder Insulin- pumpen, die das Leben von Menschen mit Typ-1-Diabetes erleichtert haben. Dies führt aber auch dazu, dass immer mehr Informationen zur Verfügung stehen. Das Ziel der vorliegenden Studie ist es, mehr über den täglichen Umgang mit Informationen zu erfahren. Dazu wurde die folgende Forschungsfrage gestellt: Welche Informationen nutzen Menschen mit Typ-1-Diabetes?
Um diese Forschungsfrage zu beantworten, wurde eine quantitative Online-Befragung von Men- schen mit Typ-1-Diabetes von Prof. Dr. Matthias Fank an der Technischen Hochschule Köln durch- geführt. Die Online-Befragung bestand überwiegend aus 25 geschlossenen Fragen, die auf einer Skala von 0 bis 10 gestellt wurden. In die Auswertung gingen die Antworten von 1.025 Personen, die mindestens 18 Jahre alt sind, ein.
Die wichtigste Information für Typ-1-Diabetiker ist der “aktuelle Wert“. Diesen haben 67,5% auf
Platz 1 gesetzt. Der aktuelle Glukosewert wird durch CGM-Systeme bereitgestellt, die von 94,2% der Menschen mit Typ-1-Diabetes genutzt werden. Quartalsbesuche beim Diabetologen sind wichtig und liefern wichtige Informationen. Dieser Aussage stimmen 30,8% auf einer Skala von 0 bis 10 „voll und ganz“ zu.
Nur 2,2% der Menschen mit Typ-1-Diabetes sind mit ihren derzeitigen Apps für die Diabetestherapie zufrieden. Der Wunsch nach einer herstellerunabhängigen App ist vorhanden. Die stärkste Zustim- mung mit einem Wert von 10 haben fast ein Viertel (24,6%) der Menschen mit Typ-1-Diabetes ge- wählt. Die Studie gibt einen Einblick in die Diabetestherapie und zeigt Handlungsbedarf auf.
Serpil Ertik erkundet am Beispiel geflüchteter Menschen mit Behinderung, inwieweit die sozialen Kategorien „Migration“ und „Behinderung“ wechselseitig Einfluss auf den Zugang zu zentralen Lebensbereichen nehmen und welche Barrieren und Herausforderungen sich daraus ergeben. Nach einer Erläuterung der wesentlichen theoretischen Konzepte werden im Kern der Arbeit qualitative Interview mit Fachkräften aus der Geflüchteten- und der Behindertenarbeit und zwei Asylbewerber*innen mit einer Behinderung zur Beantwortung der Ausgangsfrage ausgewertet und auch intersektional analysiert.
Die Untersuchungsergebnisse zeigen deutlich, dass der rechtliche Status der Geflüchteten die Zugangsmöglichkeiten zu zentralen Lebensbereichen deutlich erschwert. Prekäre Lebenssituationen in den Gemeinschaftsunterkünften, fehlende Gesundheitsversorgung, Ausschluss aus Integrationskursen und in der Folge soziale Ausgrenzungen sind die Konsequenz der asylrechtlichen Regelungen. Durch diese strukturellen Diskriminierungen wird ein Behinderungsprozess reproduziert. Sprache und Zuschreibungen der aus der Mehrheitskultur stammenden Mitarbeiter*innen konstituieren weitere Machtverhältnisse und Ausschlüsse von Geflüchteten mit Behinderung. Als Konsequenz führen diese Bedingungen zu einem von Fremdbestimmung und Abhängigkeit geprägten Leben, das in deutlichem Widerspruch zu den Anforderungen der UN-BRK steht.
Die Grundlage für diese Arbeit ist das opensource Roboterkettenfahrzeug SRV1 der Firma Surveyor [www-surveyor]. Im Auslieferungszustand ist es möglich, das Fahrzeug über ein Steuerungsprogramm fernzusteuern. Dies entspricht dem Funktionsumfang eines normalen ferngesteuerten Fahrzeugs, erweitert um eine Kamera, jedoch ohne jegliche Autonomie oder Intelligenz. Da das Fahrzeug auf einem embedded Board aufgebaut ist, welches über eine WLAN Verbindung verfügt, bietet es einen guten Ausgangspunkt für Erweiterungen. Ziel dieser Arbeit ist es eine Grundlage für autonome Fahrten zu schaffen. Als Betriebssystem wird uClinux, ein Linux für embedded Plattformen genutzt. Das Fahrzeug soll um einen zur Orientierung dienenden Kompass erweitert werden. Außerdem kommt ein RFID-Reader zum Einsatz, mit dessen Hilfe werden RFID-Transponder auf einer Teststrecke als künstliche Landmarken zur Positionsbestimmung genutzt. Es wird eine Software für autonome Fahrten entwickelt, die es ermöglicht, durch Verwendung der erweiterten Hardware, den Roboter eigenständig Punkte der Teststrecke anfahren zu lassen. Hierzu ist es erst notwendig alle Hardware im Betriebssystem, beispielsweise durch Treiber verfügbar zu machen.
Das vorliegende Praxis Paper stellt die Erkenntnisse aus der Analyse der Social Media Präsenz von deutschen B2B Unternehmen dar.
Die Grundlage liefert das Praxisprojekt von Simon Schiffbauer, welches von April bis Juni 2020 von Prof. Dr. Monika Engelen betreut wurde. In diesem wurden mittels einer Datensammlung die Social Media Nutzung sowie die Aktivitäten der 75 größten deutschen B2B Unternehmen analysiert.
Ziel des Praxis Papers ist es, einen Einblick in die Nutzung und Einbindung der sozialen Medien von B2B Unternehmen zu geben. Der Fokus liegt dabei besonders auf den professionellen Social Media Kanälen Xing, LinkedIn und Kununu und der dortigen Darstellung und Vermarktung der untersuchten Unternehmen. Das Praxis Paper soll auch als Orientierung und Leitfaden zur Gestaltung, Vermark-tung und Nutzung von Social Media für B2B Unternehmen dienen.
Das vorliegende Paper fasst Ansätze, Modelle und moderne Möglichkeiten der Erfassung der Customer Decision Journey – des Weges eines Kunden zum und mit einem Unternehmen – zusammen.
Es basiert auf der Bachelorarbeit von Herr Habibullah Massoudy, der von Oktober 2020 bis Januar 2021 von Prof. Dr. Monika Engelen und Prof. Dr. Torsten Klein betreut wurde. Neben einer Recherche der grundlegenden Theorie wurden auch Herausforderungen und die Möglichkeiten des Trackings des Journeys betrachtet.
Dieses Paper soll als grundlegender Einstieg in das Thema Customer Decision Journey dienen.
Das vorliegende Paper fasst die Erkenntnisse zum Einsatz von Video Content Marketing auf YouTube für Unternehmen zusammen.
Es basiert auf der Bachelorarbeit von Frau Ilknur Demiröz, die von August 2021 bis November 2021 von Prof. Dr. Monika Engelen und Prof. Dr. Torsten Klein betreut wurde. Neben theoreti-schen Betrachtungen und der Einordnung von YouTube in den Mediamix betrachtet die Bachelorarbeit strukturiert die Einsatzmöglichkeiten und mögliche Zielsetzungen von Video Content Marketing. Anhand einer qualitativen Inhaltsanalyse von Agenturempfehlungen konnten übergreifende Handlungsempfehlungen identifiziert werden.
Dieses Paper dient als Einstieg in das Grundverständnis von Video Content Marketing. Es zeigt die erste Schritte in YouTube für Unternehmen auf und leitet einige relevante Handlungsempfehlungen für Unternehmen ab.
Ziel dieser Arbeit ist es, herauszufinden, ob der Parameter der fraktalen Dimension in Zukunft nützlich sein könnte für die computergestützte Auswertung von Mammographien. Dies gilt insbesondere für die Detektion architektonischer Störungen im Brustparenchym, die zuweilen durch den Radiologen schwer ausfindig zu machen sind. Die fraktale Dimension ist deshalb als Parameter so interessant, weil sie auf der Eigenschaft der Selbstähnlichkeit beruht. Eine Selbstähnlichkeit in der Struktur könnte auch das Brustgewebe haben, da Gewebewachstum ein fortlaufender Prozess ist, bei dem sich wiederholend die gleichen Formen herausbilden. Kommt es hier zu pathologischen Veränderungen, so ist dieser Ablauf unterbrochen und die Strukturen verändern sich.
Der Ausbruch der COVID-19-Pandemie und die zur Bekämpfung des Virus erlassenen Coronaschutzverordnungen verschärfen die Lebenslagen geflüchteter und flüchtender Menschen und erschweren die Arbeit von sozialen Bewegungsakteuren und Organisationen der Sozialen Arbeit, die auf Missstände im Kontext von Flucht und Asyl aufmerksam machen und sich für deren Verbesserung einsetzen. In dieser Arbeit wurde daher der Frage nachgegangen, wie sich zivilgesellschaftliche und sozialarbeiterische Organisationen seit der Pandemie für geflüchtete Menschen und Menschen auf der Flucht einsetzen. Mithilfe von sieben leitfadengestützten Interviews mit Personen aus Lokalgruppen von Seenotrettungsorganisationen, Willkommensinitiativen und Organisationen der Sozialen Arbeit wurde rekonstruiert, wie die befragten Akteure ihre Situationen erleben und auf welche Weise sie sich zu diesen wahrgenommenen Gegebenheiten verhalten und auf sie einwirken. Dabei wurden sowohl fallübergreifende Kategorien identifiziert, wie innerorganisationale Gestaltungsprozesse, die Bedeutung von Vernetzung und Engagementbereitschaft sowie die Wahrnehmung von gesellschaftlichem Klima und politischen bzw. medialen Entwicklungen, als auch fallspezifische Bedingungen und Bewältigungsmuster der jeweiligen Organisationen herausgearbeitet. Ein besonderes Augenmerk wurde schließlich auf das Verhältnis zwischen Fachkräften der Sozialen Arbeit und Aktivist:innen bzw. Engagierten gelegt, da die Beziehung von sozialen Bewegungen und der Sozialen Arbeit insgesamt bisher empirisch unterbelichtet ist
Rauschreduktion in Niedrigdosis-Röntgenbildern, wie sie beispielsweise in der intraoperativen Fluoroskopie erzeugt werden, stellt für die Bildverarbeitung der akquirierten Aufnahmen einen entscheidenden Schlüsselfaktor dar. Für eine visuelle Qualitätsverbesserung wird in dieser Arbeit eine auf einem multiskalaren Ansatz beruhende Rauschreduktion vorgestellt, welche auf der zur nichtlinearen, anisotropen Diffusion verwandten bilateralen Filterung basiert. Hierbei werden insbesondere die bestehenden Verfahren auf die Eigenschaften des im Röntgenbild vorhandenen Rauschens angepasst. Die Leistungsfähigkeit der entwickelten Filterung wird an klinischen Fluoroskopiesequenzen demonstriert.
In dieser Arbeit wird die Segmentierung von Gehirngewebe aus magnet-resonanz-tomographischen Kopfaufnahmen von Ratten mittels Level-Set-Methoden vorgestellt. Dieses so genannte Skull-Stripping stellt einen wichtigen Vorverarbeitungsschritt für quantitative, morphometrische Untersuchungen oder aber Visualisierungsaufgaben dar. Ein kontrastbasierter Segmentierungsalgorithmus wird von einem Pseudo-3DAnsatz in einen echt-dreidimensionalen Segmentierer überführt. Die durch die Level-Set-Funktion beschriebene Kontur wird mittels einer partiellen Differentialgleichung iterativ deformiert und den Grenzen des zu segmentierenden Objektes angenähert. Die Geschwindigkeitsfunktion, welche lokale Kontraste auf der Konturnormalen auswertet und so die Oberflächenentwicklung bestimmt, wird untersucht und das lokale Signal adaptiert. Hierzu wird eine Glättung des Signals eingeführt, die sowohl in Richtung der Konturnormalen als auch parallel dazu wirkt. Zusätzlich wird eine varianzbasierte Kontrastverstärkung des lokalen Signals entwickelt. Daraus resultieren insbesondere in Bildbereichen mit geringem Signal-zu-Rausch-Verhältnis erheblich robustere und exaktere Segmentierungsergebnisse. Diese Leistungsfähigkeit wird an vorliegenden Rattenhirn-MRTs demonstriert.
In den Jahren 2015 und 2016 ist im Zuge des starken Anstieges der Flüchtlingszahlen eine Debatte über digitale Medien im Zusammenhang mit Menschen auf und nach der Flucht entstanden. Hinweise darauf sind der „Digitale Flüchtlingsgipfel“, der im Jahr 2016 vom Bundesinnenministerium veranstaltet wurde, oder die Studie „Internet ist gleich mit Essen“ von Nadia Kutscher und Lisa-Marie Kreß.
Innerhalb der vorliegenden explorativen Forschungsarbeit werden aus einer sozialarbeitswissenschaftlichen Perspektive Apps als digitale Medien, die beim Integrationsprozess
von geflüchteten Menschen in Deutschland unterstützen sollen, auf einer inhaltlichen und technisch-funktionalen Ebene analysiert. Mit einer eigens entwickelten Erhebungsmethode werden die Inhalte der Apps mithilfe eines Analyserasters ausgewertet. Als Grundlage für
die Analyse dient das soziologische Modell "Integration als Sozialintegration“ von Friedrich Heckmann. Die fünf Apps „Ankommen“, „Integreat“, „Moin Refugee“, „Welcome App Germany“ und „Welcome to NRW“ wurden aufgrund der vertretenen geografischen Bereiche sowie des Spektrums der Initiatoren aus staatlichen Institutionen, „Willkommensinitiativen“
und Institutionen der Sozialen Arbeit ausgewählt.
Die Forschungsarbeit richtet ihren Blick auf die Inhalte der Apps und deren Gewichtung in Bezug auf die Integrationsdimensionen. Daraus werden Hypothesen entwickelt, wie durch
Inhalte der Apps Mechanismen entstehen, die die Integrationsprozesse zwischen Lenkung und Selbstermächtigung beeinflussen. Dabei wird kritisch reflektiert, inwieweit die Themen
der konstruierten und heterogenen Zielgruppe der geflüchteten Menschen aufgegriffen werden. Aufbauend auf den Untersuchungsergebnissen werden Schlussfolgerungen gezogen, wie Apps zu zielgruppenübergreifenden, digitalen Informationsangeboten für Leistungen und Träger der Sozialen Arbeit weiterentwickelt werden können.
Bei der Erfüllung zentraler kommunaler Aufgaben hat die Europäische Union zunehmend an politikfeldübergreifender Bedeutung gewonnen. Die Herausforderung der Kommunen besteht darin, das Prinzip der kommunalen Selbstverwaltung in der Europäischen Union durch dauerhafte Anstrengungen auf der nationalen und europäischen Ebene zu festigen und auszubauen. Der Vertrag von Lissabon hat indirekte Möglichkeiten der Einflussnahme geschaffen. Welche politischen und administrativen Strategien haben Kommunen wie die Stadt Köln bisher entwickelt, um in den Governancestrukturen des EU-Mehrebenenmodells aktiv mitzuwirken? Inwieweit führt der Vertrag von Lissabon zu Anpassungen, damit Kommunen für dieses veränderte System besser ausgestattet sind?
In einer Netzwerkanalyse wird exemplarisch eine Landkarte der Netzwerkpfade zwischen der Stadt Köln und der Europäischen Union nachgezeichnet. Daraus werden Netzwerkstrategien für Kommunen im EU-Mehrebenensystem abgeleitet.
In dieser Diplomarbeit werden die Chancen und Risiken der Creative Commons Lizen-zen (CCL) für das Management von Non-Governmental Organisations (NGOs) aufge-zeigt und untersucht. Das Konzept der Creative Commons Lizenzen wird zunächst in das Spannungsfeld zwischen „geistigem Eigentum“ und „digitaler Allmende“ eingeordnet und ausführlich vorgestellt. In der Betrachtung des NGO-Managements werden die Sta-keholder der Organisationen spezifiziert. Die theoretischen Erkenntnisse der Arbeit ge-ben zusammen mit den Ergebnissen einer Befragung von vier NGO-Verantwortlichen Hinweise, wie eine NGO die Chancen der CCL nutzen und deren Risiken vermeiden kann. Die vorliegende Arbeit liefert neun Hypothesen über dieses weitgehend uner-forschte Untersuchungsgebiet, die sich aus Theorie und Empirie ableiten und hiermit als vorläufig verifiziert betrachtet werden. Zusammenfassend gelangt die Untersuchung zu dem Ergebnis, dass die Chancen der CCL gegenüber den Risiken überwiegen. Sie stellt aber auch fest, dass eine abschließende Bewertung dieser Faktoren nie losgelöst vom Dialog zwischen der NGO und ihren Stakeholdern erfolgen darf. Deren individuelle Ein-stellung zu einer freien Lizenzierung digitaler Informationsgüter muss die NGO bei der Einführung der CCL stets berücksichtigen. Ferner soll diese Arbeit NGOs und informati-onswissenschaftlich Interessierten Anregungen für den erfolgreichen Umgang mit Infor-mationsgütern und den Einsatz freier Lizenzen geben.
In dieser Diplomarbeit wird die Lösung eines Standardproblems aus dem betrieblichen Umfeld behandelt. Die Aufgabenstellung ist die automatisierte Bereitstellung von Daten, die für die Produktion eines medienunabhängigen Produktkataloges notwendig sind. Ein zentraler Datenbestand soll als Quelle für Printkataloge, CD-ROM- und Internet-Präsentationen dienen.
Konzeption einer flexiblen Systemarchitektur zur dynamischen Konfiguration hybrider Lernräume
(2021)
In dieser Arbeit wird eine dynamische Systemarchitektur für die Schaffung hybrider Ökosysteme konzipiert, welche eine flexible und kontextgerechte Konfiguration hybrider Lernräume ermöglichen. Aufgrund der variierenden Definitionen hybrider Lehre und Lernräume sowie der schwachen Abgrenzung zu verwandten Begriffen findet hierfür zunächst eine Konkretisierung eigener Arbeitsdefinitionen statt. Aufbauend auf diesen Begriffsbestimmungen und ausführlichen Literaturrecherchen, werden anschließend sich interdisziplinär überschneidende Kernelemente hybrider Lehre und Lernräume identifiziert sowie in einem Übersichtsmodell zusammengefasst. Durch die Literaturrecherche ersichtliche Charakteristiken des hybriden Paradigmas werden ebenso in
Beziehung gesetzt und zusammenfassend aufgeführt. Auf Basis dieser Übersichten und unter Berücksichtigung weiterer Forschungsergebnisse wird nachfolgend ein Vorgehensmodell kreiert, welches kontextgerechte Designs hybrider Systeme strukturiert ermöglicht. Neben didaktischen, physischen und digitalen Komponenten werden dafür diverse Typen von Lernaktivitäten identifiziert, welche als Ausgangspunkt eine effiziente und praxisorientierte Planung ermöglichen.
Alle erstellten Modelle bilden abschließend die Grundlage der konzipierten Systemarchitektur, in welcher die hybriden Kernkonzepte aus einer technischen Perspektive beleuchtet werden. Das hierdurch repräsentierte Microservice-Websystem beinhaltet neben notwendigen Basis-Services vor allem einen dynamischen Plugin-Mechanismus, welcher die flexible Integration neuer Bestandteile ermöglicht. So kann der Funktionsumfang auf sich wandelnde Anforderungen der Nutzer angepasst werden und die Anwendung mit der Zeit zu einem umfassenden Ökosystem heranwachsen.
Die vorliegende Diplomarbeit behandelt die Umsetzung der Datenbankgestützten Web-Applikation IMMOMENT, mit dem Ziel primär anhand der Softwaretechnik aufzuzeigen, in welchen Schritten IMMOMENT nach Anfertigung des Pflichtenheftes umgesetzt wurde. IMMOMENT wurde von der Firma IMMO-DATA AG (Bochum) für die Firma IMMO-CHECK GmbH (Bochum) entwickelt. Ziel war es Sachbearbeitern (z.B. einer Bank) die Möglichkeit zu verschaffen, über ein Immobilien-Objekt schnell und umfassend Informationen in Text und Bild zu bekommen.
Die Kraftwerksunglücke in Fukushima und Tschernobyl gelten wohl gemeinhin als Inbegriff für die Allgegenwärtigkeit der Gefahr eines kerntechnischen Unfalls mit schwerwiegenden Folgen für Mensch und Umwelt sowie einem tiefen Eingriff in die Wirtschaft und das öffentliche Leben. Kernschmelzen können die unterschiedlichsten Ursachen haben. Plötzlich finden physikalische Prozesse statt, die nicht mehr verhindert, sondern allerhöchstens herausgezögert werden können – die Arbeit der Behörden beginnt. Doch was wäre, wenn die Abstimmung zwischen den Entscheidungsträgern zu lange dauert, wenn die Katastrophenschutzpläne lückenhaft sind, eine rechtzeitige Bevölkerungswarnung ausbleibt, die Verkehrsträger mit der Aufnahme von Menschenmassen völlig überfordert sind oder sich die Aufnahmegebiete im Bereich der radioaktiven Wolke befinden?
Die vorliegende Arbeit befasst sich mit eben diesen Themen und zeigt Problematiken im Evakuierungsablauf auf. Im Verlauf der Arbeit wird anhand des Standes der Wissenschaft und Technik sowie Referenzereignissen und zwei Fallbeispielen ein Evakuierungskonzept entwickelt, das neue Denkansätze in bestehende Konzepte einarbeitet. Die genaue Planung und Konzeptionierung von Evakuierungs- und Notfallmaßnahmen stehen daher unter Betrachtung der Unzulänglichkeiten und Defizite beim Krisenmanagement im Mittelpunkt dieser Arbeit. Unter Berücksichtigung der Empfehlungen der Strahlenschutzkommission, der AG Fukushima, des Bundestages sowie des Bundesamtes für Strahlenschutz werden Evakuierungsrouten entwickelt und die Verkehrsträger Straße, Schiene, Schifffahrt und Luftverkehr auf deren Tauglichkeit und Kapazität geprüft. Zudem wird erläutert, wie eine Zusammenarbeit zwischen den Entscheidungsträgern des Landes und der Katastrophenschutzbehörden in Form eines weisungsbefugten bundeseinheitlichen Führungsstabes gestaltet werden kann.
Nicht zuletzt gilt es, den Weg für ein zukünftig funktionierendes Krisenmanagement im Fall eines kerntechnischen Unfalls zu ebnen, eine fundierte internationale und grenzüberschreitende Planungsgrundlage zu bieten und notwendige Maßnahmen der Behörden und Ministerien für eine effektive Gefahrenabwehr und einen funktionsfähigen Evakuierungsablauf aufzuzeigen.
Zivile unbemannte Luftfahrtsysteme in der Akutphase internationaler humanitärer Hilfseinsätze
(2019)
Diese Arbeit konstruiert Einsatzbereiche ziviler unbemannter Luftfahrtsysteme in humanitären Hilfseinsätzen unmittelbar nach einer Katastrophe. Die Auswertung der Schnittmenge der technischen Fähigkeitsanalyse mit der – unter Verwendung von Experteninterviews durchgeführten – operativen Bedarfsanalyse des humanitären Sektors stellt die Basis für die Konstruktion der neun Anwendungsbereiche dar. Abschließend werden diese vor einem technischen, rechtlichen sowie ethischen Hintergrund diskutiert und bewertet.
Die Kriterien zur Nachhaltigkeit werden unter der Abkürzung ESG zusammengefasst und sind somit nicht nur auf den reinen Klimawandel begrenzt. Grundsätzlich versteht man unter sogenannten ESG-Kriterien per Definition einen Standard nachhaltiger Investments in den Bereichen Environment/ Umwelt, Social/ gesellschaftliches Engagement und Governance/ Unternehmensführung. (vgl. Haberstock et al., 2019)
Sowohl Erst- und Rückversicherungsunternehmen als auch Retrozessionspartner und Investoren beziehen bei ihrer Geschäftsentscheidung zunehmend Nachhaltigkeitsaspekte mit ein. Sie achten unter anderem auf die Nachhaltigkeit der Kapitalanlagen und die entsprechenden Entscheidungen im Underwriting oder bewerten das soziale Engagement eines Vertragspartners. Deshalb kann sich ein überzeugendes Nachhaltigkeitsprofil auch sukzessive zu einem Wettbewerbsvorteil entwickeln.
Das Kerngeschäft der Rückversicherungsbranche wird immer wieder von neuartigen Risiken und globalen Herausforderungen geprägt.
Eine ESG-konforme Geschäftsausrichtung und eine entsprechende Anpassung im Underwriting stellt den Rückversicherungs- und Retrozessionsmarkt vor neue Herausforderungen, da gewisse ESG-Kriterien eine Hürde für fortlaufende Geschäftstätigkeiten im Underwriting darstellen.
Die Umsetzung einer ESG-konformen Geschäftsausrichtung in der Retrozession geht einher mit der Rekalibrierung des Risikoappetits und mit der Aufnahme von einheitlichen zukünftigen ESG-Ratings, die sowohl zu Vorteilen als auch Nachteilen in der Wettbewerbsfähigkeit führen können.
Vergleicht man die ESG-Faktoren zwischen Retrozedenten und Retrozessionären lässt sich feststellen, dass die ESG-Faktoren für Retrozedenten bei der Kapazitätssuche wichtig sind. Hingegen die Faktoren beim Kapazitätsangebot für Retrozessionäre weniger wichtig sind. Diese Erkenntnis wird dadurch begründet, dass sich Retrozedenten bereits im vorgelagerten Underwriting der eingehenden Risiken mit den ESG-Kriterien beschäftigen müssen und dadurch bereits einen besseren Überblick über diese Faktoren haben. Zudem müssen sich die Retrozedenten im Detail mit den möglichen Retrozessionären und deren ESG-Strategie beschäftigen, damit die ESG-konforme Geschäftsausrichtung gewahrt wird.
Eine ESG-konforme Geschäftsausrichtung und die Berücksichtigung der ESG-Risiken führt zwangsläufig zu einer Anpassung der Geschäftsstrategie, der internen Aufsichtsstrukturen, des Risikomanagements und zu einer Änderung des Pricings von Retrozessionsrisiken.
Die Gefahr „Cyber“ wird in der Erst- und Rückversicherungswirtschaft als Wachstumssparte weltweit angesehen und entwickelt sich seit den letzten fünf Jahren dynamischer als jede andere Gefahr. Dieses wichtige Thema beschäftigt sowohl Erst- und Rückversicherungsunternehmen
in allen Bereichen. Mit Hilfe von Serviceleistungen (zum Beispiel mit Präventionen, risikogerechten Pricing-Modellen und Schadenbearbeitungen) bietet sich für die
Rückversicherungswirtschaft ein weltweiter Wachstumsmarkt. Die Komplexität der Cyber Gefahr und die sich entwickelnde Natur des Risikos bringen vielfältige Herausforderungen bei der Gestaltung von Versicherungsprodukten, beim Underwriting, beim Risikomanagement und bei der Kumulkontrolle mit sich - sowohl für Erst- als auch Rückversicherungsgesellschaften. Eine korrekte Cyber-Risikobewertung ist daher unabdingbar
und der richtige Ansatz muss stets weiterentwickelt werden. Insbesondere die Vielfältigkeit eines Cyber Events ist hierbei zu berücksichtigen. So können für Erst- und Rückversicherungsunternehmen nicht nur Kosten für Datenverluste entstehen, sondern auch Kosten für Rekonstruktionen der IT-Infrastruktur, Kosten für Netzwerk- und Betriebsunterbrechungen, Kosten für das Krisenmanagement, Kosten für das Reputationsrisiko, als auch Kosten für Haftpflichtansprüche Dritter.
Die Forschungsarbeit untersucht den sich verhärtenden Rückversicherungsmarkt und die Relevanz von Captives für Industrieunternehmen. Angesichts von Marktveränderungen wie steigender Inflation, Währungsschwankungen und höheren Schadensbelastungen überdenken Unternehmen ihre Risikomanagementansätze. Captives, insbesondere für mittelständische Unternehmen, gewinnen an Bedeutung. Sie bieten direkten Zugang zum Rückversicherungsmarkt, Unabhängigkeit und flexible Gestaltungsmöglichkeiten. Trotz Vorteilen wie optimierten Deckungsstrukturen und Umgehung von Marktveränderungen existieren Herausforderungen, darunter Kapitalanforderungen und Betriebskosten. Der Trend zu neuen Captives im harten Rückversicherungsmarkt ist nicht eindeutig, aber sie bleiben eine innovative Lösung für das betriebliche Risikomanagement. Traditionelle Rückversicherer bleiben entscheidend für die Branchenstabilität.
Die Komplexität der Cybergefahr und die sich entwickelnde Natur des Risikos bringen vielfältige Herausforderungen bei der Gestaltung von Versicherungs-produkten, beim Underwriting, beim Risikomanagement und bei der Kumul-kontrolle mit sich - sowohl für Erst- als auch Rückversicherungsgesellschaften. Eine korrekte Cyberrisikobewertung ist daher unabdingbar und der richtige Ansatz muss stets weiterentwickelt werden. Insbesondere die Vielfältigkeit eines Cyberevents ist hierbei zu berücksichtigen.
In der Cyberversicherung liefert die Vergangenheit keine zuverlässigen Indizien für die Wahrscheinlichkeit eines Schadens; Risiken müssen mit aufwändigen Modellrechnungen simuliert werden. Für die Bewertung von Cyberrisiken könnte die künstliche Intelligenz (KI) von Vorteil sein, um Muster und Wahrscheinlichkeiten im Bereich des Risikotransfers einfacher und effizienter zu analysieren. Einen alternativen Lösungsansatz könnten parametrische Rückversicherungslösungen als Ergänzung zur klassischen Versicherung liefern. So kann eine parametrische Cyberdeckung mit einem definierten Trigger (z.B. mit Hilfe der DSGVO als Trigger) als Auslöser für Schadenzahlungen angeboten werden.
Für eine ausreichende Versicherbarkeit von kleinen und mittelständischen Unternehmen, als auch für größere Industrielösungen könnte eine Risk Pooling Facility geschaffen werden, in welcher sich der traditionelle Rückversiche-rungsmarkt zusammen mit den Insurance Linked Securities Markt die Schadenbelastung teilen. Durch Unterstützung der künstlichen Intelligenz und durch parametrische Trigger (z.B. durch die DSGVO) könnten Schadenverläufe effizienter und zielgerichteter erfolgen.
Durch parametrische Cyberdeckungen könnten Transparenzprobleme bei der Schadenabwicklung verhindert und aufwendige Prüfungen der Rückversicherer reduziert werden. Zudem könnte mit Hilfe einer möglichen KI-Strategie die Bewertungen von Cyberrisiken vereinfacht und effizienter gestaltet werden. Parametrische Cyberlösungen können auch für alternatives Kapital interessant sein, denn auch im NatCat-Bereich sind Vehikel mit solchen Trigger-Lösungen verbreitet.
Statistische Analyse ausgewählter sozioökonomischer Daten in Bezug auf Krankenhausaufenthalte
(2018)
In der vorliegenden Arbeit werden Zusammenhänge zwischen bestimmten sozioökonomischen Merkmalen und Krankenhausaufenthalten behandelt. Hierzu wird zunächst anhand von Sekundärliteratur gezeigt, welche gesundheitsbeinflussenden Faktoren in Deutschland relevant sind und was häufige Ursachen für Krankheiten bzw. Krankenhausaufenthalte sind. Im Zuge dessen wird außerdem kurz auf die Tarifmerkmale der privaten Krankenversicherung sowie auf deren Einfluss auf die Prämienkalkulation eingegangen.
Daraufhin werden Daten des Sozio-oekonomischen Panels (SOEP) des Deutschen Instituts für Wirtschaftsforschung untersucht. Dabei werden einerseits einzelne Merkmale und deren Entwicklung im Laufe der Jahre sowie die Verteilung ausgewählter Merkmale auf bestimmte Personengruppen beobachtet. Andererseits werden auch Korrelationen zwischen bestimmten Merkmalen und Hospitalisierungswahrscheinlichkeiten untersucht.
Den Schwerpunkt dieser Arbeit stellen zwei Klassifikationsmethoden, die lineare und die logitische Regressionsanalyse, dar. Zu diesen werden mathematische Grundlagen dargelegt, um sie daraufhin mithilfe des Programms R auf zuvor selektierte Datensätze anzuwenden. Dadurch werden jeweils Hospitalisierungswahrscheinlichkeiten ermittelt. Abschließend wird ein Bezug zur Versicherungswirtschaft hergestellt und unter anderem untersucht, ob solch eine statistische Analyse für einen Versicherer infrage kommt und welche Herausforderungen und Chancen dies mit sich bringt.
Die neusten Fortschritte im Bereich Real Time Rendering ermög-lichen virtuelle Produktionsabläufe in weiten Teilen der Industrie. Diese Vorgehensweise setzt latenzfreies Arbeiten und eine akkurate Erscheinung voraus. Daher empfiehlt sich die Verwendung von HDR-Rendering für fotorealistische Ergebnisse und Tone Mapping für die passende Darstellung.
Gleichwohl gibt es bisher nur wenige Publikationen, die sich mit echtzeitfähigem Tone Mapping beschäftigen. Zudem tendieren Tone Mapping Operatoren dazu, Farberscheinungseffekte zu erzeugen, die zu einer Diskrepanz zwischen dargestelltem und realem Produkt führen.
Deshalb werden in dieser Thesis sieben Tone Mapping Operatoren bewertet, die unterschiedliche Ansätze zur Farbkorrektur beinhalten. Sie werden als Fragment Shader implementiert, um Echtzeitverarbeitung zu realisieren. Zusätzlich wird ihre Performance und die subjektive Akkuratesse der Ergebnisse gemessen.
Im Ergebnis schneidet der FilmicTMO als global arbeitender Sigmoid-Operator am besten ab und wird für die weitere Verwendung empfohlen.
Virtuelle Realität ist ein interessantes Gebiet dessen Entwicklung schon seit vielen Jahren vorangetrieben wird. Die neuen Möglichkeiten die sich aufgrund technischer Fortschritte daraus ergeben, sind umwerfend und finden in vielen Bereichen Verwendung. Doch das Potential der VR ist noch viel größer. Dazu passt es auch, das im Laufe der Jahre die Computer immer mehr Einzug in das Leben der Menschen nahmen. Gab es früher noch riesige Geräte, die mit Lochkarten arbeiteten und kaum aufwendige Aufgaben bewältigen konnten, so gibt es heute erheblich schnellere und kleinere Systeme, die zudem auch noch viel leistungsfähiger sind. Von den drastisch gesunkenen Kosten mal ganz abgesehen. Folglich findet auch die breite Öffentlichkeit Zugang zu leistungsfähigen Computersystemen, wodurch bei immer mehr Menschen das Interesse an Virtual Reality geweckt wird. Es ist ein enormer Markt und die Technologie hält immer wieder Einzug in neue Bereiche und ist aus manchen gar nicht mehr hinauszudenken.
Der vorliegende Bericht ist das Ergebnis einer Projektarbeit von Studierenden am Institut für Informationswissenschaft der Fachhochschule Köln im Studiengang Bibliothekswesen. Im Rahmen dieser Arbeit untersuchten sieben Studierende während des Sommersemesters 2011 die bibliothekarische Auskunft anhand eines zu diesem Zwecke erstellten Kriterienkatalogs. Die sieben Studierenden testeten die Bibliotheken über vier verschiedene Auskunftskanäle (Chat, Persönliche Auskunft, Telefonische Auskunft und Webformular/E-Mail-Auskunft). Zuerst werden der Kriterienkatalog und dessen Anforderungen sowie der Bewertungsbogen für die Tests vorgestellt. Im folgenden Kapitel steht die Erarbeitung der Testfragen, die zur Bewertung des Auskunftsprozesses gestellt wurden, im Fokus. Es wird eine quantitative Übersicht aller Fragen pro Auskunftskanal und Bibliothekstyp gegeben. Anschließend werden die gestellten Testfragen aufgelistet und erläutert. Zudem werden die Erfahrungen des Pretests sowie die Testphase erläutert. Im nächsten Kapitel erfolgt die Auswertung der gesamten Untersuchung. Die Analysen und Ergebnisse werden jeweils durch Torten- oder Säulendiagramme visualisiert. Fazit und Ausblick runden die Ergebnispräsentation ab. Im Anhang befinden sich eine Auflistung der Auskunftstypen und Bibliothekstypen, das zu Grunde liegende Notenschema, die Auswertungsbögen sowie zwei Erfahrungsberichte der Auskunft jeder Studierenden.
Smartphones und die Nutzung von mobilen Anwendungen gewinnen aufgrund der stetig voranschreitenden Digitalisierung weiter an Relevanz. Im April 2022 lag die Zahl der genutzten mobilen Endgeräte bei knapp 6 Milliarden, wobei die Hersteller Apple
und Google einen Marktanteil von knapp 99 % einnehmen. Um als Entwickler eine möglichst große Zielgruppe anzusprechen, ist es daher wichtig, die eigene Anwendung auf möglichst vielen Plattformen zur Verfugung stellen zu können. Die native Entwicklung ist einer der am meist verbreitetste Entwicklungsansatz für mobile Anwendungen. Dort werden plattformspezifische Tools sowie native Programmiersprachen verwendet. Hierbei ergeben sich allerdings diverse Herausforderungen für Entwickler entlang des gesamten Entwicklungsprozesses. Neben der nativen Entwicklung existiert der Ansatz von Cross-Plattform. Hierbei handelt es sich um einen Sammelbegriff für verschiedene Ansätze, welche das Ziel verfolgen eine Anwendung durch die Nutzung einer einheitlichen Codebasis auf mehreren Plattformen zur Verfugung zu stellen. Einer dieser Unteransätze ist
Backend-Driven UI, worin die gesamte Anwendung innerhalb eines strukturierten Datenformats beschrieben und serverseitig verwaltet wird. Der Client kann diese Daten dann dynamisch anfragen und zur Laufzeit in native UI überführen. Das Konzept von Backend-Driven UI wird bereits durch Unternehmen wie Airbnb oder SiriusXM eingesetzt, ist hier allerdings stark auf anwendungsbezogene Prozesse zugeschnitten. Es bedarf daher eines Backend-Driven UI Frameworks, welches es Entwicklern ermöglichen soll, mobile Anwendungen, ohne anwendungsspezifische Einschränkungen plattformübergreifend zu entwickeln. Im Rahmen dieser Arbeit wurde daher zunächst eine plattformunabhängige und erweiterbare Architektur eines solchen Frameworks entwickelt und in Form eines ersten Prototyps auf ihre Umsetzbarkeit geprüft. Insgesamt stellt der Prototyp eine mögliche Umsetzung von Backend-Driven UI dar und ist in der Lage erste Anwendungsszenarien abzudecken. Es konnten dennoch Bereiche ermittelt werden, welche im Zuge zukünftiger Entwicklung ausgebaut werden können. Dazu zählt unter anderem das Umsetzen von serverseitig bestimmter Anwendungslogik sowie der Umgang mit Unterschieden im plattformspezifischen Funktionsumfang.
Dieser Bericht stellt die Ergebnisse einer Expertenbefragung zu dem Themenkomplex "Kindeswohl in Suchtfamilien" dar. Es wurden mit Hilfe eines standardisierten Interviewleitfadens 5 Experten aus der Suchtkrankenhilfe, dem Gesundheitswesen sowie der Kinder- und Jugendhilfe hinsichtlich ihrer Erfahrungen und Vorgehensweise mit einer möglichen Kindeswohlgefährdung in suchtbelasteten Familien befragt. Die Ergebnisse zeigen, dass eine mögliche Kindeswohlgefährdung durch die Fachkräfte teilweise nur sehr schwer zu erfassen ist und ein Aus- und Fortbildungsbedarf bei den Mitarbeitern besteht.
In der Informationsgesellschaft zeigt sich das Berufsfeld des Informationswirtes als erfolgversprechende Tätigkeit mit guten bis sehr guten Beschäftigungschancen. Kern der Arbeit sind zwei empirische Untersuchungen zum Beruf und Arbeitsmarkt für Informationswirte in Deutschland. Eine erste Befragung richtet sich an Informationsfachleute, eine zweite Befragung - durchgeführt vom ifo Institut für Wirtschaftsforschung - an Manager der deutschen Industrie. In mittelfristiger Perspektive haben Informationswirte in der deutschen Industrie gute, im Dienstleistungssektor sehr gute Arbeitsplatzchancen. Gefragt ist ein Fachwissen, das sich aus Informationswissenschaft, Dokumentation, Betriebswirtschaftslehre, Informatik sowie aus Fremdsprachenkenntnissen zusammensetzt.
Diese Arbeit untersucht verschiedene Ansätze, Daten im Google Cloud Firestore zu strukturieren und deren Auswirkungen auf Kosten, Performance sowie Codequalität. Zunächst folgt eine Aufbereitung des aktuellen Stands der Forschung. Darauf folgt die experimentelle Methodik. Hier dient eine prototypische Implementierung der Szenarien als Grundlage. Im Zuge des Experiments werden in unterschiedlichen Disziplinen Daten erhoben und im Anschluss ausgewertet, um empfehlenswerte Lösungen für definierte Anwendungsfälle zu benennen. Am Ende gibt die Arbeit ein kurzes Fazit zu den gewonnenen Erkenntnissen sowie einen Ausblick auf weitere Optimierungspotenziale ab.
Das Projekt Management Audit wurde im Rahmen des Studiengangs Informationswirtschaft der Fachhochschule Köln durchgeführt und über zwei Semester lang (SS 2003; WS 2003/2004) von einer Gruppe von Studenten bearbeitet. Das angestrebte Projektziel beinhaltet Recherche, Auswertung der Recherche und eine daraus folgende eigene Konzeption. Des Weiteren sind Konferenzen, die über das Thema Management Audit stattfinden, ein Anreiz gewesen, über diese Thematik im Projektteam zu reden. Außerdem ermöglicht die erstellte Konzeption Interessierten, sich über dieses Thema zu informieren und es werden Vorschläge bzw. Anreize für ein Management Audit Verfahren in der Praxis gegeben.
Das vorliegende Praxis Paper ist in zwei Bereiche aufgeteilt. Zunächst wird der Prozess zur Veröffentlichung eines Buchs über Amazon dargestellt, während im zweiten Teil Erkenntnisse über die allgemeinen Grundlagen des erfolgreichen Verkaufs auf Amazon zusammengefasst werden. Es basiert auf der Bachelorarbeit von Herrn Christian Dam-bach, die von Juli 2020 bis Oktober 2020 von Prof. Dr. Monika Engelen betreut wurde.
Nach der Darstellung des Veröffentlichungsprozesses werden im weiteren Verlauf die Möglichkeiten der Suchmaschinenoptimierung auf der Produktseite gezeigt und die Suchmaschinenwerbung über Amazon Marketing Services (AMS) vorgestellt. Neben dem Controlling des Verkaufsverlaufs und des Kampagnenverlaufs, wird zunächst die Einrichtung einer Werbeanzeige erläutert und anschließend die verschiedenen Möglich-keiten der Optimierung dargestellt. Daraus werden dann allgemeine Erfolgsfaktoren für den Verkauf auf Amazon abgeleitet, die, über das Fallbeispiel hinaus, auf jegliche ange-botenen Produkte anwendbar sind.
In der vorliegenden Arbeit werden zwei Environment-Shader entwickelt, einer für die Software Maya, der zweite für die im WDR Köln genutzte Grafiksoftware 3Designer. Zur Entwicklung wird der Worflow zur Erstellung virtueller Szenenbilder im WDR Köln berücksichtigt. Dafür wird der Workflow vorgestellt und die Umsetzung in den Shader detailliert erläutert. Als Ergebnis liegt für jedes Programm ein Shader vor, der bewirkt, dass die Reflexion einer Umgebung, die als Kugel vorliegt, auf dem jeweiligen Objekt erkennbar ist.
Die Diplomarbeit entstand in Zusammenarbeit mit der Firma Pferd Rüggeberg. Die Grundlage kam von der Marketingabteilung, die eine Mutlimediadatenbank (MMDB) erstellen wollte. Die Daten der MMDB sollten zur Grundlage eines Produktkataloges auf CD-Rom, Internet und als Druckvorstufe dienen. Der erste Gedanke war die Erstellung einer völlig unabhängigen Datenbank auf der Basis von ORACLE. Da in der Firma jedoch SAP/R3 eingeführt wurde, kam nach einem Gespräch mit der EDV-Abteilung heraus, daß der Produktkatalog auf der Basis von SAP erstellt werden soll. Ziel der Arbeit ist es, mit den Möglichkeiten die durch SAP gegeben sind, einen Produktkatalog im Internet darzustellen. Die Realisation und die Werkzeuge die vorgestellt werden, befinden sich in der Version SAP 3.1 g.
Um diesen Mangel an Daten zu Cyber-Risiken entgegenzuwirken und um den Status Quo der Datenverfügbarkeit von Cyber-Risiken zu überprüfen, wurde um Rahmen dieser Forschung eine systematische Übersicht angefertigt, um Stakeholder von Cyber-Risiken
eine Datenbank von öffentlich zugänglichen Daten zu Cyber-Risiken und Cybersecurity zur Verfügung zu stellen. Im Fokus dieser Untersuchung standen Datensätze, welche in der akademischen Literatur verwendet wurden.
Die Bedeutung von Cyber-Versicherungen als Instrument zur finanziellen Absicherung, um die zunehmenden Unternehmensverluste durch Cyber-Risiken abzumildern, nimmt zu. Es mangelt jedoch an standardisierten Wordings und gegenseitigem Verständnis bei Cyberversicherungs-Policen. Mit weniger als einem Drittel der 2017 in den USA ausgezahlten Cyberversicherungsansprüche besteht eine erhebliche Lücke zwischen den Cyber-Risiken, die Unternehmen abdecken müssen, und denen, die tatsächlich durch ihre Cyberversicherungspolicen abgedeckt sind. Im Jahre 2018 wurde von Lloyds of London eine Schätzung mithilfe von Szenario-basierten Modellen durchgeführt, um zu ermitteln, wie groß die Versicherungsschutzlücke im Hinblick auf Cyber-Risiken ist. Man ist dabei zu dem Ergebnis gekommen, dass die Versicherungsschutzlücke ungefähr 90 % beträgt. Der Begriff bezeichnet die Differenz zwischen dem Versicherungsschutz, welcher ökonomisch benötigt wird und dem tatsächlich gekauften.
Diese Forschung befasste sich mit den deutschen Cyber-Versicherern, welche Cyber-Schutz für kleine und mittelständische Unternehmen (KMU) anbieten. Im Rahmen dieser Forschung wurden nur die Ausschlüsse von Cyber-Versicherungen betrachtet. Zusätzliche erweiterbare oder kostenpflichtige Einschlüsse wurden nicht berücksichtigt. Als Grundlage für die Forschung wurde ein Datensatz erstellt, welcher auf Informationen der BaFin basiert. Durch mehrere Segmentierungsstufen wurden 50 Cyber-Versicherer ermittelt, welche Cyber-Schutz für KMUs angeboten haben. Von diesen 50 Cyber-Versicherern konnten 41 Cyber-Bedingungswerke für das Forschungsprojekt herangezogen werden. Im Rahmen der Forschung wurden nun die Bedingungswerke mittels einer induktiven qualitativen Inhaltsanalyse auf die bestehenden Ausschlüsse analysiert. Die Ergebnisse wurden kategorisiert und beschrieben. Innerhalb der Analyse konnten 15 Ausschlusskategorien sowie deren Häufigkeiten in den Cyber-Bedingungen ermittelt werden. Diese Ergebnisse können dazu beitragen, dass Unternehmen eine Vorstellung davon erhalten, was nicht in den Cyber-Versicherungen enthalten sein könnte. Zudem liefern die Beschreibungen eine Informationsgrundlage und tragen so dazu bei, dass der Versicherungsschutz bzw. die Ausschlüsse besser verstanden werden.
Cyber-Risiken, vor allem in Form von Cyber-Kriegsführung und staatlich unterstützten Angriffen, stellen eine große Herausforderung dar. Im Kontext der Versicherung, sollen solche Risiken über Kriegsklausel ausgeschlossen werden. Derzeit gibt es unterschiedliche Herausforderungen wie fehlende klare rechtliche Regelungen, die Unsicherheiten für Versicherer und Versichert darstellen. Die Interviews mit Branchenvertretern zeigen unterschiedliche Meinungen darüber, wie die Versicherungswirtschaft Cyber-Kriegsrisiken wahrnimmt und damit umgeht. Trotz der sich ständig ändernden Natur dieser Bedrohungen besteht weiterhin Bedarf an Forschung und Datenerfassung, um eine gut durchdachte Versicherungslösung zu entwickeln.
Analytisches Berechnungsmodell ohne empirische Exponentenansätze : Rauchentwicklung bei Bränden
(2002)
Es wird ein analytisches Berechnungsmodell zur Rauchentwicklung über einem Brandherd vorgestellt, das auf der Annahme der Wärme- und Impulserhaltung in der aufsteigenden Rauchsäule basiert, sowie der Kenntnis des Ausbreitungswinkels. Beobachtungen zufolge beträgt der halbe Ausbreitungswinkel etwa 7° bis 8°. Ein Vorteil des Modells gegenüber anderen, meist empirischen "PLume-Formeln" liegt darin, dass erstmals die drei wichtigsten Einflussparameter der Brandrauchausbreitung (Wärmefreisetzungsrate, Brandfläche, Raumhöhe) gemeinsam berücksichtigt werden und es keine versuchsbedingten Gültigkeitsgrenzen gibt.
In dieser Bachelorarbeit wird das Thema Big Data und die damit verbundenen Technologien, sprich NoSQL und Hadoop behandelt. Das Thema wurde bewusst ausgewählt, weil sie zum einen aktuell und zum anderen immer mehr an Bedeutung, aus Sicht der Unternehmen gewinnt. Durch die ständig anwachsenden Daten, die zu 80% in Semistrukturierter Form vorliegen, stößt die IT-Infrastruktur eines Unternehmens schnell an seine Grenzen. Und genau an dieser Stelle sollen die Big Data Technologien, wie „NoSQL“ und „Hadoop“, helfen, die so großen Datenmengen zu verarbeiten, um für das Unternehmen, wertvolle Informationen zu liefern, die bislang nicht ersichtlich waren.
Existiert das "gläserne" Unternehmen? Sind die letzten Geheimnisse der Konkurrenz bereits gelüftet? Gibt es sichere Entscheidungen durch Allwissenheit? Ist Industriespionage heute überflüssig? Diese Fragen drängen sich mit dem immer weiter wachsenden Angebot an Datenbanken geradezu auf. Anhand der Untersuchung einiger renommierter Datenbanken wird versucht, darauf eine Antwort zu finden. Ausgangspunkt ist die Definition des Begriffs "Firmeninformationen". Bisher wird dieser Begriff offensichtlich je nach Bedarf ausgelegt. Anschließend wird das Feld der Firmeninformationen in seine Bestandteile zerlegt, um zu zeigen, daß dazu nicht nur die einfachen Fakten wie Mitarbeiterzahl oder Umsatz gehören. Im zweiten Kapitel werden die einzelnen Datenbanktypen mit ihren Inhalten vorgestellt. Das dritte Kapitel befaßt sich mit Kriterien, die für die Qualität von Firmeninformationsdatenbanken entscheidend sind. Im Anschluß erfolgt eine Analyse des Datenangebotes. Untersucht wurde das Angebot ausgewählter Datenbanken zu den Unternehmen "Aldi" und "Henkel KGaA".
Dieses Schulungskonzept wurde vor allem von der Erstautorin als praktische Methodensammlung für Einrichtungen und Personen entwickelt, die pflegende Angehörige unterstützen und beraten. Das Konzept integriert zwei Ansätze, nämlich die Gelassenheitsförderung durch Introvision nach Wagner und die Gewaltfreie Kommunikation (GFK) nach Rosenberg.
PubMed stellt mit 21 Mio. Aufsatzzitaten eines der umfangreichsten Informationssysteme in Bereich der Medizin. Durch die Verwendung einer einheitlichen Terminologie (Medical Subject Heading - MeSH) bei der Indizierung von PubMed Inhalten kann die Orientierung in solch großen Datenbeständen optimiert werden. Zwar bietet ein kontrolliertes Vokabular bei der Informationsbeschaffung zahlreiche Vorteile gegenüber einer Freitextsuche doch fällt Nutzern das Abbilden eines Informationsbedarfs auf die verwendete Terminologie oftmals schwer. In dieser Arbeit wird eine Systemunterstützung geschaffen, die den Abbildungsprozess automatisiert indem eine automatische Verschlagwortung textbasierter Inhalte unter Verwendung eines kontrollierten Vokabulars vorgenommen wird. Durch die Verwendung einer einheitliche Terminologie kann so eine konsistente Integration von PubMed Inhalten erreicht werden.
Bei moderner Software kommt es auf verschiedene Faktoren an. Der erste für den Anwender zunächst sichtbare Faktor ist die Bedienungsfreundlichkeit des Produktes. Der zweite wichtige Faktor ist die Verwendbarkeit des Produktes auf verschiedenen Hardwareplattformen. Dies ist vor allem für Programme wichtig, die sich an einen großen Kundenkreis richten, da man nicht davon ausgehen kann, oder sollte, dass überall das gleiche Betriebssystem eingesetzt wird. Des weiteren wird so auch ein Umstieg auf ein anderes System erleichtert. Für das Softwarehaus selber ist die Wartbarkeit des Produktes von entscheidender Bedeutung. Objektorientierte Programmierung bietet hier durch Vererbungstechniken, Datenkapselung und ähnlichem die besten Voraussetzungen. Auch der Einsatz von Entwurfsmustern, also lange bewährten Konzepten objektorientierter Entwicklung, ist hier von Vorteil. Eine Datenbankanbindung ist für fast jede kommerzielle Software notwendig. Hierbei ist es auch von Vorteil sich nicht an eine spezielle Datenbank zu binden. Ein Mittel hierzu ist es die Datenbanksprache SQL und offene Datenbanktreiber wie etwa ODBC zu benutzen. Bei vielen Programmen ist es auch von Vorteil, wenn sie von Anfang an als verteilte Systeme entworfen werden. Verteilte Systeme haben den Vorteil, dass jedes Modul an einem anderen Ort sein kann und entweder über eine ständige oder aber auch eine temporäre Internetverbindung miteinander synchronisiert werden können. In dieser Arbeit werde ich anhand eines Praxisbeispieles beschreiben, wie man all diese Faktoren in ein Softwareprodukt unterbringt, und wie die Entwicklung aussieht.
Krankenhäuser stellen eine wichtige Kritische Infrastruktur im Bereich des Gesundheitssektors dar, deren Funktionsfähigkeit bei allen Gefahrenlagen erhalten bleiben muss. Durch Interdependenzen mit anderen Kritischen Infrastrukturen, wie der Trinkwasserversorgung, kann ein Ausfall einer der Infrastrukturen zu einer Beeinträchtigung der jeweils anderen führen. Trinkwasser ist für den Menschen lebensnotwendig und muss daher überall in ausreichender Quantität und Qualität bereitgestellt werden (öffentlichen Daseinsvorsorge). Die Trinkwasserversorgung stellt eines der kritischsten Infrastrukturelemente in Krankenhäusern dar, deren Ausfall zu einer Gefährdung der quantitativen und qualitativen Gesundheitsversorgung führt. Die Vergangenheit hat gezeigt, dass Trinkwasserausfälle in Krankenhäusern keine Seltenheit darstellen und zu weitreichenden Beeinträchtigungen führen. Bei Großstörungen bzw. Großschadenslagen oder Katastrophenfällen, ist daher die kommunale Gefahrenabwehr/ der Katastrophenschutz in der Pflicht, zusammen mit anderen Akteuren Krisenmanagement- bzw. Maßnahmenplanungen zu erarbeiten. Dennoch existieren zurzeit fast keine adäquaten Krisenmanagementplanungen für die Herstellung einer Ersatztrinkwasserversorgung für Krankenhäuser. Dies gilt sowohl für die Krankenhäuser im Rahmen der Krankenhausalarm- und Einsatzplanung, als auch die kommunale Gefahrenabwehr bzw. den Katastrophenschutz und Wasserversorgungsunternehmen (WVU).
In dieser Master-Thesis, die im Sommersemester 2018 an der TH Köln erarbeitet wurde, sollte durch eine umfassende Risikoanalyse, unter Zuhilfenahme von Experteninterviews und Dokumentenanalysen das Risiko und die Folgen eines vollständigen Trinkwasserausfalles in einem Krankenhaus dargestellt und der aktuelle Stand der geplanten Bewältigungs- bzw. Krisenmanagementplanungen von Behörden und Organisationen mit Sicherheitsaufgaben (BOS), dem örtlichen WVU und des Krankenhauses für eine solche Schadenslage erhoben werden. Wurden die geplante Krisenmanagementplanungen als unzureichend oder nicht existent identifiziert, so sollten, wenn möglich, Vorschläge für neue Krisenmanagementkonzepte und Kapitel für den Krankenhauseinsatzplan erstellt werden, wofür ungenutzte Ressourcen für die Etablierung einer Ersatztrinkwasserversorgung ermittelt wurden. Die Analyse erfolgte durch eine Einzelfalluntersuchung anhand des Hauptgebäudes des Krankenhauses Merheim in Köln mit dem Szenario einer lokalen Lage, die nicht durch Kontamination des Wassers induziert ist und deren genaue Ursache nicht betrachtet wird. Um mögliche zukünftige Maßnahmen erarbeiten zu können, musste im Rahmen der Analyse der minimale Trinkwasserbedarf des Untersuchungsgebietes bzw. der einzelnen Funktionsbereiche erhoben und Kriterien für die Geeignetheit von Maßnahmen zur Ersatztrinkwasserversorgung erarbeitet werden. Diese Kriterien sind: Vorlaufzeit, Einhaltung der Trinkwasserverordnung, Versorgungskapazität und Verfügbarkeit von Versorgungsquellen. Für die Berechnung der Kritikalität wurde eine eigene Berechnungsmethode erarbeitet, die im Rahmen der Schutzzieldefinition eine Kritikalitätsanalyse ermöglicht, welche die Bedeutung des Gesamtobjektes und der einzelnen Prozessbausteine einbezieht. Das hier hergeleitete Schutzziel lautet: Verhinderung von Todesfällen bei Patienten durch die angenommene Gefahr und durch das ausfallbedingte Unterlassen von Behandlungsmaßahmen, die nicht anderweitig, durch z.B. Abmeldung von der örtlichen Notfallversorgung oder einer Evakuierung und Verlegung der Patienten, kompensierbar sind.
Das übergeordnete Ziel dieser Arbeit ist zusammengefasst die Identifikation der geplanten Maßnahmen zu Ersatztrinkwasserversorgung des Krankenhauses Merheim bzw. ggf. nicht vorhandenen Maßnahmen und somit die Feststellung, ob die Problematik des angenommenen Szenarios von allen Akteuren ausreichend betrachtet wird. Es soll das Bewusstsein für die Notwendigkeit und die Verantwortlichkeiten bzw. Zuständigkeiten von Krisenmanagementplanungen inkl. der Schnittstellenproblematik erhöht werden. Auf Grundlage dieser Arbeit können die Feuerwehr, Hilfsorganisationen, das Technisches Hilfswerk, der Wasserversorger und das Krankenhaus zukünftige Planungen begründen und die Ergebnisse für die Planung einer Ersatztrinkwasserversorgung für das Krankenhaus Merheim nutzen. Das Bundesamt für Bevölkerungsschutz und Katastrophenhilfe, das diese Arbeit ebenfalls betreut hat, möchte diese Arbeit zudem dafür verwenden, weiterführende Konzepte und Leitfäden zu entwickeln.
Hinsichtlich der Erfüllung des Schutzzieles wurde das Krankenhaus Merheim an sich und als Prozessbausteine insbesondere die Intensivstationen als sehr verwundbar identifiziert, was im Rahmen der Analyse zu einem sehr hohen Gesamtrisiko führte. Weitere Prozessbausteine mit sehr hohen Risikowerten sind die Reinstwasseraufbereitungsanlage, die Zentralwäscherei, das Zentrallabor, die Zentralsterilisation und die Anästhesiologie. Durch die sehr hohen Risikowerte und den maximalen Trinkwasserbedarf des Krankenhauses von 150m³/h (eine Ermittlung des minimalen Bedarfes war nicht möglich) lässt sich ein hoher Handlungsbedarf für Krisenmanagementplanungen für den Fall eines Trinkwasserausfalles in dem Krankenhaus ableiten. Die Analyse der Krisenmanagementplanungen hat ergeben, dass keine Maßnahmen zur Krisenbewältigung eines Trinkwasserausfalles im Krankenhaus Merheim existieren. Dies betrifft alle einbezogenen Akteure. Auch eine Einspeisestelle für eine Ersatztrinkwasserversorgung und andere Redundanzsysteme sind im Krankenhaus Merheim nicht vorhanden. Die redundante Ausgestaltung der Trinkwassereinspeisung aus dem öffentlichen Netz in das Privatnetz des Krankenhauses ist dabei nur bei einem Versorgungsausfall auf Seiten des öffentlichen Trinkwassernetzes wirkungsvoll. Eine Ersatztrinkwasserversorgung wäre mit den in der Stadt Köln vorhandenen Ressourcen ausreichend gestaltbar. Verfügbare und geeignete Kapazitäten sind bei der Feuerwehr Köln, privaten Firmen mit Tanklastzügen, der Bundespolizei und Hilfsorganisationen identifiziert worden. Bei den durchgeführten Interviews wurde von fast allen Akteuren eine hohe Relevanz des Themas und der hohe Bedarf an Planungen bestätigt. Jedoch ist durch die bestehende Mangelplanung und der Vernachlässigung von Übungen zur Not- und Ersatztrinkwasserversorgung (z.B. Inbetriebnahme Trinkwassernotbrunnen) davon auszugehen, dass bisher ein mangelndes Problembewusstsein und Unstimmigkeiten bezüglich der Zuständigkeiten bei den verantwortlichen Stellen vorlag. Die Kommune (bzw. hier die Stadt Köln) sollte daher alle Beteiligten zusammenbringen, über die Verantwortlichkeiten bzw. Zuständigkeiten aufklären und einen kooperativen Planungsprozess initiieren. Eine eigene Planung, im Rahmen dieser Arbeit, in Form eines Kapitels für den Krankenhauseinsatzplan und Krisenmanagementplänen für die Gefahrenabwehr bzw. den Wasserversorger konnte durch das Fehlen einer Trinkwassereinspeisestelle in das Krankenhaus nicht erstellt werden. Jedoch war es möglich ein kurzes Kapitel für den Krankenhauseinsatzplan zu erstellen, das auf die weitreichenden Folgen eines Trinkwasserausfalles aufmerksam macht und Anweisungen zum schnelleren Übergang zu einer Evakuierung/Räumung liefert. Durch das so erreichte schnellere Handeln, könnten zumindest viele weitere Folgeschäden bei den Patienten verhindert werden. Überlegungen dahingehend, ob eher präventive oder zur Selbsthilfe befähigende Maßnahmen statt Bewältigungsplanungen in Betracht gezogen werden sollten, sind durchzuführen.