Refine
Year of publication
Document Type
- Master's Thesis (255)
- Bachelor Thesis (128)
- Report (42)
- Study Thesis (31)
- Working Paper (31)
- Conference Proceeding (30)
- Book (27)
- Article (14)
- Part of a Book (9)
- Contribution to a Periodical (5)
Language
- German (581) (remove)
Has Fulltext
- yes (581) (remove)
Keywords
- Rückversicherung (36)
- Versicherung (27)
- Reinsurance (26)
- Kölner Forschungsstelle Rückversicherung (25)
- Versicherungswirtschaft (23)
- Sozialarbeit (22)
- Deutschland (18)
- Bibliothek (17)
- Soziale Arbeit (17)
- Marketing (15)
Faculty
- Fakultät 10 / Institut für Informatik (142)
- Fakultät 03 / Institut für Informationswissenschaft (98)
- Fakultät 07 / Institut für Medien- und Phototechnik (57)
- Fakultät 04 / Institut für Versicherungswesen (43)
- Fakultät 04 / Schmalenbach Institut für Wirtschaftswissenschaften (23)
- Fakultät 10 / Advanced Media Institute (23)
- Fakultät 03 / Institut für Translation und Mehrsprachige Kommunikation (22)
- Fakultät 10 / Institute for Business Administration and Leadership (19)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (18)
- Fakultät 01 / Institut für Medienforschung und Medienpädagogik (13)
Keine Software kommt heute ohne eine ausgebaute IT–Infrastruktur, mit der Anbindung an Datenbanken, aus. Die konsequente Ausrichtung der Software, aufgrund von technologischen Entwicklungen, ist ein wichtiger Einflussfaktor auf die Softwareentwicklung. Die Software soll sich durch Innovation, Flexibilität und Dynamik auszeichnen. Diese Diplomarbeit entstand aus der Motivation heraus, hier Abhilfe zu schaffen. Mit dieser Diplomarbeit soll bewiesen werden, das es möglich ist, die zugrundeliegende Datenbasis von herkömmlicher Dateiorganisation auf relationale Datenbanksysteme umzustellen, ohne dabei die komplette Software neu zu schreiben.
Digitale Medien sind fester Bestandteil der Lebenswelten von Kindern und Jugendlichen. Sie wachsen in eine Medienwelt hinein, in der digitale Technologien allgegenwärtig und selbstverständlich sind. Junge Menschen gelten daher als Digital Natives („Digitale Einge-borene“). Dennoch brauchen sie pädagogische Unterstützung, um souverän mit Medien umgehen zu können. Denn die informell erworbenen Fähigkeiten sind oft nicht ausrei-chend, um als kompetentes Medienhandeln gelten zu können. Dabei lässt sich gerade für die Adressat*innen der stationären Erziehungshilfe ein deutlicher Mehrbedarf in der Ausbil-dung von Medienkompetenz ausmachen, da für sie keine angemessene Medienerziehung in der Herkunftsfamilie vorausgesetzt werden darf. Doch in der stationären Kinder- und Jugendhilfe sind digitale Medien und Medienerziehung bisher eher vernachlässigte Themen.
Mithilfe einer quantitativen Befragung von knapp 200 Fachkräften zur Praxis der Medien-ziehung in Einrichtungen der stationären Erziehungshilfe in Deutschland wird dieses bisher wenig erforschte Feld genauer beleuchtet. Im Fokus stehen dabei die eigene Medienkom-petenz, medienbezogene Einstellungen, Qualifikation und Fortbildungsengagement der Fachkräfte sowie die Rahmenbedingungen der Einrichtung und medienerzieherischen Tä-tigkeiten im Arbeitsalltag. Wie die Analyse zeigt, erkennen die meisten Fachkräfte die Be-deutung der Medienerziehung in stationären Hilfen durchaus an, es besteht jedoch ein ho-her Informations- und Fortbildungsbedarf der Fachkräfte rund um medienpädagogische Themen. Denn nur etwa die Hälfte der Befragten hat im Rahmen ihrer beruflichen Ausbil-dung medienpädagogisches Wissen erworben; ein Großteil hat zudem keine entsprechen-den Fortbildungen absolviert. Fehlende medienpädagogische Konzepte sowie die häufig mangelhafte und veraltete technische Ausstattung in den Einrichtungen erschweren die medienerzieherische Praxis der Fachkräfte zusätzlich.
Information ist in den vergangenen Jahren zu einem immer wichtigeren Element unseres Wirtschaftens geworden. Sei es eher sekundär, als Information über Güter, oder als eigenständig vermarktbares (Primär-)Gut. Trotz seiner steigenden Bedeutung hinkt die wissenschaftliche Auseinandersetzung mit diesem wichtigen Wirtschaftsfaktor deutlich hinterher. Es ist noch lange kein Allgemeinplatz, dass sich Informationsgüter nicht auf die gleiche Art und Weise erstellen und anbieten lassen wie es für die uns schon lange vertrauten physischen Güter der Fall ist. Es ist eben nicht das gleiche, ob man einen Bleistift oder eine Information, z. B. über die Marktstellung eines Unternehmens, kauft. Vier verschiedene Aspekte lassen sich aus einer ökonomischen Perspektive identifizieren, die für diese Unterschiede ursächlich sind und dazu führen, dass Anbieter von Informationsgütern anders am Markt agieren müssen.
Forschungsfrage: Wie wirken sich autoritäre, kooperative und laissez-faire Führungsstile auf die Pro-duktivität und Arbeitseinstellung der Mitarbeitenden im digitalen Arbeitskontext aus?
Methodik: Gestaffelte quantitative Inhaltsanalyse zur Führungsstilermittlung und zur Auswirkung in digital basierten Arbeitsbeziehungen Praktische Implikationen: Im digitalen Arbeitskontext wirkt sich der kooperative Führungsstil sowohl auf die Produktivität als auch auf die Arbeitseinstellung am stärksten positiv aus.
Die nachfolgende Masterarbeit untersucht die Nutzung von DeepFake-Anwendungen bei Personen mit einer Fazialisparese. Dabei handelt es sich um eine Lähmung des Gesichtnervs, wodurch die betroffenden Menschen keine bzw. keine vollständige Mimik im Gesicht haben. Es wird hierbei getestet, ob mithilfe von DeepFake eine möglichst realistische Mimik generiert werden kann. Für die Untersuchung werden zunächst sowohl die theoretischen Grundlagen als auch verschiedene potenzielle Anwendungen vorgestellt. Mithilfe der vorgestellten Anwendungen wird anschließend ein Versuch durchgeführt, in dem die künstliche Intelligenz mit Bildmaterial von Proband:innen trainiert und anschließend manipuliert wird. Die aus dem Versuch resultierenden Ergebnisse werden danach durch eine Umfrage mit Bildern, welche eine originale Mimik zeigen, verglichen. Dadurch soll überprüft werden, wie realistisch die manipulierten Bild- und Videomaterialien sind oder ob die künstliche Intelligenz an eine mögliche Grenze stößt. Abschließend werden weitere Forschungsansätze und Anwendungsmöglichkeiten vorgestellt, in welchem die betrachtete künstliche Intelligenz genutzt werden kann.
Im Rahmen dieser Bachelorarbeit wurde der von Debevec und Malik verwendete Algorithmus zur Erstellung von HDR-Bildern als Plugin für die Bildverarbeitungssoftware ImageJ implementiert. Darüber hinaus wurde die Implementierung durch Tests auf ihre Funktionalität überprüft und Schwachstellen des Algorithmus erläutert. Durch Modifizierungen des erstellten Plugins wurden einige Schwächen des Algorithmus verbessert.
Das Vorlesebuch bietet Kindern bereits vor der eigenen Lesefähigkeit komplexe
Charaktere an, die als Rollenvorbilder verstanden werden können. Sofern Erzählungen in
pädagogischen Institutionen angeboten werden, wird ihnen schon durch die
professionelle Auswahl aus der Masse möglicher Geschichten ein besonderes Gewicht
verliehen. Dies gilt auch für Narrationen zu Geschlechterrollen. In Medien- und anderen
Produkten werden Mädchen und Jungen mit unterschiedlichen Stereotypen und somit
impliziten Rollenerwartungen konfrontiert. Um herauszufinden welches Bild vom Mädchen
in erzählenden kinderliterarischen Texten durch Protagonistinnen vermittelt werden,
werden jüngste Entwicklungen des Kinderbuchs festgehalten werden. Anschließend wird
das distributive System, in welchem sich das Vorlesebuch befindet genauer betrachtet.
Eine Analyse von vier Vorlesebüchern der umsatzstärksten Kinderbuchverlage soll zeigen, wie sich präadoleszente Protagonistinnen verhalten und ob sich ein
dominierender Mädchentypus abzeichnet. Dabei wird zu zeigen sein, dass die
untersuchten handlungsleitenden Mädchen wissbegierig, kompetent und bestimmend
sind und ein insgesamt aktiver, „starker“ Mädchentypus dominiert
In einem Studienprojekt „Multimedia CD-ROM RDK - Reallexikon zur Deutschen Kunstgeschichte“ während des Sommersemesters 2002 und des Wintersemesters 2002/03 haben Studierende des Schwerpunktes „Medienerschließung, Information Retrieval“ des Studiengangs Bibliothekswesen den prototypischen Aufbau einer multimedialen, integrierten Nutzungsumgebung für das Reallexikon zur Deutschen Kunstgeschichte realisiert. Die Ergebnisse sowie die zugrunde liegende Vorgehensweise werden in diesem Bericht vorgestellt. Bedingt durch verschiedene Eigenschaften des Originals, das auf höchstem wissenschaftlichen Niveau Zusammenhänge und Fakten in einer Printausgabe ohne bislang hinreichende Zugangsmöglichkeiten (es fehlen bislang Sach- oder Personenregister) anbietet, waren verschiedene Schwierigkeiten zu überwinden, um eine mediengerechte Präsentation der Artikel mit guten Such- und Findemöglichkeiten zu entwickeln. Im Rahmen des Projektes wurden fünf Artikel des Lexikons, die in der Printversion zusammen ca. 60 Seiten umfassen, sowie zusätzliche Informationen in eine Datenbankumgebung eingebracht, die aus sechs einzelnen, teilweise miteinander verknüpften Datenbanken besteht. Grundlage hierfür war die Software MIDOS 2000. Für die Datenbank wurde anschließend eine adäquate Suchumgebung gestaltet. Dem Benutzer wird dort eine zielgenaue Recherche ermöglicht, und die vernetzte Navigationsstruktur bietet die Gelegenheit, komfortablen Zugang zu den Inhalten des Reallexikons und den zusätzlichen Informationen zu erhalten. Ergänzt wird der Projektbericht um je einen Beitrag von PD Dr. Wolfgang Augustyn zum Reallexikon zur Deutschen Kunstgeschichte und von Bernd Ginzkey zum Funktionsumfang der Software MIDOS. Die Betreuer des Projektes sehen es als besonderen Erfolg des Projektes, dass es Vorarbeit zu einem inzwischen bewilligten DFG-Projekt zur Erstellung einer Web-Version des RDK war.
Als Teil des wohlfahrtsstaatlichen Arrangements steht Soziale Arbeit im Zuge des Umbaus des Sozialstaats, der Ökonomisierung des Sozialen und der umfassenden Ausbreitung neoliberaler Rationalität zum einen vor veränderten Herausforderungen und zum anderen unter einem stetig steigenden Legitimationsdruck. Macht- und herrschaftskritische Auseinandersetzungen, in der die gegenwärtigen Machtbeziehungen und aktuellen Regierungs-weisen der Politik im Kontext der Sozialen Arbeit kritisch hinterfragt werden, werden in der aktuellen neosozialen Programmatik besonders relevant. Insbesondere Michel Foucaults Machtanalytik und sein Konzept der Gouvernementalität weisen für eine solche Analyse großes Potenzial auf. Neben der konkreten Auseinandersetzung mit Foucaults „Werkzeugkiste“ - der Beleuchtung Sozialer Arbeit im Kontext der Machtanalytik und dem Gouvernementalitätskonzept - wird in der vorliegenden Arbeit die Frage diskutiert, inwiefern sich neosoziale Regierungsweisen in die Soziale Arbeit einschreiben. Die Arbeit zeigt auf, dass die Soziale Arbeit als Akteurin der gegenwärtigen Macht- und
Herrschaftsverhältnisse zu begreifen ist, die durch die Verschränkung von Selbst- und Fremdführung wirkt. Während bislang ein normativer Bezugspunkt als Ausgangspunkt ihrer Intervention galt, wird dieser gegenwärtig als zunehmend unbestimmbar benannt. Somit verliert die Soziale Arbeit ihren Bezugspunkt und steht dementsprechend vor einem Dilemma. Es wird deutlich, dass es nicht mehr nur eine Befürchtung ist, dass sich eine neosoziale Programmatik in die Soziale Arbeit einschreibt, sondern dass sich in ihre bereits Regierungsweisen zeigen, die an Aktivierungsprogram-matiken, die ein unternehmerisches Selbst anrufen, anknüpfen.
Die vorliegende Diplomarbeit beschäftigt sich mit Senioren in Öffentlichen Bibliotheken und liefert Konzepte für eine zielgruppenspezifische Bibliotheksarbeit. Dabei werden zunächst Begrifflichkeiten geklärt und die physischen und gesellschaftlichen Besonderheiten der Zielgruppe sowie die daraus resultierenden Voraussetzungen für Bibliotheken untersucht. Anschließend werden Empfehlungen für den Bestandsaufbau gegeben und verschiedene Veranstaltungsformen und Aktionen speziell für Senioren vorgestellt. Außerdem wird sowohl auf die aktive Medienvermittlung an heim- oder hausgebundene ältere Menschen eingegangen als auch auf effektive Möglichkeiten der Öffentlichkeitsarbeit und Werbung. Ferner werden Senioren als freiwillige Mitarbeiter in Bibliotheken berücksichtigt. Am Beispiel der Stadtbibliothek Eisenach wird dann die Umsetzung unterschiedlicher Angebote für die besagte Zielgruppe und die Resonanz der Benutzer darauf dargestellt. Abschließend wird ein Ausblick auf die Entwicklung der Zielgruppenorientierung auf Senioren gegeben.
Bildkompositionen können nach bestimmten Aspekten gestaltet werden und dadurch als Ausdrucksmittel fungieren. Dadurch können Bilder den Kontext einer Handlung visuell unterstützen und dem Zuschauer nonverbale Botschaften vermitteln. Infolgedessen beschäftigt sich diese Arbeit mit der Bildkomposition als filmisches Ausdrucksmittel. Das Ziel dieser Arbeit liegt darin, verschiedene Aspekte der Bildgestaltung zu untersuchen. Dabei sollen die Funktionsweisen der jeweiligen Aspekte erklärt und eine mögliche Begründung für die Wirkungsweise erörtert werden. Zusätzlich sollen mögliche unkonventionelle Anwendungen, in dieser Arbeit Regelbrüche genannt, identifiziert und die resultierende Effekte dargestellt werden.
Zu Beginn dieser Arbeit soll ein allgemeines Verständnis für die Bildkomposition geschaffen werden, sodass diese zunächst definiert und von anderen Themen abgegrenzt wird. Anschließend werden technische sowie künstlerische Aspekte der Bildgestaltung im Einzelnen thematisiert, die in den folgenden Unterkapiteln jeweils in ihrer Funktionsweise erklärt werden. Zusätzlich wird jeweils eine mögliche Begründung für die Wirkungsweise und einen Regelbruch genannt. Sowohl die konventionellen Anwendungen als auch die Regelbrüche werden mit Beispielen belegt. Danach werden selbstständig durchgeführte Experteninterviews mit professionellen Kameramännern berichtet, um die Anwendung von Bildkompositionen in der Praxis zu überprüfen.
Die Aspekte der Bildgestaltung haben jeweils eigene Funktionsweisen und Ziele. Dennoch liegt das das gemeinsame übergeordnete Ziel in der Lenkung der Aufmerksamkeit des Zuschauers und die Unterstützung des inhaltlichen Kontextes ist. Für eine erfolgreiche Wirkung beim Zuschauer greifen die Aspekte auf den menschlichen Erfahrungsschatz, Muster aus der Natur oder Wahrnehmungsprinzipien zurück. Regelbrüche gelten grundsätzlich als eigenständige Gestaltungsmöglichkeiten, welche aufgrund ihrer visuellen Seltenheit besonders markant sind und den Kontext entsprechend betonen.
Insgesamt konnte das Ziel der vorliegenden Arbeit erreicht werden, indem verschiedene Aspekte der Bildkomposition untersucht wurden. Diese Aspekte können einen hilfreichen Beitrag zur Gestaltung von Bildkompositionen leisten. Eine absolute Wirkung auf den Zuschauer kann jedoch nicht gewährleistet werden, da diese stark vom Kontext der Handlung sowie dem Zuschauer selbst abhängt. Deshalb müssen die Aspekte der Bildgestaltung bei jeder Anwendung detailliert geplant und auf den Kontext angepasst werden, um als Ausdrucksmittel fungieren zu können.
In der vorliegenden Arbeit wurde eine HPLC-Methode mit der dazugehörigen Probenvorbereitung entwickelt, welche es ermöglicht Essigsäure und Acrylsäure in komplexen Matrizes wie Deponiesickerwasser zu bestimmen. Hauptaugenmerk lag dabei auf der Matrixreduzierung, die bei 96 % lag. Die Wiederfindung der Analyten Essigsäure und Acrylsäure liegt bei der beschriebenen Methode bei ca. 100 %.
Zusammenfassung
Ansatz der vorliegenden Arbeit ist es, mit Blick auf den in einer großen Variationsbreite existierenden Brauprozess in Brauereien mit unterschiedlichster jährlicher Produktionsmenge und technologischem Stand, die wesentlichen charakteristischen Teilprozessschritte hinsichtlich Ihrer Bedarfe an den thermischen Energieformen Wärme und Kälte, unter Berücksichtigung der jeweils in den Teilprozessen herrschenden Temperaturniveaus, darzustellen. Dies ist in Kapitel 2 sowohl für die in Trocknungsprozessen vorbehandelten feststofflichen Braukomponente Gerstenmalz und Hopfen, sowie für die mit dem Beginn der Erwärmung von frischem Brauwasser startenden Prozesse des Einmaischens, Läuterns, Kochens, Gärens bis hin zur Reifung des Jungbieres, erfolgt. Zunächst wurde das jeweilige Temperaturniveau der einzelnen Phasen des Brauvorgangs, trotz seiner unterschiedlichen verfahrenstechnischen Realisierung, abgesteckt. In Kapitel 5 wird der rein für den Prozess notwendige Wärme- und Kältebedarf, auf der Basis der wesentlichen Zustandsänderungen des entstehenden Produktes, bestimmt. Dabei liegt bei jedem Prozessschritt entweder ein Wärme- oder ein Kältebedarf vor. Die Teilprozesse bilden eine zeitliche Abfolge innerhalb des Brauprozesses, welche die Vorstufen des Bieres nacheinander durchläuft. Die in den Kapiteln 3 zum Thema Kälte und in Kapitel 4 zum Thema Wärme dargestellten Grundlagen, liefern die Grundlagen für das Verständnis, des Verhaltens eines Systems im Umfeld von thermischer Energie und bilden die thermodynamischen Kenntnisse, die für die Beurteilung des Transportes, der Erzeugung und der Speicherung von Wärme und Kälte ergeben. Die Wärme und Kältebedarfe in ihrer zeitlichen Abfolge ermöglichen uns unabhängig von gängigen technischen Realisierungen in der Praxis noch einmal in Kapitel 6 die Frage zu stellen, in wie weit zunächst für jeden einzelnen Teilprozess Energieeffizienzverbesserungen durch Eingriff in den Prozess möglich sind. Die Frage der Heranführung der Wärme bei Wärmebedarf des Produktes an das Produkt hat in der Entwicklung der Brauereitechnologie sehr verschiedenen konstruktiven Ausführungen der Maischgefäße und der Gefäße für die Würzebehandlung geführt. An dieser Stelle ist der Einfluss von Veränderungen, welche den Transport von Wärme verbessern könnten, auch auf das Produkt zu hinterfragen. Die modernen Ausführungen der Maisch- und Würzepfannen sind auf ein produktschonendes Verfahren ausgelegt. Änderungen im Anlagenpark erfordern von jeder Brauerei einen langerprobten Umgang, um trotz der Veränderungen an diesen Prozesshilfsmitteln, dennoch die geschmackliche Qualität des Bieres nicht unerwünscht zu beeinflussen. Die Rückführung der Verdampfungswärme beim Kochen und teilweise Verdampfen der Würze in der Pfanne, in den Prozess, unter Beibehaltung des höchstmöglichen Temperaturniveaus dieser Wärme, ist ein Beispiel aus Kapitel 6 für die Effizienzsteigerung des Teilprozesses. Stärker in den produktbeeinflussenden Teilprozess des Maischens greift die Wahl zwischen den zwei etablierten Wärmezufuhrverfahren, dem traditionellen Dekoktionsverfahren und dem in letzter Zeit deutlich überwiegenden Infusionsverfahren. Hier liegt mit der Wahl des letzteren Verfahrens, innerhalb des Teilprozesses Maischen ein Effizienzsteigerungspotential in der Praxis.
Die teilprozessübergreifende Kopplung der einzelnen Verfahrensschritte erlaubt den Transport von Wärme und Kälte, zwischen diesen Teilprozessen, unter Berücksichtigung der zeitlichen Versetzung der einzelnen Teilprozesse. Damit lassen sich Wärme- und Kältebedarfe untereinander bedienen, wenn eine Speichervorrichtung für Wärme auf den jeweiligen Temperaturniveaus vorhanden ist. Das Temperaturniveau der thermischen Energien ist, wie bereits in der Theorie in den Kapitel 3 und 4 gesehen, wo großer Bedeutung. Denn es geht bei der Steigerung der Energieeffizienz des Gesamtprozesses um die Erhaltung des Potentials der Wärme und Kälte trotz naturbedingter Einbußen, welche die Übertragung der Wärme aufgrund eines notwendigen Temperaturgefälles mit sich bringt. Die Kopplung der Teilprozesse entlang des Brauprozesses führt nach der Analyse in Kapitel 6 dazu, dass Energiezufuhr von außen am heißesten Ort entlang der Prozesskette erforderlich ist, da an dieser Stelle des Würzekochens und Verdampfens innerhalb des Gesamtprozesses keine Wärme auf diesem Temperaturniveau „ausgeliehen“ werden kann. Als Resultat erhält man, das eine Dampferzeugung zur Wärmebereitstellung mit einer Temperatur oberhalb der Siedetemperatur von 100°C erforderlich ist, sowie Kältebereitstellung für die kühlen Prozessschritte Gären und Reifen, bei denen die Aufrechterhaltung einer Temperatur bei knapp 0°C gegenüber der wärmeren Umgebung über eine längere Zeitdauer erforderlich ist.
Hiermit kommt man zu der zweiten Fragestellung aus der Einleitung, welche Szenarien der Bereitstellung der Energie, ggf. in Form einer Selbstversorgung der Brauerei sinnvoll ist.
Energetisch ist die Erzeugung von Wärme auf einem vergleichsweise moderaten Temperaturniveau von benötigten 120 bis 140°C durch die Verbrennung des Primärenergieträgers Erdgas im Dampferzeuger nicht optimal. Es bietet sich an, das Gas bei der Verbrennung einen guten Teil seiner Exergie in Reinform zur Verfügung stellen zu können, in dem es z.B. in einem Gasmotor mechanische Arbeit leisten darf, die über einen Generator zu elektrischem Strom veredelt wird, und die Wärmebedarfe in der Brauerei aus dem Abgas und dem Kühlwasser des Motors gedeckt werden. Diese Form des gasbetriebenen Blockheizkraftwerkes (BHKW) ist in der Industrie seit einiger Zeit weit verbreitet. Der Strom deckt Bedarfe durch Elektromotorenantriebe, Kälteerzeugung mit Kompressions-Kältemaschinen, Lüftungsventilatoren, Pumpen und Beleuchtung. Überschüssiger Strom kann ggf. an den Stromversorger verkauft werden.
Der Wärmebedarf für den Brauprozess, sowie für die Wärme im Flaschen- und Fassreinigungsprozess, sowie zur Pasteurisierung des Bier (bei Rückgewinnung eines Teils der Wärme auf leicht niedrigerem Temperaturniveau) wird durch eine Wärmebedarfsauslegung des BHKW weitestgehend gedeckt. In der Ausführung des BHKW sollte berücksichtigt sein, dass die Wärme in ausreichender Menge bei höherer Temperatur durch optimale Nutzung des heißen Abgases entnommen wird, um auf jeden Fall den Dampfbedarf in der Würzepfanne zu decken.
Die Fachhochschule Köln führte mit Unterstützung des Instituts für e-Management e.V. eine Studie zu Wissensmanagement vom März 2004 bis Januar 2005 durch. An der Befragung nahmen 89 Personen aus den Branchen Industrie, Handel und Dienstleistung teil. Um herauszufinden, was ein erfolgreiches von einem weniger erfolgreichen Wissensmanagement unterscheidet, lag der Fokus der Studie auf den dafür verantwortlichen Faktoren. Dabei wurden durch systematische Fragen die Dimensionen Mensch, Organisation und Technik unterschieden. Die Ergebnisse zeigen klar auf, dass die Barrieren im organisatorischen Bereich zu suchen sind. Fehlende Zeit wird hier als sehr relevant angesehen. Die Ergebnisse der Studie zeigen u. a. wichtige Ziele, Barrieren und Erfolgsfaktoren im Umgang mit Wissensmanagement. Im Zusammenhang mit den Zielen, die für ein Wissensmanagementsystem gesetzt werden, erachten die Befragten die Verbesserung von Prozessabläufen und Kommunikationsflüssen als besonders wichtig. Nach Ansicht der Befragten ist der Erfolg von Wissensmanagement hauptsächlich von der Einstellung der User abhängig. So rangieren Unterstützung des Wissensmanagements durch das Top-Management, ein hoher Stellenwert von Wissen im Unternehmen und die Akzeptanz des Wissensmanagement durch die Mitarbeiter ganz oben bei den Angaben für Erfolgsfaktoren.
More and more often, spoken information must and should be available in written form. For this purpose, various transcription programs try to support the user with various conveniences when transcribing the source material. A variety of online services go one step further and provide a ready-to-use, automatically generated transcription for a fee. Since the fees can be very expensive for the individual user and the online services may not always be used for privacy reasons, the goal of this work is to implement an open offline alternative. This alternative should be an open source editor based on the open speech-to-text-engine DeepSpeech and should on one hand provide the user with an offline transcription and on the other hand support him in correcting it. To achieve this goal, first the traditional speech recognition and eventually DeepSpeech will be described. This is followed by the conception and implementation of the editor. Since this project is explicitly intended to be an open source project, the last part will take a closer look at the release.
Der anthropogene Klimawandel hat neben anhaltenden Dürren und verstärkt auftretenden Extremwetterereignissen auch die Ansiedlung neuer Arten in Deutschland zur Folge. Da die
Landwirtschaft eine kritische Infrastruktur darstellt, ist es notwendig, die potentielle Verbreitung neuer Schädlinge zu untersuchen, um potentielle Gefahren für die Landwirtschaft frühzeitig zu identifizieren. Nur so können rechtzeitig Handlungsbedarfe erkannt sowie Konzepte und Maßnahmen zum Schutz der kritischen Infrastruktur Landwirtschaft entwickelt werden. Es wird daher untersucht, ob Feldheuschrecken im Zuge des Klimawandels eine Gefahr für die deutsche Landwirtschaft darstellen können. Die Arbeit ist somit insbesondere für Akteure aus dem landwirtschaftlichen Sektor und dem Bevölkerungsschutz von Interesse. Betrachtet werden sechs Szenarien, die sich aus der der Kombination der drei Repräsentativen Konzentrationspfaden RCP2.6, RCP4.5 und RCP8.5 sowie den beiden Betrachtungszeiträumen 2021 – 2050 und 2071 – 2100 ergeben. Die entsprechenden Klimadaten werden aus dem Projekt Euro-CORDEX bezogen. Mit der Software CLIMEX wird die mögliche Verbreitung von Calliptamus italicus, Dociostaurus maroccanus und Locusta migratoria für 20 Standorte in Deutschland in den sechs Szenarien modelliert. Mit QGIS wird die betroffene Landwirtschaftsfläche auf Basis der CORINE Landnutzungsdaten ermittelt. Darüber hinaus werden im Juni und Juli 2021 vier Interviews mit Expert:innen der Bereiche Klimawandel/-anpassung, Orthopterologie/Entomologie und Landwirtschaft durchgeführt. Die Untersuchung zeigt, dass C. italicus sich in Deutschland stark verbreiten wird, D. maroccanus und L. migratoria sind nur geringfügig vertreten. Heuschreckenschwärme können potentiell pflanzliche Erzeugnisse auf etwa 10 – 25 % der landwirtschaftlichen Fläche bedrohen, ihr Auftreten ist allerdings unwahrscheinlich. Es ist daher von einem geringen Gefahrenpotential von Feldheuschrecken für die deutsche Landwirtschaft auszugehen. Die Modellierung ist auf klimatische Bedingungen begrenzt. Die berechneten Flächen sind mit Abweichungen behaftet, deren Ursprung ungeklärt ist. Trotz dieser Einschränkungen ist die Arbeit wegweisend für zukünftige Forschung und die Entwicklung von Handlungsstrategien. So wird die Entwicklung von Konzepten zur Prävention und Intervention für den Fall einer Heu- schreckeninvasion empfohlen. Ein aktives Biomonitoring größerer, nicht bewirtschafteter Flächen ist essenziell, um mögliche Massenvermehrungen frühzeitig festzustellen. Zusätzlich sollten Schwarmbildungen im Ausland und mögliche Migrationsrouten nach Deutschland untersucht werden.
Schlüsselbegriffe: Landwirtschaftliche Gefahr, Schädling, Klimawandel, Klimawirkung, Heuschrecken, CLIMEX, Species Distribution Model, Expert:inneninterview
Die zweischichtige Organisationsform mit einer zentralen Hochschulbibliothek und vielen finanziell und personell unabhängigen Institutsbibliotheken war die vorherrschende Struktur an traditionsreichen deutschen Universitäten bis in die 1960er Jahre. Heutzutage müssen Bibliotheken aufgrund der aktuellen Finanzkrise im öffentlichen Sektor jedoch mit immer knapperen Ressourcen und weniger Personal ein immer umfangreicheres Dienstleistungsspektrum für eine ständig wachsende Benutzerzahl bewältigen. Vor dieser Entwicklung zeichnet sich nun deutlich das Strukturdefizit zweischichtiger Bibliothekssysteme ab: statt auf nutzerorientierte Informations- und Kompetenzzentren stößt man auf ineffektiven Ressourceneinsatz, ein beziehungsloses Nebeneinander der Geschäftsprozesse von Zentrale und dezentralen Einheiten und eine ungenügende Literatur- und Informationsversorgung. Da die geforderten Dienstleistungen angesichts der finanziellen Restriktion nur noch eingeschränkt erbracht werden können, wird die Wettbewerbsfähigkeit zweischichtiger Bibliothekssysteme blockiert. Zweischichtige Bibliothekssysteme können durchaus modern und leistungsfähig sein, wenn sie im Sinne einer funktionalen Einschichtigkeit die Literaturversorgung kooperativ betreiben. Die Hauptkriterien für funktional einschichtige Systeme sind die organisatorische und räumliche Fusion von kleineren Institutsbibliotheken zu größeren Einheiten, die Kooperation und Koordination bei der Literaturerwebung sowie die Dokumentation des Bestands in einem universitären Gesamtkatalog. Die Strategien für eine Umsetzung der Strukturreform sind dabei jedoch polymorph. Divergierende Interessen in der Hochschullandschaft, bibliothekspolitische Gesichtspunkte sowie hochschulrechtliche Rahmenbedingungen erschweren und individualisieren den Entwicklungsprozess jeweils. Im Vergleich zu den Erfahrungen aus den zweischichtigen Hochschulbibliothekssystemen in Marburg und Freiburg mit der Strukturreform wird in dieser Master´s Thesis eine Bestandsaufnahmen der aktuellen Gegebenheiten und Entwicklungen an der Universitäts- und Stadtbibliothek Köln (USB Köln) auf dem Weg zur funktionalen Einschichtigkeit skizziert.
"Wie motiviere ich meine Mitarbeiter?" (Hatzius, 1996, S. 45) lautet die häufige Frage von Bibliothekaren in leitenden Positionen. "Gibt es eine spezifische bibliothekarische Personalführung?" (Krompholz, 1987, S.353) ist ein weiterer Aspekt, denn zum einen gelten auch in Bibliotheken die Grundelemente betrieblicher Arbeit, zum anderen gehören Bibliotheken meist dem öffentlichen Dienst an und sind zudem Dienstleistungsbetriebe. Aus dieser etwas schwierig zu definierenden Position ergibt sich unter anderem die Frage, ob das komplexe Thema der Mitarbeitermotivation, wie auch viele andere Elemente der Betriebswirtschaftslehre, derzeit ausreichende Bedeutung in Bibliotheken und in bibliothekarischen Ausbildungsstätten erfährt. Weiterhin soll im Rahmen dieser Arbeit betrachtet werden, ob eine leistungsbezogene Vergütung innerhalb des BAT bzw. des Beamtenrechtes, dem die meisten Bibliotheken angeschlossen sind, als Motivator überhaupt herangezogen werden kann.
REALLABOR AUFZANDERS
(2024)
Diese Arbeit behandelt die physikalisch plausible Bildsynthese virtueller Szenen anhand strahlungsphysikalischer Größen sowie physikalisch plausibler Beleuchtungsmodelle in Kombination mit qualitativ hochwertigem Schattenwurf. Verschiedene Modelle und Verfahren werden untersucht und in einer Echtzeitumgebung implementiert.
Im Mai 2001 wurde JavaServer Faces (JSF) von Sun als Java Specification Request (JSR) 127 vorgestellt. Außer Sun sind an der Entwicklung der JSF Spezifikation unter anderem die Apache Software Foundation, BEA Systems, Borland Software Corporation, IBM, Oracle und Macromedia beteiligt. Seit Dezember 2003 steht die Referenzimplementierung (RI) von Sun als Version 1.0 Beta zur Verfügung. Obwohl die Spezifikation noch nicht ganz abgeschlossen ist und die RI bis zum Final Release noch große Änderungen erfahren wird, zeichnet sich bereits ab, dass hier ein "großer Wurf" gelungen ist. Tool-Hersteller wie auch Anwendungsentwickler bringen JSF großes Interesse entgegen; eine OpenSource-Implementierung der JavaServer Faces ist mit MyFaces1 von SourceForge auch schon zu haben. Dabei gab es JavaServer Faces eigentlich schon, bevor die Entwicklung der Spezifikation begann. Das inzwischen in der Version 2.1.7 vorliegende Framework UIX (User Interface XML) von Oracle versucht schon seit einigen Jahren, eine große Lücke zu füllen. Es ist, genau wie JSF, ein UserInterface-Framework fürs Web. Im Gegensatz zu JSF ist es jedoch schon so ausgereift, dass es in realen Projekten eingesetzt werden kann.
Die COVID-19-Pandemie (im Folgenden kurz: Pandemie) wirkt sich global auf alle Verwaltungsebenen eines Staates oder Staatenbündnisses und auf jeden Wirtschaftssektor aus. Aus den Eigenschaften der Krankheit selbst und den getroffenen Maßnahmen zur Bekämpfung der Pandemie resultieren die Anforderungen an das Krisenmanagement jeglicher Organisationen. Um den Anforderungen gerecht zu werden, können die Organisationen zur Unterstützung der leitenden bzw. verantwortlichen Person Stäbe einsetzen. Ziel der Stäbe ist es, ein möglichst gutes Einsatzergebnis zu erzielen. Die Einsatzsituation und die Anforderungen während der Pandemie unterscheiden sich von anderen Einsätzen. Deswegen wird in dieser Arbeit untersucht, welche pandemiebedingten Einflüsse es auf die Stabsarbeit gibt. Zur Untersuchungsgruppe gehören Stäbe in Behörden und Unternehmen im gesamten deutschsprachigen Raum, die für mindestens drei Monate die Stabsarbeit aufrechterhalten haben. Das übergeordnete Ziel dieser Arbeit ist die Erhebung der Leistungsfähigkeit von Stäben während der COVID-19-Pandemie. Es werden die Situation vor Beginn der Pandemie, die Herausforderungen während der Pandemie und die justierten Stellschrauben erhoben und damit untersucht, welche Auswirkungen die Pandemie auf die Leistungsfähigkeit und das Einsatzergebnis von Stäben hat. Mithilfe einer standardisierten Online-Umfrage werden Stabsmitglieder befragt. Die Umfrage wurde in einer vorgelagerten Seminararbeit des Autors entwickelt. Es werden die Antworten von 153 Personen ausgewertet, die alle in Deutschland tätig sind. Der größte Teil ist Mitglied eines Stabes einer Behörde auf kommunaler Ebene. Durch Ausbildung und Übungen bestand unter den Stabsmitgliedern eine grundlegende Vorbereitung auf die Pandemie. Einzelne Themen in Hinblick auf die Einsatzsituation während der Pandemie fehlten und es mangelte an regelmäßigen Übungen. Die identifizierten Herausforderungen spiegeln die festgestellten Defizite in der Ausbildung und in Übungen wider. Hierzu zählt z. B. die Durchhaltefähigkeit bzgl. der Einsatzdauer. Die Belastung durch äußere Einflüsse war während der Pandemie herausfordernder als aus bisherigen Erfahrungen bekannt, dagegen sind in der Einsatzsituation im Stab keine größeren Veränderungen in Bezug auf Herausforderungen festzustellen. Die Pandemie hat zu Anpassungen in der Stabsarbeit geführt. In den Antworten sind Schwerpunkte bei der Digitalisierung der Stabsarbeit und der Anpassung der Struktur und Arbeitsweise des Stabes zu erkennen. Die festgestellten Defizite in der Ausbildung und in den Übungen und die identifizierten Herausforderungen werden bei der zukünftigen Entwicklung der Stabsarbeit wieder aufgegriffen. Damit wird an die während der Pandemie justierten Stellschrauben angeknüpft.
Bei Gebäuden mit zentraler Wärmeerzeugung treten im Verteilsystem Wärmeverluste auf. Insbesondere bei zirkulierenden Trinkwarmwassersystemen, aber auch bei Heizungsanlagen können diese Verteilverluste einen hohen Anteil am Gesamtwärmeverbrauch ausmachen und somit relevant für die Energieeffizienz einer Anlage sein. Die Ansätze und Angaben zur Quantifizierung der Verteilverluste in den relevanten Regelwerken weichen teils deutlich von Angaben in der Fachliteratur und den wenigen vorliegenden Fallbeispielen ab. Die vorliegende Masterarbeit behandelt das Thema anhand der Analyse eines Fallbeispiels. Das untersuchte Objekt ist ein Mehrfamilienhaus mit einer Zweileiterinstallation. Dabei handelt es sich um ein System, welches die Wärmeversorgung für Heizung und Trinkwasser kombiniert. Durch Vergleich der Wärmemengenzähler in Wohnungen und Heizungskeller sind in der Vergangenheit Verteilverluste von 16,5 kWh/m²a aufgefallen, was 28 Prozent des gesamten Verbrauchs ausmacht.Im Rahmen der Falluntersuchung werden die Verteilverluste der Anlage über eine umfangreiche Datenaufnahme und mithilfe thermodynamischer Berechnungen bestimmt und mit den Zählerdaten abgeglichen. Dieser Berechnung nach betragen die Verteilverluste 14,7 kWh/m²a, wovon die Leitungsverluste den größten Anteil ausmachen. Zur Prüfung der Ansätze der Regelwerke werden diese auf das Objekt angewendet. Eine Vergleichbarkeit ist wegen abweichender Rahmenbedingungen nur bedingt gegeben. Die anhand der Normen ermittelten Werte liegen zum Teil in der Größenordnung der thermodynamischen Berechnung, teils auch deutlich darunter. Der Abgleich mit den Zählerdaten dient auch der Prüfung der thermodynamischen Berechnung. Auf diese Weise sollen fundierte und detaillierte Aussagen über den Einfluss einzelner Parameter und Komponenten des Systems ermöglicht werden. Darüber hinaus ermöglicht es die thermodynamische Berechnung, das Potenzial verschiedener Reduktionsmaßnahmen zu quantifizieren. Hier zeigt sich, dass ein Absenken der Vorlauftemperatur im Fallbeispiel eine effektive Maßnahme darstellt. Beispielsweise bewirkt die Absenkung der Vorlauftemperatur um 5 Kelvin im Fallbeispiel eine Reduktion der Leitungsverluste um circa 16 Prozent, respektive einen um circa 3 Prozent verringerten Gesamtverbrauch. Die ebenfalls modellierte Dämmung der Installationsschächte hingegen lässt bei ungleich höherem Aufwand geringere Einsparungen erwarten. Bei der Bewertung der Ergebnisse ist zu beachten, dass im Untersuchungsobjekt der spezielle Fall eines Zweileitersystems vorliegt. Dennoch können auf Basis der Untersuchung auch allgemeine Erkenntnisse über Verteilverluste gewonnen und Einschätzungen über die normativen Angaben abgeleitet werden. Darüber hinaus wird im Rahmen eines Exkurses die thermische Situation im Installationsschacht einer genaueren Betrachtung unterzogen. Diese ist von Interesse, da die Wärmeverluste hier Einfluss auf Fragen der technischen Hygiene und des sommerlichen Wärmeschutzes ausüben.
Energiesprong (niederländisch für Energiesprung) ist ein innovatives Konzept für die energetische Sanierung von Wohngebäuden, das schnelle Umsetzung, Kostenreduktion, Nachhaltigkeit und Mieterfreundlichkeit verspricht. Energiesprong setzt auf industrielle Vorfertigung von Fassaden- und Dachelementen (serielle Sanierung) und den Einsatz von regenerativen Energien, um den sogenannten NetZero-Standard (entspricht dem Nullenergiehaus) zu erreichen. Ziel ist es, eine für alle Beteiligten attraktive Sanierung zu ermöglichen. Dies wird unter anderem über erheblich verkürzte Montagezeiten und warmmietenneutrale Refinanzierung angestrebt. Die dafür erforderlichen Kostensenkungen werden beim seriellen Sanieren durch die Automatisierung in der Produktion und Skaleneffekte in der Massenfertigung erreicht.
Im Rahmen dieser Arbeit soll das Konzept Energiesprong hinsichtlich der Anwendung auf Mehrfamilienhäuser betrachtet und kritisch hinterfragt werden. Dazu werden zuvorderst die politischen und praktischen Gründe umrissen, die die Notwendigkeit und das Potenzial von innovativen Ansätzen darstellen. Im zweiten Kapitel wird das Energiesprong-Konzept detailliert erläutert; neben den Innovationen im Plan und Bauverfahren werden die Besonderheiten der Gebäudehülle, der Anlagentechnik und des Energiekonzepts beschrieben. Darüber hinaus werden wirtschaftliche Aspekte und die Rolle der verschiedenen Akteure umrissen. Aus der Beschreibung gehen eine Vielzahl an Vorteilen hervor, die Energiesprong gegenüber konventionellen Sanierungsverfahren verspricht. Anschließend werden einige Punkte dieser zentralen Versprechen diskutiert und eine Grundlage für die Entwicklung von Kriterien zukünftiger Evaluationen entwickelt.
Diese Arbeit beschäftigt sich mit der Veranstaltungsarbeit Öffentlicher Bibliotheken zur Förderung der Medienkompetenz von Kindern. Da Medien in unserem Alltag eine zunehmende Rolle spielen, wird es für die Teilnahme am gesellschaftlichen Leben immer wichtiger mit Medien kompetent umgehen zu können. Medienkompetenz muss vermittelt und gefördert werden. Öffentliche Bibliotheken bieten hierfür geeignete Möglichkeiten. In ihren Veranstaltungen für Kinder können sie mögliche Teilaspekte der Medienkompetenzdimensionen fördern. Ein theoretischer Teil dieser Arbeit behandelt zunächst den Begriff Medienkompetenz, wobei auch ein Bezug zum Öffentlichen Bibliothekswesen hergestellt wird. Es folgen eine Umfrage zur Thematik sowie ein Beispiel für eine Veranstaltungsreihe zur Medienkompetenzförderung. In der Arbeit kann nachgewiesen werden, wie Öffentliche Bibliotheken die Medienkompetenz von Kindern fördern. Es stellt sich heraus, dass oftmals nicht alle Möglichkeiten zur Förderung von Medienkompetenz ausgeschöpft werden. Im Wesentlichen wird Medienkompetenzförderung in Öffentlichen Bibliotheken durch Leseförderung betrieben. Die Veranstaltungsreihe „Drei SAMStage“ zeigt hingegen, dass es auch möglich ist mit geringen Mitteln Angebote zur Medienkompetenzförderung zu schaffen, die über die Leseförderung hinausgehen.
Bei der Zusammenarbeit zwischen Menschen kommt immer häufiger auch unterstützende Software zum Einsatz. Diese Kollaborationswerkzeuge werden oftmals in Form von Webapplikationen im Browser realisiert. Webapplikationen bieten entscheidende Vorteile, darunter eine einfache Einrichtung und kaum notwendige Konfiguration. Sie müssen nicht fest auf dem System eines Nutzers installiert werden und haben daher eine niedrigere Einstiegshürde, was vor allem bei spontaner Zusammenarbeit wichtig ist. Gleichzeitig stehen viele Menschen Webapplikationen kritisch gegenüber, vor allem weil bei ihrer Nutzung Daten auf zentralen Servern verarbeitet und gespeichert werden, die in der Regel nicht unter der Kontrolle des Nutzers stehen.
Neue Webtechnologien, wie WebRTC und IndexedDB, ermöglichen es Webapplikationen, Daten über eine direkte Verbindung untereinander auszutauschen und lokal zu speichern. Daraus ergibt sich das Potential, die Abhängigkeit von zentralen Servern zu reduzieren und somit einige Nachteile von Webapplikationen aufzuheben. Die vorliegende Arbeit untersucht die Machbarkeit von Kollaborationsanwendungen für die lokale Zusammenarbeit auf der Grundlage dieser neuen Webtechnologien. Basierend auf vorher in einer Kontextanalyse erhobenen Kriterien, wird eine Softwarearchitektur für eine Kollaborationsplattform im Webbrowser entworfen, die in weiten Teilen auf zentrale Infrastruktur verzichten kann. Anhand einer prototypischen Implementierung dieser Architektur wird ein Nachweis für die generelle Machbarkeit des Konzepts erbracht und es werden Herausforderungen bei dessen Realisierung identifiziert.
Der digitale Schwarzmarkt mit gestohlenen Daten floriert. Alleine im Jahr 2015 wurden über eine halbe Milliarde Datensätze aus Datenbanksystemen entwendet. Viele Unternehmen bemerken den Sicherheitsvorfall selbst nicht oder geben aus Angst vor einem Imageschaden den Vorfall nicht bekannt. Sind die Datenbestände nicht durch effektive Sicherheitsmechanismen vor Datendiebstahl geschützt, können Cyberkriminelle leicht aus den gestohlenen Daten Kapital schlagen. Die Softwarehersteller von Datenbanksystemen bieten für ihre Produkte unterschiedliche Schutzvorkehrungen an. Ziel dieser Ausarbeitung ist es, die Bedrohungen und die Sicherheitsrisiken von Datenbanksystemen aufzuzeigen und daraus die Aspekte der Datenbanksicherheit abzuleiten. Die ausgearbeiteten Sicherheitsaspekte bilden die Grundlage für den Vergleich der Datenbanksicherheit von relationalen Datenbanklösungen. Die anschließende Bewertung dient dem Nachweis und der Überprüfbarkeit der Datenbanksicherheit relationaler Datenbanksysteme.
Digitales Word-of-Mouth-Marketing: Status Quo und Anwendung für kleine Dienstleistungsunternehmen
(2022)
Das vorliegende Praxis Paper fasst die gewonnenen Erkenntnisse zum Status-Quo von digitalem Word-of-Mouth-Marketing und dessen Anwendung in kleine und Dienstleistungsunternehmen zusammen.
Es basiert auf der Bachelorarbeit von Herrn Jan-Luca Berheide, der von April 2022 bis Juli 2022 von Prof. Dr. Monika Engelen und Prof. Dr. Thomas Münster betreut wurde. Neben der Definition von Word-of-Mouth und Word-of-Mouth-Marketing wurde der Status Quo von digitalem Word-of-Mouth-Marketing recherchiert und unter Literaturbezug Faktoren für die Anwendung für kleine Unternehmen herausgear-beitett. Dabei lag der Fokus auf der Handwerksbranche.
Dieses Paper soll als grundlegender Einstieg in das Thema digitales Word-of-Mouth-Marketing dienen.
Immer kürzer werdende Technologielebenszyklen, sich schnell ändernde gesetzliche Anforderungen und der ständig wachsende Wettbewerb führen dazu, dass Unternehmen dem Zwang unterliegen sich schnell auf diese veränderten äußeren Bedingungen anzupassen. Die Optimierung der eigenen Geschäftsprozesse ist diesbezüglich eine wesentliche Aufgabe, da diese so gestaltet werden müssen, dass Anpassungen möglichst schnell und minimal invasiv erfolgen können. Eine Optimierungsmöglichkeit ist Geschäftsprozesse mit Hilfe von Prozessbeschreibungssprachen wie BPEL (Business Process Execution Language) oder BPMN (Business Process Modelling Notation) automatisiert ablauffähig zu machen. Diese Automatisierung trägt zum einen dazu bei, dass Fach- und IT-Abteilung über das Gleiche nämlich über Geschäftsprozesse reden. Zum anderen hilft die Automatisierung dabei, klassische Probleme wie beispielweise Medienbrüche zu vermeiden. Eine Vollautomatisierung ist dabei jedoch meist nicht möglich und auch nicht sinnvoll, da es in Geschäftsprozessen Entscheidungen beziehungsweise Aufgaben gibt, welche das Eingreifen eines menschlichen Akteurs erfordern. Diesen Sachverhalt haben auch die Plattform-Hersteller erkannt und Möglichkeiten bereitgestellt, welche die Integration menschlicher Interaktion in einen automatisiert ablaufenden Prozess ermöglichen. Die Integration mit Hilfe so genannter Tasks, welche von einer Task-Engine erzeugt und Akteuren oder Gruppen von Akteuren zugeordnet werden. Diese Tasks können über eine Tasklist-oder Inbox-Applikation durch entsprechend berechtigte Benutzer bearbeitet werden. Solche Applikationen werden in der Regel von den Plattformherstellern zur Verfügung gestellt (z.B. Oracle Worklist Application oder Activiti Explorer), oder können über ein mitgeliefertes API (Application Programming Interface) individuell programmiert werden. Die APIs sind allerdings häufig proprietär und unterscheiden sich von Hersteller zu Hersteller. Für die Anwenderunternehmen heißt dies, dass entweder die mitgelieferte Anwendung verwendet oder eine eigene erstellt werden muss. Die erste Variante bringt das Problem mit sich, dass die mitgelieferten Anwendungen meist nicht ins Corporate Design passen und sich nicht ohne weiteres in bestehende Unternehmensportale, oder ähnliches einfügen lassen. Die zweite Variante ist aufwendig, da in der Regel nicht zu unterschätzende zeitliche und damit auch monetäre Aufwände anfallen. Zudem machen sich Anwenderunternehmen abhängig vom Hersteller der Workflow-Engine, weil ein Wechsel der verwendeten Plattform auch die Re-Implementierung der Inbox-Anwendung bedeutet. Zusammenfassend betrachtet bestehen im Bereich der menschlichen Interaktion also Probleme in den Bereichen Portabilität und Interoperabilität. Zudem entsteht eine enge Kopplung zwischen Task-Engine und den Inbox-Applikationen. Im Bereich der menschlichen Interaktion liegt bei der OASIS (Organization for the Advancement of Structured Information Standards) seit einigen Jahren die WS-HT Spezifikation vor, welche eine standardisierte Integration menschlicher Interaktion in Service-orientierten Architekturen gewährleisten soll. Hierüber könnten die angesprochenen Probleme beseitigt werden. Problem dabei ist, dass die WS-HT Spezifikation von aktuellen Task-Engine Implementierungen nicht berücksichtigt wird. Um dennoch die bestehenden Probleme adressieren zu können, soll ein Adapterframework, basierend auf den Vorgaben der WS-HT Spezifikation definiert werden, konzipiert und implementiert werden, das die Funktionalitäten verschiedener Task-Engines über eine standardisierte Schnittstelle anbietet. Mit Hilfe diese Frameworks soll die enge Kopplung zwischen einer spezifischen Task-Engine und den Inbox-Applikationen aufgehoben werden.
Kategorisierung und Bewertung plattformübergreifender Ansätze für die Auswahl eines Frameworks
(2023)
Die plattformübergreifende Entwicklung ist eine populäre Art der Anwendungsentwicklung, die in der Forschung und Industrie immer weiter an Relevanz gewinnt. Dabei wird eine Codebasis geschrieben, die auf mehreren Betriebssystemen lauffähig ist. Das Ziel dieses Ansatzes ist es unter anderem, die Zeit- und Kosteneffizienz zu optimieren. Es gibt verschiedene Ansätze der plattformübergreifenden Entwicklung. Die einzelnen Frameworks lassen sich wiederum in diese Ansätze einteilen. Durch die steigende Akzeptanz dieser Art der Entwicklung herrscht eine zu große Auswahl an Frameworks, von denen jedes eigene Stärken und Schwächen aufweist. Dies ist ein Problem, da Entwickelnde keine Übersicht und Einordnung der Frameworks für ihre individuellen Bedürfnisse haben. Um diesem Problem entgegen zu wirken, wird in dieser Arbeit ein Verfahren entwickelt, mit dem das passende Framework für die Rahmenbedingungen des jeweiligen Projekts ermittelt werden kann. Dazu werden die Frameworks Kotlin Multiplatform, Flutter, React Native und Vue.js, das zur Umsetzung einer PWA genutzt wird, für eine mobile Anwendung getestet, die auf Android und iOS Geräten laufen soll. Zusätzlich werden 44 Kriterien ermittelt, anhand derer die Frameworks bewertet werden. Mit dem resultierenden Verfahren kann sowohl eine objektive, als auch eine subjektive Auswertung der Frameworks erfolgen, um eine geeignete Auswahl zu treffen.
Für Informationsvermittlungsstellen wird der Nachweis ihres Nutzens und einer wirtschaftlichen Arbeitsweise immer bedeutender. Controlling liefert wertvolle Instrumente hierfür. Diese Arbeit beschreibt die Schwierigkeiten, die im Zusammenhang mit Controlling von Informationsdienstleistungen auftreten: Probleme, welche sich durch die besondere Beschaffenheit des Faktors Information ergeben und solche die durch das Umfeld der IVS bedingt sind. Es werden Nutzenkomponenten der Ressource Information herausgearbeitet. Die Vorraussetzungen für die Einführung eines Leistungsbewertungs- und Kennzahlensystems sowie Berwertungsobjekte und -kriterien, Bwertungsebenen und -perspektiven werden beschrieben. Abschließend wird der Blick auf den Nonprofit-Sektor und hier schwerpunktmäßig auf den Öffentlichen Bereich gerichtet. Hier werden die Nachteile der Kameralistik sowie die durch die Verwaltungsreform verbesserten Möglichkeiten für eine wirtschaftliche Arbeitsweise und die Anwendung von Controllingmaßnahmen erörtert.
El presente artículo estudia las diferencias semántico-pragmáticas existentes entre las numerosas locuciones adverbiales que expresan rapidez en español partiendo de un análisis de su valor emotivo. El análisis tiene lugar sobre la base de ejemplos auténticos procedentes de Internet. También se proponen equivalencias en alemán, fraseológicas o no.
El proyecto diccionario español-alemán de locuciones del español de España de Colonia/Hamburgo
(2009)
Ya han pasado varios años desde que la revista Estudis Romànics tuvo la amabilidad de publicarnos una primera presentación de nuestro proyecto (cf. Torrent-Lenzen 2007), hoy todavía en curso, que consiste en la elaboración de un Diccionario español-alemán de locuciones del español de España. Entre tanto, hemos avanzado considerablemente en nuestro trabajo fraseográfico y también hemos ido modificando nuestros objetivos, con lo cual dicho artículo ha perdido actualidad. Es por esta razón que, estando más o menos “a mitad de camino”, queremos exponer de nuevo, en las páginas que siguen, los rasgos principales de nuestra obra, tal como la concebimos ahora después de que hayan madurado muchas ideas.
Informationsversorgung ist zu einem zentralen Thema geworden. Das gilt längst nicht mehr nur für die Wirtschaft. Auch für Privatpersonen wird die Beschaffung von umfassenden und aktuellen Informationen zu alltagspraktischen Fragestellungen immer wichtiger, um am gesellschaftlichen Leben teilzunehmen. Informationen dienen als Basis für richtige Entscheidungen, so daß die Nachfrage nach Informationen stetig ansteigt. Den Öffentlichen Bibliotheken bietet sich in dieser veränderten Gesellschaft die Chance, ihren Standpunkt neu zu definieren, denn sowohl der Informationsbedarf als auch das Informationsangebot steigen weiterhin zunehmend an. Mit konventionellen Mitteln alleine läßt sich diese Aufgabe für die Bibliothek aber nicht mehr länger bewältigen. Zu viele Informationen sind auf herkömmlichem Wege kaum noch erreichbar. Viele sonst schwer zugängliche Informationen bietet mit Sicherheit das Internet, welches von vielen Bibliotheken auch schon genutzt wird. Doch aufgrund der Strukturlosigkeit des Internets ist es oft schon ein Zufall, das zu finden, was man sucht. Auch die Korrektheit des Gefundenen ist im Internet nicht gewährleistet (vgl. Lipka, 1998, S. 107). Durch die Nutzung von Online-Datenbanken könnte die Informationsversorgungspflicht durch die Bibliotheken noch besser wahrgenommen werden. Durch Online-Datenbanken sind ständig aktuelle Informationen aus allen Wissensbereichen verfügbar. Hier werden Informationen angeboten, die auf herkömmlichen Wegen sonst oft kaum zu beschaffen sind. Aufgrund der Eignung von Bibliotheken als Standort für Online-Datenbanken war das Ziel dieser Untersuchung herauszufinden, wie verbreitet die Nutzung von Online-Datenbanken in Öffentlichen Bibliotheken in Deutschland tatsächlich ist, ob in Öffentliche Bibliotheken ein Markt für Online-Datenbanken vorhanden ist und ob durch Bibliotheken die potentiellen Kunden der Datenbankanbieter (Hosts) erreicht werden können.
Ziel dieser Arbeit war es, die Bildqualität verschiedener Endoskopiesysteme bei der Darstellung auf einem LC-Display zu vergleichen und bewerten. Die Ausarbeitung einer standardisierbaren Methodik zur Qualitätserfassung von Bildwiedergabeeigenschaften in der Endoskopie soll rein subjektive Bewertungsverfahren ablösen. Dazu wurden acht unterschiedliche Endoskopiesysteme von sechs Herstellern und der Flachbildschirm „LMD-2140MD“ der Firma SONY untersucht. Den Schwerpunkt der Arbeit stellt die Untersuchung der Farbwiedergabeeigenschaften dieser Systeme dar. Flachbildschirmen besitzen im Vergleich zu konventionellen Röhrenmonitoren veränderte Bildwiedergabeeigenschaften. Es wurden Messungen der Farbabweichung durchgeführt, gerätespezifischer Farbräume erstellt und das Leuchtdichteverhalten der Systemkomponenten untersucht. Die Auswertung der reproduzierbaren Messwerte der Leuchtdichte, der Farbsättigung und des Bunttons stellt objektive Kriterien zur Verbesserung der Bildqualität dar und soll eine farbtreue Darstellung auf LCDisplays ermöglichen.
Das vorliegende Paper beschreibt die im Rahmen von Industrie 4.0 als Einkauf 4.0 be-zeichnete Digitalisierung der Einkaufsfunktion. Neben einer grundlegenden Einführung zu Industrie 4.0 und den Haupttreiber stellt das Paper die Auswirkungen der Digitalisie-rung auf den Einkauf vor.
Es werden generell die Möglichkeiten, Einkaufsfunktionen zu digitalisieren, eine Aus-wahl an Studien zu Kosteneinsparungen und der aktuelle Stand der Umsetzung bei Un-ternehmen dargestellt sowie die Erkenntnisse zum Einsatz von Digitalisierung im Ein-kauf zusammengefasst.
Das Praxis Paper basiert auf der Bachelorarbeit von Johannes Blechmann, die von No-vember 2019 bis Februar 2020 von Prof. Dr. Monika Engelen (TH Köln) und Sven Düs-ter (VOSS Automotive GmbH) betreut wurde.
M&A-Transaktionen werden selten so erfolgreich, wie sie geplant wurden. Dies wirft immer wieder die Frage auf, ob die Entscheidung für die Transaktion eine „gute“, d. h. rationale Entscheidung war und ob der Prozess auf optimale Weise geführt wurde. Im Rahmen der Studie wurden Experten aus 24 DAX-30-Unternehmen zum Thema „Rationalität und Irrationalität im M&A-Prozess“ befragt. Wunsch und Wirklichkeit fallen demnach deutlich auseinander und gerade Faktoren, die die Rationalität in einem Prozess erhöhen sollen, können diese in eine ungewollte Richtung treiben: Wachstumsstrategie, Anreizsysteme, Gremienentscheidungen, Bewertungsmodelle, auch Eigeninteressen der Akteure und Emotionen spielen eine große Rolle. Die Experten bestätigen insbesondere die hohe Relevanz verhaltenstheoretischer Phänomene wie den Planungsfehlschluss, den Herdeneffekt, oder die Selbstüberschätzung im M&A-Prozess.
M&A-Transaktionen werden selten so erfolgreich, wie sie geplant wurden. Dies wirft immer wieder die Frage auf, ob die Entscheidung für die Transaktion eine „gute“, d. h. rationale Entscheidung war und ob der Prozess auf optimale Weise geführt wurde. Im Rahmen der Studie wurden Experten aus 24 DAX-30-Unternehmen zum Thema „Rationalität und Irrationalität im M&A-Prozess“ befragt. Wunsch und Wirklichkeit fallen demnach deutlich auseinander und gerade Faktoren, die die Rationalität in einem Prozess erhöhen sollen, können diese in eine ungewollte Richtung treiben: Wachstumsstrategie, Anreizsysteme, Gremienentscheidungen, Bewertungsmodelle, auch Eigeninteressen der Akteure und Emotionen spielen eine große Rolle. Die Experten bestätigen insbesondere die hohe Relevanz verhaltenstheoretischer Phänomene wie den Planungsfehlschluss, den Herdeneffekt, oder die Selbstüberschätzung im M&A-Prozess.
Die TH Köln hat sich in ihrer Transferstrategie 2025 zur Förderung von Existenzgründungen und Entrepreneurship Education positioniert. Für diese Positionierung ist es bedeutsam, den Status Quo der derzeitigen Start-up-Kultur an der TH Köln zu ermitteln. Die vorliegende Studie geht insbesondere den folgenden Fragen nach: Wie viele Studierende sind bereits selbstständig? Wie viele haben Interesse an dem Thema Existenzgründung? Welche Angebote, die die TH Köln bereits zur Verfügung stellt, sind bekannt und welche zusätzlichen Angebote werden gewünscht? Fühlen sich die Studierenden ausreichend informiert und welche Anregungen haben sie zur Etablierung und Förderung der Start-up-Kultur an der TH Köln?
Entrepreneurship im Kontext der Hochschulausbildung gewinnt immer mehr an Bedeutung und muss nachdrücklich im Hochschulalltag adressiert werden, um eine zukunftsfähige, unternehmerische Hochschule Gestalt annehmen zu lassen. Die Einbindung aller Stakeholder in einen Prozess der Bildung von gemeinsamen, transparenten Netzwerken, Fokussierung von Interdisziplinarität und Vermittlung von unternehmerischer Handlungskompetenz sind Eckpfeiler, um die Vision einer unternehmerisch denkenden und handelnden Hochschule Wirklichkeit werden zu lassen. Aufbauend auf der empirischen Erhebung zu Entrepreneurship & Start-up-Kultur an der TH Köln, erfolgte im Wintersemester 2017/18 eine weiterführende Erhebung hinsichtlich der bereits selbstständig tätigen Studierenden der TH Köln. Ziel der Umfrage ist die Untersuchung der Gründungsarten der Studierenden sowie die Erhebung von Informationen zu Finanzierungsarten, Hürden, Gründungsklima und gezielte Unterstützungsmöglichkeiten durch die TH Köln, um die Start-up-Kultur an der TH Köln weiter zu stärken.
Entrepreneurship im Kontext der Hochschulausbildung gewinnt immer mehr an Bedeutung und muss nachdrücklich im Hochschulalltag adressiert werden, um eine zukunftsfähige, unternehmerische Hochschule Gestalt annehmen zu lassen. Die Einbindung aller Stakeholder in einen Prozess der Bildung von gemeinsamen, transparenten Netzwerken, Fokussierung von Interdisziplinarität und Vermittlung von unternehmerischer Handlungskompetenz sind Eckpfeiler, um die Vision einer unternehmerisch denkenden und handelnden Hochschule Wirklichkeit werden zu lassen. Aufbauend auf der empirischen Erhebung zu Entrepreneurship & Start-up-Kultur an der TH Köln, erfolgte im Wintersemester 2017/18 eine weiterführende Erhebung hinsichtlich der bereits selbstständig tätigen Studierenden der TH Köln. Ziel der Umfrage ist die Untersuchung der Gründungsarten der Studierenden sowie die Erhebung von Informationen zu Finanzierungsarten, Hürden, Gründungsklima und gezielte Unterstützungsmöglichkeiten durch die TH Köln, um die Start-up-Kultur an der TH Köln weiter zu stärken.
Die TH Köln hat sich in ihrer Transferstrategie 2025 zur Förderung von Existenzgründungen und Entrepreneurship Education positioniert. Für diese Positionierung ist es bedeutsam, den Status Quo der derzeitigen Start-up-Kultur an der TH Köln zu ermitteln. Die vorliegende Studie geht insbesondere den folgenden Fragen nach: Wie viele Studierende sind bereits selbstständig? Wie viele haben Interesse an dem Thema Existenzgründung? Welche Angebote, die die TH Köln bereits zur Verfügung stellt, sind bekannt und welche zusätzlichen Angebote werden gewünscht? Fühlen sich die Studierenden ausreichend informiert und welche Anregungen haben sie zur Etablierung und Förderung der Start-up-Kultur an der TH Köln?
Die Analyse und Konzeption der Trinkwassernotversorgung setzt eine interdisziplinäre Zusammenarbeit unter anderem zwischen Gesundheitsämtern, Umweltämtern, Gefahrenabwehrbehörden und Wasserversorgungsunternehmen voraus. Die in dieser Arbeit durchgeführten Methoden gliedern sich in GIS-Analyse (Kritikalitätsanalyse), Beobachtung einer Inbetriebnahme eines Trinkwassernotbrunnens und eines Experteninterviews mit den Stadtwerken Düsseldorf AG und Netzgesellschaft Düsseldorf mbH auf. Es werden Erkenntnisse gewonnen, dass die Trinkwassernotbrunnen im Rahmen der Trink-wassernotversorgung mehr als eine mögliche Variable anstelle einer planbaren Konstante anzusehen sind. Die Anzahl und der Zustand der Trinkwassernotbrunnen sind in der Trinkwassernotversorgung nicht ausreichend. Es wird festgestellt, dass der Status quo wesentliche Lücken in der Konzeption der Trinkwasserversorgung aufweist, die organisatorisch mithilfe von Absprachen zwischen Behörden und Unternehmen und technisch durch beispielsweise Aufbereitungsanlagen gelöst werden können.
Am Phänomen der weiblichen Sexarbeit entzünden sich in Deutschland immer wieder heftige Debatten, welche vor allem Fragen rund um Geschlecht und Sexualität verhandeln. Häufig werden diese Debatten moralisch aufgeladen und unsachlich geführt, was eine differenzierte Einschätzung der Thematik erschwert. In der vorliegenden Arbeit werden die gegenwärtig dominierenden Perspektiven dahingehend analysiert, welche geschlechtertheoretischen Annahmen ihnen zugrunde liegen und welche Leerstellen und Verkürzungen sie jeweils mit sich bringen. Ausgehend von Andrea Maihofers Ansatz, Geschlecht als hegemonialen Diskurs und gesellschaftlich-kulturelle Existenzweise zu begreifen, wird anschließend dargelegt, wie komplex und widersprüchlich sich das Phänomen der weiblichen Sexarbeit im Kontext der bestehenden Geschlechterordnung darstellt und wie schwierig eine eindeutige und abschließende Beurteilung ist.
Mitarbeitermotivation in Start-Ups - Theoretischer Rahmen und praktische Handlungsempfehlungen
(2017)
Das vorliegende Paper fasst die Erkenntnisse zu Möglichkeiten der Mitarbeitermotivation in Start-Ups zusammen.
Es basiert auf der Bachelorarbeit von Herrn William Bork, die von Mai bis Juli 2017 von Prof. Dr. Monika Engelen betreut wurde. Neben einer Recherche der grundlegenden Theorie wurden die gewonnenen Erkenntnisse durch explorative Interviews mit Start-Ups ergänzt.
Der Kerninhalt dieses Papers ist sowohl das Verständnis für die Bedeutung von Arbeitsmotivation zu verdeutlichen als auch konkrete Ansätze zur positiven Beeinflussung der Arbeitsmotivation für Start-Ups aufzuzeigen.
In dieser Arbeit wird der Frage nachgegangen, inwieweit eine systematische Personalentwicklung auch im Management Öffentlicher Bibliotheken Beachtung findet. Bestehen im deutschen Bibliothekswesen überhaupt ausreichende Kenntnisse über Personalentwicklung? Stehen die Strukturen des öffentlichen Dienstes einer Personalentwicklung, wie sie in der freien Wirtschaft betrieben wird, nicht im Wege? Gerade im Dienstleistungssektor - zu dem Öffentliche Bibliotheken auch zu zählen sind - sind Qualifikation, Motivation und Leistungsbereitschaft des Personals von großer Bedeutung. Wird im Rahmen von Verwaltungsreformen die Chance ergriffen, im Bereich der Personalführung auch Maßnahmen der Personalentwicklung anzuwenden? Und welche Maßnahmen werden in den Bibliotheken tatsächlich umgesetzt?
Die vorliegende Arbeit befasst sich mit dem Berufsbild des wissenschaftlichen Bibliothekars aus historischer Perspektive. In ihr wird in chronologischer Weise die Entwicklung der verschiedenen Anschauungen zu Aspekten wie Ausbildung und Tätigkeitsspektrum beschrieben. Als Untersuchungsmaterial dienen thematisch einschlägige Publikationen von ca. 1800 bis heute. Ein besonderes Augenmerk gilt der Beziehung des Bibliothekswesens zur Wissenschaft sowie dem Selbstverständnis des Bibliothekars in diesem Kontext. Thematisiert wird unter anderem die traditionell „hybride“ Position des Fachreferenten als Mittler zwischen den beiden Sphären; plädiert wird (im Schlussteil) für neue Formen der Kooperation mit den Fachbereichen der Hochschule – unter Wahrung des eigenen Profils.
Moderne Verfahren des Information Retrieval verlangen nach aussagekräftigen und detailliert relationierten Dokumentationssprachen. Der selektive Transfer einzelner Modellierungsstrategien aus dem Bereich semantischer Technologien für die Gestaltung und Relationierung bestehender Dokumentationssprachen wird diskutiert. Am Beispiel des Gegenstandsbereichs „Theater“ der Schlagwortnormdatei wird ein hierarchisch strukturiertes Relationeninventar definiert, welches sowohl hinreichend allgemeine als auch zahlreiche spezifische Relationstypen enthält, welche eine detaillierte und damit funktionale Relationierung des Vokabulars ermöglichen. Die Relationierung des Gegenstandsbereichs wird als Ontologie im OWL-Format modelliert. Im Gegensatz zu anderen Ansätzen und Überlegungen zur Schaffung von Relationeninventaren entwickelt der vorgestellte Vorschlag das Relationeninventar aus der Begriffsmenge eines bestehenden Gegenstandsbereichs heraus. Das entwickelte Inventar wird als eine hierarchisch strukturierte Taxonomie gestaltet, was einen Zugewinn an Übersichtlichkeit und Funktionalität bringt.
In einer szientometrischen bzw. informetrischen Studie werden internationale wie deutschsprachige Zeitschriften der Informations-/Bibliothekswissenschaft und -praxis mittels Zitationsanalyse und Expertenbefragung analysiert. Die zitatenanalytischen Kennwerte umfassen den Impact Factor, die Halbwertszeit, die Zitierfreudigkeit, die relative Häufigkeit von Zeitschriftenselbstreferenzen sowie Soziogramme der einflussreichen Periodika. Der Fragebogen erhebt die Lesehäufigkeit, die Einsetzbarkeit der gelesenen Journale im Tätigkeitsbereich, die Publikationstätigkeit und die Publikationspräferenz sowohl für alle Respondenten als auch für abgrenzbare Gruppen (Praktiker vs. Wissenschaftler, Bibliothekare vs. Dokumentare vs. Informationswissenschaftler, öffentlicher Dienst vs. Informationswirtschaft vs. andere Wirtschaftsunternehmen). 50 informations- und bibliothekswissenschaftliche Periodika werden untersucht, darunter detailliert die deutschsprachigen Zeitschriften "ABI Technik", "Bibliothek. Forschung und Praxis", "Bibliotheksdienst", "BIT Online", "Buch und Bibliothek", "Internationales Symposium für Informationswissenschaft (ISI)", "NfD. Information: Wissenschaft und Praxis", "Password", "ProLibris" (früher: "Mitteilungsblatt der Bibliotheken in NRW"), "VÖB-Mitteilungen" sowie "Zeitschrift für Bibliothekswesen und Bibliographie".
Die Nutzung von Gamification zur Verbesserung der User Experience - Marktanalyse & Designfaktoren
(2020)
User Experience beschreibt die Wahrnehmungen und Reaktionen Benutzender zu einem System. Es umfasst die Gedanken und Emotionen, die Benutzende vor, während und nach der Nutzung eines Systems erfahren. In einer Zeit in der es zahlreiche digitale Systeme und Alternativen auf dem Markt zur Verfügung stehen, können sich voranging Systeme mit einer guten User Experience durchsetzen. Demnach kann User Experience als messbarer Erfolgsfaktor gesehen werden und dieses Verständnis darüber ist erforderlich für das Treffen von Designentscheidungen. Ziel dieser Arbeit ist es Aspekte aus Gamification, die zu einer Verbesserung der User Experience eines Systems beitragen, zu identifizieren und darzustellen. Bei Gamification handelt es sich um einen Gestaltungsprozess, der auf den Erfahrungen und Techniken des Game Designs basiert und die Gefühle und Motivationen von Menschen anspricht. Zur Ermittlung dieser Faktoren wurden mittels Literatur von, unter anderem, Huizinga und Chou relevante Aspekte spielerischen Verhaltens und grundlegende menschliche Motivationen betrachtet. Diese Erkenntnisse wurden zur Analyse der auf, dem Markt befindlichen, Systeme KptnCook und TooGoodToGo angewandt um relevante Design Faktoren zu ermitteln und darzustellen. Es wurde festgestellt, dass User Experience ein dreidimensionales Konstrukt bestehend aus den Faktoren ease-of-use, joy-of-use und purpose-of-use darstellt. Durch die Einbringung von Aspekten aus Gamification in ein System kann dieses gezielt auf die Vermittlung der Faktoren joy-of-use und purpose-of-use gestaltet und optimiert werden. Auf dieser Grundlage ist es empfehlenswert Gamification bei der Gestaltung von Systemen zu beachten um menschlichen Motivationen zur Nutzung eines Systems anzusprechen. Durch die Gestaltung mit Gamification können Benutzererlebnisse angefertigt werden, die unterhaltsam sind und Benutzende zu einer langfristigen Verwendung des Systems motivieren.
Bei AskA-Services handelt es sich um digitale Auskunftsdienste im Internet, die nicht von institutionalisierten Bibliotheken oder organisierten Gruppen von Bibliothekaren betrieben werden. Stattdessen werden sie entweder von nicht-kommerzielle Informationsdienstleistern (z.B. öffentlichen Institutionen, in seltenen Fällen auch Einzelpersonen bzw. kleinen Gruppen von Personen) oder aber von Firmen angeboten, die eine Gewinnabsicht verfolgen. Neben thematisch offenen Services gibt es auch solche, die sich auf bestimmte Themengebiete spezialisiert haben. Die Antworten, die der Kunde erhält, können von realen Personen gegeben oder automatisch erstellt werden. Außerdem können sie rein natürlichsprachig sein, lediglich auf andere Webseiten verweisen oder zusätzlich auch Literatur- oder Linklisten, Bilder, Grafiken, Tabellen o.ä. beinhalten. Grundsätzlich zu unterscheiden sind nicht-kommerzielle und kommerzielle AskA-Services. Letztere können in kostenlose und kostenpflichtige Angebote unterteilt werden. Die ersten nicht-kommerziellen Dienste gingen bereits zwischen 1993 und 1995 online. Dagegen stieg die Zahl der AskA-Services mit Gewinnerzielungsabsicht erst ab 1999 sprunghaft an. Neben theoretischen Ausführungen zur Definition der AskA-Services, ihrer Entwicklung und Typologie werden exemplarisch die AskA-Services AskJeeves.com, Webhelp.com, das MAD Scientist Network, Wer-weiss-was.de und Google Answers vorgestellt.
Im Titel der vorliegenden Arbeit wird bereits herausgestellt, dass eine Architektur von der Konzeption über die prototypische Implementierung bis hin zu einer ersten Validierung betrachtet wird. Dabei soll die Architektur dienstorientiert aufgebaut sein und sich für die Realisierung von Multimediaanwendungen eignen. In dieser Arbeit wird dazu zunächst allgemein in die Thematik der Dienstorientierung eingeführt und die jeweiligen Besonderheiten im Zusammenhang mit Multimediaanwen- dungen dargelegt. Im weiteren Verlauf wird die Architektur prototypisch umgesetzt und auf Grund der Implementierung eines Anwendungsszenarios validiert.
Immer mehr Teilbereiche des Semantic Web sind in den letzten Jahren erfolgreich umgesetzt geworden. Ebenso wird bei der Bearbeitung von komplexen Problemräumen mittlerweile oft auf semantische Modelle zurückgegriffen, um eine flexible Beschreibung der Domäne zu erstellen. Werkzeuge, welche die Entwicklung von Anwendungen, die auf semantischen Modellen basieren, unterstützen, sind bislang jedoch nur in begrenztem Maße verfügbar. Insbesondere die Verarbeitung von verteilten und dynamischen Modellen ist mit keinem der derzeit verfügbaren Produkte vollständig zu realisieren. Diese Arbeit untersucht die Möglichkeiten zur Integration von semantischen Modellen in objektorientierte Programmiersprachen. Es werden bestehende Ansätze analysiert und ein formales Modell der Integration erstellt. Das formale Modell wird in Form eines prototypischen Rahmenwerks in der Programmiersprache Ruby implementiert und validiert.
Das Semantic Web ist einer Erweiterung des aktuellen World Wide Web um eine maschinell verarbeitbare Dimension. In ihr wird es Agenten möglich sein komplexe Aktivitäten für den menschlichen Benutzer durchzuführen und automatisch relevante Informationen im Web zu finden. In dieser Arbeit werden wir die semantische Modellierung von Informationen im Bereich Internetfernsehen behandeln. Wir werden die gänginen Technologien und Methoden erläutern, sowie diese am Beispiel eines Prototypen für den studentischen Internetsender Zucker TV anwenden.
Soft Skills, zu deutsch "weiche Fähigkeiten", sind die Kompetenzen, die über fachliche Qualifikationen hinausgehen, wie beispielsweise Teamfähigkeit, Kommunikationstalent und Durchsetzungsvermögen. In dieser Arbeit wird der Frage nachgegangen, inwieweit Soft Skills in der Praxis bibliothekarischer Arbeit Beachtung finden. Über welche Persönlichkeitsmerkmale sollten Bibliothekare verfügen? Wie sieht der Berufsalltag in Bibliotheken heute aus? Welche Tätigkeiten werden vorwiegend ausgeübt? Wie ist Stand der technischen Ausstattung? Finden auch Maßnahmen der Personalentwicklung und Mitarbeitermotivation statt? Ergänzend dazu soll festgestellt werden, ob es Unterschiede in der Bewertung je nach Bibliotheksgröße und -typ gibt. Dieser Band behandelt die verschiedenen Formen von Kompetenzen, Fähigkeiten und Kenntnissen sowie ihre Bedeutung für den Alltag bibliothekarischer Arbeit und beschäftigt sich mit den Themen Personalentwicklung und Mitarbeitermotivation, die zunehmend an Bedeutung gewinnen. Die theoretische Darstellung beruht auf Vorarbeiten aus Bibliothekswesen, Betriebswirtschaftslehre und Organisationspsychologie. Um den derzeitigen Stellenwert der Soft Skills im bibliothekarischen Alltag bewerten zu können, beinhaltet die Studie die Ergebnisse einer Umfrage, die unter rund 100 Bibliotheken durchgeführt wurde (Rücklaufquote der Fragebogen: 82%). Das Gesamtergebnis befindet sich in Form von Diagrammen und Tabellen im Anhang. Überdies wird eine Verbindung zwischen Theorie und Praxis hergestellt.
Die Grundlage für das Datenmodell einer Arztpraxis sind alle relevanten Daten, die zum Betrieb einer Arztpraxis notwendig sind. Aktuell werden die Daten mittels einer Praxisverwaltungssoftware (PVS) erfasst, in einem proprietären Datenformat gespeichert und im Weiteren für die Abrechnung aufbereitet. Dabei ist es seit Mai 1989 möglich, dass die Abrechnung per Diskette erstellt wird. Für die Aufbereitung der Daten wurde zuerst der Abrechnungsdatenträger (ADT) und seit dem 1. Juli 1999 ist es Pflicht die Abrechnung über den KV – Datenträger (KVDT) zu verwenden. Damals wurde kein einheitliches Datenmodell eingeführt, welches über den Abrechnungsdatenaustausch hinaus geht. Dadurch ist es nur sehr beschränkt möglich, Daten zwischen den einzelnen Systemen auszutauschen. So ist es für einen Arzt äußerst schwierig auf ein neues PVS – System umzusteigen. Um einen Eindruck über die Vielfalt und Menge der verschiedenen PVS – Systeme zu vermitteln, werden im Folgenden die Anzahl der KVDT – Zulassungen und der Labordatenträger – Zulassungen (LDT–Zulassungen) beschrieben. Zum dritten Quartal 2005 sind 2541 PVS – Systeme von der Kassenärztlichen Bundesvereinigung (KBV) für den gesamten oder Teile des KVDT zugelassen. Des Weiteren sind 742 PVS – System – Hersteller für die Datenübertragung mittels des gesamten oder Teile des Labordatenträgers zugelassen. Seit dem 1. Januar 2004 sind die Ärzte, mit wenigen Ausnahmen, gesetzlich dazu verpflichtet, die Abrechnung elektronisch durchzuführen. Deswegen haben einige Ärzte aus Kostengründen eine Individuallösung konzipiert, die ausschließlich in ihrer Arztpraxis verwendet wird. Aber auch diese Lösungen müssen von der KBV zertifiziert werden. Diese Lösungen werden zu den zugelassenen PVS – Systemen gezählt. Zum dritten Quartal 2005 sind 373 Individuallösungen zugelassen. Die in einer Arztpraxis anfallenden Daten müssen für den geregelten Praxisbetrieb vom PVS – System verwaltet, gespeichert und zum Teil auch zum Datenaustausch nach außen kommuniziert werden. Dabei werden die Daten von jedem Hersteller unterschiedlich erfasst und weiterverarbeitet. Des Weiteren ist die Repräsentation dieser Daten nicht einheitlich und beinhaltet verschiedene Arten von Daten. Diese Daten sind unter anderem Verwaltungsdaten, Abrechnungsinformationen und medizinische Informationen. Die von den Herstellern der Praxisverwaltungssoftware zu Grunde gelegten Datenmodelle sind unabhängig voneinander und nicht standardisiert. Dabei extrahiert jede Praxisverwaltungssoftware die Daten, die es für wichtig hält und repräsentiert diese in einem eigenen Format. Dadurch ergibt sich die Schwierigkeit, dass die Interoperabilität der Systeme sowohl in funktioneller als auch in semantischer Sicht eingeschränkt ist. Die Lösung dieser Probleme ist ein einheitliches Datenmodell mit entsprechender Schnittstelle, die das Ergebnis der vorliegenden Arbeit darstellt.
Inhalt dieser Arbeit ist die Entwicklung eines Software Agenten, der auf Basis des WWW Wissen akquiriert, extrahiert und dieses so aufbereitet, dass es maschinell weiter zu verarbeiten ist. Eine Task Sprache, die gesammelte Daten entsprechend aufbereitet, soll gefunden, entwickelt und beispielhaft verwendet werden. Diese Task Sprache soll als Meta-Sprache für Roboter so zu verwenden sein, dass sie in einem Roboter in ausführbaren Code umgewandelt wird und dieser die enthaltenen Arbeitsschritte mit vorhandenen Materialien und Arbeitsgeräten durchführen kann.
Im Rahmen dieser Arbeit wurde eine Software auf Basis von Java und ImageJ zur automatischen Auswertung von Prüfkörperperaufnahmen nach PAS 1054 entwickelt. Drei Hauptaspekte standen im Vordergrund: Entwicklung einer benutzerfreundlichen Oberfläche, eine automatische Prüfkörperpererkennung bei Aufnahmen von Modalitäten verschiedener Hersteller, sowie die Implementierung eine Algorithmus zur Messung der SFR (Spatial Frequency Response). Diese Software wurde in eine bereits bestehende Softwarestruktur eingefügt. Außerdem wurde eine Sicherung der Messergebnisse als Textdatei und verschiedene kleine Modifikationen in die bestehende Version implementiert.
Diese Bachelorarbeit erläutert das Vorgehen bei der Erstellung einer Applikation für mobile Endgeräte, die einen dialogorientierten 3D-Charakter darstellt, der auf die Eingaben des Benutzers reagiert. Erläutert wird hierbei auch die historische Entwicklung der Mensch-Maschinen-Kommunikation. Darauf folgt ein Überblick über die, im Bereich der mobilen Endgeräte verfügbare, Hard- und Software sowie deren Architektur. Weitere Teile befassen sich mit den in der Applikation genutzten, selbst erstellten Methoden zur Textanalyse und Antwortgenerierung, sowie der Kombination aller Komponenten zu einem Endprodukt.
Ein Problem unserer heutigen Informationsgesellschaft ist, dass Ärzte neuen technischen Systemen immer mit großem Argwohn begegnen und dies nicht zu unrecht. Denn immer wieder wird unser Vertrauen in Systeme durch große Missbrauchsskandale erschüttert. Doch sind technische Systeme wie medizinische Semantic Web Anwendungen ein nächster Schritt zu einer verbesserten medizinischen Versorgung.
Deshalb ist das Ziel dieser Arbeit für medizinische Semantic Web Anwendungen Ansätze für Normen und Architekturen zur Schaffung von Vertrauen zu finden. Hierzu wird erst das Vertrauen aus unterschiedlichen Blickwinkeln betrachtet und danach medizinische Semantic Web Anwendungen als sozio-technisches System. Dazu wird der der soziale Kontext des deutschen Gesundheitswesens betrachtet. Zusätzlich wird untersucht wie ein technisches System diesen Kontext verändern könnte.
Aus diesen drei Kategorien werden Normen definiert. Auf diesen Normen aufbauend werden Ansätze für Architekturen formuliert, welche das Vertrauen steigern sollen. Dazu werden schon vorhandene medizinische Ontologien beleuchtet, um den Ansätzen eine Basis zu geben.
Diese Ansätze für Architekturen werden als einzelne Bausteine zu einem größeren Ansatz zusammengefügt. Zuerst wird dieser größere Zusammenhang vorgestellt und danach werden einige Bausteine im Folgenden weiter beschrieben. Unter diese Bausteine fallen Kontrollinstanzen und deren Services sowie Zertifizierungsstellen mit unterschiedlichen Arten von Zertifikaten. Die meisten dieser Bausteine
sind jedoch Agenten mit den verschiedensten Aufgaben, auf welche genauer eingegangen wird. Die Qualität der Ontologien sollen diese einerseits als wichtigen Aspekt des Vertrauens verbessern und überwachen. Andererseits dienen weitere Agenten wiederum der Kommunikation untereinander oder der üblichen Akquisition von Informationen.
DesWeiteren bauen diese Agenten ein Vertrauensnetzwerk untereinander auf. Das Vertrauen zu anderen Agenten wird dabei mit unterschiedlichen Attributen dargestellt und liegt dezentral bei jedem Agenten oder kann ebenfalls von zentralen Services erfragt werden. Ein Austausch der Informationen unter den Agenten ist ebenso möglich. Diese Architektur mit einer Vielzahl von Agenten und das daraus
resultierende Vertrauensnetzwerk soll schließlich ein grundlegendes Vertrauen schaffen, auf welchem medizinische Semantic Web Anwendungen aufbauen können.
Krankenhäuser stellen eine wichtige Kritische Infrastruktur im Bereich des Gesundheitssektors dar, deren Funktionsfähigkeit bei allen Gefahrenlagen erhalten bleiben muss. Durch Interdependenzen mit anderen Kritischen Infrastrukturen, wie der Trinkwasserversorgung, kann ein Ausfall einer der Infrastrukturen zu einer Beeinträchtigung der jeweils anderen führen. Trinkwasser ist für den Menschen lebensnotwendig und muss daher überall in ausreichender Quantität und Qualität bereitgestellt werden (öffentlichen Daseinsvorsorge). Die Trinkwasserversorgung stellt eines der kritischsten Infrastrukturelemente in Krankenhäusern dar, deren Ausfall zu einer Gefährdung der quantitativen und qualitativen Gesundheitsversorgung führt. Die Vergangenheit hat gezeigt, dass Trinkwasserausfälle in Krankenhäusern keine Seltenheit darstellen und zu weitreichenden Beeinträchtigungen führen. Bei Großstörungen bzw. Großschadenslagen oder Katastrophenfällen, ist daher die kommunale Gefahrenabwehr/ der Katastrophenschutz in der Pflicht, zusammen mit anderen Akteuren Krisenmanagement- bzw. Maßnahmenplanungen zu erarbeiten. Dennoch existieren zurzeit fast keine adäquaten Krisenmanagementplanungen für die Herstellung einer Ersatztrinkwasserversorgung für Krankenhäuser. Dies gilt sowohl für die Krankenhäuser im Rahmen der Krankenhausalarm- und Einsatzplanung, als auch die kommunale Gefahrenabwehr bzw. den Katastrophenschutz und Wasserversorgungsunternehmen (WVU).
In dieser Master-Thesis, die im Sommersemester 2018 an der TH Köln erarbeitet wurde, sollte durch eine umfassende Risikoanalyse, unter Zuhilfenahme von Experteninterviews und Dokumentenanalysen das Risiko und die Folgen eines vollständigen Trinkwasserausfalles in einem Krankenhaus dargestellt und der aktuelle Stand der geplanten Bewältigungs- bzw. Krisenmanagementplanungen von Behörden und Organisationen mit Sicherheitsaufgaben (BOS), dem örtlichen WVU und des Krankenhauses für eine solche Schadenslage erhoben werden. Wurden die geplante Krisenmanagementplanungen als unzureichend oder nicht existent identifiziert, so sollten, wenn möglich, Vorschläge für neue Krisenmanagementkonzepte und Kapitel für den Krankenhauseinsatzplan erstellt werden, wofür ungenutzte Ressourcen für die Etablierung einer Ersatztrinkwasserversorgung ermittelt wurden. Die Analyse erfolgte durch eine Einzelfalluntersuchung anhand des Hauptgebäudes des Krankenhauses Merheim in Köln mit dem Szenario einer lokalen Lage, die nicht durch Kontamination des Wassers induziert ist und deren genaue Ursache nicht betrachtet wird. Um mögliche zukünftige Maßnahmen erarbeiten zu können, musste im Rahmen der Analyse der minimale Trinkwasserbedarf des Untersuchungsgebietes bzw. der einzelnen Funktionsbereiche erhoben und Kriterien für die Geeignetheit von Maßnahmen zur Ersatztrinkwasserversorgung erarbeitet werden. Diese Kriterien sind: Vorlaufzeit, Einhaltung der Trinkwasserverordnung, Versorgungskapazität und Verfügbarkeit von Versorgungsquellen. Für die Berechnung der Kritikalität wurde eine eigene Berechnungsmethode erarbeitet, die im Rahmen der Schutzzieldefinition eine Kritikalitätsanalyse ermöglicht, welche die Bedeutung des Gesamtobjektes und der einzelnen Prozessbausteine einbezieht. Das hier hergeleitete Schutzziel lautet: Verhinderung von Todesfällen bei Patienten durch die angenommene Gefahr und durch das ausfallbedingte Unterlassen von Behandlungsmaßahmen, die nicht anderweitig, durch z.B. Abmeldung von der örtlichen Notfallversorgung oder einer Evakuierung und Verlegung der Patienten, kompensierbar sind.
Das übergeordnete Ziel dieser Arbeit ist zusammengefasst die Identifikation der geplanten Maßnahmen zu Ersatztrinkwasserversorgung des Krankenhauses Merheim bzw. ggf. nicht vorhandenen Maßnahmen und somit die Feststellung, ob die Problematik des angenommenen Szenarios von allen Akteuren ausreichend betrachtet wird. Es soll das Bewusstsein für die Notwendigkeit und die Verantwortlichkeiten bzw. Zuständigkeiten von Krisenmanagementplanungen inkl. der Schnittstellenproblematik erhöht werden. Auf Grundlage dieser Arbeit können die Feuerwehr, Hilfsorganisationen, das Technisches Hilfswerk, der Wasserversorger und das Krankenhaus zukünftige Planungen begründen und die Ergebnisse für die Planung einer Ersatztrinkwasserversorgung für das Krankenhaus Merheim nutzen. Das Bundesamt für Bevölkerungsschutz und Katastrophenhilfe, das diese Arbeit ebenfalls betreut hat, möchte diese Arbeit zudem dafür verwenden, weiterführende Konzepte und Leitfäden zu entwickeln.
Hinsichtlich der Erfüllung des Schutzzieles wurde das Krankenhaus Merheim an sich und als Prozessbausteine insbesondere die Intensivstationen als sehr verwundbar identifiziert, was im Rahmen der Analyse zu einem sehr hohen Gesamtrisiko führte. Weitere Prozessbausteine mit sehr hohen Risikowerten sind die Reinstwasseraufbereitungsanlage, die Zentralwäscherei, das Zentrallabor, die Zentralsterilisation und die Anästhesiologie. Durch die sehr hohen Risikowerte und den maximalen Trinkwasserbedarf des Krankenhauses von 150m³/h (eine Ermittlung des minimalen Bedarfes war nicht möglich) lässt sich ein hoher Handlungsbedarf für Krisenmanagementplanungen für den Fall eines Trinkwasserausfalles in dem Krankenhaus ableiten. Die Analyse der Krisenmanagementplanungen hat ergeben, dass keine Maßnahmen zur Krisenbewältigung eines Trinkwasserausfalles im Krankenhaus Merheim existieren. Dies betrifft alle einbezogenen Akteure. Auch eine Einspeisestelle für eine Ersatztrinkwasserversorgung und andere Redundanzsysteme sind im Krankenhaus Merheim nicht vorhanden. Die redundante Ausgestaltung der Trinkwassereinspeisung aus dem öffentlichen Netz in das Privatnetz des Krankenhauses ist dabei nur bei einem Versorgungsausfall auf Seiten des öffentlichen Trinkwassernetzes wirkungsvoll. Eine Ersatztrinkwasserversorgung wäre mit den in der Stadt Köln vorhandenen Ressourcen ausreichend gestaltbar. Verfügbare und geeignete Kapazitäten sind bei der Feuerwehr Köln, privaten Firmen mit Tanklastzügen, der Bundespolizei und Hilfsorganisationen identifiziert worden. Bei den durchgeführten Interviews wurde von fast allen Akteuren eine hohe Relevanz des Themas und der hohe Bedarf an Planungen bestätigt. Jedoch ist durch die bestehende Mangelplanung und der Vernachlässigung von Übungen zur Not- und Ersatztrinkwasserversorgung (z.B. Inbetriebnahme Trinkwassernotbrunnen) davon auszugehen, dass bisher ein mangelndes Problembewusstsein und Unstimmigkeiten bezüglich der Zuständigkeiten bei den verantwortlichen Stellen vorlag. Die Kommune (bzw. hier die Stadt Köln) sollte daher alle Beteiligten zusammenbringen, über die Verantwortlichkeiten bzw. Zuständigkeiten aufklären und einen kooperativen Planungsprozess initiieren. Eine eigene Planung, im Rahmen dieser Arbeit, in Form eines Kapitels für den Krankenhauseinsatzplan und Krisenmanagementplänen für die Gefahrenabwehr bzw. den Wasserversorger konnte durch das Fehlen einer Trinkwassereinspeisestelle in das Krankenhaus nicht erstellt werden. Jedoch war es möglich ein kurzes Kapitel für den Krankenhauseinsatzplan zu erstellen, das auf die weitreichenden Folgen eines Trinkwasserausfalles aufmerksam macht und Anweisungen zum schnelleren Übergang zu einer Evakuierung/Räumung liefert. Durch das so erreichte schnellere Handeln, könnten zumindest viele weitere Folgeschäden bei den Patienten verhindert werden. Überlegungen dahingehend, ob eher präventive oder zur Selbsthilfe befähigende Maßnahmen statt Bewältigungsplanungen in Betracht gezogen werden sollten, sind durchzuführen.
Im Rahmen dieser Bachelorarbeit an der Technischen Hochschule Köln, deren Bearbeitungszeit vom 20.1.2017 bis 24.3.2017 ist, wird durch ein technisches Experiment geprüft, ob diverse Technologien zur 3D-Erfassung und Rekonstruktion geeignet sind Gebäudeinnenräume so zu erkunden, dass die Gefahrenabwehr dadurch einen höheren Nutzen hat, als es bei einer persönlichen oder autonomen Videoerkundung der Fall ist. Dies soll vor allem dann helfen, wenn Gebäude nicht mehr betreten werden sollten, wie es beispielsweise der Fall ist, wenn das Gebäude durch Erdbebenschäden einsturzgefährdet oder mit Gasen kontaminiert ist. 3D-Modelle einer Umgebung haben u.a. den Vorteil, dass problemlos neue Blickwinkel eingenommen, Maße ermittelt und Planungen für Rettungseinsätze oder Evakuierungen effizienter durchgeführt werden können, ohne Bildmaterial aufwendig zu sichten. Zudem können die Ergebnisse für spätere Evaluationen und Trainings genutzt werden. Um diese Geeignetheit festzustellen werden Beurteilungskriterien erarbeitet, die ein potentielles System erfüllen muss. Diese Kriterien sind: Günstig in der Beschaffung, Zeit bis zu einer 3D-Darstellung, leichte Bedienbarkeit, Qualität bzw. Informationsgewinnung aus der Darstellung (Erkennung von Zugängen und Personen), Lieferung von Zusatzinformationen (beispielsweise Maßangaben) und ob das System Online oder Offline funktionsfähig ist. Um diese Kriterien beurteilen zu können, werden Systeme der drei Haupttechnologien in der 3D-Erfassung (Laserscanner GeoSLAM ZEB-REVO, RGB-D-Kamera Microsoft Kinect und FARO Freestyle3D, Fotogrammetrie mit der Software Agisoft PhotoScan) in einem Versuch überprüft. Dabei wird das Labor für Großschadensereignisse der Technischen Hochschule Köln, der angrenzende Flur und das angrenzende Treppenhaus gescannt bzw. erfasst und rekonstruiert, wobei die nötigen Daten ermittelt werden. Dabei stellt sich heraus, dass der FARO Freestyle3D mit seiner RGB-D-Technologie und der Software FARO Scene als einziges System alle Kriterien erfüllt und somit für den Zweck der Erkundung in diesem Kontext geeignet ist. Der Microsoft Kinect Sensor mit der Software FARO Scene hat, durch Fehler in der Rekonstruktion, Schwächen in der Darstellungsqualität. Dies gilt auch für die Kombination aus GeoS-LAM ZEB-REVO/CloudCompare, da hiermit kein Farbscan erstellt werden kann und somit eine Erkennung von Objekten (z.B. geschlossene Türen) erschwert wird. Die Fotogrammetrie dauert mit einer Berechnungsdauer von ca. 38 Stunden zu lange, um in Notfallsituationen einen Nutzen zu bieten und liefert außerdem falsche Maßangaben.
Nicht näher betrachtet wird in dieser Arbeit die (autonome) Erkundung durch Roboter oder Drohnen, die die Geräte transportieren können, Strom- und Datenübertragungsproblematiken, andere ergänzende Sensortechniken und die Erkundung in dunkler Umgebung.
Bei moderner Software kommt es auf verschiedene Faktoren an. Der erste für den Anwender zunächst sichtbare Faktor ist die Bedienungsfreundlichkeit des Produktes. Der zweite wichtige Faktor ist die Verwendbarkeit des Produktes auf verschiedenen Hardwareplattformen. Dies ist vor allem für Programme wichtig, die sich an einen großen Kundenkreis richten, da man nicht davon ausgehen kann, oder sollte, dass überall das gleiche Betriebssystem eingesetzt wird. Des weiteren wird so auch ein Umstieg auf ein anderes System erleichtert. Für das Softwarehaus selber ist die Wartbarkeit des Produktes von entscheidender Bedeutung. Objektorientierte Programmierung bietet hier durch Vererbungstechniken, Datenkapselung und ähnlichem die besten Voraussetzungen. Auch der Einsatz von Entwurfsmustern, also lange bewährten Konzepten objektorientierter Entwicklung, ist hier von Vorteil. Eine Datenbankanbindung ist für fast jede kommerzielle Software notwendig. Hierbei ist es auch von Vorteil sich nicht an eine spezielle Datenbank zu binden. Ein Mittel hierzu ist es die Datenbanksprache SQL und offene Datenbanktreiber wie etwa ODBC zu benutzen. Bei vielen Programmen ist es auch von Vorteil, wenn sie von Anfang an als verteilte Systeme entworfen werden. Verteilte Systeme haben den Vorteil, dass jedes Modul an einem anderen Ort sein kann und entweder über eine ständige oder aber auch eine temporäre Internetverbindung miteinander synchronisiert werden können. In dieser Arbeit werde ich anhand eines Praxisbeispieles beschreiben, wie man all diese Faktoren in ein Softwareprodukt unterbringt, und wie die Entwicklung aussieht.
PubMed stellt mit 21 Mio. Aufsatzzitaten eines der umfangreichsten Informationssysteme in Bereich der Medizin. Durch die Verwendung einer einheitlichen Terminologie (Medical Subject Heading - MeSH) bei der Indizierung von PubMed Inhalten kann die Orientierung in solch großen Datenbeständen optimiert werden. Zwar bietet ein kontrolliertes Vokabular bei der Informationsbeschaffung zahlreiche Vorteile gegenüber einer Freitextsuche doch fällt Nutzern das Abbilden eines Informationsbedarfs auf die verwendete Terminologie oftmals schwer. In dieser Arbeit wird eine Systemunterstützung geschaffen, die den Abbildungsprozess automatisiert indem eine automatische Verschlagwortung textbasierter Inhalte unter Verwendung eines kontrollierten Vokabulars vorgenommen wird. Durch die Verwendung einer einheitliche Terminologie kann so eine konsistente Integration von PubMed Inhalten erreicht werden.
Dieses Schulungskonzept wurde vor allem von der Erstautorin als praktische Methodensammlung für Einrichtungen und Personen entwickelt, die pflegende Angehörige unterstützen und beraten. Das Konzept integriert zwei Ansätze, nämlich die Gelassenheitsförderung durch Introvision nach Wagner und die Gewaltfreie Kommunikation (GFK) nach Rosenberg.
Existiert das "gläserne" Unternehmen? Sind die letzten Geheimnisse der Konkurrenz bereits gelüftet? Gibt es sichere Entscheidungen durch Allwissenheit? Ist Industriespionage heute überflüssig? Diese Fragen drängen sich mit dem immer weiter wachsenden Angebot an Datenbanken geradezu auf. Anhand der Untersuchung einiger renommierter Datenbanken wird versucht, darauf eine Antwort zu finden. Ausgangspunkt ist die Definition des Begriffs "Firmeninformationen". Bisher wird dieser Begriff offensichtlich je nach Bedarf ausgelegt. Anschließend wird das Feld der Firmeninformationen in seine Bestandteile zerlegt, um zu zeigen, daß dazu nicht nur die einfachen Fakten wie Mitarbeiterzahl oder Umsatz gehören. Im zweiten Kapitel werden die einzelnen Datenbanktypen mit ihren Inhalten vorgestellt. Das dritte Kapitel befaßt sich mit Kriterien, die für die Qualität von Firmeninformationsdatenbanken entscheidend sind. Im Anschluß erfolgt eine Analyse des Datenangebotes. Untersucht wurde das Angebot ausgewählter Datenbanken zu den Unternehmen "Aldi" und "Henkel KGaA".
In dieser Bachelorarbeit wird das Thema Big Data und die damit verbundenen Technologien, sprich NoSQL und Hadoop behandelt. Das Thema wurde bewusst ausgewählt, weil sie zum einen aktuell und zum anderen immer mehr an Bedeutung, aus Sicht der Unternehmen gewinnt. Durch die ständig anwachsenden Daten, die zu 80% in Semistrukturierter Form vorliegen, stößt die IT-Infrastruktur eines Unternehmens schnell an seine Grenzen. Und genau an dieser Stelle sollen die Big Data Technologien, wie „NoSQL“ und „Hadoop“, helfen, die so großen Datenmengen zu verarbeiten, um für das Unternehmen, wertvolle Informationen zu liefern, die bislang nicht ersichtlich waren.
Analytisches Berechnungsmodell ohne empirische Exponentenansätze : Rauchentwicklung bei Bränden
(2002)
Es wird ein analytisches Berechnungsmodell zur Rauchentwicklung über einem Brandherd vorgestellt, das auf der Annahme der Wärme- und Impulserhaltung in der aufsteigenden Rauchsäule basiert, sowie der Kenntnis des Ausbreitungswinkels. Beobachtungen zufolge beträgt der halbe Ausbreitungswinkel etwa 7° bis 8°. Ein Vorteil des Modells gegenüber anderen, meist empirischen "PLume-Formeln" liegt darin, dass erstmals die drei wichtigsten Einflussparameter der Brandrauchausbreitung (Wärmefreisetzungsrate, Brandfläche, Raumhöhe) gemeinsam berücksichtigt werden und es keine versuchsbedingten Gültigkeitsgrenzen gibt.
Um diesen Mangel an Daten zu Cyber-Risiken entgegenzuwirken und um den Status Quo der Datenverfügbarkeit von Cyber-Risiken zu überprüfen, wurde um Rahmen dieser Forschung eine systematische Übersicht angefertigt, um Stakeholder von Cyber-Risiken
eine Datenbank von öffentlich zugänglichen Daten zu Cyber-Risiken und Cybersecurity zur Verfügung zu stellen. Im Fokus dieser Untersuchung standen Datensätze, welche in der akademischen Literatur verwendet wurden.
Die Bedeutung von Cyber-Versicherungen als Instrument zur finanziellen Absicherung, um die zunehmenden Unternehmensverluste durch Cyber-Risiken abzumildern, nimmt zu. Es mangelt jedoch an standardisierten Wordings und gegenseitigem Verständnis bei Cyberversicherungs-Policen. Mit weniger als einem Drittel der 2017 in den USA ausgezahlten Cyberversicherungsansprüche besteht eine erhebliche Lücke zwischen den Cyber-Risiken, die Unternehmen abdecken müssen, und denen, die tatsächlich durch ihre Cyberversicherungspolicen abgedeckt sind. Im Jahre 2018 wurde von Lloyds of London eine Schätzung mithilfe von Szenario-basierten Modellen durchgeführt, um zu ermitteln, wie groß die Versicherungsschutzlücke im Hinblick auf Cyber-Risiken ist. Man ist dabei zu dem Ergebnis gekommen, dass die Versicherungsschutzlücke ungefähr 90 % beträgt. Der Begriff bezeichnet die Differenz zwischen dem Versicherungsschutz, welcher ökonomisch benötigt wird und dem tatsächlich gekauften.
Diese Forschung befasste sich mit den deutschen Cyber-Versicherern, welche Cyber-Schutz für kleine und mittelständische Unternehmen (KMU) anbieten. Im Rahmen dieser Forschung wurden nur die Ausschlüsse von Cyber-Versicherungen betrachtet. Zusätzliche erweiterbare oder kostenpflichtige Einschlüsse wurden nicht berücksichtigt. Als Grundlage für die Forschung wurde ein Datensatz erstellt, welcher auf Informationen der BaFin basiert. Durch mehrere Segmentierungsstufen wurden 50 Cyber-Versicherer ermittelt, welche Cyber-Schutz für KMUs angeboten haben. Von diesen 50 Cyber-Versicherern konnten 41 Cyber-Bedingungswerke für das Forschungsprojekt herangezogen werden. Im Rahmen der Forschung wurden nun die Bedingungswerke mittels einer induktiven qualitativen Inhaltsanalyse auf die bestehenden Ausschlüsse analysiert. Die Ergebnisse wurden kategorisiert und beschrieben. Innerhalb der Analyse konnten 15 Ausschlusskategorien sowie deren Häufigkeiten in den Cyber-Bedingungen ermittelt werden. Diese Ergebnisse können dazu beitragen, dass Unternehmen eine Vorstellung davon erhalten, was nicht in den Cyber-Versicherungen enthalten sein könnte. Zudem liefern die Beschreibungen eine Informationsgrundlage und tragen so dazu bei, dass der Versicherungsschutz bzw. die Ausschlüsse besser verstanden werden.
Cyber-Risiken, vor allem in Form von Cyber-Kriegsführung und staatlich unterstützten Angriffen, stellen eine große Herausforderung dar. Im Kontext der Versicherung, sollen solche Risiken über Kriegsklausel ausgeschlossen werden. Derzeit gibt es unterschiedliche Herausforderungen wie fehlende klare rechtliche Regelungen, die Unsicherheiten für Versicherer und Versichert darstellen. Die Interviews mit Branchenvertretern zeigen unterschiedliche Meinungen darüber, wie die Versicherungswirtschaft Cyber-Kriegsrisiken wahrnimmt und damit umgeht. Trotz der sich ständig ändernden Natur dieser Bedrohungen besteht weiterhin Bedarf an Forschung und Datenerfassung, um eine gut durchdachte Versicherungslösung zu entwickeln.
Die Diplomarbeit entstand in Zusammenarbeit mit der Firma Pferd Rüggeberg. Die Grundlage kam von der Marketingabteilung, die eine Mutlimediadatenbank (MMDB) erstellen wollte. Die Daten der MMDB sollten zur Grundlage eines Produktkataloges auf CD-Rom, Internet und als Druckvorstufe dienen. Der erste Gedanke war die Erstellung einer völlig unabhängigen Datenbank auf der Basis von ORACLE. Da in der Firma jedoch SAP/R3 eingeführt wurde, kam nach einem Gespräch mit der EDV-Abteilung heraus, daß der Produktkatalog auf der Basis von SAP erstellt werden soll. Ziel der Arbeit ist es, mit den Möglichkeiten die durch SAP gegeben sind, einen Produktkatalog im Internet darzustellen. Die Realisation und die Werkzeuge die vorgestellt werden, befinden sich in der Version SAP 3.1 g.
In der vorliegenden Arbeit werden zwei Environment-Shader entwickelt, einer für die Software Maya, der zweite für die im WDR Köln genutzte Grafiksoftware 3Designer. Zur Entwicklung wird der Worflow zur Erstellung virtueller Szenenbilder im WDR Köln berücksichtigt. Dafür wird der Workflow vorgestellt und die Umsetzung in den Shader detailliert erläutert. Als Ergebnis liegt für jedes Programm ein Shader vor, der bewirkt, dass die Reflexion einer Umgebung, die als Kugel vorliegt, auf dem jeweiligen Objekt erkennbar ist.
Das vorliegende Praxis Paper ist in zwei Bereiche aufgeteilt. Zunächst wird der Prozess zur Veröffentlichung eines Buchs über Amazon dargestellt, während im zweiten Teil Erkenntnisse über die allgemeinen Grundlagen des erfolgreichen Verkaufs auf Amazon zusammengefasst werden. Es basiert auf der Bachelorarbeit von Herrn Christian Dam-bach, die von Juli 2020 bis Oktober 2020 von Prof. Dr. Monika Engelen betreut wurde.
Nach der Darstellung des Veröffentlichungsprozesses werden im weiteren Verlauf die Möglichkeiten der Suchmaschinenoptimierung auf der Produktseite gezeigt und die Suchmaschinenwerbung über Amazon Marketing Services (AMS) vorgestellt. Neben dem Controlling des Verkaufsverlaufs und des Kampagnenverlaufs, wird zunächst die Einrichtung einer Werbeanzeige erläutert und anschließend die verschiedenen Möglich-keiten der Optimierung dargestellt. Daraus werden dann allgemeine Erfolgsfaktoren für den Verkauf auf Amazon abgeleitet, die, über das Fallbeispiel hinaus, auf jegliche ange-botenen Produkte anwendbar sind.
Das Projekt Management Audit wurde im Rahmen des Studiengangs Informationswirtschaft der Fachhochschule Köln durchgeführt und über zwei Semester lang (SS 2003; WS 2003/2004) von einer Gruppe von Studenten bearbeitet. Das angestrebte Projektziel beinhaltet Recherche, Auswertung der Recherche und eine daraus folgende eigene Konzeption. Des Weiteren sind Konferenzen, die über das Thema Management Audit stattfinden, ein Anreiz gewesen, über diese Thematik im Projektteam zu reden. Außerdem ermöglicht die erstellte Konzeption Interessierten, sich über dieses Thema zu informieren und es werden Vorschläge bzw. Anreize für ein Management Audit Verfahren in der Praxis gegeben.
Diese Arbeit untersucht verschiedene Ansätze, Daten im Google Cloud Firestore zu strukturieren und deren Auswirkungen auf Kosten, Performance sowie Codequalität. Zunächst folgt eine Aufbereitung des aktuellen Stands der Forschung. Darauf folgt die experimentelle Methodik. Hier dient eine prototypische Implementierung der Szenarien als Grundlage. Im Zuge des Experiments werden in unterschiedlichen Disziplinen Daten erhoben und im Anschluss ausgewertet, um empfehlenswerte Lösungen für definierte Anwendungsfälle zu benennen. Am Ende gibt die Arbeit ein kurzes Fazit zu den gewonnenen Erkenntnissen sowie einen Ausblick auf weitere Optimierungspotenziale ab.
In der Informationsgesellschaft zeigt sich das Berufsfeld des Informationswirtes als erfolgversprechende Tätigkeit mit guten bis sehr guten Beschäftigungschancen. Kern der Arbeit sind zwei empirische Untersuchungen zum Beruf und Arbeitsmarkt für Informationswirte in Deutschland. Eine erste Befragung richtet sich an Informationsfachleute, eine zweite Befragung - durchgeführt vom ifo Institut für Wirtschaftsforschung - an Manager der deutschen Industrie. In mittelfristiger Perspektive haben Informationswirte in der deutschen Industrie gute, im Dienstleistungssektor sehr gute Arbeitsplatzchancen. Gefragt ist ein Fachwissen, das sich aus Informationswissenschaft, Dokumentation, Betriebswirtschaftslehre, Informatik sowie aus Fremdsprachenkenntnissen zusammensetzt.
Dieser Bericht stellt die Ergebnisse einer Expertenbefragung zu dem Themenkomplex "Kindeswohl in Suchtfamilien" dar. Es wurden mit Hilfe eines standardisierten Interviewleitfadens 5 Experten aus der Suchtkrankenhilfe, dem Gesundheitswesen sowie der Kinder- und Jugendhilfe hinsichtlich ihrer Erfahrungen und Vorgehensweise mit einer möglichen Kindeswohlgefährdung in suchtbelasteten Familien befragt. Die Ergebnisse zeigen, dass eine mögliche Kindeswohlgefährdung durch die Fachkräfte teilweise nur sehr schwer zu erfassen ist und ein Aus- und Fortbildungsbedarf bei den Mitarbeitern besteht.
Smartphones und die Nutzung von mobilen Anwendungen gewinnen aufgrund der stetig voranschreitenden Digitalisierung weiter an Relevanz. Im April 2022 lag die Zahl der genutzten mobilen Endgeräte bei knapp 6 Milliarden, wobei die Hersteller Apple
und Google einen Marktanteil von knapp 99 % einnehmen. Um als Entwickler eine möglichst große Zielgruppe anzusprechen, ist es daher wichtig, die eigene Anwendung auf möglichst vielen Plattformen zur Verfugung stellen zu können. Die native Entwicklung ist einer der am meist verbreitetste Entwicklungsansatz für mobile Anwendungen. Dort werden plattformspezifische Tools sowie native Programmiersprachen verwendet. Hierbei ergeben sich allerdings diverse Herausforderungen für Entwickler entlang des gesamten Entwicklungsprozesses. Neben der nativen Entwicklung existiert der Ansatz von Cross-Plattform. Hierbei handelt es sich um einen Sammelbegriff für verschiedene Ansätze, welche das Ziel verfolgen eine Anwendung durch die Nutzung einer einheitlichen Codebasis auf mehreren Plattformen zur Verfugung zu stellen. Einer dieser Unteransätze ist
Backend-Driven UI, worin die gesamte Anwendung innerhalb eines strukturierten Datenformats beschrieben und serverseitig verwaltet wird. Der Client kann diese Daten dann dynamisch anfragen und zur Laufzeit in native UI überführen. Das Konzept von Backend-Driven UI wird bereits durch Unternehmen wie Airbnb oder SiriusXM eingesetzt, ist hier allerdings stark auf anwendungsbezogene Prozesse zugeschnitten. Es bedarf daher eines Backend-Driven UI Frameworks, welches es Entwicklern ermöglichen soll, mobile Anwendungen, ohne anwendungsspezifische Einschränkungen plattformübergreifend zu entwickeln. Im Rahmen dieser Arbeit wurde daher zunächst eine plattformunabhängige und erweiterbare Architektur eines solchen Frameworks entwickelt und in Form eines ersten Prototyps auf ihre Umsetzbarkeit geprüft. Insgesamt stellt der Prototyp eine mögliche Umsetzung von Backend-Driven UI dar und ist in der Lage erste Anwendungsszenarien abzudecken. Es konnten dennoch Bereiche ermittelt werden, welche im Zuge zukünftiger Entwicklung ausgebaut werden können. Dazu zählt unter anderem das Umsetzen von serverseitig bestimmter Anwendungslogik sowie der Umgang mit Unterschieden im plattformspezifischen Funktionsumfang.
Der vorliegende Bericht ist das Ergebnis einer Projektarbeit von Studierenden am Institut für Informationswissenschaft der Fachhochschule Köln im Studiengang Bibliothekswesen. Im Rahmen dieser Arbeit untersuchten sieben Studierende während des Sommersemesters 2011 die bibliothekarische Auskunft anhand eines zu diesem Zwecke erstellten Kriterienkatalogs. Die sieben Studierenden testeten die Bibliotheken über vier verschiedene Auskunftskanäle (Chat, Persönliche Auskunft, Telefonische Auskunft und Webformular/E-Mail-Auskunft). Zuerst werden der Kriterienkatalog und dessen Anforderungen sowie der Bewertungsbogen für die Tests vorgestellt. Im folgenden Kapitel steht die Erarbeitung der Testfragen, die zur Bewertung des Auskunftsprozesses gestellt wurden, im Fokus. Es wird eine quantitative Übersicht aller Fragen pro Auskunftskanal und Bibliothekstyp gegeben. Anschließend werden die gestellten Testfragen aufgelistet und erläutert. Zudem werden die Erfahrungen des Pretests sowie die Testphase erläutert. Im nächsten Kapitel erfolgt die Auswertung der gesamten Untersuchung. Die Analysen und Ergebnisse werden jeweils durch Torten- oder Säulendiagramme visualisiert. Fazit und Ausblick runden die Ergebnispräsentation ab. Im Anhang befinden sich eine Auflistung der Auskunftstypen und Bibliothekstypen, das zu Grunde liegende Notenschema, die Auswertungsbögen sowie zwei Erfahrungsberichte der Auskunft jeder Studierenden.
Virtuelle Realität ist ein interessantes Gebiet dessen Entwicklung schon seit vielen Jahren vorangetrieben wird. Die neuen Möglichkeiten die sich aufgrund technischer Fortschritte daraus ergeben, sind umwerfend und finden in vielen Bereichen Verwendung. Doch das Potential der VR ist noch viel größer. Dazu passt es auch, das im Laufe der Jahre die Computer immer mehr Einzug in das Leben der Menschen nahmen. Gab es früher noch riesige Geräte, die mit Lochkarten arbeiteten und kaum aufwendige Aufgaben bewältigen konnten, so gibt es heute erheblich schnellere und kleinere Systeme, die zudem auch noch viel leistungsfähiger sind. Von den drastisch gesunkenen Kosten mal ganz abgesehen. Folglich findet auch die breite Öffentlichkeit Zugang zu leistungsfähigen Computersystemen, wodurch bei immer mehr Menschen das Interesse an Virtual Reality geweckt wird. Es ist ein enormer Markt und die Technologie hält immer wieder Einzug in neue Bereiche und ist aus manchen gar nicht mehr hinauszudenken.
Die neusten Fortschritte im Bereich Real Time Rendering ermög-lichen virtuelle Produktionsabläufe in weiten Teilen der Industrie. Diese Vorgehensweise setzt latenzfreies Arbeiten und eine akkurate Erscheinung voraus. Daher empfiehlt sich die Verwendung von HDR-Rendering für fotorealistische Ergebnisse und Tone Mapping für die passende Darstellung.
Gleichwohl gibt es bisher nur wenige Publikationen, die sich mit echtzeitfähigem Tone Mapping beschäftigen. Zudem tendieren Tone Mapping Operatoren dazu, Farberscheinungseffekte zu erzeugen, die zu einer Diskrepanz zwischen dargestelltem und realem Produkt führen.
Deshalb werden in dieser Thesis sieben Tone Mapping Operatoren bewertet, die unterschiedliche Ansätze zur Farbkorrektur beinhalten. Sie werden als Fragment Shader implementiert, um Echtzeitverarbeitung zu realisieren. Zusätzlich wird ihre Performance und die subjektive Akkuratesse der Ergebnisse gemessen.
Im Ergebnis schneidet der FilmicTMO als global arbeitender Sigmoid-Operator am besten ab und wird für die weitere Verwendung empfohlen.
Statistische Analyse ausgewählter sozioökonomischer Daten in Bezug auf Krankenhausaufenthalte
(2018)
In der vorliegenden Arbeit werden Zusammenhänge zwischen bestimmten sozioökonomischen Merkmalen und Krankenhausaufenthalten behandelt. Hierzu wird zunächst anhand von Sekundärliteratur gezeigt, welche gesundheitsbeinflussenden Faktoren in Deutschland relevant sind und was häufige Ursachen für Krankheiten bzw. Krankenhausaufenthalte sind. Im Zuge dessen wird außerdem kurz auf die Tarifmerkmale der privaten Krankenversicherung sowie auf deren Einfluss auf die Prämienkalkulation eingegangen.
Daraufhin werden Daten des Sozio-oekonomischen Panels (SOEP) des Deutschen Instituts für Wirtschaftsforschung untersucht. Dabei werden einerseits einzelne Merkmale und deren Entwicklung im Laufe der Jahre sowie die Verteilung ausgewählter Merkmale auf bestimmte Personengruppen beobachtet. Andererseits werden auch Korrelationen zwischen bestimmten Merkmalen und Hospitalisierungswahrscheinlichkeiten untersucht.
Den Schwerpunkt dieser Arbeit stellen zwei Klassifikationsmethoden, die lineare und die logitische Regressionsanalyse, dar. Zu diesen werden mathematische Grundlagen dargelegt, um sie daraufhin mithilfe des Programms R auf zuvor selektierte Datensätze anzuwenden. Dadurch werden jeweils Hospitalisierungswahrscheinlichkeiten ermittelt. Abschließend wird ein Bezug zur Versicherungswirtschaft hergestellt und unter anderem untersucht, ob solch eine statistische Analyse für einen Versicherer infrage kommt und welche Herausforderungen und Chancen dies mit sich bringt.
Die Kriterien zur Nachhaltigkeit werden unter der Abkürzung ESG zusammengefasst und sind somit nicht nur auf den reinen Klimawandel begrenzt. Grundsätzlich versteht man unter sogenannten ESG-Kriterien per Definition einen Standard nachhaltiger Investments in den Bereichen Environment/ Umwelt, Social/ gesellschaftliches Engagement und Governance/ Unternehmensführung. (vgl. Haberstock et al., 2019)
Sowohl Erst- und Rückversicherungsunternehmen als auch Retrozessionspartner und Investoren beziehen bei ihrer Geschäftsentscheidung zunehmend Nachhaltigkeitsaspekte mit ein. Sie achten unter anderem auf die Nachhaltigkeit der Kapitalanlagen und die entsprechenden Entscheidungen im Underwriting oder bewerten das soziale Engagement eines Vertragspartners. Deshalb kann sich ein überzeugendes Nachhaltigkeitsprofil auch sukzessive zu einem Wettbewerbsvorteil entwickeln.
Das Kerngeschäft der Rückversicherungsbranche wird immer wieder von neuartigen Risiken und globalen Herausforderungen geprägt.
Eine ESG-konforme Geschäftsausrichtung und eine entsprechende Anpassung im Underwriting stellt den Rückversicherungs- und Retrozessionsmarkt vor neue Herausforderungen, da gewisse ESG-Kriterien eine Hürde für fortlaufende Geschäftstätigkeiten im Underwriting darstellen.
Die Umsetzung einer ESG-konformen Geschäftsausrichtung in der Retrozession geht einher mit der Rekalibrierung des Risikoappetits und mit der Aufnahme von einheitlichen zukünftigen ESG-Ratings, die sowohl zu Vorteilen als auch Nachteilen in der Wettbewerbsfähigkeit führen können.
Vergleicht man die ESG-Faktoren zwischen Retrozedenten und Retrozessionären lässt sich feststellen, dass die ESG-Faktoren für Retrozedenten bei der Kapazitätssuche wichtig sind. Hingegen die Faktoren beim Kapazitätsangebot für Retrozessionäre weniger wichtig sind. Diese Erkenntnis wird dadurch begründet, dass sich Retrozedenten bereits im vorgelagerten Underwriting der eingehenden Risiken mit den ESG-Kriterien beschäftigen müssen und dadurch bereits einen besseren Überblick über diese Faktoren haben. Zudem müssen sich die Retrozedenten im Detail mit den möglichen Retrozessionären und deren ESG-Strategie beschäftigen, damit die ESG-konforme Geschäftsausrichtung gewahrt wird.
Eine ESG-konforme Geschäftsausrichtung und die Berücksichtigung der ESG-Risiken führt zwangsläufig zu einer Anpassung der Geschäftsstrategie, der internen Aufsichtsstrukturen, des Risikomanagements und zu einer Änderung des Pricings von Retrozessionsrisiken.
Die Gefahr „Cyber“ wird in der Erst- und Rückversicherungswirtschaft als Wachstumssparte weltweit angesehen und entwickelt sich seit den letzten fünf Jahren dynamischer als jede andere Gefahr. Dieses wichtige Thema beschäftigt sowohl Erst- und Rückversicherungsunternehmen
in allen Bereichen. Mit Hilfe von Serviceleistungen (zum Beispiel mit Präventionen, risikogerechten Pricing-Modellen und Schadenbearbeitungen) bietet sich für die
Rückversicherungswirtschaft ein weltweiter Wachstumsmarkt. Die Komplexität der Cyber Gefahr und die sich entwickelnde Natur des Risikos bringen vielfältige Herausforderungen bei der Gestaltung von Versicherungsprodukten, beim Underwriting, beim Risikomanagement und bei der Kumulkontrolle mit sich - sowohl für Erst- als auch Rückversicherungsgesellschaften. Eine korrekte Cyber-Risikobewertung ist daher unabdingbar
und der richtige Ansatz muss stets weiterentwickelt werden. Insbesondere die Vielfältigkeit eines Cyber Events ist hierbei zu berücksichtigen. So können für Erst- und Rückversicherungsunternehmen nicht nur Kosten für Datenverluste entstehen, sondern auch Kosten für Rekonstruktionen der IT-Infrastruktur, Kosten für Netzwerk- und Betriebsunterbrechungen, Kosten für das Krisenmanagement, Kosten für das Reputationsrisiko, als auch Kosten für Haftpflichtansprüche Dritter.
Die Forschungsarbeit untersucht den sich verhärtenden Rückversicherungsmarkt und die Relevanz von Captives für Industrieunternehmen. Angesichts von Marktveränderungen wie steigender Inflation, Währungsschwankungen und höheren Schadensbelastungen überdenken Unternehmen ihre Risikomanagementansätze. Captives, insbesondere für mittelständische Unternehmen, gewinnen an Bedeutung. Sie bieten direkten Zugang zum Rückversicherungsmarkt, Unabhängigkeit und flexible Gestaltungsmöglichkeiten. Trotz Vorteilen wie optimierten Deckungsstrukturen und Umgehung von Marktveränderungen existieren Herausforderungen, darunter Kapitalanforderungen und Betriebskosten. Der Trend zu neuen Captives im harten Rückversicherungsmarkt ist nicht eindeutig, aber sie bleiben eine innovative Lösung für das betriebliche Risikomanagement. Traditionelle Rückversicherer bleiben entscheidend für die Branchenstabilität.
Die Komplexität der Cybergefahr und die sich entwickelnde Natur des Risikos bringen vielfältige Herausforderungen bei der Gestaltung von Versicherungs-produkten, beim Underwriting, beim Risikomanagement und bei der Kumul-kontrolle mit sich - sowohl für Erst- als auch Rückversicherungsgesellschaften. Eine korrekte Cyberrisikobewertung ist daher unabdingbar und der richtige Ansatz muss stets weiterentwickelt werden. Insbesondere die Vielfältigkeit eines Cyberevents ist hierbei zu berücksichtigen.
In der Cyberversicherung liefert die Vergangenheit keine zuverlässigen Indizien für die Wahrscheinlichkeit eines Schadens; Risiken müssen mit aufwändigen Modellrechnungen simuliert werden. Für die Bewertung von Cyberrisiken könnte die künstliche Intelligenz (KI) von Vorteil sein, um Muster und Wahrscheinlichkeiten im Bereich des Risikotransfers einfacher und effizienter zu analysieren. Einen alternativen Lösungsansatz könnten parametrische Rückversicherungslösungen als Ergänzung zur klassischen Versicherung liefern. So kann eine parametrische Cyberdeckung mit einem definierten Trigger (z.B. mit Hilfe der DSGVO als Trigger) als Auslöser für Schadenzahlungen angeboten werden.
Für eine ausreichende Versicherbarkeit von kleinen und mittelständischen Unternehmen, als auch für größere Industrielösungen könnte eine Risk Pooling Facility geschaffen werden, in welcher sich der traditionelle Rückversiche-rungsmarkt zusammen mit den Insurance Linked Securities Markt die Schadenbelastung teilen. Durch Unterstützung der künstlichen Intelligenz und durch parametrische Trigger (z.B. durch die DSGVO) könnten Schadenverläufe effizienter und zielgerichteter erfolgen.
Durch parametrische Cyberdeckungen könnten Transparenzprobleme bei der Schadenabwicklung verhindert und aufwendige Prüfungen der Rückversicherer reduziert werden. Zudem könnte mit Hilfe einer möglichen KI-Strategie die Bewertungen von Cyberrisiken vereinfacht und effizienter gestaltet werden. Parametrische Cyberlösungen können auch für alternatives Kapital interessant sein, denn auch im NatCat-Bereich sind Vehikel mit solchen Trigger-Lösungen verbreitet.
Zivile unbemannte Luftfahrtsysteme in der Akutphase internationaler humanitärer Hilfseinsätze
(2019)
Diese Arbeit konstruiert Einsatzbereiche ziviler unbemannter Luftfahrtsysteme in humanitären Hilfseinsätzen unmittelbar nach einer Katastrophe. Die Auswertung der Schnittmenge der technischen Fähigkeitsanalyse mit der – unter Verwendung von Experteninterviews durchgeführten – operativen Bedarfsanalyse des humanitären Sektors stellt die Basis für die Konstruktion der neun Anwendungsbereiche dar. Abschließend werden diese vor einem technischen, rechtlichen sowie ethischen Hintergrund diskutiert und bewertet.
Die Kraftwerksunglücke in Fukushima und Tschernobyl gelten wohl gemeinhin als Inbegriff für die Allgegenwärtigkeit der Gefahr eines kerntechnischen Unfalls mit schwerwiegenden Folgen für Mensch und Umwelt sowie einem tiefen Eingriff in die Wirtschaft und das öffentliche Leben. Kernschmelzen können die unterschiedlichsten Ursachen haben. Plötzlich finden physikalische Prozesse statt, die nicht mehr verhindert, sondern allerhöchstens herausgezögert werden können – die Arbeit der Behörden beginnt. Doch was wäre, wenn die Abstimmung zwischen den Entscheidungsträgern zu lange dauert, wenn die Katastrophenschutzpläne lückenhaft sind, eine rechtzeitige Bevölkerungswarnung ausbleibt, die Verkehrsträger mit der Aufnahme von Menschenmassen völlig überfordert sind oder sich die Aufnahmegebiete im Bereich der radioaktiven Wolke befinden?
Die vorliegende Arbeit befasst sich mit eben diesen Themen und zeigt Problematiken im Evakuierungsablauf auf. Im Verlauf der Arbeit wird anhand des Standes der Wissenschaft und Technik sowie Referenzereignissen und zwei Fallbeispielen ein Evakuierungskonzept entwickelt, das neue Denkansätze in bestehende Konzepte einarbeitet. Die genaue Planung und Konzeptionierung von Evakuierungs- und Notfallmaßnahmen stehen daher unter Betrachtung der Unzulänglichkeiten und Defizite beim Krisenmanagement im Mittelpunkt dieser Arbeit. Unter Berücksichtigung der Empfehlungen der Strahlenschutzkommission, der AG Fukushima, des Bundestages sowie des Bundesamtes für Strahlenschutz werden Evakuierungsrouten entwickelt und die Verkehrsträger Straße, Schiene, Schifffahrt und Luftverkehr auf deren Tauglichkeit und Kapazität geprüft. Zudem wird erläutert, wie eine Zusammenarbeit zwischen den Entscheidungsträgern des Landes und der Katastrophenschutzbehörden in Form eines weisungsbefugten bundeseinheitlichen Führungsstabes gestaltet werden kann.
Nicht zuletzt gilt es, den Weg für ein zukünftig funktionierendes Krisenmanagement im Fall eines kerntechnischen Unfalls zu ebnen, eine fundierte internationale und grenzüberschreitende Planungsgrundlage zu bieten und notwendige Maßnahmen der Behörden und Ministerien für eine effektive Gefahrenabwehr und einen funktionsfähigen Evakuierungsablauf aufzuzeigen.