Refine
Year of publication
Document Type
- Master's Thesis (255)
- Bachelor Thesis (132)
- Report (42)
- Study Thesis (31)
- Working Paper (31)
- Conference Proceeding (30)
- Book (27)
- Article (14)
- Part of a Book (9)
- Other (6)
Language
- German (586) (remove)
Keywords
- Rückversicherung (36)
- Versicherung (27)
- Reinsurance (26)
- Kölner Forschungsstelle Rückversicherung (25)
- Sozialarbeit (23)
- Versicherungswirtschaft (23)
- Soziale Arbeit (19)
- Deutschland (18)
- Bibliothek (17)
- Marketing (15)
Faculty
- Fakultät 10 / Institut für Informatik (144)
- Fakultät 03 / Institut für Informationswissenschaft (98)
- Fakultät 07 / Institut für Medien- und Phototechnik (57)
- Fakultät 04 / Institut für Versicherungswesen (43)
- Fakultät 04 / Schmalenbach Institut für Wirtschaftswissenschaften (23)
- Fakultät 10 / Advanced Media Institute (23)
- Fakultät 03 / Institut für Translation und Mehrsprachige Kommunikation (22)
- Fakultät 10 / Institute for Business Administration and Leadership (19)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (18)
- Fakultät 01 / Institut für Medienforschung und Medienpädagogik (14)
Die Reihe „Basiswissen zur Nachhaltigkeit“ versucht zu verschiedenen Themen der Nachhaltigkeit, z.B. Klimawandel, Abfallwirtschaft, soziale Gerechtigkeit, grundlegende Fakten zusammenzustellen. Zielsetzung ist es ein Grundwissen bereitzustellen, das zum einen als Ausgangspunkt für vertiefende Analysen dient und zudem eine faktenbasierte Grundlage für die eigene Meinungsbildung sein kann.
Der vorliegende Aufsatz behandelt die Problemfelder der Abfallwirtschaft in Deutschland und weltweit. Zunächst werden die grundlegenden Informationen zu den Begriffen Abfallwirtschaft, Abfallarten, Abfallentsorgung, Recycling u.a. zusammengetragen. Es folgt eine Darstellung der aktuellen Situtation der deutschen Abfallwirtschaft unter den Aspekten Deponieraum, Müllverbrennung, Recycling, Mikroplastik, Abfallexporte und nukleare Entsorgung. Den Abschluss bildet die Analyse von weltweiten Abfallproblematiken wie unzureichende Sammlung und Deponierung, Verschmutzung der Weltmeere mit Plastikabfall, Belastung der Ozeane durch die Folgen der Weltkriege und der Globalisierung.
Diese Arbeit untersucht verschiedene Ansätze, Daten im Google Cloud Firestore zu strukturieren und deren Auswirkungen auf Kosten, Performance sowie Codequalität. Zunächst folgt eine Aufbereitung des aktuellen Stands der Forschung. Darauf folgt die experimentelle Methodik. Hier dient eine prototypische Implementierung der Szenarien als Grundlage. Im Zuge des Experiments werden in unterschiedlichen Disziplinen Daten erhoben und im Anschluss ausgewertet, um empfehlenswerte Lösungen für definierte Anwendungsfälle zu benennen. Am Ende gibt die Arbeit ein kurzes Fazit zu den gewonnenen Erkenntnissen sowie einen Ausblick auf weitere Optimierungspotenziale ab.
Dieser Bericht stellt die Ergebnisse einer Expertenbefragung zu dem Themenkomplex "Kindeswohl in Suchtfamilien" dar. Es wurden mit Hilfe eines standardisierten Interviewleitfadens 5 Experten aus der Suchtkrankenhilfe, dem Gesundheitswesen sowie der Kinder- und Jugendhilfe hinsichtlich ihrer Erfahrungen und Vorgehensweise mit einer möglichen Kindeswohlgefährdung in suchtbelasteten Familien befragt. Die Ergebnisse zeigen, dass eine mögliche Kindeswohlgefährdung durch die Fachkräfte teilweise nur sehr schwer zu erfassen ist und ein Aus- und Fortbildungsbedarf bei den Mitarbeitern besteht.
Bei der Zusammenarbeit zwischen Menschen kommt immer häufiger auch unterstützende Software zum Einsatz. Diese Kollaborationswerkzeuge werden oftmals in Form von Webapplikationen im Browser realisiert. Webapplikationen bieten entscheidende Vorteile, darunter eine einfache Einrichtung und kaum notwendige Konfiguration. Sie müssen nicht fest auf dem System eines Nutzers installiert werden und haben daher eine niedrigere Einstiegshürde, was vor allem bei spontaner Zusammenarbeit wichtig ist. Gleichzeitig stehen viele Menschen Webapplikationen kritisch gegenüber, vor allem weil bei ihrer Nutzung Daten auf zentralen Servern verarbeitet und gespeichert werden, die in der Regel nicht unter der Kontrolle des Nutzers stehen.
Neue Webtechnologien, wie WebRTC und IndexedDB, ermöglichen es Webapplikationen, Daten über eine direkte Verbindung untereinander auszutauschen und lokal zu speichern. Daraus ergibt sich das Potential, die Abhängigkeit von zentralen Servern zu reduzieren und somit einige Nachteile von Webapplikationen aufzuheben. Die vorliegende Arbeit untersucht die Machbarkeit von Kollaborationsanwendungen für die lokale Zusammenarbeit auf der Grundlage dieser neuen Webtechnologien. Basierend auf vorher in einer Kontextanalyse erhobenen Kriterien, wird eine Softwarearchitektur für eine Kollaborationsplattform im Webbrowser entworfen, die in weiten Teilen auf zentrale Infrastruktur verzichten kann. Anhand einer prototypischen Implementierung dieser Architektur wird ein Nachweis für die generelle Machbarkeit des Konzepts erbracht und es werden Herausforderungen bei dessen Realisierung identifiziert.
Die vorliegende Masterarbeit behandelt die Bewertung der eingegangenen Unternehmensrisiken im Rahmen der Lebensversicherung und die hiervon abgeleiteten Auswirkungen zur Unternehmenssteuerung.
Dabei wird einerseits die Angemessenheit der sog. „Standardformel“ nach Solvency II überprüft, die in den europäischen Mitgliedsstaaten einen weitestgehend einheitlichen Ansatz bei der Bewertung der Risiken von Versicherungsunternehmen verwendet. Andererseits werden unter ökonomischen Überlegungen versicherungsmathematische Methoden vorgestellt, wie ein Lebensversicherer seine Risiken unternehmensindividueller ermitteln und damit seinen tatsächlichen Risikokapitalbedarf bestimmen kann.
Zur Quantifizierung der Ergebnisse werden die Berechnungsvorgaben der Standardformel für ausgewählte Risikomodule nachgebildet und mit den in dieser Arbeit vorgestellten unternehmensindividuellen Berechnungen verglichen und analysiert. Es zeigt sich, dass trotz der Komplexität des Solvency II-Modells eine noch differenziertere Herangehensweise notwendig ist, damit ein einzelnes Unternehmen seine Risiken adäquat und möglichst individuell bestimmen kann. Zur Gewährleistung einer nicht bestandsgefährdenden Unternehmensfortführung müssen die Versicherungsunternehmen bei Betrachtung ihrer Risiken mithilfe des EU-weiten Aufsichtssystems Solvency II in der Lage sein, die korrekten Rückschlüsse zur Unternehmenssteuerung zu ziehen. Die in dieser Arbeit vorgestellten versicherungsmathematischen Ansätze können dabei den Prozess zur unternehmenseigenen Risiko- und Solvabilitätsbeurteilung (ORSA) unterstützen.
Das diesjährige Forschungsthema befasst sich mit dem Allokationsmechanismus im Rückversicherungsmarkt und den potentiellen Nachteilen, die daraus entstehen können. Somit lässt sich das Vorhaben in die Disziplin „Marktdesign“ einordnen, welches auf Mikroökonomie und Spieltheorie aufbaut. Im weiteren Verlauf wird zunächst der theoretische Rahmen abgesteckt und in den Rückversicherungs-Kontext gesetzt. Im zweiten Teil wird es einen Ein- und Ausblick in aktuelle Forschungsfragen gegeben.
Das Ziel der vorliegenden Arbeit besteht darin, die Frage zu beantworten wie Yosys Verilog einliest und daraus RTLIL generiert. Mit der Beantwortung dieser Frage, soll die Datenstruktur RTLIL und die Verknüpfung zu einem Verilog Design besser verstanden werden. Dafür wurde das Frontend von Yosys untersucht und die Datenstruktur RTLIL näher eleuchtet. Als Ergebnis konnte festgehalten werden, dass die AstNode Datenstruktur eine wesentliche Rolle bei der Konvertierung von Verilog zu RTLIL spielt, und mit deren Hilfe beim Einlesen ein abstrakter Syntaxbaum gebildet wird. Allein der Typ des Knotens beeinflusst, wie der RTLIL Generator damit umgeht. Weiter ist die Generierung von RTLIL::Cell Objekten als erster Schritt zur Synthese zu verstehen, da sie durch Technologie Mapping reale Komponenten abbilden können
Die Kommunikation via Chat konnte sich in den letzten Jahren neben Kommunikationsmedien wie E-Mail und Telefon in vielen Bereichen des alltäglichen Lebens etablieren. Textbasierter Chat weist jedoch, im Vergleich zu Face-to-Face-Kommunikation, gewisse mediale Einschränkungen auf. Nonverbale Signale wie Gestik und Mimik können, in Ermangelung eines visuellen Kanals, nicht direkt übertragen werden. Trotzdem findet auch im Chat ein Austausch nonverbaler Informationen statt, wie beispielsweise der Einsatz von Emoticons oder Pausen in Gesprächen. Verhaltensweisen bei nonverbaler Kommunikation enthalten Hinweise bezüglich der sozialen Beziehung der Gesprächspartner. Derartige nonverbale Signale können aus Chat-Protokollen extrahiert und analysiert werden. In dieser Arbeit beschäftigen wir uns mit der Analyse nonverbaler Daten aus Chat-Protokollen. Ziel ist die Einschätzung der Stärke einer sozialen Beziehung anhand eines multidimensionalen Analyse-Modells.
Die Analyse und Konzeption der Trinkwassernotversorgung setzt eine interdisziplinäre Zusammenarbeit unter anderem zwischen Gesundheitsämtern, Umweltämtern, Gefahrenabwehrbehörden und Wasserversorgungsunternehmen voraus. Die in dieser Arbeit durchgeführten Methoden gliedern sich in GIS-Analyse (Kritikalitätsanalyse), Beobachtung einer Inbetriebnahme eines Trinkwassernotbrunnens und eines Experteninterviews mit den Stadtwerken Düsseldorf AG und Netzgesellschaft Düsseldorf mbH auf. Es werden Erkenntnisse gewonnen, dass die Trinkwassernotbrunnen im Rahmen der Trink-wassernotversorgung mehr als eine mögliche Variable anstelle einer planbaren Konstante anzusehen sind. Die Anzahl und der Zustand der Trinkwassernotbrunnen sind in der Trinkwassernotversorgung nicht ausreichend. Es wird festgestellt, dass der Status quo wesentliche Lücken in der Konzeption der Trinkwasserversorgung aufweist, die organisatorisch mithilfe von Absprachen zwischen Behörden und Unternehmen und technisch durch beispielsweise Aufbereitungsanlagen gelöst werden können.
Ziel ist die Analyse und die Implementierung eines Datenschutzmanagements, gemäß den geltenden EU-Datenschutzvorschriften, am Beispiel eines mittelständischen Unternehmens. Nach einer Zusammenfassung der wichtigsten theoretischen und rechtlichen Grundlagen, werden geeignete Methoden zur Umsetzung vorgestellt. Anschließend wird der Aufbau des Datenschutzmanagements analysiert und an einem Beispielunternehmen implementiert. Zielgruppe sind in erster Linie Unternehmen, Selbstständige oder Beschäftigte mit Datenschutzaufgaben.
Bei Gebäuden mit zentraler Wärmeerzeugung treten im Verteilsystem Wärmeverluste auf. Insbesondere bei zirkulierenden Trinkwarmwassersystemen, aber auch bei Heizungsanlagen können diese Verteilverluste einen hohen Anteil am Gesamtwärmeverbrauch ausmachen und somit relevant für die Energieeffizienz einer Anlage sein. Die Ansätze und Angaben zur Quantifizierung der Verteilverluste in den relevanten Regelwerken weichen teils deutlich von Angaben in der Fachliteratur und den wenigen vorliegenden Fallbeispielen ab. Die vorliegende Masterarbeit behandelt das Thema anhand der Analyse eines Fallbeispiels. Das untersuchte Objekt ist ein Mehrfamilienhaus mit einer Zweileiterinstallation. Dabei handelt es sich um ein System, welches die Wärmeversorgung für Heizung und Trinkwasser kombiniert. Durch Vergleich der Wärmemengenzähler in Wohnungen und Heizungskeller sind in der Vergangenheit Verteilverluste von 16,5 kWh/m²a aufgefallen, was 28 Prozent des gesamten Verbrauchs ausmacht.Im Rahmen der Falluntersuchung werden die Verteilverluste der Anlage über eine umfangreiche Datenaufnahme und mithilfe thermodynamischer Berechnungen bestimmt und mit den Zählerdaten abgeglichen. Dieser Berechnung nach betragen die Verteilverluste 14,7 kWh/m²a, wovon die Leitungsverluste den größten Anteil ausmachen. Zur Prüfung der Ansätze der Regelwerke werden diese auf das Objekt angewendet. Eine Vergleichbarkeit ist wegen abweichender Rahmenbedingungen nur bedingt gegeben. Die anhand der Normen ermittelten Werte liegen zum Teil in der Größenordnung der thermodynamischen Berechnung, teils auch deutlich darunter. Der Abgleich mit den Zählerdaten dient auch der Prüfung der thermodynamischen Berechnung. Auf diese Weise sollen fundierte und detaillierte Aussagen über den Einfluss einzelner Parameter und Komponenten des Systems ermöglicht werden. Darüber hinaus ermöglicht es die thermodynamische Berechnung, das Potenzial verschiedener Reduktionsmaßnahmen zu quantifizieren. Hier zeigt sich, dass ein Absenken der Vorlauftemperatur im Fallbeispiel eine effektive Maßnahme darstellt. Beispielsweise bewirkt die Absenkung der Vorlauftemperatur um 5 Kelvin im Fallbeispiel eine Reduktion der Leitungsverluste um circa 16 Prozent, respektive einen um circa 3 Prozent verringerten Gesamtverbrauch. Die ebenfalls modellierte Dämmung der Installationsschächte hingegen lässt bei ungleich höherem Aufwand geringere Einsparungen erwarten. Bei der Bewertung der Ergebnisse ist zu beachten, dass im Untersuchungsobjekt der spezielle Fall eines Zweileitersystems vorliegt. Dennoch können auf Basis der Untersuchung auch allgemeine Erkenntnisse über Verteilverluste gewonnen und Einschätzungen über die normativen Angaben abgeleitet werden. Darüber hinaus wird im Rahmen eines Exkurses die thermische Situation im Installationsschacht einer genaueren Betrachtung unterzogen. Diese ist von Interesse, da die Wärmeverluste hier Einfluss auf Fragen der technischen Hygiene und des sommerlichen Wärmeschutzes ausüben.
Es wurde ein Vergleich zwischen einer nativen Android-Anwendung und einer Titanium-Anwendung durchgeführt, anhand einen mobilen SQL-Trainers. Die mit Eclipse nativ entwickelte Android-Anwendung und die Titanium-Anwendung (Android und iOS) sind, zumindest mit unserem beispielhaften Funktionsumfang, fast gleichwertig. Die Entwicklung für BlackBerry und Tizen konnte auf Grund der noch nicht ausgereiften Entwicklungsart für diese Plattformen kaum getestet werden, allerdings wird der größere App-Markt mit iOS und Android unterstützt. Die noch nicht ausgereifte Entwicklungsweise für das Tizen-Betriebssystem kann vernachlässigt werden, wenn bedacht wird, dass auf dem Tizen-Betriebssystem native Android-Anwendungen ausgeführt werden können. Außerdem wird Tizen noch auf keinem Smartphone eingesetzt. Die Vorbereitung auf die Erstentwicklung ist durch die noch etwas weniger ausgereifte, aber dennoch sehr professionelle Entwicklungsumgebung beim Titanium SDK etwas zeitaufwändiger als bei der Eclipse-Entwicklungsumgebung. Natürlich sind die nativen und vom Betriebssystemhersteller herausgegebenen Entwicklungsformen der Vorreiter für das Titanium SDK und deshalb auch die sicherere Entwicklungsform, wenn es beispielsweise um Kompatibilität und Hardwarezugriff geht. Das Titanium SDK übersetzt den entwickelten JavaScript-Code in nativen Code der jeweiligen Plattformen mit den jeweiligen Plattform-Elementen. Die angepriesene Zeitersparnis von zwanzig Prozent bei der Entwicklung kann nicht bestätigt werden. Die Entwicklung der Benutzeroberfläche ist aufwändiger als bei der nativen Entwicklungsweise.
Sinkende Mitgliederzahlen, ein wachsendes Aufgabenspektrum und gefährlichere Einsatzlagen bedingen auch in den Feuerwehren eine Digitalisierung, um die aktiven Feuerwehrangehörigen im Einsatz zu entlasten und zu schützen.
In der vorliegenden Bachelorarbeit werden aktuelle und zukünftige Technologien auf ihre Potenziale und Gefahren als Einsatzmittel für die Feuerwehr analysiert. Neben einer Betrachtung dieser Technologien als Ursache eines Feuerwehreinsatzes werden Unterstützungsmöglichkeiten für die Feuerwehrangehörigen aufgezeigt, die aus der Nutzung fremder Technologien oder einer Eigenbeschaffung resultieren. In der Arbeit werden ausschließlich Technologien fokussiert, die als Entwicklung aus dem Internet der Dinge hervorgehen. Ziel der Arbeit ist es, die Technologien auf ihren Unterstützungscharakter zu analysieren, damit die Einsatzkräfte zielgerichtet entlastet und besser geschützt werden.
Die Dokumentation und Untersuchung von Massenbewegungen ist der entscheidende Schritt, um die Gefahr, die von ihnen ausgeht, zu identifizieren und im nächsten Schritt zu minimieren. Vor allem in Bergregionen kann dies im Extremfall Menschenleben retten.
Folglich untersucht diese Arbeit auf Grund bestehender Gefahr die räumliche Verteilung von Massenbewegungen in den drei iranischen Provinzen Alborz, Qazvin und Teheran.
In Anbetracht der immer weiter wachsenden Städte im erdbeben- und somit massenbewegungsgefährdeten Elbursgebirge wird mittels zweier quantitativer Analysen der isolierte Einfluss von straßen- und schienengebundener Verkehrsinfrastruktur auf Massenbewegungen (in den drei Provinzen) untersucht.
Beide Analysen vergleichen ausschließlich die lokale Häufung von Massenbewegungen mit dem vorhandenen Straßen- und Schienennetz: in der ersten Analyse durch das Vergleichen stattgefundener Massenbewegungen innerhalb von Teilgebieten des untersuchten Gebiets, in der zweiten Analyse werden die Häufungen in verschiedenen Abständen zu Straßen erfasst.
Anknüpfend an die zweite Analyse wird eine Bewertung der Häufigkeiten getätigt.
Es ergeben sich folgende wesentliche Erkenntnisse aus dieser Bachelorarbeit:
• Die Aussagekraft der Analysen kann höchstens so groß sein wie die Richtigkeit, Vollständigkeit und Detailliertheit der zur Verfügung gestellten Datenbanken
• Die verhältnismäßig große Fläche des Untersuchungsgebietes stellt eine hohe Fehlerquelle dar (z.B. durch das große Datenvolumen)
• Eine Anfälligkeitsanalyse auf Grund eines isoliert betrachteten Auslösefaktors ist mit vielen Fehlern und Annahmen behaftet (z.B. muss zunächst einmal angenommen werden, dass Massenbewegungen nicht durch andere Faktoren ausgelöst werden)
• Eine erhöhte Anfälligkeit des Untersuchungsgebietes gegenüber Massenbewegungen innerhalb von 50 m Abstand zu Straßen konnte durch die in dieser Arbeit beschriebenen „Straßenpufferanalyse“ nachgewiesen werden.
Die Analysen sind mit dem Programm ArcGIS durchgeführt. Ihre detaillierte Beschreibung ermöglicht es dem Leser, die Analysen weiterzuführen oder mit anderen Parametern zu wiederholen. Weiterführende Analysen beispielsweise in Form einer Risikokarte verhelfen den Menschen, Sachgüter und die Umwelt z.B. durch nachhaltige Bebauungspläne zu schützen.
Analytisches Berechnungsmodell ohne empirische Exponentenansätze : Rauchentwicklung bei Bränden
(2002)
Es wird ein analytisches Berechnungsmodell zur Rauchentwicklung über einem Brandherd vorgestellt, das auf der Annahme der Wärme- und Impulserhaltung in der aufsteigenden Rauchsäule basiert, sowie der Kenntnis des Ausbreitungswinkels. Beobachtungen zufolge beträgt der halbe Ausbreitungswinkel etwa 7° bis 8°. Ein Vorteil des Modells gegenüber anderen, meist empirischen "PLume-Formeln" liegt darin, dass erstmals die drei wichtigsten Einflussparameter der Brandrauchausbreitung (Wärmefreisetzungsrate, Brandfläche, Raumhöhe) gemeinsam berücksichtigt werden und es keine versuchsbedingten Gültigkeitsgrenzen gibt.
Die vorliegende Studie, die im Auftrag der Fachhochschule Köln, Fachbereich Bibliotheks- und Informationswesen, mit Blick auf den geplanten Master-Zusatzstudiengang "Bibliotheks- und Informationswissenschaft / Library and Information Science" durchgeführt wurde, befaßt sich ausführlich mit dem Thema Leitung und Kooperation in wissenschaftlichen Bibliotheken. Grundlage der Schlußfolgerungen bilden die Ergebnisse einer empirischen Erhebung in entsprechenden Einrichtungen Berlins. In jener Untersuchung wie in dieser Studie lassen sich Aussagen zur Leitungsfunktion sowohl auf Leitungspersonal im engeren Sinne – d.h. Bibliotheksleiterinnen und Bibliotheksleiter – als auch auf solches im weiteren Sinne – d.h. Führungspersonal auf Abteilungsebene, in Projektgruppen, Fachreferentinnen und Fachreferenten – beziehen. Entsprechend sind als Adressaten auch gleichermaßen Absolvierende der Universität wie der Fachhochschule anzusehen – und mit Blick auf die Aus- und Weiterbildung natürlich besonders die entsprechenden Studiengänge selbst und die sie bestimmenden und in ihnen agierenden Personen und Gremien. Es soll illustriert werden, dass ein Qualifizierungsbedarf – genauer: ein Bedarf an Qualifizierung für Leitungsaufgaben – auf allen Ebenen des Bibliotheks- und Informationswesens herrscht, auf denen tatsächlich Leitungsfunktionen ausgeübt werden – unabhängig von formalrechtlichen und -definitorischen Gesichtspunkten.
The reinsurance market continues to face major challenges – at this point we would like to outline just two of these. While renewal of the reinsurance contracts as at 1st January 2019 was largely ‘riskadjusted flat’, renewal of the retrocession contracts was decidedly late. As at the date when this Annual Report 2018 went to press (2nd January 2019), the final trend is still not yet discernible. However, there are signs of a substantial hardening in prices and conditions in the retrocession area. Reinsurers, which are depend on the resource of retrocession capacity, would then be placed in an even more difficult position of increasing the price of retrocession, yet these additional costs cannot be passed on to the assignors under their active reinsurance contracts. Not least the German Federal Financial Supervisory Authority [BaFin] is also certain to set its sights on this aspect in its analysis of the prevailing reinsurance price level, which has been announced for 2019. Of particular interest with regard to a potential determination of insufficient market conditions would also be the resulting reaction by BaFin (and the basis on which this would occur). A decisive factor for a possible strengthening of the retrocession market would be a changed attitude on the part of alternative capital, which in recent years already provided 50-70% of the retrocession capacity – and rising – via ILS funds and other mechanisms. Unlike traditional reinsurers, ‘innocent investors’ such as pension funds were increasingly nervous as a result of the high number of claims again in 2018 – particularly the California wildfires in Q4 2018 – as well as the drop in the fund share price of numerous ILS funds prior to the renewal at 1st January 2019.
A further substantial burden on the business climate lies in the utter ambiguity with regard to the modalities of Brexit on 29th March 2019. A no-deal Brexit would seem to be a real – and perhaps even a probable – alternative. This would create a large vacuum
in legal certainty by eliminating many EU-UK contracts and agreements. The Cologne Research Centre for Reinsurance analyses the latest developments in the reinsurance market and, where appropriate, monitors these through research projects. In the process, the Cologne Research Centre for Reinsurance links its research activities with practices in the reinsurance sector. Hereby, and facilitated through organisation
of the annual Cologne Reinsurance Symposium and the Annual Meeting of the Sponsoring Group Reinsurance [Förderkreis Rückversicherung], a bi-directional
transfer of knowledge between theory and practice is pursued. The content of these two scientific events, as well as the completed research projects, are incorporated into scholarship and instruction at the Institute of Insurance Studies, rounding out practice-oriented training in the field of reinsurance.
- 5 -
Currently, there are nine researchers and two employees responsible for science management on the staff of the Cologne Research Centre for Reinsurance. Thereby, all
material and personnel costs are fully financed by third-party funds provided by the Sponsoring Group Reinsurance.
We want to thank the Sponsoring Group Reinsurance, the University leadership and administration, ivwKöln [the Institute of Insurance Cologne] and the employees of the
Cologne Research Centre for Reinsurance for all their support for the research projects and events of the past year.
Die Blockchain ist nicht nur im Bereich der Finanzwelt angekommen, auch andere Branchen versuchen sich an ihrer Anwendung. In diesem Artikel werden Konzepte und Modelle von Blockchain-Anwendungen außerhalb des Finanzbereichs vorgestellt, indem die zugehörigen Veröffentlichungen referiert und diskutiert werden. Die Anwendungsbereiche variieren aktuell über den Schutz persönlicher Daten bis zur Sicherung und Überwachung von Nahrungsmittelproduktionsketten.
Das für diese Masterthesis realisiertes Softwaresystem verwendet als Teilkomponente die Softwarelösung IPEE (Internet Pattern Extrakt Engine), die von M.Sc. Andreas Frey entwickelt und in der ursprünglichen Fassung dokumentiert wurde. Diese Kapitel sind aus Gründen des Copyrights, die auf der Software IPEE liegen, nicht in der veröffentlichten Fassung (der Masterthesis) enthalten. Eingeleitet wird die Arbeit mit Aspekten des Entwicklungsstandes des Semantik Web (Web3.0). Es folgt die Begriffsdefinition der Semantik und der semantisch orientierten Verarbeitung. Für die Ablage (Archivierung) und Verarbeitung von Daten für semantisch orientierte verarbeitende Systeme eignet sich die Konzeption der semistrukturierten Daten, die darauf folgend definiert und mit den anderen Konzeptionen - wie strukturiert und nicht strukturiert - in Beziehung gesetzt wird. In den folgenden Kapiteln werden die Komponenten erklärt, die für die Realisierung eines Prototypen zur semantisch orientierten Verarbeitung verantwortlich sind und hauptsächlich auf Aspekte der semantisch orientierten Verarbeitung von Verben fokussiert sind. Von Relevanz sind hierbei Komponenten zur Wort- und Phrasen-Analyse und zur automatischen Recherche von Wörtern aus dem Internet. Da diese Komponenten auf die Realisierung von Pattern-Extraktionsverfahren basieren, wurde die spezielle Softwarelösung IPEE verwendet. Des weiteren werden Komponenten für die Generierung des semantischen Graphen und die Visualisierung anhand von hyperbolischen Bäumen mit Hilfe einer Open Source Software Treebolic Browser beschrieben. Auch wird eine GUI für die Eingabe und Verarbeitung von Sätzen der deutschen Sprache und die Verwaltung eines Bedeutungswörterbuches erklärt. Abschließend erfolgt eine experimentelle Auswertung der semantisch orientierten Verarbeitung.
In nahezu jedem Rettungsdienstbereich lässt sich ein Anstieg an Notfalleinsätzen und damit einhergehend ein höherer Bedarf an Rettungsmitteln beobachten. Daraus resultieren Einsatzspitzen, die durch den Regelrettungsdienst nicht abgedeckt werden können, und es entsteht eine Unterdeckung. Dies wird auch als Risikofall bezeichnet und birgt die Gefahr, dass ein Rettungsmittel nicht innerhalb der vorgeschriebenen Hilfsfrist am Notfallort eintreffen kann. Um einen potenziellen Risikofall im Vorfeld absehen und einsatztaktische Ausgleichsmaßnahmen innerhalb eines Rettungsdienstbereiches ergreifen zu können, soll deshalb die Einsatznachfrage in stündlicher Auflösung prognostiziert werden. Dazu wurde die Einsatz-Zeit-Reihe 2017 der hochfrequentierten Feuer- und Rettungswache 1 in der Kölner Innenstadt analysiert und ein saisonales ARIMA-Modell sowie ein Erwartungswert-Modell auf die Einsatz-Zeit-Reihe des Folgejahres 2018 angewandt. Gezeigt werden konnte, dass sich die Einsatz-Zeit-Reihe mit einer mittleren absoluten Abweichung von etwas mehr als einem Einsatz prognostizieren lässt. Außerdem konnte mit einer Skalierung der Prognose über die Anzahl einsatzbereiter Rettungs-wagen jeder Risikofall in einem einwöchigen Anwendungstest vorhergesagt werden. Dabei zeigte sich, dass nicht die Prognosegüte in der Stunde der Einsatzspitze relevant ist, sondern die Prognosegüte in der Folgestunde. Die Prognosen haben somit, wenn sie skaliert werden, eine hohe einsatztaktische Relevanz und ermöglichen kurz-fristige Ausgleichsmaßnahmen im Tagesgang.
Im vorangegangenen Praxisprojektes »Das Zusammenspiel zwischen Usability und Suchmaschinenoptimierung - Tipps und Methoden für eine verbesserte Sichtbarkeit und Nutzbarkeit von Internetseiten « wurde dem unerfahrenen Content-Erzeuger Grundwissen in der Suchmaschinen- und Usability-Optimierung vermittelt. Ziel dieser wissenschaftlichen Arbeit ist es die vorgestellten Methoden und Techniken des vorangegangenen
Praxisprojektes, am Beispiel der Webseite des Fachbetriebes BSS-Schieh-Schneider technisch umzusetzen und zu bewerten. Der Schwerpunkt des Unternehmens liegt bei der Beratung, Montage und Reparatur von Fenstern, Türen, Rollläden und Markisen. Die Webseiten existieren bereits und geplant ist, die Bereiche Fenster & Türen SEO-Technisch zu verbessern.
In den Jahren 2015 und 2016 ist im Zuge des starken Anstieges der Flüchtlingszahlen eine Debatte über digitale Medien im Zusammenhang mit Menschen auf und nach der Flucht entstanden. Hinweise darauf sind der „Digitale Flüchtlingsgipfel“, der im Jahr 2016 vom Bundesinnenministerium veranstaltet wurde, oder die Studie „Internet ist gleich mit Essen“ von Nadia Kutscher und Lisa-Marie Kreß.
Innerhalb der vorliegenden explorativen Forschungsarbeit werden aus einer sozialarbeitswissenschaftlichen Perspektive Apps als digitale Medien, die beim Integrationsprozess
von geflüchteten Menschen in Deutschland unterstützen sollen, auf einer inhaltlichen und technisch-funktionalen Ebene analysiert. Mit einer eigens entwickelten Erhebungsmethode werden die Inhalte der Apps mithilfe eines Analyserasters ausgewertet. Als Grundlage für
die Analyse dient das soziologische Modell "Integration als Sozialintegration“ von Friedrich Heckmann. Die fünf Apps „Ankommen“, „Integreat“, „Moin Refugee“, „Welcome App Germany“ und „Welcome to NRW“ wurden aufgrund der vertretenen geografischen Bereiche sowie des Spektrums der Initiatoren aus staatlichen Institutionen, „Willkommensinitiativen“
und Institutionen der Sozialen Arbeit ausgewählt.
Die Forschungsarbeit richtet ihren Blick auf die Inhalte der Apps und deren Gewichtung in Bezug auf die Integrationsdimensionen. Daraus werden Hypothesen entwickelt, wie durch
Inhalte der Apps Mechanismen entstehen, die die Integrationsprozesse zwischen Lenkung und Selbstermächtigung beeinflussen. Dabei wird kritisch reflektiert, inwieweit die Themen
der konstruierten und heterogenen Zielgruppe der geflüchteten Menschen aufgegriffen werden. Aufbauend auf den Untersuchungsergebnissen werden Schlussfolgerungen gezogen, wie Apps zu zielgruppenübergreifenden, digitalen Informationsangeboten für Leistungen und Träger der Sozialen Arbeit weiterentwickelt werden können.
Die vorliegende Diplomarbeit beschäftigt sich ausführlich mit dem Thema Application- Server. Dabei wird speziell auf den Oracle Application-Server (OAS) eingegangen. Dem Leser soll die Architektur des OAS verständlich gemacht werden, sowie ein Überblick über die Einsatzmöglichkeiten gegeben werden. Für die ausführliche Darstellung der einzelnen Themen ist die vorliegende Diplomarbeit in drei Teile eingeteilt. Im ersten Teil dieser Diplomarbeit erhält der Leser eine Einführung in die grundlegenden Begriffe und Technologien, die notwendig sind, um die Funktionsweise eines Application-Server im WWW oder im Intranet verstehen zu können. Dazu werden die technologischen Grundlagen des Internet wie TCP/IP und World Wide Web behandelt. Es folgt ein Einblick in die verschiedenen Netzwerkarchitekturen. Abgeschlossen wird dieser Teil mit einem kurzen Überblick über die Komponentenmodelle CORBA und Enterprise JavaBeans. Im zweiten Teil dieser Diplomarbeit wird der Oracle Application-Server in der Version 4.0.8.1 vorgestellt. Nach einer Einführung in das Thema Application-Server wird die Architektur des OAS beschrieben. Daran anschließend werden die Middleware-Funktionen des OAS behandelt, wie Skalierbarkeit, Datenbankzugriff, Interaktionsmodelle und Sicherheitsaspekte. Zum Abschluss dieses Teils werden dem Leser anhand von Beispielen die Einsatzmöglichkeiten des OAS dargestellt, also welche Arten von Anwendungen auf dem OAS eingesetzt werden können. Im dritten Teil wird die Anwendung "OnlineTicket" beschrieben, die für diese Diplomarbeit entwickelt wurde. Diese Anwendung unterstützt den Vertrieb von Tickets für Veranstaltungen.
Architektur für ein Qualitätsmanagementsystem zur Verbesserung der Relevanz von Suchergebnissen
(2023)
Die Suchfunktion ist in vielen Softwareprodukten eine wichtige Komponente, die häufig zur Navigation in der Anwendung dient. Gerade, wenn große Datenmengen bereitgestellt werden, wie es bei Streamingdiensten (Netflix, Spotify) oder bei E-Commerce-Plattformen (Amazon, Zalando) der Fall ist, ist es wichtig, dass die Suchergebnisse für den Nutzer relevant sind. Eine für den Nutzer effektive Navigation mit der Suchfunktion ist nur möglich, wenn die Suchergebnisse eine ausreichend große Relevanz für den Nutzer bieten. Die Organisationen, welche die oben genannten Dienste betreiben, versuchen daher, die Relevanz ihrer Suchergebnisse zu optimieren. Eine Optimierung auf Relevanz ist zwar für eine spezielle Suche einfach, jedoch können dabei häufig Seiteneffekte auftreten, welche die Relevanz über alle Suchen verschlechtern. In einem E-Commerce-Shop kann das Einfiihren des Synonyms „Birne -> Glühbirne" dafür sorgen, dass Nutzer, die Gliihbirnen kaufen wollen und nach „Birne" suchen nun auch Gliihbirnen finden. Falls Nutzer aber das Obst Birne kaufen möchten, sind die Ergebnisse für diese Gruppe irrelevant. Bei einer Optimierung der Relevanz über alle Suchen können Qualitätsmanagementsysteme unterstützen. Ein Qualitätsmanagementsystem fiir die Relevanz von Suchergebnissen muss nicht nur fachliche und technische, sondern auch organisatorische Anforderungen beachten, um die Optimierungspotenziale vollständig auszuschöpfen. Diese Arbeit erläutert diese Anforderungen und stellt eine Architektur für ein Qualitätsmanagementsystem vor. Die Architektur wird hinsichtlich der Erfüllung der erläuterten Anforderungen analysiert. Desweiteren werden die Vor- und Nachteile fiir die jeweiligen Architekturentscheidungen unter Betrachtung der Anforderungen diskutiert. Das Ziel der Arbeit ist es, die Architektur entsprechend zu erläutern, sodass eine Organisation diese für sich angepasst implementieren kann.
Über Ludwig Mies van der Rohe ist alles gesagt, oder? 1886 in Aachen geboren, entwickelte er sich zu einem der renommiertesten und bekanntesten Architekten weltweit – mit ikonischen Bauten wie der Neuen Nationalgalerie in Berlin oder Bauten wie dem Seagram Building in New York. Viele Publikationen sind zu seinem Leben und seinen Arbeiten erschienen. Jedoch finden die nordrhein-westfälischen Projekte, mit Ausnahme der Krefelder Villen Lange und Esters, darin erstaunlich wenig Beachtung.
Erstaunlich deshalb, weil sich besonders an diesen Projekten sehr eindrucksvoll sein Lebensweg aufzeigen lässt – vom rheinischen Handwerkslehrling über den Bauhausdirektor bis hin zum weltweit agierenden Architekten. Innerhalb der Baukunst des 20. Jahrhunderts spiegeln seine Arbeiten im heutigen Nordrhein-Westfalen die Entwicklung vom Jugendstil zum International Style.
Der Erforschung dieser vielfältigen Spuren widmen sich mittlerweile seit vielen Jahren Studentinnen und Studenten sowie Wissenschaftlerinnen und Wissenschaftler unterschiedlicher westdeutscher Architektur-Hochschulen. Unter der Leitung der beiden Herausgeber, Prof. Dr. Daniel Lohmann und Prof. Norbert Hanenberg, dieses Architekturführers wurden die Projekte dokumentiert, Spuren gelesen, Quellen ausgewertet, und die Geschichte von „Mies im Westen“ wurde nachvollzogen.
Die vorliegende Publikation ist in Zusammenarbeit mit dem Museum für Architektur und Ingenieurkunst NRW im Rahmen der Lehrveranstaltungen der TH Köln und der TH Mittelhessen (Gießen) mit Studierenden entstanden.
Die Veröffentlichung stellt einen Abriss zur Geschichte der Kölner Architekturfakultät dar. Außerdem sind von den ca. 200 identifizierten Architekturlehrern 59 Dozenten sowohl durch eine Kurzbiographie als auch durch ihre wichtigsten Bauten bzw. künstlerischen Werke genauer vorgestellt. Als Abspann dient ein historischer Abriss zur Ausbildung von Architekten (von Vitruv bis heute).
Bei AskA-Services handelt es sich um digitale Auskunftsdienste im Internet, die nicht von institutionalisierten Bibliotheken oder organisierten Gruppen von Bibliothekaren betrieben werden. Stattdessen werden sie entweder von nicht-kommerzielle Informationsdienstleistern (z.B. öffentlichen Institutionen, in seltenen Fällen auch Einzelpersonen bzw. kleinen Gruppen von Personen) oder aber von Firmen angeboten, die eine Gewinnabsicht verfolgen. Neben thematisch offenen Services gibt es auch solche, die sich auf bestimmte Themengebiete spezialisiert haben. Die Antworten, die der Kunde erhält, können von realen Personen gegeben oder automatisch erstellt werden. Außerdem können sie rein natürlichsprachig sein, lediglich auf andere Webseiten verweisen oder zusätzlich auch Literatur- oder Linklisten, Bilder, Grafiken, Tabellen o.ä. beinhalten. Grundsätzlich zu unterscheiden sind nicht-kommerzielle und kommerzielle AskA-Services. Letztere können in kostenlose und kostenpflichtige Angebote unterteilt werden. Die ersten nicht-kommerziellen Dienste gingen bereits zwischen 1993 und 1995 online. Dagegen stieg die Zahl der AskA-Services mit Gewinnerzielungsabsicht erst ab 1999 sprunghaft an. Neben theoretischen Ausführungen zur Definition der AskA-Services, ihrer Entwicklung und Typologie werden exemplarisch die AskA-Services AskJeeves.com, Webhelp.com, das MAD Scientist Network, Wer-weiss-was.de und Google Answers vorgestellt.
La presente comunicación se sitúa dentro del campo de la metodología fraseográfica bilingüe español-alemán y tiene por objeto tratar algunos aspectos relacionados con el definiens: se analizarán a) posibles alternativas; b) la conveniencia de recurrir, en algunos casos, a paráfrasis explicativas en la lengua terminal y las dificultades que ello implica; y c) el trato que deben recibir los equivalentes fraseológicos parciales, contextuales y unidireccionales. También se abordará la cuestión de cómo hay que citar ciertas unidades fraseológicas verbales del alemán en caso de que constituyan equivalentes a unidades del español y de cómo este hecho influye en la microestructura del diccionario.
El presente artículo trata aspectos teóricos y prácticos de la traducción poética, concretamente de la traducción de poemas rimados, entre otras cosas con el objetivo de rebatir algunos clichés que se han ido afincando en España en la mentalidad de no pocos críticos y también de algunos traductores.
In dieser Präsentation stelle ich kurz mein Forschungsprojekt vor: Die Auswirkungen von Covid-19 auf die chinesische Versicherungs- und Rückversicherungsbranche.
Ich erläutere ein wenig die Hintergründe, gebe einen Überblick über die makroökonomischen Auswirkungen und gehe im Anschluss detaillierter auf die Auswirkungen auf die unterschiedlichen Branchensegmente ein. Den Abschluss bildet ein Ausblick auf die Branche für die Zeit nach Covid-19.
Grundlegend wird in dieser Masterarbeit der Frage nachgegangen, welche Anspruchsvoraussetzungen Versicherte nach der Integration des Gesetzes zur Verbesserung der Hospiz- und Palliativversorgung (HPG) erfüllen müssen, um eine Palliativversorgung zu erhalten. Über die definitorische Unschärfe des Beginns und weiteren Verlaufs des Sterbens werden das Risiko der Ungleichbehandlung aufgezeigt und die Konsequenzen für die Soziale Arbeit abgeleitet.
Der Architekturstil REST erlangt in den letzten Jahren immer größere Verbreitung. RPC-orientierte Architekturstile scheinen besonders bei Software-Neuentwicklungen obsolet zu werden. Es existieren viele Gründe, die für eine Verwendung von REST-Architekturen sprechen. Den- noch zeigen sich auch Probleme bei der Entwicklung von REST-konformen Anwendungen. Diese Probleme und jeweils existierende Lösungsansätze werden in dieser Arbeit aufgezeigt. Dabei geht es zum einen um verfügbare Frameworks und technische Spezifikationen und zum anderen um konzeptionelle Lücken im Bereich der Automatisierung von Geschäftsprozessen.
Problemstellung: COVID-19 ist nicht nur aufgrund der Folgen der Erkrankung problematisch, sondern auch aufgrund einer ganzen Reihe von Sekundäreffekten. So stellt eine lang andauernde Pandemie eine Dauerbelastung dar, welche sich auf die Psyche des Menschen auswirken kann. Insbesondere Kinder und Jugendliche sind hier auf-grund ihrer besonderen Angewiesenheit auf das häusliche Umfeld besonders vulnerabel. Zeitgleich ist diese Gruppe in bestehenden Krisenplänen bisher nicht oder kaum relevant. Aufgrund der Besonderheit, dass sich Kinder und Jugendliche noch in der Entwicklung befinden und dass, insbesondere für jüngere Kinder, die aktuell seit über einem Jahr bestehende Situation der Pandemie und die damit verbundenen Einschränkungen einen erheblichen Zeitraum darstellt, besteht ebenfalls die Gefahr von kulturellen und sozialen Entwicklungsproblemen. Vor diesem Hintergrund ist auch zu beachten, dass Maßnahmen gegen das Virus, welches die Primärgefahr darstellt, ebenfalls negative Auswirkungen auf Kinder und Jugendliche darstellen und somit zu Sekundärgefahren führen können. Weiterhin ist zu bedenken, dass Fehler in der Pandemiebekämpfung, welche sich nachhaltig negativ auf Kinder und Jugendliche auswirken, in der Zukunft in Form von Problematiken im Erwachsenenalter und, bei entsprechend vielen Betroffe-nen, in der gesamten Gesellschaft sichtbar werden. Um dies zu erforschen, werden zunächst die Fragestellungen bearbeitet, welche Sekundärgefahren und Risiken aufgrund von COVID-19 für Kinder und Jugendliche vorliegen, sowie ob die Vor- und Nachteile der Lockdowns die Vorteile für Kinder und Jugendliche überwiegen. Im Anschluss werden Handlungsempfehlungen gegeben, wie die Gesundheit und das Wohlergehen von Kindern und Jugendlichen in künftig ähnlichen Lagen sichergestellt werden können.
Angewandte Methoden: Um ein möglichst umfassendes Bild über die Lage von Kindern und Jugendlichen in Deutschland zu erhalten, werden Experteninterviews mit Expertinnen und Experten aus unterschiedlichen Fachgebieten und Berufsbereichen durchge-führt. Aufgrund der internationalen Vergleichbarkeit der Problematik werden auch Ex-pertinnen und Experten aus dem internationalen Raum befragt. Dies kann dazu beitragen, Aspekte, welche im nationalen Raum nicht bekannt sind oder nicht als relevant eingeschätzt werden, in diese Arbeit mit einfließen zu lassen. Weiterhin werden Studien und Quellen aus dem nationalen Raum in Form einer Sekundäranalyse betrachtet, um auf die Vor- und Nachteile der Lockdowns Rückschlüsse ziehen zu können. Insbesondere die Unterschiedlichkeit der verschiedenen Studien und Quellen stellte dabei eine große Herausforderung dar. Somit findet eine Anwendung von qualitativen und quanti-tativen Methoden statt, was als Mixed Methods bezeichnet wird.
Wichtigste Ergebnisse: Eine eindeutige Aussage über die Sekundärgefahren für Kinder und Jugendliche gestaltet sich als schwierig, da diese Gefahren unter anderem stark durch das häusliche Umfeld geprägt sind. So scheinen Kinder und Jugendliche aus so-zial schwächeren Familien in einem höheren Maße betroffen zu sein als jene, aus sozial stärkeren Familien. Zusätzlich stellt die Pandemie eine Brennglasfunktion für bereits zu-vor bestehende Problematiken dar. Der Vergleich von Vor- und Nachteilen der Lockdowns für Kinder und Jugendliche zeigt die Unterschiedlichkeit bestehender Studien und Quellen auf, wodurch das Ergebnis dieser Fragestellung primär Indizien darstellt. Die Handlungsempfehlungen, welche ebenfalls ein Ziel dieser Arbeit darstellen, bestehen
auf den vorherigen Ergebnissen aufbauend aus grundsätzlichen Handlungsempfehlungen, dem Einbezug von Kindern und Jugendliche in Pandemiepläne, der Beteiligung von Kindern und Jugendlichen in Entscheidungen bezüglich Krisensituationen sowie der Nachsorge der aktuellen Pandemie.
Anwendungsgebiet und Zielgruppe: Bei dem Anwendungsgebiet handelt es sich zu-nächst um ganz Deutschland, wobei unter Beachtung örtlicher Gegebenheiten auch ein internationaler Anwendungsbezug des Themas besteht. Die Zielgruppe stellen insbesondere Politiker und Entscheider in Behörden dar, welche zuständig für die Formulierung bzw. Fortschreibung von Pandemieplänen und für die Bereitstellung der techni-schen und personellen Ressourcen sind.
Soziale Netzwerke decken ein breites Spektrum an Anwendungsfällen ab und bieten somit eine Vielzahl an Funktionen, bei denen die Teilnehmer mit ihrem sozialen Umfeld interagieren und mit anderen Informationen teilen können. Die dabei aufkommenden Informationen über die Teilnehmer müssen teilweise erfasst und gespeichert werden, um die Funktionalität und die Gebrauchstauglichkeit des sozialen Netzwerkes zu sichern und Missbrauch vorzubeugen. Dies jedoch hat den Nachteil, dass die entstandenen Daten und somit eine Reihe von Aktivitäten der Teilnehmer durch den Anbieter eines sozialen Netzwerkes beobachtet werden können. Um die Privatsphäre der Teilnehmer zu schützen oder auch um eine bessere Skalierbarkeit der sozialen Netzwerke zu erreichen, konzentrieren sich aktuelle Forschungsarbeiten auf die Dezentralisierung sozialer Netzwerke. Dies führt zu neuen Herausforderungen, da die Aufgaben der zentralen Organisationseinheit auf mehrere Komponenten ver-
teilt werden müssen. Eine dieser Aufgaben ist es, die Authentizität und Integrität der Daten für die Teilnehmer sicher zustellen. Die Vernachlässigung dieser beiden Schutzziele kann zu Missbrauch und verschiedenen Angriffen auf ein soziales Netzwerk und dessen Teilnehmer führen.
Um an diese Problemstellung heranzugehen, soll innerhalb dieser Arbeit geklärt werden, wann und welche Mechanismen für die Erfüllung der beiden Schutzziele in sozialen Netzwerken ohne zentrale Organisationseinheit geeignet sind. Hierfür werden die Angriffe zur Verletzung dieser beiden Schutzziele in soziale Netzwerken und der darunter liegenden Infrastruktur betrachtet. Des Weiteren wird geklärt, welchen Einfluss die Dezentralisierung auf die die Teilnehmerdaten hat und was die relevanten Kriterien für authentische Teilnehmerdaten sind.
In dieser Arbeit wird beschrieben wie verschiedene Messwerte in Prüfkörperaufnahmen nach PAS 1054 unter zu Hilfenahme von ImageJ bestimmt werden. Desweiteren wird über tabellarische und graphische Darstellung der ermittelten Daten und deren Export in für andere Programme lesbare Formate geschrieben. Im weiteren werden auf Methoden zur Glättung der Messwerte beschrieben. Die Umsetzung der Methoden in das bestehende Software Framework Optimage und dessen Aufbau wird zum besseren Verständnis erläutert. Die gesamte Umsetzung erfolgte in der objektorientierten Programmiersprache Java.
Eine gängige Form der Qualitätskontrolle von Quellcode sind Code Reviews. Der Fokus von Code Reviews liegt allerdings oft auf syntaktischer Analyse, wodurch weniger Zeit für eine semantische Überprüfung bleibt und zusätzliche Kosten verursacht werden. Code Reviews lassen sich zwar teilweise durch "Linter" automatisieren, dennoch können sie nur syntaktische Fehlermuster identifizieren, welche vorher definiert wurden. Zudem kann ein Linter nur darauf hinweisen, dass möglicherweise ein Fehler vorliegt, da die Fehler nicht durch logische Inferenz ermittelt werden. Die vorliegende Arbeit prüft, ob ein Deep Learning Modell den regelbasierten Ansatz von Lintern ablösen und die semantische Ebene erschließen kann. Dazu wurde eine Stichprobe von Java Methoden zusammengestellt und im Anschluss mit einem Supervised Learning Ansatz binär klassifiziert. Da die Analyse von Quellcode der Textanalyse stark ähnelt wird ein gängiger Ansatz für Textklassifikation verwendet. Dadurch kann gezeigt werden, dass eine Präzision von 85% bei der Erkennung von Quellcodeproblemen durch Deep Learning möglich ist.
Im Rahmen von MILOS II wurde das erste MILOS-Projekt zur automatischen Indexierung von Titeldaten um eine semantische Komponente erweitert, indem Thesaurusrelationen der Schlagwortnormdatei eingebunden wurden. Der abschließend zur Evaluierung des Projekts durchgeführte Retrievaltest und seine Ergebnisse stehen im Mittelpunkt dieses Texts. Zusätzlich wird ein Überblick über bereits durchgeführte Retrievaltests (vorwiegend des anglo-amerikanischen Raums) gegeben und es wird erläutert, welche grundlegenden Fragestellungen bei der praktischen Durchführung eines Retrievaltests zu beachten sind.
Ziel dieser Arbeit ist die Automatisierung von Prüfverfahren, welche in der PAS 1054 definiert sind und in der digitalen Mammographie ihre Anwendung finden. Dazu standen Aufnahmen eines Prototypen des in der PAS beschriebenen Prüfkörpers zur Verfügung, die mit dem Sectra MDM angefertigt wurden. Anhand dessen konnte mit der Programmiersprache Java und unter Verwendung der Software ImageJ ein Programm geschrieben werden, welches die automatische Analyse der Bilddaten ermöglicht. Eine übersichtliche Benutzeroberfläche und die Ausgabe von Ergebnissen, die auf das Wesentliche reduziert sind, gewährleisten eine zeitsparende und effektive Handhabung.
Zielsetzung der Studie war die Erhebung der Betroffenheit von Pflegeverantwortung des wissenschaftlichen Personals, die Bewältigungsformen und die beruflichen und gesundheitlichen Konsequenzen am Beispiel der Georg-August-Universität Göttingen. Im Mixed-Methods-Forschungsdesign wurden qualitative Interviews mit zentralen Akteuren der Universität (N=16) mit einer quantitativen Online-Erhebung am wissenschaftlichen Personal (N=967) kombiniert. Die Ergebnisse zeigen, dass 16% des wissenschaftlichen Personals zum Befragungszeitpunkt von Pflegeverantwortung betroffen waren, teilweise mit erheblichen gesundheitlichen Konsequenzen sowie einem insgesamt sehr hohem Mental Load. Rund die Hälfte der Wissenschaftler*innen antizipiert eine Pflegeverantwortung sicher oder wahrscheinlich für die nächsten Jahre. Die qualitativen Interviewergebnisse zeigen eine gestiegene Wahrnehmung der Relevanz von Pflege-/Sorgeverantwortung an der Universität. Gleichzeitig wurde deutlich, dass Pflegeverantwortung deutlich weniger sichtbar ist als die Sorge um Kinder und auch kaum durch konkrete Maßnahmen adressiert wird. Die Ergebnisse münden in Handlungsempfehlungen zur Verbesserung der Vereinbarkeit von wissenschaftlicher Laufbahn und der Sorge-/Pflegeverantwortung für Angehörige.
In dieser Arbeit wird das VD 17-Projekt vorgestellt. Der Erörterung des Themas ist zunächst ein kurzer Exkurs in die Entwicklungsgeschichte des Projekts vorangestellt, um einen Überblick über die Vorgeschichte und Planungsphasen des Projekts zu gewähren. Im Mittelpunkt stehen daher vier Aspekte: zunächst wird der Inhalt des Verzeichnisses anhand des geographischen Umfangskonzeptes, der inhaltlichen Schwerpunkte der Teilnehmerbibliotheken sowie durch die enthaltenen Schriftenklassen näher definiert. Es folgt die Erläuterung der inhaltlichen Erschließung und die dafür angewandten Regelwerke. Ein großes Gewicht wird anschließend der technischen Realisierung des VD 17 sowie den Recherchemöglichkeiten in der multimedialen Datenbank zugeordnet.
Bei der Interaktion mit technischen und sozialen Systemen treten für Menschen mit und ohne Beeinträchtigungen Barrieren auf. Die vorliegende Arbeit befasst sich mit der Identifikation dieser Barrieren. Dabei wird der wissenschaftliche Diskurs über die Ursachen von Barrieren als ein mehrdimensionales Handlungsfeld betrachtet. Der Bezug zur Mensch-Computer-Interaktion wird hergestellt und Philosophien zur Umsetzung von Barrierefreiheit im Gestaltungsprozess werden erläutert. Es wird ein grundlegender Vergleich von Barrierefreiheit und Usability gezogen. Der objekt- und subjektbasierte Ansatz zur Identifizierung von Barrieren wird ebenfalls vorgestellt.
Die gewonnenen Erkenntnisse werden im Kontext des ehrenamtlichen Musikvereins Junges Musical Leverkusen e. V. praktisch umgesetzt. Für den Kooperationspartner wird der Service rund um ein Ticketverkaufssystem auf mögliche Barrieren untersucht. Dazu wird die Domäne analytisch dargestellt und anschließend empirisch untersucht. Es werden Interviews mit fünf Personen mit unterschiedlichen Beeinträchtigungen geführt. Aus den daraus resultierenden identifizierten Barrieren werden Gestaltungsempfehlungen abgeleitet und deren Nutzen für den:die Benutzer:in und Umsetzbarkeit für den Kooperationspartner diskutiert.
Die Fachhochschule Köln führte mit Unterstützung des Instituts für e-Management e.V. eine Studie zu Wissensmanagement vom März 2004 bis Januar 2005 durch. An der Befragung nahmen 89 Personen aus den Branchen Industrie, Handel und Dienstleistung teil. Um herauszufinden, was ein erfolgreiches von einem weniger erfolgreichen Wissensmanagement unterscheidet, lag der Fokus der Studie auf den dafür verantwortlichen Faktoren. Dabei wurden durch systematische Fragen die Dimensionen Mensch, Organisation und Technik unterschieden. Die Ergebnisse zeigen klar auf, dass die Barrieren im organisatorischen Bereich zu suchen sind. Fehlende Zeit wird hier als sehr relevant angesehen. Die Ergebnisse der Studie zeigen u. a. wichtige Ziele, Barrieren und Erfolgsfaktoren im Umgang mit Wissensmanagement. Im Zusammenhang mit den Zielen, die für ein Wissensmanagementsystem gesetzt werden, erachten die Befragten die Verbesserung von Prozessabläufen und Kommunikationsflüssen als besonders wichtig. Nach Ansicht der Befragten ist der Erfolg von Wissensmanagement hauptsächlich von der Einstellung der User abhängig. So rangieren Unterstützung des Wissensmanagements durch das Top-Management, ein hoher Stellenwert von Wissen im Unternehmen und die Akzeptanz des Wissensmanagement durch die Mitarbeiter ganz oben bei den Angaben für Erfolgsfaktoren.
Krankenhäuser stellen eine wichtige Kritische Infrastruktur im Bereich des Gesundheitssektors dar, deren Funktionsfähigkeit bei allen Gefahrenlagen erhalten bleiben muss. Durch Interdependenzen mit anderen Kritischen Infrastrukturen, wie der Trinkwasserversorgung, kann ein Ausfall einer der Infrastrukturen zu einer Beeinträchtigung der jeweils anderen führen. Trinkwasser ist für den Menschen lebensnotwendig und muss daher überall in ausreichender Quantität und Qualität bereitgestellt werden (öffentlichen Daseinsvorsorge). Die Trinkwasserversorgung stellt eines der kritischsten Infrastrukturelemente in Krankenhäusern dar, deren Ausfall zu einer Gefährdung der quantitativen und qualitativen Gesundheitsversorgung führt. Die Vergangenheit hat gezeigt, dass Trinkwasserausfälle in Krankenhäusern keine Seltenheit darstellen und zu weitreichenden Beeinträchtigungen führen. Bei Großstörungen bzw. Großschadenslagen oder Katastrophenfällen, ist daher die kommunale Gefahrenabwehr/ der Katastrophenschutz in der Pflicht, zusammen mit anderen Akteuren Krisenmanagement- bzw. Maßnahmenplanungen zu erarbeiten. Dennoch existieren zurzeit fast keine adäquaten Krisenmanagementplanungen für die Herstellung einer Ersatztrinkwasserversorgung für Krankenhäuser. Dies gilt sowohl für die Krankenhäuser im Rahmen der Krankenhausalarm- und Einsatzplanung, als auch die kommunale Gefahrenabwehr bzw. den Katastrophenschutz und Wasserversorgungsunternehmen (WVU).
In dieser Master-Thesis, die im Sommersemester 2018 an der TH Köln erarbeitet wurde, sollte durch eine umfassende Risikoanalyse, unter Zuhilfenahme von Experteninterviews und Dokumentenanalysen das Risiko und die Folgen eines vollständigen Trinkwasserausfalles in einem Krankenhaus dargestellt und der aktuelle Stand der geplanten Bewältigungs- bzw. Krisenmanagementplanungen von Behörden und Organisationen mit Sicherheitsaufgaben (BOS), dem örtlichen WVU und des Krankenhauses für eine solche Schadenslage erhoben werden. Wurden die geplante Krisenmanagementplanungen als unzureichend oder nicht existent identifiziert, so sollten, wenn möglich, Vorschläge für neue Krisenmanagementkonzepte und Kapitel für den Krankenhauseinsatzplan erstellt werden, wofür ungenutzte Ressourcen für die Etablierung einer Ersatztrinkwasserversorgung ermittelt wurden. Die Analyse erfolgte durch eine Einzelfalluntersuchung anhand des Hauptgebäudes des Krankenhauses Merheim in Köln mit dem Szenario einer lokalen Lage, die nicht durch Kontamination des Wassers induziert ist und deren genaue Ursache nicht betrachtet wird. Um mögliche zukünftige Maßnahmen erarbeiten zu können, musste im Rahmen der Analyse der minimale Trinkwasserbedarf des Untersuchungsgebietes bzw. der einzelnen Funktionsbereiche erhoben und Kriterien für die Geeignetheit von Maßnahmen zur Ersatztrinkwasserversorgung erarbeitet werden. Diese Kriterien sind: Vorlaufzeit, Einhaltung der Trinkwasserverordnung, Versorgungskapazität und Verfügbarkeit von Versorgungsquellen. Für die Berechnung der Kritikalität wurde eine eigene Berechnungsmethode erarbeitet, die im Rahmen der Schutzzieldefinition eine Kritikalitätsanalyse ermöglicht, welche die Bedeutung des Gesamtobjektes und der einzelnen Prozessbausteine einbezieht. Das hier hergeleitete Schutzziel lautet: Verhinderung von Todesfällen bei Patienten durch die angenommene Gefahr und durch das ausfallbedingte Unterlassen von Behandlungsmaßahmen, die nicht anderweitig, durch z.B. Abmeldung von der örtlichen Notfallversorgung oder einer Evakuierung und Verlegung der Patienten, kompensierbar sind.
Das übergeordnete Ziel dieser Arbeit ist zusammengefasst die Identifikation der geplanten Maßnahmen zu Ersatztrinkwasserversorgung des Krankenhauses Merheim bzw. ggf. nicht vorhandenen Maßnahmen und somit die Feststellung, ob die Problematik des angenommenen Szenarios von allen Akteuren ausreichend betrachtet wird. Es soll das Bewusstsein für die Notwendigkeit und die Verantwortlichkeiten bzw. Zuständigkeiten von Krisenmanagementplanungen inkl. der Schnittstellenproblematik erhöht werden. Auf Grundlage dieser Arbeit können die Feuerwehr, Hilfsorganisationen, das Technisches Hilfswerk, der Wasserversorger und das Krankenhaus zukünftige Planungen begründen und die Ergebnisse für die Planung einer Ersatztrinkwasserversorgung für das Krankenhaus Merheim nutzen. Das Bundesamt für Bevölkerungsschutz und Katastrophenhilfe, das diese Arbeit ebenfalls betreut hat, möchte diese Arbeit zudem dafür verwenden, weiterführende Konzepte und Leitfäden zu entwickeln.
Hinsichtlich der Erfüllung des Schutzzieles wurde das Krankenhaus Merheim an sich und als Prozessbausteine insbesondere die Intensivstationen als sehr verwundbar identifiziert, was im Rahmen der Analyse zu einem sehr hohen Gesamtrisiko führte. Weitere Prozessbausteine mit sehr hohen Risikowerten sind die Reinstwasseraufbereitungsanlage, die Zentralwäscherei, das Zentrallabor, die Zentralsterilisation und die Anästhesiologie. Durch die sehr hohen Risikowerte und den maximalen Trinkwasserbedarf des Krankenhauses von 150m³/h (eine Ermittlung des minimalen Bedarfes war nicht möglich) lässt sich ein hoher Handlungsbedarf für Krisenmanagementplanungen für den Fall eines Trinkwasserausfalles in dem Krankenhaus ableiten. Die Analyse der Krisenmanagementplanungen hat ergeben, dass keine Maßnahmen zur Krisenbewältigung eines Trinkwasserausfalles im Krankenhaus Merheim existieren. Dies betrifft alle einbezogenen Akteure. Auch eine Einspeisestelle für eine Ersatztrinkwasserversorgung und andere Redundanzsysteme sind im Krankenhaus Merheim nicht vorhanden. Die redundante Ausgestaltung der Trinkwassereinspeisung aus dem öffentlichen Netz in das Privatnetz des Krankenhauses ist dabei nur bei einem Versorgungsausfall auf Seiten des öffentlichen Trinkwassernetzes wirkungsvoll. Eine Ersatztrinkwasserversorgung wäre mit den in der Stadt Köln vorhandenen Ressourcen ausreichend gestaltbar. Verfügbare und geeignete Kapazitäten sind bei der Feuerwehr Köln, privaten Firmen mit Tanklastzügen, der Bundespolizei und Hilfsorganisationen identifiziert worden. Bei den durchgeführten Interviews wurde von fast allen Akteuren eine hohe Relevanz des Themas und der hohe Bedarf an Planungen bestätigt. Jedoch ist durch die bestehende Mangelplanung und der Vernachlässigung von Übungen zur Not- und Ersatztrinkwasserversorgung (z.B. Inbetriebnahme Trinkwassernotbrunnen) davon auszugehen, dass bisher ein mangelndes Problembewusstsein und Unstimmigkeiten bezüglich der Zuständigkeiten bei den verantwortlichen Stellen vorlag. Die Kommune (bzw. hier die Stadt Köln) sollte daher alle Beteiligten zusammenbringen, über die Verantwortlichkeiten bzw. Zuständigkeiten aufklären und einen kooperativen Planungsprozess initiieren. Eine eigene Planung, im Rahmen dieser Arbeit, in Form eines Kapitels für den Krankenhauseinsatzplan und Krisenmanagementplänen für die Gefahrenabwehr bzw. den Wasserversorger konnte durch das Fehlen einer Trinkwassereinspeisestelle in das Krankenhaus nicht erstellt werden. Jedoch war es möglich ein kurzes Kapitel für den Krankenhauseinsatzplan zu erstellen, das auf die weitreichenden Folgen eines Trinkwasserausfalles aufmerksam macht und Anweisungen zum schnelleren Übergang zu einer Evakuierung/Räumung liefert. Durch das so erreichte schnellere Handeln, könnten zumindest viele weitere Folgeschäden bei den Patienten verhindert werden. Überlegungen dahingehend, ob eher präventive oder zur Selbsthilfe befähigende Maßnahmen statt Bewältigungsplanungen in Betracht gezogen werden sollten, sind durchzuführen.
Neben den bekannten Hyperlinks in Artikeltexten verfügt die Online-Enzyklopädie Wikipedia mit ihrem Kategoriensystem über ein weiteres Mittel zur Herstellung von Relationen zwischen Artikeln. Jeder Artikel ist einer oder mehreren Kategorien zugeordnet, die ihrerseits anderen Kategorien zugeordnet sind. Auf diese Weise entsteht eine systematische Ordnung von Artikeln und Kategorien. Betrachtet man nur die Artikel- und Kategoriennamen sowie diese Relationen, so stellt das Kategoriensystem ein gemeinschaftlich erstelltes Begriffssystem dar, das sämtliche von der Wikipedia abgedeckten Themenbereiche umfasst, jedoch -- technisch betrachtet -- ausschließlich hierarchische Relationen enthält. Aufgrund des Fehlens eines differenzierten Regelwerks zur Kategorisierung ist das Kategoriensystem derzeit jedoch inkonsistent, daneben sind, bedingt durch das Vorhandensein lediglich eines Relationstyps, viele Relationen wenig aussagekräftig. Dennoch besteht das Potenzial zur Schaffung eines stark und differenziert relationierten Begriffssystems aus dem bestehenden Kategoriensystem heraus. Die vorliegende Arbeit diskutiert die Anwendungsmöglichkeiten eines solchen Begriffssystems und die Option seiner gemeinschaftlichen Entwicklung aus dem bestehenden Vokabular des Kategoriensystems, mithin also der gemeinschaftlichen Relationierung von Begriffen anhand eines differenzierten Relationeninventars. Ausgehend von den Kategorien "Theater" und "Jagd" der deutschsprachigen Wikipedia wird ein hierarchisch strukturiertes Relationeninventar definiert, das sowohl spezifische als auch allgemeine Relationstypen enthält und damit die Möglichkeit zur Übertragung auf andere Gegenstandsbereiche bietet. Sämtliche Artikel- und Kategoriennamen, die unterhalb jener Kategorien erscheinen, werden unter Verwendung der neu entwickelten Relationstypen als Deskriptoren relationiert.
Folgende Aspekte lassen sich im Rahmen dieser Forschung festhalten:
• Im ORSA Bericht 2022 dient eine Anlehnung an die Klimawandelszenarien des „Network for Greening the Financial System (NGFS)“ (ein Zusammenschluss der Aufsichtsbehörden und Zentralbanken) als erste Orientierung.
• In Anlehnung an das NGFS sind zwei langfristige (mind. 30 Jahre) Temperaturanstiegsszenarien (< 2°C und ≥ 2°C) zur weiteren Analyse auszuwählen.
• Hierfür bietet sich ein Szenario mit hohem Transitionsrisiko (z.B. „Delayed Transition“) und ein Szenario mit hohem physischen Risiko (z.B. „Current Policies“) an.
• Im ORSA 2022 dienen einfach gehaltene, quantitative Analysen als Basis, um daraus qualitative Aussagen abzuleiten, z.B.:
o Neubewertung per heute (Sensitivitätsanalyse)
o Stresstest mit instantanen Schocks („Zeitreise“)
o Projektion (statisch oder mit Managementregeln)
• Schließlich sind bei der Ableitung von Ergebnissen die Besonderheiten der verschiedenen Bereiche/Sparten zu berücksichtigen:
o die Kapitalanlagen könnten beispielsweise langfristig durch Transitionsrisiken geprägt sein (z.B. steigende Energiepreise)
o die Schaden/Unfallversicherung ist geprägt durch das reformierte Baurecht (klimabewusstes Bauen)
o die Personenversicherung ist geprägt durch lange Vertragslaufzeiten.
„Die sozialen Problemlagen der Frauen, die ich betreue, werden immer komplexer.“ So sagte kürzlich eine Frauenhaus-Mitarbeiterin sinngemäß. Diese Aussage einer Fachfrau in Verbindung mit eigenen Erfahrungen während meines Projektstudiums in einem Frauenwohnheim machten mich neugierig, mehr über die Sozialarbeit in diesen Bereichen zu erfahren. Mein persönliches Interesse begründet sich außerdem darin, daß der Berufseinstieg bevorsteht und das Frauenwohnheim ein von mir bevorzugtes Praxisfeld ist. Damit erschien es mir sinn- und reizvoll, ein Thema aus diesem Bereich zu bearbeiten. Aus diesen Überlegungen entwickelte sich die Fragestellung der vorliegenden Arbeit, die sich zu Beginn sowohl auf den Bereich ‘Frauenwohnheim’ als auch ‘Frauenhaus’ bezog, im Laufe der Zeit jedoch - wie später noch deutlich wird - auf ‘Frauenwohnheim’ konkretisierte: ‘Welchen sozialen Problemlagen begegnet eine Sozialarbeiterin im Frauenwohnheim und welche erforderlichen Kompetenzen ergeben sich für sie daraus?’ Das fachliche und fachöffentliche Interesse an diesem Thema besteht darin, im Zuge einer Professionalisierung der Sozialen Arbeit den steigenden Anforderungen in verschiedenen Praxisfeldern adäquat zu begegnen, etwa auch durch die Erarbeitung sogenannter Anforderungs- oder Kompetenzprofile. Die gibt es meines Wissens für die Sozialarbeit im Frauenhaus- und Frauenwohnheim-Bereich bisher nicht. An der Professionalisierung der Sozialarbeit in diesen Praxisfeldern besteht ein öffentliches Interesse insoweit, daß eine Verselbständigung und eine verbesserte gesellschaftliche Integration der Betroffenen erwünscht ist. Von Seiten der öffentlichen Kostenträger besteht auch Interesse daran, mit möglichst geringem Kostenaufwand möglichst gute Ergebnisse zu erzielen, also effizient zu arbeiten. Der vorliegenden Arbeit liegt eine qualitative Untersuchung zugrunde. Gegenstand der Untersuchung waren Frauen, die im Frauenwohnheim oder Frauenhaus leben oder gelebt haben. Aus einem ausgewählten Einzelfall erarbeite ich die sozialen Problemlagen sowie die daraus resultierenden erforderlichen Kompetenzen für die Sozialarbeit im Frauenwohnheim. Durch Hinzuziehung von Literatur sichere ich die Ergebnisse wissenschaftlich ab.
Die detektive Quantenausbeute (DQE) erlaubt eine umfassende Charakterisierung bildgebender Systeme, da sie sowohl etwas über das Auflösungsvermögen, als auch über die Rauscheigenschaften des Systems aussagt. Im Rahmen dieser Arbeit wurde die DQE zweier digitaler Mammographie-Einrichtungen bestimmt, wobei für vergleichbare Dosisniveaus folgende Ergebnisse erzielt wurden: Für eine Ortsfrequenz von einem Lp/mm beträgt die DQE des indirekten Systems ca. 42% und die des direkten Systems auf Basis von amorphem Selen ca. 62%.
Die Hough-Transformation liefert die Parameter von in einem Bild vorkommenden Geraden. Durch die Kameraverzerrung werden die in der realen Welt vorkommenden Geraden jedoch nicht mehr auf Geraden abgebildet. Dies führt dazu, dass im Hough-Raum die entsprechenden Geradenpunkte nicht mehr auf den gleichen Punkt abgebildet werden. Durch Variation der Verzerrungsparameter mit Hilfe eines bereits vorliegenden Optimierungsprogrammes ist eine Korrektur zu ermitteln. Dabei sollen drei unterschiedliche Ansätze miteinander verglichen werden. Bildmaterial sollte Aufnahmen von Testobjekten und Gebäuden sein.
Bewegung als Musikinstrument - Entwicklung eines Prototypen auf Basis von Kinect und Pure Data
(2012)
Es wurden Möglichkeiten der Bewegungsanalyse durch Gamecontroller untersucht und dazu passende Audioerzeuger erstellt. Dazu wurden vier Prototypen erstellt, die auf verschiedenen Analysetechniken basieren. Dazu zählt die Analyse per Webcam, der Sony Playstation Move Controller, und die Microsoft Kinect. Dann habe ich einen Ansatz auf Basis der Kinect weiter-entwickelt. Die Eingabedaten der Kinect wurden über Open Sound Control zu Pure-Data über- ragen. In Pure-Data habe ich ein Instrument erstellt, das durch die geschickte Kombination von Oszillatoren und Filtern einen individuellen und interessanten Klang erzeugt. Dazu wurde ein entsprechendes Kontrollkonzept umgesetzt, welches sich an dem eines Saiteninstrumentes orientiert, dieses Konzept jedoch von der Bewegung der Finger und Hände auf größere Bewe- gungen des ganzen Körpers überträgt. Es wurden Schnittstellen erstellt und diskutiert, mit denen das System via MIDI und Open Sound Control auch an andere Audioerzeuger angeschlossen werden kann. Während der ganzen Entwicklung wurde darauf geachtet, Open-Source-Software zu bevorzugen. Am Ende steht ein elaboriertes System, welches abgesehen von der Hardware völlig frei verfügbar und quelloffen ist.
Die vorliegende Bachelorarbeit erforscht, inwiefern sich eine Analyse des Projektes BibChatDe, eines bibliothekarischen Twitterchats, und der im Zuge dessen diskutierten Themen als Grundlage für die Konzeption bibliothekarischer Weiterbildung eignet. Nach einer Beschreibung der Funktionen von Twitter und der Eigenschaften von Twitterchats wird durch eine Analyse der Beteiligung festgestellt, dass das Projekt BibChatDe nach einem Jahr Laufzeit als Erfolg gewertet werden kann. Hinsichtlich der Nachhaltigkeit besteht Optimierungspotenzial, daher werden Handlungsoptionen zur Verbesserung der Nachhaltigkeit aufgezeigt. Nach Erläuterung der Anforderungen an Weiterbildungsinhalte und - formate werden die diskutierten Themen des BibChatDe anhand eines Kategorienschemas analysiert. Das Ergebnis zeigt, dass eine Themenanalyse nur bedingt Anhaltspunkte für die Konzeption bibliothekarischer Weiterbildung liefert. Auf Grundlage der Themenanalyse zusammen mit den Anforderungen an Weiterbildungsinhalte und -formate werden Konzepte für ein digitales Fortbildungsangebot auf Twitter und eine Präsenzveranstaltung erarbeitet.
Bibliothek 2.0 : Neue Perspektiven und Einsatzmöglichkeiten für wissenschaftliche Bibliotheken
(2007)
Zunächst als Marketingbegriff geschaffen, ist der Neologismus „Web 2.0“ mittlerweile zum buzzword geworden, dem bis dato jedoch eine konkrete und eindeutige Definition fehlt. Zunehmend erlangt die Thematik des Web 2.0 große Aufmerksamkeit und beinahe täglich entstehen neue Applikationen, Anwendungen und Informationsdienstleistungen, die sich besonders durch eine kollaborative Entstehung und Nutzung von Informationen kennzeichnen – Schlagwörter wären hier u.a. Wikis, Weblogs oder RSS-Feeds. Wissenschaftliche Bibliotheken, die als Zentren von Informationsdienstleistungen dienen, dürfen sich vor dem externen wie internen Gebrauch und der Einbindung der Web 2.0-Techniken in ihre Institutionen nicht verschließen, sondern sollten gerade hier eine Vorreiterrolle einnehmen, um so das Geschehen auf diesem für sie potenziell immer wichtiger werdenden Sektor beeinflussen und mitgestalten zu können. In dieser Arbeit sollen solche wissenschaftlichen Bibliotheken vorgestellt werden, die in Bezug auf Web 2.0-Anwendungen bereits erste Erfahrungen gesammelt haben und nunmehr für weitere wissenschaftliche Bibliotheken eine Vorbildfunktion einnehmen können. Die dargestellten bibliothekarischen Beispiele zeigen, dass eine Wandlung und Anpassung an die neuen Anforderungen – seitens der Bibliotheksnutzer, aber auch und vor allem seitens der Bibliothekare – bereits begonnen hat. Im Einzelnen liegt hierbei das Hauptaugenmerk auf dem Kölner UniversitätsGesamtkatalog (KUG), dem Recommender-System BibTip in Karlsruhe, dem Weblog der UB Mannheim, der LMU München mit ihrer Schnittstelle zu Connotea und der internen Informationsplattform ISIS aus der SULB Saarbrücken. Ausgehend von diesen Beispielen aus der Praxis wird ferner ein genereller Blick gewagt, welche Fakten als Ursache für eine entstehende Bibliothek 2.0 gesehen werden können. Hierbei werden insbesondere die Auskunft, der Schulungskomplex und die Erschließung betrachtet, die von einem Umdenken und einer Umstrukturierung betroffen sein müssen, wobei für diese Einzelbereiche neue Optionen herausgearbeitet werden, durch die sie in besonderem Maß vom Web 2.0 profitieren können.
Bibliothek und Moderne in Japan : das wissenschaftliche Bibliothekswesen zwischen System und Kultur
(2011)
Die vorliegende Arbeit erklärt die gegenwärtigen Strukturen des Hochschulbibliothekssystems in Japan aus ihrer kulturhistorischen Entwicklung heraus. Im Mittelpunkt steht dabei die Frage nach Einflüssen der traditionellen japanischen Kultur auf das moderne Bibliothekswesen. Zunächst wird die Entwicklung des vormodernen Bibliothekswesens in Japan bis ca. 1850 geschildert. Sodann wird vor dem gesellschaftlichen und kulturellen Hintergrund der Entwicklung der japanischen Modernisierung bis in die Nachkriegszeit die Genese des modernen wissenschaftlichen Bibliothekssystems einschließlich des relevanten Verbandswesens und der Bibliothekarsausbildung erläutert. Das System der Hochschulbibliotheken wird dabei im Kontext angrenzender Systeme wie des Hochschulsystems und des allgemeinen Bibliothekssystems in Japan geschildert. Die internen Strukturen der japanischen Hochschulen und der ihnen angeschlossenen Bibliotheken sind der vorliegenden Darstellung zufolge in der Vorkriegszeit wesentlich vom Vorbild der zeitgenössischen deutschen Hochschulen beeinflusst gewesen, während in der Nachkriegszeit der US-amerikanische kulturelle Einfluss deutlich überwiegt. Die kooperative Bibliotheksarbeit, die Automatisierung und die Entwicklung hin zur digitalen Bibliothek vollzogen sich zwar gegenüber westlichen Ländern teils langsamer, führten aber doch zu einem leistungsfähigen und ausdifferenzierten Hochschulbibliothekssystem. Die Arbeit schildert zudem die Unterschiede zwischen Bibliotheken an privaten und staatlichen Trägerinstitutionen, zwischen älteren zweischichtigen und jüngeren einschichtigen Bibliothekssystemen, und die Rolle des japanischen Staates für die Bibliotheksentwicklung. Sie beschreibt auch einige der Herausforderungen des gegenwärtigen Systems: dazu zählen Probleme in der japanischen Bibliothekarsausbildung und die Entwicklungsperspektive der Träger vor dem Hintergrund der alternden japanischen Gesellschaft. Die Arbeit kommt zu dem Schluss, dass sich aus der Entwicklung des modernen Hochschulbibliothekssystems ein konsequenter kultureller Bruch mit der vormodernen japanischen Bibliothekstradition ersehen lässt. Die Modernisierung nach 1850 führte nicht nur zum Import von Techniken und systemischen Organisationsprinzipien des westlichen Bibliothekswesens, sondern auch die bibliothekarische Berufskultur wurde wesentlich von westlichem Gedankengut geprägt.
Durch technische und politische Veränderungen wird die Vernetzung verschiedenster gesellschaftlicher Gebiete immer leichter – so auch im Bibliotheksbereich. Vor diesem Hintergrund stellt sich die Frage, was dies für die „Bibliothekslandschaft“ Europas bedeutet: Befinden die europäischen Bibliotheken sich in einer Phase intensiver Zusammenarbeit durch Vernetzung – oder ist bereits ein arbeitsteiliges System auf europäischer Ebene im Entstehen begriffen? Nach Beschreibung der verschiedenen Infrastrukturebenen wird das Zustandekommen zweier unterschiedlicher, EU-geförderter Projekte erläutert (IMPACT und EDLnet). Zum einen, um die Bedeutung von Vernetzung für typische Projektabläufe darzustellen, zum anderen, um zu zeigen, dass Projekte als „temporäre Systeme“ funktionieren. Auf Basis der Analyse werden „Desiderate“ für die Zusammenarbeit formuliert und abschließend die Frage nach „Systembildung“ oder „Vernetzung“ beantwortet.
Ausgehend von einer kurzen Darstellung des deutschen bibliothekarischen Interesses an Frankreich seit den Achtzigerjahren gibt die Arbeit einen Überblick über den aktuellen Stand der deutsch-französischen Zusammenarbeit im Bibliothekswesen. Vorgestellt werden insbesondere Kooperationen und Partnerschaften von Öffentlichen und Wissenschaftlichen Bibliotheken und anderen bibliothekarischen Einrich-tungen sowie Austauschprogramme. Ein Schwerpunkt der Arbeit liegt dabei auf den Aktivitäten von Einrichtungen der Grenzregionen, da die deutsch-französische (z.T. auch trinationale) Zusammenarbeit hier verhältnismäßig stark ausgeprägt ist: Bereits Ende der Achtziger- / Anfang der Neunzigerjahre wurden Biblio 3 und die Arbeitsgruppe Bibliotheken von EUCOR (Europäische Konföderation der Oberrheinischen Universitäten) gegründet. Noch im Aufbau befinden sich die Kooperation des Interregionalen Arbeitskreises sowie die von biblio 2. Außerhalb der Grenzregionen fällt die Bilanz dagegen schlecht aus: Kooperationen zwischen deutschen und französischen Bibliotheken sind dort allenfalls punktuell vorhanden, und auch im Rahmen der bibliothekarischen Austauschprogramme werden derzeit keine Austausche zwischen deutschen und französischen Bibliothekaren durchgeführt. Untersucht werden deshalb die für diese Situation verantwortlichen Hindernisse und Schwierigkeiten, die bei der bibliothekarischen Zusammenarbeit zwischen Deutschland und Frankreich auch in den Grenzregionen auftreten. Aus diesen werden abschließend diejenigen Faktoren abgeleitet, die maßgeblich zu einer Aufnahme von Kontakten und zum Erfolg einer Kooperation beitragen. Weiterhin wird verdeutlicht, aus welchen Gründen eine Zusammenarbeit mit Frankreich trotz aller Probleme angestrebt werden sollte.
Bibliothekarischer Auskunftsdienst im Informationsverbund : Digital-reference-Konsortien in den USA
(2003)
Bibliotheken weltweit befinden sich im Wandel. Der Trend der Nutzer, Informationen immer häufiger zuerst, und teilweise sogar ausschließlich, im Internet zu suchen, erfordert Veränderungen in der Konzeption des bibliothekarischen Informationsdienstes. Um den Nutzer dann und dort zu erreichen, wo er Hilfe benötigt, bieten viele Bibliotheken bereits Digital Reference Service, digitalen Auskunftsdienst, an. Zumeist erfolgt dieser allerdings institutionsbezogen von einzelnen Bibliotheken, die dadurch auf synergetische Effekte und Vorteile durch Zusammenarbeit verzichten. Abhilfe könnten Informationsverbünde schaffen, in denen mehrere Bibliotheken arbeitsteilig digitalen Auskunftsdienst anbieten. Ziel dieser Arbeit ist es, die Entwicklung solcher Digital Reference Konsortien in den USA näher zu beleuchten. Um den Einstieg in die Thematik zu erleichtern, werden in einem theoretischen Teil zuerst die Begrifflichkeiten geklärt und die verschiedenen Formen des Digital Reference Service dargestellt. Im weiteren Verlauf der Arbeit wird dann die praktische Anwendung des digitalen Informationsdienstes diskutiert. Zu diesem Zweck wurden repräsentativ zwei innovative US-amerikanische Projekte ausgewählt, die detailliert vorgestellt werden. Ein kurzer Überblick über die historische Entwicklung digitaler Informationsverbünde in den USA soll dabei als Hintergrund für die Einordnung der präsentierten Dienste dienen. Die Erfahrungen, die in diesen sehr unterschiedlichen Projekten gemacht worden sind, dienen anschließend als Basis für Überlegungen, wie derartige Konsortien in Deutschland aufgebaut werden könnten. Organisatorische und strukturelle Anregungen an das deutsche Bibliothekswesen zum Aufbau von kooperativen digitalen Auskunftsdiensten runden die vorliegende Arbeit ab.
In Köln studierende angehende Bibliothekare und Dokumentare wurden im Januar 1998 nach dem Berufsbild "Bibliothekar" befragt. Manche Klischeevorstellungen konnten bestätigt werden, wie z.B. daß Bibliothekare den Beruf wählen, weil sie gerne lesen. Andere - wie die Sicht der Bibliothek als "Refugium" - werden derzeit abgelehnt, da der Umgang mit Menschen als hoch bewertet wird. Insgesamt zeigt sich ein eher gespaltenes Bild: Prinzip und Konturen des gegenwärtigen Wandels im Bibliothekswesen scheinen von den Studierenden zwar wahrgenommen, aber nicht durchgängig verinnerlicht worden zu sein.
Diese Diplomarbeit beleuchtet die in Deutschland bisher wenig beachtete Thematik der Hörgeschädigten als Bibliotheksbenutzer. Sie beschreibt die Erscheinungsformen und die Verbreitung der Hörschädigung in Deutschland und ihren negativen Einfluss auf die Lese- und Informationskompetenz der Betroffenen. Das Dienstleistungsangebot für Hörgeschädigte in ausländischen und deutschen Bibliotheken wird detailliert beschrieben und verglichen. Anschließend werden die verschiedenen Dienstleistungen im Einzelnen erläutert und ein möglicher Einsatz in deutschen Bibliotheken diskutiert. Als Ergebnis wird festgehalten, dass es in deutschen Bibliotheken, im Gegensatz zu denen im Ausland, kaum spezielle Angebote für Hörgeschädigte gibt. Bibliotheken müssen gezielt Bestandsaufbau betreiben, technische Hilfsmittel zur Verfügung stellen und Hörgeschädigte in das Veranstaltungsangebot integrieren, um so auch dieser Gruppe Medien- und Informationskompetenz zu vermitteln.
Die folgende Arbeit hat den Titel "Bibliotheksgebühren: Gebührenmodelle, Rahmen- bedingungen der Erhebung und Auswirkungen auf die Nutzung. Ein Vergleich verschiedener Öffentlicher Bibliotheken in Nordrhein-Westfalen." Ziel der Arbeit ist es herauszufinden, ob es Auswirkungen von Bibliotheksgebühren auf die Nutzung Öffentlicher Bibliotheken gibt, und wenn ja, welcher Art diese Auswirkungen sind. Abschließend sollen Empfehlungen zur Gestaltung eines Gebührenmodells gegeben werden. Es werden vorhandene empirische Erhebungen zu der Thematik ausgewertet, und eine Umfrage unter den Leitungen der Bibliotheken der Städte Dortmund, Düsseldorf, Bonn, Münster, Hamm, Witten und Hürth durchgeführt. Die verschiedenen Bibliotheken und ihre Gebühren-, bzw. Entgeltmodelle werden miteinander verglichen. Um die Ergebnisse der Umfrage bewerten zu können, werden die Städte außerdem anhand verschiedener Indikatoren vorgestellt.
In dieser Bachelorarbeit wird das Thema Big Data und die damit verbundenen Technologien, sprich NoSQL und Hadoop behandelt. Das Thema wurde bewusst ausgewählt, weil sie zum einen aktuell und zum anderen immer mehr an Bedeutung, aus Sicht der Unternehmen gewinnt. Durch die ständig anwachsenden Daten, die zu 80% in Semistrukturierter Form vorliegen, stößt die IT-Infrastruktur eines Unternehmens schnell an seine Grenzen. Und genau an dieser Stelle sollen die Big Data Technologien, wie „NoSQL“ und „Hadoop“, helfen, die so großen Datenmengen zu verarbeiten, um für das Unternehmen, wertvolle Informationen zu liefern, die bislang nicht ersichtlich waren.
Bildkompositionen können nach bestimmten Aspekten gestaltet werden und dadurch als Ausdrucksmittel fungieren. Dadurch können Bilder den Kontext einer Handlung visuell unterstützen und dem Zuschauer nonverbale Botschaften vermitteln. Infolgedessen beschäftigt sich diese Arbeit mit der Bildkomposition als filmisches Ausdrucksmittel. Das Ziel dieser Arbeit liegt darin, verschiedene Aspekte der Bildgestaltung zu untersuchen. Dabei sollen die Funktionsweisen der jeweiligen Aspekte erklärt und eine mögliche Begründung für die Wirkungsweise erörtert werden. Zusätzlich sollen mögliche unkonventionelle Anwendungen, in dieser Arbeit Regelbrüche genannt, identifiziert und die resultierende Effekte dargestellt werden.
Zu Beginn dieser Arbeit soll ein allgemeines Verständnis für die Bildkomposition geschaffen werden, sodass diese zunächst definiert und von anderen Themen abgegrenzt wird. Anschließend werden technische sowie künstlerische Aspekte der Bildgestaltung im Einzelnen thematisiert, die in den folgenden Unterkapiteln jeweils in ihrer Funktionsweise erklärt werden. Zusätzlich wird jeweils eine mögliche Begründung für die Wirkungsweise und einen Regelbruch genannt. Sowohl die konventionellen Anwendungen als auch die Regelbrüche werden mit Beispielen belegt. Danach werden selbstständig durchgeführte Experteninterviews mit professionellen Kameramännern berichtet, um die Anwendung von Bildkompositionen in der Praxis zu überprüfen.
Die Aspekte der Bildgestaltung haben jeweils eigene Funktionsweisen und Ziele. Dennoch liegt das das gemeinsame übergeordnete Ziel in der Lenkung der Aufmerksamkeit des Zuschauers und die Unterstützung des inhaltlichen Kontextes ist. Für eine erfolgreiche Wirkung beim Zuschauer greifen die Aspekte auf den menschlichen Erfahrungsschatz, Muster aus der Natur oder Wahrnehmungsprinzipien zurück. Regelbrüche gelten grundsätzlich als eigenständige Gestaltungsmöglichkeiten, welche aufgrund ihrer visuellen Seltenheit besonders markant sind und den Kontext entsprechend betonen.
Insgesamt konnte das Ziel der vorliegenden Arbeit erreicht werden, indem verschiedene Aspekte der Bildkomposition untersucht wurden. Diese Aspekte können einen hilfreichen Beitrag zur Gestaltung von Bildkompositionen leisten. Eine absolute Wirkung auf den Zuschauer kann jedoch nicht gewährleistet werden, da diese stark vom Kontext der Handlung sowie dem Zuschauer selbst abhängt. Deshalb müssen die Aspekte der Bildgestaltung bei jeder Anwendung detailliert geplant und auf den Kontext angepasst werden, um als Ausdrucksmittel fungieren zu können.
Die vorliegende Diplomarbeit beschäftigt sich mit einer Bildqualitätsanalyse der Stellen, an denen Qualitätsentscheidungen getroffen werden sowie der anschließenden Analyse dieser Bildstellen. Zunächst werden sechs verschiedene Fotografien mit den Optimierungsparametern Helligkeit, Schärfe, Kontrast und Neutralität bearbeitet. Um die oben genannten Bildstellen zu finden, werden diese durch 20 Probanden mit Hilfe eines Eye-Tracking Systems ermittelt. Die daraus gewonnenen Bildstellen werden dann im Frequenz- und Farbbereich durch Plug-Ins im Programm „ImageJ“ untersucht.
Mit wachsender Globalisierung und Immigration steigt auch in Deutschland – einem sprachlich vergleichsweise homogenen Land – die Anzahl der Kinder, die von Geburt an mit zwei oder mehr Sprachen aufwachsen. In anderen europäischen Ländern wie Spanien, Belgien oder der Schweiz gehört die historisch geprägte Mehrsprachigkeit hingegen längst zum Alltag, wie auch in weiten Teilen Afrikas und Amerikas. Auch in vielen anderen Ländern der Welt stellt der Monolingualismus eher einen Ausnahmefall dar, während die Zwei- oder Mehrsprachigkeit vorherrscht. Trotz der weiten Verbreitung des Bilingualismus scheint dieser gerade in Deutschland noch stets mit negativen Vorurteilen behaftet zu sein. Die neuere Literatur des letzten Jahrzehnts hat allerdings gezeigt, dass Bilinguale im Vergleich zu Monolingualen nicht benachteiligt sind. Die Erforschung der psycholinguistischen Spracherwerbsprozesse hat bei dieser Erkenntnis eine wichtige Rolle gespielt, da Missverständnisse, aufgrund derer z. B. Sprachmischungen als mangelhafte Sprachkompetenz angesehen wurden, reanalysiert und neu interpretiert werden konnten). Ziel dieser Arbeit ist es, einen Überblick über den Stand der Mehrsprachigkeitsforschung zu geben und zu verdeutlichen, wie sich der Erwerbsprozess bilingualer Kinder in Hinblick auf die Sprachkompetenz und -performanz vollzieht. Der Fokus liegt dabei auf der separaten Entwicklung beider Sprachen und möglicher Kontaktphänomene.
Im Blickpunkt dieser Studie steht die Befragung von Absolvent/-innen Kölner Berufskollegs zu ihrer Situation im Übergang Schule-Beruf samt dem Prozess der beruflichen Orientierung im Rahmen eines quantitativen und qualitativen Untersuchungsdesigns. Dabei konnten aus den quantitativen Daten fünf Typen mit differenzierten Übergangsverläufen ermittelt werden (Bildungsorientierte im Aufstieg,Bildungsorientierte in Seitdrift,Personen in beruflicher Etablierung, Personen in beruflicher Suchbewegung und Personen mit prekärer Beschäftigung). Die Ergebnisse bestätigen die Vermutung, dass der Übergang Schule-Beruf nicht für alle Absolvent/-innen gleichermaßen problemlos verläuft. Vor allem Migranten oder Personen mit einem Migrationshintergrund haben größere Probleme im Übergang Schule-Beruf als autochthone Deutsche. Sie sind in den Clustern mit eher problembehafteten Übergängen überrepräsentiert. Aber auch gute Schulnoten, ein hoher Schulabschluss und ein bildungsnahes Herkunftsmilieu begünstigen den Übergang-Schule Beruf.
Die Ergebnisse der Studie legen nahe, dass Untersuchungen der Berufseinmündungsphase in Köln nicht losgelöst vom Problem der Chancengleichheit im lokalen Bildungssystem diskutiert werden dürfen. Der elterliche Haushalt besitzt dabei aber nicht nur hinsichtlich der Übertragung von Bildungskapital eine herausragende Bedeutung. Denn die Eltern sind auch die primäre Beratungsinstanz bei berufsbezogenen Orientierungsfragen der Jugendlichen und jungen Erwachsenen. Die Bedeutung der Schulen oder der Agentur für Arbeit ist dagegen sowohl im Übergang Schule-Beruf als auch im Prozess der weiteren beruflichen Orientierung von geringerer Bedeutung.
Biogas, mit geringen Konzentrationen an Methan, entsteht unter anderem bei verschiedenen industriellen Prozessen. Wegen der Umweltschädlichkeit des Methans gilt es dessen Eintrag in die Umwelt zu vermeiden.
Das Ziel des vorgestellten Projektes war die Überprüfung eines umweltfreundlichen Verfahrens zur Reduzierung des Methans durch methanotrophe Bakterien. Die einzelnen Batchversuche liefen über 15 Stunden und zeigten eine starke Reduzierung des Methans von 18 auf 1 Vol.-%.
Die Zielsetzung dieser Thesis ist die aktuelle Situation von Blinden und Sehbehinderten in Bezug auf technische Hilfsmittel aufzuzeigen und auf mögliche Defizite und Handlungsbedarf hinzuweisen. Im Vorfeld wurde im Rahmen der Recherche eine Umfrage unter Betroffenen durchgeführt. Die Auswertung der Umfrage sowie eines ausführlichen Interviews ist ein wichtiger Bestandteil. Die Thesis soll IST-Grundlage für weitere Überlegungen, Weiterentwicklungen und Forschungsansätze im Bereich Blindeninformatik sein. Zu Beginn wird die Anatomie und Funktion des menschlichen Sehapparates erläutert. Ein weiterer Schwerpunkt der Thesis ist die geschichtliche Entwicklung von Hilfsmitteln. Anhand wichtiger Meilensteine, wie beispielsweise die Punktschrift, der Thermostift oder die Einführung des DAISY Standards wird die „Useability“ und auch die Akzeptanz in der Gesellschaft betrachtet. Anhand aktueller technischer Hilfsmittel werden Probleme und Lücken im Alltag erörtert. Der Verfasser ist selbst Betroffener und ergänzt die zusammengestellten Informationen durch eigene praxisorientierte Alltagserfahrungen. Im weiteren Verlauf werden neue technische Innovationen wie beispielsweise Touchscreens und Augmented Reality (AR) vorgestellt. Es wird einerseits auf aktuelle Entwicklungen eingegangen und Ausblicke auf zukünftige Anwendungsgebiete aufgezeigt, andererseits aber auch auf Gefahren bei der Verschmelzung von Realität und Virtualität hingewiesen. Abschließend werden die Feststellungen zusammengefasst und Denkanstöße für zukünftige Neu- und Weiterentwicklungen gegeben.
Buchpreisbindung in der EU
(2000)
Nach der Entscheidung der Europäischen Komission ist Anfang Juli 2000 die länderübergreifende Buchpreisbindung zwischen Deutschland und Österreich gefallen. In Deutschland gilt weiterhin die privatrechtliche Regelung des Sammelreverses und in Österreich wird der Buchmarkt durch ein Gesetz reguliert. Anhand einer ökonomischen Analyse soll untersucht werden, ob die Buchpreisbindung ein effizientes Instrument darstellt, um einen optimalen Buchmarkt zu garantieren, oder ob sie aufgrund ihrer wettbewerbsbeschränkenden Wirkung mit zu großen Nachteilen für einzelne Marktteilnehmer verbunden ist. Wie soll ein Buchpreisbindungssystem beschaffen sein, damit es mit dem Europäischen Gemeinschaftsrecht im Einklang steht? Die Darstellung der Preisgestaltung auf den Buchmärkten der einzelnen Mitgliedsstaaten gibt Aufschluß darüber, inwieweit die Preisbindung von Büchern innerhalb der Europäischen Union angewendet wird. Deutschland und Österreich gehören dem gleichen Sprachraum an. Ist es gerechtfertigt eine grenzübergreifende Buchpreisbindung zu fordern? Die jahrelange Diskussion bezüglich dieser Problematik veranlaßte uns dazu, Gespräche mit Personen zu suchen, die in dieser Angelegenheit unterschiedliche Standpunkte einnehmen. Wir trafen uns mit dem Beauftragten der Bundesregierung für Angelegenheiten der Kultur und Medien, Wolfgang Maurus, in Bonn und führten in Frankfurt ein Gespräch mit dem Justitar des Börsenvereins des deutschen Buchhandels, Harald Heker. Um den Ablauf der Verhandlungen auch aus der Perspektive der EU-Kommission beurteilen zu können, fanden in Brüssel Gespräche mit dem Beamten der Generaldirektion Wettbewerb, Hubert Gambs, und dem Mitglied des Kabinetts für Bildung und Kualtur, Johannes Laitenberger, statt. Um auch Meinungen von Personen einzuholen, die unmittelbar von dieser Entscheidung betroffen sind, wurde zusätzlich eine Befragung von Verlagsmanagern durchgeführt.
Die Forschungsarbeit untersucht den sich verhärtenden Rückversicherungsmarkt und die Relevanz von Captives für Industrieunternehmen. Angesichts von Marktveränderungen wie steigender Inflation, Währungsschwankungen und höheren Schadensbelastungen überdenken Unternehmen ihre Risikomanagementansätze. Captives, insbesondere für mittelständische Unternehmen, gewinnen an Bedeutung. Sie bieten direkten Zugang zum Rückversicherungsmarkt, Unabhängigkeit und flexible Gestaltungsmöglichkeiten. Trotz Vorteilen wie optimierten Deckungsstrukturen und Umgehung von Marktveränderungen existieren Herausforderungen, darunter Kapitalanforderungen und Betriebskosten. Der Trend zu neuen Captives im harten Rückversicherungsmarkt ist nicht eindeutig, aber sie bleiben eine innovative Lösung für das betriebliche Risikomanagement. Traditionelle Rückversicherer bleiben entscheidend für die Branchenstabilität.
Die Bedeutung der künstlichen Intelligenz (KI) in Computerspielen hat sich in den letzten Jahren bedeutend geändert. Es wird versucht Spielfiguren zu implementieren, die ein reales, menschenähnliches Verhalten aufweisen. Der primäre Grund ist die Erkenntnis, dass eine gute KI von Charakteren zum besseren Verkauf von Computerspielen beiträgt. Die Käufer wünschen reale Charaktere, mit denen sie sich identifizieren können. Der sekundäre Grund ist die Verbesserung der Computertechnik zugunsten einer Entlastung der CPU, die eine gute KI erst ermöglicht hat. Zurückzuführen ist dies auf die Optimierung der CPUs und des Arbeitsspeichers und vor allem aufgrund der Entwicklung leistungsstarker, moderner 3D Graphikkarten. Gerade diese erlauben mehr CPU-Rechenzeit für „Nicht-Grafiktasks“. Aufgrund des oftmals unrealistischen Charakterverhaltens in Computerspielen ist das Ziel der Diplomarbeit, die Entwicklung einer Spielfigur, im Sinne einer phänomenalen Gestalt. Die phänomenale Gestalt entsteht in dem Moment, indem ein Objekt oder ein Charakter reales Leben dermaßen echt abbildet, dass man ein „künstliches“ Bewusstsein wahrnehmen kann. Die Wahrnehmung findet statt, weil der Charakter fähig ist, sein Bewusstsein, sein Verhalten und das Verhalten anderer zu reflektieren.
Cloud Computing ist der zentrale Faktor zur Beschleunigung der Digitalisierung in Deutschland und wird in den kommenden Jahren eine wichtige Rolle in jedem deutschen Unternehmen spielen. Für Unternehmen wird es dabei um die Umsetzung von
Cloud-Strategien und die praktische Einbindung in die täglichen Betriebsprozesse gehen. Zusätzlich müssen Unternehmen ihre bestehende Datenlandschaft in moderne Architekturen zum Datenmanagement in die Cloud migrieren. Dabei können Unternehmen auf eine Vielzahl an unterschiedlichen unternehmensweiten Datenarchitekturen
zurückgreifen. Die vorliegende Masterarbeit gibt eine Einführung in die aktuelle Entwicklung von Cloud Computing und erläutert, mit Data Fabric, Data Lakehouse und Data Mesh, drei unternehmensweite Datenarchitekturen für die Cloud. Data Fabric, Data Lakehouse und Data Mesh bilden dabei aktuell die modernsten Konzepte für unternehmensweite Datenarchitekturen. Zusätzlich werden ein Data Lakehouse und ein Data Mesh in einer ausgewählten Cloud-Umgebungen entworfen, prototypisch aufgebaut und praktisch analysiert. Ziel der Masterarbeit ist es, die unternehmensweiten Datenarchitekturen in der Cloud zu erläutern, konkrete technologische Architekturen zu entwerfen und entsprechende Hinweise zu Aufwandstreibern in Unternehmen zu identifizieren.
Diese Bachelorarbeit "CloudRun - Analyse und Erweiterung" von Andreas Pahlen behandelt die Analyse der Software "CloudRun" sowie dessen Einbindung in eine Programmiersprache am Beispiel von Python.
Ziel der Analyse ist Herauszufinden, ob und in welchem Maße sich CloudRun für den produktiven Einsatz eignet, bzw. welche Änderungen nötig sind um einen sicheren und effizienten Einsatz zu ermöglichen.
Die Einbindung CloudRuns in die Programmiersprache Python dient als Beispielund Referenz zur Erstellung weiterer Frameworks und ermöglicht zugleich den Einsatz eines CloudRun-Servers für produktive Zwecke.
Unsere heutige Gesellschaft und Wirtschaft sind geprägt von ständiger Veränderung. Ein besonderer Wandel findet vor allem in der Arbeitswelt statt. Es herrscht ein erhöhtes Bedürfnis nach Selbstverwirklichung. Gleichzeitig müssen sich die Unternehmen immer schneller an die sich verändernden Prozesse der zunehmend global ausgerichteten Wirtschaft anpassen. Daraus ergeben sich Flexibilisierungsprozesse, die in der Entstehung neuartiger Berufe, Beschäftigungsmodelle und neuen Formen der Zusammenarbeit resultieren. Ein Phänomen, das sich dabei herausgebildet hat, ist das des „Coworking“ und der „Coworking Spaces“. Ein relativ neues Arbeitssystem, das es Wissensarbeiter ermöglicht, weitgehend voneinander unabhängig und trotzdem gemeinsam an einem institutionalisierten Ort zu arbeiten. Mittlerweile hat sich dieses Modell zu einer globalen Bewegung formiert. Dadurch bildet der Aspekt der internationalen Vernetzung der Coworking Spaces und deren Nutzern den Schwerpunkt dieser Arbeit. Der internationale Gesichtspunkt ist aus verschiedenen Gründen von besonderem Interesse. Zum einen befinden wir uns gegenwärtig durch die fortschreitende Globalisierung und die hohe technologische Entwicklung in einer Welt, die auf fast allen Ebenen miteinander verknüpft ist. Zum anderen ist das Thema Netzwerken ebenfalls ein wichtiger Grundwert des Coworking-Konzepts. Somit befasst sich die vorliegende Arbeit mit der folgenden Fragestellung: Inwiefern besteht unter Coworking Spaces und deren Nutzern Interesse an der internationalen Vernetzung und welche Möglichkeiten wurden dahingehend im Zuge der globalen Coworking-Bewegung entwickelt?
In dieser Diplomarbeit werden die Chancen und Risiken der Creative Commons Lizen-zen (CCL) für das Management von Non-Governmental Organisations (NGOs) aufge-zeigt und untersucht. Das Konzept der Creative Commons Lizenzen wird zunächst in das Spannungsfeld zwischen „geistigem Eigentum“ und „digitaler Allmende“ eingeordnet und ausführlich vorgestellt. In der Betrachtung des NGO-Managements werden die Sta-keholder der Organisationen spezifiziert. Die theoretischen Erkenntnisse der Arbeit ge-ben zusammen mit den Ergebnissen einer Befragung von vier NGO-Verantwortlichen Hinweise, wie eine NGO die Chancen der CCL nutzen und deren Risiken vermeiden kann. Die vorliegende Arbeit liefert neun Hypothesen über dieses weitgehend uner-forschte Untersuchungsgebiet, die sich aus Theorie und Empirie ableiten und hiermit als vorläufig verifiziert betrachtet werden. Zusammenfassend gelangt die Untersuchung zu dem Ergebnis, dass die Chancen der CCL gegenüber den Risiken überwiegen. Sie stellt aber auch fest, dass eine abschließende Bewertung dieser Faktoren nie losgelöst vom Dialog zwischen der NGO und ihren Stakeholdern erfolgen darf. Deren individuelle Ein-stellung zu einer freien Lizenzierung digitaler Informationsgüter muss die NGO bei der Einführung der CCL stets berücksichtigen. Ferner soll diese Arbeit NGOs und informati-onswissenschaftlich Interessierten Anregungen für den erfolgreichen Umgang mit Infor-mationsgütern und den Einsatz freier Lizenzen geben.
Die Einführung des Neuen Steuerungsmodells (NSM) ist Thema in vielen Gemeinden. Die theoretischen Grundlagen der Verwaltungsreform, die hauptsächlich von der Kommunalen Gemeinschaftsstelle für Verwaltungsvereinfachung (KGSt) erstellt werden, sind einfach vermittelt. Die Umsetzung der Theorie in die Praxis bringt allerdings für die meisten Gemeinden und ihre Ämter Komplikationen mit sich. Aus diesem Grund ist es sinnvoll, daß bereits neu gesteuerte Ämter ihre Erfahrungen austauschen und "Neueinsteigern" zugänglich machen. Durch das Deutsche Bibliotheksinstitut (DBI) und verschiedene bibliothekarische Fachzeitschriften findet bereits seit mehreren Jahren ein reger Austausch zwischen Bibliotheken statt. Dabei werden individuelle Erfahrungen wiedergegeben, die allerdings ohne vorher definierte Untersuchungsgegenstände und -methoden erstellt worden sind. Gegenstand dieser Arbeit ist die Entwicklung eines Untersuchungsschemas, das auf den Analyse-Instrumenten und Erkenntnissen der empirischen Strategieforschung basiert.
Die Extensible Markup Language (XML) ist eine Metaauszeichnungssprache, die 1998 vom World Wide Web Consortium (W3C), einer Organisation, die sich mit der Erstellung von Web Standards und neuen Technologien für das Internet beschäftigt , als neue Empfehlung für Web-Anwendungen festgesetzt wurde. Seitdem ist viel über XML und die sich durch diese Sprache ergebenden neuen Möglichkeiten des Datenaustausches über das Internet publiziert worden. In XML-Dokumenten werden die hierarchische Struktur und der Inhalt der Dokumente festgelegt, aber keinerlei Angaben zum Layout gemacht. Dieses wird in so genannten Stylesheets definiert. Mit Hilfe mehrerer Stylesheets, die sich alle auf ein XML-Dokument beziehen, ist es möglich, aus einem Datenbestand verschiedene Ausgabeprodukte, z.B. eine Online-Version und eine druckbare Ausgabe eines Dokuments, zu erzeugen.
Das vorliegende Paper fasst Ansätze, Modelle und moderne Möglichkeiten der Erfassung der Customer Decision Journey – des Weges eines Kunden zum und mit einem Unternehmen – zusammen.
Es basiert auf der Bachelorarbeit von Herr Habibullah Massoudy, der von Oktober 2020 bis Januar 2021 von Prof. Dr. Monika Engelen und Prof. Dr. Torsten Klein betreut wurde. Neben einer Recherche der grundlegenden Theorie wurden auch Herausforderungen und die Möglichkeiten des Trackings des Journeys betrachtet.
Dieses Paper soll als grundlegender Einstieg in das Thema Customer Decision Journey dienen.
Das vorliegende Paper fasst die Erkenntnisse zum Einsatz von Kundenbeziehungs-management (engl. Customer Relationship Management (CRM)) und geeignete Tools für junge Unternehmen zusammen.
Es basiert auf der Bachelorarbeit von Herrn Enes Zafer, die von August bis Oktober 2019 von Prof. Dr. Monika Engelen betreut wurde. Neben einer Recherche der grundle-genden Theorie zu Customer Relationship Management wurden zehn CRM Tools an-hand Ihrer Funktionen beurteilt und verglichen.
Der Kerninhalt dieses Papers ist, sowohl ein Verständnis für Kundenbeziehungsma-nagement zu schaffen als auch einen Überblick und Empfehlung von CRM Tools für junge Unternehmen abzuleiten.
Cyber-Risiken, vor allem in Form von Cyber-Kriegsführung und staatlich unterstützten Angriffen, stellen eine große Herausforderung dar. Im Kontext der Versicherung, sollen solche Risiken über Kriegsklausel ausgeschlossen werden. Derzeit gibt es unterschiedliche Herausforderungen wie fehlende klare rechtliche Regelungen, die Unsicherheiten für Versicherer und Versichert darstellen. Die Interviews mit Branchenvertretern zeigen unterschiedliche Meinungen darüber, wie die Versicherungswirtschaft Cyber-Kriegsrisiken wahrnimmt und damit umgeht. Trotz der sich ständig ändernden Natur dieser Bedrohungen besteht weiterhin Bedarf an Forschung und Datenerfassung, um eine gut durchdachte Versicherungslösung zu entwickeln.
Die Komplexität der Cybergefahr und die sich entwickelnde Natur des Risikos bringen vielfältige Herausforderungen bei der Gestaltung von Versicherungs-produkten, beim Underwriting, beim Risikomanagement und bei der Kumul-kontrolle mit sich - sowohl für Erst- als auch Rückversicherungsgesellschaften. Eine korrekte Cyberrisikobewertung ist daher unabdingbar und der richtige Ansatz muss stets weiterentwickelt werden. Insbesondere die Vielfältigkeit eines Cyberevents ist hierbei zu berücksichtigen.
In der Cyberversicherung liefert die Vergangenheit keine zuverlässigen Indizien für die Wahrscheinlichkeit eines Schadens; Risiken müssen mit aufwändigen Modellrechnungen simuliert werden. Für die Bewertung von Cyberrisiken könnte die künstliche Intelligenz (KI) von Vorteil sein, um Muster und Wahrscheinlichkeiten im Bereich des Risikotransfers einfacher und effizienter zu analysieren. Einen alternativen Lösungsansatz könnten parametrische Rückversicherungslösungen als Ergänzung zur klassischen Versicherung liefern. So kann eine parametrische Cyberdeckung mit einem definierten Trigger (z.B. mit Hilfe der DSGVO als Trigger) als Auslöser für Schadenzahlungen angeboten werden.
Für eine ausreichende Versicherbarkeit von kleinen und mittelständischen Unternehmen, als auch für größere Industrielösungen könnte eine Risk Pooling Facility geschaffen werden, in welcher sich der traditionelle Rückversiche-rungsmarkt zusammen mit den Insurance Linked Securities Markt die Schadenbelastung teilen. Durch Unterstützung der künstlichen Intelligenz und durch parametrische Trigger (z.B. durch die DSGVO) könnten Schadenverläufe effizienter und zielgerichteter erfolgen.
Durch parametrische Cyberdeckungen könnten Transparenzprobleme bei der Schadenabwicklung verhindert und aufwendige Prüfungen der Rückversicherer reduziert werden. Zudem könnte mit Hilfe einer möglichen KI-Strategie die Bewertungen von Cyberrisiken vereinfacht und effizienter gestaltet werden. Parametrische Cyberlösungen können auch für alternatives Kapital interessant sein, denn auch im NatCat-Bereich sind Vehikel mit solchen Trigger-Lösungen verbreitet.
Existiert das "gläserne" Unternehmen? Sind die letzten Geheimnisse der Konkurrenz bereits gelüftet? Gibt es sichere Entscheidungen durch Allwissenheit? Ist Industriespionage heute überflüssig? Diese Fragen drängen sich mit dem immer weiter wachsenden Angebot an Datenbanken geradezu auf. Anhand der Untersuchung einiger renommierter Datenbanken wird versucht, darauf eine Antwort zu finden. Ausgangspunkt ist die Definition des Begriffs "Firmeninformationen". Bisher wird dieser Begriff offensichtlich je nach Bedarf ausgelegt. Anschließend wird das Feld der Firmeninformationen in seine Bestandteile zerlegt, um zu zeigen, daß dazu nicht nur die einfachen Fakten wie Mitarbeiterzahl oder Umsatz gehören. Im zweiten Kapitel werden die einzelnen Datenbanktypen mit ihren Inhalten vorgestellt. Das dritte Kapitel befaßt sich mit Kriterien, die für die Qualität von Firmeninformationsdatenbanken entscheidend sind. Im Anschluß erfolgt eine Analyse des Datenangebotes. Untersucht wurde das Angebot ausgewählter Datenbanken zu den Unternehmen "Aldi" und "Henkel KGaA".
Im Mai 2001 wurde JavaServer Faces (JSF) von Sun als Java Specification Request (JSR) 127 vorgestellt. Außer Sun sind an der Entwicklung der JSF Spezifikation unter anderem die Apache Software Foundation, BEA Systems, Borland Software Corporation, IBM, Oracle und Macromedia beteiligt. Seit Dezember 2003 steht die Referenzimplementierung (RI) von Sun als Version 1.0 Beta zur Verfügung. Obwohl die Spezifikation noch nicht ganz abgeschlossen ist und die RI bis zum Final Release noch große Änderungen erfahren wird, zeichnet sich bereits ab, dass hier ein "großer Wurf" gelungen ist. Tool-Hersteller wie auch Anwendungsentwickler bringen JSF großes Interesse entgegen; eine OpenSource-Implementierung der JavaServer Faces ist mit MyFaces1 von SourceForge auch schon zu haben. Dabei gab es JavaServer Faces eigentlich schon, bevor die Entwicklung der Spezifikation begann. Das inzwischen in der Version 2.1.7 vorliegende Framework UIX (User Interface XML) von Oracle versucht schon seit einigen Jahren, eine große Lücke zu füllen. Es ist, genau wie JSF, ein UserInterface-Framework fürs Web. Im Gegensatz zu JSF ist es jedoch schon so ausgereift, dass es in realen Projekten eingesetzt werden kann.
Diese Bachelorarbeit befasst sich mit dem Portal http://www.informationskompetenz.de/, das als Gemeinschaftsprojekt bibliothekarischer Arbeitsgemeinschaften zur Vermittlung von Informationskompetenz der regionalen und überregionalen Kooperation von Bibliotheken in Deutschland dienen soll. Neben einem Glossar, Standards und Erklärungen sowie Präsenzen der beteiligten Bundesländer stellt es insbesondere eine Datenbank zur Sammlung und zum Austausch von Materialien zu diesem Thema bereit. Nach einem Überblick über die Entstehung des Begriffs der Informationskompetenz, seine Entwicklung und aktuelle Tendenzen folgen die Beschreibung des Gesamtportals sowie eine kurze Analyse desselben anhand eines definierten Katalogs inhaltlicher und formaler Kriterien. Daneben ist auch ein kurzer Überblick über die weiteren Komponenten des Portals Bestandteil der Arbeit. Der Schwerpunkt der Arbeit liegt auf der darauffolgenden Analyse und Evaluation der Materialiendatenbank, die ebenfalls unter Anwendung der definierten Kriterien erfolgt. Der Umfang, die Struktur und die Gestaltung der Datenbank stehen bei der Untersuchung im Vordergrund; die Begutachtung erfolgt anhand einer Stichprobe von 20% der zum Zeitpunkt der Bearbeitung in der Datenbank enthaltenen Dokumente. Zudem fließen zur Evaluation der Suchfunktionalitäten auch einzelne ausgewertete Suchanfragen in die Bewertung ein. Von den hier präsentierten Ergebnissen der Evaluation des Portals und der Materialiendatenbank ausgehend werden abschließend potenzielle Perspektiven der Plattform aufgezeigt. Es werden konkrete Entwicklungsmöglichkeiten dargestellt, im Anschluss daran wird die Plattform aber zudem in den bibliothekarischen Gesamtkontext eingeordnet und ihre mögliche zukünftige Rolle skizziert.
Im Jahr 1892 eröffnete Leonhard Tietz sein erstes Geschäft in Aachen, 1906 folgte die Eröffnung eines großen, architektonisch markanten Warenhauses am Markt gegenüber dem Rathaus. Der „Tietze Lejjenad“ wurde in Aachen zum Inbegriff des Einkaufens. Schon 1933 wurde der Tietz-Konzern „arisiert“ und in Kaufhof umbenannt. Die Aufgabe des Standorts am Markt im Jahr 1955 durch den Kaufhof und der Abriss des Warenhauses im Jahr 1965 erzeugen bis heute Unverständnis in der Stadt.
Der Band stellt das Warenhaus Tietz aus der Perspektive der Bau- und Architekturgeschichte vor und verortet es zusätzlich in der sozioökonomischen Geschichte Aachens. Edierte und kommentierte historische Quellen aus dem Stadtarchiv vertiefen das Bild.
Aus Filmen wie „Star Trek“ kennen wir „Beamen“. Dort werden komplette Personen durch Beamen auf z.B. Planeten transportiert. Dies hört sich im ersten Moment sehr nach Science-Fiction an, allerdings ist das Beamen von Informationen seit ein paar Jahren sehr real geworden.
Nach einem Grundverständnis für herkömmliche Datenübertragungen wird die Quantenphysik vorgestellt mit ihren grundlegendsten Begriffen. Anschließend wird nun die Quantenteleportation vorgestellt. Einleitend dazu wird zuerst die Quantenverschränkung erklärt, auf der die Teleportation beruht. Es wird erklärt, wie solche Verschränkungen entstehen, um dann den Aufbau einer Teleportation mit den aktuellen Fortschritten vorzustellen sowie Ziele der Quantenteleportation zu beschrieben. Mit deren Hilfe werden Quantencomputern unterstützt.
Die Bachelorarbeit befasst sich mit der Verwendung der NoSQL Datenbank Apache Cassandra. Dabei werden auf der einen Seite die Unterschiede bei Verwendung und Betrieb von Apache Cassandra im Vergleich mit relationalen SQL Datenbanken und auf der anderen Seite die Aspekte Geschwindigkeit, Ausfallsicherheit und Wiederverwendbarkeit untersucht. Die Verwendung und der Betrieb wird dabei durch die Umsetzung eines Datenimports, damit verbunden ist die Erstellung von entsprechenden Datenmodellen, und der Bereitstellung der Daten für die Darstellung von mobilen Statistiken in Form einer Android App untersucht. Für die Untersuchung der Geschwindigkeit, Ausfallsicherheit und Wiederverwendbarkeit werden zusätzlich zu den durch bereits durch die Umsetzung erhaltenen Ergebnissen noch an den jeweiligen Aspekt angepasste Belastungstest durchgeführt.
Die Grundlage für das Datenmodell einer Arztpraxis sind alle relevanten Daten, die zum Betrieb einer Arztpraxis notwendig sind. Aktuell werden die Daten mittels einer Praxisverwaltungssoftware (PVS) erfasst, in einem proprietären Datenformat gespeichert und im Weiteren für die Abrechnung aufbereitet. Dabei ist es seit Mai 1989 möglich, dass die Abrechnung per Diskette erstellt wird. Für die Aufbereitung der Daten wurde zuerst der Abrechnungsdatenträger (ADT) und seit dem 1. Juli 1999 ist es Pflicht die Abrechnung über den KV – Datenträger (KVDT) zu verwenden. Damals wurde kein einheitliches Datenmodell eingeführt, welches über den Abrechnungsdatenaustausch hinaus geht. Dadurch ist es nur sehr beschränkt möglich, Daten zwischen den einzelnen Systemen auszutauschen. So ist es für einen Arzt äußerst schwierig auf ein neues PVS – System umzusteigen. Um einen Eindruck über die Vielfalt und Menge der verschiedenen PVS – Systeme zu vermitteln, werden im Folgenden die Anzahl der KVDT – Zulassungen und der Labordatenträger – Zulassungen (LDT–Zulassungen) beschrieben. Zum dritten Quartal 2005 sind 2541 PVS – Systeme von der Kassenärztlichen Bundesvereinigung (KBV) für den gesamten oder Teile des KVDT zugelassen. Des Weiteren sind 742 PVS – System – Hersteller für die Datenübertragung mittels des gesamten oder Teile des Labordatenträgers zugelassen. Seit dem 1. Januar 2004 sind die Ärzte, mit wenigen Ausnahmen, gesetzlich dazu verpflichtet, die Abrechnung elektronisch durchzuführen. Deswegen haben einige Ärzte aus Kostengründen eine Individuallösung konzipiert, die ausschließlich in ihrer Arztpraxis verwendet wird. Aber auch diese Lösungen müssen von der KBV zertifiziert werden. Diese Lösungen werden zu den zugelassenen PVS – Systemen gezählt. Zum dritten Quartal 2005 sind 373 Individuallösungen zugelassen. Die in einer Arztpraxis anfallenden Daten müssen für den geregelten Praxisbetrieb vom PVS – System verwaltet, gespeichert und zum Teil auch zum Datenaustausch nach außen kommuniziert werden. Dabei werden die Daten von jedem Hersteller unterschiedlich erfasst und weiterverarbeitet. Des Weiteren ist die Repräsentation dieser Daten nicht einheitlich und beinhaltet verschiedene Arten von Daten. Diese Daten sind unter anderem Verwaltungsdaten, Abrechnungsinformationen und medizinische Informationen. Die von den Herstellern der Praxisverwaltungssoftware zu Grunde gelegten Datenmodelle sind unabhängig voneinander und nicht standardisiert. Dabei extrahiert jede Praxisverwaltungssoftware die Daten, die es für wichtig hält und repräsentiert diese in einem eigenen Format. Dadurch ergibt sich die Schwierigkeit, dass die Interoperabilität der Systeme sowohl in funktioneller als auch in semantischer Sicht eingeschränkt ist. Die Lösung dieser Probleme ist ein einheitliches Datenmodell mit entsprechender Schnittstelle, die das Ergebnis der vorliegenden Arbeit darstellt.
Die Arbeit widmet sich einem Thema, das zwar nicht ganz neu ist, bisher aber wenig bedeutsam war und durch das Inkrafttreten der DS-GVO nunmehr auf eine in vielen relevanten Bereichen völlig neue rechtliche Grundlage gestellt und hinsichtlich der spezifischen Fragestellung völlig unbearbeitet ist. Die Arbeit gliedert sich in zwei Hauptteile. Im ersten Teil werden die rechtlichen Grundlagen dargestellt und damit die Relevanz des Themas für das Prüfungsverfahren aufgezeigt. Der zweite Teil widmet sich der Anwendung des neuen Datenschutzrechts auf das Prüfungsverfahren und entwickelt dabei konkrete Handlungsempfehlungen, nach denen Prüfungsämter und sonstige mit Prüfungen befasste Einrichtungen die Anforderungen der DS-GVO erfüllen können.
Bildungseinrichtungen haben zunehmende Bedarfe für professionelle digitale Kommunikation. Bei der Auswahl geeigneter Kommunikationstools besteht Bedarf für geeignete Informationen als Entscheidungsgrundlage. Insbesondere Messenger-Kommunikation ist stark im privaten Alltag der Personen integriert. Während Bedarfe für umfangreiche datensichere Kommunikation in bildungsrelevanten Kontexten steigen, mangelt es an Konzepten für datengeschützte (Karaboga et al. 2014; Digitalcourage e.V. o.J.) und Privatsphäre wahrende Unterstützung von Bildungsprozessen durch Software, an verpflichtender Ausbildung für Fachkräfte (Zorn, Tillmann und Kaminski 2014; Imort und Niesyto 2014), sowie an verlässlicher Information für praktikable Software-Alternativen. Der Beitrag skizziert die besonderen Anforderungen von Bildungseinrichtungen bei der Auswahl geeigneter Software am Beispiel von Messenger-Kommunikation. Aus diesen Anforderungen werden Kriterien für benötigte Informationen als Entscheidungsgrundlage für die Softwareauswahl in drei Kategorien vorgestellt: Datenschutz/Privatsphäre, Barrierefreiheit/Barrierearmut, Praktikabilität.
Da bislang keine Kriterien und Good-Practice-Vorschläge vorlagen, wurde eine Studie zur Eruierung der Eigenschaften potenziell geeigneter Messenger-Software erstellt. Hierfür wurden zunächst notwendige Kriterien zu den drei genannten Kategorien definiert und im Anschluss deutsche und bekannte internationale Messenger auf die Datenschutz-Kriterien hin geprüft. Aufgrund der Ergebnisse zur Konformität mit der Datenschutz-Grundverordnung der EU (DSGVO) als Einschlusskriterium wurden die in Frage kommenden Messenger einem Praxistest unterzogen. Dabei wurden teilweise iterativ weitere praxisrelevante Kriterien der Praktikabilität entwickelt.
Neben institutionsinternen Messengern konnten unter den frei erhältlichen anbieterabhängigen Messengern sechs Dienste identifiziert werden, die zumindest bei Nutzenden über 16 Jahren DSGVO-konform genutzt werden können. Zum Zeitpunkt der Veröffentlichung sind dies nur noch fünf: Threema, Wire, SID, Ginlo,Chiffry. Des Weiteren erscheinen anbieterunabhängige Messenger-Systeme, die den internationalen Standard für den Austausch von Chatnachrichten (XMPP) einhalten, als eine sinnvolle Möglichkeit für Bildungseinrichtungen. Hier kann ein eigenes oder beauftragtes Server-Hosting (im Verbund) möglich werden und es lässt sich bei einem IT-Dienstleister eine ntsprechende Vereinbarung zur Auftragsdatenverarbeitung abschließen.
Für den Projektkontext IDiT – nämlich die berufliche Bildung für angehende Kaufleute für Büromanagement an Berufsschulen und an Berufsförderungswerken – werden die Entscheidungen für die Nutzung von „Wire“ und „Threema Work“ erläutert und begründet. Die zugrundeliegenden Überlegungen sind zwar auf den Projektkontext (Anwendung im Berufsförderungswerk Köln) zugeschnitten, aber verallgemeinerbar.
Diese Arbeit untersucht die zeitliche Interpolation von Videosignalen. Durch die
Einführung des Ultra High Definition Television Standard wird eine höhere Bildwiederholrate benötigz um
Judder-Artefakte zu vermeiden. In diesem Zusammenhang kommt der zeitlichen Interpolation von nicht nativem UHD Material eine besondere Bedeutung zu. Neben der räumlichen Interpolation ist diese essenziell. In dieser Arbeit wird eine Übersicht über die Anforderungen an UHD Video gegeben. Bewegungskompensierende
Verfahren für das Deinterlacing und Upscaling in Verbindung mit einer Phasenkorrelation werden behandelt. Ein MATLAB-Programm wird entwickelt mit dem ein Upscaling und Deinterlacing von HD Material durchgeführt werden kann.
Vorlesungsnotizen, Präsentationen, To-do-Listen – und vielleicht auch der eine oder andere Schmierzettel: Wie Studierende lernen, bleibt Dozenten oft verborgen. In Lernportfolios sammeln Studierende solche Dokumente dagegen systematisch. Davon können auch Lehrende profitieren – wenn sie ihre Kursteilnehmer gut anleiten.
Die vorliegende Arbeit beschäftigt sich mit dem Einsatz kommunikationspolitischer Instrumente an Bibliotheken. Anhand der wirtschaftswissenschaftlichen Literatur und insbesondere der Ausführungen von Prof. Dr. Bruhn soll das Spektrum der Möglichkeiten aufgezeigt werden. Ziel dieser Arbeit ist es, die Kommunikationspolitik in ihrer Eigenschaft als Marketinginstrument zu beschreiben, ihre Möglichkeiten und Grenzen aufzuzeigen, und so das bisherige Verständnis bibliothekarischer Öffentlichkeitsarbeit zu erweitern. Ausgehend von einer Definition des Begriffs "Marketing" und einer Vorstellung des Planungsprozesses wird zunächst der Begriff der "Integrierten Kommunikationspolitik" definiert und in seinen übergeordneten Zusammenhang eingefügt. Abschließend werden die einzelnen Instrumente benannt. Das zweite Kapitel behandelt die Vorbedingungen bibliothekarischer Kommunikationspolitik, wobei dem Budget ein eigener Abschnitt gewidmet ist. Eine Beschreibung von Aufgaben, Zielen und Zielgruppen führt schließlich zu einer Erläuterung des kommunikationspolitischen Planungsprozesses. Im folgenden wird die Möglichkeit einer Branchenkommunikation des Bibliothekswesens untersucht, wobei die Aktivitäten des Niederländischen Bibliotheksverbandes als reales Beispiel dienen. In weiteren Kapiteln werden insgesamt elf kommunikationspolitische Instrumente näher vorgestellt. Der Schwerpunkt liegt nicht auf der Beschreibung konkreter Umsetzungen, sondern auf der Darstellung der Planungsprozesse, da dies bisher weitgehend vernachlässigt wurde. In einem zweiten Schritt sollen die gewonnenen Erkenntnisse auf das Bibliothekswesen übertragen werden. Soweit möglich, werden für die einzelnen Instrumente Beispiele oder Vorschläge angefügt. Eine detaillierte Darstellung wird der Werbung zuteil, da die wissenschaftlichen Erkenntnisse auf diesem Gebiet besonders umfassend sind.
Der Otterberger Kapitelsaal
(1993)