Refine
Year of publication
Document Type
- Master's Thesis (255) (remove)
Language
- German (255) (remove)
Has Fulltext
- yes (255)
Keywords
- Deutschland (14)
- Öffentliche Bibliothek (13)
- Bibliothek (11)
- Informationskompetenz (8)
- Internet (7)
- Sozialarbeit (7)
- XML (7)
- Datenbank (6)
- E-Learning (5)
- Electronic Commerce (5)
Faculty
- Fakultät 10 / Institut für Informatik (93)
- Fakultät 03 / Institut für Informationswissenschaft (60)
- Fakultät 07 / Institut für Medien- und Phototechnik (37)
- Fakultät 10 / Advanced Media Institute (12)
- Fakultät 07 / Institut für Nachrichtentechnik (6)
- Fakultät 01 / Institut für Medienforschung und Medienpädagogik (5)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (5)
- Fakultät 01 / Institut für interkulturelle Bildung und Entwicklung (4)
- Fakultät 02 / Cologne Institute of Conservation Sciences (4)
- Fakultät 01 / Institut für Kindheit, Jugend, Familie und Erwachsene (3)
Diese Arbeit untersucht verschiedene Ansätze, Daten im Google Cloud Firestore zu strukturieren und deren Auswirkungen auf Kosten, Performance sowie Codequalität. Zunächst folgt eine Aufbereitung des aktuellen Stands der Forschung. Darauf folgt die experimentelle Methodik. Hier dient eine prototypische Implementierung der Szenarien als Grundlage. Im Zuge des Experiments werden in unterschiedlichen Disziplinen Daten erhoben und im Anschluss ausgewertet, um empfehlenswerte Lösungen für definierte Anwendungsfälle zu benennen. Am Ende gibt die Arbeit ein kurzes Fazit zu den gewonnenen Erkenntnissen sowie einen Ausblick auf weitere Optimierungspotenziale ab.
Bei der Zusammenarbeit zwischen Menschen kommt immer häufiger auch unterstützende Software zum Einsatz. Diese Kollaborationswerkzeuge werden oftmals in Form von Webapplikationen im Browser realisiert. Webapplikationen bieten entscheidende Vorteile, darunter eine einfache Einrichtung und kaum notwendige Konfiguration. Sie müssen nicht fest auf dem System eines Nutzers installiert werden und haben daher eine niedrigere Einstiegshürde, was vor allem bei spontaner Zusammenarbeit wichtig ist. Gleichzeitig stehen viele Menschen Webapplikationen kritisch gegenüber, vor allem weil bei ihrer Nutzung Daten auf zentralen Servern verarbeitet und gespeichert werden, die in der Regel nicht unter der Kontrolle des Nutzers stehen.
Neue Webtechnologien, wie WebRTC und IndexedDB, ermöglichen es Webapplikationen, Daten über eine direkte Verbindung untereinander auszutauschen und lokal zu speichern. Daraus ergibt sich das Potential, die Abhängigkeit von zentralen Servern zu reduzieren und somit einige Nachteile von Webapplikationen aufzuheben. Die vorliegende Arbeit untersucht die Machbarkeit von Kollaborationsanwendungen für die lokale Zusammenarbeit auf der Grundlage dieser neuen Webtechnologien. Basierend auf vorher in einer Kontextanalyse erhobenen Kriterien, wird eine Softwarearchitektur für eine Kollaborationsplattform im Webbrowser entworfen, die in weiten Teilen auf zentrale Infrastruktur verzichten kann. Anhand einer prototypischen Implementierung dieser Architektur wird ein Nachweis für die generelle Machbarkeit des Konzepts erbracht und es werden Herausforderungen bei dessen Realisierung identifiziert.
Die vorliegende Masterarbeit behandelt die Bewertung der eingegangenen Unternehmensrisiken im Rahmen der Lebensversicherung und die hiervon abgeleiteten Auswirkungen zur Unternehmenssteuerung.
Dabei wird einerseits die Angemessenheit der sog. „Standardformel“ nach Solvency II überprüft, die in den europäischen Mitgliedsstaaten einen weitestgehend einheitlichen Ansatz bei der Bewertung der Risiken von Versicherungsunternehmen verwendet. Andererseits werden unter ökonomischen Überlegungen versicherungsmathematische Methoden vorgestellt, wie ein Lebensversicherer seine Risiken unternehmensindividueller ermitteln und damit seinen tatsächlichen Risikokapitalbedarf bestimmen kann.
Zur Quantifizierung der Ergebnisse werden die Berechnungsvorgaben der Standardformel für ausgewählte Risikomodule nachgebildet und mit den in dieser Arbeit vorgestellten unternehmensindividuellen Berechnungen verglichen und analysiert. Es zeigt sich, dass trotz der Komplexität des Solvency II-Modells eine noch differenziertere Herangehensweise notwendig ist, damit ein einzelnes Unternehmen seine Risiken adäquat und möglichst individuell bestimmen kann. Zur Gewährleistung einer nicht bestandsgefährdenden Unternehmensfortführung müssen die Versicherungsunternehmen bei Betrachtung ihrer Risiken mithilfe des EU-weiten Aufsichtssystems Solvency II in der Lage sein, die korrekten Rückschlüsse zur Unternehmenssteuerung zu ziehen. Die in dieser Arbeit vorgestellten versicherungsmathematischen Ansätze können dabei den Prozess zur unternehmenseigenen Risiko- und Solvabilitätsbeurteilung (ORSA) unterstützen.
Die Kommunikation via Chat konnte sich in den letzten Jahren neben Kommunikationsmedien wie E-Mail und Telefon in vielen Bereichen des alltäglichen Lebens etablieren. Textbasierter Chat weist jedoch, im Vergleich zu Face-to-Face-Kommunikation, gewisse mediale Einschränkungen auf. Nonverbale Signale wie Gestik und Mimik können, in Ermangelung eines visuellen Kanals, nicht direkt übertragen werden. Trotzdem findet auch im Chat ein Austausch nonverbaler Informationen statt, wie beispielsweise der Einsatz von Emoticons oder Pausen in Gesprächen. Verhaltensweisen bei nonverbaler Kommunikation enthalten Hinweise bezüglich der sozialen Beziehung der Gesprächspartner. Derartige nonverbale Signale können aus Chat-Protokollen extrahiert und analysiert werden. In dieser Arbeit beschäftigen wir uns mit der Analyse nonverbaler Daten aus Chat-Protokollen. Ziel ist die Einschätzung der Stärke einer sozialen Beziehung anhand eines multidimensionalen Analyse-Modells.
Bei Gebäuden mit zentraler Wärmeerzeugung treten im Verteilsystem Wärmeverluste auf. Insbesondere bei zirkulierenden Trinkwarmwassersystemen, aber auch bei Heizungsanlagen können diese Verteilverluste einen hohen Anteil am Gesamtwärmeverbrauch ausmachen und somit relevant für die Energieeffizienz einer Anlage sein. Die Ansätze und Angaben zur Quantifizierung der Verteilverluste in den relevanten Regelwerken weichen teils deutlich von Angaben in der Fachliteratur und den wenigen vorliegenden Fallbeispielen ab. Die vorliegende Masterarbeit behandelt das Thema anhand der Analyse eines Fallbeispiels. Das untersuchte Objekt ist ein Mehrfamilienhaus mit einer Zweileiterinstallation. Dabei handelt es sich um ein System, welches die Wärmeversorgung für Heizung und Trinkwasser kombiniert. Durch Vergleich der Wärmemengenzähler in Wohnungen und Heizungskeller sind in der Vergangenheit Verteilverluste von 16,5 kWh/m²a aufgefallen, was 28 Prozent des gesamten Verbrauchs ausmacht.Im Rahmen der Falluntersuchung werden die Verteilverluste der Anlage über eine umfangreiche Datenaufnahme und mithilfe thermodynamischer Berechnungen bestimmt und mit den Zählerdaten abgeglichen. Dieser Berechnung nach betragen die Verteilverluste 14,7 kWh/m²a, wovon die Leitungsverluste den größten Anteil ausmachen. Zur Prüfung der Ansätze der Regelwerke werden diese auf das Objekt angewendet. Eine Vergleichbarkeit ist wegen abweichender Rahmenbedingungen nur bedingt gegeben. Die anhand der Normen ermittelten Werte liegen zum Teil in der Größenordnung der thermodynamischen Berechnung, teils auch deutlich darunter. Der Abgleich mit den Zählerdaten dient auch der Prüfung der thermodynamischen Berechnung. Auf diese Weise sollen fundierte und detaillierte Aussagen über den Einfluss einzelner Parameter und Komponenten des Systems ermöglicht werden. Darüber hinaus ermöglicht es die thermodynamische Berechnung, das Potenzial verschiedener Reduktionsmaßnahmen zu quantifizieren. Hier zeigt sich, dass ein Absenken der Vorlauftemperatur im Fallbeispiel eine effektive Maßnahme darstellt. Beispielsweise bewirkt die Absenkung der Vorlauftemperatur um 5 Kelvin im Fallbeispiel eine Reduktion der Leitungsverluste um circa 16 Prozent, respektive einen um circa 3 Prozent verringerten Gesamtverbrauch. Die ebenfalls modellierte Dämmung der Installationsschächte hingegen lässt bei ungleich höherem Aufwand geringere Einsparungen erwarten. Bei der Bewertung der Ergebnisse ist zu beachten, dass im Untersuchungsobjekt der spezielle Fall eines Zweileitersystems vorliegt. Dennoch können auf Basis der Untersuchung auch allgemeine Erkenntnisse über Verteilverluste gewonnen und Einschätzungen über die normativen Angaben abgeleitet werden. Darüber hinaus wird im Rahmen eines Exkurses die thermische Situation im Installationsschacht einer genaueren Betrachtung unterzogen. Diese ist von Interesse, da die Wärmeverluste hier Einfluss auf Fragen der technischen Hygiene und des sommerlichen Wärmeschutzes ausüben.
Das für diese Masterthesis realisiertes Softwaresystem verwendet als Teilkomponente die Softwarelösung IPEE (Internet Pattern Extrakt Engine), die von M.Sc. Andreas Frey entwickelt und in der ursprünglichen Fassung dokumentiert wurde. Diese Kapitel sind aus Gründen des Copyrights, die auf der Software IPEE liegen, nicht in der veröffentlichten Fassung (der Masterthesis) enthalten. Eingeleitet wird die Arbeit mit Aspekten des Entwicklungsstandes des Semantik Web (Web3.0). Es folgt die Begriffsdefinition der Semantik und der semantisch orientierten Verarbeitung. Für die Ablage (Archivierung) und Verarbeitung von Daten für semantisch orientierte verarbeitende Systeme eignet sich die Konzeption der semistrukturierten Daten, die darauf folgend definiert und mit den anderen Konzeptionen - wie strukturiert und nicht strukturiert - in Beziehung gesetzt wird. In den folgenden Kapiteln werden die Komponenten erklärt, die für die Realisierung eines Prototypen zur semantisch orientierten Verarbeitung verantwortlich sind und hauptsächlich auf Aspekte der semantisch orientierten Verarbeitung von Verben fokussiert sind. Von Relevanz sind hierbei Komponenten zur Wort- und Phrasen-Analyse und zur automatischen Recherche von Wörtern aus dem Internet. Da diese Komponenten auf die Realisierung von Pattern-Extraktionsverfahren basieren, wurde die spezielle Softwarelösung IPEE verwendet. Des weiteren werden Komponenten für die Generierung des semantischen Graphen und die Visualisierung anhand von hyperbolischen Bäumen mit Hilfe einer Open Source Software Treebolic Browser beschrieben. Auch wird eine GUI für die Eingabe und Verarbeitung von Sätzen der deutschen Sprache und die Verwaltung eines Bedeutungswörterbuches erklärt. Abschließend erfolgt eine experimentelle Auswertung der semantisch orientierten Verarbeitung.
Die vorliegende Diplomarbeit beschäftigt sich ausführlich mit dem Thema Application- Server. Dabei wird speziell auf den Oracle Application-Server (OAS) eingegangen. Dem Leser soll die Architektur des OAS verständlich gemacht werden, sowie ein Überblick über die Einsatzmöglichkeiten gegeben werden. Für die ausführliche Darstellung der einzelnen Themen ist die vorliegende Diplomarbeit in drei Teile eingeteilt. Im ersten Teil dieser Diplomarbeit erhält der Leser eine Einführung in die grundlegenden Begriffe und Technologien, die notwendig sind, um die Funktionsweise eines Application-Server im WWW oder im Intranet verstehen zu können. Dazu werden die technologischen Grundlagen des Internet wie TCP/IP und World Wide Web behandelt. Es folgt ein Einblick in die verschiedenen Netzwerkarchitekturen. Abgeschlossen wird dieser Teil mit einem kurzen Überblick über die Komponentenmodelle CORBA und Enterprise JavaBeans. Im zweiten Teil dieser Diplomarbeit wird der Oracle Application-Server in der Version 4.0.8.1 vorgestellt. Nach einer Einführung in das Thema Application-Server wird die Architektur des OAS beschrieben. Daran anschließend werden die Middleware-Funktionen des OAS behandelt, wie Skalierbarkeit, Datenbankzugriff, Interaktionsmodelle und Sicherheitsaspekte. Zum Abschluss dieses Teils werden dem Leser anhand von Beispielen die Einsatzmöglichkeiten des OAS dargestellt, also welche Arten von Anwendungen auf dem OAS eingesetzt werden können. Im dritten Teil wird die Anwendung "OnlineTicket" beschrieben, die für diese Diplomarbeit entwickelt wurde. Diese Anwendung unterstützt den Vertrieb von Tickets für Veranstaltungen.
Architektur für ein Qualitätsmanagementsystem zur Verbesserung der Relevanz von Suchergebnissen
(2023)
Die Suchfunktion ist in vielen Softwareprodukten eine wichtige Komponente, die häufig zur Navigation in der Anwendung dient. Gerade, wenn große Datenmengen bereitgestellt werden, wie es bei Streamingdiensten (Netflix, Spotify) oder bei E-Commerce-Plattformen (Amazon, Zalando) der Fall ist, ist es wichtig, dass die Suchergebnisse für den Nutzer relevant sind. Eine für den Nutzer effektive Navigation mit der Suchfunktion ist nur möglich, wenn die Suchergebnisse eine ausreichend große Relevanz für den Nutzer bieten. Die Organisationen, welche die oben genannten Dienste betreiben, versuchen daher, die Relevanz ihrer Suchergebnisse zu optimieren. Eine Optimierung auf Relevanz ist zwar für eine spezielle Suche einfach, jedoch können dabei häufig Seiteneffekte auftreten, welche die Relevanz über alle Suchen verschlechtern. In einem E-Commerce-Shop kann das Einfiihren des Synonyms „Birne -> Glühbirne" dafür sorgen, dass Nutzer, die Gliihbirnen kaufen wollen und nach „Birne" suchen nun auch Gliihbirnen finden. Falls Nutzer aber das Obst Birne kaufen möchten, sind die Ergebnisse für diese Gruppe irrelevant. Bei einer Optimierung der Relevanz über alle Suchen können Qualitätsmanagementsysteme unterstützen. Ein Qualitätsmanagementsystem fiir die Relevanz von Suchergebnissen muss nicht nur fachliche und technische, sondern auch organisatorische Anforderungen beachten, um die Optimierungspotenziale vollständig auszuschöpfen. Diese Arbeit erläutert diese Anforderungen und stellt eine Architektur für ein Qualitätsmanagementsystem vor. Die Architektur wird hinsichtlich der Erfüllung der erläuterten Anforderungen analysiert. Desweiteren werden die Vor- und Nachteile fiir die jeweiligen Architekturentscheidungen unter Betrachtung der Anforderungen diskutiert. Das Ziel der Arbeit ist es, die Architektur entsprechend zu erläutern, sodass eine Organisation diese für sich angepasst implementieren kann.
Bei AskA-Services handelt es sich um digitale Auskunftsdienste im Internet, die nicht von institutionalisierten Bibliotheken oder organisierten Gruppen von Bibliothekaren betrieben werden. Stattdessen werden sie entweder von nicht-kommerzielle Informationsdienstleistern (z.B. öffentlichen Institutionen, in seltenen Fällen auch Einzelpersonen bzw. kleinen Gruppen von Personen) oder aber von Firmen angeboten, die eine Gewinnabsicht verfolgen. Neben thematisch offenen Services gibt es auch solche, die sich auf bestimmte Themengebiete spezialisiert haben. Die Antworten, die der Kunde erhält, können von realen Personen gegeben oder automatisch erstellt werden. Außerdem können sie rein natürlichsprachig sein, lediglich auf andere Webseiten verweisen oder zusätzlich auch Literatur- oder Linklisten, Bilder, Grafiken, Tabellen o.ä. beinhalten. Grundsätzlich zu unterscheiden sind nicht-kommerzielle und kommerzielle AskA-Services. Letztere können in kostenlose und kostenpflichtige Angebote unterteilt werden. Die ersten nicht-kommerziellen Dienste gingen bereits zwischen 1993 und 1995 online. Dagegen stieg die Zahl der AskA-Services mit Gewinnerzielungsabsicht erst ab 1999 sprunghaft an. Neben theoretischen Ausführungen zur Definition der AskA-Services, ihrer Entwicklung und Typologie werden exemplarisch die AskA-Services AskJeeves.com, Webhelp.com, das MAD Scientist Network, Wer-weiss-was.de und Google Answers vorgestellt.
Grundlegend wird in dieser Masterarbeit der Frage nachgegangen, welche Anspruchsvoraussetzungen Versicherte nach der Integration des Gesetzes zur Verbesserung der Hospiz- und Palliativversorgung (HPG) erfüllen müssen, um eine Palliativversorgung zu erhalten. Über die definitorische Unschärfe des Beginns und weiteren Verlaufs des Sterbens werden das Risiko der Ungleichbehandlung aufgezeigt und die Konsequenzen für die Soziale Arbeit abgeleitet.
Der Architekturstil REST erlangt in den letzten Jahren immer größere Verbreitung. RPC-orientierte Architekturstile scheinen besonders bei Software-Neuentwicklungen obsolet zu werden. Es existieren viele Gründe, die für eine Verwendung von REST-Architekturen sprechen. Den- noch zeigen sich auch Probleme bei der Entwicklung von REST-konformen Anwendungen. Diese Probleme und jeweils existierende Lösungsansätze werden in dieser Arbeit aufgezeigt. Dabei geht es zum einen um verfügbare Frameworks und technische Spezifikationen und zum anderen um konzeptionelle Lücken im Bereich der Automatisierung von Geschäftsprozessen.
Problemstellung: COVID-19 ist nicht nur aufgrund der Folgen der Erkrankung problematisch, sondern auch aufgrund einer ganzen Reihe von Sekundäreffekten. So stellt eine lang andauernde Pandemie eine Dauerbelastung dar, welche sich auf die Psyche des Menschen auswirken kann. Insbesondere Kinder und Jugendliche sind hier auf-grund ihrer besonderen Angewiesenheit auf das häusliche Umfeld besonders vulnerabel. Zeitgleich ist diese Gruppe in bestehenden Krisenplänen bisher nicht oder kaum relevant. Aufgrund der Besonderheit, dass sich Kinder und Jugendliche noch in der Entwicklung befinden und dass, insbesondere für jüngere Kinder, die aktuell seit über einem Jahr bestehende Situation der Pandemie und die damit verbundenen Einschränkungen einen erheblichen Zeitraum darstellt, besteht ebenfalls die Gefahr von kulturellen und sozialen Entwicklungsproblemen. Vor diesem Hintergrund ist auch zu beachten, dass Maßnahmen gegen das Virus, welches die Primärgefahr darstellt, ebenfalls negative Auswirkungen auf Kinder und Jugendliche darstellen und somit zu Sekundärgefahren führen können. Weiterhin ist zu bedenken, dass Fehler in der Pandemiebekämpfung, welche sich nachhaltig negativ auf Kinder und Jugendliche auswirken, in der Zukunft in Form von Problematiken im Erwachsenenalter und, bei entsprechend vielen Betroffe-nen, in der gesamten Gesellschaft sichtbar werden. Um dies zu erforschen, werden zunächst die Fragestellungen bearbeitet, welche Sekundärgefahren und Risiken aufgrund von COVID-19 für Kinder und Jugendliche vorliegen, sowie ob die Vor- und Nachteile der Lockdowns die Vorteile für Kinder und Jugendliche überwiegen. Im Anschluss werden Handlungsempfehlungen gegeben, wie die Gesundheit und das Wohlergehen von Kindern und Jugendlichen in künftig ähnlichen Lagen sichergestellt werden können.
Angewandte Methoden: Um ein möglichst umfassendes Bild über die Lage von Kindern und Jugendlichen in Deutschland zu erhalten, werden Experteninterviews mit Expertinnen und Experten aus unterschiedlichen Fachgebieten und Berufsbereichen durchge-führt. Aufgrund der internationalen Vergleichbarkeit der Problematik werden auch Ex-pertinnen und Experten aus dem internationalen Raum befragt. Dies kann dazu beitragen, Aspekte, welche im nationalen Raum nicht bekannt sind oder nicht als relevant eingeschätzt werden, in diese Arbeit mit einfließen zu lassen. Weiterhin werden Studien und Quellen aus dem nationalen Raum in Form einer Sekundäranalyse betrachtet, um auf die Vor- und Nachteile der Lockdowns Rückschlüsse ziehen zu können. Insbesondere die Unterschiedlichkeit der verschiedenen Studien und Quellen stellte dabei eine große Herausforderung dar. Somit findet eine Anwendung von qualitativen und quanti-tativen Methoden statt, was als Mixed Methods bezeichnet wird.
Wichtigste Ergebnisse: Eine eindeutige Aussage über die Sekundärgefahren für Kinder und Jugendliche gestaltet sich als schwierig, da diese Gefahren unter anderem stark durch das häusliche Umfeld geprägt sind. So scheinen Kinder und Jugendliche aus so-zial schwächeren Familien in einem höheren Maße betroffen zu sein als jene, aus sozial stärkeren Familien. Zusätzlich stellt die Pandemie eine Brennglasfunktion für bereits zu-vor bestehende Problematiken dar. Der Vergleich von Vor- und Nachteilen der Lockdowns für Kinder und Jugendliche zeigt die Unterschiedlichkeit bestehender Studien und Quellen auf, wodurch das Ergebnis dieser Fragestellung primär Indizien darstellt. Die Handlungsempfehlungen, welche ebenfalls ein Ziel dieser Arbeit darstellen, bestehen
auf den vorherigen Ergebnissen aufbauend aus grundsätzlichen Handlungsempfehlungen, dem Einbezug von Kindern und Jugendliche in Pandemiepläne, der Beteiligung von Kindern und Jugendlichen in Entscheidungen bezüglich Krisensituationen sowie der Nachsorge der aktuellen Pandemie.
Anwendungsgebiet und Zielgruppe: Bei dem Anwendungsgebiet handelt es sich zu-nächst um ganz Deutschland, wobei unter Beachtung örtlicher Gegebenheiten auch ein internationaler Anwendungsbezug des Themas besteht. Die Zielgruppe stellen insbesondere Politiker und Entscheider in Behörden dar, welche zuständig für die Formulierung bzw. Fortschreibung von Pandemieplänen und für die Bereitstellung der techni-schen und personellen Ressourcen sind.
Soziale Netzwerke decken ein breites Spektrum an Anwendungsfällen ab und bieten somit eine Vielzahl an Funktionen, bei denen die Teilnehmer mit ihrem sozialen Umfeld interagieren und mit anderen Informationen teilen können. Die dabei aufkommenden Informationen über die Teilnehmer müssen teilweise erfasst und gespeichert werden, um die Funktionalität und die Gebrauchstauglichkeit des sozialen Netzwerkes zu sichern und Missbrauch vorzubeugen. Dies jedoch hat den Nachteil, dass die entstandenen Daten und somit eine Reihe von Aktivitäten der Teilnehmer durch den Anbieter eines sozialen Netzwerkes beobachtet werden können. Um die Privatsphäre der Teilnehmer zu schützen oder auch um eine bessere Skalierbarkeit der sozialen Netzwerke zu erreichen, konzentrieren sich aktuelle Forschungsarbeiten auf die Dezentralisierung sozialer Netzwerke. Dies führt zu neuen Herausforderungen, da die Aufgaben der zentralen Organisationseinheit auf mehrere Komponenten ver-
teilt werden müssen. Eine dieser Aufgaben ist es, die Authentizität und Integrität der Daten für die Teilnehmer sicher zustellen. Die Vernachlässigung dieser beiden Schutzziele kann zu Missbrauch und verschiedenen Angriffen auf ein soziales Netzwerk und dessen Teilnehmer führen.
Um an diese Problemstellung heranzugehen, soll innerhalb dieser Arbeit geklärt werden, wann und welche Mechanismen für die Erfüllung der beiden Schutzziele in sozialen Netzwerken ohne zentrale Organisationseinheit geeignet sind. Hierfür werden die Angriffe zur Verletzung dieser beiden Schutzziele in soziale Netzwerken und der darunter liegenden Infrastruktur betrachtet. Des Weiteren wird geklärt, welchen Einfluss die Dezentralisierung auf die die Teilnehmerdaten hat und was die relevanten Kriterien für authentische Teilnehmerdaten sind.
In dieser Arbeit wird beschrieben wie verschiedene Messwerte in Prüfkörperaufnahmen nach PAS 1054 unter zu Hilfenahme von ImageJ bestimmt werden. Desweiteren wird über tabellarische und graphische Darstellung der ermittelten Daten und deren Export in für andere Programme lesbare Formate geschrieben. Im weiteren werden auf Methoden zur Glättung der Messwerte beschrieben. Die Umsetzung der Methoden in das bestehende Software Framework Optimage und dessen Aufbau wird zum besseren Verständnis erläutert. Die gesamte Umsetzung erfolgte in der objektorientierten Programmiersprache Java.
Eine gängige Form der Qualitätskontrolle von Quellcode sind Code Reviews. Der Fokus von Code Reviews liegt allerdings oft auf syntaktischer Analyse, wodurch weniger Zeit für eine semantische Überprüfung bleibt und zusätzliche Kosten verursacht werden. Code Reviews lassen sich zwar teilweise durch "Linter" automatisieren, dennoch können sie nur syntaktische Fehlermuster identifizieren, welche vorher definiert wurden. Zudem kann ein Linter nur darauf hinweisen, dass möglicherweise ein Fehler vorliegt, da die Fehler nicht durch logische Inferenz ermittelt werden. Die vorliegende Arbeit prüft, ob ein Deep Learning Modell den regelbasierten Ansatz von Lintern ablösen und die semantische Ebene erschließen kann. Dazu wurde eine Stichprobe von Java Methoden zusammengestellt und im Anschluss mit einem Supervised Learning Ansatz binär klassifiziert. Da die Analyse von Quellcode der Textanalyse stark ähnelt wird ein gängiger Ansatz für Textklassifikation verwendet. Dadurch kann gezeigt werden, dass eine Präzision von 85% bei der Erkennung von Quellcodeproblemen durch Deep Learning möglich ist.
Ziel dieser Arbeit ist die Automatisierung von Prüfverfahren, welche in der PAS 1054 definiert sind und in der digitalen Mammographie ihre Anwendung finden. Dazu standen Aufnahmen eines Prototypen des in der PAS beschriebenen Prüfkörpers zur Verfügung, die mit dem Sectra MDM angefertigt wurden. Anhand dessen konnte mit der Programmiersprache Java und unter Verwendung der Software ImageJ ein Programm geschrieben werden, welches die automatische Analyse der Bilddaten ermöglicht. Eine übersichtliche Benutzeroberfläche und die Ausgabe von Ergebnissen, die auf das Wesentliche reduziert sind, gewährleisten eine zeitsparende und effektive Handhabung.
In dieser Arbeit wird das VD 17-Projekt vorgestellt. Der Erörterung des Themas ist zunächst ein kurzer Exkurs in die Entwicklungsgeschichte des Projekts vorangestellt, um einen Überblick über die Vorgeschichte und Planungsphasen des Projekts zu gewähren. Im Mittelpunkt stehen daher vier Aspekte: zunächst wird der Inhalt des Verzeichnisses anhand des geographischen Umfangskonzeptes, der inhaltlichen Schwerpunkte der Teilnehmerbibliotheken sowie durch die enthaltenen Schriftenklassen näher definiert. Es folgt die Erläuterung der inhaltlichen Erschließung und die dafür angewandten Regelwerke. Ein großes Gewicht wird anschließend der technischen Realisierung des VD 17 sowie den Recherchemöglichkeiten in der multimedialen Datenbank zugeordnet.
Krankenhäuser stellen eine wichtige Kritische Infrastruktur im Bereich des Gesundheitssektors dar, deren Funktionsfähigkeit bei allen Gefahrenlagen erhalten bleiben muss. Durch Interdependenzen mit anderen Kritischen Infrastrukturen, wie der Trinkwasserversorgung, kann ein Ausfall einer der Infrastrukturen zu einer Beeinträchtigung der jeweils anderen führen. Trinkwasser ist für den Menschen lebensnotwendig und muss daher überall in ausreichender Quantität und Qualität bereitgestellt werden (öffentlichen Daseinsvorsorge). Die Trinkwasserversorgung stellt eines der kritischsten Infrastrukturelemente in Krankenhäusern dar, deren Ausfall zu einer Gefährdung der quantitativen und qualitativen Gesundheitsversorgung führt. Die Vergangenheit hat gezeigt, dass Trinkwasserausfälle in Krankenhäusern keine Seltenheit darstellen und zu weitreichenden Beeinträchtigungen führen. Bei Großstörungen bzw. Großschadenslagen oder Katastrophenfällen, ist daher die kommunale Gefahrenabwehr/ der Katastrophenschutz in der Pflicht, zusammen mit anderen Akteuren Krisenmanagement- bzw. Maßnahmenplanungen zu erarbeiten. Dennoch existieren zurzeit fast keine adäquaten Krisenmanagementplanungen für die Herstellung einer Ersatztrinkwasserversorgung für Krankenhäuser. Dies gilt sowohl für die Krankenhäuser im Rahmen der Krankenhausalarm- und Einsatzplanung, als auch die kommunale Gefahrenabwehr bzw. den Katastrophenschutz und Wasserversorgungsunternehmen (WVU).
In dieser Master-Thesis, die im Sommersemester 2018 an der TH Köln erarbeitet wurde, sollte durch eine umfassende Risikoanalyse, unter Zuhilfenahme von Experteninterviews und Dokumentenanalysen das Risiko und die Folgen eines vollständigen Trinkwasserausfalles in einem Krankenhaus dargestellt und der aktuelle Stand der geplanten Bewältigungs- bzw. Krisenmanagementplanungen von Behörden und Organisationen mit Sicherheitsaufgaben (BOS), dem örtlichen WVU und des Krankenhauses für eine solche Schadenslage erhoben werden. Wurden die geplante Krisenmanagementplanungen als unzureichend oder nicht existent identifiziert, so sollten, wenn möglich, Vorschläge für neue Krisenmanagementkonzepte und Kapitel für den Krankenhauseinsatzplan erstellt werden, wofür ungenutzte Ressourcen für die Etablierung einer Ersatztrinkwasserversorgung ermittelt wurden. Die Analyse erfolgte durch eine Einzelfalluntersuchung anhand des Hauptgebäudes des Krankenhauses Merheim in Köln mit dem Szenario einer lokalen Lage, die nicht durch Kontamination des Wassers induziert ist und deren genaue Ursache nicht betrachtet wird. Um mögliche zukünftige Maßnahmen erarbeiten zu können, musste im Rahmen der Analyse der minimale Trinkwasserbedarf des Untersuchungsgebietes bzw. der einzelnen Funktionsbereiche erhoben und Kriterien für die Geeignetheit von Maßnahmen zur Ersatztrinkwasserversorgung erarbeitet werden. Diese Kriterien sind: Vorlaufzeit, Einhaltung der Trinkwasserverordnung, Versorgungskapazität und Verfügbarkeit von Versorgungsquellen. Für die Berechnung der Kritikalität wurde eine eigene Berechnungsmethode erarbeitet, die im Rahmen der Schutzzieldefinition eine Kritikalitätsanalyse ermöglicht, welche die Bedeutung des Gesamtobjektes und der einzelnen Prozessbausteine einbezieht. Das hier hergeleitete Schutzziel lautet: Verhinderung von Todesfällen bei Patienten durch die angenommene Gefahr und durch das ausfallbedingte Unterlassen von Behandlungsmaßahmen, die nicht anderweitig, durch z.B. Abmeldung von der örtlichen Notfallversorgung oder einer Evakuierung und Verlegung der Patienten, kompensierbar sind.
Das übergeordnete Ziel dieser Arbeit ist zusammengefasst die Identifikation der geplanten Maßnahmen zu Ersatztrinkwasserversorgung des Krankenhauses Merheim bzw. ggf. nicht vorhandenen Maßnahmen und somit die Feststellung, ob die Problematik des angenommenen Szenarios von allen Akteuren ausreichend betrachtet wird. Es soll das Bewusstsein für die Notwendigkeit und die Verantwortlichkeiten bzw. Zuständigkeiten von Krisenmanagementplanungen inkl. der Schnittstellenproblematik erhöht werden. Auf Grundlage dieser Arbeit können die Feuerwehr, Hilfsorganisationen, das Technisches Hilfswerk, der Wasserversorger und das Krankenhaus zukünftige Planungen begründen und die Ergebnisse für die Planung einer Ersatztrinkwasserversorgung für das Krankenhaus Merheim nutzen. Das Bundesamt für Bevölkerungsschutz und Katastrophenhilfe, das diese Arbeit ebenfalls betreut hat, möchte diese Arbeit zudem dafür verwenden, weiterführende Konzepte und Leitfäden zu entwickeln.
Hinsichtlich der Erfüllung des Schutzzieles wurde das Krankenhaus Merheim an sich und als Prozessbausteine insbesondere die Intensivstationen als sehr verwundbar identifiziert, was im Rahmen der Analyse zu einem sehr hohen Gesamtrisiko führte. Weitere Prozessbausteine mit sehr hohen Risikowerten sind die Reinstwasseraufbereitungsanlage, die Zentralwäscherei, das Zentrallabor, die Zentralsterilisation und die Anästhesiologie. Durch die sehr hohen Risikowerte und den maximalen Trinkwasserbedarf des Krankenhauses von 150m³/h (eine Ermittlung des minimalen Bedarfes war nicht möglich) lässt sich ein hoher Handlungsbedarf für Krisenmanagementplanungen für den Fall eines Trinkwasserausfalles in dem Krankenhaus ableiten. Die Analyse der Krisenmanagementplanungen hat ergeben, dass keine Maßnahmen zur Krisenbewältigung eines Trinkwasserausfalles im Krankenhaus Merheim existieren. Dies betrifft alle einbezogenen Akteure. Auch eine Einspeisestelle für eine Ersatztrinkwasserversorgung und andere Redundanzsysteme sind im Krankenhaus Merheim nicht vorhanden. Die redundante Ausgestaltung der Trinkwassereinspeisung aus dem öffentlichen Netz in das Privatnetz des Krankenhauses ist dabei nur bei einem Versorgungsausfall auf Seiten des öffentlichen Trinkwassernetzes wirkungsvoll. Eine Ersatztrinkwasserversorgung wäre mit den in der Stadt Köln vorhandenen Ressourcen ausreichend gestaltbar. Verfügbare und geeignete Kapazitäten sind bei der Feuerwehr Köln, privaten Firmen mit Tanklastzügen, der Bundespolizei und Hilfsorganisationen identifiziert worden. Bei den durchgeführten Interviews wurde von fast allen Akteuren eine hohe Relevanz des Themas und der hohe Bedarf an Planungen bestätigt. Jedoch ist durch die bestehende Mangelplanung und der Vernachlässigung von Übungen zur Not- und Ersatztrinkwasserversorgung (z.B. Inbetriebnahme Trinkwassernotbrunnen) davon auszugehen, dass bisher ein mangelndes Problembewusstsein und Unstimmigkeiten bezüglich der Zuständigkeiten bei den verantwortlichen Stellen vorlag. Die Kommune (bzw. hier die Stadt Köln) sollte daher alle Beteiligten zusammenbringen, über die Verantwortlichkeiten bzw. Zuständigkeiten aufklären und einen kooperativen Planungsprozess initiieren. Eine eigene Planung, im Rahmen dieser Arbeit, in Form eines Kapitels für den Krankenhauseinsatzplan und Krisenmanagementplänen für die Gefahrenabwehr bzw. den Wasserversorger konnte durch das Fehlen einer Trinkwassereinspeisestelle in das Krankenhaus nicht erstellt werden. Jedoch war es möglich ein kurzes Kapitel für den Krankenhauseinsatzplan zu erstellen, das auf die weitreichenden Folgen eines Trinkwasserausfalles aufmerksam macht und Anweisungen zum schnelleren Übergang zu einer Evakuierung/Räumung liefert. Durch das so erreichte schnellere Handeln, könnten zumindest viele weitere Folgeschäden bei den Patienten verhindert werden. Überlegungen dahingehend, ob eher präventive oder zur Selbsthilfe befähigende Maßnahmen statt Bewältigungsplanungen in Betracht gezogen werden sollten, sind durchzuführen.
„Die sozialen Problemlagen der Frauen, die ich betreue, werden immer komplexer.“ So sagte kürzlich eine Frauenhaus-Mitarbeiterin sinngemäß. Diese Aussage einer Fachfrau in Verbindung mit eigenen Erfahrungen während meines Projektstudiums in einem Frauenwohnheim machten mich neugierig, mehr über die Sozialarbeit in diesen Bereichen zu erfahren. Mein persönliches Interesse begründet sich außerdem darin, daß der Berufseinstieg bevorsteht und das Frauenwohnheim ein von mir bevorzugtes Praxisfeld ist. Damit erschien es mir sinn- und reizvoll, ein Thema aus diesem Bereich zu bearbeiten. Aus diesen Überlegungen entwickelte sich die Fragestellung der vorliegenden Arbeit, die sich zu Beginn sowohl auf den Bereich ‘Frauenwohnheim’ als auch ‘Frauenhaus’ bezog, im Laufe der Zeit jedoch - wie später noch deutlich wird - auf ‘Frauenwohnheim’ konkretisierte: ‘Welchen sozialen Problemlagen begegnet eine Sozialarbeiterin im Frauenwohnheim und welche erforderlichen Kompetenzen ergeben sich für sie daraus?’ Das fachliche und fachöffentliche Interesse an diesem Thema besteht darin, im Zuge einer Professionalisierung der Sozialen Arbeit den steigenden Anforderungen in verschiedenen Praxisfeldern adäquat zu begegnen, etwa auch durch die Erarbeitung sogenannter Anforderungs- oder Kompetenzprofile. Die gibt es meines Wissens für die Sozialarbeit im Frauenhaus- und Frauenwohnheim-Bereich bisher nicht. An der Professionalisierung der Sozialarbeit in diesen Praxisfeldern besteht ein öffentliches Interesse insoweit, daß eine Verselbständigung und eine verbesserte gesellschaftliche Integration der Betroffenen erwünscht ist. Von Seiten der öffentlichen Kostenträger besteht auch Interesse daran, mit möglichst geringem Kostenaufwand möglichst gute Ergebnisse zu erzielen, also effizient zu arbeiten. Der vorliegenden Arbeit liegt eine qualitative Untersuchung zugrunde. Gegenstand der Untersuchung waren Frauen, die im Frauenwohnheim oder Frauenhaus leben oder gelebt haben. Aus einem ausgewählten Einzelfall erarbeite ich die sozialen Problemlagen sowie die daraus resultierenden erforderlichen Kompetenzen für die Sozialarbeit im Frauenwohnheim. Durch Hinzuziehung von Literatur sichere ich die Ergebnisse wissenschaftlich ab.
Die detektive Quantenausbeute (DQE) erlaubt eine umfassende Charakterisierung bildgebender Systeme, da sie sowohl etwas über das Auflösungsvermögen, als auch über die Rauscheigenschaften des Systems aussagt. Im Rahmen dieser Arbeit wurde die DQE zweier digitaler Mammographie-Einrichtungen bestimmt, wobei für vergleichbare Dosisniveaus folgende Ergebnisse erzielt wurden: Für eine Ortsfrequenz von einem Lp/mm beträgt die DQE des indirekten Systems ca. 42% und die des direkten Systems auf Basis von amorphem Selen ca. 62%.
Bibliothek 2.0 : Neue Perspektiven und Einsatzmöglichkeiten für wissenschaftliche Bibliotheken
(2007)
Zunächst als Marketingbegriff geschaffen, ist der Neologismus „Web 2.0“ mittlerweile zum buzzword geworden, dem bis dato jedoch eine konkrete und eindeutige Definition fehlt. Zunehmend erlangt die Thematik des Web 2.0 große Aufmerksamkeit und beinahe täglich entstehen neue Applikationen, Anwendungen und Informationsdienstleistungen, die sich besonders durch eine kollaborative Entstehung und Nutzung von Informationen kennzeichnen – Schlagwörter wären hier u.a. Wikis, Weblogs oder RSS-Feeds. Wissenschaftliche Bibliotheken, die als Zentren von Informationsdienstleistungen dienen, dürfen sich vor dem externen wie internen Gebrauch und der Einbindung der Web 2.0-Techniken in ihre Institutionen nicht verschließen, sondern sollten gerade hier eine Vorreiterrolle einnehmen, um so das Geschehen auf diesem für sie potenziell immer wichtiger werdenden Sektor beeinflussen und mitgestalten zu können. In dieser Arbeit sollen solche wissenschaftlichen Bibliotheken vorgestellt werden, die in Bezug auf Web 2.0-Anwendungen bereits erste Erfahrungen gesammelt haben und nunmehr für weitere wissenschaftliche Bibliotheken eine Vorbildfunktion einnehmen können. Die dargestellten bibliothekarischen Beispiele zeigen, dass eine Wandlung und Anpassung an die neuen Anforderungen – seitens der Bibliotheksnutzer, aber auch und vor allem seitens der Bibliothekare – bereits begonnen hat. Im Einzelnen liegt hierbei das Hauptaugenmerk auf dem Kölner UniversitätsGesamtkatalog (KUG), dem Recommender-System BibTip in Karlsruhe, dem Weblog der UB Mannheim, der LMU München mit ihrer Schnittstelle zu Connotea und der internen Informationsplattform ISIS aus der SULB Saarbrücken. Ausgehend von diesen Beispielen aus der Praxis wird ferner ein genereller Blick gewagt, welche Fakten als Ursache für eine entstehende Bibliothek 2.0 gesehen werden können. Hierbei werden insbesondere die Auskunft, der Schulungskomplex und die Erschließung betrachtet, die von einem Umdenken und einer Umstrukturierung betroffen sein müssen, wobei für diese Einzelbereiche neue Optionen herausgearbeitet werden, durch die sie in besonderem Maß vom Web 2.0 profitieren können.
Bibliothek und Moderne in Japan : das wissenschaftliche Bibliothekswesen zwischen System und Kultur
(2011)
Die vorliegende Arbeit erklärt die gegenwärtigen Strukturen des Hochschulbibliothekssystems in Japan aus ihrer kulturhistorischen Entwicklung heraus. Im Mittelpunkt steht dabei die Frage nach Einflüssen der traditionellen japanischen Kultur auf das moderne Bibliothekswesen. Zunächst wird die Entwicklung des vormodernen Bibliothekswesens in Japan bis ca. 1850 geschildert. Sodann wird vor dem gesellschaftlichen und kulturellen Hintergrund der Entwicklung der japanischen Modernisierung bis in die Nachkriegszeit die Genese des modernen wissenschaftlichen Bibliothekssystems einschließlich des relevanten Verbandswesens und der Bibliothekarsausbildung erläutert. Das System der Hochschulbibliotheken wird dabei im Kontext angrenzender Systeme wie des Hochschulsystems und des allgemeinen Bibliothekssystems in Japan geschildert. Die internen Strukturen der japanischen Hochschulen und der ihnen angeschlossenen Bibliotheken sind der vorliegenden Darstellung zufolge in der Vorkriegszeit wesentlich vom Vorbild der zeitgenössischen deutschen Hochschulen beeinflusst gewesen, während in der Nachkriegszeit der US-amerikanische kulturelle Einfluss deutlich überwiegt. Die kooperative Bibliotheksarbeit, die Automatisierung und die Entwicklung hin zur digitalen Bibliothek vollzogen sich zwar gegenüber westlichen Ländern teils langsamer, führten aber doch zu einem leistungsfähigen und ausdifferenzierten Hochschulbibliothekssystem. Die Arbeit schildert zudem die Unterschiede zwischen Bibliotheken an privaten und staatlichen Trägerinstitutionen, zwischen älteren zweischichtigen und jüngeren einschichtigen Bibliothekssystemen, und die Rolle des japanischen Staates für die Bibliotheksentwicklung. Sie beschreibt auch einige der Herausforderungen des gegenwärtigen Systems: dazu zählen Probleme in der japanischen Bibliothekarsausbildung und die Entwicklungsperspektive der Träger vor dem Hintergrund der alternden japanischen Gesellschaft. Die Arbeit kommt zu dem Schluss, dass sich aus der Entwicklung des modernen Hochschulbibliothekssystems ein konsequenter kultureller Bruch mit der vormodernen japanischen Bibliothekstradition ersehen lässt. Die Modernisierung nach 1850 führte nicht nur zum Import von Techniken und systemischen Organisationsprinzipien des westlichen Bibliothekswesens, sondern auch die bibliothekarische Berufskultur wurde wesentlich von westlichem Gedankengut geprägt.
Durch technische und politische Veränderungen wird die Vernetzung verschiedenster gesellschaftlicher Gebiete immer leichter – so auch im Bibliotheksbereich. Vor diesem Hintergrund stellt sich die Frage, was dies für die „Bibliothekslandschaft“ Europas bedeutet: Befinden die europäischen Bibliotheken sich in einer Phase intensiver Zusammenarbeit durch Vernetzung – oder ist bereits ein arbeitsteiliges System auf europäischer Ebene im Entstehen begriffen? Nach Beschreibung der verschiedenen Infrastrukturebenen wird das Zustandekommen zweier unterschiedlicher, EU-geförderter Projekte erläutert (IMPACT und EDLnet). Zum einen, um die Bedeutung von Vernetzung für typische Projektabläufe darzustellen, zum anderen, um zu zeigen, dass Projekte als „temporäre Systeme“ funktionieren. Auf Basis der Analyse werden „Desiderate“ für die Zusammenarbeit formuliert und abschließend die Frage nach „Systembildung“ oder „Vernetzung“ beantwortet.
Ausgehend von einer kurzen Darstellung des deutschen bibliothekarischen Interesses an Frankreich seit den Achtzigerjahren gibt die Arbeit einen Überblick über den aktuellen Stand der deutsch-französischen Zusammenarbeit im Bibliothekswesen. Vorgestellt werden insbesondere Kooperationen und Partnerschaften von Öffentlichen und Wissenschaftlichen Bibliotheken und anderen bibliothekarischen Einrich-tungen sowie Austauschprogramme. Ein Schwerpunkt der Arbeit liegt dabei auf den Aktivitäten von Einrichtungen der Grenzregionen, da die deutsch-französische (z.T. auch trinationale) Zusammenarbeit hier verhältnismäßig stark ausgeprägt ist: Bereits Ende der Achtziger- / Anfang der Neunzigerjahre wurden Biblio 3 und die Arbeitsgruppe Bibliotheken von EUCOR (Europäische Konföderation der Oberrheinischen Universitäten) gegründet. Noch im Aufbau befinden sich die Kooperation des Interregionalen Arbeitskreises sowie die von biblio 2. Außerhalb der Grenzregionen fällt die Bilanz dagegen schlecht aus: Kooperationen zwischen deutschen und französischen Bibliotheken sind dort allenfalls punktuell vorhanden, und auch im Rahmen der bibliothekarischen Austauschprogramme werden derzeit keine Austausche zwischen deutschen und französischen Bibliothekaren durchgeführt. Untersucht werden deshalb die für diese Situation verantwortlichen Hindernisse und Schwierigkeiten, die bei der bibliothekarischen Zusammenarbeit zwischen Deutschland und Frankreich auch in den Grenzregionen auftreten. Aus diesen werden abschließend diejenigen Faktoren abgeleitet, die maßgeblich zu einer Aufnahme von Kontakten und zum Erfolg einer Kooperation beitragen. Weiterhin wird verdeutlicht, aus welchen Gründen eine Zusammenarbeit mit Frankreich trotz aller Probleme angestrebt werden sollte.
Bibliothekarischer Auskunftsdienst im Informationsverbund : Digital-reference-Konsortien in den USA
(2003)
Bibliotheken weltweit befinden sich im Wandel. Der Trend der Nutzer, Informationen immer häufiger zuerst, und teilweise sogar ausschließlich, im Internet zu suchen, erfordert Veränderungen in der Konzeption des bibliothekarischen Informationsdienstes. Um den Nutzer dann und dort zu erreichen, wo er Hilfe benötigt, bieten viele Bibliotheken bereits Digital Reference Service, digitalen Auskunftsdienst, an. Zumeist erfolgt dieser allerdings institutionsbezogen von einzelnen Bibliotheken, die dadurch auf synergetische Effekte und Vorteile durch Zusammenarbeit verzichten. Abhilfe könnten Informationsverbünde schaffen, in denen mehrere Bibliotheken arbeitsteilig digitalen Auskunftsdienst anbieten. Ziel dieser Arbeit ist es, die Entwicklung solcher Digital Reference Konsortien in den USA näher zu beleuchten. Um den Einstieg in die Thematik zu erleichtern, werden in einem theoretischen Teil zuerst die Begrifflichkeiten geklärt und die verschiedenen Formen des Digital Reference Service dargestellt. Im weiteren Verlauf der Arbeit wird dann die praktische Anwendung des digitalen Informationsdienstes diskutiert. Zu diesem Zweck wurden repräsentativ zwei innovative US-amerikanische Projekte ausgewählt, die detailliert vorgestellt werden. Ein kurzer Überblick über die historische Entwicklung digitaler Informationsverbünde in den USA soll dabei als Hintergrund für die Einordnung der präsentierten Dienste dienen. Die Erfahrungen, die in diesen sehr unterschiedlichen Projekten gemacht worden sind, dienen anschließend als Basis für Überlegungen, wie derartige Konsortien in Deutschland aufgebaut werden könnten. Organisatorische und strukturelle Anregungen an das deutsche Bibliothekswesen zum Aufbau von kooperativen digitalen Auskunftsdiensten runden die vorliegende Arbeit ab.
Diese Diplomarbeit beleuchtet die in Deutschland bisher wenig beachtete Thematik der Hörgeschädigten als Bibliotheksbenutzer. Sie beschreibt die Erscheinungsformen und die Verbreitung der Hörschädigung in Deutschland und ihren negativen Einfluss auf die Lese- und Informationskompetenz der Betroffenen. Das Dienstleistungsangebot für Hörgeschädigte in ausländischen und deutschen Bibliotheken wird detailliert beschrieben und verglichen. Anschließend werden die verschiedenen Dienstleistungen im Einzelnen erläutert und ein möglicher Einsatz in deutschen Bibliotheken diskutiert. Als Ergebnis wird festgehalten, dass es in deutschen Bibliotheken, im Gegensatz zu denen im Ausland, kaum spezielle Angebote für Hörgeschädigte gibt. Bibliotheken müssen gezielt Bestandsaufbau betreiben, technische Hilfsmittel zur Verfügung stellen und Hörgeschädigte in das Veranstaltungsangebot integrieren, um so auch dieser Gruppe Medien- und Informationskompetenz zu vermitteln.
Die vorliegende Diplomarbeit beschäftigt sich mit einer Bildqualitätsanalyse der Stellen, an denen Qualitätsentscheidungen getroffen werden sowie der anschließenden Analyse dieser Bildstellen. Zunächst werden sechs verschiedene Fotografien mit den Optimierungsparametern Helligkeit, Schärfe, Kontrast und Neutralität bearbeitet. Um die oben genannten Bildstellen zu finden, werden diese durch 20 Probanden mit Hilfe eines Eye-Tracking Systems ermittelt. Die daraus gewonnenen Bildstellen werden dann im Frequenz- und Farbbereich durch Plug-Ins im Programm „ImageJ“ untersucht.
Die Bedeutung der künstlichen Intelligenz (KI) in Computerspielen hat sich in den letzten Jahren bedeutend geändert. Es wird versucht Spielfiguren zu implementieren, die ein reales, menschenähnliches Verhalten aufweisen. Der primäre Grund ist die Erkenntnis, dass eine gute KI von Charakteren zum besseren Verkauf von Computerspielen beiträgt. Die Käufer wünschen reale Charaktere, mit denen sie sich identifizieren können. Der sekundäre Grund ist die Verbesserung der Computertechnik zugunsten einer Entlastung der CPU, die eine gute KI erst ermöglicht hat. Zurückzuführen ist dies auf die Optimierung der CPUs und des Arbeitsspeichers und vor allem aufgrund der Entwicklung leistungsstarker, moderner 3D Graphikkarten. Gerade diese erlauben mehr CPU-Rechenzeit für „Nicht-Grafiktasks“. Aufgrund des oftmals unrealistischen Charakterverhaltens in Computerspielen ist das Ziel der Diplomarbeit, die Entwicklung einer Spielfigur, im Sinne einer phänomenalen Gestalt. Die phänomenale Gestalt entsteht in dem Moment, indem ein Objekt oder ein Charakter reales Leben dermaßen echt abbildet, dass man ein „künstliches“ Bewusstsein wahrnehmen kann. Die Wahrnehmung findet statt, weil der Charakter fähig ist, sein Bewusstsein, sein Verhalten und das Verhalten anderer zu reflektieren.
Cloud Computing ist der zentrale Faktor zur Beschleunigung der Digitalisierung in Deutschland und wird in den kommenden Jahren eine wichtige Rolle in jedem deutschen Unternehmen spielen. Für Unternehmen wird es dabei um die Umsetzung von
Cloud-Strategien und die praktische Einbindung in die täglichen Betriebsprozesse gehen. Zusätzlich müssen Unternehmen ihre bestehende Datenlandschaft in moderne Architekturen zum Datenmanagement in die Cloud migrieren. Dabei können Unternehmen auf eine Vielzahl an unterschiedlichen unternehmensweiten Datenarchitekturen
zurückgreifen. Die vorliegende Masterarbeit gibt eine Einführung in die aktuelle Entwicklung von Cloud Computing und erläutert, mit Data Fabric, Data Lakehouse und Data Mesh, drei unternehmensweite Datenarchitekturen für die Cloud. Data Fabric, Data Lakehouse und Data Mesh bilden dabei aktuell die modernsten Konzepte für unternehmensweite Datenarchitekturen. Zusätzlich werden ein Data Lakehouse und ein Data Mesh in einer ausgewählten Cloud-Umgebungen entworfen, prototypisch aufgebaut und praktisch analysiert. Ziel der Masterarbeit ist es, die unternehmensweiten Datenarchitekturen in der Cloud zu erläutern, konkrete technologische Architekturen zu entwerfen und entsprechende Hinweise zu Aufwandstreibern in Unternehmen zu identifizieren.
In dieser Diplomarbeit werden die Chancen und Risiken der Creative Commons Lizen-zen (CCL) für das Management von Non-Governmental Organisations (NGOs) aufge-zeigt und untersucht. Das Konzept der Creative Commons Lizenzen wird zunächst in das Spannungsfeld zwischen „geistigem Eigentum“ und „digitaler Allmende“ eingeordnet und ausführlich vorgestellt. In der Betrachtung des NGO-Managements werden die Sta-keholder der Organisationen spezifiziert. Die theoretischen Erkenntnisse der Arbeit ge-ben zusammen mit den Ergebnissen einer Befragung von vier NGO-Verantwortlichen Hinweise, wie eine NGO die Chancen der CCL nutzen und deren Risiken vermeiden kann. Die vorliegende Arbeit liefert neun Hypothesen über dieses weitgehend uner-forschte Untersuchungsgebiet, die sich aus Theorie und Empirie ableiten und hiermit als vorläufig verifiziert betrachtet werden. Zusammenfassend gelangt die Untersuchung zu dem Ergebnis, dass die Chancen der CCL gegenüber den Risiken überwiegen. Sie stellt aber auch fest, dass eine abschließende Bewertung dieser Faktoren nie losgelöst vom Dialog zwischen der NGO und ihren Stakeholdern erfolgen darf. Deren individuelle Ein-stellung zu einer freien Lizenzierung digitaler Informationsgüter muss die NGO bei der Einführung der CCL stets berücksichtigen. Ferner soll diese Arbeit NGOs und informati-onswissenschaftlich Interessierten Anregungen für den erfolgreichen Umgang mit Infor-mationsgütern und den Einsatz freier Lizenzen geben.
Die Einführung des Neuen Steuerungsmodells (NSM) ist Thema in vielen Gemeinden. Die theoretischen Grundlagen der Verwaltungsreform, die hauptsächlich von der Kommunalen Gemeinschaftsstelle für Verwaltungsvereinfachung (KGSt) erstellt werden, sind einfach vermittelt. Die Umsetzung der Theorie in die Praxis bringt allerdings für die meisten Gemeinden und ihre Ämter Komplikationen mit sich. Aus diesem Grund ist es sinnvoll, daß bereits neu gesteuerte Ämter ihre Erfahrungen austauschen und "Neueinsteigern" zugänglich machen. Durch das Deutsche Bibliotheksinstitut (DBI) und verschiedene bibliothekarische Fachzeitschriften findet bereits seit mehreren Jahren ein reger Austausch zwischen Bibliotheken statt. Dabei werden individuelle Erfahrungen wiedergegeben, die allerdings ohne vorher definierte Untersuchungsgegenstände und -methoden erstellt worden sind. Gegenstand dieser Arbeit ist die Entwicklung eines Untersuchungsschemas, das auf den Analyse-Instrumenten und Erkenntnissen der empirischen Strategieforschung basiert.
Die Extensible Markup Language (XML) ist eine Metaauszeichnungssprache, die 1998 vom World Wide Web Consortium (W3C), einer Organisation, die sich mit der Erstellung von Web Standards und neuen Technologien für das Internet beschäftigt , als neue Empfehlung für Web-Anwendungen festgesetzt wurde. Seitdem ist viel über XML und die sich durch diese Sprache ergebenden neuen Möglichkeiten des Datenaustausches über das Internet publiziert worden. In XML-Dokumenten werden die hierarchische Struktur und der Inhalt der Dokumente festgelegt, aber keinerlei Angaben zum Layout gemacht. Dieses wird in so genannten Stylesheets definiert. Mit Hilfe mehrerer Stylesheets, die sich alle auf ein XML-Dokument beziehen, ist es möglich, aus einem Datenbestand verschiedene Ausgabeprodukte, z.B. eine Online-Version und eine druckbare Ausgabe eines Dokuments, zu erzeugen.
Existiert das "gläserne" Unternehmen? Sind die letzten Geheimnisse der Konkurrenz bereits gelüftet? Gibt es sichere Entscheidungen durch Allwissenheit? Ist Industriespionage heute überflüssig? Diese Fragen drängen sich mit dem immer weiter wachsenden Angebot an Datenbanken geradezu auf. Anhand der Untersuchung einiger renommierter Datenbanken wird versucht, darauf eine Antwort zu finden. Ausgangspunkt ist die Definition des Begriffs "Firmeninformationen". Bisher wird dieser Begriff offensichtlich je nach Bedarf ausgelegt. Anschließend wird das Feld der Firmeninformationen in seine Bestandteile zerlegt, um zu zeigen, daß dazu nicht nur die einfachen Fakten wie Mitarbeiterzahl oder Umsatz gehören. Im zweiten Kapitel werden die einzelnen Datenbanktypen mit ihren Inhalten vorgestellt. Das dritte Kapitel befaßt sich mit Kriterien, die für die Qualität von Firmeninformationsdatenbanken entscheidend sind. Im Anschluß erfolgt eine Analyse des Datenangebotes. Untersucht wurde das Angebot ausgewählter Datenbanken zu den Unternehmen "Aldi" und "Henkel KGaA".
Im Mai 2001 wurde JavaServer Faces (JSF) von Sun als Java Specification Request (JSR) 127 vorgestellt. Außer Sun sind an der Entwicklung der JSF Spezifikation unter anderem die Apache Software Foundation, BEA Systems, Borland Software Corporation, IBM, Oracle und Macromedia beteiligt. Seit Dezember 2003 steht die Referenzimplementierung (RI) von Sun als Version 1.0 Beta zur Verfügung. Obwohl die Spezifikation noch nicht ganz abgeschlossen ist und die RI bis zum Final Release noch große Änderungen erfahren wird, zeichnet sich bereits ab, dass hier ein "großer Wurf" gelungen ist. Tool-Hersteller wie auch Anwendungsentwickler bringen JSF großes Interesse entgegen; eine OpenSource-Implementierung der JavaServer Faces ist mit MyFaces1 von SourceForge auch schon zu haben. Dabei gab es JavaServer Faces eigentlich schon, bevor die Entwicklung der Spezifikation begann. Das inzwischen in der Version 2.1.7 vorliegende Framework UIX (User Interface XML) von Oracle versucht schon seit einigen Jahren, eine große Lücke zu füllen. Es ist, genau wie JSF, ein UserInterface-Framework fürs Web. Im Gegensatz zu JSF ist es jedoch schon so ausgereift, dass es in realen Projekten eingesetzt werden kann.
Die Grundlage für das Datenmodell einer Arztpraxis sind alle relevanten Daten, die zum Betrieb einer Arztpraxis notwendig sind. Aktuell werden die Daten mittels einer Praxisverwaltungssoftware (PVS) erfasst, in einem proprietären Datenformat gespeichert und im Weiteren für die Abrechnung aufbereitet. Dabei ist es seit Mai 1989 möglich, dass die Abrechnung per Diskette erstellt wird. Für die Aufbereitung der Daten wurde zuerst der Abrechnungsdatenträger (ADT) und seit dem 1. Juli 1999 ist es Pflicht die Abrechnung über den KV – Datenträger (KVDT) zu verwenden. Damals wurde kein einheitliches Datenmodell eingeführt, welches über den Abrechnungsdatenaustausch hinaus geht. Dadurch ist es nur sehr beschränkt möglich, Daten zwischen den einzelnen Systemen auszutauschen. So ist es für einen Arzt äußerst schwierig auf ein neues PVS – System umzusteigen. Um einen Eindruck über die Vielfalt und Menge der verschiedenen PVS – Systeme zu vermitteln, werden im Folgenden die Anzahl der KVDT – Zulassungen und der Labordatenträger – Zulassungen (LDT–Zulassungen) beschrieben. Zum dritten Quartal 2005 sind 2541 PVS – Systeme von der Kassenärztlichen Bundesvereinigung (KBV) für den gesamten oder Teile des KVDT zugelassen. Des Weiteren sind 742 PVS – System – Hersteller für die Datenübertragung mittels des gesamten oder Teile des Labordatenträgers zugelassen. Seit dem 1. Januar 2004 sind die Ärzte, mit wenigen Ausnahmen, gesetzlich dazu verpflichtet, die Abrechnung elektronisch durchzuführen. Deswegen haben einige Ärzte aus Kostengründen eine Individuallösung konzipiert, die ausschließlich in ihrer Arztpraxis verwendet wird. Aber auch diese Lösungen müssen von der KBV zertifiziert werden. Diese Lösungen werden zu den zugelassenen PVS – Systemen gezählt. Zum dritten Quartal 2005 sind 373 Individuallösungen zugelassen. Die in einer Arztpraxis anfallenden Daten müssen für den geregelten Praxisbetrieb vom PVS – System verwaltet, gespeichert und zum Teil auch zum Datenaustausch nach außen kommuniziert werden. Dabei werden die Daten von jedem Hersteller unterschiedlich erfasst und weiterverarbeitet. Des Weiteren ist die Repräsentation dieser Daten nicht einheitlich und beinhaltet verschiedene Arten von Daten. Diese Daten sind unter anderem Verwaltungsdaten, Abrechnungsinformationen und medizinische Informationen. Die von den Herstellern der Praxisverwaltungssoftware zu Grunde gelegten Datenmodelle sind unabhängig voneinander und nicht standardisiert. Dabei extrahiert jede Praxisverwaltungssoftware die Daten, die es für wichtig hält und repräsentiert diese in einem eigenen Format. Dadurch ergibt sich die Schwierigkeit, dass die Interoperabilität der Systeme sowohl in funktioneller als auch in semantischer Sicht eingeschränkt ist. Die Lösung dieser Probleme ist ein einheitliches Datenmodell mit entsprechender Schnittstelle, die das Ergebnis der vorliegenden Arbeit darstellt.
Die Arbeit widmet sich einem Thema, das zwar nicht ganz neu ist, bisher aber wenig bedeutsam war und durch das Inkrafttreten der DS-GVO nunmehr auf eine in vielen relevanten Bereichen völlig neue rechtliche Grundlage gestellt und hinsichtlich der spezifischen Fragestellung völlig unbearbeitet ist. Die Arbeit gliedert sich in zwei Hauptteile. Im ersten Teil werden die rechtlichen Grundlagen dargestellt und damit die Relevanz des Themas für das Prüfungsverfahren aufgezeigt. Der zweite Teil widmet sich der Anwendung des neuen Datenschutzrechts auf das Prüfungsverfahren und entwickelt dabei konkrete Handlungsempfehlungen, nach denen Prüfungsämter und sonstige mit Prüfungen befasste Einrichtungen die Anforderungen der DS-GVO erfüllen können.
Diese Arbeit untersucht die zeitliche Interpolation von Videosignalen. Durch die
Einführung des Ultra High Definition Television Standard wird eine höhere Bildwiederholrate benötigz um
Judder-Artefakte zu vermeiden. In diesem Zusammenhang kommt der zeitlichen Interpolation von nicht nativem UHD Material eine besondere Bedeutung zu. Neben der räumlichen Interpolation ist diese essenziell. In dieser Arbeit wird eine Übersicht über die Anforderungen an UHD Video gegeben. Bewegungskompensierende
Verfahren für das Deinterlacing und Upscaling in Verbindung mit einer Phasenkorrelation werden behandelt. Ein MATLAB-Programm wird entwickelt mit dem ein Upscaling und Deinterlacing von HD Material durchgeführt werden kann.
Die vorliegende Arbeit beschäftigt sich mit dem Einsatz kommunikationspolitischer Instrumente an Bibliotheken. Anhand der wirtschaftswissenschaftlichen Literatur und insbesondere der Ausführungen von Prof. Dr. Bruhn soll das Spektrum der Möglichkeiten aufgezeigt werden. Ziel dieser Arbeit ist es, die Kommunikationspolitik in ihrer Eigenschaft als Marketinginstrument zu beschreiben, ihre Möglichkeiten und Grenzen aufzuzeigen, und so das bisherige Verständnis bibliothekarischer Öffentlichkeitsarbeit zu erweitern. Ausgehend von einer Definition des Begriffs "Marketing" und einer Vorstellung des Planungsprozesses wird zunächst der Begriff der "Integrierten Kommunikationspolitik" definiert und in seinen übergeordneten Zusammenhang eingefügt. Abschließend werden die einzelnen Instrumente benannt. Das zweite Kapitel behandelt die Vorbedingungen bibliothekarischer Kommunikationspolitik, wobei dem Budget ein eigener Abschnitt gewidmet ist. Eine Beschreibung von Aufgaben, Zielen und Zielgruppen führt schließlich zu einer Erläuterung des kommunikationspolitischen Planungsprozesses. Im folgenden wird die Möglichkeit einer Branchenkommunikation des Bibliothekswesens untersucht, wobei die Aktivitäten des Niederländischen Bibliotheksverbandes als reales Beispiel dienen. In weiteren Kapiteln werden insgesamt elf kommunikationspolitische Instrumente näher vorgestellt. Der Schwerpunkt liegt nicht auf der Beschreibung konkreter Umsetzungen, sondern auf der Darstellung der Planungsprozesse, da dies bisher weitgehend vernachlässigt wurde. In einem zweiten Schritt sollen die gewonnenen Erkenntnisse auf das Bibliothekswesen übertragen werden. Soweit möglich, werden für die einzelnen Instrumente Beispiele oder Vorschläge angefügt. Eine detaillierte Darstellung wird der Werbung zuteil, da die wissenschaftlichen Erkenntnisse auf diesem Gebiet besonders umfassend sind.
Im Rahmen dieser Diplomarbeit wurde ein Java-Programm zur automatisierten Detektion von Strukturelementen in Volumendatensätzen entwickelt und anhand eines neu entwickelten Prüfkörpers der lokale geometrische Fehler eines bildgebenden Systems ermittelt. Mit geeigneten Algorithmen werden, für eine treffsichere Detektion, das Rauschen reduziert, die Stützstellen detektiert und die 7-Parameter der Helmert-Transformation bestimmt.
Die vorliegende Diplomarbeit vergleicht drei didaktisch-methodische Modelle von Präsenzveranstaltungen zur Vermittlung von Informationskompetenz an Hochschulbibliotheken. Neben den etablierten Konzepten Benutzerschulung und Teaching Library analysiert sie das von der Universitätsbibliothek Kassel entwickelte innovative Modell Learning Library. Die Arbeit untersucht jeweils die lerntheoretischen Grundlagen, das Verständnis von Informationskompetenz, Ziele und Inhalte, didaktische Prinzipien und Methoden. Abschließend bewertet sie, welches Modell hinsichtlich der Förderung des Lebenslangen Lernens zukunftsträchtig ist.
Diese Arbeit versucht einen umfassenden Überblick über das gesamte luxemburgische Bibliothekswesen zu geben. Bisher kaum erforscht, wurde es meist auf einige spezifische Aspekte hin beleuchtet, jedoch noch nicht auf seine Gesamtentwicklung hin. In Ermangelung einer Universität oder sonstigen wissenschaftlichen Strukturen waren es kirchliche Träger, die die ersten Bibliotheksstrukturen aufbauten, seien es nun wissenschaftliche oder öffentliche. Doch sie wurden wie alle weiteren Bemühungen auch, immer wieder Opfer äußerer Einflüsse, die Luxemburg heimsuchten. Bis in die 1980er Jahre hinein hatten sich keine nennenswerten Systemstrukturen ausgebildet, die von Dauer waren. Heute, im 21. Jahrhundert, deuten sich neue Entwicklungen an, sowohl bei den öffentlichen wie bei wissenschaftlichen Bibliotheken. Die Gründung einer eigenen Universität sowie ein erstes Gesetz für öffentliche Bibliotheken haben vordergründig binnen eines Jahrzehnts enorme Bewegung in das luxemburgische Bibliothekswesen gebracht und Hoffnungen auf eine neue Blütezeit geweckt. Doch intern ist das Bibliothekswesen in Luxemburg so zersplittert wie selten zuvor.
Der Ausbruch der COVID-19-Pandemie und die zur Bekämpfung des Virus erlassenen Coronaschutzverordnungen verschärfen die Lebenslagen geflüchteter und flüchtender Menschen und erschweren die Arbeit von sozialen Bewegungsakteuren und Organisationen der Sozialen Arbeit, die auf Missstände im Kontext von Flucht und Asyl aufmerksam machen und sich für deren Verbesserung einsetzen. In dieser Arbeit wurde daher der Frage nachgegangen, wie sich zivilgesellschaftliche und sozialarbeiterische Organisationen seit der Pandemie für geflüchtete Menschen und Menschen auf der Flucht einsetzen. Mithilfe von sieben leitfadengestützten Interviews mit Personen aus Lokalgruppen von Seenotrettungsorganisationen, Willkommensinitiativen und Organisationen der Sozialen Arbeit wurde rekonstruiert, wie die befragten Akteure ihre Situationen erleben und auf welche Weise sie sich zu diesen wahrgenommenen Gegebenheiten verhalten und auf sie einwirken. Dabei wurden sowohl fallübergreifende Kategorien identifiziert, wie innerorganisationale Gestaltungsprozesse, die Bedeutung von Vernetzung und Engagementbereitschaft sowie die Wahrnehmung von gesellschaftlichem Klima und politischen bzw. medialen Entwicklungen, als auch fallspezifische Bedingungen und Bewältigungsmuster der jeweiligen Organisationen herausgearbeitet. Ein besonderes Augenmerk wurde schließlich auf das Verhältnis zwischen Fachkräften der Sozialen Arbeit und Aktivist:innen bzw. Engagierten gelegt, da die Beziehung von sozialen Bewegungen und der Sozialen Arbeit insgesamt bisher empirisch unterbelichtet ist
Die nachfolgende Masterarbeit untersucht die Nutzung von DeepFake-Anwendungen bei Personen mit einer Fazialisparese. Dabei handelt es sich um eine Lähmung des Gesichtnervs, wodurch die betroffenden Menschen keine bzw. keine vollständige Mimik im Gesicht haben. Es wird hierbei getestet, ob mithilfe von DeepFake eine möglichst realistische Mimik generiert werden kann. Für die Untersuchung werden zunächst sowohl die theoretischen Grundlagen als auch verschiedene potenzielle Anwendungen vorgestellt. Mithilfe der vorgestellten Anwendungen wird anschließend ein Versuch durchgeführt, in dem die künstliche Intelligenz mit Bildmaterial von Proband:innen trainiert und anschließend manipuliert wird. Die aus dem Versuch resultierenden Ergebnisse werden danach durch eine Umfrage mit Bildern, welche eine originale Mimik zeigen, verglichen. Dadurch soll überprüft werden, wie realistisch die manipulierten Bild- und Videomaterialien sind oder ob die künstliche Intelligenz an eine mögliche Grenze stößt. Abschließend werden weitere Forschungsansätze und Anwendungsmöglichkeiten vorgestellt, in welchem die betrachtete künstliche Intelligenz genutzt werden kann.
Der überwiegende Teil der Öffentlichen Bibliotheken in der Bundesrepublik ist seit Jahren kontinuierlich bemüht, eine bedarfsgerechte und benutzerorientierte Bibliotheksarbeit zu leisten. Deshalb werden im Zuge der Öffentlichkeitsarbeit und des Bibliotheksmarketings empirische Untersuchungen durchgeführt. Unter Leitung der Staatlichen Büchereistelle für den Regierungsbezirk Detmold fand im Frühjahr 1996 eine schriftliche Befragung der Besucher 15 Öffentlicher Bibliotheken (ÖBB) in Ostwestfalen-Lippe (OWL) statt. Die Erhebungsplanung dieser Untersuchung umfaßte dabei die Entwicklung eines gemeinsamen Erhebungsinstruments, eines Erhebungs- und Auswertungskonzepts, die Projektsteuerung sowie eine Vorbefragung. Die vorliegende Diplomarbeit wurde begleitend zu der Planungsphase dieser Untersuchung verfaßt. In ihr wird der besondere Stellenwert der Planungsphase empirischer Untersuchungen in Bibliotheken, speziell in ÖBB, herausgestellt und modellhaft am Beispiel der Erhebung in der Bibliotheksregion OWL dokumentiert. Weiterhin werden die Vor- und Nachteile schriftlicher Befragungen mittels standardisierten Fragebogens erläutert sowie ihre Grenzen und die damit verbundenen Problemstellungen verdeutlicht. Darüber hinaus erfolgt ihre Einordnung in den bibliothekarischen Kontext als Teil der bedarfs- und benutzerorientierten Bibliotheksarbeit. Abschließend wird die Bedeutung der Vorbefragung in der Planungsphase einer empirischen Erhebung in ÖBB untersucht und am Beispiel der Besucherbefragung in OWL modellhaft demonstriert.
In dieser Arbeit werden zunächst die Werbebestimmungen (Produktplatzierung, Schleichwerbung, Sponsoring etc.) der einzelnen Gesetze dargestellt und erläutert. Anschließend werden die Videoportale, insbesondere YouTube, im deutschen Rechtssystem eingeordnet und geprüft, ob sie unter den verfassungsrechtlichen Rundfunkbegriff und/oder einfachgesetzlichen Rundfunkbegriff fallen oder nicht. Letztlich erfolgt die Prüfung der Anwendbarkeit der werberechtlichen Rahmenbedingungen des Rundfunkstaatsvertrages unter besonderer Berücksichtigung des Kriteriums der Fernsehähnlichkeit im Rahmen des § 58 Abs. 3 Rundfunkstaatsvertrages. Es wird geprüft, ob es sich bei YouTube um ein fernsehähnliches Telemediuem im Sinne des § 58 Abs. RStV handelt.
Zijad Naddaf fragt danach, wie sich Grenzen und die darin eingelagerte Erzählung von Flucht und Migration durch Praktiken und Diskurse formieren. Vor dem Hintergrund der Flüchtlingszuwanderung und mit Bezug auf Foucault werden Gesamtstrategien der Europäischen Union zur ‚Verteidigung ihrer Gesellschaft‘ diskutiert, unter anderem am Beispiel der Grenzbearbeitungsagentur Frontex konkretisiert sowie das Konstrukt der Europäischen Union als Ordnung herstellendes Dispositiv vorgestellt. Mit Bezug auf solche Formierungen werden die Wege der Fliehenden zu einem Kampffeld, in dem sich sowohl die Autonomie von Migration als auch die beständigen und repressiven Weg- und Raummarkierungen zeigen, die sich bis auf das Meer ausdehnen.
Für Bibliothekare als Informationsspezialisten ist es essentiell, auf dem neuesten Stand der Entwicklungen zu bleiben und sich aus aktuellsten Quellen zu informieren und weiterzubilden. Aber auch die Vernetzung und der Austausch mit anderen fachkundigen Personen sind von Bedeutung. Ein Medium, das beide Aspekte vereint – eine aktuelle Informations- und Weiterbildungsquelle sowie die Möglichkeit der Vernetzung und des Austauschs – stellt das Weblog von und für Bibliothekare dar. In Deutschland besteht ein ausdifferenziertes Angebot bibliothekarischer Weblogs. Zentrale Fragestellung dieser Arbeit ist, ob und in welchem Maße dieses Angebot von deutschen Bibliothekaren angenommen und genutzt, das heißt rezipiert, wird. Dazu wird eine Online-Umfrage durchgeführt, welche über Mailinglisten und einige deutsche bibliothekarische Weblogs verbreitet wird. Zunächst wird das Weblog näher vorgestellt, danach folgt eine Darstellung des Hauptgegenstands dieser Arbeit – dem Fachblog und dessen aktueller Situation im bibliothekarischen Bereich in Deutschland. Nach der Vorstellung der deutschen Bibliobloglandschaft folgt eine Beschreibung des US-amerikanischen Stands von bibliothekarischen Fachblogs um im nächsten Schritt die deutsche mit der US-amerikanischen Situation zu vergleichen. Im weiteren Verlauf werden die Vorgehensweise der Online-Befragung sowie deren Auswertung und die Analyse der Auswertungsergebnisse behandelt. Eine Zusammenfassung der Ergebnisse mit Empfehlungen führt zum Abschluss der Arbeit.
Resultierend aus dem Wirtschaftwunder nach dem 2. Weltkrieg, hat sich in den frühen sechziger Jahren in der BRD angedeutet, dass die verfügbaren einheimischen Arbeitskräfte nicht ausreichten, die vorhandenen freien Arbeitsplätze auf dem deutschen Arbeitsmarkt zu besetzen (vgl. Mertens, 1977:13ff.). Aufgrund dieses Mangels an Arbeitskräften wurde, neben Verträgen mit zahlreichen anderen Staaten, ein Anwerbeabkommen mit der Türkei geschlossen. Darauf folgend reisten 1961 die ersten türkischen „Gastarbeiter“ in die BRD ein, mit der Vorstellung, sich nur für eine begrenzte Zeit in der BRD aufzuhalten (vgl. Mehrländer, 1986:53). Obwohl eine Mehrzahl der ersten Arbeitskräfte nach einigen Jahren wieder in ihr Heimatland zurückkehrte, hat sich ein Großteil der türkischen Männer und Frauen der ersten Generation für einen weiteren Aufenthalt in Deutschland entschieden (vgl. Mehrländer, 1986:55ff.). Somit war die erste Generation ausschlaggebend für die Lebenswirklichkeiten ihrer mit eingereisten oder in Deutschland geborenen Kinder, die heute die türkischen Männer und Frauen der zweiten Generation ausmachen.
Um zukunftssicherndes Vertrauen beim Kunden aufzubauen, bedarf der von Qualitätsunsicherheiten geprägte Informationsmarkt systematischer vertrauensbildender Instrumente. Die vorliegende Arbeit zeigt Einsatzmöglichkeiten von Qualitätsmanagementsystemen in Institutionen der Informationswirtschaft auf und diskutiert eine Zertifizierung dieser nach der Normenreihe ISO 9000ff. Mit aus dem Dienstleistungsmarketing abgeleiteten kundenorientierten Meßverfahren (Critical-Incident-Technique, Penalty-Reward-Faktoren-Modell, SERVQUAL-Methode) kann das informationswirtschaftliche Unternehmen darüber hinaus Erkenntnisse über den Stand der angebotenen Dienstleistungsqualität gewinnen. Datenbankproduzenten scheinen durch den Einsatz von zertifizierten Qualitätsmanagementsystemen größere Nutzenwirkungen erzielen zu können als Informationsvermittlungsstellen. Charakteristisch für die Informationswirtschaft ist der Mangel an Möglichkeiten zur Messung von Qualität. Neben objektiven und subjektiven Meßmethoden zur Dienstleistungsqualität sollten Institutionen der Informationswirtschaft möglichst objektive, auf die Situation im eigenen Unternehmen abgestimmte Meßmethoden erstellen und anwenden. In einem Praxisbericht wird die Implementierung und der Betrieb des nach DIN EN ISO 9001 zertifizierten Qualitätsmanagementsystems des FIZ CHEMIE BERLIN untersucht. Als ein in diesem Fachinformationszentrum eingesetztes qualitätssicherndes Werkzeug wird ein Meßsystem für von freien Mitarbeitern erbrachten Indexierungsleistungen vorgestellt.
Studien belegen, dass das Internet bei der Informationsversorgung der Menschen immer mehr an Bedeutung gewinnt. Stimmen aus der Forschung fordern eine Präsenz der Bibliotheken am Point-of-Need ihrer Nutzer, also auch im Internet. Während im angloamerikanischen und skandinavischen Raum relativ frühzeitig auf diese Entwicklung reagiert und ein digitaler Auskunftsdienst additiv zur traditionellen Walk-in Auskunft angeboten wurde, ging man in Deutschland lange Zeit recht zögerlich mit diesen neuen Kommunikationswegen um. Mittlerweile lässt sich aber auch hier ein gesteigertes Interesse an der Digitalen Auskunft erkennen. Projekte wurden initiiert und befinden sich zum Teil bereits im Regelbetrieb. In dieser Arbeit soll der Entwicklungsstand der Digitalen Auskunft in Deutschland nachgezeichnet und anhand einer vergleichenden Evaluation in einem internationalen Kontext positioniert werden. Dazu werden die folgenden Verbünde in die Evaluation einbezogen: Die Deutsche Internetbibliothek (D), InfoPoint (D), Virtuelle Auskunft im SWB (D), Biblioteksvagten (DK), Enquire (GB), IPL (USA) und Ask a Librarian/ Florida (USA). Aus der Fachliteratur abgeleitete Standards dienen dabei als Grundlage für einen Kriterienkatalog, der Stärken und Schwächen der Auskunftsverbünde identifizieren soll.
Das Ziel dieser Arbeit ist es, zu erschließen, vor welchen Herausforderungen die Medienpädagogik angesichts der Auswirkungen von Big Data und Digitalen Technologien auf die Gesellschaft steht. Bislang hat die Medienpädagogik nur vereinzelt Stellung zu dieser neuartigen Situation bezogen.
In dieser Arbeit werden definierte Ziele und Theorien der Medienpädagogik auf ihre Anschlussmöglichkeiten in Bezug auf die Besonderheiten Digitaler Technologien hin untersucht. Digitale Technologien und Big-Data-Anwendungen verändern die Art und Weise von Kommunikation, Bildungsprozessen, Arbeit und Alltagsorganisation. Ihre technologischen Strukturen machen es Internet-Unternehmen möglich, weltweit Informationen über digitale Kommunikationsprozesse in Form von Daten zu analysieren, in die Privatsphäre von Menschen einzudringen, sie zu kontrollieren, zu konditionieren und zu prägen. Behörden und Regierungen werten die von Konzernen gesammelten Daten zudem für ihre Zwecke aus.
Dargestellt wird, wie Konzerne mit Big-Data-Technologien in das alltägliche Leben eindringen, die Grundprinzipien der Demokratie verletzten und gesellschaftliche Errungenschaften angreifen. Es wird untersucht, inwieweit Technologie als Herrschaftsinstrument eingesetzt wird und vorhandene Gesetze zum Schutz persönlicher Daten ausreichen.
Die Medienpädagogik ist aufgefordert die Besonderheit dieser neuartigen Technologie zu zu berücksichtigen. Als Ziel ihrer Arbeit stellt die Medienpädagogik in Theorie und Praxis die Entfaltung des Menschen und der Gesellschaft in den Vordergrund und sie muss agieren, wenn diese Grundelemente extremen Einflussnahmen ausgesetzt werden. Herausgearbeitet wurde, dass die Medienpädagogik besonders zum Handeln aufgerufen ist, wenn Monopolisten demokratische Strukturen mit neuen Technologien aushöhlen, denen Menschen ausschließlich als Objekte von Kommerzialisierung und Überwachung dienen.
Die vorliegende Masterarbeit beschäftigt sich mit Strategien der außerstrafrechtlichen Konfliktbear- beitung in linksautonomen Räumen. Ausgehend von der Annahme, dass staatliche Strafe ein Instrument der Herrschaftsausübung darstellt und in Zeiten des
Neoliberalismus die prekär gewordenen Grenzen der gesellschaftlichen Zugehörigkeit durch Kriminalisierung aufrechterhalten werden, sollen Alternativen zum hegemonialen Strafrechtssystem aufgezeigt werden. Das qualitative Forschungsdesign wurde unter Berücksichti-gung der Grundannahmen der Kritischen Kriminologie entwickelt. Durch den Konfliktbegriff wird sich von der Kategorie „Kriminalität“ mit den ihr inhärenten
Zuschreibungen gelöst. Der Forschungsprozess basiert auf der Grounded Theory Methodologie. Auf der Grundlage teilnarrativer Interviews mit Aktivist*innen aus
verschiedenen linksautonomen Räumen in Deutschland wird ein Modell entwickelt, welches den Prozess der selbstbestimmten Bearbeitung von konflikthaften Ereignissen im gewählten Forschungsfeld beschreibt. Dieses zeigt auf, dass eine Aneignung von Konflikten verstärkt durch einen hohen Grad der Verantwortungsübernahme stattfindet. In einem zirkulären Prozess werden hierbei in der Bearbeitung von Konflikten eigene Regeln und Werte entwickelt, welche sich wiederum auf den Umgang mit Konflikten auswirken. Die Ergebnisse der Forschung richten sich primär an Personen, welche in links-autonomen Räumen aktiv sind und dienen einem besseren Verständnis ihrer gelebten Praxis. Durch die kritische Reflexion, unter Berücksichtigung der Grundsätze von Transformative Justice und Community Accountability, werden zudem Perspektiven für eine mögliche Weiterentwicklung linksautonomer Ansätze zum Umgang mit Konflikten aufgezeigt.
In der Verkehrsphotographie werden Aufnahmen von Verkehrsteilnehmern gemacht, um Ordnungswidrigkeiten, wie zu schnelles Fahren oder Überqueren einer Ampel bei Rotlicht, Fahrzeugen und Personen zuordnen zu können. Das Problem bei diesen Aufnahmen liegt in der hohen Dynamik, die vor allem durch Reflexionen im Nummernschildbereich entstehen. Zur zeit wird dieses Problem dadurch gelöst, indem man aus der Originalaufnahme zwei Bilder macht. Eins für den dunklen Bereich, in dem der Fahrer zu erkennen ist und ein Bild für den hellen Bereich, in dem das Nummernschild erscheint. Ziel dieser Arbeit ist es, die Dynamik so weit zu komprimieren, dass die wesentlichen Elemente, wie das Gesicht, das Kennzeichen und die Skriptzeile, die alle Informationen über die Aufnahme enthält, in einem Bild zu erkennen sind, anstatt wie oben beschrieben in zwei Bildern. Dadurch kann der Speicheraufwand für die Bilder um die Hälfte reduziert werden. Im Speziellen muss darauf geachtet werden, dass störende Artefakte, die bei den gewählten Methoden entstehen können, vermieden werden. Dies sind besonders Überschwinger an scharfen Kanten, die z.B. an den Buchstaben des Kennzeichens entstehen und niedrige lokale Kontraste im Bereich des Fahrers. Zusätzlich wird auf das Problem des Rauschens eingegangen. Durch dessen Reduktion kann der subjektive Eindruck des Bildes stark verbessert werden. In dieser Arbeit werden nur Schwarz/Weiß Bilder behandelt, weil es das Standardaufnahmeverfahren bei der Verkehrsüberwachung innerhalb der Bundesrepublik Deutschland ist. In anderen Ländern werden zwar auch Farbbilder aufgenommen, dessen Behandlung aber nicht Bestandteil dieser Arbeit sein soll.
E-Learning wird in der universitären Lehre eine zunehmend bedeutendere Rolle spielen. Im Rahmen von Bemühungen um generelle Umstrukturierungen des IKM- Bereichs, wie sie mit Blick auf angloamerikanische Vorbilder auch in Deutschland aufgegriffen worden sind, nehmen auch Bibliotheken im E-Learning-Bereich Aufgaben wahr. Knapp die Hälfte der deutschen Universitätsbibliotheken ist in irgendeiner Form in die universitäre E-Learning-Struktur eingebunden. Die verschiedenen Modelle dafür reichen von der Übernahme des vollen Services über eine strategische Partnerschaft bis hin zu lockeren Kooperationsformen. Insgesamt kann die Bibliothek ihr breites Dienstleistungsportfolio nutzen, um ihre Services in eine E- Learning-Umgebung einzubringen. Diese umfassen die Bereitstellung digitaler Dokumente in elektronischen Semesterapparaten oder Lernmanagementsystemen, die Etablierung der Bibliothek als reellem und virtuellem Lernort, Hilfestellung bei Fragen des Urheberrechts, die Erschließung multimedialer Lernobjekte mit Metadaten und ihre längerfristige Zugänglichmachung sowie die Vermittlung von Informationskompetenz mittels E-Learning-Szenarien wie Blended Learning oder Online-Tutorials. E-Learning bietet der Bibliothek die Möglichkeit, sich als moderner Dienstleister in einer veränderten Hochschul- sowie Medienlandschaft zu positionieren.
Als Reaktion auf die Verbreitung von webbasierten Tools zu Kommunikation, Kooperation und Kollaboration wurde 2005 der Begriff des E-Learning 2.0, der diverse Facetten und Trends des E-Learning subsumiert, in die Diskussion um neue Modelle der Hochschullehre eingeführt. Durch die Anreicherung der starren Lernmanagementsysteme um Elemente sozialer Netzwerke, Werkzeuge für Kommunikation und Kollaboration, Informations- und Wissensmanagement und Publikationsmöglichkeiten wandeln sich diese zu Lernplattformen oder Lernumgebungen (Virtual Learning Environments), welche die Bildung solcher offener oder geschlossener Learning Communities oder Communities of Practice begünstigen, innerhalb derer informelles Peer-to-Peer-Learning möglich wird. Gleichzeitig zielt "Ne(x)t Generation E-Learning" auf eine Individualisierung des Lernens und sieht den Lernenden als eigenverantwortlichen Akteur, der sich selbständig und selbstbestimmt Kompetenzen aneignen soll. Dieses informelle Lernen über die gesamte Lebensspanne wird durch konventionelle E-Learning-Produkte nicht unterstützt, die dozenten- und instruktionsorientiert formale, sequentielle Lernszenarien vorgeben. Als Antwort auf die Forderung nach individueller Gestaltung des Curriculums und sukzessiver, lebenslanger Aneignung von Kompetenzen etablieren sich sog. Personal Learning Environments, also personalisierte VLEs, die es erlauben, persönliche Lernziele zu verfolgen, indem Tools und Ressourcen selbst zusammengestellt und organisiert werden. Personal Learning Environments sind Basis des kompetenzorientierten E-Learnings. Zur Präsentation der so erworbenen Kompetenzen nach außen, sei es als Teil eines persönlichen Profils, sei es als Leistungsnachweis, werden sog. serverbasierte E-Portfolios angeboten, die aus den PLEs generiert werden können. Werden diese Sammlungen digitaler Artefakte, die einen Lernprozess dokumentieren sollen, innerhalb des Informations- und Kommunikationsraums Hochschule publiziert, kann dies der Wissenskommunikation zwischen Lernenden, also dem sog. Peer-to-Peer-Learning, förderlich sein - sofern die E-Portfolios anderer Studierender als Ressource bzw. Lernobjekt, als "E-Portfolio 2.0" betrachtet werden. Informationskompetenz als Metakompetenz, die den Erwerb fachlicher Kenntnisse überhaupt erst ermöglicht, nimmt unter den zu erwerbenden Kompetenzen eine Schlüsselposition ein und ist eng verknüpft mit Medienkompetenz auf der Input- sowie Präsentationskompetenz auf der Output-Seite. Eine Möglichkeit, die Entwicklung dieser Schlüsselkompetenz zu fördern, ist die Verschriftlichung der Recherchen im Rahmen eines sog. Rechercheportfolios, einer Unterart des Arbeitsportfolios. Die schriftliche Fixierung zwingt nicht nur zur Reflexion des eigenen Informationsprozesses, sondern ermöglicht auch die retrospektive Beurteilung der Effektivität und Effizienz der eigenen Recherchestrategien - oder die Analyse der Recherchestrategien anderer Lernender, sofern die Rechercheportfolios innerhalb einer Learning Community publik gemacht werden. Das Rechercheportfolio wird so zum "Rechercheportfolio 2.0". Das Potential dieses Instruments wird jedoch bislang noch nicht im Kontext der Vermittlung von Informationskompetenz genutzt. Weder Rechercheportfolios "1.0" noch Rechercheportfolios "2.0" sind an Hochschulbibliotheken verbreitet, obwohl es erste Ansätze zum Einsatz dieser zweifellos zukunftsträchtigen Methode gibt. Welche Standards und Qualitätsmerkmale E-Rechercheportfolios aufweisen müssten, um als effektives Mittel zur Vermittlung von Informationskompetenz geeignet zu sein, ist Thema dieser Arbeit.
Ziel dieser Diplomarbeit ist es zu evaluieren, ob eine effiziente Implementierung von responsiven Webapplikationen zum Zeitpunkt der Erstellung der Arbeit möglich ist. Als technische Grundlage wird hierzu die HTML5-Spezifikation mit dem darin enthaltenen CSS3 und den JavaScript-Programmierschnittstellen herangezogen.
Es wird erläutert, dass unter responsivem Design die Reaktionsfähigkeit des Designs auf die Abrufumgebung, wie zum Beispiel die Größe der Anzeigefläche, zu verstehen ist und mit Hilfe welcher Techniken ein solches Design für Webapplikationen realisiert werden kann. Des Weiteren werden Möglichkeiten zur Performance-Optimierung aufgeführt, wobei festgestellt wird, dass für die Nutzung einer Webanwendung auf mobilen Geräten die Anzahl der Dateien das größte Potenzial zur Optimierung besitzt. Die Möglichkeiten der JavaScript-Programmierschnittstellen in HTML5 zur Umsetzung von Funktionalitäten für Webapplikationen, wie sie bei lokal installierten Anwendungen gebräuchlich sind, werden ebenso erläutert.
Das Fazit dieser Arbeit ist, dass ausreichend Techniken zur Erstellung von responsiven Webapplikationen in HTML5 definiert sind. Lediglich die zum Teil ausstehende Umsetzung dieser Techniken in den einzelnen Browsern verursacht Einschränkungen. Dies wirkt sich gegebenenfalls negativ auf die Effizienz des Umsetzungsprozesses aus. Ebenso kann die übermäßige Optimierung des Layouts und der Performance zu unverhältnismäßigem Aufwand führen.
Diese Masterarbeit beschäftigt sich mit der Visualisierung von Leistungs- und sportmedizinischen Daten aus Athletenakten. Nach einer kurzen Einleitung wird zunächst die Aufgabe beschrieben. Hier wird auf die Anforderungen an die zu entwickelnde Komponente eingegangen. Anschließend werden die vorhandenen Leistungs- und sportmedizinischen Daten beschrieben. Dabei wird zunächst die Tabellenstruktur der zugrundeliegenden Datenbank inklusive der XML-Spalten beschrieben.Weiterhin werden die XML-Dateien aufgeführt, in denen die Athletendaten gespeichert werden. Im folgenden Kapitel werden grundlegende Visualisierungstechniken vorgestellt und am Avatar angewendet. Neben den Techniken werden anschließend verschiedene Visualisierungstechnologien beschrieben und eine begründete Auswahl getroffen. Das nächste Kapitel beschreibt neben der Visualisierungstechnologie weitere, verwendete Technologien wie Programmiersprache und Serverarchitektur. Eine Vorstellung der entwickelten Komponenten sowie ein Ausblick und Fazit runden in den letzten beiden Kapiteln die Arbeit ab.
Ein Online-Tutorial für vascoda. Theoretische Grundlegung - Konzeption - Praktische Umsetzung
(2009)
Inhalt der vorliegenden Masterarbeit ist die Konzeption und praktische Umsetzung eines Online-Tutorials (Lernprogramms) für die Benutzer des wissenschaftlichen Internetportals vascoda. In einem umfangreichen Theorieteil werden zunächst der sachliche Hintergrund (Fachportale und Funktionen des Dachportals vascoda), der didaktisch-methodische Hintergrund (Mediendidaktik, Lerntheorien, Instruktionsdesign mit besonderer Berücksichtigung von E-Learning, Begriffsgeschichte und Definitionen des Begriffs Tutorial, Informationskompetenz) sowie der technische Hintergrund (Autorenwerkzeuge) dargestellt. Auf dieser Grundlage wird eine ausführliche Planung für das vascoda-Tutorial in verschiedenen Kategorien erarbeitet (Begründung der Medienwahl, Zielgruppenanalyse, inhaltliche und didaktisch-methodische Konzeption, technische Umsetzung), an deren Ende eine detaillierte Aufstellung der Lehrinhalte und Lehrziele steht. Das Ergebnis der praktischen Umsetzung ist auf einem beiliegenden Datenträger verfügbar (ein aus vier Untermodulen bestehendes Hauptmodul des vascoda-Tutorials als exemplarischer Prototyp). Das Schlusskapitel der Arbeit enthält eine abschließende Kritik dieses produzierten Moduls und zeigt Möglichkeiten einer Weiterentwicklung auf.
Keine Software kommt heute ohne eine ausgebaute IT–Infrastruktur, mit der Anbindung an Datenbanken, aus. Die konsequente Ausrichtung der Software, aufgrund von technologischen Entwicklungen, ist ein wichtiger Einflussfaktor auf die Softwareentwicklung. Die Software soll sich durch Innovation, Flexibilität und Dynamik auszeichnen. Diese Diplomarbeit entstand aus der Motivation heraus, hier Abhilfe zu schaffen. Mit dieser Diplomarbeit soll bewiesen werden, das es möglich ist, die zugrundeliegende Datenbasis von herkömmlicher Dateiorganisation auf relationale Datenbanksysteme umzustellen, ohne dabei die komplette Software neu zu schreiben.
Aufgrund der steigenden Nutzung mobiler Geräte und der Vielzahl persönlicher bzw. geschäftlicher Daten, die auf mobilen Geräte gespeichert und verarbeitet werden, sind mobile Geräte zu einem attraktiven Angriffsziel geworden. Ungeachtet des Schutzbedarfs hat sich die Sicherheitssoftware, wie man sie von stationären Systemen her kennt, auf mobilen Geräten bisher nicht durchsetzen können. Sicherheitsansätze stationärer Systeme können mobile Geräte zwar vor Bedrohungen schützen, jedoch sind diese Ansätze zu ressourcenintensiv für mobile Geräte, deren Rechenleistung und Akkukapazität relativ begrenzt ist. Um den Schutzbedarf mobiler Geräte und deren Anwendungen unter Berücksichtigung der begrenzten Ressourcen zu erfüllen, wird in dieser Arbeit ein Architekturmodell konzipiert, das Anwendungen, abhängig von Bedrohungen, Sicherheitsmaßnahmen bereitstellt. Anders als beim Sicherheitsansatz stationärer Systeme werden nur die Sicherheitsmaßnahmen umgesetzt, die aufgrund der aktuellen Bedrohungen notwendig sind. Ermöglicht wird die adaptive Bereitstellung von Sicherheitsmaßnahmen durch einen in dieser Arbeit vorgestellten Ansatz, der die Ermittlung von Bedrohungen und geeigneter Maßnahmen aus Kontextinformationen und Erfahrungswerten zulässt. Zuletzt wird die Realisierbarkeit des Architekturmodells anhand einer prototypischen Implementierung nachgewiesen.
Der Einsatz von Gebärden scheitert häufig daran, dass bisher kaum bedarfsgerechte Lernangebote für Eltern mit einem unterstützt kommunizierenden Kind zur Verfügung stehen und das obwohl die digitalen Entwicklungen ein großes Spektrum an medienbasierten Lernarrangements eröffnen. Audiovisuelle Lernvideos könnten hier hilfreich sein, denn sie bieten - ähnlich wie die Gebärdensprachkommunikation - eine simultane Darstellung von auditiven und visuellen Informationen. Des Weiteren sind sie heutzutage in jedem Familienalltag durch mobile Endgeräte präsent und halten für Kinder eine Vielzahl von affektiv-sozialen Erlebnissen bereit, die das Lernen unterstützen.
Die Dynamik des Social Webs motiviert zum Teilen nutzergenerierter Inhalte. Diese entstehen in zahlreichen Social Networks meist unter Missachtung der Schutzziele der IT-Sicherheit: Vertraulichkeit, Verfügbarkeit und Integrität von Nutzerdaten. Betreiber von Web-Anwendungen können Inhalte ihrer Nutzer einsehen, fälschen, löschen oder zu unbekannten Zwecken auswerten und verfügen über Wissen über Kommunikationspartner und -verhalten - ohne, dass sich Benutzer wirksam davor absichern könnten. Von dem im Grundgesetz verankerten Recht auf Privatsphäre ausgehend soll im Rahmen dieser Ausarbeitung eine neuartige Architektur zum Teilen nutzergenerierter Inhalte im Web entwickelt werden, die Benutzeranforderungen an die Erfüllung der Schutzziele der IT-Sicherheit vollständig gewährleistet und darüber hinaus durch eine bewusste Kommunikation dieser Qualität als vertrauenswürdig aufgefasst werden kann. In einem Goal-directed Design-Prozess wird eine Architekturskizze entwickelt, welche die im Prozess erarbeiteten Benutzeranforderungen durch die Bereitstellung zweier Web-Services erfüllt: Der Signed Content Storage adressiert als zuverlässiger und durch den Urheber autorisierter Web-Speicherort signierter, nutzergenerierter Inhalte die Schutzziele Verfügbarkeit und Integrität. In Kombination mit dem Identity Provider, der gesicherte Informationen von Urheber und Teilhabern zur Verfügung stellt, ist ein vertrauliches Teilen von Inhalten im Web möglich. Vertrauenswürdigkeit gewinnt diese Architektur durch konsequente Transparenz, Selbstbeschreibungsfähigkeit, externe Bewertbarkeit und der Dokumentationsfähigkeit von Nutzungserfahrungen.
Einzelne Lebensereignisse und geschaffene Werke beinhalten häufig Bezüge zu anderen Geschehnissen oder sie werden beeinflusst durch die Beziehungen zu Mitmenschen, Herkunft, bestimmte Charaktereigenschaften, zeitgeschichtliche Ereignisse o.ä. Dem Schreibprozess einer Biographie muss ein umfassendes Verständnis dieses komplexen Systems vorausgehen, um zu verhindern, dass sich deren Inhalt auf eine chronologische Darstellung beschränkt. Am Ludwig Boltzmann Institut für Geschichte und Theorie der Biographie in Wien ist zu diesem Zweck ein biographisches Research-Wiki konzipiert worden. Dieses dient als Ablagesystem und Arbeitsinstrument für die am Institut entstehenden wissenschaftlichen Biographien. Besonders die Materialfülle des räumlich verteilten Hugo-von-Hofmannsthal-Nachlasses soll auf diese Weise besser zugänglich gemacht werden. Es ist geplant das Hofmannsthal-Wiki eventuell auch als Netzbiographie zu veröffentlichen. Zu den entscheidenden Funktionalitäten des Wikis gehören die hypertextuellen Verweise zwischen Ereignis- und Briefchronik, Themenkomplexe sowie die Gewährleistung der wissenschaftlichen Methode mittels ebenfalls hypertextuellen Referenzierungen aller Informationen. In dieser Arbeit wird untersucht, inwiefern sich Wikis und Hypertexte im Allgemeinen für einen Einsatz in der Biographieforschung eignen. Dabei werden zunächst die Eigenschaften einer Biographie und die Methoden der Biographieforschung dargestellt. Im Anschluss daran werden die Begriffe Hypertext und Wiki in den Kontext der Biographieforschung eingeordnet. Das Hugo-von-Hofmannsthal-Research-Wiki und teilweise auch das Jandl-Research-Wiki nehmen in dieser Arbeit die Funktion des Modellprojektes ein. Daher enthält die gesamte Arbeit Beispiele aus diesen beiden Datenbanken. Zusätzlich werden die Stärken und Schwächen des Hofmannsthal-Wikis in einem gesonderten Kapitel analysiert. Schließlich findet ein Vergleich mit dem Heine-Wiki, dem Heinrich-Heine-Portal und der Klagenfurter Ausgabe des Robert-Musil-Nachlasses statt. Abschließend wird ein Ausblick sowie Empfehlungen speziell in Bezug auf das Hofmannsthal-Research-Wiki, aber auch hinsichtlich des Nutzens von Wikis für die gesamte Biographieforschung, geboten.
Dentro del marco del Decenio de la Alfabetización (2003-2012) de las Naciones Unidas, el presente trabajo pretende ofrecer un cuadro sobre la situación en América Latina y en especial en Bolivia. En la primera parte del trabajo, se presentan las diferentes definiciones de analfabetismo y alfabetismo y se analiza el fracaso de la doctrina a la hora de elaborar definiciones universalmente aplicables. Dicho fracaso se considera resultado de dos falsas dicotomías que deberían ser abandonadas: oralidad-sociedad escrita y alfabeto-analfabeto. Para finalizar esta parte teórica, se estudia la influencia de las nuevas corrientes doctrinales en la labor de la UNESCO. La segunda parte está dedicada a la descripción de la situación en América Latina y Bolivia, para lo cual se analizan el contexto demográfico (de vital importancia en el caso boliviano), económico y político. Por último, se exponen los programas de alfabetización existentes actualmente en Bolivia.
In dieser Diplomarbeit wird die Lösung eines Standardproblems aus dem betrieblichen Umfeld behandelt. Die Aufgabenstellung ist die automatisierte Bereitstellung von Daten, die für die Produktion eines medienunabhängigen Produktkataloges notwendig sind. Ein zentraler Datenbestand soll als Quelle für Printkataloge, CD-ROM- und Internet-Präsentationen dienen.
Endstation Annostraße? : Obdachlose in der Kölner Südstadt zwischen Stigmatisierung und Integration
(2001)
Diese Diplomarbeit beschäftigt sich anhand eines Beispiels mit den Chancen und Grenzen der gesellschaftlichen Integration von obdachlosen Menschen. Da in diesem Rahmen nicht alle aufgeworfenen Fragestellungen erschöpfend beantwortet werden können, stellt sie auch eine Einladung zum Weiterforschen, -denken und -handeln dar.
Die Diplomarbeit “Entwicklung von automatischen Installationsroutinen von Services auf Basis von JavaEE” beschreibt den Entwurf und die Entwicklung eines Prototypen, um Services automatisiert auf einem JavaEE- Applikationsserver zu installieren. Zu Beginn werden die Konzepte eines JavaEE-Applikationsservers und der manuelle Installationsvorgang von Services auf diesem erläutert, die bei dem Installationsvorgang auftretenden Probleme dargelegt und analysiert. Im Anschluss daran werden mehrere verfügbare Produkte und eine Eigenentwicklung gegenübergestellt und bewertet. Abschließend werden Problemlösungen für den Installationsprozess erläutert sowie die Implementierung eines Prototypen beschrieben.
Das permanente Angebot und die Nachfrage an Informationen und Daten jeglicher Art wachsen zunehmend. Das Ergebnis einer meist verschachtelten Suche nach bestimmten Zahlen ist jedoch oftmals eine unübersichtliche, tabellarische Aufstellung derer. Zudem ist dagegen die Aufnahme grafischer Informationen erheblich höher und effektiver. Als Ergebnis der Diplomarbeit soll im ersten, theoretisch-wissenschaftlichen Teil eine technische Konzeption für ein intelligentes Visualisierungs-System erarbeitet werden. Im zweiten, praktischen Teil soll anhand der untersuchten Methoden und des entwickelten Konzepts eine Anwendung kreiert werden, welche ausgewählte Methoden zur interaktiven Visualisierung statistischer Daten nutzt.
Kein Club/Disco-Betrieb kommt heute mehr ohne eine mehr oder weniger gut ausgebaute IT-Infrastruktur aus. Das fängt an bei kleinen Clubs, welche über autonome Kassensysteme und ein Abrechnungssystem verfügen, und kennt nach oben hin keine Grenze. So verwalten große Clubs nicht nur Abrechnung und die Kassen, sondern verfügen auch über autonome Systeme, welche beispielsweise die Licht-, beziehungsweise Audioanlage steuern. Allen diesen Systemen ist gemein, dass sie bis auf wenige individuell programmierte Software keine Lösung für alles bieten. Mit dieser Diplomarbeit soll die Grundlage für eine Software gelegt werden, die diesen Missstand behebt.
Ziel dieser Diplomarbeit ist die Entwicklung eines Software-Produktes, welches in einem firmeninternen Intranet-System zum Einsatz kommt. Es werden die eingesetzten Techniken sowie die Phasen einer Software-Entwicklung und die Software-Qualitätssicherung erläutert. Zum Abschluss folgt die Vorstellung des fertigen Software-Produktes. Neben der reinen Software-Entwicklung besteht die Aufgabe darin, einen eigens dafür zur Verfügung stehenden Webserver einzurichten. Die Firma AFT (AFT Atlas Fahrzeugtechnik GmbH) ist Microsoft Certified Solution Partner und setzt für das bestehende Intranet einen IIS-Webserver und einen MS-SQL Server von Microsoft ein. Für die Diplomarbeit soll ein anderer Weg gewählt werden, um das Software-Produkt in das Intranet einzubinden. Die Wahl fällt auf das im Internet sehr weit verbreitete LAMP-System. LAMP ist eine Abkürzung und steht für Linux, Apache, MySQL und PHP. Alle vier Komponenten sind lizenzfreie Freeware-Produkte. Ein LAMP-System ist in Punkto Stabilität und Geschwindigkeit mit einem Microsoft-System vergleichbar. Die Installation und Konfiguration eines LAMP-Systems ist ebenfalls Bestandteil dieser Diplomarbeit.
Zu entwickeln ist eine graphische Simulation von LEGO® Mindstorms™ Robotern. Die Simulation soll die Möglichkeit bieten, ein virtuelles Robotergrundmodell mit verschiedenen Sensorausstattungen so zu programmieren, wie es auch bei einem echten Modell der Fall wäre. Das real zu erwartende Verhalten dieses Roboters bei Programmausführung soll auf dem Bildschirm in Echtzeit verfolgt werden können, wobei die Bedienung des virtuellen Roboters der des realen Robotermodells nachempfunden sein soll.
Die vorliegende Diplomarbeit beschäftigt sich mit dem Web Application Servers in der Version 3.0 von Oracle. Der Web Application Server ist ein Programmpaket für die Entwicklung und Implementation von serverseitigen Anwendungsprogrammen, die über das Internet benutzt werden können. Das entsprechende Anwendungsprogramm wird nur vom Webserver ausgeführt. Für die Ausführung einer mit Hilfe des Web Application Server erstellten Anwendung wird auf der Clientseite nur ein Internetbrowser benötigt. Der Web Application Server wurde speziell daraufhin ausgelegt, daß die mit seiner Hilfe entwickelten Anwendungen ihre Daten aus einer Datenbank beziehen können. Für den Anwendungsentwickler ermöglicht der Web Application Server also Anwendungen für das Internet zu erstellen, wobei der Entwickler auf eine breite Palette von Programmiersprachen zurückgreifen kann. Das sind z.B. Perl, C++, Java und natürlich die für Oracledatenbanken benutzte Sprache PL/SQL. Da der Web Application Server die Internettechnologie, sowie die Datenbanktechnologie berührt, werden in den ersten Abschnitten nicht nur der Nutzen dieser Plattform im Rahmen der Client/Server Architektur gezeigt, sondern auch Grundlagen des Internets und relationaler Datenbanken vorgestellt. Dieses ist notwendig, um die Abläufe von Web Application Server basierten Anwendungen zu verstehen. In den weiteren Kapiteln werden die einzelnen Bauteile des Web Application Server - Programmpaketes vorgestellt. Hierbei wird kurz auf die Installation und Konfiguration der Web Application Server Plattform eingegangen. Anschließend soll das Zusammenspiel der Web Application Server - Elemente mit Hilfe einer Beispielanwendung gezeigt werden.
Bei moderner Software kommt es auf verschiedene Faktoren an. Der erste für den Anwender zunächst sichtbare Faktor ist die Bedienungsfreundlichkeit des Produktes. Der zweite wichtige Faktor ist die Verwendbarkeit des Produktes auf verschiedenen Hardwareplattformen. Dies ist vor allem für Programme wichtig, die sich an einen großen Kundenkreis richten, da man nicht davon ausgehen kann, oder sollte, dass überall das gleiche Betriebssystem eingesetzt wird. Des weiteren wird so auch ein Umstieg auf ein anderes System erleichtert. Für das Softwarehaus selber ist die Wartbarkeit des Produktes von entscheidender Bedeutung. Objektorientierte Programmierung bietet hier durch Vererbungstechniken, Datenkapselung und ähnlichem die besten Voraussetzungen. Auch der Einsatz von Entwurfsmustern, also lange bewährten Konzepten objektorientierter Entwicklung, ist hier von Vorteil. Eine Datenbankanbindung ist für fast jede kommerzielle Software notwendig. Hierbei ist es auch von Vorteil sich nicht an eine spezielle Datenbank zu binden. Ein Mittel hierzu ist es die Datenbanksprache SQL und offene Datenbanktreiber wie etwa ODBC zu benutzen. Bei vielen Programmen ist es auch von Vorteil, wenn sie von Anfang an als verteilte Systeme entworfen werden. Verteilte Systeme haben den Vorteil, dass jedes Modul an einem anderen Ort sein kann und entweder über eine ständige oder aber auch eine temporäre Internetverbindung miteinander synchronisiert werden können. In dieser Arbeit werde ich anhand eines Praxisbeispieles beschreiben, wie man all diese Faktoren in ein Softwareprodukt unterbringt, und wie die Entwicklung aussieht.
Entwicklung einer Software zur Erstellung menschlicher Temperaturprofile mittels IR-Videoaufnahmen
(2011)
In dieser Arbeit wird eine Software zur Analyse von thermografischen Videosequenzen vorgestellt. Mit Hilfe einer speziellen Wärmebildkamera, die in der Lage ist, thermografische Videosequenzen aufzunehmen, kann die zeitliche Auflösung der Hauttemperatur–Messung erhöht werden. Das Programm soll im Rahmen von Untersuchungen zu thermoregulatorischen Prozessen am Menschen diese Sequenzen auswerten und Temperaturprofile des menschlichen Körpers erstellen. Der Benutzer kann dazu Körperregionen gezielt auswählen und verfolgen lassen. Ergebnis ist eine Exceltabelle mit Temperaturwerten für jede definierte Zone pro Zeiteinheit. Diese kann durch den Import von Messtabellen externer Messgeräte ergänzt werden, so dass die Untersuchungsergebnisse aller Messgrößen synchronisiert in einer Datei zur Verfügung stehen.
Entwicklung einer Suchmaschine unter Verwendung von Oracle 9iAS Portal und Oracle interMedia Text
(2002)
Für effizient geführte Unternehmen ist ein schnelles Zugreifen auf eigene Informationen über Intra- und Internet ohne Frage überlebenswichtig. Viele Firmen haben mit großem Aufwand Text-Dokumente innerhalb von Datenbanken strukturiert abgelegt. Diese Dokumente sind aber oft nur ein kleiner Bruchteil der im Betrieb anfallenden Dokumente. Internet-Seiten, E-mails, Faxe und viele andere Dokumente bleiben außen vor. Teilweise sind die in Datenbanken abgelegte Dokumente auch statisch, sie werden nicht oder nur aufwendig aktualisiert. Mitarbeiter und Öffentlichkeit müssen aber raschen Zugriff auf aktuelle und für Sie abgestimmte Informationen haben. Mitarbeiter sollten die Möglichkeit haben, Dokumente zu bearbeiten und eigene Dokumente für andere Mitarbeiter zur Verfügung zu stellen. Zudem sollte die Öffentlichkeit speziell für Sie aufbereitete Informationen über das Internet erhalten können. Der Zugriff auf unterschiedliche dynamische Dokumente geschieht idealerweise über einen gemeinsamen Gateway und ist plattformunabhängig. Diese Bereitstellung dynamischer Informationen stellt für den Betrieb einen großen Kostenvorteil dar. Ein Werkzeug, das diesen Ansatz verfolgt ist Oracle Portal. Alle Dokumente eines Betriebes werden in einer Oracle-Datenbank browserbasiert verwaltet. Es wird den Mitarbeitern eine einheitliche Oberfläche zur Verfügung gestellt über die sie weltweiten Zugriff auf die Dokumente haben. Eine produktive globale Verflechtung der Informationen wird möglich.
Ziel der Diplomarbeit ist die Entwicklung einer datenbankgestützten Anwendungssoftware, deren Aufgabe es ist, das Internetportal der Stadt Hagen hinsichtlich bestimmter Grundfunktionen automatisiert zu überprüfen. Aufgrund der funktionalen Ausrichtung handelt es sich bei dem zu entwickelnden Prototypen um eine Software, die im Bereich Software-Qualitätsmanagement angesiedelt ist und dem sogenannten Black-Box-Verfahren zugeordnet werden kann.
Diese Diplomarbeit beschreibt eine Softwareentwicklung für ein datenbankgestütztes Informationssystem. Bei der Entwicklung dieses Systems wird ausschließlich frei verfügbare Software eingesetzt. Damit die Leistungsfähigkeit der eingesetzten freie Software besser beurteilt werden kann, wird in der vorliegenden Diplomarbeit beispielhaft eine Komponente einer Kursverwaltungs-Software entwickelt. Die entwickelte Komponente ist Teil des Datenbanksystems ”Kursverwaltung” der Deutschen Unfallhilfe DUH GmbH in Bochum. Diese Firma wurde ausgewählt, da dort im Rahmen einer Neukonzeption ein Datenbanksystem entstehen soll und der Einsatz freier Software favorisiert wird. Zu Beginn der Diplomarbeit wird erläutert, was der Begriff ”freie Software” bzw. ”Open-Source” beinhaltet und welchen Stellenwert diese Softwareprodukte zur Zeit besitzen. Nach diesem allgemeinen Überblick werden spezielle Softwareprodukte für die genannte Softwareentwicklung vorgestellt. Anschließend werden die vorgestellten Produkte zur Entwicklung einer Komponente des Datenbanksystems ”Kursverwaltung” eingesetzt. Schwerpunkt bilden hierbei vorallem die Entwicklung der Datenbank und die Anbindung der relationalen Datenbank an die objektorientiert entwickelte Programmlogik. Dabei wird auch auf die mögliche Generierung von Softwareteilen eingegangen, welches zur Zeit einen Trend in der allgemeinen Softwareentwicklung ausmacht. Die Diplomarbeit wird durch die Implementierung der Beispielkomponente vervollständigt und schließt mit einer Bewertung der Softwareentwicklung mit Open-Source Programmen ab.
Thema der Masterarbeit ist die Ablösung eines bestehenden kundenspezifischen IT-Systems durch moderne PC-Technologie mit dem Betriebssystem Linux. Die Software des neuen Systems sollte sich nach außen identisch mit der des abgelösten Systems verhalten. Dazu mussten die bestehenden Prozesse von der Programmiersprache PEARL für die neue Linux-Umgebung nach C++ portiert werden. Für diese und für neu geschaffene Prozesse wurde ein Applikationsframework als gemeinsame Software-Basis geschaffen. Zur Ankopplung externer, beibehaltener Systeme war ferner die Implementierung eines ISO/OSI 8073/TP4-Netzwerkprotokoll-Stacks erforderlich. Die Masterarbeit beschreibt zunächst das neu geschaffene, objektorientierte Applikationsframework. Dessen Komponenten, insbesondere die verschiedenen Klassen zur Kapselung des Linux Message Queue-Mechanismus zur Interprozesskommunikation, werden vorgestellt. Im Anschluss erfolgt die Beschreibung des ISO/OSI 8073/TP4-Protokolls, kombiniert mit allgemeinen Grundlagen für die Realisierung von gesicherten Transportprotokollen der OSI-Schicht 4. Angesprochen werden ferner die Protokolle IEEE802.2 und IEEE 802.3 der OSI-Schicht 2 für Medium Access Control (MAC) und Logical Link Control (LLC). Zur Implementierung dieser Protokolle kommen die Linux RAW Sockets als Programmierschnittstelle zum Netzwerkkarten-Zugriff zum Einsatz. Schwerpunkt der Arbeit ist die Software-Architektur zur Umsetzung des TP4-Transportprotokolls. Die nötigen Mechanismen für eine gesicherte Datenübertragung mit Sequenznummern, Acknowledges und Timern werden objektorientiert in C++ realisiert. Die Modellierung der beteiligten Klassen erfolgt mit Hilfe der Unified Modeling Language (UML).
In dieser Arbeit wird die Entwicklung eines Kalibrierphantoms beschrieben, das die optischen Eigenschaften des Rattenhirns widerspiegelt und die Kalibration einer hochempfindlichen CCD-Kamera ermöglicht. Als Lichtquelle diente eine LED, deren Intensität mit Hilfe einer Referenzspannungsquelle und eines Temperatur-Kontrollsystems mit einer Genauigkeit von 2 ‰ eingestellt werden konnte.
Moderne Mobiltelefone bieten heutzutage eine Vielzahl von Funktionen, die weit über die grundlegenden Sprachdienste hinausgehen. Sie können als Terminplaner oder auch als Foto- und Videokamera genutzt werden. Die Nutzung dieser Funktionen wurde durch die steigende Leistungsfähigkeit der Geräte möglich. Mit der Entwicklung von UMTS und insbesondere den Übertragungstechniken HSDPA und HSUPA erhält das „mobile Internet" mehr und mehr Einzug auf mobilen Endgeräten. Aufgrund der hohen Leistungsfähigkeit und des Vorhandenseins der nötigen Infrastruktur können auch Videostreaming-Dienste genutzt werden. Um die Qualität einer Videoübertragung sicherzustellen, ist es notwendig, eine Software zu haben, die die Rahmenbedingung der Übertragung bestimmt und so Rückschlüsse auf die entscheidenden Parameter ermöglicht. In dieser Arbeit soll eine Software entwickelt werden, mit der es möglich ist, die Qualität einer Videoübertragung zu bewerten. Um eine möglichst hohe Qualität der Videos zu ermöglichen, müssen sie zur Übertragung effizient komprimiert werden. Einer der neuesten Standards zur Komprimierung ist H.264. Dieser Standard bietet eine durchschnittlich dreimal höhere Kompressionsrate als MPEG-2, welches beispielsweise bei der Übertragung von digitalem Fernsehen (DVB) und der Speicherung von Videodaten auf einer DVD zum Einsatz kommt. H.264 ist Teil des MPEG-4 Standards, der sich im Bereich der mobilen Endgeräte schon jetzt durchgesetzt hat. Die Struktur von H.264 wird im zweiten Kapitel dargestellt, der Transport von H.264 über verschiedene Streaming-Protokolle im dritten Kapitel dieser Arbeit. Die zur Bewertung der Qualität verwendeten Parameter werden im vierten Kapitel zusammengefasst. Die zu erstellende Software soll primär für die Android Plattform entwickelt werden. Jedoch soll bei der Entwicklung auch darauf geachtet werden, dass die Software leicht in eine andere Umgebung portierbar ist. Die Android Plattform ist ein komplettes Softwarepaket für mobile Endgeräte wie Smartphones und Netbooks. Neben einem auf Linux basierenden Betriebssystem liefert Android eine Middleware für die Entwicklung und den Betrieb der Anwendungen. Im fünften Kapitel wird der grundlegende Aufbau und die Entwicklung einer Android Anwendung beschrieben. Nach der Betrachtung der Grundlagen zur H.264-Videokompression, der verwendeten Streaming-Protokolle und der Entwicklung einer Android Anwendung folgt das sechste Kapitel, welches sich mit dem Softwareentwurf und der Implementierung beschäftigt. Der plattformunabhängige Teil der Software steht hier im Fokus, während dem plattformabhängigen Teil lediglich ein kleiner Teil des Kapitels gewidmet ist. Die Qualitätssicherung der Software wird im siebten Kapitel beschrieben. Hier erfolgt eine Betrachtung des Einflusses der Software auf die Übertragung. Ebenso werden Methoden zur Überprüfung der Korrektheit erläutert. Das achte Kapitel zeigt die Auswertung der Messerergebnisse. Im neunten Kapitel wird die entworfene Software dargestellt. Es wird die Bedienung der Software erläutert, sowie die Darstellung der Messergebnisse präsentiert.
Customer Relationship Management (CRM) ist ein seit einiger Zeit in allen Managementpublikationen heiß diskutiertes Thema. Die Philosophie des CRM stellt den Kunden in den Mittelpunkt der Unternehmensaktivitäten und -prozesse, mit dem Ziel der größtmöglichen Ausschöpfung von Kundenpotentialen und damit einhergehender Umsatzmaximierung. Voraussetzung dafür ist die umfassende Kenntnis der Kundenbedürfnisse und eine daran orientierte Kommunikation mit dem Kunden. Dies Bedingt einen optimalen Überblick über alle zu einem Kunden verfügbaren Daten1. Dieses Ziel kann nur durch das unternehmensweite Zusammenspiel aller relevanter Unternehmensbereiche und -systeme erreicht werden. Das macht die Abkehr von der rein bereichsbezogenen bzw. funktionalen Organisation im Unternehmen, hin zu einem Denken in horizontalen, also abteilungsübergreifenden Geschäftsprozessen, notwendig. Dabei ist es Aufgabe der Informationstechnik, die Prozesse mit den notwendigen Werkzeugen zu unterstützen. Neben der Unterstützung und Verbesserung der Kommunikation zwischen Kunden, Unternehmen und den an den unternehmensinternen Prozessen beteiligten, liegt dabei ein Schwerpunkt in der Ausnutzung bereits vorhandener Daten. Diese schlummern häufig in den unterschiedlichsten Systemen verschiedener Abteilungen entlang der betrieblichen Wertschöpfungskette. Es gilt, die vorhandenen Quellen zu erschließen und in die Unterstützung aller horizontal integrierten Geschäftsprozesse einzubinden.
LA FERDINANDA (in der Mitte des Ozeans...), ein 1981 von Rebecca Horn
bemaltes Glasobjekt ist aufgrund seines Erhaltungszustandes nicht mehr
ausstellungsfähig. Aufbauend auf Untersuchungen zu künstlerischem Kontext,
verwendeten Materialien, Werkprozess und Erhaltungszustand wurde ein
Restaurierungskonzept entwickelt. Den Schwerpunkt der Arbeit stellt die
Konsolidierung des schwach gebundenen Farbauftrages auf dem Glasträger dar.
Hierfür wurden umfangreiche Versuchsreihen angelegt und bewertet. Die besten
Ergebnisse konnten mit einem Konsolidierungsmittel auf Basis des
siliciumorganischen ORMOCER-G in Mischung mit Paraloid B72 erzielt werden.
Die Applikation erfolgte mit einem Dosiergerät.
Die Menge an Informationen steigt seit Jahren immer weiter an. Dies lässt sich auch leicht an der Entwicklung der Speichermedien feststellen. So bot die erste 5,25-Zoll Festplatte, eine Seagate ST- 506, lediglich 5 MB Speicherkapazität. Heutige 3,5-Zoll Festplatten verfügen hingegen über bis zu 8 TB Speicherkapazität und werden ebenso ausgenutzt wie ihre Vorgänger aus der Anfangszeit der Magnet-festplatten. Zusätzlich geht die Tendenz dorthin, alle Daten jederzeit zur Verfügung zu haben. Sei es daheim am Rechner, auf der Arbeit oder per Tablet oder Smartphone unterwegs, dank der immer mehr verbreiteten Cloud-Speicher stehen die Daten jederzeit zur Verfügung. Mit dem enormen Zuwachs an Dateien und auch an Dateiformaten wird es jedoch immer schwieriger, diese Masse zu überblicken und bestimmte Inhalte in annehmbarer Zeit wiederzufinden. Beispiels- weise hostet der Internetdienst Flikr die schier unüberschaubare Menge von über 6 Milliarden Bilder. Doch nicht nur die großen Servicedienstleister besitzen große Datenmengen, auch Einzelpersonen haben derweil große Musik- und Bildsammlungen, zumal jedes aktuelle Smartphone über eine Kamera verfügt. Jeder ist somit praktisch zu jeder Zeit in der Lage, ein Foto in hochauflösender Qualität zu schießen und direkt in seine Cloud hochzuladen. Diese Datenmengen manuell zu ordnen, erfordert einen sehr hohen Aufwand, den nicht alle Menschen gewillt sind zu leisten. Vor allem am Smartphone geht dieses Benennen und Einsortieren aufgrund der vorhandenen Technik nicht so leicht von der Hand. In der Praxis sammeln sich die Aufnahmen mit der Zeit immer weiter an und letztlich befinden sich mehrere hundert wenn nicht gar tausend Bilder in einem Ordner, welche sich namentlich meist nur durch eine fort- laufende Nummer unterscheiden. Diesen Umstand Rechnung tragend, treten Metainfor-mationen immer mehr in den Vordergrund. So speichern die zuvor genannten mobilen Alleskönner meist viele informative Daten mit in den Bilddateien ab. Beispielsweise kann dank der eingebauten GPS-Module der Ort der Aufnahme aus den Bildern ausgelesen werden. Die Dienstleister für Cloud-speicher nutzen diese Informationen jedoch nur marginal aus und bieten dem Endanwender kaum Unterstützung bei der Suche nach be- stimmten Inhalten, wie etwa beim OX Drive, der Cloudlösung der Firma Open-Xchange.
Die vorliegende Master Thesis zeigt, wie dieser Cloud-Speicher, welcher in die Hauseigene OX App Suite integriert ist, um sogenannte Smartfeatures erweitert werden kann. Diese Smartfeatures sollen dem Endan-wender helfen, die Daten einfacher – wenn nicht gar automatisch – zu ordnen und somit leichter bestimmte Inhalte wiederzufinden. Kernthema dieser Arbeit ist daher die auto- matische Extraktion von unterschiedlichen Metadaten aus diversen Dateiformaten. Des Weiteren wird gezeigt, wie diese Daten effizient gespeichert und abgefragt werden können. Die Thesis stellt hierzu den Document Store Elasticsearch vor und vergleicht diesen mit seinem Konkurrenten Apache Solr.
Entwicklung eines Videoanalysesystems auf Basis von Java Mobile Edition für Symbian SmartPhones
(2009)
Der Markt für mobile Telefone wächst schon seit mehreren Jahren rasant. Das "Handy" wird schon lange nicht mehr nur zum Telefonieren benutzt. Es ist zu einem nicht mehr wegzudenkenden Assistenten geworden, der immer einsatzbereit und in Reichweite ist. Das Gerät kann außer den Grundfunktionen wie Telefonieren und SMS-Verschicken als persönlicher Terminplaner, Notizbuch oder auch als Foto- oder sogar Videokamera genutzt werden. In den letzten Jahren sind Mobiltelefone auch in der Internet- und Multimediawelt vertreten. Sie besitzen mittlerweile genug Leistung, Speicher und Bildschirmfläche, um Webseiten darzustellen oder komplette Spielfilme wiederzugeben. Die sinkenden Preise für mobile Breitband-Internetzugänge (Flatrate mit 7,2 Mbit/s schon ab 35 Euro), die wachsende Anzahl der mobilen Internet-Zugänge, die sinkenden Nutzungspreise der so genannten „HotSpots“ (in Hotels, Restaurants, etc. oft kostenfrei) und die Leistungsfähigkeit der aktuellen mobilen Endgeräte, ermöglichen die Nutzung der Videostreaming-Dienste. Diese Dienste können zum Beispiel IPTV, Video on Demand oder Videotelefonie sein. Um die Qualität des über ein IP-Netzwerk gelieferten Videodatenstrom zu gewährleisten, ist es notwendig die Qualität dieses Datenstroms im realen Umfeld und unter realen Bedingungen messen zu können. Das erfordert die Entwicklung eines Messsystems, welches direkt auf einem Endgerät installierbar und vom Gerätetyp möglichst unabhängig ist. Das zu entwickelnde Programm soll den Videodatenstrom mitschneiden und auswerten können ohne die Übertragung zum Wiedergabeprogramm zu stören. Es soll der Paketverlust, der Wert des Interarrival Jitters sowie die für das jeweilige Videoformat spezifischen Informationen erfasst werden. Die Auswertung soll in vom Benutzer bestimmbaren Intervallen durchgeführt werden können. Um diese Anforderungen zu erfüllen, wird eine Anwendung in der Programmiersprache Java Mobile Edition implementiert, die wie eine Netzwerkbrücke funktionieren wird. Sie wird Java-Threads für das parallele Empfangen und Weiterleiten der Datenpakete zwischen dem Server und dem Wiedergabeprogramm sowie für das Extrahieren und Auswerten der Daten verwenden. In Kapitel 2 werden die meisten Begriffe, die in der Diplomarbeit vorkommen erläutert. Einen wichtigen Punkt stellen in diesem Kapitel die Protokolle für den Transport der multimedialen Daten. Für die Darstellung von Videodaten auf mobilen Endgeräten hat sich der MPEG-4-Standard durchgesetzt. Dessen Entwicklung hat als Ziel, Systeme mit geringen Ressourcen oder schmalen Bandbreiten bei relativ geringen Qualitätseinbußen zu unterstützen. Auch dieser Standard wird hier dargestellt. Die Wahl der Programmiersprache, deren Hauptaspekte und die zur Fertigstellung des Messsystems nötigen Komponenten werden zum Schluss dieses vorgestellt. In Kapitel 3 wird die Umsetzung des Systems beschrieben: Zuerst die Darstellung des Entwicklungssystems und der Entwicklungsumgebung (3.1), danach werden zwei Alternativen genannt, nach denen die Entwicklung des Grundgerüsts der Software möglich ist (3.2). In Abschnitt 3.3 werden die Methoden präsentiert, die den Kern des Messsystems bilden und die so genannte „Deep Inspection“ des Videodatenstroms durchführen.
In dieser Arbeit wird ein Vorgehensmodell entwickelt um eine Taxonomie für Spielmechaniken aufzubauen. Hierfür werden zwei Vorgehensmodelle miteinander verbunden: eines, das die Extraktion von Spielmechaniken aus Gesellschaftsspielen in verschiedenen Strategien ermöglicht sowie ein weiteres, das ein standardisiertes Vorgehen beschreibt, wie eine Taxonomie aufgebaut werden kann.
Innerhalb des Vorgehensmodell zum Taxonomieaufbau werden die Strategien zur Extraktion von Spielmechaniken zum Aufbau des Domänenverständnisses genutzt. Davon ausgehend werden Kategorien abstrahiert, welche im Nachgang verfeinert und zueinander in Bezug gesetzt werden. Anschließend werden die zusätzlich extrahierten Spielmechaniken in die neu aufgestellte Struktur anhand der identifizierten Kriterien integriert und auf Kohärenz geprüft.
Im Rahmen dieser Diplomarbeit wurde eine Software entwickelt, welche unter Verwendung der Intel-UMC-Klassen bildgenau MPEG2-Videoelementarströme nach einer gegebenen Schnittliste schneidet. Dazu wird der Videodatenstrom auf Bitstromebene unter Berücksichtigung der GOP´s mit ihren einzelnen Bildern und deren Bildtypen analysiert und verarbeitet. In Situationen, bei denen Referenzbilder für einzelne in den Ausgangsdatenstrom übertragene Bilder verloren gehen, wird eine Neukodierung der betroffenen Umgebung eingeleitet. In allen Fällen wurde sichergestellt, dass das Ausgabevideo konform zur MPEG2-Spezifikation ISO/IEC 12818-2 ist.
Dublettenerkennung bezeichnet einen Prozess zur Ermittlung ähnlicher oder identischer Datensätze, die sich auf das gleiche Objekt der realen Welt beziehen. Eine besondere Bedeutung hat diese im Rahmen einer Datenbereinigung zum Beispiel nach dem Zusammenführen verschiedener Datenbestände mit möglichen Überlappungen. In diesem Zusammenhang haben sich in den letzten Jahren einige interessante Entwicklungen ergeben. Zum einen steigen die erfassten Datenmengen immer weiter an, so dass Algorithmen an Bedeutung gewinnen, die auch in solchen großen Datenbeständen effizient arbeiten. Zum anderen steigt durch die stärkere Verbreitung von Mehrkernprozessoren und die zunehmende Zentralisierung von IT-Diensten (vgl. Cloud Computing) auch der Bedarf an Lösungen, die in solchen Umgebungen optimal arbeiten und sich gut skalieren lassen. Der hier vorgestellte Lösungsansatz zur Dublettenerkennung kombiniert einen modernen und effizienten Algorithmus mit den Vorzügen einer zentralen und dienstorientierten Architektur.
Aufgrund der voranschreitenden Digitalisierung sind neue Geschäftsmodelle entstanden, wozu unter anderem der Online-Handel (Electronic Commerce, E-Commerce) gehört. Dieser bietet Flexibilität beim Einkaufen, die verschiedenen Benutzergruppen zugutekommt. Dazu gehören auch Personen mit einer Sehbehinderung oder Erblindung. Allerdings existieren noch einige Hindernisse bzw. Barrieren im Online-Handel, die zu einer negativen Benutzerfreundlichkeit (User Experience, UX) und einer Benachteiligung der genannten Benutzergruppe führen.
Das Ziel der vorliegenden Arbeit ist daher die Untersuchung der digitalen Inklusion von sehbehinderten und blinden Personen im E-Commerce. Anhand einer ausführlichen Literaturrecherche und 16 halbstrukturierten Interviews mit der Zielgruppe wurden bestehende Barrieren im E-Commerce sowie Verbesserungsmöglichkeiten zur Schaffung eines barrierefreien Online-Handels gesammelt. Durch die Analyse eines Fallbeispiels wurden negative Implementierungen veranschaulicht und anhand der zuvor gesammelten Erkenntnisse beseitigt. Dadurch wurde aufgezeigt, wie ein barrierefreies User-Experience-Design für sehbehinderte und blinde Personen im E-Commerce geschaffen werden kann.
In der Arbeit stellte sich heraus, dass viele vorhandene Barrieren im E-Commerce erst durch die Interviews identifiziert werden konnten. Dadurch zeigt sich, dass eine Auseinandersetzung mit der Zielgruppe und eine Einbindung dieser in die Gestaltung und Evaluation von hoher Relevanz ist. Dies gewährleistet, dass Barrieren vermieden oder rechtzeitig entdeckt werden können und das System, Produkt oder die Dienstleistung den Anforderungen der Zielgruppe entspricht. Die Arbeit stellt somit ein erstes Konzept zur Schaffung eines barrierefreien UX-Designs im E-Commerce da. Um die Qualität der Ergebnisse je- doch überprüfen zu können, sind weitere Forschungen notwendig, die sich mit weiteren Benutzerbefragungen und Evaluationen der Verbesserungsmöglichkeiten beschäftigen.
E-Business im Generellen und E-Government im Speziellen haben in den letzten Jahren immer mehr an Bedeutung gewonnen. Die Transformation der Verwaltungsprozesse auf elektronische Medien birgt eine Vielzahl von Potentialen für alle Beteiligten: Einrichtungen der öffentlichen Verwaltung, Bürger und Unternehmen. Dennoch ist es in den letzten Jahren bei solchen Projekten, insbesondere im A2B-Bereich, also der Kommunikation zwischen Verwaltung und Unternehmen, immer wieder zu Problemen gekommen. Das Ziel der Arbeit ist es deshalb die Erfolgsfaktoren von solchen E-Government-Projekten zu identifizieren.
Hierzu werden zunächst die Grundlagen des E-Business erläutert und die Begrifflichkeiten voneinander abgegrenzt. Insbesondere werden die verschiedenen Kategorien von beteiligten Akteuren, die generischen Ziele des E-Business und dessen Einflussfaktoren genannt, um so den Bezugsrahmen des E-Business zu definieren.
Darauf aufbauend werden die Anwendungsbereiche des E-Governments erläutert und die funktionale und strukturelle Unterscheidung der möglichen Szenarien dargestellt.
Im Hauptteil der Arbeit werden anschließend anhand von Literatur-Quellen und aktuellen Studien die sechs Erfolgsfaktoren analysiert, die sich bei der Implementierung von E-Government-Lösungen in der Vergangenheit gezeigt haben. Diese reichen von technischen Faktoren wie der Kompatibilität der Systeme und der Datensicherheit über den richtigen Umgang von Veränderungen mit Hilfe des Change Managements bis hin zu den unterschiedlichen Rollen der beteiligten Akteure.
In den folgenden Abschnitten werden einige Aspekte des E-Governments genauer fokussiert: die verschiedenen Architekturen und Standards, relevante Gesetze und die deutsche E-Government-Strategie sowie der internationale Vergleich von Deutschland im E-Government-Bereich. Dabei wird geprüft, welchen Einfluss diese Aspekte auf die identifizierten Erfolgsfaktoren haben.
Bevor das Fazit die gewonnenen Erkenntnisse zusammen fasst und eine Prognose des E-Governments in Deutschland gibt, werden die beiden Verfahren ELSTER als positives und ELENA als negatives Beispiel für E-Government-Projekte im A2B-Bereich vorgestellt.
Mittelständische Unternehmen erkennen zunehmend die Notwendigkeit einer systematischen Vertriebssteuerung und langfristigen Kundenbindung gerade in der heutigen gesamt- und weltwirtschaftlichen Lage, in der alle Märkte einem harten Konkurrenzdruck unterliegen. Um im aktuell vorliegenden Käufermarkt eine Kundenbindung bzw. –treue zu erlangen, ist die aktive Kundenbetreuung ein absolutes Musskriterium. Genau an diesem Punkt setzt das Customer Relationship Management (CRM) an. Der Kunde rückt zwar in den Mittelpunkt beim CRM, es darf dabei aber nicht die eigene Unternehmung vergessen werden. Der Kerngedanke einer jeden CRM-Lösung ist, die Kosten zu senken sowie den Gewinn der Unternehmung langfristig zu sichern. Um den Kerngedanken zu untermauern, bedient sich eine CRM-Lösung folgender Hilfsmittel, um am Markt eine Steigerung der Wettbewerbsfähigkeit durch eine erhöhte Kundenorientierung zu erlangen: Optimierung der internen Prozessabläufe (auf den Kunden ausgerichtet), Marktpotentialanalyse, automatisches Dokumentenmanagement, Email und CTI-Integration, Besuchplanung, Projektmanagement, verbessertes Service- und Supportangebot sowie ein Termin- und Ressourcenmanagement. Die Einführung einer CRM-Lösung in einem mittelständischen Unternehmen ist ein längerfristiges Projekt. Es reicht nicht aus, eine von den zahlreich vorhandenen CRM-Softwarelösungen zu implementieren, um eine überlebensfähige CRM-Lösung zu besitzen. Eine CRM-Software kann nur so gut sein, wie sich die Unternehmung im Vorfeld eine Strategie und Ziele an ein CRM gesetzt hat. Zusätzlich muss in der gesamten Unternehmung die Begeisterung und Akzeptanz für das CRM geschaffen und aufrecht erhalten werden, da CRM als eine eigenständige Philosophie zu verstehen ist. Nur wenn sich alle Mitarbeiter mit der CRM-Lösung identifizieren und diese aktiv leben, hat die CRM-Lösung Aussicht auf Erfolg.
Im Rahmen dieser Arbeit wurde eine Software auf Basis von Java und ImageJ zur automatischen Auswertung von Prüfkörperperaufnahmen nach PAS 1054 entwickelt. Drei Hauptaspekte standen im Vordergrund: Entwicklung einer benutzerfreundlichen Oberfläche, eine automatische Prüfkörperpererkennung bei Aufnahmen von Modalitäten verschiedener Hersteller, sowie die Implementierung eine Algorithmus zur Messung der SFR (Spatial Frequency Response). Diese Software wurde in eine bereits bestehende Softwarestruktur eingefügt. Außerdem wurde eine Sicherung der Messergebnisse als Textdatei und verschiedene kleine Modifikationen in die bestehende Version implementiert.