Refine
Year of publication
Document Type
- Master's Thesis (323) (remove)
Has Fulltext
- yes (323)
Keywords
- Deutschland (15)
- Öffentliche Bibliothek (13)
- Bibliothek (11)
- Informationskompetenz (8)
- Internet (7)
- Semantic Web (7)
- Sozialarbeit (7)
- XML (7)
- Datenbank (6)
- Data-Warehouse-Konzept (5)
Faculty
- Fakultät 10 / Institut für Informatik (98)
- Fakultät 03 / Institut für Informationswissenschaft (60)
- Fakultät 12 / Institut für Technologie und Ressourcenmanagement in den Tropen und Subtropen (50)
- Fakultät 07 / Institut für Medien- und Phototechnik (39)
- Fakultät 10 / Advanced Media Institute (22)
- Fakultät 07 / Institut für Nachrichtentechnik (8)
- Fakultät 01 / Institut für Medienforschung und Medienpädagogik (5)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (5)
- Fakultät 01 / Institut für interkulturelle Bildung und Entwicklung (4)
- Fakultät 02 / Cologne Institute of Conservation Sciences (4)
E-Learning wird in der universitären Lehre eine zunehmend bedeutendere Rolle spielen. Im Rahmen von Bemühungen um generelle Umstrukturierungen des IKM- Bereichs, wie sie mit Blick auf angloamerikanische Vorbilder auch in Deutschland aufgegriffen worden sind, nehmen auch Bibliotheken im E-Learning-Bereich Aufgaben wahr. Knapp die Hälfte der deutschen Universitätsbibliotheken ist in irgendeiner Form in die universitäre E-Learning-Struktur eingebunden. Die verschiedenen Modelle dafür reichen von der Übernahme des vollen Services über eine strategische Partnerschaft bis hin zu lockeren Kooperationsformen. Insgesamt kann die Bibliothek ihr breites Dienstleistungsportfolio nutzen, um ihre Services in eine E- Learning-Umgebung einzubringen. Diese umfassen die Bereitstellung digitaler Dokumente in elektronischen Semesterapparaten oder Lernmanagementsystemen, die Etablierung der Bibliothek als reellem und virtuellem Lernort, Hilfestellung bei Fragen des Urheberrechts, die Erschließung multimedialer Lernobjekte mit Metadaten und ihre längerfristige Zugänglichmachung sowie die Vermittlung von Informationskompetenz mittels E-Learning-Szenarien wie Blended Learning oder Online-Tutorials. E-Learning bietet der Bibliothek die Möglichkeit, sich als moderner Dienstleister in einer veränderten Hochschul- sowie Medienlandschaft zu positionieren.
In dieser Arbeit werden zunächst die Werbebestimmungen (Produktplatzierung, Schleichwerbung, Sponsoring etc.) der einzelnen Gesetze dargestellt und erläutert. Anschließend werden die Videoportale, insbesondere YouTube, im deutschen Rechtssystem eingeordnet und geprüft, ob sie unter den verfassungsrechtlichen Rundfunkbegriff und/oder einfachgesetzlichen Rundfunkbegriff fallen oder nicht. Letztlich erfolgt die Prüfung der Anwendbarkeit der werberechtlichen Rahmenbedingungen des Rundfunkstaatsvertrages unter besonderer Berücksichtigung des Kriteriums der Fernsehähnlichkeit im Rahmen des § 58 Abs. 3 Rundfunkstaatsvertrages. Es wird geprüft, ob es sich bei YouTube um ein fernsehähnliches Telemediuem im Sinne des § 58 Abs. RStV handelt.
Schulleistungsstudien wie PISA und IGLU haben wiederholt belegt, dass Jungen im Bereich der Leseleistungen schlechtere Resultate erzielen als Mädchen. Sowohl die Lesekompetenz als auch die Lesemotivation der Jungen ist deutlich schwächer ausgeprägt. Die Wissenschaft identifiziert als mögliche Ursachen hierfür einerseits die Besonderheiten der männlichen Hirnstruktur und andererseits die Feminisierung der Erziehung. Auch in der intensiven Nutzung von Bildschirmmedien sowie der Gestaltung des schulischen Deutschunterrichtes scheinen Ursachen der geringeren Lesefähigkeit und -motivation der Jungen zu liegen. Die individuellen und auch gesellschaftlichen Konsequenzen sind weitreichend, denn Lesen ist als elementare Schlüsselqualifikation die Basis für Medien- und Informationskompetenz und somit eine wesentliche Voraussetzung für die mündige Teilnahme am gesellschaftlichen Leben. Da Leseförderung eine Kernaufgabe der öffentlichen Bibliotheken ist, sind auch sie mit dieser Problematik konfrontiert. Um mit ihren Angeboten auch Jungen zu erreichen, müssen sie deren geschlechtsspezifische Interessen, Bedürfnisse und Lesehaltungen berücksichtigen. Veranstaltungsarbeit und Medienbestand müssen daran ausgerichtet sein und kontinuierlich fortgeführt bzw. aufgebaut werden. Die Beteiligung männlicher Erwachsener als lesende Vorbilder ist ebenso wichtig wie die Integration anderer Medien, insbesondere Computer und Internet. Es gibt in Deutschland bereits einige gute Ansätze und Konzepte der Jungenleseförderung, jedoch fehlt bei der Veranstaltungsarbeit meist die Kontinuität. Spektakuläre Lese-Events versprechen leider nur einen kurzfristigen Erfolg, wenn sie nur einmal im Jahr stattfinden. Dabei müssen Veranstaltungen nicht unbedingt aufwändig und teuer sein, um nachhaltig zu wirken. Ein Blick ins Ausland zeigt, dass es auch einfache Konzepte gibt, die bei Jungen das Interesse an Büchern wecken. In den USA und in Großbritannien existieren einige vorbildliche Initiativen der Jungenleseförderung, die von deutschen öffentlichen Bibliotheken adaptiert werden könnten.
Die Arbeit widmet sich einem Thema, das zwar nicht ganz neu ist, bisher aber wenig bedeutsam war und durch das Inkrafttreten der DS-GVO nunmehr auf eine in vielen relevanten Bereichen völlig neue rechtliche Grundlage gestellt und hinsichtlich der spezifischen Fragestellung völlig unbearbeitet ist. Die Arbeit gliedert sich in zwei Hauptteile. Im ersten Teil werden die rechtlichen Grundlagen dargestellt und damit die Relevanz des Themas für das Prüfungsverfahren aufgezeigt. Der zweite Teil widmet sich der Anwendung des neuen Datenschutzrechts auf das Prüfungsverfahren und entwickelt dabei konkrete Handlungsempfehlungen, nach denen Prüfungsämter und sonstige mit Prüfungen befasste Einrichtungen die Anforderungen der DS-GVO erfüllen können.
Vergangene Ereignisse haben gezeigt, dass es trotz gesetzlicher Vorgaben und technischer Regeln, welche die Notstromversorgung von Krankenhäusern bestimmen, zu Vorfällen mit menschlichen Verlusten als Folge von Stromausfällen kam. Deshalb befasst sich diese Masterthesis mit der Entwicklung einer Bewertungsmethode für die Notfallplanung von deutschen Krankenhäusern im Bereich der Energieversorgung unter Berücksichtigung von technischen und organisatorischen Anforderungen. Sie soll in der Krankenhausalarm- und Einsatzplanung Anwendung finden.
Das Ziel ist es, eine Methode zu entwickeln, welche von Anwender:innen mit unterschiedlicher Ausprägung der Fachexpertise in der Krankenhausalarm- und Einsatzplanung sowie Risikoanalyse genutzt werden kann. Über zwei Scoping Reviews für die Krankenhausalarm- und Einsatzplanung sowie zur Energieversorgung von Krankenhäusern werden bestehende Vorgaben und Konzepte sowie Anforderungen an die Methode ermittelt. Basierend auf diesen Informationen wird ein gestuftes Bewertungsmodell vorgeschlagen. Es setzt sich aus einer Synthese eines Verfahrens des Bundesamts für Bevölkerungsschutz und Katastrophenhilfe zur Vulnerabilitätsanalyse mit Methoden der multikriteriellen Entscheidungsunterstützung (Satisfizierungsverfahren und Analytic Network Process) zusammen. Anhand einer exemplarischen Durchführung erfolgte eine empirische Validierung. Des Weiteren wurden der Praxisbezug und die Anwendbarkeit mit Expert:innen-Gesprächen untersucht.
Als Ergebnis kann festgehalten werden, dass sich das gestufte Bewertungsmodell als Planungsmodell für die Bewertung der Energienotversorgung von Krankenhäusern eignet. Es ist in eine Einsteiger-, Fortgeschrittenen- und Expertenstufe unterteilt, um für alle Anwender:innen unabhängig von ihrer Fachexpertise nutzbar zu sein. Es sind weitere Arbeiten unter enger Einbindung von Krankenhausbetreibenden erforderlich, um anhand des Modells priorisierte Checklisten mit allgemeinen technischen und organisatorischen Anforderungen für die Fortgeschrittenenstufe zu entwickeln. Durch die exemplarische Durchführung hat sich herausgestellt, dass das gestufte Bewertungsmodell zudem zur Identifizierung von Abhängigkeiten und Kritikalität des untersuchten Systems genutzt werden kann.
Als Herausforderung stellte sich die Übertragung des Analytic Network Process zu einem Bewertungs- und Priorisierungssystem der technischen und organisatorischen Anforderungen in Verbindung mit der Vulnerabilität heraus. Die Anwendungsgrenzen werden durch die Stufung des Bewertungsmodells gering gehalten. Es sind jedoch weitere Arbeiten, wie die Erstellung eines Leitfadens, notwendig, um die praktische Umsetzung zu ermöglichen.
Der Architekturstil REST erlangt in den letzten Jahren immer größere Verbreitung. RPC-orientierte Architekturstile scheinen besonders bei Software-Neuentwicklungen obsolet zu werden. Es existieren viele Gründe, die für eine Verwendung von REST-Architekturen sprechen. Den- noch zeigen sich auch Probleme bei der Entwicklung von REST-konformen Anwendungen. Diese Probleme und jeweils existierende Lösungsansätze werden in dieser Arbeit aufgezeigt. Dabei geht es zum einen um verfügbare Frameworks und technische Spezifikationen und zum anderen um konzeptionelle Lücken im Bereich der Automatisierung von Geschäftsprozessen.
Untersucht werden soll das Spannungsfeld zwischen Menschenwürde und Kollektivinteressen, zwischen Schutzrechten des Individuums und Normierung menschlichen Lebens anhand des Komplexes „Bioethik“. Neben der Bioethik selber soll die Bioethik-Konvention des Europarats, das „Übereinkommen über Menschenrechte und Biomedizin“, ebenso in die Untersuchung einbezogen werden wie Anwendungen der Biowissenschaften auf den Menschen. Von letzteren soll näher auf „fremdnützige Forschung an nicht-zustimmungsfähigen Menschen“, auf „Sterbehilfe“ und auf „ human-genetische Anwendungen“ eingegangen werden.
In der Arbeit wird das Thema Vermittlung von Informationskompetenz in der Internationalen Fachhochschule Bad Honnef, in den Studiengängen von Hospitality Management und Tourism Management, betrachtet. In dem theoretischen Teil werden allgemeine Definitionen, Modelle und Standards von Informationskompetenz vorgestellt, und die allgemeine Bedeutung von Informationskompetenz in der Informationsgesellschaft erläutert. Es werden auch die Geschichte, Methoden und Didaktik der Vermittlung von Informationskompetenz besprochen. In dem empirischen Teil wird einerseits durch eine Umfrage an die Studenten der Fachhochschule und andererseits durch eine Analyse der Abschlussarbeiten der Stand der Vermittlung von Informationskompetenz erforscht. Durch einen Vergleich mit anderen Hochschulen mit vergleichbaren Studiengängen wird weitere Einsicht in das Thema gewonnen. Auf der Basis der Umfrage und Analyse der Abschlussarbeiten ist der Stand der Vermittlung von Informationskompetenz in der Internationalen Fachhochschule Bad Honnef relativ gut, aber er könnte auch noch mit kleinen Veränderungen verbessert werden. Einige konkrete Empfehlungen zur Verbesserung werden gemacht.
Welche qualitativen Verbesserungsmöglichkeiten bieten Mailinglisten für den bibliothekarischen Informationsdienst? Nach einem Überblick über Aufgaben und Formen bibliothekarischer Informationsdienstleistungen und einer Einführung in Mailinglisten für den Informationsdienst wird in dieser Arbeit exemplarisch die im Juli 1998 als deutschsprachiges Pendant zu Stumpers-L für Auskunftsbibliothekare gegründete Mailingliste "RABE" (Recherche und Auskunft in bibliothekarischen Einrichtungen) beschrieben und analysiert. Dazu werden die Ergebnisse zweier empirischer Untersuchungen herangezogen: einer im März 1999 durchgeführten Umfrage unter den Listenmitgliedern und einer Auswertung der im WWW-Archiv von RABE bis Fe-bruar 1999 gespeicherten Listenbeiträge. Unter anderem werden dabei die institutionelle und geographische Herkunft der Listenmitglieder, ihr Nutzungsverhalten (Aktivitätsprofile), ihre Erfahrungen mit RABE und die zur Beantwortung von Auskunftsfragen verwendeten Informationsquellen untersucht. Abschließend erfolgt eine Bewertung von RABE als Instrument im bibliothekarischen Informationsdienst.
Software muss viele Qualitätsmerkmale erfüllen, z. B. Funktionalität, Zuverlässigkeit, Anpassbarkeit und Wartbarkeit. Wenn Menschen mit der Software arbeiten sollen, so sollte die Software zusätzlich auch „benutzerfreundlich“ sein. In der Fachsprache wird diese Eigenschaft mit Gebrauchstauglichkeit bezeichnet, die auf englisch Usability heißt. Das Charakteristische am Qualitätsmerkmal Usability ist, dass die Anforderungen für dieses Qualitätsmerkmal nicht ohne den Benutzer ermittelt und kontrolliert werden kann, weil Programmierer, Usability-Spezialisten oder der Leiter der Beschaffungsabteilung anderen Zielgruppen angehören als die betroffenen Benutzer. Für die notwendige Benutzerbeteiligung in der Softwareentwicklung gibt es Möglichkeiten wie zum Beispiel Workshops, Befragungen und Beobachtungen. Ein Usability-Laboratorium wird eingesetzt für die Benutzerbeteiligung mittels Beobachtung. Allgemein werden Beobachtungen geschätzt, weil die Benutzer im Regelfall außerstande sind, Ihre Anforderungen an ein System oder die erlebten Probleme mit einem System korrekt und präzise zu beschreiben. Die Beobachtung hilft dieses Kommunikationsproblem in der Softwareentwicklung teilweise zu umgehen. Das Usability-Laboratorium hilft mit seiner technischen Ausstattung die flüchtige Beobachtung mit größerer Präzision festzuhalten und zu analysieren. Durch den technischen Fortschritt sind inzwischen Geräte und Hilfsmittel der Labortechnik auch vor Ort beim Kunden einsetzbar, als ein so genanntes „Mobiles Usability-Laboratorium“. Usability-Laboratorien werden seit über 20 Jahren in der Wirtschaft eingesetzt. Trotz dieser langen Erfahrungszeit wird unter Praktikern wie auch unter Wissenschaftlern oft kontrovers diskutiert, wo die Stärken und Schwächen eines Usability-Laboratoriums liegen, d. h. in welche Richtung sich ein Usability-Laboratorium für die Wirtschaft weiterentwickeln kann und sollte. Die bisherige Diskussion war wenig fruchtbar, weil sie immer nur einzelne Aspekte behandelte, die in der Summe ein widersprüchliches Bild ergibt. Genau dieses Problem löst diese Ausarbeitung. Diese Ausarbeitung untersuchte inwieweit ein Usability-Laboratorium als eine wirtschaftliche und erfolgreiche Dienstleistung für Unternehmen angeboten werden kann. Die Arbeit gibt hierauf konkrete Antworten in Form von Bewertungen und Gestaltungsempfehlungen. Im Interesse einer hohen Generalisierbarkeit der Ergebnisse wurde kein spezielles Usability-Laboratorium als Ausgangspunkt verwendet. Um hier einen ganzheitlichen Beitrag zu liefern, wurde dazu ein neuartiges Untersuchungsschema entwickelt. Dieses besteht aus zwei Phasen mit unterschiedlicher Untersuchungsstruktur. In der ersten Phase wird der Gegenstand aus der Perspektive des Anbieters von Usability-Dienstleistungen untersucht. Seine Sicht ist geprägt aus den drei aufeinander aufbauenden Teilkontexte: Dienstleistung, Usability und Laboratorium. In jeder dieser drei Teilkontexte ist u. a. ein anderes Qualitätsverständnis anzutreffen, welche dann in der zweiten Phase auf ihre Vereinbarkeit untersucht wird. In der zweiten Phase wurde die für den Informatikbereich weitgehend unbekannte, aber im Bereich Dienstleistungsmarketing und Qualitätsmanagement bewährte Dienstleistungsdefinition von Hilke verwendet und diese mit zwei Themenkomplexen kombiniert, in welcher sich ein Usability-Laboratorium primär bewähren muss: Einmal in der Durchführungstauglichkeit und zum Anderem in der Kommunikationstauglichkeit. Zur Kommunikationstauglichkeit gehört besonders die Vermarktung von Usability-Dienstleistungen über ein Usability-Laboratorium. In beiden Phasen wurden viele neuartige Begriffsabgrenzungen und Überblicksdarstellungen erarbeitet, die keine akademische Übung waren, sondern zu einem wesendlichen Teil die Erkenntnisse ausmachten, weil sie bisher unbetrachtete Widersprüche offen legte. Zudem sichert dies eine verständliche Darstellung. Die umfangreiche Untersuchung kam zu teilweise überraschenden Ergebnissen. Auf Basis dieser Ergebnisse wurde ein zukunftsfähiger Laborbegriff entwickelt und ihm den Namen UOA-System gegeben für „Usability Observing and Analyzing System“. Abschließend wurden die Konsequenzen des neuen Paradigma UOA-System erläutert für die Anbieter von Usability-Dienstleistungen und für die Hersteller von Labortechnik in Form von Gestaltungsempfehlungen und Entwicklungsperspektiven.
Endstation Annostraße? : Obdachlose in der Kölner Südstadt zwischen Stigmatisierung und Integration
(2001)
Diese Diplomarbeit beschäftigt sich anhand eines Beispiels mit den Chancen und Grenzen der gesellschaftlichen Integration von obdachlosen Menschen. Da in diesem Rahmen nicht alle aufgeworfenen Fragestellungen erschöpfend beantwortet werden können, stellt sie auch eine Einladung zum Weiterforschen, -denken und -handeln dar.
Die kooperative Führung der Schlagwortnormdatei und die Gewährleistung der Qualität der in ihr enthaltenen Daten sind mit einem enormen Aufwand verbunden, der durch den Einsatz der EDV und geeignete Organisationsstrukturen nur geringfügig reduziert werden kann. Die Erstellung der SWD-Normdatensätze bleibt aufgrund der Vielzahl der den Ansetzungsformen beizufügenden Zusatzinformationen wie Codes, Notationen und Relationen relativ zeitintensiv. Diese lassen jedoch auch die SWD besonders wertvoll für die Recherche werden, da sie die Wiederauffindbarkeit der Daten unterstützen. Während die Schlagwortsuche in deutschen OPACs weit verbreitet ist, haben Codes, Notationen und Relationen bisher nur geringfügig Eingang in den OPAC gefunden. Bei einer Untersuchung von 111 Online-Katalogen wurde festgestellt, dass kein einziger OPAC all die Möglichkeiten nutzt, die mit der SWD gegeben sind. Am meisten werden noch Synonyme und – in geringerem Maße – hierarchische und assoziative Relationen zur Verbesserung des Recalls und zur Benutzerführung eingesetzt. Codes und Notationen finden nur vereinzelt Anwendung.
Der Einsatz von Ontologien wird bereits in vielen Anwendungsbereichen als Werkzeug für die Strukturierung und die Verbesserung der Zugänglichkeit von Informationen unterschiedlichster Art genutzt. Sie ermöglichen die explizite Formulierung der Bedeutung von Konzepten und Strukturen beliebiger Domänen. Auch im Rahmen der Zusammenarbeit in und zwischen Gruppen ist der Austausch und die Verarbeitung von Informationen für den Verlauf und den Erfolg der Kooperation von erheblicher Bedeutung. Daher liegt es nahe, auch kollaborative Aktivitäten durch den Einsatz von Ontologien zu unterstützen. Aktuelle Arbeiten in diesem Themenbereich fokussieren jedoch meist auf ausgewählte Aspekte der Zusammenarbeit wie etwa der Kommunikation zwischen den Gruppenmitgliedern oder die Unterstützung durch eine konkrete Softwarekomponente. In dieser Arbeit wird dagegen von einer ganzheitlichen Betrachtung von Kooperationssituationen ausgegangen. Dabei werden die an einer Kooperation beteiligten Personen und die eingesetzten technischen Komponenten als ein gesamtes soziotechnisches System betrachtet, dessen Elemente nicht losgelöst voneinander betrachtet werden können. Das Ziel dieser Arbeit besteht einerseits darin, zu untersuchen, wie sich der Einsatz von Ontologien auf die Unterstützung der Zusammenarbeit auswirkt und andererseits, welche Möglichkeiten sich hieraus für die Gestaltung von Kooperationssystemen ableiten lassen. Einige dieser Möglichkeiten werden im praktischen Teil prototypisch implementiert, um die technische und wirtschaftliche Umsetzbarkeit zu evaluieren.
Ziel dieser Diplomarbeit ist die Entwicklung eines Software-Produktes, welches in einem firmeninternen Intranet-System zum Einsatz kommt. Es werden die eingesetzten Techniken sowie die Phasen einer Software-Entwicklung und die Software-Qualitätssicherung erläutert. Zum Abschluss folgt die Vorstellung des fertigen Software-Produktes. Neben der reinen Software-Entwicklung besteht die Aufgabe darin, einen eigens dafür zur Verfügung stehenden Webserver einzurichten. Die Firma AFT (AFT Atlas Fahrzeugtechnik GmbH) ist Microsoft Certified Solution Partner und setzt für das bestehende Intranet einen IIS-Webserver und einen MS-SQL Server von Microsoft ein. Für die Diplomarbeit soll ein anderer Weg gewählt werden, um das Software-Produkt in das Intranet einzubinden. Die Wahl fällt auf das im Internet sehr weit verbreitete LAMP-System. LAMP ist eine Abkürzung und steht für Linux, Apache, MySQL und PHP. Alle vier Komponenten sind lizenzfreie Freeware-Produkte. Ein LAMP-System ist in Punkto Stabilität und Geschwindigkeit mit einem Microsoft-System vergleichbar. Die Installation und Konfiguration eines LAMP-Systems ist ebenfalls Bestandteil dieser Diplomarbeit.
This thesis presents the perspective and basis for modeling of retail electricity price components in Germany. Detailed Python models are developed to provide predictions for yearly development of average network charges, EEG, StromNEV-19 and KWK surcharges for the period 2015-2035. For network charges and EEG surcharge, scenario-B (2035) from NEP2015 has been chosen as the model scenario. For KWK surcharge, the 2025 KWK share target, set by KWKG-2016, has been chosen as the model scenario. Individual component model results are validated against available academic literature and institutional reports. Model results for EEG surcharge, indicate an increasing yearly EEG costs till 2024, after which the expiring EEG plants of past will unburden the related high costs and EEG surcharge will drop but still be around 99% of 2015 level in 2035. Model results for network charges indicate a consistently increasing yearly trend owing to high grid investments needed for reaching the target RE share of 57%. KWK model results also indicate a growing KWK surcharge until 2020 which then would remain stagnant at that level onwards. All model results are collected under three consumption categories, namely, households, privileged and nonprivileged industries. The final results indicate that the average German household will face an overall increase of around 3.37 Cents/kWh in retail electricity prices (excluding VAT) till 2028, after which the retail prices will drop a little due to dropping EEG surcharge. The similar but slightly reduced trend can be seen for nonprivileged industrial consumption. The increment effect, however, is only minute for privileged industrial consumption due to high exemptions in EEG & KWK surcharges and reduced individual network charges.
Bibliothekarischer Auskunftsdienst im Informationsverbund : Digital-reference-Konsortien in den USA
(2003)
Bibliotheken weltweit befinden sich im Wandel. Der Trend der Nutzer, Informationen immer häufiger zuerst, und teilweise sogar ausschließlich, im Internet zu suchen, erfordert Veränderungen in der Konzeption des bibliothekarischen Informationsdienstes. Um den Nutzer dann und dort zu erreichen, wo er Hilfe benötigt, bieten viele Bibliotheken bereits Digital Reference Service, digitalen Auskunftsdienst, an. Zumeist erfolgt dieser allerdings institutionsbezogen von einzelnen Bibliotheken, die dadurch auf synergetische Effekte und Vorteile durch Zusammenarbeit verzichten. Abhilfe könnten Informationsverbünde schaffen, in denen mehrere Bibliotheken arbeitsteilig digitalen Auskunftsdienst anbieten. Ziel dieser Arbeit ist es, die Entwicklung solcher Digital Reference Konsortien in den USA näher zu beleuchten. Um den Einstieg in die Thematik zu erleichtern, werden in einem theoretischen Teil zuerst die Begrifflichkeiten geklärt und die verschiedenen Formen des Digital Reference Service dargestellt. Im weiteren Verlauf der Arbeit wird dann die praktische Anwendung des digitalen Informationsdienstes diskutiert. Zu diesem Zweck wurden repräsentativ zwei innovative US-amerikanische Projekte ausgewählt, die detailliert vorgestellt werden. Ein kurzer Überblick über die historische Entwicklung digitaler Informationsverbünde in den USA soll dabei als Hintergrund für die Einordnung der präsentierten Dienste dienen. Die Erfahrungen, die in diesen sehr unterschiedlichen Projekten gemacht worden sind, dienen anschließend als Basis für Überlegungen, wie derartige Konsortien in Deutschland aufgebaut werden könnten. Organisatorische und strukturelle Anregungen an das deutsche Bibliothekswesen zum Aufbau von kooperativen digitalen Auskunftsdiensten runden die vorliegende Arbeit ab.
Kein Club/Disco-Betrieb kommt heute mehr ohne eine mehr oder weniger gut ausgebaute IT-Infrastruktur aus. Das fängt an bei kleinen Clubs, welche über autonome Kassensysteme und ein Abrechnungssystem verfügen, und kennt nach oben hin keine Grenze. So verwalten große Clubs nicht nur Abrechnung und die Kassen, sondern verfügen auch über autonome Systeme, welche beispielsweise die Licht-, beziehungsweise Audioanlage steuern. Allen diesen Systemen ist gemein, dass sie bis auf wenige individuell programmierte Software keine Lösung für alles bieten. Mit dieser Diplomarbeit soll die Grundlage für eine Software gelegt werden, die diesen Missstand behebt.
Moderne Mobiltelefone bieten heutzutage eine Vielzahl von Funktionen, die weit über die grundlegenden Sprachdienste hinausgehen. Sie können als Terminplaner oder auch als Foto- und Videokamera genutzt werden. Die Nutzung dieser Funktionen wurde durch die steigende Leistungsfähigkeit der Geräte möglich. Mit der Entwicklung von UMTS und insbesondere den Übertragungstechniken HSDPA und HSUPA erhält das „mobile Internet" mehr und mehr Einzug auf mobilen Endgeräten. Aufgrund der hohen Leistungsfähigkeit und des Vorhandenseins der nötigen Infrastruktur können auch Videostreaming-Dienste genutzt werden. Um die Qualität einer Videoübertragung sicherzustellen, ist es notwendig, eine Software zu haben, die die Rahmenbedingung der Übertragung bestimmt und so Rückschlüsse auf die entscheidenden Parameter ermöglicht. In dieser Arbeit soll eine Software entwickelt werden, mit der es möglich ist, die Qualität einer Videoübertragung zu bewerten. Um eine möglichst hohe Qualität der Videos zu ermöglichen, müssen sie zur Übertragung effizient komprimiert werden. Einer der neuesten Standards zur Komprimierung ist H.264. Dieser Standard bietet eine durchschnittlich dreimal höhere Kompressionsrate als MPEG-2, welches beispielsweise bei der Übertragung von digitalem Fernsehen (DVB) und der Speicherung von Videodaten auf einer DVD zum Einsatz kommt. H.264 ist Teil des MPEG-4 Standards, der sich im Bereich der mobilen Endgeräte schon jetzt durchgesetzt hat. Die Struktur von H.264 wird im zweiten Kapitel dargestellt, der Transport von H.264 über verschiedene Streaming-Protokolle im dritten Kapitel dieser Arbeit. Die zur Bewertung der Qualität verwendeten Parameter werden im vierten Kapitel zusammengefasst. Die zu erstellende Software soll primär für die Android Plattform entwickelt werden. Jedoch soll bei der Entwicklung auch darauf geachtet werden, dass die Software leicht in eine andere Umgebung portierbar ist. Die Android Plattform ist ein komplettes Softwarepaket für mobile Endgeräte wie Smartphones und Netbooks. Neben einem auf Linux basierenden Betriebssystem liefert Android eine Middleware für die Entwicklung und den Betrieb der Anwendungen. Im fünften Kapitel wird der grundlegende Aufbau und die Entwicklung einer Android Anwendung beschrieben. Nach der Betrachtung der Grundlagen zur H.264-Videokompression, der verwendeten Streaming-Protokolle und der Entwicklung einer Android Anwendung folgt das sechste Kapitel, welches sich mit dem Softwareentwurf und der Implementierung beschäftigt. Der plattformunabhängige Teil der Software steht hier im Fokus, während dem plattformabhängigen Teil lediglich ein kleiner Teil des Kapitels gewidmet ist. Die Qualitätssicherung der Software wird im siebten Kapitel beschrieben. Hier erfolgt eine Betrachtung des Einflusses der Software auf die Übertragung. Ebenso werden Methoden zur Überprüfung der Korrektheit erläutert. Das achte Kapitel zeigt die Auswertung der Messerergebnisse. Im neunten Kapitel wird die entworfene Software dargestellt. Es wird die Bedienung der Software erläutert, sowie die Darstellung der Messergebnisse präsentiert.
Die Extensible Markup Language (XML) ist eine Metaauszeichnungssprache, die 1998 vom World Wide Web Consortium (W3C), einer Organisation, die sich mit der Erstellung von Web Standards und neuen Technologien für das Internet beschäftigt , als neue Empfehlung für Web-Anwendungen festgesetzt wurde. Seitdem ist viel über XML und die sich durch diese Sprache ergebenden neuen Möglichkeiten des Datenaustausches über das Internet publiziert worden. In XML-Dokumenten werden die hierarchische Struktur und der Inhalt der Dokumente festgelegt, aber keinerlei Angaben zum Layout gemacht. Dieses wird in so genannten Stylesheets definiert. Mit Hilfe mehrerer Stylesheets, die sich alle auf ein XML-Dokument beziehen, ist es möglich, aus einem Datenbestand verschiedene Ausgabeprodukte, z.B. eine Online-Version und eine druckbare Ausgabe eines Dokuments, zu erzeugen.
Der überwiegende Teil der Öffentlichen Bibliotheken in der Bundesrepublik ist seit Jahren kontinuierlich bemüht, eine bedarfsgerechte und benutzerorientierte Bibliotheksarbeit zu leisten. Deshalb werden im Zuge der Öffentlichkeitsarbeit und des Bibliotheksmarketings empirische Untersuchungen durchgeführt. Unter Leitung der Staatlichen Büchereistelle für den Regierungsbezirk Detmold fand im Frühjahr 1996 eine schriftliche Befragung der Besucher 15 Öffentlicher Bibliotheken (ÖBB) in Ostwestfalen-Lippe (OWL) statt. Die Erhebungsplanung dieser Untersuchung umfaßte dabei die Entwicklung eines gemeinsamen Erhebungsinstruments, eines Erhebungs- und Auswertungskonzepts, die Projektsteuerung sowie eine Vorbefragung. Die vorliegende Diplomarbeit wurde begleitend zu der Planungsphase dieser Untersuchung verfaßt. In ihr wird der besondere Stellenwert der Planungsphase empirischer Untersuchungen in Bibliotheken, speziell in ÖBB, herausgestellt und modellhaft am Beispiel der Erhebung in der Bibliotheksregion OWL dokumentiert. Weiterhin werden die Vor- und Nachteile schriftlicher Befragungen mittels standardisierten Fragebogens erläutert sowie ihre Grenzen und die damit verbundenen Problemstellungen verdeutlicht. Darüber hinaus erfolgt ihre Einordnung in den bibliothekarischen Kontext als Teil der bedarfs- und benutzerorientierten Bibliotheksarbeit. Abschließend wird die Bedeutung der Vorbefragung in der Planungsphase einer empirischen Erhebung in ÖBB untersucht und am Beispiel der Besucherbefragung in OWL modellhaft demonstriert.
Die vorliegende Arbeit beschäftigt sich mit dem Einsatz kommunikationspolitischer Instrumente an Bibliotheken. Anhand der wirtschaftswissenschaftlichen Literatur und insbesondere der Ausführungen von Prof. Dr. Bruhn soll das Spektrum der Möglichkeiten aufgezeigt werden. Ziel dieser Arbeit ist es, die Kommunikationspolitik in ihrer Eigenschaft als Marketinginstrument zu beschreiben, ihre Möglichkeiten und Grenzen aufzuzeigen, und so das bisherige Verständnis bibliothekarischer Öffentlichkeitsarbeit zu erweitern. Ausgehend von einer Definition des Begriffs "Marketing" und einer Vorstellung des Planungsprozesses wird zunächst der Begriff der "Integrierten Kommunikationspolitik" definiert und in seinen übergeordneten Zusammenhang eingefügt. Abschließend werden die einzelnen Instrumente benannt. Das zweite Kapitel behandelt die Vorbedingungen bibliothekarischer Kommunikationspolitik, wobei dem Budget ein eigener Abschnitt gewidmet ist. Eine Beschreibung von Aufgaben, Zielen und Zielgruppen führt schließlich zu einer Erläuterung des kommunikationspolitischen Planungsprozesses. Im folgenden wird die Möglichkeit einer Branchenkommunikation des Bibliothekswesens untersucht, wobei die Aktivitäten des Niederländischen Bibliotheksverbandes als reales Beispiel dienen. In weiteren Kapiteln werden insgesamt elf kommunikationspolitische Instrumente näher vorgestellt. Der Schwerpunkt liegt nicht auf der Beschreibung konkreter Umsetzungen, sondern auf der Darstellung der Planungsprozesse, da dies bisher weitgehend vernachlässigt wurde. In einem zweiten Schritt sollen die gewonnenen Erkenntnisse auf das Bibliothekswesen übertragen werden. Soweit möglich, werden für die einzelnen Instrumente Beispiele oder Vorschläge angefügt. Eine detaillierte Darstellung wird der Werbung zuteil, da die wissenschaftlichen Erkenntnisse auf diesem Gebiet besonders umfassend sind.
The internal armed conflict in Colombia has been closely linked to the illegal exploitation of natural resources and the appropriation of territories, including the planting of illicit coca crops. This activity has led to deforestation and the degradation of natural ecosystems, aggravating the problems associated with violence and drug trafficking. Regions with little state presence, such as Catatumbo, were particularly affected.
Following the signing of the peace agreement with the Revolutionary Armed Forces of Colombia (FARC) in 2016, a post-agreement scenario emerged that highlighted the need to address complex socio-environmental conflicts in affected regions. This research aims to identify the potential of environmental governance to contribute to peacebuilding and the reduction of deforestation associated with illicit coca cultivation.
A qualitative methodological approach was used in this study, which seeks to integrate research methods and techniques such as: documentary review, participant observation, semi-structured and in-depth interviews, and mapping of the current reality through the Theory U 3D mapping tool.
The results include the socio-environmental context of the territory of analysis, describing the origins of the conflict of deforestation for illicit crops, where the growing dynamics of transformation of the sowing of illicit crops are related, as well as the dynamics of deforestation in the territory of analysis. Tthe identification and analysis of the most relevant actors that have historically participated in the processes of deforestation for illicit crops, their characterization according to the relations of power, interest and legitimisation legitimization. The forms of participation and conflict resolution in the management of natural resources.
Considering as a contextual axis two important processes at a socio-political level in Colombia and the territory under analysis, which correspond to the consolidation of the Comprehensive Rural Reform after the peace agreement and the post-agreement context. Several intervention proposals were proposed from the perspective of environmental governance related to the reconstruction of the social fabric, the reconversion of productive systems, and the resignification of new dynamics of natural resource management. In this sense, the potential of environmental governance is discussed as a useful framework for establishing new relationships based on horizontality in which the actors possess sovereignty over the territory, participation and representativeness in the management of natural resources.
Key words: Deforestation, illicit coca crops, environmental governance, forest management, peacebuilding.
Zentraler Punkt der Verkehrsproblematik ist die hohe Staubelastung, vor allem im Berufsverkehr. Diese Situation ließe sich durch eine Erhöhung des Besetzungsgrades pro PKW verbessern. Eine Vielzahl der Pendler fährt alleine, obwohl besonders in diesem Kontext viele Personen regelmäßig denselben oder einen ähnlichen Weg fahren und dadurch Fahrgemeinschaften möglich wären. Zur Lösung dieser Problematik wird ein persuasive System namens Route Match zur Unterstützung der Bildung von Fahrgemeinschaften geplant. Im Laufe des Dokumentes werden eine Literaturrecherche, eine Kontextanalyse, zwei empirische Erhebungen und eine Anforderungsspezifizierung für Route Match durchgeführt. Darauf aufbauend wird ein sutainability analysis Framework angewendet und erste Prototypen erstellt. Das Ergebnis sind 138 Requirements, Qualitätsanforderungen und einige Protoypen. Route Match ist eine einfache und kostengünstige Möglichkeit den Autoverkehr zu reduzieren und dadurch die Umwelt positiv zu beeinflussen. Die meisten anderen Ansätze beruhen auf der Entwicklung von neuen Transportmitteln oder dem Ausbau der öffentlichen Verkehrsnetze und des Straßennetzes.
Mit der zunehmenden Bedeutung von Geodaten stellt sich die Frage, welche Indices für welche Anwendungszwecke geeignet sind. Ziel dieser Arbeit ist es, dies am Beispiel von je drei Quadtrees (quadtree, bucket-pr-quadtree, mx-cif quadtree), kd-trees (kd-tree, four-dimensional kd-tree, kdb-tree) und r-trees (guttman r-tree, str-tree, r*-tree) sowohl für statische wie auch dynamische Geodaten zu untersuchen. Als Variante der dynamischen Daten werden zudem Bewegungsdaten betrachtet. Der Vergleich erfolgt sowohl theoretisch, weshalb alle genannten Indices detailliert vorgestellt werden, als auch praktisch. Dazu wurde eine Testumgebung in Java realisiert, die das gezielte Testen von bestimmten Operationen auf den Indices ermöglicht. Als Ergebnis des theoretischen Vergleichs werden verschiedene Charakteristika den Indices zugeordnet, die eine grobe Vorabauswahl ermöglichen. Der praktische Vergleich zeigt anschließend die Resultate differenziert nach Punktgeometrien, Nicht Punktgeometrien und Bewegungsdaten. Als Resultat wird eine generell gute Eignung der r-trees und insbesondere des str-trees dargestellt. Gleichzeitig wird aber auch darauf hingewiesen, dass es Anwendungsszenarien (z.B. langsame I/O) gibt, in denen eine andere Wahl getroffen werden sollte.
Ziel dieser Diplomarbeit war die Neuentwicklung eines bereits bestehenden Softwareprodukts, welches in einem firmeneigenen Intranet als Backend-System zum Einsatz kommt. Es werden die Konzeptplanung, die verwendeten Technologien und die Phasen der Programmierung bis hin zur Einbindung ins System erläutert. Zur schnellen Orientierung, folgt zuerst eine kurze Kapitelübersicht.
Einzelne Lebensereignisse und geschaffene Werke beinhalten häufig Bezüge zu anderen Geschehnissen oder sie werden beeinflusst durch die Beziehungen zu Mitmenschen, Herkunft, bestimmte Charaktereigenschaften, zeitgeschichtliche Ereignisse o.ä. Dem Schreibprozess einer Biographie muss ein umfassendes Verständnis dieses komplexen Systems vorausgehen, um zu verhindern, dass sich deren Inhalt auf eine chronologische Darstellung beschränkt. Am Ludwig Boltzmann Institut für Geschichte und Theorie der Biographie in Wien ist zu diesem Zweck ein biographisches Research-Wiki konzipiert worden. Dieses dient als Ablagesystem und Arbeitsinstrument für die am Institut entstehenden wissenschaftlichen Biographien. Besonders die Materialfülle des räumlich verteilten Hugo-von-Hofmannsthal-Nachlasses soll auf diese Weise besser zugänglich gemacht werden. Es ist geplant das Hofmannsthal-Wiki eventuell auch als Netzbiographie zu veröffentlichen. Zu den entscheidenden Funktionalitäten des Wikis gehören die hypertextuellen Verweise zwischen Ereignis- und Briefchronik, Themenkomplexe sowie die Gewährleistung der wissenschaftlichen Methode mittels ebenfalls hypertextuellen Referenzierungen aller Informationen. In dieser Arbeit wird untersucht, inwiefern sich Wikis und Hypertexte im Allgemeinen für einen Einsatz in der Biographieforschung eignen. Dabei werden zunächst die Eigenschaften einer Biographie und die Methoden der Biographieforschung dargestellt. Im Anschluss daran werden die Begriffe Hypertext und Wiki in den Kontext der Biographieforschung eingeordnet. Das Hugo-von-Hofmannsthal-Research-Wiki und teilweise auch das Jandl-Research-Wiki nehmen in dieser Arbeit die Funktion des Modellprojektes ein. Daher enthält die gesamte Arbeit Beispiele aus diesen beiden Datenbanken. Zusätzlich werden die Stärken und Schwächen des Hofmannsthal-Wikis in einem gesonderten Kapitel analysiert. Schließlich findet ein Vergleich mit dem Heine-Wiki, dem Heinrich-Heine-Portal und der Klagenfurter Ausgabe des Robert-Musil-Nachlasses statt. Abschließend wird ein Ausblick sowie Empfehlungen speziell in Bezug auf das Hofmannsthal-Research-Wiki, aber auch hinsichtlich des Nutzens von Wikis für die gesamte Biographieforschung, geboten.
Water risk assessment is becoming an essential part of any decision-making process in the business sector. In the world where freshwater resources are becoming scarcer, water risks are growing and causing high costs to businesses. Therefore, numerous frameworks, guidelines, methodologies, tools, and other approaches were developed during the last century. Various scholars have appeared to give an economic value or price for environment goods in order to understand trade-offs better. Nowadays, the corporate world tends to use different approaches to convert sustainability management data to the financial language of decision-makers. This study explores the possible ways for a company to measure the costs of water related risks. It examines how to convert water risks to financial risks using a Peruvian agricultural company. The results show, that from all today’s available frameworks, guidelines or tools there is no one commonly accepted and recognised as the best for water risk assessment and monetising. It was learned, that available tools could provide just a simple overview of possible water related risks and calculate their costs in a very general way. The work also highlights the importance of regular and appropriate data collection on the company level in order to be able to assess water risk related costs for the business.
Ein Online-Tutorial für vascoda. Theoretische Grundlegung - Konzeption - Praktische Umsetzung
(2009)
Inhalt der vorliegenden Masterarbeit ist die Konzeption und praktische Umsetzung eines Online-Tutorials (Lernprogramms) für die Benutzer des wissenschaftlichen Internetportals vascoda. In einem umfangreichen Theorieteil werden zunächst der sachliche Hintergrund (Fachportale und Funktionen des Dachportals vascoda), der didaktisch-methodische Hintergrund (Mediendidaktik, Lerntheorien, Instruktionsdesign mit besonderer Berücksichtigung von E-Learning, Begriffsgeschichte und Definitionen des Begriffs Tutorial, Informationskompetenz) sowie der technische Hintergrund (Autorenwerkzeuge) dargestellt. Auf dieser Grundlage wird eine ausführliche Planung für das vascoda-Tutorial in verschiedenen Kategorien erarbeitet (Begründung der Medienwahl, Zielgruppenanalyse, inhaltliche und didaktisch-methodische Konzeption, technische Umsetzung), an deren Ende eine detaillierte Aufstellung der Lehrinhalte und Lehrziele steht. Das Ergebnis der praktischen Umsetzung ist auf einem beiliegenden Datenträger verfügbar (ein aus vier Untermodulen bestehendes Hauptmodul des vascoda-Tutorials als exemplarischer Prototyp). Das Schlusskapitel der Arbeit enthält eine abschließende Kritik dieses produzierten Moduls und zeigt Möglichkeiten einer Weiterentwicklung auf.
Machbarkeitsanalyse über den Aufbau eines Enterprise Data Warehouse auf Basis von Apache Hadoop
(2016)
Die vorliegende Masterthesis liefert eine Einführung in die Themen Data Warehouse, Big Data und Apache Hadoop. Sie präsentiert grundlegende Data-Warehouse-Kon-zepte und überprüft, inwieweit diese mit dem Apache Hadoop Software Framework zu realisieren sind. Hierbei wird sowohl eine technische Überprüfung vorgenommen als auch verschiedene Szenarien veranschaulicht, wie Hadoop inhaltlich sinnvoll in bestehende Systeme integriert werden kann. Inhaltlich wird über das Thema Big Data an die Notwendigkeit einer solchen Überprüfung herangeführt.
Durch die rasante technologische Entwicklung der digitalen Cinematographie sind nicht nur neue Daten-Kameras entwickelt worden, sondern es wurden auch neue Objektive, sowohl für die digitale als auch für die analoge Filmwelt entwickelt. Ziel dieser Arbeit ist es, einen weitgehend praxisbezogenen Überblick über das aktuelle Angebot an Objektiven, sowohl für die analoge als auch für die digitale Cinematographie zu erstellen. Weiterhin werden Entscheidungskriterien und Qualitätsparameter dargestellt. Technische und finanzielle Unterschiede werden kurz erläutert. Zum Einstieg hierfür wird eine allgemeine Einführung in die physikalisch-optischen Grundlagen vorangesetzt. Dem folgt ein Abriss über die in der Praxis angewendeten Mess- und Prüfgeräte. Ergänzend befindet sich eine ausführliche Zusammenstellung mit den Detailinformationen zu einzelnen Objektiven im Anhang.
Diese Masterarbeit beschäftigt sich mit der Visualisierung von Leistungs- und sportmedizinischen Daten aus Athletenakten. Nach einer kurzen Einleitung wird zunächst die Aufgabe beschrieben. Hier wird auf die Anforderungen an die zu entwickelnde Komponente eingegangen. Anschließend werden die vorhandenen Leistungs- und sportmedizinischen Daten beschrieben. Dabei wird zunächst die Tabellenstruktur der zugrundeliegenden Datenbank inklusive der XML-Spalten beschrieben.Weiterhin werden die XML-Dateien aufgeführt, in denen die Athletendaten gespeichert werden. Im folgenden Kapitel werden grundlegende Visualisierungstechniken vorgestellt und am Avatar angewendet. Neben den Techniken werden anschließend verschiedene Visualisierungstechnologien beschrieben und eine begründete Auswahl getroffen. Das nächste Kapitel beschreibt neben der Visualisierungstechnologie weitere, verwendete Technologien wie Programmiersprache und Serverarchitektur. Eine Vorstellung der entwickelten Komponenten sowie ein Ausblick und Fazit runden in den letzten beiden Kapiteln die Arbeit ab.
In den letzten Jahren haben sich die öffentlichen Verwaltungen in Deutschland im Zuge von „Open Government” immer weiter gegenüber den Bürgern geöffnet. Durch die Digitalisierung bieten sich vielfältige Möglichkeiten, wie Kommunen ihr Handeln transparent gestalten und gleichzeitig Bürger dazu ermächtigen, sich an politischen Problemlösungsprozessen zu beteiligen. Die fortschreitende Vernetzung der Menschen und das größer werdende Angebot an Daten, mit denen die Verwaltung arbeitet, führt zu großen Herausforderungen und Fragen, zur zukünftigen Politik auf kommunaler Ebene. Aus diesem Grund untersucht diese Thesis die aktuellen Internetkonzepte ausgewählter Kommunen hinsichtlich der Frage, wie die Prinzipien von Open Government bisher umgesetzt wurden. Durch die allgemeine Forschung auf dem Gebiet des Crowdsourcings, der Analyse von Studien und der Durchführung von Interviews mit Experten werden zusätzliche Erkenntnisse gewonnen. Das Ergebnis zeigt, dass die Kommunen sich noch am Anfang der Nutzung digitaler Bürgerbeteiligung stehen. Sowohl die Initiierung von Kollaborationsmodellen findet bislang nur in geringem Maße statt, als auch der Umgang mit offenen Daten, die von der Verwaltung erhoben werden ist wenig erfolgsversprechend: Der eingeschränkte Zugang für eine breite Zielgruppe sowie die fehlende Nutzung der Daten zu Auswertungszwecken sind Beispiele dafür. Zur Adressierung dieser Herausforderungen wurde ein Framework entwickelt, das seinen Schwerpunkt auf die Interaktion zwischen Bürger und Kommune bei der Entwicklung von Lösungen zu öffentlichen Problemen legt. Dadurch soll einerseits alle möglichen Formen der Interaktion zwischen den beiden Akteuren gefördert und andererseits der Wert von offenen Daten als Kommunikationsgrundlage hervorgehoben werden.
Seit Ende des 20. Jahrhunderts sind Kooperationen in Bibliotheken zum alltäglichen Mittel der komplexen Arbeitsbewältigung geworden. Durch die Veränderung der bibliothekarischen Umwelt, beispielsweise die Digitalisierung der Medien und das sich daraus wandelnde Nutzerverhalten, werden die Bibliotheken neuen Herausforderungen unterworfen. Diesen muss sich aufgrund der Fülle und Masse an zu bewältigenden Aufgaben kooperativ gestellt werden. Die Veränderungen veranlassen gleichzeitig neue Perspektiven der Konzeption von Kooperationen einzubeziehen. Hier bieten sich die Kooperationsforschung der Betriebswirtschaftslehre sowie die Systemtheorie Luhmannscher Prägung an. Ebenfalls sollten Kooperationsmodelle aus dem Ausland beobachtet werden, um neue Impulse für die Bildung von Kooperationen zu erlangen. Das Zusammenfassen dieser drei Ansätze führt zur Erlangung neuer Erkenntnisse im Bereich der sich verändernde Umwelt der Bibliotheken und die daraus zu schließende Reaktion in Form der Bildung geeigneter Kooperationen.
In dieser Arbeit wird die Erstellung eines fachspezifischen Segments des kooperativ erstellten Navigations- und Schulungssystems LOTSE für das Fachgebiet Theologie dokumentiert. In einem ersten Teil, wird das Navigations- und Schulungssystem LOTSE vorgestellt. Im Zusammenhang mit den aktuellen Projektentwicklungen der Projektphase LOTSE II geht die Verfasserin auch auf die entstehende Virtuelle Fachbibliothek Theologie und Religionswissenschaften VirTheo ein. In einem zweiten Teil wird der Diskussionsstand zur fachspezifischen Vermittlung von Informationskompetenz in der Theologie skizziert und LOTSE mit vorhandenen Tutorials zu elektronischen Informationsmitteln der Theologie verglichen. In einem dritten Teil werden konzeptionelle Entscheidungen zur Erstellung des LOTSE-Fachsegments Theologie erläutert und ein Auswahlprofil für fachlich relevante Internetseiten formuliert. Anschließend wird die Erstellung selbst anhand von Beispielen dargestellt. Das Fachsegment ist online frei zugänglich unter http://lotse.uni-muenster.de/theologie.
Immer mehr Mobile Augmented Reality Spiele werden entwickelt und gewinnen zunehmend an Beliebtheit. Zugleich können Smartphones überall und zu jeder Zeit für Mobiles Lernen genutzt werden. Diese Masterarbeit beschäftigt sich mit einem auf Mobile Augmented Reality basierenden Serious Game.
Serious Games werden eingesetzt, um Fähigkeiten zu trainieren, Wissen anzueignen oder Einstellungen des Spielers zu ändern. Dabei lernen die Spieler in der Spielwelt Inhalte, die sie in die Realität übertragen und anwenden können. Es wird folgende Forschungsfrage beantwortet: Wie wird der Wissenserwerb eines Serious Game durch den Einsatz von Mobile Augmented Reality beeinflusst. Zum einen werden Theorien über das Lernen durch Serious Games und zum anderen Theorien über Lernen mit Augmented Reality anhand einer Literaturarbeit untersucht und kritisch eingeordnet. Der Vergleich dieser Theorien dient der Identifizierung von wichtigen Elementen für Augmented Reality Serious Games. Dazu wird das Potenzial von Mobile Augmented Reality anhand ihrer Vor- und Nachteile aufgezeigt. Die Ergebnisse dienen einem weiteren Modell, welches die Auswirkungen der Serious Game Elemente und Augmented Reality Elemente auf den Spieler verknüpft. Ebenso werden spezifische Merkmale über den Spieler und dem Kontext des Spiels identifiziert.
Im Anschluss an die Darstellung der einzelnen Serious Games und Mobile Augmented Reality Elemente wird ein Spiel über den Ausbruch des Virus COVID-19 entwickelt. Es werden Informationen über die Pandemie und die gesetzlich vorgeschriebenen Schutzmaßnahmen integriert.
Es wird deutlich, dass sich die Elemente auf den Spieler und sein Spielerlebnis auswirken, als auch einen Einfluss auf den Lerneffekt haben. Dennoch kann nicht einzeln begründet werden, für welchen Zweck bestimmte Elemente eingesetzt werden müssen. Es werden die Bedingungen zusammengefasst, die sich individuell auf das Spielerlebnis und den Lerneffekt auswirken.
Studien belegen, dass das Internet bei der Informationsversorgung der Menschen immer mehr an Bedeutung gewinnt. Stimmen aus der Forschung fordern eine Präsenz der Bibliotheken am Point-of-Need ihrer Nutzer, also auch im Internet. Während im angloamerikanischen und skandinavischen Raum relativ frühzeitig auf diese Entwicklung reagiert und ein digitaler Auskunftsdienst additiv zur traditionellen Walk-in Auskunft angeboten wurde, ging man in Deutschland lange Zeit recht zögerlich mit diesen neuen Kommunikationswegen um. Mittlerweile lässt sich aber auch hier ein gesteigertes Interesse an der Digitalen Auskunft erkennen. Projekte wurden initiiert und befinden sich zum Teil bereits im Regelbetrieb. In dieser Arbeit soll der Entwicklungsstand der Digitalen Auskunft in Deutschland nachgezeichnet und anhand einer vergleichenden Evaluation in einem internationalen Kontext positioniert werden. Dazu werden die folgenden Verbünde in die Evaluation einbezogen: Die Deutsche Internetbibliothek (D), InfoPoint (D), Virtuelle Auskunft im SWB (D), Biblioteksvagten (DK), Enquire (GB), IPL (USA) und Ask a Librarian/ Florida (USA). Aus der Fachliteratur abgeleitete Standards dienen dabei als Grundlage für einen Kriterienkatalog, der Stärken und Schwächen der Auskunftsverbünde identifizieren soll.
Die Erzeugung und Nutzung digitaler Daten nimmt in der medizinischen Bildgebung weiter stetig zu. Farbmonitore und das Aufgabenfeld der Wiedergabe der Bilder zur informativen Betrachtung spielen aber bisher eine untergeordnete Rolle. Verbindliche Vorgaben und Hinweise zum Umgang mit Farbdisplays, sowie auch zur informativen Betrachtung, sind bisher kaum entwickelt worden. Vor dem Hintergrund, dass Farbdisplays heute in großer Zahl im medizinischen Umfeld vorhanden sind und vielfach auch schon mobile Geräte zum Einsatz kommen, untersucht diese Arbeit experimentell, ob und wie die bereits heute vorhandenen digitalen Bilddaten in ausreichender Qualität auf diesen nicht kalibrierten Bildwiedergabesystemen dargestellt werden können. Es werden drei mobile Bildwiedergabesysteme auf ihre technische Eignung hin untersucht. Die Ergebnisse dieser Untersuchung, sowie ein visueller Vergleich eines Testdatensatzes auf den drei Testsystemen und einem DICOM kalibrierten Befundsystem zeigen, dass vorrangig eine Dynamikkompression nötig ist, welche mit Hilfe einer Laplacepyramide realisiert wird.
Diese Arbeit gibt einer postfundamentalistischen Perspektive auf politisches Handeln in der Sozialen Arbeit in einer qualitativen Erforschung der Fachkräftekampagne ‚#dauerhaftsystemrelevant‘ Raum. Zur theoretischen Rahmung werden in einem ersten Schritt zentrale Diskussionslinien um politisches Handeln in der Sozialen Arbeit dargelegt. Daraufhin eröffnen Theorien politischer Differenz eine kontingenzsensible und hegemoniekritische Perspektive auf Soziale Arbeit, ihr Verhältnis zu Politik und ihr politisches Handeln. Der Forschungsstand errichtet ein Mosaik aus internationalen Forschungserträgen, die das Thema dieser Arbeit tangieren. Es folgen eine inhaltsanalytische Untersuchung von Veröffentlichungen der Fachkräftekampagne ‚#dauerhaftsystemrelevant‘ und Leitfadeninterviews mit Kampagnenaktiven im Hinblick auf Momente politischer Differenz. Es zeichnen sich differenztheoretische Simultaneitäten und Bewegungen in den Kampagnenaktivitäten ab. Die Ergebnisse zeigen politische Differenz als einen Spielraum politischer Handlungen Sozialer Arbeit auf und offerieren diesen so eine postfundamentalistische Analyse- und Diskussionsfolie.
Im Rahmen einer Diplomarbeit zum Thema "Jugendschutz und Internet in Öffentlichen Bibliotheken" werden die für den Jugendmedienschutz relevanten Gesetze vorgestellt. Neben dem Strafgesetzbuch und dem Gesetz über die Verbreitung jugendgefährdenten Schriften wird insbesondere auf die Jugendschutzregelungen des neu eingeführten Informations- und Kommunikationsdienste-Gesetzes des Bundes und des Mediendienste-Staatsvertrags der Bundesländer eingegangen. Es wird untersucht, welche Konsequenzen bestehende und durch das IuKDG neu hinzukommende Jugendschutzregelungen auf den Internet-Zugang einer öffentlichen Bibliothek haben. Abschließend werden Möglichkeiten genannt, die sich Öffentliche Bibliotheken mit Internet-Angebot bieten, um den jugendschutzrechtlichen Anforderungen gerecht werden zu können. In diesem Rahmen werden Arbeitsweisen und Charakteristika von Filtersoftware vorgestellt, die eine technische Regulierungsmöglichkeit des Internet-Zugangs bieten.
Die vorliegende Arbeit beschäftigt sich mit dem elektronischen Management von Bewerbungen und Bewerberinformationen im Kontext mittelständischer Unternehmen in Deutschland. Nach einer kurzen Einführung wird der Begriff Web 2.0 sowie die mit diesem einhergehenden Trends und Entwicklungen genauer beschrieben. Nachfolgend werden bestehende marktübliche Systeme für das Management von Bewerbungen miteinander verglichen. Nachdem ein Überblick über das Themenfeld gewonnen wurde, wird der Prozess des Bewerbermanagements selbst, sowie die damit verbundenen Aufgaben im Unternehmen erhoben und analysiert. Eine Befragung der involvierten Mitarbeiter, welche Unterstützung sich diese bei der Durchführung ihrer Aufgaben von einem System wünschen, rundet die Analyse ab. Die Frage, welche Kanäle, Informationsdarstellungen und Controllingmechanismen ein System bieten muss, um maximalen Mehrwert bei der Bewerberansprache und -auswahl bieten zu können, wird in Form eines Grobkonzeptes aufgegriffen. Die dort gesammelten Ideen werden dann in einem weiteren Schritt zusammengeführt, gruppiert und konkreten Modulen zugeordnet. Eine Realisierung ausgewählter Systemkomponenten sowie der Dokumentation des Entwicklungsprozesses schließt den Kernteil ab. Abgeschlossen wird die Arbeit mit einem Ausblick, welche weiteren Entwicklungsschritte möglich sind sowie mit einem Fazit, in dem persönliche Eindrücke während der Bearbeitung des Themas kurz skizziert werden.
Aufgrund der steigenden Nutzung mobiler Geräte und der Vielzahl persönlicher bzw. geschäftlicher Daten, die auf mobilen Geräte gespeichert und verarbeitet werden, sind mobile Geräte zu einem attraktiven Angriffsziel geworden. Ungeachtet des Schutzbedarfs hat sich die Sicherheitssoftware, wie man sie von stationären Systemen her kennt, auf mobilen Geräten bisher nicht durchsetzen können. Sicherheitsansätze stationärer Systeme können mobile Geräte zwar vor Bedrohungen schützen, jedoch sind diese Ansätze zu ressourcenintensiv für mobile Geräte, deren Rechenleistung und Akkukapazität relativ begrenzt ist. Um den Schutzbedarf mobiler Geräte und deren Anwendungen unter Berücksichtigung der begrenzten Ressourcen zu erfüllen, wird in dieser Arbeit ein Architekturmodell konzipiert, das Anwendungen, abhängig von Bedrohungen, Sicherheitsmaßnahmen bereitstellt. Anders als beim Sicherheitsansatz stationärer Systeme werden nur die Sicherheitsmaßnahmen umgesetzt, die aufgrund der aktuellen Bedrohungen notwendig sind. Ermöglicht wird die adaptive Bereitstellung von Sicherheitsmaßnahmen durch einen in dieser Arbeit vorgestellten Ansatz, der die Ermittlung von Bedrohungen und geeigneter Maßnahmen aus Kontextinformationen und Erfahrungswerten zulässt. Zuletzt wird die Realisierbarkeit des Architekturmodells anhand einer prototypischen Implementierung nachgewiesen.
In dieser Diplomarbeit wird ein neues Verfahren für den automatischen Weißabgleich einer digitalen Kamera beschrieben. Das Verfahren bestimmt die beleuchtende Lichtfarbe durch Messung von polarisierten Reflexen. Die Arbeit untersucht mit diesem Verfahren Reflexe an verschiedenen Oberflächen. Herausgearbeitet werden die kritischen Situationen der Anwendung. Dies geschieht im Hinblick auf die spätere Optimierung des Verfahrens.
Cloud Computing ist der zentrale Faktor zur Beschleunigung der Digitalisierung in Deutschland und wird in den kommenden Jahren eine wichtige Rolle in jedem deutschen Unternehmen spielen. Für Unternehmen wird es dabei um die Umsetzung von
Cloud-Strategien und die praktische Einbindung in die täglichen Betriebsprozesse gehen. Zusätzlich müssen Unternehmen ihre bestehende Datenlandschaft in moderne Architekturen zum Datenmanagement in die Cloud migrieren. Dabei können Unternehmen auf eine Vielzahl an unterschiedlichen unternehmensweiten Datenarchitekturen
zurückgreifen. Die vorliegende Masterarbeit gibt eine Einführung in die aktuelle Entwicklung von Cloud Computing und erläutert, mit Data Fabric, Data Lakehouse und Data Mesh, drei unternehmensweite Datenarchitekturen für die Cloud. Data Fabric, Data Lakehouse und Data Mesh bilden dabei aktuell die modernsten Konzepte für unternehmensweite Datenarchitekturen. Zusätzlich werden ein Data Lakehouse und ein Data Mesh in einer ausgewählten Cloud-Umgebungen entworfen, prototypisch aufgebaut und praktisch analysiert. Ziel der Masterarbeit ist es, die unternehmensweiten Datenarchitekturen in der Cloud zu erläutern, konkrete technologische Architekturen zu entwerfen und entsprechende Hinweise zu Aufwandstreibern in Unternehmen zu identifizieren.
In dieser Arbeit wird das VD 17-Projekt vorgestellt. Der Erörterung des Themas ist zunächst ein kurzer Exkurs in die Entwicklungsgeschichte des Projekts vorangestellt, um einen Überblick über die Vorgeschichte und Planungsphasen des Projekts zu gewähren. Im Mittelpunkt stehen daher vier Aspekte: zunächst wird der Inhalt des Verzeichnisses anhand des geographischen Umfangskonzeptes, der inhaltlichen Schwerpunkte der Teilnehmerbibliotheken sowie durch die enthaltenen Schriftenklassen näher definiert. Es folgt die Erläuterung der inhaltlichen Erschließung und die dafür angewandten Regelwerke. Ein großes Gewicht wird anschließend der technischen Realisierung des VD 17 sowie den Recherchemöglichkeiten in der multimedialen Datenbank zugeordnet.
Durch technische und politische Veränderungen wird die Vernetzung verschiedenster gesellschaftlicher Gebiete immer leichter – so auch im Bibliotheksbereich. Vor diesem Hintergrund stellt sich die Frage, was dies für die „Bibliothekslandschaft“ Europas bedeutet: Befinden die europäischen Bibliotheken sich in einer Phase intensiver Zusammenarbeit durch Vernetzung – oder ist bereits ein arbeitsteiliges System auf europäischer Ebene im Entstehen begriffen? Nach Beschreibung der verschiedenen Infrastrukturebenen wird das Zustandekommen zweier unterschiedlicher, EU-geförderter Projekte erläutert (IMPACT und EDLnet). Zum einen, um die Bedeutung von Vernetzung für typische Projektabläufe darzustellen, zum anderen, um zu zeigen, dass Projekte als „temporäre Systeme“ funktionieren. Auf Basis der Analyse werden „Desiderate“ für die Zusammenarbeit formuliert und abschließend die Frage nach „Systembildung“ oder „Vernetzung“ beantwortet.
Dublettenerkennung bezeichnet einen Prozess zur Ermittlung ähnlicher oder identischer Datensätze, die sich auf das gleiche Objekt der realen Welt beziehen. Eine besondere Bedeutung hat diese im Rahmen einer Datenbereinigung zum Beispiel nach dem Zusammenführen verschiedener Datenbestände mit möglichen Überlappungen. In diesem Zusammenhang haben sich in den letzten Jahren einige interessante Entwicklungen ergeben. Zum einen steigen die erfassten Datenmengen immer weiter an, so dass Algorithmen an Bedeutung gewinnen, die auch in solchen großen Datenbeständen effizient arbeiten. Zum anderen steigt durch die stärkere Verbreitung von Mehrkernprozessoren und die zunehmende Zentralisierung von IT-Diensten (vgl. Cloud Computing) auch der Bedarf an Lösungen, die in solchen Umgebungen optimal arbeiten und sich gut skalieren lassen. Der hier vorgestellte Lösungsansatz zur Dublettenerkennung kombiniert einen modernen und effizienten Algorithmus mit den Vorzügen einer zentralen und dienstorientierten Architektur.
Soziale Netzwerke decken ein breites Spektrum an Anwendungsfällen ab und bieten somit eine Vielzahl an Funktionen, bei denen die Teilnehmer mit ihrem sozialen Umfeld interagieren und mit anderen Informationen teilen können. Die dabei aufkommenden Informationen über die Teilnehmer müssen teilweise erfasst und gespeichert werden, um die Funktionalität und die Gebrauchstauglichkeit des sozialen Netzwerkes zu sichern und Missbrauch vorzubeugen. Dies jedoch hat den Nachteil, dass die entstandenen Daten und somit eine Reihe von Aktivitäten der Teilnehmer durch den Anbieter eines sozialen Netzwerkes beobachtet werden können. Um die Privatsphäre der Teilnehmer zu schützen oder auch um eine bessere Skalierbarkeit der sozialen Netzwerke zu erreichen, konzentrieren sich aktuelle Forschungsarbeiten auf die Dezentralisierung sozialer Netzwerke. Dies führt zu neuen Herausforderungen, da die Aufgaben der zentralen Organisationseinheit auf mehrere Komponenten ver-
teilt werden müssen. Eine dieser Aufgaben ist es, die Authentizität und Integrität der Daten für die Teilnehmer sicher zustellen. Die Vernachlässigung dieser beiden Schutzziele kann zu Missbrauch und verschiedenen Angriffen auf ein soziales Netzwerk und dessen Teilnehmer führen.
Um an diese Problemstellung heranzugehen, soll innerhalb dieser Arbeit geklärt werden, wann und welche Mechanismen für die Erfüllung der beiden Schutzziele in sozialen Netzwerken ohne zentrale Organisationseinheit geeignet sind. Hierfür werden die Angriffe zur Verletzung dieser beiden Schutzziele in soziale Netzwerken und der darunter liegenden Infrastruktur betrachtet. Des Weiteren wird geklärt, welchen Einfluss die Dezentralisierung auf die die Teilnehmerdaten hat und was die relevanten Kriterien für authentische Teilnehmerdaten sind.
CAPTCHAs (Completely Automated Public Turing test to tell Computers and Humans Apart), auch HIPs (Human Interaction Proof) genannt, sind weit verbreitete Sicherheitsmaßnahmen im World Wide Web, die Online-Dienste vor dem Missbrauch durch automatisierte Programme schützen sollen. Dazu werden die Benutzer aufge-fordert, eine Aufgabe zu lösen, welche von Computern nicht gelöst werden kann, wie beispielsweise das Entziffern von verkrümmten Buchstaben. Durch die immer weiter verbesserten Fähigkeiten der Computerprogramme auf diesen Gebieten, wird es für die Entwickler der HIPs immer anspruchsvoller eine ausreichende Sicherheit zu garantieren. Daraus resultiert ein Zielkonflikt zwischen der Sicherheit und Gebrauchstauglichkeit der HIPs. Da die Sicherheit garantiert werden muss, leidet die Gebrauchstauglichkeit und die Benutzer sind oftmals nicht in der Lage das HIP zu lösen. Dies führte bereits in der Vergangenheit zu einer Abneigung gegenüber diesen Systemen.
In dieser Arbeit wurde überprüft ob diese Abneigung durch die Verwendung von Gamifizierung, also Spielelementen, in einem neu entwickelten HIP verringert werden kann. Zusätzlich sollte geprüft werden, ob anstelle der Tastatur die Sensoren mobiler Endgeräte als Eingabe-medium dienen können.
Dazu wurde durch eine Analyse von durchgeführten Angriffen auf bestehende HIPs sowie Studien zur Gebrauchs-tauglichkeit derselben ein Rahmenwerk erstellt. Dieses Rahmenwerk definiert Anforderungen, die ein sicheres und zugleich benutzerfreundliches HIP erfüllen muss. Anhand dieser Anforderungen wurde ein neues spielbasiertes HIP in Form eines Kugellabyrinths auf Basis von JavaScript und HTML5 implementiert. Der Benutzer muss durch die Neigung des Geräts eine Kugel steuern und diese innerhalb der vorge-gebenen Zeit in das Loch lenken. Die Gebrauchstauglichkeit dieses HIPs konnte durch eine Onlineumfrage bestätigt werden. Dies gilt jedoch nicht für die Sicherheit, welche durch den lesbaren Quellcode stark beeinträchtigt wird. Für diese Schwach-stelle konnte eine Lösung in Form einer Browsererweiterung durch eine Public-Key-Signatur konzipiert werden. Durch diese Erweiterung könnte auf den Einsatz von HIPs in vielen Bereichen verzichtet und andere Webanwendungen sicherer gestaltet werden.
Aufgrund der voranschreitenden Digitalisierung sind neue Geschäftsmodelle entstanden, wozu unter anderem der Online-Handel (Electronic Commerce, E-Commerce) gehört. Dieser bietet Flexibilität beim Einkaufen, die verschiedenen Benutzergruppen zugutekommt. Dazu gehören auch Personen mit einer Sehbehinderung oder Erblindung. Allerdings existieren noch einige Hindernisse bzw. Barrieren im Online-Handel, die zu einer negativen Benutzerfreundlichkeit (User Experience, UX) und einer Benachteiligung der genannten Benutzergruppe führen.
Das Ziel der vorliegenden Arbeit ist daher die Untersuchung der digitalen Inklusion von sehbehinderten und blinden Personen im E-Commerce. Anhand einer ausführlichen Literaturrecherche und 16 halbstrukturierten Interviews mit der Zielgruppe wurden bestehende Barrieren im E-Commerce sowie Verbesserungsmöglichkeiten zur Schaffung eines barrierefreien Online-Handels gesammelt. Durch die Analyse eines Fallbeispiels wurden negative Implementierungen veranschaulicht und anhand der zuvor gesammelten Erkenntnisse beseitigt. Dadurch wurde aufgezeigt, wie ein barrierefreies User-Experience-Design für sehbehinderte und blinde Personen im E-Commerce geschaffen werden kann.
In der Arbeit stellte sich heraus, dass viele vorhandene Barrieren im E-Commerce erst durch die Interviews identifiziert werden konnten. Dadurch zeigt sich, dass eine Auseinandersetzung mit der Zielgruppe und eine Einbindung dieser in die Gestaltung und Evaluation von hoher Relevanz ist. Dies gewährleistet, dass Barrieren vermieden oder rechtzeitig entdeckt werden können und das System, Produkt oder die Dienstleistung den Anforderungen der Zielgruppe entspricht. Die Arbeit stellt somit ein erstes Konzept zur Schaffung eines barrierefreien UX-Designs im E-Commerce da. Um die Qualität der Ergebnisse je- doch überprüfen zu können, sind weitere Forschungen notwendig, die sich mit weiteren Benutzerbefragungen und Evaluationen der Verbesserungsmöglichkeiten beschäftigen.
Die Kritik an der Arbeitsweise der öffentlichen Verwaltung nimmt in den letzten Jahren immer mehr zu. Davon betroffen sind auch die Bibliotheken als kulturelle Einrichtungen der Städte und Gemeinden. Bei steigenden Ausgaben und zunehmenden Haushaltskürzungen werden die erbrachten Leistungen immer geringer. Gefordert wird von ihnen jedoch verstärkt wirtschaftliches Arbeiten und ein effektiver sowie effizienter Mitteleinsatz. In Frage kommt dafür auch eine Rechtsformänderung der Bibliothek in eine GmbH, d. h. "die Finanzierung und Trägerschaft bleiben öffentlich, die Bibliothek bekommt aber eine weitergehende (...) Selbständigkeit. So werden die Verantwortlichkeit und auch ein gewisses Risiko in die Einrichtung verlagert, die damit dann nach unternehmerischem Ansatz geführt werden soll." In Gütersloh und Schriesheim wurde für die dortigen Bibliotheken diese genannte Möglichkeit ausgewählt. Beide werden in der Rechtsform GmbH geführt, wobei die Städte nicht alleinige Gesellschafter sind. Diese Arbeit wird, nach einer genaueren Definition der Rechtsform GmbH und deren rechtliche Bestimmungen, beide Bibliotheken vorstellen, die getroffenen Regelungen bzw. Verträge, und die sich daraus ergebenden Vor- und Nachteile aufzählen und erörtern. Am Ende soll noch auf die Fragen eingegangen werden, ob diese Rechtsformänderung eine denkbare Alternative für weitere Bibliotheken darstellen kann, und welche Gesellschafter Interesse an der Beteiligung an einer Bibliothek haben können.
Due to its location at the south-west coast of Ireland County (Co.) Cork is frequently affected by post tropical cyclones (PTCs). There have been several records of these post hurricanes in the past with the last severe PTC being Hurricane Ophelia in 2017. It caused severe disruption in the whole country, especially in Co. Cork with several thousand people without water, power and mobile service for up to 10 days and thousands of uprooted trees which blocked roads. PTCs, like Ophelia, will become more frequent under climate change conditions due to warmer sea surface temperatures and decreased vertical wind shear. Hence, hurricanes can reach northern latitudes more easily and have a higher chance of making landfall in Co. Cork. This thesis assesses the risk perception towards natural hazards (NHs) and the perception of the risk communication of hurricane Ophelia by the citizens of Co. Cork and suggests improvements in communication based on the people’s perception. This was achieved by conducting a standardised survey to analyse the perception. The risk communication chain, its content and media involved were evaluated with interviews with professionals involved in risk management in Ireland. Improvement suggestions were extracted of the survey and the expert interviews as well and have been ranked by the participating experts according to their importance. The people of Co. Cork are not overly concerned about being affected by NHs. The three hazards they feel threatened by most, after Ophelia hit the country, are storms, river floodings and hurricanes. Before Ophelia made landfall, they only ranked hurricanes in the 8th place (out of 8). Ergo, after experiencing Ophelia people are much more aware of hurricane risk in Ireland. People were very satisfied with the information they received during Ophelia. The improvements they wished for are: 1) information on how to deal with and how to prepare for impacts of the storm, 2) the impacts that can be expected locally and 3) information where to go to in case of severe impact to property. These are mostly in line with the improvements the experts ranked as most important for Cork. Experts voted the suggestion to include information on behavioural advice into risk communication before the NH hits and advice on how to organise for impacts afterwards as their number one priority. Their second rank is to have education and training for the citizens in Cork. On third place they voted for a change to impact forecasting. Even there are no central buildings or shelters available in Co. Cork, this improvement suggestion was only voted on rank 13 by the experts (out of 14). Having a participatory approach in risk communication can overcome the discrepancies between the wishes of the population and the ones of the experts and would lead to a better understanding of all stakeholders involved in risk communication and can reduce vulnerability of the people in Co. Cork to the impacts of NHs. The implementation of these activities would be in line with best practice examples and would support the guidelines of the Irish Framework for Major Emergency Management.
In der Diplomarbeit wird dargestellt, wie von der rechtsextremen Szene die ersten Kontakte zu Jugendlichen hergestellt werden. Sie gliedert sich in zwei Teile: im theoretsichen Teil wird auf Grundlage wissenschaftlicher Erkenntnisse und Statistiken die Begrifflichkeit, die Gesetzesgrundlage, der historische Rückblick sowie die Rechtsextremismusdiskussion im Erftkreis dargestellt. Im nachfolgenden praktischen Teil wird am Beispiel von Interviews mit einigen Jugendlichen und Experten des Erftkreises dokumentiert, wie die Berührungen mit der rechtsextremen Szene entstehen und welche Auswirkungen diese für die Jugendlichen haben können.
Dargestellt wird ein Konzept für eine lokale Kooperation kleiner öffentlicher Bibliotheken verschiedener Träger mit einem gemeinsamen WWW-OPAC. Das Konzept wird für eine verbundweite Recherche mit systematischer Sacherschließung durch eine Konkordanzklassifikation, für die Organisation eines lokalen Leihverkehrs und für die Organisation einer teilweise koordinierten Erwerbung entwickelt. Den Rahmen bilden die Funktionen und Leitbilder dieser Bibliotheken und mögliche Modelle für eine Kooperationsarchitektur, für die Software auf dem Markt angeboten wird.
Das Ziel dieser Arbeit ist, eine Digitalkamera farblich zu korrigieren und die Korrektur in ein ICC-Kameraprofil zu übertragen. Dazu werden verschiedene Modelle entwickelt, in denen die Farbdaten der Kamera im XYZ, Yxy und Lab Farbraum mathematisch an die Werte einer Referenz approximiert werden. Die Algorithmen der Korrekturfunktion werden anschließend in ein LUT basiertes ICC-Profil übertragen, um die Farbkorrektur in der Praxis anwenden zu können.
Die Digitalisierung hat Auswirkung auf die Entwicklung von Produkten. Die Teams werden agiler, die Kunden haben als Eigentümer eines Produktes Mitspracherecht und bestimmen gemeinsamen mit den Entwicklern, welche Features als Nächstes aus dem vordefinierten Backlog in dem nächsten Sprint als Inkrement eingebaut und ausgeliefert werden. Durch die enge Zusammenarbeit werden die Release-Zyklen eines Produktes kürzer und es werden mehr Features als in der Vergangenheit bei nicht agilen Methoden deployt. Durch die kurzen Release-Zyklen werden viele unterschiedlichen Versionen ausgerollt. Dies hat zur Folge, dass Fehler, die vorher durch das Testen nicht entdeckt worden sind, auf einer produktiven Umgebung ausgerollt werden. Hat der Fehler eine starke Auswirkung auf die Benutzung der Anwendung, dann besteht die Möglichkeit, die Änderung manuell durchzuführen. Diese muss beim nächsten Release eingebaut werden. Wenn die Release-Zyklen länger werden, birgt es die Gefahr, dass viele manuelle Änderungen in der Zeit entstehen. Der ausgerollte Zustand entspricht nach einer bestimmten Zeit nicht mehr dem eingecheckten Zustand im Git-Repository. An der Stelle bietet der GitOps-Ansatz eine mögliche Abhilfe, um den ausgerollten Ist-Zustand durch regelmäßiges Pullen so nah wie möglich an dem im Repository eingecheckten Soll-Zustand zu halten.
Die gleichzeitige Auswertung zweier räumlich versetzter Bilder dient dem Erfassen der dritten Dimension. Wie auch der Mensch nur mit zwei Augen räumliche Tiefe wahrnehmen kann, kann nur mit zwei oder mehr Stereobildern eine Tiefenschätzung möglich werden. Dabei muss einem Objekt in einem Bild das entsprechende Objekt im zweiten Bild zugeordnet werden. Da viele Pixel ähnliche Farb- und Helligkeitswerte haben können oder sich die Farbtöne desselben Objektpunkts durch Schatteneffekte voneinander unterscheiden oder verdeckt werden, ist das so genannte "Korrespondenzproblem" nicht einfach zu lösen. Laut einem Bericht von Szeliski und Zabih ist der Stand der Dinge bezüglich der Evaluation von Stereomethoden ziemlich dürftig, obwohl eine große Zahl von Algorithmen und Berichten veröffentlicht worden ist. Die meisten Berichte geben jedoch keine Auskunft über quantitative Vergleiche, und wenn, dann beschränken sie sich meist auf synthetische Bilder. Über die Erstellung und Auswertung von Stereobildern wird kaum berichtet. Stereo Matching ist ein Bereich der Computer Vision, welche ein Teilgebiet der Informatik bezeichnet, das sich mit der Extraktion von Informationen aus Bildern oder Videosequenzen beschäftigt. Die Werkzeuge der Computer Vision stammen meist aus der Mathematik, insbesondere aus der Geometrie, linearer Algebra, Statistik, Optimierung und Funktionsanalysis. Diese Werkzeuge werden in Algorithmen zur Segmentierung und Klassifizierung angewandt. Ziel des Stereo Matching ist die Zuordnung zweier Stereobilder zueinander mit dem Ergebnis einer dichten Tiefenkarte. In diesem Bild werden die in den Stereoaufnahmen vorhandenen Objekte in verschiedenen Grautönen wiedergegeben, wobei ein dunkler Ton einen großen Abstand zur Kamera bedeutet, ein heller Ton einen geringen Abstand. Aus den Helligkeiten können die Entfernungen berechnet werden. Der Begriff der dichten ("dense") Tiefenkarte bedeutet in diesem Zusammenhang, dass die Tiefenkarte ein System voller Werte und mit so wenig Elementen ohne Information ist, dass sie behandelt werden kann, als hätte sie keine solchen Elemente. Somit kann jedem Bildpunkt eine Disparität zugeordnet werden. Das Korrespondenzproblem muss also für jedes Pixel des Referenzbildes gelöst werden. Dafür ist ein Ähnlichkeitsmaß nötig, welches überall im Bild angewandt werden kann. Im Gegensatz dazu enthält eine "sparse" Tiefenkarte nur an relevanten Stellen wie Kanten Informationen. Einige aktuelle Stereoverfahren sollen in dieser Arbeit mit selbst aufgenommenen Stereobildern getestet und bewertet werden.
Die Erschließung von Bildern ist eine Aufgabe, die sich aufgrund der speziellen Eigenschaften des Mediums Bild von der Texterschließung deutlich unterscheidet. In Museen, Archiven, Hochschulen und anderen Einrichtungen werden Bildsammlungen schon länger katalogisiert. Viele Sammlungen bleiben jedoch unerschlossen, da es für die Praxis der Bilderschließung noch immer an passend zugeschnittenen Erschließungsinstrumenten und Erschließungsmethoden mangelt. Es existieren keine allgemeingültigen Standards, auch deshalb, weil die zu verzeichnenden Sammlungen vielen verschiedenen Instituten unterschiedlicher Wissenschaftsfächer angehören und sie dort unterschiedlichen Zwecken dienen. Diese Arbeit beginnt mit einer Einführung zur Kommunikationstheorie, um damit das Bewusstsein für die Komplexität der von Bildern vermittelten, visuellen Informationen zu schärfen. Anschließend werden Sammlungsprofile von Bildsammlungen untersucht, bevor im einzelnen auf die Theorie der Formal- und Inhaltserschließung von Bildern, sowie auf deren Retrieval eingegangen wird. Dabei werden verschiedene Erschließungsinstrumente und -methoden, jeweils unter Einbindung von Beispielen, vorgestellt und ihre Anwendbarkeit für die Bilderschließung beurteilt.
Datenbanken kommen beim Einstieg von Unternehmen in das Inter- oder Intranet eine besondere Bedeutung zu, denn dort sind für den Mitarbeiter bzw. für den Kunden wichtige Informationen vorhanden: Kundenverzeichnisse, Warenwirtschafts- systeme, Rohdaten für Marketinganalysen, Produktkataloge etc. Die einheitliche Einbettung, d.h. Veröffentlichung, dieser Daten war bislang aufgrund der Heterogenität der Betriebssysteme, Datenbanksysteme und der Anwendungen, die mit ihnen arbeiten, oftmals zu aufwendig. Ziel zur Effizienzsteigerung und Wirtschaftlichkeit sollte es jedoch sein, daß alle Mitarbeiter jederzeit Zugriff auf alle Informationen haben, die sie für ihre Aufgaben benötigen, ohne ihren Arbeitsplatz verlassen zu müssen. Dank des World Wide Webs (WWW) und Java ist eine einheitliche Wahl des Betriebssystems heute nicht mehr zwingend, da WWW und Java Anwendungen ermöglichen, die auf beliebigen Rechnern lauffähig sind. Somit lassen sich Informationen im Inter- oder Intranet überall darstellen. Auf der anderen Seite des Informationskanals stehen verschiedenste Arten von Datenbankmanagementsystemen (DBMS), die die benötigten Informationen bereithalten. Dies sind vor allem Adabas, DB2, Informix, MS SQL-Server, Oracle, Sybase, sowie einige kleinere Systeme. Um die Lücke von der Informationsbereithaltung bis hin zur Informations- darstellung zu schließen, hat Sun Microsystems einen Standard definiert, der es Java-Programmen ermöglicht, über das Inter- bzw. Intranet auf relationale DBMS zugreifen zu können. Dieser Standard wird als JDBC (Java Database Connectivity) bezeichet. Hierdurch werden dem Programmierer Klassen, Interfaces und Methoden zur Verfügung gestellt, die ihm den Informationszugriff über das Netz hinweg ermöglichen sollen.
Sponsoring in Bibliotheken
(1998)
Durch die schlechte finanzielle Situation der öffentlichen Haushalte gewinnt in Deutschland die aktive Beschaffung von zusätzlichen Mittel für kulturelle Einrichtungen zunehmend an Bedeutung. Auch für Bibliotheken wird das Thema Sponsoring immer aktueller. Die Erfolge, die im Sportsponsoring erzielt werden und die zunehmende Bedeutung von Sponsoring in Museen, Theatern oder bei der Organisation von Musikfestivals wirft immer wieder die Frage auf, ob bestimmte Aktivitäten in Bibliotheken nicht über private Akteure finanziert werden können. Sponsoring in Bibliotheken ist mit vielen Schwierigkeiten verbunden. In kontroversen Diskussionen werden oft moralische Bedenken geäußert, die sich vor allem in der Sorge um die wirtschaftliche, politische und kulturelle Unabhängigkeit der Einrichtungen begründen. Die Befürchtung, daß sich die Träger der Einrichtungen ihrer finanziellen Verantwortung entziehen könnten, wenn sich Bibliotheken erfolgreich mit der Beschaffung zusätzlicher Mittel beschäftigen, spielt ebenfalls eine große Rolle. Neben diesen Aspekten stellt sich die Frage, ob Bibliotheken überhaupt die notwendigen fachlichen und personellen Voraussetzungen mitbringen, um Sponsoring professionell und damit erfolgreich in die Bibliotheksarbeit integrieren zu können. Inwieweit sich überhaupt Sponsoren für dieses Aufgabenfeld gewinnen lassen können, wird ebenfalls heftig diskutiert. Trotz dieser Bedenken zwingt die derzeitige Lage Bibliotheken, sich aktiv mit zusätzlichen Finanzierungsquellen auseinanderzusetzen. Diese Arbeit möchte zeigen, unter welchen Voraussetzungen und durch welche konkreten Maßnahmen Sponsoring sowohl für die Bibliothek als auch für Sponsoren erfolgreich sein kann.
Eine gängige Form der Qualitätskontrolle von Quellcode sind Code Reviews. Der Fokus von Code Reviews liegt allerdings oft auf syntaktischer Analyse, wodurch weniger Zeit für eine semantische Überprüfung bleibt und zusätzliche Kosten verursacht werden. Code Reviews lassen sich zwar teilweise durch "Linter" automatisieren, dennoch können sie nur syntaktische Fehlermuster identifizieren, welche vorher definiert wurden. Zudem kann ein Linter nur darauf hinweisen, dass möglicherweise ein Fehler vorliegt, da die Fehler nicht durch logische Inferenz ermittelt werden. Die vorliegende Arbeit prüft, ob ein Deep Learning Modell den regelbasierten Ansatz von Lintern ablösen und die semantische Ebene erschließen kann. Dazu wurde eine Stichprobe von Java Methoden zusammengestellt und im Anschluss mit einem Supervised Learning Ansatz binär klassifiziert. Da die Analyse von Quellcode der Textanalyse stark ähnelt wird ein gängiger Ansatz für Textklassifikation verwendet. Dadurch kann gezeigt werden, dass eine Präzision von 85% bei der Erkennung von Quellcodeproblemen durch Deep Learning möglich ist.
Die Kommunikation via Chat konnte sich in den letzten Jahren neben Kommunikationsmedien wie E-Mail und Telefon in vielen Bereichen des alltäglichen Lebens etablieren. Textbasierter Chat weist jedoch, im Vergleich zu Face-to-Face-Kommunikation, gewisse mediale Einschränkungen auf. Nonverbale Signale wie Gestik und Mimik können, in Ermangelung eines visuellen Kanals, nicht direkt übertragen werden. Trotzdem findet auch im Chat ein Austausch nonverbaler Informationen statt, wie beispielsweise der Einsatz von Emoticons oder Pausen in Gesprächen. Verhaltensweisen bei nonverbaler Kommunikation enthalten Hinweise bezüglich der sozialen Beziehung der Gesprächspartner. Derartige nonverbale Signale können aus Chat-Protokollen extrahiert und analysiert werden. In dieser Arbeit beschäftigen wir uns mit der Analyse nonverbaler Daten aus Chat-Protokollen. Ziel ist die Einschätzung der Stärke einer sozialen Beziehung anhand eines multidimensionalen Analyse-Modells.
Mittelständische Unternehmen erkennen zunehmend die Notwendigkeit einer systematischen Vertriebssteuerung und langfristigen Kundenbindung gerade in der heutigen gesamt- und weltwirtschaftlichen Lage, in der alle Märkte einem harten Konkurrenzdruck unterliegen. Um im aktuell vorliegenden Käufermarkt eine Kundenbindung bzw. –treue zu erlangen, ist die aktive Kundenbetreuung ein absolutes Musskriterium. Genau an diesem Punkt setzt das Customer Relationship Management (CRM) an. Der Kunde rückt zwar in den Mittelpunkt beim CRM, es darf dabei aber nicht die eigene Unternehmung vergessen werden. Der Kerngedanke einer jeden CRM-Lösung ist, die Kosten zu senken sowie den Gewinn der Unternehmung langfristig zu sichern. Um den Kerngedanken zu untermauern, bedient sich eine CRM-Lösung folgender Hilfsmittel, um am Markt eine Steigerung der Wettbewerbsfähigkeit durch eine erhöhte Kundenorientierung zu erlangen: Optimierung der internen Prozessabläufe (auf den Kunden ausgerichtet), Marktpotentialanalyse, automatisches Dokumentenmanagement, Email und CTI-Integration, Besuchplanung, Projektmanagement, verbessertes Service- und Supportangebot sowie ein Termin- und Ressourcenmanagement. Die Einführung einer CRM-Lösung in einem mittelständischen Unternehmen ist ein längerfristiges Projekt. Es reicht nicht aus, eine von den zahlreich vorhandenen CRM-Softwarelösungen zu implementieren, um eine überlebensfähige CRM-Lösung zu besitzen. Eine CRM-Software kann nur so gut sein, wie sich die Unternehmung im Vorfeld eine Strategie und Ziele an ein CRM gesetzt hat. Zusätzlich muss in der gesamten Unternehmung die Begeisterung und Akzeptanz für das CRM geschaffen und aufrecht erhalten werden, da CRM als eine eigenständige Philosophie zu verstehen ist. Nur wenn sich alle Mitarbeiter mit der CRM-Lösung identifizieren und diese aktiv leben, hat die CRM-Lösung Aussicht auf Erfolg.
Mangrove forests have been studied broadly in the recent three decades for their outstanding ability to sequester carbon in the beneath soil and other beneficial ecosystem services. Endeavors to conserve and regenerate mangrove cover are still increasing worldwide as a mechanism to include them in NDCs and carbon markets. Therefore, decision-makers in the private and public sectors require identify possible areas for conservation and restoration prior to blue carbon project investment. Thus, an integral assessment of potential mangrove carbon reservoirs in a landscape scale, considering environmental and socioeconomic factors was performed. This study was aimed to determine areas with the highest blue carbon sequestration potential in the Gulf of Guayaquil through the construction of a Blue Carbon Potential Index (BCPI) based on Spatial Multicriteria Analysis (SMCA). A narrative integrative literature review was employed to select indicators of mangrove carbon sequestration gains and losses. These indicators were pondered following the Analytical Hierarchy Process (AHP) with the judgments of two experts and reclassified in four potential categories based on their thresholds. Since no consensus was achieved in the indicator importance hierarchization, a comparative of equal weighting method and AHP weighting was implemented. The linear combination rule was used to integrate these factors into a unique-scaled index supported by a geographic Information System (GIS). The results showed that 15.82% and 16.21% of the study area belonged to high and moderate potential of blue carbon sequestration respectively. Moreover, no significant differences were found between the two weighting methods applied. The BCPI provides a comprehensive understanding of spatial distribution of blue carbon potential reservoirs and grants a quantification of this potential to prioritize conservation and restoration areas.
Die vorliegende Arbeit behandelt eine Marktuntersuchung der Portraitfotografie in Deutschland und in China. Dazu ist eine Umfrage erforderlich. Da eine repräsentative Befragung Grundgesamtheit „Bevölkerung Deutschlands“ im Rahmen einer Diplomarbeit nicht möglich ist, soll eine Internetumfrage durchführt werden. Hierbei liegt der Schwerpunkt auf der Marktentwicklung und Zukunftchancen der Portraitfotoindustrie in Deutschland.
Diese Arbeit versucht einen umfassenden Überblick über das gesamte luxemburgische Bibliothekswesen zu geben. Bisher kaum erforscht, wurde es meist auf einige spezifische Aspekte hin beleuchtet, jedoch noch nicht auf seine Gesamtentwicklung hin. In Ermangelung einer Universität oder sonstigen wissenschaftlichen Strukturen waren es kirchliche Träger, die die ersten Bibliotheksstrukturen aufbauten, seien es nun wissenschaftliche oder öffentliche. Doch sie wurden wie alle weiteren Bemühungen auch, immer wieder Opfer äußerer Einflüsse, die Luxemburg heimsuchten. Bis in die 1980er Jahre hinein hatten sich keine nennenswerten Systemstrukturen ausgebildet, die von Dauer waren. Heute, im 21. Jahrhundert, deuten sich neue Entwicklungen an, sowohl bei den öffentlichen wie bei wissenschaftlichen Bibliotheken. Die Gründung einer eigenen Universität sowie ein erstes Gesetz für öffentliche Bibliotheken haben vordergründig binnen eines Jahrzehnts enorme Bewegung in das luxemburgische Bibliothekswesen gebracht und Hoffnungen auf eine neue Blütezeit geweckt. Doch intern ist das Bibliothekswesen in Luxemburg so zersplittert wie selten zuvor.
Das Ziel der vorliegenden Masterthesis ist es, einen Überblick der verschiedenen Datenbanktypen und Leistungsanalysen zu geben. Die vergleichende Literaturstudie beschäftigt sich mit einem jungen Forschungsfeld und betrachtet insbesondere nichtrelationale NoSQL-Datenbanken, welche in den letzten Jahren immer beliebter geworden sind und einige Vorteile gegenüber relationalen Datenbanken aufweisen. Doch was können die konkreten Datenbankimplementierungen bei unterschiedliche Datenmodellen leisten und welcher Testaufbau bietet sich bei welchen Einsatzanforderungen an? Zu Anfang definiert diese Arbeit Kriterien zur Bewertung von Leistung und untersucht experimentelle Vorgehensweise verschiedener Forscher. Ein wichtiger Fokus liegt darauf, die Vergleichbarkeit der Messmethoden und Ergebnisse einzuschätzen und zu gewährleisten. Neben dem methodischen Vorgehen wird mit dem YCSB-Framework ein wichtiges Werkzeug besprochen, mit dem Leistungsmessungen in NoSQL-Datenbanken implementiert werden können.
In der vorliegenden Arbeit wird ein softwaregestütztes Verfahren vorgestellt, mit dem untersucht werden kann, wie weit die Dosis in der Mammographie abgesenkt werden kann. Die entwickelte Software analysiert dabei die jeweilige Modalität anhand von Aufnahmen des PAS 1054-Prüfkörpers. Die erfassten Daten werden verwendet, um an vorhandenen Mammogrammen eine Dosisreduktion zu simulieren. Dazu kommen Verfahren der Bildverarbeitung, insbesondere die Wavelet-Transformation zum Einsatz. Durch eine vergleichende Auswertung der simulierten Aufnahmen mit den originalen können Grenzwerte für die diagnostische Tauglichkeit von Aufnahmen mit reduzierter Dosis gewonnen werden.
For most classes of chains, it is known if these contain locks, but especially for fixed-angle equilateral equiangular obtuse open polygonal chains in 3D, which can be used to model protein backbones, this is unknown. Fixed-angle equilateral equiangular obtuse closed and open polygonal chains can be used to model polymers. For these, it is clear, that locks based on knots exist, but not which chains are generally locked. We therefore examine both open and closed fixed-angle equilateral equiangular obtuse chains. For this purpose, those chains are divided into various subgroups and, depending on the subgroup, other aspects are investigated to show locks. Techniques from knot theory, graph theory, and specifically robot arm reachability and motion planning are combined. Algorithms are developed to create chains in desired configurations and to study them. It is shown why all fixed-angle equilateral equiangular obtuse closed chains are expected to be locked or in rare cases rigid and non-locked, but never non-locked and non-rigid. For fixed-angle equilateral equiangular obtuse open chains it is shown why it is expected that there are open chains that are locked and that the smallest locked open chain has 𝑛=7.
Diese Arbeit befasst sich mit der Thematik des Live-Streamings und webbasierter Medien-übertragung. Im Fokus steht in diesem Zusammenhang der Adobe Flash Media Server 3.0 als Streaming-Plattform sowie Adobe Flash CS3 als Entwicklungsumgebung. Neben den theoretischen Grundlagen wird die praktischen Umsetzung in Form einer iTVG-Applikation für einen exemplarischen Anwendungszweck eingehend erläutert. Dabei werden sowohl der technische Hintergrund der Programmierung wie auch die Methoden und Prinzipien des interakti-ven Designs, der Usability, diskutiert und in den Entwicklungsprozess integriert. Die Flash-Media Applikation wird abschließend einer kritischen Betrachtung unterzogen, um mögliche Fehlerquellen sowie weitere Entwicklungspotentiale aufzuzeigen.
In 2015, the adoption of the 2030 Agenda for Sustainable Development, including the 17 Sustainable Development Goals (SDGs), and the Paris Agreement provided a basis for considerable optimism for the fight against climate change and efforts to promote sustainable development, but their implementation remains an enormous challenge. Finance, in turn, plays a key role in implementation. This thesis thus seeks to provide new insights into the challenge of implementing the Paris Agreement and the 2030 Agenda by examining pertinent financial flows while taking into considering that making use of thematic overlaps between these two agendas can help to leverage synergies, especially if financial flows take adequate account of these overlaps. Since energy plays an essential role in both the goals of the Paris Agreement and the 2030 Agenda (in SDG 7 and beyond it), this thesis focuses on countries’ energy-related national commitments. Against this background, this thesis investigates the question which role energy plays in the Nationally Determined Contributions (NDCs) under the Paris Agreement and to what extent climate finance is considered in the context of the energy system transition. The key finding is that financial flow for renewable energy and energy efficiency improves globally with an unchanged track of non-renewable energy in the post-NDC period.
Water is an eminently important element for societal development. It must be available in sufficient quantity and quality to meet human requirements of consumption, food production and sanitation. The riverine ecosystems are increasingly deteriorated due to human interventions. This leads to changes in the natural flow patterns. The concept of environmental flow started to emerge. Due to the importance of environmental flow in the integrated river basin management, researchers and scientists worldwide have made great efforts towards assessing the environmental flow requirements in river ecosystems. Various tools and techniques were defined. Governmental authorities and water ministries (all over the world including Egypt) have introduced regulations and policies to assure the vitality of environmental flow in river management and water allocation too.
Although different methods are available for the environmental flow assessment, those techniques are not practically applied. Implementing the environmental flow in real world is a challenge, due to the lack of political will and the stakeholder support, the institutional barriers and conflicts of interest, and finally the insufficient resources and capacity in environmental management institutions. It is a multidisciplinary and intersectoral process.
The present study aims to report the importance of environmental flow regarding the inhabitants’ daily life as well as the overall Egyptian socio-economic, political and health status. It demonstrates the methods of applying the Environmental flow concept in Egypt with a focus on social and political aspects, detailing the current situation in Egypt, and clarifying the obstacles that face the implementation process. The data was collected via local people questionnaires, stakeholders’ interviews and field visits. The study proposes solutions to evade the environmental flow implementation obstacles and overcome current challenges. Moreover, the study predicts future issues and offers solutions to avoid their occurrence.
Für Bibliothekare als Informationsspezialisten ist es essentiell, auf dem neuesten Stand der Entwicklungen zu bleiben und sich aus aktuellsten Quellen zu informieren und weiterzubilden. Aber auch die Vernetzung und der Austausch mit anderen fachkundigen Personen sind von Bedeutung. Ein Medium, das beide Aspekte vereint – eine aktuelle Informations- und Weiterbildungsquelle sowie die Möglichkeit der Vernetzung und des Austauschs – stellt das Weblog von und für Bibliothekare dar. In Deutschland besteht ein ausdifferenziertes Angebot bibliothekarischer Weblogs. Zentrale Fragestellung dieser Arbeit ist, ob und in welchem Maße dieses Angebot von deutschen Bibliothekaren angenommen und genutzt, das heißt rezipiert, wird. Dazu wird eine Online-Umfrage durchgeführt, welche über Mailinglisten und einige deutsche bibliothekarische Weblogs verbreitet wird. Zunächst wird das Weblog näher vorgestellt, danach folgt eine Darstellung des Hauptgegenstands dieser Arbeit – dem Fachblog und dessen aktueller Situation im bibliothekarischen Bereich in Deutschland. Nach der Vorstellung der deutschen Bibliobloglandschaft folgt eine Beschreibung des US-amerikanischen Stands von bibliothekarischen Fachblogs um im nächsten Schritt die deutsche mit der US-amerikanischen Situation zu vergleichen. Im weiteren Verlauf werden die Vorgehensweise der Online-Befragung sowie deren Auswertung und die Analyse der Auswertungsergebnisse behandelt. Eine Zusammenfassung der Ergebnisse mit Empfehlungen führt zum Abschluss der Arbeit.
Untersuchung des Potentials Neuronaler Netze für Regelungsprozesse am Beispiel eines Betonverteilers
(2018)
Ziel der Arbeit ist die Entwicklung eines Ansatzes zur Nutzung Neuronaler Netze für die Steuerung eines Betonverteilers. Nach der Erläuterung der Grundlagen Neurona-ler Netze wird ein Netz entworfen und ein Test anhand realistischer Testdaten durch-geführt. Nach einer ausführlichen Beschreibung des Umfelds des Anwendungsfalls (Betonverteiler), sowie der Grundlagen Neuronaler Netze, ihrer Lernverfahren und ihrer Einsatzmöglichkeiten in der Regelungstechnik erfolgt der Entwurf eines Ansatzes zur Konstruktion eines Netzes für den Betonverteiler als Anwendungsfall sowie die Beschreibung der Implementation von Simulationsmodell und neuronalem Netz.
Entwicklung einer Suchmaschine unter Verwendung von Oracle 9iAS Portal und Oracle interMedia Text
(2002)
Für effizient geführte Unternehmen ist ein schnelles Zugreifen auf eigene Informationen über Intra- und Internet ohne Frage überlebenswichtig. Viele Firmen haben mit großem Aufwand Text-Dokumente innerhalb von Datenbanken strukturiert abgelegt. Diese Dokumente sind aber oft nur ein kleiner Bruchteil der im Betrieb anfallenden Dokumente. Internet-Seiten, E-mails, Faxe und viele andere Dokumente bleiben außen vor. Teilweise sind die in Datenbanken abgelegte Dokumente auch statisch, sie werden nicht oder nur aufwendig aktualisiert. Mitarbeiter und Öffentlichkeit müssen aber raschen Zugriff auf aktuelle und für Sie abgestimmte Informationen haben. Mitarbeiter sollten die Möglichkeit haben, Dokumente zu bearbeiten und eigene Dokumente für andere Mitarbeiter zur Verfügung zu stellen. Zudem sollte die Öffentlichkeit speziell für Sie aufbereitete Informationen über das Internet erhalten können. Der Zugriff auf unterschiedliche dynamische Dokumente geschieht idealerweise über einen gemeinsamen Gateway und ist plattformunabhängig. Diese Bereitstellung dynamischer Informationen stellt für den Betrieb einen großen Kostenvorteil dar. Ein Werkzeug, das diesen Ansatz verfolgt ist Oracle Portal. Alle Dokumente eines Betriebes werden in einer Oracle-Datenbank browserbasiert verwaltet. Es wird den Mitarbeitern eine einheitliche Oberfläche zur Verfügung gestellt über die sie weltweiten Zugriff auf die Dokumente haben. Eine produktive globale Verflechtung der Informationen wird möglich.
Die Lapped Hartley Transformation (LHT) ist eine neue reelwertige Transformation zweidimensionaler Bilddaten unter Verwendung überlappender Basisfunktionen. In dieser Arbeit wird ihr Einsatz als Alternative zur diskreten Kosinustransformation (DCT) für die Bildkompression nach dem JPEG-Verfahren untersucht. Die LHT wird hierzu an verschiedenen Bildbeispielen mit anderen Transformationen (DCT, MLT, LDT) quantitativ und visuell verglichen. Außerdem wird die Korreletion der Koeffizienten untersucht. Hierbei kommen die frei verfügbare Bildverarbeitungssoftware ImageJ und bereits vorhandene Java-basierte Implementierungen der untersuchten Kompressionsverfahren zum Einsatz.
The objective of this study was to evaluate at the local level in two municipalities of the Northwest Region of Rio de Janeiro State, the perception of smallholder farmers to climate change. Also, part of the study was to identify their measures to adapt, that include the preservation and mitigation of impacts on the regulating and provisioning soil ecosystem services, and their coping capacities to extended drought periods.
Usage of smart home solutions implies generation, processing, and storage of machine and personal data. Recently made public cases of data breaches and misuse increased peoples’ concerns of data security and decreased the trust in secure data handling and smart home technologies. Hence potential benefits are not exploited. It is therefore necessary to analyse how manufacturers can increase their online trust perception.
Requirements of (potential) customers of web based services for HVAC systems are identified using thematic analysis for 23 conducted interviews using online trust perception literature as basis. Manufacturer independent websites are derived as the most important online touch point for customers with manufacturers and products. Determined content and structure measures for online touch points managed by manufacturers derived to positively influence the manufacturer and manufacturer independent touch points regarding perception of trust. The derived trust concept must be evaluated in the following using the defined evaluation plan.
The topic for the thesis originated from the CAP4ACCESS project run by the European Commission and its partners, which deals towards the sensiti-zation of people and development of tools for awareness about people with movement disabilities. The explorative analysis is never ending and to explore and find interest-ing patterns and the results is a tedious task. Therefore, a scientific approach was very important. To start with, familiarizing the domain and the data sources were done. Thereafter, selection of methodology for data analysis was done which resulted in the use of CRISP-DM methodology. The data sources are the source of blood to the analysis methodology, and as there were two sources of data that is MICROM and OSM Wheelchair History(OWH), it was important to integrate them together to extract relevant datasets. Therefore a functional and technically impure data warehouse was created, from which the datasets are extracted and analysed.The next task was to select appropriate tools for analysis. This task was very important as the data set although was not big data but con-tained a large number of rows. After careful analysis, Apache spark and its machine learning library were utilized for building and testing supervised models. DataFrame API for Python, Pandas, the machine learning library Sci-kit learn provided unsupervised algorithms for analysis, the association rule analysis was performed using WEKA. Tableau[21] and Matplotlib[24] provide attractive visualizations for representation and analysis.
The ‘Energy Crisis’ has become the talk of the town in pretty much every developing and lower developing countries in today’s world. It is characterized by a state where the country’s locally available energy resources are being depleted and it is dependent on imported fuel. The problem is considered as although not parallel, but a descendant of the food crisis in terms of the seriousness of the problems in developing nations essentially in Sub-Saharan Africa (SSA). Ethiopia is one such country which nevertheless going through a rapid scale of development (nearly 11 % annual growth rate as of 2017 according to the World Bank) and also is endowed with an enormous amount of natural resources such as hydro, wind, solar, geothermal energy potential. The Ethiopian power sector is heavily dependent on the country’s hydropower resources. However, it needs to diversify its energy sector and integrate new and other renewable energy sources because, in the longer term, its extreme hydropower dependence may put its power sector vulnerable to natural risks like droughts which are very likely scenarios due to the climate change. Since the lack of access to modern forms of energy services left no choice for the Ethiopians than to continue their traditional biomass use, and it results in unsustainable environmental harm with deforestation, soil erosion, and many others. To address this issue, Ethiopia is taking necessary steps towards climate-friendly industrialization of the economy.
In order to understand this transition, a socio-technical analysis of Ethiopian ambitious transformation from an agrarian society to a climate resilient green society has been presented in this paper. An analytical framework will be formulated as a prerequisite for the study by introducing the theory of Multilevel Perspective (MLP). This theory enables the understanding of three different levels of socio-technical environment namely niches, regime, and landscape in which the respective actors interact with each other to facilitate the process of transition. As a part of laying the groundwork, this thorough analysis constitutes all the country’s energy-related activities and associated energy demands, conversion technologies, current fuel mix, primary energy resources, and energy policies in the Ethiopian energy system. The LEAP analysis results from Mr. Md Alam Mondal and group are summarized to obtain an understanding of the country’s total energy demand scenarios.
Consequently, the actors from each socio-technical level have been identified in the context of Ethiopia and their dynamics of interaction have been explained in order to understand the process of energy system transition of Ethiopia in the direction of diversification of its energy system and hence result in the expansion of new renewable energy sector. Most importantly the assessment suggests that the transition process is majorly driven by top-down forces and intra-level reconfiguration of regime actors. There are no bottom-up forces acting as only a little research and development work takes place in the country to develop new radical changes/technological niches. A developing country like Ethiopia has undoubtedly a bright future ahead with all systems in place and the nature-gifted natural resource potential. The ambitious goals set by the country and the international help from developed allies are definitely working in tandem to ensure their accomplishment. With its guiding vision towards development and the global climate change movement, Ethiopia surely has the potential to lead by example.
Die Entwicklung in Technik und Elektronik ermöglicht es, medizinische Bilder in elektronischer Form zu speichern, zu verarbeiten und darzustellen. Der Austausch von Patientendaten wird vereinfacht und der Informationstransfer beschleunigt. Diagnose und Befundungen über Netzwerke sind möglich und eröffnen neue Möglichkeiten in der medizinischen Kommunikation. Für die Gewährleistung der Wiedergabekonstanz von Bildwiedergabesystemen wie CRT- und LCD-Monitore sind Richtlinien notwendig, die messbare Parameter definieren.
In dieser Arbeit wird beschrieben wie verschiedene Messwerte in Prüfkörperaufnahmen nach PAS 1054 unter zu Hilfenahme von ImageJ bestimmt werden. Desweiteren wird über tabellarische und graphische Darstellung der ermittelten Daten und deren Export in für andere Programme lesbare Formate geschrieben. Im weiteren werden auf Methoden zur Glättung der Messwerte beschrieben. Die Umsetzung der Methoden in das bestehende Software Framework Optimage und dessen Aufbau wird zum besseren Verständnis erläutert. Die gesamte Umsetzung erfolgte in der objektorientierten Programmiersprache Java.
With a rapidly growing population and urbanization, most modern slums (favelas) also proliferated in Brazil since the 1950s when many people left rural areas of Brazil and moved into the cities. Rio de Janeiro is one of those cities having a vast amount of favelas with poor living conditions. One of the main problems of electricity supply in favelas is illegal electricity use, called ‘Gato’ in Portuguese. Recent unexpected severe drought, economic crisis, and rapidly increased electricity price in Brazil affected the reliable supply of affordable electricity in favelas.
Considering abundant solar radiation of the country and the government’s willingness trying to shift the framework of energy supply from hydropower to renewable energy, this study analyzes the solar PV potentials to ensure a reliable supply of affordable electricity in favelas in Rio de Janeiro.
Literature reviews regarding solar PV development in Brazil, energy policy analysis in Brazil and electricity issues in favelas are revised. As a case study, the chosen favela ‘Babilônia’ is presented. The survey analysis about electricity consumption situation with social dimension targeting residences in Babilônia is implemented. Lastly, through economic analyses with cost-benefit calculation such as Internal Rate of Return (IRR), Net Present Value (NPV), Discounted Cash Flow, Payback period, Capital Asset Pricing Model (CAPM) and Weighted-Average Cost of Capital (WACC) models, this study develops the possible financing alternatives to implement a solar PV project with different scenario analyses in the current solar PV market and solar energy policy of Brazil.
The results of this study can be used as an aid to comprehend the electricity supply issue of the most vulnerable class in Brazil and the solar PV as a solution.
Grundlegend wird in dieser Masterarbeit der Frage nachgegangen, welche Anspruchsvoraussetzungen Versicherte nach der Integration des Gesetzes zur Verbesserung der Hospiz- und Palliativversorgung (HPG) erfüllen müssen, um eine Palliativversorgung zu erhalten. Über die definitorische Unschärfe des Beginns und weiteren Verlaufs des Sterbens werden das Risiko der Ungleichbehandlung aufgezeigt und die Konsequenzen für die Soziale Arbeit abgeleitet.
Die fortschreitende Verbreitung drahtloser Kommunikationsnetze sowie immer leistungsfähigerer mobiler Computer schafft ein großes Potenzial für ein breites Spektrum innovativer Anwendungen. Kontextsensitive Applikationen adaptieren die Gegebenheiten der jeweiligen Situation des Nutzers, wodurch neuartige, intelligente Anwendungen und Benutzungsschnittstellen möglich werden. Die zunehmende Menge verfügbarer Sensortechniken und die daraus resultierende Vielfalt erfassbarer Kontextinformationen erschweren jedoch vermehrt die Verbreitung dieser Applikationen. Ein Rahmenwerk zur Kontextrepräsentation soll die Entwicklung kontextsensitiver Applikationen ohne Berücksichtigung von Details der Kontexterfassung und -verwaltung ermöglichen. Außerdem sollen Austausch und Wiederverwendbarkeit von Kontextinformationen zwischen Applikationen und Nutzern gestattet werden. In dieser Arbeit wird ein solches Rahmenwerk entwickelt. Zu Beginn steht die Untersuchung von Fragen der Kontextmodellierung, auf deren Grundlage anschließend eine Konzeption erarbeitet wird. Der praktische Teil der Arbeit führt eine Referenzimplementation des Systems durch um zu evaluieren, ob die Konzeption auf Basis aktueller Technologien in die Realität umgesetzt, und als Grundlage für weitere Untersuchungen herangezogen werden kann.
Die Diplomarbeit “Entwicklung von automatischen Installationsroutinen von Services auf Basis von JavaEE” beschreibt den Entwurf und die Entwicklung eines Prototypen, um Services automatisiert auf einem JavaEE- Applikationsserver zu installieren. Zu Beginn werden die Konzepte eines JavaEE-Applikationsservers und der manuelle Installationsvorgang von Services auf diesem erläutert, die bei dem Installationsvorgang auftretenden Probleme dargelegt und analysiert. Im Anschluss daran werden mehrere verfügbare Produkte und eine Eigenentwicklung gegenübergestellt und bewertet. Abschließend werden Problemlösungen für den Installationsprozess erläutert sowie die Implementierung eines Prototypen beschrieben.
In dieser Arbeit wird ein Vorgehensmodell entwickelt um eine Taxonomie für Spielmechaniken aufzubauen. Hierfür werden zwei Vorgehensmodelle miteinander verbunden: eines, das die Extraktion von Spielmechaniken aus Gesellschaftsspielen in verschiedenen Strategien ermöglicht sowie ein weiteres, das ein standardisiertes Vorgehen beschreibt, wie eine Taxonomie aufgebaut werden kann.
Innerhalb des Vorgehensmodell zum Taxonomieaufbau werden die Strategien zur Extraktion von Spielmechaniken zum Aufbau des Domänenverständnisses genutzt. Davon ausgehend werden Kategorien abstrahiert, welche im Nachgang verfeinert und zueinander in Bezug gesetzt werden. Anschließend werden die zusätzlich extrahierten Spielmechaniken in die neu aufgestellte Struktur anhand der identifizierten Kriterien integriert und auf Kohärenz geprüft.
Zijad Naddaf fragt danach, wie sich Grenzen und die darin eingelagerte Erzählung von Flucht und Migration durch Praktiken und Diskurse formieren. Vor dem Hintergrund der Flüchtlingszuwanderung und mit Bezug auf Foucault werden Gesamtstrategien der Europäischen Union zur ‚Verteidigung ihrer Gesellschaft‘ diskutiert, unter anderem am Beispiel der Grenzbearbeitungsagentur Frontex konkretisiert sowie das Konstrukt der Europäischen Union als Ordnung herstellendes Dispositiv vorgestellt. Mit Bezug auf solche Formierungen werden die Wege der Fliehenden zu einem Kampffeld, in dem sich sowohl die Autonomie von Migration als auch die beständigen und repressiven Weg- und Raummarkierungen zeigen, die sich bis auf das Meer ausdehnen.
Wie in anderen Marktbranchen sind auch die Bibliotheken als Dienstleistungsanbieter im Informationsmarkt mit Fragen des Qualitätsmanagement konfrontiert. Seit Mitte der neunziger Jahre ist ein Zuwachs der themenbezogenen Fachliteratur zu beobachten. Die Gründe für ein solches Interesse kann man in der Entwicklung des Umfeldes der Bibliotheken finden: 1. Im Kampf um Finanzmittel. 2. In der Entwicklung der speziellen Informationsbedarfe ihrer Kunden. 3. Im Wachstum des Wettbewerbs innerhalb der privaten Wirtschaft so wie auch innerhalb der öffentlichen Bereiche, das die Ermittlung von qualitativen Erfolgsfaktoren erfordert. 4. In der Entwicklung der Technik und der infolgedessen benötigten Anpassung der Abläufe der bibliothekarischen Arbeit, 5. In der Verantwortung bei der Informationsvermittlung in der Gesellschaft. In einem solchen Umfeld sind die Bibliotheken bezüglich der Schaffung von Argumenten zur Rechtfertigung ihrer Wettbewerbsfähigkeit und ihrer Bedeutung (aus gesellschaftlicher, wissenschaftlicher, wirtschaftlicher und politischer Perspektive) vor ihren Trägern; bezüglich der öffentlichen Anerkennung und schließlich auch bezüglich der tatsächlichen Erreichung einer exzellenten Leistung (bei der Kundenorientierung, der Optimierung der Geschäftsgänge, der Kooperationsarbeit und der Berücksichtigung der internationalen Standards) weltweit mit der Qualitätsmanagement- und Excellenz-Einführung konfrontiert. In der vorliegenden Arbeit sollen Überlegungen rund um die Einführung eines optimalen Qualitätsmanagements zur Erreichung der Excellenz am Beispiel der Bibliothek des CNIC Carlos III, der Stiftung Nationales Zentrums für die Kardiovaskuläre Forschung, in Madrid (Spanien) dargestellt werden. Diese junge Bibliothek hat sich der Herausforderung gestellt, Excellenz einzuführen. Dafür will sie ein exzellentes Qualitätsmanagement aufbauen. Diese Arbeit versucht die zwei aktuellen Qualitätsmanagementstrategien hinsichtlich ihrer Eignung für ihre Einführung in der Bibliothek des CNIC Carlos III zu untersuchen und sie der Bibliotheksleitung darzustellen. Man könnte sie dann als Beitrag für den ersten Schritt zur Umsetzung einer Philosophie bzw. Strategie eines Qualitätsmanagements in der Bibliothek des CNIC Carlos III verstehen. Diese Arbeit hat eine Praxis-Orientierung; deswegen wurde das Thema hauptsächlich anhand aktueller praxisnaher Literatur, Erfahrungsberichte und Personalgespräche erarbeitet. Darüber hinaus wurden im Hintergrund Grundmerkmale der Bibliothek, des CNIC Carlos III, immer berücksichtigt: Ihre Trägerschaft, ihre Größe, ihr Forschungsfeld und ihr Konzept als digitale Bibliothek.
E-Business im Generellen und E-Government im Speziellen haben in den letzten Jahren immer mehr an Bedeutung gewonnen. Die Transformation der Verwaltungsprozesse auf elektronische Medien birgt eine Vielzahl von Potentialen für alle Beteiligten: Einrichtungen der öffentlichen Verwaltung, Bürger und Unternehmen. Dennoch ist es in den letzten Jahren bei solchen Projekten, insbesondere im A2B-Bereich, also der Kommunikation zwischen Verwaltung und Unternehmen, immer wieder zu Problemen gekommen. Das Ziel der Arbeit ist es deshalb die Erfolgsfaktoren von solchen E-Government-Projekten zu identifizieren.
Hierzu werden zunächst die Grundlagen des E-Business erläutert und die Begrifflichkeiten voneinander abgegrenzt. Insbesondere werden die verschiedenen Kategorien von beteiligten Akteuren, die generischen Ziele des E-Business und dessen Einflussfaktoren genannt, um so den Bezugsrahmen des E-Business zu definieren.
Darauf aufbauend werden die Anwendungsbereiche des E-Governments erläutert und die funktionale und strukturelle Unterscheidung der möglichen Szenarien dargestellt.
Im Hauptteil der Arbeit werden anschließend anhand von Literatur-Quellen und aktuellen Studien die sechs Erfolgsfaktoren analysiert, die sich bei der Implementierung von E-Government-Lösungen in der Vergangenheit gezeigt haben. Diese reichen von technischen Faktoren wie der Kompatibilität der Systeme und der Datensicherheit über den richtigen Umgang von Veränderungen mit Hilfe des Change Managements bis hin zu den unterschiedlichen Rollen der beteiligten Akteure.
In den folgenden Abschnitten werden einige Aspekte des E-Governments genauer fokussiert: die verschiedenen Architekturen und Standards, relevante Gesetze und die deutsche E-Government-Strategie sowie der internationale Vergleich von Deutschland im E-Government-Bereich. Dabei wird geprüft, welchen Einfluss diese Aspekte auf die identifizierten Erfolgsfaktoren haben.
Bevor das Fazit die gewonnenen Erkenntnisse zusammen fasst und eine Prognose des E-Governments in Deutschland gibt, werden die beiden Verfahren ELSTER als positives und ELENA als negatives Beispiel für E-Government-Projekte im A2B-Bereich vorgestellt.
Der Auskunftsdienst gehört zu den Kerndienstleistungen einer Bibliothek. Obwohl ihm in anderen Ländern große Bedeutung beigemessen wird, ist Deutschland in dieser Hinsicht noch mehr von Bestandsdenken geprägt. Bibliothekskunden sind sich größtenteils nicht im Klaren darüber, dass es solch ein Angebot der Bibliothek überhaupt gibt, das über die reine Beantwortung von Bestandsfragen hinausgeht. Deswegen sollte den Kunden kommuniziert werden, worum es sich bei Auskunfts- bzw. Informationsdienst handelt. Des Weiteren sollten Umfang und Grenzen festgelegt und veröffentlicht werden. In den USA geschieht dies durch sogenannte „Reference Service Policy Statements“. Policies für den Auskunftsdienst werten diesen auf, erhöhen die Sichtbarkeit solcher Angebote und beeinflussen die Erwartungen der Kunden im besten Falle so, dass Kundenzufriedenheit entsteht. Die Verbreitung von solchen Dokumenten in Deutschland ist erwartungsgemäß eher gering. Es lässt sich allerdings feststellen, dass digitale Auskunftsangebote eher Angaben zu den Rahmenbedingungen ihrer Dienstleistung machen als konventionelle, also persönliche, Vor-Ort-Auskunftsangebote. Innerhalb der digitalen Angebote sind Policies bei Auskunftsverbünden weiter verbreitet.
Fernseh- und Videobilder in Fernsehsendungen oder in digitalen Videoarchiven, aber beispielsweise auch auf Grafiken basierende Inhalte von Internetseiten enthalten eine große Anzahl von in sie eingebetteten Texten. Die Lokalisierung und Erkennung dieser Texte eröffnet eine Vielzahl von Anwendungsmöglichkeiten. So können Texte beispielsweise als Ergebnis der Suche und Verarbeitung von großen digitalen Videoarchiven mit Inhalten von Nachrichtensendungen oder Dokumentationen zum Erstellen von Datenbanken dienen. Da in Nachrichtensendungen sehr oft Einblendungen von Orten, Namen, Uhrzeiten oder sonstigen Informationen vorhanden sind, können diese Grundlage für Datenbanken werden, durch die sehr schnell auf einzelne Beiträge zugegriffen werden kann. Auch dienen diese Datenbanken der Verknüpfung unterschiedlicher Inhalte von Beiträgen miteinander. Für Firmen die im Fernsehen Werbung schalten ist es von Interesse zu überprüfen, ob und gegebenenfalls wann der eigene Werbespot gesendet wurde. Auch hier wäre eine automatische Erkennung von Schriftzügen wie beispielsweise des Produktnamens und die gleichzeitige Aufzeichnung der Uhrzeit und des Sendekanals von Interesse. Eine weitere Anwendung ist die Erkennung von Inhalten in Webseiten welche nicht textbasiert sind, also zum Beispiel in Flash oder ähnlichen Formaten vorliegen. Auf die in diesen Seiten hinterlegten Informationen können Standard-Suchmaschinen nicht zugreifen, weshalb die Informationen bei einer Suchanfrage nicht berücksichtigt werden. An diese Problem und die Anwendungsmöglichkeiten anknüpfend, ist es das Ziel die ser Arbeit Möglichkeiten zur Erkennung von in Fernsehbildern eingebetteten Schriften, wie beispielsweise ”www.schrift-im-videobild.de” aufzuzeigen und als reinen ASCII-Text zu extrahieren. Dazu wurde eine Sammlung von verschiedenen Testbildern erstellt, die unterschiedliche von den Fernsehanstalten eingeblendete Texte enthalten. Darüber hinaus soll ein Programm mit Hilfe der Programmiersprache C++ erstellt werden, das die Testvorlagen für eine Texterkennung durch kommerzielle Optical Character Recognition (OCR) Software, wie sie für die Erkennung von reinen Binärbildern (zum Beispiel eingescannte Schreibmaschinentexte) genutzt wird, vorverarbeitet. Um dieses zu erreichen wurden Möglichkeiten untersucht, die im Bild enthaltenen Schriften zu detektieren, zu segmentieren und in einem weiteren Verarbeitungsschritt in ein neues Bild zu extrahieren, wobei das schlussendliche Bildresultat nach Möglichkeit nur noch schwarze Schrift vor weißem Hintergrund enthalten soll.
Das Ziel dieser Arbeit ist es, einen generellen Überblick über die Zahlungsmittel und die Entwicklungen des Mobile-Payment zu gewinnen. Mit Hilfe diesen Überblicks und der Analyse des Kundenverhaltens als Grundlage zur Berechnung der monetären Auswirkungen in der Bargeldver- und Entsorgung konnten die Sparpotenziale eine Retailers in der Bargeldversorgung aufgezeigt werden.
In der Verkehrsphotographie werden Aufnahmen von Verkehrsteilnehmern gemacht, um Ordnungswidrigkeiten, wie zu schnelles Fahren oder Überqueren einer Ampel bei Rotlicht, Fahrzeugen und Personen zuordnen zu können. Das Problem bei diesen Aufnahmen liegt in der hohen Dynamik, die vor allem durch Reflexionen im Nummernschildbereich entstehen. Zur zeit wird dieses Problem dadurch gelöst, indem man aus der Originalaufnahme zwei Bilder macht. Eins für den dunklen Bereich, in dem der Fahrer zu erkennen ist und ein Bild für den hellen Bereich, in dem das Nummernschild erscheint. Ziel dieser Arbeit ist es, die Dynamik so weit zu komprimieren, dass die wesentlichen Elemente, wie das Gesicht, das Kennzeichen und die Skriptzeile, die alle Informationen über die Aufnahme enthält, in einem Bild zu erkennen sind, anstatt wie oben beschrieben in zwei Bildern. Dadurch kann der Speicheraufwand für die Bilder um die Hälfte reduziert werden. Im Speziellen muss darauf geachtet werden, dass störende Artefakte, die bei den gewählten Methoden entstehen können, vermieden werden. Dies sind besonders Überschwinger an scharfen Kanten, die z.B. an den Buchstaben des Kennzeichens entstehen und niedrige lokale Kontraste im Bereich des Fahrers. Zusätzlich wird auf das Problem des Rauschens eingegangen. Durch dessen Reduktion kann der subjektive Eindruck des Bildes stark verbessert werden. In dieser Arbeit werden nur Schwarz/Weiß Bilder behandelt, weil es das Standardaufnahmeverfahren bei der Verkehrsüberwachung innerhalb der Bundesrepublik Deutschland ist. In anderen Ländern werden zwar auch Farbbilder aufgenommen, dessen Behandlung aber nicht Bestandteil dieser Arbeit sein soll.