Refine
Year of publication
Document Type
- Master's Thesis (323) (remove)
Has Fulltext
- yes (323)
Keywords
- Deutschland (15)
- Öffentliche Bibliothek (13)
- Bibliothek (11)
- Informationskompetenz (8)
- Internet (7)
- Semantic Web (7)
- Sozialarbeit (7)
- XML (7)
- Datenbank (6)
- Data-Warehouse-Konzept (5)
Faculty
- Fakultät 10 / Institut für Informatik (98)
- Fakultät 03 / Institut für Informationswissenschaft (60)
- Fakultät 12 / Institut für Technologie und Ressourcenmanagement in den Tropen und Subtropen (50)
- Fakultät 07 / Institut für Medien- und Phototechnik (39)
- Fakultät 10 / Advanced Media Institute (22)
- Fakultät 07 / Institut für Nachrichtentechnik (8)
- Fakultät 01 / Institut für Medienforschung und Medienpädagogik (5)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (5)
- Fakultät 01 / Institut für interkulturelle Bildung und Entwicklung (4)
- Fakultät 02 / Cologne Institute of Conservation Sciences (4)
Die Extensible Markup Language (XML) ist eine Metaauszeichnungssprache, die 1998 vom World Wide Web Consortium (W3C), einer Organisation, die sich mit der Erstellung von Web Standards und neuen Technologien für das Internet beschäftigt , als neue Empfehlung für Web-Anwendungen festgesetzt wurde. Seitdem ist viel über XML und die sich durch diese Sprache ergebenden neuen Möglichkeiten des Datenaustausches über das Internet publiziert worden. In XML-Dokumenten werden die hierarchische Struktur und der Inhalt der Dokumente festgelegt, aber keinerlei Angaben zum Layout gemacht. Dieses wird in so genannten Stylesheets definiert. Mit Hilfe mehrerer Stylesheets, die sich alle auf ein XML-Dokument beziehen, ist es möglich, aus einem Datenbestand verschiedene Ausgabeprodukte, z.B. eine Online-Version und eine druckbare Ausgabe eines Dokuments, zu erzeugen.
Existiert das "gläserne" Unternehmen? Sind die letzten Geheimnisse der Konkurrenz bereits gelüftet? Gibt es sichere Entscheidungen durch Allwissenheit? Ist Industriespionage heute überflüssig? Diese Fragen drängen sich mit dem immer weiter wachsenden Angebot an Datenbanken geradezu auf. Anhand der Untersuchung einiger renommierter Datenbanken wird versucht, darauf eine Antwort zu finden. Ausgangspunkt ist die Definition des Begriffs "Firmeninformationen". Bisher wird dieser Begriff offensichtlich je nach Bedarf ausgelegt. Anschließend wird das Feld der Firmeninformationen in seine Bestandteile zerlegt, um zu zeigen, daß dazu nicht nur die einfachen Fakten wie Mitarbeiterzahl oder Umsatz gehören. Im zweiten Kapitel werden die einzelnen Datenbanktypen mit ihren Inhalten vorgestellt. Das dritte Kapitel befaßt sich mit Kriterien, die für die Qualität von Firmeninformationsdatenbanken entscheidend sind. Im Anschluß erfolgt eine Analyse des Datenangebotes. Untersucht wurde das Angebot ausgewählter Datenbanken zu den Unternehmen "Aldi" und "Henkel KGaA".
Im Mai 2001 wurde JavaServer Faces (JSF) von Sun als Java Specification Request (JSR) 127 vorgestellt. Außer Sun sind an der Entwicklung der JSF Spezifikation unter anderem die Apache Software Foundation, BEA Systems, Borland Software Corporation, IBM, Oracle und Macromedia beteiligt. Seit Dezember 2003 steht die Referenzimplementierung (RI) von Sun als Version 1.0 Beta zur Verfügung. Obwohl die Spezifikation noch nicht ganz abgeschlossen ist und die RI bis zum Final Release noch große Änderungen erfahren wird, zeichnet sich bereits ab, dass hier ein "großer Wurf" gelungen ist. Tool-Hersteller wie auch Anwendungsentwickler bringen JSF großes Interesse entgegen; eine OpenSource-Implementierung der JavaServer Faces ist mit MyFaces1 von SourceForge auch schon zu haben. Dabei gab es JavaServer Faces eigentlich schon, bevor die Entwicklung der Spezifikation begann. Das inzwischen in der Version 2.1.7 vorliegende Framework UIX (User Interface XML) von Oracle versucht schon seit einigen Jahren, eine große Lücke zu füllen. Es ist, genau wie JSF, ein UserInterface-Framework fürs Web. Im Gegensatz zu JSF ist es jedoch schon so ausgereift, dass es in realen Projekten eingesetzt werden kann.
Die Grundlage für das Datenmodell einer Arztpraxis sind alle relevanten Daten, die zum Betrieb einer Arztpraxis notwendig sind. Aktuell werden die Daten mittels einer Praxisverwaltungssoftware (PVS) erfasst, in einem proprietären Datenformat gespeichert und im Weiteren für die Abrechnung aufbereitet. Dabei ist es seit Mai 1989 möglich, dass die Abrechnung per Diskette erstellt wird. Für die Aufbereitung der Daten wurde zuerst der Abrechnungsdatenträger (ADT) und seit dem 1. Juli 1999 ist es Pflicht die Abrechnung über den KV – Datenträger (KVDT) zu verwenden. Damals wurde kein einheitliches Datenmodell eingeführt, welches über den Abrechnungsdatenaustausch hinaus geht. Dadurch ist es nur sehr beschränkt möglich, Daten zwischen den einzelnen Systemen auszutauschen. So ist es für einen Arzt äußerst schwierig auf ein neues PVS – System umzusteigen. Um einen Eindruck über die Vielfalt und Menge der verschiedenen PVS – Systeme zu vermitteln, werden im Folgenden die Anzahl der KVDT – Zulassungen und der Labordatenträger – Zulassungen (LDT–Zulassungen) beschrieben. Zum dritten Quartal 2005 sind 2541 PVS – Systeme von der Kassenärztlichen Bundesvereinigung (KBV) für den gesamten oder Teile des KVDT zugelassen. Des Weiteren sind 742 PVS – System – Hersteller für die Datenübertragung mittels des gesamten oder Teile des Labordatenträgers zugelassen. Seit dem 1. Januar 2004 sind die Ärzte, mit wenigen Ausnahmen, gesetzlich dazu verpflichtet, die Abrechnung elektronisch durchzuführen. Deswegen haben einige Ärzte aus Kostengründen eine Individuallösung konzipiert, die ausschließlich in ihrer Arztpraxis verwendet wird. Aber auch diese Lösungen müssen von der KBV zertifiziert werden. Diese Lösungen werden zu den zugelassenen PVS – Systemen gezählt. Zum dritten Quartal 2005 sind 373 Individuallösungen zugelassen. Die in einer Arztpraxis anfallenden Daten müssen für den geregelten Praxisbetrieb vom PVS – System verwaltet, gespeichert und zum Teil auch zum Datenaustausch nach außen kommuniziert werden. Dabei werden die Daten von jedem Hersteller unterschiedlich erfasst und weiterverarbeitet. Des Weiteren ist die Repräsentation dieser Daten nicht einheitlich und beinhaltet verschiedene Arten von Daten. Diese Daten sind unter anderem Verwaltungsdaten, Abrechnungsinformationen und medizinische Informationen. Die von den Herstellern der Praxisverwaltungssoftware zu Grunde gelegten Datenmodelle sind unabhängig voneinander und nicht standardisiert. Dabei extrahiert jede Praxisverwaltungssoftware die Daten, die es für wichtig hält und repräsentiert diese in einem eigenen Format. Dadurch ergibt sich die Schwierigkeit, dass die Interoperabilität der Systeme sowohl in funktioneller als auch in semantischer Sicht eingeschränkt ist. Die Lösung dieser Probleme ist ein einheitliches Datenmodell mit entsprechender Schnittstelle, die das Ergebnis der vorliegenden Arbeit darstellt.
Die Arbeit widmet sich einem Thema, das zwar nicht ganz neu ist, bisher aber wenig bedeutsam war und durch das Inkrafttreten der DS-GVO nunmehr auf eine in vielen relevanten Bereichen völlig neue rechtliche Grundlage gestellt und hinsichtlich der spezifischen Fragestellung völlig unbearbeitet ist. Die Arbeit gliedert sich in zwei Hauptteile. Im ersten Teil werden die rechtlichen Grundlagen dargestellt und damit die Relevanz des Themas für das Prüfungsverfahren aufgezeigt. Der zweite Teil widmet sich der Anwendung des neuen Datenschutzrechts auf das Prüfungsverfahren und entwickelt dabei konkrete Handlungsempfehlungen, nach denen Prüfungsämter und sonstige mit Prüfungen befasste Einrichtungen die Anforderungen der DS-GVO erfüllen können.
Diese Arbeit untersucht die zeitliche Interpolation von Videosignalen. Durch die
Einführung des Ultra High Definition Television Standard wird eine höhere Bildwiederholrate benötigz um
Judder-Artefakte zu vermeiden. In diesem Zusammenhang kommt der zeitlichen Interpolation von nicht nativem UHD Material eine besondere Bedeutung zu. Neben der räumlichen Interpolation ist diese essenziell. In dieser Arbeit wird eine Übersicht über die Anforderungen an UHD Video gegeben. Bewegungskompensierende
Verfahren für das Deinterlacing und Upscaling in Verbindung mit einer Phasenkorrelation werden behandelt. Ein MATLAB-Programm wird entwickelt mit dem ein Upscaling und Deinterlacing von HD Material durchgeführt werden kann.
Die vorliegende Arbeit beschäftigt sich mit dem Einsatz kommunikationspolitischer Instrumente an Bibliotheken. Anhand der wirtschaftswissenschaftlichen Literatur und insbesondere der Ausführungen von Prof. Dr. Bruhn soll das Spektrum der Möglichkeiten aufgezeigt werden. Ziel dieser Arbeit ist es, die Kommunikationspolitik in ihrer Eigenschaft als Marketinginstrument zu beschreiben, ihre Möglichkeiten und Grenzen aufzuzeigen, und so das bisherige Verständnis bibliothekarischer Öffentlichkeitsarbeit zu erweitern. Ausgehend von einer Definition des Begriffs "Marketing" und einer Vorstellung des Planungsprozesses wird zunächst der Begriff der "Integrierten Kommunikationspolitik" definiert und in seinen übergeordneten Zusammenhang eingefügt. Abschließend werden die einzelnen Instrumente benannt. Das zweite Kapitel behandelt die Vorbedingungen bibliothekarischer Kommunikationspolitik, wobei dem Budget ein eigener Abschnitt gewidmet ist. Eine Beschreibung von Aufgaben, Zielen und Zielgruppen führt schließlich zu einer Erläuterung des kommunikationspolitischen Planungsprozesses. Im folgenden wird die Möglichkeit einer Branchenkommunikation des Bibliothekswesens untersucht, wobei die Aktivitäten des Niederländischen Bibliotheksverbandes als reales Beispiel dienen. In weiteren Kapiteln werden insgesamt elf kommunikationspolitische Instrumente näher vorgestellt. Der Schwerpunkt liegt nicht auf der Beschreibung konkreter Umsetzungen, sondern auf der Darstellung der Planungsprozesse, da dies bisher weitgehend vernachlässigt wurde. In einem zweiten Schritt sollen die gewonnenen Erkenntnisse auf das Bibliothekswesen übertragen werden. Soweit möglich, werden für die einzelnen Instrumente Beispiele oder Vorschläge angefügt. Eine detaillierte Darstellung wird der Werbung zuteil, da die wissenschaftlichen Erkenntnisse auf diesem Gebiet besonders umfassend sind.
Desarrollo de Competencias para la Sustentabilidad, a través del Aprendizaje Basado en Escenarios
(2018)
La sustentabilidad, planteada como concepto y solución estratégica frente a la crisis contemporánea, supone diversos retos para la humanidad entre los que se encuentra la formación de individuos capaces de afrontar la complejidad de la problemática ambiental, así como de visualizar y desarrollar una sociedad libre, justa y en equilibrio.
Con el propósito de coadyuvar a dicho cambio, el presente trabajo se propuso investigar la contribución del Aprendizaje Basado en Escenarios al desarrollo de competencias para la sustentabilidad, tanto desde el punto de vista conceptual como práctico, diseñando un recurso educativo y realizando una prueba piloto en estudiantes de la Universidad Autónoma de San Luis Potosí. Los objetivos específicos fueron: (1) Identificar, seleccionar y formular el análisis sistémico de dos casos, uno en México y otro en Alemania, para mostrar la complejidad de la relación entre dimensiones de la sustentabilidad y los desafíos a los que se enfrentan los actores en la gestión de esta y, (2) Diseñar y probar un recurso educativo en torno a su contribución al desarrollo de las competencias de pensamiento crítico y pensamiento sistémico.
La prueba piloto del recurso educativo se realizó con un grupo multidisciplinario, integrando estudiantes de las licenciaturas: Ciencias de la Comunicación, Ciencias Ambientales y Salud, Ingeniería Agroindustrial, Psicología y Psicopedagogía.
Con base en entrevistas de valoración se llegó a la conclusión de que el aprendizaje basado en escenarios si permitió contribuir al desarrollo de competencias para la sustentabilidad. Los dos casos seleccionados: Río Rin y Río Verde resultaron eficaces al evidenciar la complejidad, así mismo, advirtieron los desafíos que resultan de la gestión de la sustentabilidad de ambos, mostrándose análogos. Por último, cabe mencionar que el desarrollo de la competencia interpersonal (diálogo y colaboración principalmente) que no estaba dentro de los objetivos de la tesis, se evidenció a partir de las entrevistas la valoración.
This project was done in collaboration with CERN and is part of the detector control system of the ATLAS experiment. The primary goal foresaw the development and testing of the FPGA card for the MOPS-HUB crate with the focus on radiation tolerance. This was accomplished with the approach of designing two different PCBs. The first PCB was created as a fast prototype with the use of a commercial SOM-board. This was also beneficial for confirming that the chosen FPGA is suitable for the MOPS-HUB application. After the successful assembly and test, a second, more complex and foremost radiation tolerant PCB was designed. This was achieved by solely using components of the CERN radiation database.
The second part of this thesis focuses on increasing the distance of TMR registers with a Python script. A method was created for extracting and later parsing a design’s placement
information from Vivado. Furthermore, were system designed and implemented to recognize TMR cells, to find and validate free cells and to finally create a new placement for import into Vivado. These algorithms were tested with a multitude of configurations and the quality, based on the maximum possible frequency of a design, determined.
Development of renewable energy projects within photovoltaic energy sector has reached unrestrainable pace in recent years and thus the investors are more vigilantly considering the further business deployment towards this sector. Underpinned with clear support from KfW Development Bank, the company MACS Energy & Water GmbH decided to facilitate future verification of credit lines towards these projects by deploying special eSaveTM software which would include technical and financial appraisals specially designed for their clients. Hereof this thesis comprises the initial phase development of this software within the MS Excel and endeavors to provide a proper guideline for the software engineers included in this task in the company. In order to simplify the explanation process this report sticks to 50 kW power plant project in Prokuplje. It is anticipated that this model would enhance, improve and expedite the feasibility analysis between the cooperatives by delivering the projections of energy yield, payback periods and sensitivity analysis of the loan conditions specified for the target country and PV projects in the same. However, besides this main task this report aims to fulfill all the other necessary prerequisites for accomplishing a good due diligence practice. Therefore the thesis places its focus to Republic of Serbia where exceptional due diligence reports were made, among which the Prokuplje project, and compiles the assessments in terms of legal, environmental and risk into one general framework for PV projects in this country. By doing so, the desktop-based model and results obtained with this user-friendly tool can lean on the full due diligence assessment and provide the reader a clear comprehensive overview of possibility to invest into this renewable energy sector in Republic of Serbia.
Keywords: PV, Due diligence, Serbia, eSaveTM, feasibility, model
Im Rahmen dieser Diplomarbeit wurde ein Java-Programm zur automatisierten Detektion von Strukturelementen in Volumendatensätzen entwickelt und anhand eines neu entwickelten Prüfkörpers der lokale geometrische Fehler eines bildgebenden Systems ermittelt. Mit geeigneten Algorithmen werden, für eine treffsichere Detektion, das Rauschen reduziert, die Stützstellen detektiert und die 7-Parameter der Helmert-Transformation bestimmt.
In 2015, the adoption of the 2030 Agenda for Sustainable Development, including the 17 Sustainable Development Goals (SDGs), and the Paris Agreement provided a basis for considerable optimism for the fight against climate change and efforts to promote sustainable development, but their implementation remains an enormous challenge. Finance, in turn, plays a key role in implementation. This thesis thus seeks to provide new insights into the challenge of implementing the Paris Agreement and the 2030 Agenda by examining pertinent financial flows while taking into considering that making use of thematic overlaps between these two agendas can help to leverage synergies, especially if financial flows take adequate account of these overlaps. Since energy plays an essential role in both the goals of the Paris Agreement and the 2030 Agenda (in SDG 7 and beyond it), this thesis focuses on countries’ energy-related national commitments. Against this background, this thesis investigates the question which role energy plays in the Nationally Determined Contributions (NDCs) under the Paris Agreement and to what extent climate finance is considered in the context of the energy system transition. The key finding is that financial flow for renewable energy and energy efficiency improves globally with an unchanged track of non-renewable energy in the post-NDC period.
This thesis presents the perspective and basis for modeling of retail electricity price components in Germany. Detailed Python models are developed to provide predictions for yearly development of average network charges, EEG, StromNEV-19 and KWK surcharges for the period 2015-2035. For network charges and EEG surcharge, scenario-B (2035) from NEP2015 has been chosen as the model scenario. For KWK surcharge, the 2025 KWK share target, set by KWKG-2016, has been chosen as the model scenario. Individual component model results are validated against available academic literature and institutional reports. Model results for EEG surcharge, indicate an increasing yearly EEG costs till 2024, after which the expiring EEG plants of past will unburden the related high costs and EEG surcharge will drop but still be around 99% of 2015 level in 2035. Model results for network charges indicate a consistently increasing yearly trend owing to high grid investments needed for reaching the target RE share of 57%. KWK model results also indicate a growing KWK surcharge until 2020 which then would remain stagnant at that level onwards. All model results are collected under three consumption categories, namely, households, privileged and nonprivileged industries. The final results indicate that the average German household will face an overall increase of around 3.37 Cents/kWh in retail electricity prices (excluding VAT) till 2028, after which the retail prices will drop a little due to dropping EEG surcharge. The similar but slightly reduced trend can be seen for nonprivileged industrial consumption. The increment effect, however, is only minute for privileged industrial consumption due to high exemptions in EEG & KWK surcharges and reduced individual network charges.
Die vorliegende Diplomarbeit vergleicht drei didaktisch-methodische Modelle von Präsenzveranstaltungen zur Vermittlung von Informationskompetenz an Hochschulbibliotheken. Neben den etablierten Konzepten Benutzerschulung und Teaching Library analysiert sie das von der Universitätsbibliothek Kassel entwickelte innovative Modell Learning Library. Die Arbeit untersucht jeweils die lerntheoretischen Grundlagen, das Verständnis von Informationskompetenz, Ziele und Inhalte, didaktische Prinzipien und Methoden. Abschließend bewertet sie, welches Modell hinsichtlich der Förderung des Lebenslangen Lernens zukunftsträchtig ist.
Diese Arbeit versucht einen umfassenden Überblick über das gesamte luxemburgische Bibliothekswesen zu geben. Bisher kaum erforscht, wurde es meist auf einige spezifische Aspekte hin beleuchtet, jedoch noch nicht auf seine Gesamtentwicklung hin. In Ermangelung einer Universität oder sonstigen wissenschaftlichen Strukturen waren es kirchliche Träger, die die ersten Bibliotheksstrukturen aufbauten, seien es nun wissenschaftliche oder öffentliche. Doch sie wurden wie alle weiteren Bemühungen auch, immer wieder Opfer äußerer Einflüsse, die Luxemburg heimsuchten. Bis in die 1980er Jahre hinein hatten sich keine nennenswerten Systemstrukturen ausgebildet, die von Dauer waren. Heute, im 21. Jahrhundert, deuten sich neue Entwicklungen an, sowohl bei den öffentlichen wie bei wissenschaftlichen Bibliotheken. Die Gründung einer eigenen Universität sowie ein erstes Gesetz für öffentliche Bibliotheken haben vordergründig binnen eines Jahrzehnts enorme Bewegung in das luxemburgische Bibliothekswesen gebracht und Hoffnungen auf eine neue Blütezeit geweckt. Doch intern ist das Bibliothekswesen in Luxemburg so zersplittert wie selten zuvor.
Der Ausbruch der COVID-19-Pandemie und die zur Bekämpfung des Virus erlassenen Coronaschutzverordnungen verschärfen die Lebenslagen geflüchteter und flüchtender Menschen und erschweren die Arbeit von sozialen Bewegungsakteuren und Organisationen der Sozialen Arbeit, die auf Missstände im Kontext von Flucht und Asyl aufmerksam machen und sich für deren Verbesserung einsetzen. In dieser Arbeit wurde daher der Frage nachgegangen, wie sich zivilgesellschaftliche und sozialarbeiterische Organisationen seit der Pandemie für geflüchtete Menschen und Menschen auf der Flucht einsetzen. Mithilfe von sieben leitfadengestützten Interviews mit Personen aus Lokalgruppen von Seenotrettungsorganisationen, Willkommensinitiativen und Organisationen der Sozialen Arbeit wurde rekonstruiert, wie die befragten Akteure ihre Situationen erleben und auf welche Weise sie sich zu diesen wahrgenommenen Gegebenheiten verhalten und auf sie einwirken. Dabei wurden sowohl fallübergreifende Kategorien identifiziert, wie innerorganisationale Gestaltungsprozesse, die Bedeutung von Vernetzung und Engagementbereitschaft sowie die Wahrnehmung von gesellschaftlichem Klima und politischen bzw. medialen Entwicklungen, als auch fallspezifische Bedingungen und Bewältigungsmuster der jeweiligen Organisationen herausgearbeitet. Ein besonderes Augenmerk wurde schließlich auf das Verhältnis zwischen Fachkräften der Sozialen Arbeit und Aktivist:innen bzw. Engagierten gelegt, da die Beziehung von sozialen Bewegungen und der Sozialen Arbeit insgesamt bisher empirisch unterbelichtet ist
Die nachfolgende Masterarbeit untersucht die Nutzung von DeepFake-Anwendungen bei Personen mit einer Fazialisparese. Dabei handelt es sich um eine Lähmung des Gesichtnervs, wodurch die betroffenden Menschen keine bzw. keine vollständige Mimik im Gesicht haben. Es wird hierbei getestet, ob mithilfe von DeepFake eine möglichst realistische Mimik generiert werden kann. Für die Untersuchung werden zunächst sowohl die theoretischen Grundlagen als auch verschiedene potenzielle Anwendungen vorgestellt. Mithilfe der vorgestellten Anwendungen wird anschließend ein Versuch durchgeführt, in dem die künstliche Intelligenz mit Bildmaterial von Proband:innen trainiert und anschließend manipuliert wird. Die aus dem Versuch resultierenden Ergebnisse werden danach durch eine Umfrage mit Bildern, welche eine originale Mimik zeigen, verglichen. Dadurch soll überprüft werden, wie realistisch die manipulierten Bild- und Videomaterialien sind oder ob die künstliche Intelligenz an eine mögliche Grenze stößt. Abschließend werden weitere Forschungsansätze und Anwendungsmöglichkeiten vorgestellt, in welchem die betrachtete künstliche Intelligenz genutzt werden kann.
Der überwiegende Teil der Öffentlichen Bibliotheken in der Bundesrepublik ist seit Jahren kontinuierlich bemüht, eine bedarfsgerechte und benutzerorientierte Bibliotheksarbeit zu leisten. Deshalb werden im Zuge der Öffentlichkeitsarbeit und des Bibliotheksmarketings empirische Untersuchungen durchgeführt. Unter Leitung der Staatlichen Büchereistelle für den Regierungsbezirk Detmold fand im Frühjahr 1996 eine schriftliche Befragung der Besucher 15 Öffentlicher Bibliotheken (ÖBB) in Ostwestfalen-Lippe (OWL) statt. Die Erhebungsplanung dieser Untersuchung umfaßte dabei die Entwicklung eines gemeinsamen Erhebungsinstruments, eines Erhebungs- und Auswertungskonzepts, die Projektsteuerung sowie eine Vorbefragung. Die vorliegende Diplomarbeit wurde begleitend zu der Planungsphase dieser Untersuchung verfaßt. In ihr wird der besondere Stellenwert der Planungsphase empirischer Untersuchungen in Bibliotheken, speziell in ÖBB, herausgestellt und modellhaft am Beispiel der Erhebung in der Bibliotheksregion OWL dokumentiert. Weiterhin werden die Vor- und Nachteile schriftlicher Befragungen mittels standardisierten Fragebogens erläutert sowie ihre Grenzen und die damit verbundenen Problemstellungen verdeutlicht. Darüber hinaus erfolgt ihre Einordnung in den bibliothekarischen Kontext als Teil der bedarfs- und benutzerorientierten Bibliotheksarbeit. Abschließend wird die Bedeutung der Vorbefragung in der Planungsphase einer empirischen Erhebung in ÖBB untersucht und am Beispiel der Besucherbefragung in OWL modellhaft demonstriert.
In dieser Arbeit werden zunächst die Werbebestimmungen (Produktplatzierung, Schleichwerbung, Sponsoring etc.) der einzelnen Gesetze dargestellt und erläutert. Anschließend werden die Videoportale, insbesondere YouTube, im deutschen Rechtssystem eingeordnet und geprüft, ob sie unter den verfassungsrechtlichen Rundfunkbegriff und/oder einfachgesetzlichen Rundfunkbegriff fallen oder nicht. Letztlich erfolgt die Prüfung der Anwendbarkeit der werberechtlichen Rahmenbedingungen des Rundfunkstaatsvertrages unter besonderer Berücksichtigung des Kriteriums der Fernsehähnlichkeit im Rahmen des § 58 Abs. 3 Rundfunkstaatsvertrages. Es wird geprüft, ob es sich bei YouTube um ein fernsehähnliches Telemediuem im Sinne des § 58 Abs. RStV handelt.
Zijad Naddaf fragt danach, wie sich Grenzen und die darin eingelagerte Erzählung von Flucht und Migration durch Praktiken und Diskurse formieren. Vor dem Hintergrund der Flüchtlingszuwanderung und mit Bezug auf Foucault werden Gesamtstrategien der Europäischen Union zur ‚Verteidigung ihrer Gesellschaft‘ diskutiert, unter anderem am Beispiel der Grenzbearbeitungsagentur Frontex konkretisiert sowie das Konstrukt der Europäischen Union als Ordnung herstellendes Dispositiv vorgestellt. Mit Bezug auf solche Formierungen werden die Wege der Fliehenden zu einem Kampffeld, in dem sich sowohl die Autonomie von Migration als auch die beständigen und repressiven Weg- und Raummarkierungen zeigen, die sich bis auf das Meer ausdehnen.
Für Bibliothekare als Informationsspezialisten ist es essentiell, auf dem neuesten Stand der Entwicklungen zu bleiben und sich aus aktuellsten Quellen zu informieren und weiterzubilden. Aber auch die Vernetzung und der Austausch mit anderen fachkundigen Personen sind von Bedeutung. Ein Medium, das beide Aspekte vereint – eine aktuelle Informations- und Weiterbildungsquelle sowie die Möglichkeit der Vernetzung und des Austauschs – stellt das Weblog von und für Bibliothekare dar. In Deutschland besteht ein ausdifferenziertes Angebot bibliothekarischer Weblogs. Zentrale Fragestellung dieser Arbeit ist, ob und in welchem Maße dieses Angebot von deutschen Bibliothekaren angenommen und genutzt, das heißt rezipiert, wird. Dazu wird eine Online-Umfrage durchgeführt, welche über Mailinglisten und einige deutsche bibliothekarische Weblogs verbreitet wird. Zunächst wird das Weblog näher vorgestellt, danach folgt eine Darstellung des Hauptgegenstands dieser Arbeit – dem Fachblog und dessen aktueller Situation im bibliothekarischen Bereich in Deutschland. Nach der Vorstellung der deutschen Bibliobloglandschaft folgt eine Beschreibung des US-amerikanischen Stands von bibliothekarischen Fachblogs um im nächsten Schritt die deutsche mit der US-amerikanischen Situation zu vergleichen. Im weiteren Verlauf werden die Vorgehensweise der Online-Befragung sowie deren Auswertung und die Analyse der Auswertungsergebnisse behandelt. Eine Zusammenfassung der Ergebnisse mit Empfehlungen führt zum Abschluss der Arbeit.
Resultierend aus dem Wirtschaftwunder nach dem 2. Weltkrieg, hat sich in den frühen sechziger Jahren in der BRD angedeutet, dass die verfügbaren einheimischen Arbeitskräfte nicht ausreichten, die vorhandenen freien Arbeitsplätze auf dem deutschen Arbeitsmarkt zu besetzen (vgl. Mertens, 1977:13ff.). Aufgrund dieses Mangels an Arbeitskräften wurde, neben Verträgen mit zahlreichen anderen Staaten, ein Anwerbeabkommen mit der Türkei geschlossen. Darauf folgend reisten 1961 die ersten türkischen „Gastarbeiter“ in die BRD ein, mit der Vorstellung, sich nur für eine begrenzte Zeit in der BRD aufzuhalten (vgl. Mehrländer, 1986:53). Obwohl eine Mehrzahl der ersten Arbeitskräfte nach einigen Jahren wieder in ihr Heimatland zurückkehrte, hat sich ein Großteil der türkischen Männer und Frauen der ersten Generation für einen weiteren Aufenthalt in Deutschland entschieden (vgl. Mehrländer, 1986:55ff.). Somit war die erste Generation ausschlaggebend für die Lebenswirklichkeiten ihrer mit eingereisten oder in Deutschland geborenen Kinder, die heute die türkischen Männer und Frauen der zweiten Generation ausmachen.
Um zukunftssicherndes Vertrauen beim Kunden aufzubauen, bedarf der von Qualitätsunsicherheiten geprägte Informationsmarkt systematischer vertrauensbildender Instrumente. Die vorliegende Arbeit zeigt Einsatzmöglichkeiten von Qualitätsmanagementsystemen in Institutionen der Informationswirtschaft auf und diskutiert eine Zertifizierung dieser nach der Normenreihe ISO 9000ff. Mit aus dem Dienstleistungsmarketing abgeleiteten kundenorientierten Meßverfahren (Critical-Incident-Technique, Penalty-Reward-Faktoren-Modell, SERVQUAL-Methode) kann das informationswirtschaftliche Unternehmen darüber hinaus Erkenntnisse über den Stand der angebotenen Dienstleistungsqualität gewinnen. Datenbankproduzenten scheinen durch den Einsatz von zertifizierten Qualitätsmanagementsystemen größere Nutzenwirkungen erzielen zu können als Informationsvermittlungsstellen. Charakteristisch für die Informationswirtschaft ist der Mangel an Möglichkeiten zur Messung von Qualität. Neben objektiven und subjektiven Meßmethoden zur Dienstleistungsqualität sollten Institutionen der Informationswirtschaft möglichst objektive, auf die Situation im eigenen Unternehmen abgestimmte Meßmethoden erstellen und anwenden. In einem Praxisbericht wird die Implementierung und der Betrieb des nach DIN EN ISO 9001 zertifizierten Qualitätsmanagementsystems des FIZ CHEMIE BERLIN untersucht. Als ein in diesem Fachinformationszentrum eingesetztes qualitätssicherndes Werkzeug wird ein Meßsystem für von freien Mitarbeitern erbrachten Indexierungsleistungen vorgestellt.
Studien belegen, dass das Internet bei der Informationsversorgung der Menschen immer mehr an Bedeutung gewinnt. Stimmen aus der Forschung fordern eine Präsenz der Bibliotheken am Point-of-Need ihrer Nutzer, also auch im Internet. Während im angloamerikanischen und skandinavischen Raum relativ frühzeitig auf diese Entwicklung reagiert und ein digitaler Auskunftsdienst additiv zur traditionellen Walk-in Auskunft angeboten wurde, ging man in Deutschland lange Zeit recht zögerlich mit diesen neuen Kommunikationswegen um. Mittlerweile lässt sich aber auch hier ein gesteigertes Interesse an der Digitalen Auskunft erkennen. Projekte wurden initiiert und befinden sich zum Teil bereits im Regelbetrieb. In dieser Arbeit soll der Entwicklungsstand der Digitalen Auskunft in Deutschland nachgezeichnet und anhand einer vergleichenden Evaluation in einem internationalen Kontext positioniert werden. Dazu werden die folgenden Verbünde in die Evaluation einbezogen: Die Deutsche Internetbibliothek (D), InfoPoint (D), Virtuelle Auskunft im SWB (D), Biblioteksvagten (DK), Enquire (GB), IPL (USA) und Ask a Librarian/ Florida (USA). Aus der Fachliteratur abgeleitete Standards dienen dabei als Grundlage für einen Kriterienkatalog, der Stärken und Schwächen der Auskunftsverbünde identifizieren soll.
Das Ziel dieser Arbeit ist es, zu erschließen, vor welchen Herausforderungen die Medienpädagogik angesichts der Auswirkungen von Big Data und Digitalen Technologien auf die Gesellschaft steht. Bislang hat die Medienpädagogik nur vereinzelt Stellung zu dieser neuartigen Situation bezogen.
In dieser Arbeit werden definierte Ziele und Theorien der Medienpädagogik auf ihre Anschlussmöglichkeiten in Bezug auf die Besonderheiten Digitaler Technologien hin untersucht. Digitale Technologien und Big-Data-Anwendungen verändern die Art und Weise von Kommunikation, Bildungsprozessen, Arbeit und Alltagsorganisation. Ihre technologischen Strukturen machen es Internet-Unternehmen möglich, weltweit Informationen über digitale Kommunikationsprozesse in Form von Daten zu analysieren, in die Privatsphäre von Menschen einzudringen, sie zu kontrollieren, zu konditionieren und zu prägen. Behörden und Regierungen werten die von Konzernen gesammelten Daten zudem für ihre Zwecke aus.
Dargestellt wird, wie Konzerne mit Big-Data-Technologien in das alltägliche Leben eindringen, die Grundprinzipien der Demokratie verletzten und gesellschaftliche Errungenschaften angreifen. Es wird untersucht, inwieweit Technologie als Herrschaftsinstrument eingesetzt wird und vorhandene Gesetze zum Schutz persönlicher Daten ausreichen.
Die Medienpädagogik ist aufgefordert die Besonderheit dieser neuartigen Technologie zu zu berücksichtigen. Als Ziel ihrer Arbeit stellt die Medienpädagogik in Theorie und Praxis die Entfaltung des Menschen und der Gesellschaft in den Vordergrund und sie muss agieren, wenn diese Grundelemente extremen Einflussnahmen ausgesetzt werden. Herausgearbeitet wurde, dass die Medienpädagogik besonders zum Handeln aufgerufen ist, wenn Monopolisten demokratische Strukturen mit neuen Technologien aushöhlen, denen Menschen ausschließlich als Objekte von Kommerzialisierung und Überwachung dienen.
Die vorliegende Masterarbeit beschäftigt sich mit Strategien der außerstrafrechtlichen Konfliktbear- beitung in linksautonomen Räumen. Ausgehend von der Annahme, dass staatliche Strafe ein Instrument der Herrschaftsausübung darstellt und in Zeiten des
Neoliberalismus die prekär gewordenen Grenzen der gesellschaftlichen Zugehörigkeit durch Kriminalisierung aufrechterhalten werden, sollen Alternativen zum hegemonialen Strafrechtssystem aufgezeigt werden. Das qualitative Forschungsdesign wurde unter Berücksichti-gung der Grundannahmen der Kritischen Kriminologie entwickelt. Durch den Konfliktbegriff wird sich von der Kategorie „Kriminalität“ mit den ihr inhärenten
Zuschreibungen gelöst. Der Forschungsprozess basiert auf der Grounded Theory Methodologie. Auf der Grundlage teilnarrativer Interviews mit Aktivist*innen aus
verschiedenen linksautonomen Räumen in Deutschland wird ein Modell entwickelt, welches den Prozess der selbstbestimmten Bearbeitung von konflikthaften Ereignissen im gewählten Forschungsfeld beschreibt. Dieses zeigt auf, dass eine Aneignung von Konflikten verstärkt durch einen hohen Grad der Verantwortungsübernahme stattfindet. In einem zirkulären Prozess werden hierbei in der Bearbeitung von Konflikten eigene Regeln und Werte entwickelt, welche sich wiederum auf den Umgang mit Konflikten auswirken. Die Ergebnisse der Forschung richten sich primär an Personen, welche in links-autonomen Räumen aktiv sind und dienen einem besseren Verständnis ihrer gelebten Praxis. Durch die kritische Reflexion, unter Berücksichtigung der Grundsätze von Transformative Justice und Community Accountability, werden zudem Perspektiven für eine mögliche Weiterentwicklung linksautonomer Ansätze zum Umgang mit Konflikten aufgezeigt.
In der Verkehrsphotographie werden Aufnahmen von Verkehrsteilnehmern gemacht, um Ordnungswidrigkeiten, wie zu schnelles Fahren oder Überqueren einer Ampel bei Rotlicht, Fahrzeugen und Personen zuordnen zu können. Das Problem bei diesen Aufnahmen liegt in der hohen Dynamik, die vor allem durch Reflexionen im Nummernschildbereich entstehen. Zur zeit wird dieses Problem dadurch gelöst, indem man aus der Originalaufnahme zwei Bilder macht. Eins für den dunklen Bereich, in dem der Fahrer zu erkennen ist und ein Bild für den hellen Bereich, in dem das Nummernschild erscheint. Ziel dieser Arbeit ist es, die Dynamik so weit zu komprimieren, dass die wesentlichen Elemente, wie das Gesicht, das Kennzeichen und die Skriptzeile, die alle Informationen über die Aufnahme enthält, in einem Bild zu erkennen sind, anstatt wie oben beschrieben in zwei Bildern. Dadurch kann der Speicheraufwand für die Bilder um die Hälfte reduziert werden. Im Speziellen muss darauf geachtet werden, dass störende Artefakte, die bei den gewählten Methoden entstehen können, vermieden werden. Dies sind besonders Überschwinger an scharfen Kanten, die z.B. an den Buchstaben des Kennzeichens entstehen und niedrige lokale Kontraste im Bereich des Fahrers. Zusätzlich wird auf das Problem des Rauschens eingegangen. Durch dessen Reduktion kann der subjektive Eindruck des Bildes stark verbessert werden. In dieser Arbeit werden nur Schwarz/Weiß Bilder behandelt, weil es das Standardaufnahmeverfahren bei der Verkehrsüberwachung innerhalb der Bundesrepublik Deutschland ist. In anderen Ländern werden zwar auch Farbbilder aufgenommen, dessen Behandlung aber nicht Bestandteil dieser Arbeit sein soll.
E-Learning wird in der universitären Lehre eine zunehmend bedeutendere Rolle spielen. Im Rahmen von Bemühungen um generelle Umstrukturierungen des IKM- Bereichs, wie sie mit Blick auf angloamerikanische Vorbilder auch in Deutschland aufgegriffen worden sind, nehmen auch Bibliotheken im E-Learning-Bereich Aufgaben wahr. Knapp die Hälfte der deutschen Universitätsbibliotheken ist in irgendeiner Form in die universitäre E-Learning-Struktur eingebunden. Die verschiedenen Modelle dafür reichen von der Übernahme des vollen Services über eine strategische Partnerschaft bis hin zu lockeren Kooperationsformen. Insgesamt kann die Bibliothek ihr breites Dienstleistungsportfolio nutzen, um ihre Services in eine E- Learning-Umgebung einzubringen. Diese umfassen die Bereitstellung digitaler Dokumente in elektronischen Semesterapparaten oder Lernmanagementsystemen, die Etablierung der Bibliothek als reellem und virtuellem Lernort, Hilfestellung bei Fragen des Urheberrechts, die Erschließung multimedialer Lernobjekte mit Metadaten und ihre längerfristige Zugänglichmachung sowie die Vermittlung von Informationskompetenz mittels E-Learning-Szenarien wie Blended Learning oder Online-Tutorials. E-Learning bietet der Bibliothek die Möglichkeit, sich als moderner Dienstleister in einer veränderten Hochschul- sowie Medienlandschaft zu positionieren.
Als Reaktion auf die Verbreitung von webbasierten Tools zu Kommunikation, Kooperation und Kollaboration wurde 2005 der Begriff des E-Learning 2.0, der diverse Facetten und Trends des E-Learning subsumiert, in die Diskussion um neue Modelle der Hochschullehre eingeführt. Durch die Anreicherung der starren Lernmanagementsysteme um Elemente sozialer Netzwerke, Werkzeuge für Kommunikation und Kollaboration, Informations- und Wissensmanagement und Publikationsmöglichkeiten wandeln sich diese zu Lernplattformen oder Lernumgebungen (Virtual Learning Environments), welche die Bildung solcher offener oder geschlossener Learning Communities oder Communities of Practice begünstigen, innerhalb derer informelles Peer-to-Peer-Learning möglich wird. Gleichzeitig zielt "Ne(x)t Generation E-Learning" auf eine Individualisierung des Lernens und sieht den Lernenden als eigenverantwortlichen Akteur, der sich selbständig und selbstbestimmt Kompetenzen aneignen soll. Dieses informelle Lernen über die gesamte Lebensspanne wird durch konventionelle E-Learning-Produkte nicht unterstützt, die dozenten- und instruktionsorientiert formale, sequentielle Lernszenarien vorgeben. Als Antwort auf die Forderung nach individueller Gestaltung des Curriculums und sukzessiver, lebenslanger Aneignung von Kompetenzen etablieren sich sog. Personal Learning Environments, also personalisierte VLEs, die es erlauben, persönliche Lernziele zu verfolgen, indem Tools und Ressourcen selbst zusammengestellt und organisiert werden. Personal Learning Environments sind Basis des kompetenzorientierten E-Learnings. Zur Präsentation der so erworbenen Kompetenzen nach außen, sei es als Teil eines persönlichen Profils, sei es als Leistungsnachweis, werden sog. serverbasierte E-Portfolios angeboten, die aus den PLEs generiert werden können. Werden diese Sammlungen digitaler Artefakte, die einen Lernprozess dokumentieren sollen, innerhalb des Informations- und Kommunikationsraums Hochschule publiziert, kann dies der Wissenskommunikation zwischen Lernenden, also dem sog. Peer-to-Peer-Learning, förderlich sein - sofern die E-Portfolios anderer Studierender als Ressource bzw. Lernobjekt, als "E-Portfolio 2.0" betrachtet werden. Informationskompetenz als Metakompetenz, die den Erwerb fachlicher Kenntnisse überhaupt erst ermöglicht, nimmt unter den zu erwerbenden Kompetenzen eine Schlüsselposition ein und ist eng verknüpft mit Medienkompetenz auf der Input- sowie Präsentationskompetenz auf der Output-Seite. Eine Möglichkeit, die Entwicklung dieser Schlüsselkompetenz zu fördern, ist die Verschriftlichung der Recherchen im Rahmen eines sog. Rechercheportfolios, einer Unterart des Arbeitsportfolios. Die schriftliche Fixierung zwingt nicht nur zur Reflexion des eigenen Informationsprozesses, sondern ermöglicht auch die retrospektive Beurteilung der Effektivität und Effizienz der eigenen Recherchestrategien - oder die Analyse der Recherchestrategien anderer Lernender, sofern die Rechercheportfolios innerhalb einer Learning Community publik gemacht werden. Das Rechercheportfolio wird so zum "Rechercheportfolio 2.0". Das Potential dieses Instruments wird jedoch bislang noch nicht im Kontext der Vermittlung von Informationskompetenz genutzt. Weder Rechercheportfolios "1.0" noch Rechercheportfolios "2.0" sind an Hochschulbibliotheken verbreitet, obwohl es erste Ansätze zum Einsatz dieser zweifellos zukunftsträchtigen Methode gibt. Welche Standards und Qualitätsmerkmale E-Rechercheportfolios aufweisen müssten, um als effektives Mittel zur Vermittlung von Informationskompetenz geeignet zu sein, ist Thema dieser Arbeit.
This research analyzes the effects that eco-labels have on the demand for organic (Bio) and Fairtrade (FT) food products. The thesis also discusses the individual determinants and motivations behind those effects. The analysis builds on data obtained from a self-programmed and self-conducted survey, with a sample of 869 students from different universities of Cologne, Germany. The Bio/FT preference is measured experimentally by randomly assigning individuals to treatment and control groups. The experiment simulates life decisions using actual pictures and prices of four products: packed and processed spaghetti, fresh tomatoes, packed raw meat, and packed orange juice.
The existence, size, and direction of statistically significant eco-label effects were obtained with two sample tests of proportions. The results prove that the FT label has a positive differential effect on consumer’s demand. The presence of the FT label makes the purchase of this juice 9.1% higher than other juices not labeled as FT. This finding confirms the hypothesis that eco-labels have a positive effect on sustainable consumption. A surprising finding is that the presence of the Bio label lowers the purchase of organic pasta and tomatoes 7.7% and 9.4% respectively. This finding is interesting because it suggests that Bio labels are not driving the demand for sustainable tomatoes or pasta for this population. Regional and cheaper alternatives are preferred by consumers in this cases.
The motivations behind consumer choices of different options were thoroughly analyzed. Binomial logistic regressions and qualitative text analysis show that the variance in the intention to consume eco-labeled food is explained mainly by price concerns and attitudes about value for money, but also by the influence of life partners as shopping referents, and the perceived behavioral controls of time and ability to monitor compliance of label standards, thus trust them.
The final remarks support the use of the Fairtrade eco-label as a market-based instrument to guide sustainable food consumption among young adults in this context, and propose changes that could make the Bio label more attractive for the targeted population. The thesis demonstrates which individual factors should be inevitably considered when implementing labeling to foster sustainable consumption. Hence, it is useful for evaluations of public and private certification schemes, and for companies that support sustainable food markets. Projects looking to understand and drive sustainable production and consumption decisions should consider this reading.
Effects on the combustion properties of wheat straw after different thermobiological pretreatments
(2022)
Wheat straw could be used for pellet production and therefore as solid fuel. However, it presents challenges due to its inferior combustion properties such as high ash content, low gross calorific value (GCV), and low ash melting temperature.
To evaluate its combustion properties and based on recent work that improved methane production, wheat straw was subjected to thermobiological pretreatments. Nine pretreated samples based on wheat straw and nine pretreated samples based on compost-wheat straw mixture were produced. In addition, due to the ability to remove minerals and decrease the ash content, a washing process with water as a solvent was used. Ash content, net calorific value (NCV) and ash melting temperatures were evaluated.
For the pretreated wheat straw (SW) samples, a 5,8% reduction in ash content was obtained due to the pretreatments when compared to untreated wheat straw. A 55% decrease in ash content was obtained when comparing the same materials before and after the washing process. No statistically significant changes in GCV were found. As for the ash melting temperatures, due to the incubation pretreatment, an average increase in the shrinkage starting temperature (SST) of 4,4% was obtained for anaerobic conditions and a decrease of 2,5% for aerobic conditions, compared to the same material without heat treatment. In addition, an increase in all ash melting temperatures was observed because of the washing process. It was possible to obtain a pellet complying with standard ISO 17225-6 that can be used in medium or large burners and significantly reduces the effort during combustion.
For samples pretreated with a homogeneous compost-wheat straw (SKW) mixture, an average ash content decrease of 27% was obtained after using autoclave pretreatment at 140°C, compared to the same material without thermal pretreatment. The biggest decrease was due to the washing process, reducing the ash content on average by 43% when comparing the same materials before and after washing. GCV were 13% lower than samples pretreated with wheat straw, due to the low calorific value and high ash content of the compost. During ash melting temperature tests, an average 60% increase in SST was observed compared to pretreated SW ashes due to the high melting temperature of compost. Results are considered satisfactory since pellets based on this mixture would not cause ash sintering or slagging. However, counter effects were observed as the addition of compost increased the ash content and decreased the GCV, not complying with ISO 17225-6 for non-woody pellets. To achieve a pellet based on a compost-wheat straw mixture that complies with the standards, it is recommended for future research to control the percentage of compost added to the mixture.
Ziel dieser Diplomarbeit ist es zu evaluieren, ob eine effiziente Implementierung von responsiven Webapplikationen zum Zeitpunkt der Erstellung der Arbeit möglich ist. Als technische Grundlage wird hierzu die HTML5-Spezifikation mit dem darin enthaltenen CSS3 und den JavaScript-Programmierschnittstellen herangezogen.
Es wird erläutert, dass unter responsivem Design die Reaktionsfähigkeit des Designs auf die Abrufumgebung, wie zum Beispiel die Größe der Anzeigefläche, zu verstehen ist und mit Hilfe welcher Techniken ein solches Design für Webapplikationen realisiert werden kann. Des Weiteren werden Möglichkeiten zur Performance-Optimierung aufgeführt, wobei festgestellt wird, dass für die Nutzung einer Webanwendung auf mobilen Geräten die Anzahl der Dateien das größte Potenzial zur Optimierung besitzt. Die Möglichkeiten der JavaScript-Programmierschnittstellen in HTML5 zur Umsetzung von Funktionalitäten für Webapplikationen, wie sie bei lokal installierten Anwendungen gebräuchlich sind, werden ebenso erläutert.
Das Fazit dieser Arbeit ist, dass ausreichend Techniken zur Erstellung von responsiven Webapplikationen in HTML5 definiert sind. Lediglich die zum Teil ausstehende Umsetzung dieser Techniken in den einzelnen Browsern verursacht Einschränkungen. Dies wirkt sich gegebenenfalls negativ auf die Effizienz des Umsetzungsprozesses aus. Ebenso kann die übermäßige Optimierung des Layouts und der Performance zu unverhältnismäßigem Aufwand führen.
Diese Masterarbeit beschäftigt sich mit der Visualisierung von Leistungs- und sportmedizinischen Daten aus Athletenakten. Nach einer kurzen Einleitung wird zunächst die Aufgabe beschrieben. Hier wird auf die Anforderungen an die zu entwickelnde Komponente eingegangen. Anschließend werden die vorhandenen Leistungs- und sportmedizinischen Daten beschrieben. Dabei wird zunächst die Tabellenstruktur der zugrundeliegenden Datenbank inklusive der XML-Spalten beschrieben.Weiterhin werden die XML-Dateien aufgeführt, in denen die Athletendaten gespeichert werden. Im folgenden Kapitel werden grundlegende Visualisierungstechniken vorgestellt und am Avatar angewendet. Neben den Techniken werden anschließend verschiedene Visualisierungstechnologien beschrieben und eine begründete Auswahl getroffen. Das nächste Kapitel beschreibt neben der Visualisierungstechnologie weitere, verwendete Technologien wie Programmiersprache und Serverarchitektur. Eine Vorstellung der entwickelten Komponenten sowie ein Ausblick und Fazit runden in den letzten beiden Kapiteln die Arbeit ab.
Ein Online-Tutorial für vascoda. Theoretische Grundlegung - Konzeption - Praktische Umsetzung
(2009)
Inhalt der vorliegenden Masterarbeit ist die Konzeption und praktische Umsetzung eines Online-Tutorials (Lernprogramms) für die Benutzer des wissenschaftlichen Internetportals vascoda. In einem umfangreichen Theorieteil werden zunächst der sachliche Hintergrund (Fachportale und Funktionen des Dachportals vascoda), der didaktisch-methodische Hintergrund (Mediendidaktik, Lerntheorien, Instruktionsdesign mit besonderer Berücksichtigung von E-Learning, Begriffsgeschichte und Definitionen des Begriffs Tutorial, Informationskompetenz) sowie der technische Hintergrund (Autorenwerkzeuge) dargestellt. Auf dieser Grundlage wird eine ausführliche Planung für das vascoda-Tutorial in verschiedenen Kategorien erarbeitet (Begründung der Medienwahl, Zielgruppenanalyse, inhaltliche und didaktisch-methodische Konzeption, technische Umsetzung), an deren Ende eine detaillierte Aufstellung der Lehrinhalte und Lehrziele steht. Das Ergebnis der praktischen Umsetzung ist auf einem beiliegenden Datenträger verfügbar (ein aus vier Untermodulen bestehendes Hauptmodul des vascoda-Tutorials als exemplarischer Prototyp). Das Schlusskapitel der Arbeit enthält eine abschließende Kritik dieses produzierten Moduls und zeigt Möglichkeiten einer Weiterentwicklung auf.
Keine Software kommt heute ohne eine ausgebaute IT–Infrastruktur, mit der Anbindung an Datenbanken, aus. Die konsequente Ausrichtung der Software, aufgrund von technologischen Entwicklungen, ist ein wichtiger Einflussfaktor auf die Softwareentwicklung. Die Software soll sich durch Innovation, Flexibilität und Dynamik auszeichnen. Diese Diplomarbeit entstand aus der Motivation heraus, hier Abhilfe zu schaffen. Mit dieser Diplomarbeit soll bewiesen werden, das es möglich ist, die zugrundeliegende Datenbasis von herkömmlicher Dateiorganisation auf relationale Datenbanksysteme umzustellen, ohne dabei die komplette Software neu zu schreiben.
Aufgrund der steigenden Nutzung mobiler Geräte und der Vielzahl persönlicher bzw. geschäftlicher Daten, die auf mobilen Geräte gespeichert und verarbeitet werden, sind mobile Geräte zu einem attraktiven Angriffsziel geworden. Ungeachtet des Schutzbedarfs hat sich die Sicherheitssoftware, wie man sie von stationären Systemen her kennt, auf mobilen Geräten bisher nicht durchsetzen können. Sicherheitsansätze stationärer Systeme können mobile Geräte zwar vor Bedrohungen schützen, jedoch sind diese Ansätze zu ressourcenintensiv für mobile Geräte, deren Rechenleistung und Akkukapazität relativ begrenzt ist. Um den Schutzbedarf mobiler Geräte und deren Anwendungen unter Berücksichtigung der begrenzten Ressourcen zu erfüllen, wird in dieser Arbeit ein Architekturmodell konzipiert, das Anwendungen, abhängig von Bedrohungen, Sicherheitsmaßnahmen bereitstellt. Anders als beim Sicherheitsansatz stationärer Systeme werden nur die Sicherheitsmaßnahmen umgesetzt, die aufgrund der aktuellen Bedrohungen notwendig sind. Ermöglicht wird die adaptive Bereitstellung von Sicherheitsmaßnahmen durch einen in dieser Arbeit vorgestellten Ansatz, der die Ermittlung von Bedrohungen und geeigneter Maßnahmen aus Kontextinformationen und Erfahrungswerten zulässt. Zuletzt wird die Realisierbarkeit des Architekturmodells anhand einer prototypischen Implementierung nachgewiesen.
Der Einsatz von Gebärden scheitert häufig daran, dass bisher kaum bedarfsgerechte Lernangebote für Eltern mit einem unterstützt kommunizierenden Kind zur Verfügung stehen und das obwohl die digitalen Entwicklungen ein großes Spektrum an medienbasierten Lernarrangements eröffnen. Audiovisuelle Lernvideos könnten hier hilfreich sein, denn sie bieten - ähnlich wie die Gebärdensprachkommunikation - eine simultane Darstellung von auditiven und visuellen Informationen. Des Weiteren sind sie heutzutage in jedem Familienalltag durch mobile Endgeräte präsent und halten für Kinder eine Vielzahl von affektiv-sozialen Erlebnissen bereit, die das Lernen unterstützen.
Die Dynamik des Social Webs motiviert zum Teilen nutzergenerierter Inhalte. Diese entstehen in zahlreichen Social Networks meist unter Missachtung der Schutzziele der IT-Sicherheit: Vertraulichkeit, Verfügbarkeit und Integrität von Nutzerdaten. Betreiber von Web-Anwendungen können Inhalte ihrer Nutzer einsehen, fälschen, löschen oder zu unbekannten Zwecken auswerten und verfügen über Wissen über Kommunikationspartner und -verhalten - ohne, dass sich Benutzer wirksam davor absichern könnten. Von dem im Grundgesetz verankerten Recht auf Privatsphäre ausgehend soll im Rahmen dieser Ausarbeitung eine neuartige Architektur zum Teilen nutzergenerierter Inhalte im Web entwickelt werden, die Benutzeranforderungen an die Erfüllung der Schutzziele der IT-Sicherheit vollständig gewährleistet und darüber hinaus durch eine bewusste Kommunikation dieser Qualität als vertrauenswürdig aufgefasst werden kann. In einem Goal-directed Design-Prozess wird eine Architekturskizze entwickelt, welche die im Prozess erarbeiteten Benutzeranforderungen durch die Bereitstellung zweier Web-Services erfüllt: Der Signed Content Storage adressiert als zuverlässiger und durch den Urheber autorisierter Web-Speicherort signierter, nutzergenerierter Inhalte die Schutzziele Verfügbarkeit und Integrität. In Kombination mit dem Identity Provider, der gesicherte Informationen von Urheber und Teilhabern zur Verfügung stellt, ist ein vertrauliches Teilen von Inhalten im Web möglich. Vertrauenswürdigkeit gewinnt diese Architektur durch konsequente Transparenz, Selbstbeschreibungsfähigkeit, externe Bewertbarkeit und der Dokumentationsfähigkeit von Nutzungserfahrungen.
Einzelne Lebensereignisse und geschaffene Werke beinhalten häufig Bezüge zu anderen Geschehnissen oder sie werden beeinflusst durch die Beziehungen zu Mitmenschen, Herkunft, bestimmte Charaktereigenschaften, zeitgeschichtliche Ereignisse o.ä. Dem Schreibprozess einer Biographie muss ein umfassendes Verständnis dieses komplexen Systems vorausgehen, um zu verhindern, dass sich deren Inhalt auf eine chronologische Darstellung beschränkt. Am Ludwig Boltzmann Institut für Geschichte und Theorie der Biographie in Wien ist zu diesem Zweck ein biographisches Research-Wiki konzipiert worden. Dieses dient als Ablagesystem und Arbeitsinstrument für die am Institut entstehenden wissenschaftlichen Biographien. Besonders die Materialfülle des räumlich verteilten Hugo-von-Hofmannsthal-Nachlasses soll auf diese Weise besser zugänglich gemacht werden. Es ist geplant das Hofmannsthal-Wiki eventuell auch als Netzbiographie zu veröffentlichen. Zu den entscheidenden Funktionalitäten des Wikis gehören die hypertextuellen Verweise zwischen Ereignis- und Briefchronik, Themenkomplexe sowie die Gewährleistung der wissenschaftlichen Methode mittels ebenfalls hypertextuellen Referenzierungen aller Informationen. In dieser Arbeit wird untersucht, inwiefern sich Wikis und Hypertexte im Allgemeinen für einen Einsatz in der Biographieforschung eignen. Dabei werden zunächst die Eigenschaften einer Biographie und die Methoden der Biographieforschung dargestellt. Im Anschluss daran werden die Begriffe Hypertext und Wiki in den Kontext der Biographieforschung eingeordnet. Das Hugo-von-Hofmannsthal-Research-Wiki und teilweise auch das Jandl-Research-Wiki nehmen in dieser Arbeit die Funktion des Modellprojektes ein. Daher enthält die gesamte Arbeit Beispiele aus diesen beiden Datenbanken. Zusätzlich werden die Stärken und Schwächen des Hofmannsthal-Wikis in einem gesonderten Kapitel analysiert. Schließlich findet ein Vergleich mit dem Heine-Wiki, dem Heinrich-Heine-Portal und der Klagenfurter Ausgabe des Robert-Musil-Nachlasses statt. Abschließend wird ein Ausblick sowie Empfehlungen speziell in Bezug auf das Hofmannsthal-Research-Wiki, aber auch hinsichtlich des Nutzens von Wikis für die gesamte Biographieforschung, geboten.
Dentro del marco del Decenio de la Alfabetización (2003-2012) de las Naciones Unidas, el presente trabajo pretende ofrecer un cuadro sobre la situación en América Latina y en especial en Bolivia. En la primera parte del trabajo, se presentan las diferentes definiciones de analfabetismo y alfabetismo y se analiza el fracaso de la doctrina a la hora de elaborar definiciones universalmente aplicables. Dicho fracaso se considera resultado de dos falsas dicotomías que deberían ser abandonadas: oralidad-sociedad escrita y alfabeto-analfabeto. Para finalizar esta parte teórica, se estudia la influencia de las nuevas corrientes doctrinales en la labor de la UNESCO. La segunda parte está dedicada a la descripción de la situación en América Latina y Bolivia, para lo cual se analizan el contexto demográfico (de vital importancia en el caso boliviano), económico y político. Por último, se exponen los programas de alfabetización existentes actualmente en Bolivia.
In dieser Diplomarbeit wird die Lösung eines Standardproblems aus dem betrieblichen Umfeld behandelt. Die Aufgabenstellung ist die automatisierte Bereitstellung von Daten, die für die Produktion eines medienunabhängigen Produktkataloges notwendig sind. Ein zentraler Datenbestand soll als Quelle für Printkataloge, CD-ROM- und Internet-Präsentationen dienen.
Endstation Annostraße? : Obdachlose in der Kölner Südstadt zwischen Stigmatisierung und Integration
(2001)
Diese Diplomarbeit beschäftigt sich anhand eines Beispiels mit den Chancen und Grenzen der gesellschaftlichen Integration von obdachlosen Menschen. Da in diesem Rahmen nicht alle aufgeworfenen Fragestellungen erschöpfend beantwortet werden können, stellt sie auch eine Einladung zum Weiterforschen, -denken und -handeln dar.
The climate is changing and this increases the risk of climate threats, which is affecting the most vulnerable populations, mainly peasant farmers. In order to minimize impacts on these populations, interest has been aroused to develop strategies that increase their resilience to climate-related risks. This issue has been little addressed in Ecuador, despite the increased frequency and intensity of climate-related risks, which are directly affecting agroecosystems and farmers' livelihoods. This research addresses the resilience of farmers to climate risks in the canton of Pedro Carbo, an area located on the Ecuadorian coast of Guayas Province characterized by a high rate of poverty and dedicated mainly to agriculture.
The overall objective of this research was to carry out an analysis of the resilience of small farmers to climate risks, as well as to recommend adaptation/transformation strategies to increase their resilience to climate. For this, farmers' perceptions were considered, as well as the opinion of experts on the subject. Multiple methods were applied such as: literature review, map generation, household surveys, participatory workshops with farmers and interviews with experts. In addition, a multidimensional matrix was developed to analyze quantitative and qualitative data through indicators that measure resilience in the study area. The main findings in this research reflect that farmers have very low resilience due to their socioeconomic characteristics, agricultural practices, lack of infrastructure and technologies, weak community organizations, limited access to credit and insurance, as well as lack of capacity building and technical assistance. Finally, recommendations for strategies to support planning and decision-making were developed.
Keywords: climate-related risks, peasant family farming, resilience, resilience assessment, climate resilience, farmers perceptions, Pedro Carbo
Die Diplomarbeit “Entwicklung von automatischen Installationsroutinen von Services auf Basis von JavaEE” beschreibt den Entwurf und die Entwicklung eines Prototypen, um Services automatisiert auf einem JavaEE- Applikationsserver zu installieren. Zu Beginn werden die Konzepte eines JavaEE-Applikationsservers und der manuelle Installationsvorgang von Services auf diesem erläutert, die bei dem Installationsvorgang auftretenden Probleme dargelegt und analysiert. Im Anschluss daran werden mehrere verfügbare Produkte und eine Eigenentwicklung gegenübergestellt und bewertet. Abschließend werden Problemlösungen für den Installationsprozess erläutert sowie die Implementierung eines Prototypen beschrieben.
Das permanente Angebot und die Nachfrage an Informationen und Daten jeglicher Art wachsen zunehmend. Das Ergebnis einer meist verschachtelten Suche nach bestimmten Zahlen ist jedoch oftmals eine unübersichtliche, tabellarische Aufstellung derer. Zudem ist dagegen die Aufnahme grafischer Informationen erheblich höher und effektiver. Als Ergebnis der Diplomarbeit soll im ersten, theoretisch-wissenschaftlichen Teil eine technische Konzeption für ein intelligentes Visualisierungs-System erarbeitet werden. Im zweiten, praktischen Teil soll anhand der untersuchten Methoden und des entwickelten Konzepts eine Anwendung kreiert werden, welche ausgewählte Methoden zur interaktiven Visualisierung statistischer Daten nutzt.