Refine
Year of publication
Document Type
- Master's Thesis (323) (remove)
Has Fulltext
- yes (323)
Keywords
- Deutschland (15)
- Öffentliche Bibliothek (13)
- Bibliothek (11)
- Informationskompetenz (8)
- Internet (7)
- Semantic Web (7)
- Sozialarbeit (7)
- XML (7)
- Datenbank (6)
- Data-Warehouse-Konzept (5)
Faculty
- Fakultät 10 / Institut für Informatik (98)
- Fakultät 03 / Institut für Informationswissenschaft (60)
- Fakultät 12 / Institut für Technologie und Ressourcenmanagement in den Tropen und Subtropen (50)
- Fakultät 07 / Institut für Medien- und Phototechnik (39)
- Fakultät 10 / Advanced Media Institute (22)
- Fakultät 07 / Institut für Nachrichtentechnik (8)
- Fakultät 01 / Institut für Medienforschung und Medienpädagogik (5)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (5)
- Fakultät 01 / Institut für interkulturelle Bildung und Entwicklung (4)
- Fakultät 02 / Cologne Institute of Conservation Sciences (4)
1977 prägt der deutsche Psychoanalytiker Wolfgang Schmidbauer den Begriff Helfersyndrom. In seiner Konzeption liegt die Grundproblematik des Helfersyndroms darin, dass die
Betroffenen ihre eigene Hilfsbedürftigkeit hinter einer sozial akzeptierten, starken Fassade verstecken. Indem sie permanent anderen helfen und dadurch das Gefühl bekommen, gebraucht zu werden, können sie sich ein gewisses Selbstwertgefühl aufrechterhalten. Wolfgang
Schmidbauer vertritt die Ansicht, dass das Helfersyndrom vor allem bei Beschäftigten in helfenden Berufen vorzufinden ist. Umfassende empirische Belege für seine These führt er jedoch nicht an.
Die vorliegende Arbeit beleuchtet zunächst den theoretischen Ansatz von Schmidbauer. Darauf aufbauend führt die Autorin eine Untersuchung mittels eines Fragebogens durch, in
der sie in Übereinstimmung mit Schmidbauers These der Frage nachgeht, ob Anzeichen
des Helfersyndroms häufiger bei Studierenden der Sozialen Arbeit als bei Studierenden
der Technischen Informatik festzustellen sind. Anhand dieser quantitativen Forschung
kann als Ergebnis festgehalten werden, dass zwischen den Studierenden beider Studiengänge kaum Unterschiede hinsichtlich der Merkmalsausprägung zu verzeichnen sind.
Jegliches Leben auf der Erde ist auf das Vorhandensein von Wasser angewiesen. Schon seit Beginn der Menschheit war man in mancherlei Hinsicht vom Wasser abhängig: Trinkwasserbeschaffung für Mensch und Tier, Nahrungsversorgung durch Fischfang und Pflanzen, deren Wachstum erst das Wasser ermöglicht, Fortbewegung von Lasten und Menschen auf dem Wasser. Die heutige fortschreitende kulturelle und zivilisa-torische Entwicklung brachte neue Abhängigkeiten: Gewerbe und Industrie benötigen Wasser für den Produktionsablauf, der Wasserbedarf der Haushalte ist mit der weitge-henden Verdrängung manueller Tätigkeiten durch Maschinen um ein Vielfaches ge-stiegen, Volkswirtschaft und Haushalte verlangen nach elektrischer Energie, die zum Teil der Wasserkraft entstammt; schließlich kann die sprunghaft wachsende Erdbevöl-kerung vor allem in den Entwicklungsländern nur mit Hilfe der künstlichen Bewässerung in ausreichendem Maße mit pflanzlichen Produkten versorgt werden. Bevölkerungsdichte, Siedlungsstruktur und Formen der Wassernutzung beeinflussen die Wassernachfrage und stellen verschiedene Ansprüche hinsichtlich der Menge, der zeit-lichen Verteilung und der Güte des Wassers. Es ist jedoch nicht mehr selbstverständlich, dass das Wasser für die Befriedigung der Bedürfnisse der Menschen auf der Erde in ausreichender Menge und Güte zur Verfügung steht. Der heutige Wassermangel hat seine tiefere Ursache in der dauernden Fehleinschätzung der Natur. Um diese besser zu verstehen und damit dem oben erläuterten Problem entgegenzuwirken, befasst sich die physikalische Hydrologie mit dem globalen und lokalen Wasserkreislauf einschließlich der zugrundeliegenden Naturprozesse. Durch Entwicklung von Modellen wird eine Gewinnung von Detailkenntnissen angestrebt. Der Bereich der angewandten Hydrologie hingegen beschäftigt sich mit der Lösung wasserwirtschaftlicher Probleme - der Nutzung des Wassers durch den Menschen. Der Einsatz eines Geografischen Informationssystems (GIS) kann in der Hydrologie durch Visualisierung gesammelter Erfahrungswerte bereits eine Erleichterung der Ent-scheidungsfindung bei speziellen Problemstellungen bewirken. In einem GIS werden meist Funktionen vereinigt, die Methoden unterschiedlicher Systeme sind, wie z.B. Möglichkeiten statistischer Berechnungen, Bearbeitungen von Geometriedaten, Verwaltung von großen Datenbeständen, Darstellung von Karten. Weitere Aspekte eines GIS sind Geometrische Analysen, Flächenverschneidung, Möglichkeiten der Verknüpfung verschiedener Abfragen, Kombination verschiedener Datentypen und Geometrien etc. Diese Aspekte bilden die Grundlage zum Aufbau eines interaktiven räumlichen Informationssystems. Zur Abrundung eines solchen Systems sind jedoch meist weitere Auswertungen und Analysen des Datenmaterials sowie eine Modellbildung nötig, um konkrete, kompetente Entscheidungen über Eingriffe in die Natur unter Berücksichtigung ihrer Auswirkungen zu treffen.
This thesis is aimed for finding a solution for non-gaming application of Virtual Reality technology in data visualization and analysis. Starting by reconstructing the concept of Virtual Reality, the paper then describes the principles, concepts and techniques of designing a Virtual Reality application. In the last part of the thesis, a detailed description of how a prototype implemented is presented to provide a preview of how data visualization and analysis and Virtual Reality technology can be combined together in order to enable users to perceive and comprehend data in a possibly better way.
Configuration of energy transition factors in Inner Mongolia: A qualitative fuzzy logic approach
(2022)
Transitioning towards a low-carbon society is now increasingly becoming a global concern. The goal of successfully achieving this energy transition has become one of most pressing challenge, both among government decision makers and academia. Energy transition has raised up and become one of the top action priorities in China. Inner Mongolia, as the study area in this research, is significant in China's energy transition as one of leading provinces in terms of energy resources and electricity outward transmission.
The main goal of this dissertation is to identify configurations that influence on the energy transition in IMAR. On the basis of a multilevel perspective (MLP) framework, the method of fuzzy-set qualitative comparative analysis (fsQCA) is applied within the thesis, taking 8 Chinese municipalities or leagues as study cases. A qualitative comparative study is carried out of configurations of diversified factors, which affect China’s energy transition. Eight antecedent conditions extracted from landscape level, regime level and niche level respectively.
It is shown that different transition trajectories can have a similar energy transition outcome. Energy transition itself is induced by multiple factors collaboratively. Coal resource curse does not always have negative effects on energy transition in Inner Mongolia. Within this work, two main energy transition modes (supply and demand balance reversed mode in western IMAR and energy technological transformation mode in eastern IMAR) are constructed based on regional differences and yearly dynamics, illustrating the trajectories with different municipal characteristics. The transition pattern also shows different geographical characteristics. Different east-west distribution of the electricity market distributes differently in eastern and western Inner Mongolia, however, the difference in distinct forms of electricity market does not show enough impact on the energy transition trajectory in this dissertation. Overall, this study shows that the local response and its effects on the process of energy transition, in the light of the encouragement and advocacy by the central government. Meanwhile, this study offers a deeper understanding in the feasibility of the application with a methodological combination of MLP and fsQCA in provincial level for future research.
Die vorliegende Diplomarbeit beschäftigt sich ausführlich mit dem Thema Application- Server. Dabei wird speziell auf den Oracle Application-Server (OAS) eingegangen. Dem Leser soll die Architektur des OAS verständlich gemacht werden, sowie ein Überblick über die Einsatzmöglichkeiten gegeben werden. Für die ausführliche Darstellung der einzelnen Themen ist die vorliegende Diplomarbeit in drei Teile eingeteilt. Im ersten Teil dieser Diplomarbeit erhält der Leser eine Einführung in die grundlegenden Begriffe und Technologien, die notwendig sind, um die Funktionsweise eines Application-Server im WWW oder im Intranet verstehen zu können. Dazu werden die technologischen Grundlagen des Internet wie TCP/IP und World Wide Web behandelt. Es folgt ein Einblick in die verschiedenen Netzwerkarchitekturen. Abgeschlossen wird dieser Teil mit einem kurzen Überblick über die Komponentenmodelle CORBA und Enterprise JavaBeans. Im zweiten Teil dieser Diplomarbeit wird der Oracle Application-Server in der Version 4.0.8.1 vorgestellt. Nach einer Einführung in das Thema Application-Server wird die Architektur des OAS beschrieben. Daran anschließend werden die Middleware-Funktionen des OAS behandelt, wie Skalierbarkeit, Datenbankzugriff, Interaktionsmodelle und Sicherheitsaspekte. Zum Abschluss dieses Teils werden dem Leser anhand von Beispielen die Einsatzmöglichkeiten des OAS dargestellt, also welche Arten von Anwendungen auf dem OAS eingesetzt werden können. Im dritten Teil wird die Anwendung "OnlineTicket" beschrieben, die für diese Diplomarbeit entwickelt wurde. Diese Anwendung unterstützt den Vertrieb von Tickets für Veranstaltungen.
Objectives FHIR (Fast Healthcare Interoperability Resources) is an emerging Stan¬dard for improving interoperability in the domain of health care. Besides offering features for achieving syntactical, semantical and organizational interoperability, it also specifies a RESTful API for searching purposes. The main objective of the following thesis revolves around investigating open challenges and limitations of the so-called FHIR Search Framework.
Methods A variety of operations for searching in FHIR resources, including all search interactions, definitions of search parameters, search parameter types and advanced search concepts are described. Over the course of the thesis, a quality model based on ISO 25010 is established. It serves as the foundation for determining if the FHIR Search Framework is well-suited to cover the Information needs of its users. An analysis of completeness involving the measures defined in the quality model forms the main contribution. The primary discussion of the research questions is concluded by proposing a graph model for determining reachability between FHIR resources, essentially mirroring the chaining and reverse chaining functionality. Using well-known classes for expressiveness in graphs, the thesis assess to which degree a graph search can be formulated with the currently defined capabilities.
Results From a functional perspective the FHIR Search Framework can be considered well-suited. Practical limitations should be minimal, grounded on the fact that extensive coverage of the lowest expressiveness classes, RPQs and 2RPQs, can be achieved. Severe gaps where identified only in the support of C(2)RPQs and Data Path Queries. Additionally, ideas for improving non-functional aspects are introduced to support developers in learning the Standard and testing their implementations.
Conclusion The evaluation of the FHIR Search Framework showed promising re¬sults in terms of functional completeness. Yet, the Standard is still evolving, and certain parts of the Search API are neither well-known nor implemented widely. A discussion is to be held if the specification should cover more sophisticated aspects that result from the gaps which were identified.
Ziel der Diplomarbeit ist die Entwicklung einer datenbankgestützten Anwendungssoftware, deren Aufgabe es ist, das Internetportal der Stadt Hagen hinsichtlich bestimmter Grundfunktionen automatisiert zu überprüfen. Aufgrund der funktionalen Ausrichtung handelt es sich bei dem zu entwickelnden Prototypen um eine Software, die im Bereich Software-Qualitätsmanagement angesiedelt ist und dem sogenannten Black-Box-Verfahren zugeordnet werden kann.
Development of renewable energy projects within photovoltaic energy sector has reached unrestrainable pace in recent years and thus the investors are more vigilantly considering the further business deployment towards this sector. Underpinned with clear support from KfW Development Bank, the company MACS Energy & Water GmbH decided to facilitate future verification of credit lines towards these projects by deploying special eSaveTM software which would include technical and financial appraisals specially designed for their clients. Hereof this thesis comprises the initial phase development of this software within the MS Excel and endeavors to provide a proper guideline for the software engineers included in this task in the company. In order to simplify the explanation process this report sticks to 50 kW power plant project in Prokuplje. It is anticipated that this model would enhance, improve and expedite the feasibility analysis between the cooperatives by delivering the projections of energy yield, payback periods and sensitivity analysis of the loan conditions specified for the target country and PV projects in the same. However, besides this main task this report aims to fulfill all the other necessary prerequisites for accomplishing a good due diligence practice. Therefore the thesis places its focus to Republic of Serbia where exceptional due diligence reports were made, among which the Prokuplje project, and compiles the assessments in terms of legal, environmental and risk into one general framework for PV projects in this country. By doing so, the desktop-based model and results obtained with this user-friendly tool can lean on the full due diligence assessment and provide the reader a clear comprehensive overview of possibility to invest into this renewable energy sector in Republic of Serbia.
Keywords: PV, Due diligence, Serbia, eSaveTM, feasibility, model
An der Schwelle in ein überwiegend digitales Informationszeitalter stößt das in der „Printwelt“ fest etablierte Publikationsmodell des wissenschaftlichen Zeitschriftenverlages immer mehr an seine Grenzen. Dies ist nicht nur auf das enorme Potenzial der modernen Informations- und Kommunikationstechnologien des 21. Jahrhunderts zurückzuführen, sondern auch auf die zunehmende Konzentration im wissenschaftlichen Verlagswesen, die eine „Krise der wissenschaftlichen Informationsversorgung“ ausgelöst hat. Vor diesem Hintergrund haben sich in den letzten Jahren verschiedene Formen des elektronischen Publizierens herausgebildet, welche die Akteure des wissenschaftlichen Publikationswesens zwingen, sich neu zu positionieren. Dies gilt insbesondere für die wissenschaftlichen Bibliotheken, die ihr klassisches Konzept von Bestandsaufbau, -erschließung und -vermittlung dringend modifizieren müssen. Gleichzeitig bietet die derzeitige Umbruchsituation den Bibliotheken aber auch die Chance, künftig eine aktivere Rolle zu spielen. Das Ziel der vorliegenden Arbeit ist es, die neuen Möglichkeiten, die sich durch die modernen Informations- und Kommunikationstechnologien ergeben, vor allem im Hinblick auf eine Neupositionierung der Bibliotheken im Bereich des wissenschaftlichen Publizierens, auszuloten. Im Mittelpunkt der Analyse stehen dabei die STM-Disziplinen und der wissenschaftliche Zeitschriftenmarkt, weil in diesem Bereich angesichts der zunehmend ausufernden „Zeitschriftenkrise“ der größte Handlungsbedarf besteht.
Welchen Stellenwert hat philosophische Literatur für Kinder und Jugendliche zu Beginn der Informationsgesellschaft und zum Ende dieses Jahrtausends? Macht es nicht wesentlich mehr Sinn, eine Computerzeitschrift zu abonnieren ? Oder kommt der Philosophie im Zeitalter der Bits und Bytes doch noch eine Bedeutung zu? In unserer immer komplexer werdenden Gesellschaft muß die Entwicklung eines stabilen Ichs ein grundlegendes Erziehungsziel sein. Die Identitätsfindung hat aber ganz unmittelbar etwas damit zu tun, was man als "philosophische Fragestellungen" bezeichnen kann. Soziale und politische Mündigkeit sind nicht losgelöst zu sehen von den Fragen : Wer bin ich ? Welche Werte habe ich? Angesichts der Informationsflut in unserer Mediengesellschaft wird es immer schwieriger, seinen eigenen Standpunkt zu finden. In diesem Zusammenhang ist nicht nur der Zugang zu Information wichtig, sondern auch die Fähigkeit, diese Informationen kritisch zu hinterfragen. Um scheinbar Selbstverständliches und Alltägliches einordnen und seine Bedeutung kritisch bewerten zu können, muß man die Fähigkeit zur Reflexion und Selbstreflexion erworben haben. Damit bewegt man sich aber schon auf dem Gebiet der Philosophie. In der vorliegenden Arbeit wird versucht, in einem theoretischen Teil eine Übersicht über die Geschichte und die verschiedenen Richtungen der Kinderphilosophie zu geben. Anhand eines ausgewählten Beispiels ("Sofies Welt" von Jostein Gaarder) soll dann in einem zweiten Teil ein Bezug zwischen einem literarischen Bestseller aus dem bibliothekarischen Grundbestand und kinderphilosophischen Aspekten hergestellt werden. In einem dritten, praxisnahen Teil möchte ich untersuchen, in welchem Grad der große Verkaufserfolg dieses Buches sich als Bekanntheitsgrad in einer bestimmten Altersgruppe (10. Jahrgangsstufe) widerspiegelt.
Web 2.0 als markantes Marketingschlagwort und ein Begriff, der viele Assoziationen und Interpretationsmöglichkeiten zulässt, beschreibt die Entwicklungsphase, die das Internet momentan durchläuft. Verbunden mit zahlreichen Anwendungen und Konzepten wie Wikis, Podcasts, Blogs, Social Tagging, Webplattformen, Social Networks und weiteren wesentlichen Elementen vollzieht sich im Internet eine immer stärkere Demokratisierung, die sich in ihren dezentralen Strukturen und zunehmend partizipierten Nutzern zeigt. Die Nutzer selbst verfügen über immer größer werdende Freiräume sowie Möglichkeiten eigene Inhalte zu publizieren, selbstständig zu kommunizieren, zu diskutieren und Inhalte gemeinsam durch die kollektive Zusammenarbeit zu verändern sowie deren Qualität und Vielfältigkeit zu verstärken. Dies hat maßgeblich die Kommunikation und den Austausch von Informationen im Internet verändert und weiterentwickelt. Auch Weblogs1 positionieren sich zunehmend als Bestandteil dieser sich verändernden Medien- und Informationslandschaft als neu entstandenes Instrument zur Kommunikation, Information und Vernetzung. Dabei stellen die zunächst als verlinkende und navigierende Instrumente entstandenen Weblogs innerhalb des Internets heute eine wichtige Form der Auseinandersetzung mit sowohl privaten als auch öffentlichen Themen dar. Entscheidend ist dabei vor allem die sehr subjektive und authentische Darstellung von persönlichen Erlebnissen, jedoch auch die Reflexion politischer und gesellschaftlicher Neuigkeiten sowie die kritische Auseinandersetzung mit der Medienlandschaft. Besonders die Diskussion über verschiedene sehr breit gefächerte Themenkomplexe sowie der Austausch und die Vernetzung in der so genannten Blogosphäre nehmen dabei einen hohen Stellenwert ein. Wenngleich die Auseinandersetzung mit der eigenen Person vor allem im privaten Bereich auftritt, stellen sich Weblogs im unternehmerischen Bereich zunehmend als wertvolle Instrumente des Marketings und der internen wie externen Kommunikation heraus. Als einfach einzurichtende und leicht handhabende Instrumente werden Weblogs immer stärker in die Ziele und Strategien von Unternehmen mit eingebunden. Aber auch Bibliotheken sind zunehmend auf diesen neuen Bereich des Internets aufmerksam geworden. Anhand eines zunächst einleitenden Kapitels über den Begriff des Web 2.0 im Allgemeinen sowie speziellen Formen und der Darstellung von Weblogs als separat betrachtete Form der Web 2.0-Anwendungen, stellt diese Arbeit die Verwendung von Weblogs in öffentlichen Bibliotheken ins Zentrum der Betrachtung. Neben einer Übersicht über den momentanen Stand von konkreten Anwendungen und der vorliegenden Quellenlage soll eine vergleichende Betrachtung von Beispielen aus Deutschland und den USA anhand einer Analyse konkrete Erkenntnisse verdeutlichen und zeigen, inwieweit Chancen bereits genutzt werden und noch Potenziale bestehen. Abschließend werden diese Ergebnisse in einem eigenständigen Konzept zur Umsetzung einer Bloggingstrategie für öffentliche Bibliotheken dargestellt und in einem Fazit in Zusammenhang mit einem Ausblick auf mögliche, zukünftige Entwicklungen gesetzt.
Due to the present developments of the Internet and its technical components, the skills of the web experts have to be more and more complex and specific. The Internet experts in the creative field are located distributedly around the whole world. As a result, many companies have problems to find the needed experts on site and are dependent on creative cooperations and virtual teams with the help of technical tools. The virtual working place is an important issue, particularly in modern times and the market offers more and more cooperation systems for exactly this purpose: Creative cooperation in distributed working situations. This thesis examines the approaches of creative cooperation and cooperation technologies with an analysis about existing cooperation systems with a creative context. It spans a wide range of tools. On the one hand, there are approaches which offer only straightforward solutions for single design tasks. On the other hand, there are providers which recognised the great need of creative cooperation systems and working at full speed to extend their systems. The examined areas of this work lead to a design process oriented approach with flexible frames and enough space for the creative development of every single user. The cooperation in a creative context stays in the foreground and is the base for future approaches for the web design sector.
As a customer, it can be frustrating to face an empty shelf in a store. The market does not always realize that a product has been out of stock for a while, as the item is still listed as in stock in the inventory management system. To address this issue, a camera should be used to check for Out-of-Stock (OOS) situations.
This master thesis evaluates different model configurations of Artificial Neural Networks (ANNs) to determine which one best detects OOS situations in the market using images. To create a dataset, 2,712 photos were taken in six stores. The photos clearly show whether there is a gap on the shelf or if the product is in stock. Based on the pre-trained VGG16 model from Keras, two fully connected layers were implemented, with 36 different ANNs differing in the optimization method and activation function pairings. In total, 216 models were generated in this thesis to investigate the effects of three different optimization methods combined with twelve different activation function pairings. An almost balanced ratio of OOS and in-stock data was used to generate these models.
The evaluation of the generated OOS models shows that the FTRL optimization method achieved the least favorable results and is therefore not suitable for this application. Model configurations using the Adam or SGD optimization methods achieve much better results. Of the top six model configurations, five use the Adam optimization method and one uses SGD. They all achieved an accuracy of at least 93% and were able to predict the Recall for the OOS class with at least 91%.
As the data ratio between OOS and in-stock data did not correspond to reality in the previously generated models, the in-stock images were augmented. Including the augmented images, new OOS models were generated for the top six model configurations. The results of these OOS models show no convergences. This suggests that more epochs in the training phase lead to better results. However, the results of the OOS model using the Adam optimization method and the Sigmoid and ReLU activation functions stand out positively. It achieved the best result with an accuracy of 97.91% and a Recall of the OOS class of 87.82%.
Overall, several OOS models have the potential to increase both market sales and customer satisfaction. In a future study, the OOS models should be installed in the market to evaluate their performance under real conditions. The resulting insights can be used for continuous optimization of the model.
Diese Diplomarbeit beleuchtet die in Deutschland bisher wenig beachtete Thematik der Hörgeschädigten als Bibliotheksbenutzer. Sie beschreibt die Erscheinungsformen und die Verbreitung der Hörschädigung in Deutschland und ihren negativen Einfluss auf die Lese- und Informationskompetenz der Betroffenen. Das Dienstleistungsangebot für Hörgeschädigte in ausländischen und deutschen Bibliotheken wird detailliert beschrieben und verglichen. Anschließend werden die verschiedenen Dienstleistungen im Einzelnen erläutert und ein möglicher Einsatz in deutschen Bibliotheken diskutiert. Als Ergebnis wird festgehalten, dass es in deutschen Bibliotheken, im Gegensatz zu denen im Ausland, kaum spezielle Angebote für Hörgeschädigte gibt. Bibliotheken müssen gezielt Bestandsaufbau betreiben, technische Hilfsmittel zur Verfügung stellen und Hörgeschädigte in das Veranstaltungsangebot integrieren, um so auch dieser Gruppe Medien- und Informationskompetenz zu vermitteln.
Die vorliegende Masterarbeit behandelt die Bewertung der eingegangenen Unternehmensrisiken im Rahmen der Lebensversicherung und die hiervon abgeleiteten Auswirkungen zur Unternehmenssteuerung.
Dabei wird einerseits die Angemessenheit der sog. „Standardformel“ nach Solvency II überprüft, die in den europäischen Mitgliedsstaaten einen weitestgehend einheitlichen Ansatz bei der Bewertung der Risiken von Versicherungsunternehmen verwendet. Andererseits werden unter ökonomischen Überlegungen versicherungsmathematische Methoden vorgestellt, wie ein Lebensversicherer seine Risiken unternehmensindividueller ermitteln und damit seinen tatsächlichen Risikokapitalbedarf bestimmen kann.
Zur Quantifizierung der Ergebnisse werden die Berechnungsvorgaben der Standardformel für ausgewählte Risikomodule nachgebildet und mit den in dieser Arbeit vorgestellten unternehmensindividuellen Berechnungen verglichen und analysiert. Es zeigt sich, dass trotz der Komplexität des Solvency II-Modells eine noch differenziertere Herangehensweise notwendig ist, damit ein einzelnes Unternehmen seine Risiken adäquat und möglichst individuell bestimmen kann. Zur Gewährleistung einer nicht bestandsgefährdenden Unternehmensfortführung müssen die Versicherungsunternehmen bei Betrachtung ihrer Risiken mithilfe des EU-weiten Aufsichtssystems Solvency II in der Lage sein, die korrekten Rückschlüsse zur Unternehmenssteuerung zu ziehen. Die in dieser Arbeit vorgestellten versicherungsmathematischen Ansätze können dabei den Prozess zur unternehmenseigenen Risiko- und Solvabilitätsbeurteilung (ORSA) unterstützen.
Das eLearning Datenbank Portal der Fachhochschule Köln unterstützt Studierende im Fach Datenbanken und Informationssysteme mit umfangreichen E-Learning-Tools (http://edb.gm.fh-koeln.de). Die Diplomarbeit „Konzeption und Realisierung eines Statistiktools auf Basis von JSP und DOJO“ beschäftigt sich mit der Entwicklung eines Statistiktools, das die Nutzung des eLearning Portals durch die Studenten auswertet und die Nutzungsdaten als Diagramme auf einer Benutzeroberfläche einfach und übersichtlich dargestellt, damit diese von Lehrenden überprüft werden können. Der theoretische Teil der Diplomarbeit ist in zwei Abschnitte aufgeteilt. Der erste Abschnitt beschreibt die Grundlagen von Java Server Pages und die JavaScript-Bibliothek Dojo Toolkit. Es werden deren Eigenschaften und praktische Anwendung ausführlich erläutert. Der zweite Abschnitt befasst sich mit der Entwicklung eines Konzepts zum Statistiktool. Es stehen die Analyse der Nutzungsdaten und der Vergleich zwischen Oracle Application Express (APEX) und Dojo zur Erstellung von Diagrammen in Vordergrund. Im praktischen Teil der Diplomarbeit wird das Konzept umgesetzt und die Implementierung des Statistiktools als JSP-Anwendung mit der Verwendung von Dojo beschrieben.
Urbanization processes are one of the main factors for habitat loss and fragmentation, driving global biodiversity loss and species extinction. The neotropical Atlantic forest in Brazil is considered a global key biodiversity hotspot and used to be one of the most extensive forests of the Americas. Due to substantial deforestation over centuries, its landscape was transformed into a mosaic of small forest fragments surrounded by a predominantly agricultural matrix. Urban expansion and rural urbanization have created peri-urban zones, which still can harbor natural habitat remnants,
contributing to biological diversity and thus providing essential ecosystem services to urban and rural areas. The maintenance of such ecosystem services requires an understanding of the ecological processes in the ecosystem. A prerequisite for such an in-depth insight is the quantification of the underlying ecosystem functions. The ecosystem function pest control, a trophic interaction between insectivorous birds and herbivorous arthropods, was quantified in an empirical study using artificial caterpillars as prey models. This technique allows the identification of predator groups and the assessment of their predation rates. A total of 888 plasticine caterpillars were distributed at eight sites in secondary forest fragments surrounding the university campus of the federal university of São Carlos (UFScar) in peri-urban Sorocaba, southeastern Brazil. In sixteen point counts, 72 insect-eating birds, belonging to 19 species, were identified as possible artificial caterpillar attackers. Local habitat variables were measured to describe the forest vegetation structure and the landscape context. The study aimed to assess which structural components of the
forest fragments, together with the recorded bird community variables (abundance, richness, αdiversity), best explain the estimated predation rates by birds. The mean predation rate for birds was 8.25 ± 6.3 % for a reference period of eight days, representing the first quantification of the ecosystem function pest control for the study area. The three treatments of caterpillar placement heights (ground, stem: 0.5 -1.0 m, leaf: 1.5 - 2.0 m) were the best and only estimator to explain bird
predation rates. The little dense understory and ground vegetation might have facilitated the accessibility of artificial caterpillars, especially for carnivorous arthropods and birds. The detected contrast in their foraging and predation patterns suggests that arthropods and birds complement each other in their function of pest control. Bird predation rates were found to be negatively related to the vegetation structure. Thus, more open habitats, with less understory and low tree density, but high canopy cover and including dead trees were correlated with the highest predation rates and also exhibited more specialized forest-dependent bird species. This study confirms the importance of the maintenance of forest fragments in peri-urban areas, even if they are small, to preserve forest-associated birds, to contribute to the biological diversity on a broader scale, and to prevent the loss of ecosystem functions and services, mitigating some of the adverse effects of urbanization. Further investigation of the effect among the three treatments of caterpillar
placement on the predation rates is encouraged, including comparative studies among different habitat types. For future studies, it is recommended to model the avian community variables with the vegetation structure measures to predict habitat preferences of insectivorous birds. Therefore, the sampling of more units and on a bigger scale, including over a more extended period, is necessary to improve the robustness of the results, which could provide the basis for a monetary analysis of the ecosystem service pest control by birds.
Die Analyse von Log-Dateien als Spezialfall des Text Mining dient in der Regel dazu Laufzeitfehler oder Angriffe auf ein Systems nachzuvollziehen. Gegen erkannte Fehlerzustände können Maßnahmen ergriffen werden, um diese zu vermeiden. Muster in semi-strukturierten Log-Dateien aus dynamischen Umgebungen zu erkennen ist komplex und erfordert einen mehrstufigen Prozess. Zur Analyse werden die Log-Dateien in einen strukturierten Event-Log (event log) überführt. Diese Arbeit bietet dem Anwender ein Werkzeug, um häufige (frequent) oder seltene (rare) Ereignisse (events), sowie temporale Muster (temporal patterns) in den Daten zu erkennen. Dazu werden verschiedene Techniken des Data-Minig miteinander verbunden. Zentrales Element ist dieser Arbeit das Clustering. Es wird untersucht, ob durch Neuronale Netze mittels unüberwachtem Lernen (Autoencoder) geeignete Repräsentationen (embeddings) von Ereignissen erstellt werden können, um syntaktisch und semantisch ähnliche Instanzen zusammenzufassen. Dies dient zur Klassifikation von Ereignissen, Erkennung von Ausreißern (outlier detection), sowie zur Inferenz einer nachvollziehbaren visuellen Repräsentation (Regular Expressions; Pattern Expressions). Um verborgene Muster in den Daten zu finden werden diese mittels sequenzieller Mustererkennung (Sequential Pattern Mining) und dem auffinden von Episoden (Episode Mining) in einem zweiten Analyseschritt untersucht. Durch das Pattern Mining können alle enthaltenen Muster im einem Event-Log gefunden werden. Der enorme Suchraum erfordert effiziente Algorithmen, um in angemessener Zeit Ergebnisse zu erzielen. Das Clustering dient daher ebenfalls zur Reduktion (pruning) des Suchraums für das Pattern Mining. Um die Menge der Ergebnisse einzuschränken werden verschiedene Strategien auf ihre praktische Tauglichkeit hin untersucht, um neue Erkenntnisse zu erlangen. Zum einen die Mustererkennung mittels verschiedener Kriterien (Constrained Pattern Mining) und zum anderen durch die Nützlichkeit (High Utility Pattern Mining) von Mustern. Interessante temporale Muster können auf anderen Log-Dateien angewendet werden, um diese auf das Vorkommen dieser Muster zu untersuchen.
Problemstellung: COVID-19 ist nicht nur aufgrund der Folgen der Erkrankung problematisch, sondern auch aufgrund einer ganzen Reihe von Sekundäreffekten. So stellt eine lang andauernde Pandemie eine Dauerbelastung dar, welche sich auf die Psyche des Menschen auswirken kann. Insbesondere Kinder und Jugendliche sind hier auf-grund ihrer besonderen Angewiesenheit auf das häusliche Umfeld besonders vulnerabel. Zeitgleich ist diese Gruppe in bestehenden Krisenplänen bisher nicht oder kaum relevant. Aufgrund der Besonderheit, dass sich Kinder und Jugendliche noch in der Entwicklung befinden und dass, insbesondere für jüngere Kinder, die aktuell seit über einem Jahr bestehende Situation der Pandemie und die damit verbundenen Einschränkungen einen erheblichen Zeitraum darstellt, besteht ebenfalls die Gefahr von kulturellen und sozialen Entwicklungsproblemen. Vor diesem Hintergrund ist auch zu beachten, dass Maßnahmen gegen das Virus, welches die Primärgefahr darstellt, ebenfalls negative Auswirkungen auf Kinder und Jugendliche darstellen und somit zu Sekundärgefahren führen können. Weiterhin ist zu bedenken, dass Fehler in der Pandemiebekämpfung, welche sich nachhaltig negativ auf Kinder und Jugendliche auswirken, in der Zukunft in Form von Problematiken im Erwachsenenalter und, bei entsprechend vielen Betroffe-nen, in der gesamten Gesellschaft sichtbar werden. Um dies zu erforschen, werden zunächst die Fragestellungen bearbeitet, welche Sekundärgefahren und Risiken aufgrund von COVID-19 für Kinder und Jugendliche vorliegen, sowie ob die Vor- und Nachteile der Lockdowns die Vorteile für Kinder und Jugendliche überwiegen. Im Anschluss werden Handlungsempfehlungen gegeben, wie die Gesundheit und das Wohlergehen von Kindern und Jugendlichen in künftig ähnlichen Lagen sichergestellt werden können.
Angewandte Methoden: Um ein möglichst umfassendes Bild über die Lage von Kindern und Jugendlichen in Deutschland zu erhalten, werden Experteninterviews mit Expertinnen und Experten aus unterschiedlichen Fachgebieten und Berufsbereichen durchge-führt. Aufgrund der internationalen Vergleichbarkeit der Problematik werden auch Ex-pertinnen und Experten aus dem internationalen Raum befragt. Dies kann dazu beitragen, Aspekte, welche im nationalen Raum nicht bekannt sind oder nicht als relevant eingeschätzt werden, in diese Arbeit mit einfließen zu lassen. Weiterhin werden Studien und Quellen aus dem nationalen Raum in Form einer Sekundäranalyse betrachtet, um auf die Vor- und Nachteile der Lockdowns Rückschlüsse ziehen zu können. Insbesondere die Unterschiedlichkeit der verschiedenen Studien und Quellen stellte dabei eine große Herausforderung dar. Somit findet eine Anwendung von qualitativen und quanti-tativen Methoden statt, was als Mixed Methods bezeichnet wird.
Wichtigste Ergebnisse: Eine eindeutige Aussage über die Sekundärgefahren für Kinder und Jugendliche gestaltet sich als schwierig, da diese Gefahren unter anderem stark durch das häusliche Umfeld geprägt sind. So scheinen Kinder und Jugendliche aus so-zial schwächeren Familien in einem höheren Maße betroffen zu sein als jene, aus sozial stärkeren Familien. Zusätzlich stellt die Pandemie eine Brennglasfunktion für bereits zu-vor bestehende Problematiken dar. Der Vergleich von Vor- und Nachteilen der Lockdowns für Kinder und Jugendliche zeigt die Unterschiedlichkeit bestehender Studien und Quellen auf, wodurch das Ergebnis dieser Fragestellung primär Indizien darstellt. Die Handlungsempfehlungen, welche ebenfalls ein Ziel dieser Arbeit darstellen, bestehen
auf den vorherigen Ergebnissen aufbauend aus grundsätzlichen Handlungsempfehlungen, dem Einbezug von Kindern und Jugendliche in Pandemiepläne, der Beteiligung von Kindern und Jugendlichen in Entscheidungen bezüglich Krisensituationen sowie der Nachsorge der aktuellen Pandemie.
Anwendungsgebiet und Zielgruppe: Bei dem Anwendungsgebiet handelt es sich zu-nächst um ganz Deutschland, wobei unter Beachtung örtlicher Gegebenheiten auch ein internationaler Anwendungsbezug des Themas besteht. Die Zielgruppe stellen insbesondere Politiker und Entscheider in Behörden dar, welche zuständig für die Formulierung bzw. Fortschreibung von Pandemieplänen und für die Bereitstellung der techni-schen und personellen Ressourcen sind.
The southeast of Córdoba province used to be originally covered by hundreds of wetlands that got heavily modified or drained in the last few decades. Since wetlands provide various important ecosystem services (ESS) for human well-being, their degradation created several problems in La Picasa basin, among which floods are the most obvious one. The wise use of wetlands is increasingly acknowledged to be part of nature-based solution approaches reducing disaster risk. However, in the study area these approaches remain a relatively new concept to decision makers and the lack of knowledge on their effectiveness and implementation process poses a serious barrier to their adoption.
To overcome this obstacle, this dissertation applies an ESS perspective on the current problems of La Picasa basin and sets it in a context of socio-ecological system (SES) theory. A comprehensive analysis of (1) the role wetlands have played in the historic development of the SES, (2) important stakeholder dynamics that create opportunities or restrictions for the conservation of wetlands and (3) possible management approaches to inverse negative ESS trade-offs and feedback loops, was performed.
Results demonstrate that the current problems of floods have both natural and anthropogenic causes. In this regard, wetlands hold a vital role in the complex historic interactions between the social and ecological drivers of changes in the water balance. Although a social network between stakeholders exists, several conflicts prevent a proper functioning of a basin-wide integrated management concept based on wetland restoration. Nature-based solution approaches, putting wetlands in the center of attention of future management strategies, were found to hold a high potential to reduce the risk of floods and, as a side-effect boost biodiversity and habitat quality in the study area.
Seitdem neue Displaytechniken wie Flüssigkristall- und Plasma-Anzeigen Einzug in den professionellen Fernsehbereich gehalten haben, gewinnen neben den herkömmlichen Qualitätsparametern zusätzliche Parameter wie die Bildqualität bei Bewegtbildwiedergabe enorm an Bedeutung. Um eine qualitative Bewertung für die Bewegtbildwiedergabe durchführen zu können, muss zunächst ein objektives Messverfahren für die Bestimmung der Bewegungsunschärfe entwickelt werden. Zusätzlich müssen diese objektiv gemessenen Ergebnisse auf Korrelation mit dem subjektiven Bildeindruck hin geprüft werden.
Das permanente Angebot und die Nachfrage an Informationen und Daten jeglicher Art wachsen zunehmend. Das Ergebnis einer meist verschachtelten Suche nach bestimmten Zahlen ist jedoch oftmals eine unübersichtliche, tabellarische Aufstellung derer. Zudem ist dagegen die Aufnahme grafischer Informationen erheblich höher und effektiver. Als Ergebnis der Diplomarbeit soll im ersten, theoretisch-wissenschaftlichen Teil eine technische Konzeption für ein intelligentes Visualisierungs-System erarbeitet werden. Im zweiten, praktischen Teil soll anhand der untersuchten Methoden und des entwickelten Konzepts eine Anwendung kreiert werden, welche ausgewählte Methoden zur interaktiven Visualisierung statistischer Daten nutzt.
Seit den 90er Jahren des letzten Jahrtausends existieren Virtuelle Fachbibliotheken, die im Rahmen des Programms zur überregionalen Literaturversorgung von der DFG gefördert werden und mit der Verbindung von Nachweis und Zugang zu elektronischen und gedruckten wissenschaftlichen Informationen einen wichtigen Beitrag zur Fachinformationsversorgung für nahezu alle Wissenschaftsbereiche leisten. In dieser Arbeit wird überprüft, in wie fern die Virtuelle Fachbibliothek für die Medizin (Medpilot) die Anforderungen, die in der Literatur an eine Virtuelle Fachbibliothek gestellt werden erfüllt und in welcher Form die einzelnen Module umgesetzt wurden. Nach einer ausführlichen Beschreibung und einer Bewertung der einzelnen enthaltenen Module anhand definierter Kriterien werden Unterschiede zu anderen Angeboten aufgezeigt und Verbesserungsvorschläge unterbreitet.
Circular economy (CE) has received considerable interest in recent years as a strategy to resolve some of our modern urban resource challenges, and circular city models often incorporate systems of urban agriculture in their design. Much work has analyzed the benefits of urban agriculture for creating a resilient food system and as a strategy for supporting urban green space and social cohesion, however, the contributions from business models that operate within urban agriculture have not been thoroughly studied. Many urban agriculture businesses often claim high levels of resource recycling and material circularity, though whether a resource efficiency throughout the entire product lifetime (including energy and material footprint for the cultivation equipment) in comparison to current industrial strategies is truly feasible or even possible is still to be debated. This thesis builds upon work that incorporates social dimensions of CE definitions and begins to research whether the potential resource efficiency contradiction can be justified as to make urban agriculture a valid approach for circular city design. This study examined an urban mushroom farm that implements a circular business model. A qualitative summary of the business operations and resource flows were unpacked and sorted into 24 socio-economic contributions based on their interpreted relevance. The interpreted data shows that an urban agriculture business model can contribute to the building blocks of a CE through economic, ecological, social, and spatial contributions. While these contributions can contribute positively to the operationalization of CE, potential trade-offs regarding resource efficiency, use of urban space, and investment priorities need to be considered and addressed to avoid a possible watering down or greenwashing of the CE concept.
Thema der Masterarbeit ist die Ablösung eines bestehenden kundenspezifischen IT-Systems durch moderne PC-Technologie mit dem Betriebssystem Linux. Die Software des neuen Systems sollte sich nach außen identisch mit der des abgelösten Systems verhalten. Dazu mussten die bestehenden Prozesse von der Programmiersprache PEARL für die neue Linux-Umgebung nach C++ portiert werden. Für diese und für neu geschaffene Prozesse wurde ein Applikationsframework als gemeinsame Software-Basis geschaffen. Zur Ankopplung externer, beibehaltener Systeme war ferner die Implementierung eines ISO/OSI 8073/TP4-Netzwerkprotokoll-Stacks erforderlich. Die Masterarbeit beschreibt zunächst das neu geschaffene, objektorientierte Applikationsframework. Dessen Komponenten, insbesondere die verschiedenen Klassen zur Kapselung des Linux Message Queue-Mechanismus zur Interprozesskommunikation, werden vorgestellt. Im Anschluss erfolgt die Beschreibung des ISO/OSI 8073/TP4-Protokolls, kombiniert mit allgemeinen Grundlagen für die Realisierung von gesicherten Transportprotokollen der OSI-Schicht 4. Angesprochen werden ferner die Protokolle IEEE802.2 und IEEE 802.3 der OSI-Schicht 2 für Medium Access Control (MAC) und Logical Link Control (LLC). Zur Implementierung dieser Protokolle kommen die Linux RAW Sockets als Programmierschnittstelle zum Netzwerkkarten-Zugriff zum Einsatz. Schwerpunkt der Arbeit ist die Software-Architektur zur Umsetzung des TP4-Transportprotokolls. Die nötigen Mechanismen für eine gesicherte Datenübertragung mit Sequenznummern, Acknowledges und Timern werden objektorientiert in C++ realisiert. Die Modellierung der beteiligten Klassen erfolgt mit Hilfe der Unified Modeling Language (UML).
Die vorliegende Diplomarbeit beschäftigt sich mit dem Web Application Servers in der Version 3.0 von Oracle. Der Web Application Server ist ein Programmpaket für die Entwicklung und Implementation von serverseitigen Anwendungsprogrammen, die über das Internet benutzt werden können. Das entsprechende Anwendungsprogramm wird nur vom Webserver ausgeführt. Für die Ausführung einer mit Hilfe des Web Application Server erstellten Anwendung wird auf der Clientseite nur ein Internetbrowser benötigt. Der Web Application Server wurde speziell daraufhin ausgelegt, daß die mit seiner Hilfe entwickelten Anwendungen ihre Daten aus einer Datenbank beziehen können. Für den Anwendungsentwickler ermöglicht der Web Application Server also Anwendungen für das Internet zu erstellen, wobei der Entwickler auf eine breite Palette von Programmiersprachen zurückgreifen kann. Das sind z.B. Perl, C++, Java und natürlich die für Oracledatenbanken benutzte Sprache PL/SQL. Da der Web Application Server die Internettechnologie, sowie die Datenbanktechnologie berührt, werden in den ersten Abschnitten nicht nur der Nutzen dieser Plattform im Rahmen der Client/Server Architektur gezeigt, sondern auch Grundlagen des Internets und relationaler Datenbanken vorgestellt. Dieses ist notwendig, um die Abläufe von Web Application Server basierten Anwendungen zu verstehen. In den weiteren Kapiteln werden die einzelnen Bauteile des Web Application Server - Programmpaketes vorgestellt. Hierbei wird kurz auf die Installation und Konfiguration der Web Application Server Plattform eingegangen. Anschließend soll das Zusammenspiel der Web Application Server - Elemente mit Hilfe einer Beispielanwendung gezeigt werden.
Due to the global phenomenon of climate change the region of Mara Siana is projected to increasingly face extreme weather events that particularly comprise prolonged droughts and
heavier rainfalls. To be able to adequately adapt to these changing circumstances and maintain their livelihoods communities need to build respective capacities. As the main objective, this research aims at determining landowners’ climate change adaptative capacity (CCAC) across different villages in Mara Siana. Accordingly, a semi-quantitative approach was carried out including qualitative interviews and the subsequent quantitative calculation of CCAC based on a multidimensional indicator set and a respective coding
system. In addition to predominantly positive results of socio-cultural characteristics and the quality of natural resources, this work reveals clear weaknesses and potential for improvement in the areas of income security and financial stability, the expansion and resilience of infrastructure, and the relationship between communities and local authorities. Moreover, differences in capacity results are not only identified between the investigated villages as well as between individual households but also systemic disadvantage in capacity building affecting female landowners and community members can be indicated from the obtained interview data. Therefore, this research gives concrete recommendations for the implementation and verification of suitable adaptive measures that are particularly tailored for the improvement of low-performance indicators while following a gendertransformative approach and thus hold the potential to increase CCAC in the long-term.
Diese Diplomarbeit beschreibt eine Softwareentwicklung für ein datenbankgestütztes Informationssystem. Bei der Entwicklung dieses Systems wird ausschließlich frei verfügbare Software eingesetzt. Damit die Leistungsfähigkeit der eingesetzten freie Software besser beurteilt werden kann, wird in der vorliegenden Diplomarbeit beispielhaft eine Komponente einer Kursverwaltungs-Software entwickelt. Die entwickelte Komponente ist Teil des Datenbanksystems ”Kursverwaltung” der Deutschen Unfallhilfe DUH GmbH in Bochum. Diese Firma wurde ausgewählt, da dort im Rahmen einer Neukonzeption ein Datenbanksystem entstehen soll und der Einsatz freier Software favorisiert wird. Zu Beginn der Diplomarbeit wird erläutert, was der Begriff ”freie Software” bzw. ”Open-Source” beinhaltet und welchen Stellenwert diese Softwareprodukte zur Zeit besitzen. Nach diesem allgemeinen Überblick werden spezielle Softwareprodukte für die genannte Softwareentwicklung vorgestellt. Anschließend werden die vorgestellten Produkte zur Entwicklung einer Komponente des Datenbanksystems ”Kursverwaltung” eingesetzt. Schwerpunkt bilden hierbei vorallem die Entwicklung der Datenbank und die Anbindung der relationalen Datenbank an die objektorientiert entwickelte Programmlogik. Dabei wird auch auf die mögliche Generierung von Softwareteilen eingegangen, welches zur Zeit einen Trend in der allgemeinen Softwareentwicklung ausmacht. Die Diplomarbeit wird durch die Implementierung der Beispielkomponente vervollständigt und schließt mit einer Bewertung der Softwareentwicklung mit Open-Source Programmen ab.
Kinder, die mit Variationen der Geschlechtsmerkmale zur Welt kommen, werden in den ersten Lebensjahren häufig geschlechtsverändernden medizinischen Eingriffen unterzogen. Dabei wird die stellvertretende Einwilligung der Eltern als zulässig erachtet, um den medizinischen
Eingriff zu legitimieren. Diese Maßnahmen stehen jedoch zunehmend in der Kritik und werden als Verstoß gegen die Selbstbestimmung von Kindern und Jugendlichen sowie als Verletzung wesentlicher Grund- und Menschenrechte gewertet. Obwohl sich aktuelle Empfehlungen und
Leitlinien zunehmend an den Rechten und dem Wohl von intergeschlechtlichen Minderjährigen orientieren, ist die Anzahl der geschlechtsverändernden Eingriffe in den letzten Jahren dennoch relativ konstant geblieben. Hieraus ergibt sich ein aktueller Handlungsbedarf. In der vorliegenden Arbeit wird an den Rechten von intergeschlechtlichen Minderjährigen angeknüpft. Dabei liegt der Fokus auf den Selbstbestimmungsrechten von intergeschlechtlichen Kindern und Jugendlichen. In der Literatur ist umstritten, inwiefern Minderjährigen eigene Selbstbestimmungsrechte zustehen und sie diese selbst ausüben können. Im Rahmen der Masterarbeit wird daher zunächst erarbeitet, in welchem Verhältnis Elternrechte und Selbstbestimmungsrechte von intergeschlechtlichen Minderjährigen im aktuellen Familienrecht stehen. Daraus wird abgeleitet, welche Möglichkeiten und Grenzen der Selbstbestimmung und Stellvertretung bei geschlechtsverändernden medizinischen Eingriffen bestehen. Hierbei zeigt sich, dass gerade nicht medizinisch indizierte Eingriffe, die auf eine „Angleichung“ des Geschlechts an bestehende Geschlechternormen ausgerichtet sind, gegen das Kindeswohl sowie Grundrechte verstoßen und Minderjährigen wesentliche Möglichkeiten für eine selbstbestimmte Lebensführung nehmen. Wirksame familienrechtliche Schutzmöglichkeiten bestehen
jedoch nicht. Als Perspektive wird daher ein Gesetzesentwurf des Deutschen Instituts für Menschenrechte auf seinen Schutzgehalt für intergeschlechtliche Minderjährige untersucht. Neben wenigen Kritikpunkten zeigt sich, dass das „Geschlechtervielfaltsgesetz“ zum Schutz und zur Selbstbestimmung intergeschlechtlicher Minderjähriger beitragen könnte. Ergänzend zu einer gesetzlichen
Klarstellung, ist jedoch auch Beratung und Unterstützung für intergeschlechtliche Kinder, Jugendliche und ihre Eltern erforderlich. Aus diesem Grund werden Möglichkeiten der Sozialen Arbeit zur Förderung geschlechtlicher Vielfalt entwickelt und Beratungs- und Unterstützungsansätze dargestellt. Insgesamt zeigt sich jedoch, dass auch ein gesellschaftliches Umdenken
notwendig ist, um intergeschlechtlichen Menschen Selbstbestimmung über ihren Körper und die eigene geschlechtliche Identität zu ermöglichen.
Diese Arbeit soll am Beispiel der Konzeption und Entwicklung eines Tippspiels mit Datenbankanbindung aufzeigen, welche Sicherheitsrisiken bei der Entwicklung einer Internetanwendung auftreten und wie Datenmissbrauch und Datenmanipulation weitgehend vermieden werden können. Dabei stehen im besonderen Maße Themen wie Session-Hijacking, SQL-Injection, Metazeichenbehandlung, Validierung und Passwortsicherheit im Vordergrund. Schwachstellen bei der Programmierung werden durch Codebeispiele veranschaulicht und Lösungen zu möglichen Sicherheitslücken aufgezeigt. Letztendlich wird immer ein Restrisiko bestehen bleiben. Das liegt zum einen an dem nicht enden wollenden Ideenreichtum der Angreifer, „Skript-Kiddies“ und Hacker, Schwachstellen in Computersystemen zu finden, aber auch an den Sicherheitslücken der eingesetzten Software und verwendeten Datenbanken und Schnittstellen – vom Betriebssystem des Servers bis hin zum Internet-Browser des Anwenders. Neue Techniken wie zum Beispiel WLAN bergen neue Gefahren und helfen Angreifern dabei, weitere Angriffsmethoden zu entwickeln und sich auf neue Art Zugang zu einem vermeintlich sicheren System zu verschaffen.
Semesterapparate gehören in Hochschulbibliotheken seit langer Zeit zur Standardausstattung, die im Semesterapparat aufgestellte Literatur wird gewöhnlich für das Semester von der Ausleihe ausgenommen. Der klassische Semesterapparat enthält dabei neben Literatur zu den Lehrveranstaltungen meist auch einen oder mehrere Ordner mit Kopiervorlagen, etwa Skripten und Übungsaufgaben oder –klausuren. Doch immer wieder fehlen aus den Ordnern die Unterlagen, überstehen das häufige Kopieren nicht oder werden so stark in Anspruch genommen, dass die Studierenden lange auf die Gelegenheit zum Kopieren warten müssen. Durch die umfangreiche Novellierung des Urheberrechtsgesetzes im Jahr 2003 und die mittlerweile selbstverständliche Benutzung von Computertechnologie und Internet haben die Hochschulbibliotheken die Möglichkeit bekommen, den klassischen Semesterapparat um eine virtuelle Variante zu erweitern. Auf diesen Plattformen können Dozenten die für ihre Lehrveranstaltungen benötigten Materialien in elektronischer Form ablegen und so bequem für viele gleichzeitige Zugriffe zur Verfügung stellen. Auch die an vielen Hochschulen bereits im Einsatz befindlichen Lernplattformen und Lernmanagementsysteme eignen sich als Grundlage für virtuelle Semesterapparate.
Das Internet of Things (IoT) ist aktuell eines der trendgebenden Themen der Infor-mationstechnik. Dem Thema werden dabei viele Versprechungen, aber auch Erwar-tungen auf staatlicher, wirtschaftlicher und alltäglicher Ebene zugeordnet. Dabei besteht die Frage, was ist Hype und was ist Realität? Motivation und Zielsetzung dieser Arbeit ist es, dieses Thema zu untersuchen und Aspekte daraus in einem Smart Home System umzusetzen. Klare Zielsetzung ist die lauffähige Ver-sion eines Prototyps zu produzieren. Dieser soll den technischen Durchstich ver-schiedener Werkzeuge, Technologien und Services, als integratives Ziel dieser Arbeit, durchführen. Eine Verknüpfung mit realen Anwendungsfällen ist zur besse-ren Veranschaulichung wünschenswert, aber für die Zielerreichung nicht zwangsläu-fig erforderlich. Gleichzeitig soll der Prototyp ein stabiles Fundament für weitere Entwicklungen auf dessen Basis bereitstellen. Der Einsatz von Technologien im Be-ta-Stadium ist dadurch aber nicht ausgeschlossen, wie der Einsatz des aktuell noch in der Entwicklervorschau befindlichen Android Things zeigt.
Untersuchung des Verhaltens von Coriolis Massemessern in einer modulierten Zweiphasenströmung
(1999)
Im Rahmen dieser Diplomarbeit wurde, in Zusammenarbeit mit der Fa. Endress & Hauser, ein neuer Versuchsstand zur Durchflussmessung mittels Coriolismassemessgeräten aufgebaut und in Betrieb genommen. Des Weiteren wurde das Verhalten der Messgeräte in einer Zwei-Phasen-Strömung ( Wasser/Luft ) hinsichtlich ihrer Genauigkeit, bei kontrollierter Eindüsung verschiedener Luftvolumina und Massenströmen untersucht.
Since the development of eGovernment systems is gaining worldwide momentum, the European Union is constantly increasing its efforts to induce the development of eGovernment systems in its member states. The currently running strategy is the ’eGovernment Action Plan 2016-2020’, which understands itself as a catalyst for developments in the member states.
Despite these ongoing efforts by the European Union regarding eGovernment, stud- ies are repeatedly revealing that the quality and acceptance by the citizens of dig- ital public services are varying heavily within the EU. Being based on the same political guidelines provided by the EU, the national strategies implemented the core principles to different degrees. These different implementation rates, analyzed for Germany, the United Kingdom and Estonia, supplement the holistic analysis of the eGovernment policies, applications and usage in each member state. This gets proven by the connection of this indicator with related studies in the field of eGov- ernment applications and usage within the European Union.
The aim of this thesis is, on the one hand, to quantify differences in the implementa- tion of the ’eGovernment Action Plan 2016-2020’ into national policies in Germany, the UK and Estonia and, on the other hand, establish this indicator as a valuable asset for evaluating and monitoring the eGovernment efforts by the EU member states.
Dentro del marco del Decenio de la Alfabetización (2003-2012) de las Naciones Unidas, el presente trabajo pretende ofrecer un cuadro sobre la situación en América Latina y en especial en Bolivia. En la primera parte del trabajo, se presentan las diferentes definiciones de analfabetismo y alfabetismo y se analiza el fracaso de la doctrina a la hora de elaborar definiciones universalmente aplicables. Dicho fracaso se considera resultado de dos falsas dicotomías que deberían ser abandonadas: oralidad-sociedad escrita y alfabeto-analfabeto. Para finalizar esta parte teórica, se estudia la influencia de las nuevas corrientes doctrinales en la labor de la UNESCO. La segunda parte está dedicada a la descripción de la situación en América Latina y Bolivia, para lo cual se analizan el contexto demográfico (de vital importancia en el caso boliviano), económico y político. Por último, se exponen los programas de alfabetización existentes actualmente en Bolivia.
Entwicklung eines Videoanalysesystems auf Basis von Java Mobile Edition für Symbian SmartPhones
(2009)
Der Markt für mobile Telefone wächst schon seit mehreren Jahren rasant. Das "Handy" wird schon lange nicht mehr nur zum Telefonieren benutzt. Es ist zu einem nicht mehr wegzudenkenden Assistenten geworden, der immer einsatzbereit und in Reichweite ist. Das Gerät kann außer den Grundfunktionen wie Telefonieren und SMS-Verschicken als persönlicher Terminplaner, Notizbuch oder auch als Foto- oder sogar Videokamera genutzt werden. In den letzten Jahren sind Mobiltelefone auch in der Internet- und Multimediawelt vertreten. Sie besitzen mittlerweile genug Leistung, Speicher und Bildschirmfläche, um Webseiten darzustellen oder komplette Spielfilme wiederzugeben. Die sinkenden Preise für mobile Breitband-Internetzugänge (Flatrate mit 7,2 Mbit/s schon ab 35 Euro), die wachsende Anzahl der mobilen Internet-Zugänge, die sinkenden Nutzungspreise der so genannten „HotSpots“ (in Hotels, Restaurants, etc. oft kostenfrei) und die Leistungsfähigkeit der aktuellen mobilen Endgeräte, ermöglichen die Nutzung der Videostreaming-Dienste. Diese Dienste können zum Beispiel IPTV, Video on Demand oder Videotelefonie sein. Um die Qualität des über ein IP-Netzwerk gelieferten Videodatenstrom zu gewährleisten, ist es notwendig die Qualität dieses Datenstroms im realen Umfeld und unter realen Bedingungen messen zu können. Das erfordert die Entwicklung eines Messsystems, welches direkt auf einem Endgerät installierbar und vom Gerätetyp möglichst unabhängig ist. Das zu entwickelnde Programm soll den Videodatenstrom mitschneiden und auswerten können ohne die Übertragung zum Wiedergabeprogramm zu stören. Es soll der Paketverlust, der Wert des Interarrival Jitters sowie die für das jeweilige Videoformat spezifischen Informationen erfasst werden. Die Auswertung soll in vom Benutzer bestimmbaren Intervallen durchgeführt werden können. Um diese Anforderungen zu erfüllen, wird eine Anwendung in der Programmiersprache Java Mobile Edition implementiert, die wie eine Netzwerkbrücke funktionieren wird. Sie wird Java-Threads für das parallele Empfangen und Weiterleiten der Datenpakete zwischen dem Server und dem Wiedergabeprogramm sowie für das Extrahieren und Auswerten der Daten verwenden. In Kapitel 2 werden die meisten Begriffe, die in der Diplomarbeit vorkommen erläutert. Einen wichtigen Punkt stellen in diesem Kapitel die Protokolle für den Transport der multimedialen Daten. Für die Darstellung von Videodaten auf mobilen Endgeräten hat sich der MPEG-4-Standard durchgesetzt. Dessen Entwicklung hat als Ziel, Systeme mit geringen Ressourcen oder schmalen Bandbreiten bei relativ geringen Qualitätseinbußen zu unterstützen. Auch dieser Standard wird hier dargestellt. Die Wahl der Programmiersprache, deren Hauptaspekte und die zur Fertigstellung des Messsystems nötigen Komponenten werden zum Schluss dieses vorgestellt. In Kapitel 3 wird die Umsetzung des Systems beschrieben: Zuerst die Darstellung des Entwicklungssystems und der Entwicklungsumgebung (3.1), danach werden zwei Alternativen genannt, nach denen die Entwicklung des Grundgerüsts der Software möglich ist (3.2). In Abschnitt 3.3 werden die Methoden präsentiert, die den Kern des Messsystems bilden und die so genannte „Deep Inspection“ des Videodatenstroms durchführen.
Im Rahmen dieser Diplomarbeit wurde ein Java-Programm zur automatisierten Detektion von Strukturelementen in Volumendatensätzen entwickelt und anhand eines neu entwickelten Prüfkörpers der lokale geometrische Fehler eines bildgebenden Systems ermittelt. Mit geeigneten Algorithmen werden, für eine treffsichere Detektion, das Rauschen reduziert, die Stützstellen detektiert und die 7-Parameter der Helmert-Transformation bestimmt.
Die detektive Quantenausbeute (DQE) erlaubt eine umfassende Charakterisierung bildgebender Systeme, da sie sowohl etwas über das Auflösungsvermögen, als auch über die Rauscheigenschaften des Systems aussagt. Im Rahmen dieser Arbeit wurde die DQE zweier digitaler Mammographie-Einrichtungen bestimmt, wobei für vergleichbare Dosisniveaus folgende Ergebnisse erzielt wurden: Für eine Ortsfrequenz von einem Lp/mm beträgt die DQE des indirekten Systems ca. 42% und die des direkten Systems auf Basis von amorphem Selen ca. 62%.
Es lässt sich kaum bezweifeln, dass das Handy im jugendlichen Alltag einen festen Platz gewonnen hat und von den Jugendlichen selbst als extrem wichtiges Kommunikationsmedium wahrgenommen wird. Generation "@" bezeichnete der Freizeitforscher Horts Opaschoswki (1999) die Jugendliche von heute, die in einem Informationszeitalter und zudem, dank der mobilen Technologien, in einer mobilen Gesellschaft aufwachsen. Der Gebrauch von mobilen Kommunikationstechnologien verändert den Alltag von Jugendlichen und führt zur Praktizierung von neuen mobilen Lebensstilen. Das mobile Telefon gehört zum Alltag der Jugendlichen und übernimmt ganz verschiedene Funktionen: Organisation von Alltagsaktivitäten, Aufbau und Aufrechthalten von sozialen Beziehungen, Einbettung in die sozialen Netzwerke, Sicherheitsfunktion, darüber hinaus wird das Handy gerade von den Jugendlichen crossmedial benutzt. Dank der integrierten Medien, etwa MP3-Player oder Fotokamera gewinnt das Handy unter den Jugendlichen noch mehr Popularität. Neben seiner Kommunikationsfunktion wird das Handy im Jugendalter als Medium für Artikulieren der eigenen Persönlichkeit verwendet. Durch bewusste Auswahl von Klingeltönen, Handylogos, Modell und Farbe präsentieren Jugendliche bestimmte Informationen über sich selbst und eigene Stil- und Moderichtungen. Das Handy ist ein wichtiger Teil der Teenageridentität und unterstützt auf eine gewisse Art die jugendtypischen Entwicklungsaufgaben, etwa Ablösungsprozesse von Eltern und Sich-Verorten in jugendlichen Peergroups. Von Land zu Land weisen die Handynutzungsmotive unter den Jugendlichen kulturspezifische Merkmale auf, die auch dazu führen, dass Handys mit unterschiedlichem Grad in den Alltag seiner Nutzer/innen integriert werden. Unterschiede tauchen nicht nur bei dem eigentlichen Umgang mit dem Handy auf, sondern auch in der Art und Weise, wie kommunikative Lebensstile artikuliert und damit verbundene kommunikative Mobilität erlebt wird. Die vorliegende Arbeit befasst sich mit den kulturspezifischen Aspekten des Handygebrauchs im Jugendalter.
Carbon Sequestration under different land uses and soils in the State of Quintana Roo, Mexico
(2017)
Rising in global temperature is evidently related to atmospheric carbon dioxide (CO2) and methane (CH4) concentrations; this has become an environmental problem. The use of renewable energy, the development of eco-friendly merchandise and the enforcement of biomass management have been proposed to mitigate the issue. In the ecosphere, the pedosphere stores 1,500 to 2,500 PgC, which is four times more than the carbon stored in biomass; hence, it is very important to carry out soil carbon studies because of more long-term stability of such storage. In the study, soil carbon quantification was applied to the entire state of Quintana Roo, using a purpose oriented sampling, to observe the dynamic between land uses and soils, relating all relevant characteristics and properties of the landscape. To study the carbon content stored in soils, total carbon was estimated through loss-on-ignition, organic carbon by Walkley-Black method and inorganic carbon by calcium carbonate determination. The result portrays that the coastal dune vegetation-Arenosol (1,256 Mg C ha-1) is the combination with the highest soil carbon density, while Leptosol is the soil type with the highest storage capacity (852 MtC). Consequently, the soil carbon storage not only relates to soil properties but also associates with the surface area occupied by the specific soil type. In addition, the characteristics of the landscape play an important role in the storage of soil carbon. Due to that, soil carbon storage can be explained by biogeomorphoedaphic factors.
Semantische Netze unterstützen den Suchvorgang im Information Retrieval. Sie bestehen aus relationierten Begriffen und helfen dem Nutzer das richtige Vokabular zur Fragebildung zu finden. Eine leicht und intuitiv erfassbare Darstellung und eine interaktive Bedienungsmöglichkeit optimieren den Suchprozess mit der Begriffsstruktur. Als Interaktionsform bietet sich Hypertext mit dem etablierte Point- und Klickverfahren an. Eine Visualisierung zur Unterstützung kognitiver Fähigkeiten kann durch eine Darstellung der Informationen mit Hilfe von Punkten und Linien erfolgen. Vorgestellt werden die Anwendungsbeispiele Wissensnetz im Brockhaus multimedial, WordSurfer der Firma BiblioMondo, SpiderSearch der Firma BOND und Topic Maps Visualization in dandelon.com und im Portal Informationswissenschaft der Firma AGI – Information Management Consultants.
Durch die zunehmende Globalisierung der Märkte und dem damit immer härter werdenden Konkurrenzkampf ist es für ein Unternehmen absolut notwendig, die im Unternehmen vorhandenen Datenmengen optimal zu nutzen. Diese Daten ermöglichen es dem Unternehmen das laufende Geschäft besser zu durchleuchten und zu analysieren, um so die Wettbewerbsfähigkeit zu sichern.
Die hochwertige und umfassende Ausbildung von Führungskräften in der Gefahrenabwehr gilt als ausschlaggebender Punkt für die effektive Bewältigung von Gefahrenlagen. Zur Erreichung dieser Anforderungen wurde im Pilotlehrgang der Bundesakademie für Bevölkerungsschutz und Zivile Verteidigung erstmals die Software „Feuerwehr-Einsatzsimulation“ für die Darstellung von Planübungen bei der Ausbildung von Verbandsführern und Verbandsführerinnen eingesetzt. Ziel der vorliegenden Masterarbeit ist die Evaluierung des neuen Ausbildungskonzeptes im Rahmen einer Pilotstudie, um feststellen zu können, welchen Einfluss die Nutzung einer computergestützten Simulation im Vergleich zu konventionellen Ausbildungskonzepten auf den Lernprozess der angehenden Verbandsführer beziehungsweise Verbandsführerinnen hat. Zur umfassenden Evaluation wird eine Datenerhebung nach dem Mixed-Methods Prinzip mithilfe eines quantitativen Fragebogens, einer qualitativen Gruppendiskussion mit den Teilnehmenden sowie qualitativen Leitfadeninterviews mit den Dozierenden des Pilotlehrganges durchgeführt.
Die Ergebnisse zeigen, dass sowohl die Teilnehmenden als auch die Dozierenden den Einsatz der Software positiv bewerten. Es kann festgestellt werden, dass die Nutzung der Simulation einen positiven Einfluss auf den Lernprozess der Teilnehmenden hat. Begründen lässt sich dieser durch die realistischere Darstellung der Einsatzszenarien, der Erkundung der Einsatzstelle unter realen Bedingungen und dem besseren Feedback durch die Dozierenden, da die getroffenen Maßnahmen in der Simulation umfassend dargestellt werden können. Verbesserungsbedarf besteht bei der Immersion für die Teilnehmenden und einer leichteren Bedienung der Software für die Dozierenden. Der Einsatz einer computergestützten Simulation bei der Ausbildung von Verbandsführern und Verbandführerinnen erfüllt die hohen Anforderungen an eine praxisorientierte Ausbildung. Es ist daher empfehlenswert, eine computergestützte Simulation zur Darstellung von Planübungen für die Ausbildung von Verbandsführern und Verbandsführerinnen einzusetzen.
Die Arbeit richtet sich an die mit der Ausbildung von Verbandsführern bzw. Verbandsführerinnen beauftragten Stellen und deren Dozierenden.
Effects on the combustion properties of wheat straw after different thermobiological pretreatments
(2022)
Wheat straw could be used for pellet production and therefore as solid fuel. However, it presents challenges due to its inferior combustion properties such as high ash content, low gross calorific value (GCV), and low ash melting temperature.
To evaluate its combustion properties and based on recent work that improved methane production, wheat straw was subjected to thermobiological pretreatments. Nine pretreated samples based on wheat straw and nine pretreated samples based on compost-wheat straw mixture were produced. In addition, due to the ability to remove minerals and decrease the ash content, a washing process with water as a solvent was used. Ash content, net calorific value (NCV) and ash melting temperatures were evaluated.
For the pretreated wheat straw (SW) samples, a 5,8% reduction in ash content was obtained due to the pretreatments when compared to untreated wheat straw. A 55% decrease in ash content was obtained when comparing the same materials before and after the washing process. No statistically significant changes in GCV were found. As for the ash melting temperatures, due to the incubation pretreatment, an average increase in the shrinkage starting temperature (SST) of 4,4% was obtained for anaerobic conditions and a decrease of 2,5% for aerobic conditions, compared to the same material without heat treatment. In addition, an increase in all ash melting temperatures was observed because of the washing process. It was possible to obtain a pellet complying with standard ISO 17225-6 that can be used in medium or large burners and significantly reduces the effort during combustion.
For samples pretreated with a homogeneous compost-wheat straw (SKW) mixture, an average ash content decrease of 27% was obtained after using autoclave pretreatment at 140°C, compared to the same material without thermal pretreatment. The biggest decrease was due to the washing process, reducing the ash content on average by 43% when comparing the same materials before and after washing. GCV were 13% lower than samples pretreated with wheat straw, due to the low calorific value and high ash content of the compost. During ash melting temperature tests, an average 60% increase in SST was observed compared to pretreated SW ashes due to the high melting temperature of compost. Results are considered satisfactory since pellets based on this mixture would not cause ash sintering or slagging. However, counter effects were observed as the addition of compost increased the ash content and decreased the GCV, not complying with ISO 17225-6 for non-woody pellets. To achieve a pellet based on a compost-wheat straw mixture that complies with the standards, it is recommended for future research to control the percentage of compost added to the mixture.
Das Ziel dieser Arbeit ist die Definition einer allgemeinen Aufgaben-beschreibungssprache, die nicht an einen einzelnen Roboter gebunden ist, sondern für alle möglichen Arten von Robotern einsetzbar ist. Dieses Ziel soll mit Hilfe der Robotic Task Definition Language erreicht werden. Die Robotic Task Definition Language (RTDL) ist eine Sprache, die an der Fachhochschule Köln im Rahmen des Instituts-übergreifenden Projektes Verteilte Mobile Applikationen (VMA)" entwickelt wird. Die Aufgabe der RTDL besteht darin, eine allgemein gültige Aufgabenbeschreibungssprache für unterschiedlichste Roboter zu definieren. Mit einer solchen Aufgabenbeschreibungssprache ist es möglich, die Steuerungssoftware verschiedener Roboter in einer einheitlichen Sprache zu beschreiben und in einem weiteren Schritt auch umzusetzen.
Food insecurity, poor nutrition and poverty are closely linked and entail adverse consequences for the health and well-being of children and adults. They constitute major constraints to development efforts as they can imply lifelong negative effects on human development with impairments on physical and mental capacities of a population, resulting in an overall lower productivity and economic growth potential.
Urban agriculture has been advocated as a strategy to improve food security. This paper exemplifies an urban gardening project that addresses food security and economic resilience of the Syrian refugees and vulnerable Lebanese host communities executed in the suburbs of Beirut. The hypothesis underpinning this study is that urban agriculture holds the potential to contribute to increased food security and reduced urban poverty, by increasing the availability and accessibility to a variety of fresh foods that are rich in vital nutrients and by functioning as a source of livelihoods and income.
The brutality of the Syrian Civil War, it’s massive damage and destruction of housing and persecutions for ethnic cleansing led more than a quarter of its originally 24 million inhabitants to seek safety in neighboring countries and Europe. The war has severely hampered the stability and development throughout the region as hundreds of thousands of refugees have fled to neighboring countries where they often compete with host communities over housing, labor, water, food and land. In relative numbers the biggest burden fell on the riparian country Lebanon, currently holding the highest ratio of refugees to nationals in the world. The small Arab country has already been suffering from many pre-existing challenges as food insecurity and widespread poverty.
The high dependence on food assistance, limited access to income and uncertainties on the amount of food aid provided in each upcoming year, all contribute to an unstable and low food security status of Syrian refugee households in Lebanon with spill overs to vulnerable host communities. In 2017, 91% of Syrian families residing in Lebanon remained food insecure to some degree and the share of household’s falling into severe food insecurity keeps increasing with every year.
These numbers provide clear evidence that current efforts of providing food assistance are not sufficient to combat the repercussions of the crisis and get the situation under control.
The paper displays the impact of the urban gardening project on the food security and economic resilience of participating household’s, as well as lessons learned on the project design during and after the implementation phase. The sampling frame is comprised of Syrian and Lebanese families participating in the project. Primary data were derived from a survey using a questionnaire with a sample size of 41 households. The findings aim to enable stakeholders to improve the performance of similar projects in the future and support relevant government authorities, international aid institutions, non-profits and the civic society towards creating sustainable long-term solutions to increase the self-reliance of refugees by providing insights of the suitability of UA for multiple objectives and by highlighting potential challenges and risks.
In dieser Arbeit wird die Frage nach der Zusammensetzung einer aus konservatorischer Sicht unbedenklichen Stempelfarbe untersucht. Es konnten vier Kategorien von Stempelfarben ermittelt werden: die leinölhaltigen, die mineralölhaltigen, die glykol-/glycerolhaltigen und die harzhaltigen. Neun Stempelfarben aus diesen vier Kategorien wurden in einer umfangreichen Testreihe auf ihre Licht- und Klimabeständigkeit, ihre Löse- und Bleichmittelfestigkeit, ihre Wischfestigkeit und ihr Durchschlagvermögen überprüft. Drei rein pigmenthaltige Stempelfarben haben diese Tests bestanden. Von diesen hatte nur die leinölhaltige Stempelfarbe eine gute Dokumentenechtheit. Zudem werden im letzten Kapitel Möglichkeiten zur Entfernung von Stempelfarben auf Papier vorgestellt.
Bei Low-Code Entwicklungsplattformen handelt es sich um Lösungen zur Entwicklung und Bereitstellung von Software mit geringerem Anteil von Quelltext als in der Anwendungsentwicklung sonst erforderlich. Die Forschungsarbeit prüft, ob Low-Code Entwicklungsplattformen dazu geeignet sind, moderne webbasierte Geschäftsanwendungen umzusetzen. Dabei zeigt die Arbeit auf, wie Programmierparadigmen, Methoden der modellgetriebenen Softwareentwicklung (MDSD) und des Rappid Application Developments (RAD) als Platform-as-a-Service (PaaS) Lösungen zur Anwendungsentwicklung durch Anbieter kombiniert werden. Aktuell offerierte Lösungen werden in einem Marktüberblick hinsichtlich ihrer Funktionalität und Anwendungszielgruppe eingeordnet.
Zur Klärung der Forschungsfrage werden gängige Anforderungen an eine Geschäftsanwendung gesammelt und deren Implementierung durch die prototypische Realisierung eines Anwendungsfalls mit der Low-Code Entwicklungsplattform Oracle Application Express (APEX) validiert. Auf dieser Basis zeigt die Arbeit den tatsächlich erforderlichen Quelltextanteil auf. Dabei werden jedoch auch funktionelle Einschränkungen sowie möglicheorganisatorische Risiken, z.B. durch Vendor Lock-In Effekte, dargestellt.
The amount of data produced and stored in multiple types of distributed data sources is growing steadily. A crucial factor that determines whether data can be analyzed efficiently is the use of adequate visualizations. Almost simultaneously with the ongoing availability of data numerous types of visualization techniques have emerged. Since ordinary business intelligence users typically lack expert visualization knowledge, the selection and creation of visualizations can be a very time- and knowledge-consuming task. To encounter these problems an architecture that aims at supporting ordinary BI users in the selection of adequate visualizations is developed in this thesis. The basic idea is to automatically provide visualization recommendations based on the concrete BI scenario and formalized visualization knowledge. Ontologies that formalize all relevant knowledge play an important role in the developed architecture and are the key to make the knowledge machine-processable.
Diese Thesis befasst sich mit der Frage, in welcher Art und Weise sich das deutsche Feuerwehrwesen verändern und anpassen muss, um den abwehrenden Brandschutz nachhaltig sicherzustellen.
Ausgangspunkt ist die Problemstellung, dass einige Freiwillige Feuerwehren besonders tagsüber und vornehmlich im ländlichen Räumen nicht mehr den gesetzlichen Schutzzielen und Anforderungen entsprechen können. Um dieser Frage nachgehen zu können, ist die Methode des Benchmarkings auf Gefahrenabwehrsysteme adaptiert worden. Da die Forschungen innerhalb des deutschen Feuerwehrwesens nicht zielführend waren, ist das Benchmarking international und organisationsvergleichend ausgerichtet worden. Die Niederlande konnte als Vergleichspartner konstatiert werden, weil diese eine große kulturelle Ähnlichkeit zum deutschen Feuerwehrwesen aufweist und regionalisiert agiert. Das Merkmal der Regionalisierung stellte sich im europäischen Raum als eine vielversprechende Variante der Organisationsgestaltung heraus.
Der Benchmarkingprozess ist morphologisch beibehalten worden. Die Analysen, Vergleiche und Bewertung erfolgten nach Vorbild der Organisationsanalyse nach den Ausführungen von Wenger, Thom und Ritz, welche in das Benchmarking implementiert wurden. Diese Vorgehensweise stellte sich als erfolgreich heraus.
Die Verbesserungs- und Handlungsoptionen für das deutsche Feuerwehrwesen aus dem Benchmarking mit den Niederlanden sind folgende:
• Bündelung und Verknüpfung von Gefahrenabwehraufgaben in
regionalen Strukturen sowie die Regionalisierung der
Feuerwehren
• Anpassung der Schutzziele und Hilfsfristen an
Effizienzkriterien und Risiko unter der Bedingung weiterer
einhergehender Maßnahmen (Wandel von einer
strukturqualitätsorientierten hinzu einer
prozessqualitätsorientierten Philosophie)
o Standardisierung der Ausbildung aller
Feuerwehrdienstleistenden (in Modulen) und I
Intensivierung der ehrenamtlichen Ausbildung
o Festlegen der Staffel als Standardeinheit
o Einführung von Zwischenebenen zwischen
freiwilliger/zufälliger und beruflicher/sicherer
Verfügbarkeit
o Vergütung von arbeitsverhältnisähnlichen Dienstzeiten
o Reduzierung der Fahrzeugvielfalt
o Risikoorientierente und regionalstrukturierte
Fahrzeugvorhaltung
o Objektbezogene Risikoanalyse
o Einführung eines Qualitätsmanagementsystems und eines
standardisierten Controllings
o Transparenz- und Einbindungsstrategie mit der
Öffentlichkeit verfolgen
Weitere Maßnahmen, die sich zwar im heutigen Feuerwehrsystem umsetzen ließen und die Effektivität und Effizienz steigern würden, aber nicht das Problem der nicht erreichbaren Schutzziele beheben könnten, sind Maßnahmen wie die Etablierung des Krisenmanagements, die wissenschaftliche Erschließung des Feuerwehrwesens, die Bündelung rückwärtiger Tätigkeiten oder die Weiterentwicklung des Führungssystems hinsichtlich mehrstufiger Skalierbarkeit sowie wirkungsvoller und interdisziplinärer Zusammenarbeit.
Einleitung Ein zentraler Bereich (sozial-) pädagogischer Arbeit umfasst die soziale Förderung von Kindern. In der derzeitigen Fachdiskussion wird verstärkt auf eine Abnahme der infantilen Sozialkompetenzen hingewiesen (vgl. u.a. Hurrelmann 1995, Rogge 2000). Die Schule, als eine der zentralen Sozialisationsinstanzen unserer Gesellschaft, hat die Aufgabe und Chance dieser Entwicklung entgegen zu wirken. Es besteht eine sozialpädagogische Verantwortung, die Grundschule bei dieser Aufgabe gezielt zu unterstützen. Dieser Grundgedanke führte zum Themenschwerpunkt der hier vorliegenden Diplomarbeit. Daher wird in ihrem Verlauf eine Schulung entwickelt, die das Ziel verfolgt Schülerinnen und Schüler der ersten Grundschulklasse sozial zu fördern und ihnen eine gewaltfreie Konfliktlösungsstrategie an die Hand zu geben. Somit gliedert sich diese Arbeit grob in die Bedarfsanalyse, Darstellung der ausgewählten Konfliktlösungsstrategie, sowie Entwicklung und praktischen Durchführung der Schulung.
Ausgehend von einer kurzen Darstellung des deutschen bibliothekarischen Interesses an Frankreich seit den Achtzigerjahren gibt die Arbeit einen Überblick über den aktuellen Stand der deutsch-französischen Zusammenarbeit im Bibliothekswesen. Vorgestellt werden insbesondere Kooperationen und Partnerschaften von Öffentlichen und Wissenschaftlichen Bibliotheken und anderen bibliothekarischen Einrich-tungen sowie Austauschprogramme. Ein Schwerpunkt der Arbeit liegt dabei auf den Aktivitäten von Einrichtungen der Grenzregionen, da die deutsch-französische (z.T. auch trinationale) Zusammenarbeit hier verhältnismäßig stark ausgeprägt ist: Bereits Ende der Achtziger- / Anfang der Neunzigerjahre wurden Biblio 3 und die Arbeitsgruppe Bibliotheken von EUCOR (Europäische Konföderation der Oberrheinischen Universitäten) gegründet. Noch im Aufbau befinden sich die Kooperation des Interregionalen Arbeitskreises sowie die von biblio 2. Außerhalb der Grenzregionen fällt die Bilanz dagegen schlecht aus: Kooperationen zwischen deutschen und französischen Bibliotheken sind dort allenfalls punktuell vorhanden, und auch im Rahmen der bibliothekarischen Austauschprogramme werden derzeit keine Austausche zwischen deutschen und französischen Bibliothekaren durchgeführt. Untersucht werden deshalb die für diese Situation verantwortlichen Hindernisse und Schwierigkeiten, die bei der bibliothekarischen Zusammenarbeit zwischen Deutschland und Frankreich auch in den Grenzregionen auftreten. Aus diesen werden abschließend diejenigen Faktoren abgeleitet, die maßgeblich zu einer Aufnahme von Kontakten und zum Erfolg einer Kooperation beitragen. Weiterhin wird verdeutlicht, aus welchen Gründen eine Zusammenarbeit mit Frankreich trotz aller Probleme angestrebt werden sollte.
Seit fast 20 Jahren beschäftigt man sich im Bibliothekswesen zunehmend mit dem Thema Qualitätsmanagement. Besonders im Bereich der öffentlichen Bibliotheken hat es dahin gehend viele Entwicklungen und Projekte gegeben. Im ersten Teil der vorliegenden Arbeit wird zunächst die vorangegangene bibliothekshistorische Entwicklung und der Einfluss der Verwaltungsmodernisierung dargestellt. Es folgt die Definition für Qualität von bibliothekarischen Dienstleistungen und ein kurzer Abriss über die Entstehung von Qualitätsmanagement. Um die Funktionsweisen und Instrumente des Qualitätsmanagements zu verdeutlichen, schließt dieser Teil mit einer Vorstellung der wichtigsten und relevanten Qualitätsmanagement-Systeme ab. Im zweiten Teil widmet sich die Arbeit der Beschreibung von bundesweiten Qualitätsmanagement-Aktivitäten in öffentlichen Bibliotheken. Aus diesem Kontext heraus folgt eine Darstellung nennenswerter Qualitätsmanagement-Projekte in einer Übersicht. Aus den aufgeführten Projekten lassen sich drei groß angelegte, aktuelle Projekte in den Ländern Niedersachsen, Nordrhein-Westfalen und Sachsen-Anhalt herausstellen. Diese Projekte werden einzeln vorgestellt und mit den Ergebnissen aus Befragungen ergänzt. Eine Vergleichstabelle stellt abschließend die Eigenschaften der angewandten Modelle gegenüber und soll ihre Vor- und Nachteile abbilden.
Entwicklung einer Software zur Erstellung menschlicher Temperaturprofile mittels IR-Videoaufnahmen
(2011)
In dieser Arbeit wird eine Software zur Analyse von thermografischen Videosequenzen vorgestellt. Mit Hilfe einer speziellen Wärmebildkamera, die in der Lage ist, thermografische Videosequenzen aufzunehmen, kann die zeitliche Auflösung der Hauttemperatur–Messung erhöht werden. Das Programm soll im Rahmen von Untersuchungen zu thermoregulatorischen Prozessen am Menschen diese Sequenzen auswerten und Temperaturprofile des menschlichen Körpers erstellen. Der Benutzer kann dazu Körperregionen gezielt auswählen und verfolgen lassen. Ergebnis ist eine Exceltabelle mit Temperaturwerten für jede definierte Zone pro Zeiteinheit. Diese kann durch den Import von Messtabellen externer Messgeräte ergänzt werden, so dass die Untersuchungsergebnisse aller Messgrößen synchronisiert in einer Datei zur Verfügung stehen.
Im Jahr 2007 wurden die „Ethischen Grundsätzen für Bibliotheks- und Informationsberufe“ in Deutschland verfasst. Es handelt sich hier um einen beruflichen Verhaltenskodex, der Richtlinien für angemessenes Verhalten für Bibliotheksbeschäftigte vorgibt. Die vorliegende Arbeit beschäftigt sich damit, aus welchen Gründen und in welchen Verfahren der Ethikkodex erstellt wurde. Weiterhin werden der Stand der Diskussion und die öffentliche Wahrnehmung des Kodexes innerhalb des deutschen Bibliothekswesens untersucht. Eine inhaltliche Analyse stellt fest, welche Kernaussagen innerhalb des Kodexes getroffen werden. Der deutsche Ethikkodex wird in Bezug auf Entstehung und Inhalt exemplarisch mit Ethikkodizes aus den USA und Estland verglichen. Dieser Vergleich ermöglicht es, Rückschlüsse darüber zu ziehen, inwieweit der Inhalt gelungen und der Entstehungsprozess nachvollziehbar ist und an welchen Stellen Überarbeitungsbedarf erkennbar ist.
For sustainable climate, an exponential growth in renewable heating and cooling is compulsory to reduce consumption of the fossil fuels for production of heat. An essential step from European Commission as an introduction of the strategy for renewable heat has
given a platform to the solar thermal market to tap the highest possible potential. To grab the opportunity given, capacity of the production is to be increased as well as reduction in cost of solar thermal product is to be achieved by any suitable alternate means. Polymer
based hybrid collector, named as OPVT collector, is the innovation from Fraunhofer Institute of Solar Energy Systems to break the road blocks for the solar thermal market. A polymer solar cell and a polymer solar thermal collector, both, technologies have tendency
of high initial investments and extremely low running cost in business. The aims of this study were to develop a calculation tool for determination of production cost of different OPVT collector concepts and evaluate their potential with reference to market size. The tool was expected to be uniform for all possible concepts of OPVT collector and flexible in
usage during the early stage of technological development. In this study, “Microsoft Excel” software based calculation tool is developed for estimation of production cost for different concepts. A Car washing station for water based OPVT collector and a bus station for air based OPVT collector are found be most suitable for start-up of the business. The analysis of results has highlighted that the minimum cost of OPVT collector can be referenced as its material cost. The OPVT collector business has huge potential and
possibility of early break-even point in the
production. As production costs are sensitive to
material costs, input values to the tool must be accurate. Presence of dominance of the material cost
is due to high cost of OPV. In industry, OPV is still being considered as the technological product instead the commodity product. This market potential study for
OPVT collector technology has been the important step in giving the confidence to solar thermal, polymer and plastic processing industries for business investment.
Keywords – OPVT collector, production cost, calculation tool, market size
Bibliothek und Moderne in Japan : das wissenschaftliche Bibliothekswesen zwischen System und Kultur
(2011)
Die vorliegende Arbeit erklärt die gegenwärtigen Strukturen des Hochschulbibliothekssystems in Japan aus ihrer kulturhistorischen Entwicklung heraus. Im Mittelpunkt steht dabei die Frage nach Einflüssen der traditionellen japanischen Kultur auf das moderne Bibliothekswesen. Zunächst wird die Entwicklung des vormodernen Bibliothekswesens in Japan bis ca. 1850 geschildert. Sodann wird vor dem gesellschaftlichen und kulturellen Hintergrund der Entwicklung der japanischen Modernisierung bis in die Nachkriegszeit die Genese des modernen wissenschaftlichen Bibliothekssystems einschließlich des relevanten Verbandswesens und der Bibliothekarsausbildung erläutert. Das System der Hochschulbibliotheken wird dabei im Kontext angrenzender Systeme wie des Hochschulsystems und des allgemeinen Bibliothekssystems in Japan geschildert. Die internen Strukturen der japanischen Hochschulen und der ihnen angeschlossenen Bibliotheken sind der vorliegenden Darstellung zufolge in der Vorkriegszeit wesentlich vom Vorbild der zeitgenössischen deutschen Hochschulen beeinflusst gewesen, während in der Nachkriegszeit der US-amerikanische kulturelle Einfluss deutlich überwiegt. Die kooperative Bibliotheksarbeit, die Automatisierung und die Entwicklung hin zur digitalen Bibliothek vollzogen sich zwar gegenüber westlichen Ländern teils langsamer, führten aber doch zu einem leistungsfähigen und ausdifferenzierten Hochschulbibliothekssystem. Die Arbeit schildert zudem die Unterschiede zwischen Bibliotheken an privaten und staatlichen Trägerinstitutionen, zwischen älteren zweischichtigen und jüngeren einschichtigen Bibliothekssystemen, und die Rolle des japanischen Staates für die Bibliotheksentwicklung. Sie beschreibt auch einige der Herausforderungen des gegenwärtigen Systems: dazu zählen Probleme in der japanischen Bibliothekarsausbildung und die Entwicklungsperspektive der Träger vor dem Hintergrund der alternden japanischen Gesellschaft. Die Arbeit kommt zu dem Schluss, dass sich aus der Entwicklung des modernen Hochschulbibliothekssystems ein konsequenter kultureller Bruch mit der vormodernen japanischen Bibliothekstradition ersehen lässt. Die Modernisierung nach 1850 führte nicht nur zum Import von Techniken und systemischen Organisationsprinzipien des westlichen Bibliothekswesens, sondern auch die bibliothekarische Berufskultur wurde wesentlich von westlichem Gedankengut geprägt.
In the Mesoamerican forest Selva Maya, multiple driving forces create an imbalance in the sensitive human-nature relation and demand for innovative management strategies for its re-establishment. Within the Guatemalan Maya Biosphere Reserve (MBR), core areas are under strict protective legislation and agricultural activity is permitted only within a bordering buffer zone (BZ), which covers great part of the Guatemalan department Petén. Here, the implementation of agroecological practices by multiple stakeholders aims at tackling the principle driving forces of environmental degradation and thus at reducing the pressure on Central America’s largest tropical forest area. Since 2011, the Deutsche Gesellschaft für Internationale Zusammenarbeit (GIZ) has assisted local stakeholders by carrying out the project “Conservation and sustainable use of the Selva Maya”. This project has offered technical support, cooperated with national institutions, and assisted multiple target groups to nudge agroecological transitions at the household and community level. As the establishment of agroecological systems face main obstacles stemming from the socio-ecological setting of the respective area, the following work presents a context specific analysis for the adaption of established strategies in the MBR BZ. Therefore, it raises the following research questions: What are the current properties of the socio-ecological system that describes the BZ? How has the GIZ’s project nudged and guided agroecological transitions? Which factors have favored or limited the turn to agroecological farming? And finally: Which recommendations derive for the navigation of agroecological transitions? The overall research approach is orientated on the framework of ecosystem stewardship1 and incorporates elements of system theory and resilience science. The framework has been adapted by combining two approaches on different management levels. The social-ecological system approach2 is used to describe the socio-ecological system of the BZ, while the evaluation of the pilot groups‘ AESs follows the Mexican MESMIS3 approach for sustainability assessments. By the integration of both approaches, it is revealed that the socio-economic context impedes or hinders the implementation of agroecological strategies for the majority of farmers. The application of the MESMIS framework has revealed that the installed monitoring mechanism is dysfunctional. Findings further indicate that there is potential for transitions of individual AESs, but they demand investments and support with the current circumstances of reducing farmers’ vulnerability. The rapidly decreasing social and environmental conditions for family farmers in the BZ are most likely not addressed by solutions that the agroecological approach tackles. Recommendations for the immediate improvement of the strategy include adjustments of the project’s proceedings as well as fundamental changes in conservation paradigm and governance to maintain the necessary functionality of the socio-ecological system.
Human civilization has a great history of managing Water, Sanitation, and Hygiene (WaSH) services. But such services in rural areas have been neglected throughout our history. Numerous multimillion dollars WaSH interventions have been implemented in rural areas to eradicate open defecation, but most of them failed to create a demand for sanitation. Lack of equity and fair participation in approaches to change behavior and mindset, rather than habits, has made it hard for governments to achieve their WaSH related targets. Participatory rural sanitation approaches that focus on behavior change and ownership building among the community members have helped in the transition to open defecation free (ODF) societies. A justice-focused sanitation approach shows potential in fast-tracking this transition. Just transition is a concept that has not been endured in the sanitation discussion yet but shows the potential of sustainable WaSH solutions. This social empirical research has explored the feasibility of a justice-based sanitation approach guiding a transition towards societies with universal access to sanitation services. A just sanitation transition framework was adapted from the considered theoretical foundations and was used to map the capability and justice dimensions of two rural sanitation approaches being implemented in schools in the Mukuyu community in Trans-Nzoia county, Kenya. The adapted framework has been able to compute both sanitation approaches on a scoring tool, quantitatively assessing the productivity and justice dimensions of both approaches. This research has helped in establishing the viability of a just sanitation transition framework to produce an informed understanding of the potential of rural sanitation approaches to produce desired results while being just. Study findings help in filling research gaps and laying the foundation to the just transition debate in the sanitation sector and opens a window to further researches on the same, in the future.
Bibliothek 2.0 : Neue Perspektiven und Einsatzmöglichkeiten für wissenschaftliche Bibliotheken
(2007)
Zunächst als Marketingbegriff geschaffen, ist der Neologismus „Web 2.0“ mittlerweile zum buzzword geworden, dem bis dato jedoch eine konkrete und eindeutige Definition fehlt. Zunehmend erlangt die Thematik des Web 2.0 große Aufmerksamkeit und beinahe täglich entstehen neue Applikationen, Anwendungen und Informationsdienstleistungen, die sich besonders durch eine kollaborative Entstehung und Nutzung von Informationen kennzeichnen – Schlagwörter wären hier u.a. Wikis, Weblogs oder RSS-Feeds. Wissenschaftliche Bibliotheken, die als Zentren von Informationsdienstleistungen dienen, dürfen sich vor dem externen wie internen Gebrauch und der Einbindung der Web 2.0-Techniken in ihre Institutionen nicht verschließen, sondern sollten gerade hier eine Vorreiterrolle einnehmen, um so das Geschehen auf diesem für sie potenziell immer wichtiger werdenden Sektor beeinflussen und mitgestalten zu können. In dieser Arbeit sollen solche wissenschaftlichen Bibliotheken vorgestellt werden, die in Bezug auf Web 2.0-Anwendungen bereits erste Erfahrungen gesammelt haben und nunmehr für weitere wissenschaftliche Bibliotheken eine Vorbildfunktion einnehmen können. Die dargestellten bibliothekarischen Beispiele zeigen, dass eine Wandlung und Anpassung an die neuen Anforderungen – seitens der Bibliotheksnutzer, aber auch und vor allem seitens der Bibliothekare – bereits begonnen hat. Im Einzelnen liegt hierbei das Hauptaugenmerk auf dem Kölner UniversitätsGesamtkatalog (KUG), dem Recommender-System BibTip in Karlsruhe, dem Weblog der UB Mannheim, der LMU München mit ihrer Schnittstelle zu Connotea und der internen Informationsplattform ISIS aus der SULB Saarbrücken. Ausgehend von diesen Beispielen aus der Praxis wird ferner ein genereller Blick gewagt, welche Fakten als Ursache für eine entstehende Bibliothek 2.0 gesehen werden können. Hierbei werden insbesondere die Auskunft, der Schulungskomplex und die Erschließung betrachtet, die von einem Umdenken und einer Umstrukturierung betroffen sein müssen, wobei für diese Einzelbereiche neue Optionen herausgearbeitet werden, durch die sie in besonderem Maß vom Web 2.0 profitieren können.
In der Diplomarbeit wurden die lichttechnischen Eigenschaften einer Bildwand für die Rückprojektion untersucht. Die Projektion erfolgte mit einem Beamer. Die Bildwand bestand aus einer Streuscheibe und einer Fresnellinse. Die horizontale und vertikale Abstrahlcharakteristik, der Transmissionsgrad und die maximal mögliche Leuchtdichtemodulation wurden bestimmt. Die Abstrahleigenschaften der Streuscheibe und ihr Reflexionsgrad wurden gemessen. Dies ermöglicht den Einfluss von Streulicht abzuschätzen. Mit Hilfe eines Spaltes und eines selbst erstellten Computerprogramms wurde die Modulationsübertragungsfunktion in horizontaler und vertikaler Ausrichtung berechnet. Abschließend werden die Grundprinzipien für den Aufbau einer Rückprojektionseinrichtung diskutiert.
Diese Arbeit untersucht die zeitliche Interpolation von Videosignalen. Durch die
Einführung des Ultra High Definition Television Standard wird eine höhere Bildwiederholrate benötigz um
Judder-Artefakte zu vermeiden. In diesem Zusammenhang kommt der zeitlichen Interpolation von nicht nativem UHD Material eine besondere Bedeutung zu. Neben der räumlichen Interpolation ist diese essenziell. In dieser Arbeit wird eine Übersicht über die Anforderungen an UHD Video gegeben. Bewegungskompensierende
Verfahren für das Deinterlacing und Upscaling in Verbindung mit einer Phasenkorrelation werden behandelt. Ein MATLAB-Programm wird entwickelt mit dem ein Upscaling und Deinterlacing von HD Material durchgeführt werden kann.
In dieser Arbeit werden mehrere Arten von Erschließungsmethoden angesprochen, die in ihrer Gesamtheit eine wohl komplette Idealvorgabe dokumentarischer Methoden der Erschließung von Filmsequenzen darstellen. Es ist in der konkreten Praxis nicht immer erforderlich und auch nicht möglich, alle Methoden anzuwenden. Die Auswahl der zu nutzenden Methoden muß letztendlich jedes Filmarchiv anhand der eigenen Ziele, der adressierten Benutzerschicht und des vorhandenen finanziellen Rahmens treffen. Die Benutzersoftware wird für die künftigen Netze einen entscheidenen Einfluß auf deren Akzeptanz in den privaten Haushalten haben. Erforderlich sind deshalb einfach zu handhabene Benutzeroberflächen, die keinerlei dokumentarisches, bibliothekarisches oder informatisches Vorwissen erfordern. Dazu wird eine "Idealliste" von Methoden des Information Retrieval vorgegeben, konkret bezogen auf das Stöbern und das Suchen nach Filmsequenzen. Anhand der theoretisch aufgezeigten Möglichkeiten der Erfassung und Erschließung sowie des Retrieval von Filmsequenzen sollen nachfolgend konkrete Projekte beschrieben und bewertet werden, die als paradigmatische "Fälle" für unterschiedliche Entwicklungsstände der Sequenzauswertung stehen. Drei Beispiele zeigen wo und wie die Filmsequenzenerschließung bereits realisiert wird oder sich im Aufbau befindet: 1. das Filmarchiv des WDR, 2. die National Stockshot Database von Kanada, 3. sowie das Projekt AMPHORE.
Domänenspezifische Sprachen gewinnen seit einigen Jahren zunehmend an Bedeutung. Xtext ist eine sogenannte \textit{Language Workbench}, mit der solche Sprachen schnell entwickelt werden können. Neben der Sprachinfrastruktur wird eine inzwischen weit fortgeschrittene Integration in die IDE Eclipse erzeugt und es können optional ein Plug-in für IntelliJ und ein Webeditor erstellt werden. Der Ansatz ist dabei, dass der oder die Codegeneratoren direkt mit dem Abstract Syntax Tree arbeiten. In dieser Arbeit wird gezeigt, wie ein Domänenmodell in eine Xtext-Sprache integriert werden kann und wie Test- und Wartbarkeit davon profitieren. Besondere Beachtung finden, gegeben durch das Projektumfeld, die Anforderungen durch Funktionale Sicherheit.
Die vorliegende Diplomarbeit beschäftigt sich mit einer Bildqualitätsanalyse der Stellen, an denen Qualitätsentscheidungen getroffen werden sowie der anschließenden Analyse dieser Bildstellen. Zunächst werden sechs verschiedene Fotografien mit den Optimierungsparametern Helligkeit, Schärfe, Kontrast und Neutralität bearbeitet. Um die oben genannten Bildstellen zu finden, werden diese durch 20 Probanden mit Hilfe eines Eye-Tracking Systems ermittelt. Die daraus gewonnenen Bildstellen werden dann im Frequenz- und Farbbereich durch Plug-Ins im Programm „ImageJ“ untersucht.
Simulcast bedeutet die zeitgleiche Ausstrahlung des gleichen Inhalts auf weiteren, zusätzlichen Kanälen; in diesem Fall die zeitgleiche Ausstrahlung desselben Events auf einem SD- und einem HD-Kanal. Zur automatischen Umschaltung zwischen diesen beiden Kanälen soll zukünftig eine entsprechende Signalisierung ausgewertet werden. Um zu beweisen, dass solch ein Szenario praktisch umsetzbar ist, wurde in dieser Diplomarbeit ein Empfänger-Demonstrator entwickelt.
Ziel dieser Arbeit ist die Automatisierung von Prüfverfahren, welche in der PAS 1054 definiert sind und in der digitalen Mammographie ihre Anwendung finden. Dazu standen Aufnahmen eines Prototypen des in der PAS beschriebenen Prüfkörpers zur Verfügung, die mit dem Sectra MDM angefertigt wurden. Anhand dessen konnte mit der Programmiersprache Java und unter Verwendung der Software ImageJ ein Programm geschrieben werden, welches die automatische Analyse der Bilddaten ermöglicht. Eine übersichtliche Benutzeroberfläche und die Ausgabe von Ergebnissen, die auf das Wesentliche reduziert sind, gewährleisten eine zeitsparende und effektive Handhabung.
In dieser Arbeit wird die Entwicklung eines Kalibrierphantoms beschrieben, das die optischen Eigenschaften des Rattenhirns widerspiegelt und die Kalibration einer hochempfindlichen CCD-Kamera ermöglicht. Als Lichtquelle diente eine LED, deren Intensität mit Hilfe einer Referenzspannungsquelle und eines Temperatur-Kontrollsystems mit einer Genauigkeit von 2 ‰ eingestellt werden konnte.
Amboseli-Tsavo Ecosystem is a unique landscape in Kenya’s semi-arid rangelands to the border of Tanzania. It is characterized by high abundances of wildlife which frequently disperses between three National Parks, namely Amboseli, Tsavo West and Chyulu Hills. Due to an increased population and a land-use change from prior nomadic pastoralism to sedentary farming activities, the land became highly fragmented and transformed into a human-dominated area. Increasingly wildlife migration routes are becoming blocked, leading to isolation of the National Parks and multiplied human-wildlife conflicts. The African elephant (Loxodonta africana) is sadly famous as the most common conflict animal causing damage to properties, cropland and injuring or killing livestock and, in the worst case, people. However, elephants are at the same time a flagship species and represent the backbone for tourism activities around Amboseli. Therefore, the elephant is both a very valuable and problematic asset in the area. Unfortunately, wildlife conservation practices over the last decades, favoring animals over humans, have led to a negative perception of wildlife among the population in the ecosystem which challenges appropriate conservation mechanisms.
To maintain the tourism attraction of viewing elephants and to minimise the conflicts between local communities and animals, migration routes should remain open. The concept of landscape connectivity ensures biodiversity conservation, particularly for far-distance migration animals such as elephants. The elephant was therefore chosen as a keystone species in this study on which the analysis is based.
Using a least-cost path analysis (LCP) in ArcGIS, “cheapest” travel routes of Loxodonta africana between the three National Parks were identified. Factors included were selected and weighted by information gathered in expert interviews. Satellite imagery were classified using ESA SNAP toolbox to obtain vegetation covers and waterbodies for two different seasons (dry and wet), aiming to illustrate the temporal variability of potential connectivity paths. Additionally, key informant interviews and interviews of Group Ranch members around Amboseli National Park were conducted to gather information regarding the current state of management in the ecosystem and perceptions about wildlife management. A subsequent SWOT Analysis on three optimum routes obtained through LCP, takes the social-political factors and information obtained into account to discuss the different options for their conflict solving potential.
On the one hand, recommendations resulting from this study identify possible elephant migration routes that should be maintained by using a participatory conservation approach to secure landscape connectivity in long-term. On the other hand, management recommendations include a design for improved relationships between Group Ranch members and the responsible governmental institutions by equally distributing benefits, implementing financial benefits and establishing a functioning and adequate compensation scheme. By ensuring peoples’ active participation in conservation and wildlife management, a more positive attitude towards wildlife might be induced, which will positively influence the wildlife conflict in long run.
Die Dynamik des Social Webs motiviert zum Teilen nutzergenerierter Inhalte. Diese entstehen in zahlreichen Social Networks meist unter Missachtung der Schutzziele der IT-Sicherheit: Vertraulichkeit, Verfügbarkeit und Integrität von Nutzerdaten. Betreiber von Web-Anwendungen können Inhalte ihrer Nutzer einsehen, fälschen, löschen oder zu unbekannten Zwecken auswerten und verfügen über Wissen über Kommunikationspartner und -verhalten - ohne, dass sich Benutzer wirksam davor absichern könnten. Von dem im Grundgesetz verankerten Recht auf Privatsphäre ausgehend soll im Rahmen dieser Ausarbeitung eine neuartige Architektur zum Teilen nutzergenerierter Inhalte im Web entwickelt werden, die Benutzeranforderungen an die Erfüllung der Schutzziele der IT-Sicherheit vollständig gewährleistet und darüber hinaus durch eine bewusste Kommunikation dieser Qualität als vertrauenswürdig aufgefasst werden kann. In einem Goal-directed Design-Prozess wird eine Architekturskizze entwickelt, welche die im Prozess erarbeiteten Benutzeranforderungen durch die Bereitstellung zweier Web-Services erfüllt: Der Signed Content Storage adressiert als zuverlässiger und durch den Urheber autorisierter Web-Speicherort signierter, nutzergenerierter Inhalte die Schutzziele Verfügbarkeit und Integrität. In Kombination mit dem Identity Provider, der gesicherte Informationen von Urheber und Teilhabern zur Verfügung stellt, ist ein vertrauliches Teilen von Inhalten im Web möglich. Vertrauenswürdigkeit gewinnt diese Architektur durch konsequente Transparenz, Selbstbeschreibungsfähigkeit, externe Bewertbarkeit und der Dokumentationsfähigkeit von Nutzungserfahrungen.
Architektur für ein Qualitätsmanagementsystem zur Verbesserung der Relevanz von Suchergebnissen
(2023)
Die Suchfunktion ist in vielen Softwareprodukten eine wichtige Komponente, die häufig zur Navigation in der Anwendung dient. Gerade, wenn große Datenmengen bereitgestellt werden, wie es bei Streamingdiensten (Netflix, Spotify) oder bei E-Commerce-Plattformen (Amazon, Zalando) der Fall ist, ist es wichtig, dass die Suchergebnisse für den Nutzer relevant sind. Eine für den Nutzer effektive Navigation mit der Suchfunktion ist nur möglich, wenn die Suchergebnisse eine ausreichend große Relevanz für den Nutzer bieten. Die Organisationen, welche die oben genannten Dienste betreiben, versuchen daher, die Relevanz ihrer Suchergebnisse zu optimieren. Eine Optimierung auf Relevanz ist zwar für eine spezielle Suche einfach, jedoch können dabei häufig Seiteneffekte auftreten, welche die Relevanz über alle Suchen verschlechtern. In einem E-Commerce-Shop kann das Einfiihren des Synonyms „Birne -> Glühbirne" dafür sorgen, dass Nutzer, die Gliihbirnen kaufen wollen und nach „Birne" suchen nun auch Gliihbirnen finden. Falls Nutzer aber das Obst Birne kaufen möchten, sind die Ergebnisse für diese Gruppe irrelevant. Bei einer Optimierung der Relevanz über alle Suchen können Qualitätsmanagementsysteme unterstützen. Ein Qualitätsmanagementsystem fiir die Relevanz von Suchergebnissen muss nicht nur fachliche und technische, sondern auch organisatorische Anforderungen beachten, um die Optimierungspotenziale vollständig auszuschöpfen. Diese Arbeit erläutert diese Anforderungen und stellt eine Architektur für ein Qualitätsmanagementsystem vor. Die Architektur wird hinsichtlich der Erfüllung der erläuterten Anforderungen analysiert. Desweiteren werden die Vor- und Nachteile fiir die jeweiligen Architekturentscheidungen unter Betrachtung der Anforderungen diskutiert. Das Ziel der Arbeit ist es, die Architektur entsprechend zu erläutern, sodass eine Organisation diese für sich angepasst implementieren kann.
Durch das permanente Wachstum der Weltbevölkerung wird der Bedarf von Textilien stetig steigen. Die Produktvielfalt sowie der Konsum der Textilien werden immer größer. Die aktuellen Recyclingtechniken ermöglichen es nicht, den Rohstoffkreislauf für Textilien zu schließen. Dies liegt auch darin begründet, dass derzeit große Mengen der Textilien aus Mischgeweben zwischen Baumwolle und PET bestehen. Die Trennung dieser Komponenten ist jedoch eine Grundvoraussetzung für die Entwicklung eines geschlossenen Rohstoffkreislaufs und stellt gleichzeitig eine große Herausforderung für das Recycling dar. Durch chemische Recyclingverfahren können die Rohstoffe getrennt, aufbereitet und in die Textilproduktion zurückgeführt werden. In dieser Arbeit wird aufgezeigt, wie ein chemischer Recyclingprozess, der einen geschlossenen Rohstoffkreislauf erlaubt, technisch realisiert werden kann. Der Prozess erzeugt eine PET-Fraktion und eine Celluloselösung, die in weiteren Verarbeitungsschritten zu einer Regeneratfaser versponnen wird. In dieser frühen Projektphase werden in dieser Arbeit ebenfalls die Investitionsausgaben und die Herstellungskosten für das Verfahren abgeschätzt.
This paper is grounded in the emerging field of web science and shall contribute to its further classification and demarcation by illustrating the current state of »web-native research methods«. It builds upon an initial arraying work of Richard Rogers, who coined the term »Digital Methods« for research with methods that were »born« in the web, and illustrated and organized them in his eponymous book in 2013. This paper attempts to develop a more appropriate illustration of the Digital Methods by following the web’s very own, hypertextual, network-like nature, in particular by construing an ontological representation on the base of the Web Ontology Language (OWL). By virtue of decomposing the book into granular information units and their subsequent reassembly into OWL entities, immediate access to the entire knowledge domain can be provided, and coherencies, interrelations and distinctions between concepts become apparent. The ontology’s structure was induced narrowly along the provided examples of research projects and subsequently clustered in topic groups, of which the three most important ones were (a) the Digital Methods as an arraying space of web-native methodology, (b) a collection of concrete applications of these Digital Methods in research projects, and (c) a hierarchical scheme of traditional sciences with a distinct interest in answering research questions with help of Digital Methods. Subsequently, the ontology was evaluated in three general dimensions: Deriving user stories and scenarios provided means to validate the utilization quality; the accuracy and reliability of the resulting structure was validated with help of a control group of web-native research projects; and process control instruments served as a validator for the ontology’s correctness. Despite the ontology itself, this paper also resulted in a first interpretation of the produced information: Statements about research practise in social science, politics and philosophy were as possible as findings about commonly applied varieties of methods. Concluding, the present paper proposes a process of ontology engineering, an evaluation of the ontology’s value, and an interpretation of the ontology’s content.
„Die sozialen Problemlagen der Frauen, die ich betreue, werden immer komplexer.“ So sagte kürzlich eine Frauenhaus-Mitarbeiterin sinngemäß. Diese Aussage einer Fachfrau in Verbindung mit eigenen Erfahrungen während meines Projektstudiums in einem Frauenwohnheim machten mich neugierig, mehr über die Sozialarbeit in diesen Bereichen zu erfahren. Mein persönliches Interesse begründet sich außerdem darin, daß der Berufseinstieg bevorsteht und das Frauenwohnheim ein von mir bevorzugtes Praxisfeld ist. Damit erschien es mir sinn- und reizvoll, ein Thema aus diesem Bereich zu bearbeiten. Aus diesen Überlegungen entwickelte sich die Fragestellung der vorliegenden Arbeit, die sich zu Beginn sowohl auf den Bereich ‘Frauenwohnheim’ als auch ‘Frauenhaus’ bezog, im Laufe der Zeit jedoch - wie später noch deutlich wird - auf ‘Frauenwohnheim’ konkretisierte: ‘Welchen sozialen Problemlagen begegnet eine Sozialarbeiterin im Frauenwohnheim und welche erforderlichen Kompetenzen ergeben sich für sie daraus?’ Das fachliche und fachöffentliche Interesse an diesem Thema besteht darin, im Zuge einer Professionalisierung der Sozialen Arbeit den steigenden Anforderungen in verschiedenen Praxisfeldern adäquat zu begegnen, etwa auch durch die Erarbeitung sogenannter Anforderungs- oder Kompetenzprofile. Die gibt es meines Wissens für die Sozialarbeit im Frauenhaus- und Frauenwohnheim-Bereich bisher nicht. An der Professionalisierung der Sozialarbeit in diesen Praxisfeldern besteht ein öffentliches Interesse insoweit, daß eine Verselbständigung und eine verbesserte gesellschaftliche Integration der Betroffenen erwünscht ist. Von Seiten der öffentlichen Kostenträger besteht auch Interesse daran, mit möglichst geringem Kostenaufwand möglichst gute Ergebnisse zu erzielen, also effizient zu arbeiten. Der vorliegenden Arbeit liegt eine qualitative Untersuchung zugrunde. Gegenstand der Untersuchung waren Frauen, die im Frauenwohnheim oder Frauenhaus leben oder gelebt haben. Aus einem ausgewählten Einzelfall erarbeite ich die sozialen Problemlagen sowie die daraus resultierenden erforderlichen Kompetenzen für die Sozialarbeit im Frauenwohnheim. Durch Hinzuziehung von Literatur sichere ich die Ergebnisse wissenschaftlich ab.
Ziel dieser Diplomarbeit ist es, eine Datenbankanwendung für eine öffentliche Stiftung aufzubauen, in der Projektideen erfasst und bewertet werden können. Da bei der Stiftung caesar die Anwendung Oracle Applications eingesetzt wird, werden für die Realisierung der Datenbankanwendung Oracle-Werkzeuge verwendet. Diese werden im Kapitel 5: Entwicklungswerkzeuge und Kapitel 6: Oracle Applications beschrieben.
Mit dem Internet hat sich eine Technologie etabliert, die Veränderungen in den unterschiedlichsten Bereichen nach sich gezogen hat. Sie ist im Rahmen der Globalisierung zu sehen und ist einer der Hauptakteure bei der Entstehung der Informationsgesellschaft. International und national agierende Unternehmen besitzen einen entscheiden Marktnachteil, wenn diese Technologie nicht gewinnbringend zur Unterstützung ihrer Geschäftsprozesse und deren globaler Vernetzung eingesetzt wird. Einhergehend mit der Entwicklung des Internets sind zahllose Technologien entstanden. Wo es anfänglich nur möglich war, Informationen als feststehende Inhalte zu präsentieren, können und müssen heutige Internetpräsenzen Informationen anbieten, die Zugriff auf verteilt liegende Informationsquellen besitzen, die sich täglich ändern. So sind Web-Applikationen entstanden, die die modernsten Technologien einsetzen, um Anwendern eine Zugangsmöglichkeit auf Informationsquellen über das Internet zu bieten. In Kapitel 2 werden die Anforderungen an Web-Applikationen und deren zugrunde liegende Architektur beleuchtet. Da zahllose Programmiersprachen für die Entwicklung von Web-Applikationen verfügbar sind, wird in Kapitel 3 eine Auswahl an verfügbaren Technologien vorgestellt. Um die Programmierung von Web-Applikationen zu vereinfachen sind im Laufe der letzten Jahre Web-Frameworks entstanden, die den Entwicklungsprozess stark beschleunigen und eine Art Bausatz anbieten, um die Programmierung zu vereinfachen. Der Schwerpunkt der vorliegenden Arbeit richtet sein Augenmerk auf 2 aktuelle Web-Frameworks, die jeweils theoretisch und praxisbezogen anhand einer Beispielapplikation beleuchtet werden. In Kapitel 4 wird JavaServer Faces als erstes Web-Framework vorgestellt. Ausgehend von einer theoretischen Betrachtung wird ein Web-Shop als Beispielapplikation entwickelt und die damit in Zusammenhang stehenden Entwicklungswerkzeuge betrachtet. Auf Struts, als zweites Web-Framework, wird in Kapitel 5 eingegangen und ähnlich wie in Kapitel 4 zu JavaServer Faces wird nach theoretischer Betrachtung des Web-9 Frameworks eine Benutzerverwaltung als Beispielapplikation entwickelt, die die wesentlichsten Aspekte des Web-Frameworks zeigt. Auch hier werden Entwicklungswerkzeuge vorgestellt, die den Umgang mit Struts unterstützen. Schließlich findet in Kapitel 6 ein Vergleich zwischen JavaServer Faces und Struts statt, der mögliche Vor- und Nachteile des jeweiligen Web-Frameworks aufzeigt.
Als Reaktion auf die Verbreitung von webbasierten Tools zu Kommunikation, Kooperation und Kollaboration wurde 2005 der Begriff des E-Learning 2.0, der diverse Facetten und Trends des E-Learning subsumiert, in die Diskussion um neue Modelle der Hochschullehre eingeführt. Durch die Anreicherung der starren Lernmanagementsysteme um Elemente sozialer Netzwerke, Werkzeuge für Kommunikation und Kollaboration, Informations- und Wissensmanagement und Publikationsmöglichkeiten wandeln sich diese zu Lernplattformen oder Lernumgebungen (Virtual Learning Environments), welche die Bildung solcher offener oder geschlossener Learning Communities oder Communities of Practice begünstigen, innerhalb derer informelles Peer-to-Peer-Learning möglich wird. Gleichzeitig zielt "Ne(x)t Generation E-Learning" auf eine Individualisierung des Lernens und sieht den Lernenden als eigenverantwortlichen Akteur, der sich selbständig und selbstbestimmt Kompetenzen aneignen soll. Dieses informelle Lernen über die gesamte Lebensspanne wird durch konventionelle E-Learning-Produkte nicht unterstützt, die dozenten- und instruktionsorientiert formale, sequentielle Lernszenarien vorgeben. Als Antwort auf die Forderung nach individueller Gestaltung des Curriculums und sukzessiver, lebenslanger Aneignung von Kompetenzen etablieren sich sog. Personal Learning Environments, also personalisierte VLEs, die es erlauben, persönliche Lernziele zu verfolgen, indem Tools und Ressourcen selbst zusammengestellt und organisiert werden. Personal Learning Environments sind Basis des kompetenzorientierten E-Learnings. Zur Präsentation der so erworbenen Kompetenzen nach außen, sei es als Teil eines persönlichen Profils, sei es als Leistungsnachweis, werden sog. serverbasierte E-Portfolios angeboten, die aus den PLEs generiert werden können. Werden diese Sammlungen digitaler Artefakte, die einen Lernprozess dokumentieren sollen, innerhalb des Informations- und Kommunikationsraums Hochschule publiziert, kann dies der Wissenskommunikation zwischen Lernenden, also dem sog. Peer-to-Peer-Learning, förderlich sein - sofern die E-Portfolios anderer Studierender als Ressource bzw. Lernobjekt, als "E-Portfolio 2.0" betrachtet werden. Informationskompetenz als Metakompetenz, die den Erwerb fachlicher Kenntnisse überhaupt erst ermöglicht, nimmt unter den zu erwerbenden Kompetenzen eine Schlüsselposition ein und ist eng verknüpft mit Medienkompetenz auf der Input- sowie Präsentationskompetenz auf der Output-Seite. Eine Möglichkeit, die Entwicklung dieser Schlüsselkompetenz zu fördern, ist die Verschriftlichung der Recherchen im Rahmen eines sog. Rechercheportfolios, einer Unterart des Arbeitsportfolios. Die schriftliche Fixierung zwingt nicht nur zur Reflexion des eigenen Informationsprozesses, sondern ermöglicht auch die retrospektive Beurteilung der Effektivität und Effizienz der eigenen Recherchestrategien - oder die Analyse der Recherchestrategien anderer Lernender, sofern die Rechercheportfolios innerhalb einer Learning Community publik gemacht werden. Das Rechercheportfolio wird so zum "Rechercheportfolio 2.0". Das Potential dieses Instruments wird jedoch bislang noch nicht im Kontext der Vermittlung von Informationskompetenz genutzt. Weder Rechercheportfolios "1.0" noch Rechercheportfolios "2.0" sind an Hochschulbibliotheken verbreitet, obwohl es erste Ansätze zum Einsatz dieser zweifellos zukunftsträchtigen Methode gibt. Welche Standards und Qualitätsmerkmale E-Rechercheportfolios aufweisen müssten, um als effektives Mittel zur Vermittlung von Informationskompetenz geeignet zu sein, ist Thema dieser Arbeit.
Shared Service Center (SSC) bieten innerhalb einer Organisation Hilfsdienstleistungen an. Das interne Outsourcing bietet Bibliotheken Möglichkeiten über die originären Aufgaben hinaus weitere Produkte innerhalb des Trägers oder interkommunal anzubieten und diese auch kostendeckend vergütet zu bekommen. Werden SSC in der Regel von zentraler Stelle entwickelt und installiert, müssen und können Bibliotheken hier noch selbst gestalten. Insbesondere freiwillige Einrichtungen eines Trägers können sich profilieren und eine höhere Quote im Kostendeckungsgrad erreichen. Die Aufgaben des Wissensmanagements oder die Implementierung eigener vorhandener Produkte in fachfremde Bereiche werden in Beispielen auf kommunaler Ebene vorgestellt.
Ziel dieser Diplomarbeit ist es zu evaluieren, ob eine effiziente Implementierung von responsiven Webapplikationen zum Zeitpunkt der Erstellung der Arbeit möglich ist. Als technische Grundlage wird hierzu die HTML5-Spezifikation mit dem darin enthaltenen CSS3 und den JavaScript-Programmierschnittstellen herangezogen.
Es wird erläutert, dass unter responsivem Design die Reaktionsfähigkeit des Designs auf die Abrufumgebung, wie zum Beispiel die Größe der Anzeigefläche, zu verstehen ist und mit Hilfe welcher Techniken ein solches Design für Webapplikationen realisiert werden kann. Des Weiteren werden Möglichkeiten zur Performance-Optimierung aufgeführt, wobei festgestellt wird, dass für die Nutzung einer Webanwendung auf mobilen Geräten die Anzahl der Dateien das größte Potenzial zur Optimierung besitzt. Die Möglichkeiten der JavaScript-Programmierschnittstellen in HTML5 zur Umsetzung von Funktionalitäten für Webapplikationen, wie sie bei lokal installierten Anwendungen gebräuchlich sind, werden ebenso erläutert.
Das Fazit dieser Arbeit ist, dass ausreichend Techniken zur Erstellung von responsiven Webapplikationen in HTML5 definiert sind. Lediglich die zum Teil ausstehende Umsetzung dieser Techniken in den einzelnen Browsern verursacht Einschränkungen. Dies wirkt sich gegebenenfalls negativ auf die Effizienz des Umsetzungsprozesses aus. Ebenso kann die übermäßige Optimierung des Layouts und der Performance zu unverhältnismäßigem Aufwand führen.
Aufgrund ihrer aktuellen Bedeutung im Zusammenhang des Internet of Things werden in der vorliegenden Arbeit Time Series Databases und Event Stores miteinander vergli-chen. Ziel ist, die Gemeinsamkeiten und Unterschiede der beiden Arten von Datenbank Management Systemen herauszustellen.
Der erste, theoretische Teil des Vergleichs erfolgt anhand der funktionalen Kriterien Speichersystem, Performance und Funktionen sowie der nicht-funktionalen Kriterien Usability und Support. Im zweiten Teil des Vergleichs wird anhand eines konkreten An-wendungsfalls untersucht, ob sich Time Series Databases und Event Stores gleicher-maßen für die Speicherung und in einem zweiten Schritt für die Abfrage von Zeitreihen-daten eignen.
Zumal der theoretische Vergleich Unterschiede zwischen einzelnen Time Series Data-bases und Event Stores in Bezug auf die betrachteten Kriterien erkennen lässt, wird für den praktischen Vergleich unter Berücksichtigung der im konkreten Anwendungsfall gegebenen Anforderungen nur die am besten geeignetste Time Series Database (In-fluxDB) und der am besten geeignetste Event Store (Event Store) ausgewählt. Der prak-tische Vergleich zeigt, dass die Zeitreihendaten im konkreten Anwendungsfall zwar in beiden Arten von Datenbank Management Systemen gespeichert werden können, die Nutzung der auf Zeitreihendaten spezialisierten Time Series Database InfluxDB jedoch offensichtliche Vorteile gegenüber dem Event Store aufweist.
LA FERDINANDA (in der Mitte des Ozeans...), ein 1981 von Rebecca Horn
bemaltes Glasobjekt ist aufgrund seines Erhaltungszustandes nicht mehr
ausstellungsfähig. Aufbauend auf Untersuchungen zu künstlerischem Kontext,
verwendeten Materialien, Werkprozess und Erhaltungszustand wurde ein
Restaurierungskonzept entwickelt. Den Schwerpunkt der Arbeit stellt die
Konsolidierung des schwach gebundenen Farbauftrages auf dem Glasträger dar.
Hierfür wurden umfangreiche Versuchsreihen angelegt und bewertet. Die besten
Ergebnisse konnten mit einem Konsolidierungsmittel auf Basis des
siliciumorganischen ORMOCER-G in Mischung mit Paraloid B72 erzielt werden.
Die Applikation erfolgte mit einem Dosiergerät.
Die vorliegende Arbeit beschäftigt sich mit der Jugendbibliothek freestyle der Stadtbüchereien Düsseldorf. Das Konzept zielt auf eine langfristige Kundenbindung jugendlicher Nutzer ab 14 Jahre. Das Projekt und seine Durchführung werden ausführlich vorgestellt. Ferner wird eine Kundenbefragung unter den freestyle-Nutzern durchgeführt. Diese ermittelt die Kundenzufriedenheit und liefert Rückschlüsse auf den Erfolg des Konzepts. Darüber hinaus werden das Freizeit- und Medienverhalten Jugendlicher aufgegriffen und Ursachen für den Wegfall dieser Zielgruppe in Öffentlichen Bibliotheken ermittelt. Zusätzlich verdeutlicht diese Arbeit die zunehmende Bedeutung von Kundenbindung und Marketing für öffentliche Einrichtungen und stellt praktische Kundenbindungsinstrumente aus Wirtschaft und Kultur vor, die als Anregung für ein langfristiges Kundenbindungsprogramm in Öffentlichen Bibliotheken dienen sollen.
Ziel der Arbeit war es, den Nutzen der Google Glass im Alltag und ihr Potenzial als AR-Brille ( Augmented Reality ) aufzuzeigen. Mit der Arbeit wurde ein ortsbasierter AR Ansatz vorgestellt, der innerhalb von Gebäuden zum Einsatz kommt. Als Beispielszenario diente die AR-basierte Navigation innerhalb des Gebaudes der TH Köln. Hierbei wurde ein Umgebungsmodell in Form eines Regular Grids konstruiert, welches eine diskrete Positionsbestimmung im Raum erlaubt. Ferner wurden verschiedene Verfahren zur Positionsbestimmung innerhalb von Gebäuden gegen übergestellt und deren Vor- und Nachteile evaluiert. Hierbei wurden die Erkenntnisse gewonnen, dass die Positionsbestimmung mittels LLA Markern die höchste Stabilität, jedoch die geringste Kontinuität aufweist, da Marker zunächst erkannt werden müssen, bevor die Position bestimmt werden kann.
Das Ziel dieser Arbeit ist es, zu erschließen, vor welchen Herausforderungen die Medienpädagogik angesichts der Auswirkungen von Big Data und Digitalen Technologien auf die Gesellschaft steht. Bislang hat die Medienpädagogik nur vereinzelt Stellung zu dieser neuartigen Situation bezogen.
In dieser Arbeit werden definierte Ziele und Theorien der Medienpädagogik auf ihre Anschlussmöglichkeiten in Bezug auf die Besonderheiten Digitaler Technologien hin untersucht. Digitale Technologien und Big-Data-Anwendungen verändern die Art und Weise von Kommunikation, Bildungsprozessen, Arbeit und Alltagsorganisation. Ihre technologischen Strukturen machen es Internet-Unternehmen möglich, weltweit Informationen über digitale Kommunikationsprozesse in Form von Daten zu analysieren, in die Privatsphäre von Menschen einzudringen, sie zu kontrollieren, zu konditionieren und zu prägen. Behörden und Regierungen werten die von Konzernen gesammelten Daten zudem für ihre Zwecke aus.
Dargestellt wird, wie Konzerne mit Big-Data-Technologien in das alltägliche Leben eindringen, die Grundprinzipien der Demokratie verletzten und gesellschaftliche Errungenschaften angreifen. Es wird untersucht, inwieweit Technologie als Herrschaftsinstrument eingesetzt wird und vorhandene Gesetze zum Schutz persönlicher Daten ausreichen.
Die Medienpädagogik ist aufgefordert die Besonderheit dieser neuartigen Technologie zu zu berücksichtigen. Als Ziel ihrer Arbeit stellt die Medienpädagogik in Theorie und Praxis die Entfaltung des Menschen und der Gesellschaft in den Vordergrund und sie muss agieren, wenn diese Grundelemente extremen Einflussnahmen ausgesetzt werden. Herausgearbeitet wurde, dass die Medienpädagogik besonders zum Handeln aufgerufen ist, wenn Monopolisten demokratische Strukturen mit neuen Technologien aushöhlen, denen Menschen ausschließlich als Objekte von Kommerzialisierung und Überwachung dienen.
La Picasa basin, an interjurisdictional endorreic basin of 5282 km2 located in the “Central Pampa” in Argentina, has suffered repeated flooding caused by an increasing water level of La Picasa lagoon, affecting livelihoods, infrastructure, transportation and agriculture. Although water infrastructure has been built to regulate water excesses, it has not been effective in reducing the flood risk.
To improve the knowledge of the hydrological system, the master’s thesis aimed to develop a water balance model of La Picasa lagoon at a monthly time step between the hydrological years 2007/2008 and 2016/2017. Specifically, the objectives were to identify and quantify the most important components and processes determining its water level, area and volume and to propose hypothetical simulation scenarios based on different pumping operation schemes.
The description of the conceptual model and implementation of a sensitivity analysis allowed to identify the inflow and outflow components of the water balance and quantify their relative contributions, namely precipitation, water discharge from channels, surface runoff from surrounding sub-basins of the lagoon, evaporation and pumping. The performance tests applied to the model during the calibration and validation showed a very good performance. Additionally, two simulation scenarios were proposed, namely potential pumping and adjusted pumping, which reflected different trajectories of the water balance.
The master’s thesis concluded that precipitation and evaporation were the most determinant inflow and outflow components in the water balance of La Picasa lagoon respectively. However, the flooding event in 2016/2017 was caused by a simultaneous reduction of net evaporation and an increase in water discharge, surface runoff and intermittent pumping. The simulation scenarios suggested that an optimal operation of the pumping stations could have been effective to increase the storage capacity of the lagoon. However, during longer humid periods, it might not be enough to outweigh additional inflows.
Um zukunftssicherndes Vertrauen beim Kunden aufzubauen, bedarf der von Qualitätsunsicherheiten geprägte Informationsmarkt systematischer vertrauensbildender Instrumente. Die vorliegende Arbeit zeigt Einsatzmöglichkeiten von Qualitätsmanagementsystemen in Institutionen der Informationswirtschaft auf und diskutiert eine Zertifizierung dieser nach der Normenreihe ISO 9000ff. Mit aus dem Dienstleistungsmarketing abgeleiteten kundenorientierten Meßverfahren (Critical-Incident-Technique, Penalty-Reward-Faktoren-Modell, SERVQUAL-Methode) kann das informationswirtschaftliche Unternehmen darüber hinaus Erkenntnisse über den Stand der angebotenen Dienstleistungsqualität gewinnen. Datenbankproduzenten scheinen durch den Einsatz von zertifizierten Qualitätsmanagementsystemen größere Nutzenwirkungen erzielen zu können als Informationsvermittlungsstellen. Charakteristisch für die Informationswirtschaft ist der Mangel an Möglichkeiten zur Messung von Qualität. Neben objektiven und subjektiven Meßmethoden zur Dienstleistungsqualität sollten Institutionen der Informationswirtschaft möglichst objektive, auf die Situation im eigenen Unternehmen abgestimmte Meßmethoden erstellen und anwenden. In einem Praxisbericht wird die Implementierung und der Betrieb des nach DIN EN ISO 9001 zertifizierten Qualitätsmanagementsystems des FIZ CHEMIE BERLIN untersucht. Als ein in diesem Fachinformationszentrum eingesetztes qualitätssicherndes Werkzeug wird ein Meßsystem für von freien Mitarbeitern erbrachten Indexierungsleistungen vorgestellt.
Die Menge an Informationen steigt seit Jahren immer weiter an. Dies lässt sich auch leicht an der Entwicklung der Speichermedien feststellen. So bot die erste 5,25-Zoll Festplatte, eine Seagate ST- 506, lediglich 5 MB Speicherkapazität. Heutige 3,5-Zoll Festplatten verfügen hingegen über bis zu 8 TB Speicherkapazität und werden ebenso ausgenutzt wie ihre Vorgänger aus der Anfangszeit der Magnet-festplatten. Zusätzlich geht die Tendenz dorthin, alle Daten jederzeit zur Verfügung zu haben. Sei es daheim am Rechner, auf der Arbeit oder per Tablet oder Smartphone unterwegs, dank der immer mehr verbreiteten Cloud-Speicher stehen die Daten jederzeit zur Verfügung. Mit dem enormen Zuwachs an Dateien und auch an Dateiformaten wird es jedoch immer schwieriger, diese Masse zu überblicken und bestimmte Inhalte in annehmbarer Zeit wiederzufinden. Beispiels- weise hostet der Internetdienst Flikr die schier unüberschaubare Menge von über 6 Milliarden Bilder. Doch nicht nur die großen Servicedienstleister besitzen große Datenmengen, auch Einzelpersonen haben derweil große Musik- und Bildsammlungen, zumal jedes aktuelle Smartphone über eine Kamera verfügt. Jeder ist somit praktisch zu jeder Zeit in der Lage, ein Foto in hochauflösender Qualität zu schießen und direkt in seine Cloud hochzuladen. Diese Datenmengen manuell zu ordnen, erfordert einen sehr hohen Aufwand, den nicht alle Menschen gewillt sind zu leisten. Vor allem am Smartphone geht dieses Benennen und Einsortieren aufgrund der vorhandenen Technik nicht so leicht von der Hand. In der Praxis sammeln sich die Aufnahmen mit der Zeit immer weiter an und letztlich befinden sich mehrere hundert wenn nicht gar tausend Bilder in einem Ordner, welche sich namentlich meist nur durch eine fort- laufende Nummer unterscheiden. Diesen Umstand Rechnung tragend, treten Metainfor-mationen immer mehr in den Vordergrund. So speichern die zuvor genannten mobilen Alleskönner meist viele informative Daten mit in den Bilddateien ab. Beispielsweise kann dank der eingebauten GPS-Module der Ort der Aufnahme aus den Bildern ausgelesen werden. Die Dienstleister für Cloud-speicher nutzen diese Informationen jedoch nur marginal aus und bieten dem Endanwender kaum Unterstützung bei der Suche nach be- stimmten Inhalten, wie etwa beim OX Drive, der Cloudlösung der Firma Open-Xchange.
Die vorliegende Master Thesis zeigt, wie dieser Cloud-Speicher, welcher in die Hauseigene OX App Suite integriert ist, um sogenannte Smartfeatures erweitert werden kann. Diese Smartfeatures sollen dem Endan-wender helfen, die Daten einfacher – wenn nicht gar automatisch – zu ordnen und somit leichter bestimmte Inhalte wiederzufinden. Kernthema dieser Arbeit ist daher die auto- matische Extraktion von unterschiedlichen Metadaten aus diversen Dateiformaten. Des Weiteren wird gezeigt, wie diese Daten effizient gespeichert und abgefragt werden können. Die Thesis stellt hierzu den Document Store Elasticsearch vor und vergleicht diesen mit seinem Konkurrenten Apache Solr.
Die Studie untersucht die Usability der Homepage des Landtags Nordrhein-Westfalen. Es wird analysiert, wie benutzerfreundlich die Website ist, ob sie effektiv genutzt werden kann und ob die Inhalte der Site den Erwartungen der Benutzer entsprechen. Drei Evaluationsmethoden finden Einsatz: Ein Thinking-Aloud-Test, eine heuristische Evaluation und eine Availability-Untersuchung.
Um Strahlenschäden zu vermeiden und die Aufnahmequalität der Röntgenbilder in der Veterinärmedizin zu verbessern, wurde im Rahmen dieser Arbeit ein Konzept für einen „Digitaler Aufnahmehelfer für die Kleintierradiologie“ entwickelt. Bei der Produktion dieser flashbasierten Software wurden beispielhaft computergenerierte Grafiken (CGI) und 3D-Animationen erstellt. Ebenso wurden Belichtungstabellen eingebunden. Diese wurden in Zusammenarbeit mit der Tierhochschule Hannover und der Firma Gierth X-Ray international erarbeitet. Es ergaben sich Belichtungswerte, die auf physikalischen Grundlagen beruhen.
Habitat loss due to land use and land cover change (LUCC) has been identified as the main cause of global environmental change, responsible for biodiversity decline and the deterioration of ecological processes. Habitat loss and fragmentation have been driven by
processes of LUCC such as deforestation, agricultural expansion and intensification, urbanization, and globalization. The objective of this research was to determine the effects of LUCC on the process of habitat loss and the patterns of fragmentation in the surrounding landscape of the Pacuare Reserve (PR) in the Caribbean lowlands of Costa Rica. The PR is a protected area of 800 ha surrounded by an agricultural landscape with a history of over 150 years of bananas monocultures. Landsat satellite images from 1978 to 2020 were used to conduct a temporal analysis of LUCC around the PR. Patterns of change were explored using landscape metrics from the land classification images. To explore potential connectivity routes, the least cost path analysis was used to connect the PR to other protected areas. Overall, forest cover decreased in the study area at a rate of -4.8% per year during the period of 1992-1997. In the year 2001 it reached its lowest cover and then increased at a mean annual rate of 1.6%. A mean overall accuracy of 92% was obtained for the land classification process. A clear fragmentation process was observed, as shown by a decreased in forest mean patch area and largest patch index and by the increase in patch density. Although forest cover increased in the last decade, fragmentation metrics suggest this recover happened in a spatially scattered manner, due to agricultural land abandonment. Connectivity maps showed the importance of forest fragments and of the already established biological corridors for the movement of species to and from the PR, however it also evidenced the lack of connectivity between the coastal forest fragments and further inside the country located protected areas, as well as the need to promote reforestation projects, particularly between fragments of the corridors identified.
Die vorliegende Masterarbeit beschäftigt sich mit Strategien der außerstrafrechtlichen Konfliktbear- beitung in linksautonomen Räumen. Ausgehend von der Annahme, dass staatliche Strafe ein Instrument der Herrschaftsausübung darstellt und in Zeiten des
Neoliberalismus die prekär gewordenen Grenzen der gesellschaftlichen Zugehörigkeit durch Kriminalisierung aufrechterhalten werden, sollen Alternativen zum hegemonialen Strafrechtssystem aufgezeigt werden. Das qualitative Forschungsdesign wurde unter Berücksichti-gung der Grundannahmen der Kritischen Kriminologie entwickelt. Durch den Konfliktbegriff wird sich von der Kategorie „Kriminalität“ mit den ihr inhärenten
Zuschreibungen gelöst. Der Forschungsprozess basiert auf der Grounded Theory Methodologie. Auf der Grundlage teilnarrativer Interviews mit Aktivist*innen aus
verschiedenen linksautonomen Räumen in Deutschland wird ein Modell entwickelt, welches den Prozess der selbstbestimmten Bearbeitung von konflikthaften Ereignissen im gewählten Forschungsfeld beschreibt. Dieses zeigt auf, dass eine Aneignung von Konflikten verstärkt durch einen hohen Grad der Verantwortungsübernahme stattfindet. In einem zirkulären Prozess werden hierbei in der Bearbeitung von Konflikten eigene Regeln und Werte entwickelt, welche sich wiederum auf den Umgang mit Konflikten auswirken. Die Ergebnisse der Forschung richten sich primär an Personen, welche in links-autonomen Räumen aktiv sind und dienen einem besseren Verständnis ihrer gelebten Praxis. Durch die kritische Reflexion, unter Berücksichtigung der Grundsätze von Transformative Justice und Community Accountability, werden zudem Perspektiven für eine mögliche Weiterentwicklung linksautonomer Ansätze zum Umgang mit Konflikten aufgezeigt.