Refine
Year of publication
Document Type
- Master's Thesis (323)
- Article (149)
- Bachelor Thesis (142)
- Conference Proceeding (65)
- Report (53)
- Study Thesis (47)
- Working Paper (47)
- Book (29)
- Part of a Book (27)
- Other (11)
Language
- German (586)
- English (315)
- Multiple languages (2)
- Spanish (1)
Keywords
- Rückversicherung (66)
- Reinsurance (55)
- Versicherung (52)
- Kölner Forschungsstelle Rückversicherung (47)
- Versicherungswirtschaft (44)
- Sozialarbeit (24)
- Soziale Arbeit (20)
- Deutschland (19)
- Germany (19)
- Bibliothek (17)
Faculty
- Fakultät 10 / Institut für Informatik (154)
- Fakultät 03 / Institut für Informationswissenschaft (104)
- Fakultät 04 / Institut für Versicherungswesen (78)
- Fakultät 12 / Institut für Technologie und Ressourcenmanagement in den Tropen und Subtropen (72)
- Fakultät 07 / Institut für Medien- und Phototechnik (68)
- Fakultät 04 / Schmalenbach Institut für Wirtschaftswissenschaften (53)
- Angewandte Naturwissenschaften (F11) (45)
- Fakultät 10 / Advanced Media Institute (35)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (30)
- Fakultät 07 / Institut für Nachrichtentechnik (26)
Kompetenzen auf dem Gebiet der Datenbanken gehören zum Pflichtbereich der Informatik. Das Angebot an Lehrbüchern, Vorlesungsformaten und Tools lässt sich jedoch für Lehrende oft nur eingeschränkt in die eigene Lehre integrieren. In diesem Aufsatz schildern wir unsere Erfahrungen in der Nutzung (frei) verfügbarer und der Entwicklung eigener digitaler Inhalte für grundlegende Datenbankveranstaltungen. Die Präferenzen der Studierenden werden mittels Nutzungsanalysen und Befragungen ermittelt. Wir stellen die Anforderungen auf, wie die nicht selten aufwendig herzustellenden digitalen Materialien von Lehrenden in ihre Lehr- und Lernumgebungen integriert werden können. Als konstruktive Antwort auf diese Herausforderung wird das Konzept EILD zur Entwicklung von Inhalten für die Lehre im Fach Datenbanken vorgestellt. Die Inhalte sollen in vielfältigen Lernszenarien eingesetzt werden können und mit einer Creative Commons (CC) Lizenzierung als OER (open educational resources) frei zur Verfügung stehen.
This paper presents a series of flow and temperature measurements on the principal heat network of :metabolon in Lindlar, Germany. These measurements intend to show the behaviour of the system on specific production areas of :metabolon for future monitoring and optimisation purposes. Such measurements allow the analysis of the system’s heat flow through the network, which showed that losses exist, some areas. The results demonstrate successfully that the temperature and flow changes deserve more detailed and fixed monitoring in specific areas to help the user decide the optimum measuring point.
Bei der Entwicklung interaktiver Software werden die Belange der Benutzer oft außer Acht gelassen oder nur unzureichend berücksichtigt. Dies führt dazu, dass das System von den Benutzern nicht akzeptiert wird, es die Benutzer nicht im ausreichenden Maße unterstützt oder, im Ernstfall, die Benutzer ihre Aufgaben nicht vollständig lösen können. Um einen Nährboden für die Entwicklungsprozesse von gebrauchstauglicher Software zu schaffen, muss eine grundlegende Entscheidung getroffen werden. Der Usability Engineering Prozess wird selbst geplant und durchgeführt, oder extern an eine Firma weitergegeben. Diese Arbeit beschäftigt sich mit ersterem und integriert den Usability Engineering- und Softwareentwicklungsprozess in einem Framework mit agilem Vorgehensmodell, welches sich an erfahrene Projektleiter, Projektmanager und Softwareentwickler ohne gefestigtes Wissen im Bereich des Usability Engineerings richtet. Es werden Ziele definiert und mögliche Methoden und Techniken vorgestellt, mit denen diese Ziele erreicht werden können. Da sich das Framework an Softwareentwickler richtet, die einen Usability Enginigeering Prozess integrieren wollen, werden zwar notwendige Ziele der Softwareentwicklung, aber nicht die Methoden und Techniken diese zu erreichen, vorgegeben, um einen etablierten Softwareentwicklungsprozess nicht zu sehr zu beeinflussen.
Im vorangegangenen Praxisprojektes »Das Zusammenspiel zwischen Usability und Suchmaschinenoptimierung - Tipps und Methoden für eine verbesserte Sichtbarkeit und Nutzbarkeit von Internetseiten « wurde dem unerfahrenen Content-Erzeuger Grundwissen in der Suchmaschinen- und Usability-Optimierung vermittelt. Ziel dieser wissenschaftlichen Arbeit ist es die vorgestellten Methoden und Techniken des vorangegangenen
Praxisprojektes, am Beispiel der Webseite des Fachbetriebes BSS-Schieh-Schneider technisch umzusetzen und zu bewerten. Der Schwerpunkt des Unternehmens liegt bei der Beratung, Montage und Reparatur von Fenstern, Türen, Rollläden und Markisen. Die Webseiten existieren bereits und geplant ist, die Bereiche Fenster & Türen SEO-Technisch zu verbessern.
Die Diplomarbeit „Konzeption und Implementierung eines PL/SQL Trainers auf Basis von JSP und eLML“ beschäftigt sich mit der Erstellung von eLearning Anwendungen, für das Themengebiet PL/SQL, mit speziellem Fokus auf die Programmierung von Datenbanktriggern. Im theoretischen Teil der Arbeit wird das Thema eLML ausführlich behandelt und dabei die Funktionsweise sowie die Hintergrundgeschichte des eLML Frameworks erläutert. Der praktische Teil der Arbeit unterteilt sich in zwei Abschnitte, im Ersten Abschnitt wird beschrieben, wie bestehende Lerneinheiten zum Thema PL/SQL aus dem MS-Power-Point Format in das eLML Format übertragen werden, wobei die praktische Anwendung von eLML dargestellt wird. Im zweiten Abschnitt wird die Konzeption und die Implementierung einer JSP-Webanwendung beschrieben, die eine interaktive Trainingsanwendung für die Programmierung von Triggern mit PL/SQL darstellt.
Im Rahmen des Technologiescreenings sind zunächst relevante Technologien, die Einfluss auf das Energienachfrageverhalten für Haushalte besitzen, identifiziert worden. Dabei ist ausschließlich eine technologische Betrachtung erfolgt, das individuelle Nutzerverhalten von Haushaltsbewohnern wurde dabei nicht betrachtet. Die Einordnung der Technologien sind in Standard Energietechnologien: Erzeuger, Umwandler, Verbraucher und Speicher kategorisiert. Zudem zeigt die in die Kategorien Messsysteme, Gebäudeautomation und Energiemanagementsysteme. Dabei handelt es sich um, digitale Technologien mit Aspekten und Anwendungen von Energietransparenz und -management. Zeitraum des kontinuierlichen Technologie-Screenings war von 2017-2020.
Thematisiert werden Graphendatenbanken und die Umsetzung eines bestimmten Typen davon. Für die Umsetzung wird eine Rationale Datenbank genommen und diese in eine Graphdatenbank überführt. Es wird auf die Unterschiedlichen Typen von Graphdatenbanken eingegangen, deren Verwendungszweck und wie diese Typen Unterschieden werden. Die Umsetzung erfolgt mit Neo4j auf dessen Funktionen und Sprache ich eingehen werde. Danach wird auf die Modellierungsart der Graphdatenbank eingegangen und wie diese realisiert wurde.
Soziale Arbeit mit Straßenkindern in Deutschland und in Kenya : ein internationaler Vergleich
(1998)
Mit dieser Arbeit möchte ich den derzeitigen Diskussionsstrang zum Straßenkinderproblem in den Entwicklungs- und in den Industrieländern zusammenfassen und aufeinander beziehen, wohlwissend, dass zwangsläufig nur ein kleiner Teil der Problematik hier beleuchtet werden kann, zumal ich ja vor allem internationale Dimensionen beschreibe. Das Thema meiner Diplomarbeit entspringt meinem persönlichem Interesse, welches sich vor allem während meines Projektstudiums im Arbeitsfeld „Multikulturelle Sozialarbeit“ zu diesem Thema entwickelt hat. Nach einer theoretischen länderkundlichen, sprachlichen und thematischen Vorbereitung zu dem Thema der Straßenkinder und der Sozialarbeit in Kenya leistete ich den praktischen Teil in einem dreimonatigen Blockpraktikum in Kenya ab, welches nach meiner Rückkehr im Rahmen des Theorie-Praxis Seminares noch einmal reflektiert wurde.
Das Internet birgt schier endlose Informationen. Ein zentrales Problem besteht heutzutage darin diese auch zugänglich zu machen. Es ist ein fundamentales Domänenwissen erforderlich, um in einer Volltextsuche die korrekten Suchanfragen zu formulieren. Das ist jedoch oftmals nicht vorhanden, so dass viel Zeit aufgewandt werden muss, um einen Überblick des behandelten Themas zu erhalten. In solchen Situationen findet sich ein Nutzer in einem explorativen Suchvorgang, in dem er sich schrittweise an ein Thema heranarbeiten muss.
Für die Organisation von Daten werden mittlerweile ganz selbstverständlich Verfahren des Machine Learnings verwendet. In den meisten Fällen bleiben sie allerdings für den Anwender unsichtbar.
Die interaktive Verwendung in explorativen Suchprozessen könnte die menschliche Urteilskraft enger mit der maschinellen Verarbeitung großer Datenmengen verbinden.
Topic Models sind ebensolche Verfahren. Sie finden in einem Textkorpus verborgene Themen, die sich relativ gut von Menschen interpretieren lassen und sind daher vielversprechend für die Anwendung in explorativen Suchprozessen. Nutzer können damit beim Verstehen unbekannter Quellen unterstützt werden.
Bei der Betrachtung entsprechender Forschungsarbeiten fiel auf, dass Topic Models vorwiegend zur Erzeugung statischer Visualisierungen verwendet werden. Das Sensemaking ist ein wesentlicher Bestandteil der explorativen Suche und wird dennoch nur in sehr geringem Umfang genutzt, um algorithmische Neuerungen zu begründen und in einen umfassenden Kontext zu setzen. Daraus leitet sich die Vermutung ab, dass die Verwendung von Modellen des Sensemakings und die nutzerzentrierte Konzeption von explorativen Suchen, neue Funktionen für die Interaktion mit Topic Models hervorbringen und einen Kontext für entsprechende Forschungsarbeiten bieten können.
Bewegung als Musikinstrument - Entwicklung eines Prototypen auf Basis von Kinect und Pure Data
(2012)
Es wurden Möglichkeiten der Bewegungsanalyse durch Gamecontroller untersucht und dazu passende Audioerzeuger erstellt. Dazu wurden vier Prototypen erstellt, die auf verschiedenen Analysetechniken basieren. Dazu zählt die Analyse per Webcam, der Sony Playstation Move Controller, und die Microsoft Kinect. Dann habe ich einen Ansatz auf Basis der Kinect weiter-entwickelt. Die Eingabedaten der Kinect wurden über Open Sound Control zu Pure-Data über- ragen. In Pure-Data habe ich ein Instrument erstellt, das durch die geschickte Kombination von Oszillatoren und Filtern einen individuellen und interessanten Klang erzeugt. Dazu wurde ein entsprechendes Kontrollkonzept umgesetzt, welches sich an dem eines Saiteninstrumentes orientiert, dieses Konzept jedoch von der Bewegung der Finger und Hände auf größere Bewe- gungen des ganzen Körpers überträgt. Es wurden Schnittstellen erstellt und diskutiert, mit denen das System via MIDI und Open Sound Control auch an andere Audioerzeuger angeschlossen werden kann. Während der ganzen Entwicklung wurde darauf geachtet, Open-Source-Software zu bevorzugen. Am Ende steht ein elaboriertes System, welches abgesehen von der Hardware völlig frei verfügbar und quelloffen ist.
In dieser Arbeit werden Klebstoffe für die Rissverklebung an Leinenfäden getestet. Als Grundlage werden die Eigenschaften von ausgewählten Klebstoffen und von Leinenfäden vorgestellt. Es wurden Zugversuche mit 25 Klebstoffen an insgesamt über 6.000 Fäden durchgeführt. Mit den Klebstoffen Störleim-Weizenstärkekleister, Mowilith D50, Polyamid 5065 und einem Epoxidharz erfolgten weitergehende Versuche. Dabei wurde zusätzlich die Abhängigkeit der Zugbeständigkeit von der verklebenden Person getestet. Außerdem wurden aufgespannte verklebte Leinenfäden wechselnden klimatischen Bedingungen ausgesetzt und deren Zugbeständigkeit in „normalem“, extrem trockenem und extrem feuchtem Klima geprüft. Die Arbeit schließt mit einer Diskussion anhand einer Versuchsreihe zur Übertragbarkeit der Ergebnisse auf Klebungen in Gewebestrukturen. Die Ergebnisse werden durch Diagramme veranschaulicht und geben Hinweise für die Umsetzung bei der Einzelfadenverklebung am textilen Bildträger.
Die Arbeit thematisiert schwedische Schulbibliotheken, ihre Strukturen, Aufgaben und an sie gestellte pädagogische Anforderungen auch im Zusammenhang mit der Vermittlung von Informationskompetenz, als eine der Kernkompetenzen von Schulbibliotheken. Die Rolle von Schulbibliotheken auf internationaler Ebene wird behandelt. Hierbei wird auf einen möglichen Zusammenhang mit den Ergebnissen der PISA-Studie eingegangen. Mit dem Schulbibliotheksmanifest der UNESCO wird ein international gültiges Grundlagenpapier vorgestellt. Zum besseren Verständnis des Kontextes, in dem schwedische Schulbibliotheken agieren, werden das schwedische Schulwesen, sowie die Entwicklung und Strukturen des schwedischen Bibliothekswesens eingehender behandelt. Im Anschluss daran erfolgt eine ausführliche Beschreibung des schwedischen Schulbibliothekswesens hinsichtlich historischer Entwicklung, Aufgaben, Funktionen und Ausstattung. Es wird betrachtet, welchen Stellenwert die Vermittlung von Informationskompetenz in der schwedischen Schulbibliotheksarbeit hat. Begleitend dazu werden zwei Konzepte zur Vermittlung von Informationskompetenz aus schwedischen Schulbibliotheken näher betrachtet. Zur plastischen Darstellung der gegenwärtigen Situation der schwedischen Schulbibliotheken, werden drei Beispiele für schulbibliothekarische Arbeit aus der Kommune Jönköping genauer vorgestellt, die im Rahmen einer privaten Studienreise besichtigt wurden. Im Anschluss daran wird die Frage erörtert, ob die schwedische Situation modellhaft für Deutschland ist. Zum Schluss werden die Ergebnisse einer im Jahr 2002 veröffentlichten repräsentativen Statistik zur Situation der Schulbibliotheken in Schweden auszugsweise wiedergegeben.
The post-conflict setting in Colombia resulted after the signing of the peace agreement between the Revolutionary Armed Forces of Colombia (FARC) and the national Government at the end of 2016, faces two main problems. On one hand, the environmental degradation and the pressure over the ecosystems now exposed to the economic and socio-demographic dynamics of the country; and on the other hand, the increase of violence in rural areas characterized by the abundance of natural resources. These two problems can be linked through the complex dynamics of natural resources appropriation. Among the natural resources affecting the course of the post-conflict in Colombia, gold appears as one of the most relevant sources of violence and environmental degradation. This condition makes it crucial to understand the complex local dynamics of mining regions in order to propose alternatives for consolidating a sustaining peace. The armed groups, the state, the private companies, and traditional gold mining communities are all stakeholders involved in gold mining and the conflicts around this activity. Nevertheless, communities have been denied as a formal actor.
This work aims to give voice to those communities, understanding them as a key actor for peacebuilding. This research seeks to understand the relationship between gold mining and the social-armed conflict in Colombia, to identify which are the drivers for the increasing of this activity during the post-conflict, as well as which strategies developed by traditional gold mining communities can contribute to peacebuilding. Thus, an integrative analytical framework is developed. This theoretical framework integrates 1) environmental peacebuilding to evaluate the possibilities of natural resources to becoming tools for cooperation, and 2) political ecology to clarify, from a multi-scalar approach, the socio-political context in which the conflict takes place. Hence, from a qualitative approach that involves several ethnographic methods is found that artisanal-ancestral miners and traditional miners organized to remain in their territories in a context of dispossession, have developed socio-ecological systems and natural resources management strategies relevant to implement initiatives of environmental peacebuilding that can be sustained over time and aimed to overcome the structural causes of violence and environmental degradation.
Das Erstellen von Textzusammenfassungen ist bei Recherchearbeiten die gängigste Praxis, um einem Text seine Kernaussage zu entnehmen. Aus einer Zusammenfassung leitet man die essenzielle Information ab, mit dem Ziel, einen Text einem Themengebiet zuzuordnen. Dem Benutzer hilft hierbei ein software-gestütztes System zur Textzusammenfassung. Texte beinhalten aus Sicht eines Computersystems eine Aneinanderreihung von Wörtern bzw. Sätzen und besitzen demnach keine feste Struktur. Aus den unstrukturierten Daten im Text müssen Wörter extrahiert werden, die den Kerninhalt eines Textes widerspiegeln. Auf Basis der extrahierten Wörter erfolgt die endgültige Zusammenfassung und anschließend die semantische Auszeichnung des Gesamttextes, was der Themengebietszuordnung entspricht. Bewährte Methoden für die Textzusammenfassung sind das statistische Verfahren und das sogenannte Signalwort-Verfahren. Grundlage dafür sind die theoretischen Arbeiten von H. P. Luhn und Edmundson. Als weitere Hilfsmittel dienen statistische Methoden aus dem Text Mining. Für die Zuordnung des Textes zu einem Themengebiet eignen sich die Semantic Web Standards des W3C. Der auf Basis dieser Theorien entwickelte Lösungsweg dient als Standardverfahren für eine software-gestützte Textzusammenfassung. Durch die definierten Standards ist die Software in der Lage, jegliche Textarten aus beliebiger Quelle einzulesen, zusammenzufassen und semantisch auszuzeichnen. Benutzer, deren Aufgabe im Unternehmen darin besteht, Recherchearbeiten zu betreiben, verwenden diese software-gestützte Textzusammenfassung. Durch diese Unterstützung spart der Benutzer bei einer Zusammenfassung von mehreren Textdaten Zeit und Aufwand, da der Vorgang durch die Software automatisch abläuft. Aus Sicht eines Unternehmens liegt das Hauptaugenmerk auf der schnellen Informationsgewinnung aus Texten, was essenziell für eine Weiterverarbeitung der Textdaten ist.
Campylobacter spp. are one of the most important food-borne pathogens, which are quite susceptible to environmental or technological stressors compared to other zoonotic bacteria. This might be due to the lack of many stress response mechanisms described in other bacteria. Nevertheless, Campylobacter is able to survive in the environment and food products. Although some aspects of the heat stress response in Campylobacter jejuni are already known, information about the stress response in other Campylobacter species are still scarce. In this study, the stress response of Campylobacter coli and Campylobacter lari to elevated temperatures (46°C) was investigated by survival assays and whole transcriptome analysis. None of the strains survived at 46°C for more than 8 h and approximately 20% of the genes of C. coli RM2228 and C. lari RM2100 were differentially expressed. The transcriptomic profiles showed enhanced gene expression of several chaperones like dnaK, groES, groEL, and clpB in both strains, indicating a general involvement in the heat stress response within the Campylobacter species. However, the pronounced differences in the expression pattern between C. coli and C. lari suggest that stress response mechanisms described for one Campylobacter species might be not necessarily transferable to other Campylobacter species.
Die vorliegende Masterarbeit beschäftigt sich mit Strategien der außerstrafrechtlichen Konfliktbear- beitung in linksautonomen Räumen. Ausgehend von der Annahme, dass staatliche Strafe ein Instrument der Herrschaftsausübung darstellt und in Zeiten des
Neoliberalismus die prekär gewordenen Grenzen der gesellschaftlichen Zugehörigkeit durch Kriminalisierung aufrechterhalten werden, sollen Alternativen zum hegemonialen Strafrechtssystem aufgezeigt werden. Das qualitative Forschungsdesign wurde unter Berücksichti-gung der Grundannahmen der Kritischen Kriminologie entwickelt. Durch den Konfliktbegriff wird sich von der Kategorie „Kriminalität“ mit den ihr inhärenten
Zuschreibungen gelöst. Der Forschungsprozess basiert auf der Grounded Theory Methodologie. Auf der Grundlage teilnarrativer Interviews mit Aktivist*innen aus
verschiedenen linksautonomen Räumen in Deutschland wird ein Modell entwickelt, welches den Prozess der selbstbestimmten Bearbeitung von konflikthaften Ereignissen im gewählten Forschungsfeld beschreibt. Dieses zeigt auf, dass eine Aneignung von Konflikten verstärkt durch einen hohen Grad der Verantwortungsübernahme stattfindet. In einem zirkulären Prozess werden hierbei in der Bearbeitung von Konflikten eigene Regeln und Werte entwickelt, welche sich wiederum auf den Umgang mit Konflikten auswirken. Die Ergebnisse der Forschung richten sich primär an Personen, welche in links-autonomen Räumen aktiv sind und dienen einem besseren Verständnis ihrer gelebten Praxis. Durch die kritische Reflexion, unter Berücksichtigung der Grundsätze von Transformative Justice und Community Accountability, werden zudem Perspektiven für eine mögliche Weiterentwicklung linksautonomer Ansätze zum Umgang mit Konflikten aufgezeigt.
Potential analyses identify possible locations for renewable energy installations, such as wind turbines and photovoltaic arrays. The results of previous potential studies for Germany, however, are not consistent due to different assumptions, methods, and datasets being used. For example, different land-use datasets are applied in the literature to identify suitable areas for technologies requiring open land. For the first time, commonly used datasets are compared regarding the area and position of identified features to analyze their impact on potential analyses. It is shown that the use of Corine Land Cover is not recommended as it leads to potential area overestimation in a typical wind potential analyses by a factor of 4.7 and 5.2 in comparison to Basis-DLM and Open Street Map, respectively. Furthermore, we develop scenarios for onshore wind, offshore wind, and open-field photovoltaic potential estimations based on land-eligibility analyses using the land-use datasets that were proven to be best by our pre-analysis. Moreover, we calculate the rooftop photovoltaic potential using 3D building data nationwide for the first time. The potentials have a high sensitivity towards exclusion conditions, which are also currently discussed in public. For example, if restrictive exclusions are chosen for the onshore wind analysis the necessary potential for climate neutrality cannot be met. The potential capacities and possible locations are published for all administrative levels in Germany in the freely accessible database (Tool for Renewable Energy Potentials—Database), for example, to be incorporated into energy system models.
Habitat loss due to land use and land cover change (LUCC) has been identified as the main cause of global environmental change, responsible for biodiversity decline and the deterioration of ecological processes. Habitat loss and fragmentation have been driven by
processes of LUCC such as deforestation, agricultural expansion and intensification, urbanization, and globalization. The objective of this research was to determine the effects of LUCC on the process of habitat loss and the patterns of fragmentation in the surrounding landscape of the Pacuare Reserve (PR) in the Caribbean lowlands of Costa Rica. The PR is a protected area of 800 ha surrounded by an agricultural landscape with a history of over 150 years of bananas monocultures. Landsat satellite images from 1978 to 2020 were used to conduct a temporal analysis of LUCC around the PR. Patterns of change were explored using landscape metrics from the land classification images. To explore potential connectivity routes, the least cost path analysis was used to connect the PR to other protected areas. Overall, forest cover decreased in the study area at a rate of -4.8% per year during the period of 1992-1997. In the year 2001 it reached its lowest cover and then increased at a mean annual rate of 1.6%. A mean overall accuracy of 92% was obtained for the land classification process. A clear fragmentation process was observed, as shown by a decreased in forest mean patch area and largest patch index and by the increase in patch density. Although forest cover increased in the last decade, fragmentation metrics suggest this recover happened in a spatially scattered manner, due to agricultural land abandonment. Connectivity maps showed the importance of forest fragments and of the already established biological corridors for the movement of species to and from the PR, however it also evidenced the lack of connectivity between the coastal forest fragments and further inside the country located protected areas, as well as the need to promote reforestation projects, particularly between fragments of the corridors identified.
Emergency management services, such as firefighting, rescue teams and ambulances,are all heavily reliant on road networks. However, even for highly industrialised countries such asGermany, and even for large cities, spatial planning tools are lacking for road network interruptionsof emergency services. Moreover, dependencies of emergency management expand not only onroads but on many other systemic interrelations, such as blockages of bridges. The first challenge thispaper addresses is the development of a novel assessment that captures systemic interrelations ofcritical services and their dependencies explicitly designed to the needs of the emergency services.This aligns with a second challenge: capturing system nodes and areas around road networksand their geographical interrelation. System nodes, road links and city areas are integrated into aspatial grid of tessellated hexagons (also referred to as tiles) with geographical information systems.The hexagonal grid is designed to provide a simple map visualisation for emergency planners andfire brigades. Travel time planning is then optimised for accessing city areas in need by weighingimpaired areas of past events based on operational incidents. The model is developed and testedwith official incident data for the city of Cologne, Germany, and will help emergency managers tobetter device planning of resources based on this novel identification method of critical areas.
Um Strahlenschäden zu vermeiden und die Aufnahmequalität der Röntgenbilder in der Veterinärmedizin zu verbessern, wurde im Rahmen dieser Arbeit ein Konzept für einen „Digitaler Aufnahmehelfer für die Kleintierradiologie“ entwickelt. Bei der Produktion dieser flashbasierten Software wurden beispielhaft computergenerierte Grafiken (CGI) und 3D-Animationen erstellt. Ebenso wurden Belichtungstabellen eingebunden. Diese wurden in Zusammenarbeit mit der Tierhochschule Hannover und der Firma Gierth X-Ray international erarbeitet. Es ergaben sich Belichtungswerte, die auf physikalischen Grundlagen beruhen.
Die Studie untersucht die Usability der Homepage des Landtags Nordrhein-Westfalen. Es wird analysiert, wie benutzerfreundlich die Website ist, ob sie effektiv genutzt werden kann und ob die Inhalte der Site den Erwartungen der Benutzer entsprechen. Drei Evaluationsmethoden finden Einsatz: Ein Thinking-Aloud-Test, eine heuristische Evaluation und eine Availability-Untersuchung.
The Production of Isophorone
(2023)
Isophorone is a technically important compound used as a high-boiling-point solvent for coatings, adhesives, etc., and it is used as a starting material for various valuable compounds, including isophorone diisocyanate, a precursor for polyurethanes. For over 80 years, isophorone has been synthesized via base-catalyzed self-condensation of acetone. This reaction has a complex reaction mechanism with numerous possible reaction steps including the formation of isophorone, triacetone dialcohol, and ketonic resins. This review provides an overview of the different production processes of isophorone in liquid- and vapor-phase and reviews the literature-reported selectivity toward isophorone achieved using different reaction parameters and catalysts.
Die Menge an Informationen steigt seit Jahren immer weiter an. Dies lässt sich auch leicht an der Entwicklung der Speichermedien feststellen. So bot die erste 5,25-Zoll Festplatte, eine Seagate ST- 506, lediglich 5 MB Speicherkapazität. Heutige 3,5-Zoll Festplatten verfügen hingegen über bis zu 8 TB Speicherkapazität und werden ebenso ausgenutzt wie ihre Vorgänger aus der Anfangszeit der Magnet-festplatten. Zusätzlich geht die Tendenz dorthin, alle Daten jederzeit zur Verfügung zu haben. Sei es daheim am Rechner, auf der Arbeit oder per Tablet oder Smartphone unterwegs, dank der immer mehr verbreiteten Cloud-Speicher stehen die Daten jederzeit zur Verfügung. Mit dem enormen Zuwachs an Dateien und auch an Dateiformaten wird es jedoch immer schwieriger, diese Masse zu überblicken und bestimmte Inhalte in annehmbarer Zeit wiederzufinden. Beispiels- weise hostet der Internetdienst Flikr die schier unüberschaubare Menge von über 6 Milliarden Bilder. Doch nicht nur die großen Servicedienstleister besitzen große Datenmengen, auch Einzelpersonen haben derweil große Musik- und Bildsammlungen, zumal jedes aktuelle Smartphone über eine Kamera verfügt. Jeder ist somit praktisch zu jeder Zeit in der Lage, ein Foto in hochauflösender Qualität zu schießen und direkt in seine Cloud hochzuladen. Diese Datenmengen manuell zu ordnen, erfordert einen sehr hohen Aufwand, den nicht alle Menschen gewillt sind zu leisten. Vor allem am Smartphone geht dieses Benennen und Einsortieren aufgrund der vorhandenen Technik nicht so leicht von der Hand. In der Praxis sammeln sich die Aufnahmen mit der Zeit immer weiter an und letztlich befinden sich mehrere hundert wenn nicht gar tausend Bilder in einem Ordner, welche sich namentlich meist nur durch eine fort- laufende Nummer unterscheiden. Diesen Umstand Rechnung tragend, treten Metainfor-mationen immer mehr in den Vordergrund. So speichern die zuvor genannten mobilen Alleskönner meist viele informative Daten mit in den Bilddateien ab. Beispielsweise kann dank der eingebauten GPS-Module der Ort der Aufnahme aus den Bildern ausgelesen werden. Die Dienstleister für Cloud-speicher nutzen diese Informationen jedoch nur marginal aus und bieten dem Endanwender kaum Unterstützung bei der Suche nach be- stimmten Inhalten, wie etwa beim OX Drive, der Cloudlösung der Firma Open-Xchange.
Die vorliegende Master Thesis zeigt, wie dieser Cloud-Speicher, welcher in die Hauseigene OX App Suite integriert ist, um sogenannte Smartfeatures erweitert werden kann. Diese Smartfeatures sollen dem Endan-wender helfen, die Daten einfacher – wenn nicht gar automatisch – zu ordnen und somit leichter bestimmte Inhalte wiederzufinden. Kernthema dieser Arbeit ist daher die auto- matische Extraktion von unterschiedlichen Metadaten aus diversen Dateiformaten. Des Weiteren wird gezeigt, wie diese Daten effizient gespeichert und abgefragt werden können. Die Thesis stellt hierzu den Document Store Elasticsearch vor und vergleicht diesen mit seinem Konkurrenten Apache Solr.
The importance of lithium as a raw material is steadily increasing, especially in the growing markets of grid energy and e-mobility. Today, brines are the most important lithium sources. The rising lithium demand raises concerns over the expandability and the environmental impact of common mining techniques, which are mainly based on the evaporation of brine solutions (Salars) in arid and semiarid areas. In this case, much of the water contained in the brine is lost. Purification processes lead to further water losses of the ecosystems. This calls for new and improved processes for lithium production; one of them is electrodialysis (ED). Electrodialysis offers great potential in accessing lithium from brines in a more environmentally friendly way; furthermore, for the recovery of lithium from spent lithium-ion batteries (LIB), electrodialysis may become a vital technology. The following study focused on investigating the effect of varying brine compositions, different ED operation modes, and limiting factors on the use of ED for concentrating lithium-containing brine solutions. Synthetic lithium salt solutions (LiCl, LiOH) were concentrated using conventional ED in batch-wise operation. While the diluate solution was exchanged once a defined minimum concentration was reached, the concentrate solution was concentrated to the respective maximum. The experiments were conducted using a lab-scale ED-plant (BED1-3 from PCCell GmbH, Germany). The ion-exchange membranes used were PCSK and PCSA. The treated solutions varied in concentration and composition. Parameters such as current density, current efficiency, and energy requirements were evaluated. ED proved highly effective in the concentration of lithium salt solutions. Lithium chloride solutions were concentrated up to approximately 18-fold of the initial concentration. Current efficiencies and current densities depended on voltage, concentration, and the composition of the brine. Overall, the current efficiencies reached maximum values of around 70%. Furthermore, the experiments revealed a water transport of about 0.05 to 0.075% per gram of LiCl transferred from the diluate solution to the concentrate solution.
Um zukunftssicherndes Vertrauen beim Kunden aufzubauen, bedarf der von Qualitätsunsicherheiten geprägte Informationsmarkt systematischer vertrauensbildender Instrumente. Die vorliegende Arbeit zeigt Einsatzmöglichkeiten von Qualitätsmanagementsystemen in Institutionen der Informationswirtschaft auf und diskutiert eine Zertifizierung dieser nach der Normenreihe ISO 9000ff. Mit aus dem Dienstleistungsmarketing abgeleiteten kundenorientierten Meßverfahren (Critical-Incident-Technique, Penalty-Reward-Faktoren-Modell, SERVQUAL-Methode) kann das informationswirtschaftliche Unternehmen darüber hinaus Erkenntnisse über den Stand der angebotenen Dienstleistungsqualität gewinnen. Datenbankproduzenten scheinen durch den Einsatz von zertifizierten Qualitätsmanagementsystemen größere Nutzenwirkungen erzielen zu können als Informationsvermittlungsstellen. Charakteristisch für die Informationswirtschaft ist der Mangel an Möglichkeiten zur Messung von Qualität. Neben objektiven und subjektiven Meßmethoden zur Dienstleistungsqualität sollten Institutionen der Informationswirtschaft möglichst objektive, auf die Situation im eigenen Unternehmen abgestimmte Meßmethoden erstellen und anwenden. In einem Praxisbericht wird die Implementierung und der Betrieb des nach DIN EN ISO 9001 zertifizierten Qualitätsmanagementsystems des FIZ CHEMIE BERLIN untersucht. Als ein in diesem Fachinformationszentrum eingesetztes qualitätssicherndes Werkzeug wird ein Meßsystem für von freien Mitarbeitern erbrachten Indexierungsleistungen vorgestellt.
Multidrug resistance (MDR) in tumors and pathogens remains a major problem in the efficacious treatment of patients by reduction of therapy options and subsequent treatment failure. Various mechanisms are described to be involved in the development of MDR with overexpression of ATP-binding cassette (ABC) transporters reflecting the most extensively studied. These membrane transporters translocate a wide variety of substrates utilizing energy from ATP hydrolysis leading to decreased intracellular drug accumulation and impaired drug efficacy. One treatment strategy might be inhibition of transporter-mediated efflux by small molecules. Isocoumarins and 3,4-dihydroisocoumarins are a large group of natural products derived from various sources with great structural and functional variety, but have so far not been in the focus as potential MDR reversing agents. Thus, three natural products and nine novel 3,4-dihydroisocoumarins were designed and analyzed regarding cytotoxicity induction and inhibition of human ABC transporters P-glycoprotein (P-gp), multidrug resistance-associated protein 1 (MRP1) and breast cancer resistance protein (BCRP) in a variety of human cancer cell lines as well as the yeast ABC transporter Pdr5 in Saccharomyces cerevisiae. Dual inhibitors of P-gp and BCRP and inhibitors of Pdr5 were identified, and distinct structure-activity relationships for transporter inhibition were revealed. The strongest inhibitor of P-gp and BCRP, which inhibited the transporters up to 80 to 90% compared to the respective positive controls, demonstrated the ability to reverse chemotherapy resistance in resistant cancer cell lines up to 5.6-fold. In the case of Pdr5, inhibitors were identified that prevented substrate transport and/or ATPase activity with IC50 values in the low micromolar range. However, cell toxicity was not observed. Molecular docking of the test compounds to P-gp revealed that differences in inhibition capacity were based on different binding affinities to the transporter. Thus, these small molecules provide novel lead structures for further optimization.
Im Rahmen von MILOS II wurde das erste MILOS-Projekt zur automatischen Indexierung von Titeldaten um eine semantische Komponente erweitert, indem Thesaurusrelationen der Schlagwortnormdatei eingebunden wurden. Der abschließend zur Evaluierung des Projekts durchgeführte Retrievaltest und seine Ergebnisse stehen im Mittelpunkt dieses Texts. Zusätzlich wird ein Überblick über bereits durchgeführte Retrievaltests (vorwiegend des anglo-amerikanischen Raums) gegeben und es wird erläutert, welche grundlegenden Fragestellungen bei der praktischen Durchführung eines Retrievaltests zu beachten sind.
Informatik ist eine männerdominierte Wissenschaft, welches sich an den Männeranteilen sowohl im Studium als auch in der Berufswelt bemerkbar macht. Aus diesen und weiteren Gründen trauen sich viele Frauen nicht in das Gebiet Informatik einzusteigen. Der niedrige Frauenanteil ist eine Lücke für die Wissenschaft. Die Qualifikationen von Frauen werden benötigt, um neue Sichtweisen zu bekommen und andere Arbeitsweisen kreieren zu können. Damit die Frauenquote in der Informatik steigt, müssen die Ursachen analysiert und dagegen entsprechende Maßnahmen getroffen werden. Die vielfältigen Seiten des Gebietes müssen enthüllt und mit anderen Wissenschaften verknüpft werden, so dass Frauen auch eigene Interessen darin finden können.
La Picasa basin, an interjurisdictional endorreic basin of 5282 km2 located in the “Central Pampa” in Argentina, has suffered repeated flooding caused by an increasing water level of La Picasa lagoon, affecting livelihoods, infrastructure, transportation and agriculture. Although water infrastructure has been built to regulate water excesses, it has not been effective in reducing the flood risk.
To improve the knowledge of the hydrological system, the master’s thesis aimed to develop a water balance model of La Picasa lagoon at a monthly time step between the hydrological years 2007/2008 and 2016/2017. Specifically, the objectives were to identify and quantify the most important components and processes determining its water level, area and volume and to propose hypothetical simulation scenarios based on different pumping operation schemes.
The description of the conceptual model and implementation of a sensitivity analysis allowed to identify the inflow and outflow components of the water balance and quantify their relative contributions, namely precipitation, water discharge from channels, surface runoff from surrounding sub-basins of the lagoon, evaporation and pumping. The performance tests applied to the model during the calibration and validation showed a very good performance. Additionally, two simulation scenarios were proposed, namely potential pumping and adjusted pumping, which reflected different trajectories of the water balance.
The master’s thesis concluded that precipitation and evaporation were the most determinant inflow and outflow components in the water balance of La Picasa lagoon respectively. However, the flooding event in 2016/2017 was caused by a simultaneous reduction of net evaporation and an increase in water discharge, surface runoff and intermittent pumping. The simulation scenarios suggested that an optimal operation of the pumping stations could have been effective to increase the storage capacity of the lagoon. However, during longer humid periods, it might not be enough to outweigh additional inflows.
Worldwide there is a big need for affordable livingspace. Globalization leads to a connection of development and ideas in the field of building. Open Source communities could improve and accelerate this development. The potential of theses communities lies in the connection of different diciplines. Especially for building projects with a small budget and a willingness to participate in the work process open source do-it-yourself constructions are a great opportunity to help cover the need of affordable work and living space. Renewable materials such as wood offer great potential here. New, standardised technologies make a decentralised production possible.
On 25 May 2011, the OECD launched a "Green Growth Strategy" and proposed a "Green Growth Diagnostics" approach to identify the binding constraints on green growth. This paper discusses the potential use and usefulness of this approach as a means to identify those binding constraints. It is argued that the approach is best used at the meso level for industries and certain environmental challenges. The paper proposes a modified green growth diagnostics approach for eco-innovations at the meso level that can be useful for informing and organising a rational policy dialogue amongst all stakeholders.
Polyimides rank among the most heat-resistant polymers and find application in a variety of fields, including transportation, electronics, and membrane technology. The aim of this work is to study the structural, thermal, mechanical, and gas permeation properties of polyimide based nanocomposite membranes in flat sheet configuration. For this purpose, numerous advanced techniques such as atomic force microscopy (AFM), SEM, TEM, TGA, FT-IR, tensile strength, elongation test, and gas permeability measurements were carried out. In particular, BTDA–TDI/MDI (P84) co-polyimide was used as the matrix of the studied membranes, whereas multi-wall carbon nanotubes were employed as filler material at concentrations of up to 5 wt.% All studied films were prepared by the dry-cast process resulting in non-porous films of about 30–50 μm of thickness. An optimum filler concentration of 2 wt.% was estimated. At this concentration, both thermal and mechanical properties of the prepared membranes were improved, and the highest gas permeability values were also obtained. Finally, gas permeability experiments were carried out at 25, 50, and 100 ◦C with seven different pure gases. The results revealed that the uniform carbon nanotubes dispersion lead to enhanced gas permeation properties.
Das Ziel dieser Arbeit ist es, zu erschließen, vor welchen Herausforderungen die Medienpädagogik angesichts der Auswirkungen von Big Data und Digitalen Technologien auf die Gesellschaft steht. Bislang hat die Medienpädagogik nur vereinzelt Stellung zu dieser neuartigen Situation bezogen.
In dieser Arbeit werden definierte Ziele und Theorien der Medienpädagogik auf ihre Anschlussmöglichkeiten in Bezug auf die Besonderheiten Digitaler Technologien hin untersucht. Digitale Technologien und Big-Data-Anwendungen verändern die Art und Weise von Kommunikation, Bildungsprozessen, Arbeit und Alltagsorganisation. Ihre technologischen Strukturen machen es Internet-Unternehmen möglich, weltweit Informationen über digitale Kommunikationsprozesse in Form von Daten zu analysieren, in die Privatsphäre von Menschen einzudringen, sie zu kontrollieren, zu konditionieren und zu prägen. Behörden und Regierungen werten die von Konzernen gesammelten Daten zudem für ihre Zwecke aus.
Dargestellt wird, wie Konzerne mit Big-Data-Technologien in das alltägliche Leben eindringen, die Grundprinzipien der Demokratie verletzten und gesellschaftliche Errungenschaften angreifen. Es wird untersucht, inwieweit Technologie als Herrschaftsinstrument eingesetzt wird und vorhandene Gesetze zum Schutz persönlicher Daten ausreichen.
Die Medienpädagogik ist aufgefordert die Besonderheit dieser neuartigen Technologie zu zu berücksichtigen. Als Ziel ihrer Arbeit stellt die Medienpädagogik in Theorie und Praxis die Entfaltung des Menschen und der Gesellschaft in den Vordergrund und sie muss agieren, wenn diese Grundelemente extremen Einflussnahmen ausgesetzt werden. Herausgearbeitet wurde, dass die Medienpädagogik besonders zum Handeln aufgerufen ist, wenn Monopolisten demokratische Strukturen mit neuen Technologien aushöhlen, denen Menschen ausschließlich als Objekte von Kommerzialisierung und Überwachung dienen.
Die vorliegende Arbeit beschäftigt sich im übergeordneten Kontext mit den Bounding Volume Hierarchies zur Veinfachung des Intersection Testings beim Raytracing. Die derzeitige Problematik besteht vor allem in der immer noch zu optimierenden Laufzeit. Dementsprechend wird trotz der bereits bestehenden Beschleunigungsdatenstrukturen wie unter anderem der Bounding Volume Hierarchy versucht, effizientere Strukturen oder Erstellungsprozeduren zu entwickeln. Für die Bounding Volume Hierarchy bedeutet dies, dass vor allem hinsichtlich verschiedener Splitting-Methoden und Möglichkeiten für die Baumoptimierung geforscht wird. Explizit wird daher innerhalb dieser Arbeit untersucht, wie die Bounding Volume Hierarchy durch die Verwendung der Hauptkomponentenanalyse bei der Erstellung optimiert werden kann und wie effizient der daraus resultierende Ansatz gegenüber der klassischen Bounding Volume Hierarchy sowie deren Splitting-Methoden ist. Eine Evaluation anhand 12 verschiedener Szenen zeigte, dass der vorliegende Ansatz unter Verwendung der SAH-Methode wie auch mit der Middle-Methode 17.70% respektive 13.14% geringere Renderlaufzeiten als der distanzbasierte Ansatz aufweist. Des Weiteren konnte mittels der kombinierten Verwendung aus klassischer SAH-Methode und PCA-basierter SAH-Methode eine weitere Verbesserung um 6.65% gegenüber der SAH-Methode der PCA-BVH erreicht werden.
Editorial
(2020)
Academic search systems aid users in finding information covering specific topics of scientific interest and have evolved from early catalog-based library systems to modern web-scale systems. However, evaluating the performance of the underlying retrieval approaches remains a challenge. An increasing amount of requirements for producing accurate retrieval results have to be considered, e.g., close integration of the system’s users. Due to these requirements, small to mid-size academic search systems cannot evaluate their retrieval system in-house. Evaluation infrastructures for shared tasks alleviate this situation. They allow researchers to experiment with retrieval approaches in specific search and recommendation scenarios without building their own infrastructure. In this paper, we elaborate on the benefits and shortcomings of four state-of-the-art evaluation infrastructures on search and recommendation tasks concerning the following requirements: support for online and offline evaluations, domain specificity of shared tasks, and reproducibility of experiments and results. In addition, we introduce an evaluation infrastructure concept design aiming at reducing the shortcomings in shared tasks for search and recommender systems.
In water electrolyzers, polymer electrolyte membranes (PEMs) such as Nafion can accumulate cations stemming from salt impurities in the water supply, which leads to severe cell voltage increases. This combined experimental and computational study discusses the influence of sodium ion poisoning on the ionic conductivity of Nafion membranes and the ion transport in a thereon based water electrolysis cell. Conductivities of Nafion and aqueous solutions with the same amount of dissolved cations are measured with impedance spectroscopy and compared with respect to Nafion’s microstructure. The dynamic behavior of the voltage of a water electrolysis cell is characterized as a function of the sodium ion content and current density, showing the differences of the ion transport at alternating and direct currents. These experimental results are elucidated with a physical ion transport model for sodium ion poisoned Nafion membranes, which describes a proton depletion and sodium ion accumulation at the cathode. During proton depletion, the cathodic hydrogen evolution is maintained by the water reduction that forms hydroxide ions. Together with sodium ions from the membrane, the formed hydroxide ions can diffuse pairwise into the water supply, so that the membrane’s sodium ions can be at least partly be replaced with anodically formed protons.
This thesis proposes four different Augmented Reality (AR) display techniques that can overcome the problem of uncertain tracking errors. Where most other papers focus on limiting the amount of error that a user tracking system generates, this paper pro-poses visualizations that limit their impact instead. For this, four different display techniques have been developed and evaluated using criteria found in related literate. Two of the four proposed solutions consistently ranked better within these criteria. The first, Bending Words, uses a mix between spatially registered information and turn instructions to achieve that result. The second, WIM, mostly relies on context infor-mation of the building instead.
Ziel der Arbeit war es, den Nutzen der Google Glass im Alltag und ihr Potenzial als AR-Brille ( Augmented Reality ) aufzuzeigen. Mit der Arbeit wurde ein ortsbasierter AR Ansatz vorgestellt, der innerhalb von Gebäuden zum Einsatz kommt. Als Beispielszenario diente die AR-basierte Navigation innerhalb des Gebaudes der TH Köln. Hierbei wurde ein Umgebungsmodell in Form eines Regular Grids konstruiert, welches eine diskrete Positionsbestimmung im Raum erlaubt. Ferner wurden verschiedene Verfahren zur Positionsbestimmung innerhalb von Gebäuden gegen übergestellt und deren Vor- und Nachteile evaluiert. Hierbei wurden die Erkenntnisse gewonnen, dass die Positionsbestimmung mittels LLA Markern die höchste Stabilität, jedoch die geringste Kontinuität aufweist, da Marker zunächst erkannt werden müssen, bevor die Position bestimmt werden kann.
Die vorliegende Arbeit beschäftigt sich mit der Jugendbibliothek freestyle der Stadtbüchereien Düsseldorf. Das Konzept zielt auf eine langfristige Kundenbindung jugendlicher Nutzer ab 14 Jahre. Das Projekt und seine Durchführung werden ausführlich vorgestellt. Ferner wird eine Kundenbefragung unter den freestyle-Nutzern durchgeführt. Diese ermittelt die Kundenzufriedenheit und liefert Rückschlüsse auf den Erfolg des Konzepts. Darüber hinaus werden das Freizeit- und Medienverhalten Jugendlicher aufgegriffen und Ursachen für den Wegfall dieser Zielgruppe in Öffentlichen Bibliotheken ermittelt. Zusätzlich verdeutlicht diese Arbeit die zunehmende Bedeutung von Kundenbindung und Marketing für öffentliche Einrichtungen und stellt praktische Kundenbindungsinstrumente aus Wirtschaft und Kultur vor, die als Anregung für ein langfristiges Kundenbindungsprogramm in Öffentlichen Bibliotheken dienen sollen.
Die Lebensweltorientierung nach Hans Thiersch stellt wohl eines der geläufigsten Theoriekonzepte im gegen- wärtigen Diskurs der Sozialen Arbeit dar. Mit ihr werden die (primär) bezugswissenschaftlich-entschlüsselten Termini ‚Lebenswelt‘ und ‚Alltag‘ als Orientierungspunkte für die Praxis sowie als Gegenstand für die wissenschaftliche Disziplin Sozialer Arbeit konstatiert; genauer noch: systemintern normativ aufgeladen. Insbe-sondere stützt sich das Theoriekonzept auf gesellschaftskritische Modernisierungserzählungen hinsichtlich spätkapitalistischer Entwicklungslinien und deren Einfluss auf das Individuum, die Gesellschaft und die vermeintlich dazwischenliegende Soziale Arbeit. Die angestrebte UmOrientierung soll die Soziale Arbeit aus ihren über-bürokratisierten und ökonomisierten Methoden- zwängen befreien, eine „ganzheitlichere“, also „professionell richtige“ Begegnung mit den Klient*innen ermöglichen und, im Zuge dessen, das Großprojekt sozialer Gerechtigkeit befördern. Die durchaus weitgefasste Argumentations- und Legitimationsstruktur, welche dem Theoriekonzept innewohnt, geht aus solch einer umfangreichen Integration von (vorerst) fach- fremden Begrifflichkeiten und Sinnzusammenhängen hervor, so dass der Versuch einen gänzlichen Überblick dessen zugewinnen, in diffuser Desorientierung enden kann. So pointiert Thiersch selbst, dass es notwendig sei, die Lebensweltorientierung „schwierig, kantig und sperrig“ zu halten (Thiersch 2015, S. 314). Will sich jene Soziale Arbeit jedoch auf einem dermaßen breiten
Theorieboden begründen, ist es unabdingbar systematisch zu identifizieren, wo sich thematische Schnittmengen, Divergenzen oder Spannungen ergeben. Darüber hinaus
muss sie ersichtlich machen, auf welche Weise diese entsprechend bearbeitet, entkoppelt oder weitergedacht werden. Hält sie Untersuchungen dieser Art nicht Stand, lässt dies semantische Verkürzungen, selbstaffirmative Positionsbestimmungen und ideologische Programmatik ver- muten, welche den wissenschaftlichen Gehalt des Theorie-konzepts in Frage stellen lassen würden. Die vorliegende Arbeit soll als ein kritischer explorations-versuch gelten, welcher das Ziel verfolgt, mögliche Diffusitäten herauszustellen und zu beleuchten. So wird sich insbe-sondere mit dem systematischen Weg auseinandergesetzt, welchen Thiersch einschlägt, um einen vermeintlichen Konnex bezugswissenschaftlicher Theoriebestandteile anzubieten, diesen im Diskurs Sozialen Arbeit brauchbar zu machen und ferner als grundlegendes, ‚orientierungs-würdiges‘ (normativ-aufgeladenes) Zentrum zu setzen.
Das vorliegende Praxis Paper fasst die Erkenntnisse zur Nutzung der Social Media Plattformen LinkedIn und Kununu für B2B Unternehmen zusammen.
Es basiert auf der Bachelorarbeit von Herrn Simon Schiffbauer, die von Oktober 2020 bis Januar 2021 von Prof. Dr. Monika Engelen betreut wurde. Dazu wurde die richtige Verwendung der Funk-tionen von LinkedIn und Kununu recherchiert und anhand von Fallstudien erfolgreicher B2B Unter-nehmen veranschaulicht. Der Bachelorarbeit ging ein Praxisprojekt zur allgemeinen Nutzung von Social Media durch B2B Unternehmen voraus, in dem die Social Media Aktivitäten der 75 größten deutschen B2B Unternehmen erhoben und analysiert wurden. Die Erkenntnisse sind sowohl in dem separaten Praxis Paper „Social Media Marketing für B2B Unternehmen - Untersuchung der Social Media Präsenz der 75 größten deutschen B2B Unternehmen und Handlungsempfehlungen“ veröffentlicht als auch in dieses Praxis Paper eingeflossen.
Die Kerninhalte dieses Praxis Papers sind die Erfolgsfaktoren, Ziele und Zielgruppen, die über LinkedIn und Kununu erreicht werden sollen. Insbesondere die Akquise von Neukunden, die Pfle-ge von Bestandskunden und die Akquise von Mitarbeitern stehen dabei im Vordergrund.
Das Praxis Paper soll als Einstieg und Leitfaden zur Nutzung der Plattformen LinkedIn und Kununu dienen.
LA FERDINANDA (in der Mitte des Ozeans...), ein 1981 von Rebecca Horn
bemaltes Glasobjekt ist aufgrund seines Erhaltungszustandes nicht mehr
ausstellungsfähig. Aufbauend auf Untersuchungen zu künstlerischem Kontext,
verwendeten Materialien, Werkprozess und Erhaltungszustand wurde ein
Restaurierungskonzept entwickelt. Den Schwerpunkt der Arbeit stellt die
Konsolidierung des schwach gebundenen Farbauftrages auf dem Glasträger dar.
Hierfür wurden umfangreiche Versuchsreihen angelegt und bewertet. Die besten
Ergebnisse konnten mit einem Konsolidierungsmittel auf Basis des
siliciumorganischen ORMOCER-G in Mischung mit Paraloid B72 erzielt werden.
Die Applikation erfolgte mit einem Dosiergerät.
Aufbauend auf einer vorherigen Arbeit, die sich mit der Implementierung einer Komponentezum Auslesen mdizinischer Sensordaten mithilfe eines Arduino und eines Raspberry Pi befasst hat, beschäftigt sich diese Arbeit mit der Visualisierung sowie Auswertung der durch das System gesammelten Daten. Das Ziel dieser Arbeit ist es, über einen Zeitraum von etwa drei Monaten mithilfe der Komponente Daten zu sammeln und diese Daten in einem sinnvollen Kontext visuell darzustellen. Zudem sollen diese Daten mithilfe unterschiedlicher Algorithmen des Maschinellen Lernens ausgewertet werden,
um mögliche Muster und Zusammenhänge erkennen zu können. In diesem Kontext konnte die Hypothese aufgestellt werden, dass ein Zusammenhang zwischen der Körpertemperatur und der Sauerstoffsättigung im Blut besteht.
Aufgrund ihrer aktuellen Bedeutung im Zusammenhang des Internet of Things werden in der vorliegenden Arbeit Time Series Databases und Event Stores miteinander vergli-chen. Ziel ist, die Gemeinsamkeiten und Unterschiede der beiden Arten von Datenbank Management Systemen herauszustellen.
Der erste, theoretische Teil des Vergleichs erfolgt anhand der funktionalen Kriterien Speichersystem, Performance und Funktionen sowie der nicht-funktionalen Kriterien Usability und Support. Im zweiten Teil des Vergleichs wird anhand eines konkreten An-wendungsfalls untersucht, ob sich Time Series Databases und Event Stores gleicher-maßen für die Speicherung und in einem zweiten Schritt für die Abfrage von Zeitreihen-daten eignen.
Zumal der theoretische Vergleich Unterschiede zwischen einzelnen Time Series Data-bases und Event Stores in Bezug auf die betrachteten Kriterien erkennen lässt, wird für den praktischen Vergleich unter Berücksichtigung der im konkreten Anwendungsfall gegebenen Anforderungen nur die am besten geeignetste Time Series Database (In-fluxDB) und der am besten geeignetste Event Store (Event Store) ausgewählt. Der prak-tische Vergleich zeigt, dass die Zeitreihendaten im konkreten Anwendungsfall zwar in beiden Arten von Datenbank Management Systemen gespeichert werden können, die Nutzung der auf Zeitreihendaten spezialisierten Time Series Database InfluxDB jedoch offensichtliche Vorteile gegenüber dem Event Store aufweist.
Ziel dieser Diplomarbeit ist es zu evaluieren, ob eine effiziente Implementierung von responsiven Webapplikationen zum Zeitpunkt der Erstellung der Arbeit möglich ist. Als technische Grundlage wird hierzu die HTML5-Spezifikation mit dem darin enthaltenen CSS3 und den JavaScript-Programmierschnittstellen herangezogen.
Es wird erläutert, dass unter responsivem Design die Reaktionsfähigkeit des Designs auf die Abrufumgebung, wie zum Beispiel die Größe der Anzeigefläche, zu verstehen ist und mit Hilfe welcher Techniken ein solches Design für Webapplikationen realisiert werden kann. Des Weiteren werden Möglichkeiten zur Performance-Optimierung aufgeführt, wobei festgestellt wird, dass für die Nutzung einer Webanwendung auf mobilen Geräten die Anzahl der Dateien das größte Potenzial zur Optimierung besitzt. Die Möglichkeiten der JavaScript-Programmierschnittstellen in HTML5 zur Umsetzung von Funktionalitäten für Webapplikationen, wie sie bei lokal installierten Anwendungen gebräuchlich sind, werden ebenso erläutert.
Das Fazit dieser Arbeit ist, dass ausreichend Techniken zur Erstellung von responsiven Webapplikationen in HTML5 definiert sind. Lediglich die zum Teil ausstehende Umsetzung dieser Techniken in den einzelnen Browsern verursacht Einschränkungen. Dies wirkt sich gegebenenfalls negativ auf die Effizienz des Umsetzungsprozesses aus. Ebenso kann die übermäßige Optimierung des Layouts und der Performance zu unverhältnismäßigem Aufwand führen.
Shared Service Center (SSC) bieten innerhalb einer Organisation Hilfsdienstleistungen an. Das interne Outsourcing bietet Bibliotheken Möglichkeiten über die originären Aufgaben hinaus weitere Produkte innerhalb des Trägers oder interkommunal anzubieten und diese auch kostendeckend vergütet zu bekommen. Werden SSC in der Regel von zentraler Stelle entwickelt und installiert, müssen und können Bibliotheken hier noch selbst gestalten. Insbesondere freiwillige Einrichtungen eines Trägers können sich profilieren und eine höhere Quote im Kostendeckungsgrad erreichen. Die Aufgaben des Wissensmanagements oder die Implementierung eigener vorhandener Produkte in fachfremde Bereiche werden in Beispielen auf kommunaler Ebene vorgestellt.
Als Reaktion auf die Verbreitung von webbasierten Tools zu Kommunikation, Kooperation und Kollaboration wurde 2005 der Begriff des E-Learning 2.0, der diverse Facetten und Trends des E-Learning subsumiert, in die Diskussion um neue Modelle der Hochschullehre eingeführt. Durch die Anreicherung der starren Lernmanagementsysteme um Elemente sozialer Netzwerke, Werkzeuge für Kommunikation und Kollaboration, Informations- und Wissensmanagement und Publikationsmöglichkeiten wandeln sich diese zu Lernplattformen oder Lernumgebungen (Virtual Learning Environments), welche die Bildung solcher offener oder geschlossener Learning Communities oder Communities of Practice begünstigen, innerhalb derer informelles Peer-to-Peer-Learning möglich wird. Gleichzeitig zielt "Ne(x)t Generation E-Learning" auf eine Individualisierung des Lernens und sieht den Lernenden als eigenverantwortlichen Akteur, der sich selbständig und selbstbestimmt Kompetenzen aneignen soll. Dieses informelle Lernen über die gesamte Lebensspanne wird durch konventionelle E-Learning-Produkte nicht unterstützt, die dozenten- und instruktionsorientiert formale, sequentielle Lernszenarien vorgeben. Als Antwort auf die Forderung nach individueller Gestaltung des Curriculums und sukzessiver, lebenslanger Aneignung von Kompetenzen etablieren sich sog. Personal Learning Environments, also personalisierte VLEs, die es erlauben, persönliche Lernziele zu verfolgen, indem Tools und Ressourcen selbst zusammengestellt und organisiert werden. Personal Learning Environments sind Basis des kompetenzorientierten E-Learnings. Zur Präsentation der so erworbenen Kompetenzen nach außen, sei es als Teil eines persönlichen Profils, sei es als Leistungsnachweis, werden sog. serverbasierte E-Portfolios angeboten, die aus den PLEs generiert werden können. Werden diese Sammlungen digitaler Artefakte, die einen Lernprozess dokumentieren sollen, innerhalb des Informations- und Kommunikationsraums Hochschule publiziert, kann dies der Wissenskommunikation zwischen Lernenden, also dem sog. Peer-to-Peer-Learning, förderlich sein - sofern die E-Portfolios anderer Studierender als Ressource bzw. Lernobjekt, als "E-Portfolio 2.0" betrachtet werden. Informationskompetenz als Metakompetenz, die den Erwerb fachlicher Kenntnisse überhaupt erst ermöglicht, nimmt unter den zu erwerbenden Kompetenzen eine Schlüsselposition ein und ist eng verknüpft mit Medienkompetenz auf der Input- sowie Präsentationskompetenz auf der Output-Seite. Eine Möglichkeit, die Entwicklung dieser Schlüsselkompetenz zu fördern, ist die Verschriftlichung der Recherchen im Rahmen eines sog. Rechercheportfolios, einer Unterart des Arbeitsportfolios. Die schriftliche Fixierung zwingt nicht nur zur Reflexion des eigenen Informationsprozesses, sondern ermöglicht auch die retrospektive Beurteilung der Effektivität und Effizienz der eigenen Recherchestrategien - oder die Analyse der Recherchestrategien anderer Lernender, sofern die Rechercheportfolios innerhalb einer Learning Community publik gemacht werden. Das Rechercheportfolio wird so zum "Rechercheportfolio 2.0". Das Potential dieses Instruments wird jedoch bislang noch nicht im Kontext der Vermittlung von Informationskompetenz genutzt. Weder Rechercheportfolios "1.0" noch Rechercheportfolios "2.0" sind an Hochschulbibliotheken verbreitet, obwohl es erste Ansätze zum Einsatz dieser zweifellos zukunftsträchtigen Methode gibt. Welche Standards und Qualitätsmerkmale E-Rechercheportfolios aufweisen müssten, um als effektives Mittel zur Vermittlung von Informationskompetenz geeignet zu sein, ist Thema dieser Arbeit.