Refine
Year of publication
Document Type
- Master's Thesis (238)
- Bachelor Thesis (118)
- Study Thesis (15)
- Conference Proceeding (2)
- Report (2)
- Book (1)
- Part of a Book (1)
- Other (1)
- Working Paper (1)
Language
- German (379) (remove)
Keywords
- Sozialarbeit (17)
- Öffentliche Bibliothek (15)
- Deutschland (14)
- Bibliothek (13)
- Informationskompetenz (12)
- Soziale Arbeit (11)
- XML (11)
- Datenbank (10)
- E-Learning (9)
- ImageJ (7)
Faculty
- Fakultät 10 / Institut für Informatik (133)
- Fakultät 03 / Institut für Informationswissenschaft (70)
- Fakultät 07 / Institut für Medien- und Phototechnik (55)
- Fakultät 10 / Advanced Media Institute (18)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (13)
- Fakultät 07 / Institut für Nachrichtentechnik (12)
- Fakultät 01 / Institut für Kindheit, Jugend, Familie und Erwachsene (10)
- Fakultät 03 / Institut für Translation und Mehrsprachige Kommunikation (8)
- Fakultät 01 / Institut für Medienforschung und Medienpädagogik (7)
- Fakultät 01 / Institut für die Wissenschaft der Sozialen Arbeit (7)
Das Setting der klinisch-stationären Sozialpsychiatrie ist ein historisch gewachsenes, von medizinisch dominierten Handlungsweisen geprägtes Arbeitsfeld, welches durch die Mannigfaltigkeit der dort agierenden Professionen, interdisziplinäres Handeln verlangt. Sozialarbeiter*innen als Teil dieses Gefüges müssen sich demnach in diesem vorgegebenen Rahmen positionieren. An den Umstand schließt diese im Rahmen einer Bachelorarbeit durchgeführten Studie an. Sie stellt die Frage „Wie reflektieren Sozialarbeiter*innen in der Sozialpsychiatrie interdisziplinäre Zusammenarbeit vor dem Hintergrund der eigenen Profession?“ als forschungsleitende Fragestellung in den Fokus. Mit dem Erkenntnisinteresse eigener Professionswahrnehmung dort agierender Sozialarbeiter*innen ist sie der qualitativ-rekonstruktiven Professionsforschung zuzuordnen.
Das Forschungsdesign orientiert sich am interpretativen Paradigma, weshalb die Ergebnisse aus den geführten Expert*inneninterviews als exemplarische Tiefenergebnisse zu verstehen sind. Die mit Hilfe der Grounded Theory Methodik gebildeten Schlüsselkategorien stellen die Ergebnisse der Studie dar. In diesen sind Paradoxien sozialarbeiterischen Handelns, Fragen nach der Deutungshoheit in medizinisch dominierten Hierarchien sowie das Spannungsverhältnis zwischen der Darstellung eines egalitären Miteinanders und einem hintergründig bestehenden Machtgefälles sichtbar geworden. Die Arbeit schließt mit einer Ergebniseinordnung vor dem Hintergrund des aktuellen Forschungsstandes sowie dem (professionstheoretischen) Diskurses. Zuletzt bietet sie Anknüpfungspunkt für weitere Forschungsvorhaben im Kontext klinisch-stationärer Sozialpsychiatrie.
Die Funktionsfähigkeit der öffentlichen Verwaltung ist auch und gerade bei einem Ausfall oder einer Beeinträchtigung Kritischer Infrastrukturen notwendig für die Aufrechterhaltung der Gesellschaft und des Staates. Ausgehend von dieser These wird zwischen Dezember 2018 und Februar 2019 eine Umfrage in den Landkreisen, Städten und Gemeinden des Regierungsbezirks Stuttgart durchgeführt. In ihr wird der Vorbereitungsgrad der öffentlichen Verwaltung hinsichtlich einer Versorgungsmangellage erfasst. Dabei wird ausschließlich die Versorgung des Personals innerhalb der Verwaltungseinrichtung betrachtet. Es wird untersucht, ob Vorsorgemaßnahmen für die Bereiche Trinkwasser, Nahrungsmittel, beheizte und beleuchte Räumlichkeiten, Sanitäranlagen, Ruhe- und Schlafmöglichkeit sowie Bargeld für die Gehälter der Mitarbeitenden getroffen sind. Als Vorsorgemaßnahmen werden generelle Planungen, Vorräte und Rahmenverträge mit Privatunternehmen betrachtet. Die Antworten werden von den Umfrageteilnehmenden hinsichtlich ihrer zeitlichen Auslegung eingeordnet. Zusätzlich werden die Teilnehmenden zu Planungsgrundlagen, Verbesserungspotenzial und einer Einschätzung der eigenen Vorbereitungen befragt. Diese Bachelorarbeit wertet die Umfrageergebnisse aus. Die Antworten zeigen, dass rund die Hälfte der Befragten eine Notstromversorgung besitzt und rund jede fünfte Einrichtung Planungen für die Trinkwasserversorgung der Mitarbeitenden vorhält. Darüber hinaus sind Vorbereitungen zur Versorgung des Personals nur vereinzelt vorhanden. Spezifische Vorräte für einen Ausfall der Versorgungsleistungen sind nur bei wenigen Befragten in geringem Maße vorhanden. Dennoch zeigt sich durch Alltagsvorhaltungen eine Latenzzeit bis zum Funktionsausfall. Rahmenverträge zur redundanten Sicherstellung der Versorgung sind nur selten abgeschlossen. Die Befragten geben an, dass sie für die Bearbeitung der Thematik Bedarf an weiteren Hilfestellungen haben. Die bekannten Schutzniveaus 72 Stunden (Notstromversorgung) und 14 Tage (Notvorräte der Bevölkerung) sind nicht oder nur sehr bedingt auf den Sektor Staat und Verwaltung zu übertragen. In der Auswertung der Ergebnisse werden drei Möglichkeiten identifiziert, um den Vorbereitungsgrad zu optimieren: Die Erhöhung der Vorhaltungen, das Optimieren der Planungen und das Abschließen von Rahmenverträgen. Darüber hinaus sind langfristig und einrichtungsunabhängig die derzeitigen Zuständigkeiten zu prüfen, einheitliche Schutzniveaus zu etablieren sowie eine gesellschaftliche und politische Kommunikationskultur hinsichtlich der Risiken eines Ausfalls oder einer Beeinträchtigung Kritischer Infrastrukturen aufzubauen.
Die Koordination von Großschadenslagen mit vielen Verletzten stellt die Verantwortlichen vor eine schwere Aufgabe. Gemeinsam mit anderen Partnern aus Wissenschaft und Industrie bearbeitet die Fachhochschule Köln das orschungsprojekt "Beherrschbarkeit von Katastrophenereignissen durch autonom vernetzte Sensoren (MANET)". Mit dem Ergebnis dieses Projekts soll die Koordination der Einsatzkräfte, der Fahrzeuge und des Materials verbessert werden, mit dem Ziel eine schnellere Patientenversorgung zu gewährleisten. Bisher existieren Prototypen des entwickelten Systems. Dieses wird in realitätsnahen Übungen, in denen Groÿschadenslagen dargestellt werden, von Einsatzkräften verwendet. Um die Anwenderfreundlichkeit des Systems zu ermitteln wurde eine Befragung konzipiert, mit der die Erfahrungen der Anwender nach der Übung ermittelt werden können. Im Vorlauf der Befragungserstellung wurden allgemeine Regeln zur Fragen- und Antwortgestaltung sowie Grundlagen zur Auswertung de niert. Die Befragung wird mithilfe eines elektronischen Befragungssystems durchgeführt, wodurch die Fragen und Antworten besondere Vorgaben zu erfüllen haben. Diese wurden bei der Erstellung der Fragen, zusätzlich zu den allgemeinen Regeln, berücksichtigt. Neben den Fragen wurden für die Befragung Umgebungsbedingungen de niert, die für eine erfolgreiche Durchführung notwendig sind. Gemeinsam mit den Fragen wurden diese Bedingungen in einem Fragebogen zusammengefasst, der den gesamten Ablauf der Befragung vorgibt. Durch diese Vorgabe ist eine Vergleichbarkeit von mehreren Befragungsdurchgängen gewährleistet.
Abseits von spektakulären Vergewaltigungsfällen, welche nach wie vor auf ein hohes Maß
an medialem Interesse stoßen, prägt sexualisierte Gewalt den Alltag von Frauen und Mädchen.
Trotz dessen Häufigkeit und Schwere sowie der Folgen für die Betroffenen ist nicht
nur ein Mangel an gesellschaftlicher Unterstützung zu verzeichnen, vielmehr ist ein durch
bestimmte Einstellungen und Überzeugungen verstellter Blick weit verbreitet. Diese als
„Vergewaltigungsmythen“ bezeichneten Einstellungen haben gemein, dass sie täterentlastend
und opferfeindlich wirken. Was für eine Rolle spielen Vergewaltigungsmythen in unserer
Gesellschaft, wie wirken sie sich auf die justizielle Strafverfolgung aus, und welche
Bedeutung haben sie für Betroffene?
Die vorliegende Arbeit beleuchtet die unabdingbare Notwendigkeit, mit diesen Schuldzuweisungen
zusammenhängende Reaktionen von Staat und Gesellschaft zu Vergewaltigungen
kritisch zu hinterfragen. Nahezu zwingend ergibt sich daraus die Frage nach Veränderungsmöglichkeiten.
Anhand eines Sensibilisierungstrainings, welches für Auszubildende
der Polizei entwickelt, durchgeführt und ausgewertet wird, werden diese Möglichkeiten
und Erkenntnisse diskutiert. Untersucht wird so eine mögliche Reduzierung in der
Akzeptanz von Vergewaltigungsmythen, welche Ausblick auf einen notwendigen, gesellschaftlichen
Wandel bietet.
Die zweischichtige Organisationsform mit einer zentralen Hochschulbibliothek und vielen finanziell und personell unabhängigen Institutsbibliotheken war die vorherrschende Struktur an traditionsreichen deutschen Universitäten bis in die 1960er Jahre. Heutzutage müssen Bibliotheken aufgrund der aktuellen Finanzkrise im öffentlichen Sektor jedoch mit immer knapperen Ressourcen und weniger Personal ein immer umfangreicheres Dienstleistungsspektrum für eine ständig wachsende Benutzerzahl bewältigen. Vor dieser Entwicklung zeichnet sich nun deutlich das Strukturdefizit zweischichtiger Bibliothekssysteme ab: statt auf nutzerorientierte Informations- und Kompetenzzentren stößt man auf ineffektiven Ressourceneinsatz, ein beziehungsloses Nebeneinander der Geschäftsprozesse von Zentrale und dezentralen Einheiten und eine ungenügende Literatur- und Informationsversorgung. Da die geforderten Dienstleistungen angesichts der finanziellen Restriktion nur noch eingeschränkt erbracht werden können, wird die Wettbewerbsfähigkeit zweischichtiger Bibliothekssysteme blockiert. Zweischichtige Bibliothekssysteme können durchaus modern und leistungsfähig sein, wenn sie im Sinne einer funktionalen Einschichtigkeit die Literaturversorgung kooperativ betreiben. Die Hauptkriterien für funktional einschichtige Systeme sind die organisatorische und räumliche Fusion von kleineren Institutsbibliotheken zu größeren Einheiten, die Kooperation und Koordination bei der Literaturerwebung sowie die Dokumentation des Bestands in einem universitären Gesamtkatalog. Die Strategien für eine Umsetzung der Strukturreform sind dabei jedoch polymorph. Divergierende Interessen in der Hochschullandschaft, bibliothekspolitische Gesichtspunkte sowie hochschulrechtliche Rahmenbedingungen erschweren und individualisieren den Entwicklungsprozess jeweils. Im Vergleich zu den Erfahrungen aus den zweischichtigen Hochschulbibliothekssystemen in Marburg und Freiburg mit der Strukturreform wird in dieser Master´s Thesis eine Bestandsaufnahmen der aktuellen Gegebenheiten und Entwicklungen an der Universitäts- und Stadtbibliothek Köln (USB Köln) auf dem Weg zur funktionalen Einschichtigkeit skizziert.
Die vorliegende Bachelorarbeit in Kooperation mit der Deutsche Sporthochschule Köln hat die Konzeption und Entwicklung eine Software, mit der Daten aus der Fußball-Bundeliga 2011–2012 mit Hilfe einer Heatmap erzeugt werden, zum Inhalt. Die Software soll die Torpositionen vor einem Offensivspiel zu verschiedenen Zeitpunkten des Spieles veranschaulichen.
Bei der Arbeit wurden zwei Cluster-Methoden betrachtet, nämlich die Density-Based Spatial Clustering of Applications with Noise (DBSCAN) und der Kerndichtschätzer (kernel density estimation). DBSCAN ist ein bekannter Cluster-Algorithmus und wurde mit dem Software-Tool WEKA untersucht. Es zeigte sich, dass dieses Verfahren nicht so gut für diese Aufgabenstellung geeignet ist, da einzelnen Cluster nicht so gut unterschieden werden konnten. Der Kerndichtschätzer ist dagegen ein statistisches Verfahren zur Schätzung einer Dichte, der auch in Geoinformationssystemen verwendet wird. Dieses Verfahren ist besser für die Aufgabenstellung geeignet.
Nach der Analyse der Daten im XML-Format wurde der Algorithmus Kerndichtschätzer für die Deutsche Sporthochschule Köln in detr Programmiersprache Java implementiert. Die Software untersucht die Bildung von Clustern bzw. die Torschussdichte mit der Absicht, ein Verhalten oder Muster vor einem Offensivspiel zu erkennen. Sie enthält eine sehr gute Visulisierung der verschiedenen Situationen, die zum Torschuss führten, anhand eines Fußballfeldes
Aufbauend auf einer vorherigen Arbeit, die sich mit der Implementierung einer Komponentezum Auslesen mdizinischer Sensordaten mithilfe eines Arduino und eines Raspberry Pi befasst hat, beschäftigt sich diese Arbeit mit der Visualisierung sowie Auswertung der durch das System gesammelten Daten. Das Ziel dieser Arbeit ist es, über einen Zeitraum von etwa drei Monaten mithilfe der Komponente Daten zu sammeln und diese Daten in einem sinnvollen Kontext visuell darzustellen. Zudem sollen diese Daten mithilfe unterschiedlicher Algorithmen des Maschinellen Lernens ausgewertet werden,
um mögliche Muster und Zusammenhänge erkennen zu können. In diesem Kontext konnte die Hypothese aufgestellt werden, dass ein Zusammenhang zwischen der Körpertemperatur und der Sauerstoffsättigung im Blut besteht.
Die Idee, Präsentationsstrategien des Einzelhandels bezüglich ihrer Übertragbarkeit auf die Öffentliche Bibliothek zu untersuchen, stammt aus Vergleichen der verschiedenen Darbietungstechniken der Verfasserin. Zudem zeigen Beobachtungen und Gespräche während der Praktika in Bibliotheken, daß sich Benutzer häufig von der Präsentation im Buch- und Fachhandel anregen lassen und die Bibliothek daraufhin mit gezielten Medienwünschen besuchen. Diese Tatsache läßt -neben anderen Faktoren- vermuten, daß die Präsentation im Einzelhandel den Kunden stärker anspricht als die Bestandsdarbietung in der Öffentlichen Bibliothek. Die Gliederung dieser Arbeit orientiert sich an den Kriterien und Begriffen der Präsentationstechniken im Einzelhandel. Dabei wird der Bibliotheksbenutzer oftmals als Kunde bezeichnet, was sich einerseits aus dem thematischen Zusammenhang und andererseits aus dem zunehmenden Dienstleistungsgedanken der Öffentlichen Bibliothek ergibt. Die Verfasserin beabsichtigt mit dieser Formulierung jedoch nicht, den Bibliotheksbenutzer und den Konsumenten im Einzelhandel auf die gleiche Ebene zu stellen. Die bisherigen bibliothekarischen Präsentationskonzepte, insbesondere die Dreigeteilte Bibliothek und die Kabinettstruktur können im folgenden nur bezüglich ihrer Schnittstellen mit den Strategien des Visual Merchandising untersucht werden. Eine ausführliche Darstellung der verschiedenen Konzeptionen würde den Rahmen dieser Arbeit sprengen. Ähnliches gilt für die besonderen Präsentationsanforderungen in der Kinder- und Jugendbibliothek. Deren Bedürfnisse können aufgrund ihres Umfangs im folgenden nur bei einzelnen Aspekten berücksichtigt werden.
Semesterapparate gehören in Hochschulbibliotheken seit langer Zeit zur Standardausstattung, die im Semesterapparat aufgestellte Literatur wird gewöhnlich für das Semester von der Ausleihe ausgenommen. Der klassische Semesterapparat enthält dabei neben Literatur zu den Lehrveranstaltungen meist auch einen oder mehrere Ordner mit Kopiervorlagen, etwa Skripten und Übungsaufgaben oder –klausuren. Doch immer wieder fehlen aus den Ordnern die Unterlagen, überstehen das häufige Kopieren nicht oder werden so stark in Anspruch genommen, dass die Studierenden lange auf die Gelegenheit zum Kopieren warten müssen. Durch die umfangreiche Novellierung des Urheberrechtsgesetzes im Jahr 2003 und die mittlerweile selbstverständliche Benutzung von Computertechnologie und Internet haben die Hochschulbibliotheken die Möglichkeit bekommen, den klassischen Semesterapparat um eine virtuelle Variante zu erweitern. Auf diesen Plattformen können Dozenten die für ihre Lehrveranstaltungen benötigten Materialien in elektronischer Form ablegen und so bequem für viele gleichzeitige Zugriffe zur Verfügung stellen. Auch die an vielen Hochschulen bereits im Einsatz befindlichen Lernplattformen und Lernmanagementsysteme eignen sich als Grundlage für virtuelle Semesterapparate.
Virtuelle Realität ist ein interessantes Gebiet dessen Entwicklung schon seit vielen Jahren vorangetrieben wird. Die neuen Möglichkeiten die sich aufgrund technischer Fortschritte daraus ergeben, sind umwerfend und finden in vielen Bereichen Verwendung. Doch das Potential der VR ist noch viel größer. Dazu passt es auch, das im Laufe der Jahre die Computer immer mehr Einzug in das Leben der Menschen nahmen. Gab es früher noch riesige Geräte, die mit Lochkarten arbeiteten und kaum aufwendige Aufgaben bewältigen konnten, so gibt es heute erheblich schnellere und kleinere Systeme, die zudem auch noch viel leistungsfähiger sind. Von den drastisch gesunkenen Kosten mal ganz abgesehen. Folglich findet auch die breite Öffentlichkeit Zugang zu leistungsfähigen Computersystemen, wodurch bei immer mehr Menschen das Interesse an Virtual Reality geweckt wird. Es ist ein enormer Markt und die Technologie hält immer wieder Einzug in neue Bereiche und ist aus manchen gar nicht mehr hinauszudenken.
Diese Arbeit wertet Leistellendaten von zwei Landkreisen aus und untersucht dabei, welche Veränderung hinsichtlich der mittleren Anzahl und Dauer von Rettungsdiensteinsätzen im Zeitraum der COVID-19-Pandemie aufgeteilt nach Stunden- und Tageskategorien besteht. Anschließend werden die Veränderungen von Anzahl und Dauer beider Landkreise verglichen, um diese auf Unterschiede zu prüfen. Da in der aktuellen Literatur unzureichend dargelegt ist, wie Veränderungen des Einsatzanzahl oder -dauer im Rettungsdienst zwischen Kreisen sowie über die Tage und Tagesstunden verteilt sind, trägt diese Untersuchung dazu bei diese Forschungslücke zu schließen. Die statistische Auswertung der Leitstellendaten umfasst mehrere Schritte, sodass zuerst eine Aufbereitung durchgeführt wird, bevor die mittlere Einsatzanzahl und -dauer für vier Zeiträume sowie die prozentuale Veränderung zwischen einem Zeitraum vor und drei Zeiträumen während der Pandemie ermittelt werden. Im Anschluss wird die Veränderung mittels Kruskal-Wallis-Test beziehungsweise Varianzanalyse nach Welch auf Signifikanz überprüft. Abschließend erfolgt ein qualitativer Vergleich zwischen den Kreisen. Die Untersuchung zeigt, dass hinsichtlich Einsatzanzahl und -dauer zu allen drei Zeitraumen in der Pandemie Zu- und Abnahmen auftreten. Die Anzahl nimmt zum ersten Zeitraum in beiden Kreisen überwiegend ab, sowie zum vierten Zeitraum mehrheitlich zu, während zum zweiten Zeitraum im Lahn-Dill-Kreis eine häufigere Abnahme und im Main-Taunus-Kreis eine geringfügig überwiegende Zunahme vorliegt. Die Einsatzdauer unterliegt zum zweiten Zeitraum im Lahn-Dill-Kreis einer überwiegenden Zunahme und im Main-Taunus-Kreis einer überwiegenden Abnahme, während zum dritten sowie vierten Zeitraum in beiden Kreisen einer Steigerung stattfindet. Im Vergleich beider Gebietskörperschaften zeigen bei der Einsatzanzahl die Veränderungen zum zweiten und vierten Zeitraum und bei der Dauer die Veränderungen zum dritten und vierten Zeitraum mit der Mehrheit der Stundenkategorien Gemeinsamkeiten. Das Pandemiegeschehens sowie die nichtpharmazeutischen Interventionen sowie deren Folgen stellen Faktoren für die Veränderung von Einsatzanzahl und -dauer dar. Die geografische Lage sowie die lokale Ausgestaltung von Rettungsdienst und Krankentransport begründen, zusätzlich zu den oben genannten Aspekten, Unterschiede zwischen den Kreisen.
CAPTCHAs (Completely Automated Public Turing test to tell Computers and Humans Apart), auch HIPs (Human Interaction Proof) genannt, sind weit verbreitete Sicherheitsmaßnahmen im World Wide Web, die Online-Dienste vor dem Missbrauch durch automatisierte Programme schützen sollen. Dazu werden die Benutzer aufge-fordert, eine Aufgabe zu lösen, welche von Computern nicht gelöst werden kann, wie beispielsweise das Entziffern von verkrümmten Buchstaben. Durch die immer weiter verbesserten Fähigkeiten der Computerprogramme auf diesen Gebieten, wird es für die Entwickler der HIPs immer anspruchsvoller eine ausreichende Sicherheit zu garantieren. Daraus resultiert ein Zielkonflikt zwischen der Sicherheit und Gebrauchstauglichkeit der HIPs. Da die Sicherheit garantiert werden muss, leidet die Gebrauchstauglichkeit und die Benutzer sind oftmals nicht in der Lage das HIP zu lösen. Dies führte bereits in der Vergangenheit zu einer Abneigung gegenüber diesen Systemen.
In dieser Arbeit wurde überprüft ob diese Abneigung durch die Verwendung von Gamifizierung, also Spielelementen, in einem neu entwickelten HIP verringert werden kann. Zusätzlich sollte geprüft werden, ob anstelle der Tastatur die Sensoren mobiler Endgeräte als Eingabe-medium dienen können.
Dazu wurde durch eine Analyse von durchgeführten Angriffen auf bestehende HIPs sowie Studien zur Gebrauchs-tauglichkeit derselben ein Rahmenwerk erstellt. Dieses Rahmenwerk definiert Anforderungen, die ein sicheres und zugleich benutzerfreundliches HIP erfüllen muss. Anhand dieser Anforderungen wurde ein neues spielbasiertes HIP in Form eines Kugellabyrinths auf Basis von JavaScript und HTML5 implementiert. Der Benutzer muss durch die Neigung des Geräts eine Kugel steuern und diese innerhalb der vorge-gebenen Zeit in das Loch lenken. Die Gebrauchstauglichkeit dieses HIPs konnte durch eine Onlineumfrage bestätigt werden. Dies gilt jedoch nicht für die Sicherheit, welche durch den lesbaren Quellcode stark beeinträchtigt wird. Für diese Schwach-stelle konnte eine Lösung in Form einer Browsererweiterung durch eine Public-Key-Signatur konzipiert werden. Durch diese Erweiterung könnte auf den Einsatz von HIPs in vielen Bereichen verzichtet und andere Webanwendungen sicherer gestaltet werden.
In der Arbeit wird das Thema Vermittlung von Informationskompetenz in der Internationalen Fachhochschule Bad Honnef, in den Studiengängen von Hospitality Management und Tourism Management, betrachtet. In dem theoretischen Teil werden allgemeine Definitionen, Modelle und Standards von Informationskompetenz vorgestellt, und die allgemeine Bedeutung von Informationskompetenz in der Informationsgesellschaft erläutert. Es werden auch die Geschichte, Methoden und Didaktik der Vermittlung von Informationskompetenz besprochen. In dem empirischen Teil wird einerseits durch eine Umfrage an die Studenten der Fachhochschule und andererseits durch eine Analyse der Abschlussarbeiten der Stand der Vermittlung von Informationskompetenz erforscht. Durch einen Vergleich mit anderen Hochschulen mit vergleichbaren Studiengängen wird weitere Einsicht in das Thema gewonnen. Auf der Basis der Umfrage und Analyse der Abschlussarbeiten ist der Stand der Vermittlung von Informationskompetenz in der Internationalen Fachhochschule Bad Honnef relativ gut, aber er könnte auch noch mit kleinen Veränderungen verbessert werden. Einige konkrete Empfehlungen zur Verbesserung werden gemacht.
Diese Arbeit stützt sich auf die These, dass die Vermittlung von Informationskompetenz bereits in der Grundschule notwendig ist, da der Computer und das Internet mittlerweile fester Bestandteil des Alltags von Grundschülern geworden sind. Deshalb sollte man ihnen Wissen, das eine kompetente Nutzung dieser Medien ermöglicht, an die Hand geben. Die Basis der Arbeit bildet eine auf einem Quellenstudium basierende Definition von Informationskompetenz inklusive eines Überblicks über verschiedene Theorien, Modelle und Standards. Zusätzlich werden derzeitige Offerten zur Vermittlung von Informationskompetenz an Kinder im Grundschulalter analysiert. Der Schwerpunkt der Arbeit liegt auf der Entwicklung eines Konzepts zur Integration der Vermittlung von Informationskompetenz in den Deutschunterricht der dritten und vierten Klasse. Ausgerichtet wurde das Konzept an den Belangen der Grundschule Thülen, die als Projektpartner fungierte. Die Dokumentation der Konzeptentwicklung umfasst theoretische Grundlagen, beispielsweise zur Formulierung von Lernzielen, und eine detaillierte Beschreibung der einzelnen Unterrichtsphasen. Ferner wird kurz auf generelle Umsetzungskriterien des Konzepts eingegangen. Als Ergebnis kann festgehalten werden, dass Grundschüler als Zielgruppe für die Vermittlung von Informationskompetenz bisher vernachlässigt wurden.
Domänenspezifische Sprachen gewinnen seit einigen Jahren zunehmend an Bedeutung. Xtext ist eine sogenannte \textit{Language Workbench}, mit der solche Sprachen schnell entwickelt werden können. Neben der Sprachinfrastruktur wird eine inzwischen weit fortgeschrittene Integration in die IDE Eclipse erzeugt und es können optional ein Plug-in für IntelliJ und ein Webeditor erstellt werden. Der Ansatz ist dabei, dass der oder die Codegeneratoren direkt mit dem Abstract Syntax Tree arbeiten. In dieser Arbeit wird gezeigt, wie ein Domänenmodell in eine Xtext-Sprache integriert werden kann und wie Test- und Wartbarkeit davon profitieren. Besondere Beachtung finden, gegeben durch das Projektumfeld, die Anforderungen durch Funktionale Sicherheit.
Vergleich von verteilten Datenbanksystemen hinsichtlich ihrer Clusterbildung und Skalierbarkeit
(2017)
Die vorliegende Ausarbeitung geht der Frage nach, wie sich die Datenbankmanagementsysteme MariaDB, MongoDB und Cassandra hinsichtlich ihres Clusteraufbaus,
sowie den damit verbundenen Möglichkeiten der Skalierbarkeit unterscheiden. Dazu werden zunächst Grundlagen zum Aufbau von verteilten Datenbanksystemen, zu den verschiedenen Transaktionskonzepten, sowie zu den möglicherweise auftretenden Probleme vermittelt. Anschließend werden die drei Systeme im Detail untersucht und herausgearbeitet, wie sie genau funktionieren und in welchen Punkten sie sich von einander unterscheiden. Als Abschluss wird ein Fazit gezogen, welches System in verteilten Computerumgebungen
am geeignetsten ist, insofern ein klarer Sieger hervorgeht.
Die gleichzeitige Auswertung zweier räumlich versetzter Bilder dient dem Erfassen der dritten Dimension. Wie auch der Mensch nur mit zwei Augen räumliche Tiefe wahrnehmen kann, kann nur mit zwei oder mehr Stereobildern eine Tiefenschätzung möglich werden. Dabei muss einem Objekt in einem Bild das entsprechende Objekt im zweiten Bild zugeordnet werden. Da viele Pixel ähnliche Farb- und Helligkeitswerte haben können oder sich die Farbtöne desselben Objektpunkts durch Schatteneffekte voneinander unterscheiden oder verdeckt werden, ist das so genannte "Korrespondenzproblem" nicht einfach zu lösen. Laut einem Bericht von Szeliski und Zabih ist der Stand der Dinge bezüglich der Evaluation von Stereomethoden ziemlich dürftig, obwohl eine große Zahl von Algorithmen und Berichten veröffentlicht worden ist. Die meisten Berichte geben jedoch keine Auskunft über quantitative Vergleiche, und wenn, dann beschränken sie sich meist auf synthetische Bilder. Über die Erstellung und Auswertung von Stereobildern wird kaum berichtet. Stereo Matching ist ein Bereich der Computer Vision, welche ein Teilgebiet der Informatik bezeichnet, das sich mit der Extraktion von Informationen aus Bildern oder Videosequenzen beschäftigt. Die Werkzeuge der Computer Vision stammen meist aus der Mathematik, insbesondere aus der Geometrie, linearer Algebra, Statistik, Optimierung und Funktionsanalysis. Diese Werkzeuge werden in Algorithmen zur Segmentierung und Klassifizierung angewandt. Ziel des Stereo Matching ist die Zuordnung zweier Stereobilder zueinander mit dem Ergebnis einer dichten Tiefenkarte. In diesem Bild werden die in den Stereoaufnahmen vorhandenen Objekte in verschiedenen Grautönen wiedergegeben, wobei ein dunkler Ton einen großen Abstand zur Kamera bedeutet, ein heller Ton einen geringen Abstand. Aus den Helligkeiten können die Entfernungen berechnet werden. Der Begriff der dichten ("dense") Tiefenkarte bedeutet in diesem Zusammenhang, dass die Tiefenkarte ein System voller Werte und mit so wenig Elementen ohne Information ist, dass sie behandelt werden kann, als hätte sie keine solchen Elemente. Somit kann jedem Bildpunkt eine Disparität zugeordnet werden. Das Korrespondenzproblem muss also für jedes Pixel des Referenzbildes gelöst werden. Dafür ist ein Ähnlichkeitsmaß nötig, welches überall im Bild angewandt werden kann. Im Gegensatz dazu enthält eine "sparse" Tiefenkarte nur an relevanten Stellen wie Kanten Informationen. Einige aktuelle Stereoverfahren sollen in dieser Arbeit mit selbst aufgenommenen Stereobildern getestet und bewertet werden.