Refine
Year of publication
Document Type
- Bachelor Thesis (141) (remove)
Keywords
- Sozialarbeit (14)
- Soziale Arbeit (9)
- ImageJ (6)
- Android (4)
- Bildverarbeitung (4)
- Gamification (4)
- Geschlecht (4)
- Image Processing (4)
- Informatik (4)
- Usability (4)
Faculty
- Fakultät 10 / Institut für Informatik (42)
- Fakultät 07 / Institut für Medien- und Phototechnik (19)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (12)
- Fakultät 10 / Advanced Media Institute (12)
- Fakultät 01 / Institut für Kindheit, Jugend, Familie und Erwachsene (9)
- Fakultät 03 / Institut für Informationswissenschaft (7)
- Fakultät 03 / Institut für Translation und Mehrsprachige Kommunikation (6)
- Fakultät 07 / Institut für Nachrichtentechnik (6)
- Fakultät 01 / Institut für die Wissenschaft der Sozialen Arbeit (5)
- Fakultät 10 / Cologne Institute for Digital Ecosystems (4)
Reisen - damit verbinden wir fast alle etwas Positives und doch jeder etwas Anderes. Für den Einen bedeutet Reisen Erholung pur, für den Anderen Strand und Party, für manche vor allem Bildung in unterhaltsamer Verpackung und für immer mehr Abenteuer in der „Wildnis“ und das Erleben unbekannter, vermeintlich „ursprünglicher, unzivilisierter“ Kulturen. Die Angebotspalette der Tourismusindustrie ist so vielfältig wie die möglichen Assoziationen zum Thema Reisen und versucht gestressten „Westlern“ zu bieten, wonach sie suchen. Kapitel II.1. dieser Arbeit widmet sich dieser Vielfalt des Tourismus und leitet über zu Fragen, mit denen sich viele Touristen gar nicht oder zu wenig auseinandersetzen: Welche Bilder bringen „wir“, die Vertreter westlicher Industriegesellschaften, von der Gastgeberkultur bereits mit, bevor wir sie überhaupt erlebt haben? Wie beeinflusst das unsere Begegnung? Welche Konsequenzen hat Tourismus für die Kultur der Besuchten? Die Tourismusforschung hat dazu Überlegungen angestellt und Studien veröffentlicht, von denen einige ausgewählte in Kapitel II.2. kurz vorgestellt werden. Ich selbst habe während meines viermonatigen Auslandspraktikums im Amazonasgebiet Ecuadors begonnen, mich für diese Frage zu interessieren. Das Praktikum absolvierte ich im Rahmen meines Studiums der Mehrsprachigen Kommunikation an der FH Köln. Als Tourdolmetscherin in einer Dschungel-Lodge war eine meiner Aufgaben, zwischen Besuchern aus Nordamerika oder Europa und den besuchten Quichua vom oberen Napo sprachlich zu vermitteln. Die Kultur dieser indigenen Gemeinschaft hat mich sehr fasziniert und mich zu der Frage geführt, ob der Tourismus zu einer Wiederbelebung ihrer Kultur beitragen kann. Diese Frage soll im Mittelpunkt meiner Arbeit stehen. Im Zusammenhang dazu wird in Kapitel III. der Ökotourismus oder nachhaltige Tourismus vorgestellt, der neue Anforderungen an die Tourismusentwicklung stellt und im Amazonasgebiet Ecuadors - mehr oder weniger konsequent umgesetzt - bereits weit verbreitet ist. In diesem Kapitel soll verdeutlicht werden, welche Faktoren mit dem Erhalt einer indigenen Kultur wie der der Quichua verknüpft sind. Kapitel IV. soll dem Leser einen Einblick in ausgewählte Aspekte der Kultur und Geschichte der Quichua des oberen Napo gewähren, die im lokalen Ökotourismus von Bedeutung sind. Das letzte Kapitel, Kapitel V. stellt das Projekt RICANCIE vor, in dem Quichua-Gemeinden selbst Ökotourismus anbieten. Mit diesem Beispiel soll gezeigt werden, dass Tourismus tatsächlich dazu beitragen kann, die Wertschätzung der Quichua-Kultur bei Gästen und Gastgebern zu steigern, sofern alle für das Gelingen eines solchen Projekts notwendigen Faktoren beachtet werden.
Die vorliegende Arbeit vermittelt eine umfassende Darstellung der wesentlichen Unterschiede von deutschem und spanischem Zivilrecht im Hinblick auf die Rechts- und Geschäftsfähigkeit natürlicher Personen. Neben einer kurzen Zusammenfassung zur Entstehungsgeschichte des BGB werden Fragen zum Beginn und Ende der Rechtsfähigkeit, die Stufen der Geschäftsfähigkeit und Auswirkungen auf Rechtsgeschäfte bei Abgabe fehlerhafter Willenserklärungen behandelt.
Das Semantic Web ist einer Erweiterung des aktuellen World Wide Web um eine maschinell verarbeitbare Dimension. In ihr wird es Agenten möglich sein komplexe Aktivitäten für den menschlichen Benutzer durchzuführen und automatisch relevante Informationen im Web zu finden. In dieser Arbeit werden wir die semantische Modellierung von Informationen im Bereich Internetfernsehen behandeln. Wir werden die gänginen Technologien und Methoden erläutern, sowie diese am Beispiel eines Prototypen für den studentischen Internetsender Zucker TV anwenden.
In dieser Bachelorarbeit wird ein Verfahren zur HDR-Bilderstellung vorgestellt und mit anderen Verfahren verglichen, das eine beliebige Belichtungsreihe verarbeitet und auf der Erstellung von Histogrammen der Helligkeitsverhältnisse zwischen den Aufnahmen basiert. Der Algorithmus wurde in Java als Plugin für die Bildverarbeitungssoftware ImageJ implementiert.
In dieser Arbeit wird ein Detektionsverfahren vorgestellt, das einfarbige, kreisförmige Objekte in einem digitalen Bild erkennt. Die Methode umfasst eine Farbsegmentierung, eine Berechnung des Distanzmaßes und eine Überprüfung der Form. Der Algorithmus ist in der Programmiersprache Java als Plugin für die Bildverarbeitungssoftware ImageJ geschrieben.
Der Begriff Web2.0 ist ein Internetschlagwort unserer Zeit und wird in der Gesellschaft mittlerweile beinahe inflationär gebraucht. Welche Möglichkeiten sich hinter diesem Begriff verbergen kann kaum in einem Satz zusammengefasst werden. Sicher ist jedoch, dass gerade dieses Onlineinstrument für Bibliotheken eine enorme Chance bietet, sich in einem neuen Kontext seinen gegenwärtigen und zukünftigen Benutzern darzustellen. In dieser Arbeit, die in Kooperation mit der Kölner Musemsbibliothek (KMB) entstand, werden Konzepte von Web2.0 - Anwendungen für den Typus der Museumsbibliothek mit Hauptaugenmerk auf die Spezifika der KMB entwickelt. Nach Untersuchung der Voraussetzungen, wie einer Mitarbeiterbefragung der Kölner Museumsbibliothek, wird zunächst auf das Internet, seine Funktionsweise und die sich daraus entwickelten Web2.0 - Anwendungen eingegangen. Darauf folgen Beispiele aus Museen in den USA und Großbritannien, die schon eine große Bandbreite von Möglichkeiten aufzeigen. Im Anschluss wird diskutiert, welche Anwendungen für die KMB zu empfehlen sind und unter Berücksichtigung ihrer Ressourcen umgesetzt werden können. Ob und welche Anwendungen realisiert werden können liegt in der Verantwortung der Leitung der Kölner Musemsbibliothek. Diese Arbeit kann lediglich als Hilfestellung bei der Findung eines neuen und modernen Ansatzes im Dienstleistungsangebot der Bibliothek und ihrer Mitarbeiter verstanden werden.
Im Zeitalter der Globalisierung und der die Menschen so vieler verschiedener Nationalitäten weltweit vernetzenden Kommunikationstechnik stellt sich eine Frage immer wieder: In welcher Sprache soll die mittlerweile alltägliche internationale Kommunikation stattfinden? Bedingt durch die Zahl der Sprecher fällt die Entscheidung im globalen Rahmen meist auf eine der drei führenden Weltsprachen Englisch, Spanisch oder Chinesisch. Einem Großteil der Menschen kaum bewusst ist hingegen die Tatsache, dass die „Sprachenfrage“ oft schon auf einer viel niedrigeren Ebene als der globalen gestellt werden muss. Ein eindrucksvolles Beispiel hierfür ist das Königreich Spanien, auf dessen Territorium neben seiner offiziellen Amtssprache Kastilisch sechs weitere eigenständige Sprachen existieren, von denen drei in ihrer jeweiligen Autonomen Gemeinschaft ebenfalls offiziellen Status haben. Der komplexe und zuweilen überaus konfliktreiche sprachpolitische Regelungsbedarf, der mit dem Nebeneinander von Staats- und Regionalsprache in Katalonien und dem Baskenland einhergeht, ist Thema der vorliegenden Arbeit. Nachdem zunächst ein kurzer Blick auf die Sprachpolitik im spanischen Staat in der Vergangenheit und auf Ebene der Zentralmacht geworfen wird, zeigt die vorliegende Arbeit im Anschluss auf, in welchen Bereichen Katalonien und das Baskenland die Stärkung bzw. Wiedereinführung ihrer Regionalsprachen jeweils am intensivsten gefördert und welche konkreten Maßnahmen sie zu diesem Zweck seit der Demokratisierung Spaniens ergriffen haben. Zudem werden die wichtigsten Kritikpunkte an der katalanischen Sprachpolitik dargelegt, um anhand deren extremer Züge beispielhaft auf die Probleme einer zuweilen zu entschlossenen regionalen sprachpolitischen Linie hinzudeuten.
Aufgrund des Mangels an Softwareprodukten, die Projektmitarbeiter beim örtlich und zeitlich verteilten Arbeiten in Projekten effizient und zufriedenstellend unterstützen, soll ein ToDo-Manager entwickelt werden, der den Bedürfnissen der Benutzer gerecht wird und deren Anforderungen erfüllt. Valide Prototypen basieren auf Anforderungen der Benutzer und spiegeln deren Interaktion mit dem System wider. Die konstruierten Interaktionsentwürfe sollen in Prototypen abgebildet, evaluiert und überarbeitet werden, bis die Aufgaben der Benutzer durch die Dialogschritte abgebildet werden, sodass eine effiziente und zufriedenstellende Bearbeitung ermöglicht wird. Auf der Basis von ermittelten Nutzungsobjekten und Werkzeugen wird die Navigationsstruktur ermittelt sowie der Funktionsumfang des Systems definiert. Das User-Interface Design beschreibt die Entwicklung von Prototypen, die durch Benutzer evaluiert werden. Berücksichtigt werden neben der Interaktion auch gestalterische Aspekte. Die evaluierten Prototypen werden iterativ überarbeitet, damit ein gebrauchstaugliches Modell des ToDo-Managers entsteht. Ziel der Bachelorarbeit ist das Durchführen einer konzeptionellen und konkreten User Interface Design Phase, in denen die Entwicklung eines auf den Anforderungen der Benutzer basierenden demonstrierbaren und interagierbaren Prototypen für einen ToDo-Manager angestrebt wird.
Diese Arbeit beschäftigt sich mit der Realisierung eines Parsers, der mathematische Beweise aus „TeXmacs“ in eine zu erstellende XML-Struktur umwandelt. Die Struktur der XML-Datei wird durch eine ebenfalls zu entwickelnde DTD-Datei vorgegeben. TeXmacs ist ein WYSIWYG-Editor zum Beschreiben von mathematischen Texten. Die Arbeit findet im Rahmen der Forschungsgruppe Naproche statt. Langfristig soll das Ergebnis der Arbeit in Naproche eingesetzt werden, um mathematische Beweise besser auf ihre logischen Aussagen zu überprüfen. Zu klären ist also, ob die logische Abfolge des erfassten TeXmacs-Beweises richtig in eine XMLStruktur umgesetzt wurde und alle dokumentierten Voraussetzungen und Beweisschritte im XML-Dokument syntaktisch richtig sind. Die Anwender, die direkt in TeXmacs mit Beweisen arbeiten, sollen eine Rückmeldung erhalten. Bei einer fehlerhaften Rückmeldung soll auch die Stelle im Beweis gekennzeichnet werden, an der der Fehler aufgetreten ist. Dieser kann so schnellstmöglich korrigiert werden. Tritt keine Fehlermeldung auf, wird auch das als Information ausgegeben. Diese Bachelorarbeit befasst sich mit der Realisierung des ersten Teils: Aus einer von TeXmacs erzeugten SCM-Datei soll mit einem Java-Programm die Struktur des mathematischen Textes ermittelt werden; es soll also eine Trennung von mathematischen Formelanteilen (Formeln, Gleichungen/Ungleichungen, mathematische Symbole, usw.) und beschreibenden Texten durchgeführt werden. Diese Struktur wird mit den Regeln einer DTD in ein XML-Format so umgewandelt, dass das resultierende XML-Dokument von den nachfolgenden Modulen des Naproche-Projekts bearbeitet werden kann.
Bei der Entwicklung interaktiver Software werden die Belange der Benutzer oft außer Acht gelassen oder nur unzureichend berücksichtigt. Dies führt dazu, dass das System von den Benutzern nicht akzeptiert wird, es die Benutzer nicht im ausreichenden Maße unterstützt oder, im Ernstfall, die Benutzer ihre Aufgaben nicht vollständig lösen können. Um einen Nährboden für die Entwicklungsprozesse von gebrauchstauglicher Software zu schaffen, muss eine grundlegende Entscheidung getroffen werden. Der Usability Engineering Prozess wird selbst geplant und durchgeführt, oder extern an eine Firma weitergegeben. Diese Arbeit beschäftigt sich mit ersterem und integriert den Usability Engineering- und Softwareentwicklungsprozess in einem Framework mit agilem Vorgehensmodell, welches sich an erfahrene Projektleiter, Projektmanager und Softwareentwickler ohne gefestigtes Wissen im Bereich des Usability Engineerings richtet. Es werden Ziele definiert und mögliche Methoden und Techniken vorgestellt, mit denen diese Ziele erreicht werden können. Da sich das Framework an Softwareentwickler richtet, die einen Usability Enginigeering Prozess integrieren wollen, werden zwar notwendige Ziele der Softwareentwicklung, aber nicht die Methoden und Techniken diese zu erreichen, vorgegeben, um einen etablierten Softwareentwicklungsprozess nicht zu sehr zu beeinflussen.
In dieser Bachelorarbeit werden der automatische Weißabgleich dreier Digitalkameras mit einem neuen Weißabgleich-Verfahren, dass derzeit von der Fachhochschule Köln entwickelt wird, verglichen. Eine Anzahl von Fotos in verschiedenen Situationen werden dafür erstellt, die zum Vergleich anhand verschiedener Parameter ausgewertet werden. Die Ergebnisse zeigen die Unterschiede zwischen den Verfahren der drei Kameras und dem neuen Verfahren auf, das die Lichtfarbe einer Beleuchtungsquelle durch Messung polarisierter Reflexe ermittelt, statt, wie bei anderen Weißabgleich-Verfahren üblich, anhand von Schätzungen. Die Verfahren werden so auf ihre Tauglichkeit im alltäglichen Einsatz und im Hinblick auf die Optimierung des neuen Verfahrens getestet.
Die Grundlage für diese Arbeit ist das opensource Roboterkettenfahrzeug SRV1 der Firma Surveyor [www-surveyor]. Im Auslieferungszustand ist es möglich, das Fahrzeug über ein Steuerungsprogramm fernzusteuern. Dies entspricht dem Funktionsumfang eines normalen ferngesteuerten Fahrzeugs, erweitert um eine Kamera, jedoch ohne jegliche Autonomie oder Intelligenz. Da das Fahrzeug auf einem embedded Board aufgebaut ist, welches über eine WLAN Verbindung verfügt, bietet es einen guten Ausgangspunkt für Erweiterungen. Ziel dieser Arbeit ist es eine Grundlage für autonome Fahrten zu schaffen. Als Betriebssystem wird uClinux, ein Linux für embedded Plattformen genutzt. Das Fahrzeug soll um einen zur Orientierung dienenden Kompass erweitert werden. Außerdem kommt ein RFID-Reader zum Einsatz, mit dessen Hilfe werden RFID-Transponder auf einer Teststrecke als künstliche Landmarken zur Positionsbestimmung genutzt. Es wird eine Software für autonome Fahrten entwickelt, die es ermöglicht, durch Verwendung der erweiterten Hardware, den Roboter eigenständig Punkte der Teststrecke anfahren zu lassen. Hierzu ist es erst notwendig alle Hardware im Betriebssystem, beispielsweise durch Treiber verfügbar zu machen.
Mit wachsender Globalisierung und Immigration steigt auch in Deutschland – einem sprachlich vergleichsweise homogenen Land – die Anzahl der Kinder, die von Geburt an mit zwei oder mehr Sprachen aufwachsen. In anderen europäischen Ländern wie Spanien, Belgien oder der Schweiz gehört die historisch geprägte Mehrsprachigkeit hingegen längst zum Alltag, wie auch in weiten Teilen Afrikas und Amerikas. Auch in vielen anderen Ländern der Welt stellt der Monolingualismus eher einen Ausnahmefall dar, während die Zwei- oder Mehrsprachigkeit vorherrscht. Trotz der weiten Verbreitung des Bilingualismus scheint dieser gerade in Deutschland noch stets mit negativen Vorurteilen behaftet zu sein. Die neuere Literatur des letzten Jahrzehnts hat allerdings gezeigt, dass Bilinguale im Vergleich zu Monolingualen nicht benachteiligt sind. Die Erforschung der psycholinguistischen Spracherwerbsprozesse hat bei dieser Erkenntnis eine wichtige Rolle gespielt, da Missverständnisse, aufgrund derer z. B. Sprachmischungen als mangelhafte Sprachkompetenz angesehen wurden, reanalysiert und neu interpretiert werden konnten). Ziel dieser Arbeit ist es, einen Überblick über den Stand der Mehrsprachigkeitsforschung zu geben und zu verdeutlichen, wie sich der Erwerbsprozess bilingualer Kinder in Hinblick auf die Sprachkompetenz und -performanz vollzieht. Der Fokus liegt dabei auf der separaten Entwicklung beider Sprachen und möglicher Kontaktphänomene.
Die World Health Organisation (WHO) beobachtet weltweit die Entwicklung der Influenzaerreger. Ein Ausbruch einer Pandemie soll dadurch schnell erkannt werden. Prinzipiell könnte jedes Influenzavirus eine Influenzapandemie auslösen. Voraussetzungen für ein pandemisches Virus wäre die Anpassung des Virus an den Menschen, eine Mensch zu Mensch-Übertragbarkeit sowie eine fehlende Immunität der Bevölkerung gegen dieses Virus. Die bedeutendste Bedrohung jedoch geht vom aviären H5N1-Virus aus. Vermutlich benötigt es nur wenige Mutationsschritte, sich zu einem pandemischen Virus zu entwickeln. Mit jedem an H5N1 verendeten Vogel und mit jeder Vogel zu Mensch-Übertragung steigt die Wahrscheinlichkeit einer Influenzapandemie durch H5N1. Ein pandemisches Influenzavirus unterscheidet sich von saisonalen Influenzaviren wahrscheinlich in vielen Eigenschaften. Die unterschiedlichen Eigenschaften der Viren und die Situation der Pandemie erfordern andere Schutzmaßnahmen als bei einer saisonalen Grippeepidemie. Ein Impfstoff für eine geeignete Schutzimpfung wird zu Beginn einer Pandemie noch nicht entwickelt und produziert sein. Der Einsatz von erfolgreichen antiviralen Medikamenten ist durch die verfügbare Menge und eine mögliche Resistenzbildung des Virus gefährdet. Der Expositionsschutz gehört daher zu den wichtigsten Schutzmaßnahmen und sollte bei Ausbruch einer Pandemie sofort verfügbar sein. Besondere Bedeutung hat der Schutz der Atemwege, da die aerogene Übertragung die wesentliche bei einer Influenzapandemie ist. Zum Schutz der Atemwege bieten sich Schutzmasken an. Empfohlen werden im nationalen Pandemieplan partikelfiltrierende Halbmasken und Mund-Nase-Schutzmasken. Welche die geeignete Maske für den Pandemiefall zum Schutz der Bevölkerung ist, kann nicht abschließend geklärt werden. Zu viele Faktoren des Erregers, die Einfluss auf die Wahl der Schutzmaske haben, sind unbekannt. Die Entwicklung von Anforderungen an eine geeignete Pandemieschutzmaske ist erforderlich. Anhand dieser Anforderungen könnten unter vergleichbaren Bedingungen vorhandene Masken auf ihre Tauglichkeit geprüft werden. Die Prüfungen der Masken müssen in einem geeigneten Labor stattfinden. Die Vorschriften, die für dieses Testlabor gelten, sind abhängig von den Prüfungen. Anhand einer Analyse und Beurteilung von Gefährdungen, die aufgrund der Durchführung der Prüfungen entstehen, sind die Vorschriften für das Labor zu ermitteln. Daraus folgende Maßnahmen u.a. zum Schutze der Beschäftigten müssen eingehalten und auf ihre Wirksamkeit überprüft werden. Die Dokumentation der Analyse und der Maßnahmen schließen die Gefährdungsbeurteilung ab.
Diese Arbeit befasst sich mit der Problematik der Zugriffe auf nachrichtenorientierte Kommunikationsdienste von mobilen Geräten. Da diese Kommunikationsdienste nicht dafür ausgelegt sind via Netzwerk zugänglich zu sein, sondern nur lokal in der gleichen virtuellen Maschine ausgeführt werden können, wird ein zusätzlicher Dienst entwickelt der diesen Zugriff möglich macht. Zusätzlich beinhaltet er die verarbeitende Komponente und fungiert somit als Schnittstelle. Es wird detailliert darauf eingegan- gen wie genau ein Lösungsansatz aussehen könnte, in Rücksichtnahme auf gewählte Softwarekomponenten. Eine Abwägung der jeweiligen Komponenten und Darstellung der Alternativen, sowie eine Diskussion des Problem- sowie Lösungsraums, gehen dem Ganzen voraus. Im Mittelpunkt der Arbeit steht die Verarbeitung der Anfragen und Weiterleitung an bestehende nachrichtenorientierte Systeme mittels Web Services, sowie ihre Darstellung. Somit wird die Funktionalität eines solchen Systems, in diesem Fall Java Message Service, genutzt um eine Kommunikation zwischen diversen Nutzern zu etablieren. Der Gedanke dabei ist, einen Nachrichtenaustausch zwischen diesen, mittels wohl definierter Schnittstellen, zu ermöglichen. Weiterhin wird die Funktion anhand einer prototypischen Implementation demonstriert und ein Ausblick gegeben in wie weit sich dieser Prototyp erweitern lässt um dem Gesamtkonzept zu genügen.
Neben den bekannten Hyperlinks in Artikeltexten verfügt die Online-Enzyklopädie Wikipedia mit ihrem Kategoriensystem über ein weiteres Mittel zur Herstellung von Relationen zwischen Artikeln. Jeder Artikel ist einer oder mehreren Kategorien zugeordnet, die ihrerseits anderen Kategorien zugeordnet sind. Auf diese Weise entsteht eine systematische Ordnung von Artikeln und Kategorien. Betrachtet man nur die Artikel- und Kategoriennamen sowie diese Relationen, so stellt das Kategoriensystem ein gemeinschaftlich erstelltes Begriffssystem dar, das sämtliche von der Wikipedia abgedeckten Themenbereiche umfasst, jedoch -- technisch betrachtet -- ausschließlich hierarchische Relationen enthält. Aufgrund des Fehlens eines differenzierten Regelwerks zur Kategorisierung ist das Kategoriensystem derzeit jedoch inkonsistent, daneben sind, bedingt durch das Vorhandensein lediglich eines Relationstyps, viele Relationen wenig aussagekräftig. Dennoch besteht das Potenzial zur Schaffung eines stark und differenziert relationierten Begriffssystems aus dem bestehenden Kategoriensystem heraus. Die vorliegende Arbeit diskutiert die Anwendungsmöglichkeiten eines solchen Begriffssystems und die Option seiner gemeinschaftlichen Entwicklung aus dem bestehenden Vokabular des Kategoriensystems, mithin also der gemeinschaftlichen Relationierung von Begriffen anhand eines differenzierten Relationeninventars. Ausgehend von den Kategorien "Theater" und "Jagd" der deutschsprachigen Wikipedia wird ein hierarchisch strukturiertes Relationeninventar definiert, das sowohl spezifische als auch allgemeine Relationstypen enthält und damit die Möglichkeit zur Übertragung auf andere Gegenstandsbereiche bietet. Sämtliche Artikel- und Kategoriennamen, die unterhalb jener Kategorien erscheinen, werden unter Verwendung der neu entwickelten Relationstypen als Deskriptoren relationiert.
Motion capturing plays an important role in computer animation and combines many different fields of research in media engineering, such as camera calibration, marker detection via image processing and 3D reconstruction. Most professional motion capture systems are distributed proprietarily by a handful of companies and do not grant much insight into detailed workflows. The motivation for the project this thesis is based on was to autonomously develop a simpler, yet similar system, which would capture static poses of a puppet. This thesis points out the designing steps of this system and illustrates how many of the aforementioned aspects of motion capturing are answered using the example of the stop-motion capture system, thus building a basis for the comprehension of more complex systems.
Mobile Systeme haben sich fest in den Alltag des Menschen in der westlichen Welt integriert. Sie helfen bei der Erledigung von Aufgaben der Benutzer und versuchen, deren Bedürfnisse bestmöglich zu erfüllen. Um dies zu erreichen, wurden verschiedene Lösungen entwickelt, dazu gehören kontextsensitive Anwendungen, die sich dadurch auszeichnen, dass sie ihr Verhalten nach den Belangen der Benutzer, bestimmt durch die jeweilige Situation, anpassen können. Zur Entwicklung solcher Anwendungen gibt es Rahmenwerke, um Problemen, bedingt durch die Komplexität dieses Bereiches, vorzubeugen und die Entwicklung zu erleichtern. Dabei spielt auch die Fähigkeit dieser Rahmenwerke, mehrere Anwendungen gleichzeitig zu bedienen, gerade bei steigender Popularität von kontextsensitiven Applikationen, eine entscheidende Rolle. Diese Arbeit beschäftigt sich mit der Konzeption und Umsetzung des Multiprozessbetriebes für kontextsensitive Anwendungen auf Basis eines bestehenden Rahmenwerkes. Innerhalb der Arbeit werden Anforderungen für den Multiprozessbetrieb ermittelt, auf deren Basis ein Konzept zur Erweiterung des Rahmenwerkes erstellt wird. Anhand des Konzeptes wird eine Implementierung des Rahmenwerkes auf der Android-Plattform durchgeführt, welche danach mittels der Durchführung eines Testszenarios mit mehreren Anwendungen evaluiert wird.
Der immer weiter steigende Bedarf an qualitativ hochwertigen, grafischen Inhal- ten in Computerspielen sorgt dafür, dass neue Wege gefunden werden müssen, um diese mit verfügbaren Ressourcen produzieren zu können. Hier hat sich in einigen Bereichen die Verwendung von prozeduralen Techniken zur computergestützten Ge- nerierung von benötigten Modellen bereits bewährt. Ein Bereich, der aufgrund seiner Komplexität besonders interessant für den Einsatz von prozeduralen Methoden ist und im Bereich der Computerspieleindustrie noch am Anfang steht, ist die Simulation und Erzeugung von virtuellen Städten oder anderen urbanen Strukturen. Ziel dieser Arbeit ist es, ein Systemkonzept zu präsentieren, das auf Grundlage eines erweiterbaren Bedürfnissystems von Personen ein virtuelles Wegenetz erzeugt, das als Folge der Interaktionen der Personen mit der simulierten Welt entsteht. Es soll gezeigt werden, dass einzelne Agenten ohne ein globales Wissen oder eine vorhandene Planungsinstanz nach dem Beispiel von sozialen, staatenbildenen Insekten nur mit- hilfe einer Kommunikation auf Pheromonbasis zu in Computerspielen einsetzbaren Simulationsergebnissen kommen.
Die folgende Arbeit hat den Titel "Bibliotheksgebühren: Gebührenmodelle, Rahmen- bedingungen der Erhebung und Auswirkungen auf die Nutzung. Ein Vergleich verschiedener Öffentlicher Bibliotheken in Nordrhein-Westfalen." Ziel der Arbeit ist es herauszufinden, ob es Auswirkungen von Bibliotheksgebühren auf die Nutzung Öffentlicher Bibliotheken gibt, und wenn ja, welcher Art diese Auswirkungen sind. Abschließend sollen Empfehlungen zur Gestaltung eines Gebührenmodells gegeben werden. Es werden vorhandene empirische Erhebungen zu der Thematik ausgewertet, und eine Umfrage unter den Leitungen der Bibliotheken der Städte Dortmund, Düsseldorf, Bonn, Münster, Hamm, Witten und Hürth durchgeführt. Die verschiedenen Bibliotheken und ihre Gebühren-, bzw. Entgeltmodelle werden miteinander verglichen. Um die Ergebnisse der Umfrage bewerten zu können, werden die Städte außerdem anhand verschiedener Indikatoren vorgestellt.
Die vorliegende Arbeit beschäftigt sich mit Recherchekompetenzen von Studierenden und der Vermittlung der betreffenden Fertigkeiten in Online-Tutorials als eine innovative Methode der Vermittlung von Informationskompetenz. Studierende stehen im Rahmen des Studiums vor der Herausforderung effiziente, wissenschaftliche Recherchen in verschiedenen Rechercheinstrumenten durchzuführen. In unterschiedlichen Studien wurde bereits herausgefunden, dass Studierende Probleme und Defizite bei der wissenschaftlichen Recherche haben und bei ihnen Bedarf nach Unterstützung besteht. Diese Studienergebnisse bilden die Grundlage für eine Analyse der Online-Tutorials DISCUS, LOTSE, DOT und Bib@InfoLit. Hierbei besteht das Ziel der Arbeit darin, die Berücksichtigung und didaktische Aufbereitung der Inhalte in Bezug auf die Informationsbedürfnisse der Studierenden zu untersuchen. Ein abschließender Vergleich resümiert die Umsetzungen in den Online-Tutorials.
Diese Bachelorarbeit befasst sich mit dem Portal http://www.informationskompetenz.de/, das als Gemeinschaftsprojekt bibliothekarischer Arbeitsgemeinschaften zur Vermittlung von Informationskompetenz der regionalen und überregionalen Kooperation von Bibliotheken in Deutschland dienen soll. Neben einem Glossar, Standards und Erklärungen sowie Präsenzen der beteiligten Bundesländer stellt es insbesondere eine Datenbank zur Sammlung und zum Austausch von Materialien zu diesem Thema bereit. Nach einem Überblick über die Entstehung des Begriffs der Informationskompetenz, seine Entwicklung und aktuelle Tendenzen folgen die Beschreibung des Gesamtportals sowie eine kurze Analyse desselben anhand eines definierten Katalogs inhaltlicher und formaler Kriterien. Daneben ist auch ein kurzer Überblick über die weiteren Komponenten des Portals Bestandteil der Arbeit. Der Schwerpunkt der Arbeit liegt auf der darauffolgenden Analyse und Evaluation der Materialiendatenbank, die ebenfalls unter Anwendung der definierten Kriterien erfolgt. Der Umfang, die Struktur und die Gestaltung der Datenbank stehen bei der Untersuchung im Vordergrund; die Begutachtung erfolgt anhand einer Stichprobe von 20% der zum Zeitpunkt der Bearbeitung in der Datenbank enthaltenen Dokumente. Zudem fließen zur Evaluation der Suchfunktionalitäten auch einzelne ausgewertete Suchanfragen in die Bewertung ein. Von den hier präsentierten Ergebnissen der Evaluation des Portals und der Materialiendatenbank ausgehend werden abschließend potenzielle Perspektiven der Plattform aufgezeigt. Es werden konkrete Entwicklungsmöglichkeiten dargestellt, im Anschluss daran wird die Plattform aber zudem in den bibliothekarischen Gesamtkontext eingeordnet und ihre mögliche zukünftige Rolle skizziert.
Diese Arbeit stützt sich auf die These, dass die Vermittlung von Informationskompetenz bereits in der Grundschule notwendig ist, da der Computer und das Internet mittlerweile fester Bestandteil des Alltags von Grundschülern geworden sind. Deshalb sollte man ihnen Wissen, das eine kompetente Nutzung dieser Medien ermöglicht, an die Hand geben. Die Basis der Arbeit bildet eine auf einem Quellenstudium basierende Definition von Informationskompetenz inklusive eines Überblicks über verschiedene Theorien, Modelle und Standards. Zusätzlich werden derzeitige Offerten zur Vermittlung von Informationskompetenz an Kinder im Grundschulalter analysiert. Der Schwerpunkt der Arbeit liegt auf der Entwicklung eines Konzepts zur Integration der Vermittlung von Informationskompetenz in den Deutschunterricht der dritten und vierten Klasse. Ausgerichtet wurde das Konzept an den Belangen der Grundschule Thülen, die als Projektpartner fungierte. Die Dokumentation der Konzeptentwicklung umfasst theoretische Grundlagen, beispielsweise zur Formulierung von Lernzielen, und eine detaillierte Beschreibung der einzelnen Unterrichtsphasen. Ferner wird kurz auf generelle Umsetzungskriterien des Konzepts eingegangen. Als Ergebnis kann festgehalten werden, dass Grundschüler als Zielgruppe für die Vermittlung von Informationskompetenz bisher vernachlässigt wurden.
Die Zielsetzung dieser Thesis ist die aktuelle Situation von Blinden und Sehbehinderten in Bezug auf technische Hilfsmittel aufzuzeigen und auf mögliche Defizite und Handlungsbedarf hinzuweisen. Im Vorfeld wurde im Rahmen der Recherche eine Umfrage unter Betroffenen durchgeführt. Die Auswertung der Umfrage sowie eines ausführlichen Interviews ist ein wichtiger Bestandteil. Die Thesis soll IST-Grundlage für weitere Überlegungen, Weiterentwicklungen und Forschungsansätze im Bereich Blindeninformatik sein. Zu Beginn wird die Anatomie und Funktion des menschlichen Sehapparates erläutert. Ein weiterer Schwerpunkt der Thesis ist die geschichtliche Entwicklung von Hilfsmitteln. Anhand wichtiger Meilensteine, wie beispielsweise die Punktschrift, der Thermostift oder die Einführung des DAISY Standards wird die „Useability“ und auch die Akzeptanz in der Gesellschaft betrachtet. Anhand aktueller technischer Hilfsmittel werden Probleme und Lücken im Alltag erörtert. Der Verfasser ist selbst Betroffener und ergänzt die zusammengestellten Informationen durch eigene praxisorientierte Alltagserfahrungen. Im weiteren Verlauf werden neue technische Innovationen wie beispielsweise Touchscreens und Augmented Reality (AR) vorgestellt. Es wird einerseits auf aktuelle Entwicklungen eingegangen und Ausblicke auf zukünftige Anwendungsgebiete aufgezeigt, andererseits aber auch auf Gefahren bei der Verschmelzung von Realität und Virtualität hingewiesen. Abschließend werden die Feststellungen zusammengefasst und Denkanstöße für zukünftige Neu- und Weiterentwicklungen gegeben.
Das Wissen nutzbar zu machen steht an zentraler Stelle. Heute wird der Mensch mit Informationsmengen konfrontiert und steht dadurch vor dem Problem einer enormen Informationsflut. In der schnelllebigen Zeit der IT-Technik (Information und Telekommunikation) soll eine innovative Methode die Informationsrecherche zeitlich verkürzen und eine individuell optimale Lösung für den Benutzer gefunden werden. Die gebrauchstaugliche Unterstützung heißt: Eine semantisch-webbasierte Visualisierung zur Unterstützung des Findens innerhalb des Semantic Web. Der Ansatz der Visualisierung liegt darin begründet, dass Menschen hauptsächlich über die Augen wahrnehmen und schnell Zusammenhänge erkennen können. Sogar blinde Menschen nutzen dazu ein mentales System, das visuell räumliches Skizzenblatt (scratch-pad), um Bilder bzw. die Umwelt zu verarbeiten. Der Vorteil liegt darin begründet, dass es einen schnellen direkten Zugriff auf das Arbeitsgedächtnis ermöglicht. Ein Anwendungsszenario im Bereich des Mobilfunks soll als Praxisbeispiel dienen. Bei der Vielzahl der angebotenen Handys mit den homogenen Leistungen findet kaum ein Kunde die Unterscheidungen und es gibt zurzeit keine Möglichkeit unter den Handys benutzungsfreundlich zu differenzieren noch ein optimales Handy zu finden. Am Beispiel von selbst dargestellten Szenarien und einer Evaluation wird erörtert, wie anhand von angenommenen Stakeholder, ein Zusammenspiel der Semantic Web Technologien eine jeweilige Lösung von verfügbaren Informationen aufgefunden und bearbeitet werden kann. Ziel bei der Anwendung ist es, ein Prototypen zu realisieren, dass gebrauchstauglich bei der Visualisierung von großen Datenmassen, auf Grundlage einer Empfehlung von Mobilgeräten in einem Webinterface, unterstützt. Das bereits geschriebene Praxisprojekt-Referat in Form eines Konzepts mit dem Thema: „Graphische Visualisierung von semantischen Daten in einem Webinterface“ dient dabei als Grundlage für diese Bachelorarbeit (siehe Kap. 8.2). Grundlage, Innovationen und Beispiele aus der Praxis sind ausführlich dort beschrieben worden. Dabei wurden die neusten Technologien unter den Kriterien der Häufigkeit in der Praxis, Plattformunabhängigkeit und der Flexibilität betrachtet. Künstlerisch gestalterische Disziplinen, die Produkte graphisch zum Glänzen bringen möchten oder welche, die sich mit den grundlegenden Technologien für semantische Daten sich beschäftigen, bleiben bei dieser Arbeit unbehandelt. Es geht im Schwerpunkt um eine Beantwortung der folgenden Forschungsfrage: Inwieweit sind graphische Repräsentationen vorteilhafter, um Wissen zu vermitteln, in Verhältnis zu textuellen Repräsentationen?
Im Rahmen dieser Bachelorarbeit wurde erfolgreich erarbeitet, dass mit Hilfe der Hough-Transformation aus Bildern der realen Welt die inneren Kameraparameter optisches Zentrum und Brennweite mit hinreichender Annäherung automatisch bestimmt werden können. Umgesetzt wurde der Algorithmus in Java als Plug-In für das Open Source Bildverarbeitungsprogramm ImageJ. Zur Bestimmung der Fluchtpunkte wird die Hough- Transformation innerhalb des Plug-Ins zweimal durchgeführt. Es eignet sich für Aufnahmen von Gebäuden und ähnlichen rechtwinkligen Strukturen.
Die Koordination von Großschadenslagen mit vielen Verletzten stellt die Verantwortlichen vor eine schwere Aufgabe. Gemeinsam mit anderen Partnern aus Wissenschaft und Industrie bearbeitet die Fachhochschule Köln das orschungsprojekt "Beherrschbarkeit von Katastrophenereignissen durch autonom vernetzte Sensoren (MANET)". Mit dem Ergebnis dieses Projekts soll die Koordination der Einsatzkräfte, der Fahrzeuge und des Materials verbessert werden, mit dem Ziel eine schnellere Patientenversorgung zu gewährleisten. Bisher existieren Prototypen des entwickelten Systems. Dieses wird in realitätsnahen Übungen, in denen Groÿschadenslagen dargestellt werden, von Einsatzkräften verwendet. Um die Anwenderfreundlichkeit des Systems zu ermitteln wurde eine Befragung konzipiert, mit der die Erfahrungen der Anwender nach der Übung ermittelt werden können. Im Vorlauf der Befragungserstellung wurden allgemeine Regeln zur Fragen- und Antwortgestaltung sowie Grundlagen zur Auswertung de niert. Die Befragung wird mithilfe eines elektronischen Befragungssystems durchgeführt, wodurch die Fragen und Antworten besondere Vorgaben zu erfüllen haben. Diese wurden bei der Erstellung der Fragen, zusätzlich zu den allgemeinen Regeln, berücksichtigt. Neben den Fragen wurden für die Befragung Umgebungsbedingungen de niert, die für eine erfolgreiche Durchführung notwendig sind. Gemeinsam mit den Fragen wurden diese Bedingungen in einem Fragebogen zusammengefasst, der den gesamten Ablauf der Befragung vorgibt. Durch diese Vorgabe ist eine Vergleichbarkeit von mehreren Befragungsdurchgängen gewährleistet.
In dieser Bachelorarbeit werden die Grenzwerte der stereoskopischen Seheindrücke, in Bezug auf parallaktische Verschiebungen und dem Raumwinkel, empirisch ermittelt und mit bekannten Grenzwerten verglichen. Die Ermittlung der Grenzwerte erfolgte durch einen empirischen Test mit einer repräsentativen Personengruppe. In dem Ergebnis wird u. a. die Raumwinkeldefinition nach Lüscher bekräftigt. Neue Grenzwerte werden im Bereich der Parallaxengröße definiert.
In der vorliegenden Bachelorarbeit werden Objektive und deren Eigenschaften hinsichtlich ihrer Eignung für die Time-of-Flight Technologie in Verwendung mit dem PMD[vision]®CamCube3.0 untersucht. Dabei wird zunächst die Scharfstellung geprüft und analysiert. Desweiteren werden System-MTF-Kurven von verschiedenen Objektiven in unterschiedlichen Entfernungen gemessen. Die Objektive werden untereinander verglichen und die gemessenen Werte den Hersteller-MTF-Kurven gegenübergestellt. Außerdem wird eine Simulation zur Berechnung des aus einer nicht perfekten Modulationsübertragung resultierenden Phasenfehlers durchgeführt und analysiert.
In der vorliegenden Arbeit werden zwei Environment-Shader entwickelt, einer für die Software Maya, der zweite für die im WDR Köln genutzte Grafiksoftware 3Designer. Zur Entwicklung wird der Worflow zur Erstellung virtueller Szenenbilder im WDR Köln berücksichtigt. Dafür wird der Workflow vorgestellt und die Umsetzung in den Shader detailliert erläutert. Als Ergebnis liegt für jedes Programm ein Shader vor, der bewirkt, dass die Reflexion einer Umgebung, die als Kugel vorliegt, auf dem jeweiligen Objekt erkennbar ist.
Die Hough-Transformation liefert die Parameter von in einem Bild vorkommenden Geraden. Durch die Kameraverzerrung werden die in der realen Welt vorkommenden Geraden jedoch nicht mehr auf Geraden abgebildet. Dies führt dazu, dass im Hough-Raum die entsprechenden Geradenpunkte nicht mehr auf den gleichen Punkt abgebildet werden. Durch Variation der Verzerrungsparameter mit Hilfe eines bereits vorliegenden Optimierungsprogrammes ist eine Korrektur zu ermitteln. Dabei sollen drei unterschiedliche Ansätze miteinander verglichen werden. Bildmaterial sollte Aufnahmen von Testobjekten und Gebäuden sein.
Diese Arbeit stellt drei Masterstudiengänge des Bereichs Library and Information Science an Hochschulen des United Kingdom vor und überprüft sie auf ihre Eignung als weiterführende Qualifikation für die Absolventen des Bachelorstudiengangs „Bibliothekswesen“ der Fachhochschule Köln. Durch Darstellung der europäischen Studienstrukturen seit Beginn des Bologna-Prozesses werden zunächst die Rahmenbedingungen für ein Auslandsstudium verdeutlicht. Als Grundlage für die spätere Beurteilung der Masterstudiengänge wird anschließend der Bachelorstudiengang „Bibliothekswesen“ unter Zuhilfenahme des Modulbuchs und der Prüfungsordnung vorgestellt und ein Profil für die Absolventen entwickelt. Nach einem allgemeinen Überblick über die Hochschulausbildung im United Kingdom und die LIS-Ausbildung im Speziellen, wird der Berufsverband Chartered Institute of Library and Information Professionals und seine Aufgabe im Bereich Akkreditierung vorgestellt. Im Hauptteil werden anhand selbsterstellter Kriterien drei Studiengänge aus England, Wales und Schottland ausgewählt und anhand der Informationen der Internetseiten der Hochschulen beschrieben. Abschließend werden die Studiengänge, ebenfalls mittels selbstgewählter Kriterien, auf ihre Eignung als weiterführende Qualifikation überprüft.
Diese Bachelorarbeit erläutert das Vorgehen bei der Erstellung einer Applikation für mobile Endgeräte, die einen dialogorientierten 3D-Charakter darstellt, der auf die Eingaben des Benutzers reagiert. Erläutert wird hierbei auch die historische Entwicklung der Mensch-Maschinen-Kommunikation. Darauf folgt ein Überblick über die, im Bereich der mobilen Endgeräte verfügbare, Hard- und Software sowie deren Architektur. Weitere Teile befassen sich mit den in der Applikation genutzten, selbst erstellten Methoden zur Textanalyse und Antwortgenerierung, sowie der Kombination aller Komponenten zu einem Endprodukt.
Entwicklung und Gestaltung neuer Multimedia-Formate am Beispiel des Projekts "Bluthochdruckvorsorge"
(2012)
Die vorliegende Bachelorarbeit beschäftigt sich mit der Gestaltung und Entwicklung der multimedialen Anwendungen für das Projekt „Bluthochdruckvorsorge“, das am Institut für Photo- und Medientechnik durchgeführt wurde. Nach der Analyse der didaktischen und technischen Voraussetzungen für die Entwicklung bestimmter multimedialer Formate für die Gesundheitsprävention wurden vergleichbare Anwendungen analysiert und bewertet. Anschließend wurde die webbasierte Anwendung „Bluthochdruckvorsorge„ vorgestellt und deren Konzeption und Realisierung erläutert.
Diese Arbeit beschreibt einen optischen Aufbau zur Herstellung von Holografisch-Optischen Elementen. Der Aufbau nutzt dabei einen räumlichen Lichtmodulator, um die Phasenverteilung eines ebenen Wellenfelds gezielt zu manipulieren. Das Wellenfeld wird mithilfe eines 4f-Aufbaus einer optischen Filterung unterzogen und anschließend mit einer Referenzwelle überlagert. Die Inten- sitätsverteilung des Interferenzmusters, das bei dieser Überla- gerung entsteht, wird in ein Fotopolymer belichtet. Die Belich- tung regt dabei Polymerisationsprozesse im Fotopolymer an, die zu einer räumlichen Modulation des Brechungsindex führen. So- mit kann eine definierte räumliche Phasenverteilung in das Foto- polymer geschrieben werden, welches als Holografisch-Optisches Element bezeichnet wird. Aufgrund der geringen Dauer des ge- samten Prozesses wird dieser als Rapid Prototyping bezeichnet.
Im Rahmen dieser Bachelorarbeit wurde der von Debevec und Malik verwendete Algorithmus zur Erstellung von HDR-Bildern als Plugin für die Bildverarbeitungssoftware ImageJ implementiert. Darüber hinaus wurde die Implementierung durch Tests auf ihre Funktionalität überprüft und Schwachstellen des Algorithmus erläutert. Durch Modifizierungen des erstellten Plugins wurden einige Schwächen des Algorithmus verbessert.
Die Wohlfahrtsverbände der beiden großen Kirchen in Deutschland spielen in der Sozialwirtschaft aufgrund ihrer Größe und engen Verflechtung eine übergeordnete Rolle. Nicht zuletzt deswegen zählen sie in den allermeisten Sozialberufen zu den größten Arbeitgebern. Aufgrund ihrer verfassungsrechtlichen Sonderstellung dürfen sie bei der Personalauswahl - im Gegensatz zu konfessionell ungebundenen Arbeitgebern - Menschen ohne die "passende" Konfession vom Bewerbungs- und Einstellungsverfahren ausschließen. Hiervon machen Einrichtungen der Caritas und Diakonie häufig bereits in ihren Stellenausschreibungen Gebrauch. Für die vorliegende Arbeit wurden insgesamt 685 Stellenausschreibungen von katholisch getragenen Einrichtungen analysiert. Bei der Auswertung wird insbesondere in den Blick genommen, in welchen Arbeitsfeldern und bei welchen Stellenarten die "erlaubte Diskriminierung" besonders häufig festzustellen ist. Die Arbeit zeigt auf, dass große arbeitsfeldspezifische Unterschiede auftreten, insgesamt jedoch kaum einheitliche Standards festzustellen sind. Mit Blick auf den befürchteten Fachkräftemangel in einigen Sozialberufen wird die Frage diskutiert, ob es aus Sicht der Kirchen noch sinnvoll ist, zahlreiche qualifizierte Menschen aufgrund der fehlenden Konfessionszugehörigkeit vom Bewerbungs- und Einstellungsverfahren auszuschließen.
Für Anwendungen, die mit XML-Dokumenten arbeiten, kann es aus der Sicht eines Unternehmens sinnvoll sein, die Daten in einer relationalen Datenbank zu speichern. Sollte die Anwendung von sich aus nur mit nativen XML Datenbanken arbeiten und gar keine Anbindung an relationale Datenbanken vorsehen, sind umfassende Untersuchungen notwendig. Vor allem bei Redaktionssystemen, die für den Produktiv-Betrieb eines Unternehmens essentiell sind, darf es zu keinen Beeinträchtigungen durch die Datenhaltung kommen. Redaktionssysteme arbeiten zudem aufgrund ihrer Funktionsvielfalt mit verschieden strukturierten Dokumenten, an die unterschiedliche Anforderungen bestehen. Es müssen also optimale Strukturen für die einzelnen Dokument-Gruppen gefunden werden. Möglichkeiten XML-Dokumente in einer relationalen Datenbank zu speichern gibt es allerdings viele. Sei es ein nativer XML-Datentyp, ein Mapping auf Relationen oder gar ein hybrides Verfahren. Die Wahl der passenden Struktur wird nicht nur durch die Anwendung, die Nutzer und die Datenbanken beeinflusst, sondern auch durch die Struktur und die Nutzungskontexte der XML-Dokumente. Ziel dieser Arbeit ist es, anhand von ermittelten Kriterien, optimale Strukturen für verschiedenartige XML-Dokumente zu finden. Dazu werden neben dem Redaktionssystem, den Datenbanken und den Daten, auch verschiedene Strukturen untersucht. Abgesehen von den Strukturlösungen sollen die Erkenntnisse in dieser Arbeit dabei helfen, die native XML Datenbank des betroffenen Redaktionssystems durch eine relationale Datenbank zu ersetzen.
Der Smartphone-Markt gehört zu einem der am stärksten wachsenden Märkte der heutigen Zeit. Zudem erfreuen sich Anwendungen mit soziotechnischen Aspekten wie YouTube und Facebook immer größer werdender Beliebtheit. Genau hier siedelt Your-Sights an. Dabei wurde im Rahmen eines Projekts eine Software für das Smartphone-Betriebssystem Android konzipiert und entwickelt, welche in der Lage ist Touren, bzw. eine Menge von Wegpunkten zu erstellen, wiederzugeben und zu verwalten. Neben obligatorischen GPS-Koordinaten können für jeden Wegpunkt textuelle und visuelle Informationen, in Form von Bildern, erfasst werden. Für die kartografische Darstellung wird auf das OpenStreetMap-Projekt zurückgegriffen. Im Rahmen dieser Bachelor-Thesis wird das Projekt fortgesetzt und auf die Konzeptio-nierung und Entwicklung einer Middleware eingegangen, welche eine Brücke zwischen den Anwendern und einer Datenbank bildet. Letztere dient nicht nur dem Austausch von Touren, sondern ermöglicht auch eine Kommunikation unter den Anwendern. Dabei wurde Wert auf die Evaluation einer adäquaten Kommunikationstechnologie für den Datenaustausch zwischen dem Anwender und der Middleware gelegt. Schließlich erfolgte der Einsatz des Java NIO-Frameworks Netty und die Entwicklung eines Kommunikationsprotokolls. Darüber hinaus wird auf notwendige Änderungen und Erweiterungen der Android-Applikation, als auch eine prototypische Entwicklung des Servers eingegangen.
Bewegung als Musikinstrument - Entwicklung eines Prototypen auf Basis von Kinect und Pure Data
(2012)
Es wurden Möglichkeiten der Bewegungsanalyse durch Gamecontroller untersucht und dazu passende Audioerzeuger erstellt. Dazu wurden vier Prototypen erstellt, die auf verschiedenen Analysetechniken basieren. Dazu zählt die Analyse per Webcam, der Sony Playstation Move Controller, und die Microsoft Kinect. Dann habe ich einen Ansatz auf Basis der Kinect weiter-entwickelt. Die Eingabedaten der Kinect wurden über Open Sound Control zu Pure-Data über- ragen. In Pure-Data habe ich ein Instrument erstellt, das durch die geschickte Kombination von Oszillatoren und Filtern einen individuellen und interessanten Klang erzeugt. Dazu wurde ein entsprechendes Kontrollkonzept umgesetzt, welches sich an dem eines Saiteninstrumentes orientiert, dieses Konzept jedoch von der Bewegung der Finger und Hände auf größere Bewe- gungen des ganzen Körpers überträgt. Es wurden Schnittstellen erstellt und diskutiert, mit denen das System via MIDI und Open Sound Control auch an andere Audioerzeuger angeschlossen werden kann. Während der ganzen Entwicklung wurde darauf geachtet, Open-Source-Software zu bevorzugen. Am Ende steht ein elaboriertes System, welches abgesehen von der Hardware völlig frei verfügbar und quelloffen ist.
Diese Arbeit behandelt die physikalisch plausible Bildsynthese virtueller Szenen anhand strahlungsphysikalischer Größen sowie physikalisch plausibler Beleuchtungsmodelle in Kombination mit qualitativ hochwertigem Schattenwurf. Verschiedene Modelle und Verfahren werden untersucht und in einer Echtzeitumgebung implementiert.
Diese Bachelorarbeit zeigt auf, welche Probleme bei der Verwendung der Videofunktion von digitalen Consumer-Kameras wie Digitalkameras mit Videofunktion, Mobiltelefonen oder Camcordern entstehen können. Auf der Basis dieser Arbeit wird die Firma Image Engineering ein Testverfahren zur Videoanalyse entwickeln.
In der Softwareentwicklung setzen sich vermehrt agile Methoden durch, die meist in kleineren Softwareprojekten Anwendung finden. Durch die intensive Einbeziehung des Kunden, Kommunikation innerhalb des Teams und kontinuierlichen Auslieferung soll die Softwarequalität gesteigert werden. So erhält der Kunde ein produktiv einsetzbares Softwareprodukt. Diese Bachelorarbeit gewährt einen Überblick über bekannte agile Prozesse und betrachtet im Detail den Scrum Prozess. Danach wird das Framework Oracle APEX vorgestellt und schließt mit einer Betrachtung zur Eignung der Einführung des Scrum Prozesses innerhalb APEX ab.
In dieser Arbeit wird auf die theoretischen Grundlagen von digitalen Filmkameras, des Dynamikumfangs und der HDR Technologie eingegangen. Im Einzelnen werden die Spezifikationen der digitalen Filmkamera RED Epic sowie des Tonemapping-Operators iCAM06 aufgeführt. In der Durchführung war es das Ziel, den erhöhten Dynamikumfang einer mit dieser Kamera aufgezeichneten Szene mit iCAM06 zu komprimieren und diesen auf einem handelsüblichen Monitor darzustellen. In der Auswertung werden Bildergebnisse für unterschiedliche Übergabeparameter demonstriert und dokumentiert.
Es wurde ein Vergleich zwischen einer nativen Android-Anwendung und einer Titanium-Anwendung durchgeführt, anhand einen mobilen SQL-Trainers. Die mit Eclipse nativ entwickelte Android-Anwendung und die Titanium-Anwendung (Android und iOS) sind, zumindest mit unserem beispielhaften Funktionsumfang, fast gleichwertig. Die Entwicklung für BlackBerry und Tizen konnte auf Grund der noch nicht ausgereiften Entwicklungsart für diese Plattformen kaum getestet werden, allerdings wird der größere App-Markt mit iOS und Android unterstützt. Die noch nicht ausgereifte Entwicklungsweise für das Tizen-Betriebssystem kann vernachlässigt werden, wenn bedacht wird, dass auf dem Tizen-Betriebssystem native Android-Anwendungen ausgeführt werden können. Außerdem wird Tizen noch auf keinem Smartphone eingesetzt. Die Vorbereitung auf die Erstentwicklung ist durch die noch etwas weniger ausgereifte, aber dennoch sehr professionelle Entwicklungsumgebung beim Titanium SDK etwas zeitaufwändiger als bei der Eclipse-Entwicklungsumgebung. Natürlich sind die nativen und vom Betriebssystemhersteller herausgegebenen Entwicklungsformen der Vorreiter für das Titanium SDK und deshalb auch die sicherere Entwicklungsform, wenn es beispielsweise um Kompatibilität und Hardwarezugriff geht. Das Titanium SDK übersetzt den entwickelten JavaScript-Code in nativen Code der jeweiligen Plattformen mit den jeweiligen Plattform-Elementen. Die angepriesene Zeitersparnis von zwanzig Prozent bei der Entwicklung kann nicht bestätigt werden. Die Entwicklung der Benutzeroberfläche ist aufwändiger als bei der nativen Entwicklungsweise.
Im Rahmen dieser Arbeit soll eine Java-Anwendung zum Zeichnen von Entity-Relationship-Diagrammen entwickelt und vorgestellt werden. Die Anwendung soll zur Unterstützung der Veranstaltung Datenbanken an der Fachhochschule Köln - Campus Gummersbach dienen. Der Hintergrund dazu ist die Tatsache, dass im Rahmen der Veranstaltung oftmals Entity-Relationship-Diagramme von Studenten gezeichnet werden sollen. Die Erfahrung der Lehrbeauftragten hat gezeigt, dass Studenten teilweise mit den empfohlenen Anwendungen Schwierigkeiten haben, unter anderem weil diese viel mehr Funktionen anbieten, als von den Studenten benötigt. Eine weitere Schwierigkeit ist die Tatsache, dass verschiedene Anwendungen zum Zeichnen von Entity-Relationship-Diagrammen verschiedenartige Diagramme erzeugen. Daher besteht der Bedarf einer Anwendungen, die sich einfach bedienen lässt, sich auf das Wesentliche beschränkt und einheitliche Diagramme erzeugt. Die zu entwickelnde Anwendung soll zukünftig innerhalb der Lernplattform edb von Studenten heruntergeladen werden können.
In dieser Bachelorarbeit wird das Thema Big Data und die damit verbundenen Technologien, sprich NoSQL und Hadoop behandelt. Das Thema wurde bewusst ausgewählt, weil sie zum einen aktuell und zum anderen immer mehr an Bedeutung, aus Sicht der Unternehmen gewinnt. Durch die ständig anwachsenden Daten, die zu 80% in Semistrukturierter Form vorliegen, stößt die IT-Infrastruktur eines Unternehmens schnell an seine Grenzen. Und genau an dieser Stelle sollen die Big Data Technologien, wie „NoSQL“ und „Hadoop“, helfen, die so großen Datenmengen zu verarbeiten, um für das Unternehmen, wertvolle Informationen zu liefern, die bislang nicht ersichtlich waren.
Die „E-Mail“ als elektronisches Kommunikationsmittel begeistert seither Marketing- experten, da sie das Medium zur Verbesserung der Kundenkommunikation nutzen. Mittlerweile ist davon auszugehen, dass deutschlandweit jedes Unternehmen über einen Internet-Zugang verfügt und die E-Mail als Kommunikationsmittel nutzt. Die E-Mail ist somit fest im Marketing verankert. Dabei durchläuft der Prozess des E- Mail-Marketings einen Kreislauf mit einzelnen Elementen, die schließlich zu einem erfolgreichen Einsatz eines Newsletters führen sollen. Trotz allem gibt es eine Viel- zahl an Unternehmen, die bis heute nicht mit dem E-Mail-Marketing vertraut sind. Die Möglichkeiten und Chancen durch den Einsatz dieses wirkungsvollen Marke- tinginstruments werden demnach außer Acht gelassen. In der vorliegenden Arbeit werden unter anderem die wichtigsten Vorteile aufgezeigt, die sich durch den Einsatz eines Newsletters ergeben. Besonders klein- und mittelständische Unternehmen ha- ben oftmals weder die Zeit noch die Möglichkeit sich mit den Herausforderungen und praktischen Fragestellungen auseinanderzusetzen. Für die erfolgreiche Implementie- rung ist nicht nur eine systematische Arbeit mit vielen verschiedenen Teilaspekten notwendig, sondern auch die Berücksichtigung der Anforderungen, insbesondere der rechtlichen Grundlagen. Wer sich also auf unbekanntes Terrain begibt, sollte sich gründlich informieren und absichern.
Die vorliegende Arbeit stellt einen übersichtlichen Leitfaden, der als Hilfestellung für den Einsatz von Newslettern dient. Dabei werden unterschiedliche Verfahren und Maßnahmen zur Generierung von E-Mail-Adressen dargestellt, damit ein sauberer Datenbestand garantiert werden kann. Außerdem wird auf typische Fehlerquellen eingegangen, die vermieden werden können. Es werden die Anforderungen detailliert aufgestellt und dienen als Richtlinie.
Des Weiteren befasst sich die vorliegende Arbeit mit der Entwicklung von alternati- ven Lösungsansätzen unter Berücksichtigung von Annahmen für den Versand eines Newsletters. Die Zielsetzung resultiert aus der Fragestellung, warum der Versand von Newslettern stärker gesetzlichen Auflagen obliegt als der Briefkastenwerbung. Betrachtet man die Daten des statistischen Bundesamtes stammen unerwünschte Newsletter nicht aus Deutschland, sondern aus Ländern, die in diesem Bereich deut- lich weniger gesetzlich geregelt sind.
Aufgrund der steigenden Komplexität der Projekte und einem hohen Wettbewerbsdruck stellt die Kostenschätzung der fixen Investition, bereits in frühen Projektphasen, einen wichtigen Teil der Vorprojektierung dar. Wachsende Kosten und enormer Zeitdruck führten zu der Überlegung, auf Grundlage von Musteranlagen, bestehende Kostenschätzmethoden zu überprüfen und weiterzuentwickeln. Ferner ist das Ziel dieser Musteranlage, eine geeignete Kostenstruktur, die typisch für ihren Anlagentyp steht hervorzubringen, um das Kostenverhältnis weiterer Anlagen miteinander vergleichen zu können. Im Rahmen dieser Arbeit wird eine Musteranlage eines typischen Fluid-Prozesses abgeleitet und anhand geeigneter Kostenschätzmethoden überprüft. Ferner wird die Musteranlage, aufgrund ihrer Hauptausrüstungsgegenstände und ihren prozentualen Anteilen auf die Gesamtanlagenkomponenten, auf mögliche Kostenstrukturen hin untersucht. Als Musterprozess wird die Synthese von Ethylenglykol aus Ethen und Sauerstoff, als ein typisch chemisches Massenprodukt einer durchschnittlichen Chemieanlage, vorgeschlagen. Mit Hilfe des Programms Chemcad wird dieser Prozess simuliert und die einzelnen Anlagenkomponenten werden mit Hilfe von Erfahrungsregeln und Literaturwerten dimensioniert. Für die Umsetzung dieser Vorgehensweise wurde eine intensive Literaturrecherche über die üblichen Verfahrensweisen durchgeführt. Im Anschluss ein Grundfließschema erstellt aus dem ein vereinfachtes Fließbild abgeleitet wurde. Neben der Simulation mit dem Programm Chemcad erfolgte eine Auflistung aller am Prozess beteiligten Anlagenkomponenten in Form einer Equipment-Liste, die neben den Komponentenbezeichnungen auch alle für den Prozess wichtigen technischen Daten beinhaltet. Auf Grundlage dieser Equipment-Liste wurde sodann mit Hilfe geeigneter Kostenquellen wie z.B. dem DACE price booklet eine Kostenermittlung der einzelnen Anlagenkomponenten durchgeführt. Letztlich wurden anhand dieser Werte mögliche Kostenschätzmethoden, welche für einen frühen Zeitpunkt einer Projektphase geeignet sind, überprüft und miteinander verglichen. Abschließend wurde die Kostenstruktur dieser Musteranlage auf die prozentualen Anzahl- und Kostenverhältnisse, in Bezug auf die einzelnen Komponentengruppen, entwickelt und dargestellt.
Aufgrund der hervorgebrachten Kostenstruktur konnte festgestellt werden, dass die in dieser Arbeit abgeleitete Musteranlage typische Merkmale einer Fluid-Anlage aufweist und demnach für den Zweck ihrer Entwicklung genutzt werden kann. Die wesentlichsten Merkmale sind die hohen Kosten der Kolonnen und deren relativ kleinem Anzahlverhältnis im Vergleich zur hohen Anzahl an Pumpen und ihrem sehr kleinen Kostenverhältnis. Ferner konnte festgehalten werden, dass die Kostenschätzung für die frühe Projektphase eine hohe Ungenauigkeit ergab. Des Weiteren hat der Vergleich der Schätzmethoden ergeben, dass die Methode mittels der Hand-Faktoren ein genaueres Ergebnis lieferte. Aufgrund der Feststellung, dass spezifische Einflüsse wie Material, Instrumente und Gebäudekosten einen erheblichen Einflusses auf die Kosten der einzelnen Anlagenkomponenten aufzeigten, wird vorgeschlagen weitere Korrekturfaktoren in der Kostenschätzung zu berücksichtigen. Zum Zwecke der Weiterentwicklung von Kostenschätzmethoden wird ferner vorgeschlagen weitere Musteranlagen des Typs: gemischte Feststoff-Fluid-Anlage und eine reine Feststoffanlage, abzuleiten.
State of the art browser games are increasingly complex pieces of software with extensive code basis. With increasing complexity, a software becomes harder to maintain. Automated regression testing can simplify these maintenance processes and thereby enable developers as well as testers to spend their workforce more efficiently.
This thesis addresses the utilization of automated tests in web applications. As a use case test automation is applied to an online-based strategy game for the browser. The introduction presents the general conditions for a software project that makes use of automated tests and different approaches of test automation. The main section introduces a specific solution of test automation applied on the game “Forge of Empires”, produced by Innogames GmbH. The created framework of the company is presented. It implements different software frameworks. The conclusion consists of a comparison and analysis about the presented methods and technologies.
Die Bachelorarbeit befasst sich mit der Verwendung der NoSQL Datenbank Apache Cassandra. Dabei werden auf der einen Seite die Unterschiede bei Verwendung und Betrieb von Apache Cassandra im Vergleich mit relationalen SQL Datenbanken und auf der anderen Seite die Aspekte Geschwindigkeit, Ausfallsicherheit und Wiederverwendbarkeit untersucht. Die Verwendung und der Betrieb wird dabei durch die Umsetzung eines Datenimports, damit verbunden ist die Erstellung von entsprechenden Datenmodellen, und der Bereitstellung der Daten für die Darstellung von mobilen Statistiken in Form einer Android App untersucht. Für die Untersuchung der Geschwindigkeit, Ausfallsicherheit und Wiederverwendbarkeit werden zusätzlich zu den durch bereits durch die Umsetzung erhaltenen Ergebnissen noch an den jeweiligen Aspekt angepasste Belastungstest durchgeführt.
Das Ziel der vorliegenden Bachelorarbeit war es, das In-Memory-Konzept innerhalb einer Oracle Datenbank auf neue Mechanismen, Funktionen und Methoden zu untersuchen. Dazu wurde eine Datenbank erstellt und mit Beispieldaten bestückt. Diese Beispieldaten sind Aktienwerte der DAX-30 Unternehmen, welche durch eine Reihe von Indikatoren aus der technischen Analyse eine komplexe Möglichkeit der Analyse bieten. Die Ergebnisse bestätigen, dass das In-Memory-Konzept neben dem bekannten Spaltenformat eine Reihe von Techniken und Funktionen bietet, welche sich positiv bei der Verarbeitung von Daten durch Data Query Language-Befehle auswirken. Es kommen auch Nachteile, wie der flüchtige Speicher zum Vorschein, dennoch überwiegen die Vorteile stark. Nach einer Reihe von Tests wird deutlich, dass Objekte, die in den In-Memory-Column-Store geladen werden, nur 30 % der Zeit benötigen, um gelesen zu werden. Dies ist für die Verarbeitung von großen und komplexen Daten eine deutliche Verbesserung. Die Bachelorarbeit richtet sich an Studierende der Fachbereiche Informatik und BWL sowie an Interessierte im Bereich Datenbanken.
Der digitale Schwarzmarkt mit gestohlenen Daten floriert. Alleine im Jahr 2015 wurden über eine halbe Milliarde Datensätze aus Datenbanksystemen entwendet. Viele Unternehmen bemerken den Sicherheitsvorfall selbst nicht oder geben aus Angst vor einem Imageschaden den Vorfall nicht bekannt. Sind die Datenbestände nicht durch effektive Sicherheitsmechanismen vor Datendiebstahl geschützt, können Cyberkriminelle leicht aus den gestohlenen Daten Kapital schlagen. Die Softwarehersteller von Datenbanksystemen bieten für ihre Produkte unterschiedliche Schutzvorkehrungen an. Ziel dieser Ausarbeitung ist es, die Bedrohungen und die Sicherheitsrisiken von Datenbanksystemen aufzuzeigen und daraus die Aspekte der Datenbanksicherheit abzuleiten. Die ausgearbeiteten Sicherheitsaspekte bilden die Grundlage für den Vergleich der Datenbanksicherheit von relationalen Datenbanklösungen. Die anschließende Bewertung dient dem Nachweis und der Überprüfbarkeit der Datenbanksicherheit relationaler Datenbanksysteme.
Der erste Teil dieser Arbeit gibt einen Überblick über die Themenfelder der modellgetriebenen Softwareentwicklung und der objektrelationalen Abbildung. Durch eine Kombination dieser beiden Themen wird schließlich der Begriff der modellgetriebenen O/R-Mapping-Frameworks definiert und näher erläutert. Im zweiten Teil bestätigt ein Vergleich von drei dieser Frameworks (Bold for Delphi, MDriven sowie Texo mit EclipseLink) die Vor- und Nachteile des modellgetriebenen Ansatzes auch in Bezug auf die Persistenz. Der Vergleich macht außerdem deutlich, was aktuell in der Praxis möglich ist (und was nicht) und in welchem Umfang Standards genutzt werden (insbesondere MDA und UML). Daneben werden auch die Schwächen in diesem Bereich aufgezeigt. Abschließend gibt es eine kurze Bewertung der Frameworks, auch im Hinblick auf mögliche Anwendungsszenarien.
Die Dokumentation und Untersuchung von Massenbewegungen ist der entscheidende Schritt, um die Gefahr, die von ihnen ausgeht, zu identifizieren und im nächsten Schritt zu minimieren. Vor allem in Bergregionen kann dies im Extremfall Menschenleben retten.
Folglich untersucht diese Arbeit auf Grund bestehender Gefahr die räumliche Verteilung von Massenbewegungen in den drei iranischen Provinzen Alborz, Qazvin und Teheran.
In Anbetracht der immer weiter wachsenden Städte im erdbeben- und somit massenbewegungsgefährdeten Elbursgebirge wird mittels zweier quantitativer Analysen der isolierte Einfluss von straßen- und schienengebundener Verkehrsinfrastruktur auf Massenbewegungen (in den drei Provinzen) untersucht.
Beide Analysen vergleichen ausschließlich die lokale Häufung von Massenbewegungen mit dem vorhandenen Straßen- und Schienennetz: in der ersten Analyse durch das Vergleichen stattgefundener Massenbewegungen innerhalb von Teilgebieten des untersuchten Gebiets, in der zweiten Analyse werden die Häufungen in verschiedenen Abständen zu Straßen erfasst.
Anknüpfend an die zweite Analyse wird eine Bewertung der Häufigkeiten getätigt.
Es ergeben sich folgende wesentliche Erkenntnisse aus dieser Bachelorarbeit:
• Die Aussagekraft der Analysen kann höchstens so groß sein wie die Richtigkeit, Vollständigkeit und Detailliertheit der zur Verfügung gestellten Datenbanken
• Die verhältnismäßig große Fläche des Untersuchungsgebietes stellt eine hohe Fehlerquelle dar (z.B. durch das große Datenvolumen)
• Eine Anfälligkeitsanalyse auf Grund eines isoliert betrachteten Auslösefaktors ist mit vielen Fehlern und Annahmen behaftet (z.B. muss zunächst einmal angenommen werden, dass Massenbewegungen nicht durch andere Faktoren ausgelöst werden)
• Eine erhöhte Anfälligkeit des Untersuchungsgebietes gegenüber Massenbewegungen innerhalb von 50 m Abstand zu Straßen konnte durch die in dieser Arbeit beschriebenen „Straßenpufferanalyse“ nachgewiesen werden.
Die Analysen sind mit dem Programm ArcGIS durchgeführt. Ihre detaillierte Beschreibung ermöglicht es dem Leser, die Analysen weiterzuführen oder mit anderen Parametern zu wiederholen. Weiterführende Analysen beispielsweise in Form einer Risikokarte verhelfen den Menschen, Sachgüter und die Umwelt z.B. durch nachhaltige Bebauungspläne zu schützen.
An empirical evaluation of using the Swift language as the underlying technology of RESTful APIs
(2016)
The purpose of the current thesis is to determine the appropriateness of using the Swift language as the underlying technology for the development of RESTful APIs in a Linux environment. The current paper describes the process of designing, implementing and testing individual RESTful API components based on Node.js, PHP, Python and Swift and seeks to determine whether Swift is a viable alternative.
The thesis begins by defining a methodology for implementing and testing individual RESTful API components based on Node.js, PHP, Python and Swift. It then proceeds to detail the implementation and testing processes, following with an analytic discussion regarding the advantages and drawbacks of using the Swift language as the underlying technology for RESTful APIs and server-side Linux-based applications in general.
Based on the implementation process and on the results of the previously mentioned evaluation phase, it can be stated that the Swift language is not yet ready to be used in a production environment. However, its rapid evolution and potential for surpassing its competitors in the foreseeable future make it an ideal candidate for implementing RESTful APIs to be used in development environments.
Als Teil des wohlfahrtsstaatlichen Arrangements steht Soziale Arbeit im Zuge des Umbaus des Sozialstaats, der Ökonomisierung des Sozialen und der umfassenden Ausbreitung neoliberaler Rationalität zum einen vor veränderten Herausforderungen und zum anderen unter einem stetig steigenden Legitimationsdruck. Macht- und herrschaftskritische Auseinandersetzungen, in der die gegenwärtigen Machtbeziehungen und aktuellen Regierungs-weisen der Politik im Kontext der Sozialen Arbeit kritisch hinterfragt werden, werden in der aktuellen neosozialen Programmatik besonders relevant. Insbesondere Michel Foucaults Machtanalytik und sein Konzept der Gouvernementalität weisen für eine solche Analyse großes Potenzial auf. Neben der konkreten Auseinandersetzung mit Foucaults „Werkzeugkiste“ - der Beleuchtung Sozialer Arbeit im Kontext der Machtanalytik und dem Gouvernementalitätskonzept - wird in der vorliegenden Arbeit die Frage diskutiert, inwiefern sich neosoziale Regierungsweisen in die Soziale Arbeit einschreiben. Die Arbeit zeigt auf, dass die Soziale Arbeit als Akteurin der gegenwärtigen Macht- und
Herrschaftsverhältnisse zu begreifen ist, die durch die Verschränkung von Selbst- und Fremdführung wirkt. Während bislang ein normativer Bezugspunkt als Ausgangspunkt ihrer Intervention galt, wird dieser gegenwärtig als zunehmend unbestimmbar benannt. Somit verliert die Soziale Arbeit ihren Bezugspunkt und steht dementsprechend vor einem Dilemma. Es wird deutlich, dass es nicht mehr nur eine Befürchtung ist, dass sich eine neosoziale Programmatik in die Soziale Arbeit einschreibt, sondern dass sich in ihre bereits Regierungsweisen zeigen, die an Aktivierungsprogram-matiken, die ein unternehmerisches Selbst anrufen, anknüpfen.
Diese Bachelorarbeit "CloudRun - Analyse und Erweiterung" von Andreas Pahlen behandelt die Analyse der Software "CloudRun" sowie dessen Einbindung in eine Programmiersprache am Beispiel von Python.
Ziel der Analyse ist Herauszufinden, ob und in welchem Maße sich CloudRun für den produktiven Einsatz eignet, bzw. welche Änderungen nötig sind um einen sicheren und effizienten Einsatz zu ermöglichen.
Die Einbindung CloudRuns in die Programmiersprache Python dient als Beispielund Referenz zur Erstellung weiterer Frameworks und ermöglicht zugleich den Einsatz eines CloudRun-Servers für produktive Zwecke.
Vor dem Hintergrund öffentlicher Diskurse um die angebliche Rückständigkeit geschlechtlicher Rollenver- ständnisse bei männlichen Migranten zeigt die vorliegende Arbeit, dass soziale Ungleichheit und nicht etwa die Kultur als wesentliche Einflussgröße bei aggressiv-maskulinem oder frauenabwertendem Verhalten in Erscheinung tritt. Eben solche Handlungsmodi der subjektiven Lebensbewältigung können durch die offene Kinder- und Jugendarbeit mit ihrem non-formalen Bildungsauftrag professionell bearbeitet werden.
Das hier vertretene Professionalitätsverständnis macht Reflexionen geschlechtlich konnotierter Eigenschaften, Verhaltensweisen und Angebote nötig, um geschlechter-stereotype Reproduktionen zu vermeiden, aber gleichzeitig der lebensweltlichen Bedeutung des Geschlechts für Jugendliche gerecht zu werden. Zudem wird hier das Thema Interkulturalität in der Sozialen Arbeit als mögliche Gefahrenquelle homogenisierender kultureller Zuschreibungen problematisiert, die soziale Ungleichheit verdeckt. Die eigentliche Heterogenität der Migrantinnen und Migranten wird dabei als vorwiegend mit niedriger Statusplatzierung einhergehend aufgeschlüsselt. Im empirischen Teil wird der professionelle Umgang der Praxis mit dem Phänomen männlich konnotierter Lebensbewältigung bei Migranten untersucht. Die Daten qualitativer Interviews mit Fachkräften der offenen Kinder- und Jugendarbeit werden dabei mithilfe der Grounded Theory zu Kategorien fachlicher Bearbeitungs-weisen ausgewertet, um so zu verallgemeinerten theoretischen Aussagen über die offene Kinder- und Jugendarbeit insgesamt zu gelangen. Jugendarbeit wird hier vor allem als arrangierter Möglichkeitsraum für Jugendliche diskutiert, der normative Grenzen hat und bei deren Übertretung die Praxis intervenierend agiert.
Vergleich von verteilten Datenbanksystemen hinsichtlich ihrer Clusterbildung und Skalierbarkeit
(2017)
Die vorliegende Ausarbeitung geht der Frage nach, wie sich die Datenbankmanagementsysteme MariaDB, MongoDB und Cassandra hinsichtlich ihres Clusteraufbaus,
sowie den damit verbundenen Möglichkeiten der Skalierbarkeit unterscheiden. Dazu werden zunächst Grundlagen zum Aufbau von verteilten Datenbanksystemen, zu den verschiedenen Transaktionskonzepten, sowie zu den möglicherweise auftretenden Probleme vermittelt. Anschließend werden die drei Systeme im Detail untersucht und herausgearbeitet, wie sie genau funktionieren und in welchen Punkten sie sich von einander unterscheiden. Als Abschluss wird ein Fazit gezogen, welches System in verteilten Computerumgebungen
am geeignetsten ist, insofern ein klarer Sieger hervorgeht.
Frühe Hilfen sind ein wichtiger Bestandteil für die flächendeckende Prävention im Kinderschutz sowie im Gesundheitswesen. Das Unterstützungssystem der Frühen Hilfen ist bundesweit
sowohl regional als auch überregional organisiert. Die Zielgruppe der Frühen Hilfen
sind vornehmlich (werdende) Eltern mit Kindern zwischen null und drei Jahren.
Frühe Hilfen müssen sich in der Praxis immer wieder mit Fragen der Niedrigschwelligkeit,
des Schutzauftrages und des staatlichen Wächteramtes auseinandersetzen und sich hierzu positionieren. Sie bewegen sich in einem Präventionskontext, der von neoliberalen und
anderen normativen Ordnungsprinzipien geprägt ist. Diese Ordnungsprinzipien wirken auf die Spannungsfelder von Förderung und Prävention auf der einen sowie Hilfe und Kontrolle auf der anderen Seite. Der Anspruch, dass Frühe Hilfen für alle Familien erreichbar sein sollen, wird mit dem Auftrag gekoppelt, ein besonderes Augenmerk auf Familien zu richten,
die sich in Problemlagen befinden. Hier werden bereits die Ambivalenzen der Frühen Hilfen erkennbar. Die vorliegende Arbeit
analysiert den präventiven Auftrag der Frühen Hilfen, indem sie sich u.a. kritisch mit der Regulierungsfunktion des Sozialstaates auseinandersetzt und die Tendenzen von „Re-
Familisierung“ und „De-Familisierung“, das „In-die-Verantwortung-Nehmen“ und den „Verantwortungsentzug“
von Familien, betrachtet. Darüber hinaus prüft die Arbeit, ob dem Präventionsgedanken
der Frühen Hilfen das Anliegen der Erhaltung und Förderung von Humankapital zugrunde liegt und ob es möglich ist, Frühe Hilfen losgelöst von Kinderschutz zu betrachten. Des Weiteren ist das Erkenntnisinteresse dieser Arbeit herauszufinden, ob
eine Vermischung der Angebote der Frühen Hilfen und der Angebote der Hilfen zur Erziehung stattfindet.
Unsere heutige Gesellschaft und Wirtschaft sind geprägt von ständiger Veränderung. Ein besonderer Wandel findet vor allem in der Arbeitswelt statt. Es herrscht ein erhöhtes Bedürfnis nach Selbstverwirklichung. Gleichzeitig müssen sich die Unternehmen immer schneller an die sich verändernden Prozesse der zunehmend global ausgerichteten Wirtschaft anpassen. Daraus ergeben sich Flexibilisierungsprozesse, die in der Entstehung neuartiger Berufe, Beschäftigungsmodelle und neuen Formen der Zusammenarbeit resultieren. Ein Phänomen, das sich dabei herausgebildet hat, ist das des „Coworking“ und der „Coworking Spaces“. Ein relativ neues Arbeitssystem, das es Wissensarbeiter ermöglicht, weitgehend voneinander unabhängig und trotzdem gemeinsam an einem institutionalisierten Ort zu arbeiten. Mittlerweile hat sich dieses Modell zu einer globalen Bewegung formiert. Dadurch bildet der Aspekt der internationalen Vernetzung der Coworking Spaces und deren Nutzern den Schwerpunkt dieser Arbeit. Der internationale Gesichtspunkt ist aus verschiedenen Gründen von besonderem Interesse. Zum einen befinden wir uns gegenwärtig durch die fortschreitende Globalisierung und die hohe technologische Entwicklung in einer Welt, die auf fast allen Ebenen miteinander verknüpft ist. Zum anderen ist das Thema Netzwerken ebenfalls ein wichtiger Grundwert des Coworking-Konzepts. Somit befasst sich die vorliegende Arbeit mit der folgenden Fragestellung: Inwiefern besteht unter Coworking Spaces und deren Nutzern Interesse an der internationalen Vernetzung und welche Möglichkeiten wurden dahingehend im Zuge der globalen Coworking-Bewegung entwickelt?
Schlüsselsituationen Sozialer Arbeit - Ein neuer Ansatz zur Relationierung von Theorie und Praxis?
(2017)
Von professionell Tätigen in der Sozialen Arbeit wird in der beruflichen, komplexen Praxis erwartet, allgemeine Wissensbestände auf konkrete Situationen beziehen zu können. Theorie und Praxis bereits im Verlauf des Studiums miteinander in Verbindung zu bringen, kann jedoch eine Herausforderung darstellen. Ein Teilaspekt der forschungsleitenden Fragestellung dieser Bachelorarbeit beschäftigt sich zunächst mit der Frage nach dem Beitrag des Bachelorstudiums zur (Heraus-)Bildung eines professionellen Habitus. Eine literaturbasierte Auseinandersetzung mit der Thematik zeigt, ein Studium – mit seinen Lernarrangements und speziell die praktische Studienphase – kann Beiträge leisten, die jene (Heraus-)Bildung unterstützt. Auch das Diskurs- und Reflexionsmodell der „Schlüsselsituationen Sozialer Arbeit“ setzt sich dieses Ziel und strebt die Förderung der Professionalisierung Studierender sowie der gesamten Sozialen Arbeit an. Die „Schlüsselsituationen Sozialer Arbeit“ werden an der TH Köln seit dem Sommersemester 2014 als didaktisches Konzept zur Theorie-Praxis-Relationierung in der theoretischen Begleitung der Studierenden in der Praxisphase herangezogen. Der zweite Teilaspekt der forschungsleitenden Fragestellung wendet sich den Studierenden zu, die mit dem Diskurs- und Reflexionsmodell Erfahrungen machen konnten. In Anlehnung an die Dokumentarische Evaluationsforschung erfolgen drei Gruppendiskussionen mit Studierenden der Sozialen Arbeit im Bachelorstudium, die mit der Dokumentarischen Methode ausgewertet werden. Detaillierter interpretiert werden Passagen, in denen sich Unsicherheiten und Ungewissheiten bei der Arbeit mit dem Reflexionsmodell zeigen und darauf aufbauend handlungsleitende Orientierungen herausgearbeitet.
Aus Filmen wie „Star Trek“ kennen wir „Beamen“. Dort werden komplette Personen durch Beamen auf z.B. Planeten transportiert. Dies hört sich im ersten Moment sehr nach Science-Fiction an, allerdings ist das Beamen von Informationen seit ein paar Jahren sehr real geworden.
Nach einem Grundverständnis für herkömmliche Datenübertragungen wird die Quantenphysik vorgestellt mit ihren grundlegendsten Begriffen. Anschließend wird nun die Quantenteleportation vorgestellt. Einleitend dazu wird zuerst die Quantenverschränkung erklärt, auf der die Teleportation beruht. Es wird erklärt, wie solche Verschränkungen entstehen, um dann den Aufbau einer Teleportation mit den aktuellen Fortschritten vorzustellen sowie Ziele der Quantenteleportation zu beschrieben. Mit deren Hilfe werden Quantencomputern unterstützt.
Im Rahmen dieser Bachelorarbeit an der Technischen Hochschule Köln, deren Bearbeitungszeit vom 20.1.2017 bis 24.3.2017 ist, wird durch ein technisches Experiment geprüft, ob diverse Technologien zur 3D-Erfassung und Rekonstruktion geeignet sind Gebäudeinnenräume so zu erkunden, dass die Gefahrenabwehr dadurch einen höheren Nutzen hat, als es bei einer persönlichen oder autonomen Videoerkundung der Fall ist. Dies soll vor allem dann helfen, wenn Gebäude nicht mehr betreten werden sollten, wie es beispielsweise der Fall ist, wenn das Gebäude durch Erdbebenschäden einsturzgefährdet oder mit Gasen kontaminiert ist. 3D-Modelle einer Umgebung haben u.a. den Vorteil, dass problemlos neue Blickwinkel eingenommen, Maße ermittelt und Planungen für Rettungseinsätze oder Evakuierungen effizienter durchgeführt werden können, ohne Bildmaterial aufwendig zu sichten. Zudem können die Ergebnisse für spätere Evaluationen und Trainings genutzt werden. Um diese Geeignetheit festzustellen werden Beurteilungskriterien erarbeitet, die ein potentielles System erfüllen muss. Diese Kriterien sind: Günstig in der Beschaffung, Zeit bis zu einer 3D-Darstellung, leichte Bedienbarkeit, Qualität bzw. Informationsgewinnung aus der Darstellung (Erkennung von Zugängen und Personen), Lieferung von Zusatzinformationen (beispielsweise Maßangaben) und ob das System Online oder Offline funktionsfähig ist. Um diese Kriterien beurteilen zu können, werden Systeme der drei Haupttechnologien in der 3D-Erfassung (Laserscanner GeoSLAM ZEB-REVO, RGB-D-Kamera Microsoft Kinect und FARO Freestyle3D, Fotogrammetrie mit der Software Agisoft PhotoScan) in einem Versuch überprüft. Dabei wird das Labor für Großschadensereignisse der Technischen Hochschule Köln, der angrenzende Flur und das angrenzende Treppenhaus gescannt bzw. erfasst und rekonstruiert, wobei die nötigen Daten ermittelt werden. Dabei stellt sich heraus, dass der FARO Freestyle3D mit seiner RGB-D-Technologie und der Software FARO Scene als einziges System alle Kriterien erfüllt und somit für den Zweck der Erkundung in diesem Kontext geeignet ist. Der Microsoft Kinect Sensor mit der Software FARO Scene hat, durch Fehler in der Rekonstruktion, Schwächen in der Darstellungsqualität. Dies gilt auch für die Kombination aus GeoS-LAM ZEB-REVO/CloudCompare, da hiermit kein Farbscan erstellt werden kann und somit eine Erkennung von Objekten (z.B. geschlossene Türen) erschwert wird. Die Fotogrammetrie dauert mit einer Berechnungsdauer von ca. 38 Stunden zu lange, um in Notfallsituationen einen Nutzen zu bieten und liefert außerdem falsche Maßangaben.
Nicht näher betrachtet wird in dieser Arbeit die (autonome) Erkundung durch Roboter oder Drohnen, die die Geräte transportieren können, Strom- und Datenübertragungsproblematiken, andere ergänzende Sensortechniken und die Erkundung in dunkler Umgebung.
Zielsetzung dieser Abschlussarbeit ist die Eignungsprüfung nichtrelationaler Datenbanksysteme für die Erstellung einer leichtathletischen Mehrkampfdatenbank. Sie ist in fünf Kapitel aufgeteilt.
Im ersten Kapitel wird einleitend auf die Entstehung dieser Arbeit und des zugrundeliegenden Projekts eingegangen.
Im zweiten Kapitel werden die vier großen Hauptgruppen nichtrelationaler Datenbanksysteme grob auf ihre generelle Eignung für die Verwendung und Umsetzung der Mehrkampfdatenbank anhand gegebener Anforderungen bewertet und aussortiert.
Im dritten Kapitel werden die verbliebenen Hauptgruppen eingehender betrachtet und das am besten geeignet erscheinende Gruppe für eine weitergehende Betrachtung ausgewählt.
Im vierten Kapitel werden mögliche Kandidaten aus der im vorherigen Kapitel bestimmten Hauptgruppe für die tatsächliche Umsetzung bewertet. Abschließend wird ein Kandidat für die Umsetzung der Mehrkampfdatenbank bestimmt.
Im fünften Kapitel wird ein Vergleich mit einer relationalen Umsetzung der Mehrkampfdatenbank gezogen, dabei werden verschiedene Datenbankanfragen auf unterschiedlichen Datenmengen
verglichen. Außerdem einzelne Verfahrensweisen zur Abwicklung von Anfragen betrachtet.
In einem abschließenden Fazit werden die Ergebnisse und Erkenntnisse der Arbeit nochmals kurz zusammengefasst.
In den Jahren 2015 und 2016 ist im Zuge des starken Anstieges der Flüchtlingszahlen eine Debatte über digitale Medien im Zusammenhang mit Menschen auf und nach der Flucht entstanden. Hinweise darauf sind der „Digitale Flüchtlingsgipfel“, der im Jahr 2016 vom Bundesinnenministerium veranstaltet wurde, oder die Studie „Internet ist gleich mit Essen“ von Nadia Kutscher und Lisa-Marie Kreß.
Innerhalb der vorliegenden explorativen Forschungsarbeit werden aus einer sozialarbeitswissenschaftlichen Perspektive Apps als digitale Medien, die beim Integrationsprozess
von geflüchteten Menschen in Deutschland unterstützen sollen, auf einer inhaltlichen und technisch-funktionalen Ebene analysiert. Mit einer eigens entwickelten Erhebungsmethode werden die Inhalte der Apps mithilfe eines Analyserasters ausgewertet. Als Grundlage für
die Analyse dient das soziologische Modell "Integration als Sozialintegration“ von Friedrich Heckmann. Die fünf Apps „Ankommen“, „Integreat“, „Moin Refugee“, „Welcome App Germany“ und „Welcome to NRW“ wurden aufgrund der vertretenen geografischen Bereiche sowie des Spektrums der Initiatoren aus staatlichen Institutionen, „Willkommensinitiativen“
und Institutionen der Sozialen Arbeit ausgewählt.
Die Forschungsarbeit richtet ihren Blick auf die Inhalte der Apps und deren Gewichtung in Bezug auf die Integrationsdimensionen. Daraus werden Hypothesen entwickelt, wie durch
Inhalte der Apps Mechanismen entstehen, die die Integrationsprozesse zwischen Lenkung und Selbstermächtigung beeinflussen. Dabei wird kritisch reflektiert, inwieweit die Themen
der konstruierten und heterogenen Zielgruppe der geflüchteten Menschen aufgegriffen werden. Aufbauend auf den Untersuchungsergebnissen werden Schlussfolgerungen gezogen, wie Apps zu zielgruppenübergreifenden, digitalen Informationsangeboten für Leistungen und Träger der Sozialen Arbeit weiterentwickelt werden können.
Die vorliegende Bachelorarbeit in Kooperation mit der Deutsche Sporthochschule Köln hat die Konzeption und Entwicklung eine Software, mit der Daten aus der Fußball-Bundeliga 2011–2012 mit Hilfe einer Heatmap erzeugt werden, zum Inhalt. Die Software soll die Torpositionen vor einem Offensivspiel zu verschiedenen Zeitpunkten des Spieles veranschaulichen.
Bei der Arbeit wurden zwei Cluster-Methoden betrachtet, nämlich die Density-Based Spatial Clustering of Applications with Noise (DBSCAN) und der Kerndichtschätzer (kernel density estimation). DBSCAN ist ein bekannter Cluster-Algorithmus und wurde mit dem Software-Tool WEKA untersucht. Es zeigte sich, dass dieses Verfahren nicht so gut für diese Aufgabenstellung geeignet ist, da einzelnen Cluster nicht so gut unterschieden werden konnten. Der Kerndichtschätzer ist dagegen ein statistisches Verfahren zur Schätzung einer Dichte, der auch in Geoinformationssystemen verwendet wird. Dieses Verfahren ist besser für die Aufgabenstellung geeignet.
Nach der Analyse der Daten im XML-Format wurde der Algorithmus Kerndichtschätzer für die Deutsche Sporthochschule Köln in detr Programmiersprache Java implementiert. Die Software untersucht die Bildung von Clustern bzw. die Torschussdichte mit der Absicht, ein Verhalten oder Muster vor einem Offensivspiel zu erkennen. Sie enthält eine sehr gute Visulisierung der verschiedenen Situationen, die zum Torschuss führten, anhand eines Fußballfeldes
Text-Mining auf Basis von SAP HANA am Beispiel von Social-Media-Beiträgen eines Handelsunternehmens
(2018)
Die wesentlichen Hauptthemen, die in der vorliegenden Arbeit miteinander in Zusammenhang stehen, sind die Anwendung von Verfahren im Text-Mining und die IMDB, HANA, des europäischen Softwareherstellers SAP. Hierbei soll die HANA-Technologieplattform als Basis verwendet werden, um ein Text-Mining-Anwendungsfall zu bearbeiten, die die Analyse von Social-Media-Beiträgen vorsieht.
Ziel dieser Arbeit ist die Entwicklung eines Leitfadens für die Anpassung von Webseiten und unternehmensinternen Prozessen an die Vorgaben der neuen Datenschutz-Grund-verordnung. Die Zielgruppen dieses Leitfadens sind in erster Linie Einzelpersonen und Kleinunternehmen, die keine eigene Rechtsabteilung oder Arbeitsgemeinschaften ha-ben, die sich mit der Umsetzung der Datenschutz-Grundverordnung befassen können. Die erarbeiteten Erkenntnisse sind jedoch auch für mittelständische Unternehmen, Ver-eine und gemeinnützige Institutionen interessant.
Nach einer Erläuterung der technischen und rechtlichen Grundlagen, werden die wich-tigsten Neuerungen durch die Verordnung zusammengefasst. Anschließend werden die wesentlichen Probleme der Zielgruppen erläutert, leitfadenartig verschiedene Lösungs-ansätze vorgestellt und ein Fazit zur aktuellen Situation gezogen
Im Rahmen einer wissenssoziologischen Diskursanalyse zum Thema der sexuellen Selbstbestimmung von Menschen mit Lernschwierigkeiten werden Zuschreibungsprozesse und Normalitätskonstruktionen im fachlichen Diskurs der Pädagogik und der Sozialen Arbeit erforscht. Die intersektional angelegte Untersuchung fokussiert dabei das Wechselverhältnis der Konstruktionen von Behinderung, Geschlecht und Sexualität.
Angesichts ihrer nicht unproblematischen Position an der Schnittstelle von Individuum und Gesellschaft
will und muss sich die Soziale Arbeit wesenhaft als eine kritische verorten. Dabei erfolgt ihre Kritik oftmals in Form einer ‚Kritik unter Berufung auf…‘, d.h. mit Bezug auf eine relevante theoretische
Strömung, einen politischen oder gesellschaftlichen Diskurs oder eine konkrete Theorie. So kritisiert die Soziale Arbeit die gegenwärtigen Geschlechterverhältnisse insbesondere unter Berufung
auf die kritisch-dekonstruktivistische (Geschlechter-)Theorie von Judith Butler. Will jene damit
angestrebte Theorieintegration Butlers in den Diskurs und die Praxis Sozialer Arbeit tatsächlich gelingen und nicht lediglich in einer semantisch verkürzten, naiven und unterkomplexen Scheinkritik
resultieren, ist es von unabdingbarer Bedeutung, sämtliche theoretischen Schnittmengen sowie ebenso vorhandene Divergenzen und deren Auflösungsmöglichkeiten zu identifizieren und entsprechend zu bearbeiten.
Dies ist Ziel der folgenden Arbeit: Anhand der jeweils vertretenen Subjekt-, Identitäts- und Anerkennungskonzepte,
die sowohl in der Sozialen Arbeit als auch bei Judith Butler essentielle theoretische Grundpfeiler darstellen, wird Butlers Theorie ausgewählten Ansätzen der Sozialen Arbeit gegenüberstellt und mit jenen zu synthetisieren versucht, um schließlich zu prüfen, ob der Integration ihrer Theorie zu große konzeptuelle Hürden entgegenstehen oder ob sich dies als eine machbare
Herausforderung darstellt. Dass und vor allem wie dies machbar ist, wird anhand von drei zentralen Syntheseversuchen aufgezeigt, die die hierfür notwendigen konzeptuellen ‚Umbauten‘ sowie
die erforderlichen theoretischen Neuformulierungen sukzessive aufarbeiten. Der Sozialen Arbeit wird im Zuge dessen eine aufmerksame und selbstkritische Eigenanalyse abverlangt, welche mit einigen aufwendigen theoriebezogenen Neuausrichtungen und auch Verwerfungen einhergeht, jedoch zur tatsächlichen Behebung der vorhandenen Theorieprobleme ein unverzichtbares Instrument darstellt. Nur auf diese Weise kann sich die Soziale Arbeit von Vorwürfen einer inkonsequenten und unvollständigen Theorieübernahme Butlers lossagen und ihr Attribut
‚kritisch‘ (weiterhin) adäquat verkörpern.
Die vorliegende Bachelorarbeit erforscht, inwiefern sich eine Analyse des Projektes BibChatDe, eines bibliothekarischen Twitterchats, und der im Zuge dessen diskutierten Themen als Grundlage für die Konzeption bibliothekarischer Weiterbildung eignet. Nach einer Beschreibung der Funktionen von Twitter und der Eigenschaften von Twitterchats wird durch eine Analyse der Beteiligung festgestellt, dass das Projekt BibChatDe nach einem Jahr Laufzeit als Erfolg gewertet werden kann. Hinsichtlich der Nachhaltigkeit besteht Optimierungspotenzial, daher werden Handlungsoptionen zur Verbesserung der Nachhaltigkeit aufgezeigt. Nach Erläuterung der Anforderungen an Weiterbildungsinhalte und - formate werden die diskutierten Themen des BibChatDe anhand eines Kategorienschemas analysiert. Das Ergebnis zeigt, dass eine Themenanalyse nur bedingt Anhaltspunkte für die Konzeption bibliothekarischer Weiterbildung liefert. Auf Grundlage der Themenanalyse zusammen mit den Anforderungen an Weiterbildungsinhalte und -formate werden Konzepte für ein digitales Fortbildungsangebot auf Twitter und eine Präsenzveranstaltung erarbeitet.
Am Phänomen der weiblichen Sexarbeit entzünden sich in Deutschland immer wieder heftige Debatten, welche vor allem Fragen rund um Geschlecht und Sexualität verhandeln. Häufig werden diese Debatten moralisch aufgeladen und unsachlich geführt, was eine differenzierte Einschätzung der Thematik erschwert. In der vorliegenden Arbeit werden die gegenwärtig dominierenden Perspektiven dahingehend analysiert, welche geschlechtertheoretischen Annahmen ihnen zugrunde liegen und welche Leerstellen und Verkürzungen sie jeweils mit sich bringen. Ausgehend von Andrea Maihofers Ansatz, Geschlecht als hegemonialen Diskurs und gesellschaftlich-kulturelle Existenzweise zu begreifen, wird anschließend dargelegt, wie komplex und widersprüchlich sich das Phänomen der weiblichen Sexarbeit im Kontext der bestehenden Geschlechterordnung darstellt und wie schwierig eine eindeutige und abschließende Beurteilung ist.
Cloud Computing hat sich hinsichtlich der Digitalisierung zu einer Basistechnologie entwickelt. Das Marktvolumen der Cloud-Technologie ist in den vergangenen Jahren kontinuierlich gestiegen. Hybride IT-Umgebungen mit Cloud- und On-Premise Anwendungen werden von den Unternehmen zunehmend bevorzugt. Eines der größten Hürden von hybriden Architekturen ist derzeit die Integration von heterogenen Umgebungen, die immer mehr und mehr an Bedeutung gewinnt. Zudem wird mit dem vermehrten Einsatz von Cloud-Services die IT-Infrastruktur der Unternehmen immer komplexer. Mithilfe von hybriden Integrationsplattformen kann diese Herausforderung erfolgreich bewältigt werden. Die vorliegende Ausarbeitung gibt den Unternehmen einen Leitfaden, welche die hybride Integration mithilfe von cloudbasierten Integrationsplattformen meistern können.
Der rasch anwachsenden Verbreitung digitaler Spiele kommt für die Soziale Arbeit eine zunehmende Bedeutung zu. Dabei ist dieses Medium als Ganzes durch tiefgreifende geschlechtsspezifische Disparitäten geprägt: Männlichkeit wird gemäß tradierten Rollenbildern mit Überlegenheit und Dominanz verknüpft; Weiblichkeit auf verschiedene Weisen marginalisiert, auf Stereotype reduziert und ausgegrenzt.
Die vorliegende Arbeit untersucht, wie Mädchen und Frauen als Spielerinnen sowie als Spielcharaktere in Action-, Adventure- und Rollenspielen überwiegend zu Randfiguren degradiert und durch ihre sexualisierte Darstellung als Objekte männlicher Schaulust objektifiziert werden. Dazu werden empirische Daten von Untersuchungen aus dem hiesigen und angloamerikanischen Raum mit den Konzepten des männlichen Habitus nach Bourdieu bzw. der hegemonialen Männlichkeit von Connell sowie der Darstellung von Mulvey zum männlichen Blick verknüpft.
Schließlich werden im Text auch die Phänomene der Ausgrenzung von Spielerinnen bei Multiplayer-Online-Spielen beleuchtet und mit den Ausführungen von Meuser zur kompetitiven Struktur des männlichen Habitus in Verbindung gebracht bzw. erklärt.
Die hier gesammelten Erkenntnisse können als Türöffner für die Arbeit mit Jugendlichen und als Basis für den gendersensiblen Umgang mit dem Thema „Digitale Spiele“ in pädagogischen Zusammenhängen dienen.
Vergleich verschiedener Lernmethoden neuronaler Netze bei der Analyse von „Social Media“ Inhalten
(2018)
The goal of this bachelor thesis was the comparison of different learning methods in neural networks. The methods were applied to detect hate posts on social media plat-forms like twitter. To achieve this, a supervised Recurrent Neural Network and a self-supervised Word2Vec model were implemented. The results of both implementations show the importance of choosing the correct dataset and a learning method generating significant results. The problems of both implementations were identified and formulated into possible solutions to achieve more accurate predictions in future. This thesis is of high interest for students and developers in the area of sentiment analysis.
Die Lebensversicherer in Deutschland als institutionelle Investoren haben eine erhebliche Verantwortung für die Absicherung der Menschen im Alter. Aufgrund des anhaltenden schwierigen Zinsumfeldes stehen sie jedoch unter enormen Druck, ihre Leistungsversprechen langfristig einzuhalten zu können.
Der Gesetzgeber führte daher 2011 die Zinszusatzreserve (ZZR) ein, um im Rahmen der sinkenden Kapitalmarktzinsen eine moderate Form der Nachreservierung zu schaffen.
Als die ZZR eingeführt wurde, war allerdings nicht absehbar, dass sich das Niedrigzinsumfeld auf eine so lange Zeit erstrecken würde, wie es nun der Fall ist.
Die bisherige Systematik der ZZR führte in den letzten Jahren zu einem erheblichen Ausmaß und damit verbunden zu einer enormen Belastung für die Lebensversicherer. Bei einer Beibehaltung des Verfahrens könnte sich die ZZR nach Schätzungen der Assekurata Rating Agentur bis zum Jahr 2025 auf beachtliche 200 Milliarden Euro belaufen. Dies würde bedeuten, dass sich der Gesamtaufwand zur Dotierung der ZZR im Vergleich zum Geschäftsjahr 2017 noch verdreifachen würde.
Daher beschäftigt sich die vorliegende Arbeit mit einer Neukalibrierung der ZZR und einer damit verbundenen völlig neuen Berechnungsmethodik.
Die "Methode 2M", die von der Deutschen Aktuarvereinigung e. V. (DAV) entwickelt wurde, wird als möglicher Lösungsweg zur Entlastung der Lebensversicherer detailliert beschrieben und analysiert. Mithilfe aktuarieller Berechnungen werden dabei insbesondere die quantitativen Auswirkungen der Methode 2M im Hinblick auf verschiedene Zinsszenarien bis zum Jahr 2030 aufgezeigt und eine kritische Beurteilung vorgenommen, ob die neue Berechnungsmethodik den gewünschten Erfolg erzielt.
Visual Inertial SLAM-Algorithmen können in der Augmented Reality für die
Erkennung und das Tracking der Umgebung genutzt werden.
Im Rahmen des Projekts Augmented Reality Campus habe ich das iOS-Open-SourceProjekt VINS-Mobile (Li et al., 2017) auf die Android-Plattform portiert. Den theoretischen Ansatz des zugrundeliegenden Algorithmus stelle ich vor. Im Anschluss an die Dokumentation der Portierung vergleiche ich die beiden Plattformen in mehreren Performance-Untersuchungen. Die Ergebnisse verwende ich, um die Frage zu beantworten, ob die Portierung für den Einsatz im AR Campus-Projekt geeignet ist.
Dabei komme ich zu dem Schluss, dass die Android-Portierung in Funktionsumfang
und Qualität der iOS-Version fast gleichzusetzen ist. Welche Arbeitsschritte bis zur Nutzbarkeit im Projekt AR Campus noch nötig sind, beschreibe ich am Ende der
Arbeit.
Okkulte Weltanschauung als pädagogisches Prinzip. Ein kritischer Blick auf die Waldorfpädagogik.
(2018)
Reformpädaogische Konzepte bieten attraktive Angebote und sprechen viele Eltern an, die nach Alternativen in der breiten Bildungslandschaft suchen. Die Waldorf-Pädagogik hat hier einen besonders prominenten Stellenwert, da neben frühpädagogischen auch schulische Angebote besonders weit verbreitet sind. In der Arbeit wird der Ursprung der Waldorf-Pädagogik und die enge Verbindung mit ihrem Gründer Rudolf Steiner untersucht, um auf die weltanschaulichen Ursprünge des Gedankengutes zu verweisen.
Informatik ist eine männerdominierte Wissenschaft, welches sich an den Männeranteilen sowohl im Studium als auch in der Berufswelt bemerkbar macht. Aus diesen und weiteren Gründen trauen sich viele Frauen nicht in das Gebiet Informatik einzusteigen. Der niedrige Frauenanteil ist eine Lücke für die Wissenschaft. Die Qualifikationen von Frauen werden benötigt, um neue Sichtweisen zu bekommen und andere Arbeitsweisen kreieren zu können. Damit die Frauenquote in der Informatik steigt, müssen die Ursachen analysiert und dagegen entsprechende Maßnahmen getroffen werden. Die vielfältigen Seiten des Gebietes müssen enthüllt und mit anderen Wissenschaften verknüpft werden, so dass Frauen auch eigene Interessen darin finden können.
Das Ziel der vorliegenden Bachelorarbeit war es, Technologietrends von Enterprise-Resource-Planning (ERP) Systemen zu definieren und anhand eines modernen Produktes vorzustellen. Ein ERP-System unterstützt Unternehmen in der Organisation und Durchführung von sämtlichen Geschäftsprozessen. Zur Untersuchung der wünschenswerten Eigenschaften eines ERP-Systems wurden anhand von Literaturarbeit Anforderungen definiert. Dabei wurde deutlich, dass die Verarbeitung von sämtlichen Geschäftsdaten in Echtzeit einen hohen Stellenwert hat. Hierfür bietet das ERP-System S/4HANA mit verschieden Technologien eine Lösung auf dem Datenbanksystem an. So zeigt ein direkter Performancevergleich zwischen den Datenbanksystemen von S/4HANA und einem aktuellen Konkurrenzprodukt, dass das Verarbeiten von großen Datenmengen in kürzester Zeit möglich ist. Diese Arbeit ist an Fachkreise der Wirtschaftsinformatik und Personengruppen mit Interesse an ERP und Datenbanken Systemen gerichtet.
Die Funktionsfähigkeit der öffentlichen Verwaltung ist auch und gerade bei einem Ausfall oder einer Beeinträchtigung Kritischer Infrastrukturen notwendig für die Aufrechterhaltung der Gesellschaft und des Staates. Ausgehend von dieser These wird zwischen Dezember 2018 und Februar 2019 eine Umfrage in den Landkreisen, Städten und Gemeinden des Regierungsbezirks Stuttgart durchgeführt. In ihr wird der Vorbereitungsgrad der öffentlichen Verwaltung hinsichtlich einer Versorgungsmangellage erfasst. Dabei wird ausschließlich die Versorgung des Personals innerhalb der Verwaltungseinrichtung betrachtet. Es wird untersucht, ob Vorsorgemaßnahmen für die Bereiche Trinkwasser, Nahrungsmittel, beheizte und beleuchte Räumlichkeiten, Sanitäranlagen, Ruhe- und Schlafmöglichkeit sowie Bargeld für die Gehälter der Mitarbeitenden getroffen sind. Als Vorsorgemaßnahmen werden generelle Planungen, Vorräte und Rahmenverträge mit Privatunternehmen betrachtet. Die Antworten werden von den Umfrageteilnehmenden hinsichtlich ihrer zeitlichen Auslegung eingeordnet. Zusätzlich werden die Teilnehmenden zu Planungsgrundlagen, Verbesserungspotenzial und einer Einschätzung der eigenen Vorbereitungen befragt. Diese Bachelorarbeit wertet die Umfrageergebnisse aus. Die Antworten zeigen, dass rund die Hälfte der Befragten eine Notstromversorgung besitzt und rund jede fünfte Einrichtung Planungen für die Trinkwasserversorgung der Mitarbeitenden vorhält. Darüber hinaus sind Vorbereitungen zur Versorgung des Personals nur vereinzelt vorhanden. Spezifische Vorräte für einen Ausfall der Versorgungsleistungen sind nur bei wenigen Befragten in geringem Maße vorhanden. Dennoch zeigt sich durch Alltagsvorhaltungen eine Latenzzeit bis zum Funktionsausfall. Rahmenverträge zur redundanten Sicherstellung der Versorgung sind nur selten abgeschlossen. Die Befragten geben an, dass sie für die Bearbeitung der Thematik Bedarf an weiteren Hilfestellungen haben. Die bekannten Schutzniveaus 72 Stunden (Notstromversorgung) und 14 Tage (Notvorräte der Bevölkerung) sind nicht oder nur sehr bedingt auf den Sektor Staat und Verwaltung zu übertragen. In der Auswertung der Ergebnisse werden drei Möglichkeiten identifiziert, um den Vorbereitungsgrad zu optimieren: Die Erhöhung der Vorhaltungen, das Optimieren der Planungen und das Abschließen von Rahmenverträgen. Darüber hinaus sind langfristig und einrichtungsunabhängig die derzeitigen Zuständigkeiten zu prüfen, einheitliche Schutzniveaus zu etablieren sowie eine gesellschaftliche und politische Kommunikationskultur hinsichtlich der Risiken eines Ausfalls oder einer Beeinträchtigung Kritischer Infrastrukturen aufzubauen.
Das Suchen ist eine der, wenn nicht die am häufigsten durchgeführte Tätigkeit im Internet. Täglich werden Suchmaschinen mit Problemen aus aller Welt und aller Domänen befragt, in der Hoffnung, dass das Internet eine Lösung bereitstellt. Neben dem Web der Dokumente, welches überwiegend die großen Suchmaschinenhersteller wie Google und Microsoft durchsuchen, existiert auch das weniger bekannte Web der Daten. In diesem Teil des Internets werden Daten, keine Dokumente, in einem festen Format kodiert.
Dadurch soll die Möglichkeit geschaffen werden, dass nicht nur Menschen, sondern auch Maschinen, diese Daten verarbeiten können. Die Daten enthalten untereinander Verlinkungen, weswegen man auch von Linked Data spricht. Mit der vom W3C standardisierten Abfragesprache SPARQL ist es möglich, diese Daten nach selbst definierten Kriterien abzufragen.
Diese Arbeit befasst sich mit der Entwicklung einer SPARQL Abfrage zur Ermittlung von Sehenswürdigkeiten in Köln. Anhand dieses Anwendungsbeispiels soll beschrieben werden, inwieweit Linked Data in der Lage ist, mit Problemen und Fragestellungen des Alltags umzugehen. Es wird sich zeigen, dass es grundsätzlich möglich ist, derartige Anwendungsszenarien mit Linked Data zu lösen. Ein umfassendes Suchergebnis, welches beispielsweise Reiseführer geben, konnte jedoch nicht erzielt werden. Grund dafür sind hauptsächlich, wie in dieser Arbeit dargelegt wird, inkonsistente Daten. Um diese Beobachtung aufstellen zu können, wurden präzisere Suchkriterien für Sehenswürdigkeiten spezifiziert.Weitere Auffälligkeiten, die während der Entwicklung bemerkt wurden, wurden entsprechend dokumentiert.
Zivile unbemannte Luftfahrtsysteme in der Akutphase internationaler humanitärer Hilfseinsätze
(2019)
Diese Arbeit konstruiert Einsatzbereiche ziviler unbemannter Luftfahrtsysteme in humanitären Hilfseinsätzen unmittelbar nach einer Katastrophe. Die Auswertung der Schnittmenge der technischen Fähigkeitsanalyse mit der – unter Verwendung von Experteninterviews durchgeführten – operativen Bedarfsanalyse des humanitären Sektors stellt die Basis für die Konstruktion der neun Anwendungsbereiche dar. Abschließend werden diese vor einem technischen, rechtlichen sowie ethischen Hintergrund diskutiert und bewertet.
Neben den großen Anbietern digitaler Comics mit elektronischem Kopierschutz (DRM) haben sich auch Anbieter für DRM-freie Comics etabliert. Als Open Source-Alternative zu den Plattformen Ersterer wurde im Rahmen des Praxisprojekts die Software ComicLib als Web-App zur Verwaltung digitaler Comicsammlungen geschaffen. Diese ermöglicht die gemeinsame Verwaltung DRM-geschützter sowie -freier Comics. Letz-tere sind außerdem im Webbrowser lesbar. Die im Rahmen dieser Arbeit entstandene And-roid-App soll eine Open Source-Alternative zu den mobilen Apps der Plattformen der gro-ßen Anbieter sein und ComicLib um eine mobile App zur Offline-Nutzung der Comics erwei-tern. Der erste Prototyp wird im Nachgang des Projekts weiter getestet und verbessert, be-vor die erste stabile Version veröffentlicht wird.
Die vorliegende Arbeit beschäftigt sich im übergeordneten Kontext mit den Bounding Volume Hierarchies zur Veinfachung des Intersection Testings beim Raytracing. Die derzeitige Problematik besteht vor allem in der immer noch zu optimierenden Laufzeit. Dementsprechend wird trotz der bereits bestehenden Beschleunigungsdatenstrukturen wie unter anderem der Bounding Volume Hierarchy versucht, effizientere Strukturen oder Erstellungsprozeduren zu entwickeln. Für die Bounding Volume Hierarchy bedeutet dies, dass vor allem hinsichtlich verschiedener Splitting-Methoden und Möglichkeiten für die Baumoptimierung geforscht wird. Explizit wird daher innerhalb dieser Arbeit untersucht, wie die Bounding Volume Hierarchy durch die Verwendung der Hauptkomponentenanalyse bei der Erstellung optimiert werden kann und wie effizient der daraus resultierende Ansatz gegenüber der klassischen Bounding Volume Hierarchy sowie deren Splitting-Methoden ist. Eine Evaluation anhand 12 verschiedener Szenen zeigte, dass der vorliegende Ansatz unter Verwendung der SAH-Methode wie auch mit der Middle-Methode 17.70% respektive 13.14% geringere Renderlaufzeiten als der distanzbasierte Ansatz aufweist. Des Weiteren konnte mittels der kombinierten Verwendung aus klassischer SAH-Methode und PCA-basierter SAH-Methode eine weitere Verbesserung um 6.65% gegenüber der SAH-Methode der PCA-BVH erreicht werden.
This bachelor thesis addresses the issue of how school resilience can be measured and assessed quantitatively. Schools as social infrastructures have a significant value for society. Yet, on a global scale, they, and therefore the respective community as well, are continuously endangered by a variety of threats such as natural disasters or violence and mental abuse affecting students, parents and school staff. However, these threats differ greatly depending on climatic and geographical conditions as well as on the socio-cultural context of the corresponding community. To strengthen school resilience against potential threats and to ensure education continuity despite the occurrence of these disruptions, a methodology is developed to measure and assess school resilience in conjunction with its specific circumstances. Initially, qualitative and quantitative (composite) indicators are identified and categorised with the help of a Systematic Literature Review and Mayring's Qualitative Content Analysis. These are subsequently developed into a Comprehensive Index for School Resilience (CISR). Building on this, a pre-existing assessment methodology, which uses Likert-Scales arranged in questionnaires to assign quantitative values to the composite indicators, is adapted to operationalise the CISR and by an exemplary application at Europaschule Troisdorf, the methodology is adapted to the socio-cultural conditions in Germany using an expert’s operational and contextual knowledge. The results obtained show that the methodologies and techniques described in current international research can, after an appropriate adaptation, successfully be applied to schools in Germany as well. Nevertheless, by identifying research limitations and errors as well as potential improvements, it is evident that further research and development is needed to provide stakeholders with a decision-making tool to strengthen the resilience of schools in the future, such as an exhaustive supplement to the CISR or the integration of more precise quantification methodologies and techniques.
Die Lebensweltorientierung nach Hans Thiersch stellt wohl eines der geläufigsten Theoriekonzepte im gegen- wärtigen Diskurs der Sozialen Arbeit dar. Mit ihr werden die (primär) bezugswissenschaftlich-entschlüsselten Termini ‚Lebenswelt‘ und ‚Alltag‘ als Orientierungspunkte für die Praxis sowie als Gegenstand für die wissenschaftliche Disziplin Sozialer Arbeit konstatiert; genauer noch: systemintern normativ aufgeladen. Insbe-sondere stützt sich das Theoriekonzept auf gesellschaftskritische Modernisierungserzählungen hinsichtlich spätkapitalistischer Entwicklungslinien und deren Einfluss auf das Individuum, die Gesellschaft und die vermeintlich dazwischenliegende Soziale Arbeit. Die angestrebte UmOrientierung soll die Soziale Arbeit aus ihren über-bürokratisierten und ökonomisierten Methoden- zwängen befreien, eine „ganzheitlichere“, also „professionell richtige“ Begegnung mit den Klient*innen ermöglichen und, im Zuge dessen, das Großprojekt sozialer Gerechtigkeit befördern. Die durchaus weitgefasste Argumentations- und Legitimationsstruktur, welche dem Theoriekonzept innewohnt, geht aus solch einer umfangreichen Integration von (vorerst) fach- fremden Begrifflichkeiten und Sinnzusammenhängen hervor, so dass der Versuch einen gänzlichen Überblick dessen zugewinnen, in diffuser Desorientierung enden kann. So pointiert Thiersch selbst, dass es notwendig sei, die Lebensweltorientierung „schwierig, kantig und sperrig“ zu halten (Thiersch 2015, S. 314). Will sich jene Soziale Arbeit jedoch auf einem dermaßen breiten
Theorieboden begründen, ist es unabdingbar systematisch zu identifizieren, wo sich thematische Schnittmengen, Divergenzen oder Spannungen ergeben. Darüber hinaus
muss sie ersichtlich machen, auf welche Weise diese entsprechend bearbeitet, entkoppelt oder weitergedacht werden. Hält sie Untersuchungen dieser Art nicht Stand, lässt dies semantische Verkürzungen, selbstaffirmative Positionsbestimmungen und ideologische Programmatik ver- muten, welche den wissenschaftlichen Gehalt des Theorie-konzepts in Frage stellen lassen würden. Die vorliegende Arbeit soll als ein kritischer explorations-versuch gelten, welcher das Ziel verfolgt, mögliche Diffusitäten herauszustellen und zu beleuchten. So wird sich insbe-sondere mit dem systematischen Weg auseinandergesetzt, welchen Thiersch einschlägt, um einen vermeintlichen Konnex bezugswissenschaftlicher Theoriebestandteile anzubieten, diesen im Diskurs Sozialen Arbeit brauchbar zu machen und ferner als grundlegendes, ‚orientierungs-würdiges‘ (normativ-aufgeladenes) Zentrum zu setzen.
Aufbauend auf einer vorherigen Arbeit, die sich mit der Implementierung einer Komponentezum Auslesen mdizinischer Sensordaten mithilfe eines Arduino und eines Raspberry Pi befasst hat, beschäftigt sich diese Arbeit mit der Visualisierung sowie Auswertung der durch das System gesammelten Daten. Das Ziel dieser Arbeit ist es, über einen Zeitraum von etwa drei Monaten mithilfe der Komponente Daten zu sammeln und diese Daten in einem sinnvollen Kontext visuell darzustellen. Zudem sollen diese Daten mithilfe unterschiedlicher Algorithmen des Maschinellen Lernens ausgewertet werden,
um mögliche Muster und Zusammenhänge erkennen zu können. In diesem Kontext konnte die Hypothese aufgestellt werden, dass ein Zusammenhang zwischen der Körpertemperatur und der Sauerstoffsättigung im Blut besteht.
With Google’s Flutter framework continuing to grow in popularity for companies and developers alike, the need for an understanding of how to utilize the framework in a large-scale context has become more relevant than ever. The purpose of this thesis is to document the crucial steps most development teams using Flutter in a large-scale application will face. Additionally, a fully documented, large-scale reference application was generated so that other developers may use it as an aid when creating their own Flutter projects on a similar scale. Multiple steps were taken to ensure that optimal solutions were chosen for each aspect of the development process. For each of those aspects, a wide range of possible solutions were explored, compared and analysed. Finally, one of the possible solutions was chosen based on a wide range of scientific papers and community-generated sources. Additionally, an interview with an expert in the field was conducted to further validate those decisions. After the application was fully implemented, ten crucial aspects of the development process were identified. Those ten aspects are now explained in detail in this thesis. Ultimately, the knowledge provided by this thesis can act as a map for peers using Flutter in a large-scale context and help them overcome the crossroads they will most likely come to face.
Kollektive Interessensvertretung in der Sozialen Arbeit: Eine Analyse nach dem Machtressourcenansatz
(2020)
Ausgangspunkt der vorliegenden Arbeit ist die Beobachtung, dass es durch Prozesse der Ökonomisierung und De-Professionalisierung im Sozialsektor zu einer wahrgenommenen Abwertung der professionseigenen Kompetenzen kommt und sich die Arbeitsbedingungen verschlechtern. Es fehlt jedoch die wahrnehmbare Gegenwehr durch die betroffenen Fachkräfte der Sozialen Arbeit. Diesem Widerspruch wird nachgespürt, indem auf ein Analyseinstrument der Gewerkschaftsforschung, den Machtressourcenansatz, zurückgegriffen wird. Mit der Untersuchung der strukturellen, organisatorischen, institutionellen und gesellschaftlichen Machtressourcen - als Grundlage für die kollektive Interessenvertretung von lohnabhängig Beschäftigten - sollen mögliche Besonderheiten aufgedeckt werden, die den beschriebenen Widerspruch erklärbar machen. Hierzu wird im ersten Kapitel der Begriff der kollektiven Interessenvertretung erläutert, indem unterschiedliche Formen von Interessen dargestellt und für die Soziale Arbeit spezifiziert werden. Interessenverbände, und im speziellen Gewerkschaften, werden als Zusammenschlüsse von Interessenträger*innen vorgestellt. Im zweiten Kapitel folgen die Beschreibung der Entwicklung des Machtressourcenansatzes und seiner Heuristik, sowie die Darstellung der vier Dimensionen von Lohnabhängigenmacht. Im dritten Kapitel werden die vier Dimensionen als Analyse-Schema auf die Kontexte Sozialer Arbeit übertragen.
Wohnungslosigkeit erweist sich in Deutschland als ein wachsendes soziales Problem. Nicht zuletzt aufgrund der zunehmenden Wohnungsknappheit vor allem in den Ballungszentren stellt dies das aktuelle Hilfesystem vor große Herausforderungen. Die wohnräumliche Exklusion führt für die Betroffenen nicht selten zu gesellschaftlicher bzw. sozialer Exklusion. Dies äußert sich auf verschiedenen Ebenen, beispielsweise durch abwertende oder kriminalisierende Betrachtungsweisen in der medialen Berichterstattung, anderen Formen der Diskriminierung bis hin zu verschiedenen Formen der Gewalt. Würdevoller Wohnraum besitzt eine zentrale Bedeutung als Schutz- und Rückzugsraum sowie als Ort, an dem Autonomie und Identität gelebt werden können. Das in den Menschenrechten verankerte Recht auf Wohnen wird jedoch häufig nur unzureichend oder gar nicht gewährleistet. In dieser Arbeit wird beleuchtet, wie sich die Folgen von Wohnungslosigkeit multidimensional auf die Betreffenden auswirken und welche vielfältigen Bedingungen und Faktoren dies beeinflussen. Die daraus resultierenden Aufgaben für Profession und Disziplin Soziale Arbeit werden in diesem Zusammenhang herausgearbeitet. Es wird diskutiert, inwiefern auch Professions-angehörige durch handlungsleitende Prinzipien zum Teil dazu beitragen, dass das Recht auf Wohnen nur unzureichend gewährleistet wird. Vor diesem Hintergrund wird der ursprünglich aus den USA stammende Housing-First-Ansatz samt seinen Herausforderungen vorgestellt und die Potenziale für die Adressat*innen und nicht zuletzt für die Umsetzung des Rechts auf Wohnen analysiert.