Refine
Year of publication
Document Type
- Bachelor Thesis (142) (remove)
Keywords
- Sozialarbeit (14)
- Soziale Arbeit (9)
- ImageJ (6)
- Android (4)
- Bildverarbeitung (4)
- Gamification (4)
- Geschlecht (4)
- Image Processing (4)
- Informatik (4)
- Usability (4)
Faculty
- Fakultät 10 / Institut für Informatik (43)
- Fakultät 07 / Institut für Medien- und Phototechnik (19)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (12)
- Fakultät 10 / Advanced Media Institute (12)
- Fakultät 01 / Institut für Kindheit, Jugend, Familie und Erwachsene (9)
- Fakultät 03 / Institut für Informationswissenschaft (7)
- Fakultät 03 / Institut für Translation und Mehrsprachige Kommunikation (6)
- Fakultät 07 / Institut für Nachrichtentechnik (6)
- Fakultät 01 / Institut für die Wissenschaft der Sozialen Arbeit (5)
- Fakultät 10 / Cologne Institute for Digital Ecosystems (4)
Die Funktionsfähigkeit der öffentlichen Verwaltung ist auch und gerade bei einem Ausfall oder einer Beeinträchtigung Kritischer Infrastrukturen notwendig für die Aufrechterhaltung der Gesellschaft und des Staates. Ausgehend von dieser These wird zwischen Dezember 2018 und Februar 2019 eine Umfrage in den Landkreisen, Städten und Gemeinden des Regierungsbezirks Stuttgart durchgeführt. In ihr wird der Vorbereitungsgrad der öffentlichen Verwaltung hinsichtlich einer Versorgungsmangellage erfasst. Dabei wird ausschließlich die Versorgung des Personals innerhalb der Verwaltungseinrichtung betrachtet. Es wird untersucht, ob Vorsorgemaßnahmen für die Bereiche Trinkwasser, Nahrungsmittel, beheizte und beleuchte Räumlichkeiten, Sanitäranlagen, Ruhe- und Schlafmöglichkeit sowie Bargeld für die Gehälter der Mitarbeitenden getroffen sind. Als Vorsorgemaßnahmen werden generelle Planungen, Vorräte und Rahmenverträge mit Privatunternehmen betrachtet. Die Antworten werden von den Umfrageteilnehmenden hinsichtlich ihrer zeitlichen Auslegung eingeordnet. Zusätzlich werden die Teilnehmenden zu Planungsgrundlagen, Verbesserungspotenzial und einer Einschätzung der eigenen Vorbereitungen befragt. Diese Bachelorarbeit wertet die Umfrageergebnisse aus. Die Antworten zeigen, dass rund die Hälfte der Befragten eine Notstromversorgung besitzt und rund jede fünfte Einrichtung Planungen für die Trinkwasserversorgung der Mitarbeitenden vorhält. Darüber hinaus sind Vorbereitungen zur Versorgung des Personals nur vereinzelt vorhanden. Spezifische Vorräte für einen Ausfall der Versorgungsleistungen sind nur bei wenigen Befragten in geringem Maße vorhanden. Dennoch zeigt sich durch Alltagsvorhaltungen eine Latenzzeit bis zum Funktionsausfall. Rahmenverträge zur redundanten Sicherstellung der Versorgung sind nur selten abgeschlossen. Die Befragten geben an, dass sie für die Bearbeitung der Thematik Bedarf an weiteren Hilfestellungen haben. Die bekannten Schutzniveaus 72 Stunden (Notstromversorgung) und 14 Tage (Notvorräte der Bevölkerung) sind nicht oder nur sehr bedingt auf den Sektor Staat und Verwaltung zu übertragen. In der Auswertung der Ergebnisse werden drei Möglichkeiten identifiziert, um den Vorbereitungsgrad zu optimieren: Die Erhöhung der Vorhaltungen, das Optimieren der Planungen und das Abschließen von Rahmenverträgen. Darüber hinaus sind langfristig und einrichtungsunabhängig die derzeitigen Zuständigkeiten zu prüfen, einheitliche Schutzniveaus zu etablieren sowie eine gesellschaftliche und politische Kommunikationskultur hinsichtlich der Risiken eines Ausfalls oder einer Beeinträchtigung Kritischer Infrastrukturen aufzubauen.
Die vorliegende Arbeit beschäftigt sich im übergeordneten Kontext mit den Bounding Volume Hierarchies zur Veinfachung des Intersection Testings beim Raytracing. Die derzeitige Problematik besteht vor allem in der immer noch zu optimierenden Laufzeit. Dementsprechend wird trotz der bereits bestehenden Beschleunigungsdatenstrukturen wie unter anderem der Bounding Volume Hierarchy versucht, effizientere Strukturen oder Erstellungsprozeduren zu entwickeln. Für die Bounding Volume Hierarchy bedeutet dies, dass vor allem hinsichtlich verschiedener Splitting-Methoden und Möglichkeiten für die Baumoptimierung geforscht wird. Explizit wird daher innerhalb dieser Arbeit untersucht, wie die Bounding Volume Hierarchy durch die Verwendung der Hauptkomponentenanalyse bei der Erstellung optimiert werden kann und wie effizient der daraus resultierende Ansatz gegenüber der klassischen Bounding Volume Hierarchy sowie deren Splitting-Methoden ist. Eine Evaluation anhand 12 verschiedener Szenen zeigte, dass der vorliegende Ansatz unter Verwendung der SAH-Methode wie auch mit der Middle-Methode 17.70% respektive 13.14% geringere Renderlaufzeiten als der distanzbasierte Ansatz aufweist. Des Weiteren konnte mittels der kombinierten Verwendung aus klassischer SAH-Methode und PCA-basierter SAH-Methode eine weitere Verbesserung um 6.65% gegenüber der SAH-Methode der PCA-BVH erreicht werden.
Das Ziel der vorliegenden Bachelorarbeit war es, Technologietrends von Enterprise-Resource-Planning (ERP) Systemen zu definieren und anhand eines modernen Produktes vorzustellen. Ein ERP-System unterstützt Unternehmen in der Organisation und Durchführung von sämtlichen Geschäftsprozessen. Zur Untersuchung der wünschenswerten Eigenschaften eines ERP-Systems wurden anhand von Literaturarbeit Anforderungen definiert. Dabei wurde deutlich, dass die Verarbeitung von sämtlichen Geschäftsdaten in Echtzeit einen hohen Stellenwert hat. Hierfür bietet das ERP-System S/4HANA mit verschieden Technologien eine Lösung auf dem Datenbanksystem an. So zeigt ein direkter Performancevergleich zwischen den Datenbanksystemen von S/4HANA und einem aktuellen Konkurrenzprodukt, dass das Verarbeiten von großen Datenmengen in kürzester Zeit möglich ist. Diese Arbeit ist an Fachkreise der Wirtschaftsinformatik und Personengruppen mit Interesse an ERP und Datenbanken Systemen gerichtet.
Zivile unbemannte Luftfahrtsysteme in der Akutphase internationaler humanitärer Hilfseinsätze
(2019)
Diese Arbeit konstruiert Einsatzbereiche ziviler unbemannter Luftfahrtsysteme in humanitären Hilfseinsätzen unmittelbar nach einer Katastrophe. Die Auswertung der Schnittmenge der technischen Fähigkeitsanalyse mit der – unter Verwendung von Experteninterviews durchgeführten – operativen Bedarfsanalyse des humanitären Sektors stellt die Basis für die Konstruktion der neun Anwendungsbereiche dar. Abschließend werden diese vor einem technischen, rechtlichen sowie ethischen Hintergrund diskutiert und bewertet.
Das Suchen ist eine der, wenn nicht die am häufigsten durchgeführte Tätigkeit im Internet. Täglich werden Suchmaschinen mit Problemen aus aller Welt und aller Domänen befragt, in der Hoffnung, dass das Internet eine Lösung bereitstellt. Neben dem Web der Dokumente, welches überwiegend die großen Suchmaschinenhersteller wie Google und Microsoft durchsuchen, existiert auch das weniger bekannte Web der Daten. In diesem Teil des Internets werden Daten, keine Dokumente, in einem festen Format kodiert.
Dadurch soll die Möglichkeit geschaffen werden, dass nicht nur Menschen, sondern auch Maschinen, diese Daten verarbeiten können. Die Daten enthalten untereinander Verlinkungen, weswegen man auch von Linked Data spricht. Mit der vom W3C standardisierten Abfragesprache SPARQL ist es möglich, diese Daten nach selbst definierten Kriterien abzufragen.
Diese Arbeit befasst sich mit der Entwicklung einer SPARQL Abfrage zur Ermittlung von Sehenswürdigkeiten in Köln. Anhand dieses Anwendungsbeispiels soll beschrieben werden, inwieweit Linked Data in der Lage ist, mit Problemen und Fragestellungen des Alltags umzugehen. Es wird sich zeigen, dass es grundsätzlich möglich ist, derartige Anwendungsszenarien mit Linked Data zu lösen. Ein umfassendes Suchergebnis, welches beispielsweise Reiseführer geben, konnte jedoch nicht erzielt werden. Grund dafür sind hauptsächlich, wie in dieser Arbeit dargelegt wird, inkonsistente Daten. Um diese Beobachtung aufstellen zu können, wurden präzisere Suchkriterien für Sehenswürdigkeiten spezifiziert.Weitere Auffälligkeiten, die während der Entwicklung bemerkt wurden, wurden entsprechend dokumentiert.
Die vorliegende Bachelorarbeit erforscht, inwiefern sich eine Analyse des Projektes BibChatDe, eines bibliothekarischen Twitterchats, und der im Zuge dessen diskutierten Themen als Grundlage für die Konzeption bibliothekarischer Weiterbildung eignet. Nach einer Beschreibung der Funktionen von Twitter und der Eigenschaften von Twitterchats wird durch eine Analyse der Beteiligung festgestellt, dass das Projekt BibChatDe nach einem Jahr Laufzeit als Erfolg gewertet werden kann. Hinsichtlich der Nachhaltigkeit besteht Optimierungspotenzial, daher werden Handlungsoptionen zur Verbesserung der Nachhaltigkeit aufgezeigt. Nach Erläuterung der Anforderungen an Weiterbildungsinhalte und - formate werden die diskutierten Themen des BibChatDe anhand eines Kategorienschemas analysiert. Das Ergebnis zeigt, dass eine Themenanalyse nur bedingt Anhaltspunkte für die Konzeption bibliothekarischer Weiterbildung liefert. Auf Grundlage der Themenanalyse zusammen mit den Anforderungen an Weiterbildungsinhalte und -formate werden Konzepte für ein digitales Fortbildungsangebot auf Twitter und eine Präsenzveranstaltung erarbeitet.
Im Rahmen dieser Bachelorarbeit an der Technischen Hochschule Köln, deren Bearbeitungszeit vom 20.1.2017 bis 24.3.2017 ist, wird durch ein technisches Experiment geprüft, ob diverse Technologien zur 3D-Erfassung und Rekonstruktion geeignet sind Gebäudeinnenräume so zu erkunden, dass die Gefahrenabwehr dadurch einen höheren Nutzen hat, als es bei einer persönlichen oder autonomen Videoerkundung der Fall ist. Dies soll vor allem dann helfen, wenn Gebäude nicht mehr betreten werden sollten, wie es beispielsweise der Fall ist, wenn das Gebäude durch Erdbebenschäden einsturzgefährdet oder mit Gasen kontaminiert ist. 3D-Modelle einer Umgebung haben u.a. den Vorteil, dass problemlos neue Blickwinkel eingenommen, Maße ermittelt und Planungen für Rettungseinsätze oder Evakuierungen effizienter durchgeführt werden können, ohne Bildmaterial aufwendig zu sichten. Zudem können die Ergebnisse für spätere Evaluationen und Trainings genutzt werden. Um diese Geeignetheit festzustellen werden Beurteilungskriterien erarbeitet, die ein potentielles System erfüllen muss. Diese Kriterien sind: Günstig in der Beschaffung, Zeit bis zu einer 3D-Darstellung, leichte Bedienbarkeit, Qualität bzw. Informationsgewinnung aus der Darstellung (Erkennung von Zugängen und Personen), Lieferung von Zusatzinformationen (beispielsweise Maßangaben) und ob das System Online oder Offline funktionsfähig ist. Um diese Kriterien beurteilen zu können, werden Systeme der drei Haupttechnologien in der 3D-Erfassung (Laserscanner GeoSLAM ZEB-REVO, RGB-D-Kamera Microsoft Kinect und FARO Freestyle3D, Fotogrammetrie mit der Software Agisoft PhotoScan) in einem Versuch überprüft. Dabei wird das Labor für Großschadensereignisse der Technischen Hochschule Köln, der angrenzende Flur und das angrenzende Treppenhaus gescannt bzw. erfasst und rekonstruiert, wobei die nötigen Daten ermittelt werden. Dabei stellt sich heraus, dass der FARO Freestyle3D mit seiner RGB-D-Technologie und der Software FARO Scene als einziges System alle Kriterien erfüllt und somit für den Zweck der Erkundung in diesem Kontext geeignet ist. Der Microsoft Kinect Sensor mit der Software FARO Scene hat, durch Fehler in der Rekonstruktion, Schwächen in der Darstellungsqualität. Dies gilt auch für die Kombination aus GeoS-LAM ZEB-REVO/CloudCompare, da hiermit kein Farbscan erstellt werden kann und somit eine Erkennung von Objekten (z.B. geschlossene Türen) erschwert wird. Die Fotogrammetrie dauert mit einer Berechnungsdauer von ca. 38 Stunden zu lange, um in Notfallsituationen einen Nutzen zu bieten und liefert außerdem falsche Maßangaben.
Nicht näher betrachtet wird in dieser Arbeit die (autonome) Erkundung durch Roboter oder Drohnen, die die Geräte transportieren können, Strom- und Datenübertragungsproblematiken, andere ergänzende Sensortechniken und die Erkundung in dunkler Umgebung.
Text-Mining auf Basis von SAP HANA am Beispiel von Social-Media-Beiträgen eines Handelsunternehmens
(2018)
Die wesentlichen Hauptthemen, die in der vorliegenden Arbeit miteinander in Zusammenhang stehen, sind die Anwendung von Verfahren im Text-Mining und die IMDB, HANA, des europäischen Softwareherstellers SAP. Hierbei soll die HANA-Technologieplattform als Basis verwendet werden, um ein Text-Mining-Anwendungsfall zu bearbeiten, die die Analyse von Social-Media-Beiträgen vorsieht.
Am Phänomen der weiblichen Sexarbeit entzünden sich in Deutschland immer wieder heftige Debatten, welche vor allem Fragen rund um Geschlecht und Sexualität verhandeln. Häufig werden diese Debatten moralisch aufgeladen und unsachlich geführt, was eine differenzierte Einschätzung der Thematik erschwert. In der vorliegenden Arbeit werden die gegenwärtig dominierenden Perspektiven dahingehend analysiert, welche geschlechtertheoretischen Annahmen ihnen zugrunde liegen und welche Leerstellen und Verkürzungen sie jeweils mit sich bringen. Ausgehend von Andrea Maihofers Ansatz, Geschlecht als hegemonialen Diskurs und gesellschaftlich-kulturelle Existenzweise zu begreifen, wird anschließend dargelegt, wie komplex und widersprüchlich sich das Phänomen der weiblichen Sexarbeit im Kontext der bestehenden Geschlechterordnung darstellt und wie schwierig eine eindeutige und abschließende Beurteilung ist.
Der rasch anwachsenden Verbreitung digitaler Spiele kommt für die Soziale Arbeit eine zunehmende Bedeutung zu. Dabei ist dieses Medium als Ganzes durch tiefgreifende geschlechtsspezifische Disparitäten geprägt: Männlichkeit wird gemäß tradierten Rollenbildern mit Überlegenheit und Dominanz verknüpft; Weiblichkeit auf verschiedene Weisen marginalisiert, auf Stereotype reduziert und ausgegrenzt.
Die vorliegende Arbeit untersucht, wie Mädchen und Frauen als Spielerinnen sowie als Spielcharaktere in Action-, Adventure- und Rollenspielen überwiegend zu Randfiguren degradiert und durch ihre sexualisierte Darstellung als Objekte männlicher Schaulust objektifiziert werden. Dazu werden empirische Daten von Untersuchungen aus dem hiesigen und angloamerikanischen Raum mit den Konzepten des männlichen Habitus nach Bourdieu bzw. der hegemonialen Männlichkeit von Connell sowie der Darstellung von Mulvey zum männlichen Blick verknüpft.
Schließlich werden im Text auch die Phänomene der Ausgrenzung von Spielerinnen bei Multiplayer-Online-Spielen beleuchtet und mit den Ausführungen von Meuser zur kompetitiven Struktur des männlichen Habitus in Verbindung gebracht bzw. erklärt.
Die hier gesammelten Erkenntnisse können als Türöffner für die Arbeit mit Jugendlichen und als Basis für den gendersensiblen Umgang mit dem Thema „Digitale Spiele“ in pädagogischen Zusammenhängen dienen.
Cloud Computing hat sich hinsichtlich der Digitalisierung zu einer Basistechnologie entwickelt. Das Marktvolumen der Cloud-Technologie ist in den vergangenen Jahren kontinuierlich gestiegen. Hybride IT-Umgebungen mit Cloud- und On-Premise Anwendungen werden von den Unternehmen zunehmend bevorzugt. Eines der größten Hürden von hybriden Architekturen ist derzeit die Integration von heterogenen Umgebungen, die immer mehr und mehr an Bedeutung gewinnt. Zudem wird mit dem vermehrten Einsatz von Cloud-Services die IT-Infrastruktur der Unternehmen immer komplexer. Mithilfe von hybriden Integrationsplattformen kann diese Herausforderung erfolgreich bewältigt werden. Die vorliegende Ausarbeitung gibt den Unternehmen einen Leitfaden, welche die hybride Integration mithilfe von cloudbasierten Integrationsplattformen meistern können.
Vergleich verschiedener Lernmethoden neuronaler Netze bei der Analyse von „Social Media“ Inhalten
(2018)
The goal of this bachelor thesis was the comparison of different learning methods in neural networks. The methods were applied to detect hate posts on social media plat-forms like twitter. To achieve this, a supervised Recurrent Neural Network and a self-supervised Word2Vec model were implemented. The results of both implementations show the importance of choosing the correct dataset and a learning method generating significant results. The problems of both implementations were identified and formulated into possible solutions to achieve more accurate predictions in future. This thesis is of high interest for students and developers in the area of sentiment analysis.
Ziel dieser Arbeit ist die Entwicklung eines Leitfadens für die Anpassung von Webseiten und unternehmensinternen Prozessen an die Vorgaben der neuen Datenschutz-Grund-verordnung. Die Zielgruppen dieses Leitfadens sind in erster Linie Einzelpersonen und Kleinunternehmen, die keine eigene Rechtsabteilung oder Arbeitsgemeinschaften ha-ben, die sich mit der Umsetzung der Datenschutz-Grundverordnung befassen können. Die erarbeiteten Erkenntnisse sind jedoch auch für mittelständische Unternehmen, Ver-eine und gemeinnützige Institutionen interessant.
Nach einer Erläuterung der technischen und rechtlichen Grundlagen, werden die wich-tigsten Neuerungen durch die Verordnung zusammengefasst. Anschließend werden die wesentlichen Probleme der Zielgruppen erläutert, leitfadenartig verschiedene Lösungs-ansätze vorgestellt und ein Fazit zur aktuellen Situation gezogen
Informatik ist eine männerdominierte Wissenschaft, welches sich an den Männeranteilen sowohl im Studium als auch in der Berufswelt bemerkbar macht. Aus diesen und weiteren Gründen trauen sich viele Frauen nicht in das Gebiet Informatik einzusteigen. Der niedrige Frauenanteil ist eine Lücke für die Wissenschaft. Die Qualifikationen von Frauen werden benötigt, um neue Sichtweisen zu bekommen und andere Arbeitsweisen kreieren zu können. Damit die Frauenquote in der Informatik steigt, müssen die Ursachen analysiert und dagegen entsprechende Maßnahmen getroffen werden. Die vielfältigen Seiten des Gebietes müssen enthüllt und mit anderen Wissenschaften verknüpft werden, so dass Frauen auch eigene Interessen darin finden können.
Im Rahmen einer wissenssoziologischen Diskursanalyse zum Thema der sexuellen Selbstbestimmung von Menschen mit Lernschwierigkeiten werden Zuschreibungsprozesse und Normalitätskonstruktionen im fachlichen Diskurs der Pädagogik und der Sozialen Arbeit erforscht. Die intersektional angelegte Untersuchung fokussiert dabei das Wechselverhältnis der Konstruktionen von Behinderung, Geschlecht und Sexualität.
Okkulte Weltanschauung als pädagogisches Prinzip. Ein kritischer Blick auf die Waldorfpädagogik.
(2018)
Reformpädaogische Konzepte bieten attraktive Angebote und sprechen viele Eltern an, die nach Alternativen in der breiten Bildungslandschaft suchen. Die Waldorf-Pädagogik hat hier einen besonders prominenten Stellenwert, da neben frühpädagogischen auch schulische Angebote besonders weit verbreitet sind. In der Arbeit wird der Ursprung der Waldorf-Pädagogik und die enge Verbindung mit ihrem Gründer Rudolf Steiner untersucht, um auf die weltanschaulichen Ursprünge des Gedankengutes zu verweisen.
Angesichts ihrer nicht unproblematischen Position an der Schnittstelle von Individuum und Gesellschaft
will und muss sich die Soziale Arbeit wesenhaft als eine kritische verorten. Dabei erfolgt ihre Kritik oftmals in Form einer ‚Kritik unter Berufung auf…‘, d.h. mit Bezug auf eine relevante theoretische
Strömung, einen politischen oder gesellschaftlichen Diskurs oder eine konkrete Theorie. So kritisiert die Soziale Arbeit die gegenwärtigen Geschlechterverhältnisse insbesondere unter Berufung
auf die kritisch-dekonstruktivistische (Geschlechter-)Theorie von Judith Butler. Will jene damit
angestrebte Theorieintegration Butlers in den Diskurs und die Praxis Sozialer Arbeit tatsächlich gelingen und nicht lediglich in einer semantisch verkürzten, naiven und unterkomplexen Scheinkritik
resultieren, ist es von unabdingbarer Bedeutung, sämtliche theoretischen Schnittmengen sowie ebenso vorhandene Divergenzen und deren Auflösungsmöglichkeiten zu identifizieren und entsprechend zu bearbeiten.
Dies ist Ziel der folgenden Arbeit: Anhand der jeweils vertretenen Subjekt-, Identitäts- und Anerkennungskonzepte,
die sowohl in der Sozialen Arbeit als auch bei Judith Butler essentielle theoretische Grundpfeiler darstellen, wird Butlers Theorie ausgewählten Ansätzen der Sozialen Arbeit gegenüberstellt und mit jenen zu synthetisieren versucht, um schließlich zu prüfen, ob der Integration ihrer Theorie zu große konzeptuelle Hürden entgegenstehen oder ob sich dies als eine machbare
Herausforderung darstellt. Dass und vor allem wie dies machbar ist, wird anhand von drei zentralen Syntheseversuchen aufgezeigt, die die hierfür notwendigen konzeptuellen ‚Umbauten‘ sowie
die erforderlichen theoretischen Neuformulierungen sukzessive aufarbeiten. Der Sozialen Arbeit wird im Zuge dessen eine aufmerksame und selbstkritische Eigenanalyse abverlangt, welche mit einigen aufwendigen theoriebezogenen Neuausrichtungen und auch Verwerfungen einhergeht, jedoch zur tatsächlichen Behebung der vorhandenen Theorieprobleme ein unverzichtbares Instrument darstellt. Nur auf diese Weise kann sich die Soziale Arbeit von Vorwürfen einer inkonsequenten und unvollständigen Theorieübernahme Butlers lossagen und ihr Attribut
‚kritisch‘ (weiterhin) adäquat verkörpern.
Visual Inertial SLAM-Algorithmen können in der Augmented Reality für die
Erkennung und das Tracking der Umgebung genutzt werden.
Im Rahmen des Projekts Augmented Reality Campus habe ich das iOS-Open-SourceProjekt VINS-Mobile (Li et al., 2017) auf die Android-Plattform portiert. Den theoretischen Ansatz des zugrundeliegenden Algorithmus stelle ich vor. Im Anschluss an die Dokumentation der Portierung vergleiche ich die beiden Plattformen in mehreren Performance-Untersuchungen. Die Ergebnisse verwende ich, um die Frage zu beantworten, ob die Portierung für den Einsatz im AR Campus-Projekt geeignet ist.
Dabei komme ich zu dem Schluss, dass die Android-Portierung in Funktionsumfang
und Qualität der iOS-Version fast gleichzusetzen ist. Welche Arbeitsschritte bis zur Nutzbarkeit im Projekt AR Campus noch nötig sind, beschreibe ich am Ende der
Arbeit.
Die Lebensversicherer in Deutschland als institutionelle Investoren haben eine erhebliche Verantwortung für die Absicherung der Menschen im Alter. Aufgrund des anhaltenden schwierigen Zinsumfeldes stehen sie jedoch unter enormen Druck, ihre Leistungsversprechen langfristig einzuhalten zu können.
Der Gesetzgeber führte daher 2011 die Zinszusatzreserve (ZZR) ein, um im Rahmen der sinkenden Kapitalmarktzinsen eine moderate Form der Nachreservierung zu schaffen.
Als die ZZR eingeführt wurde, war allerdings nicht absehbar, dass sich das Niedrigzinsumfeld auf eine so lange Zeit erstrecken würde, wie es nun der Fall ist.
Die bisherige Systematik der ZZR führte in den letzten Jahren zu einem erheblichen Ausmaß und damit verbunden zu einer enormen Belastung für die Lebensversicherer. Bei einer Beibehaltung des Verfahrens könnte sich die ZZR nach Schätzungen der Assekurata Rating Agentur bis zum Jahr 2025 auf beachtliche 200 Milliarden Euro belaufen. Dies würde bedeuten, dass sich der Gesamtaufwand zur Dotierung der ZZR im Vergleich zum Geschäftsjahr 2017 noch verdreifachen würde.
Daher beschäftigt sich die vorliegende Arbeit mit einer Neukalibrierung der ZZR und einer damit verbundenen völlig neuen Berechnungsmethodik.
Die "Methode 2M", die von der Deutschen Aktuarvereinigung e. V. (DAV) entwickelt wurde, wird als möglicher Lösungsweg zur Entlastung der Lebensversicherer detailliert beschrieben und analysiert. Mithilfe aktuarieller Berechnungen werden dabei insbesondere die quantitativen Auswirkungen der Methode 2M im Hinblick auf verschiedene Zinsszenarien bis zum Jahr 2030 aufgezeigt und eine kritische Beurteilung vorgenommen, ob die neue Berechnungsmethodik den gewünschten Erfolg erzielt.
In den Jahren 2015 und 2016 ist im Zuge des starken Anstieges der Flüchtlingszahlen eine Debatte über digitale Medien im Zusammenhang mit Menschen auf und nach der Flucht entstanden. Hinweise darauf sind der „Digitale Flüchtlingsgipfel“, der im Jahr 2016 vom Bundesinnenministerium veranstaltet wurde, oder die Studie „Internet ist gleich mit Essen“ von Nadia Kutscher und Lisa-Marie Kreß.
Innerhalb der vorliegenden explorativen Forschungsarbeit werden aus einer sozialarbeitswissenschaftlichen Perspektive Apps als digitale Medien, die beim Integrationsprozess
von geflüchteten Menschen in Deutschland unterstützen sollen, auf einer inhaltlichen und technisch-funktionalen Ebene analysiert. Mit einer eigens entwickelten Erhebungsmethode werden die Inhalte der Apps mithilfe eines Analyserasters ausgewertet. Als Grundlage für
die Analyse dient das soziologische Modell "Integration als Sozialintegration“ von Friedrich Heckmann. Die fünf Apps „Ankommen“, „Integreat“, „Moin Refugee“, „Welcome App Germany“ und „Welcome to NRW“ wurden aufgrund der vertretenen geografischen Bereiche sowie des Spektrums der Initiatoren aus staatlichen Institutionen, „Willkommensinitiativen“
und Institutionen der Sozialen Arbeit ausgewählt.
Die Forschungsarbeit richtet ihren Blick auf die Inhalte der Apps und deren Gewichtung in Bezug auf die Integrationsdimensionen. Daraus werden Hypothesen entwickelt, wie durch
Inhalte der Apps Mechanismen entstehen, die die Integrationsprozesse zwischen Lenkung und Selbstermächtigung beeinflussen. Dabei wird kritisch reflektiert, inwieweit die Themen
der konstruierten und heterogenen Zielgruppe der geflüchteten Menschen aufgegriffen werden. Aufbauend auf den Untersuchungsergebnissen werden Schlussfolgerungen gezogen, wie Apps zu zielgruppenübergreifenden, digitalen Informationsangeboten für Leistungen und Träger der Sozialen Arbeit weiterentwickelt werden können.
Zielsetzung dieser Abschlussarbeit ist die Eignungsprüfung nichtrelationaler Datenbanksysteme für die Erstellung einer leichtathletischen Mehrkampfdatenbank. Sie ist in fünf Kapitel aufgeteilt.
Im ersten Kapitel wird einleitend auf die Entstehung dieser Arbeit und des zugrundeliegenden Projekts eingegangen.
Im zweiten Kapitel werden die vier großen Hauptgruppen nichtrelationaler Datenbanksysteme grob auf ihre generelle Eignung für die Verwendung und Umsetzung der Mehrkampfdatenbank anhand gegebener Anforderungen bewertet und aussortiert.
Im dritten Kapitel werden die verbliebenen Hauptgruppen eingehender betrachtet und das am besten geeignet erscheinende Gruppe für eine weitergehende Betrachtung ausgewählt.
Im vierten Kapitel werden mögliche Kandidaten aus der im vorherigen Kapitel bestimmten Hauptgruppe für die tatsächliche Umsetzung bewertet. Abschließend wird ein Kandidat für die Umsetzung der Mehrkampfdatenbank bestimmt.
Im fünften Kapitel wird ein Vergleich mit einer relationalen Umsetzung der Mehrkampfdatenbank gezogen, dabei werden verschiedene Datenbankanfragen auf unterschiedlichen Datenmengen
verglichen. Außerdem einzelne Verfahrensweisen zur Abwicklung von Anfragen betrachtet.
In einem abschließenden Fazit werden die Ergebnisse und Erkenntnisse der Arbeit nochmals kurz zusammengefasst.
Unsere heutige Gesellschaft und Wirtschaft sind geprägt von ständiger Veränderung. Ein besonderer Wandel findet vor allem in der Arbeitswelt statt. Es herrscht ein erhöhtes Bedürfnis nach Selbstverwirklichung. Gleichzeitig müssen sich die Unternehmen immer schneller an die sich verändernden Prozesse der zunehmend global ausgerichteten Wirtschaft anpassen. Daraus ergeben sich Flexibilisierungsprozesse, die in der Entstehung neuartiger Berufe, Beschäftigungsmodelle und neuen Formen der Zusammenarbeit resultieren. Ein Phänomen, das sich dabei herausgebildet hat, ist das des „Coworking“ und der „Coworking Spaces“. Ein relativ neues Arbeitssystem, das es Wissensarbeiter ermöglicht, weitgehend voneinander unabhängig und trotzdem gemeinsam an einem institutionalisierten Ort zu arbeiten. Mittlerweile hat sich dieses Modell zu einer globalen Bewegung formiert. Dadurch bildet der Aspekt der internationalen Vernetzung der Coworking Spaces und deren Nutzern den Schwerpunkt dieser Arbeit. Der internationale Gesichtspunkt ist aus verschiedenen Gründen von besonderem Interesse. Zum einen befinden wir uns gegenwärtig durch die fortschreitende Globalisierung und die hohe technologische Entwicklung in einer Welt, die auf fast allen Ebenen miteinander verknüpft ist. Zum anderen ist das Thema Netzwerken ebenfalls ein wichtiger Grundwert des Coworking-Konzepts. Somit befasst sich die vorliegende Arbeit mit der folgenden Fragestellung: Inwiefern besteht unter Coworking Spaces und deren Nutzern Interesse an der internationalen Vernetzung und welche Möglichkeiten wurden dahingehend im Zuge der globalen Coworking-Bewegung entwickelt?
Diese Bachelorarbeit "CloudRun - Analyse und Erweiterung" von Andreas Pahlen behandelt die Analyse der Software "CloudRun" sowie dessen Einbindung in eine Programmiersprache am Beispiel von Python.
Ziel der Analyse ist Herauszufinden, ob und in welchem Maße sich CloudRun für den produktiven Einsatz eignet, bzw. welche Änderungen nötig sind um einen sicheren und effizienten Einsatz zu ermöglichen.
Die Einbindung CloudRuns in die Programmiersprache Python dient als Beispielund Referenz zur Erstellung weiterer Frameworks und ermöglicht zugleich den Einsatz eines CloudRun-Servers für produktive Zwecke.
Schlüsselsituationen Sozialer Arbeit - Ein neuer Ansatz zur Relationierung von Theorie und Praxis?
(2017)
Von professionell Tätigen in der Sozialen Arbeit wird in der beruflichen, komplexen Praxis erwartet, allgemeine Wissensbestände auf konkrete Situationen beziehen zu können. Theorie und Praxis bereits im Verlauf des Studiums miteinander in Verbindung zu bringen, kann jedoch eine Herausforderung darstellen. Ein Teilaspekt der forschungsleitenden Fragestellung dieser Bachelorarbeit beschäftigt sich zunächst mit der Frage nach dem Beitrag des Bachelorstudiums zur (Heraus-)Bildung eines professionellen Habitus. Eine literaturbasierte Auseinandersetzung mit der Thematik zeigt, ein Studium – mit seinen Lernarrangements und speziell die praktische Studienphase – kann Beiträge leisten, die jene (Heraus-)Bildung unterstützt. Auch das Diskurs- und Reflexionsmodell der „Schlüsselsituationen Sozialer Arbeit“ setzt sich dieses Ziel und strebt die Förderung der Professionalisierung Studierender sowie der gesamten Sozialen Arbeit an. Die „Schlüsselsituationen Sozialer Arbeit“ werden an der TH Köln seit dem Sommersemester 2014 als didaktisches Konzept zur Theorie-Praxis-Relationierung in der theoretischen Begleitung der Studierenden in der Praxisphase herangezogen. Der zweite Teilaspekt der forschungsleitenden Fragestellung wendet sich den Studierenden zu, die mit dem Diskurs- und Reflexionsmodell Erfahrungen machen konnten. In Anlehnung an die Dokumentarische Evaluationsforschung erfolgen drei Gruppendiskussionen mit Studierenden der Sozialen Arbeit im Bachelorstudium, die mit der Dokumentarischen Methode ausgewertet werden. Detaillierter interpretiert werden Passagen, in denen sich Unsicherheiten und Ungewissheiten bei der Arbeit mit dem Reflexionsmodell zeigen und darauf aufbauend handlungsleitende Orientierungen herausgearbeitet.
Als Teil des wohlfahrtsstaatlichen Arrangements steht Soziale Arbeit im Zuge des Umbaus des Sozialstaats, der Ökonomisierung des Sozialen und der umfassenden Ausbreitung neoliberaler Rationalität zum einen vor veränderten Herausforderungen und zum anderen unter einem stetig steigenden Legitimationsdruck. Macht- und herrschaftskritische Auseinandersetzungen, in der die gegenwärtigen Machtbeziehungen und aktuellen Regierungs-weisen der Politik im Kontext der Sozialen Arbeit kritisch hinterfragt werden, werden in der aktuellen neosozialen Programmatik besonders relevant. Insbesondere Michel Foucaults Machtanalytik und sein Konzept der Gouvernementalität weisen für eine solche Analyse großes Potenzial auf. Neben der konkreten Auseinandersetzung mit Foucaults „Werkzeugkiste“ - der Beleuchtung Sozialer Arbeit im Kontext der Machtanalytik und dem Gouvernementalitätskonzept - wird in der vorliegenden Arbeit die Frage diskutiert, inwiefern sich neosoziale Regierungsweisen in die Soziale Arbeit einschreiben. Die Arbeit zeigt auf, dass die Soziale Arbeit als Akteurin der gegenwärtigen Macht- und
Herrschaftsverhältnisse zu begreifen ist, die durch die Verschränkung von Selbst- und Fremdführung wirkt. Während bislang ein normativer Bezugspunkt als Ausgangspunkt ihrer Intervention galt, wird dieser gegenwärtig als zunehmend unbestimmbar benannt. Somit verliert die Soziale Arbeit ihren Bezugspunkt und steht dementsprechend vor einem Dilemma. Es wird deutlich, dass es nicht mehr nur eine Befürchtung ist, dass sich eine neosoziale Programmatik in die Soziale Arbeit einschreibt, sondern dass sich in ihre bereits Regierungsweisen zeigen, die an Aktivierungsprogram-matiken, die ein unternehmerisches Selbst anrufen, anknüpfen.
Frühe Hilfen sind ein wichtiger Bestandteil für die flächendeckende Prävention im Kinderschutz sowie im Gesundheitswesen. Das Unterstützungssystem der Frühen Hilfen ist bundesweit
sowohl regional als auch überregional organisiert. Die Zielgruppe der Frühen Hilfen
sind vornehmlich (werdende) Eltern mit Kindern zwischen null und drei Jahren.
Frühe Hilfen müssen sich in der Praxis immer wieder mit Fragen der Niedrigschwelligkeit,
des Schutzauftrages und des staatlichen Wächteramtes auseinandersetzen und sich hierzu positionieren. Sie bewegen sich in einem Präventionskontext, der von neoliberalen und
anderen normativen Ordnungsprinzipien geprägt ist. Diese Ordnungsprinzipien wirken auf die Spannungsfelder von Förderung und Prävention auf der einen sowie Hilfe und Kontrolle auf der anderen Seite. Der Anspruch, dass Frühe Hilfen für alle Familien erreichbar sein sollen, wird mit dem Auftrag gekoppelt, ein besonderes Augenmerk auf Familien zu richten,
die sich in Problemlagen befinden. Hier werden bereits die Ambivalenzen der Frühen Hilfen erkennbar. Die vorliegende Arbeit
analysiert den präventiven Auftrag der Frühen Hilfen, indem sie sich u.a. kritisch mit der Regulierungsfunktion des Sozialstaates auseinandersetzt und die Tendenzen von „Re-
Familisierung“ und „De-Familisierung“, das „In-die-Verantwortung-Nehmen“ und den „Verantwortungsentzug“
von Familien, betrachtet. Darüber hinaus prüft die Arbeit, ob dem Präventionsgedanken
der Frühen Hilfen das Anliegen der Erhaltung und Förderung von Humankapital zugrunde liegt und ob es möglich ist, Frühe Hilfen losgelöst von Kinderschutz zu betrachten. Des Weiteren ist das Erkenntnisinteresse dieser Arbeit herauszufinden, ob
eine Vermischung der Angebote der Frühen Hilfen und der Angebote der Hilfen zur Erziehung stattfindet.
Vor dem Hintergrund öffentlicher Diskurse um die angebliche Rückständigkeit geschlechtlicher Rollenver- ständnisse bei männlichen Migranten zeigt die vorliegende Arbeit, dass soziale Ungleichheit und nicht etwa die Kultur als wesentliche Einflussgröße bei aggressiv-maskulinem oder frauenabwertendem Verhalten in Erscheinung tritt. Eben solche Handlungsmodi der subjektiven Lebensbewältigung können durch die offene Kinder- und Jugendarbeit mit ihrem non-formalen Bildungsauftrag professionell bearbeitet werden.
Das hier vertretene Professionalitätsverständnis macht Reflexionen geschlechtlich konnotierter Eigenschaften, Verhaltensweisen und Angebote nötig, um geschlechter-stereotype Reproduktionen zu vermeiden, aber gleichzeitig der lebensweltlichen Bedeutung des Geschlechts für Jugendliche gerecht zu werden. Zudem wird hier das Thema Interkulturalität in der Sozialen Arbeit als mögliche Gefahrenquelle homogenisierender kultureller Zuschreibungen problematisiert, die soziale Ungleichheit verdeckt. Die eigentliche Heterogenität der Migrantinnen und Migranten wird dabei als vorwiegend mit niedriger Statusplatzierung einhergehend aufgeschlüsselt. Im empirischen Teil wird der professionelle Umgang der Praxis mit dem Phänomen männlich konnotierter Lebensbewältigung bei Migranten untersucht. Die Daten qualitativer Interviews mit Fachkräften der offenen Kinder- und Jugendarbeit werden dabei mithilfe der Grounded Theory zu Kategorien fachlicher Bearbeitungs-weisen ausgewertet, um so zu verallgemeinerten theoretischen Aussagen über die offene Kinder- und Jugendarbeit insgesamt zu gelangen. Jugendarbeit wird hier vor allem als arrangierter Möglichkeitsraum für Jugendliche diskutiert, der normative Grenzen hat und bei deren Übertretung die Praxis intervenierend agiert.
Aus Filmen wie „Star Trek“ kennen wir „Beamen“. Dort werden komplette Personen durch Beamen auf z.B. Planeten transportiert. Dies hört sich im ersten Moment sehr nach Science-Fiction an, allerdings ist das Beamen von Informationen seit ein paar Jahren sehr real geworden.
Nach einem Grundverständnis für herkömmliche Datenübertragungen wird die Quantenphysik vorgestellt mit ihren grundlegendsten Begriffen. Anschließend wird nun die Quantenteleportation vorgestellt. Einleitend dazu wird zuerst die Quantenverschränkung erklärt, auf der die Teleportation beruht. Es wird erklärt, wie solche Verschränkungen entstehen, um dann den Aufbau einer Teleportation mit den aktuellen Fortschritten vorzustellen sowie Ziele der Quantenteleportation zu beschrieben. Mit deren Hilfe werden Quantencomputern unterstützt.
Die vorliegende Bachelorarbeit in Kooperation mit der Deutsche Sporthochschule Köln hat die Konzeption und Entwicklung eine Software, mit der Daten aus der Fußball-Bundeliga 2011–2012 mit Hilfe einer Heatmap erzeugt werden, zum Inhalt. Die Software soll die Torpositionen vor einem Offensivspiel zu verschiedenen Zeitpunkten des Spieles veranschaulichen.
Bei der Arbeit wurden zwei Cluster-Methoden betrachtet, nämlich die Density-Based Spatial Clustering of Applications with Noise (DBSCAN) und der Kerndichtschätzer (kernel density estimation). DBSCAN ist ein bekannter Cluster-Algorithmus und wurde mit dem Software-Tool WEKA untersucht. Es zeigte sich, dass dieses Verfahren nicht so gut für diese Aufgabenstellung geeignet ist, da einzelnen Cluster nicht so gut unterschieden werden konnten. Der Kerndichtschätzer ist dagegen ein statistisches Verfahren zur Schätzung einer Dichte, der auch in Geoinformationssystemen verwendet wird. Dieses Verfahren ist besser für die Aufgabenstellung geeignet.
Nach der Analyse der Daten im XML-Format wurde der Algorithmus Kerndichtschätzer für die Deutsche Sporthochschule Köln in detr Programmiersprache Java implementiert. Die Software untersucht die Bildung von Clustern bzw. die Torschussdichte mit der Absicht, ein Verhalten oder Muster vor einem Offensivspiel zu erkennen. Sie enthält eine sehr gute Visulisierung der verschiedenen Situationen, die zum Torschuss führten, anhand eines Fußballfeldes
Vergleich von verteilten Datenbanksystemen hinsichtlich ihrer Clusterbildung und Skalierbarkeit
(2017)
Die vorliegende Ausarbeitung geht der Frage nach, wie sich die Datenbankmanagementsysteme MariaDB, MongoDB und Cassandra hinsichtlich ihres Clusteraufbaus,
sowie den damit verbundenen Möglichkeiten der Skalierbarkeit unterscheiden. Dazu werden zunächst Grundlagen zum Aufbau von verteilten Datenbanksystemen, zu den verschiedenen Transaktionskonzepten, sowie zu den möglicherweise auftretenden Probleme vermittelt. Anschließend werden die drei Systeme im Detail untersucht und herausgearbeitet, wie sie genau funktionieren und in welchen Punkten sie sich von einander unterscheiden. Als Abschluss wird ein Fazit gezogen, welches System in verteilten Computerumgebungen
am geeignetsten ist, insofern ein klarer Sieger hervorgeht.
Die Dokumentation und Untersuchung von Massenbewegungen ist der entscheidende Schritt, um die Gefahr, die von ihnen ausgeht, zu identifizieren und im nächsten Schritt zu minimieren. Vor allem in Bergregionen kann dies im Extremfall Menschenleben retten.
Folglich untersucht diese Arbeit auf Grund bestehender Gefahr die räumliche Verteilung von Massenbewegungen in den drei iranischen Provinzen Alborz, Qazvin und Teheran.
In Anbetracht der immer weiter wachsenden Städte im erdbeben- und somit massenbewegungsgefährdeten Elbursgebirge wird mittels zweier quantitativer Analysen der isolierte Einfluss von straßen- und schienengebundener Verkehrsinfrastruktur auf Massenbewegungen (in den drei Provinzen) untersucht.
Beide Analysen vergleichen ausschließlich die lokale Häufung von Massenbewegungen mit dem vorhandenen Straßen- und Schienennetz: in der ersten Analyse durch das Vergleichen stattgefundener Massenbewegungen innerhalb von Teilgebieten des untersuchten Gebiets, in der zweiten Analyse werden die Häufungen in verschiedenen Abständen zu Straßen erfasst.
Anknüpfend an die zweite Analyse wird eine Bewertung der Häufigkeiten getätigt.
Es ergeben sich folgende wesentliche Erkenntnisse aus dieser Bachelorarbeit:
• Die Aussagekraft der Analysen kann höchstens so groß sein wie die Richtigkeit, Vollständigkeit und Detailliertheit der zur Verfügung gestellten Datenbanken
• Die verhältnismäßig große Fläche des Untersuchungsgebietes stellt eine hohe Fehlerquelle dar (z.B. durch das große Datenvolumen)
• Eine Anfälligkeitsanalyse auf Grund eines isoliert betrachteten Auslösefaktors ist mit vielen Fehlern und Annahmen behaftet (z.B. muss zunächst einmal angenommen werden, dass Massenbewegungen nicht durch andere Faktoren ausgelöst werden)
• Eine erhöhte Anfälligkeit des Untersuchungsgebietes gegenüber Massenbewegungen innerhalb von 50 m Abstand zu Straßen konnte durch die in dieser Arbeit beschriebenen „Straßenpufferanalyse“ nachgewiesen werden.
Die Analysen sind mit dem Programm ArcGIS durchgeführt. Ihre detaillierte Beschreibung ermöglicht es dem Leser, die Analysen weiterzuführen oder mit anderen Parametern zu wiederholen. Weiterführende Analysen beispielsweise in Form einer Risikokarte verhelfen den Menschen, Sachgüter und die Umwelt z.B. durch nachhaltige Bebauungspläne zu schützen.
Das Ziel der vorliegenden Bachelorarbeit war es, das In-Memory-Konzept innerhalb einer Oracle Datenbank auf neue Mechanismen, Funktionen und Methoden zu untersuchen. Dazu wurde eine Datenbank erstellt und mit Beispieldaten bestückt. Diese Beispieldaten sind Aktienwerte der DAX-30 Unternehmen, welche durch eine Reihe von Indikatoren aus der technischen Analyse eine komplexe Möglichkeit der Analyse bieten. Die Ergebnisse bestätigen, dass das In-Memory-Konzept neben dem bekannten Spaltenformat eine Reihe von Techniken und Funktionen bietet, welche sich positiv bei der Verarbeitung von Daten durch Data Query Language-Befehle auswirken. Es kommen auch Nachteile, wie der flüchtige Speicher zum Vorschein, dennoch überwiegen die Vorteile stark. Nach einer Reihe von Tests wird deutlich, dass Objekte, die in den In-Memory-Column-Store geladen werden, nur 30 % der Zeit benötigen, um gelesen zu werden. Dies ist für die Verarbeitung von großen und komplexen Daten eine deutliche Verbesserung. Die Bachelorarbeit richtet sich an Studierende der Fachbereiche Informatik und BWL sowie an Interessierte im Bereich Datenbanken.
Der digitale Schwarzmarkt mit gestohlenen Daten floriert. Alleine im Jahr 2015 wurden über eine halbe Milliarde Datensätze aus Datenbanksystemen entwendet. Viele Unternehmen bemerken den Sicherheitsvorfall selbst nicht oder geben aus Angst vor einem Imageschaden den Vorfall nicht bekannt. Sind die Datenbestände nicht durch effektive Sicherheitsmechanismen vor Datendiebstahl geschützt, können Cyberkriminelle leicht aus den gestohlenen Daten Kapital schlagen. Die Softwarehersteller von Datenbanksystemen bieten für ihre Produkte unterschiedliche Schutzvorkehrungen an. Ziel dieser Ausarbeitung ist es, die Bedrohungen und die Sicherheitsrisiken von Datenbanksystemen aufzuzeigen und daraus die Aspekte der Datenbanksicherheit abzuleiten. Die ausgearbeiteten Sicherheitsaspekte bilden die Grundlage für den Vergleich der Datenbanksicherheit von relationalen Datenbanklösungen. Die anschließende Bewertung dient dem Nachweis und der Überprüfbarkeit der Datenbanksicherheit relationaler Datenbanksysteme.
An empirical evaluation of using the Swift language as the underlying technology of RESTful APIs
(2016)
The purpose of the current thesis is to determine the appropriateness of using the Swift language as the underlying technology for the development of RESTful APIs in a Linux environment. The current paper describes the process of designing, implementing and testing individual RESTful API components based on Node.js, PHP, Python and Swift and seeks to determine whether Swift is a viable alternative.
The thesis begins by defining a methodology for implementing and testing individual RESTful API components based on Node.js, PHP, Python and Swift. It then proceeds to detail the implementation and testing processes, following with an analytic discussion regarding the advantages and drawbacks of using the Swift language as the underlying technology for RESTful APIs and server-side Linux-based applications in general.
Based on the implementation process and on the results of the previously mentioned evaluation phase, it can be stated that the Swift language is not yet ready to be used in a production environment. However, its rapid evolution and potential for surpassing its competitors in the foreseeable future make it an ideal candidate for implementing RESTful APIs to be used in development environments.
Der erste Teil dieser Arbeit gibt einen Überblick über die Themenfelder der modellgetriebenen Softwareentwicklung und der objektrelationalen Abbildung. Durch eine Kombination dieser beiden Themen wird schließlich der Begriff der modellgetriebenen O/R-Mapping-Frameworks definiert und näher erläutert. Im zweiten Teil bestätigt ein Vergleich von drei dieser Frameworks (Bold for Delphi, MDriven sowie Texo mit EclipseLink) die Vor- und Nachteile des modellgetriebenen Ansatzes auch in Bezug auf die Persistenz. Der Vergleich macht außerdem deutlich, was aktuell in der Praxis möglich ist (und was nicht) und in welchem Umfang Standards genutzt werden (insbesondere MDA und UML). Daneben werden auch die Schwächen in diesem Bereich aufgezeigt. Abschließend gibt es eine kurze Bewertung der Frameworks, auch im Hinblick auf mögliche Anwendungsszenarien.
Die Bachelorarbeit befasst sich mit der Verwendung der NoSQL Datenbank Apache Cassandra. Dabei werden auf der einen Seite die Unterschiede bei Verwendung und Betrieb von Apache Cassandra im Vergleich mit relationalen SQL Datenbanken und auf der anderen Seite die Aspekte Geschwindigkeit, Ausfallsicherheit und Wiederverwendbarkeit untersucht. Die Verwendung und der Betrieb wird dabei durch die Umsetzung eines Datenimports, damit verbunden ist die Erstellung von entsprechenden Datenmodellen, und der Bereitstellung der Daten für die Darstellung von mobilen Statistiken in Form einer Android App untersucht. Für die Untersuchung der Geschwindigkeit, Ausfallsicherheit und Wiederverwendbarkeit werden zusätzlich zu den durch bereits durch die Umsetzung erhaltenen Ergebnissen noch an den jeweiligen Aspekt angepasste Belastungstest durchgeführt.
Die „E-Mail“ als elektronisches Kommunikationsmittel begeistert seither Marketing- experten, da sie das Medium zur Verbesserung der Kundenkommunikation nutzen. Mittlerweile ist davon auszugehen, dass deutschlandweit jedes Unternehmen über einen Internet-Zugang verfügt und die E-Mail als Kommunikationsmittel nutzt. Die E-Mail ist somit fest im Marketing verankert. Dabei durchläuft der Prozess des E- Mail-Marketings einen Kreislauf mit einzelnen Elementen, die schließlich zu einem erfolgreichen Einsatz eines Newsletters führen sollen. Trotz allem gibt es eine Viel- zahl an Unternehmen, die bis heute nicht mit dem E-Mail-Marketing vertraut sind. Die Möglichkeiten und Chancen durch den Einsatz dieses wirkungsvollen Marke- tinginstruments werden demnach außer Acht gelassen. In der vorliegenden Arbeit werden unter anderem die wichtigsten Vorteile aufgezeigt, die sich durch den Einsatz eines Newsletters ergeben. Besonders klein- und mittelständische Unternehmen ha- ben oftmals weder die Zeit noch die Möglichkeit sich mit den Herausforderungen und praktischen Fragestellungen auseinanderzusetzen. Für die erfolgreiche Implementie- rung ist nicht nur eine systematische Arbeit mit vielen verschiedenen Teilaspekten notwendig, sondern auch die Berücksichtigung der Anforderungen, insbesondere der rechtlichen Grundlagen. Wer sich also auf unbekanntes Terrain begibt, sollte sich gründlich informieren und absichern.
Die vorliegende Arbeit stellt einen übersichtlichen Leitfaden, der als Hilfestellung für den Einsatz von Newslettern dient. Dabei werden unterschiedliche Verfahren und Maßnahmen zur Generierung von E-Mail-Adressen dargestellt, damit ein sauberer Datenbestand garantiert werden kann. Außerdem wird auf typische Fehlerquellen eingegangen, die vermieden werden können. Es werden die Anforderungen detailliert aufgestellt und dienen als Richtlinie.
Des Weiteren befasst sich die vorliegende Arbeit mit der Entwicklung von alternati- ven Lösungsansätzen unter Berücksichtigung von Annahmen für den Versand eines Newsletters. Die Zielsetzung resultiert aus der Fragestellung, warum der Versand von Newslettern stärker gesetzlichen Auflagen obliegt als der Briefkastenwerbung. Betrachtet man die Daten des statistischen Bundesamtes stammen unerwünschte Newsletter nicht aus Deutschland, sondern aus Ländern, die in diesem Bereich deut- lich weniger gesetzlich geregelt sind.
Aufgrund der steigenden Komplexität der Projekte und einem hohen Wettbewerbsdruck stellt die Kostenschätzung der fixen Investition, bereits in frühen Projektphasen, einen wichtigen Teil der Vorprojektierung dar. Wachsende Kosten und enormer Zeitdruck führten zu der Überlegung, auf Grundlage von Musteranlagen, bestehende Kostenschätzmethoden zu überprüfen und weiterzuentwickeln. Ferner ist das Ziel dieser Musteranlage, eine geeignete Kostenstruktur, die typisch für ihren Anlagentyp steht hervorzubringen, um das Kostenverhältnis weiterer Anlagen miteinander vergleichen zu können. Im Rahmen dieser Arbeit wird eine Musteranlage eines typischen Fluid-Prozesses abgeleitet und anhand geeigneter Kostenschätzmethoden überprüft. Ferner wird die Musteranlage, aufgrund ihrer Hauptausrüstungsgegenstände und ihren prozentualen Anteilen auf die Gesamtanlagenkomponenten, auf mögliche Kostenstrukturen hin untersucht. Als Musterprozess wird die Synthese von Ethylenglykol aus Ethen und Sauerstoff, als ein typisch chemisches Massenprodukt einer durchschnittlichen Chemieanlage, vorgeschlagen. Mit Hilfe des Programms Chemcad wird dieser Prozess simuliert und die einzelnen Anlagenkomponenten werden mit Hilfe von Erfahrungsregeln und Literaturwerten dimensioniert. Für die Umsetzung dieser Vorgehensweise wurde eine intensive Literaturrecherche über die üblichen Verfahrensweisen durchgeführt. Im Anschluss ein Grundfließschema erstellt aus dem ein vereinfachtes Fließbild abgeleitet wurde. Neben der Simulation mit dem Programm Chemcad erfolgte eine Auflistung aller am Prozess beteiligten Anlagenkomponenten in Form einer Equipment-Liste, die neben den Komponentenbezeichnungen auch alle für den Prozess wichtigen technischen Daten beinhaltet. Auf Grundlage dieser Equipment-Liste wurde sodann mit Hilfe geeigneter Kostenquellen wie z.B. dem DACE price booklet eine Kostenermittlung der einzelnen Anlagenkomponenten durchgeführt. Letztlich wurden anhand dieser Werte mögliche Kostenschätzmethoden, welche für einen frühen Zeitpunkt einer Projektphase geeignet sind, überprüft und miteinander verglichen. Abschließend wurde die Kostenstruktur dieser Musteranlage auf die prozentualen Anzahl- und Kostenverhältnisse, in Bezug auf die einzelnen Komponentengruppen, entwickelt und dargestellt.
Aufgrund der hervorgebrachten Kostenstruktur konnte festgestellt werden, dass die in dieser Arbeit abgeleitete Musteranlage typische Merkmale einer Fluid-Anlage aufweist und demnach für den Zweck ihrer Entwicklung genutzt werden kann. Die wesentlichsten Merkmale sind die hohen Kosten der Kolonnen und deren relativ kleinem Anzahlverhältnis im Vergleich zur hohen Anzahl an Pumpen und ihrem sehr kleinen Kostenverhältnis. Ferner konnte festgehalten werden, dass die Kostenschätzung für die frühe Projektphase eine hohe Ungenauigkeit ergab. Des Weiteren hat der Vergleich der Schätzmethoden ergeben, dass die Methode mittels der Hand-Faktoren ein genaueres Ergebnis lieferte. Aufgrund der Feststellung, dass spezifische Einflüsse wie Material, Instrumente und Gebäudekosten einen erheblichen Einflusses auf die Kosten der einzelnen Anlagenkomponenten aufzeigten, wird vorgeschlagen weitere Korrekturfaktoren in der Kostenschätzung zu berücksichtigen. Zum Zwecke der Weiterentwicklung von Kostenschätzmethoden wird ferner vorgeschlagen weitere Musteranlagen des Typs: gemischte Feststoff-Fluid-Anlage und eine reine Feststoffanlage, abzuleiten.
State of the art browser games are increasingly complex pieces of software with extensive code basis. With increasing complexity, a software becomes harder to maintain. Automated regression testing can simplify these maintenance processes and thereby enable developers as well as testers to spend their workforce more efficiently.
This thesis addresses the utilization of automated tests in web applications. As a use case test automation is applied to an online-based strategy game for the browser. The introduction presents the general conditions for a software project that makes use of automated tests and different approaches of test automation. The main section introduces a specific solution of test automation applied on the game “Forge of Empires”, produced by Innogames GmbH. The created framework of the company is presented. It implements different software frameworks. The conclusion consists of a comparison and analysis about the presented methods and technologies.
Im Rahmen dieser Arbeit soll eine Java-Anwendung zum Zeichnen von Entity-Relationship-Diagrammen entwickelt und vorgestellt werden. Die Anwendung soll zur Unterstützung der Veranstaltung Datenbanken an der Fachhochschule Köln - Campus Gummersbach dienen. Der Hintergrund dazu ist die Tatsache, dass im Rahmen der Veranstaltung oftmals Entity-Relationship-Diagramme von Studenten gezeichnet werden sollen. Die Erfahrung der Lehrbeauftragten hat gezeigt, dass Studenten teilweise mit den empfohlenen Anwendungen Schwierigkeiten haben, unter anderem weil diese viel mehr Funktionen anbieten, als von den Studenten benötigt. Eine weitere Schwierigkeit ist die Tatsache, dass verschiedene Anwendungen zum Zeichnen von Entity-Relationship-Diagrammen verschiedenartige Diagramme erzeugen. Daher besteht der Bedarf einer Anwendungen, die sich einfach bedienen lässt, sich auf das Wesentliche beschränkt und einheitliche Diagramme erzeugt. Die zu entwickelnde Anwendung soll zukünftig innerhalb der Lernplattform edb von Studenten heruntergeladen werden können.
In dieser Bachelorarbeit wird das Thema Big Data und die damit verbundenen Technologien, sprich NoSQL und Hadoop behandelt. Das Thema wurde bewusst ausgewählt, weil sie zum einen aktuell und zum anderen immer mehr an Bedeutung, aus Sicht der Unternehmen gewinnt. Durch die ständig anwachsenden Daten, die zu 80% in Semistrukturierter Form vorliegen, stößt die IT-Infrastruktur eines Unternehmens schnell an seine Grenzen. Und genau an dieser Stelle sollen die Big Data Technologien, wie „NoSQL“ und „Hadoop“, helfen, die so großen Datenmengen zu verarbeiten, um für das Unternehmen, wertvolle Informationen zu liefern, die bislang nicht ersichtlich waren.
In der Softwareentwicklung setzen sich vermehrt agile Methoden durch, die meist in kleineren Softwareprojekten Anwendung finden. Durch die intensive Einbeziehung des Kunden, Kommunikation innerhalb des Teams und kontinuierlichen Auslieferung soll die Softwarequalität gesteigert werden. So erhält der Kunde ein produktiv einsetzbares Softwareprodukt. Diese Bachelorarbeit gewährt einen Überblick über bekannte agile Prozesse und betrachtet im Detail den Scrum Prozess. Danach wird das Framework Oracle APEX vorgestellt und schließt mit einer Betrachtung zur Eignung der Einführung des Scrum Prozesses innerhalb APEX ab.
In dieser Arbeit wird auf die theoretischen Grundlagen von digitalen Filmkameras, des Dynamikumfangs und der HDR Technologie eingegangen. Im Einzelnen werden die Spezifikationen der digitalen Filmkamera RED Epic sowie des Tonemapping-Operators iCAM06 aufgeführt. In der Durchführung war es das Ziel, den erhöhten Dynamikumfang einer mit dieser Kamera aufgezeichneten Szene mit iCAM06 zu komprimieren und diesen auf einem handelsüblichen Monitor darzustellen. In der Auswertung werden Bildergebnisse für unterschiedliche Übergabeparameter demonstriert und dokumentiert.
Es wurde ein Vergleich zwischen einer nativen Android-Anwendung und einer Titanium-Anwendung durchgeführt, anhand einen mobilen SQL-Trainers. Die mit Eclipse nativ entwickelte Android-Anwendung und die Titanium-Anwendung (Android und iOS) sind, zumindest mit unserem beispielhaften Funktionsumfang, fast gleichwertig. Die Entwicklung für BlackBerry und Tizen konnte auf Grund der noch nicht ausgereiften Entwicklungsart für diese Plattformen kaum getestet werden, allerdings wird der größere App-Markt mit iOS und Android unterstützt. Die noch nicht ausgereifte Entwicklungsweise für das Tizen-Betriebssystem kann vernachlässigt werden, wenn bedacht wird, dass auf dem Tizen-Betriebssystem native Android-Anwendungen ausgeführt werden können. Außerdem wird Tizen noch auf keinem Smartphone eingesetzt. Die Vorbereitung auf die Erstentwicklung ist durch die noch etwas weniger ausgereifte, aber dennoch sehr professionelle Entwicklungsumgebung beim Titanium SDK etwas zeitaufwändiger als bei der Eclipse-Entwicklungsumgebung. Natürlich sind die nativen und vom Betriebssystemhersteller herausgegebenen Entwicklungsformen der Vorreiter für das Titanium SDK und deshalb auch die sicherere Entwicklungsform, wenn es beispielsweise um Kompatibilität und Hardwarezugriff geht. Das Titanium SDK übersetzt den entwickelten JavaScript-Code in nativen Code der jeweiligen Plattformen mit den jeweiligen Plattform-Elementen. Die angepriesene Zeitersparnis von zwanzig Prozent bei der Entwicklung kann nicht bestätigt werden. Die Entwicklung der Benutzeroberfläche ist aufwändiger als bei der nativen Entwicklungsweise.
Diese Bachelorarbeit zeigt auf, welche Probleme bei der Verwendung der Videofunktion von digitalen Consumer-Kameras wie Digitalkameras mit Videofunktion, Mobiltelefonen oder Camcordern entstehen können. Auf der Basis dieser Arbeit wird die Firma Image Engineering ein Testverfahren zur Videoanalyse entwickeln.
Bewegung als Musikinstrument - Entwicklung eines Prototypen auf Basis von Kinect und Pure Data
(2012)
Es wurden Möglichkeiten der Bewegungsanalyse durch Gamecontroller untersucht und dazu passende Audioerzeuger erstellt. Dazu wurden vier Prototypen erstellt, die auf verschiedenen Analysetechniken basieren. Dazu zählt die Analyse per Webcam, der Sony Playstation Move Controller, und die Microsoft Kinect. Dann habe ich einen Ansatz auf Basis der Kinect weiter-entwickelt. Die Eingabedaten der Kinect wurden über Open Sound Control zu Pure-Data über- ragen. In Pure-Data habe ich ein Instrument erstellt, das durch die geschickte Kombination von Oszillatoren und Filtern einen individuellen und interessanten Klang erzeugt. Dazu wurde ein entsprechendes Kontrollkonzept umgesetzt, welches sich an dem eines Saiteninstrumentes orientiert, dieses Konzept jedoch von der Bewegung der Finger und Hände auf größere Bewe- gungen des ganzen Körpers überträgt. Es wurden Schnittstellen erstellt und diskutiert, mit denen das System via MIDI und Open Sound Control auch an andere Audioerzeuger angeschlossen werden kann. Während der ganzen Entwicklung wurde darauf geachtet, Open-Source-Software zu bevorzugen. Am Ende steht ein elaboriertes System, welches abgesehen von der Hardware völlig frei verfügbar und quelloffen ist.