D. Software
Refine
Year of publication
Document Type
- Master's Thesis (15)
- Bachelor Thesis (12)
- Study Thesis (2)
- Part of a Book (1)
- Working Paper (1)
Language
- German (31) (remove)
Has Fulltext
- yes (31)
Keywords
- Agile Softwareentwicklung (2)
- Cloud (2)
- Cloud Computing (2)
- Comic (2)
- Data Mining (2)
- Datenbank (2)
- Datenschutz (2)
- E-Learning (2)
- Neuronale Netze (2)
- Neuronales Netz (2)
Faculty
- Fakultät 10 / Institut für Informatik (22)
- Fakultät 10 / Advanced Media Institute (3)
- Fakultät 10 / Cologne Institute for Digital Ecosystems (3)
- Angewandte Naturwissenschaften (F11) (1)
- Fakultät 01 / Institut für Medienforschung und Medienpädagogik (1)
- Fakultät 07 / Institut für Elektrische Energietechnik (1)
Diese Arbeit untersucht verschiedene Ansätze, Daten im Google Cloud Firestore zu strukturieren und deren Auswirkungen auf Kosten, Performance sowie Codequalität. Zunächst folgt eine Aufbereitung des aktuellen Stands der Forschung. Darauf folgt die experimentelle Methodik. Hier dient eine prototypische Implementierung der Szenarien als Grundlage. Im Zuge des Experiments werden in unterschiedlichen Disziplinen Daten erhoben und im Anschluss ausgewertet, um empfehlenswerte Lösungen für definierte Anwendungsfälle zu benennen. Am Ende gibt die Arbeit ein kurzes Fazit zu den gewonnenen Erkenntnissen sowie einen Ausblick auf weitere Optimierungspotenziale ab.
Architektur für ein Qualitätsmanagementsystem zur Verbesserung der Relevanz von Suchergebnissen
(2023)
Die Suchfunktion ist in vielen Softwareprodukten eine wichtige Komponente, die häufig zur Navigation in der Anwendung dient. Gerade, wenn große Datenmengen bereitgestellt werden, wie es bei Streamingdiensten (Netflix, Spotify) oder bei E-Commerce-Plattformen (Amazon, Zalando) der Fall ist, ist es wichtig, dass die Suchergebnisse für den Nutzer relevant sind. Eine für den Nutzer effektive Navigation mit der Suchfunktion ist nur möglich, wenn die Suchergebnisse eine ausreichend große Relevanz für den Nutzer bieten. Die Organisationen, welche die oben genannten Dienste betreiben, versuchen daher, die Relevanz ihrer Suchergebnisse zu optimieren. Eine Optimierung auf Relevanz ist zwar für eine spezielle Suche einfach, jedoch können dabei häufig Seiteneffekte auftreten, welche die Relevanz über alle Suchen verschlechtern. In einem E-Commerce-Shop kann das Einfiihren des Synonyms „Birne -> Glühbirne" dafür sorgen, dass Nutzer, die Gliihbirnen kaufen wollen und nach „Birne" suchen nun auch Gliihbirnen finden. Falls Nutzer aber das Obst Birne kaufen möchten, sind die Ergebnisse für diese Gruppe irrelevant. Bei einer Optimierung der Relevanz über alle Suchen können Qualitätsmanagementsysteme unterstützen. Ein Qualitätsmanagementsystem fiir die Relevanz von Suchergebnissen muss nicht nur fachliche und technische, sondern auch organisatorische Anforderungen beachten, um die Optimierungspotenziale vollständig auszuschöpfen. Diese Arbeit erläutert diese Anforderungen und stellt eine Architektur für ein Qualitätsmanagementsystem vor. Die Architektur wird hinsichtlich der Erfüllung der erläuterten Anforderungen analysiert. Desweiteren werden die Vor- und Nachteile fiir die jeweiligen Architekturentscheidungen unter Betrachtung der Anforderungen diskutiert. Das Ziel der Arbeit ist es, die Architektur entsprechend zu erläutern, sodass eine Organisation diese für sich angepasst implementieren kann.
Eine gängige Form der Qualitätskontrolle von Quellcode sind Code Reviews. Der Fokus von Code Reviews liegt allerdings oft auf syntaktischer Analyse, wodurch weniger Zeit für eine semantische Überprüfung bleibt und zusätzliche Kosten verursacht werden. Code Reviews lassen sich zwar teilweise durch "Linter" automatisieren, dennoch können sie nur syntaktische Fehlermuster identifizieren, welche vorher definiert wurden. Zudem kann ein Linter nur darauf hinweisen, dass möglicherweise ein Fehler vorliegt, da die Fehler nicht durch logische Inferenz ermittelt werden. Die vorliegende Arbeit prüft, ob ein Deep Learning Modell den regelbasierten Ansatz von Lintern ablösen und die semantische Ebene erschließen kann. Dazu wurde eine Stichprobe von Java Methoden zusammengestellt und im Anschluss mit einem Supervised Learning Ansatz binär klassifiziert. Da die Analyse von Quellcode der Textanalyse stark ähnelt wird ein gängiger Ansatz für Textklassifikation verwendet. Dadurch kann gezeigt werden, dass eine Präzision von 85% bei der Erkennung von Quellcodeproblemen durch Deep Learning möglich ist.
Biogas, mit geringen Konzentrationen an Methan, entsteht unter anderem bei verschiedenen industriellen Prozessen. Wegen der Umweltschädlichkeit des Methans gilt es dessen Eintrag in die Umwelt zu vermeiden.
Das Ziel des vorgestellten Projektes war die Überprüfung eines umweltfreundlichen Verfahrens zur Reduzierung des Methans durch methanotrophe Bakterien. Die einzelnen Batchversuche liefen über 15 Stunden und zeigten eine starke Reduzierung des Methans von 18 auf 1 Vol.-%.
Cloud Computing ist der zentrale Faktor zur Beschleunigung der Digitalisierung in Deutschland und wird in den kommenden Jahren eine wichtige Rolle in jedem deutschen Unternehmen spielen. Für Unternehmen wird es dabei um die Umsetzung von
Cloud-Strategien und die praktische Einbindung in die täglichen Betriebsprozesse gehen. Zusätzlich müssen Unternehmen ihre bestehende Datenlandschaft in moderne Architekturen zum Datenmanagement in die Cloud migrieren. Dabei können Unternehmen auf eine Vielzahl an unterschiedlichen unternehmensweiten Datenarchitekturen
zurückgreifen. Die vorliegende Masterarbeit gibt eine Einführung in die aktuelle Entwicklung von Cloud Computing und erläutert, mit Data Fabric, Data Lakehouse und Data Mesh, drei unternehmensweite Datenarchitekturen für die Cloud. Data Fabric, Data Lakehouse und Data Mesh bilden dabei aktuell die modernsten Konzepte für unternehmensweite Datenarchitekturen. Zusätzlich werden ein Data Lakehouse und ein Data Mesh in einer ausgewählten Cloud-Umgebungen entworfen, prototypisch aufgebaut und praktisch analysiert. Ziel der Masterarbeit ist es, die unternehmensweiten Datenarchitekturen in der Cloud zu erläutern, konkrete technologische Architekturen zu entwerfen und entsprechende Hinweise zu Aufwandstreibern in Unternehmen zu identifizieren.
Diese Bachelorarbeit "CloudRun - Analyse und Erweiterung" von Andreas Pahlen behandelt die Analyse der Software "CloudRun" sowie dessen Einbindung in eine Programmiersprache am Beispiel von Python.
Ziel der Analyse ist Herauszufinden, ob und in welchem Maße sich CloudRun für den produktiven Einsatz eignet, bzw. welche Änderungen nötig sind um einen sicheren und effizienten Einsatz zu ermöglichen.
Die Einbindung CloudRuns in die Programmiersprache Python dient als Beispielund Referenz zur Erstellung weiterer Frameworks und ermöglicht zugleich den Einsatz eines CloudRun-Servers für produktive Zwecke.
Bildungseinrichtungen haben zunehmende Bedarfe für professionelle digitale Kommunikation. Bei der Auswahl geeigneter Kommunikationstools besteht Bedarf für geeignete Informationen als Entscheidungsgrundlage. Insbesondere Messenger-Kommunikation ist stark im privaten Alltag der Personen integriert. Während Bedarfe für umfangreiche datensichere Kommunikation in bildungsrelevanten Kontexten steigen, mangelt es an Konzepten für datengeschützte (Karaboga et al. 2014; Digitalcourage e.V. o.J.) und Privatsphäre wahrende Unterstützung von Bildungsprozessen durch Software, an verpflichtender Ausbildung für Fachkräfte (Zorn, Tillmann und Kaminski 2014; Imort und Niesyto 2014), sowie an verlässlicher Information für praktikable Software-Alternativen. Der Beitrag skizziert die besonderen Anforderungen von Bildungseinrichtungen bei der Auswahl geeigneter Software am Beispiel von Messenger-Kommunikation. Aus diesen Anforderungen werden Kriterien für benötigte Informationen als Entscheidungsgrundlage für die Softwareauswahl in drei Kategorien vorgestellt: Datenschutz/Privatsphäre, Barrierefreiheit/Barrierearmut, Praktikabilität.
Da bislang keine Kriterien und Good-Practice-Vorschläge vorlagen, wurde eine Studie zur Eruierung der Eigenschaften potenziell geeigneter Messenger-Software erstellt. Hierfür wurden zunächst notwendige Kriterien zu den drei genannten Kategorien definiert und im Anschluss deutsche und bekannte internationale Messenger auf die Datenschutz-Kriterien hin geprüft. Aufgrund der Ergebnisse zur Konformität mit der Datenschutz-Grundverordnung der EU (DSGVO) als Einschlusskriterium wurden die in Frage kommenden Messenger einem Praxistest unterzogen. Dabei wurden teilweise iterativ weitere praxisrelevante Kriterien der Praktikabilität entwickelt.
Neben institutionsinternen Messengern konnten unter den frei erhältlichen anbieterabhängigen Messengern sechs Dienste identifiziert werden, die zumindest bei Nutzenden über 16 Jahren DSGVO-konform genutzt werden können. Zum Zeitpunkt der Veröffentlichung sind dies nur noch fünf: Threema, Wire, SID, Ginlo,Chiffry. Des Weiteren erscheinen anbieterunabhängige Messenger-Systeme, die den internationalen Standard für den Austausch von Chatnachrichten (XMPP) einhalten, als eine sinnvolle Möglichkeit für Bildungseinrichtungen. Hier kann ein eigenes oder beauftragtes Server-Hosting (im Verbund) möglich werden und es lässt sich bei einem IT-Dienstleister eine ntsprechende Vereinbarung zur Auftragsdatenverarbeitung abschließen.
Für den Projektkontext IDiT – nämlich die berufliche Bildung für angehende Kaufleute für Büromanagement an Berufsschulen und an Berufsförderungswerken – werden die Entscheidungen für die Nutzung von „Wire“ und „Threema Work“ erläutert und begründet. Die zugrundeliegenden Überlegungen sind zwar auf den Projektkontext (Anwendung im Berufsförderungswerk Köln) zugeschnitten, aber verallgemeinerbar.
Das Suchen ist eine der, wenn nicht die am häufigsten durchgeführte Tätigkeit im Internet. Täglich werden Suchmaschinen mit Problemen aus aller Welt und aller Domänen befragt, in der Hoffnung, dass das Internet eine Lösung bereitstellt. Neben dem Web der Dokumente, welches überwiegend die großen Suchmaschinenhersteller wie Google und Microsoft durchsuchen, existiert auch das weniger bekannte Web der Daten. In diesem Teil des Internets werden Daten, keine Dokumente, in einem festen Format kodiert.
Dadurch soll die Möglichkeit geschaffen werden, dass nicht nur Menschen, sondern auch Maschinen, diese Daten verarbeiten können. Die Daten enthalten untereinander Verlinkungen, weswegen man auch von Linked Data spricht. Mit der vom W3C standardisierten Abfragesprache SPARQL ist es möglich, diese Daten nach selbst definierten Kriterien abzufragen.
Diese Arbeit befasst sich mit der Entwicklung einer SPARQL Abfrage zur Ermittlung von Sehenswürdigkeiten in Köln. Anhand dieses Anwendungsbeispiels soll beschrieben werden, inwieweit Linked Data in der Lage ist, mit Problemen und Fragestellungen des Alltags umzugehen. Es wird sich zeigen, dass es grundsätzlich möglich ist, derartige Anwendungsszenarien mit Linked Data zu lösen. Ein umfassendes Suchergebnis, welches beispielsweise Reiseführer geben, konnte jedoch nicht erzielt werden. Grund dafür sind hauptsächlich, wie in dieser Arbeit dargelegt wird, inkonsistente Daten. Um diese Beobachtung aufstellen zu können, wurden präzisere Suchkriterien für Sehenswürdigkeiten spezifiziert.Weitere Auffälligkeiten, die während der Entwicklung bemerkt wurden, wurden entsprechend dokumentiert.
Das Ziel dieser Arbeit war es aufzuzeigen, warum eine elektronische Unterstützung bei politischen Wahlen in Deutschland bislang noch nicht möglich ist. Weder die Nutzung von einem Wahlcomputer im Wahllokal noch eine Stimmabgabe über das Internet vom heimischen PC aus sind möglich. Da die Digitalisierung längst in allen Lebensbereichen Einzug gefunden hat und es selbst einem Kühlschrank möglich ist, per E-Mail Bescheid zu sagen, wenn keine Milch mehr da ist, verwundert es doch schon sehr, dass wir noch immer mit Stift und Unmengen von Papier unsere Volksvertreter wählen. Um dies zu verstehen, werden in dieser Arbeit die gesetzlichen Vorgaben für eine politische Wahl erläutert und deren Bedeutung für elektronisch unterstützte Wahlen aufgezeigt. Dabei liegt das Hauptaugenmerk auf einer Wahlmöglichkeit über das Internet. Es werden mögliche Chancen, Risiken und Anforderungen eines solchen Wahlverfahrens erörtert und gezeigt, warum eine technische Umsetzung so schwer ist und wie eine solche möglicherweise aussehen könnte. Außerdem werden die Themen eines elektronischen Personalausweises, der elektronischen Partizipation und deren Bedeutung für ein Internet-Wahlsystem erläutert sowie ein Blick darauf geworfen, wie andere europäische Länder dieses Thema behandeln.
Neben den großen Anbietern digitaler Comics mit elektronischem Kopierschutz (DRM) haben sich auch Anbieter für DRM-freie Comics etabliert. Als Open Source-Alternative zu den Plattformen Ersterer wurde im Rahmen des Praxisprojekts die Software ComicLib als Web-App zur Verwaltung digitaler Comicsammlungen geschaffen. Diese ermöglicht die gemeinsame Verwaltung DRM-geschützter sowie -freier Comics. Letz-tere sind außerdem im Webbrowser lesbar. Die im Rahmen dieser Arbeit entstandene And-roid-App soll eine Open Source-Alternative zu den mobilen Apps der Plattformen der gro-ßen Anbieter sein und ComicLib um eine mobile App zur Offline-Nutzung der Comics erwei-tern. Der erste Prototyp wird im Nachgang des Projekts weiter getestet und verbessert, be-vor die erste stabile Version veröffentlicht wird.