Fakultät 10 / Institut für Informatik
Refine
Year of publication
Document Type
- Master's Thesis (98)
- Bachelor Thesis (45)
- Study Thesis (9)
- Article (3)
- Preprint (1)
- Working Paper (1)
Keywords
- Datenbank (10)
- XML (7)
- Informatik (6)
- Agile Softwareentwicklung (5)
- Data-Warehouse-Konzept (5)
- Electronic Commerce (5)
- Internet (5)
- Semantic Web (5)
- Softwareentwicklung (5)
- Visualisierung (5)
In recent times, large language models (LLMs) have made significant strides in generating computer code, blurring the lines between code created by humans and code produced by artificial intelligence (AI). As these technologies evolve rapidly, it is crucial to explore how they influence code generation, especially given the risk of misuse in areas such as higher education. The present paper explores this issue by using advanced classification techniques to differentiate between code written by humans and code generated by ChatGPT, a type of LLM. We employ a new approach that combines powerful embedding features (black-box) with supervised learning algorithms including Deep Neural Networks, Random Forests, and Extreme Gradient Boosting to achieve this differentiation with an impressive accuracy of 98%. For the successful combinations, we also examine their model calibration, showing that some of the models are extremely well calibrated. Additionally, we present white-box features and an interpretable Bayes classifier to elucidate critical differences between the code sources, enhancing the explainability and transparency of our approach. Both approaches work well, but provide at most 85–88% accuracy. Tests on a small sample of untrained humans suggest that humans do not solve the task much better than random guessing. This study is crucial in understanding and mitigating the potential risks associated with using AI in code generation, particularly in the context of higher education, software development, and competitive programming.
Angesichts der wachsenden Bedeutung verteilter Systeme, der vielfältigen Nutzung von Multimedia-Inhalten auf unterschiedlichen Geräten und der fortlaufenden Weiterentwicklung von Browsern wird die Relevanz deutlich, das Potenzial von geräteübergreifenden Browserspielen zu untersuchen. Das Ziel dieser Arbeit besteht darin, den im vorangegangenen Praxisprojekt entwickelten Prototyp des Spiels "Finalblockdown" durch einen partizipativen Prozess weiterzuentwickeln und schließlich als Open-Source-Software zu veröffentlichen. Das direkte Einbeziehen ausgewählter Testnutzer in die Weiterentwicklung des Spiels zielt darauf ab, das Spielerlebnis, die technische Leistung sowie die Benutzerfreundlichkeit umfassend und nutzerorientiert zu verbessern.
Zur Durchführung des partizipativen Prozesses wurden mehrere Fokusgruppen gebildet, die während der gesamten Entwicklung aktiv mitgewirkt und jede Iteration eingehend getestet sowie evaluiert haben. Die Testläufe waren eine Kombination aus Play-Testing und Gruppeninterviews, die zur Auswertung mitgeschnitten wurden.
Basierend auf dem dokumentierten, zusammengetragenen und eingestuften Feedback aller Gruppen wurde ein Entwicklungsplan für die jeweilige Iteration erstellt.
Der partizipative Prozess brachte signifikante Vorteile, insbesondere im Hinblick auf die Gestaltung der Benutzeroberfläche, Spielmechaniken und des Testens. Limitationen durch begrenzte Zeit und Ressourcen zeigen jedoch, dass der partizipative Ansatz zeitintensiv ist, was in der Planung berücksichtigt werden muss. Durch den Prozess wurde ein visuell und spielerisch überzeugendes Spiel entwickelt, das komplexe Programmierkonzepte wie Websockets, WebGL-Grafiken und Spatial Hashing in Vanilla JavaScript umgesetzt hat und durch eigenes Hosting veröffentlicht wurde. Trotzdem hat das System noch umfangreiches Optimierungs- und Entwicklungspotenzial, weswegen es sich gut als Open-Source-Software eignet und so über den Projektrahmen hinaus weiterentwickelt werden wird. Weiterführende Forschungen könnten sich sowohl auf prozessbezogene als auch auf technische Aspekte konzentrieren. In der Weiterentwicklung des partizipativen Prozesses könnte man analysieren, wie die Einbindung von Testnutzern in komplexe Bereiche der Entwicklung, einschließlich Systemarchitektur und Leistung, die Demokratisierung des Designs verstärken könnte. Technische Untersuchungen könnten sich darauf konzentrieren, wie Optimierungen in den Bereichen Hosting, Websockets und Kollisionserkennung zur Leistungssteigerung des Systems beitragen können.
In the contemporary era, many organizations and companies are confronted with a signif-icant surge in data volumes. This has led to the challenge of capturing, storing, managing, and analyzing terabytes of data, which are stored in diverse formats and originate from numerous internal and external sources. Furthermore, the emergence of novel applica-tions, such as trading, and artificial intelligence, has made the processing of vast amounts of data in real time an absolute necessity. These requirements exceed the processing ca-pacity of traditional on-disk database management systems, which are ill-equipped to manage this data and to provide real-time results. Therefore, data management requires new solutions to cope with the challenges of data volumes and processing data in real time. An in-memory database system (IMDB- or IMD system) is a database management system that is emerging as a solution to these challenges, with the support of other tech-nologies. IMDBs are capable of processing massive data distinctly faster than traditional database management systems. This work examines the approach of IMDBs, with a par-ticular focus on SAP HANA, and compares it with other IMDBs.
Diese Arbeit befasst sich mit der immer vorhandenen Gefahr durch Cyberkriminelle auf Anwendungen und Informationssysteme. Die Informationssicherheit ist ein sehr umfangreiches Thema und sieht sich in der heutigen Zeit besonders starken Gefahren ausgesetzt, die durch die voranschreitende Digitalisierung immer gängiger werden. Durch ein gut eingerichtetes Datenbanksystem und einer gut entwickelten Datenbankanwendung soll es Anwendern ermöglicht werden, die Sicherheit dieser zu bewahren. Hierbei spielen Themen wie Authentifizierung, Zugriffskontrolle, PL/SQL Best Practices und Audits sowie Backups eine zentrale Rolle. Das Einrichten interner und externer Schutzmaßnah-men, explizit auch der Schutz vor SQL-Injektionen, sind die in dieser Arbeit zu behan-delnden Themen. Durch den korrekten Einsatz der prozeduralen Erweiterung von SQL sollen Schutzmechanismen erforscht und demonstriert werden, die eine Umfangreiche Bandbreite von potenziellen Angriffen abdecken können. Das Verständnis für den Einsatz der korrekten Verfahren soll über eine Methode, genannt Systematisches Risikomanagement, erörtert werden. In diesem Kontext werden Risiken identifiziert, um passende Lösungsvorschläge zu erforschen und zu präsentieren, um im Nachhinein ihren genauen Einsatz zu diskutieren. Durch den Einsatz der vorgestellten Methoden, Konzepte und Modelle soll die Sicherheitslandschaft im Bereich Informations- und Kommunikationstechnik optimiert werden, um einen soliden Schutz gegen präsente Gefahren zu leisten.
Diese Arbeit untersucht die Transformation des Point of Sale im Lebensmitteleinzelhandel durch die Implementierung intelligenter Regalsysteme. Angesichts der zunehmenden Digitalisierung im Einzelhandel konzentriert sich die Untersuchung auf die technische Implementierung sowie die ökonomische und ökologische Bewertung dieser innovativen Systeme. Die Forschung wurde durch eine Kombination aus Literaturrecherche, Experteninterviews und Feldforschung durchgeführt. Die Literaturrecherche diente dazu, ein fundiertes Verständnis der technischen Grundlagen und Architekturen intelligenter Regalsysteme zu erlangen, während die Experteninterviews tiefe Einblicke in deren praktische Anwendung und ökonomische Implikationen lieferten. Die Feldforschung, fokussiert auf Supermärkte in der Region Köln, validierte die theoretischen Erkenntnisse und bot praktische Perspektiven auf die Nutzung dieser Technologie. Die Ergebnisse zeigen, dass intelligente Regalsysteme signifikante ökonomische Vorteile bieten, indem sie die Effizienz und Kundenerfahrung verbessern. Allerdings bestehen Herausforderungen bei der Integration in bestehende IT-Infrastrukturen sowie in Bezug auf Datenschutz und Sicherheit. Die ökologische Nachhaltigkeit dieser Systeme wurde kritisch hinterfragt, wobei die Expertenmeinungen variieren. Die Arbeit prognostiziert, dass intelligente Regalsysteme in den nächsten 5-10 Jahren weiterentwickeln und durch Innovationen wie KI, NLP und Blockchain-Technologie erweitert werden. Diese Entwicklungen prägen den Lebensmitteleinzelhandel und bieten ökonomische Vorteile. Die Vorteile für Nachhaltigkeit lassen sich nach einigen Experten
hinterfragen. Diese Studie leistet einen wichtigen Beitrag zur aktuellen Forschung im Bereich der Wirtschaftsinformatik und bietet praktische Einblicke für Akteure im Lebensmitteleinzelhandel. Sie hebt die Bedeutung einer strategischen Herangehensweise bei der Implementierung dieser Technologien hervor und betont die Notwendigkeit, die Balance zwischen technologischen Innovationen und menschlichen Aspekten des Einkaufserlebnisses zu finden. Die Untersuchung lässt einen Trend hinsichtlich der Entwicklung und verbreitung intelligenter Regalsysteme erkennen.
Diese Arbeit untersucht verschiedene Ansätze, Daten im Google Cloud Firestore zu strukturieren und deren Auswirkungen auf Kosten, Performance sowie Codequalität. Zunächst folgt eine Aufbereitung des aktuellen Stands der Forschung. Darauf folgt die experimentelle Methodik. Hier dient eine prototypische Implementierung der Szenarien als Grundlage. Im Zuge des Experiments werden in unterschiedlichen Disziplinen Daten erhoben und im Anschluss ausgewertet, um empfehlenswerte Lösungen für definierte Anwendungsfälle zu benennen. Am Ende gibt die Arbeit ein kurzes Fazit zu den gewonnenen Erkenntnissen sowie einen Ausblick auf weitere Optimierungspotenziale ab.
Kategorisierung und Bewertung plattformübergreifender Ansätze für die Auswahl eines Frameworks
(2023)
Die plattformübergreifende Entwicklung ist eine populäre Art der Anwendungsentwicklung, die in der Forschung und Industrie immer weiter an Relevanz gewinnt. Dabei wird eine Codebasis geschrieben, die auf mehreren Betriebssystemen lauffähig ist. Das Ziel dieses Ansatzes ist es unter anderem, die Zeit- und Kosteneffizienz zu optimieren. Es gibt verschiedene Ansätze der plattformübergreifenden Entwicklung. Die einzelnen Frameworks lassen sich wiederum in diese Ansätze einteilen. Durch die steigende Akzeptanz dieser Art der Entwicklung herrscht eine zu große Auswahl an Frameworks, von denen jedes eigene Stärken und Schwächen aufweist. Dies ist ein Problem, da Entwickelnde keine Übersicht und Einordnung der Frameworks für ihre individuellen Bedürfnisse haben. Um diesem Problem entgegen zu wirken, wird in dieser Arbeit ein Verfahren entwickelt, mit dem das passende Framework für die Rahmenbedingungen des jeweiligen Projekts ermittelt werden kann. Dazu werden die Frameworks Kotlin Multiplatform, Flutter, React Native und Vue.js, das zur Umsetzung einer PWA genutzt wird, für eine mobile Anwendung getestet, die auf Android und iOS Geräten laufen soll. Zusätzlich werden 44 Kriterien ermittelt, anhand derer die Frameworks bewertet werden. Mit dem resultierenden Verfahren kann sowohl eine objektive, als auch eine subjektive Auswertung der Frameworks erfolgen, um eine geeignete Auswahl zu treffen.
In dieser Arbeit wird ein System zur Modellierung von IT-Compliance-Anforderun-gen in einer Graph-Datenbank entwickelt. Dabei werden organisationsinterne Com-pliance-Maßnahmen, ihre Umsetzungsdokumentation und die zwischen ihnen entstehenden Beziehungen berücksichtigt. Anschließend werden die Stärken und Schwächen des Systems anhand einer Erprobung mit Anforderungen an ein fiktives IT-Projekt der deutschen Versicherungsbranche herausgestellt und so die Praxistauglichkeit bewertet. Es wird unter anderem aufgezeigt, wie Compliance- Daten in die Datenbank aufgenommen werden können und welche Unterschiede es zu bisher verbreiteten Prozessen in diesem Gebiet gibt.
Die nachfolgende Masterarbeit untersucht die Nutzung von DeepFake-Anwendungen bei Personen mit einer Fazialisparese. Dabei handelt es sich um eine Lähmung des Gesichtnervs, wodurch die betroffenden Menschen keine bzw. keine vollständige Mimik im Gesicht haben. Es wird hierbei getestet, ob mithilfe von DeepFake eine möglichst realistische Mimik generiert werden kann. Für die Untersuchung werden zunächst sowohl die theoretischen Grundlagen als auch verschiedene potenzielle Anwendungen vorgestellt. Mithilfe der vorgestellten Anwendungen wird anschließend ein Versuch durchgeführt, in dem die künstliche Intelligenz mit Bildmaterial von Proband:innen trainiert und anschließend manipuliert wird. Die aus dem Versuch resultierenden Ergebnisse werden danach durch eine Umfrage mit Bildern, welche eine originale Mimik zeigen, verglichen. Dadurch soll überprüft werden, wie realistisch die manipulierten Bild- und Videomaterialien sind oder ob die künstliche Intelligenz an eine mögliche Grenze stößt. Abschließend werden weitere Forschungsansätze und Anwendungsmöglichkeiten vorgestellt, in welchem die betrachtete künstliche Intelligenz genutzt werden kann.