000 Allgemeines, Informatik, Informationswissenschaft
Refine
Year of publication
Document Type
- Bachelor Thesis (56)
- Master's Thesis (49)
- Article (11)
- Report (6)
- Study Thesis (6)
- Conference Proceeding (3)
- Working Paper (3)
- Contribution to a Periodical (2)
- Other (2)
- Preprint (1)
Has Fulltext
- yes (139)
Keywords
- E-Learning (7)
- Informatik (7)
- Datenbank (6)
- Datenschutz (5)
- Künstliche Intelligenz (5)
- Augmented Reality (4)
- Data Mining (4)
- Diabetes mellitus Typ 1 (4)
- Erweiterte Realität <Informatik> (4)
- Gamification (4)
Faculty
- Fakultät 10 / Institut für Informatik (71)
- Fakultät 10 / Advanced Media Institute (27)
- Fakultät 03 / Institut für Informationswissenschaft (9)
- Fakultät 10 / Cologne Institute for Digital Ecosystems (7)
- Fakultät 07 / Institut für Medien- und Phototechnik (5)
- Fakultät 07 / Institut für Nachrichtentechnik (4)
- Fakultät 01 / Institut für Medienforschung und Medienpädagogik (3)
- Fakultät 10 / Institut Allgemeiner Maschinenbau (3)
- Fakultät 04 / Schmalenbach Institut für Wirtschaftswissenschaften (2)
- Fakultät 09 / Cologne Institute for Renewable Energy (2)
Relevance Assessments, Bibliometrics, and Altmetrics: A Quantitative Study on PubMed and arXiv
(2022)
Relevance is a key element for analyzing bibliometrics and information retrieval (IR). In both domains, relevance decisions are discussed theoretically and sometimes evaluated in empirical studies. IR research is often based on test collections for which explicit relevance judgments are made, while bibliometrics is based on implicit relevance signals like citations or other non-traditional quantifiers like altmetrics. While both types of relevance decisions share common concepts, it has not been empirically investigated how they relate to each other on a larger scale. In this work, we compile a new dataset that aligns IR relevance judgments with traditional bibliometric relevance signals (and altmetrics) for life sciences and physics publications. The dataset covers PubMed and arXiv articles, for which relevance judgments are taken from TREC Precision Medicine and iSearch, respectively. It is augmented with bibliometric data from the Web of Science and Altmetrics. Based on the reviewed literature, we outline a mental framework supporting the answers to our research questions. Our empirical analysis shows that bibliometric ( implicit ) and IR ( explicit ) relevance signals are correlated. Likewise, there is a high correlation between biblio- and altmetrics, especially for documents with explicit positive relevance judgments. Furthermore, our cross-domain analysis demonstrates the presence of these relations in both research fields.
Brain–computer interfaces (BCIs) enable direct communication between the brain and external devices using electroencephalography (EEG) signals. BCIs based on code-modulated visual evoked potentials (cVEPs) are based on visual stimuli, thus appropriate visual feedback on the interface is crucial for an effective BCI system. Many previous studies have demonstrated that implementing visual feedback can improve information transfer rate (ITR) and reduce fatigue. This research compares a dynamic interface, where target boxes change their sizes based on detection certainty, with a threshold bar interface in a three-step cVEP speller. In this study, we found that both interfaces perform well, with slight variations in accuracy, ITR, and output characters per minute (OCM). Notably, some participants showed significant performance improvements with the dynamic interface and found it less distracting compared to the threshold bars. These results suggest that while average performance metrics are similar, the dynamic interface can provide significant benefits for certain users. This study underscores the potential for personalized interface choices to enhance BCI user experience and performance. By improving user friendliness, performance, and reducing distraction, dynamic visual feedback could optimize BCI technology for a broader range of users.
Co-Constructing KI – CoCoKI, Entwicklungslabor für einen geschützten Kommunikationsraum für Kinder
(2024)
Soziale Medien gehören längst zum Alltag von Kindern, weisen aber Gefährdungspotenziale und Interaktionsrisiken auf und sind aus Sicht des Jugendmedienschutzes für diese Zielgruppe ungeeignet. Kommunikationsräume, in denen sich Kinder unbeschwert und sicher mit ihren Freundinnen und Freunden austauschen können, fehlen.
Im Vorhaben „CoCoKI – Co-Constructing KI“ arbeiteten Kinder und Entwickler*innen in einem co-konstruktiven Prozess gemeinsam daran, ein soziales Netzwerk für Kinder im Alter von neun bis 13 Jahren zu konzipieren und einen Prototyp zu entwickeln. Die Bausteine für das soziale Medium - ausgerichtet an den UN-Kinderrechten „Schutz, Befähigung und Teilhabe“ – legen den Fokus auf Achtsamkeit, soziales Lernen und ein gelingendes Miteinander. Für gängige Funktionen eines Netzwerks, darunter Empfehlungen, Feedback, Resonanz und Inhalte-Moderation, wurden Möglichkeiten von Künstlicher Intelligenz und neuartigen Algorithmen für kindgerechte Gestaltung ausgetestet.
Im Bereich der Sprachmodelle existieren Methoden zur Analyse und Bewertung menschlicher Texte in Form eines Sentiment-Score, der die positive oder negative Stimmung eines Textes bewertet. Im Finanzsektor können solche Modelle auf Aktiennachrichten angewendet werden, um auf Basis dieses Sentiment-Scores Entscheidungen über den Kauf oder Verkauf von Aktien zu treffen. Allerdings birgt die Fokussierung auf die Stimmung das Risiko, dass wesentliche Informationen für die Kursentwicklung unberücksichtigt bleiben, was zur Folge hat, dass die Prognosen nicht so präzise sind, wie sie sein könnten. In dem vorangegangenen Praxisprojekt, das die Grundlage dieser Bachelorarbeit bildet, wurde dieses Prinzip überarbeitet und erweitert. Dabei wurde ein Sprachmodell entwickelt, das nicht mehr lediglich den Sentiment-Score berechnet, sondern direkt eine Kursänderung zu einem festgelegten Zieldatum auf Basis von Nachrichtenartikeln prognostiziert. Die vorliegende Bachelorarbeit greift diesen Ansatz auf und untersucht, inwieweit Unternehmen, die anhand der Größe ihrer Marktkapitalisierung, Dividendenrendite und Nettogewinnmarge in Gruppen eingeteilt wurden, eine stärkere Abhängigkeit von Nachrichten aufweisen. Darüber hinaus wird analysiert, wie sich diese Abhängigkeit auf die Genauigkeit der Kursänderungsprognosen auswirkt und in welchem Maße sie die erzielte Rendite beeinflusst. Die Analyse und Bewertung zeigt für alle untersuchten Unternehmen positive Tendenzen. Hervorzuheben ist, dass kleinere Unternehmen mit niedrigen Kennzahlenwerten signifikant bessere Ergebnisse erzielen als größere Unternehmen mit höheren Kennzahlenwerten.
In recent times, large language models (LLMs) have made significant strides in generating computer code, blurring the lines between code created by humans and code produced by artificial intelligence (AI). As these technologies evolve rapidly, it is crucial to explore how they influence code generation, especially given the risk of misuse in areas such as higher education. The present paper explores this issue by using advanced classification techniques to differentiate between code written by humans and code generated by ChatGPT, a type of LLM. We employ a new approach that combines powerful embedding features (black-box) with supervised learning algorithms including Deep Neural Networks, Random Forests, and Extreme Gradient Boosting to achieve this differentiation with an impressive accuracy of 98%. For the successful combinations, we also examine their model calibration, showing that some of the models are extremely well calibrated. Additionally, we present white-box features and an interpretable Bayes classifier to elucidate critical differences between the code sources, enhancing the explainability and transparency of our approach. Both approaches work well, but provide at most 85–88% accuracy. Tests on a small sample of untrained humans suggest that humans do not solve the task much better than random guessing. This study is crucial in understanding and mitigating the potential risks associated with using AI in code generation, particularly in the context of higher education, software development, and competitive programming.
Angesichts der wachsenden Bedeutung verteilter Systeme, der vielfältigen Nutzung von Multimedia-Inhalten auf unterschiedlichen Geräten und der fortlaufenden Weiterentwicklung von Browsern wird die Relevanz deutlich, das Potenzial von geräteübergreifenden Browserspielen zu untersuchen. Das Ziel dieser Arbeit besteht darin, den im vorangegangenen Praxisprojekt entwickelten Prototyp des Spiels "Finalblockdown" durch einen partizipativen Prozess weiterzuentwickeln und schließlich als Open-Source-Software zu veröffentlichen. Das direkte Einbeziehen ausgewählter Testnutzer in die Weiterentwicklung des Spiels zielt darauf ab, das Spielerlebnis, die technische Leistung sowie die Benutzerfreundlichkeit umfassend und nutzerorientiert zu verbessern.
Zur Durchführung des partizipativen Prozesses wurden mehrere Fokusgruppen gebildet, die während der gesamten Entwicklung aktiv mitgewirkt und jede Iteration eingehend getestet sowie evaluiert haben. Die Testläufe waren eine Kombination aus Play-Testing und Gruppeninterviews, die zur Auswertung mitgeschnitten wurden.
Basierend auf dem dokumentierten, zusammengetragenen und eingestuften Feedback aller Gruppen wurde ein Entwicklungsplan für die jeweilige Iteration erstellt.
Der partizipative Prozess brachte signifikante Vorteile, insbesondere im Hinblick auf die Gestaltung der Benutzeroberfläche, Spielmechaniken und des Testens. Limitationen durch begrenzte Zeit und Ressourcen zeigen jedoch, dass der partizipative Ansatz zeitintensiv ist, was in der Planung berücksichtigt werden muss. Durch den Prozess wurde ein visuell und spielerisch überzeugendes Spiel entwickelt, das komplexe Programmierkonzepte wie Websockets, WebGL-Grafiken und Spatial Hashing in Vanilla JavaScript umgesetzt hat und durch eigenes Hosting veröffentlicht wurde. Trotzdem hat das System noch umfangreiches Optimierungs- und Entwicklungspotenzial, weswegen es sich gut als Open-Source-Software eignet und so über den Projektrahmen hinaus weiterentwickelt werden wird. Weiterführende Forschungen könnten sich sowohl auf prozessbezogene als auch auf technische Aspekte konzentrieren. In der Weiterentwicklung des partizipativen Prozesses könnte man analysieren, wie die Einbindung von Testnutzern in komplexe Bereiche der Entwicklung, einschließlich Systemarchitektur und Leistung, die Demokratisierung des Designs verstärken könnte. Technische Untersuchungen könnten sich darauf konzentrieren, wie Optimierungen in den Bereichen Hosting, Websockets und Kollisionserkennung zur Leistungssteigerung des Systems beitragen können.
In the contemporary era, many organizations and companies are confronted with a signif-icant surge in data volumes. This has led to the challenge of capturing, storing, managing, and analyzing terabytes of data, which are stored in diverse formats and originate from numerous internal and external sources. Furthermore, the emergence of novel applica-tions, such as trading, and artificial intelligence, has made the processing of vast amounts of data in real time an absolute necessity. These requirements exceed the processing ca-pacity of traditional on-disk database management systems, which are ill-equipped to manage this data and to provide real-time results. Therefore, data management requires new solutions to cope with the challenges of data volumes and processing data in real time. An in-memory database system (IMDB- or IMD system) is a database management system that is emerging as a solution to these challenges, with the support of other tech-nologies. IMDBs are capable of processing massive data distinctly faster than traditional database management systems. This work examines the approach of IMDBs, with a par-ticular focus on SAP HANA, and compares it with other IMDBs.
Die Bachelorarbeit mit dem Titel ”Gezielte Maßnahmen zur Förderung von Studentinnen in IT-Studiengängen am Campus Gummersbach der TH Köln” verfolgt das Ziel, die Präsenz und den Erfolg von Frauen in den IT-Studiengängen der Technischen Hochschule Köln zu verbessern. Der Fokus dieser Arbeit liegt darauf, basierend auf empirischen Erkenntnissen und einem theoretischen Rahmen, realisierbare Fördermaßnahmen zu entwickeln. Zur Hauptmaßnahme gehört die Initiative ”Be a IT-Girl”, die durch verschiedene Ansätze wie ein spezifisches Podcast-Format und ein vielseitig nutzbares Raumkonzept die Gleichstellung und das Empowerment von Studentinnen fördern soll.
Die Arbeit wurde durch eine Kombination aus qualitativer und quantitativer Forschung gestützt, wobei Befragungen und Analysen zu den Herausforderungen und Bedürfnissen der Studentinnen am Campus Gummersbach durchgeführt wurden. Die entwickelten Maßnahmen wurden hinsichtlich ihrer Durchführbarkeit und erwarteten Effektivität bewertet, wobei ein besonderer Fokus auf die praktische Umsetzbarkeit und die Anpassung an die spezifischen Bedingungen Standort Gummersbach gelegt wurde.
Insgesamt bietet die Arbeit nicht nur einen tiefen Einblick in die Problemstellungen und Potenziale zur Förderung von Frauen in IT-Bereichen, sondern auch konkrete Lösungsansätze, die zu einer nachhaltigen Veränderung und Verbesserung der Situation beitragen können.