Refine
Year of publication
Document Type
- Master's Thesis (98)
- Bachelor Thesis (43)
- Study Thesis (9)
- Article (2)
- Preprint (1)
- Working Paper (1)
Keywords
- Datenbank (9)
- XML (7)
- Informatik (6)
- Agile Softwareentwicklung (5)
- Data-Warehouse-Konzept (5)
- Electronic Commerce (5)
- Internet (5)
- Semantic Web (5)
- Softwareentwicklung (5)
- Visualisierung (5)
- Data Mining (4)
- Suchmaschine (4)
- Android (3)
- Benutzerfreundlichkeit (3)
- Big Data (3)
- Cloud Computing (3)
- DSGVO (3)
- Data Ware House (3)
- Datenschutz (3)
- Datenverarbeitung (3)
- E-Learning (3)
- Framework <Informatik> (3)
- Hadoop (3)
- Java (3)
- Kontext (3)
- Künstliche Intelligenz (3)
- MySQL (3)
- NoSQL-Datenbanksystem (3)
- ORACLE <Datenbanksystem> (3)
- Ontologie <Wissensverarbeitung> (3)
- Portal <Internet> (3)
- REST <Informatik> (3)
- Software Engineering (3)
- Android <Systemplattform> (2)
- Business Intelligence (2)
- Business-to-Business-Marketing (2)
- Comic (2)
- Datenbanksystem (2)
- Dojo (2)
- EJB (2)
- Enterprise JavaBeans (2)
- Evaluation (2)
- FHIR (2)
- Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung (2)
- Graphdatenbank (2)
- HTTP (2)
- Health Care (2)
- IT-Compliance (2)
- Informationsmanagement (2)
- Informationssystem (2)
- Internet der Dinge (2)
- IoT (2)
- Java Server Faces (2)
- Java Server Pages (2)
- JavaScript (2)
- Kundenmanagement (2)
- Marketing (2)
- Medizinische Informatik (2)
- Mobile Applikation (2)
- Mobile Computing (2)
- Modellierung (2)
- Neuronale Netze (2)
- Neuronales Netz (2)
- NoSQL (2)
- ORACLE 8.0 (2)
- Ontologie (2)
- Ontology (2)
- Open Source (2)
- Oracle (2)
- Oracle 12c (2)
- Oracle Applications (2)
- PHP (2)
- REST (2)
- Relationale Datenbank (2)
- Relationales Datenbanksystem (2)
- Requirements engineering (2)
- SAP (2)
- SAP HANA (2)
- SAP R/3 (2)
- Schnittstelle (2)
- Serviceorientierte Architektur (2)
- Sicherheit (2)
- Technische Hochschule Köln (2)
- Text Mining (2)
- Twitter (2)
- Usability (2)
- Virtuelle Realität (2)
- Web Services (2)
- eLearning (2)
- 3D models (1)
- 3D reconstruction (1)
- ADT (1)
- AI (1)
- AIS (1)
- API (1)
- APNS (1)
- Abrechnungs-Datenträger <Kassenärztliche Bundesvereinigung> (1)
- Agenten (1)
- Ajax <Informatik> (1)
- Aktienanalyse (1)
- Amazon (1)
- Apache <Programm> (1)
- Apache Struts (1)
- App <Programm> (1)
- Applications (1)
- Archaeology (1)
- Architecture (1)
- Architektur (1)
- Architektur <Informatik> (1)
- Archivierung (1)
- Archäologie (1)
- Arzt / Honorar (1)
- Atlassian (1)
- Audio (1)
- Augmented Reality (1)
- Automatische Kategorisierung (1)
- Automatische Spracherkennung (1)
- Automatische Text-Extraktion (1)
- Avatar (1)
- BPEL (1)
- BPMN (1)
- Benutzeroberfläche (1)
- Bestärkendes Lernen <Künstliche Intelligenz> (1)
- Betriebssicherheit (1)
- Bewegung (1)
- Bilddatenbank (1)
- Blindeninformatik (1)
- Blockchain (1)
- Bridge <Kommunikationstechnik> (1)
- Business Process Execution Language (1)
- C2DM (1)
- CORBA (1)
- COSIMA (1)
- CRM (1)
- Cassandra (1)
- Chat-Analyse (1)
- Chat-Analysis (1)
- Chat-Communication (1)
- Chat-Kommunikation (1)
- Chatten <Kommunikation> (1)
- Client-Server-Konzept (1)
- Clinical Trials (1)
- Cloud (1)
- Clud Computing (1)
- Cocoon (1)
- Comics (1)
- Computer Supported Cooperative Work (1)
- Computer graphics (1)
- Computergrafik (1)
- Computersicherheit (1)
- Context (1)
- Context Adaptation (1)
- Context Framework (1)
- Context Modeling (1)
- Context Reasoning (1)
- Context Service (1)
- Context-Awareness (1)
- Controlling (1)
- Controlling / Operative Planung (1)
- Cross-Platform (1)
- DIN EN ISO 9241 (1)
- DSM (1)
- DUH (1)
- Data Lake (1)
- Data Lakehouse (1)
- Data Mesh (1)
- Data Warehouse (1)
- Data lake (1)
- Data protection (1)
- Database (1)
- Datamining (1)
- Datenbankentwurf (1)
- Datenintegration (1)
- Datenschutz-Grundverordnung (1)
- Datenschutzmanagement (1)
- Datenspeicherung (1)
- Datenstruktur (1)
- Datenteleportation (1)
- Decision Tree (1)
- Deepfake (1)
- Deployment (1)
- Design (1)
- Deuschland (1)
- Deutsche Unfallhilfe (1)
- DevOps (1)
- Dienstleistungsbetrieb (1)
- Dienstleistungsmarketing (1)
- Dimension 3 (1)
- Disease Management (1)
- Dojo Toolkit (1)
- Domain-Specific Academic Search (1)
- Dubletten (1)
- Dublettensuche (1)
- E-Business (1)
- E-Government (1)
- E-Mail (1)
- E-Mail-Marketing (1)
- E-Voting (1)
- EAI (1)
- EDB (1)
- EDIFACT (1)
- ER-Modell (1)
- ERP (1)
- Echtzeitkommunikation (1)
- Einsatzmittel (1)
- Electronic Comerce (1)
- Electronic Government (1)
- Elektronische Wahl (1)
- Elektronischer Datenaustausch (1)
- Elektronisches Publizieren (1)
- Emoticons (1)
- Enterprise Information Portal (1)
- Enterprise-Resource-Planning (1)
- Entscheidungsbaum (1)
- Entwicklung (1)
- Erweiterte Realität <Informatik> (1)
- Evaluation Infrastructures (1)
- Explainable AI (1)
- Explainable Artificial Intelligence (1)
- Facialislähmung (1)
- Fazialisparese (1)
- Fernsehsender (1)
- Feuerwehr (1)
- Flutter (1)
- Formale Begriffsanalyse (1)
- Formale Semantik (1)
- Fotoportal (1)
- Framework (1)
- Frau (1)
- Frauen (1)
- GDPR (1)
- GIS (1)
- Gamification (1)
- Gateway (1)
- Gebrauchstauglichkeit (1)
- Geld (1)
- Geodaten (1)
- Geografisches Informationssystem (1)
- Geospatial Analysis (1)
- Geschlecht (1)
- Gesichtslähmung (1)
- Gestenerkennung (1)
- Google Cloud Firestore (1)
- Google Glass (1)
- Graph Query Expressiveness (1)
- Graphendatenbanken (1)
- Graphische Darstellung (1)
- HCD (1)
- HCI (1)
- HDFS (1)
- HTML (1)
- Hadoop Distributed File System (1)
- Handel (1)
- Hauptspeicher (1)
- Hexad (1)
- Historical development (1)
- Hochschule (1)
- Hydrologie (1)
- Hyperlink (1)
- Hypermedia (1)
- IMK (1)
- ISO 13407 (1)
- Immobilienmarkt (1)
- Immobilienwirtschaft (1)
- In Memory (1)
- In-Memory-Datenbank (1)
- Informatik> (1)
- Informatikstudium (1)
- Informationsaggregation (1)
- Informationsintegration (1)
- Innovationscontrolling (1)
- Installation (1)
- Institut für Medienkommunikation (1)
- Integration (1)
- Intelligente Regalsysteme (1)
- Interaktion (1)
- Internet of Things (1)
- Internetwahl (1)
- Interoperability (1)
- JAVA Enterprise (1)
- JAVAEE (1)
- JAX (1)
- JSF (1)
- JSP (1)
- JSR (1)
- Java 2 Enterprise Edition (1)
- Java <Programmiersprache> (1)
- Java Enterprise (1)
- Java Message Service (1)
- Java Specification Request (1)
- Java Swing (1)
- Java-JVC/Swing (1)
- Java/JDBC (1)
- JavaDoc (1)
- JavaEE (1)
- Jira (1)
- KBV (1)
- KI (1)
- KVDT (1)
- Kassenärztliche Bundesvereinigung (1)
- Katalog (1)
- Kategorisierung (1)
- Kinect (1)
- Klassifikation (1)
- Klein- und Mittelbetrieb (1)
- Kleinunternehmen (1)
- Kognitionsstile (1)
- Kognitive Psychologie (1)
- Komfort (1)
- Kommunikation (1)
- Kommunikationssoftware (1)
- Kontextabhängig (1)
- Kontextadaptiv (1)
- Kontextbezogenes System (1)
- Kotlin (1)
- Kotlin <Programmiersprache> (1)
- Kreativität (1)
- Kriminalität (1)
- Kryptosystem (1)
- LEGO MindStorms (1)
- LINUX (1)
- Leistungsbewertung (1)
- Linked Data (1)
- Log -Daten-Analyse (1)
- Lotus Notes (1)
- Lotus Notes 5.0 (1)
- MCI (1)
- MariaDB (1)
- Marketing / Strategisches Management (1)
- Marketing-Mix (1)
- Massendaten (1)
- Medical Knowledge (1)
- Medical Subject Heading (1)
- Medieninformatik (1)
- Medizinische Datenbank (1)
- Mehragentensystem (1)
- Mensch-Computer Interaktion (1)
- Mensch-Maschine-Kommunikation (1)
- Metadaten (1)
- MicroStrategy (1)
- Mobile Verfahren (1)
- Mobilität (1)
- Modell (1)
- Motioncontroller (1)
- Movement (1)
- Multiagent (1)
- Multimedia (1)
- Multiplattform (1)
- Multiprozessbetrieb (1)
- Multitasking (1)
- Music (1)
- Musik (1)
- Neo4j (1)
- Newsletter (1)
- Nichtverbale Kommunikation (1)
- OASIS (1)
- OR-Mapper (1)
- ORACLE Web Application Server (1)
- OWL <Informatik> (1)
- Object Triple Mapping (1)
- Objektorientierung (1)
- Online training (1)
- Online-Schulung (1)
- Online/Offline Evaluation (1)
- Open Resource Planning (1)
- Oracle Corporation (1)
- Oracle Portal 3.0 (1)
- Organisation (1)
- PL/SQL (1)
- PVS (1)
- PaaS <Systemplattform> (1)
- Performance (1)
- Perl <Programmiersprache> (1)
- Perl/TK (1)
- Personalauswahl (1)
- Personaleinsatz (1)
- Personnel (1)
- Pflegedienstleistung (1)
- Photographie (1)
- Physical Facilities (1)
- Platform-as-a-Service (PaaS) (1)
- Platzierung (1)
- Postgres (1)
- Preispolitik (1)
- Problemlösen (1)
- Process Management (1)
- Produktmarketing (1)
- Produktpolitik (1)
- Programmiersprache (1)
- Programmiersprachen (1)
- Programminformation (1)
- Projektmanagement (1)
- Promotion (1)
- Prototyp (1)
- Prototyping (1)
- Prozesskette (1)
- PubMed (1)
- Public Relations (1)
- Publish-Subscribe-System (1)
- Pull-Prinzip (1)
- Pure Data (1)
- Push-Prinzip (1)
- Quad-Baum (1)
- Quadtree (1)
- Qualitätsmanagementsystem (1)
- Quantencomputer (1)
- Quantenphysik (1)
- Quantenteleportation (1)
- Quantenverschränkung (1)
- Quiz (1)
- RDBMS (1)
- RDBS (1)
- RESTful (1)
- ROLAP (1)
- Rapid Prototyping (1)
- Rappid Application Developments (RAD) (1)
- Raumdaten (1)
- Real-Time Communication (1)
- Recruiting (1)
- Redaktionssystem (1)
- Reinforcement Learning (1)
- Rekonstruktion (1)
- Reorganisation (1)
- Reproducibility (1)
- Research Protocols (1)
- Responsive Web Design (1)
- Responsive Webdesign (1)
- Retail (1)
- Roberta (1)
- Router (1)
- Rule Learning (1)
- S/4HANA (1)
- SAP/R3 (1)
- SEO (1)
- SOAP (1)
- SOAP <Programmiersprache> (1)
- SQL (1)
- Schulung (1)
- Schwarmintelligenz (1)
- Scrum <Vorgehensmodell> (1)
- Semantische Modellierung (1)
- Semantisches Datenmodell (1)
- Semantisches Netz (1)
- Sentiment-Analyse (1)
- Sentimentanalyse (1)
- Service-Engineering (1)
- Session Beans (1)
- Sicherheitsmaßnahmen (1)
- Slow Feature Analysis (1)
- Smart Home (1)
- Smart Shelves (1)
- Social Media (1)
- Social Media Analyse (1)
- Social Tagging (1)
- Software-Architektur (1)
- Software-Architekturen (1)
- Software-Qualitätsmanagement (1)
- Software-Qualitätssicherung (1)
- Softwarearchitektur (1)
- Softwareproduktion (1)
- Soziologie (1)
- Sportmedizin (1)
- Spring <Framework (1)
- Statistik (1)
- Struts (1)
- Suchmaschinen (1)
- Suchmaschinenoptimierung (1)
- Systemplanung (1)
- TOPCALL (1)
- Text Mining Datenbank (1)
- Tie-Strength (1)
- Tie-strength (1)
- Titanium (1)
- Transkription (1)
- Tropentechnologie (1)
- Trusted Computing (1)
- Twitter <Softwareplattform> (1)
- UCD (1)
- UI-Design (1)
- UIX (1)
- Unified Medical Language System (1)
- Unternehmenssicherheit (1)
- Unüberwachtes Lernen (1)
- Update (1)
- Usability Engineering (1)
- User Interfaces (1)
- VR (1)
- Validierung (1)
- Verschränkter Zustand (1)
- Verteiltes Datenverarbeitungssystem (1)
- Vertrieb (1)
- Vertriebsorganisation (1)
- Verwaltung (1)
- Virtual Reality (1)
- Virtuelle Maschine (1)
- Visual Analytics (1)
- Warenwirtschaftssystem (1)
- Web (1)
- Web Framework (1)
- Web Technologie (1)
- Web-Framework (1)
- Wii-Controller (1)
- Wiimote (1)
- World Wide Web (1)
- World Wide Web 2.0 (1)
- XSL (1)
- YOLOv5-Algorithmus (1)
- Zeitreihe (1)
- Zeitreihen (1)
- agile software development (1)
- android (1)
- classification (1)
- cognitive styles (1)
- context (1)
- context awareness (1)
- context-adaptive (1)
- context-dependent (1)
- creativity (1)
- design (1)
- eBusiness (1)
- eCRM (1)
- eCommerce (1)
- eLML (1)
- electronic Customer Relationship Marketing (1)
- elektronische Geschäftsdokumente (1)
- europäische Datenschutzgrundverordnung (1)
- game development (1)
- gesture recognition (1)
- kd-tree (1)
- kontextsensitiv (1)
- mobile Anwendungen (1)
- mobile Datenbank (1)
- mobile apps (1)
- multiprocessing (1)
- multitasking (1)
- nonverbal Communication (1)
- nonverbale Kommunikation (1)
- open street map (1)
- openfactory (1)
- problem solving (1)
- procedural content creation (1)
- procedural generation (1)
- project management (1)
- r-tree (1)
- requirements elicitation (1)
- security measures (1)
- unsupervised learning algorithm (1)
- überbetriebliche Bedarfsplanung (1)
- überbetriebliche Transparenz (1)
Faculty
- Fakultät 10 / Institut für Informatik (154) (remove)
Aufgrund des Mangels an Softwareprodukten, die Projektmitarbeiter beim örtlich und zeitlich verteilten Arbeiten in Projekten effizient und zufriedenstellend unterstützen, soll ein ToDo-Manager entwickelt werden, der den Bedürfnissen der Benutzer gerecht wird und deren Anforderungen erfüllt. Valide Prototypen basieren auf Anforderungen der Benutzer und spiegeln deren Interaktion mit dem System wider. Die konstruierten Interaktionsentwürfe sollen in Prototypen abgebildet, evaluiert und überarbeitet werden, bis die Aufgaben der Benutzer durch die Dialogschritte abgebildet werden, sodass eine effiziente und zufriedenstellende Bearbeitung ermöglicht wird. Auf der Basis von ermittelten Nutzungsobjekten und Werkzeugen wird die Navigationsstruktur ermittelt sowie der Funktionsumfang des Systems definiert. Das User-Interface Design beschreibt die Entwicklung von Prototypen, die durch Benutzer evaluiert werden. Berücksichtigt werden neben der Interaktion auch gestalterische Aspekte. Die evaluierten Prototypen werden iterativ überarbeitet, damit ein gebrauchstaugliches Modell des ToDo-Managers entsteht. Ziel der Bachelorarbeit ist das Durchführen einer konzeptionellen und konkreten User Interface Design Phase, in denen die Entwicklung eines auf den Anforderungen der Benutzer basierenden demonstrierbaren und interagierbaren Prototypen für einen ToDo-Manager angestrebt wird.
Das Ziel der vorliegenden Bachelorarbeit war es, das In-Memory-Konzept innerhalb einer Oracle Datenbank auf neue Mechanismen, Funktionen und Methoden zu untersuchen. Dazu wurde eine Datenbank erstellt und mit Beispieldaten bestückt. Diese Beispieldaten sind Aktienwerte der DAX-30 Unternehmen, welche durch eine Reihe von Indikatoren aus der technischen Analyse eine komplexe Möglichkeit der Analyse bieten. Die Ergebnisse bestätigen, dass das In-Memory-Konzept neben dem bekannten Spaltenformat eine Reihe von Techniken und Funktionen bietet, welche sich positiv bei der Verarbeitung von Daten durch Data Query Language-Befehle auswirken. Es kommen auch Nachteile, wie der flüchtige Speicher zum Vorschein, dennoch überwiegen die Vorteile stark. Nach einer Reihe von Tests wird deutlich, dass Objekte, die in den In-Memory-Column-Store geladen werden, nur 30 % der Zeit benötigen, um gelesen zu werden. Dies ist für die Verarbeitung von großen und komplexen Daten eine deutliche Verbesserung. Die Bachelorarbeit richtet sich an Studierende der Fachbereiche Informatik und BWL sowie an Interessierte im Bereich Datenbanken.
In dieser Arbeit wird ein System zur Modellierung von IT-Compliance-Anforderun-gen in einer Graph-Datenbank entwickelt. Dabei werden organisationsinterne Com-pliance-Maßnahmen, ihre Umsetzungsdokumentation und die zwischen ihnen entstehenden Beziehungen berücksichtigt. Anschließend werden die Stärken und Schwächen des Systems anhand einer Erprobung mit Anforderungen an ein fiktives IT-Projekt der deutschen Versicherungsbranche herausgestellt und so die Praxistauglichkeit bewertet. Es wird unter anderem aufgezeigt, wie Compliance- Daten in die Datenbank aufgenommen werden können und welche Unterschiede es zu bisher verbreiteten Prozessen in diesem Gebiet gibt.
An empirical evaluation of using the Swift language as the underlying technology of RESTful APIs
(2016)
The purpose of the current thesis is to determine the appropriateness of using the Swift language as the underlying technology for the development of RESTful APIs in a Linux environment. The current paper describes the process of designing, implementing and testing individual RESTful API components based on Node.js, PHP, Python and Swift and seeks to determine whether Swift is a viable alternative.
The thesis begins by defining a methodology for implementing and testing individual RESTful API components based on Node.js, PHP, Python and Swift. It then proceeds to detail the implementation and testing processes, following with an analytic discussion regarding the advantages and drawbacks of using the Swift language as the underlying technology for RESTful APIs and server-side Linux-based applications in general.
Based on the implementation process and on the results of the previously mentioned evaluation phase, it can be stated that the Swift language is not yet ready to be used in a production environment. However, its rapid evolution and potential for surpassing its competitors in the foreseeable future make it an ideal candidate for implementing RESTful APIs to be used in development environments.
Das Ziel dieser Arbeit war es aufzuzeigen, warum eine elektronische Unterstützung bei politischen Wahlen in Deutschland bislang noch nicht möglich ist. Weder die Nutzung von einem Wahlcomputer im Wahllokal noch eine Stimmabgabe über das Internet vom heimischen PC aus sind möglich. Da die Digitalisierung längst in allen Lebensbereichen Einzug gefunden hat und es selbst einem Kühlschrank möglich ist, per E-Mail Bescheid zu sagen, wenn keine Milch mehr da ist, verwundert es doch schon sehr, dass wir noch immer mit Stift und Unmengen von Papier unsere Volksvertreter wählen. Um dies zu verstehen, werden in dieser Arbeit die gesetzlichen Vorgaben für eine politische Wahl erläutert und deren Bedeutung für elektronisch unterstützte Wahlen aufgezeigt. Dabei liegt das Hauptaugenmerk auf einer Wahlmöglichkeit über das Internet. Es werden mögliche Chancen, Risiken und Anforderungen eines solchen Wahlverfahrens erörtert und gezeigt, warum eine technische Umsetzung so schwer ist und wie eine solche möglicherweise aussehen könnte. Außerdem werden die Themen eines elektronischen Personalausweises, der elektronischen Partizipation und deren Bedeutung für ein Internet-Wahlsystem erläutert sowie ein Blick darauf geworfen, wie andere europäische Länder dieses Thema behandeln.
Aus Filmen wie „Star Trek“ kennen wir „Beamen“. Dort werden komplette Personen durch Beamen auf z.B. Planeten transportiert. Dies hört sich im ersten Moment sehr nach Science-Fiction an, allerdings ist das Beamen von Informationen seit ein paar Jahren sehr real geworden.
Nach einem Grundverständnis für herkömmliche Datenübertragungen wird die Quantenphysik vorgestellt mit ihren grundlegendsten Begriffen. Anschließend wird nun die Quantenteleportation vorgestellt. Einleitend dazu wird zuerst die Quantenverschränkung erklärt, auf der die Teleportation beruht. Es wird erklärt, wie solche Verschränkungen entstehen, um dann den Aufbau einer Teleportation mit den aktuellen Fortschritten vorzustellen sowie Ziele der Quantenteleportation zu beschrieben. Mit deren Hilfe werden Quantencomputern unterstützt.
Customer Relationship Management (CRM) ist ein seit einiger Zeit in allen Managementpublikationen heiß diskutiertes Thema. Die Philosophie des CRM stellt den Kunden in den Mittelpunkt der Unternehmensaktivitäten und -prozesse, mit dem Ziel der größtmöglichen Ausschöpfung von Kundenpotentialen und damit einhergehender Umsatzmaximierung. Voraussetzung dafür ist die umfassende Kenntnis der Kundenbedürfnisse und eine daran orientierte Kommunikation mit dem Kunden. Dies Bedingt einen optimalen Überblick über alle zu einem Kunden verfügbaren Daten1. Dieses Ziel kann nur durch das unternehmensweite Zusammenspiel aller relevanter Unternehmensbereiche und -systeme erreicht werden. Das macht die Abkehr von der rein bereichsbezogenen bzw. funktionalen Organisation im Unternehmen, hin zu einem Denken in horizontalen, also abteilungsübergreifenden Geschäftsprozessen, notwendig. Dabei ist es Aufgabe der Informationstechnik, die Prozesse mit den notwendigen Werkzeugen zu unterstützen. Neben der Unterstützung und Verbesserung der Kommunikation zwischen Kunden, Unternehmen und den an den unternehmensinternen Prozessen beteiligten, liegt dabei ein Schwerpunkt in der Ausnutzung bereits vorhandener Daten. Diese schlummern häufig in den unterschiedlichsten Systemen verschiedener Abteilungen entlang der betrieblichen Wertschöpfungskette. Es gilt, die vorhandenen Quellen zu erschließen und in die Unterstützung aller horizontal integrierten Geschäftsprozesse einzubinden.
Für EDB, das e-Learning Datenbank Portal der TH Köln, soll im Zuge dieser Arbeit eine Komponente zum Verwalten und Durchführen von Mehrspieler-Livequiz entwickelt werden. Um die Motivation der Nutzer zu erhöhen, soll diese an die unter der Zielgruppe verbreitetsten Nutzertypen des Hexad-Frameworks angepasst werden. Dazu wurde eine Umfrage mit Studierenden der TH Köln durchgeführt. Mithilfe der validen Antworten (N=52) wurde unter anderem die Verteilung der Übereinstimmung mit den sechs Nutzertypen Philanthropist,
Socializer, Free Spitit, Achiever, Player sowie Disruptor ermittelt. Neben der Übereinstimmung mit den Nutzertypen wurden auch verschiedene technische Daten wie Bildschirmauflösungen und verwendete Browser und Betriebssysteme erhoben, welche beim Testen der Anwendung eine optimale Darstellung derselben bei einem möglichst großen Anteil der Zielgruppe bedingen könnten. In mehreren Schritten, von einer Betrachtung etablierter Alternativen bis zur Entwicklung eines Wireframes, wurde eine konzeptuelle
Lösung entwickelt und realisiert. Dabei wurde ein Datenbankschema zur Speicherung der Quiz, Fragen und Antworten mitsamt einer API designt und angelegt. Das Ergebnis ist die Implementation einer Anwendung, welche alle Must-Have und mehrere Nice-To-Have Anforderungen erfüllt. Mit dieser können Quiz mit Fragen und Antworten erstellt, bearbeitet, gelöscht und in Quizräumen von mehreren Personen synchron gelöst werden. Es werden Zwischenergebnisse für die einzelnen Fragen und eine Rangliste mit den Endergebnissen eines Quiz angezeigt. Für eine Weiterentwicklung wurden acht
Verbesserungsansätze erdacht.
Bei der Entwicklung interaktiver Software werden die Belange der Benutzer oft außer Acht gelassen oder nur unzureichend berücksichtigt. Dies führt dazu, dass das System von den Benutzern nicht akzeptiert wird, es die Benutzer nicht im ausreichenden Maße unterstützt oder, im Ernstfall, die Benutzer ihre Aufgaben nicht vollständig lösen können. Um einen Nährboden für die Entwicklungsprozesse von gebrauchstauglicher Software zu schaffen, muss eine grundlegende Entscheidung getroffen werden. Der Usability Engineering Prozess wird selbst geplant und durchgeführt, oder extern an eine Firma weitergegeben. Diese Arbeit beschäftigt sich mit ersterem und integriert den Usability Engineering- und Softwareentwicklungsprozess in einem Framework mit agilem Vorgehensmodell, welches sich an erfahrene Projektleiter, Projektmanager und Softwareentwickler ohne gefestigtes Wissen im Bereich des Usability Engineerings richtet. Es werden Ziele definiert und mögliche Methoden und Techniken vorgestellt, mit denen diese Ziele erreicht werden können. Da sich das Framework an Softwareentwickler richtet, die einen Usability Enginigeering Prozess integrieren wollen, werden zwar notwendige Ziele der Softwareentwicklung, aber nicht die Methoden und Techniken diese zu erreichen, vorgegeben, um einen etablierten Softwareentwicklungsprozess nicht zu sehr zu beeinflussen.
Im vorangegangenen Praxisprojektes »Das Zusammenspiel zwischen Usability und Suchmaschinenoptimierung - Tipps und Methoden für eine verbesserte Sichtbarkeit und Nutzbarkeit von Internetseiten « wurde dem unerfahrenen Content-Erzeuger Grundwissen in der Suchmaschinen- und Usability-Optimierung vermittelt. Ziel dieser wissenschaftlichen Arbeit ist es die vorgestellten Methoden und Techniken des vorangegangenen
Praxisprojektes, am Beispiel der Webseite des Fachbetriebes BSS-Schieh-Schneider technisch umzusetzen und zu bewerten. Der Schwerpunkt des Unternehmens liegt bei der Beratung, Montage und Reparatur von Fenstern, Türen, Rollläden und Markisen. Die Webseiten existieren bereits und geplant ist, die Bereiche Fenster & Türen SEO-Technisch zu verbessern.
Die Diplomarbeit „Konzeption und Implementierung eines PL/SQL Trainers auf Basis von JSP und eLML“ beschäftigt sich mit der Erstellung von eLearning Anwendungen, für das Themengebiet PL/SQL, mit speziellem Fokus auf die Programmierung von Datenbanktriggern. Im theoretischen Teil der Arbeit wird das Thema eLML ausführlich behandelt und dabei die Funktionsweise sowie die Hintergrundgeschichte des eLML Frameworks erläutert. Der praktische Teil der Arbeit unterteilt sich in zwei Abschnitte, im Ersten Abschnitt wird beschrieben, wie bestehende Lerneinheiten zum Thema PL/SQL aus dem MS-Power-Point Format in das eLML Format übertragen werden, wobei die praktische Anwendung von eLML dargestellt wird. Im zweiten Abschnitt wird die Konzeption und die Implementierung einer JSP-Webanwendung beschrieben, die eine interaktive Trainingsanwendung für die Programmierung von Triggern mit PL/SQL darstellt.
Thematisiert werden Graphendatenbanken und die Umsetzung eines bestimmten Typen davon. Für die Umsetzung wird eine Rationale Datenbank genommen und diese in eine Graphdatenbank überführt. Es wird auf die Unterschiedlichen Typen von Graphdatenbanken eingegangen, deren Verwendungszweck und wie diese Typen Unterschieden werden. Die Umsetzung erfolgt mit Neo4j auf dessen Funktionen und Sprache ich eingehen werde. Danach wird auf die Modellierungsart der Graphdatenbank eingegangen und wie diese realisiert wurde.
Bewegung als Musikinstrument - Entwicklung eines Prototypen auf Basis von Kinect und Pure Data
(2012)
Es wurden Möglichkeiten der Bewegungsanalyse durch Gamecontroller untersucht und dazu passende Audioerzeuger erstellt. Dazu wurden vier Prototypen erstellt, die auf verschiedenen Analysetechniken basieren. Dazu zählt die Analyse per Webcam, der Sony Playstation Move Controller, und die Microsoft Kinect. Dann habe ich einen Ansatz auf Basis der Kinect weiter-entwickelt. Die Eingabedaten der Kinect wurden über Open Sound Control zu Pure-Data über- ragen. In Pure-Data habe ich ein Instrument erstellt, das durch die geschickte Kombination von Oszillatoren und Filtern einen individuellen und interessanten Klang erzeugt. Dazu wurde ein entsprechendes Kontrollkonzept umgesetzt, welches sich an dem eines Saiteninstrumentes orientiert, dieses Konzept jedoch von der Bewegung der Finger und Hände auf größere Bewe- gungen des ganzen Körpers überträgt. Es wurden Schnittstellen erstellt und diskutiert, mit denen das System via MIDI und Open Sound Control auch an andere Audioerzeuger angeschlossen werden kann. Während der ganzen Entwicklung wurde darauf geachtet, Open-Source-Software zu bevorzugen. Am Ende steht ein elaboriertes System, welches abgesehen von der Hardware völlig frei verfügbar und quelloffen ist.
Das Erstellen von Textzusammenfassungen ist bei Recherchearbeiten die gängigste Praxis, um einem Text seine Kernaussage zu entnehmen. Aus einer Zusammenfassung leitet man die essenzielle Information ab, mit dem Ziel, einen Text einem Themengebiet zuzuordnen. Dem Benutzer hilft hierbei ein software-gestütztes System zur Textzusammenfassung. Texte beinhalten aus Sicht eines Computersystems eine Aneinanderreihung von Wörtern bzw. Sätzen und besitzen demnach keine feste Struktur. Aus den unstrukturierten Daten im Text müssen Wörter extrahiert werden, die den Kerninhalt eines Textes widerspiegeln. Auf Basis der extrahierten Wörter erfolgt die endgültige Zusammenfassung und anschließend die semantische Auszeichnung des Gesamttextes, was der Themengebietszuordnung entspricht. Bewährte Methoden für die Textzusammenfassung sind das statistische Verfahren und das sogenannte Signalwort-Verfahren. Grundlage dafür sind die theoretischen Arbeiten von H. P. Luhn und Edmundson. Als weitere Hilfsmittel dienen statistische Methoden aus dem Text Mining. Für die Zuordnung des Textes zu einem Themengebiet eignen sich die Semantic Web Standards des W3C. Der auf Basis dieser Theorien entwickelte Lösungsweg dient als Standardverfahren für eine software-gestützte Textzusammenfassung. Durch die definierten Standards ist die Software in der Lage, jegliche Textarten aus beliebiger Quelle einzulesen, zusammenzufassen und semantisch auszuzeichnen. Benutzer, deren Aufgabe im Unternehmen darin besteht, Recherchearbeiten zu betreiben, verwenden diese software-gestützte Textzusammenfassung. Durch diese Unterstützung spart der Benutzer bei einer Zusammenfassung von mehreren Textdaten Zeit und Aufwand, da der Vorgang durch die Software automatisch abläuft. Aus Sicht eines Unternehmens liegt das Hauptaugenmerk auf der schnellen Informationsgewinnung aus Texten, was essenziell für eine Weiterverarbeitung der Textdaten ist.
Die Menge an Informationen steigt seit Jahren immer weiter an. Dies lässt sich auch leicht an der Entwicklung der Speichermedien feststellen. So bot die erste 5,25-Zoll Festplatte, eine Seagate ST- 506, lediglich 5 MB Speicherkapazität. Heutige 3,5-Zoll Festplatten verfügen hingegen über bis zu 8 TB Speicherkapazität und werden ebenso ausgenutzt wie ihre Vorgänger aus der Anfangszeit der Magnet-festplatten. Zusätzlich geht die Tendenz dorthin, alle Daten jederzeit zur Verfügung zu haben. Sei es daheim am Rechner, auf der Arbeit oder per Tablet oder Smartphone unterwegs, dank der immer mehr verbreiteten Cloud-Speicher stehen die Daten jederzeit zur Verfügung. Mit dem enormen Zuwachs an Dateien und auch an Dateiformaten wird es jedoch immer schwieriger, diese Masse zu überblicken und bestimmte Inhalte in annehmbarer Zeit wiederzufinden. Beispiels- weise hostet der Internetdienst Flikr die schier unüberschaubare Menge von über 6 Milliarden Bilder. Doch nicht nur die großen Servicedienstleister besitzen große Datenmengen, auch Einzelpersonen haben derweil große Musik- und Bildsammlungen, zumal jedes aktuelle Smartphone über eine Kamera verfügt. Jeder ist somit praktisch zu jeder Zeit in der Lage, ein Foto in hochauflösender Qualität zu schießen und direkt in seine Cloud hochzuladen. Diese Datenmengen manuell zu ordnen, erfordert einen sehr hohen Aufwand, den nicht alle Menschen gewillt sind zu leisten. Vor allem am Smartphone geht dieses Benennen und Einsortieren aufgrund der vorhandenen Technik nicht so leicht von der Hand. In der Praxis sammeln sich die Aufnahmen mit der Zeit immer weiter an und letztlich befinden sich mehrere hundert wenn nicht gar tausend Bilder in einem Ordner, welche sich namentlich meist nur durch eine fort- laufende Nummer unterscheiden. Diesen Umstand Rechnung tragend, treten Metainfor-mationen immer mehr in den Vordergrund. So speichern die zuvor genannten mobilen Alleskönner meist viele informative Daten mit in den Bilddateien ab. Beispielsweise kann dank der eingebauten GPS-Module der Ort der Aufnahme aus den Bildern ausgelesen werden. Die Dienstleister für Cloud-speicher nutzen diese Informationen jedoch nur marginal aus und bieten dem Endanwender kaum Unterstützung bei der Suche nach be- stimmten Inhalten, wie etwa beim OX Drive, der Cloudlösung der Firma Open-Xchange.
Die vorliegende Master Thesis zeigt, wie dieser Cloud-Speicher, welcher in die Hauseigene OX App Suite integriert ist, um sogenannte Smartfeatures erweitert werden kann. Diese Smartfeatures sollen dem Endan-wender helfen, die Daten einfacher – wenn nicht gar automatisch – zu ordnen und somit leichter bestimmte Inhalte wiederzufinden. Kernthema dieser Arbeit ist daher die auto- matische Extraktion von unterschiedlichen Metadaten aus diversen Dateiformaten. Des Weiteren wird gezeigt, wie diese Daten effizient gespeichert und abgefragt werden können. Die Thesis stellt hierzu den Document Store Elasticsearch vor und vergleicht diesen mit seinem Konkurrenten Apache Solr.
Informatik ist eine männerdominierte Wissenschaft, welches sich an den Männeranteilen sowohl im Studium als auch in der Berufswelt bemerkbar macht. Aus diesen und weiteren Gründen trauen sich viele Frauen nicht in das Gebiet Informatik einzusteigen. Der niedrige Frauenanteil ist eine Lücke für die Wissenschaft. Die Qualifikationen von Frauen werden benötigt, um neue Sichtweisen zu bekommen und andere Arbeitsweisen kreieren zu können. Damit die Frauenquote in der Informatik steigt, müssen die Ursachen analysiert und dagegen entsprechende Maßnahmen getroffen werden. Die vielfältigen Seiten des Gebietes müssen enthüllt und mit anderen Wissenschaften verknüpft werden, so dass Frauen auch eigene Interessen darin finden können.