000 Allgemeines, Informatik, Informationswissenschaft
Refine
Year of publication
Document Type
- Bachelor Thesis (51)
- Master's Thesis (49)
- Article (7)
- Report (6)
- Study Thesis (6)
- Conference Proceeding (3)
- Contribution to a Periodical (2)
- Other (2)
- Working Paper (2)
Has Fulltext
- yes (128)
Keywords
- E-Learning (7)
- Informatik (7)
- Datenbank (5)
- Datenschutz (5)
- Augmented Reality (4)
- Data Mining (4)
- Diabetes mellitus Typ 1 (4)
- Erweiterte Realität <Informatik> (4)
- Gamification (4)
- Agile Softwareentwicklung (3)
Faculty
- Fakultät 10 / Institut für Informatik (67)
- Fakultät 10 / Advanced Media Institute (25)
- Fakultät 10 / Cologne Institute for Digital Ecosystems (7)
- Fakultät 03 / Institut für Informationswissenschaft (6)
- Fakultät 07 / Institut für Medien- und Phototechnik (5)
- Fakultät 07 / Institut für Nachrichtentechnik (4)
- Fakultät 10 / Institut Allgemeiner Maschinenbau (3)
- Fakultät 01 / Institut für Medienforschung und Medienpädagogik (2)
- Fakultät 04 / Schmalenbach Institut für Wirtschaftswissenschaften (2)
- Fakultät 09 / Cologne Institute for Renewable Energy (2)
Der digitale Schwarzmarkt mit gestohlenen Daten floriert. Alleine im Jahr 2015 wurden über eine halbe Milliarde Datensätze aus Datenbanksystemen entwendet. Viele Unternehmen bemerken den Sicherheitsvorfall selbst nicht oder geben aus Angst vor einem Imageschaden den Vorfall nicht bekannt. Sind die Datenbestände nicht durch effektive Sicherheitsmechanismen vor Datendiebstahl geschützt, können Cyberkriminelle leicht aus den gestohlenen Daten Kapital schlagen. Die Softwarehersteller von Datenbanksystemen bieten für ihre Produkte unterschiedliche Schutzvorkehrungen an. Ziel dieser Ausarbeitung ist es, die Bedrohungen und die Sicherheitsrisiken von Datenbanksystemen aufzuzeigen und daraus die Aspekte der Datenbanksicherheit abzuleiten. Die ausgearbeiteten Sicherheitsaspekte bilden die Grundlage für den Vergleich der Datenbanksicherheit von relationalen Datenbanklösungen. Die anschließende Bewertung dient dem Nachweis und der Überprüfbarkeit der Datenbanksicherheit relationaler Datenbanksysteme.
Due to the present developments of the Internet and its technical components, the skills of the web experts have to be more and more complex and specific. The Internet experts in the creative field are located distributedly around the whole world. As a result, many companies have problems to find the needed experts on site and are dependent on creative cooperations and virtual teams with the help of technical tools. The virtual working place is an important issue, particularly in modern times and the market offers more and more cooperation systems for exactly this purpose: Creative cooperation in distributed working situations. This thesis examines the approaches of creative cooperation and cooperation technologies with an analysis about existing cooperation systems with a creative context. It spans a wide range of tools. On the one hand, there are approaches which offer only straightforward solutions for single design tasks. On the other hand, there are providers which recognised the great need of creative cooperation systems and working at full speed to extend their systems. The examined areas of this work lead to a design process oriented approach with flexible frames and enough space for the creative development of every single user. The cooperation in a creative context stays in the foreground and is the base for future approaches for the web design sector.
The topic for the thesis originated from the CAP4ACCESS project run by the European Commission and its partners, which deals towards the sensiti-zation of people and development of tools for awareness about people with movement disabilities. The explorative analysis is never ending and to explore and find interest-ing patterns and the results is a tedious task. Therefore, a scientific approach was very important. To start with, familiarizing the domain and the data sources were done. Thereafter, selection of methodology for data analysis was done which resulted in the use of CRISP-DM methodology. The data sources are the source of blood to the analysis methodology, and as there were two sources of data that is MICROM and OSM Wheelchair History(OWH), it was important to integrate them together to extract relevant datasets. Therefore a functional and technically impure data warehouse was created, from which the datasets are extracted and analysed.The next task was to select appropriate tools for analysis. This task was very important as the data set although was not big data but con-tained a large number of rows. After careful analysis, Apache spark and its machine learning library were utilized for building and testing supervised models. DataFrame API for Python, Pandas, the machine learning library Sci-kit learn provided unsupervised algorithms for analysis, the association rule analysis was performed using WEKA. Tableau[21] and Matplotlib[24] provide attractive visualizations for representation and analysis.
An empirical evaluation of using the Swift language as the underlying technology of RESTful APIs
(2016)
The purpose of the current thesis is to determine the appropriateness of using the Swift language as the underlying technology for the development of RESTful APIs in a Linux environment. The current paper describes the process of designing, implementing and testing individual RESTful API components based on Node.js, PHP, Python and Swift and seeks to determine whether Swift is a viable alternative.
The thesis begins by defining a methodology for implementing and testing individual RESTful API components based on Node.js, PHP, Python and Swift. It then proceeds to detail the implementation and testing processes, following with an analytic discussion regarding the advantages and drawbacks of using the Swift language as the underlying technology for RESTful APIs and server-side Linux-based applications in general.
Based on the implementation process and on the results of the previously mentioned evaluation phase, it can be stated that the Swift language is not yet ready to be used in a production environment. However, its rapid evolution and potential for surpassing its competitors in the foreseeable future make it an ideal candidate for implementing RESTful APIs to be used in development environments.
Der erste Teil dieser Arbeit gibt einen Überblick über die Themenfelder der modellgetriebenen Softwareentwicklung und der objektrelationalen Abbildung. Durch eine Kombination dieser beiden Themen wird schließlich der Begriff der modellgetriebenen O/R-Mapping-Frameworks definiert und näher erläutert. Im zweiten Teil bestätigt ein Vergleich von drei dieser Frameworks (Bold for Delphi, MDriven sowie Texo mit EclipseLink) die Vor- und Nachteile des modellgetriebenen Ansatzes auch in Bezug auf die Persistenz. Der Vergleich macht außerdem deutlich, was aktuell in der Praxis möglich ist (und was nicht) und in welchem Umfang Standards genutzt werden (insbesondere MDA und UML). Daneben werden auch die Schwächen in diesem Bereich aufgezeigt. Abschließend gibt es eine kurze Bewertung der Frameworks, auch im Hinblick auf mögliche Anwendungsszenarien.
Um einen zuverlässigen kontext-sensitiven Sicherheitsdienst bereitzustellen, ist die Vollständigkeit des zur Bewertung genutzten Sicherheitskontextes von wesentlicher Bedeutung. Der Anwendungskontext leistet dazu einen fundamentalen Beitrag. Aufgrund der fehlenden Interpretationslogik ist allerdings der Anwendungskontext von aussen nicht ermittelbar. Die Integration einer den Sicherheitsdienst unterstützenden Komponente in die Anwendung schafft hierzu auf zweierlei Weise Abhilfe. Sie stellt Anwendungskontextinformationen zur Verfügung und gewährleistet effektiv eine kontext-sensitive Sicherheitsadaption.
This thesis focuses on the identification of influential users, also known as key opinion leaders, within the social network Instagram. Instagram is a very popular platform to share images with the option to categorise the images by certain tags. It is possible to collect public data from Instagram via the open API of the platform.
This thesis presents a concept to create an automated crawler for this API and col- lect data into a database in order to apply algorithms from graph theory to identify opinion leaders afterwards. The sample topic for this thesis has been veganfood and all associated posts from Instagram have been crawled.
After the user data has been crawled a graph has been created to do further research with common social network analysis tools. The graph contained a total set of more than 26,000 nodes.
To identify opinion leaders from this graph, five di↵erent metrics have been applied, in particular PageRank, Betweenness centrality, Closeness Centrality, Degree and Eigen- vector centrality. After applying the di↵erent algorithms the results have been eval- uated and additionally an marketing expert with focus on social media analysed the results.
This project was able to figured out that it is possible to find opinion leaders by using the PageRank algorithm and that those opinion leaders have a very good value of en- gagement. This indicates that they show a high interaction with other users on their posts. In conclusion the additional research options are discussed to provide a future outlook.
Ziel der Arbeit war es, den Nutzen der Google Glass im Alltag und ihr Potenzial als AR-Brille ( Augmented Reality ) aufzuzeigen. Mit der Arbeit wurde ein ortsbasierter AR Ansatz vorgestellt, der innerhalb von Gebäuden zum Einsatz kommt. Als Beispielszenario diente die AR-basierte Navigation innerhalb des Gebaudes der TH Köln. Hierbei wurde ein Umgebungsmodell in Form eines Regular Grids konstruiert, welches eine diskrete Positionsbestimmung im Raum erlaubt. Ferner wurden verschiedene Verfahren zur Positionsbestimmung innerhalb von Gebäuden gegen übergestellt und deren Vor- und Nachteile evaluiert. Hierbei wurden die Erkenntnisse gewonnen, dass die Positionsbestimmung mittels LLA Markern die höchste Stabilität, jedoch die geringste Kontinuität aufweist, da Marker zunächst erkannt werden müssen, bevor die Position bestimmt werden kann.
Die Bachelorarbeit befasst sich mit der Verwendung der NoSQL Datenbank Apache Cassandra. Dabei werden auf der einen Seite die Unterschiede bei Verwendung und Betrieb von Apache Cassandra im Vergleich mit relationalen SQL Datenbanken und auf der anderen Seite die Aspekte Geschwindigkeit, Ausfallsicherheit und Wiederverwendbarkeit untersucht. Die Verwendung und der Betrieb wird dabei durch die Umsetzung eines Datenimports, damit verbunden ist die Erstellung von entsprechenden Datenmodellen, und der Bereitstellung der Daten für die Darstellung von mobilen Statistiken in Form einer Android App untersucht. Für die Untersuchung der Geschwindigkeit, Ausfallsicherheit und Wiederverwendbarkeit werden zusätzlich zu den durch bereits durch die Umsetzung erhaltenen Ergebnissen noch an den jeweiligen Aspekt angepasste Belastungstest durchgeführt.
Das Internet birgt schier endlose Informationen. Ein zentrales Problem besteht heutzutage darin diese auch zugänglich zu machen. Es ist ein fundamentales Domänenwissen erforderlich, um in einer Volltextsuche die korrekten Suchanfragen zu formulieren. Das ist jedoch oftmals nicht vorhanden, so dass viel Zeit aufgewandt werden muss, um einen Überblick des behandelten Themas zu erhalten. In solchen Situationen findet sich ein Nutzer in einem explorativen Suchvorgang, in dem er sich schrittweise an ein Thema heranarbeiten muss.
Für die Organisation von Daten werden mittlerweile ganz selbstverständlich Verfahren des Machine Learnings verwendet. In den meisten Fällen bleiben sie allerdings für den Anwender unsichtbar.
Die interaktive Verwendung in explorativen Suchprozessen könnte die menschliche Urteilskraft enger mit der maschinellen Verarbeitung großer Datenmengen verbinden.
Topic Models sind ebensolche Verfahren. Sie finden in einem Textkorpus verborgene Themen, die sich relativ gut von Menschen interpretieren lassen und sind daher vielversprechend für die Anwendung in explorativen Suchprozessen. Nutzer können damit beim Verstehen unbekannter Quellen unterstützt werden.
Bei der Betrachtung entsprechender Forschungsarbeiten fiel auf, dass Topic Models vorwiegend zur Erzeugung statischer Visualisierungen verwendet werden. Das Sensemaking ist ein wesentlicher Bestandteil der explorativen Suche und wird dennoch nur in sehr geringem Umfang genutzt, um algorithmische Neuerungen zu begründen und in einen umfassenden Kontext zu setzen. Daraus leitet sich die Vermutung ab, dass die Verwendung von Modellen des Sensemakings und die nutzerzentrierte Konzeption von explorativen Suchen, neue Funktionen für die Interaktion mit Topic Models hervorbringen und einen Kontext für entsprechende Forschungsarbeiten bieten können.
Die „E-Mail“ als elektronisches Kommunikationsmittel begeistert seither Marketing- experten, da sie das Medium zur Verbesserung der Kundenkommunikation nutzen. Mittlerweile ist davon auszugehen, dass deutschlandweit jedes Unternehmen über einen Internet-Zugang verfügt und die E-Mail als Kommunikationsmittel nutzt. Die E-Mail ist somit fest im Marketing verankert. Dabei durchläuft der Prozess des E- Mail-Marketings einen Kreislauf mit einzelnen Elementen, die schließlich zu einem erfolgreichen Einsatz eines Newsletters führen sollen. Trotz allem gibt es eine Viel- zahl an Unternehmen, die bis heute nicht mit dem E-Mail-Marketing vertraut sind. Die Möglichkeiten und Chancen durch den Einsatz dieses wirkungsvollen Marke- tinginstruments werden demnach außer Acht gelassen. In der vorliegenden Arbeit werden unter anderem die wichtigsten Vorteile aufgezeigt, die sich durch den Einsatz eines Newsletters ergeben. Besonders klein- und mittelständische Unternehmen ha- ben oftmals weder die Zeit noch die Möglichkeit sich mit den Herausforderungen und praktischen Fragestellungen auseinanderzusetzen. Für die erfolgreiche Implementie- rung ist nicht nur eine systematische Arbeit mit vielen verschiedenen Teilaspekten notwendig, sondern auch die Berücksichtigung der Anforderungen, insbesondere der rechtlichen Grundlagen. Wer sich also auf unbekanntes Terrain begibt, sollte sich gründlich informieren und absichern.
Die vorliegende Arbeit stellt einen übersichtlichen Leitfaden, der als Hilfestellung für den Einsatz von Newslettern dient. Dabei werden unterschiedliche Verfahren und Maßnahmen zur Generierung von E-Mail-Adressen dargestellt, damit ein sauberer Datenbestand garantiert werden kann. Außerdem wird auf typische Fehlerquellen eingegangen, die vermieden werden können. Es werden die Anforderungen detailliert aufgestellt und dienen als Richtlinie.
Des Weiteren befasst sich die vorliegende Arbeit mit der Entwicklung von alternati- ven Lösungsansätzen unter Berücksichtigung von Annahmen für den Versand eines Newsletters. Die Zielsetzung resultiert aus der Fragestellung, warum der Versand von Newslettern stärker gesetzlichen Auflagen obliegt als der Briefkastenwerbung. Betrachtet man die Daten des statistischen Bundesamtes stammen unerwünschte Newsletter nicht aus Deutschland, sondern aus Ländern, die in diesem Bereich deut- lich weniger gesetzlich geregelt sind.
Die Menge an Informationen steigt seit Jahren immer weiter an. Dies lässt sich auch leicht an der Entwicklung der Speichermedien feststellen. So bot die erste 5,25-Zoll Festplatte, eine Seagate ST- 506, lediglich 5 MB Speicherkapazität. Heutige 3,5-Zoll Festplatten verfügen hingegen über bis zu 8 TB Speicherkapazität und werden ebenso ausgenutzt wie ihre Vorgänger aus der Anfangszeit der Magnet-festplatten. Zusätzlich geht die Tendenz dorthin, alle Daten jederzeit zur Verfügung zu haben. Sei es daheim am Rechner, auf der Arbeit oder per Tablet oder Smartphone unterwegs, dank der immer mehr verbreiteten Cloud-Speicher stehen die Daten jederzeit zur Verfügung. Mit dem enormen Zuwachs an Dateien und auch an Dateiformaten wird es jedoch immer schwieriger, diese Masse zu überblicken und bestimmte Inhalte in annehmbarer Zeit wiederzufinden. Beispiels- weise hostet der Internetdienst Flikr die schier unüberschaubare Menge von über 6 Milliarden Bilder. Doch nicht nur die großen Servicedienstleister besitzen große Datenmengen, auch Einzelpersonen haben derweil große Musik- und Bildsammlungen, zumal jedes aktuelle Smartphone über eine Kamera verfügt. Jeder ist somit praktisch zu jeder Zeit in der Lage, ein Foto in hochauflösender Qualität zu schießen und direkt in seine Cloud hochzuladen. Diese Datenmengen manuell zu ordnen, erfordert einen sehr hohen Aufwand, den nicht alle Menschen gewillt sind zu leisten. Vor allem am Smartphone geht dieses Benennen und Einsortieren aufgrund der vorhandenen Technik nicht so leicht von der Hand. In der Praxis sammeln sich die Aufnahmen mit der Zeit immer weiter an und letztlich befinden sich mehrere hundert wenn nicht gar tausend Bilder in einem Ordner, welche sich namentlich meist nur durch eine fort- laufende Nummer unterscheiden. Diesen Umstand Rechnung tragend, treten Metainfor-mationen immer mehr in den Vordergrund. So speichern die zuvor genannten mobilen Alleskönner meist viele informative Daten mit in den Bilddateien ab. Beispielsweise kann dank der eingebauten GPS-Module der Ort der Aufnahme aus den Bildern ausgelesen werden. Die Dienstleister für Cloud-speicher nutzen diese Informationen jedoch nur marginal aus und bieten dem Endanwender kaum Unterstützung bei der Suche nach be- stimmten Inhalten, wie etwa beim OX Drive, der Cloudlösung der Firma Open-Xchange.
Die vorliegende Master Thesis zeigt, wie dieser Cloud-Speicher, welcher in die Hauseigene OX App Suite integriert ist, um sogenannte Smartfeatures erweitert werden kann. Diese Smartfeatures sollen dem Endan-wender helfen, die Daten einfacher – wenn nicht gar automatisch – zu ordnen und somit leichter bestimmte Inhalte wiederzufinden. Kernthema dieser Arbeit ist daher die auto- matische Extraktion von unterschiedlichen Metadaten aus diversen Dateiformaten. Des Weiteren wird gezeigt, wie diese Daten effizient gespeichert und abgefragt werden können. Die Thesis stellt hierzu den Document Store Elasticsearch vor und vergleicht diesen mit seinem Konkurrenten Apache Solr.
Im Zusammenhang mit dem Begriff Big Data können nicht nur immer größere Datenmengen verarbeitet werden, sondern auch neue Arten von Datenquellen genutzt werden. Insbesondere Web 2.0-Inhalte bieten dabei vielfältige Potenziale.
So können beispielsweise mit Hilfe einer Sentiment-Analyse Meinungen und Stimmungen zu Produkten und Unternehmen in sozialen Netzwerken beobachtet werden. Diese Infor-mationen sind für sich gesehen bereits wertvoll für viele Unternehmen. Jedoch ist eine effiziente Analyse und Auswertung der Informationen nur in Kombination mit weiteren Unternehmensdaten möglich, die typischerweise in einem Data Warehouse liegen. Diese Arbeit diskutiert die Unter-schiede, Möglichkeiten und Herausforde-rungen diese Kombination zu realisieren. Veranschaulicht wird dies durch einen Show-Case, der eine Ende-zu-Ende-Umsetzung
am Beispiel der Fernsehsendung Tatort zeigt. Dabei werden Zuschauerkommentare
aus Twitter extrahiert, mit einer Sentiment-Analyse bewertet und schließlich in einem Data Warehouse ausgewertet. Dabei können klassische BI-Kennzahlen, wie beispiels- weise Einschaltquoten, Folgen pro Ermittler etc. den Ergebnissen der Sentiment-Analyse gegenübergestellt werden.
Das Ziel dieser Arbeit ist es, einen generellen Überblick über die Zahlungsmittel und die Entwicklungen des Mobile-Payment zu gewinnen. Mit Hilfe diesen Überblicks und der Analyse des Kundenverhaltens als Grundlage zur Berechnung der monetären Auswirkungen in der Bargeldver- und Entsorgung konnten die Sparpotenziale eine Retailers in der Bargeldversorgung aufgezeigt werden.
Ein Problem unserer heutigen Informationsgesellschaft ist, dass Ärzte neuen technischen Systemen immer mit großem Argwohn begegnen und dies nicht zu unrecht. Denn immer wieder wird unser Vertrauen in Systeme durch große Missbrauchsskandale erschüttert. Doch sind technische Systeme wie medizinische Semantic Web Anwendungen ein nächster Schritt zu einer verbesserten medizinischen Versorgung.
Deshalb ist das Ziel dieser Arbeit für medizinische Semantic Web Anwendungen Ansätze für Normen und Architekturen zur Schaffung von Vertrauen zu finden. Hierzu wird erst das Vertrauen aus unterschiedlichen Blickwinkeln betrachtet und danach medizinische Semantic Web Anwendungen als sozio-technisches System. Dazu wird der der soziale Kontext des deutschen Gesundheitswesens betrachtet. Zusätzlich wird untersucht wie ein technisches System diesen Kontext verändern könnte.
Aus diesen drei Kategorien werden Normen definiert. Auf diesen Normen aufbauend werden Ansätze für Architekturen formuliert, welche das Vertrauen steigern sollen. Dazu werden schon vorhandene medizinische Ontologien beleuchtet, um den Ansätzen eine Basis zu geben.
Diese Ansätze für Architekturen werden als einzelne Bausteine zu einem größeren Ansatz zusammengefügt. Zuerst wird dieser größere Zusammenhang vorgestellt und danach werden einige Bausteine im Folgenden weiter beschrieben. Unter diese Bausteine fallen Kontrollinstanzen und deren Services sowie Zertifizierungsstellen mit unterschiedlichen Arten von Zertifikaten. Die meisten dieser Bausteine
sind jedoch Agenten mit den verschiedensten Aufgaben, auf welche genauer eingegangen wird. Die Qualität der Ontologien sollen diese einerseits als wichtigen Aspekt des Vertrauens verbessern und überwachen. Andererseits dienen weitere Agenten wiederum der Kommunikation untereinander oder der üblichen Akquisition von Informationen.
DesWeiteren bauen diese Agenten ein Vertrauensnetzwerk untereinander auf. Das Vertrauen zu anderen Agenten wird dabei mit unterschiedlichen Attributen dargestellt und liegt dezentral bei jedem Agenten oder kann ebenfalls von zentralen Services erfragt werden. Ein Austausch der Informationen unter den Agenten ist ebenso möglich. Diese Architektur mit einer Vielzahl von Agenten und das daraus
resultierende Vertrauensnetzwerk soll schließlich ein grundlegendes Vertrauen schaffen, auf welchem medizinische Semantic Web Anwendungen aufbauen können.
This paper is grounded in the emerging field of web science and shall contribute to its further classification and demarcation by illustrating the current state of »web-native research methods«. It builds upon an initial arraying work of Richard Rogers, who coined the term »Digital Methods« for research with methods that were »born« in the web, and illustrated and organized them in his eponymous book in 2013. This paper attempts to develop a more appropriate illustration of the Digital Methods by following the web’s very own, hypertextual, network-like nature, in particular by construing an ontological representation on the base of the Web Ontology Language (OWL). By virtue of decomposing the book into granular information units and their subsequent reassembly into OWL entities, immediate access to the entire knowledge domain can be provided, and coherencies, interrelations and distinctions between concepts become apparent. The ontology’s structure was induced narrowly along the provided examples of research projects and subsequently clustered in topic groups, of which the three most important ones were (a) the Digital Methods as an arraying space of web-native methodology, (b) a collection of concrete applications of these Digital Methods in research projects, and (c) a hierarchical scheme of traditional sciences with a distinct interest in answering research questions with help of Digital Methods. Subsequently, the ontology was evaluated in three general dimensions: Deriving user stories and scenarios provided means to validate the utilization quality; the accuracy and reliability of the resulting structure was validated with help of a control group of web-native research projects; and process control instruments served as a validator for the ontology’s correctness. Despite the ontology itself, this paper also resulted in a first interpretation of the produced information: Statements about research practise in social science, politics and philosophy were as possible as findings about commonly applied varieties of methods. Concluding, the present paper proposes a process of ontology engineering, an evaluation of the ontology’s value, and an interpretation of the ontology’s content.
CAPTCHAs (Completely Automated Public Turing test to tell Computers and Humans Apart), auch HIPs (Human Interaction Proof) genannt, sind weit verbreitete Sicherheitsmaßnahmen im World Wide Web, die Online-Dienste vor dem Missbrauch durch automatisierte Programme schützen sollen. Dazu werden die Benutzer aufge-fordert, eine Aufgabe zu lösen, welche von Computern nicht gelöst werden kann, wie beispielsweise das Entziffern von verkrümmten Buchstaben. Durch die immer weiter verbesserten Fähigkeiten der Computerprogramme auf diesen Gebieten, wird es für die Entwickler der HIPs immer anspruchsvoller eine ausreichende Sicherheit zu garantieren. Daraus resultiert ein Zielkonflikt zwischen der Sicherheit und Gebrauchstauglichkeit der HIPs. Da die Sicherheit garantiert werden muss, leidet die Gebrauchstauglichkeit und die Benutzer sind oftmals nicht in der Lage das HIP zu lösen. Dies führte bereits in der Vergangenheit zu einer Abneigung gegenüber diesen Systemen.
In dieser Arbeit wurde überprüft ob diese Abneigung durch die Verwendung von Gamifizierung, also Spielelementen, in einem neu entwickelten HIP verringert werden kann. Zusätzlich sollte geprüft werden, ob anstelle der Tastatur die Sensoren mobiler Endgeräte als Eingabe-medium dienen können.
Dazu wurde durch eine Analyse von durchgeführten Angriffen auf bestehende HIPs sowie Studien zur Gebrauchs-tauglichkeit derselben ein Rahmenwerk erstellt. Dieses Rahmenwerk definiert Anforderungen, die ein sicheres und zugleich benutzerfreundliches HIP erfüllen muss. Anhand dieser Anforderungen wurde ein neues spielbasiertes HIP in Form eines Kugellabyrinths auf Basis von JavaScript und HTML5 implementiert. Der Benutzer muss durch die Neigung des Geräts eine Kugel steuern und diese innerhalb der vorge-gebenen Zeit in das Loch lenken. Die Gebrauchstauglichkeit dieses HIPs konnte durch eine Onlineumfrage bestätigt werden. Dies gilt jedoch nicht für die Sicherheit, welche durch den lesbaren Quellcode stark beeinträchtigt wird. Für diese Schwach-stelle konnte eine Lösung in Form einer Browsererweiterung durch eine Public-Key-Signatur konzipiert werden. Durch diese Erweiterung könnte auf den Einsatz von HIPs in vielen Bereichen verzichtet und andere Webanwendungen sicherer gestaltet werden.
E-Business im Generellen und E-Government im Speziellen haben in den letzten Jahren immer mehr an Bedeutung gewonnen. Die Transformation der Verwaltungsprozesse auf elektronische Medien birgt eine Vielzahl von Potentialen für alle Beteiligten: Einrichtungen der öffentlichen Verwaltung, Bürger und Unternehmen. Dennoch ist es in den letzten Jahren bei solchen Projekten, insbesondere im A2B-Bereich, also der Kommunikation zwischen Verwaltung und Unternehmen, immer wieder zu Problemen gekommen. Das Ziel der Arbeit ist es deshalb die Erfolgsfaktoren von solchen E-Government-Projekten zu identifizieren.
Hierzu werden zunächst die Grundlagen des E-Business erläutert und die Begrifflichkeiten voneinander abgegrenzt. Insbesondere werden die verschiedenen Kategorien von beteiligten Akteuren, die generischen Ziele des E-Business und dessen Einflussfaktoren genannt, um so den Bezugsrahmen des E-Business zu definieren.
Darauf aufbauend werden die Anwendungsbereiche des E-Governments erläutert und die funktionale und strukturelle Unterscheidung der möglichen Szenarien dargestellt.
Im Hauptteil der Arbeit werden anschließend anhand von Literatur-Quellen und aktuellen Studien die sechs Erfolgsfaktoren analysiert, die sich bei der Implementierung von E-Government-Lösungen in der Vergangenheit gezeigt haben. Diese reichen von technischen Faktoren wie der Kompatibilität der Systeme und der Datensicherheit über den richtigen Umgang von Veränderungen mit Hilfe des Change Managements bis hin zu den unterschiedlichen Rollen der beteiligten Akteure.
In den folgenden Abschnitten werden einige Aspekte des E-Governments genauer fokussiert: die verschiedenen Architekturen und Standards, relevante Gesetze und die deutsche E-Government-Strategie sowie der internationale Vergleich von Deutschland im E-Government-Bereich. Dabei wird geprüft, welchen Einfluss diese Aspekte auf die identifizierten Erfolgsfaktoren haben.
Bevor das Fazit die gewonnenen Erkenntnisse zusammen fasst und eine Prognose des E-Governments in Deutschland gibt, werden die beiden Verfahren ELSTER als positives und ELENA als negatives Beispiel für E-Government-Projekte im A2B-Bereich vorgestellt.
Ziel dieser Diplomarbeit ist es zu evaluieren, ob eine effiziente Implementierung von responsiven Webapplikationen zum Zeitpunkt der Erstellung der Arbeit möglich ist. Als technische Grundlage wird hierzu die HTML5-Spezifikation mit dem darin enthaltenen CSS3 und den JavaScript-Programmierschnittstellen herangezogen.
Es wird erläutert, dass unter responsivem Design die Reaktionsfähigkeit des Designs auf die Abrufumgebung, wie zum Beispiel die Größe der Anzeigefläche, zu verstehen ist und mit Hilfe welcher Techniken ein solches Design für Webapplikationen realisiert werden kann. Des Weiteren werden Möglichkeiten zur Performance-Optimierung aufgeführt, wobei festgestellt wird, dass für die Nutzung einer Webanwendung auf mobilen Geräten die Anzahl der Dateien das größte Potenzial zur Optimierung besitzt. Die Möglichkeiten der JavaScript-Programmierschnittstellen in HTML5 zur Umsetzung von Funktionalitäten für Webapplikationen, wie sie bei lokal installierten Anwendungen gebräuchlich sind, werden ebenso erläutert.
Das Fazit dieser Arbeit ist, dass ausreichend Techniken zur Erstellung von responsiven Webapplikationen in HTML5 definiert sind. Lediglich die zum Teil ausstehende Umsetzung dieser Techniken in den einzelnen Browsern verursacht Einschränkungen. Dies wirkt sich gegebenenfalls negativ auf die Effizienz des Umsetzungsprozesses aus. Ebenso kann die übermäßige Optimierung des Layouts und der Performance zu unverhältnismäßigem Aufwand führen.
Im Rahmen dieser Arbeit soll eine Java-Anwendung zum Zeichnen von Entity-Relationship-Diagrammen entwickelt und vorgestellt werden. Die Anwendung soll zur Unterstützung der Veranstaltung Datenbanken an der Fachhochschule Köln - Campus Gummersbach dienen. Der Hintergrund dazu ist die Tatsache, dass im Rahmen der Veranstaltung oftmals Entity-Relationship-Diagramme von Studenten gezeichnet werden sollen. Die Erfahrung der Lehrbeauftragten hat gezeigt, dass Studenten teilweise mit den empfohlenen Anwendungen Schwierigkeiten haben, unter anderem weil diese viel mehr Funktionen anbieten, als von den Studenten benötigt. Eine weitere Schwierigkeit ist die Tatsache, dass verschiedene Anwendungen zum Zeichnen von Entity-Relationship-Diagrammen verschiedenartige Diagramme erzeugen. Daher besteht der Bedarf einer Anwendungen, die sich einfach bedienen lässt, sich auf das Wesentliche beschränkt und einheitliche Diagramme erzeugt. Die zu entwickelnde Anwendung soll zukünftig innerhalb der Lernplattform edb von Studenten heruntergeladen werden können.
In dieser Bachelorarbeit wird das Thema Big Data und die damit verbundenen Technologien, sprich NoSQL und Hadoop behandelt. Das Thema wurde bewusst ausgewählt, weil sie zum einen aktuell und zum anderen immer mehr an Bedeutung, aus Sicht der Unternehmen gewinnt. Durch die ständig anwachsenden Daten, die zu 80% in Semistrukturierter Form vorliegen, stößt die IT-Infrastruktur eines Unternehmens schnell an seine Grenzen. Und genau an dieser Stelle sollen die Big Data Technologien, wie „NoSQL“ und „Hadoop“, helfen, die so großen Datenmengen zu verarbeiten, um für das Unternehmen, wertvolle Informationen zu liefern, die bislang nicht ersichtlich waren.
Soziale Netzwerke decken ein breites Spektrum an Anwendungsfällen ab und bieten somit eine Vielzahl an Funktionen, bei denen die Teilnehmer mit ihrem sozialen Umfeld interagieren und mit anderen Informationen teilen können. Die dabei aufkommenden Informationen über die Teilnehmer müssen teilweise erfasst und gespeichert werden, um die Funktionalität und die Gebrauchstauglichkeit des sozialen Netzwerkes zu sichern und Missbrauch vorzubeugen. Dies jedoch hat den Nachteil, dass die entstandenen Daten und somit eine Reihe von Aktivitäten der Teilnehmer durch den Anbieter eines sozialen Netzwerkes beobachtet werden können. Um die Privatsphäre der Teilnehmer zu schützen oder auch um eine bessere Skalierbarkeit der sozialen Netzwerke zu erreichen, konzentrieren sich aktuelle Forschungsarbeiten auf die Dezentralisierung sozialer Netzwerke. Dies führt zu neuen Herausforderungen, da die Aufgaben der zentralen Organisationseinheit auf mehrere Komponenten ver-
teilt werden müssen. Eine dieser Aufgaben ist es, die Authentizität und Integrität der Daten für die Teilnehmer sicher zustellen. Die Vernachlässigung dieser beiden Schutzziele kann zu Missbrauch und verschiedenen Angriffen auf ein soziales Netzwerk und dessen Teilnehmer führen.
Um an diese Problemstellung heranzugehen, soll innerhalb dieser Arbeit geklärt werden, wann und welche Mechanismen für die Erfüllung der beiden Schutzziele in sozialen Netzwerken ohne zentrale Organisationseinheit geeignet sind. Hierfür werden die Angriffe zur Verletzung dieser beiden Schutzziele in soziale Netzwerken und der darunter liegenden Infrastruktur betrachtet. Des Weiteren wird geklärt, welchen Einfluss die Dezentralisierung auf die die Teilnehmerdaten hat und was die relevanten Kriterien für authentische Teilnehmerdaten sind.
In der Softwareentwicklung setzen sich vermehrt agile Methoden durch, die meist in kleineren Softwareprojekten Anwendung finden. Durch die intensive Einbeziehung des Kunden, Kommunikation innerhalb des Teams und kontinuierlichen Auslieferung soll die Softwarequalität gesteigert werden. So erhält der Kunde ein produktiv einsetzbares Softwareprodukt. Diese Bachelorarbeit gewährt einen Überblick über bekannte agile Prozesse und betrachtet im Detail den Scrum Prozess. Danach wird das Framework Oracle APEX vorgestellt und schließt mit einer Betrachtung zur Eignung der Einführung des Scrum Prozesses innerhalb APEX ab.
Das eLearning Datenbank Portal der Fachhochschule Köln unterstützt Studierende im Fach Datenbanken und Informationssysteme mit umfangreichen E-Learning-Tools (http://edb.gm.fh-koeln.de). Die Diplomarbeit „Konzeption und Realisierung eines Statistiktools auf Basis von JSP und DOJO“ beschäftigt sich mit der Entwicklung eines Statistiktools, das die Nutzung des eLearning Portals durch die Studenten auswertet und die Nutzungsdaten als Diagramme auf einer Benutzeroberfläche einfach und übersichtlich dargestellt, damit diese von Lehrenden überprüft werden können. Der theoretische Teil der Diplomarbeit ist in zwei Abschnitte aufgeteilt. Der erste Abschnitt beschreibt die Grundlagen von Java Server Pages und die JavaScript-Bibliothek Dojo Toolkit. Es werden deren Eigenschaften und praktische Anwendung ausführlich erläutert. Der zweite Abschnitt befasst sich mit der Entwicklung eines Konzepts zum Statistiktool. Es stehen die Analyse der Nutzungsdaten und der Vergleich zwischen Oracle Application Express (APEX) und Dojo zur Erstellung von Diagrammen in Vordergrund. Im praktischen Teil der Diplomarbeit wird das Konzept umgesetzt und die Implementierung des Statistiktools als JSP-Anwendung mit der Verwendung von Dojo beschrieben.
In dieser Arbeit wird auf die theoretischen Grundlagen von digitalen Filmkameras, des Dynamikumfangs und der HDR Technologie eingegangen. Im Einzelnen werden die Spezifikationen der digitalen Filmkamera RED Epic sowie des Tonemapping-Operators iCAM06 aufgeführt. In der Durchführung war es das Ziel, den erhöhten Dynamikumfang einer mit dieser Kamera aufgezeichneten Szene mit iCAM06 zu komprimieren und diesen auf einem handelsüblichen Monitor darzustellen. In der Auswertung werden Bildergebnisse für unterschiedliche Übergabeparameter demonstriert und dokumentiert.
Es wurde ein Vergleich zwischen einer nativen Android-Anwendung und einer Titanium-Anwendung durchgeführt, anhand einen mobilen SQL-Trainers. Die mit Eclipse nativ entwickelte Android-Anwendung und die Titanium-Anwendung (Android und iOS) sind, zumindest mit unserem beispielhaften Funktionsumfang, fast gleichwertig. Die Entwicklung für BlackBerry und Tizen konnte auf Grund der noch nicht ausgereiften Entwicklungsart für diese Plattformen kaum getestet werden, allerdings wird der größere App-Markt mit iOS und Android unterstützt. Die noch nicht ausgereifte Entwicklungsweise für das Tizen-Betriebssystem kann vernachlässigt werden, wenn bedacht wird, dass auf dem Tizen-Betriebssystem native Android-Anwendungen ausgeführt werden können. Außerdem wird Tizen noch auf keinem Smartphone eingesetzt. Die Vorbereitung auf die Erstentwicklung ist durch die noch etwas weniger ausgereifte, aber dennoch sehr professionelle Entwicklungsumgebung beim Titanium SDK etwas zeitaufwändiger als bei der Eclipse-Entwicklungsumgebung. Natürlich sind die nativen und vom Betriebssystemhersteller herausgegebenen Entwicklungsformen der Vorreiter für das Titanium SDK und deshalb auch die sicherere Entwicklungsform, wenn es beispielsweise um Kompatibilität und Hardwarezugriff geht. Das Titanium SDK übersetzt den entwickelten JavaScript-Code in nativen Code der jeweiligen Plattformen mit den jeweiligen Plattform-Elementen. Die angepriesene Zeitersparnis von zwanzig Prozent bei der Entwicklung kann nicht bestätigt werden. Die Entwicklung der Benutzeroberfläche ist aufwändiger als bei der nativen Entwicklungsweise.