004 Informatik
Refine
Year of publication
Document Type
- Master's Thesis (77)
- Bachelor Thesis (14)
- Study Thesis (3)
- Preprint (1)
- Working Paper (1)
Keywords
- XML (10)
- Electronic Commerce (5)
- Internet (5)
- Semantic Web (5)
- Softwareentwicklung (4)
- Benutzerfreundlichkeit (3)
- Datenbank (3)
- Framework <Informatik> (3)
- Java (3)
- Kontext (3)
Die nachfolgende Masterarbeit untersucht die Nutzung von DeepFake-Anwendungen bei Personen mit einer Fazialisparese. Dabei handelt es sich um eine Lähmung des Gesichtnervs, wodurch die betroffenden Menschen keine bzw. keine vollständige Mimik im Gesicht haben. Es wird hierbei getestet, ob mithilfe von DeepFake eine möglichst realistische Mimik generiert werden kann. Für die Untersuchung werden zunächst sowohl die theoretischen Grundlagen als auch verschiedene potenzielle Anwendungen vorgestellt. Mithilfe der vorgestellten Anwendungen wird anschließend ein Versuch durchgeführt, in dem die künstliche Intelligenz mit Bildmaterial von Proband:innen trainiert und anschließend manipuliert wird. Die aus dem Versuch resultierenden Ergebnisse werden danach durch eine Umfrage mit Bildern, welche eine originale Mimik zeigen, verglichen. Dadurch soll überprüft werden, wie realistisch die manipulierten Bild- und Videomaterialien sind oder ob die künstliche Intelligenz an eine mögliche Grenze stößt. Abschließend werden weitere Forschungsansätze und Anwendungsmöglichkeiten vorgestellt, in welchem die betrachtete künstliche Intelligenz genutzt werden kann.
Speedrunning in general means to go fast in a video game. This simple concept has an immense impact on the ways players engage with games. The inherent aspect of optimization within this esports niche makes it a good application field of optimization methods. This work gives an overview of speedrunning as an esports discipline. Prior works on this subject are discussed and assessed and relevant nomenclature is introduced. Using this information, routing --- the procedure of planning a speedrun --- is picked up as a graph optimization problem.
Nintendo's iconic game The Legend of Zelda: Ocarina of Time from 1998 is used as a working example to assess previous works and to explore more of this mainly uncharted field of research.To do so, the process of speedrun modeling is conducted as exhaustive as possible within the limits of a work like this. All relevant steps to obtain a faithful model are lined out. This procedure yields a partial game graph with 6764 nodes and approx. 321,022 edges --- some uncertainty included. Current pathfinding techniques are discussed and assessed regarding their applicability to the presented speedrun routing problem. The resulting graph model and algorithmic approaches present a good reference to identify the most promising points of improvement. Challenges, flaws and possible solutions to still standing problems are discussed and assumptions from prior works are assessed. Finally, further tracks of scholarly and community work in this area are suggested and possible extensions to the approach are lined out.
It is shown that speedrun routing is not a trivial shortest path problem that can be solved with conventional methods. Furthermore, it is made clear that different games can have vastly differing routing circumstances. Assumptions of other works have been assessed using a working example and many interesting challenges and fields of further study and research in the field of speedrunning have been identified. Some probabilistic pathfinding methods and current works on AI agents for games pose interesting approaches which can be extended on by utilizing the findings of the presented work. Specialized modeling and optimization techniques have to be employed in order to have a positive effect on the speedrunning community.
This project was done in collaboration with CERN and is part of the detector control system of the ATLAS experiment. The primary goal foresaw the development and testing of the FPGA card for the MOPS-HUB crate with the focus on radiation tolerance. This was accomplished with the approach of designing two different PCBs. The first PCB was created as a fast prototype with the use of a commercial SOM-board. This was also beneficial for confirming that the chosen FPGA is suitable for the MOPS-HUB application. After the successful assembly and test, a second, more complex and foremost radiation tolerant PCB was designed. This was achieved by solely using components of the CERN radiation database.
The second part of this thesis focuses on increasing the distance of TMR registers with a Python script. A method was created for extracting and later parsing a design’s placement
information from Vivado. Furthermore, were system designed and implemented to recognize TMR cells, to find and validate free cells and to finally create a new placement for import into Vivado. These algorithms were tested with a multitude of configurations and the quality, based on the maximum possible frequency of a design, determined.
Bei der Interaktion mit technischen und sozialen Systemen treten für Menschen mit und ohne Beeinträchtigungen Barrieren auf. Die vorliegende Arbeit befasst sich mit der Identifikation dieser Barrieren. Dabei wird der wissenschaftliche Diskurs über die Ursachen von Barrieren als ein mehrdimensionales Handlungsfeld betrachtet. Der Bezug zur Mensch-Computer-Interaktion wird hergestellt und Philosophien zur Umsetzung von Barrierefreiheit im Gestaltungsprozess werden erläutert. Es wird ein grundlegender Vergleich von Barrierefreiheit und Usability gezogen. Der objekt- und subjektbasierte Ansatz zur Identifizierung von Barrieren wird ebenfalls vorgestellt.
Die gewonnenen Erkenntnisse werden im Kontext des ehrenamtlichen Musikvereins Junges Musical Leverkusen e. V. praktisch umgesetzt. Für den Kooperationspartner wird der Service rund um ein Ticketverkaufssystem auf mögliche Barrieren untersucht. Dazu wird die Domäne analytisch dargestellt und anschließend empirisch untersucht. Es werden Interviews mit fünf Personen mit unterschiedlichen Beeinträchtigungen geführt. Aus den daraus resultierenden identifizierten Barrieren werden Gestaltungsempfehlungen abgeleitet und deren Nutzen für den:die Benutzer:in und Umsetzbarkeit für den Kooperationspartner diskutiert.
Design Patterns im Kontext von mHealth-Anwendungen unter besonderer Berücksichtigung von Privacy
(2021)
Gesundheitsapps bzw. mHealth-Apps werden immer häufiger verwendet, um die Gesundheit aufrechtzuerhalten oder das eigene Gesundheitsverhalten zu verbessern. Vor allem die Corona-Pandemie im Jahr 2020 und die damit einhergehenden Kontaktbeschränkungen führten zu einem Anstieg der Nutzerzahlen. Für diese Forschungsarbeit sind Lifestyle-Apps von besonderem Interesse, da sich diese im Gegensatz zu anderen Arten von mHealth-Apps an Konsumenten als Zielgruppe richten.
Zunächst werden Design-Methoden ermittelt, die bei der Gestaltung von mHealth-Lösungen zum Einsatz kommen. Dabei liegt der Fokus auf Persuasive Technology, die darauf abzielt, Verhaltensweisen des Nutzers zu verändern. Es wird geklärt, auf welchen theoretischen Modellen solche Systeme basieren und mit welchen Vorteilen und Risiken die Nutzung von mHealth-Anwendungen verbunden ist. Die in Persuasive Technology vorkommenden Design-Methoden werden kritisch betrachtet, indem überprüft wird, ob mithilfe von Dark Patterns Schwachstellen der menschlichen kognitiven Fähigkeiten und Verhaltensweisen ausgenutzt werden können und ob es dadurch zur Verletzung der Privatsphäre oder zu einer Gefährdung des seelischen Wohlbefinden des Nutzers kommen kann.
Im empirischen Teil wird eine Umfrage durchgeführt, in der Probanden zu der Nutzung von bestimmten mHealth-Apps und dem Abbruch der Nutzung befragt werden. Bei der Umfrage wird ebenfalls erhoben, ob die Nutzung einen positiven oder negativen Eindruck auf mHealth hinterlassen hat und ob sich der Umgang der persönlichen Daten nach der Nutzung verändert hat.
Domänenspezifische Sprachen gewinnen seit einigen Jahren zunehmend an Bedeutung. Xtext ist eine sogenannte \textit{Language Workbench}, mit der solche Sprachen schnell entwickelt werden können. Neben der Sprachinfrastruktur wird eine inzwischen weit fortgeschrittene Integration in die IDE Eclipse erzeugt und es können optional ein Plug-in für IntelliJ und ein Webeditor erstellt werden. Der Ansatz ist dabei, dass der oder die Codegeneratoren direkt mit dem Abstract Syntax Tree arbeiten. In dieser Arbeit wird gezeigt, wie ein Domänenmodell in eine Xtext-Sprache integriert werden kann und wie Test- und Wartbarkeit davon profitieren. Besondere Beachtung finden, gegeben durch das Projektumfeld, die Anforderungen durch Funktionale Sicherheit.
Die Entwicklung der Computergraphik und ihr Einsatz bei der digitalen Architekturrekonstruktion
(2018)
Die digitale 3D-Rekonstruktion von Architektur- und Archäologieobjekten ist eng mit der anwendung der Methoden und Systeme der Computer Graphik verknüpft. Dieser Artikel stellt solche Verbindungen seit den Anfängen der Computergraphik in den 1950er Jahren bis etwa zur Jahrtausendwende dar. Die Entwicklungen von Methoden zur Gewinnung von 3D-Daten, i.e. 3D-Scannverfahren und Photogrammetrie, werden ergänzend kurz betrachtet.
Die neusten Fortschritte im Bereich Real Time Rendering ermög-lichen virtuelle Produktionsabläufe in weiten Teilen der Industrie. Diese Vorgehensweise setzt latenzfreies Arbeiten und eine akkurate Erscheinung voraus. Daher empfiehlt sich die Verwendung von HDR-Rendering für fotorealistische Ergebnisse und Tone Mapping für die passende Darstellung.
Gleichwohl gibt es bisher nur wenige Publikationen, die sich mit echtzeitfähigem Tone Mapping beschäftigen. Zudem tendieren Tone Mapping Operatoren dazu, Farberscheinungseffekte zu erzeugen, die zu einer Diskrepanz zwischen dargestelltem und realem Produkt führen.
Deshalb werden in dieser Thesis sieben Tone Mapping Operatoren bewertet, die unterschiedliche Ansätze zur Farbkorrektur beinhalten. Sie werden als Fragment Shader implementiert, um Echtzeitverarbeitung zu realisieren. Zusätzlich wird ihre Performance und die subjektive Akkuratesse der Ergebnisse gemessen.
Im Ergebnis schneidet der FilmicTMO als global arbeitender Sigmoid-Operator am besten ab und wird für die weitere Verwendung empfohlen.
The amount of data produced and stored in multiple types of distributed data sources is growing steadily. A crucial factor that determines whether data can be analyzed efficiently is the use of adequate visualizations. Almost simultaneously with the ongoing availability of data numerous types of visualization techniques have emerged. Since ordinary business intelligence users typically lack expert visualization knowledge, the selection and creation of visualizations can be a very time- and knowledge-consuming task. To encounter these problems an architecture that aims at supporting ordinary BI users in the selection of adequate visualizations is developed in this thesis. The basic idea is to automatically provide visualization recommendations based on the concrete BI scenario and formalized visualization knowledge. Ontologies that formalize all relevant knowledge play an important role in the developed architecture and are the key to make the knowledge machine-processable.
This study paper introduces different tools, i.e. analytical methods and visualizations, in business intelligence environments. It especially emphasizes the use of OLAP-based technologies as a tradtional kind of data analysis in contrast to as graph analysis and formal concept analysis as rather new approaches in the area of visual analytics.
Der immer weiter steigende Bedarf an qualitativ hochwertigen, grafischen Inhal- ten in Computerspielen sorgt dafür, dass neue Wege gefunden werden müssen, um diese mit verfügbaren Ressourcen produzieren zu können. Hier hat sich in einigen Bereichen die Verwendung von prozeduralen Techniken zur computergestützten Ge- nerierung von benötigten Modellen bereits bewährt. Ein Bereich, der aufgrund seiner Komplexität besonders interessant für den Einsatz von prozeduralen Methoden ist und im Bereich der Computerspieleindustrie noch am Anfang steht, ist die Simulation und Erzeugung von virtuellen Städten oder anderen urbanen Strukturen. Ziel dieser Arbeit ist es, ein Systemkonzept zu präsentieren, das auf Grundlage eines erweiterbaren Bedürfnissystems von Personen ein virtuelles Wegenetz erzeugt, das als Folge der Interaktionen der Personen mit der simulierten Welt entsteht. Es soll gezeigt werden, dass einzelne Agenten ohne ein globales Wissen oder eine vorhandene Planungsinstanz nach dem Beispiel von sozialen, staatenbildenen Insekten nur mit- hilfe einer Kommunikation auf Pheromonbasis zu in Computerspielen einsetzbaren Simulationsergebnissen kommen.
Diese Masterarbeit beschäftigt sich mit der Visualisierung von Leistungs- und sportmedizinischen Daten aus Athletenakten. Nach einer kurzen Einleitung wird zunächst die Aufgabe beschrieben. Hier wird auf die Anforderungen an die zu entwickelnde Komponente eingegangen. Anschließend werden die vorhandenen Leistungs- und sportmedizinischen Daten beschrieben. Dabei wird zunächst die Tabellenstruktur der zugrundeliegenden Datenbank inklusive der XML-Spalten beschrieben.Weiterhin werden die XML-Dateien aufgeführt, in denen die Athletendaten gespeichert werden. Im folgenden Kapitel werden grundlegende Visualisierungstechniken vorgestellt und am Avatar angewendet. Neben den Techniken werden anschließend verschiedene Visualisierungstechnologien beschrieben und eine begründete Auswahl getroffen. Das nächste Kapitel beschreibt neben der Visualisierungstechnologie weitere, verwendete Technologien wie Programmiersprache und Serverarchitektur. Eine Vorstellung der entwickelten Komponenten sowie ein Ausblick und Fazit runden in den letzten beiden Kapiteln die Arbeit ab.
Informationen beim Eintreten eines Ereignis zu übermitteln, ist die Aufgabe ereignisorienterter Systeme. Für die Entwicklung solcher Systeme, gibt es eine Reihe von Technologien und Standards, welche je nach Plattform oder Anwendungskontext verschiedene Vorteile besitzen. Innerhalb dieser Seminararbeit werden die webbarsierten Systeme betrachtet, in dem auf die Konzepte von Light und Fat Ping, Publish-Subscribe sowie zentrale und dezentrale Architekturen eingegangen wird. Des Weiteren werden die Technologien XMPP, Googles C2DM, Amazon SNS und SQS, Twitter und Apples Push Notification beschrieben. Abschließend werden aus diesen Betrachtungen Merkmalsdimensionen abgleitet, die dabei helfen sollen, geeignete Lösungen in einem Anwendungskontext auszuwählen. Zusätzlich können diese bei der Konzeption von Systemen als Hilfestellung herangezogen werden.
Aufgrund der steigenden Nutzung mobiler Geräte und der Vielzahl persönlicher bzw. geschäftlicher Daten, die auf mobilen Geräte gespeichert und verarbeitet werden, sind mobile Geräte zu einem attraktiven Angriffsziel geworden. Ungeachtet des Schutzbedarfs hat sich die Sicherheitssoftware, wie man sie von stationären Systemen her kennt, auf mobilen Geräten bisher nicht durchsetzen können. Sicherheitsansätze stationärer Systeme können mobile Geräte zwar vor Bedrohungen schützen, jedoch sind diese Ansätze zu ressourcenintensiv für mobile Geräte, deren Rechenleistung und Akkukapazität relativ begrenzt ist. Um den Schutzbedarf mobiler Geräte und deren Anwendungen unter Berücksichtigung der begrenzten Ressourcen zu erfüllen, wird in dieser Arbeit ein Architekturmodell konzipiert, das Anwendungen, abhängig von Bedrohungen, Sicherheitsmaßnahmen bereitstellt. Anders als beim Sicherheitsansatz stationärer Systeme werden nur die Sicherheitsmaßnahmen umgesetzt, die aufgrund der aktuellen Bedrohungen notwendig sind. Ermöglicht wird die adaptive Bereitstellung von Sicherheitsmaßnahmen durch einen in dieser Arbeit vorgestellten Ansatz, der die Ermittlung von Bedrohungen und geeigneter Maßnahmen aus Kontextinformationen und Erfahrungswerten zulässt. Zuletzt wird die Realisierbarkeit des Architekturmodells anhand einer prototypischen Implementierung nachgewiesen.
PubMed stellt mit 21 Mio. Aufsatzzitaten eines der umfangreichsten Informationssysteme in Bereich der Medizin. Durch die Verwendung einer einheitlichen Terminologie (Medical Subject Heading - MeSH) bei der Indizierung von PubMed Inhalten kann die Orientierung in solch großen Datenbeständen optimiert werden. Zwar bietet ein kontrolliertes Vokabular bei der Informationsbeschaffung zahlreiche Vorteile gegenüber einer Freitextsuche doch fällt Nutzern das Abbilden eines Informationsbedarfs auf die verwendete Terminologie oftmals schwer. In dieser Arbeit wird eine Systemunterstützung geschaffen, die den Abbildungsprozess automatisiert indem eine automatische Verschlagwortung textbasierter Inhalte unter Verwendung eines kontrollierten Vokabulars vorgenommen wird. Durch die Verwendung einer einheitliche Terminologie kann so eine konsistente Integration von PubMed Inhalten erreicht werden.
Immer kürzer werdende Technologielebenszyklen, sich schnell ändernde gesetzliche Anforderungen und der ständig wachsende Wettbewerb führen dazu, dass Unternehmen dem Zwang unterliegen sich schnell auf diese veränderten äußeren Bedingungen anzupassen. Die Optimierung der eigenen Geschäftsprozesse ist diesbezüglich eine wesentliche Aufgabe, da diese so gestaltet werden müssen, dass Anpassungen möglichst schnell und minimal invasiv erfolgen können. Eine Optimierungsmöglichkeit ist Geschäftsprozesse mit Hilfe von Prozessbeschreibungssprachen wie BPEL (Business Process Execution Language) oder BPMN (Business Process Modelling Notation) automatisiert ablauffähig zu machen. Diese Automatisierung trägt zum einen dazu bei, dass Fach- und IT-Abteilung über das Gleiche nämlich über Geschäftsprozesse reden. Zum anderen hilft die Automatisierung dabei, klassische Probleme wie beispielweise Medienbrüche zu vermeiden. Eine Vollautomatisierung ist dabei jedoch meist nicht möglich und auch nicht sinnvoll, da es in Geschäftsprozessen Entscheidungen beziehungsweise Aufgaben gibt, welche das Eingreifen eines menschlichen Akteurs erfordern. Diesen Sachverhalt haben auch die Plattform-Hersteller erkannt und Möglichkeiten bereitgestellt, welche die Integration menschlicher Interaktion in einen automatisiert ablaufenden Prozess ermöglichen. Die Integration mit Hilfe so genannter Tasks, welche von einer Task-Engine erzeugt und Akteuren oder Gruppen von Akteuren zugeordnet werden. Diese Tasks können über eine Tasklist-oder Inbox-Applikation durch entsprechend berechtigte Benutzer bearbeitet werden. Solche Applikationen werden in der Regel von den Plattformherstellern zur Verfügung gestellt (z.B. Oracle Worklist Application oder Activiti Explorer), oder können über ein mitgeliefertes API (Application Programming Interface) individuell programmiert werden. Die APIs sind allerdings häufig proprietär und unterscheiden sich von Hersteller zu Hersteller. Für die Anwenderunternehmen heißt dies, dass entweder die mitgelieferte Anwendung verwendet oder eine eigene erstellt werden muss. Die erste Variante bringt das Problem mit sich, dass die mitgelieferten Anwendungen meist nicht ins Corporate Design passen und sich nicht ohne weiteres in bestehende Unternehmensportale, oder ähnliches einfügen lassen. Die zweite Variante ist aufwendig, da in der Regel nicht zu unterschätzende zeitliche und damit auch monetäre Aufwände anfallen. Zudem machen sich Anwenderunternehmen abhängig vom Hersteller der Workflow-Engine, weil ein Wechsel der verwendeten Plattform auch die Re-Implementierung der Inbox-Anwendung bedeutet. Zusammenfassend betrachtet bestehen im Bereich der menschlichen Interaktion also Probleme in den Bereichen Portabilität und Interoperabilität. Zudem entsteht eine enge Kopplung zwischen Task-Engine und den Inbox-Applikationen. Im Bereich der menschlichen Interaktion liegt bei der OASIS (Organization for the Advancement of Structured Information Standards) seit einigen Jahren die WS-HT Spezifikation vor, welche eine standardisierte Integration menschlicher Interaktion in Service-orientierten Architekturen gewährleisten soll. Hierüber könnten die angesprochenen Probleme beseitigt werden. Problem dabei ist, dass die WS-HT Spezifikation von aktuellen Task-Engine Implementierungen nicht berücksichtigt wird. Um dennoch die bestehenden Probleme adressieren zu können, soll ein Adapterframework, basierend auf den Vorgaben der WS-HT Spezifikation definiert werden, konzipiert und implementiert werden, das die Funktionalitäten verschiedener Task-Engines über eine standardisierte Schnittstelle anbietet. Mit Hilfe diese Frameworks soll die enge Kopplung zwischen einer spezifischen Task-Engine und den Inbox-Applikationen aufgehoben werden.
Der Smartphone-Markt gehört zu einem der am stärksten wachsenden Märkte der heutigen Zeit. Zudem erfreuen sich Anwendungen mit soziotechnischen Aspekten wie YouTube und Facebook immer größer werdender Beliebtheit. Genau hier siedelt Your-Sights an. Dabei wurde im Rahmen eines Projekts eine Software für das Smartphone-Betriebssystem Android konzipiert und entwickelt, welche in der Lage ist Touren, bzw. eine Menge von Wegpunkten zu erstellen, wiederzugeben und zu verwalten. Neben obligatorischen GPS-Koordinaten können für jeden Wegpunkt textuelle und visuelle Informationen, in Form von Bildern, erfasst werden. Für die kartografische Darstellung wird auf das OpenStreetMap-Projekt zurückgegriffen. Im Rahmen dieser Bachelor-Thesis wird das Projekt fortgesetzt und auf die Konzeptio-nierung und Entwicklung einer Middleware eingegangen, welche eine Brücke zwischen den Anwendern und einer Datenbank bildet. Letztere dient nicht nur dem Austausch von Touren, sondern ermöglicht auch eine Kommunikation unter den Anwendern. Dabei wurde Wert auf die Evaluation einer adäquaten Kommunikationstechnologie für den Datenaustausch zwischen dem Anwender und der Middleware gelegt. Schließlich erfolgte der Einsatz des Java NIO-Frameworks Netty und die Entwicklung eines Kommunikationsprotokolls. Darüber hinaus wird auf notwendige Änderungen und Erweiterungen der Android-Applikation, als auch eine prototypische Entwicklung des Servers eingegangen.
Für Anwendungen, die mit XML-Dokumenten arbeiten, kann es aus der Sicht eines Unternehmens sinnvoll sein, die Daten in einer relationalen Datenbank zu speichern. Sollte die Anwendung von sich aus nur mit nativen XML Datenbanken arbeiten und gar keine Anbindung an relationale Datenbanken vorsehen, sind umfassende Untersuchungen notwendig. Vor allem bei Redaktionssystemen, die für den Produktiv-Betrieb eines Unternehmens essentiell sind, darf es zu keinen Beeinträchtigungen durch die Datenhaltung kommen. Redaktionssysteme arbeiten zudem aufgrund ihrer Funktionsvielfalt mit verschieden strukturierten Dokumenten, an die unterschiedliche Anforderungen bestehen. Es müssen also optimale Strukturen für die einzelnen Dokument-Gruppen gefunden werden. Möglichkeiten XML-Dokumente in einer relationalen Datenbank zu speichern gibt es allerdings viele. Sei es ein nativer XML-Datentyp, ein Mapping auf Relationen oder gar ein hybrides Verfahren. Die Wahl der passenden Struktur wird nicht nur durch die Anwendung, die Nutzer und die Datenbanken beeinflusst, sondern auch durch die Struktur und die Nutzungskontexte der XML-Dokumente. Ziel dieser Arbeit ist es, anhand von ermittelten Kriterien, optimale Strukturen für verschiedenartige XML-Dokumente zu finden. Dazu werden neben dem Redaktionssystem, den Datenbanken und den Daten, auch verschiedene Strukturen untersucht. Abgesehen von den Strukturlösungen sollen die Erkenntnisse in dieser Arbeit dabei helfen, die native XML Datenbank des betroffenen Redaktionssystems durch eine relationale Datenbank zu ersetzen.
Dublettenerkennung bezeichnet einen Prozess zur Ermittlung ähnlicher oder identischer Datensätze, die sich auf das gleiche Objekt der realen Welt beziehen. Eine besondere Bedeutung hat diese im Rahmen einer Datenbereinigung zum Beispiel nach dem Zusammenführen verschiedener Datenbestände mit möglichen Überlappungen. In diesem Zusammenhang haben sich in den letzten Jahren einige interessante Entwicklungen ergeben. Zum einen steigen die erfassten Datenmengen immer weiter an, so dass Algorithmen an Bedeutung gewinnen, die auch in solchen großen Datenbeständen effizient arbeiten. Zum anderen steigt durch die stärkere Verbreitung von Mehrkernprozessoren und die zunehmende Zentralisierung von IT-Diensten (vgl. Cloud Computing) auch der Bedarf an Lösungen, die in solchen Umgebungen optimal arbeiten und sich gut skalieren lassen. Der hier vorgestellte Lösungsansatz zur Dublettenerkennung kombiniert einen modernen und effizienten Algorithmus mit den Vorzügen einer zentralen und dienstorientierten Architektur.
Die Kommunikation via Chat konnte sich in den letzten Jahren neben Kommunikationsmedien wie E-Mail und Telefon in vielen Bereichen des alltäglichen Lebens etablieren. Textbasierter Chat weist jedoch, im Vergleich zu Face-to-Face-Kommunikation, gewisse mediale Einschränkungen auf. Nonverbale Signale wie Gestik und Mimik können, in Ermangelung eines visuellen Kanals, nicht direkt übertragen werden. Trotzdem findet auch im Chat ein Austausch nonverbaler Informationen statt, wie beispielsweise der Einsatz von Emoticons oder Pausen in Gesprächen. Verhaltensweisen bei nonverbaler Kommunikation enthalten Hinweise bezüglich der sozialen Beziehung der Gesprächspartner. Derartige nonverbale Signale können aus Chat-Protokollen extrahiert und analysiert werden. In dieser Arbeit beschäftigen wir uns mit der Analyse nonverbaler Daten aus Chat-Protokollen. Ziel ist die Einschätzung der Stärke einer sozialen Beziehung anhand eines multidimensionalen Analyse-Modells.
Der Architekturstil REST erlangt in den letzten Jahren immer größere Verbreitung. RPC-orientierte Architekturstile scheinen besonders bei Software-Neuentwicklungen obsolet zu werden. Es existieren viele Gründe, die für eine Verwendung von REST-Architekturen sprechen. Den- noch zeigen sich auch Probleme bei der Entwicklung von REST-konformen Anwendungen. Diese Probleme und jeweils existierende Lösungsansätze werden in dieser Arbeit aufgezeigt. Dabei geht es zum einen um verfügbare Frameworks und technische Spezifikationen und zum anderen um konzeptionelle Lücken im Bereich der Automatisierung von Geschäftsprozessen.
Das Wissen nutzbar zu machen steht an zentraler Stelle. Heute wird der Mensch mit Informationsmengen konfrontiert und steht dadurch vor dem Problem einer enormen Informationsflut. In der schnelllebigen Zeit der IT-Technik (Information und Telekommunikation) soll eine innovative Methode die Informationsrecherche zeitlich verkürzen und eine individuell optimale Lösung für den Benutzer gefunden werden. Die gebrauchstaugliche Unterstützung heißt: Eine semantisch-webbasierte Visualisierung zur Unterstützung des Findens innerhalb des Semantic Web. Der Ansatz der Visualisierung liegt darin begründet, dass Menschen hauptsächlich über die Augen wahrnehmen und schnell Zusammenhänge erkennen können. Sogar blinde Menschen nutzen dazu ein mentales System, das visuell räumliches Skizzenblatt (scratch-pad), um Bilder bzw. die Umwelt zu verarbeiten. Der Vorteil liegt darin begründet, dass es einen schnellen direkten Zugriff auf das Arbeitsgedächtnis ermöglicht. Ein Anwendungsszenario im Bereich des Mobilfunks soll als Praxisbeispiel dienen. Bei der Vielzahl der angebotenen Handys mit den homogenen Leistungen findet kaum ein Kunde die Unterscheidungen und es gibt zurzeit keine Möglichkeit unter den Handys benutzungsfreundlich zu differenzieren noch ein optimales Handy zu finden. Am Beispiel von selbst dargestellten Szenarien und einer Evaluation wird erörtert, wie anhand von angenommenen Stakeholder, ein Zusammenspiel der Semantic Web Technologien eine jeweilige Lösung von verfügbaren Informationen aufgefunden und bearbeitet werden kann. Ziel bei der Anwendung ist es, ein Prototypen zu realisieren, dass gebrauchstauglich bei der Visualisierung von großen Datenmassen, auf Grundlage einer Empfehlung von Mobilgeräten in einem Webinterface, unterstützt. Das bereits geschriebene Praxisprojekt-Referat in Form eines Konzepts mit dem Thema: „Graphische Visualisierung von semantischen Daten in einem Webinterface“ dient dabei als Grundlage für diese Bachelorarbeit (siehe Kap. 8.2). Grundlage, Innovationen und Beispiele aus der Praxis sind ausführlich dort beschrieben worden. Dabei wurden die neusten Technologien unter den Kriterien der Häufigkeit in der Praxis, Plattformunabhängigkeit und der Flexibilität betrachtet. Künstlerisch gestalterische Disziplinen, die Produkte graphisch zum Glänzen bringen möchten oder welche, die sich mit den grundlegenden Technologien für semantische Daten sich beschäftigen, bleiben bei dieser Arbeit unbehandelt. Es geht im Schwerpunkt um eine Beantwortung der folgenden Forschungsfrage: Inwieweit sind graphische Repräsentationen vorteilhafter, um Wissen zu vermitteln, in Verhältnis zu textuellen Repräsentationen?
In dieser Arbeit wurde die Slow Feature Analysis (SFA) auf ihre Einsatzmöglichkeiten zur Gestenerkennung zu untersuchen. SFA ist ein Lernalgorithmus, der aus den Neurowissenschaften stammt und aus sich schnell verändernden Signalen, die langsamsten Merkmale herausfiltert. Als Gesten werden in diesem Fall beschleunigungsbasierte dreidimensionale Signale des Wii-Controllers von Nintendo betrachtet. Für die Untersuchungen wurden fünf unterschiedliche Gesten von zehn Probanden verwendet. Diese Gesten liegen in Form von mehrdimensionalen Zeitreihen vor, die die Messwerte der Beschleunigungssensoren des Wii-Controllers enthalten. Die Gestendaten wurden mit einer Java-Anwendung aufgezeichnet, mit der die Wiimote über Bluetooth verbunden ist. Für die Untersuchungen wurde eine Implementierung des SFA-Toolkits (MATLAB, SFA-TK) verwendet und die Ergebnisse mit denen anderer gängiger Verfahren verglichen. Untersucht wurde hierzu sowohl die Klassifizierung von Gesten, als auch Ansätze zur Segmentierung, dem Erkennen von Anfang und Ende einer Geste.
Die Diplomarbeit „Konzeption und Implementierung eines PL/SQL Trainers auf Basis von JSP und eLML“ beschäftigt sich mit der Erstellung von eLearning Anwendungen, für das Themengebiet PL/SQL, mit speziellem Fokus auf die Programmierung von Datenbanktriggern. Im theoretischen Teil der Arbeit wird das Thema eLML ausführlich behandelt und dabei die Funktionsweise sowie die Hintergrundgeschichte des eLML Frameworks erläutert. Der praktische Teil der Arbeit unterteilt sich in zwei Abschnitte, im Ersten Abschnitt wird beschrieben, wie bestehende Lerneinheiten zum Thema PL/SQL aus dem MS-Power-Point Format in das eLML Format übertragen werden, wobei die praktische Anwendung von eLML dargestellt wird. Im zweiten Abschnitt wird die Konzeption und die Implementierung einer JSP-Webanwendung beschrieben, die eine interaktive Trainingsanwendung für die Programmierung von Triggern mit PL/SQL darstellt.
Die Zielsetzung dieser Thesis ist die aktuelle Situation von Blinden und Sehbehinderten in Bezug auf technische Hilfsmittel aufzuzeigen und auf mögliche Defizite und Handlungsbedarf hinzuweisen. Im Vorfeld wurde im Rahmen der Recherche eine Umfrage unter Betroffenen durchgeführt. Die Auswertung der Umfrage sowie eines ausführlichen Interviews ist ein wichtiger Bestandteil. Die Thesis soll IST-Grundlage für weitere Überlegungen, Weiterentwicklungen und Forschungsansätze im Bereich Blindeninformatik sein. Zu Beginn wird die Anatomie und Funktion des menschlichen Sehapparates erläutert. Ein weiterer Schwerpunkt der Thesis ist die geschichtliche Entwicklung von Hilfsmitteln. Anhand wichtiger Meilensteine, wie beispielsweise die Punktschrift, der Thermostift oder die Einführung des DAISY Standards wird die „Useability“ und auch die Akzeptanz in der Gesellschaft betrachtet. Anhand aktueller technischer Hilfsmittel werden Probleme und Lücken im Alltag erörtert. Der Verfasser ist selbst Betroffener und ergänzt die zusammengestellten Informationen durch eigene praxisorientierte Alltagserfahrungen. Im weiteren Verlauf werden neue technische Innovationen wie beispielsweise Touchscreens und Augmented Reality (AR) vorgestellt. Es wird einerseits auf aktuelle Entwicklungen eingegangen und Ausblicke auf zukünftige Anwendungsgebiete aufgezeigt, andererseits aber auch auf Gefahren bei der Verschmelzung von Realität und Virtualität hingewiesen. Abschließend werden die Feststellungen zusammengefasst und Denkanstöße für zukünftige Neu- und Weiterentwicklungen gegeben.
Aufgrund des Mangels an Softwareprodukten, die Projektmitarbeiter beim örtlich und zeitlich verteilten Arbeiten in Projekten effizient und zufriedenstellend unterstützen, soll ein ToDo-Manager entwickelt werden, der den Bedürfnissen der Benutzer gerecht wird und deren Anforderungen erfüllt. Valide Prototypen basieren auf Anforderungen der Benutzer und spiegeln deren Interaktion mit dem System wider. Die konstruierten Interaktionsentwürfe sollen in Prototypen abgebildet, evaluiert und überarbeitet werden, bis die Aufgaben der Benutzer durch die Dialogschritte abgebildet werden, sodass eine effiziente und zufriedenstellende Bearbeitung ermöglicht wird. Auf der Basis von ermittelten Nutzungsobjekten und Werkzeugen wird die Navigationsstruktur ermittelt sowie der Funktionsumfang des Systems definiert. Das User-Interface Design beschreibt die Entwicklung von Prototypen, die durch Benutzer evaluiert werden. Berücksichtigt werden neben der Interaktion auch gestalterische Aspekte. Die evaluierten Prototypen werden iterativ überarbeitet, damit ein gebrauchstaugliches Modell des ToDo-Managers entsteht. Ziel der Bachelorarbeit ist das Durchführen einer konzeptionellen und konkreten User Interface Design Phase, in denen die Entwicklung eines auf den Anforderungen der Benutzer basierenden demonstrierbaren und interagierbaren Prototypen für einen ToDo-Manager angestrebt wird.
Der Einsatz von Ontologien wird bereits in vielen Anwendungsbereichen als Werkzeug für die Strukturierung und die Verbesserung der Zugänglichkeit von Informationen unterschiedlichster Art genutzt. Sie ermöglichen die explizite Formulierung der Bedeutung von Konzepten und Strukturen beliebiger Domänen. Auch im Rahmen der Zusammenarbeit in und zwischen Gruppen ist der Austausch und die Verarbeitung von Informationen für den Verlauf und den Erfolg der Kooperation von erheblicher Bedeutung. Daher liegt es nahe, auch kollaborative Aktivitäten durch den Einsatz von Ontologien zu unterstützen. Aktuelle Arbeiten in diesem Themenbereich fokussieren jedoch meist auf ausgewählte Aspekte der Zusammenarbeit wie etwa der Kommunikation zwischen den Gruppenmitgliedern oder die Unterstützung durch eine konkrete Softwarekomponente. In dieser Arbeit wird dagegen von einer ganzheitlichen Betrachtung von Kooperationssituationen ausgegangen. Dabei werden die an einer Kooperation beteiligten Personen und die eingesetzten technischen Komponenten als ein gesamtes soziotechnisches System betrachtet, dessen Elemente nicht losgelöst voneinander betrachtet werden können. Das Ziel dieser Arbeit besteht einerseits darin, zu untersuchen, wie sich der Einsatz von Ontologien auf die Unterstützung der Zusammenarbeit auswirkt und andererseits, welche Möglichkeiten sich hieraus für die Gestaltung von Kooperationssystemen ableiten lassen. Einige dieser Möglichkeiten werden im praktischen Teil prototypisch implementiert, um die technische und wirtschaftliche Umsetzbarkeit zu evaluieren.
Bei der Entwicklung interaktiver Software werden die Belange der Benutzer oft außer Acht gelassen oder nur unzureichend berücksichtigt. Dies führt dazu, dass das System von den Benutzern nicht akzeptiert wird, es die Benutzer nicht im ausreichenden Maße unterstützt oder, im Ernstfall, die Benutzer ihre Aufgaben nicht vollständig lösen können. Um einen Nährboden für die Entwicklungsprozesse von gebrauchstauglicher Software zu schaffen, muss eine grundlegende Entscheidung getroffen werden. Der Usability Engineering Prozess wird selbst geplant und durchgeführt, oder extern an eine Firma weitergegeben. Diese Arbeit beschäftigt sich mit ersterem und integriert den Usability Engineering- und Softwareentwicklungsprozess in einem Framework mit agilem Vorgehensmodell, welches sich an erfahrene Projektleiter, Projektmanager und Softwareentwickler ohne gefestigtes Wissen im Bereich des Usability Engineerings richtet. Es werden Ziele definiert und mögliche Methoden und Techniken vorgestellt, mit denen diese Ziele erreicht werden können. Da sich das Framework an Softwareentwickler richtet, die einen Usability Enginigeering Prozess integrieren wollen, werden zwar notwendige Ziele der Softwareentwicklung, aber nicht die Methoden und Techniken diese zu erreichen, vorgegeben, um einen etablierten Softwareentwicklungsprozess nicht zu sehr zu beeinflussen.
Das Ziel dieser Arbeit ist die Definition einer allgemeinen Aufgaben-beschreibungssprache, die nicht an einen einzelnen Roboter gebunden ist, sondern für alle möglichen Arten von Robotern einsetzbar ist. Dieses Ziel soll mit Hilfe der Robotic Task Definition Language erreicht werden. Die Robotic Task Definition Language (RTDL) ist eine Sprache, die an der Fachhochschule Köln im Rahmen des Instituts-übergreifenden Projektes Verteilte Mobile Applikationen (VMA)" entwickelt wird. Die Aufgabe der RTDL besteht darin, eine allgemein gültige Aufgabenbeschreibungssprache für unterschiedlichste Roboter zu definieren. Mit einer solchen Aufgabenbeschreibungssprache ist es möglich, die Steuerungssoftware verschiedener Roboter in einer einheitlichen Sprache zu beschreiben und in einem weiteren Schritt auch umzusetzen.
Die Dynamik des Social Webs motiviert zum Teilen nutzergenerierter Inhalte. Diese entstehen in zahlreichen Social Networks meist unter Missachtung der Schutzziele der IT-Sicherheit: Vertraulichkeit, Verfügbarkeit und Integrität von Nutzerdaten. Betreiber von Web-Anwendungen können Inhalte ihrer Nutzer einsehen, fälschen, löschen oder zu unbekannten Zwecken auswerten und verfügen über Wissen über Kommunikationspartner und -verhalten - ohne, dass sich Benutzer wirksam davor absichern könnten. Von dem im Grundgesetz verankerten Recht auf Privatsphäre ausgehend soll im Rahmen dieser Ausarbeitung eine neuartige Architektur zum Teilen nutzergenerierter Inhalte im Web entwickelt werden, die Benutzeranforderungen an die Erfüllung der Schutzziele der IT-Sicherheit vollständig gewährleistet und darüber hinaus durch eine bewusste Kommunikation dieser Qualität als vertrauenswürdig aufgefasst werden kann. In einem Goal-directed Design-Prozess wird eine Architekturskizze entwickelt, welche die im Prozess erarbeiteten Benutzeranforderungen durch die Bereitstellung zweier Web-Services erfüllt: Der Signed Content Storage adressiert als zuverlässiger und durch den Urheber autorisierter Web-Speicherort signierter, nutzergenerierter Inhalte die Schutzziele Verfügbarkeit und Integrität. In Kombination mit dem Identity Provider, der gesicherte Informationen von Urheber und Teilhabern zur Verfügung stellt, ist ein vertrauliches Teilen von Inhalten im Web möglich. Vertrauenswürdigkeit gewinnt diese Architektur durch konsequente Transparenz, Selbstbeschreibungsfähigkeit, externe Bewertbarkeit und der Dokumentationsfähigkeit von Nutzungserfahrungen.
Die vorliegende Arbeit beschäftigt sich mit dem elektronischen Management von Bewerbungen und Bewerberinformationen im Kontext mittelständischer Unternehmen in Deutschland. Nach einer kurzen Einführung wird der Begriff Web 2.0 sowie die mit diesem einhergehenden Trends und Entwicklungen genauer beschrieben. Nachfolgend werden bestehende marktübliche Systeme für das Management von Bewerbungen miteinander verglichen. Nachdem ein Überblick über das Themenfeld gewonnen wurde, wird der Prozess des Bewerbermanagements selbst, sowie die damit verbundenen Aufgaben im Unternehmen erhoben und analysiert. Eine Befragung der involvierten Mitarbeiter, welche Unterstützung sich diese bei der Durchführung ihrer Aufgaben von einem System wünschen, rundet die Analyse ab. Die Frage, welche Kanäle, Informationsdarstellungen und Controllingmechanismen ein System bieten muss, um maximalen Mehrwert bei der Bewerberansprache und -auswahl bieten zu können, wird in Form eines Grobkonzeptes aufgegriffen. Die dort gesammelten Ideen werden dann in einem weiteren Schritt zusammengeführt, gruppiert und konkreten Modulen zugeordnet. Eine Realisierung ausgewählter Systemkomponenten sowie der Dokumentation des Entwicklungsprozesses schließt den Kernteil ab. Abgeschlossen wird die Arbeit mit einem Ausblick, welche weiteren Entwicklungsschritte möglich sind sowie mit einem Fazit, in dem persönliche Eindrücke während der Bearbeitung des Themas kurz skizziert werden.
Interaktive Systeme können ihre Nutzer bei der Erledigung alltäglicher Aufgaben, sowie beim Lernen unterstützen oder dienen der Unterhaltung. Sie können den Nutzer jedoch auch bei der Lösung eines bestimmten Problems unterstützen, wobei es sich hierbei häufig um sehr komplexe Probleme handelt. Diese lassen sich oftmals nicht klar definieren oder werden erst im Laufe der Entwicklung eindeutig identifiziert. Bei der Untersuchung der Probleme muss aufgrund ihrer Komplexität häufig multiperspektivisch vorgegangen werden, um möglichst alle Dimensionen potentieller Lösungen zu berücksichtigen. Eine Entwicklung in multidisziplinären Teams unter Einbeziehung der Kunden und zukünftiger Nutzer ist daher ratsam. Durch die multidisziplinäre Zusammensetzung von Entwicklungsteams können Kommunikations- und Verstädigungsschwierigkeiten auftreten, die sich aus der spezifischen Fachsprache der Domäne und individuellen Denkmustern ergeben. In dieser Arbeit wurde unter Berüksichtigung prozeduraler und kognitionspsychologischer Aspekte ein Ansatz entwickelt, um den Prozess der Problemlösung im Entwicklungsprozess zu unterstützen. Es wurde untersucht, inwieweit die Verwendung von Kreativitätstechniken in einem frühen Stadium des Entwicklungsprozesses zur Verbesserung des Verständnisses über die Aufgabe, sowie der Kommunikation zwischen den beteiligten Personen geeignet ist.
Die Gebrauchstauglichkeit eines Produktes hat sich zu einem entscheidenden Qualitätskriterium in der Softwareentwicklung entwickelt. Neben den Nutzern erkennen auch immer mehr Organisationen den Mehrwert von gebrauchstauglichen Produkten, insbesondere die steigende Produktivität, die verbesserte Qualität und den damit verbunden Profit. In Praxis und Wissenschaft wird daher derzeit dem Wunsch nachgegangen, Usability Engineering und Software Engineering zu integrieren. In dieser Arbeit werden Standards der beiden Disziplinen in Bezug auf Aktivitäten und Artefakte analysiert, welche in einem ganzheitlichen Modell zur Integration von Usability Engineering und Software Engineering abgebildet werden sollen. So sollen mögliche Anknüpfungspunkte zwischen Aktivitäten und Artefakten aufgezeigt werden. Ziel ist die Evaluation dieses Modells anhand von Konformitäts- und Rahmenanforderungen, sowie durch eine Expertenbefragung.
Diese Arbeit befasst sich mit der Problematik der Zugriffe auf nachrichtenorientierte Kommunikationsdienste von mobilen Geräten. Da diese Kommunikationsdienste nicht dafür ausgelegt sind via Netzwerk zugänglich zu sein, sondern nur lokal in der gleichen virtuellen Maschine ausgeführt werden können, wird ein zusätzlicher Dienst entwickelt der diesen Zugriff möglich macht. Zusätzlich beinhaltet er die verarbeitende Komponente und fungiert somit als Schnittstelle. Es wird detailliert darauf eingegan- gen wie genau ein Lösungsansatz aussehen könnte, in Rücksichtnahme auf gewählte Softwarekomponenten. Eine Abwägung der jeweiligen Komponenten und Darstellung der Alternativen, sowie eine Diskussion des Problem- sowie Lösungsraums, gehen dem Ganzen voraus. Im Mittelpunkt der Arbeit steht die Verarbeitung der Anfragen und Weiterleitung an bestehende nachrichtenorientierte Systeme mittels Web Services, sowie ihre Darstellung. Somit wird die Funktionalität eines solchen Systems, in diesem Fall Java Message Service, genutzt um eine Kommunikation zwischen diversen Nutzern zu etablieren. Der Gedanke dabei ist, einen Nachrichtenaustausch zwischen diesen, mittels wohl definierter Schnittstellen, zu ermöglichen. Weiterhin wird die Funktion anhand einer prototypischen Implementation demonstriert und ein Ausblick gegeben in wie weit sich dieser Prototyp erweitern lässt um dem Gesamtkonzept zu genügen.
Mobile Systeme haben sich fest in den Alltag des Menschen in der westlichen Welt integriert. Sie helfen bei der Erledigung von Aufgaben der Benutzer und versuchen, deren Bedürfnisse bestmöglich zu erfüllen. Um dies zu erreichen, wurden verschiedene Lösungen entwickelt, dazu gehören kontextsensitive Anwendungen, die sich dadurch auszeichnen, dass sie ihr Verhalten nach den Belangen der Benutzer, bestimmt durch die jeweilige Situation, anpassen können. Zur Entwicklung solcher Anwendungen gibt es Rahmenwerke, um Problemen, bedingt durch die Komplexität dieses Bereiches, vorzubeugen und die Entwicklung zu erleichtern. Dabei spielt auch die Fähigkeit dieser Rahmenwerke, mehrere Anwendungen gleichzeitig zu bedienen, gerade bei steigender Popularität von kontextsensitiven Applikationen, eine entscheidende Rolle. Diese Arbeit beschäftigt sich mit der Konzeption und Umsetzung des Multiprozessbetriebes für kontextsensitive Anwendungen auf Basis eines bestehenden Rahmenwerkes. Innerhalb der Arbeit werden Anforderungen für den Multiprozessbetrieb ermittelt, auf deren Basis ein Konzept zur Erweiterung des Rahmenwerkes erstellt wird. Anhand des Konzeptes wird eine Implementierung des Rahmenwerkes auf der Android-Plattform durchgeführt, welche danach mittels der Durchführung eines Testszenarios mit mehreren Anwendungen evaluiert wird.
Das Erstellen von Textzusammenfassungen ist bei Recherchearbeiten die gängigste Praxis, um einem Text seine Kernaussage zu entnehmen. Aus einer Zusammenfassung leitet man die essenzielle Information ab, mit dem Ziel, einen Text einem Themengebiet zuzuordnen. Dem Benutzer hilft hierbei ein software-gestütztes System zur Textzusammenfassung. Texte beinhalten aus Sicht eines Computersystems eine Aneinanderreihung von Wörtern bzw. Sätzen und besitzen demnach keine feste Struktur. Aus den unstrukturierten Daten im Text müssen Wörter extrahiert werden, die den Kerninhalt eines Textes widerspiegeln. Auf Basis der extrahierten Wörter erfolgt die endgültige Zusammenfassung und anschließend die semantische Auszeichnung des Gesamttextes, was der Themengebietszuordnung entspricht. Bewährte Methoden für die Textzusammenfassung sind das statistische Verfahren und das sogenannte Signalwort-Verfahren. Grundlage dafür sind die theoretischen Arbeiten von H. P. Luhn und Edmundson. Als weitere Hilfsmittel dienen statistische Methoden aus dem Text Mining. Für die Zuordnung des Textes zu einem Themengebiet eignen sich die Semantic Web Standards des W3C. Der auf Basis dieser Theorien entwickelte Lösungsweg dient als Standardverfahren für eine software-gestützte Textzusammenfassung. Durch die definierten Standards ist die Software in der Lage, jegliche Textarten aus beliebiger Quelle einzulesen, zusammenzufassen und semantisch auszuzeichnen. Benutzer, deren Aufgabe im Unternehmen darin besteht, Recherchearbeiten zu betreiben, verwenden diese software-gestützte Textzusammenfassung. Durch diese Unterstützung spart der Benutzer bei einer Zusammenfassung von mehreren Textdaten Zeit und Aufwand, da der Vorgang durch die Software automatisch abläuft. Aus Sicht eines Unternehmens liegt das Hauptaugenmerk auf der schnellen Informationsgewinnung aus Texten, was essenziell für eine Weiterverarbeitung der Textdaten ist.
Die Diplomarbeit “Entwicklung von automatischen Installationsroutinen von Services auf Basis von JavaEE” beschreibt den Entwurf und die Entwicklung eines Prototypen, um Services automatisiert auf einem JavaEE- Applikationsserver zu installieren. Zu Beginn werden die Konzepte eines JavaEE-Applikationsservers und der manuelle Installationsvorgang von Services auf diesem erläutert, die bei dem Installationsvorgang auftretenden Probleme dargelegt und analysiert. Im Anschluss daran werden mehrere verfügbare Produkte und eine Eigenentwicklung gegenübergestellt und bewertet. Abschließend werden Problemlösungen für den Installationsprozess erläutert sowie die Implementierung eines Prototypen beschrieben.
Im Titel der vorliegenden Arbeit wird bereits herausgestellt, dass eine Architektur von der Konzeption über die prototypische Implementierung bis hin zu einer ersten Validierung betrachtet wird. Dabei soll die Architektur dienstorientiert aufgebaut sein und sich für die Realisierung von Multimediaanwendungen eignen. In dieser Arbeit wird dazu zunächst allgemein in die Thematik der Dienstorientierung eingeführt und die jeweiligen Besonderheiten im Zusammenhang mit Multimediaanwen- dungen dargelegt. Im weiteren Verlauf wird die Architektur prototypisch umgesetzt und auf Grund der Implementierung eines Anwendungsszenarios validiert.
Immer mehr Teilbereiche des Semantic Web sind in den letzten Jahren erfolgreich umgesetzt geworden. Ebenso wird bei der Bearbeitung von komplexen Problemräumen mittlerweile oft auf semantische Modelle zurückgegriffen, um eine flexible Beschreibung der Domäne zu erstellen. Werkzeuge, welche die Entwicklung von Anwendungen, die auf semantischen Modellen basieren, unterstützen, sind bislang jedoch nur in begrenztem Maße verfügbar. Insbesondere die Verarbeitung von verteilten und dynamischen Modellen ist mit keinem der derzeit verfügbaren Produkte vollständig zu realisieren. Diese Arbeit untersucht die Möglichkeiten zur Integration von semantischen Modellen in objektorientierte Programmiersprachen. Es werden bestehende Ansätze analysiert und ein formales Modell der Integration erstellt. Das formale Modell wird in Form eines prototypischen Rahmenwerks in der Programmiersprache Ruby implementiert und validiert.
Die fortschreitende Verbreitung drahtloser Kommunikationsnetze sowie immer leistungsfähigerer mobiler Computer schafft ein großes Potenzial für ein breites Spektrum innovativer Anwendungen. Kontextsensitive Applikationen adaptieren die Gegebenheiten der jeweiligen Situation des Nutzers, wodurch neuartige, intelligente Anwendungen und Benutzungsschnittstellen möglich werden. Die zunehmende Menge verfügbarer Sensortechniken und die daraus resultierende Vielfalt erfassbarer Kontextinformationen erschweren jedoch vermehrt die Verbreitung dieser Applikationen. Ein Rahmenwerk zur Kontextrepräsentation soll die Entwicklung kontextsensitiver Applikationen ohne Berücksichtigung von Details der Kontexterfassung und -verwaltung ermöglichen. Außerdem sollen Austausch und Wiederverwendbarkeit von Kontextinformationen zwischen Applikationen und Nutzern gestattet werden. In dieser Arbeit wird ein solches Rahmenwerk entwickelt. Zu Beginn steht die Untersuchung von Fragen der Kontextmodellierung, auf deren Grundlage anschließend eine Konzeption erarbeitet wird. Der praktische Teil der Arbeit führt eine Referenzimplementation des Systems durch um zu evaluieren, ob die Konzeption auf Basis aktueller Technologien in die Realität umgesetzt, und als Grundlage für weitere Untersuchungen herangezogen werden kann.
Das Semantic Web ist einer Erweiterung des aktuellen World Wide Web um eine maschinell verarbeitbare Dimension. In ihr wird es Agenten möglich sein komplexe Aktivitäten für den menschlichen Benutzer durchzuführen und automatisch relevante Informationen im Web zu finden. In dieser Arbeit werden wir die semantische Modellierung von Informationen im Bereich Internetfernsehen behandeln. Wir werden die gänginen Technologien und Methoden erläutern, sowie diese am Beispiel eines Prototypen für den studentischen Internetsender Zucker TV anwenden.
Moderne Mobiltelefone bieten heutzutage eine Vielzahl von Funktionen, die weit über die grundlegenden Sprachdienste hinausgehen. Sie können als Terminplaner oder auch als Foto- und Videokamera genutzt werden. Die Nutzung dieser Funktionen wurde durch die steigende Leistungsfähigkeit der Geräte möglich. Mit der Entwicklung von UMTS und insbesondere den Übertragungstechniken HSDPA und HSUPA erhält das „mobile Internet" mehr und mehr Einzug auf mobilen Endgeräten. Aufgrund der hohen Leistungsfähigkeit und des Vorhandenseins der nötigen Infrastruktur können auch Videostreaming-Dienste genutzt werden. Um die Qualität einer Videoübertragung sicherzustellen, ist es notwendig, eine Software zu haben, die die Rahmenbedingung der Übertragung bestimmt und so Rückschlüsse auf die entscheidenden Parameter ermöglicht. In dieser Arbeit soll eine Software entwickelt werden, mit der es möglich ist, die Qualität einer Videoübertragung zu bewerten. Um eine möglichst hohe Qualität der Videos zu ermöglichen, müssen sie zur Übertragung effizient komprimiert werden. Einer der neuesten Standards zur Komprimierung ist H.264. Dieser Standard bietet eine durchschnittlich dreimal höhere Kompressionsrate als MPEG-2, welches beispielsweise bei der Übertragung von digitalem Fernsehen (DVB) und der Speicherung von Videodaten auf einer DVD zum Einsatz kommt. H.264 ist Teil des MPEG-4 Standards, der sich im Bereich der mobilen Endgeräte schon jetzt durchgesetzt hat. Die Struktur von H.264 wird im zweiten Kapitel dargestellt, der Transport von H.264 über verschiedene Streaming-Protokolle im dritten Kapitel dieser Arbeit. Die zur Bewertung der Qualität verwendeten Parameter werden im vierten Kapitel zusammengefasst. Die zu erstellende Software soll primär für die Android Plattform entwickelt werden. Jedoch soll bei der Entwicklung auch darauf geachtet werden, dass die Software leicht in eine andere Umgebung portierbar ist. Die Android Plattform ist ein komplettes Softwarepaket für mobile Endgeräte wie Smartphones und Netbooks. Neben einem auf Linux basierenden Betriebssystem liefert Android eine Middleware für die Entwicklung und den Betrieb der Anwendungen. Im fünften Kapitel wird der grundlegende Aufbau und die Entwicklung einer Android Anwendung beschrieben. Nach der Betrachtung der Grundlagen zur H.264-Videokompression, der verwendeten Streaming-Protokolle und der Entwicklung einer Android Anwendung folgt das sechste Kapitel, welches sich mit dem Softwareentwurf und der Implementierung beschäftigt. Der plattformunabhängige Teil der Software steht hier im Fokus, während dem plattformabhängigen Teil lediglich ein kleiner Teil des Kapitels gewidmet ist. Die Qualitätssicherung der Software wird im siebten Kapitel beschrieben. Hier erfolgt eine Betrachtung des Einflusses der Software auf die Übertragung. Ebenso werden Methoden zur Überprüfung der Korrektheit erläutert. Das achte Kapitel zeigt die Auswertung der Messerergebnisse. Im neunten Kapitel wird die entworfene Software dargestellt. Es wird die Bedienung der Software erläutert, sowie die Darstellung der Messergebnisse präsentiert.
Entwicklung eines Videoanalysesystems auf Basis von Java Mobile Edition für Symbian SmartPhones
(2009)
Der Markt für mobile Telefone wächst schon seit mehreren Jahren rasant. Das "Handy" wird schon lange nicht mehr nur zum Telefonieren benutzt. Es ist zu einem nicht mehr wegzudenkenden Assistenten geworden, der immer einsatzbereit und in Reichweite ist. Das Gerät kann außer den Grundfunktionen wie Telefonieren und SMS-Verschicken als persönlicher Terminplaner, Notizbuch oder auch als Foto- oder sogar Videokamera genutzt werden. In den letzten Jahren sind Mobiltelefone auch in der Internet- und Multimediawelt vertreten. Sie besitzen mittlerweile genug Leistung, Speicher und Bildschirmfläche, um Webseiten darzustellen oder komplette Spielfilme wiederzugeben. Die sinkenden Preise für mobile Breitband-Internetzugänge (Flatrate mit 7,2 Mbit/s schon ab 35 Euro), die wachsende Anzahl der mobilen Internet-Zugänge, die sinkenden Nutzungspreise der so genannten „HotSpots“ (in Hotels, Restaurants, etc. oft kostenfrei) und die Leistungsfähigkeit der aktuellen mobilen Endgeräte, ermöglichen die Nutzung der Videostreaming-Dienste. Diese Dienste können zum Beispiel IPTV, Video on Demand oder Videotelefonie sein. Um die Qualität des über ein IP-Netzwerk gelieferten Videodatenstrom zu gewährleisten, ist es notwendig die Qualität dieses Datenstroms im realen Umfeld und unter realen Bedingungen messen zu können. Das erfordert die Entwicklung eines Messsystems, welches direkt auf einem Endgerät installierbar und vom Gerätetyp möglichst unabhängig ist. Das zu entwickelnde Programm soll den Videodatenstrom mitschneiden und auswerten können ohne die Übertragung zum Wiedergabeprogramm zu stören. Es soll der Paketverlust, der Wert des Interarrival Jitters sowie die für das jeweilige Videoformat spezifischen Informationen erfasst werden. Die Auswertung soll in vom Benutzer bestimmbaren Intervallen durchgeführt werden können. Um diese Anforderungen zu erfüllen, wird eine Anwendung in der Programmiersprache Java Mobile Edition implementiert, die wie eine Netzwerkbrücke funktionieren wird. Sie wird Java-Threads für das parallele Empfangen und Weiterleiten der Datenpakete zwischen dem Server und dem Wiedergabeprogramm sowie für das Extrahieren und Auswerten der Daten verwenden. In Kapitel 2 werden die meisten Begriffe, die in der Diplomarbeit vorkommen erläutert. Einen wichtigen Punkt stellen in diesem Kapitel die Protokolle für den Transport der multimedialen Daten. Für die Darstellung von Videodaten auf mobilen Endgeräten hat sich der MPEG-4-Standard durchgesetzt. Dessen Entwicklung hat als Ziel, Systeme mit geringen Ressourcen oder schmalen Bandbreiten bei relativ geringen Qualitätseinbußen zu unterstützen. Auch dieser Standard wird hier dargestellt. Die Wahl der Programmiersprache, deren Hauptaspekte und die zur Fertigstellung des Messsystems nötigen Komponenten werden zum Schluss dieses vorgestellt. In Kapitel 3 wird die Umsetzung des Systems beschrieben: Zuerst die Darstellung des Entwicklungssystems und der Entwicklungsumgebung (3.1), danach werden zwei Alternativen genannt, nach denen die Entwicklung des Grundgerüsts der Software möglich ist (3.2). In Abschnitt 3.3 werden die Methoden präsentiert, die den Kern des Messsystems bilden und die so genannte „Deep Inspection“ des Videodatenstroms durchführen.
Diese Arbeit beschäftigt sich mit der Realisierung eines Parsers, der mathematische Beweise aus „TeXmacs“ in eine zu erstellende XML-Struktur umwandelt. Die Struktur der XML-Datei wird durch eine ebenfalls zu entwickelnde DTD-Datei vorgegeben. TeXmacs ist ein WYSIWYG-Editor zum Beschreiben von mathematischen Texten. Die Arbeit findet im Rahmen der Forschungsgruppe Naproche statt. Langfristig soll das Ergebnis der Arbeit in Naproche eingesetzt werden, um mathematische Beweise besser auf ihre logischen Aussagen zu überprüfen. Zu klären ist also, ob die logische Abfolge des erfassten TeXmacs-Beweises richtig in eine XMLStruktur umgesetzt wurde und alle dokumentierten Voraussetzungen und Beweisschritte im XML-Dokument syntaktisch richtig sind. Die Anwender, die direkt in TeXmacs mit Beweisen arbeiten, sollen eine Rückmeldung erhalten. Bei einer fehlerhaften Rückmeldung soll auch die Stelle im Beweis gekennzeichnet werden, an der der Fehler aufgetreten ist. Dieser kann so schnellstmöglich korrigiert werden. Tritt keine Fehlermeldung auf, wird auch das als Information ausgegeben. Diese Bachelorarbeit befasst sich mit der Realisierung des ersten Teils: Aus einer von TeXmacs erzeugten SCM-Datei soll mit einem Java-Programm die Struktur des mathematischen Textes ermittelt werden; es soll also eine Trennung von mathematischen Formelanteilen (Formeln, Gleichungen/Ungleichungen, mathematische Symbole, usw.) und beschreibenden Texten durchgeführt werden. Diese Struktur wird mit den Regeln einer DTD in ein XML-Format so umgewandelt, dass das resultierende XML-Dokument von den nachfolgenden Modulen des Naproche-Projekts bearbeitet werden kann.
Software muss viele Qualitätsmerkmale erfüllen, z. B. Funktionalität, Zuverlässigkeit, Anpassbarkeit und Wartbarkeit. Wenn Menschen mit der Software arbeiten sollen, so sollte die Software zusätzlich auch „benutzerfreundlich“ sein. In der Fachsprache wird diese Eigenschaft mit Gebrauchstauglichkeit bezeichnet, die auf englisch Usability heißt. Das Charakteristische am Qualitätsmerkmal Usability ist, dass die Anforderungen für dieses Qualitätsmerkmal nicht ohne den Benutzer ermittelt und kontrolliert werden kann, weil Programmierer, Usability-Spezialisten oder der Leiter der Beschaffungsabteilung anderen Zielgruppen angehören als die betroffenen Benutzer. Für die notwendige Benutzerbeteiligung in der Softwareentwicklung gibt es Möglichkeiten wie zum Beispiel Workshops, Befragungen und Beobachtungen. Ein Usability-Laboratorium wird eingesetzt für die Benutzerbeteiligung mittels Beobachtung. Allgemein werden Beobachtungen geschätzt, weil die Benutzer im Regelfall außerstande sind, Ihre Anforderungen an ein System oder die erlebten Probleme mit einem System korrekt und präzise zu beschreiben. Die Beobachtung hilft dieses Kommunikationsproblem in der Softwareentwicklung teilweise zu umgehen. Das Usability-Laboratorium hilft mit seiner technischen Ausstattung die flüchtige Beobachtung mit größerer Präzision festzuhalten und zu analysieren. Durch den technischen Fortschritt sind inzwischen Geräte und Hilfsmittel der Labortechnik auch vor Ort beim Kunden einsetzbar, als ein so genanntes „Mobiles Usability-Laboratorium“. Usability-Laboratorien werden seit über 20 Jahren in der Wirtschaft eingesetzt. Trotz dieser langen Erfahrungszeit wird unter Praktikern wie auch unter Wissenschaftlern oft kontrovers diskutiert, wo die Stärken und Schwächen eines Usability-Laboratoriums liegen, d. h. in welche Richtung sich ein Usability-Laboratorium für die Wirtschaft weiterentwickeln kann und sollte. Die bisherige Diskussion war wenig fruchtbar, weil sie immer nur einzelne Aspekte behandelte, die in der Summe ein widersprüchliches Bild ergibt. Genau dieses Problem löst diese Ausarbeitung. Diese Ausarbeitung untersuchte inwieweit ein Usability-Laboratorium als eine wirtschaftliche und erfolgreiche Dienstleistung für Unternehmen angeboten werden kann. Die Arbeit gibt hierauf konkrete Antworten in Form von Bewertungen und Gestaltungsempfehlungen. Im Interesse einer hohen Generalisierbarkeit der Ergebnisse wurde kein spezielles Usability-Laboratorium als Ausgangspunkt verwendet. Um hier einen ganzheitlichen Beitrag zu liefern, wurde dazu ein neuartiges Untersuchungsschema entwickelt. Dieses besteht aus zwei Phasen mit unterschiedlicher Untersuchungsstruktur. In der ersten Phase wird der Gegenstand aus der Perspektive des Anbieters von Usability-Dienstleistungen untersucht. Seine Sicht ist geprägt aus den drei aufeinander aufbauenden Teilkontexte: Dienstleistung, Usability und Laboratorium. In jeder dieser drei Teilkontexte ist u. a. ein anderes Qualitätsverständnis anzutreffen, welche dann in der zweiten Phase auf ihre Vereinbarkeit untersucht wird. In der zweiten Phase wurde die für den Informatikbereich weitgehend unbekannte, aber im Bereich Dienstleistungsmarketing und Qualitätsmanagement bewährte Dienstleistungsdefinition von Hilke verwendet und diese mit zwei Themenkomplexen kombiniert, in welcher sich ein Usability-Laboratorium primär bewähren muss: Einmal in der Durchführungstauglichkeit und zum Anderem in der Kommunikationstauglichkeit. Zur Kommunikationstauglichkeit gehört besonders die Vermarktung von Usability-Dienstleistungen über ein Usability-Laboratorium. In beiden Phasen wurden viele neuartige Begriffsabgrenzungen und Überblicksdarstellungen erarbeitet, die keine akademische Übung waren, sondern zu einem wesendlichen Teil die Erkenntnisse ausmachten, weil sie bisher unbetrachtete Widersprüche offen legte. Zudem sichert dies eine verständliche Darstellung. Die umfangreiche Untersuchung kam zu teilweise überraschenden Ergebnissen. Auf Basis dieser Ergebnisse wurde ein zukunftsfähiger Laborbegriff entwickelt und ihm den Namen UOA-System gegeben für „Usability Observing and Analyzing System“. Abschließend wurden die Konsequenzen des neuen Paradigma UOA-System erläutert für die Anbieter von Usability-Dienstleistungen und für die Hersteller von Labortechnik in Form von Gestaltungsempfehlungen und Entwicklungsperspektiven.
Das für diese Masterthesis realisiertes Softwaresystem verwendet als Teilkomponente die Softwarelösung IPEE (Internet Pattern Extrakt Engine), die von M.Sc. Andreas Frey entwickelt und in der ursprünglichen Fassung dokumentiert wurde. Diese Kapitel sind aus Gründen des Copyrights, die auf der Software IPEE liegen, nicht in der veröffentlichten Fassung (der Masterthesis) enthalten. Eingeleitet wird die Arbeit mit Aspekten des Entwicklungsstandes des Semantik Web (Web3.0). Es folgt die Begriffsdefinition der Semantik und der semantisch orientierten Verarbeitung. Für die Ablage (Archivierung) und Verarbeitung von Daten für semantisch orientierte verarbeitende Systeme eignet sich die Konzeption der semistrukturierten Daten, die darauf folgend definiert und mit den anderen Konzeptionen - wie strukturiert und nicht strukturiert - in Beziehung gesetzt wird. In den folgenden Kapiteln werden die Komponenten erklärt, die für die Realisierung eines Prototypen zur semantisch orientierten Verarbeitung verantwortlich sind und hauptsächlich auf Aspekte der semantisch orientierten Verarbeitung von Verben fokussiert sind. Von Relevanz sind hierbei Komponenten zur Wort- und Phrasen-Analyse und zur automatischen Recherche von Wörtern aus dem Internet. Da diese Komponenten auf die Realisierung von Pattern-Extraktionsverfahren basieren, wurde die spezielle Softwarelösung IPEE verwendet. Des weiteren werden Komponenten für die Generierung des semantischen Graphen und die Visualisierung anhand von hyperbolischen Bäumen mit Hilfe einer Open Source Software Treebolic Browser beschrieben. Auch wird eine GUI für die Eingabe und Verarbeitung von Sätzen der deutschen Sprache und die Verwaltung eines Bedeutungswörterbuches erklärt. Abschließend erfolgt eine experimentelle Auswertung der semantisch orientierten Verarbeitung.
Diese Arbeit soll am Beispiel der Konzeption und Entwicklung eines Tippspiels mit Datenbankanbindung aufzeigen, welche Sicherheitsrisiken bei der Entwicklung einer Internetanwendung auftreten und wie Datenmissbrauch und Datenmanipulation weitgehend vermieden werden können. Dabei stehen im besonderen Maße Themen wie Session-Hijacking, SQL-Injection, Metazeichenbehandlung, Validierung und Passwortsicherheit im Vordergrund. Schwachstellen bei der Programmierung werden durch Codebeispiele veranschaulicht und Lösungen zu möglichen Sicherheitslücken aufgezeigt. Letztendlich wird immer ein Restrisiko bestehen bleiben. Das liegt zum einen an dem nicht enden wollenden Ideenreichtum der Angreifer, „Skript-Kiddies“ und Hacker, Schwachstellen in Computersystemen zu finden, aber auch an den Sicherheitslücken der eingesetzten Software und verwendeten Datenbanken und Schnittstellen – vom Betriebssystem des Servers bis hin zum Internet-Browser des Anwenders. Neue Techniken wie zum Beispiel WLAN bergen neue Gefahren und helfen Angreifern dabei, weitere Angriffsmethoden zu entwickeln und sich auf neue Art Zugang zu einem vermeintlich sicheren System zu verschaffen.
Marketing-Mix
(2006)
Der Marketing-Mix mit seinen 4Ps zur operativen Marketingplanung ist innerhalb des Marketing-Managements die nächste Stufe nach der Marktanalyse in dem die strategische Marketingplanung erarbeitet wurde. Die strategische Marketingplanung befasst sich mit der Analyse des Zielmarktes und der grundsätzlichen Zielrichtung des Unternehmens. Auf Basis der gewonnenen Erkenntnisse wird in der Phase der operativen Marketingplanung versucht, die Unternehmensaktivitäten am Zielmarkt des Unternehmens auszurichten.
Electronic Business
(2006)
”Es gibt nur einen Erfolg - nach seinen eigenen Vorstellungen leben zu können.“ (Christopher Morlay) Erfolgreiches Business beruht auf einem sehr einfachen Grundprinzip: Stellen Sie sich dem Konkurrenzkampf und seinen Sie einfach besser. Provokativ heißt das, dass jedes Unternehmen, dass an die Spitze will, mehr Produkte mit höherer Qualität, in größeren Stückzahlen, in kürzerer Zeit und mit besseren Serviceleistungen als die Konkurrenz anbieten muss. Dabei erzwingt der rasche technologische Fortschritt eine vorausschauende Taktik. Hier nimmt das Internet seit einigen Jahren eine Schlüsselposition ein. Durch das Internet ist eine Informationsgesellschaft entstanden, die von allen Unternehmen eine extrem hohe Flexibilität fordert. Diese Flexibilität muss für jeden Kunden nachvollziehbar und somit transparent sein. Es kann keine Frage mehr sein, ob eine Firma ins eBusiness einsteigt, sondern nur noch wann und wie. Wahrscheinlich bedarf es keiner besonderen Hervorhebung mehr, dass das Thema eBusiness keine reine Nebensache für Spezialisten sein darf. Vielmehr ist es so, dass sich die Unternehmen durch das eBusiness auf Ihre Kernkompetenzen konzentrieren können. Bevor man sich aber genauer mit dem Thema auseinandersetzen kann, muss man sich darüber klar sein, was eBusiness eigentlich ist - und was es nicht ist.
Die Grundlage für das Datenmodell einer Arztpraxis sind alle relevanten Daten, die zum Betrieb einer Arztpraxis notwendig sind. Aktuell werden die Daten mittels einer Praxisverwaltungssoftware (PVS) erfasst, in einem proprietären Datenformat gespeichert und im Weiteren für die Abrechnung aufbereitet. Dabei ist es seit Mai 1989 möglich, dass die Abrechnung per Diskette erstellt wird. Für die Aufbereitung der Daten wurde zuerst der Abrechnungsdatenträger (ADT) und seit dem 1. Juli 1999 ist es Pflicht die Abrechnung über den KV – Datenträger (KVDT) zu verwenden. Damals wurde kein einheitliches Datenmodell eingeführt, welches über den Abrechnungsdatenaustausch hinaus geht. Dadurch ist es nur sehr beschränkt möglich, Daten zwischen den einzelnen Systemen auszutauschen. So ist es für einen Arzt äußerst schwierig auf ein neues PVS – System umzusteigen. Um einen Eindruck über die Vielfalt und Menge der verschiedenen PVS – Systeme zu vermitteln, werden im Folgenden die Anzahl der KVDT – Zulassungen und der Labordatenträger – Zulassungen (LDT–Zulassungen) beschrieben. Zum dritten Quartal 2005 sind 2541 PVS – Systeme von der Kassenärztlichen Bundesvereinigung (KBV) für den gesamten oder Teile des KVDT zugelassen. Des Weiteren sind 742 PVS – System – Hersteller für die Datenübertragung mittels des gesamten oder Teile des Labordatenträgers zugelassen. Seit dem 1. Januar 2004 sind die Ärzte, mit wenigen Ausnahmen, gesetzlich dazu verpflichtet, die Abrechnung elektronisch durchzuführen. Deswegen haben einige Ärzte aus Kostengründen eine Individuallösung konzipiert, die ausschließlich in ihrer Arztpraxis verwendet wird. Aber auch diese Lösungen müssen von der KBV zertifiziert werden. Diese Lösungen werden zu den zugelassenen PVS – Systemen gezählt. Zum dritten Quartal 2005 sind 373 Individuallösungen zugelassen. Die in einer Arztpraxis anfallenden Daten müssen für den geregelten Praxisbetrieb vom PVS – System verwaltet, gespeichert und zum Teil auch zum Datenaustausch nach außen kommuniziert werden. Dabei werden die Daten von jedem Hersteller unterschiedlich erfasst und weiterverarbeitet. Des Weiteren ist die Repräsentation dieser Daten nicht einheitlich und beinhaltet verschiedene Arten von Daten. Diese Daten sind unter anderem Verwaltungsdaten, Abrechnungsinformationen und medizinische Informationen. Die von den Herstellern der Praxisverwaltungssoftware zu Grunde gelegten Datenmodelle sind unabhängig voneinander und nicht standardisiert. Dabei extrahiert jede Praxisverwaltungssoftware die Daten, die es für wichtig hält und repräsentiert diese in einem eigenen Format. Dadurch ergibt sich die Schwierigkeit, dass die Interoperabilität der Systeme sowohl in funktioneller als auch in semantischer Sicht eingeschränkt ist. Die Lösung dieser Probleme ist ein einheitliches Datenmodell mit entsprechender Schnittstelle, die das Ergebnis der vorliegenden Arbeit darstellt.
Mit dem Internet hat sich eine Technologie etabliert, die Veränderungen in den unterschiedlichsten Bereichen nach sich gezogen hat. Sie ist im Rahmen der Globalisierung zu sehen und ist einer der Hauptakteure bei der Entstehung der Informationsgesellschaft. International und national agierende Unternehmen besitzen einen entscheiden Marktnachteil, wenn diese Technologie nicht gewinnbringend zur Unterstützung ihrer Geschäftsprozesse und deren globaler Vernetzung eingesetzt wird. Einhergehend mit der Entwicklung des Internets sind zahllose Technologien entstanden. Wo es anfänglich nur möglich war, Informationen als feststehende Inhalte zu präsentieren, können und müssen heutige Internetpräsenzen Informationen anbieten, die Zugriff auf verteilt liegende Informationsquellen besitzen, die sich täglich ändern. So sind Web-Applikationen entstanden, die die modernsten Technologien einsetzen, um Anwendern eine Zugangsmöglichkeit auf Informationsquellen über das Internet zu bieten. In Kapitel 2 werden die Anforderungen an Web-Applikationen und deren zugrunde liegende Architektur beleuchtet. Da zahllose Programmiersprachen für die Entwicklung von Web-Applikationen verfügbar sind, wird in Kapitel 3 eine Auswahl an verfügbaren Technologien vorgestellt. Um die Programmierung von Web-Applikationen zu vereinfachen sind im Laufe der letzten Jahre Web-Frameworks entstanden, die den Entwicklungsprozess stark beschleunigen und eine Art Bausatz anbieten, um die Programmierung zu vereinfachen. Der Schwerpunkt der vorliegenden Arbeit richtet sein Augenmerk auf 2 aktuelle Web-Frameworks, die jeweils theoretisch und praxisbezogen anhand einer Beispielapplikation beleuchtet werden. In Kapitel 4 wird JavaServer Faces als erstes Web-Framework vorgestellt. Ausgehend von einer theoretischen Betrachtung wird ein Web-Shop als Beispielapplikation entwickelt und die damit in Zusammenhang stehenden Entwicklungswerkzeuge betrachtet. Auf Struts, als zweites Web-Framework, wird in Kapitel 5 eingegangen und ähnlich wie in Kapitel 4 zu JavaServer Faces wird nach theoretischer Betrachtung des Web-9 Frameworks eine Benutzerverwaltung als Beispielapplikation entwickelt, die die wesentlichsten Aspekte des Web-Frameworks zeigt. Auch hier werden Entwicklungswerkzeuge vorgestellt, die den Umgang mit Struts unterstützen. Schließlich findet in Kapitel 6 ein Vergleich zwischen JavaServer Faces und Struts statt, der mögliche Vor- und Nachteile des jeweiligen Web-Frameworks aufzeigt.
Keine Software kommt heute ohne eine ausgebaute IT–Infrastruktur, mit der Anbindung an Datenbanken, aus. Die konsequente Ausrichtung der Software, aufgrund von technologischen Entwicklungen, ist ein wichtiger Einflussfaktor auf die Softwareentwicklung. Die Software soll sich durch Innovation, Flexibilität und Dynamik auszeichnen. Diese Diplomarbeit entstand aus der Motivation heraus, hier Abhilfe zu schaffen. Mit dieser Diplomarbeit soll bewiesen werden, das es möglich ist, die zugrundeliegende Datenbasis von herkömmlicher Dateiorganisation auf relationale Datenbanksysteme umzustellen, ohne dabei die komplette Software neu zu schreiben.
Mittelständische Unternehmen erkennen zunehmend die Notwendigkeit einer systematischen Vertriebssteuerung und langfristigen Kundenbindung gerade in der heutigen gesamt- und weltwirtschaftlichen Lage, in der alle Märkte einem harten Konkurrenzdruck unterliegen. Um im aktuell vorliegenden Käufermarkt eine Kundenbindung bzw. –treue zu erlangen, ist die aktive Kundenbetreuung ein absolutes Musskriterium. Genau an diesem Punkt setzt das Customer Relationship Management (CRM) an. Der Kunde rückt zwar in den Mittelpunkt beim CRM, es darf dabei aber nicht die eigene Unternehmung vergessen werden. Der Kerngedanke einer jeden CRM-Lösung ist, die Kosten zu senken sowie den Gewinn der Unternehmung langfristig zu sichern. Um den Kerngedanken zu untermauern, bedient sich eine CRM-Lösung folgender Hilfsmittel, um am Markt eine Steigerung der Wettbewerbsfähigkeit durch eine erhöhte Kundenorientierung zu erlangen: Optimierung der internen Prozessabläufe (auf den Kunden ausgerichtet), Marktpotentialanalyse, automatisches Dokumentenmanagement, Email und CTI-Integration, Besuchplanung, Projektmanagement, verbessertes Service- und Supportangebot sowie ein Termin- und Ressourcenmanagement. Die Einführung einer CRM-Lösung in einem mittelständischen Unternehmen ist ein längerfristiges Projekt. Es reicht nicht aus, eine von den zahlreich vorhandenen CRM-Softwarelösungen zu implementieren, um eine überlebensfähige CRM-Lösung zu besitzen. Eine CRM-Software kann nur so gut sein, wie sich die Unternehmung im Vorfeld eine Strategie und Ziele an ein CRM gesetzt hat. Zusätzlich muss in der gesamten Unternehmung die Begeisterung und Akzeptanz für das CRM geschaffen und aufrecht erhalten werden, da CRM als eine eigenständige Philosophie zu verstehen ist. Nur wenn sich alle Mitarbeiter mit der CRM-Lösung identifizieren und diese aktiv leben, hat die CRM-Lösung Aussicht auf Erfolg.
Jegliches Leben auf der Erde ist auf das Vorhandensein von Wasser angewiesen. Schon seit Beginn der Menschheit war man in mancherlei Hinsicht vom Wasser abhängig: Trinkwasserbeschaffung für Mensch und Tier, Nahrungsversorgung durch Fischfang und Pflanzen, deren Wachstum erst das Wasser ermöglicht, Fortbewegung von Lasten und Menschen auf dem Wasser. Die heutige fortschreitende kulturelle und zivilisa-torische Entwicklung brachte neue Abhängigkeiten: Gewerbe und Industrie benötigen Wasser für den Produktionsablauf, der Wasserbedarf der Haushalte ist mit der weitge-henden Verdrängung manueller Tätigkeiten durch Maschinen um ein Vielfaches ge-stiegen, Volkswirtschaft und Haushalte verlangen nach elektrischer Energie, die zum Teil der Wasserkraft entstammt; schließlich kann die sprunghaft wachsende Erdbevöl-kerung vor allem in den Entwicklungsländern nur mit Hilfe der künstlichen Bewässerung in ausreichendem Maße mit pflanzlichen Produkten versorgt werden. Bevölkerungsdichte, Siedlungsstruktur und Formen der Wassernutzung beeinflussen die Wassernachfrage und stellen verschiedene Ansprüche hinsichtlich der Menge, der zeit-lichen Verteilung und der Güte des Wassers. Es ist jedoch nicht mehr selbstverständlich, dass das Wasser für die Befriedigung der Bedürfnisse der Menschen auf der Erde in ausreichender Menge und Güte zur Verfügung steht. Der heutige Wassermangel hat seine tiefere Ursache in der dauernden Fehleinschätzung der Natur. Um diese besser zu verstehen und damit dem oben erläuterten Problem entgegenzuwirken, befasst sich die physikalische Hydrologie mit dem globalen und lokalen Wasserkreislauf einschließlich der zugrundeliegenden Naturprozesse. Durch Entwicklung von Modellen wird eine Gewinnung von Detailkenntnissen angestrebt. Der Bereich der angewandten Hydrologie hingegen beschäftigt sich mit der Lösung wasserwirtschaftlicher Probleme - der Nutzung des Wassers durch den Menschen. Der Einsatz eines Geografischen Informationssystems (GIS) kann in der Hydrologie durch Visualisierung gesammelter Erfahrungswerte bereits eine Erleichterung der Ent-scheidungsfindung bei speziellen Problemstellungen bewirken. In einem GIS werden meist Funktionen vereinigt, die Methoden unterschiedlicher Systeme sind, wie z.B. Möglichkeiten statistischer Berechnungen, Bearbeitungen von Geometriedaten, Verwaltung von großen Datenbeständen, Darstellung von Karten. Weitere Aspekte eines GIS sind Geometrische Analysen, Flächenverschneidung, Möglichkeiten der Verknüpfung verschiedener Abfragen, Kombination verschiedener Datentypen und Geometrien etc. Diese Aspekte bilden die Grundlage zum Aufbau eines interaktiven räumlichen Informationssystems. Zur Abrundung eines solchen Systems sind jedoch meist weitere Auswertungen und Analysen des Datenmaterials sowie eine Modellbildung nötig, um konkrete, kompetente Entscheidungen über Eingriffe in die Natur unter Berücksichtigung ihrer Auswirkungen zu treffen.
Ziel der Diplomarbeit ist die Entwicklung einer datenbankgestützten Anwendungssoftware, deren Aufgabe es ist, das Internetportal der Stadt Hagen hinsichtlich bestimmter Grundfunktionen automatisiert zu überprüfen. Aufgrund der funktionalen Ausrichtung handelt es sich bei dem zu entwickelnden Prototypen um eine Software, die im Bereich Software-Qualitätsmanagement angesiedelt ist und dem sogenannten Black-Box-Verfahren zugeordnet werden kann.
Diese Diplomarbeit beschreibt eine Softwareentwicklung für ein datenbankgestütztes Informationssystem. Bei der Entwicklung dieses Systems wird ausschließlich frei verfügbare Software eingesetzt. Damit die Leistungsfähigkeit der eingesetzten freie Software besser beurteilt werden kann, wird in der vorliegenden Diplomarbeit beispielhaft eine Komponente einer Kursverwaltungs-Software entwickelt. Die entwickelte Komponente ist Teil des Datenbanksystems ”Kursverwaltung” der Deutschen Unfallhilfe DUH GmbH in Bochum. Diese Firma wurde ausgewählt, da dort im Rahmen einer Neukonzeption ein Datenbanksystem entstehen soll und der Einsatz freier Software favorisiert wird. Zu Beginn der Diplomarbeit wird erläutert, was der Begriff ”freie Software” bzw. ”Open-Source” beinhaltet und welchen Stellenwert diese Softwareprodukte zur Zeit besitzen. Nach diesem allgemeinen Überblick werden spezielle Softwareprodukte für die genannte Softwareentwicklung vorgestellt. Anschließend werden die vorgestellten Produkte zur Entwicklung einer Komponente des Datenbanksystems ”Kursverwaltung” eingesetzt. Schwerpunkt bilden hierbei vorallem die Entwicklung der Datenbank und die Anbindung der relationalen Datenbank an die objektorientiert entwickelte Programmlogik. Dabei wird auch auf die mögliche Generierung von Softwareteilen eingegangen, welches zur Zeit einen Trend in der allgemeinen Softwareentwicklung ausmacht. Die Diplomarbeit wird durch die Implementierung der Beispielkomponente vervollständigt und schließt mit einer Bewertung der Softwareentwicklung mit Open-Source Programmen ab.
Customer Relationship Management (CRM) ist ein seit einiger Zeit in allen Managementpublikationen heiß diskutiertes Thema. Die Philosophie des CRM stellt den Kunden in den Mittelpunkt der Unternehmensaktivitäten und -prozesse, mit dem Ziel der größtmöglichen Ausschöpfung von Kundenpotentialen und damit einhergehender Umsatzmaximierung. Voraussetzung dafür ist die umfassende Kenntnis der Kundenbedürfnisse und eine daran orientierte Kommunikation mit dem Kunden. Dies Bedingt einen optimalen Überblick über alle zu einem Kunden verfügbaren Daten1. Dieses Ziel kann nur durch das unternehmensweite Zusammenspiel aller relevanter Unternehmensbereiche und -systeme erreicht werden. Das macht die Abkehr von der rein bereichsbezogenen bzw. funktionalen Organisation im Unternehmen, hin zu einem Denken in horizontalen, also abteilungsübergreifenden Geschäftsprozessen, notwendig. Dabei ist es Aufgabe der Informationstechnik, die Prozesse mit den notwendigen Werkzeugen zu unterstützen. Neben der Unterstützung und Verbesserung der Kommunikation zwischen Kunden, Unternehmen und den an den unternehmensinternen Prozessen beteiligten, liegt dabei ein Schwerpunkt in der Ausnutzung bereits vorhandener Daten. Diese schlummern häufig in den unterschiedlichsten Systemen verschiedener Abteilungen entlang der betrieblichen Wertschöpfungskette. Es gilt, die vorhandenen Quellen zu erschließen und in die Unterstützung aller horizontal integrierten Geschäftsprozesse einzubinden.
Im Mai 2001 wurde JavaServer Faces (JSF) von Sun als Java Specification Request (JSR) 127 vorgestellt. Außer Sun sind an der Entwicklung der JSF Spezifikation unter anderem die Apache Software Foundation, BEA Systems, Borland Software Corporation, IBM, Oracle und Macromedia beteiligt. Seit Dezember 2003 steht die Referenzimplementierung (RI) von Sun als Version 1.0 Beta zur Verfügung. Obwohl die Spezifikation noch nicht ganz abgeschlossen ist und die RI bis zum Final Release noch große Änderungen erfahren wird, zeichnet sich bereits ab, dass hier ein "großer Wurf" gelungen ist. Tool-Hersteller wie auch Anwendungsentwickler bringen JSF großes Interesse entgegen; eine OpenSource-Implementierung der JavaServer Faces ist mit MyFaces1 von SourceForge auch schon zu haben. Dabei gab es JavaServer Faces eigentlich schon, bevor die Entwicklung der Spezifikation begann. Das inzwischen in der Version 2.1.7 vorliegende Framework UIX (User Interface XML) von Oracle versucht schon seit einigen Jahren, eine große Lücke zu füllen. Es ist, genau wie JSF, ein UserInterface-Framework fürs Web. Im Gegensatz zu JSF ist es jedoch schon so ausgereift, dass es in realen Projekten eingesetzt werden kann.
Virtuelle Realität ist ein interessantes Gebiet dessen Entwicklung schon seit vielen Jahren vorangetrieben wird. Die neuen Möglichkeiten die sich aufgrund technischer Fortschritte daraus ergeben, sind umwerfend und finden in vielen Bereichen Verwendung. Doch das Potential der VR ist noch viel größer. Dazu passt es auch, das im Laufe der Jahre die Computer immer mehr Einzug in das Leben der Menschen nahmen. Gab es früher noch riesige Geräte, die mit Lochkarten arbeiteten und kaum aufwendige Aufgaben bewältigen konnten, so gibt es heute erheblich schnellere und kleinere Systeme, die zudem auch noch viel leistungsfähiger sind. Von den drastisch gesunkenen Kosten mal ganz abgesehen. Folglich findet auch die breite Öffentlichkeit Zugang zu leistungsfähigen Computersystemen, wodurch bei immer mehr Menschen das Interesse an Virtual Reality geweckt wird. Es ist ein enormer Markt und die Technologie hält immer wieder Einzug in neue Bereiche und ist aus manchen gar nicht mehr hinauszudenken.
Zu entwickeln ist eine graphische Simulation von LEGO® Mindstorms™ Robotern. Die Simulation soll die Möglichkeit bieten, ein virtuelles Robotergrundmodell mit verschiedenen Sensorausstattungen so zu programmieren, wie es auch bei einem echten Modell der Fall wäre. Das real zu erwartende Verhalten dieses Roboters bei Programmausführung soll auf dem Bildschirm in Echtzeit verfolgt werden können, wobei die Bedienung des virtuellen Roboters der des realen Robotermodells nachempfunden sein soll.
Kein Club/Disco-Betrieb kommt heute mehr ohne eine mehr oder weniger gut ausgebaute IT-Infrastruktur aus. Das fängt an bei kleinen Clubs, welche über autonome Kassensysteme und ein Abrechnungssystem verfügen, und kennt nach oben hin keine Grenze. So verwalten große Clubs nicht nur Abrechnung und die Kassen, sondern verfügen auch über autonome Systeme, welche beispielsweise die Licht-, beziehungsweise Audioanlage steuern. Allen diesen Systemen ist gemein, dass sie bis auf wenige individuell programmierte Software keine Lösung für alles bieten. Mit dieser Diplomarbeit soll die Grundlage für eine Software gelegt werden, die diesen Missstand behebt.
Ziel dieser Diplomarbeit war die Neuentwicklung eines bereits bestehenden Softwareprodukts, welches in einem firmeneigenen Intranet als Backend-System zum Einsatz kommt. Es werden die Konzeptplanung, die verwendeten Technologien und die Phasen der Programmierung bis hin zur Einbindung ins System erläutert. Zur schnellen Orientierung, folgt zuerst eine kurze Kapitelübersicht.
Thema der Masterarbeit ist die Ablösung eines bestehenden kundenspezifischen IT-Systems durch moderne PC-Technologie mit dem Betriebssystem Linux. Die Software des neuen Systems sollte sich nach außen identisch mit der des abgelösten Systems verhalten. Dazu mussten die bestehenden Prozesse von der Programmiersprache PEARL für die neue Linux-Umgebung nach C++ portiert werden. Für diese und für neu geschaffene Prozesse wurde ein Applikationsframework als gemeinsame Software-Basis geschaffen. Zur Ankopplung externer, beibehaltener Systeme war ferner die Implementierung eines ISO/OSI 8073/TP4-Netzwerkprotokoll-Stacks erforderlich. Die Masterarbeit beschreibt zunächst das neu geschaffene, objektorientierte Applikationsframework. Dessen Komponenten, insbesondere die verschiedenen Klassen zur Kapselung des Linux Message Queue-Mechanismus zur Interprozesskommunikation, werden vorgestellt. Im Anschluss erfolgt die Beschreibung des ISO/OSI 8073/TP4-Protokolls, kombiniert mit allgemeinen Grundlagen für die Realisierung von gesicherten Transportprotokollen der OSI-Schicht 4. Angesprochen werden ferner die Protokolle IEEE802.2 und IEEE 802.3 der OSI-Schicht 2 für Medium Access Control (MAC) und Logical Link Control (LLC). Zur Implementierung dieser Protokolle kommen die Linux RAW Sockets als Programmierschnittstelle zum Netzwerkkarten-Zugriff zum Einsatz. Schwerpunkt der Arbeit ist die Software-Architektur zur Umsetzung des TP4-Transportprotokolls. Die nötigen Mechanismen für eine gesicherte Datenübertragung mit Sequenznummern, Acknowledges und Timern werden objektorientiert in C++ realisiert. Die Modellierung der beteiligten Klassen erfolgt mit Hilfe der Unified Modeling Language (UML).
Die vorliegende Diplomarbeit behandelt die Umsetzung der Datenbankgestützten Web-Applikation IMMOMENT, mit dem Ziel primär anhand der Softwaretechnik aufzuzeigen, in welchen Schritten IMMOMENT nach Anfertigung des Pflichtenheftes umgesetzt wurde. IMMOMENT wurde von der Firma IMMO-DATA AG (Bochum) für die Firma IMMO-CHECK GmbH (Bochum) entwickelt. Ziel war es Sachbearbeitern (z.B. einer Bank) die Möglichkeit zu verschaffen, über ein Immobilien-Objekt schnell und umfassend Informationen in Text und Bild zu bekommen.
Entwicklung einer Suchmaschine unter Verwendung von Oracle 9iAS Portal und Oracle interMedia Text
(2002)
Für effizient geführte Unternehmen ist ein schnelles Zugreifen auf eigene Informationen über Intra- und Internet ohne Frage überlebenswichtig. Viele Firmen haben mit großem Aufwand Text-Dokumente innerhalb von Datenbanken strukturiert abgelegt. Diese Dokumente sind aber oft nur ein kleiner Bruchteil der im Betrieb anfallenden Dokumente. Internet-Seiten, E-mails, Faxe und viele andere Dokumente bleiben außen vor. Teilweise sind die in Datenbanken abgelegte Dokumente auch statisch, sie werden nicht oder nur aufwendig aktualisiert. Mitarbeiter und Öffentlichkeit müssen aber raschen Zugriff auf aktuelle und für Sie abgestimmte Informationen haben. Mitarbeiter sollten die Möglichkeit haben, Dokumente zu bearbeiten und eigene Dokumente für andere Mitarbeiter zur Verfügung zu stellen. Zudem sollte die Öffentlichkeit speziell für Sie aufbereitete Informationen über das Internet erhalten können. Der Zugriff auf unterschiedliche dynamische Dokumente geschieht idealerweise über einen gemeinsamen Gateway und ist plattformunabhängig. Diese Bereitstellung dynamischer Informationen stellt für den Betrieb einen großen Kostenvorteil dar. Ein Werkzeug, das diesen Ansatz verfolgt ist Oracle Portal. Alle Dokumente eines Betriebes werden in einer Oracle-Datenbank browserbasiert verwaltet. Es wird den Mitarbeitern eine einheitliche Oberfläche zur Verfügung gestellt über die sie weltweiten Zugriff auf die Dokumente haben. Eine produktive globale Verflechtung der Informationen wird möglich.
Die Bedeutung der künstlichen Intelligenz (KI) in Computerspielen hat sich in den letzten Jahren bedeutend geändert. Es wird versucht Spielfiguren zu implementieren, die ein reales, menschenähnliches Verhalten aufweisen. Der primäre Grund ist die Erkenntnis, dass eine gute KI von Charakteren zum besseren Verkauf von Computerspielen beiträgt. Die Käufer wünschen reale Charaktere, mit denen sie sich identifizieren können. Der sekundäre Grund ist die Verbesserung der Computertechnik zugunsten einer Entlastung der CPU, die eine gute KI erst ermöglicht hat. Zurückzuführen ist dies auf die Optimierung der CPUs und des Arbeitsspeichers und vor allem aufgrund der Entwicklung leistungsstarker, moderner 3D Graphikkarten. Gerade diese erlauben mehr CPU-Rechenzeit für „Nicht-Grafiktasks“. Aufgrund des oftmals unrealistischen Charakterverhaltens in Computerspielen ist das Ziel der Diplomarbeit, die Entwicklung einer Spielfigur, im Sinne einer phänomenalen Gestalt. Die phänomenale Gestalt entsteht in dem Moment, indem ein Objekt oder ein Charakter reales Leben dermaßen echt abbildet, dass man ein „künstliches“ Bewusstsein wahrnehmen kann. Die Wahrnehmung findet statt, weil der Charakter fähig ist, sein Bewusstsein, sein Verhalten und das Verhalten anderer zu reflektieren.
Ziel dieser Diplomarbeit ist die Entwicklung eines Software-Produktes, welches in einem firmeninternen Intranet-System zum Einsatz kommt. Es werden die eingesetzten Techniken sowie die Phasen einer Software-Entwicklung und die Software-Qualitätssicherung erläutert. Zum Abschluss folgt die Vorstellung des fertigen Software-Produktes. Neben der reinen Software-Entwicklung besteht die Aufgabe darin, einen eigens dafür zur Verfügung stehenden Webserver einzurichten. Die Firma AFT (AFT Atlas Fahrzeugtechnik GmbH) ist Microsoft Certified Solution Partner und setzt für das bestehende Intranet einen IIS-Webserver und einen MS-SQL Server von Microsoft ein. Für die Diplomarbeit soll ein anderer Weg gewählt werden, um das Software-Produkt in das Intranet einzubinden. Die Wahl fällt auf das im Internet sehr weit verbreitete LAMP-System. LAMP ist eine Abkürzung und steht für Linux, Apache, MySQL und PHP. Alle vier Komponenten sind lizenzfreie Freeware-Produkte. Ein LAMP-System ist in Punkto Stabilität und Geschwindigkeit mit einem Microsoft-System vergleichbar. Die Installation und Konfiguration eines LAMP-Systems ist ebenfalls Bestandteil dieser Diplomarbeit.
Ziel dieser Diplomarbeit ist es, eine Datenbankanwendung für eine öffentliche Stiftung aufzubauen, in der Projektideen erfasst und bewertet werden können. Da bei der Stiftung caesar die Anwendung Oracle Applications eingesetzt wird, werden für die Realisierung der Datenbankanwendung Oracle-Werkzeuge verwendet. Diese werden im Kapitel 5: Entwicklungswerkzeuge und Kapitel 6: Oracle Applications beschrieben.
Die vorliegende Diplomarbeit beschäftigt sich ausführlich mit dem Thema Application- Server. Dabei wird speziell auf den Oracle Application-Server (OAS) eingegangen. Dem Leser soll die Architektur des OAS verständlich gemacht werden, sowie ein Überblick über die Einsatzmöglichkeiten gegeben werden. Für die ausführliche Darstellung der einzelnen Themen ist die vorliegende Diplomarbeit in drei Teile eingeteilt. Im ersten Teil dieser Diplomarbeit erhält der Leser eine Einführung in die grundlegenden Begriffe und Technologien, die notwendig sind, um die Funktionsweise eines Application-Server im WWW oder im Intranet verstehen zu können. Dazu werden die technologischen Grundlagen des Internet wie TCP/IP und World Wide Web behandelt. Es folgt ein Einblick in die verschiedenen Netzwerkarchitekturen. Abgeschlossen wird dieser Teil mit einem kurzen Überblick über die Komponentenmodelle CORBA und Enterprise JavaBeans. Im zweiten Teil dieser Diplomarbeit wird der Oracle Application-Server in der Version 4.0.8.1 vorgestellt. Nach einer Einführung in das Thema Application-Server wird die Architektur des OAS beschrieben. Daran anschließend werden die Middleware-Funktionen des OAS behandelt, wie Skalierbarkeit, Datenbankzugriff, Interaktionsmodelle und Sicherheitsaspekte. Zum Abschluss dieses Teils werden dem Leser anhand von Beispielen die Einsatzmöglichkeiten des OAS dargestellt, also welche Arten von Anwendungen auf dem OAS eingesetzt werden können. Im dritten Teil wird die Anwendung "OnlineTicket" beschrieben, die für diese Diplomarbeit entwickelt wurde. Diese Anwendung unterstützt den Vertrieb von Tickets für Veranstaltungen.
Bei moderner Software kommt es auf verschiedene Faktoren an. Der erste für den Anwender zunächst sichtbare Faktor ist die Bedienungsfreundlichkeit des Produktes. Der zweite wichtige Faktor ist die Verwendbarkeit des Produktes auf verschiedenen Hardwareplattformen. Dies ist vor allem für Programme wichtig, die sich an einen großen Kundenkreis richten, da man nicht davon ausgehen kann, oder sollte, dass überall das gleiche Betriebssystem eingesetzt wird. Des weiteren wird so auch ein Umstieg auf ein anderes System erleichtert. Für das Softwarehaus selber ist die Wartbarkeit des Produktes von entscheidender Bedeutung. Objektorientierte Programmierung bietet hier durch Vererbungstechniken, Datenkapselung und ähnlichem die besten Voraussetzungen. Auch der Einsatz von Entwurfsmustern, also lange bewährten Konzepten objektorientierter Entwicklung, ist hier von Vorteil. Eine Datenbankanbindung ist für fast jede kommerzielle Software notwendig. Hierbei ist es auch von Vorteil sich nicht an eine spezielle Datenbank zu binden. Ein Mittel hierzu ist es die Datenbanksprache SQL und offene Datenbanktreiber wie etwa ODBC zu benutzen. Bei vielen Programmen ist es auch von Vorteil, wenn sie von Anfang an als verteilte Systeme entworfen werden. Verteilte Systeme haben den Vorteil, dass jedes Modul an einem anderen Ort sein kann und entweder über eine ständige oder aber auch eine temporäre Internetverbindung miteinander synchronisiert werden können. In dieser Arbeit werde ich anhand eines Praxisbeispieles beschreiben, wie man all diese Faktoren in ein Softwareprodukt unterbringt, und wie die Entwicklung aussieht.
Die vorliegende Diplomarbeit beschäftigt sich mit dem Web Application Servers in der Version 3.0 von Oracle. Der Web Application Server ist ein Programmpaket für die Entwicklung und Implementation von serverseitigen Anwendungsprogrammen, die über das Internet benutzt werden können. Das entsprechende Anwendungsprogramm wird nur vom Webserver ausgeführt. Für die Ausführung einer mit Hilfe des Web Application Server erstellten Anwendung wird auf der Clientseite nur ein Internetbrowser benötigt. Der Web Application Server wurde speziell daraufhin ausgelegt, daß die mit seiner Hilfe entwickelten Anwendungen ihre Daten aus einer Datenbank beziehen können. Für den Anwendungsentwickler ermöglicht der Web Application Server also Anwendungen für das Internet zu erstellen, wobei der Entwickler auf eine breite Palette von Programmiersprachen zurückgreifen kann. Das sind z.B. Perl, C++, Java und natürlich die für Oracledatenbanken benutzte Sprache PL/SQL. Da der Web Application Server die Internettechnologie, sowie die Datenbanktechnologie berührt, werden in den ersten Abschnitten nicht nur der Nutzen dieser Plattform im Rahmen der Client/Server Architektur gezeigt, sondern auch Grundlagen des Internets und relationaler Datenbanken vorgestellt. Dieses ist notwendig, um die Abläufe von Web Application Server basierten Anwendungen zu verstehen. In den weiteren Kapiteln werden die einzelnen Bauteile des Web Application Server - Programmpaketes vorgestellt. Hierbei wird kurz auf die Installation und Konfiguration der Web Application Server Plattform eingegangen. Anschließend soll das Zusammenspiel der Web Application Server - Elemente mit Hilfe einer Beispielanwendung gezeigt werden.
Datenbanken kommen beim Einstieg von Unternehmen in das Inter- oder Intranet eine besondere Bedeutung zu, denn dort sind für den Mitarbeiter bzw. für den Kunden wichtige Informationen vorhanden: Kundenverzeichnisse, Warenwirtschafts- systeme, Rohdaten für Marketinganalysen, Produktkataloge etc. Die einheitliche Einbettung, d.h. Veröffentlichung, dieser Daten war bislang aufgrund der Heterogenität der Betriebssysteme, Datenbanksysteme und der Anwendungen, die mit ihnen arbeiten, oftmals zu aufwendig. Ziel zur Effizienzsteigerung und Wirtschaftlichkeit sollte es jedoch sein, daß alle Mitarbeiter jederzeit Zugriff auf alle Informationen haben, die sie für ihre Aufgaben benötigen, ohne ihren Arbeitsplatz verlassen zu müssen. Dank des World Wide Webs (WWW) und Java ist eine einheitliche Wahl des Betriebssystems heute nicht mehr zwingend, da WWW und Java Anwendungen ermöglichen, die auf beliebigen Rechnern lauffähig sind. Somit lassen sich Informationen im Inter- oder Intranet überall darstellen. Auf der anderen Seite des Informationskanals stehen verschiedenste Arten von Datenbankmanagementsystemen (DBMS), die die benötigten Informationen bereithalten. Dies sind vor allem Adabas, DB2, Informix, MS SQL-Server, Oracle, Sybase, sowie einige kleinere Systeme. Um die Lücke von der Informationsbereithaltung bis hin zur Informations- darstellung zu schließen, hat Sun Microsystems einen Standard definiert, der es Java-Programmen ermöglicht, über das Inter- bzw. Intranet auf relationale DBMS zugreifen zu können. Dieser Standard wird als JDBC (Java Database Connectivity) bezeichet. Hierdurch werden dem Programmierer Klassen, Interfaces und Methoden zur Verfügung gestellt, die ihm den Informationszugriff über das Netz hinweg ermöglichen sollen.
Durch die zunehmende Globalisierung der Märkte und dem damit immer härter werdenden Konkurrenzkampf ist es für ein Unternehmen absolut notwendig, die im Unternehmen vorhandenen Datenmengen optimal zu nutzen. Diese Daten ermöglichen es dem Unternehmen das laufende Geschäft besser zu durchleuchten und zu analysieren, um so die Wettbewerbsfähigkeit zu sichern.
In dieser Diplomarbeit wird die Lösung eines Standardproblems aus dem betrieblichen Umfeld behandelt. Die Aufgabenstellung ist die automatisierte Bereitstellung von Daten, die für die Produktion eines medienunabhängigen Produktkataloges notwendig sind. Ein zentraler Datenbestand soll als Quelle für Printkataloge, CD-ROM- und Internet-Präsentationen dienen.
Die Diplomarbeit entstand in Zusammenarbeit mit der Firma Pferd Rüggeberg. Die Grundlage kam von der Marketingabteilung, die eine Mutlimediadatenbank (MMDB) erstellen wollte. Die Daten der MMDB sollten zur Grundlage eines Produktkataloges auf CD-Rom, Internet und als Druckvorstufe dienen. Der erste Gedanke war die Erstellung einer völlig unabhängigen Datenbank auf der Basis von ORACLE. Da in der Firma jedoch SAP/R3 eingeführt wurde, kam nach einem Gespräch mit der EDV-Abteilung heraus, daß der Produktkatalog auf der Basis von SAP erstellt werden soll. Ziel der Arbeit ist es, mit den Möglichkeiten die durch SAP gegeben sind, einen Produktkatalog im Internet darzustellen. Die Realisation und die Werkzeuge die vorgestellt werden, befinden sich in der Version SAP 3.1 g.