Refine
Year of publication
Document Type
- Master's Thesis (323)
- Article (149)
- Bachelor Thesis (140)
- Conference Proceeding (65)
- Report (53)
- Study Thesis (47)
- Working Paper (47)
- Book (29)
- Part of a Book (27)
- Other (10)
Language
- German (583)
- English (315)
- Multiple languages (2)
- Spanish (1)
Keywords
- Rückversicherung (66)
- Reinsurance (55)
- Versicherung (52)
- Kölner Forschungsstelle Rückversicherung (47)
- Versicherungswirtschaft (44)
- Sozialarbeit (23)
- Deutschland (19)
- Germany (19)
- Soziale Arbeit (19)
- Bibliothek (17)
Faculty
- Fakultät 10 / Institut für Informatik (153)
- Fakultät 03 / Institut für Informationswissenschaft (104)
- Fakultät 04 / Institut für Versicherungswesen (78)
- Fakultät 12 / Institut für Technologie und Ressourcenmanagement in den Tropen und Subtropen (72)
- Fakultät 07 / Institut für Medien- und Phototechnik (68)
- Fakultät 04 / Schmalenbach Institut für Wirtschaftswissenschaften (53)
- Angewandte Naturwissenschaften (F11) (45)
- Fakultät 10 / Advanced Media Institute (35)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (30)
- Fakultät 07 / Institut für Nachrichtentechnik (26)
The amount of data produced and stored in multiple types of distributed data sources is growing steadily. A crucial factor that determines whether data can be analyzed efficiently is the use of adequate visualizations. Almost simultaneously with the ongoing availability of data numerous types of visualization techniques have emerged. Since ordinary business intelligence users typically lack expert visualization knowledge, the selection and creation of visualizations can be a very time- and knowledge-consuming task. To encounter these problems an architecture that aims at supporting ordinary BI users in the selection of adequate visualizations is developed in this thesis. The basic idea is to automatically provide visualization recommendations based on the concrete BI scenario and formalized visualization knowledge. Ontologies that formalize all relevant knowledge play an important role in the developed architecture and are the key to make the knowledge machine-processable.
E-Business im Generellen und E-Government im Speziellen haben in den letzten Jahren immer mehr an Bedeutung gewonnen. Die Transformation der Verwaltungsprozesse auf elektronische Medien birgt eine Vielzahl von Potentialen für alle Beteiligten: Einrichtungen der öffentlichen Verwaltung, Bürger und Unternehmen. Dennoch ist es in den letzten Jahren bei solchen Projekten, insbesondere im A2B-Bereich, also der Kommunikation zwischen Verwaltung und Unternehmen, immer wieder zu Problemen gekommen. Das Ziel der Arbeit ist es deshalb die Erfolgsfaktoren von solchen E-Government-Projekten zu identifizieren.
Hierzu werden zunächst die Grundlagen des E-Business erläutert und die Begrifflichkeiten voneinander abgegrenzt. Insbesondere werden die verschiedenen Kategorien von beteiligten Akteuren, die generischen Ziele des E-Business und dessen Einflussfaktoren genannt, um so den Bezugsrahmen des E-Business zu definieren.
Darauf aufbauend werden die Anwendungsbereiche des E-Governments erläutert und die funktionale und strukturelle Unterscheidung der möglichen Szenarien dargestellt.
Im Hauptteil der Arbeit werden anschließend anhand von Literatur-Quellen und aktuellen Studien die sechs Erfolgsfaktoren analysiert, die sich bei der Implementierung von E-Government-Lösungen in der Vergangenheit gezeigt haben. Diese reichen von technischen Faktoren wie der Kompatibilität der Systeme und der Datensicherheit über den richtigen Umgang von Veränderungen mit Hilfe des Change Managements bis hin zu den unterschiedlichen Rollen der beteiligten Akteure.
In den folgenden Abschnitten werden einige Aspekte des E-Governments genauer fokussiert: die verschiedenen Architekturen und Standards, relevante Gesetze und die deutsche E-Government-Strategie sowie der internationale Vergleich von Deutschland im E-Government-Bereich. Dabei wird geprüft, welchen Einfluss diese Aspekte auf die identifizierten Erfolgsfaktoren haben.
Bevor das Fazit die gewonnenen Erkenntnisse zusammen fasst und eine Prognose des E-Governments in Deutschland gibt, werden die beiden Verfahren ELSTER als positives und ELENA als negatives Beispiel für E-Government-Projekte im A2B-Bereich vorgestellt.
Ziel dieser Diplomarbeit ist es zu evaluieren, ob eine effiziente Implementierung von responsiven Webapplikationen zum Zeitpunkt der Erstellung der Arbeit möglich ist. Als technische Grundlage wird hierzu die HTML5-Spezifikation mit dem darin enthaltenen CSS3 und den JavaScript-Programmierschnittstellen herangezogen.
Es wird erläutert, dass unter responsivem Design die Reaktionsfähigkeit des Designs auf die Abrufumgebung, wie zum Beispiel die Größe der Anzeigefläche, zu verstehen ist und mit Hilfe welcher Techniken ein solches Design für Webapplikationen realisiert werden kann. Des Weiteren werden Möglichkeiten zur Performance-Optimierung aufgeführt, wobei festgestellt wird, dass für die Nutzung einer Webanwendung auf mobilen Geräten die Anzahl der Dateien das größte Potenzial zur Optimierung besitzt. Die Möglichkeiten der JavaScript-Programmierschnittstellen in HTML5 zur Umsetzung von Funktionalitäten für Webapplikationen, wie sie bei lokal installierten Anwendungen gebräuchlich sind, werden ebenso erläutert.
Das Fazit dieser Arbeit ist, dass ausreichend Techniken zur Erstellung von responsiven Webapplikationen in HTML5 definiert sind. Lediglich die zum Teil ausstehende Umsetzung dieser Techniken in den einzelnen Browsern verursacht Einschränkungen. Dies wirkt sich gegebenenfalls negativ auf die Effizienz des Umsetzungsprozesses aus. Ebenso kann die übermäßige Optimierung des Layouts und der Performance zu unverhältnismäßigem Aufwand führen.
Im Rahmen dieser Arbeit soll eine Java-Anwendung zum Zeichnen von Entity-Relationship-Diagrammen entwickelt und vorgestellt werden. Die Anwendung soll zur Unterstützung der Veranstaltung Datenbanken an der Fachhochschule Köln - Campus Gummersbach dienen. Der Hintergrund dazu ist die Tatsache, dass im Rahmen der Veranstaltung oftmals Entity-Relationship-Diagramme von Studenten gezeichnet werden sollen. Die Erfahrung der Lehrbeauftragten hat gezeigt, dass Studenten teilweise mit den empfohlenen Anwendungen Schwierigkeiten haben, unter anderem weil diese viel mehr Funktionen anbieten, als von den Studenten benötigt. Eine weitere Schwierigkeit ist die Tatsache, dass verschiedene Anwendungen zum Zeichnen von Entity-Relationship-Diagrammen verschiedenartige Diagramme erzeugen. Daher besteht der Bedarf einer Anwendungen, die sich einfach bedienen lässt, sich auf das Wesentliche beschränkt und einheitliche Diagramme erzeugt. Die zu entwickelnde Anwendung soll zukünftig innerhalb der Lernplattform edb von Studenten heruntergeladen werden können.
In dieser Bachelorarbeit wird das Thema Big Data und die damit verbundenen Technologien, sprich NoSQL und Hadoop behandelt. Das Thema wurde bewusst ausgewählt, weil sie zum einen aktuell und zum anderen immer mehr an Bedeutung, aus Sicht der Unternehmen gewinnt. Durch die ständig anwachsenden Daten, die zu 80% in Semistrukturierter Form vorliegen, stößt die IT-Infrastruktur eines Unternehmens schnell an seine Grenzen. Und genau an dieser Stelle sollen die Big Data Technologien, wie „NoSQL“ und „Hadoop“, helfen, die so großen Datenmengen zu verarbeiten, um für das Unternehmen, wertvolle Informationen zu liefern, die bislang nicht ersichtlich waren.
This paper gives a practical approach to the area of business ethics, in particular to Corporate Social Responsibility (CSR), via analyzing how the retail chain REWE shows its commitment to its social responsibilities as defined by the four-part model of CSR. As Fairtrade offers one way for fulfilling social responsibilities, in particular the ethical and philanthropic responsibilities of CSR, REWE’s participation in selling Fairtrade products is analyzed. This analysis is conducted by applying the criteria for receiving the Fairtrade Award to REWE which allows drawing conclusions about REWE’s commitment to Fairtrade. Information for this assessment is taken from publicly available sources as well as from personal communication with the Fairtrade organization TransFair. The paper further gives an indication about the match between REWE’s communication – as the selling of Fairtrade products is communicated via REWE’s sustainability program – and REWE’s action concerning social responsibility, expressed by its commitment to Fairtrade. Implementing a sustainability program is one way for companies to exercise CSR and thus the analysis conducted concerning REWE’s commitment to Fairtrade is an attempt to answer the question whether companies’ communication about their CSR efforts matches their actions.
Soziale Netzwerke decken ein breites Spektrum an Anwendungsfällen ab und bieten somit eine Vielzahl an Funktionen, bei denen die Teilnehmer mit ihrem sozialen Umfeld interagieren und mit anderen Informationen teilen können. Die dabei aufkommenden Informationen über die Teilnehmer müssen teilweise erfasst und gespeichert werden, um die Funktionalität und die Gebrauchstauglichkeit des sozialen Netzwerkes zu sichern und Missbrauch vorzubeugen. Dies jedoch hat den Nachteil, dass die entstandenen Daten und somit eine Reihe von Aktivitäten der Teilnehmer durch den Anbieter eines sozialen Netzwerkes beobachtet werden können. Um die Privatsphäre der Teilnehmer zu schützen oder auch um eine bessere Skalierbarkeit der sozialen Netzwerke zu erreichen, konzentrieren sich aktuelle Forschungsarbeiten auf die Dezentralisierung sozialer Netzwerke. Dies führt zu neuen Herausforderungen, da die Aufgaben der zentralen Organisationseinheit auf mehrere Komponenten ver-
teilt werden müssen. Eine dieser Aufgaben ist es, die Authentizität und Integrität der Daten für die Teilnehmer sicher zustellen. Die Vernachlässigung dieser beiden Schutzziele kann zu Missbrauch und verschiedenen Angriffen auf ein soziales Netzwerk und dessen Teilnehmer führen.
Um an diese Problemstellung heranzugehen, soll innerhalb dieser Arbeit geklärt werden, wann und welche Mechanismen für die Erfüllung der beiden Schutzziele in sozialen Netzwerken ohne zentrale Organisationseinheit geeignet sind. Hierfür werden die Angriffe zur Verletzung dieser beiden Schutzziele in soziale Netzwerken und der darunter liegenden Infrastruktur betrachtet. Des Weiteren wird geklärt, welchen Einfluss die Dezentralisierung auf die die Teilnehmerdaten hat und was die relevanten Kriterien für authentische Teilnehmerdaten sind.
In der Softwareentwicklung setzen sich vermehrt agile Methoden durch, die meist in kleineren Softwareprojekten Anwendung finden. Durch die intensive Einbeziehung des Kunden, Kommunikation innerhalb des Teams und kontinuierlichen Auslieferung soll die Softwarequalität gesteigert werden. So erhält der Kunde ein produktiv einsetzbares Softwareprodukt. Diese Bachelorarbeit gewährt einen Überblick über bekannte agile Prozesse und betrachtet im Detail den Scrum Prozess. Danach wird das Framework Oracle APEX vorgestellt und schließt mit einer Betrachtung zur Eignung der Einführung des Scrum Prozesses innerhalb APEX ab.
Das eLearning Datenbank Portal der Fachhochschule Köln unterstützt Studierende im Fach Datenbanken und Informationssysteme mit umfangreichen E-Learning-Tools (http://edb.gm.fh-koeln.de). Die Diplomarbeit „Konzeption und Realisierung eines Statistiktools auf Basis von JSP und DOJO“ beschäftigt sich mit der Entwicklung eines Statistiktools, das die Nutzung des eLearning Portals durch die Studenten auswertet und die Nutzungsdaten als Diagramme auf einer Benutzeroberfläche einfach und übersichtlich dargestellt, damit diese von Lehrenden überprüft werden können. Der theoretische Teil der Diplomarbeit ist in zwei Abschnitte aufgeteilt. Der erste Abschnitt beschreibt die Grundlagen von Java Server Pages und die JavaScript-Bibliothek Dojo Toolkit. Es werden deren Eigenschaften und praktische Anwendung ausführlich erläutert. Der zweite Abschnitt befasst sich mit der Entwicklung eines Konzepts zum Statistiktool. Es stehen die Analyse der Nutzungsdaten und der Vergleich zwischen Oracle Application Express (APEX) und Dojo zur Erstellung von Diagrammen in Vordergrund. Im praktischen Teil der Diplomarbeit wird das Konzept umgesetzt und die Implementierung des Statistiktools als JSP-Anwendung mit der Verwendung von Dojo beschrieben.
In dieser Arbeit wird auf die theoretischen Grundlagen von digitalen Filmkameras, des Dynamikumfangs und der HDR Technologie eingegangen. Im Einzelnen werden die Spezifikationen der digitalen Filmkamera RED Epic sowie des Tonemapping-Operators iCAM06 aufgeführt. In der Durchführung war es das Ziel, den erhöhten Dynamikumfang einer mit dieser Kamera aufgezeichneten Szene mit iCAM06 zu komprimieren und diesen auf einem handelsüblichen Monitor darzustellen. In der Auswertung werden Bildergebnisse für unterschiedliche Übergabeparameter demonstriert und dokumentiert.
This study paper introduces different tools, i.e. analytical methods and visualizations, in business intelligence environments. It especially emphasizes the use of OLAP-based technologies as a tradtional kind of data analysis in contrast to as graph analysis and formal concept analysis as rather new approaches in the area of visual analytics.
Es wurde ein Vergleich zwischen einer nativen Android-Anwendung und einer Titanium-Anwendung durchgeführt, anhand einen mobilen SQL-Trainers. Die mit Eclipse nativ entwickelte Android-Anwendung und die Titanium-Anwendung (Android und iOS) sind, zumindest mit unserem beispielhaften Funktionsumfang, fast gleichwertig. Die Entwicklung für BlackBerry und Tizen konnte auf Grund der noch nicht ausgereiften Entwicklungsart für diese Plattformen kaum getestet werden, allerdings wird der größere App-Markt mit iOS und Android unterstützt. Die noch nicht ausgereifte Entwicklungsweise für das Tizen-Betriebssystem kann vernachlässigt werden, wenn bedacht wird, dass auf dem Tizen-Betriebssystem native Android-Anwendungen ausgeführt werden können. Außerdem wird Tizen noch auf keinem Smartphone eingesetzt. Die Vorbereitung auf die Erstentwicklung ist durch die noch etwas weniger ausgereifte, aber dennoch sehr professionelle Entwicklungsumgebung beim Titanium SDK etwas zeitaufwändiger als bei der Eclipse-Entwicklungsumgebung. Natürlich sind die nativen und vom Betriebssystemhersteller herausgegebenen Entwicklungsformen der Vorreiter für das Titanium SDK und deshalb auch die sicherere Entwicklungsform, wenn es beispielsweise um Kompatibilität und Hardwarezugriff geht. Das Titanium SDK übersetzt den entwickelten JavaScript-Code in nativen Code der jeweiligen Plattformen mit den jeweiligen Plattform-Elementen. Die angepriesene Zeitersparnis von zwanzig Prozent bei der Entwicklung kann nicht bestätigt werden. Die Entwicklung der Benutzeroberfläche ist aufwändiger als bei der nativen Entwicklungsweise.
Diese Bachelorarbeit zeigt auf, welche Probleme bei der Verwendung der Videofunktion von digitalen Consumer-Kameras wie Digitalkameras mit Videofunktion, Mobiltelefonen oder Camcordern entstehen können. Auf der Basis dieser Arbeit wird die Firma Image Engineering ein Testverfahren zur Videoanalyse entwickeln.
Bewegung als Musikinstrument - Entwicklung eines Prototypen auf Basis von Kinect und Pure Data
(2012)
Es wurden Möglichkeiten der Bewegungsanalyse durch Gamecontroller untersucht und dazu passende Audioerzeuger erstellt. Dazu wurden vier Prototypen erstellt, die auf verschiedenen Analysetechniken basieren. Dazu zählt die Analyse per Webcam, der Sony Playstation Move Controller, und die Microsoft Kinect. Dann habe ich einen Ansatz auf Basis der Kinect weiter-entwickelt. Die Eingabedaten der Kinect wurden über Open Sound Control zu Pure-Data über- ragen. In Pure-Data habe ich ein Instrument erstellt, das durch die geschickte Kombination von Oszillatoren und Filtern einen individuellen und interessanten Klang erzeugt. Dazu wurde ein entsprechendes Kontrollkonzept umgesetzt, welches sich an dem eines Saiteninstrumentes orientiert, dieses Konzept jedoch von der Bewegung der Finger und Hände auf größere Bewe- gungen des ganzen Körpers überträgt. Es wurden Schnittstellen erstellt und diskutiert, mit denen das System via MIDI und Open Sound Control auch an andere Audioerzeuger angeschlossen werden kann. Während der ganzen Entwicklung wurde darauf geachtet, Open-Source-Software zu bevorzugen. Am Ende steht ein elaboriertes System, welches abgesehen von der Hardware völlig frei verfügbar und quelloffen ist.
Die Wohlfahrtsverbände der beiden großen Kirchen in Deutschland spielen in der Sozialwirtschaft aufgrund ihrer Größe und engen Verflechtung eine übergeordnete Rolle. Nicht zuletzt deswegen zählen sie in den allermeisten Sozialberufen zu den größten Arbeitgebern. Aufgrund ihrer verfassungsrechtlichen Sonderstellung dürfen sie bei der Personalauswahl - im Gegensatz zu konfessionell ungebundenen Arbeitgebern - Menschen ohne die "passende" Konfession vom Bewerbungs- und Einstellungsverfahren ausschließen. Hiervon machen Einrichtungen der Caritas und Diakonie häufig bereits in ihren Stellenausschreibungen Gebrauch. Für die vorliegende Arbeit wurden insgesamt 685 Stellenausschreibungen von katholisch getragenen Einrichtungen analysiert. Bei der Auswertung wird insbesondere in den Blick genommen, in welchen Arbeitsfeldern und bei welchen Stellenarten die "erlaubte Diskriminierung" besonders häufig festzustellen ist. Die Arbeit zeigt auf, dass große arbeitsfeldspezifische Unterschiede auftreten, insgesamt jedoch kaum einheitliche Standards festzustellen sind. Mit Blick auf den befürchteten Fachkräftemangel in einigen Sozialberufen wird die Frage diskutiert, ob es aus Sicht der Kirchen noch sinnvoll ist, zahlreiche qualifizierte Menschen aufgrund der fehlenden Konfessionszugehörigkeit vom Bewerbungs- und Einstellungsverfahren auszuschließen.
Entwicklung und Gestaltung neuer Multimedia-Formate am Beispiel des Projekts "Bluthochdruckvorsorge"
(2012)
Die vorliegende Bachelorarbeit beschäftigt sich mit der Gestaltung und Entwicklung der multimedialen Anwendungen für das Projekt „Bluthochdruckvorsorge“, das am Institut für Photo- und Medientechnik durchgeführt wurde. Nach der Analyse der didaktischen und technischen Voraussetzungen für die Entwicklung bestimmter multimedialer Formate für die Gesundheitsprävention wurden vergleichbare Anwendungen analysiert und bewertet. Anschließend wurde die webbasierte Anwendung „Bluthochdruckvorsorge„ vorgestellt und deren Konzeption und Realisierung erläutert.
Der immer weiter steigende Bedarf an qualitativ hochwertigen, grafischen Inhal- ten in Computerspielen sorgt dafür, dass neue Wege gefunden werden müssen, um diese mit verfügbaren Ressourcen produzieren zu können. Hier hat sich in einigen Bereichen die Verwendung von prozeduralen Techniken zur computergestützten Ge- nerierung von benötigten Modellen bereits bewährt. Ein Bereich, der aufgrund seiner Komplexität besonders interessant für den Einsatz von prozeduralen Methoden ist und im Bereich der Computerspieleindustrie noch am Anfang steht, ist die Simulation und Erzeugung von virtuellen Städten oder anderen urbanen Strukturen. Ziel dieser Arbeit ist es, ein Systemkonzept zu präsentieren, das auf Grundlage eines erweiterbaren Bedürfnissystems von Personen ein virtuelles Wegenetz erzeugt, das als Folge der Interaktionen der Personen mit der simulierten Welt entsteht. Es soll gezeigt werden, dass einzelne Agenten ohne ein globales Wissen oder eine vorhandene Planungsinstanz nach dem Beispiel von sozialen, staatenbildenen Insekten nur mit- hilfe einer Kommunikation auf Pheromonbasis zu in Computerspielen einsetzbaren Simulationsergebnissen kommen.
A level graph G = (V,E,λ) is a graph with a mapping λ : V → {1,...,k}, k ≥ 1, that partitions the vertex set V as V = V1 ∪...∪ Vk, Vj = λ-1(j), Vi ∩ Vj = ∅ for i ≠ j, such that λ(v) = λ(u) + 1 for each edge (u, v) ∈ E. Thus a level planar graph can be drawn with the vertices of every Vj, 1 ≤ j ≤ k, placed on a horizontal line, representing the level lj , and without crossings of edges, which can be drawn as straight line segments between the levels. Healy, Kuusik and Leipert gave a complete characterization of minimal forbidden subgraphs for level planar graphs (MLNP patterns) for hierarchies [4]. Minimal in terms of deleting an ar- bitrary edge leads to level planarity. A radial graph partitions the vertex set on radii, which can be pictured as concentric circles, instead of levels, lj = (j cos(α), j sin(α)), α ∈ [0,2π), mapped around a shared center, where j, 1 ≤ j ≤ k indicates the concentric circles’ radius. Comparing embeddings of radial graphs with that of level graphs we gain a further possibility to place an edge and eventually avoid edge crossings which we wish to prevent for planarity reasons. This offers a new set of minimal radial non planar subgraphs (MRNP patterns). Some of the MLNP pat- terns can be adopted as MRNP patterns while some turn out to be radial planar. But based on the radial planar MLNP patterns and the use of augmentation we can build additional MRNP patterns that did not occur in the level case. Furthermore we point out a new upper bound for the number of edges of radial planar graphs. It depends on the subgraphs in- duced between two radii. Because of the MRNP patterns these subgraphs can either consist of a forest or a cycle with several branches. Applying the bound we are able to characterize extremal radial planar graphs. Keywords: radial graphs, minimal non-planarity, extremal radial planar
This market research paper has been prepared under the supervision of Prof. Dr. Wolfgang Veit of Cologne University of Applied Sciences and Prof. Dr. Carol Scovotti of University of Wisconsin-Whitewater in the course of the inter-university cross-border collaboration student research project “Export Opportunity Surveys (EOS)”. This study explores walnuts export opportunities to the German and US markets.
Im Rahmen dieser Bachelorarbeit wurde der von Debevec und Malik verwendete Algorithmus zur Erstellung von HDR-Bildern als Plugin für die Bildverarbeitungssoftware ImageJ implementiert. Darüber hinaus wurde die Implementierung durch Tests auf ihre Funktionalität überprüft und Schwachstellen des Algorithmus erläutert. Durch Modifizierungen des erstellten Plugins wurden einige Schwächen des Algorithmus verbessert.
For audio signals, we use the sign of the coefficients of the redundant discrete wavelet transform to generate primary hash vectors assigning bit 1 to positive or zero coefficients and bit 0 in the negative case. Discarding the highest frequency band and using a 6 step transform we get for each sample a 6 bit primary hash value which we may save as an integer. We then select a possible primary hash value (in our experiments we chose 0 or 63) and take the time indices where this primary hash value occurs as the secondary hash vector which is attributed to the whole audio signal. Comparing two audio signals, the number of elements in the intersection of the corresponding time indices are called "number of matches", a high number may indicate a similarity between the files. This secondary hash vector turns out to be robust against addition of noise, GSM-, G.726-, MP3 coding and packet loss. It may therefore be useful to detect spam telephone calls without analyzing the semantic content by the similarity of the corresponding signals. An algorithm is given to detect similar but shifted signals. Results of experiments are reported using a test corpus of 5 000 audio files of regular calls and 200 audio files of different versions of 20 original spam recordings augmented by a set of 45 files of different versions of 9 "special spam" signals.
Diese Arbeit beschreibt einen optischen Aufbau zur Herstellung von Holografisch-Optischen Elementen. Der Aufbau nutzt dabei einen räumlichen Lichtmodulator, um die Phasenverteilung eines ebenen Wellenfelds gezielt zu manipulieren. Das Wellenfeld wird mithilfe eines 4f-Aufbaus einer optischen Filterung unterzogen und anschließend mit einer Referenzwelle überlagert. Die Inten- sitätsverteilung des Interferenzmusters, das bei dieser Überla- gerung entsteht, wird in ein Fotopolymer belichtet. Die Belich- tung regt dabei Polymerisationsprozesse im Fotopolymer an, die zu einer räumlichen Modulation des Brechungsindex führen. So- mit kann eine definierte räumliche Phasenverteilung in das Foto- polymer geschrieben werden, welches als Holografisch-Optisches Element bezeichnet wird. Aufgrund der geringen Dauer des ge- samten Prozesses wird dieser als Rapid Prototyping bezeichnet.
This market research paper has been prepared under the supervision of Prof. Dr. Wolfgang Veit of Cologne University of Applied Sciences and Prof. Dr. Carol Scovotti of University of Wisconsin-Whitewater in the course of the inter-university cross-border collaboration student research project “Export Opportunity Surveys (EOS)”. This study explores vanilla export opportunities to the German and US markets.
Diese Arbeit behandelt die physikalisch plausible Bildsynthese virtueller Szenen anhand strahlungsphysikalischer Größen sowie physikalisch plausibler Beleuchtungsmodelle in Kombination mit qualitativ hochwertigem Schattenwurf. Verschiedene Modelle und Verfahren werden untersucht und in einer Echtzeitumgebung implementiert.
Diese Bachelorarbeit erläutert das Vorgehen bei der Erstellung einer Applikation für mobile Endgeräte, die einen dialogorientierten 3D-Charakter darstellt, der auf die Eingaben des Benutzers reagiert. Erläutert wird hierbei auch die historische Entwicklung der Mensch-Maschinen-Kommunikation. Darauf folgt ein Überblick über die, im Bereich der mobilen Endgeräte verfügbare, Hard- und Software sowie deren Architektur. Weitere Teile befassen sich mit den in der Applikation genutzten, selbst erstellten Methoden zur Textanalyse und Antwortgenerierung, sowie der Kombination aller Komponenten zu einem Endprodukt.
Diese Masterarbeit beschäftigt sich mit der Visualisierung von Leistungs- und sportmedizinischen Daten aus Athletenakten. Nach einer kurzen Einleitung wird zunächst die Aufgabe beschrieben. Hier wird auf die Anforderungen an die zu entwickelnde Komponente eingegangen. Anschließend werden die vorhandenen Leistungs- und sportmedizinischen Daten beschrieben. Dabei wird zunächst die Tabellenstruktur der zugrundeliegenden Datenbank inklusive der XML-Spalten beschrieben.Weiterhin werden die XML-Dateien aufgeführt, in denen die Athletendaten gespeichert werden. Im folgenden Kapitel werden grundlegende Visualisierungstechniken vorgestellt und am Avatar angewendet. Neben den Techniken werden anschließend verschiedene Visualisierungstechnologien beschrieben und eine begründete Auswahl getroffen. Das nächste Kapitel beschreibt neben der Visualisierungstechnologie weitere, verwendete Technologien wie Programmiersprache und Serverarchitektur. Eine Vorstellung der entwickelten Komponenten sowie ein Ausblick und Fazit runden in den letzten beiden Kapiteln die Arbeit ab.
Informationen beim Eintreten eines Ereignis zu übermitteln, ist die Aufgabe ereignisorienterter Systeme. Für die Entwicklung solcher Systeme, gibt es eine Reihe von Technologien und Standards, welche je nach Plattform oder Anwendungskontext verschiedene Vorteile besitzen. Innerhalb dieser Seminararbeit werden die webbarsierten Systeme betrachtet, in dem auf die Konzepte von Light und Fat Ping, Publish-Subscribe sowie zentrale und dezentrale Architekturen eingegangen wird. Des Weiteren werden die Technologien XMPP, Googles C2DM, Amazon SNS und SQS, Twitter und Apples Push Notification beschrieben. Abschließend werden aus diesen Betrachtungen Merkmalsdimensionen abgleitet, die dabei helfen sollen, geeignete Lösungen in einem Anwendungskontext auszuwählen. Zusätzlich können diese bei der Konzeption von Systemen als Hilfestellung herangezogen werden.
Aufgrund der steigenden Nutzung mobiler Geräte und der Vielzahl persönlicher bzw. geschäftlicher Daten, die auf mobilen Geräte gespeichert und verarbeitet werden, sind mobile Geräte zu einem attraktiven Angriffsziel geworden. Ungeachtet des Schutzbedarfs hat sich die Sicherheitssoftware, wie man sie von stationären Systemen her kennt, auf mobilen Geräten bisher nicht durchsetzen können. Sicherheitsansätze stationärer Systeme können mobile Geräte zwar vor Bedrohungen schützen, jedoch sind diese Ansätze zu ressourcenintensiv für mobile Geräte, deren Rechenleistung und Akkukapazität relativ begrenzt ist. Um den Schutzbedarf mobiler Geräte und deren Anwendungen unter Berücksichtigung der begrenzten Ressourcen zu erfüllen, wird in dieser Arbeit ein Architekturmodell konzipiert, das Anwendungen, abhängig von Bedrohungen, Sicherheitsmaßnahmen bereitstellt. Anders als beim Sicherheitsansatz stationärer Systeme werden nur die Sicherheitsmaßnahmen umgesetzt, die aufgrund der aktuellen Bedrohungen notwendig sind. Ermöglicht wird die adaptive Bereitstellung von Sicherheitsmaßnahmen durch einen in dieser Arbeit vorgestellten Ansatz, der die Ermittlung von Bedrohungen und geeigneter Maßnahmen aus Kontextinformationen und Erfahrungswerten zulässt. Zuletzt wird die Realisierbarkeit des Architekturmodells anhand einer prototypischen Implementierung nachgewiesen.
PubMed stellt mit 21 Mio. Aufsatzzitaten eines der umfangreichsten Informationssysteme in Bereich der Medizin. Durch die Verwendung einer einheitlichen Terminologie (Medical Subject Heading - MeSH) bei der Indizierung von PubMed Inhalten kann die Orientierung in solch großen Datenbeständen optimiert werden. Zwar bietet ein kontrolliertes Vokabular bei der Informationsbeschaffung zahlreiche Vorteile gegenüber einer Freitextsuche doch fällt Nutzern das Abbilden eines Informationsbedarfs auf die verwendete Terminologie oftmals schwer. In dieser Arbeit wird eine Systemunterstützung geschaffen, die den Abbildungsprozess automatisiert indem eine automatische Verschlagwortung textbasierter Inhalte unter Verwendung eines kontrollierten Vokabulars vorgenommen wird. Durch die Verwendung einer einheitliche Terminologie kann so eine konsistente Integration von PubMed Inhalten erreicht werden.
Immer kürzer werdende Technologielebenszyklen, sich schnell ändernde gesetzliche Anforderungen und der ständig wachsende Wettbewerb führen dazu, dass Unternehmen dem Zwang unterliegen sich schnell auf diese veränderten äußeren Bedingungen anzupassen. Die Optimierung der eigenen Geschäftsprozesse ist diesbezüglich eine wesentliche Aufgabe, da diese so gestaltet werden müssen, dass Anpassungen möglichst schnell und minimal invasiv erfolgen können. Eine Optimierungsmöglichkeit ist Geschäftsprozesse mit Hilfe von Prozessbeschreibungssprachen wie BPEL (Business Process Execution Language) oder BPMN (Business Process Modelling Notation) automatisiert ablauffähig zu machen. Diese Automatisierung trägt zum einen dazu bei, dass Fach- und IT-Abteilung über das Gleiche nämlich über Geschäftsprozesse reden. Zum anderen hilft die Automatisierung dabei, klassische Probleme wie beispielweise Medienbrüche zu vermeiden. Eine Vollautomatisierung ist dabei jedoch meist nicht möglich und auch nicht sinnvoll, da es in Geschäftsprozessen Entscheidungen beziehungsweise Aufgaben gibt, welche das Eingreifen eines menschlichen Akteurs erfordern. Diesen Sachverhalt haben auch die Plattform-Hersteller erkannt und Möglichkeiten bereitgestellt, welche die Integration menschlicher Interaktion in einen automatisiert ablaufenden Prozess ermöglichen. Die Integration mit Hilfe so genannter Tasks, welche von einer Task-Engine erzeugt und Akteuren oder Gruppen von Akteuren zugeordnet werden. Diese Tasks können über eine Tasklist-oder Inbox-Applikation durch entsprechend berechtigte Benutzer bearbeitet werden. Solche Applikationen werden in der Regel von den Plattformherstellern zur Verfügung gestellt (z.B. Oracle Worklist Application oder Activiti Explorer), oder können über ein mitgeliefertes API (Application Programming Interface) individuell programmiert werden. Die APIs sind allerdings häufig proprietär und unterscheiden sich von Hersteller zu Hersteller. Für die Anwenderunternehmen heißt dies, dass entweder die mitgelieferte Anwendung verwendet oder eine eigene erstellt werden muss. Die erste Variante bringt das Problem mit sich, dass die mitgelieferten Anwendungen meist nicht ins Corporate Design passen und sich nicht ohne weiteres in bestehende Unternehmensportale, oder ähnliches einfügen lassen. Die zweite Variante ist aufwendig, da in der Regel nicht zu unterschätzende zeitliche und damit auch monetäre Aufwände anfallen. Zudem machen sich Anwenderunternehmen abhängig vom Hersteller der Workflow-Engine, weil ein Wechsel der verwendeten Plattform auch die Re-Implementierung der Inbox-Anwendung bedeutet. Zusammenfassend betrachtet bestehen im Bereich der menschlichen Interaktion also Probleme in den Bereichen Portabilität und Interoperabilität. Zudem entsteht eine enge Kopplung zwischen Task-Engine und den Inbox-Applikationen. Im Bereich der menschlichen Interaktion liegt bei der OASIS (Organization for the Advancement of Structured Information Standards) seit einigen Jahren die WS-HT Spezifikation vor, welche eine standardisierte Integration menschlicher Interaktion in Service-orientierten Architekturen gewährleisten soll. Hierüber könnten die angesprochenen Probleme beseitigt werden. Problem dabei ist, dass die WS-HT Spezifikation von aktuellen Task-Engine Implementierungen nicht berücksichtigt wird. Um dennoch die bestehenden Probleme adressieren zu können, soll ein Adapterframework, basierend auf den Vorgaben der WS-HT Spezifikation definiert werden, konzipiert und implementiert werden, das die Funktionalitäten verschiedener Task-Engines über eine standardisierte Schnittstelle anbietet. Mit Hilfe diese Frameworks soll die enge Kopplung zwischen einer spezifischen Task-Engine und den Inbox-Applikationen aufgehoben werden.
Schulleistungsstudien wie PISA und IGLU haben wiederholt belegt, dass Jungen im Bereich der Leseleistungen schlechtere Resultate erzielen als Mädchen. Sowohl die Lesekompetenz als auch die Lesemotivation der Jungen ist deutlich schwächer ausgeprägt. Die Wissenschaft identifiziert als mögliche Ursachen hierfür einerseits die Besonderheiten der männlichen Hirnstruktur und andererseits die Feminisierung der Erziehung. Auch in der intensiven Nutzung von Bildschirmmedien sowie der Gestaltung des schulischen Deutschunterrichtes scheinen Ursachen der geringeren Lesefähigkeit und -motivation der Jungen zu liegen. Die individuellen und auch gesellschaftlichen Konsequenzen sind weitreichend, denn Lesen ist als elementare Schlüsselqualifikation die Basis für Medien- und Informationskompetenz und somit eine wesentliche Voraussetzung für die mündige Teilnahme am gesellschaftlichen Leben. Da Leseförderung eine Kernaufgabe der öffentlichen Bibliotheken ist, sind auch sie mit dieser Problematik konfrontiert. Um mit ihren Angeboten auch Jungen zu erreichen, müssen sie deren geschlechtsspezifische Interessen, Bedürfnisse und Lesehaltungen berücksichtigen. Veranstaltungsarbeit und Medienbestand müssen daran ausgerichtet sein und kontinuierlich fortgeführt bzw. aufgebaut werden. Die Beteiligung männlicher Erwachsener als lesende Vorbilder ist ebenso wichtig wie die Integration anderer Medien, insbesondere Computer und Internet. Es gibt in Deutschland bereits einige gute Ansätze und Konzepte der Jungenleseförderung, jedoch fehlt bei der Veranstaltungsarbeit meist die Kontinuität. Spektakuläre Lese-Events versprechen leider nur einen kurzfristigen Erfolg, wenn sie nur einmal im Jahr stattfinden. Dabei müssen Veranstaltungen nicht unbedingt aufwändig und teuer sein, um nachhaltig zu wirken. Ein Blick ins Ausland zeigt, dass es auch einfache Konzepte gibt, die bei Jungen das Interesse an Büchern wecken. In den USA und in Großbritannien existieren einige vorbildliche Initiativen der Jungenleseförderung, die von deutschen öffentlichen Bibliotheken adaptiert werden könnten.
Der Smartphone-Markt gehört zu einem der am stärksten wachsenden Märkte der heutigen Zeit. Zudem erfreuen sich Anwendungen mit soziotechnischen Aspekten wie YouTube und Facebook immer größer werdender Beliebtheit. Genau hier siedelt Your-Sights an. Dabei wurde im Rahmen eines Projekts eine Software für das Smartphone-Betriebssystem Android konzipiert und entwickelt, welche in der Lage ist Touren, bzw. eine Menge von Wegpunkten zu erstellen, wiederzugeben und zu verwalten. Neben obligatorischen GPS-Koordinaten können für jeden Wegpunkt textuelle und visuelle Informationen, in Form von Bildern, erfasst werden. Für die kartografische Darstellung wird auf das OpenStreetMap-Projekt zurückgegriffen. Im Rahmen dieser Bachelor-Thesis wird das Projekt fortgesetzt und auf die Konzeptio-nierung und Entwicklung einer Middleware eingegangen, welche eine Brücke zwischen den Anwendern und einer Datenbank bildet. Letztere dient nicht nur dem Austausch von Touren, sondern ermöglicht auch eine Kommunikation unter den Anwendern. Dabei wurde Wert auf die Evaluation einer adäquaten Kommunikationstechnologie für den Datenaustausch zwischen dem Anwender und der Middleware gelegt. Schließlich erfolgte der Einsatz des Java NIO-Frameworks Netty und die Entwicklung eines Kommunikationsprotokolls. Darüber hinaus wird auf notwendige Änderungen und Erweiterungen der Android-Applikation, als auch eine prototypische Entwicklung des Servers eingegangen.
Wie nutzen die Kunden die Bibliothek? : Online-Kundenbefragung der Universitätsbibliothek Bochum
(2011)
Die Universitätsbibliothek Bochum (UB) hat in Zusammenarbeit mit der Fachhochschule Köln / Fakultät für Informations- und Kommunikationswissenschaften in der Zeit vom 20. Januar bis 11. März 2011 eine Online-Befragung aller Studierenden durchgeführt. Ziel der Befragung war, Erkenntnisse darüber zu gewinnen, wie die Bibliothekskunden die Lehr- und Lernplätze schon heute nutzen und in Zukunft gerne nutzen würden. Weitere Schwerpunkte waren die für die Nutzung des Lernortes Bibliothek bevor-zugten Zeiten und welche Wünsche hinsichtlich einer optimalen gewünschten räumlichen Lern- und Arbeitsumgebung bei den Kunden bestehen. Aspekte der Mediennutzung in gedruckter oder elektronischer Form sowie das Kursangebot der Bibliothek zur Informationskompetenz standen ebenso im Fokus des Interesses. Dabei stand die Frage im Vordergrund: Was wünschen die Kunden sich für die Zukunft und welche Hinweise auf strategische Handlungsfelder und Prioritäten können daraus gewonnen werden.
Untersuchungsgegenstand des Berichtes ist die Leistungsmessung in Forschungsbibliotheken am Beispiel der Fraunhofer Gesellschaft und damit eine sehr komplexe Fragestellung, die sich mit den Besonderheiten dieses bibliothekarischen Arbeitsfeldes und seiner Evaluation auseinander setzt. Während es zahlreiche Ansätze in Deutschland und auch international für die Leistungsmessung in öffentlichen und wissenschaftlichen Bibliotheken – hier meist im Sinne von Universitätsbibliotheken verstanden – gibt, ist die Sonderstellung von Forschungsbibliotheken weniger gut untersucht. Alle großen Wissenschaftsorganisationen in Deutschland besitzen unterschiedlich strukturierte Forschungsbibliotheken. Ihre Aufgabe ist es, die Forscher auf dem Weg zur Spitzenforschung in adäquater Weise zu unterstützen und zu begleiten, um so optimale Rahmenbedingungen für die „exzellente“ wissenschaftliche Arbeit zu schaffen. Dabei hat sich jedoch das Umfeld der Bibliotheken in den letzten Jahren dramatisch gewandelt. Neue Publikationswege der Verlagsbranche, sich änderndes Mediennutzungsverhalten der Kunden durch das Internet sowie eine stärker globalisierte und vernetzte Zusammenarbeit der Forscher (e-Science) stellen Bibliotheken vor neue Aufgaben und Herausforderungen. Neue Produkte und Dienstleistungen entstehen, deren Erfolg und / oder Wirkung gemessen werden sollen. Diesem Forschungsprojekt vorausgegangen ist ein umfassendes Kooperationsprojekt mit der Fraunhofer-Gesellschaft im WS 2008/9 und SS 2009 mit dem Titel „Die Forschungsbibliothek der Zukunft“. Zentrale Fragestellung des Berichtes ist die Entwicklung einer zukunftsweisenden Leistungsmessung in den Bibliotheken der Fraunhofer-Forschungsinstitute. Neben allgemeinen Kennzahlen geht es auch darum, welche Besonderheiten zu berücksichtigen sind und wo sich auch die Grenzen der Messbarkeit zeigen. Entwickelt wird ein Vorschlag, mit dem sowohl kleine, als auch große Bibliotheken ihren Beitrag zur Gesamtleistungsdarstellung des Bibliotheksbereichs liefern können, so dass ein abgestuftes Modell verschiedener Methoden in Form einer „Toolbox“ entsteht.
Die vorliegende Diplomarbeit beschäftigt sich mit einer Bildqualitätsanalyse der Stellen, an denen Qualitätsentscheidungen getroffen werden sowie der anschließenden Analyse dieser Bildstellen. Zunächst werden sechs verschiedene Fotografien mit den Optimierungsparametern Helligkeit, Schärfe, Kontrast und Neutralität bearbeitet. Um die oben genannten Bildstellen zu finden, werden diese durch 20 Probanden mit Hilfe eines Eye-Tracking Systems ermittelt. Die daraus gewonnenen Bildstellen werden dann im Frequenz- und Farbbereich durch Plug-Ins im Programm „ImageJ“ untersucht.
Die Erzeugung und Nutzung digitaler Daten nimmt in der medizinischen Bildgebung weiter stetig zu. Farbmonitore und das Aufgabenfeld der Wiedergabe der Bilder zur informativen Betrachtung spielen aber bisher eine untergeordnete Rolle. Verbindliche Vorgaben und Hinweise zum Umgang mit Farbdisplays, sowie auch zur informativen Betrachtung, sind bisher kaum entwickelt worden. Vor dem Hintergrund, dass Farbdisplays heute in großer Zahl im medizinischen Umfeld vorhanden sind und vielfach auch schon mobile Geräte zum Einsatz kommen, untersucht diese Arbeit experimentell, ob und wie die bereits heute vorhandenen digitalen Bilddaten in ausreichender Qualität auf diesen nicht kalibrierten Bildwiedergabesystemen dargestellt werden können. Es werden drei mobile Bildwiedergabesysteme auf ihre technische Eignung hin untersucht. Die Ergebnisse dieser Untersuchung, sowie ein visueller Vergleich eines Testdatensatzes auf den drei Testsystemen und einem DICOM kalibrierten Befundsystem zeigen, dass vorrangig eine Dynamikkompression nötig ist, welche mit Hilfe einer Laplacepyramide realisiert wird.
Für Anwendungen, die mit XML-Dokumenten arbeiten, kann es aus der Sicht eines Unternehmens sinnvoll sein, die Daten in einer relationalen Datenbank zu speichern. Sollte die Anwendung von sich aus nur mit nativen XML Datenbanken arbeiten und gar keine Anbindung an relationale Datenbanken vorsehen, sind umfassende Untersuchungen notwendig. Vor allem bei Redaktionssystemen, die für den Produktiv-Betrieb eines Unternehmens essentiell sind, darf es zu keinen Beeinträchtigungen durch die Datenhaltung kommen. Redaktionssysteme arbeiten zudem aufgrund ihrer Funktionsvielfalt mit verschieden strukturierten Dokumenten, an die unterschiedliche Anforderungen bestehen. Es müssen also optimale Strukturen für die einzelnen Dokument-Gruppen gefunden werden. Möglichkeiten XML-Dokumente in einer relationalen Datenbank zu speichern gibt es allerdings viele. Sei es ein nativer XML-Datentyp, ein Mapping auf Relationen oder gar ein hybrides Verfahren. Die Wahl der passenden Struktur wird nicht nur durch die Anwendung, die Nutzer und die Datenbanken beeinflusst, sondern auch durch die Struktur und die Nutzungskontexte der XML-Dokumente. Ziel dieser Arbeit ist es, anhand von ermittelten Kriterien, optimale Strukturen für verschiedenartige XML-Dokumente zu finden. Dazu werden neben dem Redaktionssystem, den Datenbanken und den Daten, auch verschiedene Strukturen untersucht. Abgesehen von den Strukturlösungen sollen die Erkenntnisse in dieser Arbeit dabei helfen, die native XML Datenbank des betroffenen Redaktionssystems durch eine relationale Datenbank zu ersetzen.
Der vorliegende Bericht ist das Ergebnis einer Projektarbeit von Studierenden am Institut für Informationswissenschaft der Fachhochschule Köln im Studiengang Bibliothekswesen. Im Rahmen dieser Arbeit untersuchten sieben Studierende während des Sommersemesters 2011 die bibliothekarische Auskunft anhand eines zu diesem Zwecke erstellten Kriterienkatalogs. Die sieben Studierenden testeten die Bibliotheken über vier verschiedene Auskunftskanäle (Chat, Persönliche Auskunft, Telefonische Auskunft und Webformular/E-Mail-Auskunft). Zuerst werden der Kriterienkatalog und dessen Anforderungen sowie der Bewertungsbogen für die Tests vorgestellt. Im folgenden Kapitel steht die Erarbeitung der Testfragen, die zur Bewertung des Auskunftsprozesses gestellt wurden, im Fokus. Es wird eine quantitative Übersicht aller Fragen pro Auskunftskanal und Bibliothekstyp gegeben. Anschließend werden die gestellten Testfragen aufgelistet und erläutert. Zudem werden die Erfahrungen des Pretests sowie die Testphase erläutert. Im nächsten Kapitel erfolgt die Auswertung der gesamten Untersuchung. Die Analysen und Ergebnisse werden jeweils durch Torten- oder Säulendiagramme visualisiert. Fazit und Ausblick runden die Ergebnispräsentation ab. Im Anhang befinden sich eine Auflistung der Auskunftstypen und Bibliothekstypen, das zu Grunde liegende Notenschema, die Auswertungsbögen sowie zwei Erfahrungsberichte der Auskunft jeder Studierenden.
Dublettenerkennung bezeichnet einen Prozess zur Ermittlung ähnlicher oder identischer Datensätze, die sich auf das gleiche Objekt der realen Welt beziehen. Eine besondere Bedeutung hat diese im Rahmen einer Datenbereinigung zum Beispiel nach dem Zusammenführen verschiedener Datenbestände mit möglichen Überlappungen. In diesem Zusammenhang haben sich in den letzten Jahren einige interessante Entwicklungen ergeben. Zum einen steigen die erfassten Datenmengen immer weiter an, so dass Algorithmen an Bedeutung gewinnen, die auch in solchen großen Datenbeständen effizient arbeiten. Zum anderen steigt durch die stärkere Verbreitung von Mehrkernprozessoren und die zunehmende Zentralisierung von IT-Diensten (vgl. Cloud Computing) auch der Bedarf an Lösungen, die in solchen Umgebungen optimal arbeiten und sich gut skalieren lassen. Der hier vorgestellte Lösungsansatz zur Dublettenerkennung kombiniert einen modernen und effizienten Algorithmus mit den Vorzügen einer zentralen und dienstorientierten Architektur.
Im Rahmen dieser Diplomarbeit wurde ein Java-Programm zur automatisierten Detektion von Strukturelementen in Volumendatensätzen entwickelt und anhand eines neu entwickelten Prüfkörpers der lokale geometrische Fehler eines bildgebenden Systems ermittelt. Mit geeigneten Algorithmen werden, für eine treffsichere Detektion, das Rauschen reduziert, die Stützstellen detektiert und die 7-Parameter der Helmert-Transformation bestimmt.
Der Auskunftsdienst gehört zu den Kerndienstleistungen einer Bibliothek. Obwohl ihm in anderen Ländern große Bedeutung beigemessen wird, ist Deutschland in dieser Hinsicht noch mehr von Bestandsdenken geprägt. Bibliothekskunden sind sich größtenteils nicht im Klaren darüber, dass es solch ein Angebot der Bibliothek überhaupt gibt, das über die reine Beantwortung von Bestandsfragen hinausgeht. Deswegen sollte den Kunden kommuniziert werden, worum es sich bei Auskunfts- bzw. Informationsdienst handelt. Des Weiteren sollten Umfang und Grenzen festgelegt und veröffentlicht werden. In den USA geschieht dies durch sogenannte „Reference Service Policy Statements“. Policies für den Auskunftsdienst werten diesen auf, erhöhen die Sichtbarkeit solcher Angebote und beeinflussen die Erwartungen der Kunden im besten Falle so, dass Kundenzufriedenheit entsteht. Die Verbreitung von solchen Dokumenten in Deutschland ist erwartungsgemäß eher gering. Es lässt sich allerdings feststellen, dass digitale Auskunftsangebote eher Angaben zu den Rahmenbedingungen ihrer Dienstleistung machen als konventionelle, also persönliche, Vor-Ort-Auskunftsangebote. Innerhalb der digitalen Angebote sind Policies bei Auskunftsverbünden weiter verbreitet.
Die vorliegende Arbeit beschäftigt sich mit Recherchekompetenzen von Studierenden und der Vermittlung der betreffenden Fertigkeiten in Online-Tutorials als eine innovative Methode der Vermittlung von Informationskompetenz. Studierende stehen im Rahmen des Studiums vor der Herausforderung effiziente, wissenschaftliche Recherchen in verschiedenen Rechercheinstrumenten durchzuführen. In unterschiedlichen Studien wurde bereits herausgefunden, dass Studierende Probleme und Defizite bei der wissenschaftlichen Recherche haben und bei ihnen Bedarf nach Unterstützung besteht. Diese Studienergebnisse bilden die Grundlage für eine Analyse der Online-Tutorials DISCUS, LOTSE, DOT und Bib@InfoLit. Hierbei besteht das Ziel der Arbeit darin, die Berücksichtigung und didaktische Aufbereitung der Inhalte in Bezug auf die Informationsbedürfnisse der Studierenden zu untersuchen. Ein abschließender Vergleich resümiert die Umsetzungen in den Online-Tutorials.
Bibliothek und Moderne in Japan : das wissenschaftliche Bibliothekswesen zwischen System und Kultur
(2011)
Die vorliegende Arbeit erklärt die gegenwärtigen Strukturen des Hochschulbibliothekssystems in Japan aus ihrer kulturhistorischen Entwicklung heraus. Im Mittelpunkt steht dabei die Frage nach Einflüssen der traditionellen japanischen Kultur auf das moderne Bibliothekswesen. Zunächst wird die Entwicklung des vormodernen Bibliothekswesens in Japan bis ca. 1850 geschildert. Sodann wird vor dem gesellschaftlichen und kulturellen Hintergrund der Entwicklung der japanischen Modernisierung bis in die Nachkriegszeit die Genese des modernen wissenschaftlichen Bibliothekssystems einschließlich des relevanten Verbandswesens und der Bibliothekarsausbildung erläutert. Das System der Hochschulbibliotheken wird dabei im Kontext angrenzender Systeme wie des Hochschulsystems und des allgemeinen Bibliothekssystems in Japan geschildert. Die internen Strukturen der japanischen Hochschulen und der ihnen angeschlossenen Bibliotheken sind der vorliegenden Darstellung zufolge in der Vorkriegszeit wesentlich vom Vorbild der zeitgenössischen deutschen Hochschulen beeinflusst gewesen, während in der Nachkriegszeit der US-amerikanische kulturelle Einfluss deutlich überwiegt. Die kooperative Bibliotheksarbeit, die Automatisierung und die Entwicklung hin zur digitalen Bibliothek vollzogen sich zwar gegenüber westlichen Ländern teils langsamer, führten aber doch zu einem leistungsfähigen und ausdifferenzierten Hochschulbibliothekssystem. Die Arbeit schildert zudem die Unterschiede zwischen Bibliotheken an privaten und staatlichen Trägerinstitutionen, zwischen älteren zweischichtigen und jüngeren einschichtigen Bibliothekssystemen, und die Rolle des japanischen Staates für die Bibliotheksentwicklung. Sie beschreibt auch einige der Herausforderungen des gegenwärtigen Systems: dazu zählen Probleme in der japanischen Bibliothekarsausbildung und die Entwicklungsperspektive der Träger vor dem Hintergrund der alternden japanischen Gesellschaft. Die Arbeit kommt zu dem Schluss, dass sich aus der Entwicklung des modernen Hochschulbibliothekssystems ein konsequenter kultureller Bruch mit der vormodernen japanischen Bibliothekstradition ersehen lässt. Die Modernisierung nach 1850 führte nicht nur zum Import von Techniken und systemischen Organisationsprinzipien des westlichen Bibliothekswesens, sondern auch die bibliothekarische Berufskultur wurde wesentlich von westlichem Gedankengut geprägt.
Diese Bachelorarbeit befasst sich mit dem Portal http://www.informationskompetenz.de/, das als Gemeinschaftsprojekt bibliothekarischer Arbeitsgemeinschaften zur Vermittlung von Informationskompetenz der regionalen und überregionalen Kooperation von Bibliotheken in Deutschland dienen soll. Neben einem Glossar, Standards und Erklärungen sowie Präsenzen der beteiligten Bundesländer stellt es insbesondere eine Datenbank zur Sammlung und zum Austausch von Materialien zu diesem Thema bereit. Nach einem Überblick über die Entstehung des Begriffs der Informationskompetenz, seine Entwicklung und aktuelle Tendenzen folgen die Beschreibung des Gesamtportals sowie eine kurze Analyse desselben anhand eines definierten Katalogs inhaltlicher und formaler Kriterien. Daneben ist auch ein kurzer Überblick über die weiteren Komponenten des Portals Bestandteil der Arbeit. Der Schwerpunkt der Arbeit liegt auf der darauffolgenden Analyse und Evaluation der Materialiendatenbank, die ebenfalls unter Anwendung der definierten Kriterien erfolgt. Der Umfang, die Struktur und die Gestaltung der Datenbank stehen bei der Untersuchung im Vordergrund; die Begutachtung erfolgt anhand einer Stichprobe von 20% der zum Zeitpunkt der Bearbeitung in der Datenbank enthaltenen Dokumente. Zudem fließen zur Evaluation der Suchfunktionalitäten auch einzelne ausgewertete Suchanfragen in die Bewertung ein. Von den hier präsentierten Ergebnissen der Evaluation des Portals und der Materialiendatenbank ausgehend werden abschließend potenzielle Perspektiven der Plattform aufgezeigt. Es werden konkrete Entwicklungsmöglichkeiten dargestellt, im Anschluss daran wird die Plattform aber zudem in den bibliothekarischen Gesamtkontext eingeordnet und ihre mögliche zukünftige Rolle skizziert.
Die vorliegende Arbeit befasst sich mit dem Berufsbild des wissenschaftlichen Bibliothekars aus historischer Perspektive. In ihr wird in chronologischer Weise die Entwicklung der verschiedenen Anschauungen zu Aspekten wie Ausbildung und Tätigkeitsspektrum beschrieben. Als Untersuchungsmaterial dienen thematisch einschlägige Publikationen von ca. 1800 bis heute. Ein besonderes Augenmerk gilt der Beziehung des Bibliothekswesens zur Wissenschaft sowie dem Selbstverständnis des Bibliothekars in diesem Kontext. Thematisiert wird unter anderem die traditionell „hybride“ Position des Fachreferenten als Mittler zwischen den beiden Sphären; plädiert wird (im Schlussteil) für neue Formen der Kooperation mit den Fachbereichen der Hochschule – unter Wahrung des eigenen Profils.
Die Hough-Transformation liefert die Parameter von in einem Bild vorkommenden Geraden. Durch die Kameraverzerrung werden die in der realen Welt vorkommenden Geraden jedoch nicht mehr auf Geraden abgebildet. Dies führt dazu, dass im Hough-Raum die entsprechenden Geradenpunkte nicht mehr auf den gleichen Punkt abgebildet werden. Durch Variation der Verzerrungsparameter mit Hilfe eines bereits vorliegenden Optimierungsprogrammes ist eine Korrektur zu ermitteln. Dabei sollen drei unterschiedliche Ansätze miteinander verglichen werden. Bildmaterial sollte Aufnahmen von Testobjekten und Gebäuden sein.
Im Rahmen dieser Bachelorarbeit wurde erfolgreich erarbeitet, dass mit Hilfe der Hough-Transformation aus Bildern der realen Welt die inneren Kameraparameter optisches Zentrum und Brennweite mit hinreichender Annäherung automatisch bestimmt werden können. Umgesetzt wurde der Algorithmus in Java als Plug-In für das Open Source Bildverarbeitungsprogramm ImageJ. Zur Bestimmung der Fluchtpunkte wird die Hough- Transformation innerhalb des Plug-Ins zweimal durchgeführt. Es eignet sich für Aufnahmen von Gebäuden und ähnlichen rechtwinkligen Strukturen.
Die vorliegende Arbeit behandelt eine Marktuntersuchung der Portraitfotografie in Deutschland und in China. Dazu ist eine Umfrage erforderlich. Da eine repräsentative Befragung Grundgesamtheit „Bevölkerung Deutschlands“ im Rahmen einer Diplomarbeit nicht möglich ist, soll eine Internetumfrage durchführt werden. Hierbei liegt der Schwerpunkt auf der Marktentwicklung und Zukunftchancen der Portraitfotoindustrie in Deutschland.
Durch die rasante technologische Entwicklung der digitalen Cinematographie sind nicht nur neue Daten-Kameras entwickelt worden, sondern es wurden auch neue Objektive, sowohl für die digitale als auch für die analoge Filmwelt entwickelt. Ziel dieser Arbeit ist es, einen weitgehend praxisbezogenen Überblick über das aktuelle Angebot an Objektiven, sowohl für die analoge als auch für die digitale Cinematographie zu erstellen. Weiterhin werden Entscheidungskriterien und Qualitätsparameter dargestellt. Technische und finanzielle Unterschiede werden kurz erläutert. Zum Einstieg hierfür wird eine allgemeine Einführung in die physikalisch-optischen Grundlagen vorangesetzt. Dem folgt ein Abriss über die in der Praxis angewendeten Mess- und Prüfgeräte. Ergänzend befindet sich eine ausführliche Zusammenstellung mit den Detailinformationen zu einzelnen Objektiven im Anhang.
In dieser Bachelorarbeit werden die Grenzwerte der stereoskopischen Seheindrücke, in Bezug auf parallaktische Verschiebungen und dem Raumwinkel, empirisch ermittelt und mit bekannten Grenzwerten verglichen. Die Ermittlung der Grenzwerte erfolgte durch einen empirischen Test mit einer repräsentativen Personengruppe. In dem Ergebnis wird u. a. die Raumwinkeldefinition nach Lüscher bekräftigt. Neue Grenzwerte werden im Bereich der Parallaxengröße definiert.
In der vorliegenden Arbeit werden zwei Environment-Shader entwickelt, einer für die Software Maya, der zweite für die im WDR Köln genutzte Grafiksoftware 3Designer. Zur Entwicklung wird der Worflow zur Erstellung virtueller Szenenbilder im WDR Köln berücksichtigt. Dafür wird der Workflow vorgestellt und die Umsetzung in den Shader detailliert erläutert. Als Ergebnis liegt für jedes Programm ein Shader vor, der bewirkt, dass die Reflexion einer Umgebung, die als Kugel vorliegt, auf dem jeweiligen Objekt erkennbar ist.
Durch den hohen Bedienkomfort und die übersichtliche Darstellungsweise sind berührungsempfindliche Bildschirme eines der wichtigsten Eingabegeräte geworden. Neben den technischen Aspekten wie der Bildwiedergabetechnik, der Touchscreen-Technologie und der Mediensteuerung, wird in dieser Arbeit die Mensch-Computer-Interaktion beschrieben. Ziel der vorliegenden Diplomarbeit ist die Gestaltung einer intuitiven ouchpaneloberfläche zur Steuerung medientechnischer Anlagen, welches am Beispiel eines Videokonferenzraumes beschrieben wird.
Das permanente Angebot und die Nachfrage an Informationen und Daten jeglicher Art wachsen zunehmend. Das Ergebnis einer meist verschachtelten Suche nach bestimmten Zahlen ist jedoch oftmals eine unübersichtliche, tabellarische Aufstellung derer. Zudem ist dagegen die Aufnahme grafischer Informationen erheblich höher und effektiver. Als Ergebnis der Diplomarbeit soll im ersten, theoretisch-wissenschaftlichen Teil eine technische Konzeption für ein intelligentes Visualisierungs-System erarbeitet werden. Im zweiten, praktischen Teil soll anhand der untersuchten Methoden und des entwickelten Konzepts eine Anwendung kreiert werden, welche ausgewählte Methoden zur interaktiven Visualisierung statistischer Daten nutzt.
Kölner Stahlbautabellen : Bemessungshilfen für den Stahlbau nach DIN EN 1993-1-1 und DIN EN 1993-1-8
(2012)
Die Kölner Stahlbautabellen sind Bemessungshilfen für den Stahlbau auf der Grundlage des Eurocode 3. Sie enthalten Querschnittswerte und Beanspruchbarkeiten genormter Walzprofile. Für Typisierte Verbindungen (Winkelanschlüsse, Stirnplattenanschlüsse) sind die Geometrien und die Grenzquerkräfte angegeben.
Entwicklung einer Software zur Erstellung menschlicher Temperaturprofile mittels IR-Videoaufnahmen
(2011)
In dieser Arbeit wird eine Software zur Analyse von thermografischen Videosequenzen vorgestellt. Mit Hilfe einer speziellen Wärmebildkamera, die in der Lage ist, thermografische Videosequenzen aufzunehmen, kann die zeitliche Auflösung der Hauttemperatur–Messung erhöht werden. Das Programm soll im Rahmen von Untersuchungen zu thermoregulatorischen Prozessen am Menschen diese Sequenzen auswerten und Temperaturprofile des menschlichen Körpers erstellen. Der Benutzer kann dazu Körperregionen gezielt auswählen und verfolgen lassen. Ergebnis ist eine Exceltabelle mit Temperaturwerten für jede definierte Zone pro Zeiteinheit. Diese kann durch den Import von Messtabellen externer Messgeräte ergänzt werden, so dass die Untersuchungsergebnisse aller Messgrößen synchronisiert in einer Datei zur Verfügung stehen.
In der vorliegenden Arbeit wird ein softwaregestütztes Verfahren vorgestellt, mit dem untersucht werden kann, wie weit die Dosis in der Mammographie abgesenkt werden kann. Die entwickelte Software analysiert dabei die jeweilige Modalität anhand von Aufnahmen des PAS 1054-Prüfkörpers. Die erfassten Daten werden verwendet, um an vorhandenen Mammogrammen eine Dosisreduktion zu simulieren. Dazu kommen Verfahren der Bildverarbeitung, insbesondere die Wavelet-Transformation zum Einsatz. Durch eine vergleichende Auswertung der simulierten Aufnahmen mit den originalen können Grenzwerte für die diagnostische Tauglichkeit von Aufnahmen mit reduzierter Dosis gewonnen werden.
The geography of European cross-border banking : the impact of cultural and political factors
(2009)
We investigate the determinants of European banking market integration with a focus on the potentially limiting role of cultural and political factors. Employing a unique data set of European cross-border loans and deposits, the study uses various gravity models that are augmented by societal proxies. While trade-theoretic reasoning can explain part of the surge in cross-border banking, we demonstrate that distance and borders still matter in the geography of European cross-border banking. Moreover, we can identify cultural differences and different legal family origin as important barriers to integration.
On 25 May 2011, the OECD launched a "Green Growth Strategy" and proposed a "Green Growth Diagnostics" approach to identify the binding constraints on green growth. This paper discusses the potential use and usefulness of this approach as a means to identify those binding constraints. It is argued that the approach is best used at the meso level for industries and certain environmental challenges. The paper proposes a modified green growth diagnostics approach for eco-innovations at the meso level that can be useful for informing and organising a rational policy dialogue amongst all stakeholders.
Wir wollen in diesem Aufsatz die Internationalisierungsimperative für die Hochschulausbildung und hier insbesondere die Managementausbildung reflektieren, die sich für uns aus der empirischen Analyse der gegenwärtigen weltwirtschaftlichen Integrationsprozesse und deren Folgen ergeben, und somit etwas zur Diskussion um das "Warum" und "Wie" der Internationalisierung der Managementausbildung beitragen. Diese Überlegungen sollen dann mit den praktischen Erfahrungen aus einem internationalen Studiengang abgeglichen werden; namentlich dem Master-Studiengang "Internationales Management und Interkulturelle Kommunikation" (kurz: GlobalMBA).
This paper investigates the state, development and drivers of banking market integration in the member countries of the Southern African Development Community (SADC) by employing interest rate data. We first conduct a principal component analysis and find evidence for both increasing monetary integration and banking integration in loan and deposit markets. These integration processes are not developing uniformly and we can identify a convergence club. As banking market integration can be a genuine process or simply be driven by monetary integration, we also investigate the interest rate pass through from national and South African Central bank interest rates onto national retail rates. With respect to the convergence club we find both, genuine and monetary-integration driven processes though the latter dominate. We conclude that a selective expansion of the Common Monetary Area is possible but needs to be complement by efficient financial development policies.
Die Kommunikation via Chat konnte sich in den letzten Jahren neben Kommunikationsmedien wie E-Mail und Telefon in vielen Bereichen des alltäglichen Lebens etablieren. Textbasierter Chat weist jedoch, im Vergleich zu Face-to-Face-Kommunikation, gewisse mediale Einschränkungen auf. Nonverbale Signale wie Gestik und Mimik können, in Ermangelung eines visuellen Kanals, nicht direkt übertragen werden. Trotzdem findet auch im Chat ein Austausch nonverbaler Informationen statt, wie beispielsweise der Einsatz von Emoticons oder Pausen in Gesprächen. Verhaltensweisen bei nonverbaler Kommunikation enthalten Hinweise bezüglich der sozialen Beziehung der Gesprächspartner. Derartige nonverbale Signale können aus Chat-Protokollen extrahiert und analysiert werden. In dieser Arbeit beschäftigen wir uns mit der Analyse nonverbaler Daten aus Chat-Protokollen. Ziel ist die Einschätzung der Stärke einer sozialen Beziehung anhand eines multidimensionalen Analyse-Modells.
In der vorliegenden Bachelorarbeit werden Objektive und deren Eigenschaften hinsichtlich ihrer Eignung für die Time-of-Flight Technologie in Verwendung mit dem PMD[vision]®CamCube3.0 untersucht. Dabei wird zunächst die Scharfstellung geprüft und analysiert. Desweiteren werden System-MTF-Kurven von verschiedenen Objektiven in unterschiedlichen Entfernungen gemessen. Die Objektive werden untereinander verglichen und die gemessenen Werte den Hersteller-MTF-Kurven gegenübergestellt. Außerdem wird eine Simulation zur Berechnung des aus einer nicht perfekten Modulationsübertragung resultierenden Phasenfehlers durchgeführt und analysiert.
El presente artículo estudia las diferencias semántico-pragmáticas existentes entre las numerosas locuciones adverbiales que expresan rapidez en español partiendo de un análisis de su valor emotivo. El análisis tiene lugar sobre la base de ejemplos auténticos procedentes de Internet. También se proponen equivalencias en alemán, fraseológicas o no.
Mit der zunehmenden Bedeutung von Geodaten stellt sich die Frage, welche Indices für welche Anwendungszwecke geeignet sind. Ziel dieser Arbeit ist es, dies am Beispiel von je drei Quadtrees (quadtree, bucket-pr-quadtree, mx-cif quadtree), kd-trees (kd-tree, four-dimensional kd-tree, kdb-tree) und r-trees (guttman r-tree, str-tree, r*-tree) sowohl für statische wie auch dynamische Geodaten zu untersuchen. Als Variante der dynamischen Daten werden zudem Bewegungsdaten betrachtet. Der Vergleich erfolgt sowohl theoretisch, weshalb alle genannten Indices detailliert vorgestellt werden, als auch praktisch. Dazu wurde eine Testumgebung in Java realisiert, die das gezielte Testen von bestimmten Operationen auf den Indices ermöglicht. Als Ergebnis des theoretischen Vergleichs werden verschiedene Charakteristika den Indices zugeordnet, die eine grobe Vorabauswahl ermöglichen. Der praktische Vergleich zeigt anschließend die Resultate differenziert nach Punktgeometrien, Nicht Punktgeometrien und Bewegungsdaten. Als Resultat wird eine generell gute Eignung der r-trees und insbesondere des str-trees dargestellt. Gleichzeitig wird aber auch darauf hingewiesen, dass es Anwendungsszenarien (z.B. langsame I/O) gibt, in denen eine andere Wahl getroffen werden sollte.
Zielsetzung der Ausbildung an der Fachhochschule Köln ist es, Studierende auf den Einstieg in die Berufspraxis optimal vorzubereiten. Dazu sind praxisorientierte Unterrichtsformen wie das projektorientierte Lehren und Lernen ein geeignetes Mittel. Im Rahmen des Studienschwerpunktes General Management des Studienganges Betriebswirtschaftslehre (Diplom / Bachelor) haben Studierende in jedem Semester die Möglichkeit, wechselnde Aufgabenstellungen aus der Unternehmenspraxis arbeitsteilig im Team zu bearbeiten. Die Ergebnisse dieser Praxisprojekte werden den beteiligten Unternehmen vor Ort präsentiert und in Form eines Projektberichtes aufgearbeitet und dokumentiert. Der vorliegende Projektbericht zum Thema „Social Media bei der Jobsuche“ ist ein gelungenes Beispiel für ein abgeschlossenes Praxisprojekt. An der Untersuchung haben sich 219 Absolventen eines Studiums und 61 Berufseinsteiger mit Berufspraxis per Online-Fragebogen beteiligt. Zusätzlich wurden ergänzende Interviews mit ausgewählten Partnern durchgeführt.
Seit fast 20 Jahren beschäftigt man sich im Bibliothekswesen zunehmend mit dem Thema Qualitätsmanagement. Besonders im Bereich der öffentlichen Bibliotheken hat es dahin gehend viele Entwicklungen und Projekte gegeben. Im ersten Teil der vorliegenden Arbeit wird zunächst die vorangegangene bibliothekshistorische Entwicklung und der Einfluss der Verwaltungsmodernisierung dargestellt. Es folgt die Definition für Qualität von bibliothekarischen Dienstleistungen und ein kurzer Abriss über die Entstehung von Qualitätsmanagement. Um die Funktionsweisen und Instrumente des Qualitätsmanagements zu verdeutlichen, schließt dieser Teil mit einer Vorstellung der wichtigsten und relevanten Qualitätsmanagement-Systeme ab. Im zweiten Teil widmet sich die Arbeit der Beschreibung von bundesweiten Qualitätsmanagement-Aktivitäten in öffentlichen Bibliotheken. Aus diesem Kontext heraus folgt eine Darstellung nennenswerter Qualitätsmanagement-Projekte in einer Übersicht. Aus den aufgeführten Projekten lassen sich drei groß angelegte, aktuelle Projekte in den Ländern Niedersachsen, Nordrhein-Westfalen und Sachsen-Anhalt herausstellen. Diese Projekte werden einzeln vorgestellt und mit den Ergebnissen aus Befragungen ergänzt. Eine Vergleichstabelle stellt abschließend die Eigenschaften der angewandten Modelle gegenüber und soll ihre Vor- und Nachteile abbilden.
Diese Arbeit stellt drei Masterstudiengänge des Bereichs Library and Information Science an Hochschulen des United Kingdom vor und überprüft sie auf ihre Eignung als weiterführende Qualifikation für die Absolventen des Bachelorstudiengangs „Bibliothekswesen“ der Fachhochschule Köln. Durch Darstellung der europäischen Studienstrukturen seit Beginn des Bologna-Prozesses werden zunächst die Rahmenbedingungen für ein Auslandsstudium verdeutlicht. Als Grundlage für die spätere Beurteilung der Masterstudiengänge wird anschließend der Bachelorstudiengang „Bibliothekswesen“ unter Zuhilfenahme des Modulbuchs und der Prüfungsordnung vorgestellt und ein Profil für die Absolventen entwickelt. Nach einem allgemeinen Überblick über die Hochschulausbildung im United Kingdom und die LIS-Ausbildung im Speziellen, wird der Berufsverband Chartered Institute of Library and Information Professionals und seine Aufgabe im Bereich Akkreditierung vorgestellt. Im Hauptteil werden anhand selbsterstellter Kriterien drei Studiengänge aus England, Wales und Schottland ausgewählt und anhand der Informationen der Internetseiten der Hochschulen beschrieben. Abschließend werden die Studiengänge, ebenfalls mittels selbstgewählter Kriterien, auf ihre Eignung als weiterführende Qualifikation überprüft.
Shared Service Center (SSC) bieten innerhalb einer Organisation Hilfsdienstleistungen an. Das interne Outsourcing bietet Bibliotheken Möglichkeiten über die originären Aufgaben hinaus weitere Produkte innerhalb des Trägers oder interkommunal anzubieten und diese auch kostendeckend vergütet zu bekommen. Werden SSC in der Regel von zentraler Stelle entwickelt und installiert, müssen und können Bibliotheken hier noch selbst gestalten. Insbesondere freiwillige Einrichtungen eines Trägers können sich profilieren und eine höhere Quote im Kostendeckungsgrad erreichen. Die Aufgaben des Wissensmanagements oder die Implementierung eigener vorhandener Produkte in fachfremde Bereiche werden in Beispielen auf kommunaler Ebene vorgestellt.
Der Architekturstil REST erlangt in den letzten Jahren immer größere Verbreitung. RPC-orientierte Architekturstile scheinen besonders bei Software-Neuentwicklungen obsolet zu werden. Es existieren viele Gründe, die für eine Verwendung von REST-Architekturen sprechen. Den- noch zeigen sich auch Probleme bei der Entwicklung von REST-konformen Anwendungen. Diese Probleme und jeweils existierende Lösungsansätze werden in dieser Arbeit aufgezeigt. Dabei geht es zum einen um verfügbare Frameworks und technische Spezifikationen und zum anderen um konzeptionelle Lücken im Bereich der Automatisierung von Geschäftsprozessen.
Das Wissen nutzbar zu machen steht an zentraler Stelle. Heute wird der Mensch mit Informationsmengen konfrontiert und steht dadurch vor dem Problem einer enormen Informationsflut. In der schnelllebigen Zeit der IT-Technik (Information und Telekommunikation) soll eine innovative Methode die Informationsrecherche zeitlich verkürzen und eine individuell optimale Lösung für den Benutzer gefunden werden. Die gebrauchstaugliche Unterstützung heißt: Eine semantisch-webbasierte Visualisierung zur Unterstützung des Findens innerhalb des Semantic Web. Der Ansatz der Visualisierung liegt darin begründet, dass Menschen hauptsächlich über die Augen wahrnehmen und schnell Zusammenhänge erkennen können. Sogar blinde Menschen nutzen dazu ein mentales System, das visuell räumliches Skizzenblatt (scratch-pad), um Bilder bzw. die Umwelt zu verarbeiten. Der Vorteil liegt darin begründet, dass es einen schnellen direkten Zugriff auf das Arbeitsgedächtnis ermöglicht. Ein Anwendungsszenario im Bereich des Mobilfunks soll als Praxisbeispiel dienen. Bei der Vielzahl der angebotenen Handys mit den homogenen Leistungen findet kaum ein Kunde die Unterscheidungen und es gibt zurzeit keine Möglichkeit unter den Handys benutzungsfreundlich zu differenzieren noch ein optimales Handy zu finden. Am Beispiel von selbst dargestellten Szenarien und einer Evaluation wird erörtert, wie anhand von angenommenen Stakeholder, ein Zusammenspiel der Semantic Web Technologien eine jeweilige Lösung von verfügbaren Informationen aufgefunden und bearbeitet werden kann. Ziel bei der Anwendung ist es, ein Prototypen zu realisieren, dass gebrauchstauglich bei der Visualisierung von großen Datenmassen, auf Grundlage einer Empfehlung von Mobilgeräten in einem Webinterface, unterstützt. Das bereits geschriebene Praxisprojekt-Referat in Form eines Konzepts mit dem Thema: „Graphische Visualisierung von semantischen Daten in einem Webinterface“ dient dabei als Grundlage für diese Bachelorarbeit (siehe Kap. 8.2). Grundlage, Innovationen und Beispiele aus der Praxis sind ausführlich dort beschrieben worden. Dabei wurden die neusten Technologien unter den Kriterien der Häufigkeit in der Praxis, Plattformunabhängigkeit und der Flexibilität betrachtet. Künstlerisch gestalterische Disziplinen, die Produkte graphisch zum Glänzen bringen möchten oder welche, die sich mit den grundlegenden Technologien für semantische Daten sich beschäftigen, bleiben bei dieser Arbeit unbehandelt. Es geht im Schwerpunkt um eine Beantwortung der folgenden Forschungsfrage: Inwieweit sind graphische Repräsentationen vorteilhafter, um Wissen zu vermitteln, in Verhältnis zu textuellen Repräsentationen?
Dieser Bericht stellt die Ergebnisse einer Expertenbefragung zu dem Themenkomplex "Kindeswohl in Suchtfamilien" dar. Es wurden mit Hilfe eines standardisierten Interviewleitfadens 5 Experten aus der Suchtkrankenhilfe, dem Gesundheitswesen sowie der Kinder- und Jugendhilfe hinsichtlich ihrer Erfahrungen und Vorgehensweise mit einer möglichen Kindeswohlgefährdung in suchtbelasteten Familien befragt. Die Ergebnisse zeigen, dass eine mögliche Kindeswohlgefährdung durch die Fachkräfte teilweise nur sehr schwer zu erfassen ist und ein Aus- und Fortbildungsbedarf bei den Mitarbeitern besteht.
In dieser Arbeit wurde die Slow Feature Analysis (SFA) auf ihre Einsatzmöglichkeiten zur Gestenerkennung zu untersuchen. SFA ist ein Lernalgorithmus, der aus den Neurowissenschaften stammt und aus sich schnell verändernden Signalen, die langsamsten Merkmale herausfiltert. Als Gesten werden in diesem Fall beschleunigungsbasierte dreidimensionale Signale des Wii-Controllers von Nintendo betrachtet. Für die Untersuchungen wurden fünf unterschiedliche Gesten von zehn Probanden verwendet. Diese Gesten liegen in Form von mehrdimensionalen Zeitreihen vor, die die Messwerte der Beschleunigungssensoren des Wii-Controllers enthalten. Die Gestendaten wurden mit einer Java-Anwendung aufgezeichnet, mit der die Wiimote über Bluetooth verbunden ist. Für die Untersuchungen wurde eine Implementierung des SFA-Toolkits (MATLAB, SFA-TK) verwendet und die Ergebnisse mit denen anderer gängiger Verfahren verglichen. Untersucht wurde hierzu sowohl die Klassifizierung von Gesten, als auch Ansätze zur Segmentierung, dem Erkennen von Anfang und Ende einer Geste.
Die Diplomarbeit „Konzeption und Implementierung eines PL/SQL Trainers auf Basis von JSP und eLML“ beschäftigt sich mit der Erstellung von eLearning Anwendungen, für das Themengebiet PL/SQL, mit speziellem Fokus auf die Programmierung von Datenbanktriggern. Im theoretischen Teil der Arbeit wird das Thema eLML ausführlich behandelt und dabei die Funktionsweise sowie die Hintergrundgeschichte des eLML Frameworks erläutert. Der praktische Teil der Arbeit unterteilt sich in zwei Abschnitte, im Ersten Abschnitt wird beschrieben, wie bestehende Lerneinheiten zum Thema PL/SQL aus dem MS-Power-Point Format in das eLML Format übertragen werden, wobei die praktische Anwendung von eLML dargestellt wird. Im zweiten Abschnitt wird die Konzeption und die Implementierung einer JSP-Webanwendung beschrieben, die eine interaktive Trainingsanwendung für die Programmierung von Triggern mit PL/SQL darstellt.
Diese Arbeit stützt sich auf die These, dass die Vermittlung von Informationskompetenz bereits in der Grundschule notwendig ist, da der Computer und das Internet mittlerweile fester Bestandteil des Alltags von Grundschülern geworden sind. Deshalb sollte man ihnen Wissen, das eine kompetente Nutzung dieser Medien ermöglicht, an die Hand geben. Die Basis der Arbeit bildet eine auf einem Quellenstudium basierende Definition von Informationskompetenz inklusive eines Überblicks über verschiedene Theorien, Modelle und Standards. Zusätzlich werden derzeitige Offerten zur Vermittlung von Informationskompetenz an Kinder im Grundschulalter analysiert. Der Schwerpunkt der Arbeit liegt auf der Entwicklung eines Konzepts zur Integration der Vermittlung von Informationskompetenz in den Deutschunterricht der dritten und vierten Klasse. Ausgerichtet wurde das Konzept an den Belangen der Grundschule Thülen, die als Projektpartner fungierte. Die Dokumentation der Konzeptentwicklung umfasst theoretische Grundlagen, beispielsweise zur Formulierung von Lernzielen, und eine detaillierte Beschreibung der einzelnen Unterrichtsphasen. Ferner wird kurz auf generelle Umsetzungskriterien des Konzepts eingegangen. Als Ergebnis kann festgehalten werden, dass Grundschüler als Zielgruppe für die Vermittlung von Informationskompetenz bisher vernachlässigt wurden.
Country rankings with respect to a country’s business environment draw strong international attention. Methods of business environment assessment differ; two competing methods will be described and compared with respect to their results for Rwanda in the years 2008-2010. They do not come to the same results regarding regulatory deficits and hence the demand for regulatory reform. When regulatory cost is considered, demand and supply of reforms are more in line than without cost considerations. The effectiveness of reforms undertaken in Rwanda varies. Based on interviews in late 2010, not all reforms were having the expected impact “on the ground”.
Die Zielsetzung dieser Thesis ist die aktuelle Situation von Blinden und Sehbehinderten in Bezug auf technische Hilfsmittel aufzuzeigen und auf mögliche Defizite und Handlungsbedarf hinzuweisen. Im Vorfeld wurde im Rahmen der Recherche eine Umfrage unter Betroffenen durchgeführt. Die Auswertung der Umfrage sowie eines ausführlichen Interviews ist ein wichtiger Bestandteil. Die Thesis soll IST-Grundlage für weitere Überlegungen, Weiterentwicklungen und Forschungsansätze im Bereich Blindeninformatik sein. Zu Beginn wird die Anatomie und Funktion des menschlichen Sehapparates erläutert. Ein weiterer Schwerpunkt der Thesis ist die geschichtliche Entwicklung von Hilfsmitteln. Anhand wichtiger Meilensteine, wie beispielsweise die Punktschrift, der Thermostift oder die Einführung des DAISY Standards wird die „Useability“ und auch die Akzeptanz in der Gesellschaft betrachtet. Anhand aktueller technischer Hilfsmittel werden Probleme und Lücken im Alltag erörtert. Der Verfasser ist selbst Betroffener und ergänzt die zusammengestellten Informationen durch eigene praxisorientierte Alltagserfahrungen. Im weiteren Verlauf werden neue technische Innovationen wie beispielsweise Touchscreens und Augmented Reality (AR) vorgestellt. Es wird einerseits auf aktuelle Entwicklungen eingegangen und Ausblicke auf zukünftige Anwendungsgebiete aufgezeigt, andererseits aber auch auf Gefahren bei der Verschmelzung von Realität und Virtualität hingewiesen. Abschließend werden die Feststellungen zusammengefasst und Denkanstöße für zukünftige Neu- und Weiterentwicklungen gegeben.
Aufgrund des Mangels an Softwareprodukten, die Projektmitarbeiter beim örtlich und zeitlich verteilten Arbeiten in Projekten effizient und zufriedenstellend unterstützen, soll ein ToDo-Manager entwickelt werden, der den Bedürfnissen der Benutzer gerecht wird und deren Anforderungen erfüllt. Valide Prototypen basieren auf Anforderungen der Benutzer und spiegeln deren Interaktion mit dem System wider. Die konstruierten Interaktionsentwürfe sollen in Prototypen abgebildet, evaluiert und überarbeitet werden, bis die Aufgaben der Benutzer durch die Dialogschritte abgebildet werden, sodass eine effiziente und zufriedenstellende Bearbeitung ermöglicht wird. Auf der Basis von ermittelten Nutzungsobjekten und Werkzeugen wird die Navigationsstruktur ermittelt sowie der Funktionsumfang des Systems definiert. Das User-Interface Design beschreibt die Entwicklung von Prototypen, die durch Benutzer evaluiert werden. Berücksichtigt werden neben der Interaktion auch gestalterische Aspekte. Die evaluierten Prototypen werden iterativ überarbeitet, damit ein gebrauchstaugliches Modell des ToDo-Managers entsteht. Ziel der Bachelorarbeit ist das Durchführen einer konzeptionellen und konkreten User Interface Design Phase, in denen die Entwicklung eines auf den Anforderungen der Benutzer basierenden demonstrierbaren und interagierbaren Prototypen für einen ToDo-Manager angestrebt wird.
Der Einsatz von Ontologien wird bereits in vielen Anwendungsbereichen als Werkzeug für die Strukturierung und die Verbesserung der Zugänglichkeit von Informationen unterschiedlichster Art genutzt. Sie ermöglichen die explizite Formulierung der Bedeutung von Konzepten und Strukturen beliebiger Domänen. Auch im Rahmen der Zusammenarbeit in und zwischen Gruppen ist der Austausch und die Verarbeitung von Informationen für den Verlauf und den Erfolg der Kooperation von erheblicher Bedeutung. Daher liegt es nahe, auch kollaborative Aktivitäten durch den Einsatz von Ontologien zu unterstützen. Aktuelle Arbeiten in diesem Themenbereich fokussieren jedoch meist auf ausgewählte Aspekte der Zusammenarbeit wie etwa der Kommunikation zwischen den Gruppenmitgliedern oder die Unterstützung durch eine konkrete Softwarekomponente. In dieser Arbeit wird dagegen von einer ganzheitlichen Betrachtung von Kooperationssituationen ausgegangen. Dabei werden die an einer Kooperation beteiligten Personen und die eingesetzten technischen Komponenten als ein gesamtes soziotechnisches System betrachtet, dessen Elemente nicht losgelöst voneinander betrachtet werden können. Das Ziel dieser Arbeit besteht einerseits darin, zu untersuchen, wie sich der Einsatz von Ontologien auf die Unterstützung der Zusammenarbeit auswirkt und andererseits, welche Möglichkeiten sich hieraus für die Gestaltung von Kooperationssystemen ableiten lassen. Einige dieser Möglichkeiten werden im praktischen Teil prototypisch implementiert, um die technische und wirtschaftliche Umsetzbarkeit zu evaluieren.
Bei der Entwicklung interaktiver Software werden die Belange der Benutzer oft außer Acht gelassen oder nur unzureichend berücksichtigt. Dies führt dazu, dass das System von den Benutzern nicht akzeptiert wird, es die Benutzer nicht im ausreichenden Maße unterstützt oder, im Ernstfall, die Benutzer ihre Aufgaben nicht vollständig lösen können. Um einen Nährboden für die Entwicklungsprozesse von gebrauchstauglicher Software zu schaffen, muss eine grundlegende Entscheidung getroffen werden. Der Usability Engineering Prozess wird selbst geplant und durchgeführt, oder extern an eine Firma weitergegeben. Diese Arbeit beschäftigt sich mit ersterem und integriert den Usability Engineering- und Softwareentwicklungsprozess in einem Framework mit agilem Vorgehensmodell, welches sich an erfahrene Projektleiter, Projektmanager und Softwareentwickler ohne gefestigtes Wissen im Bereich des Usability Engineerings richtet. Es werden Ziele definiert und mögliche Methoden und Techniken vorgestellt, mit denen diese Ziele erreicht werden können. Da sich das Framework an Softwareentwickler richtet, die einen Usability Enginigeering Prozess integrieren wollen, werden zwar notwendige Ziele der Softwareentwicklung, aber nicht die Methoden und Techniken diese zu erreichen, vorgegeben, um einen etablierten Softwareentwicklungsprozess nicht zu sehr zu beeinflussen.
Das Ziel dieser Arbeit ist die Definition einer allgemeinen Aufgaben-beschreibungssprache, die nicht an einen einzelnen Roboter gebunden ist, sondern für alle möglichen Arten von Robotern einsetzbar ist. Dieses Ziel soll mit Hilfe der Robotic Task Definition Language erreicht werden. Die Robotic Task Definition Language (RTDL) ist eine Sprache, die an der Fachhochschule Köln im Rahmen des Instituts-übergreifenden Projektes Verteilte Mobile Applikationen (VMA)" entwickelt wird. Die Aufgabe der RTDL besteht darin, eine allgemein gültige Aufgabenbeschreibungssprache für unterschiedlichste Roboter zu definieren. Mit einer solchen Aufgabenbeschreibungssprache ist es möglich, die Steuerungssoftware verschiedener Roboter in einer einheitlichen Sprache zu beschreiben und in einem weiteren Schritt auch umzusetzen.
Die Dynamik des Social Webs motiviert zum Teilen nutzergenerierter Inhalte. Diese entstehen in zahlreichen Social Networks meist unter Missachtung der Schutzziele der IT-Sicherheit: Vertraulichkeit, Verfügbarkeit und Integrität von Nutzerdaten. Betreiber von Web-Anwendungen können Inhalte ihrer Nutzer einsehen, fälschen, löschen oder zu unbekannten Zwecken auswerten und verfügen über Wissen über Kommunikationspartner und -verhalten - ohne, dass sich Benutzer wirksam davor absichern könnten. Von dem im Grundgesetz verankerten Recht auf Privatsphäre ausgehend soll im Rahmen dieser Ausarbeitung eine neuartige Architektur zum Teilen nutzergenerierter Inhalte im Web entwickelt werden, die Benutzeranforderungen an die Erfüllung der Schutzziele der IT-Sicherheit vollständig gewährleistet und darüber hinaus durch eine bewusste Kommunikation dieser Qualität als vertrauenswürdig aufgefasst werden kann. In einem Goal-directed Design-Prozess wird eine Architekturskizze entwickelt, welche die im Prozess erarbeiteten Benutzeranforderungen durch die Bereitstellung zweier Web-Services erfüllt: Der Signed Content Storage adressiert als zuverlässiger und durch den Urheber autorisierter Web-Speicherort signierter, nutzergenerierter Inhalte die Schutzziele Verfügbarkeit und Integrität. In Kombination mit dem Identity Provider, der gesicherte Informationen von Urheber und Teilhabern zur Verfügung stellt, ist ein vertrauliches Teilen von Inhalten im Web möglich. Vertrauenswürdigkeit gewinnt diese Architektur durch konsequente Transparenz, Selbstbeschreibungsfähigkeit, externe Bewertbarkeit und der Dokumentationsfähigkeit von Nutzungserfahrungen.
Diese Arbeit versucht einen umfassenden Überblick über das gesamte luxemburgische Bibliothekswesen zu geben. Bisher kaum erforscht, wurde es meist auf einige spezifische Aspekte hin beleuchtet, jedoch noch nicht auf seine Gesamtentwicklung hin. In Ermangelung einer Universität oder sonstigen wissenschaftlichen Strukturen waren es kirchliche Träger, die die ersten Bibliotheksstrukturen aufbauten, seien es nun wissenschaftliche oder öffentliche. Doch sie wurden wie alle weiteren Bemühungen auch, immer wieder Opfer äußerer Einflüsse, die Luxemburg heimsuchten. Bis in die 1980er Jahre hinein hatten sich keine nennenswerten Systemstrukturen ausgebildet, die von Dauer waren. Heute, im 21. Jahrhundert, deuten sich neue Entwicklungen an, sowohl bei den öffentlichen wie bei wissenschaftlichen Bibliotheken. Die Gründung einer eigenen Universität sowie ein erstes Gesetz für öffentliche Bibliotheken haben vordergründig binnen eines Jahrzehnts enorme Bewegung in das luxemburgische Bibliothekswesen gebracht und Hoffnungen auf eine neue Blütezeit geweckt. Doch intern ist das Bibliothekswesen in Luxemburg so zersplittert wie selten zuvor.
Country rankings with respect to a country’s business environment draw strong international attention. Methods of business environment assessment differ, two competing methods will be described and compared with respect to their results for Rwanda in the years 2008-2010. They do not come to the same results regarding regulatory deficits and hence the demand for regulatory reform. When regulatory cost is considered, demand and supply of reforms are more in line than without cost considerations. The effectiveness of reforms undertaken in Rwanda varies. Based on interviews in late 2010, not all reforms were having the expected impact “on the ground”.
Die vorliegende Arbeit beschäftigt sich mit dem elektronischen Management von Bewerbungen und Bewerberinformationen im Kontext mittelständischer Unternehmen in Deutschland. Nach einer kurzen Einführung wird der Begriff Web 2.0 sowie die mit diesem einhergehenden Trends und Entwicklungen genauer beschrieben. Nachfolgend werden bestehende marktübliche Systeme für das Management von Bewerbungen miteinander verglichen. Nachdem ein Überblick über das Themenfeld gewonnen wurde, wird der Prozess des Bewerbermanagements selbst, sowie die damit verbundenen Aufgaben im Unternehmen erhoben und analysiert. Eine Befragung der involvierten Mitarbeiter, welche Unterstützung sich diese bei der Durchführung ihrer Aufgaben von einem System wünschen, rundet die Analyse ab. Die Frage, welche Kanäle, Informationsdarstellungen und Controllingmechanismen ein System bieten muss, um maximalen Mehrwert bei der Bewerberansprache und -auswahl bieten zu können, wird in Form eines Grobkonzeptes aufgegriffen. Die dort gesammelten Ideen werden dann in einem weiteren Schritt zusammengeführt, gruppiert und konkreten Modulen zugeordnet. Eine Realisierung ausgewählter Systemkomponenten sowie der Dokumentation des Entwicklungsprozesses schließt den Kernteil ab. Abgeschlossen wird die Arbeit mit einem Ausblick, welche weiteren Entwicklungsschritte möglich sind sowie mit einem Fazit, in dem persönliche Eindrücke während der Bearbeitung des Themas kurz skizziert werden.
Die Koordination von Großschadenslagen mit vielen Verletzten stellt die Verantwortlichen vor eine schwere Aufgabe. Gemeinsam mit anderen Partnern aus Wissenschaft und Industrie bearbeitet die Fachhochschule Köln das orschungsprojekt "Beherrschbarkeit von Katastrophenereignissen durch autonom vernetzte Sensoren (MANET)". Mit dem Ergebnis dieses Projekts soll die Koordination der Einsatzkräfte, der Fahrzeuge und des Materials verbessert werden, mit dem Ziel eine schnellere Patientenversorgung zu gewährleisten. Bisher existieren Prototypen des entwickelten Systems. Dieses wird in realitätsnahen Übungen, in denen Groÿschadenslagen dargestellt werden, von Einsatzkräften verwendet. Um die Anwenderfreundlichkeit des Systems zu ermitteln wurde eine Befragung konzipiert, mit der die Erfahrungen der Anwender nach der Übung ermittelt werden können. Im Vorlauf der Befragungserstellung wurden allgemeine Regeln zur Fragen- und Antwortgestaltung sowie Grundlagen zur Auswertung de niert. Die Befragung wird mithilfe eines elektronischen Befragungssystems durchgeführt, wodurch die Fragen und Antworten besondere Vorgaben zu erfüllen haben. Diese wurden bei der Erstellung der Fragen, zusätzlich zu den allgemeinen Regeln, berücksichtigt. Neben den Fragen wurden für die Befragung Umgebungsbedingungen de niert, die für eine erfolgreiche Durchführung notwendig sind. Gemeinsam mit den Fragen wurden diese Bedingungen in einem Fragebogen zusammengefasst, der den gesamten Ablauf der Befragung vorgibt. Durch diese Vorgabe ist eine Vergleichbarkeit von mehreren Befragungsdurchgängen gewährleistet.
In dieser Arbeit wird die Erstellung eines fachspezifischen Segments des kooperativ erstellten Navigations- und Schulungssystems LOTSE für das Fachgebiet Theologie dokumentiert. In einem ersten Teil, wird das Navigations- und Schulungssystem LOTSE vorgestellt. Im Zusammenhang mit den aktuellen Projektentwicklungen der Projektphase LOTSE II geht die Verfasserin auch auf die entstehende Virtuelle Fachbibliothek Theologie und Religionswissenschaften VirTheo ein. In einem zweiten Teil wird der Diskussionsstand zur fachspezifischen Vermittlung von Informationskompetenz in der Theologie skizziert und LOTSE mit vorhandenen Tutorials zu elektronischen Informationsmitteln der Theologie verglichen. In einem dritten Teil werden konzeptionelle Entscheidungen zur Erstellung des LOTSE-Fachsegments Theologie erläutert und ein Auswahlprofil für fachlich relevante Internetseiten formuliert. Anschließend wird die Erstellung selbst anhand von Beispielen dargestellt. Das Fachsegment ist online frei zugänglich unter http://lotse.uni-muenster.de/theologie.
Im Jahr 2007 wurden die „Ethischen Grundsätzen für Bibliotheks- und Informationsberufe“ in Deutschland verfasst. Es handelt sich hier um einen beruflichen Verhaltenskodex, der Richtlinien für angemessenes Verhalten für Bibliotheksbeschäftigte vorgibt. Die vorliegende Arbeit beschäftigt sich damit, aus welchen Gründen und in welchen Verfahren der Ethikkodex erstellt wurde. Weiterhin werden der Stand der Diskussion und die öffentliche Wahrnehmung des Kodexes innerhalb des deutschen Bibliothekswesens untersucht. Eine inhaltliche Analyse stellt fest, welche Kernaussagen innerhalb des Kodexes getroffen werden. Der deutsche Ethikkodex wird in Bezug auf Entstehung und Inhalt exemplarisch mit Ethikkodizes aus den USA und Estland verglichen. Dieser Vergleich ermöglicht es, Rückschlüsse darüber zu ziehen, inwieweit der Inhalt gelungen und der Entstehungsprozess nachvollziehbar ist und an welchen Stellen Überarbeitungsbedarf erkennbar ist.
In der Diplomarbeit wird dargestellt, wie von der rechtsextremen Szene die ersten Kontakte zu Jugendlichen hergestellt werden. Sie gliedert sich in zwei Teile: im theoretsichen Teil wird auf Grundlage wissenschaftlicher Erkenntnisse und Statistiken die Begrifflichkeit, die Gesetzesgrundlage, der historische Rückblick sowie die Rechtsextremismusdiskussion im Erftkreis dargestellt. Im nachfolgenden praktischen Teil wird am Beispiel von Interviews mit einigen Jugendlichen und Experten des Erftkreises dokumentiert, wie die Berührungen mit der rechtsextremen Szene entstehen und welche Auswirkungen diese für die Jugendlichen haben können.
Interaktive Systeme können ihre Nutzer bei der Erledigung alltäglicher Aufgaben, sowie beim Lernen unterstützen oder dienen der Unterhaltung. Sie können den Nutzer jedoch auch bei der Lösung eines bestimmten Problems unterstützen, wobei es sich hierbei häufig um sehr komplexe Probleme handelt. Diese lassen sich oftmals nicht klar definieren oder werden erst im Laufe der Entwicklung eindeutig identifiziert. Bei der Untersuchung der Probleme muss aufgrund ihrer Komplexität häufig multiperspektivisch vorgegangen werden, um möglichst alle Dimensionen potentieller Lösungen zu berücksichtigen. Eine Entwicklung in multidisziplinären Teams unter Einbeziehung der Kunden und zukünftiger Nutzer ist daher ratsam. Durch die multidisziplinäre Zusammensetzung von Entwicklungsteams können Kommunikations- und Verstädigungsschwierigkeiten auftreten, die sich aus der spezifischen Fachsprache der Domäne und individuellen Denkmustern ergeben. In dieser Arbeit wurde unter Berüksichtigung prozeduraler und kognitionspsychologischer Aspekte ein Ansatz entwickelt, um den Prozess der Problemlösung im Entwicklungsprozess zu unterstützen. Es wurde untersucht, inwieweit die Verwendung von Kreativitätstechniken in einem frühen Stadium des Entwicklungsprozesses zur Verbesserung des Verständnisses über die Aufgabe, sowie der Kommunikation zwischen den beteiligten Personen geeignet ist.
Motion capturing plays an important role in computer animation and combines many different fields of research in media engineering, such as camera calibration, marker detection via image processing and 3D reconstruction. Most professional motion capture systems are distributed proprietarily by a handful of companies and do not grant much insight into detailed workflows. The motivation for the project this thesis is based on was to autonomously develop a simpler, yet similar system, which would capture static poses of a puppet. This thesis points out the designing steps of this system and illustrates how many of the aforementioned aspects of motion capturing are answered using the example of the stop-motion capture system, thus building a basis for the comprehension of more complex systems.
Die Gebrauchstauglichkeit eines Produktes hat sich zu einem entscheidenden Qualitätskriterium in der Softwareentwicklung entwickelt. Neben den Nutzern erkennen auch immer mehr Organisationen den Mehrwert von gebrauchstauglichen Produkten, insbesondere die steigende Produktivität, die verbesserte Qualität und den damit verbunden Profit. In Praxis und Wissenschaft wird daher derzeit dem Wunsch nachgegangen, Usability Engineering und Software Engineering zu integrieren. In dieser Arbeit werden Standards der beiden Disziplinen in Bezug auf Aktivitäten und Artefakte analysiert, welche in einem ganzheitlichen Modell zur Integration von Usability Engineering und Software Engineering abgebildet werden sollen. So sollen mögliche Anknüpfungspunkte zwischen Aktivitäten und Artefakten aufgezeigt werden. Ziel ist die Evaluation dieses Modells anhand von Konformitäts- und Rahmenanforderungen, sowie durch eine Expertenbefragung.
Neben den bekannten Hyperlinks in Artikeltexten verfügt die Online-Enzyklopädie Wikipedia mit ihrem Kategoriensystem über ein weiteres Mittel zur Herstellung von Relationen zwischen Artikeln. Jeder Artikel ist einer oder mehreren Kategorien zugeordnet, die ihrerseits anderen Kategorien zugeordnet sind. Auf diese Weise entsteht eine systematische Ordnung von Artikeln und Kategorien. Betrachtet man nur die Artikel- und Kategoriennamen sowie diese Relationen, so stellt das Kategoriensystem ein gemeinschaftlich erstelltes Begriffssystem dar, das sämtliche von der Wikipedia abgedeckten Themenbereiche umfasst, jedoch -- technisch betrachtet -- ausschließlich hierarchische Relationen enthält. Aufgrund des Fehlens eines differenzierten Regelwerks zur Kategorisierung ist das Kategoriensystem derzeit jedoch inkonsistent, daneben sind, bedingt durch das Vorhandensein lediglich eines Relationstyps, viele Relationen wenig aussagekräftig. Dennoch besteht das Potenzial zur Schaffung eines stark und differenziert relationierten Begriffssystems aus dem bestehenden Kategoriensystem heraus. Die vorliegende Arbeit diskutiert die Anwendungsmöglichkeiten eines solchen Begriffssystems und die Option seiner gemeinschaftlichen Entwicklung aus dem bestehenden Vokabular des Kategoriensystems, mithin also der gemeinschaftlichen Relationierung von Begriffen anhand eines differenzierten Relationeninventars. Ausgehend von den Kategorien "Theater" und "Jagd" der deutschsprachigen Wikipedia wird ein hierarchisch strukturiertes Relationeninventar definiert, das sowohl spezifische als auch allgemeine Relationstypen enthält und damit die Möglichkeit zur Übertragung auf andere Gegenstandsbereiche bietet. Sämtliche Artikel- und Kategoriennamen, die unterhalb jener Kategorien erscheinen, werden unter Verwendung der neu entwickelten Relationstypen als Deskriptoren relationiert.
Die folgende Arbeit hat den Titel "Bibliotheksgebühren: Gebührenmodelle, Rahmen- bedingungen der Erhebung und Auswirkungen auf die Nutzung. Ein Vergleich verschiedener Öffentlicher Bibliotheken in Nordrhein-Westfalen." Ziel der Arbeit ist es herauszufinden, ob es Auswirkungen von Bibliotheksgebühren auf die Nutzung Öffentlicher Bibliotheken gibt, und wenn ja, welcher Art diese Auswirkungen sind. Abschließend sollen Empfehlungen zur Gestaltung eines Gebührenmodells gegeben werden. Es werden vorhandene empirische Erhebungen zu der Thematik ausgewertet, und eine Umfrage unter den Leitungen der Bibliotheken der Städte Dortmund, Düsseldorf, Bonn, Münster, Hamm, Witten und Hürth durchgeführt. Die verschiedenen Bibliotheken und ihre Gebühren-, bzw. Entgeltmodelle werden miteinander verglichen. Um die Ergebnisse der Umfrage bewerten zu können, werden die Städte außerdem anhand verschiedener Indikatoren vorgestellt.
Aquest recull conté poemes d´Aina Torrent escrits en llengua catalana durants els anys 2007 i 2008. Es tracta d´un volum quatrilingüe (català, castellà, alemany, romanès).
Die Begriffe iPhone und Blackberry stehen schon seit einiger Zeit für hochentwickelte Mobiltelefone mit einem großen Repertoire an Fähigkeiten. Neben diesen Geräten entwickelten diverse Hersteller weitere Smartphones und all diese finden eine immer größer werdende Zielgruppe. Mitverantwortlich für diesen Trend ist die Entstehung der verschiedenen Plattformen für „Apps“ oder Applikationen, die eine große Vielfalt an Erweiterungsmöglichkeiten für diese Geräte bieten. Diese Entwicklung sorgte für erste Entstehungen im Bibliotheksbereich. Beginnend mit einer Analyse der Möglichkeiten zur technischen Realisierung im ersten Teil, werden im zweiten Abschnitt bestehende Angebote vorgestellt und hinsichtlich ihres Nutzens analysiert. Weitere bearbeitete Aspekte stellen zukünftig denkbare Entwicklungen, den personellen und finanziellen Aufwand sowie Erkenntnisse aus einer E-Mail-Befragung dar.
Diese Arbeit befasst sich mit der Problematik der Zugriffe auf nachrichtenorientierte Kommunikationsdienste von mobilen Geräten. Da diese Kommunikationsdienste nicht dafür ausgelegt sind via Netzwerk zugänglich zu sein, sondern nur lokal in der gleichen virtuellen Maschine ausgeführt werden können, wird ein zusätzlicher Dienst entwickelt der diesen Zugriff möglich macht. Zusätzlich beinhaltet er die verarbeitende Komponente und fungiert somit als Schnittstelle. Es wird detailliert darauf eingegan- gen wie genau ein Lösungsansatz aussehen könnte, in Rücksichtnahme auf gewählte Softwarekomponenten. Eine Abwägung der jeweiligen Komponenten und Darstellung der Alternativen, sowie eine Diskussion des Problem- sowie Lösungsraums, gehen dem Ganzen voraus. Im Mittelpunkt der Arbeit steht die Verarbeitung der Anfragen und Weiterleitung an bestehende nachrichtenorientierte Systeme mittels Web Services, sowie ihre Darstellung. Somit wird die Funktionalität eines solchen Systems, in diesem Fall Java Message Service, genutzt um eine Kommunikation zwischen diversen Nutzern zu etablieren. Der Gedanke dabei ist, einen Nachrichtenaustausch zwischen diesen, mittels wohl definierter Schnittstellen, zu ermöglichen. Weiterhin wird die Funktion anhand einer prototypischen Implementation demonstriert und ein Ausblick gegeben in wie weit sich dieser Prototyp erweitern lässt um dem Gesamtkonzept zu genügen.
Mobile Systeme haben sich fest in den Alltag des Menschen in der westlichen Welt integriert. Sie helfen bei der Erledigung von Aufgaben der Benutzer und versuchen, deren Bedürfnisse bestmöglich zu erfüllen. Um dies zu erreichen, wurden verschiedene Lösungen entwickelt, dazu gehören kontextsensitive Anwendungen, die sich dadurch auszeichnen, dass sie ihr Verhalten nach den Belangen der Benutzer, bestimmt durch die jeweilige Situation, anpassen können. Zur Entwicklung solcher Anwendungen gibt es Rahmenwerke, um Problemen, bedingt durch die Komplexität dieses Bereiches, vorzubeugen und die Entwicklung zu erleichtern. Dabei spielt auch die Fähigkeit dieser Rahmenwerke, mehrere Anwendungen gleichzeitig zu bedienen, gerade bei steigender Popularität von kontextsensitiven Applikationen, eine entscheidende Rolle. Diese Arbeit beschäftigt sich mit der Konzeption und Umsetzung des Multiprozessbetriebes für kontextsensitive Anwendungen auf Basis eines bestehenden Rahmenwerkes. Innerhalb der Arbeit werden Anforderungen für den Multiprozessbetrieb ermittelt, auf deren Basis ein Konzept zur Erweiterung des Rahmenwerkes erstellt wird. Anhand des Konzeptes wird eine Implementierung des Rahmenwerkes auf der Android-Plattform durchgeführt, welche danach mittels der Durchführung eines Testszenarios mit mehreren Anwendungen evaluiert wird.