Refine
Year of publication
Document Type
- Master's Thesis (323)
- Article (149)
- Bachelor Thesis (142)
- Conference Proceeding (65)
- Report (53)
- Study Thesis (47)
- Working Paper (47)
- Book (29)
- Part of a Book (27)
- Other (11)
Language
- German (586)
- English (315)
- Multiple languages (2)
- Spanish (1)
Keywords
- Rückversicherung (66)
- Reinsurance (55)
- Versicherung (52)
- Kölner Forschungsstelle Rückversicherung (47)
- Versicherungswirtschaft (44)
- Sozialarbeit (24)
- Soziale Arbeit (20)
- Deutschland (19)
- Germany (19)
- Bibliothek (17)
Faculty
- Fakultät 10 / Institut für Informatik (154)
- Fakultät 03 / Institut für Informationswissenschaft (104)
- Fakultät 04 / Institut für Versicherungswesen (78)
- Fakultät 12 / Institut für Technologie und Ressourcenmanagement in den Tropen und Subtropen (72)
- Fakultät 07 / Institut für Medien- und Phototechnik (68)
- Fakultät 04 / Schmalenbach Institut für Wirtschaftswissenschaften (53)
- Angewandte Naturwissenschaften (F11) (45)
- Fakultät 10 / Advanced Media Institute (35)
- Fakultät 09 / Institut für Rettungsingenieurwesen und Gefahrenabwehr (30)
- Fakultät 07 / Institut für Nachrichtentechnik (26)
This market research paper has been prepared under the supervision of Prof. Dr. Wolfgang Veit of TH Köln and Prof. Dr. Carol Scovotti of University of Wisconsin-Whitewater in the course of the inter-university cross-border collaboration student research project “Export Opportunity Surveys (EOS)”. This study explores organic black tea export opportunities to the German and US markets.
This market research paper has been prepared under the supervision of Prof. Dr. Wolfgang Veit of TH Köln and Prof. Dr. Carol Scovotti of University of Wisconsin-Whitewater in the course of the inter-university cross-border collaboration student research project “Export Opportunity Surveys (EOS)”. This study explores organic/fair trade coffee export opportunities to the German and US markets.
This market research paper has been prepared under the supervision of Prof. Dr. Wolfgang Veit of TH Köln and Prof. Dr. Carol Scovotti of University of Wisconsin-Whitewater in the course of the inter-university cross-border collaboration student research project “Export Opportunity Surveys (EOS)”. This study explores organic coconut oil export opportunities to the German and US markets.
This market research paper has been prepared under the supervision of Prof. Dr. Wolfgang Veit of TH Köln and Prof. Dr. Carol Scovotti of University of Wisconsin-Whitewater in the course of the inter-university cross-border collaboration student research project “Export Opportunity Surveys (EOS)”. This study explores organic canned tomatoes export opportunities to the German and US markets.
The topic for the thesis originated from the CAP4ACCESS project run by the European Commission and its partners, which deals towards the sensiti-zation of people and development of tools for awareness about people with movement disabilities. The explorative analysis is never ending and to explore and find interest-ing patterns and the results is a tedious task. Therefore, a scientific approach was very important. To start with, familiarizing the domain and the data sources were done. Thereafter, selection of methodology for data analysis was done which resulted in the use of CRISP-DM methodology. The data sources are the source of blood to the analysis methodology, and as there were two sources of data that is MICROM and OSM Wheelchair History(OWH), it was important to integrate them together to extract relevant datasets. Therefore a functional and technically impure data warehouse was created, from which the datasets are extracted and analysed.The next task was to select appropriate tools for analysis. This task was very important as the data set although was not big data but con-tained a large number of rows. After careful analysis, Apache spark and its machine learning library were utilized for building and testing supervised models. DataFrame API for Python, Pandas, the machine learning library Sci-kit learn provided unsupervised algorithms for analysis, the association rule analysis was performed using WEKA. Tableau[21] and Matplotlib[24] provide attractive visualizations for representation and analysis.
An empirical evaluation of using the Swift language as the underlying technology of RESTful APIs
(2016)
The purpose of the current thesis is to determine the appropriateness of using the Swift language as the underlying technology for the development of RESTful APIs in a Linux environment. The current paper describes the process of designing, implementing and testing individual RESTful API components based on Node.js, PHP, Python and Swift and seeks to determine whether Swift is a viable alternative.
The thesis begins by defining a methodology for implementing and testing individual RESTful API components based on Node.js, PHP, Python and Swift. It then proceeds to detail the implementation and testing processes, following with an analytic discussion regarding the advantages and drawbacks of using the Swift language as the underlying technology for RESTful APIs and server-side Linux-based applications in general.
Based on the implementation process and on the results of the previously mentioned evaluation phase, it can be stated that the Swift language is not yet ready to be used in a production environment. However, its rapid evolution and potential for surpassing its competitors in the foreseeable future make it an ideal candidate for implementing RESTful APIs to be used in development environments.
Der erste Teil dieser Arbeit gibt einen Überblick über die Themenfelder der modellgetriebenen Softwareentwicklung und der objektrelationalen Abbildung. Durch eine Kombination dieser beiden Themen wird schließlich der Begriff der modellgetriebenen O/R-Mapping-Frameworks definiert und näher erläutert. Im zweiten Teil bestätigt ein Vergleich von drei dieser Frameworks (Bold for Delphi, MDriven sowie Texo mit EclipseLink) die Vor- und Nachteile des modellgetriebenen Ansatzes auch in Bezug auf die Persistenz. Der Vergleich macht außerdem deutlich, was aktuell in der Praxis möglich ist (und was nicht) und in welchem Umfang Standards genutzt werden (insbesondere MDA und UML). Daneben werden auch die Schwächen in diesem Bereich aufgezeigt. Abschließend gibt es eine kurze Bewertung der Frameworks, auch im Hinblick auf mögliche Anwendungsszenarien.
Um einen zuverlässigen kontext-sensitiven Sicherheitsdienst bereitzustellen, ist die Vollständigkeit des zur Bewertung genutzten Sicherheitskontextes von wesentlicher Bedeutung. Der Anwendungskontext leistet dazu einen fundamentalen Beitrag. Aufgrund der fehlenden Interpretationslogik ist allerdings der Anwendungskontext von aussen nicht ermittelbar. Die Integration einer den Sicherheitsdienst unterstützenden Komponente in die Anwendung schafft hierzu auf zweierlei Weise Abhilfe. Sie stellt Anwendungskontextinformationen zur Verfügung und gewährleistet effektiv eine kontext-sensitive Sicherheitsadaption.
This thesis focuses on the identification of influential users, also known as key opinion leaders, within the social network Instagram. Instagram is a very popular platform to share images with the option to categorise the images by certain tags. It is possible to collect public data from Instagram via the open API of the platform.
This thesis presents a concept to create an automated crawler for this API and col- lect data into a database in order to apply algorithms from graph theory to identify opinion leaders afterwards. The sample topic for this thesis has been veganfood and all associated posts from Instagram have been crawled.
After the user data has been crawled a graph has been created to do further research with common social network analysis tools. The graph contained a total set of more than 26,000 nodes.
To identify opinion leaders from this graph, five di↵erent metrics have been applied, in particular PageRank, Betweenness centrality, Closeness Centrality, Degree and Eigen- vector centrality. After applying the di↵erent algorithms the results have been eval- uated and additionally an marketing expert with focus on social media analysed the results.
This project was able to figured out that it is possible to find opinion leaders by using the PageRank algorithm and that those opinion leaders have a very good value of en- gagement. This indicates that they show a high interaction with other users on their posts. In conclusion the additional research options are discussed to provide a future outlook.
Ziel der Arbeit war es, den Nutzen der Google Glass im Alltag und ihr Potenzial als AR-Brille ( Augmented Reality ) aufzuzeigen. Mit der Arbeit wurde ein ortsbasierter AR Ansatz vorgestellt, der innerhalb von Gebäuden zum Einsatz kommt. Als Beispielszenario diente die AR-basierte Navigation innerhalb des Gebaudes der TH Köln. Hierbei wurde ein Umgebungsmodell in Form eines Regular Grids konstruiert, welches eine diskrete Positionsbestimmung im Raum erlaubt. Ferner wurden verschiedene Verfahren zur Positionsbestimmung innerhalb von Gebäuden gegen übergestellt und deren Vor- und Nachteile evaluiert. Hierbei wurden die Erkenntnisse gewonnen, dass die Positionsbestimmung mittels LLA Markern die höchste Stabilität, jedoch die geringste Kontinuität aufweist, da Marker zunächst erkannt werden müssen, bevor die Position bestimmt werden kann.
Die Bachelorarbeit befasst sich mit der Verwendung der NoSQL Datenbank Apache Cassandra. Dabei werden auf der einen Seite die Unterschiede bei Verwendung und Betrieb von Apache Cassandra im Vergleich mit relationalen SQL Datenbanken und auf der anderen Seite die Aspekte Geschwindigkeit, Ausfallsicherheit und Wiederverwendbarkeit untersucht. Die Verwendung und der Betrieb wird dabei durch die Umsetzung eines Datenimports, damit verbunden ist die Erstellung von entsprechenden Datenmodellen, und der Bereitstellung der Daten für die Darstellung von mobilen Statistiken in Form einer Android App untersucht. Für die Untersuchung der Geschwindigkeit, Ausfallsicherheit und Wiederverwendbarkeit werden zusätzlich zu den durch bereits durch die Umsetzung erhaltenen Ergebnissen noch an den jeweiligen Aspekt angepasste Belastungstest durchgeführt.
The utilization of roadside-green-cuttings (grass) for anaerobic digestion increases provides an additional possible source of organic waste for use as a renewable energy source. Grass can be used as a substrate to increase biogas yield. Nevertheless, the anaerobic digestion of this kind of waste can be limited due to the fact that it could be contaminated with heavy metals, in particular from traffic emissions and industrial activity. For this reason the biogas production of grass from a busy road was assessed. Samples of roadside-grass were washed with an organosulphide, which is used for the removal of heavy metals from wastewater.
A comparison of the anaerobic digestion of washed and unwashed roadside grass was performed. Results showed that the anaerobic digestion of the unwashed grass was much more effective than the washed grass. A second experiment was carried out and co-fermentation of manure and farm-grass was prepared for anaerobic digestion. Lead was added in the concentrations 500, 1000 and 2000 mg Pb2+/kg. The results showed that the higher the lead concentration, the lower the inhibition of the biogas yield. The grass could be acting as phytoremediator for high lead concentrations. The grass could contain organic compounds, which can as-similate heavy metals.
Anaerobic Digestion of spent grains: Potential use in small-scale Biogas Digesters in Jos, Nigeria
(2014)
In order to ascertain biogas yield potential and applicability of spent grains (SG)1 in small-scale biogas production, laboratory batch fermentation was performed with various masses of dry and wet SG using sewage sludge (SS)2 and digested maize silage (DMs) 3 as inoculums. Different volumes of biogas and CH4 were measured with higher volumes observed for batch fermentation with DMs in com-parison to those produced by SS. Results from the study reveals minimum biogas yield of 118.10 L/kg
VS and maximum yields of 769.46 L/kg VS, which are indicative of the possible use of SG for domestic biogas production in Jos, Nigeria. The study established the fact that the use of both dry and wet SG results in the yield of a useful amount of biogas having 40 - 60 % CH4 content depending on the inoculum and amount of volatile solids present. Using the parameters of dry matter and volatile solids contents analysed for SG and DMs, it was estimated that a reactor volume of 6.47 m3 would be capable of meeting the daily cooking needs of rural households in Jos, Nigeria.
An den wirtschaftswissenschaftlichen Fakultäten der Technischen Hochschule Köln (TH Köln) und der Hochschule Bonn-Rhein-Sieg (HBRS) sind im Verlauf des Jahres 2013 Befragungen zu nachhaltigen, zertifizierten Lebensmitteln durchgeführt worden. Ziel war es, die Bedeutung von Fairtrade und Bio auf der Basis von Konsumenteneinschätzungen zu analysieren. Dazu wurden Wahrnehmung, Bekanntheitsgrad und Vertrauen, Kaufverhalten, Zahlungsbereitschaft sowie Glaubwürdigkeit gegenüber Fairtrade- und Bio-Produkten abgefragt. Der Kreis der Befragten umfasste die Gruppe der Studierenden, Mitarbeiter/innen und Professor(inn)en. Darüber hinaus konnten Differenzierungen nach Geschlecht, Einkommen und Alter vorgenommen werden. Die Ergebnisse zeigen unter anderem eine Skepsis – hier insbesondere bei der Gruppe der Studierenden – gegenüber der Glaubwürdigkeit bekannter Fairtrade- und Bio-Siegel. Dabei ist das Misstrauen gegenüber den Aussagen des Bio-Siegels deutlich stärker ausgeprägt. Bezüglich der Kaufbereitschaft und dem tatsächlichen Verhalten ist das Phänomen des attitude behaviour gap zu beobachten. Die Befragten halten Fairtrade zwar für unterstützenswert, drücken ihre Einstellung aber nicht in ihrem tatsächlichen Verhalten aus. Die Befragung zeigt, dass häufig Unklarheit über die inhaltlichen Aspekte der Faitrade- und Bio-Siegel besteht. Insbesondere mehr Aufklärung (Bewusstseinsbildung) und eine größere Transparenz des Fairtrade-Systems könnten hier entgegenwirken und dazu beitragen, dass Einstellungen sich auch in tatsächlichem Handeln widerspiegeln.
Der verantwortungsvolle Konsument – Einstellungen von Wirtschafts- und Sozialwissenschaftlern
(2015)
An den wirtschaftswissenschaftlichen Fakultäten der Technischen Hochschule Köln (TH Köln) und der Hochschule Bonn-Rhein-Sieg (HBRS) sind im Verlauf des Jahres 2013 Befragungen zu nachhaltigen, zertifizierten Lebensmitteln durchgeführt worden. Ziel war es, die Bedeutung von Fairtrade und Bio auf der Basis von Konsumenteneinschätzungen zu analysieren. Dazu wurden Wahrnehmung, Bekanntheitsgrad und Vertrauen, Kaufverhalten, Zahlungsbereitschaft sowie Glaubwürdigkeit in Bezug auf Fairtrade- und Bio-Produkte abgefragt. Der Kreis der Befragten umfasste die Gruppe der Studierenden, Mitarbeiter/innen und Professor(inn)en. Darüber hinaus konnten Differenzierungen nach Geschlecht, Einkommen und Alter vorgenommen werden. Die Ergebnisse sind in der Reihe „Forum NIL“ veröffentlicht worden. In der vorliegenden Studie sollte untersucht werden, ob Sozialwissenschaftler ein verantwortungsvolleres Konsumentenverhalten aufweisen als Wirtschaftswissenschaftler. Aus diesem Grunde, wurde die gleiche Befragung an der Fakultät für Sozialwissenschaften der TH Köln durchgeführt. Ein Vergleich der Befragungsergebnisse zeigte einerseits, dass Studierende, Mitarbeiter/innen und Professor(inn)en in den Sozialwissenschaften ein teilweise höheres Verantwortungsbewusstsein aufweisen. Dies gilt insbesondere in Bezug auf das bewusste Achten auf nachhaltige Produkte, die Zahlungsbereitschaft und den tatsächlichen Kauf von Fairtrade- und Bio-Produkten. Allerdings war auch bei den Befragten der Fakultät für Wirtschaftswissenschaften ein durchaus verantwortungsvolles Konsumentenverhalten erkennbar. Darüber hinaus konnte der generelle Vorwurf, dass sich eine Ökonomieausbildung negativ auf die Einstellung zu einem verantwortungsvollen Handeln auswirkt, anhand der Studienergebnisse nicht bestätigt werden. Vielmehr zeigte sich, dass nahezu keine Unterschiede zwischen den Antworten der Studienanfänger und Studierender höherer Semester an der Fakultät für Wirtschaftswissenschaften feststellbar waren.
Bei der Zusammenarbeit zwischen Menschen kommt immer häufiger auch unterstützende Software zum Einsatz. Diese Kollaborationswerkzeuge werden oftmals in Form von Webapplikationen im Browser realisiert. Webapplikationen bieten entscheidende Vorteile, darunter eine einfache Einrichtung und kaum notwendige Konfiguration. Sie müssen nicht fest auf dem System eines Nutzers installiert werden und haben daher eine niedrigere Einstiegshürde, was vor allem bei spontaner Zusammenarbeit wichtig ist. Gleichzeitig stehen viele Menschen Webapplikationen kritisch gegenüber, vor allem weil bei ihrer Nutzung Daten auf zentralen Servern verarbeitet und gespeichert werden, die in der Regel nicht unter der Kontrolle des Nutzers stehen.
Neue Webtechnologien, wie WebRTC und IndexedDB, ermöglichen es Webapplikationen, Daten über eine direkte Verbindung untereinander auszutauschen und lokal zu speichern. Daraus ergibt sich das Potential, die Abhängigkeit von zentralen Servern zu reduzieren und somit einige Nachteile von Webapplikationen aufzuheben. Die vorliegende Arbeit untersucht die Machbarkeit von Kollaborationsanwendungen für die lokale Zusammenarbeit auf der Grundlage dieser neuen Webtechnologien. Basierend auf vorher in einer Kontextanalyse erhobenen Kriterien, wird eine Softwarearchitektur für eine Kollaborationsplattform im Webbrowser entworfen, die in weiten Teilen auf zentrale Infrastruktur verzichten kann. Anhand einer prototypischen Implementierung dieser Architektur wird ein Nachweis für die generelle Machbarkeit des Konzepts erbracht und es werden Herausforderungen bei dessen Realisierung identifiziert.
Das Internet birgt schier endlose Informationen. Ein zentrales Problem besteht heutzutage darin diese auch zugänglich zu machen. Es ist ein fundamentales Domänenwissen erforderlich, um in einer Volltextsuche die korrekten Suchanfragen zu formulieren. Das ist jedoch oftmals nicht vorhanden, so dass viel Zeit aufgewandt werden muss, um einen Überblick des behandelten Themas zu erhalten. In solchen Situationen findet sich ein Nutzer in einem explorativen Suchvorgang, in dem er sich schrittweise an ein Thema heranarbeiten muss.
Für die Organisation von Daten werden mittlerweile ganz selbstverständlich Verfahren des Machine Learnings verwendet. In den meisten Fällen bleiben sie allerdings für den Anwender unsichtbar.
Die interaktive Verwendung in explorativen Suchprozessen könnte die menschliche Urteilskraft enger mit der maschinellen Verarbeitung großer Datenmengen verbinden.
Topic Models sind ebensolche Verfahren. Sie finden in einem Textkorpus verborgene Themen, die sich relativ gut von Menschen interpretieren lassen und sind daher vielversprechend für die Anwendung in explorativen Suchprozessen. Nutzer können damit beim Verstehen unbekannter Quellen unterstützt werden.
Bei der Betrachtung entsprechender Forschungsarbeiten fiel auf, dass Topic Models vorwiegend zur Erzeugung statischer Visualisierungen verwendet werden. Das Sensemaking ist ein wesentlicher Bestandteil der explorativen Suche und wird dennoch nur in sehr geringem Umfang genutzt, um algorithmische Neuerungen zu begründen und in einen umfassenden Kontext zu setzen. Daraus leitet sich die Vermutung ab, dass die Verwendung von Modellen des Sensemakings und die nutzerzentrierte Konzeption von explorativen Suchen, neue Funktionen für die Interaktion mit Topic Models hervorbringen und einen Kontext für entsprechende Forschungsarbeiten bieten können.
Die „E-Mail“ als elektronisches Kommunikationsmittel begeistert seither Marketing- experten, da sie das Medium zur Verbesserung der Kundenkommunikation nutzen. Mittlerweile ist davon auszugehen, dass deutschlandweit jedes Unternehmen über einen Internet-Zugang verfügt und die E-Mail als Kommunikationsmittel nutzt. Die E-Mail ist somit fest im Marketing verankert. Dabei durchläuft der Prozess des E- Mail-Marketings einen Kreislauf mit einzelnen Elementen, die schließlich zu einem erfolgreichen Einsatz eines Newsletters führen sollen. Trotz allem gibt es eine Viel- zahl an Unternehmen, die bis heute nicht mit dem E-Mail-Marketing vertraut sind. Die Möglichkeiten und Chancen durch den Einsatz dieses wirkungsvollen Marke- tinginstruments werden demnach außer Acht gelassen. In der vorliegenden Arbeit werden unter anderem die wichtigsten Vorteile aufgezeigt, die sich durch den Einsatz eines Newsletters ergeben. Besonders klein- und mittelständische Unternehmen ha- ben oftmals weder die Zeit noch die Möglichkeit sich mit den Herausforderungen und praktischen Fragestellungen auseinanderzusetzen. Für die erfolgreiche Implementie- rung ist nicht nur eine systematische Arbeit mit vielen verschiedenen Teilaspekten notwendig, sondern auch die Berücksichtigung der Anforderungen, insbesondere der rechtlichen Grundlagen. Wer sich also auf unbekanntes Terrain begibt, sollte sich gründlich informieren und absichern.
Die vorliegende Arbeit stellt einen übersichtlichen Leitfaden, der als Hilfestellung für den Einsatz von Newslettern dient. Dabei werden unterschiedliche Verfahren und Maßnahmen zur Generierung von E-Mail-Adressen dargestellt, damit ein sauberer Datenbestand garantiert werden kann. Außerdem wird auf typische Fehlerquellen eingegangen, die vermieden werden können. Es werden die Anforderungen detailliert aufgestellt und dienen als Richtlinie.
Des Weiteren befasst sich die vorliegende Arbeit mit der Entwicklung von alternati- ven Lösungsansätzen unter Berücksichtigung von Annahmen für den Versand eines Newsletters. Die Zielsetzung resultiert aus der Fragestellung, warum der Versand von Newslettern stärker gesetzlichen Auflagen obliegt als der Briefkastenwerbung. Betrachtet man die Daten des statistischen Bundesamtes stammen unerwünschte Newsletter nicht aus Deutschland, sondern aus Ländern, die in diesem Bereich deut- lich weniger gesetzlich geregelt sind.
Die Menge an Informationen steigt seit Jahren immer weiter an. Dies lässt sich auch leicht an der Entwicklung der Speichermedien feststellen. So bot die erste 5,25-Zoll Festplatte, eine Seagate ST- 506, lediglich 5 MB Speicherkapazität. Heutige 3,5-Zoll Festplatten verfügen hingegen über bis zu 8 TB Speicherkapazität und werden ebenso ausgenutzt wie ihre Vorgänger aus der Anfangszeit der Magnet-festplatten. Zusätzlich geht die Tendenz dorthin, alle Daten jederzeit zur Verfügung zu haben. Sei es daheim am Rechner, auf der Arbeit oder per Tablet oder Smartphone unterwegs, dank der immer mehr verbreiteten Cloud-Speicher stehen die Daten jederzeit zur Verfügung. Mit dem enormen Zuwachs an Dateien und auch an Dateiformaten wird es jedoch immer schwieriger, diese Masse zu überblicken und bestimmte Inhalte in annehmbarer Zeit wiederzufinden. Beispiels- weise hostet der Internetdienst Flikr die schier unüberschaubare Menge von über 6 Milliarden Bilder. Doch nicht nur die großen Servicedienstleister besitzen große Datenmengen, auch Einzelpersonen haben derweil große Musik- und Bildsammlungen, zumal jedes aktuelle Smartphone über eine Kamera verfügt. Jeder ist somit praktisch zu jeder Zeit in der Lage, ein Foto in hochauflösender Qualität zu schießen und direkt in seine Cloud hochzuladen. Diese Datenmengen manuell zu ordnen, erfordert einen sehr hohen Aufwand, den nicht alle Menschen gewillt sind zu leisten. Vor allem am Smartphone geht dieses Benennen und Einsortieren aufgrund der vorhandenen Technik nicht so leicht von der Hand. In der Praxis sammeln sich die Aufnahmen mit der Zeit immer weiter an und letztlich befinden sich mehrere hundert wenn nicht gar tausend Bilder in einem Ordner, welche sich namentlich meist nur durch eine fort- laufende Nummer unterscheiden. Diesen Umstand Rechnung tragend, treten Metainfor-mationen immer mehr in den Vordergrund. So speichern die zuvor genannten mobilen Alleskönner meist viele informative Daten mit in den Bilddateien ab. Beispielsweise kann dank der eingebauten GPS-Module der Ort der Aufnahme aus den Bildern ausgelesen werden. Die Dienstleister für Cloud-speicher nutzen diese Informationen jedoch nur marginal aus und bieten dem Endanwender kaum Unterstützung bei der Suche nach be- stimmten Inhalten, wie etwa beim OX Drive, der Cloudlösung der Firma Open-Xchange.
Die vorliegende Master Thesis zeigt, wie dieser Cloud-Speicher, welcher in die Hauseigene OX App Suite integriert ist, um sogenannte Smartfeatures erweitert werden kann. Diese Smartfeatures sollen dem Endan-wender helfen, die Daten einfacher – wenn nicht gar automatisch – zu ordnen und somit leichter bestimmte Inhalte wiederzufinden. Kernthema dieser Arbeit ist daher die auto- matische Extraktion von unterschiedlichen Metadaten aus diversen Dateiformaten. Des Weiteren wird gezeigt, wie diese Daten effizient gespeichert und abgefragt werden können. Die Thesis stellt hierzu den Document Store Elasticsearch vor und vergleicht diesen mit seinem Konkurrenten Apache Solr.
Im Zusammenhang mit dem Begriff Big Data können nicht nur immer größere Datenmengen verarbeitet werden, sondern auch neue Arten von Datenquellen genutzt werden. Insbesondere Web 2.0-Inhalte bieten dabei vielfältige Potenziale.
So können beispielsweise mit Hilfe einer Sentiment-Analyse Meinungen und Stimmungen zu Produkten und Unternehmen in sozialen Netzwerken beobachtet werden. Diese Infor-mationen sind für sich gesehen bereits wertvoll für viele Unternehmen. Jedoch ist eine effiziente Analyse und Auswertung der Informationen nur in Kombination mit weiteren Unternehmensdaten möglich, die typischerweise in einem Data Warehouse liegen. Diese Arbeit diskutiert die Unter-schiede, Möglichkeiten und Herausforde-rungen diese Kombination zu realisieren. Veranschaulicht wird dies durch einen Show-Case, der eine Ende-zu-Ende-Umsetzung
am Beispiel der Fernsehsendung Tatort zeigt. Dabei werden Zuschauerkommentare
aus Twitter extrahiert, mit einer Sentiment-Analyse bewertet und schließlich in einem Data Warehouse ausgewertet. Dabei können klassische BI-Kennzahlen, wie beispiels- weise Einschaltquoten, Folgen pro Ermittler etc. den Ergebnissen der Sentiment-Analyse gegenübergestellt werden.
Die Veröffentlichung stellt einen Abriss zur Geschichte der Kölner Architekturfakultät dar. Außerdem sind von den ca. 200 identifizierten Architekturlehrern 59 Dozenten sowohl durch eine Kurzbiographie als auch durch ihre wichtigsten Bauten bzw. künstlerischen Werke genauer vorgestellt. Als Abspann dient ein historischer Abriss zur Ausbildung von Architekten (von Vitruv bis heute).
Das Ziel dieser Arbeit ist es, einen generellen Überblick über die Zahlungsmittel und die Entwicklungen des Mobile-Payment zu gewinnen. Mit Hilfe diesen Überblicks und der Analyse des Kundenverhaltens als Grundlage zur Berechnung der monetären Auswirkungen in der Bargeldver- und Entsorgung konnten die Sparpotenziale eine Retailers in der Bargeldversorgung aufgezeigt werden.
The effects of global warming, the depletion of non-renewable resources, the loss of biodiversity and a growing population, has affected nature and humanity over the past decades. Unless we change course in how we produce and consume, severe consequences for life on this Planet in the future are likely to follow. Based on that background, this paper looks at one area of consumption, namely food, and analyses a particular market within this area which causes high environmental pressures, i.e. the meat market. After having laid the theoretical foundation of sustainable consumption, an overview of the problems arising in the food sector in general and the meat market in particular is given. An in-depth analysis of the consumption of meat in one country, namely Germany, follows. Germany has been chosen as an exemplary for a country showing an excessive consumption of meat. This contributes to the problems linked to the meat market. The past development of the consumption of meat is evaluated and forms the basis for predicting a possible development of meat consumption in Germany until 2025. Based on the findings, conclusions are drawn about a possible trend towards sustainable consumption in the German meat market.
Die neusten Fortschritte im Bereich Real Time Rendering ermög-lichen virtuelle Produktionsabläufe in weiten Teilen der Industrie. Diese Vorgehensweise setzt latenzfreies Arbeiten und eine akkurate Erscheinung voraus. Daher empfiehlt sich die Verwendung von HDR-Rendering für fotorealistische Ergebnisse und Tone Mapping für die passende Darstellung.
Gleichwohl gibt es bisher nur wenige Publikationen, die sich mit echtzeitfähigem Tone Mapping beschäftigen. Zudem tendieren Tone Mapping Operatoren dazu, Farberscheinungseffekte zu erzeugen, die zu einer Diskrepanz zwischen dargestelltem und realem Produkt führen.
Deshalb werden in dieser Thesis sieben Tone Mapping Operatoren bewertet, die unterschiedliche Ansätze zur Farbkorrektur beinhalten. Sie werden als Fragment Shader implementiert, um Echtzeitverarbeitung zu realisieren. Zusätzlich wird ihre Performance und die subjektive Akkuratesse der Ergebnisse gemessen.
Im Ergebnis schneidet der FilmicTMO als global arbeitender Sigmoid-Operator am besten ab und wird für die weitere Verwendung empfohlen.
Der vorliegende Bericht ist ein ökonomischer Vergleich
verschiedener Varianten der Überschussschlamm
(ÜSS)-Verwertung der Sickerwasseranlage
auf der Deponie des Entsorgungszentrums Leppe
mit dem aktuellen Entsorgungsweg. Als Vergleichsparameter
werden die Jahresvollkosten herangezogen.
Der derzeitige Entsorgungsweg über die kommunale
Kläranlage wird hierbei als Basisvariante
betrachtet und mit alternativen Behandlungs- und
Verwertungsmöglichkeiten verglichen. Hierbei werden
verschiedene Varianten mit unterschiedlichen
Ausführungen der Komponenten Lagerung, Entwässerung,
Trocknung, Transport und Verbrennung
gegenübergestellt.
In der vorliegenden Arbeit wurde eine HPLC-Methode mit der dazugehörigen Probenvorbereitung entwickelt, welche es ermöglicht Essigsäure und Acrylsäure in komplexen Matrizes wie Deponiesickerwasser zu bestimmen. Hauptaugenmerk lag dabei auf der Matrixreduzierung, die bei 96 % lag. Die Wiederfindung der Analyten Essigsäure und Acrylsäure liegt bei der beschriebenen Methode bei ca. 100 %.
Biogas, mit geringen Konzentrationen an Methan, entsteht unter anderem bei verschiedenen industriellen Prozessen. Wegen der Umweltschädlichkeit des Methans gilt es dessen Eintrag in die Umwelt zu vermeiden.
Das Ziel des vorgestellten Projektes war die Überprüfung eines umweltfreundlichen Verfahrens zur Reduzierung des Methans durch methanotrophe Bakterien. Die einzelnen Batchversuche liefen über 15 Stunden und zeigten eine starke Reduzierung des Methans von 18 auf 1 Vol.-%.
Messverfahren zur Erfassung der potenziellen Ökotoxizität in anaeroben und aeroben Abbauprozessen
(2014)
In der vorliegenden Ausarbeitung werden die etablierten Verfahren zur Bestimmung der Ökotoxizität erläutert, mit dem Ziel weitere Bioaktivitätsparameter zur Charakterisierung der biologischen Prozesse bei der Forschungsgemeinschaft :metabolon zu integrieren.
Die Erfassung der Toxizität beruht bei den vorgestellten Methoden auf der Messung der Lumineszenz, der Sauerstoffverbrauchsrate oder der Zellzahl. In Abhängigkeit von den Eigenschaften der Schadstoffe sowie der biologischen Betriebsbedingungen der Behandlungsstufen ist die Auswahl der bestmöglichen Methode erforderlich.
Mit Einführung der Deponieverordnung 2005 endete die Deponierung nicht-inerter Stoffe und biologisch aktiver Spezies. Im Zuge ihrer Durchsetzung traten neue Behandlungsmöglichkeiten dieser Stoffströme in das Zentrum der Betrachtung. Zu diesen Behandlungsmethoden zählt die anaerobe biologische Behandlung. Sie findet vor allem bei stark organisch geprägten Stoffströmen mit hohen Wassergehalten Anwendung (Kaltschmitt et al. 2009). Im Zuge der anaeroben Behandlung werden organische Kohlenstoffverbindungen hauptsächlich in CO2 und CH4 umgesetzt. Die anaerobe Behandlung reduziert so den organischen Anteil und das Volumen des Gärsubstrates. Im Gegenzug steigt der Wasseranteil des Gärsubstrates durch die Freisetzung von Zellwasser an. Verbindungen aus Phosphor und Stickstoff verbleiben im Gärsubstrat und machen es damit zu einem geeigneten Düngemittel für die Landwirt-schaft (Möller et al. 2009). Das Material unterliegt der Düngemittelverordnung, durch welche sowohl die Ausbringung als auch die Ansprüche an dessen Beschaffenheit geregelt werden. Um den anfallenden Gärrest für die Landwirtschaft nutzen zu können, muss daher eine Möglichkeit zur mittelfristigen Lagerung geschaffen werden (Raussen et al. 2008). Über das Verhalten im Zeitraum dieser Lagerung gibt es bisher nur wenige Untersuchungen. Grund hierfür ist vor allem die hohe Diversität des Presswassers. Dessen Eigenschaften werden durch die Betriebsparameter der Biogasanlage bestimmt und unterscheiden sich so deutlich von Anlage zu Anlage.
Die hier dargestellten Arbeiten sind Teil eines Forschungsvorhabens zur Untersuchung des Lagerungsverhaltens von Presswasser aus der Vergärungs- und Kompostierungsanlage Leppe. Diese verfügt über zwei Lagerungsbehälter mit einem Fassungsvermögen von je 3.500 m³. Bereits im Zuge der Planung wurde ein anaerober und aerober Betrieb vorgesehen. Neben den drei Rührwerken, mit denen die Durchmischung des Presswassers gewährleistet wird, sind zwei Injektionsbelüfter installiert.
Ziel der Untersuchungen war es, eine Datengrundlage zu schaffen, aufgrund derer über die Betriebsweise der Presswasserspeicher entschieden werden kann.
Für einen aktiven Gewässerschutz ist es sinnvoll,
Immissionen aus Kläranlagen und Kanalsystemen
in einem Gesamtkonzept zu betrachten und somit
das Abwasserabflusssystem ganzheitlich zu bewirtschaften.
Schließlich belasten diese Einleitungen
die Gewässer sowohl in hydraulischer wie auch in
stofflicher Hinsicht.
Die gewonnenen Erfahrungen aus fünfjähriger Forschungsarbeit
stellen die Grundlage für einen erfolgreichen
Technologietransfer auf weitere Kanal und
Kläranlagen-Systeme dar. Dies ist ein wesentliches
Ziel des wissenschaftlichen Netzwerkes, das
im Rahmen von :metabolon aufgebaut wird.
Die Messung des Chemischen Sauerstoffbedarfs (CSB) im Zulauf von Kläranlagen ist von zentraler Bedeutung für die Optimierung und Regelung der Abbauprozesse der Nitrifikation und Denitrifikation. Allerdings ist die Messung des CSB bislang sehr zeitaufwändig und kostenintensiv, da 24-Stunden Mischproben im Labor nasschemisch analysiert werden müssen.
Online-Messtechnik in Form von spektroskopischen Messgeräten (10.000 ̶ 20.000 €) oder nass-chemischen Online-Analysatoren (> = 50.000 €) sind insbesondere für kleine und mittlere Kläranlagen aus Kostengründen keine Alternative.
Eine extrem kostengünstige Alternative ist der im Folgenden beschriebene Softsensor für CSB im Kläranlagenzulauf, der auf Basis von Standardmesstechnik im Zulauf von kleinen und mittleren kommunalen Kläranlagen sowie mit zusätzlicher Online-Messtechnik für Trübung sowie Ammonium- und Nitratstickstoff (NH4-N und NO3-N) die aktuelle CSB-Konzentration bestimmt. Zur Entwicklung des Softsensors werden Regressionsmethoden aus dem Bereich des Machine Learning eingesetzt. Die Ergebnisse einer Entwicklungs- und Testphase an der Kläranlage Rospe in Gummersbach zeigen, dass die Werte des Softsensors sehr gut mit den Originaldaten übereinstimmen. Die Korrelationswerte beim Vergleich mit CSB-Messungen liegen bei der Regression mit Support Vector Regression bei 0,98 mit einem RSME von 2,45 mg/l.
Die Regelung heutiger, industriell genutzter Biomasse-Feuerungsanlagen erfolgt meistens über fest eingestellte Parameter. Bei Veränderungen des Brennstoffs dienen visuelle Beobachtungen der Mitarbeiter als Basis der Neueinstellung dieser Parameter. Das Ziel der Forschung besteht in der Optimierung solcher Regelungen durch den Einsatz von Kamerasystemen in Kombination mit einer automatisierten Regelung, die auf Basis von Flammenbild-Analysen funktioniert. Ein solches System wäre auch unabhängig von der Art des Brennstoffs.
This paper presents a series of flow and temperature measurements on the principal heat network of :metabolon in Lindlar, Germany. These measurements intend to show the behaviour of the system on specific production areas of :metabolon for future monitoring and optimisation purposes. Such measurements allow the analysis of the system’s heat flow through the network, which showed that losses exist, some areas. The results demonstrate successfully that the temperature and flow changes deserve more detailed and fixed monitoring in specific areas to help the user decide the optimum measuring point.
Online-measurement systems for agricultural and industrial AD plants – A review and practice test
(2014)
Online-measurement systems for AD plants in general are crucial to allow for detailed and comprehensive process monitoring and provide a basis for the development and practical application of process optimisation and control strategies.
Nevertheless, the online measurement of key process variables such as Volatile Fatty Acids (VFA) and Total Alkalinity (TA) has proven to be difficult due to extreme process conditions. High Total Solids (TS) concentrations and extraneous material often damage the sensors or have a strong negative impact on measurement quality and long-term behaviour.
Consequently, there is a need for new robust and accurate online-measurement systems.
The purpose of this paper is to give an overview of existing online-measurement systems, to present the current state of research and to show the results of practice tests at an agricultural and industrial AD plant. It becomes obvious that a broad variety of measurement solutions have been developed over the past few years, but that the main problem is the upscaling from lab-scale to practical application at full-scale AD plants. Results from the practice tests show that an online-measurement of pH, ORP, TS is possible.
Mit Hilfe der Inline-ATR-FTIR-Spektroskopie im mittelinfraroten (MIR) Spektralbereich lassen sich gleich mehrere Prozessparameter für Biogasanlagen in Echtzeit und ohne Probenahme verfolgen. Die gemessenen Absorptionsspektren geben simultan Aufschluss über den Gehalt an flüchtigen organischen Säuren (FOS), die alkalische Pufferkapazität (TAC) und die Ammoniumstickstoff-Konzentration (NH4-N).
Dabei können unter Verwendung intelligenter Datenanalyseverfahren, wie z.B. Partial Least Squares (PLS), Regression oder Support Vector Regression (SVR) sowie in kontrollierter Laborumgebung, Vorhersagefehler (RMSECV) von 0.372 g/l (FOS: R2=0.971), 0.336 g/l (TAC: R2=0.996) und 0.171 g/l (NH4-N: R2=0.992) im Falle der PLS, bzw. 0.386, 0.259 und 0.110 g/l für die SVR erreicht werden.
Erste Inline-Messungen in einer Biomüllvergärungsanlage zeigen, dass die erwarteten Absorptionsbanden auch im Prozessbetrieb wiedergefunden werden können. Sie unterliegen jedoch einem ausgeprägten Temperatureinfluss, der bei der Quantifizierung dieser Prozessdaten berücksichtigt werden muss. Weiterführende Untersuchungen sind notwendig, um die Inline-Tauglichkeit des Messsystems unter Beweis zu stellen.
In this paper a closed-loop substrate feed control for agricultural biogas plants is proposed. In this case, multi-objective nonlinear model predictive control is used to control composition and amount of substrate feed to optimise the economic feasibility of a biogas plant whilst assuring process stability. The control algorithm relies on a detailed biogas plant simulation model using the Anaerobic
Digestion Model No. 1. The optimal control problem is solved using the state-of-the-art multi-objective optimization method SMS-EGO. Control performance is evaluated by means of a set point tracking problem in a noisy environment.
Results show, that the proposed control scheme is able to keep the produced electrical energy close to a set point with an RMSE of 0.9 %, thus maintaining optimal biogas plant operation.
Aufgrund der steigenden Komplexität der Projekte und einem hohen Wettbewerbsdruck stellt die Kostenschätzung der fixen Investition, bereits in frühen Projektphasen, einen wichtigen Teil der Vorprojektierung dar. Wachsende Kosten und enormer Zeitdruck führten zu der Überlegung, auf Grundlage von Musteranlagen, bestehende Kostenschätzmethoden zu überprüfen und weiterzuentwickeln. Ferner ist das Ziel dieser Musteranlage, eine geeignete Kostenstruktur, die typisch für ihren Anlagentyp steht hervorzubringen, um das Kostenverhältnis weiterer Anlagen miteinander vergleichen zu können. Im Rahmen dieser Arbeit wird eine Musteranlage eines typischen Fluid-Prozesses abgeleitet und anhand geeigneter Kostenschätzmethoden überprüft. Ferner wird die Musteranlage, aufgrund ihrer Hauptausrüstungsgegenstände und ihren prozentualen Anteilen auf die Gesamtanlagenkomponenten, auf mögliche Kostenstrukturen hin untersucht. Als Musterprozess wird die Synthese von Ethylenglykol aus Ethen und Sauerstoff, als ein typisch chemisches Massenprodukt einer durchschnittlichen Chemieanlage, vorgeschlagen. Mit Hilfe des Programms Chemcad wird dieser Prozess simuliert und die einzelnen Anlagenkomponenten werden mit Hilfe von Erfahrungsregeln und Literaturwerten dimensioniert. Für die Umsetzung dieser Vorgehensweise wurde eine intensive Literaturrecherche über die üblichen Verfahrensweisen durchgeführt. Im Anschluss ein Grundfließschema erstellt aus dem ein vereinfachtes Fließbild abgeleitet wurde. Neben der Simulation mit dem Programm Chemcad erfolgte eine Auflistung aller am Prozess beteiligten Anlagenkomponenten in Form einer Equipment-Liste, die neben den Komponentenbezeichnungen auch alle für den Prozess wichtigen technischen Daten beinhaltet. Auf Grundlage dieser Equipment-Liste wurde sodann mit Hilfe geeigneter Kostenquellen wie z.B. dem DACE price booklet eine Kostenermittlung der einzelnen Anlagenkomponenten durchgeführt. Letztlich wurden anhand dieser Werte mögliche Kostenschätzmethoden, welche für einen frühen Zeitpunkt einer Projektphase geeignet sind, überprüft und miteinander verglichen. Abschließend wurde die Kostenstruktur dieser Musteranlage auf die prozentualen Anzahl- und Kostenverhältnisse, in Bezug auf die einzelnen Komponentengruppen, entwickelt und dargestellt.
Aufgrund der hervorgebrachten Kostenstruktur konnte festgestellt werden, dass die in dieser Arbeit abgeleitete Musteranlage typische Merkmale einer Fluid-Anlage aufweist und demnach für den Zweck ihrer Entwicklung genutzt werden kann. Die wesentlichsten Merkmale sind die hohen Kosten der Kolonnen und deren relativ kleinem Anzahlverhältnis im Vergleich zur hohen Anzahl an Pumpen und ihrem sehr kleinen Kostenverhältnis. Ferner konnte festgehalten werden, dass die Kostenschätzung für die frühe Projektphase eine hohe Ungenauigkeit ergab. Des Weiteren hat der Vergleich der Schätzmethoden ergeben, dass die Methode mittels der Hand-Faktoren ein genaueres Ergebnis lieferte. Aufgrund der Feststellung, dass spezifische Einflüsse wie Material, Instrumente und Gebäudekosten einen erheblichen Einflusses auf die Kosten der einzelnen Anlagenkomponenten aufzeigten, wird vorgeschlagen weitere Korrekturfaktoren in der Kostenschätzung zu berücksichtigen. Zum Zwecke der Weiterentwicklung von Kostenschätzmethoden wird ferner vorgeschlagen weitere Musteranlagen des Typs: gemischte Feststoff-Fluid-Anlage und eine reine Feststoffanlage, abzuleiten.
Erwachsenenbildungs- und Weiterbildungsprogramme begründen sich auf Zielgruppen- und Bedarfsanalysen. Es geht darum heraus zu finden, welche Zielgruppe welchen Bedarf hat, um daraufhin gezielte Angebote konzipieren zu können. Doch selbst wenn die Zielgruppe, ihre Bedürfnisse, Wünsche und Erwartungen bekannt sind und Ziele für ein Weiterbildungs-programm klar formuliert und kommuniziert wurden, bedeutet das nicht, dass diese Ziele in dieser Form von den Programmteilnehmer/innen verstanden und angenommen sowie in ihrem Arbeitsalltag umgesetzt werden. Diese Studie untersucht inwiefern die Programmziele des LehrendenCoaching-Programms der Fachhochschule Köln in den von neu berufenen Professorinnen und Professoren verfassten Lehrportfolios wieder zufinden sind.
This market research paper has been prepared under the supervision of Prof. Dr. Wolfgang Veit of Cologne University of Applied Sciences and Prof. Dr. Carol Scovotti of University of Wisconsin-Whitewater in the course of the inter-university cross-border collaboration student research project “Export Opportunity Surveys (EOS)”. This study explores organic cotton export opportunities to the German and US markets.
This market research paper has been prepared under the supervision of Prof. Dr. Wolfgang Veit of Cologne University of Applied Sciences and Prof. Dr. Carol Scovotti of University of Wisconsin-Whitewater in the course of the inter-university cross-border collaboration student research project “Export Opportunity Surveys (EOS)”. This study explores organic oats export opportunities to the German and US markets.
This market research paper has been prepared under the supervision of Prof. Dr. Wolfgang Veit of Cologne University of Applied Sciences and Prof. Dr. Carol Scovotti of University of Wisconsin-Whitewater in the course of the inter-university cross-border collaboration student research project “Export Opportunity Surveys (EOS)”. This study explores organic rye export opportunities to the German and US markets.
State of the art browser games are increasingly complex pieces of software with extensive code basis. With increasing complexity, a software becomes harder to maintain. Automated regression testing can simplify these maintenance processes and thereby enable developers as well as testers to spend their workforce more efficiently.
This thesis addresses the utilization of automated tests in web applications. As a use case test automation is applied to an online-based strategy game for the browser. The introduction presents the general conditions for a software project that makes use of automated tests and different approaches of test automation. The main section introduces a specific solution of test automation applied on the game “Forge of Empires”, produced by Innogames GmbH. The created framework of the company is presented. It implements different software frameworks. The conclusion consists of a comparison and analysis about the presented methods and technologies.
Diese Arbeit untersucht die zeitliche Interpolation von Videosignalen. Durch die
Einführung des Ultra High Definition Television Standard wird eine höhere Bildwiederholrate benötigz um
Judder-Artefakte zu vermeiden. In diesem Zusammenhang kommt der zeitlichen Interpolation von nicht nativem UHD Material eine besondere Bedeutung zu. Neben der räumlichen Interpolation ist diese essenziell. In dieser Arbeit wird eine Übersicht über die Anforderungen an UHD Video gegeben. Bewegungskompensierende
Verfahren für das Deinterlacing und Upscaling in Verbindung mit einer Phasenkorrelation werden behandelt. Ein MATLAB-Programm wird entwickelt mit dem ein Upscaling und Deinterlacing von HD Material durchgeführt werden kann.
Ein Problem unserer heutigen Informationsgesellschaft ist, dass Ärzte neuen technischen Systemen immer mit großem Argwohn begegnen und dies nicht zu unrecht. Denn immer wieder wird unser Vertrauen in Systeme durch große Missbrauchsskandale erschüttert. Doch sind technische Systeme wie medizinische Semantic Web Anwendungen ein nächster Schritt zu einer verbesserten medizinischen Versorgung.
Deshalb ist das Ziel dieser Arbeit für medizinische Semantic Web Anwendungen Ansätze für Normen und Architekturen zur Schaffung von Vertrauen zu finden. Hierzu wird erst das Vertrauen aus unterschiedlichen Blickwinkeln betrachtet und danach medizinische Semantic Web Anwendungen als sozio-technisches System. Dazu wird der der soziale Kontext des deutschen Gesundheitswesens betrachtet. Zusätzlich wird untersucht wie ein technisches System diesen Kontext verändern könnte.
Aus diesen drei Kategorien werden Normen definiert. Auf diesen Normen aufbauend werden Ansätze für Architekturen formuliert, welche das Vertrauen steigern sollen. Dazu werden schon vorhandene medizinische Ontologien beleuchtet, um den Ansätzen eine Basis zu geben.
Diese Ansätze für Architekturen werden als einzelne Bausteine zu einem größeren Ansatz zusammengefügt. Zuerst wird dieser größere Zusammenhang vorgestellt und danach werden einige Bausteine im Folgenden weiter beschrieben. Unter diese Bausteine fallen Kontrollinstanzen und deren Services sowie Zertifizierungsstellen mit unterschiedlichen Arten von Zertifikaten. Die meisten dieser Bausteine
sind jedoch Agenten mit den verschiedensten Aufgaben, auf welche genauer eingegangen wird. Die Qualität der Ontologien sollen diese einerseits als wichtigen Aspekt des Vertrauens verbessern und überwachen. Andererseits dienen weitere Agenten wiederum der Kommunikation untereinander oder der üblichen Akquisition von Informationen.
DesWeiteren bauen diese Agenten ein Vertrauensnetzwerk untereinander auf. Das Vertrauen zu anderen Agenten wird dabei mit unterschiedlichen Attributen dargestellt und liegt dezentral bei jedem Agenten oder kann ebenfalls von zentralen Services erfragt werden. Ein Austausch der Informationen unter den Agenten ist ebenso möglich. Diese Architektur mit einer Vielzahl von Agenten und das daraus
resultierende Vertrauensnetzwerk soll schließlich ein grundlegendes Vertrauen schaffen, auf welchem medizinische Semantic Web Anwendungen aufbauen können.
Studierende der Fachhochschule Köln unterscheiden sich in zunehmendem Maße in ihren sozio-kulturellen, bildungsbiografischen und kognitiven Voraussetzungen für einen hochschulischen Bildungsprozess. Lehre zeigt sich vor dem Hintergrund dieser Diversität zunehmend als Herausforderung. Ausgehend vom Ziel, studentisches Lern- und Arbeitsverhalten verstärkt auf Studienerfolg und die Gestaltung von Lehrveranstaltungen auf heterogene Zielgruppen auszurichten, wurde die Studie „Diversity Forschung“ durchgeführt, um Status quo der und Gestaltungsspielräume für Diversity-bezogene Aufmerksamkeit und Verständnis für lehr- und lernrelevante Effekte zu identifizieren. Die Studie wurde mit dem Forschungstypus Innerinstitutionelle Hochschulforschung durchgeführt.
Was kann und was sollte eine Hochschule über ihr Kerngeschäft Studium und Lehre wissen, wie kommt sie zu diesem Wissen und was fängt sie damit an? Innerinstitutionelle Hochschulforschung macht Handlungen und Prozesse im Rahmen von Studium und Lehre in den Strukturen der Hochschule transparent und kann so die institutionelle Selbstaufklärung und das Qualitätsmanagement stützen.
Gegenstand dieses Berichts sind Ansatz, Methoden und Befunde innerinstitutioneller hochschuldidaktischer Forschung an der Fachhochschule Köln. Schwerpunkt ist die Diversität der Lehrenden und Lernenden als Akteursgruppen und -gemeinschaft in Sachen Studium und Lehre. Ausgangspunkt war die Absicht, den Status lehr- und lernrelevanter Diversität zu erkennen, Gestaltungsspielräume für den Umgang mit Diversität auszuloten und Implementationen innovativer Lehrkonzepte für erfolgreiches Studieren mit einem Monitoring-Ansatz zu begleiten.
Weiterer Gegenstand des Berichts sind die Einflüsse dieser Forschung als Selbstbeobachtung auf intendierte Change-Prozesse zur Verbesserung von Studium und Lehre und die Frage, wie Selbstbeobachtungsstrategien als hochschuldidaktische Hochschulforschung weiter elaboriert werden und deren Befunde in die hochschuldidaktische Praxis und die Lehr- und Lernkultur der Fachhochschule Köln gelangen können.
This paper gives an overview of the development of Fair Trade in six European countries: Austria, France, Germany, the Netherlands, Switzerland and the United Kingdom. After the description of the food retail industry and its market structures in these countries, the main European Fair Trade organizations are analyzed regarding their role within the Fair Trade system. The following part deals with the development of Fair Trade sales in general and with respect to the products coffee, tea, bananas, fruit juice and sugar. An overview of the main activities of national Fair Trade organizations, e.g. public relation activities, completes the analysis. This study shows the enormous upswing of Fair Trade during the last decade and the reasons for this development. Nevertheless, it comes to the conclusion that Fair Trade is still far away from being an essential part of the food retail industry in Europe.
Die Einzelfadenverklebung zur Rissschließung in Leinwandbildträgern stellt ein bedeutendes Forschungsfeld dar, dem sich diese Arbeit widmet:
Erstmalig wurden in einem gemeinsamen Kontext uniaxiale Zugprüfungen an freien
Klebstofffilmen, verklebtem Garn und Gewebestreifen neben biaxialen Zugversuchen und multiaxialen Berstdruckprüfungen an Gewebeproben aus Leinen gegenübergestellt. Dazu wurden Rissverklebungen mit einer Auswahl unterschiedlicher Kunstharzdispersionen und Störleim-Modifikationen in überlappenden bzw. Stoß-auf-Stoß-Verbindungen mit und ohne Fadenbrücken angefertigt.
Ziel der Untersuchung war es, die einzelnen Einflussfaktoren bei den verschiedenen Versuchsreihen zu vergleichen und eine geeignete Prüfsystematik für die Klebstoffbewertung zur Rissbehandlung in textilen Bildträgern zu entwickeln.
Es zeigte sich, dass nur die Prüfung mehrerer verklebter Fäden im Gewebeverbund als langfristig sinnvoller Prüfaufbau verfolgt werden sollte. Im Zuge der Verklebungsbetrachtung konnten zudem vielversprechende Klebstoffe und -modifikationen gefunden sowie der zusätzlich verfestigende Effekt von Fadenbrücken an Stoß-auf-Stoß-Verbindungen belegt werden.
This paper is grounded in the emerging field of web science and shall contribute to its further classification and demarcation by illustrating the current state of »web-native research methods«. It builds upon an initial arraying work of Richard Rogers, who coined the term »Digital Methods« for research with methods that were »born« in the web, and illustrated and organized them in his eponymous book in 2013. This paper attempts to develop a more appropriate illustration of the Digital Methods by following the web’s very own, hypertextual, network-like nature, in particular by construing an ontological representation on the base of the Web Ontology Language (OWL). By virtue of decomposing the book into granular information units and their subsequent reassembly into OWL entities, immediate access to the entire knowledge domain can be provided, and coherencies, interrelations and distinctions between concepts become apparent. The ontology’s structure was induced narrowly along the provided examples of research projects and subsequently clustered in topic groups, of which the three most important ones were (a) the Digital Methods as an arraying space of web-native methodology, (b) a collection of concrete applications of these Digital Methods in research projects, and (c) a hierarchical scheme of traditional sciences with a distinct interest in answering research questions with help of Digital Methods. Subsequently, the ontology was evaluated in three general dimensions: Deriving user stories and scenarios provided means to validate the utilization quality; the accuracy and reliability of the resulting structure was validated with help of a control group of web-native research projects; and process control instruments served as a validator for the ontology’s correctness. Despite the ontology itself, this paper also resulted in a first interpretation of the produced information: Statements about research practise in social science, politics and philosophy were as possible as findings about commonly applied varieties of methods. Concluding, the present paper proposes a process of ontology engineering, an evaluation of the ontology’s value, and an interpretation of the ontology’s content.
Vorlesungsnotizen, Präsentationen, To-do-Listen – und vielleicht auch der eine oder andere Schmierzettel: Wie Studierende lernen, bleibt Dozenten oft verborgen. In Lernportfolios sammeln Studierende solche Dokumente dagegen systematisch. Davon können auch Lehrende profitieren – wenn sie ihre Kursteilnehmer gut anleiten.
CAPTCHAs (Completely Automated Public Turing test to tell Computers and Humans Apart), auch HIPs (Human Interaction Proof) genannt, sind weit verbreitete Sicherheitsmaßnahmen im World Wide Web, die Online-Dienste vor dem Missbrauch durch automatisierte Programme schützen sollen. Dazu werden die Benutzer aufge-fordert, eine Aufgabe zu lösen, welche von Computern nicht gelöst werden kann, wie beispielsweise das Entziffern von verkrümmten Buchstaben. Durch die immer weiter verbesserten Fähigkeiten der Computerprogramme auf diesen Gebieten, wird es für die Entwickler der HIPs immer anspruchsvoller eine ausreichende Sicherheit zu garantieren. Daraus resultiert ein Zielkonflikt zwischen der Sicherheit und Gebrauchstauglichkeit der HIPs. Da die Sicherheit garantiert werden muss, leidet die Gebrauchstauglichkeit und die Benutzer sind oftmals nicht in der Lage das HIP zu lösen. Dies führte bereits in der Vergangenheit zu einer Abneigung gegenüber diesen Systemen.
In dieser Arbeit wurde überprüft ob diese Abneigung durch die Verwendung von Gamifizierung, also Spielelementen, in einem neu entwickelten HIP verringert werden kann. Zusätzlich sollte geprüft werden, ob anstelle der Tastatur die Sensoren mobiler Endgeräte als Eingabe-medium dienen können.
Dazu wurde durch eine Analyse von durchgeführten Angriffen auf bestehende HIPs sowie Studien zur Gebrauchs-tauglichkeit derselben ein Rahmenwerk erstellt. Dieses Rahmenwerk definiert Anforderungen, die ein sicheres und zugleich benutzerfreundliches HIP erfüllen muss. Anhand dieser Anforderungen wurde ein neues spielbasiertes HIP in Form eines Kugellabyrinths auf Basis von JavaScript und HTML5 implementiert. Der Benutzer muss durch die Neigung des Geräts eine Kugel steuern und diese innerhalb der vorge-gebenen Zeit in das Loch lenken. Die Gebrauchstauglichkeit dieses HIPs konnte durch eine Onlineumfrage bestätigt werden. Dies gilt jedoch nicht für die Sicherheit, welche durch den lesbaren Quellcode stark beeinträchtigt wird. Für diese Schwach-stelle konnte eine Lösung in Form einer Browsererweiterung durch eine Public-Key-Signatur konzipiert werden. Durch diese Erweiterung könnte auf den Einsatz von HIPs in vielen Bereichen verzichtet und andere Webanwendungen sicherer gestaltet werden.
The amount of data produced and stored in multiple types of distributed data sources is growing steadily. A crucial factor that determines whether data can be analyzed efficiently is the use of adequate visualizations. Almost simultaneously with the ongoing availability of data numerous types of visualization techniques have emerged. Since ordinary business intelligence users typically lack expert visualization knowledge, the selection and creation of visualizations can be a very time- and knowledge-consuming task. To encounter these problems an architecture that aims at supporting ordinary BI users in the selection of adequate visualizations is developed in this thesis. The basic idea is to automatically provide visualization recommendations based on the concrete BI scenario and formalized visualization knowledge. Ontologies that formalize all relevant knowledge play an important role in the developed architecture and are the key to make the knowledge machine-processable.
E-Business im Generellen und E-Government im Speziellen haben in den letzten Jahren immer mehr an Bedeutung gewonnen. Die Transformation der Verwaltungsprozesse auf elektronische Medien birgt eine Vielzahl von Potentialen für alle Beteiligten: Einrichtungen der öffentlichen Verwaltung, Bürger und Unternehmen. Dennoch ist es in den letzten Jahren bei solchen Projekten, insbesondere im A2B-Bereich, also der Kommunikation zwischen Verwaltung und Unternehmen, immer wieder zu Problemen gekommen. Das Ziel der Arbeit ist es deshalb die Erfolgsfaktoren von solchen E-Government-Projekten zu identifizieren.
Hierzu werden zunächst die Grundlagen des E-Business erläutert und die Begrifflichkeiten voneinander abgegrenzt. Insbesondere werden die verschiedenen Kategorien von beteiligten Akteuren, die generischen Ziele des E-Business und dessen Einflussfaktoren genannt, um so den Bezugsrahmen des E-Business zu definieren.
Darauf aufbauend werden die Anwendungsbereiche des E-Governments erläutert und die funktionale und strukturelle Unterscheidung der möglichen Szenarien dargestellt.
Im Hauptteil der Arbeit werden anschließend anhand von Literatur-Quellen und aktuellen Studien die sechs Erfolgsfaktoren analysiert, die sich bei der Implementierung von E-Government-Lösungen in der Vergangenheit gezeigt haben. Diese reichen von technischen Faktoren wie der Kompatibilität der Systeme und der Datensicherheit über den richtigen Umgang von Veränderungen mit Hilfe des Change Managements bis hin zu den unterschiedlichen Rollen der beteiligten Akteure.
In den folgenden Abschnitten werden einige Aspekte des E-Governments genauer fokussiert: die verschiedenen Architekturen und Standards, relevante Gesetze und die deutsche E-Government-Strategie sowie der internationale Vergleich von Deutschland im E-Government-Bereich. Dabei wird geprüft, welchen Einfluss diese Aspekte auf die identifizierten Erfolgsfaktoren haben.
Bevor das Fazit die gewonnenen Erkenntnisse zusammen fasst und eine Prognose des E-Governments in Deutschland gibt, werden die beiden Verfahren ELSTER als positives und ELENA als negatives Beispiel für E-Government-Projekte im A2B-Bereich vorgestellt.
Ziel dieser Diplomarbeit ist es zu evaluieren, ob eine effiziente Implementierung von responsiven Webapplikationen zum Zeitpunkt der Erstellung der Arbeit möglich ist. Als technische Grundlage wird hierzu die HTML5-Spezifikation mit dem darin enthaltenen CSS3 und den JavaScript-Programmierschnittstellen herangezogen.
Es wird erläutert, dass unter responsivem Design die Reaktionsfähigkeit des Designs auf die Abrufumgebung, wie zum Beispiel die Größe der Anzeigefläche, zu verstehen ist und mit Hilfe welcher Techniken ein solches Design für Webapplikationen realisiert werden kann. Des Weiteren werden Möglichkeiten zur Performance-Optimierung aufgeführt, wobei festgestellt wird, dass für die Nutzung einer Webanwendung auf mobilen Geräten die Anzahl der Dateien das größte Potenzial zur Optimierung besitzt. Die Möglichkeiten der JavaScript-Programmierschnittstellen in HTML5 zur Umsetzung von Funktionalitäten für Webapplikationen, wie sie bei lokal installierten Anwendungen gebräuchlich sind, werden ebenso erläutert.
Das Fazit dieser Arbeit ist, dass ausreichend Techniken zur Erstellung von responsiven Webapplikationen in HTML5 definiert sind. Lediglich die zum Teil ausstehende Umsetzung dieser Techniken in den einzelnen Browsern verursacht Einschränkungen. Dies wirkt sich gegebenenfalls negativ auf die Effizienz des Umsetzungsprozesses aus. Ebenso kann die übermäßige Optimierung des Layouts und der Performance zu unverhältnismäßigem Aufwand führen.
Im Rahmen dieser Arbeit soll eine Java-Anwendung zum Zeichnen von Entity-Relationship-Diagrammen entwickelt und vorgestellt werden. Die Anwendung soll zur Unterstützung der Veranstaltung Datenbanken an der Fachhochschule Köln - Campus Gummersbach dienen. Der Hintergrund dazu ist die Tatsache, dass im Rahmen der Veranstaltung oftmals Entity-Relationship-Diagramme von Studenten gezeichnet werden sollen. Die Erfahrung der Lehrbeauftragten hat gezeigt, dass Studenten teilweise mit den empfohlenen Anwendungen Schwierigkeiten haben, unter anderem weil diese viel mehr Funktionen anbieten, als von den Studenten benötigt. Eine weitere Schwierigkeit ist die Tatsache, dass verschiedene Anwendungen zum Zeichnen von Entity-Relationship-Diagrammen verschiedenartige Diagramme erzeugen. Daher besteht der Bedarf einer Anwendungen, die sich einfach bedienen lässt, sich auf das Wesentliche beschränkt und einheitliche Diagramme erzeugt. Die zu entwickelnde Anwendung soll zukünftig innerhalb der Lernplattform edb von Studenten heruntergeladen werden können.
In dieser Bachelorarbeit wird das Thema Big Data und die damit verbundenen Technologien, sprich NoSQL und Hadoop behandelt. Das Thema wurde bewusst ausgewählt, weil sie zum einen aktuell und zum anderen immer mehr an Bedeutung, aus Sicht der Unternehmen gewinnt. Durch die ständig anwachsenden Daten, die zu 80% in Semistrukturierter Form vorliegen, stößt die IT-Infrastruktur eines Unternehmens schnell an seine Grenzen. Und genau an dieser Stelle sollen die Big Data Technologien, wie „NoSQL“ und „Hadoop“, helfen, die so großen Datenmengen zu verarbeiten, um für das Unternehmen, wertvolle Informationen zu liefern, die bislang nicht ersichtlich waren.
This paper gives a practical approach to the area of business ethics, in particular to Corporate Social Responsibility (CSR), via analyzing how the retail chain REWE shows its commitment to its social responsibilities as defined by the four-part model of CSR. As Fairtrade offers one way for fulfilling social responsibilities, in particular the ethical and philanthropic responsibilities of CSR, REWE’s participation in selling Fairtrade products is analyzed. This analysis is conducted by applying the criteria for receiving the Fairtrade Award to REWE which allows drawing conclusions about REWE’s commitment to Fairtrade. Information for this assessment is taken from publicly available sources as well as from personal communication with the Fairtrade organization TransFair. The paper further gives an indication about the match between REWE’s communication – as the selling of Fairtrade products is communicated via REWE’s sustainability program – and REWE’s action concerning social responsibility, expressed by its commitment to Fairtrade. Implementing a sustainability program is one way for companies to exercise CSR and thus the analysis conducted concerning REWE’s commitment to Fairtrade is an attempt to answer the question whether companies’ communication about their CSR efforts matches their actions.
Soziale Netzwerke decken ein breites Spektrum an Anwendungsfällen ab und bieten somit eine Vielzahl an Funktionen, bei denen die Teilnehmer mit ihrem sozialen Umfeld interagieren und mit anderen Informationen teilen können. Die dabei aufkommenden Informationen über die Teilnehmer müssen teilweise erfasst und gespeichert werden, um die Funktionalität und die Gebrauchstauglichkeit des sozialen Netzwerkes zu sichern und Missbrauch vorzubeugen. Dies jedoch hat den Nachteil, dass die entstandenen Daten und somit eine Reihe von Aktivitäten der Teilnehmer durch den Anbieter eines sozialen Netzwerkes beobachtet werden können. Um die Privatsphäre der Teilnehmer zu schützen oder auch um eine bessere Skalierbarkeit der sozialen Netzwerke zu erreichen, konzentrieren sich aktuelle Forschungsarbeiten auf die Dezentralisierung sozialer Netzwerke. Dies führt zu neuen Herausforderungen, da die Aufgaben der zentralen Organisationseinheit auf mehrere Komponenten ver-
teilt werden müssen. Eine dieser Aufgaben ist es, die Authentizität und Integrität der Daten für die Teilnehmer sicher zustellen. Die Vernachlässigung dieser beiden Schutzziele kann zu Missbrauch und verschiedenen Angriffen auf ein soziales Netzwerk und dessen Teilnehmer führen.
Um an diese Problemstellung heranzugehen, soll innerhalb dieser Arbeit geklärt werden, wann und welche Mechanismen für die Erfüllung der beiden Schutzziele in sozialen Netzwerken ohne zentrale Organisationseinheit geeignet sind. Hierfür werden die Angriffe zur Verletzung dieser beiden Schutzziele in soziale Netzwerken und der darunter liegenden Infrastruktur betrachtet. Des Weiteren wird geklärt, welchen Einfluss die Dezentralisierung auf die die Teilnehmerdaten hat und was die relevanten Kriterien für authentische Teilnehmerdaten sind.
In der Softwareentwicklung setzen sich vermehrt agile Methoden durch, die meist in kleineren Softwareprojekten Anwendung finden. Durch die intensive Einbeziehung des Kunden, Kommunikation innerhalb des Teams und kontinuierlichen Auslieferung soll die Softwarequalität gesteigert werden. So erhält der Kunde ein produktiv einsetzbares Softwareprodukt. Diese Bachelorarbeit gewährt einen Überblick über bekannte agile Prozesse und betrachtet im Detail den Scrum Prozess. Danach wird das Framework Oracle APEX vorgestellt und schließt mit einer Betrachtung zur Eignung der Einführung des Scrum Prozesses innerhalb APEX ab.
Das eLearning Datenbank Portal der Fachhochschule Köln unterstützt Studierende im Fach Datenbanken und Informationssysteme mit umfangreichen E-Learning-Tools (http://edb.gm.fh-koeln.de). Die Diplomarbeit „Konzeption und Realisierung eines Statistiktools auf Basis von JSP und DOJO“ beschäftigt sich mit der Entwicklung eines Statistiktools, das die Nutzung des eLearning Portals durch die Studenten auswertet und die Nutzungsdaten als Diagramme auf einer Benutzeroberfläche einfach und übersichtlich dargestellt, damit diese von Lehrenden überprüft werden können. Der theoretische Teil der Diplomarbeit ist in zwei Abschnitte aufgeteilt. Der erste Abschnitt beschreibt die Grundlagen von Java Server Pages und die JavaScript-Bibliothek Dojo Toolkit. Es werden deren Eigenschaften und praktische Anwendung ausführlich erläutert. Der zweite Abschnitt befasst sich mit der Entwicklung eines Konzepts zum Statistiktool. Es stehen die Analyse der Nutzungsdaten und der Vergleich zwischen Oracle Application Express (APEX) und Dojo zur Erstellung von Diagrammen in Vordergrund. Im praktischen Teil der Diplomarbeit wird das Konzept umgesetzt und die Implementierung des Statistiktools als JSP-Anwendung mit der Verwendung von Dojo beschrieben.
In dieser Arbeit wird auf die theoretischen Grundlagen von digitalen Filmkameras, des Dynamikumfangs und der HDR Technologie eingegangen. Im Einzelnen werden die Spezifikationen der digitalen Filmkamera RED Epic sowie des Tonemapping-Operators iCAM06 aufgeführt. In der Durchführung war es das Ziel, den erhöhten Dynamikumfang einer mit dieser Kamera aufgezeichneten Szene mit iCAM06 zu komprimieren und diesen auf einem handelsüblichen Monitor darzustellen. In der Auswertung werden Bildergebnisse für unterschiedliche Übergabeparameter demonstriert und dokumentiert.
This study paper introduces different tools, i.e. analytical methods and visualizations, in business intelligence environments. It especially emphasizes the use of OLAP-based technologies as a tradtional kind of data analysis in contrast to as graph analysis and formal concept analysis as rather new approaches in the area of visual analytics.
Es wurde ein Vergleich zwischen einer nativen Android-Anwendung und einer Titanium-Anwendung durchgeführt, anhand einen mobilen SQL-Trainers. Die mit Eclipse nativ entwickelte Android-Anwendung und die Titanium-Anwendung (Android und iOS) sind, zumindest mit unserem beispielhaften Funktionsumfang, fast gleichwertig. Die Entwicklung für BlackBerry und Tizen konnte auf Grund der noch nicht ausgereiften Entwicklungsart für diese Plattformen kaum getestet werden, allerdings wird der größere App-Markt mit iOS und Android unterstützt. Die noch nicht ausgereifte Entwicklungsweise für das Tizen-Betriebssystem kann vernachlässigt werden, wenn bedacht wird, dass auf dem Tizen-Betriebssystem native Android-Anwendungen ausgeführt werden können. Außerdem wird Tizen noch auf keinem Smartphone eingesetzt. Die Vorbereitung auf die Erstentwicklung ist durch die noch etwas weniger ausgereifte, aber dennoch sehr professionelle Entwicklungsumgebung beim Titanium SDK etwas zeitaufwändiger als bei der Eclipse-Entwicklungsumgebung. Natürlich sind die nativen und vom Betriebssystemhersteller herausgegebenen Entwicklungsformen der Vorreiter für das Titanium SDK und deshalb auch die sicherere Entwicklungsform, wenn es beispielsweise um Kompatibilität und Hardwarezugriff geht. Das Titanium SDK übersetzt den entwickelten JavaScript-Code in nativen Code der jeweiligen Plattformen mit den jeweiligen Plattform-Elementen. Die angepriesene Zeitersparnis von zwanzig Prozent bei der Entwicklung kann nicht bestätigt werden. Die Entwicklung der Benutzeroberfläche ist aufwändiger als bei der nativen Entwicklungsweise.
Diese Bachelorarbeit zeigt auf, welche Probleme bei der Verwendung der Videofunktion von digitalen Consumer-Kameras wie Digitalkameras mit Videofunktion, Mobiltelefonen oder Camcordern entstehen können. Auf der Basis dieser Arbeit wird die Firma Image Engineering ein Testverfahren zur Videoanalyse entwickeln.
Bewegung als Musikinstrument - Entwicklung eines Prototypen auf Basis von Kinect und Pure Data
(2012)
Es wurden Möglichkeiten der Bewegungsanalyse durch Gamecontroller untersucht und dazu passende Audioerzeuger erstellt. Dazu wurden vier Prototypen erstellt, die auf verschiedenen Analysetechniken basieren. Dazu zählt die Analyse per Webcam, der Sony Playstation Move Controller, und die Microsoft Kinect. Dann habe ich einen Ansatz auf Basis der Kinect weiter-entwickelt. Die Eingabedaten der Kinect wurden über Open Sound Control zu Pure-Data über- ragen. In Pure-Data habe ich ein Instrument erstellt, das durch die geschickte Kombination von Oszillatoren und Filtern einen individuellen und interessanten Klang erzeugt. Dazu wurde ein entsprechendes Kontrollkonzept umgesetzt, welches sich an dem eines Saiteninstrumentes orientiert, dieses Konzept jedoch von der Bewegung der Finger und Hände auf größere Bewe- gungen des ganzen Körpers überträgt. Es wurden Schnittstellen erstellt und diskutiert, mit denen das System via MIDI und Open Sound Control auch an andere Audioerzeuger angeschlossen werden kann. Während der ganzen Entwicklung wurde darauf geachtet, Open-Source-Software zu bevorzugen. Am Ende steht ein elaboriertes System, welches abgesehen von der Hardware völlig frei verfügbar und quelloffen ist.
Die Wohlfahrtsverbände der beiden großen Kirchen in Deutschland spielen in der Sozialwirtschaft aufgrund ihrer Größe und engen Verflechtung eine übergeordnete Rolle. Nicht zuletzt deswegen zählen sie in den allermeisten Sozialberufen zu den größten Arbeitgebern. Aufgrund ihrer verfassungsrechtlichen Sonderstellung dürfen sie bei der Personalauswahl - im Gegensatz zu konfessionell ungebundenen Arbeitgebern - Menschen ohne die "passende" Konfession vom Bewerbungs- und Einstellungsverfahren ausschließen. Hiervon machen Einrichtungen der Caritas und Diakonie häufig bereits in ihren Stellenausschreibungen Gebrauch. Für die vorliegende Arbeit wurden insgesamt 685 Stellenausschreibungen von katholisch getragenen Einrichtungen analysiert. Bei der Auswertung wird insbesondere in den Blick genommen, in welchen Arbeitsfeldern und bei welchen Stellenarten die "erlaubte Diskriminierung" besonders häufig festzustellen ist. Die Arbeit zeigt auf, dass große arbeitsfeldspezifische Unterschiede auftreten, insgesamt jedoch kaum einheitliche Standards festzustellen sind. Mit Blick auf den befürchteten Fachkräftemangel in einigen Sozialberufen wird die Frage diskutiert, ob es aus Sicht der Kirchen noch sinnvoll ist, zahlreiche qualifizierte Menschen aufgrund der fehlenden Konfessionszugehörigkeit vom Bewerbungs- und Einstellungsverfahren auszuschließen.
Entwicklung und Gestaltung neuer Multimedia-Formate am Beispiel des Projekts "Bluthochdruckvorsorge"
(2012)
Die vorliegende Bachelorarbeit beschäftigt sich mit der Gestaltung und Entwicklung der multimedialen Anwendungen für das Projekt „Bluthochdruckvorsorge“, das am Institut für Photo- und Medientechnik durchgeführt wurde. Nach der Analyse der didaktischen und technischen Voraussetzungen für die Entwicklung bestimmter multimedialer Formate für die Gesundheitsprävention wurden vergleichbare Anwendungen analysiert und bewertet. Anschließend wurde die webbasierte Anwendung „Bluthochdruckvorsorge„ vorgestellt und deren Konzeption und Realisierung erläutert.
Der immer weiter steigende Bedarf an qualitativ hochwertigen, grafischen Inhal- ten in Computerspielen sorgt dafür, dass neue Wege gefunden werden müssen, um diese mit verfügbaren Ressourcen produzieren zu können. Hier hat sich in einigen Bereichen die Verwendung von prozeduralen Techniken zur computergestützten Ge- nerierung von benötigten Modellen bereits bewährt. Ein Bereich, der aufgrund seiner Komplexität besonders interessant für den Einsatz von prozeduralen Methoden ist und im Bereich der Computerspieleindustrie noch am Anfang steht, ist die Simulation und Erzeugung von virtuellen Städten oder anderen urbanen Strukturen. Ziel dieser Arbeit ist es, ein Systemkonzept zu präsentieren, das auf Grundlage eines erweiterbaren Bedürfnissystems von Personen ein virtuelles Wegenetz erzeugt, das als Folge der Interaktionen der Personen mit der simulierten Welt entsteht. Es soll gezeigt werden, dass einzelne Agenten ohne ein globales Wissen oder eine vorhandene Planungsinstanz nach dem Beispiel von sozialen, staatenbildenen Insekten nur mit- hilfe einer Kommunikation auf Pheromonbasis zu in Computerspielen einsetzbaren Simulationsergebnissen kommen.
A level graph G = (V,E,λ) is a graph with a mapping λ : V → {1,...,k}, k ≥ 1, that partitions the vertex set V as V = V1 ∪...∪ Vk, Vj = λ-1(j), Vi ∩ Vj = ∅ for i ≠ j, such that λ(v) = λ(u) + 1 for each edge (u, v) ∈ E. Thus a level planar graph can be drawn with the vertices of every Vj, 1 ≤ j ≤ k, placed on a horizontal line, representing the level lj , and without crossings of edges, which can be drawn as straight line segments between the levels. Healy, Kuusik and Leipert gave a complete characterization of minimal forbidden subgraphs for level planar graphs (MLNP patterns) for hierarchies [4]. Minimal in terms of deleting an ar- bitrary edge leads to level planarity. A radial graph partitions the vertex set on radii, which can be pictured as concentric circles, instead of levels, lj = (j cos(α), j sin(α)), α ∈ [0,2π), mapped around a shared center, where j, 1 ≤ j ≤ k indicates the concentric circles’ radius. Comparing embeddings of radial graphs with that of level graphs we gain a further possibility to place an edge and eventually avoid edge crossings which we wish to prevent for planarity reasons. This offers a new set of minimal radial non planar subgraphs (MRNP patterns). Some of the MLNP pat- terns can be adopted as MRNP patterns while some turn out to be radial planar. But based on the radial planar MLNP patterns and the use of augmentation we can build additional MRNP patterns that did not occur in the level case. Furthermore we point out a new upper bound for the number of edges of radial planar graphs. It depends on the subgraphs in- duced between two radii. Because of the MRNP patterns these subgraphs can either consist of a forest or a cycle with several branches. Applying the bound we are able to characterize extremal radial planar graphs. Keywords: radial graphs, minimal non-planarity, extremal radial planar
This market research paper has been prepared under the supervision of Prof. Dr. Wolfgang Veit of Cologne University of Applied Sciences and Prof. Dr. Carol Scovotti of University of Wisconsin-Whitewater in the course of the inter-university cross-border collaboration student research project “Export Opportunity Surveys (EOS)”. This study explores walnuts export opportunities to the German and US markets.
Im Rahmen dieser Bachelorarbeit wurde der von Debevec und Malik verwendete Algorithmus zur Erstellung von HDR-Bildern als Plugin für die Bildverarbeitungssoftware ImageJ implementiert. Darüber hinaus wurde die Implementierung durch Tests auf ihre Funktionalität überprüft und Schwachstellen des Algorithmus erläutert. Durch Modifizierungen des erstellten Plugins wurden einige Schwächen des Algorithmus verbessert.
For audio signals, we use the sign of the coefficients of the redundant discrete wavelet transform to generate primary hash vectors assigning bit 1 to positive or zero coefficients and bit 0 in the negative case. Discarding the highest frequency band and using a 6 step transform we get for each sample a 6 bit primary hash value which we may save as an integer. We then select a possible primary hash value (in our experiments we chose 0 or 63) and take the time indices where this primary hash value occurs as the secondary hash vector which is attributed to the whole audio signal. Comparing two audio signals, the number of elements in the intersection of the corresponding time indices are called "number of matches", a high number may indicate a similarity between the files. This secondary hash vector turns out to be robust against addition of noise, GSM-, G.726-, MP3 coding and packet loss. It may therefore be useful to detect spam telephone calls without analyzing the semantic content by the similarity of the corresponding signals. An algorithm is given to detect similar but shifted signals. Results of experiments are reported using a test corpus of 5 000 audio files of regular calls and 200 audio files of different versions of 20 original spam recordings augmented by a set of 45 files of different versions of 9 "special spam" signals.
Diese Arbeit beschreibt einen optischen Aufbau zur Herstellung von Holografisch-Optischen Elementen. Der Aufbau nutzt dabei einen räumlichen Lichtmodulator, um die Phasenverteilung eines ebenen Wellenfelds gezielt zu manipulieren. Das Wellenfeld wird mithilfe eines 4f-Aufbaus einer optischen Filterung unterzogen und anschließend mit einer Referenzwelle überlagert. Die Inten- sitätsverteilung des Interferenzmusters, das bei dieser Überla- gerung entsteht, wird in ein Fotopolymer belichtet. Die Belich- tung regt dabei Polymerisationsprozesse im Fotopolymer an, die zu einer räumlichen Modulation des Brechungsindex führen. So- mit kann eine definierte räumliche Phasenverteilung in das Foto- polymer geschrieben werden, welches als Holografisch-Optisches Element bezeichnet wird. Aufgrund der geringen Dauer des ge- samten Prozesses wird dieser als Rapid Prototyping bezeichnet.
This market research paper has been prepared under the supervision of Prof. Dr. Wolfgang Veit of Cologne University of Applied Sciences and Prof. Dr. Carol Scovotti of University of Wisconsin-Whitewater in the course of the inter-university cross-border collaboration student research project “Export Opportunity Surveys (EOS)”. This study explores vanilla export opportunities to the German and US markets.
Diese Arbeit behandelt die physikalisch plausible Bildsynthese virtueller Szenen anhand strahlungsphysikalischer Größen sowie physikalisch plausibler Beleuchtungsmodelle in Kombination mit qualitativ hochwertigem Schattenwurf. Verschiedene Modelle und Verfahren werden untersucht und in einer Echtzeitumgebung implementiert.
Diese Bachelorarbeit erläutert das Vorgehen bei der Erstellung einer Applikation für mobile Endgeräte, die einen dialogorientierten 3D-Charakter darstellt, der auf die Eingaben des Benutzers reagiert. Erläutert wird hierbei auch die historische Entwicklung der Mensch-Maschinen-Kommunikation. Darauf folgt ein Überblick über die, im Bereich der mobilen Endgeräte verfügbare, Hard- und Software sowie deren Architektur. Weitere Teile befassen sich mit den in der Applikation genutzten, selbst erstellten Methoden zur Textanalyse und Antwortgenerierung, sowie der Kombination aller Komponenten zu einem Endprodukt.
Diese Masterarbeit beschäftigt sich mit der Visualisierung von Leistungs- und sportmedizinischen Daten aus Athletenakten. Nach einer kurzen Einleitung wird zunächst die Aufgabe beschrieben. Hier wird auf die Anforderungen an die zu entwickelnde Komponente eingegangen. Anschließend werden die vorhandenen Leistungs- und sportmedizinischen Daten beschrieben. Dabei wird zunächst die Tabellenstruktur der zugrundeliegenden Datenbank inklusive der XML-Spalten beschrieben.Weiterhin werden die XML-Dateien aufgeführt, in denen die Athletendaten gespeichert werden. Im folgenden Kapitel werden grundlegende Visualisierungstechniken vorgestellt und am Avatar angewendet. Neben den Techniken werden anschließend verschiedene Visualisierungstechnologien beschrieben und eine begründete Auswahl getroffen. Das nächste Kapitel beschreibt neben der Visualisierungstechnologie weitere, verwendete Technologien wie Programmiersprache und Serverarchitektur. Eine Vorstellung der entwickelten Komponenten sowie ein Ausblick und Fazit runden in den letzten beiden Kapiteln die Arbeit ab.
Informationen beim Eintreten eines Ereignis zu übermitteln, ist die Aufgabe ereignisorienterter Systeme. Für die Entwicklung solcher Systeme, gibt es eine Reihe von Technologien und Standards, welche je nach Plattform oder Anwendungskontext verschiedene Vorteile besitzen. Innerhalb dieser Seminararbeit werden die webbarsierten Systeme betrachtet, in dem auf die Konzepte von Light und Fat Ping, Publish-Subscribe sowie zentrale und dezentrale Architekturen eingegangen wird. Des Weiteren werden die Technologien XMPP, Googles C2DM, Amazon SNS und SQS, Twitter und Apples Push Notification beschrieben. Abschließend werden aus diesen Betrachtungen Merkmalsdimensionen abgleitet, die dabei helfen sollen, geeignete Lösungen in einem Anwendungskontext auszuwählen. Zusätzlich können diese bei der Konzeption von Systemen als Hilfestellung herangezogen werden.
Aufgrund der steigenden Nutzung mobiler Geräte und der Vielzahl persönlicher bzw. geschäftlicher Daten, die auf mobilen Geräte gespeichert und verarbeitet werden, sind mobile Geräte zu einem attraktiven Angriffsziel geworden. Ungeachtet des Schutzbedarfs hat sich die Sicherheitssoftware, wie man sie von stationären Systemen her kennt, auf mobilen Geräten bisher nicht durchsetzen können. Sicherheitsansätze stationärer Systeme können mobile Geräte zwar vor Bedrohungen schützen, jedoch sind diese Ansätze zu ressourcenintensiv für mobile Geräte, deren Rechenleistung und Akkukapazität relativ begrenzt ist. Um den Schutzbedarf mobiler Geräte und deren Anwendungen unter Berücksichtigung der begrenzten Ressourcen zu erfüllen, wird in dieser Arbeit ein Architekturmodell konzipiert, das Anwendungen, abhängig von Bedrohungen, Sicherheitsmaßnahmen bereitstellt. Anders als beim Sicherheitsansatz stationärer Systeme werden nur die Sicherheitsmaßnahmen umgesetzt, die aufgrund der aktuellen Bedrohungen notwendig sind. Ermöglicht wird die adaptive Bereitstellung von Sicherheitsmaßnahmen durch einen in dieser Arbeit vorgestellten Ansatz, der die Ermittlung von Bedrohungen und geeigneter Maßnahmen aus Kontextinformationen und Erfahrungswerten zulässt. Zuletzt wird die Realisierbarkeit des Architekturmodells anhand einer prototypischen Implementierung nachgewiesen.
PubMed stellt mit 21 Mio. Aufsatzzitaten eines der umfangreichsten Informationssysteme in Bereich der Medizin. Durch die Verwendung einer einheitlichen Terminologie (Medical Subject Heading - MeSH) bei der Indizierung von PubMed Inhalten kann die Orientierung in solch großen Datenbeständen optimiert werden. Zwar bietet ein kontrolliertes Vokabular bei der Informationsbeschaffung zahlreiche Vorteile gegenüber einer Freitextsuche doch fällt Nutzern das Abbilden eines Informationsbedarfs auf die verwendete Terminologie oftmals schwer. In dieser Arbeit wird eine Systemunterstützung geschaffen, die den Abbildungsprozess automatisiert indem eine automatische Verschlagwortung textbasierter Inhalte unter Verwendung eines kontrollierten Vokabulars vorgenommen wird. Durch die Verwendung einer einheitliche Terminologie kann so eine konsistente Integration von PubMed Inhalten erreicht werden.
Immer kürzer werdende Technologielebenszyklen, sich schnell ändernde gesetzliche Anforderungen und der ständig wachsende Wettbewerb führen dazu, dass Unternehmen dem Zwang unterliegen sich schnell auf diese veränderten äußeren Bedingungen anzupassen. Die Optimierung der eigenen Geschäftsprozesse ist diesbezüglich eine wesentliche Aufgabe, da diese so gestaltet werden müssen, dass Anpassungen möglichst schnell und minimal invasiv erfolgen können. Eine Optimierungsmöglichkeit ist Geschäftsprozesse mit Hilfe von Prozessbeschreibungssprachen wie BPEL (Business Process Execution Language) oder BPMN (Business Process Modelling Notation) automatisiert ablauffähig zu machen. Diese Automatisierung trägt zum einen dazu bei, dass Fach- und IT-Abteilung über das Gleiche nämlich über Geschäftsprozesse reden. Zum anderen hilft die Automatisierung dabei, klassische Probleme wie beispielweise Medienbrüche zu vermeiden. Eine Vollautomatisierung ist dabei jedoch meist nicht möglich und auch nicht sinnvoll, da es in Geschäftsprozessen Entscheidungen beziehungsweise Aufgaben gibt, welche das Eingreifen eines menschlichen Akteurs erfordern. Diesen Sachverhalt haben auch die Plattform-Hersteller erkannt und Möglichkeiten bereitgestellt, welche die Integration menschlicher Interaktion in einen automatisiert ablaufenden Prozess ermöglichen. Die Integration mit Hilfe so genannter Tasks, welche von einer Task-Engine erzeugt und Akteuren oder Gruppen von Akteuren zugeordnet werden. Diese Tasks können über eine Tasklist-oder Inbox-Applikation durch entsprechend berechtigte Benutzer bearbeitet werden. Solche Applikationen werden in der Regel von den Plattformherstellern zur Verfügung gestellt (z.B. Oracle Worklist Application oder Activiti Explorer), oder können über ein mitgeliefertes API (Application Programming Interface) individuell programmiert werden. Die APIs sind allerdings häufig proprietär und unterscheiden sich von Hersteller zu Hersteller. Für die Anwenderunternehmen heißt dies, dass entweder die mitgelieferte Anwendung verwendet oder eine eigene erstellt werden muss. Die erste Variante bringt das Problem mit sich, dass die mitgelieferten Anwendungen meist nicht ins Corporate Design passen und sich nicht ohne weiteres in bestehende Unternehmensportale, oder ähnliches einfügen lassen. Die zweite Variante ist aufwendig, da in der Regel nicht zu unterschätzende zeitliche und damit auch monetäre Aufwände anfallen. Zudem machen sich Anwenderunternehmen abhängig vom Hersteller der Workflow-Engine, weil ein Wechsel der verwendeten Plattform auch die Re-Implementierung der Inbox-Anwendung bedeutet. Zusammenfassend betrachtet bestehen im Bereich der menschlichen Interaktion also Probleme in den Bereichen Portabilität und Interoperabilität. Zudem entsteht eine enge Kopplung zwischen Task-Engine und den Inbox-Applikationen. Im Bereich der menschlichen Interaktion liegt bei der OASIS (Organization for the Advancement of Structured Information Standards) seit einigen Jahren die WS-HT Spezifikation vor, welche eine standardisierte Integration menschlicher Interaktion in Service-orientierten Architekturen gewährleisten soll. Hierüber könnten die angesprochenen Probleme beseitigt werden. Problem dabei ist, dass die WS-HT Spezifikation von aktuellen Task-Engine Implementierungen nicht berücksichtigt wird. Um dennoch die bestehenden Probleme adressieren zu können, soll ein Adapterframework, basierend auf den Vorgaben der WS-HT Spezifikation definiert werden, konzipiert und implementiert werden, das die Funktionalitäten verschiedener Task-Engines über eine standardisierte Schnittstelle anbietet. Mit Hilfe diese Frameworks soll die enge Kopplung zwischen einer spezifischen Task-Engine und den Inbox-Applikationen aufgehoben werden.
Schulleistungsstudien wie PISA und IGLU haben wiederholt belegt, dass Jungen im Bereich der Leseleistungen schlechtere Resultate erzielen als Mädchen. Sowohl die Lesekompetenz als auch die Lesemotivation der Jungen ist deutlich schwächer ausgeprägt. Die Wissenschaft identifiziert als mögliche Ursachen hierfür einerseits die Besonderheiten der männlichen Hirnstruktur und andererseits die Feminisierung der Erziehung. Auch in der intensiven Nutzung von Bildschirmmedien sowie der Gestaltung des schulischen Deutschunterrichtes scheinen Ursachen der geringeren Lesefähigkeit und -motivation der Jungen zu liegen. Die individuellen und auch gesellschaftlichen Konsequenzen sind weitreichend, denn Lesen ist als elementare Schlüsselqualifikation die Basis für Medien- und Informationskompetenz und somit eine wesentliche Voraussetzung für die mündige Teilnahme am gesellschaftlichen Leben. Da Leseförderung eine Kernaufgabe der öffentlichen Bibliotheken ist, sind auch sie mit dieser Problematik konfrontiert. Um mit ihren Angeboten auch Jungen zu erreichen, müssen sie deren geschlechtsspezifische Interessen, Bedürfnisse und Lesehaltungen berücksichtigen. Veranstaltungsarbeit und Medienbestand müssen daran ausgerichtet sein und kontinuierlich fortgeführt bzw. aufgebaut werden. Die Beteiligung männlicher Erwachsener als lesende Vorbilder ist ebenso wichtig wie die Integration anderer Medien, insbesondere Computer und Internet. Es gibt in Deutschland bereits einige gute Ansätze und Konzepte der Jungenleseförderung, jedoch fehlt bei der Veranstaltungsarbeit meist die Kontinuität. Spektakuläre Lese-Events versprechen leider nur einen kurzfristigen Erfolg, wenn sie nur einmal im Jahr stattfinden. Dabei müssen Veranstaltungen nicht unbedingt aufwändig und teuer sein, um nachhaltig zu wirken. Ein Blick ins Ausland zeigt, dass es auch einfache Konzepte gibt, die bei Jungen das Interesse an Büchern wecken. In den USA und in Großbritannien existieren einige vorbildliche Initiativen der Jungenleseförderung, die von deutschen öffentlichen Bibliotheken adaptiert werden könnten.
Der Smartphone-Markt gehört zu einem der am stärksten wachsenden Märkte der heutigen Zeit. Zudem erfreuen sich Anwendungen mit soziotechnischen Aspekten wie YouTube und Facebook immer größer werdender Beliebtheit. Genau hier siedelt Your-Sights an. Dabei wurde im Rahmen eines Projekts eine Software für das Smartphone-Betriebssystem Android konzipiert und entwickelt, welche in der Lage ist Touren, bzw. eine Menge von Wegpunkten zu erstellen, wiederzugeben und zu verwalten. Neben obligatorischen GPS-Koordinaten können für jeden Wegpunkt textuelle und visuelle Informationen, in Form von Bildern, erfasst werden. Für die kartografische Darstellung wird auf das OpenStreetMap-Projekt zurückgegriffen. Im Rahmen dieser Bachelor-Thesis wird das Projekt fortgesetzt und auf die Konzeptio-nierung und Entwicklung einer Middleware eingegangen, welche eine Brücke zwischen den Anwendern und einer Datenbank bildet. Letztere dient nicht nur dem Austausch von Touren, sondern ermöglicht auch eine Kommunikation unter den Anwendern. Dabei wurde Wert auf die Evaluation einer adäquaten Kommunikationstechnologie für den Datenaustausch zwischen dem Anwender und der Middleware gelegt. Schließlich erfolgte der Einsatz des Java NIO-Frameworks Netty und die Entwicklung eines Kommunikationsprotokolls. Darüber hinaus wird auf notwendige Änderungen und Erweiterungen der Android-Applikation, als auch eine prototypische Entwicklung des Servers eingegangen.
Wie nutzen die Kunden die Bibliothek? : Online-Kundenbefragung der Universitätsbibliothek Bochum
(2011)
Die Universitätsbibliothek Bochum (UB) hat in Zusammenarbeit mit der Fachhochschule Köln / Fakultät für Informations- und Kommunikationswissenschaften in der Zeit vom 20. Januar bis 11. März 2011 eine Online-Befragung aller Studierenden durchgeführt. Ziel der Befragung war, Erkenntnisse darüber zu gewinnen, wie die Bibliothekskunden die Lehr- und Lernplätze schon heute nutzen und in Zukunft gerne nutzen würden. Weitere Schwerpunkte waren die für die Nutzung des Lernortes Bibliothek bevor-zugten Zeiten und welche Wünsche hinsichtlich einer optimalen gewünschten räumlichen Lern- und Arbeitsumgebung bei den Kunden bestehen. Aspekte der Mediennutzung in gedruckter oder elektronischer Form sowie das Kursangebot der Bibliothek zur Informationskompetenz standen ebenso im Fokus des Interesses. Dabei stand die Frage im Vordergrund: Was wünschen die Kunden sich für die Zukunft und welche Hinweise auf strategische Handlungsfelder und Prioritäten können daraus gewonnen werden.
Untersuchungsgegenstand des Berichtes ist die Leistungsmessung in Forschungsbibliotheken am Beispiel der Fraunhofer Gesellschaft und damit eine sehr komplexe Fragestellung, die sich mit den Besonderheiten dieses bibliothekarischen Arbeitsfeldes und seiner Evaluation auseinander setzt. Während es zahlreiche Ansätze in Deutschland und auch international für die Leistungsmessung in öffentlichen und wissenschaftlichen Bibliotheken – hier meist im Sinne von Universitätsbibliotheken verstanden – gibt, ist die Sonderstellung von Forschungsbibliotheken weniger gut untersucht. Alle großen Wissenschaftsorganisationen in Deutschland besitzen unterschiedlich strukturierte Forschungsbibliotheken. Ihre Aufgabe ist es, die Forscher auf dem Weg zur Spitzenforschung in adäquater Weise zu unterstützen und zu begleiten, um so optimale Rahmenbedingungen für die „exzellente“ wissenschaftliche Arbeit zu schaffen. Dabei hat sich jedoch das Umfeld der Bibliotheken in den letzten Jahren dramatisch gewandelt. Neue Publikationswege der Verlagsbranche, sich änderndes Mediennutzungsverhalten der Kunden durch das Internet sowie eine stärker globalisierte und vernetzte Zusammenarbeit der Forscher (e-Science) stellen Bibliotheken vor neue Aufgaben und Herausforderungen. Neue Produkte und Dienstleistungen entstehen, deren Erfolg und / oder Wirkung gemessen werden sollen. Diesem Forschungsprojekt vorausgegangen ist ein umfassendes Kooperationsprojekt mit der Fraunhofer-Gesellschaft im WS 2008/9 und SS 2009 mit dem Titel „Die Forschungsbibliothek der Zukunft“. Zentrale Fragestellung des Berichtes ist die Entwicklung einer zukunftsweisenden Leistungsmessung in den Bibliotheken der Fraunhofer-Forschungsinstitute. Neben allgemeinen Kennzahlen geht es auch darum, welche Besonderheiten zu berücksichtigen sind und wo sich auch die Grenzen der Messbarkeit zeigen. Entwickelt wird ein Vorschlag, mit dem sowohl kleine, als auch große Bibliotheken ihren Beitrag zur Gesamtleistungsdarstellung des Bibliotheksbereichs liefern können, so dass ein abgestuftes Modell verschiedener Methoden in Form einer „Toolbox“ entsteht.
Die vorliegende Diplomarbeit beschäftigt sich mit einer Bildqualitätsanalyse der Stellen, an denen Qualitätsentscheidungen getroffen werden sowie der anschließenden Analyse dieser Bildstellen. Zunächst werden sechs verschiedene Fotografien mit den Optimierungsparametern Helligkeit, Schärfe, Kontrast und Neutralität bearbeitet. Um die oben genannten Bildstellen zu finden, werden diese durch 20 Probanden mit Hilfe eines Eye-Tracking Systems ermittelt. Die daraus gewonnenen Bildstellen werden dann im Frequenz- und Farbbereich durch Plug-Ins im Programm „ImageJ“ untersucht.
Die Erzeugung und Nutzung digitaler Daten nimmt in der medizinischen Bildgebung weiter stetig zu. Farbmonitore und das Aufgabenfeld der Wiedergabe der Bilder zur informativen Betrachtung spielen aber bisher eine untergeordnete Rolle. Verbindliche Vorgaben und Hinweise zum Umgang mit Farbdisplays, sowie auch zur informativen Betrachtung, sind bisher kaum entwickelt worden. Vor dem Hintergrund, dass Farbdisplays heute in großer Zahl im medizinischen Umfeld vorhanden sind und vielfach auch schon mobile Geräte zum Einsatz kommen, untersucht diese Arbeit experimentell, ob und wie die bereits heute vorhandenen digitalen Bilddaten in ausreichender Qualität auf diesen nicht kalibrierten Bildwiedergabesystemen dargestellt werden können. Es werden drei mobile Bildwiedergabesysteme auf ihre technische Eignung hin untersucht. Die Ergebnisse dieser Untersuchung, sowie ein visueller Vergleich eines Testdatensatzes auf den drei Testsystemen und einem DICOM kalibrierten Befundsystem zeigen, dass vorrangig eine Dynamikkompression nötig ist, welche mit Hilfe einer Laplacepyramide realisiert wird.
Für Anwendungen, die mit XML-Dokumenten arbeiten, kann es aus der Sicht eines Unternehmens sinnvoll sein, die Daten in einer relationalen Datenbank zu speichern. Sollte die Anwendung von sich aus nur mit nativen XML Datenbanken arbeiten und gar keine Anbindung an relationale Datenbanken vorsehen, sind umfassende Untersuchungen notwendig. Vor allem bei Redaktionssystemen, die für den Produktiv-Betrieb eines Unternehmens essentiell sind, darf es zu keinen Beeinträchtigungen durch die Datenhaltung kommen. Redaktionssysteme arbeiten zudem aufgrund ihrer Funktionsvielfalt mit verschieden strukturierten Dokumenten, an die unterschiedliche Anforderungen bestehen. Es müssen also optimale Strukturen für die einzelnen Dokument-Gruppen gefunden werden. Möglichkeiten XML-Dokumente in einer relationalen Datenbank zu speichern gibt es allerdings viele. Sei es ein nativer XML-Datentyp, ein Mapping auf Relationen oder gar ein hybrides Verfahren. Die Wahl der passenden Struktur wird nicht nur durch die Anwendung, die Nutzer und die Datenbanken beeinflusst, sondern auch durch die Struktur und die Nutzungskontexte der XML-Dokumente. Ziel dieser Arbeit ist es, anhand von ermittelten Kriterien, optimale Strukturen für verschiedenartige XML-Dokumente zu finden. Dazu werden neben dem Redaktionssystem, den Datenbanken und den Daten, auch verschiedene Strukturen untersucht. Abgesehen von den Strukturlösungen sollen die Erkenntnisse in dieser Arbeit dabei helfen, die native XML Datenbank des betroffenen Redaktionssystems durch eine relationale Datenbank zu ersetzen.
Der vorliegende Bericht ist das Ergebnis einer Projektarbeit von Studierenden am Institut für Informationswissenschaft der Fachhochschule Köln im Studiengang Bibliothekswesen. Im Rahmen dieser Arbeit untersuchten sieben Studierende während des Sommersemesters 2011 die bibliothekarische Auskunft anhand eines zu diesem Zwecke erstellten Kriterienkatalogs. Die sieben Studierenden testeten die Bibliotheken über vier verschiedene Auskunftskanäle (Chat, Persönliche Auskunft, Telefonische Auskunft und Webformular/E-Mail-Auskunft). Zuerst werden der Kriterienkatalog und dessen Anforderungen sowie der Bewertungsbogen für die Tests vorgestellt. Im folgenden Kapitel steht die Erarbeitung der Testfragen, die zur Bewertung des Auskunftsprozesses gestellt wurden, im Fokus. Es wird eine quantitative Übersicht aller Fragen pro Auskunftskanal und Bibliothekstyp gegeben. Anschließend werden die gestellten Testfragen aufgelistet und erläutert. Zudem werden die Erfahrungen des Pretests sowie die Testphase erläutert. Im nächsten Kapitel erfolgt die Auswertung der gesamten Untersuchung. Die Analysen und Ergebnisse werden jeweils durch Torten- oder Säulendiagramme visualisiert. Fazit und Ausblick runden die Ergebnispräsentation ab. Im Anhang befinden sich eine Auflistung der Auskunftstypen und Bibliothekstypen, das zu Grunde liegende Notenschema, die Auswertungsbögen sowie zwei Erfahrungsberichte der Auskunft jeder Studierenden.
Dublettenerkennung bezeichnet einen Prozess zur Ermittlung ähnlicher oder identischer Datensätze, die sich auf das gleiche Objekt der realen Welt beziehen. Eine besondere Bedeutung hat diese im Rahmen einer Datenbereinigung zum Beispiel nach dem Zusammenführen verschiedener Datenbestände mit möglichen Überlappungen. In diesem Zusammenhang haben sich in den letzten Jahren einige interessante Entwicklungen ergeben. Zum einen steigen die erfassten Datenmengen immer weiter an, so dass Algorithmen an Bedeutung gewinnen, die auch in solchen großen Datenbeständen effizient arbeiten. Zum anderen steigt durch die stärkere Verbreitung von Mehrkernprozessoren und die zunehmende Zentralisierung von IT-Diensten (vgl. Cloud Computing) auch der Bedarf an Lösungen, die in solchen Umgebungen optimal arbeiten und sich gut skalieren lassen. Der hier vorgestellte Lösungsansatz zur Dublettenerkennung kombiniert einen modernen und effizienten Algorithmus mit den Vorzügen einer zentralen und dienstorientierten Architektur.
Im Rahmen dieser Diplomarbeit wurde ein Java-Programm zur automatisierten Detektion von Strukturelementen in Volumendatensätzen entwickelt und anhand eines neu entwickelten Prüfkörpers der lokale geometrische Fehler eines bildgebenden Systems ermittelt. Mit geeigneten Algorithmen werden, für eine treffsichere Detektion, das Rauschen reduziert, die Stützstellen detektiert und die 7-Parameter der Helmert-Transformation bestimmt.
Der Auskunftsdienst gehört zu den Kerndienstleistungen einer Bibliothek. Obwohl ihm in anderen Ländern große Bedeutung beigemessen wird, ist Deutschland in dieser Hinsicht noch mehr von Bestandsdenken geprägt. Bibliothekskunden sind sich größtenteils nicht im Klaren darüber, dass es solch ein Angebot der Bibliothek überhaupt gibt, das über die reine Beantwortung von Bestandsfragen hinausgeht. Deswegen sollte den Kunden kommuniziert werden, worum es sich bei Auskunfts- bzw. Informationsdienst handelt. Des Weiteren sollten Umfang und Grenzen festgelegt und veröffentlicht werden. In den USA geschieht dies durch sogenannte „Reference Service Policy Statements“. Policies für den Auskunftsdienst werten diesen auf, erhöhen die Sichtbarkeit solcher Angebote und beeinflussen die Erwartungen der Kunden im besten Falle so, dass Kundenzufriedenheit entsteht. Die Verbreitung von solchen Dokumenten in Deutschland ist erwartungsgemäß eher gering. Es lässt sich allerdings feststellen, dass digitale Auskunftsangebote eher Angaben zu den Rahmenbedingungen ihrer Dienstleistung machen als konventionelle, also persönliche, Vor-Ort-Auskunftsangebote. Innerhalb der digitalen Angebote sind Policies bei Auskunftsverbünden weiter verbreitet.
Die vorliegende Arbeit beschäftigt sich mit Recherchekompetenzen von Studierenden und der Vermittlung der betreffenden Fertigkeiten in Online-Tutorials als eine innovative Methode der Vermittlung von Informationskompetenz. Studierende stehen im Rahmen des Studiums vor der Herausforderung effiziente, wissenschaftliche Recherchen in verschiedenen Rechercheinstrumenten durchzuführen. In unterschiedlichen Studien wurde bereits herausgefunden, dass Studierende Probleme und Defizite bei der wissenschaftlichen Recherche haben und bei ihnen Bedarf nach Unterstützung besteht. Diese Studienergebnisse bilden die Grundlage für eine Analyse der Online-Tutorials DISCUS, LOTSE, DOT und Bib@InfoLit. Hierbei besteht das Ziel der Arbeit darin, die Berücksichtigung und didaktische Aufbereitung der Inhalte in Bezug auf die Informationsbedürfnisse der Studierenden zu untersuchen. Ein abschließender Vergleich resümiert die Umsetzungen in den Online-Tutorials.
Bibliothek und Moderne in Japan : das wissenschaftliche Bibliothekswesen zwischen System und Kultur
(2011)
Die vorliegende Arbeit erklärt die gegenwärtigen Strukturen des Hochschulbibliothekssystems in Japan aus ihrer kulturhistorischen Entwicklung heraus. Im Mittelpunkt steht dabei die Frage nach Einflüssen der traditionellen japanischen Kultur auf das moderne Bibliothekswesen. Zunächst wird die Entwicklung des vormodernen Bibliothekswesens in Japan bis ca. 1850 geschildert. Sodann wird vor dem gesellschaftlichen und kulturellen Hintergrund der Entwicklung der japanischen Modernisierung bis in die Nachkriegszeit die Genese des modernen wissenschaftlichen Bibliothekssystems einschließlich des relevanten Verbandswesens und der Bibliothekarsausbildung erläutert. Das System der Hochschulbibliotheken wird dabei im Kontext angrenzender Systeme wie des Hochschulsystems und des allgemeinen Bibliothekssystems in Japan geschildert. Die internen Strukturen der japanischen Hochschulen und der ihnen angeschlossenen Bibliotheken sind der vorliegenden Darstellung zufolge in der Vorkriegszeit wesentlich vom Vorbild der zeitgenössischen deutschen Hochschulen beeinflusst gewesen, während in der Nachkriegszeit der US-amerikanische kulturelle Einfluss deutlich überwiegt. Die kooperative Bibliotheksarbeit, die Automatisierung und die Entwicklung hin zur digitalen Bibliothek vollzogen sich zwar gegenüber westlichen Ländern teils langsamer, führten aber doch zu einem leistungsfähigen und ausdifferenzierten Hochschulbibliothekssystem. Die Arbeit schildert zudem die Unterschiede zwischen Bibliotheken an privaten und staatlichen Trägerinstitutionen, zwischen älteren zweischichtigen und jüngeren einschichtigen Bibliothekssystemen, und die Rolle des japanischen Staates für die Bibliotheksentwicklung. Sie beschreibt auch einige der Herausforderungen des gegenwärtigen Systems: dazu zählen Probleme in der japanischen Bibliothekarsausbildung und die Entwicklungsperspektive der Träger vor dem Hintergrund der alternden japanischen Gesellschaft. Die Arbeit kommt zu dem Schluss, dass sich aus der Entwicklung des modernen Hochschulbibliothekssystems ein konsequenter kultureller Bruch mit der vormodernen japanischen Bibliothekstradition ersehen lässt. Die Modernisierung nach 1850 führte nicht nur zum Import von Techniken und systemischen Organisationsprinzipien des westlichen Bibliothekswesens, sondern auch die bibliothekarische Berufskultur wurde wesentlich von westlichem Gedankengut geprägt.
Diese Bachelorarbeit befasst sich mit dem Portal http://www.informationskompetenz.de/, das als Gemeinschaftsprojekt bibliothekarischer Arbeitsgemeinschaften zur Vermittlung von Informationskompetenz der regionalen und überregionalen Kooperation von Bibliotheken in Deutschland dienen soll. Neben einem Glossar, Standards und Erklärungen sowie Präsenzen der beteiligten Bundesländer stellt es insbesondere eine Datenbank zur Sammlung und zum Austausch von Materialien zu diesem Thema bereit. Nach einem Überblick über die Entstehung des Begriffs der Informationskompetenz, seine Entwicklung und aktuelle Tendenzen folgen die Beschreibung des Gesamtportals sowie eine kurze Analyse desselben anhand eines definierten Katalogs inhaltlicher und formaler Kriterien. Daneben ist auch ein kurzer Überblick über die weiteren Komponenten des Portals Bestandteil der Arbeit. Der Schwerpunkt der Arbeit liegt auf der darauffolgenden Analyse und Evaluation der Materialiendatenbank, die ebenfalls unter Anwendung der definierten Kriterien erfolgt. Der Umfang, die Struktur und die Gestaltung der Datenbank stehen bei der Untersuchung im Vordergrund; die Begutachtung erfolgt anhand einer Stichprobe von 20% der zum Zeitpunkt der Bearbeitung in der Datenbank enthaltenen Dokumente. Zudem fließen zur Evaluation der Suchfunktionalitäten auch einzelne ausgewertete Suchanfragen in die Bewertung ein. Von den hier präsentierten Ergebnissen der Evaluation des Portals und der Materialiendatenbank ausgehend werden abschließend potenzielle Perspektiven der Plattform aufgezeigt. Es werden konkrete Entwicklungsmöglichkeiten dargestellt, im Anschluss daran wird die Plattform aber zudem in den bibliothekarischen Gesamtkontext eingeordnet und ihre mögliche zukünftige Rolle skizziert.
Die vorliegende Arbeit befasst sich mit dem Berufsbild des wissenschaftlichen Bibliothekars aus historischer Perspektive. In ihr wird in chronologischer Weise die Entwicklung der verschiedenen Anschauungen zu Aspekten wie Ausbildung und Tätigkeitsspektrum beschrieben. Als Untersuchungsmaterial dienen thematisch einschlägige Publikationen von ca. 1800 bis heute. Ein besonderes Augenmerk gilt der Beziehung des Bibliothekswesens zur Wissenschaft sowie dem Selbstverständnis des Bibliothekars in diesem Kontext. Thematisiert wird unter anderem die traditionell „hybride“ Position des Fachreferenten als Mittler zwischen den beiden Sphären; plädiert wird (im Schlussteil) für neue Formen der Kooperation mit den Fachbereichen der Hochschule – unter Wahrung des eigenen Profils.